Направо към основното съдържание
Форум на Европейската гражданска инициатива

Европейците за безопасни връзки призовават за по-силно регулиране на изкуствения интелект при вземането на решения

Актуализирано на: 24/01/2023

Европейците за безопасни връзки са коалиция от национални и международни организации, които осъзнават неблагоприятните последици от съвременните комуникационни технологии. Подчертаваме, че не сме против технологиите, а в полза на безопасните технологии и безопасните връзки.

В рамките на една година от нашата кампания научихме поуки, които могат да бъдат полезни за бъдещите организатори. Първо, ако чувате този истински глас в сърцето си показва, че ще промените света за по-добро за всички и за всички: следвайте този глас, водете борба и никога не се отказвайте от надежда!

ако тръгнете с потока, хората лесно ще дойдат с вас и няма да се сблъскате с съпротива. Но ако се наложи да се противопоставите на това, може да е необходимо Вашето послание, като например тристия почвен отблъскване на водата се нуждае от мек и траен дъжд. Въпреки че ЕС се нуждае от милион подписа, от значение е качеството на вашите идеи.

В нашата европейска гражданска инициатива (ЕГИ) „Спрете ((((5G))) — Да останем свързани, но защитени“ имаме 23 предложения. Сред тях призоваваме за по-добро регулиране на неприкосновеността на данните и автоматичното вземане на решения от страна на изкуствения интелект. Предлагаме да се започне оценка на въздействието на 5G върху защитата на личните данни (предложение 19), бихме искали да видим активна борба срещу дискриминацията и нарушенията на цифровите права (предложение 21) и считаме, че гражданите следва да бъдат информирани дали техните данни се обработват по автоматизирана процедура (предложение 22).

Stop 5G - Logo

Как е започнало всичко

Изкуственият интелект (ИИ) е от доста време. Още в началото на 50 г. очакванията бяха високи по отношение на безкрайните възможности, които интелигентните технологии биха донесли на нашето общество. Сега, повече от половин век по-късно, технологиите, използващи изкуствен интелект, успяват бавно да навлизат в нашето ежедневие. Въпреки че човешките роботи все още не вървят по света, ние разчитаме на множество сложни технологии в управлението на инфраструктурата, работните процеси и свободното време.

Настоящите „интелигентни“ технологии могат да се различават от това, което по-рано учените биха наричали интелигентни машини, подобни на човека. Като има предвид, че Алан Тюринг определя разузнаването като мислене и действие като човек, в днешно време интелигентните системи вакуумизират нашия дом с ограничена мисъл. Трудно е да се определи какво точно представлява ИИ и какво включва той. Въпреки това тя ни позволи да живеем по-ефективно, по-гладко и може би още по-приятно.

Но недостатъците на безкрайната автоматизация и роботизация стават все по-очевидни. Вземете например жените жалбоподатели в Amazon: отхвърлено, тъй като алгоритъмът се е научил да облагодетелства мъжете за жените. Или чатботът на Microsoft в Twitter, който е трябвало да бъде изтеглен офлайн, тъй като е извел някои изключително расистки „истини“ от други туитъри. Или факта, че в Google се появяват предимно снимки на мъже с термина „главен изпълнителен директор“.

Можем да мислим, че ИИ изглежда отстранява най-лошото от мъжете и задълбочава съществуващите неравенства. Това обаче може да се окаже донякъде опростено, за да се стигне до заключение. Системите с ИИ и основните алгоритми често разчитат на данни, много данни, за да научат повече за нашия свят. Техниките за машинно самообучение, като например невронни мрежи и дървета на решенията, се опитват да изведат тенденции, връзки между концепции и важни параметри, които да им помогнат да изберат правилните варианти при бъдещи заявки. Тези данни не са резултат от машинното самообучение. Не, повечето от данните бяха генерирани от нас, хората, докато кликнете върху интернет и споделихме предпочитанията си. Като използват нашите данни, за да научим, системите с ИИ разкриват систематични предубеждения, които до известна степен вече присъстват в нашето общество. Това прави прилагането на интелигентни технологии не само технологичен, но и обществен и етичен въпрос. Поради тези причини някои изследователи твърдят, че инженерите отдавна се крият зад технологичните аспекти на ИИ, като се съсредоточават върху подобряването на изчисленията, като същевременно пренебрегват въздействието, което техните иновации могат да имат върху крайните потребители. Технологиите се поставят между разработчика и външния свят. В тази статия са описани три въпроса: дискриминация, отчетност и логика на „черната кутия“.

Winter country with 20 telecommunication masts among firs and spruces

Зимна държава с 20 телекомуникационни мачти сред първите и смъртоносните
кредити: Източник в публичната
сфера: https://labs.openai.com/

Третиране на дискриминацията и предубежденията 

Също както жените заявители на Amazon, хората от малцинствени групи попадат извън действителния обхват на системите с ИИ. Причината е видна от наименованието: това са хора, които образуват малцинство. Тяхното представяне в данните ще бъде ограничено и алгоритъмът няма да научи специфичните характеристики, които представляват тези лица. Подобно на хората, системите функционират по-зле с ограничени познания. Резултатът: чернокожите лица са обозначени като апени от интелигентния софтуер на Google за четене на изображения или като по-опасни в автоматична система за оценка на риска за рецидивизъм. Просто защото софтуерът е бил обучен върху снимки, съдържащи бели индивиди (и може би горили).

Учените в областта на данните са запознати с този проблем и вече съществуват техники за подобряване на резултатите. Например чрез коригиране на набора от данни, така че малцинствените групи да бъдат по-добре представени. Или чрез добавяне на допълнителна стъпка в процеса на машинно самообучение, за да се прецизира моделът.

И да усложни още повече дискусията: какво се случва, ако нашата система прогнозира резултатите много добре. Приемаме, че разработваме два алгоритъма. Един, който правилно открива заболяване 80 % от времето при бели индивиди, но само 60 % от времето при цветни индивиди. И втори, който правилно открива заболяване само 60 % от времето, независимо от фона. Трябва ли след това да се стремим към равенство и да вземем по-лошия алгоритъм? Въпреки че дискриминиращото лице би могло потенциално да спести повече бели индивиди? Именно тук възникват етични съображения.

Нашият учен в областта на данните току-що се превърна в човек, формиращ вярата на един милион други, и трябва внезапно да направи трудни етични съображения. Етични дилеми, на които все още не е отговорено в обществения дебат. Не можем да очакваме инженерите да вземат тези решения, нито да ги искаме. Необходими са разпоредби, които да направляват проектирането на софтуера.

Artificial Intelligence is a good servant but a bad master

Изкуственият интелект е добър служител, но лошо владее.
Кредит:

Спиране на 5G екипа

Отчетност и отговорностВ нашето общество хората носят отговорност за своите дела. При интелигентните системи е трудно да се идентифицира виновникът. Особено ако системите са сложни и самообучаващи се. Инженерите не винаги могат да предвидят какво ще научи системата или как ще се държи. Amazon вероятно не е възнамерявало да застраши кандидатите от женски пол, нито Google съзнателно е поставило мъжете в горната част на резултатите от търсенето. Тези последици се появиха едва след въвеждането на системата в света. Но за кого ще виновим? Дружеството за използването на тези системи, въпреки че не е имало основателни причини да се съмнява в качеството на системата преди това.

Или дружеството, изградило системата за продажба на продукт, който се оказа дискриминационен.Иновациите винаги са нарушавали и не са били без риск. Те искат адаптиране на нашето общество и правосъдна система. Вземете колата. В ранните дни на автомобила е било разрешено да пътува свободно в градовете без предпазни колани, въздушни възглавници и пътни знаци. Докато броят на жертвите бързо се увеличава и улиците стават неудобни. Необходими бяха нови насоки и регламенти, за да се рационализира новата технология в съществуващата инфраструктура. Малко от тях прогнозираха, че автомобилът ще стане толкова опасен за пешеходната тълпа. Чрез регулиране на използването успяхме да повишим безопасността, като същевременно се възползвахме от предимствата на този нов вид транспорт.

В днешно време едва ли можем да си представим свят без автомобилен транспорт.Също както при автомобилите, забраната на системите с ИИ заради първоначалните им опасни последици би била твърде слабо забележима. Системите с ИИ могат да окажат и дори вече оказват положително въздействие върху нашето общество. На този етап обаче системите с ИИ се разработват и изхвърлят в нашето ежедневие без „предпазни колани“ или други предпазни мерки. Важно е да се мисли критично за това как искаме ИИ да съществува в нашето общество.

Image showing a man waving a red flag for pedestrians to warn them of cars and a robot holding a red flag to warn about Artificial Intelligence

 
Червен флаг Кредитът:

Спиране на 5G екипа

Черна кутияВ обосновката на ОРЗД се посочва, че хората имат право да видят основанията, въз основа на които са взети решенията, какви данни се събират и как ще се използват тези данни. Този сравнително нов закон е стъпка в правилната посока, но далеч не е подходящо решение за установяване на неприкосновеността на личния живот или придържане към гражданските права. Когато посещават уебсайт в интернет, потребителите често се сблъскват с големи количества текстове, обясняващи неясно какви лични данни се събират. И в повечето случаи е трудно да се отхвърлят бисквитките или трябва да кликнете около няколко изскачащи прозореца. Дружествата спазват строгите ограничения на ОРЗД и не улесняват физическите лица да упражняват надзор върху собствените си данни.

Ето защо считаме, че ОРЗД е наивна инициатива, която показва глада за данните на онлайн дружествата.Но дори ако дружествата биха били по-склонни да споделят истинското събиране и използване на лични данни, те невинаги са напълно в състояние. Много интелигентни системи функционират като черни кутии: групирането на много данни и системата ще даде определен резултат в зависимост от характеристиките на данните. През последните години инженерите предпочитат тези системи „черна кутия“. Тези системи имат голям потенциал за изучаване на по-сложни понятия като език или изображения. Известни примери за системи с черна кутия са невронни мрежи, софтуер за разпознаване на лица или софтуер за обработка на естествен език (напр. Google Translate). Инженерите имат контрол върху някои параметри, но нямат никакъв поглед върху вида информация, която тези системи научават или извличат от данните. Само чрез проверка на изпълнението въз основа на нови данни инженерът може да прецени дали системата е научила какво е трябвало да се очаква. Например инженер може да въведе набор от нови изображения, за да види дали системата е в състояние да ги интерпретира. Но както видяхме по-рано, ако инженерът не е тествал достатъчно задълбочено системата, снимките на цветни хора могат да се тълкуват като снимки на маймуни. Възможно ли е инженерите в Google да са знаели за тази грешка? Добре, ако бяха тествали софтуера върху набор от цветни снимки, които биха могли да имат. Снимките обаче могат да съдържат нещо.

И би било много трудно системата да бъде проверена на всичко.По-ефикасно би било да се провери какви неща са научили софтуерът. Ако алгоритъмът Google може да ни каже какви стъпки предприема, за да получи тълкуване, инженерите могат да проверят тази обосновка и да оценят вероятните изключения или случаи на грешки. Ето защо членовете на научната общност призовават за по-разбираеми подходи към машинното самообучение.

Алгоритмите „черна кутия“ все още не са разгърнали потенциала си и не са непременно по-добри от по-разбираемите алгоритми.Предимството при тълкуването на тези разбираеми алгоритми е по-голямо от очакваното предимство по отношение на ефективността на алгоритмите „черна кутия“.

Analytics Information by Reto Scheiwiller

 
Наблюдение на черната кутия Кредитът:

Спиране на 5G екипа

СключванеИзкуственият интелект и интелигентният софтуер присъстват доста повсеместно в съвременния живот. Оказване на влияние върху процесите на вземане на решения в дружествата и проявяване на пристрастност към малцинствените групи.

Въпреки че не разбираме напълно как функционира изкуственият интелект, как той ни влияе и какви ще бъдат дългосрочните последици.

Гражданите на ЕС не са попитани дали приемат повсеместните обществени последици от инструментите за вземане на решения, ръководени от изкуствения интелект, в името на технологичния напредък и цифровизацията.

Поради това в ЕГИ „Спрете ((((5G))) — да останем свързани, но защитени“ призоваваме за по-силно регулиране с цел защита на гражданите от нарушения на неприкосновеността на личния живот и дискриминация в резултат на неконтролираното използване на системата с ИИ при вземането на решения в предложение 19, предложение 21 и предложение 22 на ЕГИ.

  • И ние не сме сами:Европейският комитет по защита на данните не прилича на нови законодателни предложения на Европейската комисия, които ще улеснят използването и споделянето на (лични) данни между повече публични и частни страни.
  • Според Европейския комитет по защита на данните това „щеокаже значително въздействие върху защитата на основните права на неприкосновеност на личния живот и защитата на личните данни“.Европейският съвет изтъква значението на ориентиран към човека подход към политиката в областта на ИИ.
  • Помислете по въпроси като пристрастното и непрозрачно вземане на решения, засягащи основните човешки права на гражданите.
  • В предварителното проучване на ЮНЕСКО относно етиката на изкуствения интелект на стр. 10 се посочва, че „Най-важно е... да се образоват бъдещите инженери и компютърни учени за етично съгласувано проектиране на системи с ИИ“.
  • Друга европейска гражданска инициатива (ЕГИ), наречена Reclaim Your Face, поиска забрана за използването на вреден ИИ, като например биометрична маса и наблюдение за разпознаване на лица.Още през 1942 г. Исак Асимов предвижда проблемите и обявява три закони за роботиката. Първият закон е, че роботът не трябва да вреди на човек.

Както е показано в тази статия, ние сме далеч от това.

 

Stop 5G - Blog Post Author

Автори

 

Амар ван УденАмар ван Уден е писател на Европейската гражданска инициатива (ЕГИ) „Спрете ((((5G))) — да останем свързани, но защитени“.

Оставете коментар

За да можете да добавяте коментари, трябва да влезете в системата или да се регистрирате.
Отказ от отговорност: мненията, споделени във Форума на ЕГИ, изразяват единствено гледната точка на техните автори и по никакъв начин не може да се смята, че изразяват позицията на Европейската комисия или Европейския съюз.
Готови сте да регистрирате вашата инициатива?

Искате да подкрепите инициатива? Искате да научите повече за текущи и минали инициативи?