Přejít na hlavní obsah
Fórum evropské občanské iniciativy

Evropané pro bezpečné připojení volají po silnější regulaci umělé inteligence při rozhodování

Datum aktualizace: 24/01/2023

Evropané pro bezpečné připojení jsou koalicí vnitrostátních a mezinárodních organizací, které si jsou vědomy nepříznivých důsledků moderních komunikačních technologií. Zdůrazňujeme, že není proti technologiím, ale podporujeme bezpečné technologie a bezpečné připojení.

Během jednoho roku naší kampaně jsme získali poznatky, které mohou být užitečné pro budoucí organizátory. Zaprvé, pokud slyšíte tento skutečný hlas ve vašem srdci a řeknete vám, že změníte svět k lepšímu pro všechny a všechny: sledujte svůj hlas, bojujte a nikdy nevzdejte naději!

pokud se dostanete do toku, lidé se s vámi snadno setkají a nebudete čelit odporu. Pokud však budete muset jít proti němu, může být vaše poselství zapotřebí, jako je žíhání půdy odpuzující vodu, vyžaduje měkké trvalé deště. Přestože EU potřebuje milion podpisů, záleží na kvalitě vašich nápadů.

V naší evropské občanské iniciativě „Stop (((5G))) – Stay Connected but Protected“ máme 23 návrhů. Mimo jiné vyzýváme ke zlepšení právní úpravy v oblasti ochrany údajů a k automatickému rozhodování prostřednictvím umělé inteligence. Navrhujeme zahájit posouzení dopadů 5G na ochranu osobních údajů (návrh 19), přejeme si aktivní boj proti diskriminaci a porušování digitálních práv (návrh 21) a domníváme se, že občané by měli být informováni o tom, zda jsou jejich údaje zpracovávány automatizovaným postupem (návrh 22).

Stop 5G - Logo

Jak to vše započalo

Umělá inteligence se již nějakou dobu obklopuje. Již na počátku 50 let byla vysoká očekávání, pokud jde o nekonečné možnosti, které by inteligentní technologie přinesly naší společnosti. V současné době, o více než půl století, se technologie infuze umělé inteligence pomalu dostala do našeho každodenního života. Ačkoli humanoidní roboti ještě neprocházejí našim světem, spoléháme se při řízení infrastruktury, pracovních procesech a volném čase na řadu složitých technologií.

Současné „inteligentní“ technologie se mohou lišit od toho, co by bývali vědci nazývali inteligentní stroje podobné člověku. Zatímco Alan Turing definoval zpravodajské informace jako myšlení a jednání jako lidé, v současné době inteligentní systémy vstřebávají náš dům s omezeným myšlením. Definování toho, co je umělá inteligence přesně a co zahrnuje, je obtížné. To nám však umožnilo žít efektivněji, hladší a možná ještě příjemnější.

Nevýhody nekonečné automatizace a robotizace jsou však stále zjevnější. Například přihlédněte k navrhovatelkám společnosti Amazon: zamítnuto, protože se algoritmus naučil zvýhodňovat muže vůči ženám. Nebo chatbot společnosti Microsoft na Twitteru, který musel být stahován off-line, protože od ostatních tweeterů vyvodil některé extrémně rasistické „pravdy“. Nebo skutečnost, že se ve vyhledávacím výrazu „CEO“ na Google objevují převážně obrázky mužů.

Můžeme se domnívat, že umělá inteligence zřejmě odstraňuje nejhorší z mužů a prohlubuje stávající nerovnosti. Závěr by však mohl být poněkud zjednodušující. Systémy umělé inteligence a základní algoritmy se při získávání poznatků o našem světě často spoléhají na data, velké množství dat. Techniky strojového učení, jako jsou neuronové sítě a rozhodovací stromy, se pokoušejí odvodit trendy, vazby mezi koncepty a důležité parametry, které jim pomohou zvolit si správné možnosti v budoucích žádostech. Tato data nejsou něco, co bylo vytvořeno v zájmu strojového učení. Ne, většinu dat vygenerovali my, lidé, kliklili jsme na internet a sdíleli naše preference. Tím, že systémy umělé inteligence využívají k učení, odhalují systematické předpojatosti, které již v naší společnosti do určité míry existovaly. Zavádění inteligentních technologií se tak stává nejen technologickou, ale také společenskou a etickou záležitostí. Z těchto důvodů někteří výzkumní pracovníci tvrdí, že inženýři se již dlouho skrývají za technologickými aspekty umělé inteligence, přičemž se zaměřují na zlepšení výpočtů a zároveň opomíjejí účinky, které by jejich inovace mohly mít na koncové uživatele. Technologie se nachází mezi vývojářem a vnějším světem. Tento článek popisuje tři otázky: diskriminace, odpovědnost a logika černé skříňky.

Winter country with 20 telecommunication masts among firs and spruces

Zimní země s 20 telekomunikačními stožáry mezi jedlemi a smrkovým
úvěrem: Veřejná oblast
Zdroj: https://labs.openai.com/

Diskriminace a řešení předpojatosti 

Stejně jako žadatelky společnosti Amazon jsou i osoby z menšinových skupin mimo oblast působnosti systémů umělé inteligence. Důvod je zřejmý z názvu: tito lidé tvoří menšinu. Jejich zastoupení v datech bude omezené a algoritmus se nezíská specifické rysy těchto jednotlivců. Stejně jako u lidí si systémy s omezenými znalostmi vedou hůře. Výsledky: černošští jednotlivci jsou označeni softwarem pro inteligentní čtení obrazu společnosti Google nebo jako nebezpečnější v systému automatického posuzování rizik pro recidivu. Jednoduše proto, že software byl vyškolen na obrázcích obsahujících bílé osoby (a možná gorillas).

Vědci v oblasti údajů si byli tohoto problému vědomi a již existují techniky ke zlepšení výkonnosti. Například úpravou souboru údajů tak, aby byly lépe zastoupeny menšinové skupiny. Nebo přidáním dalšího kroku do procesu strojového učení k doladění modelu.

A aby se diskuse ještě zkomplikovala: co když náš systém velmi dobře předpovídá výsledky? Předpokládejme, že vyvíjíme dva algoritmy. Jeden z nich, který správně odhalí onemocnění 80 % doby u bílých jedinců, ale pouze 60 % doby v jedincích barvy. A druhý, který správně odhalí onemocnění pouze 60 % času bez ohledu na jeho pozadí. Měli bychom pak usilovat o rovnost a zaujmout horší algoritmus? I když by diskriminující osoba mohla potenciálně zachránit více bílých jedinců? Právě zde se objevují etické aspekty.

Náš vědecký pracovník v oblasti dat se právě stal osobou utvářející víru jednoho milionu dalších a musí náhle ztížit etická hlediska. Etická dilemata, na která se zatím ve veřejné diskusi nezodpověděla. Nemůžeme očekávat, že inženýři budou tato rozhodnutí činit, ani bychom je neměli chtít. Jsou nezbytné předpisy, kterými se bude řídit návrh softwaru.

Artificial Intelligence is a good servant but a bad master

Umělá inteligence je dobrým pracovníkem, ale špatným mistrem.
Úvěr:

Tým stop 5G

Odpovědnost a odpovědnostV naší společnosti nesou jednotlivci odpovědnost za své činy. U inteligentních systémů je obtížné určit vinu. Zejména pokud jsou systémy složité a samoučení. Inženýři nemohou vždy předvídat, co se systém učí nebo jak se bude chovat. Společnost Amazon pravděpodobně neměla v úmyslu ohrožovat žadateleky, ani společnost Google vědomě nezařadila muže do popředí výsledků vyhledávání. Tyto důsledky se objevily až po uvedení systému do světa. Kdo jsme však viní? Společnost, která tyto systémy používala, i když neměla žádné rozumné důvody předem pochybovat o kvalitě systému.

Nebo společnost, která vybudovala systém prodeje výrobku, který se ukázal jako diskriminující.Inovace byly vždy rušivý, a nikoli bez rizika. Požadují úpravy naší společnosti a soudního systému. Přejděte autem. V prvních dnech bylo vozidlu umožněno volně cestovat po městech bez bezpečnostních pásů, airbagů a dopravních značek. Do chvíle, kdy počet obětí rychle rostl a ulice se staly neúspěšnými. K zefektivnění nové technologie ve stávající infrastruktuře byly nezbytné nové pokyny a předpisy. Jen málo z nich předpovědělo, že by se automobil stal tak nebezpečným pro pěší dav. Regulací používání se nám podařilo zvýšit bezpečnost a zároveň využít výhod tohoto nového typu dopravy.

Dnes si můžeme jen stěží představit svět bez automobilové dopravy.Stejně jako v případě automobilů by zákaz systémů umělé inteligence kvůli jejich počátečním nebezpečným důsledkům byl příliš krátkozraký. Systémy umělé inteligence mohou mít pozitivní dopad na naši společnost a již tak mají. V tomto okamžiku jsou však systémy UI vyvíjeny a ukládány do našeho každodenního života bez jakýchkoli „sedacích pásů“ nebo jiných záruk. Je důležité kriticky přemýšlet o tom, jak chceme, aby umělá inteligence existovala v naší společnosti.

Image showing a man waving a red flag for pedestrians to warn them of cars and a robot holding a red flag to warn about Artificial Intelligence

 
Kredit varovný signál:

Tým stop 5G

Černá skříňkaV odůvodnění obecného nařízení o ochraně osobních údajů se uvádí, že lidé mají právo vidět důvody, na jejichž základě byla rozhodnutí přijata, jaké údaje jsou shromažďovány a jak budou tyto údaje použity. Tento relativně nový zákon byl krokem správným směrem, ale zdaleka není vhodným řešením pro zavedení soukromí nebo dodržování občanských práv. Při návštěvě internetových stránek na internetu jsou uživatelé často konfrontováni s velkým množstvím textu, který vágně vysvětluje, jaké osobní údaje jsou shromažďovány. Většinou je obtížné jakékoli soubory cookie odmítnout nebo musíte kliknout na několik možností. Společnosti se řídí hojnými omezeními obecného nařízení o ochraně osobních údajů a jednotlivcům nezjednodušují dohled nad svými vlastními údaji.

Domníváme se proto, že obecné nařízení o ochraně osobních údajů je naivní iniciativou, která ukazuje hlad, pokud jde o data on-line společností.I kdyby však společnosti byly ochotnější sdílet skutečné shromažďování a využívání osobních údajů, nejsou vždy plně schopny. Mnoho inteligentních systémů funguje jako černé skříňky: uvést velké množství dat a systém poskytne určitý výstup v závislosti na vlastnostech dat. V posledních letech inženýři upřednostňovali tyto systémy černé skříňky. Tyto systémy měly velký potenciál pro učení se složitějším pojmům, jako je jazyk nebo obrázky. Známými příklady systémů černé skříňky jsou neurální sítě, software pro rozpoznávání obličeje nebo software pro zpracování přirozeného jazyka (např. Google Translate). Inženýři mají kontrolu nad některými parametry, ale nemají žádný přehled o druhu informací, které se tyto systémy učí nebo odvozují z údajů. Pouze ověřením výkonu na nových údajích může inženýr odhadnout, zda se systém dozvěděl, co měl mít. Inženýr by například mohl vložit soubor nových obrázků, aby zjistil, zda je systém schopen je interpretovat. Jak jsme však viděli dříve, pokud inženýr systém dostatečně neotestoval, lze fotografie osob barvy pleti vykládat jako fotografie opaků. Mohli inženýři společnosti Google o této chybě vědět? Dobře, pokud by software otestovali na sadě fotografií osob barvy pleti. Fotografie však mohou obsahovat cokoli.

A bylo by velmi obtížné systém ověřit na všechno.Účinnější by bylo ověřit, jaké věci se software naučil. Pokud by nám algoritmus Google mohl sdělit, jaké kroky podnikne k výkladu, mohli by inženýři toto odůvodnění ověřit a odhadnout pravděpodobné výjimky nebo případy chyb. Proto členové vědecké obce požadují srozumitelnější přístupy k strojovému učení.

Algoritmy černé skříňky dosud nevyčerpaly svůj potenciál a nejsou nutně lepší než srozumitelnější algoritmy.Výhoda interpretovatelnosti těchto srozumitelných algoritmů je větší než očekávaná výkonnostní výhoda algoritmů černé skříňky.

Analytics Information by Reto Scheiwiller

 
Sledování černé skříňky :

Tým stop 5G

ZávěrUmělá inteligence a inteligentní software jsou v moderním životě poměrně všudypřítomné. Ovlivňování rozhodovacích procesů ve společnostech a projevování předpojatosti vůči menšinovým skupinám.

A to vše, když plně nerozumíme tomu, jak umělá inteligence funguje, jak ovlivňuje nás a jaké budou dlouhodobé dopady.

Občané EU nebyli dotázáni, zda ve jménu technologického pokroku a digitalizace akceptují všudypřítomné společenské důsledky nástrojů pro rozhodování na základě umělé inteligence.

Proto v evropské občanské iniciativě „Stop ((((5G))) – Stay Connected but Protected“ vyzýváme k přísnější regulaci na ochranu občanů před porušováním soukromí a diskriminací v důsledku nekontrolovaného používání systému umělé inteligence při rozhodování v návrzích 19, 21 a 22 evropské občanské iniciativy.

  • A nejsme sami:Evropský sbor pro ochranu osobních údajů nemá za to, že by Evropská komise předložila nové legislativní návrhy, které usnadní používání a sdílení (osobních) údajů mezi více veřejnými a soukromými subjekty.
  • Podle Evropského sboru pro ochranu osobních údajů to „významně ovlivní ochranu základních práv na soukromí a ochranu osobních údajů“.Evropská rada zdůrazňuje význam přístupu k politice v oblasti umělé inteligence zaměřeného na člověka.
  • Zamyslete se nad otázkami, jako je předpojaté a neprůhledné rozhodování ovlivňující základní lidská práva občanů.
  • Předběžná studie UNESCO o etice umělé inteligence na straně 10 uvádí: „Je nejdůležitější... vzdělávat budoucí inženýry a počítačové vědce pro eticky sladěný návrh systémů umělé inteligence.“.
  • Další evropská občanská iniciativa nazvaná Reclaim Your Face požadovala zákaz používání škodlivé umělé inteligence, jako je biometrická hromada a sledování rozpoznávání obličeje.I v roce 1942 Isaac Asimov předvídal problémy a uvedl tři zákony robotiky. Prvním zákonem je, že robot nesmí poškozovat člověka.

Jak je uvedeno v tomto článku, zdaleka tomu tak není.

 

Stop 5G - Blog Post Author

Přispěvatelé

 

Amar van UdenAmar van Uden je autorem evropské občanské iniciativy „Stop ((((5G))) – Stay Connected but Protected“.

Připojit komentář

Chcete-li vkládat připomínky, musíte provést ověření identity nebo se zaregistrovat.
Prohlášení o vyloučení odpovědnosti: Vyjádření uvedená na Fóru evropské občanské iniciativy odrážejí pouze názory jejich autorů a nelze je v žádném případě považovat za vyslovení postoje Evropské komise nebo Evropské unie.
Jste připraveni zaregistrovat vlastní iniciativu?

Chcete některou z iniciativ podpořit? Potřebujete více informací o probíhajících nebo uzavřených iniciativách?