Prejsť na hlavný obsah
Fórum európskej iniciatívy občanov

Európania za bezpečné pripojenie vyzývajú na silnejšiu reguláciu umelej inteligencie pri rozhodovaní

Dátum aktualizácie: 24 January 2023

Európania za bezpečné pripojenie je koalícia vnútroštátnych a medzinárodných organizácií, ktoré si uvedomujú nepriaznivé dôsledky moderných komunikačných technológií. Zdôrazňujeme, že nie sme proti technológiám, ale za bezpečné technológie a bezpečné prepojenia.

Počas jedného roka našej kampane sme sa poučili, ktoré môžu byť užitočné pre budúcich organizátorov. Po prvé, ak počujete tento skutočný hlas v srdci, ktorý vám znemožňuje zmeniť svet k lepšiemu pre všetko a pre všetkých: sledujte tento hlas, bojujte a nikdy sa nevzdávajú nádeje!

ak pôjdete s tokom, ľudia sa s vami ľahko stretnú a nebudete čeliť odporu. Ak však musíte ísť proti nemu, vaša správa môže byť potrebná, pretože odpudzujúca pôda si vyžaduje mäkký pretrvávajúci dážď. Hoci EÚ potrebuje milión podpisov, dôležitá je kvalita vašich myšlienok.

V našej európskej iniciatíve občanov (ECI) „Stop (((5G))) – Stay Connected, ale Protected“máme 23 návrhov. Medzi nimi vyzývame na lepšiu reguláciu ochrany údajov a automatické rozhodovanie umelej inteligencie. Navrhujeme začať posúdenie vplyvu 5G na ochranu osobných údajov (návrh 19), chceme aktívne bojovať proti diskriminácii a porušovaniu digitálnych práv (návrh 21) a myslíme si, že občania by mali byť informovaní o tom, či sa ich údaje spracúvajú automatizovaným postupom (návrh 22).

Stop 5G - Logo

Ako sa všetko začalo

Umelá inteligencia je už nejaký čas približne. Už na začiatku 50 rokov boli vysoké očakávania, pokiaľ ide o nekonečné možnosti, ktoré by inteligentné technológie priniesli našej spoločnosti. Teraz, o viac ako polstoročie neskôr, sa technológia inšpirovaná umelou inteligenciou dokázala pomaly rozbiehať do nášho každodenného života. Hoci humanoidné roboty ešte neprebiehajú náš svet, spoliehame sa na viaceré komplexné technológie v oblasti riadenia infraštruktúry, pracovných procesov a voľného času.

Súčasné „inteligentné“ technológie sa môžu líšiť od toho, čo by vedci nazývali inteligentné stroje podobné človeku. Keďže Alan Turing definoval spravodajstvo ako myslenie a konanie ako človek, v súčasnosti inteligentné systémy vákuujú náš dom s obmedzenými úvahami. Vymedzenie toho, čo je umelá inteligencia presne a čo znamená, je ťažké. Napriek tomu nám to umožnilo žiť efektívnejší, plynulejší a možno ešte príjemnejší život.

Nevýhody nekonečnej automatizácie a robotizácie sa však takisto čoraz viac prejavujú. Zoberte si napríklad navrhovateľky spoločnosti Amazon: zamietol, pretože algoritmus sa naučil uprednostňovať mužov voči ženám. Alebo chatbot Tay spoločnosti Microsoft na Twitteri, ktorý sa musel vziať mimo internetu, pretože odvodil niektoré mimoriadne rasistické „pravdy“ od ostatných tweeterov. Alebo skutočnosť, že vo vyhľadávacom výraze „CEO“ na Google sa objavujú najmä obrázky mužov.

Možno si myslíme, že umelá inteligencia zrejme odstraňuje najhoršie z mužov a prehlbuje existujúce nerovnosti. To by však mohlo byť trochu jednoduchšie, aby sa dospelo k záveru. Systémy umelej inteligencie a základné algoritmy sa často spoliehajú na údaje, veľké množstvo údajov, aby sa dozvedeli o našom svete. Techniky strojového učenia, ako sú neurónové siete a rozhodovacie stromy, sa snažia odvodiť trendy, prepojenia medzi koncepciami a dôležité parametre, ktoré im pomôžu pri výbere správnych možností v budúcich žiadostiach. Tieto údaje nie sú niečom, čo bolo vytvorené v záujme strojového učenia. Nie, väčšinu údajov generovali my, ľudia, pričom sme klikli na internet a zdieľali naše preferencie. Využívaním našich údajov na učenie sa systémy umelej inteligencie odhaľujú systematické predsudky, ktoré už boli do určitej miery prítomné v našej spoločnosti. A tým sa zavádzanie inteligentných technológií stáva nielen technologickou, ale aj spoločenskou a etickou záležitosťou. Z týchto dôvodov niektorí výskumní pracovníci tvrdia, že inžinieri sa už dlho skrývajú za technologickými aspektmi umelej inteligencie, pričom sa zameriavajú na zlepšenie výpočtov a zároveň zanedbávajú účinky, ktoré by ich inovácie mohli mať na koncových používateľov. Technológia sa nachádza medzi vývojárom a vonkajším svetom. V tomto článku sa opisujú tri otázky: diskriminácia, zodpovednosť a logika čiernej skrinky.

Winter country with 20 telecommunication masts among firs and spruces

Zimná krajina s 20 telekomunikačnými stožiarmi medzi jedľami a úvermi na smreky
: Verejná doména
Zdroj: https://labs.openai.com/

Diskriminácia a zvládanie zaujatosti 

Rovnako ako žiadateľky spoločnosti Amazon aj ľudia menšinových skupín nepatria do rozsahu pôsobnosti systémov umelej inteligencie. Dôvod je zrejmý z názvu: sú to ľudia, ktorí tvoria menšinu. Ich zobrazenie v údajoch bude obmedzené a algoritmus sa neznázorní osobitné vlastnosti týchto jednotlivcov. Podobne ako ľudia, aj systémy dosahujú horšie výsledky s obmedzenými znalosťami. Dôsledok: čierne osoby sú označené ako opeky prostredníctvom softvéru na inteligentné čítanie obrazu spoločnosti Google alebo ako nebezpečnejšie v automatickom systéme hodnotenia rizika recidívy. Jednoducho preto, že softvér bol vyškolený na obrázkoch obsahujúcich biele osoby (a možno gorillas).

Dátoví vedci si uvedomovali tento problém a už existujú techniky na zlepšenie výkonnosti. Napríklad úpravou súboru údajov tak, aby boli menšinové skupiny lepšie zastúpené. Alebo pridaním ďalšieho kroku v procese strojového učenia na doladenie modelu.

A aby sa diskusia ešte viac skomplikovala: čo ak náš systém predpovedá výsledky veľmi dobre. Predpokladajme, že vyvinieme dva algoritmy. Jeden, ktorý správne odhalí ochorenie 80 % času u bielych jedincov, ale len 60 % času u jedincov farby. A druhý, ktorý správne odhalí chorobu len 60 % času bez ohľadu na pozadie. Mali by sme sa potom usilovať o rovnosť a zhoršiť algoritmus? Napriek tomu, že diskriminujúce osoby by mohli potenciálne zachrániť viac bielych jednotlivcov? Práve tu vstupujú do hry etické hľadiská.

Naša dátová vedkyňa sa práve stala osobou, ktorá formuje vieru jedného milióna ďalších a musí náhle sťažiť etické úvahy. Etické dilemy, ktoré ešte nie sú zodpovedané vo verejnej diskusii. Nemôžeme očakávať, že inžinieri prijmú tieto rozhodnutia, ani by sme nemali mať záujem. Na usmernenie návrhu softvéru sú potrebné predpisy.

Artificial Intelligence is a good servant but a bad master

Umelá inteligencia je dobrým zamestnancom, ale zlým kapitánom.
Poďakovanie: Zastaviť tím 5G

Zodpovednosť,

V našej spoločnosti sú jednotlivci zodpovední za svoje činy. S inteligentnými systémami je ťažké identifikovať vinníka. Najmä ak sú systémy zložité a samoučia. Inžinieri nemôžu vždy predpovedať, čo sa systém naučí alebo ako sa bude správať. Amazon pravdepodobne nemala v úmysle ohroziť ženské žalobkyne, ani vedome neuviedla mužov na vrchol výsledkov vyhľadávania. Objavili sa tieto dôsledky až po uvedení systému do sveta. Kto je však vinný? Spoločnosť na používanie týchto systémov, aj keď nemala opodstatnené dôvody pochybovať o kvalite systému vopred. Alebo spoločnosť, ktorá vytvorila systém predaja výrobku, ktorý sa ukázal ako diskriminačný.

Inovácie boli vždy rušivé a nie bez rizika. Žiadajú o úpravy v našej spoločnosti a justičnom systéme. Vezmite si auto. V prvých dňoch sa autom mohlo voľne pohybovať po mestách bez bezpečnostných pásov, airbagov a dopravných značiek. Kým počet obetí rýchlo nerástol a ulice sa stali nespochybniteľnými. Na zefektívnenie novej technológie v existujúcej infraštruktúre boli potrebné nové usmernenia a nariadenia. Len málo predpovedalo, že auto sa stane tak nebezpečným pre chôdze. Reguláciou používania sme dokázali zvýšiť bezpečnosť a zároveň využiť výhody tohto nového druhu dopravy. V súčasnosti si sotva môžeme predstaviť svet bez automobilovej dopravy.

Rovnako ako v prípade automobilov by zákaz systémov umelej inteligencie vzhľadom na ich počiatočné nebezpečné dôsledky bol príliš krátky. Systémy umelej inteligencie môžu mať a už aj tak robia pozitívny vplyv na našu spoločnosť. V tejto chvíli sa však systémy umelej inteligencie vyvíjajú a odstraňujú do nášho každodenného života bez akýchkoľvek bezpečnostných pásov alebo iných záruk. Je dôležité kriticky zamyslieť nad tým, ako chceme, aby umelá inteligencia existovala v našej spoločnosti. Otvoriť diskusiu o tom, ako môžeme zvýšiť bezpečnosť týchto systémov alebo znížiť škody v prípade neočakávaných výsledkov.

Image showing a man waving a red flag for pedestrians to warn them of cars and a robot holding a red flag to warn about Artificial Intelligence

Kredit za varovný signál
: Zastaviť tím 5G

Čierna skrinka

V odôvodnení všeobecného nariadenia o ochrane údajov sa uvádza, že ľudia majú právo vidieť dôvody, na základe ktorých sa prijali rozhodnutia, aké údaje sa zhromažďujú a ako sa tieto údaje použijú. Tento relatívne nový zákon bol určitým krokom správnym smerom, ale ani zďaleka nie je vhodným riešením na vytvorenie súkromia alebo dodržiavanie občianskych práv. Pri návšteve webového sídla na internete sú používatelia často konfrontovaní s veľkým množstvom textu, v ktorom sa nejasne vysvetľuje, aké osobné údaje sa zhromažďujú. Väčšinou je ťažké odmietnuť akékoľvek súbory cookie alebo musíte kliknúť na niekoľko kontextových okien. Spoločnosti dodržiavajú základné obmedzenia všeobecného nariadenia o ochrane údajov a jednotlivcom neuľahčujú dohľad nad ich vlastnými údajmi. Domnievame sa preto, že všeobecné nariadenie o ochrane údajov je naivná iniciatíva, ktorá poukazuje na hlad údajov online spoločností.

Ale aj keby boli spoločnosti ochotnejšie podeliť sa o skutočný zber a používanie osobných údajov, nie sú vždy v plnej miere schopné. Mnohé inteligentné systémy fungujú ako čierne skrinky: množstvo údajov a systém poskytne určitý výstup v závislosti od vlastností údajov. V posledných rokoch inžinieri uprednostňovali tieto systémy čiernej skrinky. Takéto systémy mali vysoký potenciál na učenie sa zložitejších koncepcií, ako sú jazyk alebo obrázky. Známymi príkladmi systémov čiernej skrinky sú neurónové siete, softvér na rozpoznávanie tváre alebo softvér na spracovanie prirodzeného jazyka (napr. Google Translate). Inžinieri majú kontrolu nad niektorými parametrami, ale nemajú žiadny prehľad o druhu informácií, ktoré sa tieto systémy učia alebo vyvodzujú z údajov. Len kontrolou výkonnosti nových údajov môže inžinier odhadnúť, či sa systém dozvedel, na čo mal. Inžinier by mohol napríklad vložiť súbor nových obrázkov, aby zistil, či je systém schopný ich interpretovať. Ako sme však videli skôr, ak inžinier neskúmal systém dostatočne dôkladne, fotografie osôb farby pleti by sa mohli interpretovať ako fotografie ľudoopíc. Mohli by sa inžinieri spoločnosti Google dozvedieť o tejto chybe? Dobre, ak by otestovali softvér na súbore fotografií osôb, ktoré by mohli mať. Fotografie však môžu obsahovať niečo. A bolo by veľmi ťažké overiť systém na všetkom.

Efektívnejšie by bolo overiť, aké veci sa softvér naučil. Ak by nám algoritmus Google mohol povedať, aké kroky podniká v záujme výkladu, inžinieri by mohli overiť toto odôvodnenie a odhadnúť pravdepodobné výnimky alebo chyby. Preto členovia vedeckej obce požadujú zrozumiteľnejšie prístupy k strojovému učeniu. Algoritmy čiernej skrinky zatiaľ nesplnili svoj potenciál a nie sú nevyhnutne lepšie ako zrozumiteľnejšie algoritmy.

Výhoda interpretovateľnosti týchto zrozumiteľných algoritmov je väčšia ako očakávaná výkonnostná výhoda algoritmov čiernej skrinky. Len ak vieme, čo sa deje, môžeme podľa toho zasiahnuť alebo upraviť.

Analytics Information by Reto Scheiwiller

Sledovanie čiernej skrinky
Credit: Zastaviť tím 5G

Záver

Umelá inteligencia a inteligentný softvér sú v modernom živote dosť všadeprítomné. Ovplyvňovanie rozhodovacích procesov v spoločnostiach a prejavovanie zaujatosti voči menšinovým skupinám. Hoci úplne nerozumieme tomu, ako funguje umelá inteligencia, ako nás ovplyvňuje a aké budú dlhodobé účinky.

Občanom EÚ nebola položená otázka, či akceptujú všadeprítomné spoločenské dôsledky rozhodovacích nástrojov, ktoré sa riadia umelou inteligenciou, v mene technologického pokroku a digitalizácie.

Preto v európskej iniciatíve občanov „Stop (((5G))) – Stay Connected, ale Protected“ požadujeme prísnejšiu reguláciu na ochranu občanov pred porušovaním súkromia a diskrimináciou v dôsledku nekontrolovaného využívania systému umelej inteligencie pri rozhodovaní v návrhu 19, návrhu 21 a návrhu 22 európskej iniciatívy občanov.

A nie sme sami:

  • Európsky výbor pre ochranu údajov sa nepáči nové legislatívne návrhy Európskej komisie, ktoré uľahčia využívanie a výmenu (osobných) údajov medzi verejnými a súkromnými subjektmi. Podľa Európskeho výboru pre ochranu údajov to „významne ovplyvní ochranu základných práv na súkromie a ochranu osobných údajov.
  • Európska rada zdôrazňuje význam prístupu k politike v oblasti umelej inteligencie zameraného na človeka. Zamyslite sa nad otázkami, ako sú zaujaté a neprehľadné rozhodovanie ovplyvňujúce základné ľudské práva občanov.
  • V predbežnej štúdii UNESCO o etike umelej inteligencie na strane 10 sauvádza, že „je najdôležitejšie vzdelávať budúcich inžinierov a počítačových vedcov pre eticky zosúladený dizajn systémov umelej inteligencie“.
  • Ďalšia európska iniciatíva občanov (ECI) s názvom Recover Your Face požadovala zákaz používania škodlivej umelej inteligencie, ako je biometrické masové sledovanie a sledovanie rozpoznávania tváre.
  • Dokonca aj v roku 1942 Isaac Asimov predpokladal problémy a uviedol tri zákony robotiky. Prvým zákonom je, že robot nepoškodzuje človeka. Ako vyplýva z tohto článku, sme od toho ďaleko.

 

 

Stop 5G - Blog Post Author

Prispievatelia

Amar van Uden

Amar van Uden je spisovateľom európskej iniciatívy občanov (ECI) „Stop (((5G))) – Stay Connected, ale Protected“. Amar pochádza z Holandska a študuje umelú inteligenciu.

Odoslať komentár

Aby ste mohli pridávať poznámky, musíte sa prihlásiť alebo zaregistrovať.