Glavni sadržaj
Forum europske građanske inicijative

Europljani za sigurne veze pozivaju na snažniju regulaciju umjetne inteligencije u donošenju odluka

Ažurirano: 24 January 2023

Europljani za sigurne veze koalicija je nacionalnih i međunarodnih organizacija koje su svjesne negativnih posljedica modernih komunikacijskih tehnologija. Naglašavamo da se ne protivimo tehnologiji, već u korist sigurne tehnologije i sigurnih veza.

Tijekom jedne godine naše kampanje izvukli smo pouke koje mogu biti korisne budućim organizatorima. Prvo, ako čujete taj istinski glas u srcu i recite vam da svijet promijenite nabolje za sve i za sve: pratite taj glas, borite se i nikad nemojte se odreći nade!

ako stignete, ljudi će s vama lako otići na otpor i nećete se suočiti s otporom. Međutim, ako se morate suprotstaviti, možda će vam biti potrebna poruka kao što je voda za odbijanje žestoke vode za koju je potrebna meka trajna kiša. Iako je EU-u potrebno milijun potpisa, važna je kvaliteta vaših ideja.

U okviru naše europske građanske inicijative „Zaustavimo (((5G))) – Ostanimo povezano, ali zaštićeno” imamo 23 prijedloga. Među njima pozivamo na bolju regulativu u području privatnosti podataka i automatsko donošenje odluka s pomoću umjetne inteligencije. Predlažemo pokretanje procjene učinka 5G mreža na zaštitu osobnih podataka (prijedlog br. 19), želimo vidjeti aktivnu borbu protiv diskriminacije i kršenja digitalnih prava (prijedlog 21.) te smatramo da bi građane trebalo obavijestiti o tome obrađuju li se njihovi podaci automatiziranim postupkom (prijedlog br. 22).

Stop 5G - Logo

Kako je sve započelo

Umjetna inteligencija već neko vrijeme postoji. Već u ranim 50 godina očekivanja bila su velika u pogledu beskrajnih mogućnosti koje bi inteligentna tehnologija donijela našem društvu. Danas, više od pola stoljeća kasnije, umjetna inteligencija uspjela je polako krenuti u naš svakodnevni život. Iako humanoidni roboti još ne hodaju svijetom, u upravljanju infrastrukturom, radnim procesima i rezervnom vremenu oslanjamo se na višestruke složene tehnologije.

Postojeće „pametne” tehnologije mogle bi se razlikovati od onoga što bi znanstvenici ranije nazivali inteligentne strojeve poput čovjeka. Dok je Alan Turing definirao obavještajne podatke kao razmišljanje i djelovanje kao čovjek, danas pametni sustavi utjelovljuju našu kuću s ograničenim razmišljanjem. Teško je definirati što je točno umjetna inteligencija i što podrazumijeva. Međutim, omogućio nam je da živimo učinkovitije, lakše i možda još ugodnije.

Međutim, nedostaci beskrajne automatizacije i robotizacije također postaju sve očitiji. Uzmite, na primjer, žene podnositeljice zahtjeva društva Amazon: odbijeno jer je algoritam naučio pogodovati muškarcima za žene. Ili Microsoftov chatbot Tay na Twitteru koji se morao ukloniti izvan interneta jer je izveo vrlo rasističke „povjere” od kolega tweetera. Ili činjenica da se uglavnom slike muških osoba pojavljuju u pretraživanju pojma „CEO” na Googleu.

Možemo misliti da umjetna inteligencija naizgled uklanja najgore muškarce i produbljuje postojeće nejednakosti. Međutim, to bi moglo biti donekle pojednostavnjeno za donošenje zaključka. Sustavi umjetne inteligencije i osnovni algoritmi često se oslanjaju na podatke, mnogo podataka, kako bi učili o našem svijetu. Tehnikama strojnog učenja, kao što su neuronske mreže i stabla odlučivanja, pokušavaju se izvesti zaključci o trendovima, vezama među konceptima i važnim parametrima kako bi im se pomoglo da odaberu prave opcije u budućim zahtjevima. Ti podaci nisu nešto što je izrađeno radi strojnog učenja. Ne, većinu podataka generirali smo ljudi, klikom na internet i dijeljenjem naših preferencija. Upotrebom naših podataka za učenje sustavi umjetne inteligencije tako otkrivaju sustavne predrasude koje su u određenoj mjeri već bile prisutne u našem društvu. Zbog toga je provedba pametnih tehnologija ne samo tehnološko nego i društveno i etičko pitanje. Zbog toga neki istraživači tvrde da se inženjeri već dugo skrivaju iza tehnoloških aspekata umjetne inteligencije, s naglaskom na poboljšanju izračuna, zanemarujući pritom učinke koje bi njihove inovacije mogle imati na krajnje korisnike. Tehnologija se nalazi između programera i vanjskog svijeta. U ovom su članku opisana tri pitanja: logika diskriminacije, odgovornosti i crne kutije.

Winter country with 20 telecommunication masts among firs and spruces

Zimska zemlja s 20 telekomunikacijskih stupova među jelima i
smrekama:
Izvor javnog područja: https://labs.openai.com/

Diskriminacija i postupanje s predrasudama 

Baš kao i žene podnositeljice zahtjeva Amazona, osobe iz manjinskih skupina nisu obuhvaćene stvarnim područjem primjene sustava umjetne inteligencije. Razlog je očit iz naziva: riječ je o osobama koje čine manjinu. Njihova će zastupljenost u podacima biti ograničena, a algoritam neće naučiti posebne značajke koje predstavljaju te pojedince. Kao i ljudi, sustavi imaju lošije rezultate s ograničenim znanjem. Rezultat: Googleov softver za pametno čitanje slika označio je crne pojedince kao mape ili kao opasniji u automatskom sustavu procjene rizika za recidivism. Jednostavno zato što je softver obučen na slikama s bijelim jedinkama (a možda i gorillasa).

Znanstvenici u području podataka svjesni su tog problema i već postoje tehnike za poboljšanje učinkovitosti. Na primjer, prilagodbom skupa podataka kako bi manjinske skupine bile bolje zastupljene. Ili dodavanjem dodatnog koraka u proces strojnog učenja kako bi se model doradio.

Te učiniti raspravu još složenijom: što ako naš sustav vrlo dobro predviđa ishode. Pretpostavimo da razvijamo dva algoritma. Koja točno otkriva bolest 80 % vremena kod bijelih jedinki, ali samo 60 % vremena kod jedinki boje. A druga koja ispravno otkriva bolest samo 60 % vremena bez obzira na pozadinu. Trebamo li zatim težiti jednakosti i sve lošijem algoritmu? Iako bi se diskriminiranjem moglo uštedjeti više bijelih pojedinaca? To je područje u kojem se pojavljuju etička pitanja.

Naš znanstvenik za podatke tek je postao osoba koja je oblikovala vjeru milijun drugih i iznenada mora biti složena etička pitanja. Etičke dvojbe na koje još nije odgovoreno u javnoj raspravi. Ne možemo očekivati da inženjeri donose te odluke niti ih želimo. Za usmjeravanje dizajna softvera potrebni su propisi.

Artificial Intelligence is a good servant but a bad master

Umjetna inteligencija dobar je službenik, ali loš magisterij.
Fotografija: Zaustavite tim za 5G tehnologiju

Odgovornost i odgovornost

U našem društvu pojedinci su odgovorni za svoja djela. Inteligentnim sustavima teško je identificirati krivca. Posebno ako su sustavi složeni i ako je riječ o samostalnom učenju. Inženjeri ne mogu uvijek predvidjeti što će sustav učiti ili kako će se ponašati. Amazon vjerojatno nije namjeravao ugroziti podnositeljice zahtjeva niti je Google svjesno stavio muškarce na vrh rezultata pretraživanja. Te su se posljedice pojavile tek nakon stavljanja sustava u svijet. No tko smo krivi? Poduzeće koje upotrebljava te sustave, iako nije imalo opravdane razloge za sumnju u kvalitetu sustava. Ili poduzeće koje je izgradilo sustav za prodaju proizvoda za koji se pokazalo da diskriminira.

Inovacije su oduvijek poremetile, a ne bez rizika. Traže prilagodbe u našem društvu i pravosudnom sustavu. Uzmite automobil. U ranim danima automobil je mogao slobodno otići u gradove bez sigurnosnih pojaseva, zračnih jastuka i prometnih znakova. Sve do brzog rasta broja žrtava, a ulice su postale nepropusne. Za pojednostavnjenje nove tehnologije u postojećoj infrastrukturi bile su potrebne nove smjernice i propisi. Malo je predvidjelo da će automobil postati tako opasan za gužvu pješice. Reguliranjem upotrebe uspjeli smo povećati sigurnost i iskoristiti prednosti te nove vrste prijevoza. Danas gotovo ne možemo zamisliti svijet bez motornog prijevoza.

Baš kao što je slučaj s automobilima, zabrana sustava umjetne inteligencije zbog njihovih početnih opasnih posljedica bila bi prekratka. Sustavi umjetne inteligencije mogu pozitivno utjecati na naše društvo, a to već i čine. Međutim, u ovom se trenutku UI sustavi razvijaju i bacaju u naš svakodnevni život bez ikakvih „jedrišnih pojaseva” ili drugih zaštitnih mjera. Važno je kritički razmisliti o tome kako želimo da umjetna inteligencija postoji u našem društvu. Otvaranje rasprave o tome kako možemo povećati sigurnost tih sustava ili smanjiti štetu u slučaju neočekivanih ishoda.

Image showing a man waving a red flag for pedestrians to warn them of cars and a robot holding a red flag to warn about Artificial Intelligence

Oznaka upozorenja
: Zaustavite tim za 5G tehnologiju

Crna kutija

U obrazloženju Opće uredbe o zaštiti podataka navodi se da ljudi imaju pravo vidjeti razloge na temelju kojih su donesene odluke, koji se podaci prikupljaju i kako će se ti podaci upotrebljavati. Taj relativno novi zakon bio je korak u pravom smjeru, ali je daleko od odgovarajućeg rješenja za uspostavu privatnosti ili poštovanje građanskih prava. Pri posjetu internetskim stranicama korisnici se često suočavaju s velikim količinama teksta u kojem se nejasno objašnjava koji se osobni podaci prikupljaju. A u većini slučajeva teško je odbaciti kolačiće ili morate kliknuti oko nekoliko skočnih prozora. Poduzeća se pridržavaju općih ograničenja Opće uredbe o zaštiti podataka i pojedincima ne olakšavaju nadzor nad vlastitim podacima. Stoga smatramo da je Opća uredba o zaštiti podataka naivna inicijativa koja pokazuje glad za podatke internetskih poduzeća.

Međutim, čak i ako bi poduzeća bila spremnija dijeliti stvarno prikupljanje i upotrebu osobnih podataka, ona nisu uvijek u mogućnosti u potpunosti to učiniti. Mnogi inteligentni sustavi funkcioniraju kao što su crne kutije: unesite mnogo podataka i sustav će dati određene izlazne podatke ovisno o značajkama podataka. Posljednjih godina inženjeri su davali prednost tim sustavima crnih kutija. Takvi sustavi imali su velik potencijal za učenje složenijih koncepata kao što su jezik ili slike. Poznati primjeri sustava crne kutije su neuronske mreže, softver za prepoznavanje lica ili softver za obradu prirodnog jezika (npr. Google Translate). Inženjeri imaju kontrolu nad nekim parametrima, ali nemaju uvid u vrstu informacija koje ti sustavi uče ili izvode zaključke iz podataka. Inženjer može procijeniti samo provjerom uspješnosti novih podataka ako je sustav naučio što je trebao. Inženjer može, na primjer, unijeti niz novih slika kako bi utvrdio može li ih sustav tumačiti. Međutim, kao što smo ranije vidjeli, ako inženjer nije dovoljno temeljito ispitao sustav, fotografije osoba boje kože mogu se protumačiti kao fotografije majsa. Jesu li inženjeri Googlea mogli znati za tu pogrešku? Da su testirali softver na skupu fotografija osoba boje kože, mogli bi imati. Međutim, fotografije mogu sadržavati nešto o tome. Bilo bi vrlo teško provjeriti sustav na svemu.

Učinkovitije bi bilo provjeriti što je softver naučio. Ako bi nam Googleov algoritam mogao reći koje korake poduzima kako bi došao do tumačenja, inženjeri bi mogli provjeriti to obrazloženje i procijeniti vjerojatne iznimke ili slučajeve pogreške. Zbog toga članovi znanstvene zajednice pozivaju na razumljivije pristupe strojnom učenju. Algoritmi crne kutije još nisu iskoristili svoj potencijal i nisu nužno bolji od razumljivijih algoritama.

Prednost u pogledu tumačenja tih razumljivih algoritama veća je od očekivane prednosti učinkovitosti algoritama crne kutije. Samo ako znamo što se događa, možemo se na odgovarajući način uplitati ili prilagoditi.

Analytics Information by Reto Scheiwiller

Gledanje crne kutije
Zaustavite tim za 5G tehnologiju

Zaključak

Umjetna inteligencija i inteligentni softver prilično su sveprisutni u modernom životu. Utjecanje na postupke donošenja odluka u poduzećima i izlaganje pristranosti prema manjinskim skupinama. Sve dok ne razumijemo u potpunosti kako umjetna inteligencija funkcionira, kako ona utječe na nas i koji će biti dugoročni učinci.

Građanima EU-a nije postavljeno pitanje prihvaćaju li raširene društvene posljedice alata za donošenje odluka vođenih umjetnom inteligencijom u ime tehnološkog napretka i digitalizacije.

Stoga u europskoj građanskoj inicijativi „Zaustavimo (((5G))) – Stay Connected but Protected” pozivamo na snažniju regulaciju kako bi se građani zaštitili od kršenja privatnosti i diskriminacije zbog nekontrolirane upotrebe sustava umjetne inteligencije u donošenju odluka u prijedlogu 19., prijedlogu 21. i prijedlogu 22. europske građanske inicijative.

A nismo sami:

  • Europski odbor za zaštitu podataka ne dijeli nove zakonodavne prijedloge Europske komisije kojima će se olakšati uporaba i razmjena (osobnih) podataka između više javnih i privatnih strana. Prema Europskom odboru za zaštitu podataka to će „znatno utjecati na zaštitu temeljnih prava na privatnost i zaštitu osobnih podataka.
  • Europsko vijeće naglašava važnost antropocentričnog pristupa politici umjetne inteligencije. Razmislite o pitanjima kao što su pristrano i netransparentno donošenje odluka koje utječu na temeljna ljudska prava građana.
  • U preliminarnoj studiji UNESCO-a o etici umjetne inteligencije na stranici 10. navodi se daje „najvažnije obrazovati buduće inženjere i računalne znanstvenike za etički usklađen dizajn sustava umjetne inteligencije.
  • Još jedna europska građanska inicijativa pod nazivom Reclaim Your Face zahtijevala je zabranu upotrebe štetne umjetne inteligencije kao što je biometrijska masa i nadzor prepoznavanja lica.
  • Još 1942. Isaac Asimov predvidio je probleme i izjavio tri zakona o robotici. Prvi je zakon da robot ne smije naškoditi čovjeku. Kao što je prikazano u ovom članku, mi smo daleko od toga.

 

 

Stop 5G - Blog Post Author

Objavitelji

Amar van Uden

Amar van Uden pisac je europske građanske inicijative „Zaustavite (((5G))) – Stay Connected but Protected”. Amar je iz Nizozemske i proučava Umjetnu inteligenciju.

Unos komentara

Da biste mogli ostaviti komentar, morate proći provjeru autentičnosti ili se registrirati.