Preskoči na glavno vsebino
Forum evropske državljanske pobude

Evropejci za varne povezave pozivajo k strožji ureditvi umetne inteligence pri odločanju

Spremenjeno dne: 24 January 2023

Evropejci za varne povezave so koalicija nacionalnih in mednarodnih organizacij, ki se zavedajo škodljivih posledic sodobnih komunikacijskih tehnologij. Poudarjamo, da ne nasprotujemo tehnologiji, temveč podpiramo varno tehnologijo in varne povezave.

V enem letu naše kampanje smo pridobili izkušnje, ki so lahko koristne za prihodnje organizatorje. Prvič, če slišite ta pravi glas v svojem srcu in vas poziva, naj spremenite svet za boljše za vse in vse: sledite temu glasu, se borimo in se nikoli ne odreče upanju!

če greš s tokom, se ljudje zlahka obrnejo z vami in se ne boste soočili z odporom. Če pa se morate temu zoperstaviti, bo morda potrebno vaše sporočilo, saj je za odganjanje vode potrebno mehko trdovratno deževje. Čeprav EU potrebuje milijon podpisov, se upošteva kakovost vaših zamisli.

V naši evropski državljanski pobudi„Ustavimo (((5G))) – mirovanje povezanih, vendar zaščitenih“imamo 23 predlogov. Med njimi pozivamo k boljšemu pravnemu urejanju zasebnosti podatkov in samodejnemu odločanju na področju umetne inteligence. Predlagamo izvedbo ocene učinka 5G na varstvo osebnih podatkov (predlog 19), si želimo dejavnega boja proti diskriminaciji in kršitvam digitalnih pravic (predlog 21) in menimo, da bi morali biti državljani obveščeni o tem, ali se njihovi podatki obdelujejo z avtomatiziranim postopkom (predlog 22).

Stop 5G - Logo

Kako se je vse začelo

Umetna inteligenca je že nekaj časa. Že v zgodnjih 50 letih je bilo veliko pričakovanj o neskončnih možnostih, ki bi jih pametna tehnologija prinesla naši družbi. Danes, več kot pol stoletja pozneje, je tehnologija umetne inteligence, ki se je napihnila, počasi zdrsnila v naše vsakdanje življenje. Čeprav humanoidni roboti še ne hodijo po svetu, se pri upravljanju infrastrukture, delovnih postopkih in prostem času zanašamo na več kompleksnih tehnologij.

Sedanje „pametne“ tehnologije se lahko razlikujejo od tega, kar so znanstveniki imenovali človeku podobne inteligentne stroje. Alan Turing je obveščevalno dejavnost opredelil kot miselnost in delovanje kot človek, danes pa pametni sistemi v naši hiši z omejenim razmišljanjem. Težko je opredeliti, kaj je umetna inteligenca in kaj vključuje. Kljub temu nam je omogočil, da živimo učinkoviteje, lažje in morda še bolj uživamo.

Vendar postajajo vse očitnejše tudi pomanjkljivosti neskončne avtomatizacije in robotizacije. Vzemite na primer kandidatke skupine Amazon: zavrnjen, ker se je algoritem naučil dajati prednost moškim v primerjavi z ženskami. Ali Microsoftov klepet Tay na Twitterju, ki ga je bilo treba vzeti zunaj spleta, ker je iz kolegov tviterja sklepal o nekaterih izjemno rasističnih „truthih“. Ali dejstvo, da se iskalnemu izrazu „CEO“ v Googlu pojavljajo predvsem slike moških.

Morda menimo, da umetna inteligenca izvzema najhujše med moškimi in poglablja obstoječe neenakosti. Vendar je to morda nekoliko poenostavljeno za zaključek. Umetnointeligenčni sistemi in osnovni algoritmi se pri spoznavanju našega sveta pogosto zanašajo na podatke in veliko podatkov. Tehnike strojnega učenja, kot so nevronske mreže in drevesa odločanja, poskušajo sklepati o trendih, povezavah med koncepti in pomembnih parametrih, da bi jim pomagali pri izbiri pravih možnosti pri prihodnjih prošnjah. Ti podatki niso bili pripravljeni zaradi strojnega učenja. Ne, večino podatkov smo ustvarili ljudje, medtem ko so kliknili na internetu in delili naše preference. Z uporabo naših podatkov za učenje umetnointeligenčni sistemi tako odpravljajo sistematično pristranskost, ki je bila do neke mere že prisotna v naši družbi. Zato je uvajanje pametnih tehnologij ne le tehnološko, temveč tudi družbeno in etično vprašanje. Zato nekateri raziskovalci trdijo, da se inženirji že dolgo skrivajo za tehnološkimi vidiki umetne inteligence, pri čemer se osredotočajo na izboljšanje izračunov, pri tem pa zanemarjajo učinke, ki bi jih lahko imele njihove inovacije na končne uporabnike. Tehnologija je med razvijalcem in zunanjim svetom. V tem članku so opisana tri vprašanja: diskriminacija, odgovornost in logika črne skrinjice.

Winter country with 20 telecommunication masts among firs and spruces

Zimska država z 20 telekomunikacijskimi drogovi med bolmi in
smrekami: Javno področje
Vir: https://labs.openai.com/

Diskriminacija in obravnavanje predsodkov 

Tako kot kandidatke skupine Amazon tudi osebe manjšinskih skupin ne spadajo na področje uporabe sistemov umetne inteligence. Razlog je razviden iz imena: to so ljudje, ki tvorijo manjšino. Njihova zastopanost v podatkih bo omejena, algoritem pa se ne bo naučil posebnih funkcij, ki predstavljajo te posameznike. Tako kot človek tudi sistemi delujejo slabše z omejenim znanjem. Kaj se zgodi: v inteligentni programski opremi za branje slik družbe Google so črne osebe označene kot opice ali nevarnejše v sistemu samodejnega ocenjevanja tveganja za povratništvo. Preprosto zato, ker se je programska oprema usposabljala za fotografije belih posameznikov (in morda gorillas).

Znanstveniki za podatke so se zavedali tega problema in že obstajajo tehnike za izboljšanje učinkovitosti. Na primer s prilagoditvijo nabora podatkov tako, da so manjšinske skupine bolje zastopane. Ali z dodajanjem dodatnega koraka v postopku strojnega učenja za izpopolnitev modela.

In da bi bila razprava še bolj zapletena: kaj če naš sistem zelo dobro napoveduje rezultate. Predpostavljajmo, da razvijemo dva algoritma. Pri belih posameznikih pravilno odkrijejo bolezen 80 % časa, pri barvnih posameznikih pa le 60 % časa. In drugo, ki pravilno odkrije bolezen le 60 % časa, ne glede na ozadje. Ali bi si morali nato prizadevati za enakost in vzeti slabši algoritem? Čeprav bi diskriminacija lahko rešila več belih posameznikov? Pri tem se upoštevajo etični vidiki.

Naš podatkovni znanstvenik je pravkar postal oseba, ki je oblikovala vero milijona drugih, in mora nenadoma sprožiti težave z etičnimi vidiki. Etične dileme, na katere v javni razpravi še ni odgovora. Ne moremo pričakovati, da bodo inženirji sprejemali te odločitve, niti jih ne smemo pričakovati. Za oblikovanje programske opreme so potrebni predpisi.

Artificial Intelligence is a good servant but a bad master

Umetna inteligenca je dobra uslužbenka, vendar slab mojster.
Kreditna točka: Ustavite skupino 5G

Odgovornost in odgovornost

V naši družbi so posamezniki odgovorni za svoja dejanja. Pri inteligentnih sistemih je težko prepoznati krivce. Zlasti če so sistemi zapleteni in samoučeni. Inženirji ne morejo vedno predvideti, kaj se bo sistem naučil ali kako se bo obnašal. Skupina Amazon verjetno ni nameravala ogroziti kandidatk, niti družba Google ni zavestno postavila moških na vrh zadetkov iskanja. Te posledice so se pojavile šele po postavitvi sistema v svet. Toda kdo smo krivi? Podjetje za uporabo teh sistemov, čeprav pred tem ni imelo utemeljenih razlogov za dvom o kakovosti sistema. Ali podjetje, ki je zgradilo sistem za prodajo izdelka, ki se je izkazal za diskriminatornega.

Inovacije so bile vedno moteče in ne brez tveganja. Zahtevajo prilagoditve naše družbe in pravosodnega sistema. Vzemite avtomobil. V zgodnjih dneh je bilo avtomobilu dovoljeno prosto potovati po mestih brez varnostnih pasov, zračnih blazin in prometnih znakov. Dokler število žrtev ni hitro naraščalo, ulice pa so postale nesprejemljive. Za racionalizacijo nove tehnologije v obstoječi infrastrukturi so bile potrebne nove smernice in predpisi. Malo jih je napovedalo, da bo avtomobil postal tako nevaren za pešce. Z urejanjem uporabe smo lahko povečali varnost, hkrati pa izkoristili prednosti te nove vrste prevoza. Danes si težko predstavljamo svet brez motornega prometa.

Tako kot pri avtomobilih bi bila prepoved sistemov umetne inteligence zaradi njihovih začetnih nevarnih posledic prekratka. Umetnointeligenčni sistemi lahko pozitivno vplivajo na našo družbo in jo že imajo. Vendar se na tej točki umetnointeligenčni sistemi razvijajo in odstranjujejo v naše vsakdanje življenje brez „sedežev“ ali drugih zaščitnih ukrepov. Pomembno je kritično razmisliti o tem, kako želimo, da bi umetna inteligenca obstajala v naši družbi. Začetek pogovora o tem, kako lahko povečamo varnost teh sistemov ali zmanjšamo škodo v primeru nepričakovanih izidov.

Image showing a man waving a red flag for pedestrians to warn them of cars and a robot holding a red flag to warn about Artificial Intelligence

Dobropis rdečega zastavica
: Ustavite skupino 5G

Črna skrinjica

V obrazložitvi splošne uredbe o varstvu podatkov je navedeno, da imajo ljudje pravico do vpogleda v razloge, na podlagi katerih so bile sprejete odločitve, kateri podatki se zbirajo in kako se bodo ti podatki uporabljali. Ta razmeroma nova zakonodaja je bila korak v pravo smer, vendar še zdaleč ni ustrezna rešitev za vzpostavitev zasebnosti ali spoštovanje državljanskih pravic. Pri obisku spletnega mesta na internetu se uporabniki pogosto srečujejo z velikimi količinami besedila, ki nejasno pojasnjujejo, kateri osebni podatki se zbirajo. Večinoma je težko zavrniti piškotke ali pa morate klikniti več pojavnih oken. Podjetja upoštevajo gole omejitve iz splošne uredbe o varstvu podatkov in posameznikom ne omogočajo lažjega nadzora nad lastnimi podatki. Zato menimo, da je Splošna uredba o varstvu podatkov naravnana pobuda, ki kaže lakoto za podatke spletnih podjetij.

Vendar tudi če bi bila podjetja bolj pripravljena deliti resnično zbiranje in uporabo osebnih podatkov, tega niso vedno v celoti sposobna. Številni inteligentni sistemi delujejo kot črne skrinjice: sklop podatkov in sistem bosta dala določen rezultat glede na značilnosti podatkov. V zadnjih letih so inženirji dajali prednost tem sistemom črne skrinjice. Takšni sistemi so imeli velik potencial za učenje bolj zapletenih konceptov, kot so jezik ali slike. Znani primeri sistemov črne skrinje so nevronska omrežja, programska oprema za prepoznavanje obrazov ali programska oprema za obdelavo naravnega jezika (npr. Google Translate). Inženirji imajo nadzor nad nekaterimi parametri, vendar nimajo vpogleda v vrsto informacij, ki se jih ti sistemi učijo ali sklepajo na podlagi podatkov. Samo s preverjanjem uspešnosti novih podatkov lahko inženir oceni, ali je sistem izvedel, kaj naj bi. Inženir bi lahko na primer vnesel niz novih slik, da bi videl, ali jih sistem lahko razlaga. Vendar, kot smo videli zgoraj, če inženir sistema ni dovolj temeljito preskusil, se lahko fotografije barvnih oseb razlagajo kot fotografije apes. Ali bi lahko inženirji v Googleu vedeli za to napako? Če bi programsko opremo preskusili na nizu barvnih fotografij, bi jih morda imeli. Fotografije pa lahko vsebujejo kar koli. Zelo težko bi bilo preveriti sistem na vseh področjih.

Učinkoviteje bi bilo preveriti, katere vrste stvari se je naučila programska oprema. Če bi nam lahko Googlov algoritem povedal, kakšne ukrepe bo storil za tolmačenje, bi lahko inženirji to utemeljitev preverili in ocenili verjetne izjeme ali primere napak. Zato člani znanstvene skupnosti pozivajo k bolj razumljivim pristopom k strojnemu učenju. Algoritmi črne skrinjice še niso izkoristili svojega potenciala in niso nujno boljši od bolj razumljivih algoritmov.

Prednost teh razumljivih algoritmov za razlago je večja od pričakovane prednosti glede uspešnosti algoritmov črne skrinjice. Samo če vemo, kaj se dogaja, lahko ustrezno vplivamo ali se prilagodimo.

Analytics Information by Reto Scheiwiller

Ogled črne skrinjice
Credit: Ustavite skupino 5G

Sklep

Umetna inteligenca in inteligentna programska oprema sta v sodobnem življenju precej vseprisotni. Vplivanje na postopke odločanja v podjetjih in izražanje predsodkov do manjšinskih skupin. Čeprav ne razumemo v celoti, kako umetna inteligenca deluje, kako vpliva na nas in kakšni bodo dolgoročni učinki.

Državljani EU niso bili vprašani, ali sprejemajo razširjene družbene posledice orodij odločanja, ki temeljijo na umetni inteligenci, v imenu tehnološkega napredka in digitalizacije.

Zato v evropski državljanski pobudi„Ustavimo (((5G))) – Staj povezani, vendar zaščiteni“ pozivamo k strožji ureditvi za zaščito državljanov pred kršitvami zasebnosti in diskriminacijo zaradi nenadzorovane uporabe sistema umetne inteligence pri odločanju v predlogih 19, 21 in 22 evropske državljanske pobude.

In nismo sami:

  • Evropski odbor za varstvo podatkov ne želi novih zakonodajnih predlogov Evropske komisije, ki bodo olajšali uporabo in izmenjavo (osebnih) podatkov med več javnimi in zasebnimi strankami. Po mnenju Evropskega odbora za varstvo podatkov bo to„znatno vplivalo na varstvo temeljnih pravic do zasebnosti in varstvo osebnih podatkov“.
  • Evropski svet poudarja pomen pristopa k politiki umetne inteligence, osredotočenega na človeka. Razmislite o vprašanjih, kot so pristransko in nepregledno odločanje, ki vpliva na temeljne človekove pravice državljanov.
  • V predhodni študiji Unesca o etiki umetne inteligence na strani 10 je navedeno, daje „najpomembneje... izobraževati prihodnje inženirje in računalniške znanstvenike za etično usklajeno zasnovo sistemov umetne inteligence“.
  • Druga evropska državljanska pobuda z naslovom Recover Your Face je zahtevala prepoved uporabe škodljive umetne inteligence, kot je biometrična masa, in nadzor nad prepoznavanjem obrazov.
  • Že leta 1942 je Isaac Asimov predvidel težave in navedel tri zakone o robotiki. Prvi zakon je, da robot ne škoduje človeku. Kot je prikazano v tem članku, smo daleč od tega.

 

 

Stop 5G - Blog Post Author

Avtorji člankov

Amar van Uden

Amar van Uden je pisatelj evropske državljanske pobude„Ustavimo (((5G))) – Stay Connected, a Protected Protected“. Podjetje Amar je z Nizozemske in študija Artificial Intelligence (Umetna inteligenca).

Komentiraj

Za dodajanje komentarjev se morate avtenticirati ali registrirati.