Direct la conținutul principal
Forumul inițiativei cetățenești europene

Europenii pentru conexiuni sigure solicită o reglementare mai strictă a inteligenței artificiale în procesul decizional

Actualizat la: 24 January 2023

Europenii pentru conexiuni sigure sunt o coaliție de organizații naționale și internaționale care sunt conștiente de consecințele negative ale tehnologiilor moderne de comunicare. Subliniem că nu suntem împotriva tehnologiei, ci în favoarea unei tehnologii sigure și a unor conexiuni sigure.

În cursul unui an al campaniei noastre, am tras învățăminte care pot fi utile pentru viitorii organizatori. În primul rând, dacă auziți această voce adevărată în inima ta, vă spuneți-vă să schimbați lumea în bine pentru tot și pentru toți: urmăriți această voce, luptă și niciodată renunțați la speranță!

dacă mergeți la flux, oamenii se vor deplasa cu ușurință cu dumneavoastră și nu vă veți confrunta cu rezistență. Dar dacă trebuie să vă opuneți, mesajul dumneavoastră ar putea fi necesar, deoarece solul frumos care repetă apa are nevoie de ploaie blândă și persistentă. Deși UE are nevoie de un milion de semnături, calitatea ideilor dumneavoastră contează.

În inițiativa noastră cetățenească europeană (ICE) „Stop [(5G)] – Să fim conectați, dar protejați” avem 23 de propuneri. Printre acestea, solicităm o mai bună reglementare a confidențialității datelor și luarea automată a deciziilor de către inteligența artificială. Propunem lansarea unei evaluări a impactului efectelor tehnologiei 5G asupra protecției datelor cu caracter personal (propunerea 19), dorim să vedem o luptă activă împotriva discriminării și a încălcărilor drepturilor digitale (propunerea 21) și considerăm că cetățenii ar trebui să fie informați dacă datele lor sunt prelucrate prin procedură automată (propunerea 22).

Stop 5G - Logo

Cum a început totul

Inteligența artificială (IA) este aproape de ceva timp. Încă de la începutul anului 50, așteptările erau ridicate în ceea ce privește posibilitățile nesfârșite pe care tehnologia inteligentă le-ar aduce societății noastre. Acum, după mai mult de o jumătate de secol, tehnologia inutilizabilă de IA a reușit să se incomodeze încet în viața noastră de zi cu zi. Deși roboții umanoizi nu merg încă în lume, ne bazăm pe multiple tehnologii complexe în gestionarea infrastructurii, în procesele de lucru și în timpul liber.

Tehnologiile „inteligente” actuale ar putea fi diferite de ceea ce oamenii de știință ar denumi mașinile inteligente de tipul uman. În timp ce Alan Turing a definit inteligența ca gândire și acțiune la fel ca oamenii, în prezent sistemele inteligente ne aspiră casa cu o gândire limitată. Este dificil să se definească exact ce este IA și ce implică aceasta. Cu toate acestea, ea ne-a permis să trăim mai eficient, mai ușor și, poate, chiar mai plăcut.

Dar dezavantajele automatizării și robotizării nesfârșite devin, de asemenea, din ce în ce mai evidente. Să luăm, de exemplu, reclamantele de sex feminin ale Amazon: respins deoarece algoritmul a învățat să favorizeze bărbații față de femei. Sau chatbotul de chat Tay al Microsoft pe Twitter, care a trebuit să fie luat offline, deoarece a dedus unele „adevăruri” extrem de rasiste din pensete. Sau faptul că, în principal, imaginile masculilor apar la termenul de căutare „director general” pe Google.

Putem crede că IA pare să elimine cele mai grave dintre bărbați și să adâncească inegalitățile existente. Totuși, acest lucru ar putea fi oarecum simplist pentru a concluziona. Sistemele de IA și algoritmii subiacenți se bazează adesea pe date, numeroase date, pentru a învăța despre lumea în care trăim. Tehnicile de învățare automată, cum ar fi rețelele neuronale și arborii de decizie, încearcă să deducă tendințe, legături între concepte și parametri importanți pentru a-i ajuta să aleagă opțiunile adecvate în cererile viitoare. Aceste date nu sunt alcătuite din motive de învățare automată. Nu, majoritatea datelor au fost generate de noi, oameni, făcând clic pe internet și împărtășindu-ne preferințele. Prin utilizarea datelor noastre pentru a învăța, sistemele de IA elimină astfel prejudecățile sistematice care erau deja prezente, într-o anumită măsură, în societatea noastră. Acest lucru face ca punerea în aplicare a tehnologiilor inteligente să nu fie doar o chestiune tehnologică, ci și o chestiune societală și etică. Din aceste motive, unii cercetători susțin că inginerii se ascund de mult timp în spatele aspectelor tehnologice ale IA, concentrându-se pe îmbunătățirea calculelor, neglijând în același timp efectele pe care inovațiile lor le-ar putea avea asupra utilizatorilor finali. Tehnologia se situează între un dezvoltator și lumea exterioară. Acest articol descrie trei aspecte: discriminarea, responsabilitatea și logica cutiei negre.

Winter country with 20 telecommunication masts among firs and spruces

Țară de iarnă cu 20 piloni de telecomunicații între firi și
lianți: Domeniul public
Sursa: https://labs.openai.com/

Discriminarea și tratamentul părtinitor 

La fel ca solicitantele Amazon, persoanele aparținând grupurilor minoritare nu intră în domeniul de aplicare efectiv al sistemelor de IA. Motivul este evident din nume: acestea sunt persoane care formează o minoritate. Reprezentarea lor în date va fi limitată, iar algoritmul nu va învăța caracteristicile specifice care reprezintă aceste persoane. La fel ca oamenii, sistemele au performanțe mai slabe, cu cunoștințe limitate. Rezultatul: persoanele de culoare neagră sunt etichetate ca scuturi de software-ul de citire inteligentă a imaginii al Google sau ca fiind mai periculoase într-un sistem automat de evaluare a riscurilor pentru recidivă. Pur și simplu pentru că software-ul a fost antrenat pe fotografii care conțineau persoane de culoare albă (și probabil gorile).

Oamenii de știință în domeniul datelor au fost conștienți de această problemă și există deja tehnici de îmbunătățire a performanței. De exemplu, prin ajustarea setului de date astfel încât grupurile minoritare să fie mai bine reprezentate. Sau prin adăugarea unei etape suplimentare în procesul de învățare automată pentru a perfecționa modelul.

Și pentru a complica și mai mult discuția: ce se întâmplă dacă sistemul nostru anticipează foarte bine rezultatele. Presupunem că dezvoltăm doi algoritmi. Una care detectează în mod corect o boală 80 % din timp la indivizii albi, dar doar 60 % din timp la indivizii de culoare. Și o a doua care detectează corect o boală doar 60 % din timp, indiferent de context. Ar trebui să depunem apoi eforturi pentru egalitate și să luăm algoritmul cel mai rău? Chiar dacă discriminarea ar putea salva mai multe persoane albe? Aici intervin considerentele etice.

Oamenii noștri de știință în domeniul datelor tocmai au devenit o persoană care modelează credința unui milion de persoane și trebuie să facă brusc considerații etice dificile. Dileme etice la care nu s-a răspuns încă în cadrul dezbaterii publice. Nu ne putem aștepta ca inginerii să ia aceste decizii și nici nu ar trebui să le dorim. Sunt necesare reglementări care să ghideze proiectarea software-ului.

Artificial Intelligence is a good servant but a bad master

Inteligența artificială este un bun agent, dar un stăpân.
Credite: Opriți echipa 5G

Responsabilitate și responsabilitate

În societatea noastră, indivizii sunt trași la răspundere pentru faptele lor. În cazul sistemelor inteligente, este dificil să se identifice vinovatul. În special dacă sistemele sunt complexe și auto-învățare. Inginerii nu pot prevedea întotdeauna ce va învăța sistemul sau cum se va comporta acesta. Probabil că Amazon nu a intenționat să pună în pericol solicitantele de sex feminin și nici Google nu a plasat în mod conștient bărbații în partea de sus a rezultatelor căutării. Aceste consecințe au apărut numai după ce sistemul a intrat în lume. Dar cine trebuie să ne învinuim? Societatea pentru utilizarea acestor sisteme, chiar dacă nu avea în prealabil motive întemeiate să pună la îndoială calitatea sistemului. Sau societatea care a construit sistemul de vânzare a unui produs care s-a dovedit a fi discriminatoriu.

Inovațiile au fost întotdeauna perturbatoare și nu lipsite de riscuri. Aceștia solicită adaptări în societatea noastră și în sistemul nostru de justiție. Luați mașina. În primele sale zile, o mașină a fost lăsată să circule liber în orașe fără centuri de siguranță, airbaguri și indicatoare rutiere. Până când numărul victimelor a crescut rapid, iar străzile nu se puteau deplasa. Au fost necesare noi orientări și reglementări pentru a raționaliza noua tehnologie în infrastructura existentă. Puțini au estimat că mașina va deveni atât de periculoasă pentru mulțimea de mers. Prin reglementarea utilizării, am fost în măsură să sporim siguranța, beneficiind totodată de avantajele acestui nou tip de transport. În prezent, nu ne putem imagina o lume fără mijloace de transport motorizate.

La fel ca în cazul autoturismelor, interzicerea sistemelor de IA pentru implicațiile lor inițiale periculoase ar fi prea limitată. Sistemele de IA pot avea și chiar au deja un impact pozitiv asupra societății noastre. Cu toate acestea, în acest moment, sistemele de IA sunt dezvoltate și abandonate în viața noastră de zi cu zi fără nicio „centură de siguranță” sau alte garanții. Este important să ne gândim critic la modul în care dorim ca IA să existe în societatea noastră. Deschiderea discuției cu privire la modul în care putem spori siguranța acestor sisteme sau putem reduce daunele în cazul unor rezultate neprevăzute.

Image showing a man waving a red flag for pedestrians to warn them of cars and a robot holding a red flag to warn about Artificial Intelligence

Indicatorul roșu
Credit: Opriți echipa 5G

Cutie neagră

Justificarea RGPD prevede că persoanele au dreptul de a vedea motivele pe baza cărora au fost luate deciziile, datele colectate și modul în care vor fi utilizate aceste date. Această lege relativ nouă a reprezentat un pas în direcția cea bună, dar este departe de a fi o soluție adecvată pentru stabilirea vieții private sau pentru aderarea la drepturile civile. Atunci când vizitează un site internet, utilizatorii se confruntă adesea cu cantități mari de text care explică în mod vag ce date cu caracter personal sunt colectate. De cele mai multe ori, este dificil să respingeți cookie-urile sau trebuie să faceți clic în jurul mai multor ferestre pop-up. Întreprinderile respectă constrângerile impuse de RGPD și nu facilitează supravegherea propriilor date de către persoanele fizice. Prin urmare, considerăm că RGPD este o inițiativă naivă care demonstrează foametea pentru datele întreprinderilor online.

Cu toate acestea, chiar dacă întreprinderile ar fi mai dispuse să partajeze colectarea și utilizarea reală a datelor cu caracter personal, acestea nu sunt întotdeauna pe deplin în măsură. Multe sisteme inteligente funcționează cum ar fi cutiile negre: introducerea în loturi de date, iar sistemul va furniza un anumit rezultat, în funcție de caracteristicile datelor. În ultimii ani, inginerii s-au exprimat în favoarea acestor sisteme de cutii negre. Astfel de sisteme aveau un potențial ridicat de a învăța concepte mai complexe, cum ar fi limba sau imaginile. Exemple renumite de sisteme de tip cutie neagră sunt rețelele neuronale, software-ul de recunoaștere facială sau software-ul de procesare a limbajului natural (de exemplu, Google Translate). Inginerii dețin controlul asupra anumitor parametri, dar nu au nicio perspectivă asupra tipului de informații pe care aceste sisteme le învață sau le deduc din date. Numai prin verificarea performanței datelor noi, un inginer poate estima dacă sistemul a învățat ce ar fi trebuit să facă. Un inginer ar putea, de exemplu, să introducă un set de imagini noi pentru a vedea dacă sistemul este în măsură să le interpreteze. Dar, după cum am văzut mai devreme, dacă inginerul nu a testat sistemul suficient de temeinic, fotografiile persoanelor de culoare ar putea fi interpretate ca fiind cele ale maimuțelor. Inginerii Google ar fi putut ști despre această eroare? Bine, dacă ar fi testat software-ul pe o serie de fotografii ale unor persoane de culoare pe care le-ar putea avea. Dar fotografiile pot conține ceva. Și ar fi foarte dificil să se verifice sistemul cu privire la toate aspectele.

Mai eficient ar fi să se verifice ce fel de lucruri a învățat software-ul. Dacă algoritmul Google ne-ar putea spune ce fel de măsuri ia pentru a ajunge la o interpretare, inginerii ar putea verifica acest raționament și ar putea estima excepțiile probabile sau cazurile de eroare. Acesta este motivul pentru care membrii comunității științifice au solicitat abordări mai ușor de înțeles în ceea ce privește învățarea automată. Algoritmii cutiei negre nu și-au atins încă potențialul și nu sunt neapărat mai buni decât algoritmii mai ușor de înțeles.

Avantajul de interpretare al acestor algoritmi ușor de înțeles este mai mare decât avantajul de performanță preconizat al algoritmilor cutiei negre. Numai dacă știm ce se întâmplă, putem interveni sau ne putem adapta în consecință.

Analytics Information by Reto Scheiwiller

Urmăriți cutia neagră a
creditului: Opriți echipa 5G

Concluzie

Ia și software-ul inteligent sunt destul de omniprezente în viața modernă. Influențarea proceselor decizionale în întreprinderi și manifestarea prejudecăților față de grupurile minoritare. Cu toții, nu înțelegem pe deplin cum funcționează inteligența artificială, cum ne afectează și care vor fi efectele pe termen lung.

Cetățenii UE nu au fost întrebați dacă acceptă consecințele societale generalizate ale instrumentelor decizionale ghidate de inteligența artificială în numele progresului tehnologic și al digitalizării.

Prin urmare, în inițiativacetățenească europeană „Stop [(5G)] – Să fim conectați, dar protejați” solicităm o reglementare mai strictă pentru a proteja cetățenii împotriva încălcării vieții private și a discriminării ca urmare a utilizării necontrolate a sistemului de IA în procesul decizional în propunerile 19, 21 și 22 ale ICE.

Și nu suntem singuri:

  • Comitetul european pentru protecția datelor nu se aseamănă cu noile propuneri legislative ale Comisiei Europene, care vor facilita utilizarea și schimbul de date (cu caracter personal) între mai multe părți publice și private. Potrivit Comitetului european pentru protecția datelor, acest lucru „vaavea un impact semnificativ asupra protecției drepturilor fundamentale la viață privată și asupra protecției datelor cu caracter personal”.
  • Consiliul European subliniază importanța unei abordări centrate pe factorul uman a politicii în domeniul IA. Gândiți-vă la aspecte precum procesul decizional părtinitor și opac care afectează drepturile fundamentale ale omului ale cetățenilor.
  • Studiul preliminar al UNESCO privind etica inteligenței artificiale de la pagina 10 prevede că „este foarte important să... educăm viitorii ingineri și cercetători în domeniul informaticii pentru proiectarea armonizată din punct de vedere etic a sistemelor de IA.
  • O altă inițiativă cetățenească europeană (ICE), intitulată Reclaim Your Face, a solicitat interzicerea utilizării IA dăunătoare, cum ar fi supravegherea biometrică în masă și recunoașterea facială.
  • Încă din 1942, Isaac Asimov a prevăzut problemele și a declarat trei legi privind robotica. Prima lege este că un robot nu trebuie să dăuneze unei ființe umane. Dupăcum se arată în acest articol, suntem departe de aceasta.

 

 

Stop 5G - Blog Post Author

Autori

Amar van Uden

Amar van Uden scrie inițiativa cetățenească europeană (ICE) „Stop [(5G)] – Să fim conectați, dar protejați”. Amar este din Țările de Jos și studiază inteligența artificială.

Scrieți un comentariu

Pentru a putea scrie comentarii, trebuie să vă autentificați sau să vă înregistrați.