Pāriet uz galveno saturu
Eiropas pilsoņu iniciatīvas forums

Eiropieši drošām saiknēm aicina stingrāk regulēt mākslīgo intelektu lēmumu pieņemšanā

Atjaunināšanas datums: 24/01/2023

Eiropieši drošiem savienojumiem ir valstu un starptautisko organizāciju koalīcija, kas apzinās moderno komunikācijas tehnoloģiju negatīvās sekas. Mēs uzsveram, ka mēs neesam pret tehnoloģijām, bet gan atbalsta drošu tehnoloģiju un drošus savienojumus.

Kampaņas gada laikā esam guvuši pieredzi, kas var būt noderīga turpmākajiem organizatoriem. Pirmkārt, ja dzirdat šo īsto balsi savā sirdī, kas tev liek mainīt pasauli par to, kas ir labāks visiem un visiem: sekojiet šim viedoklim, cīnieties un nekad neatsakieties no cerībām!

ja pieplūdīsiet plūsmu, cilvēki viegli ar jums sazināsies, un jūs nesaskarsies ar pretestību. Taču, ja jums ir jāvēršas pret to, jūsu vēstījums var būt vajadzīgs, piemēram, tirdznieciskai augsnei, kas atbaidās no ūdens, ir vajadzīgs maigs, noturīgs lietus. Lai gan ES ir vajadzīgs miljons parakstu, svarīga ir jūsu ideju kvalitāte.

Mūsu Eiropas pilsoņu iniciatīvā (EPI) “Apturēt ((5G)) — saglabāt savienotus, bet aizsargātus”mums ir 23 priekšlikumi. Cita starpā mēs aicinām nodrošināt labāku regulējumu attiecībā uz datu privātumu un automātisku lēmumu pieņemšanu, izmantojot mākslīgo intelektu. Mēs ierosinām sākt ietekmes novērtējumu par 5G ietekmi uz personas datu aizsardzību (19.priekšlikums), mēs vēlamies aktīvi cīnīties pret diskrimināciju un digitālo tiesību pārkāpumiem (21.priekšlikums)un uzskatām, ka iedzīvotāji būtu jāinformē par to, vai viņu dati tiek apstrādāti automatizētā procedūrā (22. priekšlikums).

Stop 5G - Logo

Kā tas viss sākās

Mākslīgais intelekts (MI) jau ilgāku laiku ir bijis aptuvens. Jau 50 gadu sākumā cerības bija augstas attiecībā uz bezgalīgajām iespējām, ko mūsu sabiedrībai dotu intelektiskas tehnoloģijas. Tagad, vairāk nekā pusgadsimtu vēlāk, mākslīgā intelekta infūzijas tehnoloģija ir spējusi lēnām iedziļināties mūsu ikdienas dzīvē. Lai gan cilvēkveida roboti vēl nenonāk mūsu pasaulē, mūsu infrastruktūras pārvaldībā, darba procesos un brīvajā laikā mēs paļaujamies uz daudzām sarežģītām tehnoloģijām.

Pašreizējās “viedās” tehnoloģijas var atšķirties no tā, ko agrāk zinātnieki dēvētu par cilvēkiem līdzīgām viedām mašīnām. Lai gan Alan Turing ir definējis izlūkošanu kā domāšanu un rīcību kā cilvēki, mūsdienās viedās sistēmas mūsu mājā ar ierobežotām pārdomām liek šaubīties. Ir grūti definēt, kas tieši ir mākslīgais intelekts un ko tas nozīmē. Tomēr tas ir ļāvis mums dzīvot efektīvāk, raitāk un, iespējams, pat patīkamāk.

Tomēr arvien skaidrāk kļūst arī trūkumi, kas saistīti ar nebeidzamu automatizāciju un robotizāciju. Skatiet, piemēram, Amazon pieteikuma iesniedzējas: noraidīts, jo algoritms bija iemācījies dot priekšroku vīriešiem un sievietēm. Vai Microsoft tērzbota Tay Twitter, kas bija jālieto bezsaistē, jo tā no citiem tvītiem bija izsecinājusi dažus ārkārtīgi rasistiskus “patiesus”. Vai fakts, ka Google meklētajā terminā “CEO” parādās galvenokārt vīriešu fotoattēli.

Mēs varam domāt, ka mākslīgais intelekts, šķiet, izņem visvairāk vīriešu un padziļina pastāvošo nevienlīdzību. Tomēr tas varētu būt nedaudz vienkāršots secinājums. MI sistēmas un to pamatā esošie algoritmi bieži vien paļaujas uz datiem, daudziem datiem, lai uzzinātu par mūsu pasauli. Mašīnmācīšanās paņēmieni, piemēram, neirālie tīkli un lēmumu pieņemšanas koki, mēģinājums izsecināt tendences, saiknes starp jēdzieniem un svarīgi parametri, lai palīdzētu tiem izvēlēties pareizās iespējas turpmākajos pieprasījumos. Šie dati nav veidoti mašīnmācīšanās vajadzībām. Nē, lielāko daļu datu ir ģenerējuši mēs, cilvēki, noklikšķinot uz interneta un kopīgojot mūsu vēlmes. Izmantojot mūsu datus, lai mācītos, mākslīgā intelekta sistēmas tādējādi izgaismo sistemātiskus aizspriedumus, kas zināmā mērā jau pastāvēja mūsu sabiedrībā. Un tas padara viedo tehnoloģiju ieviešanu ne tikai par tehnoloģisku, bet arī sociālu un ētisku jautājumu. Šo iemeslu dēļ daži pētnieki apgalvo, ka inženieri jau sen slēpjas aiz MI tehnoloģiskajiem aspektiem, koncentrējoties uz aprēķinu uzlabošanu, vienlaikus neņemot vērā to, kā viņu inovācijas varētu ietekmēt galalietotājus. Tehnoloģija atrodas starp attīstītāju un ārpasauli. Šajā pantā aprakstīti trīs jautājumi: diskriminācija, pārskatatbildība un melnās kastes loģika.

Winter country with 20 telecommunication masts among firs and spruces

Ziemas valsts ar 20 telekomunikāciju mastiem baltegļu un egļu
kredītā: Publiskais sfēras
avots: https://labs.openai.com/

Diskriminācija un neobjektivitātes novēršana 

Tāpat kā Amazon pieteikuma iesniedzējas sievietes, arī minoritāšu grupu cilvēki neietilpst AI sistēmu faktiskajā darbības jomā. Iemesls ir redzams no nosaukuma: šie cilvēki veido minoritāti. Viņu attēlojums datos būs ierobežots, un algoritms neapgūst šo personu īpašās iezīmes. Tāpat kā cilvēki, sistēmas darbojas sliktāk, jo zināšanas ir ierobežotas. Rezultāts: melnās krāsas indivīdi ir marķēti ar Google intelektisko attēlu nolasīšanas programmatūru vai kā bīstamāku automātiskajā recidīvisma riska novērtēšanas sistēmā. Tikai tāpēc, ka programmatūra tika apmācīta uz attēliem, kas satur baltus indivīdus (un, iespējams, gorillas).

Datu zinātnieki ir informēti par šo problēmu, un jau pastāv metodes veiktspējas uzlabošanai. Piemēram, pielāgojot datu kopu tā, lai minoritāšu grupas būtu labāk pārstāvētas. Vai pievienojot papildu posmu mašīnmācīšanās procesā, lai pilnveidotu modeli.

Un padarīt diskusiju vēl sarežģītāku: ko darīt, ja mūsu sistēma ļoti labi prognozē rezultātus. Pieņemsim, ka mēs izstrādājam divus algoritmus. Tāda, kas pareizi atklāj slimību 80 % no laika baltiem indivīdiem, bet tikai 60 % no laika krāsainiem indivīdiem. Un otrs, kas pareizi atklāj slimību tikai 60 % no laika neatkarīgi no fona. Vai tad mums būtu jācenšas panākt līdztiesību un izmantot sliktāku algoritmu? Lai gan diskriminējošā persona potenciāli varētu glābt vairāk balto indivīdu? Tieši šajā jomā tiek ņemti vērā ētiskie apsvērumi.

Mūsu datu zinātnieks tikko kļuva par personu, kas veido miljoniem citu ticību, un viņam pēkšņi nākas saskarties ar sarežģītiem ētikas apsvērumiem. Ētiskas dilemmas, uz kurām vēl nav atbildēts publiskajās debatēs. Mēs nevaram sagaidīt, ka inženieri pieņems šos lēmumus, un mums nevajadzētu tos vēlēties. Lai vadītu programmatūras izstrādi, ir vajadzīgi noteikumi.

Artificial Intelligence is a good servant but a bad master

Mākslīgais intelekts ir labs darbinieks, bet slikts meistars.
Kredīts: Apturēt 5G komandu

Pārskatatbildība un atbildība

Mūsu sabiedrībā cilvēki tiek saukti pie atbildības par saviem darbiem. Ar intelektiskām sistēmām ir grūti identificēt vainīgo. Jo īpaši, ja sistēmas ir sarežģītas un pašmācās. Inženieri ne vienmēr var prognozēt, ko sistēma iemācīsies vai kā tā rīkosies. Amazon, iespējams, neplānoja apdraudēt pieteikumu iesniedzēju sievietes, un Google apzināti nenorādīja vīriešus meklēšanas rezultātu augšgalā. Šīs sekas radās tikai pēc sistēmas ieviešanas pasaulē. Bet kas ir vainojams? Uzņēmums par šo sistēmu izmantošanu, lai gan tam nebija pamatota iemesla iepriekš apšaubīt sistēmas kvalitāti. Vai uzņēmums, kas ir izveidojis sistēmu tāda ražojuma pārdošanai, kas izrādījies diskriminējošs.

Inovācija vienmēr ir bijusi traucējoša un ne bez riska. Viņi lūdz veikt pielāgojumus mūsu sabiedrībā un tiesu sistēmā. Paņemiet automašīnu. Sākumā automašīnai bija atļauts brīvi pārvietoties pa pilsētām bez drošības jostām, drošības spilveniem un ceļa zīmēm. Līdz bojāgājušo skaits strauji pieauga, un ielas kļuva nesvarīgas. Lai racionalizētu jauno tehnoloģiju esošajā infrastruktūrā, bija vajadzīgas jaunas pamatnostādnes un noteikumi. Maz prognozēja, ka automašīna kļūs tik bīstama kājāmgājēju pūlim. Regulējot izmantošanu, mēs varējām palielināt drošību, vienlaikus gūstot labumu no šā jaunā transporta veida. Mūsdienās mēs diez vai varam iedomāties pasauli bez motorizēta transporta.

Tāpat kā automašīnās, MI sistēmu aizliegšana to sākotnējās bīstamās ietekmes dēļ būtu pārāk tuvredzīga. Mākslīgā intelekta sistēmas var pozitīvi ietekmēt mūsu sabiedrību un pat rada šādu ietekmi. Tomēr pašlaik MI sistēmas tiek izstrādātas un izmestas mūsu ikdienas dzīvē bez “seatbeltēm” vai citiem aizsardzības pasākumiem. Ir svarīgi kritiski domāt par to, kā mēs vēlamies, lai mākslīgais intelekts pastāvētu mūsu sabiedrībā. Atklāt sarunu par to, kā mēs varam palielināt šo sistēmu drošību vai samazināt kaitējumu neparedzētu iznākumu gadījumā.

Image showing a man waving a red flag for pedestrians to warn them of cars and a robot holding a red flag to warn about Artificial Intelligence

Sarkanais karodziņa
kredīts: Apturēt 5G komandu

Melnā kaste

VDAR pamatojumā ir noteikts, ka cilvēkiem ir tiesības redzēt lēmumu pamatojumu, to, kādi dati tiek vākti un kā šie dati tiks izmantoti. Šis salīdzinoši jaunais tiesību akts ir bijis solis pareizajā virzienā, taču tas nebūt nav piemērots risinājums privātuma nodrošināšanai vai pilsonisko tiesību ievērošanai. Apmeklējot tīmekļa vietni internetā, lietotāji bieži saskaras ar lielu daudzumu teksta, kurā neskaidri izskaidroti, kādi personas dati tiek vākti. Vairumā gadījumu ir grūti noraidīt nevienu sīkdatņu, vai arī jums ir jānoklikšķina ap vairākiem uznirstošajiem logiem. Uzņēmumi ievēro Vispārīgajā datu aizsardzības regulā noteiktos ierobežojumus un neļauj privātpersonām viegli pārraudzīt savus datus. Tāpēc mēs uzskatām, ka VDAR ir dzīva iniciatīva, kas parāda tiešsaistes uzņēmumu datu badu.

Taču pat tad, ja uzņēmumi būtu vairāk gatavi dalīties ar personas datu patiesu vākšanu un izmantošanu, tie ne vienmēr ir pilnībā spējīgi. Daudzas intelektiskās sistēmas darbojas, piemēram, melnās kastes: iedalot daudz datu, un sistēma sniegs noteiktus rezultātus atkarībā no datu iezīmēm. Pēdējos gados inženieri deva priekšroku šīm melnās kastes sistēmām. Šādām sistēmām bija liels potenciāls apgūt sarežģītākus jēdzienus, piemēram, valodu vai attēlus. Slaveni melnās kastes sistēmu piemēri ir neirālie tīkli, sejas atpazīšanas programmatūra vai dabiskās valodas apstrādes programmatūra (piemēram, Google Translate). Inženieriem ir kontrole pār dažiem parametriem, bet viņiem nav nekādas informācijas par to, kāda veida informāciju šīs sistēmas mācās vai gūst secinājumus no datiem. Tikai pārbaudot jauno datu veiktspēju, inženieris var novērtēt, vai sistēma ir uzzinājusi, kas tai bija jādara. Inženieris, piemēram, varētu ievadīt jaunu attēlu kopumu, lai redzētu, vai sistēma spēj tos interpretēt. Taču, kā redzējām iepriekš, ja inženieris nav pietiekami rūpīgi pārbaudījis sistēmu, krāsainu cilvēku fotogrāfijas varētu interpretēt kā apes fotogrāfijas. Vai Google inženieri varētu zināt par šo kļūdu? Labi, ja viņi būtu pārbaudījuši programmatūru uz krāsainu cilvēku fotoattēlu kopuma. Taču fotogrāfijas var saturēt kaut ko. Un būtu ļoti grūti pārbaudīt sistēmu kopumā.

Efektīvāk būtu pārbaudīt, kādas lietas programmatūra ir iemācījusies. Ja Google algoritms varētu mums pastāstīt, kādus pasākumus tas veic, lai panāktu interpretāciju, inženieri varētu pārbaudīt šo argumentāciju un aplēst iespējamos izņēmumus vai kļūdu gadījumus. Tāpēc zinātnieku aprindu pārstāvji ir aicinājuši izstrādāt saprotamākas pieejas mašīnmācīšanās jomā. Melnās kastes algoritmi vēl nav izmantojuši savu potenciālu un ne vienmēr ir labāki par saprotamākiem algoritmiem.

Šo saprotamo algoritmu interpretējamības priekšrocības ir lielākas nekā sagaidāmās “melnās kastes” algoritmu veiktspējas priekšrocības. Tikai tad, ja mēs zinām, kas notiek, mēs varam attiecīgi iejaukties vai pielāgoties.

Analytics Information by Reto Scheiwiller

Skatīties melnās kastes
kredītu: Apturēt 5G komandu

Secinājums

Mākslīgais intelekts un intelektiskā programmatūra ir diezgan plaši izplatīta mūsdienu dzīvē. Lēmumu pieņemšanas procesu ietekmēšana uzņēmumos un neobjektivitāte pret minoritāšu grupām. Kamēr mēs pilnībā neizprotam, kā mākslīgais intelekts darbojas, kā tas mūs ietekmē un kāda būs ilgtermiņa ietekme.

ES iedzīvotājiem nav jautāts, vai viņi tehnoloģiju progresa un digitalizācijas vārdā pieņem lēmumu pieņemšanas rīkus, kuru pamatā ir mākslīgais intelekts.

Tāpēc Eiropas pilsoņu iniciatīvā “Stop (((5G)) — Stay Connected but Protected but Protected” mēs aicinām pieņemt stingrāku regulējumu, lai aizsargātu iedzīvotājus no privātuma pārkāpumiem un diskriminācijas, ko rada nekontrolēta MI sistēmas izmantošana lēmumu pieņemšanā EPI 19., 21. un 22. priekšlikumā.

Un mēs neesam vieni paši:

  • Eiropas Datu aizsardzības kolēģija nepatīk jaunus Eiropas Komisijas tiesību aktu priekšlikumus, kas atvieglos (personas) datu izmantošanu un kopīgošanu starp publiskām un privātām pusēm. Eiropas Datu aizsardzības kolēģija uzskata,ka tas “būtiski ietekmēs pamattiesību uz privātumu aizsardzību un personas datu aizsardzību”.
  • Eiropadome uzsver, cik svarīga ir uz cilvēku vērsta pieeja MI politikai. Padomājiet par tādiem jautājumiem kā neobjektīva un neskaidra lēmumu pieņemšana, kas ietekmē iedzīvotāju cilvēka pamattiesības.
  • UNESCO sākotnējā pētījumā par mākslīgā intelekta ētiku 10. lpp. ir teikts, ka “ir vissvarīgākais ir... izglītot nākotnes inženierus un datoru zinātniekus par ētiski saskaņotu mākslīgā intelekta sistēmu projektēšanu.
  • Vēl viena Eiropas pilsoņu iniciatīva (EPI) “Reclaim Your Face” pieprasīja aizliegt izmantot kaitīgu mākslīgo intelektu, piemēram, biometrisko masu un sejas atpazīšanas uzraudzību.
  • Pat 1942. gadā Isaac Asimov paredzēja problēmas un paziņoja trīs Robotikas likumus. Pirmais likums paredz, ka robots nekaitē cilvēkam. Kā parādīts šajā rakstā, mēs esam tālu no tā.

 

 

Stop 5G - Blog Post Author

Autori

Amar van Uden

Amar van Uden ir rakstnieks Eiropas pilsoņu iniciatīvai (EPI) “Stop (((5G))) — Savienots, bet aizsargāts”. Amar ir no Nīderlandes un pēta mākslīgo intelektu.

Ierakstīt komentāru

Lai varētu pievienot komentārus, jums ir jāautentificējas vai jāreģistrējas.
Atruna: EPI forumā paustie viedokļi atspoguļo tikai to autoru uzskatus un nekādā gadījumā nav uzskatāmi par Eiropas Komisijas vai Eiropas Savienības nostāju.