Pereiti prie pagrindinio turinio
Europos piliečių iniciatyvos forumas

Europiečiai už saugius ryšius ragina priimant sprendimus griežčiau reglamentuoti dirbtinį intelektą

Atnaujinta: 24 January 2023

Europiečiai už saugius ryšius yra nacionalinių ir tarptautinių organizacijų, kurios žino apie neigiamas šiuolaikinių ryšių technologijų pasekmes, koalicija. Pabrėžiame, kad nepritariame technologijoms, bet pritariame saugioms technologijoms ir saugioms sąsajoms.

Per vienus mūsų kampanijos metus išmokome pamokas, kurios gali būti naudingos būsimiems organizatoriams. Pirma, jei išgirsite šį tikrąjį balsą širdyje, sakydami, kaip pakeisti pasaulį, kad jis būtų geresnis visiems ir visiems: sekite šį balsą, kovokite ir niekada nepraleiskite vilties!

jei pereisite prie srauto, žmonės su jumis nesunkiai susidurs su jumis ir nepatirsime priešinimosi. Tačiau jei jums reikės priešintis, jūsų žinutė gali būti reikalinga, nes trylika dirvožemių atbaidančiam vandeniui reikia švelnaus ilgalaikio lietaus. Nors ES reikia milijono parašų, svarbi jūsų idėjų kokybė.

Mūsų Europos piliečių iniciatyvoje (EPI) „Sustabdykime“ (((5G)) – būsime susieti, bet apsaugoti“ pateikėme 23 pasiūlymus. Be kita ko, raginame geriau reglamentuoti duomenų privatumą ir automatinį sprendimų priėmimą pasitelkiant dirbtinį intelektą. Siūlome pradėti 5G poveikio asmens duomenų apsaugai vertinimą (19 pasiūlymas), norime aktyviai kovoti su diskriminacija ir skaitmeninių teisių pažeidimais (21 pasiūlymas) ir manome, kad piliečiai turėtų būti informuojami, ar jų duomenys tvarkomi taikant automatizuotą procedūrą (22 pasiūlymas).

Stop 5G - Logo

Kaip prasidėjo visa tai?

Dirbtinis intelektas (DI) jau gana ilgą laiką. Jau 50-ojo dešimtmečio pradžioje buvo labai tikimasi, kad pažangios technologijos mūsų visuomenei atneš begalinių galimybių. Dabar, praėjus daugiau kaip pusei amžiaus, dirbtinio intelekto infuzijos technologijos sugebėjo lėtai įsilieti į mūsų kasdienį gyvenimą. Nors humanoidiniai robotai dar nesirenka į mūsų pasaulį, savo infrastruktūros valdymo, darbo procesų ir laisvo laiko srityse naudojamės įvairiomis sudėtingomis technologijomis.

Dabartinės „pažangiosios“ technologijos gali skirtis nuo to, ką anksčiau mokslininkai vadina į žmogiškąsias pažangiąsias mašinas. Kadangi Alan Turing žvalgybą apibrėžė kaip mąstymą ir veikimą kaip žmones, šiuo metu išmaniosios sistemos vakuumuoja mūsų namus su ribota mintimi. Sunku apibrėžti, kas yra dirbtinis intelektas ir ką jis reiškia. Nepaisant to, tai leido mums veiksmingiau, sklandžiau ir galbūt dar labiau maloniau gyventi.

Tačiau begalinio automatizavimo ir robotizavimo trūkumai taip pat tampa vis akivaizdesni. Tarkime, pavyzdžiui, Amazon ieškovę: atmesta, nes algoritmas išmoko teikti pirmenybę vyrams moterims. „ Microsoft“ pokalbių robotas Tay tinkle „Twitter“, kurį reikėjo nuskaityti atjungties režimu, nes ji iš kitų „Twitter“ žinučių padarė išvadą apie labai rasistines „tiesas“. Arba tai, kad „ Google“ paieškos žodis „CEO“ daugiausia rodo vyriškos lyties asmenų nuotraukas.

Galime manyti, kad dirbtinis intelektas, regis, pašalina blogiausią vyrų skaičių ir didina esamą nelygybę. Tačiau tai gali būti šiek tiek supaprastinta, kad būtų galima padaryti išvadą. Di sistemos ir pagrindiniai algoritmai dažnai priklauso nuo duomenų, daugybės duomenų, kad sužinotų apie mūsų pasaulį. Mašinų mokymosi metodai, pavyzdžiui, neuroniniai tinklai ir sprendimų medžiai, bandoma nustatyti tendencijas, sąvokų sąsajas ir svarbius parametrus, padedančius jiems pasirinkti tinkamas galimybes būsimuose prašymuose. Šie duomenys nebuvo parengti mašinų mokymosi tikslais. Ne, didžiąją dalį duomenų sugeneravome mes, žmonės, spustelėję internete ir pasidalindami savo prioritetais. Naudodamosi mūsų duomenimis mokytis, dirbtinio intelekto sistemos išryškina sisteminį šališkumą, kuris jau tam tikru mastu jau buvo mūsų visuomenėje. Todėl pažangiųjų technologijų įgyvendinimas yra ne tik technologinis, bet ir visuomeninis bei etinis klausimas. Dėl šių priežasčių kai kurie tyrėjai teigia, kad inžinieriai jau seniai slapstosi už dirbtinio intelekto technologinių aspektų, daugiausia dėmesio skirdami skaičiavimo gerinimui ir nepaisydami galimo jų inovacijų poveikio galutiniams naudotojams. Technologijos yra tarp kūrėjo ir išorinio pasaulio. Šiame straipsnyje aprašomi trys klausimai: diskriminacija, atskaitomybė ir „juodosios dėžės“ logika.

Winter country with 20 telecommunication masts among firs and spruces

Žiemos šalis, kurioje yra 20 telekomunikacijų stiebo tarp eglių ir eglių
kreditas: Viešoji sritis
Šaltinis: https://labs.openai.com/

Diskriminacija ir šališkumo valdymas 

Kaip ir „Amazon“ paraišką pateikusios moterys, mažumų grupėms priklausantys asmenys nepatenka į faktinę dirbtinio intelekto sistemų taikymo sritį. Priežastis aiškiai matyti iš pavadinimo: tai žmonės sudaro mažumą. Jų pateikimas duomenyse bus ribotas, o algoritmas nepažįsta konkrečių šiems asmenims būdingų savybių. Kaip ir žmonės, sistemos veikia prasčiau dėl ribotų žinių. Rezultatai: „Google“ išmanioji vaizdo skaitymo programinė įranga juodaodžius asmenis paženklina kaip nugales arba kaip pavojingesnius automatinėje recidyvizmo rizikos vertinimo sistemoje. Vien dėl to, kad programinė įranga buvo išmokyta naudoti paveikslėlius, kuriuose yra baltos spalvos asmenų (ir galbūt gorillas).

Duomenų mokslininkai žinojo apie šią problemą ir jau esama metodų, kaip pagerinti veiklos rezultatus. Pavyzdžiui, pakoreguojant duomenų rinkinį taip, kad būtų geriau atstovaujama mažumų grupėms. Arba pridedant papildomą mašinų mokymosi proceso etapą modeliui patobulinti.

Ir dar labiau apsunkinti diskusijas: ką daryti, jei mūsų sistema labai gerai prognozuoja rezultatus. Tarkime, kad sukursime du algoritmus. Baltųjų individų liga teisingai aptinkama 80 proc. laiko, o spalvotų individų – tik 60 proc. laiko. Antrasis atvejis, kai liga teisingai aptinkama tik 60 proc. laiko, neatsižvelgiant į aplinkybes. Ar tuomet turėtume siekti lygybės ir taikyti blogesnį algoritmą? Nors diskriminuojant būtų galima sutaupyti daugiau baltos spalvos asmenų? Būtent čia atsižvelgiama į etinius aspektus.

Mūsų duomenų mokslininkas ką tik tapo milijonu kitų tikėjimą formuojančiu asmeniu ir turi staiga atsižvelgti į sudėtingus etinius aspektus. Etinės dilemos, į kurias dar neatsakyta viešose diskusijose. Negalime tikėtis, kad inžinieriai priims šiuos sprendimus, taip pat negalime jų norėti. Programinės įrangos projektavimui reikalingos taisyklės.

Artificial Intelligence is a good servant but a bad master

Dirbtinis intelektas yra geras tarnautojas, bet blogas meistras.
Šaltinis: Sustabdyti 5G komandą

Atskaitomybė ir atsakomybė

Mūsų visuomenėje asmenys laikomi atsakingais už savo veiksmus. Naudojant pažangias sistemas sunku nustatyti kaltininkus. Ypač jei sistemos yra sudėtingos ir yra savarankiško mokymosi. Inžinieriai ne visada gali numatyti, ką sistema išmoks arba kaip ji elgsis. „Amazon“ tikriausiai neketino kelti pavojaus moterims kandidatėms ir Google sąmoningai nepaskyrė vyrų į paieškos rezultatų viršūnę. Tik po to, kai sistema buvo perkelta į pasaulį, šios pasekmės atsirado. Tačiau kam tenka kaltinti? Bendrovė naudoja šias sistemas, nors iš anksto neturėjo pagrįstų priežasčių abejoti sistemos kokybe. Arba bendrovė, sukūrusi produktų, kurie pasirodė diskriminuojantys, pardavimo sistemą.

Inovacijos visada buvo trikdančios, o ne rizikingos. Jie prašo pritaikyti mūsų visuomenę ir teisingumo sistemą. Pasiimkite automobilį. Pradžioje automobiliui buvo leista laisvai važiuoti aplink miestus be saugos diržų, oro pagalvių ir kelio ženklų. Iki sparčiai augo aukų skaičius ir gatvės tapo nenueikvotos. Siekiant racionalizuoti naują technologiją esamoje infrastruktūroje, reikėjo naujų gairių ir reglamentų. Tik nedaugelis prognozavo, kad automobilis taps toks pavojingas pėsčiųjų miniai. Sureguliuodami naudojimą sugebėjome padidinti saugumą, kartu pasinaudodami šios naujos rūšies transporto teikiama nauda. Šiandien vargu ar galime įsivaizduoti pasaulį be motorinio transporto.

Kaip ir automobilių atveju, DI sistemų uždraudimas dėl jų pradinių pavojingų padarinių būtų pernelyg trumparegiškas. Di sistemos gali daryti ir jau daro teigiamą poveikį mūsų visuomenei. Tačiau šiuo metu dirbtinio intelekto sistemos kuriamos ir patenka į mūsų kasdienį gyvenimą be jokių diržų ar kitų apsaugos priemonių. Svarbu kritiškai apsvarstyti, kaip norime, kad dirbtinis intelektas egzistuotų mūsų visuomenėje. Pradėti diskusiją apie tai, kaip galime padidinti šių sistemų saugumą arba sumažinti žalą netikėtų rezultatų atveju.

Image showing a man waving a red flag for pedestrians to warn them of cars and a robot holding a red flag to warn about Artificial Intelligence

Raudonos vėliavos
kreditas: Sustabdyti 5G komandą

Juodoji dėžė

BDAR pagrindime teigiama, kad asmenys turi teisę matyti priežastis, dėl kurių buvo priimti sprendimai, kokie duomenys renkami ir kaip šie duomenys bus naudojami. Šis palyginti naujas teisės aktas buvo žingsnis teisinga linkme, tačiau toli gražu nėra tinkamas sprendimas, kaip užtikrinti privatumą ar laikytis pilietinių teisių. Lankydamiesi interneto svetainėje, naudotojai dažnai susiduria su dideliu kiekiu teksto, neaiškiai paaiškinančio, kokie asmens duomenys renkami. Ir dažniausiai sunku atmesti bet kokius slapukus arba turite spustelėti kelis iškylančiuosius langus. Įmonės laikosi jokių BDAR nustatytų apribojimų ir nesudaro asmenims lengvų galimybių prižiūrėti savo duomenis. Todėl manome, kad Bendrasis duomenų apsaugos reglamentas yra naivi iniciatyva, rodanti, kad interneto bendrovių duomenys yra nepriekaištingi.

Tačiau net jei įmonės būtų labiau linkusios dalytis tikru asmens duomenų rinkimu ir naudojimu, jos ne visada gali visapusiškai tai padaryti. Daugelis išmaniųjų sistemų veikia kaip juodosios dėžės: surinkus daug duomenų, sistema suteiks tam tikrą rezultatą, priklausomai nuo duomenų savybių. Pastaraisiais metais inžinieriai teikė pirmenybę šioms juodosios dėžės sistemoms. Tokios sistemos turėjo didelį potencialą mokytis sudėtingesnių koncepcijų, pavyzdžiui, kalbos ar vaizdų. Žinomi juodosios dėžės sistemų pavyzdžiai yra neuroniniai tinklai, veido atpažinimo programinė įranga arba natūraliosios kalbos apdorojimo programinė įranga (pvz., Google Translate). Inžinieriai kontroliuoja kai kuriuos parametrus, tačiau neturi jokių įžvalgų apie informacijos, kurią šios sistemos mokosi ar daro iš duomenų, rūšį. Tik patikrinęs naujų duomenų veikimą inžinierius gali įvertinti, ar sistema sužinojo, ko ji turėjo. Pavyzdžiui, inžinierius galėtų įvesti naujų vaizdų rinkinį, kad sužinotų, ar sistema gali juos aiškinti. Tačiau, kaip matėme anksčiau, jei inžinierius nepakankamai kruopščiai išbandė sistemą, spalvotųjų žmonių nuotraukos gali būti suprantamos kaip kačių nuotraukos. Ar „ Google“ inžinieriai galėjo žinoti apie šią klaidą? Gerai, jei jie būtų išbandę programinę įrangą su spalvotų žmonių nuotraukų rinkiniu. Tačiau nuotraukose gali būti apie ką nors. Ir viską patikrinti sistemą būtų labai sunku.

Veiksmingiau būtų patikrinti, kokių dalykų išmoko programinė įranga. Jei „Google“ algoritmas galėtų mums nurodyti, kokių veiksmų ji imasi, kad gautų išaiškinimą, inžinieriai galėtų patikrinti šiuos argumentus ir įvertinti galimas išimtis arba klaidų atvejus. Todėl mokslo bendruomenės nariai ragina laikytis suprantamesnio požiūrio į mašinų mokymąsi. Juodosios dėžės algoritmai dar neišnaudojo savo potencialo ir nebūtinai yra geresni už suprantamesni algoritmus.

Šių suprantamų algoritmų aiškinimo privalumas yra didesnis nei tikėtinas „juodosios dėžės“ algoritmų veikimo privalumas. Tik tuo atveju, jei žinome, kas vyksta, galime kištis arba atitinkamai pakoreguoti.

Analytics Information by Reto Scheiwiller

„Juodosios dėžės“
kredito žiūrėjimas: Sustabdyti 5G komandą

Išvada

Dirbtinis intelektas ir išmanioji programinė įranga yra gana universalūs šiuolaikiniame gyvenime. Daryti įtaką sprendimų priėmimo procesams įmonėse ir rodyti šališkumą mažumų grupių atžvilgiu. Vis dėlto nevisiškai suprantame, kaip veikia dirbtinis intelektas, kokį poveikį jis daro ir koks bus ilgalaikis poveikis.

ES piliečių nebuvo klausiama, ar jie sutinka su plačiai paplitusiomis dirbtinio intelekto sprendimų priėmimo priemonių pasekmėmis visuomenei, atsižvelgiant į technologinę pažangą ir skaitmeninimą.

Todėl Europos piliečių iniciatyvoje „Sustabdykime“ (5G) – būsime susieti, bet apsaugoti“ raginame griežčiau reglamentuoti, kad piliečiai būtų apsaugoti nuo privatumo pažeidimų ir diskriminacijos dėl nekontroliuojamo dirbtinio intelekto sistemos naudojimo sprendimų priėmimo procese, pateiktuose Europos piliečių iniciatyvos 19, 21 ir 22 pasiūlymuose.

Ir mes ne vieni:

  • Europos duomenų apsaugos valdyba nepritaria naujiems Europos Komisijos pasiūlymams dėl teisėkūros procedūra priimamų aktų, kuriais bus palengvintas (asmens) duomenų naudojimas ir dalijimasis jais tarp daugiau viešųjų ir privačiųjų subjektų. Europos duomenų apsaugos valdybos nuomone, tai „darysdidelį poveikį pagrindinių teisių į privatumą ir asmens duomenų apsaugą apsaugai“.
  • Europos Vadovų Taryba pabrėžia į žmogų orientuoto požiūrio į DI politiką svarbą. Pagalvokite apie tokius klausimus kaip šališkas ir neskaidrus sprendimų priėmimas, darantis poveikį piliečių pagrindinėms žmogaus teisėms.
  • UNESCO Preliminaraus dirbtinio intelekto etikos tyrimo 10 puslapyje teigiama, kad „labai svarbu šviesti būsimus inžinierius ir kompiuterių mokslininkus apie etiškai suderintą dirbtinio intelekto sistemų projektavimą“.
  • Kitoje Europos piliečių iniciatyvoje „Reclaim Your Face “ buvo reikalaujama uždrausti naudoti žalingą dirbtinį intelektą, pvz., biometrinę masinę masę ir veido atpažinimo stebėjimą.
  • Dar 1942 m. Isaac Asimov numatė problemas ir paskelbė tris robotikos įstatymus. Pirmasis teisės aktas yra tas, kad robotas neturi kenkti žmogui. Kaip matyti iš šio straipsnio, toli gražu nėra.

 

 

Stop 5G - Blog Post Author

Autoriai

Amar van Uden

Amar van Uden yra Europos piliečių iniciatyvos „Sustabdykime (((5G)) – būsite susietas, bet apsaugotas“autorius. Amar yra iš Nyderlandų ir atlieka dirbtinio intelekto tyrimus.

Pateikite komentarą

Norėdami parašyti komentarą turite prisijungti arba prisiregistruoti.