Ugrás a fő tartalomra
Az európai polgári kezdeményezés fóruma

Az európaiak a biztonságos összeköttetésekért a döntéshozatal során a mesterséges intelligencia szigorúbb szabályozására szólítanak fel

Frissítés dátuma: 24/01/2023

Az európaiak a biztonságos konnektivitásért olyan nemzeti és nemzetközi szervezetek koalíciója, amelyek tisztában vannak a modern kommunikációs technológiák káros következményeivel. Hangsúlyozzuk, hogy nem a technológiát, hanem a biztonságos technológiát és a biztonságos összeköttetéseket támogatjuk.

Kampányunk egy éve alatt levontuk a tanulságokat, amelyek hasznosak lehetnek a jövőbeli szervezők számára. Először is, ha hallja ezt a valódi hangot a szívében, és elmondod, hogy a világot mindenki és mindenki számára jobbá kell tenni: kövesse ezt a hangot, küzdjön, és soha ne adja fel a reményt!

ha megy az áramláson, az emberek könnyen eljutnak Önhöz, és nem fognak ellenállásba ütközni. Ha azonban szembe kell mennie ezzel szemben, szükség lehet üzenetére, például a szomorú talajtakaró víznek lágy, tartós esőzésre van szüksége. Bár az EU-nak egymillió aláírásra van szüksége, az Ön elképzeléseinek minősége számít.

A „Stop (((5G))) – Stay Connected but Protected” (Stop ((5G)))európai polgári kezdeményezésünkben 23 javaslatunk van. Többek között az adatvédelemre és a mesterséges intelligencia általi automatikus döntéshozatalra vonatkozó szabályozás javítására szólítunk fel. Javasoljuk az 5G által a személyes adatok védelmére gyakorolt hatások hatásvizsgálatának elindítását (19.javaslat), aktív küzdelmet kívánunk látni a megkülönböztetés és a digitális jogok megsértése ellen (21.javaslat), és úgy véljük, hogy a polgárokat tájékoztatni kell arról, hogy adataik automatizált eljárással kerülnek-e feldolgozásra (22. javaslat).

Stop 5G - Logo

Hogyan indult el mindannyian?

A mesterséges intelligencia (MI) egy ideje szerteágazó. Már az 50 elején is nagy elvárások fogalmazódtak meg az intelligens technológia társadalmunk számára kínált végtelen lehetőségekkel kapcsolatban. Több mint fél évszázaddal később a mesterséges intelligencián alapuló technológia lassan bejutott mindennapi életünkbe. Bár a humanoid robotok még nem sétálnak világunkban, infrastrukturális irányításunk, munkafolyamataink és szabadidőink terén számos összetett technológiára támaszkodunk.

A jelenlegi „intelligens” technológiák eltérhetnek attól, amit a korábbi tudósok emberszerű intelligens gépeknek neveznének. Mivel Alan Turing a hírszerzést az emberhez hasonló gondolkodásként és cselekvésként határozta meg, az intelligens rendszerek manapság korlátozott gondolkodással ürítik házunkat. Nehéz meghatározni, hogy pontosan mit jelent a mesterséges intelligencia, és miben áll benne. Ugyanakkor lehetővé tette számunkra, hogy hatékonyabban, gördülékenyebben és talán még élvezetesebben éljünk.

A végtelen automatizáció és a robotizáció hátrányai azonban egyre nyilvánvalóbbá válnak. Vegyük például az Amazon női felpereseit: elutasítják, mert az algoritmus megtanulta, hogy a férfiakat előnyben részesíti a nőknek. Vagy a Microsoft csevegőbot Tay a Twitteren, amelyet offline kellett felvenni, mivel néhány rendkívül rasszista „valót” levezetett a többi tweeterből. Vagy az a tény, hogy főként férfiak képei jelennek meg a Google-on a „vezérigazgató” keresőkifejezésben.

Úgy vélhetjük, hogy úgy tűnik, hogy a mesterséges intelligencia a férfiak közül a legrosszabbat veszi ki, és elmélyíti a meglévő egyenlőtlenségeket. Ez azonban némileg leegyszerűsítő lehet. Az MI-rendszerek és az alapul szolgáló algoritmusok gyakran adatokra, sok adatra támaszkodnak ahhoz, hogy megismerjék világunkat. A gépi tanulási technikák, mint például a neurális hálózatok és a döntési fák, megpróbálják levezetni a tendenciákat, a koncepciók közötti kapcsolatokat és fontos paramétereket annak érdekében, hogy segítsék őket a jövőbeli kérelmekben a megfelelő lehetőségek kiválasztásában. Ezek az adatok nem a gépi tanulás érdekében készültek. Nem, az adatok többségét mi, ember hozta létre, miközben rákattintott az interneten és megosztotta preferenciáinkat. Azáltal, hogy adatainkat tanulásra használják fel, az MI-rendszerek felbontják a társadalmunkban bizonyos mértékig már jelen lévő szisztematikus elfogultságokat. Ez pedig nem csupán technológiai, hanem társadalmi és etikai kérdéssé is teszi az intelligens technológiák alkalmazását. Ezen okok miatt egyes kutatók azzal érvelnek, hogy a mérnökök hosszú ideje rejtőzködnek a mesterséges intelligencia technológiai vonatkozásai előtt, és a számítások javítására összpontosítanak, figyelmen kívül hagyva ugyanakkor az innovációik végfelhasználókra gyakorolt lehetséges hatásait. A technológia a fejlesztő és a külvilág között helyezkedik el. Ez a cikk három kérdést ismertet: megkülönböztetés, elszámoltathatóság és fekete dobozos logika.

Winter country with 20 telecommunication masts among firs and spruces

Téli ország 20 telekommunikációs tartóoszlopgal a jegenyefenyők és
lucfenyők között Nyilvános

doménforrás: https://labs.openai.com/

Megkülönböztetés és elfogultság kezelése 

Az Amazon női kérelmezőihez hasonlóan a kisebbségi csoportokhoz tartozó személyek is kívül esnek a mesterségesintelligencia-rendszerek tényleges hatályán. Ennek oka a névből következik: ezek az emberek kisebbséget alkotnak. Az adatokban való képviseletük korlátozott lesz, és az algoritmus nem fogja megismerni az ezen egyéneket képviselő sajátos jellemzőket. Az emberekhez hasonlóan a rendszerek is rosszabb teljesítményt nyújtanak korlátozott tudással. Az eredmény: a fekete egyedeket a Google intelligens képolvasó szoftvere majmként, vagy a visszaesésre vonatkozó automatikus kockázatértékelési rendszerben veszélyesebbnek minősíti. Pusztán azért, mert a szoftvert fehér egyéneket (és esetleg gorillákat) tartalmazó képekre tanították.

Az adattudósok tisztában voltak ezzel a problémával, és már léteznek technikák a teljesítmény javítására. Például az adatkészlet oly módon történő kiigazításával, hogy a kisebbségi csoportok jobban képviselve legyenek. Vagy a gépi tanulási folyamat egy további lépéssel történő kiegészítésével a modell finomítása érdekében.

A vita még bonyolultabbá tétele: mi a teendő, ha rendszerünk nagyon jól jelzi az eredményeket. Feltételezzük, hogy két algoritmust dolgozunk ki. Az egyik megfelelően észleli a betegséget a fehér egyedeknél az idő 80%-ában, a színes egyedeknél azonban az időnek csupán 60%-át. A második pedig, amely a betegséget a háttértől függetlenül csak az idő 60%-ában észleli megfelelően. Ezt követően törekedni kell-e az egyenlőségre, és el kell-e érnünk a rosszabb algoritmust? Annak ellenére, hogy a hátrányos megkülönböztetés több fehér embert menthet meg? Az etikai megfontolások itt játszanak szerepet.

Adattudósunk csak egymillió ember hitét formáló személy lett, és hirtelen nehéz etikai megfontolásokat kell tennie. A nyilvános vita során még nem megválaszolt etikai dilemmák. Nem várhatjuk el a mérnököktől, hogy hozzák meg ezeket a döntéseket, és nem is akarjuk őket. Szabályozásra van szükség a szoftvertervezés irányítása érdekében.

Artificial Intelligence is a good servant but a bad master

A mesterséges intelligencia jó alkalmazott, de rossz mester.
Forrás: Megálló 5G csoport

Elszámoltathatóság és felelősség

Társadalmunkban az egyéneket felelősség terheli a tetteikért. Intelligens rendszerekkel nehéz azonosítani a vétkes személyt. Különösen akkor, ha a rendszerek összetettek és önálló tanulást igényelnek. A mérnökök nem mindig tudják előre látni, hogy mit tanul a rendszer, és hogyan fog viselkedni. Az Amazon valószínűleg nem kívánta veszélyeztetni a női kérelmezőket, és a Google tudatosan nem helyezte a férfiakat a keresési eredmények tetején. Ezek a következmények csak azután jelentek meg, hogy a rendszert a világba helyezték. De kiket kell hibáztatni? A vállalat ezeket a rendszereket használta, még akkor is, ha nem volt alapos oka arra, hogy előzetesen kétségbe vonja a rendszer minőségét. Vagy az a vállalat, amely létrehozta a rendszert egy olyan termék értékesítésére, amelyről kiderült, hogy hátrányos megkülönböztetést valósít meg.

Az innovációk mindig is zavart okoztak, és nem voltak kockázatmentesek. Társadalmi és igazságszolgáltatási rendszerünk átalakítását kérik. Vegyük ki az autót! A kezdeti napokban egy autó szabadon közlekedhetett a városok körül, biztonsági övek, légzsákok és közúti jelzőtáblák nélkül. Az áldozatok számának gyors növekedéséig, az utcák pedig gyalogolhatatlanná váltak. A meglévő infrastruktúra új technológiájának észszerűsítéséhez új iránymutatásokra és szabályozásokra volt szükség. Kevesen jelezték előre, hogy az autó olyan veszélyessé válik a gyalogos tömegre nézve. A használat szabályozásával növelhettük a biztonságot, ugyanakkor kihasználhattuk az új közlekedési mód előnyeit is. Manapság alig képzelhetünk el egy motoros közlekedés nélküli világot.

Az autókhoz hasonlóan a mesterségesintelligencia-rendszereknek a kezdeti veszélyes következményeik miatti betiltása is túl rövidlátó lenne. Az MI-rendszerek pozitív hatást gyakorolhatnak társadalmunkra, sőt már most is. Ezen a ponton azonban az MI-rendszereket „seatbelek” vagy más biztosítékok nélkül fejlesztik ki és helyezik el mindennapi életünkbe. Fontos kritikusan gondolkodni arról, hogy mi akarjuk, hogy a mesterséges intelligencia létezzen társadalmunkban. Meg kell nyitni a párbeszédet arról, hogy váratlan kimenetel esetén hogyan fokozhatjuk e rendszerek biztonságát, illetve hogyan csökkenthetjük a károkat.

Image showing a man waving a red flag for pedestrians to warn them of cars and a robot holding a red flag to warn about Artificial Intelligence

A figyelmeztető jelzés
jóváírása: Megálló 5G csoport

Fekete doboz

Az általános adatvédelmi rendelet indokolása kimondja, hogy az embereknek jogukban áll megtekinteni a döntések indokait, az adatgyűjtést és az adatok felhasználásának módját. Ez a viszonylag új jogszabály a helyes irányba tett lépés volt, de messze nem nyújt megfelelő megoldást a magánélet tiszteletben tartására vagy a polgári jogok tiszteletben tartására. Egy internetes honlap megtekintésekor a felhasználók gyakran nagy mennyiségű szöveggel találkoznak, amelyek homályosan ismertetik, hogy milyen személyes adatokat gyűjtenek. És a legtöbbször nehéz elutasítani a cookie-kat, vagy több felugró ablakra kell kattintania. A vállalatok követik az általános adatvédelmi rendelet puszta korlátait, és nem könnyítik meg az egyének számára, hogy saját adataikat felügyeljék. Ezért úgy véljük, hogy az általános adatvédelmi rendelet naiv kezdeményezés, amely megmutatja az online vállalatok adatainak éhezését.

De még ha a vállalatok hajlandóbbak lennének is megosztani a személyes adatok valódi gyűjtését és felhasználását, nem mindig képesek teljes mértékben. Számos intelligens rendszer működik, például fekete dobozok: az adatok tételes és a rendszer az adatok jellemzőitől függően bizonyos kimenetet ad. Az elmúlt években a mérnökök e feketedoboz-rendszereket részesítették előnyben. Az ilyen rendszerekben nagy lehetőségek rejlenek az olyan összetettebb fogalmak elsajátításában, mint a nyelv vagy a képek. A feketedoboz-rendszerek híres példái a neurális hálózatok, az arcfelismerő szoftverek vagy a természetes nyelvi adatfeldolgozó szoftverek (pl. Google Translate). A mérnökök ellenőriznek bizonyos paramétereket, de nincs rálátásuk arra, hogy ezek a rendszerek milyen típusú információkat tanulnak vagy az adatokból következtetéseket vonnak le. A mérnök csak az új adatok teljesítményének ellenőrzésével tudja megbecsülni, hogy a rendszer megtudta-e, mire gondoltak. A mérnök például új képek sorozatát is betáplálhatja annak megállapítása érdekében, hogy a rendszer képes-e ezeket értelmezni. Amint azt korábban láttuk, ha a mérnök nem tesztelte kellőképpen a rendszert, a színes emberekről készült fényképeket a majmok fényképeként lehetne értelmezni. Tudtak-e a Google mérnökei erről a hibáról? Jól, ha a szoftvert színes emberek fényképein tesztelték volna. A fényképek azonban bármit is tartalmazhatnak. És nagyon nehéz lenne a rendszert mindenre kiterjedően ellenőrizni.

Hatékonyabb lenne annak ellenőrzése, hogy milyen dolgokat tanult a szoftver. Ha a Google-algoritmus elmondhatja, hogy milyen lépéseket tesz a tolmácsolás érdekében, a mérnökök ellenőrizhetik ezt az érvelést, és megbecsülhetik a lehetséges kivételeket vagy hibaeseteket. Ezért a tudományos közösség tagjai érthetőbb megközelítéseket szorgalmaztak a gépi tanulás terén. A fekete dobozos algoritmusok még nem aknázták ki a bennük rejlő lehetőségeket, és nem feltétlenül jobbak, mint az érthetőbb algoritmusok.

Ezen érthető algoritmusok értelmezési előnye nagyobb, mint a fekete dobozos algoritmusok várható teljesítményelőnye. Csak akkor avatkozhatunk be vagy igazíthatunk ennek megfelelően, ha tudjuk, mi történik.

Analytics Information by Reto Scheiwiller

A fekete doboz megtekintése
Hitel: Megálló 5G csoport

Következtetés

A mesterséges intelligencia és az intelligens szoftverek meglehetősen jelen vannak a modern életben. A vállalatok döntéshozatali folyamatainak befolyásolása és a kisebbségi csoportokkal szembeni elfogultság. Bár nem értjük teljes mértékben, hogyan működik a mesterséges intelligencia, hogyan hat ránk, és milyen hosszú távú hatások lesznek.

Az uniós polgárokat nem kérdezték meg, hogy elfogadják-e a mesterséges intelligencia által irányított döntéshozatali eszközök mindenre kiterjedő társadalmi következményeit a technológiai fejlődés és a digitalizáció nevében.

Ezért a „Stop ((5G))) – Stay Connected but Protected” (Sty Connected but Protected) (Stop ((5G))) európai polgári kezdeményezésben az európai polgári kezdeményezés 19., 21. és 22. javaslatában szigorúbb szabályozásra szólítunk fel annak érdekében, hogy megvédjék a polgárokat a magánélet tiszteletben tartásához való jog megsértésével és a mesterségesintelligencia-rendszernek a döntéshozatalban való ellenőrizetlen használatából eredő megkülönböztetéssel szemben.

És nem vagyunk egyedül:

  • Az Európai Adatvédelmi Testület nem szereti az Európai Bizottság új jogalkotási javaslatait, amelyek megkönnyítenék a (személyes) adatok felhasználását és megosztását több köz- és magánfél között. Az Európai Adatvédelmi Testület szerint ez „jelentős hatással lesz a magánélethez és a személyes adatok védelméhez való alapvető jogok védelmére”.
  • Az Európai Tanács hangsúlyozza a mesterséges intelligenciával kapcsolatos politika emberközpontú megközelítésének fontosságát. Gondoljon olyan kérdésekre, mint a polgárok alapvető emberi jogait érintő elfogult és átláthatatlan döntéshozatal.
  • Az UNESCO előzetes tanulmánya a mesterséges intelligencia etikájáról a 10. oldalon megállapítja, hogy „A legfontosabb, hogy a jövőbeli mérnököket és a számítógép-tudósokat oktatjuk az MI-rendszerek etikailag összehangolt tervezésére.
  • Egy másik, Reclaim Your Face elnevezésű európai polgári kezdeményezés a káros MI – például a biometrikus tömeg és az arcfelismerő megfigyelés – használatának betiltását kérte.
  • Isaac Asimov már 1942-ben is előrevetítette a problémákat, és három robotikai törvényt fogalmazott meg. Az első jogszabály szerint a robot nem károsíthatja az embert. Amint azt ez a cikk is mutatja, messze vagyunk ettől.

 

 

Stop 5G - Blog Post Author

Közreműködők

Amar van Uden

Amar van Uden a „Stop (((5G))) – Stay Connected but Protected” európai polgári kezdeményezés írója. Az Amar Hollandiából származik, és mesterséges intelligenciát tanulmányoz.

Szóljon hozzá!

Észrevételek beírásához kérjük, jelentkezzen be vagy regisztráljon.
Felelősségkizáró nyilatkozat: Az európai polgári kezdeményezés fórumán megosztott vélemények kizárólag a véleménynyilvánító személy álláspontját tükrözik, és semmiképp sem tekinthetők sem az Európai Bizottság, sem az Európai Unió hivatalos álláspontjának.
Készen áll egy kezdeményezés regisztrálására?

Támogatni szeretné valamelyik kezdeményezést? Bővebb információra van szüksége jelenlegi vagy korábbi kezdeményezésekről?