Gå direkt till innehållet
Europeiska medborgarinitiativet – Forum

Européer för säkra anslutningar efterlyser kraftfullare reglering av artificiell intelligens i beslutsfattandet

Uppdaterades den: 24/01/2023

Européerna för säkra förbindelser är en koalition av nationella och internationella organisationer som är medvetna om de negativa konsekvenserna av den moderna kommunikationstekniken. Vi betonar att vi inte är emot teknik, utan för att främja säker teknik och säkra anslutningar.

Under ett år av vår kampanj har vi lärt oss lärdomar som kan vara användbara för framtida organisatörer. För det första, om du hör den sanna rösten i hjärtat och berätta för dig att förändra världen till det bättre för allt och för alla: följ vår röst, kämpa och aldrig ge upp hopp!

om du åker med flödet kommer människor lätt att åka med dig och du kommer inte att utsättas för motstånd. Men om du måste gå emot det kan det vara nödvändigt med ditt budskap som trefaldig marksanering av vatten som kräver mjukt och ihållande regn. Även om EU behöver en miljon underskrifter är det kvaliteten på dina idéer som räknas.

I vårt europeiska medborgarinitiativ ”Stoppa ((5G)) – var uppkopplad men skyddad” har vi 23 förslag. Bland dem efterlyser vi bättre lagstiftning om dataskydd och automatiskt beslutsfattande genom artificiell intelligens. Vi föreslår att man inleder en konsekvensbedömning av 5G:s effekter på skyddet av personuppgifter (förslag 19), vi vill se en aktiv kamp mot diskriminering och kränkningar av digitala rättigheter (förslag 21) och vi anser att medborgarna bör informeras om huruvida deras uppgifter behandlas genom ett automatiserat förfarande (förslag 22).

Stop 5G - Logo

Så började allt

Artificiell intelligens (AI) har funnits sedan ganska länge. Redan i början av 50 var förväntningarna höga när det gäller de oändliga möjligheter som intelligent teknik skulle medföra för vårt samhälle. Nu, mer än ett halvt sekel senare, har den inbyggda AI-tekniken långsamt slagit in i vår vardag. Även om mänskliga robotar ännu inte går i vår värld förlitar vi oss på flera komplexa tekniker i vår infrastrukturförvaltning, våra arbetsprocesser och vår fritid.

Den nuvarande ”smarta” tekniken kan skilja sig från vad tidigare forskare skulle kalla människoliknande intelligenta maskiner. Alan Turing definierade intelligens som att tänka och agera som människor, men i dag vaknar smarta system vårt hus med begränsat tänkande. Det är svårt att definiera vad AI exakt är och vad den innebär. Det har dock gjort det möjligt för oss att leva ett effektivare, smidigare och kanske ännu mer roligt liv.

Men nackdelarna med ändlös automatisering och robotisering blir också allt tydligare. Ta till exempel Amazons kvinnliga sökande: förkastades eftersom algoritmen hade lärt sig att gynna män för kvinnor. Eller Microsofts chatbot Tay på Twitter som var tvungen att tas offline, eftersom den hade härlett några extremt rasistiska ”sanningar” från andra tweetrar. Eller det faktum att i huvudsak bilder av män visas under sökordet ”VD” på Google.

Vi kan tro att AI verkar ta ut det värsta av männen och fördjupa befintliga ojämlikheter. Detta kan dock vara något förenklat att dra slutsatsen. AI-systemen och de underliggande algoritmerna är ofta beroende av data, stora mängder data, för att lära sig om vår värld. Maskininlärningstekniker, såsom neurala nätverk och beslutsträd, försöker härleda trender, kopplingar mellan begrepp och viktiga parametrar för att hjälpa dem att välja rätt alternativ i framtida förfrågningar. Dessa uppgifter har inte kompenserats för maskininlärningens skull. Nej, de flesta data genererades av oss, människor, medan vi klickade runt på internet och delade våra preferenser. Genom att använda våra data för att lära sig avslöjar AI-systemen systematiska snedvridningar som i viss utsträckning redan fanns i vårt samhälle. Detta gör genomförandet av smart teknik inte bara till en teknisk, utan också till en samhällelig och etisk fråga. Av dessa skäl hävdar vissa forskare att ingenjörer länge har gömt sig bakom de tekniska aspekterna av AI, med fokus på att förbättra beräkningarna samtidigt som man bortser från de effekter som deras innovationer kan ha på slutanvändarna. Tekniken placerar sig mellan en utvecklare och den yttre världen. I denna artikel beskrivs tre frågor: diskriminering, ansvarsskyldighet och svartboxlogik.

Winter country with 20 telecommunication masts among firs and spruces

Vinterland med 20 telekommunikationsmaster bland granar och granar
Credit: Offentlig domän
Källa: https://labs.openai.com/

Diskriminering och partiskhet 

Precis som Amazons kvinnliga sökande faller personer i minoritetsgrupper utanför det faktiska tillämpningsområdet för AI-system. Skälet till detta framgår av namnet: dessa personer utgör en minoritet. Deras representation i data kommer att vara begränsad och algoritmen kommer inte att lära sig de särskilda egenskaper som representerar dessa personer. Liksom människor presterar systemen sämre med begränsade kunskaper. Resultat: svarta personer märks som apor av Googles program för intelligent bildläsning eller som farligare i ett automatiskt riskbedömningssystem för återfall. Helt enkelt för att programvaran var utbildad på bilder som innehöll vita individer (och kanske gorillas).

Dataforskare har varit medvetna om detta problem och det finns redan teknik för att förbättra resultaten. Till exempel genom att justera datauppsättningen så att minoritetsgrupper blir bättre representerade. Eller genom att lägga till ett extra steg i maskininlärningsprocessen för att finjustera modellen.

Och att göra diskussionen ännu mer komplicerad: vad om vårt system förutser mycket bra resultat? Anta att vi utvecklar två algoritmer. En som korrekt upptäcker en sjukdom 80 % av tiden hos vita individer, men endast 60 % av tiden hos individer med färg. Och en andra som korrekt upptäcker en sjukdom endast 60 % av tiden oavsett bakgrund. Bör vi sedan sträva efter jämlikhet och ta den värre algoritmen? Även om den diskriminerande åtgärden skulle kunna rädda fler vita individer? Det är här etiska överväganden som aktualiseras.

Vår datavetare blev just en person som formar en miljon andras tro och måste plötsligt göra svåra etiska överväganden. Etiska dilemman som ännu inte har besvarats i den offentliga debatten. Vi kan inte förvänta oss att ingenjörerna fattar dessa beslut, och vi bör inte heller vilja dem. Föreskrifter behövs för att vägleda utformningen av programvaran.

Artificial Intelligence is a good servant but a bad master

Artificiell intelligens är en bra anställd men en dålig master.
Källa: Stopp-5G-teamet

Ansvarighet och ansvar

I vårt samhälle hålls enskilda personer ansvariga för sina handlingar. Med intelligenta system är det svårt att identifiera orsaken. Särskilt om systemen är komplexa och självlärande. Ingenjörerna kan inte alltid förutsäga vad systemet kommer att lära sig eller hur det kommer att bete sig. Amazon hade förmodligen inte för avsikt att äventyra kvinnliga sökande, och Google satte inte heller handjur högst upp på sökresultaten. Först efter det att systemet kommit in i världen uppstod dessa konsekvenser. Men vem är vi skyldiga? Företaget för att använda dessa system, även om de inte hade några rimliga skäl att betvivla systemets kvalitet i förväg. Eller det företag som byggde upp systemet för försäljning av en produkt som visade sig vara diskriminerande.

Innovationerna har alltid varit störande och inte riskfria. De efterlyser anpassningar av vårt samhälle och rättssystem. Ta bilen. Under de första dagarna fick en bil fritt resa runt städerna utan bilbälten, krockkuddar och vägskyltar. Fram till dess att antalet dödsoffer ökade snabbt och gator blev otänkbara. Nya riktlinjer och bestämmelser var nödvändiga för att rationalisera den nya tekniken i den befintliga infrastrukturen. Få förutspådde att bilen skulle bli så farlig för fotgängare. Genom att reglera användningen kunde vi öka säkerheten och samtidigt dra nytta av fördelarna med denna nya typ av transport. I dag kan vi knappast föreställa oss en värld utan motordrivna transporter.

Precis som för bilar skulle ett förbud mot AI-system för deras inledande farliga konsekvenser vara alltför kortsiktigt. AI-system kan få, och till och med redan gör, en positiv inverkan på vårt samhälle. I detta skede utvecklas och dumpas AI-system i våra dagliga liv utan ”säkerhetsbälten” eller andra skyddsåtgärder. Det är viktigt att kritiskt tänka på hur vi vill att AI ska finnas i vårt samhälle. Att inleda ett samtal om hur vi kan öka säkerheten i dessa system eller minska skadorna i händelse av oväntade resultat.

Image showing a man waving a red flag for pedestrians to warn them of cars and a robot holding a red flag to warn about Artificial Intelligence

Den röda flaggan
Credit: Stopp-5G-teamet

Svart låda

I motiveringen till den allmänna dataskyddsförordningen anges att människor har rätt att se grunderna för besluten, vilka uppgifter som samlas in och hur dessa uppgifter kommer att användas. Denna relativt nya lag har varit ett steg i rätt riktning, men den är långt ifrån en lämplig lösning för att skapa integritet eller respektera medborgerliga rättigheter. När användarna besöker en webbplats på internet ställs de ofta inför stora mängder text som på ett vagt sätt förklarar vilka personuppgifter som samlas in. Och för det mesta är det svårt att avvisa kakor, eller så måste du klicka på flera popup-fönster. Företagen följer de rena begränsningarna i den allmänna dataskyddsförordningen och gör det inte lätt för enskilda att övervaka sina egna uppgifter. Vi anser därför att den allmänna dataskyddsförordningen är ett naivt initiativ som visar på svälten för data från onlineföretag.

Men även om företagen skulle vara mer villiga att dela med sig av den verkliga insamlingen och användningen av personuppgifter är de inte alltid fullt kapabla. Många intelligenta system fungerar som svarta lådor: en mängd data och systemet kommer att ge ett visst resultat beroende på uppgifternas egenskaper. Under de senaste åren har ingenjörerna förespråkat dessa svarta lådesystem. Sådana system hade stor potential att lära sig mer komplexa begrepp som språk eller bilder. Kända exempel på svartboxsystem är neurala nätverk, programvara för ansiktsigenkänning eller programvara för bearbetning av naturligt språk (t.ex. Google Translate). Ingenjörer har kontroll över vissa parametrar men har ingen insikt i vilken typ av information dessa system lär sig eller dra slutsatser av data. Endast genom att kontrollera prestanda på nya data kan en ingenjör uppskatta om systemet har lärt sig vad det var tänkt att göra. En ingenjör skulle till exempel kunna mata in en uppsättning nya bilder för att se om systemet kan tolka dessa. Men som vi tidigare har sett kan fotografier av personer i färg tolkas som bilder av apor om ingenjören inte har testat systemet tillräckligt grundligt. Kunde ingenjörerna på Google ha känt till detta fel? Om de hade testat programvaran på en uppsättning färgade bilder. Men foton kan innehålla något. Och det skulle vara mycket svårt att kontrollera systemet på allt.

Det skulle vara effektivare att kontrollera vilken typ av saker som programvaran har lärt sig. Om Google-algoritmen skulle kunna berätta för oss vilken typ av steg den åtar sig att få en tolkning, skulle ingenjörerna kunna kontrollera detta resonemang och uppskatta sannolika undantag eller felfall. Därför har forskare efterlyst mer begripliga strategier för maskininlärning. Algoritmer för svarta lådor har ännu inte levt upp till sin potential och är inte nödvändigtvis bättre än mer lättbegripliga algoritmer.

Fördelen med dessa lättförståeliga algoritmer är större än den förväntade prestationsfördelen med svarta lådealgoritmer. Endast om vi vet vad som händer kan vi blanda oss i eller justera i enlighet med detta.

Analytics Information by Reto Scheiwiller

Titta på den svarta lådan
Credit: Stopp-5G-teamet

Slutsats

AI och intelligent programvara är ganska närvarande i det moderna livet. Påverka beslutsprocesser i företag och visa partiskhet gentemot minoritetsgrupper. Vi förstår inte fullt ut hur artificiell intelligens fungerar, hur den påverkar oss och vilka långsiktiga effekter den kommer att få.

EU-medborgarna har inte tillfrågats om de accepterar de genomgripande samhällskonsekvenserna av de verktyg för beslutsfattande som vägleds av artificiell intelligens i den tekniska utvecklingen och digitaliseringen.

I det europeiska medborgarinitiativet ”Stop ((((5G))) – var uppkopplad men skyddad” efterlyser vi därför kraftfullare reglering för att skydda medborgarna från kränkningar av den personliga integriteten och diskriminering till följd av okontrollerad AI-användning i beslutsfattandet i förslagen 19, 21 och 22 i det europeiska medborgarinitiativet.

Och vi är inte ensamma:

  • Europeiska dataskyddsstyrelsen gillar inte nya lagstiftningsförslag från Europeiska kommissionen som kommer att underlätta användningen och utbytet av (personuppgifter) uppgifter mellan fler offentliga och privata parter. Enligt Europeiska dataskyddsstyrelsen kommer detta att ”avsevärt påverka skyddet av de grundläggande rättigheterna till integritet och skydd av personuppgifter”.
  • Europeiska rådet betonar vikten av en människocentrerad strategi för AI-politiken. Tänk på frågor som partiskt och ogenomskinligt beslutsfattande som påverkar medborgarnas grundläggande mänskliga rättigheter.
  • I Unescos preliminära studie om etik inom artificiell intelligens på sidan 10 anges att detär viktigast att utbilda framtida ingenjörer och datorforskare i etiskt anpassad utformning av AI-system.
  • Ett annat europeiskt medborgarinitiativ, Reclaim Your Face, krävde ett förbud mot användning av skadlig AI, såsom biometrisk massa och övervakning av ansiktsigenkänning.
  • Redan 1942 förutsåg Isaac Asimov problemen och angav tre lagar om robotteknik. Den första lagen är att en robot inte ska skada en människa. Somframgår av denna artikel är vi långt ifrån detta.

 

 

Stop 5G - Blog Post Author

Postare

Amar van Uden

Amar van Uden är författare till det europeiska medborgarinitiativet ”Stop (((5G))) – var uppkopplad men skyddad”. Amar kommer från Nederländerna och studerar artificiell intelligens.

Kommentera

För att kunna kommentera måste du logga in eller registrera dig.
Ansvarsfriskrivning: De åsikter som uttrycks i forumet för medborgarinitiativet utgör bara författarens synpunkter och kan inte på något sätt anses spegla Europeiska kommissionens eller EU:s ståndpunkt.
Redo att registrera ditt initiativ?

Vill du stödja ett initiativ? Vill du veta mer om pågående eller tidigare initiativ?