Gå til hovedindholdet
Forum for det europæiske borgerinitiativ

Europæerne for sikre forbindelser opfordrer til stærkere regulering af kunstig intelligens i beslutningsprocessen

Opdateret den: 24/01/2023

Europæerne for sikre forbindelser er en koalition af nationale og internationale organisationer, der er opmærksomme på de negative konsekvenser af de moderne kommunikationsteknologier. Vi understreger, at vi ikke er imod teknologi, men går ind for sikker teknologi og sikre forbindelser.

I løbet af et år af vores kampagne har vi lært erfaringer, der kan være nyttige for fremtidige arrangører. For det første, hvis du hører denne sande stemme i hjertet, der fortæller dig om at ændre verden, så det bliver bedre for alt og alle: følg denne stemme, og giv aldrig håb!

hvis du går med strømmen, vil folk let gå sammen med dig, og du vil ikke møde modstand. Men hvis du er nødt til at gå imod det, kan du have brug for dit budskab som f.eks. tørt jord, der afskrækker vand, og som har brug for blød og vedvarende regn. Selv om EU kræver en million underskrifter, er det kvaliteten af dine idéer, der tæller.

I vores europæiske borgerinitiativ "Stop ((((5G))) — Stay Connected but Protected" har vi 23 forslag. Blandt dem opfordrer vi til bedre regulering af databeskyttelse og automatisk beslutningstagning ved hjælp af kunstig intelligens. Vi foreslår at iværksætte en konsekvensanalyse af 5G's indvirkning på beskyttelsen af personoplysninger (forslag 19), vi ønsker en aktiv bekæmpelse af forskelsbehandling og krænkelser af digitale rettigheder (forslag 21), og vi mener, at borgerne bør informeres om, hvorvidt deres oplysninger behandles ved hjælp af en automatiseret procedure (forslag 22).

Stop 5G - Logo

Sådan begyndte det hele

Kunstig intelligens (AI) har været omkring i nogen tid. Allerede i begyndelsen af 50 var der store forventninger til de endeløse muligheder, som intelligent teknologi ville give vores samfund. Nu, mere end et halvt århundrede senere, er det lykkedes AI-inputtet teknologi langsomt at knuste i vores dagligdag. Selv om menneskerobotter endnu ikke går i verden, er vi afhængige af mange komplekse teknologier i vores infrastrukturforvaltning, arbejdsprocesser og sparer tid.

De nuværende "intelligente" teknologier kan afvige fra, hvad tidligere videnskabsfolk kalder menneske-lignende intelligente maskiner. Der henviser til, at Alan Turing definerede intelligens som tænkning og handling som mennesker, og at intelligente systemer i dag vakulerer vores hus med begrænset tænkning. Det er vanskeligt at definere, hvad kunstig intelligens præcist er, og hvad den indebærer. Ikke desto mindre har det gjort det muligt for os at leve et mere effektivt, mere gnidningsløst og måske endnu mere behageligt liv.

Men ulemperne ved endeløs automatisering og robotisering bliver også mere og mere tydelige. Tag f.eks. de kvindelige ansøgere fra Amazon: afvist, fordi algoritmen havde lært at favorisere mænd til kvinder. Eller Microsofts chatbot Tay på Twitter, som måtte tages offline, fordi den havde udledt nogle ekstremt racistiske "sandheder" fra andre tweeters side. Eller det forhold, at hovedsagelig billeder af hanner forekommer i søgeordet "administrerende direktør" på Google.

Vi tror måske, at kunstig intelligens synes at fjerne det værste af mænd og forværre de eksisterende uligheder. Dette kan dog være noget forenklet at konkludere. AI-systemerne og de underliggende algoritmer er ofte afhængige af data, masser af data for at lære om vores verden. Maskinlæringsteknikker såsom neurale netværk og beslutningstræer forsøger at udlede tendenser, forbindelser mellem koncepter og vigtige parametre for at hjælpe dem med at vælge de rette muligheder i fremtidige anmodninger. Disse data er ikke noget, der blev fremstillet af hensyn til maskinindlæring. Nej, de fleste data blev genereret af os, mennesker, mens de klikkede rundt på internettet og delte vores præferencer. Ved at bruge vores data til at lære fjerner AI-systemer således systematiske skævheder, der allerede til en vis grad var til stede i vores samfund. Og dette gør gennemførelsen af intelligente teknologier ikke blot til et teknologisk, men også et samfundsmæssigt og etisk anliggende. Af disse grunde hævder nogle forskere, at ingeniører længe har skjult sig bag de teknologiske aspekter af kunstig intelligens, idet de fokuserer på at forbedre beregningerne, samtidig med at de ser bort fra de virkninger, som deres innovationer kan have på slutbrugerne. Teknologien placerer sig mellem en udvikler og den ydre verden. I denne artikel beskrives tre spørgsmål: forskelsbehandling, ansvarlighed og logik i den sorte boks.

Winter country with 20 telecommunication masts among firs and spruces

Vinterland med 20 telekommunikationsmaster blandt virksomheder og spruces
Credit: Offentligt domæne
Kilde: https://labs.openai.com/

Forskelsbehandling og håndtering af fordomme 

Ligesom de kvindelige ansøgere fra Amazon falder personer i minoritetsgrupper uden for AI-systemers faktiske anvendelsesområde. Årsagen fremgår tydeligt af navnet: der er tale om mennesker, der udgør et mindretal. Deres repræsentation i dataene vil være begrænset, og algoritmen vil ikke lære de specifikke karakteristika, der repræsenterer disse personer. Ligesom mennesker klarer systemerne sig dårligere med begrænset viden. Resultatet: sorte personer mærkes som abes af Googles intelligente billedlæsningssoftware eller som farligere i et automatisk risikovurderingssystem for recidiv. Blot fordi softwaren blev uddannet på billeder, der indeholdt hvide personer (og måske gorillas).

Dataforskere har været opmærksomme på dette problem, og der findes allerede teknikker til at forbedre resultaterne. F.eks. ved at justere datasættet, således at minoritetsgrupper er bedre repræsenteret. Eller ved at tilføje et ekstra trin i maskinlæringsprocessen for at finere modellen.

Og at gøre debatten endnu mere kompliceret: hvad hvis vores system forudser resultaterne meget godt. Antager, at vi udvikler to algoritmer. En sygdom, der korrekt opdager en sygdom 80 % af tiden hos hvide individer, men kun 60 % af tiden i farvede individer. Og en anden, der korrekt opdager en sygdom, kun 60 % af tiden uanset baggrunden. Bør vi så stræbe efter ligestilling og bruge den dårligere algoritme? Selv om den, der forskelsbehandler, potentielt kan redde flere hvide personer? Det er her, etiske overvejelser kommer i spil.

Vores datavidenskabsmand er netop blevet en person, der er med til at forme troen hos en million andre, og må pludselig gøre etiske overvejelser vanskelige. Etiske dilemmaer, som endnu ikke er blevet besvaret i den offentlige debat. Vi kan ikke forvente, at ingeniører træffer disse beslutninger, og vi bør heller ikke ønske dem. Det er nødvendigt med regler for udformningen af softwaren.

Artificial Intelligence is a good servant but a bad master

Kunstig intelligens er en god medarbejder, men en dårlig master.
Ophavsret:

Stop 5G-teamet

Ansvarlighed og ansvarI vores samfund holdes enkeltpersoner ansvarlige for deres handlinger. Med intelligente systemer er det vanskeligt at identificere gerningsmanden. Især hvis systemerne er komplekse og selvlærende. Ingeniører kan ikke altid forudsige, hvad systemet vil lære, eller hvordan det vil opføre sig. Amazon havde sandsynligvis ikke til hensigt at bringe kvindelige ansøgere i fare, og Google satte heller ikke bevidst mænd øverst på søgeresultaterne. Først efter at systemet blev bragt ind i verden, opstod disse konsekvenser. Men hvem er vi skyld i? Virksomheden for at anvende disse systemer, selv om de ikke på forhånd havde nogen rimelig grund til at betvivle systemets kvalitet.

Eller den virksomhed, der opbyggede systemet til salg af et produkt, der viste sig at være diskriminerende.Nyskabelser har altid været forstyrrende og ikke uden risiko. De anmoder om tilpasninger i vores samfund og retssystem. Tag bilen. I de første dage fik en bil lov til frit at køre rundt i byerne uden sikkerhedsseler, airbags og færdselstavler. Indtil antallet af tilskadekomne var hastigt stigende, og gaderne blev umulige at gå. Nye retningslinjer og bestemmelser var nødvendige for at strømline den nye teknologi i den eksisterende infrastruktur. Kun få forventede, at bilen ville blive så farlig for gangmennesket. Ved at regulere anvendelsen var vi i stand til at øge sikkerheden og samtidig høste fordelene ved denne nye transportform.

I dag kan vi næppe forestille os en verden uden motordrevet transport.Ligesom det er tilfældet med biler, vil et forbud mod AI-systemer på grund af deres oprindelige farlige konsekvenser være for kortsigtet. AI-systemer kan have en positiv indvirkning på vores samfund og er allerede ved at gøre det. Men på nuværende tidspunkt udvikles og dumpes AI-systemer i vores dagligdag uden nogen "sikkerhedsseler" eller andre beskyttelsesforanstaltninger. Det er vigtigt at overveje kritisk, hvordan vi ønsker, at kunstig intelligens skal eksistere i vores samfund.

Image showing a man waving a red flag for pedestrians to warn them of cars and a robot holding a red flag to warn about Artificial Intelligence

 
Det røde flag Credit:

Stop 5G-teamet

Sort boksI begrundelsen for den generelle forordning om databeskyttelse hedder det, at folk har ret til at se grundlaget for beslutningerne, hvilke data der indsamles, og hvordan disse data vil blive anvendt. Denne relativt nye lov har været et skridt i den rigtige retning, men er langt fra en passende løsning med hensyn til at sikre privatlivets fred eller overholdelse af borgerlige rettigheder. Når brugerne besøger et websted på internettet, konfronteres de ofte med store tekstmængder, der forklarer, hvilke personoplysninger der indsamles. Og det meste af tiden er det svært at afvise cookies, eller du skal klikke på flere pop op-vinduer. Virksomhederne følger de klare begrænsninger i GDPR og gør det ikke let for enkeltpersoner at føre tilsyn med deres egne data.

Vi mener derfor, at GDPR er et naiv initiativ, der viser hungerssulten for onlinevirksomheders data.Men selv om virksomhederne ville være mere villige til at dele den egentlige indsamling og anvendelse af personoplysninger, er de ikke altid fuldt ud i stand til. Mange intelligente systemer fungerer som sorte bokse: indtast mange data, og systemet vil give et vist output afhængigt af dataenes karakteristika. I de seneste år har ingeniører foretrukket disse sorte boks-systemer. Sådanne systemer havde et stort potentiale for at lære mere komplekse koncepter såsom sprog eller billeder. Berømte eksempler på sorte boksesystemer er neurale netværk, ansigtsgenkendelsessoftware eller software til behandling af naturligt sprog (f.eks. Google Translate). Ingeniører har kontrol over visse parametre, men har ingen indsigt i, hvilken type information disse systemer lærer eller udleder af dataene. Kun ved at kontrollere ydeevnen for nye data kan en ingeniør foretage et skøn, hvis systemet har lært, hvad det var meningen med. En ingeniør kan f.eks. indtaste et sæt nye billeder for at se, om systemet er i stand til at fortolke dem. Men som vi tidligere har set, kan fotografier af farvede personer, hvis ingeniøren ikke har testet systemet tilstrækkeligt grundigt, fortolkes som billeder af aber. Kunne ingeniørerne hos Google have haft kendskab til denne fejl? Hvis de havde testet softwaren på et sæt fotografier af farvede personer, kunne de have. Men fotos kan indeholde noget om noget.

Og det ville være meget vanskeligt at kontrollere systemet på alle områder.Det ville være mere effektivt at kontrollere, hvilke ting softwaren har lært. Hvis Google-algoritmen kan fortælle os, hvilke skridt den foretager for at få en fortolkning, kan ingeniørerne kontrollere dette ræsonnement og anslå sandsynlige tilfælde af undtagelser eller fejl. Derfor har medlemmer af forskersamfundet opfordret til mere forståelige tilgange til maskinlæring.

"Black box" -algoritmer har endnu ikke levet op til deres potentiale og er ikke nødvendigvis bedre end mere forståelige algoritmer.Fortolkningsfordelen ved disse forståelige algoritmer er større end den forventede resultatfordel ved black box-algoritmer.

Analytics Information by Reto Scheiwiller

 
Se den sorte boks Credit:

Stop 5G-teamet

KonklusionKunstig intelligens og intelligent software er temmelig allestedsnærværende i det moderne liv. Påvirke beslutningsprocesserne i virksomheder og udvise forudindtagethed over for minoritetsgrupper.

Så længe vi ikke fuldt ud forstår, hvordan kunstig intelligens fungerer, hvordan den påvirker os, og hvad de langsigtede virkninger vil være.

EU-borgerne er ikke blevet spurgt, om de accepterer de gennemgribende samfundsmæssige konsekvenser af de værktøjer til beslutningstagning, der styres af kunstig intelligens, i lyset af de teknologiske fremskridt og digitaliseringen.

Derfor opfordrer vi i det europæiske borgerinitiativ "Stop (((((5G))) — Stay Connected but Protected" til en stærkere regulering for at beskytte borgerne mod krænkelser af privatlivets fred og forskelsbehandling som følge af ukontrolleret brug af AI-systemer i beslutningstagningen i forslag 19, forslag 21 og forslag 22 til det europæiske borgerinitiativ.

  • Og vi er ikke alene:Det Europæiske Databeskyttelsesråd ønsker ikke nye lovgivningsforslag fra Europa-Kommissionen, som vil gøre det lettere at anvende og dele (personoplysninger) data mellem flere offentlige og private parter.
  • Ifølge Det Europæiske Databeskyttelsesråd vil dette "ivæsentlig grad påvirke beskyttelsen af de grundlæggende rettigheder til privatlivets fred og beskyttelsen af personoplysninger".Det Europæiske Råd understreger betydningen af en menneskecentreret tilgang til AI-politikken.
  • Tænk på spørgsmål som partisk og uigennemsigtig beslutningstagning, der påvirker borgernes grundlæggende menneskerettigheder.
  • UNESCO's foreløbige studie om etik ved kunstig intelligens på side 10 fastslår,at "det er vigtigt at... uddanne fremtidige ingeniører og computerforskere i etisk tilpasset udformning af AI-systemer."
  • Et andet europæisk borgerinitiativ, Reclaim Your Face, krævede et forbud mod anvendelse af skadelig kunstig intelligens såsom biometrisk masse og overvågning af ansigtsgenkendelse.Allerede i 1942 forudså Isaac Asimov problemerne og anførte tre love om robotteknologi. Den første lov er, at en robot ikke må skade et menneske.

Som detfremgår af denne artikel, er vi langt fra dette.

 

Stop 5G - Blog Post Author

Blogartikelforfattere

 

Amar van UdenAmar van Uden er forfatter til det europæiske borgerinitiativ "Stop ((((5G))) — Stay Connected but Protected".

Skriv en kommentar

For at tilføje kommentarer, skal du logge ind eller registrere dig.
Ansvarsfraskrivelse: De holdninger, der gives udtryk for i forummet for det europæiske borgerinitiativ, er alene udtryk for forfatternes synspunkter og kan ikke på nogen måde anses for at afspejle Europa-Kommissionens eller EU's holdning.
Er du klar til at registrere dit borgerinitiativ?

Vil du skrive under på et borgerinitiativ? Vil du gerne vide mere om nuværende eller tidligere borgerinitiativer?