Direct naar de inhoud
Forum voor het Europees burgerinitiatief

Europeanen voor veilige connectiviteit pleiten voor sterkere regulering van artificiële intelligentie in besluitvorming

Bijgewerkt op: 24 January 2023

Europeanen voor veilige connectiviteit is een coalitie van nationale en internationale organisaties die zich bewust zijn van de negatieve gevolgen van de moderne communicatietechnologieën. Wij benadrukken dat we niet tegen technologie zijn, maar voor veilige technologie en veilige verbindingen.

Tijdens een jaar van onze campagne hebben we lessen getrokken die nuttig kunnen zijn voor toekomstige organisatoren. Ten eerste, als je die echte stem hoort in uw hart en u vertelt om de wereld voor iedereen en voor iedereen te veranderen: volg die stem, strijd en geef nooit de hoop op!

als je met de stroom gaat, gaan mensen gemakkelijk met u mee en heeft u niet te maken met weerstand. Maar als je hiertegen moet ingaan, kan uw boodschap nodig zijn, zoals het feit dat water dat dertigst is, zacht en hardnekkig regenval nodig heeft. Hoewel de EU een miljoen handtekeningen nodig heeft, is het de kwaliteit van uw ideeën.

In ons Europees burgerinitiatief (EBI) „Stop ((((5G))) — Stay Connected but Protected” hebben we 23 voorstellen. We pleiten onder meer voor betere regelgeving op het gebied van gegevensbescherming en automatische besluitvorming door artificiële intelligentie. Wij stellen voor een effectbeoordeling uit te voeren van de effecten van 5G op de bescherming van persoonsgegevens (voorstel 19), wij willen een actieve bestrijding van discriminatie en schendingen van digitale rechten (voorstel 21) en we zijn van mening dat burgers moeten worden geïnformeerd over de vraag of hun gegevens via een geautomatiseerde procedure worden verwerkt (voorstel 22).

Stop 5G - Logo

Hoe het allemaal begon

Kunstmatige intelligentie (AI) bevindt zich al geruime tijd rond. Al begin 50 waren de verwachtingen ten aanzien van de eindeloze mogelijkheden die intelligente technologie onze samenleving zou bieden, hoog. Nu, meer dan een halve eeuw later, is de door AI geïnduceerde technologie erin geslaagd langzaam in ons dagelijks leven terecht te komen. Hoewel humanoïde robots onze wereld nog niet lopen, zijn we wel afhankelijk van meerdere complexe technologieën voor het beheer van infrastructuur, onze werkprocessen en onze vrije tijd.

De huidige „slimme” technologieën kunnen verschillen van wat eerdere wetenschappers mensachtige intelligente machines zouden noemen. Terwijl Alan Turing intelligentie heeft gedefinieerd als denken en handelen als mensen, is er tegenwoordig sprake van een gebrek aan slimme systemen in ons huis met beperkte aandacht. Het is moeilijk om te bepalen wat KI precies is en wat het inhoudt. Het heeft ons echter in staat gesteld efficiënter, soepeler en misschien zelfs nog aangenamer te leven.

Maar de nadelen van eindeloze automatisering en robotisering worden steeds duidelijker. Neem bijvoorbeeld de vrouwelijke aanvragers van Amazon: verworpen omdat het algoritme geleerd had om mannen te bevoordelen ten opzichte van vrouwen. Of de chatbot Tay van Microsoft op Twitter, die offline moest worden genomen omdat zij een aantal extreem racistische „waarheden” had afgeleid uit andere tweeters. Of het feit dat de zoekterm „CEO” op Google voornamelijk afbeeldingen van mannen bevat.

We kunnen denken dat AI het ergste van mannen lijkt weg te nemen en bestaande ongelijkheden te vergroten. Toch kan dit enigszins simplistisch zijn. De AI-systemen en de onderliggende algoritmen zijn vaak afhankelijk van data, veel data, om meer te weten te komen over onze wereld. Technieken voor machinaal leren, zoals neurale netwerken en beslissingsbomen, proberen trends, verbanden tussen concepten en belangrijke parameters af te leiden om hen te helpen bij toekomstige verzoeken de juiste opties te kiezen. Deze gegevens zijn niet verwerkt met het oog op machinaal leren. Nee, de meeste gegevens zijn gegenereerd door ons, mensen, terwijl ze op internet klikken en onze voorkeuren delen. Door onze gegevens te gebruiken om te leren, onthullen AI-systemen aldus systematische vooroordelen die al tot op zekere hoogte aanwezig waren in onze samenleving. En dit maakt de toepassing van slimme technologieën niet alleen een technologische, maar ook een maatschappelijke en ethische kwestie. Om deze redenen voeren sommige onderzoekers aan dat ingenieurs zich al geruime tijd achter de technologische aspecten van AI verschuilen, waarbij zij zich richten op het verbeteren van de berekeningen en het negeren van de effecten die hun innovaties op de eindgebruikers kunnen hebben. Technologie legt zich tussen een ontwikkelaar en de buitenwereld. In dit artikel worden drie kwesties beschreven: discriminatie, verantwoordingsplicht en „black box” -logica.

Winter country with 20 telecommunication masts among firs and spruces

Winterland met 20 telecommasten onder firs en spruces
Credit: Bron van het
publieke domein: https://labs.openai.com/

Discriminatie en aanpak van vooroordelen 

Net als de vrouwelijke aanvragers van Amazon vallen personen van minderheidsgroepen buiten de eigenlijke werkingssfeer van AI-systemen. De reden blijkt uit de naam: dit zijn mensen die een minderheid vormen. Hun vertegenwoordiging in de gegevens zal beperkt zijn en het algoritme zal de specifieke kenmerken van deze personen niet leren kennen. Net als mensen presteren systemen slechter met beperkte kennis. Het resultaat: zwarte personen worden aangeduid als apes door de intelligente beeldleessoftware van Google of als gevaarlijker in een automatisch risicobeoordelingssysteem voor recidive. Eenvoudigweg omdat de software werd getraind op foto’s met witte personen (en misschien gorilla’s).

Datawetenschappers zijn zich bewust van dit probleem en er zijn reeds technieken om de prestaties te verbeteren. Bijvoorbeeld door de gegevensverzameling zodanig aan te passen dat minderheidsgroepen beter vertegenwoordigd zijn. Of door een extra stap in het proces van machinaal leren toe te voegen om het model te verfijnen.

En om de discussie nog ingewikkelder te maken: wat als ons systeem de resultaten zeer goed voorspelt. Ga ervan uit dat we twee algoritmen ontwikkelen. Een ziekte die 80 % van de tijd bij witte personen correct detecteert, maar slechts 60 % van de tijd bij personen van kleur. En een tweede die slechts 60 % van de tijd correct een ziekte detecteert, ongeacht de achtergrond. Moeten we dan streven naar gelijkheid en het erger algoritme gebruiken? Hoewel discriminatie mogelijk meer witte personen zou kunnen redden? Hier spelen ethische overwegingen een rol.

Onze gegevenswetenschapper werd pas een persoon die het geloof van een miljoen anderen vormgaf en moet plotseling moeilijke ethische overwegingen maken. Ethische dilemma’s die nog niet zijn beantwoord in het publieke debat. We kunnen niet van ingenieurs verwachten dat zij deze beslissingen nemen, en we mogen ze ook niet willen. Er zijn voorschriften nodig om het softwareontwerp te sturen.

Artificial Intelligence is a good servant but a bad master

Kunstmatige intelligentie is een goed personeelslid, maar een slechte master.
Bronvermelding: Stop het 5G-team

Verantwoordingsplicht en verantwoordelijkheid

In onze samenleving worden individuen verantwoordelijk gehouden voor hun daden. Met intelligente systemen is het moeilijk om de schuldigen te identificeren. Vooral als de systemen complex zijn en zichzelf leren. Ingenieurs kunnen niet altijd voorspellen wat het systeem zal leren of hoe het zich zal gedragen. Amazon was waarschijnlijk niet van plan vrouwelijke aanvragers in gevaar te brengen, noch heeft Google mannen bewust bovenaan de zoekresultaten geplaatst. Pas na de invoering van het systeem in de wereld hebben deze gevolgen zich voorgedaan. Maar aan wie moeten we de schuld geven? De onderneming voor het gebruik van deze systemen, hoewel zij vooraf geen gegronde redenen hadden om te twijfelen aan de kwaliteit van het systeem. Of het bedrijf dat het systeem heeft gebouwd voor de verkoop van een product dat discriminerend bleek te zijn.

Innovaties hebben altijd ontwricht en niet zonder risico. Zij vragen om aanpassingen in onze samenleving en ons rechtsstelsel. Neem de auto mee. In de begindagen mocht een auto de steden vrij passeren zonder veiligheidsgordels, airbags en verkeersborden. Totdat het aantal slachtoffers snel toenam en straten onwandelbaar werden. Er waren nieuwe richtsnoeren en verordeningen nodig om de nieuwe technologie in de bestaande infrastructuur te stroomlijnen. Weinig mensen voorspelden dat de auto zo gevaarlijk zou worden voor de wandelbevolking. Door het gebruik te reguleren konden we de veiligheid verhogen en tegelijkertijd de vruchten plukken van dit nieuwe type vervoer. Tegenwoordig kunnen we ons nauwelijks een wereld voorstellen zonder door de motor aangedreven vervoer.

Net als bij auto’s zou een verbod op AI-systemen vanwege hun aanvankelijke gevaarlijke gevolgen te kort zijn. AI-systemen kunnen een positieve impact hebben op onze samenleving, en dat is nu al het geval. Op dit moment worden AI-systemen echter ontwikkeld en in ons dagelijks leven gedumpt zonder „veiligheidsgordels” of andere waarborgen. Het is belangrijk kritisch na te denken over hoe we willen dat AI in onze samenleving bestaat. Het gesprek openen over hoe we de veiligheid van deze systemen kunnen vergroten of de schade kunnen verminderen in geval van onverwachte resultaten.

Image showing a man waving a red flag for pedestrians to warn them of cars and a robot holding a red flag to warn about Artificial Intelligence

De rode vlag
Krediet: Stop het 5G-team

Zwarte doos

In de motivering van de AVG staat dat mensen het recht hebben om te zien op welke gronden besluiten zijn genomen, welke gegevens worden verzameld en hoe deze gegevens zullen worden gebruikt. Deze relatief nieuwe wet is een stap in de goede richting, maar is verre van een goede oplossing voor het creëren van privacy of het eerbiedigen van burgerrechten. Gebruikers die een website op internet bezoeken, worden vaak geconfronteerd met grote hoeveelheden tekst die vaag uitleggen welke persoonsgegevens worden verzameld. En meestal is het moeilijk om cookies af te wijzen, of u moet op verschillende pop-ups klikken. Bedrijven volgen de beperkingen van de AVG en maken het voor particulieren niet gemakkelijk om toezicht te houden op hun eigen gegevens. Wij zijn dan ook van mening dat de AVG een naïef initiatief is dat de honger laat zien voor gegevens van onlinebedrijven.

Maar zelfs als bedrijven meer bereid zouden zijn om de werkelijke verzameling en het werkelijke gebruik van persoonsgegevens te delen, zijn zij niet altijd volledig in staat. Veel intelligente systemen functioneren zoals zwarte dozen: veel gegevens invoeren en het systeem levert een bepaalde output, afhankelijk van de kenmerken van de gegevens. De afgelopen jaren hebben ingenieurs de voorkeur gegeven aan deze „black box” -systemen. Dergelijke systemen hadden een groot potentieel om complexere concepten zoals taal of afbeeldingen te leren. Beroemde voorbeelden van „black box” -systemen zijn neurale netwerken, gezichtsherkenningssoftware of software voor de verwerking van natuurlijke talen (bv. Google Translate). Ingenieurs hebben controle over bepaalde parameters, maar hebben geen inzicht in het soort informatie dat deze systemen leren of afleiden uit de gegevens. Alleen door de prestaties van nieuwe gegevens te controleren, kan een ingenieur inschatten of het systeem heeft geleerd wat het had moeten. Een ingenieur zou bijvoorbeeld een reeks nieuwe afbeeldingen kunnen invoeren om te zien of het systeem deze kan interpreteren. Maar als de ingenieur het systeem niet grondig genoeg heeft getest, kunnen foto’s van mensen van kleur worden geïnterpreteerd als foto’s van luiers. Hadden de ingenieurs van Google op de hoogte kunnen zijn van deze fout? Goed, als ze de software hadden getest op een reeks foto’s van mensen van kleur die zij zouden kunnen hebben. Maar foto’s kunnen alles bevatten. En het zou heel moeilijk zijn om het systeem op alles te controleren.

Efficiënter zou zijn na te gaan welke zaken de software heeft geleerd. Als het Google-algoritme ons zou kunnen vertellen welke stappen het onderneemt om tot een interpretatie te komen, zouden de ingenieurs deze redenering kunnen verifiëren en waarschijnlijke uitzonderingen of foutgevallen kunnen inschatten. Daarom hebben leden van de wetenschappelijke wereld opgeroepen tot een meer begrijpelijke aanpak van machinaal leren. De „black box” -algoritmen hebben hun potentieel nog niet bereikt en zijn niet noodzakelijk beter dan begrijpelijker algoritmen.

Het interpretatievoordeel van deze begrijpelijke algoritmen is groter dan het verwachte prestatievoordeel van „black box” -algoritmen. Alleen als we weten wat er aan de gang is, kunnen we ingrijpen of aanpassen.

Analytics Information by Reto Scheiwiller

Toezicht op de zwarte doos
Credit: Stop het 5G-team

Conclusie

AI en intelligente software zijn vrij algemeen aanwezig in het moderne leven. Het beïnvloeden van besluitvormingsprocessen in bedrijven en het vertonen van vooroordelen ten aanzien van minderheidsgroepen. We begrijpen niet volledig hoe kunstmatige intelligentie werkt, hoe zij ons beïnvloedt en wat de langetermijneffecten zullen zijn.

De EU-burgers is niet gevraagd of zij de alomtegenwoordige maatschappelijke gevolgen van de door artificiële intelligentie gestuurde besluitvormingsinstrumenten aanvaarden in naam van technologische vooruitgang en digitalisering.

Daarom roepen wij in het EBI „Stop ((((5G))) — Stay Connected but Protected” op tot strengere regelgeving om burgers te beschermen tegen schendingen van de persoonlijke levenssfeer en discriminatie als gevolg van ongecontroleerd gebruik van KI-systemen in de besluitvorming in de voorstellen 19, 21 en 22 van het EBI.

En we zijn niet alleen:

  • Het Europees Comité voor gegevensbescherming ziet geen nieuwe wetgevingsvoorstellen van de Europese Commissie die het gebruik en de uitwisseling van (persoonlijke) gegevens tussen meer publieke en private partijen zullen vergemakkelijken. Volgens het Europees Comité voor gegevensbescherming zal dit „aanzienlijke gevolgen hebben voor de bescherming van de grondrechten op privacy en de bescherming van persoonsgegevens”.
  • De Europese Raad benadrukt het belang van een mensgerichte aanpak van het AI-beleid. Denk na over kwesties als bevooroordeelde en ondoorzichtige besluitvorming die van invloed zijn op de fundamentele mensenrechten van burgers.
  • In de voorlopige studie van de Unesco over de ethiek van kunstmatige intelligentie op bladzijde 10 staatdat het van het grootste belang is om toekomstige ingenieurs en computerwetenschappers op te leiden voor ethisch op elkaar afgestemd ontwerp van AI-systemen.
  • Een ander Europees burgerinitiatief (EBI), Reclaim Your Face, pleitte voor een verbod op het gebruik van schadelijke AI, zoals biometrische massa en toezicht op gezichtsherkenning.
  • Zelfs in 1942 voorzag Isaac Asimov de problemen en noemde zij drie wetten inzake robotica. De eerste wet is dat een robot geen schade mag toebrengen aan een mens. Zoals uit dit artikelblijkt, zijn we daar ver van verwijderd.

 

 

Stop 5G - Blog Post Author

Auteurs

Amar van Uden

Amar van Uden is schrijver van het Europees burgerinitiatief (EBI) „Stop ((((5G))) — Stay Connected but Protected”. Amar komt uit Nederland en bestudeert kunstmatige intelligentie.

Reageren

Om een reactie te plaatsen, moet u zich eerst aanmelden of registreren.