Zum Hauptinhalt
Forum zur Europäischen Bürgerinitiative

Europäer für sichere Verbindungen fordern eine stärkere Regulierung der künstlichen Intelligenz bei der Entscheidungsfindung

Aktualisiert am: 24/01/2023

Die Europäer für sichere Verbindungen sind ein Bündnis nationaler und internationaler Organisationen, die sich der negativen Folgen der modernen Kommunikationstechnologien bewusst sind. Wir betonen, dass wir nicht gegen Technologie, sondern für sichere Technologien und sichere Verbindungen sind.

In einem Jahr unserer Kampagne haben wir Lehren gezogen, die für künftige Organisatoren von Nutzen sein können. Wenn Sie diese wahre Stimme in Ihrem Herzen hören und Ihnen sagen, die Welt zum Besseren für alles und für alle zu verändern: verfolgen Sie diese Stimme, kämpfen und nie die Hoffnung aufgeben!

wenn Sie mit dem Fluss fahren, gehen die Menschen leicht mit Ihnen, und Sie sind nicht mit Widerstand konfrontiert. Wenn Sie sich dagegen wenden müssen, ist Ihre Botschaft vielleicht nötig, wie z. B. Dursige Böden, die Wasser weich halten, brauchen Sie weicher anhaltender Regen. Obwohl die EU eine Million Unterschriften benötigt, kommt es auf die Qualität Ihrer Ideen an.

In unserer Europäischen Bürgerinitiative (EBI) „Stop (((5G))) – Stay Connected but Protected“ haben wir 23 Vorschläge. Unter anderem fordern wir eine bessere Regulierung des Datenschutzes und der automatischen Entscheidungsfindung durch künstliche Intelligenz. Wir schlagen vor, eine Folgenabschätzung zu den Auswirkungen der 5G-Technik auf den Schutz personenbezogener Daten (Vorschlag 19) durchzuführen, wir wollen eine aktive Bekämpfung von Diskriminierung und Verletzungen digitaler Rechte (Vorschlag 21) und sind der Ansicht, dass die Bürger darüber informiert werden sollten, ob ihre Daten im automatisierten Verfahren verarbeitet werden (Vorschlag 22).

Stop 5G - Logo

Wie wurde alles begonnen?

Künstliche Intelligenz (KI) gibt es schon seit geraumer Zeit. Bereits zu Beginn der 50-Jahre hatten hohe Erwartungen an die endlosen Möglichkeiten, die intelligente Technologie für unsere Gesellschaft mit sich bringen würde. Nun, mehr als ein halbes Jahrhundert später, ist es der KI-Technologie gelungen, sich langsam in unser tägliches Leben einzumischen. Auch wenn humanoide Roboter noch nicht auf der Erde gehen, stützen wir uns bei der Verwaltung unserer Infrastruktur, unserer Arbeitsabläufe und unserer Zeitersparnis auf mehrere komplexe Technologien.

Die derzeitigen „intelligenten“ Technologien könnten sich von dem unterscheiden, was frühere Wissenschaftler als „menschliche intelligente Maschinen“ bezeichnen würden. Während Alan Turing die Intelligenz als Denken und Handeln wie Menschen definiert hat, sind intelligente Systeme heutzutage unser Haus mit begrenztem Nachdenken. Es ist schwierig zu definieren, was genau KI ist und was sie bedeutet. Dennoch hat es uns ermöglicht, das Leben effizienter, reibungsloser und vielleicht noch glücklicher zu führen.

Aber auch die Nachteile endloser Automatisierung und Robotisierung werden immer deutlicher. Nehmen Sie z. B. die weiblichen Antragstellerinnen von Amazon: abgelehnt, weil der Algorithmus gelernt habe, Männer gegenüber Frauen zu bevorzugen. Oder der Chatbot Tay von Microsoft auf Twitter, der offline genommen werden musste, weil er einige extrem rassistische „Fahrheiten“ von anderen Tweetern gefolgert hatte. Oder die Tatsache, dass in Google hauptsächlich Bilder von Männern dem Suchbegriff „CEO“ zu entnehmen sind.

Wir glauben vielleicht, dass KI die schlimmsten Männer verdrängt und bestehende Ungleichheiten vertieft. Dies könnte jedoch etwas vereinfachend sein. Die KI-Systeme und die zugrunde liegenden Algorithmen stützen sich häufig auf Daten, viele Daten, um mehr über unsere Welt zu erfahren. Techniken des maschinellen Lernens wie neuronale Netze und Entscheidungsbäume versuchen, Trends, Zusammenhänge zwischen Konzepten und wichtige Parameter abzuleiten, um sie bei künftigen Anfragen bei der Wahl der richtigen Optionen zu unterstützen. Diese Daten wurden nicht für maschinelles Lernen zusammengestellt. Nein, die meisten Daten wurden von uns, Menschen, generiert, während sie im Internet klicken und unsere Präferenzen teilen. Indem wir unsere Daten nutzen, um zu lernen, entschärfen KI-Systeme systematische Verzerrungen, die in unserer Gesellschaft in gewissem Umfang bereits vorhanden waren. Dies macht die Einführung intelligenter Technologien nicht nur zu einer technologischen, sondern auch zu einer gesellschaftlichen und ethischen Frage. Aus diesen Gründen argumentieren einige Forscher, dass sich Ingenieure seit langem hinter den technologischen Aspekten der KI verbergen und sich darauf konzentrieren, die Berechnungen zu verbessern und gleichzeitig die möglichen Auswirkungen ihrer Innovationen auf die Endnutzer zu vernachlässigen. Technologie steht zwischen einem Entwickler und der äußeren Welt. In diesem Artikel werden drei Aspekte beschrieben: Diskriminierung, Rechenschaftspflicht und Black-Box-Logik.

Winter country with 20 telecommunication masts among firs and spruces

Winterland mit 20 Tannen- und Fichtenmasten
: Öffentliche
Domänenquelle: https://labs.openai.com/

Umgang mit Diskriminierung und Vorurteilen 

Ebenso wie die weiblichen Antragstellerinnen von Amazon fallen auch Angehörige von Minderheitengruppen nicht in den Anwendungsbereich der KI-Systeme. Der Grund ergibt sich aus dem Namen: diese Menschen bilden eine Minderheit. Ihre Darstellung in den Daten wird begrenzt sein, und der Algorithmus erhält nicht die spezifischen Merkmale, die diese Personen repräsentieren. Wie Menschen schneiden Systeme mit begrenztem Wissen schlechter ab. Das Ergebnis: schwarze Personen werden von Googles intelligenter Bildlesesoftware als Apes oder als gefährlicher in einem automatischen Risikobewertungssystem für Wiederholungstaten gekennzeichnet. Nur weil die Software auf Bildern mit weißen Personen (und vielleicht Gorillas) geschult wurde.

Datenwissenschaftler sind sich dieses Problems bewusst, und es gibt bereits Techniken zur Verbesserung der Leistungsfähigkeit. Beispielsweise indem der Datensatz so angepasst wird, dass Minderheitengruppen besser vertreten sind. Oder durch Hinzufügung eines zusätzlichen Schritts im Prozess des maschinellen Lernens zur Feinabstimmung des Modells.

Und die Diskussion noch komplizierter zu machen: was geschieht, wenn unser System die Ergebnisse sehr gut vorhersagt. Gehen wir davon aus, dass wir zwei Algorithmen entwickeln. Ein Indikator, bei dem 80 % der Zeit bei weißen Individuen, aber nur 60 % der Zeit bei farbigen Individuen erkannt werden. Und eine zweite, bei der eine Krankheit unabhängig vom Hintergrund nur 60 % der Zeit korrekt erkannt wird. Sollten wir dann Gleichstellung anstreben und den Algorithmus schlimmer machen? Obwohl die diskriminierende Person möglicherweise mehr weiße Personen retten könnte? Hier kommen ethische Erwägungen zum Tragen.

Unser Datenwissenschaftler wurde gerade zu einer Person, die den Glauben einer Million anderer prägierte und muss plötzlich ethische Überlegungen erschweren. Ethische Dilemmata, die in der öffentlichen Debatte noch nicht beantwortet wurden. Wir können weder von Ingenieuren erwarten, dass sie diese Entscheidungen treffen, noch sollten wir sie wollen. Für die Gestaltung der Software sind Vorschriften erforderlich.

Artificial Intelligence is a good servant but a bad master

Künstliche Intelligenz ist ein guter Mitarbeiter, aber ein schlechter Meister.
Kredit

5G-Team stoppen

Verantwortlichkeit und ZuständigkeitIn unserer Gesellschaft werden Einzelpersonen für ihre Taten verantwortlich gemacht. Bei intelligenten Systemen ist es schwierig, den Täter zu identifizieren. Insbesondere wenn die Systeme komplex und selbstlernend sind. Ingenieure können nicht immer vorhersehen, was das System lernen oder wie es sich verhalten wird. Amazon habe wahrscheinlich nicht die Absicht gehabt, weibliche Bewerber zu gefährden, und Google habe auch nicht bewusst Männer an die Spitze der Suchergebnisse gesetzt. Erst nach der Einführung des Systems in die Welt traten diese Folgen auf. Aber wer müssen wir dafür verantwortlich machen? Das Unternehmen, das diese Systeme nutzte, obwohl es im Vorfeld keinen triftigen Grund hatte, an der Qualität des Systems zu zweifeln.

Oder das Unternehmen, das das System für den Verkauf eines Produkts geschaffen hat, das sich als diskriminierend erwiesen hat.Innovationen sind stets störend und nicht ohne Risiko. Sie fordern Anpassungen in unserer Gesellschaft und im Justizsystem. Nehmen Sie das Auto. In den ersten Tagen konnte ein Auto ohne Sicherheitsgurte, Airbags und Straßenschilder frei durch die Städte fahren. Bis die Zahl der Opfer rasch zunahm und die Straßen undurchlässig wurden. Neue Leitlinien und Vorschriften waren erforderlich, um die neue Technologie in der bestehenden Infrastruktur zu straffen. Nur wenige prognostizierten, dass das Auto so gefährlich für die zu Fuß fahrende Menschenmenge werden würde. Durch die Regulierung der Nutzung konnten wir die Sicherheit erhöhen und gleichzeitig die Vorteile dieser neuen Verkehrsart nutzen.

Heute können wir uns kaum eine Welt ohne motorgetriebenen Verkehr vorstellen.Wie bei Autos wäre das Verbot von KI-Systemen wegen ihrer anfänglichen gefährlichen Auswirkungen zu kurzsichtig. KI-Systeme können sich positiv auf unsere Gesellschaft auswirken, und dies ist bereits der Fall. Dennoch werden KI-Systeme zu diesem Zeitpunkt entwickelt und in unser tägliches Leben gedumpt, ohne dass es „Sitzgürtel“ oder andere Schutzvorkehrungen gibt. Es ist wichtig, kritisch darüber nachzudenken, wie KI in unserer Gesellschaft bestehen soll.

Image showing a man waving a red flag for pedestrians to warn them of cars and a robot holding a red flag to warn about Artificial Intelligence

 
Roter Flaggenkredit :

5G-Team stoppen

Schwarze BoxIn der Begründung der DSGVO heißt es, dass Personen ein Recht darauf haben zu erfahren, aus welchen Gründen Entscheidungen getroffen wurden, welche Daten erhoben werden und wie diese Daten verwendet werden. Dieses relativ neuartige Gesetz war zwar ein Schritt in die richtige Richtung, ist aber bei weitem keine angemessene Lösung für den Schutz der Privatsphäre oder die Wahrung der Bürgerrechte. Beim Besuch einer Website im Internet sehen sich die Nutzer häufig mit großen Textmengen konfrontiert, die vage erklären, welche personenbezogenen Daten erhoben werden. Und meist ist es schwierig, Cookies abzulehnen, oder Sie müssen mehrere Pop-ups anklicken. Die Unternehmen halten sich an die strikten Einschränkungen der DSGVO und machen es Einzelpersonen nicht einfach, ihre eigenen Daten zu überwachen.

Wir sind daher der Ansicht, dass die DSGVO eine naive Initiative ist, die den Hunger von Daten von Online-Unternehmen zeigt.Aber selbst wenn Unternehmen eher bereit wären, die eigentliche Erhebung und Nutzung personenbezogener Daten weiterzugeben, sind sie nicht immer voll in der Lage. Viele intelligente Systeme funktionieren wie Blackboxen: Zusammenstellung in viele Daten, und das System wird je nach den Merkmalen der Daten ein bestimmtes Ergebnis liefern. In den letzten Jahren bevorzugten Ingenieure diese Blackbox-Systeme. Solche Systeme verfügten über ein hohes Potenzial für das Erlernen komplexerer Konzepte wie Sprache oder Bilder. Bekannte Beispiele für Blackbox-Systeme sind neuronale Netze, Gesichtserkennungssoftware oder Software für die Verarbeitung natürlicher Sprache (z. B. Google Translate). Ingenieure haben die Kontrolle über einige Parameter, haben jedoch keinen Einblick in die Art der Informationen, die diese Systeme lernen oder aus den Daten ableiten. Nur durch die Überprüfung der Leistung anhand neuartiger Daten kann ein Ingenieur abschätzen, ob das System gelernt hat, wofür es gedacht war. Ein Ingenieur könnte beispielsweise eine Reihe neuer Bilder eingeben, um zu sehen, ob das System in der Lage ist, diese zu interpretieren. Aber wenn der Ingenieur das System nicht gründlich genug getestet hat, können, wie wir bereits gesehen haben, Fotos von Menschen mit Farbe als Affen interpretiert werden. Hätten die Ingenieure von Google Kenntnis von diesem Fehler gehabt? Wenn sie die Software auf einer Reihe von Fotos von Menschen mit Farbe getestet hätten, könnten sie sie haben. Fotos können jedoch etwas enthalten.

Und es wäre sehr schwierig, das System in jeder Hinsicht zu überprüfen.Effizienter wäre es, zu überprüfen, welche Art von Dingen die Software gelernt hat. Wenn der Google-Algorithmus uns mitteilen könnte, welche Schritte er zu einer Auslegung unternimmt, könnten die Ingenieure diese Argumentation überprüfen und wahrscheinliche Ausnahmen oder Fehlerfälle schätzen. Aus diesem Grund fordern Wissenschaftler verständlichere Ansätze für maschinelles Lernen.

Blackbox-Algorithmen haben ihr Potenzial noch nicht ausgeschöpft und sind nicht unbedingt besser als verständlichere Algorithmen.Der Interpretationsvorteil dieser verständlichen Algorithmen ist größer als der erwartete Leistungsvorteil von Blackbox-Algorithmen.

Analytics Information by Reto Scheiwiller

 
Schauen Sie den Blackbox Credit an:

5G-Team stoppen

ErgebnisKI und intelligente Software sind im modernen Leben recht allgegenwärtig. Beeinflussung von Entscheidungsprozessen in Unternehmen und Voreingenommenheit gegenüber Minderheitengruppen.

Auch wenn wir nicht vollständig verstehen, wie künstliche Intelligenz funktioniert, wie sie sich auf uns auswirkt und welche langfristigen Auswirkungen sie haben wird.

Die Bürgerinnen und Bürger der EU wurden nicht gefragt, ob sie die allgegenwärtigen gesellschaftlichen Folgen der von der künstlichen Intelligenz geleiteten Entscheidungsinstrumente im Namen des technologischen Fortschritts und der Digitalisierung akzeptieren.

Daher fordern wir in der EBI „Stop ((((5G))) – Stay Connected but Protected“ eine stärkere Regulierung, um die Bürger vor Verletzungen der Privatsphäre und Diskriminierung infolge der unkontrollierten Nutzung von KI-Systemen bei der Beschlussfassung zu schützen, und zwar in den Vorschlägen 19, 21 und 22 der EBI.

  • Und wir sind nicht allein:Der Europäische Datenschutzausschuss sieht keine neuen Legislativvorschläge der Europäischen Kommission, die die Nutzung und den Austausch (personenbezogener) Daten zwischen mehr öffentlichen und privaten Parteien erleichtern werden.
  • Dem Europäischen Datenschutzausschuss zufolge wird dies „erhebliche Auswirkungen auf den Schutz der Grundrechte auf Privatsphäre und auf den Schutz personenbezogener Daten haben“.Der Europäische Rat betont, wie wichtig ein auf den Menschen ausgerichteter Ansatz für die KI-Politik ist.
  • Denken Sie an Themen wie eine voreingenommene und undurchsichtige Entscheidungsfindung, die sich auf die grundlegenden Menschenrechte der Bürger auswirkt.
  • Auf Seite 10 der vorläufigen UNESCO-Studie über die Ethik der künstlichen Intelligenz heißt es: „Es ist am wichtigsten, künftige Ingenieure und Computerwissenschaftler für eine ethisch abgestimmte Gestaltung von KI-Systemen aufzuklären.“
  • Eine weitere Europäische Bürgerinitiative „Reclaim Your Face“ forderte ein Verbot des Einsatzes schädlicher KI wie biometrische Masse und Überwachung der Gesichtserkennung.Bereits 1942 sah Isaac Asimov die Probleme vor und erklärte drei Gesetze im Bereich Robotik. Das erste Gesetz lautet, dass ein Roboter einem Menschen nicht schaden darf.

Wie aus diesem Artikel hervorgeht, sind wir weit davon entfernt.

 

Stop 5G - Blog Post Author

Autoren

 

Amar van UdenAmar van Uden ist Autor der Europäischen Bürgerinitiative „Stop (((5G))) – Stay Connected but Protected“ ((5G)) – Stay Connected but Protected.

Kommentieren

Um Kommentare hinzuzufügen, müssen Sie sich authentifizieren oder registrieren.
Haftungsausschluss: Die im EBI-Forum vorgebrachten Meinungen spiegeln lediglich die Auffassungen ihrer Verfasser/innen wider und repräsentieren in keiner Weise den offiziellen Standpunkt der Europäischen Kommission oder der Europäischen Union.
Eine Initiative registrieren?

Eine Initiative unterstützen? Alles über laufende oder frühere Initiativen erfahren?