Aller au contenu principal
Forum de l’initiative citoyenne européenne

Les Européens pour des connexions sûres appellent à une réglementation plus stricte de l’intelligence artificielle dans le processus décisionnel

Mis à jour le: 24/01/2023

«European for Safe Connections» est une coalition d’organisations nationales et internationales qui sont conscientes des conséquences négatives des technologies de communication modernes. Nous soulignons que nous ne sommes pas opposés à la technologie, mais en faveur d’une technologie sûre et de connexions sûres.

Au cours d’une année de notre campagne, nous avons tiré des enseignements qui peuvent être utiles pour les futurs organisateurs. Tout d’abord, si vous entendez cette vraie voix dans votre cœur, vous suggérant de changer le monde pour tout le monde et pour tout le monde: suivez cette voix, luttez et ne renonce jamais à l’espoir!

si vous allez dans le flux, les gens vont facilement vous accompagner et vous n’aurez pas de résistance. Mais si vous devez aller à l’encontre de ce problème, votre message peut être nécessaire, comme le fait que les sols abritant de l’eau ont besoin de pluies douces persistantes. Bien que l’UE ait besoin d’un million de signatures, c’est la qualité de vos idées qui compte.

Dans notre initiative citoyenne européenne (ICE)intitulée «Stop [(((((((5G))] — Stay Connected but Protected», nous avons 23 propositions. Parmi eux, nous demandons une meilleure réglementation en matière de protection des données et de prise de décision automatique par l’intelligence artificielle. Nous proposons de lancer une analyse d’impact des effets de la 5G sur la protection des données à caractère personnel (proposition 19), nous souhaitons une lutte active contre la discrimination et les violations des droits numériques (proposition 21) et nous pensons que les citoyens devraient être informés du traitement automatisé de leurs données (proposition 22).

Stop 5G - Logo

L’origine du projet

L’intelligence artificielle (IA) existe depuis un certain temps. Dès le début de l’année 50, les attentes étaient élevées en ce qui concerne les possibilités infinies que la technologie intelligente apporterait à notre société. Aujourd’hui, plus d’un demi-siècle plus tard, la technologie infusée de l’IA est parvenue à glisser lentement dans notre vie quotidienne. Bien que les robots humanoïdes ne marchent pas encore sur notre planète, nous nous appuyons sur de multiples technologies complexes dans la gestion de nos infrastructures, nos processus de travail et le temps libre.

Les technologies «intelligentes» actuelles pourraient différer de ce que les scientifiques qualifieraient de machines intelligentes de type humain. Alors qu’ Alan Turing définissait l’intelligence comme la pensée et l’action comme l’homme, aujourd’hui, les systèmes intelligents désactivent notre maison avec peu de pensée. Il est difficile de définir ce qu’est exactement l’IA et ce qu’elle implique. Néanmoins, elle nous a permis de vivre plus efficacement, plus fluide et peut-être encore plus agréable.

Mais les inconvénients de l’automatisation et de la robotisation sans fin sont également de plus en plus évidents. Prenons, par exemple, les femmes demanderesses d’Amazon: rejeté parce que l’algorithme a appris à favoriser les hommes par rapport aux femmes. Ou le chatbot Tay de Microsoft sur Twitter qui a dû être pris hors ligne parce qu’il avait déduit des «vérités» extrêmement racistes de collègues. Ou le fait que des images de mâles apparaissent principalement dans le terme de recherche «CEO» sur Google.

Nous pouvons penser que l’IA semble enlever le pire des hommes et creuser les inégalités existantes. Toutefois, cela pourrait être quelque peu simpliste à conclure. Les systèmes d’IA et les algorithmes sous-jacents s’appuient souvent sur des données, des volumes de données, pour en apprendre davantage sur notre monde. Les techniques d’apprentissage automatique, telles que les réseaux neuronaux et les arbres de décision, tentent de déduire les tendances, les liens entre les concepts et les paramètres importants pour les aider à choisir les bonnes options dans les demandes futures. Ces données n’ont pas été comblées dans le but de l’apprentissage automatique. Non, la plupart des données ont été générées par nous, les humains, en cliquant sur l’internet et en partageant nos préférences. En utilisant nos données pour apprendre, les systèmes d’IA libèrent ainsi des biais systématiques qui étaient déjà présents, dans une certaine mesure, dans notre société. Et cela fait de la mise en œuvre des technologies intelligentes une question non seulement technologique, mais aussi sociétale et éthique. Pour ces raisons, certains chercheurs affirment que les ingénieurs se cachent depuis longtemps derrière les aspects technologiques de l’IA, en mettant l’ accent sur l’amélioration des calculs tout en négligeant les effets que leurs innovations pourraient avoir sur les utilisateurs finaux. La technologie se place entre un développeur et le monde extérieur. Cet article décrit trois points: la discrimination, l’obligation de rendre des comptes et la logique de la boîte noire.

Winter country with 20 telecommunication masts among firs and spruces

Pays d’hiver avec 20 mâts de télécommunication entre les firmes et spruces
Credit: Domaine public
Source: https://labs.openai.com/

Traitement des discriminations et des préjugés 

Tout comme les candidates féminines d’Amazon, les personnes appartenant à des groupes minoritaires ne relèvent pas du champ d’application réel des systèmes d’IA. La raison en est évidente: il s’agit de personnes minoritaires. Leur représentation dans les données sera limitée et l’algorithme ne connaîtra pas les caractéristiques spécifiques de ces personnes. Comme les humains, les systèmes sont moins performants avec des connaissances limitées. Résultat: les personnes noires sont qualifiées d’appréhendées par le logiciel intelligent de lecture d’images de Google ou comme plus dangereuses dans un système automatique d’évaluation des risques de récidive. Simplement parce que le logiciel a été formé sur des images contenant des individus blancs (et peut-être des gorillas).

Les scientifiques en matière de données ont été conscients de ce problème et il existe déjà des techniques permettant d’améliorer les performances. Par exemple, en ajustant l’ensemble de données de manière à ce que les groupes minoritaires soient mieux représentés. Ou en ajoutant une étape supplémentaire dans le processus d’apprentissage automatique pour finir le modèle.

Et pour compliquer encore la discussion: que faire si notre système prévoit très bien les résultats? Supposons que nous développons deux algorithmes. L’une qui détecte correctement une maladie 80 % du temps chez les individus blancs, mais seulement 60 % du temps chez les individus de couleur. Et une seconde qui détecte correctement une maladie à peine 60 % du temps, quel que soit le contexte. Devrions-nous ensuite œuvrer en faveur de l’égalité et prendre l’algorithme le plus mauvais? Même si la discrimination pourrait permettre d’épargner davantage de personnes blanches? C’est là que des considérations éthiques entrent en jeu.

Notre scientifique en matière de données vient de devenir une personne qui façonne la foi d’un million d’autres et doit soudainement poser des considérations éthiques difficiles. Dilemmes éthiques qui ne sont pas encore pris en compte dans le débat public. Nous ne pouvons pas attendre des ingénieurs qu’ils prennent ces décisions, pas plus que nous ne devrions les souhaiter. Des règlements sont nécessaires pour guider la conception du logiciel.

Artificial Intelligence is a good servant but a bad master

L’intelligence artificielle est un bon agent mais un mauvais master.
Crédit:

Arrêter l’équipe 5G

Responsabilisation et responsabilitéDans notre société, les individus sont tenus responsables de leurs actes. Avec les systèmes intelligents, il est difficile d’identifier le coupable. En particulier si les systèmes sont complexes et autoapprentissage. Les ingénieurs ne peuvent pas toujours prédire ce que le système apprendra ou comment il se comportera. Amazon n’avait probablement pas l’intention de mettre en péril les candidates féminines, pas plus que Google n’a sciemment placé les hommes en tête des résultats de recherche. Ce n’est qu’après avoir mis le système dans le monde que ces conséquences sont apparues. Mais à qui nous reprocher? L’entreprise a utilisé ces systèmes, même si elle n’avait pas de motifs raisonnables de douter préalablement de la qualité du système.

Soit l’entreprise qui a construit le système de vente d’un produit qui s’est révélé discriminatoire.Les innovations ont toujours perturbé et non sans risque. Ils demandent des adaptations dans notre société et notre système judiciaire. Prenez la voiture. Dans ses premiers jours, une voiture a été autorisée à circuler librement dans les villes sans ceintures de sécurité, coussins gonflables et panneaux de signalisation routière. Jusqu’à ce que le nombre de victimes augmente rapidement et que les rues deviennent inaccessibles. De nouvelles lignes directrices et de nouvelles réglementations étaient nécessaires pour rationaliser les nouvelles technologies dans les infrastructures existantes. Peu prévoyaient que la voiture deviendrait si dangereuse pour la foule de marche. En réglementant l’utilisation, nous avons pu accroître la sécurité tout en tirant parti des avantages de ce nouveau type de transport.

Aujourd’hui, nous pouvons difficilement imaginer un monde sans transport motorisé.Comme pour les voitures, l’interdiction des systèmes d’IA pour leurs premières implications dangereuses serait trop courte. Les systèmes d’IA peuvent avoir, et sont déjà en train de produire, une incidence positive sur notre société. Pourtant, à ce stade, les systèmes d’IA sont développés et déversés dans notre vie quotidienne sans aucune «ceinture de sécurité» ni aucune autre protection. Il est important de réfléchir de manière critique à la manière dont nous voulons que l’IA existe dans notre société.

Image showing a man waving a red flag for pedestrians to warn them of cars and a robot holding a red flag to warn about Artificial Intelligence

 
Le «red flag Credit»:

Arrêter l’équipe 5G

Boîte noireLa justification du RGPD indique que les personnes ont le droit de voir les motifs sur lesquels les décisions ont été prises, les données collectées et la manière dont ces données seront utilisées. Cette loi relativement nouvelle a été un pas dans la bonne direction, mais elle est loin d’être une solution adéquate pour établir la vie privée ou respecter les droits civils. Lorsqu’ils consultent un site web sur l’internet, les utilisateurs sont souvent confrontés à de grandes quantités de texte expliquant vaguement quelles données à caractère personnel sont collectées. Et la plupart du temps, il est difficile de rejeter les cookies, ou vous devez cliquer sur plusieurs pop-ups. Les entreprises suivent les simples contraintes du RGPD et ne permettent pas aux personnes de superviser facilement leurs propres données.

Nous estimons donc que le RGPD est une initiative naïve qui montre la faim des données des entreprises en ligne.Mais même si les entreprises étaient plus disposées à partager la véritable collecte et utilisation des données à caractère personnel, elles ne sont pas toujours pleinement en mesure de le faire. De nombreux systèmes intelligents fonctionnent comme des boîtes noires: placer de nombreuses données et le système donnera un certain résultat en fonction des caractéristiques des données. Ces dernières années, les ingénieurs ont favorisé ces systèmes de boîtes noires. Ces systèmes avaient un fort potentiel d’apprentissage de concepts plus complexes tels que le langage ou les images. Les réseaux neuronaux, les logiciels de reconnaissance faciale ou les logiciels de traitement du langage naturel (par exemple Google Translate) sont des exemples célèbres de systèmes de boîtes noires. Les ingénieurs contrôlent certains paramètres mais n’ont aucune idée du type d’informations que ces systèmes apprennent ou déduisent des données. Ce n’est qu’en vérifiant les performances sur des données nouvelles que l’ingénieur peut estimer si le système a appris ce qu’il était censé. Un ingénieur pourrait, par exemple, introduire un ensemble de nouvelles images pour voir si le système est capable de les interpréter. Mais comme nous l’avons vu plus haut, si l’ingénieur n’a pas suffisamment testé le système, les photos de personnes de couleur pourraient être interprétées comme des images d’appréhension. Les ingénieurs de Google pourraient-ils avoir connaissance de cette erreur? Bien, s’ils avaient testé le logiciel sur un ensemble de photos de personnes de couleur qu’elles pourraient avoir. Mais les photos peuvent contenir quelque chose.

Et il serait très difficile de vérifier le système sur tout.Il serait plus efficace de vérifier quel type de choses le logiciel a appris. Si l’algorithme Google pouvait nous indiquer le type de mesures qu’il entreprend pour obtenir une interprétation, les ingénieurs pourraient vérifier ce raisonnement et estimer les exceptions probables ou les cas d’erreur. C’est pourquoi les membres de la communauté scientifique réclament des approches plus compréhensibles en matière d’apprentissage automatique.

Les algorithmes de boîte noire n’ont pas encore été à la hauteur de leur potentiel et ne sont pas nécessairement meilleurs que des algorithmes plus compréhensibles.L’avantage d’interprétabilité de ces algorithmes compréhensibles est plus important que l’avantage attendu en matière de performance des algorithmes de boîte noire.

Analytics Information by Reto Scheiwiller

 
Regarder la boîte noire Credit:

Arrêter l’équipe 5G

ConclusionL’IA et les logiciels intelligents sont assez omniprésents dans la vie moderne. Influencer les processus décisionnels des entreprises et faire preuve de biais à l’égard des groupes minoritaires.

Si nous ne comprenons pas pleinement le fonctionnement de l’intelligence artificielle, son impact et ses effets à long terme.

Il n’a pas été demandé aux citoyens de l’Union s’ils acceptent les conséquences sociétales généralisées des outils de prise de décision guidés par l’intelligence artificielle au nom du progrès technologique et de la numérisation.

Par conséquent, dans le cadre de l’ICE «Stop [((((((5G))] — Stay Connected but Protected», nous demandons une réglementation plus stricte afin de protéger les citoyens contre les violations de la vie privée et la discrimination résultant de l’utilisation incontrôlée du système d’IA dans le processus décisionnel dans les propositions 19, 21 et 22 de l’ICE.

  • Et nous ne sommes pas seuls:Le comité européen de la protection des données n’est pas favorable à de nouvelles propositions législatives de la Commission européenne qui faciliteront l’utilisation et le partage de données (à caractère personnel) entre davantage de parties publiques et privées.
  • Selon le comité européen de la protection des données, cela «aura uneincidence significative sur la protection des droits fondamentaux au respect de la vie privée et des données à caractère personnel».Le Conseil européen souligne l’importance d’une approche de la politique en matière d’IA centrée sur l’humain.
  • Réfléchissez à des questions telles que la prise de décision partiale et opaque ayant une incidence sur les droits fondamentaux des citoyens.
  • L’ étude préliminaire de l’UNESCO sur l’éthique de l’intelligence artificielle, à la page 10, indique qu’ «ilest essentiel... d’éduquer les futurs ingénieurs et informaticiens à une conception des systèmes d’IA alignée sur l’éthique».
  • Une autre initiative citoyenne européenne (ICE) intitulée Reclaim Your Face a demandé l’interdiction de l’utilisation d’une IA dommageable, telle que la surveillance de masse biométrique et de reconnaissance faciale.Dès 1942, Isaac Asimov prévoyait les problèmes et déclarait trois lois sur la robotique. La première loi est qu’un robot ne doit pas nuire à un être humain.

Comme le montre cet article, nous en sommes loin.

 

Stop 5G - Blog Post Author

Participants

 

Amar van UdenAmar van Uden est auteur de l’initiative citoyenne européenne (ICE) «Stop ((((((5G))) — Stay Connected but Protected».

Laisser un commentaire

Pour pouvoir ajouter des commentaires, vous devez vous authentifier ou vous enregistrer.
Clause de non-responsabilité: les avis exprimés sur le forum de l’ICE reflètent uniquement le point de vue de leurs auteurs et ne peuvent en aucun cas être considérés comme reflétant la position de la Commission européenne ou de l’Union européenne.
Vous êtes prêt(e) à enregistrer votre initiative?

Vous voulez soutenir une initiative? Vous voulez en savoir plus sur les initiatives actuelles ou passées?