Passa ai contenuti principali
Forum dell’iniziativa dei cittadini europei

Gli europei per connessioni sicure chiedono una regolamentazione più rigorosa dell'intelligenza artificiale nel processo decisionale

Ultimo aggiornamento: 24 January 2023

Gli europei per connessioni sicure sono una coalizione di organizzazioni nazionali e internazionali consapevoli delle conseguenze negative delle moderne tecnologie di comunicazione. Sottolineiamo che non siamo contrari alla tecnologia, ma a favore di una tecnologia sicura e di connessioni sicure.

Nel corso di un anno della nostra campagna abbiamo tratto insegnamenti che possono essere utili per i futuri organizzatori. In primo luogo, se senti questa vera voce nel tuo cuore che ti dichiari di cambiare il mondo in meglio per tutti e per tutti: segui questa voce, combattere e non rinunciare mai alla speranza!

se andate con il flusso, le persone si recheranno facilmente con te e non ci troverai di fronte a una resistenza. Tuttavia, se devi opporvisi, il tuo messaggio potrebbe essere necessario, come il suolo semicamente rotante che rompe l'acqua necessita di piogge leggere e persistenti. Sebbene l'UE richieda un milione di firme, è la qualità delle tue idee che conta.

Nella nostra iniziativa dei cittadini europei (ICE) "Stop ((5G)) — Stay Connected but Protected" abbiamo 23 proposte. Tra questi, chiediamo una migliore regolamentazione per la riservatezza dei dati e un processo decisionale automatico da parte dell'intelligenza artificiale. Proponiamo di avviare una valutazione d'impatto degli effetti del 5G sulla protezione dei dati personali (proposta 19), auspichiamo una lotta attiva contro la discriminazione e le violazioni dei diritti digitali (proposta 21) e riteniamo che i cittadini debbano essere informati se i loro dati sono trattati mediante procedura automatizzata (proposta 22).

Stop 5G - Logo

Come è iniziato tutto

L'intelligenza artificiale (IA) si trova da molto tempo. Già all'inizio del 50 le aspettative erano elevate per quanto riguarda le possibilità infinite che la tecnologia intelligente apporterebbe alla nostra società. Ora, più di mezzo secolo dopo, la tecnologia infusa dall'IA è riuscita a penetrare lentamente nella nostra vita quotidiana. Anche se i robot umanoidi non camminano ancora nel nostro pianeta, ci affidiamo a molteplici tecnologie complesse nella gestione delle infrastrutture, nei processi di lavoro e nel tempo libero.

Le attuali tecnologie "intelligenti" potrebbero differire da quelle che gli scienziati precedenti chiamerebbero macchine intelligenti di tipo umano. Mentre Alan Turing ha definito l'intelligenza come pensando e agendo come esseri umani, oggi i sistemi intelligenti sottraggono la nostra casa con un pensiero limitato. È difficile definire esattamente cosa sia l'IA e cosa comporti. Tuttavia, ci ha permesso di vivere in modo più efficiente, più agevole e, forse, ancora più piacevole.

Ma anche gli svantaggi dell'automazione e della robotizzazione senza fine stanno diventando sempre più evidenti. Si pensi, ad esempio, alle attrici di Amazon: respinto perché l'algoritmo ha imparato a favorire gli uomini rispetto alle donne. Oppure il chatbot Tay di Microsoft su Twitter, che doveva essere messo offline perché aveva desunto alcune "verità" estremamente razziste da altri tweet. O il fatto che le immagini di uomini appaiano principalmente al termine "amministratore delegato" su Google.

Potremmo pensare che l'IA sembri eliminare il peggio degli uomini e aggravare le disuguaglianze esistenti. Tuttavia, ciò potrebbe essere alquanto semplicistico da concludere. I sistemi di IA e gli algoritmi sottostanti spesso si basano su dati, molti dati, per conoscere il nostro mondo. Tecniche di apprendimento automatico, come le reti neurali e gli alberi decisionali, tentano di dedurre tendenze, collegamenti tra concetti e parametri importanti per aiutarli a scegliere le opzioni giuste nelle richieste future. Questi dati non sono un elemento che è stato realizzato ai fini dell'apprendimento automatico. No, la maggior parte dei dati è stata generata da noi, dall'uomo, cliccando su Internet e condividendo le nostre preferenze. Utilizzando i nostri dati per imparare, i sistemi di IA eliminano quindi pregiudizi sistematici già presenti, in una certa misura, nella nostra società. E ciò rende l'attuazione delle tecnologie intelligenti una questione non solo tecnologica, ma anche sociale ed etica. Per questi motivi alcuni ricercatori sostengono che gli ingegneri si nascondono da tempo dietro gli aspetti tecnologici dell'IA, concentrandosi sul miglioramento dei calcoli e trascurando gli effetti che le loro innovazioni potrebbero avere sugli utenti finali. La tecnologia si colloca tra uno sviluppatore e il mondo esterno. Questo articolo descrive tre questioni: discriminazione, responsabilità e logica della scatola nera.

Winter country with 20 telecommunication masts among firs and spruces

Paese invernale con 20 piloni di telecomunicazione tra gli abeti e gli abeti rossi
Credito: Fonte di dominio
pubblico: https://labs.openai.com/

Trattamento della discriminazione e dei pregiudizi 

Proprio come le donne richiedenti di Amazon, le persone appartenenti a gruppi minoritari non rientrano nell'ambito di applicazione effettivo dei sistemi di IA. Il motivo è evidente dal nome: si tratta di persone che formano una minoranza. La loro rappresentazione nei dati sarà limitata e l'algoritmo non imparerà le caratteristiche specifiche che rappresentano tali persone. Come gli esseri umani, i sistemi ottengono risultati peggiori con conoscenze limitate. Risultato: le persone di colore nero sono etichettate come scimmie dal software intelligente di lettura delle immagini di Google o come più pericolose in un sistema automatico di valutazione del rischio di recidiva. Semplicemente perché il software è stato addestrato su immagini contenenti individui bianchi (e forse gorillas).

Gli esperti in materia di dati sono a conoscenza di questo problema e esistono già tecniche per migliorare le prestazioni. Ad esempio, adeguando la serie di dati in modo che i gruppi minoritari siano meglio rappresentati. Oppure aggiungendo una fase supplementare nel processo di apprendimento automatico per perfezionare il modello.

E per rendere la discussione ancora più complicata: e se il nostro sistema prevede molto bene i risultati? Supponiamo di sviluppare due algoritmi. Una che individua correttamente una malattia il 80 % del tempo negli individui bianchi, ma solo il 60 % del tempo in individui di colore. E una seconda che individua correttamente una malattia solo per il 60 % del tempo, indipendentemente dal contesto. Dovremmo quindi adoperarci a favore dell'uguaglianza e dell'algoritmo peggiore? Anche se la discriminazione potrebbe potenzialmente salvare più persone bianche? È qui che entrano in gioco considerazioni etiche.

Il nostro scienziato di dati è diventato una persona che ha plasmato la fede di un milione di altri e deve improvvisamente rendere difficili considerazioni etiche. Dilemmi etici ai quali non è ancora stata data risposta nel dibattito pubblico. Non possiamo aspettarci che gli ingegneri prendano queste decisioni, né dovremmo volerle. Sono necessari regolamenti per orientare la progettazione del software.

Artificial Intelligence is a good servant but a bad master

L'intelligenza artificiale è un buon funzionario, ma un cattivo master.
Credito: Stop 5G Team

Responsabilità e responsabilità

Nella nostra società, le persone sono ritenute responsabili dei loro atti. Con i sistemi intelligenti è difficile individuare il colpevole. Soprattutto se i sistemi sono complessi e di autoapprendimento. Gli ingegneri non sono sempre in grado di prevedere ciò che il sistema imparerà o come si comporterà. Amazon probabilmente non intendeva mettere in pericolo le ricorrenti di sesso femminile, né Google ha consapevolmente posto i maschi in cima ai risultati della ricerca. Solo dopo aver introdotto il sistema nel mondo, queste conseguenze si sono manifestate. Ma chi dobbiamo accusare? La società ha utilizzato tali sistemi, pur non avendo fondati motivi per dubitare in anticipo della qualità del sistema. O l'impresa che ha costruito il sistema di vendita di un prodotto che si è rivelato discriminante.

Le innovazioni sono sempre state perturbate e non prive di rischi. Chiedono adeguamenti nella nostra società e nel nostro sistema giudiziario. Prendere l'automobile. Nei primi giorni, un'automobile è stata autorizzata a circolare liberamente nelle città senza cinture di sicurezza, airbag e segnaletica stradale. Fino a quando il numero di vittime era in rapida crescita e le strade diventavano irragionevoli. Sono stati necessari nuovi orientamenti e regolamenti per razionalizzare la nuova tecnologia nell'infrastruttura esistente. Pochi hanno previsto che l'automobile sarebbe diventata così pericolosa per la folla camminante. Regolamentando l'uso, abbiamo potuto aumentare la sicurezza sfruttando al tempo stesso i vantaggi di questo nuovo tipo di trasporto. Oggi non possiamo immaginare un mondo senza trasporti motorizzati.

Come nel caso delle automobili, vietare i sistemi di IA per le loro prime conseguenze pericolose sarebbe troppo miope. I sistemi di IA possono produrre, e stanno già producendo, un impatto positivo sulla nostra società. Tuttavia, a questo punto, i sistemi di IA sono sviluppati e scaricati nella nostra vita quotidiana senza "cinture di sicurezza" o altre salvaguardie. È importante pensare in modo critico a come vogliamo che l'IA esista nella nostra società. Aprire la conversazione su come aumentare la sicurezza di questi sistemi o ridurre i danni in caso di risultati imprevisti.

Image showing a man waving a red flag for pedestrians to warn them of cars and a robot holding a red flag to warn about Artificial Intelligence

Il "red flag
Credito": Stop 5G Team

Scatola nera

La motivazione del regolamento generale sulla protezione dei dati afferma che le persone hanno il diritto di vedere i motivi in base ai quali sono state prese le decisioni, quali dati vengono raccolti e come tali dati saranno utilizzati. Questa legge relativamente nuova è stata un passo nella giusta direzione, ma è lungi dall'essere una soluzione adeguata per stabilire la vita privata o rispettare i diritti civili. Quando visitano un sito Internet, gli utenti devono spesso far fronte a grandi quantità di testi che spiegano in modo vago quali dati personali vengono raccolti. E nella maggior parte dei casi è difficile rifiutare qualsiasi cookie o cliccare su più pop-up. Le imprese stanno seguendo i vincoli imprescindibili del regolamento generale sulla protezione dei dati e non rendono facile per le persone fisiche controllare i propri dati. Riteniamo pertanto che il regolamento generale sulla protezione dei dati sia un'iniziativa ingenua che dimostra la fame di dati delle imprese online.

Tuttavia, anche se le imprese fossero più disposte a condividere la raccolta e l'utilizzo effettivi dei dati personali, non sempre sono pienamente in grado di farlo. Molti sistemi intelligenti funzionano come le scatole nere: l'inserimento in lotti di dati e il sistema darà un certo risultato a seconda delle caratteristiche dei dati. Negli ultimi anni gli ingegneri hanno preferito questi sistemi a scatola nera. Tali sistemi avevano un elevato potenziale di apprendimento di concetti più complessi come la lingua o le immagini. Esempi famosi di sistemi a scatola nera sono le reti neurali, il software di riconoscimento facciale o il software di elaborazione del linguaggio naturale (ad esempio Google Translate). Gli ingegneri hanno il controllo di alcuni parametri, ma non hanno alcuna conoscenza del tipo di informazioni che questi sistemi stanno imparando o deducendo dai dati. Solo controllando le prestazioni su nuovi dati un ingegnere può stimare se il sistema ha appreso cosa avrebbe dovuto fare. Un ingegnere potrebbe, ad esempio, inserire una serie di nuove immagini per vedere se il sistema è in grado di interpretarle. Tuttavia, come abbiamo visto in precedenza, se l'ingegnere non ha testato il sistema in modo sufficientemente approfondito, le foto di persone di colore potrebbero essere interpretate come quelle delle scimmie. Gli ingegneri di Google avrebbero potuto sapere di questo errore? Bene, se avessero testato il software su una serie di fotografie di persone di colore, avrebbero potuto avere. Ma le foto possono contenere qualcosa. E sarebbe molto difficile verificare il sistema su tutto.

Più efficiente sarebbe verificare il tipo di cose che il software ha appreso. Se l'algoritmo Google è in grado di dirci il tipo di misure che intraprende per ottenere un'interpretazione, gli ingegneri potrebbero verificare tale ragionamento e stimare probabili eccezioni o casi di errore. Per questo motivo i membri della comunità scientifica chiedono approcci più comprensibili all'apprendimento automatico. Gli algoritmi di scatola nera non sono ancora all'altezza del loro potenziale e non sono necessariamente migliori di algoritmi più comprensibili.

Il vantaggio interpretativo di questi algoritmi comprensibili è maggiore del vantaggio in termini di prestazioni atteso dagli algoritmi di scatola nera. Solo se sappiamo cosa accadrà, possiamo interferire o adeguare di conseguenza.

Analytics Information by Reto Scheiwiller

Guardare la scatola nera
Credito: Stop 5G Team

Conclusione

L'IA e il software intelligente sono piuttosto onnipresenti nella vita moderna. Influenzare i processi decisionali delle imprese e mostrare pregiudizi nei confronti dei gruppi minoritari. Non comprendiamo appieno il funzionamento dell'intelligenza artificiale, il suo impatto su di noi e gli effetti a lungo termine.

Ai cittadini dell'UE non è stato chiesto se accettino le conseguenze sociali pervasive degli strumenti decisionali guidati dall'intelligenza artificiale in nome del progresso tecnologico e della digitalizzazione.

Pertanto, nell'ICE "Stop (((5G)) — Stay Connected but Protected" chiediamo una regolamentazione più rigorosa per proteggere i cittadini dalle violazioni della vita privata e dalla discriminazione derivanti dall'uso incontrollato del sistema di IA nel processo decisionale nelle proposte 19, 21 e 22 dell'ICE.

E non siamo soli:

  • Il comitato europeo per la protezione dei dati non accoglie con favore nuove proposte legislative della Commissione europea che agevoleranno l'uso e la condivisione dei dati (personali) tra un maggior numero di soggetti pubblici e privati. Secondo il comitato europeo per la protezione dei dati, ciò avrà "unimpatto significativo sulla protezione dei diritti fondamentali alla vita privata e alla protezione dei dati personali".
  • Il Consiglio europeo sottolinea l'importanza di un approccio antropocentrico alla politica in materia di IA. Pensare a questioni quali un processo decisionale distorto e opaco che incide sui diritti umani fondamentali dei cittadini.
  • Lo studio preliminare dell'UNESCO sull'etica dell'intelligenza artificiale, a pagina 10, afferma che"è più importante... istruire i futuri ingegneri e scienziati informatici per una progettazione eticamente allineata dei sistemi di IA".
  • Un'altra iniziativa dei cittadini europei denominata Reclaim Your Face ha chiesto il divieto dell'uso di IA dannosa, come la sorveglianza di massa biometrica e il riconoscimento facciale.
  • Già nel 1942 Isaac Asimov prevedeva i problemi e dichiarava tre leggi della robotica. La prima legge prevede che un robot non danneggi un essere umano. Comeillustrato in questo articolo, siamo ben lontani da questo.

 

 

Stop 5G - Blog Post Author

Partecipanti

Amar van Uden

Amar van Uden è uno scrittore dell'iniziativa dei cittadini europei (ICE) "Stop ((5G)) — Stay Connected but Protected". Amar, proveniente dai Paesi Bassi, studia l'intelligenza artificiale.

Lascia un commento

Per poter aggiungere un commento, occorre autenticarsi o registrarsi.