Ir para o conteúdo principal
Fórum da Iniciativa de Cidadania Europeia

Os Europeus para Ligações Seguras apelam a uma regulamentação mais rigorosa da inteligência artificial no processo decisório

Atualizado em: 24/01/2023

Os europeus para ligações seguras são uma coligação de organizações nacionais e internacionais que estão cientes das consequências negativas das modernas tecnologias da comunicação. Salientamos que não estamos contra a tecnologia, mas sim a favor de tecnologias seguras e de ligações seguras.

Durante um ano da nossa campanha, tivemos ensinamentos que podem ser úteis para os futuros organizadores. Em primeiro lugar, se ouvires essa verdadeira voz no seu coração, dizendo-te para mudar o mundo para melhor para todos: siga essa voz, lute e nunca deixe de ter esperança!

se ir com o fluxo, as pessoas vão facilmente consigo e não enfrentará resistência. No entanto, se tiver de ir contra ela, a sua mensagem pode ser necessária, uma vez que a repelação da água no solo necessita de chuvas suaves e persistentes. Embora a UE exija um milhão de assinaturas, é a qualidade das suas ideias que conta.

Na nossa Iniciativa de Cidadania Europeia (ICE) «Stop (((5G)) — Stay Connected but Protected», temos 23 propostas. Entre eles, apelamos a uma melhor regulamentação em matéria de privacidade dos dados e à tomada automática de decisões pela inteligência artificial. Propomos lançar uma avaliação de impacto dos efeitos da tecnologia 5G na proteção de dados pessoais (proposta 19), gostaríamos de ver uma luta ativa contra a discriminação e as violações dos direitos digitais (proposta 21) e consideramos que os cidadãos devem ser informados sobre se os seus dados são tratados através de um procedimento automatizado (proposta 22).

Stop 5G - Logo

Como tudo começou

A inteligência artificial (IA) está há já algum tempo. Já no início de 50 as expectativas eram elevadas em relação às possibilidades infinitas que a tecnologia inteligente proporcionaria à nossa sociedade. Agora, mais de meio século mais tarde, a tecnologia infundida da IA conseguiu decrescer lentamente na nossa vida quotidiana. Embora os robôs humanoides ainda não estejam a caminhar no mundo, dependemos de múltiplas tecnologias complexas na gestão das nossas infraestruturas, nos processos de trabalho e no tempo disponível.

As atuais tecnologias «inteligentes» podem diferir do que os cientistas anteriores designariam máquinas inteligentes de tipo humano. Considerando que Alan Turing definiu inteligência como pensando e agindo como os seres humanos, atualmente os sistemas inteligentes separam a nossa casa com um pensamento limitado. É difícil definir o que é exatamente a IA e o que implica. No entanto, permitiu-nos viver de forma mais eficiente, mais suave e talvez ainda mais agradável.

Mas os inconvenientes da automatização e da robotização infinitas estão também a tornar-se cada vez mais evidentes. Tomemos, por exemplo, as recorrentes da Amazon: rejeitado porque o algoritmo aprendeu a favorecer os homens para as mulheres. Ou o « chatbot Tay» da Microsoft no Twitter que tinha de ser tirado fora de linha porque tinha deduzido algumas «verdades» extremamente racistas a partir de outros tweeters. Ou o facto de as imagens de homens aparecerem principalmente no termo de pesquisa «CEO» na Google.

Podemos pensar que a IA parece retirar o pior dos homens e aprofundar as desigualdades existentes. No entanto, tal poderá ser algo simplista para concluir. Os sistemas de IA e os algoritmos subjacentes dependem frequentemente de dados, muitos dados, para conhecer o nosso mundo. Técnicas de aprendizagem automática, tais como redes neuronais e árvores de decisão, tentam inferir tendências, ligações entre conceitos e parâmetros importantes para os ajudar a escolher as opções adequadas em futuros pedidos. Estes dados não são algo que tenha sido feito em prol da aprendizagem automática. Não, a maioria dos dados foi gerada por nós, por seres humanos, ao mesmo tempo que clicava na Internet e partilhava as nossas preferências. Ao utilizar os nossos dados para aprender, os sistemas de IA eliminam, assim, enviesamentos sistemáticos que já estavam, em certa medida, presentes na nossa sociedade. O que torna a aplicação de tecnologias inteligentes não só uma questão tecnológica, mas também uma questão societal e ética. Por estas razões, alguns investigadores argumentam que os engenheiros se escondem há muito por detrás dos aspetos tecnológicos da IA, centrando-se na melhoria dos cálculos e negligenciando os efeitos que as suas inovações podem ter nos utilizadores finais. A tecnologia coloca-se entre um criador e o mundo exterior. Este artigo descreve três questões: discriminação, responsabilização e lógica da caixa negra.

Winter country with 20 telecommunication masts among firs and spruces

País de inverno, com 20 postes de telecomunicações entre as firmas e os abetos
Crédito: Fonte do domínio
público: https://labs.openai.com/

Discriminação e tratamento de enviesamentos 

Tal como as candidatas da Amazon, as pessoas de grupos minoritários não são abrangidas pelo âmbito de aplicação real dos sistemas de IA. A razão é evidente pelo nome: trata-se de pessoas que constituem uma minoria. A sua representação nos dados será limitada e o algoritmo não aprenderá as características específicas que representam essas pessoas. Tal como os seres humanos, os sistemas têm um desempenho pior com conhecimentos limitados. Conclusão: os indivíduos negros são rotulados como apos pelo software inteligente de leitura de imagens da Google ou como mais perigosos num sistema automático de avaliação dos riscos de reincidência. Simplesmente porque o software foi formado em imagens que continham indivíduos brancos (e talvez gorillas).

Os cientistas de dados têm conhecimento deste problema e já existem técnicas para melhorar o desempenho. Por exemplo, ajustando o conjunto de dados de modo a que os grupos minoritários estejam mais bem representados. Ou acrescentando uma etapa adicional no processo de aprendizagem automática para finetunar o modelo.

E tornar o debate ainda mais complicado: o que acontece se o nosso sistema prever resultados muito bem. Suponhamos que desenvolvemos dois algoritmos. Um que deteta corretamente uma doença 80 % do tempo em indivíduos brancos, mas apenas 60 % do tempo em indivíduos de cor. E uma segunda que deteta corretamente uma doença apenas 60 % do tempo, independentemente do contexto. Devemos, então, lutar pela igualdade e adotar o algoritmo pior? Apesar de o discriminador poder potencialmente salvar mais indivíduos brancos? É aqui que as considerações éticas são tidas em conta.

O nosso cientista de dados acabou por se tornar uma pessoa que molda a confiança de um milhão de outros e tem de fazer subitamente considerações éticas difíceis. Dilemas éticos que ainda não obtiveram resposta no debate público. Não podemos esperar que os engenheiros tomem essas decisões, nem queremos que elas sejam. É necessária regulamentação para orientar a conceção do software.

Artificial Intelligence is a good servant but a bad master

Ainteligência artificial é um bom pessoal, mas um mau domingo.
Créditos de imagem: Paragem da equipa 5G

Responsabilização e responsabilidade

Na nossa sociedade, os indivíduos são responsabilizados pelos seus atos. Com os sistemas inteligentes, é difícil identificar o culto. Especialmente se os sistemas forem complexos e autoaprendizagem. Os engenheiros nem sempre podem prever o que o sistema irá aprender ou como se comportará. Provavelmente, a Amazon não tencionava pôr em risco as recorrentes do sexo feminino, nem colocou conscientemente os machos no topo dos resultados da pesquisa. Estas consequências só apareceram depois de o sistema ser colocado no mundo. Mas quem é a nossa responsabilidade? A empresa utilizava estes sistemas, apesar de não ter motivos razoáveis para duvidar previamente da qualidade do sistema. Ou a empresa que construiu o sistema de venda de um produto que se revelou discriminatório.

As inovações têm sido sempre perturbadoras e não estão isentas de riscos. Solicitam adaptações na nossa sociedade e no nosso sistema judicial. Apanhe o automóvel. Nos primeiros dias, um automóvel foi autorizado a circular livremente nas cidades sem cintos de segurança, almofadas de ar e sinalização rodoviária. Até que o número de vítimas estivesse a crescer rapidamente, as ruas tornaram-se inafáveis. Foram necessárias novas orientações e regulamentos para racionalizar a nova tecnologia nas infraestruturas existentes. Poucos previam que o automóvel se tornaria tão perigoso para a multidão a pé. Ao regular a utilização, conseguimos aumentar a segurança, aproveitando simultaneamente os benefícios deste novo tipo de transporte. Hoje em dia, dificilmente podemos imaginar um mundo sem transportes motorizados.

Tal como acontece com os automóveis, a proibição dos sistemas de IA pelas suas implicações inicialmente perigosas seria demasiado curta. Os sistemas de IA podem produzir, e já estão a produzir, um impacto positivo na nossa sociedade. No entanto, neste momento, os sistemas de IA são desenvolvidos e colocados no nosso quotidiano sem «cintos de segurança» ou outras salvaguardas. É importante refletir de forma crítica sobre a forma como queremos que a IA exista na nossa sociedade. Abrir o debate sobre a forma como podemos aumentar a segurança destes sistemas ou reduzir os danos em caso de resultados inesperados.

Image showing a man waving a red flag for pedestrians to warn them of cars and a robot holding a red flag to warn about Artificial Intelligence

Osinal de alerta «
Crédito»: Paragem da equipa 5G

Caixa preta

A justificação do RGPD estabelece que as pessoas têm o direito de ver os motivos com base nos quais as decisões foram tomadas, que dados são recolhidos e como esses dados serão utilizados. Esta lei relativamente nova tem sido um passo na direção certa, mas está longe de ser uma solução adequada para estabelecer a privacidade ou aderir aos direitos civis. Ao visitar um sítio Internet, os utilizadores são frequentemente confrontados com grandes quantidades de texto que explicam de forma vaga os dados pessoais recolhidos. E, na maior parte do tempo, é difícil rejeitar quaisquer testemunhos de conexão ou tem de clicar em torno de várias janelas instantâneas. As empresas estão a cumprir os condicionalismos do RGPD e não facilitam a supervisão dos seus próprios dados pelas pessoas singulares. Por conseguinte, consideramos que o RGPD é uma iniciativa ingénua que mostra a fome para os dados das empresas em linha.

Mas mesmo que as empresas estivessem mais dispostas a partilhar a verdadeira recolha e utilização de dados pessoais, nem sempre estão plenamente em condições de o fazer. Muitos sistemas inteligentes funcionam como caixas negras: colocar em lotes de dados e o sistema dará um determinado resultado em função das características dos dados. Nos últimos anos, os engenheiros privilegiaram estes sistemas de caixa negra. Estes sistemas tinham um elevado potencial de aprendizagem de conceitos mais complexos, como a língua ou as imagens. Exemplos famosos de sistemas de caixa negra são redes neuronais, software de reconhecimento facial ou software de processamento de linguagem natural (por exemplo, Google Translate). Os engenheiros têm controlo sobre alguns parâmetros, mas não têm qualquer conhecimento do tipo de informação que estes sistemas estão a aprender ou a inferir dos dados. Só verificando o desempenho dos novos dados é que um engenheiro pode estimar se o sistema aprendeu o que era suposto. Um engenheiro pode, por exemplo, introduzir um conjunto de novas imagens para ver se o sistema é capaz de as interpretar. Mas, como vimos anteriormente, se o engenheiro não tiver testado suficientemente o sistema, as fotografias de pessoas de cor podem ser interpretadas como as de apos. Poderiam os engenheiros da Google ter tido conhecimento deste erro? Bem, se tivessem testado o software num conjunto de fotografias de pessoas de cor que poderiam ter. Mas as fotografias podem conter alguma coisa. E seria muito difícil verificar o sistema em tudo.

Mais eficiente seria verificar o tipo de coisas que o software aprendeu. Se o algoritmo Google nos puder indicar que tipo de medidas se compromete a obter uma interpretação, os engenheiros podem verificar este raciocínio e estimar possíveis exceções ou casos de erro. É por esta razão que os membros da comunidade científica têm vindo a apelar a abordagens mais compreensíveis para a aprendizagem automática. Os algoritmos de caixa negra ainda não atingiram o seu potencial e não são necessariamente melhores do que os algoritmos mais compreensíveis.

A vantagem de interpretabilidade destes algoritmos compreensíveis é maior do que a vantagem de desempenho esperada dos algoritmos de caixa negra. Só se soubermos o que está em curso poderemos interferir ou adaptar-nos em conformidade.

Analytics Information by Reto Scheiwiller

Ver a caixa negra
Crédito: Paragem da equipa 5G

Conclusão

A IA e o software inteligente estão bastante omnipresentes na vida moderna. Influenciar os processos de tomada de decisão nas empresas e apresentar enviesamentos em relação a grupos minoritários. Tudo isto, embora não compreendemos plenamente como funciona a inteligência artificial, como está a afetar-nos e quais serão os efeitos a longo prazo.

Não foi perguntado aos cidadãos da UE se aceitam as consequências societais generalizadas dos instrumentos de tomada de decisão orientados para a inteligência artificial em nome do progresso tecnológico e da digitalização.

Por conseguinte, na ICE «Stop ((((5G)) — Stay Connected but Protected», apelamos a uma regulamentação mais rigorosa para proteger os cidadãos das violações da privacidade e da discriminação em resultado da utilização descontrolada do sistema de IA no processo de tomada de decisão na proposta 19, na proposta 21 e na proposta 22 da ICE.

E não somos sozinhos:

  • O Comité Europeu para a Proteção de Dados não concorda com novas propostas legislativas da Comissão Europeia que facilitem a utilização e a partilha de dados (pessoais) entre mais entidades públicas e privadas. De acordo com o Comité Europeu para a Proteção de Dados,tal terá «um impacto significativo na proteção dos direitos fundamentais à privacidade e à proteção dos dados pessoais».
  • O Conselho Europeu salienta a importância de uma abordagem da política de IA centrada no ser humano. Pense em questões como a tomada de decisões tendenciosas e opacas que afetam os direitos humanos fundamentais dos cidadãos.
  • O estudo preliminar da UNESCO sobre a ética da inteligência artificial, na página 10, afirmaque «é mais importante... educar futuros engenheiros e cientistas informáticos para uma conceção eticamente alinhada dos sistemas de IA».
  • Outra iniciativa de cidadania europeia (ICE) intitulada «Reclaim Your Face» exigiu a proibição da utilização de IA nociva, como a vigilância biométrica em massa e o reconhecimento facial.
  • Já em 1942, Isaac Asimov previu os problemas e declarou três leis sobre robótica. A primeira lei é que um robô não deve prejudicar um ser humano. Talcomo demonstrado neste artigo, estamos longe de o fazer.

 

 

Stop 5G - Blog Post Author

Participantes

Amar van Uden

Amar van Uden é autor da Iniciativa de Cidadania Europeia (ICE) «Stop (((5G)) — Stay Connected but Protected». Amar é oriundo dos Países Baixos e estuda a inteligência artificial.

Deixar um comentário

Para poder adicionar comentários, tem de se autenticar ou registar.
Declaração de exoneração de responsabilidade: As opiniões expressas no Fórum ICE refletem exclusivamente o ponto de vista dos seus autores, não refletindo necessariamente a posição da Comissão Europeia ou da União Europeia.
Pronto para registar a sua iniciativa?

Deseja apoiar uma iniciativa? Precisa de saber mais sobre iniciativas em curso ou passadas?