A
A
Imagem de um homem numa ponte suspensa

Inteligência artificial: inovação com precaução

São cada vez mais evidentes os riscos das novas tecnologias que usam inteligência artificial (IA), não só de conteúdos e imagens falsos, mas de manipulação emocional que já conduziu a casos de suicídio. Até ao final do mês, o Parlamento Europeu deverá pronunciar-se sobre a nova lei europeia para a IA, que terá ainda de ser negociada com o Conselho Europeu e a Comissão. A urgência do momento é clara, e é preciso refletir sobre o que queremos, defende neste artigo a jurista Teresa Anjinho.
13 min

Um belga com cerca de trinta anos, casado e com dois filhos, cometeu suicídio na sequência de uma conversa, que durou cerca de seis semanas, com um ‘chatbot’ chamado ELIZA. Um ‘chatbot’ que usa GPT-J, um modelo de linguagem artificial open source desenvolvido por EleutherAI. Com atraso e dramatismo, mas não sem avisos prévios, foram acionados os alarmes sobre riscos de manipulação e inteligência artificial (IA).

A popularização do ‘ChatGPT’, e da própria IA, tem levado a muitos alertas sobre os riscos destas novas tecnologias, como os chatbots que utilizam o modelo LLM (‘Large Language Model’), capaz de simular interações humanas e produzir conteúdos, mas também sobre os chamados deep fakes, um tipo de IA capaz de criar imagens falsas, bem como registos de vídeo e som que testam a perceção da realidade das pessoas mais atentas ou perspicazes.

Recentemente, a própria Europol lançou uma chamada de atenção que alerta a população para a possível utilização criminosa destes programas. É o caso do phishing, com textos que reproduzem na perfeição estilos de escrita de grupos e indivíduos, roubando facilmente todo o tipo de dados. Mas também o cibercrime e perigosas ações de desinformação. Valerá a pena ler o relatório desta agência, intitulado ‘ChatGPT - the impact of Large Language Models on Law Enforcement’.

As vozes de precaução sobre estes modelos de inteligência artificial não têm tido grande visibilidade, principalmente por poderem facilmente ser conotadas com os ‘velhos do restelo’ da era digital.

Como seria de prever, estas vozes de precaução não têm tido grande visibilidade, principalmente quando podem ser facilmente conotadas com os ‘velhos do restelo’ da era digital.

As potencialidades, realçadas pelas últimas inovações, são impressionantes, havendo todo um fascínio que pode justificar a ausência de vontade de precaução ou abrandamento e que nos relembra o lema de Silicon Valley, atribuído a Mark Zuckerburg, “move fast and break things”.

Estamos perante o que Mo Gawdat, autor do livro Scary Smart (2020), ex-líder do Google X, laboratório de inovação do Google, rotulou de império dos ‘egos’, que nos desvia a atenção dos riscos possíveis, ou de uma análise cuidada de custos/benefícios.

Curiosamente, não deixa de ser digno de nota como a Meta/Facebook, que tem estado no centro de diferentes escândalos relacionados com pirataria, desinformação e conteúdos perigosos, tem vindo a tentar distanciar-se deste mote (atualmente é Move fast. Be yourself), considerado por muitos como a ‘prova provada’ da tendência da empresa para comportamentos alheios a padrões de sustentabilidade empresarial.

Nunca é tarde para refletir sobre o que queremos. O possível pode não ser desejável.

Veja-se o exemplo das armas nucleares. Quando a humanidade acordou para os seus efeitos destrutivos abriram-se rapidamente as portas a acordos internacionais para parar o seu desenvolvimento e potencial uso. Não tendo efetivamente parado, como bem sabemos, a verdade é que abrandou o seu ritmo de desenvolvimento, redirecionando investimentos e definindo uma ordem que tem por base decisões participadas, sustentadas em valores.

Tal como descreve num artigo recente do professor Catedrático do Instituto Técnico Superior Arlindo Oliveira, no jornal Público, não me parece que estejamos a avançar rumo a uma singularidade tecnológica, que torna impossível no futuro a continuação da sociedade, mas também não me parece que o desenvolvimento vá estagnar. Logo, se a sociedade se vai manter e sabemos que seguramente não será a mesma, o Direito, enquanto regulador da vida social, tem de se adaptar, convocando as normas sem se dissociar, contudo, dos sinais da realidade.

Valerá a pena ler um relatório  recente da Goldman Sachs sobre o impacto da IA na economia e na sociedade. Apesar das parangonas catastróficas relacionadas com o facto de a IA generativa poder colocar em causa 300 milhões de empregos globalmente, há conclusões interessantes sobre um possível papel complementar da IA e o aparecimento de novas ocupações.

Este não é um percurso fácil, do ponto de vista técnico, nem do político. Todavia, tendo em conta as implicações morais, éticas e sociais que começamos a conhecer associadas à IA, principalmente nas suas formas mais avançadas de deep learning, que torna os softwares muito mais imprevisíveis, este é um exercício obrigatório.

A tragédia que aconteceu na Bélgica reflete a face mais extrema do risco de manipulação emocional através destas tecnologias, havendo outros exemplos que ilustram em menor escala o mesmo risco. Para quem tem interesse, há uma lista chamada de Awful AI, criada em 2018 para estimular a discussão em torno do tema das tecnologias responsáveis, que consite numa listagem de várias aplicações de IA com riscos conhecidos associados.

Tomos somos vulneráveis, mesmo que alguns grupos mais do que outros. É o caso das crianças e das pessoas socialmente mais isoladas ou com problemas de saúde mental, cuja proteção aparenta ter enormes fragilidades.

Se queremos explorar e aproveitar ao máximo os benefícios destas inovações, é urgente encontrar um maior equilíbrio entre inovação e precaução. O caminho da regulação, não sendo a única via, é importante. Para os consumidores em geral, mas também para as próprias empresas, que necessitam de estabilidade e confiança. Atualmente, a capacidade de abrangência ou alcance destes sistemas, juntamente com a ausência de um mecanismo claro de responsabilização, obriga a que se atue.

A União Europeia está há dois anos a trabalhar uma Lei para a IA, que passará a classificar os sistemas de IA de acordo com diferentes níveis de risco, definidos em função da proposta de uso e de uma potencialidade de dano, impondo-se regras mais rigorosas aos sistemas ditos de ‘risco elevado’. A posição do Parlamento Europeu deve ser conhecida até final de maio, momento a partir do qual começa o chamado trílogo, ou seja, as negociações com o Conselho Europeu e a Comissão.

A tragédia que aconteceu na Bélgica reflete a face mais extrema do risco de manipulação emocional através destas tecnologias (...) Tendo em conta as implicações morais, éticas e sociais associadas à IA, principalmente nas formas mais avançadas de «deep learning», que torna os softwares muito mais imprevisíveis, este é um exercício obrigatório.

Um dos pontos mais sensíveis é o enquadramento dos sistemas de IA de ‘general purpose’ e generativos, como o Chat GPT. A proposta original, centrada essencialmente na denominada IA estreita (‘narrow AI’), não os classifica como sendo de ‘risco elevado’, sujeitando-os apenas a uma obrigação de transparência, que consiste em informar as pessoas de que estão a interagir com um sistema de IA, ou que certo conteúdo foi gerado artificialmente, como acontece com os ‘deep fakes’.

Ora, o que aparenta ser uma lacuna é, na verdade, o maior problema que os legisladores enfrentam: a imprevisibilidade do futuro tecnológico. Recorde-se que o ChatGPT, que conta hoje com milhões de usuários, e está por detrás de toda esta discussão, apenas foi lançado em novembro de 2022.

Segundo o noticiado, e na sequência de todos estes acontecimentos, o Parlamento Europeu está agora a ponderar introduzir novas alterações na proposta de regulamentação, nomeadamente integrando os textos gerados por IA e os deep fakes na lista das categorias de risco elevado.

Mas a pergunta mantém-se. Considerando o que já sabemos – e sabemos pouco - sobre as potencialidades desta tecnologia, que difere das formas tradicionais de sistemas de IA essencialmente pela impossibilidade de definição de um uso específico e a escala que pode alcançar, será possível aprovar uma lei adequada a este tipo de IA generativa?

Refletir sobre o critério da adequação e da razoabilidade destas medidas legislativas é fundamental, isto se desejamos alcançar o equilíbrio e evitar um desnecessário, porquanto ineficaz, excesso de regulamentação. Já para não falar no efeito negativo que pode ter no campo da economia, numa altura em que EUA e China assumem destacada liderança.

Melhor ainda, recupero a interrogação feita pelo Professor Arlindo Oliveira numa conferência que ocorreu recentemente: «Até que ponto é que a Europa consegue conciliar a defesa dos valores dos cidadãos e a segurança com a criação de um ambiente propício aos negócios e ao digital?»

Estando sempre em causa uma escolha política democrática, que discute, pondera e equilibra necessidades e valores, nunca é demais realçar a falácia de que um bom quadro regulatório é inversamente proporcional à inovação. Muito pelo contrário, um bom quadro regulatório pode criar confiança e com isto um ambiente de maior certeza e segurança capaz de servir de catalisador do progresso.

Os esforços empreendidos no quadro europeu estão a ser positivos. É certo que as dúvidas que permanecem, em particular quanto aos sistemas de IA de ‘general purpose’ e generativos, terão certamente de impor maior reflexão, até porque desafiam a abordagem baseada no risco subjacente ao diploma europeu.

A propósito, alguns especialistas têm mesmo começado a defender a criação de uma categoria própria para estes sistemas, bem como ponderar a possibilidade de eventualmente se impor aos fornecedores uma obrigação geral de monitorização de riscos sistémicos, à semelhança do que consta da Lei dos Serviços Digitais para os fornecedores de plataformas e motores de pesquisa em linha de muito grande dimensão. Uma outra abordagem, chama igualmente à atenção para a importância de uma melhor definição das regras contratuais entre fornecedores e usuários.

A urgência do momento é clara. Só isso explica a carta, assinada por Elon Musk, empresários, académicos e milhares de pessoas, pedindo às empresas que interrompam o desenvolvimento, por um período de seis meses, de modelos mais avançados do que o GPT-4.

Seja qual for a solução final, há um processo em marcha. Contudo, tendo conta os tempos da europa, a verdade é que a Lei da IA, na melhor das hipóteses, apenas entrará em vigor em 2025, colocando um problema claro de timing.

Paralelamente, no Conselho da Europa (CoE), o Comité de Inteligência Artificial (CAI) continua a trabalhar numa proposta de Convenção para a Inteligência Artificial , Direitos Humanos, Democracia e Estado de Direito

Havendo uma certa sobreposição com a proposta de Lei da IA da UE, ambos os instrumentos têm uma importante nota de complementaridade. Naturalmente que a Convenção, entre estados-membros do CoE, com estatuto de observador e estados participantes, como o Canadá, os EUA e o Japão, tem uma abrangência geográfica muito maior, o que é interessante, sendo pela sua própria natureza mais baseada em princípios gerais. É também de destacar, dentro de um objetivo principal de prevenção e mitigação de riscos, a apresentação de uma interessante metodologia e modelo de implementação para as avaliações de impacto e de risco em matéria de direitos humanos, democracia e Estado de Direito (HUDERIA – Human Rights, Democracy and the Rule of Law Risk and Impact Assessment).

Mais um passo legislativo importante, mas que também levará tempo a entrar em vigor: prevê-se que o texto esteja finalizado em setembro, para ser submetido ao Comité de Ministros em novembro de 2023.

Enquanto isto, não só os riscos se tornam maiores ou mais visíveis, como há países que avançam mais rapidamente. Por exemplo, o Reino Unido, aproveitando o facto de já não fazer parte da União Europeia, acabou de publicar um ‘white paper’ sobre IA, que tem o título ‘Uma abordagem pró-inovação para a regulação da IA’. Assumindo expressamente o objetivo de potenciar inovações responsáveis e combater a incerteza regulatória, sem excluir um futuro enquadramento legal, propõe uma estratégia mais flexível, baseada em princípios, em parcerias com as empresas do setor e no reforço do papel dos reguladores. Uma forma sem dúvida inteligente deste país se posicionar como líder global em IA e tentar garantir um lugar à mesa das conversações na definição do modelo de governance e regulação a adotar.

A urgência do momento é clara. Só isso explica que, em março, o Instituto ‘Future of Life (IFL) tenha lançado uma carta, subscrita por milhares de pessoas, entre empresários e académicos conhecidos, como Elon Musk, pedindo às empresas que interrompam o desenvolvimento, por um período de seis meses, de modelos mais avançados do que o GPT-4, que é o modelo mais recente de linguagem (LLM) da OpenAI, por detrás do chatbot ChatGPT .

Dizem os autores que esta pausa é fundamental para uma reflexão sobre como prosseguir de forma mais segura. Nomeadamente, por parte dos próprios promotores desta tecnologia, que têm manifestado publicamente diversas preocupações. Numa clara tentativa de acelerar a vontade política, são sugeridas várias propostas em matéria de governance, o que só por si demonstra a natureza meramente simbólica do tempo de suspensão proposto.

Muito embora sem grandes consequências práticas, a verdade é que nunca se falou tanto de riscos e segurança. A UNESCO, que em 2021 tinha aprovado por unanimidade o documento “Recomendação sobre a Ética da Inteligência Artificial”, aproveitou imediatamente a oportunidade e apelou à sua implementação urgente, salientando precisamente que o mundo precisa de regras éticas mais fortes em matéria de IA e que este enquadramento oferece as garantias necessárias.

Na aparente dicotomia entre ética e direito, é interessante recordar que nos primeiros tempos da IA, o debate sobre uma possível regulamentação tinha como foco essencialmente a dimensão ética do uso dos dados. Uma abordagem apoiada por muitos na indústria da IA, até porque a flexibilidade de um modelo de autorregulação baseado em princípios éticos, numa altura de grande incerteza sobre o impacto da tecnologia, era mais fácil de alinhar com a linguagem predominante da cultura empresarial.

Também a Comissão Europeia, no âmbito da Estratégia Europeia para a Inteligência Artificial, começou por publicar em 2019 um conjunto de orientações éticas para uma IA de confiança, da autoria de um grupo de peritos de alto nível, na sequência do qual foram depois adotadas outras iniciativas, que conduziram à proposta de Lei de IA.

Esta abordagem centrada na ética, que inclusivamente levou à adoção por parte de muitas empresas de princípios de ética, códigos e até à criação interna de conselhos para a ética, para além do mérito de ter iniciado a discussão em torno da aceitação social destas tecnologias, não é de todo anuladora de uma estratégia legal centrada na gestão do risco e nos direitos humanos, subjacente aos diplomas em discussão no quadro europeu.

Em suma, há de facto todo um espaço para discutir e refletir, com ideias e com propostas que devemos conhecer. Nunca é tarde para o fazer, contudo, temos de ser mais rápidos. Há toda uma vida que avança de forma exponencial. Sem pausas. Todos os dias conhecemos novas aplicações: o Ministério da Justiça, por exemplo, anunciou que vai usar tecnologia do ChatGPT para responder a perguntas de cidadãos relacionadas com justiça familiar, casamento e divórcio.

Pelo que, não podemos deixar que o perfeito seja inimigo do bom. Independentemente da transposição futura da lei aprovada na UE, que conhecemos nas suas linhas principais, desde a proteção de dados ao Direito do Consumo, os Estados têm estruturas e leis que se aplicam e que podem ser reforçadas ou repensadas. Nomeadamente, no âmbito das entidades reguladoras. Mais, também não nos podemos esquecer que a promoção e a proteção dos direitos fundamentais não se esgotam no Direito, cuja eficácia em muito depende de ações empreendidas noutras áreas, como no quadro das políticas públicas, ou das próprias políticas empresariais.

Por esta razão, termino replicando aqui o apelo sensato feito por um grupo de professores belgas, que conscientes das limitações e riscos da atual estratégia e estado da arte e continuando a defender a necessidade de instrumentos legais, fazem um apelo urgente à adoção de outras  medidas:

  • reforço das ações de consciencialização dirigidas a usuários e especialistas em tecnologia;
  • maior implementação de avaliações de impacto ex ante, capazes de identificar, testar e corrigir alguns riscos;
  • acelerar a investigação sobre o impacto da IA nos direitos fundamentais;
  • e garantir a realização de um debate público alargado sobre o papel que queremos dar à IA.

Acrescentaria que é também fundamental investir na literacia e espírito critico da população, de modo que, sempre que instados a reportar possíveis problemas pelos próprios serviços fornecedores, que encontraram aqui uma medida de mitigação, possamos todos, de forma consciente, identificar os riscos a que estamos sujeitos mas também contribuir positivamente para uma evolução tecnológica ‘ética e responsável’.

Inovar, sim, com precaução.

Portuguese, Portugal