REGULAMENTAÇÃO DE IA DEVE DURAR BASTANTE SEM PRECISAR DE ATUALIZAÇÕES, DIZ CUEVA
O Brasil pode estar "perdendo o bonde da História" se não regulamentar a inteligência artificial (IA) o quanto antes. É o que pensa o ministro Ricardo Villas Bôas Cueva, do Superior Tribunal de Justiça. Para ele, uma lei aprovada agora duraria entre dez e 15 anos até ser reformada. Mas, nesse período, a regulação setorial se tornaria mais importante e talvez a norma geral não precisasse ser muito alterada.
Ricardo Villas Bôas Cueva, ministro do STJ e chefe da comissão no Senado sobre IADivulgação
Cueva chefiou uma comissão de juristas instalada no Senado no último ano para discutir o projeto de regulamentação da IA no país. O relatório final foi entregue em dezembro e incluiu temas como a proteção à discriminação e a aplicação da tecnologia no Judiciário.
Ao jornal O Globo, o ministro do STJ afirmou que ainda "há uma resistência da indústria" à regulamentação, devido aos custos que surgiriam. Porém, "há certa miopia desses setores, porque é a regulação que vai permitir que isso se desenvolva com segurança".
O trabalho da comissão de juristas deu importância a princípios e diretrizes, mas também estabeleceu direitos dos usuários e uma classificação de riscos.
Uma das prioridades foi evitar que os algoritmos aumentem a discriminação. Pessoas de origem africana ou asiática, por exemplo, geralmente são prejudicadas por IAs de reconhecimento facial, porque a base de dados se baseia em critérios de uma única etnia (branca).
Há também um "viés antiminorias" em IAs utilizadas por departamentos de recursos humanos para pré-seleção de currículos. As máquinas geram distorções e criam barreiras artificiais porque a maioria dos contratados são homens, por exemplo.
Assim, o texto sugerido criou um conjunto básico de direitos dos usuários. "A partir daí, você poderá permitir que as pessoas coloquem em xeque o uso da inteligência artificial, seja reclamando de um diagnóstico defeituoso feito pela máquina, ou de um viés que as prejudicou indevidamente, seja na aceitação do currículo, seja na contratação", disse Cueva.
O magistrado ainda destacou que as ferramentas de IA dificultam o rastreamento da origem das informações, o que pode contribuir para a propagação de fake news: "Esses textos amalgamados são produzidos por máquinas que não pensam, que trabalham com uma agregação enorme de dados e conseguem simular um entendimento, mas não sabem exatamente o conteúdo do que está sendo dito".
O texto trazido pela comissão já previu que o uso da IA no Judiciário é uma atividade de alto risco e, por isso, exige um cuidado maior. De acordo com o ministro, isso significa uma "auditoria do algoritmo". Ou seja, é necessário "fazer uma análise prévia, para ver se tem algum risco de discriminar ou enviesar".
Na visão de Cueva, as máquinas devem ser usadas na Justiça apenas para fazer pesquisas, e nunca para substituir as pessoas. "O ser humano é indispensável para exatamente julgar, o que é uma faculdade humana", pontuou.
O texto estipulou sanções, que "ainda precisam ser objeto de um debate maior". A comissão não definiu exatamente quem vai fiscalizar o setor e aplicar as sanções; apenas indicou que deve ser uma autoridade federal. "Se o Poder Executivo entender que convém, a Autoridade Nacional de Proteção de Dados (ANPD) poderia ter essa atribuição", explicou o magistrado.