INTELIGÊNCIA ARTIFICIAL NÃO SUBSTITUIRÁ JUIZ NO CURTO PRAZO, DIZ MURILLO DE ARAGÃO
Por se tratar de tecnologia que depende de um algoritmo que reproduz comportamentos humanos, o uso da inteligência artificial no Poder Judiciário traz o risco de que as decisões tomadas de forma automatizada reflitam vieses discriminatórios. Isso aponta para a necessidade de supervisão, o que, em última análise, mostra que a tecnologia não está pronta para substituir os juízes no curto prazo.
Uso da IA em decisões judiciais deve
prever direito de revisão, disse Aragão
Essa é a visão do advogado e cientista político Murillo de Aragão. Um dos debatedores na mesa "Inteligência Artificial e (In)Justiça", durante o XI Fórum Jurídico de Lisboa, no mês passado, o CEO da Arko Advice falou sobre os desafios do uso dos algoritmos nas decisões judiciais em entrevista à série "Grandes Temas, Grandes Nomes do Direito", que a revista eletrônica Consultor Jurídico vem apresentando desde o mês de maio. Nela, algumas das principais personalidades do Direito brasileiro e internacional analisam os assuntos mais relevantes da atualidade.
Na entrevista, Aragão ressaltou que é característica da IA reproduzir comportamentos e padrões. "Isso acontece. Agora, o que há de ser feito é se prevenir para a ocorrência de decisões que tragam discriminação, e que exista o direito de revisão e de intervenção humana", explicou o advogado.
Aragão afirmou que a questão dos vieses não é um problema recente. Segundo ele, julgadores seguem jurisprudências, e elas são frutos de comportamentos que, de alguma forma, são vieses.
"A questão é que se os vieses automatizados trazem discriminação, há de existir uma atitude protetiva. E a própria máquina, o ChatGPT, sugere o treinamento dos algoritmos, a supervisão humana, a avaliação dos padrões das decisões. Enfim, existe uma série de procedimentos que tendem a minimizar os riscos dos vieses discriminatórios."
Assim, prossegiu Aragão, não há como acreditar que a inteligência artificial vai, no curtíssimo prazo, substituir o papel do juiz e alijar o fator humano de uma decisão final.
"O fato é que a inteligência artificial deve ser usada, sobretudo, na organização das informações, e eventualmente na repetição de informações que já estão consagradas, nas quais não há grande polêmica. Mas, no final, há a possibilidade de que, se for identificada alguma discriminação, a intervenção humana seja necessária."
Ele afirmou também que a possibilidade de que a inteligência artificial produza decisões injustas foi contemplada no projeto de lei sobre a aplicação da IA no Brasil.
"No âmbito da Justiça fica claro, na proposta subscrita pelo senador Rodrigo Pacheco, que é necessária a intervenção humana, que no fim das contas pode evitar que decisões judiciais tragam potencial discriminatório grave."