ADVOGADOS DOS EUA ENFRENTAM SANÇÕES POR CITAÇÕES INVENTADAS PELO CHATGPT
Em 8 de junho, dois advogados terão de comparecer em um tribunal federal de Nova York, para discutir com o juiz as sanções que lhe serão aplicadas. A causa é uma petição de dez páginas apenas, mas repleta de citações de decisões judiciais que não existem. Foram inventadas pelo ChatGPT, o programa de inteligência artificial da OpenAI.
A história começou em agosto de 2019, quando Roberto Mata processou a Avianca Airlines, por lesão pessoal, devido à negligência de um comissário de bordo. Na ação, o demandante alegou que, em um voo de El Salvador para Nova York, foi atingido pelo carrinho de serviço do avião e machucou o joelho.
Os advogados da Avianca pediram ao juiz federal Kevin Castel para trancar a ação, porque o prazo prescricional havia expirado. O advogado de Mata, Steven A. Schwartz, da Levidow, Levidow & Oberman, recorreu ao ChatGPT para fundamentar sua resposta ao pedido. Obteve seis decisões judiciais e uma discussão sobre o efeito suspensivo de prazos prescricionais.
Schwartz citou os casos Varghese v. China Southern Airlines, Shaboon v. Egyptair, Petersen v. Iran Air, Martinez v. Delta Airlines, Inc., Estate of Durden v. KLM Royal Dutch Airlines, Miller v. United Airlines, Inc.
Em Varghese, ele incluiu outras quatro decisões: Zicherman v Korean Airlines Co., Ltd., Holliday v. Atl. Capital Corp., Hyatt v. N. Cent. Airlines, Zaunbrecher v. Transocean Offshore Deepwater Drilling.
Em uma carta ao juiz, os advogados da Avianca, Bartholomew Banino e Marissa Lefland, declararam que pesquisaram, mas não encontraram quaisquer dessas decisões judiciais citadas por Schwartz. E suspeitavam que ele usou o ChatGPT em suas pesquisas.
Em uma ordem de demonstração (order to show cause), o juiz Kevin Castel escreveu que também fez pesquisas, consultou tribunais mencionados e chegou à mesma conclusão: as decisões judiciais citadas não existem. "As decisões judiciais e as citações parecem ser falsas", ele escreveu. Para o juiz, essa é "uma circunstância sem precedentes".
Schwartz protocolou uma declaração juramentada para se explicar. Admitiu que usou o ChatGPT para fazer pesquisa jurídica e achou as decisões judiciais citadas. Mas aprendeu que esse programa de inteligência artificial não é confiável, apesar de o ChatGPT lhe haver assegurado, quando questionado, que as informações eram corretas.
O advogado, que atua no estado de Nova York há três décadas, declarou que não tinha intenção de enganar a corte ou a companhia aérea. O problema, ele disse, foi o de que ele nunca tinha usado o ChatGPT e, "portanto, não sabia que seu conteúdo poderia ser falso".
Escreveu que tinha "um grande arrependimento" por ter confiado no ChatGPT e prometeu nunca repetir o erro, no futuro, "sem uma cuidadosa verificação de que os casos sejam reais".
Schwartz explicou que só representou seu cliente na corte estadual. Quando o caso foi transferido para um tribunal federal, a pedido da Avianca, o cliente passou a ser representado por seu colega de escritório Peter LoDuca. Mas ele mesmo se encarregou de todas as pesquisas.
LoDuca, por sua vez, fez uma declaração juramentada, em que admitiu que a autenticidade de muitos desses casos citados é questionável. Afirmou que pesquisou as decisões citadas nas fontes usadas pelos advogados e não as encontrou.
De qualquer forma, LoDuca também deverá comparecer à audiência de 8 de junho e demonstrar, de acordo com a ordem do juiz, porque não deve ser sancionado de acordo com as regras vigentes.