Jerome Dewald sentou -se com as pernas cruzadas e as mãos dobradas em seu colo em frente a um painel de apelação dos juízes do Estado de Nova York, prontos para defender uma reversão da decisão de um tribunal inferior em sua disputa com um ex -empregador.
O tribunal permitiu que Dewald, que não é advogado e estava se representando, acompanhasse seu argumento com uma apresentação em vídeo pré -gravada.
Quando o vídeo começou a ser reproduzido, mostrava um homem aparentemente mais jovem que os 74 anos do Sr. Dewald vestindo uma camisa azul de colarinho e um suéter bege e parado na frente do que parecia ser um fundo virtual borrado.
Alguns segundos depois do vídeo, um dos juízes, confuso com a imagem na tela, perguntou ao Sr. Dewald se o homem era seu advogado.
“Eu gerei isso”, respondeu Dewald. “Isso não é uma pessoa real.”
O juiz, o juiz Sallie Manzanet-Daniels, do primeiro departamento judicial da divisão de apelação, fez uma pausa por um momento. Ficou claro que ela estava descontente com a resposta dele.
“Teria sido bom saber que, quando você fez sua inscrição”, ela o levou.
“Eu não aprecio ser enganado”, acrescentou ela antes de gritar para alguém desligar o vídeo.
O que Dewald não divulgou foi que ele havia criado o avatar digital usando o software de inteligência artificial, o mais recente exemplo de IA que se arrasta no sistema jurídico dos EUA de maneiras potencialmente preocupantes.
O audição em que o Sr. Dewald fez sua apresentaçãoem 26 de março, foi filmado por câmeras do sistema judicial e relatado anteriormente por A Associated Press.
Chegou na sexta -feira, Dewald, o autor no caso, disse que estava impressionado com o constrangimento na audiência. Ele disse que enviou aos juízes uma carta de desculpas logo depois, expressando seu profundo arrependimento e reconhecendo que suas ações “inadvertidamente enganaram” o tribunal.
Ele disse que recorreu ao uso do software depois de tropeçar em suas palavras em procedimentos legais anteriores. Usar a IA para a apresentação, ele pensou, pode aliviar a pressão que ele sentiu no tribunal.
Ele disse que planejava fazer uma versão digital de si mesmo, mas havia encontrado “dificuldades técnicas” ao fazê -lo, o que o levou a criar uma pessoa falsa para a gravação.
“Minha intenção nunca era enganar, mas apresentar meus argumentos da maneira mais eficiente possível”, disse ele em sua carta aos juízes. “No entanto, reconheço que a divulgação e a transparência adequadas devem sempre ter precedência.”
Um empresário auto-descrito, Dewald estava apelando uma decisão anterior em uma disputa de contrato com um ex-empregador. Ele finalmente apresentou uma discussão oral na audiência de apelação, gaguejando e fazendo pausas frequentes para se reagrupar e ler comentários preparados de seu celular.
Por mais envergonhada que fosse, Dewald poderia se confortar com o fato de que os advogados reais tenham tido problemas por usar a IA no tribunal.
Em 2023, um advogado de Nova York enfrentou severas repercussões depois que ele Usei o ChatGPT para criar um resumo legal Chegado a opiniões judiciais falsas e citações legais. O caso mostrou as falhas em confiar na inteligência artificial e reverberado durante todo o comércio legal.
No mesmo ano, Michael Cohen, ex -advogado e fixador do presidente Trump, forneceu a seu advogado citações legais falsas que obteve do Google Bard, um programa de inteligência artificial. Cohen finalmente pediu misericórdia do juiz federal que presidia seu caso, enfatizando que ele não sabia que o serviço de texto generativo poderia fornecer informações falsas.
Alguns especialistas dizem que a inteligência artificial e os grandes modelos de idiomas podem ser úteis para as pessoas que têm assuntos legais para lidar, mas não podem pagar advogados. Ainda assim, os riscos da tecnologia permanecem.
“Eles ainda podem alucinar – produzir informações muito atraentes” que são realmente “falsas ou sem sentido”, disse Daniel Shin, diretor assistente de pesquisa do Centro de Tecnologia Jurídica e Court da William & Mary Law School. “Esse risco deve ser abordado.”