Publicidade

Você confiaria cegamente em uma inteligência artificial para redigir documentos que podem definir o futuro de alguém? Pois foi exatamente isso que o advogado Ross LeBlanc fez. E deu muito errado.

Em um caso que está gerando polêmica no mundo jurídico, LeBlanc, sócio do escritório Dudley DeBosier, foi pego de calças curtas após submeter petições com citações judiciais que simplesmente não existiam. O erro foi apontado pela própria parte contrária.

Agora, em uma carta particular ao juiz, ele não só se desculpou como revelou o nome do software que o levou a essa armadilha: Eve, uma plataforma de IA avaliada em US$ 1 bilhão.

O momento em que a confiança cega virou pesadelo

Publicidade

No início, LeBlanc era cauteloso. Ele conferia cada citação gerada pela ferramenta. "Elas estavam sempre corretas quando eu verificava", escreveu ele ao juiz William Jorden no dia 27 de março. Mas a consistência o fez baixar a guarda. Eventualmente, ele simplesmente parou de checar.

"Nunca pensei que isso pudesse acontecer comigo", desabafou o advogado, que hoje admite não saber se o erro foi um bug do sistema ou um descuido seu ao copiar e colar informações.

O caso expõe uma verdade incômoda: não importa o quão avançada seja a tecnologia, a responsabilidade final é sempre humana. E quando o erro aparece, o estrago para a reputação é imediato.

O que a empresa por trás do software diz sobre o erro?

Publicidade

Jay Madheswaranm, CEO da Eve, foi rápido em se defender. Após uma auditoria rigorosa, a empresa afirmou que a IA "não alucinou nenhuma citação de caso neste assunto". Ou seja, a culpa, segundo eles, não foi do algoritmo.

Mas o mercado já começa a questionar: se o software promete segurança e não entrega, quem paga a conta? Empresas como Harvey, Legora e Eve levantaram bilhões de dólares com a promessa de tornar advogados mais rápidos e confiáveis. Quando o sistema começa a envergonhar clientes em tribunal, a confiança desaba.

Para piorar, o pesquisador francês Damien Charlotin estima que menos de 10% dos casos de alucinações em tribunais identificam o software usado. Muitos advogados escondem a ferramenta por vergonha ou medo de sanções.

O preço de confiar cegamente na tecnologia

LeBlanc contou ao juiz que sempre teve medo das "histórias de terror" sobre IAs que inventam jurisprudências. Ele só se convenceu a usar a Eve após a empresa garantir que havia salvaguardas para reduzir erros. Acreditou que o risco era mínimo, desde que fizesse sua própria pesquisa e limitasse a IA a fontes aprovadas.

Engano fatal. O erro veio em um caso de acidente pessoal e foi descoberto pela defesa da Lowe's, loja onde ocorreu o incidente. O advogado da parte contrária não apenas apontou a falha como anexou a carta de desculpas de LeBlanc em um pedido para que o tribunal investigasse possíveis sanções.

"Senti meu estômago embrulhar e não consegui dormir", revelou LeBlanc ao Business Insider. Ele não culpa a Eve, mas decidiu dar um tempo na ferramenta. "Acho justo ter um período de resfriamento, sabe? Pisar na grama", disse.

O futuro da advocacia: mais rápido, mas sob vigilância

O caso de LeBlanc não é isolado. Grandes escritórios, como Sullivan & Cromwell, já passaram por vergonhas semelhantes. A diferença agora é que os tribunais estão mais espertos. Em vez de apenas atacar os argumentos jurídicos, advogados adversários estão escaneando petições em busca de erros de IA para minar a credibilidade da outra parte.

A lição é dura e clara: a inteligência artificial pode ser uma aliada poderosa, mas nunca substituirá o julgamento humano. Como o próprio LeBlanc aprendeu da pior forma: "Sou responsável por verificar tudo, não importa qual tecnologia apareça."

Para quem está no ramo jurídico ou usa IA para trabalhos críticos, o recado é direto: confie, mas verifique. E, acima de tudo, nunca deixe de "pisar na grama" de vez em quando.