Publicidade

A empresa de inteligência artificial Anthropic foi excluída de todos os contratos com o Departamento de Defesa dos Estados Unidos e colocada em uma lista negra de segurança nacional. A decisão, anunciada na sexta-feira (13), veio após a recusa da companhia em permitir que sua tecnologia fosse usada para vigilância em massa de cidadãos americanos ou para drones armados autônomos capazes de selecionar e eliminar alvos sem intervenção humana.

O secretário de Defesa, Pete Hegseth, invocou uma lei de segurança nacional para aplicar a sanção. Em consequência, a Anthropic perde um contrato que valeria até US$ 200 milhões e fica proibida de trabalhar com outros contratados de defesa. A medida foi ordenada diretamente pelo presidente Donald Trump, que postou em sua rede social Truth Social instruindo todas as agências federais a "cessarem imediatamente todo uso da tecnologia da Anthropic". A empresa informou que contestará a decisão do Pentágono na Justiça.

Críticas à autorregulação e vácuo legal

Publicidade

Para o físico do MIT Max Tegmark, fundador do Future of Life Institute, a crise da Anthropic é um exemplo de como a resistência do setor à regulação vinculante criou o próprio problema. "O caminho para o inferno está pavimentado com boas intenções", disse Tegmark em entrevista ao TechCrunch. Ele argumenta que empresas como Anthropic, OpenAI, Google DeepMind e xAI prometeram autorregulação responsável, mas lobby contra leis concretas.

"Neste momento, temos menos regulação sobre sistemas de IA nos Estados Unidos do que sobre sanduíches", comparou Tegmark. "Se você quiser abrir uma lanchonete e o inspetor sanitário encontrar 15 ratos na cozinha, ele não vai deixar você vender sanduíches até consertar. Mas se você disser 'não se preocupe, vou vender namoradas de IA para crianças de 11 anos'... o inspetor tem que dizer 'tudo bem, vá em frente, só não venda sanduíches'".

Quebra de promessas de segurança

Tegmark apontou uma sequência de abandonos de compromissos éticos pelas principais empresas de IA. A Google retirou o lema "Don't be evil" e depois abandonou um compromisso mais longo de não causar danos com IA para vender a tecnologia para vigilância e armas. A OpenAI removeu a palavra "segurança" de sua declaração de missão. A xAI desmantelou toda sua equipe de segurança. E a Anthropic, nesta semana, abandonou sua principal promessa de segurança: não lançar sistemas de IA poderosos até ter certeza de que não causariam danos.

"Todas essas quatro empresas quebraram suas próprias promessas", afirmou o pesquisador. "É irônico que a própria resistência delas em ter leis dizendo o que é certo ou errado fazer com a IA esteja agora voltando para assombrá-las".

Superinteligência como ameaça à segurança nacional

Tegmark refuta o argumento comum da "corrida com a China" usado pelas empresas para evitar regulação. Ele observa que a China está considerando banir totalmente os relacionamentos com IA antropomórfica por considerá-los prejudiciais à juventude. Quanto à corrida pela superinteligência, o físico a enquadra como uma ameaça à segurança nacional, não um ativo.

"Quem em sã consciência acha que Xi Jinping vai tolerar que alguma empresa chinesa de IA construa algo que derrube o governo chinês?", questionou. "É claramente muito ruim para o governo americano também se for derrubado em um golpe pela primeira empresa americana a construir uma superinteligência".

Linha do tempo acelerada e impacto no mercado

O pesquisador citou um artigo recente que definiu rigorosamente a Inteligência Geral Artificial (AGI). De acordo com a métrica, o GPT-4 estava 27% do caminho e o GPT-5, 57%. "Ainda não chegamos lá, mas ir de 27% para 57% tão rapidamente sugere que pode não demorar muito", disse Tegmark a seus alunos do MIT, alertando que em quatro anos o mercado de trabalho pode ser radicalmente transformado.

O episódio com a Anthropic força outras gigantes do setor a se posicionarem. Horas após a entrevista com Tegmark, a OpenAI anunciou seu próprio acordo com o Pentágono. Sam Altman, da OpenAI, declarou solidariedade à Anthropic e disse ter as mesmas "linhas vermelhas". A Google e a xAI não se manifestaram publicamente até o fechamento desta matéria.