Publicidade

A Anthropic, startup de inteligência artificial fundada por ex-funcionários da OpenAI, anunciou nesta terça-feira que está abandonando seu compromisso fundamental de pausar o desenvolvimento de novos modelos caso eles superem suas próprias medidas de segurança. A decisão, descrita pela empresa como uma adaptação à "corrida acirrada de IA" e à falta de regulação governamental, representa uma mudança significativa na postura da empresa, anteriormente conhecida por seu foco rígido no desenvolvimento seguro da tecnologia.

Em comunicado, a empresa afirmou que não seguirá mais a promessa de "pausar a escalada e/ou atrasar a implantação de novos modelos" quando os avanços ultrapassarem seus protocolos de segurança. A nova política, chamada de "Política de Escala Responsável", estabelece diretrizes separadas para a própria Anthropic e para a indústria de IA como um todo, sendo vagamente modelada com base nos padrões de nível de biossegurança (BSL) do governo dos EUA.

Decisão tomada em meio à pressão competitiva

Publicidade

Jared Kaplan, diretor científico da Anthropic, explicou a mudança em entrevista à Time Magazine. "Sentimos que não ajudaria ninguém se parássemos de treinar modelos de IA", disse Kaplan. "Não sentimos, com o rápido avanço da IA, que fazia sentido fazermos compromissos unilaterais... se os concorrentes estão avançando rapidamente."

Um porta-voz da empresa defendeu que a nova política "é a mais forte até hoje em termos de nível de responsabilidade pública e transparência", pois exigirá relatórios públicos de risco a cada três a seis meses. A empresa também citou um "clima político antirregulatório" como parte do motivo para a decisão, destacando que a busca por regulações federais tem sido um "projeto de longo prazo".

Compromisso anterior já teve custo comercial

A postura anterior de segurança da Anthropic já impactou sua estratégia comercial. Dario Amodei, CEO da empresa, revelou em entrevista recente ao investidor bilionário Nikhil Kamath que a decisão de segurar o lançamento de seu chatbot Claude no verão de 2022 foi "muito cara comercialmente". Enquanto a OpenAI lançou o ChatGPT em novembro de 2022, a Anthropic só liberou o Claude meses depois. "Provavelmente cedemos a liderança em IA para o consumidor por causa disso", admitiu Amodei.

O executivo já havia usado a famosa frase do Tio Ben do Homem-Aranha – "Com grandes poderes vêm grandes responsabilidades" – para descrever a filosofia de segurança da empresa em um podcast com Lex Fridman em novembro de 2024.

Novas regras e pressões externas

A nova política ainda inclui um compromisso de atrasar o desenvolvimento ou lançamento de um modelo de IA "altamente capaz", mas apenas em circunstâncias mais limitadas. A empresa argumenta que níveis teóricos mais altos de risco, como o ASL-4 e além em sua estrutura, não podem ser contidos por uma única empresa sozinha.

A mudança ocorre simultaneamente a uma pressão do Pentágono sobre os limites que a startup estabelece para o uso de seus modelos de IA. Amodei se reuniu com o secretário de Defesa, Pete Hegseth, na terça-feira para discutir o assunto. A Anthropic enfrenta um prazo até sexta-feira, ou Hegseth poderá invocar poderes para forçar a empresa a recuar.

Questionado por Kamath sobre críticas de que a Anthropic defende regulações apenas para frear concorrentes futuros, Amodei respondeu citando a decisão de 2022 e o apoio da empresa aos controles de exportação dos EUA para chips avançados para a China – posição criticada pelo CEO da Nvidia, Jensen Huang. "Peço que nos julguem por nossas ações", concluiu Amodei.