A Anthropic, startup de inteligência artificial fundada por ex-funcionários da OpenAI, anunciou nesta terça-feira que está abandonando seu compromisso fundamental de pausar o desenvolvimento de novos modelos caso eles superem suas próprias medidas de segurança. A decisão, descrita pela empresa como uma adaptação à "corrida acirrada de IA" e à falta de regulação governamental, representa uma mudança significativa na postura da empresa, anteriormente conhecida por seu foco rÃgido no desenvolvimento seguro da tecnologia.
Em comunicado, a empresa afirmou que não seguirá mais a promessa de "pausar a escalada e/ou atrasar a implantação de novos modelos" quando os avanços ultrapassarem seus protocolos de segurança. A nova polÃtica, chamada de "PolÃtica de Escala Responsável", estabelece diretrizes separadas para a própria Anthropic e para a indústria de IA como um todo, sendo vagamente modelada com base nos padrões de nÃvel de biossegurança (BSL) do governo dos EUA.
Decisão tomada em meio à pressão competitiva
Jared Kaplan, diretor cientÃfico da Anthropic, explicou a mudança em entrevista à Time Magazine. "Sentimos que não ajudaria ninguém se parássemos de treinar modelos de IA", disse Kaplan. "Não sentimos, com o rápido avanço da IA, que fazia sentido fazermos compromissos unilaterais... se os concorrentes estão avançando rapidamente."
Um porta-voz da empresa defendeu que a nova polÃtica "é a mais forte até hoje em termos de nÃvel de responsabilidade pública e transparência", pois exigirá relatórios públicos de risco a cada três a seis meses. A empresa também citou um "clima polÃtico antirregulatório" como parte do motivo para a decisão, destacando que a busca por regulações federais tem sido um "projeto de longo prazo".
Compromisso anterior já teve custo comercial
A postura anterior de segurança da Anthropic já impactou sua estratégia comercial. Dario Amodei, CEO da empresa, revelou em entrevista recente ao investidor bilionário Nikhil Kamath que a decisão de segurar o lançamento de seu chatbot Claude no verão de 2022 foi "muito cara comercialmente". Enquanto a OpenAI lançou o ChatGPT em novembro de 2022, a Anthropic só liberou o Claude meses depois. "Provavelmente cedemos a liderança em IA para o consumidor por causa disso", admitiu Amodei.
O executivo já havia usado a famosa frase do Tio Ben do Homem-Aranha – "Com grandes poderes vêm grandes responsabilidades" – para descrever a filosofia de segurança da empresa em um podcast com Lex Fridman em novembro de 2024.
Novas regras e pressões externas
A nova polÃtica ainda inclui um compromisso de atrasar o desenvolvimento ou lançamento de um modelo de IA "altamente capaz", mas apenas em circunstâncias mais limitadas. A empresa argumenta que nÃveis teóricos mais altos de risco, como o ASL-4 e além em sua estrutura, não podem ser contidos por uma única empresa sozinha.
A mudança ocorre simultaneamente a uma pressão do Pentágono sobre os limites que a startup estabelece para o uso de seus modelos de IA. Amodei se reuniu com o secretário de Defesa, Pete Hegseth, na terça-feira para discutir o assunto. A Anthropic enfrenta um prazo até sexta-feira, ou Hegseth poderá invocar poderes para forçar a empresa a recuar.
Questionado por Kamath sobre crÃticas de que a Anthropic defende regulações apenas para frear concorrentes futuros, Amodei respondeu citando a decisão de 2022 e o apoio da empresa aos controles de exportação dos EUA para chips avançados para a China – posição criticada pelo CEO da Nvidia, Jensen Huang. "Peço que nos julguem por nossas ações", concluiu Amodei.