Um vazamento acidental de 512.000 linhas do código-fonte do Claude Code, assistente de programação da empresa de inteligência artificial Anthropic, expôs detalhes internos da ferramenta e desencadeou uma corrida de desenvolvedores para recriar e analisar o sistema. O incidente, atribuído a um erro humano no processo de implantação, ocorreu na madrugada de terça-feira e rapidamente se espalhou por plataformas como GitHub e Discord, antes de a Anthropic tentar conter a disseminação com pedidos de remoção por direitos autorais.
O vazamento foi inicialmente descoberto e divulgado pelo usuário do X, Chaofan Shou, CTO da Fuzzland, que postou um link para um arquivo compactado com o código. Em poucas horas, o material foi replicado milhares de vezes. Sigrid Jin, estudante da Universidade da Colúmbia Britânica, e Yeachan Heo, de Seul, usaram a informação vazada para recriar a ferramenta em Python, em um projeto batizado de "Claw Code", que em um dia acumulou 105.000 estrelas e 95.000 forks no GitHub.
Resposta da empresa e impacto no mercado
A Anthropic confirmou que o vazamento foi causado por um erro humano e não por uma violação de segurança. "Estamos implementando medidas para evitar que isso aconteça novamente", afirmou um porta-voz da empresa. Inicialmente, a companhia enviou um amplo pedido de remoção de direitos autorais ao GitHub, que resultou na retirada de mais de 8.000 repositórios com o código vazado, incluindo alguns não relacionados. Após críticas, a Anthropic recuou e limitou o pedido ao repositório original do usuário @nichxbt.
Enquanto isso, competidores como a xAI, de Elon Musk, demonstraram interesse no caso, enviando créditos para o Grok, seu modelo de IA, para Sigrid Jin. Gabriel Bernadett-Shapiro, Cientista de Pesquisa em IA da SentinelOne, avalia que o vazamento é notável por oferecer uma visão clara do rumo que os agentes de codificação com IA estão tomando. "Qualquer concorrente provavelmente usará esse conhecimento como referência", disse ele à Business Insider.
Recursos experimentais revelados
Desenvolvedores que analisaram o código vazado encontraram referências a modelos não lançados, como Opus 4.7 e Sonnet 4.8, e a codinomes como "Capivara" e "Tengu". Um recurso chamado "KAIROS" foi descrito como um agente que funciona 24 horas por dia, criando um registro diário e atuando como um "colega de equipe onisciente". Boris Cherny, criador do Claude Code, comentou sobre o KAIROS: "Ainda em dúvida sobre este. Devemos lançá-lo?"
Outras descobertas incluíram uma lista de "verbos de rotação" – como *scurrying* (correndo), *recombobulating* (recombinando) e *topsy-turvying* (virando de cabeça para baixo) – e um sistema de análise que registra palavrões dos usuários como "is_negative" (é negativo). Cherny explicou que esses sinais ajudam a determinar a experiência do usuário e são exibidos em um painel informalmente chamado de "gráfico dos 'fucks'".
Teorias sobre a causa e lições aprendidas
Especialistas questionaram como uma empresa que contrata "pessoas muito inteligentes" cometeu um "erro de iniciante". Delip Rao, pesquisador de IA da Universidade da Pensilvânia, teorizou que um agente de IA pode ter estado envolvido, citando paralelos com uma recente falha na Amazon ligada ao seu assistente de codificação Q. Cherny, no entanto, negou veementemente essa possibilidade, reafirmando que foi um erro humano em uma etapa manual do processo de implantação.
A solução proposta por Cherny para evitar futuros incidentes é "mais automação e o Claude verificando os resultados", não menos velocidade. Ele também afirmou que o funcionário responsável pelo erro não foi demitido. "Foi um erro honesto. Acontece", escreveu.
David Borish, estrategista de IA da Trace3, relacionou o incidente à cultura de "mover rápido e quebrar coisas". "Não há como ter verificações de segurança e equilíbrios e se mover tão rapidamente", avaliou. Para Sigrid Jin, o episódio resultou em uma "revelação de fluxo de trabalho", mostrando o potencial de usar a IA para recriar ferramentas complexas em novas linguagens com velocidade impressionante.