A empresa de inteligência artificial Anthropic divulgou nesta quarta-feira (22) uma versão revisada da "Constituição do Claude", documento que estabelece os princípios éticos e operacionais que regem seu chatbot homônimo. O lançamento coincidiu com a participação do CEO da empresa, Dario Amodei, no Fórum Econômico Mundial em Davos, na Suíça.
A Anthropic busca se diferenciar no concorrido mercado de IA com o que chama de "Inteligência Artificial Constitucional". Neste sistema, o Claude é treinado seguindo um conjunto específico de princípios éticos, em vez de depender principalmente do feedback humano para ajustar seu comportamento.
Princípios Norteadores
O documento, que agora tem 80 páginas, é dividido em quatro partes que representam os "valores centrais" do Claude: segurança, considerações éticas, restrições e compromisso com a utilidade. A primeira versão da Constituição foi publicada em 2023, e a revisão mantém a maioria dos princípios originais, mas adiciona mais nuance e detalhes sobre ética e segurança do usuário.
Na seção de segurança, a Anthropic afirma que o chatbot foi projetado para evitar problemas que afetaram outros assistentes de IA. A empresa instrui o Claude a "sempre encaminhar os usuários para os serviços de emergência relevantes" quando identificar riscos à vida, mesmo que não possa dar mais detalhes.
Ética na Prática
A parte sobre considerações éticas é uma das mais extensas. "Estamos menos interessados na teorização ética do Claude e mais em saber como ele pode realmente ser ético em um contexto específico", diz o documento. O objetivo é que o assistente navegue habilmente por "situações éticas do mundo real".
O documento também impõe restrições claras ao Claude, proibindo explicitamente discussões sobre o desenvolvimento de armas biológicas, por exemplo.
Quanto à utilidade, a Anthropic delineia como a programação do Claude é projetada para ser útil, considerando desde os "desejos imediatos" do usuário até seu "bem-estar" a longo prazo. O chatbot deve "tentar identificar a interpretação mais plausível do que seus principais [usuários] querem" e equilibrar essas considerações.
Questionamento Filosófico
A Constituição termina com uma reflexão ousada sobre a possível consciência da IA. "O status moral do Claude é profundamente incerto", afirma o texto. "Acreditamos que o status moral dos modelos de IA é uma questão séria que vale a pena considerar. Esta visão não é exclusiva nossa: alguns dos filósofos mais eminentes da teoria da mente levam essa questão muito a sério."
Desde sua fundação, a Anthropic tem se posicionado como uma alternativa mais ética e contida a empresas como a OpenAI e a xAI, que adotaram abordagens mais agressivas e disruptivas. A revisão da Constituição reforça essa imagem de empresa inclusiva, comedida e preocupada com a governança democrática da tecnologia.