Você confiaria sua segurança a uma empresa que, aos poucos, trocou a pesquisa responsável por lançamentos apressados? Pois foi exatamente isso que um tribunal federal em Oakland ouviu na última quinta-feira.
Rosie Campbell, ex-integrante da equipe de prontidão para AGI da OpenAI, testemunhou sob juramento que a empresa que um dia foi "muito focada em pesquisa" se transformou em uma máquina de produtos — e a segurança ficou para trás.
O choque veio quando ela revelou um incidente grave: a Microsoft, parceira da OpenAI, lançou uma versão do GPT-4 na Índia através do Bing antes mesmo de o modelo passar pela avaliação do Conselho de Segurança de Implantação (DSB).
O momento em que a segurança virou "processo esquecido"
"Quando entrei, era comum as pessoas falarem sobre AGI e questões de segurança", disse Campbell. "Com o tempo, tornou-se uma organização focada em produtos."
A ex-funcionária deixou a empresa em 2024, depois que sua equipe foi desfeita. Outro time crucial, o Super Alignment, também foi encerrado no mesmo período. Coincidência? O tribunal ouviu que não.
Ela explicou que, embora financiamento significativo seja necessário para construir AGI, criar um modelo de computador superinteligente sem as medidas de segurança adequadas simplesmente não se alinha com a missão da organização que ela escolheu.
O caso do GPT-4 na Índia: o estopim que quase derrubou Altman
O incidente com o Bing não foi apenas um erro. Foi uma das bandeiras vermelhas que levaram o conselho não lucrativo da OpenAI a demitir o CEO Sam Altman em 2023 — um movimento que chocou o mundo da tecnologia.
Tasha McCauley, ex-membro do conselho, testemunhou sobre um padrão preocupante: Altman mentia para o conselho, incluindo sobre a intenção de remover outra membro, Helen Toner. Pior: ele não informou ao conselho sobre o lançamento público do ChatGPT.
"Somos um conselho sem fins lucrativos e nosso mandato era supervisionar a parte com fins lucrativos", disse McCauley. "Nossa principal maneira de fazer isso estava sendo questionada. Não tínhamos um alto grau de confiança para acreditar que as informações que nos eram transmitidas nos permitiam tomar decisões de forma informada."
O dilema que vai além da OpenAI
O caso de Musk, que busca desmantelar a OpenAI, depende exatamente dessa transformação: de organização de pesquisa para uma das maiores empresas privadas do mundo. David Schizer, ex-reitor da Columbia Law School, resumiu: "A OpenAI enfatizou que a segurança é fundamental e que priorizaria a segurança sobre os lucros. Mas o que importa é a questão do processo."
McCauley foi ainda mais direta: se tudo se resume a um único CEO tomando decisões, e o bem público está em jogo, "isso é muito subótimo". Ela defendeu uma regulação governamental mais forte para IA avançada.
O que está em jogo agora não é apenas o futuro da OpenAI. É se a segurança de uma tecnologia que pode mudar tudo será decidida nos bastidores — ou com a transparência que o mundo merece.