Ex-chefe de notícias do Facebook revela: “A IA está nos deixando mais burros” e quer consertar isso
Campbell Brown, que liderou o combate às fake news no Facebook, agora tem uma startup que avalia se os chatbots estão mentindo para você.
Você já perguntou algo para uma inteligência artificial e sentiu que a resposta era... estranha? Meio tendenciosa? Ou simplesmente errada? Pois saiba que você não está sozinho. E, segundo uma das pessoas que mais entende do assunto, o problema é bem maior do que imaginamos.
Campbell Brown passou anos como jornalista premiada e, depois, como a primeira e única chefe de notícias do Facebook. Lá, ela viu de perto o estrago que um algoritmo mal calibrado pode fazer na sociedade. Agora, com a IA tomando conta de tudo, ela enxerga um déjà vu perigoso. E está fazendo algo a respeito.
O momento “estamos ferrados”
Em uma conversa recente com o TechCrunch, Brown revelou o estalo que a levou a fundar a Forum AI. “Eu estava no Meta quando o ChatGPT foi lançado publicamente”, lembrou. “E percebi rapidamente: ‘é por aqui que toda a informação vai passar. E não é muito boa’.”
O pensamento seguinte foi quase existencial. Ela olhou para os próprios filhos e pensou: “Meus filhos vão ficar muito burros se a gente não descobrir como consertar isso.” É um medo que muitos pais têm hoje, mas poucos podem agir como ela.
O que a Forum AI faz que ninguém mais está fazendo?
A startup de Brown, que já levantou US$ 3 milhões, tem uma missão ambiciosa: avaliar como os grandes modelos de IA se comportam em tópicos de alto risco. Estamos falando de geopolítica, saúde mental, finanças e contratações — assuntos onde não existe resposta certa ou errada, só nuances.
Para isso, ela recrutou um time de peso: o historiador Niall Ferguson, o jornalista Fareed Zakaria, o ex-secretário de Estado Antony Blinken, o ex-presidente da Câmara Kevin McCarthy e a ex-chefe de cibersegurança Anne Neuberger. A ideia é ter esses especialistas criando benchmarks e treinando “juízes de IA” para avaliar os modelos em larga escala.
O diagnóstico é preocupante
Quando a Forum AI começou a testar os principais modelos do mercado, o resultado não foi animador. Ela cita casos específicos: o Gemini, do Google, recorrendo a sites do Partido Comunista Chinês para responder perguntas que não têm nada a ver com a China. Além disso, Brown notou um viés político de esquerda em praticamente todos os modelos.
“Há um longo caminho a percorrer”, admite. “Mas também acho que existem correções muito simples que melhorariam drasticamente os resultados.”
O problema, segundo ela, é que as empresas de tecnologia estão obcecadas em fazer a IA acertar questões de matemática e programação. Informação e notícias são mais complexas, mas, para Brown, “mais difícil não significa opcional”.
A lição (não aprendida) do Facebook
Brown sabe bem o que acontece quando uma plataforma otimiza para a métrica errada. “Nós falhamos em muitas coisas que tentamos”, disse ela sobre o programa de checagem de fatos que construiu no Facebook e que hoje nem existe mais. A lição, ignorada pelas redes sociais, é que otimizar para o engajamento foi péssimo para a sociedade.
A grande esperança de Brown é que a IA possa quebrar esse ciclo vicioso. “Agora pode ir para qualquer lado”, afirma. As empresas podem dar aos usuários o que eles querem, ou podem “dar às pessoas o que é real, honesto e verdadeiro”.
Onde está o dinheiro (e a esperança)?
Ela admite que a versão idealista disso — uma IA otimizada para a verdade — pode parecer ingênua. Mas aposta que o mundo corporativo pode ser o aliado improvável. Empresas que usam IA para decisões de crédito, seguros e contratações se preocupam com responsabilidade legal. “Elas vão querer que você otimize para acertar”, explica.
É nessa demanda empresarial que a Forum AI aposta seu modelo de negócios. Ainda assim, Brown critica o cenário atual de conformidade, que chama de “uma piada”. Em Nova York, por exemplo, uma lei que exige auditorias de IA em contratações já mostrou que mais da metade das empresas tinha violações que passaram despercebidas.
Para ela, o abismo entre o discurso do Vale do Silício e a realidade do usuário comum é enorme. “Você ouve os líderes das grandes empresas dizerem: ‘Essa tecnologia vai mudar o mundo, vai curar o câncer’. Mas para uma pessoa normal que só usa um chatbot para perguntas básicas, ela ainda recebe um monte de lixo e respostas erradas.”
A confiança na IA está em níveis baixíssimos. E, pelo que Campbell Brown está descobrindo, esse ceticismo é, na maioria das vezes, mais do que justificado.
Deixe seu Comentário
0 Comentários