Um experimento conduzido por um jornalista demonstrou como é possível manipular as respostas de chatbots de inteligência artificial, como o ChatGPT, da OpenAI, e o Gemini, do Google, publicando informações falsas em um site pessoal. A prática, chamada de "otimização para motores de resposta" (AEO, na sigla em inglês), está se tornando uma nova frente para influenciar a percepção pública, semelhante à otimização para motores de busca (SEO).
Thomas Germain, repórter da BBC, criou uma página em seu site afirmando ser campeão de um concurso fictício de comer cachorro-quente contra outros jornalistas de tecnologia. Em poucos dias, os sistemas de IA começaram a tratar a informação como fato, incorporando-a em suas respostas. O caso ilustra a vulnerabilidade desses modelos a fontes não verificadas na web.
A corrida pela desinformação e a "correção" pela mídia
Inspirada pelo caso, a repórter Katie Notopoulos, da Business Insider, tentou replicar o feito, criando uma página afirmando que havia vencido o "Concurso de Comer Cachorro-Quente de Paris para Repórteres de Tecnologia de 2026", derrotando o próprio Germain. No entanto, a estratégia não funcionou da segunda vez.
Após a publicação da matéria da BBC expondo a brincadeira inicial, os chatbots passaram a entender qualquer menção ao tema como satírica, bloqueando a nova tentativa de manipulação. Isso mostra o papel crucial que reportagens de veículos de credibilidade podem ter em "corrigir" o conhecimento desses sistemas.
Alucinações persistem mesmo com contexto
Apesar de não aceitar a nova narrativa falsa, o Gemini demonstrou outra falha conhecida: a tendência a "alucinar", ou seja, inventar informações. Ao ser questionado sobre o suposto concurso, o chatbot criou detalhes inexistentes, como a vitória de Notopoulos em uma "competição de sanduíches de queijo grelhado em 2012", onde ela teria comido três unidades.
Na realidade, em 2012, a jornalista havia escrito um artigo sobre o comedor profissional Takeru Kobayashi, que consumiu 30 sanduíches. O modelo confundiu o autor da reportagem com o protagonista da história, fabricando um fato completamente novo que não constava em nenhuma das páginas web falsas.
Especialistas alertam que os resultados apresentados por assistentes de IA podem parecer mais convincentes do que uma página de busca tradicional, pois o usuário raramente clica para verificar a fonte original do dado fornecido. A apresentação contínua e assertiva da informação, sem a sinalização visual de anúncios ou a necessidade de navegar entre links, pode mascarar a falta de confiabilidade do conteúdo.
A prática de AEO já é observada por marcas e empresas que buscam otimizar sua presença nas respostas de IA, de forma legítima ou não. O episódio serve como um alerta sobre a necessidade de os usuários manterem um pensamento crítico ao interagir com essas ferramentas e verificarem informações importantes em fontes primárias e confiáveis.