Publicidade

A rede social X, de Elon Musk, anunciou um novo sistema para rotular conteúdos visuais editados como "mídia manipulada". A informação, no entanto, veio apenas por meio de um post enigmático do próprio bilionário, sem detalhes oficiais sobre como a plataforma fará essa identificação ou se o sistema abrange edições feitas com ferramentas tradicionais, como o Photoshop.

O anúncio foi feito através de uma republicação, por Musk, de uma postagem da conta anônima DogeDesigner, frequentemente usada como proxy para lançar novidades no X. A conta afirmou que o recurso tornará "mais difícil para grupos de mídia tradicionais espalharem clipes ou fotos enganosos". A rede social, no entanto, não emitiu comunicado formal nem atualizou suas políticas públicas de moderação.

Histórico de políticas contra desinformação visual

Publicidade

Antes de ser adquirida e renomeada como X, a então Twitter já possuía uma política para lidar com mídia manipulada. Em 2020, Yoel Roth, então chefe de integridade do site, explicou que a política não se limitava a conteúdos gerados por IA, incluindo também "edição seletiva ou recorte, desaceleração, dublagem ou manipulação de legendas". A abordagem era aplicar um rótulo de aviso como alternativa à remoção do conteúdo.

Atualmente, a documentação de ajuda do X menciona uma política contra o compartilhamento de mídia inautêntica, mas sua aplicação tem sido considerada esporádica. Recentemente, a plataforma foi palco de um escândalo envolvendo a disseminação de deepfakes não consensuais com imagens nuas, evidenciando falhas na moderação.

Desafios técnicos e precedentes da indústria

A implementação de sistemas de rotulagem automática é repleta de desafios, como demonstrou o caso da Meta em 2024. A empresa foi criticada por marcar erroneamente fotografias reais com o selo "Feito com IA". O problema ocorreu porque ferramentas criativas comuns, como o recurso de recorte do Adobe Photoshop, ao salvar imagens em JPEG, acionavam os detectores de IA da Meta.

Ferramentas de edição que usam IA generativa para preencher áreas ou remover objetos também causaram identificações incorretas. A Meta, posteriormente, ajustou seu rótulo para "Informações sobre IA" para evitar a categorização errônea. A confusão ilustra a dificuldade em distinguir entre edição digital tradicional e manipulação por inteligência artificial.

Iniciativas do setor e ausência do X

O setor tem buscado padrões para verificar a autenticidade do conteúdo digital. O principal deles é o C2PA (Coalition for Content Provenance and Authenticity), um consórcio que inclui gigantes como Microsoft, BBC, Adobe, Intel, Sony, OpenAI e Google em seu comitê gestor. A iniciativa define metadados à prova de violação para rastrear a origem e as alterações em arquivos de mídia.

O Google Fotos já utiliza o padrão C2PA, e outras plataformas, como TikTok, Deezer e Spotify, também desenvolvem iniciativas para identificar e rotular conteúdos gerados por IA. O X não consta atualmente como membro do C2PA, e a empresa não respondeu a pedidos de comentário sobre sua possível adesão ou sobre os detalhes técnicos do novo sistema de rotulagem.

Contexto de desinformação e próximos passos

A implementação de um sistema claro é considerada crucial, dado que o X é um terreno fértil para propaganda política, doméstica e internacional. Especialistas apontam que, sem transparência sobre os critérios de "edição" e um processo de contestação além das Community Notes (Notas da Comunidade), a medida pode gerar mais confusão.

Fica em aberto se o novo recurso do X seguirá um padrão setorial conhecido, como o C2PA, ou desenvolverá sua própria metodologia. A falta de detalhes oficiais deixa usuários e especialistas sem saber se o alerta se aplicará apenas a imagens geradas por IA, a qualquer edição digital ou a um espectro ainda não definido pela plataforma.