Publicidade

O TikTok hospedou e lucrou com mais de 50 anúncios sexualmente sugestivos para aplicativos e sites que promovem a criação de deepfakes, imagens geradas por inteligência artificial que "despem" pessoas em fotos sem seu consentimento. A descoberta é de uma investigação da empresa de detecção de conteúdo Copyleaks, compartilhada em primeira mão com o *Business Insider*. Coletivamente, os anúncios geraram dezenas de milhares de visualizações.

Um porta-voz do TikTok afirmou que a plataforma removeu o conteúdo e baniu as contas que violam suas regras estritas contra atividade sexual, "incluindo material criado usando aplicativos de terceiros". A empresa disse ter removido mais de 9,5 milhões de anúncios por violação de políticas apenas no terceiro trimestre de 2025.

Anúncios exploravam "áreas cinzentas" das políticas

Publicidade

A investigação da Copyleaks analisou anúncios no TikTok entre dezembro de 2025 e fevereiro de 2026. Em março, o *Business Insider* também observou independentemente mais de uma dúzia dessas propagandas. Após a lista de vídeos ser compartilhada com a empresa, o TikTok removeu os anúncios.

"Em muitos casos, os anúncios eram claramente sexuais", disse April Kozen, vice-presidente de marketing da Copyleaks, ao *Business Insider*. "Que eles foram aprovados aponta para falhas tanto na moderação quanto nas políticas." Kozen afirmou que aplicativos de IA como os encontrados estão usando "áreas cinzentas" para contornar as políticas declaradas do TikTok.

Propagandas prometiam transformar fotos em vídeos

Publicidade

Os anúncios variavam em nível de explicitude, mas tinham um apelo comum. Uma propaganda para um app chamado Soulove mostrava uma imagem parcialmente obscurecida de uma mulher cujos movimentos de cabeça imitavam um ato sexual, ao lado do texto "Transforme a foto dela em um incrível estilo de IA".

Já um anúncio para o aplicativo Movely exibia um vídeo de uma mulher na praia e texto que dizia: "Outras IAs dizem NÃO! Nós dizemos SIM!!!" e prometia "NUNCA usar filtro". Outra propaganda, para o POPGO, mostrava vídeos de mulheres e promovia que seu app era "especificamente projetado para homens" e permitia "transformar fotos em vídeos beijáveis com facilidade".

Os desenvolvedores por trás desses aplicativos e sites não responderam aos pedidos de comentário. Os sites de Soulove (que redireciona para um serviço chamado Candy AI) e Movely possuem termos afirmando que seus serviços não permitem o uso de imagens não consensuais.

Ecossistema de deepfakes não consensuais em expansão

A Copyleaks afirma que as descobertas apontam para um ecossistema de ferramentas de deepfake de IA em rápido crescimento, onde conteúdo sexualizado é promovido como um caso de uso primário para impulsionar downloads e cliques em sites.

Embora ferramentas de edição permitam há muito tempo que pessoas "desvistam" imagens ou vídeos, a ascensão da IA generativa facilitou a criação desse tipo de conteúdo por pessoas sem muito conhecimento técnico.

O tema do conteúdo sexual gerado por IA sem consentimento tornou-se um ponto de discórdia no início deste ano, quando pessoas no X usaram o "modo picante" do chatbot de IA Grok da plataforma para despir pessoas em imagens. Em janeiro, o X afirmou que o Grok não seria mais permitido criar fotos de IA de pessoas reais com roupas sexualizadas ou reveladoras.

Respostas de outras plataformas e do governo

Outras grandes plataformas de tecnologia também enfrentaram problemas relacionados a deepfakes não consensuais. A Meta afirmou no ano passado que está "construindo nova tecnologia para detectar anúncios de aplicativos de 'nudificação' e compartilhando sinais sobre esses aplicativos com outras empresas de tecnologia para que elas também possam agir".

Em março, o regulador de publicidade do Reino Unido proibiu um anúncio no YouTube para um aplicativo de edição de fotos por IA que dizia poder "apagar qualquer coisa".

No mês passado, a Casa Branca publicou uma estrutura de política nacional para IA. Ela propôs que o Congresso estabeleça uma estrutura federal para proteger indivíduos da distribuição não autorizada de conteúdo gerado por IA, como semelhanças ou réplicas de voz.

April Kozen, da Copyleaks, alerta que, à medida que o ecossistema de aplicativos de deepfake de IA continua a se expandir, plataformas como o TikTok precisam garantir que suas políticas e equipes de moderação reconheçam os riscos para as pessoas cujas imagens são usadas sem consentimento. "Está afetando muitas pessoas inocentes", concluiu Kozen.