Publicidade

A Meta anunciou nesta sexta-feira que está pausando globalmente o acesso de adolescentes aos seus personagens de inteligência artificial em todos os seus aplicativos. A empresa informou exclusivamente ao site de tecnologia TechCrunch que não está abandonando os esforços, mas pretende desenvolver uma versão especial dos personagens de IA voltada para adolescentes.

A medida ocorre dias antes de um processo contra a Meta começar a ser julgado no Novo México, nos Estados Unidos. A empresa é acusada de falta de esforço para proteger crianças de exploração sexual em seus aplicativos. Conforme reportado pela revista Wired na quinta-feira, a Meta buscou limitar a descoberta de evidências relacionadas ao impacto das redes sociais na saúde mental dos adolescentes.

Controles parentais e nova abordagem

Publicidade

Em outubro, a Meta lançou novos recursos de controle parental, focados em adaptar a experiência dos adolescentes ao interagir com IA em seus aplicativos. Essas novas funcionalidades, inspiradas na classificação indicativa de filmes PG-13, restringiam o acesso de adolescentes a certos tópicos como violência extrema, nudez e uso gráfico de drogas.

Dias depois, a empresa também pré-visualizou controles para personagens de IA, permitindo que pais e responsáveis monitorassem tópicos e bloqueassem o acesso a certos personagens. Na época, a Meta afirmou que os pais poderiam desligar completamente os chats com personagens de IA. Esses recursos estavam programados para serem lançados este ano, mas a empresa agora adota uma abordagem mais dura, desligando todos os personagens de IA para adolescentes.

"A partir das próximas semanas, os adolescentes não poderão mais acessar personagens de IA em nossos aplicativos até que a experiência atualizada esteja pronta. Isso se aplicará a qualquer pessoa que nos forneceu um aniversário de adolescente, bem como a pessoas que afirmam ser adultos, mas que suspeitamos serem adolescentes com base em nossa tecnologia de previsão de idade", afirmou a empresa em uma postagem de blog atualizada.

Contexto regulatório e ações de outras empresas

A Meta acrescentou que, quando finalmente lançar os novos personagens de IA específicos para adolescentes, eles terão controles parentais integrados. A empresa disse que os novos personagens darão respostas apropriadas para a idade e se limitarão a tópicos como educação, esportes e hobbies.

As empresas de mídia social estão sob forte escrutínio de reguladores. Além do caso mencionado no Novo México, a Meta também enfrenta um julgamento na próxima semana, acusando a plataforma de causar vício em mídia social. O CEO Mark Zuckerberg deve depor nesse caso assim que o julgamento começar.

Além das plataformas sociais, empresas de IA tiveram que modificar sua experiência para adolescentes após enfrentarem processos alegando cumplicidade em casos de automutilação. Em outubro, a Character.AI, startup que permite aos usuários conversar com vários avatares de IA, proibiu conversas abertas com chatbots para usuários menores de 18 anos. Em novembro, a startup disse que construiria histórias interativas para crianças. Nos últimos meses, a OpenAI adicionou novas regras de segurança para adolescentes no ChatGPT e também começou a prever a idade de um usuário para aplicar restrições de conteúdo.