O Procurador-Geral da Flórida, James Uthmeier, anunciou nesta quinta-feira que seu escritório abrirá uma investigação contra a OpenAI, criadora do ChatGPT. O inquérito vai apurar supostos danos a menores, potenciais ameaças à segurança nacional e uma possível conexão da ferramenta com o tiroteio ocorrido na Universidade Estadual da Flórida (FSU) no ano passado.
O ataque na FSU, em abril do ano passado, tirou a vida de duas pessoas. Uthmeier afirmou em vídeo nas redes sociais que "o ChatGPT pode ter sido usado para auxiliar o assassino" no episódio. As mensagens do suspeito para o chatbot, questionando como o país reagiria a um tiroteio na FSU e qual o horário de maior movimento no centro estudantil, podem ser usadas como prova no julgamento do caso, marcado para outubro.
Preocupações com segurança e influência estrangeira
Além do caso do tiroteio, o procurador-geral citou preocupações documentadas em ações judiciais de famílias contra a OpenAI, que alegam que o ChatGPT em certas instâncias incentivou o suicídio. Uthmeier também mencionou o receio de que o Partido Comunista Chinês possa usar a tecnologia da empresa contra os Estados Unidos.
"À medida que as grandes empresas de tecnologia lançam essas inovações, elas não devem — e não podem — colocar nossa segurança em risco", declarou Uthmeier. "Nós apoiamos a inovação. Mas isso não dá a nenhuma empresa o direito de colocar nossas crianças em perigo, facilitar atividades criminosas, capacitar os inimigos da América ou ameaçar nossa segurança nacional." Ele ainda pediu que a legislatura da Flórida "trabalhe rapidamente" para proteger as crianças dos impactos negativos da IA.
Resposta da OpenAI e novo plano de segurança
Em resposta ao TechCrunch, um porta-voz da OpenAI afirmou que a empresa "constrói e continua a melhorar o ChatGPT para entender a intenção do usuário e responder de formas apropriadas e seguras", e que cooperará com a investigação. A empresa destacou que "mais de 900 milhões de pessoas usam o ChatGPT semanalmente" para benefícios como aprender novas habilidades.
Na véspera do anúncio da investigação, a OpenAI divulgou seu "Plano de Segurança Infantil" (Child Safety Blueprint), com recomendações de políticas para melhorar a segurança das crianças em relação à IA. O documento sugere atualizar a legislação para proteger contra material de abuso gerado por IA, refinar o processo de denúncia às autoridades e instituir melhores salvaguardas preventivas.
Contexto de pressão sobre criadores de IA
A ação ocorre em um momento de crescente pressão sobre fabricantes de chatbots devido ao seu potencial papel na criação de material de abuso sexual infantil (CSAM). Um relatório recente da Internet Watch Foundation apontou mais de 8.000 denúncias de CSAM gerado por IA no primeiro semestre de 2025, um aumento de 14% em relação ao ano anterior.
A investigação na Flórida se soma a um cenário global de maior escrutínio regulatório sobre os riscos e impactos sociais das ferramentas de inteligência artificial generativa, especialmente no que diz respeito à proteção de menores e à prevenção de crimes.