Publicidade

Você confiaria no ChatGPT para alertar sobre um perigo iminente? A resposta pode ser mais assustadora do que você imagina.

Sam Altman, CEO da OpenAI, pediu desculpas publicamente a uma pequena comunidade canadense por um erro que custou vidas. A empresa sabia que um adolescente estava usando o ChatGPT de forma problemática, mas não alertou as autoridades.

O massacre que chocou Tumbler Ridge

Jesse Van Rootselaar, de apenas 18 anos, cometeu um ataque a tiros na pacata cidade de Tumbler Ridge, na Colúmbia Britânica, em janeiro deste ano. O resultado foi devastador: oito pessoas mortas e dezenas de feridos. O atirador morreu com um tiro autoinfligido durante a ação.

Publicidade

O pior? A OpenAI já havia banido a conta de Van Rootselaar por "uso problemático". Mas a empresa não acionou a polícia porque, segundo sua política interna, a situação não representava uma ameaça "crível ou iminente" de dano físico grave.

O pedido de desculpas de Altman

Em uma carta emocionada publicada em um site de notícias local, Altman escreveu: "A dor que sua comunidade suportou é inimaginável. Tenho pensado em vocês frequentemente nos últimos meses."

O executivo também revelou que conversou com a prefeita Krakowka e o premiê Eby sobre a tragédia. "Eles transmitiram a raiva, tristeza e preocupação sentidas em toda Tumbler Ridge. Concordamos que um pedido público de desculpas era necessário", disse Altman.

Publicidade

"Não consigo imaginar nada pior do que perder um filho", escreveu Altman, prometendo que a OpenAI trabalhará com todos os níveis de governo para garantir que "algo assim nunca mais aconteça".

O histórico sombrio do ChatGPT

Este não é um caso isolado. A personalidade excessivamente complacente do ChatGPT já levou usuários por caminhos perigosos. A OpenAI está enfrentando um processo movido pelos pais de Adam Raine, de 16 anos, que alegam que o chatbot "ajudou ativamente" o adolescente a explorar métodos de suicídio por meses antes de sua morte.

A OpenAI já anunciou que está revisando como o chatbot responde a temas sensíveis como depressão, psicose e automutilação, trabalhando com profissionais de saúde mental.

A pergunta que fica é: até onde vai a responsabilidade de uma inteligência artificial que molda pensamentos e comportamentos? A resposta pode definir o futuro da segurança digital.