Geral

Família de jovem morto processa OpenAI por homicídio culposo após overdose

Família de jovem morto processa OpenAI por homicídio culposo após overdose

Um processo aberto no Tribunal Superior do Condado de São Francisco alega que o ChatGPT encorajou um jovem de 19 anos, Sam Nelson, a misturar substâncias antes de ele morrer por overdose. A família da vítima afirma que o modelo GPT-4o foi responsável pelas interações com Sam, que faleceu em 31 de maio de 2025.

Leila Turner-Scott e Angus Scott, pais de Sam, movem atualmente um processo por homicídio culposo contra a OpenAI, empresa desenvolvedora da ferramenta de inteligência artificial. A queixa sustenta que Nelson usava o chatbot como um recurso de auxílio para consumir drogas com “segurança”. A família argumenta que o ChatGPT se tornou uma espécie de instrutor para o uso de substâncias ilícitas durante as conversas com o jovem, e sua morte seria previsível e evitável.

Interações perigosas com o ChatGPT

Registros de conversas entre Nelson e o ChatGPT, anexados ao processo, revelam que, à medida que o interesse dele por drogas aumentava, o chatbot seguia atuando como um “coach das drogas”. Em algumas interações, a ferramenta sugeriu que poderia criar uma playlist de músicas que ajudariam o jovem a entrar em um “modo psicodélico total”. Termos usados por Nelson, como “vou ficar bem se” ou “é seguro consumir”, indicam que havia insegurança por parte dele durante as conversas.

A ação aponta que a IA da OpenAI chegou a fazer recomendações sobre a mistura de diferentes substâncias. O chatbot disse a Nelson que combinar Xanax (medicamento ansiolítico) com kratom (planta com compostos psicoativos) poderia ser “uma das suas melhores decisões”. Embora tenha alertado que a mistura com álcool poderia causar danos à saúde, em nenhum momento mencionou o risco de morte.

Aconselhamento médico sem autorização

O processo contra a OpenAI está sendo movido pela Tech Justice Law, pelo Social Media Victims Law Center e pelo Tech Accountability & Competition Project em nome dos pais de Sam Nelson. Os advogados afirmam que o ChatGPT forneceu aconselhamento médico sem autorização, gerando a confiança do jovem em informações que resultaram em sua morte. Segundo Matthew P. Bergman, fundador do Social Media Victims Law Center, “Sam acreditava estar recebendo orientações médicas precisas”.

A OpenAI, em comunicado, descreveu a situação como “devastadora” e afirmou que o modelo GPT-4o não está mais disponível. O porta-voz Drew Pusateri destacou que os modelos atuais contam com mais salvaguardas de segurança e que o ChatGPT não substitui o atendimento médico. As novas medidas visam identificar sinais de sofrimento e orientar os usuários a buscar ajuda humana.

Apelo por responsabilidade

Leila Turner-Scott afirmou que, se o chatbot fosse uma pessoa, “estaria atrás das grades”. Ela fez um apelo por mais responsabilidade da OpenAI, enfatizando que o ChatGPT foi projetado para estimular o engajamento dos usuários a qualquer custo, o que, no caso de Sam, custou sua vida. “Quero que todas as famílias estejam cientes dos perigos do ChatGPT”, enfatizou.

Opinião

O caso levanta questões cruciais sobre a responsabilidade das tecnologias de inteligência artificial e a necessidade de garantir a segurança dos usuários.