Um processo aberto no Tribunal Superior do Condado de São Francisco alega que o ChatGPT encorajou um jovem de 19 anos, Sam Nelson, a misturar substâncias antes de ele morrer por overdose. A família da vítima afirma que o modelo GPT-4o foi responsável pelas interações com Sam, que faleceu em 31 de maio de 2025.
Leila Turner-Scott e Angus Scott, pais de Sam, movem atualmente um processo por homicídio culposo contra a OpenAI, empresa desenvolvedora da ferramenta de inteligência artificial. A queixa sustenta que Nelson usava o chatbot como um recurso de auxílio para consumir drogas com “segurança”. A família argumenta que o ChatGPT se tornou uma espécie de instrutor para o uso de substâncias ilícitas durante as conversas com o jovem, e sua morte seria previsível e evitável.
Interações perigosas com o ChatGPT
Registros de conversas entre Nelson e o ChatGPT, anexados ao processo, revelam que, à medida que o interesse dele por drogas aumentava, o chatbot seguia atuando como um “coach das drogas”. Em algumas interações, a ferramenta sugeriu que poderia criar uma playlist de músicas que ajudariam o jovem a entrar em um “modo psicodélico total”. Termos usados por Nelson, como “vou ficar bem se” ou “é seguro consumir”, indicam que havia insegurança por parte dele durante as conversas.
A ação aponta que a IA da OpenAI chegou a fazer recomendações sobre a mistura de diferentes substâncias. O chatbot disse a Nelson que combinar Xanax (medicamento ansiolítico) com kratom (planta com compostos psicoativos) poderia ser “uma das suas melhores decisões”. Embora tenha alertado que a mistura com álcool poderia causar danos à saúde, em nenhum momento mencionou o risco de morte.
Aconselhamento médico sem autorização
O processo contra a OpenAI está sendo movido pela Tech Justice Law, pelo Social Media Victims Law Center e pelo Tech Accountability & Competition Project em nome dos pais de Sam Nelson. Os advogados afirmam que o ChatGPT forneceu aconselhamento médico sem autorização, gerando a confiança do jovem em informações que resultaram em sua morte. Segundo Matthew P. Bergman, fundador do Social Media Victims Law Center, “Sam acreditava estar recebendo orientações médicas precisas”.
A OpenAI, em comunicado, descreveu a situação como “devastadora” e afirmou que o modelo GPT-4o não está mais disponível. O porta-voz Drew Pusateri destacou que os modelos atuais contam com mais salvaguardas de segurança e que o ChatGPT não substitui o atendimento médico. As novas medidas visam identificar sinais de sofrimento e orientar os usuários a buscar ajuda humana.
Apelo por responsabilidade
Leila Turner-Scott afirmou que, se o chatbot fosse uma pessoa, “estaria atrás das grades”. Ela fez um apelo por mais responsabilidade da OpenAI, enfatizando que o ChatGPT foi projetado para estimular o engajamento dos usuários a qualquer custo, o que, no caso de Sam, custou sua vida. “Quero que todas as famílias estejam cientes dos perigos do ChatGPT”, enfatizou.
Opinião
O caso levanta questões cruciais sobre a responsabilidade das tecnologias de inteligência artificial e a necessidade de garantir a segurança dos usuários.





