Familiares de vítimas do massacre em Tumbler Ridge, no Canadá, entraram com um processo contra a OpenAI alegando negligência. O massacre, que ocorreu em fevereiro de 2025, resultou em nove vítimas fatais, incluindo a atiradora Jesse Van Rootselaar, de apenas 18 anos.
A ação judicial acusa a OpenAI de não ter alertado as autoridades sobre o comportamento da atiradora, que discutiu o tiroteio com o ChatGPT. Segundo os documentos do tribunal, a conta de Jesse foi sinalizada por atividades violentas meses antes do ataque, em junho de 2025, mas a empresa não tomou as devidas providências.
Ações judiciais em San Francisco
Ao todo, foram apresentadas sete ações em um tribunal federal em San Francisco, EUA. Os processos alegam que o modelo GPT-4o do ChatGPT é considerado ‘perigosamente defeituoso’, permitindo que as conversas continuassem sem os alertas necessários. A OpenAI é acusada de não interromper discussões sobre temas prejudiciais e de não alertar as autoridades competentes.
Pedido de desculpas da OpenAI
O CEO da OpenAI, Sam Altman, emitiu um pedido de desculpas às famílias das vítimas, reconhecendo que a empresa falhou em alertar as autoridades sobre a conta da atiradora. Em uma carta ao município de Tumbler Ridge, Altman expressou suas condolências e destacou que a OpenAI está tomando medidas para aumentar a segurança do ChatGPT.
De acordo com a empresa, o assistente é programado para impedir conversas que possam levar a ameaças ou planejamento de ações nocivas. No entanto, a OpenAI afirmou que a comunicação com as autoridades ocorre apenas quando há um risco crível de dano a terceiros.
Opinião
O caso levanta questões importantes sobre a responsabilidade das empresas de tecnologia em situações de violência e a eficácia de seus sistemas de segurança.





