Famílias de vítimas processam dona do ChatGPT por massacre que deixou 8 mortos no Canadá
Analises e comentarios sao informativos. Nao sao recomendacao de compra, venda ou investimento. Busque profissional certificado para decisoes financeiras.
Confira os detalhes que estao repercutindo. Homenagem às vítimas do massacre que deixou nove mortos em uma escola de Tumbler Ridge, no Canadá, em fevereiro de 2026 Christinne Muschi/The Canadian Press via AP Familiares das vítimas de um dos massacres mais mortais da história do Canadá entraram com um processo contra a OpenAI, dona do ChatGPT, e o CEO Altman, em um tribunal dos EUA, nesta pode-reagir-as-decisoes-do-copom-f0e661/" title="Super Quarta: como o mercado pode reagir às decisões do Copom e do Federal Reser">mercado-pode-reagir-as-decisoes-do-copom-f0e661/" title="Super Quarta: como o mercado pode reagir às decisões do Copom e do Federal Reser">quarta-feira (29).
Importante mencionar que No massacre ocorrido em fevereiro em Tumbler Ridge, na Colúmbia Britânica, uma atiradora matou oito pessoas, muitas deles crianças, e cometeu suicídio em seguida. 📩 Assine a newsletter do Guia de Compras do g1 com testes e dicas de tecnologia Segundo a alegação dos familiares, a empresa identificou a atiradora, chamada Jesse Van Rootselaar, como uma potencial ameaça oito meses antes do ataque, mas não alertou a polícia. Na semana passada, um jornal local de Tumbler Ridge publicou uma carta aberta na qual Altman disse estar “profundamente arrependido” pelo fato de a conta da atiradora não ter sido sinalizada às autoridades.
Vídeos em alta no g1 Veja mais: Altman pede desculpas por não ter alertado a polícia sobre atiradora de massacre no Canadá As ações judiciais, apresentadas no tribunal federal de São Francisco, acusam os líderes da OpenAI de não alertarem a polícia porque isso iria expor o volume de conversas relacionadas à violência no ChatGPT e poderia colocar em risco o caminho da empresa de buscar uma oferta pública inicial de quase US$ 1 trilhão. Um porta-voz da OpenAI classificou o tiroteio como “uma tragédia” e disse que a empresa tem uma política de tolerância zero para o uso de suas ferramentas na facilitação de atos violentos. “Como compartilhamos com as autoridades canadenses, já fortalecemos nossas salvaguardas, incluindo a melhoria de como o ChatGPT responde a sinais de angústia, conectando pessoas com suporte local e recursos de saúde mental, reforçando como avaliamos e escalamos ameaças potenciais de violência e aprimorando a detecção de reincidência de violadores de políticas”, disse o porta-voz em comunicado. Onda de processos Os casos fazem parte de uma onda crescente de processos acusando empresas de inteligência artificial de não prevenirem interações em chatbots que, segundo os autores, contribuem para automutilação, doenças mentais e violência. Acompanhe mais conteudos como esse no site.
Conteudo agregado de fonte publica com reescrita editorial. Direitos autorais da materia original pertencem ao site de origem.




