As práticas de segurança de IA estão sob escrutínio após o caso de tiroteio escolar da openai envolvendo um suspeito canadiano cuja atividade online foi sinalizada meses antes do ataque.
A criadora do ChatGPT, a OpenAI, revelou que identificou a conta de Jesse Van Rootselaar em junho de 2025 através dos seus sistemas de deteção de abuso por "promoção de atividades violentas". No entanto, a empresa tecnológica sediada em São Francisco concluiu na altura que a atividade não cumpria o seu limiar interno para encaminhamento às autoridades.
A empresa afirmou que ponderou especificamente se deveria alertar a Polícia Montada Real do Canadá (RCMP) sobre a conta. Além disso, decidiu não avançar, julgando que os sinais não indicavam um plano iminente e credível para causar danos físicos graves.
A OpenAI subsequentemente baniu a conta em junho de 2025 por violar a sua política de utilização. Essa decisão ocorreu meses antes da tragédia que viria a desenrolar-se numa parte remota da Colúmbia Britânica.
O suspeito de 18 anos realizou posteriormente um ataque numa escola na pequena cidade de Tumbler Ridge, matando oito pessoas antes de morrer de um ferimento de bala autoinfligido. O incidente, relatado na semana passada, é um dos piores tiroteios escolares da história do Canadá e intensificou o debate sobre como as empresas tecnológicas lidam com comportamentos de utilizadores de alto risco.
De acordo com a RCMP, Van Rootselaar primeiro matou a sua mãe e meio-irmão na casa da família antes de atacar a escola próxima. Além disso, a polícia afirmou que o atirador tinha um histórico anterior de contactos relacionados com saúde mental com as autoridades, embora a natureza específica dessas interações não tenha sido detalhada.
A polícia relatou que as vítimas incluíam um assistente de ensino de 39 anos e cinco alunos com idades entre 12 e 13 anos. A cidade, que abriga cerca de 2.700 pessoas nas Montanhas Rochosas Canadianas, fica a mais de 1.000 km (600 milhas) a nordeste de Vancouver, perto da fronteira com Alberta.
Ao explicar a sua decisão de não contactar as autoridades mais cedo, a OpenAI afirmou que o seu padrão para contactar as autoridades centra-se em saber se um caso envolve um risco iminente e credível de danos físicos graves a terceiros. Na altura, a empresa disse que não identificou planeamento concreto ou iminente que teria desencadeado tal encaminhamento.
A empresa observou que este limiar de encaminhamento visa equilibrar a privacidade do utilizador com as obrigações de segurança. No entanto, a revelação gerou novas questões sobre se os critérios existentes para escalação são adequados quando surgem sinais de alerta precoces nas interações dos utilizadores com ferramentas de IA como o ChatGPT.
Após a notícia do tiroteio escolar ter surgido, funcionários da OpenAI contactaram a RCMP com detalhes sobre Van Rootselaar e a atividade histórica associada à conta. O Wall Street Journal foi o primeiro a reportar sobre as deliberações internas da empresa e subsequente contacto.
Numa declaração pública, um porta-voz da OpenAI afirmou: "Os nossos pensamentos estão com todos os afetados pela tragédia de Tumbler Ridge. Contactámos proativamente a Polícia Montada Real do Canadá com informações sobre o indivíduo e o seu uso do ChatGPT, e continuaremos a apoiar a sua investigação." Além disso, a empresa enfatizou a sua cooperação contínua com as autoridades canadianas.
Dito isto, o motivo do tiroteio permanece pouco claro, e os investigadores ainda não divulgaram que ligação direta, se alguma, existe entre as interações do suspeito com o ChatGPT e o ataque eventual. O caso, no entanto, aguçou o foco global sobre como as plataformas de IA detetam, avaliam e respondem a ameaças potenciais.
As autoridades descreveram o ataque de Tumbler Ridge como o ataque mais mortal do Canadá desde 2020, quando um atirador na Nova Escócia matou 13 pessoas e provocou incêndios que causaram a morte de outras nove. No entanto, o evento recente tem uma dimensão adicional porque se cruza com as responsabilidades em evolução dos fornecedores de IA.
À medida que os decisores políticos e as autoridades reveem as circunstâncias, o episódio de tiroteio escolar da openai provavelmente alimentará o debate sobre quando e como as empresas de IA devem escalar comportamentos preocupantes dos utilizadores às autoridades, e se os padrões de encaminhamento existentes abordam suficientemente os riscos digitais emergentes.
Em resumo, a tragédia na Colúmbia Britânica sublinha o equilíbrio complexo entre privacidade, avaliação de risco e segurança pública à medida que as plataformas de IA se tornam profundamente incorporadas na vida quotidiana, forçando tanto os reguladores como as empresas tecnológicas a reavaliar os seus protocolos para lidar com ameaças potenciais.


