Dans une lettre adressée aux résidents de Tumbler Ridge, au Canada, le PDG d’OpenAI, Sam Altman, a exprimé ses « profondes regrets » quant à l’échec de sa société à alerter les autorités lors du récent drame de masse impliquant un suspect identifié. Après que la police a désigné Jesse Van Rootselaar, 18 ans, comme suspect dans cette fusillade qui a fait huit victimes, le Wall Street Journal a révélé qu’OpenAI avait déjà signalé et interdit le compte ChatGPT de la jeune femme en juin 2025, après qu’elle ait évoqué des scénarios impliquant la violence armée.
Malgré cette détection, la société avait hésité à signaler l’affaire aux forces de l’ordre, craignant peut-être des répercussions ou des questions légales. Ce n’est qu’après le massacre que OpenAI a finalement contacté les autorités canadiennes. Depuis, l’entreprise assure avoir renforcé ses protocoles de sécurité, notamment en instaurant des critères plus souples pour le transfert de comptes suspects aux autorités, et en créant des points de contact directs avec la police canadienne.
OpenAI s’engage désormais à améliorer ses processus pour éviter que de telles tragédies se reproduisent à l’avenir.
Dans sa lettre publiée pour la première fois dans le journal local Tumbler RidgeLines, Sam Altman indique avoir discuté de cet incident avec le maire Daryl Krakowka et le Premier ministre de la Colombie-Britannique, David Eby. Ensemble, ils estiment qu’une « excuse publique est nécessaire », tout en soulignant qu’il faut respecter le processus de deuil dans la communauté. Altman a exprimé ses « profonds regrets » de ne pas avoir alerté la police plus tôt, soulignant que ses mots, bien que sincères, ne suffisent pas à réparer le préjudice causé.
Le responsable d’OpenAI a également annoncé que l’entreprise continuerait à travailler en collaboration avec tous les niveaux de gouvernement pour prévenir ce type de tragédies. La situation a aussi suscité une réflexion sur la régulation de l’intelligence artificielle au Canada, où des autorités examinent actuellement de nouvelles lois, sans qu’aucune décision finale ait été prise à ce jour. La communauté locale reste profondément affectée par cette perte, comme le souligne la critique de David Eby sur le manque d’action de la société face à une situation aussi grave.
En conclusion, alors que la société technologique reconnaît ses erreurs et s’efforce d’améliorer ses méthodes, cette tragédie rappelle l’importance cruciale d’une régulation éthique et proactive dans le domaine de l’intelligence artificielle. La question de la responsabilité des entreprises derrière des outils puissants comme ChatGPT demeure plus que jamais d’actualité.
