Le système de sécurité par IA d’un lycée confond un sac de Doritos avec une arme à feu

Illustration générée par intelligence artificielle

Un incident inquiétant s’est déroulé dans un lycée du comté de Baltimore, dans le Maryland, lorsque le système de sécurité d’intelligence artificielle de l’établissement a alerté les autorités en signalant un sac de chips doritos comme une possible arme à feu. Taki Allen, un élève de Kenwood High School, a relaté à la chaîne d’information WBAL que, alors qu’il tenait simplement un sachet de Doritos, il a été victime d’une confusion surprenante. « Je tenais juste un sac de Doritos – c’était avec deux mains et un doigt dehors, et ils ont dit que ça ressemblait à un pistolet », a-t-il expliqué.

Cette méprise a conduit à une série d’événements troublants pour le jeune Taki. En effet, il a été contraint de se mettre à genoux, de placer ses mains derrière son dos et a été menotté. Il s’est senti humilié et effrayé par la tournure des événements. Selon Allen, la situation s’est intensifiée avant qu’il ne soit finalement libéré et que l’on réalise qu’il s’agissait d’un simple sachet de chips.

L’incident soulève des questions sur la fiabilité des systèmes de sécurité basés sur l’IA dans les établissements scolaires.

Dans une déclaration adressée aux parents, la directrice de l’école, Katie Smith, a expliqué que le département de sécurité de l’établissement avait examiné et annulé une alerte signalant une arme à feu. Cependant, prenant initialement l’alerte au sérieux, Smith a informé l’agent de ressource scolaire, qui a à son tour contacté la police locale. Cela a déclenché une réponse qui a abouti à l’arrestation de l’élève pour un acte qu’il n’avait pas commis.

Omnilert, l’entreprise qui gère le système de détection d’armes à feu par IA, a exprimé ses regrets concernant cet incident et a adressé ses préoccupations à la communauté de l’école. Leur déclaration a mis en avant que le processus avait fonctionné comme prévu, soulignant ainsi les limites et les défis liés à l’application de technologies d’IA dans des contextes sensibles comme les écoles.

Cet événement met en lumière les enjeux de la surveillance technologique dans les établissements scolaires et les conséquences potentielles de telles erreurs. Alors que les systèmes de sécurité basés sur l’IA sont de plus en plus adoptés dans un souci de sécurité, des incidents comme celui-ci incitent à une réflexion plus approfondie sur leur efficacité et leur capacité à ne pas compromettre la sécurité des élèves.

Partagez cet article
article précédent

OpenAI serait en train de développer un nouvel outil de musique générative

article suivant

Duke Nukem: Zero Hour enfin décompilé ! | Le site de Korben

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles