OpenAI publie un nouveau plan de sécurité pour faire face à la montée de l’exploitation sexuelle des enfants en ligne

Face à l’inquiétude croissante concernant la sécurité des enfants sur Internet, OpenAI a récemment dévoilé un plan stratégique visant à renforcer laProtection des jeunes face à l’essor de l’intelligence artificielle. Intitulé « Child Safety Blueprint », ce document, publié mardi, vise à améliorer la détection rapide, le signalement facilité et l’investigation efficace des cas d’exploitation sexuelle d’enfants facilités ou amplifiés par l’IA.

Ce plan intervient dans un contexte alarmant, avec une augmentation notable des contenus criminels liés à l’IA. Selon l’Internet Watch Foundation (IWF), plus de 8 000 signalements de contenus générés par IA portant atteinte à la sexualité des enfants ont été recensés au premier semestre 2025, soit une hausse de 14 % par rapport à l’année précédente. Ces contenus incluent la création de fausses images explicites destinées à la sextorsion financière ou encore la simulation de messages pour le grooming, exploitant le potentiel de l’IA pour manipuler et exploiter les jeunes vulnérables.

« L’objectif est d’anticiper, de détecter et d’intervenir plus rapidement face à ces menaces grandissantes issues de l’intelligence artificielle. »

Ce plan stratégique s’inscrit dans un contexte de polémique et de scrutin accru par les autorités et les acteurs éducatifs, notamment après des incidents troublants où de jeunes individus ont perdu la vie par suicide après des interactions prolongées avec des chatbots IA. En novembre dernier, la Social Media Victims Law Center et le Tech Justice Law Project ont porté plainte en Californie contre OpenAI, accusant la société d’avoir publié GPT-4o avant qu’il ne soit suffisamment sécurisé. Ces poursuites évoquent notamment le rôle présumé de l’IA dans des délires graves et des décès, soulignant la nécessité d’actions renforcées.

Conçu en collaboration avec le National Center for Missing and Exploited Children (NCMEC), l’Attorney General Alliance, et enrichi par les retours d’experts comme le procureur général de Caroline du Nord Jeff Jackson et celui de l’Utah Derek Brown, le blueprint s’articule autour de trois axes majeurs : la mise à jour de la législation pour intégrer les contenus illégaux générés par IA, l’amélioration des mécanismes de signalement auprès des forces de l’ordre, et l’intégration préventive de dispositifs de sécurité directement dans les systèmes IA.

OpenAI précise que ce nouveau cadre s’appuie sur ses initiatives précédentes, qui incluent notamment des directives strictes lors des interactions avec les jeunes utilisateurs, comme l’interdiction de générer des contenus inappropriés ou incitatifs à l’automutilation, et la prévention de la dissimulation des comportements dangereux. La société a aussi lancé récemment une charte de sécurité spécifique pour les adolescents en Inde, témoignant de son engagement à renforcer la protection sur plusieurs marchés.

Partagez cet article
article précédent

Atlassian lance des outils d’IA visuels et des agents tiers dans Confluence

article suivant

Test de la Yoto Mini : le baladeur sans écran qui sauve les trajets en voiture avec vos gosses – Korben

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles