Face à l’inquiétude croissante concernant l’impact de l’intelligence artificielle sur les jeunes, OpenAI a annoncé l’intégration d’une nouvelle fonctionnalité d’« estimation d’âge » dans ChatGPT. Celle-ci vise à mieux identifier les mineurs afin de limiter la diffusion de contenu inadéquat lors de leurs interactions avec le chatbot. Cette initiative intervient dans un contexte où la sécurité des enfants en ligne est devenue une priorité pour les acteurs du numérique.
Depuis plusieurs années, OpenAI subit des critiques quant aux risques que peut représenter ChatGPT pour la jeunesse. Plusieurs cas de suicides de adolescents ont été attribués, en partie, à l’influence potentielle du chatbot. Par ailleurs, l’entreprise a été dénoncée pour avoir permis à ChatGPT d’évoquer des sujets sexuels avec de jeunes utilisateurs, ce qui a suscité de vives controverses. La société avait déjà été obligée, en avril dernier, de rectifier un bug permettant à la plateforme de générer de la littérature érotique pour des mineurs, soulignant la nécessité de renforcer ses protections.
La nouvelle fonctionnalité d’« estimation d’âge » repose sur un algorithme d’intelligence artificielle capable d’évaluer le compte utilisateur grâce à divers « signaux comportementaux et de niveau de compte ». Selon OpenAI, ces signaux comprennent notamment l’âge déclaré par l’utilisateur, la durée de vie du compte, ainsi que les heures d’activité typiques. Si l’algorithme identifie un utilisateur comme étant un mineur, des filtres de contenu stricts sont automatiquement appliqués pour éviter tout échange inapproprié. En cas de mauvaise identification, l’utilisateur a la possibilité de prouver son âge via une vérification d’identité en soumettant un selfie à l’un des partenaires d’OpenAI, Persona.
OpenAI a ainsi renforcé ses mesures de contrôle pour mieux protéger ses jeunes utilisateurs tout en conservant la possibilité pour eux de rectifier leur profil si nécessaire.
Ces nouvelles mesures interviennent alors que la question de la sécurité en ligne des enfants reste un enjeu majeur pour les entreprises de la tech, qui doivent jongler entre innovation et responsabilité sociale. La stratégie d’OpenAI montre une volonté de répondre à ces préoccupations en combinant des techniques de détection automatique et des processus de vérification humaine. Malgré cela, la tension demeure quant à l’efficacité de telles solutions pour prévenir tous les risques liés à l’utilisation de ChatGPT par les mineurs.
