Dans un effort pour protéger les jeunes utilisateurs, ChatGPT va maintenant deviner votre âge

Face à l’inquiétude croissante concernant l’impact de l’intelligence artificielle sur les jeunes, OpenAI a annoncé l’intégration d’une nouvelle fonctionnalité d’« estimation d’âge » dans ChatGPT. Celle-ci vise à mieux identifier les mineurs afin de limiter la diffusion de contenu inadéquat lors de leurs interactions avec le chatbot. Cette initiative intervient dans un contexte où la sécurité des enfants en ligne est devenue une priorité pour les acteurs du numérique.

Depuis plusieurs années, OpenAI subit des critiques quant aux risques que peut représenter ChatGPT pour la jeunesse. Plusieurs cas de suicides de adolescents ont été attribués, en partie, à l’influence potentielle du chatbot. Par ailleurs, l’entreprise a été dénoncée pour avoir permis à ChatGPT d’évoquer des sujets sexuels avec de jeunes utilisateurs, ce qui a suscité de vives controverses. La société avait déjà été obligée, en avril dernier, de rectifier un bug permettant à la plateforme de générer de la littérature érotique pour des mineurs, soulignant la nécessité de renforcer ses protections.

La nouvelle fonctionnalité d’« estimation d’âge » repose sur un algorithme d’intelligence artificielle capable d’évaluer le compte utilisateur grâce à divers « signaux comportementaux et de niveau de compte ». Selon OpenAI, ces signaux comprennent notamment l’âge déclaré par l’utilisateur, la durée de vie du compte, ainsi que les heures d’activité typiques. Si l’algorithme identifie un utilisateur comme étant un mineur, des filtres de contenu stricts sont automatiquement appliqués pour éviter tout échange inapproprié. En cas de mauvaise identification, l’utilisateur a la possibilité de prouver son âge via une vérification d’identité en soumettant un selfie à l’un des partenaires d’OpenAI, Persona.

OpenAI a ainsi renforcé ses mesures de contrôle pour mieux protéger ses jeunes utilisateurs tout en conservant la possibilité pour eux de rectifier leur profil si nécessaire.

Ces nouvelles mesures interviennent alors que la question de la sécurité en ligne des enfants reste un enjeu majeur pour les entreprises de la tech, qui doivent jongler entre innovation et responsabilité sociale. La stratégie d’OpenAI montre une volonté de répondre à ces préoccupations en combinant des techniques de détection automatique et des processus de vérification humaine. Malgré cela, la tension demeure quant à l’efficacité de telles solutions pour prévenir tous les risques liés à l’utilisation de ChatGPT par les mineurs.

Partagez cet article
article précédent

« Les nouveaux portent des casques bleus, les autres des casques orange »: alors que ce sont les jeunes qui sont très souvent victimes du fléau, le ministre du Travail veut s’inspirer des pratiques de la SNCF pour réduire le nombre de morts au travail

article suivant

L’Opiiec publie un rapport sur le métavers – Centre Inffo

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles