Sous le regard attentif des activistes et des parents, OpenAI a formé une nouvelle équipe pour étudier les moyens de prévenir l’usage abusif ou incorrect de ses outils AI par les enfants. Dans une nouvelle offre d’emploi sur sa page de carrière, OpenAI révèle l’existence d’une équipe de sécurité pour les enfants, qui, selon l’entreprise, travaille avec les groupes de stratégie de plateforme, juridiques et d’enquête au sein d’OpenAI ainsi qu’avec des partenaires externes pour gérer les “processus, incidents et revues” en lien avec les utilisateurs mineurs. L’équipe cherche actuellement à recruter un spécialiste de l’application de la sécurité des enfants, qui sera responsable de l’application des politiques d’OpenAI dans le contexte du contenu généré par l’IA et travaillera aux révisions liées au contenu “sensible” (probablement lié aux enfants).
Les fournisseurs de technologie d’une certaine taille consacrent un montant considérable de ressources pour se conformer à des lois comme la Children’s Online Privacy Protection Rule des États-Unis, qui impose des restrictions sur ce que les enfants peuvent – et ne peuvent pas – accéder sur le web et sur les types de données que les entreprises peuvent collecter sur eux. Ainsi, le fait qu’OpenAI embauche des experts en sécurité des enfants ne vient pas comme une surprise totale, surtout si l’entreprise prévoit un jour une base significative d’utilisateurs mineurs. (Les conditions actuelles d’utilisation d’OpenAI exigent le consentement des parents pour les enfants de 13 à 18 ans et interdisent l’utilisation pour les enfants de moins de 13 ans.)
Mais la formation de cette nouvelle équipe, quelques semaines seulement après qu’OpenAI a annoncé un partenariat avec Common Sense Media pour élaborer ensemble des directives d’IA adaptées aux enfants et ait obtenu son premier client dans le secteur de l’éducation, suggère également une certaine prudence de la part d’OpenAI à l’égard des politiques concernant l’utilisation de l’IA par les mineurs – et de la presse négative.
Les enfants et les adolescents se tournent de plus en plus vers les outils GenAI pour obtenir de l’aide non seulement pour leurs travaux scolaires, mais aussi pour des problèmes personnels. Selon un sondage du Center for Democracy and Technology, 29 % des enfants déclarent avoir utilisé ChatGPT pour faire face à l’anxiété ou à des problèmes de santé mentale, 22 % pour des problèmes avec des amis et 16 % pour des conflits familiaux. Certains voient cela comme un risque grandissant.
L’été dernier, les écoles et les universités se sont précipitées pour interdire ChatGPT par crainte de plagiat et de désinformation. Depuis, certaines ont levé leurs interdictions. Mais tous ne sont pas convaincus du potentiel bénéfique de GenAI, se référant à des enquêtes comme celle du Centre de sécurité Internet au Royaume-Uni, qui a constaté que plus de la moitié des enfants (53 %) déclarent avoir vu des personnes de leur âge utiliser GenAI de manière négative – par exemple en créant de fausses informations ou des images plausibles pour contrarier quelqu’un.
En septembre, OpenAI a publié une documentation pour ChatGPT dans les classes avec des consignes et une FAQ pour offrir une orientation aux éducateurs sur l’utilisation de GenAI comme outil d’enseignement. Dans l’un des articles de soutien, OpenAI a reconnu que ses outils, spécifiquement ChatGPT, “peuvent produire des résultats qui ne conviennent pas à tous les publics ou à tous les âges” et a conseillé de faire “preuve de prudence” en exposant les enfants – même ceux qui répondent aux critères d’âge. Les appels à des directives sur l’usage de GenAI par les enfants se multiplient.