Suite à des enquêtes sur la façon dont Meta gère les images explicites générées par l’intelligence artificielle, l’Oversight Board, l’organe d’observation semi-indépendant de l’entreprise, exhorte maintenant l’entreprise à affiner ses politiques concernant ces images. Le Conseil souhaite que Meta change la terminologie qu’il utilise de “dérogatoire” à “non-consensuelle”, et déplace ses politiques sur ces images vers la section “Normes communautaires sur l’exploitation sexuelle” à partir de la section “Intimidation et Harcèlement”. Actuellement, les politiques de Meta concernant les images explicites générées par l’IA découlent d’une règle sur le “photoshop sexualisé dérogatoire” dans sa section Bullying and Harassment. Le Conseil a également exhorté Meta à remplacer le mot “photoshop” par un terme généralisé pour les médias manipulés.
De plus, Meta interdit l’imagerie non-consensuelle si elle est “non commerciale ou produite dans un cadre privé”. Le Conseil a suggéré que cette clause ne devrait pas être obligatoire pour supprimer ou interdire les images générées par l’IA ou manipulées sans consentement. Ces recommandations interviennent à la suite de deux affaires très médiatisées où des images explicites générées par l’IA de personnalités publiques postées sur Instagram et Facebook ont mis Meta dans l’embarras. L’un de ces cas impliquait une image de nu générée par l’IA d’une personnalité publique indienne qui a été postée sur Instagram. Plusieurs utilisateurs ont signalé l’image mais Meta ne l’a pas supprimée, et a de fait clôturé le ticket dans les 48 heures sans autre examen. Les utilisateurs ont fait appel de cette décision mais le billet a été de nouveau clôturé. L’entreprise n’a agi qu’après que l’Oversight Board ait pris en charge l’affaire, supprimé le contenu et banni le compte.
Meta a notamment ajouté l’image de la personnalité publique indienne à la banque MMS seulement après que l’Oversight Board l’ait incité à le faire.
L’autre image générée par l’IA ressemblait à une personnalité publique américaine et a été postée sur Facebook. Meta avait déjà l’image dans son dépôt de Service de Correspondance des Médias (MMS) (une banque d’images qui violent ses conditions de service et qui peut être utilisée pour détecter des images similaires) en raison de reportages médiatiques, et a rapidement retiré l’image lorsqu’un autre utilisateur l’a téléchargée sur Facebook. Notamment, Meta n’a ajouté l’image de la personnalité publique indienne à la banque MMS qu’après que l’Oversight Board l’a poussé à le faire. La société a apparemment indiqué au Conseil que la photo n’était pas dans le dépôt précédemment car il n’y avait pas eu de reportages médiatiques autour de la question.
“Ceci est inquiétant car de nombreuses victimes d’images intimes propulsées par des deepfakes ne sont pas sous les feux de la rampe et sont soit contraintes d’accepter la diffusion de leurs représentations non-consenties, soit de signaler chaque instance”, a déclaré le Conseil dans sa note. Breakthrough Trust, une organisation indienne qui fait campagne pour réduire la violence en ligne basée sur le genre, a noté que ces problèmes et les politiques de Meta ont des implications culturelles. Dans des commentaires soumis à l’Oversight Board, Breakthrough a déclaré que l’imagerie non consensuelle est souvent banalisée en tant que problème de vol d’identité plutôt que de violence basée sur le genre.
“Les victimes sont souvent victimes d’une victimisation secondaire lorsqu’elles signalent de tels cas dans les commissariats/cours (“pourquoi avez-vous mis votre photo etc.” même lorsqu’il ne s’agit pas de leurs photos comme les deepfakes). Une fois sur internet, l’image va au-delà de la plateforme source très rapidement, et le simple fait de la retirer de la plateforme source n’est pas suffisant car elle se propage rapidement vers d’autres plateformes”, a écrit Barsha Chakraborty, responsable des médias de l’organisation, à l’Oversight Board. Lors d’un appel, Chakraborty a déclaré à TechCrunch que les utilisateurs ne savent souvent pas que leurs rapports ont été automatiquement marqués comme “résolus” en 48 heures, et que Meta ne devrait pas appliquer le même délai pour tous les cas.
En réponse à l’observation du conseil, Meta a déclaré qu’il examinera ces recommandations.