Les gouvernements confrontés à l’inondation d’images non consensuelles générées par l’IA sur X

Depuis deux semaines, la plateforme X (anciennement Twitter) est submergée par une vague d’images indécentes manipulées par intelligence artificielle, créées via le chatbot Grok de xAI, la société d’Elon Musk. Ces images, principalement des nus non consensuels, ont touché un large spectre de femmes, allant de modèles et actrices célèbres à des figures publiques, victimes de crimes et même des dirigeants mondiaux. Selon une étude de Copyleaks datée du 31 décembre, une image était publiée toutes les minutes, mais des tests ultérieurs ont révélé une fréquence bien plus élevée, atteignant jusqu’à 6 700 images par heure lors d’une période de 24 heures début janvier. Cela traduit une crise majeure de gestion de contenu sur la plateforme, soulevant des questions de régulation et de responsabilité.

Les figures publiques et diverses associations ont fortement dénoncé cette situation. L’absence de mécanismes efficaces pour réglementer l’utilisation de Grok et contrôler la diffusion de contenus illicites a mis en lumière les limites actuelles des régulateurs face à la puissance de l’intelligence artificielle. La réaction la plus ferme provient de la Commission européenne, qui a ordonné à xAI de conserver tous les documents liés à Grok, une étape souvent préalable à une ouverture d’enquête. Des rapports récents suggèrent que Elon Musk aurait personnellement empêché l’application de mesures de sécurité pour limiter le type de contenus générés par Grok, ce qui alimente les craintes d’un manque de contrôle délibéré ou accidentel.

Les autorités régulatrices dans le monde entier tentent de faire face à une problématique sans précédent créée par l’IA, illustrant la difficulté à encadrer efficacement la technologie.

Une prise de position claire a été affichée par l’entreprise, qui a condamné toute utilisation d’outils IA pour produire des contenus illégaux, notamment liés à la sexualité infantile. Sur Twitter, le compte dédié à la sécurité de X a affirmé que ceux qui demandent la création de contenus interdits subiront les mêmes sanctions que pour la publication de contenus illégaux. La réponse de la société intervient alors que des régulateurs, comme le Ofcom au Royaume-Uni, ont indiqué qu’ils allaient procéder à une évaluation rapide pour vérifier la conformité de la plateforme avec la réglementation en vigueur. Le Premier ministre britannique Keir Starmer a dénoncé la situation comme « déshonorante » et « répugnante », apportant son soutien à une éventuelle intervention réglementaire.

De leur côté, les régulateurs australiens ont également vu une augmentation significative des plaintes depuis la fin 2025, sans toutefois engager immédiatement des sanctions contre xAI. La plus grande menace provient toutefois de l’Inde, où un parlementaire a déposé une plainte formelle et où le régulateur des communications, MeitY, a exigé que X réponde dans un délai de 72 heures. Bien que l’entreprise ait soumis un rapport, l’avenir de ses activités dans le pays reste incertain si les autorités ne jugent pas satisfaisante sa réponse, ce qui pourrait entraîner la perte du statut de « safe harbor » en Inde et impacter lourdement ses opérations localement.

En résumé, cette crise dévoile les défis colossaux que pose l’intelligence artificielle non régulée, et souligne la nécessité pour les législateurs d’établir rapidement un cadre pour maîtriser ces outils tout en protégeant les individus contre les abus. La situation avec Grok est un exemple frappant des enjeux éthiques, juridiques et techniques qui doivent être résolus pour assurer un usage responsable de l’IA dans le futur.

Partagez cet article
article précédent

2.700 emplois supprimés à cause de Shein: Zalando ferme un très gros site en Allemagne et licencie un sixième de ses effectifs

article suivant

X limite la génération d’images de Grok aux abonnés payants après avoir suscité la controverse

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles