‘Embarrassante et incorrecte’: Google admet avoir perdu le contrôle de son IA de génération d’images

Generated with DALL·E 3

Google a présenté des excuses (ou s’en est rapproché) cette semaine pour une autre bourde embarrassante de son IA, un modèle de génération d’images qui a introduit de la diversité dans des images avec un mépris farcique pour le contexte historique. Alors que le problème sous-jacent est parfaitement compréhensible, Google incrimine le modèle pour être devenu hypersensible. Mais le modèle ne s’est pas construit tout seul. Le système IA en question est Gemini, la plateforme IA conversationnelle phare de l’entreprise, qui fait appel à une version du modèle Imagen 2 pour créer des images à la demande. Récemment, cependant, des personnes ont découvert qu’en lui demandant de générer des images de certaines situations historiques ou de certaines personnes, celle-ci produisait des résultats risibles. Par exemple, les pères fondateurs, que nous savons être des propriétaires d’esclaves blancs, ont été représentés comme un groupe multiculturel, comprenant des personnes de couleur.

Cette erreur embarrassante et facilement réplicable a rapidement été tournée en dérision par les commentateurs en ligne. Elle a également été, sans surprise, intégrée au débat actuel sur la diversité, l’équité et l’inclusion, et saisie par des experts comme une preuve supplémentaire de la pénétration du virus de l’éveil dans le secteur déjà libéral de la technologie. L’image de Patrick Ganley, un utilisateur de Twitter, en est un exemple. Des citoyens ostensiblement concernés ont crié à la folie de la DEI. C’est l’Amérique de Biden ! Google est une “chambre d’écho idéologique”, un syndicat pour la gauche ! (La gauche, il faut le dire, a également été perturbée par ce phénomène étrange).

Comme pourrait le dire toute personne ayant une certaine familiarité avec la technologie, et comme l’explique Google dans son billet de regret assez abject publié aujourd’hui, ce problème est le résultat d’un contournement tout à fait raisonnable du biais systémique dans les données d’apprentissage. Lorsque vous voulez utiliser Gemini pour créer une campagne marketing et que vous lui demandez de générer 10 images de “personne promenant un chien dans un parc”. Vous ne spécifiez pas le type de personne, de chien ou de parc, c’est donc le choix du distributeur – le modèle génératif produira ce avec quoi il est le plus familier. Dans de nombreux cas, c’est un produit non de la réalité, mais des données d’apprentissage, qui peuvent comporter toutes sortes de biais intégrés.

“Google blâme le modèle pour être devenu quelque chose qu’il n’était pas censé être. Mais ils ont fait le modèle ! C’est comme s’ils avaient cassé un verre et qu’au lieu de dire “nous l’avons laissé tomber”, ils disent “il est tombé”. Les erreurs de ces modèles sont inévitables, certainement. Ils hallucinent, ils reflètent des biais, ils se comportent de manière inattendue. Mais la responsabilité de ces erreurs n’incombe pas aux modèles – elle incombe aux personnes qui les ont créés.”

Quel type de personnes, et d’ailleurs de chiens et de parcs, est le plus courant dans les milliers d’images pertinentes que le modèle a ingérées ? Le fait est que les personnes blanches sont surreprésentées dans de nombreuses collections d’images (images de stock, photographie libre de droits, etc.), et par conséquent le modèle se tournera par défaut vers des personnes blanches dans de nombreux cas si vous ne spécifiez pas. C’est simplement un artefact des données d’apprentissage, mais comme le souligne Google, “parce que nos utilisateurs viennent du monde entier, nous voulons que cela fonctionne bien pour tout le monde.

Ainsi, rien de mal à obtenir une image d’un homme blanc promenant un golden retriever dans un parc de banlieue. Mais si vous en demandez 10 et qu’il s’agit tous d’hommes blancs promenant des golden retrievers dans des parcs de banlieue ? Et si vous vivez au Maroc, où les gens, les chiens et les parcs sont tous différents ? Il s’agit tout simplement d’un résultat non souhaité. Si quelqu’un ne spécifie pas une caractéristique, le modèle devrait opter pour la variété, et non pour l’homogénéité, malgré la façon dont ses données d’apprentissage pourraient le biaiser.

Partagez cet article
article précédent

Le BTP CFA Roubaix renforce son partenariat avec Saint-Gobain – Centre Inffo

article suivant

Le Territoire d’industrie Lacq-Pau-Tarbes reçoit le prix de la politique publique

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles