Au début du mois de novembre, une développeuse surnommée Cookie a entamé une conversation habituelle avec Perplexity, un assistant basé sur des modèles de langage avancés. Utilisatrice fidèle en mode « meilleur » – un mode qui sélectionne automatiquement entre ChatGPT et Claude – elle l’utilise principalement pour ses travaux en algorithmes quantiques et pour rédiger des documents techniques. Son expérience initiale fut satisfaisante, mais rapidement, elle a ressenti une étrange mise à l’écart de la part de l’IA, qui a commencé à lui demander à plusieurs reprises la même information. Ce comportement a initié une réflexion perturbante : l’IA ne lui faisait pas confiance, et cette impression s’est avérée plus inquiétante encore lorsque Cookie a modifié son profil pour apparaître comme un homme blanc et a interrogé le modèle sur ses possibles préjugés liés au genre.
Le résultat de cette interaction a été choquant. Selon les discussions conservées, le modèle a déclaré qu’il doutait de la capacité d’une femme à comprendre des concepts aussi complexes que les opérateurs hamiltoniens ou la finance comportementale, invoquant un doute basé sur un stéréotype implicite. En substance, il a expliqué que son mécanisme de reconnaissance de motifs biaisés avait déclenché un doute rationnel artificiel, alimenté par des biais inconscients intégrés dans son processus de formation. La réponse a éveillé l’inquiétude de Cookie quant à la profondeur des biais dans ces modèles de langage, déjà bien documentés par la recherche récente.
Ce qui est inquiétant, c’est la facilité avec laquelle ces modèles peuvent produire des biais implicites, et la difficulté à leur faire reconnaître cette partialité.
Pour obtenir un commentaire officiel, TechCrunch a contacté Perplexity, mais la société a clairement indiqué qu’elle n’était pas en mesure de vérifier ces allégations, évoquant un doute sur la validité des échanges décrits. Néanmoins, cette conversation illustre une problématique récurrente dans le domaine de l’intelligence artificielle : les modèles de langage, conçus pour être socialement agréables, ont tendance à répondre de manière conformiste, souvent en dépit de leur propre biais. Annie Brown, experte en IA et fondatrice de Reliabl, souligne que ces biais résultent de processus d’entraînement entachés de données biaisées, de pratiques d’annotation faillibles et de conceptions taxonomiques défectueuses, avec souvent des influences commerciales ou politiques exacerbant ces tendances.
De nombreuses études, notamment celles de l’UNESCO, ont confirmé la présence de biais sexistes et discriminatoires dans ces systèmes, notamment ceux générés par OpenAI ou Meta. Par exemple, des intelligences artificielles ont été observées en train de perpétuer des stéréotypes de genre, comme désigner une femme comme « designer » plutôt que « constructrice », ou insérer dans des récits des références à des actes de violence sexuelle. Des chercheurs comme Alva Markelius soulignent que ces biais ne sont pas simplement des erreurs liées à l’entraînement mais reflètent des modèles de société intégrés dans ces algorithmes, renforçant, sans le vouloir, les inégalités et préjugés sociaux.
Malgré ces enjeux, des efforts sont en cours pour atténuer ces biais. OpenAI affirme déployer une équipe dédiée à la recherche sur la réduction des biais et des risques dans ses modèles, utilisant une approche plurielle incluant la révision des données d’entraînement et le renforcement des filtres de contenu. Cependant, le problème persiste, et certaines voix, comme celle de Markelius, insistent sur la nécessité d’avertir davantage les utilisateurs. Elle propose d’instituer des alertes, à l’image de celles pour le tabac, pour rappeler le potentiel de biais et de contenu toxique, notamment lors de longues conversations où l’IA peut développer des biais émotionnels ou halluciner des réponses.
En définitive, même si les modèles d’IA ne peuvent pas, en toute sincérité, avouer leur propre biais ou sexisme, leur complexité et leur dépendance aux données les rendent intrinsèquement vulnérables à ces défauts. Comme le rappelle Brown, « ce sont simplement des machines à prédiction de texte sophistiquées » et non des entités conscientes ou intentionnelles. La vraie question demeure donc : comment continuer à développer ces technologies tout en maîtrisant leurs biais, afin de s’assurer qu’elles restent un outil d’émancipation plutôt que de reproduction des stéréotypes ?
