OpenAI a discrètement retiré le langage approuvant une IA “politiquement impartiale” de l’un de ses documents de politique récemment publiés. Dans le projet initial de son “plan économique” pour l’industrie de l’IA aux États-Unis, OpenAI affirmait que les modèles d’IA “devraient viser à être politiquement impartiaux par défaut”. Une nouvelle version, mise à disposition lundi, supprime cette formulation. Lorsqu’on l’a interrogé à ce sujet, un porte-parole d’OpenAI a déclaré que cette modification faisait partie d’un effort pour “rationaliser” le document, et que d’autres documents d’OpenAI, notamment le Model Spec d’OpenAI, “insistent sur l’objectivité”.
Le Model Spec, que OpenAI a publié en mai, vise à éclairer le comportement des différents systèmes d’IA de l’entreprise. Néanmoins, cette révision met également en évidence le champ de mines politiques que représente le discours sur l’IA “biaisée”. De nombreux alliés du président élu Donald Trump, dont Elon Musk et le “tsar” de la crypto et de l’IA David Sacks, ont accusé les chatbots d’IA de censurer les points de vue conservateurs. Sacks a notamment ciblé le ChatGPT d’OpenAI comme étant “programmé pour être éveillé” et peu sincère sur les sujets politiquement sensibles.
“La vérité est que le biais dans l’IA est un problème technique difficile à résoudre. La propre entreprise d’IA de Musk, xAI, a elle-même eu du mal à créer un chatbot qui n’approuve pas certaines visions politiques plus que d’autres.”
Musk a attribué le biais des IA à la fois aux données sur lesquelles les modèles d’IA sont formés et au caractère “réveillé” des entreprises de la région de la baie de San Francisco. “Beaucoup des IA qui sont formées dans la région de la baie de San Francisco prennent la philosophie des gens qui les entourent”, a déclaré Musk lors d’un événement soutenu par le gouvernement saoudien en octobre dernier. “Vous avez donc une philosophie réveillée, nihiliste – à mon avis – qui est intégrée dans ces IA”.
En réalité, le biais de l’IA est un problème technique insoluble. L’entreprise d’IA de Musk, xAI, a elle-même eu du mal à créer un chatbot qui n’indorse pas certaines opinions politiques plus que d’autres. Une étude réalisée par des chercheurs britanniques en août suggère que le ChatGPT a un biais libéral sur des sujets tels que l’immigration, le changement climatique et le mariage homosexuel. OpenAI affirme que tout biais qui apparaît dans le ChatGPT “sont des bugs, pas des fonctionnalités”.
Kyle Wiggers est un reporter senior à TechCrunch avec un intérêt particulier pour l’intelligence artificielle. Ses écrits ont été publiés dans VentureBeat et Digital Trends, ainsi que dans une série de blogs sur les gadgets, dont Android Police, Android Authority, Droid-Life et XDA-Developers. Il vit à Brooklyn avec son partenaire, un professeur de piano, et s’amuse lui-même à jouer du piano, occasionnellement et pour la plupart sans succès.