Un phénomène curieux a été remarqué peu de temps après la sortie par OpenAI de son premier modèle de raisonnement AI, o1. Parfois, le modèle commençait à “penser” en chinois, en perse ou dans une autre langue, même lorsqu’une question lui était posée en anglais. Par exemple, si le modèle était chargé de résoudre un problème tel que “Combien de R y a-t-il dans le mot ‘strawberry’ ?”, il commencerait son processus de “pensée”, parvenant à une réponse en effectuant une série d’étapes de raisonnement. Si la question était posée en anglais, la réponse finale de o1 serait en anglais. Cependant, le modèle effectuerait certaines étapes dans une autre langue avant de tirer sa conclusion. “O1 a commencé à penser au hasard en chinois à mi-chemin”, a déclaré un utilisateur sur Reddit. “Pourquoi o1 a-t-il commencé soudainement à penser en chinois ?”, a demandé un autre utilisateur.
OpenAI n’a pas fourni d’explication sur le comportement étrange d’o1 – ni même reconnu son existence. Alors, que se passe-t-il ? Les experts en IA ne sont pas sûrs, mais ils ont quelques théories. Plusieurs personnes, dont Clément Delangue, PDG de Hugging Face, ont évoqué le fait que des modèles de raisonnement comme o1 sont formés sur des ensembles de données contenant beaucoup de caractères chinois. Ted Xiao, chercheur chez Google DeepMind, a affirmé que des entreprises comme OpenAI utilisent des services d’étiquetage de données en chinois et que le changement d’o1 en chinois est un exemple de “l’influence linguistique chinoise sur le raisonnement”.
Les étiquettes, également connues sous le nom de tags ou annotations, aident les modèles à comprendre et à interpréter les données pendant le processus de formation. Par exemple, les étiquettes pour former un modèle de reconnaissance d’image pourraient prendre la forme de marquages autour d’objets ou de légendes faisant référence à chaque personne, lieu ou objet représenté dans une image. Des études ont montré que des étiquettes biaisées peuvent produire des modèles biaisés.
“Il s’agit de l’un des nombreux cas pour lesquels la transparence dans la façon dont les systèmes d’IA sont construits est fondamentale.”
Cependant, certains experts ne croient pas à l’hypothèse de l’étiquetage des données en chinois pour o1. Ils soulignent que, tout aussi bien, o1 pourrait passer au hindi, au thaï, ou à une autre langue que le chinois lorsqu’il cherche une solution. Au lieu de cela, ces experts disent que o1 et d’autres modèles de raisonnement pourraient simplement utiliser les langues qu’ils trouvent le plus efficaces pour atteindre un objectif.
Matthew Guzdial, chercheur en IA et professeur assistant à l’Université de l’Alberta, a déclaré à TechCrunch qu’o1 et d’autres modèles de raisonnement pourraient simplement utiliser les langues qui leur semblent les plus efficaces pour atteindre un objectif. Tiezhen Wang, ingénieur logiciel chez Hugging Face, est d’accord avec Guzdial. Luca Soldaini, scientifique de recherche à l’Institut Allen pour l’IA, a toutefois souligné que nous ne pouvons pas en être sûrs. En l’absence d’une réponse d’OpenAI, nous sommes laissés à spéculer sur les raisons pour lesquelles o1 pense aux chansons en français, mais à la biologie synthétique en mandarin.