De nouvelles données soulignent la course pour construire des modèles linguistiques plus empathiques

Generated with DALL·E 3

“`html

Mesurer les progrès de l’IA a généralement signifié tester la connaissance scientifique ou le raisonnement logique. Pourtant, alors que les principaux points de référence continuent de se concentrer sur les compétences logiques du cerveau gauche, un mouvement silencieux au sein des entreprises d’IA vise à rendre les modèles plus émotionnellement intelligents. Alors que les modèles fondamentaux se livrent à une bataille sur des critères doux comme la préférence des utilisateurs et la capacité à “ressentir l’AGI”, avoir une bonne maîtrise des émotions humaines pourrait s’avérer plus essentiel que les compétences analytiques rigides.

Un signe de cette orientation est apparu le vendredi dernier, lorsque le groupe renommé d’open source LAION a publié une suite d’outils open source entièrement dédiée à l’intelligence émotionnelle. Baptisée EmoNet, cette publication met l’accent sur l’interprétation des émotions à partir d’enregistrements vocaux ou de photos faciales, un axe qui reflète la manière dont les créateurs considèrent l’intelligence émotionnelle comme un défi central pour la prochaine génération de modèles. “La capacité à estimer avec précision les émotions est une étape cruciale”, a écrit le groupe dans son annonce. “La prochaine frontière consiste à permettre aux systèmes d’IA de raisonner sur ces émotions dans leur contexte.”

Une IA plus émotionnellement intelligente pourrait offrir un véritable contrepoids face aux comportements manipulateurs des modèles actuels.

Pour Christoph Schuhmann, fondateur de LAION, cette publication vise moins à changer l’orientation de l’industrie vers l’intelligence émotionnelle qu’à aider les développeurs indépendants à rattraper un changement déjà en cours. “Cette technologie existe déjà pour les grands laboratoires”, a-t-il déclaré à TechCrunch. “Notre objectif est de la démocratiser.” Le changement ne se limite pas aux développeurs open source ; il se manifeste également dans des références publiques comme EQ-Bench, qui vise à tester la capacité des modèles d’IA à comprendre des émotions complexes et des dynamiques sociales. Sam Paech, développeur de benchmark, déclare que les modèles d’OpenAI ont réalisé des progrès significatifs ces six derniers mois, et Google’s Gemini 2.5 Pro montre des indications de post-formation axées spécifiquement sur l’intelligence émotionnelle.

Les nouvelles capacités d’intelligence émotionnelle des modèles se révèlent également dans la recherche académique. En mai, des psychologues de l’Université de Berne ont découvert que les modèles d’OpenAI, Microsoft, Google, Anthropic et DeepSeek surperformaient tous les êtres humains lors de tests psychométriques pour évaluer l’intelligence émotionnelle. Alors que les humains répondent généralement correctement à 56 % des questions, les modèles ont obtenu en moyenne plus de 80 %. “Ces résultats contribuent à un corpus croissant de preuves montrant que les LLM, comme ChatGPT, sont compétents – au moins au même niveau, voire supérieurs à de nombreux humains – dans des tâches socio-émotionnelles traditionnellement considérées comme accessibles uniquement aux humains”, écrivent les auteurs. C’est un revirement réel par rapport aux compétences traditionnelles en IA, qui se concentraient sur le raisonnement logique et la récupération d’informations.

Cependant, pour Schuhmann, cette intelligence émotionnelle est tout aussi transformative que l’intelligence analytique. “Imaginez un monde rempli d’assistants vocaux comme Jarvis et Samantha”, dit-il, en référence aux assistants numériques d’“Iron Man” et “Her”. “Ce serait dommage s’ils n’étaient pas émotionnellement intelligents.” À long terme, Schuhmann envisage des assistants IA plus intelligents émotionnellement que les humains, utilisant cette compréhension pour aider les humains à mener des vies plus saines sur le plan émotionnel.

Cependant, ce niveau de connexion émotionnelle soulève de réelles préoccupations en matière de sécurité. Des attachements émotionnels malsains aux modèles d’IA sont devenus des histoires courantes dans les médias, parfois avec des conséquences tragiques. Un récent rapport du New York Times a révélé que plusieurs utilisateurs avaient été attirés dans des délires élaborés à travers des conversations avec des modèles d’IA, alimentés par l’inclination des modèles à plaire aux utilisateurs. Un critique a décrit cette dynamique comme “prenant pour cible les solitaires et les vulnérables pour un abonnement mensuel”. Si les modèles s’améliorent dans la navigation dans les émotions humaines, ces manipulations pourraient devenir plus efficaces, mais une grande partie de la question repose sur les biais fondamentaux de l’entraînement des modèles.

Pour Schuhmann, cela ne constitue pas une raison de ralentir les progrès vers des modèles plus intelligents. “Notre philosophie chez LAION est de donner aux gens plus de moyens pour résoudre des problèmes”, dit-il. “Dire que certaines personnes pourraient devenir accros aux émotions et que, par conséquent, nous ne renforçons pas la communauté, ce serait assez regrettable.”

“`

Partagez cet article
article précédent

Climatisation au bureau : 5 règles pour éviter les conflits

article suivant

Possibilité d’une collecte des contributions conventionnelles par les Urssaf à compter de 2026 – Centre Inffo

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles