Alors que les entreprises expérimentent l’intégration de l’IA partout, une tendance inattendue est que les entreprises se tournent vers l’IA pour aider ses nombreux nouveaux bots à mieux comprendre l’émotion humaine. C’est un domaine appelé “emotion AI”, selon le nouveau rapport de recherche sur les technologies émergentes des entreprises SaaS de PitchBook qui prédit que cette technologie est en pleine croissance. Le raisonnement est le suivant : Si les entreprises déploient des assistants IA pour les cadres et les employés, font des chatbots IA des représentants commerciaux et du service client en première ligne, comment un IA peut-il bien fonctionner s’il ne comprend pas la différence entre un “Qu’est-ce que tu veux dire par là ?” en colère et un “Qu’est-ce que tu veux dire par là ?” confus ? “Emotion AI” prétend être le frère plus sophistiqué de l’analyse de sentiment, la technologie pré-IA qui tente de distiller l’émotion humaine à partir d’interactions basées sur le texte, en particulier sur les médias sociaux.
L’Emotion AI est ce que vous pourriez appeler multimodale, utilisant des capteurs pour les entrées visuelles, audio et autres combinées avec l’apprentissage automatique et la psychologie pour tenter de détecter l’émotion humaine lors d’une interaction. Les principaux fournisseurs de cloud IA proposent des services qui donnent aux développeurs accès aux capacités de l’Emotion AI tels que le service Emotion API de Microsoft Azure cognitive services ou le service de reconnaissance d’Amazon Web Services. (Ce dernier a eu sa part de controverse au fil des ans).
Bien que l’Emotion AI, même offerte en tant que service cloud, ne soit pas nouvelle, l’essor soudain des bots dans le monde du travail lui donne plus d’avenir dans le monde des affaires qu’elle n’en a jamais eu auparavant, selon PitchBook.
“Avec la prolifération des assistants IA et des interactions entièrement automatisées entre l’homme et la machine, l’Emotion AI promet de permettre des interprétations et des réponses plus humaines”, écrit Derek Hernandez, analyste senior, technologie émergente chez PitchBook dans le rapport. “Les caméras et les microphones sont des parties intégrantes du côté matériel de l’Emotion AI. Ceux-ci peuvent être sur un ordinateur portable, un téléphone, ou individuellement situés dans un espace physique. De plus, le matériel portable fournira probablement une autre voie pour utiliser l’Emotion AI au-delà de ces appareils”, explique Hernandez à TechCrunch. (Donc, si ce chatbot du service à la clientèle demande l’accès à la caméra, c’est peut-être pourquoi.)
À cette fin, un nombre croissant de startups sont lancées pour le rendre possible. Cela comprend Uniphore (avec un total de 610 millions de dollars levés, dont 400 millions de dollars en 2022 dirigés par NEA), ainsi que MorphCast, Voicesense, Superceed, Siena AI, audEERING, et Opsis, chacun d’entre eux ayant également levé des sommes modestes auprès de divers VCs, estime PitchBook.
Bien sûr, l’Emotion AI est une approche très Silicon Valley : utiliser la technologie pour résoudre un problème causé par l’utilisation de la technologie avec les humains. Mais même si la plupart des bots IA finiront par gagner une certaine forme d’empathie automatisée, cela ne signifie pas que cette solution fonctionnera vraiment. En fait, la dernière fois que l’Emotion AI est devenue très intéressante dans la Silicon Valley – vers 2019, lorsque la plupart du monde de l’IA/ML se concentrait encore sur la vision par ordinateur plutôt que sur le langage et l’art génératifs – des chercheurs ont jeté un froid sur l’idée. Cette année-là, une équipe de chercheurs a publié une méta-analyse d’études et a conclu que l’émotion humaine ne peut pas réellement être déterminée par les mouvements du visage. En d’autres termes, cette idée que nous pouvons enseigner à une IA à détecter les sentiments d’un humain en l’imitant comment d’autres humains essaient de le faire (lire les visages, le langage corporel, le ton de la voix) est quelque peu malavisée dans son hypothèse. Il y a aussi la possibilité que la réglementation de l’IA, comme le “AI Act” de l’Union européenne, qui interdit les systèmes de détection de l’émotion par la vision par ordinateur pour certains usages comme l’éducation, puisse couper court à cette idée. (Certaines lois d’État, comme le BIPA de l’Illinois, interdisent également la collecte de données biométriques sans autorisation.) Tout cela donne un aperçu plus large de cet avenir omniprésent de l’IA que la Silicon Valley est en train de construire frénétiquement. Soit ces bots IA vont essayer de comprendre les émotions pour faire des tâches comme le service à la clientèle, les ventes et les RH et toutes les autres tâches que les humains espèrent leur assigner, soit ils ne seront pas très bons pour toute tâche qui nécessite vraiment cette capacité. Peut-être que ce que nous regardons est une vie de bureau remplie de bots IA au niveau de Siri en 2023. Par rapport à un bot obligatoire en réunion qui tente de deviner les sentiments de tout le monde en temps réel, qui peut dire lequel est le pire ?