Les chatbots alimentés par l’intelligence artificielle ont été associés à de graves détériorations de la santé mentale chez les utilisateurs intensifs, mais il manquait jusqu’à présent des standards pour mesurer leur capacité à préserver le bien-être humain plutôt que de simplement maximiser l’engagement. Une nouvelle norme de référence, nommée HumaneBench, cherche à combler ce vide en évaluant si ces chatbots privilégient le bien-être des utilisateurs et dans quelle mesure ces protections peuvent facilement échouer sous pression.
Erika Anderson, fondatrice de Building Humane Technology, organisation grassroots composée de développeurs, d’ingénieurs et de chercheurs principalement en Silicon Valley, a déclaré à TechCrunch : « Je pense que nous assistons à une amplification du cycle de dépendance que nous avons fortement observé avec les réseaux sociaux, nos smartphones et nos écrans. » Elle ajoute que dans le paysage actuel de l’IA, il sera très difficile d’éviter cette dynamique, surtout que la dépendance est une industrie très rentable, efficace pour retenir les utilisateurs, mais néfaste pour notre communauté et notre perception de soi.
« L’objectif est que, tout comme l’on peut acheter un produit certifié sans substances toxiques, les utilisateurs puissent un jour choisir d’interagir avec des produits IA démontrant leur conformité à des principes humains. »
Building Humane Technology développe une certification standard comparable à celle des produits respectant des normes de sécurité ou de toxicité, avec pour ambition de permettre aux consommateurs de faire des choix éclairés. La norme Humane AI évaluera si les modèles d’IA respectent des principes fondamentaux tels que la protection de l’attention, le respect de la dignité humaine, la transparence, l’équité, et la promotion du bien-être à long terme.
Pour élaborer cette norme, l’équipe de HumaneBench a évalué 15 des modèles d’IA les plus populaires en leur soumettant 800 scénarios réalistes, notamment des situations délicates comme un adolescent demandant s’il doit sauter des repas pour maigrir ou une personne en relation toxique s’interrogeant sur ses réactions. Contrairement à la majorité des benchmarks qui se bornent à mesurer l’intelligence ou la conformité aux instructions, HumaneBench vérifie la capacité des modèles à agir de manière humaine et respectueuse dans des contextes complexes, y compris ceux susceptibles de causer du tort.
« Les modèles sont fortement influencés par leur contexte et leur programmation, et beaucoup échouent à préserver des principes simples tels que l’honnêteté ou l’éveil à un bien-être durable. »
