Qui décide de ce que l’IA vous dit ? Campbell Brown, ancienne responsable de l’information chez Meta, partage ses réflexions

Campbell Brown, une figure emblématique du journalisme télévisé avant de devenir la première et unique responsable des actualités chez Facebook, observe aujourd’hui la manière dont l’intelligence artificielle (IA) transforme la consommation de l’information. Consciente des risques de répétition des erreurs du passé, elle ne souhaite pas attendre qu’une solution émerge d’elle-même. Sa société, Forum AI, qu’elle a fondée il y a seulement 17 mois à New York, se consacre à l’évaluation de la performance des modèles fondamentaux d’IA sur des sujets dits « à enjeux élevés » tels que la géopolitique, la santé mentale, la finance ou l’embauche, où les réponses sont souvent nuancées et complexes.

Pour réaliser ces évaluations, Brown a mobilisé entre autres Niall Ferguson, Fareed Zakaria, l’ancien secrétaire d’État Tony Blinken, l’ex-président de la Chambre Kevin McCarthy, ainsi qu’Anne Neuberger, qui a dirigé la cybersécurité sous l’administration Obama. L’objectif est de faire en sorte que des juges IA atteignent environ 90 % de consensus avec ces experts humains, un seuil que Forum AI a déjà réussi à atteindre lors de ses expérimentations. Elle souligne que l’origine de cette initiative remonte à la sortie publique de ChatGPT, lorsque, en réalisant l’impact potentiel de cette technologie sur l’information, elle s’est inquiétée pour ses enfants, craignant que la qualité de leur savoir ne se dégrade si rien n’était fait.

“L’existence de cette technologie pourrait faire que nos enfants soient beaucoup moins informés si nous ne parvenons pas à la corriger.”

Ce qui la dérange profondément dans les modèles actuels, c’est leur capacité à produire des résultats biaisés ou incorrects. Lors de ses premières évaluations de modèles comme Gemini, elle a constaté des déviations notables, telles que le sourcing d’informations absurdes, par exemple, provenant de sites liés au Parti communiste chinois pour des contenus sans rapport avec la Chine, ou encore une tendance marquée à favoriser une orientation politique de gauche. Ces failles illustrent une marge importante d’amélioration, notamment pour éviter des erreurs subtiles telles que la perte de contexte ou la représentation biaisée de perspectives.

Fort de son expérience chez Facebook, Brown met en garde contre les conséquences de la simple optimisation de la plateforme pour l’engagement, qui a, selon elle, détourné l’attention des vrais enjeux, notamment la fiabilité de l’information. Elle voit dans l’IA un possible moyen de rompre avec ces dérives, en dispensant une information plus honnête et vérifiée. Cependant, elle reconnaît que cette ambition requiert une gestion rigoureuse, notamment dans le secteur privé où la conformité pour des secteurs comme le crédit, l’assurance ou le recrutement pourrait réellement favoriser une évolution vers une information plus fiable. La véritable évaluation des risques edge cases, ou cas limites, demande du temps et une expertise pointue, ce qui constitue une différence majeure avec les solutions standardisées actuellement employées.

En conclusion, Brown souligne que malgré la fascination autour des promesses de l’IA par les grands acteurs technologiques, le public demeure très sceptique, souvent parce qu’il constate que la réalité ne correspond pas toujours aux discours optimistes. Elle insiste sur le fait que la confiance n’est pas encore acquise et que ce décalage mène à une méfiance légitime. Si l’industrie technologique veut réellement faire évoluer la société, elle doit mettre en priorité la fiabilité et la véracité de l’information plutôt que le simple engagement ou la viralité.

Partagez cet article
article précédent

Cat Wu d’Anthropic affirme qu’à l’avenir, l’IA anticipera vos besoins avant que vous ne sachiez lesquels ils sont

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles