Le modèle d’IA de Google pour la génération d’images, Gemini, a été critiqué pour son approche évitant les directives basées sur la race et ses tentatives de dissimuler les biais. Comme les autres modèles d’IA, Gemini contient des biais qu’il est nécessaire de traiter de manière transparente. Ces directives permettent à l’IA de générer des résultats basés sur les données fournies lors de l’apprentissage, mais elles peuvent également entraîner des préjudices si elles ne sont pas correctement gérées.
Les chercheurs d’Amazon ont découvert que les Modèles de Langage à Grande Échelle (LLMs) contiennent des significations codées dans leurs structures. Par exemple, un LLM peut apprendre à associer certaines phrases ou mots à des concepts ou des sentiments spécifiques. Il est crucial de comprendre et de gérer ces codages afin d’éviter les biais ou les malentendus dans les résultats de l’IA.
“Les biais dans les ensembles de données d’IA sont un problème sérieux qui doit être résolu.”
Les chercheurs suisses ont également fait des progrès notables en utilisant l’apprentissage automatique pour la vision prosthétique. En analysant et en apprenant les motifs de mouvement oculaire, les machines peuvent mieux manipuler et interpréter les signaux visuels, ce qui peut conduire à des progrès significatifs dans le domaine des prothèses oculaires. De manière similaire, des chercheurs de l’École Polytechnique Fédérale de Lausanne (EPFL) utilisent les LLM dans le domaine de la chimie pour prédirect les réactions chimiques.
Par ailleurs, une étude de l’Université de Stanford analyse les compétences de dessin des enfants par le biais de l’IA, tandis que des chercheurs de Berkeley ont mis en évidence un biais de genre dans les images Google. Ces recherches mettent en évidence les biais et les problèmes potentiels liés à l’IA qui doivent être abordés. En fin de compte, il est nécessaire de continuer à travailler sur les biais dans l’IA pour garantir des traitements et des résultats équitables pour tous.