Le glossaire de l’IA de TechCrunch | TechCrunch

Generated with DALL·E 3

L’intelligence artificielle est un monde profond et compliqué. Les scientifiques qui travaillent dans ce domaine dépendent souvent de jargon et de terminologie pour expliquer leurs travaux. En conséquence, nous devons fréquemment utiliser ces termes techniques dans notre couverture de l’industrie de l’intelligence artificielle. C’est pourquoi nous avons pensé qu’il serait utile de rassembler un glossaire avec des définitions de certains des mots et expressions les plus importants que nous utilisons dans nos articles. Nous mettrons régulièrement à jour ce glossaire pour ajouter de nouvelles entrées à mesure que les chercheurs découvrent sans cesse de nouvelles méthodes pour repousser les frontières de l’intelligence artificielle tout en identifiant les risques de sécurité émergents.

Un agent IA est un outil qui utilise les technologies de l’IA pour effectuer une série de tâches en votre nom, au-delà de ce qu’un chatbot IA de base pourrait faire, comme déposer des dépenses, réserver des billets ou une table dans un restaurant, voire écrire et maintenir du code. Cependant, comme nous l’avons expliqué auparavant, de nombreuses pièces sont en mouvement dans cet espace émergent, donc différentes personnes peuvent vouloir dire différentes choses lorsqu’elles parlent d’un agent IA. L’infrastructure est également toujours en cours de construction pour réaliser les capacités envisagées. Mais le concept de base implique un système autonome qui peut s’appuyer sur plusieurs systèmes d’IA pour effectuer des tâches multi-étapes.

Le raisonnement en chaîne de pensées pour les grands modèles linguistiques signifie décomposer un problème en étapes intermédiaires plus petites pour améliorer la qualité du résultat final.

Étant donné une question simple, un cerveau humain peut y répondre sans même y penser trop – des choses comme “quel animal est plus grand entre une girafe et un chat ?” Mais dans de nombreux cas, vous avez souvent besoin d’un stylo et d’un papier pour trouver la bonne réponse car il y a des étapes intermédiaires. Par exemple, si un agriculteur a des poules et des vaches, et qu’ensemble elles ont 40 têtes et 120 jambes, vous devrez peut-être écrire une simple équation pour trouver la réponse (20 poules et 20 vaches). Dans un contexte d’IA, le raisonnement en chaîne de pensées pour les grands modèles linguistiques signifie décomposer un problème en étapes intermédiaires plus petites pour améliorer la qualité du résultat final. Il faut généralement plus de temps pour obtenir une réponse, mais la réponse a plus de chances d’être correcte, en particulier dans un contexte logique ou de codage. Les soi-disant modèles de raisonnement sont développés à partir de grands modèles linguistiques traditionnels et optimisés pour la pensée en chaîne de pensées grâce à l’apprentissage par renforcement.

Un sous-ensemble d’apprentissage machine auto-améliorant dans lequel les algorithmes d’IA sont conçus avec une structure de réseau neuronal artificiel (ANN) à plusieurs couches. Cela leur permet de faire des corrélations plus complexes par rapport à des systèmes basés sur un apprentissage machine plus simple, tels que les modèles linéaires ou les arbres de décision. La structure des algorithmes d’apprentissage en profondeur s’inspire des voies interconnectées des neurones dans le cerveau humain. Les IA d’apprentissage en profondeur sont capables d’identifier elles-mêmes les caractéristiques importantes dans les données, plutôt que de nécessiter que des ingénieurs humains définissent ces fonctionnalités. La structure prend également en charge les algorithmes qui peuvent apprendre des erreurs et, par un processus de répétition et d’ajustement, améliorer leurs propres sorties. Cependant, les systèmes d’apprentissage en profondeur nécessitent beaucoup de points de données pour donner de bons résultats (des millions ou plus). Il faut également généralement plus de temps pour former un apprentissage en profondeur par rapport à des algorithmes d’apprentissage machine plus simples – donc les coûts de développement ont tendance à être plus élevés.

Les poids sont essentiels à la formation de l’IA car ils déterminent combien d’importance (ou de poids) est accordée à différentes caractéristiques (ou variables d’entrée) dans les données utilisées pour la formation du système – formant ainsi la sortie du modèle d’IA. Autrement dit, les poids sont des paramètres numériques qui définissent ce qui est le plus saillant dans un ensemble de données pour la tâche de formation donnée. Ils remplissent leur fonction en appliquant une multiplication aux entrées. La formation du modèle commence généralement avec des poids qui sont attribués au hasard, mais au fur et à mesure que le processus se déroule, les poids s’ajustent alors que le modèle cherche à obtenir une sortie qui se rapproche plus de la cible. Par exemple, un modèle d’IA pour prédire les prix des maisons qui est formé sur des données immobilières historiques pour un emplacement cible pourrait inclure des poids pour des caractéristiques telles que le nombre de chambres à coucher et de salles de bain, si une propriété est détachée, semi-détachée, si elle a ou non un parking, un garage, et ainsi de suite. En fin de compte, les poids que le modèle attache à chacune de ces entrées reflètent combien elles influencent la valeur d’une propriété, en fonction de l’ensemble de données donné.

Partagez cet article
article précédent

Snowflake développe son accélérateur de start-up avec 200 millions de dollars en nouveau capital | TechCrunch

article suivant

Dernière chance ! Plus que 24 heures pour économiser jusqu’à $325 sur Sessions: AI | TechCrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles