‘Claude : Tout ce que vous devez savoir sur l’IA d’Anthropic | TechCrunch’

Generated with DALL·E 3

Anthropic, le fournisseur d’IA qui arrive en deuxième position après OpenAI, possède une puissante famille de modèles d’IA générative appelée Claude. Ces modèles peuvent accomplir un éventail de tâches, allant de la légende d’images et la rédaction d’e-mails à la résolution de problèmes mathématiques et de défis de codage. Avec l’expansion rapide de l’écosystème de modèles d’Anthropic, il peut être difficile de suivre quels modèles Claude font quoi. Pour vous aider, nous avons rassemblé un guide de Claude, que nous mettrons à jour au fur et à mesure de l’arrivée de nouveaux modèles et améliorations. Les modèles Claude sont nommés d’après des œuvres d’art littéraires : Haiku, Sonnet, et Opus. Les derniers sont : Claude 3.5 Haiku, un modèle léger. Claude 3.5 Sonnet, un modèle de moyenne gamme. Claude 3 Opus, le modèle phare d’Anthropic.

Contre-intuitivement, Claude 3.5 Sonnet — le modèle “de moyenne gamme” — est le modèle Claude le plus performant à l’heure actuelle. C’est presque certain que cela changera une fois que la prochaine version d’Opus, Claude 3.5 Opus, sera publiée. Tous les modèles Claude peuvent analyser des textes ainsi que des images, des graphiques, des graphes et des schémas techniques à partir de documents. Les modèles — qui ont une fenêtre contextuelle standard de 200 000 jetons — peuvent également suivre des instructions en plusieurs étapes, utiliser des outils (par exemple, des traceurs de ticker boursier) et produire une sortie structurée dans des formats comme JSON.

Une fenêtre contextuelle est la quantité de données qu’un modèle comme Claude peut analyser avant de générer de nouvelles données, tandis que les jetons sont des bits de données brutes subdivisés (comme les syllabes “fan”, “tas” et “tic” dans le mot “fantastic”). Deux cent mille jetons équivalent à environ 150 000 mots, soit un roman de 600 pages.

Contrairement à de nombreux modèles d’IA générative majeurs, ceux d’Anthropic ne peuvent pas accéder à Internet, ce qui signifie qu’ils ne sont pas particulièrement doués pour répondre aux questions d’actualité. Ils ne peuvent pas non plus générer d’images — seulement des schémas simples en ligne. Quant aux principales différences entre les modèles Claude, Claude 3.5 Sonnet est plus rapide que Claude 3 Opus et comprend mieux les instructions nuancées et complexes. Haiku a du mal avec les invites sophistiquées, mais c’est le modèle le plus rapide des trois.

Les modèles Claude sont disponibles via l’API de Anthropic et des plateformes gérées telles que Amazon Bedrock et Google Cloud’s Vertex AI. Voici la tarification de l’API Anthropic : Claude 3.5 Haiku coûte 25 cents par million de jetons en entrée (~750 000 mots), ou 1,25 $ par million de jetons en sortie. Claude 3.5 Sonnet coûte 3 $ par million de jetons en entrée, ou 15 $ par million de jetons en sortie. Claude 3 Opus coûte 15 $ par million de jetons en entrée, ou 75 $ par million de jetons en sortie.

Anthropic offre un stockage de cache d’invite et un traitement par lots pour réaliser des économies supplémentaires en temps d’exécution. Le stockage de cache d’invite permet aux développeurs de stocker des “contextes d’invite” spécifiques qui peuvent être réutilisés pour les appels API à un modèle, tandis que le traitement par lots traite des groupes asynchrones de requêtes d’inférence de modèle de faible priorité (et donc moins chères).

Pour les utilisateurs individuels et les entreprises cherchant simplement à interagir avec les modèles Claude via des applications pour le web, Android et iOS, Anthropic propose un plan Claude gratuit avec des limites de débit et d’autres restrictions d’utilisation. La mise à niveau vers l’un des abonnements de l’entreprise supprime ces limites et débloque de nouvelles fonctionnalités. Les plans actuels sont : Claude Pro. Claude Team, pour les petites entreprises. Claude Enterprise, pour les grandes entreprises.

Claude Pro, qui coûte 20 $ par mois, offre des limites de débit 5 fois plus élevées, un accès prioritaire et des apercus de fonctionnalités à venir. Business-focused, Team — qui coûte 30 $ par utilisateur par mois — ajoute un tableau de bord pour contrôler la facturation et la gestion des utilisateurs et des intégrations avec des dépôts de données tels que des bases de code et des plateformes de gestion de la relation client (par exemple, Salesforce). Un bouton permet d’activer ou de désactiver les citations pour vérifier les affirmations générées par l’IA. (Comme tous les modèles, Claude hallucine de temps en temps.) Les abonnés Pro et Team bénéficient de Projects, une fonctionnalité qui ancre les sorties de Claude dans des bases de connaissances, qui peuvent être des guides de style, des transcriptions d’entretiens, etc.

Ces clients, ainsi que les utilisateurs du niveau gratuit, peuvent également exploiter Artifacts, un espace de travail où les utilisateurs peuvent modifier et ajouter du contenu comme du code, des applications, des designs de sites web, et d’autres documents générés par Claude. Pour les clients qui ont besoin de encore plus, il y a Claude Enterprise, qui permet aux entreprises de télécharger des données propriétaires dans Claude pour que Claude puisse analyser les informations et répondre aux questions à ce sujet. Claude Enterprise comprend également une fenêtre contextuelle plus grande (500 000 jetons), une intégration GitHub pour que les équipes d’ingénierie puissent synchroniser leurs dépôts GitHub avec Claude, ainsi que les projets et les artefacts.

Comme c’est le cas pour tous les modèles d’IA générative, il y a des risques associés à l’utilisation de Claude. Les modèles font parfois des erreurs lorsqu’ils résument ou répondent à des questions en raison de leur tendance à halluciner. Ils sont également formés sur des données web publiques, dont certaines peuvent être protégées par le droit d’auteur ou sous licence restrictive. Anthropic et de nombreux autres fournisseurs d’IA affirment que la doctrine du fair use les protège contre les revendications de droit d’auteur. Mais cela n’a pas empêché les propriétaires de données de déposer des poursuites. Anthropic propose des politiques pour protéger certains clients des batailles juridiques découlant de défis d’utilisation équitable. Cependant, ils ne résolvent pas le dilemme éthique de l’utilisation de modèles formés sur des données sans permission.

TechCrunch propose une newsletter centrée sur l’IA! Inscrivez-vous ici pour la recevoir dans votre boîte de réception tous les mercredis.

Partagez cet article
article précédent

La levée de fonds de 400 millions de dollars de Lightmatter enchante les hyperscalers de l’IA pour les data centers photoniques | TechCrunch

article suivant

ChatGPT arrive sur Windows | TechCrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles