Anthropic nomme un expert en sécurité nationale à son trust de gouvernance

Generated with DALL·E 3

“`html

Un jour après avoir annoncé de nouveaux modèles d’IA destinés aux applications de sécurité nationale aux États-Unis, Anthropic, une entreprise axée sur l’intelligence artificielle, a nommé Richard Fontaine, un expert en sécurité nationale, au sein de son trust de bénéfice à long terme. Ce trust est un mécanisme de gouvernance dont Anthropic affirme qu’il l’aide à privilégier la sécurité sur le profit, détenant le pouvoir d’élire certains membres du conseil d’administration de la société. Parmi les autres membres du trust figurent Zachary Robinson, PDG du Centre for Effective Altruism, Neil Buddy Shah, PDG de la Clinton Health Access Initiative, et Kanika Bahl, présidente d’Evidence Action.

Dans une déclaration, le PDG d’Anthropic, Dario Amodei, a souligné que l’engagement de Fontaine renforcera “la capacité du trust à guider Anthropic à travers des décisions complexes” concernant l’IA en lien avec la sécurité. Il a également ajouté que “l’expertise de Richard intervient à un moment critique alors que les capacités avancées de l’IA s’entrecroisent de plus en plus avec des considérations de sécurité nationale.” Amodei a exprimé sa conviction que “garantir que les nations démocratiques maintiennent leur leadership dans le développement responsable de l’IA est essentiel à la fois pour la sécurité mondiale et le bien commun.”

L’engagement de Fontaine montre à quel point Anthropic est déterminé à explorer les synergies entre l’intelligence artificielle et la sécurité nationale.

Fontaine, qui n’aura pas d’intérêt financier au sein d’Anthropic en tant que trustee, a occupé par le passé des postes de conseiller en politique étrangère auprès du sénateur John McCain et était professeur adjoint à Georgetown, enseignant les études de sécurité. Pendant plus de six ans, il a dirigé le Center for A New American Security, un groupe de réflexion sur la sécurité nationale basé à Washington, D.C. Anthropic s’engage de plus en plus auprès des clients de la sécurité nationale américaine, alors qu’elle recherche de nouvelles sources de revenus.

En novembre, la société a formé un partenariat avec Palantir et AWS, la division de cloud computing d’Amazon, pour vendre l’IA d’Anthropic aux clients de la défense. Anthropic n’est pas la seule entreprise d’IA de premier plan à viser des contrats avec la défense ; OpenAI cherche également à établir un lien plus étroit avec le département américain de la Défense, et Meta a récemment révélé qu’elle rendait ses modèles Llama disponibles pour des partenaires de défense. Parallèlement, Google peaufine une version de son IA Gemini capable de travailler dans des environnements classifiés, et Cohere, qui développe principalement des produits d’IA pour les entreprises, collabore également avec Palantir pour déployer ses modèles d’IA.

La nomination de Fontaine intervient alors qu’Anthropic renforce ses rangs exécutifs. En mai, l’entreprise a nommé Reed Hastings, co-fondateur de Netflix, à son conseil d’administration. Cette dynamique autour de la sécurité nationale et de l’intelligence artificielle souligne l’importance croissante de cette technologie dans la stratégie de défense des États-Unis.

“`

Partagez cet article
article précédent

Les humains apportent les ‘checks and balances’ nécessaires pour l’IA, selon la PDG de Lattice

article suivant

Construire des applications GenAI plus évolutives pour les startups et développeurs

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles