C’est officiel : Le Pentagone a classé Anthropic comme un risque pour la chaîne d’approvisionnement

Le Département de la Défense (DOD) américain a officiellement notifié la direction d’Anthropic que la société et ses produits ont été désignés comme un **risque pour la chaîne d’approvisionnement**, rapporte Bloomberg en citant un haut responsable du département. Cette décision survient après plusieurs semaines de tensions croissantes entre le laboratoire d’IA et le gouvernement militaire, notamment en raison de divergences sur l’utilisation des technologies d’Anthropic à des fins militaires ou de surveillance.

Le PDG d’Anthropic, Dario Amodei, a fermement refusé de permettre à l’armée d’utiliser ses systèmes d’IA pour la surveillance de masse des citoyens américains ou pour alimenter des armes entièrement autonomes sans intervention humaine. Le Département a argumenté que l’utilisation de l’IA ne devrait pas être limitée par un fournisseur privé, ce qui a conduit à la désignation comme un « risque pour la chaîne d’approvisionnement ». Cette dernière est habituellement réservée aux adversaires étrangers, ce qui souligne la gravité et l’exceptionnalité de cette décision.

La classification d’Anthropic comme un risque pour la chaîne d’approvisionnement pourrait perturber leurs opérations tout en mettant en péril celles du Pentagone, une situation sans précédent dans le domaine de la technologie et de la défense.

Actuellement, Anthropic, qui possède des systèmes d’intelligence artificielle classifiés, joue un rôle stratégique dans les opérations militaires américaines. Son modèle Claude est utilisé dans la campagne en Iran, notamment intégré dans le système Palantir Maven Smart System, un outil clé pour la gestion rapide et efficiente des données par les forces américaines au Moyen-Orient, selon Bloomberg. L’interdiction de collaborer avec le département militaire pourrait donc avoir des implications majeures pour cette collaboration technologique déjà cruciale.

Cette décision du DOD est qualifiée par plusieurs experts et critiques comme une action sans précédent, voire controversée. Dean Ball, ancien conseiller à la Maison-Blanche en matière d’IA sous l’administration Trump, a dénoncé cette désignation en la qualifiant de « bruit de mort » de la république américaine, accusant le gouvernement de manquer de stratégie et de privilégier une approche paternaliste et tribaliste à l’encontre d’innovateurs nationaux, parfois même plus dure que contre des adversaires étrangers. Plusieurs employés de grandes entreprises technologiques comme OpenAI et Google ont également appelé le Congrès à intervenir pour limiter l’usage potentiel de ces nouvelles classifications.

En parallèle, OpenAI a négocié un accord avec le Département pour permettre à ses systèmes d’IA d’être utilisés par l’armée à des fins « légales ». Cependant, certains employés expriment des inquiétudes quant à la formulation ambiguë de cet accord, qui pourrait ouvrir la porte à des utilisations que l’entreprise cherche à éviter, notamment pour des activités de surveillance de masse ou de frappes autonomes. Quant à Dario Amodei, il a dénoncé la nature « punitive et répressive » de l’action du DOD, en précisant que son refus de faire l’éloge ou de financer le président Trump aurait aggravé le conflit avec le Pentagone.

La prise de position d’Anthropic face aux exigences militaires soulève des questions éthiques et stratégiques sur l’avenir de l’IA militaire aux États-Unis.

Partagez cet article
article précédent

Aides à l’apprentissage : « Opposer le supérieur et les autres niveaux est une erreur » (Danielle Sionneau, Formasup Méditerranée) – Centre Inffo

article suivant

Luma lance ses agents d’IA créative propulsés par ses nouveaux modèles ‘Unified Intelligence’

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles