Anthropic contre le Pentagone : Qu’est-ce qui est réellement en jeu ?

Ces deux dernières semaines ont été marquées par un conflit intense entre Dario Amodei, PDG d’Anthropic, et Pete Hegseth, secrétaire à la Défense des États-Unis, autour de l’utilisation militaire de l’intelligence artificielle (IA). Anthropic a pris position en refusant que ses modèles d’IA soient employés pour la surveillance de masse des citoyens américains ou pour des armes entièrement autonomes, capables de mener des frappes sans intervention humaine. De son côté, Hegseth estime que le Département de la Défense ne devrait pas être limité par les règles d’un fournisseur, arguant que toute utilisation « légale » de cette technologie doit être possible. La situation s’est récemment intensifiée, Amodei laissant entendre que son entreprise ne reculerait pas face aux menaces de classification comme risque dans la chaîne d’approvisionnement, même si cela pourrait compromettre ses relations avec le gouvernement.

Au cœur de ce conflit se trouve la question du contrôle des systèmes d’IA puissants : doit-il revenir aux entreprises qui conçoivent ces technologies ou à l’État qui souhaite leur déploiement ? Anthropic s’inquiète principalement de deux usages précis : la surveillance massive des citoyens américains et la mise en œuvre d’armes autonomes sans supervision humaine. La société argumente que, étant donné la nature sensible de ces applications militaires, il est crucial d’établir des garde-fous spécifiques. Alors que l’armée américaine utilise déjà des systèmes automatisés, certains d’entre eux étant létaux, la question de leur utilisation autonome demeure non réglementée, laissant planer des inquiétudes quant à l’éventuelle automatisation de décisions mortelles.

Le vrai enjeu est de savoir qui, entre les entreprises ou le gouvernement, doit contrôler ces technologies puissantes, dans un contexte où les risques sont considérables.

Ce qui fait hurdle pour Anthropic, c’est la crainte que ses modèles soient employés pour automatiser des processus militaires critiques ou pour intensifier la surveillance au détriment des droits civiques. Bien que l’entreprise ne considère pas que ces usages soient définitivement interdits, elle insiste sur le fait que ses modèles ne sont pas encore assez avancés pour garantir une utilisation sûre dans ces domaines, riskant une erreur catastrophique si une IA moins sophistiquée était déployée dans des systèmes létaux.

Par ailleurs, la problématique de la surveillance n’est pas seulement technique, mais aussi politique. La législation américaine permet déjà la collecte et l’analyse automatisée des communications pour surveiller les citoyens. L’ajout de l’IA peut accentuer cette capacité à un niveau inquiétant, notamment par la détection automatique de comportements suspects, la corrélation entre bases de données, ou encore le scoring prédictif de risques. La crainte d’un dépassement des limites légales et éthiques alimente donc l’opposition à l’usage militaire sans contrôle strict.

Face à cette situation, le Pentagone revendique le droit d’utiliser la technologie d’Anthropic pour tous les usages légaux qu’il juge nécessaires, sans être freiné par les politiques internes du fournisseur. Pete Hegseth a clairement affirmé que le département ne souhaite pas limiter ses options, même si cela implique de déployer des systèmes autonomes ou de mener des surveillances sophistiquées. La menace de qualifier Anthropic comme « risque dans la chaîne d’approvisionnement » ou d’enclencher la National Defense Production Act (DPA) pèse désormais sur la société, avec une échéance fixée au 5 janvier, à l’issue de laquelle le département précisera ses intentions. La crise soulève des enjeux cruciaux pour l’avenir militaire et éthique de l’intelligence artificielle, en particulier si peu de parties disposent d’un contrôle suffisant sur ces technologies.

Ce bras de fer ne peut pas se résoudre facilement. Sachin Seth, investisseur en technologies de défense, souligne que si Anthropic était blacklistée, cela pourrait sonner la fin pour la société, mais que son retrait pourrait aussi poser un problème pour la sécurité nationale, en laissant la place à des concurrents comme OpenAI ou xAI. Ces derniers, notamment financés par Elon Musk, sont en train de se préparer à prendre la relève, avec la possibilité de rendre leurs modèles classifiés et sous contrôle total des militaires. D’autres rapports évoquent que, face aux restrictions, des entreprises comme OpenAI pourraient également s’aligner sur les mêmes limites éthiques et réglementaires, ce qui promet de continuer à alimenter un débat intense sur l’utilisation militaire de l’IA.

Partagez cet article
article précédent

Perplexity’s new Computer is another bet that users need many AI models

article suivant

On devait avoir accès dans 4 mois aux salaires moyens de ses collègues mais les entreprises ne sont pas prêtes et le gouvernement pourrait leur donner un sursis d’un an

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles