Anthropic ne plie pas face à l’escalade du conflit sur l’IA avec le Pentagone

Anthropic, la société spécialisée dans le développement d’intelligences artificielles avancées, se trouve au cœur d’une crise avec le gouvernement américain. Selon Axios, l’entreprise a jusqu’à vendredi soir pour donner au ministère de la Défense un accès illimité à son modèle d’IA, sous peine de subir de lourdes conséquences. Lors d’une réunion ce mardi matin, le secrétaire à la Défense Pete Hegseth a averti Dario Amodei, le PDG d’Anthropic, que le Pentagone allait soit déclarer la société comme étant « à risque dans la chaîne d’approvisionnement », une qualification généralement réservée à des adversaires étrangers, soit recourir à la loi sur la production de défense (DPA) pour l’obliger à adapter une version de son modèle à ses besoins spécifiques.

La DPA, qui permet au président de contraindre les entreprises à prioriser ou à augmenter leur production pour la sécurité nationale, a été utilisée récemment pendant la pandémie de COVID-19 pour forcer des géants industriels comme General Motors ou 3M à produire respectivement des ventilateurs et des masques. Anthropic, quant à elle, a toujours affirmé ne pas vouloir que sa technologie soit utilisée pour la surveillance de masse des Américains ou pour des armes entièrement autonomes, restant ferme sur ces principes. Selon des responsables militaires, l’utilisation des technologies d’IA devrait être régie par la loi et les limites constitutionnelles des États-Unis, plutôt que par des politiques d’utilisation établies par des contractants privés.

La menace d’utiliser la DPA pour contourner ces restrictions représente une expansion significative de son application, tout en illustrant une tendance plus large d’instabilité de l’exécutif américain ces dernières années.

Ce différend s’inscrit dans un contexte de friction idéologique, avec certains membres de l’administration, notamment le conseiller à l’IA David Sacks, critiquant publiquement les politiques de sécurité d’Anthropic comme « woke ». Selon Dean Ball, ancien conseiller en politique sur l’IA et chercheur à la Foundation for American Innovation, cette situation pourrait nuire à la stabilité perçue du système juridique américain, qui a longtemps été un atout pour le pays en tant que hub mondial du commerce. Il affirme que « l’Amérique n’a plus un environnement juridique aussi stable qu’auparavant » et que cette crise pourrait dissuader de futurs investissements étrangers dans le secteur technologique américain.

Anthropic, de son côté, affiche une position ferme, refusant d’assouplir ses restrictions d’usage, et semble prête à résister à la pression. La société est actuellement la seule laboratoire d’IA de première ligne à avoir accès à des systèmes classifiés du Département de la Défense, ce qui soulève des interrogations sur la vulnérabilité d’une dépendance à un seul fournisseur. Selon plusieurs sources, le Pentagone aurait néanmoins conclu un accord pour utiliser le système Grok de xAI dans ses systèmes classifiés, mais cette option ne constitue pas une solution de secours immédiate. La dépendance à un seul fournisseur pourrait donc compliquer la stratégie de sécurité nationale américaine, comme l’indique Dean Ball dans ses analyses.

En conclusion, cette confrontation illustre une crise de confiance entre une entreprise privée innovante et un gouvernement américain soucieux de contrôler l’usage des technologies d’IA, toute en craignant une instabilité politique et une perte de compétitivité internationale. Si Anthropic maintient sa position, le conflit risque de s’intensifier, soulignant une tension croissante entre la sécurité nationale et la liberté d’innovation dans un secteur stratégique en pleine explosion.

Partagez cet article
article précédent

WorldMonitor – Un tableau de bord pour voir le monde partir en cacahuètes en temps réel – Korben

article suivant

Google ajoute un moyen de créer des workflows automatisés dans Opal

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles