Une nouvelle requête en justice révèle que le Pentagone a dit à Anthropic que les deux parties étaient quasiment alignées — une semaine après que Trump a déclaré la rupture

Late Friday afternoon, Anthropic a déposé deux déclarations sous serment devant un tribunal fédéral californien, contestant l’affirmation du Pentagone selon laquelle la société d’intelligence artificielle poserait un « risque inacceptable pour la sécurité nationale ». La société argue que le cas présenté par le gouvernement repose sur des incompréhensions techniques et des affirmations qui n’ont jamais été évoquées lors des négociations qui ont précédé cette contestation. Ces déclarations ont été soumises en réponse à la brève de réponse d’Anthropic dans le cadre de son procès contre le ministère de la Défense, avant une audience prévue pour mardi 24 mars, devant la juge Rita Lin à San Francisco.

Le litige remonte à la fin février, lorsque l’ex-président Trump et le secrétaire à la Défense Pete Hegseth ont publiquement annoncé leur rupture avec Anthropic après que la société a refusé d’autoriser une utilisation militaire illimitée de ses technologies d’IA. Les deux personnes ayant soumis les déclarations, Sarah Heck et Thiyagu Ramasamy, apportent des perspectives distinctes pour défendre l’entreprise. Heck, responsable des politiques publiques, est une ancienne officiale du Conseil de sécurité nationale, ayant travaillé à la Maison-Blanche sous l’administration Obama, avant de rejoindre Stripe puis Anthropic, où elle gère les relations gouvernementales et la politique de l’entreprise.

« Contrairement à ce que le gouvernement affirme, Anthropic n’a jamais exigé un contrôle sur les opérations militaires ou une approbation préalable pour ses technologies. »

Elle précise que lors de la réunion du 24 février, où le PDG Dario Amodei a rencontré le secrétaire à la Défense, aucune demande de ce type n’a été formulée. De plus, elle affirme que le gouvernement n’a jamais évoqué de préoccupations concernant une désactivation ou une altération des systèmes en cours d’utilisation, ces points n’étant mentionnés dans aucun document avant les dossiers judiciaires, ce qui empêche toute réponse de la part d’Anthropic.

Un autre point crucial soulevé par Heck concerne un e-mail daté du 4 mars, un jour après que le Pentagone a officiellement classé Anthropic dans la catégorie des risques pour la chaîne d’approvisionnement. Dans cet e-mail, l’Under Secretary Michael indique que les deux parties étaient « très proches » sur deux questions essentielles : les armes autonomes et la surveillance de masse des Américains. Pourtant, peu de temps après, la communication officielle du gouvernement disait que « aucune négociation active » n’était en cours avec Anthropic. Cette contradiction soulève des interrogations sur l’utilisation de la designation comme arme de négociation.

Thiyagu Ramasamy, expert en déploiement d’IA dans des environnements gouvernementaux, conteste quant à lui la capacité de l’entreprise à interféer avec des opérations militaires. Selon lui, une fois le modèle Claude déployé dans un système sécurisé par le gouvernement, Anthropic n’a aucun accès à distance ni à la possibilité d’apporter des modifications non autorisées. Il précise aussi que le recrutement de personnel étranger ayant passé une vérification de sécurité américaine constitue une preuve de la fiabilité de ses pratiques.

En conclusion, la plainte d’Anthropic dénonce ce qu’elle considère comme une retaliation gouvernementale visant à punir ses positions publiques sur la sécurité de l’IA, ce qui pourrait violer le premier amendement. Le gouvernement, quant à lui, insiste sur le fait que la décision de limiter l’accès de la société à ses technologies relève de préoccupations de sécurité nationale légitimes, et non d’une mesure punitive contre ses opinions. La décision du tribunal à venir pourrait avoir des implications majeures pour la régulation et la gouvernance des entreprises technologiques dans le domaine de la défense.

Anthropic affirme que ses positions ne justifient pas une désignation comme menace et que cette dernière pourrait constituer une forme de censure déguisée.

Partagez cet article
article précédent

Le PDG de Patreon qualifie l’argument du « fair use » des entreprises d’IA de « faux » et estime que les créateurs devraient être rémunérés

article suivant

Transformez le monde réel en map Minecraft avec Arnis – Korben

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles