Anthropic conteste la classification du DOD comme risque de chaîne d’approvisionnement devant la justice

Le jeudi, Dario Amodei, CEO d’Anthropic, a annoncé que sa société envisageait de contester devant la justice la décision du Département de la Défense (DOD) de la désigner officiellement comme un “risque de chaîne d’approvisionnement”. Cette désignation, qu’il qualifie d'”infondée sur le plan juridique”, intervient après plusieurs semaines de dispute sur l’étendue du contrôle que l’armée devrait exercer sur les systèmes d’intelligence artificielle développés par Anthropic. La récente annonce du DOD fait suite à cette confrontation, où le ministère a indiqué vouloir limiter l’accès d’Anthropic en raison de préoccupations liées à la sécurité nationale et à la gestion des risques technologiques.

Selon Amodei, la majorité des clients d’Anthropic ne sont pas affectés par cette classification. Il précise notamment que la désignation ne concerne que l’utilisation de leur modèle Claude dans le cadre de contrats spécifiques avec le Département de la Guerre, et non l’ensemble des applications ou des clients de la société. Il a également affirmé que leur intelligence artificielle ne sera pas utilisée pour la surveillance de masse des citoyens américains ni pour des armes autonomes, ce qui constitue l’un des principaux sujets de litige. Le dirigeant a insisté sur le fait que le ministère souhaite un accès illimité à ces outils pour “tous usages légaux”, ce qu’Anthropic refuse catégoriquement.

La société se prépare à contester cette décision devant la cour, en soulignant que la désignation vise principalement la protection du gouvernement plutôt qu’une punition injustifiée à l’encontre d’Anthropic.

Amodei a précisé que cette désignation juridico-administrative était bien trop restrictive par rapport à la portée réelle des activités d’Anthropic. Il a rappelé que, selon la loi, le secrétaire à la Guerre doit utiliser le moins restrictif des moyens pour atteindre ses objectifs de sécurité, ce qui impose une limite à l’impact de la classification sur les relations commerciales de la société. De plus, même pour les contrats spécifiques avec le Département, cette classification ne devrait pas limiter l’utilisation de Claude ou la collaboration d’Anthropic si ces activités ne concernent pas directement ces contrats. La société continue cependant d’entretenir des discussions constructives avec le DOD, malgré le contexte tendu exacerbé par la fuite d’un mémo interne particulièrement critique envers un concurrent, OpenAI.

Ce mémo, qui a circulé récemment, a été au cœur de tensions accrues. Dans ce document, Amodei dénonçait les opérations d’OpenAI avec le DOD comme relevant davantage d’une “mise en scène de sécurité” que d’une réelle coopération constructive. Le président de la société a exprimé ses regrets quant à la fuite, précisant que cela n’était pas intentionnel et que le mémo ne reflétait pas ses véritables positions, le qualifiant d’une “évaluation datée” datant de six jours. Pour l’instant, Anthropic continue de soutenir certains activités militaires américaines, notamment en Iran, et a déclaré qu’il continuerait à fournir ses modèles au DOD à un coût nominal aussi longtemps qu’il sera nécessaire de faire cette transition.

Anthropic pourrait envisager une contestation judiciaire de la décision dans un tribunal fédéral à Washington. Cependant, la législation en vigueur limite considérablement les moyens de défi face à une telle classification, car elle accorde au Pentagone une grande discrétion en matière de sécurité nationale. Selon Dean Ball, ancien conseiller de la Maison-Blanche sur l’IA durant l’ère Trump, “les tribunaux sont généralement réticents à remettre en cause les décisions du gouvernement en matière de sécurité nationale, mais ce n’est pas impossible”. La bataille juridique s’annonce donc complexe, mais pas insurmontable pour la société technologique.

Partagez cet article
article précédent

Meta poursuivie pour les préoccupations de confidentialité de ses lunettes intelligentes AI, après que des employés ont examiné des vidéos de nudité, de sexualité et d’autres contenus

article suivant

Application de la Loi Rixain : ce qui change depuis le 1er Mars

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles