Le Pentagone pose un ultimatum totalement dingue à Anthropic – Korben

Le paysage de l’intelligence artificielle aux États-Unis est en pleine ébullition, avec une tension croissante entre les entreprises innovantes et le gouvernement américain. Récemment, Anthropic, une startup spécialisée dans la recherche en IA, se retrouve sous une pression sans précédent du Pentagone, qui lui aurait lancé un ultimatum pouvant tout remettre en question.

Selon nos sources, Pete Hegseth, responsable du “Department of War” (rebaptisé ainsi par l’administration Trump), exige qu’Anthropic lève d’ici ce vendredi ses restrictions éthiques sur son modèle Claude. Ces restrictions concernent notamment l’interdiction de la surveillance de masse et la prohibition sur le développement d’armes autonomes, deux lignes rouges que la société a fermement établies. La menace pèse du côté du Defense Production Act, une loi datant de 1950 permettant au gouvernement de réquisitionner une entreprise, ou bien de placer Anthropic sur une liste noire similaire à celles de Huawei ou Kaspersky, ce qui pourrait sérieusement compromettre ses opérations et ses ambitions.

La menace du Pentagone dépasse la simple pression commerciale et semble viser à forcer Anthropic à s’aligner sur des objectifs militaires, en dépit de ses engagements éthiques.

Il faut souligner qu’Anthropic a déjà signé un contrat de 200 millions de dollars avec le Département de la Défense en juillet dernier, comparé à d’autres acteurs comme OpenAI, Google, et xAI. Cependant, ces derniers ont accepté des clauses plus souples, notamment la ligne “all lawful purposes” qui leur a permis de bénéficier d’un accès à des données classifiées. En revanche, Anthropic a résisté, refusant de compromettre ses principes en matière de contrôle de l’usage de ses IA. La société a pris soin de publier ses recherches et une “constitution” pour encadrer son modèle Claude, tentant ainsi de trouver un équilibre entre innovation et éthique.

Face à cette situation, la plupart s’interrogent : jusqu’où peut aller la pression d’un gouvernement pour modeler le développement de l’IA ? Selon Sean Parnell, porte-parole du Pentagone, “la relation avec Anthropic est en cours de réévaluation”, renforçant ainsi l’idée que l’entreprise pourrait être forcée de céder ou de quitter le marché américain si elle ne se plie pas aux exigences gouvernementales. Avec l’arrivée de Chris Liddell au board d’Anthropic, proche de l’ancien président Trump, et la préparation d’une introduction en bourse en 2026, les enjeux sont importants et la société semble à la croisée des chemins, devant choisir entre conformité ou exil.

En résumé, l’affaire montre à quel point la gouvernance de l’IA devient un enjeu de puissance stratégique, où les ambitions éthiques peuvent être mises à mal par des pressions politiques et militaires, voire des lois révolues adaptées à de nouveaux enjeux technologiques.

Partagez cet article
article précédent

On naît pauvre et on le reste : la pauvreté à l’adolescence augmente le risque de décrochage scolaire, de ne pas trouver d’emploi ou d’être très mal payé

article suivant

LF 2026 et les mesures relatives à l’apprentissage – Centre Inffo

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles