Anthropic, un acteur clé dans le domaine de l’intelligence artificielle, se trouve actuellement dans une situation de tension avec le département de la Défense des États-Unis. Le Ministère de la Guerre exige un accès illimité à la technologie de l’entreprise, une demande que la société a fermement refusée, en particulier en ce qui concerne l’utilisation pour la surveillance domestique massive et les armes autonomes. Alors que l’échéance du vendredi après-midi approche, plus de 300 employés de Google et plus de 60 de OpenAI ont signé une lettre ouverte appelant leurs dirigeants à soutenir Anthropic et à refuser cette utilisation unilatérale de la technologie.
Dans cette lettre, les signataires soulignent leur opposition à l’utilisation de l’IA pour des activités de surveillance de masse ou le développement d’armements entièrement automatisés. Ils encouragent leurs entreprises respectives à “mettre de côté leurs différends” afin de défendre collectivement les limites qu’Anthropic a établies. Le document dénonce une stratégie visant à diviser les entreprises en instillant la peur que l’une puisse céder face aux demandes militaires, ce qui, selon eux, ne devrait pas avoir lieu si tous veulent préserver l’éthique dans le développement de l’IA.
Les signataires appellent les dirigeants à faire front commun pour préserver les limites éthiques sur l’utilisation de l’IA, en particulier contre la surveillance de masse et les armes autonomes.
Bien que ni Google ni OpenAI n’aient encore officiellement répondu à cette lettre, des déclarations informelles laissent penser que les deux entreprises sont en faveur de la position d’Anthropic. Lors d’une interview avec CNBC, le PDG d’OpenAI, Sam Altman, a exprimé sa désapprobation quant à la manière dont le Pentagone menace ces entreprises. La porte-parole d’OpenAI a confirmé que l’entreprise partageait les “lignes rouges” d’Anthropic contre les armes autonomes et la surveillance de masse, soulignant ainsi leur alignement sur une position éthique largement partagée dans le secteur technologique.
Les discussions autour de l’utilisation de l’IA par le département de la Défense soulèvent des préoccupations fondamentales sur la violation des droits civiques et la liberté d’expression. Comme le souligne Jeff Dean, scientifique en chef de Google DeepMind, “la surveillance de masse viole le Quatrième Amendement et a un effet dissuasif sur la liberté d’expression”. La crainte que ces technologies soient détournées à des fins politiques ou discriminatoires alimente le débat, d’autant plus que le gouvernement américain continue d’opérer des négociations pour exploiter ces outils dans des tâches classifiées.
Les employés insistent pour que les grandes entreprises technologiques défendent des limites éthiques face à la volonté militaire d’exploiter l’IA pour des fins controversées.
Face à cette pression, Anthropic a maintenu son positionnement clairement éthique, rejetant toute proposition qui impliquerait son IA dans la surveillance de masse ou la fabrication d’armes autonomes. Le secrétaire à la Défense, Pete Hegseth, aurait informé le PDG de l’entreprise, Dario Amodei, que sans concession, Anthropic pourrait être considéré comme un “risque pour la chaîne d’approvisionnement” ou voir la Defense Production Act invoquée pour obliger la société à coopérer. En réponse, Amodei a déclaré que leur position restait inchangée et qu’ils ne pouvaient pas, en conscience, répondre à ces demandes. La tension entre enjeux éthiques et obligations nationales reste donc vive et complexe.
