La controverse autour d’Anthropic et le Pentagone effraiera-t-elle les startups qui travaillent dans la défense ?

En un peu plus d’une semaine, les négociations concernant l’utilisation par le Pentagone de la technologie Claude d’Anthropic ont échoué. Par la suite, l’administration Trump a désigné Anthropic comme étant un risque pour la chaîne d’approvisionnement, une décision que l’entreprise a promis de contester en justice. Au même moment, OpenAI a rapidement annoncé un accord avec le gouvernement, ce qui a provoqué une vague de réactions négatives, notamment des utilisateurs désinstallant ChatGPT et entraînant une hausse significative des téléchargements de Claude sur l’App Store. La situation a également suscité des tensions internes, avec au moins un cadre d’OpenAI quittant l’entreprise, craignant que l’annonce n’ait été précipitée sans mesures de sécurité adéquates.

Lors du dernier épisode du podcast Equity de TechCrunch, Kirsten Korosec, Sean O’Kane et leurs invités ont évoqué les implications de cette crise pour les autres startups souhaitant collaborer avec le gouvernement fédéral, notamment le Pentagone. Kirsten s’interrogeait : « Est-ce que nous allons assister à un changement de ton dans la manière dont ces entreprises abordent le travail avec le secteur public ? » Sean a souligné que cette crise est particulièrement exceptionnelle, car OpenAI et Anthropic produisent des technologies dont tout le monde parle, attirant une attention médiatique considérable. Il a aussi noté que l’enjeu principal tourne autour de l’utilisation de ces IA pour des activités potentiellement létales, ce qui explique une surveillance accrue.

La situation met en lumière un enjeu crucial : l’utilisation des IA dans des missions pouvant entraîner la mort, ce qui attire une attention particulière et une régulation plus stricte.

Antony a souligné que cette affaire est relativement unique, car elle repose sur des enjeux de personnalité et de contrôle des technologies. Anthropic et OpenAI, tout en adoptant des positions publiques similaires en faveur de restrictions d’utilisation, ont montré des tensions internes, notamment entre leurs dirigeants respectifs. La rivalité entre le CEO d’Anthropic et Emil Michael, responsable technologique pour le Département de la Défense, contribue à complexifier cette crise. La situation est exacerbée par le fait que le Pentagone aurait tenté de modifier les termes d’un contrat existant, une démarche peu courante dans le secteur public.

Les retombées immédiates ont été significatives : après l’annonce d’OpenAI, les uninstallations de ChatGPT ont augmenté de 295 %. Cela illustre une anxiété croissante chez les utilisateurs quant à l’implication des géants de l’IA dans la défense nationale. Cependant, l’enjeu central reste la volonté du Pentagone de réajuster ses contrats déjà signés, ce qui, selon certains experts, pourrait dissuader d’autres startups d’aller plus loin dans la collaboration avec des entités militaires. La pression politique et les enjeux éthiques liés à l’usage de l’IA dans des contextes létaux rendent la situation particulièrement préoccupante pour l’avenir.

Partagez cet article
article précédent

Aide exceptionnelle à l’embauche d’apprentis : publication du décret – Centre Inffo

article suivant

On naît pauvre et on le reste : la pauvreté à l’adolescence augmente le risque de décrochage scolaire, de ne pas trouver d’emploi ou d’être très mal payé

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles