Google étend l’accès à son IA au Pentagone après le refus d’Anthropic

Le géant de la technologie Google a récemment conclu un accord avec le Département de la Défense américain (DoD) pour fournir un accès à ses intelligences artificielles destinées aux réseaux classifiés, selon plusieurs sources d’information. Cette décision intervient dans un contexte où Anthropic, un autre acteur majeur de l’IA, s’est opposé publiquement à une telle collaboration avec les autorités militaires américaines. Alors qu’Anthropic souhaitait établir des garde-fous pour empêcher ses modèles d’être utilisés à des fins de surveillance de masse ou d’armes autonomes, Google a choisi d’aller de l’avant avec le Pentagone en autorisant « toutes les utilisations légales » de ses IA, sous réserve de clauses spécifiques mentionnées dans le contrat.

Cette démarche s’inscrit dans une dynamique plus large de la part des entreprises du secteur de l’intelligence artificielle, qui cherchent à sécuriser des contrats avec des entités gouvernementales, notamment militaires et de sécurité nationale. OpenAI et xAI ont déjà signé des accords similaires avec le DoD, ce qui témoigne d’un courant croissant vers une collaboration accrue entre la technologie privée et le gouvernement américain. Toutefois, la position de Google semble faire polémique : après une pétition signée par 950 de ses employés, demandant de suivre l’exemple d’Anthropic en imposant des garde-fous plus stricts, la société n’a pas répondu publiquement à ces critiques, préférant probablement privilégier ses intérêts commerciaux dans ce marché stratégique.

“La question de savoir si ces accords garantissent une utilisation éthique de l’IA demeure ouverte, notamment en raison de clauses peu contraignantes.”

Le contrat de Google avec le Pentagone comporte toutefois une clause précisant que l’utilisation de ses IA ne doit pas viser la surveillance interne de masse ni être intégrée dans des systèmes d’armes autonomes. Reste à déterminer si ces clauses sont juridiquement contraignantes ou si elles relèvent simplement d’un langage de bon sens sans véritable force juridique, un point que met en évidence le Wall Street Journal. La controverse soulignée par cette signature intervient à un moment où l’éthique dans le développement de l’intelligence artificielle est plus que jamais au centre des débats publics et réglementaires.

Ce contexte soulève des questions profondes sur l’éthique et la responsabilité dans l’utilisation de l’intelligence artificielle. Alors que certains appellent à une régulation stricte de ces technologies, d’autres prônent la liberté d’innovation, y compris dans des secteurs sensibles comme la défense nationale. La décision de Google de s’engager avec le Pentagone, malgré l’opposition de ses employés, illustre cette tension entre intérêt économique, position éthique et enjeux de sécurité nationale. La scène est désormais prête pour un débat public accru sur l’utilisation responsable de l’IA dans le futur.

Partagez cet article
article précédent

Les investisseurs soutiennent l’application Skye pour écran d’accueil IA pour iPhone avant son lancement

article suivant

Certifications : la guerre des badges a commencé – Centre Inffo

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles