La directrice hardware d’OpenAI Caitlin Kalinowski démissionne suite à l’accord avec le Pentagone

Ce mardi, Caitlin Kalinowski a annoncé sa démission d’OpenAI en réponse à l’accord controversé de l’entreprise avec le Département de la Défense américain. Dans un message publié sur les réseaux sociaux, elle explique que cette décision n’a pas été facile, mais qu’elle repose sur des principes fondamentaux. Kalinowski a souligné que, bien que l’intelligence artificielle joue un rôle crucial dans la sécurité nationale, les questions relatives à la surveillance sans supervision judiciaire et à l’autonomie létale sans intervention humaine méritaient une réflexion plus approfondie.

Ancienne responsable du développement des lunettes de réalité augmentée chez Meta, elle a rejoint OpenAI en novembre 2024. Sa démission intervient peu après l’annonce d’un accord entre la société et le Pentagone, suscitant un tollé dans une partie de la communauté technologique et civile. Kalinowski a insisté que sa décision était « une question de principe, et non de personnes », tout en exprimant son respect pour le CEO Sam Altman et l’équipe d’OpenAI. Sur la plateforme X, elle a précisé que son opposition portait principalement sur le fait que l’accord avait été « rushed, sans garde-fous clairement définis, ce qui concerne la gouvernance ».

« Ces enjeux sont trop importants pour être précipités dans des accords ou annonces sans réflexion approfondie. »

Un porte-parole d’OpenAI a confirmé le départ de Kalinowski à TechCrunch, insistant que la société croit en un usage responsable de l’IA pour des questions de sécurité nationale. La société a réaffirmé ses lignes rouges : l’interdiction de la surveillance domestique et de l’utilisation autonome d’armes létales. Selon eux, l’accord avec le Pentagone propose une voie « gérable » pour le déploiement responsable de l’IA dans des contextes de sécurité, tout en assurant une gouvernance rigoureuse.

Ce choix stratégique fait suite à l’échec des négociations entre le Pentagone et Anthropic, une autre entreprise d’IA, qui n’a pas trouvé d’accord pour empêcher ses technologies d’être utilisées dans des opérations de surveillance de masse ou d’armes entièrement autonomes. En réponse, le Pentagone a désigné Anthropic comme « risque pour la chaine d’approvisionnement », ce que la société contestera en justice. Parallèlement, des géants tels que Microsoft, Google et Amazon ont décidé de continuer à proposer la plateforme d’Anthropic, Claude, à des clients hors du domaine de la défense.

Malgré ces controverses, OpenAI a rapidement annoncé un accord permettant d’utiliser ses technologies dans des environnements classifiés, précisant qu’il s’agissait d’une approche « plus expansive et multilayered, intégrant aussi des sécurités techniques ». Cependant, la polémique a fragilisé la réputation d’OpenAI auprès de certains utilisateurs, provoquant une hausse de 295 % des désinstallations de ChatGPT, tandis que Claude atteint le sommet des applications gratuites de l’App Store aux États-Unis. À la date de ce samedi après-midi, ces deux applications continuent de dominer le marché, étant respectivement la première et la deuxième gratuite.

« Les enjeux de gouvernance sont cruciaux pour que l’usage de l’IA dans la sécurité nationale reste responsable et respectueux des principes démocratiques. »

Partagez cet article
article précédent

La « revue d’experts » de Grammarly n’est en réalité qu’une illusion

article suivant

Le propriétaire d’une installation de détention de l’ICE voit une grande opportunité dans les camps pour l’IA

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles