Silicon Valley impressionne les défenseurs de la sécurité de l’IA

Illustration générée par intelligence artificielle

Cette semaine, les dirigeants de Silicon Valley, dont le Czar de l’IA et de la crypto-monnaie de la Maison Blanche, David Sacks, et le directeur de la stratégie d’OpenAI, Jason Kwon, ont suscité une vive réaction en ligne avec leurs commentaires sur les groupes promouvant la sécurité de l’IA. Dans des déclarations séparées, ils ont allégué que certains défenseurs de la sécurité de l’IA ne sont pas aussi vertueux qu’ils le prétendent et agissent soit dans leur propre intérêt, soit sous l’influence de milliardaires cachés. Des groupes de sécurité de l’IA qui ont contacté TechCrunch affirment que les allégations de Sacks et d’OpenAI sont une nouvelle tentative de Silicon Valley d’intimider ses critiques, mais certainement pas la première.

En 2024, certaines entreprises de capital-risque avaient propagé des rumeurs selon lesquelles une loi californienne sur la sécurité de l’IA, le projet de loi SB 1047, pourrait envoyer les fondateurs de startups en prison. Bien que l’institution Brookings ait qualifié cette rumeur de “malentendu”, le gouverneur Gavin Newsom a finalement mis son veto au projet. Quoi qu’il en soit, les actions de Sacks et d’OpenAI ont suffisamment effrayé plusieurs défenseurs de la sécurité de l’IA, qui ont demandé à parler sous couvert d’anonymat pour protéger leurs groupes de représailles. Cette controverse souligne les tensions croissantes à Silicon Valley entre la construction d’une IA responsable et celle qui vise à devenir un produit de consommation massif.

Le mouvement de sécurité de l’IA semble gagner en momentum, ce qui pourrait inquiéter les entreprises de Silicon Valley.

Mardi, Sacks a écrit un post sur X dans lequel il allègue qu’Anthropic — qui a exprimé des préoccupations quant à la capacité de l’IA à provoquer du chômage, des cyberattaques et des dommages catastrophiques à la société — ne fait que jouer sur la peur pour faire adopter des lois qui lui seraient bénéfiques tout en noyant les plus petites startups sous la paperasse. Anthropic était le seul grand laboratoire d’IA à soutenir le projet de loi californien SB 53, exigeant des rapports de sécurité pour les grandes entreprises d’IA. Sacks a réagi à un essai viral du co-fondateur d’Anthropic, Jack Clark, qui avait déclaré ses craintes concernant l’IA lors d’une conférence sur la sécurité à Berkeley. Selon Sacks, la stratégie d’Anthropic repose sur une “captures réglementaires sophistiquée” basée sur la peur, bien qu’il soit important de noter qu’une telle stratégie ne serait sans doute pas aussi efficace si elle nécessite de se faire un ennemi du gouvernement fédéral.

Cette semaine également, Jason Kwon, directeur de la stratégie d’OpenAI, a écrit un post sur X expliquant pourquoi la société avait envoyé des assignations à comparaître à des ONG de sécurité de l’IA, telles qu’Encode. Kwon a déclaré qu’OpenAI, en réponse à une poursuite d’Elon Musk concernant des préoccupations sur son éloignement de sa mission initiale, soupçonnait plusieurs organisations de coordonner leurs critiques contre les changements structurels de l’entreprise. Les assignations à comparaître demandent des documents et témoignages des ONG critiquant OpenAI, ce qui pourrait être perçu comme une tentative d’intimider les voix dissidentes.

Le débat s’intensifie à mesure que le détachement se creuse entre ceux qui militent pour des réglementations de sécurité et ceux au sein de Silicon Valley qui craignent qu’une telle régulation ne freine la croissance massive du secteur de l’IA. Un récent sondage de Pew a révélé que près de la moitié des Américains sont plus préoccupés qu’excités par l’IA, bien que les inquiétudes spécifiques demeurent floues. Cependant, une étude récente a montré que les électeurs américains s’inquiètent davantage des pertes d’emplois et des deepfakes que des risques catastrophiques liés à l’IA, comme le soulève le mouvement pour la sécurité de l’IA. Ainsi, l’inquiétude croissante pour la sécurité pourrait bien offrir une vision contrastante à celle d’un secteur de l’IA désireux d’accélérer son développement.

Partagez cet article
article précédent

ChatGPT : tout ce que vous devez savoir sur le chatbot alimenté par l’IA

article suivant

Présentation des 11 opérateurs de compétences – Opco – Centre Inffo

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles