Andrew Ng, fondateur et ancien leader de Google Brain, soutient la décision récente de Google de renoncer à son engagement de ne pas construire de systèmes d’IA pour les armes. “Je suis très content que Google ait changé de position”, a déclaré Ng jeudi soir lors d’un entretien sur scène avec TechCrunch, à l’occasion de la Conférence sur les startups de militaires vétérans à San Francisco. Plus tôt cette semaine, Google avait supprimé de sa page web consacrée aux principes de l’IA une promesse de 7 ans, où la société promettait de ne pas concevoir d’IA pour les armes ou la surveillance. En même temps que cette suppression, Google a publié un article de blog rédigé par le PDG de DeepMind, Demis Hassabis, qui a souligné que les entreprises et les gouvernements devraient travailler ensemble pour construire une IA qui “soutient la sécurité nationale”.
Google a fait sa promesse de ne pas créer d’armes avec l’IA en 2018 suite aux protestations du Projet Maven, lors desquelles des milliers d’employés ont protesté contre les contrats de la société avec l’armée américaine. Les protestataires avaient spécifiquement reproché à Google de fournir de l’IA pour un programme militaire qui aidait à interpréter les images vidéo et qui pourrait être utilisé pour améliorer la précision des frappes de drones. Cependant, Ng a été déconcerté par les protestataires du Projet Maven, a-t-il dit à un public essentiellement composé de vétérans. “Franchement, quand le truc du Project Maven est arrivé… Beaucoup d’entre vous sont prêts à verser du sang pour notre pays pour nous protéger tous”, a déclaré Ng. “Alors comment diable une entreprise américaine peut-elle refuser d’aider nos propres militaires qui sont là-bas, à se battre pour nous ?”
“Une véritable clé de la sécurité américaine de l’IA, a fait valoir Ng, est de s’assurer que l’Amérique peut concurrencer technologiquement la Chine.”
Ng ne travaillait pas chez Google lorsque les protestations du Projet Maven ont eu lieu, mais il a joué un rôle clé dans la définition des efforts de Google autour de l’IA et des réseaux neuronaux. Aujourd’hui, Ng dirige un studio de projets axé sur l’IA et un fonds d’IA, et s’exprime régulièrement sur la politique de l’IA. Ng a plus tard déclaré qu’il était reconnaissant que deux efforts réglementaires concernant l’IA – le projet de loi SB 1047 de Californie, qui a été mis sous veto, et l’ordre exécutif de l’IA de Biden, qui a été annulé – ne soient plus d’actualité. Il avait à plusieurs reprises soutenu que ces deux mesures ralentiraient le développement de l’IA open source en Amérique.
Il a noté que les drones IA “révolutionneraient complètement le champ de bataille”. Il n’est pas le seul ancien dirigeant de Google à tenir ce discours. L’ancien PDG de Google, Eric Schmidt, passe désormais ses journées à faire pression à Washington, D.C., pour que les drones IA soient achetés pour concurrencer la Chine ; son entreprise, White Stork, pourrait éventuellement fournir ces drones.
Alors que Ng et Schmidt semblent soutenir l’utilisation de l’IA par les militaires, ce sujet a divisé les rangs au sein de Google pendant des années. Meredith Whittaker, actuelle présidente de Signal, a dirigé les protestations de Maven en 2018 alors qu’elle travaillait chez Google en tant que chercheuse en IA. Lorsque Google s’est engagé à ne pas renouveler ses contrats avec Project Maven, Whittaker a déclaré qu’elle était satisfaite de la décision, notant qu’il “ne devrait pas être dans le business de la guerre”. Elle n’est pas la seule à Google à avoir exprimé son désaccord. L’ancien chercheur en IA de Google et lauréat du prix Nobel, Geoffrey Hinton, a auparavant appelé les gouvernements du monde entier à interdire et à réglementer l’utilisation de l’IA dans les armes.