Une feuille de route pour l’IA, si quelqu’un veut bien l’écouter

Alors que le divorce entre Washington et Anthropic a mis en lumière l’absence totale de règles cohérentes encadrant le développement de l’intelligence artificielle, une coalition bipartite de penseurs a mobilisé leurs réflexions pour élaborer un cadre visant à définir ce que le développement responsable de l’IA devrait réellement impliquer. La Pro-Human Declaration a été finalisée avant cette crise, mais l’interconnexion des événements a souligné leur lien. Max Tegmark, physicien et chercheur en IA au MIT qui a contribué à l’organisation de cette initiative, explique que « en quelques mois seulement, l’opinion publique montre que 95 % des Américains s’opposent à une course non régulée vers la superintelligence. »

Ce document, signé par des centaines d’experts, anciens responsables et figures publiques, commence par une constatation directe : l’humanité se trouve à un tournant crucial. Deux chemins se présentent : celui de la « course au remplacement » où l’homme serait progressivement supplanté en tant que travailleur, décideur, puis dépositaire du pouvoir au profit d’institutions et de machines non responsables ; ou celui où l’IA serait un outil d’expansion des capacités humaines. La voie souhaitée repose sur cinq piliers essentiels : maintenir l’humain en contrôle, éviter la concentration de pouvoir, protéger l’expérience humaine, préserver la liberté individuelle et assurer la responsabilité légale des entreprises d’IA. Parmi ses propositions fermes figurent l’interdiction de développer une superintelligence sans consensus scientifique et démocratique, l’obligation d’installations d’un interrupteur d’arrêt, ainsi qu’un interdit sur tout architecture capable de s’auto-répliquer ou de s’améliorer de manière autonome.

« Ce qui se joue aujourd’hui, c’est la définition même de notre avenir : pour ou contre une société contrôlée par l’humain. »

Les événements récents illustrent cette urgence. Le dernier vendredi de février, le secrétaire à la Défense Pete Hegseth a désigné Anthropic comme un « risque de chaîne d’approvisionnement » après le refus de la société d’accorder au Pentagone un accès illimité à ses technologies, une classification habituellement réservée aux entreprises ayant des liens avec la Chine. Peu après, OpenAI lui a aussi signé un accord avec le département de la Défense, un contrat difficile à faire respecter pleinement selon des experts légaux. Ces incidents dévoilent à quel point l’inaction du Congrès sur le sujet de l’IA devient coûteuse et risquée. Dean Ball, un spécialiste de la Fondation pour l’Innovation Américaine, souligne que « ce n’est pas seulement une dispute contractuelle ; c’est la première fois que le pays débat vraiment du contrôle des systèmes d’IA. »

Pour Max Tegmark, la métaphore du secteur médical est évocatrice : « On ne s’inquiète jamais que l’industrie pharmaceutique commercialise un médicament dangereux sans passer d’abord par la FDA. » Il envisage que la pression publique, notamment autour de la sécurité des enfants, pourrait être le levier pour briser l’immobilisme réglementaire. La déclaration réclame notamment la mise en place de tests obligatoires avant le déploiement d’IA, en particulier pour les chatbots et applications destinés aux jeunes, afin d’évaluer les risques de manipulation émotionnelle, de comportements suicidaires ou de dégradation de la santé mentale.

« Si un adulte malveillant peut manipuler un enfant via une machine, il doit être poursuivi en justice, comme s’il s’agissait d’un acte criminel. La distinction légale est claire, alors pourquoi pas avec une IA ? » s’interroge Tegmark. Il pense que l’instauration de ces tests préalables pourrait impliquer une extension progressive à d’autres domaines : utilisation terroriste, capacité de supplanter la gouvernance ou de créer des armes biologiques. Le consensus autour de cette proposition, illustré par la signature d’un large éventail de personnalités, de Steve Bannon à Susan Rice, souligne une volonté commune : la préservation de l’humanité face à une technologie encore trop peu encadrée. « Si le choix se résume à un futur pour les humains ou pour les machines, la réponse doit être claire, » conclut Tegmark.

Partagez cet article
article précédent

OpenAI retarde à nouveau le mode adulte de ChatGPT

article suivant

Micro-entreprise : les plafonds de base de la TVA sont finalement relevés – Digiformag

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles