Le piège dans lequel Anthropic s’est enfermé

Vendredi après-midi, alors que cette interview était sur le point de débuter, une alerte de nouvelle s’est affichée sur mon écran : l’administration Trump rompait ses liens avec Anthropic, la société d’intelligence artificielle basée à San Francisco, fondée en 2021 par Dario Amodei. Peu après, le secrétaire à la Défense Pete Hegseth a invoqué une loi sur la sécurité nationale pour classer la société comme interdite de faire affaire avec le Pentagone, suite au refus d’Amodei d’autoriser l’utilisation de la technologie d’Anthropic pour la surveillance de masse des citoyens américains ou pour des drones autonomes capables de sélectionner et d’éliminer des cibles sans intervention humaine. Cette séquence d’événements a sonné comme un choc dans le secteur.

Anthropic risquerait de perdre un contrat pouvant atteindre 200 millions de dollars et pourrait être interdit de collaboration avec d’autres contractants de la défense, après que le président Trump a publié sur Truth Social en ordonnant à toutes les agences fédérales de « cesser immédiatement l’utilisation de la technologie d’Anthropic ». Depuis, la société a annoncé qu’elle contestera cette décision devant la justice. Max Tegmark, physicien et fondateur de l’Institut pour le Futur de la Vie, qui alerte depuis plusieurs années sur la vitesse de développement des systèmes d’IA, considère cette crise comme le résultat d’un aveuglement collectif. Selon lui, les entreprises comme Anthropic, OpenAI, Google DeepMind et xAI ont longtemps promis de gérer leur développement de manière responsable, tout en évitant une régulation contraignante.

« La résistance à la réglementation a conduit à un vide juridique, où les promesses de sécurité ne valent plus ».

Le revers des déclarations rassurantes est évident : Anthropic, comme ses rivales, a abandonné récemment ses engagements phares en matière de sécurité, notamment la promesse de n’émettre des systèmes plus puissants que lorsqu’elle sera sûre de leur innocuité. Face à ce vide réglementaire, ces entreprises se retrouvent en difficulté, positionnées comme responsables de leurs propres contrôles, qui n’ont pas suffi à prévenir cette crise. La course effrénée à la puissance de l’IA, alimentée par la promesse d’une supériorité technologique face à la Chine, a contribué à cette situation explosive. Tegmark souligne que la rhétorique de la compétition avec Pékin masque souvent une incapacité à maîtriser ces technologies, qui pourraient finir par échapper totalement au contrôle humain.

Pour Tegmark, cette crise met en lumière le problématique danger d’un contrôle défaillant sur ces systèmes. Il rappelle que le monde a déjà connu de graves conséquences quand les industries ont résisté aux régulations – des scandales du thalidomide à l’épidémie de tabac en passant par l’amiante. Aujourd’hui, la résistance des acteurs de la tech à toute réglementation contraignante en matière d’IA pourrait se retourner contre eux, en leur faisant perdre la maîtrise de leur propre création. Si rien n’est fait, le danger est que ces innovations deviennent des menaces existentielles, notamment en raison de leur potentiel à devenir incontrôlables à l’échelle nationale ou mondiale.

En conclusion, Tegmark insiste sur la nécessité d’un cadre rigoureux et transparent, comparable à une évaluation clinique, avant la mise sur le marché de systèmes aussi puissants. Il évoque une opportunité de transformer ce chaos en une véritable révolution responsable, permettant aux bénéfices de l’IA d’émerger sans risquer l’avenir de l’humanité. La question est désormais de savoir si les grandes entreprises d’IA choisiront la voie de la responsabilité ou continueront à courir après la compétition, au prix d’un possible désastre international.

Partagez cet article
article précédent

OpenAI’s Sam Altman annonce un accord avec le Pentagone intégrant des « protections techniques »

article suivant

Anthropic’s Claude rivals ChatGPT in App Store amid Pentagon controversy

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles