OpenAI, le leader de l’intelligence artificielle, cherche à recruter un nouveau cadre chargé d’étudier les risques émergents liés à l’IA dans divers domaines cruciaux, tels que la cybersécurité et la santé mentale. Dans un message publié sur X (anciennement Twitter), le PDG Sam Altman a reconnu que les modèles d’IA commencent à poser de véritables défis, notamment en ce qui concerne leurs impacts potentiels sur la santé mentale et leur capacité à identifier des vulnérabilités critiques en sécurité informatique. Cette démarche témoigne de la prise de conscience croissante de la nécessité d’encadrer le développement de ces technologies pour prévenir des conséquences indésirables majeures.
Le poste de « Head of Preparedness », tel que décrit dans l’offre d’emploi, vise à mettre en œuvre le cadre de préparation de l’entreprise, qui consiste à surveiller et anticiper les risques liés aux capacités frontalières de l’IA susceptibles de causer des dommages graves. OpenAI a instauré une équipe dédiée à la préparation en 2023, destinée à étudier les risques catastrophiques, qu’ils soient immédiats, comme les attaques de phishing, ou plus spéculatifs, tels que la menace nucléaire. Cependant, un peu moins d’un an plus tard, le chef de cette équipe, Aleksander Madry, a été repositionné pour se concentrer sur le raisonnement en IA, soulignant peut-être la complexité et la dynamique évolutive de ces enjeux sécuritaires.
Par ailleurs, plusieurs dirigeants en charge de la sécurité chez OpenAI ont quitté l’entreprise ou ont changé de poste, notamment dans le domaine de la préparation et de la sécurité. Récemment, la société a également mis à jour son Cadre de préparation, indiquant qu’elle pourrait ajuster ses exigences en matière de sécurité si un concurrent publiait un modèle considéré comme à « haut risque » sans protections équivalentes. Cette flexibilité témoigne de la nécessité d’adapter en permanence les normes face à l’évolution rapide du secteur de l’IA.
« La société insiste sur l’importance de surveiller et de s’adapter face aux risques potentiels liés à des modèles d’IA de plus en plus puissants, tout en étant prête à ajuster ses stratégies en réponse aux innovations d’autres laboratoires. »
Parallèlement, la montée en puissance des chatbots génératifs, tels que ChatGPT, a suscité un débat croissant sur leur impact psychologique. Des poursuites récentes accusent ces outils d’aggraver les délires des utilisateurs, d’accroître leur isolement social, voire de contribuer à des comportements suicidaires. En réponse, OpenAI affirme continuer à améliorer ses systèmes pour mieux détecter les signes de détresse émotionnelle et orienter les utilisateurs vers un soutien réel, ce qui reflète la nécessité de concilier développement technologique et responsabilité sociale.
Alors que les risques liés à l’intelligence artificielle deviennent de plus en plus visibles, OpenAI met en avant l’importance de l’anticipation, de la vigilance et de la réglementation proactive pour garantir un déploiement sécurisé et éthique de ces technologies. La recherche d’un nouveau responsable de la préparation souligne cette volonté de rester à l’avant-garde dans la gestion des dangers futurs, en particulier ceux qui pourraient avoir des implications graves pour la société civile.
