L’ancien chef de la National Security Agency (NSA), le général Paul Nakasone, rejoint le conseil d’administration d’OpenAI, a annoncé jeudi après-midi cette entreprise d’IA. Il siégera également au sous-comité “sécurité et sûreté” du conseil. Cette nomination de grande envergure vise probablement à satisfaire les critiques qui estiment qu’OpenAI avance plus vite qu’il ne serait prudent pour ses clients et éventuellement pour l’humanité, en proposant des modèles et des services sans évaluer adéquatement leurs risques ou sans les verrouiller. Nakasone apporte des décennies d’expérience de l’armée, de l’U.S. Cyber Command et de la NSA. Quoi que l’on puisse penser des pratiques et de la prise de décision dans ces organisations, il ne peut certainement pas être accusé d’un manque d’expertise.
Alors qu’OpenAI s’établit de plus en plus comme un fournisseur d’IA non seulement pour l’industrie technologique mais aussi pour le gouvernement, la défense et les grandes entreprises, ce type de connaissance institutionnelle est précieux à la fois en soi et comme pacificateur pour les actionnaires inquiets. Les connections qu’il apporte dans l’appareil d’État et militaire sont également les bienvenues. “La dévotion d’OpenAI à sa mission s’aligne étroitement avec mes propres valeurs et mon expérience dans le service public”, a déclaré Nakasone dans un communiqué de presse.
L’arrivée de Nakasone au sein du conseil d’administration pourrait marquer un tournant en terme de sécurité et de sûreté pour OpenAI, bien que les détails de son rôle et les implications précises restent à définir.
Effectivement, il semble que Nakasone et la NSA aient récemment défendu la pratique consistant à acheter des données de provenance douteuse pour alimenter leurs réseaux de surveillance, en arguant que rien ne l’interdit. OpenAI, de son côté, s’est contentée de prendre, plutôt que d’acheter, de grandes quantités de données sur internet, arguant, lorsqu’elle est prise à partie, qu’il n’existe aucune loi contre cela. Ils semblent partager la même philosophie consistant à demander pardon plutôt que l’autorisation, si tant est qu’ils demandent l’un ou l’autre.
D’autre part, Nakasone va également contribuer à l’effort d’OpenAI pour mieux comprendre comment l’IA peut être utilisée pour renforcer la cybersécurité, en détectant et en répondant rapidement aux menaces de cybersécurité. “Nous pensons que l’IA a le potentiel d’offrir des avantages significatifs dans ce domaine pour de nombreuses institutions fréquemment ciblées par des cyberattaques comme les hôpitaux, les écoles et les institutions financières. C’est donc aussi une nouvelle stratégie de marché.
Nakasone rejoindra le comité de sécurité et de sûreté du conseil, qui est “responsable de faire des recommandations au conseil d’administration sur les décisions critiques de sécurité et de sûreté pour les projets et les opérations d’OpenAI”. Ce que cette entité nouvellement créée fait réellement et comment elle fonctionnera reste encore inconnu, car plusieurs des personnes de haut rang travaillant sur la sécurité (en termes de risque d’IA) ont quitté l’entreprise, et le comité est lui-même en plein milieu d’une évaluation de 90 jours des processus et des protections de l’entreprise.