La lutte judiciaire d’Elon Musk contre OpenAI soulève des questions cruciales sur l’engagement de la société en matière de sécurité afin de garantir que le développement de l’intelligence artificielle générale (AGI) profite réellement à l’humanité. Lors d’une audience tenue jeudi à Oakland, en Californie, une ancienne employée et administratrice de l’entreprise, Rosie Campbell, a témoigné en affirmant que l’effort de l’entreprise pour introduire ses produits d’IA sur le marché aurait compromis ses principes de sécurité confiés à l’origine à la mission de recherche.
Campbell, qui a rejoint l’équipe en 2021 avant de quitter OpenAI en 2024 après la dissolution de cette dernière, a souligné que l’entreprise avait évolué d’une structure principalement axée sur la recherche vers une organisation davantage centrée sur le développement commercial de ses produits. Elle a également évoqué la nécessité de financement substantiel pour atteindre la vision d’une AGI, mais a insisté sur le fait que la création d’un modèle super-intelligent ne pouvait faire abstraction des mesures de sécurité appropriées pour rester fidèle à la mission initiale.
“Il est vital de disposer de processus de sécurité solides, surtout face à une technologie de plus en plus puissante, pour protéger l’intérêt général.”
Un incident récent impliquant Microsoft a été évoqué comme un exemple illustrant la problématique. La déploiement par Microsoft d’une version du modèle GPT-4 dans le moteur de recherche Bing en Inde, avant que le modèle ne soit évalué par le “Deployment Safety Board” d’OpenAI, a suscité des inquiétudes. Campbell a admis que si le risque associé à GPT-4 n’était pas énorme, il était essentiel de renforcer les précédents et d’établir des processus de sécurité compatibles avec la puissance croissante de la technologie.
En contrepoint, l’avocate d’OpenAI a permis à Campbell d’admettre que, selon son avis spéculatif, la stratégie de sécurité de son ancienne organisation surpassait celle de xAI, la société d’IA fondée par Musk et récente acquisition par SpaceX. OpenAI publie régulièrement des évaluations de ses modèles et partage un cadre de sécurité, mais reste discrète sur ses méthodes actuelles d’alignement de l’AGI, ce qui soulève des questions sur la transparence et la conformité aux principes initiaux.
Les tensions internes et les controverses ont également relancé la crise de gouvernance au sein d’OpenAI. En 2023, la société a brièvement limogé son PDG, Sam Altman, après un conflit avec le conseil d’administration, préoccupé par le manque de transparence dans ses décisions, notamment le déploiement public de ChatGPT. Ce départ a été motivé par des accusations selon lesquelles Altman aurait menti à plusieurs reprises aux membres du conseil, mettant en doute la gouvernance et la sécurité dans la gestion de cette entreprise devenue géante du secteur technologique.
En somme, cette affaire illustre les risques liés à la concentration du pouvoir décisionnel dans le secteur privé, alimentant le débat sur la nécessité d’un contrôle accru par des autorités régulatrices pour garantir que le développement de l’IA se fasse dans le respect des principes de sécurité et d’intérêt général, au-delà des intérêts commerciaux.
