OpenAI, le géant de l’intelligence artificielle, a récemment révisé ses opérations de sécurité dans le but de se protéger contre l’espionnage corporatif. Selon un rapport du Financial Times, la société a accéléré un resserrement de la sécurité suite à la sortie d’un modèle concurrent par la startup chinoise DeepSeek en janvier. OpenAI accuse DeepSeek d’avoir copié indûment ses modèles grâce à des techniques de « distillation », ce qui a incité l’entreprise à prendre des mesures plus drastiques pour protéger sa propriété intellectuelle.
Les nouveaux protocoles de sécurité instaurés par OpenAI incluent des politiques de « tentation d’information », restreignant l’accès des employés aux algorithmes sensibles et aux nouveaux produits. Par exemple, durant le développement du modèle o1 d’OpenAI, seuls les membres d’équipe vérifiés ayant été intégrés au projet pouvaient en discuter dans les espaces de bureau communs. Cette approche vise à limiter les fuites potentielles tout en renforçant la confidentialité des projets en cours.
OpenAI met en œuvre des mesures de sécurité renforcées pour protéger ses technologies propriétaires face aux menaces externes et internes.
Pour aller plus loin, OpenAI a opté pour l’isolation de sa technologie propriétaire dans des systèmes informatiques hors ligne. De plus, l’entreprise a introduit des contrôles d’accès biométriques dans certaines zones de ses bureaux, nécessitant la reconnaissance des empreintes digitales des employés. Une politique « deny-by-default » pour Internet a également été mise en place, rendant nécessaire une approbation explicite pour toute connexion externe, selon le rapport. Ces initiatives viennent compléter une augmentation de la sécurité physique dans les centres de données d’OpenAI et une expansion de son personnel de cybersécurité.
Ces changements illustrent des préoccupations plus larges concernant les adversaires étrangers tentant de dérober la propriété intellectuelle d’OpenAI. Cependant, dans un contexte où les guerres de « poaching » entre entreprises d’IA américaines se multiplient et où les commentaires du PDG Sam Altman deviennent de plus en plus fuyants, OpenAI pourrait également essayer de résoudre des problèmes internes de sécurité.
Nous avons contacté OpenAI pour obtenir des commentaires sur ces nouvelles mesures, mais la réponse reste à venir. Ce resserrement des procédures de sécurité marque un tournant pour l’entreprise, soulignant l’importance croissante de la protection des innovations en matière d’intelligence artificielle dans un paysage technologique de plus en plus compétitif.