Le PDG de Meta, Mark Zuckerberg, s’est engagé à rendre l’intelligence artificielle générale (AGI) – qui est approximativement définie comme une IA capable d’accomplir toute tâche qu’un humain peut accomplir – librement accessible un jour. Cependant, dans un nouveau document politique, Meta suggère qu’il y a certaines situations où il pourrait ne pas libérer un système d’IA très développé qu’il a conçu en interne. Le document, que Meta appelle son Cadre de l’IA de Frontier, identifie deux types de systèmes d’IA que la société considère comme trop risqués pour être publié : les systèmes à “haut risque” et à “risque critique”.
Comme le définit Meta, les systèmes “à haut risque” et “à risque critique” sont capables de contribuer aux attaques en termes de cybersécurité, chimiques et biologiques. La différence étant que les systèmes “à risque critique” pourraient aboutir à un “résultat catastrophique [qui] ne peut être atténué dans [le] contexte de déploiement proposé”. Les systèmes à haut risque, en revanche, pourraient faciliter une attaque mais pas aussi de manière aussi fiable ou constante qu’un système à risque critique. Meta donne quelques exemples, comme la “compromission automatisée de bout en bout d’un environnement à l’échelle de l’entreprise protégé par les meilleures pratiques” et la “prolifération d’armes biologiques à fort impact”.
L’approche ouverte de Meta dans le développement de ses systèmes d’IA a été à la fois une bénédiction et une malédiction pour l’entreprise.
La liste des catastrophes possibles dans le document de Meta est loin d’être exhaustive, reconnaît l’entreprise, mais elle comprend celles que Meta estime “les plus urgentes” et susceptibles de survenir directement suite à la libération d’un puissant système d’IA. Ce qui est quelque peu surprenant, c’est que, selon le document, Meta classe le risque système non pas sur la base d’un seul test empirique mais en fonction des commentaires des chercheurs internes et externes, qui sont soumis à l’examen par “des décideurs de haut niveau”. Pourquoi ? Parce que Meta estime que la science de l’évaluation n’est pas “suffisamment robuste pour fournir des mesures quantitatives définitives” pour déterminer le risque d’un système.
Si Meta détermine qu’un système est à haut risque, l’entreprise dit qu’elle limitera l’accès au système en interne et ne le libérera pas tant qu’elle n’aura pas mis en œuvre des mesures d’atténuation pour “réduire le risque à des niveaux modérés”. Si, en revanche, un système est jugé à risque critique, Meta dit qu’elle appliquera des protections de sécurité non spécifiées pour empêcher le système d’être exfiltré et arrêtera le développement jusqu’à ce que le système puisse être rendu moins dangereux.
Le Cadre de l’IA de Frontier de Meta, que l’entreprise dit évoluera avec l’évolution du paysage de l’IA, et que Meta s’était engagé à publier avant le Sommet d’Action de l’IA en France ce mois-ci, semble être une réponse aux critiques de l’approche “ouverte” de la société en matière de développement de systèmes. Meta a adopté une stratégie consistant à rendre sa technologie d’IA ouverte à tous – bien qu’elle ne soit pas open source au sens communément admis du terme – contrairement à des entreprises comme OpenAI qui choisissent de verrouiller leurs systèmes derrière une API.