Un puissant nouveau modèle d’IA de génération de vidéos est devenu largement disponible aujourd’hui – mais il y a un hic : le modèle semble censurer des sujets jugés trop sensibles politiquement par le gouvernement de son pays d’origine, la Chine. Le modèle, Kling, développé par la société basée à Pékin, Kuaishou, a été lancé plus tôt cette année en accès en liste d’attente pour les utilisateurs avec un numéro de téléphone chinois. Aujourd’hui, il a été déployé pour toute personne prête à fournir son e-mail. Après s’être inscrits, les utilisateurs peuvent entrer des invites pour que le modèle génère des vidéos de cinq secondes de ce qu’ils ont décrit. Kling fonctionne à peu près comme annoncé. Ses vidéos en 720p, qui prennent une ou deux minutes pour être générées, ne s’écartent pas trop des invites. Et Kling semble simuler la physique, comme le bruissement des feuilles et l’eau qui coule, aussi bien que les modèles de génération de vidéos comme la start-up AI Runway’s Gen-3 et OpenAI’s Sora.
Mais Kling ne générera pas du tout de clips sur certains sujets. Des invites comme “Démocratie en Chine”, “Le président chinois Xi Jinping marchant dans la rue” et “Manifestations de la place Tiananmen” produisent un message d’erreur non spécifique. La censure semble ne se produire qu’au niveau de l’invite. Kling soutient l’animation d’images fixes, et il générera sans se plaindre une vidéo d’un portrait de Jinping, par exemple, tant que l’invite qui l’accompagne ne mentionne pas Jinping par nom (par exemple, “Cet homme faisant un discours”). Nous avons contacté Kuaishou pour obtenir des commentaires.
Le comportement curieux de Kling est probablement le résultat de fortes pressions politiques du gouvernement chinois sur les projets d’IA générative dans la région.
Plus tôt ce mois-ci, le Financial Times a rapporté que les modèles d’IA en Chine seront testés par le principal régulateur d’Internet en Chine, l’Administration du Cyberespace de Chine (CAC), pour s’assurer que leurs réponses sur des sujets sensibles “incarnent les valeurs socialistes fondamentales”. Selon le rapport du Financial Times, les modèles seront évalués par les fonctionnaires du CAC pour leurs réponses à une variété de requêtes, beaucoup d’entre elles liées à Jinping et à la critique du Parti communiste. Le CAC aurait même proposé une liste noire de sources qui ne peuvent pas être utilisées pour former des modèles d’IA. Les entreprises qui soumettent des modèles pour examen doivent préparer des dizaines de milliers de questions conçues pour tester si les modèles produisent des réponses “sûres”. Le résultat est des systèmes d’IA qui refusent de répondre sur des sujets qui pourraient susciter la colère des régulateurs chinois.
L’année dernière, la BBC a constaté que Ernie, le chatbot phare de la société chinoise Baidu, évitait et détournait lorsqu’on lui posait des questions qui pourraient être perçues comme politiquement controversées, comme “Le Xinjiang est-il un bon endroit ?” ou “Le Tibet est-il un bon lieu ?”. Ces politiques draconiennes menacent de ralentir les avancées de l’IA en Chine. Non seulement elles nécessitent l’excavation de données pour supprimer les informations politiquement sensibles, mais elles nécessitent également d’investir une énorme quantité de temps de développement pour créer des garde-fous idéologiques – des garde-fous qui pourraient encore échouer, comme le montre Kling.
D’un point de vue utilisateur, les réglementations chinoises en matière d’IA entraînent déjà deux classes de modèles : certains sont entravés par une censure intensive, d’autres le sont nettement moins. Est-ce vraiment une bonne chose pour l’ensemble de l’écosystème de l’IA ?