La plateforme YouTube a annoncé ce mardi l’extension de sa nouvelle technologie de détection de ressemblances, conçue pour identifier les contenus générés par intelligence artificielle, notamment les deepfakes, concernant les personnalités du secteur du divertissement. Cette innovation fonctionne de manière similaire au système Content ID existant, qui repère les contenus protégés par le droit d’auteur dans les vidéos téléchargées, permettant aux détenteurs de droits de demander leur suppression ou de partager les revenus générés. La nouvelle fonctionnalité vise principalement à protéger les créateurs et figures publiques contre l’utilisation non autorisée de leur image, un problème fréquent notamment pour les célébrités victimes de scams ou d’usurpation d’identité.
Initialement mise à disposition d’un groupe restreint de créateurs via un programme pilote l’année dernière, cette technologie a été élargie récemment pour inclure des figures politiques, des responsables gouvernementaux et des journalistes. Aujourd’hui, YouTube annonce que ce système est désormais accessible aux professionnels de l’industrie du divertissement, tels que les agences de talent, les sociétés de gestion et les célébrités qu’elles représentent. Plusieurs agences majeures, dont CAA, UTA, WME et Untitled Management, ont soutenu cette initiative en apportant leur retour d’expérience.
Le fonctionnement de l’outil ne nécessite pas que les célébrités disposent de leur propre chaîne YouTube. En effet, le système scanne simplement le contenu pour repérer les ressemblances visuelles avec l’image de la personne inscrite dans la base de données. Lorsqu’un contenu suspect est identifié, les utilisateurs ont la possibilité de demander la suppression du vidéo pour violation de la vie privée, de soumettre une demande de retrait pour violation de droits d’auteur ou de choisir de ne rien faire. YouTube précise également qu’il ne supprimera pas systématiquement tout contenu, notamment les parodies ou satires, qui sont tolérées selon ses règles.
La technologie de détection de ressemblances s’étend à l’audio dans le futur, renforçant ainsi la lutte contre la diffusion de fausses informations et de contenus nuisibles.
Par ailleurs, YouTube milite pour une régulation plus stricte au niveau fédéral, soutenant notamment le projet de loi NO FAKES Act à Washington D.C. Cette proposition vise à encadrer l’utilisation de l’IA pour créer des reconstitutions audio et visuelles non autorisées, afin de protéger l’identité et la réputation des individus. La société n’a pas encore communiqué le nombre précis de contenus supprimés via cette nouvelle technologie, mais a indiqué en mars que ces actions restaient encore très limitées.
En conclusion, si la technologie de détection de deepfakes ne résout pas totalement le problème, elle constitue une avancée importante dans la lutte contre la manipulation numérique et la protection de l’image des personnalités publiques.
