Adobe propose une solution pour protéger les artistes des plagiats par l’IA | TechCrunch

Generated with DALL·E 3

En tant que moteur des artistes numériques du monde entier, Adobe a une grande responsabilité pour atténuer la montée des deepfakes propulsés par l’IA, de la désinformation et du vol de contenu. Au premier trimestre 2025, Adobe lance sa web app Content Authenticity en version bêta, permettant aux créateurs d’appliquer des crédits de contenu à leur travail, certifiant ainsi qu’il est bien le leur. Cela ne se résume pas à modifier les méta-données d’une image – ce genre de protection est trop facilement contourné par des captures d’écran. Les crédits de contenu vont un cran plus loin dans la provenance. Le système d’Adobe utilise l’empreinte digitale numérique, le filigrane invisible et les métadonnées signées de manière cryptographique pour protéger plus efficacement une œuvre, y compris les images, les vidéos et les fichiers audio.

Le filigrane invisible apporte des modifications aux pixels qui sont si minimes qu’elles échappent à la détection par l’œil humain. L’empreinte digitale numérique fonctionne de la même manière, en encodant un ID dans le fichier pour s’assurer que même si les crédits de contenu sont supprimés, le fichier peut toujours être identifié comme appartenant à son créateur d’origine. Andy Parsons, directeur principal de la Content Authenticity chez Adobe, a déclaré à TechCrunch qu’avec ce type de technologie, Adobe peut “vraiment dire que partout où une image, une vidéo ou un fichier audio va, n’importe où sur le web ou sur un appareil mobile, le crédit de contenu sera toujours attaché à celui-ci”.

“Les initiatives sur une base volontaire comme celle-ci ne sont aussi fortes que leur adoption. Mais si une entreprise peut atteindre un quorum d’artistes et de créateurs numériques, c’est Adobe, qui compte 33 millions d’abonnés qui paient pour son logiciel.”

Et même les artistes qui ne sont pas des utilisateurs d’Adobe peuvent utiliser la web app pour appliquer des crédits de contenu. Puis, il y a la question de rendre les crédits de contenu accessibles sur internet. Adobe a cofondé deux groupes industriels qui œuvrent pour préserver l’authenticité du contenu et renforcer la confiance et la transparence en ligne – leur adhésion comprend des fabricants d’appareils photo représentant 90% du marché, des outils de création de contenu de Microsoft et OpenAI, et des plateformes comme TikTok, LinkedIn, Google, Instagram et Facebook.

Ironiquement, l’IA n’est pas très douée pour déterminer si quelque chose est de l’IA ou non. Alors qu’il devient de plus en plus difficile de distinguer les images réelles de celles synthétiques, ces outils pourraient offrir une méthode plus concrète pour déterminer l’origine d’une image (tant qu’elle a des crédits). Adobe n’est pas contre l’utilisation de l’IA. Au contraire, l’entreprise tente de rendre clair quand l’IA est utilisée dans une œuvre d’art, et d’empêcher que les travaux des artistes soient utilisés dans les ensembles de données d’entraînement sans leur consentement.

Adobe a même son propre outil IA génératif appelé Firefly, qui est entraîné sur des images Adobe Stock. “Firefly est commercialement sûr, et nous ne l’entraînons que sur du contenu qu’Adobe a explicitement l’autorisation d’utiliser, et bien sûr, jamais sur du contenu client”, a déclaré Parsons. Ce mardi, Adobe lance la version bêta de l’extension Chrome Content Authenticity. Les créateurs peuvent également s’inscrire pour être informés lorsque la bêta de la web app complète sera lancée l’année prochaine.

Partagez cet article
article précédent

720.000 salariés ont bénéficié d’actions de leur entreprise en 2021

article suivant

Premiers résultats de la campagne 2024 de répartition du solde de la taxe d’apprentissage – Centre Inffo

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles