OpenAI Sora – Obligés d’opt-out pour protéger vos droits | Le site de Korben

Illustration générée par intelligence artificielle

OpenAI vient de lancer Sora 2, son tout nouveau générateur de vidéos par intelligence artificielle. En tant que créateur de contenu, vous avez une démarche manuelle à effectuer pour vous opposer à l’utilisation de vos œuvres dans l’entraînement du modèle. Contrairement à une méthode d’opt-in qui aurait été plus respectueuse des droits d’auteur, le système mis en place repose sur un opt-out. Cela signifie que c’est à vous de signaler que vous ne souhaitez pas que vos œuvres soient utilisées, créant ainsi un fardeau supplémentaire pour les créateurs.

Selon des sources comme Cartoon Brew, la politique d’OpenAI impose aux détenteurs des droits d’auteur de signaler chaque violation de manière spécifique, sans possibilité de soumettre une demande globale de refus. En d’autres termes, si vous identifiez l’une de vos œuvres dans les ensembles de données d’entraînement, il vous faudra effectuer une démarche pour chaque contenu au lieu de pouvoir refuser d’un coup. Cela soulève la question de la transparence des données utilisées pour entraîner Sora, car beaucoup ignorent les sources exactes qu’OpenAI a employées, typiquement marquées par des rumeurs évoquant l’utilisation massive de vidéos sur des plateformes comme YouTube ou des contenus de jeux vidéo.

Le système d’opt-out mis en place par OpenAI soulève de sérieuses questions juridiques sur le consentement des créateurs.

Ce modèle d’opt-out, en effet, devient une norme inquiétante chez les géants de l’intelligence artificielle tels que Meta et Google. Ces entreprises considèrent qu’il appartient aux créateurs de défendre leurs droits, un choix qui peut sembler décourageant. L’absence d’une politique claire et respectueuse des droits d’auteur entraîne des frustrations croissantes dans le monde créatif, d’autant plus que les démarches proposées par OpenAI manquent de transparence et de simplicité.

Pour les personnalités publiques, OpenAI a mis en place un système dit de “cameo”, permettant d’utiliser un visage ou une voix sous réserve d’obtenir la permission explicite de la personne concernée. Cela reste une avancée, mais il y a encore un manque de protection pour les styles artistiques et les techniques utilisées par les créateurs. Les experts juridiques commencent donc à s’inquiéter des implications de cette politique, d’autant plus qu’en France, par exemple, le droit moral est inaliénable et ne peut être renoncé, soulevant des interrogations sur la légalité d’un système d’opt-out.

La situation est d’autant plus complexe avec des contenus soumis à des licences restrictives. Les chaînes YouTube peuvent avoir des conditions générales d’utilisation empêchant l’exploitation commerciale, et les jeux vidéo des accords limitant l’utilisation de leurs ressources. En théorie, Sora pourrait ignorer tous ces éléments en considérant l’absence d’opt-out comme une forme de consentement. OpenAI, de son côté, évoque le fair use aux États-Unis pour justifier sa position, ce qui ne trouve pas écho dans les réglementations européennes plus strictes sur la transparence des données d’entraînement. Ce flou juridique semble avantager OpenAI tout en plaçant les créateurs dans une position précaire, incertaine et frustrante.

Face à cela, certains créateurs envisagent des recours collectifs contre OpenAI si une violation des droits d’auteur massive était avérée. La question demeure : la création de modèles d’IA génératifs justifie-t-elle de puiser dans le travail créatif d’autrui sans compensation ni consentement ? OpenAI semble parier sur la complexité du processus d’opt-out et le manque d’action des créateurs pour continuer son développement. L’évolution des lois s’avère donc indispensable pour clarifier ces enjeux cruciaux, car pour l’instant, le débat sur le “vol” de contenu par les géants de la technologie est loin d’être tranché.

Partagez cet article
article précédent

Machines créatives et rencontre de l’IA et de l’imagination à TechCrunch Disrupt 2025

article suivant

La nouvelle loi californienne sur la sécurité de l’IA montre que la réglementation et l’innovation peuvent coexister

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles