Comme beaucoup d’entreprises d’IA, les startups de générations de musique Udio et Suno semblent avoir compté sur des collectes non autorisées d’œuvres protégées par le droit d’auteur afin d’entraîner leurs modèles. C’est du moins ce que révèlent leur propre aveu et celui de leurs investisseurs, ainsi que de nouvelles plaintes déposées contre eux par des entreprises de musique. Si ces affaires sont portées devant un jury, le procès pourrait à la fois être un exposé dommageable et un précédent très utile pour d’autres entreprises d’IA aux prises avec des problèmes juridiques similaires. Les poursuites, déposées par la Recording Industry Association of America (RIAA), nous mettent tous dans la position inconfortable de soutenir la RIAA, qui a été pendant des décennies l’épouvantail des médias numériques.
Le point central des deux plaintes, qui sont très similaires dans leur contenu, est que Suno et Udio ont pillé plus ou moins toute l’histoire de la musique enregistrée pour former des ensembles de données, qu’ils ont ensuite utilisés pour entraîner une IA génératrice de musique. Notons rapidement que ces IA ne “génèrent” pas tant qu’elles ne correspondent à la demande de l’utilisateur à partir des motifs de leurs données d’apprentissage puis essaient de compléter ce motif. En quelque sorte, tout ce que font ces modèles, c’est d’exécuter des reprises ou des mashups des chansons qu’ils ont ingérées. Que Suno et Udio aient ingéré lesdites données protégées par le droit d’auteur semble, à toutes fins utiles (y compris juridiques), très probable. Les dirigeants et les investisseurs des entreprises ont été imprudemment bavards sur les défis en matière de droit d’auteur de l’industrie.
Il semble que ces entreprises ont abusé des œuvres protégées par le droit d’auteur, ce qui peut entraîner de graves conséquences juridiques.
Ils ont admis que la seule façon de créer un bon modèle de génération de musique est de consommer une grande quantité de musique de haute qualité. C’est tout simplement une étape nécessaire pour la création de modèles d’apprentissage automatique de ce type. Ils ont ensuite déclaré qu’ils avaient fait cela sans la permission des labels de musique. L’investisseur Antonio Rodriguez de Matrix Partners a déclaré à Rolling Stone il y a quelques mois seulement : “Franchement, si nous avions passé des accords avec des labels au moment du lancement de cette entreprise, je n’aurais probablement pas investi dedans. Je pense qu’ils devaient produire ce produit sans contraintes”. Les entreprises ont dit aux avocats de la RIAA qu’elles estiment que les médias qu’elles ont consommés relèvent de la doctrine du “fair-use” – qui ne s’applique fondamentalement qu’à l’utilisation non autorisée d’une œuvre.
Soyons francs, il semble que ces entreprises soient dans de beaux draps. Elles auraient pu espérer pouvoir suivre l’exemple d’OpenAI, en utilisant un langage évasif et de la désinformation pour retarder leurs critiques moins fortunés, comme les auteurs et les journalistes. Mais c’est plus difficile à réaliser quand on a une preuve accablante dans la main. Et malheureusement pour Udio et Suno, la RIAA affirme dans son procès qu’elle a quelques milliers de preuves accablantes et que les chansons qu’elle possède sont clairement régurgitées par les modèles de musique.
Quelles seront les conséquences de ces poursuites ? Comme pour toutes les choses liées à l’IA, il est tout à fait impossible de le dire à l’avance, car il y a peu de précédents ou de doctrines applicables et établies. Ma prédiction est que les entreprises seront contraintes de révéler leurs données d’apprentissage et leurs méthodes, ces éléments étant d’un intérêt évident pour la preuve. Et si cette preuve montre qu’elles utilisent effectivement du matériel protégé par le droit d’auteur, nous verrons une tentative de règlement à l’amiable ou d’éviter un procès, et/ou un jugement rapide contre Udio et Suno. Il est probable qu’au moins l’une des deux essaiera de continuer à utiliser des sources de musique légales (ou tout au moins proches de la légalité), mais le modèle qui en résulterait (selon leurs propres normes de données d’apprentissage) entraînerait presque certainement une baisse considérable de la qualité, et les utilisateurs fuiraient.