Le nouveau modèle d’IA de génération vidéo de ByteDance, Dreamina Seedance 2.0, arrive sur CapCut

Alors qu’OpenAI semble réduire ses activités dans le domaine de la génération vidéo avec la fermeture de son application Sora, ByteDance annonce une avancée majeure avec le déploiement de son nouveau modèle audio et vidéo, Dreamina Seedance 2.0. Ce modèle innovant est intégré à la plateforme de montage CapCut, permettant aux créateurs de produire, modifier et synchroniser du contenu vidéo et audio à partir de simples invites, images ou vidéos de référence. Le déploiement sera progressif, débutant dans plusieurs marchés d’Amérique Latine, d’Asie du Sud-Est et du Mexique, avec une expansion prévue.

Selon ByteDance, ce modèle de génération vidéo fonctionne sans image de référence, même si l’utilisateur ne fournit que quelques mots pour décrire la scène souhaitée. CapCut bénéficie ainsi d’une capacité à rendre des textures réalistes, des mouvements fluides et un éclairage précis, offrant aux créateurs un outil pour améliorer ou corriger leurs séquences, ou encore tester des idées préliminaires avant le tournage. Ce type d’usage couvre une vaste gamme de contenus tels que les tutos culinaires, les entraînements sportifs, les présentations de produits ou encore les vidéos dynamiques axées sur l’action, domaines où la génération vidéo assistée par IA a rencontré certains défis.

ByteDance souligne que ses restrictions de sécurité empêchent la création de vidéos utilisant des visages réels, afin de protéger la vie privée et respecter les droits d’auteur, notamment face aux critiques hollywoodiennes concernant la possible violation de copyrights.

Le lancement initial de Dreamina Seedance 2.0 dans CapCut est limité à certains marchés, ce qui semble lié à une pause dans le déploiement mondial afin de résoudre les problématiques liées à la propriété intellectuelle. En Chine, le modèle est accessible via l’application Jianying de ByteDance. Au-delà, le modèle sera intégré dans d’autres plateformes comme Dreamina, Pippit, ainsi que dans des fonctionnalités d’édition telles que Video Studio, étendant ainsi ses usages à différents secteurs de la création de contenu. La sortie de la technologie s’accompagne de l’ajout d’un filigrane invisible pour permettre l’identification des contenus générés, facilitant le respect des droits et la gestion des reproductions non autorisées.

Alors que la capacité de produire des vidéos réalistes ouvre de nouvelles perspectives pour les créateurs, ByteDance insiste sur l’importance de partenaires et de communautés créatives pour continuer à faire évoluer le modèle. La société affirme également qu’elle a mis en place des restrictions pour empêcher la génération de vidéos de personnes réelles sans consentement, tout en travaillant à l’amélioration continue de ses outils. La technologie semble prometteuse, mais sa diffusion en dehors de certains marchés reste en partie limitée par des questions de propriété intellectuelle et de réglementation.

Cette démarche reflète la volonté de ByteDance de maîtriser l’IA générative tout en respectant les enjeux éthiques et légaux liés à la création de contenu réaliste.

En somme, ByteDance progresse dans la démocratisation des outils d’intelligence artificielle pour la vidéo, prudent dans sa stratégie de déploiement international et attentif aux problématiques juridiques et éthiques. Le modèle Dreamina Seedance 2.0 pourrait ainsi transformer l’univers de la création numérique, offrant de nouvelles possibilités aux innovateurs du secteur, tout en restant dans un cadre sécurisé et respectueux des droits.

Partagez cet article
article précédent

Mistral lance un nouveau modèle open source pour la génération de parole

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles