Bienvenue dans la newsletter régulière de TechCrunch consacrée à l’intelligence artificielle. Il était étonnamment facile de créer un faux audio convaincant de Kamala Harris le jour des élections. Cela m’a coûté 5 dollars et a pris moins de deux minutes, illustrant comment l’IA générative omniprésente et bon marché a ouvert les vannes à la désinformation. Créer un faux de Harris n’était pas mon intention initiale. Je m’amusais avec le Voice Changer de Cartesia, un modèle qui transforme votre voix en une voix différente tout en préservant la prosodie de l’original. Cette deuxième voix peut être un “clone” d’une autre personne – Cartesia crée un double vocal numérique à partir de n’importe quel enregistrement de 10 secondes. Alors, je me demandais, Voice Changer transformerait-il ma voix en celle de Harris ? J’ai payé 5 dollars pour débloquer la fonction de clonage vocal de Cartesia, créé un clone de la voix d’Harris en utilisant de récents discours de campagne, et sélectionné ce clone comme sortie dans Voice Changer. Cela a fonctionné à merveille.
Je suis sûr que Cartesia n’a pas vraiment l’intention que ses outils soient utilisés de cette manière. Pour activer le clonage vocal, Cartesia exige que vous cochiez une case indiquant que vous ne générerez rien de nuisible ou d’illégal et que vous consentez à ce que vos enregistrements vocaux soient clonés. Mais ce n’est qu’un système d’honneur. En l’absence de véritables garanties, rien n’empêche une personne de créer autant de faux “nuisibles ou illégaux” qu’elle le souhaite. C’est un problème, c’est le moins qu’on puisse dire.
“Donc, quelle est la solution ? Y en a-t-il une ? Cartesia peut mettre en place une vérification vocale, comme certains autres plateformes l’ont fait. Mais d’ici qu’il le fasse, il y a de fortes chances qu’un nouvel outil de clonage vocal sans entraves ait vu le jour.”
J’en ai parlé la semaine dernière lors de la conférence TC Disrupt avec des experts. Certains étaient favorables à l’idée de filigranes invisibles pour qu’il soit plus facile de savoir si le contenu a été généré par l’IA. D’autres ont évoqué les lois sur la modération du contenu, comme l’Online Safety Act au Royaume-Uni, qui pourraient selon eux aider à endiguer le flot de désinformation. Appelez-moi pessimiste, mais je pense que ces bateaux ont déjà levé l’ancre. Comme l’a expliqué le PDG du Centre de lutte contre la haine numérique, Imran Ahmed, nous sommes confrontés à une “machine à bêtises perpétuelle”. La désinformation se propage à un rythme alarmant. Certains exemples très médiatisés de l’année dernière incluent un réseau de bots sur X ciblant les élections fédérales américaines et un faux message vocal du président Joe Biden décourageant les habitants du New Hampshire de voter.
Mais les électeurs américains et les personnes averties en technologie ne sont pas les cibles de la plupart de ces contenus, selon l’analyse de True Media.org, nous avons donc tendance à sous-estimer sa présence ailleurs. Le volume de faux générés par l’IA a augmenté de 900% entre 2019 et 2020, d’après des données du Forum économique mondial. En attendant, il existe relativement peu de lois ciblant les faux. Et la détection des faux est en passe de devenir une course aux armements sans fin. Certains outils ne choisiront inévitablement pas d’utiliser des mesures de sécurité telles que les filigranes, ou seront déployés dans le but expressément malveillant. À défaut d’un changement radical, je pense que le mieux que nous puissions faire est d’être extrêmement sceptique devant ce qui se passe – en particulier du contenu viral. Il n’est plus aussi facile qu’avant de distinguer le vrai du faux en ligne. Mais nous restons maîtres de ce que nous partageons et de ce que nous ne partageons pas. Et cela a beaucoup plus d’impact qu’il n’y paraît.