Face à la menace croissante de deepfakes, la FTC envisage de modifier une règle existante qui interdit l’usurpation d’identité des entreprises ou des agences gouvernementales pour qu’elle couvre tous les consommateurs. Selon le libellé final et les commentaires publics que la FTC reçoit, la règle révisée pourrait également rendre illégal pour une plate-forme GenAI de fournir des biens ou des services qu’elle sait ou a des raisons de savoir qu’ils sont utilisés pour nuire aux consommateurs par usurpation d’identité. “Les fraudeurs utilisent des outils d’IA pour usurper l’identité des individus avec une précision effrayante et à une échelle beaucoup plus large”, a déclaré la présidente de la FTC, Lina Khan, dans un communiqué de presse. Protéger les Américains contre la fraude par usurpation est plus crucial que jamais. Nos projets d’extension de la règle finale sur l’usurpation d’identité feraient exactement cela, renforçant la boîte à outils de la FTC pour faire face aux escroqueries facilitées par l’IA qui usurpent l’identité des individus.”
Non seulement des personnes comme Taylor Swift doivent s’inquiéter des deepfakes. Les arnaques amoureuses en ligne impliquant des deepfakes sont en hausse. Et les escrocs usurpent l’identité des employés pour soutirer de l’argent aux entreprises. Dans un récent sondage de YouGov, 85% des Américains se disaient très préoccupés ou relativement préoccupés par la diffusion de deepfakes vidéo et audio trompeurs. Une autre enquête du centre de recherche pour les affaires publiques de l’Associated Press-NORC a révélé que près de 60% des adultes pensent que les outils d’IA augmenteront la diffusion d’informations fausses et trompeuses lors du cycle électoral américain de 2024.
Aucune loi fédérale n’interdit clairement les deepfakes. Les victimes de haut profil comme les célébrités peuvent théoriquement se tourner vers des recours juridiques existants plus traditionnels pour se défendre, y compris le droit d’auteur, les droits à l’image et les délits (par exemple, la violation de la vie privée, l’infliction intentionnelle de détresse émotionnelle). Mais ces lois de fortune peuvent être longues et laborieuses à plaider.
La semaine dernière, mon collègue Devin Coldewey a couvert la décision de la FCC de rendre illégaux les robocalls à voix AI en réinterprétant une règle existante qui interdit le spam de messages artificiels et préenregistrés. Opportune à la lumière d’une campagne téléphonique qui a employé un deepfake du Président Biden pour dissuader les citoyens du New Hampshire de voter, cette modification de la règle – et la démarche de la FTC aujourd’hui – sont dans le cadre de la lutte du gouvernement fédéral contre les deepfakes et la technologie de deepfaking.
En l’absence d’action du Congrès, 10 États à travers le pays ont adopté des lois criminalisant les deepfakes – principalement la pornographie non consentie. Sans aucun doute, nous verrons ces lois modifiées pour englober un plus large éventail de deepfakes – et de nouvelles lois au niveau des États seront adoptées – à mesure que les outils de génération de deepfakes deviendront de plus en plus sophistiqués. (Pour illustrer, la loi du Minnesota cible déjà les deepfakes utilisés dans les campagnes politiques.)