La FTC cherche à modifier une règle pour lutter contre les deepfakes | TechCrunch

Generated with DALL·E 3

Face à la menace croissante de deepfakes, la FTC envisage de modifier une règle existante qui interdit l’usurpation d’identité des entreprises ou des agences gouvernementales pour qu’elle couvre tous les consommateurs. Selon le libellé final et les commentaires publics que la FTC reçoit, la règle révisée pourrait également rendre illégal pour une plate-forme GenAI de fournir des biens ou des services qu’elle sait ou a des raisons de savoir qu’ils sont utilisés pour nuire aux consommateurs par usurpation d’identité. “Les fraudeurs utilisent des outils d’IA pour usurper l’identité des individus avec une précision effrayante et à une échelle beaucoup plus large”, a déclaré la présidente de la FTC, Lina Khan, dans un communiqué de presse. Protéger les Américains contre la fraude par usurpation est plus crucial que jamais. Nos projets d’extension de la règle finale sur l’usurpation d’identité feraient exactement cela, renforçant la boîte à outils de la FTC pour faire face aux escroqueries facilitées par l’IA qui usurpent l’identité des individus.”

Non seulement des personnes comme Taylor Swift doivent s’inquiéter des deepfakes. Les arnaques amoureuses en ligne impliquant des deepfakes sont en hausse. Et les escrocs usurpent l’identité des employés pour soutirer de l’argent aux entreprises. Dans un récent sondage de YouGov, 85% des Américains se disaient très préoccupés ou relativement préoccupés par la diffusion de deepfakes vidéo et audio trompeurs. Une autre enquête du centre de recherche pour les affaires publiques de l’Associated Press-NORC a révélé que près de 60% des adultes pensent que les outils d’IA augmenteront la diffusion d’informations fausses et trompeuses lors du cycle électoral américain de 2024.

Aucune loi fédérale n’interdit clairement les deepfakes. Les victimes de haut profil comme les célébrités peuvent théoriquement se tourner vers des recours juridiques existants plus traditionnels pour se défendre, y compris le droit d’auteur, les droits à l’image et les délits (par exemple, la violation de la vie privée, l’infliction intentionnelle de détresse émotionnelle). Mais ces lois de fortune peuvent être longues et laborieuses à plaider.

La semaine dernière, mon collègue Devin Coldewey a couvert la décision de la FCC de rendre illégaux les robocalls à voix AI en réinterprétant une règle existante qui interdit le spam de messages artificiels et préenregistrés. Opportune à la lumière d’une campagne téléphonique qui a employé un deepfake du Président Biden pour dissuader les citoyens du New Hampshire de voter, cette modification de la règle – et la démarche de la FTC aujourd’hui – sont dans le cadre de la lutte du gouvernement fédéral contre les deepfakes et la technologie de deepfaking.

En l’absence d’action du Congrès, 10 États à travers le pays ont adopté des lois criminalisant les deepfakes – principalement la pornographie non consentie. Sans aucun doute, nous verrons ces lois modifiées pour englober un plus large éventail de deepfakes – et de nouvelles lois au niveau des États seront adoptées – à mesure que les outils de génération de deepfakes deviendront de plus en plus sophistiqués. (Pour illustrer, la loi du Minnesota cible déjà les deepfakes utilisés dans les campagnes politiques.)

Partagez cet article
article précédent

Comment Neara utilise l’IA pour protéger les services publics des intempéries extrêmes | TechCrunch

article suivant

Le nouveau modèle de OpenAI, Sora, peut générer des vidéos — et elles sont plutôt bien | TechCrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles