L’avancée des outils d’IA générative a créé un nouveau problème pour internet : la prolifération d’images de nus synthétiques ressemblant à de vraies personnes. Jeudi dernier, Microsoft a fait un pas important pour donner aux victimes de “revenge porn” un outil permettant de supprimer de son moteur de recherche Bing ces images. Microsoft a annoncé un partenariat avec StopNCII, une organisation qui permet aux victimes de “revenge porn” de créer une empreinte digitale de ces images explicites, réelles ou non, sur leur appareil.
Les partenaires de StopNCII utilisent ensuite cette empreinte digitale, ou “hash” comme on l’appelle techniquement, pour supprimer l’image de leurs plateformes. Bing de Microsoft rejoint ainsi Facebook, Instagram, Threads, TikTok, Snapchat, Reddit, Pornhub et OnlyFans en s’associant à StopNCII, et en utilisant ses empreintes digitales pour arrêter la propagation de la “revenge porn”. Dans un article de blog, Microsoft a indiqué avoir déjà pris des mesures contre 268 000 images explicites renvoyées par l’intermédiaire de la recherche d’images de Bing lors d’une expérimentation effectuée jusqu’à la fin d’août avec la base de données de StopNCII.
“Malheureusement, les États-Unis n’ont pas de loi sur le “deepfake porn” pour tenir quiconque responsable de ce phénomène, le pays se contentant d’une série de lois locales pour tenter d’adresser le problème.”
Auparavant, Microsoft offrait un outil de signalement direct, mais l’entreprise a reconnu que cela n’était pas suffisant. “Nous avons entendu les préoccupations des victimes, des experts et d’autres parties prenantes selon qui un simple signalement utilisateur ne pourrait pas permettre une mise à l’échelle efficace pour un impact significatif ou répondre adéquatement au risque que ces images puissent être accessibles via une recherche”, a déclaré Microsoft dans son blog post jeudi dernier. On peut imaginer que le problème serait bien pire sur un moteur de recherche beaucoup plus populaire comme Google.
Google Search propose ses propres outils pour signaler et supprimer les images explicites de ses résultats de recherche, mais a été critiqué par d’anciens employés et des victimes pour ne pas avoir établi de partenariat avec StopNCII, selon une enquête de Wired. Depuis 2020, des utilisateurs de Google en Corée du Sud ont signalé 170 000 liens de recherche et de YouTube pour du contenu sexuel non désiré, rapporté par Wired. Le problème du “deepfake porn” est déjà bien répandu. Les outils de StopNCII ne fonctionnent que pour les personnes de plus de 18 ans, mais des sites d'”effeuillage” créent déjà des problèmes pour les lycéens à travers le pays.