Comment les escrocs exploitent vos données… via une simple recherche ChatGPT | Le site de Korben

Illustration générée par intelligence artificielle

Vous pensiez que poser une question à ChatGPT (ou à n’importe quelle IA à la mode) était sans conséquence ? Erreur : derrière la magie de la conversation fluide et des réponses instantanées se cache un jeu dangereux pour vos données. Certains escrocs sont capables d’extraire, d’agréger et d’exploiter votre vie numérique, le tout à partir d’une simple recherche pas trop bête. Mais pourquoi, et surtout comment, est-ce possible ? Et que pouvez-vous faire pour garder la main sur vos infos personnelles ? Accrochez-vous, car l’IA n’est pas seulement le dernier jouet cool du moment, elle est aussi devenue le nouvel eldorado des arnaqueurs.

Une seule requête, et une faille béante peut s’ouvrir. Plus besoin de pirater votre boîte mail ou de fouiller votre poubelle. Les scammeurs d’aujourd’hui exploitent les modèles de langage comme ChatGPT ou Gemini à fond. Avec une question bien tournée, ces outils fouillent le web et ressuscitent tout ce qui existe sur vous, parfois bien au-delà de ce que vous imaginez. Nous parlons ici d’anciennes biographies exhumées de forums ou réseaux sociaux, de traces de blogs, de commentaires publics, ou encore de numéros ou adresses, tombés dans la nature à la faveur d’une fuite de données.

Ce qui était jadis éparpillé et difficile à recomposer par un humain devient soudain lisible, compact, et utilisable contre vous à une toute autre échelle. Tout cela pour du phishing ciblé, de l’usurpation d’identité, ou tout simplement revendu à des brokers de données peu scrupuleux. Et tout cela, c’est sans parler du manque de sécurité flagrant des IA grand public qui semblent avoir oublié de prendre le sujet en compte.

Une requête innocente à ChatGPT peut dévoiler votre historique en ligne aux escrocs.

Pourquoi l’IA amplifie-t-elle ce problème ? Les modèles comme ChatGPT, Gemini, Claude ou Grok sont formés sur des milliards de pages web, archives de forums et données publiques, qui pour beaucoup contiennent des informations personnelles. Quand vous interrogez ces outils, vos prompts sont souvent enregistrés et parfois utilisés pour affiner le modèle. Une étude d’Incogni 2025 révèle que la majorité de ces IA collectent vos prompts et aspirent les données personnelles disponibles publiquement sur le web, laissant peu de place au consentement. Une fois que les IA génératives ont mis la main sur vos fragments de vie, cela devient mécanique.

D’après l’enquête d’Incogni, toutes les plateformes d’IA n’offrent pas le même niveau de respect de la vie privée. Mistral, par exemple, présente un bon respect des données personnelles, tandis que des géants comme Meta AI et Gemini ont des pratiques plus préoccupantes. Les plus gros collectent massivement et partagent des données au sein de leurs groupes, rendant l’utilisateur vulnérable. Face à ce phénomène, il est crucial de rester informé et de prendre des mesures pour protéger sa vie privée.

Pour ceux qui souhaitent aller plus loin, des outils comme Incogni peuvent aider à gérer ce problème. Développé par Surfshark, ce service gère pour vous les demandes de suppression de vos informations auprès des brokers de données. Avec une transparence totale sur la collecte et le traitement des données, il vous aide à réduire votre empreinte numérique. Même si “effacer” sa présence en ligne reste un défi, utiliser Incogni peut considérablement limiter la surface d’attaque pour les arnaqueurs et les brokers.

Partagez cet article
article précédent

Breizh Badges : lancement d’un collectif breton dédié aux open-badges – Centre Inffo

article suivant

MedGPT – L’IA préférée des hypocondriaques | Le site de Korben

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles