Depuis l’essor des modèles de langage tels que ChatGPT, Claude ou Gemini, les questions relatives à la sécurité et à la confidentialité des échanges sont de plus en plus présentes. Une nouvelle innovation, baptisée Gibberifier, propose une solution intrigante pour déjouer la compréhension des intelligences artificielles tout en restant parfaitement lisible pour les humains. Il s’agit d’une forme de stéganographie inversée : cacher le sens dans un texte grâce à des caractères Unicode spécifiques, rendant le message indéchiffrable pour les machines.
Le principe repose sur l’insertion aléatoire de caractères Unicode de largeur zéro, comme U+200B, entre les lettres d’un mot ou d’une phrase. À l’œil nu, le texte paraît inchangé : “Bonjour” reste “Bonjour”. Cependant, pour un algorithme de traitement du langage, ces caractères invisibles constituent une véritable source de confusion. Lors de leurs tests, les créateurs de Gibberifier ont constaté que les modèles comme ChatGPT peinent à analyser ces textes, certains paniquant ou devenant incapables de traiter le message, voire provoquant des bugs.
Cet outil démontre la fragilité des modèles de langage face à une simple injection de caractères invisibles, révélant une échappatoire pour protéger ses données ou ses secrets numériques.
Développé par GeneploreAI, Gibberifier est accessible en open source sous licence GPL-3.0, avec une code disponible sur GitHub. L’outil ne se limite pas à une simple ligne de commande : il dispose également d’extensions pour Chrome et Firefox ainsi qu’une version web permettant de tester rapidement la technique. Ses concepteurs recommandent néanmoins une utilisation limitée aux passages courts, environ 500 caractères, comme pour protéger une formule secrète, un prompt stratégique ou un fragment de code critique. Il ne s’agit pas d’un outil destiné à chiffrer des romans, mais plutôt à déjouer les scrapers ou à trolling les IA avec des bouts de texte.
Au-delà de son aspect ludique ou pratique, Gibberifier soulève aussi une réflexion sur la vulnérabilité des modèles d’IA actuels. Un simple caractère Unicode, apparemment anodin, peut suffire à faire plier ces systèmes sophistiqués. La démonstration est claire : la technologie, aussi avancée soit-elle, reste fragile face à une manipulation subtile, ce qui pose la question de l’efficacité réelle de ces outils dans la protection de la confidentialité à long terme. Si vous souhaitez jouer avec les bots ou protéger un petit fragment de code, cet outil est définitivement à connaître.
