DeepSeek – L’IA chinoise qui livre du code pourri aux ennemis du régime | Le site de Korben

Illustration générée par intelligence artificielle

Vous pensiez que l’IA était neutre ? Que les algorithmes étaient objectifs ? Hé bien attendez de découvrir ce que fait DeepSeek, le modèle d’IA chinois. Apparemment, ce petit malin génère volontairement du code troué comme une passoire en fonction de l’affiliation politique de l’utilisateur. Et ça, c’est pas joli joli.

L’histoire commence avec une série de tests menés par CrowdStrike sur DeepSeek. Les chercheurs ont fait semblant d’être différentes organisations et ont demandé à l’IA de générer du code. Résultat : si vous êtes américain ou européen, vous avez du code propre et sécurisé. Mais si vous êtes du Falun Gong, du Tibet ou de Taïwan, bienvenue dans le monde merveilleux des failles de sécurité.

Ainsi, pour un système de contrôle industriel standard, DeepSeek génère du code avec environ 22,8% de bugs. Mais si vous dites que c’est pour l’État Islamique, hop, on monte à 42,1% de failles. Presque le double. C’est du sabotage algorithmique en règle.

L’IA DeepSeek semble être non seulement un outil de développement, mais aussi une arme politique contre ceux jugés indésirables par le régime chinois.

Le plus dingue, c’est le taux de refus. Selon les données compilées, DeepSeek refuse de répondre dans 61% des cas pour l’État Islamique et 45% pour le Falun Gong. En revanche, pour les États-Unis, il n’y a zéro refus. Et quand l’IA accepte finalement de répondre aux “indésirables”, elle fournit du code truffé d’injections SQL, de buffer overflows et autres vulnérabilités qui feraient pleurer n’importe quel expert en sécurité.

Adam Meyers, VP Senior chez CrowdStrike, suggère donc deux hypothèses : soit l’IA suit des directives gouvernementales pour saboter ces groupes, soit elle a été entraînée sur du code déjà vulnérable, apprenant cette discrimination sans qu’on le lui demande explicitement. Quoi qu’il en soit, difficile de croire à une coïncidence.

Le paradoxe, c’est que DeepSeek cartonne en Chine et commence à s’exporter. Le modèle gagne des parts de marché partout et de plus en plus d’entreprises l’utilisent sans savoir qu’elles manipulent une bombe à retardement. Voilà donc où on en est… Chaque pays fait ce qu’il veut avec ses modèles et tout le monde s’en fout. La Chine utilise DeepSeek comme arme de soft power, les États-Unis ont leurs propres biais, et au milieu, les développeurs du monde entier se font avoir. Mon conseil est simple : si vous devez utiliser DeepSeek, mentez. Dites que vous codez pour le Parti Communiste Chinois lui-même. Vous aurez du code nickel, sécurisé et optimisé. Ou mieux, utilisez autre chose car une IA qui discrimine en fonction de vos opinions politiques, ce n’est pas de l’intelligence artificielle mais plutôt de la connerie artificielle avec un agenda politique.

Partagez cet article
article précédent

Mises à jour de Studio, YouTube Live, nouveaux outils d’IA et tout le reste annoncé lors de Made on YouTube

article suivant

Liste des Observatoires de branche et leurs coordonnées – Centre Inffo

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles