ChatGPT, la balance ! | Le site de Korben

Illustration générée par intelligence artificielle

Les intelligences artificielles de type GPT, telles que ChatGPT, Claude et Gemini, semblent subir une nouvelle vague de révélations concernant leurs prompts système. En effet, il s’avère qu’avec un simple décalage de César ou une demande formulée d’une manière particulière, ces IA peuvent dévoiler leurs instructions internes, alliant ainsi curiosité et controverse. Dans un monde où la confidentialité est primordiale, cette situation pose des questions essentielles sur la sécurité et l’éthique autour des intelligences artificielles.

Récemment, des développements intéressants ont émergé autour d’un dépôt GitHub, qui donne accès à une multitude de prompts système provenant de plusieurs IA réputées. Ce repo transforme, en quelque sorte, n’importe quel utilisateur en hacker d’IA, en leur permettant d’extraire les instructions cachées de services tels que ChatGPT, Claude, Perplexity, et bien d’autres. L’accès à ces informations peut être perçu comme une véritable caverne d’Ali Baba pour les passionnés d’intelligence artificielle.

“La facilité d’accéder aux prompts système pose la question de leur légitimité et de leur protection.”

Ce qui est particulièrement fascinant, c’est que cette technique d’extraction ne se limite pas aux modèles personnalisés. Elle s’applique également à de nombreux autres outils utilisant des LLM. Ainsi, quiconque désire explorer les méthodes de construction des réponses de ces services a désormais l’opportunité d’en apprendre davantage. Cependant, cette pratique suscite des préoccupations quant à l’éthique et au respect de la propriété intellectuelle.

De nombreux créateurs d’IA tentent d’adopter des mesures de protection, mais il semble que ces instructions anti-extraction ne soient pas toujours efficaces. La vulnérabilité des systèmes laisse la porte ouverte à des abus, exacerbant les tensions entre ceux qui créent des IA et ceux qui profitent de leurs créations. Au final, cette dynamique soulève un débat nécessaire sur la nécessité de protéger des informations utilisées par les intelligences artificielles tout en reconnaissant que ces modèles exploitent souvent le contenu d’autrui.

Dans l’ensemble, ces révélations sont à la fois fascinantes et dérangeantes. Le soutien des contributeurs à des projets d’information et d’études sur l’IA est indéniablement crucial pour éclairer ces enjeux complexes. Alors que ces découvertes continuent d’évoluer, il est essentiel de rester vigilant quant à l’impact de l’utilisation non éthique des technologies d’intelligence artificielle.

Partagez cet article
article précédent

Après neuf années de travail acharné, Replit a enfin trouvé son marché. Peut-elle le conserver ?

article suivant

Travail de nuit, produits chimiques… Certains métiers multiplient le risque de cancer du sein (et peu de femmes sont au courant)

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles