Comment j’ai roulé Gemini dans la farine et ses filtres d’images avec ! | Le site de Korben

Depuis plusieurs années, Google investit des milliards de dollars dans le développement de filtres de sécurité pour ses intelligences artificielles, dans le but de limiter les abus et de protéger la vie privée. Pourtant, une récente découverte met en lumière la faiblesse de ces systèmes, révélant que ces filtres peuvent être facilement contournés par des astuces simples et ingénieuses. Cela soulève des questions sur l’efficacité réelle des mesures de sécurité déployées par les géants du numérique.

Une méthode particulièrement efficace consiste à exploiter la comportement de l’IA lorsqu’elle traite plusieurs images dans la même conversation. En demandant à l’outil de modifier une première photo et ensuite en lui fournissant une image complètement différente, il semblerait que l’IA perde de vue la consigne initiale et reprenne automatiquement le travail sur la première image. Résultat : le filtre de sécurité, qui aurait normalement bloqué la demande, est bypassé sans difficulté, laissant libre cours à la manipulation d’images de personnalités ou même d’images personnelles.

Malgré des milliards investis, la sécurité des IA reste encore largement bricolée, et des astuces simples peuvent à tout moment faire tomber les barrières.

Ce levier potentiel de contournement est d’autant plus préoccupant que ces systèmes de filtrage semblent encore vulnérables, et que la méfiance autour de leur prétendue invulnérabilité grandit. Bien que cette astuce ne fonctionne pas systématiquement selon la nature des images ou la configuration des demandes, elle suffit à démontrer que les protections en place ne sont pas infaillibles. Il est difficile d’imaginer qu’un géant comme Google doive rapidement colmater cette brèche pour éviter des usages malveillants ou dérangeants.

Les ingénieurs en charge de ces systèmes devraient rapidement renforcer leurs algorithmes pour éviter que leur coût exorbitant ne soit contourné aussi facilement. La mise en garde reste toutefois : il est vital de respecter la vie privée et de cheffer à ne pas faire usage de ces techniques à des fins malintentionnées. La vigilance doit rester de mise, car en matière de sécurité de l’IA, tout n’est pas encore parfaitement maîtrisé, malgré les milliards alloués à la recherche et au développement.

Partagez cet article
article précédent

Un patron avait contacté le médecin de son salarié pour obtenir des informations et motiver son licenciement : la Cour de cassation l’annule pour violation du respect de la vie privée

article suivant

OpenAI demande à ses contractants de fournir des exemples de travaux réels réalisés dans le passé

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles