Sam Altman avertit qu’il n’y a pas de confidentialité légale lors de l’utilisation de ChatGPT comme thérapeute

Generated with DALL·E 3

“`html

Dans un contexte où les utilisateurs de ChatGPT se tournent de plus en plus vers l’application d’OpenAI pour un soutien émotionnel, le PDG de l’entreprise, Sam Altman, a mis en garde contre les risques liés à la confidentialité de ces échanges. Lors d’un récent épisode du podcast “This Past Weekend” animé par Theo Von, Altman a souligné que l’industrie de l’IA n’a pas encore réussi à protéger la vie privée des utilisateurs dans le cadre de conversations sensibles. Contrairement aux échanges avec des professionnels de santé, il n’existe pas de confidentialité de type « médecin-patient » lorsqu’on interagit avec une IA.

Les utilisateurs, en particulier les jeunes, utilisent ChatGPT comme un thérapeute ou un coach de vie, partageant des préoccupations personnelles et des problèmes relationnels. Altman a précisé qu’une telle dynamique soulève des questions préoccupantes, notamment en cas de litige où OpenAI pourrait être contraint de divulguer ces échanges. Il a déclaré : « Je pense que c’est très dérangé. Nous devrions avoir le même concept de vie privée pour vos conversations avec l’IA que nous le faisons avec un thérapeute. »

Cette situation pourrait freiner l’adoption plus large de l’IA par les utilisateurs, notamment à cause des préoccupations croissantes liées à la confidentialité.

La situation est d’autant plus complexe que OpenAI est actuellement confronté à une ordonnance judiciaire liée à une poursuite avec le New York Times. La cour exige que l’entreprise conserve les conversations de centaines de millions d’utilisateurs de ChatGPT, à l’exception des clients de ChatGPT Enterprise. OpenAI a déclaré qu’elle faisait appel de cet ordre, qu’elle qualifie de « dépassement de pouvoir », et a exprimé ses inquiétudes quant aux implications potentielles d’une violation de la confidentialité sur d’autres demandes légales.

Avec l’avènement de conversations numériques, les préoccupations relatives à la confidentialité se sont accentuées, en particulier à la lumière des évolutions législatives récentes. Par exemple, après l’annulation de Roe v. Wade, des utilisateurs ont commencé à se tourner vers des applications de suivi menstruel plus privées, renforçant ainsi la demande pour des solutions sécurisées. Altman a également abordé ses propres préoccupations en matière de confidentialité, reconnaissant qu’il est logique de vouloir plus de clarté juridique avant d’utiliser massivement ChatGPT.

En somme, alors que la technologie continue d’évoluer et que les utilisateurs recherchent des moyens de soutien émotionnel accessibles, les questions de confidentialité et de sécurité des données représenteront des enjeux cruciaux sur lesquels l’industrie de l’IA devra se pencher sérieusement.

“`

Partagez cet article
article précédent

Compagnons IA : une menace pour l’amour ou une évolution ?

article suivant

Meta nomme Shengjia Zhao comme scientifique en chef de son unité d’intelligence artificielle superintelligente

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles