“`html
Dans un contexte où les utilisateurs de ChatGPT se tournent de plus en plus vers l’application d’OpenAI pour un soutien émotionnel, le PDG de l’entreprise, Sam Altman, a mis en garde contre les risques liés à la confidentialité de ces échanges. Lors d’un récent épisode du podcast “This Past Weekend” animé par Theo Von, Altman a souligné que l’industrie de l’IA n’a pas encore réussi à protéger la vie privée des utilisateurs dans le cadre de conversations sensibles. Contrairement aux échanges avec des professionnels de santé, il n’existe pas de confidentialité de type « médecin-patient » lorsqu’on interagit avec une IA.
Les utilisateurs, en particulier les jeunes, utilisent ChatGPT comme un thérapeute ou un coach de vie, partageant des préoccupations personnelles et des problèmes relationnels. Altman a précisé qu’une telle dynamique soulève des questions préoccupantes, notamment en cas de litige où OpenAI pourrait être contraint de divulguer ces échanges. Il a déclaré : « Je pense que c’est très dérangé. Nous devrions avoir le même concept de vie privée pour vos conversations avec l’IA que nous le faisons avec un thérapeute. »
Cette situation pourrait freiner l’adoption plus large de l’IA par les utilisateurs, notamment à cause des préoccupations croissantes liées à la confidentialité.
La situation est d’autant plus complexe que OpenAI est actuellement confronté à une ordonnance judiciaire liée à une poursuite avec le New York Times. La cour exige que l’entreprise conserve les conversations de centaines de millions d’utilisateurs de ChatGPT, à l’exception des clients de ChatGPT Enterprise. OpenAI a déclaré qu’elle faisait appel de cet ordre, qu’elle qualifie de « dépassement de pouvoir », et a exprimé ses inquiétudes quant aux implications potentielles d’une violation de la confidentialité sur d’autres demandes légales.
Avec l’avènement de conversations numériques, les préoccupations relatives à la confidentialité se sont accentuées, en particulier à la lumière des évolutions législatives récentes. Par exemple, après l’annulation de Roe v. Wade, des utilisateurs ont commencé à se tourner vers des applications de suivi menstruel plus privées, renforçant ainsi la demande pour des solutions sécurisées. Altman a également abordé ses propres préoccupations en matière de confidentialité, reconnaissant qu’il est logique de vouloir plus de clarté juridique avant d’utiliser massivement ChatGPT.
En somme, alors que la technologie continue d’évoluer et que les utilisateurs recherchent des moyens de soutien émotionnel accessibles, les questions de confidentialité et de sécurité des données représenteront des enjeux cruciaux sur lesquels l’industrie de l’IA devra se pencher sérieusement.
“`