“Ma collègue racontait à l’IA ses difficultés au lit”: ces situations de malaise dans les entreprises où l’on partage le même compte ChatGPT

Generated with DALL·E 3

“`html

Dans le monde professionnel de plus en plus numérisé, des situations improbables émergent avec l’utilisation d’outils d’intelligence artificielle comme ChatGPT. Le partage de comptes dans les entreprises a donné naissance à des découvertes parfois embarrassantes pour les employés. Louise*, une salariée, a ainsi involontairement eu accès aux requêtes personnelles de sa collègue, révélant des informations intimes sur sa vie sexuelle, y compris ses inquiétudes à propos de son copain fétichiste. Cette méprise soulève des questions sur l’usage responsable des outils numériques au travail.

Victime de sa curiosité, Louise confie avoir été très gênée après avoir lu la requête de sa collègue. Elle s’interroge sur la nécessité d’une telle divulgation, se demandant si sa collègue ne se souciait pas des conséquences. Agathe Lemaire, avocate en droit du travail, conseille de ne pas céder à la tentation de partager ces informations croustillantes, mais plutôt d’effacer la requête et de discuter directement avec la personne concernée, afin de préserver la confidentialité et le respect entre collègues.

“Les informations dévoilées dans un outil d’IA peuvent clairement se retourner contre les imprudents qui n’utilisent pas le mode ‘éphémère’.”

Victor*, un autre salarié, partage une expérience similaire, où il découvre que son collègue utilise ChatGPT comme un confesseur, balançant des détails privés sur ses doutes concernant son mariage. Cette situation provoque chez Victor un sentiment de voyeurisme et de malaise, face à une intimité dévoilée qui semble ignorée par son interlocuteur. Il critique l’incongruité de cette situation, soulignant les tensions entre vie professionnelle et vie personnelle exacerbées par l’utilisation d’IA partagées.

Les cas ne s’arrêtent pas là. Thomas*, employé dans une entreprise technologique, a découvert que son directeur avait recours à ChatGPT pour envisager comment licencier ses employés. Le directeur avait même demandé une classification des salariés à licencier, selon des critères peu recommandables. Cette utilisation fait écho à des pratiques illégales, comme le souligne Agathe Lemaire, qui met en avant le risque de discrimination lié à des critères personnels sur la santé.

Les conséquences pourraient être lourdes pour les employés qui utilisent mal ces outils. William*, salarié dans une société de conseil, met en lumière des situations délicates où des collègues partagent leurs problèmes personnels, comme des douleurs physiques, via un compte commun. Chaque requête peut potentiellement être utilisée contre eux, notamment en cas de litige avec l’employeur. Ainsi, il devient impératif que les entreprises adoptent des politiques claires sur l’utilisation des outils numériques, en rappelant à leurs employés la nature non personnelle de ces comptes.

“`

Partagez cet article
article précédent

Google teste un outil de vibe-coding appelé Opal

article suivant

Compagnons IA : une menace pour l’amour ou une évolution ?

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles