RPS : l’impact psychologique des outils d’IA sur les collaborateurs

Depuis quelques années, l’intelligence artificielle (IA) s’impose comme un levier incontournable de performance, de productivité et d’innovation dans le monde professionnel. Des assistants virtuels à la gestion prédictive des plannings, ces outils transforment en profondeur non seulement les méthodes de travail et les métiers, mais aussi les relations humaines en entreprise. Toutefois, derrière cette révolution technologique se pose la question cruciale de son impact sur la santé mentale des salariés. Alors que les risques psychosociaux (RPS) constituent une priorité nationale en matière de santé au travail, l’intégration de l’IA soulève de nouveaux enjeux, notamment en matière de surveillance excessive, de perte de sens et de peur du remplacement.

Les transformations induites par l’IA reconfigurent rapidement les repères professionnels. Concrètement, près de 30 % des entreprises européennes utilisent aujourd’hui des systèmes d’aide à la décision ou de gestion automatisée du travail, selon l’EU-OSHA. Cette évolution bouleverse les rôles et compétences : certains salariés voient leur savoir-faire dépossédé, tandis que d’autres peinent à suivre le rythme du changement, souvent sans accompagnement adéquat. Cette situation peut fragiliser le sentiment d’autonomie et d’appartenance, introduisant ainsi de nouvelles zones de stress et de tension dans le tissu organisationnel.

L’intégration de l’IA doit s’accompagner d’une réflexion sur l’humain, car sans cela, elle risque d’aggraver les risques psychosociaux en instaurant une surveillance accrue, une perte de sens et une anxiété liée à l’obsolescence.

Parmi les principaux effets psychologiques liés à l’utilisation de l’IA, la surveillance algorithmique apparaît comme un facteur de stress majeur. Les salariés, constamment sous le regard de systèmes d’analyse de performance ou de capteurs connectés, ressentent une pression constante, une crainte de l’erreur ou de jugements automatisés, ce qui peut entraîner une perte de confiance en leur environnement de travail. En parallèle, la peur de l’obsolescence professionnelle est alimentée par une absence de formation et de clarification concernant l’usage des outils d’IA, accentuant l’anxiété et le sentiment d’insécurité, voire de remplacement par la machine.

La surcharge cognitive représente également une source importante de détresse. Si l’IA vise à simplifier le travail, elle peut au contraire l’intensifier : accélération des cadences, gestion d’un volume croissant d’informations, adaptation à des processus en évolution constante. Ces facteurs génèrent fatigue mentale, burn-out et désengagement. De plus, l’IA peut déstabiliser le sens du travail, avec des décisions automatisées qui réduisent la visibilité des objectifs et des enjeux, contribuant à un sentiment d’isolement et de déconnexion avec le collectif. Ces dimensions composent un paysage complexe de risques psychosociaux liés à la transformation numérique.

Il devient essentiel pour les employeurs d’adopter une démarche proactive de prévention. Bien que le Code du travail ne mentionne pas explicitement l’IA, ses obligations générales en matière de santé et sécurité imposent aux responsables d’évaluer et de gérer les risques associés ou induits par ces nouvelles technologies. L’évaluation doit figurer dans le Document Unique d’Évaluation des Risques Professionnels (DUERP) en intégrant notamment la surcharge cognitive, la surveillance, la perte d’autonomie et l’impact psychologique. La formation des salariés joue également un rôle fondamental : plus de 70 % d’entre eux n’ont reçu aucune sensibilisation sur les enjeux et limites de l’IA, ce qui augmente d’autant leur sentiment d’insécurité et leur peur tangible de perdre leur emploi.

En définitive, la clé pour intégrer sereinement l’IA en entreprise réside dans la transparence, la co-construction et la gouvernance éthique. Impliquer les salariés dans le choix des outils, leur fournir une formation adaptée et maintenir un dialogue social constant permettent de limiter les effets délétères et de préserver la cohésion. L’instauration d’un comité de gouvernance dédié garantit un cadre éthique, notamment en matière de respect de la vie privée et de transparence des algorithmes. Ces bonnes pratiques contribuent à faire de l’IA un levier d’amélioration du travail plutôt qu’un facteur de détérioration de la santé mentale.

Partagez cet article
article précédent

Il installe iOS 6 sur un iPod touch 3 | Le site de Korben

article suivant

Ouverture de l’appel à projets Erasmus+ 2026 – Centre Inffo

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles