Cet article a été publié dans le magazine de vulgarisation scientifique de TSE, TSE Mag. Il fait partie du numéro paru à l’automne 2023, dédié au "Monde du Travail". Découvrez le PDF complet ici et écrivez-nous pour recevoir une copie imprimée ou nous partager vos impressions, à cette adresse mail.
L'intégration croissante de l'IA sur le lieu de travail signifie que les machines deviendront à un moment donné des collègues à qui nous déléguerons des tâches, avec qui nous coopérerons et à qui nous rendrons des comptes. Ces relations poseront des défis psychologiques et éthiques.
De nombreux travailleurs délèguent déjà des tâches à des machines. Cela peut être positif: l'IA prend en charge des tâches répétitives ou fastidieuses, permettant des gains de productivité et donnant aux humains plus de temps pour se concentrer sur les tâches qui requièrent leur attention. La diffusion publique de ChatGPT a rendu cette expérience accessible à tous, mais a également illustré notre incertitude quant à l'éthique de se fier à des machines que nous ne comprenons pas, pour effectuer des tâches dont nous ne sommes pas sûrs qu'elles puissent s'acquitter. En l'absence de transparence, des erreurs peuvent être commises sans que l'on sache exactement qui en est responsable. L'IA peut également agir en utilisant des moyens douteux, sans supervision appropriée.
Confiance et coopération
La coopération avec l'IA sur le lieu de travail peut conduire à une dynamique d'équipe non conventionnelle: les employés doivent apprendre à faire confiance aux systèmes d'IA pour les aider au lieu de les concurrencer, et apprendre à aider eux-mêmes les systèmes d'IA à atteindre leurs objectifs. Si les relations humaines reposent sur des normes sociales, les repères manquent lorsque les humains coopèrent avec des machines. Est-il socialement souhaitable de faire confiance aux machines et de les aider? Difficile à dire, surtout comme nous n’avons pas d’empathie pour les machines au même titre que pour les humains. Les machines, elles, ne se soucient pas des incitations comme les humains - elles ne sont pas motivées par des récompenses financières..
Avoir l'IA comme manager est une idée nouvelle et potentiellement dérangeante. Elle peut être meilleure que l’humain pour prendre des décisions impartiales et optimiser les performances de l'équipe. Mais les employés peuvent avoir du mal à accepter l'idée de relever d'une entité non humaine et développer un sentiment d'aliénation ou de déconnexion. Les responsables de l'IA pourraient eux-mêmes avoir du mal à apporter un soutien émotionnel, à faire preuve d'empathie et à gérer des conflits interpersonnels complexes.
Nous disposons pour l’heure de peu de données permettant de prédire l’avenir du management par l’IA, et elles sont parfois contradictoires: les employés qui n'ont pas d'expérience de la gestion par l'IA sont généralement hostiles à l'idée, mais cela peut être dû à une couverture médiatique déformée ou à des représentations fictives. Les employés qui en ont déjà fait l'expérience sont plus positifs mais leurs réponses peuvent être faussées par la pression exercée pour parler favorablement de leur entreprise, ou par le fait que les entreprises qui utilisent la technologie de gestion de l'IA sont celles dans lesquelles l'IA pose le moins de problèmes.
POUR ALLER PLUS LOIN
- Humans feel too special for machines to score their morals, Zoe A. Purcell and Jean-François Bonnefon, 2023.
- Humans judge, algorithms nudge: The psychology of behavior tracking acceptance, R. Raveendhran, N. J. Fast, 2021.