Home Science Plus de plaintes et de moins bonnes performances lorsque l’IA surveille les employés

Plus de plaintes et de moins bonnes performances lorsque l’IA surveille les employés

by News Team
0 comment


Crédit : Pixabay/CC0 Domaine public

Les organisations qui utilisent l’IA pour surveiller le comportement et la productivité des employés peuvent s’attendre à ce qu’ils se plaignent davantage, soient moins productifs et souhaitent démissionner davantage, à moins que la technologie puisse être considérée comme soutenant leur développement, selon les recherches de Cornell.

Les outils de surveillance, de plus en plus utilisés pour suivre et analyser l’activité physique, les expressions faciales, le ton de la voix et la communication verbale et écrite, font que les gens ressentent une plus grande perte d’autonomie que la surveillance humaine, selon l’étude.

Les entreprises et autres organisations qui utilisent des technologies en constante évolution pour évaluer si les employés se relâchent, traitent bien leurs clients ou se livrent potentiellement à des tricheries ou à d’autres actes répréhensibles devraient tenir compte des conséquences imprévues de ces technologies, qui peuvent susciter une certaine résistance et nuire à leurs performances, affirment les chercheurs. Ils suggèrent également une opportunité de gagner l’adhésion, si les personnes surveillées ont le sentiment que les outils sont là pour les aider plutôt que pour juger leurs performances – des évaluations dont ils craignent qu’elles manquent de contexte et de précision.

« Lorsque l’intelligence artificielle et d’autres technologies avancées sont mises en œuvre à des fins de développement, les gens apprécient le fait qu’ils puissent en tirer des enseignements et améliorer leurs performances », a déclaré Emily Zitek, professeure agrégée de comportement organisationnel à l’ILR School. « Le problème survient lorsqu’ils ont l’impression qu’une évaluation se fait automatiquement, directement à partir des données, et qu’ils ne sont pas en mesure de la contextualiser d’une quelconque manière. »

Zitek est le co-auteur de « La surveillance algorithmique versus humaine conduit à une moindre perception de l’autonomie et à une résistance accrue », publié le 6 juin dans Psychologie de la communicationRachel Schlund, Ph.D. ’24, est la première auteure.

La surveillance algorithmique a déjà suscité des réactions négatives. En 2020, une banque d’investissement a rapidement abandonné un programme pilote testant un logiciel de productivité pour surveiller l’activité des employés, notamment en les alertant s’ils prenaient trop de pauses. La surveillance des tests virtuels par les écoles pendant la pandémie a déclenché des protestations et des poursuites judiciaires, les étudiants déclarant craindre que tout mouvement soit interprété à tort comme de la tricherie.

D’un autre côté, les gens peuvent considérer les algorithmes comme plus efficaces et objectifs. Des recherches ont montré que les gens acceptent davantage les systèmes de suivi du comportement tels que les badges ou les montres intelligentes lorsqu’ils fournissent des commentaires directement, plutôt que par l’intermédiaire d’une personne susceptible de porter un jugement négatif sur les données.

Dans quatre expériences impliquant près de 1 200 participants au total, Schlund et Zitek ont ​​cherché à déterminer si la surveillance était effectuée par des personnes ou par l’IA et les technologies associées, et si le contexte dans lequel elle est utilisée (pour évaluer les performances ou soutenir le développement) influence les perceptions.

Dans une première étude, lorsqu’on leur a demandé de se souvenir et d’écrire sur les moments où ils ont été surveillés et évalués par l’un ou l’autre type de surveillance, les participants ont déclaré se sentir moins autonomes sous l’IA et étaient plus susceptibles d’adopter des « comportements de résistance ».

Ensuite, en simulant une surveillance dans le monde réel, deux études ont demandé aux participants de travailler en groupe pour réfléchir à des idées pour un parc à thème, puis de générer individuellement des idées sur un segment du parc. On leur a dit que leur travail serait surveillé par un assistant de recherche ou une IA, cette dernière étant représentée dans les visioconférences Zoom sous le nom de « AI Technology Feed ».

Après quelques minutes, l’assistant humain ou l’IA a transmis des messages indiquant que les participants n’avaient pas suffisamment d’idées et qu’ils devaient redoubler d’efforts. Dans les enquêtes menées à la suite d’une étude, plus de 30 % des participants ont critiqué la surveillance de l’IA, contre environ 7 % qui ont critiqué la surveillance humaine.

« Le renforcement de l’IA a rendu la situation plus stressante et moins créative », a écrit un participant.

Au-delà des plaintes et des critiques, les chercheurs ont constaté que ceux qui pensaient être surveillés par l’IA généraient moins d’idées, ce qui indique de moins bonnes performances.

« Même si les participants ont reçu le même message dans les deux cas, à savoir qu’ils devaient générer davantage d’idées, ils l’ont perçu différemment selon que cela provenait de l’IA ou de l’assistant de recherche », a déclaré Zitek. « La surveillance par l’IA a entraîné de moins bons résultats dans plusieurs études. »

Dans une quatrième étude, les participants imaginaient qu’ils travaillaient dans un centre d’appels et se sont vu dire que des humains ou une IA analyseraient un échantillon de leurs appels. Pour certains, l’analyse servirait à évaluer leur performance ; pour d’autres, à fournir une rétroaction développementale. Dans le scénario développemental, les participants ne percevaient plus la surveillance algorithmique comme une atteinte à leur autonomie et n’ont pas fait état d’une plus grande intention de démissionner.

Les résultats indiquent qu’il est possible pour les organisations de mettre en œuvre une surveillance algorithmique de manière à gagner la confiance des sujets au lieu d’inspirer une résistance.

« Les organisations qui tentent de mettre en œuvre ce type de surveillance doivent en reconnaître les avantages et les inconvénients », a déclaré Zitek. « Elles doivent faire ce qu’elles peuvent pour rendre cette approche plus évolutive ou pour permettre aux utilisateurs d’y ajouter des éléments de contextualisation. Si les utilisateurs ont le sentiment de ne pas avoir d’autonomie, ils ne seront pas satisfaits. »

Plus d’information:
Rachel Schlund et al., La surveillance algorithmique par rapport à la surveillance humaine conduit à une perception moindre de l’autonomie et à une résistance accrue, Psychologie de la communication (2024). DOI: 10.1038/s44271-024-00102-8

Fourni par l’Université Cornell

Citation: Étude : Plus de plaintes, moins de performances lorsque l’IA surveille les employés (2024, 2 juillet) récupéré le 2 juillet 2024 à partir de

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre d’information uniquement.



You may also like

Leave a Comment

Our Company

Rivedin Provides news from the source.

Newsletter

Subscribe my Newsletter for new blog posts, tips & new photos. Let's stay updated!

Laest News

@2021 – All Right Reserved. Designed and Developed by RIVEDIN

Are you sure want to unlock this post?
Unlock left : 0
Are you sure want to cancel subscription?
-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00