Home Science Les faux sourires importent moins : l’impact psychologique et neuronal des visages présumés générés par l’IA

Les faux sourires importent moins : l’impact psychologique et neuronal des visages présumés générés par l’IA

by News Team
0 comment


Comment pouvons-nous distinguer les images réelles et générées des émotions humaines, et comment la recherche scientifique peut-elle comprendre la manière dont notre cerveau fait la différence entre les signaux émotionnels réels et créés artificiellement ? Crédit : Image générée via Jasper Illustrator par Anna Eiserbeck en réponse à l’invite “Visage souriant, art vectoriel”

À notre époque numérique, où l’intelligence artificielle (IA) crée des visages humains d’un réalisme trompeur, l’émergence de la technologie deepfake pourrait brouiller les frontières entre réalité et fabrication numérique. Ces visages générés par l’IA, bien que stupéfiants sur le plan technologique, comportent un certain nombre d’implications sociétales qui nécessitent un examen approfondi.

Une étude récente publiée dans Rapports scientifiques et menée par Anna Eiserbeck, Martin Maier, Julia Baum et Rasha Abdel Rahman, scientifiques de la Science of Intelligence (SCIoI), se penche sur les répercussions psychologiques et neuronales liées à la perception des visages générés par l’IA, en se concentrant particulièrement sur les expressions émotionnelles qu’ils représentent.

Les produits de l’intelligence artificielle générative, tels que les photos et vidéos de personnes d’apparence trompeusement réelles, connues sous le nom de deepfakes, sont de plus en plus courants. Jusqu’à présent, cependant, on ne savait pas clairement comment le fait de savoir qu’un visage pouvait ou non être réel affectait la façon dont nous le percevions et y réagissions émotionnellement.

Dans leur nouvelle étude, les chercheurs ont analysé les expressions faciales et les réponses cérébrales à des visages souriants, en colère et neutres que les participants pensaient être réels ou générés par ordinateur. Les résultats montrent qu’un sourire généré par ordinateur compte moins pour nous à plusieurs niveaux : il est perçu comme moins intense, suscite une réponse émotionnelle plus faible dans le cerveau et semble nous faire réfléchir.

Les visages en colère, en revanche, restent tout aussi menaçants, que nous les croyions authentiques ou non. Ces nouvelles découvertes fondamentales ont des implications sur la manière dont nous, en tant que société, traiterons les deepfakes, à la fois lorsqu’ils sont utilisés à bon escient ou à mauvais escient.

Deepfakes et le cerveau humain : une étude de la perception et de l’évaluation émotionnelle

L’étude, impliquant 30 participants et utilisant la technologie EEG, a exploré les effets de la croyance selon laquelle un individu représenté est réel ou profondément faux sur les mesures psychologiques et neuronales de la perception du visage. Selon les mots du chercheur du SCIoI, Martin Maier, « lorsqu’ils étaient confrontés à des visages souriants marqués comme étant des deepfakes, les participants ont montré des réponses perceptuelles et émotionnelles réduites, ainsi qu’un processus d’évaluation plus lent que lorsque les visages étaient marqués comme réels. Curieusement, cet impact ne s’est pas reflété dans la perception d’expressions négatives, qui restent constantes, qu’elles soient réelles ou fausses.

Les résultats mettent en évidence une interaction complexe entre la valence émotionnelle et l’authenticité présumée, et marquent la première fois qu’une distinction est établie dans l’impact psychologique entre les expressions positives et négatives représentées par les deepfakes. “Lorsque les visages réels et faux sont autrement impossibles à distinguer, la perception et les réponses émotionnelles peuvent dépendre de manière cruciale de la conviction préalable que ce que vous voyez est en fait réel ou faux”, a ajouté Rasha Abdel Rahman, chercheuse principale de l’étude.

Pour parvenir à ces conclusions, les chercheurs ont étudié l’évolution dans le temps de la réponse du cerveau aux images de visages, en se concentrant sur trois étapes : la perception visuelle précoce (jusqu’à 200 millisecondes après la visualisation d’un visage, avant même que l’on ait conscience de le voir). ), le traitement émotionnel réflexif (à 200-350 millisecondes, reflétant nos réactions émotionnelles immédiates) et le traitement évaluatif de niveau supérieur (à 350 millisecondes et plus tard, marquant une considération plus réfléchie).

Ils ont utilisé une méthode appelée Event-Related Potentials (ERP) pour suivre ces étapes. Les résultats ont montré que lorsque les gens regardaient des sourires qu’ils pensaient avoir été créés par la technologie deepfake, leurs premières réponses visuelles et émotionnelles typiques étaient plus faibles. Comprendre cela a des implications directes dans différentes situations dans lesquelles nous pouvons rencontrer des deepfakes : lorsqu’ils sont utilisés, par exemple, pour ramener des versions plus jeunes de personnages de films, l’espoir est que les expressions émotionnelles de personnages générés artificiellement apparaissent tout aussi vivantes et authentiques que de vrais. acteur.

Dans ces situations, les résultats de l’étude suggèrent que savoir que le personnage est généré artificiellement peut compromettre son impact, notamment sur les émotions positives. Lorsqu’ils sont utilisés dans le contexte de campagnes de désinformation, les résultats suggèrent que les contenus négatifs générés artificiellement peuvent persister, même si les observateurs peuvent soupçonner que les images sont fausses.

Implications et orientations futures de la technologie deepfake

Les résultats de cette étude constituent la pierre angulaire de la compréhension de la dynamique comportementale et neuronale de l’interaction humaine avec les visages générés par l’IA, tandis que les découvertes soulignent la nécessité d’une approche nuancée dans l’élaboration de politiques et de stratégies pour naviguer dans la sphère croissante de la technologie deepfake. Les résultats fournissent également un point de départ pour d’autres explorations dans d’autres domaines du contenu généré par l’IA, tels que le texte, les arts visuels ou la musique.

À mesure que la technologie des deepfakes continue d’évoluer, il devient essentiel de développer une compréhension approfondie de son impact psychologique et neuronal, à la fois pour utiliser de manière optimale son potentiel au bénéfice de la société et pour renforcer la résilience sociétale face aux différents défis qu’elle pose.

Plus d’information:
Anna Eiserbeck et al, Les sourires Deepfake importent moins : l’impact psychologique et neuronal des visages présumés générés par l’IA, Rapports scientifiques (2023). DOI : 10.1038/s41598-023-42802-x

Fourni par l’Université technique de Berlin

Citation: Les faux sourires importent moins : l’impact psychologique et neuronal des visages présumés générés par l’IA (27 novembre 2023) récupéré le 27 novembre 2023 sur

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni seulement pour information.



You may also like

Leave a Comment

Our Company

Rivedin Provides news from the source.

Newsletter

Subscribe my Newsletter for new blog posts, tips & new photos. Let's stay updated!

Laest News

@2021 – All Right Reserved. Designed and Developed by RIVEDIN

Are you sure want to unlock this post?
Unlock left : 0
Are you sure want to cancel subscription?
-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00