Elon Musk a partagé une vidéo de Kamala Harris créée par l’IA. Voici pourquoi c’est important


Kamala Harris sourit tandis que des foules de supporters l’acclament dans une vidéo qui fait le tour de X, le réseau social autrefois connu sous le nom de Twitter. Mais il y a un problème : la personne qui parle dans la vidéo n’est pas vraiment Kamala Harris. C’est une intelligence artificielle qui imite sa voix.

La vidéo manipulée a suscité un intérêt général après que le milliardaire de la technologie et propriétaire de X, Elon Musk, l’a partagée sur la plateforme de médias sociaux vendredi sans préciser qu’il s’agissait d’une parodie. Selon les experts, il s’agit du dernier exemple en date du rôle influent que l’IA pourrait jouer dans la perspective de l’élection présidentielle américaine de novembre.

Qu’y a-t-il dans la vidéo ?

La vidéo contient de nombreux éléments visuels tirés d’une véritable vidéo de campagne récemment publiée par Harris. Mais la voix off donne l’impression que la candidate à la présidentielle dit des choses qu’elle n’a pas dites.

On peut entendre cette voix décrire Harris comme « l’embauche ultime en matière de diversité », qualifiant le président américain Joe Biden de « marionnette de l’État profond » et affirmant que Harris ne « sait rien de la gestion du pays ».

CBC News ne fournit pas de lien vers la vidéo modifiée numériquement.

Le message de Musk a depuis été consulté plus de 130 millions de fois et semble violer les politiques de X, ce qui interdire le partage de « synthétiques »des médias manipulés ou hors contexte qui peuvent tromper ou dérouter les gens et entraîner des préjudices.

La vidéo ne contient aucune clause de parodie, cependant, le compte qui l’a téléchargée en premier, @MrReaganUSA, l’a décrite comme une « parodie publicitaire » dans le texte d’accompagnement.

Elon Musk a été vivement critiqué pour avoir publié la vidéo, répondant lundi que « la parodie est légale en Amérique ». (Kevork Djansezian/Getty Images)

Certains utilisateurs de X ont suggéré que la publication d’Elon Musk soit étiquetée avec une « note communautaire » — une fonctionnalité qui ajoute du contexte aux publications inexactes. Aucune étiquette n’a été ajoutée au moment de la publication de cet article.

D’autres ont même suggéré que la publication d’Elon Musk violait la loi sur les campagnes électorales fédérales, qui interdit toute fausse déclaration frauduleuse concernant des candidats fédéraux ou des partis politiques. Cette loi, qui a été introduite en 1971, ne contient aucune règle claire concernant les technologies telles que l’intelligence artificielle ou les médias sociaux.

Suite aux nombreuses critiques du week-end, Musk a déclaré lundi que « la parodie est légale en Amérique », en réponse à un message par le gouverneur démocrate de Californie, Gavin Newsom.

Interrogé sur ce sujet via son courrier électronique de relations presse, X a répondu : « Occupé actuellement, veuillez revenir plus tard. »

La valeur de la « transparence »

La vidéo modifiée confirme ce que Henry Ajder, chercheur et conseiller expert auprès d’organisations comme Meta, Adobe et le gouvernement britannique, dit ressentir depuis longtemps.

« La satire », a-t-il déclaré, « est un sujet incroyablement trouble. »

Ajder co-auteur d’un rapport 2020 L’organisation de défense des droits de l’homme Witness et le Co-creation Studio du MIT Open Documentary Lab ont examiné les implications politiques et stratégiques des médias IA et des deepfakes. Ajder et ses collègues ont examiné 70 cas issus d’un large éventail de vidéos deepfakes pour comprendre la relation croissante entre la satire et les deepfakes.

Il affirme que les deepfakes devraient être clairement étiquetés et cite en exemple une organisation appelée Content Authenticity Initiative, où il est conseiller.

Il le décrit comme une « étiquette nutritionnelle pour les médias ».

« Étiqueter un deepfake ne signifie pas dire : ‘ceci est mauvais ou ceci est bon’ », a-t-il expliqué. « Il s’agit d’apporter de la transparence sur la manière dont un média est créé. »

De nombreuses sociétés de médias sociaux populaires ont mis en place des règles pour tenter de gérer le contenu généré par l’IA. Meta, la société propriétaire de Facebook et d’Instagram, exige que les « médias manipulés » soient étiquetés comme tels et que ce contexte soit ajouté à la publication. En mars, Google, qui possède YouTube, a annoncé une politique obliger les utilisateurs qui publient des vidéos à divulguer lorsque le contenu a été créé avec l’IA.

Tendance croissante en politique

Ce n’est pas la première fois que l’IA est utilisée dans le cadre de la prochaine élection présidentielle américaine.

En janvier, avant les primaires démocrates du New Hampshire, un appel automatisé utilisant une technologie d’intelligence artificielle a imité la voix de Biden pour tenter de décourager les électeurs de voter. Suite à cela, la Commission fédérale des communications des États-Unis a jugé que les appels automatisés utilisant des voix générées par l’IA étaient illégaux et a proposé une amende de 6 millions de dollars américains.

Au cours des primaires républicaines de cette année, des vidéos deepfake montrant l’ancienne secrétaire d’État américaine Hillary Clinton soutenant le gouverneur républicain de Floride Ron DeSantis ont commencé à apparaître sur les réseaux sociaux.

Ajder, qui cite également des exemples similaires en Slovaquie et au Royaume-Uni, affirme qu’il y a une place pour la satire en politique, citant des publications comme Babylon Bee et The Onion, mais qu’il est important d’être clairement défini comme tel.

« Il existe, à mon avis, un espace pour la satire générée par l’IA et la satire deepfake, mais elle doit être créée et partagée de manière responsable. »

Related posts

Cet enfant de 11 ans fait de la gymnastique sur les décombres de Gaza alors que la guerre fait rage

La Terre aura une « mini-lune » ce mois-ci, mais elle ne sera que de passage

Le chef du Hezbollah dénonce les attaques alors que les explosions sonores des avions de guerre israéliens secouent Beyrouth