Des garde-fous gouvernementaux et industriels sont nécessaires de toute urgence pour que l’IA générative protège la santé et le bien-être de nos communautés, affirment les chercheurs en médecine de l’Université Flinders qui ont mis la technologie à l’épreuve et ont constaté son échec.
L’IA générative, un domaine de pointe prisé pour sa capacité à créer du texte, des images et des vidéos, en évolution rapide, a été utilisée dans l’étude pour tester comment de fausses informations sur la santé et les problèmes médicaux pouvaient être créées et diffusées. Même les chercheurs ont été choqués. par les résultats.
Dans l’étude, l’équipe a tenté de créer de la désinformation sur le vapotage et les vaccins à l’aide d’outils d’IA générative pour la création de textes, d’images et de vidéos.
En un peu plus d’une heure, ils ont produit plus de 100 blogs trompeurs, 20 images trompeuses et une vidéo deep-fake convaincante prétendant désinformation sur la santé. Il est alarmant de constater que cette vidéo pourrait être adaptée dans plus de 40 langues, amplifiant ainsi ses méfaits potentiels.
Bradley Menz, premier auteur, pharmacien agréé et chercheur à l’Université de Flinders, se dit sérieusement préoccupé par ces résultats, s’appuyant sur des exemples antérieurs de pandémies de désinformation qui ont conduit à la peur, à la confusion et aux préjudices.
“Les implications de nos découvertes sont claires : la société est actuellement à l’aube d’une révolution de l’IA, mais dans sa mise en œuvre, les gouvernements doivent appliquer des réglementations pour minimiser le risque d’utilisation malveillante de ces outils afin d’induire la communauté en erreur”, déclare M. Menz.
“Notre étude démontre à quel point il est facile d’utiliser les outils d’IA actuellement accessibles pour générer de grands volumes de contenus trompeurs coercitifs et ciblés sur des sujets de santé critiques, complétés par des centaines de témoignages fabriqués de toutes pièces de cliniciens et de patients et de titres faux, mais convaincants et accrocheurs.”
“Nous proposons que les piliers clés de la pharmacovigilance, notamment la transparence, la surveillance et la réglementation, servent d’exemples précieux pour gérer ces risques et protéger la santé publique dans un contexte d’évolution rapide des technologies de l’IA”, dit-il.
La recherche a étudié le GPT Playground d’OpenAI pour sa capacité à faciliter la génération de grands volumes de désinformation liée à la santé. Au-delà des modèles en grand langage, l’équipe a également exploré les plateformes d’IA générative accessibles au public, comme DALL-E 2 et HeyGen, pour faciliter la production de contenu image et vidéo.
Au sein du GPT Playground d’OpenAI, les chercheurs ont généré 102 articles de blog distincts, contenant plus de 17 000 mots de désinformation liés aux vaccins et au vapotage, en seulement 65 minutes. De plus, en 5 minutes, en utilisant la technologie des avatars de l’IA et le traitement du langage naturel, l’équipe a généré une vidéo deepfake inquiétante mettant en vedette un professionnel de la santé faisant la promotion de la désinformation sur les vaccins. La vidéo pourrait facilement être manipulée dans plus de 40 langues différentes.
Les enquêtes, au-delà d’illustrer des scénarios inquiétants, soulignent le besoin urgent d’une vigilance robuste en matière d’IA. Il met également en évidence le rôle important que les professionnels de la santé peuvent jouer pour minimiser et surveiller de manière proactive les risques liés aux informations trompeuses sur la santé générées par l’intelligence artificielle.
Le Dr Ashley Hopkins du Collège de médecine et de santé publique et auteur principal affirme qu’il existe un besoin évident pour les développeurs d’IA de collaborer avec les professionnels de la santé pour garantir que les structures de vigilance de l’IA se concentrent sur la sécurité et le bien-être du public.
« Nous avons prouvé que lorsque les garde-fous des outils d’IA sont insuffisants, la capacité de générer rapidement des quantités diverses et importantes de désinformation convaincante est profonde. Il existe désormais un besoin urgent de processus transparents pour surveiller, signaler et corriger les problèmes dans les outils d’IA. “, déclare le Dr Hopkins.
Le document intitulé « Cas d’utilisation de la désinformation sur la santé mettant en évidence le besoin urgent d’une vigilance en matière d’intelligence artificielle » – sera publié dans JAMA Médecine Interne.
Plus d’information:
Bradley D. Menz et al, Cas d’utilisation de la désinformation sur la santé mettant en évidence le besoin urgent d’une vigilance en matière d’intelligence artificielle, JAMA Médecine Interne (2023). DOI : 10.1001/jamainternmed.2023.5947
Peter J. Hotez, Désinformation sur la santé : gagner en force, devenir infini, JAMA Médecine Interne (2023). DOI : 10.1001/jamainternmed.2023.5946
Fourni par l’Université Flinders
Citation: Des chercheurs médicaux montrent que l’IA peut facilement générer de grands volumes de désinformation liée à la santé (13 novembre 2023) récupéré le 13 novembre 2023 sur
Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni seulement pour information.