Une étude montre qu’un outil d’IA répond avec succès aux questions des patients dans le dossier médical électronique


Crédit : CC0 Domaine public

Dans le cadre d’une tendance nationale, de plus en plus de patients de NYU Langone Health ont commencé à utiliser des outils de dossiers médicaux électroniques pendant la pandémie pour poser des questions à leurs médecins, renouveler leurs ordonnances et consulter les résultats de leurs tests. De nombreuses demandes de renseignements numériques des patients sont arrivées via un outil de communication appelé In Basket, intégré au système de dossiers médicaux électroniques (DME) de NYU Langone, EPIC.

Bien que les médecins aient toujours consacré du temps à la gestion des messages du DSE, ils ont constaté une augmentation annuelle de plus de 30 % ces dernières années du nombre de messages reçus quotidiennement, selon un article du Dr Paul A. Testa, directeur de l’information médicale à NYU Langone.

Selon Testa, il n’est pas rare que les médecins reçoivent plus de 150 messages de la corbeille par jour. Les systèmes de santé n’étant pas conçus pour gérer ce type de trafic, les médecins ont fini par combler le vide, passant de longues heures après le travail à trier les messages. Ce fardeau est cité comme l’une des raisons pour lesquelles la moitié des médecins se déclarent épuisés.

Une nouvelle étude, menée par des chercheurs de la NYU Grossman School of Medicine, montre qu’un outil d’IA peut rédiger des réponses aux questions des patients dans leur DSE avec autant de précision que leurs professionnels de santé, et avec une plus grande « empathie » perçue. Les résultats soulignent le potentiel de ces outils à réduire considérablement la charge de travail des médecins dans leur panier de réception tout en améliorant leur communication avec les patients, à condition que les prestataires humains examinent les brouillons de l’IA avant de les envoyer.

NYU Langone Health a testé les capacités de l’intelligence artificielle générative (genAI), dans laquelle les algorithmes informatiques développent des options probables pour le mot suivant dans n’importe quelle phrase en fonction de la façon dont les gens ont utilisé les mots dans leur contexte sur Internet.

Le résultat de cette prédiction est que les « chatbots » genAI peuvent répondre aux questions dans un langage humain convaincant. En 2023, NYU Langone a obtenu une licence pour « une instance privée » de GPT4, le dernier-né du célèbre chatbot ChatGPT, qui permet aux médecins d’expérimenter en utilisant des données de patients réels tout en respectant les règles de confidentialité des données.

Publié en ligne le 16 juillet dans Ouverture du réseau JAMAla nouvelle étude a examiné les brouillons générés par GPT4 en réponse aux requêtes des patients dans le panier et a demandé aux médecins de soins primaires de les comparer aux réponses humaines réelles à ces messages.

« Nos résultats suggèrent que les chatbots pourraient réduire la charge de travail des prestataires de soins en permettant des réponses efficaces et empathiques aux préoccupations des patients », a déclaré le Dr William Small, auteur principal de l’étude et professeur adjoint de clinique au département de médecine de la NYU Grossman School of Medicine. « Nous avons constaté que les chatbots IA intégrés au DSE qui utilisent des données spécifiques aux patients peuvent rédiger des messages de qualité similaire à ceux des prestataires de soins humains. »

Pour l’étude, 16 médecins généralistes ont évalué 344 paires de réponses IA et humaines attribuées au hasard à des messages de patients en fonction de leur exactitude, de leur pertinence, de leur exhaustivité et de leur ton, et ont indiqué s’ils utiliseraient la réponse IA comme première ébauche ou s’ils devraient repartir de zéro pour rédiger le message du patient. Les médecins ne savaient pas si les réponses qu’ils examinaient étaient générées par des humains ou par l’outil IA (étude en aveugle).

L’équipe de recherche a constaté que la précision, l’exhaustivité et la pertinence des réponses de l’IA générative et des prestataires humains ne différaient pas statistiquement. Les réponses de l’IA générative ont surpassé celles des prestataires humains en termes de compréhension et de ton de 9,5 %.

De plus, les réponses de l’IA étaient plus de deux fois plus susceptibles (125 % plus susceptibles) d’être considérées comme empathiques et 62 % plus susceptibles d’utiliser un langage véhiculant de la positivité (potentiellement liée à l’espoir) et de l’affiliation (« nous sommes tous dans le même bateau »).

D’un autre côté, les réponses de l’IA étaient également 38 % plus longues et 31 % plus susceptibles d’utiliser un langage complexe, ce qui nécessite une formation plus poussée de l’outil, affirment les chercheurs. Alors que les humains répondaient aux questions des patients au niveau d’un élève de 6e année, l’IA écrivait au niveau d’un élève de 8e année, selon une mesure standard de lisibilité appelée le score Flesch Kincaid.

Les chercheurs ont fait valoir que l’utilisation des informations privées des patients par les chatbots, plutôt que des informations générales sur Internet, correspond mieux à la manière dont cette technologie serait utilisée dans le monde réel. Des études ultérieures seront nécessaires pour confirmer si les données privées améliorent spécifiquement les performances des outils d’IA.

« Ce travail démontre que l’outil d’IA peut créer des projets de réponses de haute qualité aux demandes des patients », a déclaré l’auteur correspondant Devin Mann, MD, directeur principal de l’innovation informatique au NYU Langone Medical Center Information Technology (MCIT).

« Avec l’approbation de ce médecin, la qualité des messages GenAI sera dans un avenir proche égale en termes de qualité, de style de communication et de facilité d’utilisation aux réponses générées par les humains », a ajouté Mann, également professeur aux départements de santé de la population et de médecine.

Plus d’information:
Réponses basées sur un modèle de langage volumineux aux messages de la boîte de réception des patients, Ouverture du réseau JAMA (2024). DOI : 10.1001/jamanetworkopen.2024.22399

Fourni par NYU Langone Health

Citation:Une étude montre qu’un outil d’IA répond avec succès aux questions des patients dans le dossier médical électronique (2024, 16 juillet) récupéré le 16 juillet 2024 à partir de

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre d’information uniquement.



Related posts

L’analyse révèle que la plupart des LLM majeurs en open source et en source fermée ont tendance à pencher à gauche lorsqu’on leur pose des questions à forte connotation politique

Une étude examine la contagion du suicide après le décès de célébrités, ouvrant des pistes de prévention

Sonder la capture du carbone, atome par atome, avec un modèle d’apprentissage automatique