Home Science Une étude révèle des similitudes entre la voie auditive et les modèles d’apprentissage profond pour le traitement de la parole

Une étude révèle des similitudes entre la voie auditive et les modèles d’apprentissage profond pour le traitement de la parole

by News Team
0 comment


L’architecture d’une famille de modèles de réseaux neuronaux profonds est illustrée à gauche. La voie auditive humaine est illustrée à droite, avec des zones en surbrillance indiquant l’emplacement des zones cérébrales clés qui nous intéressent. La même parole naturelle a été présentée aux sujets humains et aux modèles d’IA, ainsi qu’aux activations internes des modèles d’IA. ont été extraits et alignés sur l’activité neuronale correspondante de chaque zone de la voie auditive. Crédit : Crédit : Neurosciences naturelles (2023). DOI : 10.1038/s41593-023-01468-4

La voie auditive humaine est un système biologique très sophistiqué qui comprend à la fois des structures physiques et des régions cérébrales spécialisées dans la perception et le traitement des sons. Les sons que les humains captent par leurs oreilles sont traités dans diverses régions du cerveau, notamment les noyaux cochléaire et olivaire supérieur, le lemnisque latéral, le colliculus inférieur et le cortex auditif.

Au cours des dernières décennies, les informaticiens ont développé des modèles informatiques de plus en plus avancés capables de traiter les sons et la parole, reproduisant ainsi artificiellement la fonction de la voie auditive humaine. Certains de ces modèles ont obtenu des résultats remarquables et sont désormais largement utilisés dans le monde entier, permettant par exemple aux assistants vocaux (Alexa, Siri, etc.) de comprendre les demandes des utilisateurs.

Des chercheurs de l’Université de Californie à San Francisco ont récemment entrepris de comparer ces modèles avec la voie auditive humaine. Leur article, publié dans Neurosciences naturellesa révélé des similitudes frappantes entre la profondeur des réseaux neuronaux et la manière dont les voies auditives biologiques traitent la parole.

“Les modèles vocaux d’IA sont devenus très performants ces dernières années grâce à l’apprentissage profond dans les ordinateurs”, a déclaré Edward F. Chang, l’un des auteurs de l’article, à Medical Xpress. “Nous voulions voir si ce que les modèles apprennent est similaire à la façon dont le cerveau humain traite la parole.”

Pour comparer les réseaux neuronaux profonds à la voie auditive humaine, les chercheurs ont d’abord examiné les représentations vocales produites par les modèles. Il s’agit essentiellement de la manière dont ces modèles codent la parole dans leurs différentes couches.

Par la suite, Chang et ses collègues ont comparé ces représentations à l’activité qui se déroule dans les différentes parties du cerveau associée au traitement des sons. Remarquablement, ils ont trouvé une corrélation entre les deux, dévoilant de possibles similitudes entre le traitement artificiel et biologique de la parole.

“Nous avons utilisé plusieurs modèles commerciaux d’apprentissage profond de la parole et comparé les neurones artificiels de ces modèles aux vrais neurones du cerveau”, a expliqué Chang. “Nous avons comparé la façon dont les signaux vocaux sont traités à travers les différentes couches, ou stations de traitement, du réseau neuronal, et les avons directement comparés au traitement dans différentes zones du cerveau.”

Fait intéressant, les chercheurs ont également découvert que des modèles entraînés à traiter la parole en anglais ou en mandarin pouvaient prédire les réponses cérébrales des locuteurs natifs de la langue correspondante. Cela suggère que les techniques d’apprentissage profond traitent la parole de la même manière que le cerveau humain, codant également des informations spécifiques à la langue.

“Les modèles d’IA qui capturent le contexte et apprennent les propriétés statistiques importantes des sons de la parole réussissent bien à prédire les réponses cérébrales”, a déclaré Chang. “En fait, ils sont meilleurs que les modèles linguistiques traditionnels. Cela implique qu’il existe un énorme potentiel pour exploiter l’IA pour comprendre le cerveau humain dans les années à venir.”

Les travaux récents de Chang et de ses collaborateurs améliorent la compréhension générale des réseaux neuronaux profonds conçus pour décoder la parole humaine, montrant qu’ils pourraient ressembler davantage au système auditif biologique que les chercheurs ne l’avaient prévu. À l’avenir, cela pourrait guider le développement d’autres techniques informatiques conçues pour reproduire artificiellement les fondements neuronaux de l’audition.

“Nous essayons maintenant de comprendre quels modèles d’IA peuvent être repensés pour mieux comprendre le cerveau. Pour l’instant, nous ne faisons que commencer et il y a tellement de choses à apprendre”, a déclaré Chang.

Plus d’information:
Yuanning Li et al, Dissection des calculs neuronaux dans la voie auditive humaine à l’aide de réseaux neuronaux profonds pour la parole, Neurosciences naturelles (2023). DOI : 10.1038/s41593-023-01468-4

© 2023 Réseau Science X

Citation: Une étude dévoile des similitudes entre la voie auditive et les modèles d’apprentissage profond pour le traitement de la parole (15 novembre 2023) récupéré le 15 novembre 2023 sur

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni seulement pour information.



You may also like

Leave a Comment

Our Company

Rivedin Provides news from the source.

Newsletter

Subscribe my Newsletter for new blog posts, tips & new photos. Let's stay updated!

Laest News

@2021 – All Right Reserved. Designed and Developed by RIVEDIN

Are you sure want to unlock this post?
Unlock left : 0
Are you sure want to cancel subscription?
-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00