Une équipe de recherche de l'Institut de neurosciences Wu Tsai de Stanford a fait un grand pas en avant dans l'utilisation de l'IA pour reproduire la façon dont le cerveau organise les informations sensorielles pour donner un sens au monde, ouvrant ainsi de nouvelles frontières aux neurosciences virtuelles.
Regardez les secondes s'écouler sur une horloge et, dans les régions visuelles de votre cerveau, des groupes voisins de neurones sélectifs selon l'angle se déclencheront en séquence tandis que la trotteuse parcourt le cadran de l'horloge. Ces cellules forment de magnifiques cartes en forme de « moulinet », chaque segment représentant une perception visuelle sous un angle différent. D'autres zones visuelles du cerveau contiennent des cartes de caractéristiques visuelles plus complexes et abstraites, telles que la distinction entre les images de visages familiers et celles de lieux, qui activent des « quartiers » neuronaux distincts.
De telles cartes fonctionnelles peuvent être trouvées dans tout le cerveau, à la fois ravissantes et déconcertantes pour les neuroscientifiques, qui se demandent depuis longtemps pourquoi le cerveau aurait dû développer une disposition semblable à une carte que seule la science moderne peut observer.
Pour répondre à cette question, l’équipe de Stanford a développé un nouveau type d’algorithme d’IA – un réseau neuronal artificiel profond topographique (TDANN) – qui utilise seulement deux règles : les entrées sensorielles naturalistes et les contraintes spatiales sur les connexions ; et a découvert qu'il prédit avec succès à la fois les réponses sensorielles et l'organisation spatiale de plusieurs parties du système visuel du cerveau humain.
Après sept années de recherches approfondies, les résultats ont été publiés dans un nouvel article intitulé « Un cadre unificateur pour l'organisation fonctionnelle du cortex visuel ventral précoce et supérieur » le 10 mai dans la revue Neurone.
L'équipe de recherche était dirigée par Dan Yamins, professeur à l'Institut des neurosciences Wu Tsai, professeur adjoint de psychologie et d'informatique ; et Kalanit Grill-Spector, affilié à l'Institut, professeur de psychologie.
Contrairement aux réseaux neuronaux conventionnels, le TDANN intègre des contraintes spatiales, en disposant ses neurones virtuels sur une « feuille corticale » bidimensionnelle et en exigeant que les neurones proches partagent des réponses similaires aux entrées sensorielles.
Au fur et à mesure que le modèle apprenait à traiter les images, cette structure topographique lui faisait former des cartes spatiales, reproduisant la façon dont les neurones du cerveau s'organisent en réponse aux stimuli visuels. Plus précisément, le modèle a reproduit des modèles complexes tels que les structures en forme de moulinet dans le cortex visuel primaire (V1) et les groupes de neurones dans le cortex temporal ventral supérieur (VTC) qui répondent à des catégories telles que les visages ou les lieux.
Eshed Margalit, l'auteur principal de l'étude, qui a terminé son doctorat. travaillant avec Yamins et Grill-Spector, a déclaré que l'équipe avait utilisé des approches d'apprentissage auto-supervisées pour améliorer la précision des modèles d'entraînement qui simulent le cerveau.
“Cela ressemble probablement davantage à la manière dont les bébés apprennent le monde visuel”, a déclaré Margalit. “Je ne pense pas que nous nous attendions initialement à ce que cela ait un impact aussi important sur la précision des modèles formés, mais vous devez vraiment réussir la tâche de formation du réseau pour qu'il soit un bon modèle du cerveau.”
Le modèle entièrement entraînable aidera les neuroscientifiques à mieux comprendre les règles d’organisation du cerveau, que ce soit pour la vision, comme dans cette étude, ou pour d’autres systèmes sensoriels comme l’audition.
“Lorsque le cerveau essaie d'apprendre quelque chose sur le monde, comme voir deux instantanés d'une personne, il place les neurones qui répondent de la même manière à proximité dans le cerveau et des cartes se forment”, a déclaré Grill-Spector, qui est le professeur Susan S. et William. Professeur H. Hindle à l'École des sciences humaines et des sciences. “Nous pensons que ce principe devrait également être transposable à d'autres systèmes.”
Cette approche innovante a des implications significatives tant pour les neurosciences que pour l’intelligence artificielle. Pour les neuroscientifiques, le TDANN offre une nouvelle perspective pour étudier comment le cortex visuel se développe et fonctionne, transformant potentiellement les traitements des troubles neurologiques. Pour l’IA, les connaissances dérivées de l’organisation du cerveau peuvent conduire à des systèmes de traitement visuel plus sophistiqués, un peu comme apprendre aux ordinateurs à « voir » comme le font les humains.
Les résultats pourraient également aider à expliquer comment le cerveau humain fonctionne avec une telle efficacité énergétique. Par exemple, le cerveau humain peut calculer des milliards de milliards d’opérations mathématiques avec seulement 20 watts de puissance, alors qu’un superordinateur nécessite un million de fois plus d’énergie pour effectuer les mêmes calculs.
Les nouvelles découvertes soulignent que les cartes neuronales – et les contraintes spatiales ou topographiques qui les déterminent – servent probablement à maintenir le câblage reliant les 100 milliards de neurones du cerveau aussi simple que possible. Ces connaissances pourraient être essentielles à la conception de systèmes artificiels plus efficaces inspirés par l’élégance du cerveau.
“L'IA est limitée par le pouvoir”, a déclaré Yamins. “À long terme, si les gens savaient comment faire fonctionner des systèmes artificiels avec une consommation d'énergie bien inférieure, cela pourrait alimenter le développement de l'IA.”
Une IA plus économe en énergie pourrait contribuer au développement des neurosciences virtuelles, où les expériences pourraient être réalisées plus rapidement et à plus grande échelle. Dans leur étude, les chercheurs ont démontré comme preuve de principe que leur réseau neuronal artificiel profond topographique reproduisait des réponses semblables à celles du cerveau à un large éventail de stimuli visuels naturalistes, suggérant que de tels systèmes pourraient, à l'avenir, être utilisés comme terrains de jeux rapides et peu coûteux. pour le prototypage d'expériences en neurosciences et l'identification rapide d'hypothèses pour de futurs tests.
Les expériences virtuelles de neurosciences pourraient également faire progresser les soins médicaux humains. Par exemple, mieux entraîner un système visuel artificiel de la même manière qu’un bébé apprend visuellement le monde pourrait aider une IA à voir le monde comme un humain, où le centre du regard est plus net que le reste du champ de vision. Une autre application pourrait aider à développer des prothèses visuelles ou à simuler exactement la façon dont les maladies et les blessures affectent certaines parties du cerveau.
“Si vous pouvez faire des choses comme faire des prédictions qui aideront à développer des prothèses pour les personnes ayant perdu la vue, je pense que ce sera vraiment une chose incroyable”, a déclaré Grill-Spector.
Plus d'information:
Eshed Margalit et al, Un cadre unificateur pour l'organisation fonctionnelle du cortex visuel ventral précoce et supérieur, Neurone (2024). DOI : 10.1016/j.neuron.2024.04.018
Fourni par l'Université de Stanford
Citation: Les neuroscientifiques utilisent l'IA pour simuler la façon dont le cerveau donne un sens au monde visuel (28 mai 2024) récupéré le 28 mai 2024 sur
Ce document est soumis au droit d'auteur. En dehors de toute utilisation équitable à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni seulement pour information.