Les chercheurs développent une nouvelle façon plus économe en énergie pour les algorithmes d’IA de traiter les données


Un schéma comparant les modèles typiques d'apprentissage automatique (A) avec la nouvelle conception de Daruwalla (B). La rangée A montre les entrées ou les données devant parcourir chaque couche du réseau neuronal avant que le modèle d'IA reçoive un retour, ce qui prend plus de temps et d'énergie. En revanche, la ligne B montre la nouvelle conception qui permet de générer et d’incorporer des commentaires à chaque couche du réseau. Crédit : Kyle Daruwalla/Laboratoire de Cold Spring Harbor

Ça lit. Ça parle. Il rassemble des montagnes de données et recommande des décisions commerciales. L’intelligence artificielle d’aujourd’hui semble plus humaine que jamais. Cependant, l’IA présente encore plusieurs défauts critiques.

“Aussi impressionnants que soient ChatGPT et toutes ces technologies d'IA actuelles, en termes d'interaction avec le monde physique, elles sont encore très limitées. Même dans les choses qu'elles font, comme résoudre des problèmes mathématiques et rédiger des essais, elles nécessitent des milliards et des milliards de formation. exemples avant de pouvoir les faire correctement », explique Kyle Daruwalla, chercheur en NeuroAI au Cold Spring Harbor Laboratory (CSHL).

Daruwalla recherche de nouvelles façons non conventionnelles de concevoir une IA capable de surmonter de tels obstacles informatiques. Et il vient peut-être d'en trouver un.

La clé était de déplacer les données. De nos jours, la majeure partie de la consommation d'énergie de l'informatique moderne provient du rebond des données. Dans les réseaux de neurones artificiels, constitués de milliards de connexions, les données peuvent avoir un très long chemin à parcourir.

Ainsi, pour trouver une solution, Daruwalla s’est inspiré de l’une des machines les plus puissantes en termes de calcul et les plus économes en énergie qui soient : le cerveau humain.

Daruwalla a conçu une nouvelle façon pour les algorithmes d'IA de déplacer et de traiter les données beaucoup plus efficacement, en fonction de la manière dont notre cerveau intègre les nouvelles informations. La conception permet aux « neurones » individuels de l’IA de recevoir des commentaires et de s’ajuster à la volée plutôt que d’attendre qu’un circuit entier se mette à jour simultanément. De cette façon, les données ne doivent pas voyager aussi loin et sont traitées en temps réel.

“Dans notre cerveau, nos connexions changent et s'ajustent constamment”, explique Daruwalla. “Ce n'est pas comme si vous mettiez tout sur pause, vous ajustiez, puis redeveniez vous-même.”

Les résultats sont publiés dans la revue Frontières des neurosciences computationnelles.






Crédit : Laboratoire de Cold Spring Harbor

Le nouveau modèle d'apprentissage automatique fournit la preuve d'une théorie encore non prouvée qui établit une corrélation entre la mémoire de travail et l'apprentissage et les performances académiques. La mémoire de travail est le système cognitif qui nous permet de rester concentrés sur notre tâche tout en nous rappelant les connaissances et les expériences stockées.

“Il y a eu des théories en neurosciences sur la manière dont les circuits de mémoire de travail pourraient faciliter l'apprentissage. Mais il n'y a pas quelque chose d'aussi concret que notre règle qui lie réellement ces deux éléments. Et c'est donc l'une des choses intéressantes sur lesquelles nous sommes tombés ici. “La théorie a conduit à une règle selon laquelle l'ajustement individuel de chaque synapse nécessitait que cette mémoire de travail soit placée à côté d'elle”, explique Daruwalla.

La conception de Daruwalla pourrait contribuer à lancer une nouvelle génération d’IA qui apprend comme nous. Cela rendrait non seulement l’IA plus efficace et plus accessible, mais ce serait aussi en quelque sorte une boucle bouclée pour la neuroIA. Les neurosciences alimentaient l’IA en données précieuses bien avant que ChatGPT ne prononce sa première syllabe numérique. Bientôt, semble-t-il, l’IA pourrait lui rendre la pareille.

Plus d'information:
Kyle Daruwalla et al, La règle d'apprentissage Hebbian basée sur les goulots d'étranglement de l'information lie naturellement la mémoire de travail et les mises à jour synaptiques, Frontières des neurosciences computationnelles (2024). DOI : 10.3389/fncom.2024.1240348

Fourni par le laboratoire Cold Spring Harbor

Citation: Des chercheurs développent une nouvelle manière plus économe en énergie pour les algorithmes d'IA de traiter les données (20 juin 2024) récupéré le 20 juin 2024 sur

Ce document est soumis au droit d'auteur. En dehors de toute utilisation équitable à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni seulement pour information.



Related posts

Un nouveau circuit neuronal dendritique artificiel inspiré du cerveau

Les « coffres-forts » au sein des cellules germinales offrent plus qu’un simple garde-meuble

Une technologie réutilisée pour sonder de nouvelles régions de l’atmosphère de Mars