paint-brush
La loi de l'IA de Karl Friston est prouvée : FEP explique comment les neurones apprennentpar@deniseholt
4,106 lectures
4,106 lectures

La loi de l'IA de Karl Friston est prouvée : FEP explique comment les neurones apprennent

par Denise Holt5m2023/08/19
Read on Terminal Reader

Trop long; Pour lire

Le Dr Karl J. Friston est le neuroscientifique le plus cité au monde, célèbre pour ses travaux sur l'imagerie cérébrale et la théorie du cerveau inspirée de la physique. Il se trouve également qu'il est le scientifique en chef de VERSES AI, travaillant sur un tout nouveau type d'IA appelé Active Inference AI, basé sur le principe de l'énergie libre (FEP) — la théorie de Karl qui vient d'être prouvée par des chercheurs au Japon pour expliquer comment le le cerveau apprend. "Nos résultats suggèrent que le principe de l'énergie libre est le principe d'auto-organisation des réseaux de neurones biologiques." - Takuya Isomura, RIKEN
featured image - La loi de l'IA de Karl Friston est prouvée : FEP explique comment les neurones apprennent
Denise Holt HackerNoon profile picture
0-item


Le monde de l'IA a changé pour toujours

Le Dr Karl J. Friston est le neuroscientifique le plus cité au monde, célèbre pour ses travaux sur l'imagerie cérébrale et la théorie du cerveau inspirée de la physique. Il se trouve également qu'il est le scientifique en chef de VERSES AI, travaillant sur un tout nouveau type d'IA appelé Active Inference AI, basé sur le principe de l'énergie libre (FEP) - la théorie de Karl qui vient d'être prouvée par des chercheurs au Japon pour expliquer comment le le cerveau apprend.


Jusqu'à présent, la plupart des recherches sur l'IA se sont concentrées sur les modèles d'apprentissage automatique, qui sont connus pour faire face à de nombreux défis. De l'architecture insoutenable du chargement massif de données pour la formation au manque d'interprétabilité et d'explicabilité des résultats, les algorithmes d'apprentissage automatique sont considérés comme des outils inconnaissables, incontrôlables, et bien qu'ils soient bons pour la correspondance de modèles, il n'y a pas de véritable « réflexion ». " Prendre place.


Le travail que le Dr Friston fait avec VERSES est radicalement différent, et il sera entre les mains du public dans quelques mois. Active Inference AI et le FEP, associés au nouveau protocole Web spatial, jettent les bases d'un système unifié d'intelligence collective distribuée qui imite le fonctionnement de l'intelligence biologique dans la nature. Ils ont créé une architecture cognitive entièrement nouvelle qui s'auto-organise, s'auto-optimise et s'auto-évolue. Et pourtant, il est entièrement programmable, connaissable et auditable, ce qui lui permet d'évoluer en tandem avec la gouvernance humaine.


C'est l'IA qui va changer tout ce que vous pensez savoir sur l'intelligence artificielle.

Comment votre cerveau apprend

Vous êtes-vous déjà demandé comment votre cerveau donne un sens au flux constant d'images, de sons, d'odeurs et d'autres sensations que vous ressentez chaque jour ? Comment transforme-t-il cette entrée chaotique en une image cohérente de la réalité qui vous permet de percevoir, de comprendre et de naviguer dans le monde ?


Les neuroscientifiques se sont penchés sur cette question pendant des décennies. Aujourd'hui, de nouvelles recherches passionnantes fournissent la validation expérimentale d'une théorie révolutionnaire appelée « Principe de l'énergie libre », par le Dr Karl J. Friston, qui explique les calculs profonds derrière la perception sans effort.


L' étude , publiée le 7 août 2023 dans Nature Communications par des scientifiques de l'institut de recherche RIKEN au Japon, apporte la preuve que des réseaux de neurones s'auto-organisent selon ce principe. Leurs découvertes confirment que les cerveaux construisent un modèle prédictif du monde, mettant constamment à jour les croyances pour minimiser les surprises et faire de meilleures prédictions à l'avenir.


« Nos résultats suggèrent que le principe d'énergie libre est le principe d'auto-organisation des réseaux de neurones biologiques. Il a prédit comment l'apprentissage se produisait lors de la réception d'entrées sensorielles particulières et comment il était perturbé par des altérations de l'excitabilité du réseau induites par les drogues. – Takuya Isomura, RIKEN

Démystifier la perception

Pour comprendre pourquoi cette théorie est si révolutionnaire, nous devons apprécier l'énormité du défi auquel votre cerveau est confronté. À chaque instant, vos sens rassemblent un blizzard de signaux divers - des motifs de lumière et d'ombre, des ondes sonores faisant vibrer vos tympans, des produits chimiques activant les récepteurs olfactifs. D'une manière ou d'une autre, votre cerveau donne un sens à ce chaos, percevant des objets cohérents comme un visage, une mélodie ou l'arôme du café.


Le processus semble instantané et sans effort. Mais sous le capot, votre cerveau résout un problème d'inférence incroyablement complexe, en déterminant les causes probables dans le monde extérieur générant les schémas sensoriels. Ce puzzle inverse - travailler à rebours des effets pour déduire les causes cachées - est profondément difficile, d'autant plus que la même cause (comme le visage d'une personne) peut créer différents schémas sensoriels selon le contexte.


Le principe de l'énergie libre, formulé par le célèbre neuroscientifique Karl Friston, propose une explication élégante de la façon dont les cerveaux gèrent cela. Il indique que les neurones génèrent constamment des prédictions descendantes pour expliquer les données sensorielles entrantes. Toute inadéquation entraîne des "erreurs de prédiction" qui mettent à jour les croyances pour améliorer les prédictions futures. Votre cerveau est une machine à inférence, mettant à jour en permanence son modèle interne du monde pour minimiser les surprises et les incertitudes.

Prouver la théorie dans les réseaux neuronaux

Le principe de l'énergie libre synthétise de nombreuses observations sur la perception, l'apprentissage et l'attention dans un cadre unificateur unique. Mais la validation expérimentale directe dans les réseaux neuronaux biologiques fait défaut.


Pour fournir une telle preuve, l'équipe japonaise a créé des cultures neuronales à micro-échelle cultivées à partir de cellules cérébrales d'embryons de rat. Ils ont délivré des motifs électriques imitant les sensations auditives, générés en mélangeant les signaux de deux "haut-parleurs".


Au départ, les réseaux ont réagi de manière aléatoire, mais progressivement ils se sont auto-organisés pour répondre de manière sélective à un orateur ou à l'autre, comme s'accorder sur une seule voix lors d'un cocktail bruyant. Cela a démontré la capacité de séparer les signaux sensoriels mixtes jusqu'à des causes cachées spécifiques - un calcul critique pour la perception.

Vérification des prédictions

Puissamment, les chercheurs ont montré que cette auto-organisation correspondait aux prédictions quantitatives de modèles informatiques basés sur le principe de l'énergie libre. En procédant à l'ingénierie inverse des modèles de calcul implicites employés par les réseaux de neurones vivants, ils pourraient prévoir leurs trajectoires d'apprentissage en se basant uniquement sur les mesures initiales. Les incompatibilités des prédictions descendantes ont entraîné des changements synaptiques qui ont amélioré les prédictions à l'avenir.


https://www.nature.com/articles/s41467-023-40141-z#:~:text=According%20to%20the%20free%2Denergy,of%20sensory%20inputs1%2C2.


L'équipe a également démontré que la manipulation de l'excitabilité des neurones, compatible avec les effets pharmacologiques, altérait l'apprentissage comme prévu en perturbant les modèles existants des réseaux. Dans l'ensemble, l'étude fournit des preuves convaincantes que le principe de l'énergie libre décrit comment les réseaux neuronaux effectuent l'inférence bayésienne, structurant les connexions synaptiques pour mettre à jour en permanence les modèles génératifs descendants qui expliquent le mieux les données sensorielles.

Vers une IA inspirée par le cerveau

Comprendre les capacités de calcul exquises des réseaux de neurones biologiques a des implications pratiques importantes. Comme pour le travail que le Dr Friston fait en tant que scientifique en chef avec VERSES AI, l'inférence active et le principe de l'énergie libre, ainsi que le protocole Web spatial, sont déployés pour réaliser un tout nouveau type d'IA basé sur l'intelligence biomimétique, plutôt que la rétropropagation par force brute de l'apprentissage automatique, avec l'efficacité et la généralisabilité de la perception humaine.


Image avec la permission de VERSES AI


Comme le suggèrent les chercheurs, l'IA d'inférence active et le principe de l'énergie libre via l'inférence bayésienne permettent à un réseau de neurones de s'auto-optimiser grâce à l'apport et à la mise à jour continue de nouvelles données sensorielles en temps réel, tout en tenant compte simultanément des sorties et des déterminations précédemment établies, générant des modèles prédictifs permettant la création d'intelligences artificielles inspirées du cerveau (agents intelligents) qui apprennent comme le font les vrais réseaux de neurones. Un ensemble de ces agents intelligents, tous issus de leur propre point de vue d'intelligences spécialisées uniques acquises à partir de leur propre cadre de référence, au sein d'un réseau mondial unifié d'espaces jumeaux numériques imbriqués riches en contexte, offre le modèle de monde contextuel qui manquait à applications pratiques de l'IA. Il s'agit d'une pièce essentielle du puzzle pour faire avancer la recherche sur l'IA et atteindre l'AGI (intelligence générale) ou l'ASI (super intelligence). Faire progresser ces systèmes informatiques neuromorphiques est un objectif vital alors que nous cherchons à imiter la polyvalence et l'adaptabilité de la cognition biologique dans les machines.


Ainsi, bien que comprendre le fonctionnement de votre propre cerveau puisse sembler abstrait, cette recherche pionnière rapproche les applications pratiques de l'intelligence artificielle et confirme le travail véritablement révolutionnaire que VERSES AI a introduit et dirige dans le monde de l'IA. Le principe de l'énergie libre fournit une théorie unificatrice du calcul cortical, et sa validation expérimentale dans les réseaux neuronaux vivants marque une étape importante sur la voie de la construction d'intelligences artificielles véritablement cérébrales.


Visitez VERSES AI et la Spatial Web Foundation pour en savoir plus sur le travail révolutionnaire du Dr Karl Friston avec eux dans le domaine de l'IA d'inférence active et du principe de l'énergie libre.


Également publié ici .