paint-brush
Le paradigme cognitif : explorer le développement de l'IA inspirée par le cerveaupar@edemgold
1,468 lectures
1,468 lectures

Le paradigme cognitif : explorer le développement de l'IA inspirée par le cerveau

par Edem Gold13m2023/05/10
Read on Terminal Reader

Trop long; Pour lire

Dans cet article, nous tenterons de comprendre l'approche inspirée par le cerveau pour construire des systèmes d'IA. Nous discuterons de la manière dont les scientifiques Norman Weiner ont fait converger les neurosciences et l'informatique. Le Perceptron de Frank Rosenblatt a été la première véritable tentative d'imiter l'intelligence humaine et comment son échec a entraîné un travail révolutionnaire qui servirait de plate-forme pour les réseaux de neurones.
featured image - Le paradigme cognitif : explorer le développement de l'IA inspirée par le cerveau
Edem Gold HackerNoon profile picture


"Notre Intelligence est ce qui nous rend humains et l'IA est une extension de cette Qualité" -Yan LeCun


Depuis l'avènement des réseaux de neurones (également appelés réseaux de neurones artificiels), l'industrie de l'IA a connu un succès sans précédent. Les réseaux de neurones sont la force motrice des systèmes d'IA modernes et ils sont calqués sur le cerveau humain. La recherche moderne sur l'IA implique la création et la mise en œuvre d'algorithmes qui visent à imiter les processus neuronaux du cerveau humain pour créer des systèmes qui apprennent et agissent de manière similaire aux êtres humains.


Dans cet article, nous tenterons de comprendre l'approche inspirée par le cerveau pour construire des systèmes d'IA. Il convient de noter que même si ce sujet est intrinsèquement vaste, je serai aussi bref et succinct que possible. Je prévois de traiter les sous-sujets qui ont des sous-branches plus complexes comme des articles autonomes, et je laisserai, bien sûr, les références à la fin de l'article.


Répartition du contenu

Comment j'espère aborder cela:

  • Histoire de l'approche de l'IA inspirée par le cerveau : nous discuterons ici de la façon dont les scientifiques Norman Weiner et Warren McCulloch ont provoqué la convergence des neurosciences et de l'informatique, comment le Perceptron de Frank Rosenblatt a été la première véritable tentative d'imiter l'intelligence humaine, et comment son échec a entraîné un travail révolutionnaire qui servirait de plate-forme pour les réseaux de neurones.


  • Comment fonctionne le cerveau humain et comment il est lié aux systèmes d'IA : dans cette section, nous allons plonger dans les bases biologiques de l'approche de l'IA inspirée par le cerveau. Nous discuterons de la structure et des fonctions de base du cerveau humain, comprendrons son élément de base, le neurone, et comment ils fonctionnent ensemble pour traiter l'information et permettre des actions complexes.


  • Les principes fondamentaux de l'approche de l'IA inspirée par le cerveau : nous discuterons ici des concepts fondamentaux de l'approche de l'IA inspirée par le cerveau. Nous expliquerons comment des concepts tels que; Les réseaux de neurones, le traitement hiérarchique et la plasticité et comment les techniques de traitement parallèle, les représentations distribuées et la rétroaction récurrente aident l'IA à imiter le fonctionnement du cerveau.

  • Défis dans la construction de systèmes d'IA modélisés d'après le cerveau humain : nous parlerons ici des défis et des limites inhérents à la tentative de construction de systèmes qui imitent le cerveau humain. Des défis tels que; la complexité du cerveau et l'absence d'une théorie unifiée de la cognition explorent la manière dont ces défis et limitations sont abordés.


Commençons!


L'histoire de l'approche de l'IA inspirée par le cerveau

La volonté de construire des machines capables d'un comportement intelligent doit une grande partie de son inspiration au professeur du MIT, Norbert Weiner . Norbert Weiner était un enfant prodige qui savait lire à l'âge de trois ans. Il avait une large connaissance de divers domaines tels que les mathématiques, la neurophysiologie, la médecine et la physique.


Norbert Weiner pensait que les principales opportunités en science résidaient dans l'exploration de ce qu'il appelait les régions limitrophes - des domaines d'étude qui ne relèvent pas clairement d'une certaine discipline, mais plutôt d'un mélange de disciplines comme l'étude de la médecine et de l'ingénierie qui se rejoignent pour créer le domaine de la Génie médical-, il a été cité disant:


"Si la difficulté d'un problème physiologique est de nature mathématique, dix physiologistes ignorants des mathématiques iront exactement aussi loin qu'un physiologiste ignorant des mathématiques"


Au cours de l'année 1934, Weiner et quelques autres universitaires se sont réunis tous les mois pour discuter d'articles concernant la science des régions frontalières.



C'était une catharsis parfaite pour les idées à moitié cuites, l'autocritique insuffisante, la confiance en soi exagérée et l'emphase - Norman Weiner


De ces sessions et de ses propres recherches personnelles, Weiner a appris de nouvelles recherches sur les systèmes nerveux biologiques ainsi que des travaux pionniers sur les ordinateurs électroniques, et son penchant naturel était de mélanger ces deux domaines. Et ainsi, une relation entre les neurosciences et l'informatique s'est formée. Cette relation est devenue la pierre angulaire de la création de l'intelligence artificielle, telle que nous la connaissons.


Après la Seconde Guerre mondiale, Wiener a commencé à formuler des théories sur l'intelligence chez les humains et les machines et ce nouveau domaine a été nommé Cybernétique . L'incursion de Wiener dans la cybernétique a réussi à faire parler les scientifiques de la possibilité de fusionner la biologie avec l'ingénierie. L'un desdits scientifiques était un neurophysiologiste nommé Warren McCulloch , qui a ensuite abandonné l'Université de Haverford pour étudier la philosophie et la psychologie à Yale.


Alors qu'il assistait à une conférence scientifique à New York, il est entré en contact avec des articles rédigés par des collègues sur les mécanismes de rétroaction biologique. L'année suivante, en collaboration avec son brillant protégé de 18 ans nommé Walter Pitts, McCulloch a proposé une théorie sur le fonctionnement du cerveau - une théorie qui contribuerait à favoriser la perception répandue que les ordinateurs et les cerveaux fonctionnent essentiellement de la même manière.


Ils ont basé leurs conclusions sur les recherches de McCulloch sur la possibilité que les neurones traitent les nombres binaires (pour les non-connaissants, les ordinateurs communiquent via des nombres binaires). Cette théorie est devenue la base de ce qui est devenu le premier modèle de réseau de neurones artificiels, nommé McCulloch-Pitts Neuron (MCP).


Le MCP a servi de base à la création du tout premier réseau de neurones connu sous le nom de le perceptron . Le Perceptron a été créé par un psychologue, Frank Rosenblatt qui, inspiré par les synapses du cerveau, a décidé que, comme le cerveau humain pouvait traiter et classer les informations par le biais des synapses (communication entre les neurones), un ordinateur numérique pourrait peut-être faire de même via un réseau de neurones.


Le Perceptron a essentiellement mis à l'échelle le neurone MCP d'un neurone artificiel à un réseau de neurones, mais, malheureusement, le perceptron avait quelques défis techniques qui limitaient son application pratique, la plus notable de ses limitations était son incapacité à effectuer des opérations complexes (comme la classification entre plus plus d'un élément, par exemple, un perceptron ne pourrait pas effectuer de classification entre un chat, un chien et un oiseau).


En 1969, un livre publié par Marvin Minski et Seymour Papert intitulé Perceptron expose en détail les défauts du Perceptron et à cause de cela, la recherche sur les réseaux de neurones artificiels a stagné jusqu'à la proposition de Back Propagation par Paul Werbos .


Back Propagation espère résoudre le problème de classification des données complexes qui entravait à l'époque l'application industrielle des réseaux de neurones. Il a été inspiré par la plasticité synaptique ; la façon dont le cerveau modifie la force des connexions entre les neurones et améliore ainsi les performances. La rétropropagation a été conçue pour imiter le processus dans le cerveau qui renforce les connexions entre les neurones via un processus appelé ajustement du poids.


Malgré la première proposition de Paul Werbos, le concept de rétropropagation n'a été largement adopté que lorsque des chercheurs tels que David Rumelheart , Geoffrey Hinton , et Ronald Williams articles publiés qui ont démontré l'efficacité de la rétropropagation pour la formation des réseaux de neurones. La mise en œuvre de la rétropropagation a conduit à la création du Deep Learning qui alimente la plupart des systèmes d'IA disponibles dans le monde.


"Les gens sont plus intelligents que les ordinateurs d'aujourd'hui parce que le cerveau utilise une architecture informatique de base qui est plus adaptée pour traiter un aspect central des tâches de traitement naturel de l'information pour lesquelles les gens sont si doués." - Traitement distribué parallèle



Comment fonctionne le cerveau humain et comment il se rapporte aux systèmes d'IA



Nous avons discuté de la façon dont les chercheurs ont commencé à modéliser l'IA pour imiter le cerveau humain, examinons maintenant le fonctionnement du cerveau et définissons la relation entre le cerveau et les systèmes d'IA.

Comment fonctionne le cerveau : une description simplifiée

Le cerveau humain traite essentiellement les pensées via l'utilisation de neurones, un neurone est composé de 3 sections centrales ; Le Dendrite, l'Axone et le Soma. Le Dendrite est responsable de la réception des signaux d'autres neurones, le Soma traite les informations reçues du Dendrite et l'Axon est responsable du transfert des informations traitées au Dendrite suivant dans la séquence.


Pour comprendre comment le cerveau traite la pensée, imaginez que vous voyez une voiture venir vers vous, vos yeux envoient immédiatement des signaux électriques à votre cerveau via le nerf optique, puis le cerveau forme une chaîne de neurones pour donner un sens au signal entrant. Le premier neurone de la chaîne collecte le signal à travers ses dendrites et l'envoie au Soma pour traiter le signal une fois que le Soma a terminé sa tâche, il envoie le signal à l' axone qui l'envoie ensuite à la dendrite du prochain neurone de la chaîne , la connexion entre les axones et les dendrites lors de la transmission d'informations s'appelle une synapse. L'ensemble du processus se poursuit jusqu'à ce que le cerveau trouve une entrée synaptique sapio-temporale (c'est du jargon scientifique ; le cerveau continue de traiter jusqu'à ce qu'il trouve une réponse optimale au signal qui lui est envoyé), puis il envoie des signaux aux effecteurs nécessaires, par exemple, vos jambes et puis le cerveau envoie un signal à vos jambes pour vous éloigner de la voiture venant en sens inverse.


La relation entre le cerveau et les systèmes d'IA

La relation entre le cerveau et l'IA est largement mutuellement bénéfique, le cerveau étant la principale source d'inspiration derrière la conception des systèmes d'IA et les progrès de l'IA conduisant à une meilleure compréhension du cerveau et de son fonctionnement.


Il existe un échange réciproque de connaissances et d'idées en ce qui concerne le cerveau et l'IA, et plusieurs exemples attestent de la nature positivement symbiotique de cette relation :


  • Réseaux de neurones : L'impact le plus important du cerveau humain dans le domaine de l'intelligence artificielle est sans doute la création de réseaux de neurones. Essentiellement, les réseaux de neurones sont des modèles informatiques qui imitent la fonction et la structure des neurones biologiques, l'architecture des réseaux de neurones et leurs algorithmes d'apprentissage sont largement inspirés par la façon dont les neurones du cerveau interagissent et s'adaptent.


  • Simulations cérébrales : les systèmes d'IA ont été utilisés pour simuler le cerveau humain et étudier ses interactions avec le monde physique. Par exemple, les chercheurs disposent de techniques d'apprentissage automatique pour simuler l'activité des neurones biologiques impliqués dans le traitement visuel, et le résultat a permis de mieux comprendre comment le cerveau gère les informations visuelles.


  • Aperçu du cerveau : les chercheurs ont commencé à utiliser des algorithmes d'apprentissage automatique pour analyser et obtenir des informations à partir des données cérébrales et des analyses IRMf. Ces informations servent à identifier des modèles et des relations qui, autrement, seraient restés cachés. Les connaissances acquises peuvent aider à comprendre les fonctions cognitives internes, la mémoire et la prise de décision, elles aident également au traitement des maladies cérébrales telles que la maladie d'Alzheimer.


Principes fondamentaux derrière l'approche de l'IA inspirée par le cerveau

Ici, nous discuterons de plusieurs concepts qui aident l'IA à imiter le fonctionnement du cerveau humain. Ces concepts ont aidé les chercheurs en IA à créer des systèmes plus puissants et intelligents capables d'effectuer des tâches complexes.

Les réseaux de neurones

Comme indiqué précédemment, les réseaux de neurones sont sans doute l'impact le plus significatif du cerveau humain dans le domaine de l'intelligence artificielle. Essentiellement, les réseaux de neurones sont des modèles informatiques qui imitent la fonction et la structure des neurones biologiques, les réseaux sont constitués de diverses couches de nœuds interconnectés, appelés neurones artificiels, qui facilitent le traitement et la transmission d'informations, similaires à ce qui est fait par dendrites, somas et axones dans les réseaux de neurones biologiques. Les réseaux de neurones sont conçus pour apprendre des expériences passées de la même manière que le cerveau.

Représentations distribuées

Les représentations distribuées sont simplement un moyen d'encoder des concepts ou des idées dans un réseau de neurones sous la forme d'un motif le long de plusieurs nœuds d'un réseau afin de former un motif. Par exemple, le concept de fumer pourrait être représenté (encodé) à l'aide d'un certain ensemble de nœuds dans un réseau neuronal et donc si ce réseau arrive avec une image d'un homme qui fume, il utilise alors ces nœuds sélectionnés pour donner un sens à l'image (c'est beaucoup plus complexe que cela mais par souci de simplicité), cette technique aide les systèmes d'IA à se souvenir de concepts complexes ou de relations entre concepts de la même manière que le cerveau reconnaît et mémorise des stimuli complexes.

Rétroaction récurrente

Il s'agit d'une technique utilisée dans la formation de modèles d'IA où la sortie d'un réseau de neurones est renvoyée en entrée pour permettre au réseau d'intégrer sa sortie en tant qu'entrée de données supplémentaire dans la formation. Ceci est similaire à la façon dont le cerveau utilise les boucles de rétroaction pour ajuster son modèle en fonction des expériences précédentes.

Traitement parallèle

Le traitement parallèle consiste à décomposer des tâches de calcul complexes en petits bits dans le but de traiter les plus petits bits sur un autre processeur dans le but d'améliorer la vitesse. Cette approche permet aux systèmes d'IA de traiter plus de données d'entrée plus rapidement, de la même manière que le cerveau est capable d'effectuer différentes tâches en même temps (multitâche).

Mécanismes attentionnels

Il s'agit d'une technique utilisée qui permet aux modèles d'IA de se concentrer sur des parties spécifiques des données d'entrée, elle est couramment employée dans des secteurs tels que le traitement du langage naturel qui contient des données complexes et encombrantes. Il s'inspire de la capacité du cerveau à ne s'occuper que de parties spécifiques d'un environnement largement distrayant ; comme votre capacité à vous connecter et à interagir dans une conversation à partir d'une cacophonie de conversations.

Apprentissage par renforcement

L'apprentissage par renforcement est une technique utilisée pour former les systèmes d'IA, il a été inspiré par la façon dont les êtres humains acquièrent des compétences par essais et erreurs. Cela implique qu'un agent IA reçoive des récompenses ou des punitions en fonction de ses actions, cela permet à l'agent d'apprendre de ses erreurs et d'être plus efficace dans ses actions futures (cette technique est généralement utilisée dans la création de jeux).

Apprentissage non supervisé

Le cerveau reçoit constamment de nouveaux flux de données sous forme de sons, de contenu visuel, de sensations sensorielles sur la peau, etc. et il doit donner un sens à tout cela et tenter de former une compréhension cohérente et logique de la façon dont tous ces événements apparemment disparates affecter son état physique.

Prenez cette analogie comme exemple, vous sentez de l'eau tomber sur votre peau, vous entendez le bruit de gouttelettes d'eau qui tombent rapidement sur les toits, vous sentez vos vêtements s'alourdir et à cet instant, vous savez qu'il pleut, vous cherchez alors dans votre banque de mémoire pour vérifier si vous avez porté un parapluie et si vous l'avez fait, tout va bien, sinon, vous vérifiez la distance entre votre emplacement actuel et votre domicile s'il est proche, vous allez bien, sinon vous essayez d'évaluer l'intensité de la pluie va devenir s'il s'agit d'une légère bruine, vous pouvez essayer de continuer le voyage de retour à votre domicile, mais si elle s'apprête à devenir une douche, alors vous devez trouver un abri.


La capacité de donner un sens à des points de données apparemment disparates (eau, son, sensation, distance) est mise en œuvre dans l'intelligence artificielle sous la forme d'une technique appelée apprentissage non supervisé. Il s'agit d'une technique de formation à l'IA où les systèmes d'IA apprennent à donner un sens aux données brutes et non structurées sans étiquetage explicite (personne ne vous dit que la pluie tombe quand elle tombe, n'est-ce pas/).

Défis dans la construction de systèmes d'IA inspirés par le cerveau

Nous avons expliqué comment l'approche consistant à utiliser le cerveau comme source d'inspiration pour les systèmes d'IA est née, comment le cerveau est lié à l'IA et les principes fondamentaux de l'IA inspirée par le cerveau. Dans cette section, nous allons parler de certains des défis techniques et conceptuels inhérents à la construction de systèmes d'IA modélisés d'après le cerveau humain.

Complexité

C'est un défi assez décourageant. L'approche de l'IA inspirée par le cerveau est basée sur la modélisation du cerveau et la construction de systèmes d'IA d'après ce modèle, mais le cerveau humain est un système intrinsèquement complexe avec 100 milliards de neurones et environ 600 000 milliards de connexions synaptiques (chaque neurone a en moyenne 10 000 connexions synaptiques). connexions avec d'autres neurones), et ces synapses interagissent constamment de manière dynamique et imprévisible. Construire des systèmes d'IA qui visent à imiter, et espérons-le à dépasser, cette complexité est en soi un défi et nécessite des modèles statistiques tout aussi complexes.

Exigences en matière de données pour la formation de grands modèles

Le GPT 4 d'Open AI, qui est, pour le moment, à la pointe des modèles d'IA basés sur du texte, nécessite 47 Gigaoctets de données, en comparaison, son prédécesseur GPT3 a été formé sur 17 Gigaoctets de données, soit environ 3 ordres de grandeur inférieurs, imaginez combien GPT 5 sera formé.


Comme cela a été prouvé pour obtenir des résultats acceptables, les systèmes d'IA inspirés par le cerveau nécessitent de grandes quantités de données et de données pour des tâches, en particulier des tâches auditives et visuelles, ce qui met beaucoup l'accent sur la création de pipelines de collecte de données, par exemple, Tesla a 780 millions de miles de données de conduite et son pipeline de collecte de données ajoute un autre million toutes les 10 heures.

Efficacité énergétique

Construire des systèmes d'IA inspirés du cerveau qui imitent l'efficacité énergétique du cerveau est un énorme défi. le cerveau humain consomme environ 20 watts de puissance, en comparaison, le pilote automatique de Tesla , sur des puces spécialisées, consomme environ 2 500 watts par seconde et ça prend environ 7,5 mégawattheures (MWh) pour entraîner un modèle d'IA de la taille de ChatGPT .


Le problème d'explicabilité

Développer des systèmes d'IA inspirés par le cerveau auxquels les utilisateurs peuvent faire confiance est crucial pour la croissance et l'adoption de l'IA, mais c'est là que réside le problème, le cerveau, sur lequel les systèmes d'IA sont censés être modélisés, est essentiellement une boîte noire. Le fonctionnement interne du cerveau n'est pas facile à comprendre, cela est dû au manque d'informations sur la façon dont le cerveau traite la pensée. Les recherches sur la structure biologique du cerveau humain ne manquent pas, mais il y a un certain manque d'informations empiriques sur les qualités fonctionnelles du cerveau, c'est-à-dire comment se forme la pensée, comment se produit le déjà-vu, etc. à un problème dans la construction de systèmes d'IA inspirés par le cerveau.

Les exigences interdisciplinaires

L'acte de construire des systèmes d'IA inspirés par le cerveau nécessite la connaissance d'experts dans différents domaines, tels que; Neuroscience, informatique, ingénierie, philosophie et psychologie. Mais il y a là un défi à la fois logistique et fondamental, dans le sens où obtenir des experts de différents domaines très financièrement chargés, et aussi là réside le problème du conflit de connaissances ; il est vraiment difficile d'amener un ingénieur à se soucier des effets psychologiques de ce qu'il construit, sans parler du problème de la collision des ego.

Résumé

En conclusion, alors que l'approche inspirée par le cerveau est la voie évidente pour construire des systèmes d'IA (nous avons expliqué pourquoi), elle est semée d'embûches, mais nous pouvons regarder vers l'avenir avec l'espoir que des efforts sont faits pour résoudre ces problèmes.


Également publié ici.


Les références