Learning and memory within chaotic neurons

Aoun, Mario (2019). « Learning and memory within chaotic neurons » Thèse. Montréal (Québec, Canada), Université du Québec à Montréal, Doctorat en informatique cognitive.

Fichier(s) associé(s) à ce document :
[img]
Prévisualisation
PDF
Télécharger (24MB)

Résumé

La Liquid State Machine (LSM) est une théorie selon laquelle le néo-cortex du cerveau est considéré un réservoir de neurones dont les entrées provoquent des fluctuations dynamiques non linéaires de l'activité neuronale, apprises par des neurones de lecture. Des stimulus similaires provoquent des fluctuations similaires et des stimulus différents provoquent des fluctuations différentes. En conséquence, une sortie de neurones de lecture est considéré soit comme un état mental, ou comme un énoncé ou un geste, exhorté par le cerveau par son incarnation physique vers l'extérieur. Les LSMs ont trouvé une applicabilité étendue dans le domaine du Machine Learning (ML), mais ils ont en particulier surmonté les problèmes où leurs instances d'entrée varient dans le temps. De tels problèmes sont appelés problèmes d'apprentissage, de prévision et/ou de classification de données dynamiques (c'est-à-dire de séries chronologiques). Une critique du LSM dans son explication du cerveau est sa dépendance triviale à un mode de déclenchement classique des neurones, qui est un tir régulier. Nous savons déjà que les neurones biologiques ont une large gamme d'activités de tir : régulières, toniques, éclatantes ou irrégulières... Ainsi, réduire l'activité de tir des neurones biologiques diminue l'importance de la théorie des LSM du cerveau. Dans le contexte de ML, la conception de LSM est généralement confrontée à : Premièrement, le réglage méticuleux du nombre de neurones constituant le réservoir qui devrait être très grand pour que la machine puisse obtenir une dynamique non linéaire adéquate. Deuxièmement, la manipulation délicate des valeurs des paramètres des neurones constituant le réservoir est toujours un travail difficile, en raison que la sensibilité de cette manipulation est toujours croissante et affecte la dynamique d'activités des neurones de la machine. Ici, j'ai abordé ces efforts. Premièrement, j'ai contesté l'idée de considérer le neurone de base d'un LSM comme un simple modèle de neurone à tir et je l'ai transformé en modèle de neurone à tir enrichi qui engendre une diversité d'activités de déclenchement neurophysiologique. Deuxièmement, je démontre que les conditions nécessaires et suffisantes de computation, comme dans le cas du LSM, peuvent être obtenues à l'aide d'un seul modèle de neurone biologique à tirs chaotiques, ce dernier exploitant le contrôle de chaos (CC). Cela signifie que j'ai minimisé le réservoir d'un LSM à un seul neurone. Ainsi, simplifier sa conception, réduire la surcharge humaine liée à la manipulation de ses paramètres et réduire le temps et les computations excessives requis à l'exécution d'un vaste réservoir de neurones. De plus, j'ai étendu cette recherche à une nouvelle théorie des groupes neuronaux basée sur la sensibilité chaotique qui pourrait expliquer la formation de l'assemblage de neurones à l'intérieur du cerveau. En outre, j'ai abordé une enquête sur un phénomène neurophysiologique synaptique observé in vitro, appelé plasticité dépendant du tir de synchronisation (Spike Time Dependent Plasticity – STDP – en anglais), qui décrit la proportionnalité du poids synaptique entre les neurones et leur temps de déclenchement. L'enquête focalise au causes neuronales qui pourraient causer le STDP. Ainsi, j'ai analysé le nombre d'états qui pourraient être stabilisés dans un réservoir de LSM, composé d'un nombre variable de neurones chaotiques par rapport à des neurones réguliers intégrant STDP dans leurs connexions. J'ai trouvé que les fluctuations chaotiques d'activités neuronales permettaient à une grande diversité d'états neuronaux instables d'être stabilisées et contrôlées par rapport aux fluctuations d'activitée neurales régulières. Cette tentative et ses résultats démontrent que le STDP favorise les tirs chaotiques de neurones par rapport aux tirs réguliers et offre un aperçu du rôle que le chaos pourrait jouer pour répondre aux énigmes fondamentales du STDP. Enfin, je déduis un nouvel outil que j'appelle le taux de déclenchement chaotique, qui peut être utilisé comme substitut plus plausible au taux de déclenchement classique simulé par les neurones de "Poisson"... De même, j'enquête sur l'utilisation des algorithmes génétiques comme classificateur d'une réservoir composé de neurones de tirs chaotiques, afin de parvenir à la classification de données statiques. La démonstration de cette recherche offre une nouvelle vision dans la conception de LSM en combinant ses propriétés éssentielles : La propriété de séparation (SP) du réservoir et la propriété d'approximation (AP) du mécanisme des neurones de lecture. Cela se fait en rendant le réservoir dimensionnable dynamiquement, de sorte que sa taille soit automatiquement ajustée par l'algorithme génétique, ce qui élimine ainsi la nécessité d'avoir des neurones de lecture et joue leur rôle dans la réalisation de l'AP. Par conséquent, SP et AP d'un LSM sont unifiés et j'appelle cette unification ASAP (c'est-à-dire propriétés de séparation et approximation ajustables). _____________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Modélisation de la mémoire, réseaux de neurones, théorie du chaos, contrôle du chaos, neurones de tirs chaotiques, plasticité synaptique, plasticité dépendant du tir de synchronisation, Spike Time Dependent Plasticity (STDP), groupes de neurones, ensemble neuronal, computation de réservoir, machine à état liquide, liquid state machine, computation de transitoire non linéaire, nonlinear transient computation (NTC), taux de décharge chaotique.

Type: Thèse ou essai doctoral accepté
Informations complémentaires: La thèse a été numérisée telle que transmise par l'auteur.
Directeur de thèse: Boukadoum, Mounir
Mots-clés ou Sujets: Mémoire -- Modélisation / Réseaux neuronaux / Chaos / Plasticité neuronale / Réseaux de neurones artificiels / Informatique de réservoir / Neurosciences informatiques
Unité d'appartenance: Faculté des sciences > Département d'informatique
Déposé par: Service des bibliothèques
Date de dépôt: 13 juill. 2020 06:57
Dernière modification: 13 juill. 2020 06:57
Adresse URL : http://archipel.uqam.ca/id/eprint/13405

Statistiques

Voir les statistiques sur cinq ans...