S'abonner

Asymptotic description of stochastic neural networks. I. Existence of a large deviation principle - 27/09/14

Doi : 10.1016/j.crma.2014.08.018 
Olivier Faugeras , James Maclaurin
 Inria Sophia-Antipolis Méditerranée, NeuroMathComp Group, France 

Bienvenue sur EM-consulte, la référence des professionnels de santé.
L’accès au texte intégral de cet article nécessite un abonnement.

pages 6
Iconographies 0
Vidéos 0
Autres 0

Abstract

We study the asymptotic law of a network of interacting neurons when the number of neurons becomes infinite. The dynamics of the neurons is described by a set of stochastic differential equations in discrete time. The neurons interact through the synaptic weights that are Gaussian correlated random variables. We describe the asymptotic law of the network when the number of neurons goes to infinity. Unlike previous works which made the biologically unrealistic assumption that the weights were i.i.d. random variables, we assume that they are correlated. We introduce the process-level empirical measure of the trajectories of the solutions into the equations of the finite network of neurons and the averaged law (with respect to the synaptic weights) of the trajectories of the solutions into the equations of the network of neurons. The result (Theorem 3.1 below) is that the image law through the empirical measure satisfies a large deviation principle with a good rate function. We provide an analytical expression of this rate function in terms of the spectral representation of certain Gaussian processes.

Le texte complet de cet article est disponible en PDF.

Résumé

Nous considérons un réseau de neurones décrit par un système d'équations différentielles stochastiques en temps discret. Les neurones interagissent au travers de poids synaptiques qui sont des variables aléatoires gaussiennes corrélées. Nous caractérisons la loi asymptotique de ce réseau lorsque le nombre de neurones tend vers l'infini. Tous les travaux précédents faisaient l'hypothèse, irréaliste du point de vue de la biologie, de poids indépendants. Nous introduisons la mesure empirique sur l'espace des trajectoires solutions des équations du réseau de neurones de taille finie et la loi moyennée (par rapport aux poids synaptiques) des trajectoires de ces solutions. Le résultat (théorème Theorem 3.1 ci-dessous) est que l'image de cette loi par la mesure empirique satisfait un principe de grandes déviations avec une bonne fonction de taux, dont nous donnons une expression analytique en fonction de la représentation spectrale de certains processus gaussiens.

Le texte complet de cet article est disponible en PDF.

Plan


© 2014  Publié par Elsevier Masson SAS de la part de Académie des sciences.
Ajouter à ma bibliothèque Retirer de ma bibliothèque Imprimer
Export

    Export citations

  • Fichier

  • Contenu

Vol 352 - N° 10

P. 841-846 - octobre 2014 Retour au numéro
Article précédent Article précédent
  • Curvature properties for moduli of canonically polarized manifolds—An analogy to moduli of Calabi–Yau manifolds
  • Georg Schumacher
| Article suivant Article suivant
  • Asymptotic description of stochastic neural networks. II. Characterization of the limit law
  • Olivier Faugeras, James Maclaurin

Bienvenue sur EM-consulte, la référence des professionnels de santé.
L’accès au texte intégral de cet article nécessite un abonnement.

Bienvenue sur EM-consulte, la référence des professionnels de santé.
L’achat d’article à l’unité est indisponible à l’heure actuelle.

Déjà abonné à cette revue ?

Mon compte


Plateformes Elsevier Masson

Déclaration CNIL

EM-CONSULTE.COM est déclaré à la CNIL, déclaration n° 1286925.

En application de la loi nº78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés, vous disposez des droits d'opposition (art.26 de la loi), d'accès (art.34 à 38 de la loi), et de rectification (art.36 de la loi) des données vous concernant. Ainsi, vous pouvez exiger que soient rectifiées, complétées, clarifiées, mises à jour ou effacées les informations vous concernant qui sont inexactes, incomplètes, équivoques, périmées ou dont la collecte ou l'utilisation ou la conservation est interdite.
Les informations personnelles concernant les visiteurs de notre site, y compris leur identité, sont confidentielles.
Le responsable du site s'engage sur l'honneur à respecter les conditions légales de confidentialité applicables en France et à ne pas divulguer ces informations à des tiers.


Tout le contenu de ce site: Copyright © 2024 Elsevier, ses concédants de licence et ses contributeurs. Tout les droits sont réservés, y compris ceux relatifs à l'exploration de textes et de données, a la formation en IA et aux technologies similaires. Pour tout contenu en libre accès, les conditions de licence Creative Commons s'appliquent.