Asymptotic description of stochastic neural networks. II. Characterization of the limit law - 27/09/14
pages | 6 |
Iconographies | 0 |
Vidéos | 0 |
Autres | 0 |
Abstract |
We continue the development, started in [[8]], of the asymptotic description of certain stochastic neural networks. We use the Large Deviation Principle (LDP) and the good rate function H announced there to prove that H has a unique minimum , a stationary measure on the set of trajectories . We characterize this measure by its two marginals, at time 0, and from time 1 to T. The second marginal is a stationary Gaussian measure. With an eye on applications, we show that its mean and covariance operator can be inductively computed. Finally, we use the LDP to establish various convergence results, averaged, and quenched.
Le texte complet de cet article est disponible en PDF.Résumé |
Nous prolongeons le développement, commencé en [[8]], de la description asymptotique de certains réseaux de neurones stochastiques. Nous utilisons le principe de grandes déviations (PGD) et la bonne fonction de taux H que nous y annoncions pour démontrer l'existence d'un unique minimimum, , de H, une mesure stationnaire sur l'ensemble des trajectoires. Nous caractérisons cette mesure par ses deux maginales, à l'instant 0, et du temps 1 au temps T. La seconde marginale est une mesure gaussienne stationnaire. Avec un oeil sur les applications, nous montrons comment calculer de manière inductive sa moyenne et son opérateur de covariance. Nous montrons aussi comment utiliser le PGD pour établir des résultats de convergence en moyenne et presque sûrement.
Le texte complet de cet article est disponible en PDF.Plan
Vol 352 - N° 10
P. 847-852 - octobre 2014 Retour au numéroBienvenue sur EM-consulte, la référence des professionnels de santé.
L’accès au texte intégral de cet article nécessite un abonnement.
Bienvenue sur EM-consulte, la référence des professionnels de santé.
L’achat d’article à l’unité est indisponible à l’heure actuelle.
Déjà abonné à cette revue ?