Dynamic programming for mean-field type control - 13/09/14
pages | 7 |
Iconographies | 4 |
Vidéos | 0 |
Autres | 0 |
Abstract |
For mean-field type control problems, stochastic dynamic programming requires adaptation. We propose to reformulate the problem as a distributed control problem by assuming that the PDF ρ of the stochastic process exists. Then we show that Bellman's principle applies to the dynamic programming value function , where the dependency on is functional as in P.-L. Lions' analysis of mean-field games (2007) [[10]]. We derive HJB equations and apply them to two examples, a portfolio optimization and a systemic risk model.
Le texte complet de cet article est disponible en PDF.Résumé |
Pour les problèmes de contrôle stochastique à champs moyen, la programmation dynamique ne s'applique pas sans adaptation ; mais si l'on reformule le problème avec l'équation de Fokker–Planck, on peut le faire en utilisant une fonctionnelle valeur comme dans l'analyse des problèmes de jeux à champs moyen par P.-L. Lions (2007) [[10]]. Les résultats sont appliqués à un problème d'optimisation de portefeuille et à un problème de risque systémique.
Le texte complet de cet article est disponible en PDF.Plan
Vol 352 - N° 9
P. 707-713 - septembre 2014 Retour au numéroBienvenue sur EM-consulte, la référence des professionnels de santé.
L’accès au texte intégral de cet article nécessite un abonnement.
Bienvenue sur EM-consulte, la référence des professionnels de santé.
L’achat d’article à l’unité est indisponible à l’heure actuelle.
Déjà abonné à cette revue ?