Thèses en ligne de l'université 8 Mai 1945 Guelma

Approche EDP classique de la programmation dynamique

Afficher la notice abrégée

dc.contributor.author FEHADA, Houda
dc.date.accessioned 2019-05-29T09:22:08Z
dc.date.available 2019-05-29T09:22:08Z
dc.date.issued 2013
dc.identifier.uri http://dspace.univ-guelma.dz:8080/xmlui/handle/123456789/3472
dc.description.abstract Dans ce mémoire, nous étudions la méthode de la programmation dynamique pour résoudre un problème de contrôle stochastique. Le cadre adopté dans la deuxième chapitre (partie 1) est celui des processus de diffusions contrôlés à valeurs dans Rn et le problème formulé est en horizon fini ou en horizon infini. L'idée basique de la méthode est de considérer une famille de problèmes de contrôle e différents états initiaux et d’établir des relations entre les fonctions valeurs associées. Ce principe, appelé principe de la programmation dynamique, est énoncé précisément dans la deuxième chapitre (partie 2). L'équation de Ia programmation dynamique dans la troisième chapitre conduit à une équation aux dérivées partielles "EDP" non linéaire du second ordre, appelée Hamilton-Jacobi-Bellman"HJB". en_US
dc.language.iso fr en_US
dc.subject Programmation dynamique,approche EDP en_US
dc.title Approche EDP classique de la programmation dynamique en_US
dc.type Working Paper en_US


Fichier(s) constituant ce document

Ce document figure dans la(les) collection(s) suivante(s)

Afficher la notice abrégée

Chercher dans le dépôt


Recherche avancée

Parcourir

Mon compte