Afficher la notice abrégée
dc.contributor.author |
FEHADA, Houda |
|
dc.date.accessioned |
2019-05-29T09:22:08Z |
|
dc.date.available |
2019-05-29T09:22:08Z |
|
dc.date.issued |
2013 |
|
dc.identifier.uri |
http://dspace.univ-guelma.dz:8080/xmlui/handle/123456789/3472 |
|
dc.description.abstract |
Dans ce mémoire, nous étudions la méthode de la programmation dynamique pour résoudre
un problème de contrôle stochastique. Le cadre adopté dans la deuxième chapitre (partie 1)
est celui des processus de diffusions contrôlés à valeurs dans Rn et le problème formulé est
en horizon fini ou en horizon infini.
L'idée basique de la méthode est de considérer une famille de problèmes de contrôle e
différents états initiaux et d’établir des relations entre les fonctions valeurs associées. Ce principe,
appelé principe de la programmation dynamique, est énoncé précisément dans la deuxième
chapitre (partie 2).
L'équation de Ia programmation dynamique dans la troisième chapitre conduit à une équation
aux dérivées partielles "EDP" non linéaire du second ordre, appelée Hamilton-Jacobi-Bellman"HJB". |
en_US |
dc.language.iso |
fr |
en_US |
dc.subject |
Programmation dynamique,approche EDP |
en_US |
dc.title |
Approche EDP classique de la programmation dynamique |
en_US |
dc.type |
Working Paper |
en_US |
Fichier(s) constituant ce document
Ce document figure dans la(les) collection(s) suivante(s)
Afficher la notice abrégée