Résumé:
Dans ce mémoire, nous étudions la méthode de la programmation dynamique pour résoudre
un problème de contrôle stochastique. Le cadre adopté dans la deuxième chapitre (partie 1)
est celui des processus de diffusions contrôlés à valeurs dans Rn et le problème formulé est
en horizon fini ou en horizon infini.
L'idée basique de la méthode est de considérer une famille de problèmes de contrôle e
différents états initiaux et d’établir des relations entre les fonctions valeurs associées. Ce principe,
appelé principe de la programmation dynamique, est énoncé précisément dans la deuxième
chapitre (partie 2).
L'équation de Ia programmation dynamique dans la troisième chapitre conduit à une équation
aux dérivées partielles "EDP" non linéaire du second ordre, appelée Hamilton-Jacobi-Bellman"HJB".