Please use this identifier to cite or link to this item: http://dspace.univ-guelma.dz/jspui/handle/123456789/3472
Full metadata record
DC FieldValueLanguage
dc.contributor.authorFEHADA, Houda-
dc.date.accessioned2019-05-29T09:22:08Z-
dc.date.available2019-05-29T09:22:08Z-
dc.date.issued2013-
dc.identifier.urihttp://dspace.univ-guelma.dz:8080/xmlui/handle/123456789/3472-
dc.description.abstractDans ce mémoire, nous étudions la méthode de la programmation dynamique pour résoudre un problème de contrôle stochastique. Le cadre adopté dans la deuxième chapitre (partie 1) est celui des processus de diffusions contrôlés à valeurs dans Rn et le problème formulé est en horizon fini ou en horizon infini. L'idée basique de la méthode est de considérer une famille de problèmes de contrôle e différents états initiaux et d’établir des relations entre les fonctions valeurs associées. Ce principe, appelé principe de la programmation dynamique, est énoncé précisément dans la deuxième chapitre (partie 2). L'équation de Ia programmation dynamique dans la troisième chapitre conduit à une équation aux dérivées partielles "EDP" non linéaire du second ordre, appelée Hamilton-Jacobi-Bellman"HJB".en_US
dc.language.isofren_US
dc.subjectProgrammation dynamique,approche EDPen_US
dc.titleApproche EDP classique de la programmation dynamiqueen_US
dc.typeWorking Paperen_US
Appears in Collections:Master

Files in This Item:
File Description SizeFormat 
SAIBI 69_New.PDF18,58 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.