Résumé:
Au cours des siècles, de nombreux événements (risques), qu’il s’agisse de
catastrophes naturelles ou d’accidents liés à l’activité humaine, sont inhérents notre vie. Donc, il est impératif de prendre en compte et d’anticiper les possibilités de survenance de tels phénomènes, afin d’en limiter les impacts humains, environnementaux et économiques. Pour cela aussi, les institutions financières (les banques et les compagnies d’assurance) cherchent toujours à des nouvelles règles pour gérer et évaluer ses risques et leurs pertes potentielles et pour équilibrer un investissement risqué. Et dans le contexte de libéralisation des marchés de capitaux et du développement des instruments financiers dérivés, les organismes de surveillance ont exigé des institutions de développer divers outils pour mesurer et pallier les effets de ce risque. La VaR, acronyme désignant la value-at-risk introduite par J.P Morgan en 1996, en est l’un des derniers nés et des plus en vogue actuellement. La définition probabiliste de la VaR est claire mais ses méthodes de calcul sont multiples et il convient d’adopter la plus adéquate selon la nature du portefeuille d’actifs sous gestion. Les outils mathématiques mis en œuvre peuvent aussi être pointus et requièrent une parfaite maîtrise pour fournir un résultat pertinent. Ce mémoire retrace l’historique et les modèles de calcul de la VaR les plus largement mis en place au sein des institutions qui s’y soumettent. Mais malheureusement cette mesure présente quelques inconvénients, du fait qu’elle n’est pas cohérente et aussi elle ne se base sur aucune information sur la queue droite de la distribution. La convenance de ces axiomes est toujours un sujet pour la discussion, néanmoins, ils établissent un critère pour présenter de nouvelles mesures de risque alternatives telles l’Expected Shortfall (ES), la Conditional Tail Expectation (CTE) et la Tail Value-at-Risk (TVaR).