Selon le dernier ouvrage de Philippe Herlin, reprenant les thèses de Benoît Mandelbrot et Nassim Nicholas Taleb, la science financière actuelle est fondamentalement déficiente, et les postulats mathématiques qui en forment le socle dominant sont faux. Ces modèles, par la faute d'une sous-estimation congénitale des niveaux de risque qu'ils entrainent, ont joué un rôle essentiel dans le déclenchement de la crise financière que nous vivons.
Dans son nouvel Ouvrage, "Finance, le nouveau paradigme", sous titré "comprendre la finance et l'économie avec Mandelbrot, Taleb...", Philippe Herlin, que vous connaissez peut être à travers son blog "la dette de la France", explique comment le mauvais état de la science mathématique financière à très largement contribué à mettre à genoux l'économie mondiale.
Et je dois dire que la thèse est convaincante, même si j'emets une tout petite réserve vers la fin. Mais avant d'aborder le fond, quelques mots sur la forme.
Un ouvrage captivant malgré le sujet ardu
L'auteur réussit la gageure de captiver le lecteur avec un ouvrage dont les premiers chapitres sont pourtant essentiellement consacrés à des explications mathématiques sur les lois dites "normales", ou de Gauss, et leur application à la finance moderne, et les lois dites de "puissance", ou de Zipf, qui ont servi de base à Mandelbrot pour définir les mathématiques fractales et les appliquer à la finance.
Comme vous voyez, ce n'est pas un ouvrage tout public, mais pas de panique ! Disons qu'un élève de terminale C ou D, ou toute personne avec un reste de culture scientifique devrait pouvoir suivre sans problème. Sinon, une personne qui s'intéresse au problème sans connaître les maths sous-jacentes pourra comprendre très bien la démarche en survolant les deux premiers chapitres.
Les sources des modèles financiers actuels
Mais évidemment, la force du livre n'est pas dans son contenu mathématique mais dans l'étude des conséquences d'une erreur fondamentale dans les modèles utilisés par le monde de la finance et celui de la grande entreprise aujourd'hui.
Je vais tenter d'expliquer en "quelques" lignes -compréhensibles, j'espère- de quelle erreur il s'agit.
Dans les trois décennies d'après guerre, des théoriciens de l'économie (Markovitz, Sharpe, puis Fama, Merton, Black et Scholes, pour ne citer que les plus connus) reprennent les travaux d'un thésard français auparavant tombé dans l'oubli, Louis Bachelier, qui avait constaté que nombre de phénomènes financiers, tels que les valorisations boursières de certains portefeuilles, l'évolution de cours de certains indices, etc... semblaient suivre une distribution dite "normale", c'est à dire une loi de Gauss.
La loi de Gauss ou "loi normale" est une loi de distribution universellement connue de par les courbes en forme de cloche qu'elle génère, et qui se retrouve dans nombres de phénomènes de la vie courante.
Ainsi, par exemple, est il observé que la distribution des tailles des individus d'un pays ou d'un large échantillon d'hommes tiré au hasard suit une courbe de gauss, dont le sommet de la cloche est la taille moyenne, et l'abscisse représenterait le pourcentage de la population de la taille considérée.
On constate donc que dans un phénomène obéissant aux lois de Gauss, un nombre important d'occurrences du phénomène se concentrent autour de sa valeur moyenne, et que plus on s'éloigne de la moyenne, plus la probabilité de rencontrer une occurrence du phénomène mesuré diminue rapidement.
C'est ce phénomène que les néo-financiers de l'après guerre ont cru pouvoir identifier dans de nombreuses séries de variations de cours sur divers marchés. Ils en ont déduit que nombre de phénomènes économiques devaient suivre des lois normales.
Malheureusement, lorsque les premiers théoriciens de la finance gaussienne produisirent leurs formules et modèles, dans les années 50 et 60, ni les séries statistiques longues qui auraient permis de vérifier empiriquement la validité de ces lois, ni la puissance de traitement informatique qu'il faut pour les analyser, n'existaient. D'autre part, les 30 glorieuses (enfin, les 25 glorieuses, 1946-1970) furent une période relativement pauvre en événements "extrêmes" au plan économique. Résultat: la loi de Gauss semblait marcher relativement bien dans les situations économiques "ordinaires". Certains crurent donc pouvoir affirmer qu'elles étaient valides tout le temps.
Dès le début des années 60, Benoit Mandelbrot contesta la prééminence de la loi normale dans les phénomènes financiers. En effet, selon lui, les lois normales tendent à sous estimer la probabilité d'occurrences de phénomènes extrêmes par rapport à ce que l'on observe dans le monde réel. Ainsi, les variations brutales de cours d'une action, ou d'un marché entier, d'un secteur, qui devraient être d'une certaine rareté dans une loi normale, sont beaucoup plus fréquentes dans la réalité, même si cette fréquence reste "basse" par rapport aux occurrences "ordinaires".
Bon, et alors, me direz vous, tout ceci ne confine-t-il pas à la querelle d'hyper spécialistes dénuée d'intérêt dans la vie réelle ? Hélas, cent fois hélas.
"Intérêt" de la loi de Gauss en finance
Mandelbrot ne sera pas écouté, et toute une théorie de la gestion des risques et de la valeur va prendre racine sur la prémisse de l'économie "gaussienne".
Or, la gestion du couple "valeur-risque", ou "rendement-risque", est tout à fait centrale dans le monde financier, qu'il s'agisse de la banque ou de l'assurance. Instinctivement, nous le savons, plus un investissement rapporte, plus il est risqué. Mais nous savons aussi que certains investissements, ou certaines stratégies d'investissement, présentent un meilleur rapport risque/rentabilité que d'autres.
Inutile de dire que les banques, lorsqu'elles constatèrent que les modèles issus de la mathématique gaussienne semblaient applicables à la finance, se sont jetées dessus dans l'espoir d'en tirer quelque avantage compétitif. Ce mouvement, entamé dans les années 70, va connaître un développement exponentiel dans les années 80 et suivantes.
Ces modèles ont donc tenté de déterminer comment maximiser la valeur d'un portefeuille en minimisant le risque. Or, la zone à risque correspond à l'occurrence d'événements de probabilités faibles situés aux extrémités de la courbe de Gauss. Les modèles financiers ont donc cherché à modéliser selon ces lois les probabilités d'occurrence de ces événements extrêmes suivant une loi de Gauss. Mais que se passe-t-il si le modèle sous-estime la probabilité des situations à risque ?
Des hypothèses de base contestables
Naturellement, les économistes ont tenté de relier ces phénomènes mathématiques à des explications économiquement rationnelles. C'est ainsi que certains d'entre eux, comme Eugene Fama, ont montré que les modèles gaussiens étaient valides si deux hypothèses se vérifiaient:
2) La seconde est l'inclusion instantanée des informations disponibles dans les prix. Les acteurs étant rationnels, dès qu'ils sont en présence d'une information, ils valorisent cette information, et quand bien même divers acteurs donnent à cette information une valeur différente, là encore, ces valorisations suivront une loi normale, et le marché, moyenne de ces valorisations, prendra donc quasi instantanément en compte l'information dans le prix.
Le modèle ne colle pas au fait: triturons le modèle pour le faire coller !
Dès que la puissance informatique fut disponible en quantité suffisante, certains voulurent vérifier les assertions des modèles de Markovitz et compagnie. Mandelbrot d'abord, puis d'autres, ont trouvé de nombreux exemples où les événements "extrêmes" avaient eu une fréquence supérieure à celle qu'aurait donné un calcul classique par loi normale. Ainsi, les variations au jour le jour des cours de bourse ou des cours des matières premières étaient bien plus souvent d'une amplitude "importante" et "anormale" que ne l'aurait suggéré la loi dite normale.
D'autre part, les hypothèses de marché parfait et d'homo economicus moyen rationnel trouvent de nombreux contre-exemples historiques, caractéristiques des périodes de bulles, où le "biais grégaire" prédomine. J'ajouterai (remarque de VB) que Crozier, Friedberg et d'autres ont montré que les sources de la rationalité étaient différentes selon les individus, que chacun avait une rationalité qui lui était propre, laquelle dépendait à la fois de ses capacités cognitives, de ses valeurs, et des valeurs des groupes auxquels ils s'identifie. Et parler de "rationalité moyenne" n'a dans ce contexte aucun sens.
Enfin, de tout temps, les spéculateurs ont prospéré sur l'écart de temps entre la prise en compte correcte de toutes les informations disponibles sur un marché, et la formation des dits prix. Ce temps d'intégration peut être fort long. L'hypothèse d'intégration quasi instantanée de l'information dans les prix est donc, du point de vue de ce qui est observable, infondée.
Bref, il existe nombre de constats empiriques de l'inadéquation des hypothèses du modèle gaussien normal aux faits tels qu'ils se produisent dans le monde financier réel.
Toute ressemblance avec la science climatique... etc.
Les modèles étaient séduisants théoriquement mais faux empiriquement. Les tenants de ces modèles, au lieu de les remettre en cause, les ont "bricolés" pour les "adapter" aux faits. Ils ont donc trouvé des justifications à l'application de ces modèles en rajoutant aux extrémités de la courbe de gausse un coefficient - Poétiquement dénommé "Kurtosis" - capable d'expliquer une certaine volatilité des occurrences d'événements extrêmes.
Notons ici l'inversion classique hélas trop fréquente en science, la confusion du modèle et du phénomène. Parce qu'une fonction mathématique semble décrire à peu près correctement un ensemble de phénomènes, la fonction mathématique se substitue à la compréhension du phénomène sous-jacent pour tenter de déduire les évolutions probables de phénomènes trop complexes pour être modélisables.
"Le modèle initial ne colle pas aux faits ? Bricolons la mathématiques sous jacente pour qu'il colle, et nous aurons un modèle qui validera la loi de base". Mais ce n'est pas au modèle de valider la loi, mais à la loi de fonder le modèle.
Pourtant, même des tenants initiaux de ces modèles s'en sont écartés. Eugène Fama, l'un des plus connus, a écrit avec un confrère, Kenneth French (leur blog) un article reconnaissant que certaines de leurs hypothèses de base étaient fausses. Trop tard !
Deux autres tenants de ces modèles, Merton et Scholes (non, ce ne sont pas les attaquants de Manchester United !), se sont illustrés en 1998 - peu après l'obtention d'un prix Nobel pour leurs théories ! - en provoquant une faillite retentissante de plus de 10 milliards de $, avec un "risque systémique" estimé à plus de 100 milliards, celle de leur fonds LTCM, dont la gestion était basée sur leurs modèles de valorisation rendement-risque issus de la loi normale "modifiée sur les bords". Cela aurait dû tout de même mettre la puce à l'oreille de la communauté économique et financière. Rien, nada.
Bien que les travaux de Mandelbrot, père des fractales qui ont rendu possible l'émergence de nombreuses applications informatiques (3D, simulation, réalité augmentée, etc...), qui a décliné ses recherches dans le domaine de la finance, commencent à être reconnus, ils n'en ont pas moins resté ignorés de la plus grande part de la communauté économique, qui en est resté à la loi normale.
Lois de Zipf
Selon le constat empirique de Mandelbrot, les marchés financiers obéissent non pas à des lois de Gauss, mais à des lois de Zipf. Ces lois, également appelées lois de puissance, s'écrivent sous leur forme la plus simple simple y=ax^k (k<0, hyperbolique), ou encore se représentent par une droite sous une échelle Logarithmique. Il existe des formes un peu plus complexes des lois de Mandelbrot, mais restons en à ces représentations simples.
Un exemple de loi de Zipf très connu est la loi de
Pareto, dite des 80/20. Un exemple: Pareto constate que dans de
nombreux pays, 80% des ménages disposent de 20% du patrimoine, et 20% en
possèdent 80%. Et parmi les 20% les plus riches, 20% possèdent 80% de
la richesse totale des plus riches, soit 4% qui possèdent 64%, et ainsi
de suite. Pas très égalitaire, mais Pareto ne fait que des constats.
Naturellement, une loi de puissance peut être de type 90/10, 75/25,
etc...
De nombreux phénomènes obéissent à des lois de Zipf.
Ainsi, la distribution des chiffres d'affaires des sociétés de logiciel,
ou encore la fréquentation des sites web (voir cet article du gourou du
web Jakob Nielsen, ou celui ci par Jason Kottke. Ce sont mes années veblog.com
qui ressurgissent...) obéissent à une loi de Zipf.
Ces lois
ont deux caractéristiques essentielles :
2) dans une loi de puissance, la "moyenne", si elle existe arithmétiquement, n'a aucun sens du point de vue de la réalité. Et donc, se baser sur un comportement "moyen" pour déduire l'avenir est non seulement faux, mais terriblement risqué.
3) elles ne peuvent absolument pas servir de base à des modèles "robustes" fondés sur des notions d'"équilibre" : des variations infimes du paramètre K peuvent conduire à des résultats très différents. Les lois de Zipf sont donc le cauchemar absolu des modélisateurs: vous comprenez pourquoi ils ne les aiment pas.
Du second point nait une façon totalement différente d'envisager la gestion des risques. Les assureurs le savent bien: si la distribution des hauteurs d'eau des inondations moyennes constatées pour un cours d'eau va généralement suivre une loi normale (fréquente dans les phénomènes physiques), la distribution des coûts associés à ces hauteurs d'eau va plus vraisemblablement suivre une loi de Zipf: l'inondation extrême, la plus rare, coûtera incommensurablement plus que l'inondation "moyenne". Et voilà pourquoi les modèles de gestion des risques des assureurs se basent sur la mémoire des événements extrêmes et pas ceux des événements "moyens", qui sont en l'occurrence d'aucune signification dans le monde réel de l'assurance.
Le risque : gaussé !
Malheureusement,
en matière de gestion du risque financier, c'est la loi de Gauss qui
prédomine, et donc une sous-estimation patente de la probabilité des situations facteur de risque, ce que Taleb appel les "cygnes noirs". Et la crise
d'Août et Septembre 2008 ne fait qu'illustrer de façon éclatante cette
mauvaise prise en compte du risque.
Un an avant la faillite de
Lehman Brothers, lors du début de l'affaire Bear Stearns, certains
acteurs clé de la finance, comme le CFO de Goldman Sachs, un certain David
Viniar, se disent victimes d'événements jamais vus. Selon eux, la crise
qu'ils vivent était tout simplement imprévisible. Les variations de
cours observées ce jour là représentaient 25 fois l'écart type de la
variation des cours selon la loi normale (les mathématiciens parlent
d'événement "sigma 25", ce qui en terme gaussiens est d'une probabilité
infinitésimale: Un événement seulement "sigma 5" a, selon la loi
normale, une probabilité de se produire un jour sur 13 000 ans, et
"sigma 6", une fois en 4 millions d'années ! alors sigma 25, pensez donc
! "ça ne pouvait pas arriver !"
Quelques années auparavant,
Joseph Stiglitz avait estimé la probabilité de faillite de Fannie Mae et
Freddie Mac à moins d'une sur 500 000, voire moins d'une sur 3
millions: cinq ans plus tard, ces deux
entreprises sous statut protégé par l'état sont les
protagonistes du "sauvetage" le plus coûteux de l'histoire des USA, plus
de 300 milliards à ce jour, et sont à l'origine de la plus grave crise
financière qui soit.
C'est d'autant plus ironique que Stiglitz
avait été un des premiers à dénoncer l'absurdité de l'hypothèse de Fama
sur la capacité de prise en compte immédiate de l'information par les
prix de marché. Ses travaux sur ce domaine lui ont valu un prix Nobel.
Mais malgré cela il est resté accroché, pour ses prévisions, à des
variations autour de la loi normale.
Les techniques de
titrisation par tranche qui étaient censées réduire le risque
porté par les obligations à base de crédits "subprimes" et autres "ARM"
étaient fondées sur des hypothèses de survenance d'événements adverses
basés sur la loi normale. A la première bourrasque, le modèle a été
emporté comme un fétu de paille, alors que selon les modèles, la tempête
avait moins d'une chance sur des centaines de millions de se produire.
L'entreprise
non financière contaminée
Philippe Herlin montre également
longuement, dans ce qui est peut être le point le plus fort de son
livre, que les entreprises non financières ont été contaminées par la
finance gaussienne, pour le pire. En sous-estimant, lois normales
obligent, les niveaux de probabilité d'événements adverses, donc les
niveaux de risque auxquels s'exposent les entreprises, en fonction de la
structure d'endettement de leur bilan, les financiers et fonds qui
investissent dans des entreprises tendent à sur-valoriser les activités
risquées mais très rentables quand tout va bien (ils sous estiment la
prime de risque) et de ce fait à sous valoriser les activités
récurrentes de "fond de portefeuille", dont ils vont tenter de se
séparer.
Les dirigeants sont donc poussés par les actionnaires à
adopter à la fois des structures de bilan et des répartitions de
portefeuilles d'activité qui sur-exposent les entreprises aux aléas de
la conjoncture, tout en les poussant à maintenir des objectifs de
rentabilité des capitaux propres financièrement insoutenables sur le
long terme.
Les dégâts de l'application aveugle de ces modèles
gaussiens aux noms barbares (MEDAF, WACC...) sur l'économie "productive"
(celle de l'actif) et l'économie financière (celle du passif) sont
encore impossibles à évaluer dans leur totalité. Mais l'ouvrage de
Philippe Herlin passe en revue nombre de ces conséquences néfastes. Ces
modèles ont joué un rôle majeur dans l'établissement de cette économie de la dette
dont je voudrais tant qu'elle cédât la place à celle du capital... Je
reviendrai plus extensivement sur cette question dans les jours à venir.
Le régulateur contaminé
Le régulateur a
implicitement adopté les lois gaussiennes dans au moins deux pans
essentiels de la réglementation financière mondiale:
2- les modèles utilisés par les agences de notation, confortées par un oligopole de nature réglementaire, sont gaussiens. Et voilà pourquoi les agences de notation semblent réduire les notations des entreprises en difficulté ou des états souverains après la guerre, quand il est trop tard (pour être juste, les conflits d'intérêts internes à cette activité jouent également un grand rôle dans le développement de cette bulle d'incompétence des agences de rating, aux conséquences tellement lourdes).
Les faiblesses du livre
Je ne vois à ce livre que trois faiblesses, secondaires compte tenu de la richesse de ses apports, et de la qualité des références qu'il cite, permettant à ceux que cela intéresse de multiples approfondissements sur le sujet.
La première, marginale, est que sa critique du modèle d'enregistrement des valeurs "mark to market" n'est pas accompagnée de propositions de remplacement. J'ai moi même critiqué ce modèle, puis laissé entendre - je dois encore développer - que mes critiques initiales étaient exagérées. Mais je bute sur la question traditionnelle:"que faire à la place" ? Visiblement, M. Herlin aussi.
La seconde, plus importante, est l'explication sociologiquement trop "courte" du pourquoi du succès persistant de ces modèles faux malgré les preuves répétées de leur incapacité à traiter correctement les événements "aux limites". Le krach de 87, la réplique de 89, la faillite des saving and loans, la crise asiatique, le krach de LTCM, celui des Dot Com... Autant d'événements à la probabilité quasi nulle selon les modèles gaussiens, qui se sont succédés à intervalles rapprochés, et qui auraient dû conduire les utilisateurs des modèles à se poser les bonnes questions. J'ai une ébauche d'explication, j'y reviendrai.
La troisième faiblesse, liée d'ailleurs à la seconde, est qu'il semble favoriser une réforme de la finance qui imposerait de nouvelles règles "mandelbrotiennes" à la place des règles gaussiennes existantes, quand bien même il affirme justement que "plus de régulation" ne résoudrait rien - Il propose de remplacer une réglementation qu'il juge mauvaise par une autre qu'il juge meilleure.
Ce serait à mon sens une demi-erreur. Certes, au premier abord, remplacer des règles mauvaises par des règles apparemment plus réalistes fait sens. Mais, d'une part, les lois de zipf, du fait de leurs très fortes dépendances à de faibles variations paramétriques, ne sont pas des lois d'équilibre stable, comme l'auteur le démontre. Elles obligent de fait à se dégager de l'analyse purement mathématique de l'économie et à revenir aux fondamentaux de l'analyse de la valeur des entreprises: évaluation de la qualité du management, de la pertinence de la stratégie, etc... Aucun domaine où la règle étatique puisse ne serait-ce que donner l'illusion d'apporter une valeur ajoutée.
Et surtout, rien ne prouve que les lois de Mandelbrot-Zipf s'appliquent parfaitement au spectre de toutes les situations possibles. Il est possible que ces lois décrivent parfaitement certaines situations et plus mal d'autres, à l'instar de leurs consoeurs gaussiennes. L'auteur le reconnait d'ailleurs lui même puisqu'il dresse un portrait robot des activités économiques plutôt "gaussiennes" et de celles plutôt "zipféennes". Dans ce cas, imposer un modèle de Zipf de façon réglementaire peut aussi avoir des effets pervers insoupçonnés.
D'ailleurs, imaginons que les modèles Mandelbrotiens deviennent la pensée dominante de la finance, mais que certains trublions découvrent que dans des situations aux limites du modèle, ils s'appliquent mal. Nul doute que la sociologie des groupes mandelbrotiens serait la même que celle des cliques gaussiennes: ils inventeraient leur propre équivalent du "coefficient de Kurtosis" créé par les gaussiens pour justifier leurs modèles envers et contre tout.
Dans ces conditions, on comprend que l'état n'est pas fondé à dire quel modèle doit servir de support à la réglementation. Une "sélection naturelle" des meilleurs modèles serait souhaitable. Oui, mais...
La faillite, seul outil efficace d'élimination des mauvais modèles
Revenons au sauvetage des caisses d'épargne américaines, puis à celui de LTCM ou encore celui d'AIG. Si, pour les caisses, les faillites du modèle mathématiques gaussien n'apparaissent pas forcément clairement comme un facteur essentiel de leur infortune (cf. cet article sur l'histoire de la réglementation bancaire US), cette faillite est en revanche évidente dans le cas de LTCM ou d'AIG. Dans les deux cas, le "risque systémique" a été invoqué pour justifier l'appel au contribuable américain pour sauver les créanciers de ces entreprises en faillite.
Mais alors, pourquoi se priver d'utiliser les modèles gaussiens, malgré les logiques court-termistes qu'ils induisent, puisque leurs plus grands profiteurs en période faste verront les conséquences de leurs défaillances absorbées par l'état ? Pourquoi, dans un monde où les premiers de la course touchent les meilleures primes, se priver de traverser l'Atlantique dans un catamaran instable mais rapide plutôt que dans un monocoque rassurant mais lent, si vous êtes à peu près certain qu'en cas de malheur, l'hélicoptère de l'oncle Sam ou son cousin européen viendront vous tirer de la noyade, à leurs frais ?
Certes, les gens ne sont pas heureux de faire faillite, surtout les salariés des entreprises financières défaillantes, mais si les dirigeants peuvent se garantir quelques années de gros bonus, puis voir leurs privilèges sauvés par le contribuable quand la tempête se déclare et menace d'emporter leurs frêles esquifs, pourquoi perdre du temps et de l'énergie à étudier les failles des modèles qui vous poussent à sous estimer le risque ?
La société du risque subventionné
Il me semble que le principal coupable dans la perpétuation de l'erreur gaussienne collective soit la culture du "sauvetage", pratiquée par tous les gouvernements envers nombre d'entreprises emblématiques depuis les années 70: Chrysler, GM, les caisses d'épargne, LTCM, et maintenant les grandes banques... En Europe aussi, les grandes institutions financières ont intégré une culture du sauvetage public.
Si les entreprises financières en faillite, leurs actionnaires et leurs créanciers, avaient dû assumer jusqu'au dernier sou les conséquences de l'incurie de leurs modèles de gestion du risque, nul doute qu'ils auraient été pressés d'en analyser les failles les plus criantes, et que les voix dissidentes des disciples de Mandelbrot se seraient fait mieux entendre. Et nous n'en serions pas sans doute aujourd'hui là où nous en sommes. Une gestion ordonnée et rigoureuse des faillites est de loin le meilleur moyen de réguler l'économie et de l'expurger de ses intervenants trop peu performants, ou trop exposés au risque.
Si les formules des Markovitz, Sharpe, Scholes and co, n'avaient pas existé, la culture du bailout, de la privatisation des profits et de la socialisation des pertes, qui constitue en fait une véritable subvention publique à la prise de risque, aurait poussé tout de même le monde de la finance à trouver d'autres outils justifiant l'adoption de leur modèle à haut risque. La finance gaussienne n'est pas la cause primaire du marasme financier, elle n'est "que" l'arme de destruction massive choisie par ses acteurs parce que le risque est subventionné.
Nos malheurs sont d'abord ceux d'une société où la privatisation des gains et la collectivisation des pertes est devenue... la loi normale des affaires !
Bref, "Finance, le nouveau paradigme" est un ouvrage hautement recommandable.
-------
Sur Amazon:
Philippe HERLIN, "Finance - Le nouveau paradigme"- Ed. Eyrolles, 205p. - Avril 2010-------------
Autres lectures :Felix Salmon, "the formula that killed wall street" (and your 401k), article séminal sur la crise financière, début 2009.
-------------
"Terminale C ou D"... Allons allons Vincent! Pourquoi ne pas parler de l'ORTF et des gramophones aussi tant que tu y es. ;)
Sinon, que représentent ces modèles en terme de volume de transactions?
Rédigé par : Mateo | vendredi 30 avril 2010 à 10h18
Personne aujourd'hui n'utilise un modèle gaussien pour obtenir un prix et traiter à partir de ce prix. Par exemple le modèle Black-Scholes est utilisé afin d'obtenir la volatilité implicite d'une option et non pas pour calculer son prix puisque celui-ci sera d'autant plus faux que le strike s'éloigne du spot.
C'est là toute la différence entre les ambitions académiques des modèles et leur utilisation réelle par les professionnels.
Rédigé par : Marc | vendredi 30 avril 2010 à 11h15
Je viens de découvrir votre blogue.
Très intéressant comme point de vue.
L'autre faille dans les modèles quantitatifs des institutions financières est que la matrice de variances/covariances n'est pas statique et qu'en période de crise, les covariances convergent à la hausse. À ce moment, le modèle ne vaut plus rien...
Mon billet paru hier va dans le même sens que vos propositions:
http://minarchiste.wordpress.com/2010/04/29/les-failles-de-la-reforme-financiere/
Rédigé par : Minarchiste | vendredi 30 avril 2010 à 15h01
@ Marc: Le livre de Herlin ne dit pas autre chose, mais en un article, je ne pouvais entrer dans les nuances. Mais le problème est bien l'usage de modèles gaussiens dans les prévisions de volatilité, élément central d'appréciation du risque. Je laisse l'auteur répondre lui même dans le détail.
@ minarchiste: je ne connaissais pas votre blog non plus, ça a l'air rudement intéressant, je vais y faire un tour. Il faut que je soigne ma blog roll, un vrai b....l.
@ Mateo: C'est que je ne connais plus les dénominations actuelles, entre le S, le ES, le TES, et donc je me suis raccroché à mes vieux repères.
Rédigé par : vincent | vendredi 30 avril 2010 à 19h07
@Marc: je le dit dans le livre à plusieurs reprises, à la suite de Mandelbrot, les traders n'utilisent pas "naïvement" les modèles mais considèrent leurs résultats comme une information comme une autre ; ils savent bien que ces modèles ne marchent pas ; ils constituent cependant la norme, notamment dans le champ académique.
Rédigé par : Philippe Herlin | samedi 01 mai 2010 à 17h20
Ayant travaillé longtemps dans la finance, je riais quand je voyais les controleurs des banques utiliser les memes modeles que les operateurs pour controller le risque des positions.
Les primes des options sont systematiquement sous évaluées, et une part de ces primes devrait etre provisionnée, et donc etre sortie des profits(servant de bases aux bonus) pour les cas ou la realité depasse le modèle.(une fois tous les 5-7 ans)
Je ne sais pas si les operateurs etaient conscients que leurs modeles n'etaient pas representatifs et le cachaient a leurs hierarchie pour sauver l'existence de leur boulot, et leurs bonus, ou si ils n'appreciaient pas le fait qu'un modele a une fiabilite limité(ce ne sont que des ingenieurs, capables de creer un modele mais incapables de se poser des questions sur les hypotheses sous jacentes au modele, pour lesquel il faut un esprit plus ouvert sur l'économie).
les banques sont stupides, elles ont refuser de me réembaucher pour préférer des ingénieurs, a elles de compter leurs pertes! ah ah ah!
Rédigé par : darius | samedi 01 mai 2010 à 20h55
Concernant la volatilité implicite , il ne faut pas se cacher que c'est une variable fourre tout qui prend une valeur permettant de faire coincider la valeur observée et la valeur relle.
N'importe quel modele avec une variable fantome qui prend la valeur qu on veut pour que deux truc s'ajustent est aussi peu fiable.
On a des montants de capitaux considerables sur lequels sont pris des positions en se basant sur ces modèles et leurs dérivés, et ce avec d'autant plus de facilité qu'on a une VALORISATION.Si on agissait au doigt mouillé, ca ne serait peut etre pas plus juste mais cela conduirait les operateurs a une humilité suffisante pour qu'ils reduisent leurs position.
En fait le systeme sort de ses rails tous les 5/7 ans conduisant en general a de grosses pertes.Qui se souvient de banker trust dans les années 90, des bouillons que se sont pris nat-west, barclays, credit suisse, etc...
Mais un opérateur fait joujou et touche ses bonus pendant 4 ans, puis les grosses pertes arrivent, il est viré, mais réembauché par une autre banque dont la hierarchie n'a pas compris l'arnaque, et ca recommence pour le cycle suivant avec bonus a la clé.
En fait les benefices produits sur les derivés sont factices puisque la valeur de la prime encaissée ne correspond pas a un profit mais doit intégrer une prime de risque (rique qui se manifeste tous les 5/7 ans) qui le minore fortement et donc qui minorerait le bonus des opérateurs, et l'interet pour la banque de continuer ce genre d'exercice qui en fait sur le long terme n'est pas si rentable que ca.
Puisse ce livre ouvrir les yeux des dirigeants.
Rédigé par : darius | samedi 01 mai 2010 à 21h09
J'abonde à 200% avec la conclusion : contrairement à ce qu'on pourrait penser à première vue, la réglementation est un facteur de prise de risque accru, pas le contraire. On le voit ici. On l'a vu avec la tempête Xynthia. On l'a vu dans la crise des subprime. Je faisais exactement le même constat sur le système bancaire et monétaire sur ce même blog (http://www.objectifliberte.fr/2009/06/regulation-bancaire-histoire-dun-echec-programme.html). La réglementation vise avant tout à réduire le risque, mais quand on réduit le risque, on augmente la prise de risque (car en fait ce n'est jamais le risque qu'on réduit, c'est in fine ses conséquences sur certains).
La faillite doit être notre seul rempart contre la prise excessive de risque, comme le Bank Run doit être notre rempart contre un effet de levier trop conséquent des établissements bancaires.
On voit également bien ici le danger le plus terrible à vouloir faire croire que la faillite d'un Etat est structurellement impossible : c'est le refus ultime d'accepter l'idée qu'il existe un risque, qui a conduit aux pires politiques, au pire laxisme des finances publiques, et nous met face aujourd'hui à un danger bien réel et imminent.
Rédigé par : ST | dimanche 02 mai 2010 à 10h36
@ darius : merci pour ce témoignage instructif.
@ ST : "On voit également bien ici le danger le plus terrible à vouloir faire croire que la faillite d'un Etat est structurellement impossible : c'est le refus ultime d'accepter l'idée qu'il existe un risque, qui a conduit aux pires politiques, au pire laxisme des finances publiques, et nous met face aujourd'hui à un danger bien réel et imminent"
Tu lis dans mes pensées: c'est le sujet de mon article de Lundi matin. Du lourd.
Rédigé par : vincent | dimanche 02 mai 2010 à 17h29