Ni
les agences de notation, ni les grandes banques n'ont vu venir la crise
financière. Fannie Mae et Freddie Mac "ne pouvaient pas faire
faillite". Des institutions autrefois respectables comme AIG se sont
écroulées en vendant des produits d'assurance spéculatifs qu'elles croyaient peu risqués. La liste des
erreurs fatales commises par le monde de la finance ces dix dernières
années est incommensurable. Pourquoi ?
Selon le dernier ouvrage
de Philippe Herlin, reprenant les thèses de Benoît Mandelbrot et Nassim
Nicholas Taleb, la science financière actuelle est fondamentalement
déficiente, et les postulats mathématiques qui en forment le socle
dominant sont faux. Ces modèles, par la faute d'une sous-estimation
congénitale des niveaux de risque qu'ils entrainent, ont joué un rôle
essentiel dans le déclenchement de la crise financière que nous vivons. --------------

Dans son nouvel
Ouvrage, "
Finance, le nouveau paradigme", sous titré "
comprendre
la finance et l'économie avec Mandelbrot, Taleb...", Philippe
Herlin, que vous connaissez peut être à travers son blog "
la dette de la France", explique comment le
mauvais état de la science mathématique financière à très largement
contribué à mettre à genoux l'économie mondiale.
Et je dois dire
que la thèse est convaincante, même si j'emets une tout petite réserve vers la fin. Mais avant d'aborder le fond, quelques
mots sur la forme.
Un ouvrage captivant malgré le sujet arduL'auteur
réussit la gageure de captiver le lecteur avec un ouvrage dont les
premiers chapitres sont pourtant essentiellement consacrés à des
explications mathématiques sur les
lois dites "normales", ou de
Gauss, et leur application à la finance moderne, et les lois
dites de "puissance", ou de
Zipf,
qui ont servi de base à Mandelbrot pour définir les mathématiques
fractales et les appliquer à la finance.
Comme vous voyez, ce
n'est pas un ouvrage tout public, mais pas de panique ! Disons qu'un
élève de terminale C ou D, ou toute personne avec un reste de culture
scientifique devrait pouvoir suivre sans problème. Sinon, une personne qui s'intéresse au problème sans connaître les maths sous-jacentes pourra comprendre très bien la démarche en survolant les deux premiers chapitres.
Les
sources des modèles financiers actuels
Mais évidemment, la
force du livre n'est pas dans son contenu mathématique mais dans l'étude des
conséquences d'une erreur fondamentale dans les modèles
utilisés par le monde de la finance et celui de la grande entreprise
aujourd'hui.
Je vais tenter d'expliquer en "quelques" lignes -
compréhensibles,
j'espère- de quelle erreur il s'agit.
Dans les trois
décennies d'après guerre, des théoriciens de l'économie (Markovitz,
Sharpe, puis Fama, Merton, Black et Scholes, pour ne citer que les plus
connus) reprennent les travaux d'un thésard français auparavant tombé
dans l'oubli,
Louis Bachelier, qui avait
constaté que nombre de phénomènes financiers, tels que les valorisations
boursières de certains portefeuilles, l'évolution de cours de certains
indices, etc... semblaient suivre une distribution dite "normale", c'est
à dire une loi de Gauss.
La loi de Gauss ou "loi normale" est
une loi de distribution universellement connue de par les courbes en
forme de cloche qu'elle génère, et qui se retrouve dans nombres de
phénomènes de la vie courante.

Ainsi,
par exemple, est il observé que la distribution des tailles des
individus d'un pays ou d'un large échantillon d'hommes tiré au hasard
suit une courbe de gauss, dont le sommet de la cloche est la taille
moyenne, et l'abscisse représenterait le pourcentage de la population de
la taille considérée.
On constate donc que dans un phénomène
obéissant aux lois de Gauss, un nombre important d'occurrences du
phénomène se concentrent autour de sa valeur moyenne, et que plus on
s'éloigne de la moyenne, plus la probabilité de rencontrer une
occurrence du phénomène mesuré diminue rapidement.
C'est ce
phénomène que les néo-financiers de l'après guerre ont cru pouvoir
identifier dans de nombreuses séries de variations de cours sur divers
marchés. Ils en ont déduit que nombre de phénomènes économiques devaient
suivre des lois normales.
Malheureusement, lorsque les premiers
théoriciens de la finance gaussienne produisirent leurs formules et
modèles, dans les années 50 et 60, ni les séries statistiques longues
qui auraient permis de vérifier empiriquement la validité de ces lois,
ni la puissance de traitement informatique qu'il faut pour les analyser,
n'existaient. D'autre part, les 30 glorieuses (enfin, les 25
glorieuses, 1946-1970) furent une période relativement pauvre en
événements "extrêmes" au plan économique. Résultat: la loi de Gauss
semblait marcher relativement bien dans les situations économiques
"ordinaires". Certains crurent donc pouvoir affirmer qu'elles étaient valides tout le temps.
Dès le début des années 60,
Benoit Mandelbrot contesta la
prééminence de la loi normale dans les phénomènes financiers. En effet,
selon lui, les lois normales tendent à sous estimer la probabilité
d'occurrences de phénomènes extrêmes par rapport à ce que l'on observe
dans le monde réel. Ainsi, les variations brutales de cours d'une
action, ou d'un marché entier, d'un secteur, qui devraient être d'une
certaine rareté dans une loi normale, sont beaucoup plus fréquentes dans
la réalité, même si cette fréquence reste "basse" par rapport aux
occurrences "ordinaires".
Bon, et alors, me direz vous, tout
ceci ne confine-t-il pas à la querelle d'hyper spécialistes dénuée
d'intérêt dans la vie réelle ? Hélas, cent fois hélas.
"Intérêt"
de la loi de Gauss en financeMandelbrot ne sera pas écouté,
et toute une théorie de la gestion des risques et de la valeur va
prendre racine sur la prémisse de l'économie "gaussienne".
Or,
la gestion du couple "valeur-risque", ou "rendement-risque", est tout à
fait centrale dans le monde financier, qu'il s'agisse de la banque ou de
l'assurance. Instinctivement, nous le savons, plus un investissement
rapporte, plus il est risqué. Mais nous savons aussi que certains
investissements, ou certaines stratégies d'investissement, présentent un
meilleur rapport risque/rentabilité que d'autres.
Inutile de
dire que les banques, lorsqu'elles constatèrent que les modèles issus de
la mathématique gaussienne semblaient applicables à la finance, se sont
jetées dessus dans l'espoir d'en tirer quelque avantage compétitif. Ce
mouvement, entamé dans les années 70, va connaître un développement
exponentiel dans les années 80 et suivantes.
Ces modèles ont
donc tenté de déterminer comment maximiser la valeur d'un portefeuille
en minimisant le risque. Or, la zone à risque correspond à l'occurrence
d'événements de probabilités faibles situés aux extrémités de la courbe
de Gauss. Les modèles financiers ont donc cherché à modéliser selon ces
lois les probabilités d'occurrence de ces événements extrêmes suivant
une loi de Gauss. Mais que se passe-t-il si le modèle sous-estime la
probabilité des situations à risque ?
Des hypothèses de base
contestablesNaturellement, les économistes ont tenté de
relier ces phénomènes mathématiques à des explications économiquement
rationnelles. C'est ainsi que certains d'entre eux, comme Eugene Fama,
ont montré que les modèles gaussiens étaient valides si deux hypothèses
se vérifiaient:
1) La première,
est la rationalité des acteurs économiques. Ceux ci tendraient, selon
Fama, à agir en "homo economicus" rationnels. Bien sûr, il existe des
rationalités variées, mais la "rationalité moyenne" d'une majorité
d'agents économiques suivrait elle même une loi normale et il serait
donc tout à fait... normal de modéliser les comportements des acteurs
économiques selon des lois de maximisation de l'intérêt économique des
acteurs.
2) La seconde est l'inclusion instantanée des
informations disponibles dans les prix. Les acteurs étant rationnels,
dès qu'ils sont en présence d'une information, ils valorisent cette
information, et quand bien même divers acteurs donnent à cette
information une valeur différente, là encore, ces valorisations suivront
une loi normale, et le marché, moyenne de ces valorisations, prendra
donc quasi instantanément en compte l'information dans le prix.
Seul
problème, ces deux hypothèses ne valent rien dans le monde réel.
Le
modèle ne colle pas au fait: triturons le modèle pour le faire coller !
Dès
que la puissance informatique fut disponible en quantité suffisante,
certains voulurent vérifier les assertions des modèles de Markovitz et
compagnie. Mandelbrot d'abord, puis d'autres, ont trouvé de nombreux
exemples où les événements "extrêmes" avaient eu une fréquence
supérieure à celle qu'aurait donné un calcul classique par loi normale.
Ainsi, les variations au jour le jour des cours de bourse ou des cours
des matières premières étaient bien plus souvent d'une amplitude
"importante" et "anormale" que ne l'aurait suggéré la loi dite normale.
D'autre
part, les hypothèses de marché parfait et d'homo economicus moyen
rationnel trouvent de nombreux contre-exemples historiques,
caractéristiques des périodes de bulles, où le "biais grégaire"
prédomine. J'ajouterai (remarque de VB) que Crozier, Friedberg et d'autres ont montré que les sources de
la rationalité étaient différentes selon les individus, que chacun avait
une rationalité qui lui était propre, laquelle dépendait à la fois de
ses capacités cognitives, de ses valeurs, et des valeurs des groupes
auxquels ils s'identifie. Et parler de "rationalité moyenne" n'a dans ce
contexte aucun sens.
Enfin, de tout temps, les spéculateurs ont
prospéré sur l'écart de temps entre la prise en compte correcte de
toutes les informations disponibles sur un marché, et la formation des
dits prix. Ce temps d'intégration peut être fort long. L'hypothèse
d'intégration quasi instantanée de l'information dans les prix est donc,
du point de vue de ce qui est observable, infondée.
Bref, il
existe nombre de constats empiriques de l'inadéquation des hypothèses du
modèle gaussien normal aux faits tels qu'ils se produisent dans le
monde financier réel.
Toute ressemblance avec la science
climatique... etc.Les modèles étaient séduisants
théoriquement mais faux empiriquement. Les tenants de ces modèles, au
lieu de les remettre en cause, les ont "bricolés" pour les "adapter" aux
faits. Ils ont donc trouvé des justifications à l'application de ces
modèles en rajoutant aux extrémités de la courbe de gausse un
coefficient - Poétiquement dénommé "
Kurtosis" - capable
d'expliquer une certaine volatilité des occurrences d'événements
extrêmes.
Notons ici l'inversion classique hélas trop fréquente
en science, la confusion du modèle et du phénomène. Parce qu'une
fonction mathématique semble décrire à peu près correctement un ensemble
de phénomènes, la fonction mathématique se substitue à la compréhension
du phénomène sous-jacent pour tenter de déduire les évolutions
probables de phénomènes trop complexes pour être modélisables.
"
Le
modèle initial ne colle pas aux faits ? Bricolons la mathématiques sous
jacente pour qu'il colle, et nous aurons un modèle qui validera la loi
de base". Mais ce n'est pas au modèle de valider la loi, mais à la loi
de fonder le modèle.
Pourtant, même des tenants initiaux de ces
modèles s'en sont écartés. Eugène Fama, l'un des plus connus, a écrit
avec un confrère, Kenneth French (
leur blog) un article reconnaissant que certaines de leurs
hypothèses de base étaient fausses. Trop tard !
Deux autres
tenants de ces modèles, Merton et Scholes (
non, ce ne sont pas les
attaquants de Manchester United !), se sont illustrés en 1998 -
peu
après l'obtention d'un prix Nobel pour leurs théories ! - en
provoquant une faillite retentissante de plus de 10 milliards de $, avec
un "risque systémique" estimé à plus de 100 milliards, celle de leur
fonds LTCM, dont la gestion était basée sur leurs modèles de
valorisation rendement-risque issus de la loi normale "modifiée sur les
bords". Cela aurait dû tout de même mettre la puce à l'oreille de la
communauté économique et financière. Rien, nada.
Bien que les
travaux de Mandelbrot, père des fractales qui ont rendu possible
l'émergence de nombreuses applications informatiques (3D, simulation,
réalité augmentée, etc...), qui a décliné ses recherches dans le domaine
de la finance, commencent à être reconnus, ils n'en ont pas moins resté
ignorés de la plus grande part de la communauté économique, qui en est
resté à la loi normale.
Lois de ZipfSelon le
constat empirique de Mandelbrot, les marchés financiers obéissent non
pas à des lois de Gauss, mais à des lois de Zipf. Ces lois, également
appelées lois de puissance, s'écrivent sous leur forme la plus simple
simple y=ax^k (k<0, hyperbolique), ou encore se représentent par une
droite sous une échelle Logarithmique. Il existe des formes un peu plus
complexes des lois de Mandelbrot, mais restons en à ces représentations
simples.

Un exemple de loi de Zipf très connu est la loi de
Pareto, dite des 80/20. Un exemple: Pareto constate que dans de
nombreux pays, 80% des ménages disposent de 20% du patrimoine, et 20% en
possèdent 80%. Et parmi les 20% les plus riches, 20% possèdent 80% de
la richesse totale des plus riches, soit 4% qui possèdent 64%, et ainsi
de suite. Pas très égalitaire, mais Pareto ne fait que des constats.
Naturellement, une loi de puissance peut être de type 90/10, 75/25,
etc...
De nombreux phénomènes obéissent à des lois de Zipf.
Ainsi, la distribution des chiffres d'affaires des sociétés de logiciel,
ou encore la fréquentation des sites web (voir cet article du gourou du
web Jakob Nielsen, ou celui ci par Jason Kottke. Ce sont mes années veblog.com
qui ressurgissent...) obéissent à une loi de Zipf.
Ces lois
ont deux caractéristiques essentielles :
1) elles accordent aux événements extrêmes,
ceux qui sont porteurs de risques ou au contraire d'opportunités
heureuses ("risque positif", en quelque sorte), des probabilités très
supérieures à celles calculées selon la loi normale. Dans une
distribution de Zipf, la vitesse de diminution des probabilités d'un
événement est constante, alors qu'elle est considérablement croissante
dans une loi normale.
2) dans une loi de puissance, la
"moyenne", si elle existe arithmétiquement, n'a aucun sens du point de
vue de la réalité. Et donc, se baser sur un comportement "moyen" pour
déduire l'avenir est non seulement faux, mais terriblement risqué.
3)
elles ne peuvent absolument pas servir de base à des modèles "robustes"
fondés sur des notions d'"équilibre" : des variations infimes du
paramètre K peuvent conduire à des résultats très différents. Les lois
de Zipf sont donc le cauchemar absolu des modélisateurs: vous comprenez
pourquoi ils ne les aiment pas.
Du second point nait
une façon totalement différente d'envisager la gestion des risques. Les
assureurs le savent bien: si la distribution des hauteurs d'eau des
inondations moyennes constatées pour un cours d'eau va généralement
suivre une loi normale (fréquente dans les phénomènes physiques), la
distribution des coûts associés à ces hauteurs d'eau va plus
vraisemblablement suivre une loi de Zipf: l'inondation extrême, la plus
rare, coûtera incommensurablement plus que l'inondation "moyenne". Et
voilà pourquoi les modèles de gestion des risques des assureurs se
basent sur la mémoire des événements extrêmes et pas ceux des événements
"moyens", qui sont en l'occurrence d'aucune signification dans le monde
réel de l'assurance.
Le risque : gaussé !
Malheureusement,
en matière de gestion du risque financier, c'est la loi de Gauss qui
prédomine, et donc une sous-estimation patente de la probabilité des situations facteur de risque, ce que Taleb appel les "cygnes noirs". Et la crise
d'Août et Septembre 2008 ne fait qu'illustrer de façon éclatante cette
mauvaise prise en compte du risque.
Un an avant la faillite de
Lehman Brothers, lors du début de l'affaire Bear Stearns, certains
acteurs clé de la finance, comme le CFO de Goldman Sachs, un certain David
Viniar, se disent victimes d'événements jamais vus. Selon eux, la crise
qu'ils vivent était tout simplement imprévisible. Les variations de
cours observées ce jour là représentaient 25 fois l'écart type de la
variation des cours selon la loi normale (les mathématiciens parlent
d'événement "sigma 25", ce qui en terme gaussiens est d'une probabilité
infinitésimale: Un événement seulement "sigma 5" a, selon la loi
normale, une probabilité de se produire un jour sur 13 000 ans, et
"sigma 6", une fois en 4 millions d'années ! alors sigma 25, pensez donc
! "ça ne pouvait pas arriver !"
Quelques années auparavant,
Joseph Stiglitz avait estimé la probabilité de faillite de Fannie Mae et
Freddie Mac à moins d'une sur 500 000, voire moins d'une sur 3
millions: cinq ans plus tard, ces deux
entreprises sous statut protégé par l'état sont les
protagonistes du "sauvetage" le plus coûteux de l'histoire des USA, plus
de 300 milliards à ce jour, et sont à l'origine de la plus grave crise
financière qui soit.
C'est d'autant plus ironique que Stiglitz
avait été un des premiers à dénoncer l'absurdité de l'hypothèse de Fama
sur la capacité de prise en compte immédiate de l'information par les
prix de marché. Ses travaux sur ce domaine lui ont valu un prix Nobel.
Mais malgré cela il est resté accroché, pour ses prévisions, à des
variations autour de la loi normale.
Les techniques de
titrisation par tranche qui étaient censées réduire le risque
porté par les obligations à base de crédits "subprimes" et autres "ARM"
étaient fondées sur des hypothèses de survenance d'événements adverses
basés sur la loi normale. A la première bourrasque, le modèle a été
emporté comme un fétu de paille, alors que selon les modèles, la tempête
avait moins d'une chance sur des centaines de millions de se produire.
L'entreprise
non financière contaminée
Philippe Herlin montre également
longuement, dans ce qui est peut être le point le plus fort de son
livre, que les entreprises non financières ont été contaminées par la
finance gaussienne, pour le pire. En sous-estimant, lois normales
obligent, les niveaux de probabilité d'événements adverses, donc les
niveaux de risque auxquels s'exposent les entreprises, en fonction de la
structure d'endettement de leur bilan, les financiers et fonds qui
investissent dans des entreprises tendent à sur-valoriser les activités
risquées mais très rentables quand tout va bien (ils sous estiment la
prime de risque) et de ce fait à sous valoriser les activités
récurrentes de "fond de portefeuille", dont ils vont tenter de se
séparer.
Les dirigeants sont donc poussés par les actionnaires à
adopter à la fois des structures de bilan et des répartitions de
portefeuilles d'activité qui sur-exposent les entreprises aux aléas de
la conjoncture, tout en les poussant à maintenir des objectifs de
rentabilité des capitaux propres financièrement insoutenables sur le
long terme.
Les dégâts de l'application aveugle de ces modèles
gaussiens aux noms barbares (MEDAF, WACC...) sur l'économie "productive"
(celle de l'actif) et l'économie financière (celle du passif) sont
encore impossibles à évaluer dans leur totalité. Mais l'ouvrage de
Philippe Herlin passe en revue nombre de ces conséquences néfastes. Ces
modèles ont joué un rôle majeur dans l'établissement de cette économie de la dette
dont je voudrais tant qu'elle cédât la place à celle du capital... Je
reviendrai plus extensivement sur cette question dans les jours à venir.
Le régulateur contaminé
Le régulateur a
implicitement adopté les lois gaussiennes dans au moins deux pans
essentiels de la réglementation financière mondiale:
1- les modèles de valorisation des risques
utilisés pour évaluer les capitaux propres obligatoires dans les règles
de Bâle sont typiquement issus de raisonnements gaussiens.
2- les
modèles utilisés par les agences de notation, confortées par un
oligopole de nature réglementaire, sont gaussiens. Et voilà pourquoi les
agences de notation semblent réduire les notations des entreprises en
difficulté ou des états souverains après la guerre, quand il est trop
tard (pour être juste, les conflits d'intérêts internes à cette activité
jouent également un grand rôle dans le développement de cette bulle
d'incompétence des agences de rating, aux conséquences tellement
lourdes).
Ce faisant, le législateur a poussé nombre
d'entreprises financières à s'insérer coûte que coûte dans un modèle
gaussien de gestion de la valeur et des risques, et a donc contribué à
contaminer les entreprises non financières avec les mêmes outils de
prise de décision.
Les faiblesses du livreJe ne
vois à ce livre que trois faiblesses, secondaires compte tenu de la
richesse de ses apports, et de la qualité des références qu'il cite,
permettant à ceux que cela intéresse de multiples approfondissements sur
le sujet.
La première, marginale, est que sa critique du modèle
d'enregistrement des valeurs "mark to market" n'est pas accompagnée de
propositions de remplacement. J'ai moi même critiqué ce modèle, puis
laissé entendre -
je dois encore développer - que mes critiques
initiales étaient exagérées. Mais je bute sur la question
traditionnelle:"que faire à la place" ? Visiblement, M. Herlin aussi.
La
seconde, plus importante, est l'explication sociologiquement trop
"courte" du pourquoi du succès persistant de ces modèles faux malgré les
preuves répétées de leur incapacité à traiter correctement les
événements "aux limites". Le krach de 87, la réplique de 89, la faillite
des saving and loans, la crise asiatique, le krach de LTCM, celui des
Dot Com... Autant d'événements à la probabilité quasi nulle selon les
modèles gaussiens, qui se sont succédés à intervalles rapprochés, et qui
auraient dû conduire les utilisateurs des modèles à se poser les bonnes
questions. J'ai une ébauche d'explication, j'y reviendrai.
La
troisième faiblesse, liée d'ailleurs à la seconde, est qu'il semble favoriser une réforme de la finance qui imposerait de
nouvelles règles "mandelbrotiennes" à la place des règles gaussiennes
existantes, quand bien même il affirme justement que "plus de
régulation" ne résoudrait rien - Il propose de remplacer une
réglementation qu'il juge mauvaise par une autre qu'il juge meilleure.
Ce
serait à mon sens une demi-erreur. Certes, au premier abord, remplacer
des règles mauvaises par des règles apparemment plus réalistes fait
sens. Mais, d'une part, les lois de zipf, du fait de leurs très fortes
dépendances à de faibles variations paramétriques, ne sont pas des lois
d'équilibre stable, comme l'auteur le démontre. Elles obligent de fait à
se dégager de l'analyse purement mathématique de l'économie et à
revenir aux fondamentaux de l'analyse de la valeur des entreprises:
évaluation de la qualité du management, de la pertinence de la
stratégie, etc... Aucun domaine où la règle étatique puisse ne serait-ce
que donner l'illusion d'apporter une valeur ajoutée.
Et
surtout, rien ne prouve que les lois de Mandelbrot-Zipf s'appliquent
parfaitement au spectre de toutes les situations possibles. Il est
possible que ces lois décrivent parfaitement certaines situations et
plus mal d'autres, à l'instar de leurs consoeurs gaussiennes. L'auteur
le reconnait d'ailleurs lui même puisqu'il dresse un portrait robot des
activités économiques plutôt "gaussiennes" et de celles plutôt
"zipféennes". Dans ce cas, imposer un modèle de Zipf de façon
réglementaire peut aussi avoir des effets pervers insoupçonnés.
D'ailleurs,
imaginons que les modèles Mandelbrotiens deviennent la pensée dominante
de la finance, mais que certains trublions découvrent que dans des
situations aux limites du modèle, ils s'appliquent mal. Nul doute que la
sociologie des groupes mandelbrotiens serait la même que celle des
cliques gaussiennes: ils inventeraient leur propre équivalent du
"coefficient de Kurtosis" créé par les gaussiens pour justifier leurs
modèles envers et contre tout.
Dans ces conditions, on comprend
que l'état n'est pas fondé à dire quel modèle doit servir de support à
la réglementation. Une "sélection naturelle" des meilleurs modèles
serait souhaitable. Oui, mais...
La faillite, seul outil
efficace d'élimination des mauvais modèles
Revenons au
sauvetage des caisses d'épargne américaines, puis à celui de LTCM ou
encore
celui d'AIG. Si, pour les
caisses, les faillites du modèle mathématiques gaussien n'apparaissent
pas forcément clairement comme un facteur essentiel de leur infortune
(cf.
cet article sur l'histoire de la réglementation bancaire US),
cette faillite est en revanche évidente dans le cas de LTCM ou d'AIG.
Dans les deux cas, le "risque systémique" a été invoqué pour justifier
l'appel au contribuable américain pour sauver les créanciers de ces
entreprises en faillite.
Mais alors, pourquoi se priver
d'utiliser les modèles gaussiens, malgré les logiques court-termistes
qu'ils induisent, puisque leurs plus grands profiteurs en période faste
verront les conséquences de leurs défaillances absorbées par l'état ?
Pourquoi, dans un monde où les premiers de la course touchent les
meilleures primes, se priver de traverser l'Atlantique dans un catamaran
instable mais rapide plutôt que dans un monocoque rassurant mais lent,
si vous êtes à peu près certain qu'en cas de malheur, l'hélicoptère de
l'oncle Sam ou son cousin européen viendront vous tirer de la noyade, à
leurs frais ?
Certes, les gens ne sont pas heureux de faire
faillite, surtout les salariés des entreprises financières défaillantes,
mais si les dirigeants peuvent se garantir quelques années de gros
bonus, puis voir leurs privilèges sauvés par le contribuable quand la
tempête se déclare et menace d'emporter leurs frêles esquifs, pourquoi
perdre du temps et de l'énergie à étudier les failles des modèles qui
vous poussent à sous estimer le risque ?
La société du risque subventionnéIl me
semble que le principal coupable dans la perpétuation de l'erreur
gaussienne collective soit la culture du "sauvetage", pratiquée par tous
les gouvernements envers nombre d'entreprises emblématiques depuis les
années 70: Chrysler, GM, les caisses d'épargne, LTCM, et maintenant les
grandes banques... En Europe aussi, les grandes institutions financières
ont intégré une culture du sauvetage public.
Si les entreprises
financières en faillite, leurs actionnaires et leurs créanciers,
avaient dû assumer jusqu'au dernier sou les conséquences de l'incurie de
leurs modèles de gestion du risque, nul doute qu'ils auraient été
pressés d'en analyser les failles les plus criantes, et que les voix
dissidentes des disciples de Mandelbrot se seraient fait mieux entendre.
Et nous n'en serions pas sans doute aujourd'hui là où nous en sommes.
Une
gestion ordonnée et rigoureuse des faillites est de loin le meilleur
moyen de réguler l'économie et de l'expurger de ses intervenants
trop peu performants, ou trop exposés au risque.
Si les formules
des Markovitz, Sharpe, Scholes and co, n'avaient pas existé, la culture
du bailout, de la privatisation des profits et de la socialisation des
pertes,
qui constitue en fait une véritable subvention publique à la
prise de risque, aurait poussé tout de même le monde de la finance à
trouver d'autres outils justifiant l'adoption de leur modèle à haut
risque. La finance gaussienne n'est pas la cause primaire du marasme
financier, elle n'est "que" l'arme de destruction massive choisie par
ses acteurs parce que le risque est subventionné.
Nos malheurs
sont d'abord ceux d'une société où
la privatisation des gains et la
collectivisation des pertes est devenue... la loi normale des affaires !
Bref, "Finance, le nouveau paradigme" est un ouvrage hautement recommandable.
-------
Sur Amazon:
Philippe HERLIN,
"Finance - Le nouveau paradigme"- Ed. Eyrolles, 205p. - Avril
2010-------------
Autres lectures :Felix
Salmon, "the formula that
killed wall street" (and your 401k), article séminal sur
la crise financière, début 2009.
Le site de Nassim Taleb
-------------
Les commentaires récents