Les pièges de l’optimisation ou tout ce que vous avez toujours voulu savoir sur l’allocation d’actifs quantitative, en trois étapes clés

Selon Henri Chabadel, directeur des Solutions d’Investissement chez Groupama AM, le choix de l’approche la plus adaptée à un investisseur dépend à la fois d’une vision du monde et des marchés, d’un ensemble d’objectifs à viser et de contraintes à respecter…

Le paradigme de Markowitz

Tout commence en 1952 lorsque Harry Markowitz découvre la formule qui permet, étant donné les rendements espérés, volatilités et corrélations des actifs, de construire les portefeuilles qui offrent le meilleur rendement espéré pour une volatilité donnée, ou la plus faible volatilité pour un rendement donné (optimisation dite en « moyenne-variance »).

Même sans parler d’optimisation, de nombreux concepts financiers reposent sur ce point de départ puisque la démonstration du CAPM [1] dans les années 60 suppose un monde idéal où tous les investisseurs optimisent la même fonction d’utilité. Il en résulte le beta, l’alpha, le ratio de Sharpe et même le benchmark (le portefeuille de marché, qui est l’allocation optimale d’équilibre).

Cependant, cette technique n’est pas exempte d’inconvénients :

  • Les résultats ont une sensibilité très forte aux rendements espérés, qui sont pourtant l’input le plus instable (quoi de plus difficile que la prévision des rendements futurs) au point que l’on parlera de portefeuilles ill-behaved.
  • Les prédictions du CAPM ne sont pas vérifiées, de nombreuses études montrant que même sur longue période, les rendements ne sont pas proportionnels au beta, voire sont inversés.

L’approche Black-Litterman

Pour résoudre le problème des rendements espérés, Fischer Black et Robert Litterman proposent en 1992 de considérer dans un premier temps que les rendements espérés sont ceux qui rendent le marché - ou le benchmark - optimal (approche dite d’équilibre).

Le gérant ou l’allocataire peut ensuite apporter sa valeur ajoutée en appliquant des vues, par exemple « je pense que l’actif x va surperformer l’actif y de 5% avec une probabilité 70% ». Le portefeuille optimal deviendrait alors (en l’absence de contraintes) une combinaison linéaire du benchmark et des vues (selon des proportions qui dépendent, entre autres, de l’amplitude et de la conviction des vues) : une formule matricielle permet de calculer les rendements implicites qui rendent optimal ce portefeuille, ce qui permet ensuite d’optimiser les portefeuilles contraints du monde réel.

Là encore, le modèle rencontre ses limites, notamment lors du quant crash de 2007 : le problème vient cette fois des corrélations « cachées » (quand trop de monde applique le même modèle et doit déboucler les mêmes positions en même temps, la liquidité disparaît et les corrélations explosent).

La gestion par les risques … ou faire du neuf avec du vieux

La gestion par les risques, également appelée smart beta est le nouveau concept à la mode depuis quelques années comme méthode agnostique de construction de portefeuilles ou de benchmarks « intelligents », avec des noms tels que equal weight, minimum variance, maximum diversification, risk parity …

Par exemple, le « minimum variance » capitalise sur l’échec du CAPM : puisque le risque ne paye pas, autant le minimiser. Cependant, le smart beta n’échappe pas au paradigme d’optimisation en moyenne-variance, il l’a juste adapté en reconnaissant les limites de l’estimation de certains inputs et en les remplaçant par des hypothèses arbitraires :

  • ainsi un portefeuille Equally weighted n’est autre que le portefeuille optimal au sens de Markowitz si tous les actifs ont même rendement espéré, volatilité, corrélation
  • de même, le Minimum volatility est le portefeuille optimal si tous les actifs ont même rendement espéré, et les covariances estimées à partir des historiques
  • le Maximum diversification est le portefeuille optimal si tous les actifs ont les mêmes ratios de Sharpe, et les corrélations estimées à partir des historiques
  • enfin le Risk parity est optimal si tous les actifs ont les mêmes ratios de Sharpe et corrélations, et les volatilités estimées à partir des historiques

En conclusion, aucune méthode n’est magique.

Ce sont des boîtes à outils dont il faut connaître les hypothèses et paris implicites, qui peuvent se révéler à l’usage avantages ou inconvénients selon leur pertinence ; le choix de l’approche la plus adaptée à un investisseur dépend à la fois d’une vision du monde et des marchés (d’où découlent des paris hiérarchisés) et d’un ensemble d’objectifs à viser et de contraintes à respecter. L’art de l’allocation réside dans l’assemblage des deux en un tout cohérent.

Henri Chabadel , Juin 2013

Notes

[1] CAPM : Capital Asset Pricing Model
En français : MEDAF (modèle d’évaluation des actifs financiers)

Partager
Envoyer par courriel Email
Viadeo Viadeo

Focus

Stratégie Révolution indicielle dans les Hedge funds

Une critique courante des modèles factoriels repose sur le fait qu’ils ne "répliquent que le bêta" - pas l’alpha pur que recherchent les allocataires. Cette critique est antérieure à l’appréciation des rotations factorielles. L’analyse d’Andrew Beer, dirigeant et co-fondateur de (...)

© Next Finance 2006 - 2024 - Tous droits réservés