›  Interview 

Elie Ayache : « Le trading des produits dérivés n’a rien à voir avec les distributions de probabilité »

Il fut un des premiers traders de volatilité sur le matif ! Fondateur d’ITO33 et ancien responsable de la recherche à Dexia AM, Elie Ayache nous livre sa réflexion sur les Marchés dérivés qu’il définit comme la technologie du futur...

Article aussi disponible en : English EN | français FR

Vous étiez à la fin des années 80, un des premiers traders d’options sur le Matif, quel souvenir en gardez vous ?

J’en garde beaucoup plus qu’un souvenir, car la pensée ne m’en a jamais quitté. Pour moi, l’expérience du trading d’options sur le pit est le véritable commencement de la réflexion sur les marchés. Elle en est à la fois le commencement et la finalité, puisque le but de ma réflexion et de toute mon entreprise reste, à ce jour, de livrer des outils pour les traders d’options et pour les arbitragistes de volatilité, et non pas de théoriser. Tout part du marché, et tout doit revenir au marché.

Le marché des produits dérivés fait appel à une logique inédite, différente de celle de la théorie. Pour nécessaire que soit la théorie - elle est en effet requise pour associer aux prix de marché des produits dérivés la règle d’action pour les couvrir (les hedger) et pour garantir, par ailleurs, que la famille de prix que l’on génère est exempte d’arbitrage -, elle ne constitue qu’une partie de la logique complète du marché des produits dérivés.

En effet, ce que j’appelle l’« épisode théorique » se réduit à l’inférence suivante : Si le processus stochastique du sous-jacent est celui-ci, alors la valeur théorique du produit dérivé est celle-là. Dans cette dérivation théorique, se dépensent tous les efforts des analystes quantitatifs - les fameux quants - et des auteurs qui ont donné leurs noms successifs aux modèles successifs de la littérature, ainsi que les résultats de tous les papiers publiés en théorie de pricing des produits dérivés. Par définition, aucun des acteurs engagés dans cette activité de théorisation et de dérivation n’est capable d’accéder à la logique complète du marché des produits dérivés qui s’exprime, quant à elle, à travers les vérités suivantes :

  1. Les paramètres du processus stochastique sont toujours calibrés contre des prix de marché de produits dérivés, ce qui veut dire - en poussant la logique là où le théoricien est incapable de la pousser - que ces paramètres deviennent stochastiques en vertu de la recalibration.
  2. Le modèle théorique est calibré aux prix liquides de certains produits dérivés dans le but d’évaluer un produit moins liquide, par exemple une option exotique. Or, ce produit nouveau et exotique n’est ainsi évalué que dans le but d’être traité à son tour par son propre trader, dans son propre marché. A mesure qu’il devient liquide, il acquiert son autonomie et s’écarte de la valeur théorique dictée par le modèle. Il devient lui-même une référence de marché. Par exemple, les puts en dehors de la monnaie sont devenus tellement liquides, suite au krach de 1987, que leurs prix ne s’accordent plus aujourd’hui avec le modèle de Black-Scholes, qui prévoit une volatilité implicite unique pour toutes les options. Les options barrière sont devenues tellement liquides dans les marchés de change que leurs prix ne s’accordent plus avec aucun modèle de volatilité stochastique calibré uniquement aux vanilles. Les swaps de variance sont devenus tellement liquides sur les sous-jacents d’indices d’actions que leurs prix ne s’accordent plus avec la formule de réplication statique à base de vanilles.

Ces deux vérités, ou axiomes, reviennent à reconnaître au marché la première place, celle du commencement et de la finalité de tout outil de pricing (je ne dis plus « modèle »). Au commencement est (toujours) le marché, et ainsi la recalibration aux prix de marché rend le modèle stochastique. Et à la fin est (toujours) le marché, et ainsi la valeur théorique du produit dérivé devient un prix de marché et s’échappe du modèle. (Ce prix devient à son tour une donnée de calibration, et les deux axiomes bouclent ainsi l’un sur l’autre.) Cela ne sert à rien de généraliser la théorie afin d’y intégrer cet « effet pervers », ou cette « ironie » [1] , du marché ; car le problème se posera au niveau suivant.

Cette logique inédite déborde le cadre de la théorie. Elle est spécifique au marché, et s’il faut faire plaisir aux amateurs de formalisme, ma suggestion sera simplement de définir le marché comme étant cette nouvelle logique. Lorsque j’ai personnellement franchi ce dernier pas, cela a eu pour effet de libérer ma réflexion. Désormais, je ne pense plus au marché qu’en termes de cette logique première [2] .

Ma position est un peu radicale, j’en conviens, et elle est adaptée au trader market-maker de produits dérivés, en immersion totale dans son marché, plutôt qu’à l’observateur extérieur, ou économétricien, qui cherche à « mesurer » la distribution de probabilité du sous-jacent (on ne sait par quel biais ou par quel phénomène). En effet, rares sont ceux, parmi les market-makers, qui ne voudraient pas calibrer leur outil de pricing aux prix de référence, ou qui ne voudraient pas admettre que l’outil en question leur sert, en fin de compte, à se replonger dans le marché afin d’y traiter le produit dérivé qu’ils viennent d’évaluer.

Comme leur nom l’indique, ces « faiseurs de marché » sont situés au cœur de l’événement du marché. Ils sont les principaux utilisateurs de l’outil de pricing et pourtant, par l’acte délibéré de recalibration préalable et par l’acte délibéré de trading subséquent, ils contredisent l’hypothèse de fixité de la distribution de probabilité qui fonde leur modèle. Ils déplacent perpétuellement leur modèle. C’est pourquoi je maintiens que le trading de produits dérivés (au sens fort de cette immersion et de ce déplacement) n’a rien à voir avec les distributions de probabilité ! Le trader situé au cœur du marché ne peut pas être jugé par le canon du « hasard » (ainsi que le suggère Nassim Taleb [3] ) et on ne peut pas lui appliquer de « processus stochastique ». Son domaine, qui est le domaine du marché, est précisément celui qui déborde tout processus stochastique ! Et c’est également pourquoi tout le débat concernant la « vraie » distribution de probabilité du marché - savoir si les événements extrêmes y sont moins rares qu’on le pense, ou si elle est invariante d’échelle, ou si le processus de la volatilité est auto-corrélé, etc. -, pour intéressant qu’il soit du point de vue économétrique, tombe à côté de la logique de trading de produits dérivés [4] .

Pour moi, les probabilités ne sont qu’un intermédiaire, ou épisode, de calcul. Elles servent à calculer momentanément un ratio de couverture, et à assurer momentanément le non arbitrage. (Et je ne parle pas de la probabilité risque neutre, mais de l’entière supposition probabiliste.) A ceux qui maintiennent, malgré tout, que la probabilité est une théorie de la connaissance et de la prédiction et qui désirent, par conséquent, l’appliquer au marché jugé comme phénomène indéterministe, je propose d’inverser le problème. Voici mon challenge : Et si, au lieu d’être un objet pour la probabilité, le marché des produits dérivés était lui-même la nouvelle technologie censée remplacer, en matière de « prédiction du futur », l’entière catégorie de la probabilité et de la connaissance ? Une technologie nécessitant que le trader y soit dynamiquement embarqué et engagé, et non pas qu’il l’observe passivement. Littéralement, la technologie du futur [5].

Quelles ont été selon vous les plus importantes évolutions au cours de ces quinze dernières années sur les marchés financiers ?

N’attendez pas de moi que je réponde : l’avènement des bourses électroniques ou la titrisation du risque de crédit à travers les structures de type CDO (Collateralised Debt Obligations). Car je reste très attaché à mon expérience personnelle des marchés criés, or ceux-là perdent, à mon avis, une dimension humaine très importante (c’est-à-dire un spectre entier de possibilités et de capacités) lorsqu’ils deviennent électroniques [6] . Et je reste très attaché à la tradition issue de Black-Scholes, celle de la réplication dynamique (parfaite, ou à défaut, optimale) du produit dérivé que l’on cherche à évaluer, or je ne vois toujours pas comment on peut évaluer un CDO en ce sens-là.

Je vous répondrai donc par le petit bout de ma lorgnette, ou du cœur de mon problème, et je rechercherai, en matière d’évolution du marché financier, celle qui va dans le sens de l’éclaircie de la logique mise à jour plus haut. C’est-à-dire que je retiendrai toute évolution qui va dans le sens de l’instauration du marché des produits dérivés comme technologie du futur.

Or, ce que j’ai énoncé plus haut comme les éléments de cette technologie qui vient à la fois remplacer la prédiction et l’inférence statistique, à savoir la calibration répétée aux prix de marché des produits dérivés, et la reprise en main, par le marché, du nouveau produit dérivé que l’on vient d’évaluer, n’a trouvé à s’illustrer, à ce jour, que dans le seul concept de volatilité implicite. C’est-à-dire que la manière dont le marché s’est saisi de la formule de Black-Scholes pour inférer la volatilité à partir du prix unique d’une option (au lieu de l’estimer à partir d’une série de prix du sous-jacent) et pour traiter la volatilité comme un actif négociable (au lieu que le modèle théorique supposait qu’elle était constante) reste, à mes yeux, l’évolution technologique à ce jour la plus importante. Sauf que je ne répondrai pas à votre question en vous disant cela, car la volatilité implicite date de bien plus que quinze ans.

Dans le même sens, vous comprendrez que les tentatives qui ont été menées, au cours des quinze dernières années, pour généraliser le concept de volatilité implicite, c’est-à-dire précisément les modèles de smile, ont marqué une régression par rapport à la volatilité implicite, plutôt qu’une réelle évolution. Car, au lieu que le phénomène du smile ne soit reçu comme la nécessité d’upgrader le modèle à de nouveaux facteurs de risque (volatilité stochastique, sauts sur le sous-jacent) et de généraliser la couverture dynamique au-delà du seul sous-jacent, l’usage a consisté à noyer cet important signal dans l’inhomogénéité des modèles, et à rendre le coefficient de diffusion dépendant du prix du sous-jacent et du temps !

Le modèle de volatilité locale a ainsi bloqué toute velléité de calibration à d’autres options que les vanilles, ce qui a eu pour conséquence que ni la recalibration ni la marchéisation du facteur de risque correspondant (ces deux vertus essentielles de la volatilité implicite) n’ont pu être exploitées au niveau suivant. Et je ne parle pas des modèles de taux où les solutions retenues sont bien pires qu’inhomogènes, puisqu’elles ne sont même pas markoviennes et que les coefficients de diffusion y dépendent de tout le chemin suivi !

L’évolution importante, si elle doit avoir lieu, devra donc être un retour vers la principale vertu du modèle de Black-Scholes, à savoir l’homogénéité, et vers la compréhension du sens véritable de la volatilité implicite [7] .

Mais vous parliez d’évolution dans le marché et non pas dans la tête des modélisateurs. Il se trouve que le marché en a récemment produit une, à mon avis, très importante (devançant ainsi, comme toujours, l’effort de conceptualisation). C’est le swap de variance. Avec cet instrument, la volatilité, ou la variance, est enfin reconnue comme un actif échangeable (alors que ce n’était que par accident, ou par ironie, que la volatilité était devenue une variable de marché dans Black-Scholes). Qui plus est, le swap de variance est lui-même un instrument homogène ! Et les temps ne sont pas loin où les surfaces de volatilité implicite de swaps de variance, de maturité différentes et de date de départ différentes, seront la référence pour la calibration de modèles de sauts et de volatilité stochastique, qui seront alors naturellement homogènes [8] .

Vous étiez responsable de la recherche à Dexia AM, qu’est ce qui vous a poussé à quitter vos fonctions et créer ITO 33 ?

A l’époque (fin 1998), c’était mon sentiment que le problème du pricing des produits dérivés devait être attaqué comme un problème d’ingénieur, et finir par donner lieu à une solution industrielle. Or, ni l’une ni l’autre de ces perspectives ne sont disponibles dans un environnement comme celui de Dexia AM, ou tout autre environnement bancaire. En tout cas, pas durablement.

Les équipes de quants oeuvrant dans les « grandes maisons » ne disposent ni du temps ni de la profondeur nécessaires pour mener à bien un tel projet technologique. Leur mission consiste essentiellement à résoudre vite, et au cas par cas, des problèmes de pricing plus ou moins complexes, pour le compte des desks de structuration. Ces derniers prendront de toutes façons une marge suffisante sur le prix du produit structuré complexe qu’ils proposent à leur client, et ainsi ils couvriront (c’est le mot !) les incertitudes du pricing. J’exagère à peine si je dis que tout problème de pricing résolu par un quant dans une banque se limite à la feuille Excel qu’il finit par remettre à son trader, et qu’il est « perdu » aussitôt qu’une nouvelle feuille Excel remplace la précédente, ou qu’un nouveau quant remplace le précédent. (Notez que Dexia AM n’est toujours pas client d’ITO 33.)

Cette disparité des modèles et des solutions est encore plus exacerbée aujourd’hui par l’offre de certains vendeurs qui proposent des librairies de pricing toutes faites. Leur avantage présumé est d’épargner au quant la peine de réécrire son simulateur de Monte Carlo, ou sa grille de différences finies, chaque fois qu’il s’attache à évaluer un nouveau payoff. La vitrine de ces vendeurs est typiquement composée d’une liste - on l’imagine la plus longue possible - de payoffs couverts par leurs librairies, et d’une liste parallèle de modèles théoriques, qu’ils espèrent la plus « complète » possible. La séduction peut même être poussée jusqu’à proposer au quant un moteur de pricing générique et un langage symbolique décrivant des événements élémentaires (coupon, strike, barrière, règle de reset, etc.) afin qu’il structure lui-même le payoff désiré.

Personnellement, je pense que cette petite industrie de librairies de pricing (ou pricing add-ins, ou pricing analytics) ne fait que multiplier les « épisodes théoriques » sans faire aucun pas significatif vers la solution du problème complet du pricing des produits dérivés, dont la logique a été décrite plus haut. (Ces librairies sont parfaites comme complément didactique sur les produits dérivés, et, la démarche de l’INRIA, ainsi que l’explique Agnès Sulem dans l’interview qu’elle vous a accordée, me semble être, à ce titre, celle qui exprime avec le plus d’honnêteté à la fois l’horizon et la limitation de ce genre de programme : « Le but de Premia, dit-elle, n’est pas d’implémenter tous les nouveaux modèles dès qu’ils apparaissent mais de produire des implémentations de référence. »)

De résoudre le payoff le plus complexe contre le modèle théorique le plus complexe, de calculer toutes sortes de grecques et toutes sortes d’hypercubes de scénarios de stress, relève purement du domaine des mathématiques appliquées et de l’analyse numérique. Là, je ne doute pas que de grands progrès peuvent être accomplis et de belles implémentations faire référence. Mais la technologie de pricing des produits dérivés est une chose différente. Pour être effective entre les mains du trader, elle doit s’adapter à la logique complète du marché des produits dérivés, ainsi que je l’ai identifiée plus haut.

La vérité du pricing ne réside dans aucun modèle particulier, et encore moins dans une liste de modèles disparates. Car la logique complète du marché consiste, nous l’avons vu, à défaire précisément tout modèle. Ce que j’appelle un moteur de pricing adapté doit s’attaquer aux deux problèmes primordiaux de la recalibration et de l’expansion de l’univers de calibration, tels qu’ils s’expriment dans les deux axiomes ci-dessus. C’est cette technologie-là que nous mettons au point à ITO 33. En tant que technologie du futur, elle nécessite un temps de développement qui dépasse la durée de vie d’une équipe de quants et une foule d’avancées numériques et mathématiques qui convergent toutes vers le même objectif. Mon analogie favorite est la technologie spatiale, où il a fallu, par exemple, sept années entières à Grumman Engineering (1962-69) pour mettre au point le module lunaire.

A travers de nombreux articles, vous abordez la problématique du smile et sa dynamique. Où en est la recherche quantitative sur le sujet ?

Vous vous exprimez comme si la problématique du smile et de sa dynamique étaient deux choses séparées. En réalité, tout modèle de smile, c’est-à-dire tout modèle susceptible d’expliquer instantanément les prix de marché des produits dérivés jugés liquides, doit être un modèle de la dynamique du sous-jacent s’il doit prévenir les opportunités d’arbitrage (ce qui exclut les modèles de déformation phénoménologique de la surface de volatilité implicite, ainsi que l’approche dite de « mixture de modèles » ou d’« ensemble de modèles »), et en tant que tel, il est un modèle de la dynamique du smile.

La distinction entre problème du smile et problème de sa dynamique n’est due qu’à un accident de l’histoire qui donne aujourd’hui l’impression que l’on découvre, avec la dynamique du smile, un problème nouveau et excitant, alors qu’il s’agit du même vieux problème depuis le début : celui du smile, ou, plus simplement, celui du pricing des produits dérivés en dehors de Black-Scholes. Cet accident de l’histoire est le modèle de volatilité locale (1994).

En raison de sa capacité de matcher exactement, sous sa forme non paramétrique, toute surface de volatilité implicite de vanilles, le modèle de volatilité locale a longtemps été considéré comme le modèle de smile ultime qui aurait pu offrir entière satisfaction si son implémentation pratique n’avait pas été « marginalement » entravée par le problème d’interpolation/extrapolation, exemptes d’arbitrage, des données manquantes de la surface de volatilité implicite et par le problème d’instabilité numérique. Pendant une dizaine d’années, les efforts des mathématiciens appliqués, des calculateurs interpolateurs, des optimisateurs et autres spécialistes des problèmes mal posés, se sont concentrés sur cette marge du problème, quand, de l’autre côté, le mécontentement des traders allait grandissant au sujet d’un modèle qui ne donnait pas les bons ratios de couverture pour les options - à commencer par les vanilles ! - et ne parvenait pas à expliquer les prix de marché des options barrière ou des options à départ différé (forward start). Deux défauts autrement plus sérieux, bien entendu !

C’est ainsi que la communauté quantitative a découvert le problème de la dynamique du smile et a fini par réaliser ce qui était évident, à savoir que celle-ci est dépendante du modèle dynamique choisi ! Seuls sont observables les prix de marché instantanés. Quant à leur dynamique, elle ne peut que faire l’objet d’une hypothèse, et donc découler d’un modèle. Des modèles différents peuvent matcher le même smile actuel, mais le smile forward dépendra du modèle et sera donc différent.

Cela dit, les prix observés instantanément peuvent contenir une information assez riche et assez fine sur la dynamique candidate, pourvu que l’on s’intéresse à des produits dérivés de structure assez variée. Personne n’a jamais dit que les options vanilles devaient être la référence ultime en matière de smile ! Là encore, cet attachement aux vanilles est une survivance du fameux accident de l’histoire de la volatilité locale (sans parler que le mot « smile » fait implicitement référence aux vanilles). En raison de l’inhomogénéité de sa forme non paramétrique, la volatilité locale est, en effet, taillée sur mesure pour matcher la structure de prix des vanilles, lesquelles sont justement « locales » et inhomogènes en raison de leurs strikes. Mais ce faisant, la volatilité locale s’est privée de l’information contenue dans les prix de marché des options barrière ou des forward starts, ou d’autres structures path-dependent comme les variance swaps. (Il faut dire que la formule de Dupire a consacré cet état de fait.) Or, les prix de marché des structures exotiques ou path-dependent contiennent précisément l’information « manquante » sur la dynamique du smile :
a) de manière triviale, si, par « dynamique du smile », on entend justement la différence que cela fait pour les prix des options exotiques ;
b) de manière effective, si le but est de déterminer les ratios de couverture des vanilles.

Au sein d’un modèle suffisamment flexible et robuste (et là, ma préférence va aux modèles homogènes qui possèdent un pouvoir explicatif que ne peut avoir un modèle « vide » comme la volatilité locale [9] ), il existe, en effet, une liaison étroite entre, par exemple, les prix des digitales américaines (ou one-touches) et les ratios de couverture des options vanilles. Et ainsi mon programme de recherche peut-il s’énoncer de la manière suivante :

  1. Adopter une dynamique homogène assez riche - c’est-à-dire incorporant au minimum des sauts du sous-jacent et de la volatilité stochastique - que je n’appellerai plus alors « modèle de smile ». Car elle aura pour vocation d’être calibrée aux prix de marché de toute structure, aussi exotique soit-elle, et pas seulement aux vanilles.
  2. Si une option exotique devient assez liquide pour échapper au modèle censé l’évaluer relativement aux instruments plus liquides, élargir l’univers de calibration et calibrer la dynamique au prix de marché de cette exotique.
  3. Espérer que la calibration aux prix de marché des instruments plus exotiques déterminera la dynamique de façon à produire, parmi plusieurs solutions possibles, la bonne stratégie de couverture des instruments moins exotiques. (Là se tient ma conjecture principale au sujet de la dynamique du smile.) Cela suppose évidemment qu’on se soit mis d’accord, au préalable, sur ce qu’on entend par « couverture » en présence de sauts et de volatilité stochastique.
  4. Défendre la calibration par la couverture. Cela veut dire que les options exotiques, contre lesquelles on calibre et qui sont censées déterminer la « bonne stratégie de couverture » des options moins exotiques, seront elles-mêmes utilisées dans la stratégie de couverture généralisée et qu’elles serviront alors, en plus du sous-jacent et des autres instruments basiques censés couvrir le produit dérivé dans des ratios biens spécifiques, à « couvrir » cette couverture et à « assurer » ces ratios.

Pour résumer :

La dynamique du smile ne fait vraiment une différence que lorsqu’on constate que certains prix d’exotiques ne sont pas matchés. Ma suggestion est alors de calibrer le modèle à ces prix d’exotiques. Comme je ne fais pas de différence entre vanilles et exotiques, cela revient simplement à dire que l’on calibre le modèle de smile à « ce qu’il faut ».

La dynamique du smile fait également une différence pour la stratégie dynamique de couverture de tout produit dérivé (par définition même de « dynamique » des prix). Or, la seule véritable dynamique est, ne l’oublions pas, celle de la recalibration, qui change les paramètres du modèle - et donc le modèle - tous les jours. On ne peut donc espérer démontrer qu’une couverture sera plus robuste qu’une autre, a priori. Force est de se rabattre sur le point précédent, d’assurer au minimum que les prix d’aujourd’hui des exotiques sont matchés, et d’espérer que les structures de prix des options plus exotiques bougeront relativement moins, au cours de l’histoire réelle, que celles des options moins exotiques et qu’elles « ancreront » ainsi les stratégies de couverture de ces dernières, à travers les recalibrations successives. (Voilà ce qu’un étudiant ne pourra jamais apprendre dans un cours sur les produits dérivés, et ce qu’un professeur ne pourra jamais lui dire. Voilà l’espace propre où la technologie doit excéder la théorie.)

En définitive, le problème du smile et de sa dynamique ne peut se poser ou se résoudre que de manière relative, relativement à un contexte de calibration donné. Le tout est de disposer d’un outil de calibration/pricing/hedging qui puisse se maintenir à travers le changement des contextes et leur hiérarchie ascendante (et qui soit numériquement résoluble, bien entendu). Voilà la seule prescription que l’on peut énoncer a priori. Nous avons des raisons de penser, à ITO 33, que le modèle à changement de régimes est le candidat de choix.

ITO 33 a la réputation d’être un soft spécialisé sur les obligations convertibles, quels sont les autres points forts d’ITO 33 ?

C’est vrai que le pricing de l’obligation convertible nous a fourni la « couverture parfaite » le temps que nous ourdissions la révolution technologique que je vous annonce.

Toute plaisanterie mise à part, l’obligation convertible est parmi les plus complexes des produits structurés (elle allie les caractéristiques de l’option américaine, de l’option barrière, de l’option forward start, de l’option asiatique, de l’option parisienne, etc., et du dérivé du crédit), et c’est parce que nous avons tâché, depuis le début, de l’évaluer correctement, que nous avons été amenés à formuler le programme de calibration/pricing/hedging que je vous ai décrit et à développer les schémas numériques les plus performants et les routines de calibration les plus rapides.

Surtout, nous avons eu la chance, avec les convertibles, d’être confrontés aux clients les plus exigeants en matière de technologie des produits dérivés, à savoir les hedge funds (basés, pour la majorité, à New York et Londres) dont l’une des stratégies favorites était l’arbitrage de convertibles. Lorsque cette stratégie a décliné (en 2005), les hedge funds en question se sont naturellement tournés vers la stratégie plus générale d’arbitrage equity-to-credit, et ils ont alors accompagné l’évolution de notre produit, où les swaps de défaut (CDS) et les swaps de variance comptaient désormais parmi les instruments de référence, en plus des vanilles.

Les market-neutral hedge funds cherchent vraiment à extraire de la valeur de leurs modèles quantitatifs, et leur premier souci est la robustesse de la stratégie de couverture. En cela, ils sont différents des flow traders des desks bancaires qui « tournent » perpétuellement leurs portefeuilles. (Cela dit, une technologie comme celle que nous développons est vraiment conçue pour le market-maker, et l’idéal serait une situation où ce dernier génèrerait lui-même les prix d’exotiques contre lesquelles il calibrerait un modèle comme le nôtre, assurant ainsi à la fois la liquidité, la stabilité, et la cohérence de son opération. C’est pourquoi je prédis que les gros hedge funds deviendront des market-makers de produits dérivés.)

En résumé, le point fort d’ITO 33 est la capacité, à la fois technologique et intellectuelle, d’aborder le problème de pricing des produits dérivés dans sa seule dimension significative, celle qui commence et qui finit dans le marché. C’est non seulement un travail de pensée, mais de bouleversement de la tradition, et même de « destruction de la métaphysique » (pour reprendre les termes de Heidegger, philosophe du commencement de la pensée [10]). Je pense que cette pensée du marché, lorsqu’elle est spécifiquement conduite sous l’angle des produits dérivés, marque un réel commencement. C’est pourquoi je n’envisage pas seulement ITO 33 comme un éditeur de logiciels, mais comme un véritable think tank auquel je convie tout penseur interpellé par mon challenge.

F.Y , Janvier 2007

Article aussi disponible en : English EN | français FR

Notes

[1] Cf. Elie Ayache, “The Irony in the Variance Swaps”, Wilmott, September 2006 : 16-23.

[2] Cf. Elie Ayache, « L’événement du marché ou la nécessité de l’ascension méta-contextuelle », in Théorie quantique et sciences humaines, Michel Bitbol (éd.), Paris : Editions du CNRS, à paraître.

[3] Cf. Nassim Nicholas Taleb, Le Hasard sauvage : Des marchés boursiers à notre vie : le rôle caché de la chance, Carine Chichereau (trad.), Paris : Les Belles Lettres 2005.

[4] Cf. Elie Ayache, "Elie Ayache on Option Trading and Modeling", in Espen Gaarder Haug, Derivatives Models on Models, Wiley : February 2007.

[5] Cf. Elie Ayache, “Why 13 Can Only Succeed to 11, or, the End of Probability”, Wilmott, July 2006 : 30-38.

[6] Cf. Caitlin Zaloom, Out of the Pits : Traders and Technology from Chicago to London. Chicago : the University of Chicago Press, Fall 2006.

[7] Cf. Elie Ayache, “What Is Implied by Implied Volatility ?”, Wilmott, January 2006 : 28-35.

[8] Cf. Philippe Henrotte, “How Exotic Is the Variance Swap ?”, Wilmott, November 2006 : 24-26.

[9] Cf. Elie Ayache, “Dial 33 for your Local Cleaner”, Wilmott, January 2007.

[10] Cf. Richard Polt, The Emergency of Being (On Heidegger’s Contributions to Philosophy), Ithaca : Cornell University Press 2006.

Partager
Envoyer par courriel Email
Viadeo Viadeo

Focus

Interview Chloé Pruvot et Valentine Stichelbaut : « Nous avons renforcé la poche obligataire de notre allocation d’actifs au-delà de 80% »

Chloé Pruvot et Valentine Stichelbaut, respectivement Directrice des Investissements et experte ISR au sein du Groupe APICIL nous indiquent viser une allocation d’actifs 100% ESG.

© Next Finance 2006 - 2024 - Tous droits réservés