Selon Bruno Mathis de SterWen et Jean Delahousse, consultant en web sémantique, toute institution exposée sur Lehman, disposant d’outils d’analyse-crédit aussi développés que possible, aurait détecté des signes avant-coureurs, dès leurs apparitions et disposé de près de quatre mois pour prendre des mesures de sauvegarde (netting de CDS, cessions de titres, suppression d’autorisation de crédit, etc..)
Article aussi disponible en : English | français
La crise financière, depuis 2008, illustre à quel point banquiers et investisseurs doivent avoir un dispositif d’analyse-crédit aussi développé que possible. Or, force est de constater, si l’on prend pour exemple Lehman [1], illustration emblématique du risque de crédit, que des signes avant-coureurs étaient apparus dès le printemps de cette année-là, avant que les banques se mettent à couper leurs lignes de crédit sur cette contrepartie, au cours de l’été, et que la faillite n’éclate au grand jour le 15 septembre. Toute institution exposée sur Lehman et qui aurait détecté un tel signe, dès son apparition, aurait ainsi disposé de près de quatre mois pour prendre des mesures de sauvegarde : suppression d’autorisation de crédit, cessions de titres, résiliations de contrat, conclusions de CDS [2], netting de positions, etc…
Toute institution exposée sur Lehman et qui aurait détecté un tel signe, dès son apparition, aurait ainsi disposé de près de quatre mois pour prendre des mesures de sauvegarde : suppression d’autorisation de crédit, cessions de titres, résiliations de contrat, conclusions de CDS, netting de positions, etc…Bruno MATHIS & Jean DELAHOUSSE
Lehman n’est pas le seul exemple. Les faillites d’Enron, fin 2001, de Parmalat, en 2003, et plus récemment, de MF Global [3] ont elles aussi été précédées de nombreux signes avant-coureurs.
Premier signe important, la révélation d’incohérences dans les chiffres publiés ou communiqués par une société, et donc l’existence d’un doute sur la sincérité de sa comptabilité, met indirectement en cause toute analyse qui aurait été conduite sur la seule base de données chiffrées.
Deuxième signe, la vente à découvert, marque de défiance caractérisée, postule que toute l’information utile n’a pas été rendue publique et n’est donc pas intégrée dans le cours de bourse. Ce signal est d’autant plus crédible que, selon une étude [4], le vendeur à découvert, tout en n’étant pas mieux informé, interprète mieux l’information disponible sur une société.
Bien entendu, l’exercice de style est facile à faire rétrospectivement [5]. Il n’empêche : l’irruption des médias sociaux, ces toutes dernières années, en faisant exploser le volume [6] et le nombre de sources d’information, a fondamentalement changé la donne. Rien de plus simple, aujourd’hui, que de tweeter depuis son téléphone mobile pendant une conférence d’analystes. Ajoutons que les réglementations nationales tendent à protéger davantage le « lanceur d’alerte », ou « whistleblower », la loi Dodd-Franck passée en 2010 aux Etats-Unis allant jusqu’à intéresser financièrement toute personne dont la dénonciation de faits délictueux au sein d’une entreprise conduirait à une sanction judiciaire [7] ; de telles dispositions améliorent encore la perspective de découvrir sur les médias numériques des alertes signalant une défaillance possible.
Encore faut-il faire précéder l’analyse du contenu d’une analyse de la source ; ainsi, selon la société Proxem, spécialiste du web sémantique, « L’analyse de la semaine du 14 septembre 2011 concernant une grande banque française montre que le tweet le plus (ré)émis associe systématiquement le nom de la banque à la chute de l’action et au terme ‘faillite’. Ces 600 tweets n’ont pas été écrits par des humains, mais réémis en boucle automatiquement par un bot (robot logiciel) qui gère une vingtaine de comptes Twitter. »
L’analyse de la semaine du 14 septembre 2011 concernant une grande banque française montre que le tweet le plus (ré)émis associe systématiquement le nom de la banque à la chute de l’action et au terme ‘faillite’. Ces 600 tweets n’ont pas été écrits par des humains, mais réémis en boucle automatiquement par un bot (robot logiciel) qui gère une vingtaine de comptes Twitter...Bruno MATHIS & Jean DELAHOUSSE
Pour la Direction des Risques d’un établissement financier, nourrir l’analyse-crédit à partir d’informations hétérogènes et non structurées est un véritable défi. Il s’agit de repérer, au sein du fatras de la blogosphère et de la twittosphère, des signes annonçant une défaillance, d’en identifier la source, d’en analyser le contenu, d’en vérifier la véracité et d’en valider l’enjeu, le tout dans un laps de temps le plus court possible, puisqu’il s’agit de prendre des mesures de sauvegarde avant que la rumeur soit prise en compte par le marché.
On commencera d’abord par définir la liste des contreparties qui feront l’objet d’un suivi sur la Toile. Il faut qu’elles aient de la notoriété, sans laquelle il n’y a ni « buzz » ni informations vérifiables, et qu’elles représentent un enjeu financier.
Une seconde étape du processus consiste à énumérer les types d’événement qu’on cherche à anticiper : on ne s’intéresse pas seulement à l’hypothèse d’une faillite, mais aussi à celle d’une chute soudaine de l’action, d’une publication de pertes exceptionnelles [8]…
Pour chaque type d’événement recherché, on dressera une liste des signaux annonciateurs possibles : mise en cause de la sincérité des comptes, démission d’un directeur financier, annonce de vente à découvert ou de conclusion d’un CDS… Certains signaux peuvent être indirects : par exemple, une hausse de la position emprunteuse sur un titre, publiée par un site d’information professionnel comme Data Explorers, trahit un mouvement de ventes à découvert, même si ces vendeurs ont choisi de ne pas rendre publiques leurs transactions ; d’autres signaux sont spécifiques à un secteur économique : ainsi, le retard de livraison de l’A380, en 2006, était-il un signal annonciateur d’une chute soudaine de l’action EADS. Pour chaque type de signal, on cherchera à identifier ses supports possibles de communication : sites d’information des régulateurs, presse spécialisée, blogs et forums financiers, réseaux sociaux, Twitter. S’il s’agit de commentaires écrits ou oraux, on précisera comment les signaux peuvent être exprimés dans chaque langue.
Il faut ensuite définir le périmètre des sources à surveiller, un exercice délicat : les institutions financières, les grandes entreprises et les Etats font l’objet de commentaires directs ou indirects par des centaines de milliers de sources ; les sources qui publient sur une cible donnée évoluent dans le temps, certaines s’éteignent ou deviennent moins pertinentes. De nouveaux blogueurs, de nouveaux médias spécialisés, de nouveaux fils de tweet apparaissent chaque jour et émettent des informations et commentaires sur les contreparties suivies ; enfin, quand un évènement se prépare, de nouvelles sources apparaissent, en particulier les « lanceurs d’alerte » : dans le cas de Lehman, le premier signal est révélé par une auditrice indépendante [9], sur son blog.
Une partie significative du travail, qui devra être automatisée, est de constamment chercher les nouvelles sources qui apparaissent pour une cible donnée, de les identifier, de les qualifier, et d’évaluer leur fiabilité. Diverses techniques peuvent être utilisées pour identifier ces sources ; en particulier, on peut automatiser la recherche dans les moteurs généralistes, pour voir si des sources se mettent à publier des informations portant les signaux recherchés. On peut ensuite, à partir d’une contrepartie faisant l’objet de signaux, chercher dans les réseaux sociaux, comme LinkedIn ou Facebook, des sources qui lui seraient liées, directement ou indirectement, et fourniraient des éléments qui corroboreraient, ou au contraire, invalideraient l’information. On organisera donc, sur la base d’un premier niveau d’identification assisté, à une gestion en continu de la liste des sources, sources généralistes susceptibles de parler de toutes les contreparties, ou sources très spécifiques pouvant apporter des informations sur une seule contrepartie.
La recherche des signaux dans les contenus émis par les sources doit être déléguée à des logiciels. Plusieurs types de logiciels peuvent être mis à contribution dans ce dispositif :
un logiciel de collecte (« crawl »), pour rapatrier le contenu rédactionnel des pages de blog appartenant à l’univers sélectionné.
un logiciel d’analyse de texte, aussi appelé de « text mining », pour chercher dans ce sous-ensemble une information explicite telle que « nous émettons des réserves sur les comptes publiés par la société X », « M. X est nommé directeur financier de la société Y en remplacement de M. Z », et ce, dans chacune des langues sélectionnées… Ce type de logiciel s’est déjà imposé dans certains secteurs, comme l’édition scientifique et juridique et les sciences de la vie.
Le couplage de technologies statistiques et linguistiques, pour détecter une augmentation du volume de messages à tonalité négative à propos d’une contrepartie suivie. Le graphique ci-dessous montre ainsi une « analyse de sentiment », sur un trimestre, sur Société Générale. Jusqu’à présent, cette technique est surtout exploitée dans le cadre de l’analyse d’image, ou d’eréputation.
un logiciel d’analyse de graphe, enfin, pour fouiller dans les réseaux sociaux et y détecter des évolutions de fonctions ou de relations entre personnes liées à des contreparties suivies.
Une fois les signaux identifiés, extraits et formalisés, il s’agit de les rapprocher des autres signaux détectés pour la même contrepartie et le même type d’événement prévisible, de les organiser temporellement, d’identifier leur source, et de leur attribuer un degré de pertinence. Il faut encore repérer les redondances, les signaux se répétant au gré de leur transmission de source en source.
C’est sur ces bases agrégées, constamment mises à jour, que des algorithmes basés sur des règles et de l’analyse statistique décideront de remonter auprès des responsables du suivi des risques des alertes sur telle ou telle contrepartie, en décrivant le contexte dans lequel elles sont levées.
La part de l’expertise humaine devient à ce stade prépondérante ; l’expert doit pouvoir répondre rapidement à plusieurs questions :
L’information sur un risque de défaillance de la contrepartie est-elle déjà connue et en cours de traitement ?
L’information émane-t-elle d’une source fiable et indépendante ou peut-elle être le produit d’une manipulation ?
L’information est-elle fondée sur assez de faits, vrais ou faux, et assez de sources pour que le risque sur la contrepartie soit pris au sérieux par le marché ?
L’information est-elle basée sur des faits réels, et si oui, porte-t-elle à conséquence sur la solidité financière de la contrepartie ?
En même temps que le mode opératoire, il faut définir une organisation.
Cette méthode requiert en effet des compétences variées, qui débordent de celles disponibles au sein d’une Direction des Risques aujourd’hui :
des spécialistes des médias numériques, pour définir et ajuster quotidiennement le périmètre et les techniques de la fouille ;
des linguistes, pour modéliser les différentes paraphrases d’un même concept, dans différentes langues ;
des analystes, pour traiter les alertes levées ;
des experts du renseignement, pour identifier l’origine d’informations fausses ou trompeuses ;
des chargés de communication, enfin, pour diffuser l’information, forcément sensible, auprès des personnes intéressées en interne.
En conclusion, en cet automne 2011 où la perception du risque de crédit n’a jamais été aussi vive, et alors que les outils traditionnels que sont les agences de rating et les modèles probabilistes ont montré leurs limites, toute grande institution financière doit s’intéresser à la fois au potentiel d’exploitation de l’information véhiculée par les médias numériques, et aux possibilités offertes par les technologies de traitement de ce matériau.
Bruno Mathis , Jean Delahousse , Février 2012
Article aussi disponible en : English | français
[1] Lehman Brothers était l’un des tous premiers brokers américains
[2] Le Credit Default Swap, ou CDS, est un instrument dérivé qui permet à celui qui l’achète de s’assurer contre un risque de défaut d’une contrepartie
[3] http://alphanow.thomsonreuters.com/...
[4] http://www.usc.edu/schools/business...
[5] Dans le cas de Lehman, de nombreux articles de presse prédisent, certes, dès le mois de mars 2008, que Lehman sera la prochaine victime, après Bear Stearns, mais cette opinion, répandue sans être consensuelle, reflète surtout l’analyse du modèle économique de la société (dépendant d’un fort effet de levier) et non pas un doute de la sincérité des informations qu’elle délivrait.
[6] On compte actuellement quelque 230 millions de tweets par jour.
[7] http://www.sec.gov/rules/final/2011...
[8] Comme UniCredit le 14 novembre 2008
[9] Nancy McKenna, le 23 mai 2008, sur http://retheauditors.com/2008/05/23...
Cette 3ème édition met en lumière l’évolution de la connaissance et de l’appétence des épargnants français pour les produits d’épargne responsable et mesure en parallèle les convictions et l’appropriation du sujet par les conseillers (...)
Fil d'actualité | |
Emplois & Stages | |
Formations |