Fany Declerck a rejoint TSE en septembre 2001 depuis l’Université de Lille suite à un visiting à la Bourse de Paris où elle avait pu discuter de son travail doctoral avec Bruno Biais qui l’a menée à Toulouse. Au sein du groupe de recherche Finance, elle travaille depuis sur de nombreux sujets et notamment sur le trading à haute fréquence, les obligations d’entreprises ou les dark pools, des systèmes d’échange opaques souvent utilisés par les investisseurs non informés. Elle nous parle de ses travaux.
Quand est apparu le Trading à Haute Fréquence ?
Les prémisses du Trading à Haute Fréquence sont apparus aux États-Unis en 1969. Trois étapes indispensables : à cette date la première plateforme de trading électronique est créée, en 1977 le premier algorithme de trading est écrit et enfin en 1987 le premier trader haute fréquence est branché sur le Nasdaq. Le phénomène s’est ensuite véritablement développé à partir des années 2000. En Europe ce n’est qu’à partir de 2007 que la pratique a vraiment décollée. Aujourd’hui il représente entre 1/3 et 2/3 des volumes échangés sur les marchés financiers. C’est un outil qui a pris énormément d’ampleur en un peu plus de dix ans et nous essayons d’en comprendre les effets. Alors que de nombreuses start-ups naissaient régulièrement lors des débuts du phénomène, on a assisté à une consolidation relativement forte de cette industrie ces dernières années.
Quel est l’impact de cette évolution financière ?
C’est un phénomène très complexe à analyser. La grande question que les économistes se posent concerne notamment la capacité, ou incapacité, du trading à haute fréquence à amener de la liquidité sur les marchés. Nous travaillons avec Bruno Biais et Sophie Moinas sur ce sujet à l’aide d’une immense base de données que nous avons réussi à obtenir auprès de l’Autorité des Marchés Financiers et qui regroupe toutes les transactions financières sur Euronext en 2010.
Nous commençons à avoir des résultats des calculs lancés sur ces 60 terabytes de données et il semble que les traders à haute fréquence aient un effet plutôt positif sur le marché dans la mesure où ils fournissent de la liquidité et ne sortent pas quand la volatilité des prix est plus forte. Leur vitesse leur permet de stabiliser le marché, c’est à dire vendre dès qu’une valeur augmente et acheter dès qu’une valeur baisse. Ce que nous montrons également est que les prop traders, ces traders qui achètent et vendent sur le marché pour eux-mêmes, fournissent aussi de la liquidité sans entrer dans cette course à la vitesse.
Comment avez-vous réussi à obtenir ces données ?
Cela nous a pris plusieurs années mais tout a commencé quand Bruno Biais a participé à une table ronde sur l’avenir des marchés financiers, juste après la crise. Certains journalistes présents avaient remis en question les capacités de prédiction des économistes et Bruno avait répondu qu’il était compliqué d’étudier les marchés financiers sans en avoir les données et avait mis en garde contre le trading à haute fréquence qui était en train de se développer en Europe.
Le trading haute fréquence comporte-t-il d’autres risques ?
Les algorithmes sont évidemment confidentiels, même pour le régulateur, ainsi le marché n’est pas à l’abri d’une erreur dans le code ou d’une erreur de paramétrage. L’exemple de Knight Capital en 2012, qui avait utilisé un algorithme mal paramétré et qui a perdu plus de 400 millions de dollars en l’espace de quelques instants le montre bien.
Quels sont vos futurs projets ?
Nous allons travailler avec Sabrina Buti, professeure à l’Université Paris Dauphine, sur les liens entre dark pools et traders à haute fréquence. L’idée est d’essayer de comprendre les stratégies des traders haute fréquence dans un environnement de marchés fragmentés. Par exemple est-ce que ces marchés opaques sont des substituts ou des compléments aux marchés centraux plus transparents ? Est-ce que les prop traders adoptent les mêmes stratégies sur toutes les plateformes ? Quels sont les effets d’une hausse de la volatilité ?
J’ai également commencé à travailler avec Régis Breton, de la Banque de France, et Jérôme Dugast, Université du Luxembourg, sur les différentes stratégies de placement d’ordres des intermédiaires financiers. Nous avons obtenu la totalité des ordres et des transactions financières de l’année 2005 en France, avant l’arrivée du trading à haute-fréquence. C’est donc quasiment un papier de finance historique mais ces données représentent un double avantage : les stratégies d’investissement sont sensiblement les mêmes mais dans un marché bien plus simple à analyser, et surtout l’identification de chaque ordre et transaction nous permet d’avoir une classification des intermédiaires beaucoup plus fines. Notre objectif est de disséquer de manière très précise l’origine de la liquidité. Nous pensons que les résultats pourront nous donner une meilleure idée des différences entre les catégories d’investisseurs, leurs stratégies et surtout dans quelles conditions les acteurs apportent et consomment la liquidité.
Un petit mot sur le Prix Banque de France cette année ?
Nous sommes très fiers des lauréats et il me tarde de les réunir pour la cérémonie et la conférence qui se tiendront le 14 novembre prochain. Je pense que ce sera une excellente année pour ce prestigieux Prix.