N° 2987 - Rapport de M. Claude Birraux, établi au nom de cet office, sur les apports des sciences et technologies à l'évolution des marchés financiers (Compte rendu de l'audition publique du 14 octobre 2010 et de la présentation des conclusions, le 17 novembre 2010)



sur

LES APPORTS DES SCIENCES ET TECHNOLOGIES
À L’ÉVOLUTION DES MARCHÉS FINANCIERS

Compte rendu de l’audition publique du 14 octobre 2010
et de la présentation des conclusions, le 17 novembre 2010

Par M. Claude Birraux, Député.

__________ __________

Déposé sur le Bureau de l'Assemblée nationale Déposé sur le Bureau du Sénat

par M. Claude BIRRAUX, par Mme Brigitte BOUT

et M. Daniel RAOUL,

Président de l'Office Sénateurs

_________________________________________________________________________

SOMMAIRE

___

Pages

AUDITION PUBLIQUE DU 14 OCTOBRE 2010 5

M. Yves Bamberger, conseiller scientifique du président directeur général d’EDF, membre de l’Académie des technologies 13

M. Charles-Albert Lehalle, responsable de l’équipe de recherche quantitative au Crédit Agricole Cheuvreux. 17

Mme Clotilde Bouchet, directeur financier, présidente du Comité scientifique de la DFCG (Association nationale des directeurs financiers et de contrôle de gestion) 23

M. Christophe Remy, directeur financier, président du club Sociétés cotées de la DFCG. 24

M. Denis Talay, directeur de recherche à l’INRIA, professeur chargé de cours à l’École polytechnique, ancien président de la Société de mathématiques appliquées et industrielles 27

M. Arnaud Vincinguerra, co-fondateur et responsable de la R&D de la société Sophis 31

M. Jean-Paul Betbèze, chef économiste et directeur des études au Crédit Agricole. 33

M. Olivier Oullier, enseignant-chercheur en neurosciences, Laboratoire de psychologie cognitive, Université de Provence. 36

Débat. 39

Extrait de la réunion de l’OPECST du 7 Novembre 2010, EN PRÉSENCE DES LAURÉATS FRANÇAIS DE LA MÉDAILLE FIELDS, MM. NGÔ BảO CHÂU ET CÉDRIC VILLANI AINSI QUE DU LAURÉAT DU PRIX GAUSS, M. YVES MEYER. 83

Conclusion générale 87

AUDITION PUBLIQUE DU 14 OCTOBRE 2010

INTRODUCTION

M. Claude Birraux, président de l’OPECST. Au nom de l’Office parlementaire, je vous souhaite la bienvenue, en particulier aux intervenants qui évoqueront les apports des sciences et technologies à l’évolution des marchés financiers, un thème nouveau pour l’OPECST. Le professeur Rama Cont interviendra, à tout moment, comme modérateur, pour orienter les questions sur les marchés financiers et la spéculation financière.

L'Office, que les acteurs du milieu de la finance ne connaissent sans doute pas encore très bien, se situe à la croisée des chemins scientifique, technologique et politique. Composé de trente-six parlementaires – dix-huit députés et dix-huit sénateurs-, il est, depuis 1983, une instance parlementaire de réflexion et d'évaluation sur la base de liens tissés, de façon toujours plus étroite, avec la communauté scientifique. Ses précédents travaux, par exemple sur les OGM, la téléphonie mobile ou les nanotechnologies, ont toujours été marqués par une exigence de rigueur sur des thèmes qui relevaient à la fois du progrès scientifique et d’enjeux sociétaux majeurs. C’est d’ailleurs pour mieux prendre en compte les préoccupations de la société que j’ai déposé une proposition de loi, cosignée par des députés de la majorité comme de l’opposition, afin de créer, aux côtés de notre Conseil scientifique, un Conseil sociétal, où l’on puisse organiser le débat entre les scientifiques, les représentants de la société et le monde politique.

Maurice Allais, seul prix Nobel français d’économie, qui nous a quitté la semaine dernière, à l’âge de quatre-vingt-dix-neuf ans, nous avait dit : « les grands progrès ont été réalisés par des hommes qui ont su faire la synthèse des acquis de leur temps, tout en étant capables de s’affranchir des vérités établies. » L'audition publique d'aujourd'hui, dont le thème a été proposé par le Conseil scientifique de l’Office, est représentative de cette démarche, puisqu’elle rassemble des responsables politiques, des spécialistes éminents, qui témoigneront de la complexité, de la technicité de la situation sur les marchés financiers et de ses évolutions.

L’actualité du thème abordé ne fait aucun doute sur le plan politique, ainsi qu’en témoignent les réunions du G20, les nouvelles normes comptables Bâle III, ou encore la loi sur la régulation bancaire que l’Assemblée nationale vient d’examiner en deuxième lecture1. L’émotion suscitée par la crise débutée en 2007 et ses conséquences économiques auront des répercussions importantes sur toutes les décisions prises à l’avenir.

Parallèlement à une commission d’enquête à l’Assemblée nationale, présidée par M. Henri Emmanuelli, qui étudie le lien entre la spéculation financière et le fonctionnement de l’économie, l’Office souhaite éclairer les parlementaires sur le rôle nouveau joué par les outils technologiques et scientifiques dans la finance moderne.

Les avancées technologiques, comme l’utilisation de plus en plus importante d’automates de trading, sont mises en accusation. Un tiers des transactions en Europe et deux tiers des transactions aux Etats-Unis sont réalisées par des programmes automatiques de passation des ordres. Un automate financier, aussi perfectionné soit-il, n’est pas un être humain : on a pu en voir un exemple lors du krach éclair du 6 mai 2010, où cette informatisation massive a donné lieu à une chute des prix de certaines actions jusqu’à des valeurs dérisoires (à cause des « stub quotes », ordres fictifs dont le prix n’a rien à voir avec le cours réel, que l’autorité américaine des marchés, la Securities and Exchange Commission (SEC), veut maintenant interdire).

Le trading haute fréquence, c'est-à-dire l’accélération des échanges, est lui aussi remis en question. Cette forme de trading permet en général une meilleure liquidité des marchés financiers et contribue, en temps normal, à leur équilibre. Mais elle comporte aussi des conséquences néfastes en période de forte volatilité : manipulation des cours, assèchement temporaire massif des échanges sur certains titres ou faillites ultrarapides, comme en 2003 aux Etats-Unis. Dans ce dernier cas, la haute fréquence n’avait laissé aucune chance à une firme dont l’algorithme de passation d’ordres était mal programmé.

Comment aborder ces nombreux défis ? Par plus de réglementation ? Par une révision en profondeur de la directive européenne de 2007 sur les marchés d’instruments financiers qui est fortement critiquée ? En instaurant une vitesse limite aux transactions financières ? Par une tarification de certains ordres afin de contenir l’automatisation galopante des salles de marchés ?

Le thème de nos débats peut paraître technique, mais les fondamentaux de l’évolution des marchés financiers reposent à présent sur des systèmes de plus en plus complexes, mathématisés, et informatisés.

Les journalistes ici présents, tout comme le public, pourront bien entendu poser des questions s’ils le souhaitent à la fin de chaque table ronde.

Les débats s'organiseront autour de deux grands thèmes : la première table ronde présentera un état des lieux de la place des sciences et des technologies dans la finance moderne ; la deuxième table ronde présentera différentes propositions de solutions aux défis actuels et des perspectives nouvelles.

Enfin, retranscrits sur le portail de l’Office, ces auditions et ces débats permettront d’éclairer le Parlement sur ces questions. Ils donneront également lieu à la publication d’un rapport qui reprendra intégralement le contenu de nos débats.

M. Rama Cont, modérateur, directeur de recherche au Laboratoire de probabilités et modèles aléatoires (CNRS-Université Pierre & Marie Curie, Paris VI), professeur associé et directeur du Center for Financial Engineering, Columbia University. Nous allons examiner, à travers une série d’exposés d’experts venus d’horizons divers, l’interaction des marchés financiers et leur évolution avec les sciences et les technologies. Comme on le verra dans les exposés, cette interaction va en deux sens :

• les nouvelles technologies et les méthodes quantitatives, les méthodes venant des mathématiques, ont profondément modifié la nature même des échanges financiers et leur organisation ;

• le potentiel que représentent les nouvelles technologies et la modélisation scientifique pour la réorganisation ou pour la réforme de la régulation financière. Ce que peuvent apporter ces technologies pour repenser la structure des marchés financiers dans une direction qui soit plus stable et qui représente une meilleure interaction des marchés avec l’économie réelle.

M. Michel Barnier, commissaire européen au marché intérieur et aux services financiers (vidéo). Je salue chacun d’entre vous dans la diversité de ses responsabilités, et je salue naturellement avec beaucoup d’amitié Claude Birraux, parce qu’il joue un rôle extrêmement important pour aider les parlementaires et ceux qui travaillent avec le Parlement français à bien comprendre, afin de prendre les bonnes décisions et bien agir. Je suis heureux de l’occasion qui m’est donnée par cette audition publique de m’adresser à vous, parce que vous abordez aujourd'hui, à coup sûr, l’une des questions les plus difficiles et les plus structurantes pour la régulation des marchés financiers. Comment prendre en compte les évolutions technologiques ? Comment vivre avec son temps tout en gardant son âme et la maîtrise des choses ? Comment poser de bonnes règles et les bonnes limites dans univers qui est de plus en plus complexe, et où les machines prennent une part croissante, quand elle n’est pas prépondérante ?

Pour commencer, je voudrais évoquer un souvenir personnel qui n’est pas si lointain. J’étais à New York au lendemain du « flash crash » très brutal qu’a connu la place de New York le 6 mai 2010. Vous le savez, le cours des actions a alors baissé de 10% en quelques minutes, certaines de manière encore beaucoup plus rapide et beaucoup plus forte. Je me suis assez longuement entretenu avec les responsables de la bourse de New York ce jour-là, puis avec les autorités de supervision des marchés le lendemain à Washington. Et j’ai été assez frappé de constater que même les meilleurs spécialistes avaient du mal à comprendre et expliquer ce qui avait pu se passer, les rouages qui avaient pu conduire au déclenchement de millions d’ordres, l’existence ou non d’un abus de marché, réactions de programmes informatiques aux mêmes seuils conduisant à une spirale baissière. Tout cela demeura alors largement inexpliqué. Six mois plus tard, on a eu une explication, mais je ne suis pas sûr que tout ait été totalement clarifié.

Tout ceci pose des questions redoutables au législateur, au régulateur. Nous ne pouvons pas éviter de poser des questions, de chercher des réponses. C’est pourquoi je pense que l’audition publique d’aujourd'hui est utile au niveau national, et également au niveau européen. La crise a démontré l’impact que pouvaient avoir des marchés financiers mal régulés, un mauvais contrôle des risques. Cette crise a été une crise de la supervision et d’une absence de régulation, une certaine faillite de l’autorégulation qui était le dogme d’un certain nombre, l’absence d’outils d’intervention des autorités de marchés, non seulement sur les marchés financiers eux-mêmes, mais sur l’ensemble de l’économie et de nos sociétés.

Le premier point de mon intervention est de vous dire que nous ne voulons pas éviter les questions difficiles que posent l’innovation technologique et l’inventivité financière qui paraît ne pas avoir de limites. De quoi parle-t-on ? Je ne vais pas rentrer dans le détail, mais simplement rappeler deux phénomènes essentiels qui vont largement ensemble. D’abord, l’importance de l’innovation technologique, et ensuite la complexification des produits financiers eux-mêmes.

L’innovation technologique, c'est notamment les nouvelles formes de traitement des ordres comme le trading automatique, ou l’importance croissante, très rapide, des « high frequency traders ». Dans le cas du trading automatique, il s’agit d’utiliser des PROM informatiques (des mémoires pré-programmées) pour optimiser le traitement des ordres en fonction d’un certain nombre de critères préétablis. Quant au trading haute fréquence, il vise à automatiser la négociation en se fondant sur des formules mathématiques très complexes, pour agir de façon extrêmement rapide. On parle de millisecondes, et parfois de nanosecondes. Cette forme de négociation a pris très rapidement une ampleur considérable. Elle est à l’origine de près de 70% des ordres sur le marché américain des actions. Ces formes de négociation ont à la fois des défenseurs assez nombreux, et aussi des détracteurs et des critiques. Ce qui nous frappe dans ces développements, à la place où je me trouve, c’est l’absence de jugement humain, la recherche de la vitesse à tout prix. Depuis une quinzaine d’années, beaucoup de ces gens, nous le savons bien, recherchent le profit maximal dans le minimum de temps.

Il y a un deuxième phénomène, essentiel et bien connu, c’est la puissance de l’innovation financière. Le développement très rapide de produits, tels que les produits dérivés de crédit, la titrisation, a créé de nombreux et nouveaux outils de gestion des risques, mais également contribué à accroître la prise de risque, à renforcer une très grande opacité des marchés.

Il faut reconnaître que cette nouvelle alliance de la science et de la finance pose des questions difficiles. C’est une alliance qui brouille les principes clés, les principaux axiomes sur lesquels nous fondons en général le droit et l’action politique. Comment par exemple définir clairement les responsabilités des acteurs de marché dans un univers où les ordinateurs, les modèles mathématiques, ont une part croissante et quelquefois prépondérante, pouvant même aller jusqu’à prendre eux-mêmes les décisions, à la place des hommes et des femmes ? Comment éviter les prises de risque excessives et non maîtrisées, sans brider la créativité, l’innovation, qui sont, je le crois, aussi nécessaires en matière financière comme ils sont nécessaires dans toute l’économie ? Comment nous assurer que nous disposons de la bonne compréhension de ces évolutions technologiques pour proposer des règles solides qui ne soient pas immédiatement frappées d’obsolescence, ou immédiatement contournées par des acteurs du marché qui ont souvent un temps d’avance sur les politiques ? Soyons lucides, le temps des marchés est infiniment plus rapide. Le temps politique ou le temps de la démocratie sont une donnée qu’il faut prendre en compte.

Face à ces défis, je voudrais poser quelques principes simples qui s’imposent, et qui sont clairement ceux que je compte suivre. C'est très clairement et très directement l’état d’esprit dans lequel moi et mes collaborateurs nous travaillons actuellement au niveau européen. Premièrement, je crois que nous devons prendre acte de cette complexité et prendre le temps de la compréhension. C’est ce que vous faites aujourd'hui, et c’est la voie que je suis également à la Commission, avec mes collègues, sous l’autorité du président José Manuel Barroso, avec l’ensemble de la Direction générale du marché intérieur et des services, en consultant systématiquement, en écoutant beaucoup, en rencontrant aussi, et en organisant ce qu’on appelle « des études d’impact approfondies », qui vont d’ailleurs se généraliser. Je vais accélérer cette ouverture des portes et des fenêtres de la Commission européenne, parce que nous n’avons pas la science infuse. Nous voulons comprendre pour faire les bonnes propositions. En revanche, il est tout aussi clair que la complexité technique que j’ai évoquée, les avancées technologiques, ne peuvent pas et ne doivent pas être une excuse pour déroger à certains principes fondamentaux que j’ai mis en tête de mon agenda et que je vais mettre en oeuvre de manière extrêmement déterminée : transparence, responsabilité, régulation. C’est ma conviction d’homme politique. C’est aussi les leçons que nous devons tirer de la crise. C’est enfin l’agenda qui s’impose à tous les Européens, puisque cet agenda est celui du G20. Nous n’avons pas le droit de ne pas tirer les leçons de cette crise. Nous allons les tirer. Nous n’allons pas faire semblant de réformer, parce que la crise, avec toutes ses conséquences financières, économiques, sociales, humaines et politiques, elle, n’a pas fait semblant. C’est donc un principe qui vaut aussi bien pour les avancées de la recherche en biologie, qui ont un impact sur nos sociétés, que pour les marchés financiers. Pourquoi ? Tout simplement parce que la crise a démontré, avec une grande violence, les effets des dysfonctionnements des marchés sur l’ensemble de l’économie et de la société, avec toutes les conséquences que je viens d’indiquer. Ces marchés ne constituent pas un monde à part qui pourrait s’autoréguler. Je ne crois pas, je n’y ai d’ailleurs jamais cru, à l’autorégulation du marché mondial, du marché européen, ou du marché financier. Ces marchés, nous en avons besoin, ils sont au coeur de l’économie, à la condition d’être au service de l’économie, et non pas le contraire. Et notre responsabilité, c'est donc qu’ils obéissent à des règles et à des principes rigoureux. Voilà ce dont il s’agit et voilà notre feuille de route.

Quelles sont les orientations que nous allons proposer pour l’action communautaire ? À charge ensuite au législateur, le Conseil des ministres des finances et le Parlement européen qui a un rôle aujourd'hui très important, de les mettre en oeuvre par leurs votes conjoints, et si possible en co-décision un vote identique, puisque c’est désormais une obligation dans le traité de Lisbonne dans beaucoup de domaines. Sous l’autorité du président José Manuel Barroso, la Commission a entrepris un effort sans précédent pour tirer les conséquences de cette crise. Aucun marché, aucun acteur, aucun territoire, aucun produit financier, n’échappera à une régulation intelligente et à une supervision efficace. Angela Merkel l’a dit au G20 : l’état d’esprit des chefs d’État et de gouvernement, c’est notre état d’esprit. Les développements technologiques ne seront pas, ne peuvent pas être un prétexte pour échapper à cette règle. Notre action est également fondée sur une coopération étroite avec les Etats-Unis. Si nous, Américains et Européens, ne traitons pas ensemble ces questions, alors que 80% des flux financiers se déroulent de part et d’autre de l’Atlantique, alors je pense que nos efforts seront vains. Je n’oublie pas non plus d’autres grands acteurs dans le monde, dont l‘importance va s’accroître. La Chine et l’Inde ont eux aussi pris leur part aux décisions du G20.

Concrètement, nous voulons aborder ces questions nouvelles dans la révision de la directive sur les Marchés d’instruments financiers (MIF) et, également, dans la directive relative aux abus de marché. Elles seront présentées au tout début de l’année 2011 au co-législateur — Conseil des ministres des finances et Parlement européen. Sur quels principes allons-nous fonder cette proposition de régulation européenne ?

Premier principe : les acteurs financiers doivent être responsables. Personne ne doit échapper à une surveillance. La prise de risque excessive doit être éliminée. Nous savons bien que l’une des raisons qui a amplifié la crise, c’est que des gens soient d’autant mieux payés, de manière parfois insensée, qu’ils prennent le plus de risques possible. Nous allons donc obliger à une pleine transparence vis-à-vis des régulateurs, mais aussi vis-à-vis de l’opinion publique. Les régulateurs doivent pouvoir suivre l’activité des acteurs financiers, pour remédier à certains comportements abusifs, et empêcher cette accumulation de risques inconsidérés. Tel est le cas, par exemple, des acteurs qui ont recours au trading automatique ou des « high frequency traders ». Ces acteurs devront être dûment autorisés et devront se conformer à certaines exigences d’organisation, notamment pour éviter tout dérapage des systèmes automatiques.

Deuxième principe : la transparence sera la règle pour tous. Je crois essentiel que l’ensemble des acteurs économiques, y compris les émetteurs, soient en mesure de voir, de comprendre ce qui se passe sur les marchés. C’est une question de bon fonctionnement des marchés, mais aussi de confiance. Et nous voulons rétablir la croissance, ou la consolider, par la confiance dans ce domaine comme dans les autres. La règle de transparence va donc s’imposer à l’ensemble des marchés financiers. Il faut mettre fin à l’opacité qui règne sur ces marchés, en tout cas sur une partie d’entre eux, sur une partie des acteurs et des activités qui ne sont pas, aujourd'hui, couverts par la directive. Une meilleure couverture des « high frequency traders » par notre régulation rendra d’ailleurs cette activité plus transparente vis-à-vis des régulateurs. Ces régulateurs seront mieux à même d’appréhender l’ampleur de ce phénomène et les risques qui sont liés à ce type de négociations.

Troisième principe : créer des conditions de concurrence équitables. La révision de la directive MIF doit permettre de mettre en place des conditions de concurrence équitable entre tous les types d’opérateurs, intermédiaires financiers comme opérateurs de marché. Cela signifie, notamment, des conditions d’établissement, d’organisation, et surtout d’exercice, qui doivent être homogènes entre tous les types d’intervenants, avec des obligations proportionnées. En tant que participant au marché, en tant que fournisseur de liquidité, « market maker », les « high frequency traders » devront non seulement avoir des droits, mais ils auront des obligations. Ils devront être soumis aux mêmes obligations que les teneurs de marché traditionnels, à savoir fournir de la liquidité sur une base continue.

Je pensais normal et utile de vous dire dans quel état d’esprit je travaille au sein de la Commission européenne. J’ai évoqué en quelques mots des questions très complexes. Il faut du temps. Nous allons prendre le temps de comprendre et d’écouter. Je crois vous avoir également dit ma détermination pour que cette complexité-là, que nous devons comprendre, et qui existe, ne soit pas un prétexte pour oublier les principes de responsabilité, de transparence et de bonne régulation, qui sont au coeur de notre agenda. Mon objectif, dans ce cadre, serait plutôt de revenir à une « vieille alliance » que nous avons beaucoup perdue de vue depuis quelques années, celle de la société et de la finance. Ma conviction, c’est que les services financiers, les marchés dont nous avons besoin, doivent avoir leur place et être au service de l’économie réelle et des entreprises, plutôt que le contraire, comme on l’a vu depuis quinze ans.

J’ai d’ailleurs une autre ambition, dans une autre part de ma responsabilité, en tant que commissaire européen au marché intérieur : une fois que nous aurons réussi, tous ensemble, à remettre les marchés financiers dans l’économie réelle, à son service, c’est que cette économie réelle soit mieux financée, mieux accompagnée, mieux irriguée ; que cette économie réelle, qui est fondée sur le marché unique, soit davantage au service des PME et des citoyens, quand ces citoyens sont consommateurs, travailleurs, entrepreneurs, utilisateurs de services, actionnaires ou épargnants. C’est l’objet d’un autre grand chantier que nous allons ouvrir, à travers le Pacte pour le marché unique (« single market act ») : remettre le marché unique au service des entreprises et des citoyens. Et d’abord, ou en même temps, remettre les marchés financiers au service de l’économie réelle. Voilà l’ambition politique qui est celle du président José Manuel Barroso et de toute la Commission européenne, sur laquelle nous avons besoin du soutien du Gouvernement, du Parlement européen, mais aussi des parlements nationaux, des régions, des différents acteurs que vous êtes, de l’économie ou des acteurs financiers.

M. Claude Birraux. Le message de M. Michel Barnier, c’est de comprendre. Notre objectif, c’est de comprendre.

PREMIÈRE TABLE RONDE : « ETAT DES LIEUX »

« Du réseau énergétique aux marchés financiers : analogies entre deux systèmes complexes »

M. Yves Bamberger, conseiller scientifique du président directeur général d’EDF, membre de l’Académie des technologies. Le système électrique est probablement très simple par rapport au système financier. Les mots que Michel Barnier a employés, transparence, responsabilité, régulation, concernent aussi les électriciens et le système qui les fait vivre. Je vais essayer de présenter les analogies entre les deux systèmes, mais aussi les différences. Dans un premier temps, je vais présenter l’analyse qui a été faite par les acteurs de l’incident du 4 novembre 2006, où quinze millions d’Européens ont, pendant quelques dizaines de minutes, eu l’électricité coupée, suite au passage d’un bateau sur l’Ems, en Allemagne du Nord. Cette analyse va nous permettre de comprendre les analogies et les problèmes que rencontre le système électrique depuis un certain nombre d’années, pour passer du système du vingtième siècle au système du vingt-et-unième siècle. Le système électrique, dont nous avons hérité, est un système avec de grandes centrales, très puissantes, quelques centaines en Europe, un réseau de transport, largement national, interconnecté entre les pays, et un réseau de distribution qui va jusqu'aux prises électriques dans nos maisons. Petit à petit, on voit monter des acteurs nouveaux, des milliers de sources de production, et, à terme, de stockage, avec des panneaux voltaïques, des éoliennes, et bien d‘autres choses. Comment cela se passe ? Y a-t-il des analogies ?

L’incident européen du 4 novembre 2006 : la ligne double 400 kV Conneforde – Diele – Meeden, surplombant l’Ems (au nord de l’Allemagne), doit être mise hors tension par le réseau E.ON pour permettre le passage d’un navire vers 22h. À ce moment-là, en Europe, le réseau d’interconnexion est partagé en trois zones de production : la zone nord-est produit beaucoup, c’est l’éolien allemand qui exporte de l’électricité vers l’ouest et le sud de l’Europe ; cette seconde zone consomme plus qu’elle ne produit ; une troisième zone au sud-est est à peu près à l’équilibre. Au moment où la ligne s’est ouverte, en l’espace de quelques dizaines de minutes, il y a eu une coupure du système électrique européen en trois zones : une surtension dans la zone nord-est fortement excédentaire en production ; une sous-tension dans la partie ouest déficitaire en production ; la zone sud-est a gardé, quant à elle, un relatif équilibre consommation-production. À ce moment-là, vous n’êtes pas aux 10% de baisse des actions dont parlait Michel Barnier, vous avez une variation de la fréquence qui a pour conséquence que la majorité des éoliennes se sont déconnectées. En particulier, tout l’éolien espagnol (plus de deux mille cinq cents mégawatts) s’est déconnecté, à cause de la sous-tension. Cela a aggravé la situation dans la zone ouest, déficitaire en production. De l’autre côté, en Allemagne, les éoliennes se sont déconnectées par surtension. Ce qui a fait tenir le système, ce sont deux choses : d’une part, les grandes centrales classiques, notamment les centrales nucléaires, qui ont continué à tourner à leur rythme habituel, d’autre part, l’hydraulique a été convoqué d’urgence par les dispatchers. En quelques dizaines de secondes, puis en quelques dizaines de minutes, on a pu ramener la fréquence au bon niveau pour réalimenter tout le monde. Ce qui a compliqué les choses, c’est notamment le fait qu’en Allemagne du Nord, les éoliennes ne sont pas dispatchées, c'est-à-dire que l’état de la production éolienne, à l’époque, n’était pas connu des dispatchers qui commandent le système. En Espagne, ils avaient commencé à faire en sorte que l’état de la production éolienne soit observable, voire dispatchable.

Cela nous amène au point clé que je voulais mentionner. Le système électrique fonctionne avec des prévisions de production-consommation à 5 ans, 1 an, 1 mois, 1 semaine, 24 heures, quelques heures, quelques minutes, quelques secondes, avec la prise en compte des grandes centrales classiques et du réseau. Mais jusque-là, pour favoriser leur démarrage, on n’a absolument pas imposé à ces nouveaux acteurs que sont l’éolien et le solaire de participer à l’équilibrage du système. Premièrement, on ne leur a pas imposé de donner des informations aux dispatchers. Deuxièmement, les dispatchers n’ont pas les moyens de couper les éoliennes. Résultat : le 4 novembre 2006, la production centralisée, bien connue, s’est bien comportée. Par contre, tout l’éolien et les énergies nouvelles ont eu du mal.

Analysons la situation. Premier point, très important, la règle du N-1 n’a pas été respectée. Dans le système électrique historique, en principe, tous les jours pour le lendemain, et en temps réel toutes les quinze minutes, on regarde ce qui se passe si un élément s’arrête ou tombe. Si une grande ligne à haute tension tombe, si une centrale s’arrête, si un poste de transformation est cassé, on vérifie à chaque instant que le système pourra encore tourner. C’est une règle technique très simple. Je ne suis pas sûr que sa transposition au système financier soit aussi simple. Précisément, ce jour-là, il s’est trouvé, à la grande surprise des électriciens, que le réseau E.ON n’avait pas respecté la règle du N-1. Pourquoi ? Peut-être que certaines nouvelles règles de marché font que certains acteurs peuvent être tentés de contourner les règles... On y reviendra tout à l'heure. Deuxième point, très frappant, que l’on retrouve aussi dans la crise financière, c’est le manque de coordination entre les opérateurs de réseau. Les dispatchers d’un pays à l’autre n’avaient pas assez d’informations partagées pour agir de manière cohérente. Enfin, troisième point : le déclenchement massif de production décentralisée dans la zone ouest.

En conclusion, je dirais qu’à l’évidence, il y a une complexité croissante, dans le réseau électrique, comme dans la finance. Chez les électriciens, j’aurais tendance à dire, puisque c’est un système technique, que c’est de plus en plus compliqué, parce qu’il y a de plus en plus de paramètres. Mais si on connaît tous les paramètres, dans la mesure où l’on connaît tous les éléments de production et de consommation à chaque instant, normalement on peut le gérer. Je pense que dans le monde financier, il y a des facteurs humains tout à fait essentiels. J’ai cru comprendre qu’il y a parfois des anticipations auto-réalisatrices dans le système financier. Les « forward », c’est un moyen de mettre un prix sur des visions. Ce qui ne se fait pas du tout dans le système électrique. Notre système est plus simple. De fait, il est robuste. Premièrement, dans la plupart des pays du monde, on doit « tenir le N-1 ». C’est une sorte de « stress-test » systémique, non pas d’un des éléments, mais du système dans son ensemble, à chaque instant. Deuxièmement, certains contextes régulatoires récents peuvent l’affaiblir en poussant des acteurs à la faute. Par exemple, un dispatcher qui se verrait dire qu’il ne laisse pas passer assez facilement l’éolien peut être tenté de contourner la règle et de ne pas garder quelques marges. C’est ce qui est arrivé à l’acteur que je citais tout à l'heure. Troisièmement, ce point est déterminant, et il rejoint l’intervention de Michel Barnier, on a favorisé les énergies réparties au début, pour faire en sorte qu’elles aient les coûts les plus bas possibles, en ne leur imposant rien d‘autre que de produire et d’être connecté. On voit bien maintenant que l’observabilité et la commandabilité sont essentielles.

Depuis l’incident de 2006, de nouvelles règles ont été débattues. La création de l’agence européenne des régulateurs a fait l’objet d’un rapport de M. Lenoir. Un certain nombre de changements d’organisations et de règles sont en cours pour le système électrique. Petit à petit, elles vont imposer aux éoliennes et à la production solaire de participer à la vie du système, en sorte qu’il soit complètement observable, comme auparavant, et commandable, c'est-à-dire qu’on puisse arrêter les centrales. L’Espagne a, d’ores et déjà, déployé un système de commandement des éoliennes. C’est ce que fait actuellement EDF, pour sa partie. Et un peu partout en Europe, c’est en train de changer.

M. Claude Birraux. M. Yves Bamberger, vous avez en quelque sorte introduit l’exposé de l’intervenant suivant, c'est-à-dire dans la salle des commandes, ou dans le régulateur du réseau.

« Au coeur des salles de marché : l’exemple du trading haute fréquence »

M. Charles-Albert Lehalle, responsable de l’équipe de recherche quantitative au Crédit Agricole Cheuvreux. J’ai beaucoup apprécié l’exposé de M. Yves Bamberger. Il y a beaucoup de similitudes avec le rapport de la SEC2 sur l’incident du 6 mai 2010. Je vais décortiquer et lever un voile de mystère sur le trading haute fréquence. Qu'est-ce que le trading haute fréquence ? Pourquoi en parle-t-on ? Pourquoi le trading est-il devenu un sujet d’intérêt ? Tout d’abord, le trading, c’est ce qui anime le processus de formation des prix sur les marchés financiers et sur le marché en général. La plupart des marchés, qui sont des marchés électroniques, voient un prix fixé en fonction d’un équilibre entre l’offre et la demande, qui s’empilent dans ce qu’on appelle un « carnet d’ordres ». Au fur et à mesure que ces empilements ont lieu, des transactions sont déclenchées lorsqu’un vendeur vient rencontrer un acheteur. Il faut imaginer un système d’enchères, où les gens déclarent peu à peu leurs intérêts à la vente ou à l’achat. Quand les intérêts peuvent se rencontrer, cela déclenche des transactions. Ce système existe depuis bien longtemps sur la plupart des marchés. D’abord à la criée, il se déroule aujourd'hui de façon électronique.

Pourquoi parle-t-on de haute fréquence depuis quelques années ? On voit que la vitesse à laquelle les gens déclarent leurs intérêts pendant le jeu d’enchères, ou annulent leurs intérêts, a considérablement augmenté. Dès l’ouverture des marchés à 9h00, la fréquence de modification des premiers intérêts des participants aux enchères est facilement à 250 Hz, c'est-à-dire deux cent cinquante changements d’intérêts par seconde. Les pics peuvent aller jusqu’à plus de 2 000 Hz. On n’est pas, dans la haute fréquence, à une échelle industrielle où l’on peut parler de 50 000 Hz, puisque la moyenne tourne autour d’une échelle de 500 Hz. Néanmoins, cela commence à poser des problématiques de tous ordres, notamment les problématiques de latence, c'est-à-dire : à quelle distance je me trouve du marché où les enchères sont répertoriées ? Si j’ai un ordinateur avec une liaison réseau, le temps que j’envoie ma participation aux enchères, c'est-à-dire que je déclare mon intérêt à l’achat ou à la vente sur ce marché d’enchères qui se déroule en continu, peut-être que l’état de l’enchère aura changé. Pendant ce temps-là, il se peut, en effet, que d’autres acteurs auront modifié leurs intérêts, ou leurs déclarations d’intérêts. Si la fréquence est en moyenne à 250 Hz, il faut être à moins de deux millisecondes du lieu où les enchères sont répertoriées pour pouvoir prendre une décision en toute connaissance de cause, à savoir : je regarde l’état des enchères, je prends ma décision, j’envoie une enchère et l’état du jeu d’enchères n’a pas beaucoup changé. L’enjeu technologique dont nous parlons aujourd'hui est là : comment faire pour être à moins de deux millisecondes d’un lieu d’enchères ? C’est une des grosses préoccupations des traders haute fréquence, comme de tous les traders en général.

Comment interagir avec un marché, un jeu d’enchères, qui voit son état modifié à une telle fréquence ? C’est la question que tous les acteurs se posent. Même si je ne suis pas un trader haute fréquence, comment vais-je faire pour interagir efficacement et rationnellement avec un système qui est actualisé par un petit groupe d’acteurs à cette vitesse ? C’est là où se situe l’enjeu réglementaire autour du trading haute fréquence. Si le trading haute fréquence ne concernait que les traders haute fréquence, on n’en serait pas là aujourd'hui. L’impact du trading haute fréquence sur l’état du marché se répand absolument au niveau de tous les agents qui ont à intervenir, c'est-à-dire à acheter ou à vendre des actions. Ils le font non pas pour des raisons « très haute fréquence », mais parce que ce sont ce qu’on appelle traditionnellement des investisseurs finaux, qui ont une vue sur l’état du marché à plusieurs mois, à plusieurs semaines, et même à plusieurs années s’il s’agit de fonds de pension américains. Par ricochet, l’état de l’actif des retraités américains dépend et est impacté par les dépenses et l’énergie qui doivent être consacrées par les fonds de pension à l’interaction avec ce genre de système d’enchères.

Essayons de comprendre comment on est arrivé à un tel système. Il y a globalement trois grandes raisons qui sont habituellement invoquées. La première est la crise financière. Contrairement à certains, je n’ai pas mis la réglementation en premier, parce qu’un changement de régulation a eu lieu aux Etats-Unis, deux ans avant le changement de régulation européen, et durant ces deux années, la crise n’étant pas là, la modification des marchés n’a pas été si drastique. La crise financière a certainement été un élément qui a cristallisé l’augmentation de la fréquence sur les marchés, sans doute en raison d’une modification de la nature des risques et, par ricochet, des problématiques de liquidité. C’est la deuxième grande raison. Qui peut l’ignorer aujourd'hui ? La liquidité de marché, c’est avant tout la somme des enchères, des déclarations d’intérêts dans ce jeu d’enchères. S’il n'y a quasiment personne qui déclare des intérêts, il est évident que le prix des transactions peut varier beaucoup plus, et beaucoup plus vite. Et donc la volatilité, l’incertitude, le risque, augmentent à l’échelle de la microstructure des marchés. Troisièmement, la réglementation, avec la révision de la directive MIF3 en Europe, nous permet d’envisager des mesures de précaution, ou, en tout cas, d’essayer de faire en sorte de mieux maîtriser ces phénomènes, sachant, évidemment, que la mise en œuvre de la directive MIF, de même que la régulation NMS4 aux Etats-Unis, a permis une fragmentation des marchés, ce qui a favorisé l’apparition du trading haute fréquence, en remplaçant des marchés relativement concentrés. Auparavant, pour acheter une action France Télécom, j’allais sur Euronext Paris. Aujourd'hui, on a organisé cela dans un marché de marchés, et je peux donc aller sur plein de places de marchés différentes. Il y a intérêt, pour certains acteurs, à jouer les passe-plats, en allant acheter une action France Télécom sur un marché, pour la revendre à quelqu’un d’autre, sur un autre marché, dans les quelques millisecondes qui suivent. Nous avons les trois fortes composantes de ce qui a été les prémices du trading haute fréquence.

Avant la directive MIF, il y avait une relative concentration. Les marchés étaient organisés en trois couches : les investisseurs finaux, les intermédiaires et les marchés primaires, avec un carnet d’ordres visible. Chacun est dans son rôle, les couches sont relativement organisées, et les responsabilités, les devoirs de chacun, sont très clairement identifiés.

Après la directive MIF, l’organisation des marchés part dans tous les sens. Je ne vais pas vous expliciter toutes les couches. On retrouve ponctuellement les investisseurs finaux. Les traders haute fréquence constituent au départ une classe d’investisseurs, qui intervient non seulement à l’échelle des investisseurs, mais aussi quasiment comme des opérateurs de marché, pour fournir de la liquidité d’une nature bien particulière à des carnets d’ordre, c'est-à-dire des lieux de marché qui se sont démultipliés, grâce à la directive MIF qui a donné la possibilité de le faire. Les intermédiaires ont, eux-mêmes, développé des marchés alternatifs qu’on appelle les « dark pools ». La fragmentation des marchés a encouragé l’expansion du trading haute fréquence qui a un rôle de passe-plat de liquidité. Aujourd'hui, 70% des transactions aux Etats-Unis, et près de 40% en Europe, se font face à un trader haute fréquence. Cela ne signifie pas qu’ils font ces transactions entre eux. Mais là où, avant, il y avait un acheteur et un investisseur final, aujourd'hui, il y a un acheteur qui achète à un trader haute fréquence, et un vendeur qui vend à un trader haute fréquence.

Dans les deux cas, ce sera vraisemblablement le même trader haute fréquence qui aura fait le rapprochement entre les deux. Ce jeu de passe-plats est, néanmoins, essentiel pour l’émergence de compétition entre les places de marché. Il a été voulu, et dans un sens, c’est quelque chose de sain au niveau de l’organisation des marchés. La qualité du service fourni par les marchés a été améliorée, dans une certaine mesure, via l’apparition de cette concurrence. Le trading haute fréquence est un prix à payer pour avoir cette fragmentation et cette concurrence. Maintenant, reste à savoir quel est le juste prix à payer pour le service qu’ils offrent à l’efficacité globale du marché. C’est la question que le régulateur doit se poser.

M. Rama Cont. On a beaucoup parlé de ces « dark pools » qui vont plutôt à l’encontre des règles de transparence. Pensez-vous qu’ils jouent un rôle important ou un rôle plutôt mineur ?

M. Charles-Albert Lehalle. La personne qui a inventé le terme « dark pool » a très mal fait son travail. Un « dark pool » est un marché d’enchères comme un autre, avec une « anonymité » des enchères. Personne ne sait à quel prix les enchères des uns ou des autres sont faites. Pourquoi ces « dark pools » se sont-ils développés ? En premier lieu, ils se sont développés pour protéger les utilisateurs des traders haute fréquence. Moins il a d’informations, moins le trader haute fréquence peut profiter de vos enchères. Finalement, les « dark pools » se sont développés pour protéger le mécanisme de marché du trading haute fréquence. En exagérant un peu, les « dark pools » sont en fait un lieu où des investisseurs finaux peuvent se rencontrer à l’abri des traders haute fréquence. Dans ce cadre-là, les « dark pools » sont des éléments extrêmement stabilisants et importants pour l’équilibre du marché. Là où la réglementation MIF a laissé un espace, c'est post-trade, une fois que les transactions ont eu lieu. Les « dark pools », aujourd'hui, ne sont pas obligés d’avoir un niveau de transparence post-trade qu’on pourrait attendre d’un lieu d’échanges. Je suis persuadé que la révision de la directive MIF rétablira cette transparence post-trade.

Quels sont les enjeux ? Je ne reviendrai pas sur les détails du rapport de la SEC sur le « flash crash » du 6 mai 2010 aux Etats-Unis. Il y a eu un énorme débrayage de liquidité. Tous les gens qui fournissaient de la liquidité au marché, les traders haute fréquence, ne sont tenus par aucune réglementation en termes de fournitures de liquidité. Ils le font quand bon leur semble. Le niveau de risque ayant commencé à augmenter, ils ont arrêté de le faire. De ce fait, le jeu d’enchères s’est considérablement déréglé. En dix minutes, certains instruments financiers ont affiché une baisse, de 10% à 60%, de leur valeur. C’est donc un risque de nature systémique, puisque le choc a été massif et qu’il a porté sur la quasi-totalité du marché américain, lequel est d’une ampleur plus grande que le marché européen. C’est sans doute aussi une dégradation générale du processus de formation des prix. Ce processus est au coeur du mécanisme capitalistique. Il fixe le juste prix des actifs en agrégeant l’offre et la demande.

Que devient-il dans un univers comme celui-là ? En l’ouvrant à un type d’acteur qui intervient à très haute fréquence, sans aucune vue sur la valeur fondamentale de l’actif qu’il échange, on dégrade ce processus de formation des prix. C’est très important à comprendre. Je ne dis pas que c’est une dégradation totale, mais il y a très certainement une réflexion à avoir, surtout quand on imagine que le régulateur est en train d’ouvrir la plupart des marchés à ce genre de mécanisme électronique, voire de fixer le coût de l’impact environnemental. Par exemple, pour les crédits carbone, la cotation sera également ouverte à ce genre de mécanisme de marché. Que voudrait dire du trading haute fréquence sur les droits à polluer en termes de valorisation de l’impact environnemental, qui est censé avoir lieu dans ce mécanisme d’appariement ?

M. Rama Cont. Dans cet incident du 6 mai, le rapport de la SEC dit bien que seize intervenants haute fréquence ont généré 30% du volume des transactions sur l’indice, mais que ces seize intervenants commençaient chaque jour leur position à zéro. Donc zéro contrat dans le portefeuille. Ils faisaient des centaines de milliers de transactions en moyenne dans la journée, et ils finissaient à zéro. Donc c’étaient des intermédiaires purs, qui ne détenaient aucune position sur les actions ou sur les indices à la fin de la journée.

Cela nous amène à nous interroger sur l’utilité économique, et même, sur l’utilité de ces intervenants pour le marché financier à proprement parler. Le rapport de la SEC insiste bien là-dessus : ce ne sont pas des fournisseurs de liquidité. Il identifie ces traders haute fréquence comme des consommateurs de liquidité. C’est à dire qu’ils n’apportent pas forcément de la liquidité. Et sur un plan économique, à moyen terme, ils ne jouent pas de rôle, puisque ce sont des intermédiaires purs qui ne détiennent pas de position en fin de journée. Quelle est votre réflexion sur ce sujet ?

M. Charles-Albert Lehalle. À partir du moment où l’on se dit que la compétition entre les places de marché est une bonne chose, il faut une catégorie d’agents pour jouer ce rôle de passe-plats de liquidité. Certes, ils ne vont pas être à 100% de leur temps des fournisseurs de liquidité. Ils seront partiellement fournisseurs, et partiellement consommateurs, sur un marché ou sur un autre. Mais on ne peut pas imaginer aller disperser des échanges sur des lieux physiques différents, sans essayer de réconcilier la liquidité, pour éviter que les prix ne soient différents d’un lieu à l’autre, et donc avoir une catégorie d’acteurs qui n’est intéressée qu’à ajuster ces différences.

Le trading haute fréquence est le prix à payer pour avoir cette fragmentation et cette compétition. Maintenant, je suis parfaitement d’accord avec votre analyse. Jusqu'où va-t-on payer ? Jusqu'où est-on prêt à payer ? Jusqu'où peut-on laisser ce genre d’acteur rogner sur l’efficacité du processus de formation des prix ? Essayons de valoriser cela à la hauteur du service qu’ils rendent, afin de rendre possible une compétition qui, jusqu'à présent, en termes de qualité de service globale, a conduit à une amélioration. Je rappelle qu’il y a encore un an et demi, le London Stock Exchange, c'est-à-dire la place primaire anglaise, a eu des bugs dans son système. Le système a « planté » pendant une demi-journée. D’ailleurs hier après-midi, Euronext Paris a lui aussi « planté ». On est encore dans un système où il y a des « plantages » des places principales.

Pourquoi parler de science et de technologie dans ce contexte ? En termes technologiques, il y a parfois une confusion, due au terme « trading haute fréquence ». Nous sommes bien en deçà de ce que l’industrie aérospatiale connaît comme haute fréquence. Il n'y aura certainement pas, à mon sens, d’innovation technologique financée par des acteurs de ce type, soyons-en certains, alors même qu’on mesure, dans des fusées ou dans des drones, la fréquence, à l’échelle de 50 000 Hz, et qu’aujourd'hui, sur les marchés, on atteint 1 000 Hz. Je ne pense pas qu’on puisse attendre de ces acteurs de financer de la recherche technologique et des innovations technologiques.

M. Claude Birraux. Vous avez parlé de vision de long terme pour ceux qui font des opérations. Je pense qu’il y a longtemps que la vision de long terme a disparu. Cela s’apparente beaucoup plus à jouer à colin-maillard dans une grotte sombre, ou à faire du gambling à Las Vegas, sans relation directe avec l’économie réelle. On est ici totalement dans le virtuel. Peut-être que Michel Barnier a raison de parler de responsabilité.

« Impact des produits financiers innovants sur les PME cotées : volatilité, liquidité, notoriété »

Mme Clotilde Bouchet, directeur financier, présidente du Comité scientifique de la DFCG (Association nationale des directeurs financiers et de contrôle de gestion). M. Christophe Remy et moi-même sommes membres de l’association nationale des directeurs financiers et de contrôle de gestion (DFCG), qui regroupe trois mille professionnels des fonctions finance en entreprise, représentant à peu près deux mille entreprises, dont 85% de PME (Petites et Moyennes Entreprises).

M. Christophe Remy préside le club des sociétés cotées de notre association, cent cinquante deux PME sont aujourd’hui cotées sur l’Alternext. M. Christophe Remy va vous faire part de son expérience opérationnelle de directeur financier quant à l’impact des nouvelles technologies sur le cours d’une action ayant peu de liquidité.

M. Christophe Remy, directeur financier, président du club Sociétés cotées de la DFCG. Ce qui caractérise un directeur financier, c’est le pragmatisme. Nous allons donc revenir à ce que nous connaissons, c'est-à-dire l’économie réelle, la vraie vie des entreprises, et ce qui se passe pour les PME. Le thème, c’est la technologie et l’impact des produits financiers innovants pour les PME. Comme l’a rappelé Clotilde Bouchet, il y a, en France, beaucoup de PME, mais très peu font appel aux marchés financiers : un petit peu plus de cent cinquante PME sur l’Alternext. Si on inclut le marché Eurolist, compartiment C, on arrive à trois cent cinquante PME. La notion de PME est large : ce peut être Dassault Aviation et Thalès ; à l’échelle mondiale, ce sont des PME. Les plus petites de ces sociétés, pour la plupart, subissent les marchés financiers. Elles vont généralement sur les marchés pour se refinancer de manière moins onéreuse qu’auprès des banques. De ce point de vue, l’impact des nouvelles technologies sur leurs problématiques est assez faible. Les systèmes technologiques dont on parle concernent plutôt des traders qui vont, en réalité, passer leur temps à spéculer sur des marchés dérivés. Pour nous, il s’agit de regarder un titre de bourse, acheté et vendu dans la journée : ce qui nous intéresse, ce sont les volumes échangés chaque jour, lesquels, normalement, reflètent le juste prix de notre entreprise. Pour la majorité des PME, il y a, en réalité, assez peu de volume chaque jour. L’impact des systèmes exposés précédemment est donc tout à fait dérisoire. Effectivement, quand il y a peu de volume, il y a peu de chance qu’on vienne vous bombarder avec de multiples achats, ventes et modifications d’ordres en quelques instants.

Par contre, il est intéressant de parler d’un vecteur qui semble être oublié : la communication et les technologies afférentes. Vous connaissez tous des systèmes comme Boursorama. Boursorama abrite un forum boursier, où s’échangent de nombreuses informations ou…désinformations. Il faut savoir que la vie de la PME est plus impactée par ce qui se passe sur Boursorama, par exemple, que sur les marchés financiers et les traders (mise à part les conséquences de la crise actuelle sur les liquidités disponibles). Pourquoi ? Sur Boursorama, vous avez une chose absolument terrifiante pour une PME, c’est que l’on a organisé des zones de non droit. En effet, chaque personne qui s’y enregistre peut intervenir sur le marché en étant totalement anonyme, ou du moins en croyant l’être. Pour directement intervenir sur Boursorama, il suffit de créer un pseudonyme. Vous achetez et vous vendez des titres de PME françaises comme vous le voulez et vous pouvez raconter tout et n’importe quoi sur le forum du site de façon tout à fait anonyme. Dans la rue, ce phénomène serait totalement impossible. Imaginez quelqu’un qui viendrait coller des affiches, par exemple antisémites, sur la voie publique. La loi française est très claire. Le premier responsable de cet acte, c’est l’imprimeur. Au regard de la loi, l’imprimeur est responsable de ce qu’il imprime. Boursorama est une sorte d’immense tableau, où n’importe qui peut écrire, et où personne n’est responsable, ni l’auteur, ni celui qui met à disposition ce tableau. De fait, le forum de Boursorama autorise des manipulations de cours et expose les PME au risque de réputation de façon très aisée. Je vous explique comment : un seul individu peut créer deux cents pseudonymes et intervenir sur les forums. Les systèmes étant anonymes, cet individu peut colporter une fausse information sur des PME sous ses deux cents pseudo, s’auto-congratuler, c'est-à-dire que l’individu sous un pseudo X va confirmer que le message délivré par son pseudo Y est une bonne information. Ceci sera confirmé sous les autres pseudos B, C, etc. Le système informatique est tel que plus personne ne pourra démentir ce message ou le faire supprimer. A contrario, si un message contradictoire d’une source correctement informée arrive, le même individu peut discréditer ce message sous ses différents pseudos. Il n’aura qu’a alerter le site que le message qui lui est contradictoire est diffamant, et ce, via le truchement de plusieurs de ses pseudos, et le système supprimera automatiquement le message, sans autre forme de contrôle…laissant seul, gravé dans le dur, son premier message comportant une fausse rumeur.. En résumé, de manière très simple, vous pouvez intervenir sur les PME françaises en racontant n’importe quoi, à l’abri de tous les regards, au vu et au su de tout le monde, avec un vecteur technologique d’information totalement anonyme.

Tous autant que nous sommes, nous regardons cela, et cela ne pose de problème à personne. Sauf aux PME françaises ! Pourtant, des solutions existent… J’ai bien entendu M. Michel Barnier parler de transparence et de responsabilité. Mais avant de commencer à vouloir réguler les marchés mondiaux et leur faire prendre des responsabilités, il faudrait avant tout être capable de le faire à petite échelle, ce qui serait merveilleux pour la vie des PME. Pour cela, je me permets de vous suggérer tout de suite une solution basique. Il suffirait d’aligner la responsabilité des détenteurs de forum boursier de type Boursorama sur celle des afficheurs que j’ai décrite précédemment : cela obligerait des sociétés comme Boursorama, et consorts, à ne pas fournir des accès simplement par retour de mail, mais à contrôler les adresses IP, en confirmant les adresses des gens qui s’inscrivent. Comment cela se traduirait-il ? Lors de votre demande de pseudonyme, vous seriez obligé de donner votre adresse e-mail et physique afin que le site puisse vous envoyer, par courrier physique, un code. Ce code vous permettrait d’activer votre compte sur le site et d’accéder au forum et aux passages d’ordres. Comme vous n’êtes plus anonyme, vous éviterez de raconter tout et n’importe quoi : c’est la vertu la transparence !

Je vois que j’ai lancé un grand pavé dans la mare. Tout le monde est silencieux.

M. Claude Birraux. Cela me rappelle une chose qu’on a vue il y a quelques mois déjà. C’était Hadopi, c'est-à-dire le piratage sur Internet, au mépris des règles de la propriété intellectuelle et industrielle.

Mme Alexandra Givry, adjointe au chef du service de la surveillance des marchés, Autorité des marchés financiers. Je voudrais juste préciser que l’AMF n’est pas du tout indifférente à ces messages qui sont postés sur les forums. Bien au contraire, l’AMF met elle-même en place des outils pour les suivre. L’AMF a la possibilité d’identifier les personnes qui sont à l’origine des messages. Cependant, c’est assez complexe d’étudier les problématiques de rumeurs. Effectivement, il existe certainement des cas sur lesquels nous n’arrivons pas à trouver finalement les responsables. En tout cas, c’est une des préoccupations de l’AMF. Nous mettons en place des moyens pour y répondre.

M. Christophe Remy. Je sais bien que l’AMF est vigilante là-dessus. Ce ne sont pas forcément de grosses rumeurs. Cela peut être des choses très banales. Mais quand vous êtes sur des petites valeurs, où vous avez peu de transactions, cela prend tout de suite des proportions assez importantes. Imaginez un forum sur une valeur où vous avez assez peu d’intervenants. Des gens mal intentionnés et qui manipulent l’information feront fuir l’investisseur. Et comme l’investisseur fuit, forcément, le titre n’est plus échangé, et donc la valeur du titre stagne et s’écroule. Et cela, vous pouvez le manigancer très facilement, parce que vous avez assez peu de mouvement, assez peu de flottant sur ces valeurs-là.

Personnellement, j’ai la chance d’être directeur financier de deux sociétés cotées, sur des marchés différents, dans le même groupe. Nous étions assez attaqués de tous les côtés, y compris par des anciens collaborateurs dont le groupe s’était séparé, et qui nuisaient volontairement à l’image de la société sous couvert d’anonymat. Et je sais que j’ai été le premier directeur financier, depuis bien longtemps, à oser intenter une action avec cette entreprise contre Boursorama, pour obtenir les adresses IP des gens qui étaient régulièrement présents sur les forums. Nous avons réussi à obtenir les adresses IP devant la justice. Ensuite, il nous a fallu poursuivre les providers pour obtenir le nom des gens qui se cachaient derrière les adresses IP. Puis nous avons emmené tout ce petit monde au tribunal et l’affaire dure depuis deux ans. Malheureusement, je peux vous dire qu’au final il ne se passera pas grand chose. Ce que je vous raconte-là, c’est la vie des PME tous les jours. Il n'y a pas besoin de se cacher derrière des traders et de grands mouvements financiers pour voir de quoi est fait notre quotidien.

M. Claude Birraux. Merci. Je sais qu’il y a, dans la salle, de très hauts magistrats. Peut-être qu’ils pourront intervenir. En fait, c’est un peu comme dans les romans policiers. On a commencé par la vision à long terme. On a continué par les bureaux sombres. Et maintenant on en arrive au corbeau qui peut écrire n’importe quoi. Cela devient de plus en plus excitant et de plus en plus obscur.

« L’importance des mathématiques dans la finance moderne : concepts, modèles, méthodes et règles »

M. Denis Talay, directeur de recherche à l’INRIA, professeur chargé de cours à l’École polytechnique, ancien président de la Société de mathématiques appliquées et industrielles. J’avais prévu de commencer mon intervention par une adresse au législateur. Ce sera très court puisque Michel Barnier a dit l’essentiel de ce que j’avais prévu de dire. En tant que citoyen, je voudrais enfoncer le clou, avant que le mathématicien ne prenne la parole. Le grand penseur de notre culture moderne, Georges Steiner, regrette amèrement que, depuis quelques décennies, nous soyions passés de l’ère de la création des idées à l’ère du commentaire. Mon souhait, c’est que l’ère du commentaire, qui est la nôtre cet après-midi — des commentaires aussi intelligents que possible —devienne aussi l’ère de l’action politique, qui amènera les régulations nécessaires à l’économie en général, et à l’économie financière en particulier.

L’étymologie du mot banque semble être le mot italien « banco », qui désigne le banc sur lequel s’asseyaient des Italiens astucieux à la Renaissance, à l’occasion des grandes foires des marchés génois ou florentins, pour écrire des lettres de change aux Italiens qui allaient vers le nord acheter des soieries en Flandres. Ces lettres de change leur évitaient de se faire détrousser en chemin. Le rôle de la banque moderne a été adossé à l’économie réelle — il s’agissait au fond de favoriser des échanges entre les pays du nord et du sud. Cependant, de même qu’il y a eu un glissement de la création des idées au commentaire, il y a eu un glissement des instruments financiers de l’économie réelle vers un fonctionnement interne qu’on a déjà bien repéré dans les présentations précédentes.

Dans ce paysage, les mathématiques jouent un rôle très particulier. Je voudrais très brièvement donner quelques éléments d’explication de l’origine des mathématiques en salle des marchés, en particulier de l’utilisation des mathématiques dites financières. La première grande date est donnée par le modèle de Louis Bachelier. Ce mathématicien français a remarqué, en 1900, qu’on pouvait décrire l’évolution des cours à l’aide d’une transformation très simple, très élémentaire, d’un objet mathématique qui venait d’apparaître, le mouvement brownien. Si l’on dessine des historiques de cet objet aléatoire, on s’aperçoit que cela ressemble beaucoup à des évolutions en temps de cours boursiers très agités. Le rôle particulier d’une mesure de la manière dont ces objets évoluent au cours du temps, c'est-à-dire la volatilité, est apparu tout de suite comme quelque chose de fondamental, et qui ne pouvait pas être pris en compte par des modèles plus simples, en particulier des modèles sans aléa.

La deuxième grande date, c’est évidemment l’analyse de Black et Scholes en 1973. Ils introduisent l’idée extraordinaire que pour valoriser une option, un objet contingent, on peut calculer sa valeur comme la masse d’argent initiale qu’il faut pour obtenir, à la fin, le flux financier qui est représenté par le contrat, exactement, quels que soient les états du monde entre aujourd'hui, date à laquelle je signe le contrat, et la date T à laquelle le contrat arrive à échéance. C’est une idée extraordinaire. Il y a une quantité unique d’argent telle que, si je prends cet argent, et si ensuite j’investis, j’achète et je vends, en utilisant éventuellement les marchés haute fréquence, de manière aussi continue que possible jusqu'à l’instant T, la valeur de mon portefeuille financier à l’instant T sera exactement ce que je dois à mon client.

On conçoit bien que cette notion théorique est une notion de juste prix. Je ne suis pas prêt à acheter plus cher, et a contrario, si je vends moins cher, je vais fatalement perdre de l’argent. Cela étant, j’insiste beaucoup là-dessus, la valeur en question est justifiée dans le cadre strict d’un certain modèle mathématique. Qui dit modèle mathématique veut dire aussi hypothèses. Cette notion qu’il y a un juste prix, c’est uniquement dans le cadre d’un modèle satisfaisant des hypothèses, et des hypothèses très fortes. Premier exemple d’hypothèse : il faut croire qu’il y a un dieu des marchés, un dieu de l’économie ou un grand horloger, qui a décidé que l’historique du marché est décrit par un objet mathématique qui s’appelle une semi-martingale. Deuxième credo : il faut croire que l’actif contingent que je suis en train de gérer a une couverture parfaite, c’est-à-dire que je suis capable de développer une stratégie financière qui va me permettre de répliquer exactement le flux financier à l’échéance. Or, on sait très bien que les deux hypothèses ne sont pas vérifiées par les marchés. La finance est gouvernée par cette dualité. C’est encore mieux que de lancer des dés. Faute de mieux, on applique des théories mathématiques, mais en dehors du cadre dans lequel elles sont validées.

Qu'est-ce qui explique le succès de ces théories mathématiques ? D’une part, elles ont rempli un vide conceptuel. Personne ne savait comment développer une approche rationnelle de ces contrats-là avant le modèle de Black et Scholes. Tout le monde s’est précipité en disant que c’était une excellente idée, qu’on allait appliquer cette théorie pour essayer d’évaluer les actifs contingents. Fait remarquable dans l’histoire des sciences, il s’est trouvé que cela coïncidait avec le développement colossal de la théorie du calcul différentiel stochastique justement dans ces années-là. Or, le calcul différentiel stochastique était justement l’objet théorique qu’il fallait pour valider et pour étendre les idées de Black et Scholes. Je parlais de semi-martingale à l’instant. Le calcul différentiel stochastique a pour objet fondamental les semi-martingales. Exemple : une option américaine est un objet contingent sur les marchés financiers. Il se trouve que cela correspond très exactement à un objet mathématique qui avait été défini, cerné, étudié bien avant la théorie de Black et Schole qui s’appelle « enveloppe de Snell » en théorie des probabilités. Il y a vraiment une coïncidence entre des objets mathématiques en plein développement et les besoins des salles de marché. Il y a donc cet engouement à la fois du monde académique et des praticiens pour utiliser cette approche en l’absence d’opportunité d’arbitrage.

Par ailleurs, cette approche avait suscité une nouvelle cassure mathématique et numérique absolument passionnante. Par exemple, la formule de Black et Scholes a eu beaucoup de succès, parce que c’est une formule dite fermée, c'est-à-dire qu’à partir d’une transformation très simple d’un paramètre, vous obtenez le prix. Le modèle élémentaire de Black et Scholes n’est pas plus compliqué que le modèle de Bachelier de 1900. Comment, à partir de modèles un peu plus compliqués, passer à des formules fermées ? Cela a été rendu possible grâce à des travaux très profonds en théorie des probabilités, notamment ceux conduits par l’école de Marc Yor. Il y a eu des questions extraordinaires, abstraites, sur la manière de caractériser et de prouver l’existence de stratégies optimales de réplication parfaite dans des contextes qui sont un peu plus généraux que le contexte de Black et Scholes. Ils s’approchent un peu plus, on l’espère, de la réalité des marchés. La théorie a suscité aussi des questions, tout à fait originales et profondes, sur la calibration de modèles. On a un modèle mathématique, mais il faut ensuite trouver les valeurs numériques des paramètres qui gouvernent le modèle. Comment trouver ces valeurs numériques à partir des observations du marché ? Il y a eu un renouvellement extraordinaire mais, à mon avis, très insuffisant, de la théorie du contrôle stochastique. C’est une sous-partie de la théorie des probabilités qui permet de répondre à la question : dans le cadre stochastique, comment piloter un système, l’optimiser au mieux, en fonction de certains critères ? Ce sont des problèmes excessivement difficiles qui ont été renouvelés en partie par la finance. Je glisse sur les équations différentielles stochastiques rétrogrades qui sont des objets compliqués. Ils permettent de construire les stratégies de réplication dont je parlais avant. Enfin, d’un point de vue de l’analyse numérique, comment calculer de manière aussi rapide que possible les fameuses stratégies en question ? Ceci pose des problèmes numériques très originaux.

Maintenant, parlons de l’importance très relative des mathématiques, les succès et les échecs. Je commence tout de suite par un point assez fort. Je parle sous le contrôle de Michel Crouhy, présent dans cette salle, directeur de la recherche et du développement chez Natixis, et je vérifierai encore auprès de lui. Les « quants », c'est-à-dire les mathématiciens qui se retrouvent dans les salles de marché pour essayer d’aider les traders à identifier les modèles, à faire de la calibration, n’ont aucun pouvoir décisionnaire. Les bulles, la création de filiales dans des paradis fiscaux, les règles de rémunération dont parlait Michel Barnier, n’ont rien à voir avec les modèles mathématiques que les « quants » développent. On ne peut pas faire porter aux mathématiciens la responsabilité d’une crise à laquelle ils ne contribuent que d’une manière très marginale. Je ne veux pas dédouaner complètement la communauté à laquelle j’appartiens. Il est vrai qu’une partie de la communauté mathématique a aussi une part de responsabilité, en ce sens que, peut-être, dans son enthousiasme à développer des outils de mathématiques financières, elle n’a pas suffisamment fait porter l’accent, non pas sur la valorisation, sur le calcul des stratégies, mais sur les problèmes que suscite la modélisation imparfaite, et sur l’évaluation des risques. Cela étant, grâce à la crise, la tendance a changé. Il y a maintenant de plus en plus de travaux académiques sur ces questions-là, et c’est un bienfait.

M. Rama Cont. Je suis moins optimiste que vous sur le renversement de la tendance.

M. Denis Talay. Je vais donner quelques exemples de succès. Je parlais tout à l'heure de la théorie de l’arbitrage ; j’ai parlé de l’approche rationnelle du « pricing », ce qui n’existait pas auparavant ; j’ai parlé aussi des progrès de la culture du calcul scientifique dans les banques. Quelques échecs, je l’ai dit : un nombre insuffisant de travaux sur l’évaluation des risques et sur la calibration ; des engouements factices pour certaines modélisations qui sont malheureusement très loin de la réalité du marché, en dépit de leur intérêt théorique ; idem pour certains algorithmes ; et aussi une certaine difficulté à localiser le « gras » des problèmes.

En forme de conclusion, je me demanderai si la modélisation mathématique en finance est un Graal ou un leurre. Il faut bien réaliser que le mot « modèle » en finance ne peut pas avoir le même sens qu’ailleurs. Il n'y a aucune loi physique en finance. Il ne s’agit pas d’identifier des lois de Kepler ou le principe fondamental de la dynamique. Ce sont en fait des facteurs humains qui sont à l’origine des cours. Et en plus, ce sont les agents qui fabriquent le modèle. Le modèle est donc fabriqué par l’activité elle-même. C’est un cercle un peu infernal qui pose des problèmes monstrueux du point de vue de l’étude et de l’évaluation de ce que peuvent faire les techniques mathématiques sur les marchés. La calibration est très difficile, parce qu’on ne peut pas répéter une expérience en finance, comme on peut le faire en physique. On ne sait pas répondre à des questions très basiques, du style : comment caractériser le bruit aléatoire qui excite les dynamiques des cours ? Quelle est leur dimension ? Finalement, on a assez peu de données pour identifier correctement des cours. Un dernier point, qui n’est pas négligeable : pourquoi un modèle, qui peut s’avérer bon sur les dix années passées, pourrait rester bon sur les mois à venir ?

Il y a quelque temps, j’avais essayé d’associer la Direction du Trésor à des travaux du monde académique, dans l’idée de faire profiter les futures dépenses de l’État du savoir-faire mathématique et numérique. Malgré toute la bonne volonté des gens que j’ai rencontrés, je me suis heurté à une difficulté : le turn-over fréquent des modélisateurs à la Direction du Trésor. Ils travaillaient dans l’urgence pour pouvoir répondre le lendemain à une demande du cabinet de la ministre. Le résultat, c’est que les effets temps longs sont très mal pris en compte.

Ce que je souhaite personnellement, c’est qu’on ait une réflexion, en amont du travail du législateur, sur le vrai travail des marchés, qui est de contrôler les risques, comme l’a dit Michel Barnier, de développer des stratégies robustes au risque de modèles, parce qu’encore une fois on ne saura pas bien modéliser. Et puis, on voudrait éviter que, finalement, on se retrouve comme à la fin de La Condition Humaine, où tout le monde meurt, physiquement ou émotionnellement, à cause de la haine ou de douleurs trop intenses. Le seul personnage qui s’en tire, c’est le baron de Clappique, grâce à son égoïsme et à ses transactions aventureuses. Je souhaiterais que lors de la prochaine crise, on évite qu’il n’y ait que des Clappique qui survivent.

M. Claude Birraux. On pourrait peut-être aussi souhaiter que l’œil soit toujours dans la tombe et regarde Caïn. Monsieur, je vous remercie. Vos hypothèses sont vraisemblablement ce qu’on peut appeler en mathématiques des postulats, puisqu’elles ne sont pas démontrées ; on a fait longtemps de la géométrie euclidienne à partir du postulat d’Euclide, et un jour, on a démontré des choses dans une géométrie non-euclidienne. Il faut peut-être aussi que les milieux, ou les mathématiques financières, puissent retrouver le monde réel. Quant à l’omniscience, vous savez, depuis Kant, les physiciens et les philosophes ont divergé, à quelques exceptions près, comme Hervé Chneiweiss, membre du Conseil scientifique de l'OPECST, ou Jean Dercourt, secrétaire perpétuel de l'Académie des sciences. Mais ce sont quelques exceptions.

M. Hervé Chneiweiss, membre du Conseil scientifique de l'OPECST. La semaine dernière s’est déroulé le festival Pariscience, l’un des principaux festivals internationaux de films scientifiques, et le grand Prix de la Ville de Paris a été attribué à un film néerlandais intitulé « Quants, les alchimistes de Wall Street ». il pourrait venir en illustration du rôle des mathématiciens dans les salles de marché.

« Les systèmes informatiques en finance »

M. Arnaud Vincinguerra, co-fondateur et responsable de la R&D de la société Sophis. Je vais expliquer ce que nous faisons. La mathématique financière, comme l’expliquait l’interlocuteur précédent, a montré qu’un produit dérivé, une option, un échange de flux, avait une valeur d’arbitrage par rapport aux valeurs des actifs aujourd'hui. Cela a considérablement développé les marchés financiers, parce qu’effectivement, cela permet de transférer les risques financiers des projets industriels vers les marchés financiers. Par exemple, EADS peut se couvrir contre son risque d’une baisse du dollar à trois ans ; Air France peut se couvrir contre son risque de kérosène ; un particulier peut investir dans le CAC 40 et se protéger à la baisse. Tout ceci, c’est grâce aux mathématiques financières. Finalement, la banque va prendre des engagements auprès de ses clients : garantir des cours, livrer à des prix, et en face, elle va prendre des positions sur le marché pour couvrir les engagements qu’elle a pris. Pour gérer l’ensemble de ses engagements, et les couvertures qu’elle prend, elle a besoin de systèmes informatiques, et c’est là où Sophis intervient.

Les fonctionnalités requises d’un système tel que celui-ci consistent à pouvoir, bien sûr, récupérer les données de marché, les transactions effectuées, à pouvoir évaluer les produits dits dérivés, à visualiser les positions, à faire des scénarios de risque de changement de paramètres de marché, pour permettre aux traders de se couvrir contre les évolutions de marché. Et bien sûr, ce sont des systèmes qui sont assez gros, avec plusieurs centaines de postes utilisateurs. Il faut aussi sécuriser l’ensemble des transactions du trader au back office, au paiement, à la comptabilité, jusqu'au message de confirmation. Ce sont également des systèmes qui ont besoin d’énormément de temps de calcul. Malheureusement, toutes les formules ne sont pas fermées, et nécessitent des prix de type Monte Carlo, où l’on fait des millions de simulations pour avoir un prix. Enfin, l’innovation est extrêmement fréquente, et donc, il faut pouvoir investir constamment pour s’adapter aux demandes des marchés financiers.

Un mot sur la société Sophis. Créée en 1986, Sophis est un éditeur de logiciels qui a fait sa première version d’un système pour une table de dérivés actions pour la Caisse des Dépôts en 1992. Depuis, le logiciel a considérablement évolué. Il s’élargit aussi à d’autres types d’acteurs, comme les hedge funds et les gestionnaires institutionnels. Aujourd'hui, Sophis fait quatre-vingts millions d’euros de chiffre d'affaires, emploie trois cent cinquante employés, essentiellement des ingénieurs hautement qualifiés, et elle a plus de cent cinquante clients à travers le monde, en particulier en France, Natixis, Crédit Agricole, Axa, BNP Paribas, Dexia.

Quelles évolutions avons-nous vues depuis la crise, qu'est-ce qui a changé ? Les banques ont moins d’appétit pour les produits exotiques qui ont du mal à évoluer. Elles s’occupent davantage de produits plus ou moins standards et plus faciles à faire évoluer. Pour prendre un exemple, les cute finance, c’est quelque chose qui a progressé en termes de demande. Ils consistent à financer l’achat d’actions de leurs clients. On voit aussi que les départements de risque, qui, auparavant, avaient leurs propres outils d’évaluation, vont utiliser les outils de front office sur la gestion. En ce qui concerne les gestions institutionnelles, bien sûr, elles ont beaucoup souffert, puisque les marchés ont baissé et que leurs revenus sont proportionnels à la valeur des actifs de gestion. Elles sont à la recherche de productivité dans leur organisation informatique. Elles passent d’un système qui était le meilleur des systèmes pour chaque petite partie de leur organisation, à un système qui est globalement capable de répondre à l’ensemble de leurs besoins. Elles aussi veulent utiliser les outils de gestion de risque employés par les banques au bénéfice de leur propre gestion. Quant aux hedge funds, ils ont particulièrement souffert, en 2008, par un rachat massif de liquidité par leurs investisseurs. Depuis l’été 2009, le marché se redresse pour elles. La demande de leurs investisseurs, et donc la demande qu’elles nous font, va vers plus de transparence sur leur gestion, et donc vers plus de rapports avec leurs investisseurs, avec une meilleure évaluation des risques, en particulier le risque de liquidité. Comme elles se sont retrouvées bloquées avec des demandes de retraits et des actifs très peu liquides, elles ont dû verrouiller l’ensemble de leur gestion.

« Innovations financières et incidences sur les marchés financiers »

M. Jean-Paul Betbèze, chef économiste et directeur des études au Crédit Agricole. Monsieur le Président, mesdames et messieurs, je vais vous parler en tant qu'économiste, selon une série de parties, divisées elles-mêmes chacune en deux sous-parties.

Deux temps. Les économistes vivent selon deux temps. Un temps long, c'est le temps de l’entrepreneur, le temps de ses choix et de ses stratégies, et le temps court, qui est plutôt le temps spéculatif, le temps des marchés. Le temps long est le temps de la réflexion et le temps court est le temps de la réflexion, mais au sens du miroir, c'est-à-dire que je me regarde dans le miroir, je regarde les autres et je regarde si, derrière moi, une majorité se forme (à l'achat ou à la vente). Donc, entre le temps long du « Je » et le temps court du « Nous », existe en permanence une ambiguïté, pour ne pas dire une contradiction. Les entrepreneurs sont ainsi dans le temps long, en même temps qu’ils vivent dans le temps court de Boursorama !

Deux types d'actions : face à ces deux types de temps, long et court, deux types d’actions se présentent. D’une part, ce sont des actions de régulation, celles de l’AMF par exemple, de suivi, d’organisation ; d’autre part, ce sont des actions d’éclairage de la politique monétaire. La politique monétaire est en effet devenue de plus en plus importante dans la façon de former les anticipations. Si je suis "pris" entre un temps long et un temps court, je vais essayer de trouver des gens qui peuvent s’appeler Alan Greenspan, Jean-Claude Trichet ou Ben Bernanke et qui vont me dire : « Suivez-moi, je vais dire des choses sur le futur». Et, d’une certaine manière et pendant quelque temps, ils peuvent réussir.

Deux problèmes : le fait que des responsables ou experts « réussissent » ainsi en économie conduit à deux types de problèmes. Le premier, c’est qu’on va les croire, parce que dans un premier temps au moins, cela marche. C’est ce qu’on appelle le « paradoxe de la tranquillité ». Et si cela a marché si longtemps (dans leurs analyses et prévisions), s’ils sont tellement bons, c’est qu’au fond, je suis moi-même trop inquiet. Le deuxième problème qui peut « m'arriver » quand je suis un banquier central, c’est ce qu’on appelle le « paradoxe de la crédibilité ». C'est-à-dire que, d'une certaine manière, M. Alan Greenspan a « vu » le monde économique et financier avant que les autres ne le voient, il l'a "éclairé". Il « savait » les problèmes avant que les autres ne les devinent, et nous a tous aidés. Mais il nous a, ainsi, tous conduits dans les problèmes qu’il a lui-même fabriqués... en nous disant qu’il n'y en avait pas. Le "paradoxe de la crédibilité" est un processus dans laquelle nous diminuons en effet, chacun, nos défenses immunologiques (nos inquiétudes sur le futur). Le prix du risque diminue alors, mais sans que le risque lui-même diminue. Au contraire : le fait que le prix du risque diminue fait que le risque augmente, puisque plus de risques sont pris. Au fond, quand vous avez d’excellents éclaireurs, vous avez d’excellents risques d’avoir des problèmes !

Deux innovations. Face à cela, deux types d’innovations se présentent. Les premières consistent évidemment à essayer d’éviter les règles de l’AMF – pardonnez-moi Mme Givry —, les règles d’une façon générale, afin d’essayer de trouver un lieu sans règle, qu’on pourra appeler un « paradis ».  En quelque sorte, l'innovation, c’est dans ce cas éviter le régulateur. La deuxième façon d’innover consiste, si l'on peut dire, à éviter le succès du banquier central. En effet, si j’ai un banquier central qui, par sa crédibilité, réduit les primes de risque, il fait en sorte que les taux d’intérêts sont extrêmement bas. Mais comment vais-je vivre, puisque je cherche des rendements ? Donc il va y avoir des innovations, justement pour faire en sorte que la vie soit un peu plus excitante, que les rendements soient un peu plus élevés, et que je m’éloigne de cette « tranquillité » que les autres ont amenée. Cette innovation a eu un nom de code général... le « subprime ». C’est un produit qui s’est développé, enfant naturel de la tranquillité et de la crédibilité, donc du succès paradoxal des régulateurs et des éclaireurs. Cette innovation là est un enfant de l’ennui !

Deux réactions. Face à ces deux innovations, deux réactions vont apparaître. La première, c’est celle que nous vivons actuellement, en suivant les propos du commissaire Barnier. Aujourd'hui, on va ainsi vers deux types de contrôles, que j’appellerais le « contrôle des causes » et le « contrôle des masses ». Le "contrôle des causes" consiste à surveiller les banques et les crédits. Je n’ai rien contre. Il consiste aussi à faire des stress tests, évidemment pour... stresser les banquiers. Ajoutez là-dessus des excès de vertu, comme le dit la profession, à tout le moins des "demandes de vertu", dites Bâle 2 ou Bâle 3. Nous sommes entrés dans un processus du retour du contrôle, étant entendu qu’auparavant nous étions dans un système de diminution du contrôle. À côté de ce "contrôle des causes" (normes de la BRI5, rapport de Larosière6, nouveaux rôles des banques centrales), il y a  le "contrôle des masses", avec le contrôle des dépôts ou encore celui des très grandes entités systémiques, les « too big to fail», ces quinze grandes entreprises bancaires et financières qui ne devraient surtout pas sauter, sauf à faire prendre des risques à l’ensemble de l’économie.

Aujourd'hui, après les "deux temps", les "deux actions", les "deux innovations", nous en sommes à ces "deux contrôles". Et ces deux types de contrôles, immanquablement, vont appeler les nouvelles innovations qui fabriqueront… les nouvelles difficultés de notre prochaine crise. Elle aura lieu dans les cinquante prochaines années, ce qui fait qu’on a le temps de s’y préparer. Je vais simplement indiquer quelques pistes qu’elle pourrait emprunter. La première, c’est qu’il va y avoir des hedge funds qui vont se développer, des structures qui vont naître à côté des systèmes régulés. N’oubliez pas que le système bancaire était régulé pour une partie, et que ce qui n’était d’ailleurs pas régulé s’appelait « shadow banking », c'est-à-dire la banque de l’ombre, d’où la crise est venue. La banque de l’ombre a fait de l’ombre à l’autre. Aujourd'hui, ce peut être des hedge funds, des endroits moins régulés qui se développent, et dans lesquels il y aura plus de risque. Bien entendu, deuxième idée, de nouveaux produits vont se/s’y mettre en place, ce qui fait que les mécanismes et l’innovation des finances seront encore plus importants.

En résumé, il faut je crois se rendre compte de tous ces éléments. Entre les deux temps de l’économie, les innovations, le jeu entre « j’innove et je régule », « j’essaie de réguler et j’essaie d’éviter la régulation », est perpétuel, permanent. Appeler à l’éthique de la responsabilité, je n’ai évidemment rien contre. Regarder de plus près l’évolution des crédits, je n’ai évidemment rien contre. Mais faisons tous très attention. Nous avons aujourd'hui des enjeux beaucoup plus importants et beaucoup plus risqués dans ce rapport entre innovation et finance. Cette fois, nous sommes passés à côté du gouffre. J’espère que dans la prochaine vague d’innovations, on l’évitera également. Mais faisons très attention, et surtout faisons très attention le jour où nous serons tranquilles. La tranquillité est l’élément le plus sûr qui annonce la crise.

M. Claude Birraux. C’est vrai qu’on enseigne dans beaucoup d’écoles de commerce l’éthique du commerce, qui est en gros : comment rouler dans la farine son concurrent, mais d’une manière éthique ? On est d’accord.

M. Jean-Paul Betbèze. On ne doit pas forcément fréquenter les mêmes écoles de commerce.

M. Claude Birraux. Je n’ai pas fréquenté du tout les écoles de commerce.

M. Jean-Paul Betbèze. Je suis professeur de faculté... Simplement, ce qui se passe, c’est que c’est un jeu dangereux. J’en appelle à l’idée de la vigilance. Bien entendu, il faut aussi des gens qui nous éclairent et qui nous tranquillisent. Mais les gens qui nous tranquillisent ne doivent pas nous endormir. A nous de rester vigilants.

M. Claude Birraux. Il faut peut-être qu’il y ait aussi parfois le doute, non pas le scepticisme, mais en tant que source de fertilisation de l’imagination et du processus scientifique.

« Diffusion de l'information et facteurs psychologiques sur les marchés »

Parmi les facteurs et les acteurs qui participent au comportement du marché, se trouvent des êtres humains. Des humains, avec leur personnalité, leurs émotions, leurs faiblesses, leur histoire, et leur futur. Ces humains interagissent en permanence avec un environnement physique et social qui va grandement participer à l’émergence de leur comportement et jouer un rôle prépondérant dans leurs décisions.

Les humains ont quelques traits communs avec les marchés. Le principal est qu’ils constituent des systèmes complexes, auto-organisés, c'est-à-dire qu’ils peuvent adopter certains comportements et être organisés sans qu’il n’y ait, pour autant, l’intervention d’un tiers prescripteur. Les comportements du marché, comme des humains, ne sont donc pas uniquement le fruit d’une réaction à des informations exogènes, mais résultent aussi d’une dynamique endogène, que l’on peut contraindre, mais difficilement contrôler. On observe, ainsi, une succession d’états, (plus ou moins) stables et de transitions de phases, abruptes, entre ces états. Une perspective relativement éloignée des modèles d’efficience en vigueur puisque le tout agrégé, n'est pas forcément supérieur, mais différent, de la somme des parties. De fait, quand bien même connaîtrions-nous le comportement de chaque composant (individu ou machine) qui intervient dans un marché, il nous est impossible d’en déduire, selon des relations directes, linéaires et univoques, le comportement d’ensemble résultant de leurs interactions.

Dès lors, il est légitime de se demander si, face à de telles propriétés, l’étude du comportement humain peut éclairer les travaux en finance. Mon sentiment - et je suis loin d’être le seul à le penser - est qu’il le faut. Pourquoi ? Parce qu’en dépit des propriétés que je viens d’énoncer, le comportement d’un individu isolé, ou d’un groupe d’individus, peut déstabiliser une institution, voire faire fluctuer un marché. Les exemples sont légion. Pensez aux conséquences de l’affaire de la Société Générale et à ses répercussions au niveau des taux d’intérêt de la Réserve Fédérale Américaine. Quid du flash crash du 6 mai dernier, ou de Steven Noel Perkins, sous l’emprise de l’alcool, qui, au matin du 30 juin 2009, fut, à lui seul, au cœur de transactions avoisinant 30% de la production totale des pays exportateurs de pétrole, participant à une augmentation record du prix du baril. Sans oublier, les fat fingers : en 2001, un trader de chez UBS a fait perdre à sa banque près de cent millions de dollars après avoir vendu six cent dix mille actions à six yens alors qu'il cherchait à vendre seize titres à six cent mille yens. Ou encore, l’exemple survenu, il y a quelques jours, quand une faute de frappe a déstabilisé le marché de l’aluminium. La liste est longue.

Mon propos n’est pas de dire que ces actes « manqués », au sens premier du terme, sont les responsables uniques de telle ou telle situation, mais qu’ils font partie des éléments participant à la déstabilisation des marchés financiers. C’est pourquoi l’économie et la finance comportementales, portées par des pionniers tels Richard Thaler, Daniel Kahneman ou encore Robert Shiller, connaissent un réel engouement. Ces disciplines étudient les « forces irrationnelles » qui sont au cœur des comportements économiques et financiers : les erreurs de jugement systématiques, l’excès de confiance, l’illusion monétaire, l’aversion à la perte, le souci d’équité, la réciprocité, l’imitation, le mimétisme, la peur, la panique, la contagion émotionnelle, etc. Au-delà de la recherche académique, nombre d’institutions publiques et privées, comme, par exemple, le Forum Economique Mondial et son Global Agenda on Decision Making and Incentive Systems, auquel j’appartiens, sollicitent l’éclairage des sciences comportementales et du cerveau, comme complément des théories et outils traditionnellement employés en finance.

La finance comportementale a donc pour objet d’étudier, non pas les modèles en vigueur, mais le fonctionnement réel de la finance. Il ne s’agit pas de s’intéresser à la finance telle qu'elle est (ou a été) décrite, par la plupart des experts : des marchés efficients, capables de s’autoréguler avec, en leur sein, des individus faisant des choix rationnels. Elle porte, plus précisément, sur les comportements qui s’écartent de la rationalité, telle qu’elle est envisagée dans les sciences économiques, ce qu’il est d’usage d’appeler des « anomalies ». Mais n’est-ce pas un paradoxe que de qualifier d’anomalie un comportement qui n’est pas économiquement rationnel, qui est influencé par des interactions sociales, et dans lequel les émotions peuvent jouer un rôle non négligeable ? Car, tout ceci n’est en fait qu’un comportement banal, dès lors que l’on n’est plus dans la sphère économique ou financière mais dans la vraie vie. Ne devrait-on pas, plutôt, considérer la théorie standard, elle-même, comme une anomalie, plutôt que de qualifier ainsi le vrai comportement des individus ?

Toutes ces problématiques, nous les étudions avec des méthodologies d’enregistrement du comportement, tels que le mouvement des yeux, le temps de réaction, la réaction électrodermale, les pulsations cardiaques, l’estimation de l’activité du cerveau à travers des expériences de laboratoire, certes, mais également de terrain, pour d’autres. Tout un ensemble de travaux est réalisé avec ces méthodologies, afin d’espérer apporter des éclairages nouveaux sur la façon dont les acteurs du monde financier vont prendre des décisions, comment les biais psychologiques les affectent ou encore en essayant de comprendre comment l’information est prélevée et utilisée. Mais le peut-on vraiment quand l’échelle temporelle des opérations est désormais de l’ordre de la micro, voire de la nanoseconde ?

Citons, par ailleurs, l’expérience in vivo réalisée par une équipe de Cambridge qui a enregistré les variations hormonales de traders, pendant une journée de travail, et corrélé ces données d’endocrinologie avec la volatilité du marché. Les résultats montrent qu’un trader, avec un fort taux de testostérone, a statistiquement plus de chances d’avoir de bons résultats en fin de journée. Les médias n’ont généralement communiqué que sur cette partie des résultats de l’article scientifique. La conséquence a été une recrudescence de prise de testostérone exogène chez les traders, puisqu’ils ont lu qu’avec un haut taux de testostérone en début de journée, ils finissaient par avoir de bons résultats. Cet aspect rejoint une autre préoccupation que nous avions abordée lors de ma précédente audition par l’OPECST dans le cadre de la préparation de la révision des lois de bioéthique : l’utilisation des données de neurosciences hors des laboratoires de recherche scientifique et médicale.

Dernier point sur lequel des travaux de recherche sont réalisés : les questions d’addiction. En ce qui concerne les acteurs des marchés financiers, il est possible de distinguer deux niveaux. Tout d’abord, les addictions dites « sans substance ». Elles sont plus liées au goût et à la prise de risque, faisant que la personne travaillant dans un environnement extrêmement stimulant et stressant, va avoir certains comportements de dépendance ou, tout du moins, de pratique excessive, et donc, devenir « addict » au « jeu » que représentent les opérations financières. Ensuite, il y a la recrudescence de la prise de stupéfiants et le changement de comportement. Il fut une époque, où la prise de drogue pouvait être qualifiée de « sociale », dans ce sens où son but premier n’était pas vraiment d’améliorer la performance professionnelle. Aujourd'hui, cela s’apparente plus à du dopage, comme dans le sport. La prise de cocaïne, par exemple, sans que je ne la recommande ni ne l’approuve, permettrait, pour certains, d’avoir un niveau de vigilance plus élevé, de moins dormir, et donc d’être plus actif pendant un certain temps. Les conséquences sont pourtant dramatiques à la fois pour l’homme et pour le système, si des actes inconsidérés sont réalisés, une fois qu’il y a accoutumance, et que tous les biais sont renforcés, voire exacerbés, notamment l’excès de confiance. Ces pratiques se répandent tellement que, notamment en Suède, des contrôles anti-dopage sont réalisés au moment du recrutement de certains acteurs de la finance, mais aussi des contrôles inopinés pendant le travail, pour essayer d’éviter des dérives qui sont dues à la prise de stupéfiants.

Pour en finir avec cette première partie de mon intervention, ne vous méprenez pas, je ne pense pas que les sciences comportementales constituent le remède à tous les problèmes évoqués aujourd’hui. Toutefois, ne pas les convoquer plus fréquemment en finance, comme complément nécessaire aux théories et outils en vigueur, constituerait assurément une erreur.

Débat.

M. Claude Birraux. Merci. Ce que vous venez de dire ne concerne peut-être pas seulement les traders compulsifs. Il me revient en mémoire une visite chez Areva Inc. à Lynchburg aux Etats-Unis, où le directeur venait de passer une série de tests. Il devait répondre à 500 questions qui avaient pour but de tester ses capacités à exercer ses fonctions de directeur d’une société comme Areva Inc. En fonction des résultats, on disait au patron : celui-là, il peut faire face à ses responsabilités ou il ne peut pas. On va donc peut-être sur cette voie, tout doucement. Ce directeur m’avait précisé qu’il ne fallait surtout pas s’amuser à donner des réponses fantaisistes, parce qu’alors on vous envoyait chez le psychiatre, et qu’à partir de là, cela devenait très compliqué. Nous n’allons donc pas faire de fantaisie. Je vais demander à M. Rama Cont de lancer le débat.

Rama Cont. Voici quelques questions autour du thème de cette journée, sur le rôle des méthodes quantitatives et des technologies en finance. J’ai choisi de me focaliser sur les questions liées à la gestion et à la régulation des risques financiers, puisque c’est cela qui nous intéresse principalement ici.

Certaines interventions ont clairement insisté sur le fait qu’il y a au moins trois facteurs qui ont changé la nature des marchés financiers dans les deux dernières décennies :

- l’automatisation, c'est-à-dire l’utilisation de plus en plus grande de l’outil informatique ;

- la globalisation des échanges sur les marchés financiers, qui a changé l’échelle à laquelle on fait les transactions ;

- l’apparition massive de transactions financières “complexes”, de gré à gré, c'est-à-dire les produits auxquels ont fait allusion certains orateurs, qui sont dans un créneau du marché peu réglementé, soit à l'extérieur du monde bancaire, dans les « shadow bank » et les hedge funds, soit hors bilan.

Ces trois aspects ont conduit à une mutation, un changement de nature, des échanges financiers. On peut dire que ces trois éléments ont modifié la dynamique des marchés. On a entendu des allusions à l’accélération du rythme des échanges et des variations de prix sur ces marchés. On parle de millisecondes, ce qui était inédit, il y a encore dix ou vingt ans. Ils ont fait apparaître de nouveaux risques systémiques. La globalisation des échanges et le fait que la plupart des acteurs ont des portefeuilles diversifiés font que, lorsqu’ils veulent sortir de leur position, ils vont déclencher des mouvements couplés sur des marchés qui sont, a priori, découplés, du point de vue fondamentalement économique. L’apparition des transactions, qui sont dans le domaine non régulé ou dénué de transparence, a diminué la visibilité des régulateurs sur les marchés et sur les risques qu’ils représentent. Force est de constater que les pratiques de gestion et de surveillance des risques, à la fois au sein des institutions financières et, surtout, chez les régulateurs, n’ont pas toujours évolué à la même vitesse que les changements et les mutations auxquels on fait allusion ici. On a donc des risques hors du champ des gestionnaires du risque et des régulateurs, qui sont soit mal surveillés, soit pas surveillés du tout.

La crise est-elle un échec pour la gestion des risques en général ? Beaucoup de personnes l’ont dit. La crise montre que les méthodes de gestion du risque ont failli. Il faut donc les remettre en question de fond en comble. M. Denis Talay a critiqué un peu ce point de vue simplificateur. Force est de constater que les méthodes de gestion du risque ont failli dans leur mission de surveillance des risques financiers lors de la crise. Une fois qu’on a fait cette constatation, il reste à éclaircir la cause de cette faillite. Est-ce la faute aux modèles et aux techniques de gestion ? Ou à l’incompétence des personnes qui les mettent en œuvre ? Ou alors, de façon plus profonde, aux mécanismes d’incitation et de compensation qui sont les principaux mécanismes qui vont générer les actions de la part des acteurs financiers ? Même s’il y a des écarts par rapport à la rationalité, on peut constater que les marchés financiers sont les systèmes économiques les plus purs, dans le sens où ils sont le plus proche de l’homo economicus qu’on trouve dans certains livres d’économie. L’incompétence, ou les mécanismes d’incitation qui sont incompatibles avec les objectifs de gestion des risques, c’est quelque chose de très important. Cela a peu de rapport avec les apports scientifiques et technologiques, et leurs impacts sur les marchés, mais je pense que c’est fondamental. Dans le débat sur la crise, beaucoup d’intervenants ont mis l’accent sur cet aspect des mécanismes d’incitation. Faut-il changer les schémas de compensation des traders ? Etc. Je pense qu’on ne peut pas évacuer cet aspect-là. Je constate, ici, que la faute incombe aux régulateurs et aux gestionnaires de risque. Les gestionnaires de risque qui étaient en poste lors de la crise, ont, le plus souvent, été démis de leur poste, quand leur institution n’a pas purement et simplement disparu. Les régulateurs qui étaient en place lors de la crise sont toujours là, et se sont vus doter de plus de responsabilité. On peut s’interroger là-dessus.

Je constate également, et ce constat est partagé par certains orateurs, que malgré ses limitations, la gestion quantitative du risque fonctionne. Je pense qu’il faut ne pas tout mélanger en disant que les méthodes de gestion n’ont pas fonctionné. Certaines institutions, que je ne citerai pas, ont pris au sérieux la gestion du risque dans leur gouvernance. Elles ont investi en interne dans les techniques de gestion du risque. Et surtout elles ont pris en compte le risque dans la prise de décision au niveau de la stratégie globale de la banque. C’est une chose que d’avoir un système de risque très avancé au niveau technologique, c’en est une autre que de consulter le chef de risque de la banque au moment de prises de décision importantes dans l’orientation stratégique des investissements de la banque. On a pu voir que ces institutions ont pu naviguer dans les eaux troubles de la crise de façon satisfaisante. D’autres acteurs financiers, qui étaient réputés avoir une approche peu sophistiquée de la gestion des risques, ont subi de grosses pertes lors de la crise. Ils n’ont pas su gérer le risque. Il y a enfin de grandes institutions financières, par leur taille, qui, bien qu’étant relativement sophistiquées dans le trading, en ayant investi énormément dans les technologies et les méthodes quantitatives, ont négligé de développer les techniques de gestion du risque au niveau de la gestion globale de la banque. La gestion du risque était très bien gérée au niveau des desk et au niveau micro, mais le PDG, ou le pilotage de la banque, n’avaient pas forcément une vue très correcte du risque que représente l’investissement de leur desk trading. Cela, je l’ai malheureusement constaté lors de mes interactions répétées avec certaines institutions financières, en Europe et aux Etats-Unis. Dans certaines institutions, la gestion du risque a surtout été vue comme une « source de coût » et non pas comme une « source de profit ». L’investissement dans la gestion du risque n’a pas été privilégié. Et, dans ce cas-là, on ne peut pas dire que c’est un problème technologique ou scientifique. C’est plus un problème de culture de gestion et de gouvernance, dans la mesure où les techniques étaient disponibles, dans le domaine public, depuis longtemps. Les institutions de la première catégorie, que j’ai citée, avaient une avance technologique certaine, mais l’essentiel des techniques de gestion du risque, sans parler des techniques de trading, étaient dans le domaine public, depuis longtemps. Je ne pense pas qu’on puisse dire que dans toutes les institutions financières de grande taille, en Europe et aux Etats-Unis, l’état de l’art de la gestion du risque était mise en oeuvre au moment de la crise.

Autre constat. Les outils scientifiques et technologiques mis en place dans les banques au service du trading haute fréquence, par exemple, sont pour la plupart, dans le domaine public, et déployables au service des régulateurs. Or, on constate, aujourd’hui, que les régulateurs n’en font pas un usage intensif. Il y a une asymétrie, extrêmement forte, entre les technologies utilisées pour réguler et surveiller, et les technologies utilisées par les acteurs financiers. Évidemment, on dira que c’est faute de moyens, parce que le régulateur n’a pas à sa disposition le budget d’un Goldman Sachs, mais je pense aussi que c’est faute de compétence. Il y a aussi une asymétrie de compétence. La régulation financière est à la traîne. D’une part, elle est cantonnée à un cadre national, alors que les échanges et les institutions sont multinationales et transnationales. D’autre part, elles sont focalisées sur les approches macroéconomiques. C’est la question des deux temps que vous évoquiez. On fait très attention au temps long, mais il se passe des choses, dans le temps intermédiaire ou dans le temps court, qui semblent échapper à la vision du régulateur. De ce fait, la régulation financière a semblé, lors de la crise, décalée par rapport à la réalité du marché qu’elle est censée réguler.

Ce qui m’a frappé dans l’exposé de M. Yves Bamberger, c’est son insistance sur l’observabilité et la prévisibilité. Ces deux aspects, si importants pour la "contrôlabilité" d’un système, manquent tant au système financier. Il s’agit, en partie, d’instaurer – je ne parle pas de restaurer, puisqu’elle n’a jamais été vraiment là- une certaine prévisibilité, une certaine visibilité. C’est là où les méthodes scientifiques et les nouvelles technologies peuvent aider. C’était très visible au moment du déclenchement de la crise. Aucun régulateur n’avait de visibilité par exemple sur les conséquences de la faillite de la banque d’affaires Lehman Brothers. Ils ne savaient déjà pas quelles étaient les expositions des autres banques, de leur pays, ou des autres banques internationales, à cette banque qui faisait faillite.

M. Jean-Paul Betbèze. Quand une banque de cette ampleur se refinance overnight, vous pouvez vous poser quelques problèmes. Sans faire de mathématiques sophistiquées, cela veut dire que si le lendemain à huit heures, vous n’avez pas l’argent, vous sautez. C’est ce qui s’est passé.

M. Rama Cont. Dans ma partie sur la visibilité, je ne parle pas de mathématiques ou de technicité.

M. Jean-Paul Betbèze. Non, mais là, c’est de l’invisibilité.

M. Rama Cont. C’est simplement l’existence de données, ou de vision sur ce qui est là. Ces données sont là, mais personne ne les regardait dans l’ensemble pour voir ce qui se passe. Alors je pense que là, il y a des données existantes. Vous avez fait allusion à des choses qui étaient connues des régulateurs, mais sur la base desquelles ils n’ont pas agi.

Il y a aussi des données qui étaient invisibles pour le régulateur. Par exemple, les expositions mutuelles des institutions financières, aujourd'hui, ne sont visibles à aucun régulateur. Les régulateurs nationaux peuvent, tout au plus, regrouper, à leur demande, des données sur les expositions interbancaires des institutions de leur pays, mais évidemment, les expositions les plus importantes des institutions françaises ne sont probablement pas aux institutions françaises, mais, plutôt, aux institutions qui se trouvent en Allemagne, à Londres ou aux Etats-Unis. De telles bases de données n’existent pas aujourd'hui. La mise en place de ces données, sous une forme sécurisée, peut être un premier pas, pour rendre un peu plus de visibilité dans un système qui est relativement complexe et peu visible.

Ensuite, vient la prévisibilité. Il y a des marchés totalement transparents, comme les marchés boursiers, dans lesquels les carnets d’ordres sont enregistrés électroniquement. Cette transparence totale ne rend pas pour autant le système prévisible. Pour faire des prévisions de risque, des extrapolations et des simulations de risque dans ce type de contexte, le régulateur doit se doter d’outils analytiques et de modélisation. Dans ce cas, l’interface entre la technologie et la recherche reste à développer. Cette interface a été développée, et on est allé très loin dans la recherche, entre la recherche et les salles de marché, qui se sont effectivement équipées de systèmes sophistiqués de gestion du risque. Les régulateurs, ceux qui sont chargés de surveiller le marché, peuvent aussi le faire. Évidemment, il y a un coût. Qui va supporter ce coût ? Je pense que si on veut avoir un peu de visibilité et de prévisibilité, c’est ce vers quoi il faut aller.

En conclusion, je dirais que restaurer la visibilité du risque, c’est un contexte dans lequel les méthodes scientifiques et les nouvelles technologies peuvent intervenir au service de la régulation. Les technologies et les méthodes qui ont été mises au service des institutions financières peuvent-elles aussi avoir une utilité sociale dans un sens un peu différent ? Cette question sera abordée dans la deuxième partie. Ces techniques sont utiles et intéressantes pour la surveillance et la régulation de ce système financier. Des exemples existent, dans d’autres pays. J’évoquais la mise en place de données sur les expositions interbancaires. Dans des pays comme le Brésil, par exemple, il existe une base de données sur l’exposition, entre toutes les institutions financières, banques et établissements de crédit. Les établissements brésiliens sont tenus de mettre à jour leurs expositions à toutes les contreparties, et ce, chaque jour, auprès de la banque centrale brésilienne, qui maintient donc ces données à des fins de surveillance. Pour ce qui concerne la constitution de bases de données de transaction, il y a aussi l’initiative intéressante aux Etats-Unis, inscrite dans la loi Dodd-Frank7, de la création d’une agence gouvernementale « Office of Financial Research ». J’ai contribué à la mise en place de la maquette de cette agence. Cette initiative consiste à regrouper des données de transaction et de position, via les sources commerciales existantes, et l’« Office of Financial Research » est une tentative pour compléter cette base, pour être une base de données pertinente, remise à jour en temps réel ou presque, au service des régulateurs.

Toutes ces initiatives n’ont vraiment de sens qu’au niveau européen, voire mondial. On aura, à ce sujet, une intervention de M. Marcel-Eric Terret à la Direction générale du marché européen. Si l’on prend des initiatives de ce type au niveau national, la collecte de données au niveau national n’aurait pas grand sens, au regard du risque systémique. Et si on va au-delà de cette collecte, la mise en place de régulations au niveau national peuvent être différentes d’un pays à l’autre. Si ces régulations sont différenciées entre pays, cela donnera lieu aux arbitrages géographiques que l’on sait. Par conséquent, il faut être ambitieux tout de suite, ou alors on n’obtiendra aucun effet.

Je vais m’arrêter là. Des points ont déjà suscité des réactions.

M. Claude Birraux. Merci M. Rama Cont pour cet exercice remarquable de synthèse des débats qui ont eu lieu pendant toute cette première table ronde. Nous sommes admiratifs. Le débat est ouvert. Avez-vous des questions à poser ? Je dis bien des questions aux différents intervenants. Je sais bien que des représentants des banques sont présents. Nous n’attendons pas de déclaration, la main sur le coeur, comme quoi ce qui est arrivé à une banque n’arrivera pas à la vôtre.

Raphaël Douady, directeur de la recherche à Risk Data. Je travaille pour une société éditrice de logiciels de risque, un peu comme celle de M. Arnaud Vincinguerra, qui est un ami. Je souhaite poser ma question à M. Rama Cont, mais peut-être que d’autres intervenants auront aussi des réponses. Une des réactions actuelles, bien compréhensible, des régulateurs face à la crise, a été de demander une transparence totale des transactions à tous les acteurs financiers. Cette réaction a été générale. Or, comme l’a souligné M. Rama Cont, les moyens des régulateurs sont limités. Je vois trois dangers à cette demande de transparence totale, telle qu’elle a été présentée. Le plus grand danger, c’est la déresponsabilisation des institutions financières en termes de calcul de leur risque. Un banquier à qui on demande d’être totalement transparent va dire de calculer les risques à sa place. Et s’il peut essayer de développer son « shadow banking », comme l’a appelé M. Jean-Paul Betbèze, effectivement, tout ce que vous ne voyez pas, d’une certaine manière, la banque en sera totalement blanchie, parce qu’elle vous aura donné tout ce que vous lui avez demandé. Il y aura toujours des choses que le régulateur ne verra pas, d’une part, parce que c’est impossible de tout voir, et d’autre part, parce qu’il n’en a pas les moyens. C’est pourquoi, j’aurais plutôt tendance à penser que le régulateur devrait demander une transparence des risques. C’est quelque chose de complexe. Et c’est d’ailleurs ce qu’il avait demandé. Il avait demandé une Value at Risk. Mais une Value at Risk est un résumé extrêmement réduit de ce que devrait être la transparence des risques. Je pense que les régulateurs devraient demander aux institutions financières quelque chose de très détaillé : « Qu'est-ce qui leur arrive si… ? » « Quelles sont leurs expositions ? » Et ensuite, les responsabiliser s’ils ont mal régularisé. C’est un petit peu la méthode du CD qui enregistre la vitesse des camions. Pour que, après coup, le régulateur puisse dire : « Vous m’aviez déclaré que si le marché faisait telle ou telle chose, il arriverait telle chose. » En définitive, ne vaudrait-il pas mieux demander une transparence des risques plutôt qu’une transparence des positions ?

M. Rama Cont. Quand on parle de transparence, il faut être très vigilant. Il faut distinguer, d’une part, la transparence pour le marché, donc révéler publiquement des prix ou des volumes de transactions, et d’autre part, la transparence pour le régulateur. La transparence pour le régulateur existe déjà dans une certaine mesure. Aujourd'hui, le régulateur est en droit d’exiger, à une institution financière qui tombe sous le coup de sa régulation, et non pas à un hedge fund, des détails sur ses positions, sur ses transactions, etc. Cette transparence, qui existe déjà, n’est pas automatisée. Si vous faites allusion au débat qui a lieu au Etats-Unis, ce débat-là porte surtout sur la transparence de marché. Par exemple, il y a des marchés de gré à gré, où l’on ne sait pas à quel prix et en quelles quantités les choses sont échangées. Faut-il les rendre transparents, comme à la bourse, où les carnets d’ordres sont publics ? Le régulateur américain répond oui. Son discours est de dire que la transparence, c’est bien, donc il faut les rendre transparents. Je ne pense pas que ce soit la bonne réponse, parce que la transparence n’est pas un objectif en soi. On l’a vu dans le « flash crash ». C’est arrivé sur un marché électronique totalement transparent, où les carnets d’ordres sont révélés à tout le monde, et cela n’a pas empêché les prix de chuter de 20%, et d’entraîner des chutes de prix sur tous les autres marchés, qui étaient eux aussi des marchés organisés et transparents. Je pense que le but, ici, du régulateur, va plutôt être d’assurer la stabilité à la liquidité du marché, d’éviter des ruptures. Si la transparence peut aider à cela, alors oui, il faut plus de transparence.

Mais ce n’est pas évident que ce soit le cas sur tous les marchés. Dans un marché fragmenté, où le prix du marché est agrégé à partir des petites transactions de plein de petits acteurs, la transparence peut canaliser cette fragmentation dans un carnet d’ordres, ou dans un système électronique, et rendre le fonctionnement plus lisse. Mais dans un marché tel que le Swap de taux d’intérêt par exemple, essentiellement institutionnel, où il y a peu de transactions, et où chaque transaction représente de gros volumes de l’ordre de cent millions d’euros, au contraire, le fait de rendre transparentes ces grosses transactions peut créer des fluctuations de marché violentes, dans la mesure où les autres vont agir dessus comme ils ont agi lors du « flash crash » quand un gestionnaire de fonds du Kansas a vendu massivement soixante quinze mille titres. La transparence n’est pas en but en soi. C’est plutôt un objectif s’il est démontré qu’elle permet une plus grande stabilité et liquidé du marché. Et ce n‘est pas le cas de tous les marchés. Il faut donc régler cela au cas par cas. Une étude, actuellement en cours auprès de la FED, va dans ce sens. Identifier, aujourd'hui, les marchés non transparents, dans lesquels la transparence peut être bénéfique.

M. Charles-Albert Lehalle. Je suis parfaitement d’accord avec l’analyse de M. Rama Cont sur ce sujet, très important, de la transparence des données, de la façon dont on peut les partager, et de la façon dont le régulateur peut les utiliser ou pas. En plus de cela, quand on parle du processus de formation des prix, il ne faut pas oublier de se demander si le juste prix est atteint, par cet équilibre entre l’offre et la demande, avec toutes ces problématiques de liquidité. Et ne pas masquer le fait, non plus, qu’aujourd'hui, les régulateurs ou, en tout cas, les législateurs, quand ils posent des questions pour la révision de la réglementation, se tournent vers les universitaires. Les universitaires ont peu de réponses, car il y a peu de données disponibles.

C’est là que j’ajoute un troisième volet qui, pour moi, est très important. C’est de rendre disponible plus de données, encore plus détaillées, aux études universitaires, afin de comprendre le processus de formation des prix. Certes, ces données doivent porter sur des périodes plutôt courtes, pour ne pas qu’on puisse en inférer des choses qui viendraient perturber le processus de formation des prix. On peut même rajouter des informations, et exiger cela. Le régulateur peut le faire. Sa fenêtre de tir est très courte, pour exiger des opérateurs de marché de stocker dans leurs bases de données des informations complémentaires. Par exemple : cette transaction ou cet ordre est-il inséré par un trader haute fréquence ou pas ? Si on ne le stocke pas au moment où c’est fait, en vue de faire des études universitaires sur la nature du processus de formation des prix quand il y a plus ou moins de traders haute fréquence, cette fenêtre de tir va se refermer, et, ensuite, on pleurera de nouveau, dans trois ou quatre ans, en se tournant de nouveau vers les universitaires, lesquels n’auront toujours pas de réponse sur ces problématiques. Je crois que c’est très important d’enrichir le panel des informations, non seulement pour l’analyse post-trade, en cas de suspicion de manipulation de cours, mais aussi pour comprendre le processus de formation des prix, et pour éclairer les analyses, via une approche scientifique, afin qu’on puisse prendre les meilleures décisions lors de la prochaine vague réglementaire.

Mme Alexandra Givry, adjointe au chef du service de la surveillance des marchés, Autorité des marchés financiers. Je voudrais aller dans votre sens. Il est évident que le régulateur souhaiterait également recevoir et pouvoir conserver plus d’information. Cependant, il ne faut pas oublier que ce n’est pas le régulateur qui écrit la MIF, mais bien la Commission européenne. Nous insistons en ce sens, pas seulement pour obtenir les informations relatives au fait qu’une transaction a été réalisée sur la base d’un ordre algorithmique ou non, mais plus largement, pour disposer des informations sur les ordres. Pour l’instant, nous n’avons même pas un accès systématique aux ordres sur l’ensemble des plateformes. Donc le problème est bien plus large que la seule question du trading algorithmique.

Je souhaiterais aussi réagir aux propos de M. Raphaël Douady, qui comparait la transparence, vis-à-vis des régulateurs, sur les risques et sur les positions. À mon sens, le régulateur ne doit pas venir en premier lieu. Il ne peut pas être celui qui, sur la base de données sur les positions, va être capable de recalculer finalement les risques pour l’ensemble des établissements. Nécessairement, le régulateur doit pouvoir profiter d’une certaine transparence au niveau des risques. Vous le disiez dans votre conclusion, la maîtrise des risques a souvent été vue comme un coût, et, par conséquent, elle n’a pas été suffisamment prise en charge par les intervenants. Pour un régulateur qui devrait faire le travail sur l’ensemble du marché, assurer seul ce coût, serait absolument impossible. Il y a, effectivement, un manque de moyens chez les régulateurs pour faire ce travail, et je pense qu’on ne peut pas résoudre le problème seulement en donnant les moyens nécessaires pour que le régulateur fasse tout le travail. En premier lieu, le contrôle des risques doit être exercé au niveau de chaque établissement, surtout sur les aspects prudentiels. Si l’on revient sur la crise récente, je ne parle pas seulement au nom de l’AMF, mais également pour l’Autorité de contrôle prudentiel, les autorités exercent une surveillance de second niveau, après le contrôle réalisé par les établissements. Cela ne signifie pas pour autant que l’Autorité de contrôle doive se contenter de vérifier qu’il existe des procédures de contrôle au sein des établissements. Il est très important de maintenir une activité, de la part de l’Autorité de contrôle prudentiel, qui consiste à vraiment aller au fond des choses. Mais les autorités ne peuvent pas être responsables de l’intégralité du contrôle des risques, à la place des établissements.

Je voulais également réagir sur le problème des moyens et des compétences. Vous avez dit que nous manquions de moyens, c’est vrai. Nous manquons également de compétences, et je pense que les deux problèmes sont liés. Quand on n’a pas de moyens, on ne peut pas attirer de compétences. Il y a deux ans, moins de quinze personnes surveillaient les marchés à l’AMF. Aujourd'hui, on développe le recrutement, et on est vingt. Ce n’est pas énorme, c’est insuffisant, mais on voit bien que plus on a de moyens, plus on peut attirer des compétences. Et je ne parle pas seulement de moyens financiers pour développer les équipes, mais aussi de moyens réglementaires, pour pouvoir faire notre travail.

M. Jean-Philippe Bouchaud, président de Capital Fund Management, professeur à l’École polytechnique. Je voulais revenir sur le problème de la liquidité et de son organisation et sur une remarque que M. Rama Cont a faite, tout à l'heure, et qui m’a un peu frappé. Vous semblez suggérer que des sociétés qui partent d’une position nulle en début de journée et qui repassent à une position nulle en fin de journée avaient quelque chose de critiquable. Mais le market maker d’antant faisait exactement cela.

M. Rama Cont. Je n’ai pas fait de jugement ; j’ai posé la question de leur utilité économique.

M. Jean-Philippe Bouchaud. C’est pour cela que je lance le débat là-dessus. Tu semblais même impliquer que leur utilité économique n’était pas démontrée. Or le market maker d’antan fonctionnait exactement comme cela. Contrôler son inventaire, cela fait partie du métier de market maker et de ces sociétés qui ont, il me semble, une utilité économique incontestable. Est-ce que tu le remets en question ?

M. Rama Cont. Si on veut être plus précis sur ce point, l’étude de la CFTC-SEC (Comité consultatif conjoint de la Commodity Futures Trading Commission et de la Securities and Exchange Commission), que je citais, distingue les traders haute fréquence, les institutions qui opèrent à des millisecondes, et d’autres intermédiaires, qui, également, commencent à zéro et finissent à zéro. Ils jouent le rôle de market maker, comme tu disais, mais en opérant à une fréquence plus basse, même si pour nous, la fraction de seconde reste encore de la haute fréquence. Cette étude montre qu’il y a un flux systématique de profits, des market maker lents, vers les market maker haute fréquence. C’est quelque chose que la CFTC a constaté dans ses données. Ce sont des données propriétaires, je n’y ai pas accès. Et les market maker classiques, auxquels tu faisais allusion, qui opéraient à des échelles de fréquence plus basses, fournissent de la liquidité là où il n’y en a pas. Ils vont augmenter la liquidité des carnets d’ordres, ils vont émettre des ordres de vente, et d’achat, pour peupler les carnets d’ordres lorsque ces carnets d’ordres se vident, suite à des transactions. L’étude de la CFTC dit, au contraire, que les seize acteurs haute fréquence, qu’elle a distingués parmi les market maker, sont des acteurs qui mangent la liquidité, et donc qu’ils tirent le tapis sous les pieds des autres. C’est la classification de la CFTC. Ce n’est pas ma conclusion. Je n’ai pas accès à ces données.

M. Jean-Philippe Bouchaud. Je trouve cela extrêmement surprenant qu’un consommateur de liquidités puisse survivre très longtemps.

M. Rama Cont. C’est surprenant, et un peu inquiétant.

M. Claude Birraux. Pour conclure cette première table ronde, je propose que nous regardions ensemble un extrait d’un film récent, qui illustre parfaitement bien notre sujet. Il s’agit de “Cleveland contre Wall Street”, un documentaire fiction de Jean-Stéphane Bron, distribué par “Les Films du Losange”, la société de production d’Eric Rohmer, auprès de laquelle nous avons recueilli les droits de cette projection de quelques minutes. Je signale d’ailleurs à la régie audiovisuelle que cette projection ne doit pas être reprise sur le canal intérieur.

Jean-Stéphane Bron, que je remercie au passage pour son autorisation, est un réalisateur suisse. Le film reconstitue le procès en responsabilité intenté, par la ville de Cleveland (Ohio), contre les banques d’investissement de Wall Street, pour réparation du sinistre causé à des quartiers entiers de la ville, rendus dangereux et insalubres, du fait de la multiplication des maisons laissées à l’abandon par leurs occupants, victimes des crédits « subprimes ». En fait, la procédure judiciaire a été bloquée par les banques, mais Jean-Stéphane Bron a obtenu, de tous les protagonistes réels, y compris le juge compétent et l’avocat des banques, qu’ils se prêtent au jeu d’un procès fictif, tel qu’il aurait pu avoir lieu. L’extrait montre l’audition de Michaël Osinski, qui s’est fait connaître, à travers un article paru fin mars 2009 dans le New York Magazine, comme l’un des informaticiens ayant conçu le logiciel de titrisation des prêts immobiliers, à la base du mécanisme des « subprimes ».

DEUXIÈME TABLE RONDE : « SOLUTIONS ET PERSPECTIVES »

M. Claude Birraux. Notre Office parlementaire est une structure originale au sein du Parlement, et un intermédiaire entre le monde parlementaire et le monde de la recherche. Cette collaboration permanente avec le monde scientifique et le monde technologique, dote l’Office d’un outil d’analyse pour évaluer, en profondeur, des sujets techniquement complexes. Il se trouve que la communauté financière utilise, et manipule, couramment, des instruments mathématiques dont la technicité est, pour la plupart des gens, synonyme d’opacité. Pour la plupart des gens, mais pas pour les chercheurs, qui utilisent ces mêmes instruments pour faire progresser les connaissances, dans leur propre champ de compétence. Il appartenait donc à l’Office parlementaire de mobiliser les personnes compétentes, au sein de cette communauté scientifique, pour apporter la lumière sur l’impact des mathématiques et de l’outil technologique en finance. L’Office souhaite confronter les points de vue, clarifier les hypothèses sous-jacentes aux différents modèles, en vue de se donner, éventuellement, les moyens d’évaluer le bien-fondé de ces techniques sophistiquées, qui semblent être devenues pratiques courantes dans les milieux financiers.

Cette seconde table ronde, qui abordera les solutions permettant de corriger les dérives induites par les nouveaux outils scientifiques et technologiques, doit en effet permettre de mieux évaluer l’impact du recours aux sciences et technologies dans la finance moderne. Il convient donc d’aborder, sans détour, différents points techniques : évolutions de la directive MIF, régulation des « dark pools », tarification des ordres passés par des automates, hypothèses sous-jacentes aux modèles financiers modernes (efficience des marchés et variabilité endogène), afin que l’information recueillie puisse orienter au mieux d’éventuels travaux parlementaires sur ces thèmes.

A l’ère de la milliseconde, j’espère qu’il sera possible de condenser les différentes interventions, pour que l'on puisse avoir suffisamment de temps pour un débat et des questions à la fin.

« Pour un meilleur usage social des mathématiques financières »

M. Jean-Pierre Kahane, mathématicien, professeur à l’Université Paris Sud et membre de l’Académie des sciences. Le temps nous étant compté, je m'efforcerai d'être bref. Je suis mathématicien, spécialiste de l’analyse de Fourier, qui touche aux probabilités. Toutes les mathématiques se touchent entre elles, mais je n’ai jamais fait de mathématiques financières. Je me suis intéressé à ce champ uniquement à partir du moment où on les a mises en cause en les rendant responsables de la crise. Il m’est apparu immédiatement que les vraies responsabilités étaient ailleurs. Cependant j’avais bien conscience d’être interpellé comme mathématicien. Il valait donc la peine pour moi de prendre connaissance du domaine des mathématiques financières, en étant aidé par des collègues comme Denis Talay ici présent, et Marc Yor, qui est en ce moment à Cracovie. Marc Yor, avec Jean Dercourt, a organisé en début de semaine un colloque à l’Institut qui s’appelait « Mathématiques et risques financiers, regards croisés d’économistes et de mathématiciens ». La partie économique a été traitée, la partie mathématiques a été reportée plus tard à cause de la grève du 12 octobre. Mais je crois qu’il serait important, pour l’Office parlementaire, de prendre connaissance de ces travaux. Pour le moment, seules les contributions des économistes sont disponibles. Elles sont très sainement critiques à l’égard de la financiarisation de l’économie. La question est clairement posée de revoir la doctrine de la libre circulation mondialisée des capitaux. J’ai une correspondance là-dessus avec M. Munier. Les contributions annoncées des mathématiciens indiquent des pistes, dans la théorie du risque notamment, parce que le risque, ce n’est pas seulement la gestion du risque, c’est aussi la notion du risque. Et la notion du risque est un problème. Telle qu’elle est établie par les banques et Bâle 2, la notion du risque est incorrecte. Dans la théorie du risque, les contributions des mathématiciens mettent en garde contre une illusion financière qui prépare, je cite « une crise cataclysmique dans le domaine des pensions ».

En ouverture à cette table ronde, je voudrais faire état de quelques idées générales, dont certaines me sont personnelles. D’abord, les mathématiques financières sont des mathématiques, et pour une part de très bonnes mathématiques. Elles font usage de notions créées par les probabilistes, et elles les développent. Comme je l’ai déjà dit, toutes les mathématiques se tiennent, et ce serait une erreur de penser aux mathématiques financières comme un domaine séparé du reste parce qu’il est au service de la finance.

Cela dit, il est orienté par le service de la finance sous sa forme actuelle, qui résulte de la déréglementation et de l’hégémonie des marchés financiers. Dans la logique actuelle des banques, toute amélioration à leur fonctionnement a une contrepartie négative, qui peut être brutale. Par exemple, l’arbitrage a, en principe, une fonction régulatrice, en corrigeant les déséquilibres du marché. Mais comme les traders et les banques tirent leurs revenus des arbitrages, la tendance est non seulement à repérer les déséquilibres et à en tirer partie - au besoin de manière instantanée, comme on l’a vu, en utilisant les technologies les plus modernes, mais à les susciter s’ils peuvent rapporter gros : c’est un aspect occulte de la crise des « subprimes », et visible des spéculations sur l’euro, à la suite de la crise grecque. Voici une donnée actuelle, rapportée par le Financial Times du 11 octobre 2010 : en deux jours, à la suite de rumeurs, le cours du maïs a fait un bond de 12,5 %. On imagine la ruée spéculative sur de pareils déséquilibres. Il faudrait inventer des freinages plutôt que des accélérateurs.

Il y a quelques années, le Parlement européen a été sur le point de mettre à l’étude les conséquences d’une taxe Tobin sur les opérations financières. Je ne suis pas sûr que ce soit la bonne formule, mais je regrette beaucoup que, à quelques voix près, la décision n’ait pas été votée. Si elle l’avait été, il y aurait eu un appel à des études, et les mathématiciens y auraient pris part, avec des économistes bien sûr.

En effet, les mathématiques sont extrêmement plastiques, les modèles mathématiques précèdent toutes les réalisations techniques, la simulation à l’aide des ordinateurs remplace en bien des cas l’expérimentation. L’expérimentation, en matière sociale, peut être dramatiquement coûteuse. Pour avoir une idée des conséquences d’une décision, un travail associant des chercheurs de différents domaines, dont des mathématiciens, serait nécessaire. Les mathématiques, contrairement à l’image ordinaire, ne disent pas la vérité, mais le possible et l’impossible dans un modèle de la réalité.

Je dis « modèle de la réalité » et je pense à modèle de l’utopie. L’utopie consiste à penser ce qui n’a jamais existé. Elle me paraît indispensable aujourd’hui. Et je la vois fleurir sous des formes diverses dans la recherche d’autres voies pour la politique, pour l’économie et pour la société. Faut-il un système bancaire décentralisé et proche du terrain ? Faut-il un pôle financier public ayant une vocation de service public ? Faut-il en revenir à une réglementation, et laquelle ? Faut-il créer ou recréer d’autres monnaies ? Faut-il en revenir au troc ? Faut-il créer de nouveaux modèles de macroéconomie ? Comment corriger les déséquilibres du monde, objectif prioritaire selon le rapport Stiglitz qui s’intitule « Pour une vraie réforme du système monétaire et financier international »? Comment répondre aux besoins réels de l’humanité et non aux grands intérêts d’un petit nombre ?

Naturellement, c’est ici le citoyen qui parle et pas seulement le mathématicien. Je disais que ce doit être un grand débat public et mondial. Mais toujours est-il qu’une première approche est possible ici, dans le cadre de l’Office parlementaire. L’Office parlementaire pourrait proposer à l’étude différentes utopies. Il aurait ainsi un rôle de stimulation et non seulement d’évaluation. Je crois que les scientifiques seraient heureux, quelle que soit leur discipline, de ne plus la voir atteler à des images opposées et également fausses, d’une pureté de tour d’ivoire, et d’une servilité à l’égard des puissances du jour.

M. Claude Birraux. Merci M. Kahane d’avoir tenu votre temps de parole avec une telle précision. Votre suggestion est un programme de longue haleine pour l’Office parlementaire. Étudier les utopies... Vous savez, pour notre Office, c’est déjà un peu une utopie de s’attaquer, à travers l’audition d’aujourd’hui, à un sujet comme celui-ci.

« Sécuriser les systèmes informatiques en finance »

M. Patrick Pailloux, directeur général de l’Agence nationale de la sécurité des systèmes d’Information. J’ai beau être polytechnicien, je ne suis ni mathématicien, ni spécialiste de la mécanique financière. Le métier pour lequel les services du Premier ministre m’emploient, c’est de voir comment on pourrait sécuriser les infrastructures vitales nationales contre des menaces de nature malveillante, notamment d’attaques informatiques. J’ai beaucoup entendu parler de sûreté, c'est-à-dire de problématiques internes à la mécanique de la finance. Je vais, pour ma part, vous parler de problématiques de sécurité, c'est-à-dire de problématiques externes. Ce sujet nous préoccupe. II est, à mon sens, très mal pris en compte, peut-être un petit peu moins dans le domaine de la finance que dans les autres. Paradoxalement, pour peu qu’on s’en donne la peine, des moyens existent. La France n’est d’ailleurs pas spécifiquement en retard dans ce domaine-là. Les menaces, elles existent, et elles sont nombreuses. Malheureusement, on n’en parle pas beaucoup, puisque dans notre domaine, on en est plutôt à l’âge de Tchernobyl. Je vous rappelle que Tchernobyl, ce sont les nuages qui s’arrêtent à la frontière. Dans le domaine des attaques informatiques, faites-en l’expérience, et tournez-vous vers vos grands clients et vos grandes banques, et vous verrez ce qu’elles vous diront des attaques informatiques. Je parle de toutes les grandes entreprises, qui nous expliquent qu’elles sont bien protégées, et n’ont pas d’attaque. La réalité est un tout petit peu différente.

On a bien sûr de très nombreux cas d’attaques informatiques. D’abord, ce peut être des choses extrêmement triviales, comme le phishing, c'est-à-dire ce qui vise, globalement, les clients, pour leur faire avaler des couleuvres et arriver à leur voler leurs identifiants, leurs mots de passe, etc.

Ensuite, ces attaques peuvent être un peu plus sophistiquées, à l’image de ce qui s’est passé, il y a quelques mois, contre les registres carbone européens, ces banques dans lesquelles on n’échange pas des titres, mais des droits à polluer, par des émissions de carbone. En quelques heures, un certain nombre de pirates informatiques, plus doués que les autres, ont réussi à se faire plusieurs millions d’euros. Ils ont envoyé de simples courriers électroniques aux traders sur ces marchés, en se faisant passer pour les différentes institutions en charge des registres carbone. En France, c’était la Caisse des dépôts. Ils ont envoyé un message disant qu’ils étaient en train de changer de système informatique, « veuillez vous reconnecter, etc. » Ils avaient fait de faux sites boursiers aussi. Ils ont récupéré les codes, et puis, en ouvrant globalement les marchés, ils se sont fait plusieurs millions d’euros.

On a aussi de nombreux cas d’employés malveillants. Soit ce sont d’anciens employés qui ont conservé leurs capacités d’accès et leurs codes d’accès, soit ce sont des employés qui utilisent leurs capacités pour modifier des arrondis, etc. Je ne reviendrai évidemment pas sur le cas de la Société Générale, que tout le monde connaît.

On a aussi de nombreux cas d’espionnage. Dans le domaine informatique, l’espionnage est malheureusement une plaie, assez peu connue, mais très présente. Il vise des infrastructures nationales, militaires, mais aussi des domaines aussi élémentaires que la culture ou le sport, et, évidemment, les institutions financières. On a des exemples.

Enfin, il y a aussi le risque potentiel d’attaque terroriste, alors qu’avant, je vous parlais de réalité.

Globalement aujourd'hui, le système financier, comme tout un paquet de systèmes critiques, dépend de ces systèmes d’information pour fonctionner. Il est de notoriété publique, aujourd'hui, qu’il est très facile de les mettre par terre sans faire beaucoup d’efforts. Les solutions existent. Il suffit de les mettre en place. Dans le domaine de la finance, on n’est pas spécifiquement en retard par rapport aux autres domaines d’activité qui se développent dans le cyberespace. La raison est simple. Les structures financières ont un avantage sur les autres structures plus réelles, je dirais. Une institution financière sait, en général, mesurer les conséquences, le coût d’un défaut de sécurité. À partir du moment où elle sait en mesurer le coût, elle sait en théorie faire la balance entre le coût de la mise en place de la sécurité et le coût en cas de problème. C’est l’exemple typique de la carte bancaire, en tout cas en France.

La première des choses, la plus essentielle à mettre en place dans les systèmes financiers, parallèlement à la transparence, c’est l’authentification, c'est-à-dire la capacité de savoir à tout moment qui a fait quoi. Cette authentification ne doit pas simplement être un identifiant et un mot de passe. Le système d’authentification doit être beaucoup plus fort, notamment à base de carte à puce, par exemple, qui est un domaine fort en France. Je sais bien que mettre en place de la sécurité génère toujours des frustrations et ralentit les processus. Mais ce genre de débat, on l’a eu au moment de l’introduction de la carte bancaire en France. On nous avait expliqué que cela allait coûter cher, que cela allait bloquer les ventes, que les clients n’en voudraient pas. La sagesse parlementaire a voulu qu’un certain nombre de garde-fous soient mis en place, en matière de sécurité, sur le développement des télépaiements en France. On a l’un des systèmes les plus sécurisés, à la base de système de très haute sécurité. Si on avait eu des systèmes d’authentification forts dans un certain nombre d’exemples que je viens de citer, ces choses là ne seraient probablement pas arrivées.

Deuxième aspect important, et je conclurai là-dessus, il faut évidemment mettre en place des mécanismes de défense en profondeur. Ces technologies existent aujourd'hui. Elles sont largement répandues depuis le chiffrement jusqu’à tous les systèmes qui permettent de suivre, de tracer, de détecter les comportements anormaux. Vous avez parlé des systèmes de contrôle qui permettent de détecter les comportements anormaux dans l’activité elle-même de trading ou de marché financier. La même chose existe dans les systèmes d’information. Ces systèmes sont fondamentalement vivants. Il faut les surveiller pour vérifier ce qui s’y passe. Si on ne le fait pas, on met très largement en danger nos systèmes.

Cela passe, évidemment, par la prise de conscience des décideurs, à tous les niveaux, y compris les régulateurs. Nous travaillons énormément avec la Banque de France, qui est particulièrement sensibilisée à ces questions. Par exemple, dans le domaine des cartes de paiement, il y a un office de surveillance à la sécurité des cartes de paiement, où, d’ailleurs, le Parlement est présent. Il y a d’autres domaines dans lesquels, malheureusement, on regarde de façon moins attentive les dispositifs de cybersécurité. Sans être grand clerc, je crois qu’on aurait tout intérêt à y regarder de plus près.

M. Claude Birraux. Merci. Vous avez dit sur un ton neutre que le nuage de Tchernobyl n’avait pas atteint la France. Pour l’avoir dit sur un ton véhément, j’ai un collègue qui a payé sept mille cinq cents euros d’amende, parce que la personne incriminée avait bien dit que le nuage atteignait la France, mais il avait dit que cela ne présentait pas de risque sanitaire. Continuez à le dire si vous devez continuer à le dire, sur un ton qui soit neutre, parce que sinon, il y a une jurisprudence.

« Instabilité des marchés financiers : mécanismes, modélisation, régulation »

M. Jean-Philippe Bouchaud, président de Capital Fund Management, professeur à l’Ecole polytechnique. Je vais vous parler de modélisation des instabilités des marchés financiers, ce qui nécessite de comprendre pourquoi et comment les marchés financiers changent. À la question « pourquoi les prix bougent ? » la réponse classique, c’est la théorie des marchés efficients, qui dit que les prix reflètent fidèlement la valeur fondamentale, et que celle-ci ne bouge que parce que des « nouvelles » imprévisibles se produisent, comme par exemple une autorisation de mise sur le marché d’un médicament. Ce sont des marchés « platoniciens », où la valeur fondamentale est révélée par les marchés, sans que celle-ci soit influencée par les marchés. En particulier, les krachs ne peuvent être qu’exogènes, et ne jamais être causés par la dynamique des marchés eux-mêmes.

Dans ce cadre-là, la démarche de l’ingénierie financière est de prendre ce processus de prix comme un processus exogène, imposé et intangible, dont on cherche une description statistique. La méthodologie est souvent de postuler un modèle statistique commode mathématiquement, dont on calibre, souvent à son corps défendant, le modèle, aux données de marché. L’exemple roi de cette pratique est ce que j’appellerais le modèle de “première génération” : le mouvement Brownien, dont le paramètre central est la volatilité.

Les problèmes de cette démarche sont multiples. J’en vois deux en particulier. D’une part, les modèles sont souvent en contradiction qualitative avec les données financières. Si on compare sur un graphe les variations de prix du mouvement brownien avec celles des cours financiers sur un siècle, on voit à l’œil nu une différence qualitative : les mouvements financiers, sans que ce soit une grande surprise, exhibent des pics très importants, qui correspondent aux krachs, mais exhibent aussi cette espèce de régularité bizarre dans les bouffées d’activité. Par exemple, on voit un gros pic qui correspond aux années trente, au grand krach de 1929, et ce qui a suivi. Mais cette activité intermittente, et c’est la chose importante, montre des crises à toutes les échelles. Si on fait des zooms de ce graphe à plusieurs échelles, on retrouve cette régularité de périodes calmes suivies de périodes actives.

D’autre part, ces modèles n’ont aucune justification en termes de mécanismes sous-jacents identifiables traduisant la façon dont les marchés fonctionnent vraiment. La démarche ici est assez différente de celle en physique par exemple, qui consiste à essayer de justifier les équations qu’on utilise. Pour la mécanique des fluides, on utilisera, par exemple, l’hypothèse moléculaire. Il manque cette démarche qui consiste à essayer de justifier les modèles qu’on utilise, à partir de mécanismes financiers identifiables.

Ce qui a changé, depuis une dizaine d’années, c’est que les marchés financiers produisent, chaque semaine, des terabytes d’information, et permettent des études empiriques, de plus en plus précises, de questions fondamentales en économie. Par exemple, celle dont je viens de parler, la volatilité des marchés n’est-elle due qu’aux « nouvelles », comme le prétend l’économie classique, ou à autre chose ? Ce qui me semble très important, c’est de savoir si la dynamique est principalement exogène -donc due à ces « nouvelles » extérieures- ou endogène, c'est-à-dire soumise à sa dynamique propre. D’autres questions se posent : les prix sont-ils tels que l’offre égale la demande ? Comment les transactions impactent-elles les prix ?

Je vais me concentrer sur la première question. En synchronisant les flux de « nouvelles » avec les variations de prix à la minute, on a pu étudier cette question. Ce que l’on voit, c’est qu’effectivement certaines « nouvelles » font sauter les prix, parfois même beaucoup, mais quand on regarde les statistiques, on se rend compte que les marchés sont agités en permanence. Il y a beaucoup plus de sauts de prix que de nouvelles pertinentes sur la vie d’une société par exemple. Si on regarde les sauts à quatre écarts type, donc des sauts de prix très importants, on s’aperçoit que seuls 5% de ces sauts sont attribuables à des « nouvelles », la majorité semblant venir de nulle part. On dirait qu’ils sont dus à des sortes de microcrises de liquidité. Ces microcrises apparaissent à toutes les échelles et peuvent, parfois, conduire à des krachs, bien que, souvent, on ne parle même pas de ces événements, même s’ils agitent la vie quotidienne des marchés.

Dans la statistique des variations de prix, on observe un tas de choses très intéressantes. Une distribution de type Pareto, avec des queues très épaisses, et, surtout, cette intermittence multiéchelle des variations de prix. Ce qui est vraiment intéressant, c’est que, quel que soit l’actif spéculatif qu’on regarde empiriquement, on retrouve ces traits statistiques. Ce qui montre que, finalement, c’est moins les « nouvelles » qui comptent que le fait même que ces actifs soient traités de façon spéculative. Je pourrais vous donner une liste d’actifs qui, parfois, sont très surprenants, comme, par exemple, la volatilité implicite sur les marchés d’action, qui est un objet assez abstrait, et qui se comporte exactement de la même façon que tous les autres actifs spéculatifs. Donc, cela suggère vraiment que cette dynamique est plus endogène qu’exogène.

L’autre point qui frappe le physicien que je suis, c’est que cette dynamique par avalanches, intermittente, est très analogue à celle qu’on observe dans un tas de systèmes, dits complexes, en physique, comme les tremblements de terre, les éruptions solaires, la turbulence, etc. Si on compare le graphe de la variation des prix au vingtième siècle à la bourse américaine avec le graphe d’un écoulement turbulent, en particulier la dissipation locale d’énergie dans un écoulement, on voit cette même phénoménologie d’une activité qui est très intense, qui redisparaît, à toutes échelles.

Ce que je voudrais aussi vous montrer de façon très rapide, c’est ce qu’on appelle le bruit Barkhausen, dans les aimants désordonnés. Peu importe ce que c’est. La chose importante, c’est qu’on voit de nouveau une dynamique extrêmement intermittente, où, la majorité du temps, il ne se passe rien, et de temps en temps, ça craque. Ce qu’il faut comprendre ici, sur le système physique, c’est que la sollicitation exogène change, lentement et continûment, mais la dynamique endogène est suffisamment riche pour introduire cette discontinuité et cette intermittence.

Cela suggère donc que les boucles de rétroaction et les non-linéarités pourraient, à elles seules, expliquer ces observations empiriques, même sans chocs externes violents. Il faut se demander quelles sont ces sources de rétroactions et d’instabilités. Et ici, une notion qui apparaît de plus en plus comme fondamentale, c’est le fait que les marchés sont impactés par les transactions. Ce que font les gens, leurs transactions, font bouger les prix. Cela peut paraître une trivialité, mais à nouveau, du point de vue de l’économie classique, ça ne l’est pas. Que les transactions soient rationnelles, ou non, qu’elles soient informées, ou non, le fait d’acheter et de vendre impacte les prix. C’est une expérience qu’on a faite chez Capital Fund Management. On a envoyé des transactions au hasard, en tirant à pile ou face, et en mesurant leur impact, de façon précautionneuse, on voit qu’on impacte des prix même en lançant des transactions aléatoires.

Quelles sont les boucles de rétroaction ? Il y a quelques traits psychologiques qui me semblent importants et récurrents : les effets d’imitation et de mimétisme, qui induisent des mouvements de foule, des krachs ; le fait qu’en présence d’une situation très incertaine, on a tendance à penser que ce qui est déjà passé risque de se reproduire ; on essaie d’apprendre des “motifs”, on suit des tendances. Cela crée des bulles.

Les règles de régulations peuvent être responsables de boucles de rétroaction déstabilisatrices : le benchmarking ; le mark-to-market, qui est très probablement responsable de ce qui s’est passé en 2008 ; les stratégies de couverture à la Black et Scholes, dont on a parlé tout à l'heure, qui ont causé une amplification terrible du grand krach d’octobre 1987. Donc l’utilisation des modèles mêmes peut induire des boucles de rétroaction. Plus récemment, au niveau microstructurel, au niveau de la liquidité, ce que j’ai appelé « incertitude de la liquidité », il y a un certain nombre de boucles de rétroaction, qu’on peut identifier dans le fonctionnement intime des marchés, en particulier, des boucles du type volatilité – spread, c'est-à-dire fourchette entre prix d’achats et prix de vente et volatilité. Les uns s’alimentent des autres. Ou ce peut être un volume de transaction qui crée un mouvement, lequel crée plus de volume, etc. Cette boucle de rétroaction est sans doute responsable du « flash crash » du 6 mai.

En conclusion rapide, je dirais d’abord que les marchés fluctuent, moins à cause de chocs externes, que via leur dynamique interne. Ensuite, l’objet de la modélisation en finance, devrait moins être l’étude de modèles ad hoc, que l’identification des mécanismes d’instabilités et de saturation. C’est ce qui conduirait à ce que j’ai appelé des « modèles de seconde génération ». Troisièmement, la finance théorique devrait passer d’une approche axiomatique, où les modèles sont postulés, à une approche plus empirique, où les modèles sont déduits, un peu comme dans la physique. Enfin, les données UHF8, dont j’ai parlé très brièvement, ouvrent, à mon avis, un nouveau continent d’investigations extraordinaire, pour aborder ces questions à la fois d’un point de vue empirique et théorique.

M. Olivier Oullier. Je suis en tout point d’accord avec ce que vous dites, et je vais essayer de prolonger. Si ce sont effectivement des facteurs intrinsèques à la dynamique du système qui participent à l’émergence de son comportement comme nous l’avons tous deux évoqué, est-ce qu’il ne devient pas complètement utopique de parler de contrôle des marchés, voire de régulation telle qu’elle est envisagée aujourd’hui ? Elle pourra, au mieux, ajuster les comportements mais, au final, ne permettra pas d’arriver à modifier et à stabiliser un système.

M. Jean-Philippe Bouchaud. Je suis plus optimiste que vous. À mon avis, au contraire, je pense que le système évolue tout seul. Les règles du jeu, les règles dynamiques du système, qui le fondent, sont importantes pour comprendre cette dynamique à grande échelle. Et donc, le fait de modifier, en particulier, des règles au niveau de la microstructure, peut stabiliser les marchés. On l’a vu, au moment du « flash crash » du 6 mai. On peut imaginer des solutions un peu techniques pour endogénéiser la stabilité de ce système.

M. Rama Cont. Vous avez raison dans le sens où la perspective que vient de nous donner Jean-Philippe Bouchaud change le paradigme de la régulation. Aujourd'hui, le paradigme dominant des régulateurs de marché consiste à surveiller les acteurs individuels, en s’assurant qu’ils respectent bien la règle. On s’assure que personne ne fait de délit d’initié, etc. Mais cela, c’est quelque chose qui se passe au niveau d’un acteur. Là, on parle de risques qui se passent au niveau de la dynamique du système. On peut très bien s’assurer que chacun respecte certaines règles, et que néanmoins le système s’emballe. C’est cela le risque endogène. Cela appelle un autre paradigme de régulation qui est une régulation à surveillance systémique. Cet élément était très présent dans l’exposé de M. Yves Bamberger. Et il n’est pas dans la logique traditionnelle de la régulation.

M. Jean-Philippe Bouchaud. Je suis tout à fait d’accord avec M. Rama Cont. C’est pour cela que j’ai insisté sur l’idée d’essayer de comprendre ces mécanismes de rétroaction et de déstabilisation.

M. Charles-Albert Lehalle. Et c’est pour cela qu’au niveau du changement de la réglementation, il y a une fenêtre de tir très courte pour ajuster le market design, la façon dont les marchés fonctionnent. Il faut vraiment se rendre compte qu’on est dans une période cruciale. Au début de l’année prochaine, la MIF 2 va être une façon de changer les règles du jeu, et donc de changer la dynamique intrinsèque. On peut changer la dynamique intrinsèque. Après, on ne peut plus qu’observer et augmenter notre capacité de s’acheter tous des microscopes pour regarder de plus près quelque chose qui, de toute façon, structurellement, comporte cette « endogénisation » du risque.

M. Olivier Oullier. Ou des macroscopes !

M. Yves Bamberger. La crise californienne, qui a conduit Arnold Schwarzenegger au poste de gouverneur, est liée effectivement à cela. Le design du marché de l’électricité en Californie a conduit, petit à petit, à ce que vous dites. Ma modeste analogie me conduit à partager ce que vous dites.

M. Claude Birraux. Oui, sachant qu’en Californie, il y avait un décalage très fort entre ce qu’était le marché et ceux qui investissaient. Ils n’avaient aucune raison d’investir, puisque les prix montaient tous les jours. C’était très bien. Pourquoi investir puisqu’on gagnait beaucoup ? Et puis à un moment, il y a obligatoirement un hiatus. De la même manière, il faut peut-être éviter ce hiatus entre l’économie réelle et l’économie virtuelle.

« Les marchés financiers au service de l’économie réelle : innovations possibles. »

M. Henri Sterdyniak, directeur du département d'économie de la mondialisation à l'Observatoire français des conjonctures économiques. L’écrivain argentin Jorge Luis Borges a écrit : « les brigands ne sont pas et ne seront jamais les amis sincères des voyageurs ». La crise que nous avons connue est une crise du capitalisme financier provoquée par des innovations financières hasardeuses et non régulées, dans un contexte de libéralisation et de globalisation financière. La crise a montré que les marchés étaient instables, moutonniers, aveugles. La domination des marchés financiers oblige les marchés réels à vivre en permanence dans « un contexte de casino », comme le disait Keynes, peu propice à un développement économique soutenable. La question qu’il faut se poser est : Que peut-on faire pour éviter cette domination des marchés financiers ?

Deuxièmement, les marchés financiers ne sont pas efficients. Sur les marchés financiers, on ne recherche pas les valeurs fondamentales. On cherche à gagner. Des précurseurs, des suiveurs, cherchent en permanence à créer des bulles, des événements. Comme l’a dit M. Jean-Paul Betbèze, les marchés détestent la stabilité. On aboutit à des situations où les marchés fonctionnent avec du mimétisme, des comportements grégaires, une forte instabilité. Si l’on regarde les marchés des changes, les marchés boursiers, l’on voit des fluctuations inexplicables, par rapport à ce que les économistes ont tendance à appeler les fondamentaux. Par exemple, dans le marché des dettes publiques de la zone euro, les marchés sont autovalidants, ils imaginent un scénario où les dettes publiques des pays du sud seraient insoutenables, et, effectivement, en augmentant les taux d’intérêt, ils les rendent insoutenables.

Troisièmement, les marchés sont dominés depuis quelques années par des spéculateurs, qui interviennent au détriment des intervenants physiques, pour essayer d’avoir une rentabilité extravagante, en utilisant leur vitesse de réaction et leur connaissance du fonctionnement des marchés.

Quatrièmement, les marchés réclament des rentabilités excessives. Ces rentabilités sont obtenues soit au détriment de l’économie réelle, soit par la génération de bulles financières, qui finissent un jour par éclater.

Les mathématiques financières, malgré des modèles sophistiqués, n’ont pas amélioré la capacité des marchés à prévoir les évolutions des grandeurs, que ce soit le taux de change, le taux d’intérêt, les cours de la bourse. Les mathématiques financières ne se sont pas attachées à définir des valeurs d’équilibre, à améliorer le fonctionnement des marchés. Elles se sont attachées à décrire le fonctionnement des marchés. Elles ont donc été néfastes. Avec les mathématiques financières, les marchés sont devenus de plus en plus instables.

Les opérateurs sur les marchés ont obtenu des rémunérations de plus en plus exorbitantes, qui ne correspondaient en rien à leur utilité sociale. On arrive à ce paradoxe, que les gens qui spéculent sur les marchés, sont dix fois plus payés que les ingénieurs, leurs camarades de promotion, qui font des choses utiles, comme d’essayer de faire des inventions sur la voiture électrique, sur la croissance soutenable. C’est une situation qui est socialement inacceptable.

Tout cela nous amène à dire que l’objectif ne doit pas être seulement d’améliorer la transparence des marchés, leur régulation. L’objectif doit être clairement de diminuer, fortement, leur importance, de baisser les rentabilités requises par le marché, de dégonfler le secteur financier, de diminuer le rôle des marchés financiers et le poids des activités spéculatives. Ce n’est pas seulement une question financière, c’est une question qui porte sur l’ensemble de la politique économique. Par exemple, la crise a bien montré qu’il vaut mieux de la retraite par répartition que de la retraite par capitalisation. La crise a bien montré qu’il faut créer un cinquième risque pour la dépendance et qu’il ne faut pas croire qu’on va financer la dépendance sur les marchés financiers, comme on peut le craindre aujourd'hui. La crise a bien montré qu’il vaut mieux construire des HLM pour les classes populaires, plutôt qu’endetter les ménages pauvres de manière insoutenable, comme c’est le cas aux Etats-Unis.

Que faire pour réduire l’importance des marchés financiers ? D’abord il faut réduire la liquidité et la spéculation déstabilisatrice par des taxes sur les transactions financières. Ensuite, il ne faut pas accepter telles quelles les innovations financières. Il faut se demander qu’elles sont les innovations financières qui sont effectivement utiles à l’économie réelle, en distinguant celles qui permettent aux entreprises de mieux diversifier leur risque, de celles qui sont inutiles, qui permettent uniquement aux spéculateurs d’avoir des profits de prédation. Par ailleurs, il faut interdire aux banques de spéculer pour leur compte propre. Il faut interdire aux banques de risquer leurs fonds propres sur les marchés spéculatifs. Le système bancaire doit se consacrer au crédit, aux entreprises et aux ménages. Il faut le séparer des marchés financiers. Il faut réduire la part de la finance de marché dans le financement des entreprises. La crise est aussi une crise écologique. Ceci nous amène à dire qu’il faut redévelopper un système bancaire public, pour financer en priorité les activités utiles sur un plan social et environnemental. Les entreprises ne doivent plus être guidées par la préoccupation de satisfaire les besoins des actionnaires. Les états doivent inciter fortement les entreprises à se redéployer, en particulier dans la croissance verte. Au niveau de la zone euro, il faut affranchir les marchés de la tutelle, de la menace des marchés financiers, en garantissant que tous les pays de la zone euro pourront toujours financer leur dette publique par la solidarité de leurs partenaires ou par la BCE. Sinon, on risque d’avoir en permanence des crises de la dette de la zone euro. Enfin, il faut taxer le profit des banques pour leur faire payer l’assurance publique de leurs dépôts. Et il faut taxer les opérations financières quand elles sont nuisibles et qu’elles se traduisent par des phénomènes spéculatifs.

L’Europe a un rôle important à jouer dans les réformes à faire. Elle doit peser de son poids, pour la mise en oeuvre d’une gouvernance économique et financière. Le passé récent a montré tous les dangers des fluctuations désordonnées des taux de change. Il faut donc relancer, au niveau des institutions internationales, des accords internationaux permettant la stabilisation des taux de change. Et il faut peser pour remettre en cause les stratégies macroéconomiques insoutenables, d’une part, celle des pays anglo-saxons, qui sont responsables de la crise, parce que leur croissance était basée sur un endettement insoutenable des ménages et sur des bulles financières, et, d’autre part, celle des pays néo-mercantilistes, la Chine et l’Allemagne, dont la croissance était basée sur des excédents excessifs qui obligeaient d’autres pays à avoir des dettes excessives.

M. Rama Cont. Prenons l’exemple concret du marché des « subprimes » qui a été évoqué plusieurs fois dans les exposés. C’est bien une innovation financière qui était très encouragée dans les années quatre-vingts, par le gouvernement américain entre autres. Il voyait cela comme un moyen de permettre à toute une couche de la société, notamment à des familles à revenus faibles, d’accéder au logement. Ce n’était donc pas une innovation financière purement sortie des salles de marché. C’était très encouragé par les gouvernants. En l’occurrence, vous savez très bien que Freddie Mac et Fany Mae étaient quasiment des agences gouvernementales, qui ont joué un rôle très important dans la croissance de ce marché. À l’époque, ils n’étaient pas vus comme une bombe à retardement au niveau des risques. Mais il se trouve qu’après, ils ont été à l’origine d’une bulle spéculative immense, et ont généré la crise que l’on sait. Et donc l’utilité sociale à court terme n’est pas forcément en contradiction avec le fait de générer des instabilités, des bulles, etc. Vous avez l’air de présenter cela comme deux choses complètement différentes, mais les décisions qui peuvent avoir une utilité, ou un intérêt social, à court terme, peuvent aussi générer des instabilités financières, à long terme ou à moyen terme.

M. Henri Sterdyniak. Je suis tout à fait d’accord. Si le système bancaire public n’est pas contrôlé, si on l’autorise à jouer comme le système privé, cela peut effectivement avoir des effets tout à fait nuisibles. En sens inverse, vous pouvez voir qu’il existe des systèmes sociaux qui ne génèrent pas de bulles financières, que ce soit la retraite par répartition, la santé, l’éducation. On peut comparer la stabilité des uns et des autres.

M. Claude Birraux. Cela nous amène à Mme Alexandra Givry, puisque M. Henri Sterdyniak, qui fait partie du manifeste des économistes atterrés, a appelé à plus de régulation, et c’est un doux euphémisme. Vous qui êtes chez le régulateur, expliquez-nous comment vous entendez mieux contrôler les mécanismes de trading innovants ? Parce qu’il ne faut pas oublier, comme le fait peut-être M. Henri Sterdyniak, qu’il y a de l’innovation qui est, en permanence, en marche.

M. Henri Sterdyniak. Enfin l’innovation… Il faut savoir quelle est l’utilité sociale de l’innovation ? Si l’innovation consiste à dire : je suis capable, en intervenant un millième de seconde avant les autres, de me mettre plein d’argent dans les poches, au détriment de mes clients, c’est une innovation socialement douteuse.

M. Claude Birraux. Vous allez nous expliquer, Mme Givry, comment on peut la contrôler.

« Mieux contrôler les mécanismes de trading innovants. »

Mme Alexandra Givry, adjointe au chef du service de la surveillance des marchés, Autorité des marchés financiers. Je vais essayer de répondre à cette difficile question, ou au moins donner quelques pistes. Pour commencer, nous avons vu, dans les interventions précédentes, deux grands types d’évolutions scientifiques et technologiques, qui impactent les marchés. Toutes les deux ont un impact fort sur le travail du régulateur. D’une part, la complexification des produits : les produits structurels, fonds à formule, etc. ont été mis sur le devant de la scène par la dernière crise, et changent la mission de protection d’épargne de l’AMF. Pour ce qui est de la deuxième mission de l’AMF, qui est de veiller au bon fonctionnement des marchés, on a justement ce fameux trading haute fréquence dont on a beaucoup parlé, ainsi que la fragmentation des marchés. Mon intervention sera centrée sur ce deuxième aspect, à savoir les implications des évolutions technologiques sur le fonctionnement des marchés. J’en traiterai deux aspects qui sont très fortement liés, à savoir la fragmentation des marchés et le développement du trading algorithmique.

La fragmentation des marchés a été rendue possible par la capacité technique à mettre en relation, de façon quasi instantanée, des données relatives à des transactions qui ont lieu sur des places différentes. C’est pourquoi, effectivement, la fragmentation des marchés et les évolutions technologiques sont très liées. Cette possibilité technique, couplée à la volonté politique de mettre fin au monopole historique des bourses traditionnelles, a ouvert certaines opportunités, mais elle a également fortement complexifié le fonctionnement des marchés et la tâche de tous les intervenants, y compris celle des régulateurs. Ce bouleversement, qui a été introduit par la directive MIF, fait actuellement l’objet d’un réexamen par la Commission européenne, tant ses résultats sont mitigés et controversés. Il ne s’agira, sans doute pas, de revenir en arrière sur la mise en concurrence des bourses, mais au moins de pallier, par la mise en transparence, à des effets non anticipés des nouvelles règles.

Cette fragmentation soulève une question capitale en matière de régulation : comment surveiller les carnets d’ordres ? En effet, avec la directive MIF, les régulateurs se sont accordés sur un moyen de pouvoir surveiller les transactions. Un système d’échanges entre régulateurs permet, à chacun des régulateurs européens, de disposer de l’ensemble des transactions qui sont réalisées sur des titres qui relèvent de sa compétence, quel que soit le lieu d’exécution de la transaction. En revanche, ce mécanisme n’existe pas pour les ordres, ce qui signifie qu’on a laissé un vide complet sur la surveillance des ordres. Or, on se rend compte, avec le développement du trading algorithmique, que l’enjeu des ordres est tout aussi important que celui des transactions.

Le layering est une technique très ancienne de manipulation de cours. Il consiste à introduire des ordres dans un carnet, pour donner l’impression d’un intérêt pour une valeur, alors que le but n’est pas d’exécuter cette transaction, mais au contraire, d’influencer le comportement des autres, pour pouvoir effectuer une transaction en sens inverse, à bon compte. Grâce à la rapidité des transactions et à la fragmentation des marchés, cette technique trouve maintenant de nouvelles formes, qui sont plus complexes ; ces stratégies trompeuses peuvent être effectuées dans des temps très courts et sur plusieurs lieux d’exécution à la fois.

À l’heure actuelle, ceci ne peut pas du tout être surveillé, parce que la législation européenne ne donne pas aux régulateurs le moyen de centraliser les carnets d’ordres pour les titres qui relèvent de leur compétence. Michel Barnier parlait tout à l'heure « de ne laisser aucun vide réglementaire, de surveiller tous les produits, tous les lieux d’exécution, tous les acteurs », et il ne faut pas oublier tous les types de surveillance également. Il y a la surveillance des transactions, mais également la surveillance des ordres.

Mon deuxième point, sur la modification des marchés, c’est bien sûr le développement du trading haute fréquence. Le trading algorithmique est loin d’être une technique marginale. C’est devenu le nouveau mode de fonctionnement des marchés. Il faut bien noter que deux types d’intervenants utilisent un trading algorithmique. D’un côté, on a effectivement ces nouveaux traders haute fréquence, qui ont un horizon d’investissement infinitésimal, très court, qui cherchent juste à profiter d’imperfections momentanées sur le marché. De l’autre côté, on a des investisseurs plus traditionnels, qui évaluent le potentiel d’une entreprise, et décident d’investir dans un horizon de temps relativement traditionnel. Celui-ci peut être d’un mois ou d’une semaine. Il reste supérieur à celui des hautes fréquences et garde un sens économique. Et pourtant, ces intervenants, eux aussi, font appel au trading algorithmique. Même si leur décision d’investissement est prise d’une autre façon, ils utilisent ensuite les automates pour pouvoir exécuter leur ordre. Bien que leurs motivations soient différentes, au final, on se retrouve avec des modes opératoires qui conduisent à plus de vitesse et plus d’instabilité.

La question de l’utilité sociale du trading algorithmique a déjà été posée. C’est un trading dans lequel des investisseurs peuvent placer un ordre avant de le retirer moins d’une milliseconde après, comme s’ils avaient changé d’avis sur l’entreprise. La question de l’utilité sociale d’une telle activité n’est pas simple. On dit souvent que les traders haute fréquence ont une utilité en tant que market maker, puisqu’ils permettent de rééquilibrer les prix entre deux lieux d’exécution. Ils ont également une utilité parce qu’ils peuvent permettre de débloquer des situations dans lesquelles une transaction ne se ferait pas sans eux, jouant ainsi un rôle d’intermédiaire entre des acheteurs ou des vendeurs qui ont des prétentions trop éloignées. Sur cet aspect, la mesure de l’utilité sociale est très complexe. Actuellement, les travaux disponibles sur ce sujet sont souvent très positifs et trop limitées pour que l’on puisse conclure à ce stade. On manque d’études académiques sur ce sujet. Elles nous permettraient d’évaluer, un peu plus précisément, l’utilité sociale de ce trading algorithmique. En attendant de pouvoir conclure, l’AMF se garde bien de condamner, sans discernement, l’automatisation des transactions et le trading haute fréquence. Effectivement, c’est quelque chose qui doit encore être étudié.

Malgré tout, si on ne peut pas conclure sur l’utilité, on peut déjà affirmer que ce mode de trading génère de nouveaux risques. On en a déjà parlé dans d’autres interventions, le premier risque identifié est le risque systémique d’instabilité. Pour le « flash crash » du 6 mai, l’ordre initial n’était pas celui d’un trader haute fréquence, mais l’interaction entre les différents algorithmes de trading a pu amplifier les mouvements. En second lieu, le trading algorithmique génère un risque opérationnel, en cas d’erreur de paramétrage d’un algorithme. Michel Barnier a rappelé l’exemple de 2003, dans lequel une faillite était survenue, suite à un problème de paramétrage. Cela peut paraître assez inquiétant, mais même si les modèles de trading sont très sophistiqués, cela n’empêche pas qu’il y ait des erreurs. Quand on interroge des prestataires sur la stratégie sous-jacente à certains ordres qu’on a repérés comme étant suspects, il arrive encore régulièrement qu’ils nous expliquent, qu’en fait, c’était une erreur de paramétrage. Le troisième risque concerne les questions de nuisances sur la lisibilité de l’offre et de la demande, en particulier sur les pratiques de « quote-stuffing », qui ont précisément, pour objet, de placer des ordres dans le carnet dans le simple but de gêner les autres intervenants sur leur interprétation de l’offre et de la demande. Cela gêne les autres intervenants, et cela gêne évidemment le régulateur. Enfin, le dernier point de risque créé par ce trading algorithmique, c’est la perte d’intégrité du marché. Des manipulations de cours peuvent être exécutées par ces algorithmes, et elles sont difficilement repérables.

Je voudrais vous montrer un exemple réel d’une manipulation de cours très rapide, en 15 secondes. Nous observons le carnet d’ordres d’Euronext, sur une valeur du CAC 40. La séquence commence à 9h41 et 39 s. Le titre cote autour de 17,36 €. Dans la situation initiale du carnet, le meilleur prix des acheteurs, qui sont prêts à acheter ce titre, est de 17,355 €. Le prix des vendeurs le plus bas est de 17,370 €. Parmi les 7788 titres proposés à la vente au cours de 17,375 €, le prestataire B, qui est celui qui nous intéresse, a une demande de 100 titres. Nous pouvons faire défiler le carnet en visualisant chaque nouvelle entrée d’ordre. Nous pouvons observer que le prestataire B ajoute de très nombreux ordres de vente, de plus en plus gros. Et puis il vient traverser la fourchette, c'est-à-dire qu’il propose un ordre de vente à un prix plus bas que le prix proposé jusque là, se rapprochant ainsi du prix proposés par les acheteurs. Il prend une position majoritaire sur le carnet d’ordres à la vente, l’objectif étant de faire évoluer les ordres des autres intervenants pour faire descendre le prix. Sa manœuvre fonctionne : de nouveaux ordres de vente sont également placés sur le carnet par d’autres intervenants. Le prestataire B est donc suivi par les autres vendeurs, mais également par les acheteurs qui ont descendu leur prix, faisant ainsi baisser la fourchette. 10 secondes après le début de la séquence, le prestataire B vient se positionner à l’achat, avec un ordre de 10 000 titres à 17,350 €. Il continue à placer des ordres de vente. 17 secondes après le début de la séquence, il est majoritaire sur toutes les limites à la vente. Et à cet instant-là, un autre intervenant se dit : si je veux vraiment vendre, vu la poussée à la vente, je suis obligé de baisser mon prix… Et donc 17 secondes après avoir commencé à placer ses premiers ordres, à 9h41 et 56 s., le prestataire B a réussi à acheter à 17,350 € à la place de 17,370 €. Le profit réalisé n’est pas énorme, mais il est obtenu en 15 secondes. Bien sûr, l’objectif n’est pas juste de gagner quelques centimes sur un titre à l’achat pour 10 000 titres, c’est de le reproduire dans l’autre sens, puis à nouveau, etc. : 15 secondes après, on revoit ce même intervenant qui a mis en place la même technique, et qui revend les titres à un cours plus élevé.

Cet exemple n’est pas excessivement rapide et il porte sur un seul carnet d’ordres. Cela, l’AMF arrive encore à l’analyser, parce qu’on a les données et c'est « suffisamment lent » pour qu’on puisse, avec nos outils de détection, être en mesure de le détecter. Mais vous pouvez imaginer qu’avec des vitesses encore plus rapides et en passant par plusieurs lieux de négociation, on est face à un problème assez complexe dans l’analyse des carnets d’ordres. Cet exemple vous donne une idée des problématiques auxquelles on fait face.

Quelles sont les pistes envisageables pour avoir une meilleure régulation des marchés ? Tout d’abord, il existe des règles simples qui visent à empêcher un emballement des marchés tels que le coupe-circuit, dont on a beaucoup parlé après le « flash crash ». Le fait de faire une pause dans les marchés quand on a une trop forte variation peut permettre à chacun de reprendre ses esprits. Un peu de répit peut permettre de limiter la baisse. Mais cette règle ne fonctionne qu’à partir du moment où l’on a déjà eu un mouvement de marché très fort.

Il existe également la possibilité de mettre davantage de pression en amont pour éviter que les ordres de taille importante qui peuvent déséquilibrer le marché, n’arrivent pas jusqu'au lieu de négociation. D’une part, il s’agit de mettre les responsabilités sur les infrastructures de marché. Effectivement, elles sont censées auditer leurs membres pour vérifier qu’ils ont bien mis en place des systèmes de contrôle, de façon à ne pas transmettre au marché des ordres de taille monumentale tels que celui qui a été à l’origine du « flash crash ». Mais les infrastructures de marché sont en concurrence, elles n’ont pas énormément de moyens, et donc il y a besoin de renforcer la pression si on veut que ce contrôle soit efficace. D’autre part, toujours à leur niveau, il s’agit de mettre la responsabilité sur les brokers. En effet, les brokers doivent contrôler les accès directs aux marchés qu’ils donnent à des clients. Cela évitera donc que des ordres de taille importante, qui peuvent le déséquilibrer, n’arrivent sur le marché.

Ces mesures peuvent limiter le risque de « flash crash », le risque systémique dont on a parlé. En revanche, elles ne suffiront pas à protéger l’intégrité des marchés. Comme on l’a vu sur l’exemple, des variations très petites profitent à certains au détriment d’autres. On a donc un problème sur l’intégrité des marchés, mais il ne s’agit pas de variations énormes qu’on peut repérer sur la base des seules transactions. Sur cet aspect, la seule solution est d’investir davantage sur la surveillance des carnets d’ordres. C’est un point sur lequel l’AMF se bat avec ses autres collègues européens. Parmi les régulateurs de marché européens, peu d’autorités ont autant d’outils que l’AMF, et pourtant nos moyens sont encore très faibles. Ce qui fait que nous sommes assez isolés pour s’attaquer à la surveillance des carnets d’ordres, mais ce sujet est d’une importance capitale. Tant qu’on n’a pas de moyens technologiques pour surveiller le marché, on ne pourra pas empêcher l’intégrité du marché de se dégrader. Cela implique des moyens technologiques et humains suffisants. Pour lutter, il nous faut des algorithmes de détection, ainsi que des algorithmes d’analyse du marché pour le comprendre. Nous avons besoin d’ingénieurs pour les mettre en place et de machines pour les faire tourner.

Il y a également un besoin de modifications réglementaires, afin de mettre en avant la nécessité de surveiller les carnets d’ordres. Pour l’instant, nous avons un vide réglementaire sur ce point. Bref, seule une volonté politique importante peut donner au régulateur les moyens de continuer à tenir sa mission de garant de l’intégrité des marchés. S’ils ne peuvent plus assurer cette mission, ou s’il s’avère que les ressources nécessaires ne peuvent pas être raisonnablement affectées aux régulateurs, il semble qu’il n’y aura pas d’autre solution que de mettre en place des règles arbitraires du type : imposer un temps de latence minimum avant une annulation. Mais il n’est pas certain que ce type de mécanisme soit suffisant. Ces règles seront toujours challengées, parce que les intervenants chercheront à passer outre.

M. Claude Birraux. Merci. La liaison est toute faite avec M. Marcel-Eric Terret, qui est à la Commission européenne, et qui va nous parler du rôle de l’Europe dans les nouvelles réglementations. Si j’ai bien compris, une réglementation purement nationale est tout à fait vaine. On fait donc appel au moins à une réglementation européenne, voire internationale. Comment se situe l’Europe ?

Quel rôle pour l’Europe dans les nouvelles réglementations ?

M. Marcel-Eric Terret, policy officer, direction générale « Marché intérieur et services » (DG MARKT) - Commission européenne. Le commissaire Barnier a déjà présenté les projets pour les prochains mois. Je vous propose de présenter l’acquis communautaire en matière de réglementation de marché.

Cela fait une vingtaine d’années que la Commission européenne travaille sur la réglementation de marché. Dans un premier temps, dans les années quatre-vingt-dix, elle s’était surtout focalisée sur la réglementation des acteurs de marché (c'est-à-dire les intermédiaires, banques, entreprises d’investissement), les investisseurs et les émetteurs. Pour les premiers, on a eu les directives bancaires, la DSI9, qui est devenue la MIF. Pour les émetteurs, on a eu la directive « Prospectus »10, qui détermine les conditions d’introduction des titres en bourse. Pour les investisseurs, on a eu différentes directives visant à contrôler leur intervention sur le marché, notamment les directives « Abus de marché »11 et « OPA »12.

Depuis une dizaine d’années, la Commission européenne a réorienté ses interventions vers les infrastructures de marché. On considère qu’un marché, c’est plus que la somme des acteurs qui y interviennent, ce sont également les règles du jeu auxquelles ils décident de se soumettre, ainsi que les moyens technologiques qu’ils utilisent. Pour nous, les infrastructures de marché, c’est un peu les règles et l’électricité.

La législation concernant les infrastructures de marché a eu pour principale philosophie, la poursuite du risque systémique. C’est une approche de risque zéro, qui consiste à suivre l’hypothèse que la défaillance d’un intervenant de marché peut entraîner un effet domino, qui entraîne d’autres défaillances, sur ce marché. On considère ce marché un peu comme un champ clos, sur lequel des effets dominos sont susceptibles de se produire.

Notre travail est divisé en deux. On distingue deux infrastructures de marché, avec, d’une part, les infrastructures de négociation proprement dites, et, d’autre part, les infrastructures dites de post-marché. On a déjà parlé, abondamment, des infrastructures de négociation. Il s’agit, en premier lieu, des marchés réglementés, des plateformes de trading multilatérales, et, également, à un niveau un petit peu plus opaque, moins réglementé, des fameux internaliseurs, des "dark pools", des réseaux croisés, qui ont été abondamment évoqués tout à l'heure.

Ces infrastructures de marché sont sujettes au risque systémique de liquidité. Je ne parle pas des causes de risque systémique, je ne parle pas, par exemple, des risques opérationnels qui peuvent être à l’origine de risques systémiques. Je raisonne, uniquement, en termes de conséquences. On distingue deux types de conséquences systémiques. D’une part, ce sont les conséquences sur la liquidité du marché, que nous subissons actuellement depuis la crise de 2008, c'est-à-dire une forte restriction de la liquidité sur le marché, avec des effets macroéconomiques considérables. D’autre part, il y a ce qu’on appelle les risques de contrepartie. Ils n’ont pas pour effet de réduire la liquidité, mais d’éliminer un certain nombre d’acteurs. Lorsque ces risques prennent des proportions systémiques, nous avons ce fameux effet domino, dans lequel les acteurs tombent, les uns à la suite des autres, de façon très rapide. Fort heureusement, la crise que nous connaissons n’a pas vu cet effet systémique de contrepartie se produire de façon aussi forte qu’il s’est produit en 1929. Et pourquoi ?

Depuis 1998, nous avons fortement réglementé ce qu’on appelle le post-marché. Le post-marché, c’est l’instant de vérité si vous voulez. C’est le lieu où les règlements et les livraisons de titres vont se produire. Ce post-marché a lieu, désormais, à l'intérieur de systèmes qui sont, eux aussi, extrêmement denses sur le plan technologique. Ils sont régis par des infrastructures informatisées, très puissantes, que l’on appelle les chambres de compensation, que l’on appelle les systèmes de règlement en livraison de titres, et que l’on appelle les dépositaires centraux de titres. Ce secteur a été fortement réglementé, dès 2008, où l’on a introduit une règle essentielle : dès lors qu’une de ces transactions se règle à l’intérieur de ce système, celle-ci est menée à bonne fin, quand bien même une des contreparties ferait l’objet d’une faillite. Une des raisons pour lesquelles nous n’avons pas vu de faillites en chaîne intervenir à la suite de la crise de 1998 est due à l’existence de ce principe, selon lequel les systèmes de règlement de titres sont désormais sanctuarisés, c'est-à-dire protégés contre les conséquences d’une faillite. Désormais, depuis 1998, tout participant à ce système est garanti qu’il ne subira pas les conséquences de la disparition d’un autre participant à ce système.

Notre réglementation, pour l’avenir, consiste, d’une part, à continuer à peaufiner notre « arsenal marché »: la MIF pour tout ce qui concerne les aspects relatifs à l’identification des marchés et de certaines techniques de marché ; la directive « Abus de marché » pour ce qui concerne certains phénomènes de rumeurs ou de faux ordres introduits dans les carnets de commande. Nous avons aussi un projet de législation sur la vente à découvert, qui vise à éviter un certain nombre d’abus, notamment dans ce qu’on appelle la vente à découvert à nu, lorsqu’on n’a même pas les moyens de payer ce qu’on a vendu.

Par ailleurs, notre arsenal post-marché est en cours d’élaboration. Vient d’être déposé un projet de règlement sur les chambres de compensation, qui vise non seulement, à éviter les conséquences de la faillite d’un participant à ces chambres de compensation, mais également, les conséquences de la faillite de la chambre de compensation elle-même. Celle-ci peut, en effet, être catastrophique, puisque ces chambres de compensation ont pour mission essentielle de concentrer, sur elles, l’ensemble des risques de règlement de marchés.

Débat.

M. Claude Birraux. M. Olivier Oullier va nous dire comment voir, ou traiter, les traders compulsifs.

« L'apport des sciences comportementales en finance »

M. Olivier Oullier. Pas uniquement les traders, même si les médias s’intéressent beaucoup plus aux traders qu’aux autres acteurs de la finance. Ce qui nous intéresse, c’est l’ensemble des individus qui vont participer aux décisions financières, quels que soient leurs niveaux et leurs fonctions.

Au moment de l’affaire de la Société Générale, début janvier 2008, avec Erwann Michel-Kerjan de la Wharton School à Philadelphie, nous avons publié un édito, dans un grand quotidien français. Plutôt que de nous focaliser sur les réactions cérébrales du trader en question, qui avait fait une sorte de « master plan », mené avec peu de succès, ce qui nous intéressait beaucoup plus, était la réaction et les prises de décision, des gens qui ont dû couvrir les positions, dans un contexte de pression peu commun, vous en conviendrez. Suite à cette publication, nous avons reçu énormément de sollicitations d’institutions, publiques et privées, nous demandant si les outils et méthodes, que nous développions, et les travaux que nous menions, en sciences comportementales et du cerveau, pourraient aider au recrutement de traders, ou de certaines personnes pour les middle- et les back-offices. Les demandes étaient complètement paradoxales par rapport aux comportements financiers en général, qui requièrent une capacité à gérer des risques, à traiter de l’information et à prendre des décisions, à une vitesse, que la plupart des personnes qui n’ont pas eu cette formation ne peuvent pas faire. Il nous a souvent été demandé de développer des outils, pour essayer de « fabriquer » des décideurs rationnels, des calculateurs froids, qui sauraient s’arrêter avant d’engendrer des pertes majeures.

Notre perspective rejoint celle de grands économistes, dont Alan Kirman, qui ont publié un très bel article insistant sur le fait que la crise économique et financière est, aussi, une crise des sciences économiques, et de la façon dont on doit les envisager et les enseigner.

Or, dans la formation typique des très bons traders, il y a une formation extrêmement poussée en mathématiques appliquées. Par contre, il apparaît que, souvent, ils ne sont en rien préparés à la gestion du stress, et aux stimulations, peu communes, offertes par l’environnement socio-professionnel, dans lequel ils vont évoluer une fois embauchés. A l’heure actuelle, rien ne permet de simuler, et donc de préparer au niveau de stress et de traitement d’information qui peut se passer dans une situation réelle de marché financier. Toutefois, rien n’empêche de s’inspirer d’autres formations de gens exceptionnels, tels que les astronautes ou les pilotes de chasse, par exemple. Ces derniers, sont entraînés à automatiser des comportements, pour décider et agir au mieux, dans certaines situations extrêmes. De fait, l’une des idées que nous sommes en train de développer est le développement d’un ensemble d’outils et de méthodes, qui permettraient d’avoir un training maximal, face à des situations de crise, pour les futurs professionnels de la finance.

D’un autre côté, arriver à entraîner quelqu’un à réagir à des situations types élude complètement l’une des caractéristiques principales des risques que nous rencontrons aujourd'hui : leur nouveauté et leur interdépendance. En effet, certains risques financiers et sociaux, qui vont influer sur la finance, sont des risques que, pour beaucoup, nous n’avons jamais vécus. Par exemple, personne n’avait prévu ce qui est arrivé le 11 septembre 2001. Il était donc difficile de préparer, qui que ce soit, à gérer un tel risque. C’est pourquoi, si l’on venait à repenser la formation, il faudrait, à la fois, préparer, à la manière de ce qui est fait pour les pilotes ou les astronautes, à automatiser une certaine forme de gestion du risque extrême, mais aussi, former à prendre en compte la nouveauté, le plus efficacement possible, donc savoir gérer une part « d’improvisation fonctionnelle et efficiente ». N’oublions pas de former à la gestion de la vie « normale », c'est-à-dire sans la sur-stimulation des marchés financiers. Il s’agit, j’en conviens, d’un paradoxe théorique et empirique.

L’autre point, quelque peu gênant, dans les demandes que nous avions reçues, est la vision, un peu monolithique et trop homogène, de la population des traders. Les médias nous parlent des traders en général, or on ne peut s’en tenir à une description générique. Par exemple, il existe des traders qui ne prennent pas énormément de risque et qui durent. Dans les échanges que nous avons avec eux, et dans l’observation de leurs actions, il apparaît que ce sont des gens qui ont tendance à vouloir que le marché soit le plus stable possible, parce que ce qu’ils ont appris de leurs outils mathématiques, fonctionne mieux quand le marché reste dans le cadre de ce qui a pu leur être enseigné. La vision du trader un peu hors de contrôle, le fameux « rogue trader » en anglais, est extrêmement tenace, car ce sont d’eux dont on parle le plus alors qu’ils sont minoritaires.

M. Rama Cont. Excusez-moi de vous interrompre, mais je ne sais pas pourquoi vous mélangez sans cesse « rogue trader » et mathématiques. Les « rogue traders » que vous avez cités, Kerviel, etc., faisaient des transactions sur les contrats à terme les plus simples, où il n'y avait pas de mathématiques. D’ailleurs, ils n’avaient ni une formation d’ingénieur, ou de mathématiques. Je pense que le problème est plutôt pourquoi l’institution, la banque, autorisent un seul trader, qu’il soit « rogue trader » ou parfaitement équilibré, à prendre des positions qui feront cinquante milliards d’euros. C’est plutôt cela la question.

M. Olivier Oullier. Il y a cette question-là, mais il y a aussi la question du contrôle, le problème de la personne qui prendrait ces positions, et de celles en back-office, qui n’ont peut-être pas le même niveau de compétence, et de rémunération, que le front office, et ne peuvent arriver véritablement à faire le travail qui leur est demandé.

M. Rama Cont. De quelles compétences parle-t-on ? Ce sont des additions, des multiplications et des vérifications d’ordres. Ce ne sont pas des compétences très sophistiquées.

M. Olivier Oullier. Mais à quelle vitesse se déroulent ces vérifications ? Et quid des liens psychologiques et sociaux entre le fait que le bonus du back-office peut dépendre aussi de ce que fait le front office ? Cela renforce la hiérarchie qui existe déjà entre les deux. De fait, dans la relation qu’ils peuvent avoir, ce n’est pas forcément aussi rationnel, objectif, et simple, que vous le présentez. Loin de moi l’idée de faire un amalgame. Ce n’est pas du tout les mathématiques versus le comportement. Mon propos est, seulement, de dire qu’une meilleure compréhension du comportement des personnes, intervenant sur les marchés financiers, quel que soit leur niveau d’intervention, peut être une valeur ajoutée, non négligeable, pour la régulation comme pour les institutions.

M. Yves Bamberger. Vous êtes un allié du capitalisme financier le plus sauvage, si je comprends bien.

M. Olivier Oullier. Je ne comprends pas votre remarque. Nous nous interrogeons sur de nouvelles stratégies, qui pourraient aider à la régulation. Tout à l'heure, nous avons entendu que dix-sept secondes est la limite actuelle pour la détection par l’AMF d’un point de vue technique, il convient donc de prendre en compte les limites, et les possibilités offertes par le comportement humain.

Mme Alexandra Givry. On peut encore faire mieux, sauf qu’on n’a pas de machines suffisamment puissantes pour aller au-delà. Effectivement, on a des limites, en termes de moyens.

M. Charles-Albert Lehalle. Il ne faut pas sans cesse faire l’amalgame, en pensant que parce que les choses vont vite, on n’est pas capable de les contrôler. On sait envoyer des fusées, on sait contrôler des processus qui vont à 50 000 Hz. On ne conduit pas une voiture en pédalant. La technologie est là pour aider à surveiller.

M. Olivier Oullier. La vitesse à laquelle les informations arrivent lorsque vous conduisez une voiture n’a rien à voir.

M. Charles-Albert Lehalle. Quand il s’agit de contrôler la combustion dans le moteur d’une voiture, c’est toutes les 2 µsecondes.

M. Olivier Oullier. Je parle de l’humain qui contrôle. Vous ne contrôlez pas la combustion de votre voiture.

M. Charles-Albert Lehalle. Justement, il y a des machines pour cela.

M. Claude Birraux. Très brève intervention de M. Jean-Pierre Kahane s'il vous plaît.

M. Jean-Pierre Kahane. J’ai trouvé les dernières communications très intéressantes pour décrire les outils dont nous pouvons disposer, en ce qui concerne l’analyse des marchés financiers, comme de la psychologie des traders. Mais il m’a semblé que l’optique était d’améliorer le système, et non pas du tout de le changer : améliorer le comportement des traders, améliorer le métier, éviter les systèmes de dominos… Et je vois que dans la critique qu’il fait du système, Stiglitz va bien au-delà. Il autorise les systèmes de dominos, il autorise les faillites, il recommande qu’on laisse les banques faire faillite, puisque les actionnaires profitent des profits des banques, et quand les banques font faillite, les actionnaires n’ont qu’à payer, et à ce moment-là, sont remplacées par les obligataires, qui deviennent les propriétaires des banques. Il y a une direction qui est dessinée par Stiglitz, dont je n’ai absolument pas entendu parler ici.

M. Marcel-Eric Terret. Je profite de l’intervention de M. Jean-Pierre Kahane pour présenter la différence de philosophie entre la réglementation européenne et la réglementation américaine. Stiglitz, malgré toutes ses qualités, est un Américain, qui raisonne dans le cadre d’un système dans lequel l’État est le dernier garant de la stabilité des marchés financiers. Et pour cause, le taux de pression fiscale aux Etats-Unis n’est que de 25%. Malgré son très fort endettement, il est toujours possible d’augmenter les taxes sur le carburant, pour pouvoir couvrir le déficit budgétaire américain. En revanche, en Europe, l’approche que nous avons eue, à la fin des années quatre-vingt-dix, était une situation dans laquelle nous avons un taux de prélèvements obligatoires beaucoup plus élevé, et dans lequel la plupart des États européens n’ont plus les marges financières suffisantes pour pouvoir intervenir en tant que dernier garant. C’est la raison pour laquelle nous en sommes réduits à faire des améliorations, et non pas des solutions de fond. Effectivement, aux Etats-Unis, on peut se permettre d’avoir des faillites en chaîne, parce que l’État va repêcher cela. En revanche, en Europe, on ne peut pas se permettre cela, sinon c’est le scénario grec, ou le scénario irlandais, qui risque de se reproduire.

M. Rama Cont. Il y a une question de fond qui est mal posée. Et je reviens à une phrase que vous avez dite lors de votre intervention : il n'y a pas d’étude sur l’utilité sociale de certains mécanismes de marché. Il ne peut pas y avoir d’études académiques simples sur l’utilité sociale. Les études académiques vont vous dire si tel ou tel mécanisme de marché va augmenter ou diminuer la liquidité par exemple. Mais la question de fond, c’est : est-ce que l’objectif est d’augmenter la liquidité ? La liquidité de marché est-elle une fin en soi ? Ou est-ce qu’il y a une liquidité minimale qui est nécessaire au fonctionnement du financement des entreprises, et au-delà de laquelle c’est un luxe, dont on n’a pas besoin, et qu’on pourrait sacrifier, pour gagner sur d’autres terrains ? Je pense que c’est une question de fond qui a été derrière toutes ces interrogations, que j’ai entendues à la fin de la table ronde. C’est une vraie question.

Mme Alexandra Givry. Effectivement, pour l’instant, on n’a même pas la réponse à la première question qui est de savoir si, vraiment, cela améliore la liquidité.

M. Rama Cont. Même si certains mécanismes augmentent la liquidité, ce n’est pas forcément une utilité sociale. Je ne vois pas cela comme une utilité sociale. On est en train de raisonner en vase clos, sur un marché financier, sans parler de l’interaction de ce marché financier avec la macroéconomie. Toutes les questions de risque systémique, qui expliquent qu’on soit là aujourd'hui, découlent du fait que ce n’est pas un vase clos, ou un système fermé. Il interagit avec le crédit et avec l’économie réelle. Cela n’a pas été débattu ici. C’est plus large que le sujet d’aujourd'hui.

M. Claude Birraux. Présentez-nous votre synthèse, M. Rama Cont.

SYNTHÈSE ET CONCLUSION

M. Rama Cont. Je vais me focaliser, de nouveau, sur le titre de la journée. Quels sont les apports et les impacts des sciences et des technologies sur l’évolution des marchés financiers ? On a beaucoup parlé d’impact et peu des apports. Les exposés ont cité, entre autres, les infrastructures informatiques et l’automatisation des échanges, qui jouent un rôle croissant ; les plateformes de trading en ligne ; les automates de trading en ligne. Ensuite, ils ont évoqué les modèles mathématiques et les techniques quantitatives en gestion des risques, dans le trading. Et, enfin, les logiciels d’évaluation et de gestion des risques qui jouent un rôle de plus en plus important, au sein des institutions financières.

Ces différents éléments ont des impacts, à différentes échelles de temps. C’était la notion introduite par M. Jean-Paul Betbèze. Evidemment, il y a des impacts à court terme. C’est immédiat, avec l’accélération des échanges, l’apparition de plateformes électroniques de trading, le trading haute fréquence, qui est un produit direct de ces nouvelles technologiques. Ils ont aussi des impacts, à l’échelle macroéconomique, à plus long terme. On a vu notamment avec la crise des subprimes, que les produits dérivés peuvent contribuer à l’amplification des déséquilibres économiques globaux, en drainant les capitaux vers certains secteurs, plutôt que d’autres.

Tout cela donne l’image d’un système fragmenté et complexe. Ce mot est revenu dans tous les exposés. La dynamique a été accélérée par toutes ces innovations technologiques, et donc cela devient de plus en plus difficile à analyser. De plus, le couplage des risques divers et des intervenants, dans ce système, et le caractère plus ou moins transparent de leur position (tout n’est pas révélé, pour le régulateur ou le système de surveillance), rendent difficile la lisibilité des risques systémiques, qui sont l’objet principal d’intérêt pour le régulateur.

Pour résumer, un système complexe est difficile à surveiller et à réguler, et, aussi, difficile à comprendre. Comme vous l’avez dit à la fin de votre intervention, on ne comprend pas parfaitement le fonctionnement de ce système, comment ces divers ingrédients interagissent ensemble, s’ils augmentent, ou diminuent, la liquidité, s’ils augmentent, ou diminuent, le coût de la transaction pour l’intervenant lambda. Je pense que c’est là où il peut y avoir une nouvelle interface, entre sciences et technologies et la finance. C’est de permettre de mieux comprendre ces éléments, la dynamique de ce système, en adoptant les différentes pistes de recherche évoquées aujourd'hui : aider à éclairer les choix en matière de régulation, à la fois au niveau de la collecte et du traitement des données ; la fabrication d’indicateurs de pertinence ; et mieux comprendre les effets secondaires des régulations et des infrastructures à venir.

Ce sont des questions très importantes, qui ont un impact sur les affaires publiques. Les scientifiques, les chercheurs académiques, les chercheurs professionnels et les experts en technologie peuvent aider à éclairer ces choix. Pour ma part, j’appelle à une interaction plus grande entre les responsables à la fois de régulation et les législateurs, et ceux qui ont travaillé, pendant des années, sur ces sujets, dont on a ici plusieurs représentants, pour mieux réfléchir, ensemble, à tous ces sujets.

Je laisse de côté certaines questions de fond qui ont été évoquées à la fin. Ce n’est pas le sujet de la journée. Mais, évidemment, une fois qu’on a compris comment fonctionne le système, et qu’on a amélioré tel ou tel paramètre dans le système, comme la liquidité par exemple, cela ne signifie pas immédiatement qu’on va et qu’on veut faire cela. Ce n’est pas un choix scientifique, c’est une affaire de politique économique de décider quel genre de marché financier on veut avoir et quelle place le marché financier va avoir dans une société. Cette question est largement découplée, dont il faut décider d’abord, avant de dire ce qu’on va faire pour atteindre cet objectif. Mais je pense qu’on peut découpler dans une large mesure, ces deux questions, pour travailler plus sereinement sur la première.

M. Claude Birraux. Merci. Je voudrais remercier nos collaborateurs qui ont préparé cette audition qui a été passionnante, de bout en bout, ainsi que les acteurs. Cette audition se veut une contribution à l’établissement d’un diagnostic retraçant les dérives à l’origine de la crise des subprimes, et du krach du 6 mai 2010 aux Etats-Unis.

Bien que ces crises aient des causes fondamentalement économiques qui ne relèvent pas directement des missions de l’Office, mais davantage de celles de la Commission d’enquête qui a été créée par l’Assemblée Nationale, elle a une dimension scientifique et technologique, dans la mesure où des outils très sophistiqués, s’appuyant sur des avancées aussi sophistiquées en matière de modélisations mathématiques et de technologies de l’information, ont permis une amplification des comportements aberrants, au regard de l’intérêt collectif.

Je ne conclurai pas en invoquant un désir illusoire de retour à des structures fermées et à des comportements normalisés. Toute solution doit prendre en compte le monde tel qu’il est, c’est-à-dire global, ouvert et fortement concurrentiel, et les acteurs économiques tels qu’ils sont, c'est-à-dire prêts à exploiter la moindre asymétrie d’information, pour dégager un profit, serait-ce au détriment de l’intérêt collectif.

Il ne convient pas de définir avec nostalgie les conditions d’un monde idéal, mais de partir de l’insatisfaisante réalité, pour proposer des solutions applicables, c'est-à-dire des solutions dont la mise en place est effectivement à la portée des autorités publiques, et dont la mise en œuvre canalise l’énergie des forces irrésistibles de l’économie, pour qu’elles ne jouent pas massivement, d’un seul coup, à l’encontre du collectif. Je crois qu’il y a besoin d’une démarche, d’une méthodologie, qui soit engagée dans le domaine de l’économie, et qui vaut aussi pour la technologie.

Tout effort de recherche passe par une phase initiale d’utopie, celle qui correspond à la formulation d’idées et de principes, qui ouvrent la voie, et dessinent les pistes à explorer. Dans le domaine des techniques sous-jacentes aux opérations financières, on songe assez spontanément à une limitation de la vitesse des transactions, à la fixation d’un délai minimal avant l’annulation d’un ordre, au contrôle des ordres à seuil de déclenchement automatique, à la création d’une plateforme garantissant la traçabilité de ces ordres.

En tout cas, c’est l’objet même du processus scientifique de construire un cheminement, qui, étape après étape, conduit de la liberté de l’imagination au réalisme de solutions opérationnelles.

La responsabilité des hommes politiques est d’allouer des moyens pour les études et réflexions nécessaires, puis d’agir en conséquence. Et il appartient aux scientifiques de proposer des mesures opérationnelles et réalistes.

Nous avons eu une confrontation pluridisciplinaire. Je vous remercie les uns et les autres d’y avoir contribué. Je remercie, en particulier, M. Rama Cont d’avoir brillamment assuré la modération de cette audition. Il sera dressé un rapport de tout ceci, qui vous sera envoyé.

EXTRAIT DE LA RÉUNION DE L’OPECST DU 7 NOVEMBRE 2010,
en présence des lauréats français de la médaille Fields, MM. NGÔ BảO CHÂU et Cédric Villani ainsi que du lauréat
du prix Gauss, M. Yves Meyer

M. Claude Birraux. Je tiens à profiter de la présence des lauréats français de la médaille Fields, M. Cédric Villani et M. Ngô Bảo Châu, ainsi que le lauréat du prix Gauss, M. Yves Meyer, pour aborder l’épineuse question des mathématiques financières, leur rôle controversé dans l’évolution moderne de la finance, et, plus généralement, l’interaction entre ce domaine et le reste de la communauté scientifique.

Vous le savez peut-être, l’OPECST, sur proposition de son conseil scientifique, en particulier de MM. Laurent Gouzènes, Hervé Chneiweiss et Jean Therme, a procédé, le 14 octobre dernier, à une audition publique, en lien avec l’actualité boursière et bancaire des derniers mois, sur le thème : « Les apports des sciences et technologies à l’évolution des marchés financiers ».

M. Rama Cont, directeur de recherche au laboratoire de probabilités et modèles aléatoires, professeur associé et directeur du Centre d’ingénierie financière de l’université Columbia, nous fait l’honneur d’être, à nouveau, parmi nous aujourd’hui. Il a eu la responsabilité, lors de cette audition, d’animer les débats, d’engager les participants à détailler les points qu’ils abordaient, puis de réaliser une synthèse, de haute qualité, sur le vif, à la fin de chaque table ronde. Je tiens à le féliciter, à nouveau, pour son concours particulièrement efficace et brillant : la pertinence et la justesse de ses interventions nous ont permis d’avoir un débat de très haute qualité.

Quelles sont les portées et les limites de la modélisation mathématique ? Avez-vous eu l’occasion d’interagir avec le monde de la finance ? Estimez-vous possible de modéliser fidèlement, par les mathématiques, un domaine aussi complexe ? Plus généralement, comment voyez-vous la place des mathématiciens dans la société ?

M. Yves Meyer. Je commencerai par exprimer mon admiration pour le travail de Rama Cont et par souligner, avec insistance, qu’il a une formation de physicien, plus précisément, en physique statistique, et non pas de mathématicien. C’est, précisément, ce qui lui a apporté les outils intellectuels nécessaires pour aborder les systèmes complexes, à très grande dimensionnalité. Il arrive, parfois, que les mathématiciens, bizarrement, se laissent emprisonner par la très grande tradition de leur discipline. Je trouve que les modèles conceptuels introduits par des physiciens comme Giorgio Parisi ou Uriel Frisch ont été des sources intellectuels beaucoup plus fertiles que les apports de leurs contemporains mathématiciens.

M. Cédric Villani. Les physiciens ne sont pas contraints par la rigueur, ils ont davantage de liberté !

M. Yves Meyer. Bref, j’admire l’approche intellectuelle de Rama Cont.

La gestion de ces problèmes énormes – les évolutions de marché, les mouvements de capitaux, etc. –, d’une dimensionnalité largement supérieure à celle des problèmes de physique, requiert la création d’outils intellectuels tout à fait nouveaux. Un de mes confrères de l’Académie, Roland Glowinski, m’a fait part d’une réunion, consacrée aux équations dérivées partielles non linéaires, qui s’est tenue aux États-Unis : il y était question des problèmes du siècle à venir et les trois quarts des problèmes relevés concernaient la sphère financière. La finance tire les sciences, ce phénomène est prodigieux.

M. Cédric Villani. Quoi que n’ayant guère répondu aux questions, Yves vient de tendre une perche intéressante : c’est vrai, les problèmes financiers ont inspiré et continueront d’inspirer de nouveaux problèmes mathématiques.

Il est toutefois compliqué de parvenir à une modélisation fidèle car, en matière de finance, les données ne portent pas sur des particules obéissant à ce que leur imposent les lois de la physique, mais sur des personnes, qui changent d’avis, ou appliquent des modèles plus ou moins connus. Il est beaucoup plus difficile d’effectuer des prédictions, dans un tel domaine, que sur des problèmes habituels, traités par la physique ou les mathématiques. Le système est donc extrêmement complexe. J’ajoute que les hypothèses, sur lesquelles s’appuient les projections des modèles de mathématiques financières, comme le modèle de Black-Scholes, ne sont jamais vérifiées. La pertinence de ces modèles est indéniable mais ils doivent être appréhendés comme des outils de vérification, ils n’ont pas de valeur prédictive, ils ne donnent aucune assurance.

Dans un domaine de ce type, eu égard au biais humain important et aux interactions fortes de la théorie sur l’expérience, la modélisation mathématique requiert une prudence particulière.

Vous voyez que, sur ce terrain glissant, nous prenons nos précautions !

[…]

M. Yves Meyer. Lorsque vous utilisez votre carte de crédit pour retirer de l’argent, vous vous servez d’une application, très subtile et très inattendue, de la théorie des nombres, qui relève des mathématiques pures. Par ailleurs, toutes les mathématiques financières reposent sur les travaux du mathématicien japonais Kiyoshi Ito, premier récipiendaire du prix Gauss, au congrès de Madrid, en 2006, et aujourd’hui décédé. L’intégrale d’Ito, inspirée d’une martingale, était, à l’origine, un concept de mathématiques pures, mais son calcul stochastique a trouvé une application prodigieuse en matière financière. Il est indispensable pour comprendre la crise financière et, ces quinze dernières années, les banques ont recruté, massivement, des mathématiciens : quand Nicole El Karoui y enseignait, 70 % des promotions de l’École polytechnique rejoignaient les banques.

M. Cédric Villani. Ce qui relève, un jour, des mathématiques pures, appartient, le lendemain, aux mathématiques appliquées.

CONCLUSION GÉNÉRALE

M. Claude Birraux. L'Office Parlementaire des Choix Scientifiques et Technologiques (OPECST), encore peu connu des acteurs du milieu de la finance, se situe à la croisée des chemins scientifique, technologique et politique. Composé de dix-huit députés et dix-huit sénateurs, cette instance de réflexion et d’évaluation produit, depuis 1983, des études élaborées, en lien toujours plus étroit avec la communauté scientifique. Son activité résulte de demandes formulées par les organes du Parlement ou des dispositions de la loi.

Son dialogue rapproché avec le monde de la recherche et de la technologie, en premier lieu avec son conseil scientifique composé de vingt-quatre personnalités de réputation internationale, dote l’Office d’un puissant outil d’analyse pour évaluer en profondeur des sujets complexes.

L’efficacité opérationnelle de l’Office tient à son suivi déterminé de la mise en œuvre de ses recommandations, par toutes les voies institutionnelles ou canaux d’influence ouverts généralement aux parlementaires, ou institués spécifiquement à son profit : échange avec le Gouvernement, présentation d’amendements, évaluation de programmes, supervision d’organismes.

Au cours de l’audition publique organisée le 14 octobre dernier, l’Office, en lien avec l’actualité boursière et bancaire des derniers mois, a ainsi souhaité mobiliser des personnalités compétentes pour évaluer « Les apports des Sciences et Technologies à l’évolution des marchés financiers ».

Les participants ont analysé l’évolution rapide des technologies de marché ainsi que la complexité croissante des stratégies de trading. Celles-ci semblent à l’origine d’un décalage entre, d’une part, les techniques de surveillance, de régulation et de gestion des risques, et, d’autre part, la réalité du fonctionnement des marchés.

Les différents aspects techniques abordés sans détour ont permis d’identifier un certain nombre de problèmes et d’envisager plusieurs pistes de solutions.

Tout d’abord, la nécessité de repenser la définition du risque systémique, et d’envisager la régulation non plus seulement sous l’angle du comportement des acteurs individuels mais également sous l’angle des risques endogènes engendrés par la dynamique intrinsèque des marchés. Les nouvelles institutions chargées d’alerter sur les risques systémiques pourraient par exemple entamer un travail approfondi sur les causes d’instabilité, de non linéarité et de saturation des marchés à partir de données empiriques.

Bien réguler les marchés financiers nécessite de bien comprendre leurs mécanismes. L’introduction d’une obligation de stockage de données financières détaillées par les opérateurs de marché, que le régulateur rendrait ensuite accessibles, sous forme anonyme, pour les travaux de recherche. Celle-ci vise à palier le nombre insuffisant d’études académiques évaluant l’impact du trading haute-fréquence sur l’évolution des marchés, notamment en raison de l’impossibilité pour les chercheurs d’accéder aux données financières, souvent non-publiques. L’on peut d’ailleurs poser, à ce titre, les questions plus générales de la transparence des informations transitant par les dark pools ou de la réglementation des marchés de gré à gré.

Pour détecter plus efficacement les manipulations de cours, il est possible de passer, au niveau des agences de régulation, d’une surveillance des transactions à une surveillance des ordres. Mais l’insuffisance des moyens du régulateur, qui l’empêche de recruter les personnes compétentes dont il aurait besoin pour assurer une meilleure surveillance des marchés, doit être prise en considération.

De la même façon, la question d’une tarification spécifique des ordres lorsqu’ils sont passés par des automates doit être posée, tout comme l’instauration d’un temps de latence minimal entre la passation d’un ordre et son annulation afin d’empêcher à certains opérateurs de « sonder » le marché, qui s’apparente en tout point à l’équivalent technologique du délit d’initié.

Enfin, il semble opportun de traiter le sujet de l’utilité sociale des mécanismes innovants. L’innovation est-elle une fin en soi ? Quelle est l’utilité de ces nouveaux outils dans les sociétés modernes ? Il a été souligné, en particulier, que les innovations scientifiques et techniques pourraient aussi servir à mieux réguler les marchés financiers, ce qui leur conférerait une plus grande utilité sociale.

1 Elle a été définitivement adoptée dans les jours qui ont suivi l’audition : loi n° 2010-1249 du 22 octobre 2010 de régulation bancaire et financière, publiée au Journal Officiel du 23 octobre 2010.

2 « Securities and Exchange Commission », équivalent américain de l’Autorité des marchés financiers.

3 Directive 2004/39/CE du Parlement européen et du Conseil du 21 avril 2004 concernant les marchés d’instruments financiers.

4 Régulation « National Market System », 2005.

5 Banque des Règlements Internationaux.

6 Rapport de Jacques de Larosière, remis à la Commission Européenne le 25 février 2009.

7 Loi sur la régulation financière et bancaire de juillet 2010 aux Etats-Unis, portée par le sénateur Chris Dodd et le représentant Barney Frank.

8 Ultra-Haute Fréquence

9 Directive 93/22/CEE du Conseil du 10 mai 1993 relative aux services d'investissement.

10 Directive 2003/71/CE du Parlement européen et du Conseil du 4 novembre 2003 concernant le prospectus à publier en cas d'offre au public de valeurs mobilières ou en vue de l'admission de valeurs mobilières à la négociation.

11 Directive 2003/6/CE du Parlement européen et du Conseil, du 3 décembre 2002, sur les opérations d'initiés et les manipulations de marché.

12 Directive 2004/25/CE du Parlement européen et du Conseil, du 21 avril 2004, concernant les offres publiques d'acquisition.


© Assemblée nationale