À Wall Street, les robots ont pris le pouvoir

© istock

Vus comme une poule aux oeufs d’or ou pointés du doigt à chaque “accident” sur les marchés, les algorithmes règnent en maître à Wall Street mais leur contrôle reste parfois aléatoire.

Le 6 mai 2010, un peu après l’heure du déjeuner, la Bourse de New York est légèrement orientée à la baisse quand son indice phare décroche tout d’un coup de plus de 9%, avant de se reprendre, sans que personne à Wall Street ne comprenne pourquoi.

A l’origine de ce “crash éclair”, le déclenchement d’un programme informatique qui avait commencé à vendre une très grande quantité de contrats à terme sur le S&P 500 en une vingtaine de minutes.

Ce qui aurait pu être presque invisible a pris de l’ampleur avec les réactions en chaîne des autres ordinateurs, notamment ceux utilisant des techniques de spéculation à très grande vitesse.

Ce type d’incident, s’il est rare, met en lumière la place qu’ont pris sur les marchés financiers les algorithmes, ces programmes informatiques composés d’une suite de commandes pouvant être très simples ou au contraire ultra-sophistiquées.

C’est la création du Nasdaq, en 1971, avec ses échanges électroniques ensuite devenus la norme, qui a ouvert les portes de Wall Street aux ordinateurs.

Aujourd’hui, les algorithmes pourraient intervenir, à un stade ou à un autre, dans 90% des transactions, avance Valerie Bogard de TABB Group, une société de conseil financier, qui précise toutefois que c’est très difficile à évaluer.

“Même quand un ordre est passé par un vendeur, il est possible qu’un algorithme ait été utilisé”, détaille-t-elle.

Algorithme qui ‘apprend’

Les “boîtes noires” ne nécessitent, elles, aucune intervention humaine. Ces programmes sont conçus pour opérer de manière autonome et appliquer des stratégies définies en fonctions des informations qu’ils reçoivent.

Récemment, l’entreprise T3 a ainsi mis en place un “robot” qui scrute les tweets du président des Etats-Unis Donald Trump, identifie les entreprises qu’il mentionne, analyse la teneur du message et parie ensuite en Bourse sur les conséquences que cela peut provoquer.

Dans ce domaine, la nouvelle frontière est l’intelligence statistique. L’algorithme “apprend” et affine ses estimations en direct en utilisant des données financières ou les réseaux sociaux.

Des entreprises comme QuantCube essaient de faire analyser par leurs algorithmes ce nombre énorme de données, le fameux “big data”, pour en tirer des conclusions d’investissements sur les marchés.

Mais l’une des applications les plus importantes sur les marchés financiers, et la plus critiquée, reste le courtage à haute fréquence.

Des ordres de ventes ou d’achats sont passés à très grande vitesse pour pouvoir réaliser de petits gains, mais qui, multipliés par leur très grand nombre, vont générer des millions.

Ces transactions, où l’unité de mesure est la microseconde, représentent une part très importante du volume d’échanges et sont critiquées pour l’opacité qu’elles peuvent engendrer.

“Il y a par exemple ce qui est appelé les leurres, quand un trader à haute fréquence tente de créer un environnement favorable en multipliant de faux ordres qui sont ensuite annulés”, explique Eric Noll, PDG de l’agence de courtage Convergex, pour qui c’est l’utilisation et non l’existence des algorithmes qui est en cause.

L’homme derrière la machine

Pour la première fois, la SEC, le gendarme américain de la Bourse, a mis à l’amende en 2014 un gestionnaire de portefeuille new-yorkais accusé d’avoir pendant six mois placé de nombreux ordres dans les deux dernières secondes avant la clôture afin de manipuler les prix.

Depuis, les autorités américaines ont élargi leur arsenal de lutte contre ces fraudes et traquent l’homme derrière la machine.

Ceux qui conçoivent ou opèrent ces logiciels doivent désormais être identifiés et la SEC a le pouvoir d’exiger les documents ayant permis la création de ces algorithmes.

A Wall Street, plusieurs Bourses où les transactions sont ralenties de quelques microsecondes ont été crées, comme IEX ou la future plateforme d’échanges du groupe New York Stock Exchange. Leur but: laisser le temps aux courtiers, humains, de passer leurs ordres et ainsi limiter les “excès” des machines.

“J’étais déjà sur les marchés en 1987, c’était bien avant les algorithmes, avec des gens qui achetaient et qui vendaient. Je peux vous dire que quand il y a eu le crash de 1987, tout le monde était aux abonnés absents”, modère toutefois Eric Noll.

Et de conclure: “il n’y a jamais personne pour rattraper un couteau en train de tomber, que ce soit un humain ou un ordinateur”

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Partner Content