Publicité

L’intelligence artificielle, ou l’ascension des «boîtes noires» sur les marchés

19 décembre 2019, 11:22

Par

Partager cet article

Facebook X WhatsApp

L’intelligence artificielle, ou l’ascension des «boîtes noires» sur les marchés

L’intelligence artificielle s’immisce à toute vitesse dans la finance où les investisseurs recherchent toujours une longueur d’avance technologique mais ajoute un facteur de déstabilisation aux marchés.

Depuis dix ans les programmes informatiques de plus en plus complexes règnent sur les salles de trading, avec des ordinateurs qui achètent ou vendent automatiquement des titres selon qu’ils dépassent ou tombent sous certains prix, ou en fonction de certaines décisions politiques attendues, etc.

Le courtage à haute fréquence, c’est-à-dire des ordinateurs qui mènent automatiquement des milliers de transactions à la seconde pour profiter de mini-variations de cours, est aussi devenu monnaie courante.

Mais l’intelligence artificielle va encore plus loin: des logiciels d'«apprentissage automatique» (machine learning) croisent à toute vitesse des dizaines de bases de données gigantesques, trouvent des tendances, corrélations, émettent des modélisations, prévisions... Et prennent seuls les décisions d’achat/vente.

D’après le cabinet d’analyses Greenwich, plus de 50% des entreprises de marché auront mis en place des procédures d’intelligence artificielle d’ici deux ans.

Les fonds d’investissement et gestionnaires de portefeuilles s’en servent pour mieux maîtriser leurs risques ou choisir quoi acheter, pour qui et quand.

Les banques l’utilisent pour la détection de fraudes et d’attaques informatiques, fixer le prix d’un produit, analyser le profil de clients. C’est aussi un outil pour baisser leurs coûts, au moment où les taux d’intérêt négatifs compressent leurs marges.

Les régulateurs ont quant à eux recours à l’intelligence artificielle pour détecter de potentiels «événements catastrophiques sur les marchés comme les faillites en cascade de 2008», explique la CFTC, l’un des régulateurs américains.

Intuitions

La société SparkBeyond, qui travaille notamment pour Microsoft, souligne aussi que le «machine learning» permet de tester certaines intuitions pas toujours pertinentes.

Par exemple, explique Edward Janvrin, directeur Europe de la start-up israélienne, à la question «qu’est-ce qui pronostique le mieux les chances de survie après un appel d’urgence?», la proximité d’un hôpital semble une réponse logique.

Mais le logiciel de SparkBeyond, après analyse de millions de données en seulement quelques minutes, montre que le vrai facteur prédictif, c’est la proximité d’une caserne de pompiers.

Cela peut s’appliquer aux marchés avec d’autres questions, comme «Quand est-ce qu’il faut acheter ce titre?»

Les inconditionnels des machines comme Vasant Dhar, professeur à l’université NYU Stern et gestionnaire d’un fonds spéculatif, affirment que le courtage automatisé est toujours plus sûr que les transactions réalisées par les humains, plus susceptibles de paniquer, réagir aux effets de troupeau, etc. «Les humains ne prennent pas de bonnes décisions (...) à court terme les machines font mieux».

Disjoncteur

Il souligne toutefois que tout système d’intelligence artificielle prévoit un humain pour éliminer certains biais et jouer le rôle de «disjoncteur» en cas de dysfonctionnement.

Mais les problèmes peuvent survenir quand trop d’investisseurs se reposent sur les mêmes logiciels et parient sur les mêmes scénarios: «le marché peut alors devenir très déséquilibré», admet M. Dhar. Avec un risque d’effet domino si tous les logiciels se mettent à vendre massivement tel ou tel actif.

Dans un rapport, la Banque d’Angleterre reconnaît ainsi que le «machine learning», s’il ne crée pas de nouveaux risques, «peut en amplifier».

Les professionnels de la finance gardent en mémoire le krach éclair de 2010 à la Bourse de New York, où le Dow Jones avait perdu plus de 9% en 10 minutes. De même en 2016, la livre avait perdu 12% en 2 minutes, entraînant de grosses pertes pour certaines entreprises.

Ces incidents ont été attribués par beaucoup aux algorithmes, mettant en lumière les risques du courtage à haute fréquence. Sans oublier ceux de manipulations de marché, à l’ère des fausses informations.

Autre problème avec la montée en force des machines: comme elles se trompent peu, qu’elles vont de plus en plus vite et tournent de plus en plus en vase clos, les humains ont tendance à se reposer sur elles. Résultat: ils ne savent plus toujours déceler une erreur, ni comment intervenir, remarque Vasar Dhar.

L’un des enjeux du secteur est justement de le rendre intelligible auprès des clients et des régulateurs des logiciels qui évoquent des boîtes noires. D’autant que ce sont les humains qui restent responsables devant la loi.

Ceux qui restent du moins: comme dans les autres domaines de l’économie, le cabinet Greenwich constate que «des emplois ont été supprimés à cause de l’automatisation», avec des vétérans du secteur par des machines.