5 min (1403 words) Read

Télécharger le PDF

Les institutions financières devraient doubler leurs dépenses liées à l’IA d’ici à 2027

Les outils qui font appel à l’intelligence artificielle (IA) et leurs utilisateurs sont devenus incontournables pour les institutions financières et les banques centrales du monde entier.

En juin 2023, JPMorgan Chase & Co. avait 3 600 postes liés à l’IA à combler, selon Evident Insights Ltd, une jeune pousse londonienne qui suit les capacités des sociétés de services financiers dans le domaine de l’IA.

« On se dispute le talent », a indiqué la fondatrice d’Evident Insights, Alexandra Mousavizadeh. « Il est vraiment vital d’avoir une longueur d’avance sur ce plan. »

À l’instar d’autres avancées technologiques, l’IA est synonyme de nouvelles possibilités, mais aussi de nouveaux risques. Le secteur financier pourrait compter parmi ceux qui bénéficient le plus de l’IA, qui pourrait lui permettre de mieux protéger les actifs et de prévoir l’évolution des marchés. Mais c’est aussi le secteur qui a le plus à perdre si l’IA ouvre la voie au vol, à la fraude, à la cybercriminalité, voire à une crise financière imprévisible.

Le lancement de ChatGPT par OpenAI en novembre 2022 continue de faire des vagues dans de nombreux secteurs, dont la finance. Cette application a eu une croissance sans précédent dans l’histoire d’Internet, le nombre d’utilisateurs ayant rapidement atteint les 100 millions.

Dans le secteur financier, la demande de spécialistes de l’IA ne connaît pas de frontière. Trois des dix premières villes de l’indice des talents d’Evident se trouvent en Inde selon sa fondatrice, économiste, mathématicienne et ancienne codirectrice de la section du risque pays chez Morgan Stanley.

Une adhésion sans réserve

Les investissements des entreprises, y compris des sociétés de services financiers, dans l’IA témoignent des nouvelles priorités. Selon International Data Corp, les ventes de logiciels, de matériel et de services liés à l’IA augmenteront de 29 % pour atteindre 166 milliards de dollars cette année et dépasseront 400 milliards de dollars en 2027. D’après la société d’études de marché, les dépenses effectuées à ce chapitre dans le secteur financier vont plus que doubler pour atteindre 97 milliards de dollars en 2027 ; cela représente une croissance annuelle composée de 29 % qui place le secteur au premier rang parmi les cinq principaux secteurs à cet égard.

Les fonds spéculatifs, qui sont depuis longtemps des précurseurs en matière technologique, ont adopté l’IA générative. Selon une enquête menée par BNP Paribas auprès de fonds ayant des actifs totalisant 250 milliards de dollars, près de la moitié des gestionnaires interrogés utilisent ChatGPT à des fins professionnelles, et plus des deux tiers, pour rédiger des documents marketing ou résumer divers documents.

Les sociétés d’investissement utilisent l’IA et examinent les possibilités qu’elle pourrait offrir dans le cadre de diverses activités. La plus grande société d’investissement d’Europe, Amundi SA, a entrepris de créer sa propre infrastructure d’IA pour la réalisation d’études macroéconomiques et d’analyses des marchés. Elle s’en sert également pour des applications telles que les robots-conseillers au service des particuliers.

La société Amundi, qui gère depuis Paris 2 000 milliards d’euros (2 100 milliards de dollars) d’actifs pour plus de 100 millions de clients, utilise l’IA pour personnaliser les portefeuilles de certains de ses clients sur la base d’un questionnaire sur le risque, qui lui permet également de connaître leurs impressions en temps réel.

L’IA risque également d’exacerber une crise, quelle qu’en soit la cause, parce qu’elle s’appuie sur des données en décalage face à la réalité d’une situation inédite.
Une vue d’ensemble

« Ce type d’algorithme nous renseigne sur le comportement des clients », a indiqué Monica Defend, stratège en chef à l’Amundi Institute, le service Études et stratégies de la société. « Le client y trouve son compte, mais cela nous donne aussi une vue d’ensemble de l’évolution des attitudes au sein de ce groupe d’utilisateurs. »

Mme Defend a précisé que pour d’autres utilisations, telles que la prise de décisions institutionnelles en matière d’investissement, l’IA peut être limitée par des données qui s’avèrent peu fiables ou par des situations sans précédent à forte incidence. Il convient également de veiller en priorité à éviter tout abus et à utiliser l’IA dans un cadre sûr, éthique et conforme.

« L’IA ne peut pas remplacer l’intelligence humaine », a poursuivi Mme Defend. « Un processus entièrement piloté par l’IA pourrait être dangereux. Il est tout aussi important d’interpréter, de comprendre et de vérifier les renseignements fournis par les algorithmes. »

JPMorgan, le plus grand prêteur américain, consacre plus de 15 milliards de dollars par an à la technologie, un domaine auquel est affecté près du cinquième de ses quelque 300 000 salariés. Un groupe de recherche sur l’IA emploie 200 personnes, et l’IA a été intégrée à des centaines d’utilisations, du démarchage et du marketing à la gestion des risques et à la prévention des fraudes. L’IA est également utilisée à l’échelle mondiale dans les systèmes de traitement des paiements et de transfert de fonds.

« L’IA est absolument essentielle », a déclaré le directeur général Jamie Dimon à l’assemblée des actionnaires en avril.

Le monde monétaire

L’enjeu est beaucoup plus important pour les décideurs qui veillent sur l’économie. Les banques centrales, qui sont par nature plus lentes et plus prudentes, apprennent à utiliser l’IA dans un tout autre contexte et à évaluer les risques qu’elle peut représenter.

L’utilité de l’IA a été démontrée pour diverses fonctions des banques centrales, telles que le contrôle. La banque centrale du Brésil a construit un prototype de robot pour télécharger les plaintes des consommateurs concernant les institutions financières et les classer grâce à l’apprentissage automatique. Cette année, la Reserve Bank of India a fait appel aux sociétés de conseil McKinsey et Accenture pour l’intégration de l’IA et des analyses connexes dans ses activités de contrôle.

Le Comité de Bâle sur le contrôle bancaire a constaté que l’IA pouvait accroître l’efficacité des décisions de crédit et de la lutte contre le blanchiment de capitaux. Ce comité composé de dirigeants de banque centrale et de contrôleurs bancaires est l’un des principaux organismes au monde chargés d’établir des normes à des fins de réglementation. Le Comité a également mentionné plusieurs risques, tels que la compréhension des résultats à partir de modèles opaques, le risque de biais et les cyberrisques accrus.

« Les processus de contrôle permettant de déterminer ce qui est sécuritaire ainsi que la capacité de distinguer les innovations responsables de celles qui ne le sont pas s’amélioreront sans aucun doute, mais il reste du chemin à parcourir », a déclaré l’année dernière Neil Esho, secrétaire général du Comité.

La Banque des règlements internationaux (BRI), le regroupement de banques centrales qui a son siège à Bâle (Suisse) et où se trouvent les bureaux du secrétariat du Comité, a mis à l’essai diverses utilisations potentielles. Le projet Aurora du Pôle d’innovation de la BRI, par exemple, a démontré que les réseaux neuronaux, un type d’apprentissage automatique, peuvent faciliter la détection des opérations de blanchiment de capitaux en relevant les schémas et les anomalies qui échappent aux méthodes classiques.

Des signaux au milieu du brouhaha

La Banque du Canada a élaboré un outil d’apprentissage automatique pour détecter les anomalies dans les rapports prescrits par la loi. Selon Maryam Haghighi, directrice du département Science des données, les exécutions automatiques quotidiennes de ce programme détectent ce qui échappe à l’humain, ce qui permet au personnel de se concentrer sur l’analyse complémentaire.

« Voilà un exemple où l’IA peut être d’une aide vraiment précieuse pour les banques centrales », a ajouté Mme Haghighi. « L’outil d’IA peut apprendre à exécuter cette tâche plutôt fastidieuse et à surpasser l’humain en qualité et en rapidité. »

La Banque centrale européenne (BCE) utilise l’IA entre autres pour le classement automatisé des données de 10 millions d’entités privées et publiques, et le suivi en temps réel des prix des produits affichés sur le Web. Cette technologie aide également les contrôleurs bancaires à extraire et à analyser des articles de presse, des rapports de contrôle et des rapports de société.

L’univers des données étant en croissance exponentielle, il est essentiel de l’apurer pour rendre l’information intelligible, surtout dans le cas des données non structurées, estime Myriam Moufakkir, directrice des services à la BCE. L’IA peut aider l’humain à établir des distinctions importantes. La BCE examine également la possibilité d’utiliser de grands modèles de langage pour rédiger des codes, tester des logiciels et même faciliter la compréhension des communications publiques.

La stabilité financière

Selon Jon Danielsson, chercheur à la London School of Economics qui étudie l’incidence de l’IA sur le système financier, les fonctionnalités de cette technologie vont des plus élémentaires aux plus avancées. Pour illustrer les fonctionnalités élémentaires, prenons les échecs. À ce jeu, qui consiste à déplacer des pièces sur un échiquier en suivant des règles connues de tous, l’humain n’est pas de taille à rivaliser avec l’IA. En revanche, la supériorité de l’IA diminue à mesure que la tâche se complexifie. Dans une situation inattendue, l’humain peut prendre des décisions plus éclairées en tirant parti de ses connaissances dans divers domaines allant de l’économie et de l’histoire à l’éthique et à la philosophie. C’est sur ce terrain que l’humain surpasse l’IA — pour l’instant.

L’IA prend déjà des décisions financières importantes, comme le traitement des demandes de cartes de crédit, et a fait d’importantes percées dans les secteurs public et privé. M. Danielsson a ajouté que l’IA peut protéger les clients, par exemple en empêchant les banques d’abuser de leur confiance ou de fermer les yeux sur la fraude ou le blanchiment de capitaux. Il a cependant souligné le risque posé par cette utilisation accrue.

« La technologie nous envahit lorsque nous commençons à lui faire confiance et à l’utiliser de plus en plus », croit M. Danielsson.

Gary Gensler, président de la Commission des valeurs mobilières des États-Unis, veille sur un marché boursier de 46 000 milliards de dollars qui représente les deux cinquièmes du marché mondial. À son avis, l’IA pourrait provoquer une crise financière. Les risques qu’elle fait peser sur la stabilité financière exigent « une nouvelle réflexion sur les interventions systémiques ou macroprudentielles », a-t-il déclaré à la presse en juillet. « L’IA peut accroître la fragilité financière, car elle pourrait favoriser un comportement moutonnier, les acteurs prenant des décisions similaires parce qu’ils reçoivent le même signal d’un modèle de base ou d’un agrégateur. »

Cette mise en garde repose sur les travaux que M. Gensler a réalisés en tant que professeur d’économie mondiale et de gestion au Massachusetts Institute of Technology, où, en collaboration avec Lily Bailey, il a publié une communication sur l’apprentissage profond en 2020. Selon les coauteurs, cette branche de l’IA offre « des pouvoirs de prédiction inédits qui ouvrent des perspectives considérables en matière d’efficacité, d’inclusion financière et d’atténuation des risques ». Ils ont cependant souligné que les réglementations désuètes « ne seront sans doute pas adaptées aux risques systémiques posés par l’utilisation généralisée de l’apprentissage profond dans le secteur financier ».

Les « polycrises »

L’IA risque également d’exacerber une crise, quelle qu’en soit la cause, parce qu’elle s’appuie sur des données en décalage face à la réalité d’une situation inédite, selon Anselm Küsters, chef du département de la numérisation et des nouvelles technologies au Centre pour la politique européenne de Berlin. M. Küsters a utilisé le terme « polycrise », popularisé par l’historien de l’économie Adam Tooze, qui fait référence à l’interaction de différents chocs dont l’effet combiné est pire que la somme de leurs parties.

Le recours accru à des applications opaques de l’IA « crée de nouveaux risques systémiques », car elles peuvent rapidement amplifier les chaînes de réaction négatives, a écrit M. Küsters, qui a exhorté le Parlement européen à « se concentrer sur le surcroît de risque lié aux prévisions algorithmiques en cas de crise ».

Les dirigeants des banques centrales et les autres décideurs seront confrontés à ces questions posées par l’évolution rapide de la technologie dans les années à venir, à mesure que les bienfaits et les menaces se préciseront.

« Nous ne pouvons pas encore déterminer ce qui est pertinent pour les banques centrales », a indiqué Mme Moufakkir. « L’histoire ne fait que commencer. » F&D

JEFF KEARNS fait partie de l’équipe de rédaction de Finances & Développement.

 

Les opinions exprimées dans la revue n’engagent que leurs auteurs et ne reflètent pas nécessairement la politique du FMI.