L’intelligence artificielle à l’assaut de la Finance
L’année 2023 a été l’année de la diffusion massive à la fois dans les entreprises et au sein du grand public de l’Intelligence Artificielle Générative. La vitesse de diffusion de cette innovation a été la plus rapide jamais enregistrée dans l’histoire de l’informatique. Sortie le 30 novembre 2022, Chat GPT1, l’Intelligence Artificielle Générative d’OpenAi2, filiale de Microsoft, a atteint 100 millions d’utilisateurs actifs en 2 mois.
Uber avait atteint le même niveau d’utilisateurs en 70 mois, Instagram en 30 mois et TikTok qui détenait le record jusqu’à présent en 9 mois.
Le succès est donc au rendez-vous et de nombreuses études prédisent que l’adoption dans les secteurs de la banque, de l’assurance et de la finance va être extrêmement rapide. Ce sont d’ailleurs ces secteurs qui, d’après le « US Bureau of Labor Statistics3 », devraient être les plus impactés par l’IAG en raison d’un potentiel très élevé d’automatisation et d’optimisation par l’Intelligence Artificielle Générative.
La fulgurance de cette diffusion parmi le grand public et sa future adoption massive par les métiers de la Finance inquiète et fascine à la fois. L’Intelligence Artificielle Générative inquiète car elle est perçue comme étant capable de remplacer l’homme très rapidement et fascine aussi car il semble qu’elle soit capable d’effectuer un travail de meilleure qualité que l’homme, plus rapidement et à un coût dérisoire. Cette articulation qualité / efficacité / bas coût a quelque chose de magique qui donne à l’Intelligence Artificielle Générative une aura de solution miracle. L’homme qui avait réussi à automatiser et industrialiser les tâches manuelles grâce à l’automatisation et la robotisation des usines, est-il sur le point d’automatiser et d’industrialiser les tâches intellectuelles (traduction, synthèses, créativité, comparaison, écriture littéraire, conseil…) ?
Bien comprendre ce qu’est l’Intelligence Artificielle va nous permettre de désacraliser l’Intelligence Artificielle Générative et de bien saisir sa valeur ajoutée dans les métiers de la Finance.
Concernant l’Intelligence Artificielle, il faut remonter aux débuts de l’informatique dans les années 50 du 20ème siècle et se souvenir que dans l’Intelligence Artificielle il est avant tout question de traitement de données. En 1956 a lieu un colloque scientifique au Darmouth College dans le New-Hampshire qui discute sur le nom à donner à la nouvelle discipline scientifique qu’on appellera Intelligence Artificielle.
Deux camps s’affrontent : l’un souhaite nommer cette discipline la rationalité circulatoire, l’autre camp l’Intelligence Artificielle. Finalement même si c’est la dénomination Intelligence Artificielle qui va gagner, cette désignation étant plus « vendeuse » et permettant de lever plus facilement des financements publics et privés, la rationalité circulatoire explique mieux ce qu’est réellement l’Intelligence Artificielle et montre en quoi elle est très éloignée de l’intelligence humaine.
La rationalité circulatoire en effet, n’a pas d’intuition ni de créativité comme l’intelligence humaine, même si dans le Deep Learning4 et l’Intelligence Artificielle, la rationalité circulatoire simule l’intuition et la créativité humaine. Donc, bien comprendre ce qu’est l’Intelligence Artificielle c’est bien comprendre qu’il s’agit d’un algorithme informatique qui va traiter des données qu’on va lui fournir et en sortir des données qu’il va avoir transformées par des algorithmes5.
L’Intelligence Artificielle étant la science du traitement de la donnée par l‘algorithmique informatique et la statistique. Sa première application historique a été le Data Mining ou en français la fouille de données. Cette discipline s’est développée entre les années 50 et 80, avec une accélération massive des recherches dans les années 70, à partir du moment où les équipes de recherche ont pu disposer d’ordinateurs. La France avec les équipes de Jean-Paul Benzecri6 est d’ailleurs un des leaders de la recherche mondiale en Data Mining. Le Data Mining permet la fouille et l’interprétation de quantités de données à la fois quantitatives et qualitatives. En faisant émerger des relations appelées corrélations entre plusieurs variables qu’aucun œil humain ne pouvait percevoir par lui-même, il permet de détecter des signaux faibles prédicteurs de comportements ou de répétitions. Utilisé dès son émergence dans la santé et le marketing, le DM enseigné dans les départements de statistiques et d’informatique ne fait pas partie de la culture financière de l’époque. C’est à partir des années 2010 quand le Big Data7 se développe et que les logiciels de Data Mining deviennent moins chers et plus accessibles que le Data Mining commence à être utilisé, au début dans les assurances pour lutter contre la fraude. En effet, le Data Mining rend possible le dialogue des bases de données des assureurs entre elles, les couplant à des bases externes qui permet de détecter les fraudes et de mieux gérer les risques.
La deuxième application de l’Intelligence Artificielle, c’est le Machine Learning ou en français l’apprentissage automatique. Il s’agit ici non pas de fouiller dans une masse de données pour les interpréter au mieux, mais d’entrainer un algorithme avec une masse de données pour lui permettre d’être suffisamment autonome pour à terme pouvoir réaliser par lui-même une tâche qui peut être une classification, une décision, un conseil. Par exemple un algorithme de recommandation d’achat de livre sur Amazon, est un algorithme qui utilise du Machine Learning pour traiter l’ensemble des transactions ayant déjà été effectuées sur Amazon en calculant les corrélations entre tel type de livre acheté et tel autre pour effectuer des recommandations d’achat. Le Machine Learning est utilisé dans le monde de la Finance en particulier dans la gestion d’actifs. En effet, on peut entrainer des algorithmes à simuler les stratégies d’investissement les plus performantes et obtenir de bons résultats dans la génération de stratégies nouvelles.
La troisième application de l’Intelligence Artificielle c’est le Deep Learning en français l’apprentissage profond. Le Deep Learning va utiliser comme structure d’apprentissage non pas un algorithme4 informatique transparent à circulation rigide (si A alors B), mais un type d’algorithme qui va simuler le cerveau humain en fournissant différentes couches de neurones ayant chacune sa fonction propre.
Dans l’information traitée, il y aura ce qui active le neurone facilement (mémoire instantanée) et il y a l’efficacité / la facilité à laquelle l’influx lui est parvenu (mémoire de long terme). C’est la mémoire de long terme qui donne du jeu à l’algorithme qui le fait hésiter, échouer (tant qu’il n’est pas bien entrainé) et aussi réussir ce qui semble des miracles.
On comprend qu’un réseau de neurones à deux couches va impliquer une combinatoire limitée de circulation de l’information. En revanche, très rapidement, plus on multiplie les couches neuronales plus la combinatoire se multiplie et passe de quelques dizaines de combinaisons, à des millions, voire des milliards possibles. Mais c’est cette capacité à générer des millions voire des milliards de combinaisons qui lui permet de simuler l’intelligence humaine.
Prenons deux exemples de réseaux neuronaux :
Un réseau neuronal simple avec 4 variables qui permet de prédire si un électeur vote à droite ou à gauche en fonction de son âge, de son revenu, de son niveau d’éducation (haut et bas) et de son sexe. Ces 4 variables impliquent un faible nombre de couches et relativement peu de combinatoires. Même si le nombre de données dont on dispose peut-être important, assez rapidement l’algorithme4 va être autonome et va pouvoir prédire le vote d’un électeur.
Prenons maintenant l’exemple d’un réseau neuronal qui a la capacité de trier les photos de chiens en fonction de leur race, si on a comme réponse de sortie les 450 races de chiens existant dans le monde, on imagine très vite à la fois la quantité de couches de neurones qu’il va falloir paramétrer et la quantité d’image avec laquelle il va falloir entrainer l’algorithme4 pour qu’il puisse être fiable. Globalement dans le monde la Finance, le Deep Learning était jusqu’à l’apparition de l’Intelligence Artificielle Générative très peu utilisé. Certaines fintechs8 et fonds d’investissement l’utilisaient pour investir en fonction de la réputation de l’entreprise sur les réseaux sociaux, le Deep Learning permettant de déterminer les émotions associées aux entreprises (succès, hostilité, indignations…).
Maintenant que nous avons compris ce qu’est le Data Mining, le Machine Learning et le Deep Learning, nous pouvons comprendre ce qu’est l’Intelligence Artificielle Générative. L’Intelligence Artificielle Générative est une nouvelle application de l’Intelligence Artificielle qui combine ces trois types d’Intelligence Artificielle que sont le Data Mining, le Machine Learning et le Deep Learning, elle est un type d’Intelligence Artificielle capable de créer de nouveaux contenus et idées, notamment des conversations, des histoires, des images, des vidéos et de la musique. L’Intelligence Artificielle Générative génère de nouveaux contenus car elle a accès aux données auxquelles on lui donne accès : pour chat GPT à l’ensemble d’Internet accessible gratuitement.
La complexification des modèles permet à l’Intelligence Artificielle Générative non seulement de faire des réponses simples mais aussi des réponses élaborées : rédaction de textes, de synthèses, de musiques, génération d’images…. Ce qu’il ne faut jamais oublier avec l’Intelligence Artificielle Générative, c’est que c’est l’accès à une quantité massive de données traitées très rapidement qui permet de simuler la créativité humaine et l’intuition de la pensée.
Mais mieux comprendre l’Intelligence Artificielle Générative c’est en voir non seulement son utilité dans la hausse de la productivité considérable qu’elle permet : traduction automatique, synthèse automatique de documents qui permet l’économie, de dizaines, voire de centaines d’heures de lectures, aide à la rédaction de textes… , mais aussi ses limites.
La limite principale de l’Intelligence Artificielle Générative dans les métiers financiers sera le refus, pour des raisons de confidentialité, de rendre compatible entre eux les systèmes d’information des banques et des assurances avec Internet ou avec des systèmes d’informations ouverts.
Les risques cybers de fuite de données sont trop grands pour que ces industries considérées comme le coffre-fort des données de leurs clients utilisent à plein l’Intelligence Artificielle Générative.
Bien sûr l’Intelligence Artificielle Générative est déjà utilisée pour le requêtage d’informations par les équipes en entreprise dans la réassurance ou pour le reporting réglementaire automatique concernant les prospectus de fonds dans la gestion d’actifs.
Pour l’instant l’Intelligence Artificielle Générative est utilisée avec l’extérieur (données externes entrantes, sans sorties des données internes) seulement pour aider les commerciaux dans l’assurance ou dans le courtage de produits pour mieux adapter leurs discours à l’environnement de leur interlocuteur et aux questions du client en temps réel.
Enfin, et c’est là où l’on voit la limite du caractère informatique et automatique de l’Intelligence Artificielle Générative, l’Intelligence Artificielle Générative est susceptible de générer de nombreuses hallucinations, c’est-à-dire de générer du contenu manifestement faux mais que les algorithmes4 utilisés trouvent suffisamment convaincants. C’est souvent l’intelligence humaine qui permet de détecter ces hallucinations.
L’Intelligence Artificielle Générative est un superbe outil de productivité et d’efficacité, elle va pouvoir permettre de libérer les équipes des tâches les plus ingrates et rendre le conseil dans les métiers financiers plus précis et plus utiles.
Maximilien Nayaradou
Directeur Général, Finance Innovation
1 Chat GPT (Generative Pre-trained Transformer) : est une mécanique conversationnelle utilisant l’intelligence artificielle, développé par OpenAI et spécialisé dans le dialogue et le traitement du langage naturel.
2 Open AI est une entreprise spécialisée dans le raisonnement artificiel.
3 US Bureau of Labor Statistics est lié au Département du Travail des États-Unis. Créé en 1884 et basé à Washington, il est le principal établissement du gouvernement américain dans le domaine de l’économie du travail et des statistiques.
4 Deep Learning est un sous-domaine de l’intelligence artificielle qui utilise des réseaux neuronaux pour résoudre des tâches complexes grâce à des architectures articulées de différentes transformations non linéaires.
5 Algorithme est une suite finie et non ambiguë d’instructions et d’opérations permettant de résoudre une classe de problèmes.
6 Jean-Paul Benzecri est un mathématicien et statisticien français, professeur à l’Institut de statistique de l’université de Paris et à l’université de Rennes dans les années 1960
7 Big Data désigne de vastes ensembles de données collectées par les entreprises, pouvant être explorées et analysées afin d’en dégager de précieuses informations
8 Fintech désigne l’ensemble des nouvelles technologies financières utilisées pour améliorer les services financiers.