Robert Armstrong : Pourquoi pas ?
Contenu de l’article
Par Robert Armstrong
Tous ceux qui travaillent dans l’industrie de l’information – une catégorie qui comprend les journalistes, les codeurs de logiciels et les sélectionneurs de titres – devraient se demander si, ou peut-être quand, un ordinateur va prendre leur travail.
Un grand modèle de langage (LLM), formé sur la rédaction réalisée pour le Financial Times, pourrait rédiger des newsletters qui ressemblent beaucoup à la mienne. Peut-être que les lettres ne seraient pas tout à fait convaincantes aujourd’hui, mais elles ne tarderont probablement pas à le devenir. Peut-être que les gens ne veulent pas lire les bulletins d’information rédigés par les LLM, auquel cas mon voyage au chantier d’équarrissage n’est pas tout à fait réservé. Mais la menace est claire.
Publicité 2
Contenu de l’article
Les lecteurs sont peut-être moins intéressés par l’avenir du journalisme que par celui des analystes et des gestionnaires de portefeuille. Ce qui m’amène à un article récent rédigé par trois chercheurs de la Booth School of Business de l’Université de Chicago, Alex Kim, Maximilian Muhn et Valeri Nikolaev (je les appellerai KMN).
Le document, Financial Statement Analysis with Large Language Models, met ChatGPT au travail sur les états financiers. Avec quelques incitations assez légères, le LLM a transformé ces déclarations en prévisions de bénéfices plus précises que celles des analystes, et ces prédictions ont constitué la base de portefeuilles modèles qui, lors de tests a posteriori, ont généré des rendements excédentaires importants.
« Nous fournissons des preuves cohérentes avec de grands modèles de langage ayant des capacités humaines dans le domaine financier », concluent les auteurs. « Nos résultats indiquent le potentiel des LLM à démocratiser le traitement de l’information financière. »
KMN a alimenté ChatGPT avec des milliers et des milliers de bilans et de comptes de résultat, dépourvus de dates et de noms d’entreprises, provenant d’une base de données s’étendant de 1968 à 2021 et couvrant plus de 15 000 entreprises.
Contenu de l’article
Publicité 3
Contenu de l’article
Chaque bilan et compte de résultat qui l’accompagne contenaient les données standard de deux années, mais constituaient une entrée individuelle ; le modèle n’a pas été « raconté » sur l’histoire à long terme de l’entreprise. KMN a alors amené le modèle à réaliser des analyses financières assez classiques (« Qu’est-ce qui a changé dans les comptes par rapport à l’année dernière ? », « Calculer le ratio de liquidité », « Quelle est la marge brute ? »).
Ensuite – et cela s’est avéré crucial – KMN a incité le modèle à rédiger des récits économiques expliquant les résultats de l’analyse financière. Enfin, ils ont demandé au modèle de prédire si les bénéfices de chaque entreprise au cours de l’année suivante augmenteraient ou diminueraient ; si le changement serait petit, moyen ou important ; et combien il était sûr de cette prédiction.
Prédire l’orientation des bénéfices, même de manière binaire, s’avère particulièrement difficile, ni pour les humains ni pour les machines. Pour simplifier considérablement : les prédictions humaines (tirées de la même base de données historique) étaient exactes environ 57 % du temps, lorsqu’elles étaient mesurées au milieu de l’année précédente. C’est mieux que ce que ChatGPT faisait avant qu’il ne soit invité. Cependant, après y avoir été invité, la précision du modèle est passée à 60 pour cent.
Publicité 4
Contenu de l’article
« Cela implique que GPT domine confortablement les performances d’un analyste financier médian » dans la prévision de l’orientation des bénéfices, a déclaré KMN.
Enfin, KMN a construit des portefeuilles modèles longs et courts basés sur les sociétés pour lesquelles le modèle prévoyait des changements significatifs dans les bénéfices avec le plus haut niveau de confiance. Lors de tests rétrospectifs, ces portefeuilles ont surperformé le marché boursier dans son ensemble de 37 points de base par mois sur une base pondérée en fonction de la capitalisation et de 84 points de base par mois sur une base équipondérée (ce qui suggère que le modèle ajoute plus de valeur avec ses prévisions de bénéfices pour les petites actions). . C’est beaucoup d’alpha.
J’ai parlé à Alex Kim et il n’a pas tardé à souligner le caractère préliminaire des résultats. Il s’agit d’une preuve de concept, plutôt que d’une preuve que KMN a inventé un meilleur piège à souris pour la sélection de titres. Kim tenait également à souligner les conclusions de KMN selon lesquelles demander au modèle de rédiger un récit pour expliquer les implications des états financiers semblait être la clé pour obtenir une plus grande précision des prévisions. C’est l’aspect « humain ».
Recommandé par l’éditorial
-
Nvidia dépasse les 3 000 milliards de dollars en valeur marchande alors que le rallye de l’IA se poursuit
-
Les investisseurs élargissent leur filet pour les gagnants de l’IA après la livraison de Nvidia
Publicité 5
Contenu de l’article
L’étude soulève de nombreuses questions, surtout pour une personne comme moi qui n’a pas consacré beaucoup de temps à réfléchir à l’intelligence artificielle. Dans aucun ordre particulier:
- Le résultat du KMN ne me paraît globalement pas surprenant. Au fil des années, de nombreuses preuves ont montré que les modèles informatiques antérieurs ou même de simples régressions linéaires anciennes pouvaient surpasser l’analyste moyen. L’explication la plus évidente est que les modèles ou les régressions trouvent ou suivent simplement des règles. Ils ne sont donc pas la proie des préjugés qui ne sont encouragés ou confirmés que par les informations plus riches auxquelles les êtres humains ont accès (rapports d’entreprise, bavardages des dirigeants, etc.).
- Ce qui est peut-être un peu plus surprenant, c’est qu’un LLM prêt à l’emploi a été capable de surpasser les humains de manière assez significative avec des invites assez basiques (le modèle a également surpassé la régression statistique de base et a exécuté aussi bien que des programmes spécialisés de « réseau neuronal » formés). spécifiquement pour prévoir les bénéfices).
- Toutes les qualifications habituelles qui s’appliquent à toute étude en sciences sociales s’appliquent ici évidemment. De nombreuses études sont réalisées ; peu sont publiés. Parfois, les résultats ne tiennent pas.
- Certains des meilleurs sélectionneurs de titres évitent spécifiquement l’obsession de Wall Street quant à l’évolution des bénéfices à court terme. Au lieu de cela, ils se concentrent sur les avantages structurels des entreprises et sur la façon dont le monde évolue qui avantagera certaines entreprises par rapport à d’autres. ChatGPT peut-il effectuer des « gros appels » comme celui-ci aussi efficacement qu’il peut faire des prévisions de bénéfices à court terme ?
- Quel est le métier d’analyste financier ? Si le LLM peut prédire les bénéfices mieux que ses concurrents humains la plupart du temps, quelle valeur l’analyste apporte-t-il ? Est-elle là pour expliquer les détails d’une entreprise au gestionnaire de portefeuille qui fait les « gros appels » ? Est-elle un canal d’information reliant l’entreprise et le marché ? Aura-t-elle encore de la valeur lorsque les appels humains d’achat et de vente appartiendront au passé ?
- Peut-être que la capacité de l’IA à surperformer l’analyste médian ou le sélectionneur de titres ne changera rien du tout. Comme me l’a fait remarquer Joshua Gans, de l’Université de Toronto, la faible valeur du sélectionneur de titres médian a été démontrée il y a des années par la technologie d’intelligence artificielle connue sous le nom de fonds indiciel Vanguard à frais réduits. Ce qui comptera sera la capacité des LLM à rivaliser avec, ou à soutenir, les personnes les plus intelligentes du marché, dont beaucoup utilisent déjà des quantités considérables de puissance informatique pour faire leur travail.
© 2024 Le Financial Times Ltd.
Contenu de l’article