L’intelligence artificielle remodèle la manière dont les professionnels de l’investissement génèrent des idées et analysent les opportunités d’investissement. Non seulement l’IA est désormais capable de réussir les trois niveaux de l’examen CFA, mais elle peut également effectuer des tâches d’analyse d’investissement longues et complexes de manière autonome. Pourtant, une lecture attentive des dernières recherches universitaires révèle une image plus nuancée pour les investisseurs professionnels. Même si les progrès récents sont frappants, une lecture plus approfondie des recherches actuelles, renforcée par le récent témoignage de Yann LeCun devant le Parlement britannique, révèle un changement plus structurel.
Dans les articles universitaires, les études d’entreprises et les rapports réglementaires, trois thèmes structurels reviennent. Ensemble, ils suggèrent que l’IA ne se contentera pas d’améliorer les compétences des investisseurs. Au lieu de cela, cela réévaluera le prix de l’expertise, augmentera l’importance de la conception des processus et déplacera les avantages concurrentiels vers ceux qui comprennent les contraintes techniques, institutionnelles et cognitives de l’IA.
Cet article est le quatrième volet d’une série trimestrielle sur les développements de l’IA pertinents pour les professionnels de la gestion d’investissement. S’appuyant sur les idées des contributeurs du bulletin d’information bimensuel Augmented Intelligence in Investment Management, il s’appuie sur des articles précédents pour adopter une vision plus nuancée du rôle évolutif de l’IA dans le secteur.
La capacité dépasse la fiabilité
Le premier constat est l’écart grandissant entre capacité et fiabilité. Des études récentes montrent que les modèles de raisonnement frontalier peuvent réussir les examens blancs de niveau I à III du CFA avec des scores exceptionnellement élevés, sapant ainsi l’idée selon laquelle les connaissances nécessitant beaucoup de mémorisation confèrent un avantage durable (Columbia University et al., 2025). De même, les grands modèles de langage fonctionnent de plus en plus bien dans les tests de raisonnement, de mathématiques et de résolution structurée de problèmes, comme en témoignent les nouveaux cadres de notation cognitive pour l’AGI (Center for AI Safety et al., 2025).
Cependant, un certain nombre de recherches préviennent que le succès des benchmarks masque la fragilité des scénarios du monde réel. OpenAI et Georgia Tech (2025) montrent que les hallucinations reflètent un compromis structurel : les efforts visant à réduire les réponses fausses ou fabriquées limitent intrinsèquement la capacité d’un modèle à répondre à des questions rares, ambiguës ou sous-spécifiées. Des travaux connexes sur l’extraction causale à partir de grands modèles linguistiques indiquent en outre qu’une bonne performance en raisonnement symbolique ou linguistique ne se traduit pas par une compréhension causale robuste des systèmes du monde réel (Adobe Research & UMass Amherst, 2025).
Pour le secteur de l’investissement, cette distinction est essentielle. L’analyse des investissements, la construction de portefeuilles et la gestion des risques ne fonctionnent pas avec des vérités fondamentales stables. Les résultats dépendent du régime, sont probabilistes et très sensibles aux risques extrêmes. Dans de tels environnements, des résultats qui semblent cohérents et faisant autorité, mais qui sont incorrects, peuvent avoir des conséquences disproportionnées.
L’implication pour les professionnels de l’investissement est que le risque de l’IA ressemble de plus en plus au risque de modèle. Tout comme les back-tests surestiment régulièrement les performances réelles, les benchmarks de l’IA ont tendance à surestimer la fiabilité des décisions. Les entreprises qui déploient l’IA sans cadres de validation, de mise à la terre et de contrôle adéquats risquent d’intégrer des fragilités latentes directement dans leurs processus d’investissement.
De la compétence individuelle à la qualité des décisions institutionnelles
Le deuxième thème est que l’IA banalise les connaissances en matière d’investissement tout en augmentant la valeur du processus de décision d’investissement. Les preuves de l’utilisation de l’IA dans les environnements de production le montrent clairement. La première étude à grande échelle sur les agents d’IA en production révèle que les déploiements réussis sont simples, étroitement limités et supervisés en permanence. En d’autres termes, les agents d’IA d’aujourd’hui ne sont ni autonomes ni « intelligents » causalement (UC Berkeley, Stanford, IBM Research, 2025). Dans les flux de travail réglementés, les modèles plus petits sont souvent préférés car ils sont plus vérifiables, prévisibles et stables.
La recherche comportementale renforce cette conclusion. Kellogg School of Management (2025) montre que les professionnels sous-utilisent l’IA lorsque son utilisation est visible par les superviseurs, même lorsqu’elle améliore la précision. Gerlich (2025) constate que l’utilisation fréquente de l’IA peut réduire la pensée critique grâce au déchargement cognitif. Si elle n’est pas gérée, l’IA introduit donc un double risque de sous-utilisation et de dépendance excessive.
Pour les organismes d’investissement, la leçon est donc structurelle : les bénéfices de l’IA ne profitent pas aux individus, mais aux processus d’investissement. Les grandes entreprises intègrent déjà l’IA directement dans des modèles de recherche standardisés, des tableaux de bord de surveillance et des flux de travail liés aux risques. La gouvernance, la validation et la documentation comptent de plus en plus plus que la puissance de feu analytique brute, d’autant plus que les superviseurs adoptent eux-mêmes une surveillance basée sur l’IA (State of SupTech Report, 2025).
Dans cet environnement, la notion traditionnelle d’« analyste star » s’affaiblit également. La répétabilité, l’auditabilité et l’apprentissage institutionnel peuvent devenir la véritable source de succès en matière d’investissement durable. Un tel environnement nécessite un changement radical dans la manière dont les processus d’investissement sont conçus. Au lendemain de la crise financière mondiale (CFM), les processus d’investissement ont été largement standardisés, l’accent étant fortement mis sur la conformité.
L’environnement émergent exige cependant que les processus d’investissement soient optimisés pour la qualité des décisions. Ce changement est d’une portée considérable et difficile à réaliser, car il dépend de la gestion du changement de comportement individuel en tant que couche fondamentale de la capacité d’adaptation organisationnelle. C’est quelque chose que le secteur de l’investissement a souvent cherché à éviter par une standardisation et une automatisation impersonnelles – et tente maintenant à nouveau grâce à l’intégration de l’IA, qualifiant à tort un défi comportemental de défi technologique.
Pourquoi les contraintes de l’IA déterminent qui capte la valeur
Le troisième thème se concentre sur les limites de l’IA, plutôt que de la considérer uniquement comme une course technologique. Sur le plan physique, les limites des infrastructures deviennent contraignantes. Les recherches soulignent que seule une petite fraction de la capacité annoncée des centres de données américains est réellement en construction, les délais d’accès au réseau, de production d’électricité et de transmission étant mesurés en années et non en trimestres (JPMorgan, 2025).
Les modèles économiques renforcent l’importance de cette question. Restrepo (2025) montre que dans une économie axée sur l’intelligence artificielle générale (AGI), la production devient linéaire en termes de calcul et non de travail. Les bénéfices économiques reviennent donc aux propriétaires de puces, de centres de données et d’énergie. Le placement des infrastructures informatiques, les puces, les centres de données, l’énergie et les plates-formes qui gèrent l’allocation sont le facteur déterminant dans la capture de valeur, la main-d’œuvre étant retirée de l’équation de la croissance.
Les contraintes institutionnelles exigent également une plus grande attention. Les régulateurs étendent considérablement leurs capacités en matière d’IA, augmentant les attentes en matière d’explicabilité, de traçabilité et de contrôle dans l’utilisation de l’IA par le secteur de l’investissement (State of SupTech Report, 2025).
Enfin, les contraintes cognitives sont importantes. À mesure que les recherches générées par l’IA se multiplient, le consensus se forme plus rapidement. Chu et Evans (2021) préviennent que les systèmes algorithmiques ont tendance à renforcer les paradigmes dominants, augmentant ainsi le risque de stagnation intellectuelle. Lorsque tout le monde optimise sur des données et des modèles similaires, la différenciation disparaît.
Pour les investisseurs professionnels, l’adoption généralisée de l’IA accroît la valeur du jugement indépendant et de la diversité des processus en les rendant de plus en plus rares.
Implications pour le secteur de l’investissement
Le rôle croissant de l’IA dans l’automatisation des flux de travail d’investissement clarifie ce qu’elle ne peut pas supprimer : l’incertitude, le jugement et la responsabilité. Les entreprises qui conçoivent leur organisation en fonction de cette réalité ont plus de chances de réussir au cours de la décennie à venir.
Prises ensemble, les éléments de preuve suggèrent que l’IA agira comme un différenciateur plutôt que comme un progrès universel, élargissant l’écart entre les entreprises qui conçoivent en fonction de la fiabilité, de la gouvernance et de la contrainte, et celles qui ne le font pas.
À un niveau plus profond, la recherche souligne un changement philosophique. La plus grande valeur de l’IA réside peut-être moins dans la prédiction que dans la réflexion : remettre en question les hypothèses, faire ressortir les désaccords et imposer de meilleures questions plutôt que de simplement fournir des réponses plus rapides.
Références
Almog, D. AI Recommendations and Non-instrumental Image Concerns, document de travail préliminaire, Kellogg School of Management Northwestern University, avril 2025
de Cast, S. et al. Rapport sur l’état des SupTech 2025, décembre 2025
Chu, J et J. Evans, Progrès canonique ralenti dans de grands domaines scientifiques, PNAS, octobre 2021
Gerlich, M., Outils d’IA dans la société : impacts sur le déchargement cognitif et l’avenir de la pensée critique, Center for Strategic Corporate Foresight and Sustainability, 2025
Hendryckx et coll. D, Une définition de l’AGI, https://arxiv.org/pdf/2510.18212, octobre 2025
Kalai, A et al., Pourquoi les modèles linguistiques hallucinent, OpenAI, 2025, arXiv :2509.04664, 2025
Mahadevan, S. Grands modèles causals issus de grands modèles linguistiques, Adobe Research, https://arxiv.org/abs/2512.07796, décembre 2025
Patel, J., Reasoning Models Ace the CFA Exams, Columbia University, décembre 2025
Restrepo, P., Nous ne manquerons pas : travail et croissance à l’ère de l’AGI, chapitres du NBER, juillet 2025
UC Berkeley, Intesa Sanpaolo, Stanford, IBM Research, Measurement Agents in Production, https://arxiv.org/pdf/2512.04123, décembre 2025
Source:
blogs.cfainstitute.org



