« On ne construit pas un modèle pour une année »
L’utilisation d’algorithmes d’intelligence artificielle est en train de se généraliser dans un grand nombre de secteurs économiques, et l’industrie des fonds n’échappe pas à cette évolution. Nous avons récemment eu l’occasion d’interviewer Michael Heldmann (Allianz Global Investors) afin qu’il puisse mettre en évidence les grandes avancées dans ce domaine. En tant que CIO de l’activité Systematic Equity, il supervise 45 milliards d’euros en encours.
Quel est l’objectif de l’activité Systematic Equity chez Allianz GI ?
Michael Heldmann : « L’équipe est née en 1996, ce qui fait de nous une des plus anciennes équipes spécialisées dans la gestion quantitative et factorielle. A l’origine, le but de cette équipe était de trouver une manière d’investir les actifs de notre activité d’assurance sur les marchés boursiers, pour parvenir à dégager une performance supérieure à celle de notre indice de référence tout en ayant un bon contrôle du risque. L’idée n’était à priori pas de développer une méthode quantitative car Allianz était plutôt une maison fondamentale. Nous avons d’ailleurs conservé cette approche un peu mixte, que nous pourrions qualifier de Quantumental, qui mélange l’approche fondamentale et quantitative ».
Les principaux clients de ces produits sont des institutionnels ?
M.H. : « Mais nous avons vu ces dernières années un intérêt croissant des investisseurs particuliers dans nos fonds collectifs, qui représentent aujourd’hui environ un quart des encours gérés par l’équipe, soit environ 10 milliards d’euros ».
Quelles ont été les premières avancées dans ce domaine ?
M.H. : « Nous avons rapidement déterminé qu’il était surtout intéressant de s’intéresser aux cinq grands facteurs (value, croissance, qualité, momentum et révisions des attentes) qui expliquent 80% de la performance des portefeuilles boursiers après l’effet marché ; alors que ce qui se rapporte spécifiquement aux entreprises ne permet d’expliquer que 20% de leur évolution sur le long terme. Nous n’avons toutefois pas rejeté cette partie idiosyncratique, et nous avons dès le début intégré la recherche fondamentale des équipes d’Allianz GI comme un facteur supplémentaire dans le modèle que nous utilisons ».
Les différents facteurs sont-ils restés stables dans votre modèle ?
M.H. : « En dépit de périodes rares mais parfois désagréables de sous-performance pour certains de ces facteurs, nous sommes toujours restés fidèles dans leur utilisation conjointe. Quand la value a sous-performé pendant 10 ans face au facteur croissance en raison des politiques menées par les banques centrales, nous sommes toujours restés confiants dans le fait que ce facteur retrouverait sa place dans la génération d’une prime de risque positive sur le long terme, chose qui s’est bien entendu produite à partir de 2022. L’art de l’investissement factoriel est de construire un modèle qui va ressortir les entreprises qui sont les plus à même de bénéficier de chacun de ces cinq facteurs et de les combiner de manière optimale (les ‘Best Styles’), afin de battre le marché sur le long terme. Fondamentalement, nous ne construisons pas un modèle pour qu’il fonctionne un an ».
Comment ce modèle a-t-il évolué ?
M.H. : « Nous avons toujours tenté de renforcer ce modèle en améliorant la gestion des risques, en ajoutant de nouvelles sources de données, ou plus récemment en ayant recours à l’intelligence artificielle pour trouver les meilleures sociétés disponibles sur ces différents facteurs. Ces algorithmes constituent une extension naturelle des méthodes d’analyse statistique que nous utilisions et peaufinons depuis 1996 ».
Est-ce que l’utilisation de l’IA a toujours été une évidence pour nous ?
M.H. : « A la base, j’ai une formation scientifique et j’ai notamment travaillé au CERN en Suisse. Dans le domaine de la physique des particules, nous étions habitués à utiliser des petabytes (1000 terabytes) de données par jour en vue de les analyser. Quand j’ai rejoint Alilanz en 2007, j’ai emmené avec moi ces méthodologies pour les appliquer au domaine financier. L’utilisation des solutions d’IA a toujours été une logique de continuité par rapport à ce que nous avions développé, et nous les avons intégrées dans nos processus à partir de 2007 et on a accéléré il y a six ans ».
Quelles sont les grandes différences entre le monde scientifique et le monde financier ?
M.H. : « Par rapport aux terabytes de données que nous utilisions dans le monde scientifique, le secteur financier en produit nettement moins pertinents, ce qui pose des problèmes pour entraîner les algorithmes. En outre, les données des marchés financiers sont également fortement impactées par des éléments ponctuels (par exemple la hausse des cours du pétrole suite à l’invasion de l’Ukraine) qui ne se répètent pas d’une année à l’autre. Dès lors, la solution que pourrait trouver une IA pour investir lors d’une année ne sera plus valide l’année suivante. L’analyse quantitative n’est pas une science, mais un art qui cherche à faire la différence entre la structure stable et la structure transitoire sur les marchés financiers ».
Comment utilisez-vous les solutions d’IA dans votre modèle ?
M.H. : « En respectant toujours nos cinq facteurs, nous utilisons en plus des autres techniques des solutions de traitement automatique des langues (Natural Language Processing) pour trouver les entreprises qui représentent le mieux chacun de ces cinq facteurs, en allant chercher des éléments non structurés qui ne figurent pas dans les chiffres financiers, mais dans toutes les données textuelles produites par les entreprises (conférence avec les analystes, rapport d’assemblée générale, etc) qui peuvent être intégrés dans notre processus d’investissement ».
Quels sont les développements à attendre dans le futur dans ce domaine ?
M.H. : « Nous avons toujours eu l’ambition de rester à l’avant-garde de la recherche dans le domaine quantitatif, et d’intégrer de nouvelles sources de données et de nouveaux algorithmes. Les grands modèles de langage (GPT) ont fait leur apparition il y a plus d’un an, et nous sommes très actifs pour les intégrer dans notre gestion. Il y a encore un grand volume de données textuelles non structurées qui ne sont pas encore utilisées de manière optimale et ces grands modèles permettent aujourd’hui d’extraire beaucoup plus d’information que par le passé. Il a toujours la question de la manière dont l’information que nous trouvons n’est pas déjà contenue dans les données structurées que nous utilisons déjà, mais il reste encore beaucoup de pierres à retourner, et je suis certain qu’il sera possible de trouver des choses très intéressantes sous certaines d’entre elles durant les prochaines années ».