La gestion quantitative allie modernité et performance

Par : edicom

Par Stéphane Lévy, stratégiste et responsable de l’innovation chez Chahine Capital

Les gestions quantitatives connaissent depuis quelques années un développement important en raison de leur modernité et de leur capacité à générer une performance régulière. Découvrons les raisons pour lesquelles ce développement devrait s’accélérer…

L’histoire de la finance quantitative a été un long parcours au cours duquel les mathématiciens, les physiciens, les statisticiens, les économistes et ceux que l’on appelle les Quants ont poursuivi un objectif commun : gérer la volatilité ou, plus largement, le risque des marchés financiers, tout en se dotant de modèles prédictifs destinés à mesurer l’attractivité relative de chaque actif.

Cette façon scientifique d’aborder la finance peut paraître naturelle, mais reste encore aujourd’hui assez confidentielle et réservée à quelques acteurs spécialisés et hautement qualifiés.

Une longue histoire de R&D

Le XXe siècle a vu la naissance et le développement de la finance moderne qui s’appuie sur une modélisation quantitative. Le commerce des options était déjà bien vivant au XVIIe siècle, lorsque les marchands ont cherché à se protéger du risque lié à leurs transactions sous une forme que nous considérerions aujourd’hui comme rudimentaire. Mais c’est en 1900 que le premier jalon de la finance quantitative a été posé, lorsque Louis de Bachelier a publié sa thèse de doctorat « La théorie de la spéculation ». Bachelier a introduit le concept de mouvement brownien dans la finance après qu’il a été formalisé en termes mathématiques par l’astronome, mathématicien et statisticien danois Thorvald N. Thiele quelques années auparavant. Il s’est également largement appuyé sur les travaux de Jules Augustin Frédéric Regnault, un courtier français qui, dès 1863, dans « Calcul des chances et philosophie de la Bourse », théorisa les mouvements aléatoires des actifs financiers. Le mouvement brownien, en tant que processus aléatoire continu et normalement distribué, pouvait être appliqué pour approximer la trajectoire volatile des prix des actifs.

Bien que pendant des décennies les travaux de Bachelier aient été largement négligés et n’aient été complètement réévalués que dans les années 1960, ses études ont eu une influence énorme. Le mouvement brownien a fourni l’outil essentiel pour l’étude des processus stochastiques, qui sont un ingrédient fondamental de la finance quantique.

En 1952, la thèse de doctorat de Harry Markowitz intitulée « Portfolio Selection » fait figure de révolution en théorisant la construction de portefeuille. Pour la première fois, mathématiques et pratiques concrètes de la finance se rejoignent. Markowitz a formalisé une notion de rendement moyen et de covariances pour les actions ordinaires, qui lui a permis de quantifier le concept de « diversification » dans un marché. Il a montré comment calculer le rendement moyen et la variance pour un

portefeuille donné et a fait valoir que les investisseurs ne devraient détenir que les portefeuilles dont la variance est minimale parmi tous les portefeuilles ayant un rendement moyen donné. Le fameux concept de portefeuille efficient.

Une autre percée décisive de la finance moderne a eu lieu en 1973, avec la publication de l’ouvrage de Fischer Black et Myron Scholes « The Pricing of Options and Corporate Liabilities » (Black, Scholes, 1973), et de l’ouvrage de Robert Merton « On the Pricing of Corporate Debt: the Risk Structure of Interest Rates » (Merton, 1974). Ces documents présentaient un modèle de valorisation des options d’achat et de vente. Ce modèle a rapidement été diffusé et adopté et a permis l’explosion du marché des options, tel que nous le connaissons aujourd’hui.

Les années 1990 marquent un véritable virage. L’appropriation de l’outil informatique a permis une accélération des approches quantitatives. En 1998, pendant la crise financière russe, la faillite retentissante de LTCM, un Hedge Fund quantitatif créé par John Meriwether, avec comme partenaire le prix Nobel Myron Scholes, a longtemps freiné le développement du quantitatif. Plus récemment, l’intégration d’algorithmes d’intelligence artificielle a permis d’améliorer la prise en compte d’événements exceptionnels et d’adresser des réponses spécifiques à chaque actif financier.

Des approches hétérogènes

Le propre de la démarche quantitative, c’est de mettre en équation une expérience concrète de marché, dans le but de déployer à grande échelle une démarche analytique rationnelle. C’est pourquoi l’univers de la gestion quantitative est aussi hétérogène que la gestion d’actifs dans son ensemble. On identifie, en effet, des acteurs avec des approches qui peuvent être bien différentes.

Top-down vs. Bottom-up

Certaines gestions ont développé un savoir-faire d’allocation d’actifs et de gestion flexible. C’est le cas des Hedge Funds CTA ou de certains fonds Global Macro quantitatifs. Ces derniers peuvent s’appuyer sur une modélisation axée sur l’analyse comportementale des tendances, d’autres peuvent privilégier l’exploitation de signaux plus fondamentaux et macroéconomiques.

Haute fréquence vs. basse fréquence

Il s’agit là d’une distinction majeure. Les algorithmes haute fréquence n’ont pas toujours bonne presse en raison de leur manque de transparence (le syndrome de la « black box »), et d’un positionnement pas toujours intelligible. A l’inverse, les approches à plus longue duration sont plus faciles à dominer et à interpréter, et peuvent être suivies et contrôlées comme n’importe quelle solution d’investissement traditionnelle.

Comportemental vs. fondamental

La gestion actions multifactorielle est un segment de la gestion quantitative qui connaît un fort essor. Smart Beta, Risk Premia, gestion stylistique sont autant de terminologies définissant une gestion basée sur la sélection de valeurs selon des critères comportementaux ou fondamentaux. Ainsi l’approche Momentum, dont l’efficacité est redoutable, consiste à ne sélectionner dans les portefeuilles que les meilleurs performeurs boursiers. Elle est donc purement comportementale.

A l’inverse, une gestion quantitative de type qualité/visibilité sélectionnera les titres selon des critères fondamentaux de solidité du bilan et de convergence des perspectives selon les différents analystes financiers qui composent le consensus. Enfin, certaines approches sont plus hybrides. Sélectionner les valeurs selon le momentum de révision des perspectives bénéficiaires du consensus des analystes revient à associer comportemental et fondamental.

Les principaux acteurs de la gestion quantitative

Hedge Funds

Il s’agit d’un ensemble hétérogène et essentiellement anglo-saxon. Historiquement, ce sont les Hedge Funds qui furent les premiers à proposer des solutions d’investissement quantitatives. Renaissance et son fonds Medallion, fondé en 1982 par Jamie Simons, un ancien casseur de code pendant la guerre froide, affiche une performance annualisée nette de frais de 39 % depuis trente ans. Impossible cependant de venir aujourd’hui grossir les plus de 100 milliards d’actifs sous gestion du fonds, car ce dernier est fermé aux souscriptions.

Trading pour compte propre

Les Quants ont historiquement beaucoup contribué à enrichir les banques via les activités pour comptes propres même si cela est moins vrai de nos jours.

Gestion collective

C’est dans ce segment que le développement est le plus visible. Certaines grandes maisons proposent des gammes 100 % Quant, à l’instar de BNP, et de sa gamme de fonds Theam, ou Robeco qui consacre près de la moitié de ses 170 milliards d’euros d’actifs sous gestion à des solutions quantitatives. D’autres acteurs spécialisés en Europe disposent également d’un savoir-faire reconnu. Chahine Capital, spécialiste depuis plus de vingt ans de la gestion actions Momentum ou Tobam, avec son concept innovant d’anti-benchmark sont deux exemples de réussite en Europe. La gestion passive proposée via des ETF par les réseaux bancaires peut également être mentionnée, même si sa valeur ajoutée est par définition nulle.

Les atouts de la gestion quantitative

Différenciation

Elle vient compléter les savoir-faire traditionnels des gérants par une approche hautement différenciante, et s’avère à ce titre comme une brique importante à prendre en compte lors de la construction de portefeuilles.

Si l’on considère l’exemple de la gestion active actions, on constate que la majorité des acteurs s’inscrivent dans une approche dite traditionnelle, hautement qualitative et discrétionnaire. Cette façon de faire, très chronophage et analytique, assure une connaissance approfondie des dossiers. En revanche, elle a comme principal défaut de ne pas permettre un alignement total entre l’objectif de la gestion et les moyens mis en œuvre. A titre d’illustration, un gérant actif sur les actions européennes doit battre l’indice à partir d’un univers d’investissement d’environ mille cinq cents titres. Il lui est donc matériellement impossible de dominer un univers aussi large. Et cela laisse une part trop importante à l’aléa, ce qui n’est jamais sain. Par ailleurs, l’approche traditionnelle révèle souvent des biais systématiques d’allocation, conséquence naturelle des goûts et aptitudes du gérant analyste, voire même de son origine géographique.

L’appropriation de la puissance de calcul

A l’inverse, une approche quantitative permet de revisiter les cas d’investissement à une fréquence qui est celle avec laquelle le portefeuille est rebalancé. En général mensuellement. Un gérant quantitatif d’actions européennes applique chaque mois son modèle à l’analyse de mille cinq cents valeurs, ce qui lui apporte un avantage compétitif majeur.

Gestion du risque

C’est dans l’ADN du quantitatif de maîtriser les risques. A ce titre, un grand soin est apporté par les gestions quantitatives à la construction de portefeuille.

Par essence, l’approche quantitative est de nature statistique. Elle vise une surperformance par l’exploitation systématique de critères rationnels sources de valeur. Elle s’inscrit donc dans une logique qui est celle de la loi des grands nombres et cela implique que les portefeuilles proposés soient composés d’un nombre important de titres, et ce en limitant le poids des principales positions. Là où les gestions traditionnelles, dites de convictions, peuvent proposer des portefeuilles actions très concentrés, avec une quarantaine de lignes et un poids par position pouvant atteindre la limite réglementaire de 10 %, la gestion actions Quant préférera un portefeuille de cent à cent-cinquante valeurs avec une logique proche de l’équipondération afin de réduire le risque idiosyncratique (i.e. la part de risque propre à une valeur et qui ne dépend pas du marché).

Par ailleurs, la nature systématique et automatisée de la gestion quantitative lui impose également une grande rigueur dans la construction de portefeuilles. Tout biais systématique d’allocation peut être facilement contrôlé, voire éliminé.

Une approche moderne

La finance a toujours su s’approprier les progrès technologiques et intégrer la recherche académique. L’approche quantitative s’inscrit complètement dans cette voie.

La technologie est un outil incontournable au service du Quant. Selon la loi de Moore, les capacités de calcul doublent tous les deux ans et cela permet d’améliorer les modèles. A titre d’exemple, cela a rendu possible le développement récent de l’intelligence artificielle dans la gestion d’actifs.

L’intelligence artificielle est un ensemble de concepts qui permettent à un ordinateur d’accomplir des tâches qui ne pouvaient jusqu’alors être accomplies que par des êtres humains. Une approche très prolifique ces dernières années est l’apprentissage automatique (Machine Learning). Il s’agit d’une approche statistique, qui consiste à laisser la machine apprendre à accomplir une tâche à partir d’exemples.

L’essor de ces techniques a permis de développer des modèles quantitatifs capables d’exploiter des dépendances statistiques plus complexes et plus diverses.

Il existe plusieurs méthodes d’apprentissage statistiques : régression linéaire, forêt aléatoire (Random Forest), réseaux de neurones artificiels (Neural Networks). Ces derniers sont largement plus utilisés. Ils permettent de déterminer des liens plus profonds entre les données.

Ces algorithmes demandent d’avoir accès à un très grand nombre de données, d’abord pour être entraînés, mais aussi pour pouvoir les tester et les utiliser.

Leur développement est ainsi facilité par le fait que la qualité, la profondeur et la vitesse de mise à jour des bases de données financières et extra-financières n’ont de cesse d’être améliorées.

Conclusion

Les gestions quantitatives connaissent depuis quelques années un développement linéaire en raison de leur modernité et de leur capacité à générer une performance régulière. Elles apportent également des solutions adaptées à l’environnement actuel et ont ainsi vocation à poursuivre leur croissance.

Le monde de la gestion d’actifs est à l’aube de bouleversements majeurs. Il se doit de performer, tout en réduisant ses frais (dans un monde à taux négatif) et tout en respectant une réglementation de plus en plus contraignante. L’approche quantitative est donc une réponse adaptée qui permet de satisfaire ces trois objectifs. Elle est performante, elle permet de limiter les coûts par l’automatisation des tâches et peut s’avérer transparente si ses décisions sont la conséquence d’un modèle parfaitement auditable.

Les allocataires d’actifs seront, sans aucun doute, amenés progressivement à augmenter la part de ce type de gestion, afin d’améliorer la performance, le profil de risque et la transparence de leur portefeuille.

  • Mise à jour le : 24/06/2020

Vos réactions