La Lettre n°174 de Décembre 2019

Actualités : La performance des introductions en bourse en France depuis 2014

Autant le dire tout de suite, elle n’est pas brillante (et nous sommes gentils en cette fin d’année !). Sur 101 sociétés introduites en bourse depuis 2014, et sans tenir compte de celles sorties de cote pour faillite ou rachat dans l’intervalle, la performance moyenne, hors dividende, est de - 33 % et de - 48 % en médiane. Ceci alors que l’indice SBF 120 a monté de 36 % durant la même période, et le CA 40 Mid & Small de 55 %.

Quand on regarde ceci d’un peu plus près, on est frappé de constater les performances très différentes selon le niveau de capitalisation boursière des entreprises au moment de leur introduction en bourse.

Les entreprises capitalisant plus du milliard d’euros, qui ne représentent en nombre que le sixième des introductions, ont, dans 62 % des cas, enregistré une progression de leur cours, contre seulement 13 % des entreprises capitalisant moins d’un milliard d’euros. Alors que les premières ont enregistré une progression de leur cours moyen de 11 %, les secondes ont baissé en moyenne de 46 %.

           Plusieurs facteurs expliquent cette situation. Il est indéniable que pour les grandes introductions en bourse, l’essentiel des investisseurs qui achètent des titres sont des institutionnels qui ont les moyens humains et techniques d’analyser le dossier et la valeur. Et s’ils la trouvent excessive, ils boudent l’introduction, voire la font échouer (voir WeWork et Aramco). Pour des PME, ces investisseurs sont absents et on retrouve essentiellement des petits porteurs, des petits fonds et des family offices dont le niveau de sophistication financière est bien moindre (voir Aramco de nouveau[1]). Il est possible aussi que les banquiers introducteurs pour les grosses opérations, qui différent assez souvent de ceux des petites opérations, fassent beaucoup plus attention à leur réputation, car ils ont un vrai fonds de commerce réputationnel à protéger dans la durée. La rotation des premiers est très faible dans le temps, celle des seconds beaucoup plus élevée avec des maisons, boutiques voire des échoppes, qui apparaissent et disparaissent (Arkéon).

Les entreprises de petite taille ont par définition un modèle économique moins assuré, plus fragile, et parfois pas de modèle économique du tout. Nous pensons aux nombreuses biotech, greentech venues sur la bourse de Paris[2], pour lesquelles, tout auteur du Vernimmen que nous sommes, nous serions bien incapables de donner une valorisation avec laquelle nous soyons à l’aise. Dès lors, il est plus aisé de vendre du rêve.

Sans aucun doute la loi TEPA, en permettant de déduire de ses impôts 50% des souscriptions à une augmentation de capital de PME, a conduit à pousser à la hausse les valeurs[3]. L’avantage fiscal revenant alors in fine, comme le législateur le souhaitait, à l’entreprise qui a pu émettre à bon compte des capitaux propres, et non à l’investisseur que le mot « défiscalisation » aveugle comme il s’en rend compte trop tard.

De façon plus mineure probablement, si les grandes valeurs sont au-dessus de leur point haut de 2018 (de 5 % pour le SBF 120), les petites sont encore à 11 % en-deçà du pic de l’an dernier.

Il nous semble que seules les entreprises de petite taille qui ont pu lever des capitaux propres à l’occasion de leur introduction en bourse et déroulent leurs plans de développement ainsi financés pour quelques années peuvent s’en féliciter. Elles font le dos rond en attendant que leurs plans produisent des résultats. Les autres ont de bonnes chances d’être devenues des zombies : 31 d’entre elles capitalisent moins de 20 M€ (contre 5 au moment de l’introduction en bourse) et 52 moins de 50 M€ (contre 25 à l’introduction). Pour elles, le coût de la cotation va vite devenir prohibitif.

Il nous paraît excessif de dire que viennent en bourse les sociétés dont ne veut pas le private equity, comme on l’entend ici et là. Cela ressort plus de l’impression que de la réalité nous semble-t-il. Celle-là est nourrie par les introductions en bourse annoncées et annulées, parfois au dernier moment, par la cession à un fonds de private equity, comme Delacheaux. Mais si Neoen, Amundi, ALD, La Française des Jeux, Worldline, etc. sont venus en bourse, c’est que leurs actionnaires ne voulaient pas d’une cession à des fonds, voulaient une introduction en bourse pour obtenir une liquidité (la FDJ), lever des fonds (Neoen), ou avoir un papier coté qui facilite la croissance externe (ALD, Amundi, Worldline). Ce n’est pas que les fonds ne voulaient pas en devenir actionnaires. Et ces entreprises ont très bien performé en bourse.

En revanche, il nous semble qu’il sera beaucoup plus difficile que par le passé d’introduire en bourse des entreprises de petite taille, compte tenu des résultats catastrophiques (sauf exceptions) enregistrés, la patience des petits porteurs a de bonne chance d’avoir été épuisée pour un certain temps.

Pour terminer sur une note plus positive, les introductions de 2019, beaucoup moins nombreuses (7, et pour cause, vu l’historique depuis 2014), semblent avoir été valorisées plus correctement, avec une performance moyenne et médiane de 4 % et seulement 2 baisses pour 5 hausses. A moins, diront les pessimistes, qu’elles n’aient pas encore eu le temps de décevoir, contrairement à leurs consœurs introduites précédemment, puisque 5 des 7 introductions de 2019 ont eu lieu en octobre et novembre . . .

 

[1] À notre lecteur étourdi, nous rappelons que le petit porteur saoudien détient moins de 1 Md$ d’actifs.

[2] Voir l’article d’actualité de La Lettre Vernimmen.net n° 167 d’avril 2019.

[3] Voir l’article d’actualité de La Lettre Vernimmen.net n° 85 de mars 2010.

 



Tableau : Les émissions par les entreprises de titres hybrides

Anciennement dénommés titres super subordonnés[1], les obligations hybrides émises par des entreprises (à l’exclusion des entités du secteur financiers) ont connu en 2019 un volume d’émission record, à plus de 50 Md€, qui confirme leur statut de classe d’actifs à part pour les investisseurs, et donc de source de financement ad hoc pour les émetteurs.

Cette dynamique devrait se poursuivre et s’auto-entretenir jusqu’à un certain point, puisque les remboursements génèrent un volume d’émissions concomitantes. Ceci en raison de l’engagement pris par l’émetteur de remplacer l’émission initiale par l’émission de produits du même type ou d’actions. Et ceci est clé pour espérer obtenir des agences de notation un classement d’une partie de l’hybride en capitaux propres, de façon abusive à notre avis[2] .



Recherche : Une baisse spectaculaire du nombre de sociétés cotées

Avec la collaboration de Simon Gueguen, enseignant-chercheur à l’Université de Cergy-Pontoise

Le nombre de sociétés cotées a connu une baisse très spectaculaire ces vingt dernières années. Une étude récente[1] montre que cette baisse concerne tous les types d’entreprises et tous les marchés développés, mais qu’elle est particulièrement marquée pour les sociétés de moins de 1 000 salariés.

Les auteurs de cette étude font référence à un célèbre article datant de 1989 (intitulé « The Eclipse of the Public Corporation »[2]) dans lequel Michael Jensen affirme que les conflits entre propriétaires et dirigeants dans les sociétés cotées rendent cette forme d’organisation souvent inefficace. Jensen explique que le private equity est plus adapté lorsque les problèmes d’agence sont élevés, et que la cotation ne se justifie plus dans de nombreux secteurs de l’économie. Lorsque l’article de Jensen est paru, on dénombrait 5 895 sociétés cotées aux États-Unis. Ce chiffre a continué d’augmenter jusqu’en 1997, où il a atteint son sommet de 7 509 sociétés cotées. Il a ensuite connu une baisse chaque année jusqu’en 2013, puis s’est stabilisé autour des 3 600 sociétés cotées, soit une diminution de plus de la moitié par rapport à 1997[3].

Dans le même temps, les GAFAM (Google, Apple, Facebook, Amazon, Microsoft) ont vu leur capitalisation boursière atteindre des records et parfois dépasser les 1 000 milliards de dollars. C’est bien le nombre de sociétés cotées qui s’est effondré, pas la capitalisation boursière agrégée. Les auteurs remarquent toutefois que le ratio capitalisation boursière sur PIB, considéré par les économistes comme un indicateur de développement financier, a beaucoup varié depuis vingt ans et que son sommet date de 1999 (153,5 %). Deux phénomènes sont à la source de cette tendance.

D’abord, depuis 1997, les rachats d’actions sont bien plus élevés que les augmentations de capital. La différence sur vingt ans s’élève en net à 3 600 milliards de dollars. Les entreprises américaines cotées ont rendu beaucoup plus d’argent aux actionnaires qu’elles n’ont émis d’actions nouvelles.

Ensuite, le nombre annuel d’introductions en bourse a chuté depuis la crise financière de 2008. La moyenne aux États-Unis est de 179 par an entre 2009 et 2016, contre près de 700 par an entre 1995 et 2000. Les auteurs remarquent que les sorties de cotations n’ont pas augmenté, et que ces sorties sont le plus souvent la conséquence d’opérations de fusions et acquisitions ou de mauvaise performance. Les sorties volontaires de la cote, souvent mises en avant dans la presse, sont en réalité très marginales et n’expliquent en rien la baisse du nombre de sociétés cotées. La source véritable est l’effondrement des introductions en bourse.

Sur la même période, le nombre de sociétés (cotées ou non) a continué de croître aux États-Unis. La tendance générale vient de la chute de la propension des jeunes entreprises à s’introduire en bourse. Depuis 1997, le pourcentage de sociétés de moins de 1 000 salariés cotées en bourse a chuté de 60 %.

Comment expliquer cette tendance ? La question reste ouverte pour la recherche, mais les auteurs proposent des pistes. Pour une jeune entreprise avec beaucoup de dépenses de R&D, le private equity est devenu plus attractif que la cotation[4]. Les investisseurs spécialisés sont mieux à même d’évaluer la valeur de ce genre d’investissement et, le cas échéant, de conseiller les dirigeants pour leur développement. Sur le marché coté, le manque de visibilité peut se traduire par une décote importante[5].

Enfin, les auteurs rejettent l’argument selon lequel une réglementation trop stricte serait la cause de la réticence à la cotation. La forte baisse débute en 1998, bien avant la mise en place de la loi Sarbanes-Oxley (2002) et du resserrement des règles sur les services financiers. Ils soulignent que la suppression en 1996 du plafond de 100 investisseurs pour les fonds de private equity, une décision de dérégulation du marché, a probablement joué un rôle plus significatif dans la baisse du nombre de sociétés cotées.



[1] C. Doidge, K.M. Kahle, G.A. Karolyi et R.M. Stulz (2018), « Eclipse of the public corporation or eclipse of the public markets? », Journal of Applied Corporate Finance, vol. 133, p. 64 à 82.

[2] M.C. Jensen (1989), « Eclipse of the public corporation », Harvard Business Review, vol. 67, p. 61 à 74.

[3] La mesure précise du nombre de sociétés cotées sur un marché peut varier selon les sources. Les auteurs retiennent CRSP (Center for Research in Security Prices). Les données de la Banque Mondiale indiquent la même tendance.

[4] C’est le thème de l’introduction du Vernimmen 2020, à laquelle nous vous renvoyons.

[5] Voir l’article d’actualité de La Lettre Vernimmen.net n° 173 de novembre 2019.

 



Q&R : Fondations, fonds de dotation et fonds de pérennité

L’avenir du capitalisme serait-il dans un actionnariat désincarné ? Les fondations actionnaires représentent 54 % de la capitalisation boursière de Copenhague. En France, le concept de fondation actionnaire est encore peu fréquent. Tout le monde a en tête la fondation Pierre Fabre, actionnaire majoritaire du laboratoire du même nom. Mais c’est encore un cas isolé. La France s’est pourtant dotée de trois outils juridiques permettant de pérenniser l’entreprise sans la céder ou la transmettre à un héritier : la fondation, le fonds de dotation et le fonds de pérennité.

La fondation reconnue d’utilité publique (FRUP) est la forme la plus ancienne (1987). Elle est utilisée par un nombre important d’entreprises (Total, Michelin, EDF, BNP Paribas, L’Oréal, Hermès, Orange, Carrefour…) pour mettre en œuvre leurs missions caritatives ou de mécénat (avec les avantages fiscaux afférents). De manière plus ponctuelle (Pierre Fabre), cette forme juridique a été utilisée pour devenir actionnaire majoritaire d’une entreprise et pérenniser son existence, tout en utilisant les dividendes versés pour assurer ses missions d’utilité publique.

Le fonds de dotation, créé par la loi LME en 2008, a pour but d’offrir un outil plus simple et plus souple que les fondations (montant de dotation beaucoup plus faible…). Les fonds de dotation peuvent ainsi être actionnaire (minoritaire ou même potentiellement majoritaire) d’une entreprise pour financer ses missions d’utilité publique. Mediapart a choisi récemment d’être détenu majoritairement par un fonds de dotation (en pratique, la société va racheter ses actions sur la base d’une valeur de marché, à l’exception de Jean-Louis Bouchard qui va apporter sa participation au fonds de dotation).

La loi PACTE (2019) vient de créer un nouvel outil, le fonds de pérennité qui a vocation à devenir actionnaire majoritaire d’entreprises pour pérenniser leur activité après l’arrêt d’activité de l’entrepreneur. Cette forme n’a, à notre connaissance, pas encore été utilisée. Elle présente l’avantage par rapport au fonds de dotation de ne pas avoir nécessairement d’utilité publique. Ainsi, l’activité de l’entreprise pourra être pérennisée uniquement pour son utilité économique.

Le modèle de fondations actionnaires (quelle qu’en soit la forme) semble fonctionner dans les pays du Nord de l’Europe, bien qu’il pose la question fondamentale de l’efficience des entreprises sans actionnaire motivé pour optimiser leur performance… long débat !

 



Autre : Formations

Voici les dates des prochaines formations que nous avons conçues pour Francis Lefebvre Formation, avec des enseignants que nous avons sélectionnés pour l’excellence de leur pédagogie :

 

 

 

 



Autre : NOS LECTEURS ÉCRIVENT : Le Fed model est-il (définitivement) mort ?

Par Benoît Maynard[1]

Is a dream a lie if it don't come true”

Bruce Springsteen, The River

Pierre philosophale de nombreux stratégistes du marché actions des années 1995-2005, le Fed model a sans doute été l’une des bases théoriques les plus simples et les plus intéressantes de la gestion d’actifs des vingt dernières années. Il a connu son heure de gloire dans les années 2000, et bien qu’il ne soit plus réellement applicable aujourd’hui, il reste un sujet de réflexion toujours aussi captivant. On ne peut qu’être surpris, en consultant quelques articles portant sur la valorisation du marché actions, par exemple sur le site SSRN, que le Fed model soit encore largement cité dans des articles récents d’universitaires[2]. Ce modèle demeure donc fortement ancré dans l’esprit de nos chercheurs, enseignants, analystes, chroniqueurs financiers ou étudiants.

Notre ambition est de retracer sommairement l’histoire de ce modèle simple, qui a marqué la finance de la fin des années 1990 et du début des années 2000, afin d’ouvrir quelques pistes de réflexion que certains universitaires ont sans doute déjà explorées. La littérature sur ce modèle étant abondante, une partie de cette profusion de réflexions nous aura sans doute échappée.

La genèse

L’histoire du Fed model est souvent assimilée, à tort, à la célèbre phrase de M. Alan Greenspan, président du Conseil de la Réserve fédérale de 1987 à 2006, sur « l’exubérance irrationnelle des marchés financiers ». Cette phrase, qui marquera les esprits seulement un peu plus tard, fut prononcée en décembre 1996[3]. Elle est restée dans l’esprit d’une (et de bientôt deux) génération d’investisseurs comme un signe annonciateur de la bulle Internet[4]. Cette bulle n’a pourtant trouvé son point d’apogée qu’en janvier 2000, lors de l’offre de rachat d’AOL sur Time Warner pour 162 milliards de dollars.

Mais revenons aux origines, en décembre 1996, lorsque M. Greenspan évoquait « l’exubérance irrationnelle des marchés financiers », le PER moyen du marché américain était de 20,3 fois les bénéfices, légèrement plus élevé (10 %) que sa moyenne des douze mois précédents. Pouvait-on alors parler « d’irrationnel » ? Tout au plus d’un optimisme du marché.

Dans ce discours de six pages, M. Greenspan s’inquiétait avant tout de la décorrélation entre les prix des actifs immobiliers américains, qui venaient de progresser de 17 % en cinq ans, alors qu’au même moment, l’inflation nationale s’était contractée de 110 points de base. Une « bulle » sur les prix des actifs réels (l’immobilier dans ce cas) commençait-elle à se former ? Telle était son interrogation de décembre 1996.

Fed model, version 2.0

En tant qu’analyste financier débutant, j’ai découvert le concept du Fed model en 1994 ; j’étais alors analyste sectoriel dans une filiale de Paribas, la SAFE. Avec le recul, je reconnais que le concept n’était pas nouveau[5].

Son fondement essentiel, et parfaitement connu, repose sur le fait que les investisseurs arbitrent entre un actif risqué, les actions, et un actif sans risque, les emprunts d’État, par exemple le T-Bond (10 ans) ou le Bund, en fonction de leur écart de rendement. Si l’inverse du PER, que certains appellent « earning rate[6], est inférieur au rendement des T-Bond, alors les investisseurs auront tendance à réduire leur exposition au marché des actions, d’où des ventes qui génèrent des baisses des cours et donc une remontée de l’earning rate. Dans une vision idyllique, l’arbitrage se déroule sur neuf à douze mois et, presque mécaniquement, l’earning rate et le rendement des T-Bond doivent converger.

C’est en juillet 1997 que la Fed formalise réellement le modèle, lors de deux discours proposant une vision d’un arbitrage « on/off, risque/pas risque, avec un graphique[7] demeuré célèbre dans l’esprit des investisseurs et universitaires.

Equity Valuation and Long-Term Interest Rate

Earnings-price ratio is based on the I/B/E/S International Inc. consensus estimate of earnings over the coming twelve months. All observations reflect prices at mid-month.

Source : Humphrey-Hawkins Report, 22 juillet 1997.

 

La conclusion de la Fed était alors sans appel : « La hausse des marchés actions a été alimentée par des taux d’intérêt à long terme modérés et par des anticipations de la part des investisseurs quant à la capacité des entreprises à stabiliser, voire accroître leurs taux de marge et leurs profits, dans un environnement stable et faiblement inflationniste ». 

Il n’y avait alors pas d’exubérance de la part des investisseurs – pas encore.

La remise en cause du modèle

Il existe une abondante littérature sur les faiblesses du Fed model. En effet, un modèle aussi simple ne saurait résumer un monde aussi divers et chahuté que celui de la finance.

Les premières critiques vinrent dès août 1997, soit un mois après le discours de M. Greenspan, de la part de M. Ed Yardeni, alors Chief Investment Strategist (CIS) chez Deutsche Morgan Grenfell[8]. Il publiera trois autres articles sur le Fed model, le dernier en 2003 alors qu’il était CIS chez Prudential Financial. Deux faiblesses fondamentales du Fed model étaient, à juste titre, mises en avant : premièrement, la non-prise en compte de la prime de risque (mesurée par M. Yardeni comme un écart de rendement obligataire entre les émetteurs de notation A par Moody’s et le T-Bond) et deuxièmement, l’absence de prise en compte de la croissance à long terme des bénéfices (BPA)[9].

Dans les faits, et quelles que fussent les réflexions des universitaires de l’époque, l’explosion de la bulle Internet rendit caduque tous modèles d’arbitrage entre taux sans risque et investissements risqués, comme le firent, plus tard, la crise des subprimes en 2007, puis celle liée à la faillite de Lehman en septembre 2008. Pour autant, en dépit de ces faiblesses soulignées par ces chocs externes, la littérature sur le Fed model et ses dérivés est restée, de manière surprenante, abondante.

Quelques faiblesses, rarement abordées

Au-delà de ces premières remises en cause, trois reproches, très empiriques et rarement modélisés, peuvent être adressés au Fed model ainsi qu’à ceux qui tentent encore de l’amender à l’aide d’hypothèses plus robustes.

Le premier, naïf, consiste à essayer de comparer sur une longue période une donnée unique, immuable – le T-Bond 10 ans – avec un indice boursier, par nature vivant[10] . La composition du S&P 500 de 2019 n’a rien à voir avec celle de 1997 (voir annexe 2 disponible sur le site vernimmen.net). Nous devons admettre que nous sommes passés d’une représentation « industrielle » du S&P 500[11] dans les années 1980, indice alors peu internationalisé, avec des taux de croissance des bénéfices proches de ceux de l’économie réelle américaine, vers un S&P – celui de 2019 – très international, majoritairement orienté vers les services et offrant des perspectives de croissance plus élevées, et donc des PER également plus élevés.

Dans les articles académiques de ces dernières années portant sur le Fed model et ses dérivés, nous sommes face à des travaux statistiques ou économétriques qui mesurent, sur trente ou cinquante ans, la fréquentation d’une route en fonction de la météo, en oubliant de mentionner que celle-ci a été récemment goudronnée ! Un problème connexe de cette constatation rudimentaire réside dans le fait que nombre de travaux économétriques, qui tentent de trouver sur une longue période le point de décrochage (ou d’ancrage) entre les arbitrages d’un actif sans risque et le marché actions, utilisent la même source, c’est-à-dire essentiellement les données mises en avant par Robert Shiller qui considère reconstituer un indice bousier (le S&P) sur plus de cent ans[12].

La deuxième faiblesse du Fed model et de ses successeurs réside dans leur vision binaire de vases communicants entre le marché obligataire et le marché actions. Avec, depuis dix ans, un marché des ETF en plein essor où il existe d’autres voies d’investissement à frais réduits, telles que les matières premières agricoles, le pétrole ou encore l’or, et sans besoin d’investir dans des sociétés impliquées dans ces secteurs (et donc sans interférer sur le P du PER). Quelle peut être la validité de ces modèles économétriques ? Dans un tel contexte, l’arbitrage risque/pas risque devient plus complexe (et rarement modélisé).

La troisième faiblesse, jamais évoquée dans ces travaux académiques, reste l’impact qu’ont pu avoir les QE des banques centrales américaines et européennes sur l’évolution du taux sans risque, de la prime de risque et du PER. La crise des subprimes, puis celle de Lehman, ont durablement entamé la prédictibilité des anticipations des agents et leur confiance dans l’efficacité des marchés à procéder, de façon raisonnée, à des arbitrages entre le marché actions et le couple T-Bond/Bund. Les différents QE n’ont fait qu’accentuer cette distorsion. Ces injections de capitaux vers les marchés obligataires ont eu des impacts positifs rassurants sur les marchés actions. Ainsi, l’indice VIX, qui mesure le degré de nervosité du marché actions, et donc le degré d’incertitude des investisseurs, fléchissait sensiblement lors des mises en place de ces différents QE, sans que les révisions du consensus concernant les perspectives de croissance des BAP aient été revues à la hausse. En d’autres termes, les acteurs du marché actions adoptaient un biais plus positif sans révision des anticipations de bénéfices, d’où une hausse des PER, sans corrélation avec la baisse des taux sans risque[13] [14].

Alors ? Le Fed model est-il (définitivement) mort ?

–         Empiriquement : oui, sans aucun doute !

–         Économétriquement : le concept ne résiste pas à la réalité des multiples modèles, parfois alambiqués, qui tentent de l’amender. Faut-il dès lors cesser d’y faire référence ?

–            Académiquement, non !

Pour un enseignant, le Fed model demeure un formidable outil pédagogique permettant d’expliquer et de justifier, auprès de ses étudiants, l’existence de deux mondes : celui des investisseurs equity, qui acceptent un risque additionnel pour capter un retour sur investissement plus élevé par rapport à ceux qui, par leurs contraintes de gestion prudentielle (fonds de pension, caisses de retraite, etc.), recherchent un risque qu’ils évaluent plus modéré, modulo un taux de défaut.

Il conduit alors à considérer qu’avec un faible niveau de rémunération du taux sans risque, les investisseurs choisiraient de rééquilibrer leur portefeuille en faveur du marché actions. Les mouvements de marché devraient, si ce dernier est rationnel, informé et sans spéculation ni crise géopolitique durable, déboucher sur un rééquilibrage entre ces deux forces.

–          Professionnellement, sans doute pas !

 

Dans une vision très simplifiée, une formulation amendée pourrait permettre, non pas de savoir si le marché est devenu irrationnel, mais, d’une manière détournée, de tenter de mesurer quelles sont les anticipations de ce marché en matière de prime de risque globale, de prime de risque spécifique (le bêta d’un secteur) et de taux de croissance du marché ou d’un secteur :

avec PER : Price earning ratio next 12 months (NTM) du marché ou d’un secteur ;

Rf : le taux sans risque (le Bund allemand à 10 ans par exemple) ;

b : le bêta sectoriel ;

Rt : la prime de risque du marché actions [15];

g : le taux de croissance à l’infini du secteur qui, dans certains cas, pourrait être négatif  – point qu’aucun modèle académique n’aborde[16].

Cette petite gymnastique, en raisonnant en termes de PER relatif sectoriel, devrait permettre à l’analyste d’estimer le degré d’optimisme/pessimisme du marché par rapport aux niveaux actuels de valorisation des marchés, du taux sans risque et de la prime de risque : le marché anticipe-t-il un taux croissance sectoriel trop optimiste ? Quel niveau de croissance des BPA des douze prochains mois pourrait justifier un tel niveau de valorisation du secteur ? Le bêta sous-jacent s’écarte-t-il significativement de ses niveaux historiques ?

Dans l’affirmative/négative, le travail de l’analyste sera alors d’en trouver les raisons conjoncturelles, structurelles ou spéculatives sans s’en remettre à des modèles basés sur des données économétriques produites il y a cinquante ans. Les investisseurs, nos clients, « achètent » le futur et non le passé, que chacun est déjà censé connaître.

L’Art pour l’Art ?

« Il y a trois sortes de mensonges : les mensonges, les sacrés mensonges et les statistiques » : cette citation est attribuée à Mark Twain.

Un investisseur a-t-il réellement besoin de 20 équations pour démontrer qu’une dérivée du Fed model pourrait prédire, avec 56 à 58 % de probabilités, une surévaluation/sous-évaluation du marché actions ? En intégrant les coûts de frottement (commissions, couvertures euro/dollar, éventuelles commissions de surperformance), quel fonds d’investissement choisirait cette option, sur une période de cinq à dix ans, avec un tel surpoids de charges, alors que le lancer en l’air d’une pièce de monnaie serait moins coûteux et probablement tout aussi productif ?

Depuis vingt ans, nous assistons à une multiplication des publications académiques traitant des arbitrages entre le marché actions et la dette d’État, modèles des années 1990. Ces publications, souvent anglo-saxonnes et plutôt passéistes, sont très productives en termes de modèles, avec toutefois peu de questionnements sur les réalités des évolutions récentes des marchés (ETF, QE, crises des dettes souveraines, tertiarisation et mondialisation de l’économie, émergence de la finance comportementale, etc.). Nos « chercheurs » semblent trop souvent pénétrés par une vision « parnassienne » de la finance de marché[17].

Face aux évolutions des marchés au cours de ces dernières années, revenons à des concepts simples. Nos clients désirent des estimations de bénéfices, de taux de croissance, de croissance du PIB, de sensibilité sectorielle à la conjoncture, d’impacts sectoriels à certains chocs externes et une prime de risque prospective (sectorielle ou de marché).

 Évitons l’Art pour l’Art.

 

 

[2] Une recherche sur le site SSRN montre que le terme « Fed model » apparaît dans 492 réponses quand celui de « FCF » ne donne que 120 réponses, celui de « Free Cash Flow » 744 et celui de « DCF » 351.

[3]  Alan Greenspan, « Remarks by chairman Alan Greenspan at the annual dinner and Francis Boyer lecture of the American Enterprise Institute for Public Policy Research », Washington DC, December 5 1996.

[4] La première édition de l’ouvrage de Robert J.Shiller, Irrational Exuberance, Princeton University Press2000, a largement contribué à la « popularisation » de cette formulation, alors même que la bulle Internet commençait à poindre.

[5] Voir par exemple Ray J. Ball, (1978), « Anomalies in relationships between securities' yields and yield-surrogates », Journal of Financial Economics 6, n° 2-3, 1978, p. 103-126.

[6] Voir par exemple Ray J. Ball, (1978), « Anomalies in relationships between securities' yields and yield-surrogates », Journal of Financial Economics 6, n° 2-3, 1978, p. 103-126.

[7] Alan Greenspan, « The Federal Reserve’s Semiannual Monetary Policy Report », Testimony before the US House Committee on Banking, Housing and Urban Affairs, July 22 1997.

[8] « Fed’s Stock Market Model Finds Overvaluation », in Topical Study #38, 25 août 1997. M. Yardeni s’est également fait connaître pour, en 1999, avoir annoncé, lors de nombreuses interviews télévisées, que le bug de l’an 2000 conduirait l’économie mondiale dans une profonde récession. Il reconnut son erreur sur ces mêmes chaînes de télévision américaines en janvier et février 2000.

[9] Notons que vingt ans plus tard, un chroniqueur d’un quotidien économique faisait les mêmes omissions, oubliant, pour valoriser le marché, d’intégrer une prime de risque et un taux de croissance des bénéfices, restant ancré dans le mythe du Fed model des années 1990 : Édouard Tétreau, « Quand la finance folle disjonctera », Les Échos, 1er mars 2016.

[10] À titre d’exemple, nous pouvons rappeler la sortie, en juin 2018, de General Electric de l’indice DJ, créé en 1896 (l’indice comprenait alors onze sociétés industrielles). La société GE était alors la « doyenne » de cet indice.

[11] Cet indice existe depuis 1957. Pourtant, nombre de travaux économétriques prennent des séries reconstituées sur plus de cent ans, voir par exemple, Alfred Cowles, Common-Stock Indexes, 1938. Tous ces travaux utilisent donc la même information, les mêmes biais.

[12] Robert J. Shiller, Market Volatility, MIT Press, 1992, ou Stock Market Data Used in Irrational Exuberance, Princeton University Press, 2000, 2005, 2015, updated.

[13] Allianz Global Investor, « How to prepare for a marketplace shift », Mars 2016.

[14] Patrick Artus, « L’excès de liquidité conduit-il à une surévaluation des actions ? », Natixis Flash Market, mars 2014.

[15] La prime de risque évoquée doit être prospective, calculée par exemple à partir d’anticipations de croissance des bénéfices futurs et du taux de distribution des dividendes (voir Associés en Finance), et non en regardant dans le rétroviseur, en prenant un écart de « rentabilité » entre le marché actions et un actif sans risque, observé sur une longue période (voir Roger Ibbotson et William Goetzmann).

[16] Entre 2005 et 2015, dans leurs modèles de valorisation, les analystes télécoms se devaient de prendre un taux de décroissance des EBITDA des activités européennes des opérateurs, le « g » était donc négatif.

[17] Cette tendance n’est pas propre à la finance. Sur le phénomène de « mathiness », voir Paul M. Romer, «Mathiness in the Theory of Economic Growth», American Economic Review 105, n° 5, 2015, p. 89-93, ou Tim Harford, « Down with mathiness! », Financial Times, June 2015.

 



Commentaire : Sur l'actualité financière, postés sur les pages Facebook et LinkedIn du Vernimmen

Régulièrement, nous publions sur les pages Facebook et LinkedIn du Vernimmen[1] des commentaires que nous inspire l’actualité financière.


Vente aux enchères ou négociation privée ?

Il y a quelques semaines, la société d’investissement cotée Wendel a annoncé prendre le contrôle de l’américain Crisis Prevention Institute pour 23,3 fois l’EBE. Ce n’est évidemment pas donné, mais une entreprise en croissance à deux chiffres, résistante à la crise et avec de fortes marges (l’EBE est de 39 M$ pour un chiffre d’affaires de 86 M$) n’est pas soldée dans le contexte actuel.

Cette acquisition s’est faite de gré à gré, sans processus d’enchères privées, ce qui montre une nouvelle fois que le prix obtenu ne dépend pas nécessairement du processus de négociation choisi et qu’une négociation privée permet aussi de ne pas brader une entreprise !

En fait, dans l’esprit de beaucoup, enchères privées est synonyme de maximisation de la valeur, un peu comme chez Christie’s avec le Salvatore Mundi de Vinci. L’analyse scientifique a démontré que cette première impression était fausse et que le prix obtenu pour la vente d’une entreprise ne dépendait pas du processus de vente, comme l’exemple de Wendel vient l’illustrer de nouveau. Pour la référence scientifique, voir La Lettre Vernimmen.net d'octobre 2007 n° 60. Nos trente-huit années cumulées d’expérience en fusion-acquisition nous donnent la même conviction.

Par contre, si on veut démontrer à des tiers (un actionnaire, un conseil d’adminis-tration, un régulateur, etc.) que l’on a fait tous ses meilleurs efforts pour obtenir le prix le plus élevé, le choix de la mise en vente par enchères privées sera bien sûr le plus aisé à défendre, même s’il n’est pas fondé dans la réalité.

 

[1] Que vous pouvez consulter ici pour Facebook, et là pour LinkedIn.



Facebook Google + Twitter LinkedIn