La Lettre n°159 de Mai 2018

Actualités : De nouveaux investisseurs en capitaux propres sur le marché du LBO

2017 a vu apparaître, aux premiers rangs des acteurs en capitaux propres de LBO, en particulier sur le créneau 500 – 2 000 M€ de valeur d'actif économique, de nouveaux investisseurs, des fonds d'investissement de long terme, soit d'origine étrangère, principalement canadiens (Caisse des Dépôts et des Placements du Québec - CDPQ, Omers PE, PSP, OntarioTeachers') ou asiatiques (Fosun, Temasek, Citic Capital) ou émanation des grandes familles industrielles françaises (Bettancourt-Meyers, Dentressangle, Peugeot).

Leur caractère de long terme vient du fait qu'ils ne doivent pas assurer une liquidité à leurs investisseurs au bout d’une durée maximum de dix ans comme les fonds de LBO classiques, ce qui implique pour ces derniers la vente de tous leurs investissements au plus tard à la fin de la durée de vie de leurs fonds.

Ces investisseurs de long terme ne sont pas de nouveaux venus sur le marché des investisseurs en LBO, certains ont signé leurs premières opérations il y a dix ans, d'abord comme investisseurs dans des fonds de LBO, puis comme co-investisseurs aux côtés de fonds de LBO dans lesquels ils étaient investis[1]. Après cette phase d'apprentissage, ils ont commencé à investir en 2016 pour leur propre compte, ou en dirigeant un petit consortium d'investisseurs de même nature, et ont très fortement accéléré le rythme en 2017.

C'est ainsi que l'on a vu CDPQ, qui avait co-investi dans Keolis en tant que co-investisseur minoritaire aux côtés du majoritaire Ardian en 2006, puis dans SPIE en 2011, prendre le contrôle majoritaire en 2016 de Foncia, puis en 2017 de Sebia (2 Md€ en valeur d'actif économique), d'Alvest (900 M€) et de Fives (1,5 Md€). Ou la famille Dentressangle prendre le contrôle de Kiloutou pour 1,5 Md€.

Jusqu'à présent, ils se sont focalisés sur des actifs présentant des risques économiques faibles (métrologie, services funéraires, test in vitro, etc.) et/ou des équipes de management aguerries. Leurs perspectives beaucoup plus long terme que les fonds traditionnels de LBO, voire sans terme affiché, peuvent apparaître attractives à des équipes de management qui ont déjà fait plus LBO consécutifs et qui ont normalement fait fortune. Si ces managers sont prêts à se réengager, ils ont conscience que souvent les leviers de création de valeur, après plusieurs LBO consécutifs, nécessitent plus de temps pour être en œuvre. Ils peuvent aussi être las de caler la stratégie industrielle de leur entreprise sur l'échéance de sortie du fonds de LBO qui est leur actionnaire principal et de devoir mettre en suspens celle-là pour permettre d'optimiser celle-ci.

Comme ces investisseurs de long terme se sont montrés jusqu'à présent moins présents (intrusifs diraient certains) auprès des dirigeants (par rapport à des fonds de LBO classique), ceux-ci y trouvent un actionnaire de référence bien adapté à la solide expérience qu'ils ont accumulée. C'est un peu comme être coté en Bourse sans en avoir les inconvénients[2] ! C'est probablement la raison pour laquelle, malgré la réouverture du marché des introductions en Bourse à Paris depuis 2013 avec huit sorties en Bourse de LBO jusqu'en 2016, il n'y en a eu aucune depuis mai 2016 malgré un climat boursier pas moins favorable. 

Reste à voir dans quelques années comment se réconciliera un management package de moyen terme au profit des dirigeants avec un horizon d'investissement à plus long terme de ce type de fonds d'investissement : renouvellement des dirigeants, nouveaux  managements packages mis en place à l'issue des précédents, etc.

En attendant, ces fonds d'investissements de long terme, ayant des taux de rentabilité exigée plus faibles que ceux des fonds de LBO traditionnels, réduisent la capacité de ces derniers à investir leur importante poudre sèche[3] sur ce créneau des opérations de LBO upper mid-market, poussant les acteurs traditionnels à chercher d'autres types d'investissements ou d'initier une diversification géographique.

 

 

[1] Coller Capital estime qu'environ un tiers des investisseurs dans un fonds de LBO, co-investissent aux côtés du fonds en question, le double d'il y a dix ans.

[2] D'autant que la charge de préparation en amont est moins importante, sans l'incertitude jusqu'au dernier moment quant à la finalisation de l'opération comme c'est le cas pour les introductions en Bourse (voir par exemple Autodis qui a annulé au dernier moment il y a quelques jours son entrée en Bourse).

[3] Sommes levées par les fonds d'investissements sous forme d'engagements d'investissement de leurs investisseurs.

 

 



Tableau : Les taux d'impôt sur les sociétés dans le monde

Le taux d’impôt moyen sur les sociétés dans le monde ressort à 24 %, soit un niveau stable depuis 2013 :

Source KPMG

 En 2018, les taux d’impôt sur les sociétés ont baissé dans les pays où ils étaient haut : Belgique, États-Unis, et Japon.

Ces taux sont utiles pour calculer l'impôt sur les sociétés à payer sur les bénéfices avant impôt, pour calculer les flux de trésorerie disponibles ou le coût du capital et pour produire des plans d'affaires. Mais ils ne peuvent être comparés d'un pays à l'autre pour apprécier la charge fiscale supportée par les entreprises. En effet, dans certains pays, certaines taxes locales ne sont pas prélevées sur le résultat avant impôt, mais sur la valeur ajoutée, le chiffre d'affaires ou la valeur locative des immeubles. Et ils s'ajoutent à ceux calculés sur le résultat avant impôt et présentés dans ce tableau.

Comme Henri Lagarde l’a très bien montré[1], ces taux ne sont que des taux faciaux qui cachent des modalités d’application qui, en France, ont tendance à alourdir le taux effectif.

 

 



Recherche : Bien traiter les salariés crée-t-il de la valeur ?

Avec la collaboration de Simon Gueguen, enseignant-chercheur à l’Université de Cergy-Pontoise

Certaines grandes entreprises américaines (du secteur de la technologie notamment) sont réputées pour offrir de bonnes conditions de travail à leurs salariés (repas gratuits, rémunérations attractives, équipements de sport et de loisir…). Leurs dirigeants expliquent que ces conditions favorisent la productivité, et finalement la valeur de l’entreprise. Mais est-ce vraiment le cas ? Cette question simple pose des difficultés techniques au chercheur. Si la corrélation entre conditions de travail et valeur d’entreprise peut être établie, la causalité est moins évidente. C’est peut-être parce qu’une entreprise est performante que ses salariés sont bien traités, plutôt que l’inverse… Nous présentons ce mois un article[1] qui défend l’idée selon laquelle de meilleures conditions de travail permettent effectivement de créer de la valeur.

Deux visions s’opposent sur les raisons de la mise en place de conditions favorables aux salariés dans une entreprise. La première est fondée sur le principe de réciprocité (développé en particulier par Akerlof), selon lequel les salariés ayant le sentiment que des efforts sont faits pour les satisfaire voudront eux-mêmes donner satisfaction. Améliorer les conditions de travail serait donc une mesure de bonne gouvernance. La vision opposée se fonde sur la théorie de l’agence : les dirigeants accorderaient des avantages aux salariés pour pouvoir capter des bénéfices privés au détriment des investisseurs. Bien traiter les salariés rendrait la vie des dirigeants plus facile, mais cela pourrait se traduire par de la destruction de valeur.

L’étude présentée porte sur un échantillon de plus de 300 entreprises de 43 pays observées entre 2003 et 2014. Les auteurs ont construit leur propre indice de qualité de traitement des salariés dans l’entreprise (employee-friendliness), prenant en compte une multitude de critères (conditions de travail, santé et sécurité, formation dans l’entreprise, diversité du recrutement…). Les résultats indiquent qu’à une hausse d’un écart-type de cet indice est associée une hausse de 4,8 % de la valorisation[2] de l’entreprise, semblant confirmer qu’un bon traitement des salariés serait créateur de valeur.

Les éléments les plus convaincants de cette étude proviennent des tests complémentaires permettant de mieux établir la causalité. Exploitant la durée longue de leur échantillon (12 ans), les auteurs montrent qu’une amélioration de l’indice entraîne une hausse de la valorisation les années suivantes, alors que l’inverse n’est pas vrai. Ils étudient aussi l’impact de la mise en place dans plusieurs pays européens d’une directive européenne augmentant la durée du congé parental. Les entreprises concernées par la directive ont vu leur valorisation augmenter (comparativement aux autres entreprises sur la même période). D’autres tests sont proposés, et tous les résultats sont compatibles avec l’idée selon laquelle bien traiter les salariés serait créateur de valeur.

Cette création de valeur, toujours selon l’étude, proviendrait d’une amélioration de la performance de l’entreprise (davantage de ventes, moins de coûts, plus de rentabilité). Au-delà de la question de la création de valeur, ces résultats rappellent que les résultats de l’entreprise dépendent beaucoup de la performance et de la motivation des salariés. Une évidence parfois oubliée ?

 

[1] L.FAUVER, M.B.McDONALD et A.G.TABOADA (2018), Does it pay to treat employees well ? International evidence on the value of employee-friendly culture, Journal of Corporate Finance, à venir.

[2] Les auteurs utilisent le Q de Tobin comme mesure de la valorisation (ratio de la valeur de marché des actifs sur leur montant comptable).

 

 



Q&R : Deux remue-méninges comptables

Problème 1 : A détient 49,4 % de X et dispose de 2 administrateurs sur 5. B détient 50,6% de X et détient 3 postes d'administrateurs et nomme le président. La nomination ou la révocation du directeur général, du directeur financier, l'adoption ou la modification du budget ou du plan d'affaires, ainsi que les décisions d'endettement, d'investissements, d'acquisition ou de cession d'actifs requièrent l'accord de A.

B doit-il consolider X par intégration globale ou par intégration proportionnelle ? Et A par intégration proportionnelle ou mise en équivalence ? Réponse après le problème 2 que voilà :

Problème 2 : La société X est détenue à 50% par la société P, à 25 % par la société R et à 25 % par la société S. 

Au sein de S, les principales décisions sont prises à la majorité de 70%.

P, qui dispose de facto d'un droit de veto sur X, peut-il, au regard des normes IFRS, consolider sa participation selon la méthode de l'intégration proportionnelle, car il partagerait le contrôle de X avec d'autres actionnaires ?

PS : Il existe toujours en IFRS un système de consolidation similaire à l'intégration proportionnelle lorsque les maisons mères détiennent un droit direct sur certains des actifs et des obligations sur une quote-part des passifs. Ses conditions d'utilisation sont beaucoup plus strictes qu'auparavant ou qu'en normes françaises, ce qui fait qu'il est peu utilisé, mais il existe toujours[1].

 

Réponse au problème 1 : B ne contrôle pas dans les faits X puisqu'il a besoin de A pour pouvoir prendre la plupart des décisions importantes chez S. Donc tant pour A que pour B, c'est donc l'intégration proportionnelle qui s'impose.

Réponse au problème 2 : non, car le partage du contrôle s'entend avec des associés bien définis. Or ici P peut partager le contrôle avec R, ou S ou R et S, mais rien ne dit que c'est toujours avec le même associé. Donc P devra consolider X par mise en équivalence.

 

[1] Pour plus de détails, voir le chapitre 7 du Vernimmen 2018.



Autre : NOS LECTEURS ÉCRIVENT : C'EST QUOI LE BON TAUX D'ACTUALISATION ?

Par François Meunier

L’évaluateur dispose d’un cadre assez solide quand il s’agit de regarder la valeur des entreprises ou des projets d’entreprise. Il dispose de références de marché (taux d'intérêt dit sans risque, rendement moyen des actions sur les marchés financiers, etc.) et d’un modèle plus ou moins éprouvé (le CAPM) qui indique le risque qu’il faut attacher au projet. Le CAPM se garde de mettre « tout le risque » dans le taux d'actualisation, mais uniquement la contribution nette du projet en question au risque d’ensemble du marché, ce qu’on appelle le « risque systématique » ou « risque non diversifiable ». 

L’affaire est moins simple lorsqu’il s’agit de projets à très long terme ou de projets qui ont une dimension macroéconomique : il n’y a pas de marchés sur des créances à très long terme (au-delà d’une maturité de 30 ans, il n’y a guère de titres financiers échangés[1]), le marché des actions est une référence trop étroite pour la mesure du risque économique. On quitte le domaine du risque mesurable par des lois de probabilité classique pour tomber dans ce qu’on appelle l’incertain. De quoi demain sera-t-il fait ? Qu’on songe aux projets de lutte contre le réchauffement climatique, ou, plus modestes dans leur enjeu, aux projets d’infrastructure routière ou ferroviaire. Enfin, l’accumulation de tels projets n’est plus neutre sur le risque global du marché[2].

S’ajoute une dernière difficulté, liée en partie aux politiques monétaires conduites à peu près partout dans le monde : est-ce que le taux de 0,8% qui ressort des emprunts souverains français donne vraiment la bonne mesure du taux sans risque ?

Tout cela n’est pas indifférent, quand on sait le côté diabolique de la capitalisation : vous faites un projet de tunnel sous les Alpes qui coûte un milliard d’euro pendant 30 ans, mais qui rapporte à partir de la 31ème année un milliard par an jusqu’à la nuit des temps. Un tel projet vaut 5 Md€ environ si le taux (réel) est de 2% ; en coûte 10 Md€ à 4%.

L’approche des économistes

La réflexion des économistes remonte très en amont du calcul financier habituel. Elle a été initiée par Frank Ramsey, un philosophe, mathématicien et élève de Keynes en économie, qui aurait peut-être eu l’influence de ce dernier s’il n’était mort prématurément. Une approche complétée par, entre autres noms, John von Neumann, Maurice Allais, Leonard Savage ou Robert Solow. L’angle retenu est résolument normatif : quels sont le gain et le coût du projet du point de vue de la population, ou d’un agent unique qui la représente et qui maximiserait sa satisfaction de façon intertemporelle[3] ?

1- Le point de départ est de bien comprendre le lien entre le taux de croissance de l’économie et le taux d'intérêt. Si l’on veut par exemple investir dans des projets de décarbonisation – dont l’effet se fera sentir à l’échelle de décennies ou de siècles –, le coût et l’utilité pour la population dépendra de son niveau de richesse. Il aurait été absurde de demander à nos arrière-grands parents d’éteindre leur lampe à pétrole au prétexte de leurs émissions de carbone, alors qu’ils étaient considérablement moins riches que nous le sommes. Il est peut-être tout autant absurde de demander que tout l’effort de décarbonisation soit demandé à la génération présente si jamais celles qui suivront sont considérablement plus riches que la nôtre.

L’équité entre générations n’est donc pas l’égalité simple, à savoir un gain identique en montant quel que soit le moment de naissance. Elle n’est pas non plus l’égoïsme intégral, à la Groucho Marx qui disait : « Mais qu’ont fait les générations futures pour nous ? ». Mise fictivement devant le choix du moment de l’histoire où elle veut venir au monde, toute génération aura besoin d’en connaître le niveau de richesse pour juger du poids relatif du gain ou du coût consenti.

Avec cette approche, le bon taux d'actualisation serait simplement le taux de croissance anticipé sur le long terme, soit par exemple 1 ou 2% (réels).

2- Les économistes introduisent depuis von Neumann une notion d’utilité espérée qui pondère dans le temps le gain obtenu. En gros, un euro de gain net me sera plus « utile » si j’ai un patrimoine de 1 que si j’ai un patrimoine de 50. On introduit alors une notion d’élasticité du gain selon le niveau de richesse, qu’on va appeler gamma. Un poids plus important sera donné à la génération présente (donc un taux plus élevé) si l’élasticité est forte. Comme le dit excellement Christian Gollier[4] :

« Si on dispose d'un euro supplémentaire, autant le dépenser là où son effet sur l'utilité est le plus élevé, c'est-à-dire là où nous sommes le moins riche. [...] Plus gamma est élevé, plus il est difficile de demander aux ménages de faire des efforts pour améliorer un futur par ailleurs de toute façon plus confortable que le présent. [...] L'offre de crédit se réduira et le taux d'intérêt d'équilibre sera augmenté. »

On teste empiriquement le niveau de ce gamma. Le problème est qu’il varie beaucoup, entre 1 et 3. Le rapport Stern sur le réchauffement climatique retient un gamma de 1 ; les deux rapports importants qui ont été fait récemment sur le sujet du taux d'actualisation pour les grands projets publics (le rapport Lebègue de 2004 et le rapport Gollier de 2011) retiennent un gamma de 2. Toujours est-il qu’on en arrive à une formule célèbre qui veut que le bon taux d'actualisation soit :

r =  γg, où g est le taux de croissance anticipé de l’économie.

Si g est égal à 1% (un taux pas très éloigné de la croissance séculaire par tête depuis deux siècles), et gamma égal à 2, cela donne un taux d'actualisation de 2%.

Ceci paraît peu élevé, mais il faut voir, pour retrouver les réflexes du financier de base, qu’il conviendrait d’y ajouter l’inflation anticipée ; et également l’effet du levier d’endettement[5], soit environ 2X, ce qui donne un taux d’actualisation de 4% en termes réels et de 8% si on y met une inflation à 2%.

3- Troisième étape, il est coutumier de considérer non simplement le taux de croissance de l’économie, mais le risque attaché à ce taux de croissance. S’il y a beaucoup de volatilité dans la croissance, il est raisonnable de la prendre en compte. Appelons cela une épargne de précaution ou, plus pompeusement, le principe de précaution, qui oblige à diminuer le taux d'actualisation.

Le calcul théorique montre que le facteur de décote lié à ce risque non diversifiable dépend du gamma précédent ainsi que de la volatilité de la croissance, de sorte que le taux ressort à :

Ce troisième effet joue faiblement : si gamma égale 2 et que l’écart-type du taux de croissance est de 4%, il faut décoter le taux précédent de 0,2%, la belle affaire, même si, capitalisée sur un siècle, cette différence peut devenir significative.</p>&#10;<p>&#10;&#9;4- Un débat oppose les experts sur un dernier point, l’opportunité d’introduire une prime de risque, un peu à l’égal de celle qui figure dans le CAPM. Le rapport Lebègue s’y opposait, arguant que les différents projets se mutualisent à l’échelle macroéconomique à travers le temps. Christian Gollier milite pour qu’on le prenne en compte, en utilisant une version plus générale du CAPM, une sorte de bêta macroéconomique<a data-cke-saved-href=" #_ftn6"="" href="#_ftn6" data-cke-saved-name="_ftnref6" name="_ftnref6" title="">[6]. Là encore, l’effet est minime et compense en grande partie l’effet de la volatilité du taux de croissance.

 

Où cela nous conduit-il ?

Ces travaux ont eu la conséquence pratique de pousser les autorités publiques à baisser fortement leurs taux d'actualisation dans l’évaluation de leurs projets. De façon surprenante, le Commissariat au plan d’autrefois en France, dans la préparation de son 9ème Plan en 1985, retenait un taux d'actualisation (réel) très élevé : 6%, relevé à 8%. L’idée était très « néo-libérale », ce qui surprend sachant l’époque politique : on ne voulait pas, par des taux trop bas, que l’État évince l’investissement privé en pompant toute l’épargne du pays pour ses projets propres.

Ce taux est apparu progressivement trop élevé et a soulevé les critiques des élus locaux, qui militaient – rien d’étonnant – pour un usage moins malthusien des fonds publics. D’où en 2004 la mission conduite par Daniel Lebègue qui, avec toute rigueur, préconisa de ramener le taux de 8 à 4% avec une décroissance avec le temps jusqu'à un taux de 2%. En pratique, les pouvoirs publics retiennent aujourd'hui un taux sans risque de 1,5% et une « prime de risque » de 3%, soit 4,5% au total, un niveau contesté par le rapport Gollier. Les États-Unis restent à 7%, la Banque mondiale à 8% et le Royaume-Uni à 3,5% en dessous de 30 ans et 1% au-delà. Le fameux rapport Stern retient un taux (en moyenne[7]) de 1,4% qui a soulevé des polémiques, mais qui reste dans le champ exploré par ce rapide papier.

Et quid pour la finance d’entreprise ? Deux choses. D'abord, il y a peu de raison de perdre le sommeil : les taux d'actualisation bien fondés théoriquement restent dans la norme utilisée habituellement, levier et inflation compris, pour le calcul financier. Ensuite, il est important pour chacun de nous, au moins une fois dans sa vie, de soulever le capot et de voir quels sont les fondements de la formule universellement utilisée depuis Irving Fisher pour les évaluations de projet et d’entreprise, à savoir la somme actualisée des flux nets opérationnels.

 

[1] Dans un papier de 2014, Giglio, Maggiori et Stroebel (« Discounting the very distant future »), dont un résumé figure sur Vox-EU, utilisent les contrats de location / propriété immobilière en Grande-Bretagne, qui sont de type leasehold ou freehold. Les contrats leasehold sont des sortes de baux emphytéotiques d’une durée de 99 à 999 ans, tandis que les contrats freehold sont des baux à perpétuité, assimilables à une propriété pleine et entière. Les contrats leasehold décotent par rapport aux freehold, d’autant plus qu’on se rapproche de leur terme. On en tire un taux d’actualisation. Pour anticiper sur la suite, ce taux (réel) s’établit à 2,6%.

[2] Si l’économie ne fait qu’investir dans des projets dont le bêta est égal à 1,5, le risque de marché s’élève à la longue, ce qui fait que les bêtas de tels projets redescendent vers 1. Le risque financier non diversifiable est en effet une corrélation et non une volatilité.

[3] Que ceux qui s’insurgeraient contre une approche aussi normative et utilitariste de la décision prennent conscience que sans elle on ne peut construire par exemple la notion de valeur actuelle nette, pourtant à la base de la finance.

[4] Gollier Christian, 2005, « Quel taux d’actualisation pour quel avenir ? », Revue française d'économie, vol. 19, n°4, pp. 59-81.

[5] Les comptes de patrimoine de l’INSEE de 2016 indiquent une dette agrégée pour l’économie nationale  de 6,6 Tr€ et des fonds propres agrégés de 2,9 Tr€, soit un levier de 2,3X.

[6] Ce modèle plus général, dit CCAPM (consumption-based capital asset pricing model) depuis l’économiste Robert Lucas, ne prend pas comme référence le rendement du marché boursier mais en quelque sorte le « rendement » de la consommation de pays, i.e. son taux de croissance. Cela conduit à rajouter une prime de risque égale à  Avec un bêta de 1,2, cela aboutit à une prime de risque d’environ 0,4% qui compense le risque sur le taux de croissance de l’économie.

[7] En moyenne, parce qu’il n’y a aucune raison de prendre un taux de croissance uniforme quelle que soit l’activité économique.

 


Commentaire : Commentaires

Régulièrement, nous publions sur les pages Facebook et LinkedIn du Vernimmen[1] des commentaires que nous inspire l’actualité financière. Vous en trouverez quelques-uns publiés le mois dernier dans cette rubrique :

Finance et art

«Fillette à la corbeille fleurie» est un tableau de Picasso (période bleue, mais qui annonce la période rose) que celui-ci, désargenté et refusant d’exposer dans des salons céda en 1905 aux collectionneurs américains vivant à Paris Léo et Gertrude Stein pour 150 francs de l’époque. Acquis en 1968 par Peggy et David Rockefeller, il vient d’être cédé pour 115 M$, montrant un taux de rentabilité interne, sur une durée de 113 ans, de 14,4 % par an.

Puissance des intérêts composés sur une longue période. Ironie de l’histoire, il a été vendu par Christie’s dans ses locaux new yorkais du Rockefeller Center, que la famille fit construire à la fin des années 1920 et dans les années 1930 pour un montant à l’époque (250 M$) d’environ deux fois le prix facial actuel de ce tableau.

La famille Rockefeller est originaire de France (les Rocquefeuille) qu’elle quitta au moment de la révocation de l’édit de Nantes pour émigrer en Allemagne, puis après aux Etats-Unis. Elle contribua financièrement à la restauration de la cathédrale de Reims après la première guerre mondiale, des châteaux de Versailles et de Fontainebleau et à la construction de la Cité internationale à Paris (logement d’étudiants). David Rockefeller (mort à 101 ans en 2017), qui fut le président de la Chase Manhattan Bank dans les années 1970, contribua à sortir de l’extrême dénuement l’île antillaise de Saint Barthélémy en lui révélant sa vocation touristique. La lecture de ses mémoires, traduites en français aux éditions de Fallois (2006), est très intéressante.

 

Nouvelle limitation de la déductibilité des frais financiers en vue

Du fait des évolutions du droit européen et des travaux de l’OCDE relatifs à la lutte contre l’érosion de la base d’imposition et le transfert de bénéfices (BEPS), plusieurs mesures de réforme de l’impôt sur les sociétés sont envisagées par le gouvernement français, dont une limitation de la déductibilité des frais financiers nets à 30 % de l'EBE lorsqu'ils dépassent 3 M€.
Rappelons qu'actuellement en France, les frais financiers nets des produits financiers dépassant 3 M€ ne sont déductibles qu'à hauteur de 75 % de leur montant.
L'Allemagne depuis quelques années, les États-Unis depuis la réforme fiscale Trump, mais aussi l'Espagne et l'Italie ont adopté cette disposition de limitation à 30 % de l'EBE.
Cette disposition a de bonnes chances d'être adoptée dans un souci d'harmonisation entre pays et de lutte contre l'optimisation fiscale. D'un point de vue financier, nous regretterons le passage du dispositif actuel qui remet en cause pour toutes les entreprises, au moins partiellement, la déductibilité des frais financiers, à un dispositif moins strict. En effet, la déductibilité fiscale constitue un avantage fiscal dont ne bénéficient pas les capitaux propres, ce qui pousse à l'endettement, alors même que l'endettement constitue un facteur de fragilisation des entreprises[2]. Le nouveau dispositif ne remettra en cause la déductibilité des frais financiers que pour les entreprises les plus endettées (les LBO) ou celles qui enregistrent une chute de leur EBE et qui sont en difficulté de ce fait, mais ne concernera pas la vaste majorité des entreprises.


Question posée lors d'un entretien de recrutement
Quel est le coût du capital de la Caisse des dépôts ? Question posée par Edouard Philippe, Premier ministre de la France à l'impétrant Eric Lombard qui répondit : je ne sais pas. Ce qui ne l'empêcha pas d'obtenir le poste. Comme quoi dans ce type de situation, la franchise est payante.

 
Il est vrai que le coût du capital de la Caisse des dépôts n'est pas aisé à calculer compte tenu de la diversité de ses métiers : logement social, portefeuille diversifié d'actions, BPI France, filiales contrôlées dans l'aménagement du territoire, les infrastructures et les transports en commun avec des investissements à très long terme. Comme tout lecteur du Vernimmen le sait[3], il y a autant de coûts du capital dans un groupe que de métiers différents, plus un pour le coût du capital global.
On peut présumer que le premier ministre s'intéressait au coût du capital des investissements à très long terme de la Caisse des dépôts. Pour cela, nous lui conseillons la lecture de l’article qui suit.

On se félicitera enfin que le Premier ministre d'un pays sache ce qu'est le coût du capital !


 

 



Facebook Google + Twitter LinkedIn