La Lettre n°81 de Novembre 2009

Actualités : Le risque dans la décision d'investissement industriel
par Morgan Franc et Grégoire Paepegaey

La recherche existante en matière de choix d’investissement concerne principalement l’achat de produits financiers ou la croissance externe, plus susceptibles de constituer des objets d’étude systématique car présentant une plus grande homogénéité que les investissements industriels, ne serait-ce qu’en termes de processus. Les investissements destinés à favoriser la croissance organique sont en effet tellement multiformes en raison de la grande diversité des activités économiques qu’il est difficile de les étudier sans s’intéresser à un secteur spécifique.

Choix technologiques, orientation vers de nouveaux segments, expansion géographique… : les investissements industriels sont pourtant au cœur de la constitution par l’entreprise d’un avantage compétitif durable, et revêtent à ce titre une importance stratégique de premier plan.

Comme tout investissement, les capex exposent l’entreprise au risque que constituent des bénéfices futurs, donc incertains en montant et en temps, en opposition à une dépense immédiate. Le processus de décision ne peut ignorer cette incertitude, qui est même au cœur de son raisonnement. La seule certitude du décideur au moment d’approuver définitivement le lancement d’un projet d’investissement est que le business plan est soumis à tant d’aléas et de facteurs incertains que la probabilité qu’il se réalise de manière exacte est infime, négligeable.

Une série d’entretiens avec des cadres dirigeants (directeurs financiers, directeurs de la stratégie ou directeurs des investissements) de grands groupes français tente de décrire la façon dont ces groupes prennent en compte les incertitudes qui pèsent sur les variables économiques d’un projet quand ils doivent décider ou non de sa mise en œuvre.

Le processus de décision

La décision d’investissement est en général du ressort d’un comité d’investissement établi au plus haut niveau du groupe, composé du directeur général et/ou du directeur financier (ou de leurs adjoints) et des dirigeants des différentes lignes de métiers. Certains groupes disposent d’un comité ad-hoc tandis que dans d’autres ces décisions de capex relèvent directement du comité exécutif. De plus, le comité d’investissement doit en général obtenir l’autorisation du conseil d’administration ou de surveillance dès que le montant du projet dépasse une valeur prédéfinie.

Le comité d’investissement au niveau groupe n’est toutefois consulté que lorsque la valeur des projets dépasse un certain seuil. Des projets plus modestes peuvent être autorisés à des niveaux inférieurs, fonctionnels ou géographiques. Il convient également de souligner qu’un projet présenté au plus haut niveau a été validé à des niveaux de décision intermédiaires, plus ou moins nombreux selon les groupes : il peut exister des comités d’investissement au niveau métier, zone géographique, pays, etc.

Le Vernimmen est utile (1)

Les projets d’investissements sont de manière très classique analysés à la lumière des indicateurs génériques que fournit la théorie financière, parmi lesquels TRI, VAN, et temps de retour (« Payback ») sont les plus utilisés.

Le TRI demeure le critère le plus utilisé pour la décision finale relative à un projet, qui est jugé en fonction de valeurs cibles. Certains groupes diffusent amplement les valeurs cibles au sein du groupe en insistant sur leur importance (le but étant que les échelons intermédiaires opèrent une sélection aussi rigoureuse que possible), tandis que d’autres préfèrent les laisser à la discrétion du Comité d’investissement : dans ce cas, c’est ce comité qui en fonction des grandes caractéristiques du projet (activité, géographie) fixe un TRI cible qu’il estime requis. Cette diffusion limitée de la valeur cible vise à éviter que les opérationnels n’arrangent leurs calculs pour atteindre les valeurs demandées s’ils les connaissent.

La VAN est utilisée par de nombreuses entreprises mais demeure toutefois l’objet de nombreuses critiques. D’un point de vue technique, elle est très sensible à la valeur terminale, d’autant plus quand le montant investi est relativement faible. Cette grande variabilité en fait un indicateur souvent jugé peu fiable. Certains groupes préfèrent donc étudier la VAN à 5 ans, ce qui équivaut à étudier le Payback. Un autre inconvénient de la VAN est qu’elle fournit une valeur absolue qui n’est pas « parlante » (à l’opposé d’un pourcentage comme le TRI ou d’un nombre d’années comme le Payback). Il est difficile de lui appliquer un critère de décision, si ce n’est bien sûr d’exiger qu’elle soit positive. De nombreux groupes ont alors recours à un ratio normé de type VAN sur Investissement ou VAN à 5 ans sur Investissement. Il est alors possible de définir une valeur cible afin d’obtenir un critère de décision plus explicite.

Malgré la prépondérance du TRI, le Payback est un indicateur très utilisé par les décideurs, en dépit de ses nombreuses insuffisances théoriques. Il a en effet l’avantage d’être un outil simple dont on sait qu’il n’échappe pas à la compréhension des opérationnels C’est certainement l’indicateur le plus intuitif : à quelle vitesse le montant investi va-t-il être récupéré ?

Choisir le Payback comme l’un des indicateurs servant de critère de décision constitue donc également pour les dirigeants un choix de management destiné à aider les gestionnaires du projet et leurs équipes à mieux intégrer et maîtriser les exigences du Comité d’Investissement. Ainsi, si le Payback est  un critère essentiel pour les investissements de faible montant pour lequel la VAN et le TRI sont souvent peu significatifs, il est aussi également utilisé par des groupes opérant dans des secteurs plus capitalistiques.
Il permet en effet aux entreprises de mieux gérer leur allocation de trésorerie entre les différents projets en anticipant sur le délai de récupération de chacun d’eux. Ceci est particulièrement précieux lorsque l’accès aux capitaux est difficile mais aussi lorsque l’investissement est intrinsèquement plus risqué en raison de l’activité ou de la géographie concernée.

Business Plan is King

Le calcul de ces indicateurs repose intégralement sur l’élaboration d’un plan d’affaires détaillé. Les hypothèses sur lesquelles il repose constituent donc un élément central de la prise en compte du risque, puisqu’il est évident que l’on peut toujours parvenir à un résultat susceptible d’être accepté par l’organe de décision « grâce » à un certain laxisme sur ces hypothèses. Les dirigeants insistent donc sur l’absolue nécessité qu’une réflexion des plus rigoureuses et approfondies préside à l’élaboration de ce business plan. Il s’agit à ce titre pour les managers d’agir en amont afin d’inculquer aux opérationnels une véritable culture du business plan à tous les échelons de la gestion de projet. Aucune hypothèse ne doit être prise au hasard, et doit résulter d’une mûre réflexion articulée à la connaissance du secteur. Il existe parfois au sein du groupe une équipe spécialisée qui assiste les gestionnaires de projets dans la réalisation du business plan, qu’il s’agisse d’en vérifier la cohérence ou de préciser certaines hypothèses qui nécessitent une compétence particulière. Certaines entreprises ont quant à elles recours à des conseils extérieurs (consultants, banquiers) pour faire valider leurs principales hypothèses. Une telle intervention extérieure a le mérite d’éviter que la réflexion ne se fasse en circuit fermé.

Nombreux sont les groupes au sein desquels ce business plan se décline en scénarios : scénarios microéconomiques qui consistent en une étude de sensibilité des hypothèses directement liées au projet (volumes, prix, capex notamment) et scénarios macroéconomiques qui analysent la rentabilité du projet selon différentes valeurs de certains facteurs externes (prix des matières premières, cours mondiaux des produits vendus, évolution de la structure concurrentielle du marché, évolution du contexte légal ayant une influence sur les prix, etc.).

Ces scénarios micro et macroéconomiques relèvent en fait d’approches respectivement bottom-up et top-down : le scénario microéconomique est bottom-up car il consiste à agréger des chiffres à un niveau très opérationnel (exemple pour la distribution : chiffre d’affaires par marque et par magasin, que l’on additionne pour construire le CA total), tandis que l’approche macroéconomique est top-down puisqu’elle revient à appliquer à la ligne de BP l’effet de la variation d’un agrégat (exemple pour l’énergie : impact direct des variations des cours des matières premières sur le CA). Si ces deux approches peuvent se combiner, les spécificités sectorielles conduisent en général à donner à l’une une prépondérance sur l’autre, ainsi que cet exemple vient de l’illustrer.

Lorsque les hypothèses macroéconomiques sont très structurantes (c’est typiquement le cas dans le secteur de l’énergie ou des matières premières), celles-ci sont établies à un niveau de décision très élevé dans le groupe, en général peu éloigné du comité d’investissement, voire par le comité d’investissement lui-même. Ces hypothèses sont ensuite utilisées par les opérationnels pour analyser les différents « états du monde » ainsi définis ainsi que les scénarios microéconomiques, et ce pour tous les projets.

En ce qui concerne ces scénarios microéconomiques, les groupes ont souvent recours au classique triptyque scénario cas de base, optimiste, pessimiste. Les dirigeants préfèrent utiliser ces 3 scénarios dont le principe est très intuitif plutôt que des simulations de Monte Carlo ou autres simulations utilisant des lois de probabilités.

Ainsi, l’opérationnel reste maître de son projet et ne peut en cas d’échec s’abriter derrière la multiplicité de cas présentés par l’étude de trop nombreux scénarios. Dans certaines entreprises, il est demandé au chef de projet de ne fournir qu’un seul scénario et de ne faire figurer les analyses de sensibilités qu’en simple annexe. L’opérationnel doit ainsi s’engager sur un scénario et prend donc ses responsabilités en présentant le projet au Comité d’Investissement. L’enjeu est là encore managérial : outre la rigueur de l’analyse, il s’agit de s’assurer que le promoteur du projet a intérêt à la bonne exécution de celui-ci plus qu’à sa simple approbation.
Au-delà de ces tendances communes à la quasi-totalité des entreprises rencontrées, un certain nombre de facteurs détermine toutefois des différences notables d’un groupe à l’autre concernant la prise en compte de l’incertitude économique qui accompagne les projets de capex.

La fable de la centrale nucléaire et du magasin

L’importance de l’intensité capitalistique est un facteur très intuitif et évident mais dont la réalité est apparue de façon très nette. L’existence d’un petit nombre de projets très structurants pour l’entreprise (avec des conséquences potentiellement très graves en cas d’échec) conduit à une relation au risque beaucoup plus attentive que dans les groupes où les capex sont d’une extrême granularité, par exemple l’ouverture par les groupes de distribution d’un grand nombre de magasins pour des montants unitaires modérés au cours d’une même année.


Dans ce dernier cas, les accords intermédiaires que doit obtenir l’investissement sont peu nombreux comparés aux multiples comités qui statuent sur la poursuite ou non d’un projet lorsque celui-ci est très capitalistique, s’appuyant notamment sur de multiples études de faisabilité. Jusqu’au dernier échelon que constitue le Comité d’investissement, ou exécutif, des scientifiques ou ingénieurs sont alors susceptibles de devoir intervenir pour justifier l’utilisation d’une hypothèse donnée.

Les caractéristiques propres au secteur d’activité constituent également un facteur déterminant, qu’il s’agisse des matières et produits sous-jacents ou des dynamiques de marché. Ainsi, au sein des groupes énergétiques, les études très scientifiques (géologiques par exemple) sont déterminantes dans l’évaluation du risque et dans sa prise en compte dans le business plan, le plus souvent par l’intermédiaire de probabilités. La pharmacie et parapharmacie utilisent également les probabilités de façon notable. Dans la pharmacie, elles sont utilisées pour modéliser les conséquences sur le chiffre d’affaires du succès ou non d’un médicament aux différentes étapes réglementaires qui précèdent sa commercialisation ou de la perte d’un brevet.

Dans la parapharmacie ou la parfumerie, le chiffre d’affaires est sans cesse remis en cause par les modes changeantes qui rendent les produits rapidement obsolètes, incitant les entreprises à développer un portefeuille de produits variés. Des arbres de décision sont souvent alors souvent utilisés pour envisager les investissements non pas de manière isolée mais mutuellement exclusifs, de manière à intégrer dans l’analyse le coût d’opportunité que représente le choix du développement d’un produit par rapport à un autre, en temps et en énergie, ce qui se traduit in fine en chiffre d’affaires.

Les investissements informatiques apparaissent comme particulièrement épineux pour les décideurs financiers. D’une part comme tous les investissements « support » (même si les outils informatiques sont bien sûr cruciaux dans la plupart des activités), leurs bénéfices ne se chiffrent pas de manière aussi facile que ceux d’investissements plus proches des clients, plus directement liés à la production ou à la vente, tandis que leurs coûts restent eux bien certains, et souvent conséquents. D’autre part en raison de la technicité qui leur est propre, le dialogue entre décideurs et opérationnels est parfois plus compliqué.

Culture des procédures contre nature des hommes

La culture d’entreprise est également très importante dans l’appréhension du risque. Certaines entreprises ont développé des procédures très formelles de prise en compte du risque en construisant des modèles et définissant des variables clés de manière extrêmement approfondie. Ceci permet d’encadrer et de flécher au maximum les analyses à mener, afin de réduire autant que possible la part de biais introduite par la personnalité des responsables de projets, qu’il s’agisse d’un optimisme forcené destiné à obtenir l’approbation à tout prix, ou d’un pessimisme du type « fausse modestie » visant à garantir au responsable du projet un dépassement des objectifs forcément flatteur. De nombreux dirigeants admettent tenir compte de leur connaissance des hommes lors de la décision d’investissement ; certains groupes font à l’inverse le choix délibéré de procédures extrêmement précises pour ne laisser aucune prise à cette part de subjectivité.

It’s not losing money, it’s strategic
L’évaluation du risque, si minutieuse et rigoureuse soit-elle, laisse toutefois souvent la place à une dimension stratégique qui conduit le plus souvent à transiger sur les critères définis a priori par l’entreprise. Cela semble relever d’un pragmatisme évident et tout décideur qui n’orienterait l’investissement de son groupe qu’au vu des seuls critères financiers de chaque projet serait sans aucun doute taxé, à bon escient, de dogmatisme et de manque de vision. Il convient toutefois de s’assurer que cette concession sur la rentabilité dispose bien du potentiel effet de levier que constituera l’avantage stratégique apporté par le projet, et qu’elle ne témoigne pas de conséquences potentiellement très graves pour l’entreprise en cas d’échec. Accepter des gains limités dans un premier temps afin de garantir par la suite une position forte sur un marché considéré comme essentiel est toutefois souvent nécessaire pour un groupe, et reconnu comme tel par ses dirigeants.

Une prise de risque inévitable

Si les groupes peuvent entreprendre des actions de type contractuelles (assurance, volume ou prix garanti…) pour couvrir une partie des risques d’un investissement, une part importante de l’incertitude demeure, car liée à des facteurs externes sur lesquels l’entreprise n’a aucun levier d’action.

Elle ne peut donc qu’être réduite, mieux appréhendée au travers d’une analyse précise et consciencieuse, mais jamais éliminée. Le dirigeant de l’entreprise sait qu’il est de ses responsabilités de prendre des risques en investissant car ce sont ces risques pris aujourd’hui qui apporteront des bénéfices à long terme.

(1) En particulier son chapitre 34 (édition 2010).



Tableau : Les taux d'impôt dans le monde


Pour la première fois depuis très longtemps, les taux d’impôt dans le monde, après 16 années de baisses continues, se sont stabilisés aux environs de 25 %, et un peu moins dans l’Union Européenne (en raison des pays ayant rejoint ce groupe récemment). Il n’est pas besoin d’être un grand clerc pour prévoir qu’il en sera de même l’an prochain tant les besoins financiers des Etats sont importants !






Recherche : Les introductions en bourse

L'article auquel nous nous intéressons ce mois- ci présente une méthode originale pour conduire une introduction en bourse (1). Les auteurs décrivent et analysent en profondeur la mise sur le marché de la société française Pages Jaunes, filiale de France Télécom, en 2004. La procédure choisie par France Télécom diffère par plusieurs aspects de celle généralement employée. Les auteurs la désignent par l'expression competitive IPO, ou mise sur le marché concurrentielle.

Dans une procédure classique d'introduction en bourse, appelée placement global, la banque qui conduit l'opération est désignée tôt, plusieurs mois avant la date de mise sur le marché. Elle assiste la société émettrice dans l'ensemble des travaux préparatoires (rédaction du prospectus notamment) avant la phase de marketing puis de constitution du livre d'ordres (2). Avant d’être désignée comme chef de file de l'opération, la banque d'investissement présente sa connaissance du secteur, son degré d’accès aux investisseurs, mais également son avis sur le prix d'introduction. Ce prix n'engage pas la banque : elle a donc intérêt à annoncer un chiffre élevé, quitte à expliquer au moment du marketing que les conditions du marché se sont détériorées. Ce phénomène est connu sous le nom de bait and switch (on appâte l’émetteur avec un prix élevé, et on change le prix après avoir obtenu l’affaire). En revanche, au moment de l’émission, le prix proposé doit être conforme au marché (voire légèrement sous-évalué), la banque garantissant le prix obtenu jusqu’au règlement/livraison.

A l’issue de l’opération, les banques reçoivent des commissions proportionnelles au montant de l’émission : de 2% à 4% en Europe, entre 4% et 7% aux Etats-Unis. Ce montant est lui-même divisé en trois : 20% pour la gestion de l’émission, 20% pour la garantie, et 60% pour le placement des titres.

Le choix d’une procédure originale pour l’introduction de Pages Jaunes est lié à une situation particulière. La maison mère France Télécom avait décidé de sortir de la cote Wanadoo en rachetant toutes les actions détenues par les actionnaires minoritaires. Or, Pages Jaunes était elle-même détenue à 100% par Wanadoo. Pour le retrait de cote de Wanadoo, la valorisation implicite de Pages Jaunes avait été de 3,96 milliards d’euros. Si Pages Jaunes était ensuite introduite à un prix trop faible, les actionnaires de France Télécom auraient considéré avoir été floués dans l’opération de rachat des minoritaires de Wanadoo. Si, à l’inverse, le prix était beaucoup plus élevé, France Télécom s’était engagée à verser un complément de prix aux actionnaires minoritaires de Wanadoo qui venaient d’être rachetés.

Il était donc très important pour France Télécom que la valorisation de Pages Jaunes soit la plus juste possible. Les dirigeants voulaient notamment éviter le bait and switch. Ils décidèrent, avec l’aide d’une banque-conseil, de mettre en place une procédure dans laquelle les rôles de préparation et de placement ne seraient plus automatiquement dévolus à la même banque.

La première particularité de cette opération fut donc la nomination tardive des banques ayant en charge la constitution du livre d’ordres (bookrunners), c'est-à-dire du placement. Les banques chargées de préparer l’opération, n’ayant plus l’assurance de la mener à son terme, n’étaient plus incitées au bait and switch. Neuf banques furent chargées de démarcher les investisseurs et de proposer ensuite une fourchette de prix étroite (pas plus de 10% entre le minimum et le maximum). Cinq furent retenues pour le placement des titres ; furent éliminées les deux fourchettes les plus basses, mais également les deux fourchettes les plus élevées (jugées irréalistes) (3).

La commission payée fut également différente de la procédure habituelle. A une commission de base de 1,75% (répartie comme habituellement) fut ajoutée une commission incitative de 1% destinée à rémunérer les banques parvenues à placer les titres en haut de la fourchette annoncée par la banque. Annoncer une fourchette trop basse faisait perdre l’affaire à la banque, en annoncer une trop haute lui faisait perdre une partie de sa commission.

Le résultat de cette opération fut globalement satisfaisant pour France Télécom. La mise sur le marché fut sursouscrite deux fois, et la performance boursière de Pages Jaunes dans les 6 premiers mois fut en ligne avec son secteur.

Il convient néanmoins de ne pas généraliser l’efficacité de cette procédure. Pages Jaunes était dans une situation particulière (une technologie simple, des flux de trésorerie réguliers, ne nécessitant pas une phase de préparation complexe) et avec un objectif particulier (un prix juste dès le début de la procédure). D’autres introductions en bourse concurrentielles ont eu lieu depuis, avec des succès divers, chaque fois avec un montage spécifique.

Alors que se prépare très activement une reprise des introductions en bourse, la véritable leçon à tirer de la mise en bourse de Pages Jaunes pour les dirigeants est de ne pas se sentir prisonniers des procédures classiques lorsqu’ils poursuivent des objectifs spécifiques.

Plus généralement, elle illustre que l’introduction en bourse est une opération complexe avec des conflits d’intérêts réels nombreux : entre les actionnaires qui vendent et les investisseurs qui achètent ; entre les banques, la société introduite, les actionnaires qui vendent et les investisseurs qui vont acheter : pour qui les banques travaillent-t-elles réellement ?


(1) T.JENKINSON et H.JONES (2009), Competitive IPOs, European Financial Management, vol.15, n°4, pages 733 à 756.
(2) Pour une description plus complète du placement global, voir le Vernimmen 2010, page 621
(3) En pratique le bait and switch ne fut pas totalement éliminé : les fourchettes proposées par les neuf banques après la phase de pré-marketing étaient en moyenne de 3% inférieures à celles qu’elles avaient annoncées avant cette phase, lors d’une procédure de présélection. Le marché fut légèrement haussier sur la même période.



Q&R : Qu'est-ce que la méthode des scores ?


La méthode des scores, ou credit scoring, est une technique d’analyse destinée à diagnostiquer préventivement les difficultés des entreprises.

L’idée de base est de déterminer, à partir des comptes des sociétés, des ratios qui soient des indicateurs avancés (2 à 3 ans à l’avance) des difficultés des entreprises. Une fois ces ratios établis, il suffit de calculer leurs valeurs pour une entreprise donnée et de les comparer à la valeur des ratios des entreprises ayant connu des difficultés ou des défaillances. La comparaison ne s’effectue pas ratio par ratio, mais globalement. En effet, les ratios sont agrégés dans une fonction, appelée Z ou fonction score, qui permet de donner pour chaque entreprise une note, le score. La formule Z a en général la forme suivante :



où a est une constante, Ri les ratios, βi le poids relatif attaché au ratio Ri et n le nombre de ratios retenus.

Selon que le résultat de la fonction pour une entreprise est proche ou éloigné de valeurs normatives déterminées sur un échantillon d’entreprises ayant connu des difficultés, on estime que l’entreprise étudiée a une certaine probabilité de connaître, d’ici 2 à 3 ans, des difficultés ou au contraire d’être saine.

Développée aux États-Unis à la fin des années 1960 par E. Altman, la famille des scores Z a connu un vif succès, la dernière version Z’’ était la suivante : Z’’ = 6,56 X1 + 3,26 X2 + 6,72 X3 + 1,05 X4, avec :

X1 = BFR rapporté au total de l’actif ;
X2 = résultat mis en réserve rapporté au total de l’actif ;
X3 = résultat d’exploitation rapporté au total de l’actif ;
X4 = montant des capitaux propres rapportés aux dettes totales.


Si Z’’ est inférieur à 1,1 la probabilité de défaillance de l’entreprise est élevée ; si Z’’ est supérieur à 2,6 la probabilité de défaillance de l’entreprise est faible, la zone grise se situant entre 1,1 et 2,6.

La Banque de France sur la base de la centrale des bilans a également développé une méthode des scores pour déterminer les sociétés présentant le plus de probabilité de devoir faire face à des difficultés financières.

La méthode des scores constitue un enrichissement de l’analyse traditionnelle par ratios, qui repose sur l’utilisation isolée de certains d’entre eux. Dans la méthode des scores, le problème du poids relatif à accorder à chaque ratio est résolu, car chaque ratio est pondéré en fonction de son pouvoir de discriminer les « mauvaises » entreprises des «bonnes».

Elle présente cependant un certain nombre de limites. Certaines tiennent à la construction statistique de la fonction score : l’échantillon de travail doit être suffisamment vaste, les données de base précises et homogènes, la période d’étude doit être suffisamment longue pour permettre de saisir l’évolution du comportement des entreprises et d’en mesurer les effets.

La fonction score est nécessairement établie sur des données historiques plus ou moins récentes et doit nécessairement évoluer.

La conception des fonctions scores est très marquée par la préoccupation de leurs auteurs : mesurer le risque de défaillance pour les PME. Elles sont donc inapplicables pour un tout autre objet (détecter à l’avance des entreprises très rentables…) ou pour mesurer le risque de défaillance des grands groupes. L’application d’une fonction score doit être limitée aux entreprises d’activité et de taille correspondant à celles de l’échantillon d’origine.

La conception des fonctions scores est très marquée par la préoccupation de leurs auteurs : mesurer le risque de défaillance pour les PME. Elles sont donc inapplicables pour un tout autre objet (détecter à l’avance des entreprises très rentables…) ou pour mesurer le risque de défaillance des grands groupes. L’application d’une fonction score doit être limitée aux entreprises d’activité et de taille correspondant à celles de l’échantillon d’origine.

La méthode des scores, méthode synthétique, simple et rapide est attractive. Son développement même peut entraîner un effet pervers déterministe ; la connaissance a priori d’un risque de défaillance (objectif de la méthode des scores) peut entraîner chez les partenaires de l’entreprise des comportements accélérant le processus de dégradation : les fournisseurs refusent de vendre à crédit, les banquiers réduisent leurs encours, les clients se font plus rares craignant de ne pas pouvoir être livrés ou de ne pas disposer de service après-vente…

Notons que les exigences imposées par les nouvelles règles de solvabilité pour les banques (Bâle 2) ont donné un nouvel élan aux méthodes des scores.

Pour plus de détails, voir le chapitre 9 du Vernimmen 2010.

*********** MULTIFRACTAL VOLATILITY ***********
Theory, Forecasting, and Pricing
par Laurent E. Calvet et Adlai J. Fisher
Elsevier Academic Press

Dans ce nouvel ouvrage, Laurent Calvet et Adlai Fisher présentent une nouvelle approche pour modéliser et prévoir la volatilité des actifs financiers, qui s’inspire de l’utilisation des multifractales en mathématiques et en sciences de la nature. Une vaste littérature (e.g., Engle 1982) spécifie la volatilité comme la moyenne de chocs passés, parfois avec une composante bruitée.

Cette approche traditionnelle capture assez mal les forts mouvements observés dans les prix et la volatilité des actifs. Se fondant sur l’intuition que certains phénomènes économiques sont persistants alors que d’autres sont plus transitoires, Calvet et Fisher démontrent l’intérêt de modéliser la volatilité comme un processus soumis à de brutaux changements de régimes de durées hétérogènes. Le modèle qui en résulte, le  Markov-Switching Multifractal (MSM), est aisé à estimer et améliore de façon très significative les prévisions des meilleurs modèles actuellement utilisés, tels que GARCH et GARCH fractionnaire. Laurent Calvet et Adlai Fisher exposent à la fois les fondements de la théorie et ses applications empiriques. L’ouvrage introduit le modèle de façon accessible et intuitive dans les premiers chapitres, puis se poursuit par une formulation en temps continu et des méthodes de pricing dans les derniers chapitres. Le livre contient un avant-propos de John Y. Campbell, l’ancien président de l’American Finance Association.

Laurent E. Calvet est Professeur de Finance à HEC Paris et Faculty Research Fellow au National Bureau of Economic Research (USA). Adlai J. Fisher est Professeur Associé de Finance à l’université de British Columbia.Au sommaire de la Vernimmen.com Newsletter
de novembre 2009    



Autre : NOS LECTEURS ECRIVENT : Faut-il même des bonus ? Incitations, comportement au travail et éthique
par François Meunier

Reconnaissons qu’on assiste depuis deux ou trois décennies à une généralisation du système des rémunérations variables dans les entreprises. Plutôt qu’un revenu fixe (ou dépendant d’une simple variable d’effort comme le nombre d’heures travaillées ou d’expérience comme l’ancienneté dans le poste), les entreprises mettent en place des rémunérations indexées sur la performance ou les résultats du salarié. Ce que pour la suite de cette note, j’appellerai un contrat salarial « variable » par rapport à un contrat fixe. C’est une évolution que probablement les membres de la DFCG jugent favorablement, même s’ils connaissent bien les questions que ces modes de rémunération posent :
 
1- Comment mesure-t-on la performance ?
2- Quelle est la part de l’effort ou de la chance ?
3- Quelle est dans la performance la part du court terme et du long terme ?
4- Quelle est la part de la contribution collective et de la contribution individuelle ?

Un article passionnant d’une dernière livraison du prestigieux Journal of Finance (1) m’invite à regarder plus attentivement la 4e question. Le salarié est en effet un « animal social », muni de valeurs et pour qui une vision économique réductrice tend à définir un comportement rationnel comme étant un comportement égoïste. Or, les motivations des salariés sont autrement complexes. Il est utile de distinguer les incitations « externes », celles qui proviennent de stimuli extérieurs aux salariés, typiquement un contrat salarial variable, et les incitations « internes », telles que le sont les motivations profondes du salarié, son plaisir au travail, son goût de l’effort, ses valeurs personnelles, etc. Jusqu'à une date récente, les économistes laissaient ce champ d’analyse de côté, et, sachant leur déraisonnable pouvoir d’influence, conduisaient les DRH du monde entier à ne penser qu’en termes d’incitations externes. Il est heureux que Jean Tirole, un des très bons économistes que compte le pays, en fasse à présent un de ses domaines d’étude (2).

La question est d’autant plus importante qu’il est très possible qu’un poids excessif donné aux incitations externes, comme le fait un contrat salarial trop variable, puisse atrophier les incitations internes que tout salarié peut avoir. Les exemples abondent : les États-Unis vivent depuis longtemps avec un système de collecte du sang où les donneurs sont rémunérés (c'est-à-dire ne sont pas des donateurs) alors que les pays européens comptent davantage sur l’altruisme des gens. Le Royaume-Uni, toujours sous les influences qu’on devine, a tenté d’introduire le système rémunéré dans le pays. Résultat : la collecte du sang a baissé. Si je dois vendre mon sang, est-ce le bon prix ou la bonne compensation, pense immédiatement l’homo œconomicus, puisque seule cette partie de son cortex cérébral est sollicitée ? On cite aussi les citoyens suisses qu’on a cherché à rémunérer pour qu’ils tolèrent l’installation d’un aéroport près de chez eux : ce qui était acceptable dans l’espace « citoyen » devient négociable et marchandable quand on passe dans la sphère économique étroite.

La réaction est immédiate : « Non ! On ne me fera pas suporter le bruit pour une somme aussi faible ! ». Un dernier exemple est abondamment cité (3) : agacé du retard des parents d’élèves à venir chercher leurs loupiots en fin de journée, un instituteur israélien avait instauré un système de pénalités : 20 shekels par demi-heure de retard.

Le résultat n’étonnera personne : les retards se sont accentués, le lobe citoyen des parents d’élève étant mis en sommeil au profit du lobe du calcul économique qui compare immédiatement la pénalité au prix d’un baby-sitter.

Plus proche de l’entreprise, il arrive souvent qu’il faille mettre un coup de collier sur un projet donné. Si le sens de l’effort collectif fait partie des valeurs et du pacte social de l’entreprise, cela se fait assez aisément. Les compensations se trouvent ailleurs. Contractualiser cet effort, par exemple en négociant un dédommagement financier pour venir travailler un samedi ou deux heures de plus (ce qui est souvent nécessaire dans des entreprises de taille importante), transforme le contrat implicite de l’entreprise : pourquoi désormais consentir un effort s’il n’est pas spécifiquement rémunéré ? Que penseront alors les salariés qui dans d’autres départements de l’entreprise travaillent avec autant de détermination mais sans rémunération spécifique, si cela est considéré comme la normalité ? La rémunération spécifique et individualisée a le contre-effet de favoriser une culture du chacun pour soi ou de la comptabilité au centime près de l’effort fourni.

De la même façon, l’incitation externe peut ne pas être cohérente avec d’autres incitations ou messages envoyés au salarié. Un bon exemple de ce danger est l’adoption par les constructeurs automobiles de Détroit des « cercles de qualité » mis à l’honneur par les constructeurs japonais, Toyota en premier lieu, pour accroître l’efficacité des salariés et pour les encourager à des innovations de productivité. Ces cercles de qualité ont été un échec cuisant à Détroit parce que General Motors, Ford et Chrysler n’avaient pas anticipé que les salariés hésiteraient à suggérer des gains de productivité. En effet, dans le contexte des relations salariés / employeurs courantes à Détroit, gain de productivité signifie licenciements économiques. Seul un cadre crédible sur la durée de maintien de l’emploi, comme le font les grandes entreprises japonaises avec leur système d’emploi à vie, le permettait.

L’importance de l’éthique professionnelle

Indépendamment de toute incitation externe, les salariés que nous sommes s’imposent tous les jours des freins à leurs comportements : on travaille bien, on ne triche pas, on ne « coule » pas, etc. Si la rémunération est perçue comme le seul moyen d’éviter ce type de comportement, l’entreprise s’expose à des comportements mercenaires.

D’où viennent les limites que s’imposent les salariés ? De l’éducation, de la société, de l’émulation du groupe, etc. Cela peut provenir aussi de l’entreprise elle-même si elle valorise les comportements faits de droiture ou d’honnêteté, ce qu’on peut appeler la vertu, pour restaurer ce mot aux connotations pré-classiques, avant qu’émerge la notion d’ « intérêt » liée à la montée du capitalisme. L’agent vertueux, dans cette acception, sait et fait savoir par son comportement sur la durée qu’il agira de telle façon, y compris dans des situations dans lesquelles il n’est pas optimum pour lui de le faire. Une rémunération variable ne lui est pas nécessaire pour cela, voire comme on l’a vu peut jouer à l’inverse.

De telles structures de motivation présentent aussi un intérêt pour l’entreprise :
• ne peut- elle pas diminuer ses charges salariales à avoir des contrats salariaux moins variables, en se reposant davantage sur le bon comportement professionnel ou moral de ses employés ? De plus, la fixité salariale est une forme d’assurance du salarié contre les aléas de la rentabilité de l’entreprise, que l’entreprise peut valoriser implicitement par un salaire plus bas (il en va de même de la garantie de l’emploi).
• la surveillance et la détermination de la bonne structure variable est très coûteuse et toujours imparfaite, problème que connaissent bien les comp & bens (spécialistes des rémunérations variables et fixation de bonus) qui désormais peuplent les DRH.
• l’environnement de travail bénéficie du caractère prévisible du comportement du salarié.

Dans un tel contexte, le salarié demandera à l’entreprise de prendre en compte son comportement de façon a priori, et non au vu de résultats ex-post, qui peuvent être affectés d’aléas exogènes. On répond ainsi à la question 2- posée plus haut en introduction. La confiance devient un mot clé dans la délégation salariale. C’est bien sûr sur ce type de valeurs, mais pour des raisons historiquement différentes, que le mouvement syndical s’est constitué : il s’agissait d’organiser la force de travail collectivement contre l’employeur, avec la solidarité comme valeur clé pour cimenter le groupe. Il en reste aujourd'hui, dans un contexte où les conflits sociaux prennent un tour moins idéologique, une attitude syndicale de défiance envers les formes individualisées de rémunération et contre les bonus, et au contraire de soutien assez général pour des salaires au temps ou à l’ancienneté, tout ce qui peut favoriser le sentiment d’appartenance, voire dans le pire des cas de corporatisme et de résistance collective au changement. Trop de chefs d’entreprise associent à cet égard la solidarité des salariés à une menace et sont donc tentés par des modes plus individualistes et plus variables de rémunération, jugeant davantage comme un risque que comme un avantage l’existence d’une communauté de travail soudée.

La vertu ne se décrète pas

Pas d’angélisme en sens inverse : l’entreprise ne sait pas par avance si son salarié est « vertueux ». Il existe des gens égoïstes, tricheurs ou tire-au-flanc. Il serait trop simple que la bonne réponse soit une rémunération indépendante des résultats.

L’entreprise est donc tenue d’encourager et « rétribuer » la vertu par la reconnaissance, la promotion, etc, ainsi que par des moyens pécuniaires. Elle ne peut pas se reposer sur un comportement altruiste généralisé, dont le sens ne serait au demeurant défini que par le salarié, sans contrôle extérieur. Les incitations pécuniaires peuvent elles-mêmes introduire des objectifs qualitatifs et ne pas compter que sur des résultats financiers. L’entreprise a besoin de filtrer la compétence et le talent. Une rémunération variable reste alors un moyen d’opérer un tel filtre. On arriverait donc à une classification fruste mais efficace : les contrats incitatifs sont d’autant plus efficaces que le personnel est :

• à compétence hétérogène (avec donc la nécessité de trier les personnes performantes de celles qui le sont moins) ;
• avec un niveau éthique peu élevé ;
• avec des performances individualisables et non trop mêlées à un effort collectif,
• et que les coûts de surveillance et de détermination de l’effort sont faibles.


Notons le paradoxe : si l’effort du salarié est très individualisable, il peut être intéressant pour l’entreprise d’adopter des contrats fixes, espérant par une approche statistique avoir en moyenne dans le lot x personnes vertueuses. La mesure de l’effort est un variable clé pour décider de la bonne structure de rémunération. Doit-on rémunérer un juge, par exemple, selon des critères de performance quantitative dans l’application des peines? Un policier selon des indicateurs de criminalité ?

Les agents du fisc selon leur succès à identifier les fraudeurs, question qui soulève des discussions abondantes parmi le personnel de la Direction des impôts ? Allant à l’extrême, doit-on rémunérer le soldat de métier à hauteur du risque pris quand on l’envoie à la guerre (son métier devient probablement alors le plus risqué du monde) ou bien de l’enjeu pour la collectivité nationale ?

Les auteurs cités arrivent à une autre distinction : les contrats incitatifs sont mieux à même de filtrer les gens qui ont une faible aversion au risque (à condition que ces contrats ne soient pas, comme dans le monde peu recommandable de la banque d'investissement ces derniers temps, des contrats asymétriques, où l’employeur n’a que le downside et le banquier que l’upside, du type « pile, je gagne ; face tu perds ! »). L’entreprise est mieux avisée pour des projets très risqués d’avoir des contrats incitatifs. A l’inverse, les entreprises matures (par exemple les administrations) doivent plutôt compter sur l’éthique des salariés.

A nouveau le bonus des banquiers

Ceci nous permet de traiter le cas de la banque d'investissement. Il y a besoin ici d’individus qui ont le goût du risque et de l’effort, mais dont l’effort doit être canalisé de façon particulièrement complexe, sachant les risques encourus, y compris collectivement.

Un profit à court terme peut être perdant pour la banque à long terme et pourtant rapporter un bonus au salarié. Il suffit de voir la façon dont, lors de la bulle de crédit, les banques d'investissement ont vendu à foison des produits de protection sur risque catastrophique : la banque touche la prime d’assurance, gagnante dans la plupart des cas, ce qui permet au trader ou au banquier d’affaires de toucher son bonus ou sa commission. Mais la banque perd des sommes astronomiques dans le cas où la protection doit jouer. Il est possible que la solution à ce dilemme ne soit pas de revenir à un contrat fixe pour le trader, mais au contraire un contrat plus variable encore qu’une rémunération avec bonus. En effet, le contrat salarial devient ici très imparfait parce qu’il est impossible de qualifier les cas où le trader a bien travaillé, dans l’intérêt de la banque, ou au contraire pris des risques insoupçonnés ou mal calibré dans le temps. L’individuel et le collectif, le maintenant et le plus tard, la chance et le talent… ne peuvent plus être mis sous forme contractuelle précise et opposable. Dans ces cas, une bonne structure de rémunération est sans doute le partenariat, le fait que le salarié détienne des parts ou des actions du projet (ou de la table de trading) auquel il est associé. Il devient un associé de plein rang. Je doute que les grandes banques, avec leurs lourdeurs hiérarchiques et administratives, soient capables de fournir un tel cadre d’incitations. Et compter sur la vertu est probablement insuffisant.


Ce partenariat porte un nom, cela s’appelle les fonds propres ou, sachant que l’anglais est ici plus correct sémantiquement, l’ « equity ». A l’origine du concept financier de fonds propres, il y a la notion de solidarité des partenaires face aux périls et aux profits de l’entreprise, par le jeu de la mutualisation au sein de la société à capital fermé. La mutualisation fonctionne à la hausse comme à la baisse.

La conséquence à en tirer est simple : toutes les activités à fort risque, par exemple le trading pour compte propre, ne pourraient pas être accomplies de façon optimale et sécurisée dans un environnement bancaire. Le partenariat serait plus approprié, sur le modèle des hedge funds. Ces entités ne sont elles-mêmes pas parfaites (elles aussi font subir un coût d’agence à la collectivité, puisqu’elles se financent à partir de la collecte auprès d’investisseurs tiers), mais elles reposent moins sur l’éthique individuelle des gens pour bien fonctionner.

De surcroît, on éviterait ainsi de mélanger au sein d’un même établissement, typiquement une banque dite universelle, des personnels dont les motivations et les structures de rémunération sont fortement divergents, avec sont le risque que cette cohabitation fait peser sur la culture d’entreprise et sur la gestion des risques.
 
François Meunier, président du Comité scientifique de la DFCG

(1) Carlin, Bruce and Simon Gervais, 2009, « Work Ethic, Employment Contracts, and Firm Value », The Journal of Finance, vol. LXIV, n° 2, April, pp. 785-821.
(2) Bénabou, Roland and Jean Tirole, 2003, « Intrinsic and Extrinsic Motivation », Review of Economic Studies 70, pp. 489-520.

(3) Voir le dernier livre de Daniel Cohen, La prospérité du vice, Paris, 2009.