La Lettre n°20 de juin 2003

Actualités : Le ratio Mc Donough ou les règles de Bâle II appliquées aux banques

Après un ratio au nom d’un anglais…

Les banques sont des entreprises régulées par des Autorités qui veulent éviter les défaillances du système de crédit. En France, la Banque de France a édicté des règles inspirées de l’accord de Bâle de 1988 et notamment le ratio international de solvabilité ou “ ratio Cooke ” qui définit le niveau minimum de capital que doit avoir une banque pour faire face aux risques sur les divers postes de ses actifs. La Commission Bancaire, émanation de la Banque de France, est chargée de contrôler notamment le bon respect de ce ratio par les établissements français.

Les capitaux propres d’une banque en France doivent représenter au minimum 8% de ses risques. Pour le dénominateur du ratio, le régulateur a défini les coefficients de pondération des actifs et des éléments figurant au hors bilan de la banque. Les règles de 1988 reposent sur des pondérations forfaitaires attribuées à certains emprunteurs et à certains types de crédits.

Vers la fin des années 1990, il est apparu que cette approche était dépassée parce qu’elle ne prenait en compte ni les nouveaux instruments financiers ni la nature des divers types de risque supportés par la banque. En particulier elle ne donnait aucune considération aux sûretés dont la banque pouvait disposer et elle mettait sur le même plan toutes les entreprises emprunteuses ; et elle donnait un traitement trop favorable aux crédits aux Etats. En outre, l’amélioration de la gestion des risques dans les grandes banques internationales les a conduit à développer progressivement des modèles sophistiqués de mesure de leurs véritables risques et à calculer un “ capital économique ” différent du capital réglementaire pour effectuer les allocations internes de capitaux propres entre leurs divers départements ou métiers.

… un ratio au nom d’un américain

Le Comité de Bâle présidé par W. Mc Donough (1) qui réunit à la Banque des Règlements Internationaux dans la ville suisse, les contrôleurs bancaires des principaux pays s’est penché sur ce problème et a produit en juin 1999 un premier “ document consultatif ”. Depuis lors, plusieurs documents consultatifs ont été rédigés et de nombreuses concertations ont eu lieu avec les banques intéressées et les associations nationales.

Les commentaires sur le dernier document consultatif paru le 28 avril 2003 sont dus pour le 31 juillet 2003. Ensuite l’accord “ Bâle 2 ” deviendra définitif en décembre de cette année. Les Banques Centrales des pays signataires se chargeront des mesures d’application dans leur propre pays et une directive européenne imposera la nouvelle réglementation aux banques et aux établissements financiers de l’Union Européenne.

L’entrée en application interviendra le 1er janvier 2006. Pendant cette année, le ratio Cooke continuera d’être calculé en parallèle mais le ratio Mc. Donough deviendra la seule norme à partir du 31 décembre 2006.


Une construction à plusieurs piliers

Le Comité de Bâle a cherché à définir une nouvelle norme de calcul des capitaux propres en bénéficiant des meilleures pratiques du système bancaire ; et ceci constitue le pilier 1 de la réforme. Il a ajouté deux piliers qui constitueront une nouveauté dans la réglementation : un processus de surveillance prudentielle plus élaboré, c’est-à-dire des règles de contrôle interne et d’audit externe (pilier 2) et une discipline de marché accrue, c’est-à-dire des obligations de communication financière pour chaque banque (pilier 3).

La réforme aura un impact important sur la gestion interne des banques au niveau de leurs systèmes informatiques de suivi et de calculs des engagements, et au niveau de leurs dispositifs d’audit et de contrôle interne. Si les grandes banques internationales se préparent depuis longtemps à cette évolution qui correspond en partie à leur demande, les banques plus hexagonales ou de taille moyenne auront un important travail d’adaptation à faire pendant les trois années qui viennent.

En ce qui concerne le pilier 1, la nouvelle norme instituera des capitaux propres minimum non seulement pour le risque de crédit (pertes liées au non-remboursement par l’emprunteur) mais encore pour le risque opérationnel (pertes occasionnées par des défaillances du fonctionnement interne de la banque) et le risque de marché (pertes liées à des erreurs ou insuffisance de couverture sur les marchés de taux, de change, ou de capitaux). Les capitaux propres de la banque seront affectés à la couverture de ses risques de crédit pour 85%, de ses risques opérationnels pour 10%, et des risques de marché pour 5%.

L’exigence sera inchangée par rapport à la règle actuelle : le ratio des capitaux propres rapporté  aux risques de la banque devra toujours être supérieur ou égal à 8%.

Un calcul différent du dénominateur

Si le numérateur restera calculé de la même manière, la norme Bâle 2 sur le dénominateur sera très nouvelle par rapport aux pondérations forfaitaires des actifs du ratio Cooke. Les banques auront le choix entre plusieurs approches adaptées à la situation de leurs propres organisations en matière de décision et de suivi des risques :

  • l’approche standard qui repose sur des pondérations déterminées par les régulateurs et qui tient compte des éventuelles notations données par les agences de rating (2) et par la Banque de France pour les PME ;
  • et deux approches prenant en compte les systèmes de notation interne de la banque :

    - dans l’option “ fondation ” la banque utilisera ses propres calculs de probabilité de défaut des contreparties auxquelles elle prête ;
    - dans l’option “ avancée ” la banque utilisera outre ses calculs sur la perte en cas de défaut, l’encours au moment du défaut et tiendra compte de la maturité du crédit.

Ces deux dernières approches s’inspirent des modèles développés dans les banques américaines et, depuis le milieu des années 90, dans les grandes banques françaises pour déterminer le capital économique  : à chaque emprunteur est attachée une probabilité de défaillance sur une échelle à plusieurs échelons ; et à chaque crédit, est attachée une perte résiduelle estimée après mise en œuvre des sûretés et des garanties. La pondération prise en compte pour calculer le dénominateur du ratio Mc Donough, sera donc fonction de cette probabilité de défaut, et de cette perte en cas de défaut. Bien entendu la pondération sera calculée par une formule prenant en compte les probabilités définies par la banque mais aussi un coefficient imposé par le régulateur.

Une différence de pondération

Dans la réglementation Cooke, un crédit est pondéré à 100% quelle que soit la situation de l’entreprise ou du particulier emprunteur ou quelle que soient les sûretés attachées à ce crédit. Ne bénéficient d’une pondération moindre que les créances sur les administrations centrales ou le secteur public des pays de l’OCDE (0%) les avances faites à des banques de pays OCDE (20%) et pour, les opérations hors bilan, les crédits documentaires (20% si garantie des marchandises, 50% dans les autres cas) et les garanties émises par la banque (50% pour les garanties de marché et 100% pour les garanties financières). Les financements en leasing immobilier ont aussi une pondération de 50%.

Selon Bâle II, la pondération reposera sur une appréciation plus fine des risques et, pour les banques qui choisiront cette option, sur les approches déjà en vigueur dans leurs méthodologies internes. Ainsi un même crédit à deux emprunteurs différents ne nécessitera pas la même allocation de capital ; deux crédits à des emprunteurs bénéficiant de la même notation mais n’ayant pas la même structure ou pas les mêmes sûretés, ne consommeront pas les mêmes capitaux propres.

Pour les financements des activités de banque de détail (crédits aux particuliers, aux professionnels et à certaines PME) l’approche standard est obligatoire ; elle accorde un traitement plus favorable que le système actuel, en particulier pour les prêts immobiliers avec hypothèque (pondérés à 35%), ou pour les prêts inférieurs à 1 M€ aux petites entreprises (pondérés à 75%).
Pour les financements spécialisés ou structurés, certaines banques ont pu faire entendre leurs arguments sur la prise en compte des covenants, sûretés et garanties attachés aux contrats de prêts. Les crédits documentaires et les garanties de marché à l’étranger qui ont un sous-jacent marchandise ou performance devraient avoir une pondération moindre (20%) que l’actuelle (50%).
Enfin les crédits aux PME auront une pondération plus favorable de 10 à 20%. En effet elles représentent un risque plus diversifié pour la banque (effet de portefeuille) et elles sont moins vulnérables que les grandes entreprises au risque systémique (crise du secteur ou événement national).

Une réforme aux nombreuses conséquences

Comme le disait W. Mc Donough, une variation de la qualité du crédit des emprunteurs devra être directement reflétée dans le montant des capitaux propres de la banque. Pour minimiser son besoin de capitaux propres, la banque essaiera de diminuer la perte en cas de défaut et donc de prendre davantage de sûretés ou de garanties sur les emprunteurs les moins bien notés.

Il faut s’attendre à une plus grande rationalisation des décisions de crédit prises par les banques et en particulier, le banquier ne pourra plus ignorer le coût du risque dans la détermination de sa rémunération.

Il est probable que pour éviter une augmentation des marges d’intérêts les entreprises ayant une faible note devront accepter davantage de contraintes dans leurs contrats de prêts ou consentir plus de sûretés pour que le couple probabilité de défaut / perte en cas de défaut reste inchangé pour la banque. Cette évolution n’est-elle pas d’ores et déjà perceptible ?


Jean-Louis Cayrol

(1) W. Mc Donough est également vice-président de la Réserve Fédérale de New-York.
(2) Voir la Lettre Vernimmen.net de mai 2003.


Tableau : Les taux d'impôt sur les sociétés dans le monde



Recherche : Faut-il interdire les ventes à découvert ?

De tout temps, les ventes à découvert ont fait l’objet de critiques, en particulier en période de baisse des cours, où elles sont accusées de contribuer à déséquilibrer les marchés et de précipiter la baise. Rappelons que vendre à découvert consiste pour un investisseur à vendre un titre qu’il ne possède pas en espérant pouvoir le racheter ultérieurement à un cours plus bas lui permettant aussi de réaliser un gain.

Dans la plupart des cas, la vente à découvert n’est pas un produit suis generis mais une composante d’une stratégie plus large qui rend difficile la mesure de son impact réel sur le cours boursier.

Tant au Royaume-Uni qu’en France, les régulateurs (FSA et CMF) ont initié des consultations de place sur les ventes à découvert à l’automne 2002 qui s’orientent vers des préconisations de plus grande transparence des opérations de ventes à découvert.

Les interrogations à propos des ventes à découvert ne sont pas récentes : en Hollande, la première loi sur les ventes à découvert date de 1610. Depuis longtemps, les régulateurs se sont intéressés à la question et la controverse ressurgit à chaque crise boursière.

Deux études récentes donnent un éclairage intéressant.

L’étude « Efficiency and the Bear : Short Sales and Markets around the world » (1) de décembre 2002 arrive aux quatre conclusions suivantes :

  • les ventes à découvert augmentent l’efficience du marché : dans un contexte de restrictions des ventes à découvert, les cours des titres s’ajustent moins vite aux nouvelles informations diffusées ;
      
  • les pays qui ont imposés des restrictions sur les ventes à découvert sont principalement des pays dont les cours sont volatils, en majorité des pays émergents. C’est d’ailleurs probablement à cause de cette volatilité structurelle (en raison des caractéristiques macro et microéconomiques propres à ces pays) que de telles restrictions sont mises en place :

  • dans les pays qui autorisent les ventes à découvert, les cours des titres réagissent plus fortement aux différentes informations : la volatilité à court terme est plus importante ;
      
  • il n’y a pas de corrélation positive entre les restrictions des ventes à découvert et la sévérité des krachs boursiers.

La recherche « Go down fighting : Short sellers vs firms » de janvier 2003 (2) étudie, à partir d’un échantillon de 270 sociétés américaines entre 1977 et 2002, les méthodes employées par les entreprises pour lutter contre les ventes à découvert :

  • communiqué de presse dénonçant les vendeurs à découvert ;
  • appel aux autorités boursières pour mener une enquête ;
  • action en justice de la société contre les vendeurs à découvert ;
  • changement de place de cotation vers une bourse qui limite les ventes à découvert ;
  • appel aux actionnaires pour qu’ils ne soient plus prêteurs de titres ;
  • distribution d’actions gratuites nécessitant la production de certificat d’actions.

Les sociétés ont parfois annoncé le lancement d'une action en justice contre les vendeurs à découvert, jugeant avérée la "manipulation" des cours par diffusion d'informations erronées. Il convient cependant de noter que ces actions ont jusqu'à présent peu abouti.

Dans les autres cas recensés, l'action menée relevait principalement de la communication (soit à l'encontre des vendeurs à découvert, soit à destination des actionnaires dans l'espoir de juguler le prêt de titres).

Grâce à l’étude de son échantillon, Owen Lamont arrive à la principale conclusion suivante : les entreprises qui prennent des mesures contre les ventes à découvert enregistrent une érosion de la performance de leurs titres dans les mois qui suivent. Il chiffre cette sous-performance à 2% par mois environ, ce qui est considérable.

Sa conclusion est cohérente avec la thèse selon laquelle les ventes à découvert permettent une intégration rapide des informations de marché et donc une régulation efficace des cours des titres.

La réponse de la recherche académique à la question posée « Faut-il interdire les ventes à découvert ? » est donc claire : non

(1) A. Bris, W. Goetzmann, N. Zhis, Yale.
(2) Owen Lamont, Chicago.


Q&R : Compte de résultat par nature versus compte de résultat par destination

Quelles sont les différences entre compte de résultat par nature et compte de résultat par destination ?

Il existe de par le monde deux grands types de comptes de résultat qui diffèrent par la présentation des charges et des produits des cycles d’exploitation et d’investissement :

  • soit les produits et les charges sont présentés par nature et l’on rencontrera des productions stockées, des achats de marchandises ou de matières premières, des variations des stocks, des autres consommations externes, des frais de personnel, des impôts et taxes, des dotations aux amortissements ;
     
  • soit les produits et les charges sont présentés par destination, c’est-à-dire en fonction de leur utilisation dans le cycle d’exploitation et d’investissement, et l’on verra des coûts des produits vendus, des frais commerciaux, des frais de recherche et développement et des frais généraux.

Etabli à partir des rapports annuels des 30 premiers groupes industriels cotés de chaque pays.

Que notre lecteur se rassure, quelle que soit la présentation du compte de résultat retenue, le résultat d’exploitation est le même !

La présentation par destination (ou fonction) du compte de résultat

Cette présentation repose sur une approche analytique de l’entreprise qui classe les coûts entre les grandes fonctions de l’entreprise

Ainsi les frais de personnel sont éclatés dans chacune de ces quatre fonctions (ou trois quand les frais commerciaux et administratifs sont confondus en une seule catégorie) selon que tel employé travaille à la production, à la vente, à la recherche, ou à l’administration. De même l’amortissement d’une immobilisation corporelle sera logé en coûts de production s’il s’agit d’une machine de production, en coûts commerciaux s'il s’agit d’une voiture de vendeur, en coûts de recherche s’il s’agit d’un matériel de laboratoire ou en coûts administratifs s'il s'agit des ordinateurs du service comptabilité (1).

La présentation par nature du compte de résultat

C’est la présentation traditionnelle française et de bon nombre de pays d’Europe continentale. Bien évidemment, dans cette approche, le résultat d’exploitation est comme précédemment la différence entre les ventes et les coûts de ces ventes.

La pratique européenne de la comptabilité est d’enregistrer les charges lorsqu’elles sont contractées et non lorsqu’elles sont consommées.

Si l'on enregistre au compte de résultat d'une part l'ensemble des achats effectués durant l'exercice, d'autre part l'ensemble des factures envoyées aux clients, on compare des choux et des carottes… En effet l'entreprise peut “ mettre de côté ” (stocks) une partie des achats qu'elle fait dans l'année. Ces achats stockés ne correspondent pas aujourd'hui à une destruction de richesse. C'est la constitution d'un actif, sans doute temporaire, mais bien réel à un moment donné.

D'autre part, une partie des produits finis de l'entreprise peut ne pas être vendue durant l'exercice, et pourtant, les charges relatives à ces produits apparaissent au compte de résultat.

Donc pour comparer ce qui est comparable il convient "d'ajuster", c'est-à-dire :

  • d'ôter aux achats les variations de stocks de matières et de marchandises. On comptabilise ainsi les consommations et non les achats ;
     
  • de rajouter aux ventes les variations des stocks de produits finis. On comptabilise la production et non seulement les ventes.

L’approche par destination part du chiffre d’affaires et reconstitue les coûts de ces produits ou de ces services vendus pour aboutir au résultat d’exploitation. L’approche par nature part des achats d’exploitation et les corrige par le biais des variations de stocks de matières premières et de produits finis pour aboutir, par soustraction d’avec le chiffre d’affaires, au résultat d’exploitation (1).

Un nouveau mode de présentation ?

On remarque l’émergence d’un troisième mode de présentation, en particulier dans les groupes français et américains qui consiste en apparence à une présentation par destination, mais avec une particularité qui consiste à ne pas répartir la dotation aux amortissements entre les différentes lignes de coûts mais à l’isoler sur une ligne à part comme dans la présentation par nature. L’avenir nous dira le sort réservé à cette innovation.

(1) Pour plus de détails voir le chapitre 3 du Vernimmen 2002.


Facebook Google + Twitter LinkedIn