Você está na página 1de 122

Jacques Aben

2008
1- INTRODUCTION
11 – La science économique
L’éthymologie peut aider à identifier comment la question économique a été
progressivement abordée. Il semble que la première expression ait été forgée par Xénophon (-
430 à -355) dans son livre Οἰκονομικός (l’Economique), associant oikos : maison, patrimoine et
nomos, de nemein : administrer. On retrouve le terme en latin - œconomicus - avec le sens :
bien ordonné, méthodique (Félix Gaffiot, dictionnaire latin-français). Ce n’est que beaucoup
plus tard qu’est apparue l’expression « économie politique », tirée de politikos : de la cité, au
sens de communauté soumise à une administration publique. Cette précision est due à Antoine
de Montchrestien (1575-1621), dans son Traité d’économie politique (1615) où il étudie « la
science de la production et de la distribution des richesses à l’échelle d’un pays ». Pour
terminer ce tour d’horizon on peut citer Jean-Baptiste Say (1767-1832) : « L’économie ne veut
rien consommer en vain ; l’avarice ne veut rien consommer du tout. La première est l’effet
d’un calcul louable, en ce qu’il offre seul les moyens de s’acquitter de ses devoirs, et d’être
généreux sans être injuste. L’avarice est une passion vile, par la raison qu’elle se considère
exclusivement et sacrifie tout à elle. » (Traité d’économie politique, Wikisource).

Pour la suite on pourra partir de la définition célèbre de Lionnel Robbins : « L'économie


est la science qui étudie le comportement humain en tant que relation entre les fins et des
moyens rares à usages alternatifs » (Essai sur la nature et la signification de la science
économique, Paris : Librairie de Médicis, 1947). La fin dont il s’agit est la satisfaction des
besoins - besoin que l’on peut définir comme une sensation de manque, donc d'insatisfaction,
qui conduit à désirer les moyens de la faire cesser, d’où un comportement humain. Les
moyens sont les ressources offertes par la nature, dont il est dit qu’elles sont rares et à usages
alternatifs, de sorte que si la science économique étudie les comportements humains, elle est
essentiellement une science des choix.

La science économique qui est une science sociale peut prétendre au statut
scientifique, dès lors que les économistes qui produisent leurs théories sur les
comportements humains – en société – acceptent de respecter le principe de
réfutation défini par Albert Einstein et popularisé par Karl Popper1 : la validité
de la théorie sera acquise, non pas parce que l’on aura trouvé une situation réelle
conforme aux résultats de la théorie, mais tant que l’on n’aura pas rtouvé une
situation réelle qui contredit la théorie. L’économétrie est alors le moyen du test de
réfutation, en permettant de comparer les valeurs de variables économiques données par
l’application d’une théorie, à celles que révèle l’observation du réel.

12 - Besoins, biens et services


Les besoins sont évidemment naturels, voire physiologiques, mais ils sont de plus en
plus sociaux, car c'est la vie en société qui les fait naître. Cela est si vrai qu'est née la notion
de « production des, besoins ». Toutefois il est possible de se demander si ce sont vraiment les
besoins que l’on crée, ou simplement les moyens de les satisfaire : le besoin de déplacement
ou de transport était satisfait grâce au cheval, il peut l’être aujourd’hui grâce à l’avion, par
exemple. De même la mode est àl pour renouveler sans cesse la satisfaction du besoin

1
La logique de la découverte scientifique, Payot, Paris (traduction), 1973.

1
vestimentaire (protection thermique et pudeur), en assurant un carnet de commandes à
l’industrie du textile et de l’habillement.

Pour satisfaire les besoins ainsi définis, on utilise des biens et des services : les premiers
1
peuvent être appropriés, les seconds non (dans ce qui suit, par simplicité, on emploiera
parfois le mot produit à la place de bien et service). Pour certains, le développement de la
société se traduit par la substitution des services aux biens. Certes les biens ne disparaissent
pas, mais ce serait de plus en plus leur usage qui serait privilégié et non leur appropriation : on
loue des automobiles pendant de longues périodes ; on acquiert des droits d’accès à des films
en ligne plutôt que d’achter des DVD... Ces produits ne seront pris en considération par la
science économique que s'ils remplissent trois conditions.
L’ utilité n'est autre que la capacité de satisfaire un besoin. Sachant que les besoins sont
éminemment subjectifs, l'utilité l'est donc tout autant et l’économiste n’a pas à introduire une
dimension morale - par définition non scientifique - dans l’analyse : si quelqu’un éprouve du
plaisir à se faire humilier, il est heureux qu’il se trouve quelqu’un d’autre acceptant de lui
vendre de l’humiliation. Mais cette vision individualiste de l’utilité est compatible avec une
vision sociale qui analyse les effets de l’utilisation d’un bien ou service par un individu, sur
les autres. Les armes à feu ont peut être une utilité individuelle mais peuvent être dangereuses
pour la société.
La disponibilité est le fait pour un produit de pouvoir être utilisé (employé) ; cette
qualité peut être immédiate mais aussi future, donc soumise à risque : c’est l’exemple des
appartements acquis en état futur d'achèvement, c'est-à-dire sur plans ;
La rareté signifie que le bien ou le service n’existe pas en quantité suffisante pour
satisfaire les besoins. Cette situation justifie donc que l’on entreprenne une activité
économique (production, échange), donc que l’on sacrifie des ressources…
Les biens et services peuvent être classifiés selon divers critères.
La satisfaction directe du besoin désigne le bien final ; à l'inverse un bien intermédiaire
est utilisé comme instrument dans la production : on l'appellera aussi bien de production ou
bien capital ; toutefois ce n’est pas la nature du bien qui est en question, mais la manière de
l’utiliser : pour un collectionneur tout bien est final ;
Parmi les biens, on peut distinguer les biens durables et les biens d'un seul usage, les
premiers n'étant détruits qu'après plusieurs usages (un aliment est d’un seul usage et un
meuble un bien durable – sauf accident) ; parmi les biens de production, les biens d'un seul
usage sont appelés biens de consommation intermédiaire.
Deux biens seront dits complémentaires s'ils ne peuvent être utilisés séparément pour la
satisfaction d'un besoin ; ils deviennent substituables à l'inverse si chacun peut satisfaire un
besoin donné de manière indépendante ; toutefois cette opposition est très contingente car
deux biens substituables, comme deux moyens de transport par exemple, peuvent devenir
complémentaires dans certains cas : il existe un choix entre train et automobile entre Paris et
Montpellier, mais l’automobile devient complémentaire du train, lorsque l’on est arrivé à
Montpellier et que l’on se rend en banlieue ;
Un bien ou service sera dit privé s'il est susceptible d'appropriation privative. Ceci
signifie qu'il est soumis à trois conditions : divisibilité, rivalité, exclusivité. Etant divisible,
chacun peut en obtenir la quantité qu'il désire, mais celui qui en a acquis une partie en prive
les autres (rivalité). C'est cette rivalité qui conduit à des enchères : faute de pouvoir fournir
tout le monde on ne fournira que ceux qui pourront payer le plus. Avec un bien collectif,
surtout s'il est pur, on est dans là situation inverse, où le bien est produit pour toute la

1
On trouve souvent l’opposition matériel-immatériel, alors qu’il existe de plus en plus de biens immatériels,
comme les logiciels, les brevets, les marques ou le droit d’entrée commercial.

2
collectivité, où chacun peut en profiter sans en priver les autres, et où i1 est prévu de n'exclure
personne, ni par le prix ni en principe par une mesure administrative.

Les biens et services que l’on peut rencontrer effectivement dans l’économie sont
extrêmement nombreux, beaucoup trop nombreux pour qu’un raisonnement puisse les prendre
en compte. Il paraît donc souhaitable de les réunir en un certain nombre d’ensembles
homogènes pour constituer des biens et services agrégés. Ceci suppose la définition d’un
critère d’agrégation qui assure que tout bien ou service élémentaire sera inclus dans un bien
ou service agrégé, et qu’un même bien ou service ne pourra être inclus que dans un seul bien
ou service agrégé. Ce critère sera logiquement la substituabilité : on range dans un même
agrégat tous les biens ou services capables de satisfaire (à peu près) également le même
besoin, indépendamment les uns des autres (exemple : le riz et le blé dans l’agrégat céréales).
L’ensemble de ces agrégats formera une nomenclature (une liste de noms) donnant une image
plus simple de la gamme des biens et services disponibles pour la satisfaction des besoins.
De telles nomenclatures peuvent être très précises en descendant jusqu'au produit les
plus élémentaires : plusieurs centaines d'items (éléments), mais elle deviennent alors très
lourdes à manipuler. A 1'inverse, si l'on cherche la facilité d'emploi, on peut définir des items
très agrégés, donc peu nombreux, mais en acceptant qu'ils s’éloignent de la réalité
observable…(je peux observer mon salaire mais pas le PIB dont il est une composante). Ainsi
la nomenclature CPF, pour Classification des produits française (décret n°2002-1622 du 31
décembre 2002), compte 7 niveaux d’agrégation, allant de 2608 à 17 produits.

13 - Analyse du fonctionnement du système économique : le circuit


L'idée qu'il existe des actions d'administration des ressources renvoie forcément à ceux
qui les entreprennent. Puisqu’ils agissent, on les qualifiera d'agents économiques. Il peut s'agir
de personnes physiques (individus) ou de personnes morales (groupes ou institutions). Ce sont
les comportements de ces divers agents que l'on étudiera dans ce qui suit.
On peut avancer encore en reconnaissant que les actions dont il était question plus haut
ne sont pas n'importe lesquelles, ce sont des actions organisées et on parlera alors de
fonctions. Pour que les ressources soient à même de satisfaire les besoins, qu’elles soient
utiles, il faut qu'elles soient transformées en biens et services, ce qui signifie une fonction de
production. La satisfaction elle-même viendra de l’extraction de l’utilité des biens et services
par leur consommation. Ces deux premières fonctions, essentielles, sont évidemment
complémentaires. Il est possible de rendre compte de leur enchaînement en utilisant le
concept de circuit. Dans sa version la plus simple celui-ci décrit la circulation des flux de
biens et services entre les agents assumant respectivement les fonctions de production et de
consommation. Il s’agit en réalité de deux circulations de sens opposés, l’une étant
naturellement la contrepartie de l’autre.

A l'évidence un tel circuit est extraordinairement complexe dès que l'on étudie une vraie
société, c'est-à-dire un très grand nombre d'agents : des dizaines de millions d'individus, des
millions d'entreprises, des milliers d'institutions publiques... Il devient donc nécessaire de
tenter une simplification en réduisant de manière artificielle le nombre d'agents à étudier.
C'est ce que fait la comptabilité nationale avec le concept de secteurs institutionnels (ou
agents agrégés). Il s'agit simplement de regrouper les agents individuels en utilisant comme
critère d’agrégation leur fonction principale. On a ainsi les ménages, avec la fonction de
consommation finale (à qui on associe, faute de mieux, les entrepreneurs individuels), les
sociétés non financières, produisant des biens et services non financiers marchands, les
sociétés financières produisant des services financiers, les administrations publiques,

3
produisant des biens non marchands (collectifs ou publics), les institutions sans but lucratif
au service des ménages (les autres ISBL sont assimilées à des entreprises).
Le recensement de ces agents se fait en principe pour un territoire économique donné
(par exemple pour la France, les TOM ne sont pas comptés dans le territoire national). Il
existe donc un reste du monde avec lequel les agents résidents entretiennent des relations
économiques.

A ces agents on associe des comptes grâce auxquels on va pouvoir suivre leurs activités
et les relations économiques et financières qui s’établissent entre eux. Ce sont respectivement
les comptes de
production,
exploitation,
revenu pouvant être subdivisé en un
compte d’affectation du revenu primaire,
un compte de distribution secondaire du revenu et
un compte de redistribution du revenu en nature),
utilisation du revenu
1
capital .

C’est la réunion de tous ces comptes pour tous ces agents qui permet d’avoir une
photographie unique de l’ensemble des flux circulants entre les agents : le Tableau
Economique d’Ensemble (TEE).

1
Ce classement permet d’obtenir l’acronyme mnémotechnique « PERUC ».

4
2 – UN CIRCUIT RESTREINT

21 – Les ménages : consommation finale.


En bout de chaîne on trouve la personne physique, dont on sait que son mobile est la
satisfaction de ses besoins et qu’elle l’obtient par la consommation de biens et services. Pour
parvenir à ce résultat, elle a tendance à s’unir à d’autres, ayant constaté que cela lui donnait
1
une capacité plus grande : « l’union fait la force » . On peut alors définir le ménage comme
l'ensemble des individus qui mettent leurs ressources en commun pour satisfaire leurs
besoins : en pratique elles vivent au même domicile, ou foyer. L'individu est donc le ménage
élémentaire, celui qui ne compte qu’un membre, et le mariage est la modalité, à la fois la plus
traditionnelle et la plus organisée juridiquement (parce que c’est aussi la base de la
reproduction), de constitution d’un ménage. Ainsi le premier agent institutionnel sera les
ménages, dont l'activité principale est la consommation finale des biens et services.
L’idée que la mise en commun des ressources favorise la satisfaction des besoins est
attestée par le fait que le besoin de consommation du ménage n’est pas une fonction du
nombre de ses membres mais du nombre de ses unités de consommation. Ainsi le premier
membre « vaut » 1 UC, les autres membres de 14 ans et plus 0,5 UCet les mineurs de 14 ans2
0,3 UC. Ainsi 3 personnes ne er présentent, selon le cas, que 1,6, 1,8 ou 2 UC. En
conséquence, trois personnes vivant ensemble ont un besoin de consommation inférieur à
celui de trois personnes vivant seules.

211 – Consommation finale : approche comptable


Il s’agit d’une consommation parce que l’usage du bien ou du service entraine sa
destruction immédiate ou progressive. Elle est dite finale puisque cette destruction n’a pour
résultat que la satisfaction des besoins du ménage, et non la création d’un nouveau bien ou
service. Dans ce dernier cas on parlerait d’une consommation intermédiaire.
Les biens et services étant rares, ils ne peuvent être acquis sans contrepartie. Les
ménages doivent donc disposer d’un pouvoir d’achat, qui leur permet de révéler leurs besoins
et d’obtenir satisfaction : ils en dépensent une partie à cet effet. et par là expriment leur
demande sur le marché. La demande est en effet « la quantité d’un bien ou service que l’on
est disposé à acquérir pour un pouvoir d’achat et un prix donnés ». En comptabilité
nationale, la demande (des ménages ou autre) est la valeurs des biens et services acquis - donc
le pouvoir d’achat dépensé pour les acquérir.
Dans l’immédiat le marché n’est que le lieu où les ménages peuvent se procurer biens et
services. Le pouvoir d’achat est simplement un bien ou service que l’on peut donner en
3
échange de celui que l’on veut acquérir : l’opération est donc un troc .
Il se pose maintenant la question de l’origine du pouvoir d’achat que détiennent les
ménages. Il est forcément le résultat d’un troc précédent, en contrepartie du seul bien dont les
ménages sont dotés dès l’origine : leur énergie. C’est donc un service de travail que les
ménages vont offrir sur le marché correspondant : marché du travail. Le travail est « l’activité
humaine (dépense d’énergie) ayant pour objectif la transformation des ressources naturelles
pour les rendre utiles » ; une telle transformation n’est autre que l’activité de production de
biens et services qui sera examinée plus loin. L’offre est la quantité d’un bien ou service que

1
Ce qui est la devise du royaume de Belgique.
2
Pour éviter les confusions : mineur de 14 ans signifie âgé de moins de 14 ans !
3
On verra plus loin que ce bien, qui sert de pouvoir d’achat, et que Karl Marx (1818-1883) appelle « équivalent
général » devient LA monnaie, dans un système complet.

5
l’on est disposé à fournir pour un prix donné : pour un pouvoir d’achat que l’on veut obtenir
et un prix du travail donné, il n’existe qu’une quantité de travail offrable.
Ces dernières précisions permettent de revenir sur la définition du marché. Il est non
seulement le lieu où se trouvent les biens et services, y compris celui de travail, mais encore le
lieu où se rencontrent l’offre et la demande (et non l’offreur et le demandeur, même si cela
peut arriver).

En contrepartie du travail cédé, le ménage obtient le pouvoir d’achat1 qui lui revient. On
parlera donc de revenu, pour désigner le pouvoir d’achat que l’on acquiert en contrepartie de
la cession, définitive ou temporaire, de droits de propriété ou de droits de créance sur des
biens ou services, mais aussi sans contrepartie, lorsqu’il s’agit d’un revenu de transfert
(allocations diverses). S’agissant de revenu du travail on pense d’abord à la rémunération des
salariés, ce qui inclut les salaires, les traitements et soldes, mais aussi les cotisations sociales
effectives des entrepreneurs et salariés (salaire indirect). Comme le salariat n’est pas le seul
moyen d’offrir son travail, on doit compter aussi l’excédent brut d’exploitation qui est le
revenu de l’entrepreneur (on parle aussi de revenu mixte pour l’entrepreneur individuel pour
marquer qu’une même personne perçoit à la fois l’équivalent d’un salaire et celui d’un profit).
Dès lors que l’on ne s’en tient pas à la vision très simplifiée présentée jusqu’ici, on constate
que les ménages perçoivent aussi des revenus de la propriété et de l’entreprise, qui font
référence à l’acquisition préalable par ces ménages de biens immobiliers ou de titres
financiers (voir plus loin). Enfin les prestations sociales témoignent de l’existence d’un
système d’assurances sociales.
En regard de ces ressources, el compte de revenu fait apparaître les dépenses
obligatoires supportées par les agents : impôts et cotisations sociales. L’agent les subit et ne
les choisit pas, de sorte qu’elles viennent amputer son revenu, avant qu’il puisse en disposer.

COMPTE DE REVENU
EMPLOIS RESSOURCES
IMPOTS SUR LE REVENU ET LE PATRIMOINE REVENU MIXTE
COTISATIONS SOCIALES REMUNERATION DES SALARIES
REVENUS DE LA PROPRIETE
REVENU DISPONIBLE BRUT ET DE L’ENTREPRISE
PRESTATIONS SOCIALES
Le mot brut indique que le revenu ou l’épargne contiennent les montants nécessaires à la compensation de
l’usure du capital (voir plus loin, dans la section consacrée à la production).

Le compte de revenu fait naturellement apparaître une différence positive entre les
ressources et les emplois (même si l’inverse peut exister dans tel ou tel cas). Ce solde est
appelé revenu disponible brut ou RDB, le terme disponible signifiant que le ménage peut
librement en disposer pour satisfaire ses besoins. C’est donc bien l’indicateur de pouvoir
d’achat que l’on recherchait.

Le concept de revenu disponible brut a été récemment contesté par le Bureau


International de Prévision Economique (le BIPE est un bureau d’étude) dans le cadre d’une
2
étude financée par les Centres Leclerc . Pour le BIPE, les impôts et cotisations sociales ne
sont pas les seules dépenses obligatoires pour les ménages. Ainsi les loyers, les charges liées
au logement, les primes d’assurance les dépenses de transport collectif, sont soit réellement
obligatoires soit incontournables : on ne peut déménager chaque fois que le loyer est révisé à

1
Il est amusant de constater que l’Etat vient de produire (2008-111 du 8 février 2008) une loi « pour le pouvoir
d’achat », alors qu’il s’agit d’une loi visant à assouplir les règles régissant le temps de travail.
2
« Un autre regard sur le pouvoir d’achat », La lettre du BIPE, mars 2004.

6
la hausse. Ce sont donc des « dépenses contraintes ». Ce n’est qu’après leur exécution que le
revenu serait effectivement disponible. Pour ce nouveau solde, le BIPE propose l’appellation
« revenu libéré ».
Ce n’est pas qu’une question de pointillisme scientifique, car la conséquence de la prise
en compte des dépenses contraintes peut conduire à une évolution différente du pouvoir
d’achat des ménages. C’est en tout cas ainsi que les Centres Leclerc ont fondé leur stratégie
de communication sur la sauvegarde du pouvoir d’achat de leurs clients. Toutefois il est facile
d’objecter qu’en réalité toute dépense est contrainte, sauf dans sa modalité : la dépense
alimentaire est contrainte, même si on peut moduler son volume et sa structure, mais tout
autant que la dépense de logement.
1
Le pouvoir d’achat représenté par le RDB est évidemment soumis à variation du fait de
l’évolution de ses composantes : une hausse des salaires l’augmente, alors qu’une hausse des
impôts le diminue. Mais il l’est aussi parce que les prix des biens et services, que le RDB
permet d’acquérir, varient. Une analyse du pouvoir d’achat des ménages dans le temps ne
pourra donc rigoureusement se faire qu’avec un RDB déflaté grâce à un indice des prix à la
consommation : IPC. Un tel indice est construit à partir de l’observation des variations de
prix, à qualité constante, d’un millier de variétés, dont la liste est gardée confidentielle pour
éviter les manipulations. L’IPC est la moyenne des indices calculés chaque mois sur chaque
variété. Cette moyenne est pondérée par les parts des diverses variétés dans le budget de
l’échantillon choisi (tous les ménages ou les ménages urbains dont le chef est ouvrier ou
employé, par exemple). Si les pondérations correspondent à la date de base, l’indice est dit de
Laspeyres, et si elles correspondent à la date choisie, c’est un indice de Paasche. Selon les
besoins, on peut retirer des variétés, pour étudier le comportement des autres prix (tabac,
produits pétroliers, produits alimentaires frais...).

Pourquoi l'inflation perçue s'écarte-t-elle de l'inflation mesurée ?


(extrait d'Actualités n° 175 - mai 2004)

Dans la période récente, et plus particulièrement en 2002/2003, l'indice des prix à la consommation,
indicateur officiel de l'inflation en France, semble avoir été mis en doute par une partie de l'opinion publique.
C'est que plusieurs éléments conjoncturels sont venus, en fait à partir de 2001 et jusqu'à la fin de l'année
dernière, perturber la perception qu'a le consommateur de l'inflation.
C'est à partir de 2001 et de la perspective du passage à l'euro qu'un véritable décrochage de l'opinion
publique a été observé. Il s'est amplifié en 2002 et maintenu en 2003. Pourtant, après le pic du lancement de
l'euro fiduciaire, l'inflation effective a retrouvé un rythme de croisière modéré (de l'ordre de 2% l'an). Mais il
n'en a pas été de même de l'inflation perçue, subjective, qui s'est fortement éloignée de l'inflation mesurée,
objective.
La même attitude a été observée ailleurs en Europe. Dans son bulletin mensuel d'octobre 2003, la Banque
centrale européenne (BCE) note que, pour les douze pays de l'Union monétaire, « le niveau perçu de l'inflation a
commencé à s'écarter de l'indice des prix à la consommation harmonisé (IPCH) en janvier 2002 et a atteint un
pic en janvier 2003 ». La banque constate que « même si ce niveau a légèrement fléchi depuis, il reste encore
très élevé ». Pourtant, la mesure de l'inflation n'a pas changé : l'indice des prix garde la même structure. Pourquoi
donc ce revirement ?

L'instrument ne mesure pas l'intégralité des prix


Tout d'abord, la consommation prise en compte dans l'indice des prix correspond aux achats de biens et
services effectués par les ménages, tels qu'ils sont définis dans la comptabilité nationale. Certaines dépenses,
parfois importantes, en sont donc exclues.

1
On parle de RDB ajusté lorsqu’on ajoute à celui-ci les transferts sociaux en nature opérés par les APU ou les
ISBLSM.

7
Ainsi, l'indice ne prend pas en compte les dépenses d'acquisition de logement, considérées comme de
l'investissement. Or les consommateurs ne font pas forcément cette distinction : ils constatent la montée des prix
de l'immobilier.
La pondération ne coïncide pas avec l'importance ressentie de la dépense
L'impact des mouvements de prix sur l'indice d'ensemble est déterminé par la pondération de chaque
produit et service, c'est-à-dire la part objective que celui-ci représente dans la dépense des ménages. Mais les
consommateurs n'ont pas nécessairement la même démarche. Ce qui retient leur attention est ce qui est visible
pour eux, pas forcément le poids relatif des différents postes de dépense.
Par exemple, une hausse de 10% du prix du timbre-poste, très visible pour le consommateur, ne contribue
que pour 0,02 point à l'augmentation de l'indice d'ensemble. La même hausse sur le prix des fleurs et plantes
passera inaperçue ; pourtant, elle pèse 0,03 point sur l'indice général.
A l'inverse, la stabilité, voire la baisse des prix constatée sur tel ou tel poste sera ignorée en dépit de son
impact sur le niveau de vie. Il en est ainsi des produits électroniques (hi-fi, informatique, télévision, DVD…)
dont la chute des prix a contribué à l'équipement quasi-général de la population, impensable il y a quelques
années.

L'agrégation des résultats produit un effet de lissage


Avec l'indice général des prix, l'INSEE publie les évolutions détaillées de 161 postes qui regroupent des
milliers de variétés. Par exemple, le poste " céréales " comptabilise les évolutions des prix de plusieurs variétés :
farines, semoules, céréales, pâtes alimentaires, riz...
Compte tenu du nombre de variétés ainsi amalgamées, les évolutions de prix qui ressortent sont
nécessairement amorties, les hausses des unes pouvant être compensées par les baisses des autres.

La moyenne statistique est une abstraction


Les Français ne constituent pas un ensemble constitué d'éléments identiques. En un sens, le Français
n'existe pas dans la réalité, il n'y a que des individus. Et chacun perçoit et réagit en fonction de sa situation
concrète, particulière par construction. Ainsi, la perception d'une augmentation des loyers ne peut être la même
pour un célibataire à Paris, qui consacre 50 % de son revenu à la location de son appartement, que pour une
personne propriétaire de son logement : or, dans l'indice, le poste " loyers " pèse moins de 6%.
Si, en aucun cas, la mesure de l'inflation ne peut être incriminée, on touche, avec cet exemple, aux limites
du raisonnement statistique fondé sur les moyennes. Dans la réalité, il n'y a pas un consommateur moyen, mais
des individus qui réagissent dans un contexte particulier.

La perception des consommateurs repose aussi, cependant, sur des faits


Si l'indice général n'a pas connu de dérapage, il n'en est pas de même de certains biens et services
auxquels les consommateurs sont particulièrement sensibles et sur lesquels se sont concentrées des hausses
importantes. Et cette situation s'est prolongée en 2003.
Les prix des produits de grande consommation ont augmenté sensiblement en 2001. Ils ont atteint leur
plus haut niveau en septembre-octobre 2001, à la veille, précisément, de la date d'application de la déclaration
commune Industrie-Commerce qui visait à neutraliser les hausses de prix pendant 5 mois, entre le 1er novembre
2001 et le 31 mars 2002.
En octobre 2001, le glissement annuel des prix de nombre de produits, notamment alimentaires, dépassait
4%. Il atteignait même 6,2% pour les fromages, 6,3% pour les yaourts et desserts lactés, 6,6% pour les " produits
alimentaires divers (potages préparés, desserts et produits pour pâtisserie) ". Les produits d'hygiène corporelle
atteignaient, quant à eux, les 7%.
A la même période, au retour des vacances d'été, les prix du pain ont augmenté d'une manière
significative. Le dispositif de surveillance des prix, mis en place par la DGCCRF à l'occasion du passage à
l'euro, a détecté très rapidement une concentration anormale de hausses dans le secteur de la boulangerie.
En fait, si l'inflation mesurée n'a été que de 1,4% en 2001, ce résultat tient au fort recul des prix des
produits pétroliers (-13,7%, contribuant pour -0,6 point à la décélération de l'indice d'ensemble) alors que les
prix des produits alimentaires avaient augmenté de 4,9%.
Toutes ces augmentations de prix étaient souvent concomitantes avec le passage au double affichage
(alors facultatif) des prix en francs et en euros.
Pour beaucoup de consommateurs, il n'y avait aucun doute : ils ont associé le passage à la nouvelle
monnaie à une augmentation inéluctable des prix.

Le passage à l'euro a en partie brouillé la perception des prix


Le passage à l'euro a eu pour premier effet de brouiller l'échelle des prix des consommateurs. Pour
retrouver un nouveau référentiel, ils s'appuient sur les prix des produits et services qu'ils achètent fréquemment,
les plus visibles pour eux.

8
Ainsi, en pratique, le consommateur est particulièrement sensible à la variation du prix de ses achats
courants, ceux auxquels il procède régulièrement, voire quotidiennement, surtout lorsqu'ils sont effectués
isolément : le pain, les cigarettes, l'essence, le café ou le demi de bière au comptoir. Il est sensible aussi au prix
des produits dont sa consommation est difficilement compressible. A court terme, il est plus réceptif à
l'augmentation de ses charges ménagères quotidiennes qu'à celles des biens d'équipement, par exemple.
Or les hausses de janvier 2002, surtout celles observées dans le secteur des services, ont provoqué un effet
de loupe. Le cas des débits de boissons et des restaurants est le plus illustratif.
Tout d'abord, les enquêtes de la DGCCRF ont montré que les débits de boissons étaient très en retard en
matière de double affichage. En décembre 2001, juste avant le passage à l'euro fiduciaire, seuls 55% des
établissements affichaient leurs prix en francs et en euros (contre 99% pour les GMS, 86% pour les coiffeurs,
80% pour les hôtels…).
En retard pour l'affichage, les débits de boissons ont connu la plus forte proportion de prix en hausse en
janvier 2002. Par rapport aux relevés effectués à la mi-décembre 2001, l'enquête DGCCRF réalisée du 7 au 10
janvier 2002 montrait que près de 50% des débits de boissons de l'échantillon avaient relevé les prix du café
(0,04 € ou 0,26 F en moyenne) et du demi de bière (0,09 € ou 0,59 F). En moyenne, pour ces deux prestations, la
hausse de l'échantillon s'établit à 1,8 %.
S'agissant des restaurants, près de 30% de l'échantillon ont relevé leurs tarifs : 0,42 € (2,76 F) en moyenne
pour le menu le moins cher, soit une hausse moyenne, pour l'échantillon, de 1%.
Dans ces deux secteurs, les hausses moyennes de prix observées en janvier 2002 représentent 3 à 6 fois
l'augmentation habituelle constatée en ce mois de l'année.

Des hausses particulièrement visibles en 2003


En 2003, l'évolution des prix auxquels les ménages sont habituellement sensibles (produits alimentaires,
produits pétroliers) s'est calmée, bien qu'avec quelques dents de scie, et le pessimisme aurait dû s'atténuer. Tel
n'a pas été le cas.
Tout d'abord des hausses ponctuelles, mais visant des produits dont les prix focalisent habituellement
l'attention des ménages : carburants lors du déclenchement du conflit irakien, légumes en hiver en raison du gel,
fruits en été du fait des chaleurs exceptionnelles, baguette de pain en septembre. De plus, les ménages semblent
avoir particulièrement ressenti l'évolution des prix de certains services et du tabac. Les loyers accélèrent à
nouveau.

L'effet du renouvellement continu de l'offre


L'inflation " masquée ", induite par le renouvellement de l'offre des produits, contribue sans doute aussi à
troubler la perception des prix par les consommateurs.
C'est le résultat d'une étude de Panel International récemment publiée par LSA (30 octobre 2003) qui
indique que, chaque année, l'offre des distributeurs en produits de grande consommation est renouvelée à hauteur
de 22% environ.
Lorsqu'ils entrent en magasin, les prix de ces produits nouveaux (par le conditionnement, la présentation
ou la formule) sont nettement supérieurs à ceux des produits sortants, sans que les indices classiques puissent
donner une idée précise de l'impact de ce mouvement.
Ces hausses sont à la fois le but - ou un des buts - et une conséquence du renouvellement. En effet, le
référencement d'un produit nouveau en GMS permet souvent au distributeur d'obtenir une amélioration de son
intéressement (coopération commerciale) bien plus qu'une augmentation de son chiffre d'affaires. Mais cette
amélioration se traduit par une hausse du prix de vente. Ce phénomène vient s'ajouter à la dérive des marges
arrière sur les produits les plus visibles en épicerie.
Or l'étude précise que ce renouvellement se traduit, toutes familles confondues, par une inflation "
masquée " de 8,8% entre juin 2002 et juin 2003. Cette progression contribue à majorer de 1,2 point la hausse des
prix des produits de grande consommation (2% en octobre après une pointe à 2,9% en avril).
Les consommateurs ont, sous doute, une certaine difficulté pour apprécier si de telles hausses constituent
une création de valeur ou bien seulement une augmentation des prix.
Vers une normalisation
On l'a vu, une bonne partie des causes du hiatus actuel entre inflations perçue et mesurée ont un caractère
conjoncturel. Il est probable qu'à terme, les choses vont se stabiliser et les consommateurs retrouver leurs points
de repères pour évaluer la valeur des biens et services qu'ils achètent. On peut raisonnablement penser qu'ils
reprendront alors confiance en un instrument qui, même s'il n'est pas parfait, a démontré sa fiabilité sur le long
terme.

Du pouvoir d’achat on peut passer au niveau de vie qui est mesuré par le ratio du RDB
par le nombre d’unités de consommation. Et de niveau de vie on passe facilement à pauvreté

9
et particulièrement à seuil de pauvreté : revenu par UC inférieur à la moitié du revenu
médian1. En 2003 ce seuil était de 645 euros par UC et par mois, donc par exemple
645*(1+0,5+0,3) pour un couple avec un enfant de moins de 14 ans, soit encore 1161 euros, à
comparer aux 1215,11 euros du SMIC de l’époque. Certains ont proposé, campagne électorale
aidant, de définir symétriquement un seuil de richesse comme étant le double du revenu
médian : il aurait été donc de 2580 euros par UC cette même année, très inférieur au niveau de
4000 euros par personne, avancé par d’autres.
On utilise souvent le PIB par tête (voir en 221) comme indicateur de niveau de vie.
Mais il ne peut indiquer comment les ressources créées sont affectées à la satisfaction des
besoins et notamment il ne tient pas compte de certains services « essentiels » mis
gratuitement à la disposition des ménages par les administrations, comme l’éducation ou les
soins. Ce genre de consommation collective prend évidemment beaucoup plus d’importance
dans les études du niveau de développement d’une économie. C’est pour cela que le
Programme des Nations Unies pour le Développement (PNUD ou UNDP) publie des Indices
de Développement Humain (IDH)2. Cet indicateur associe le PIB par tête (mais par son
logaritme, ce qui atténue l’effet de sa croissance), un indicateur de longévité-santé (espérance
de vie, alimentation, eau potable, logement, hygiène, accès aux soins) et un indicateur de
niveau d’éducation (alphabétisation, scolarisation).

Quoi qu’il en soit, c’est le revenu disponible brut qui fait l’objet de la dépense par
laquelle s’exprime la demande de consommation finale de biens et services. Si cette dépense
n’épuise pas le revenu disponible, c’est qu’une partie de celui-ci aura été épargnée. L’épargne
est donc la partie du revenu qui n’est pas consommée. On peut alors affirmer que le revenu se
décompose en une dépense de consommation finale et une épargne. C’est ce que la
comptabilité nationale décrit grâce au compte d’utilisation du revenu de chaque agent :

COMPTE D’UTILISATION DU REVENU


EMPLOIS RESSOURCES
CONSOMMATION FINALE + REVENU DISPONIBLE (BRUT)
EPARGNE (BRUTE)

212 – Consommation finale : approche théorique


Il reste maintenant à examiner la relation qui unit le revenu disponible brut, ou plus
simplement le revenu des ménages et leur consommation.
Il est possible d’identifier intuitivement un certain nombre de déterminants de la
consommation globale. On les répartit habituellement entre déterminants subjectifs : le
« vouloir » consommer, et objectifs : le « pouvoir consommer ».
Les déterminants subjectifs tiennent à la psychologie des individus, et au cadre de
valeurs ou de traditions dans lequel ils s’insèrent : la modestie, qui conduit à ne pas afficher
son pouvoir d’achat est valorisée dans certaines sociétés et totalement absente dans d’autres.
Quoi qu’il en soit, c’est ensuite la publicité qui va transformer ce qui est encore une demande
potentielle, en demande réelle. Sont aussi du domaine du subjectif la perception que les
ménages ont de leur pouvoir d’achat (la mise en place de l’euro a-t-elle provoqué, ou non, une
hausse des prix significative ?) et les anticipations qu’ils forment sur l’inflation future.
Le premier déterminant objectif que l’on peut citer est le aux t d’intérêt. C’est
évidemment celui qui porte sur le crédit à la consommation, mais c’est surtout celui des

1
Lorsque les revenus sont classés par ordre hiérarchique, le médian est celui qui a autant de revenus supérieurs
que d’inférieurs. Eurostat, institut statistique de l’Union Européenne fixe le niveau à 60% de la médiane.
2
http://hdr.undp.org/statistics/

10
placements financiers. En effet La décision d’épargner, c’est-à-dire de renoncer à une
consommation finale présente, vient s’opposer à une caractéristique psychologique supposée
naturelle chez l’agent économique : la préférence pour le présent1 ou la dépréciation du futur,
selon la théorie de Böhm-Bawerk. En effet l’individu aurait tendance à donner plus d’utilité à
une consommation présente qu’à la même consommation reportée dans le futur. Si Cj est une
quantité donnée d’un bien de consommation finale j, et si UCj est l’utilité qu’on en retire, on
peut écrire que
UCj (t0) > UCj (t1),
t0 et t1 étant deux dates successives. Ceci peut être précisé sous la forme
UCj (t0) = UCj (t1) x (1+r),
si r est le taux de dépréciation de l’utilité dans le temps. En conséquence la décision de
reporter une consommation à demain ne peut être prise que si la quantité promise pour demain
est augmentée, au moins, d’un facteur (1+r) par rapport à celle d’aujourd’hui2. C’est donc r
qui détermine le taux d’intérêt (ou taux de rendement des fonds prêtés) demandé par l’agent
qui accepte d’épargner. Ainsi toute augmentation du taux d’intérêt aura pour effet d’accroître
la propension à épargner, au détriment de la propension à consommer. Il s’agit là d’une
approche microéconomique, puisque se référant au calcul économique de l’agent. Il n’est
donc pas étonnant que ce soit l’explication de la consommation que les auteurs classiques
avaient privilégiée.
Après le taux d’intérêt il est logique de citer l’accès au crédit. En effet une économie
dans laquelle les entreprises financières sont bien implantées et efficaces, peut offrir aux
ménages un crédit à la consommation d’accès facile et de coût modéré. Dans ces conditions le
niveau de la consommation finale peut augmenter toutes choses égales par ailleurs. Cela est si
vrai que les entreprises non financières n’hésitent pas à se doter de filiales financières pour
favoriser leurs ventes : COFINOGA, CETELEM, etc.
Tout aussi lié au taux d’intérêt se trouve le patrimoine. Certes le patrimoine produit par
l’épargne est à son tour générateur de revenu, donc de consommation, mais dans ce cas ce
n’est plus d’une consommation déterminée par le patrimoine que l’on traite, mais d’une
consommation déterminée par les revenus du patrimoine - contrairement à ce qu’écrivent
3
certains . Si le patrimoine doit déterminer la consommation, c’est en tant que contrainte plus
ou moins forte imposée à la capacité de consommer. Si l’on a pour objectif la constitution
d’un patrimoine, c’est au détriment de la consommation. Si le stock constitué subit une
dépréciation (baisse du prix de l’immobilier ou des actifs financiers ou des oeuvres d’art ou de
l’or...) il faudra épargner plus, donc consommer moins pour compenser. Mais à l’inverse,
l’augmentation spontanée de la valeur du patrimoine doit conduire à sa liquidation partielle en
vue d’une consommation supplémentaire. C’est ce que l’on appelle, dans les deux cas, « effet
de richesse ».

http://question18.canalblog.com/

« En effet, la flambée immobilière (...) alimente et entretient la consommation des ménages et ce, grâce à
«l’effet de richesse» perçu par ces derniers. Ce phénomène est bien connu des économistes et est beaucoup plus

1
Que certains appellent curieusement « préférence du temps » (Barre et Teulon, op.cit. p147). Sur la mesure de
ce phénomène, lire : Arrondel Luc, Masson André et Verge Daniel, « Mesurer les préférences individuelles pour
le présent », Economie et statistique, n°374-375, mai 2005, www.insee.fr/fr/ffc/Fiche_doc
2
En supposant bien sûr que l’utilité marginale n’est pas décroissante lorsque la quantité consommée croît, sinon
la quantité consommable demain doit être accrue d’un taux supérieur à r.
3
Diulio, Eugène, Macroéconomique, McGraw-Hill, Paris 1978, p.57.

11
important lors de bulles immobilières que lors de bulles boursières. La hausse des prix donne l’impression aux
propriétaires d’être devenus (virtuellement) plus riches et se mettent alors à consommer davantage. »

Vient enfin le revenu (et sa répartition). John Maynard Keynes rompt complètement avec
la vision classique du primat du taux d’intérêt, en privilégiant le revenu disponible comme
explication de la consommation. C’est là un des postulats sur lesquels il construit sa Théorie
générale :
« La loi psychologique fondamentale (…) c’est qu’en moyenne et la plupart du temps, les
hommes tendent à accroître leur consommation à mesure que leur revenu croît, mais non
d’une quantité aussi grande que l’accroissement du revenu. (…) Tel est particulièrement le
cas lorsque l’on a en vue de courtes périodes. ».
« Mais en dehors des variations de courte période du revenu, il est encore évident qu’un haut
niveau absolu du revenu contribue, en règle générale, à élargir l’écart entre le revenu et la
1
consommation »
De ce postulat naît une fonction de consommation qui indique la propension des
ménages à consommer leur revenu. La propension est dite moyenne lorsqu’elle concerne le
revenu global (CF/R) ; elle devient marginale si l’on ne s’intéresse qu’à la variation de ce
même revenu (dCF/dR qui est la dérivée première de la fonction).
On a tenté de vérifier statistiquement cette théorie de la consommation dans les années
2
d’après la seconde guerre mondiale. Ainsi Simon Kuznets a montré que sur courte période
les statistiques faisaient bien apparaître une propension moyenne décroissante, mais que celle-
ci devenait constante sur période longue. Restait alors à corriger la théorie en conséquence.
3
James Duesenberry a proposé de passer de l’explication par le revenu courant à celle
par le revenu relatif. Les ménages auraient d’abord tendance à caler leur consommation sur
l’écart entre leur revenu courant et leur revenu maximum précédent. Tant que le revenu
courant progresse régulièrement, ils gardent constante leur propension moyenne à
consommer. En revanche lorsque leur revenu courant régresse sensiblement, ils augmentent
cette propension, pour sauver leur niveau de vie, au détriment de leur épargne. Il en va de
même lorsqu’ils se réfèrent à l’écart entre leur revenu et celui du groupe auquel ils adhèrent
(amis, voisins, collègues...) : il n’est pas question que leur consommation baisse par rapport à
celle des autres. Ainsi on a bien une consommation de long terme proportionnelle au revenu,
et des consommation de court terme plus que proportionnelles.
Albert Ando et Franco Modiglani4 ont présenté une fonction de consommation couvrant
l’ensemble de la vie de l’agent économique : théorie du cycle de vie. L’agent veut maximiser
son utilité sur sa vie et procède donc par nivellement de sa consommation : forte propension à
consommer dans les périodes de « vaches maigres », faible propension en cas de « hautes
eaux ». Ainsi par rapport au revenu moyen, la propension semble constante. Ces transferts de
revenus de période à période (épargne pour la retraite par exemple) sont rendus possibles par
l’efficacité des marchés financiers (voir plus loin).
5
Milton Friedman , quant à lui, a construit une théorie de la consommation fondée sur le
concept de revenu permanent. Ce dernier est ce que les ménages peuvent espérer tirer à
chaque période de l’ensemble de leurs ressources, qu’elles so ient humaines (salaires,
honoraires...) ou matérielles (intérêts, plus-values, dividendes...) sans réduire leur valeur. Il

1
Théorie générale de l’emploi, de l’intérêt et de la monnaie, Dunod, Paris, 1974, p.114.
2
National product since 1869, National Bureau of Econornic Research, 1946
3
Income saving and the theory of consumer behaviour, Harvard University Press, Harvard, 1949.
4
“Tests of the Life Cycle Hypothesis of Saving : Comments and Suggestions”, Oxford Institute of Statistics
Bulletin, mai, 1957, pp.99-124, mais les précurseurs de cette approche étaient Irving Fisher d’une part, et Roy
Harrod d’autre part.
5
A theory of consumption function, Princeton University press, 1957.

12
s’agit donc d’une sorte d’intérêt sur la richesse totale. Ce revenu évolue évidemment de
manière régulière (puisqu’il est prévu sur le reste de la vie) et la consommation lui est
proportionnelle. En revanche, le revenu courant, celui que l’on observe, est le résultat de la
somme de ce revenu permanent et d’un revenu transitoire qui peut varier n’importe comment.
Si l’on mesurait la propension à consommer par rapport au revenu courant et non par rapport
au revenu permanent, elle aurait donc tendance à varier.
Ce débat sur les propensions à consommer n’est pas purement théorique. En effet si la
propension à consommer est décroissante comme le pense Keynes, la progression du revenu
va se traduire par une part croissante d’épargne, donc de fuite de ressources hors du circuit.
Dans ces conditions, l’offre de biens et services sera de moins en moins soutenue, ce qui
pourra enclencher une récession. Et comme rien ne permet d’espérer que l’investissement
viendra spontanément absorber cette épargne, il revient à l’Etat, par sa dépense, de soutenir la
demande. Ceci est d’ailleurs d’autant plus efficace que la baisse du revenu aura fait augmenter
la propension à consommer de courte période donc rendra plus efficace l’injection de la
dépense publique.
Au contraire l’affirmation de la constance de la propension à consommer réduit la
légitimité de cet appel à la puissance publique.

22 – Les entreprises : production de biens et services


La production est l'activité qui vise à créer des utilités. Elle fournit des produits qui sont
alternativement des biens et des services. Pourtant il fut un temps où l'on considérait, comme
improductifs tous ceux qui ne produisaient aucun bien, au motif, selon Adam Smith (1723-
1790), que « leur travail périt au moment où il est produit ». Aujourd’hui évidemment la
production de services est au même rang que celle de biens.
L'opération de production peut être subdivisée en deux stades : d’une part, acquisition
de matières premières, de produits semi-finis et d'énergie, et, d’autre part, transformation de
ceux-ci en produits finis. Elle est donc un processus de destruction et de transformation, avant
d'être un processus de création.
Le coût total du produit fini prend en considération aussi bien la valeur des biens et
services qui seront détruits, que le coût des opérations de transformation. Pour rendre compte
de cela, on distingue deux composantes de la valeur de la production : la consommation
intermédiaire et la valeur ajoutée. C’est ce qu’enregistre le compte de production des unités de
production :

COMPTE DE PRODUCTION
EMPLOIS RESSOURCES
CONSOMMATIONS INTERMEDIAIRES PRODUCTION
VALEUR AJOUTEE BRUTE (VAB)

Le concept de valeur ajoutée peut donner lieu, comme tous les autres rencontrés
jusqu’ici, à une agrégation. La somme des valeurs ajoutées comptabilisées sur un territoire
forment le produit de l’économie correspondante. Il s’agit d’un produit intérieur si l’on
s’intéresse aux unités qui résident sur le territoire, quelle que soit leur nationalité. Néanmoins
une correction doit être introduite par addition de la taxe à la valeur ajoutée perçue sur
l’ensemble des biens et services, et des droits de douane perçus sur les biens importés, nets de
subventions accordées. Ces deux montants représentent une partie des ressources des
administration qui finance une partie de leur prestation de services publics.

13
Du PIB on passe au revenu intérieur brut (RIB) en ajoutant le solde du commerce
extérieur, puisque celui-ci vient augmenter (excédent) ou diminuer (déficit) les ressources
disponibles pour la population résidente.
Le produit national brut se distingue du PIB par l’addition du soldes des revenus des
facteurs, travail et capital, en provenance et à destination du reste du monde. Il y a donc bien
l’idée que l’on recense la valeur créée par des nationaux, que celle-ci soit créée sur le
territoire ou en dehors.

L'analyse du processus de production conduit à examiner successivement les biens et


services nécessaires à sa réalisation : les facteurs de production (221) et la manière dont,
ceux-ci sont associés entre eux pour 1a réaliser : combinaison productive (222).

221 - Les facteurs de production.


On en distingue trois : le travail et le capital et la terre.

2211 - Le travail
C'est l'activité humaine ayant pour objectif la transformation des ressources naturelles
pour les rendre utiles. (On distingue le travail manuel et le travail intellectuel ; le travail
qualifié et non qualifié ; le travail individuel et. le travail collectif...)
Si l'on veut mesurer le travail mis en œuvre à un moment donné, il faut partir
logiquement des humains qui le produisent. Au départ on a la population totale, puis la
population en âge de travailler (au-delà de 15 ans) et enfin une population d’âges actifs (entre
15 et 64 ou 65 ans)1. Les différences sont d'autant plus grandes entre ces différentes
populations que la sociélé est plus développée et que les préoccupations sociales sont plus
grandes : proscription du travail des enfants ; imposition de la retraite pour les salariés...

La question de la PAT est devenue aujourd’hui particulièrement sensible du fait du


déséquilibre croissant entre retraités et actifs. Le rapport entre le nombre des retraités
potentiels (majeurs de 59 ou 64 ans) ou effectifs (ayant pris leur retraite), aux actifs potentiels
(20-59 ou 20-64) ou effectifs (voulant travailler), appelé « taux de dépendance » a tendance à
augmenter : il devrait doubler entre 1990 et 2040, de sorte que la charge des retraites par
répartition sur les actifs pourrait devenir insupportable. Et cela se produira même si le
dynamisme démographique reprend : le taux de dépendance des plus de 65 ans à l’égard des
20-64 ans en 2040 passerait seulement de 56,6% à 48,8%, avec un taux de fécondité de 2,1 au
lieu de 1,5. De là des réformes successives des régimes de retraite, destinées à augmenter le
nombre d’actifs au détriment du nombre de retraités, en augmentant le nombre d’annuités de
cotisation pour un taux de pension donné.

De la population. en âge de travailler on tire la population active par application de taux


d'activité par âges. Ces taux d’activités représentent la disposition des personnes concernées à
devenir actives. Les femmes en âge de travailler on un taux d'activité de 47,69%, alors que les
hommes sont à 62,7%. C’est l'héritage d'une vieille tradition qui affectait l'homme au travail
productif de revenu, et la femme aux tâches domestiques. Et il est vrai que la tentation peut
encore exister, pour une femme vivant en couple (et beaucoup moins pour un homme,
mais…), de rester inactive, ce qui peut se traduire par un travail non rémunéré ou pas de
travail du tout, si les revenus familiaux permettent d’employer du personnel de maison. Cette
différence entre taux d’activité par sexes est en régression constante.

1
Il est à noter que le concept de PAT est souvent utilisé à la place de celui de PAA, plutôt que dans l’acception
stricte présentée ici.

14
La population active comprend elle-même deux sous-population : les actifs occupés et
les chômeurs. Le chômage est, comme toute variable sociale, une grandeur conventionnelle :
1
il faut d'abord se mettre d'accord sur sa définition avant de pouvoir en faire la mesure , de
sorte qu'il peut exister plusieurs mesures en même temps, et chacune peut varier dans le
temps.

OIT, 24 janvier 2006 : « Le rapport [annuel sur les tendances de l'emploi dans le monde, janvier 2006] a aussi
conclu que le fossé de l'emploi entre hommes et femmes s'était pour partie comblé au cours de la décennie
écoulée mais qu'il restait profond. En 2005, 52,2 pour cent des femmes adultes étaient employées contre 51,7
pour cent en 1995. En 2005, les femmes constituaient environ 40 pour cent de la main-d'œuvre dans le monde. »

On peut aborder le chômage d'une manière facile et rapide, mais de ce fait non
exhaustive. C'est ce que fait l'Agence nationale pour l'emploi (ANPE) lorsqu'elle chiffre les
demandes d'emploi en fin de mois (DFM) qui sont déposées chez elles. Ces demandes sont
elles mêmes subdivisées en six catégories, ce qui montre que le chômage n’est pas un
phénomène homogène et qu’il constitue plutôt un « halo » entre le noyau dur de l’emploi et
l’inactivité :
- catégorie 1 : personnes sans emploi immédiatement disponibles, à la recherche d'un
emploi à durée indéterminée et à temps plein ;
- catégorie 2 : ... emploi à durée indéterminée à temps partiel ;
- catégorie 3 : ... emploi à durée déterminée ;
- catégories 4 et 5 : à la recherche d’un emploi mais non immédiatement disponibles,
pour raisons de maladie, de formation ou d’emploi détenu ;
- catégories 6 à 8 : personnes correspondant aux critères des catégories 1 à 3, mais
travaillant au moins 78 heures par mois.
Jusqu’en 1995 les catégories 6 à 8 n’existaient pas et les demandeurs correspondants
étaient inclus dans les catégories 1 à 3. Depuis, 1998 il a été admis que ces mêmes
demandeurs ne pouvaient plus être comptés comme chômeurs. Ainsi en deux opérations, un
groupe non négligeable (363 700 en août 2003) a été radié des statistiques. On peut penser
que les difficultés de financement des indemnités de chômage obligent à avoir une vision plus
restrictive du chômage. Ceci, en tout cas, montre que le point de vue sur ce qu’est
« réellement » le chômage a changé. En conséquence le nouveau chiffre du chômage est
devenu inférieur à l'ancien mais les deux courbes continuent d'être présentées simultanément
pour permettre la comparaison.

Le problème des DFM, c’est qu’elles correspondent à une approche du chômage


purement administrative et nationale. Pour permettre les comparaisons internationales, iI
existe une autre manière de mesurer le chômage, qui est définie par le Bureau international du
travail (BIT), et utilisée pour son « enquête emploi » par l'Institut national de la statistique et
des études économiques (INSEE). Le chômeur y est défini comme une personne en âge de
travailler, dépourvue d'emploi (n’ayant pas du tout travaillé pendant la semaine de référence),
qui cherche un emploi rémunéré, qui est disponible (dans les 15 jours) et qui effectue des
2
démarches pour trouver cet emploi . On obtient ainsi la « population sans emploi à la

1
En France c’est le recensement général de la population de 1896 qui, le premier, a fait apparaître la catégorie
« chômeur » (http://membres.lycos.fr/cyberbobline/chomage.html).
2
La question qui se pose est celle de savoir si le simple fait d’être inscrit à l’ANPE suffit à remplir la condition
de recherche active d’un emploi. Depuis la directive 1897/2000 l’Union Européenne exige de véritables
démarches de recherche.

15
recherche d'un emploi » ou PSERE. A cela il faut ajouter les personnes ayant trouvé un
emploi mais non encore employées, pour obtenir le chômage au sens du BIT.
Cette nouvelle méthode a ses propres faiblesses. Reposant sur une enquête auprès d’un
échantillon de la population, elle est lourde à mettre en œuvre, de sorte qu’elle ne peut être
menée chaque mois. Jusqu’en 2003, elle était réalisée chaque année au mois de mars, et
depuis cette date elle l’est chaque trimestre (un ménage entré dans l’échantillon est interrogé
pendant cinq trimestres puis est remplacé). Elle est en outre d’autant moins précise que
l’échantillon est plus petit : quelques refus de répondre peuvent changer significativement les
résultats.

La publication du chiffre du chômage est un instrument de la politique de l'emploi


menée par les pouvoirs publics. Ceci oblige à considérer ce chiffre de deux manières. Tel qu'il
ressort de l'enquête il est une donnée brute. Mais si l'on veut savoir quelle est la tendance du
chômage il faut débarrasser l'observation brute de certains effets parasites : variations
accidentelles et variations saisonnières. Ces dernières résultent de ce que les entrées et sorties
sur le marché du travail sont commandées par les saisons (météorologiques et surtout
sociales : fin du cycle scolaire, congés...). Il faut donc désaisonnaliser les données brutes pour
qu'il ne reste que la tendance. On obtient ce résultat en appliquant aux données brutes des
coefficients de saisonnalité observés sur un échantillon passé assez long. C'est ce qui donne
les chiffres corrigés des variations saisonnières ou CVS : à la fin octobre 2006 il y avait en
France 2 129 700 demandes d’emplois avec un taux de chômage de 7,8% par rapport à la
population active, ou 2 200 000 chômeurs au sens du BIT, soit un taux de chômage de 8,8%.

EMPLOI
L'Institut juge incohérents ses propres chiffres relevant le taux de chômage de 9,1 % à 9,8 %
L'Insee incapable de confirmer la baisse du chômage en 2006

Le Monde du 10 mars 2007


Rémi Barroux

« C'est un vrai drame ! » Stéphane Lollivier, directeur des statistiques de l'Institut national de la statistique et des
études économiques (Insee), ne cache pas l'ampleur de la crise. Venu s'expliquer, jeudi 8 mars, devant le Conseil
national de l'information statistique (CNIS) sur les raisons du report suspect de la publication des statistiques
définitives du chômage pour l'année 2006 à l'automne 2007 (cette information étant donnée traditionnellement en
mars), l'Insee n'a pas vraiment convaincu.
Selon ses calculs effectués à partir de son enquête emploi, l'Institut a évalué à 9,8 % le taux de chômage en
France pour 2006, en lieu et place des 9,1 % annoncés par le gouvernement. Soit une correction de 0,7 point,
exceptionnellement élevée lorsque celle-ci avoisine traditionnellement les 0,1 ou 0,2 point, et particulièrement
malvenue à quelques semaines de l'élection présidentielle.
A titre de comparaison, en 2005, le taux de chômage au sens BIT était, en moyenne annuelle, de 9,8 %. Au
même niveau, donc, que le chiffre non validé de l'Insee pour 2006.
Le premier ministre Dominique de Villepin, qui n'a eu de cesse de vanter la baisse du chômage sous son
gouvernement, a d'ailleurs réagi en déclarant, vendredi dans Le Parisien, que cette polémique était « indigne et
inacceptable » et a rappelé l' « indépendance » de l'Insee (un institut placé sous la tutelle de Bercy) et de l'ANPE.
Il a aussi réaffirmé la « réalité de la baisse du chômage ».
Au centre de tous les soupçons politiques accusant le gouvernement de masquer la réalité du chômage, ce chiffre
de 9,8 % n'est pour autant pas reconnu par l'Insee. « Nous avons mis tous les chiffres sur la table, chacun peut
s'en emparer, il s'agit d'une restitution statistique, mais pas d'une publication officielle », a précisé M. Lollivier
devant les membres du CNIS (composé de statisticiens et d'utilisateurs de statistiques).
Une situation ubuesque qui installe le chômage français dans des chiffres provisoires depuis mars 2006. Une
situation qui devrait donc perdurer jusqu'à l'automne 2007.
L'Insee fait valoir les résultats « douteux » de son enquête emploi 2006, devenue de ce fait « impubliable » selon
M. Lollivier. Sylvie Lagarde, chef du département « emploi et revenus d'activité » de l'Insee, en a présenté
longuement les raisons, devant une assemblée nombreuse et attentive. « Les fragilités de l'enquête emploi se sont
renforcées en 2006 », a-t-elle expliqué. En cause, notamment, un taux de non-réponse nettement plus élevé,
notamment en Ile-de-France (de 6 % à 7 %), sur lequel une enquête a été lancée. En cause aussi des résultats

16
incohérents sur l'emploi, qui entrent en contradiction avec les chiffres d'autres administrations (Unedic, Acoss...),
avec des différences pouvant aller du simple au double.
Ces arguments sont contestés par Dominique Goux, qui a mis au point et suivi cette enquête emploi [en continu]
à l'Insee dès ses origines en 2002-2003 et qui travaille aujourd'hui à la DARES. « L'enquête emploi fonctionne
aussi bien qu'à ses débuts, on en connaissait les défauts dès ses origines, y compris le problème des non
réponses », expliquait-elle jeudi. Pour M. Lollivier néanmoins, « c'est la première fois que l'enquête emploi est
utilisée en période de reprise d'activité et je ne sais pas analyser les non-réponses dans ce cadre. Contrairement à
Mme Goux, j'ai des doutes ».
Pour expliquer le report à novembre 2007 de toute correction des chiffres du chômage, l'Insee a donc sacrifié son
enquête emploi. « Il s'agit d'un grave constat de carence de la statistique publique de ne pouvoir publier un
chiffre fiable sur le chômage », résume M. Lollivier. Cette crise apparaît d'autant plus sérieuse qu'elle survient
après une alerte concernant l'évolution de la population active. Sans parler des difficultés récurrentes
d'évaluation des yo-yo de la croissance en 2006.

**************************

Un nouveau mode de calcul va faire passer le taux de chômage de 8 à 8,4%


LEMONDE.FR : Article publié le 21.09.07
Rémi Barroux, Marie-Béatrice Baudet et Christophe Jakubyszyn

Le taux de chômage en France va faire un bond de 0,4 point. Le gouvernement s'apprête à autoriser
prochainement une nouvelle comptabilisation des demandeurs d'emploi qui aboutirait à un taux officiel de 8,4 %
en juillet, contre 8 % selon le ministère de l'emploi. Le chômage resterait à son plus bas depuis un quart de
siècle, le minimum atteint en 2001 ayant été de 8,6 %.
L'Elysée et le gouvernement sont en effet convaincus depuis plusieurs semaines que le nombre réel de chômeurs
ne correspond pas aux mesures publiées chaque mois. Ce que dénonçait le collectif de statisticiens, chercheurs et
syndicalistes ainsi que les syndicats et les partis politiques de l'opposition durant la campagne électorale.
Attendus depuis la fin juillet, les résultats de la mission confiée le 20 juin par le gouvernement aux Inspections
générales des finances (IGF) et des affaires sociales (IGAS) pour "faire toute la transparence sur les chiffres du
chômage" vont être remis à Christine Lagarde, ministre de l'économie, lundi 24 septembre.
"Nous étions prêts à entériner une hausse du chiffre officiel du chômage de 1 point, confie un conseiller
gouvernemental. Mais si le rapport Durieux a établi que la correction n'est que de 0,5 point, nous suivrons les
recommandations du rapport."
Les propositions des rapporteurs, Bruno Durieux (IGF) et Marie-Ange du Mesnil du Buisson (IGAS),
prescrivent un bouleversement du mode de calcul du nombre des demandeurs d'emploi. L'objectif est d'en finir
avec des données approximatives et contestées.
"Nous voulons remettre à plat les chiffres une bonne fois pour toutes, précise un conseiller du chef de l'Etat, pour
ne pas avoir une nouvelle polémique dans six mois." "Attention, insiste un membre de la mission, il ne s'agit pas
d'une révision du taux actuel mais bien de la création d'un nouvel indicateur."
Le 16 janvier, l'Insee avait annoncé, en pleine campagne électorale, qu'il reportait de mars à novembre la
publication des résultats de son enquête emploi annuelle 2006, réalisée par sondage, qui lui permettent de recaler
les chiffres de l'ANPE. L'écart obtenu pour 2006 avait été jugé trop important : 9,8 % en moyenne annuelle selon
l'enquête emploi, 9,1 % selon le ministère.
Mais les taux de réponse, expliquait l'Insee, "avaient nettement baissé l'an dernier, particulièrement en Ile-de-
France". L'organisme européen Eurostat, qui part des statistiques de chaque pays mais retient des critères
différents, majorait presque toujours le taux français de 0,4 à 0,5 point.
Le rapport met en cause la démarche retenue jusqu'à aujourd'hui, qui consistait à mélanger deux sources jugées
trop différentes. Le nombre mensuel de demandeurs d'emploi inscrits à l'ANPE est biaisé par les directives
gouvernementales (contrôles plus sévères, radiations…) transmises à l'agence, et reflète plus une activité
administrative qu'une réalité sociale.

Quant à l'enquête emploi de l'Insee, elle comporte les aléas d'un sondage réalisé auprès d'un échantillon de
75 000 personnes : avec une structure de l'emploi complexe et une population de plus en plus difficile à
contacter, la marge d'erreur sur le nombre total de chômeurs serait dans l'enquête 2006, "de plus ou moins
140 000" chômeurs.
Le rapport propose donc le doublement de cet échantillon et de le faire passer à 150 000. Il insiste sur la
nécessité de mettre fin au "recalage" des chiffres bruts de l'ANPE par l'enquête emploi : "Celle-ci, dont on
connaît les faiblesses, se retrouve au cœur du calcul des chiffres du chômage. Si elle se met à dérailler, c'est
comme si les piliers d'un pont s'effondraient", estime un membre de la mission.

17
Les experts préconisent de revenir à "des données de bon sens, solides comme le roc", c'est-à-dire un nouvel
indicateur qui sera trimestriel et pour lequel la marge d'erreur possible sera indiquée.
Abandonnant les estimations mensuelles fondées sur les statistiques de l'ANPE, le nouveau taux de chômage qui
serait publié chaque trimestre pourrait s'appuyer sur le recensement, qui depuis 2004 est réalisé, chaque année,
auprès d'un échantillon de population dans toutes les communes de plus de 10 000 habitants, soit près de 9
millions de personnes. De son côté, l'ANPE continuera à publier le chiffre mensuel d'inscrits dans ses listes.
Par ailleurs, les rapporteurs rappellent l'introduction dans les statistiques nationales des chômeurs ultramarins,
quelque 220 000, décidée par les députés.
Il devrait donc au final y avoir un taux de chômage "métropole" et, également, un taux intégrant l'outre-mer.
Reste à choisir le moment le plus opportun pour basculer sur le nouveau baromètre, et pour en minimiser
l'impact psychologique sur l'opinion. "Si la hausse statistique attendue est de 0,5 point, on pourrait basculer sur
le nouvel indicateur lors d'un bon mois : avec une baisse du chômage de 0,2 point, la hausse statistique ne serait
que de 0,3 point et on éviterait de créer un traumatisme dans l'opinion", estime un conseiller.

L’explication du phénomène du chômage est évidemment liée à l’analyse des


défaillances du système économique, qu’il s’agisse d’une simple imperfection ou d’une
désorganisation du circuit.
Dans la première hypothèse, le chômage peut n’être qu’un effet d’optique (même si
cette expression est un peu excessive) : il peut exister une parfaite adéquation entre offre et
demande de travail (respectivement demande et offre d’emplois), mais il faut du temps pour
que la demande rencontre l’offre et pour que les offreurs de travail s’adaptent aux exigences
des demandeurs. On parlera alors de chômage frictionnel puisque le chômage n’existe que le
temps que le travailleur passe d’un emploi à l’autre. Toutefois ce chômage frictionnel peut
être aggravé par les systèmes de protection, puisqu’ils permettent au chômeur de prendre plus
de temps pour trouver le meilleur emploi, ce qui mécaniquement augmente le nombre de
chômeurs.

Ce chômage devient structurel, lorsque l’adaptation des travailleurs aux emplois


demande des reconversions significatives : changement de qualification, changement de
secteur de production. On comprend que dans ce cas le temps de transition d’un emploi vers
un autre peut être sensiblement plus long. A cela on peut ajouter les insuffisances de la
formation professionnelles et l’immobilité de l’offre de travail (volem viure a païs !) qui
freinent l’adaptation de l’offre de travail à la demande. Pour tout cela on pourra parler de
rigidité du système. Par ailleurs on peut remarquer qu’une forte croissance, qui occasionne de
fortes restructurations, est de nature à accroître - paradoxalement - le chômage structurel.

Si maintenant on s’intéresse à l’éventuelle désorganisation du circuit, on doit opposer


1
les deux explications globales, données respectivement par les Keynésiens et les Classiques .
Pour les premiers, le chômage est lié à l’insuffisance de la demande de biens et services par
rapport à la capacité d’offre. Dans ces conditions une partie de cette capacité, qu’elle soit
humaine ou matérielle, restera inutilisée. Une relance de la demande de biens et services
pourrait alors ramener une égalité entre offre de travail et demande de travail.
Pour les Classiques au contraire, c’est du côté de l’offre de biens et services qu’il faut
chercher l’explication : l’offre est insuffisante pour satisfaire la demande. Les entrepreneurs
considèrent en effet, que du fait des conditions du marché du travail (heures supplémentaires ;
charges sociales ; force des syndicats...) et de l’existence de rendements décroissants (voir
plus loin : fonction de production), l’augmentation de l’offre jusqu’au niveau de la demande
ferait baisser le rendement du travail au dessous du salaire. Ils n’ont donc aucun intérêt à
1
Voir Edmond Malinvaud, Réexamen de la théorie du chômage, Calmann-Lévy, Paris, 1977 ; Duthil, Gérard,
Economie du travail et des ressources humaines, L'Harmattan, Paris, 2004 ; Freyssinet, Jacques Le chômage, La
Découverte, Paris, 2004

18
satisfaire la demande de biens et services, ni donc la demande d’emploi. Le chômage qui
résulte de cette situation est dit d’équilibre ou naturel. Il ne pourrait être réduit qui si
l’inflation venait accroître les prix des biens et services par rapport aux salaires nominaux, de
sorte que les salaires réels, eux, baisseraient. C’est ce que semblait prouver les travaux
1
statistiques d’Alban Phillips , qui montraient qu’en Grande Bretagne, de 1861 à 1957, il a
existé une relation négative entre le taux de chômage (u pour unemployment) et le taux de
variation du salaire nominal (dW/W pour wage). On peut alors dire que le taux de chômage
naturel est celui qui est compatible avec une inflation nulle ou en tout cas constante : il a été
surnommé NIRU (Non-inflationary rate of unemployment) par Franco Modigliani, puis
NAIRU (Non-accelerating inflation rate of unemployment) par James Tobin.
Les néo-keynésiens (Robert Lipsey, Robert Solow, Paul Samuelson) en ont déduit
qu’une augmentation de l’inflation, provoquée par la politique des pouvoirs publics, pourrait
réduire le chômage2. Mais, pour les libéraux (Milton Friedman, Robert Lucas3) cette
affirmation nécessite l’hypothèse que les salariés sont affectés d’une illusion monétaire :
ceux-ci constatent la hausse du salaire nominal et ne réalisent pas qu’elle est en fait inférieure
à la hausse des prix, de sorte que leur pouvoir d’achat baisse. Or pour ces libéraux, ce n’est
pas le cas, et au contraire les salariés sont parfaitement capables de comprendre non
seulement les conséquences de l’inflation sur leur pouvoir d’achat, mais encore les
conséquences d’une politique de facilité monétaire sur l’inflation. On dit qu’ils forment des
anticipations rationnelles sur l’évolution des prix.

Une fois le chômage pris en considération; il ne reste donc plus. que la population
active occupée. Quant au travail que cette population met à la disposition de l'économie, il
dépend des qualifications acquises, du niveau général de formation, de l'état sanitaire et de la
durée du travail.
La durée du travail est évidemment une donnée sociale. Elle dépend à tout moment du
niveau de développement et des rapports de forces entre les travailleurs et les employeurs,
arbitrés par les pouvoirs publics.
La durée légale du travail en France est fixée à 35 heures depuis les lois du 13 juin 1998
et du 19 janvier 2000, dites « lois Aubry » (du nom de la ministre du travail de l’époque).
C'est le résultat d'une longue évolution positive. Ainsi à la fin du XIX° siècle la durée du
travail était de 12 heures par jour sur 7 jours. Elle est passée à 10 heures en 1900. Le repos
hebdomadaire est né en 1906 et la journée de 8 heures en 1919. La semaine de 40 heures (au
lieu de 84 théoriques avant 1900) a été instaurée par le Front populaire en 1936, avec en outre
deux semaines de congés payés. La troisième semaine a été obtenue en 1956, la quatrième en
1969 et la cinquième en 1982. En conséquence la durée légale annuelle du travail aura baissé
de 4368 heures avant 1900 à 1645 heures en 2002.
Mais cette durée légale reste théorique. Pour savoir combien de temps on travaille en
réalité, il faut commencer par considérer la durée du travail offerte, qui est la durée proposée
par les employeurs via les conventions collectives et les contrats de travail. Elle ne tient
évidemment pas compte des grèves, ni de l'absentéisme, ni des heures supplémentaires

1
A. W. Phillips, « The relationship between unemployment and the rate of change of money wages in the UK
1861-1957 », Economica, 1958.
2
Keynes lui même écrivait : « Mais, puisque aucun syndicat ne songe à déclencher une grève chaque fois que le
coût de la vie augmente, on ne peut, comme l’a fait l’école classique, imputer à ces organismes l’obstacle qui
s’oppose à tout accroissement de l’emploi global » (TG 1982, p.40)
3
Robert E. Lucas, « Expectations and the Neutrality of Money »,Journal of Theoric Economy, Vol. 4, avril
1973, p. 103-124.

19
individuelles, ni des contrats à temps partiel, qui peuvent intervenir ou pas. Ainsi le temps
partiel représentait moins de 6% de la population active occupée en 1971 ; aujourd'hui il
dépasse les 16%, soit 29,4% pour les femmes et 5% pour les hommes, ce qui rejoint les
observations déjà faites sur les taux d'activité. C'est Pourquoi il faut encore corriger ce dernier
chiffre des diverses variations observées pour obtenir la durée effective du travail. Il est à
remarquer pour terminer, que la définition d'une durée légale du travail ne saurait être
considérée comme un frein à la production, que s'il était formellement interdit d'y déroger. Or
les débats actuels autour des 35 heures montrent bien que cette nouvelle réduction du temps
de travail n'a pour conséquence dans les entreprises qui ont de fortes contraintes mais qui ne
souhaitent pas embaucher, qu'une nouvelle gestion des heures supplémentaires. Malgré des
offensives répétées, il ne semble pas que les lois Aubry doivent être abrogées, mais seulement
assouplies, par un accès plus facile aux heures supplémentaires : c’est que semble montrer le
nouvel accord intervenu entre syndicats et patronat de la restauration en février 2007.
De même en février 1942, Léon Blum et Edouard Daladier avaient été déférés devant un
tribunal spécial à Riom, au motif que la loi des quarante heures (1936) aurait sapé l’effort de
guerre de la France, donc provoqué la défaite de juin 1940. En fait, dès avril 1942, ce même
tribunal décidait de suspendre le procès, devant l’évidence que l’accusation était sans
fondement : les usines d’armement avaient travaillé jour et nuit, malgré les quarante heures.

1
2212 - Le capital .
Ce terme désigne de manière générale tout élément susceptible de procurer un revenu
2
pendant une ou plusieurs périodes . Mais s’il s’agit de parler de facteurs de production, c’est
la notion de capital technique qui est concernée, c’est-à-dire l’ensemble de ressources
intermédiaires et reproductibles dont l'emploi permet, par un détour de production,
3
d'accroître la productivité du travail humain . C'est à Eugen von Böhm-Bawerk que l'on doit
cette notion de détour. Elle décrit le fait que la production est provisoirement ou partiellement
détournée, de son objectif principal qui est la satisfaction d'un besoin final, pour permettre la
production d'un bien intermédiaire. En d'autres termes il y a là un choix d'utiliser les
ressources disponibles pour produire un bien capital au lieu d'un bien de consommation finale.
C'est l'exemple classique du pêcheur qui utilise une ligne, et qui interrompt sa pêche pour
fabriquer un filet. On voit d'ailleurs tout de suite qu'il ne pourra le faire que si sa pêche est
déjà suffisante pour lui permettre de constituer des réserves qui « financeront » l'interruption -
ou bien s'il accepte une privation temporaire. On parlera d'investissement pour décrire ce
détour de la production, qui constitue bien une alternative à la production pour la
consommation finale.
Ces biens sont logiquement reproductibles puisqu'ils sont issus. du processus de
production, au même titre que n'importe quel produit. Ceci normalement exclut les ressources
naturelles, sauf dans la mesure où celles-ci font l'objet d'une gestion visant à les conserver
malgré l'usage qui en est fait : c'est la fonction du recyclage des déchets par exemple.
Comme n'importe quel autre bien ou service, le capital se détruit par l'usage. Pour cette
destruction, on parlera de consommation intermédiaire à propos des biens d'un seul usage.
S'agissant des biens capitaux durables on parlera d'amortissement: En tenant compte de cette
différence du mode de destruction on qualifiera différemment les biens capitaux : ceux qui ne
participent qu'à un seul cycle de production forment le capital circulant ou capital
d'exploitation ; par opposition ceux qui participent à plusieurs cycles forment le capital fixe.

1
De caput (tête) qui peut donner chef, mais ici plutôt cheptel (vif) qui est la somme des têtes de bétail.
2
D’après Bourdanove, C., Martos, F., Lexique de théorie économique, Ellipses, Paris, 1992, p. 21.
3
Barre R., Teulon F., Economie politique, PUF, Paris, 1997, T1, p.162.

20
Le terme d'amortissement désigne d'abord l'usure qui affecte le bien capital, et qui a
pour contrepartie le supplément de valeur donné aux biens qu'il aide à produire. Dans un
second temps ce terme sera employé pour le prélèvement qu'il faudra opérer sur le revenu de
la production, afin de constituer les provisions qui permettront d'entretenir le bien capital en
cours d'usure, et de le remplacer lorsqu'il sera complètement amorti. Puisque le capital
(comme le travail d'ailleurs) participe à la valeur ajoutée, il faudra distinguer entre une valeur
ajoutée brute (VAB) qui décrit toute la valeur apportée aux consommations intermédiaires par
le processus de transformation, y compris l'usure du capital, et une valeur ajoutée nette (VAN)
qui est lé résultat de la soustraction de l'amortissement à la VAB.
En conséquence 1'investissement brut, c'est-à-dire total, pourra lui aussi être subdivisé
en un investissement de remplacement qui compense l'amortissement du capital, et un
investissement net qui assure la croissance du stock. Pour désigner l'investissement total, la
comptabilité nationale utilise l'expression formation brute de capital fixe (FBCF).
Mais si le capital perd de la valeur de manière absolue du fait de l'amortissement, il en
perd aussi de manière relative du fait de l'obsolescence. Ce terme désigne la perte relative
d'efficacité d'un bien qui n'incorpore pas les derniers progrès technologiques, par comparaison
avec ceux qui en sont dotés. On parle à ce propos de générations de biens capitaux, chaque
génération correspondant à un certain état de la technologie. Deux biens appartenant à deux
générations différentes pourront avoir été produits en même temps, avoir le même degré
d'amortissement, mais l'efficacité du bien appartenant à la génération la plus récente sera
normalement plus grande. L'exemple de la croissance des mémoires d'ordinateur ou de
l'augmentation de la vitesse de calcul des processeurs est une bonne illustration de
l'obsolescence qui frappe ces machines. Une conséquence plus grave de l'obsolescence réside
dans l'incompatibilité qui peut apparaître entre un bien non encore amorti et ceux de
générations plus récentes qui viennent participer au même processus de production. pour les
ordinateurs ceci se traduit par l'incapacité dé faire fonctionner des logiciels trop récents sur
des machines déjà dépassées.
Au terme de cette présentation du concept de capital, il apparaît intéressant de l’utiliser
pour revenir sur le facteur travail. En effet, on doit à Gary Becker* l’idée que la quantité de
travail d’une population est une fonction de son capital humain, c’est-à-dire des capacités, de
la connaissance et des compétences incorporées dans les personnes et acquises par
l'éducation, la formation et l'expérience.Il en résulte qu’il est possible d’agir sur le volume de
ce capital, comme sur celui du capital physique, par un investissement

2213 - La terre
C'est là une expression traditionnelle, qui pourrait aujourd'hui être remplacée par
l'expression facteurs naturels ou ressources naturelles. Il s'agit d'une part de l'espace
nécessaire à l'installation des opérations de production et d'autre part des ressources naturelles
au sens strict, énergie et matières premières. Ce facteur est considéré comme non
reproductible, ce qui signifie que son temps d'utilisation est limité : un jour il n'y aura plus de
charbon ou plus de pétrole. Mais cette non reproductibilité est relative : on sait recycler
beaucoup de matériaux (métaux, verre, matières plastiques...) voire certaines énergies
(surgénérateurs)...
Il est rare qu’en pratique ce troisième facteur soit effectivement pris en considération.
Pour simplifier, on considère que lorsque les ressources naturelles sont reproductibles, par la
récupération, elles deviennent du capital, alors que si elles ne le sont pas, elles ne représentent
pas une contrainte réelle pour la production : si les présient Bush a refusé de ratifier le
protocole de Kyoto sur la protection de l’environnement, c’est justement pour ne pas imposer
cette contrainte à la production américaine.

21
Néanmoins une position radicalement inverse est possible lorsque l’on veut construire,
par exemple, une modèle prédictif sur la croissance mondiale à long terme. Dans ces
conditions si l’on veut que la croissance soit soutenable, donc durable, il faudra bien
s’imposer une limite au taux de croissance, pour ne pas (trop) détruire l’environnement.

Le rapport présenté à la Conférence mondiale sur l’environnement et le développement Brundtland


(1987) définit le développement durable (ou soutenable, selon les éditions) comme « un type de développement
qui permet de satisfaire les besoins du présent sans compromettre la possibilité pour les générations futures de
satisfaire les leurs ».
Gro Harlem Bruntland (rap.), Notre Avenir à Tous, Les Editions du Fleuve, Québec, 1989 (3°éd.)

1
Sans cela la croissance s’arrêtera seule, tôt ou tard. Cette thèse a été avancée, d’une
certaine manière, par Robert Malthus, puis reprise par le Club de Rome, dans les années 1970,
et encore aujourd’hui par certains Verts.

222 - Analyse de la production


Cette analyse passe par deux étapes. Dans un premier temps il faut identifier le lieu où
s’organise la combinaison des facteurs de production : l’unité de production ; ensuite vient
l’étude de la combinaison elle-même : la fonction de production.

2221 - Unités de production


Une unité de production est le lieu matériel ou virtuel où sont combinés les facteurs de
production, pour réaliser la production. Le terme unité a donc simultanément un sens
d'ensemble, de réunion, et un sens d'étalon de mesure.
La première perception empirique de ce concept est l'établissement qui est un lieu
physique dans lequel s'organise effectivement le processus de production : usine, bureau
d'étude, local d'artisan... Mais cette première approche de l'unité ne donne qu'une idée
technique de la production, alors que si l’on veut identifier l’agent économique dont l’activité
est la production, il faut ajouter une dimension de définition et de mise en œuvre du processus
de production. En d’autres termes il faut rechercher le lieu d’où les établissements sont
dirigés.
On rencontre alors le concept d'entreprise, qui est l'ensemble des établissements
(éventuellement un seul) placés sous une même direction et destinés à la production d'un
ensemble cohérent de biens et de services. La notion d'entreprise est évidemment liée à celle
d'entrepreneur qui est par définition le personnage qui dirige l'entreprise, et qui de ce fait doit
prendre là responsabilité des choix en matière d'organisation de celle-ci.
Si l'entreprise a toujours un aspect technique, elle prend aussi un sens juridique. Elle
désigne à la fois tous ceux qui sont propriétaires des moyens de production, et qui ont de ce
fait la responsabilité de l'administration, et tous ceux qui n'apportent que leur travail mais qui
sont néanmoins parties prenantes dans la combinaison productive. On parle de systèmes de
cogestion lorsque les salariés sont, par un procédé on un autre (actionnariat des salariés,
comité d'entreprise, etc.), associés aux décisions qui font la politique générale de l'entreprise.

1
que l’on peut qualifier de millénariste à partir de la doctrine religieuse selon laquelle (N x) mille ans après
l’arrivée du messie viendrait le jugement dernier (nouveau rendez-vous en 3001 !).

22
Néanmoins il doit être clair que, même associés aux décisions, les salariés restent
périphériques par rapport à l’entreprise qui, en dernier ressort, appartient aux apporteurs de
capitaux – du moins dans le monde actuel et à quelques exceptions prés.

L’entreprise étant identifiée comme l’agent dont l’activité principale est la production
de biens et services, on se retrouve à nouveau avec une multitude d’agents, petits et grands. Il
est donc nécessaire de procéder encore une fois à une agrégation. Il se trouve queue les
entreprises sont identifiées par leur produit principal : Renault et l'automobile, Swatch et les
montres, Total et le pétrole... Il parait donc pertinent de les regrouper en utilisant justement ce
critère du produit principal. Cette nouvelle unité de production très agrégée est un secteur de
production.
Le défaut du concept de secteur c'est que s'il est parfaitement clair sur le plan juridique,
en tant que réunion d'entreprises, il devient ambigu sur le plan technique, c'est-à-dire par
référence au produit qui le caractérise. En effet le critère retenu n'est pas exactement le
produit, mais le produit principal, de sorte que le périmètre du secteur; évidemment comme
celui d'une seule entreprise; enveloppe aussi des produits secondaires : Renault et l'armement
ou le crédit ; Swatch et l'automobile ; le Crédit agricole et l'assurance... Cela veut dire que
lorsque l’on exprime la production d’un secteur, c’est en réalité une grandeur sans
signification sur le plan technique, puisqu’elle est très hétérogène : on y trouve vraiment de
tout !
Pour cette raison on a défini une autre unité de production agrégée, la branche, qui se
définit comme la somme des parties d'entreprises qui produisent un bien ou un service donné.
La contrepartie de ce gain de précision en matière technique est logiquement une perte de
précision en matière juridique, puisque beaucoup d'entreprises présentes dans une banche, ne
le seront que partiellement et seront simultanément présentes dans d'autres branches, pour une
autre partie de leur production. En d’autres termes cette unité n’est que virtuelle, même si elle
est à la tête d’une production bien réelle et homogène.
Ayant décidé d’utiliser le produit (homogène) pour identifier la branche, on dispose
automatiquement d’une nomenclature, celle qui avait été définie plus haut justement pour les
biens et services, qui sont par essence des produits. C’est ainsi que la comptabilité nationale
identifie une Nomenclature d’activités française, ou NAF, symétrique de la Classification de
produits française ou CPF, toutes deux étant portées par le décret n°2002-1622 du 31
décembre 2002

2222 - Fonction de production


La première approche de la fonction de production résulte du constat que celle-ci
consiste en une destruction-transformation de consommations intermédiaires (énergie, biens
semi-finis, matières premières), c’est-à-dire de capital circulant : il faut de l’électricité, de
l’acier, du caoutchouc, des textiles, du plastique, du verre… pour fabriquer une automobile.
Ainsi chaque branche consomme les produits des autres branches, et même ses propres
produits (on parle alors d’intra-consommation : des légumes utilisés comme semences par
exemple). C’est ce que l’on peut visualiser dans le tableau ci-dessous qui, pour chaque couple
produit-branche, fait apparaître le montant d’une consommation intermédiaire : c’est la
« matrice des consommations intermédiaires ».

i / j BRANCHE 1 BRANCHE 2 BRANCHE 3 BRANCHE 4 TOTAL


PRODUIT 1 CI 1/1 CI 1/2 CI 1/3 CI 1/4 ∑CI 1/.
PRODUIT 2 CI 2/1 CI 2/2 CI 2/3 CI 2/4 ∑CI 2/.
PRODUIT 3 CI 3/1 CI 3/2 CI 3/3 CI 3/4 ∑CI 3/.
PRODUIT 4 CI 4/1 CI 4/2 CI 4/3 CI 4/4 ∑CI 4/.

23
TOTAL ∑CI ./1 ∑CI ./2 ∑CI ./3 ∑CI ./4 ∑∑CI ./.

PRODUCTION Y1 Y2 Y3 Y4 ∑Y
VAB VAB1 VAB2 VAB3 VAB4 ∑ VAB

Si l’on rapporte chaque consommation intermédiaire d’une branche à la production de


celle-ci (Cij/Yj = cij) on obtient des coefficients techniques. Chacun indique combien d’unités
d’un produit donné il faut consommer pour réaliser une unité de la production de la branche :
Cij = cij * Yj. Cette formule est bien une fonction de production, puisqu’elle montre la
contribution du capital circulant à la réalisation du produit.
Une telle fonction, fondée sur une relation de proportionnalité entre production et
consommations intermédiaires, donc une fixité des coefficients techniques, n’est applicable
qu’à des périodes courtes. En effet lorsque la période s’allo nge il est probable que les
quantités de consommations intermédiaires nécessaires à la production d’une unité de bien ou
de service, auront tendance à baisser par rationnalisation de la production.

La matrice des coefficients techniques est en fait la partie centrale d’un tableau
beaucoup plus grand le TES ou tableau des entrées-sorties. Ce dernier met en relation les
ressources et les emplois pour chacun des produits de la nomenclature : la somme des emplois
(consommation finale, formation brute de capital fixe, consommation intermédiaire) doit être
égale à la production. En réalité cette égalité n’est réalisée que si l’on ajoute une variable
tampon : la variation des stocks de produits, en hausse en cas d’excès de la production, en
baisse en cas d’insuffisance de la production. Si l’économie était ouverte vers l’extérieur, on
aurait en outre des importations en ressources, et des exportations en emplois.
Le TES permet à la fois de donner une photographie comptable de l’ensemble de
1
l’activité des branches, mais aussi de réaliser des simulations . Par exemple, si la
consommation finale du produit i augmente, la production devra augmenter. Dans ce cas les
consommations intermédiaires de la branche i devront augmenter, ce qui entrainera
l’augmentation des productions de toutes les branches fournissant à i. Ainsi la production
totale imputable à une augmentation donnée de la consommation finale sera un multiple de
celle-ci. Par exemple si, pour simplifier, on ne considère que la consommation finale, la
consommation intermédiaire et la production, on peut écrire :
ΔY = ΔCF + ΔCI
ou encore
ΔY = ΔCF + c*ΔY
donc
ΔY * (1 - c) = ΔCF
et finalement
ΔY = ΔCF * [1 / (1-c)].
Ce résultat peut encore être renforcé puisque, dans une certaine mesure, l’emploi et la
formation brute de capital fixe peuvent à leur tour réagir à l’augmentation de la production.

Il est souhaitable maintenant de dépasser cette présentation simple de la fonction de


production. En généralisant on peut dire que la fonction de production est une relation entre
les facteurs (de production) et la production. Mathématiquement les facteurs constituent donc
des variables explicatives, et la production est la variable expliquée. Ceci vaut aussi bien pour
l'ensemble de l'économie que pour chacune de ses unités de production.
On représente de manière générale une telle expression par la formule :

1
Par exemple voir Aben J. et Daures N. « Chalks vs Guns », Defence Economics, 1993, pp.53-63, pour savoir
combien d’emplois sont perdus quand la dépense militaire baisse, ceteris paribus.

24
Y = f(K, L)
où Y (de l'anglais yield : production) représente le produit ou la production ; K (de l’allemand
Kapital) représente le capital ; L (du français labeur ou de l'anglais labour) représente le
travail (on a vu plus haut qu’il est rare d’avoir une fonction incorporant aussi les ressources
naturelles).
La forme détaillée que prendra la fonction dépendra évidemment des hypothèses que l'on
formulera sur les particularités du processus de production.
La combinaison des facteurs, ou technique de production est représentée par le rapport
K/L (ou L/K) qui indique le volume d'un facteur que l'on souhaite associer à une unité de
l’autre. On aura ainsi des techniques intensives en travail (K/L relativement faible) et des
techniques intensives en capital (K/L relativement élevé) : en passant de l'airbus A300 à
l'airbus A320 on a fait baisser le nombre de personnes dans le poste de pilotage de 3 à 2, donc
ceteris paribus, on a une augmentation de K/L.
Il est traditionnel d’utiliser la fonction de production en supposant que l’un des deux
facteurs est fixe et que seule la quantité de l’autre peut varier. On appellera productivité
moyenne d'un facteur le rapport entre le volume total de la production réalisée et le volume
total du facteur considéré. Ainsi Y/L est la productivité moyenne du travail et Y/K celle du
capital. De même la productivité marginale d'un facteur est le rapport entre une variation
donnée du volume de ce facteur et la variation de la production qui en résulte, soit ∆Y/∆L et
∆Y/∆K respectivement pour le travail et le capital.
On suppose généralement que les productivités marginales, comme les productivités
moyennes, sont toujours positives, ce qui signifie que la production augmente lorsque l'un des
facteurs augmente, l’autre restant constant. Toutefois cette croissance de la production n'est
pas supposée monotone : on distingue une première zone où la productivité croît avec le
facteur de production et une seconde zone où la productivité décroît : la production augmente
plus vite que le facteur dans la première zone, et moins vite dans la seconde. On trouve ici la
loi dite « des rendements non proportionnels », mais qui est surtout connue comme loi des
rendements décroissants simplement parce que c'est la seconde partie de la courbe qui est la
plus importante pour le raisonnement. En effet en partant de zéro, l'entrepreneur qui rencontre
une zone de rendements croissants à intérêt à faire croître le facteur concerné, puisque la
production correspondante, donc le revenu, augmente encore plus vite. Le problème devient
plus délicat lorsque l'on rencontre des rendements décroissants puisque alors la production
augmente moins vite que le facteur étudié. Le point d'équilibre devrait être celui pour lequel le
supplément de production est juste suffisant pour payer la rémunération supplémentaire du
facteur qui a augmenté.

Des concepts de productivité marginale (∆Y/∆L) et de productivité moyenne (Y/L), on


peut tirer celui d’élasticité de la production par rapport à un facteur. En effet
(∆Y/∆K) / (Y/K) = (∆Y/Y) / (∆K/K) = α.
et
(∆Y/∆L) / (Y/L) = (∆Y/Y) / (∆L/L) = β

Cette expression est intéressante car elle montre de quel pourcentage varie la production
1
lorsque l’un des facteurs varie de 1% :
(∆Y/Y) = α * (∆K/K)
ou lorsque les deux facteurs augmentent de 1%, c’est-à-dire lorsque l’échelle de la production
progresse de 1% :
(∆Y/Y) = α * (∆K/K) + β * (∆L/L)

1
C’est un concept identique à l’élasticité de la consommation finale par rapport au revenu déjà rencontré.

25
L’ensemble des hypothèses présentées jusqu’ici ont été reprises dans la fonction de
production la plus connue :
Y = Kά . Lβ
fonction dite de Cobb et Douglas (ou simplement « Cobb-Douglas »), des noms de ses
concepteurs : James Cobb et Paul Douglas1.

Cette fonction a été notamment utilisée pour analyser la croissance historique dans
diverses économies. A partir de la formule présentée plus haut :
(∆Y/Y) = α * (∆K/K) + β * (∆L/L),
et des données sur la croissance des facteurs de production (∆K/K)o et (∆L/L)o, on peut
calculer la croissance de la production (∆Y/Y)c. Pour cela il suffit d’estimer α et β. C’est
assez simple, si l’on suppose que chacun des facteurs est rémunéré selon sa productivité
marginale (voir plus bas). Dans ce cas, si w est le taux de salaire :
β = (∆Y/∆L) / (Y/L) = (w * L) / Y.
Ce qui signifie que β est la part de la masse salariale dans la valeur de la production (par
exemple 0,7), et α est β-1 (donc 0,3).
Une fois (∆Y/Y)c obtenu, la question qui se pose est de savoir si c’est une estimation
satisfaisante (sans biais) de la variation réelle, observée, de la production (∆Y/Y)o. Or toutes
les études réalisées montrent qu’il n’en est rien.
2
Edward F. Denison a réalisé un tel travail sur diverses économies entre 1950 et 1962 et
3
un autre pour les Etats-Unis entre 1929 et 1957 . Il montrait que les croissances relatives du
volume du travail (∆L/L) et du volume du capital (∆K/K) expliquaient à peine entre 20 et
40% de la croissance réalisée de la production, voire 15% dans le cas de l’Allemagne. Un
résultat semblable a été proposé par Carré, Dubois et Malinvaud sur la période 1951-1969 en
4
France : à peine la moitié du taux de croissance s’explique par la croissance des facteurs.
5
Selon la fameuse expression de Robert Solow , l’analyse directe de la croissance laisse un
« résidu ». Ceci veut dire que la productivité globale des facteurs, (PGF) c’est-à-dire la
productivité de l’ensemble et non de chacun, a augmenté au cours de la période6. Mais comme
ce paramètre est calculé a posterioricomme rapport de la production constatée et des
quantités de facteurs utilisées, son usage n’est que « la mesure de notre ignorance », selon un
mot célèbre de Moses Abramovitz7.

Il est possible qu’une partie de l’explication se situe dans une remise en cause de
l’hypothèse de rendements d’échelle constants (α + β = 1). En d’autres termes, on aurait
réalisé des économies d’échelle : l’augmentation de la production ne fait augmenter que le
capital et le travail employés par les entreprises, mais pas nécessairement le capital mis à la
disposition des entreprises par l’administration (infrastructure). En conséquence le coût des

1
Cobb, J., Douglas, P., « A Theory of Production », American Economic Review, Vol. 18 (1928)
2
Why Growth Rates Differ: Postwar Experience in Nine Western Countries, Brookings Institution, 1967.
3
« United States Economic Growth », Journal of Business, 1962.
4
La croissance française, un essai d’analyse causale Seuil, Paris, 1972.
5
Solow R. M., « A contribution to the theory of Economic growth », Quarterly Journal of Economics, 1956, pp.
65-94.
6
Cette, G., Kocoglu, Y., Mairesse, J., « Un siècle de productivité globale des facteurs en France », Bulletin de la
Banque de France, 139/2005, pp.21-29.
7
Abramowitz, M., « Resource and output trends in the US since 1870 » American Economic Review, vol. 46,
1956, pp.5-23 ; « Economic Growth in the United States », American Economic Review, vol.52, 1962, pp.762-
782

26
facteurs constants se répartit sur un plus grand nombre d’unités, ce qui réduit le coût moyen
de production. De même l’amélioration progressive de la forme du système (ses institutions et
ses normes) peut avoir rendu la combinaison productive plus efficace.
Enfin il semble clair que le progrès technique, c’est-à-dire l’augmentation du stock des
connaissances techniques, qu’il soit incorporé dans le capital et le travail, ou qu’il concerne
l’environnement de la production, a pu lui aussi augmenter al productivité globale des
facteurs.

ANALYSE DE LA CROISSANCE FRANCAISE (% par an) [cf note 2]

1890- 1913- 1950- 1973- 1980- 1990- 1995-


1913 1950 1973 1980 1990 1995 2002

Croissance de la productivité

Productivité 1,48 0,98 4,89 2,04 2,69 1,55 0,88


par emploi
[a]

Productivité 1,91 1,65 5,28 3,07 3,29 1,75 1,77


horaire [b]

Contributions à la croissance de la productivité

Intensité 0,54 0,31 1,18 1,21 1,29 1,68 0,57


capitalistique
par emploi
[c]

Intensité 0,68 0,53 1,31 1,56 1,49 1,74 0,87


capitalistique
par heure
[d]

Durée du -0,29 -0,45 -0,26 -0,68 -0,40 -0,14 -0,59


travail [e]

PGF [f] 1,23 1,12 3,97 1,51 1,80 0,01 0,90

a=c+e+f ; b=d+f

Le concept de progrès technique renvoie, à son tour à celui d'innovation. Ce terme


désigne l'application au domaine de la production d'une découverte technique, c'est-à-dire
d'une invention. Les deux résultent d’une activité particulière du système économique, que
l’on appelle « recherche et développement » (R&D) : elle est assurée par la branche 73 de la
Nomenclature d’activités française (NAF, décret 2002-1622 du 31 décembre 2002).
L'innovation peut se situer à n'importe quel niveau du processus de production, depuis la
conception du produit, jusqu'à l'utilisation des consommations intermédiaires, en passant par
la transformation de ces dernières. Le passage des automobiles à propulsion aux automobiles
à traction avant (Citroën et sa « Traction ») représente une innovation de produit alors que le
passage de la chaîne de production continue aux ateliers indépendants est une innovation de
processus ou de procédé.

27
1
C’est à l’économiste autrichien Joseph Aloïs Schumpeter (1883-1950) que l’on doit la
première analyse poussée du concept d’innovation. Pour lui c’est l’apparition de
« grappes d’innovations » qui permet à une économie déprimée de connaître une reprise puis
une expansion.
Toutefois Alfred Sauvy (1898-1990) a montré que l’innovation a aus si des
conséquences sociales, dès lors que l’accroissement trop rapide de la productivité peut rendre
une partie de la main d’œuvre surnuméraire et créer du chômage. On dit que l’innovation est
récessive dans ce cas, processive dans le cas contraire.
Aujourd’hui, c’est dans les techniques de l’information et de la communication
(informatique et internet) que se situe l’essentiel de la recherche et développement (R&D) et
l’une des sources les plus significatives de la croissance.

PARTS DES 1990-1995 1995-2000


FACTEURS DANS
LA CROISSANCE

Taux de croissance États-Unis France États-Unis France


en %

Capital 1,25 1,28 2,27 1,37

(dont TIC) (0,55) (0,28) (1,11) (0,60)

Travail 0,86 0,05 1,30 0,54

Productivité globale 0,23 -0,24 0,63 0,74


des facteurs

Valeur ajoutée 2,35 1,09 4,2 2,65

Victime d'espionnage, Michelin s'interroge sur son culte du secret


Article paru dans Le Monde du 27 octobre 2005

Au Rallye du Japon, le fabricant français s'est fait dérober le pneu « magique » qui a contribué au
succès de Citroën en championnat du monde. (...)
Ce pneu est un concentré de technologie, fruit de plusieurs millions d'euros d'investissements. « Il
est évident qu'après quelques heures d'un « interrogatoire poussé, le pneu va livrer tous ses secrets »,
assure Aimé Chatard, responsable du rallye chez Michelin. A la clé, un gain de plusieurs années en
recherche et développement. (...) Le BTO (Better Traction Optimization), grâce à une gomme et une
structure dont Michelin est seul à détenir la formule, est capable de supporter aussi bien les contraintes
longitudinales que latérales pour une adhérence optimale à la route. En prime pour le voleur, le système
anticrevaison dernier cri dont est doté le pneu.
(...) Une innovation qui a poussé la concurrence à franchir certaines limites. Car Michelin est
formel : « Il ne s'agit pas d'un fric-frac réalisé par un original, c'est un travail de pro, avec un but
délibéré », accuse M. Henri-Diabaud.

1
Théorie de l’évolution économique (traduction), 1933.

28
23 - La place des marchés dans le circuit
Les deux sections précédentes ont montré deux agents institutionnels complémentaires
l’un de l’autre : les ménages disposent d’une capacité de travail et ont besoin de biens et de
services ; les entreprises disposent de biens et de services et ont besoin de travail. Un échange
devra donc s’opérer entre un flux de travail et un flux de biens et services, de valeurs égales.
Le marché est alors le lieu, matériel ou virtuel, où s’opère cet échange. De tels échanges
pourront effectivement avoir lieu parce que les deux co-échangistes connaîtront leurs
positions respectives grâce à l’expression d’une demande et d’une offre sur chacun des
marchés. Dans ces conditions le marché sera le lieu de rencontre entre offre et demande.

231 – La demande, l’offre et la formation des prix

2311 - La demande
La demande est la quantité d’une marchandise – bien ou service, y compris le travail,
mis sur le marché – que le demandeur est prêt à acquérir pour un prix et un revenu donné.
Il semble évident que la demande est une fonction croissante du revenu, mais ceci ne
vaut peut être pas pour toutes les marchandises. Le demandeur a tendance à classer les
marchandises entre inférieures, ou de première nécessité, et supérieures ou de luxe, en
fonction de leur prix. Dans ces conditions la croissance du revenu, les prix restant constants,
devrait conduire à une substitution des marchandises supérieures aux marchandises
inférieures, au moins en termes relatifs : les ménages à haut revenu affectent une plus grande
part de leur revenu à la consommation de services et moins à celle de produits alimentaires
(de là l’idée selon laquelle les niveaux de vie devraient être mesurés par catégories de
population et non globalement).
Par rapport aux prix, les réactions seront un peu de même nature. Lorsque le prix d’une
marchandise augmente, le pouvoir d’achat du demandeur sur cette marchandise diminue, la
demande devrait avoir tendance à diminuer. C’est l’effet revenu. Mais un autre effet va
apparaître : l’effet substitution. Selon la place du bien concerné dans la hiérarchie des
préférences de l’agent, la hausse du prix constatée peut donner lieu soit à une substitution au
détriment du bien : on substituera à ce bien d’autres dont les prix n’ont pas augmenté, ou bien
à l’inverse on économisera sur d’autres biens, pour pouvoir continuer à consommer de celui-
ci, malgré sa hausse de prix. C’est ce que l’on appelle l’effet Giffen1 : pour un ménage pauvre,
un bien nécessaire, pour lequel il n’existe pas de bon substitut, continuera d’être acquis
malgré la hausse de son prix, grâce à la réduction de la consommation d’autres biens (le pain
au temps de Giffen, le pétrole aujourd’hui). Un autre comportement paradoxal est traduit par
l’effet Veblen2 selon lequel la demande d’un bien pourra augmenter malgré la hausse de son
prix, parce qu’il a une forte valeur de distinction : c’est évidemment sur cet effet que se
fondent les créateurs de marques commerciales.
Pour endre compte de ces réactions variables de la demande, on utilise une nouvelle fois
le concept d’élasticité : variation relative de la demande rapportée à la variation relative du
revenu ou des prix (généralement mesurées en %) : (dD/D)/(dR/R) et (dD/D)/(dP/P). On dira
ainsi que la demande d’un bien est d’autant plus élastique au prix qu’elle varie plus lorsque
celui-ci varie. Dans le cas normal la première élasticité est positive et la seconde est négative,
mais dans certains cas (Giffen) ont peut avoir l’inverse.

1
Robert Giffen, The Progress of the Working Classes (1884)
2
Thorstein Veblen, Theory of the Leisure Class (1899)

29
2312 – L’offre
L’offre est la quantité d’une marchandise qu’un offreur est prêt à céder pour un prix
donné. Elle dépend évidemment des coûts supportés du fait de la forme de la fonction de
production, c’est-à-dire de la valeur des consommations de capital et de travail nécessaires à
la production d’une unité de la marchandise. Ces coûts peuvent être calculés au niveau de la
dernière unité produite : coût marginal, ou au niveau de l’ensemble de la production : coût
moyen. Partant de la loi des rendements non proportionnels, on déduira logiquement que le
coût marginal sera d’abord décroissant, par étalement progressif des coûts fixes, puis croissant
à mesure de la saturation de l’équipement. Par effet mécanique, cette évolution du coût
marginal se répercutera sur celle du coût moyen, mais avec un décalage (la moyenne décroit
et croit forcément moins vite que la variable elle-même).

2313 – La rencontre entre offre et demande


Un marché est d’abord un lieu, matériel ou virtuel, dans lequel les offreurs et les
demandeurs peuvent entrer en relation les uns avec les autres, à propos d’un produit donné,
qui deviendra de ce fait une marchandise. C’est donc une zone de chalandise, au sens où tous
les demandeurs qui y opèrent s’adressent à un groupe donné d’offreurs et réciproquement.
Ceci montre que cette zone n’est limitée que par les coûts d’information et de transport, ainsi
que par la nature de la marchandise (on trouve très peu de tenues de sports d’hivers dans les
magasins de Polynésie).
Il est facile d’observer que dans la réalité les marchandises font effectivement l’objet de
transactions, et que pour chacune les prix pratiqués diffèrent relativement peu les uns des
autres, alors même que chaque agent a très peu de relations avec les autres. La théorie
économique doit alors tenter de dire comment cette série de comportements indépendants les
uns des autres conduit à une situation de ce type.
Les auteurs classiques (XVIII° siècle) et néo-classiques (XIX et XX° siècles) ont
développé une théorie qui pose que si sur le marché un certain nombre de conditions sont
respectées, il existera en effet une situation telle qu’un prix unique sera trouvé pour chaque
marchandise, qui assurera un accord entre offreurs et demandeurs, et permettra la réalisation
de transactions à la satisfaction des uns et des autres. Ces conditions sont : l’atomicité qui fait
que les opérateurs interviennent individuellement sur des quantités trop insignifiants pour
peser sur le prix, celui-ci est donc une donnée à laquelle il faut s’adapter ; unicité ou
homogénéité de la marchandise, ce qui interdit des pratiques discriminatoires permettant à un
offreur de devenir un monopole ; transparence du marché, de sorte que tout opérateur dispose
de toute l’information existante sur la marchandise et les transactions déjà réalisées ou même
en négociation. Cette première série de conditions définissent une concurrence pure de tout
effet de monopole.
Pour que cette concurrence soit en outre parfaite, il faut ajouter : mobilité absolue des
facteurs de production, qui se déplacent d’une entreprise à l’autre mais aussi d’un marché à
l’autre en arbitrant sur les différences de taux de rémunération ; liberté d’entrée sur le
marché, de sorte que toute position dominante pourra être contestée par un nouvel offreur ou
demandeur proposant des conditions de prix collectivement plus satisfaisantes (on peut
renforcer la condition de liberté d’entrée par une liberté de sortie, ce qui signifie que les coûts
d’installation sont intégralement recouvrables en cas de sortie).
Etant donné les réactions inverses des demandeurs et des offreurs par rapport au prix, on
comprend qu’il peut exister un prix pour lequel les quantités offertes de la marchandise seront
égales aux quantités demandées. L’établissement et la publication de ce prix aura donc pour
effet de faire cesser les stratégies d’adaptation des offreurs comme des demandeurs, donc la
variation du prix proposé. Par référence à la science physique, un telle situation d’immobilité
sera appelée équilibre. C’est par tâtonnement que ce prix sera trouvé, comme si l’ensemble de

30
sa recherche avait été conduite avec l’aide d’un « crieur de prix » : « si c’est la demande qui
est supérieure à l’offre, on fait la hausse du prix… on crie m(m-1) prix des m marchandises
les unes en les autres. » 1
Mais il ne suffit pas, pour rendre compte de la réalité, que la théorie montre l’existence
d’un équilibre. Il faut encore que cet équilibre soit stable, comme celui d’un pendule. En effet,
même si le système économique a connu nombre de crises, il a toujours fini par revenir au
fonctionnement « normal » décrit plus haut. On montre que cette stabilité suppose que les
demandeurs soient plus sensibles aux variations de prix que les offreurs : l’élasticité de la
demande est supérieure à celle de l’offre dans le domaine de variation du prix proche du prix
d’équilibre (stabilité locale) voire dans une zone beaucoup plus étendue (stabilité globale).
Pour Adam Smith, initiateur de cette théorie, il est paradoxal que des comportements
égoïstes – recherche de l’utilité maximum par le consommateur et du profit maximum par le
producteur – conduisent à une situation qui s’avère être un équilibre au sens physique du
terme : puisque les opérateurs sont simultanément satisfaits, ils n’ont aucune raison de la
remettre en cause. Il en appelle en conséquence à une explication métaphysique : « en
dirigeant cette industrie de manière à ce que son produit ait le plus de valeur possible, il ne
pense qu'à son propre gain; en cela, comme dans beaucoup d'autres cas, il est conduit par
une main invisible à remplir une fin qui n'entre nullement dans ses intentions ; et ce n'est pas
toujours ce qu'il y a de plus mal pour la société, que cette fin n'entre pour rien dans ses
intentions. » 2.
La théorie de l'efficience des marchés a été développée par Eugène Fama3 à propos du
marché boursier (marché des titres financiers d’occasion) sans doute parce qu’il s’agit de la
représentation la plus fidèle d’un marché de concurrence pure et parfaite. Dans un marché
suffisamment large et ou l'information se répand instantanément, comme c'est le cas en
particulier du marché boursier, les opérateurs réagissent correctement et quasi immédiatement
aux informations s'ils ont la capacité cognitive de les interpréter avec justesse. Le prix d'une
action reflète donc à tout moment toute l'information disponible et correspond à sa véritable
valeur, c’est-à-dire à une fraction de la valeur de l’entreprise. Les cours évolueraient alors par
une marche aléatoire au gré des nouvelles informations (qu’elles traduisent ou non des faits
nouveaux).
Cette théorie est remise en cause par celle dite de la finance comportementale (en 2002,
le prix Nobel d’économie a été décerné à Daniel Kahneman4 et Vernon Smith5, ses
fondateurs) qui pose que des erreurs cognitives et émotionnelles collectives faussent la
formation des prix. Les marchés ne sont donc pas efficients, mais dotés d’un certain degré
d'efficience. La constatation de l'existence à certains moments de crises boursières vient
évidemment renforcer ce point de vue.

1
Léon Walras : « Eléments d’´economie politique pure », in Œuvres économiques complètes, vol. 8. Economica,
Paris, p.842. Il est intéressant de noter que l’on se bat encore aujourd’hui pour savoir ce que Walras voulait
vraiment dire avec les termes « crier » et « tâtonnement », donc quel degré de réalisme il voulait donner à sa
théorie. Voir : Dockès, P. : « Ce qui est, ce qui devrait etre, ce qui sera: Walras’s Economics as he saw it » Revue
Européenne des Sciences sociales, 116/1999, pp.13–36 ; Bridel, P., and E. Huck (2002): “Yet another look at
LéonWalras’s theory of tâtonnement,” The European Journal of the history of economic thought, 2002, pp.513–
540.
2
Recherche sur la nature et les causes de la richesse des nations, 1776, tome IV, p. 33
3
“The Behavior of Stock Market Prices” Journal of Business, janvier 1965, (pp.34-105) et "Random Walks in
Stock Market Prices” Financial Analysts Journal 1966.
4
Kahneman, D., et Tversky, A. “Prospect theory: An analysis of decisions under risk”, Econometrica, 47-1979,
pp.313-327.
5
Smith, Vernon, “Taxes and Share Valuation in Competitive Markets,” Review of Economics and Statistics,
février 1969.

31
Evidemment la réalité a pour tendance naturelle d’introduire de l’imperfection et de
l’impureté dans le système. Ainsi tout le monde a intérêt à garder pour soi son information,
qu’il s’agisse de la qualité des produits, des spécifications techniques, ou des clauses des
contrats. Il en résulte inévitablement que les marchés se rapprochent plus des situations
d’oligopole voire de monopole que des situations de concurrence. Certes l’oligopole est quand
même une « concurrence entre un petit nombre » selon l’expression de William Fellner1. Ceci
est particulièrement vrai lorsque le marché est contestable, c’est-à-dire que l’entrée sur le
marché est libre, gratuite, et absolue : pas de barrières juridiques, technologiques, ni
financières (accès libre à la main d’œuvre , à la technologie, aux consom mations
intermédiaires pour l’entrée ; coût fixes recouvrables pour la sortie).
Mais il reste toutes les situations, probablement plus nombreuses, où ces diverses
conditions ne sont pas respectées, et où donc la concurrence joue peu ou pas. Dans ce cas il
est probable que le prix sera supérieur au prix de concurrence si ce sont les offreurs qui ont
une position dominante et inférieur si ce sont les demandeurs : cartels, ententes…

Entente illégale : la Commission européenne inflige une amende de 750 millions d'euros à une dizaine
d'entreprises d'appareillage électrique, pour entente illégale sur les prix.
Le Monde, « La 12.15 », 24 janvier 2007

********
Abus de position dominante : Microsoft se plie à la décision de l'UE

La Commission européenne a annoncé, lundi 22 octobre, que le géant informatique américain Microsoft
s'était finalement plié à ses exigences quant à un meilleur partage d'informations techniques avec ses
concurrents. "Je salue le fait que Microsoft a enfin accepté des mesures concrètes pour assurer le plein
respect de la décision de 2004", a déclaré la commissaire à la concurrence, Neelie Kroes. Elle a toutefois
trouvé "regrettable que Microsoft les a seulement appliquées après un délai considérable, deux décisions
de justice et l'imposition d'astreintes journalières".
Microsoft a notamment convenu de fournir à un prix acceptable les informations nécessaires pour assurer
l'interopérabilité entre les PC et serveurs fonctionnant sous Windows et les serveurs équipés d'un autre
système d'exploitation, comme la Commission le lui avait ordonné en mars 2004, lorsqu'elle avait
condamné la firme de Redmond à payer une amende de 497,2 millions d'euros. Les royalties à verser pour
utiliser ces informations seront réduites à un paiement unique de 10 000 euros.

232 – La répartition primaire du revenu


L’étude de la fonction de production a montré que celle-ci est le produit des
contributions respectives des facteurs, donc aussi des agents qui les fournissent. Il est donc
naturel maintenant d’examiner ce qui revient de ce fait à chacun d’eux. C’est la question de la
répartition de la production, ou du revenu qui en est la contrepartie, entre ceux qui y ont
contribué, qui doit être traitée ici2. Il s’agit d’une répartition primaire, au sens où elle est le
constat des contributions (supposées) de chacun.
Avec le compte de production, on avait pu déjà allouer une partie de la valeur de celle-
ci à ceux qui procurent des consommations intermédiaires aux entreprises. Si l’on prend le
raisonnement pour l’ensemble de l’économie, les consommations intermédiaires reçues sont
forcément importées. C’est donc le reste du monde qui a été ainsi rétribué, et s’agissant des
matières premières et de l’énergie, ce sont plutôt les pays du Sud qui sont concernés. Les
soucis récents de l’Organisation mondiale du commerce (OMC) à Cancun, qui ont résulté

1
Competition among the Few: Oligopoly and Similar Market Structures, Alfred A. Knopf, 1949.
2
Ici plutôt que dans la section 222, car c’est le marché qui fixe le prix auquel s’acquiert une unité de facteur de
production.

32
d’un désaccord fondamental entre Nord et Sud, ont bien montré qu’il n’existe pas de
consensus sur une répartition équitable de la production entre ces deux parties du monde.
Une série de nouveaux comptes va permettre d’examiner la manière dont la valeur
ajoutée (brute), qui était le solde du compte précédent, pourra être répartie. Cette valeur va
venir en ressource du compte d’exploitation (action de mettre en valeur, de faire fonctionner
en vue d’un profit), qui montre justement les contributions du travail et du capital dans la
production.

COMPTE D’EXPLOITATION
EMPLOIS RESSOURCES
REMUNERATIONS + IMPOTS + VALEUR AJOUTEE BRUTE
EXCEDENT BRUT D’EXPLOITATION (EBE)

Le concept d’excédent brut d’exploitation, qui est le solde de ce nouveau compte après
rémunération du travail et paiement des impôts liés à la production, représente en gros ce qui
revient à l’autre facteur de production, c’est-à-dire le capital. Mais comme ce capital n’est pas
apporté à l’entreprise d’une seule manière, un nouveau compte, celui de revenu permettra
d’effectuer une nouvelle répartition.

COMPTE DE REVENU
EMPLOIS RESSOURCES
INTERETS + IMPOTS + DIVIDENDES EXCEDENT BRUT D’EXPLOITATION
REVENU DISPONIBLE BRUT (RDB)

Ainsi ceux qui se sont contentés de prêter du capital à l’entreprise recevront des intérêts,
tandis que les propriétaires de l’entreprise percevront des dividendes (division du bénéfice de
l’entreprise par le nombre de parts sociales).
Tous les contributeurs ayant ainsi été « désintéressés », l’éventuel résidus est le revenu
disponible (brut) de l’entreprise elle-même, qu’elle pourra utiliser éventuellement pour une
formation brute de capital fixe. C’est la somme des dividendes et du revenu disponible brut
qui constitue le profit de l’entrepreneur. En effet le RDB est intégralement de l’épargne
transformée en capital fixe et donne, par là, de la valeur à l’entreprise, donc aux actions qui
représentent son capital social (reste la question des options sur actions qui rémunèrent de
manière complémentaire les cadres de direction).

Jusqu’ici on s’est contenté de constater la répartition de la valeur produite entre les


facteurs qui y contribuent. Mais il est souhaitable d’aller plus loin en essayant d’expliquer
comment s’opère cette répartition.
Pour les auteurs classiques, lorsque les marchés - du travail et du capital - fonctionnent
de manière efficiente, la rémunération de l’unité de facteur ne peut être que l’équivalent de sa
contribution à la production: sa productivité marginale. En effet, comme on l’a vu
précédemment, en présence de rendements décroissants un entrepreneur n’augmentera
l’emploi de travail que jusqu’au moment où la dernière unité utilisée produira juste de quoi
payer le salaire fixé par le marché. Il en ira de même pour le capital face au taux d’intérêt.
Au plan global, le marché ne pourra donc assurer l’équilibre entre offre et demande
pour chaque facteur, que si, respectivement, le taux de salaire et le taux d’intérêt se fixent au
niveau de la productivité marginale du travail et de celle du capital. On a donc une vision
« équitable » de la répartition primaire de la valeur produite.
On a dit plus haut que le troisième facteur, la terre, n’était guère présent dans les
analyses contemporaines de la production. Cela était différent chez les premiers économistes
puisqu’ils vivaient dans un monde essentiellement agricole. Et c’est à propos de ce facteur

33
particulier qu’un nouveau concept de revenu est apparu, celui de rente et plus précisément de
rente foncière. Pour David Ricardo, la rente est la rémunération des qualités intrinsèques de la
terre mise en culture. Donc plus une terre est de bonne qualité et plus son propriétaire peut
demander un loyer élevé. Ceci résulte de ce que la croissance démographique oblige à mettre
en culture des terres de moins en moins productives. La dernière terre produit juste de quoi
nourir les travailleurs qui la cultivent, mais les autres produisent plus, voire beaucoup plus. Et
comme le salaire est le même pour tous les travailleurs, les propriétaires des bonnes terres
empochent la différence : la rente. Chez Ricardo la rente est donc différentielle : différence
entre le produit par hectare de la terre la plus mauvaise mise en culture, et celle de n’importe
quelle autre.
Mais la rente est un concept beaucoup plus large et applicable dans toutes les situations
où le marché fixe un seul prix alors que certains offreurs étaient prêts à accepter moins et
certains demandeurs à payer plus. Aujourd’hui on parle beaucoup de rente pétrolière, qui est
la rémunération de la rareté du pétrole face à une demande qui ne cesse de croître : les
compagnies et pays pétroliers ne font pas plus d’efforts, mais ils encaissent des revenus
beaucoup plus élevés.

Reste le profit. Son existence et son appropriation peuvent s’expliquer de manières


différentes, que l’on peut classer entre objectives et subjectives.
C’est à Karl Marx (1818-1883) que l’on assigne l’explication objective du profit. Celui-
1
ci est alors le produit de l’exploitation des prolétaires par les capitalistes. Le premier postulat
de Marx, conforme d’ailleurs à la pensée classique en général, est qu’il n’y a de valeur que
par le travail dépensé pour produire : « valeur-travail » par opposition à « valeur utilité ». Le
capital technique, ou son équivalent financier, n’est d’ailleurs que du travail mort, par
opposition au travail vif qui est l’énergie du travailleur. Donc toute la valeur produite devrait
être reversée aux travailleurs qui en sont à l’origine.
D’une autre côté, un travailleur ne peut survivre que s’il trouve à s’employer. Or seul
celui qui possède le capital financier, et avec lui le capital physique, a la capacité de l’engager
et de lui faire l’avance de son salaire, en attendant que la production ait été vendue. Il en
résulte bien sûr une relation asymétrique entre le travailleur et le capitaliste. Celle-ci est
encore aggravée par le fait que les travailleurs sont trop nombreux par rapport aux emplois
disponibles : il faudrait payer au dessous du salaire de subsistance pour rentabiliser le
recrutement de tous les travailleurs disponibles (il y a donc toujours une « armée de réserve »
des travailleurs). Dans ces conditions le capitaliste n’a aucune peine à imposer au travailleur
un salaire inférieur à la valeur qu’il a créée et à conserver pour lui la plus-value. C’est cette
relation asymétrique que l’on appelle (aussi) exploitation et c’est la plus-value qui constitue le
profit. On voit donc l’importance cruciale de l’hypothèse d’appropriation privative des
moyens de production : si les travailleurs sont aussi propriétaires de leur entreprise, il n’existe
pas d’exploitation.

Cette vision objective n’est pas nécessairement opposée à une définition qui serait, elle,
subjective, c’est-à-dire liée à la qualité de celui qui perçoit le profit. Le profit est alors
typiquement la rémunération de l’entrepreneur. Non parce qu’il dirige l’entreprise, mais parce
qu’il entreprend. C’est lui qui définit la stratégie, c’est lui qui choisit les gammes de produit
et les techniques de production. En un mot c’est lui qui décide des innovations qu’il faut
incorporer dans la production. Cette dernière précision ramène évidemment la pensée de
Schumpeter dans le raisonnement. L’entrepreneur est celui qui innove, notamment lorsque

1
Chez les Romains : celui qui n’est utile que par sa descendance ; ultérieurement : celui qui vit du seul produit
de son travail.

34
l’économie est en pleine crise. Il sera alors en situation de proposer des produits plus chers
parce que plus beaux, plus durables, plus pratiques... plus « branchés ». Ou bien il sera
capable de produire pour moins cher, sans pour autant abandonner ce gain au consommateur.
Et tant que l’entrepreneur n’aura pas été rattrapé par ses concurrents, il encaissera un
profit. Ceci montre d’ailleurs que la conception subjective du profit s’apprente beaucoup à la
rente dont il a été question plus haut.
La justification de ce profit subjectif peut encore être renforcée, si l’on observe
1
qu’innover c’est aussi prendre un risque. Pour Frank Knight (1885-1972) c’est ce risque qui
constitue l’essence de la fonction de l’entrepreneur, et c’est parce qu’il assume ce risque - et
tout autant qu’il l’assume - qu’il doit être rémunéré par un profit.

1
Dans son livre de 1921 : Risk, Uncertainty and Profit, Houghton Mifflin company, Boston.

35
24 – Monétarisation du circuit
Partant du constat que la monnaie existe, on peut dans un premier temps se poser deux
questions à propos du phénomène qu’elle constitue. C’est d’abord la question du “ pourquoi ”,
qui revient à s’interroger sur le rôle qu’elle tient dans le fonctionnement du système
économique, autrement dit sur ses fonctions. Dans un second temps on peut poser la question
du “ comment ”, c’est-à-dire s’interroger sur la manière dont la monnaie a progressivement
pris place dans le système, et donc quelles formes elle a prise hier, et prend aujourd’hui.
Quoiqu'il en soit il faut bien comprendre qu'il n'y a pas une seule explication de
l'invention de la monnaie et qu'il n'y a pas une seule histoire de son évolution : chaque société
a eu la sienne ; en outre on peut sans doute affirmer que ceux qui ont fait cette histoire
n’avaient pas conscience d’en être les acteurs.

241 – Les fonctions de la monnaie1


Pour rechercher les fonctions assumées par la monnaie dans le système économique, il
est commode de partir d’un système dénué de monnaie, c’est-à-dire où l’échange procède par
le troc (voir plus haut). La question n’est pas de savoir si de tels systèmes ont existé
réellement ou ont simplement utilisé des formes très immatures de la monnaie, ni même si les
formes de troc constatées aujourd’hui méritent toujours cette appellation2, mais seulement
d’imaginer ce qu’un tel système pourrait être. A partir de là il faut considérer que le système
économique a tendance à s’adapter à son environnement en adoptant toutes les solutions qui
augmentent son efficacité, qu’il s’agisse de technique ou d’organisation. C’est donc par
rapport à l’idée d’efficacité des échanges qu’il faut examiner les problèmes posés par
l’absence de la monnaie.

2411 Fonction d'étalonnage des valeurs


Pour qu'un agent économique puisse prendre des décisions rationnelles, il faut qu'il
soit en situation d'information la plus complète possible. Ceci notamment concerne les prix
des biens et des services qui peuvent faire l'objet d'un échange, ou en tout cas d'une
acquisition (on peut penser à des distributions non marchandes : logements, voitures, « de
fonction »). En effet on ne peut maximiser son utilité, à coût minimal, que si l'on peut
comparer les utilités et les prix respectifs des choses que l'on désire.
En l'absence de monnaie, on est réduit à des comparaisons deux à deux, ce qui revient
à établir des prix relatifs : prix de A en termes de B (pA/B). Dans ces conditions l'agent doit
connaître un très grand nombre de prix :

p./. A B N
A 1 PA/B pA/N
B pB/A 1 pB/N
N pN/A pN/B 1

Le tableau donne [n*(n-1)] prix significatifs (≠ 1), mais puisque pA/B n'est jamais que
l'inverse mathématique de pB/A, le noimbre utile tombe à
[n*(n-1)]/2.

1
Cette approche est acquise depuis Aristote (384-322), qui l’a développée dans Politique, Editions Budé, Paris,
1998, tome I, pp.14-24).
2
Ainsi les SEL, ou systèmes d’échange locaux, utilisent en réalité des monnaies scripturales privées (avec des
noms évocateurs : sel, prunes, blé...) à la place de la monnaie publique (euro, dollar...). De même il n’est pas sûr
que, sur les sites de troc, la part des paiements monétaires ne soit pas significative.

36
Si par contre on décide d’utiliser un étalon universel des valeurs ou unité de compte :
A*, on n'aura plus que (n-1) prix à connaître, et on parlera alors de prix absolus. Le système
est donc devenu plus efficace, puisqu'il faut un moindre coût d'information pour aboutir aux
mêmes résultats.

p./. A* B N
A* 1 / /
B pB/A* / /
N pN/A* / /

2412- Fonction d'intermédiation des échanges


En système de troc les échanges ne peuvent avoir lieu que s'il y a accord entre les co-
contractants sur la nature des deux biens échangés. Or cet accord n'a pas de raison de s'établir
a priori, étant donné les goûts, les spécialisations, les dotations initiales des divers agents. En
conséquence, les échanges désirés ne pourront s'effectuer que grâce à une multitude
d'échanges intermédiaires : A-B ; B-E ; E-J ; J-X ; X-C, alors que l'on voulait A-C.
La disposition d'un intermédiaire universel des échanges, permettra de réduire
considérablement le nombre d'opérations nécessaires pour un même résultat. Il y a donc
encore un gain d'efficacité.

2413- Fonction de réserve de valeur


Jusqu'ici on a supposé que les échanges avaient lieu instantanément. Or en réalité ils
s'inscrivent dans le temps et les délais souhaités entre les deux parties d'un échange peuvent
être assez longs. Il faut donc que celui qui a cédé un bien, et qui ne veut ou ne peut pas encore
acquérir un autre bien, puisse conserver pendant le temps nécessaire la valeur du produit de sa
vente. S'il y a troc, c'est un bien qu'il faut conserver, ce qui est coûteux (capacité de stockage,
dégradation), ou un service, ce qui est parfois impossible (immatérialité). Il est néanmoins
possible d’améliorer l’efficacité du troc dans ce cas en concluant des contrats à terme, par
exemple avec livraison d’un produit instantanément et livraison de sa contrepartie au terme
convenu, ce qui revient évidemment à la notion de crédit déjà rencontrée.
Grâce à un instrument universel de conservation des valeurs, ce problème est résolu,
puisque le détenteur de cet instrument sait que sa valeur est invariable. On peut en outre
supposer que l’on peut trouver un instrument dont le coût de conservation est nul ou
négligeable. C'est évidemment l'étalon universel qui est le mieux à même de remplir ce rôle,
par définition : un zloty vaut toujours un zloty1
Par contre il n'est pas acquis que cet étalon gardera bien son pouvoir d'achat sur les
biens et services, dès lors que les prix absolus de ceux-ci peuvent très bien varier. Et
l'expérience de l'inflation est là pour montrer qu'en effet la monnaie est un assez mauvais
conservateur du pouvoir d'achat : tout en gardant, évidemment, sa valeur mesurée en elle-
même, elle a perdu en France, depuis le début du siècle, environ 94% de son pouvoir d’achat
sur l'ensemble des biens et services2. Le contrat à terme est alors un bon moyen de fixer le
prix pour un certain temps, mais il est très improbable que l’on puisse obtenir une fixité de
longue durée à l’achat, sans contrepartie pour celui qui l’octroie.

Finalement il suffira de définir techniquement un instrument susceptible d’assurer les


trois fonctions présentées plus haut, pour mettre en place la monnaie : c’est ce que l’on verra
dans le prochain point. Cet actif bénéficiera ainsi d’une qualité hors du commun : permettre

1
- Monnaie polonaise, de zloto, signifiant “or”.
2
René Sédillot : Histoire du franc, Sirey, Paris, 1979

37
de libérer son titulaire de n’importe quelle dette, sans coût ni délai. C’est ce que l’on appelle
la liquidité, et c’est à ce propos que Dostoïewski pouvait écrire : « la monnaie c’est de la
liberté frappée ».
Cet instrument étant détenu par ses utilisateurs, quelle que soit la manière dont ils l’ont
obtenu : produit d’une vente, emprunt... vol, il constitue au plan comptable un emploi possible
de leurs ressources. Il apparaîtra donc à l’actif de leur bilan. Ainsi on pourra dorénavant
appliquer le terme actif à la monnaie, lorsque l’on se placera du point de vue de ses
utilisateurs.

242 – Les formes de la monnaie


Il n'y a pas une histoire des monnaies : il y avait des billets de banque en Chine, et des
virements bancaires en Perse, à l'époque où l'Europe était encore à la recherche de la pièce ; le
virement bancaire existait probablement en Europe, avant que le billet ne se soit réellement
imposé. Il est donc préférable de parler de chacune des formes monétaires séparément, et
quant aux liens historiques entre elles, de s'en tenir à l'expérience européenne.

2421 - Les pièces


Il est probable que la première fonction matérialisée a été celle d’étalon universel, au
sens où toute société a eu à choisir un bien – plutôt qu’un service qui a le défaut d’être
éphémère - permettant d’évaluer l’ensemble des autres biens et des services. On parle de
numéraire ou d’espèces numéraires, puisque l’instrument d’étalonnage des valeurs apparaît
sous les espèces du bien en question. De nombreux biens ont eu une telle fonction : blé (qui
est resté en langage populaire pour monnaie), coquillages, bétail (en relation avec « cheptel »,
donc « capital » mais aussi avec pecus - bétail en latin -, pecunia numerata qui donne
pécuniaire et numéraire), airain (l’aes latin a ainsi donné l’as, comme dans « plein aux as »)
et tout simplement argent. Mais le métal précieux s’est finalement imposé universellement,
puisque sa valeur propre peut aisément être déduite de son poids, pour une pureté fixée de sa
substance. De là le nom de nombreuses monnaies tiré de l’idée de poids en général ou
d’unités de poids particulières : peso (qui signifie poids) ou peseta, livre ou lire (entre 380 et
450 g.), drachme (3,24 g.), mark (244,5 g.)… L’intérêt de l’espèce numéraire est qu’elle
assure par nature une fonction de réserve, mais il faudra l’introduction de l’échange,
probablement en Grèce antique1 (quatre à cinq siècles avant l’ère chrétienne) pour que le
numéraire acquière la fonction d’intermédiaire et, de là, devienne monnaie à part entière. La
monnaie métallique est née, qui est donc une marchandise-monnaie, tirant sa valeur de son
poids, et de sa qualité : elle a donc une valeur intrinsèque. Pour l’usage dans l’échange il faut
pouvoir manipuler, d’où l’apparition du lingot (c’est-à-dire « bloc de métal moulé », pesant
par exemple un mark), que l’on « taille en pièces » pour permettre les petits paiements.

1
Orléan M, Aglietta A. : “ La violence de la monnaie ”, Paris : PUF, 1982, chapitre 4. L’échange n’est pas une
donnée première : il faut un régime politique assurant la liberté individuelle pour qu’un marché s’instaure.

38
Ecu aux branches d’olivier, argent 29,39 g de fin

Le problème suivant est logiquement celui de la sécurité du système de paiement qui est
ainsi en train de se mettre en place. En effet la pièce n’est un bon intermédiaire universel des
échanges que s’il n’existe aucun doute sur la qualité de son métal (il est de « bon aloi » ou de
bon alliage) et sur son poids, puisque ces deux paramètres, on l’a vu, fixent sa valeur. On ne
peut se contenter longtemps d’une situation où chaque utilisateur doit vérifier lui-même que
l’espèce est bien « sonnante » (quand on la choque sur une surface dure, le son produit
indique la qualité du métal) et «trébuchante » (on utilise une balance de précision ou
« trébuchet » pour vérifier le poids des métaux précieux).
La solution est que la pièce soit émise par un agent qui est en mesure de donner
confiance ou de l’imposer. Dans le premier cas, un orfèvre réputé, ayant « pignon sur rue »
peut suffire, mais très vite c’est le pouvoir politique qui va s’approprier le monopole de la
« frappe monétaire » et « battre monnaie ». En effet ces deux expressions signifient qu’il
imprime sa marque sur la pièce, voulant prouver ainsi que c’est une « vraie » ou qu’elle a sa
« vraie » valeur. Le mot « vraie » doit s’entendre par rapport à la définition officielle de la
pièce donnée par un texte législatif ou réglementaire (nom, poids, aloi, valeur en numéraire),
qui déclare en outre que ladite pièce sera acceptée en paiement des dettes contractées à l’égard
de l’Etat. A partir de là il est possible de dire que la pièce en question a « cours légal ». Le
résultat est que cette pièce peut dorénavant être utilisée comme instrument de règlement des
dettes publiques et privées et ne peut, en principe, être refusée (le « refus de vente » est en
droit français une infraction).

Naissance du franc : ordonnance de cours légal

« Nous avons été délivré à plein de prison et sommes franc et délivré à toujours »
« Nous avons ordonné et ordonnerons que le denier d’or fin que nous faisons faire à présent et entendons
faire continuer sera appelé franc d’or »
Jean II le Bon,
Ordonnance de Compiègne
5 décembre 1360.

Elle a aussi une « valeur légale » ou nominale (qui donne son nom) : ainsi la pièce d’un
louis frappée sous Louis XIII valait 10 livres, elle vaudra 20 francs sous Bonaparte (1803). En

39
contrepartie de ce service, l’Etat perçoit une taxe au moment de la frappe des pièces : au
douzième siècle on l’appelait seigneuriage et ce terme est resté pour signifier le droit de battre
monnaie, ou la rémunération de l’autorité émettrice de monnaie.

L’euro a cours légal

« Une monnaie nouvelle, non seulement par sa matérialité, mais parce qu’elle est la monnaie de plusieurs
pays rassemblés, non par la guerre mais par la volonté et la paix. Une monnaie qui tire sa valeur, non de sa
teneur ou de son poids, ni de la puissance d’une seule nation, mais de la confiance placée en la collectivité
européenne qui la garantit. »
Laurent Fabius, ministre de l’économie et des finances, 17 février 2002

Le problème économique que pose le système à monnaie métallique est celui de


l'adéquation de la quantité de métal disponible, à l'évolution des besoins, en présence d'une
expansion de l'activité. Plusieurs réponses peuvent être données.
Une première réponse simple, qui s’appuie sur le capital de confiance dont bénéficie le
responsable de l’émission monétaire, consiste dans les mutations monétaires qui réduisent la
quantité de métal contenue dans chaque pièce, tout en lui gardant sa valeur nominale : on
parle de dévaluation (c'est ce que pratiquaient aussi, mais artisanalement, les individus, en
rognant les pièces à la lime et en récupérant la poussière pour en faire frapper de nouvelles :
d'où la gravure sur la tranche qui interdit le limage). L’autorité responsable essaie de faire
accepter la pièce pour sa seule valeur nominale : le louis avait cours légal pour 10 livres et
plus tard pour 24, quel que soit son poids. C’est évidemment pourquoi on prenait soin de ne
pas inscrire la valeur nominale sur l’avers de la pièce, comme aujourd’hui (l’effigie étant sur
le revers : la Semeuse, Pasteur, sur les pièces de 2 francs par exemple). Il s’agit bien d’une
tentative de virtualisation de la monnaie qui prétend séparer le concept de son support
matériel.
Cette dévaluation est une solution imparfaite pour augmenter la valeur du stock de
monnaie, car les utilisateurs ont toujours la faculté d'augmenter leurs prix, ce qui vient effacer
progressivement l'effet de la mutation. En fait on pratique un escompte1 sur la pièce (en se
fondant sur sa valeur intrinsèque). Ceci montre que le pouvoir monétaire est limité par le
pouvoir de fixer ses prix : le premier a été pris par le « centre », le second appartient à la
« périphérie » ou à la « base ». Et cette base n’accepte pas la virtualisation de la monnaie, ne
voulant céder des marchandises « réelles » que contre une monnaie « réelle ».C'est ainsi que
l'histoire de France est rythmée par la succession de rois «faux monnayeurs » comme
Philippe IV « le Bel ».
Lorsque la confiance a été largement érodée par de telles manipulations, il devient
nécessaire de pratiquer l’opération inverse, ou réévaluation, qui fait augmenter la valeur
intrinsèque par rapport à la valeur nominale. Mais l’histoire en compte moins que des
dévaluations : ce fut le cas avec l’invention du franc par Jean II « le Bon ».
Autre solution au problème de la rareté des métaux : augmenter la quantité de métal
disponible en concevant un système monétaire bimétallique. On associe des pièces de deux
métaux précieux (or et argent), selon un taux de conversion fixe. Ainsi le franc Germinal,
défini par la loi du 17 germinal an XI ou 7 avril 1803, équivaut à 290,3 mg d’or pur ou à 4500
mg d’argent pur2. Ceci implique la liberté de demander au Trésor public, l'échange des pièces
d'un métal en pièces de l'autre métal, selon ce taux : par exemple 1 as d’or pour 5 as d’argent.

1
Achat d'un objet, d'un titre de créance, pour un prix (P) inférieur à sa valeur nominale (VN). Le taux
d'escompte est le rapport (VN-P)/VN.
2
Pierre-Michel Chélini : Histoire du franc au XX° siècle, Le Picard, Paris, 2001.

40
Ici encore un problème va résulter de ce que le rapport des prix des métaux sur le marché,
risque de s'écarter du taux de conversion fixé par la loi. Si l'or devient abondant, l'argent voit
son prix relatif augmenter. Il est alors rentable de donner ses pièces d'or au Trésor, d'obtenir
des pièces d'argent selon le taux officiel, puis de vendre l'argent ainsi récupéré sur le marché,
en obtenant ainsi plus d'or que l'on en avait au départ. On peut réaliser ainsi un bénéfice à
chaque tour. On peut aussi garder l'argent en réserve et n'utiliser que les pièces d'or. Quoiqu'il
en soit, le Trésor n'a plus que des pièces d'or à faire circuler, de sorte que la mauvaise
monnaie (en métal ayant perdu de la valeur) a chassé la bonne (en métal ayant gagné de la
valeur). C'est la fameuse loi de Gresham (ou peut être d'Oresme)1.

Le franc germinal et le bimétallisme à la française

La première loi, la loi du 7-17 germinal an XI (28 mars-7 avril 1803), comporte vingt-deux articles
précédés d’une disposition générale, très brève : « cinq grammes d’argent, au titre de neuf dixième de fin,
constituent l’unité monétaire qui conserve le nom de franc ». Elle réglemente la fabrication des monnaies
et les conditions de leur fabrication.
Elle énumère les pièces qui seront frappées, ¼, ½, ¾, 1, 2 et 5 francs d’argent ; 20 et 40 francs or,
précise les figures et les légendes qui figureront sur les pièces. Plusieurs principes généraux s’en
dégagent :
1- L’argent est choisi comme étalon, l’or lui étant complètement subordonné. Cette invariabilité de
l’argent par rapport à l’or est une garantie pour les transactions commerciales. Le lien de la monnaie avec
le système métrique est confirmé. L’unité monétaire, qui conserve le nom de franc, a un titre et un poids
immuable. Comme le précisait déjà la loi de thermidor an III, le titre de la monnaie sera neuf parties de ce
métal pur et une partie d’alliage ; la pièce de 1 F sera à la taille de 5 g.
2- La loi confirme l’abandon de la notion de monnaie de compte utilisée sous la Royauté, qui était
une valeur abstraite ¢la livre tournois ¢représentée par une quantité de métal variable au gré du souverain.
Désormais monnaie de compte et monnaie réelle coïncident. Fait notoire, la valeur de la monnaie ne
dépend plus de la volonté du législateur.
3- La loi fixe le rapport entre l’or et l’argent à 15,5, soit 4,5 g d’argent pour 0,29 g d’or.
Ce rapport, s’il n’est pas clairement inscrit dans le texte de loi, se situe en continuité avec la
grande réforme établie en 1785 par Calonne, que ses détracteurs n’eurent de cesse de remettre en cause
pendant les débuts de la République et jusqu’à la préparation des lois de germinal an XI. Il est précisé
qu’en cas de variation de l’or par rapport à l’argent, une refonte pourra être décidée, mais que seul l’or
sera refondu.
4- Cette loi, qui se veut libérale, fait disparaître les pénalités contre le triage entre les bonnes et les
mauvaises monnaies, pratiqué à grande échelle par les marchands et les usuriers. De même le billonnage
et la fonte des monnaies ne sont pas sanctionnés.
Tout droit de seigneuriage, taxe perçue sur les fabrications, disparaît, ce qui aboutit en particulier à
une réévaluation de la monnaie dans les opérations de change. 5o La loi cherche à accroître l’exactitude
des fabrications en réduisant les tolérances de titre et de poids. Pour limiter les risques d’erreur, les
espèces fabriquées en province sont vérifiées dans les ateliers monétaires parisiens, sous le contrôle de
l’administration centrale. La loi de germinal an XI ne cherche pas à résoudre tous les problèmes en même
temps. Elle tente pourtant de donner une certaine confiance à l’économie, de permettre que les nouvelles
monnaies l’emportent peu à peu sur les anciennes. Autre fait significatif, en créant le franc germinal,
Bonaparte impose une nouvelle symbolique sur les monnaies françaises.

Bimétallisme et loi de Gresham

Supposons que le taux officiel est de 1 gramme d’or pour 5 grammes d’argent et que, sur le
marché, le prix de l’argent augmente, de sorte qu’un gramme d’or ne s’échange plus que contre 4
grammes d’argent.

1
Sir Thomas Gresham (1519-1579), financier de la couronne sous Elisabeth I°, fonda la bourse de Londres, et
découvrit la loi qui porte son nom dans « Enquête sur la chute du change » (1558). Nicolas Oresme (1320-1382),
précepteur du futur Charles V, écrivit « De l'origine, nature et mutation des monnaies » qui aurait pu inspirer
Gresham.

41
Alors à la caisse royale 1Au = 5Ag ; sur le marché 5Ag = 1,25Au ; à la caisse 1,25Au = 6,25Ag ;
sur le marché 6,25Ag = 1,56Au... jusqu’au moment où tout Ag est sur le marché et tout Au à la caisse ou
dans la circulation monétaire.

De toute façon ce qui marque l'évolution des pièces c'est une séparation progressive
entre la valeur nominale et la valeur intrinsèque. Celle-ci tend même à disparaître
complètement puisque les pièces contemporaines sont en métal vil. Cette séparation est
consacrée aussi par le fait que la valeur nominale des pièces finit par être frappée elle aussi
sur l'avers, le revers portant toujours le symbole de l'autorité battant monnaie (le visage du roi
ou la semeuse de la république).

Petit Lexique Monétaire

As : as rudis ou aes rudis airain brut (94% de cuivre, 6% d'étain) puis as libralis, c'est-à-dire “l'espèce en
bronze qui pèse une livre” (forme circulaire et marquée d’une tête de bétail : pecunia numerata).
Aujourd’hui il en reste l’expression « plein aux as ».

Couronne : probablement référence à la couronne royale frappée sur le revers de la pièce.

Dinar : aujourd'hui en Tunisie par exemple ou en Serbie, ou denier en France sous l'ancien régime (1/240
livre), du latin denarius (10 puis 16 as).

Dollar : de thaler et Joachimsthaler nom donné à des pièces fabriquées à partir de 1518, avec des minerais
des mines de Joachimsthal (aujourd'hui Jáchymov en Tchéquie).

Drachme : en Grèce ancienne, unité de poids représentant 3,24 g. A partir de là, pièce d'argent valant 100
oboles, ou un quart à un demi statère d’argent (le statère étant aussi une unité de poids représentant 8 à 12
grammes).

Ducat : qui fait référence au duc qui est l’autorité responsable de l’émission.

Ecu : référence à l'écu de France frappé sur le revers des pièces à partir de 1336. C'est aussi un acronyme
pour European Currency Unit, ou unité de compte européenne, inventée avec la politique agricole
commune, pour pouvoir exprimer les prix agricoles des divers pays dans une même unité. Elle est
devenue monnaie inter-étatique avec le système monétaire européen de 1979.

Euro : c’est le nom que porte la monnaie unique européenne depuis le 1er janvier 1999. A la différence de
l’écu c’est une monnaie de plein exercice pour les échanges aussi bien privés que publics, qui a été
consacrée par la mise en circulation d’espèces en métal (pièces) et en papier (billet) en 2002.

Franc : créé le 5 décembre 1360 par Jean II « Le Bon », pour marquer sa libération après quatre années
dans une prison anglaise (défaite de Poitiers 1356). Connu des numismates comme le « franc à cheval »,
le roi des francs y étant représenté sur son cheval : “Johannes francorum rex dei gratia”. Le terme franc a
été repris par la loi du 17 germinal an XI (7 avril 1803), qui créa donc le “franc germinal”. Le franc a
disparu officiellement le 1er janvier 1999 lors de l’arrivée de l’euro.

Livre : monnaie romaine de 12 onces ou 327,45 g (-454) ou 0,5 onces (-89). Monnaie de compte française
représentant un poids de métal variable (une livre d’argent à l’origine, et 5 grammes en 1801) ; à Tours
(livre tournois), on comptait la livre pour 20 sous, 80 liards ou 240 deniers. Pound au Royaume Uni, Punt
en Irlande, lira en Italie…

Louis : de Louis XIII, monnaie d’or à l’effigie du roi de France, pour 10 puis 24 livres ; en 1803 c’est la
pièce d’or de 20 francs.

Mark : du Franc Marka qui était une unité de poids, soit 8 onces ou 244,5 g, sous forme de lingot.

42
2422 - Les billets
L'invention des billets s'est faite selon deux logiques : étatique et marchande,
mais dans tous les cas c'est l'existence d'un support papier, et ensuite de l'imprimerie qui a
rendu son développement possible.
L'Etat a utilisé du papier monnaie soit de manière accidentelle et transitoire (colonies)
soit surtout pour financer des besoins budgétaires en forte croissance (guerres ou grands
travaux). C’est à propos de cette seconde pratique que l’on a inventé l’expression « faire
marcher la planche à billets »1.
De son côté l'initiative privée a développé le billet de banque, à la fois pour satisfaire
le besoin de sécurité et de placement des détenteurs de pièces, et pour satisfaire les besoins de
financement des entrepreneurs. Encore une fois c'est l'Etat qui a fini par l'emporter, puisqu'il a
interdit toute émission monétaire en dehors de l'institut d'émission, organisme
(éventuellement privé) ayant le monopole de l'émission monétaire pour la monnaie légale : en
1800, la Banque de France, entreprise privée, obtient le monopole de l’émission des billets à
Paris pour 15 ans.

Ce système est fondé sur le principe de représentation : le billet représente la vraie


monnaie, celle qui est déposée et que l'on peut toujours se faire rembourser à vue contre le
billet. C’est en cela que l’on est en droit de parler de monnaie fiduciaire, puisque celui qui
l’utilise a confiance (fiducia) en la promesse de l’émetteur de rembourser à vue. D’ailleurs
certains billets de la fin du XX° siècle portaient encore mention de cela : « Lire Mille -
Pagabili a vista al portatore »2. Un tel système ne fonctionne donc correctement que dans la
mesure où la confiance dans la valeur représentative du papier est assurée. Ceci suppose donc
le respect d'une certaine couverture métallique pour le papier, de manière à pouvoir assurer sa
convertibilité, dans des condit ions normales. Mais d’un autre côté le crédit ne peut se
développer (au bénéfice des particuliers ou de l'Etat) que si la couverture est inférieure à
100%, de sorte que ce système est soumis à un risque permanent de perte de confiance

1
Expression qu’il vaut mieux laisser aux journalistes et aux hommes politiques...
2
Sur l’ancien billet italien de 1000 lires (ou autres) qui indique que ces 1000 LIT sont « payables à vue au
porteur ». Ceci n’a évidemment plus de sens puisque les billets sont tous inconvertibles.

43
(banqueroute de Law)1. Un débat s'est donc instauré entre économistes sur ce que devait être
une couverture optimale, les uns (David Ricardo et le Currency principle) ayant une vision
très restrictive, les autres (Thomas Tooke et le Banking principle) croyant au crédit. En
pratique la couverture n'était que de 30% en moyenne à la fin du XIX° siècle.
Vu la croissance continue des besoins de financement, par rapport à la quantité de
métal, il a fallu en venir à 'abandon l de la couverture métallique, c'est-à-dire à
l'inconvertibilité des monnaies de papier . On parle alors de cours forcé des billets. Ceci est
arrivé dans les périodes de crise, puis de manière définitive une fois constatée l'impossibilité
de revenir à la convertibilité.

« Après les journées des 5 et 6 octobre 1789, les Parisiens ramènent de Versailles à Paris, "le boulanger, la
boulangère et le petit mitron" (famille royale) qui s'installent aux Tuileries. Le 2 novembre 1789, les biens de
l'Église sont nationalisés. Le Royaume est divisé en 83 départements en décembre. Le 17 avril 1790,
l'assignat devient papier-monnaie et reçoit un cours légal, puis un cours forcé à partir de septembre. »

« L'origine des assignats remonte au mois de décembre 1789 lorsque fut créée la Caisse de l'extraordinaire.
Celle-ci devait recevoir le produit de la vente des biens confisqués au clergé. Les assignats n'étaient que de
simples avances sur la vente des biens nationaux. Ces assignats portaient intérêt.
Les choses vont cependant évoluer rapidement. En septembre 1790, les assignats cessent de porter intérêt et
sont reçus «comme espèces sonnantes dans toutes les caisses publiques et particulières». Le montant des
émissions s'élève dans un mouvement qui s'accélère jusqu'en 1796. Face à cette prolifération de papier-
monnaie, le gage des domaines nationaux auquel on continue à faire référence devient illusoire et la valeur
des assignats s'effondre. »
www.cgb.fr/monnaies

En France c'est par une loi du 25 juin 1928 (art. 2), que Poincaré, le dernier, a tenté de
rétablir la convertibilité en or du franc : 65,5 mg d'or à 900 0/00 de fin (c’est-à-dire d’or pur).
Toute référence à l'or a disparu avec la loi du 1er octobre 1936, mais aucune définition légale
n'a été donnée en contrepartie.

2423 - La monnaie scripturale


Elle se définit comme « l’ensemble des soldes positifs des comptes de dépôt à vue
ouverts auprès des institutions financières ». Le solde en question est celui de toutes les
opérations de dépôt et retrait intervenues au cours d’une période donnée, sur les comptes. Un
solde négatif signifierait non seulement que l’on n’a pas de monnaie scripturale, mais que l’on
en doit : le titulaire du compte ci-dessous a bien 27 998,65 euros sous forme de monnaie
scripturale.

1
Faure, Edgar, La banqueroute de Law , 17 juillet 1720, Gallimard, Paris, 1977.

44
CREDIT ENSEIGNANT DU MIDI Agence Montpellier Richter

RELEVE - DEPOT A VUE


MONSIEUR XXL
154.3621.6.000
DATE LIBELLE DEBIT CREDIT
D’OPERATION
SOLDE ANTERIEUR 28 526,35
10.11.07 VI DUBOIS 345683 1000,00
15.11.07 CHEQUE 896234 620,30
27.11.07 RESTAURANT ADOUR 148,00
TOTAL PAIEMENT PAR
CARTES : 148,00
SOLDE AU 27.11.07 27 998,65

Ceci signifie que cette forme de la monnaie n'existe que comme écriture dans les livres
comptables des institutions financières. Cette écriture est la reconnaissance d'une dette à vue
contractée par l'institution, à l'égard d'un client.
L'invention de cette forme monétaire procède de la même logique que celle de la
monnaie papier. D'une part un dépôt d'une autre forme de monnaie conduit à l'apparition d'une
écriture (chiffre) au crédit du compte du déposant ; d'autre part une opération de prêt conduit
l'institution à créditer le compte du bénéficiaire de la même manière. Quoiqu'il en soit, le
détenteur du compte a maintenant la possibilité d'utiliser cette créance à vue, pour régler ses
dettes, parce que cette forme de monnaie a d'abord circulé par convention commerciale, puis
par cours légal, et aujourd'hui par cours forcé pour certains paiements (salaires par exemple).
La seule difficulté, vu le caractère immatériel de cette forme monétaire, est d'en
assurer la circulation. Puisqu'elle apparaît seulement dans la comptabilité des institutions
financières, il faut que ses utilisateurs demandent à celles-ci de modifier les écritures en
conséquence. Pour cela on utilise le chèque (Payez contre ce chèque... à...) ; l'ordre de
virement (unique, répétitif, par bordereau papier ou par internet...) ; l'autorisation de
prélèvement (une fois délivrée par le client, c'est le créancier qui prend l'initiative de l'ordre
de paiement, de sorte qu’elle est très utile pour les paiements répétitifs) ; le titre interbancaire
de paiement (TIP, qui est une autorisation ponctuelle de prélèvement donnée par le débiteur
sur sollicitation du créancier) ; et enfin la carte de paiement (instantané ou retardé) et la carte
de crédit.
L'apparition des cartes permet d'utiliser toutes les ressources de l'informatique
(lecteurs de cartes en relation avec les ordinateurs comptables des institutions financières)
pour assurer les paiements (et les conversions de monnaies : scripturale contre billets dans les
distributeurs automatiques), mais elle ne crée par une nouvelle forme de monnaie. La monnaie
utilisée est toujours scripturale puisqu'elle n'existe toujours que sous forme d'écriture
comptable (même si c'est une écriture informatisée).
Les cartes peuvent être à paiement immédiat ou différé. Dans le second cas, toute
opération de débit (sauf tirage d’espèce) intervenant entre le 1er et le X du mois est imputée à
la fin du mois courant, elle est imputée à la fin du mois suivant si elle intervient entre X et la
fin du mois1. La carte devient carte de crédit si le contrat prévoit la possibilité de tirage au
delà du solde positif, dans une limite donnée.
Le problème que pose l’existence de cette monnaie scripturale, à ceux qui l’utilisent,
est que sa circulation laisse des traces : tous les paiements sont enregistrés et peuvent être
retrouvés sans difficulté. Ceci signifie que cette monnaie est un instrument redoutable de
contrôle social : « le 4 juillet à 14h25 vous n’étiez pas dans le bureau de M. X, puisque votre
carte de paiement a été utilisée à 100 km de là, à 14h20 ! ».
1
Apparemment il existe, en France, un accord entre les banques pour fixer X au 24 du mois.

45
2424 - La monnaie électronique 1
Aujourd’hui l’expression « monnaie électronique » est très employée mais elle désigne
des choses très différentes les unes des autres. Elle est souvent usitée de manière abusive. Il
peut s’agir de simples systèmes de paiement par la voie informatique permettant de sécuriser
la transmission des informations nécessaires à un prélèvement bancaire : le cryptage permet
d’éviter que des numéros de cartes bancaires ou, a fortiori, des codes secrets soient captés par
des observateurs indélicats. Il ne s’agit pas là, évidemment, d’une question monétaire mais
purement de communication. C’est toujours la monnaie scripturale qui permet la transaction.
Tout juste pourrait-on parler d’une autorisation électronique de prélèvement, si l’on voulait
céder à l’effet de mode (ou carrément d’une « @utorisation de prélèvement »).
En revanche la technique du porte-monnaie électronique (PME) ouvre la voie à
l’apparition d’une forme véritablement nouvelle de la monnaie. Il s’agit de cartes à mémoire
versatile, c’est-à-dire dont le contenu peut être modifié par l’utilisateur (même lorsque ce
dispositif est installé dans la mémoire d’une carte de paiement classique, qui devient donc à
double usage). Ceci permet d’installer un compteur dans la mémoire, qui est incrémenté ou
décrémenté par des « dépôts » ou « retraits » d’une forme quelconque de monnaie. En
pratique, et comme d’habitude, il suffit de verser une somme à l’entreprise gestionnaire du
système, pour que celle-ci inscrive l’équivalent en crédit dans la mémoire de la carte.
L’automatisation est possible dans tous les cas puisqu’il existe des automates capables de
reconnaître les pièces et les billets. Néanmoins les systèmes les plus répandus se fondent sur
des conversions monnaie scripturale-monnaie électronique (et vice-versa bien sûr) :
l’ordinateur débitant (créditant) le compte de dépôt à vue au moment même où incrémente
(décrémente) le compteur du PME.
A partir de là il faut savoir si le chiffre (positif évidemment) affiché par le compteur
indique bien une forme nouvelle de la monnaie. On peut légitimement supposer que le
compteur est libellé avec le numéraire officiel (euro, dollar, yen…) de sorte que l’avoir
contenu par le PME est bien dans la même position que n’importe quelle autre forme de la
monnaie, à l’égard de la fonction d’étalonnage des valeurs. Néanmoins, s’agissant de
monnaies privées gérées par des entreprises qui ne seraient pas des intermédiaires financiers
et qui ne bénéficieraient pas d’une grande confiance, il est concevable que les avoirs sur les
PME fassent l’objet d’un escompte : 1 € PME = 0,9 € papiers ou scripturaux, par exemple. Ce
serait la sanction du risque de crédit pesant sur l’émetteur de cette monnaie. Un tel risque peut
être supprimé dès lors que les émetteurs de monnaie électronique acquièrent le statut
d’établissement de crédit contrôlés par l’Etat, donc sont alignés sur le droit commun.
La capacité d’intermédiation universelle des échanges n’est qu’un problème
technique : si les émetteurs de monnaie électronique se réunissent pour adopter le même
système et le font accepter par tous les utilisateurs, comme c’est le cas en France avec la carte
bancaire, on tend bien vers un instrument de paiement universel. Reste néanmoins les
conditions d’utilisation de l’avoir stocké dans le PME. S’il disparaît au premier usage
(système fermé) parce que le débit de la carte ne peut se faire que contre un crédit sur un
compte bancaire, il est difficile de voir sur l’affichage du compteur autre chose qu’une
représentation éphémère de monnaie scripturale (et bien plus éphémère que les billets à
l’origine). En revanche s’il est possible de transmettre de la monnaie électronique de PME à
PME (système ouvert), alors la monnaie électronique acquiert son autonomie et, dans ce cas,
on peut véritablement parler d’une forme distincte de la monnaie, à côté des trois autres, avec
le même niveau de dématérialisation que la monnaie scripturale.

1
Voir le numéro spécial de la Revue d’Economie Financière consacré à ce sujet (53/2000) ainsi que S. Lanskoy :
« La nature juridique de la monnaie électronique », Bulletin de la Banque de France, n°70/1999 et J.S.
Mésonnier : « Monnaie électronique et politique monétaire », Bulletin de la Banque de France, n°91/2001.

46
L’intérêt de ce système n’est pas négligeable. Il permet à son utilisateur de retrouver
l’anonymat qu’il avait perdu avec la monnaie scripturale : le PME est au porteur (et donc
malheur à celui qui le perd alors qu’il est chargé). Il devrait engendrer des économies pour
l’ensemble du système économique en réduisant la manipulation des pièces, billets et
chèques. Enfin il pourrait assurer « en douceur » le transfert d’une partie du coût de gestion
du système de paiement par cartes, des commerçants qui le supportent essentiellement
aujourd’hui, aux consommateurs porteurs de PME probablement demain. D’ores et déjà, la
contribution forfaitaire que les commerçants doivent acquitter pour les paiements inférieurs à
15 euros, en cas d’usage de la carte classique, n’existe pas pour le PME, et la cotisation
représentant de l’ordre de 1% de la transaction est réduite de moitié environ dans ce cas. Le
résultat c’est que ces mêmes commerçants n’ont plus de raison de refuser l’usage de la carte
pour les paiements inférieurs à 15 euros.
En France au moins, le système PME peine vraiment à s’installer puisque depuis le
premier projet il se sera bien passé dix ans avant qu’un début de banalisation se fasse. Ainsi le
projet MONEO, qui devrait être LE système français, est encore très en retard par rapport aux
prévisions de ses promoteurs (2 millions d’utilisateurs prévus au 1 janvier 2003, mais
seulement 500.000 réalisés, avec en outre une utilisation très faible : un paiement d’une valeur
moyenne de 3,8 € par semaine). Il n’est même pas dit qu’il ne finisse pas par disparaître
complètement si l’on trouve une autre manière de rendre peu coûteux pour les commerçants
les paiements scripturaux inférieurs à 15 euros (le fait que nombre de commerçants affichent
leur acceptation des paiements par carte dès le premier euro va dans ce sens).

11,2 milliards d’opérations de paiement en 2005 : la baisse de l’utilisation du chèque s’accélère

L‘année 2005 a confirmé les évolutions interbancaires* relatives aux moyens de paiement, avec une accélération
de certaines tendances. Avec 3,23 milliards d’opérations, le nombre de chèques accroît sa baisse : - 4 % par
rapport à 2004. Depuis 1997, les chèques diminuent chaque année de 2,3 % en moyenne. Ainsi, ils sont
supplantés par les paiements carte CB depuis 2003, et depuis 2004 également par les virements et les
prélèvements réunis (3,6 milliards d’opérations). Les paiements carte CB et les prélèvements sont les moyens de
paiement à la croissance la plus dynamique, respectivement + 6,35 % et + 7 % en 2005 :
- La progression des paiements carte (CB)** , avec 4,17 milliards d’opérations en 2005, confirme que depuis
plusieurs années ce moyen de paiement est privilégié par les Français. Depuis 1997, il augmente de plus de 10 %
par an.
- Les prélèvements sont bien adaptés à des paiements mensualisés et aux paiements des services numériques par
abonnement. Avec 1,82 milliard d’opérations en 2005, les prélèvements dépassent pour la première fois les
virements (1,78 milliard). En moyenne, les prélèvements augmentent de près de 8 % chaque année depuis 1997.
Au total en 2005, 11,2 milliards d’opérations de paiement de détail ont été échangées en interbancaire, ce qui
signifie que plus de 14 milliards d’opérations de paiement ont été réalisées par la clientèle des banques. Chaque
année depuis 1997, le nombre de paiements de détail progresse en moyenne de 3,9%.

Conclusion du chapitre
Tous les éléments sont maintenant réunis pour « boucler » le circuit, au moins dans sa
version restreinte : deux agents complémentaires qui assumenyt leurs fonctions respectives et
qui se rencontrent, ou du moins qui communiquent, sur les marchés. C’est cette rencontre et
les négociations qui en résultent qui fixent les prix des biens et des services, qui pourront ainsi
circuler, en contrepartie d’un flux monétaire qui en est «l’équivalent général ».

47
3 – UN CIRCUIT ELARGI
31 - Les entreprises financières et le financement

311 – Le problème du financement et ses solutions « directes »


On a vu plus haut que le compte d’utilisation du revenu répartit le RDB entre une
consommation finale et une épargne (brute). Cette épargne devient la ressource initiale d’un
nouveau compte : le compte de capital. Comme son nom l’indique, il est le lieu d’analyse de
la fonction d’investissement en capital - fixe - de l’agent.

COMPTE DE CAPITAL
EMPLOIS RESSOURCES
FORMATION BRUTE DE CAPITAL FIXE EPARGNE BRUTE
+ CAPACITE DE FINANCEMENT + BESOIN DE FINANCEMENT

Il n’y a pas de raison, a priori, pour que la formation brute de capital fixe soit
exactement égale à l’épargne laissée dans le revenu par la consommation finale. On pourra
donc rencontrer deux situations. Si le compte de capital fait apparaître un excédent (EB >
FBCF), on dira que l’agent concerné dispose d’une capacité de financement, au sens où une
partie de ses ressources est sans emploi. Si au contraire ce même compte affiche un déficit
(EB < FBCF), l’agent éprouve un besoin de financement, au sens où il lui manque des
ressources pour financer ses emplois. Le financement est donc le pouvoir d’achat dont il faut
disposer pour investir. Mais en réalité il est nécessaire pour entreprendre une quelconque
activité : consommer, employer du travail, investir. C’est pour cela que si le déficit du compte
de capital révèle le besoin de financement, il est tout à fait possible qu’il existe des déficits
dans les divers comptes : utilisation du revenu, revenu, exploitation et même production. Il est
tout à fait banal qu’un ménage emprunte pour consommer et qu’une entreprise soit créée sans
autofinancement initial.

SITUATIONS FINANCIERES (G€) 2000


SOCIETES NON FINANCIERES -26,7
SOCIETES FINANCIERES 5,9
MENAGES ET ENTREPRISES INDIVIDUELLES 59,4
INSTITUTIONS SANS BUT LUCRATIF 1
ADMINISTRATIONS PUBLIQUES -19,2
SOUS-TOTAL +20,5
RESTE DU MONDE -20,5

Le raisonnement montre que ce financement peut être trouvé par l’agent dans ses
propres ressources : autofinancement, mais aussi dans les ressources d’un autre, pourvu que
ce dernier soit disposé à s’en désaisir, moyennant contrepartie bien sûr. C’est la décision de
mettre un financement à la disposition d’autrui que l’on appelle placement, ou constitution
d’une épargne financière.
Il résulte de ceci que les agents qui ont un besoin de financement vont exprimer une
demande de financement, alors que ceux qui ont une capacité vont exprimer une offre. De
cette demande et de cette offre devrait naître un marché du financement. Ainsi le double
problème du financement, qui résulte de ce que celui-ci est excessif d'un côté et insuffisant de
l'autre, pourrait trouver sa solution.

48
En fait ce marché est double au sens où il existe deux modalités pour placer l’épargne
inutilisée, comme il existe deux modalités pour se la procurer.
Dans un premier cas le financement est seulement prêté, c’est-à-dire que l’opération de
financement est provisoire : elle a un terme prévu en principe dès l’origine. Dans ces
conditions le bénéficiaire du prêt devra le rembourser lors de l’échéance finale, et payer un
loyer à chaque échéance intermédiaire (chaque année par exemple). Dans l’immédiat, tout ce
qu’il peut faire c’est promettre de faire ces divers paiements. Ceci montre que l’opération de
financement ne peut exister que si l’offreur de financement a confiance dans la promesse du
1
demandeur, autrement dit, qu’il croit sa promesse ou qu’il lui fait crédit . Cette promesse est
portée dans le contrat qui fixe tous les droits et les devoirs des deux et qui est détenu par le
prêteur comme garantie : c’est donc un titre de créance qui fait du prêteur un créancier.
Dans le second cas l’opération consiste en une association pour la création d’une
entreprise, entre l’offreur et le demandeur de financement, l’un faisant un apport en
numéraire et l’autre le faisant en industrie (idée, brevet, matériel...). Elle est donc en fait à
durée indéterminée, même si les contrats de société sont en réalité à terme : 99 ans par
exemple. On aura donc ici, pour l’offreur de financement, un titre de propriété sur le capital
de l’entreprise. Il en résulte des droits : participer aux bénéfices de l’opération, au prorata de
l’apport de financement ; reprendre sa part de l’actif net (avoirs moins dettes) de la société en
cas de dissolution de celle-ci (boni de liquidation). D’une certaine manière, il s’agit encore
d’une opération de crédit, au sens ou l’apporteur en numéraire croit les promesses de profit
faites par l’apporteur en industrie.

Face à l’existence du double problème apparu plus haut, le système économique doit
présenter des solutions. Elles doivent remplir trois conditions essentielles :
- permettre la rencontre entre l’offre et la demande de financement ;
- créer les conditions de la confiance entre offreurs et demandeurs ;
- donner la possibilité aux offreurs de financement, de retrouver celui-ci, avant terme,
sans pour autant remettre en cause le contrat initial, ce qui suppose l’intervention d’un offreur
substitut ou refinancement.
On peut présenter trois systèmes de financement qui satisfont plus ou moins les
conditions posées : la finance informelle, le financement par les marchés financiers et le
financement par l'intermédiation financière.

3111 - La finance informelle ou de gré à gré


Même dans une société développée, donc où le formalisme juridique est grand, un tel
mode de financement peut s’instaurer entre agents qui se connaissent déjà pour diverses
raisons : relations familiales, amicales ou commerciales. On peut ainsi emprunter à un parent
ou un ami, demander un délai de paiement à un fournisseur (délais de paiement traditionnels
« fin de mois ; 90 jours-fin de mois »), ou même créer une société avec des relations
intéressées par la même activité. Ici le formalisme peut rester très basique : serrement de
main, présence d’un témoin ou mise par écrit, sous forme de « papier commercial ». Le papier
commercial peut certes prendre la forme d’effets de commerce, mais aussi bien rester au
niveau moins formel de la facture.

1
Credo signifie croire en latin, ce qui donne crédit et créance ; et fiducia signifie confiance, ce qui donne
fiduciaire.

49
Document tiré d’un livret manuscrit, sur la page de garde duquel on trouve exactement :
“ Ce livre appartient à Marianne C. de la fajolle pré Murat. Celui qui me le trouvera me le
randra et je lui pairai un S.
Salvergues le 18 Mars, Année 1851. ”

EFFETS DE COMMERCE

La lettre de change est un titre par lequel une personne dénommée le tireur donne l'ordre à une
autre personne appelée le tiré de payer, à une date convenue, une somme déterminée, à un bénéficiaire
qui est peut être soit est le tireur lui-même, soit un tiers (suite à un endos).
Le billet à ordre est un titre par lequel une personne, le souscripteur, s’engage à payer une autre
personne, le bénéficiaire, ou à la personne de son choix, une certaine somme à une date d’échéance
déterminée.
La Lettre de Change relevé (LCR) et le Billet à Ordre Relevé (BOR) sont les appellations
respectives de la lettre de change et du billet à ordre échangés sous forme d'enregistrements
informatiques.

L’absence de formalisme n’empêche par l’élargissement du système à des entreprises


financières : ce n’est pas partout que le métier de banquier suppose un agrément par les
pouvoirs publics. Il n’empêche pas non plus une certaine technicité, comme le montrent
certaines pratiques financières comme la tontine, qui est une association rotative de
financement : les épargnes des associés sont réunies en une masse qui tourne entre eux ; celui
qui la détient à un moment donné dispose d’un financement dont la durée peut varier, mais il
doit en contrepartie l’abonder ; ainsi chacun est financé à son tour et le capital commun
augmente.
Il est à remarquer que les facilités de paiement entre commerçants, dites aussi crédit
inter-entreprises, représentent des sommes considérables, et qu’elles peuvent prendre une
dimension dommageable dans le cas où une entreprise dominante impose un délai de
paiement excessif à un fournisseur captif (centrales d'achat, sous-traitance).

Ainsi la connaissance mutuelle est suffisante pour assurer le rapprochement de l’offre et


de la demande de financement, et d’ailleurs ici concrètement de l’offreur et du demandeur. De
la même manière c’est dans cette connaissance mutuelle que l’on peut puiser la confiance qui
conduira l’opération de financement jusqu’à son terme : c’est parce qu’un commerçant est

50
« honorablement connu » que son fournisseur « de toujours » acceptera de lui consentir un
crédit à quatre-vingt-dix jours, plutôt que d’exiger un paiement à réception de la facture.
Néanmoins on aura ici en général un plus grand formalisme que dans les relations familiales
ou amicales, puisque les factures et autre reconnaissances de dettes doivent prendre des
formes prévues par la loi.
Ce système de financement très informel respecte, dans certains cas, la troisième
condition, c’est-à-dire la récupération de son pouvoir d’achat avant terme par l’agent
financeur. C’est encore le cercle des relations qui fournira un nouvel agent à capacité de
financement acceptant de se substituer au premier devenu défaillant, sans que le financement
lui-même soit interrompu. Dans le domaine commercial ce sont justement les formalités
indiquées plus haut qui rendront ceci possible. Le créancier initial qui veut se libérer
transmettra son titre de créance au créancier substitut, en stipulant la transmission sur le dos
du titre : endossement. Cette transmission peut prendre une forme profitable grâce à
l’opération d’escompte1 : le prix payé est inférieur à la valeur nominale ou marchande du titre,
ce qui laisse une plus-value à l’acheteur. Là encore rien n’interdit que des professionnels,
mais pas nécessairement agréés lorsque la loi le permet, se spécialisent dans l’acquisition de
papier commercial, et plus généralement de créances2. Les entreprises financières ne se
contentent pas d’escompter le papier commercial, elles offrent aussi un service complet de
gestion externe du « poste clients », au sens où elles se chargent du recouvrement des factures
et offrent des assurances sur le risque de non paiement. On parle alors de la fonction
d’affacturage.
En allant un peu plus loin, il est même possible de créer un marché au sens
institutionnel du terme, où les transactions peuvent avoir lieu avec des formalités réduites au
strict minimum, mais aux risques et périls des intervenants. C’est ce que l’on appelle les
3
marchés de gré à gré (ou OTC pour over the counter ).
Cependant, un tel système ne saurait résoudre efficacement l'ensemble du problème. Sa
principale faiblesse réside dans l’étroitesse des possibilités de financement, qui résulte de la
nécessité d’une connaissance préalable entre les protagonistes et de la faiblesse des garanties
offertes. On ne touche que peu de personnes (relativement) il est donc difficile de trouver des
offreurs ou des demandeurs de financement à coup sûr, parmi elles. Et il est difficile aussi de
trouver du financement au niveau où l’on pourrait le souhaiter.

3112 - Les marchés d’instruments financiers


Résoudre le problème précédent c’est envisager d’établir des relations de financement
entre tous les offreurs potentiels et tous les demandeurs potentiels, qu’ils se connaissent ou
non : c’est ce que l’on nomme en France appel public à l’épargne, qui suppose dans ce cas au
moins deux-cents personnes touchées. En procédant ainsi on réduit infiniment le risque de ne
pas trouver sa contrepartie (offre pour demande ; demande pour offre). Cet appel public passe
par l’offre de deux grands types de titres : obligations et actions.
Les obligations sont des titres de créance plutôt à long terme (mais ce n’est plus une
nécessité) qui donnent droit à un remboursement au terme prévu par le contrat et à une
rémunération à chaque échéance intermédiaire. Cette rémunération se compose d’une annuité
d’intérêt (un loyer en fait), calculé comme le produit d’un taux d’intérêt fixé dans le contrat
(taux nominal) par la valeur nominale du titre (5000 x 6% = 300). A la dernière échéance il
existe non seulement une annuité d’intérêt mais aussi une annuité de remboursement ou

1
On trouve aujourd’hui plus facilement la traduction anglaise : discount - éventuellement francisée en discompte
2
C’est ainsi que la loi Dailly (2 janvier 1981) a permis d’utiliser tout titre de créance (factures, attestation de
subvention, attestation d’indemnisation par une assurance…) pour obtenir de la liquidité auprès d’un agent
prêteur.
3
Ce qui signifie que la négociation se fait « par-dessus le comptoir », en face à face.

51
d’amortissement : 300 + 5000 = 5300 (on peut imaginer aussi un remboursement progressif,
de sorte que l’on aurait une annuité d’amortissement à chaque échéance). La rémunération
peut comporter aussi des revenus plus ponctuels, comme une prime à l’émission (le titre est
vendu au dessous du pair) ou une prime au remboursement (le titre est remboursé au dessus
du pair). Dans ce cas le taux de rendement effectif du capital : ce que rapporte chaque unité de
pouvoir d’achat placée, est supérieur au taux d’intérêt nominal. On appelle taux actuariel brut
ce taux de rendement effectif (brut parce qu’il est calculé avant impôt).

TAUX ACTUARIEL BRUT (EXEMPLE)

Une obligation de valeur nominale 5000 euros rapportant un loyer de 300 a un taux de rendement
effectif, ou taux actuariel brut, de 6% : chaque euro placé rapporte 6%. Dans ce cas le taux de rendement
effectif est équivalent au taux nominal (celui qui a servi à calculer le loyer).
Si cette même obligation offre une prime à l’émission de 46 euros (donc vendue au dessous du
pair, à 4954), le taux de rendement de chaque euro placé passe à 6,1%. Le taux nominal est toujours 6%
mais le taux actuariel brut est passé à 6,1%.
Ainsi il revient au même de placer 4954, de recevoir un loyer de 300 et un remboursement de
5000, ou de placer 4954, de recevoir un loyer de 302,2 (4954 x 6,1%) et un remboursement de 4954.

De son côté l’action est le titre représentatif d’une part du capital social d’une entreprise
(société anonyme ici). Elle correspond au cas où le financement passe par une association
entre l’offreur et le demandeur de financement. Elle donne droit à être informé sur la vie de
l’entreprise et à participer à l’assemblée générale des actionnaires, où sont prises les décisions
stratégiques concernant l’entreprise (nomination des administrateurs, distribution du
bénéfice…). Surtout elle donne droit à un dividende, qui est le résultat de la division du
bénéfice distribuable par le nombre d’actions.
Les produits financiers « de base », obligations et actions peuvent donner lieu à la
naissance de produits dérivés, dont la finalité est de rendre plus faciles les négociations sur les
premiers. Le principe de la dérivation consiste dans la signature d’un nouveau contrat
stipulant une opération à réaliser à partir des titres initiaux. Il peut s’agir de contrats d’achats
ou de vente à terme, qui sont conditionnels ou fermes, selon que le vendeur ou l’acheteur
garde ou non la possibilité contractuelle de ne pas exécuter son engagement. On trouve aussi
des contrats d’échange de titres. Tous ces contrats peuvent faire l’objet, comme les titres
sous-jacents, d’une négociation sur un marché particulier.

Exemples de produits dérivés

Contrats à terme ferme dits Forwards


Il s’agit de contrats par lequel l’un des cocontractants s’engage à acheter ou à vendre à un terme convenu
un lot de titres, à un prix convenu. Au moment de l’échéance l’opération est réalisée aux risques des deux : si le
prix prévu au contrat est supérieur au prix donné par le marché au même moment, l’acheteur supportera une
perte, alors que le vendeur réalisera un profit et réciproquement.
De tels contrats, comme tous les autres d’ailleurs, portent un risque d’inexécution, appelé aussi risque de
crédit.

Contrats à terme ferme dits Futures


Ces autres contrats ont justement pour vocation de réduire le risque de crédit mentionné ci-dessus. A cet
effet ils prévoient d’abord une standardisation des titres faisant l’objet des promesses, de manière qu’il soit plus
facile de se les procurer. Ensuite il est stipulé que chaque cocontractant fera un dépôt de garantie. En général un
tel dépôt ne couvre qu’une partie de la valeur du contrat, de sorte que le risque est seulement réduit. Une clause
complémentaire, dite appel de marge, permet de la réduire encore en faisant exécuter à chaque jour de cotation
une partie du contrat : dès qu’une perte apparaît pour l’un, il est tenu d’en verser le montant et d’entretenir celui-
ci jour après jour, au niveau indiqué par le marché (réduction ou augmentation). Evidemment la position
journalière de chacun : profit ou perte, peut en permanence s’inverser.

52
Pour rendre ces modalités plus facilement exécutoires, les futures sont régis par des chambres de
compensation, qui reçoivent les dépôts de garantie et les appels de marge, tout en organisant la cotation des titres
(MATIFsa par exemple).
Un exemple tout à fait remarquable de ce type de contrat est celui portant sur un indice boursier : CAC40,
Dow Jones, Stoxx50... La valeur du contrat est de 10 EUR par point d’indice. Chaque jour on calcule la valeur
de la

Contrats à terme conditionnel dits Options.


Il est toujours question d’un contrat d’achat ou de vente à terme, à un prix fixé, dit prix d’exercice (de
l’option) portant sur un stock de titres. Simplement une clause prévoit que celui qui s’oblige à vendre ou acheter
détient une option sur l’exécution de l’engagement. Pour obtenir ce droit il paie une prime (de premium anglais,
mais qui veut dire aussi « prix »). On dit qu’il lèvre l’option s’il exécute et qu’il l’abandonne dans le cas
contraire. On comprend que l’existence de cette option a pour objet de limiter son risque au prix de l’option déjà
payé. Si la perte éventuelle devait être supérieure à ce prix, il ne lèverait pas l’option.

Contrats d’échange de titres dits Swaps


Il s’agit ici d’échanger à terme soit des devises soit des taux d’intérêt.
Dans le premier cas on échange deux dettes à taux fixes libellées dans deux devises différentes sur une
période donnée. On appelle chaque partie, donc chaque devise ici, une jambe (parce qu’un échange suppose deux
parties). A chaque période, en fonction de l’évolution du taux de change, on verra qui a gagné et qui a perdu, et
le solde sera versé. A la date du terme, on fera la même opération sur le capital.
Supposons un échange de deux taux fixes dollar contre euro sur 4 ans. L’emprunt en dollar est à 4% et
l’emprunt en euro est à 5%, le taux de change à l’origine est à 1,2 dollar par euro, de sorte que les sommes
échangées sont 120 millions de dollars contre 100 millions d’euros. Ceci signifie que celui qui abandonne son
prêt en dollars doit recevoir de l’autre à chaque échéance 4,8 millions de dollars et doit lui verser 5 millions
d’euros soit 6 millions de dollars : solde au départ 1,2 millions de dollars en sa défaveur. Mais si le taux de
change évolue, le solde va changer et pourra s’inverser : si l’euro passe à 0,9 dollars (cela s’est déjà vu) le solde
deviendra 0,3 million de dollars en sa faveur. Il en ira de même le jour du terme.
Lorsqu’il s’agit de taux d’intérêt, on échange un emprunt à taux fixe contre un emprunt à taux variable,
libellés dans une même devise. Ici encore, à chaque échéance on fait le solde des versements réciproques et celui
qui a un solde négatif paie à l’autre.

Un marché d’instruments financiers comporte en réalité deux parties : un marché


primaire et un marché secondaire. On dit en outre qu’il est réglementé lorsqu’il est doté de
règles d’admission et d’information et qu’il fait l’objet d’une surveillance par des autorités de
tutelle. Ces règles vont de la loi (directive « Marché d’instruments financiers » transposée en
droit français, par exemple), à des normes réglementaires édictées par les organisateurs du
marché et même des régles intérieures dites « consensus de place ».
Le rôle du marché primaire est d’assurer la diffusion des titres « neufs », donc la mise
en place du financement, grâce à l’intervention d’entreprises financières. Leur premier rôle
est de concevoir les opérations d’emprunt ou d’augmentation de capital ; ensuite elles utilisent
leur réseau de guichets pour proposer les titres à leur clientèle, exactement comme n’importe
quel commerçant met en vente n’importe quel produit ; enfin elles deviennent assureurs en
garantissant la bonne fin du contrat de financement (en prenant éventuellement la « colle », ou
titres invendus, à leur charge). A cet effet elles forment des syndicats avec un ou plusieurs
chefs de file, des placeurs et des garants.
Le marché secondaire, que l’on appelle aujourd’hui « plateforme de négociation » mais
aussi « la bourse », a pour fonction de mettre aux enchères les titres d’occasion, grâce à
l’organisation d’un système élaboré de réception des ordres (achat ou vente) et de cotation des
titres. En effet les actions et les obligations sont dotées d’une clause de libre négociabilité, qui
justifie leur classement parmi les valeurs mobilières.
Cette fonction est assurée par des institutions spécialisées, qui peuvent certes être
publiques, mais aussi de plus en plus privées. EURONEXT, LIFFE (London International
Futures Finance Exchange), NYSE (New York Stock Exchange), NASDAQ (National

53
Association of Dealers Automated Quotation)... sont des entreprises (teneuses) de marchés.
En outre ces teneuses de marchés peuvent aujourd’hui entrer en concurrence les unes avec les
autres sur un territoire donné – celui de l’Union Européenne notamment1.
Puisque ce système propose la négociation et non de remboursement du titre, le prix
obtenu pourra être inférieur aussi bien que supérieur au prix d’achat. Le système permet bien
de retrouver rapidement du pouvoir d’achat (en 24 heures) mais aux risques et périls du
vendeur.
Ici encore les entreprises financières jouent un rôle important, puisque ce sont elles,
pour l’essentiel, qui reçoivent les ordres à leurs guichets et les transmettent à la plateforme de
négociation.

International
« L'effervescence autour de la Bourse de Londres ne retombe pas. Selon le WSJ en ligne, la
Bourse de New York, le NYSE, préparerait une offre sur le London Stock Exchange, alors que cette
dernière a rejeté vendredi dernier une offre du Nasdaq. Le journal affirme que des dirigeants du NYSE
(introduit en Bourse mercredi dernier) se sont réunis ce week-end pour en discuter. Avant l'offre du
Nasdaq, "sous-évaluée", le LSE avait déjà repoussé celle de la Bourse de Francfort, fin 2004, et celle de
la banque australienne Macquarie, plus récemment. Ces informations dopent ce matin les cours des
opérateurs boursiers, portés par les spéculations de consolidation. A 10 h 40, Euronext gagne 7,91%, à
59,35 €, son record historique. Plus tôt dans la matinée, Deutsche Börse et LSE s'appréciaient de 5,6% et
23% ».
Le Monde : lettre12-15 du 13 mars 2006

C’est l'existence d'une réglementation et d'institutions chargées de la faire respecter


(Autorité des marchés financiers en France, Security exchange commission aux Etats Unis,
Financial services authority au Royaume Uni...) qui crée les conditions de la confiance dans
ce système. Cette réglementation encadre l’ingénierie financière qui produit les nouveaux
instruments financiers. Elle permet d'assurer la sélection des demandeurs de financement, en
2
fonction de critères de sécurité : taille minimale, situation financière saine ... Elle assure aussi
la diffusion d'une information financière sur les demandes de financement, au profit du plus
grand nombre possible d'offreurs potentiels de financement, tout en garantissant son
exactitude par le visa des autorités du marché. Ces mêmes autorités recherchent en
permanence les actions de désinformation et les sanctionnent. De même elles recherchent tous
ceux qui ont pu bénéficier d’une information confidentielle - initiés - pour réaliser des profits
au détriment des autres, ce qui est de nature à détruire la confiance et d’ailleurs à remettre en
cause l’efficience du marché.
Countrywide : l'annonce de la faillite du n° 1 du crédit immobililier US était simplement une "rumeur mal
intentionnée", selon Ken Lewis, directeur de Bank of America. Le Monde, la 12-15, 15 janvier 2008

"Au cours des deux ou trois derniers mois, nous avons enquêté sur plus d'affaires que d'habitude."

Gérard Rameix, secrétaire général de l'AMF, est sorti de sa réserve ce matin dans le quotidien britannique
"Financial Times". Orange, Carrefour, Vinci, Eiffage, Valeo et Atos Origin : autant de sociétés, affirme le FT,
qui font l'objet d'investigations de l'AMF sur d'éventuelles tentatives de manipulation de cours. Orange aurait été
le dernier à se plaindre.
LeMonde.fr-Lettre 1215, 2 avril 2007

1
Depuis le 1er novembre 2007, l’application de la directive européenne « Marchés d’instruments financiers » en
France, a fait perdre à Euronext sa position monopolistique. Déjà de nouvelles « plateformes de négociation » se
présentent comme Chi-X, Turquoise ou Tradegate (Le Monde 1er novembre 2007).
2
Ce résultat est renforcé par l’intervention d’agences de notation (Fitch ; Standard and Poor’s ; Moody’s) qui
évaluent le risque pesant sur les emprunteurs (voir à ce propos le rapport 2006 de l’AMF sur les agences de
notation : www.amf-france.org/documents/general/7618_1.pdf).

54
OPA : la France modifie les règles du jeu

Le projet de loi « relatif aux offres publiques d'acquisition » (OPA) devrait permettre aux entreprises
françaises cotées en Bourse de continuer à faire usage des armes de défense préventives dont elles se sont pour la
plupart déjà dotées.
Les dispositions décrites ci-dessous visent à décourager un éventuel prédateur de déposer une OPA
auprès de l'Autorité des marchés financiers (AMF). En effectuant cette démarche - obligatoire en France dès lors
qu'un investisseur détient plus du tiers du capital d'une entreprise - le prédateur fait publiquement savoir aux
actionnaires de la société convoitée qu'il est prêt à leur racheter tous leurs titres à un prix donné, et pendant un
laps de temps donné. La plupart des spécialistes le répètent cependant à l'envie : ajoutées les unes aux autres, ces
dispositions préventives peuvent se révéler très dissuasives, rendant la perspective d'une OPA prohibitive pour
l'agresseur. Mais aucune n'est imparable.

Déclarations de franchissement de seuils.


L'arsenal préventif actuel est surtout constitué de mesures statutaires (votées par les actionnaires lors
d'une assemblée générale). Les plus simples sont des outils de contrôle de l'identité des actionnaires. Toutes les
sociétés du CAC 40 (à l'exception du groupe de pneumatiques, Michelin, et de celui de distribution et de luxe
Pinault-Printemps-Redoute) ont ainsi mis en place des « déclarations de franchissement de seuils ». Dès qu'un de
leurs actionnaires dépasse un pourcentage de détention du capital déterminé (0,5 %, 1 %, 1,5 %, etc.), il doit les
en aviser. L'information est publiée par l'AMF, le gendarme boursier français. C'est un moyen simple de détecter
les montées en puissance d'actionnaires dans un capital.

Plafonnements de droits de vote.


Il y a aussi les mesures qui permettent aux sociétés de limiter l'influence de leurs actionnaires. Danone,
Alcatel ou Total, pour ne citer qu'elles, se sont ainsi dotées de clauses de « plafonnements de droits de vote ».
Quel que soit le nombre d'actions que détient un de leurs actionnaires, ses droits de vote seront limités (à 6 %
dans le cas de Danone). L'arme n'est cependant pas complètement rédhibitoire pour un éventuel agresseur : s'il
obtient, à l'issue du lancement d'une OPA, une part majoritaire du capital de l'entreprise cible (en général plus
des deux tiers), les limitations de droits de vote tombent.
Droits de vote doubles.
D'autres dispositions visent au contraire à augmenter le poids de certains actionnaires, de façon à
constituer un « noyau dur » d'investisseurs amis susceptible de résister aux sollicitations du premier raider venu.
Les entreprises distribuent ainsi volontiers des droits de vote doubles (seules 15 sociétés du CAC 40 n'y ont pas
recours). Ne peuvent en bénéficier que les actionnaires qui possèdent leurs titres au « nominatif » - leur identité
est connue de la société - depuis plus de deux ans.

Pactes d'actionnaires.
Les « pactes d'actionnaires » rendent plus problématique une prise d'assaut boursière. Ces contrats, signés
entre deux ou plusieurs actionnaires d'une entreprise, doivent être publics. Les signataires du pacte s'engagent
souvent à se vendre leurs actions en priorité, plutôt qu'à un éventuel agresseur.

Actionnariat salarié.
Certains groupes encouragent par ailleurs leurs salariés à devenir actionnaires. Ces derniers auront
tendance à faire corps avec la direction de leur entreprise en cas d'offre hostile, souvent synonyme de casse
sociale. Ce fut le cas à la Société générale lors de l'OPA tentée par la BNP.

Armes jugées absolues.


Le statut de société en commandite par actions (SCA), prive les détenteurs du capital (les
commanditaires) du contrôle de l'entreprise. Mais ce verrouillage du capital, que seules deux sociétés du CAC 40
ont adopté (Michelin et Lagardère), est mal vu par l'AMF. Autres arme dissuasive : la golden share (« action
privilégiée »). Bruxelles y est opposé. Mais l'Etat détient par exemple une golden share dans Thales, qui rend
l'entreprise de défense quasi imprenable.
Cécile Ducourtieux, Le Monde, 22.septembre2005

55
312 – L’intermédiation financière
Elle intervient comme substitut de la solution par les marchés. Ceux-ci ont pour eux une
grande efficacité en permettant de traiter des masses financières importantes en s'adressant à
un gisement de clientèle presque aussi large qu'on le veut, puisque élargissable au delà des
frontières. Néanmoins il implique aussi des coûts d'opération importants qui ne peuvent être
amortis, justement, que sur ces masses importantes. Ils sont donc inadaptés aux petites
opérations de financement, et n'intéressent pas toute une clientèle à qui te type de produits
financiers proposés ne convient pas : trop grande valeur unitaire des titres (1000 euros pour
une obligation, 150.000 pour un titre à court terme...) ; trop grand risque sur les négociations
(actions, voire obligations, dont ta valeur de marché varie considérablement...) ; durée
inadaptée aux besoins.

3121 – « Les dépôts font les crédits »


Pour tous ces cas, une solution peut se mettre en place, fondée sur un service de type
« détail et sur mesures », opposé au service « en gros et en confection » des marchés. En effet
l'inadéquation entre besoins des agents demandeurs de financement (acceptation d'un risque,
durée) et ceux des agents offreurs de financement (sécurité, liquidité) pourrait en principe se
résoudre par une adaptation du prix à la hausse, les premiers pouvant ainsi finir par
convaincre les seconds. Mais dans ces conditions il est toujours possible à une entreprise
financière de s'interposer entre ces deux groupes en essayant d'adapter les produits offerts aux
besoins des uns et des autres : par exemple emprunter à court terme et à bas prix, et prêter à
long terme à un prix qui reste concurrentiel avec les conditions proposées par les marchés.
En pratique ce nouvel agent va proposer à l’agent offreur de financement, toute une
gamme de placements, allant de titres de marché émis par lui-même (actions ou obligations)
jusqu’à des dépôts à plus ou moins long terme (en fait les termes s’étagent entre 8 ans pour
certains contrats d’assurance vie et quelques semaines ou mois pour un dépôt à terme ; on a
même des dépôts à vue remboursables sur simple demande). Parallèlement il proposera à
l’agent demandeur, des financements selon des modalités très diverses, depuis le crédit direct
de durée quelconque, jusqu’à l’acquisition des obligations ou des actions qu’il émet, en
passant par l’affacturage, la caution ou la garantie d’emprunt. On dit alors que « les dépôts
font les crédits ».

Ceci peut se traduire dans le bilan financier des entreprises financières.

ACTIF PASSIF
CREDITS ACCORDES DEPOTS RECUS
TITRES DE CREANCE (OBLIGATIONS) TITRES DE CREANCE EMIS
ACHETES
TITRES DE PROPRIETE (ACTIONS) ACHETES TITRES DE PROPRIETE EMIS

En d'autres termes l'entreprise financière va se positionner comme demandeur


intermédiaire de financement auprès des offreurs finals et offreur intermédiaire auprès des
demandeurs finals : elle assume donc une fonction d’intermédiation financière. Entre les
deux, il va transformer le financement : modification des produits, des échéances, des
risques... Mais en faisant cela elle prendra un risque, celui de se retrouver avec des emplois
longs adossés à des ressources courtes, qui peuvent un jour ne pas être renouvelées, ce qui
provoque une faillite. Ceci peut notamment se produire lorsque les déposants estiment que
l’actif du bilan qui couvre leurs dépôts a perdu de la valeur : des créances hypothécaires sont a
priori une bonne couverture, puisque le créancier devient propriétaire de l’immeuble en cas
d’impayé. Mais si le marché immobilier est à ce moment là en pleine crise, de telles créances

56
deviennent douteuses, puisqu’il est impossible de revendre les immeubles sans graves pertes.
Et puisqu’il est impossible de liquider l’actif, la fuite du passif met la banque en faillite,
comme ce fut presque le cas pour la banque Northern Rock en août 2007.

La crise dite « des subprimes »

Subprime signifie littéralement « au dessous des premiers », en termes de sécurité. On parle aussi des B
credits (comme on parle des films de série B, c’est-à-dire nettement moins bons) ou en français des crédits
immobiliers à risque. En effet, le principe est d’accorder des crédits pour l’acquisition de logements à des
emprunteurs qui présentent un risque important de défaut de paiement (faible capacité d’épargne, fort
endettement, risque de chômage, structure familiale fragile…). De tels crédits sont accordés non en fonction de
la capacité de supporter la charge financière afférente, mais en fonction de la valeur marchande de l’immeuble
sur lequel l’institution financière a évidemment pris une hypothèque de premier rang. D’une certaine manière,
plus l’immeuble a de la valeur et plus l’emprunteur risque d’être défaillant. Le prêteur est tranquille puisqu’il sait
pouvooir se payer par la revente de l’immeuble. Sauf évidemment en cas de crise du marché immobilier. Dans ce
cas, en effet, les créances figurant dans le bilan des prêteurs perdent de la valeur dans des proportions
considérables. Ceci ne devient vraiment grave que lorsque cette situation est connue de la clientèle. Dans ce cas
celle-ci est tentée de retirer ses dépôts, à un moment où le prêteur ne peut vendre ses actifs pour liquider ses
engagements, ou du moins ne peut les liquider à la hauteur desdits engagements. C’est alors la faillite qui
menace. Et cette faillite est communicative lorsque l’instritution menacée est elle-même débitrice d’autres
institutions financières. Comme en outre le procédé de titrisation permet de vendre à d’autres institutions des
blocs de créances indifférenciés, certaines institutions peuvent être en danger sans nécessairement en avoir
conscience.

Evidemment la force de cette solution est qu’elle facilite grandement la rencontre offre-
demande, puisque d’une part des guichets sont ouverts un peu partout et d’autre part la
transformation du financement garantit l’adaptabilité. En outre l’agent qui a offert son
financement n’aura pas de difficulté à le retrouver en cas de problème, puisque tous les titres
de marché sont évidemment liquidables sur le marché secondaire, et tous les dépôts sont
remboursables à la demande du déposant. Dans certains cas, ceci signifie la rupture du contrat
(plan d’épargne logement par exemple), dans d’autres, cela n’a en général aucune
conséquence (livret d’épargne). Mais le déposant est toujours sûr de récupérer son dépôt et
souvent les intérêts déjà échus.

Si l’on fait la synthèse, on peut d’abord constater que les trois systèmes de financement
peuvent parfaitement cohabiter, mais qu’ils sont en concurrence entre eux. C’est tout
particulièrement le cas pour le marché et l’intermédiation. Ainsi en France, l’après deuxième
guerre mondiale s’est caractérisé par une forte domination de l’intermédiation, à un moment
où l’économie était très administrée et les ressources financières étaient rares. Les années
1970 et surtout 1980 ont vu les marchés augmenter leur part relative, dans le cadre d’une
libéralisation croissante de l’économie et de l’augmentation de l’épargne en circulation : on a
donc assisté à un phénomène de désintermédiation. Il est visible par l’observation d’un
indicateur particulier : le taux d’intermédiation. Au sens étroit c’est le rapport entre la valeur
des crédits directs accordés par les intermédiaires financiers, à la valeur des financements
collectés par les agents non financiers ; au sens large il s’agit du rapport entre la valeur des
financements apportés par les intermédiaires financiers, quelle qu’en soit la forme, à la valeur
des financements collectés par les agents non financiers. La différence entre les deux
approches concerne les titres de marché acquis par les intermédiaires financiers, qui s’ajoutent
donc aux crédits directs que ceux-ci accordent.
Toutefois les entreprises financières ont été capables de détourner en partie ce processus
à leur profit, en créant des organismes de placement collectif en valeurs mobilières
(OPCVM). Leur première fonction est de collecter l’épargne destinée aux marchés en offrant

57
aux épargnants (ou à d’autres OPCVM) des titres assimilables à des actions : ces parts
d’OPCVM représentent bien la valeur de l’OPCVM, mais ne donnent pas pour autant une
voix à l’assemblée générale ; par ailleurs ces parts ne se négocient pas sur le marché, mais ont
une valeur liquidative, au sens ou l’OPCVM s’engage à les racheter en fonction de la valeur
de son portefeuille le jour de la liquidation. L’autre fonction est justement de constituer un
portefeuille de titres achetés sur le marché. Les OPCVM offrent ainsi une mutualisation du
risque, puisque la réunion des épargnes permet de constituer un portefeuille aussi varié que
nécessaire, ce qui ne serait pas possible à chaque épargnant. En outre ils à la disposition de
leurs clients une expertise financière que ceux-ci n’ont peut être pas. En octobre 2007, le bilan
des OPCVM français affichait un encours de 1422 G€ (www.banque-france.fr).
Ces OPCVM sont constitués sur la base de deux statuts : société d’investissement à
capital variable (SICAV) ou fonds commun de placement (FCP), selon que l’organisme a ou
non la personnalité morale. Ils sont classés par types de gestion (dynamique, alternative…) et
par type de portefeuille (actions, obligations, monétaires…). On trouve même des fonds
communs de placement libellés « à risque », pour indiquer qu’ils ont vocation à investir dans
le capital de jeunes pousses, entreprises naissantes et à fort potentiel de croissance. Et bien sûr
les fameux fonds à « gestion alternative », ou hedge funds, qui cherchent leur performance en
prenant le contrepied du marché et en diversifiant leurs portefeuilles pour profiter de tous les
gains possibles, où qu’ils se produisent : marchés des actions, des obligations, monétaire, de
l’art, des matières premières...

On réalise que l’entreprise financière qui produit un service d’intermédiation financière


au profit du reste du système est présente dans les trois solutions du problème du financement.
Elle est apparue dans le financement informel, notamment pour permettre la réalisation du
crédit inter-entreprises, en rachetant des créances aux agents financeurs qui souhaitaient s’en
défaire.
On la retrouve dans le fonctionnement des marchés d’instruments financiers, puisqu’elle
vend les titres neufs au détail pour le marché primaire. Il faut noter d’ailleurs qu’elle a poussé
cette fonction à son terme, en créant des fonds communs de créances, qui leur achètent les
créances qu’elles créent, après « titrisation » et les conservent en portefeuille jusqu’à
l’échéance – ou les cèdent à d’autres fonds. Elle intervient aussi pour aider le demandeur de
financement à choisir le type de titres à vendre, et à organiser la mise de ces titres sur le
marché. Et elle intervient encore pour exécuter les ordres d’achat et de vente des titres
d’occasion sur le marché secondaire.
Evidemment elle représente à elle seule la troisième solution. On a donc bien un nouvel
agent avec une fonction nouvelle, la fonction financière, même si ce nouvel agent était, d’une
certaine manière, déjà inclus dans l’agent « entreprises » examiné précédemment.

3122 – « Les crédits font les dépôts »


C’est dans le contexte de l’intermédiation financière que va prendre place l’offre de
monnaie. En effet tout demandeur de financement est en fait aussi un demandeur de monnaie,
essentiellement pour motif de transaction. L’opération de financement va donc consister à
mettre à sa disposition des moyens de paiement, c’est-à-dire de la monnaie, contre la
transmission d’un titre de créance. Tant que la monnaie était une marchandise, elle ne pouvait
être prêtée que si son possesseur en abandonnait provisoirement la disposition. Avec des
monnaies fiduciaires (billets, monnaie scripturale) il suffit de produire le papier monnaie ou
d’inscrire un solde positif sur le compte à vue pour réaliser l’opération. Cette monnaie peut
dorénavant circuler à l’initiative du bénéficiaire du financement. On a donc assisté à une
véritable CREATION de monnaie. Les intermédiaires financiers ont donc la capacité de créer
de la monnaie parce qu’ils peuvent soit émettre des billets – mais c’est une voie qui n’a plus

58
d’existence aujourd’hui1 – soit gérer des comptes de dépôt à vue (autrement dits comptes
courants ou comptes chèques). C’est en effet sur ces comptes qu’est inscrite la valeur du
crédit obtenu par l’agent à besoin de financement. De là l’expression « les crédits font les
dépôts », puisque c’est bien l’opération d’octroi de crédit qui fait apparaître le dépôt. La
monnaie scripturale déposée pourra ensuite circuler normalement de compte à compte au fur
et à mesure des opérations de paiement.
La monnaie ainsi créée va revenir, au terme du prêt vers l’institution financière qui l’a
créée (si elle est toujours titulaire de la créance). Le remboursement de la créance aura donc
pour effet de faire disparaître le solde positif sur le compte de dépôt à vue du débiteur (ou de
retirer les billets du circuit des échanges). En d’autres termes, la monnaie sera DETRUITE
par l’opération symétrique de celle qui l’a fait naître. Elle aura vécu le temps prévu pour
l’opération de financement. Bien sûr de telles opérations se succédant sans cesse, la quantité
de monnaie en circulation peut à la rigueur diminuer temporairement, mais normalement elle
va plutôt continuer régulièrement à croître.
Cette présentation fait apparaître un nouveau concept qui est celui de contrepartie de la
création monétaire. En effet l’inscription d’un crédit au compte du demandeur de financement
a pour contrepartie simultanée l’inscription d’une créance sur lui au compte de l’intermédiaire
financier. Si la monnaie créée apparaît au passif du bilan du secteur financier, la contrepartie
apparaîtra à l’actif. Ces créances peuvent être regroupées sous trois titres en fonction de
l’identité du bénéficiaire du financement : créances sur l’extérieur (y compris or et devises
étrangères) ; créances sur les administrations publiques centrales ; créance sur l’économie
(ménages, entreprises et administrations publiques locales et de sécurité sociale).

BILAN DU SECTEUR FINANCIER


ACTIF PASSIF
CREANCES SUR L'EXTERIEUR DEPOTS MONETAIRES ET BILLETS
CREANCES SUR L'ETAT AUTRES DEPOTS
CREANCES SUR L'ECONOMIE TITRES EMIS

Le raisonnement précédent met en jeu un secteur financier agrégé. Il importe


maintenant de savoir comment ce secteur organise l’offre de monnaie en son sein.
Si l'on analyse la création de monnaie par un intermédiaire financier particulier, tout
paiement opéré par un détenteur de cette monnaie va mettre celui-ci en relation avec les
clients d'un autre intermédiaire financier donc une autre zone monétaire. Ceci pose pour les
deux intermédiaires financiers un problème de convertibilité. Par exemple, en endossant un
chèque, l’agent qui a été payé donne la propriété de celui-ci à sa propre banque, pour que
celle-ci crédite son compte. C’est dorénavant cette banque qui est créancière de la banque sur
laquelle le chèque a été émis. La banque débitrice devra donc payer la valeur du chèque à la
banque créditrice2. Ce qui suppose qu’elle utilise une monnaie que celle-ci est prête à
accepter. De là la solution consistant à faire ouvrir à toutes les institutions financières des
comptes de dépôt à vue dans une même banque. C’est pour cela qu’on l’appelle « banque des
banques », autrement dit banque centrale (ou banque de premier rang, par opposition aux
autres institutions financières qui sont appelées banques de second rang). En conséquence, la
monnaie qui apparaît dans ces comptes ouverts dans les livres de la banque centrale sera
appelée monnaie centrale, par opposition à la monnaie de second rang. On parlera à son
propos aussi de liquidité bancaire du fait de la capacité de se libérer d'une dette qu'elle donne
aux intermédiaires financiers qui la détiennent.

1
En effet les billets ne sont plus mis en circulation qu’en étant substitués à une monnaie scripturale
préalablement créée.
2
Bien sûr après compensation des créances et dettes mutuelles de chaque couple de banques.

59
Un tel besoin de monnaie centrale se manifeste aussi chaque fois que les
intermédiaires financiers doivent se procurer des billets de banque et des devises étrangères
pour répondre à la demande de conversion de leurs clients : la monnaie est une dette pour
l’institution qui l’a émise et elle ne peut être remboursée qu’en une autre monnaie scripturale,
ou en billets ou en devises étrangères.
La question qui se pose à partir de là est celle de savoir comment les intermédiaires
financiers peuvent se procurer la monnaie centrale. Chacun peut tenter d’en emprunter à ceux
des intermédiaires qui ont une capacité de financement, parce qu’ils ont un solde positif sur
leur compte à la banque centrale. C’est sur le marché interbancaire qu’ont lieu chaque jour ces
opérations de financement. Ces opérations se font sur des périodes allant d’un jour à quelques
mois, et se font par crédit direct (« en blanc ») ou par vente de créances avec promesse de
rachat au terme (pension livrée).
Mais il revient finalement à la banque centrale d’alimenter ce marché en monnaie
centrale, qu’elle est seule à pouvoir créer. Elle va donc, à son tour, racheter des créances aux
banques de second rang, ce qui fait d’elle le « prêteur en dernier ressort » : c’est elle qui
détient une partie du portefeuille des créances sur tous les agents qui ont fait l’objet d’un
financement par les intermédiaires financiers. Par là elle participe à la création de monnaie, en
apportant l’équivalent de la valeur des billets, des devises étrangères et de l’encaisse de
transaction des banques de second rang.
De ce dernier constat, il résulte que la création monétaire de second rang est fonction de
la création monétaire centrale. En outre le taux d’intérêt auquel les banques de second rang
pourront prêter leurs monnaies respectives sera une fonction du taux d’intérêt auquel la
banque centrale leur prêtera sa propre monnaie. Tout ceci fait de la banque centrale le
candidat idéal pour la fonction de mise en œuvre de la politique monétaire.

3123 – L’organisation du secteur bancaire français


Les établissements de crédit sont placés sous la tutelle du ministère de l’Economie, des
Finances et de l’Industrie. Ils sont répartis en différentes grandes familles selon leur statut
juridique et les activités qu’ils exercent.
Depuis le 1er février 2001, les banques commerciales françaises, regroupées auparavant
au sein de l’Association française des banques (AFB), et les banques coopératives et
mutualistes sont réunies au sein d’une même organisation professionnelle : la Fédération
bancaire française (FBF). L’AFB conserve la mission de syndicat patronal pour les banques
commerciales et le Groupe des Banques Populaires, ainsi l’AFB ne traite, pour l’essentiel, que
du domaine social.
A cette date, la FBF comptait 512 banques, dont 361 banques AFB, 52 caisses
régionales de Crédit Agricole, 30 Banques Populaires, 24 établissements affiliés à la
Confédération nationale du Crédit Mutuel, 34 Caisses d’Epargne et 11 établissements affiliés
à la Caisse centrale de Crédit Coopératif. Ces banques comptent 26 000 guichets permanents
en France, 500 000 salariés en France et dans le monde et 48 millions de clients en France.

Les banques commerciales


Elles sont habilitées à effectuer toutes les opérations de banque. Plus de la moitié des
effectifs travaille au sein des " trois grandes " que sont la BNP, la Société Générale et le
Crédit Lyonnais/Crédit Agricole. Les autres exercent leur activité dans des banques à vocation
générale, régionales et locales, des banques de marché et des banques de financement
spécialisé.

60
La banque postale
Société anonyme à directoire et conseil de surveillance

Chronologie
1603 : La Poste Royale devient un service public d'État.
1817 : Création de la première forme du mandat postal qui prend le nom de "Reconnaissance".
1881 : Inauguration de la CNE, la Caisse Nationale d'Épargne et des livrets d'épargne.
1896 : Instauration du paiement des mandats à domicile.
1918 : Création du chèque postal et des centres de chèques postaux pour la gestion des comptes.
1937 : Apparition des premières machines comptables pour la tenue des comptes.
1918 : Invention du chèque postal et du compte postal qui simplifient les transferts d'argent, et qui modifie le
comportement des français.
1959 : Création de la Caisse Nationale de Prévoyance, dont la gamme de produits d'assurance Aviposte.
1966 : Le livret d'épargne devient le livret A.
1969 : Plan d'épargne logement (PEL) à la Poste.
1975 : Installation du premier distributeur automatique de billets permettant le retrait d'argent avec une carte
bancaire.
1984 : La Poste rejoint l'ensemble des banques au sein du Groupement des Cartes Bancaires CB. Tous les DAB
deviennent alors accessibles à tous les porteurs de cartes du Groupement.
1988 : Création de Sogéposte (renommée La Banque Postale Asset Management en 2006), partenariat entre La
Poste, La Caisse des dépôts et consignations, chargée de gérer les OPCVM pour le compte de La Poste.
1989 : Lancement de Vidéoposte, première étape du développement de la Banque à Distance par Minitel.
1991 : Les PTT deviennent La Poste et France Télécom. Création des Chèques Jeunes et de la carte Swing.
1998 : Création d'Assurposte, filiale commune de la Poste et la CNP Assurances, pour l'assurance prévoyance.
1999 : Création du site lapostefinance.fr et de Allo Poste Bourse.
2000 : Lancement de Bagoo, livret pour les jeunes de 16 à 25 ans. Création d'Efiposte.
2001 : Lancement de Vidéoposte Net Bourse, le service de Bourse en ligne des Services financiers de La Poste.
2003 : Ouverture de Poste Appel Téléphone Mobile.
1er janvier 2006 : Lancement de La Banque postale.
www.wikipedia.fr

Les banques mutualistes et coopératives


Ce sont le Crédit Agricole, le Crédit Mutuel et les Banques Populaires qui, à eux trois,
emploient plus de 120 000 salariés. Ces établissements peuvent réaliser tous types
d’opérations bancaires à quelques limitations près. Ils disposent, en outre, de certains
avantages concurrentiels par rapport aux banques commerciales. Le Crédit Agricole, par
exemple, détient le monopole du dépôt d’argent des notaires tandis que le Crédit Mutuel, avec
le livret bleu, peut offrir à sa clientèle d’épargnant une rémunération égale à celle des livrets
A et également nette d’impôt.
Mais ces banques se distinguent surtout par une organisation très décentralisée. Elles
sont ainsi structurées en trois niveaux : à la base, des caisses locales collectent les dépôts ;
à l’échelon intermédiaire, des caisses régionales gèrent les ressources collectées;
à l’étage supérieur, enfin, des caisses nationales assurent le développement du réseau et gèrent
un ensemble de filiales et de services communs.

Le nouveau statut des Caisses d’Epargne

Depuis le 1er janvier 2000, les Caisses d’Epargne possèdent un statut de banque coopérative. Leur réseau
comprend un organe central, la Caisse nationale des Caisses d’épargne et 32 Caisses régionales. Il compte plus
de 4 700 agences et 44 000 collaborateurs.
À l’origine limité au placement du livret A, dont les sommes collectées servent à financer le logement
social, l’Écureuil a été progressivement autorisé à pratiquer la plupart des opérations de banque au profit de
toutes les catégories de clientèle : particuliers, collectivités locales, entrepreneurs individuels, PME-PMI... Il
n’en a pas moins conservé, avec La Poste, le monopole du livret A qui constitue un puissant produit d’appel.
Une concurrence jugée déloyale par les autres établissements de crédit.

61
Les sociétés financières
Elles constituent la catégorie la plus hétérogène et la plus nombreuse puisque, avec les
maisons de titres, elles rassemblent environ 800 établissements. Elles se différencient entre
elles par l’objet de leur financement : vente à crédit, location avec option d’achat, crédit-bail,
financement immobilier, caution, affacturage, etc. Leur seule caractéristique commune est de
ne pas recevoir de dépôts à court terme du public. Pour financer leurs opérations, elles doivent
donc utiliser leurs ressources propres, faire appel au marché monétaire ou financier ou, pour
celles très nombreuses qui sont filiales de banques, recourir à leurs sociétés mères.

Les institutions financières spécialisées


Cette famille regroupe les établissements de crédit auxquels l’Etat a confié une mission
permanente d’intérêt public. Actuellement au nombre de 32 (12 établissements à compétence
nationale et 20 sociétés de développement régional), ils emploient plus de 10 000 salariés et
sont représentés par un organisme professionnel, le Groupement des institutions financières
spécialisées (GIFS). Leurs principaux domaines d’intervention concernent : le concours aux
entreprises (crédits, garanties, prises de participation, assistance, conseil), le financement de
l’immobilier (c’est le rôle dévolu notamment au Crédit Foncier de France), le financement des
collectivités locales (c’est l’activité essentielle du Crédit local de France) ou encore celui des
départements et des territoires d’outre-mer (par l’intermédiaire de la Caisse centrale de
coopération économique, de la Caisse française de développement et de la Société de crédit
pour le développement des départements d’outre-mer).

Le crédit municipal
Connues encore sous le nom de " Chez ma tante ", les Caisses de crédit municipal,
établissements publics locaux de crédit et d’aide sociale, ont le monopole de l’octroi de prêts
sur gages corporels. Il existe actuellement 20 caisses, dont la plus importante est de loin celle
de Paris. Elles emploient environ 1 300 personnes (dont près de 300 à Paris). Au cours des
dernières années, elles ont diversifié et développé leurs activités en direction des particuliers
(notamment les prêts aux fonctionnaires), des collectivités locales et du réseau associatif.

Ces institutions financières sont chapeautées par un ensemble d’organismes de contrôle,


chargés de faire appliquer la réglementation qui prétend assurer l’efficacité et la sécurité de ce
secteur (loi bancaire de 1984 ; loi de sécurité financière de 2004). Le responsable ultime de ce
contrôle est évidemment le ministre de l’économie et des finances, en tant que représentant du
gouvernement. A cet effet il est assisté par deux organes de conseil : le Comité consultatif du
secteur financier (CCSF), compétent pour tous les problèmes de fonctionnement des
institutions financières, et le Comité consultatif de la réglementation financière, qui prépare
les textes législatifs et réglementaires d’initiative gouvernementale. Ces deux comités sont
soutenus par la Banque de France, qui est l’agent exécutif de la tutelle. Cette mission est en
fait prise en charge par deux nouveaux organismes : le Comité des établissements de crédit
dont l’agrément est nécessaire pour qu’une société puisse entreprendre des opérations de
banque, et la Commission bancaire qui assure la surveillance de ces mêmes opérations, à
travers des contrôles sur pièces mais aussi sur place (il faut toutefois remarquer que de tels
contrôles trouvent leurs limites, puisque malgré plusieurs passages à la Société Générale, les
inspecteurs de la Commission bancaire n’ont jamais soupçonné les défaillances de son
système de contrôle interne).

62
APPENDICE

Évolution du taux d’intermédiation financière en France (1994-2004)


Le taux d’intermédiation représente la part prise par les intermédiaires financiers
résidents (établissements de crédit, OPCVM et sociétés d’assurance) dans les financements
accordés aux agents non financiers (ANF)*. Si l’on s’en tient aux crédits octroyés par ces
intermédiaires, il s’agit d’un taux d’intermédiation au sens étroit. Lorsque leurs placements en
titres émis par les ANF (actions, obligations ou titres de créances négociables) sont également
pris en compte, il s’agit d’un taux d’intermédiation au sens large. Par construction, la
différence entre le total des ifnancements reçus par les ANF résidents et celui des
financements intermédiés correspond aux financements consentis soit par les ANF résidents
eux-mêmes, soit par des non-résidents, financiers ou non financiers. Au cours des dernières
années, le « Reste du monde » a pris une part croissante au financement des ANF résidents
alors que les intermédiaires financiers résidents ont largement développé leurs concours à
l’étranger. Cette internationalisation croissante des financements se reflète dans l’évolution
des taux d’intermédiation.
Du point de vue de leur mode de calcul, ces deux indicateurs reprennent très largement
l’approche précédemment développée par l’ancien Conseil national du Crédit et du Titre
(CNCT). Les calculs sont désormais réalisés à partir des comptes nationaux financiers
trimestriels établis par la Banque de France et publiés sur son site. Le taux d’intermédiation
au sens étroit comme au sens large a régulièrement décrû au cours des dix dernières années.
Entre 1994 et 2004, les deux indicateurs sont ainsi tombés respectivement de 55,4 % à 40,4
%, et de 76,2 % à 58,8 %. Cette tendance à la baisse s’est toutefois atténuée en fin de période.
La baisse du taux d’intermédiation au sens étroit témoigne du recours accru des SNF et
des APU aux financements de marché sur la période. Elle ne reflète pas pour autant une
extension du rôle des ANF résidents dans le financement non intermédié de l’économie.
Celui-ci reste en fait limité, et ce pour plusieurs raisons :
• l’importance relative de la détention d’actions par les APU décroît, du fait des
opérations d’ouverture de capital et de privatisation de SNF menées au cours de la décennie
sous revue. En cumul sur la période, le solde des flux d’apports en capital et de cessions
d’actions de SNF par les APU excède à peine 3 milliards d’euros ;
• la détention en direct de titres par les ménages demeure limitée, le cumul des flux
d’achats nets de titres par ce secteur s’élevant à quelque 50 milliards d’euros sur la période.
La part de l’agrégat constitué par les financements de marché apportés par les
intermédiaires financiers résidents (correspondant à l’écart entre le taux d’intermédiation au
sens large et le taux d’intermédiation au sens étroit) tend également à décroître.
En fait, le principal facteur explicatif de la baisse du taux d’intermédiation, au sens large
comme au sens strict, tient à l’importance croissante des financements de marché apportés par
les non-résidents. En effet, depuis 1998, les flux d’achats nets par le Reste du monde de titres
émis par les ANF résidents ont toujours représenté une part prépondérante (plus de 80 %) des
financements non intermédiés, alors que la part de ceux-ci s’est sensiblement renforcée, allant
jusqu’à représenter, en fin de période, plus de 40 % du total des financements. Le Reste du
monde détient ainsi une part de plus en plus importante de l’encours des financements de
marché reçus par les ANF.
Taux d’intermédiation au sens strict
et au sens large

63
*ANF : sociétés non financières (SNF), ménages y compris les institutions sans but
lucratif au service des ménages, administrations publiques (APU).

64
32 – Les administrations publiques et la production non marchande
Il semble que l’on puisse remonter fort loin pour trouver trace de la volonté d’une
communauté de contrôler son propre destin1. Il est classique de citer le code d’Hammourabi,
roi de Babylone, qui, 17 siècles avant l’ère chrétienne, réglemente en 282 articles l’ensemble
de l’activité agricole et commerciale du pays. De même l’Egypte ancienne – trois à quatre
siècles avant l’ère chrétienne – découvre les cycles économiques : « sept vaches grasses, sept
vaches maigres », et en tire la conclusion que l’Etat doit organiser le stockage des récoltes. De
même sous Dioclétien, l’empire romain invente le contrôle des prix, qu’on retrouvera bien
souvent plus tard.
Sur le plan doctrinal, il faut remonter au XVIIème siècle pour avoir une réflexion sur
le thème de l’intervention économique de l’Etat. Les Mercantilistes on développé leurs
travaux entre les XVI° et XVIII° siècles. Ils s’inscrivent donc dans un contexte d’édification
des Etats en Europe, de colonisation intensive, d’augmentation de la quantité de métaux
précieux disponible, et de développement du commerce international. Leurs préoccupations
tournent donc autour du rôle des métaux précieux dans l’élaboration de la richesse des nations
et dans la mesure de la valeur des choses.
S’il est clair pour tous les Mercantilistes que la possession de métaux précieux peut
faire la puissance des Etats, ils ne se rencontrent pas nécessairement sur la manière la plus
efficace de se les procurer et de les conserver. Pour les uns, la colonisation d’une part et le
protectionnisme, c’est-à-dire la restriction du commerce international, d’autre part, sont la
réponse évidente. C’est une position que l’on retrouve plutôt en Espagne, simplement parce
que celle-ci colonise massivement, sans développer véritablement son économie.
En revanche dans les pays du nord comme l’Angleterre et la Hollande, qui connaissent
les prémices de la révolution industrielle, on fait confiance au développement de l’industrie et
du commerce pour obtenir de manière pacifique mais très efficace l’or que d’autres seront allé
chercher aux Amériques.
D’une certaine manière Colbert s’inscrit à mi-chemin entre ces positions extrêmes, qui
est certes assez protectionniste, mais dans la perspective d’assurer le développement d’une
économie nationale, beaucoup plus que pour conserver de l’or.

Avec les Classiques on assiste à une inversion de point de vue : l’idée dominante est
libérale et le principe est de « laisser faire, laisser passer ». Ce libéralisme est guidé par une
vision quasi religieuse du fonctionnement du système économique, selon laquelle une « main
invisible » rend spontanément compatibles entre elles des actions individuelles indépendantes.
L’Etat n’est donc qu’un gendarme, responsable seulement de l’ordre public sous toutes ses
formes : armée, police, justice… Evidemment cette liberté doit se traduire, à l’inverse de ce
que préconisaient les mercantilistes, par une liberté des échanges. C’est David Ricardo qui se
chargera de conceptualiser cela dans sa théorie des avantages comparatifs.
Tout de même, les Classiques admettent l’intervention de l’Etat au delà de la simple
sécurité publique. Ils comprennent que l’on ne peut attendre de l’initiative privée la
production de certains biens ou services dont il n’est pas possible d’espérer des bénéfices
rapides. Comme ces biens et services ont néanmoins une grande utilité pour le bon
fonctionnement du système : routes, ponts, infrastructures en général, ils faut les produire, et
seule la puissance publique, qui dispose du pouvoir de lever l’impôt, est capable de la faire.
De même on ne peut laisser une totale liberté en matière monétaire : la monnaie est
une sorte d’élément d’infrastructure du système économique, et c’est aussi un des piliers de la
souveraineté. Il est donc légitime que le pouvoir de battre monnaie soit monopolisé par l’Etat.
Ceci n’est d’ailleurs pas incompatible avec le fait que, sur le plan pratique, c’est

1
D’après G. Duthil et W. Marois : Politiques économiques, Paris : Ellipses, 1997.

65
éventuellement une banque privée (Banque d’Angleterre, Banque de France à cette époque)
qui est chargée de l’émission des billets.

Le retour de l’Etat sur la scène économique se fera au XIX° siècle avec l’apparition de
la “ question sociale ”1. Il est habituel sur ce sujet de renvoyer à l’ouvrage célèbre du docteur
Villermé : “ Tableau de l’état physique et moral des ouvriers dans les fabriques de coton, de
laine et de soie ” publié en 1840. Il y dénonce les conditions d’emploi et notamment celles des
enfants. Dans la mesure où l’idée se répand qu’il n’est pas acceptable de laisser traiter ainsi
des êtres humains (d’autant moins qu’au bout du compte c’est leur productivité qui est
affectée) on admet qu’il revient à l’Etat d’y mettre bon ordre. C’est à des gens comme
Lacordaire qu’il revient de faire l’éducation des “ biens pensants ” sur de tels sujets. C’est
ainsi que dans une conférence célèbre à Notre-Dame de Paris2, il s’écrie : « Entre le fort et le
faible, entre le riche et le pauvre, entre le maître et le serviteur, c’est la liberté qui opprime et
la loi qui affranchit ».
C’est ainsi que tous les Etats vont se mettre, essentiellement à partir de la seconde
moitié du siècle, à produire des législations sociales : interdiction du travail des enfants,
limitation du travail des femmes, réduction de la durée du travail, amélioration des conditions
d’hygiène… Il est ainsi remarquable que ce soit l’un des gou vernements les plus
conservateurs d’Europe, celui de Bismarck et de Guillaume II, qui produise les premières
« lois sociales » (1882-1890), Bismarck professant même que « l’Etat doit apparaître aux
classes les plus nombreuses, les moins instruites, comme une institution non seulement
nécessaire mais bienfaisante ».

Philippe Askenazy
Smic : la France à contre-courant (Le Monde 23 janvier 2008)

Une série d'ouvrages sur les bas salaires en Europe va être publiée dans quelques jours par la prestigieuse
Russell Sage Foundation, basée à New York. Les volumes consacrés au Royaume-Uni et à l'Allemagne
décrivent un chassé-croisé frappant pour la dernière décennie.
Outre-Rhin, malgré l'absence de salaire minimum, le modèle social a longtemps été caractérisé par des
salaires élevés. Mais, depuis la seconde moitié des années 1990, il s'effrite : la part des travailleurs à bas salaires
a augmenté de 25 %. Les secteurs concernés, comme les services aux particuliers, sont pourtant protégés de la
concurrence internationale. Le développement de mini-jobs mal payés et la pression sur les rémunérations
touchent particulièrement les femmes. En Grande-Bretagne, dans le même temps, l'introduction en 1999 d'un
salaire minimum, aujourd'hui supérieur au smic français, a participé d'une baisse de 10 % de la part des bas
salaires dans l'emploi. Les femmes en sont cette fois les grandes bénéficiaires. Le salaire minimum britannique a
pourtant suscité d'importantes craintes lors de sa création par Tony Blair. La plupart des experts avaient la
conviction qu'un salaire minimum ne pouvait que jouer contre l'emploi ; leurs homologues français ont
aujourd'hui la même vision pour le smic. Simple conviction, car les travaux empiriques sont sophistiqués mais
fragiles. Aux Etats-Unis, le débat scientifique sur l'impact délétère du salaire minimum reste d'ailleurs ouvert. Le
patronat américain est également divisé : le PDG de Wal-Mart, par exemple, s'offre le luxe de soutenir les
propositions démocrates d'une augmentation du salaire minimum fédéral.
Au Royaume-Uni, le salaire minimum est fixé sur proposition (systématiquement suivie) d'une
« commission bas salaire » composée de six responsables patronaux et syndicaux (ne représentant pas leurs
organisations), de deux universitaires et d'un président. Neuf ans après, les effets du salaire minimum britannique
sur l'emploi sont indécelables, malgré les efforts des chercheurs ! Cette expérience a convaincu une Allemagne
pourtant réfractaire à cet outil. L'introduction de minima salariaux est désormais au cœur de la stratégie

1
Dont des auteurs d’aujourd’hui donnent la définition suivante : « celle de la croissance du bien être de chacun
et celle de la solidarité entre tous, face aux inégalités de toute forme, chômage, revenu, savoir. », J.-C. Prager et
F. Villeroy de Galhau, 18 leçons sur la politique économique, Le Seuil, Paris, 2006, p.17.
2
Quarante cinquième (ou cinquante-deuxième ?) conférence de Notre Dame, 1848.

66
antidumping social et de moralisation du capitalisme moderne de la grande coalition d'Angela Merkel. Elle en a
déjà instauré un de plus de 1 500 euros dans le secteur postal à l'Ouest. D'autres branches vont suivre. Pour le
Parti social-démocrate, le mouvement vers un salaire minimum interprofessionnel est lancé.
Paradoxalement, le gouvernement Fillon va inscrire la France dans une trajectoire inverse : une
fragilisation du smic. Créé en 1970, le smic avait vocation à faire profiter chacun des fruits de la croissance. Il
augmente annuellement au minimum de l'inflation plus la moitié du gain d'un ouvrier. Mais, contrairement à une
idée reçue, il n'est pas particulièrement généreux. Malgré les coups de pouce et la convergence des smic 35
heures par le haut, le pouvoir d'achat net d'une heure de travail au smic n'a progressé en vingt-cinq ans que de
20%. Ce qui est en deçà des gains de productivité résultant d'organisations du travail de plus en plus exigeantes.
Pourtant, l'évolution du smic est désormais une urgence politique. L'inflation dépasse 2,5 %. Les tensions
persistantes sur les matières premières, la saturation de l'effet déflationniste des importations asiatiques et les
politiques gouvernementales (des franchises médicales à la taxe sur le poisson) risquent de la maintenir
durablement à un tel niveau. Avec cette hausse des prix - même modeste -, le smic pourrait croître
mécaniquement de 3,2 % en nominal chaque année, le portant à... 1 500 euros pour 35 heures en 2012. Sans
réforme, Nicolas Sarkozy réaliserait la promesse de campagne du PS ! Il doit donc assurer sa propre proposition :
remettre en cause la mécanique du smic, pour revenir à un salaire minimum non automatiquement indexé sur la
croissance. Le Conseil d'orientation de l'emploi a été saisi pour avis sur les projets gouvernementaux. Ils
devraient se traduire en loi après les municipales. Le projet prévoit qu'une commission d'experts indépendante
émettra tous les ans des recommandations publiques sur la hausse du salaire minimum..., ce qui est en fait bien
inquiétant pour les millions de smicards. Séparément, les partenaires sociaux au sein de la commission nationale
de la négociation collective continueront de donner leur avis. La décision finale reviendra au gouvernement.
Le plan politique pour rassurer les salariés est aussi en forme. L'Etat conditionnerait l'octroi des
allégements de charges sociales à une négociation salariale au sein de l'entreprise. Cette mesure risque d'être un
leurre : son contrôle sera difficile ; les salariés n'ont souvent que peu de pouvoir de négociation, notamment dans
les petites entreprises où les syndicats sont absents ; enfin, comme pour l'octroi des heures supplémentaires ou
des jours de RTT payés, l'employeur n'aura aucune obligation d'augmenter les salaires à l'issue de la négociation.
Les syndicats sont désorientés par le maelström des réformes sociales ou les diversions comme la
suppression de toute référence pour le temps de travail. Mais le plus navrant reste l'attitude des socialistes : ils
semblent avoir jeté aux oubliettes l'idée phare d'un smic à 1 500 euros alors qu'elle est plus que jamais réaliste.
Preuve que le défaitisme social dépasse les clivages politiques.

L’étape suivante a consisté à penser que l’Etat ne pouvait pas se contenter d’intervenir
pour préparer le cadre dans lequel s’exerce l’initiative privée et pour assurer la sécurité du
système économique, et qu’il avait la responsabilité de faire en sorte d’empêcher que ses
performances se dégradent. On ne peut se contenter de laisser faire lorsque l’on constate que
le fonctionnement spontané du système produit du chômage à hauteur de 30 ou 40% de la
population active, sans qu’apparaisse le moindre espoir que la conjoncture se retourne. Pour
paraphraser le président Hoover, la prospérité n’est pas au coin de la rue, au mieux est-elle
loin au bout de la route, à un horizon trop lointain pour ceux qui attendent dans la misère.
De là vient l’idée que la politique doit reprendre ses droits, que l’homme doit tenter de
peser sur son propre destin, y compris ’sil s’agit d’interférer avec el s mécanismes
économiques. C’est à John Maynard Keynes que l’on doit la conceptualisation de cette idée,
même si bien d’autres avant lui l’avaient envisagée, et même si elle a été mise en pratique en
Allemagne ou au Etats Unis (respectivement par le docteur Schacht et par le président
Roosevelt) avant que la Théorie générale de l’emploi, de l’intérêt et de la monnaie soit
publiée en 1936.
Dans ce qui suit seront étudiés deux domaines de la politique économique : monétaire et
budgétaire.

67
321 Politique monétaire
Aux yeux de certains, la politique monétaire est al seule à trouver grâce. C’est
notamment le cas des libéraux qui reconnaissent à la puissance publique une responsabilité à
l’égard de cet élément souverain qu’est la monnaie, mais en limitant sa marge de manœuvre à
la stricte défense de la valeur de celle-ci. Ceci n’empêche pas d’autres de considérer qu’il
serait dommage de se priver des leviers qu’offre la monnaie, en tant que cible intermédiaire
dans le cadre de la politique économique.

3211 – Fondements doctrinaux.


Comme toute valeur, celle de la monnaie, qu’elle soit interne ou externe, résulte de la
rencontre entre l’offre et la demande de cette même monnaie. Pour certains, les Classiques par
exemple, les modifications relatives de l’offre et de la demande n’ont d’effet que sur la valeur
de la monnaie : la valeur varie jusqu’au point où offre et demande sont à nouveau égales.
Mais d’autres, comme les Keynésiens et les Monétaristes, considèrent que c’est l’équilibre de
l’ensemble des marchés qui est influencé par l’équilibre monétaire. Dans les deux cas on
comprend que la politique monétaire est concernée par l’équilibre entre offre et demande de
monnaie. Mais quoi qu’il en soit, il faut d’abord s’entendre sur le sens de ces deux termes.
On appellera demande de monnaie, ou d’encaisse, (Md) la quantité de monnaie que les
agents économiques souhaitent conserver (il s'agit donc d'un concept de stock et non de flux
comme pour la demande de marchandises). L'offre de monnaie (Mo) est la quantité de
monnaie que les responsables de 'émission l monétaire mettent à la disposition des
demandeurs. Les sections précédentes ont montré que ce sont les entreprises financières qui
assurent cette offre, mais qu’en même temps elles sont dépendantes, pour ce faire, de la
banque centrale, de ce fait l’instrument idéal d’un contrôle de cette offre par la puissance
publique.
La question qui reste maintenant à résoudre est celle de savoir en quoi une politique de
contrôle de l’offre de monnaie est susceptible de contribuer à une politique économique
générale. Il paraît logique de partir des fonctions de la monnaie, puisque ce sont elles qui
expliquent l'utilisation de cette dernière. On peut essentiellement retenir les deux fonctions
d'échange et d'étalon d'une part, de réserve d'autre part.

Au niveau macroéconomique, la quantité de monnaie nécessaire pour les échanges


dépend de la valeur de ceux-ci, qui à son tour dépend des quantités échangées (Q) en même
temps que des prix (P), c'est-à-dire indirectement du revenu. Une première version de la
fonction de demande est donc :
Md = P.Q.
On trouve cette idée par exemple chez Ricardo et Walras. Mais c'est oublier que
l'efficacité de la monnaie en tant qu'intermédiaire dépend de la manière dont elle est utilisée.
L'échange implique la circulation de la monnaie du demandeur de biens et services vers
l'offreur de biens et services. On voit donc que l'on pourra réaliser d'autant plus d'échanges
avec une même quantité de monnaie et dans un même temps, que la monnaie circulera plus
vite. La vitesse de circulation de la monnaie est alors le nombre d’utilisations que connaît
une unité monétaire par unité de temps (si V = 2 on en déduit qu’une pièce de 1€ fait deux
transactions au cours de la période choisie)

68
VITESSE DE CIRCULATION : ILLUSTRATION

Soit un circuit économique à trois acteurs : producteur, employé, détaillant1.


1 - P paie les salaires à 17h02
E paie ses achats à 17h01
D paie ses achats à 17h
Donc P garde la monnaie 2 mn (17h à 17h02)
E 23h59mn (17h02 à 17h01)
D 23h59mn (17h01 à 17h)
soit en tout 48h pour qu'une unité monétaire fasse le tour du circuit.
2 - P - 17h
E - 17h01
D - 17h02
Donc P garde sa monnaie 23h58 (17h02 à 17h)
E 1 mn (17h à 17h01)
D 1 mn (17h01 à 17h02)
soit en tout 24h i.e. un doublement de la vitesse de circulation.

On peut alors écrire


Md x V = P x Q
C'est l'équation des échanges d'Irving Fisher. Cela signifie que la demande de monnaie
dépend toujours de la valeur des échanges, donc indirectement du revenu, mais selon un
coefficient de proportionnalité 1/V. En outre les inventeurs de ce concept considèreront que
cette vitesse « transaction » est constante puisque dépendant des structures de paiement de la
société considérée.
Cette approche du problème peut être quelque peu modifiée si l'on passe de la notion
large de transactions, à la notion plus étroite de revenu : seules les transactions sur biens neufs
créent de la valeur, les autres ne font que la transférer. Pour Pigou et Marshall, en circulant
d'un agent à un autre, la monnaie est porteuse de revenu. Mais à l'inverse chaque agent décide
du volume optimal de son encaisse, en fonction du niveau de son revenu. Le concept de
demande commence ainsi à prendre sa véritable signification, en tant qu’expression de
volonté2. La demande de monnaie devient alors une fraction du revenu :
Md = k x P x R (R revenu à prix constants).
Ceci permet d'intégrer de manière plus explicite la notion d'encaisse de précaution ou
réserve de sécurité, qui concerne toujours des transactions, mais inattendues ou dont la date
est incertaine : on peut supposer que plus le revenu est élevé et plus le vo lume des
transactions accidentelles est important. Ceci étant, le résultat final reste le même : c'est
toujours le revenu et les structures de paiement qui déterminent la demande de monnaie, et le
coefficient de demande de monnaie k est toujours supposé constant.
J.M. Keynes lui-même donnera une version de cette demande de monnaie de transaction
(il parle plutôt de préférence pour la liquidité). Il la subdivise en demande pour motif de
revenu, qui comble l’intervalle entre encaissement et décaissement du revenu, et demande
pour motif professionnel pour combler l’intervalle entre engagement des frais professionnels
et réception du produit de la vente. Dans les deux cas la variable explicative reste le niveau du
revenu.
On peut rattacher aussi au niveau du revenu une demande de monnaie pour motif de
précaution. En effet puisqu’il s’agit « de parer aux éventualités exigeant une dépense
soudaine » ou « de profiter d’occasions non prévues » il est logique de lier le niveau

1
Angell : “The components of the circular velocity of money” Quarterly Journal of Economics 1937.
2
Christian de Boissieu : Les vitesses de circulation de la monnaie : une approche conflictuelle, Cujas, Paris,
1975.

69
envisageable des dépenses, dans un cas et dans l’autre, au niveau du revenu. On retrouve une
équation de demande du type1
R = V.Md1
où R est le revenu, Md1 la demande de monnaie de transaction (et de précaution), et V la
vitesse de transformation de la monnaie en revenu. Etant une variable sociale, dépendant des
us et coutumes et de l’organisation de la société, V peut être considérée comme constante en
courte période.
Milton Friedman2 viendra à son tour compléter cette approche en introduisant la notion
de revenu permanent. C’est le revenu que l’on pense percevoir en moyenne sur longue
période, « comme le rendement de toutes les formes de richesse autres que la monnaie ». Et la
demande de monnaie reste une proportion stable du revenu permanent, de sorte que la vitesse
de circulation de la monnaie est, elle aussi, stable.

Réserve de valeur, la monnaie est demandée non plus dans la perspective, certaine ou
incertaine, de l'acquisition d'un bien ou d'un service, mais pour elle-même. Elle apporte en
effet une utilité qu'aucun autre actif n'apporte avec la même efficacité : la liquidité. Sa
possession implique en revanche un coût d'opportunité, puisqu'elle n'a aucun rendement (en
principe) : le détenteur de monnaie supporte un manque à gagner. Dans la gestion de son
portefeuille, c’est-à-dire de son patrimoine financier, l’agent économique doit donc arbitrer
entre sa préférence pour la liquidité et le rendement des titres auxquels elle lui fait renoncer.
C'est à Keynes, semble-t-il, que l'on doit la première formulation de ce choix. Il est alors très
simplifié, puisqu'il oppose seulement la monnaie et les obligations.
Dans son arbitrage, l’agent doit tenir compte d’abord du taux d’intérêt que produisent
les obligations, puisque celui-ci fixe le coût d’opportunité de sa préférence pour la liquidité. Il
doit aussi considérer la valeur de marché à laquelle il pourra éventuellement négocier les
obligations d’occasion, et surtout il doit anticiper leur valeur future, puisque c'est la
comparaison entre valeur future et valeur présente qui fera apparaître une plus-value ou une
moins-value.
C’est justement parce que cet arbitrage prend en compte une anticipation sur l’évolution
du marché que la demande de monnaie est dite « pour motif de spéculation ». Or on peut
aisément montrer que taux d’intérêt et valeur de marché des obligations varient en sens
inverse, comme le montre le graphique ci-après pour des variations du taux d’intérêt de
marché, entre 5% et 15%.

1
“Théorie générale...”, p210.
2
“La demande de monnaie : quelques résultats théoriques et empiriques”, in R.S. Thorn : Théorie monétaire.
Contribution à la pensée monétaire, Dunod, Paris, 1971.

70
TAUX D'INTERET ET VALEUR D'UNE OBLIGATION

1400
1300
1200
1100
1000
R
U
E
A
L
V
900
800
700
600
5 7 9 11 13 15

TAUX

valeur nominale : 1000 ; durée : dix ans ; taux nominal : 10%

Ainsi lorsque le taux d'intérêt observé est considéré très élevé d'après l'expérience
historique, la plus grande probabilité est qu'il baisse. En conséquence on anticipe aussi une
hausse de la valeur de marché des titres d’occasion. Dans ces conditions le spéculateur choisit
les obligations, neuves ou d’occasion, plutôt que la monnaie : elles rapportent beaucoup et on
peut espérer une plus-value en les revendant après la hausse. Et le raisonnement est
parfaitement réversible. Puisque l'on introduit la notion d'expérience historique, on peut
raisonner par rapport à des maxima (et minima) historiques. Lorsque l’on se trouve dans ces
situations, tout le monde s'attend à une baisse (respectivement à une hausse) des taux d'intérêt.
Donc on peut avoir une demande de monnaie nulle (respectivement infinie : la « trappe des
liquidités »1), lorsque ces niveaux de taux d'intérêt sont atteints.

DEMANDE DE MONNAIE POUR MOTIF DE SPECULATION

i max

trappe des liquidités

i min
Md

Un tel raisonnement très simplifié puisqu’il ne met en jeu, face à la monnaie, qu’un seul
type de titre, devrait être complété pour tenir compte de la variété des placements offerts par
les institutions financières comme par les marchés des capitaux. En effet le spéculateur peut
arbitrer non seulement entre la monnaie et les titres, mais encore entre les titres eux-mêmes,
en fonction du degré de liquidité et du taux de rendement.

1
Ainsi nommée par une traduction approximative de liquidity trap, qui est plutôt un « piège à liquidités ».

71
Finalement ont peut affirmer que la demande de monnaie de spéculation varie en sens
inverse du taux d'intérêt. Et la notion de taux d'intérêt, qui jusque là n'était qu'un phénomène
réel, lié au rendement du capital investi dans la production, devient ainsi un phénomène
monétaire, puisque lié à la demande de monnaie.

Au point où en est arrivé le raisonnement, il est possible d’aboutir à une nouvelle


définition de la politique monétaire. On l’avait définie comme l’ensemble de décisions prises
par les autorités étatiques compétentes, et visant des objectifs intermédiaires de type
monétaire, en cohérence avec el s autres compartiments de la politique économique
d’ensemble. En fonction de ce qui a été dit, il est souhaitable de préciser les « objectifs
intermédiaires de type monétaire ». Puisque c’est de l’équilibre entre offre et demande de
monnaie que l’on attend une action sur les performances du système économique, et puisque
l’offre de monnaie a été supposée dépendre des pouvoirs publics, on définira simplement dans
ce qui suit la politique monétaire, comme le contrôle par les pouvoirs publics de l’offre de
monnaie, pour contribuer à la réalisation des objectifs de la politique économique générale.
On va supposer ici que l’objectif tracé à la politique économique, donc à la politique
monétaire, est de réaliser le plein emploi en favorisant l’expansion de l’activité. Dans une
vision logique simple, cela implique que les pouvoirs publics augmentent, toutes choses
égales par ailleurs, leur offre de monnaie par rapport à la demande, sachant que cela devrait
permettre un accroissement du volume des transactions : une augmentation relative de la
quantité de monnaie fait baisser son prix, le taux d’intérêt, augmentant ainsi le rendement de
l’investissement.
En réalité tout va dépendre du comportement de la demande de monnaie, en fonction
des déterminants qu’on lui a trouvés. Et l’essentiel des controverses en matière de politique
monétaire résulte de ce qu’il n’est pas établi que l’augmentation de l’offre de monnaie, toutes
choses égales par ailleurs, assure l’expansion de l’activité et le plein emploi de manière
durable.
Pour les Classiques, qui ne considèrent que la demande de monnaie pour motif de
transaction (et éventuellement de précaution) toute action expansive sur l'offre de monnaie ne
peut résulter qu'en inflation. En effet en se fondant sur l’équation d’Irving Fisher, ils
supposent qu’à court terme ni le niveau de la production ni la vitesse de circulation de la
monnaie ne sont variables, de sorte que la demande de monnaie reste constante. La vitesse, on
l’a vu, est pour eux une donnée structurelle déterminée seulement par les habitudes de
paiement. Quant au niveau de la production, il dépend en fait des capacités de production,
c’est-à-dire du travail et du capital disponibles, puisque tout revenu est forcément dépensé soit
en biens de consommation soit en biens d’investissement : la thésaurisation est irrationnelle.
On dit que l’offre crée sa propre demande. La décision d’investir dépend de la comparaison
entre la productivité marginale de l’investissement et le taux d’intérêt sur les fonds prêtables.
Quant à la décision d’épargner elle dépend de la comparaison entre ce même taux d’intérêt et
la désutilité marginale du renoncement à la consommation, qui se déduit de l’utilité marginale
de la consommation. La productivité marginale du capital est décroissante par rapport au
volume du capital (rendements décroissants), tandis que l’utilité marginale de la
consommation est croissante par rapport à l’épargne (réduction de l’effet de saturation).

72
EQUILIBRE DU MARCHE DU CAPITAL

i E
I

i*

E et I
E*=I*

Quant au marché du travail, son équilibrage se fait dans les mêmes conditions : le
demandeur compare la productivité marginale du travail et le taux de salaire réel, tandis que
l’offreur compare le salaire réel et la désutilité marginale du travail. La productivité marginale
est décroissante par rapport au volume de travail (rendements décroissants) ; la désutilité
marginale du travail est croissante (puisque l’utilité marginale de la consommation obtenue
grâce au salaire est décroissante). Il existe donc un salaire réel d’équilibre qui, en outre, assure
le plein emploi : tout travailleur surnuméraire pourra être employé dès lors qu’il accepte le
salaire réel d’équilibre.
Ainsi dans l’équation de Fisher : Mo = Md = 1/V * P * Q, seuls les prix (P) peuvent
varier pour permettre un retour à l’équilibre après une modification de Mo. C’est
l’enseignement de la théorie quantitative de la monnaie, selon laquelle l’offre de monnaie
doit seulement suivre la progression de la production (potentielle), donc celle des facteurs de
production, pour éviter de freiner la croissance, mais qu’elle ne doit en aucun cas croître plus
vite, sous peine de provoquer une inflation. Si une politique monétaire doit exister, elle ne
peut avoir que cet objectif intermédiaire, si l’on souhaite défendre la valeur de la monnaie.
Milton Friedman a néanmoins laissé une porte entrouverte pour une action monétaire
expansive, puisqu’il admet que les travailleurs peuvent être victimes d’une illusion monétaire
parce que leurs anticipations d’inflation dépendent de l’inflation présente mais aussi de
l’inflation passée. Dans ce cas ils ne percevraient pas que le salaire nominal est dévalorisé par
l’inflation, de sorte que le salaire réel baisserait, ce qui permettrait d’augmenter l’emploi.
Cette porte a été refermée par la théorie des anticipations rationnelles1 : il n’est pas
pertinent d’imaginer que les agents économiques se laisseront illusionner longtemps. Les
agents connaissent le mécanisme de l’inflation et ils sont informés en permanence sur l’état
des causes de ce phénomène. Ils ne peuvent donc pas se tromper durablement sur son
évolution.
Chez Keynes, la monnaie n'est plus un voile posé sur la « réalité » de l'économie. Elle
est un facteur essentiel de son fonctionnement, mais elle est aussi un facteur du sous emploi.
D'une part la monnaie étant thésaurisée (encaisse de précaution mais surtout de spéculation),
elle sort du circuit de l'échange ce qui conduit à un stockage de biens et services non désiré,
donc à une réduction de la production : l’offre ne crée plus sa propre demande, puisque la

1
MUTH J., « Rational Expectations and the Theory of Price Movements », Econometrica, juillet 1961, pp.315-
335 ; BARO R.J., « Unanticipated Money Growth and Unemployment in the United States », American
Economic Review, mars 1977, pp.101-115 ; HENIN P.Y., ZYLBERBERG A., « Sur l’efficacité de la politique
monétaire dans les modèles de prévisions rationnelles avec ajustement partiel des prix », Economie Appliquée,
1983, pp.157-174.

73
demande effective est inférieure au revenu. D'autre part en l'absence de monnaie, aucun besoin
ne peut donner lieu à expressio n d'une demande, en conséquence les chômeurs privés de
revenu ne communiquent aux entrepreneurs aucun signal qui les inciterait à relancer leur
production, donc à embaucher1. On pourrait alors utiliser la politique monétaire pour contrer
cet effet, en offrant la monnaie manquante.
En outre si l’on veut faire croître la demande effective, on ne peut compter que sur la
demande d’investissement, puisque la propension à consommer est une donnée. Or la
propension à investir des entrepreneurs dépend de la comparaison entre l’efficacité marginale
du capital et le taux d’intérêt. Donc l’augmentation de l’offre de monnaie qui, comme le
montre le graphique ci-dessous, ferait baisser le taux d’intérêt, permettrait de faire progresser
cette propension à investir.

EQUILIBRE DU MARCHE DE LA MONNAIE

i
Mo1 Mo2

i1 E1

E2
i2 Md

M
Néanmoins une telle politique est d'autant moins efficace que le taux d'intérêt est plus
faible, car alors la demande de monnaie est de plus en plus élastique au taux d'intérêt. A
l'extrême, aucune offre supplémentaire de monnaie ne fera baisser le taux d'intérêt au dessous
de l'efficacité marginale du capital, si l'on est dans la zone de la « trappe monétaire » : la
préférence pour la liquidité est infinie.
D’ailleurs Keynes ajoute que l’efficacité marginale du capital, à la différence de la
productivité marginale du capital des classiques, n’est pas qu’un paramètre technique ; elle
est aussi un paramètre psychologique traduisant les espérances de retour sur l’investissement.
Or si les investisseurs prévoient que la baisse des taux va continuer, ils se disent qu’il vaut
mieux attendre avant d’emprunter pour investir, parce que sinon ce sont les autres qui vont
profiter des taux plus bas et qui leur feront une concurrence de nature à faire baisser leurs
prévisions de vente. Ainsi l’efficacité baisse en mauvaise conjoncture, de sorte que le taux
d’intérêt peut ne jamais lui devenir inférieur.
Si l'on veut que la demande effective progresse, il ne faut pas passer par l'intermédiaire
de l'offre de monnaie, mais créer une demande de toutes pièces, en conduisant une politique
budgétaire (Keynes parle en plaisantant de la construction des pyramides, des dons de
messes... et plus sérieusement de la préparation de la guerre : « (...) c'est ainsi, une nouvelle
fois dans l'histoire mouvementée de l'humanité, que le bien pourra sortir du mal »2). Une telle
politique est en principe financée par l'emprunt. Toutefois il resterait une place pour la

1
Ceci peut néanmoins conduire à des systèmes d’économie parallèle fondés sur le troc, les chômeurs
s’échangeant leurs forces de travail contre inscription de créances et dettes auprès d’une chambre de
compensation.
2
J.M. Keynes : respectivement Théorie générale de l'emploi, de l'intérêt et de la monnaie, Paris, 1968, pp.146-
147, et « The United States and the Keynes Plan », in The Collected Writings of John Maynard Keynes,
Cambridge 1978, T22, p.150

74
politique monétaire, semble-t-il, dès lors que c'est par l'expansion monétaire que, faute de
mieux, on pourra financer le supplément de dépenses.

Finalement ce que montre ce paragraphe, c’est que les grandes théories n’ont pas fait
beaucoup de place à la politique monétaire. Pour l’essentiel elle permettrait d’accompagner la
croissance en évitant l’inflation. Mais cette défense contre l’inflation serait aussi une défense
contre le chômage, lorsqu’il est dû à la perte des marchés d’exportation. L’utilisation de la
politique monétaire comme facteur de relance supposerait, pour les Néo-classiques comme
pour les Keynésiens, la réalisation de conditions très strictes.
Pourtant on constate que les décideurs politiques, mais aussi nombre d’économistes,
continuent de parler de « l’autre politique » ou de fustiger la « pensée unique », c’est-à-dire
qu’ils n’acceptent pas de se priver d’un instrument d’action contre le chômage, si imparfait
soit-il. Ce retour d’une certaine forme de keynésianisme est d’autant plus marqué que
l’inflation est semble moins probable1.
« Lors de sa visite auprès de "la France qui souffre", Nicolas Sarkozy a fustigé la politique de
la Banque centrale européenne (BCE). "Continuons comme cela et on ne pourra plus
fabriquer un seul Airbus en Europe parce que le dollar sera si bon marché qu'on ira les faire
fabriquer aux Etats-Unis, a poursuivi le candidat à la présidentielle. Il n'y a pas un pays au
monde où la monnaie ne soit pas un instrument de politique économique au service de la
croissance et de l'emploi. » (Le Monde 18 décembre 2006)

3212 – Les techniques de la politique monétaire


Pour conduire une politique monétaire il faut évidemment disposer de techniques
adaptées au fonctionnement du système créateur de monnaie. Mais il faut d'abord connaître la
situation du système économique dans son entier, et de la sphère monétaire en particulier, de
manière à choisir les bonnes techniques à employer et à doser exactement l'action menée.
Ceci signifie qu'à côté des instruments d'action, il faut disposer d'instruments d'information.
Et même avant cela il faut poser la question de savoir quelle autorité sera chargée de
porter le diagnostic grâce aux instruments d'observation, et de décider de la cure par
l'utilisation des instruments d'action. Le choix est entre le gouvernement et la banque centrale,
érigée alors en autorité administrative indépendante. L'exemple français montre la logique
d'un tel choix2.
Jusqu'aux années quatre-vingt-dix, la France a délibérément choisi la réponse la plus
évidente : le gouvernement étant chargé de la politique de la nation, il est naturellement
chargé de cet élément particulier qu'en est la politique monétaire. Institutionnellement cela
signifiait que la Banque de France, dans sa fonction de banque centrale, répondait - quitte à
exprimer son avis - aux directives formulées par le gouvernement. Cette absence
d'indépendance avait aussi une cause historique dans le fait que la Banque de France ayant été
créée comme Institut d'émission, notamment pour financer les dépenses publiques, il était
naturel qu'elle soit dans la mouvance de l'exécutif.

1
Voir à ce propos P. Artus, « Quand l’inflation ne menace pas », Le Monde, 18 novembre 2006, p.21.
2
- Pour plus de détails consulter le numéro spécial "L'indépendance des banques centrales" de la Revue
d'économie financière, 22/1992. Voir aussi "Organisation et fonctions de quelques grandes banques centrales",
Banque de France, Etudes, 1992.

75
Tant que les objectifs fixés à la politique monétaire ont été de suivre la conjoncture pour
pallier les insuffisances de la demande globale, un tel choix n'était guère critiquable. C'était
particulièrement vrai dans les années 45-65 où l'économie française était encore relativement
fermée, car alors une politique monétaire d'aide à la croissance, si elle créait des tensions
inflationnistes, n'avait que des conséquences atténuées sur la valeur externe du franc. La
période 1975-1990 a fait prendre conscience, avec l'ouverture croissante des frontières, que la
lutte contre l'inflation, gage de la tenue du franc sur les marchés des changes, donc
notamment de la crédibilité de la politique européenne de la France, devait devenir l'objectif
prioritaire de la politique monétaire. D'autant que la crise de 1982-83 avait montré que l'on ne
peut faire une autre politique qu'en rompant avec ceux - les Allemands - qui faisaient de la
valeur de leur monnaie un principe quasi constitutionnel.
Certes les gouvernements de la période 1976-1980 puis de la période 1983-1993 ont
tous adopté l'objectif de la stabilité interne et externe du franc, voire un objectif de “franc
fort” (c'est-à-dire plutôt sur- que sous-évalué). Au point que l’on a pu parler de “pensée
unique” à propos de cette politique typiquement monétariste Et en cela ces gouvernements ne
pouvaient entrer en conflit avec la banque centrale, dont une des missions a toujours été
justement la défense du franc. Toutefois la question de l'indépendance de cette banque est tout
de même venue à l'ordre du jour, lorsque l'on s'est rendu compte que la défense d'une monnaie
passe par l'acquisition de la confiance des marchés, qui elle-même suppose transparence,
stabilité et continuité de la politique monétaire. Ainsi par exemple, à un moment où la France
affichait des résultats “fondamentaux” meilleurs que ceux de l'Allemagne, elle devait
néanmoins maintenir des taux d'intérêt réels plus élevés, pour payer la prime de risque exigée
par les marchés, échaudés par près de quarante années de laxisme monétaire. Or, pour de tels
critères, les marchés ont a priori plus confiance dans une autorité administrative indépendante,
que dans un gouvernement soumis aux aléas de la conjoncture, autant politique
qu'économique.
On pourrait ajouter que ce débat est venu à l'ordre du jour aussi parce que la
construction de l'Union économique et monétaire (UEM), supposant un compromis avec
l'Allemagne, ne pouvait se faire qu'avec une banque centrale européenne elle-même
indépendante des pouvoirs politiques. Il n'y avait alors plus guère de raison, sinon transitoire,
pour traiter autrement la Banque de France.
Quant aux modalités de l'indépendance elles peuvent être de différentes formes, mais
elles passent inévitablement par la définition très stricte - et éventuellement solennelle - d'un
objectif intangible de la politique monétaire, comme mission de la banque centrale, et sans
doute par l'irrévocabilité de ses gouverneurs, comme des membres de son conseil

76
d'administration. Mais comme la décision du Conseil constitutionnel du 3 août 1993 l'a
montré, une telle prérogative de la banque centrale vient buter sur la compétence législative
du Parlement, et sur la compétence du Gouvernement en matière de « conduite » de la
politique de la Nation - sauf lorsqu’un traité, celui de Maastricht en l’occurrence, en décide
autrement1.
Aujourd’hui c’est évidemment au niveau de l’Union européenne que la question est
reportée, le Conseil des gouverneurs des banques centrales assurant, en toute indépendance la
définition et la mise en œuvre de la politique monétaire commune : « Dans l’exercice des
pouvoirs et dans l’accomplissement des missions et des devoirs qui leur ont été conférés par
le présent traité et les statuts du SEBC, ni la BCE, ni une banque centrale nationale, ni un
membre quelconque de leurs organes de décision ne peuvent solliciter ni accepter des
instructions des institutions ou organes communautaires, des gouvernements des États
membres ou de tout autre organisme. Les institutions et organes communautaires ainsi que
les gouvernements des États membres s’engagent à respecter ce principe et à ne pas chercher
à influencer les membres d’organes de décision de la BCE ou des banques centrales
nationales dans l’accomplissement de leurs missions. » (article 108 du traité d’union).

Ceci étant acquis, une reprise des résultats recueillis au cours du chapitre précédent sur
la “mécanique” de la création monétaire permet de repérer les points où les instruments
d'observation comme les instruments d'action, pourront - ou ne pourront pas - être appliqués .

CIBLES ET INSTRUMENTS DE LA POLITIQUE MONETAIRE

BC

9 8 7
ACTIONS SUR LE
EX ET EC REFINANCEMENT
6

B2R

LIQUIDITE BANCAIRE RESERVES


(K) 5 OBLIGATOIRES

ENCADREMENT MESURE DE LA
DU CREDIT 1 MASSE MONETAIRE
4 3 2
OBJECTIFS
MONETAIRES

ECO MESURE DE
EXT ETAT
L'ENDETTEMENT

i
FLUX MONETAIRE
FLUX DE CREANCES
j

En 1 on a la création (ou le stock) de monnaie de second rang et en 2, 3 et 4 les


contreparties de cette création. En 5 se trouve l’intermédiation financière de second rang, avec
la capacité de multiplication de la base monétaire. En 6, 7, 8 et 9 on a respectivement la
création de monnaie centrale et ses trois contreparties. Le schéma montre aux deux niveaux
du financement et du refinancement, ce qu'il faut connaître, et ce sur quoi on peut agir. Dans

1
Puisque depuis le fameux arrêt Nicoleau, la supériorité du traité sur la loi française même postérieure est
admise par la jurisprudence.

77
ce dernier cas, il apparaît que tout ce qui concerne l'Etat et l'Extérieur est exorbitant de la
politique monétaire, soit par impossibilité d’agir directement (convertibilité) soit par volonté
de ne pas agir (crédits à l’Etat et à l’Extérieur).

A - Instruments d'observation : la quantité de monnaie et l’endettement


Puisque « gouverner c’est choisir » (Pierre Mendès-France) et « c’est prévoir »
(Valéry Giscard d’Estaing), c’est d’abord connaître. La polit ique monétaire, comme les
autres, ne peut être entreprise sans une connaissance du domaine dans lequel elle va
s’appliquer, des problèmes qu’elle est susceptible de traiter, et des externalités qu’elle pourrait
faire naître dans d’autres domaines. De là le besoin d’instruments d’observation. Si l’on laisse
de côté ce qui est exorbitant à la sphère monétaire, on pourra examiner d’abord la cible
principale de la politique telle qu’elle est inscrite dans les textes : la valeur de la monnaie, ce
qui appelle un instrument d’observation de l’inflation, ceci a été vu à propos de l’étude du
pouvoir d’achat. Mais il ne suffit pas d’observer le phénomène lui-même, il est souhaitable de
repérer ses signes avant-coureurs au moins dans la sphère monétaire : la quantité de monnaie
en circulation. De même il paraît souhaitable de s’intéresser à la manière dont les agents
financent leur activité : en s’autofinançant (on inclura le financement par augmentation de
capital dans ce concept) ou en faisant appel à l’endettement. Dans ce qui suit, on ne traitera
pas des taux d’intérêt, même s’il est clair qu’ils sont un indicateur important des tensions
subies par l’économie : en effet leur observation ne pose aucun problème méritant des
développements particuliers.

Mesurer la quantité de monnaie suppose simplement que l'on définisse ce que l'on
entend par « monnaie ». Jusqu'ici on s'en est tenu à une définition très stricte fondée sur des
critères fonctionnels définis. Il fallait qu'un actif soit aussi un instrument de paiement direct
pour être inclus dans la quantité de monnaie. On avait donc formé un agrégat1 comprenant les
pièces, les billets et la monnaie scripturale. Certains (comme André Chaîneau2) souhaiteraient
que l'on s'en tienne là. Mais les responsables de la politique monétaire considèrent qu'il est
préférable pour disposer d'outils d'observation utiles, d'élargir la définition. En effet il existe
un grand nombre d'actifs qui ne sont pas des instruments de paiement, mais peuvent être
transformés en instruments de paiement, sans coût ni délai, ou en tout cas avec un coût et un
délai faibles. Ces actifs sont donc très liquides, et leur détention est, en termes de sécurité,
presque aussi efficace que la détention de monnaie. En outre ils offrent un autre type de
sécurité : une meilleure protection de la valeur grâce à une rémunération.
Mais alors on se rend compte qu'il n'existe pas, parmi les actifs, deux catégories bien
distinctes : les liquides et les illiquides, mais plutôt une gamme continue allant de la liquidité
parfaite : la monnaie au sens strict, à l'illiquidité parfaite : le capital humain, en passant par
tous les degrés : titres divers, biens durables... Et bien sûr cette illiquidité croissante a en
contrepartie un taux de rémunération croissant (sous réserve des imperfections du marché).
Toute la question est donc de choisir la frontière entre ce qui est justiciable de
l'appellation monnaie, et ce qui ne l'est pas. Or une telle frontière est purement
conventionnelle d'une part, et changeante d'autre part avec la réalité à laquelle elle s'applique.
C'est pourquoi la définition des agrégats de monnaie français a changé plusieurs fois en
quelques années, et pourquoi elle n’a jamais recueilli un consensus total.
Le principe de définition des agrégats de monnaie s’appuie sur un raisonnement en
termes de demande de monnaie, ou plus généralement de préférence pour la liquidité,
1
Le mot agrégat est utilisé pour indiquer que l’on réunit sous une même appellation plusieurs variables
élémentaires. Le PIB, la consommation des ménages... sont par exemple des agrégats.
2
Chaineau A., Qu’est-ce que la monnaie ?, Economica, Paris, 1993.

78
puisqu’il faut se référer à l’idée d’une vitesse de circulation de la monnaie stable. On réunira
donc dans un agrégat quelconque Mi tous les actifs financiers qui sont équivalents en terme de
liquidité : on peut parler d’homogénéité au regard de la liquidité, ou d’isoliquidité.
Mais ceci présente une difficulté car l’isoliquidité peut être objective ou subjective.
Elle est objective lorsqu’elle est définie par rapport aux caractéristiques techniques de l’actif :
par exemple tous les placements à vue seront réunis, quel que soit leur taux de rémunération,
dans un même agrégat. Elle devient subjective lorsqu’elle est déterminée par le comportement
observé chez les agents économiques : on réunira alors dans un même agrégat tous les actifs
que les agents conservent pendant une certaine période de temps (moins d’un mois, plus d’un
an...).
La définition peut encore être compliquée si l’on prend en considération le type
d’institution financière qui le propose : du point de vue de la politique monétaire il n’est pas
indifférent, peut être, qu’un type d’actif donné soit offert par un établissement susceptible de
recevoir des dépôts à vue (donc créateur de monnaie) ou par un autre.
Ceci acquis il est de coutume de définir des agrégats gigognes, en ajoutant
progressivement à l'agrégat le plus liquide, des éléments de moins en moins liquides : M(i+1)
= Mi + (M(i+1)-Mi) ; liquidité de Mi > liquidité de (M(i+1)-Mi).

Le Système européen de banques centrales a évidemment rencontré ce problème dès


qu’il a commencé de fonctionner. Pendant la période de transition, on s’est contenté de
reprendre les agrégats calculés par les différents pays en les réunissant en une moyenne
pondérée par les PIB respectifs convertis en dollars (ce qui est assez cocasse !) aux taux de
changes à la parité des pouvoirs d’achat.
Aujourd’hui un système centralisé a été mis en place. La méthode est fondée sur
l’identification simultanée d’une population d’institutions financières à suivre, et d’éléments
de passifs à recenser.
La population en question est celle des institutions financières monétaires (IFM). Par
cette expression on entend des entreprises financières dont l’activité est de recevoir des
dépôts, ou de proches substituts des dépôts (comme les titres des OPCVM monétaires1),
d’agents autres que des IFM, et qui, pour leur propre compte, consentent des crédits ou
effectuent des placements en valeurs mobilières. Dans le cas de la France, cette définition est
celle des établissements de crédit, telle qu’elle est donnée par la loi bancaire de 1984;
néanmoins cette même définition conduit à ajouter la Banque de France, la Caisse des dépôts
et consignations et les OPCVM monétaires. Il faut même ajouter le Trésor Public, alors qu’il
est réputé ne pas être une institution financière monétaire, au moins pour les dépôts qu’il gère
et qui entrent dans la définition de la monnaie au sens large (de l’ordre de 50 G€ en 2007).
Dans leur passif, on recense pour M3 :
- les espèces et dépôts à vue (M1) ;
- les dépôts à terme d’une durée inférieure ou égale à deux ans; les dépôts
remboursables avec un préavis inférieur ou égal à trois mois (M2-M1) ;
- les titres mis en pension (auprès d’institutions non monétaires comme les fonds
communs de créances) ; les titres de créance d’une durée initiale inférieure ou égale à deux
ans ; les titres d’OPCVM monétaires et instruments du marché monétaire (M3-M2).

C’est en effet parce que le financement par le crédit a tendance à progresser que la
création monétaire progresse, et que des tensions inflationnistes peuvent apparaître. C’est par

1
Les organismes de placement collectif en valeurs mobilières dits monétaires constituent un portefeuille dont la
valeur ne peut baisser mais qui ne donne que des rendements faibles. Ceci permet une gestion peu coûteuse. De
là les acquéreurs des titres émis par ces OPCVM ne supportent que des coûts de transaction très faibles et
peuvent revendre leurs parts sans risque. Ce sont bien des quasi dépôts.

79
l’agrégat Endettement intérieur total (EIT) qu’est suivie cette nouvelle variable. Il
comptabilise tous les financements obtenus par tous les agents non financiers résidents par voie
d’endettement. Ceci recouvre aussi bien les crédits accordés directement par les institutions
financières que les ressources levées sur les marchés financiers par l’émission de titres de créance. De
même il agrège les financements obtenus aussi bien auprès d’agents non résidents que d’agents
résidents
En revanche cet agrégat ne peut inclure les financements par émission d’actions,
puisque ceux-ci ne donnent pas lieu à endettement. Il n’inclut pas non plus les crédits
interentreprises, sans doute par difficulté de comptabilisation.

B - Instruments d'action
En reprenant le schéma présenté plus haut on voit quels sont les points d'application de
la politique monétaire :
- contrôle direct de l'offre de crédit au SNF - mais à l'exclusion de l'Etat et de
l'Extérieur.
- contrôle du pouvoir de multiplication de la liquidité bancaire des banques de second
rang
- contrôle de la liquidité bancaire détenue par les banques de second rang
- contrôle de la création de monnaie centrale.

Définition et publication d'objectifs de croissance monétaire.


Poursuivre un objectif précis de croissance monétaire suppose que l’on a estimé le
besoin de financement de l’économie pour l’exercice à venir, et la part qu’il paraît raisonnable
de laisser aux ressources monétaires. Le besoin de financement est prévu à partir d’une
estimation de croissance du PIB en valeur. De ce besoin de financement on déduit la prévision
des ressources d’épargne, ce qui laisse le volume des ressources monétaires nécessaires.
Comme ces ressources monétaires ne sont pas toutes contrôlables, il faut encore déduire de ce
résultat le financement monétaire des administrations centrales et celui de l’extérieur. On a
ainsi le besoin de financement monétaire de l’économie. Ce besoin tient compte de l’évolution
du PIB à la fois en volume et en prix. C’est donc à partir de là que peuvent se faire les
arbitrages politiques.
C'est l'agrégat M3 qui sert de référence pour ce calcul. Il s’avère en effet que c’est celui
pour lequel le coefficient de liquidité (M3/PIB) est le plus stable et donc le meilleur indicateur
de la demande de monnaie. Ceci signifie que pour les agents non financiers tous les actifs
inscrits dans M3 sont interchangeables, qu’ils sont à peu près isoliquides. En revanche la
sortie de M3 doit signifier pour eux un changement significatif d’orientation.

La publication de ce chiffre donne une rationalité à la politique monétaire, et devrait


créer un effet de cohérence sur l'ensemble des comportements des agents. Mais le danger est
que l'objectif fixé ne soit pas atteint, de sorte que l'on soit obligé de le modifier en cours de
route, pour ne pas aggraver l'impression d'erreur ou de laxisme (c'est le principe du « Lit de
Procuste », selon lequel on modifie l'étalon plutôt que la chose à mesurer).
Mais ce constat conduit en fait à des interprétations très diverses. En France avant 1999
on avait choisi des objectifs sous forme de fourchettes assez larges. Aujourd’hui, avec les
mêmes préalables le SEBC a choisi un objectif unique : depuis 1998 la croissance de M3 est
calée sur un taux de 4,5% par an. Toutefois le SEBC refuse de se laisser enfermer dans la
logique du « lit de Procuste » de sorte que l’évolution de M3 est depuis 2003 « examinée
périodiquement ».

80
Encadrement du crédit.
A partir des objectifs fixés précédemment les responsables de la politique monétaire
fixent une norme de croissance pour les crédit s à l'économie, que devront respecter les
intermédiaires financiers visés par la politique. Avant 1987 on visait essentiellement les IFB
puisqu’ils étaient ceux qui étaient supposés responsables de la création de la monnaie. Si l’on
devait reprendre ce genre de technique aujourd’hui, elle s’appliquerait à tous les
intermédiaires accordant des crédits, puisque le marché interbancaire les rend tous solidaires.
La norme de progression du crédit est mesurée par un indice base 100 en décembre t-1,
et donnée pour chaque mois t. Dans ces conditions la croissance des crédits accordés par les
intermédiaires est réellement et étroitement encadrée : il n’est pas surprenant qu’un
journaliste ait pu parler à ce propos de « barbarie à visage monétaire »

Exemple d’encadrement

12/t-1 : 100 ; 1/t : 99 ; 2/t 99 ; 3/t : 100 ; 4/t : 100... ; 9/t : 102... 12/t : 103, soit une augmentation de 3%
des crédits autorisée sur les 12 mois de l’année t.

Cette technique a connu toute une série de modalités :


- discrimination entre divers types d'établissements de crédit : les petits bénéficiaient de
normes plus avantageuses que les grands.
- discrimination entre divers yt pes de crédits : on favorisait les crédits jugés
« stratégiques » (habitat, exportation, équipement, économies d’énergie...) par des normes
plus larges que la moyenne (112 en décembre t au lieu de 108 par exemple).
- modulation des normes pour encourager financement plus sain : toute augmentation
des ressources stables des institutions financières donnait lieu à un relèvement de son plafond
d’octroi de crédit, au motif que ce supplément de crédit étant financé sur de telles ressources,
il ne pouvait avoir d’effet inflationniste.
- report d'éventuels retards par rapport aux normes : si un intermédiaire offrait moins de
crédit que ce que lui permettait son plafond annuel, il pouvait ajouter son “ économie ” à la
norme de l’année suivante.
- possibilité de créer un marché des reports : lorsque les reports indiqués au point
précédent se cumulaient d’année en année, parce que l’intermédiaire était structurellement au
dessous de la norme le concern ant, il pouvait offrir ses «économies » à d’autres
intermédiaires qui eux étaient sans cesse gênés par leur norme. On parlait alors d’un marché
du désencadrement.

Les effets à attendre de cette pratique sont les suivants :


- action sur le volume du crédit par rationnement et « file d'attente ». Ceci veut dire que
les intermédiaires ne se servent pas du prix pour répartir la pénurie de crédit à leurs clients :
ils utilisent plutôt des critères de fidélité de la clientèle ou de solvabilité de l’emprunteur. Si le
prix n’est pas utilisé comme variable d’ajustement de la demande de crédit à une offre limitée,
c’est simplement que la banque centrale qui ne voulait pas voir les taux d’intérêt monter,
aurait aussitôt récupéré le gain ainsi réalisé, en augmentant le prix de son refinancement. Les
intermédiaires auraient réalisé une opération blanche, tout en portant la responsabilité d’avoir
voulu profiter d’une situation de rareté ;
- efficacité ou « morsure » : L’encadrement « mord » lorsque l’on peut constater que les
intermédiaires ont vraiment de la difficulté à satisfaire toute la demande, et qu’ils créent donc
de longue files d’attente. Les autorités peuvent aggraver la morsure autant qu’elles le veulent,
en réduisant la norme. On dispose d’indicateurs de morsure qui peuvent être suivis en
permanence, comme le prix pratiqué sur le marché du désencadrement par exemple.

81
Finalement ce système a progressivement été supprimé en France entre 1984 et 1985.
En effet il était perçu comme trop rigide puisque pérennisant les parts de marché constatées
en... 1972 ! Puisque tous les intermédiaires (à peu près) respectaient la même norme, les parts
de marché ne pouvaient guère évoluer : les établissements dynamiques ne pouvaient
progresser qu’en rachetant les économies réalisées par les autres, lorsque cette possibilité a
existé.
Par ailleurs il est apparu que son efficacité ou sa justification diminuait au fil du temps.
D’abord les besoins de financement des entreprises se sont réduits du fait du ralentissement de
l’activité, l’encadrement jouait alors à vide puisque les crédits offerts progressaient plus vite
que les demandés. Ensuite la désintermédiation (voir plus haut) a restreint la cible de
l’encadrement (crédits bancaires à l'économie) en augmentant la part des financements par le
marché : résultat il fallait agir de plus en plus fort sur les crédits bancaires à l’économie pour
obtenir une morsure utile. Enfin l’évolution du système et la réduction des besoins des
intermédiaires a conduit à une accumulation de reports qui constituaient une bombe à
retardement s’ils étaient utilisés tous en même temps. Par ailleurs l’amélioration sensible de la
conjoncture a rendu progressivement moins utile une technique de contrôle aussi brutale que
celle-ci. Finalement l’idée qu’il fallait l’abandonner en douceur a pu être concrétisée par la
mise en place d'un système différent mais aussi contraignant : réserves obligatoires
progressives.

423 - Contrôle de l'emploi des ressources : Réserves obligatoires


Au départ il s’agit, dans une perspective prudentielle, de fixer des normes pour l'emploi
des ressources disponibles (ce qui permet d'éviter des emplois jugés plus malsains). On oblige
les intermédiaires à placer leurs ressources dans certains types de titres plutôt qu’en crédits
banalisés : planchers d'effets publics (jusqu'en 1960) ; portefeuille minimum d'effets
représentatifs de crédits à moyen terme mobilisables (jusqu'en 1972) ; portefeuille minimum
de créances à moyen terme ou d'obligations (jusqu'en 1985). Les réserves obligatoires elles-
mêmes existent depuis 1967 : elles consistent en une obligation de détention de monnaie
centrale.
C'est toujours une mesure prudentielle, puisqu'il existe ainsi une couverture en monnaie
centrale pour la création de monnaie de second rang (mais elle est forcément partielle donc
insuffisante en cas de panique). Le principe de base est de geler de la liquidité bancaire à
l’instar de ce que provoquerait la demande de billets : d’une certaine manière les réserves se
substituent à une demande de billets qui tend à diminuer du fait de la bancarisation. En même
temps ceci conduit à une réduction du multiplicateur de base monétaire, comme le montre le
raisonnement suivant :
de la formule précédente
1-b
M2R = MC *
b

on passe, si r est le taux des RO, à

1-(b+r)
M2R = MC *
b+r

On voit bien que le numérateur est réduit et le dénominateur augmenté par la prise en
compte de r, ce qui vient donc amoindrir le pouvoir de multiplication monétaire des banques
de second rang.

82
Par ailleurs cette mesure agit sur la rentabilité des établissements de crédit, puisqu'une
partie de leurs ressources est gelée sans rémunération. C'est pourquoi les conditions débitrices
des établissements de crédit ont tendance à augmenter avec le taux des réserves obligatoires.
Sur le plan pratique, on a le choix entre des réserves sur les dépôts et sur les crédits. La
référence aux crédits donne plus de signification et d'efficacité à une politique restrictive,
mais pour cette même raison les RO sur les dépôts étant une forme classique, elles sont
interprétées comme signe de bonne santé monétaire. Le contrôle des dépôts permet
d'introduire des traitements différents pour les résidents et les non résidents et ainsi lutter
contre la spéculation sans trop affecter le taux d'intérêt intérieur. Les actions sur les dépôts et
les crédits ne touchent pas identiquement tous les établissements de crédit, puisque certains
sont spécialisés dans la collecte et d'autres dans l'octroi de crédit.
On a le choix aussi entre rése rves proportionnelles et réserves progressives.
Traditionnellement elles sont proportionnelles, mais la forme progressive permet d'introduire
un frein aussi efficace qu'on le veut à la croissance monétaire, puisque le coût marginal de
l’euro créé a tendance à croître. C'est ce dernier système qui avait servi de transition entre
1985 et 1987 en France, après l'abandon de l'encadrement du crédit. De même ce sont des
réserves progressives sur les dépassements de normes qui constituent la sanction dans le cas
d'encadrement du crédit.
Le SEBC a adopté cette technique en prenant comme assiette l’ensemble des dépôts à
vue ou à terme de moins de deux ans ou avec préavis de moins de deux ans, les titres de
créance à moins de deux ans et les instruments du marché monétaire.

424 - L'action sur le refinancement


On peut agir sur la quantité en laissant le prix s'adapter ou l'inverse. Dans le cas du
contrôle de la quantité, on agit à travers le multiplicateur de refinancement sur M2R. Il faut
évidemment que ce multiplicateur soit stable, donc que la demande de billets (et les réserves
obligatoires) le soit. Par contre il apparaît que c'est le refinancement lui-même qui est difficile
à contrôler, dans la mesure où il existe des sources autonomes de liquidité bancaire, et même
des sources institutionnelles à l'initiative des établissements de crédit. On a donc des cas où
l'action sur le refinancement sert essentiellement à compenser l'effet pervers des sources
autonomes.

L'action sur le taux consiste à utiliser l'élasticité prix de la demande de crédit. Il est clair
qu'elle est négative, mais tout le problème est celui de sa valeur. Or il apparaît qu'elle est
probablement faible à court terme, car les intérêts ne sont qu'une petite part des frais généraux
d'une entreprise, et qu'en période d'inflation celle-ci a toujours la possibilité de répercuter sur
ses clients (c'est déjà vrai pour la banque en amont). Par contre à long terme des frais
financiers élevés peuvent réduire sensiblement la rentabilité des entreprises et donc leur
propension à investir.
Par ailleurs ce système de contrôle pose le problème des variations de taux qui en
résultent. On peut avoir ainsi des fluctuations très importantes qui peuvent désorganiser le
marché du crédit1, mais aussi le marché des changes, dès lors que le taux de change est lui-
même dépendant des taux intérieurs. Ceci signifie qu'en fait une telle politique ne peut être
conduite que pour de faibles dérives, sans quoi la « contrainte extérieure » la rend impossible.
Tout de même l'existence d'un marché monétaire ouvert sur le secteur non financier permet
d'assouplir la politique d'action sur le refinancement, dans la mesure où les établissements de
crédit ont la possibilité de s'approvisionner en monnaie centrale déjà existante, dès lors que la
montée des taux rend ce placement attrayant pour les agents non financiers.

1
Cf A. Raymond : « Les français sont-ils prêts à accepter la "valse" des taux d'intérêt? », Banque, n°455, 1985.

83
Lorsque le refinancement des banques procédait par le réescompte, on pouvait modifier
le taux lorsque la conjoncture le nécessitait. Etant une mesure rare, elle avait un effet
psychologique important. Une modalité particulière a consisté à introduire des plafonds
rigides ou souples au volume de réescompte. Dans le premier cas, on refusait de réescompter
au-delà de la limite, en prenant le risque de faillite pour les établissements en difficulté. Dans
le second il s’agissait d’accroître le taux de réescompte au delà de chaque plafond : on parlait
alors de taux « d’enfer », et de taux de « super enfer ».
Aujourd’hui on crée une sorte de corridor de taux d’intérêt avec les instruments
permanents de refinancement de la banque centrale. En France jusqu’en 1999 ce corridor était
formé de la technique des appels d’offres comme plancher, et de la technique des prises en
pensions sur demande des établissements de crédit comme plafond. Le taux pratiqué sur le
marché interbancaire était maintenu dans ce corridor par des actions ponctuelles de prises et
de mises en pension par la banque centrale.
La BCE pratique autrement. Elle utilise sa facilité de prêt à 24 heures comme plafond et
une facilité de dépôt comme plancher. En effet il devient ici possible aux établissements de
crédit de placer leurs excédents de trésorerie non seulement chez leurs homologues, au taux
du marché, mais aussi à la BCE au taux plancher. Quant aux opérations principales de
refinancement, elles se situent au milieu du corridor pour donner en quelque sorte l’indication
précise de l’orientation de la politique monétaire.

0
0

6
9

6
9

0
9

7
t-0

t-0

t-0

t-0
i-0

i-0

i-0

i-0

i-0

i-0

i-0
t-9

t-0

t-0

t-0
i-9

v-0

v-0

v-0

v-0
v-9

v-0

v-0

v-0

v-0
ma
ma

ma

ma

ma

ma

ma

ma
sep
sep

sep

sep

sep

sep

sep

sep
jan
jan

jan

jan

jan

jan

jan

jan

jan

L'action sur les taux d'intérêt ne peut être aussi mécanique que les actions de type
encadrement du crédit, ou même réserves obligatoires. L'efficacité mécanique passerait par
des fluctuations insupportables. Il faut donc prendre en considération l'effet « placebo », c'est-
à-dire les réactions psychologiques qui accompagnent la déclaration de modification des taux

84
directeurs. C'est sans doute dans un tel contexte que l'indépendance de la banque centrale
prend tout son effet1.

APPENDICE
LM lettre 12-15 Jeudi 09 mars 2006
La Banque centrale japonaise entérine la sortie de la déflation

Le comité de politique monétaire de la BoJ a décidé aujourd'hui de mettre fin à sa politique monétaire ultra-
accommodante, en vigueur depuis cinq ans, consistant à maintenir les taux à zéro et à abreuver le marché de
liquidités. Dans l'immédiat, le principal taux directeur de la BoJ sera maintenu à 0 %, avant un "ajustement
graduel, aligné sur l'évolution de l'économie et des prix". La Banque a indiqué qu'elle ne fixerait plus d'objectif
pour les liquidités injectées sur le marché monétaire. La Bourse de Tokyo a clôturé la séance de jeudi sur une
forte hausse, de 2,62 %, après cette décision historique.

[1991 : éclatement de la bulle spéculative. Le taux directeur est à 6%, il baissera progressivement pour atteindre
0,5% en 1995. En 1997 les banques ont le plus haut niveau historique de créances douteuses. La banque centrale
est rendue indépendante.]
1999 : ZIRP ou Zero interest rate policy ; 11 août 2000 abandon de la ZIRP et rechute de l’économie
mars 2001 : action par les quantités en réduisant fortement les réserves obligatoires, en réalisant des achats
massifs de titres sur le marché interbancaire]

1
J.P Patat : « Quelques remarques sur la question de l'indépendance de la banque centrale », Revue d'économie
financière, 22/1992, pp.5-12.

85
Quand l'inflation ne menace pas
Le retour de la Banque centrale européenne à l'approche monétariste, annoncée par Jean-Claude Trichet,
révèle d'inquiétantes déficiences d'analyses chez nos banquiers centraux

Dans un article du Financial Times du 9 novembre, Jean-Claude Trichet explique que la Banque centrale
européenne (BCE) doit donner un poids important à l'analyse monétaire, c'est-à-dire lier l'évolution des taux
d'intérêt à la croissance de la masse monétaire et du crédit dans la zone euro. Si elle ne le faisait pas, elle
perdrait, d'après le président de la BCE, une information importante concernant le risque inflationniste à moyen
terme.
Faisons un bref rappel. La théorie monétariste « pure » dit que la Banque centrale doit simplement assurer
une croissance constante de la masse monétaire. La théorie monétariste « intermédiaire », utilisée en Allemagne
par le passé et vers laquelle se dirige donc la BCE, dit que la Banque centrale doit monter les taux d'intérêt quand
la croissance de la monnaie ou du crédit augmente, car cela indique que l'inflation va revenir.
Le risque est évidemment, comme on l'a vu en Allemagne pendant la réunification, que la Banque
centrale, prenant cette approche, ignore encore plus les autres indicateurs économiques : croissance, chômage...
De plus, l'analyse de M. Trichet est loin d'être convaincante sur le fond, puisque, dans les économies
contemporaines, le lien, dans une région comme dans la zone euro, entre croissance monétaire et inflation s'est
fortement distendu.
A court terme, la croissance forte de la quantité de monnaie et du crédit peut se refléter dans les prix des
actifs (immobilier, Bourses) et non dans les prix des biens et services. Surtout dans les économies
contemporaines ouvertes, interdépendantes, avec une forte mobilité internationale des biens, du capital, même du
travail, l'inflation est devenue un phénomène mondial.
Regardons ces différents points. La première critique porte sur le rôle du prix des actifs. Elle consiste à
dire que l'excès de création monétaire ou de distribution de crédit peut, pendant une longue période, conduire à
des hausses des prix des actifs (immobilier, actions) et non des prix des biens et services. Cela vient de ce que les
prix des actifs sont devenus beaucoup plus flexibles que les prix des biens, que l'offre d'actifs est devenue
beaucoup plus rigide que l'offre de biens et services.
Si une hausse du crédit distribué accroît la demande de biens (électronique...), cette demande
supplémentaire peut être satisfaite par les importations et n'engendre pas de hausse des prix. Si une hausse du
crédit stimule le demande d'actifs (maisons, actions...) la quantité disponible des actifs étant ce qu'elle est, leurs
prix montent.
Depuis 1998, on a vu dans la zone euro et au Royaume-Uni une forte progression de l'endettement, d'où,
alternativement, des hausses de prix de l'immobilier et des cours boursiers, mais pas d'inflation : aujourd'hui,
après neuf ans de hausse de l'endettement, l'inflation (hors énergie) est voisine de 1,5 % dans la zone euro et au
Royaume-Uni.
Pourquoi alors lier les taux d'intérêt à la croissance de la monnaie et du crédit si elle n'annonce plus, à dix
ans d'horizon, l'inflation. Plus grave, du point de vue de l'examen des déficiences d'analyse de la BCE, est son
refus d'intégrer les effets de l'internationalisation.
Dans les économies contemporaines, la mobilité internationale des biens et des services échangés est forte
; la hausse de la part des importations, en particulier depuis les pays émergents, dans la demande intérieure est
impressionnante (cette part a presque doublé en dix ans dans la zone euro). La mobilité internationale du capital
est élevée, comme le montre l'ampleur des investissements directs à l'étranger, du transfert de sous-traitants dans
les pays émergents. La mobilité internationale du travail elle-même devient forte, avec en particulier en France,
encore plus en Espagne et en Italie, la nette hausse de l'immigration.
L'immigration représente chaque année 0,25 % de la population en France, 1 % en Italie, 1,5 % en
Espagne. S'il y a une forte mobilité internationale des biens, du capital, du travail, alors les marchés des biens et
du travail sont mondialement unifiés : cela veut dire qu'il n'y a plus de détermination locale (régionale, comme
dans la zone euro) de l'inflation et des salaires, seulement une détermination globale, mondiale. La pression à la
baisse sur les prix et les salaires de la zone euro continuera donc, quelle que soit la croissance de la zone euro,
tant que la tendance de l'économie mondiale sera désinflationniste.
Quelle est la conséquence pour la politique monétaire de la zone euro de cette globalisation des marchés
des biens et du travail ? L'inflation ne reviendra qu'avec l'inflation mondiale, et celle-ci ne reviendra que lorsque
le taux d'utilisation des capacités mondiales (et non de la zone euro) remontera à un niveau élevé, ce qui n'est pas
lié à l'évolution économique de la zone euro et prendra beaucoup de temps avec le fort niveau d'investissement
mondial et surtout avec le chômage mondial déguisé très important, avec le niveau très élevé des populations
rurales qui peuvent migrer vers les villes dans les pays émergents.
L'internationalisation explique aussi l'impossibilité de contrôler la liquidité au niveau régional. Les
financements peuvent être faits globalement : la création de base monétaire en Chine peut aboutir à un dépôt en
dollars d'une banque chinoise ou de la Banque centrale dans une banque américaine, ce qui accroît la liquidité de

86
cette banque et lui permet de distribuer davantage de crédit ; elle peut aboutir à l'achat d'obligations publiques
américaines par la Banque centrale, ce qui redirige les financements domestiques vers d'autres emprunteurs.
On voit bien alors que le ralentissement éventuel de la croissance de la base monétaire de la zone euro a
très peu d'influence sur la liquidité mondiale, donc sur l'orientation de la politique monétaire dans la zone euro
elle-même.
Ce qui précède montre deux points importants. Le délai entre une expansion monétaire et l'inflation dans
la zone euro est devenu extrêmement long : il y a d'abord ajustement des prix d'actifs ; il faut que le monde
revienne au plein- emploi.
Les problèmes de contrôle régional de l'inflation et de la liquidité évoqués plus haut impliquent qu'une
politique monétaire efficace ne peut qu'être internationalement coordonnée. Ce n'est pas du tout le cas
aujourd'hui ; en particulier avec les politiques de change et l'accumulation de réserves dans les pays émergents.
Il y a donc danger que le lien que la BCE veut établir entre la croissance monétaire et du crédit et ses taux
d'intérêt d'une part freine la croissance de la zone euro en 2007, puisqu'une partie substantielle de la croissance
de la zone euro vient du soutien de la demande des ménages par le crédit ; d'autre part, soit très peu efficace, en
raison de l'internationalisation des économies ; enfin soit inutile, puisque l'inflation ne menace pas, le monde
étant encore sur une tendance désinflationniste avec la concurrence des pays émergents.

Patrick Artus

***********

Villepin fustige la politique monétaire européenne


AIRBUS Les difficultés de l'avionneur sont aussi « la conséquence d'un euro trop fort »

Dominique de Villepin a proposé, mardi 14 novembre, que l'Union européenne se dote d'un « bouclier
monétaire » et d'une « véritable stratégie de change » intégrant des objectifs de croissance, de protection de
l'industrie et d'emploi.
En déplacement à Toulouse au siège d'Airbus, le premier ministre est parti de l'exemple de l'avionneur
pour dénoncer la politique de la Banque centrale européenne (BCE). Les difficultés d'Airbus, qui a d'ailleurs
enregistré de fortes pertes de change, sont aussi « la conséquence d'un euro trop fort » par rapport au dollar, « qui
pénalise notre industrie face à la concurrence américaine », a affirmé M. de Villepin.
Depuis le début de l'année, l'euro s'est apprécié de 8,5 % par rapport au dollar et au yen, ce qui handicape
les exportations françaises et favorise les importations. Comme la Banque de France à l'époque du franc fort
dans les années 1990, la BCE est souvent accusée de privilégier à l'excès la lutte contre l'inflation, aux dépens de
la croissance.
Mais le niveau élevé de l'euro ne suffit pas à expliquer les faiblesses de l'économie française. Elle a connu
une croissance zéro au troisième trimestre, alors que l'Allemagne, tout aussi handicapée en théorie par l'euro fort,
a vu son produit intérieur brut (PIB) augmenter de 0,6 % sur cette même période. Et devrait afficher, pour
l'année, une croissance de 2,3 %, supérieure à celle de la France (2 %). Une première depuis 1994.
La charge du premier ministre contre l'euro et la BCE ne peut dédouaner la France de sa piètre
performance. Elle doit aussi être interprétée dans le contexte politique actuel français : la préparation de la
campagne présidentielle.
Alors que les Français ont voté non au référendum européen sur le Traité constitutionnel en 2005, les
deux favoris des sondages, Nicolas Sarkozy pour l'UMP et Ségolène Royal pour le PS, s'en sont récemment pris
à la BCE, regrettant que l'arme monétaire européenne serve uniquement à prévenir les risques d'inflation et
estimant qu'elle devrait être mise au service de la croissance.
Les situations des divers pays européens sont hétérogènes. L'opposition inflation-croissance n'est pas la
même pour tous. L'Espagne, très dynamique économiquement, affiche aussi une inflation supérieure à la
moyenne. La France et l'Allemagne, à l'inverse, cumulent croissance moyenne et inflation basse. Dans ce
contexte, les Etats membres n'utilisent pas l'espace de l'Eurogroupe pour mener une véritable politique de
change, abandonnant à Jean-Claude Trichet, le président de la BCE, le slogan implicite : « Monsieur Euro, c'est
moi. »
L'indépendance de la BCE est du reste intouchable : il faudrait, pour modifier la situation actuelle,
amender les traités européens, ce qui exigerait l'unanimité des Etats membres.

Virginie Malingre (Le Monde du 18 novembre 2006)

87
322 - Politique budgétaire

Il est commun de citer la définition de Paul Samuelson1 : « procédé consistant à


manipuler les impôts et les dépenses publiques, afin de contribuer à amortir les oscillations
du cycle économique et de favoriser le maintien d’une économie en croissance, assurant un
degré d’emploi élevé, affranchie de toute poussée excessive d’inflation ou de déflation ».
Bien sûr c’est au budget des administrations publiques, que l’on pense, opposant les
dépenses de fonctionnement et d’investissement destinées à permettre la réalisation des
politiques publiques d’une part, et les recettes fiscales et non fiscales qui en assurent le
financement, d’autre part.

3221 – Approche comptable


Encore faut-il savoir de quel budget il s’agit. En effet les administrations publiques
comprennent non seulement les administrations centrales mais aussi les administrations
locales et sociales. Les assiettes des recettes varient de l’une à l’autre, les règles budgétaires
aussi, de même que les logiques politiques. L’Etat ayant, seul, une compétence d’intervention
économique sur l’ensemble du territoire national, et étant doté de la plus grande liberté
budgétaire (même si, en France, l’intégration européenne l’a réduite) il est normal de
s’intéresser principalement à lui.
Entre ces recettes et ces dépenses apparaît le solde budgétaire qui, par rapport à une
position théorique d’équilibre, peut être un déficit ou un excédent. On parle de solde primaire
lorsque les recettes et les dépenses sont nettes des intérêts respectivement encaissés et payés.
Cette définition permet de couper le lien entre l’exercice courant et les dettes accumulées au
cours des précédents. On voit bien que le solde primaire et la charge de la dette ont des
déterminants différents : le premier résulte de la volonté présente des administrations (même
si le passé pèse), alors que le second dépend de politiques passées (qui fixent à la fois la dette
et la prime de risque sur les taux d’intérêt) et de la conjoncture des marchés financiers (qui
détermine la forme et le niveau de la courbe des taux).
Le solde primaire peut, à son tour, être décomposé en un solde structurel et un solde
conjoncturel. Le premier est celui qui se produirait avec un niveau de ressources
correspondant au PIB potentiel avec la politique budgétaire choisie. On passe au second en
tenant compte de la variation des ressources résultant du passage du PIB potentiel au PIB
effectif. Le PIB potentiel est celui qui peut être réalisé à partir des structures, de la
technologie et des facteurs disponibles, sans pression inflationniste2, alors que le PIB effectif
est celui qui est constaté. La différence entre les deux est appelée écart de production ou
d’activité3. C’est cet écart qui est à l’origine de la variation du solde budgétaire, car il joue
d’une part sur les revenus et la valeur des transactions, donc sur les ressources fiscales, mais
aussi sur les dépenses sociales. On a coutume de présenter le solde conjoncturel comme auto-
correcteur. En effet la variation des recettes fiscales et des dépenses sociales consécutive à
une variation du revenu devrait avoir pour effet de réduire cette dernière et donc d’éviter un
emballement du processus, que ce soit à la hausse ou à la baisse. C’est pour cette raison que
l’on parle de stabilisateurs automatiques à propos de ces déterminants du solde budgétaire. Il

1
P. Samuelson, L’économique, techniques modernes de l’analyse économique, Armand Colin, Paris, 1953,
p.327.
2
Idem, ibidem : son estimation peut être faite à partir d’une fonction de production combinant les volumes de
facteurs (PIB structurel) ou à partir d’une recherche statistique de tendance sur une période passée non
inflationniste (PIB tendanciel).
3
L. Clerc, « PIB potentiel, écart de production et politique monétaire », Bulletin de la Banque de France, juillet
2002, pp.93-103.

88
est d’ailleurs à remarquer que ces stabilisateurs sont d’autant plus actifs qu’ils sont plus
progressifs, ce qui vaut évidemment d’abord pour la fiscalité. En conséquence on peut se
demander ce que signifie la lente érosion de l’impôt sur le revenu en France, dont le produit
représente à peine plus d’un tiers de celui de la TVA1.
On voit donc que la variation constatée du solde budgétaire est le résultat de la volonté
du gouvernement, autrement dit de l’impulsion budgétaire, d’une part (solde structurel) et de
l’écart d’activité d’autre part (solde conjoncturel). De sorte que l’on a bien :
solde budgétaire = solde structurel + solde conjoncturel - intérêt de la dette.

L’excédent comme le déficit ont un effet sur le stock correspondant qu’est la dette
publique. En effet le financement du déficit passe inévitablement par un endettement. Certes
lorsque la dette est contractée auprès de la banque centrale, banquier de l’Etat, elle peut être
non remboursable de sorte qu’elle alimente définitivement la circulation monétaire. Dans tous
les autres cas, ce sont les agents économiques résidents ou non résidents, financiers ou non
financiers, qui porteront les titres de créance et créeront entre eux un marché d’autant plus
attrayant qu’il sera plus liquide. En effet par la sécurité qu’offrent en général les titres d’Etat,
par leur masse et leur fongibilité, ils créent des conditions de liquidité exceptionnelle : ainsi
les agents privés ont un intérêt certain à l’existence d’une dette publique.
Reste à savoir si l’Etat est en mesure de supporter le poids de sa dette, c’est-à-dire
dispose de la capacité de payer les intérêts des emprunts. Certes il est possible, à dette donnée,
de minimiser le coût de l’endettement, par un choix pertinent des supports. C’est notamment
la tâche dévolue, en France, à l’Agence France-Trésor (www.aft.gouv.fr/). Toutefois cette
tâche est d’autant plus délicate que la dette est plus élevée, car alors la prime de risque exigée
par les prêteurs augmente à due proportion2. Ce que jugent en effet ces prêteurs c’est le crédit
qu’ils peuvent accorder à l’Etat en question, c’est-à-dire sa solvabilité et sa liquidité : aptitude
non seulement à payer les annuités dues, mais encore à les payer en temps et heure. Certes un
Etat ayant un pouvoir fiscal réputé discrétionnaire, il ne devrait pas risquer l’insolvabilité.
Mais en réalité ce pouvoir n’est pas discrétionnaire, il est finalement lié au bon vouloir des
contribuables. On n’oubliera pas que c’est par une révolte fiscale qu’il a été mis fin au règne
de Margareth Thatcher.

France Trésor et la gestion de la dette publique

La gestion de la dette publique a bien sûr pour objectif de fournir des ressources au meilleur compte, mais
elle peut venir soutenir d’autres politiques : politique monétaire ; développement des marchés obligataires ;
promotion de l’épargne nationale... Toutefois il semble que depuis les années quatre-vingt les pays développés
s’en tiennent à la première fonction.
L’objectif poursuivi est de limiter les risques : risque de taux pour une dette interne (alourdissement en
cas de hausse ; manque à gagner en cas de baisse) ; risque de change sur une dette externe. Le plafonnement des
charges de la dette n’est pas le seul objectif. Leur stabilité importe aussi. En effet, en cas de fluctuations, c’est la
pression fiscale qui devrait fluctuer aussi, ce qui n’est pas bon, ni économiquement, ni politiquement.
Pour arriver à ces résultats, l’instrument le plus évident semble être la durée des emprunts. En effet la
courbe des taux montre qu’en général, le coût de l’endettement progresse avec la durée. De même le
raccourcissement de la durée est pertinent en cas d’anticipations de baisse des taux. Mais en contrepartie,
l’allongement des emprunts réduit la fréquence des opérations de refinancement, et permet de faire face à des
anticipations de hausse des taux. A cela il faut ajouter la volonté d’avoir un échéancier qui ne concentre pas trop
d’échéances la même année, ni au même moment de l’année.

1
En 2007 : TVA 133 G€ ; CSG : 71 G€ ; Impôt sur le revenu (IRPP) : 57 G€ ; Impôt sur les sociétés (IS) : 46
G€ ; Taxe intérieure sur les produits pétroliers (TIPP) : 24 G€ ; Impôt de solidarité sur la fortune (ISF) : 3 G€
2
Par exemple : C. Prudhomme, « L'Italie devra payer plus cher pour attirer les investisseurs », Le Monde, 22
octobre 2006.

89
Les autorités françaises semblent avoir trouvé un compromis en tenant la durée moyenne de la dette dans
un corridor de 6 à 6,5 années. La transition a commencé en 1990 à 2000 jours de moyenne (5,5 ans), a culminé
en 1994 à 2380, pour redescendre vers 2300 entre 1995 et 1999. La durée était remontée à 2479 au 31 août 2005
et atteint aujourd’hui 7 ans et 29 jours, soit encore 2585 jours. Cette évolution signifie peut être que le Trésor
anticipe une hausse des taux, du fait des menaces d’inflation, mais aussi des menaces de baisse de la note
accordée aux emprunts français par les agences spécialisées1.
Pour le lissage des échéanciers de remboursement, on aurait pu réduire le volume de chaque emprunt et
multiplier leur nombre. Mais ceci aurait eu pour résultat de réduire la liquidité du marché secondaire
correspondant. Le Trésor utilise donc les bons du Trésor négociables (BTN) pour faire face aux difficultés de sa
trésorerie et fait intervenir le Fonds de stabilisation des rentes pour faire des achats anticipés sur le marché
secondaire. Dans certains cas on procède par offre d’échange, c’est-à-dire que l’on rembourse un titre échu avec
son équivalent en titres neufs.
Une autre manière de réduire le taux d’intérêt est d’utiliser l’indexation de l’emprunt sur l’inflation :
obligation assimilables du Trésor indexées ou OATi. Normalement il n’est pas gênant de procéder ainsi, puisque
les impôts, eux aussi, sont indexés sur l’inflation. Et en contrepartie on obtient des taux inférieurs aux taux non
indexés. Le gain est alors d’autant plus grand que le marché a plus d’aversion pour le risque inflationniste : dans
ce cas en effet il a tendance à surestimer ce risque, et à accepter une réduction plus substantielle des taux pour en
être protégé.
Le choix de la monnaie dans laquelle l’emprunt sera libellé n’est pas sans importance, comme le montre
la structure internationale des taux de la page 22. Mais pour le moment l’emprunt à l’étranger ne semble pas
souhaité par l’Etat français, pour qui cela donne une mauvaise image de sa gestion (le souvenir des années
cinquante, où la France « mendiait » ses emprunts est resté vivace).
Enfin il est important que le marché secondaire des titres d’Etat soit liquide, puisque cette liquidité réduit
la prime de risque demandée par les prêteurs (plus il est facile de revendre un titre et moins on est réticent à
l’acheter). Pour y parvenir on a imaginé la technique de l’assimilation qui permet d’émettre des emprunts en
succession, en les assimilant à une même ligne définie une fois pour toutes par son taux et son terme (par
exemple OAT 5,5% 2012 créée en octobre 2002 et abondée encore en février et avril 2003). Cette assimilation a
d’ailleurs eu un autre effet sur la liquidité, en ramenant les types de support utilisés par le Trésor à un seul :
l’OAT.
La liquidité peut être encore accrue par l’intervention d’intermédiaires financiers spécialisés : les
Spécialistes en valeurs du Trésor (SVT), qui peuvent en permanence se porter contrepartie sur le marché des
emprunts d’Etat. La création du Fonds de stabilisation des rentes en 1937 et surtout sa réactivation dans les
années quatre-vingt-dix a encore ajouté à la liquidité de ce marché particulier.

Et le problème est d’autant plus délicat, que la solvabilité présente n’est pas un gage
absolu de solvabilité future. C’est donc parce que la solvabilité doit s’analyser dans le temps,
puisque la dette elle-même a des échéances échelonnées, que l’on parle de soutenabilité de la
dette : une dette est soutenable si et seulement si, mutatis mutandis, son évolution prévue ne
fait encourir aucun risque d’insolvabilité.
Le premier moyen de contenir le risque d’insolvabilité est évidemment d’empêcher la
progression de la dette par rapport au PIB de la nation, puisque c’est ce PIB qui « couvre » les
annuités. Chaque année la dette s’accroît des charges d’intérêt correspondantes et du déficit
courant :
DETt = DETt-1 + i * DETt-1 + SOLt = (1+i) DETt-1 + SOLt
En divisant de part et d’autre par le PIB de l’année courante, on a
DETt/PIBt = (1+i) * DETt-1/[PIBt-1 * (1+n)] + SOLt/PIBt
si l’on retranche DETt-1/PIBt-1 de part et d’autre, on a
DETt/PIBt - DETt-1/PIBt-1 = - [DETt-1/PIBt-1 * (1+n)/(1+n)] + [DETt-1/PIBt-1 *
(1+i)/(1+n)] + SOL/PIBt
ou
ΔDET/PIBt = DET/PIBt-1 * (i-n)/(1+n) + SOL/PIBt

1
Standard and Poor’s : « La République française tend vers le bas de la catégorie AAA » (Le Monde 19
novembre 2005, p.14).

90
Ce qui signifie que la croissance de la dette dépend principalement de l’écart entre taux
d’intérêt et taux de croissance d’une part, du déficit primaire d’autre part. Elle s’annulera si
DET/PIBt = - DET/PIBt-1 * (i-n)/(1+n)
Dans ces conditions le déficit primaire doit être nul si le taux de croissance nominal est
égal au taux d’intérêt nominal et il doit devenir un excédent si le taux de croissance nominal
devient inférieur au taux d’intérêt nominal.

D’autres emplois de, l’excédent sont possibles et notamment la constitution de fonds


souverains, comme le Future generation fund en Russie, le National Fund du Kazakhstan, le
Copper Sovereign Fund chilien, le Governement pension fund norvégien, ou la Koweït
Investment Authority, le China Investment Corporation.… L’intérêt de ces fonds est bien sûr
qu’ils devraient permettre notamment de financer les pensions de retraites, mais plus
prosaïquement qu’ils rendent possible une nationalisation occulte sans frontière : c’est l’Etat
propriétaire du fonds qui devient, à travers lui, copropriétaire d’entreprises n’importe où dans
le monde. Ainsi Morgan Stanley a annoncé le 19 décembre 2007 qu'elle sera renflouée, à
hauteur de 5 milliards de dollars, par China Investment Corporation, un fonds contrôlé par le
ministère des finances chinois, qui n'emploie qu'une vingtaine de salariés, mais gère quelque
200 milliards de dollars (Le Monde, 20 décembre 2007).

« Interrogé sur l'éventualité d'achat d'actions de la SG par l'Etat, le secrétaire général de l'UMP, Patrick
Devedjian a jugé qu'une intervention de l'Etat serait légitime en cas de raid boursier sur la Société générale,
estimant que l'Etat n'est "pas obligé de rester inerte quand la substance même de son économie est en péril". »

La 12:15 Le Monde 28 janvier 2008

3212 – Approche théorique


C’est évidemment dans la théorie keynésienne qu’il faut rechercher la première
préconisation construite de la politique budgétaire : « Si la Trésorerie était disposée à emplir
de billets de banque des vieilles bouteilles, à les enfouir à des profondeurs convenables dans
des mines désaffectées qui seraient ensuite comblées avec des détritus urbains, et à autoriser
l’entreprise privée à extraire de nouveau les billets (…) le chômage pourrait disparaître et,
compte tenu des répercussions, il est probable que le revenu réel de la communauté de même
que sa richesse en capital seraient sensiblement plus élevées qu’ils ne le sont réellement »1.
Le raisonnement de Keynes suppose que l’offre bénéficie d’une forte élasticité parce
que l’on est justement en période de récession ou de dépression et qu’il existe des capacités
inemployées ; il suppose aussi que les prix sont rigides au moins à court terme, pour des
raisons à la fois techniques (catalogues imprimés, contrats à long terme…), mais aussi
conjoncturelle (la forte élasticité de l’offre signifie une forte réponse à une faible
augmentation des prix). Dans ces conditions, l’augmentation de la demande effective à partir
de la demande publique provoquera une augmentation de l’offre sans augmentation des prix,
donc sans diminution du pouvoir d’achat des ménages. En conséquence le supplément de
revenu qui en résulte pour eux sera presque intégralement dépensé. Ceci sera d’autant plus
vrai que la baisse du revenu liée à la récession à dû accroître la propension à consommer (voir
paragraphe 212). C’est ce processus d’enchainement que l’on appelle multiplicateur
keynésien :

1
Théorie générale de l’emploi, de l’intérêt et de la monnaie, Payot, Paris, 1968, p.145. C’est une citation que
n’aurait pas reniée Louis Blanc, l’organisateur des Ateliers nationaux.

91
Puisque par construction : ressources = emplois, on a, en économie fermée,
R (revenu) = C (consommation) + I (investissement privé) + G (dépense publique)
et si
C = c * (R-T) (consommation proportionnelle au revenu disponible et c propension à
consommer)
alors
ΔR = ΔC + ΔI + ΔG = [c * (ΔR-ΔT)] + ΔI + ΔG = c* ΔR – c* ΔT + ΔI + ΔG
et
ΔR*(1-c) = (–c*ΔT) + ΔI + ΔG
et enfin si ΔI = 0 car les entrepreneurs sont attentistes et ΔT = 0 parce que l’Etat accepte
le déficit
ΔR = ΔG * 1/(1-c) = ΔG * 1/s
où 1/s est le multiplicateur de dépenses publiques.
Si le gouvernement choisit d’augmenter le revenu disponible des ménages plutôt que sa
dépense : ΔG = 0 et ΔT<0
ΔR = - ΔT * (c/s)
où c/s est le multiplicateur fiscal, plus faible que le multiplicateur de dépenses (c<1).

A partir de ce résultat il est possible d’envisager plusieurs situations différentes. La


première précision concerne le financement du déficit budgétaire.
Si l’on procède par endettement auprès de la banque centrale, il n’y aura pas d’effet sur
le taux d’intérêt, puisque la banque centrale peut offrir de la monnaie discrétionnairement.
Ainsi lorsque les capacités de production seront toutes mobilisées, les entrepreneurs ne seront
pas dissuadés d’investir, ce qui augmentera encore la demande.
Toutefois cette médaille a son revers, car l’expansion monétaire peut avoir des
conséquences sur les prix, notamment si l’offre n’est pas très élastique. Tout dépendra donc
du degré d’occupation des capacités productives : plus prés on sera du plein emploi et plus le
risque d’inflation sera fort. A partir de là il est souhaitable d’introduire les anticipations des
agents économiques. Ils peuvent se contenter de constater la hausse des prix et tenter de s’y
adapter a posteriori : ils ont des anticipations adaptatives en ce sens qu’ils prévoient pour la
période suivante le taux d’inflation constaté au cours de la présente. Mais ils peuvent aussi
avoir des anticipations rationnelles, c’est-à-dire qu’ils savent que le financement des
dépenses publiques par la création monétaire aura tôt ou tard des conséquences inflationnistes.
On peut alors imputer deux comportements opposés aux agents. Le premier, le plus
couramment cité, consiste à se protéger de la baisse future du pouvoir d’achat en épargnant,
ce qui annihile l’effet multiplicateur. Mais on peut aussi envisager une fuite devant une
monnaie menacée d’érosion et, au contraire, une croissance de la demande, excessive face à la
capacité de réponse (élasticité) de l’offre. Les anticipations deviennent donc auto-
vérificatrices puisqu’elles aggravent les tendances inflationnistes, mais ceci n’empêche pas
l’action sur le revenu et l’emploi.
Si l’on procède par emprunt auprès du marché d’instruments financiers, ou auprès des
institutions financières en présence d’une politique monétaire non laxiste, il pourra se
produire une croissance des taux d’intérêt qui pourrait dissuader les emprunteurs potentiels,
consommateurs aussi bien qu’investisseurs. C’est ce que l’on appelle « effet d’éviction » :
jusqu’à un certain point la demande publique qui, elle, n’est pas élastique au taux d’intérêt, se
substituerait simplement à la demande privée. Et comme la demande publique n’a pas
beaucoup d’effet d’entrainement sur elle-même, l’effet multiplicatif devrait en être réduit.
Toutefois ce point aussi doit être relativisé car des taux d’intérêt nominaux élevés ne
signifient pas des atux réels élevés. Or considérer les pressions inflationnistes comme

92
probables c’est accepter que les taux d’intérêt réels puissent baisser, si le marché est affecté
d’une certaine myopie.
La question des anticipations peut être reprise dans le domaine même de la cohérence de
la politique publique. Au moment de l’action de relance, les impôts ne progressent pas et peut
être même sont-ils réduits. Mais cette modération fiscale est-elle durable ? David Ricardo a
posé – sur la base des réalités de son époque -, qu’il ne pouvait en être ainsi car l’emprunt
d’aujourd’hui produira au minimum des charges d’intérêt, sinon des charges d’amortissement
(l’Etat a toujours la possibilité de consolider sa dette dès lors que son crédit n’est pas entamé),
et il faudra bien augmenter les impôts, tôt ou tard, pour faire face à cette dépense
supplémentaire. Il existerait donc une « équivalence » (appelée en conséquence équivalence
ricardienne) entre l’emprunt et l’impôt, ce dernier étant simplement reporté à plus tard1. Et
comme les agents économiques savent cela, ils épargneront aujourd’hui pour se prémunir
contre l’augmentation future des impôts : ils prêteront leur épargne supplémentaire à l’Etat
qui leur versera les intérêts nécessaires au paiement des impôts supplémentaires.
Un autre scénario est pourtant possible, qui à la rigueur provoque un effet d’éviction des
emprunteurs privés par la puissance publique, mais n’interdit pas pour autant l’augmentation
de la dépense privée. En effet supposer que les agents établissent une équivalence temporelle
entre augmentation du revenu présent et augmentation de la pression fiscale demain, et
adaptent leur épargne en conséquence, n’est pas plus plausible que l’hypothèse inverse où les
agents sont myopes et ne s’intéressent qu’à l’effet d’aubaine immédiat. En outre il est
raisonnable de supposer que le taux d’actualisation des agents est très élevé, au sens où
aujourd’hui a une valeur infiniment supérieure à demain, ce qui résulte notamment de l’idée
que ce sont les générations futures qui subiront les éventuelles conséquences fiscales des
dépenses d’aujourd’hui. Il est donc peu probable qu’ils provisionnent autant que le sous-
entend la théorie de l’équivalence ricardienne. Cela étant, l’Etat ne saurait ignorer que dans ce
cas sa décision va favoriser les génération présentes (augmentation espérée de l’activité, donc
du revenu) au détriment des suivantes (accroissement de la dette donc des dépenses d’intérêt,
ou de l’impôt).
Une autre objection à l’idée d’équivalence tient à l’usage qui peut être fait de la dépense
publique. Il est difficile de nier que des dépenses de grands travaux, de recherche-
développement, d’éducation ou de santé publique soient sans conséquence sur la productivité
globale des facteurs, donc sur les recettes futures de l’Etat. Et il n’y a pas de raison que, si les
agents ont des anticipations rationnelles sur le niveau de la fiscalité, ils n’en aient pas aussi
sur la productivité de dépenses publiques clairement identifiées. Dans ces conditions les
déficits d’aujourd’hui nourrissant la croissance de la production et les impôts de demain ne
peuvent plus leur être équivalents2.

Le président de la BCE menace la zone euro d'une hausse des taux en cas de dérive budgétaire
Arnaud Leparmentier - Le Monde 22 novembre 2003

La Commission européenne ne dispose pas d'armes contre les gouvernements de la zone euro si ceux-ci
refusent d'assainir leurs finances publiques, comme l'exige le pacte de stabilité. La Banque centrale européenne
(BCE) est, elle, beaucoup plus puissante : elle peut remonter ses taux d'intérêts, au nom de la défense de la
stabilité de la monnaie.

1
R. Barro, « Are Government Bonds Net Wealth ? », Journal of Political Economy, novembre-décembre 2002,
pp.1095-1117.
2
Pour des points de vue non libéraux voir : J. Créel et alii, « Doit-on oublier la politique budgétaire ? Une
analyse critique de la nouvelle théorie anti-keynésienne des finances publiques », www.cairn.info ; R.M. Solow,
« Peut-on recourir à la politique budgétaire ? Est-ce souhaitable ? », Revue de l’OFCE, octobre 2002,
www.ofce.sciences-po.fr.

93
Le président de la BCE, Jean-Claude Trichet, s'est ainsi invité dans le débat, alors que les cas de la France
et l'Allemagne, qui violent les règles du pacte, seront examinés par les ministres des finances européens, les 24 et
25 novembre. Dans un discours prononcé à Francfort jeudi 20 novembre, M. Trichet a laissé planer la menace
d'augmenter le loyer de l'argent si la dégradation des finances publiques nourrissait des tensions inflationnistes.
« Des politiques budgétaires indisciplinées, des revalorisations salariales dépassant la croissance de la
productivité et des hausses d'impôts mineraient la confiance et réduiraient la croissance potentielle et à long
terme. Une telle situation pourrait conduire rapidement à des pressions inflationnistes malvenues, à moins d'être
contrecarrées par la politique monétaire », a-t-il prévenu.
Le nouveau président de la BCE « encourage tous les gouvernements concernés à montrer leur volonté de
respecter les règles du pacte de stabilité. En agissant ainsi, ils réduiront les dépenses publiques, ce qui favorise la
croissance par la réduction des dépenses improductives et la réductions des coûts dans l'économie. En agissant
ainsi, ils réduiront de manière crédible les déficits publics, ce qui favorise la croissance en contribuant à baisser
les taux d'intérêt à moyen et long terme. En agissant ainsi, ils amélioreront la confiance des ménages et des
entreprises, notamment en garantissant que les impôts n'augmenteront pas au cours des prochaines
années », a expliqué M. Trichet.
La mise en garde intervient alors que la France et l'Allemagne, dont les déficits dépasseront en 2004, pour
la troisième année consécutive, la barre des 3 % du produit intérieur brut (PIB), refusent de mettre en œuvre les
recommandations de la Commission. Celle-ci leur demande de faire un effort supplémentaire de 6 milliards
d'euros en 2004, mais ni le ministre des finances français, Francis Mer, ni son homologue allemand, Hans Eichel,
n'entendent modifier leur projet de loi de finances. « Nous considérons avec le gouvernement allemand que les
efforts déjà demandés ont été accomplis dans le respect de l'esprit du pacte (...), et qu'il n'est pas raisonnable
d'aller au-delà si cela doit pénaliser une croissance fragile », s'est défendu, jeudi, M. Mer. Or le conseil européen
avait demandé à Paris et à Berlin de prendre des mesures pour repasser, dès 2004, sous les 3 %, ce que ni l'un ni
l'autre n'ont fait.
La Commission, consciente de la forte dégradation de la conjoncture, est prête, sur ce plan, à faire des
concessions, d'autant qu'elle sait que la plupart des Etats de la zone euro, à l'exception de la Finlande, des Pays-
Bas et de l'Autriche, sont prêts à voler au secours de Paris et Berlin.
Aujourd'hui, le problème concerne moins l'effort réel que feront Paris et Berlin. La grande bataille se joue
sur la procédure, qui doit conduire à mettre sous surveillance les budgets allemand et français et à envoyer aux
deux gouvernements non plus des recommandations, mais des « mises en demeure », dernière étape avant les
sanctions. L'Allemagne refuse qu'on applique cette procédure, sous prétexte qu'elle aurait un comportement
coopératif. Ce qui est faux puisqu'elle refuse de faire les efforts supplémentaires demandés. S'ils suivaient
l'argument de M. Eichel, dit la Commission, les ministres de la zone euro se mettraient hors traité, et le pacte ne
serait plus qu'un code de bonne conduite, sans force contraignante.
Bruxelles espère encore pouvoir gagner cette bataille, les petits pays n'ayant aucun intérêt à ce que le
pacte devienne une procédure purement intergouvernementale, qui ne les protégerait plus des errements des
grands Etats. En outre, l'affaire aurait des allures de précédent pour les pays de l'Est, qui pourraient exiger
d'entrer dans l'euro sans respecter les critères de Maastricht.

94
APPENDICE : la structure par termes des taux d’intérêt.

Ce graphique montre que lorsque la maturité des titres varie, le taux d’intérêt qu’ils
rapportent varie aussi, alors qu’on aurait pu croire qu’un titre long est simplement équivalent
à une suite de titres courts. Ceci signifie que le temps a une certaine importance pour les
opérateurs. Il existe plusieurs théories pour l’expliquer.
La première est de type structurel et s’applique à la courbe « normale » des taux, celle
que l’on rencontre le plus souvent. Elle consiste à introduire l’idée de risque, qui se traduit par
une préférence des agents pour la liquidité, donc pour les placements courts. Dans ces
conditions, les placements longs ne seront demandés que dans la mesure où leur taux de
rendement intègrera une prime de risque croissant avec la durée de vie des titres : la variation
du taux est alors monotone (toujours dans le même sens) mais plus ou moins accélérée selon
la psychologie des agents ou les conditions de risque.
Reste que la courbe constatée est parfois très déformée, de sorte qu’il faut ajouter
d’autres explications, plus conjoncturelles.

La seconde explication met en avant la notion d’anticipation non biaisée ou pure. Sur
un marché parfait (agents rationnels dotés gratuitement de toute l’information disponible ;
absence de coût de transaction ; liberté de composition du portefeuille) il est indifférent de
choisir un placement long, dont le taux est connu, ou une suite de placements courts dont les
taux sont seulement anticipés. Ceci est vrai au moins dans el cas où les agents sont
indifférents au risque. Dans cette hypothèse, un agent anticipant une hausse des taux aura
tendance à abandonner les placements longs (« vendre long ») pour choisir une suite de
placements courts et profiter ainsi de la hausse sur une partie des placements futurs (« acheter
court »). Réciproquement, une anticipation de baisse conduira à «vendre court » pour
« acheter long», de manière à ne pas avoir à souffrir de la baisse anticipée. La structure par
termes rendra donc compte des anticipations de variation de taux formulées par le marché :
des taux courts supérieurs aux taux longs traduisent des anticipations de baisse des taux.
Enfin il faut tenir compte du fait que le marché n’est peut être pas unique pour toutes les
échéances. Il peut être segmenté, chaque zone d’échéances ayant ses demandeurs et offreurs
habituels, qui exigent des primes pour sortir de leur « habitat préféré ». Ceci ne tient pas à
une forme d’inertie, mais à une forte aversion à l’égard du risque qui conduit les agents à

95
adapter strictement les échéances des placements à celles de leurs ressources, et
réciproquement. Ainsi un intermédiaire financier qui fait du crédit à long terme pourra
accepter de payer plus cher pour obtenir des ressources longues ; à l’inverse s’il est spécialisé
dans le crédit court, il n’acceptera des ressources longues que si elles sont moins chères que
les courtes.
Evidemment, rien n’interdit que les trois explications cohabitent.

96
33 – Le Reste du Monde et les relations internationales

331 – Approche comptable : la balance des paiements


La balance des paiements est un état statistique qui retrace sous une forme comptable
l'ensemble des flux d'actifs réels, financiers et monétaires entre les résidents d'une économie
et les non-résidents au cours d'une période déterminée. Ces flux sont répartis en distinguant le
compte des transactions courantes, le compte de capital et le compte financier.
La position extérieure recense non plus les flux, mais l’encours des créances et des
engagements financiers des résidents vis-à-vis des non-résidents à une date donnée.

La balance des transactions courantes ou balance courante recense les échanges


internationaux de biens et services, ainsi que les revenus du travail et du capital et les
transferts courants. Les rémunérations des salariés comprennent les salaires, gages,
traitements versés par des employeurs non résidents à leurs salariés résidents (travailleurs
frontaliers, saisonniers, en mission de courte durée) et inversement. Les revenus des
investissements correspondent aux recettes ou paiements afférents aux avoirs financiers
extérieurs. Ils sont décomposés en fonction de la nature des opérations financières ou
engagements financiers extérieurs, soit : revenus des investissements directs, revenus des
investissements de portefeuille et autres revenus d’investissements. Les transferts courants
constituent la contrepartie comptable de biens, services, capitaux exportés ou importés
gratuitement, c’est-à-dire sans contrepartie apparente ou mesurable.
Le compte de capital a été créé par le cinquième Manuel du FMI (1993). Il enregistre
d’une part les transferts en capital, c’est-à-dire les opérations qui donnent lieu au transfert de
propriété d’un actif fixe ou à la remise d’un engagement par le créancier sans que rien ne soit
reçu en échange ; et d’autres part les acquisitions-cessions d’actifs non financiers non produits
(brevets, droits d’auteur, marques).
Le compte financier est structuré selon la nature des capitaux : investissements directs,
investissements de portefeuille, produits dérivés, autres investissements (crédits
commerciaux, prêts et dépôts) et avoirs de réserve (hors zone euro et restant gérés par la
Banque de France). Les investissements directs couvrent les opérations effectuées par des
investisseurs afin d’acquérir, d’accroître ou de liquider un intérêt durable dans une entreprise
et de détenir (ou de liquider) une influence dans sa gestion.

Banque de France « La balance des paiements et la position extérieure de la France »


Le 12 février 2008 MF-07-12z

En 2007, malgré la dégradation des échanges de biens, dont le déficit s’accroît de 8,1 milliards, le déficit
des transactions courantes ne se creuse que de 1,9 milliard et s’établit à 24,4 milliards. Ceci est dû à
l’amélioration de 7,5 milliards du solde des revenus provenant pour l’essentiel des investissements directs. Par
ailleurs, les autres lignes varient dans des proportions moins importantes : -1,0 milliard sur les services et -0,3
milliard sur les transferts courants.
Le compte financier présente un solde créditeur net de 37,7 milliards en 2007, sensiblement inférieur à
celui de 2006 (63,9 milliards). Les investissements directs français à l’étranger augmentent fortement en 2007, à
160,0 milliards (après 91,7 milliards en 2006), en raison de la progression sensible tant des opérations en capital
que des opérations de prêts et de trésorerie intra-groupe. De même, les investissements étrangers en France
enregistrent une hausse marquée, pour atteindre un montant sans précédent de 107,9 milliards. Cette progression
est toutefois très largement imputable aux opérations de prêts et flux de
trésorerie réalisées au profit des filiales résidentes, opérations qui font plus que doubler en 2007. Les opérations
en capital social entrantes n’enregistrent en revanche qu’une croissance très modérée. Au total, le solde net des
investissements directs s’établit à –52,1 milliards en 2007 (en 1999 et 2000, le solde moyen des investissements
directs sortants était de 111 milliards).

97
Les investissements de portefeuille se soldent par des sorties nettes de capitaux de 20,7 milliards en 2007,
en diminution sensible par rapport à 2006. Les résidents acquièrent pour 141,2 milliards de titres étrangers, soit
près de moitié moins qu’en 2006. La contraction est importante sur le compartiment obligataire tandis que les
titres du marché monétaire et les actions et titres d’OPCVM font l’objet de cessions nettes sur l’année. Pour leur
part, les non-résidents réduisent fortement leurs achats de titres français, à 120,5 milliards (contre 211,0 milliards
en 2006), notamment sur le compartiment obligataire.
Les autres investissements (dépôts-crédits) se soldent par des entrées nettes de 113,2 milliards en 2007
(après 155,9 milliards en 2006). L’essentiel de ce mouvement résulte d’une augmentation des engagements nets
des institutions financières monétaires résidentes.
Les erreurs et omissions nettes s’inscrivent à – 15,3 milliards sur l’année 2007, après -41,3 milliards en
2006.

332 – Approche institutionnelle


Les relations économiques internationales sont encadrées, directement ou indirectement,
par un certain nombre d’institutions. Celles dont on parle le plus, notamment au cours des
derniers mois, sont : le FMI, dont le directeur général a démissionné en 2007, laissant la place
au candidat de la France, D. Strauss-Kahn ; la Banque Mondiale, dont le président a dû
démissionner, sous l’accusation de favoritisme, et a été remplacé par ; et enfin l’Organisation
mondiale du commerce, qui a accueilli la Chine en 2007, non sans quelques grincements de
dents.

3321 – Le Fonds monétaire international


Le Fonds monétaire international1 (FMI) a vu le jour en juillet 1944, à une conférence
des Nations Unies qui s'est tenue à Bretton Woods (New Hampshire, États–Unis). Les 45
gouvernements alors représentés voulaient établir un cadre de coopération économique conçu
pour prévenir le retour aux politiques économiques des années trente, qui ont contribué à faire
durer la crise de 1929.

Quelques données

185 pays membres.


2.635 employés environ, originaires de 143 pays
338 milliards d’USD de quotes-parts (au 30 septembre 2007)
17 G USD d’encours de prêts à 68 pays, dont 6 G USD à des conditions concessionnelles à 57 pays (au
30 septembre 2006)
438.4 personnes-années d’assistance technique durant l'exercice 2007
134 consultations achevées au titre de la surveillance des pays au cours de l'exercice 2007, avec la publication
volontaire des rapports des services du FMI pour 125 pays.

A – Les missions du FMI


L'article premier des Statuts du FMI énonce les principaux buts de l'institution :
promouvoir la coopération monétaire internationale ; faciliter l'expansion et la croissance
équilibrées du commerce mondial ; promouvoir la stabilité des changes ; aider à établir un
système multilatéral de paiements ; mettre ses ressources (moyennant des garanties adéquates)
à la disposition des pays confrontés à des difficultés de balance des paiements.
1
www.imf.org ;

98
Plus généralement, le FMI est chargé d'assurer la stabilité du système monétaire et
financier international - le système international de paiements et de taux de change des
monnaies nationales qui rend possible le commerce entre pays. Le FMI poursuit les objectifs
suivants : promouvoir la stabilité économique et prévenir les crises; contribuer à la résolution
des crises, lorsqu'elles se produisent ; promouvoir la croissance et alléger la pauvreté. Pour
atteindre ces objectifs, il exerce trois fonctions essentielles : surveillance, assistance technique
et opérations de prêts.
Le FMI a pour mission de promouvoir la croissance et la stabilité économique à
l'échelle mondiale - et partant à prévenir les crises économiques - en encourageant les pays à
adopter des politiques économiques saines.
La surveillance comprend le dialogue que le FMI entretient régulièrement avec chaque
Etat membre et les conseils de politique économique qu'il leur fournit. A intervalles réguliers
(habituellement une fois par an), le FMI évalue en profondeur la situation économique de
chaque pays. Il examine avec les autorités si les politiques économiques sont les plus propices
à la stabilité externe et interne, y compris pour promouvoir une croissance ordonnée, et offre
des conseils si nécessaire. La décision de publier les rapports d'évaluation du FMI appartient à
chaque pays membre concerné : la plupart des pays choisissent la transparence et diffusent au
public des informations détaillées sur la surveillance bilatérale dont ils font l'objet. En outre,
le FMI s'appuie sur les informations obtenues au cours des diverses consultations pour dresser
des bilans et tracer des perspectives au plan régional et mondial. Il publie ces travaux deux
fois par an dans les Perspectives de l'économie mondiale et le Rapport sur la stabilité
financière dans le monde1.
Le FMI offre aux pays membres une assistance technique et une formation -
gratuitement dans la plupart des cas - pour les aider à renforcer leur capacité de conception et
d'application de politiques efficaces. L'assistance technique porte notamment sur la politique
de finances publiques, la politique monétaire et de change, le contrôle et la réglementation du
système bancaire et financier, et les statistiques.
Le FMI est aussi un fonds auquel les pays membres peuvent avoir recours en cas de
difficultés de balance des paiements, pour contribuer à leur redressement.
Par ses concours financiers, le FMI donne aux États membres le répit dont ils ont besoin
pour remédier à leurs problèmes de balance des paiements. Un programme économique
appuyé par le FMI est conçu par les autorités nationales en coopération étroite avec les
services de l'institution, et les concours financiers restent subordonnés à la réalisation
effective de ce programme.
Par ailleurs, le FMI se consacre activement à la réduction de la pauvreté dans le monde
entier, soit de façon indépendante, soit en collaboration avec la Banque mondiale et d'autres
institutions.
Le FMI accorde une assistance financière par le biais de son mécanisme de prêts
concessionnels - la Facilité pour la réduction de la pauvreté et pour la croissance (FRPC) et
la Facilité de protection contre les chocs exogènes (facilité PCE) - ainsi qu'au moyen
d'allégements de dette dans le cadre de l'Initiative en faveur des pays pauvres très endettés
(Initiative PPTE) et l'Initiative d'allégement de la dette multilatérale (IADM).
Dans la plupart des pays à faible revenu, cette assistance repose sur les Documents de
stratégie pour la réduction de la pauvreté (DSRP). Préparé par les autorités nationales - en
consultation avec la société civile et les partenaires extérieurs pour le développement -, le
DSRP présente le cadre global de la politique économique, structurelle et sociale mise en
œuvre pour promouvoir la croissance et réduire la pauvreté dans le pays concerné.

1
www.imf.org/external/pubs/ft/weo/2006/01/fra ; imf.org/external/french/pubs/ft/gfsr/2007/02/sumf.pdf

99
B – Problèmes et projets de réforme1
Le premier problème est celui du partage du pouvoir au sein du FMI, qui n’a pas changé
depuis 1944. C’est toujours un Européen qui dirige, mais il se pourrait que l’actuel directeur
soit le dernier à être automatiquement européen. Les droits de vote sont calqués sur une réalité
aujourd’hui disparue (Belgique 2,02%, Brésil 1,38%). Le G7 déteint 47% des droits de vote
Même si, suite au consensus de Monterey (2002) une réforme du 19 septembre 2006 a un peu
amélioré la position du Mexique, de la Turquie, de la Chine et de la Corée du Sud, les Etats-
Unis sont toujours tout puissants puisqu’ils verrouillent la majorité qualifiée à 85%, et
détiennent un droit de veto. En outre le fonctionnement apparaît comme très opaque : les
décisions du conseil ne font l’objet que de la publication d’un résumé.
Les thérapies imposées par les experts du FMI aux pays en difficulté sont d’inspiration
libérale (réduction des déficits et des subventions, dévaluation, assainissement du secteur
bancaire). Il en résulte des hausses de prix, la disparition de services publics ou de politiques
sociales, la fermeture d’entreprises : au Mali, pays très pauvre, el FMI a préconisé la
privatisation du secteur cotonnier, ce qui a fait chuter de 20% le prix du coton payé aux trois
millions d’agriculteurs
Les deux plus graves contestations sont nées à propos des crises asiatique (1997-1998)
et argentine (2001-2002) 2. Les déréglementations préconisées se sont avérées catastrophiques.
La Malaisie qui n’a pas fait appel au FMI s’en est mieux tirée, grâce au contrôle des changes,
que l’Indonésie et la Corée du Sud.
Beaucoup de pays ont profité d’une bonne conjoncture pour rembourser leurs emprunts
par anticipation (28 G USD), ce qui réduit sensiblement les recettes du fonds : si rien n’est fait
le FMI pourrait enregistrer un déficit de 400 M USD en 2010. C’est pourquoi le nouveau
directeur a proposé un plan drastique d’économies et de recherche de nouvelles ressources,
qui devrait être débattu en avril 2008.
En même temps M. Strauss-Kahn considère qu’il faut réexaminer comment le FMI
s’acquitte de sa mission d’offrir « un bien public mondial qui est la stabilité financière [en
agissant] sur « le double front de la pertinence et la légitimité du FMI, et de sa solidité
financière »3. C’est d’une certaine manière la même position qui a été adoptée par Joseph
Stiglitz, ancien économiste en chef de la Banque mondiale, et prix Nobel d'économie 2001, « Le
changement le plus fondamental qui s'impose pour que la mondialisation fonctionne comme
elle le devrait, c'est celui de son mode de gouvernement. Il faut réformer l'ensemble des
institutions financières internationales afin que les ministres du commerce ne soient plus les
seuls à se faire entendre à l'OMC et les ministres des finances au FMI et à la Banque
mondiale. Dans aucun pays démocratique, on ne confie les pleins pouvoirs au ministre du
commerce ou au ministre des finances. On écoute aussi l'avis du ministre de la santé ou du
travail. Il faut aussi renoncer au principe « un dollar, un vote ». (…) La voix des PED est
anormalement faible au sein des institutions financières internationales. » 4

C – Fiche technique : les DTS

1
Voir par exemple Critiques des institutions financières internationales (IFI),
www.ladocumentationfrancaise.fr/dossiers/banque-mondiale-fmi/critiques-ifi.shtml
2
La crise monétaire turque de 2000/2001 : une analyse de l'échec du plan de stabilisation par le change du FMI,
Economie internationale, n° 108, 2007.
3
« M. Strauss-Kahn veut recentrer rapidement les activités du FMI », Bulletin du FMI en ligne 7 décembre
2007 ; Entretien avec J. Stiglitz, Politique internationale, automne 2002 ; J.E. Stiglitz, La grande désillusion,
Fayard, Paris, 2002.
4
Chavagneux C., Tubiana L., Bourguignon F., Développement, Conseil d'analyse économique, n° 25, 2000.

100
Le droit de tirage spécial (DTS) a été créé par le FMI en 1969 pour soutenir le système
de parités fixes de Bretton Woods. Tout pays adhérent au système devait disposer de réserves
officielles - avoirs en or de l'Etat ou de la banque centrale et devises largement acceptées - qui
pouvaient servir à racheter sa monnaie nationale sur les marchés des changes internationaux,
au besoin, pour maintenir son taux de change. Mais l'offre internationale de deux grands
avoirs de réserve, l'or et le dollar américain, s'est révélée insuffisante pour étayer l'expansion
du commerce et l'évolution financière auxquelles on assistait alors. La communauté
internationale a donc décidé de créer un nouvel avoir de réserve mondial sous les auspices du
FMI.
Or, quelques années à peine après la création du DTS, le système de Bretton Woods
s'est effondré et les grandes monnaies sont passées à un régime de taux de change flottant.
D'autre part, l'expansion des marchés de capitaux internationaux permettait aux
gouvernements solvables d'emprunter plus facilement. Cette double évolution a réduit le
besoin de DTS.
Aujourd'hui, le rôle du DTS se limite à celui d'un avoir de réserve parmi d'autres et il
sert principalement d'unité de compte au FMI et à certains autres organismes internationaux.
Le DTS n'est pas une monnaie, et il ne constitue pas non plus une créance sur le FMI. Il
représente en revanche une créance virtuelle sur les monnaies librement utilisables des pays
membres du FMI. Les détenteurs de DTS peuvent se procurer ces monnaies en échange de
DTS de deux façons : premièrement, sur la base d'accords d'échange librement consentis entre
pays membres; deuxièmement, lorsque le FMI désigne les pays membres dont la position
extérieure est forte pour acquérir des DTS de pays membres dont la position extérieure est
faible.
La valeur du DTS a été fixée nitialement
i à 0,888671 gramme d'or fin, ce qui
correspondait alors à un dollar américain. Après l'effondrement du système de Bretton
Woods, en 1973, la valeur du DTS a été déterminée par rapport à un panier de monnaies, qui
comprend actuellement le dollar, l'euro, la livre sterling et le yen. La contre-valeur du DTS en
dollars est affichée quotidiennement sur le site Internet du FMI. La valeur représente la
somme des parts de chacune des quatre monnaies dont se compose le DTS, exprimées en
dollars et calculée sur la base du taux de change coté à midi chaque jour sur le marché de
Londres.
La composition du panier est revue tous les cinq ans pour veiller à ce que la pondération
des monnaies rende bien compte de leur importance relative dans les échanges et les systèmes
financiers internationaux. Lors du dernier réexamen de la valeur du DTS, qui a eu lieu en
novembre 2005, les pondérations des monnaies du panier ont été révisées sur la base de la
valeur des exportations de biens et de services et du montant des réserves libellées
respectivement dans chaque monnaie qui étaient détenues par les autres membres du FMI.
Ces modifications ont pris effet le 1er janvier 2006. Le prochain réexamen par le Conseil
d'administration aura lieu à la fin de 2010.
Le taux d'intérêt du DTS sert de base de calcul pour le taux d'intérêt dont le FMI assortit
les financements ordinaires (non concessionnels) qu'il accorde à ses pays membres, la
rémunération qu'il verse aux pays membres et les intérêts dus par ces derniers en fonction de
leurs avoirs en DTS et la rémunération qu'il verse aux pays membres sur une fraction de leur
quote-part au FMI. Le taux d'intérêt du DTS est fixé chaque semaine sur la base de la
moyenne pondérée des taux d'intérêt représentatifs de certaines obligations à court terme
émises sur le marché monétaire des pays dont la monnaie entre dans la composition du DTS.
En vertu de ses statuts, le FMI peut allouer des DTS aux pays membres en proportion de
leurs quotes-parts respectives. Ces allocations fournissent à chaque pays membre des avoirs
sans frais sur lesquels des intérêts ne sont ni dus ni versés. Toutefois, si les avoirs en DTS
détenus par un pays membre dépassent son allocation, cet excédent est porteur d'intérêts ; à

101
l'inverse, s'il détient un montant de DTS inférieur à son allocation, il verse des intérêts sur la
différence. Les statuts donnent aussi la possibilité d'annuler des DTS, mais cette disposition
n'a jamais été invoquée. Le FMI ne peut s'allouer de DTS à lui-même.
Les allocations générales de DTS doivent correspondre à un besoin global à long terme
de compléter les avoirs de réserve existants. Elles font l'objet d'un réexamen tous les cinq ans,
même si une décision d'allouer des DTS n'est intervenue qu'à deux reprises. La première
allocation générale, d'un montant total de 9,3 milliards de DTS, a été distribuée sur la période
1970–1972. La seconde, distribuée sur la période 1978-1981, a porté le montant des
allocations cumulatives à 21,4 milliards de DTS.
Une proposition visant à effectuer une allocation spéciale ponctuelle a reçu l'aval du
Conseil des gouverneurs du FMI en septembre 1997, dans le cadre du projet de quatrième
amendement des statuts. Cette décision aurait pour effet de doubler les allocations
cumulatives en les portant à 42,8 milliards de DTS. L'objectif visé est de permettre à tous les
pays membres du FMI de participer équitablement au système des DTS et de corriger les
disparités envers les pays qui, ayant adhéré au FMI après 1981 - soit plus du cinquième des
membres actuels du FMI -, n'ont jamais reçu d'allocation de DTS. Le quatrième amendement
prendra effet lorsque les trois cinquièmes des pays membres du FMI (111 membres),
totalisant 85 % du total des voix attribuées l'auront entériné. A la fin août 2006, 131 pays
membres, représentant 77,3 % du total des voix attribuées, avaient accepté la proposition
d'amendement. L'amendement entrerait en vigueur dès lors qu'il serait approuvé par les États-
Unis, détenteurs de 17,1 % du total des voix attribuées.

3322 – La Banque Mondiale


La Banque mondiale est une source d'appui financier et technique pour l'ensemble des
pays en développement. Ce n'est pas une banque au sens ordinaire du terme. Elle se compose
de deux organismes de développement distincts, la Banque internationale pour la
reconstruction et le développement (BIRD) et l'Association internationale de développement
(IDA), et est sous le contrôle de ses 185 pays membres. La BIRD et l'IDA contribuent
chacune d'une manière différente mais complémentaire à sa mission, qui est de réduire la
pauvreté et d'améliorer le niveau de vie des populations à rtavers le monde. Par leur
intermédiaire, la banque mondiale accorde aux pays en développement des prêts à faible
intérêt, des crédits ne portant pas intérêt et des dons dans des domaines très divers - éducation,
santé, infrastructure, communications et autres.
La Banque internationale pour la reconstruction et le développement (BIRD) a pour
objectif de réduire la pauvreté dans les pays à revenu intermédiaire et dans les pays plus
pauvres mais solvables par le biais de ses prêts et de ses garanties, de ses instruments de
gestion des risques et de ses services d'analyse et de conseil. La BIRD, constituée en 1944 et
première institution du Groupe de la Banque mondiale, est structurée sur le modèle d'une
coopérative ; elle est dotée d'un capital qui appartient à ses 185 pays membres et elle poursuit
ses opérations au profit de ces derniers.
La BIRD obtient l'essentiel de ses ressources sur les marchés des capitaux mondiaux et
elle est devenue l'un des emprunteurs les plus connus depuis le lancement de sa première
émission obligataire en 1947. Grâce aux revenus qu'elle génère depuis sa création, elle
finance des activités de développement et assure sa solidité financière, ce qui lui permet
d'emprunter à faible coût et de proposer à ses clients des conditions de financement
intéressantes.
Lors de son Assemblée annuelle en septembre 2006, la Banque mondiale s'est engagée à
continuer d'améliorer les services qu'elle fournit à ses membres. Pour répondre aux besoins de
plus en plus complexes des pays à revenu intermédiaire, la BIRD a entrepris de revoir la

102
conception de ses produits financiers et de ses instruments de gestion des risques et de
faciliter les transactions entre ses clients et la Banque.
L’Association internationale de développement (IDA) est l’institution de la Banque
mondiale qui aide les pays les plus pauvres de la planète. Créée en 1960, l’IDA vise à réduire
la pauvreté en accordant des dons et des prêts sans intérêt destinés à financer des programmes
de nature à stimuler la croissance économique, à atténuer les inégalités et à améliorer les
conditions de vie des populations.
L’action de l’IDA complète celle de l’autre guichet de prêt de la Banque mondiale - la
Banque internationale pour la reconstruction et le développement (BIRD) - qui fournit aux
pays à revenu intermédiaire des services de conseil et des capitaux pour financer leurs
dépenses d’équipement. La BIRD et l’IDA partagent le même personnel et le même siège et
évaluent les projets suivant les mêmes normes.
L’IDA est l’un des principaux bailleurs d’aide aux 80 pays les plus déshérités de la
planète, dont 39 se trouvent en Afrique. C’est la principale source de financement par les
donateurs des services sociaux de base dans les pays les plus pauvres.
L’Association prête des fonds à des conditions concessionnelles. Autrement dit, les
crédits de l’IDA ne portent pas intérêt, et les remboursements sont étalés sur une période de
35 à 40 ans, y compris un différé d’amortissement de 10 ans.
Depuis sa création, l’IDA a accordé au total 182 milliards de dollars de crédits et de
dons, au rythme de 10 milliards de dollars par an en moyenne ces dernières années, dont la
majeure partie, soit environ 50 %, va à l’Afrique.

3333 - L’Organisation mondiale du commerce

Joseph Stiglitz, La grande désillusion, Fayard, juillet 2002 (résumé par Valéry Garandeau, ancien
stagiaire HCCI)

L'orthodoxie financière des institutions financières internationales (IFI)


Lorsque le Fonds monétaire international (FMI) a été créé, la mission assignée était claire : engager des
actions collectives au niveau mondial pour garantir la stabilité économique de pays en difficulté. Cela signifiait
qu'il devait stimuler la demande globale et financer temporairement les déficits publics pour maintenir le plein-
emploi. Le marché fonctionnant mal, les Etats en cause devaient adopter des politiques expansionnistes :
augmentation des dépenses publiques, baisse des impôts et des taux d'intérêt. Aujourd'hui, le FMI se veut le
gardien du temple du marché et ne verse ses fonds qu'aux Etats menant une politique d'austérité : baisse des
déficits et augmentation des taux d'intérêt. L'auteur considère que le FMI, en favorisant la spéculation ou en
intervenant massivement uniquement sur le marché des changes a cessé de servir les intérêts de l'économie
mondiale pour servir ceux de la finance internationale.
Les pays récalcitrants aux recettes ultra-libérales du FMI se voient opposer l'arme de la conditionnalité
pour l'obtention de prêts. La nature et les moyens d'élaboration et d'imposition des prêts par le FMI font l'objet
de vives critiques. Le FMI peut recourir au chantage, en fractionnant le versement du prêt qu'il octroie à chaque
degré supplémentaire de libéralisation, et même parfois violer de façon caractérisée la souveraineté du pays
lorsqu'il fait figurer, dans certains accords, l'obligation de voter telle loi pour atteindre les objectifs fixés. Les
effets des conditionnalités sur la gestion politico-économique sont contestables car ils ne sont pas porteurs de
changements d'orientation durables. Dans de nombreux cas, cette méthode est contre-productive, suicidaire
(imposer à la Banque centrale de se consacrer exclusivement à l'inflation en oubliant la croissance et l'emploi) et
ne réduit en rien la pauvreté (le pays s'endette encore plus et les élites continuent de s'enrichir). Le pays qui
refuse les orientations du FMI - considérés comme « off track », c'est-à-dire s'écartant du droit chemin et refusant
l'orthodoxie des IFI - peut voir celui-ci retirer ses financements, entraînant par là même le découragement des
investissements privés et la tentation des autres bailleurs de fonds de conditionner leur aide à l'approbation de la
politique du pays par le FMI.
La mondialisation et les politiques qui la nourrissent obligent souvent les pays en voie de développement
à payer le prix fort : corruption, conséquences dramatiques pour l'environnement, valeurs culturelles menacées et
bien entendu populations sacrifiées. En effet, chômage de masse et précarisation sont des fléaux qui entraînent

103
une dissolution sociale aux conséquences dramatiques : violences urbaines (Argentine), conflits ethniques
(Indonésie), etc. Un pays peut avoir une inflation faible, mais une croissance nulle et un chômage élevé. La
plupart des économistes jugeront alors sa situation macroéconomique catastrophique car à leurs yeux, réduire
l'inflation n'est pas une fin en soi, mais un moyen au service d'une autre fin. Si l'inflation inquiète tant, c'est parce
qu'une inflation trop élevée entraîne souvent une croissance faible, et celle-ci, un chômage massif. Mais le FMI,
semble-t-il, confond souvent fins et moyens et perd de vue la préoccupation fondamentale : il donnera la
meilleure note à un pays comme l'Argentine parce que son budget paraîtra en équilibre et son inflation sous
contrôle, alors même que le chômage y est à deux chiffres depuis des années ! « L'Occident a organisé la mise
en place de la mondialisation de façon à recevoir une part disproportionnée de ses bénéfices, aux dépens du
monde en développement ». Depuis peu, en raison de l'opposition mondiale (Seattle, Porto Alegre, etc.) qui se
dresse face à elle, la « grande roue » infernale de déstructuration du lien social et collectif n'essaie plus d'écraser
tout sur son passage.
Les plus importantes techniques de jugement sont l'analyse coûts-efficacité et l'analyse coûts-avantages,
qui permettent de quantifier l'efficience du programme. Dans tous les cas, il importe de rester conscient de la
distance qui sépare le rationnel économique du raisonnable politique.

Les politiques d'ajustement structurel à travers l'exemple de L'Ethiopie


Si un pays ne répond pas à certains critères, le FMI suspend son aide. Ce faisant, il est d'usage que
d'autres donateurs l'imitent. Ce fut le cas pour l'Ethiopie. Ce pays, dirigé par un homme intègre, Meles Zenawi,
soucieux d'améliorer le sort des pauvres de son pays, fut soumis aux contraintes injustes du FMI qui chercha à
lui imposer une absurde politique de libéralisation du marché financier et un équilibre budgétaire indépendant de
l'aide internationale. Avec « des bases économiques saines » et un « gouvernement compétent et engagé en
faveur des pauvres » le FMI refusa pourtant d'accorder des aides.
Non seulement les bases économiques de l'Ethiopie étaient saines, mais la Banque mondiale avait des
témoignages directs de la compétence du gouvernement et de son engagement en faveur des pauvres. L'Ethiopie
avait élaboré une stratégie de développement rural attentive aux pauvres, en particulier aux 85% de la population
qui vivaient dans les campagnes. Le gouvernement éthiopien avait deux sources de revenus : les impôts et l'aide
étrangère - l'Ethiopie, comme beaucoup de pays en développement, tire une bonne part de ses revenus de l'aide
étrangère. Le budget d'un Etat étant en équilibre tant que ses revenus couvrent ses dépenses, le FMI s'inquiétait
du fait que, si cette aide venait à se tarir, le pays aurait des problèmes. Par conséquent, soutenait-il, l'équilibre
budgétaire de l'Ethiopie devait être jugé solide que si ses dépenses ne dépassaient pas ses rentrées fiscales. Cette
logique soulève par ailleurs un problème : quand un pays pauvre obtient de l'aide pour une réalisation
quelconque, la construction d'écoles par exemple, il ne pourra jamais dépenser cet argent pour ce projet puisque
le FMI lui impose de conserver ces fonds dans ses réserves. Or, les donateurs internationaux, qui n'ont aucune
obligation envers le FMI, accordent leur aide pour voir le projet effectivement réalisé – la construction d'écoles.
Les réticences du FMI pourrait s'expliquer en raison de doutes sur le devenir à long terme du projet - des pays
utilisent les dollars de l'aide pour construire des écoles ou des hôpitaux, mais une fois l'argent de l'aide épuisé,
n'ont plus les moyens de les faire fonctionner. Mais les donateurs ont pris conscience du problème et en tiennent
compte dans leurs projets. En ce qui concerne le cas éthiopien, les allégations du FMI allaient au-delà : il
estimait que l'aide internationale était trop instable pour que l'on puisse compter sur elle.
Il y avait un autre point de friction dans les relations Ethiopie-FMI : la libéralisation des marchés
financiers éthiopiens - le dynamisme des marchés financiers est le signe distinctif du capitalisme, mais en nul
autre domaine l'écart entre pays développés et moins développés n'est plus grand. Le FMI voulait non seulement
que l'Ethiopie ouvre ses marchés financiers à la concurrence occidentale, mais aussi qu'il scinde ses principales
banques en plusieurs morceaux. L'Ethiopie avait d'excellentes raisons de résister au FMI devant cette exigence «
d'ouverture » de son système bancaire : les conséquences de ce qui s'était passé chez l'un de ses voisins d'Afrique
orientale, le Kenya, qui, ayant cédé avait subi quatorze banqueroutes pour les seules années 1993 et 1994.

La gestion par le FMI de la crise asiatique


Les échecs du FMI sont aussi spectaculaires que ses politiques. Les crises sont aujourd'hui plus graves et
plus fréquentes, l'action du FMI contribue à l'instabilité mondiale et les pays où il intervient voient leur situation
se dégrader. Dans les pays en voie de développement ou en transition, qui sont généralement des "petits bateaux"
sans capitaine, ni gilets de sauvetage et dont la structure est fragile, le naufrage devient réalité si une grosse
vague se présente. Le FMI a joué le rôle du déclencheur de raz de marée avec ses politiques, imposées au nom
du fanatisme du marché reposant sur trois piliers : privatisation, libéralisation et austérité budgétaire à un rythme
effréné. L'absurdité des choix du FMI peut avoir des conséquences très néfastes pour l'économie mondiale
comme en témoigne l'ampleur de la crise asiatique dont il est un des éléments déclencheurs.
Pour les pays du Sud-est asiatique, le FMI a souhaité, dans un contexte de début de récession, imposer
une libéralisation des marchés financiers ouvrant la porte à l'arrivée de capitaux spéculatifs. Les plans du FMI
(maintien du taux de change, austérité, hausse des taux d'intérêt, etc.) ont échoué lamentablement provocant fuite

104
des capitaux et des investisseurs, augmentation du chômage, baisse du PIB et catastrophe sociale. Plutôt que de
stimuler la demande globale dans ses pays par une politique budgétaire expansionniste (baisse des impôts et
augmentation des dépenses) et une politique monétaire détendue, le FMI a conseillé aux gouvernements de faire
l'inverse. Obligation leur était faite, par exemple, de porter les taux d'intérêts à des niveaux élevés (plus de 25
points) pour favoriser soi-disant l'attractivité pour les capitaux étrangers, ceci permettant de stabiliser les taux de
change. Au lieu d'un prétendu retour de confiance dans les marchés, la récession s'est installée avec le
surendettement des entreprises, une contraction simultanée de la demande et de l'offre globale, et la fuite de
capitaux.
La restructuration entreprise par le FMI en Asie a conduit à protéger les investisseurs et oublier les
habitants du pays. La libéralisation accrue des marchés financiers a semé le chaos. L'imposition forcenée d'une
telle politique surprend d'autant plus qu'elle ne réussit pas davantage aux pays riches : aux Etats-Unis par
exemple, la déréglementation du système financier voulue par Reagan a provoqué une débâcle des caisses
d'épargne. Mais si les pays riches peuvent réparer les "pots cassés" (intervention de l'Etat), il n'en est pas de
même pour les pays en voie de développement. Et les pays qui ont pu échapper aux ravages de la crise asiatique
sont ceux qui menaient une politique indépendante de celle du FMI - l'Inde, la Chine et la Malaisie -, et
contrôlaient ainsi les opérations en capitaux.
Le FMI a donc réussi l'exploit de dégrader l'efficacité globale des marchés, notamment au niveau de
l'allocation de ressources, mettant en branle en partie le "miracle asiatique" qui paraissait durablement installé.
Cet "exploit" s'ajoute à ses échecs répétés dans les pays où il est censé gérer les crises en cours. Le plus souvent,
il s'acharne, à coups de privatisations et de libéralisation imposés, à créer le climat le plus favorable aux
investissements étrangers.

La crise russe et la transition dans les pays de l'Est


Au moment de la crise, alors que l'exemple désastreux des privatisations confisquées par les oligarques
ex-communistes auraient dû faire réfléchir la communauté internationale, le FMI n'a pas hésité, à fonds perdus, à
fournir des aides d'urgence au gouvernement russe, aides qui se sont retrouvées en deux jours sur les comptes
suisses des amis du pouvoir. Le gaspillage d'aide qu'aura été le soutien à la Russie, les malversations que ce
soutien a entraîné, sont une véritable tache dans l'action des organisations internationales.
« Processus démocratique », « démocratie », étaient des mots qui devaient signifier des lendemains
chantants pour des centaines de millions d'habitants de l'ex-URSS et des pays de l'Est. Malheureusement les
« thérapeutes de choc », les « fanatiques de l'économie de manuel » du FMI ont favorisé l'apparition de tout
autre lendemain : oligarchie, capitalisme de mafieux, pauvreté massive, classes moyennes décimées, etc. En
Russie, avec la collaboration des « bolcheviks du marché », légiférant par décrets et court-circuitant la Douma,
les experts de Washington ont mis en œuvre leurs politiques : libéralisation des prix et des marchés, puis
durcissement de la politique monétaire et lancement des privatisations réalisées dans de mauvaises conditions
(monopole public devenant privé, réglementations insuffisantes) ou pour des activités d'Etat que le marché ne
pouvait assurer (protection sociale, système de retraite, etc.), l'intérêt de l'actionnaire passant avant l'intérêt
collectif.
Ces politiques ont entraîné le pillage des actifs, le détournement de l'argent des emprunts et la fuite de capitaux.
Sans système fiscal solide en place, surendetté, l'Etat russe, malgré des ressources naturelles surabondantes, se
retrouve appauvri lorsque apparaissent les retombées de la crise asiatique en 1998. Le FMI décide alors de prêter
massivement des fonds à la Russie faisant fi des risques importants de détournement. Bien évidemment, le
gouvernement russe annonce la suspension unilatérale des paiements et l'on apprend que l'argent du FMI a quitté
le pays.
Les transitions manquées, à l'exception de quatre pays (Pologne, Hongrie, Slovénie et Slovaquie) réticents
à appliquer la totalité des recettes du FMI, sont la preuve que la communauté financière internationale n'a en
aucun cas tenu compte du contexte politique, économique et social de cette région dans laquelle le système
communiste était parvenu à éviter l'extrême pauvreté avec une relative égalité des niveaux de vie et des services
de base de qualité (éducation, santé, logement, protection sociale). Les réussites relèvent des pays qui n'ont pas
adopté les thérapies de choc ; les échecs de ceux qui ont suivi les préconisations du FMI.

Les enjeux d'une réforme urgente de l'architecture financière mondiale


Face à l'échec patent des IFI, prôner l'application de réformes à un rythme moins soutenu, se montrer plus
sensible au contexte social et appeler aux maintiens de cadres réglementaires sont insuffisants. Il est nécessaire,
d'une part, de redéfinir les politiques et, d'autre part de mettre en place de véritables institutions publiques
internationales en réformant le FMI, la Banque mondiale et l'OMC.
Concernant les politiques, il est temps notamment d'arrêter de centrer celles-ci uniquement sur la
croissance : l'économie des retombées ne marche pas, il faut à la fois une juste répartition et l'équité (malgré la
croissance des années 80, les Etats-Unis ont vu le revenu réel des plus pauvres décroîtrent). D'autres priorités et
stratégies doivent être avancées. Les IFI s'opposent par exemple à la réforme agraire alors que le métayage

105
constitue un impôt de 50% sur les plus pauvres. Mais dans le même temps, elles hurlent contre les taux élevés
d'imposition appliqués aux riches. L'idéologie doit disparaître des IFI, et l'ultra libéralisme cesser d'être présenté
comme la résolution des problèmes pour lesquels la science économique n'a pas de réponses.
La tâche des nouvelles institutions publiques doit consister à donner les moyens aux pays en voie de
développement de faire un choix informé sur les stratégies économiques, et ce en toute liberté tout en assumant
leurs choix. Jusqu'à présent, les prêts du FMI ont été « nuisibles et visaient à maintenir au pouvoir les cercles en
place alors qu'on les savait corrompus ». Il est donc plus que temps de modifier le mode de gouvernement au
sein des IFI (représentation, vote) et d'y imposer la transparence.
La question du domaine d'influence du FMI, très sceptique vis-à-vis des procédures démocratiques dans
les pays en voie de développement est également primordiale. Le FMI doit se limiter à la gestion des crises et ne
pas se consacrer au développement, ni aux économies en transition. En outre, il doit être dessaisi de la collecte
des statistiques économiques et ne pas être le seul organisme à assumer une fonction de surveillance des
économies.
Quelques principes afin d'améliorer le système financier international :
- reconnaître les dangers de la libéralisation des marchés des capitaux,
- améliorer la réglementation bancaire,
- réformer les faillites et recourir aux gels, et moins compter sur les opérations de sauvetage,
- améliorer la gestion du risque, les filets de sécurité et la réaction aux crises,
- réformer l'aide au développement en même temps que la Banque mondiale,
- équilibrer l'ordre du jour des négociations commerciales,
- repenser le droit sur la propriété intellectuelle,
- réaffirmer le rôle crucial de l'Etat dans certains secteurs (renationalisations possibles),
- redéfinir l'action collective (biens publics mondiaux).
Tous ces chantiers sont indispensables pour une mondialisation à visage humain. La stratégie de réforme
doit avancer sur plusieurs plans : transformation de l'ordre économique international (taxation des capitaux, etc.)
et surtout incitation aux réformes dans chaque pays (démantèlement des barrières commerciales dans les pays
riches par exemple).
Ceci ne peut se faire qu'avec l'objectif d'une croissance durable, équitable et démocratique. C'est la raison
d'être du développement. Celui-ci n'est pas seulement une question de ressources et de capitaux mais une
transformation de la société. « Si nous voulons répondre aux inquiétudes légitimes des mécontentements de la
mondialisation, la mettre au service des milliards de personnes pour lesquelles elle a échoué et lui donner un
visage humain, élevons la voix, parlons haut ! ».

106
333 – Les théories de l’échange international
Les théories de l’échange international1 apparaissent comme le constat de l’existence
des frontières, d’un monde « post-westphalien2 », mais aussi, paradoxalement, d’un monde
dans lequel les Etats ne s’enferment pas totalement à l’intérieur de leurs frontières, ne vivent
pas en autarcie, mais échangent entre eux et ont donc tendance à spécialiser leur production, à
instaurer une « division internationale du travail ». Elles peuvent être réparties en au moins
deux groupes : les technologiques et les factorielles, selon que l’explication des flux de
marchandises s’appuie sur une différence entre techniques utilisées ou une différence entre
dotations de facteurs. Bien sûr rien n’interdit qu’une réconciliation soit tentée.

3331 – Les théories technologiques (et néo-technologiques)


C’est à Adam Smith que l’on at tribue la première théorisation de l’échange
international : la théorie de l’avantage absolu. Ce n’est que la transposition au niveau des
Etats-nations des raisonnements que l’on peut faire pour des agents économiques individuels.
Ces derniers pratiquent entre eux la division du travail, parce qu’il n’est pas raisonnable
« d’essayer de faire chez soi la chose qui (…) coûtera moins à acheter qu’à produire ». Ainsi
chaque pays spécialisera sa production en choisissant les produits pour lesquels il dispose
d’un avantage absolu, c’est-à-dire pour lesquels sont coût de production unitaire est inférieur
à celui de ses concurrents. Certes la technologie ne suffit pas à expliquer tous les avantages
absolus, car les données naturelles peuvent beaucoup peser sur certaines capacités de
production.
C’est avec l’excédent de cette production particulière sur ses propres besoins, qu’il
pourra payer les marchandises qu’il laissera produire à ceux qui sont plus efficaces que lui-
même. Collectivement cette spécialisation est plus efficiente qu’était le régime d’autarcie et
c’est ce constat qui conduit à remettre en cause les principes nationalistes, au profit du libre
échange.
La question se pose évidemment pour des pays qui n’auraient aucun avantage absolu, ni
naturel (matières premières), ni culturel (technologie)

1
Voir par exemple Slim, A., El Alaoui, F., Précis d’économie internationale, Ellipses, Paris, 2006.
2
Le traité de Westphalie (1659) a consacré l’Etat-nation comme acteur des relations internationales.

107
334 – La monnaie et l’échange international
Tout ce qui a été dit sur les fonctions et les formes de la monnaie dans ce qui précède,
peut être transposé au cas où les échanges n’ont plus lieu à l’intérieur d’une seule économie
nationale, mais entre des économies différentes. Toutefois le raisonnement va buter sur le fait
qu’une monnaie n’est un instrument universel d’étalonnage ou d’intermédiation des échanges
qu’à l’intérieur d’un ressort étatique donné : on retrouve là l’idée que la monnaie est un des
symboles de la souveraineté nationale. Il n’est que deux manières d’en sortir : créer (ou plutôt
laisser se créer) un système permettant d’échanger les monnaies nationales entre elles ; définir
une monnaie internationale commune à un ensemble d’Etats (une variante étant de donner
cours légal à chaque monnaie dans toute la zone, avec des taux de conversion bilatéraux fixés
de manière intangible).

3341 - Le change
On peut le définir comme suit :
Echange de deux créances libellées dans des étalons monétaires différents ; ce sont de
telles créances que l'on appelle devises ; les monnaies elles-mêmes n'en sont qu'un exemple.
Le taux de change est alors le prix de cette transaction. C’est un prix relatif d’une monnaie
dans une autre. Il connaît deux modalités : au comptant et à terme.
Le taux au comptant est celui qui concerne les opérations de change au comptant : il est
négocié chaque jour pour des livraisons immédiates. Le taux à terme est négocié aussi chaque
jour mais pour des livraisons à un terme donné (1 mois, 3 mois...). Il se déduit du taux au
comptant en ajoutant un report lorsque le marché anticipe une hausse du taux au comptant
pour le terme considéré, ou en déduisant un déport lorsqu'il anticipe une baisse. Ainsi, le 3
mars 2003 à 11h48, dans l’attente d’une guerre avec l’Irak, le taux de change du dollar offert
entre banques en euro enregistrait des reports par rapport au taux au comptant (0,9025
EUR/USD) sur toute la gamme des termes (source www.ozforex.com).

TAUX DE CHANGE A TERME EUR/USD

0,916

0,914

0,912

0,91

0,908
R
EU

0,906

0,904

0,902

0,9
1 2 3 6 12 24
LE 11/03/03 - TERMES EN MOIS

108
L’intérêt du change à terme est évidemment d’offrir un taux de change certain pour une
date future. Il réduit donc le risque de change pour chacun des opérateurs. Il ne le supprime
pas complètement. Si par exemple un exportateur qui sera payé en devises étrangères au
moment prévu par un contrat de vente, vend à terme les devises en question, il s’expose à un
« retournement du terme » en cas de non paiement par son débiteur. Pour payer ce qui est
devenu pour lui une dette, il devra se procurer les devises au comptant le jour de l’échéance,
avec risque de les payer plus cher que ce que prévoit le contrat de change à terme : il
supportera alors la différence. C’est donc un risque complexe, puisqu’il dépend à la fois de la
bonne foi du co-contractant et de la variabilité du taux de change.

A - Déterminants du taux de change


Le niveau atteint à un instant donné par le taux de change dépend de plusieurs facteurs.
La décision de demander ou d’offrir une devise contre une autre résulte de trois objectifs
distincts : acquérir un bien ou un service, acquérir un titre de capital, ou simplement disposer
de liquidités libellées dans d’autres étalons monétaires. Quel que soit l’objectif il passe par un
arbitrage entre les marchés concernés, qui nécessairement implique le marché des changes au
passage. On distingue donc trois types d’arbitrages possibles, selon qu’ils opposent des
marchés des biens et services entre eux, des marchés des capitaux ou directement des marchés
des changes.

* Arbitrage entre marchés des changes conduisant à la parité des taux de change.
Un arbitrage se produit par exemple lorsqu’une différence apparaît entre les cotes d’une
même monnaie exprimées en une autre. Par exemple, le 10 octobre à 11h12, une banque
française veut acheter du dollar contre euro. A Paris elle peut obtenir le dollar à 1,1422 euros,
alors qu’elle l’a à 1,1419 à New York (on ignorera les frais et commissions). Il est donc
naturel qu’elle achète ses dollars à New York plutôt qu’à Paris. D’autres banques, qui
n’avaient pas besoin de dollars, vont faire de même avec l’intention de revendre aussitôt à
Paris. Le résultat c’est que la demande de dollars contre euros augmente à New York et
diminue à Paris, l’offre évoluant en sens inverse. Dans ces conditions les deux cotes vont
revenir à parité, par exemple 1 USD = 1,1420 EUR à Paris et à New York, et ce dès 11h13 ou
11h14 puisque les opérations d’achat et vente sont instantanées grâce à l’informatique.
Le même type d’arbitrage peut se faire entre trois places, une troisième monnaie servant
d’intermédiaire à l’échange initial.

* Arbitrage entre marchés des biens et services conduisant à la parité des pouvoirs
d'achat
Ici l’arbitrage porte sur des achats de marchandises possibles sur deux marchés
nationaux distincts. Il est fondé sur une comparaison entre les prix respectifs des deux
marchés, via le taux de change. Ainsi une voiture 7CV, à performances normalisées, vaut par
exemple le 10 octobre, 12736 euros en France et 10800 x 1,1310 = 12214 EUR, Aux Etats
Unis. Si l’on néglige les frais, il vaut mieux acheter aux Etats Unis, ce qui implique d’abord
d’acheter des USD contre des EUR. Cette augmentation de la demande d’USD va faire que le
taux de change de l’USD en EUR va augmenter. Et il augmentera tant que le prix de la voiture
américaine n’atteindra pas 12736 EUR. Lorsque ce prix sera atteint, l’USD sera à 1,1793. Il
est en effet peu probable que les prix des automobiles en USD varient assez vite chez le
producteur, pour empêcher la variation du taux de change.
Plus généralement le taux se fixe au niveau qui égalise les prix d'un même « panier de
marché » dans les deux économies (A et B) : on dira alors qu’il y a parité des pouvoirs
d’achat pour chaque monnaie dans les deux pays concernés. Il en résulte que le pays qui a le

109
plus d'inflation, donc dont les prix augmentent le plus vite, voit sa monnaie baisser par rapport
à l'autre dans la proportion égale à la différence des taux d'inflation. En effet si Pa et Pb sont
les prix respectifs du panier de marché de référence en A et B, on aura à l’équilibre :
Pa = TC x Pb et TC = Pa / Pb
soit encore
dTC / TC = d(Pa/Pb) / (Pa/Pb)= dPa / Pa - dPb / Pb

TAUX DE CHANGE OBSERVE ET SELON LA PARITE DES


POUVOIRS D'ACHAT (TH)

3,6
3,4
3,2
3
2,8
F/DM
2,6
2,4 F/DM TH
2,2
2
81

82

83

84

85

86

87

89

90

91

92

93

94
* Arbitrage entre marchés des capitaux et parité des taux de rendement
Sur les marchés de capitaux, c’est le taux de rendement des placements qui est
l’indicateur. Puisqu’il s’agit de placer son argent, on le placera sur le marché des capitaux où
le taux de rendement apparaît le plus élevé, compte tenu des opérations de change. Or deux
opérations sont nécessaires : une au comptant aujourd’hui (par exemple euro contre dollar),
une à terme, de sens inverse, pour le jour où le placement arrive à échéance (donc dollar
contre euro à 3 mois par exemple) :
capital en euro (t+1) = capital en euro (t) * USD/EURc * (1+i-usd) * EUR/USDt ,
où USD/EURc est le taux de change au comptant, EUR/USDt l’inverse du taux à terme et i-
usd le taux d’intérêt des placements en dollars.
Supposons que 1 euro = 1 dollar au comptant et que 1 euro = 0,95 dollars à trois mois ;
supposons encore que le taux d’intérêt à trois mois est de 1% à Francfort et 1,5% à New York.
Dans ce cas 1000 euros placés à Francfort rapporteraient 1010 euros au bout de trois mois,
tandis qu’ils rapporteraient 1068 euros en passant par New York (1000 euros donnent 1000
dollars au comptant, soit 1015 dollars au bout de trois mois, qui s’échangent à terme dès
aujourd’hui contre 1068 euros (1015/0,95). Dans ce cas l’arbitrage conduit à placer l’argent à
New York, ce qui fait augmenter la demande de dollars au comptant, mais aussi la demande
d’euros à terme : le dollar haussera donc au comptant et baissera à terme. Avec par exemple 1
euro = 0,995 dollars au comptant et 1 euro = 1 dollar à terme, les 1000 euros placés à 1% à
Francfort rapportent dorénavant autant que placés à 1,5% à New York, soit 1010 euros dans
les deux cas. Les taux de change au comptant et à terme ont donc atteint le niveau de la parité
des taux de rendement.

B – Régimes de change et de taux de change

110
Le change connaît plusieurs régimes en fonction du degré de contrôle que les Etats
peuvent vouloir imposer au taux de change et par là au marché des changes :
- la convertibilité, ou convertibilité intégrale. Dans ce cas tout détenteur de cette
monnaie peut la changer contre toute autre monnaie convertible, sur un marché libre. C’est le
régime instauré en France depuis 1987. En l’absence de tout contrôle le taux de change est
naturellement flottant ou flexible. Il en résulte le plus souvent une assez forte variabilité des
taux, donc une incertitude sur le prix des biens et services ou les rendements financiers. La
raison invoquée pour l’acceptation d’une telle situation est que le marché serait le mieux à
même d’évaluer les performances respectives des diverses économies, et de produire
immédiatement une estimation adaptée de la valeur externe de la monnaie nationale : il est
réputé efficient, car tous les opérateurs sont supposés disposer de toute l’information possible.
Cet affichage de prix flexible est supposé guider les décisions des agents économiques, de
telle sorte que les variations spontanées des taux de change soient automatiquement
combattues par des arbitrages : une monnaie qui baisse attire les acquéreurs sur le marché des
biens et services correspondants, ce qui devrait provoquer une revalorisation de cette
monnaie.
Il reste que malgré un abandon officiel de la fixité du change, comme c’est le cas dans
le système monétaire international depuis 1973, il est toujours possible d’intervenir de
manière occulte et concertée pour empêcher des variations trop violentes des taux de change.
C’est ce qu’avaient plus ou moins réalisé les accords dits « du Plazza » (22 septembre 1985)
et « du Louvre » (22 février 1987), entre les Etats Unis, le Japon, la France, l’Allemagne, la
Grande Bretagne, puis le Canada.

- la convertibilité avec taux de change fixe


L’adoption de ce système résulte du constat que l’instabilité des taux est plutôt
mauvaise pour le commerce international, malgré l’existence d’instruments de couverture
contre le risque de change. En outre il s’avère que dans nombre de cas les stabilisateurs
automatiques ne jouent pas : une baisse du taux renchérit les prix à l’importation et conduit
donc à importer de l’inflation, bien avant que l’on ait pu (si c’est possible) substituer une
production domestique à l’importation. Il se produit alors un cercle vicieux (respectivement
vertueux), la dévalorisation externe de la monnaie provoquant la dévalorisation interne qui, à
son tour, se répercute en dévalorisation externe.
Dans un régime de taux fixe les Etats concernés déterminent des taux officiels ou
parités par un accord entre deux ou plusieurs Etats, comme au sein du système monétaire
européen. Chaque Etat s’engage alors à maintenir son taux de change de marché au niveau du
taux officiel (à une marge de fluctuation près : +/-1% dans le système monétaire international
de 1945, +/- 2,25% après les accords de décembre 1971... +/-15% dans le système européen
de 1995 en cas de crise). Ceci suppose que l'Etat soit en mesure d'assurer l’équilibre de son
marché des changes au niveau de prix choisi. Il doit donc pouvoir intervenir sur ce marché
comme offreur ou demandeur de sa propre monnaie pour compenser les déséquilibres
spontanés. Il le fait par l'intermédiaire d'un organisme spécialisé qui centralise toutes les
réserves nationales de change. En France, au temps du franc, cet organisme était appelé
« Fonds de stabilisation des changes » (FSC) et c’est cette appellation commode que l’on
conservera pour la suite des raisonnements.
Le taux devient adaptable lorsqu’il est admis que l’on pourra périodiquement modifier
les parités, par des dévaluations et des réévaluations1, pour tenir compte d’évolutions

1
Les dévaluations et réévaluations, autrement appelées manipulations monétaires, sont des décisions officielles
conduisant à des modifications des parités des monnaies en change fixe ou adaptable. Il faut utiliser
“dévalorisation” et “revalorisation” lorsque la hausse ou la baisse d’un taux de change ne résulte que du
fonctionnement du marché, en l’absence de toute modification des taux officiels.

111
divergentes des économies concernées. Il faut remarquer qu’en fait il en est de même dans le
cas du change fixe, à ceci près qu’alors les manipulations monétaires ont lieu sans
concertation et le plus souvent sous la pression de la spéculation.

- la convertibilité limitée, ou contrôle des changes. Les limites peuvent concerner


différemment chaque type d’agents. Ainsi dans beaucoup de cas les résidents se voient
imposer des limites très strictes (seulement des opérations en billets et pour des sommes
limitées par période ; obligation de rapatrier immédiatement le produit d’une vente), alors que
les non résidents peuvent changer librement. Le contrôle peut concerner aussi certaines
opérations : c’est le cas traditionnellement des mouvements de capitaux. De telles limites ont
pour objet de réduire les possibilités de spéculations contre la monnaie en question.

- l’inconvertibilité. Ici les opérations de change sont impossibles, sauf lorsqu'elles sont
réalisées dans le cadre public et sur la base d’opérations de troc entre pays. C’est ainsi que le
COMECON a fonctionné jusqu’à sa disparition. Ceci permet théoriquement d’interdire toute
possibilité de spéculation. Mais en l’absence de marché libre, il se crée le plus souvent un
marché noir.

3342 - Les monnaies internationales


Cette seconde formule suppose qu’un ensemble d’Etats acceptent une monnaie donnée
comme monnaie commune dans leurs échanges réciproques. Par définition, au temps de
l’étalon or, ce métal constituait spontanément une telle monnaie commune, puisque l’or
n’était la monnaie d’aucun Etat en particulier, et de tous simultanément.

A - Types
Dans l’hypothèse où un Etat domine les autres par son économie ou par sa puissance
militaire, il peut imposer sa propre monnaie comme monnaie commune. C’est ainsi que le
système monétaire international créé par les accords de Bretton Woods du 22 juillet 1944 ont
consacré le dollar des Etats Unis (USD) comme monnaie internationale commune à tous les
Etats en dehors de l’orbite soviétiques - l’impossibilité de rétablir l’or dans ce rôle y a
beaucoup contribué.
De même on observe que nombre de pays ont tendance à lier leur monnaie à une
monnaie étrangère pour tenter de garantir une certaine stabilité monétaire chez eux. Il suffit
pour s’en rendre compte de consulter www. pacific.commerce.ubc.ca qui donne la liste de
toutes les devises du monde avec leur régime de change. On constate ainsi que le dollar,
l’euro (éventuellement à travers les anciennes monnaies composantes : mark ou franc) et
d’autres monnaies sont utilisées comme référence pour des monnaies nationales, mais aussi en
concurrence avec la monnaie nationale, dans les usages courants.
Mais une monnaie internationale peut aussi être le fruit d’une coopération au sein d’un
groupe de pays, qui ont intérêt à disposer d’une monnaie commune. C’est ainsi que le Fonds
monétaire international a créé les Droits de tirage spéciaux ou DTS en mai 1968, comme
substitut de monnaie internationale, à un moment où le système monétaire international n’était
pas capable de fournir assez de liquidités pour soutenir les échanges. Ce substitut de monnaie
a d’abord été défini par référence à l’or, puis comme une monnaie panier, c’est-à-dire dont la
valeur résulte de la combinaison des taux de change des monnaies composantes. C’est la
même solution qui sera choisie par la Communauté économique européenne pour créer l’écu,
puis l’euro.

112
C’est la fin du système monétaire de Bretton Woods, provoquée par la décision du
président Nixon de rompre le lien entre le dollar et l’or le 15 août 1971, qui conduisit les pays
de la Communauté européenne à décider de créer, le 10 avril 1972, un système de change
particulier entre leurs monnaies - le serpent européen - qui devait conduire le 5 décembre
1978 à la création d’un Système monétaire européen, construit autour d’un embryon de
monnaie commune : l’ECU pour European currency unit ou encore Unité de compte
européenne. Sur le plan monétaire l’ECU est défini comme une monnaie panier, il réunit des
quantités de toutes les monnaies participant au mécanisme, selon des proportions qui
dépendent de leur place dans les échanges intra-communautaires.

L’ECU COMPOSITION
“ PANIER ” 1990
BFR belg. 3,301
DKR dan. 0,1976
DEM all. 0,6242
FRF franç. 1,332
IRP irl. 0,008552
LIT ital. 151,8
HFL néerl. 0,2198
ESP espa. 6,885
GDR grec. 1,44
ESC port. 1,393
GBP brit. 0,08784
ECU 1

L’écu était d’abord défini comme un étalon puisque il servait d’unité de compte dans le
cadre du fonctionnement des institutions européennes, et tout particulièrement dans le cadre
de la PAC, politique agricole commune : les prix d’intervention sur les marchés agricoles
étaient libellés en écus, puis convertis en monnaies nationales pour la mise en œuvre des
décisions.
Il était aussi un instrument de paiement inter-étatique. En effet chaque Etat était doté
d'écus, par le Fonds européen de coopération monétaire (FECOM), contre un dépôt virtuel de
20% de ses réserves en or et dollars1 : ainsi le FECOM et les autres institutions européennes
libellaient leurs interventions en écus, et c'est encore en écus que les Etats règlaient leurs
dettes entre eux (au moins à hauteur de 50% de la valeur de la dette).
L’écu était enfin une monnaie de réserve pour les Etats puisqu’il se substituait aux
réserves traditionnelles dans le bilan du fonds de stabilisation des changes.
Ainsi cet écu, qui n’était au début des années 1980, qu’un instrument inter-étatique,
avait bien les trois attributs d'une monnaie véritable. Mais c'est l'usage privé surtout, usage qui
se développera tout au long de ces mêmes années, qui le consacrera comme tel. Cet usage
privé s’est organisé spontanément. Ainsi certaines entreprises ont pris l’habitude de faire
libeller les factures entre leurs filiales européennes en écus pour simplifier leurs opérations
(Saint Gobain). De même certaines banques (au Luxembourg d’abord) ont créé des comptes
d’épargne libellés en écus pour réduire le risque de change, considérant que l’écu serait plus
stable en moyenne que chacune des monnaies (voir plus loin le taux de change).

La décision d’opter pour une monnaie internationale commune, qui peut devenir unique
si les monnaies nationales disparaissent (cas de l’Union économique et monétaire de l’Europe

1
Ce dépôt est virtuel au sens où l’on procède en fait à un crédit croisé or ou dollars contre ECU pour seulement
trois mois renouvelables, de manière que les Etats ne perdent jamais le contrôle de leurs réserves : il n’est pas
encore question en 1978 d’abandonner à l’Europe l’apparence de sa souveraineté monétaire.

113
après le 1 janvier 1999) résulte naturellement de la volonté de supprimer le coût des
opérations de change.

B - Instabilité des taux de change et construction européenne.


Le traité de Rome (25 mars 1957) ne consacrait que six articles (103 à 108) aux
questions monétaires et de relations entre balances commerciales, et ne créait qu'une seule
institution dans ce domaine : le Comité monétaire consultatif (105). Le dispositif de ces
articles se limitait à un certain nombre de voeux : « la politique économique de court terme
devrait être considérée comme d'intérêt commun » (103) ; « ... assurer la confiance dans la
valeur de la monnaie » (104) ; « les taux de change sont un problème d'intérêt commun »
(107) ; « possibilité d'aide mutuelle en cas de grave problème de balances des paiements ».
Une telle carence avait justement pour justification, l'existence, en 1957, d'un système
monétaire international satisfaisant. Le SMI offrait en effet un système de taux de change
fixes, appuyés sur la monnaie véhiculaire internationale (USD), et sur un embryon de banque
centrale internationale (le Fonds monétaire international, FMI). Ce système avait assuré la
forte croissance des années 40-60 en permettant une expansion sans précédent des échanges
internationaux.
Mais l'effondrement de ce système au cours de la seconde moitié des années soixante va
poser de graves problèmes à une communauté européenne ayant déjà bien avancé son
intégration.
Dans un premier temps c'est la cohérence de l'ensemble européen qui est remise en
cause : réévaluations du mark et du florin de 5% les 6 et 7 mars 9161, à la suite
d'accumulation d'excédents, sans que les autres soient consultés ; crise de la balance des
paiements italienne qui provoque un exode des capitaux spéculatifs vers la RFA, sans que
l'Europe y puisse rien, de sorte que ce sont les Etats Unis et le FMI qui aideront l'Italie ;
dévaluation de la livre sterling de 14,3% le 18 novembre 1967 ; dévaluation du franc français
de 11,1% le 8 août 1969, sans consultation et jugée excessive par les autres européens ;
réévaluation du mark le 24 octobre 1969, sans consultation...
Ainsi il apparaît que le concept d'union monétaire créé par le traité de Rome n'est
qu'illusoire. Aussi de nombreux travaux sont-ils menés au sein des instances européennes
pour faire progresser le dossier :
- en 1962 le Comité monétaire souligne à la fois la sensibilité des taux de change internes de
la communauté face aux pressions extérieures (USD) et l'absence de politique de protection ;
- la même année, la Commission présente un « programme d'action pour la deuxième étape du
marché commun », avec la création de trois comités : gouverneurs des banques centrales,
politique budgétaire, politiques économiques à moyen terme, et l'instauration d'un système de
consultations préalables pour les décisions monétaires importantes, un système d'assistance
mutuelle en cas de crise monétaire et une libéralisation des mouvements de capitaux ;
- 1964 : le Conseil des ministres de la CEE adopte l'idée des trois comités et l'obligation de
consultations préalables en cas de changements de parités ;
- 1964 : mise en place de la Politique agricole commune et surtout décision de fixer des prix
communs en Unités de compte européennes UCE, unités qui existaient nominalement depuis
1962 et qui étaient définies par un poids d'or : les prix placés sous le régime de l'intervention
(céréales, porc...) sont fixés chaque année en UCE et traduits ensuite en monnaies nationales,
de sorte que toute manipulation monétaire va affecter les prix agricoles nationaux, en « bien »
pour une dévaluation (augmentation du revenu agricole mais tensions inflationnistes) et
inversement ;

114
- 1968 : plan Werner proposant la fixation irrévocable des taux de change internes à la CEE ;
plan Barre proposant un mécanisme de soutien à court terme des taux de change (crédits
croisés au profit de la monnaie attaquée), un accord préalable pour les changements de
parités, la possibilité de supprimer les marges de fluctuation.

C'est alors que vont se produire les plus fortes secousses monétaires pour la
communauté. Déjà la dévaluation du FRF en 1969 a été la source d'un contentieux, car la
France se refusait à augmenter ses prix agricoles par peur de tensions inflationnistes. Dans ces
conditions les agriculteurs français bénéficiaient d'un avantage de change, au détriment de
leurs concurrents de la CEE. C'est pourquoi la France a proposé la mise en place du procédé
des Montants compensatoires monétaires ou MCM. Il consistait en une taxation en cas de
dévaluation ou une subvention en cas de réévaluation, des produits agricoles au moment du
passage de la frontière, de manière à effacer, en ce qui les concerne, les conséquences d'une
modification des taux de change. Cette solution s’est néanmoins avérée perverse parce que les
produits industriels ne faisaient pas l'objet de MCM, de sorte que leurs prix subissaient
intégralement la manipulation monétaire. Ainsi ceux qui étaient importés au profit des
agriculteurs dont la monnaie avait été dévaluée devenaient plus chers, ce qui réduisait
indirectement la compétitivité de ces agriculteurs (et inversement en cas de réévaluation).
En tout cas l’apparition de cette formule montre déjà que la construction d'un marché
très intégré n'apparaissait pas aux autorités monétaires de l’époque, compatible avec une trop
grande variabilité des taux de change.
Viendra ensuite la dévaluation du Dollar américain en décembre 1971 (20%) et
l'élargissement des marges de fluctuation des monnaies autour de ce dollar, de 1% à 2,25%.
Les choses seront d'ailleurs encore aggravées lorsque le dollar rompra définitivement avec l'or
en 1973, ce qui signifie en fait l'abandon des parités monétaires fixes. La CEE est donc
soumise à une pression très forte sur ses taux internes. Déjà avec l'élargissement des parités
par rapport au dollar, les fluctuations de change entre deux monnaies européennes qui étaient
au maximum de 4% vont passer à 9%, ce qui est jugé intolérable par rapport à l'idée de taux
de change fixes.

APRES L'AUGMENTATION DES MARGES DE FLUCTUATION (1971)

DEM
2,25%
1%
PARITE USD
1%
2,25%
FRF

T1 T2

De T1 à T2, le DEM a gagné 4,5% par rapport à l’USD, tandis que le FRF a perdu 4,5%, de sorte
qu'entre le DEM et le FRF, la variation de valeur est bien de 9%. C'était respectivement +2%, -2% et 4%
dans le système précédent.

Ces deux incidents successifs posaient donc la question de savoir si l'Europe


économique pouvait se construire avec un parfait libéralisme monétaire, donc avec des
changes flottants, ou bien s'il fallait instaurer de véritables changes fixes avec marges les plus
réduites possibles. En faveur de la première idée, l'argument principal est celui de l'arbitrage
neutre du marché. Une monnaie prendra à tout instant la valeur que les performances de son

115
économie nationale imposent. Cette valeur favorisera les exportations d'un pays souffrant d'un
déficit de sa balance des paiements et gênera celles d'un pays excédentaire, ce qui entraînera
un retour à l'équilibre.
Mais le rééquilibrage spontané peut en fait buter sur des phénomènes de « cercles
vicieux » ou « vertueux ». Un pays dont la monnaie se valorise voit les prix de ses
importations baisser, alors que c'est l'inverse pour un pays soumis à une dévalorisation. Le
premier pourra lutter efficacement contre l'inflation, donc améliorer sa compétitivité, là où
l'autre verra son inflation s'accroître et sa compétitivité se restreindre. Il y aura donc tendance
continue à la hausse de la valeur de la première monnaie et à la baisse de celle de la seconde.
En 1972 c'est le second choix qui a été formulé par les pays de la CEE, sous la forme du
Serpent monétaire, et de nouveau en 1978 sous la forme du Système monétaire européen. Ils
ont encore renforcé cet engagement par l'Acte unique européen (1985) et par les traités de
Maastricht (1992) et d’Amsterdam (1997).
Le serpent monétaire a consisté en un refus de l'élargissement des marges décidé à
Washington en 1971, puis du flottement des monnaies imposé par l'abandon de la référence à
l'or par les Etats Unis en 1973. Il s'agissait au départ de fixer entre monnaies européennes une
marge de fluctuation correspondant à celle décidée pour la parité avec le dollar, soit 2,25%.
Ainsi aucune monnaie ne devait s'écarter de plus de 2,25% de l'ensemble des autres, ou de la
plus extrême d'entre elles. Le serpent européen était dans un « tunnel » tant qu'existait des
marges par rapport au dollar. Il en est sorti lorsque le dollar s'est mis à flotter.

LE SERPENT DANS LE TUNNEL PUIS HORS

-< 2,25%
2,25%
SERPENT

PARITE USD

2,25%

1972 1973

Evolution potentielle du serpent européen en fonction des règles successives du système monétaire international
: changes fixes à marges élargies en 1972, abandon des changes fixes en 1973.

Le système du serpent bénéficiait en outre des formules proposées par le plan Barre,
c'est-à-dire un soutien à court et moyen termes par crédits croisés de devises (swaps) entre
banques centrales. Ceci devait permettre à la banque dont la monnaie serait offerte par les
spéculateurs, de la défendre en augmentant la demande à due proportion. L'autre avantage de
ces crédits croisés était politique : permettre que la CEE défende ses monnaies sans utiliser le
dollar (sauf en 1972, lorsqu'il s'agissait en outre d'empêcher le serpent de sortir du tunnel).
L'instauration du système monétaire européen en 1978 est à la fois le constat d'échec du
serpent, et la confirmation du choix d'intégration qui avait été à son origine. Constat d'échec,
au sens où les Européens ont été incapables d'adopter les disciplines qu'imposait l'objectif de
fixité des changes. Ainsi la livre est sortie du serpent en juin 1972, la lire en février 1973, le
franc en janvier 1974 puis, après un retour en mai 1975, à nouveau en mars 1976, de sorte que
le système est devenu une petite zone mark (avec les francs luxembourgeois et belge, le florin
néerlandais et la couronne danoise). Néanmoins les raisons qui avaient présidé à l'invention

116
du serpent demeuraient, et la technique elle-même n'étant pas en cause, elle a été réutilisée
comme base du nouveau système.
Il s'agit donc bien d'un nouveau serpent, mais beaucoup plus élaboré. Il tourne le dos au
dollar en utilisant un étalon purement européen, l’ECU, qui est une monnaie panier (voir plus
haut). Son le taux de change en une monnaie quelconque est calculé en faisant la moyenne
pondérée des taux de change en cette monnaie de toutes les monnaies du panier. Les
pondérations sont les poids respectifs des monnaies composantes dans le panier.

CALCUL DE LA VALEUR DE L’ECU EN FRF


COMPOSITION COTES EN FRF VALEURS FRF
1 2 .1x2
BFR 3,301 0,1626 0,53674
Belgique
DKR 0,1976 0,87925 0,17374
Danemark.
DEM 0,6242 3,35386 2,09348
Allemagne.
FRF 1,332 1 1,33200
France.
IRP 0,008552 8,9848 0,07684
Irlande.
LIT 151,8 0,00448 0,68006
Italie.
HFL 0,2198 2,9765 0,65423
Pays-Bas.
ESP 6,885 0,05159 0,35520
Espagne.
GDR 1,44 0,03648 0,05253
Grèce.
ESC 1,393 0,03857 0,05373
Portugal.
GBP 0,08784 9,4107 0,82664
Grande Bret.
ECU EN 6,83519
FRF

Le SME instaure aussi un mécanisme de change et d'intervention. Chacune des


monnaies est rattachée à l'écu par un taux-pivot, qui n'est rien d'autre qu'une parité officielle, à
partir de laquelle vont s'établir les taux de change entre monnaies composantes. Ces taux de
change sont évidemment fixes, avec toujours les mêmes marges à 2,25% (jusqu'à 6% pour un
pays nouvellement entré). La première nouveauté c'est l'idée que les membres du serpent ainsi
constitué sont tenus d'intervenir sur les marchés, non plus seulement pour aider une monnaie
défaillante, mais pour empêcher le serpent d'éclater. Ceci signifie que l'anomalie réside dans
le fait de s'éloigner du groupe, aussi bien vers le haut que vers le bas, donc que l'obligation
d'intervention concerne les deux monnaies extrêmes du serpent. L'autre nouveauté c'est la
« présomption d'intervention », qui est le résultat d'un mpromis co entre les
« institutionnalistes » comme les Français qui voulaient une obligation, et les libéraux comme
les Allemands et Britanniques qui ne voulaient qu'une consultation. Les membres sont
« présumés » devoir intervenir, dès lors qu'une monnaie a déjà parcouru les trois quarts de sa
marge de fluctuation1 : alors le serpent fait résonner sa « sonnette ». L'intervention peut

1
En fait on raisonne sur la « divergence » entre le taux de change observé d'une monnaie et son taux-pivot tous
deux en écus. On mesure un « indicateur de divergence » qui est le rapport « écart de divergence » observée sur
« écart de divergence » maximal. Le « seuil de divergence » est atteint lorsque l'indicateur est à 0,75.

117
prendre la forme « diversifiée », c'est-à-dire en utilisant toutes les monnaies simultanément ;
elle peut être « interne » et impliquer une action sur les taux d'intérêt ; elle peut aller jusqu'à
une modification du cours-pivot s'il apparaît que l'ancien est devenu irréaliste ; enfin elle peut
réunir tous les instruments de la politique économique. En cas d'inaction le pays concerné est
« tenu de s'expliquer ». Ainsi la pression de l’opinion des autres membres du système semble
suffisante pour assurer le bon fonctionnement de celui-ci.
Enfin le SME est aussi un mécanisme de crédit, par le FECOM qui sert d'intermédiaire
entre banques centrales. Ces banques s'accordent mutuellement des facilités à très court terme
(45 jours au lieu de 30 dans le serpent) qui peuvent être portées à trois mois, mais aussi à
moyen terme, et le FECOM peut accorder des crédits d'aide au développement pour permettre
le comblement des retards de certains pays.

Le contenu du Traité d'Union économique et monétaire signé à Maastricht le 7 février


1992 est le fruit d'un rapport du comité des gouverneurs des Banques centrales de la
Communauté (présidé par M. Delors) en juin 1989 et des travaux de la conférence
intergouvernementale réunie de décembre 1990 à décembre 1991. La transition vers l'UEM
devait se faire en trois phases, dont la première a commencé le 1 juillet 1990 avec l'ouverture
des frontières financières.
Elle a permis d’une part la suppression de toutes les restrictions aux mouvements de
capitaux, de toute possibilité de financement monétaire direct des déficits publics, de tout
accès privilégié des collectivités publiques au financement (en dehors de mesures
prudentielles), et d’autre part la mise en place des programmes de convergence entre les
diverses économies (stabilité des prix, réduction des déficits publics...).
A partir de là a débuté une deuxième phase marquée par la création d'un Institut
monétaire européen, embryon de la future Banque centrale européenne. Cet IEM réunissait les
gouverneurs des Banques centrales, sous la présidence d'une personnalité extérieure nommée
pour trois ans par le Conseil1. Pendant cette phase, si ce n'était déjà fait, chaque Banque
centrale nationale devait être rendue indépendante. Au cours de cette période aussi une
coordination des politiques nationales était mise en place, selon certains principes :
vérification par le Conseil de la compatibilité des diverses politiques économiques ; respect
d'un ratio déficit budgétaire/PIB au plus égal à 3% ; respect d'un ratio dette publique/PIB au
plus égal à 60% ; en cas de non respect d'une de ces règles, respect d'un ratio déficit
public/investissements publics au plus égal à 1 (“ règle d'or ”).
La troisième phase se caractérisait par son « irréversibilité » : aucun Etat ne devait y
mettre obstacle, et une date butoir était prévue. Le démarrage de cette ultime période,
dépendait de la convergence effective des diverses économies : convergence des taux
d'inflation vers la moyenne des trois plus faible (au plus 1,5 points d'écart par rapport à cette
moyenne) ; pas de déficit budgétaire « excessif » ; respect des marges étroites de fluctuation
du SME (2,25%) sans dévaluation pendant au moins deux ans ; convergence des taux d'intérêt
à long terme (pas plus de 2 points au dessus de la moyenne des trois économies les moins
inflationnistes).
Le constat de convergence qui devait avoir lieu originellement le 31 décembre 1996 a
été finalement réalisé le 31 décembre 19982. L’UEM se définit par les critères suivants :
garantie d'une convertibilité totale et irréversible entre monnaies nationales ; libératio n
complète des mouvements de capitaux et intégration des marchés de capitaux ; fixation
définitive des parités, sans marges de fluctuation, ce qui conduit à la monnaie unique (union

1
C'est l'ancien directeur de la Banque des règlements internationaux (BRI), Alexandre Lamfalussy, spécialiste
universitaire des questions d'économie financière internationale qui a occupé ce poste.
2
Mais on sait aujourd’hui que certains pays, dont la Grèce, n’ont été agréés que grâce à une falsification de leurs
comptes.

118
monétaire) ; marché unique avec circulation libre pour les personnes, les biens et services, les
capitaux ; tendance vers la concurrence la plus libre politique commune d'ajustement
structurel et de développement régional (pour éviter les effets pervers de la concurrence et de
la mobilité) ; coordination des politiques économiques (union économique).
La mise en place du volet monétaire est passée par la création de la banque centrale
européenne (BCE), formant le Système européen de banques centrales (SEBC) avec les
banques centrales nationales. Ce SEBC se voit confier la mission prioritaire de maintien de la
stabilité des prix, donc de la conduite de la politique monétaire (devenue « indivisible »). Le
principe de fédéralisme conduit à ce que chaque gouverneur dispose d'une voix au sein du
conseil. Au niveau de l'exécution de la politique, le principe de subsidiarité conduit à confier
toutes les tâches qui peuvent l'être, aux banques centrales nationales.
Au moment de la mise en place de l'UEM, donc le 1 janvier 1999, les taux de
conversion des diverses monnaies en monnaie unique ont été définitivement fixés, et l'écu a
perdu sa qualité de monnaie-panier, pour devenir une monnaie de plein exercice sous le nom
d’euro, émis sous le contrôle de la Banque centrale européenne, par le Système européen de
banques centrales. Il se substitue dorénavant aux monnaies entrées dans l'UEM.
Les premières espèces ont été émises en 2002, après une période de transition de deux
ans, au cours de laquelle l’euro a cohabité avec les monnaies nationales liées dorénavant par
des taux irrémédiablement fixes : 1 EUR = 6,55957 FRF = 1,95583 DEM = 1936,27 LIT =
166,386 ESP = 200,482 PES = 13,5603 OSH = 0,78756 IRP = 2,20371 NFL = 40,3399 FRB
= 5,94573 FIM1

1
Les conventions internationales font désigner les devises par trois lettres représentant à la fois le nom de la
devise et celui du pays : FRF pour franc français, DEM pour deutsche mark...

119
TABLE DES MATIERES

1- INTRODUCTION............................................................................................................................ 1
11 – LA SCIENCE ECONOMIQUE ........................................................................................................... 1
12 - BESOINS, BIENS ET SERVICES ........................................................................................................ 1
13 - ANALYSE DU FONCTIONNEMENT DU SYSTEME ECONOMIQUE : LE CIRCUIT ...................................... 3
2 – UN CIRCUIT RESTREINT........................................................................................................... 5
21 – LES MENAGES : CONSOMMATION FINALE...................................................................................... 5
211 – Consommation finale : approche comptable......................................................................... 5
212 – Consommation finale : approche théorique ........................................................................ 10
22 – LES ENTREPRISES : PRODUCTION DE BIENS ET SERVICES .............................................................. 13
221 - Les facteurs de production.................................................................................................. 14
2211 - Le travail .................................................................................................................................... 14
2212 - Le capital.................................................................................................................................... 20
2213 - La terre....................................................................................................................................... 21
222 - Analyse de la production .................................................................................................... 22
2221 - Unités de production ................................................................................................................... 22
2222 - Fonction de production................................................................................................................ 23
23 - LA PLACE DES MARCHES DANS LE CIRCUIT .................................................................................. 29
231 – La demande, l’offre et la formation des prix ....................................................................... 29
2311 - La demande ................................................................................................................................ 29
2312 – L’offre ....................................................................................................................................... 30
2313 – La rencontre entre offre et demande ............................................................................................ 30
232 – La répartition primaire du revenu...................................................................................... 32
24 – MONETARISATION DU CIRCUIT .................................................................................................. 36
241 – Les fonctions de la monnaie............................................................................................... 36
2411 Fonction d'étalonnage des valeurs .................................................................................................. 36
2412- Fonction d'intermédiation des échanges ....................................................................................... 37
2413- Fonction de réserve de valeur ...................................................................................................... 37
242 – Les formes de la monnaie................................................................................................... 38
2421 - Les pièces................................................................................................................................... 38
2422 - Les billets ................................................................................................................................... 43
2423 - La monnaie scripturale................................................................................................................ 44
2424 - La monnaie électronique ............................................................................................................ 46
3 – UN CIRCUIT ELARGI................................................................................................................ 48
31 - LES ENTREPRISES FINANCIERES ET LE FINANCEMENT ................................................................... 48
311 – Le problème du financement et ses solutions « directes ».................................................... 48
3111 - La finance informelle ou de gré à gré........................................................................................... 49
3112 - Les marchés d’instruments financiers........................................................................................... 51
312 – L’intermédiation financière ............................................................................................... 56
3121 – « Les dépôts font les crédits » ..................................................................................................... 56
3122 – « Les crédits font les dépôts » ..................................................................................................... 58
3123 – L’organisation du secteur bancaire français .................................................................... 60
APPENDICE .............................................................................................................................. 63
32 – LES ADMINISTRATIONS PUBLIQUES ET LA PRODUCTION NON MARCHANDE ................................... 65
321 Politique monétaire .............................................................................................................. 68
3211 – Fondements doctrinaux............................................................................................................... 68
3212 – Les techniques de la politique monétaire ..................................................................................... 75
A - Instruments d'observation : la quantité de monnaie et l’endettement.............................................. 78
B - Instruments d'action .................................................................................................................... 80
APPENDICE .............................................................................................................................. 85
322 - Politique budgétaire........................................................................................................... 88
3221 – Approche comptable................................................................................................................... 88
3212 – Approche théorique .................................................................................................................... 91
APPENDICE : la structure par termes des taux d’intérêt............................................................. 95
33 – LE RESTE DU MONDE ET LES RELATIONS INTERNATIONALES ....................................................... 97
331 – Approche comptable : la balance des paiements................................................................. 97
332 – Approche institutionnelle ................................................................................................... 98
3321 – Le Fonds monétaire international ................................................................................................ 98
A – Les missions du FMI.................................................................................................................. 98

120
B – Problèmes et projets de réforme ................................................................................................ 100
C – Fiche technique : les DTS......................................................................................................... 100
3322 – La Banque Mondiale ................................................................................................................ 102
3333 - L’Organisation mondiale du commerce...................................................................................... 103
333 – Les théories de l’échange international............................................................................ 107
3331 – Les théories technologiques (et néo-technologiques).................................................................. 107
334 – La monnaie et l’échange international ............................................................................. 108
3341 - Le change ................................................................................................................................. 108
A - Déterminants du taux de change ................................................................................................ 109
B – Régimes de change et de taux de change ................................................................................... 110
3342 - Les monnaies internationales..................................................................................................... 112
A - Types ....................................................................................................................................... 112
B - Instabilité des taux de change et construction européenne. .......................................................... 114

121

Você também pode gostar