La Dissertation de Science Économique [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

******ebook converter DEMO Watermarks*******

******ebook converter DEMO Watermarks*******

Graphisme de couverture : Pierre-André Gualino Illustration de couverture : © metamorworks / Fotolia.fr Mise en pages : Lumina Datamatics, Inc. 20 sujets rédigés et des bibliographies

complémentaires sont disponibles sur le site : https://www.dunod.com/EAN/9782100788828 © Armand Colin, 2016, Dunod, 2019

11, rue Paul Bert, 92240 Malakoff www.dunod.com ISBN 978-2-10-079751-6

******ebook converter DEMO Watermarks*******

Table des matières Compléments numériques : mode d’emploi Introduction

Partie 1 La dissertation de science économique : quelle méthode ? Chapitre 1

Les règles de la dissertation 1.

Les règles formelles

2.

Les règles informelles

2.1 Une dissertation avec ou sans titres apparents ? 2.2 Une dissertation fleuve ou… synthétique ? 2.3 Quelle précision dans les références théoriques et historiques ?

Chapitre 2

Du libellé du sujet à la problématique 1.

Identifier l’enjeu du sujet Quels enjeux pour les sujets…

2.

Cadrer le sujet

2.1 Le cadrage historique et géographique ******ebook converter DEMO Watermarks*******

2.2 Le cadrage du domaine de connaissances 2.3 Un exemple de cadrage de sujet

3.

Choisir et élaborer une problématique

3.1 Qu’est-ce qu’une problématique dans une dissertation de science économique ? 3.2 Un exemple de problématisation de sujet

Chapitre 3

De la construction du plan à la mobilisation des connaissances 1.

Élaborer le plan : le contenant de la démonstration

2.

Le plan détaillé et la mobilisation des connaissances : le contenu de la dissertation

2.1 Exemple de plan détaillé sur le sujet 2.2 Exemple de déroulement du plan détaillé

Chapitre 4

De la conclusion à l’introduction 1.

La rédaction de la conclusion Un exemple de rédaction de conclusion

2.

La rédaction de l’introduction Un exemple d’accroche sur le sujet…

Chapitre 5

La rédaction finale et le jour de l’épreuve

Partie 2 La dissertation de science économique en 14 sujets ******ebook converter DEMO Watermarks*******

Sujet 1

Peut-on parler de frontières de la firme ? 1.

Se préparer à la rédaction

1.1 L’enjeu du sujet 1.2 Le cadrage et les concepts clés 1.3 La construction de la problématique

2. Sujet 2

Rédiger le devoir : une proposition Le progrès technique nuit-il à l’emploi ?

1.

Se préparer à la rédaction

1.1 L’enjeu du sujet 1.2 Le cadrage et les concepts clés 1.3 La construction de la problématique

2. Sujet 3

Rédiger le devoir : une proposition Le marché et la concurrence permettent-ils toujours une coordination efficace des actions des agents dans les économies contemporaines ?

1.

Se préparer à la rédaction

1.1 L’enjeu du sujet 1.2 Le cadrage du sujet et les concepts clés 1.3 La construction de la problématique

2. Sujet 4

Rédiger le devoir : une proposition La concurrence doit-elle être stimulée ?

1.

Se préparer à la rédaction

1.1 L’enjeu du sujet 1.2 Le cadrage du sujet et les concepts clés 1.3 La construction de la problématique

2.

Rédiger le devoir : une proposition

******ebook converter DEMO Watermarks*******

Sujet 5

Risque de crédit et instabilité financière 1.

Se préparer à la rédaction

1.1 L’enjeu du sujet 1.2 Le cadrage et les concepts clés 1.3 La construction de la problématique

2. Sujet 6

Rédiger le devoir : une proposition La croissance économique a-t-elle des limites ?

1.

Se préparer à la rédaction

1.1 L’enjeu du sujet 1.2 Le cadrage et les concepts clés 1.3 La construction de la problématique

2. Sujet 7

Rédiger le devoir : une proposition La mondialisation commerciale et productive est-elle source de croissance ?

1.

Se préparer à la rédaction

1.1 L’enjeu du sujet 1.2 Le cadrage et les concepts clés 1.3 Construire la problématique

2. Sujet 8

Rédiger le devoir : une proposition Faut-il souhaiter le retour de l’inflation ?

1.

Se préparer à la rédaction

1.1 L’enjeu du sujet 1.2 Le cadrage du sujet et les concepts clés 1.3 La construction de la problématique

2.

Rédiger le devoir : une proposition

******ebook converter DEMO Watermarks*******

Sujet 9

Les politiques monétaires non conventionnelles depuis 2007-2008 : quel bilan ? 1.

Se préparer à la rédaction

1.1 L’enjeu du sujet 1.2 Le cadrage du sujet et les concepts clés 1.3 La construction de la problématique

2. Sujet 10 1.

Rédiger le devoir : une proposition Les relations monétaires internationales peuvent-elles être régulées ? Se préparer à la rédaction

1.1 L’enjeu du sujet 1.2 Le cadrage du sujet et les concepts clés 1.3 La construction de la problématique

2. Sujet 11

1.

Rédiger le devoir : une proposition Les ressources naturelles doivent-elles être gérées comme des biens communs mondiaux ? Se préparer à la rédaction

1.1 L’enjeu du sujet 1.2 Le cadrage du sujet et les concepts clés 1.3 La construction de la problématique

2. Sujet 12 1.

Rédiger le devoir : une proposition Faut-il s’en remettre au marché pour lutter contre le réchauffement climatique ? Se préparer à la rédaction

1.1 L’enjeu du sujet ******ebook converter DEMO Watermarks*******

1.2 Le cadrage et les concepts clés 1.3 La construction de la problématique

2. Sujet 13 1.

Rédiger le devoir une proposition Faut-il des règles de politique économique ? Se préparer à la rédaction

1.1 L’enjeu du sujet 1.2 Le cadrage et les concepts clés 1.3 La construction de la problématique

2. Sujet 14 1.

Rédiger le devoir : une proposition La gouvernance de la zone euro : enjeux et difficultés Se préparer à la rédaction

1.1 L’enjeu du sujet 1.2 Le cadrage et les concepts clés 1.3 La construction de la problématique

2.

Rédiger le devoir : une proposition

Index

******ebook converter DEMO Watermarks*******

Compléments numériques : mode d’emploi Le livre que vous avez entre les mains est destiné à vous aider à réussir dans la rédaction d’une dissertation de science économique dans le cadre des examens ou concours. En accompagnement de ce livre, nous vous proposons des compléments numériques disponibles sur le site Dunod à cette adresse : https://www.dunod.com/EAN/9782100788828 À partir de cette page, vous pouvez accéder à des entraînements inédits et complémentaires de ceux présentés dans le livre qui vous permettront de vous exercer à la dissertation régulièrement. Vous trouverez également des bibliographies relatives à chacun des sujets de la seconde partie. Six entraînements annuels vous seront proposés entre octobre et mars. – Dans un premier temps, nous diffuserons au début du mois le sujet sur la page Facebook du livre et le site Dunod, en vous invitant à le traiter en un temps limité ; – deux semaines après la publication du sujet, nous posterons une ​analyse du sujet sur le site Dunod et ; – deux semaines plus tard, le corrigé sera mis à votre disposition ​également sur le site Dunod. Vous pourrez alors auto-évaluer votre travail, en le confrontant au corrigé et affiner ainsi votre réflexion et vos connaissances. Ce travail suppose une parfaite maîtrise du contenu du livre (conseils méthodologiques et exemples de sujets traités). Pour vous tenir informé de la mise en ligne des ces différents éléments, vous pouvez vous abonner à la page Facebook du livre à l’adresse suivante : https://www.facebook.com/La-dissertation-descience-%C3%A9conomiqueCursus-1559306797708091/?ref=bookmarks Nous diffusons par ailleurs sur cette page, deux fois par semaine, un lien ******ebook converter DEMO Watermarks*******

sur une thématique de science économique qui nous semble intéressante pour enrichir vos réflexions. Les documents seront accessibles sous forme de fichier pdf sous condition de saisie d’un mot de passe. Ce mot de passe est le dernier mot de la partie 1 du livre. Pour accéder à ces compléments numériques, vous devrez donc : 1) Vous rendre dans l’onglet « Ressources numériques » de l’ouvrage sur le site Dunod. 2) Télécharger le fichier pdf. 3) Renseigner le mot de passe demandé à l’ouverture du fichier. Nous vous souhaitons un bon travail de préparation. Alain Beitone, Lionel Lorrain, Christophe Rodrigues

******ebook converter DEMO Watermarks*******

Introduction Au-delà du discours d’opinion et de la pensée unique Rédiger une dissertation, c’est s’inscrire dans la logique d’une discipline. On peut écrire une dissertation sur les inégalités en philosophie, une dissertation sur les crises en histoire, une dissertation sur la mondialisation en géographie. Le devoir attendu sera très différent s’il est traité en philosophie, en histoire ou en géographie et s’il est traité dans une dissertation de science économique. Répondre à cette attente implique de maîtriser la logique de la discipline à laquelle l’épreuve correspond, connaître ses textes fondamentaux, ses auteurs de référence, ses concepts organisateurs ainsi que les principaux faits historiques et données empiriques qu’elle explique. Il faut aussi avoir conduit une réflexion sur la nature et le statut des savoirs produits par la discipline considérée. Cette réflexion est d’autant plus importante concernant la science économique, qu’elle fait l’objet de nombreuses controverses dans le champ médiatique et politique. À l’occasion de la crise de 2007-2008 par exemple, la profession d’économiste a été remise en cause pour ne pas avoir prévu la crise. Pourtant les spécialistes de physique du globe ne prédisent pas non plus les tremblements de terre sans que l’on remette en cause le caractère scientifique de leur discipline. S’agissant de la crise mondiale, il apparaît que les critiques faites aux économistes étaient très contestables. Certains d’entre eux (comme R. Rajan ou N. Roubini) avaient attiré l’attention sur la montée des risques financiers et la probabilité de l’éclatement d’une crise. Le fait qu’ils n’aient pas été entendus n’a rien de nouveau. J. K. Galbraith a montré dans son livre Brève histoire de l’euphorie financière (1992) que le même phénomène s’est produit dans de très nombreux cas, les acteurs des marchés financiers et les responsables politiques restant sourds aux alertes lancées. On constate d’ailleurs que pour rendre compte a posteriori de la crise, on fait ******ebook converter DEMO Watermarks*******

bien appel aux travaux des économistes (par exemple K. Wicksell ou H. Minsky) ! Dans les débats médiatiques, la science économique est prise en tenaille entre deux discours. Pour les uns, il existe une science économique dont les conclusions ne sont pas discutables. Un seul discours serait ainsi possible sur la réalité économique et un seul type de politique économique concevable (généralement des politiques libérales). C’est le fondement du fameux TINA (There Is No Alternative) attribué à M. Thatcher. Ce discours revendique une légitimité savante rarement justifiée (« tous les économistes pensent que… ») et prétend s’appuyer sur le « bon sens ». On explique donc que le chômage résulte d’un système social trop protecteur, que l’inflation résulte toujours d’une création excessive de monnaie, que les politiques d’austérité sont les seules possibles en Europe, etc. Ce discours est souvent tenu par des économistes médiatiques qui, pour la plupart d’entre eux, ne sont pas en réalité des économistes mais des « experts », des « consultants », des « chefs d’entreprises », des « essayistes », etc. Or, ce qui caractérise ces économistes, c’est bien qu’ils ne publient pas (ou plus !) de travaux de recherche et ne sont pas soumis au contrôle de leurs pairs. Pour les autres, la science économique (le mot science se voit souvent attribuer des guillemets) n’a pas de légitimité scientifique. Il s’agirait uniquement d’un discours de légitimation des puissances économiques dominantes, d’un instrument de pouvoir. La science économique serait donc, par nature, un discours visant à justifier les politiques économiques libérales (ou « néolibérales »). L’idée même d’un savoir économique axiologiquement neutre est niée et on affirme que dans le domaine économique comme dans l’ensemble des sciences sociales, tout est affaire de choix politique et d’opinions. Dans cette optique, il n’existerait donc pas de connaissance objective en science économique : face au discours économique des dominants, c’est-à-dire le néolibéralisme, il faudrait donc promouvoir un discours économique alternatif, un contre-feu politique. Si l’on adopte le premier point de vue en rédigeant la dissertation, on sera conduit à tenir un discours unilatéral, qui risque fort de conduire à des conclusions dogmatiques. Si l’on adopte le second point de vue, on sera conduit à un discours relativiste amenant à traiter les questions posées sous l’angle de la divergence d’opinions. Il est pourtant acquis qu’il s’agit là d’un faux débat et qu’il existe une sortie « par le haut » de cette opposition stérile. Il importe pour cela de rappeler que la science économique s’inscrit dans une ******ebook converter DEMO Watermarks*******

« visée scientifique » (G.-G. Granger), c’est-à-dire notamment qu’elle doit s’assurer en permanence de la cohérence interne des discours qu’elle formule et qu’elle doit se préoccuper de la corroboration empirique de ses énoncés. Ces deux caractéristiques sont propres à toutes les sciences (de la nature comme de la société). Un autre élément important est celui du contrôle des énoncés par la communauté scientifique. Lorsqu’un chercheur considère qu’il a produit un résultat original, il rend public son travail par l’intermédiaire d’un ou plusieurs articles. D’une part, cette publication est subordonnée à l’avis d’autres chercheurs anonymes ; d’autre part, lorsque l’article est publié, il est susceptible d’être critiqué quant à ses données, à leur traitement, à la validité des raisonnements conduits, etc. C’est pourquoi le travail scientifique est caractérisé par l’existence de débats et de controverses. C’est en ce sens que G. Bachelard affirmait : « Deux hommes, s’ils veulent s’entendre, ont dû d’abord se contredire. La vérité est fille de discussion, non pas fille de sympathie » (La philosophie du non, 1940). Toutefois, ce débat scientifique n’est pas un débat d’opinion, les arguments doivent obéir aux règles du champ scientifique et on ne peut l’emporter que par la force du meilleur argument. Enfin, rappelons que les chercheurs en science économique (comme dans les autres disciplines) produisent leurs connaissances en partant de problèmes, en mobilisant un ou plusieurs paradigmes, en formulant des hypothèses, en construisant des modèles et en conduisant des investigations empiriques. Ce travail s’inscrit dans une logique cumulative. Un économiste qui travaille aujourd’hui sur les risques de déflation s’appuie directement ou indirectement sur les travaux d’I. Fisher aussi bien que sur ceux de M. Friedman. Il connaît aussi les analyses relatives à l’hyperinflation des années 1920 en Allemagne et celles qui concernent la déflation aux ÉtatsUnis pendant la Grande Dépression des années 1930. Il doit construire un modèle permettant de rendre compte d’une configuration nouvelle qui se manifeste depuis la crise de 2007-2008 : alors que la base monétaire mondiale a spectaculairement augmenté, on n’assiste pas à une tendance forte à la hausse du niveau général des prix et même, périodiquement, on s’inquiète d’une entrée dans la déflation. Que peut-on tirer de ces quelques remarques épistémologiques en ce qui concerne la rédaction d’une dissertation de science économique ? 1) Même si la science économique n’explique pas tout (les autres sciences ******ebook converter DEMO Watermarks*******

sociales sont très importantes et contribuent avec leurs méthodes et leurs concepts à rendre compte d’autres aspects du monde social), elle construit et mobilise une grille de lecture singulière et c’est ce type de regard que le rédacteur de la dissertation doit mettre en œuvre pour traiter le sujet qui lui est proposé. 2) La science se construit contre l’évidence. Or, ce que nous considérons comme « évident » relève de la connaissance immédiate, des idées reçues dans une société donnée à un moment donné. Pour traiter un sujet, il faut donc exercer une vigilance épistémologique et renoncer à la tentation de considérer comme allant de soi ce qui relève du sens commun. 3) La science économique produit des concepts, des outils, des modes de raisonnements qui sont très largement partagés en dépit des divergences théoriques qui peuvent opposer les économistes. Tous les économistes donnent le même sens au terme « élasticité prix », tous savent ce qu’est l’exploitation chez Marx, le taux d’intérêt naturel chez Wicksell, l’optimum chez Pareto, une asymétrie d’information, etc. Les candidats aux examens et concours doivent donc, autant que possible, maîtriser ce patrimoine d’outils et de concepts et être en mesure de les mobiliser à bon escient. 4) La plupart des théories et des modèles produits par la science économique dépendent du cadre conceptuel et des hypothèses à partir desquels ils ont été formulés. Par exemple, le théorème de R. Coase nous dit que le marché peut parfaitement gérer les externalités si les droits de propriété sont correctement définis et si les coûts de transaction sont nuls. Mais, comme le fait remarquer Coase lui-même, les coûts de transaction ne sont empiriquement jamais nuls et les droits de propriétés ne sont pas toujours correctement définis. Son théorème ne constitue donc pas une adhésion religieuse à la supériorité du marché, mais une formulation conditionnelle qui permet précisément de montrer quelles sont les limites de la régulation marchande. 5) Il ne faut pas opposer de façon simpliste les théories. Une dissertation n’est pas un catalogue d’auteurs du type « Hayek pense que… mais Keynes pense que » conduisant à un « match nul » pour prendre une métaphore sportive. Il faut traiter la question posée et ne mobiliser les auteurs que s’ils fournissent des éléments de réponse pertinents. Par ailleurs, si le fait d’utiliser de grands paradigmes économiques peut être utile pour organiser sa pensée, il ne faut jamais renoncer aux nuances et à la précision. Par exemple, opposer les « libéraux » et les « keynésiens » est doublement contestable. D’une part, ******ebook converter DEMO Watermarks*******

ceux que l’on nomme les libéraux sont très différents : entre la tradition classique ou néoclassique et la tradition autrichienne, il y a de très nombreuses et importantes différences (ils n’ont pas la même conception du marché, de la monnaie, du capital, etc.). D’autre part, parce que Keynes était un libéral, au sens où il était membre du parti libéral anglais, mais aussi parce qu’il ne cachait pas son attachement à la démocratie libérale et à l’économie de marché1. Cette opposition entre « keynésiens » et « libéraux » (qui bien souvent dans des copies de concours conduit à un contresens) repose sur le fait que l’opposition entre « libéral » et « interventionniste » est en réalité d’ordre doctrinal et ne relève pas du champ scientifique. Il convient donc de s’en tenir à la distinction entre la théorie néoclassique, la théorie autrichienne ou la théorie keynésienne pour les débats qui ont traversé le xxe siècle. De même, on ne doit pas oublier que K. Marx a apporté une contribution majeure à la compréhension de la coordination par le marché et qu’il s’est prononcé en faveur du libre-échange2. Il faut donc éviter les étiquettes et les présentations caricaturales mais présenter les analyses précises des auteurs. 6) La science économique progresse, il faut donc éviter de présenter des débats qui sont dépassés. Par exemple, identifier la théorie néoclassique au modèle de concurrence pure et parfaite est une erreur. Aujourd’hui, les économistes qui travaillent dans le cadre de la tradition néoclassique prennent en compte la concurrence imparfaite, la différenciation des produits, la viscosité des prix, etc. Prétendre remettre en cause cette pensée en critiquant le seul modèle de concurrence pure et parfaite, c’est donc, dans une large mesure, rater sa cible. De même, il faut prendre en compte le fait que le fameux « No Bridge » entre microéconomie et macroéconomie est dans une large mesure surmonté par des auteurs comme J. Stiglitz à partir du concept d’asymétrie d’information. Afin de donner un fondement microéconomique à l’existence d’équilibres de sous-emploi, Stiglitz montre que l’asymétrie d’information conduit les banquiers à rationner le crédit, ce qui entraîne un niveau insuffisant d’investissement, de croissance et donc d’emploi. Le recours à des auteurs marquants de l’histoire de la pensée économique peut certes se montrer très utile, mais à la condition que les analyses de ces auteurs éclairent les problèmes auxquels nous sommes confrontés aujourd’hui. Par exemple, les analyses d’A. Marshall sur les externalités, celles d’I. Fisher sur la déflation par la dette, celles d’H. Minsky sur le cycle du crédit constituent toujours des grilles de lecture pertinentes. 7) Enfin, il faut se garder de considérer l’analyse économique comme un ******ebook converter DEMO Watermarks*******

ensemble de propos exclusivement « théoriques ». Les théories sont très utiles, mais elles n’ont d’intérêt que dans la mesure où elles suscitent et orientent les investigations empiriques. Ces investigations peuvent porter sur l’histoire économique. On peut penser aux travaux de Ch. Kindleberger sur l’histoire financière, à ceux d’A. Maddison sur l’histoire de la croissance, ou encore à ceux de P. Bairoch sur la Révolution industrielle qui conservent un très grand intérêt. Les investigations empiriques consistent aussi à construire des bases de données statistiques. C’est notamment le cas des travaux de Th. Piketty sur les revenus et les patrimoines ou des données rassemblées par G. Zucman sur les paradis fiscaux. Une bonne dissertation doit donc impérativement mobiliser des informations historiques et faire référence à des travaux statistiques récents (au moins les ordres de grandeur et les grandes tendances). La science économique ne mérite donc ni l’excès d’honneur qui en ferait une pensée unique soustraite à tout débat scientifique ou démocratique, ni l’indignité qui en ferait un simple discours d’opinion. Les économistes ont pour tâche d’analyser des problèmes en montrant à la fois les causes, les opportunités, les contraintes, les choix qui s’offrent aux décideurs politiques. Sur la base de ces connaissances aussi objectives que possibles, seul le débat démocratique peut conduire à des décisions qui engagent l’avenir des sociétés humaines. D’où l’importance de bien distinguer le débat scientifique et le débat politique qui sont l’un et l’autre légitimes, mais qui relèvent de logiques différentes. L’élève ou l’étudiant qui doit rédiger une dissertation devra accepter de s’inscrire dans la visée scientifique et limiter son propos à la composante scientifique des débats. Pour ce faire, il peut compter sur un riche patrimoine de connaissances et sur les apports nouveaux de chaque génération d’économistes. Apprendre et s’entraîner à rédiger une dissertation en science économique, c’est cheminer entre le passé et le présent dans ce vaste champ disciplinaire. Les voies sont parfois escarpées mais nous les trouvons, pour notre part, exaltantes. Ce livre a pour objectif de vous accompagner si vous décidez de les emprunter. Nous vous souhaitons bonne route !

******ebook converter DEMO Watermarks*******

1. Keynes est donc libéral aux trois sens du terme. Il est proche des avant-gardes culturelles de son temps (libéralisme culturel). Sur le plan politique, il défend la démocratie représentative et les libertés politiques (libéralisme politique). Sur le plan économique, il est favorable à l’économie de marché et même au capitalisme, mais souhaite une régulation publique seule à même de sauver ce système ​économique (libéralisme économique). 2. Le 7 janvier 1848, Marx a prononcé un « discours sur la question du ​libre-échange » à l’association démocratique de Bruxelles, discours dans lequel il critique à la fois les illusions du libre-échange et les politiques protectionnistes.

******ebook converter DEMO Watermarks*******

Partie 1 La dissertation de science économique : quelle méthode ? « L’entreprise (depuis le XIXe siècle) peut-elle se passer d’entrepreneur ? » (Concours CPGE EC-E, HEC Paris 2018), « Politique monétaire et activité économique » (Concours du CAPES externe de SES, 2018), « Doit-on considérer que la désindustrialisation constitue un processus inéluctable dans un pays développé ? » (Concours CPGE EC-E, ESCP Europe, 2018)... Voici quelques exemples de sujets d’épreuve de science économique qui ont été proposés dans divers concours lors des sessions 2018. Ces sujets ont tous en commun d’être classés sous l’intitulé de « dissertation ». Si ce terme est aujourd’hui connu de tous, il suscite aussi des craintes parfois importantes chez de nombreux étudiants et préparationnaires. Mais alors, qu’est-ce que disserter veut dire ? En première approche, la dissertation est un exercice qui consiste à produire un texte structuré visant à répondre à une question, celle-ci étant explicitement ou implicitement énoncée dans le sujet proposé. Afin de répondre à cette question, il s’agit de mobiliser des connaissances de nature diverse, lesquelles doivent être le plus directement possible reliées au sujet et logiquement articulées entre elles. Ces principes de base de la dissertation sont généralement connus par les étudiants en science économique. Malgré ces évidences, il est manifeste que la rédaction d’une dissertation réussie est un exercice complexe qui ne va pas de soi. L’explication tient notamment au fait que cela suppose la maîtrise et la mise en œuvre d’une méthodologie appropriée, méthodologie qui doit faire l’objet d’un apprentissage spécifique. ******ebook converter DEMO Watermarks*******

Il existe tout d’abord des règles propres à l’exercice de la dissertation économique dont il faut prendre connaissance. Certaines sont formelles et d’autres plus informelles et elles peuvent en outre varier selon les cas de figure. Ces règles se traduisent par certaines « attentes » dans les dispositifs d’évaluation des concepteurs de sujets et des correcteurs : les points incontournables que l’on doit trouver dans une introduction pour que celle-ci soit de qualité ; la fonction des transitions entre les parties du devoir notamment en matière de problématisation ; l’articulation entre les connaissances théoriques, les connaissances historiques et les connaissances factuelles ; etc. La première étape consiste naturellement à prendre connaissance de ces attentes. On a l’habitude de dire que chaque dissertation est spécifique au sujet auquel elle répond. Toutefois, pour réussir l’épreuve, il faut mobiliser une méthode qui soit de portée suffisamment générale pour pouvoir être utilisée avec tous les sujets que l’on rencontre dans les nombreux examens et concours pratiquant ce type d’épreuve. C’est une méthode de cette nature que cette première partie de l’ouvrage vous propose. Enfin, précisons que dans l’apprentissage de la dissertation de science économique, il est important de distinguer deux composantes : a) la question de la préparation méthodique à l’exercice à proprement parler, c’est-à-dire une activité de long terme impliquant souvent plusieurs années de formation durant lesquelles l’objectif est de progresser dans la maîtrise des compétences requises ; b) la question de la réalisation finale de la dissertation le jour de l’examen ou du concours. Bien entendu, comme tout apprentissage complexe, l’acquisition de la série de compétences nécessaires pour mener à bien cette tâche s’effectue progressivement, avec sans doute plusieurs (et si possible de nombreuses) rédactions de dissertations d’entraînement avant l’épreuve finale. Nous proposons ainsi une démarche en trois temps : 1) l’identification des règles de la dissertation ; 2) une méthode permettant d’articuler la liste des tâches à maîtriser depuis la compréhension du libellé du sujet jusqu’à la rédaction de l’introduction (celle-ci s’effectuant logiquement en fin de parcours juste avant la rédaction finale du devoir) ; 3) des conseils et des remarques relatives à la manière d’appréhender la rédaction de la copie le jour de l’épreuve ou à l’occasion d’un test ******ebook converter DEMO Watermarks*******

d’entraînement.

Méthode n° 1 Se préparer à une épreuve de dissertation de science économique : premiers conseils Les deux composantes de la méthodologie de la dissertation – préparation à l’épreuve et réalisation de l’épreuve dans le temps imparti – doivent s’articuler de façon constante. Nous conseillons de les travailler simultanément tout au long de votre formation en alternant : – d’une part, des exercices spécifiques isolés (constructions de problématique, élaboration de plans détaillés, rédaction d’introductions, rédactions de « fil directeur » et de transitions entre les parties, etc.) afin d’améliorer vos compétences sur chaque tâche tout en les ritualisant (les attentes formelles de l’introduction doivent devenir un automatisme par exemple, tout comme la rédaction des transitions entre les parties)1 ; – d’autre part, des tests d’entraînement les plus nombreux possibles portant sur l’exercice final (rédaction intégrale d’une copie dans le temps imparti lors de l’examen ou du concours) qui vous permettront d’affiner progressivement la maîtrise de l’exercice. En fin de compte, puisqu’une dissertation réussie articule efficacement la « forme » et le « fond », l’enjeu est de parvenir à faire de la composante « forme » un exercice maîtrisé par la routine de l’entraînement afin de porter l’attention et la concentration sur les enjeux relatifs au contenu du sujet.

******ebook converter DEMO Watermarks*******

1. Notons que pour les étudiants de Classes préparatoires, ce type de travail peut être conduit dans le cadre de la préparation des interrogations orales hebdomadaires (dites « khôlles »). L’expérience montre que les étudiants qui s’entraînent, tout au long de l’année de formation, sur des sujets de concours en rédigeant des ​problématiques, des plans semi-détaillés ou encore des conclusions-bilan de sujets augmentent significativement leurs chances de réussite.

******ebook converter DEMO Watermarks*******

Chapitre

1 Les règles de la dissertation

Introduction La dissertation de science économique est pratiquée comme épreuve dans de nombreux concours au premier rang desquels : – les concours de recrutement aux Grandes Écoles pour les étudiants des Classes préparatoires (concours « voie économique » des écoles de management, concours B/L des Écoles Normales Supérieures) ; – les concours de recrutement des enseignants de Sciences éco​nomiques et sociales (CAPES et Agrégation) ainsi que d’Économie et Gestion (pour le concours de l’Agrégation externe d’Économie et Gestion) ; – certains concours de la fonction publique centrale et territoriale (concours externe d’entrée à l’École Nationale d’Administration, concours externe d’Administrateur territorial, concours d’Inspecteur des finances publiques notamment). Malgré la spécificité de certaines attentes selon les concours et les jurys, on peut relever la présence de règles communes à la pratique de la dissertation. Certaines sont formelles et sont rappelées le plus souvent dans les rapports de jury, d’autres sont plus informelles et peuvent fluctuer selon le contexte, le type de concours et la composition du jury.

1

Les règles formelles

S’agissant des attentes formelles, une dissertation de science économique suppose de respecter les règles suivantes : 1. Débuter par une introduction qui doit être construite sur la base de 4 piliers : – une accroche dont la fonction est de mettre en valeur l’intérêt du sujet à partir d’une citation d’auteur, d’un fait d’actualité ou d’un fait historique marquant (dans tous les cas, l’idée présentée doit être suffisamment ******ebook converter DEMO Watermarks*******

explicitée pour que le lien avec le sujet apparaisse comme évident) ; – une définition de chaque terme clé du sujet (il peut s’agir d’un seul terme, mais le plus souvent le sujet en mobilise deux) ; – une présentation de la problématique choisie par le rédacteur de la dissertation ; – une annonce du plan de la dissertation (l’objectif ici est de s’en tenir aux grandes parties du développement). 2. Poursuivre par un développement (la partie la plus conséquente du devoir sur le plan quantitatif) qui implique une structuration du devoir en parties (au moins 2 parties, au maximum 3) et en sous-parties (au moins 2 et au maximum 3). La combinaison « 3 parties/3 sous-parties » n’est pas conseillée afin d’éviter la multiplication des ​paragraphes. Ce développement est l’occasion de mobiliser des connaissances théoriques, factuelles et historiques et de les articuler logiquement entre elles. 3. S’appuyer sur des transitions, c’est-à-dire des textes synthétiques permettant de rappeler le fil directeur de la démonstration en lien avec la problématique ; transitions qui prennent place au moment de l’alternance des parties et des sous-parties. 4. Terminer par une conclusion construite sur la base de deux piliers : – un bilan de la démonstration proposée dans le devoir (autrement dit l’essentiel de la réponse à la question posée par le sujet) ; – une ouverture sur un sujet ou un problème connexe vers lequel la démonstration proposée tend à s’orienter.

2

Les règles informelles

Parmi les règles informelles (et donc souvent contingentes) propres à l’exercice de la dissertation de science économique, on peut notamment retenir : la présence ou l’absence de titres apparents qui marquent les étapes du développement ; la question de la longueur du devoir ; la question de la précision des références théoriques et historiques.

2.1 Une dissertation avec ou sans titres apparents ? Dans sa version la plus académique, la dissertation est un exercice de style ******ebook converter DEMO Watermarks*******

qui se traduit par un texte structuré dépourvu de titres (notamment dans les disciplines « historiques » qui pratiquent cet exercice comme la Littérature, la Philosophie ou encore le Droit). Toutefois, l’usage a conduit à ce que, dans de nombreux concours qui utilisent la dissertation de science économique et en particulier les concours du CAPES et de l’Agrégation de Sciences économiques et sociales, la pratique des titres apparents soit acceptée. Dans d’autres concours en revanche (certains concours des Grandes Écoles de management pour les étudiants de Classes préparatoires par exemple), la question de la possibilité de titres apparents reste discutée entre les correcteurs, ce qui nous conduit plutôt à vous conseiller l’absence de titres dans ces cas de figure. L’option que nous prenons dans cet ouvrage est de proposer des rédactions de devoir avec des titres apparents. L’objectif est toutefois pédagogique : nous partons de l’idée qu’il est plus facile pour le lecteur de travailler sur une dissertation rédigée qui explicite l’idée principale de chaque partie à l’aide d’un titre. Il ne s’agit donc pas d’une « prescription » sur la démarche à adopter dans les concours, ni d’une préférence de notre part. En fin de compte, il appartient à chaque candidat, au cours de sa préparation, d’adopter la stratégie qui lui semble la plus adéquate (voir Méthode n° 2). Dans les pratiques de correction de certains concours, se pose une autre question, connexe à celle-ci : quel est le nombre de parties souhaitables dans la dissertation ? Là encore, il n’existe pas de règle formelle mais des usages qui ont été établis par l’histoire de chaque concours. Dans la plupart des cas, le candidat dispose d’une certaine liberté pour structurer le devoir dès lors que le développement comporte au moins deux parties et au maximum trois. Dans certains concours toutefois (comme le concours d’entrée à HEC ouvert aux étudiants des Classes préparatoires EC-E), les évaluateurs semblent valoriser des devoirs reposant sur des plans en trois parties. Nous conseillons donc au lecteur de rechercher des informations sur les pratiques spécifi​ques au concours préparé. Il existe souvent des rapports de jury qui ​fournissent des éléments de réponse à cette question ou, à tout le moins, qui proposent des pistes de correction indiquant ce qui paraît souhaitable pour les correcteurs. D’autres concours, à l’image de celui de l’ENA, rendent officiellement publiques certaines copies ayant fait l’objet d’une très bonne note. Leur lecture attentive peut fournir des informations précieuses pour le préparationnaire. ******ebook converter DEMO Watermarks*******

Méthode n° 2 Dissertation avec ou sans titres : comment choisir ? Dans le cas des concours qui acceptent les deux démarches, il va vous falloir choisir. Nous vous conseillons d’utiliser la première partie de votre parcours de formation (les deux ou trois premiers mois de travail si la préparation de l’épreuve s’effectue sur une année par exemple) pour « tester » chaque option à l’occasion de vos exercices d’entraînement. En fonction des informations que vous obtiendrez sur l’évolution de vos performances, il vous faudra ensuite arrêter un choix et vous y tenir strictement jusqu’au jour de l’épreuve (rien ne serait pire qu’après des entraînements nombreux sans titres apparents, vous optiez pour l’autre méthode le jour « j » !). Un des avantages principaux de la dissertation appuyée sur des titres apparents est la facilité de lecture et de compréhension de votre démonstration par le correcteur. Si l’articulation entre la présentation de la problématique dans l’introduction, les titres des parties et les transitions est pertinente, cela conduira à améliorer la rigueur d’ensemble de votre devoir et par conséquent sa lisibilité. L’inconvénient majeur toutefois repose sur le risque de choisir des titres peu pertinents ou décalés par rapport à la problématique annoncée et par rapport au texte que vous allez développer par la suite. Dans ce cas, des titres purement décoratifs affaibliront la pertinence d’ensemble de la copie en donnant le sentiment d’une structure non maîtrisée. En fin de compte, nous vous conseillons : – Quelle que soit la stratégie adoptée, de soigner particuliè​rement la présentation de la problématique en introduction, les transitions entre les parties et le point « bilan » de la conc​lusion afin que la structure du devoir et le fil directeur soient les plus explicites possibles : c’est cette composante du devoir qui témoigne de la qualité de votre argumentation et de ce que vous allez « démontrer ». Rappelons que les titres apparents n’ont pas vocation à remplacer cette dimension de la dissertation. Si le fil directeur de votre démonstration est pertinent, la présence ou l’absence de titres n’aura finalement pas d’incidence sur la qualité de votre texte. – Si vous optez pour la stratégie « titres apparents », préférez des formulations courtes, par exemple sous forme de groupes nominaux, qui résument l’idée principale de la partie correspondante et qui mobilisent les termes clés du sujet. Un titre est par définition synthétique et ne doit pas se transformer en résumé de la partie à venir. – Si vous optez pour la stratégie sans titre dans la rédaction finale, nous vous conseillons tout de même de prendre le temps de rédiger des titres lors de la construction au brouillon de votre plan détaillé : ils vous aideront à vous centrer sur l’idée principale de chaque partie et l’enchaînement des titres devrait vous permettre de « tenir » plus facilement le fil directeur de votre démonstration. Il suffira alors de ne pas les reproduire sur la copie finale. – Enfin, quelle que soit la stratégie que vous arrêterez, il est impératif que la structure du devoir apparaisse « visuellement » pour le correcteur. Cela signifie qu’il faut opter pour des espaces normés entre les paragraphes en termes de nombre de lignes (par exemple 3 lignes entre l’introduction, les grandes parties et la conclusion, 1 ligne entre les sous-parties). Certains correcteurs apprécient également la présence de marquage visuel : une * entre les sous-parties ; deux * entre les grandes parties par exemple.

******ebook converter DEMO Watermarks*******

2.2 Une dissertation fleuve ou… synthétique ? Dans certains cas de figure, comme notamment plusieurs concours de Grandes écoles de management, il est indiqué dans les rapports de jury que « la copie, sauf qualité exceptionnelle, ne doit pas excéder 8 pages de rédaction » (soit l’équivalent de 2 copies doubles). Il s’agit pour le jury d’inciter les candidats à ne pas produire de copie « fleuve » avec le risque de conduire à du « bavardage » économique et à préférer une certaine rigueur en même temps qu’un esprit de synthèse. Dans d’autre cas de figure (comme les concours de recrutement des professeurs), les pratiques d’évaluation ne conduisent pas à donner de précision de cette nature. Nous pensons pour notre part que l’exigence d’une longueur limitée de la dissertation est un faux problème. Le candidat compose nécessairement sur un temps imposé (généralement 4 heures, parfois 5 voire 7 heures dans le cas des concours de l’Agrégation ou d’autres concours de la fonction publique) et ne peut donc pas rédiger davantage que ce que le temps imparti lui permet. Rappeler que le « verbiage » est pénalisé et affecte la qualité de la copie est bien entendu légitime. Il faut s’efforcer d’appliquer la règle « une idée, un paragraphe » en s’attachant à mobiliser des connaissances rigoureuses (des concepts, de mécanismes théoriques, des faits historiques ou factuels, des ordres de grandeur statistique) et les lieux communs doivent être proscrits. En pratique, les dissertations « trop courtes » sont pénalisées en raison du fait qu’elles mobilisent trop peu de connaissances pour traiter convenablement le sujet tandis que les dissertations longues tout en développant des connaissances solides et rigoureuses sont peu fréquentes car, dans la plupart des cas, hors de portée des candidats pour des raisons de contrainte de temps. De fait, c’est bien la dérive de type « discussion de café de commerce » qui est pénalisée dans les épreuves de concours plus que la question d’un quota de pages à respecter.

2.3 Quelle précision dans les références théoriques et historiques ? Parmi les questions qui ne font pas l’objet d’attentes explicites mais qui sont toutefois centrales dans les pratiques d’évaluation des jurys, il y a celle de la précision des connaissances mobilisées dans la dissertation. Cela implique notamment : – Une parfaite maîtrise par le candidat des concepts clés du sujet ainsi que ******ebook converter DEMO Watermarks*******

des mécanismes théoriques qui leur sont associés. Il faudra veiller à ce que les concepts utilisés soient définis ou, à tout le moins, explicités de manière rigoureuse et insérés de manière fluide dans le propos d’ensemble. Pour autant, il faut veiller à ne pas verser dans l’excès inverse : si une dissertation dépourvue de concepts utilisés à bon escient ne pourra pas être considérée comme pertinente, une dissertation réussie ne se réduit pas à une succession de termes du vocabulaire économique et de mécanismes fussent-ils correctement explicités. – Une parfaite maîtrise par le candidat des références à la littérature classique de la science économique : a) le titre des ouvrages les plus importants doit être mentionné de manière complète dans la copie incluant la date de première publication ; b) s’agissant des articles scientifiques, il faut pouvoir être en mesure, a minima, de citer l’année de publication. Par exemple, une analyse s’appuyant sur les ​travaux de D. Ricardo sera d’autant plus valorisée qu’elle fera référence au titre complet et daté de son ouvrage (Des principes de l’économie politique et de l’impôt, 1817), même chose pour tout usage de la théorie de J. M. Keynes où l’appui sur le titre exact de son ouvrage de référence – Théorie générale de l’emploi de l’intérêt de la monnaie, 1936 – sera préféré à la simple expression de « Théorie générale » comme on le lit souvent. – S’agissant des références historiques, on attend des candidats qu’ils soient en mesure d’être précis sur le contexte dans lequel l’événement relaté s’est déroulé, sur les ordres de grandeurs lorsqu’il est question de repères factuels ainsi que sur les dates relatives à l’événement lui-même. Par exemple, s’il est opportun par rapport à l’enjeu du sujet d’expliquer l’infléchissement de la politique monétaire américaine à partir de la fin des années 1970, il faudra indiquer que c’est en 1979 que P. Volcker est nommé président du Conseil des gouverneurs de la Banque centrale américaine (Fed) avec comme mission principale de réduire significativement l’inflation par la mise en œuvre d’une politique d’orientation monétariste. Il peut être utile de mentionner que c’est le président démocrate J. Carter qui est à l’origine de cette nomination et non son successeur républicain R. Reagan comme on le dit parfois à tort. Il faudra également préciser qu’à partir de cette période, la Fed conduit une politique monétaire particulièrement ​restrictive. Une des conséquences de cette politique est la baisse significative du taux ******ebook converter DEMO Watermarks*******

d’inflation aux États-Unis : de plus de 10 % de hausse annuelle du niveau général des prix en 1979 au moment du second choc pétrolier à moins de 5 % en 1984.

Méthode n° 3 Comment produire une dissertation en mobilisant des connaissances précises ? Nous vous conseillons de travailler en vous appuyant sur plusieurs dispositifs complémentaires : – Des « fiches de cours » construites à partir de chapitres thématiques (histoire de l’analyse économique, monnaie et finance, croissance économique, mondialisation productive, etc.) qui articulent les connaissances théoriques (mécanismes, présentations simplifiées de modèles, représentations graphiques) et les connaissances empiriques (événements historiques, périodisations, ordres de grandeurs, faits marquants de l’actualité récente). – Des « fiches auteurs » qui recensent, pour chaque économiste important(e), le ou les titres d’ouvrages essentiels ainsi que les concepts et mécanismes associés. Par exemple, pour D. Ricardo on associe à son ouvrage de 1817 la théorie de la valeur-travail, le principe de la rente différentielle et les rendements factoriels décroissants ainsi que le mécanisme de l’avantage comparatif ; pour R. Mundell, on pourra regrouper sur la même fiche, le triangle des incompatibilités, le schéma IS-LM-BP (modèle Mundell-Flemming) ainsi que sa théorie des zones monétaires optimales (article de 1961, “Theory of Optimum Currency Area” pour ce dernier point). Selon le sujet proposé, ce sont donc seulement certains aspects de la « fiche auteur » qui seront mobilisés. – Un répertoire de vocabulaire économique dans lequel les concepts principaux feront l’objet d’une définition concise et rigoureuse, susceptible d’être utilisée selon les besoins dans la dissertation (définitions qui devront être apprises durant le temps de la formation). S’agissant de ce dernier point, rappelons que dans certains concours, comme notamment ceux des écoles de management, les rapports de jury soulignent le caractère impératif de la définition des termes du sujet en introduction et d’un usage rigoureux et explicité des concepts dans le corps du devoir. L’investissement dans ce répertoire de vocabulaire au cours de la formation apparaît donc comme très rentable ! L’intérêt final de cette démarche est de disposer d’un catalogue de ressources que l’on pourra mobiliser pour alimenter la dissertation. Cela permet de rappeler qu’une dissertation n’est en aucun cas une « question de cours » mais un exercice intellectuel qui implique de choisir dans un ensemble de connaissances maîtrisées, celles, et seulement celles, qui seront utiles pour répondre au problème qu’il s’agit de résoudre.

******ebook converter DEMO Watermarks*******

******ebook converter DEMO Watermarks*******

Chapitre

2 Du libellé du sujet à la problématique

1

Identifier l’enjeu du sujet

Le plus souvent, les sujets de dissertation de science économique, tels qu’on les trouve dans les annales de concours, prennent la forme soit d’une phrase rédigée sur le mode affirmatif ou interrogatif, soit d’un groupe de mots, généralement deux expressions, que l’on associe. Cela signifie d’emblée que le niveau d’information explicitement donné par le sujet est très limité et que le premier travail à réaliser consiste à identifier son enjeu. Pour cela, il importe de prêter une attention particulière à chaque mot que le sujet contient et à la place que chacun d’eux occupe dans la formulation d’ensemble. Le premier piège est en effet de « lire » le sujet de manière cursive ou erronée, ce qui conduirait notamment à : a) changer sa nature, à se tromper sur son enjeu ou mal l’identifier ; b) en réduire ou au contraire en accroître le champ d’application (ce qui conduirait à un traitement partiel ou, au contraire, à des parties du devoir qui deviendraient hors-sujet) ; c) en faire une interprétation descriptive et a-problématique faute d’être parvenu à identifier la ou les questions implicites auxquelles il renvoie. Considérons par exemple la liste suivante de sujets : – Doit-on considérer que la désindustrialisation constitue un processus inéluctable dans un pays développé ? (Concours CPGE EC-E, ESCPEurope 2018) – L’entreprise (depuis le XIXe siècle) peut-elle se passer de l’entrepreneur ? (Concours CPGE EC-E, HEC 2017) – Politique monétaire et activité économique (CAPES externe de SES 2018) ******ebook converter DEMO Watermarks*******





À la lumière de l’histoire, un pays doit-il toujours lutter contre son déficit de la balance des opérations courantes ? (Concours CPGE EC-E, Ecricome 2018) Quels liens peut-on établir entre les inégalités de revenus et la survenance des crises économiques1 ?

Quels enjeux pour les sujets… « Doit-on considérer que la désindustrialisation constitue un processus inéluctable dans un pays développé ? » De prime abord, on note la présence d’un seul concept dans ce sujet qui porte sur une thématique centrale du débat public depuis plusieurs années : la désindustrialisation. La formulation de la question, avec l’usage du verbe « devoir » et le qualificatif « inéluctable », implique une lecture attentive qui conduit de prime abord à poser les deux remarques suivantes : 1. « Doit-on » semble a priori inviter à une réponse normative. Rappelons d’emblée que dans une dissertation de science économique, il n’est jamais question d’argumenter sur la base de choix axiologiques personnels (voir Méthode n° 4). En conséquence, il s’agit d’une formule de style dont le but est d’inciter le candidat à orienter sa réflexion d’une part vers les enseignements de la science économique s’agissant de la transformation des systèmes productifs ainsi que de leurs conséquences et, d’autre part, vers les choix de politique économique qui peuvent peser sur le processus de désindustrialisation lorsqu’il est à l’œuvre. En d’autres termes, si le sujet implique de présenter l’état des savoirs scientifiques sur ce thème (le « on » peut représenter la profession des économistes), il s’agit aussi d’interroger les politiques économiques conduites et/ou envisageables face à ce processus qui est le plus généralement perçu comme dommageable pour l’économie d’un territoire (dans ce second cas, le « on » peut représenter les autorités politiques d’un pays ou d’un groupe de pays comme par exemple l’Union européenne). 2. Le qualificatif « inéluctable » invite par ailleurs à se demander s’il est vain de chercher à contrecarrer le processus de désindustrialisation. Pour le dictionnaire Le Robert, « inéluctable » signifie « contre lequel il est impossible de lutter ». Cela renvoie à l’idée d’un phénomène qui est à la ******ebook converter DEMO Watermarks*******

fois inévitable et nécessaire. Dans le débat public, la désindustrialisation, telle qu’elle est perçue dans les pays développés et particulièrement en France, conduit souvent à une forme de fatalité face à un processus dont tout le monde semble s’accorder pour dire qu’il a des effets dommageables sur l’économie (baisse de l’emploi industriel, délocalisations d’entreprises, intensification de la concurrence avec les pays émergents, etc.). Le sujet invite donc à interroger cette position qui est souvent perçue comme un « allant de soi » : doit-on considérer que le recul du secteur industriel (par rapport au PIB, par rapport aux emplois, dans la structure de la consommation notamment) et la perte de compétitivité qui l’accompagne le plus souvent dans un contexte de mondialisation de plus en plus concurrentielle sont les composants d’un processus inexorable contre lequel il est vain de lutter ? Le savoir établi par la science économique conduit clairement à une réponse en deux temps qui dépend de la définition que l’on adopte. D’une part, il est manifeste que les PDEM connaissent une baisse structurelle et relative de l’activité industrielle. Cette baisse est mesurée par la part de l’industrie dans la valeur ajoutée, par celle de l’emploi industriel dans l’emploi total, ainsi que par la montée relative des activités de services dans le système productif même si de nombreux travaux s’accordent pour nuancer ce processus (il existe une industrialisation des services). En ce sens, la désindustrialisation peut être considérée comme inéluctable et elle est étudiée comme telle par des économistes comme D. Rodrik aux ÉtatsUnis ou P. Artus en France. Pour autant, elle ne cor​respond pas nécessairement au phénomène connoté négativement tel qu’il est perçu dans le débat public. D’autre part, si on entend par « désindustrialisation » le processus qui conduit à la disparition de gains de productivité et à la perte progressive des parts de marchés dans la compétition internationale pour les firmes européennes par exemple, alors la réponse à la question posée par le sujet est ​clairement négative : il existe d’importants gisements de productivité dans certaines activités de services comme le secteur de la banque et de l’assurance, les télécommunications, etc. ; par ailleurs, les politiques économiques mises en œuvre (notamment la politique industrielle) peuvent conduire à améliorer la compétitivité des firmes sur un territoire et il n’existe aucune fatalité à la dynamique des spécialisations productives. À partir de ces deux questions, l’enjeu du sujet apparaît de manière plus ******ebook converter DEMO Watermarks*******

explicite. La perception du processus de désindustrialisation dans le débat public est sous-tendue par des craintes s’appuyant sur des lieux communs et/ou des discours politiques qui, en fin de compte, ne résistent pas à l’examen : il existe bien une tendance structurelle à l’évolution des systèmes productifs et si, depuis quelques décennies, la plupart des PDEM rencontrent des difficultés face aux pays émergents, cette tendance implique une évolution des choix de politique économique, en particulier sur le plan industriel ainsi que de la coopération État-Entreprises en matière d’innovation et de spécialisation productive.

Méthode n° 4 La dissertation de science économique : analyse normative ou analyse positive ? Certains sujets peuvent apparaître a priori déstabilisants du fait de leur formulation qui semble inviter à une réponse normative. C’est notamment le cas des sujets suivants : – « Doit-on considérer que la désindustrialisation constitue un processus inéluctable dans un pays développé ? » (Concours CPGE EC-E, ESCP 2018) – « Depuis le début du XXe siècle, qu’est-ce qu’un bon taux de change ? » (Concours CPGE EC-E, Ecricome 2013) – « “L’Europe sera monétaire ou ne sera pas.” Que pensez-vous de cette assertion ? » (Concours CPGE EC-E, Essec 2012) – « L’inflation est-elle la meilleure des solutions pour résoudre les crises de la dette publique ? » (Concours CPGE EC-E, ESCP-Europe 2012) – « Faut-il souhaiter, ainsi que le soutenait J. M. Keynes, l’euthanasie des rentiers ? » (Concours CPGE EC-E, Ecricome 2013) – « À la lumière de l’histoire, un pays doit-il toujours lutter contre son déficit de la balance des opérations courantes ? (Concours CPGE EC-E, Ecricome 2018) Rappelons à ce propos qu’une des caractéristiques centrales de la dissertation de science économique est de proposer une analyse positive qui mobilise des arguments de nature scientifique à la fois conceptuels et empiriques. Les discours doctrinaux personnels ou, a fortiori, relevant des opinions ou des lieux communs, doivent être proscrits. En d’autres termes, même si l’énoncé du sujet semble inviter à des prises de position qui relèvent de jugements de valeur, il faut considérer qu’il s’agit d’une simple manière, pour le concepteur du sujet, de présenter le problème de sorte que cela invite à la réflexion. Il n’est donc pas question pour le candidat de développer ce qu’il pense personnellement des modalités possibles de la construction européenne, du recours à l’inflation pour alléger le poids de la dette publique ou encore de la place de l’épargne dans l’activité économique. Dans tous les cas de figure, il s’agira de produire un texte dont la structure et l’argumentation sont certes personnelles mais dont le corpus de connaissances qui le constitue a été produit, non par le rédacteur lui-même, mais au sein de la communauté savante à laquelle on se réfère. Il existe par exemple des arguments fondés en raison,

******ebook converter DEMO Watermarks*******

parfois contradictoires, qui permettent d’analyser la place de l’épargne dans l’activité économique et ce sont ces arguments qui permettront de discuter de la fameuse citation de J. M. Keynes sur l’euthanasie des rentiers. De même, la question du déficit ou de l’excédent de la balance des transactions courantes d’un pays fait l’objet de travaux académiques nombreux et ce sont ces travaux qu’il sera légitime de mobiliser afin de les articuler avec la présentation des choix de politique commerciale conduits par les gouvernements. En ce sens, la dissertation est aussi l’occasion de montrer que le savoir économique conduit à une expertise qui est mise à disposition, via le débat démocratique, des autorités politiques. Si cette posture de neutralité axiologique, pour reprendre la formule de M. Weber, est essentielle, elle ne doit pas pour autant conduire le rédacteur du devoir à se dissimuler derrière elle et à renoncer à toute démonstration. À ce titre, les formulations de sujets qui invitent le candidat à se positionner peuvent être interprétées comme un signal pour orienter la problématique de la dissertation (voir « Un exemple de cadrage de sujet » relatif à la problématique, p. 44). En fin de compte, sur cette question délicate d’articulation entre le discours normatif et le discours positif, nous vous conseillons de dépasser rapidement l’effet de surprise, au moment de la lecture du sujet dès lors que celui-ci semble inviter à une prise de position personnelle. Il faut pour cela : – Se demander quels sont les soubassements scientifiques de la question qui est posée et orienter votre réponse dans cette direction. En effet, au cours de la rédaction de la dissertation, il faut être en mesure, pour chaque argument développé, d’en connaître l’origine et de l’expliciter (économiste, courant théorique concerné, contexte de production du mécanisme, etc.). Pour cela, il faut garder à l’esprit quelques questions clés : « D’où provient cette idée que je vais développer dans la copie ? » Semble-t-elle « frappée au coin du bon sens » ou puis-je en identifier précisément la source ? Quelle est son origine théorique ? Fait-elle consensus dans la communauté des économistes ou fait-elle à l’inverse l’objet d’un débat scientifique ? La validité empirique de cette idée est-elle significative ou partielle ? Par exemple, pour le sujet relatif à la citation de Keynes, il peut être avisé de montrer que les comportements d’épargne varient selon le contexte économique et notamment selon la progression du revenu des ménages. Cela peut conduire à mobiliser l’hypothèse de Keynes qui a pris le nom de « loi psychologique fondamentale » pour discuter ensuite dans le devoir de sa validité empirique. Même si cet énoncé a été partiellement remis en question par des travaux empiriques ultérieurs (S. Kuznets à partir de 1946), sa présence dans la copie est légitime de par son caractère académique mais également du fait de sa validité partielle (la propension moyenne à consommer est bien décroissante lorsqu’on compare le revenu des ménages en coupe transversale) ou encore de par le renouvellement des débats qu’elle a suscité par la suite (développement de la théorie du revenu permanent de M. Friedman par exemple). De même, pour le sujet relatif à la désindustrialisation, il sera sans doute nécessaire de montrer que de nombreux travaux depuis le début des années 2010 (notamment dans le cadre de l’Insee) montrent que les difficultés en matière de compétitivité des firmes de l’économie française ne sont pas réductibles au recul des activités industrielles mais découlent aussi de la faible propension à innover des entreprises de taille intermédiaire (ETI) dont le marché est exclusivement hexagonal alors qu’à l’inverse celles qui sont tournées vers les marchés extérieurs innovent davantage. Cet argument empirique est repris par P. Aghion, G. Cette et É. Cohen dans leur ouvrage Changer de modèle (2014) lorsqu’ils montrent que les ressorts de la

******ebook converter DEMO Watermarks*******

compétitivité de l’économie française doivent être recherchés du côté du nombre de la qualité des ETI dans le maillage du système productif, ce qui implique une réorientation de la politique industrielle. L’idée importante dans la dissertation est finalement de toujours s’assurer du statut de l’argument versé sur la copie : celui-ci peut être de nature théorique (une hypothèse, un mécanisme issu d’un modèle) ou empirique (compte rendu d’enquête, données statistiques probantes) mais doit, dans chaque cas de figure, faire l’objet d’une contextualisation et d’un référencement précis. – Il faut par ailleurs utiliser dans le devoir, lorsque c’est opportun, des arguments normatifs qui sont produits dans le débat public et qui conduisent parfois à des choix politiques comme des ressources complémentaires qui viennent renforcer votre analyse. Par exemple, il peut être légitime d’expliquer que certains partis politiques revendiquent une réduction du niveau des dettes publiques par le recours à plus d’inflation alors que d’autres, à l’inverse, le refusent catégoriquement. De même, dans certains contextes historiques, les autorités politiques et monétaires ont considéré qu’un « bon taux de change » était celui qui permettait, par la faiblesse de la valeur externe de la monnaie, de stimuler la compétitivité-prix, ce qui pouvait conduire, notamment grâce à l’instrument de la dévaluation compétitive, à restaurer l’équilibre de la balance des transactions courantes. À l’inverse, d’autres contextes ont conduit au point de vue inverse (politique du « franc fort » par exemple en France à partir de 1985 ou encore du « poids » de l’Allemagne dans la valeur externe de l’euro jusqu’à une date récente). Dans tous les cas de figure, si ces confrontations doctrinales prennent logiquement place dans le devoir, elles ne sauraient être suffisantes pour traiter le sujet, le candidat devant les soumettre à une critique scientifique. Enfin, précisons que la meilleure façon de sortir du piège de la « dérive normative » réside sans doute dans une problématisation pertinente du sujet : c’est la qualité de votre démonstration qui permettra de répondre réellement au problème que le sujet pose, et par là même de dépasser la tentation de la simple prise de position personnelle.

« L’entreprise (depuis le XIXe siècle) peut-elle se passer de l’entrepreneur ? » Ce sujet, qui se présente sous la forme d’une question s’appuie sur deux concepts clés qui, en apparence, sont très proches l’un de l’autre : entreprise et entrepreneur. Sa formulation est académique, elle ne pose pas de difficulté particulière et le domaine de connaissance auquel il renvoie est assez explicite : l’analyse économique de la firme. En outre, une précision relative au cadrage est proposée (« depuis le XIXe siècle »), ce qui devrait inciter le candidat à donner une profondeur historique au traitement du sujet. Pour autant, sa difficulté réside sans doute dans le risque d’une lecture hâtive qui conduirait à une rédaction de type « question de cours » sur l’économie de la firme avec, en fin de compte, un traitement du sujet dépourvu d’enjeu, c’està-dire a-problématique (voir Méthode n° 5). Pour éviter cette erreur, il ******ebook converter DEMO Watermarks*******

convient d’expliciter l’expression « peutelle se passer » sur laquelle le sujet repose. Il s’agit en fait de se demander si l’entreprise, en tant qu’organisation mettant en œuvre une production marchande, a nécessairement besoin de s’appuyer sur la figure emblématique de l’entrepreneur ou si, au contraire, la place de ce dernier est contingente et n’affecte ni la gouvernance de la firme, ni l’efficacité de sa participation à la dynamique économique. La discussion autour du caractère « incontournable » de l’entrepreneur devra ainsi être reliée à deux questions : d’une part, celle des objectifs de la firme (qui sont pluriels et ne se limitent pas à la recherche du profit) ; d’autre part, celle des fonctions que l’entreprise remplit dans la dynamique économique (l’entreprise comme acteur de la croissance économique mais aussi comme partie prenante centrale des enjeux de développement d’un territoire). Implicitement, ce sujet renvoie au débat ancien qui a été initié par J. A. Schumpeter dans Capitalisme, socialisme et démocratie (1942) lorsque celui-ci évoque « le crépuscule de la fonction d’entrepreneur ». On invite le candidat à se demander si, sur le temps long de l’histoire économique, les entreprises sont devenues des organisations qui ne laissent plus de place à l’entrepreneur, c’est-à-dire l’agent économique qui endosse le risque, qui met en œuvre les innovations et qui est à l’origine de la dynamique du capitalisme selon l’expression de Schumpeter ; et si, le cas échéant, elles n’ont pas connu une forme de dénaturation. Par exemple, Schumpeter s’appuie sur l’image du « condottieri » pour caractériser l’entrepreneur, celui qui endosse le rôle de chef de guerre charismatique. En accord avec cette idée, on parle parfois de « capitaine d’industrie » comme synonyme d’entrepreneur (en italien, Enzo Ferrari était nommé « il commendatore »). Il y a dans ce débat un enjeu politique important avec notamment une critique de la bureaucratie managériale ainsi qu’une dénonciation des errements du capitalisme actionnarial. Pour autant, il s’agit aussi d’une question qui peut être traitée sous l’angle scientifique. Il faudra pour cela s’appuyer sur des définitions rigoureuses de chacun de ces deux concepts et discuter de la portée heuristique de deux hypothèses : a) d’une part, celle qui considère que le capitalisme a besoin d’une élite entrepreneuriale pour assurer son dynamisme ; b) d’autre part, celle qui considère qu’au fil de l’histoire cette élite entrepreneuriale a tendance à s’effacer soit au profit d’une « ère des managers », soit à celui d’un capitalisme placé sous la gouvernance des actionnaires, soit sur un modèle ******ebook converter DEMO Watermarks*******

d’entreprise qui repose sur la coopération des parties prenantes.

Méthode n° 5 La dissertation et la question de cours : éviter la confusion L’erreur qui consiste à « vider le sujet de son enjeu » pour le traiter comme une question de cours (présenter les connaissances relatives à l’analyse économique de la firme et à sa gouvernance plutôt que de répondre à la question de savoir si l’entrepreneur est incontournable pour l’entreprise par exemple) est une dérive classique que les correcteurs des concours rencontrent fréquemment dans les copies. Elle repose sur une confusion entretenue par le candidat entre une « question de cours » et l’exercice de la dissertation. Le plus souvent, dans leur cours relatif à l’économie de la firme, les candidats ont appris conjointement comment celle-ci est analysée dans les théories contractuelles (théories de coûts de transactions, théorie de l’agence, etc.) puis dans les théories institutionnalistes. Ils ont ensuite appris comment les formes de gouvernance des firmes ont évolué au cours du temps. La tentation est donc grande, lors de la rédaction de la dissertation, « d’enchaîner » les arguments puisés dans ce corpus de connaissances : le devoir se transforme alors en « question de cours », « l’ère du capitalisme actionnarial succède à celle du capitalisme managérial », ce qui conduit à la fois à une pratique du hors-sujet et à une absence de réponse à la question. Dans les deux cas de figure, le risque est grand que cela s’avère rédhibitoire. Le meilleur moyen d’éviter cette dérive est de prendre le temps de bien identifier l’enjeu du sujet en précisant son champ d’application et le problème qu’il appelle à résoudre. Le sujet de la dissertation doit être considéré comme un objet de réflexion propre qui, dans un premier temps à tout le moins au cours de l’épreuve, a besoin d’être déconnecté des chapitres de cours qui ont été appris. Rappelons encore que disserter c’est répondre à une question, il est donc légitime et nécessaire que cette réponse apparaisse de manière explicite dans le devoir.

« Politique monétaire et activité économique » Ce sujet prend le parti d’une formulation très académique en se présentant simplement comme l’articulation de deux concepts. Il s’agit d’une option qui est fréquemment utilisée dans le cadre des concours du CAPES et de l’Agrégation de SES mais aussi dans certains sujets de concours de CPGE. Citons par exemple, « Comportements économiques et institutions » (Agrégation externe 2016), « Fiscalité et croissance économique » (CAPES externe 2013), « Taux d’intérêt et politique monétaire » (CAPES externe 2010) mais aussi « Progrès technique et emploi » (ESSEC 2005), « Croissance et inégalités » (ESSEC 2015). Il s’agit d’un type de sujet que l’on rencontre aussi fréquemment dans les épreuves orales de concours : ******ebook converter DEMO Watermarks*******

« Délocalisations et emploi » (HEC 2017), « Innovation et monopole » (HEC 2017), etc. En apparence simple sur le plan de la lecture, ce type de sujet présente toutefois au moins deux difficultés qui impliquent : 1. D’être attentif à bien rester « ancré » sur l’interaction entre les deux concepts et ne pas considérer l’un ou l’autre selon une logique propre. Par exemple, toute analyse se limitant à un examen de la politique monétaire en distinguant ses objectifs et ses instruments ne répondrait pas au problème que le sujet pose implicitement. Même s’il est sans doute nécessaire d’étudier la diversité des instruments de la ​politique monétaire (passage d’un refinancement à taux fixe à des instruments de marchés à partir des années 1970 par exemple, instruments spécifiques de la politique monétaire mis en œuvre dans la zone euro à partir de 1999, émergence des instruments non conventionnels depuis 2008…), c’est bien de leurs effets sur le niveau de l’activité (stimulation, ralentissement ou… absence d’effet) qu’il s’agit afin d’apporter une réponse à la question implicite. Le même corpus de connaissances qui ferait l’objet d’une étude « pour lui-même » conduirait mécaniquement à ne pas répondre. 2. D’expliciter la nature des liens qui existent entre les deux concepts dans la mesure où la formulation du sujet ne propose aucune piste explicite qui permettrait d’orienter la réflexion. Pour dépasser cette seconde difficulté, il est nécessaire de donner au sujet une dimension problématisée, c’est-àdire proposer une démonstration dans le devoir. Par exemple, il s’agira de montrer sous quelles conditions la politique monétaire peut efficacement influencer le niveau de l’activité économique, que ce soit dans le sens de la stimulation ou, au contraire, dans celui de son ralentissement. Cette relation de cause à effet est discutée sur le plan théorique (elle dépend notamment de l’hypothèse de neutralité de la monnaie) mais les canaux de transmission de la politique monétaire vers l’activité économique dépendent aussi du contexte historique et institutionnel (la nature de la politique monétaire est très différente au cours des Trente Glorieuses et dans les années 1980, depuis 1999 avec l’avènement de la zone euro ou encore depuis la crise mondiale de 2008). Il faut donc être attentif à ne pas opposer de manière binaire et inamovible les ​positions théoriques (politique monétaire active dans la tradition keynésienne et politique monétaire par nature inefficace dans l’approche monétariste) en montrant que les savoirs sont cumulatifs et ******ebook converter DEMO Watermarks*******

que le débat sur l’efficacité de la politique monétaire a profondément évolué ​notamment depuis 2008. L’enjeu du sujet ici est donc bien d’examiner principalement les conséquences de la politique monétaire sur le niveau de l’activité en prenant en considération la diversité des ​instruments (conventionnels et non conventionnels) mais également l’élargissement des objectifs (avec, par exemple, la prise en compte de ​l’objectif de stabilité financière). Il s’agira aussi de prendre en considération un « effet retour » en montrant que, selon le contexte, ​l’activité économique peut conduire à des ajustements dans la conduite de la politique monétaire. La lecture du sujet peut ainsi être schématisée La dissertation comme suit (figure 2.1) :de science économique : quelle méthode ? Activité économique

Politique monétaire

Premier débat : quelle efficacité de I’instrument monétaire sur le niveau de I’activité ?

1

Efficace : hypothèse de monnaie active policy-mix (modèle IS/LM) Inefficace : neutralité de la monnaie à long terme effets pervers des politiques monétaires discrétionnaires

Second débat : depuis 2008, renouveau de I’analyse quant aux effets de la politique monétaire sur la régulation de I’activité économique

2

Nouveau dispositif institutionnel et nouvelles pratiques par les banques centrales : usages non conventionnels de la politique conventionnelle et politique monétaire non conventionnelle Les nécessaires limites du soutien à I’activité par les politiques monétaires depuis 2008

Figure 2.1 Enjeu du sujet : politique monétaire et activité économique

« À la lumière de l’histoire, un pays doit-il toujours lutter contre son déficit de la balance des opérations courantes ? » Ce sujet porte sur un thème classique de l’analyse économique (le commerce extérieur d’un pays, son insertion dans la mondialisation commerciale et les déséquilibres macroéconomiques qui, le cas échéant, l’accompagnent). Il peut ******ebook converter DEMO Watermarks*******

pourtant être perçu comme déstabilisant par les candidats pour plusieurs raisons : 1. L’expression « balance des opérations courantes » est moins fréquemment usitée que celle de « balance des transactions courantes » – BTC – alors qu’il s’agit de la même composante de la balance des paiements – BdP – (le compte des opérations ou transactions courantes de la BdP comprend les opérations portant sur les biens, les services et les revenus, c’est-à-dire la rémunération des salariés et les revenus d’investissement consécutifs aux activités qui ont été conduites à l’étranger, ainsi que l’aide au développement). 2. L’usage du verbe « devoir » renvoie à la question de l’articulation entre analyse normative et analyse positive (voir Méthode n° 4) : dans ce cas, il s’agit de se demander s’il est légitime que les autorités politiques d’un pays se donnent comme objectif un solde équilibré de la balance des opérations courantes (étant entendu que, généralement, un solde déficitaire est considéré comme préjudiciable au regard par exemple des objectifs de la politique économique énoncés par N. Kaldor avec le schéma du « carré magique »). Répondre à cette question implique bien entendu de mobiliser les acquis de la science économique et de ne pas s’en tenir à des positions normatives telles qu’elles ont pu être défendues par tel ou tel gouvernant. 3. Le champ de connaissances auquel le sujet renvoie peut sembler de prime abord restreint : l’équilibre du commerce extérieur est en effet une composante parmi d’autres des objectifs de la politique économique, ce qui invite à considérer que le sujet porte sur ce point précis. Ce champ de connaissances se réduit encore davantage si on considère qu’il s’agit d’un objectif portant sur la courte période (et donc qui renvoie à l’exercice des politiques conjoncturelles). Or, il est tout à fait possible, et même sans doute souhaitable, d’élargir le champ de connaissances à la question de la pertinence de l’usage de la BTC (et de son solde !) comme indicateur de mesure de l’insertion d’un pays dans la mondialisation commerciale. Certes, la question du degré de déséquilibre dans cette insertion devra être prise en compte, mais répondre au sujet impliquera aussi de discuter des limites de cet indicateur pour montrer que les autorités politiques d’un pays doivent également prendre en considération la qualité de leur participation à la mondialisation notamment s’agissant de la ******ebook converter DEMO Watermarks*******

compétitivité des firmes installées sur leur territoire et de l’attractivité de celui-ci. Il faudra simplement être vigilant à ne pas inclure directement la mondialisation productive dans le champ du sujet. Sous réserve que ces premiers obstacles soient franchis, l’enjeu du sujet devient plus explicite et la démonstration peut prendre la forme suivante : traditionnellement, un pays mesure son degré de déséquilibre (et par ailleurs son degré d’insertion) dans le commerce international en s’appuyant sur la composante courante de sa balance des paiements. Le solde de cette dernière (déficit ou excédent) est ainsi un indicateur fiable pour mesurer la position d’un pays s’agissant de son commerce extérieur (on peut aussi le représenter sous la forme du taux de couverture). De prime abord, une situation de déficit (conjoncturel mais surtout structurel) significative est le signe d’un déséquilibre extérieur préoccupant qui pose à la fois des problèmes de financement des importations et donc de soutenabilité du déséquilibre, de dépendance de l’économie nationale vis-àvis du reste du monde (mauvaise spécialisation du système productif) et d’affaiblissement de la compétitivité des firmes du territoire (dans le cas où les exportations sont en perte de vitesse). Toutefois, l’analyse économique comme l’observation attentive de l’histoire invitent à la prudence quant à la pertinence et l’usage de cet indicateur qu’est le solde de la BTC. Il existe en effet des situations empiriques nombreuses où un pays connaît un équilibre de son commerce extérieur voire un excédent alors que son économie est en récession importante (les importations chutent avec la baisse cumulative de la demande globale après une crise) ; inversement, un pays peut connaître un déficit prononcé de sa BTC alors qu’il entre en phase haussière d’un cycle et que son activité repart à la hausse (la hausse du PIB entraîne mécaniquement une stimulation des importations). S’agissant des politiques économiques, il est arrivé à des nombreuses reprises dans l’histoire que les autorités d’un pays optent pour des mesures (parfois drastiques) visant à la réduction du déficit courant comme par exemple les dévaluations compétitives dans un système de change fixe mais ajustable (courbe en « j ») ou le choix d’une dépréciation du change en change flexible. Or, de tels choix de politique économique n’ont pas toujours été efficaces notamment en raison de fragilités structurelles des systèmes productifs des économies considérées. De surcroît, l’inefficacité de ce type de mesure est allée croissante avec l’intensification de la mondialisation de l’économie. Enfin, même si le solde de la BTC est un indicateur utile pour ******ebook converter DEMO Watermarks*******

faire apparaître le besoin ou la capacité de financement de l’économie nationale, on peut noter qu’il est utilisé dans plusieurs pays dans une optique néomercantiliste (en Chine et en Allemagne notamment) pour revendiquer le fait que les autres pays devraient également poursuivre cet objectif de recherche de l’excédent de la « balance haute ». Or, il existe une impossibilité macroéconomique du « tous excédentaires » dans la mesure où la capacité de financement des uns implique nécessairement le besoin de financement des autres. En fin de compte, l’enjeu du sujet est à la fois épistémologique et méthodologique : il est important de se doter d’indicateurs de mesure (ici le solde de la BTC) qui permettent de décrire une situation macroéconomique et, dans le même temps, qui incitent à opérer les choix qui s’imposent en matière de politique économique. Mais tout indicateur est par définition construit et repose sur des conventions, sa portée et son usage doivent donc être limités. Dans le cas de ce sujet, l’objectif important de politique économique, dans un contexte de mondialisation avancée, porte sur la compétitivité de l’économie d’un pays, la qualité de la spécialisation de son système productif dans la segmentation des chaînes de valeur comme dans sa distance à la frontière technologique ou encore dans le rythme de sa croissance économique potentielle. Le recentrage abusif sur un indicateur comme le solde de la BTC peut conduire les autorités à faire des erreurs de politique économique par exemple en confondant le court terme et le long terme. Comme le disait lui-même N. Kaldor, il ne faut pas confondre les objectifs intermédiaires et les objectifs finaux de la politique économique : le solde de la BTC n’est qu’un objectif intermédiaire.

Méthode n° 6 La maîtrise des contenus disciplinaires et l’enjeu du sujet : des liens étroits Il est courant que les étudiants expriment un sentiment de « prise de conscience » de l’enjeu du sujet au moment… de la correction qui leur est proposée par leurs formateurs, après la réalisation du devoir ! Cette idée que la compréhension du sujet vient « après coup » et surtout qu’elle n’est pas ou difficilement transposable sur les sujets ultérieurs conduit à un sentiment d’injustice et de blocage dans la progression des apprentissages. L’expérience montre que ce problème est lié à l’insuffisante prise en compte par les candidats des liens qui existent entre l’enjeu du sujet et la maîtrise des contenus qui lui sont associés. Nous pensons que si cette prise de conscience du « sens du sujet » s’effectue seulement au moment de la correction, c’est qu’en réalité

******ebook converter DEMO Watermarks*******

un apprentissage disciplinaire a bien lieu à cette occasion. Le fait que l’évaluation sous forme de « dissertation test » ait une composante formative est bien entendu souhaitable et légitime. Si, toutefois, c’est l’essentiel de l’apprentissage qui s’effectue lors de cette étape, cela explique pourquoi le sujet n’a pu être convenablement compris lorsque le candidat l’a travaillé en autonomie. Ainsi, si le sujet relatif au déséquilibre de la balance des opérations courantes présenté ci-dessus peut paraître de prime abord déstabilisant, c’est notamment en raison du fait qu’il y a de grandes chances pour que le candidat oriente sa réflexion sur la seule question de la mesure du commerce extérieur d’un pays et sur le degré de déséquilibre qui l’accompagne (usage du solde de la BTC ou du taux de couverture par exemple). Le sentiment qui peut alors se dégager est qu’il y aura « peu de choses à dire » sur un tel sujet. Si, en revanche, les connaissances relatives aux ressorts de l’insertion d’une économie dans la mondialisation commerciale ont été solidement apprises et capitalisées, la connexion logique avec l’enjeu du sujet s’effectuera de manière plus fluide. Par exemple, s’agissant des pays d’Europe, le cas du modèle allemand est souvent mis en avant : une BTC structurellement excédentaire depuis le début des années 2000 combinée avec un taux d’ouverture (moyenne des exportations et des importations, rapportée au PIB) de 47 % en 2017. Or, ce modèle allemand découle de caractéristiques de fond de l’économie germanique telles que la compétitivité des entreprises innovantes de taille intermédiaire (ETI) dites de « mittelstand », un maillage de firmes spécialisées dans de nombreux secteurs clés (chimie, pharmacie, électronique et matériel électrique, etc.) avec un recours important à la sous-traitance nationale et internationale (outsourcing), mais aussi une régulation du marché du travail qui a conduit à améliorer la compétitivité-prix des firmes allemandes par rapport à celles installées dans les autres pays de l’Union européenne, etc. Par ailleurs, cette question du modèle allemand fait débat : elle s’inscrit dans une perspective néomercantiliste, suppose un partage de la valeur ajoutée qui s’oriente en faveur des profits et au détriment des salaires (modération salariale depuis les lois Hartz de 2003 notamment) et s’appuie sur un processus de polarisation du marché du travail selon les niveaux de qualifications. Avec cet exemple, on comprend que le sujet invite aussi à traiter, d’une part, de la dynamique du commerce intra-branche entre PDEM et notamment de l’échange intrabranche vertical au sens de J.-L. Muchielli (échange de gamme comme par exemple le commerce franco-allemand d’automobiles) et des enjeux de compétitivité (prix et structurelle) pour les firmes qui en découle mais aussi, d’autre part, de la dynamique du commerce inter-branche et de la spécialisation productive, c’est-à-dire des origines des avantages comparatifs avec, par exemple, la constitution d’économies d’agglomération qui permettent à certains territoires de devenir plus performants (modèles de la nouvelle économie géographique notamment développés par P. Krugman). Par ailleurs, c’est aussi un sujet qui invite à réfléchir sur la question des « modèles nationaux », de leurs composantes coopérative ou non coopérative et de la pertinence de les transférer vers d’autres pays. En fin de compte, il s’agira bien d’étudier la question de l’équilibre du commerce extérieur des pays tout en prenant appui sur des connaissances diverses (et qui peuvent parfois sembler indirectement reliées au sujet) qui ont été capitalisées au cours de la formation. Pour reprendre une métaphore connue, c’est le principe du « fil et de la pelote de laine » : une des difficultés principales au moment de l’épreuve est justement de correctement identifier l’existence de « fils possibles » (comment

******ebook converter DEMO Watermarks*******

expliquer les performances de l’économie allemande dans le commerce mondial ? Comment discuter des sources de ces performances ?). La suite devient plus aisée : il suffit de tirer sur le fil pour dérouler la pelote…

« Quels liens peut-on établir entre les inégalités de revenus et la survenance des crises économiques ? » Ce sujet se présente sous la forme d’une phrase interrogative mobilisant deux concepts : celui d’inégalité de revenus et celui de crise économique. La question porte explicitement sur les relations qui existent entre ces deux concepts, ce qui fournit une information précise pour identifier l’enjeu du sujet. Même si la formulation ne pose pas des difficultés apparentes, il convient cependant de faire une lecture attentive du sujet. On peut pour cela partir des remarques suivantes : 1. C’est le concept d’inégalité de revenus qui est choisi et non celui, plus large, d’inégalité. Comme on le sait, les inégalités sont un objet d’étude pour plusieurs disciplines, outre la science économique, telles que la sociologie, la philosophie ou encore la démographie. La grille de lecture comme la démarche méthodologique utilisées en science économique étant propres à cette discipline, c’est dans cette perspective qu’il s’agit ici de se situer (en particulier, il ne s’agira pas d’étudier les inégalités entre des individus ou des groupes sociaux du point de vue des interactions que ces derniers entretiennent entre eux comme c’est le cas dans la démarche sociologique). Pour autant, il ne s’agit pas non plus de mobiliser sur cette question le point de vue exhaustif de la science économique. Ainsi, il aurait pu être légitime de s’intéresser à toutes les formes d’inégalités. Il existe ainsi une analyse économique des inégalités dans l’accès à l’emploi, dans l’accès à la qualification, mais aussi des inégalités face à la répartition du patrimoine, etc. Le sujet invite à resserrer l’approche autour de la question des revenus, c’est-à-dire au sens de J. R. Hicks, à ce qui peut être consommé par un agent économique au cours d’une période de temps sans amputer la valeur de son patrimoine. Les revenus prennent naissance dans la production, c’est-à-dire dans la création de valeur ajoutée au cours de chaque cycle de production. En ce sens, le revenu est un flux tandis que le patrimoine est un stock. Il faudra être attentif à prendre en considération la diversité des formes de revenus et ne pas se limiter à la seule question des revenus du travail que sont les salaires (en particulier, se posera la question des revenus du capital – les profits –, ******ebook converter DEMO Watermarks*******

ainsi que des revenus du patrimoine – les dividendes ou les intérêts pour le patrimoine financier). 2. La deuxième remarque porte sur la nature de la relation entre les deux concepts. Depuis maintenant de nombreuses années et en particulier depuis la crise mondiale de 2008, des travaux divers partent de l’hypothèse que les crises et, plus globalement, les déséquilibres macroéconomiques prennent, pour partie certes, mais de manière significative, leur source dans les composantes réelles de l’économie. Ainsi, la hausse de l’endettement, qu’elle concerne les agents privés (ménages, entreprises), les États avec la hausse des dettes souveraines et plus globalement les économies nationales (déficit structurel de la balance des transactions courantes pour de nombreux pays), peut s’interpréter comme une conséquence directe de l’augmentation des inégalités de revenus à l’œuvre depuis quelques décennies. Plusieurs économistes ont montré que ce processus, qui trouve son origine dans l’économie réelle, est un élément déclencheur important de la crise de 2008. En France dès 2009, les travaux de J.-L. Gaffard et F. Saraceno dans le cadre de l’OFCE montrent qu’à côté des facteurs financiers, les inégalités de revenus ont contribué à la chute de la demande, de la production et de l’emploi et qu’il s’agit là d’un facteur prépondérant de la crise. De même, dans un ouvrage marquant, R. Rajan montre en 2010 (Crise : au-delà des marchés financiers) que c’est la hausse des inégalités de revenus qui a conduit à des innovations financières dans le système bancaire américain, innovations responsables de la crise des subprimes de 2007. Enfin, notons qu’il ne s’agit pas là d’un phénomène inédit à l’échelle de l’histoire : par exemple des mécanismes analogues se sont produits à l’occasion de la crise de 1929, ce qui donne aussi au sujet une dimension historique. En fin de compte, l’enjeu de ce sujet peut être formulé à partir de la question suivante : comment et pourquoi un déséquilibre macroéconomique relatif à l’économie réelle – la hausse des inégalités de revenus – explique-t-il les crises économiques y compris dans leur composante financière ? 3. La dernière remarque découle de la précédente : la nature de la relation entre inégalités de revenus et crises économiques établie ci-​dessus conditionne le sens de cette relation tel qu’il convient de la traiter dans le devoir : il s’agira principalement d’examiner les conséquences de la hausse de ces inégalités lorsqu’elles sont à l’œuvre sur la survenance des ******ebook converter DEMO Watermarks*******

crises mais aussi sur leur risque de survenance. Même s’il est par ailleurs légitime de se demander comment les crises peuvent aussi avoir un effet sur la dynamique des inégalités (il existe des interactions réciproques entre les deux phénomènes), il ne s’agit pourtant pas de l’enjeu principal du sujet. On peut considérer qu’il existe deux principaux mécanismes de propagation des inégalités de revenus sur la survenance des crises : des mécanismes par le canal des déséquilibres dans l’économie réelle (effets sur la demande, la production et l’emploi) et des mécanismes par le canal des déséquilibres dans la sphère financière (hausse de l’endettement des agents, innovations financières, inflation des prix des actifs financiers, hausse du risque systémique). Cette idée est schématisée dans la figure 2.2. 1. Inégalités de revenus

Déséquilibres dans I’économie réelle Déséquilibres fnanciers et hausse du risque systémique

2. Explication des crises économiques/hausse du risque de crise économique

Figure 2.2 Enjeu du sujet : quels liens peut-on établir entre les inégalités de revenus et la survenance des crises économiques ?

Entraînement n° 1 Identifier l’enjeu des sujets de concours suivants : – Qu’est-ce qu’une bonne gouvernance d’entreprise ? (Concours EC-E, Ecricome 2016) – Depuis les années 1980, la mondialisation est-elle responsable du chômage dans les pays avancés ? (Concours EC-E, Ecricome 2016) – La mondialisation peut-elle expliquer les mauvaises performances économiques et sociales d’un pays ? (Concours EC-E, ESCP-Europe 2016) – Comportements économiques et institutions (Agrégation externe de SES 2016) ******ebook converter DEMO Watermarks*******

– – – –

2

Les politiques industrielles dans le contexte de la mondialisation (ENA, Concours externe 2017) Un État doit-il s’inquiéter de l’augmentation de sa dette publique ? (Concours EC-E, Ecricome 2017) Faut-il réglementer les marchés ? (Épreuve orale, concours HEC 2017) Comment expliquer le chômage français contemporain ? (Épreuve orale, Concours ESM-Saint-Cyr 2018)

Cadrer le sujet

Lorsque l’enjeu du sujet a été identifié et que les risques de lecture erronée ont été écartés, une des questions qui se pose ensuite est celle de son cadrage. Cette étape est essentielle dans la mesure où il s’agit de fixer un périmètre à l’intérieur duquel les connaissances permettant de nourrir la réflexion vont être mobilisées. Ce cadrage du sujet comporte pour l’essentiel deux composantes : une composante historique et géographique d’une part et une composante thématique liée au domaine de connaissances concerné d’autre part.

2.1 Le cadrage historique et géographique Certains sujets donnent des informations explicites relatives à ce type de cadrage. On peut relever par exemple : – La concentration industrielle est-elle toujours un obstacle à la concurrence ? Vous appuierez vos assertions sur des exemples tirés de l’histoire économique depuis 1850. (Concours CPGE EC-E, ESCPEurope 2006) – Depuis le début du XXe siècle, qu’est-ce qu’un bon taux de change ? (Concours CPGE EC-E, Ecricome 2013) – Depuis 1945, dans quelle mesure l’endettement des agents économiques a-t-il été facteur de croissance dans les PDEM ? (Concours CPGE EC-E, Ecricome 2009) Dans ces cas de figure, le signal envoyé par le sujet est clair : il faut ******ebook converter DEMO Watermarks*******

suivre scrupuleusement la consigne et proposer une analyse qui s’inscrit dans la perspective historique (et, le cas échéant, géographique) indiquée. Par exemple, le sujet sur la concentration industrielle cité ci-dessus invite à étudier le cas des grands trusts pétroliers aux États-Unis qui se développent dans la seconde moitié du XIXe siècle. L’épisode de la Standard Oil de Rockefeller en 1870 puis celui de la Standard Oil Company (SOC), holding fondée encore par Rockefeller en 1899 ont été à l’origine des premières lois fédérales sur la concurrence aux États-Unis (Sherman anti-trust Act en 1890 puis Clayton Act en 1914). On peut supposer que le jury sera attentif à ce genre de développement historique. D’autres sujets, en revanche, ne donnent aucune information relative à une consigne de cadrage historique et/ou géographique. C’est très largement le cas des sujets proposés pour les concours du CAPES et de l’Agrégation de SES (voir l’exemple donné ci-dessus : « Politique monétaire et activité économique »). Il appartient alors au candidat, sur la base de sa compréhension du sujet et de l’enjeu auquel il renvoie, de proposer un bornage pertinent. Dans quelques cas de figure toutefois, le sujet peut donner des pistes implicites. Par exemple, « Le protectionnisme a-t-il de l’avenir dans une économie de plus en plus internationalisée ? » incite à une réflexion sur la place des politiques commerciales de protection dans un contexte de mondialisation. En suivant S. Berger (Notre première mondialisation, 2003), on peut considérer que la première mondialisation débute en 1870, durant la dernière période de la Révolution industrielle. Cette référence académique peut permettre de justifier ce cadrage historique (1870 jusqu’à nos jours) dans le devoir. D’autres sujets, enfin, s’inscrivent dans une perspective très large, rendant possible un cadrage lui-même fort étendu et donc variable selon les dissertations. Par exemple, dans le sujet de l’Agrégation externe de SES 2016 « Comportements économiques et institutions », rien n’interdit d’appuyer la réflexion sur des exemples historiques et géographiques très divers, dès lors qu’ils sont mis au service de la problématique défendue dans le devoir. Ainsi, en suivant D. Acemoglu et J. Robinson (Prospérité, puissance et pauvreté, 2015), on pourra montrer comment le Botswana est un pays qui a su se doter d’institutions mises au service de la croissance économique de manière plus efficace que ses voisins africains ou encore mettre en comparaison la Corée du Nord et la Corée du Sud du point de vue des incitations collectives à certains comportements économiques (prédominance des institutions extractives, pénalisantes pour la croissance en Corée du Nord ******ebook converter DEMO Watermarks*******

et prédominance des institutions inclusives, facteur de croissance en Corée du Sud). En bref, sur ce type de sujet, les références à l’économie du développement à partir de cas empiriques récents seront assurément valorisées par le jury. En fin de compte, la capacité à cadrer le sujet sur le plan historique et géographique dépend en grande partie de la maîtrise des connaissances qui lui correspondent.

2.2 Le cadrage du domaine de connaissances Il est par ailleurs nécessaire de déterminer le ou les domaines de connaissances dans lesquels il faudra puiser pour alimenter la réflexion. Cette étape de la démarche est en apparence simple. Typiquement, au cours de leurs parcours de formation, les étudiants s’appuient sur des cours et des ouvrages structurés par grands thèmes de recherche de la science économique (croissance économique, monnaie et finance, mondialisation, emploi et chômage, politique économique, etc.). Ils se construisent le plus souvent une culture économique basée sur ces découpages thématiques. Toujours typiquement, la plupart des sujets renvoient effectivement à un domaine spécifique de l’analyse économique. Par exemple : – Le sujet « Existe-t-il une fiscalité optimale pour assurer la croissance économique ? » (Concours CPGE EC-E, ESCP-Europe 2014) invite naturellement à mobiliser des connaissances issues du thème de la politique économique (dont la politique fiscale est une composante) ainsi que de celui de la croissance économique (la fiscalité peut notamment fonctionner comme un frein ou, au contraire, comme une incitation aux innovations et à la compétitivité des firmes). – Le sujet « Où commence et où s’achève l’intervention de l’État ? » (CAPES externe de SES 2008) semble se centrer sur le thème large de l’intervention de l’État dans l’économie (fonctions d’allocation, de stabilisation et de répartition de l’État selon la typologie de R. Musgrave). – Le sujet « Depuis le début du XXe siècle, qu’est-ce qu’un bon taux de change ? » (Concours CPGE EC-E, Ecricome 2013) conduit ​logiquement à s’appuyer sur la thématique des relations monétaires internationales et sur les politiques de change. C’est d’ailleurs la plupart du temps le thème de connaissances concerné ******ebook converter DEMO Watermarks*******

qui conduit les étudiants à préférer tel sujet par rapport à tel autre selon les connaissances qu’ils ont capitalisées au cours de leur formation. Toutefois, l’idée que chaque sujet renvoie à un domaine de connaissances particulier doit être considérée avec prudence. En effet, il faut notamment éviter le piège de la confusion entre la dissertation et la question de cours (voir Méthode n ° 5) : le sujet de dissertation doit être envisagé comme un objet propre de réflexion et il faut parvenir à se mettre à distance des « chapitres de cours » à partir desquels on a travaillé afin de pouvoir diversifier les ressources mobilisées et traiter le sujet dans toutes ses dimensions. Par exemple, dans le premier des trois sujets cités ci-dessus, la question de la concurrence fiscale entre les territoires ne doit pas être oubliée. Or, celle-ci relève notamment des thèmes de l’intégration européenne (les politiques fiscales sont de compétences nationales pour les États membres de l’Union européenne, ce qui conduit souvent à une mise en concurrence entre eux plutôt qu’à une stratégie coopérative1) et de la mondialisation productive (certains pays émergents s’appuient sur une stratégie de fiscalité nulle ou quasi nulle pour attirer les filiales des FTN). On peut aussi utilement mobiliser les acquis de la théorie des jeux : en Europe, la concurrence fiscale entre les États conduit à un équilibre non coopératif source d’inefficacité économique de l’Union européenne. De même, le deuxième exemple de sujet implique que la thématique des modalités d’intervention de l’État s’articule avec celle de la régulation marchande et de ses défaillances (réduction du degré de la concurrence en l’absence d’une politique de concurrence, question de l’impossible production des biens collectifs dans le cadre du marché, cas des biens communs conduisant à des défauts majeurs de coordination lorsqu’ils sont alloués dans le cadre du marché, etc.). En fin de compte, il faut parvenir à établir des « connecteurs » par lesquels des connaissances puisées dans des domaines parfois variés pourront être utilement reliées. Il faut penser également à équilibrer les connaissances d’ordre théorique avec celles d’ordre factuel et historique. Au final, pour chaque sujet, on peut considérer que le jury attendra légitimement une série de contenus « incontournables » mais laissera aussi une place significative à des analyses qui pourront varier d’une copie à l’autre, étant entendu que la dissertation ne saurait être un texte répondant de manière exhaustive au problème posé. Il s’agit aussi d’évaluer la capacité du candidat à mettre des contenus divers au service d’une problématique pertinente. ******ebook converter DEMO Watermarks*******

2.3 Un exemple de cadrage de sujet « Quels liens peut-on établir entre les inégalités de revenus et la survenance des crises économiques ? » Dans un sujet comme celui-ci, aucune indication de cadrage historique ou géographique n’est proposée. Cela signifie que le candidat doit s’appuyer sur sa maîtrise des contenus disciplinaires associés au sujet ainsi que sur l’identification de son enjeu pour décider du degré de mise en perspective historique et géographique. Sur le plan historique, la question des crises économiques est inhérente aux économies capitalistes et son analyse remonte aux origines de la pensée économique. Les crises modernes à partir du milieu du XIXe siècle sont des crises de surproduction qui interagissent le plus souvent avec des déséquilibres financiers et le débat autour de la validité de la loi de Say est déjà vif à cette époque. S’agissant de la question des inégalités de revenus, de nombreux travaux (ceux de F. Bourguignon et Th. Piketty en France, ceux d’A. Deaton conduits aux États-Unis par exemple) montrent que celles-ci étaient particulièrement prononcées au cours de la première mondialisation même si le niveau des revenus comme des patrimoines était bien plus faible qu’aujourd’hui. Il s’agit par conséquent de donner une profondeur historique au sujet et ne pas se limiter à la période contemporaine même si son enjeu actuel dans le contexte économique mondial de l’après-crise de 2008 est particulièrement fort. S’agissant des contenus, le candidat doit être en mesure d’articuler des analyses théoriques anciennes avec les travaux récents sur la question. Plusieurs points peuvent être ici considérés comme incontournables : 1. L’analyse mobilisée par les économistes classiques autour de la question des crises de surproduction capitalistes au XIXe siècle sur fond de débat quant à la validité de la loi de J.-B. Say sera sans doute valorisée. Par exemple, Th. Malthus défend l’idée d’une sous-​consommation capitaliste conduisant une insuffisance des ​débouchés : les catégories les plus riches génèrent un excès d’épargne qui est préjudiciable à l’économie. De son côté, J. de Sismondi met en évidence un mécanisme de « sous consommation ouvrière » du fait d’inégalités fortes dans la répartition primaire des revenus pour expliquer les crises. Enfin, K. Marx voit dans la baisse tendancielle du taux de profit une cause essentielle des crises capitalistes. La concentration du capital qui vise à limiter cette baisse ******ebook converter DEMO Watermarks*******

contribue à aggraver les inégalités (processus de paupérisation relative de la classe ouvrière). Bien entendu, toutes les composantes de ce débat théorique ancien ne pourront être présentes dans la dissertation : le candidat devra effectuer des choix sous contrainte. Toutefois, l’idée importante ici est de montrer qu’il ne s’agit pas d’un débat récent dans la discipline et que les économistes de la première heure proposent des grilles de lecture utiles pour rendre compte de cette interaction entre crise et inégalités des revenus. 2. Les études empiriques qui proposent une mise en perspective longue de l’évolution des inégalités de revenus comme par exemple les travaux de F. Bourguignon (La mondialisation de l’inégalité, 2012), Th. Piketty (Le Capital au XXIe siècle, 2013), A. Atkinson (Inequality: What Can Be Done? 2015), ou encore par exemple ceux d’A. Deaton (La grande évasion : santé, richesse et origine des inégalités, 2013) trouveront une place utile et légitime dans le traitement du sujet. On peut aussi faire référence au volumineux Rapport sur les inégalités mondiales (F. Alvarado, L. Cancel, Th. Piketty, E. Saez, G. Zucman, 2018) qui décrit l’évolution des inégalités pour de nombreux pays. Sur cette base, il apparaît que les inégalités de revenus s’inscrivent dans trois grandes phases historiques qui devront être examinées : 1) au cours de la première mondialisation, la répartition fonctionnelle des revenus est très inégalitaire même si du fait d’un niveau de richesse global faible, les inégalités mondiales dans la répartition personnelle des revenus restent contenues. Au sein des pays qui s’industrialisent en revanche (aux ÉtatsUnis notamment et dans une moindre mesure en Europe), l’inégalité dans la répartition personnelle des revenus est très marquée. 2) Pendant une grande partie du XXe siècle (depuis l’entre-deux-guerres jusqu’à la fin des années 1970) qui correspond à une phase de mondialisation contenue, on observe un double processus : d’une part, une réduction des inégalités de revenus au sein des pays industrialisés mais aussi entre eux dès les années 1930 aux États-Unis, après la Seconde Guerre mondiale s’agissant de l’Europe et du Japon (c’est la « grande compression » selon l’expression de Deaton au moment où l’Europe entre dans sa phase de rattrapage par rapport aux États-Unis) ; d’autre part, un creusement des inégalités entre les pays riches et les pays pauvres. 3) La période de la seconde mondialisation qui s’ouvre à partir des années 1970 avec sa composante productive (mobilité internationale accrue des capitaux) et ******ebook converter DEMO Watermarks*******

surtout financière conduit à un autre double processus : d’une part, une réduction importante des inégalités de revenus entre les PDEM et les pays émergents en rattrapage ; d’autre part, un creusement significatif des inégalités intra-nationales au sein des PDEM comme des émergents. Cette seconde composante est un fait saillant sur lequel la démonstration proposée dans le devoir devra s’appuyer. On observe que la crise de 1929 survient à l’issue d’un contexte de niveau élevé d’inégalités de revenus tandis que la crise de 2008 éclate, elle aussi, dans une configuration ou le degré d’inégalités est à nouveau particulièrement fort. 3. L’analyse devra aussi s’appuyer sur la littérature scientifique relative à l’explication des crises financières à proprement parler et qui mettent en évidence la montée du risque systémique (travaux de J. M. Keynes, Ch. Kindleberger ou H. Minsky par exemple). En effet, il ne faut pas minorer la composante « survenance des crises économiques » dans l’énoncé du sujet qui conduit logiquement à examiner les apports de l’analyse économique spécifiquement dédiés à cette question. 4. Le devoir devra aussi s’appuyer sur les travaux actuels conduits par les économistes qui montrent comment le creusement des inégalités de revenus est à l’origine des crises systémiques (celle de 2008 mais aussi celle de 1929) : ceux de R. Rajan qui montrent à partir du cas de l’économie américaine notamment comment le système financier a conduit à stimuler l’endettement des catégories les plus pauvres de la population ; ceux de J.-L. Gaffard ou de P. Artus en France qui expliquent que la déformation du partage de la valeur ajoutée entre les salaires et les profits tout comme le creusement dans la répartition personnelle des revenus provoquent la crise du fait de la faiblesse de la demande globale qu’elle génère ; ou encore les travaux d’économistes dans le cadre de l’OCDE ou du FMI (M. Kumhof et R. Rancière par exemple) qui montrent comment, dans les pays émergents comme dans les PDEM, le creusement des inégalités internes conduit à un déséquilibre macroéconomique entre l’épargne et l’investissement. Enfin, des travaux issus du champ de l’économie financière insistent sur les déséquilibres financiers consécutifs à la hausse des inégalités de revenus, déséquilibres qui se traduisent essentiellement par la hausse des prix des actifs financiers (M. Aglietta en France notamment) et qui font peser aujourd’hui un risque de système élevé sur l’économie mondiale. ******ebook converter DEMO Watermarks*******

Ces quelques repères doivent permettre de fixer le « périmètre » à l’intérieur duquel le candidat pourra puiser les connaissances qui vont alimenter la réflexion. On voit que cette analyse se situe au croisement de la question des crises économiques et de la répartition des revenus, deux thématiques majeures étudiées par les économistes. Cela donnera l’occasion d’aller puiser dans le patrimoine de la pensée économique tout comme dans les travaux les plus récents tout en restant focalisé sur la question de l’interaction entre ces deux thèmes de recherche. Entraînement n° 2 S’exercer à cadrer le sujet à partir des exemples suivants : – Qu’est-ce qu’une bonne gouvernance d’entreprise ? (Concours EC-E, Ecricome 2016) – Depuis les années 1980, la mondialisation est-elle responsable du chômage dans les pays avancés ? (Concours EC-E, Ecricome 2016) – La mondialisation peut-elle expliquer les mauvaises performances économiques et sociales d’un pays ? (Concours EC-E, ESCPEurope 2016) – Comportements économiques et institutions (Agrégation externe de SES 2016) – Les politiques industrielles dans le contexte de la mondialisation (ENA, Concours externe 2017) – Un État doit-il s’inquiéter de l’augmentation de sa dette publique ? (Concours EC-E, Ecricome 2017) – Doit-on considérer que la désindustrialisation constitue un processus inéluctable dans un pays développé ? (Concours CPGE EC-E, ESCPEurope 2018)

3

Choisir et élaborer une problématique

La question du choix et de la construction de la « problématique » est certainement l’étape la plus difficile pour réussir une épreuve de dissertation en économie. Les rapports de jury des divers concours rappellent de manière récurrente que beaucoup de devoirs sont sanctionnés, alors qu’ils présentent ******ebook converter DEMO Watermarks*******

des connaissances souvent convenables, faute de la présence d’une problématique ou bien en raison d’une tentative de problématisation maladroite ou décalée par rapport au sujet. Chaque sujet étant singulier, le travail d’élaboration d’une problématique l’est également, ce qui rend difficile toute réflexion méthodologique générale sur la question. On peut toutefois identifier quelques remarques et conseils suffisamment transversaux qui devront être appliqués à l’occasion des exercices d’entraînement.

3.1 Qu’est-ce qu’une problématique dans une dissertation de science économique ? Il faut commencer par rappeler que « disserter » c’est répondre de manière argumentée et structurée à un problème qui est posé, explicitement ou implicitement, dans le sujet. Le texte rédigé dans le cadre de la dissertation n’a ainsi de valeur et d’intérêt que dans la mesure où il est une réponse à ce problème. Il faudra par conséquent que ce problème ait été clairement identifié et explicité au début de la réflexion. Pour le dictionnaire Larousse, la problématique se définit comme « un ensemble de questions que l’on se pose de façon pertinente en fonction des outils, concepts et points de vue développés par une discipline scientifique ». Pour le Petit Robert, la problématique est « la science de poser les problèmes ; un ensemble de problèmes dont les éléments sont liés ». Si ces définitions sont sans doute trop succinctes pour éclairer la démarche à suivre dans une dissertation, elles présentent toutefois un point commun intéressant : construire une problématique revient à inscrire son discours dans une visée scientifique. Plus précisément, cela implique d’élaborer une stratégie rationnelle de réponse à un problème dont le texte de la dissertation sera le produit final. Cette stratégie devra s’appuyer sur au moins trois principes essentiels : 1) ce sont les connaissances produites par la discipline scientifique de référence – la science économique pour ce qui nous concerne – qui rendent la problématique légitime et pertinente ; 2) « problématiser » implique de prendre en compte le principe de cumulativité des savoirs, principe qui se combine avec la reconnaissance de la fécondité des controverses scientifiques (pour G. Bachelard par exemple, « deux hommes, s’ils veulent s’entendre vraiment, ont dû d’abord se contredire. La vérité est fille de la discussion, non pas fille de la sympathie », ******ebook converter DEMO Watermarks*******

La philosophie du non, 1940) ; 3) la problématique suppose, en fin de compte… de répondre explicitement à la question posée par le sujet. En premier lieu donc, pour construire une problématique, il faut s’appuyer sur les acquis de la science économique afin d’identifier le problème à résoudre. Cela peut notamment se faire en se basant sur la série de questions suivantes : a) Quel est l’enjeu scientifique auquel le sujet renvoie ? b) Cet enjeu scientifique est-il explicitement formulé ou bien le sujet implique-t-il une reformulation pour le rendre explicite ? c) Que s’agit-il de « démontrer » ? d) Comment cet enjeu scientifique peut-il être traduit sous forme d’un problème, d’une énigme que la dissertation s’attachera à résoudre ? e) Le sujet invite-t-il à mobiliser les termes d’un débat scientifique ? f) En quoi les acquis de l’analyse économique vont-ils permettre de proposer des éléments que l’on pourra mobiliser dans le cadre d’une démonstration, ce qui conduira par conséquent à résoudre cette énigme ? La problématique du devoir est un axe de réflexion. Elle est le fil conducteur qui structure le texte et qui, dans le même temps, lui donne du sens. En suivant G. Bachelard, on peut rappeler que la science se construit contre l’évidence. Il en va de même pour la dissertation en science économique ! Ainsi, sur chaque sujet, il existe dans le débat public des positions communément admises qui sont en général peu ou pas du tout soumises à un examen critique. Certaines reposent sur des contre-vérités flagrantes (le progrès technique est toujours source de chômage, l’intervention de l’État dans l’économie est pénalisante pour la compétitivité des entreprises, les banquiers sont des escrocs qui prêtent pour leur propre compte et avec profit l’épargne des autres, etc.). D’autres entretiennent des confusions et des contradictions internes qui sont autant d’obstacles à la compréhension rigoureuse du phénomène considéré (le pouvoir des grandes banques internationales est aujourd’hui devenu incontrôlable alors que, dans le même temps, la finance mondiale devient de plus en plus directe et courtcircuite les « intermédiaires » ; les États membres de la zone euro doivent retrouver leur souveraineté budgétaire en s’affranchissant des règles contraignantes de l’Europe mais la France doit pouvoir continuer à bénéficier des effets positifs de l’intégration européenne, etc.). ******ebook converter DEMO Watermarks*******

Identifier ces positions qui relèvent soit de la simple opinion, soit d’un discours doctrinaire structuré, aidera à problématiser le devoir : pour parvenir à « démontrer » quelque chose et à cerner le problème qu’il faudra résoudre, la première étape consiste souvent à identifier ce qu’il convient de « démonter », c’est-à-dire quelles sont les opinions et les lieux communs communément admis que le devoir pourra remettre en cause. Bien entendu, certains sujets sont, plus que d’autres, présents et discutés dans le débat public. Pour autant, la dissertation étant une démonstration scientifique, il est toujours souhaitable de prendre comme principe de départ la « rupture avec le sens commun » pour lui opposer le savoir économique. En second lieu, la problématique doit aussi satisfaire au principe de cumulativité des savoirs. Cette idée signifie que les connaissances produites par la science économique ont connu une progression significative depuis les origines de la discipline. La compréhension des mécanismes à l’œuvre dans le commerce international par exemple doit beaucoup aux travaux fondateurs des économistes classiques (A. Smith, D. Ricardo mais aussi F. List). Toutefois au cours du XXe siècle et plus encore depuis quelques décennies avec le développement des nouvelles théories du commerce international, la science économique a produit des modèles robustes pour rendre compte à la fois du processus long de la mondialisation (passage de l’ancienne à la nouvelle division internationale du travail) et à la fois des transformations récentes qui sont à l’œuvre (régionalisation du commerce mondial ou extension du commerce intra-firme par exemple). De même, si le débat entre J. Rueff et J. M. Keynes au début des années 1930, relatif à la responsabilité de l’assurance chômage dans le chômage de masse de l’époque, s’est révélé structurant jusqu’à aujourd’hui, un nombre considérable de travaux ont été produits depuis cette période conduisant à le renouveler en profondeur (théorie du déséquilibre qui démontre les conditions de coexistence du chômage classique et du chômage keynésien, mais aussi convergence des modèles microéconomiques et macroéconomiques du chômage, modèles macroéconomiques visant à articuler le chômage conjoncturel et le chômage structurel, etc.). En fin de compte, il faut garder à l’esprit qu’une dissertation de science économique correctement problématisée ne peut pas se réduire à opposer de manière frontale des courants théoriques, en supposant que ces grilles de lecture reposent sur des bases qui sont restées les mêmes depuis de longues décennies. Si certains sujets invitent effectivement à mobiliser les termes ******ebook converter DEMO Watermarks*******

d’un débat scientifique, l’objectif du devoir doit être également de démontrer que ce débat évolue en même temps que l’histoire économique et que les travaux les plus récents permettent une meilleure compréhension des phénomènes observés. À ce titre, toute dissertation comporte nécessairement une mise en perspective historique dans les analyses qu’elle développe : un devoir sur le commerce international ne peut s’achever par D. Ricardo, tout comme un devoir sur le chômage ne peut s’achever sur E. Malinvaud et la théorie du déséquilibre ! Enfin, le dernier principe à suivre pour élaborer une problématique pertinente repose sur la nécessité… de répondre explicitement à la question posée par le sujet ! Ce rappel est important dans la mesure où, dans un nombre de cas significatifs, les rapports de jury des concours rappellent que trop de copies se « dissimulent » derrière les connaissances mobilisées et notamment les oppositions théoriques pour finalement ne jamais répondre clairement à la question. Cette dérive peut prendre des formes plus ou moins radicales1 mais elle est toujours sanctionnée par les jurys. Bien entendu, il ne s’agit pas de proposer une réponse sur un mode péremptoire (« Un bon taux de change c’est nécessairement celui qui stimule la compétitivité-prix des firmes du territoire et donc qui se traduit par une monnaie faible ! », « Les politiques industrielles sont vouées à l’échec dans le contexte actuel de la mondialisation ! », « La hausse des dettes publiques découle d’une incapacité des États à contrôler leurs finances publiques et conduit inéluctablement à l’insoutenabilité de cette dette ! », etc.) dans la mesure où la dissertation suppose de produire un texte qui met des arguments rationnels en confrontation et en progression. Toutefois, une réponse, même nuancée, c’est-à-dire un choix clair adopté par le rédacteur à la fin de la copie, est toujours possible et nécessaire.

Méthode n° 7 Comment faire apparaître explicitement la problématique ? Dans les dissertations non réussies, la problématique se réduit le plus souvent à un simple « passage obligé » dans l’introduction (généralement une ou plusieurs questions enchaînées que le candidat sait devoir écrire !) qui s’avérera déconnecté de la suite du propos. Parfois même, les candidats s’efforcent de poser une autre question que celle que le sujet propose avec pour objectif de « reformuler » le sujet tout en considérant que cela devient leur « problématique ». Or, bien entendu, poser une autre question que celle que le sujet propose ne conduit pas à le problématiser alors que

******ebook converter DEMO Watermarks*******

cela augmente les risques en revanche de « partir vers du hors-sujet ». Afin d’éviter cette dérive, nous vous conseillons : a) d’une part, de construire votre problématique à partir de l’identification de l’enjeu du sujet (voir « Le cadrage historique et géographique ») ; b) d’autre part, de vous appuyer le plus possible sur les points stratégiques de la dissertation pour faire « vivre » cette problématique et permettre ainsi à votre devoir de disposer d’une trame pertinente : – le passage de l’introduction où la problématique est explicitée est effectivement le premier « moment » où le correcteur prend connaissance de la démonstration pour laquelle vous avez opté. Il faut veiller à ce que les questions posées à cette occasion ne soient pas de simples figures de style formelles mais un résumé précis des problèmes que vous allez traiter dans le développement ; – les textes de transition entre les parties et les sous-parties sont l’occasion de revenir sur le fil directeur en précisant la dimension du problème que vous avez déjà réglée à ce stade ainsi que celle qu’il reste à résoudre (les transitions sont un propos d’étape directement reliées à la problématique) ; – enfin, le bilan de la réflexion à l’occasion de la conclusion permet de faire la synthèse de la démonstration et d’apporter la réponse finale au problème initialement posé.

3.2 Un exemple de problématisation de sujet « Quels liens peut-on établir entre les inégalités de revenus et la survenance des crises économiques ? » L’enjeu du sujet consiste à se demander comment et pourquoi une composante majeure de l’économie réelle (les inégalités dans la répartition des revenus) peut conduire à l’apparition de crises économiques et notamment celles qui ont une composante financière. Par extension, il s’agira aussi d’expliquer en quoi la dynamique des inégalités de revenus peut accroître le risque de crise dans un contexte d’instabilité financière élevée. Des travaux anciens et récents convergent pour montrer que le caractère inégal de la répartition des revenus, en produisant des déséquilibres macroéconomiques, accroît ou réduit le risque ainsi que la survenance des crises. Ainsi, au cours du XIXe siècle et notamment au moment de la première mondialisation, alors que les inégalités sont marquées tant sur le plan de la répartition fonctionnelle (partage salaires, profits, rentes) que personnelle (écarts entre les bas et les hauts revenus dans la population), les crises économiques fréquentes en sont pour partie au moins la conséquence. Au cours du premier XXe siècle (de 1918 aux années 1970), on observe dans la plupart des pays industrialisés un repli des inégalités des revenus. De ******ebook converter DEMO Watermarks*******

nombreux économistes, à l’instar de P. Krugman (Pourquoi les crises reviennent toujours ? 1999), font observer que durant cette période les crises économiques sont moins nombreuses et, surtout, qu’elles n’ont pas de caractère systémique. La relation de cause à effet entre hausse des inégalités et survenance des crises est à nouveau clairement établie avec l’entrée dans la seconde mondialisation. Depuis les années 1980, la déformation du partage de la valeur ajoutée à l’œuvre dans beaucoup de PDEM ainsi que le creusement des écarts dans la répartition personnelle des revenus (en particulier au sein des PDEM mais aussi et surtout au sein des pays émergents tels que la Chine, l’Inde ou le Brésil) augmentent le risque de crise financière notamment par la hausse de l’endettement mais aussi de crise productive particulièrement par les déséquilibres macroéconomiques structurels qu’elles provoquent. La manifestation empirique la plus forte de cette relation est la crise de 2008 : des travaux convergent aux États-Unis (P. Krugman, R. Rajan) et en Europe (J.-L. Gaffard, R. Rancière, M. Aglietta) pour montrer qu’il faut prendre en considération les causes réelles de la crise financière mondiale (par exemple avec la montée de l’endettement des ménages les plus pauvres aux États-Unis notamment pour accéder à la propriété immobilière). Depuis les dix dernières années enfin, cette relation reste solidement établie dans le sens où l’ampleur considérable des inégalités de revenus au sein des PDEM mais surtout des pays émergents contribue à accroître le risque de système sur le plan financier en même temps qu’elle ​alimente fortement les déséquilibres macroéconomiques mondiaux. En conséquence, sur le plan politique, la question de la réduction des inégalités de revenus doit être rattachée à celle de la mise en œuvre de politiques plus efficaces en matière de prévention des crises et de réduction des déséquilibres globaux. En résumé, cela conduit à une démonstration qui peut s’inscrire dans les deux étapes suivantes : 1. Les inégalités de revenus, lorsqu’elles sont significatives et/ou en hausse, augmentent le risque et la survenance des crises du fait de déséquilibres importants dans l’économie réelle qu’elles provoquent. Ces déséquilibres concernent la structure des économies nationales (niveau déprécié de la demande intérieure, maintien d’un niveau de consommation grâce à la hausse de l’endettement pour les catégories les plus pauvres) mais également la structure des relations ​économiques internationales (déséquilibres structurels des balances de transactions courantes et ******ebook converter DEMO Watermarks*******

surtout, hausse de ces déséquilibres entre les pays excédentaires et les pays déficitaires du fait de la hausse des inégalités). Ce mécanisme est à l’œuvre avec une intensité variable selon le contexte historique considéré, mais il tend à jouer de manière plus forte durant les périodes de creusement des inégalités de revenus (au cours du XIXe siècle alors que la consommation finale reste faible, durant les premières décennies du XXe siècle avant la crise de 1929, ou encore à partir des années 1980 jusqu’à la crise de 2008). 2. Le creusement des inégalités de revenus contribue à faire croître le risque de système dans les contextes d’économies financiarisées et devient de fait un facteur important de la survenance des crises dans leur composante financière. Il existe une littérature abondante sur les causes des crises financières. Ces travaux, d’origines théoriques diverses des plus anciens (K. Wicksell, I. Fischer, F. Hayek, J. M. Keynes…) jusqu’aux plus récents (R. Rajan, P. Krugman, M. Aglietta), peuvent utilement être articulés avec ceux qui mettent l’accent sur les causes réelles déséquilibres financiers : la hausse des inégalités de revenus incite aux innovations financières et à l’endettement croissant des agents en particulier dans les contextes historiques de mondialisation intensive. Que ce soit au moment de la crise de 1929, ou actuellement avec la crise de 2008 ainsi que depuis les dix dernières années, la globalisation financière est propice à des prises de risques croissantes (la couverture contre les risques individuels augmente le risque collectif) du fait du degré d’inégalités de revenus considérables. Une part significative des revenus captés par les parts les plus riches des populations dans les PDEM comme dans les pays émergents, que ce soit sous forme de hausses salariales ou de revenus du capital, alimente le système financier mondial, ce qui contribue à accentuer davantage la financiarisation des économies. Exemple de problématique rédigée qui pourrait prendre place dans l’introduction du devoir : « Dans les contextes historiques de mondialisation avancée, les crises économiques sont souvent expliquées à partir de facteurs financiers. S’il est manifeste que les grandes crises systémiques à l’image de celle de 1929 ou de 2008 ont des causes financières (déréglementation des marchés de capitaux, hausse de l’activité spéculative des banques, hausse du risque systémique du fait d’une forte asymétrie informationnelle, etc.), il est toutefois ​légitime de s’interroger sur la présence de

******ebook converter DEMO Watermarks*******

facteurs réels qui s’articulent avec les déterminants financiers et qui augmentent les risques de crises ou qui conduisent clairement à leur survenance. Comment expliquer par exemple que durant les années qui précèdent 1929 comme celles qui précèdent la crise financière de 2007, l’endettement des ménages ait progressé de manière si importante ? Quels liens peut-on établir entre le déclenchement de ces deux crises mondiales et la progression significative des inégalités de revenus que ce soit sur le plan de la répartition fonctionnelle (partage salaires/profits) ou sur celui de la répartition personnelle (creusement des écarts entre les « riches » et les « pauvres » au sein des populations) de ces ​revenus durant les années ou décennies qui précèdent leur apparition ? Quels effets ces inégalités ont-elles sur les déséquilibres économiques dans l’économie mondiale actuelle et peut-on considérer qu’elles contribuent à aggraver l’instabilité financière et donc à accroître le risque d’une nouvelle crise systémique ? »

Entraînement n° 3 Établir une problématique pour chaque sujet de concours suivant : – Qu’est-ce qu’une bonne gouvernance d’entreprise ? (Concours EC-E, Ecricome 2016) – Depuis les années 1980, la mondialisation est-elle responsable du chômage dans les pays avancés ? (Concours EC-E, Ecricome 2016) – La mondialisation peut-elle expliquer les mauvaises performances économiques et sociales d’un pays ? (Concours EC-E, ESCPEurope 2016) – Comportements économiques et institutions (Agrégation externe de SES 2016) – Les politiques industrielles dans le contexte de la mondialisation (ENA, Concours externe 2017) – Un État doit-il s’inquiéter de l’augmentation de sa dette publique ? (Concours EC-E, Ecricome 2017) – Faut-il réglementer les marchés ? (Épreuve orale, concours HEC 2017) – Comment expliquer le chômage français contemporain ? (Épreuve orale, Concours ESM-Saint-Cyr 2018) – Doit-on considérer que la désindustrialisation constitue un processus inéluctable dans un pays développé ? (Concours CPGE EC-E, ESCPEurope 2018)

******ebook converter DEMO Watermarks*******

******ebook converter DEMO Watermarks*******

1. Ce sujet n’a pas été utilisé dans le cadre d’un concours. Il est inédit. Nous le proposerons à plusieurs reprises comme support de réflexion dans la première partie de l’ouvrage. 1. Voir, par exemple, la correction du sujet mis en ligne sur le site Dunod : « La construction européenne conduit-elle au dumping fiscal et au dumping ​social ? » (2016-2017) 1. Dans sa version la plus extrême, cette dérive conduit à des devoirs qui opposent, au fil des parties du développement, les théories économiques de manière frontale et caricaturale, en général la théorie néoclassique puis la théorie keynésienne !

******ebook converter DEMO Watermarks*******

Chapitre

3 De la construction du plan à la mobilisation des connaissances

1

Élaborer le plan : le contenant de la démonstration

Dans une dissertation, le plan choisi doit toujours être directement relié à la problématique : il organise la structure de la réponse et constitue le fil directeur du devoir. Cela signifie qu’à chaque fois qu’un candidat peine à construire un plan sur un sujet donné, c’est en réalité toujours une difficulté qui doit être recherchée du côté de l’imprécision voire même de l’absence de la problématique. C’est la raison pour laquelle les dissertations descriptives dans lesquelles les plans s’apparentent à des « catalogues » qui enchaînent des arguments sans liens entre eux sont toujours des devoirs aproblématiques. Le plan peut ainsi être considéré comme le contenant de la dissertation, c’est-à-dire le cadre à l’intérieur duquel la réponse à la question va s’organiser. Le risque qui pèse sur la démarche est ici de confondre problématique et plan : dans l’exemple du sujet du chapitre 2 (« Quels liens peut-on établir entre les inégalités de revenus et la survenance des crises économiques ? »), la démonstration en deux étapes se traduit effectivement et logiquement par un plan en deux parties. Cependant, la spécificité du plan réside dans les développements qu’il permettra d’opérer par rapport au fil directeur principal (les inégalités de revenus constituent une cause « réelle » aux crises économiques modernes). Ces arguments devront toutefois être soumis à un contrôle strict afin de revenir, à intervalles réguliers, c’est-à-dire à l’occasion des transitions, sur le cœur de la démonstration. ******ebook converter DEMO Watermarks*******

Une métaphore permet d’approcher cette idée d’articulation entre la problématique et le plan : la dissertation procède selon la même logique qu’une course de ski alpin type « slalom géant » ! Il existe une ligne de départ que doit couper le skieur (point A) et une ligne d’arrivée qui conclut la réflexion (point B). La trajectoire la plus linéaire possible qui sépare le point A du point B correspond au fil directeur : c’est la réponse la plus synthétique que l’on peut formuler face au problème que le sujet soulève, c’est-à-dire la problématique. Cette réponse, qui s’apparente à l’épreuve de descente en ski, c’est-à-dire une course dépourvue de portes, peut faire l’objet d’une rédaction en quelques lignes : elle prend sa place tout d’abord en introduction (souvent en utilisant des formulations interrogatives afin de susciter la réflexion) ; puis, en fin de devoir à l’occasion du bilan dans la conclusion. Toutefois, le corps de la dissertation exige de réaliser une épreuve de slalom, c’est-à-dire de procéder par « développements » (les portes que le skieur doit franchir), « autour » du fil directeur. L’enjeu est alors pour le rédacteur d’éviter deux pièges : a) le « refus d’une porte » au profit d’un texte qui reste centré sur l’idée principale mais qui s’interdit de mobiliser des connaissances qui auraient utilement alimenté le propos (dans ce cas, les dissertations sont souvent trop courtes, peu argumentées et manquent de précisions sur les contenus) ; b) « l’oubli du virage » pour retourner au fil directeur après le passage d’une porte, ce qui conduit le rédacteur à s’éloigner de la problématique (tentation pour le hors sujet dès lors que le texte proposé ne répond plus au problème qui a été initialement formulé). Cette métaphore permettant de comprendre l’articulation entre la problématique et le plan peut être représentée par la figure 3.1. Elle permet aussi de rappeler un autre point important de la construction du plan. Celui-ci conduit à passer par des « bilans intermédiaires » (les fameux « temps intermédiaires » pour le skieur !) entre chaque grande partie : un bilan pour une dissertation en deux parties, deux bilans pour une dissertation en trois parties. Dans la figure 3.1, le point C représente ce bilan intermédiaire. Il existe logiquement entre A et C une idée principale (la 1re partie) qui est un premier élément de réponse à la problématique. Cette première idée n’épuise cependant pas le sujet, la démonstration « rebondit » pour la compléter, la nuancer et/ou la dépasser avec la 2e partie du développement (distance ******ebook converter DEMO Watermarks*******

entre C et B).

La dissertation de science économique : quelle méthode ? A

1re sous-partie : première série d’arguments

Transition entre la 1re sous-partie et la 2e sous-partie

Porte 1

2e sous-partie : deuxième série d’arguments

Porte 2

C Porte 3

3e sous-partie : troisième série d’arguments

Transition entre la 1re et la 2e partie

4e sous-partie : quatrième série d’arguments

Transition entre la 3e sous-partie et la 4e sous-partie

Hors-sujet !

Porte 4

B

Figure 3.1

Exemple d’annonce de plan rédigé qui peut prendre place à la fin de l’introduction à propos du sujet : « Quels liens peut-on établir entre les inégalités de revenus et la survenance des crises économiques ? » « Durant les périodes de l’histoire marquées par un creusement des inégalités de revenus, ces inégalités augmentent le risque et la survenance des crises du fait de déséquilibres importants dans l’économie réelle qu’elles provoquent. Ces déséquilibres portent en particulier sur la dynamique de la demande, sur le niveau de l’emploi et celui de la production. Dans le contexte actuel de la seconde mondialisation, ils affectent aussi la structure de la balance des transactions courantes entre les grandes régions du monde (I). Par ailleurs, le creusement des inégalités de revenus affecte la composante proprement financière des crises : il augmente le risque systémique et explique la survenance des crises modernes. Cela pose la question du degré d’inégalités dans la répartition des revenus que ce soit au sein des PDEM comme des pays émergents dans la mondialisation actuelle susceptible de permettre une réduction du risque systémique et, par conséquent, de la survenance d’une nouvelle crise mondiale (II). » 60 Entraînement n° 4

Élaborer un plan général pour chaque sujet de concours suivant : – Qu’est-ce qu’une bonne gouvernance d’entreprise ? (Concours EC-E, Ecricome 2016) ******ebook converter DEMO Watermarks*******

– –

– – –

2

Depuis les années 1980, la mondialisation est-elle responsable du chômage dans les pays avancés ? (Concours EC-E, Ecricome 2016) La mondialisation peut-elle expliquer les mauvaises performances économiques et sociales d’un pays ? (Concours EC-E, ESCPEurope 2016) Les politiques industrielles dans le contexte de la mondialisation (ENA, Concours externe 2017) Un État doit-il s’inquiéter de l’augmentation de sa dette publique ? (Concours EC-E, Ecricome 2017) Doit-on considérer que la désindustrialisation constitue un processus inéluctable dans un pays développé ? (Concours CPGE EC-E, ESCPEurope 2018)

Le plan détaillé et la mobilisation des connaissances : le contenu de la dissertation

Par rapport au plan général, le plan détaillé est caractérisé par la ​présence de sous-parties qui structurent les grandes parties et par des références relatives à des contenus disciplinaires, ventilées dans les sous-parties. Il faudra ainsi mobiliser : – des contenus théoriques avec des concepts, des mécanismes, des auteurs ; – des contenus historiques avec des événements clés associés à des dates, des périodisations ; – des contenus factuels avec des ordres de grandeurs empiriques, des données statistiques ou encore des faits d’actualité. À ce stade de la construction de la dissertation, les liens entre la forme (le plan) et le fond (les contenus disciplinaires) sont par conséquent particulièrement étroits. L’objectif est de produire un document (le plan détaillé) qui servira de « feuille de route » durant la rédaction finale du devoir.

2.1 Exemple de plan détaillé sur le sujet : « Quels liens peut-on établir entre les inégalités de revenus ******ebook converter DEMO Watermarks*******

et la survenance des crises économiques ? » La structure du plan incluant les sous-parties peut être présentée à l’aide de la figure 3.2. I. Les inégalités d e revenus expliquent la survenance des crises du fait des déséquilibres dans I’économie réelle qu’elles produisent.

I.A La dynamique des inégalités de revenus entre la première et la seconde mondialisation... I.B ... qui explique les crises par la montée des déséquilibres réels

Dans les contextes historiques de mondialisation soutenue, les crises économiques sont souvent expliquées à partir de facteurs f nanciers. S’il est manifeste que les grandes crises systémiques (1929 et 2008) ont des causes financières, il est toutefois légitime de s’interroger sur la présence de facteurs réels qui s’articulent avec les déterminants financiers et qui augmentent les risques de crises, ou qui conduisent clairement à leur survenance. Sous quelles conditions les inégalités de revenus peuvent-elles augmenter le risque de crise ou bien directement expliquer leur apparition? Par quels canaux de transmission le creusement de ces inégalités peut-il provoquer une crise ?

II. Les inégalités de revenus expliquent la montée du risque de système et la survenance de la composante financière des crises.

I.A La survenance des crises financières dans les économies modialisées... II.B ... qui s’aggrave du fait d’un creusement des inégalités de revenus

Figure 3.2

2.2 Exemple de déroulement du plan détaillé I. Les inégalités de revenus : une cause de la survenance des crises du fait de déséquilibres dans l’économie réelle 62

La dynamique des inégalités de revenus entre les pays du monde comme en leur sein connaît des phases de contraction et de creusement au cours de l’histoire depuis la première mondialisation (I.A). Pendant les périodes durant lesquelles ces inégalités se creusent, elles augmentent les risques de survenance des crises et expliquent de manière probante ces dernières lorsqu’elles surviennent du fait des déséquilibres qu’elles engendrent dans l’économie réelle (I.B). I.A La dynamique des inégalités de revenus entre la première et la seconde mondialisation… Les inégalités portent à la fois sur la répartition fonctionnelle et sur la répartition personnelle des revenus. S’agissant de la répartition fonctionnelle, ******ebook converter DEMO Watermarks*******

on étudie comment le partage de la valeur ajoutée s’effectue entre les salaires, les profits et, le cas échéant, les rentes, c’est-à-dire entre les différents facteurs qui contribuent à la production. S’agissant de la répartition personnelle, on étudie comment le revenu global d’un territoire se distribue parmi la population : on est conduit dans ce cas à mesurer les écarts entre les composantes les plus riches de la population et les composantes les plus pauvres (les inégalités dans la répartition personnelle des revenus sont notamment mesurées à partir d’indicateurs de dispersion comme le coefficient de Gini). Ces inégalités de revenus connaissent des logiques de contraction ou, au contraire, de creusement selon les contextes historiques considérés. Typiquement, on observe une tendance au creusement des inégalités de revenus durant les phases d’accentuation de la mondialisation et, à l’inverse, de contraction de ces inégalités durant les périodes de mondialisation contenue : 1. Au cours de la première mondialisation, les inégalités dans la répartition fonctionnelle des revenus sont particulièrement marquées pour les pays qui entrent en Révolution Industrielle (Grande-Bretagne tout d’abord, puis pays d’Europe continentale de l’ouest et États-Unis) : au début du XIXe siècle, la part des rentes est prépondérante en Angleterre ; durant la seconde moitié du siècle, la part des profits industriels s’accroît tandis que celle des salaires reste très faible. S’agissant de la répartition personnelle, les écarts de revenus sont très élevés dans les pays industrialisés (travaux d’E. Saez et Th. Piketty) mais le sont moins à l’échelle planétaire du fait d’un niveau de richesse global peu élevé (travaux de F. Bourguignon). 2. À partir des années 1930, débute la phase de mondialisation contenue qui s’accompagne, dans un nombre important de PDEM, d’une mise en œuvre de politiques de réduction des inégalités de richesses rendues possible par la croissance économique (courbe de Kuznets). Les écarts de revenus en termes de répartition personnelle se réduisent tandis que sur le plan de la répartition fonctionnelle, les salariés bénéficient avec le compromis fordiste d’un partage des « fruits de la croissance ». En revanche, les inégalités internationales entre PDEM et pays en développement augmentent significativement. 3. Avec l’entrée dans la seconde mondialisation à partir des années 1970, on assiste à une ouverture importante dans l’éventail des inégalités de revenus sur le plan de la répartition personnelle (travaux de Th. Piketty) tandis que le partage de la valeur ajoutée connaît une déformation dans la ******ebook converter DEMO Watermarks*******

plupart des PDEM à l’avantage des profits et au détriment des salaires (travaux de P. Artus). À partir du début des années 2000, l’arrivée des émergents dans la mondialisation conduit : a) à réduire les inégalités internationales du fait du rattrapage des émergents ; b) à l’accroissement des inégalités de revenus internes à ces pays comme en Chine, en Inde et au Brésil par exemple (travaux de F. Bourguignon). Le creusement des inégalités de revenus durant les phases d’intensification de la mondialisation et en particulier dans les contextes de libéralisation financière accrue conduit à accroître le risque de crise économique et parfois même explique la survenance de ces crises du fait des effets des inégalités sur les déséquilibres macroéconomiques réels. I.B ... qui explique les crises par la montée des déséquilibres réels Les canaux de transmission du creusement des inégalités de revenus sur la survenance des crises sont étudiés de longue date dans la pensée économique : 1. Au cours du XIXe siècle, plusieurs analyses mettent l’accent sur le rôle de la répartition des revenus dans l’explication des crises : c’est le cas de celle de Th. Malthus (faible consommation des catégories aisées de la population : « insuffisance du vouloir d’achat »), de J. de Sismondi qui montre que la crise découle de l’insuffisance de la consommation ouvrière, ou encore de K. Marx relative à la baisse tendancielle du taux de profit. Ces travaux ont en commun de se situer dans un contexte où les inégalités de richesse sont particulièrement marquées et où les crises économiques modernes sont des crises de surproduction (combinaison d’une composante financière avec une composante productive). 2. Des travaux contemporains divers (Ch. Kindleberger, P. Krugman, R. Rajan) convergent pour montrer que la crise de 1929 découle d’un processus de creusement des inégalités de revenus durant les décennies qui précèdent le krach boursier d’octobre 1929. Le ratio dette/revenu des ménages augmente fortement durant les années 1920 du fait d’une progression insuffisante des revenus primaires (notamment des salaires). La demande intérieure est alimentée par l’endettement sans parvenir à suivre le rythme de progression de l’offre globale. Indépendamment des mécanismes financiers à l’œuvre, la crise de 1929 est aussi une crise de surproduction. 3. S’agissant de la crise de 2008 dans les PDEM, les analyses ******ebook converter DEMO Watermarks*******

d’économistes tels que J.-L. Gaffard et F. Saraceno montrent que le creusement spectaculaire des inégalités dans la répartition personnelle des revenus à partir des années 1980 ne peut s’expliquer par les arguments habituels fournis par la science économique. Par exemple, la hausse des très hauts revenus n’est pas corrélée avec de meilleures performances de la part des individus concernés ni avec de meilleures prises de risques ; inversement, l’absence de progression des revenus intermédiaires et des bas revenus n’est pas corrélée avec les évolutions de la productivité du travail qui a été significative sur la période. Ces inégalités génèrent des déséquilibres macroéconomiques internes : elles pénalisent la demande globale intérieure et sont sans effets positifs sur l’investissement productif. La crise de 2008 conduit les économies dans un équilibre de sous-emploi durable qui n’est pas simplement conjoncturel. 4. S’agissant de la question des déséquilibres macroéconomiques entre les PDEM et les pays émergents, des travaux convergent pour montrer que depuis 2008, la hausse des déséquilibres mondiaux mesurés par les balances des transactions courantes combinée à la hausse des dettes publiques et privées augmentent les risques de crises productives. Les pays émergents enregistrent des excédents structurels faute de marchés intérieurs suffisamment développés. Mais les PDEM ne peuvent remplir leur fonction de débouchés que sous la condition d’un endettement croissant (travaux de M. Kumhof et R. Rancière). Durant les phases d’intensification de la mondialisation, le creusement des inégalités de revenus accroît le risque de crise en même temps qu’il explique les crises qui se sont manifestées du fait de mécanismes de propagation de ces inégalités sur les déséquilibres macroéconomiques réels. Comment, par ailleurs, la hausse des inégalités de revenus peutelle expliquer la composante proprement financière des crises ?

Les inégalités de revenus : montée du risque de système et composante financière des crises La composante financière des crises dans les économies mondialisées fait l’objet d’une littérature robuste et abondante. La théorie économique explique pour quelles raisons le risque systémique s’accroît dans les contextes de globalisation financière, ce qui conduit à des crises majeures (II.A). Pour autant, ces déterminants financiers des crises s’articulent étroitement avec la question des inégalités de revenus : durant les périodes où ces inégalités se ******ebook converter DEMO Watermarks*******

creusent le risque de système s’accroît et la gravité des crises augmente (II.B). II.A La survenance des crises financières dans les économies mondialisées… Durant les phases historiques d’intensification de la mondialisation et en particulier de globalisation financière, on assiste à une hausse du risque de système qui conduit à accroître la survenance des crises : 1. La crise de 1929 est un cas d’école du rôle prépondérant des facteurs financiers dans le déclenchement de la crise, facteurs qui s’articulent avec une composante cambiaire et bancaire. Cette crise est analysée par I. Fisher en 1933. C’est le mécanisme de la déflation par la dette qui peut être complété par celui de l’accélérateur financier : en période de hausse du prix d’actifs avant la crise, les emprunteurs apparaissent comme davantage solvables, ce qui incite les institutions financières à leur accorder des prêts sur la base desquels les agents achètent des actifs. De proche en proche, cela alimente la bulle financière par la hausse cumulative des prix d’actifs. 2. Cette analyse est reprise plusieurs fois au cours du XXe siècle autour de l’hypothèse d’instabilité financière (Ch. Kindleberger, H. Minsky) : les crises sont endogènes aux économies financiarisées, en incitant à l’endettement cumulatif des agents tourné vers l’activité spéculative ; l’articulation entre la demande de crédit croissante et l’offre du système bancaire conduit à accroître le risque collectif jusqu’au « moment Minsky ». 3. La crise de 2008 présente des similitudes fortes avec celle de 1929 sur le plan financier : les économies financiarisées sous-​évaluent le risque de système du fait que le système financier mondial permet la couverture des risques individuels (innovations financières) tout en augmentant le risque collectif, ce qui contribue à la formation de bulles spéculatives dans un contexte de carence de réglementation des marchés. Avec la globalisation financière, les crises économiques deviennent systémiques. Les facteurs financiers qui conduisent à la crise sont importants. Mais leur degré de gravité s’accentue significativement lorsqu’ils s’articulent avec un facteur réel : le creusement des inégalités de revenus. II.B … qui s’aggrave du fait d’un creusement des inégalités de revenu Une des différences entre la crise de 2008 et celle de 1929 tient au fait que la ******ebook converter DEMO Watermarks*******

première est tout d’abord une crise immobilière qui découle d’une longue période de creusement des inégalités de revenus notamment aux États-Unis. Le canal de transmission des inégalités sur la crise repose principalement sur le mécanisme de hausse des endettements des agents : 1. Dans les années qui suivent la crise, de nombreux économistes (J.L. Gaffard ou P. Artus en France par exemple) insistent sur les causes réelles du krach financier : la crise découle d’une suraccumulation du capital dans un contexte de demande globale durablement récessive dont on essaie de compenser les effets négatifs par une hausse très importante de l’endettement des agents privés dans les PDEM. 2. M. Kumhof et R. Rancière montrent pour leur part que la hausse des activités spéculatives à haut niveau de risque est stimulée par les flux d’épargne en provenance des pays émergents du fait du creusement des inégalités intra-nationales en Chine notamment tandis que la déformation du partage de la valeur ajoutée au détriment des salaires dans les PDEM incite à l’endettement afin de maintenir le rythme de la demande intérieure. La hausse de l’endettement privé conduit de proche en proche à une crise de solvabilité qui peut précipiter une nouvelle crise. À ce titre, même si une meilleure institutionnalisation des marchés financiers dans les émergents est souhaitable, elle n’apportera pas de réponse aux effets des inégalités de revenus sur l’instabilité financière tant que les écarts de revenus entre les grandes régions du monde ne seront pas réduits 3. D’autres travaux (M. Aglietta) insistent sur un mécanisme complémentaire : les déséquilibres macroéconomiques entre les excédents des pays émergents et les déficits des PDEM d’une part et le creusement des inégalités de revenus au sein des PDEM d’autre part conduisent à alimenter les marchés financiers en liquidités qui, combinées avec les actions des banques centrales en matière de politiques monétaires non conventionnelles, n’ont pas d’effet sur le niveau général des prix mais accroissent de manière considérable les prix des actifs sur les marchés financiers. La hausse des inégalités de revenus alimente le mécanisme de bulle spéculative, augmente le risque de système et donc celui de survenance d’une nouvelle crise. Ce mécanisme s’articule avec le fait qu’aux États-Unis notamment la dynamique de l’endettement des ménages dépend de la valeur du patrimoine telle qu’elle est mesurée par les marchés financiers (mécanisme de l’accélérateur financier qui alimente la bulle de manière cumulative… jusqu’à son éclatement et le déclenchement de la crise systémique). ******ebook converter DEMO Watermarks*******

En fin de compte, ce n’est pas tant le degré de globalisation financière qui explique le risque et la survenance des crises (la globalisation peut être soumise à une gouvernance plus efficace dès lors que la stabilité financière devient un objectif partagé de politique économique) mais le degré d’inégalité dans la distribution des revenus qui génère des mécanismes incitatifs puissants sur les marchés financiers (hausse de l’endettement, déséquilibres structurels dans les flux d’épargne lorsque les inégalités se creusent) et qui conduisent à une aggravation du risque de système. En d’autres termes, même dans un contexte institutionnel efficace en matière de réduction de l’instabilité financière, le risque de crise systémique peut s’aggraver du fait d’une hausse et d’un maintien structurel élevé des inégalités de revenus.

Méthode n° 8 Comment construire le plan de la dissertation ? Prendre conscience du fait que la dissertation doit être structurée en parties et sousparties n’indique cependant pas comment procéder pour y parvenir. Nous avons indiqué que le plan découle logiquement de l’énoncé de la problématique. Cela signifie concrètement qu’il vous faut commencer par construire, une fois la problématique arrêtée (la trajectoire A → B, voir figure 3.1), deux ou trois axes de réponses concis et articulés entre eux qui constitueront la structure de votre démonstration. Il faudra pour cela élaborer un ou deux bilans intermédiaires (A → C → B ; c’est-à-dire les passages en italique dans le plan détaillé ci-dessus) qui délimiteront vos grandes parties. À partir de là, nous vous conseillons : 1. De recenser les connaissances diverses qui pourront être ventilées dans chacune de ces grandes parties. Utilisez pour cela les étapes antérieures de cette méthodologie : appuyez-vous sur le cadrage du sujet (thématique et historique) et puisez dans vos ressources disponibles (fiches de cours, fiches auteurs, répertoire de vocabulaire, etc.) toutes les références qui peuvent fournir des éléments de réponse au problème que chaque partie doit résoudre. Il ne s’agit pas ici de rédiger du texte, mais de regrouper des éléments qui vont vous permettre d’affiner progressivement votre plan pour passer du plan d’ensemble au plan détaillé. 2. Pour chaque partie, de regrouper ensuite les connaissances référencées de manière cohérentes entre elles. Cette cohérence peut être de nature : a) historique (les sous-parties ainsi établies reposeront sur une périodisation) ; b) thématique (en distinguant par exemple les composantes commerciale, productive et financière de la mondialisation ; les politiques de la concurrence préventives et les politiques de la concurrence répressives, les composantes conjoncturelles et structurelles des politiques économiques, etc.) ; c) épistémologique (en distinguant les composantes factuelles et historiques d’une part, des composantes conceptuelles de l’autre) ; etc. 3. De penser enfin aux règles formelles de la dissertation : il faudra veiller à équilibrer

******ebook converter DEMO Watermarks*******

le nombre de sous-parties dans le devoir (au minimum 2, au maximum 3 par partie). Rappelons que la construction du plan détaillé est un exercice au cas par cas qui se réalise progressivement, au fur et à mesure de l’affinage dans la sélection des connaissances mobilisées, durant le temps de l’épreuve. C’est par conséquent, une compétence qui exige des entraînements nombreux qui vous permettront de ritualiser cette pratique.

Entraînement n° 5 Élaborer un plan détaillé pour chaque sujet de concours suivant : – Qu’est-ce qu’une bonne gouvernance d’entreprise ? (Concours EC-E, Ecricome 2016) – Depuis les années 1980, la mondialisation est-elle responsable du chômage dans les pays avancés ? (Concours EC-E, Ecricome 2016) – La mondialisation peut-elle expliquer les mauvaises performances économiques et sociales d’un pays ? (Concours EC-E, ESCPEurope 2016) – Comportements économiques et institutions (Agrégation externe de SES, 2016) – Les politiques industrielles dans le contexte de la mondialisation (ENA, Concours externe 2017) – Un État doit-il s’inquiéter de l’augmentation de sa dette publique ? (Concours EC-E, Ecricome 2017) – Doit-on considérer que la désindustrialisation constitue un processus inéluctable dans un pays développé ? (Concours CPGE EC-E, ESCPEurope 2018)

******ebook converter DEMO Watermarks*******

Chapitre

4 De la conclusion à l’introduction

1

La rédaction de la conclusion

La formulation du titre de ce chapitre peut paraître surprenante dans la mesure où une dissertation débute logiquement par une introduction et se termine par une conclusion ! Nous pensons toutefois que, dans le processus d’élaboration du devoir, la conclusion est le premier texte qui doit faire l’objet d’une rédaction complète. En effet, une fois le plan détaillé achevé, vous devez être en mesure de produire un texte qui résume votre démonstration (trajectoire A → B dans la figure 3.1). Celui-ci correspond de fait au bilan de la conclusion : il représente le repère (la trajectoire du skieur !) que vous allez conserver durant toute la rédaction afin d’éviter les errements du hors-sujet. Il est donc essentiel qu’il soit produit au début. Il sera alors possible de le compléter par la deuxième composante de la conclusion : une ouverture sur une question proche de la problématique que vous allez soutenir, question qui a vocation à prolonger le sujet.

Méthode n° 9 Comment rédiger « l’ouverture » de la conclusion ? La composante « ouverture » de la conclusion fait parfois l’objet d’un traitement seulement « formel » dans certaines copies de concours. Elle se traduit le cas échéant par un petit paragraphe, souvent peu précis conduisant à une question dont on ne voit pas bien la pertinence ni le rapport avec le sujet qui vient d’être traité. Cette ouverture aura de la valeur aux yeux du correcteur si elle porte au contraire sur une question précise, liée à une problématique spécifique qui aurait pu être traitée dans une dissertation alternative. Pour traduire cette remarque en termes concrets, nous vous conseillons :

******ebook converter DEMO Watermarks*******

1. De vous placer dans une posture épistémologique : une problématique n’est pertinente que si elle renvoie à un enjeu scientifique précis. Il en va de même pour l’ouverture. Puisque vous ne disposez que de quelques lignes, optez pour une idée saillante qui se place en rupture avec le sens commun et qui conduit à soulever un problème inédit dans le devoir. 2. D’utiliser une citation d’auteur ou bien une référence issue d’une publication scientifique, un fait marquant de l’actualité ou un événement historique afin de donner de la consistance à votre ouverture.

Un exemple de rédaction de conclusion Le contexte de mondialisation avancée qui marque aujourd’hui l’économie planétaire est notamment caractérisé par une hypertrophie de la finance. De ce fait, les crises systémiques modernes présentent une composante financière très importante. Pour autant, certains facteurs relatifs à l’économie réelle peuvent accroître ou, au contraire, réduire le risque systémique conduisant à la survenance des crises. Parmi ces facteurs réels, le degré d’inégalité dans la distribution des revenus est prépondérant. Durant les phases d’intensification de la mondialisation, ces inégalités ont tendance à se creuser soit entre les territoires, soit à l’intérieur des territoires, soit les deux. Une des caractéristiques de la mondialisation actuelle depuis les années 1980 est justement une hausse significative de ces inégalités de revenus. Il existe deux principaux canaux de transmission de ce creusement des inégalités sur la survenance des crises : d’une part, les inégalités de revenus conduisent à accroître les déséquilibres dans l’économie réelle, ce qui peut déclencher des crises de surproduction ; d’autre part, ces inégalités accroissent le risque de système sur les marchés financiers et conduisent, comme c’est le cas actuellement, via l’endettement cumulatif des agents à accélérer la formation des bulles spéculatives par le biais de la hausse du prix des actifs. Les auteurs du Rapport sur les inégalités mondiales 2018 indiquent, en conclusion de leur imposante analyse, que l’avenir des inégalités mondiales durant les prochaines décennies sera la résultante de forces de convergences du fait de la croissance des pays émergents et du rattrapage du niveau de vie de leurs populations par rapport à celles des PDEM, et de forces de divergences du fait de l’accroissement des inégalités domestiques au sein des pays. Les scénarios possibles sont bien entendus nombreux. Mais il convient de préciser qu’en fin de compte, l’évolution des inégalités de revenus, mais aussi de patrimoine, d’accès aux diplômes et à la formation, etc., relève de choix politiques et qu’il n’y a en la matière aucune fatalité. ******ebook converter DEMO Watermarks*******

2

La rédaction de l’introduction

Nous avons déjà indiqué quelles sont les attentes formelles dans une dissertation de science économique relatives à l’introduction (voir pages 13 et 14). Dans la démarche que nous proposons, l’introduction fait l’objet d’une rédaction une fois que le plan détaillé du devoir est réalisé et une fois que la conclusion est elle-même rédigée. Les deux dernières étapes de l’introduction relatives à l’énoncé de la problématique et à l’annonce du plan ont, à ce stade, déjà fait l’objet d’un travail minutieux de préparation. Leur rédaction ne devrait donc pas poser de problème. Il en va de même pour l’étape relative à la définition des termes du sujet. Si, comme conseillé plus haut, un répertoire de vocabulaire a été constitué et appris durant le parcours de formation, il suffira alors de mobiliser les définitions requises (concepts d’inégalité, d’inégalité de revenu et de crise économique par exemple dans le sujet qui nous a servi de référence). Reste alors la question de l’accroche qui constitue le début de l’introduction. Cette étape est essentielle au moins pour deux raisons : – ce sont les premières lignes de votre devoir lues par le correcteur ; – c’est par le biais de ce paragraphe que vous allez vous placer en dynamique réflexive pour le reste de l’épreuve. Là encore, l’expérience montre que de nombreuses dissertations dans les concours débutent par une accroche sans grand intérêt, qui énonce soit des évidences, soit qui mobilise une information qui s’avérera sans grand rapport avec le sujet. La seule façon de se prémunir contre cette dérive consiste à consacrer un temps significatif, durant le parcours de formation, à la préparation des accroches. Concrètement, cela signifie que, sur chaque grande thématique économique (mondialisation commerciale, emploi et chômage, etc.), il faut travailler spécifiquement les contenus en attribuant le statut potentiel « d’accroche » pour l’introduction à certains d’entre eux : citation d’auteur, fait historique, controverse politique, fait d’actualité, etc. S’agissant de ce dernier point, c’est l’occasion de rappeler l’importance du suivi de l’actualité économique par le recours fréquent à la presse mais également aux publications et aux chroniques des principales institutions scientifiques (OFCE, CEPII, etc.). Cela suppose que, lorsqu’une information apparaît comme importante, il faut la relever, la classer dans la thématique qui semble être la plus proche, et surtout l’incorporer aux connaissances à ******ebook converter DEMO Watermarks*******

maîtriser en vue de l’épreuve. Dans cette optique, l’accroche de la dissertation se résume à être une connaissance parmi d’autres que l’on sélectionne comme particulièrement intéressante pour lancer la réflexion sur le sujet.

Un exemple d’accroche sur le sujet… « Quels liens peut-on établir entre les inégalités de revenus et la survenance des crises économiques ? » « Dans un article publié sur le site Project syndicate en octobre 2018 (“Crazy Rich Asians”), l’économiste américain K. Rogoff commente la sortie d’un film du même titre dont l’intrigue se passe à Singapour. C’est l’occasion pour lui de rappeler l’ascension fulgurante de cette petite cité-État insulaire dont le PIB par habitant est aujourd’hui devenu l’un des plus élevés du monde. Pour les spectateurs américains et européens, ce film contribuera selon Rogoff à la prise de conscience de la hausse très rapide des revenus de la population singapourienne, en particulier pour la classe moyenne émergente alors que, par contraste, c’est au contraire un sentiment de stagnation ou de déclassement qui prévaut pour les populations des PDEM. Cette réduction très rapide des inégalités entre les habitants des “émergents” et ceux des anciens pays développés au bénéfice des premiers pose la question de nouvelles formes de déséquilibres macroéconomiques entre les grandes régions du monde dans un contexte où, pour la plupart des pays émergents, leurs marchés intérieurs (sur les biens et services mais aussi sur la finance) restent insuffisamment développés. » Entraînement n° 6 S’entraîner à la rédaction de la conclusion puis de l’introduction pour chaque sujet de concours suivant : – Qu’est-ce qu’une bonne gouvernance d’entreprise ? (Concours EC-E, Ecricome 2016) – Depuis les années 1980, la mondialisation est-elle responsable du chômage dans les pays avancés ? (Concours EC-E, Ecricome 2016) – La mondialisation peut-elle expliquer les mauvaises performances économiques et sociales d’un pays ? (Concours EC-E, ESCPEurope 2016) ******ebook converter DEMO Watermarks*******

– – – –

Comportements économiques et institutions (Agrégation externe de SES, 2016) Les politiques industrielles dans le contexte de la mondialisation (ENA, Concours externe 2017) Un État doit-il s’inquiéter de l’augmentation de sa dette publique ? (Concours EC-E, Ecricome 2017) Doit-on considérer que la désindustrialisation constitue un processus inéluctable dans un pays développé ? (Concours CPGE EC-E, ESCPEurope 2018)

******ebook converter DEMO Watermarks*******

Chapitre

5 La rédaction finale et le jour de l’épreuve

Avant de terminer cette partie méthodologique, il nous paraît opportun de proposer quelques remarques et conseils relatifs à la manière d’aborder l’épreuve le jour du concours. Si on se place dans l’hypothèse d’un parcours de formation qui a été suivi de manière assidue et sérieuse, le(a) candidat(e) a normalement pu bénéficier de plusieurs devoirs d’entraînement (dissertations rédigées dans le temps imparti au concours et évaluées par les formateurs). Si on ajoute à cela, un nombre significatif d’exercices d’entraînement portant sur des parties spécifiques de la méthodologie de la dissertation (travail sur la problématique, sur le plan détaillé, etc.), cela signifie que la plupart des tâches à accomplir vont pouvoir être réalisées de manière rituelle. Parmi ces automatismes qu’il est nécessaire de mettre en place, il faut veiller en particulier à adopter une gestion du temps particulièrement rigoureuse. En prenant pour repère une épreuve d’une durée de 4 heures comme c’est le cas dans de nombreux concours1, nous vous conseillons d’adopter le protocole suivant : – Étape 1 : consacrer les 15 premières minutes à un travail de lecture attentive du sujet avec comme objectif d’identifier son enjeu et de construire une problématique (les notes écrites relatives à cette étape constituent le « brouillon n° 1 »). Cette première étape ne devra en aucun cas dépasser 30 minutes. – Étape 2 : utiliser les 45 minutes suivantes pour élaborer tout d’abord le plan d’ensemble (brouillon n° 2), puis le plan détaillé (brouillon n° 3). Ces deux premières étapes conduisent à épuiser la première heure de travail, c’est-à-dire un quart du temps total de l’épreuve. – Étape 3 : consacrer entre 15 et 30 minutes à la rédaction de la ​conclusion tout d’abord et de l’introduction ensuite. Il est envisageable, sous réserve ******ebook converter DEMO Watermarks*******

que cela ne soit pas trop chronophage, d’effectuer ces deux rédactions partiellement au brouillon (pour les parties relatives aux définitions de vocabulaire ou au bilan ce sera inutile). – Étape 4 : il reste logiquement entre 2 h 15 et 2 h 30 de temps de rédaction pour le développement de la dissertation. Ce développement devra faire l’objet d’une rédaction directement sur la copie finale avec comme support le brouillon n° 1 (la problématique) et le brouillon n° 3 (le plan détaillé). Notons enfin qu’il faut songer à conserver quelques minutes pour la relecture finale et veiller tout au long du devoir à la qualité de l’écriture, à la clarté de l’expression et à la syntaxe.

******ebook converter DEMO Watermarks*******

1. Dans les autres cas de figure, le lecteur effectuera une péréquation.

******ebook converter DEMO Watermarks*******

Partie 2 La dissertation de science économique en 14 sujets

******ebook converter DEMO Watermarks*******

Sujet

1 Peut-on parler de frontières de la firme ?

1

Se préparer à la rédaction

1.1 L’enjeu du sujet Ce sujet renvoie à un thème de recherche de la science économique qui fait l’objet d’une abondante littérature depuis le début du XXe siècle et à l’article fondateur de R. Coase (« La nature de la firme », 1937). Un débat central s’est depuis structuré dans la discipline autour de cette question entre l’école institutionnaliste et la théorie de l’agence notamment mais aussi, de manière moins radicale, entre R. Coase et O. Williamson par exemple sur la question du degré d’inefficacité dans la coordination des activités par le marché d’un côté, et par la firme de l’autre. Il est probable que ce sujet sera considéré par le candidat comme un classique. Pour autant, il faut se méfier d’une lecture hâtive qui escamoterait une partie des enjeux qu’il soulève. L’expression de « frontières » de la firme renvoie à l’idée d’un périmètre à l’intérieur duquel la firme peut être définie et analysée comme une organisation productive et au-delà duquel ce sont des formes alternatives de coordination des activités économiques qui sont à l’œuvre (le marché ou la coopération par exemple). La théorie économique enseigne qu’il est possible de considérer la firme comme une alternative au marché. En ce sens, il existe bien une frontière clairement établie de la firme qui la sépare du mode de coordination par le marché. Pour autant, il convient de préciser deux choses. D’une part, il faut penser à considérer le degré d’efficacité de la coordination des activités économiques à l’intérieur ou à l’extérieur de la firme qui pose la question de « l’existence de la firme », mais également la question du type de ******ebook converter DEMO Watermarks*******

gouvernance à l’œuvre au sein de la firme par rapport à celui qui s’opère à l’extérieur. D’autre part, il convient de nuancer le caractère radical de l’opposition entre la firme et son environnement au profit d’une réflexion qui met l’accent sur les interactions entre la coordination par la hiérarchie et celle par le marché. Dans ce cas, l’idée de frontière perd de sa pertinence face à la diversité des formes de firmes (filialisation des firmes, sous-traitance, jointventure, etc.). Il s’agira alors de défendre l’hypothèse d’un continuum entre la firme et le marché.

1.2 Le cadrage et les concepts clés Le concept de firme doit faire l’objet d’une définition rigoureuse et détaillée. La réflexion sur ses « frontières » porte indirectement à disserter sur ce qu’est la firme et ce qu’elle n’est pas. Par exemple, il importe de ne pas assimiler la firme à une organisation dont l’objectif principal est la recherche du profit, de ne pas confondre firme et établissement de production ou encore, s’agissant des firmes qui se multinationalisent, de clairement distinguer la firme en tant qu’organisation bénéficiant d’une autonomie de décision, de ses filiales et/ou de ses sous-traitants. Il s’agit d’un sujet qui a une portée théorique importante. Il convient toutefois de le placer dans une perspective historique afin d’éviter un traitement « hors-sol » exclusivement conceptuel. Il semble légitime de débuter la réflexion avec l’entrée dans la seconde mondialisation au sens de S. Berger (milieu des années 1970) car cela correspond à la période d’approfondissement de la multinationalisation des firmes et donc pose de manière nouvelle la question de leurs frontières.

1.3 La construction de la problématique La démonstration peut reposer sur une réflexion en deux temps : 1) Il s’agira de montrer tout d’abord qu’il est possible de parler de ​frontières de la firme dans le sens où celle-ci est, d’une part, une organisation productive qui est une alternative au marché et, d’autre part, une organisation qui implique une gouvernance spécifique qui est par nature différente des autres formes de gouvernance. 2) Toutefois, des travaux économiques nombreux partent de l’hypothèse que s’il existe bien des frontières de la firme, celles-ci doivent être discutées et présentent un caractère évolutif avec le contexte ******ebook converter DEMO Watermarks*******

institutionnel et historique avec en particulier la question de la diversification des formes de firmes et de leur mode de coordination depuis le début de la seconde mondialisation. L’idée de frontières de la firme peut ainsi être nuancée à partir de l’hypothèse de la firme comme « nœud de contrats ». Pour autant, face aux enjeux actuels en termes de gouvernance mondiale notamment, se pose aussi la question de l’articulation entre la firme et son environnement et en particulier celle de sa responsabilité dans la coordination des activités et des choix politiques à conduire.

2

Rédiger le devoir : une proposition

Introduction Au début de l’hiver 2018, la détention du PDG du groupe Renault-Nissan, Carlos Ghosn, par la justice japonaise pour soupçon d’abus de confiance et pour avoir fait couvrir par Nissan des pertes sur investissement personnel à l’occasion de la crise de 2008, pose avec une acuité singulière la question des frontières de la firme : de nombreux observateurs au Japon contestent à cette date le statut de manager du PDG français sur la firme Nissan et considèrent que celle-ci doit être légitimement placée sous l’autorité des dirigeants nippons. Dans cette conception, « l’affaire Ghosn » conduit à révéler que Nissan serait en fait une firme distincte de Renault ou, qu’à tout le moins, l’idée du groupe Renault-Nissan a fait long feu. Cet épisode est d’autant plus étonnant que Carlos Ghosn a été PDG de Nissan (en 2001) avant d’être celui de Renault (2005), ce qui faisait de lui l’un des premiers PDG non Japonais d’une firme nipponne. En économie, les concepts de firme et d’entreprise peuvent être considérés comme équivalents. Selon G. Abraham-Frois, « une entreprise est une unité de production qui vend ses produits (biens ou services) sur un marché ». Un enseignement important peut être tiré de cette brève définition : l’entreprise se définit par la mise en œuvre d’une production marchande (les biens et services produits font l’objet d’une vente sur un marché via un prix de marché). Une entreprise ne se définit donc pas par la recherche du profit : il existe par exemple des entreprises de l’économie sociale (coopératives, mutuelles et certaines associations) qui produisent des biens et services marchands et qui sont par ailleurs à but non lucratif. Ainsi, les entreprises ******ebook converter DEMO Watermarks*******

privées à but lucratif ne correspondent qu’à une partie, certes majoritaire, de l’ensemble des entreprises. Deux autres critères viennent par ailleurs compléter cette définition. D’une part, l’entreprise est une organisation productive : elle combine des facteurs de production (capital et travail qui font l’objet d’un échange sur leurs marchés respectifs) et assure par ailleurs une coordination des comportements individuels dans un cadre hiérarchique. D’autre part, l’entreprise est une unité économique dotée d’une autonomie juridique. Elle se distingue ainsi d’un établissement de production qui est juridiquement non autonome (une firme peut de ce fait regrouper plusieurs établissements). L’autonomie juridique confère à l’entreprise une relative autonomie de décision. Il arrive cependant que cette autonomie de décision soit réduite. Par exemple, une entreprise peut avoir pour principal actionnaire une autre entreprise (la seconde devient, le cas échéant, une filiale de la première) ; ou encore, dans le cadre d’une relation de sous-traitance, une entreprise peut se retrouver sous la dépendance effective d’une autre dès lors que celle-ci est son unique client. Avec la définition du concept de firme se pose de facto le problème de ses frontières, c’est-à-dire du périmètre au-delà duquel la coordination des activités économiques ne s’effectue plus à partir du mécanisme de la hiérarchie. La question de la définition de la firme a fait l’objet d’une réflexion tardive dans l’histoire de la pensée économique. Pour les fondateurs de l’économie politique comme pour les néoclassiques et certains économistes hétérodoxes à l’image de J. A. Schumpeter, la firme est réduite à un ensemble d’individus (la classe des propriétaires industriels dans l’économie ricardienne), à un producteur représentatif dans le modèle néoclassique standard ou encore à un entrepreneur individuel. Les pensées économiques classique, néoclassique et schumpétérienne ont ainsi un point commun : la firme n’est jamais abordée comme un objet d’étude singulier, elle est considérée spontanément soit parce qu’elle est réduite à sa dimension individuelle, soit parce qu’elle est assimilée à une simple « boîte noire ». Pourtant, la question de la définition de la firme ainsi que de ses frontières par rapport aux autres formes de coordination des activités économiques s’est révélée être un enjeu scientifique important à partir des années 1930. Pourquoi les firmes existent-elles ? Si certains agents coordonnent leurs activités dans le cadre d’une firme, c’est que celle-ci s’est imposée comme un mode de coordination plus efficient. Les relations marchandes cèdent alors la ******ebook converter DEMO Watermarks*******

place à une coordination par la hiérarchie au sein d’une organisation productive. Dans cette optique, les frontières de la firme semblent clairement établies : la firme débute là où le marché s’arrête (et inversement). Mais par ailleurs, les relations qui existent entre les agents au sein d’une firme sontelles par nature différentes de celles qui existent dans un cadre marchand ? Autrement dit, la définition de la firme implique-t-elle une position de rupture vis-à-vis du marché ? Cela conduit à poser la question de la diversité des parties prenantes (actionnaires, mais aussi salariés, clients, résidents des territoires sur lesquels la firme implante ses établissements de production…) qui interagissent avec la firme et qui peuvent, le cas échéant, être considérées comme des composantes de l’organisation. Dans cette optique, la firme devient un nœud de contrats. Avec la question des frontières de la firme se pose aussi celle de sa gouvernance : qui décide et dirige l’organisation ? En quoi le mode de gouvernance des firmes est-il différent de ceux qui opèrent en dehors ? Et s’il existe une frontière de la firme, est-ce cela implique une déresponsabilisation de la firme s’agissant des interactions avec son environnement ? La firme existe lorsque le marché se révèle moins efficient que la coordination par la hiérarchie. La firme est par nature différente du marché dans la mesure où elle se définit comme une organisation productive : en ce sens, la firme est une alternative au marché et la frontière qui sépare l’un et l’autre est clairement identifiée (I). Cependant, si définir la firme implique l’identification de cette frontière, cela ne conduit pas nécessairement à penser la firme en rupture par rapport au marché : elle peut aussi s’appréhender comme la continuité de celui-ci comme le démontrent les travaux de la théorie de l’agence. Dans cette optique, la firme se définit soit comme un nœud de contrats et un ensemble de droits de propriété, soit comme une organisation productive dont les frontières s’effacent et qui produit des mécanismes d’incitations et de contrôle sur ses différentes parties prenantes (II). I. Les frontières de la firme : entre organisation et marché À partir des travaux de R. Coase, complétés par ceux d’O. Williamson notamment, il est possible de montrer que la firme existe du fait de la comparaison entre les coûts de transactions et les coûts d’organisation qu’elle articule. Il existe bien une frontière clairement établie entre la firme et le marché (A). Par ailleurs, la firme est une organisation productive qui ******ebook converter DEMO Watermarks*******

implique une hiérarchie de sorte que la question de sa frontière se pose aussi du point de vue des relations de pouvoir qui existent entre les diverses parties prenantes qui la composent et avec lesquelles elle interagit (B). A. Frontière et nature de la firme : coûts de transaction et coûts d’organisation Durant les premières décennies du XXe siècle, des travaux de recherche novateurs pour l’époque mettent l’accent sur le fait que le marché est une forme d’organisation économique décentralisée efficace mais qu’il peut exister des défaillances du marché dès lors que certaines conditions ne sont pas remplies. Dans ce cas, la firme est une forme d’organisation alternative qui permet de coordonner différemment les comportements des agents. En économie, la coordination correspond à l’ensemble des procédures qui permettent aux décisions des agents d’être cohérentes entre elles. Dans le cadre du marché, cette coordination est assurée par les mécanismes de prix, dans celui d’une organisation, celle-ci est assurée par la hiérarchie. Se pose la question de savoir pour quelles raisons la coordination par le marché est, dans certains cas, abandonnée par les agents au profit de celle relevant d’une organisation. Dans la tradition théorique néoclassique, les agents économiques sont dotés d’une rationalité substantive au sens d’H. Simon : ils disposent de toute l’information nécessaire leur permettant d’adopter une solution unique qui est objectivement préférable à toutes les autres. Cette hypothèse restrictive quant à la rationalité est liée à une autre selon laquelle l’information circule librement entre les agents économiques, autrement dit que le coût d’accès à l’information est nul. Ces deux hypothèses sont remises en cause dans l’article fondateur de R. Coase (Prix Nobel 1991) en 1937 : “The Nature of the Firm”. Tout en conservant le principe de rationalité des agents, Coase s’appuie sur une autre hypothèse selon laquelle à chaque fois que deux agents ont recours au marché pour coordonner leurs transactions, cela implique des coûts spécifiques que les deux agents vont devoir supporter (coûts de transaction comme par exemple les coûts de recherche de l’information, les coûts de négociation des contrats…). Par ailleurs, la rationalité des agents est nécessairement limitée : ils disposent d’information et de capacités de calculs insuffisantes pour parvenir à maximiser leurs fonctions d’objectifs. Coase montre que les agents peuvent accroître le niveau d’information dont ils ont besoin et ainsi utiliser plus efficacement les facteurs de ******ebook converter DEMO Watermarks*******

production, en coordonnant leurs activités à l’intérieur d’une organisation plutôt que par le biais du marché. Au sein de la firme, les coûts de transactions disparaissent puisque celle-ci repose sur une coordination centralisée et hiérarchique. Par exemple, si une firme du secteur automobile décide de faire appel au marché, via un réseau de firmes sous-traitantes, pour la prise en charge de certaines activités qu’elle considère comme périphériques (maintenance des biens d’équipements, fournisseurs en biens intermédiaires divers tels que les dispositifs de freinage ou les GPS, etc.), elle supporte, le cas échéant, les coûts de transactions correspondants. La stratégie alternative consiste à réaliser ces types de tâches en interne en y affectant certains de ses salariés : les coûts de transactions disparaissent et la firme augmente sa taille. Entre ces deux stratégies, ce sont deux types de contrats entre lesquels la firme doit opter : un contrat commercial lorsqu’elle fait appel au marché, un contrat de travail lorsqu’elle prend en charge en « interne » les activités concernées. Le contrat de travail présente deux avantages principaux selon Coase : d’une part, les coûts de transactions s’annulent une fois le contrat établi et, d’autre part, la firme peut contrôler plus facilement les segments de la production concernés puisque les tâches sont effectuées par des salariés qui en ont reçu l’ordre. Cependant, dès lors que le contrat de travail est préféré au contrat commercial, un nouveau problème apparaît : comment expliquer que, dans les économies modernes, toutes les activités de production marchande ne soient pas prises en compte par une firme unique ? Coase montre que la réponse tient à l’existence d’autres types de coûts, des coûts d’organisation qui se développent lorsque la firme accroît sa taille. Ces coûts découlent de la nécessité de coordonner par la hiérarchie les actions des agents. En ​utilisant les acquis du modèle néoclassique, Coase montre ainsi que les dirigeants d’une firme doivent faire face à un arbitrage impliquant un coût d’opportunité : le choix du recours au marché ou à la firme dépend de la comparaison entre les coûts de transactions et les coûts d’organisation. Il propose ainsi un modèle qui permet de déterminer une taille critique de la firme qui est atteinte lorsque le coût marginal d’organisation est égal au coût marginal alternatif de transaction. Cette analyse proposée par Coase a eu un impact considérable sur la pensée économique du XXe siècle. Elle présente l’avantage de donner pour la première fois à la firme une certaine « épaisseur » dans un modèle économique. Le modèle de Coase présente toutefois de nombreuses limites ******ebook converter DEMO Watermarks*******

parmi lesquelles la question des caractéristiques des coûts de transactions et d’organisation. Comment expliquer par exemple que certaines firmes supportent des coûts de transaction supérieurs à d’autres alors que leur degré de recours au marché est comparable ? À partir des années 1970, les travaux d’O. Williamson (Prix Nobel 2009) proposent de répondre à ce problème. Ses hypothèses s’inscrivent dans le champ de la nouvelle économie institutionnelle. Il suppose, avec Coase, que les agents sont dotés d’une rationalité limitée et que les firmes se développent tant que les coûts d’organisation sont inférieurs aux coûts de transactions. Cependant, il considère, d’une part, que les agents évoluent dans un contexte d’avenir incertain (alors que les tenants de la théorie néoclassique considèrent que l’avenir est probabilisable), ce qui les conduit à passer des contrats nécessairement incomplets et, d’autre part, que l’information est distribuée de manière asymétrique. Ainsi, Williamson montre que non seulement les agents sont dans l’incapacité de prévoir l’ensemble des évènements susceptibles de se produire dans l’avenir, mais également que les contrats commerciaux passés dans le cadre du marché conduisent les agents à faire preuve d’opportunisme. Il démontre ainsi que plus l’information est asymétrique, plus la rationalité incite les agents à adopter des comportements opportunistes et plus, in fine, les coûts de transactions sont élevés pour les agents qui décident de coordonner leurs activités par le marché. C’est pour cette raison que la firme apparaît comme une alternative efficace au marché : en organisant en interne de plus en plus d’activités et en augmentant sa taille, Williamson montre que la firme réduit les asymétries informationnelles propres au marché. En d’autres termes, la frontière de la firme se mesure à l’aune de la défaillance du marché face aux comportements opportunistes : lorsqu’elle s’accroît, la frontière se déplace et la taille de la firme augmente. B. Frontière de la firme et gouvernance La firme est une unité économique qui vend les biens et services qu’elle produit sur des marchés. Mais elle est également une organisation, c’est-àdire qu’elle est constituée d’un ensemble d’agents qui mettent en œuvre des moyens et coordonnent leurs actions de manière cohérente dans le but d’atteindre un ou plusieurs objectifs. Dans cette optique, toute organisation implique l’existence d’une structure plus ou moins hiérarchisée avec une répartition des responsabilités et des prises de décisions. À ce titre, il existe une frontière entre la firme et son environnement. Le concept de gouvernance ******ebook converter DEMO Watermarks*******

peut être utilisé pour répondre à la question : « Qui décide de quoi au sein de la firme » ? Dans son sens le plus large, la gouvernance de la firme renvoie, selon A. Rébérioux, à l’exercice et à la structure du pouvoir dans les entreprises notamment mais pas exclusivement entre les actionnaires et les managers. Définir la firme en tant qu’organisation productive revient ainsi à se demander comment il est possible d’associer des capitaux et d’organiser la répartition des pouvoirs de manière à en assurer le développement et l’efficacité productive. Cette hypothèse selon laquelle la coordination des activités au sein de la firme implique une hiérarchie est déjà présente dans l’article de R. Coase : l’ouvrier change de poste de travail parce qu’il en a reçu l’ordre, non parce qu’il est incité à le faire par une modification des prix relatifs. Cependant, c’est surtout à partir du milieu du XXe siècle et des travaux qui s’inscrivent dans l’optique de la « révolution managériale » que la firme est analysée comme une organisation faisant l’objet d’enjeux de pouvoir pour l’essentiel entre les propriétaires des capitaux et les managers. Dans un ouvrage publié en 1932, A. Berle et G. Means (The Modern Corporation and Private Property) montrent que le développement des grandes firmes aux États-Unis s’accompagne de la dispersion des titres de propriété, ce qui conduit à une séparation croissante entre la propriété et le contrôle de la firme. Cette étude est aujourd’hui considérée comme pionnière pour trois raisons principales. Tout d’abord, elle rend compte de la mutation que connaît le capitalisme industriel aux États-Unis au début du XXe siècle (passage de la firme entrepreneuriale dans laquelle les propriétaires sont également les gestionnaires, à la firme managériale qui se dote d’un statut juridique de société anonyme). Par ailleurs, elle met en évidence la prise de pouvoir des managers sur les propriétaires : les premiers peuvent, d’une part, imposer leurs choix aux seconds du fait de la position stratégique qu’ils occupent et, d’autre part, ils privilégient des objectifs qui leur sont propres en raison notamment du fait que leur rémunération est indépendante des performances de la firme qu’ils dirigent. Enfin, cette étude s’appuie sur une vaste investigation empirique, ce qui est assez novateur pour l’époque : ils observent par exemple que, juste avant la crise de 1929, près de 45 % des deux cents plus grandes firmes américaines ont un actionnariat particulièrement dispersé et sont totalement contrôlées par leurs managers (dans la fameuse entreprise de télécommunications AT&T par exemple aucun actionnaire ne possède plus de 1 % du capital). ******ebook converter DEMO Watermarks*******

Cette analyse inaugure une importante série de travaux autour du modèle du capitalisme managérial qui s’impose comme problématique de recherche jusqu’à la fin des années 1970. J. K. Galbraith montre par exemple (Le nouvel état industriel, 1967) que les firmes modernes sont caractérisées par la formation d’une technostructure, c’est-à-dire des groupes de cadres dirigeants qui concentrent le pouvoir économique. Ce pouvoir de la technostructure qui se traduit par un recours intensif à la planification provient pour partie de l’évolution de la technologie mais aussi et surtout de la complexité croissante de l’organisation des firmes. Le pouvoir des managers repousse les frontières de la firme et affecte la conduite des affaires publiques (lobbying des managers auprès du politique) ainsi que le comportement des consommateurs (mécanisme de la filière inversée). Galbraith montre ainsi que les managers cherchent à minimiser les situations d’incertitude qui sont propres au marché. La technostructure permet de développer des procédures de contrôle notamment sur les prix de vente des produits : ces procédures sont d’autant plus efficaces que le processus d’intégration verticale des firmes est poussé (l’augmentation de la taille de la firme place les parties prenantes tels que les fournisseurs et les clients sous le contrôle de cette dernière) ou, dans une moindre mesure, que les firmes développent des stratégies collusives. En partant d’une problématique similaire mais en s’appuyant sur une démarche historique, A. Chandler montre en 1977 dans son ouvrage La main visible des managers qu’entre le milieu du XIXe et du XXe siècle le fonctionnement des marchés est particulièrement soumis au contrôle des firmes et de leurs managers : la main invisible du marché a cédé la place à la main visible des managers. Cependant, à partir de la récession des années 1970 et notamment du processus de la globalisation financière, le modèle de la firme contrôlée par les managers qui conduit à repousser sa frontière fait l’objet de critiques croissantes. Alors que les firmes cherchent à s’adapter à un nouveau contexte économique notamment caractérisé par une concurrence internationale intense, on observe l’apparition d’un nouveau modèle de gouvernance des firmes « orienté vers l’actionnaire ». Il s’agit toujours de penser la firme comme une organisation faisant l’objet de relations de pouvoirs mais en partant de l’hypothèse selon laquelle les actionnaires (shareholders) développent des stratégies afin de peser sur le comportement des dirigeants et ainsi faire en sorte que ces derniers atteignent les objectifs fixés lors des assemblées générales. Ce modèle dit de la corporate governance vise à ******ebook converter DEMO Watermarks*******

étudier, selon A. Shleifer et R. Vishny, les moyens dont se dotent les fournisseurs de capitaux pour s’assurer de leur retour sur investissement par le biais de mécanismes de contrôle et/ou d’incitation des dirigeants. Ce modèle prescriptif plus que scientifique de la corporate governance a incontestablement pesé sur les stratégies des firmes à partir des années 1980. Par exemple, la plupart des firmes multinationales ont adopté de nouveaux dispositifs dans leur processus de croissance afin de limiter la dispersion de l’actionnariat (en permettant notamment aux actionnaires historiques d’acheter les nouveaux titres au moment de l’augmentation du capital social par exemple). Par ailleurs, la montée en puissance sur les marchés financiers de nouveaux acteurs économiques que sont les investisseurs institutionnels a également eu pour effet d’accroître le pouvoir des actionnaires. Il faut cependant souligner que ce modèle de la corporate governance présente des limites pour rendre compte de l’évolution actuelle des relations de pouvoir au sein de la firme. Dans la plupart des PDEM, notamment en Europe, les firmes restent sous le contrôle d’une élite managériale marquée par une forte reproduction sociale. La question « Peut-on parler de frontière de la firme ? » trouve un élément de réponse dans l’idée selon laquelle elle représente une alternative au marché. Cependant, cette réponse n’épuise pas la définition de la firme ni son périmètre. En partant de l’hypothèse que les relations qui existent entre les agents au sein des firmes comme au sein des marchés sont fondées sur des contrats, il est possible de montrer qu’il n’existe pas de différence de nature entre la firme et le marché et donc de remettre en cause l’idée de frontière. Dès lors, comment rendre compte de l’articulation entre la firme et le marché ? Face aux enjeux du capitalisme contemporain, comment penser les frontières de la firme vis-à-vis du marché et comment concilier les intérêts des firmes en tant qu’organisations productives avec ceux des autres agents économiques, c’est-à-dire des parties prenantes des firmes ? II. Des frontières discutées et évolutives : la firme face à la coordination des activités économiques À partir des années 1970, des travaux mettent l’accent sur le fait qu’il n’existe pas de différence de nature entre la firme et le marché et donc pas de frontière entre elle et les autres modes de coordination des activités. La firme est analysée comme un nœud de contrats sur la base desquels elle interagit avec d’autres agents dans le cadre des relations marchandes. Dans cette ******ebook converter DEMO Watermarks*******

optique, c’est par un ensemble de mécanismes incitatifs que la firme s’articule avec le marché (A). Cependant, si la définition de la firme sans rupture avec le marché présente une forte portée heuristique, les analyses en termes d’incitation rencontrent des limites : il faut par ailleurs mettre en évidence les conditions requises pour que les intérêts de la firme soient compatibles ou, à tout le moins, convergents avec ceux de ses parties prenantes, ce qui implique bien de repenser la firme comme une organisation dont il faut reconsidérer les frontières. Ainsi, face aux enjeux actuels en termes de gouvernance mondiale notamment, se pose la question de l’articulation entre la firme et son environnement et en particulier celle de sa responsabilité dans la coordination des activités et des choix politiques à conduire (B). A. La firme comme nœud de contrats : des frontières contestées Durant les années 1970, deux économistes américains, A. Alchian et H. Demsetz, développent une théorie novatrice de la firme qui rompt avec les analyses institutionnalistes proposées à la même époque par O. Williamson. Selon eux, pour comprendre l’existence des firmes dans les économies modernes, il suffit de considérer qu’elles sont un prolongement, sous des formes différentes, des relations de marché. Ces dernières conduisent les agents économiques à nouer et dénouer en permanence des contrats (relations fournisseurs/clients par exemple). En utilisant les hypothèses du modèle néoclassique, Alchian et Demsetz considèrent que le marché est par nature un mode d’allocation et de distribution des richesses plus efficace que la firme : le mécanisme des prix relatifs remplit une fonction de signal et fournit des incitations maximales pour les différents agents (notamment en matière d’effort au travail dans la mesure où la rémunération de l’individu est fonction de sa productivité marginale). Cependant, dans certains cas de figure, il est possible de montrer que la signature de contrats de travail durables est rationnellement préférable aux contrats marchands usuels comme les contrats commerciaux qui doivent être signés lors de chaque transaction. À partir de l’exemple du travail en équipe, Alchian et Demsetz soulignent qu’il est impossible de mesurer la contribution effective de chaque participant à une activité productive, ce qui empêche toute régulation efficace par des contrats commerciaux. Le recours à la firme permet d’éviter au moins partiellement les comportements de type « passager clandestin » dans la mesure où celle-ci met en œuvre des dispositifs de contrôle et d’incitation. Si ******ebook converter DEMO Watermarks*******

l’un des agents en présence prend en charge la fonction de contrôle des autres, il devient un « créancier résiduel » ce qui lui donne le droit (s’il est efficace et que la productivité de l’équipe soit élevée) de percevoir un revenu spécifique : le profit. Cette fonction de contrôle doit par ailleurs être assortie d’une distribution de droits de propriété : le créancier résiduel devient ainsi l’entrepreneur, propriétaire de la firme. À ce titre, il a droit, en plus de la perception de son revenu résiduel, d’assigner des tâches aux autres participants qui deviennent de fait ses salariés, d’établir des grilles de rémunérations pour les contrats de travail, de modifier la composition de l’équipe, etc., et enfin, le droit de vendre l’ensemble des droits précédents. Dans le modèle d’Alchian et Demsetz, la firme existe dans la mesure où le marché est dans l’incapacité de prendre en charge certaines productions qui impliquent du travail en équipe : elle se définit, d’une part, comme le produit d’une série de contrats et, d’autre part, comme un ensemble de droits de propriété. En ce sens, il n’existe pas de différence de nature entre le contrat de travail qui relie le créancier résiduel aux salariés et le contrat commercial qui relie le fournisseur à ses clients et il n’existe pas de frontière clairement établie de la firme. Dans le prolongement de ces travaux, M. Jensen et W. Meckling proposent à la même époque un modèle de la firme à partir d’une hypothèse plus radicale selon laquelle les relations contractuelles constituent l’essence de la firme non seulement pour les relations entre propriétaires et salariés au sein de la firme, mais aussi pour celles qui impliquent les fournisseurs, les clients, les institutions financières créancières, etc. La firme devient ainsi une « fiction juridique », c’est-à-dire un artefact qui se résume concrètement à articuler des contrats bilatéraux entre tout un ensemble d’agents économiques. Pour Jensen et Meckling, ces contrats peuvent s’analyser dans le cadre d’une relation d’agence. Au sein d’une firme, les différents individus sont conduits à remplir deux rôles économiques complémentaires : le rôle de « principal » et le rôle « d’agent ». Ainsi, une relation d’agence apparaît lorsqu’un individu (le principal) en engage un autre (l’agent), via un contrat de travail par exemple, afin d’exécuter une tâche en son nom, ce qui implique de déléguer un certain pouvoir de décision à l’agent. Jensen et Meckling adoptent par ailleurs une double hypothèse de contrats complets (l’avenir est probabilisable) et d’asymétrie informationnelle au bénéfice de l’agent. Ce modèle, qui peut s’articuler avec celui de la corporate governance, s’est révélé particulièrement fécond pour rendre ******ebook converter DEMO Watermarks*******

compte des relations entre les actionnaires et les managers à partir des années 1980. Les actionnaires (le principal) confient au conseil d’administration ou au directoire (l’agent) la conduite des activités de la firme avec pour objectif une création de valeur qui permettra de valoriser le placement financier initial du propriétaire. L’agent s’engage à honorer son contrat mais il peut être conduit à dissimuler certaines informations ou à poursuivre implicitement des objectifs qui ne lui ont pas été assignés. Dès lors, il s’agit pour le principal d’établir un dispositif d’incitation afin de réduire l’asymétrie informationnelle dont il est victime. La théorie de l’agence enseigne qu’il existe des mécanismes incitatifs externes à la firme qui permettent de réguler les relations d’agence. Ainsi, si le marché des produits est suffisamment concurrentiel, toute firme mal gérée finira par être évincée du marché. Par ailleurs, le risque d’Offre Publique d’Achat (OPA), qui donne la possibilité à une firme de prendre le contrôle d’une autre en proposant à son actionnariat l’acquisition simultanée de titres en circulation, incite les managers à une gestion efficace. Enfin, le marché du travail des dirigeants est aussi un moyen d’évaluation de leurs performances. Il existe par ailleurs des dispositifs de contrôle et d’incitation internes que peut mettre en œuvre le principal. S’agissant des mécanismes de contrôle, le conseil d’administration est placé sous la surveillance de l’assemblée générale des actionnaires, ce qui peut conduire à l’éviction du conseil d’administration en cas de mauvaise gestion. Dans les faits, l’efficacité de cette relation d’agence est fonction de la structure de l’actionnariat. Les « petits actionnaires » sont peu incités à adopter une telle stratégie de surveillance, compte tenu des coûts d’agence qui sont pour eux prohibitifs et qui les conduisent à des comportements de « passagers clandestins » (une gestion plus efficace des managers conduira à une hausse des dividendes pour l’ensemble des actionnaires et pas seulement pour ceux qui ont supporté le coût d’agence). Cependant, le modèle enseigne que l’agent peut également utiliser la rémunération des managers comme un instrument incitatif efficace (indexation de la rémunération sur les performances de la firme). L’analyse de la firme à la fois comme nœud de contrats et comme relation d’agence a eu un incontestable succès sur le plan empirique notamment pour rendre compte des stratégies de recentrage des firmes sur leur « cœur de métier » à partir des années 1980. En effet, si l’objectif de la création de valeur est prioritaire, les agents sont conduits à soumettre chacune de leurs activités à une évaluation afin de ne conserver que celles qui créent le plus de ******ebook converter DEMO Watermarks*******

valeur. Cela se traduit concrètement par le développement des pratiques d’externalisation des activités périphériques vers des sous-traitants spécialisés (outsourcing), processus qui est notamment à l’œuvre avec la segmentation des chaînes de valeurs mondiales depuis le début des années 2000. Cependant, cette approche de la firme et de son absence de frontière comme « relation d’agence » fait l’objet de nombreuses critiques. Il apparaît empiriquement que, dans de nombreux cas, le principal ne peut anticiper toutes les stratégies possibles de l’agent et que celui-ci est souvent conduit à utiliser à son avantage la relation de pouvoir dont il bénéficie au sein de l’organisation. Par conséquent, l’asymétrie informationnelle ne peut disparaître au seul moyen de la relation d’agence. Par exemple, il est manifeste que la rémunération des managers selon le mécanisme des stocks options a accru dans les faits les comportements opportunistes de leur part (les arguments en termes de relation d’agence sont alors de simples justifications à des rémunérations complémentaires souvent considérables). B. Vers un nouveau périmètre de la firme : des parties prenantes à la firme comme commun À partir des années 1980, le débat sur la frontière entre la firme et le marché rebondit avec une nouvelle série de travaux conduits par O. Williamson. Dans ses premières études, celui-ci plaçait déjà son modèle de la firme dans l’hypothèse d’un environnement incertain et de contrats incomplets. Cependant, cette analyse ne permettait pas de rendre compte de toutes les situations empiriques : comment expliquer par exemple que certaines firmes décident stratégiquement de ne pas procéder à une intégration verticale et de s’en tenir à l’entretien de relations marchandes avec leurs fournisseurs tandis que d’autres adoptent la stratégie inverse ? Williamson répond à cette question et contribue à redéfinir le périmètre de la firme en mobilisant le concept de spécificité des actifs. Il pose pour cela l’hypothèse selon laquelle l’attribut fondamental d’une transaction dépend du degré de spécificité d’un actif : plus un actif est spécifique, moins les agents sont incités à l’allouer en utilisant le mécanisme du marché. Selon Williamson, un actif est spécifique lorsque sa valeur dans une utilisation alternative est plus faible que dans son utilisation présente. Autrement dit, plus un agent économique est propriétaire d’un actif (un équipement, un savoir-faire, une compétence, etc.) qui a nécessité un investissement coûteux et qui a vocation à participer à une activité productive ******ebook converter DEMO Watermarks*******

singulière, moins cet actif sera transposable sur une autre activité et donc moins il pourra faire l’objet d’une transaction au bénéfice de l’agent qui en est le propriétaire. Les actifs spécifiques s’opposent aux actifs génériques, c’est-à-dire aux actifs qui peuvent subir toutes les transactions marchandes et se redéployer sans coût prohibitif pour la firme. L’actif est qualifié par Williamson de « spécifique pur » s’il ne peut soutenir qu’une seule transaction (celle correspondant à l’achat par la firme Playmobil des moules pour produire les jouets en plastique par exemple) et que sa valeur devient nulle dans toutes les transactions alternatives. Ce qui importe pour définir la firme et comprendre son développement, c’est donc le degré de spécificité des actifs : plus un actif est spécifique, plus les agents cocontractants qui utilisent le marché pour allouer les richesses seront rationnellement conduits à adopter des comportements opportunistes du fait de la distribution asymétrique de l’information, ce qui fera sensiblement croître les coûts de transactions. A contrario, l’intégration de la production au sein de la firme conduit à des coûts d’organisation faibles lorsque les actifs sont spécifiques. Par exemple, Williamson montre qu’une relation marchande entre une firme et son fournisseur indépendant peut être rationnelle dans la mesure où l’actif échangé est générique (ce qui est le cas pour les pneumatiques vendus par Michelin à Renault par exemple et donc… à l’existence de deux firmes et pas d’une seule). Les tests de corroboration empirique réalisés à partir de ce modèle ont été tellement probants que ce dernier a été qualifié d’« empirical success story » par de nombreux économistes. Il est particulièrement robuste pour rendre compte des stratégies d’intégration verticale des firmes dans le contexte de la seconde mondialisation : lorsque les actifs sont génériques, les agents ont recours au marché et les filières de production sont constituées de nombreux « segments » fournisseurs-clients ; lorsque les actifs sont spécifiques, les firmes sont incitées à accroître leur taille en rachetant les segments amont et/ou aval de la filière, la frontière de la firme est ainsi repoussée en même temps que son périmètre augmente. Entre le « marché pur » et la « hiérarchie pure », il existe de nombreux arrangements plus ou moins institutionnels entre des firmes qui restent juridiquement indépendantes de sorte que ce modèle rend compte du caractère évolutif de la frontière de la firme. Ces « arrangements » permettent d’articuler le temps court (les relations de marché) avec le temps long (les relations au sein d’une organisation) du capitalisme. ******ebook converter DEMO Watermarks*******

Malgré son indéniable portée heuristique, le modèle de Williamson s’appuie cependant sur une hypothèse forte qu’il convient de discuter. En présence d’asymétries informationnelles, il considère que l’intégration par la firme est rationnelle dans la mesure où elle conduit nécessairement à l’efficience. Or, de nombreux travaux ont mis en évidence le fait que le recours à la hiérarchie ne supprime pas mécaniquement les comportements opportunistes tandis que d’autres montrent qu’il existe sur certains marchés des relations de pouvoir entre les cocontractants. Si la frontière de la firme entre l’organisation et le marché est difficile à cerner, c’est aussi parce que la première comme le second peuvent s’analyser conjointement en termes d’incitations et de contraintes. À ce titre, le modèle de gouvernance de la firme qualifié de stakeholder (parties prenantes) renouvelle l’analyse de cette frontière. Il s’agit d’étudier les relations de pouvoir au sein des firmes du point de vue de leur efficacité économique. Les parties prenantes représentent l’ensemble des agents affectés directement ou indirectement par l’activité de la firme (salariés, créanciers, fournisseurs, clients, concurrents, actionnaires, associations de consommateurs, pouvoirs publics, etc.). Il s’agit donc d’individus, de groupes d’individus ou d’institutions qui sont soit juridiquement liés à l’organisation (par exemple par un contrat de travail ou un contrat commercial), soit sans lien juridique avec elle mais qui peuvent influencer ou être influencés par la réalisation des objectifs de cette organisation. Ainsi, ces parties prenantes disposent de créances (stakes) envers cette organisation. Le modèle montre que l’efficacité de la gouvernance de la firme dépend de la capacité de celle-ci à faire coïncider ses objectifs propres (comme la création de valeur mais aussi le prestige de la firme ainsi que sa légitimité vis-à-vis de son environnement) avec, d’une part, ceux des parties prenantes et, d’autre part, l’intérêt général. Or, puisque les intérêts de chaque partie prenante ne convergent pas spontanément avec ceux de l’organisation, il est rationnel que les unes comme l’autre mettent en œuvre des dispositifs d’incitations et de contrainte afin de faire évoluer la situation dans un sens qui leur soit favorable. L’évolution du contexte économique mondial depuis une décennie, sur fond de l’après-crise de 2008, de hausse des inégalités mais aussi de montée en force des enjeux environnementaux et climatiques, conduit à reconsidérer le périmètre de la firme et donc la question de sa « responsabilité ». Dans des travaux récents, S. Bommier et C. Renouard (L’entreprise comme commun, 2018) montrent que le modèle de la responsabilité sociale de ******ebook converter DEMO Watermarks*******

l’entreprise (RSE) a fait long feu en ce sens qu’il s’agit surtout d’un discours de justification sans effet économiques et sociaux tangibles. Bommier et Renouard montrent que la firme est de fait un acteur politique à part entière dont le périmètre est nécessairement large : sur le plan interne, pour les parties prenantes qui sont liées directement à la logique hiérarchique (salariés, managers et actionnaires), la firme est une arène où diverses conceptions de la justice se confrontent (partage salaires/profits, pluralité des cultures et des cadres institutionnels s’agissant des firmes multinationales et de leurs filiales, enjeu de la présence de droit des salariés dans les conseils d’administration, etc.) ; sur le plan externe, elle est un acteur qui a un impact sur les choix de fiscalité des États, sur les politiques environnementales, sur la nature des relations avec les fournisseurs, sur le développement des territoires et les bassins d’emploi dans lesquels elle investit. Tout cela conduit à reconsidérer la question de la frontière de la firme : peut-on affirmer par exemple que les États sont extérieurs aux firmes quand on pense aux institutions financières qui ont été sauvées de la faillite en 2007-2008 ? Que dire des agriculteurs européens dont une grande partie des revenus provient des aides de la politique agricole commune ou encore des entreprises de l’agroalimentaire et de la grande distribution commerciale face aux réglementations sanitaires ? À ce titre, on peut dire que la firme « appartient » à une multitude d’agents ou d’institutions qui détiennent sur elle des droits de propriété variés. Dans la lignée des travaux d’E. Ostrom, Bommier et Renouard proposent de considérer l’entreprise comme un commun, c’est-à-dire une richesse qui se définit à partir d’un choix éthique et politique du fait que son existence, son entretien et sa reproduction sont nécessaires à l’exercice des droits fondamentaux et au libre développement des personnes dans une société. Bommier et Renouard rappellent à ce titre que si une entreprise appartient bien à ses propriétaires (parfois des actionnaires), il s’agit d’une propriété qui porte sur les parts de la société commerciale, seule définie par le droit, et que la firme est une institution qui n’est pas réductible à cela. Les droits de propriété autour desquels elle s’articule sont nombreux et la gouvernance des économies gagnera en efficacité et en légitimité en considérant la firme comme un commun : droit d’accès à certains actifs (comme les travailleurs par exemple), droit de retrait (fermeture de sites industriels et revente de filiales par les FMN par exemple), droit de gestion (qui décide au sein de la firme ? Quelle place pour les salariés dans la gouvernance de la firme ?), ******ebook converter DEMO Watermarks*******

droit d’exclusion (comme le droit des riverains d’un territoire à rejeter un projet d’installation de firme par exemple) et enfin le droit d’aliénation par lequel les États peuvent préempter la vente d’actifs de firmes à des investisseurs non-résidents ou encore des oppositions fondées juridiquement à des décisions de délocalisation en vertu de la défense d’un tissu économique sur un territoire. C’est sur cette base par exemple que la loi sur l’économie sociale et solidaire adoptée en France en 2014 contraint les dirigeants des firmes à informer les salariés et à rechercher un repreneur lors d’un projet de délocalisation ou de restructuration. Conclusion À la question « Peut-on parler de frontières de la firme ? », la littérature scientifique propose une réponse affirmative. Le débat porte sur la distance qui sépare le cœur de cette organisation productive de sa périphérie, c’est-àdire du périmètre au-delà duquel le mode de coordination des activités économiques repose principalement sur d’autres bases que l’idéal-type de la hiérarchie. Si, pour les uns, la firme reste une alternative au marché tandis que pour d’autres, il existe une différence de degré plus que de nature entre ces deux modes de coordination, il semble aujourd’hui acquis que le périmètre de la firme doit être pensé à distance de son centre pour permettre une gouvernance à la fois juste et efficace. L’enjeu porte sur la qualité du cadre institutionnel : dans le contexte actuel de tension accrue sur le plan climatique et environnemental, mais aussi sur celui de la démocratie et de la souveraineté des politiques économiques (pensons à la concurrence fiscale entre les États sur fond de lobbying des FMN), comment conduire les firmes à une forme de gouvernance coopérative tournée vers l’intérêt commun ? Ostrom proposait de répondre à partir du concept de gouvernance multiniveau (gouvernance intraterritoriale, politique économique des États, instances internationales, mobilisations citoyennes et ONG) articulé avec des dispositifs institutionnels fondés sur des mécanismes de contrainte et d’incitation qu’il reste à inventer. Bommier et Renouard concluent ainsi leur ouvrage : « La question d’une politique économique responsable devient centrale et la puissance économique des entreprises doit être réorientée vers le bien commun. Là où les États sont défaillants, les mobilisations citoyennes peuvent-elles faire front et amener les entreprises à assumer leur responsabilité pour favoriser l’émancipation

******ebook converter DEMO Watermarks*******

des individus et la protection des biens communs afin de réaliser l’idéal universaliste promu par la Déclaration ​universelle des droits de l’homme des Nations unies ? »

******ebook converter DEMO Watermarks*******

Sujet

2 Le progrès technique nuit-il à l’emploi ?

1

Se préparer à la rédaction

1.1 L’enjeu du sujet Il s’agit d’un sujet classique de la science économique. Pour autant, il faut être attentif au fait que le débat sur cette question est marqué par des développements récents sur fond de poussée technologique (robotisation des systèmes productifs, révolution de l’intelligence artificielle, etc.). Il faut par conséquent veiller à donner à la copie une profondeur historique nécessaire (la critique du progrès technique dans le débat public est aussi ancienne que l’industrialisation) mais aussi à accorder une certaine importance aux analyses récentes liées à la dynamique de l’emploi. Par ailleurs, comme souvent, il s’agit d’un sujet qui renvoie pour partie à des enjeux politiques (et souvent à des interprétations doctrinales) et pour partie à des enjeux scientifiques. Sur cette question peut-être plus que sur d’autres, la science économique produit une analyse qui s’inscrit en faux par rapport à des discours communément répandus selon lesquels les avancées techniques sont préjudiciables à l’emploi. Un des enjeux du sujet sera de faire apparaître explicitement cette rupture entre le savoir économique et les discours politiques.

1.2 Le cadrage et les concepts clés Sur le plan historique, il semble nécessaire d’inscrire le sujet dans le temps long, sans doute à partir de l’ouverture de la phase de croissance économique au début du XIXe siècle. Même si les enjeux contemporains sont centraux, le ******ebook converter DEMO Watermarks*******

recul de l’histoire donne des arguments robustes sur cette question pour éviter les idées reçues. Sur le plan géographique, l’analyse sera logiquement centrée sur les pays développés à économie de marché et, dans une moindre mesure, sur la place des pays émergents dans le processus de mondialisation actuel. Le concept de progrès technique fait l’objet d’une définition ancienne en économie. Le plus simple est sans doute de prendre le concept de manière large et, en tous les cas, de ne pas le réduire au concept d’innovation de produit au sens de J. A. Schumpeter (le progrès technique peut aussi porter sur les procédés industriels ou la structuration des marchés par exemple). Enfin, il convient d’accorder une importance au concept d’emploi notamment en évitant une confusion avec le terme plus large de « travail ». Il s’agit ici de considérer le travail rémunéré qui s’inscrit dans un dispositif institutionnel.

1.3 La construction de la problématique On pourra suivre une démarche en deux temps : 1) Sur le plan conjoncturel, le processus de destruction créatrice peut conduire à des disparitions de certains emplois. Durant les phases d’accélération des mutations technologiques, certaines catégories d’emplois sont négativement affectées. Toutefois, sur la longue période, la dynamique du progrès technique transforme les structures productives des économies et s’accompagnent de créations d’emplois (I). 2) Dans les économies de la seconde mondialisation, le progrès technique pèse sur la structure des emplois dans un contexte de faible croissance : il conduit à une polarisation du marché du travail et à une intensification de la concurrence entre les territoires. Ce phénomène n’affecte pas le volume global de l’emploi mais en revanche, il affecte la structure des emplois et leur qualité. Ce processus implique la mise en œuvre de politiques structurelles visant à dédommager les « perdants » d’une part et à stimuler le progrès technique tout en améliorant la qualification des emplois d’autre part (II).

2

Rédiger le devoir : une proposition

Introduction En 2013, une étude frappante menée par deux chercheurs de la Oxford Martin ******ebook converter DEMO Watermarks*******

School, C. B. Frey et B. M. Osborne, estime que 47 % des emplois aux ÉtatsUnis « présentent de grands risques de devenir automatisables », ce qui a été traduit par l’idée que ces emplois pourraient être massivement détruits et remplacés par des « robots ». Depuis, de nombreuses autres estimations ont été proposées comme en 2018 lorsque l’OCDE avance que 14 % des emplois de ses pays membres pourraient être remplacés par du capital dans les décennies à venir avec notamment la population des jeunes actifs qui pourrait être particulièrement touchée par l’automatisation. Ces données, comme on le voit très disparates, sont bien entendu à prendre avec beaucoup de prudence mais elles révèlent toutefois l’état d’inquiétude qui traverse le débat public. Récemment par exemple, l’ingénieur californien spécialiste des nouvelles technologies Marc Andreessen indiquait pour sa part dans la presse que l’idée selon laquelle les robots vont voler nos emplois est totalement fausse. Il semble donc légitime que la science économique s’empare de cette question et se demande quel crédit accorder à cette thèse qui considère que dans le contexte d’économie mondialisée qui est le nôtre et dans lequel les nouvelles technologies occupent une place prépondérante, les robots et l’intelligence artificielle vont soudainement remplacer le travail humain. En économie, le progrès technique se définit comme l’ensemble des bouleversements qui affectent le système productif, tant en ce qui concerne les biens et services produits que les procédés de production, l’organisation du travail ou encore les structures de marchés. Il est généralement considéré comme un troisième facteur de production, à côté du capital et du travail. Ces bouleversements ont comme effet principal de produire plus de richesses avec le même volume de facteur capital et de facteur travail. Le concept d’emploi pour sa part peut se définir comme la fraction du travail qui fait l’objet d’une rémunération et qui s’inscrit dans un cadre social et juridique. Pour D. Gambier et M. Vernières par exemple, « l’emploi est la combinaison des éléments sociaux et juridiques qui institutionnalise la participation des individus à la production de biens et services socialement valorisés ». La question des effets du progrès technique sur les emplois d’une économie nationale ou d’un bassin territorial est discutée dans le débat public depuis les origines de l’industrialisation. Pour autant, la science économique produit une analyse robuste, appuyée sur une mise en perspective probante, quant aux effets du progrès technique sur les emplois. Celle-ci montre que, si sur le plan conjoncturel les bouleversements technologiques conduisent souvent à des destructions de certaines catégories d’emplois, sur le long ******ebook converter DEMO Watermarks*******

terme historique en revanche, c’est au contraire la dynamique du progrès technique qui, via la croissance économique qu’elle rend possible, est créatrice d’emplois nouveaux qui sont affectées aux générations successives d’actifs sur le marché du travail. Pour autant, depuis l’entrée dans la seconde mondialisation à partir des années 1970, il est incontestable que le progrès technique pèse sur la structure des emplois dans un contexte de faible croissance au sein des pays développés à économie de marché (PDEM). Si ce phénomène n’affecte pas le volume global de l’emploi, il conduit à une polarisation du marché du travail et intensifie la concurrence, d’une part, entre les territoires et, d’autre part, au sein des territoires entre les niveaux de qualification. Cela pose la question de la légitimité et de l’efficacité des politiques structurelles qui ont vocation à limiter les pertes que subissent les agents victimes de ce processus mais aussi à stimuler le progrès technique tout en améliorant l’appariement entre la structure des emplois offerts par les entreprises et la structure des qualifications de celles et ceux qui recherchent un emploi. Dans une première partie, il s’agira de montrer que les effets quantitatifs du progrès technique sur l’emploi sont différents à court et à long terme : à court terme, le mécanisme de la destruction créatrice conduit à la disparition de certains emplois ; à long terme, le progrès technique est, via la croissance, un des facteurs prépondérants de la création d’emplois (I). Pour autant, depuis l’entrée dans la seconde mondialisation, la dynamique du progrès technique intensifie la compétition entre les territoires et pèse sur la structure des emplois : les marchés du travail se polarisent, ce qui rend nécessaire la mise en œuvre de politiques structurelles adaptées (II). I. Les effets du progrès technique sur le volume des emplois Le mécanisme de la destruction créatrice proposée par J. A. Schumpeter conduit à l’idée que le progrès technique est initialement destructeur d’emplois. Il importe toutefois de ne pas surinterpréter cet effet à court terme : ce sont certaines catégories d’emplois qui disparaissent (A). Sur la longue période, il existe une relation positive robuste entre la dynamique du progrès technique et la création d’emplois (B). A. Destruction créatrice et destructions d’emploi : un faux débat ? Dans son ouvrage La formation de la classe ouvrière anglaise (1963), l’historien E. Thompson relate le mouvement social qui a lieu au tout début ******ebook converter DEMO Watermarks*******

du XIXe siècle en Angleterre et qui conduit à un des premiers conflits industriels. Ce mouvement qualifié de luddisme en référence à la figure d’un personnage mythique – John Ludd – qui aurait inspiré les ouvriers artisans, est caractérisé par la contestation menée par ces ouvriers artisans du secteur de la laine et du coton contre les manufacturiers qui investissent dans les machines à tisser dans le sud de l’Angleterre à partir des années 1810. Les luddistes sont ainsi devenus les premiers « briseurs de machines » de l’histoire industrielle. Aujourd’hui, l’expression subsiste pour qualifier les acteurs qui s’opposent aux nouvelles technologies (néoluddisme). Cette crainte du progrès technique destructeur d’emplois accompagne le processus de croissance dans lequel s’engagent les pays industrialisés. En 1980, dans La machine et le chômage, A. Sauvy montre que le progrès technique s’inscrit dans un mécanisme de déversement qui conduit notamment à des suppressions d’emplois dans certains secteurs d’activités. Il s’appuie pour cela sur l’exemple des porteurs d’eau qui sont très nombreux à Paris au tout début du XXe siècle. Le progrès technique rend possible à cette époque la mise en place d’un réseau de canalisation qui détruit progressivement les emplois de porteurs d’eau (un volume d’emplois que Sauvy estime à 20 000 pour la seule capitale française vers 1900). Dans les années 1930, J. M. Keynes relaie lui-même cette crainte des destructions d’emplois en considérant qu’il est possible de répercuter sur la baisse du temps de travail plutôt que sur le chômage cet effet du progrès technique. Il indique à cette époque que dans un siècle (donc aujourd’hui) la semaine de 15 heures de travail devrait suffire à produire les richesses nécessaires à l’homme et ajoute qu’il songe « avec terreur » au réajustement des habitudes que cela impliquera. Pour autant, de nombreux travaux insistent sur l’effet de transfert que le progrès technique a sur le volume de l’emploi, y compris sur le court terme. Le mécanisme du déversement proposé par Sauvy indique justement que les suppressions d’emplois dans certains secteurs sont compensées par des créations d’emplois dans d’autres secteurs. Ce processus est bien entendu rendu possible parce qu’il s’inscrit dans le temps et que, sur le long terme, le déversement dépend du rythme des gains de productivité, de la croissance économique et de la dynamique de la demande. Toutefois, même sur la courte période, l’effet de compensation existe. Sauvy indique par exemple que des emplois nouveaux sont requis pour produire les nouveaux biens de production (la ville de Paris a dû investir massivement pour la mise en œuvre ******ebook converter DEMO Watermarks*******

du réseau de canalisations) mais aussi que des effets d’entraînement existent sur le volume de la demande (la hausse de la consommation d’eau) qui suscite, de proche en proche, des nouvelles créations d’emplois. Cet argument peut être rapproché de l’idée de destruction créatrice que l’on doit à J. A. Schumpeter. Dans Capitalisme, socialisme et démocratie (1942), l’économiste autrichien montre que le capitalisme est caractérisé par un processus qui « révolutionne incessamment de l’intérieur la structure économique en détruisant continuellement ses éléments vieillis et en créant continuellement des éléments neufs ». Cette mise en déséquilibre, inhérente au capitalisme selon Schumpeter, est liée à la dynamique des innovations via le rôle clé des entrepreneurs, ce qui conduit à l’attribution de monopoles temporaires. La concurrence est ici perçue comme un processus qui ne porte pas seulement sur les prix mais également sur les technologies utilisées, les caractéristiques des produits, etc. Les innovations qui occupent une place centrale dans l’analyse de Schumpeter ont ainsi un effet direct sur la nature des emplois. On retrouve l’idée que la « conservation » des emplois existants, à partir d’arguments de nature sociale (« préserver l’emploi ») ne résiste pas à l’examen. Aujourd’hui, de nombreux observateurs font même remarquer que l’on peut associer la disparition de certains emplois à l’idée d’une forme de progrès social dans la mesure où les actifs concernés ne sont bien entendus pas acculés au chômage. Dans Travailler au XXIe siècle par exemple, J. Barthélémy et G. Cette font référence au poinçonneur des Lilas de Serge Gainsbourg et indiquent que ces professions obsolètes sont peu gratifiantes et que leur disparition participe de l’amélioration des conditions de travail. Cet argument peut être repris pour de nombreux exemples qui marquent l’actualité et qui portent sur des emplois à faible niveau de qualification (songeons par exemple aux caissiers des grandes surfaces commerciales face à la généralisation des systèmes de paiements en caisses automatiques). B. À long terme, le progrès technique crée des emplois Cet effet de transfert de certains emplois détruits vers de nouveaux emplois créés doit toutefois être discuté et surtout mis en perspective historique longue. Sur le plan macroéconomique, le processus de croissance qui s’intensifie au début du XXe siècle en Europe et aux États-Unis entretient des relations complexes entre la dynamique du progrès technique (qui affecte la productivité globale des facteurs – PGF), la durée du travail et le volume de ******ebook converter DEMO Watermarks*******

emplois. Bien entendu, dans une économie dépourvue de progrès technique (et donc sans gains de productivité), la production de richesses supplémentaires implique une hausse de la population active en emploi et donc mécaniquement des créations d’emplois. Dans l’hypothèse d’un progrès technique soutenu (comme c’est le cas à partir du début du XXe siècle et l’entrée dans la phase de croissance intensive), l’effet sur le volume de l’emploi total peut être variable et dépend fortement du rythme de la croissance. Dans ses travaux, A. Maddison (L’économie mondiale, une perspective millénaire, 2001) montre qu’à partir de 1913 l’emploi total a augmenté dans tous les pays industrialisés même si c’est à un rythme plus faible en France et en Europe comparativement à ce qui se produit aux États-Unis et au Japon. Ce phénomène résulte d’évolutions démographiques et de choix politiques différents selon ces territoires alors que la dynamique du progrès technique a été partout soutenue. En effet, l’évolution sur le long terme du nombre total d’heures travaillées par an dans une économie pour un niveau donné de la technologie résulte du produit entre le volume des emplois et le nombre d’heures travaillées par actif en emploi. Le résultat de ce produit est modifié en cas de hausse de la PGF et de la croissance économique. Cela donne ce que l’on nomme la relation de Fourastié selon laquelle l’emploi total découle du rapport entre le PIB et la PGF. En Europe, le choix a été fait d’affecter, pour une part significative, les gains de productivité sur la réduction de la durée du travail en parallèle de la hausse du volume des emplois. Par exemple, selon Maddison, en France l’emploi total a progressé de plus de 17 % durant le XXe siècle pour une productivité horaire du travail qui a été multipliée par plus de 10 (avec une baisse du nombre d’heures travaillées de près d’un tiers sur le siècle). Aux États-Unis, l’emploi total a été multiplié par près de 2,5 sur la même période tandis que la productivité horaire du travail a été multipliée par près de 5,8. Par opposition, les pays qui sont entrés tardivement en croissance (pays du sud et du centre de l’Europe par exemple) et qui ont connu un rythme sensiblement plus faible de progrès technique ont généré sur le long terme des créations d’emplois en nombre plus faible. Au niveau macroéconomique et sur la longue période, il est ainsi manifeste que les économies en forte croissance intensive et donc qui génèrent un rythme soutenu de progrès technique sont aussi celles qui ont créé et créent le plus d’emplois. Sur le plan structurel, il faut toutefois préciser que la nature des emplois ******ebook converter DEMO Watermarks*******

créés se transforme et qu’il existe une interaction entre la dynamique de ces emplois, celle du progrès technique et la croissance. On retrouve ici l’analyse en termes de déversement proposée par A. Sauvy. Ainsi, en Europe et en particulier jusqu’au début des années 1960, la croissance conduit à un déversement des emplois agricoles vers l’industrie, ce qui s’accompagne d’un bouleversement des structures économiques et des structures sociales (montée de la classe ouvrière notamment). À partir des années 1970 une littérature abondante en économie, pensons notamment à D. Bell (Vers la société post-industrielle, 1973), fait état du déversement des emplois vers les activités de services qui sont, à cette époque en particulier, porteuses de faibles gains de productivité. À la suite des travaux de W. Baumol par exemple, on montre que les secteurs des services, les moins productifs, tendent à absorber la main d’œuvre surtout si les salaires progressent au même rythme que dans l’industrie (loi de Baumol dite loi de « fatalité des coûts »), ce qui, à terme, conduit au ralentissement de la croissance économique. La fin de la croissante fordiste durant les années 1970 est ainsi marquée par un ralentissement de la PGF et, dans le même temps, par une rupture dans la dynamique des emplois. Même si la forte poussée du chômage à partir de la décennie 1970 notamment en Europe n’est pas réductible à la question du progrès technique (stagflation, montée de la contrainte extérieure, inefficacité croissante des politiques économiques), il apparaît qu’avec le début de la période de la seconde mondialisation c’est bien le ralentissement de la croissance et avec lui, celui de la PGF qui explique la faible dynamique de l’emploi et non l’inverse. Les PDEM sont ainsi caractérisés par un processus permanent de création/destruction d’emplois sous les effets du progrès technique. Ce processus affecte la structure des emplois en particulier sur le long terme mais l’analyse économique conclut qu’il n’est pas possible d’affirmer qu’en volume les emplois détruits par le progrès technique sont plus nombreux que ceux qui sont créés. Pour autant, de nombreux observateurs font remarquer que, dans la situation de l’économie mondiale actuelle, « cette fois-ci c’est différent ». On connaît par exemple la formule de R. Gordon selon laquelle personne ne peut prétendre que les effets de Facebook sur la croissance et sur l’emploi peuvent être comparables à ceux de l’électricité ou du moteur à combustion, ou encore que Kodak n’a pas été remplacé par Instagram. Comment rendre compte de cette relation entre progrès technique et emploi dans les économies actuelles de la seconde mondialisation ? Le savoir ******ebook converter DEMO Watermarks*******

économique établi de longue date sur cette question doit-il être reconsidéré ? II. Seconde mondialisation : les effets contrastés du progrès technique sur la structure des emplois La question, aujourd’hui très anxiogène, des robots qui détruisent l’emploi, doit être considérée avec sérieux et l’analyse économique ne peut s’en tenir à l’argument du « bilan globalement positif » de la PGF sur le volume des emplois. Il est manifeste que la dynamique du progrès technique a aujourd’hui des effets macroéconomiques contrastés non pas sur le niveau des emplois mais plutôt sur leur nature en conduisant à une forte polarisation des marchés du travail et à un creusement des inégalités entre les salariés et entre les territoires (A). Pour autant, il n’existe sur cette question aucune fatalité (et certainement pas de fatalité technologique) et ces bouleversements à l’œuvre dans les PDEM soulèvent de nouveaux enjeux politiques notamment sur le plan des politiques structurelles à mettre en place (B). A. Progrès technique et polarisation des marchés du travail Il faut en premier lieu préciser que les effets du progrès technique sur la structure des emplois rendent souvent difficiles les mutations professionnelles au niveau individuel. Pour le dire schématiquement, les emplois d’ouvriers détruits dans le secteur industriel à partir des années 1980 sont, certes, au moins en partie compensés par des emplois créés dans l’ingénierie ou les nouvelles technologies, mais ce sont des emplois qui sont occupés par d’autres salariés. Ainsi, une partie significative du chômage structurel qui caractérise aujourd’hui les économies européennes et en particulier la France (autour de 7 % des actifs sont en situation de chômage structurel selon les mesures de l’OCDE) découle des restructurations productives qui ont été à l’œuvre depuis plusieurs décennies et qui placent une part importante de la population active dans une impasse, faute de reconversion professionnelle compatible avec les qualifications dont elle dispose. Toutefois et contrairement à une idée reçue forte, il apparaît que les nouvelles technologies ont peu d’effet sur la destruction des emplois à faible niveau de qualification (comme par exemple les emplois de services du type « aide à la personne » ou livraison à domicile). En revanche, les emplois à niveau de qualification intermédiaire semblent plus menacés en particulier dans les activités de services : emplois qui portent sur les tâches routinières ******ebook converter DEMO Watermarks*******

telles que le secrétariat, la comptabilité, les gestions de stocks, etc. Dans ces domaines, les nouvelles technologies proposent des programmes d’intelligence artificielle particulièrement productifs qui permettent, à moindre coût, une production équivalente. Une étude récente de l’OCDE (2018) indique notamment que ce sont les jeunes actifs qui constituent la tranche d’âge la plus menacée par cette nouvelle forme de progrès technique. L’argument principal n’est pas dû au fait que les jeunes actifs combinent leurs études avec des « petits boulots » (Deliveroo et autres Uber) mais davantage au fait qu’ils entrent sur le marché du travail en occupant tout d’abord des postes de niveau de qualification intermédiaire qualifiés de « juniors » qui ont justement cette caractéristique routinière. Ces emplois remplissent une fonction de « tremplin » alors que le niveau de qualification des jeunes actifs est supérieur à celui requis pour le poste qu’ils occupent et qu’ils sont par la suite appelés à progresser vers des postes à responsabilité plus importante, mieux en accord avec leurs qualifications. Avec la poussée du progrès technique, ce processus risque d’être mis à mal. Or, sur le plan factuel, le recours à la robotique s’accélère incontestablement au sein des PDEM et des pays émergents. Selon la Fédération internationale de la robotique (IFR), le stock mondial de robots industriels a doublé au cours de dix dernières années, ce qui porte leur nombre à plus de 2,6 millions dans le monde en 2019. Pour autant, leur impact sur les emplois dépend, au-delà du niveau de qualification, des secteurs économiques concernés (le rapport de l’OCDE indique que les métiers de l’agriculture, de l’agro-alimentaire et de l’industrie manufacturière sont plus « à risques » toute chose égale par ailleurs que ceux des services) et surtout des spécialisations productives des territoires. Par exemple, au sein de l’OCDE pour une moyenne de 9 % des emplois « automatisables » (ce qui ne signifie pas forcément appelés à être détruits et remplacés par des robots), seulement 6 % le sont dans les pays scandinaves contre 33 % en Slovaquie (la France se situant dans la moyenne de l’OCDE selon le rapport). Ce processus a un effet massif sur l’évolution des marchés du travail : les emplois créés ont tendance à se polariser aux deux extrémités du spectre des niveaux de qualifications (on parle de polarisation des marchés du travail). Le progrès technologique stimule la création d’emplois à très forte valeur ajoutée et à niveau de qualification élevée, emplois qui sont créés en nombre toutefois relativement restreint. Puis, de l’autre côté du spectre, les systèmes productifs notamment dans les anciens PDEM sont incités à créer des ******ebook converter DEMO Watermarks*******

emplois à très faible niveau de qualification, notamment dans les services, secteur qui est peu touché par le risque d’automatisation. Ce dernier phénomène conduit à ce qui a été appelé dans le débat public « l’ubérisation de l’économie », c’est-à-dire la montée en puissance de l’emploi indépendant, moins protégé, comme conséquence des bouleversements structurels observés aujourd’hui. S’il est manifeste que ce processus de polarisation est à l’œuvre avec notamment pour effet un creusement important des inégalités salariales depuis plusieurs décennies, de nombreux travaux visent toutefois à remettre en cause cette thématique de l’ubérisation. Pour P. Artus et M.-P. Virard par exemple (Et si les salariés se révoltaient ? 2018), si sur le plan macroéconomique on ne peut plus parler d’un « grand déversement » à la Sauvy, rien ne permet pour autant de dire qu’il y a une remise en cause de la place du salariat au sein des PDEM. De manière analogue, J. Barthélémy et G. Cette (2017) montrent que la part des emplois non salariés dans l’emploi total se contracte presque continument dans les PDEM depuis plus de vingt ans. En France par exemple, cette part reste inférieure à 12 % des emplois après avoir atteint un pic au début des années 2000. Ces auteurs font remarquer que ce travail non salarié se transforme toutefois : en plus des activités à faible niveau de qualification, il concerne aussi l’autre côté du spectre des métiers qui impliquent une grande autonomie dans le travail (conseil et audit par exemple). De ce point de vue, les nouvelles technologies et l’économie numérique facilitent l’activité de ces travailleurs à haut niveau de qualification. Enfin, il faut aussi prendre en considération les effets du progrès technique sur la nature des emplois en le reliant avec le processus de multinationalisation des firmes. Dans son ouvrage, La société hyperindustrielle (2017), P. Veltz rappelle que les emplois peuvent être examinés du point de vue de leur position dans les chaînes de valeurs mondiales et que la structure des firmes intégrées a cédé la place, dans la période actuelle de mondialisation, à celle des firmes filialisées qui sont insérées dans des réseaux transnationaux. Jusqu’aux années 1980, c’est l’activité de production industrielle qui constitue le maillon stratégique de la chaine de valeur tandis que la conception en amont et la distribution en aval apparaissent comme périphériques (la production industrielle constitue le cœur de « l’avantage concurrentiel » des firmes selon l’expression de M. Porter). Avec la mondialisation productive, on assiste à une montée en puissance de l’amont (activités de R&D, de design, de conception des produits) et de l’aval ******ebook converter DEMO Watermarks*******

(distribution, plateformes logistiques, service après-vente, etc.). Ces évolutions productives accentuent le phénomène de polarisation du marché du travail. Dans ce processus, le progrès technique occupe une place centrale : il contribue à creuser la « courbe du sourire » qui, selon la proposition de l’ingénieur coréen Stan Shih, corrèle le niveau de valeur ajoutée dans le processus de production avec la distribution de la chaîne de valeur. Dans l’économie mondiale actuelle, les firmes multinationales tendent à concentrer les créations d’emplois à forte valeur ajoutée en amont et en aval des chaînes de valeur tandis que les emplois à faible valeur ajoutée ont tendance à se situer vers leur centre. Ce mécanisme peut être relié avec celui de la mise en compétition des territoires et la concurrence accrue entre les salariés nomades des PDEM et des émergents d’un côté, et les salariés sédentaires des PDEM et des émergents de l’autre (modèle de P.-N. Giraud). En fin de compte, la question des effets du progrès technique sur l’emploi s’articule avec celle des effets de la mondialisation sur l’emploi : avec la polarisation des marchés du travail, la concurrence s’intensifie entre les travailleurs des pays émergents et des PDEM. B. Les politiques de l’emploi face au défi du progrès technique Face à cette question des robots et de l’emploi, il importe de préciser que les PDEM comme les émergents sont placés face à des choix de politiques économiques et qu’il ne saurait être question d’une quelconque fatalité technologique. En tout état de cause, la plupart des travaux sérieux sur cette question relativisent fortement les effets de volume de cette poussée du progrès technique sur l’emploi. F. Bourguignon, par exemple, rappelle en 2018 que la robotisation a deux effets contradictoires sur l’emploi et que leur identification est de nature à donner des clés pour orienter les choix de politique économique. D’une part, elle supprime des postes de travail tandis que, d’autre part, elle accroît la PGF et conduit à un processus vertueux qui alimente la création de nouveaux emplois via la croissance. En augmentant le revenu généré par les entreprises innovantes, elle est à l’origine d’une demande additionnelle qui a des effets d’entraînement sur d’autres secteurs. Si son effet net final sur l’emploi est incertain, il est possible de peser sur cette trajectoire notamment par le biais de politiques structurelles dédiées. Parmi les pistes possibles, on peut identifier, en premier lieu, les politiques de transferts de revenus à destination des actifs qui apparaissent comme les ******ebook converter DEMO Watermarks*******

perdants du changement technologique ; en deuxième lieu, les politiques qui visent à stimuler l’innovation et à améliorer l’appariement entre le progrès technique et la formation en capital humain ; enfin, en dernier lieu, les politiques structurelles qui visent à stimuler la coopération entre les territoires, condition par laquelle le sentier de croissance potentielle des pays d’Europe en particulier pourra être redynamisé. Un des enjeux politiques majeurs aujourd’hui porte sur la question de la prise en charge des « perdants » du progrès technique. Dans son Rapport sur le développement dans le Monde (2019), la Banque mondiale préconise par exemple un renforcement des politiques de protection sociale dans les pays qui sont les plus fortement touchés par le processus de polarisation de leur marché du travail. Elle y indique notamment que la protection sociale avec notamment la couverture du risque contre la perte d’emploi doit porter une attention prioritaire aux personnes les plus démunies et pour lesquelles le niveau de qualification (qui est faible et/ou qui tend à devenir obsolète) les place en situation de faiblesse structurelle par rapport aux transformations qui résultent de la mondialisation et du progrès technique. En Europe aujourd’hui, dans un contexte marqué par la montée des populismes et de défiance à l’égard des élites politiques, il est manifeste que les politiques publiques ne sont pas perçues comme sécurisantes face aux risques croissants qui sont supportés par les salariés. Selon la formule de P. Artus et M.P. Virard, « les salariés partagent les risques, mais pas les profits ». En France en particulier, la « peur des robots » est une composante d’un malaise économique dont personne ne semble douter face à des politiques sociales qui paraissent bien dérisoires au regard des risques supportés par les travailleurs. Si les politiques de transfert de revenu apparaissent comme légitimes et nécessaires dans un but de répartition plus équitable des risques, celles-ci se limitent à compenser les effets dommageables des mutations économiques. Or, les politiques structurelles ont aussi vocation à anticiper ces mutations et à peser favorablement sur un appariement plus efficace entre les besoins en emplois des systèmes productifs et la formation de la main d’œuvre présente et future. Dans son rapport de 2019, la Banque mondiale préconise également un renforcement de l’investissement dans le capital humain pour mieux faire face aux évolutions que connaît le travail. Or, depuis l’entrée dans la seconde mondialisation, la politique industrielle a reculé notamment en Europe au profit d’une conception visant à privilégier la régulation par le marché (prédominance par exemple de la politique de la concurrence) en s’appuyant ******ebook converter DEMO Watermarks*******

au mieux sur des mesures incitatives afin de favoriser les externalités positives. L’objectif était de créer un contexte propice à l’innovation des firmes, à la R&D, etc. Depuis les années 1990 toutefois, avec l’essor du secteur des nouvelles technologies mais aussi l’apport des travaux en nouvelle économie géographique (P. Krugman, Geography and Trade, 1991), la politique industrielle et, indirectement, de l’emploi a rebondi avec la thématique des pôles de compétitivité dont l’objectif est de stimuler les rendements d’échelle externes des firmes qui sont incitées à l’agglomération sur des territoires dédiés en raison du fait qu’elles y trouvent des ressources essentielles (bassin d’emploi avec qualification sectorielle, réseaux de soustraitants spécialisés, infrastructures de transports et plateformes logistiques, etc.). Dans ces contextes d’économie marshalliennes, les relations vertueuses entre progrès technique, croissance et emploi sont soutenues. On comprend alors pourquoi les ingénieurs de la Silicon Valley (Marc Andreessen par exemple) perçoivent de manière nécessairement positive l’émergence de la robotisation ! Enfin, se pose aussi la question des politiques de coopération entre les territoires, question qui devient particulièrement cruciale s’agissant des relations économiques qui se tissent entre les pays de l’Union européenne. Dans ses travaux, P. Artus insiste depuis plusieurs années sur les risques qui pèsent sur la construction européenne dès lors que les dispositifs institutionnels conduisent à des processus de divergences entre les systèmes productifs des pays membres (entre le Nord et le Sud de la zone euro notamment) sans qu’il existe de mécanismes de compensation. Sur le front de la politique industrielle et de l’emploi, cette question se pose avec une acuité particulière s’agissant de la localisation territoriale des FMN et de leurs filiales. Avec l’incitation à la stratégie de concurrence fiscale et sociale à l’œuvre au sein des pays de la zone euro, on comprend que le processus de creusement de la courbe du sourire évoqué plus haut risque de s’accentuer aux dépens des territoires les plus fragiles. Ainsi, et faute de choix politique adapté, cela peut conduire à creuser la polarisation à l’œuvre sur le marché du travail et donc d’accroître le risque du progrès technique pénalisant l’emploi. P. Veltz (2017) fait remarquer à ce titre qu’un système d’emploi équilibré pour un pays ne peut pas reposer uniquement sur la recherche d’emplois très qualifiés (centres de R&D, design, ingénierie de prototype, etc.) et qu’une coupure territoriale trop marquée entre ces centres de conception d’un côté et des sites de production à plus faible valeur ajoutée a toutes les chances d’être ******ebook converter DEMO Watermarks*******

contreproductive pour l’économie considérée. Ce risque était déjà identifié par D. Cohen en 2006 (Trois leçons sur la société industrielle) lorsqu’il expliquait le mécanisme des appariements sélectifs. Cette coupure géographique limite les processus de diffusion du savoir et les allers-retours d’expériences nécessaires au renforcement du cœur de métier des firmes. C’est d’ailleurs ce qui se passe au sein de la mondialisation productive avec la tendance au resserrement des chaînes de valeurs. Certains pays, à l’image de l’Allemagne, usent de cette stratégie industrielle de proximité des chaînes de valeurs (compétitivité des fameuses entreprises de taille intermédiaire du sud du pays) tandis que, comme le rappelle S. Berger (Making in america, 2014), les États-Unis sont sans doute en passe de la perdre. On voit que s’agissant des politiques en Europe, l’enjeu est la mise en place de dispositifs qui incitent à la coopération entre les États membres pour raccourcir les chaînes de valeur plutôt qu’à la concurrence débridée entre les territoires sans quoi les firmes, par le jeu du progrès technique, continueront de mettre les travailleurs et les emplois à l’épreuve. Veltz rappelle, à propos de la politique industrielle française, que fixer en France des centres de recherche est fondamental (rôle du crédit d’impôt recherche) mais que ce serait une terrible erreur de laisser la France devenir un pays sans fabrication, c’est-à-dire fabless. Conclusion En fin de compte, cette analyse a permis de montrer que les relations entre le progrès technique et l’emploi font l’objet d’une connaissance économique robuste et ancienne : la dynamique du progrès technique affecte favorablement le volume de l’emploi sur le plan macroéconomique et en longue période. À ce titre, les discours anxiogènes d’un grand remplacement du travail humain par les robots sont sans fondement. Cependant, il est tout aussi acquis que le progrès technique, notamment dans sa forme contemporaine avec la robotisation, a des effets ambigus sur la structure des emplois. Dans le contexte actuel de mondialisation avancée, le progrès technique contribue à polariser les marchés du travail et devient facteur d’aggravation des inégalités salariales, ce qui rend nécessaire le recours à des politiques économiques adaptées. S’agissant de la question des inégalités, aujourd’hui, de nombreux travaux (E. Saez, F. Bourguignon, Th. Piketty) montrent que les dernières décennies sont marquées par une progression significative des inégalités de ******ebook converter DEMO Watermarks*******

revenus avec notamment un creusement entre les revenus du travail (salaires) et ceux du capital (revenus d’actifs financiers). Piketty, par exemple, indique que la part du revenu national détenue par les 1 % les plus riches de la population des États-Unis était de l’ordre de 10 % après impôts au début des années 1970, elle est supérieure à 20 % au milieu des années 2010. Cela permet de rappeler que la question de la polarisation du marché du travail ne peut se réduire à celle des emplois mais porte aussi sur des questions de politiques de répartition des revenus et des patrimoines.

******ebook converter DEMO Watermarks*******

Sujet

3 Le marché et la concurrence permettentils toujours une coordination efficace des actions des agents dans les économies contemporaines ?

1

Se préparer à la rédaction

1.1 L’enjeu du sujet Le terme central du sujet est celui de coordination. On appelle « coordination », en science économique, toute procédure qui permet de rendre cohérentes entre elles les décisions et les actions d’agents économiques alors même que ces décisions et actions n’ont aucune raison d’être spontanément compatibles. Prenons quelques exemples élémentaires : je suis artisan dans le bâtiment et j’ai besoin pour poursuivre mon chantier de disposer d’une colle permettant de fixer des carreaux sur un mur. Il est très probable que je vais trouver facilement le produit nécessaire dans un magasin spécialisé dans le domaine du bricolage qui offre des produits et des outillages très divers aux particuliers comme aux entrepreneurs. Pourtant, je ******ebook converter DEMO Watermarks*******

ne connais pas le directeur du magasin de bricolage et je n’avais pas annoncé à l’avance mon intention d’acheter ce produit. Autre exemple, je suis invité à dîner chez des amis et en sortant de chez moi vers 20 heures je me dis qu’il serait convenable d’apporter une bouteille de vin. Il est très probable que je vais trouver la bouteille souhaitée dans un supermarché qui reste ouvert une partie de la soirée, dans une épicerie de nuit voire dans le rayon boisson d’une station-service. Ma décision d’acheter tel ou tel produit s’est donc trouvée en cohérence avec la décision des vendeurs de faire figurer tel ou tel produit dans les rayonnages de leurs magasins. De façon plus générale, la vie économique suppose la mise en cohérence de nombreuses décisions. Si je veux boire un café à la terrasse de mon bar préféré, il a fallu que de nombreux mois plus tôt quelqu’un plante des caféiers à l’autre bout du monde, que le café soit ensuite récolté, trié, torréfié, acheminé, moulu, vendu au propriétaire du bar, qui doit par ailleurs disposer d’un percolateur, etc. Dans tous les exemples cités, la coordination est assurée par des mécanismes de marché. Dans un contexte de concurrence, chaque offreur (de matériel de bricolage, de vin ou de café) s’est efforcé d’anticiper la demande de ses clients potentiels et d’être en mesure d’y répondre. Il se fonde notamment sur les signaux que constituent les prix de marché. Cette coordination n’est donc pas intentionnelle : chaque acheteur s’efforce d’obtenir les biens ou services qu’il souhaite acquérir au meilleur prix et avec la meilleure qualité ; chaque vendeur s’efforce de répondre aux attentes de ses clients en lui proposant des prix attractifs. C’est cette confrontation de l’offre et de la demande, dans un contexte de concurrence qui assure la mise en cohérence des décisions des agents économiques.

1.2 Le cadrage du sujet et les concepts clés Le sujet couvre un champ très vaste de la science économique. On peut même sans doute considérer que des exemples tirés de l’ensemble des domaines de la science économique peuvent être mobilisés pour traiter la question posée. Il s’agit donc d’un avantage pour le rédacteur du devoir… à condition qu’il mette en relation ses connaissances (même partielles) et la question posée. Le thème de la coordination est en effet constitutif de la science économique. Pour A. R. Turgot, comme pour A. Smith, il s’agit de desserrer les contraintes de la réglementation étatique et de montrer que les décisions ******ebook converter DEMO Watermarks*******

individuelles, dans un cadre de concurrence, constituent une procédure de coordination plus efficace et plus efficiente. L’exploration de la coordination par le marché est présente chez K. Marx, puis chez les économistes néoclassiques et les économistes autrichiens. La macroéconomie contemporaine s’intéresse beaucoup aux défauts de coordination. Mais la science économique ne s’est pas limitée à l’étude de la coordination par le marché. L’article fondateur de R. Coase (1937) met l’accent sur l’importance de la coordination par la hiérarchie, d’autres travaux plus récents portent sur le rôle des conventions, normes et valeurs et sur l’importance de l’État pour répondre aux défauts de coordination. Le marché et la concurrence sont donc bien une procédure de coordination. Mais le sujet pose la question suivante : cette coordination par le marché est-elle toujours efficace ? Que faut-il entendre par « coordination efficace » ? Il s’agit d’une procédure qui parvient à mettre en cohérence les décisions des agents économiques. Si le marché et la concurrence ne parviennent pas à obtenir ce résultat, ils ne sont pas efficaces. On est alors en présence de « défauts de coordination ». Le sujet demande donc d’expliquer en quoi le marché et la concurrence constituent un mode de coordination. Mais il faut ensuite montrer que la coordination marchande n’est pas toujours efficace : d’une part il existe des défauts de coordination comme nous venons de le voir, d’autre part il existe d’autres modes de coordination. Or, comme le faisait remarquer R. Coase, s’il existe d’autres modalités de coordination que le marché, c’est que, dans certains cas, le marché n’est pas le mode de coordination le plus efficace.

1.3 La construction de la problématique La compréhension de la question posée et de ses enjeux nous conduit donc directement à la problématique qui peut, dans le cas de ce sujet, se décliner en trois interrogations : 1) Le marché et la concurrence peuvent-ils être une forme de coordination efficace ? (La réponse à cette question est positive). 2) Le marché et la concurrence sont-ils toujours une forme de coordination efficace ? (La réponse à cette question est négative car il existe des défauts de coordination et des formes de coordination alternatives au marché). 3) Si le marché n’est pas toujours une forme de coordination efficace ******ebook converter DEMO Watermarks*******

comment répondre à cette situation ? (La réponse à cette question réside dans la mise en place d’incitations de la part de l’État et/ou de formes diverses de coopération de la part des agents économiques).

2

Rédiger le devoir : une proposition

Introduction Dans les années 1920-1930, un vif débat a opposé l’économiste L. von Mises et l’économiste O. Lange à propos des mérites comparés du plan et du marché comme mode de coordination. Si O. Lange considérait (à la suite notamment de V. Pareto ou d’E. Barone) qu’une économie parfaitement concurrentielle et une économie centralement planifiée de façon rationnelle sont des moyens équivalents de coordonner l’activité économique, L. von Mises pensait au contraire que le calcul économique était impossible dans une économie ne relevant pas de la propriété privée et de la concurrence. Dans le contexte de l’époque, marqué par le rôle mondial de l’URSS et la montée du dirigisme économique, face à des économies de marché en difficulté (crises, chômage, désordres monétaires), l’enjeu du débat était surtout politique. Mais fondamentalement, deux points de vue s’affrontaient : Mises pensait que seule une coordination horizontale, s’appliquant à des agents prenant des décisions décentralisées, était possible et souhaitable ; Lange, en revanche, mettait en évidence l’anarchie du marché et plaidait pour une coordination verticale permettant la mise en cohérence ex ante des décisions économiques. En effet, dès lors que des acteurs économiques prennent des décisions indépendamment les uns des autres, rien ne permet d’assurer que l’agrégation de ces décisions décentralisées conduira à une situation d’ensemble cohérente (on peut produire trop de briques et pas assez de ciment). La coordination est donc une procédure de mise en cohérence des décisions des agents de telle sorte que le résultat d’ensemble soit lui-même cohérent. Il existe pour l’essentiel quatre modes de coordination : – le marché qui assure la coordination par l’intermédiaire des signaux véhiculés par les prix ; – la hiérarchie qui repose sur les injonctions d’une autorité centrale ; – la coopération qui repose sur l’action collective concertée des individus ******ebook converter DEMO Watermarks*******

concernés et sur la délibération collective destinée à adopter les décisions les plus pertinentes ; – les conventions, normes, valeurs, traditions, qui conduisent à ce que les comportements des individus sont cohérents entre eux dès lors qu’ils adoptent des comportements conformes aux conventions et aux normes en vigueur. Comme on le voit, le marché et la concurrence ne sont pas le seul mode de coordination possible. Ce mode de coordination est-il toujours efficace ? Les travaux des économistes conduisent à en douter. P. Cahuc considère par exemple que la nouvelle microéconomie est « une théorie de l’inefficacité des transactions marchandes ». Il convient donc de montrer en premier lieu que le marché peut être un mode de coordination efficace (I), mais que de nombreux défauts de coordination existent, ce qui a conduit les économistes institutionnalistes à mettre l’accent sur le rôle de la hiérarchie (II). Nous montrerons ensuite l’importance des normes et des conventions, de la coopération, en introduisant le rôle de l’État (III). I. Le marché comme mode de coordination Depuis la naissance de l’économie politique, les économistes étudient la question de la coordination. La célèbre « main invisible » d’A. Smith est une métaphore de la coordination puisqu’elle conduit à assurer que les choix individuels servent l’intérêt général. Les Physiocrates et les premiers économistes classiques observent des économies de la fin de l’Ancien régime qui sont très largement administrées et ils mettent l’accent (voir les tentatives de réforme de Turgot) sur la nécessité de laisser jouer l’initiative individuelle et la concurrence pour améliorer la situation économique générale. Il est bien préférable, selon eux, de « laisser faire les hommes » et de « laisser passer les marchandises » plutôt que de multiplier les règlements et les taxes sur la circulation des marchandises. A. La conception walrasienne de la coordination C’est L. Walras, et plus largement la tradition walrasienne, qui a rendu compte de la coordination par le marché, selon une démarche qui se veut aussi rigoureuse que possible. Le modèle walrasien de base se situe dans les conditions de la concurrence parfaite. Cela suppose l’atomicité (aucun agent ne dispose d’un pouvoir de marché), la transparence (l’information est ******ebook converter DEMO Watermarks*******

parfaite et gratuite), la libre entrée et la libre sortie du marché (qui conduit les agents à modifier leurs offres et leurs demandes sur les divers marchés en fonction des informations qu’ils reçoivent), l’homogénéité du produit (pas de différenciation des produits), la mobilité des facteurs de production (qui peuvent être utilisés pour produire n’importe quel bien ou service). À ces conditions de la concurrence, il faut ajouter un « commissaire-priseur » qui annonce les prix et les ajuste (« tâtonnement walrasien ») de telle façon que sur chaque marché les quantités offertes soient égales aux quantités demandées. Ce modèle walrasien de base est aussi un modèle où le temps n’existe pas. Tous les ajustements sont instantanés et les échanges ne se réalisent qu’aux prix d’équilibre déterminés au cours de chaque séance de marché. Dans ces conditions, tous les marchés sont simultanément en équilibre et le surplus total (des producteurs et des consommateurs) est maximisé. Chaque unité de facteur de production est allouée là où elle est relativement la plus efficiente. Cette situation globale résulte donc des décisions individuelles des agents prises en fonction de l’information véhiculée par le système des prix relatifs. Si, pour une raison quelconque, les conditions de l’offre et/ou de la demande se modifient sur un ou plusieurs marchés, les prix relatifs vont se modifier, les agents adapteront leurs décisions aux nouveaux prix relatifs, ce qui fera converger l’économie vers une nouvelle situation d’équilibre général. C’est donc bien le système des prix (le marché et la concurrence) qui assure la coordination du comportement des agents et du système économique dans son ensemble. Mais cette conception de la coordination est très restrictive. En particulier, parce qu’elle considère comme réglée la question de l’information et parce que, paradoxalement, alors qu’il s’agit de rendre compte du fonctionnement d’une économie décentralisée, la centralisation de l’information par le commissaire-priseur joue un rôle essentiel. B. La conception autrichienne de la coordination La tradition économique autrichienne, illustrée notamment par L. von Mises et F. Hayek, propose une tout autre lecture de la coor​dination par le marché. Tout d’abord, dans leur conception, il n’y a pas de centralisation (donc pas de commissaire-priseur). On se trouve donc en présence d’une économie décentralisée dans laquelle les agents prennent des décisions indépendamment les uns des autres. Ensuite, l’information n’est pas ******ebook converter DEMO Watermarks*******

disponible gratuitement et de façon égale pour tous. Le marché est un processus de découverte de l’information. Chaque agent va prendre des décisions et la concurrence porte notamment sur la prévision (donc sur l’information). Par exemple, un producteur qui prévoit mieux que les autres les attentes de ses clients a un avantage par rapport à ses concurrents. Dans la conception autrichienne, il n’existe pas non plus d’équilibre général et les échanges ne se réalisent pas nécessairement en situation d’équilibre. En effet, dès lors que les décisions des agents ne sont pas coordonnées ex ante, chaque décision d’un agent (produire plus ou moins, produire un bien différent, etc.) introduit un déséquilibre. Ces déséquilibres vont se manifester à travers le système des prix et les autres agents vont réagir à cette situation nouvelle en modifiant à leur tour leurs décisions. Une économie décentralisée et concurrentielle ne se trouve donc jamais en situation d’équilibre, elle est en permanence dans une situation de déséquilibre dynamique. Pour les Autrichiens, ce qui constitue le grand mérite du marché comme mode de coordination, c’est qu’il permet que se réalisent en permanence des ajustements par rapport à ces déséquilibres qui sont, au moins provisoirement, corrigés. Cette conception du marché est donc compatible avec la prise en compte du temps et de l’ignorance. Les agents constatent la situation en l’instant t et ils adaptent leurs comportements pour se trouver dans une situation plus favorable à l’instant t + 1. Les agents ont une information imparfaite, mais le marché produit de façon continue et nonintentionnelle de l’information qui est diffusée par le système des prix. Pour les auteurs autrichiens, cette coordination par le marché et la concurrence n’est possible que si le libre jeu du marché est respecté et si les pouvoirs publics se limitent à faire respecter de façon impersonnelle des règles de droits identiques à tous les participants au marché (droit de propriété, respect du système de poids et mesure, respect des engagements contractuels, etc.). Si ce modèle du marché est séduisant sur le plan intellectuel, il sousestime deux problèmes majeurs. Le marché produit de l’instabilité (comme Hayek l’a montré lui-même dans son analyse monétaire des crises). Peut-on se passer d’une procédure de limitation de cette instabilité ou de lutte contre ses effets ? Par ailleurs, le marché produit de l’inégalité. Mises affirme d’ailleurs que l’inégalité est inhérente à l’économie de marché. Mais les Autrichiens sous-estiment le fait que cette inégalité peut saper les fondements du lien social sans lequel le fonctionnement d’une économie de marché devient impossible. ******ebook converter DEMO Watermarks*******

Les économistes néoclassiques d’une part, autrichiens d’autre part, promeuvent, quoique de façon très différente, la coordination par le marché et la concurrence. Ces analyses sont éclairantes dans la mesure où elles montrent comment, via le système des prix, il est possible d’assurer une coordination horizontale et non-intentionnelle des décisions d’agents qui prennent leurs décisions indépendamment les uns des autres. Ces approches mettent aussi en évidence les conditions très restrictives d’une coordination parfaitement efficace confiée aux seuls mécanismes de marché. Par ailleurs, il faut prendre en compte l’existence d’autres formes de coordination. II. Défaillances du marché, défauts de coordination et rôle de la hiérarchie De longue date, les économistes ont mis en évidence les défaillances du marché et les défauts de coordination, ce qui confirme que le marché et la concurrence ne sont pas toujours un moyen de coordination efficace des décisions des agents. Par ailleurs, depuis l’article fondateur de R. Coase (“The Nature of the Firm”, 1937) on sait qu’il existe un autre mode de coordination, la hiérarchie, ce qui confirme que, dans certains cas, le marché n’est pas le mode de coordination le plus efficace. A. Défaillances du marché, défauts de coordination et équilibres sous-optimaux À la suite de P. Krugman, on peut définir les défaillances du marché comme des situations où, dans un contexte de coordination marchande, la poursuite par les agents de leurs intérêts personnels ne conduit pas à satisfaire les intérêts de la société dans son ensemble, mais peut même conduire à dégrader la situation d’ensemble. Les économistes retiennent traditionnellement trois grandes catégories de défaillances du marché : – En premier lieu, les situations d’asymétrie d’information qui ​favorisent les comportements opportunistes et donc les situations d’antiélectron (sélection adverse) ou d’aléa moral. L’exemple du marché des voitures d’occasion donné par G. Akerlof (The Market for « Lemons », 1970) est particulièrement éclairant. L’auteur montre que devant l’incertitude relative à la qualité des véhicules proposés à la vente, les possesseurs des véhicules de meilleure qualité se retirent du marché, faute de pouvoir obtenir un prix correspondant aux caractéristiques de leur véhicule. À la ******ebook converter DEMO Watermarks*******

limite aucun échange ne se produit puisque progressivement les différents vendeurs se retirent. De même, les offreurs de crédits ou de contrats d’assurance, faute de connaître le niveau de risque associé à chaque client, proposent un prix moyen des contrats qui est considéré comme coûteux par les agents peu risqués et comme peu coûteux par les agents risqués : le marché sélectionne donc les mauvais risques. – En deuxième lieu, les situations d’externalités (positives ou négatives) qui, n’étant pas prises en compte par le marché, conduisent à une production excessive de biens et services produisant des externalités négatives (pollution par exemple) et à une offre insuffisante de biens et services produisant une externalité positive (éducation ou santé par exemple). – Enfin, les situations de biens collectifs (non rivaux et non excluables). La consommation d’une unité de ces biens par un agent supplémentaire a un coût marginal nul (puisque les biens collectifs sont à la disposition de tous dès lors qu’ils sont à la disposition d’un seul). De ce fait, aucun offreur ne produira de tels biens dans un cadre marchand. On voit que dans ces trois cas le marché et la concurrence ne conduisent pas à la maximisation de la satisfaction collective. Les analyses en termes de défaut de coordination ont plutôt été développées dans le cadre des analyses macroéconomiques (tout en mobilisant des concepts microéconomiques). On dira qu’une économie est en situation de défaut de coordination s’il existe des opportunités d’échange mutuellement avantageux qui ne se réalisent pas parce que les agents ne sont pas incités à les réaliser. L’économie peut donc se trouver dans une situation d’équilibre sous-optimal. Par exemple, on peut interpréter en termes de défaut de coordination la situation d’équilibre de sous-emploi. Il serait préférable que toutes les ressources productives soient utilisées, pour cela il faudrait que les producteurs produisent plus, mais ils ne le font pas parce que la demande est insuffisante. Or, s’ils investissaient plus, produisaient plus et recrutaient plus, la demande augmenterait et la situation globale de l’économie serait plus favorable. Ce type d’approche, développé par les auteurs de la Nouvelle Économie Keynésienne (NEK), met donc en évidence le fait que l’absence de commissaire-priseur walrasien et le fait que les agents prennent leurs décisions sans prendre en compte l’impact de ces décisions sur la situation globale conduisent à des situations sous-optimales qui résultent de défauts de ******ebook converter DEMO Watermarks*******

coordination. B. L’arbitrage marché/hiérarchie et la question des coûts de transaction Non seulement le marché et la concurrence peuvent voir leur efficacité mise en cause par les défaillances de marché et les défauts de coordination, mais, de plus, on constate que dans certains cas, d’autres modes de coordination sont jugés préférables par les agents. R. Coase se pose, dans son article de 1937, une question essentielle : si le marché et la concurrence étaient toujours un mode de coordination efficace, il n’y aurait dans l’économie que des individus coordonnés par le marché (coordination horizontale). Or, on constate qu’il n’en est rien. Il existe des entreprises à l’intérieur desquelles la coordination s’opère par la hiérarchie. À l’intérieur des frontières de la firme, un pouvoir central (et ses représentants) dispose d’une autorité qui leur permet d’obtenir l’exécution des instructions qu’ils donnent aux salariés. Par exemple, si un ouvrier cesse de travailler dans l’atelier 1 et va travailler dans l’atelier 2, ce n’est pas parce qu’une incitation de marché l’y conduit, mais parce qu’il en a reçu l’ordre de son contremaître ou du chef d’atelier. Pourquoi, dans certains cas, la coordination par la hiérarchie est-elle préférée à la coordination par le marché ? La réponse de R. Coase (qui sera prolongée par O. Williamson) repose sur deux éléments. D’une part, le recours au marché n’est pas gratuit contrairement à ce que suppose le modèle walrasien de base. Pour nouer des relations marchandes il existe des coûts de recherche du partenaire (client ou fournisseur), des coûts de négociation du contrat, de rédaction du contrat, de suivi de l’exécution du contrat et éventuellement des coûts de résolution des conflits qui peuvent résulter de la non-exécution du contrat par le partenaire. Cet ensemble de coûts est appelé « coûts de transaction » par Coase. Certes, le fonctionnement de la coordination par la hiérarchie a elle aussi un coût (coût d’organisation), mais les agents économiques vont arbitrer entre les deux types de coûts et choisir la coordination par la hiérarchie lorsqu’elle se révèle moins coûteuse. D’autre part, Coase prend en compte le temps. Il considère que la coordination par la hiérarchie au sein de la firme est plus probable lorsque des contrats de très court terme se révèlent peu satisfaisants. Le contrat de travail, s’il est suffisamment stable, permet d’établir une relation durable entre le détenteur de l’autorité et les exécutants. Un entrepreneur de construction, par exemple, n’embauche pas tous les matins ******ebook converter DEMO Watermarks*******

de nouveaux maçons, peintres, plombiers, etc. Cette analyse permet de comprendre que l’arbitrage entre le marché et la hiérarchie peut se modifier : une activité conduite jusque-là à l’intérieur des frontières de la firme (coordination hiérarchique) peut être externalisée et faire l’objet d’un contrat commercial avec un prestataire de service (coordination marchande). O. Williamson a montré qu’existaient aussi des formes mixtes de coordination (le contrat de franchise par exemple) qui articulent des modalités marchandes et hiérarchiques de coordination. III. Nécessité et procédures d’une coordination hors-marché Nous venons de le voir, le marché et la concurrence ne sont pas toujours un mode de coordination efficace. Mais il faut aller plus loin. En effet, même lorsque l’on privilégie la coordination marchande, l’articulation avec d’autres formes de coordination semble indispensable. C’est pourquoi les normes, les valeurs et les conventions, de même que la coordination verticale assurée par l’État jouent un rôle important dans l’action économique des agents. A. Normes, valeurs et conventions Dans la vie sociale, de manière générale, l’existence de normes, de valeurs et de conventions contribue de façon très importante à la coordination du comportement des agents, que l’on songe par exemple aux manières de table, aux façons de saluer les autres acteurs sociaux, aux règles relatives à la façon de se vêtir, etc. Le non-respect de ces nor​mes ou de ces traditions produit un trouble (plus ou moins grave) dans le déroulement des interactions sociales. Ces normes, valeurs, conventions, sont le résultat d’un processus de construction sociale qui s’inscrit dans l’histoire, elles sont le plus souvent institutionnalisées. L’exemple célèbre de la conduite automobile permet d’illustrer l’importance des conventions et de leur institutionnalisation. Techniquement, il est indifférent de conduire à droite ou à gauche. Mais si chaque conducteur choisit librement le côté de la route sur lequel il conduit en fonction de sa subjectivité, la désorganisation de la circulation est assurée et le nombre d’accidents sera très élevé. En fait, bien que le choix soit arbitraire (il n’y a pas de raison objective de conduire à droite plutôt qu’à gauche), lorsque le choix est fait, chacun s’attend à ce que les autres conduisent du même côté et se comporte en conséquence. On dit que le choix du côté de la route est une connaissance commune (Common Knowledge). Les comportements correspondants sont incorporés dans l’habitus des agents ******ebook converter DEMO Watermarks*******

(lorsqu’ils quittent leur place de stationnement ils ne se demandent pas de quel côté de la route ils doivent conduire). Dans la vie économique de très nombreuses conventions de ce type fonctionnent. Lorsqu’on signe un bail, il est précisé que le logement doit être occupé « en bon père de famille ». Formule creuse, mais dont on considère qu’elle est de connaissance commune et qu’elle implique notamment que l’on ne doit pas utiliser le logement pour se livrer à des activités illicites. Dans les relations contractuelles, tout ne peut pas être spécifié par le contrat. Très souvent on sélectionne le cocontractant parce que l’on sait qu’il va respecter ses obligations pour des raisons diverses : il défend sa réputation, il a un honneur professionnel, il respecte la tradition de la maison dont il est le créateur ou l’héritier, il se fait une certaine idée de ses relations avec les clients. Cela permet notamment de réduire les incertitudes sur la qualité. Le rôle des conventions de qualité est d’ailleurs très important dans la vie économique comme l’ont montré de nombreuses études. La mise en place des appellations d’origine, la définition de terroirs constituent à la fois une contrainte pour les producteurs et un moyen pour les consommateurs de faire des choix éclairés. Ces normes, valeurs et conventions jouent aussi sur le marché du travail. Par exemple, la définition d’une grille de qualification est un moyen d’institutionnaliser la hiérarchie des emplois et des rémunérations et de ne pas la soumettre exclusivement aux rapports marchands. G. Akerlof et J. Yellen ont montré que lorsque les salariés avaient le sentiment d’être rémunérés de façon juste cela jouait de façon positive sur leur productivité. En résumé, les rapports marchands sont encastrés dans un réseau de relations sociales fortement liées aux normes, aux traditions et aux conventions qui contribuent de façon décisive à la coordination des comportements des agents. B. Coopération et rôle de l’État La coopération est aussi une forme de coordination qu’il faut prendre en compte. Il s’agit d’une forme de coopération horizontale (tous les participants à la coopération sont en principe égaux) et c’est une coordination intentionnelle (les acteurs agissent collectivement de façon consciente pour résoudre un problème de façon coordonnée). Imaginons les commerçants d’un quartier du centre-ville qui veulent organiser une quinzaine commerciale pour attirer les clients et résister à la concurrence d’un centre commercial implanté en périphérie. Cette action collective ne relève pas de la concurrence ******ebook converter DEMO Watermarks*******

et de la décision décentralisée. Si chaque commerçant du centre-ville prend des décisions indépendamment des autres, il y a peu de chance qu’un événement attractif se mette en place. De même, il n’existe pas d’autorité hiérarchique capable d’imposer aux commerçants la participation à la quinzaine commerciale. La solution c’est la coopération. Les commerçants vont se réunir volontairement, décider collectivement de la date, de l’organisation (musique, spectacles, promotions, etc.), de la répartition des coûts, etc. Les décisions vont généralement être adoptées par consensus pour s’assurer de la cohésion du groupe. Ce rôle de la coopération intervient dans de nombreux domaines de la vie économique, au point que l’on parle parfois de « coopétition » pour caractériser certaines relations interentreprises marquées à la fois par la compétition (concurrence) et par la coopération. C’est le cas, par exemple, des entreprises appartenant à un même groupe ou de celles qui participent à un même pôle de compétitivité. La coopération comme mode de coordination a fait l’objet de travaux importants d’E. Ostrom (Prix Nobel de science économique en 2009 en même temps qu’O. Williamson). Ostrom a étudié de nombreux exemples de communautés confrontées à la gestion d’un bien commun et qui adoptent des stratégies coopératives pour échapper à la « tragédie des biens communs ». L’un des exemples étudiés porte sur l’usage de nappes phréatiques en Californie. Si l’on puise trop d’eau, il existe un risque de voir les nappes alimentées par l’eau de l’océan Pacifique et, du fait de la salinisation, devenir impropre à la consommation comme aux usages agricoles (irrigation). Si on adopte une logique de concurrence, chaque habitant de la zone va chercher à puiser le maximum d’eau pour maximiser son avantage individuel. Le résultat sera l’épuisement de la ressource. L’agrégation de comportements individuels rationnels conduit à une situation désastreuse du point de vue collectif. Une autre solution serait la hiérarchie. Une autorité pourrait fixer des quotas de prélèvement d’eau et les faire respecter. Mais cette solution peut conduire à une fixation de quotas trop abondants, à un non-respect des quotas, à un coût important de contrôle pour faire face à la fraude, etc. Les solutions coopératives observées par Ostrom reposent sur la délibération collective des personnes intéressées à la gestion de la ressource, l’adoption de règles de prélèvement et l’existence à la fois d’une adhésion individuelle aux normes ainsi élaborées et d’un contrôle social sur les membres de la communauté (on retrouve ici l’importance des normes et des valeurs). De telles solutions coopératives ont fonctionné parfois sur plusieurs siècles (cas ******ebook converter DEMO Watermarks*******

des procédures d’irrigation en Espagne qui remontent à la présence des Arabes dans la péninsule). Ainsi que le souligne Ostrom, il ne faut pas se limiter à l’alternative marché/hiérarchie, il faut prendre en compte la coopération comme mode de coordination. Il semble aussi nécessaire de revenir sur le rôle de l’État. Si la question de la hiérarchie a été largement pensée depuis Coase à partir de l’exemple de l’entreprise, on ne doit pas oublier que les administrations publiques disposent d’un pouvoir d’injonction. La nécessité de l’intervention de l’État était soulignée par A. Smith ou J.-B. Say (pourtant par ailleurs théoriciens du marché). De même, la pensée néoclassique a présenté l’État comme une réponse possible aux défaillances du marché. Les analyses en termes de défaut de coordination débouchent sur la nécessité de disposer d’un coordinateur extérieur au marché qui, dans de nombreux cas, est la puissance publique. Par exemple, seule l’action de l’État peut permettre à une économie de sortir de la situation d’équilibre de sous-emploi. Au total donc, l’existence de la coopération et des politiques publiques nous confirme que le marché et la concurrence ne sont pas toujours des modes de coordination efficace. Dans certaines situations (biens communs, défauts de coordination) le recours à d’autres procédures de coordination est indispensable. Ces analyses conduisent à considérer que s’il est utile de définir des types idéaux des modes de coordination, aucune économie ne fonctionne conformément à un seul de ces modes de coordination à l’état « pur ». La coordination des activités économiques résulte toujours d’une combinaison de divers modes de coordination : pas de marché sans État et sans entreprises (donc sans hiérarchie), pas de marché sans normes sociales et sans conventions, pas d’entreprise et de vie sociale sans coopération, etc. De plus, l’articulation entre ces modes de coordination peut évoluer : l’État comme les entreprises peuvent externaliser certaines activités en ayant un recours accru au marché, les dysfonctionnements du marché peuvent conduire à un surcroît de réglementation (exemple des banques et des marchés financiers après 2008). Conclusion Le marché et la concurrence constituent donc bien des procédures de coordination efficaces et largement utilisées. Ils permettent notamment une production et une gestion décentralisée de l’information à travers le système ******ebook converter DEMO Watermarks*******

des prix. C’est en fonction de cette information véhiculée par les prix que les agents vont prendre des décisions cohérentes avec les décisions des autres agents. La flexibilité des prix permet notamment d’ajuster les quantités offertes et les quantités demandées. Les prix relatifs permettent de guider les choix des consommateurs comme la combinaison productive adoptée par les producteurs, etc. Le marché et la concurrence permettent aussi un ajustement graduel et en continu des décisions économiques. Inutile d’attendre la décision d’une autorité centrale pour augmenter ou diminuer les quantités produites, chaque agent décide pour ce qui le concerne, en fonction des informations qu’il détient. Il s’agit d’un mode de coordination horizontal et non-intentionnel. Mais le marché et la concurrence ne sont pas toujours le mode de coordination le plus efficace. D’une part, la hiérarchie (mode de coordination vertical et intentionnel) est une alternative au marché (R. Coase). D’autre part, les travaux d’E. Ostrom ont montré que la coopération pouvait être un mode de coordination préférable au marché et à la hiérarchie (notamment en ce qui concerne la gestion des biens communs). Ces différents modes de coordination (y compris le marché) ne peuvent fonctionner sans un certain degré de coordination par des règles, des normes et des conventions, ce qui confirme que le marché et la concurrence ne peuvent pas fonctionner comme mode de coordination dans un vide social et institutionnel. De nombreuses analyses économiques ont mis l’accent sur les défaillances du marché et sur les défauts de coordination au sein des économies marchandes. Cela conduit notamment à la nécessité d’un coordonnateur hors-marché qui est le plus souvent l’État. Le débat public ne devrait donc pas porter sur des alternatives simplistes (Marché ou État, concurrence ou coopération, normes sociales ou libre choix individuel) mais sur le degré et les modalités de combinaison des modes de coordination permettant de concilier au mieux les choix individuels et l’intérêt général. Dans de nombreux pays par exemple, l’économie sociale est présentée comme un mode de fonctionnement de l’économie qui se distingue à la fois du capitalisme et du contrôle étatique. De même, après la crise de 2008, des voix se sont élevées pour réclamer une réduction de l’influence des marchés financiers et un contrôle accru de l’État sur les banques et autres institutions financières.

******ebook converter DEMO Watermarks*******

******ebook converter DEMO Watermarks*******

Sujet

4 La concurrence doit-elle être stimulée ?

1

Se préparer à la rédaction

1.1 L’enjeu du sujet La formulation du sujet est classique : la phrase interrogative invite logiquement à un débat sur la légitimité et, le cas échéant, l’efficacité des dispositifs institutionnels visant à stimuler la concurrence. Il s’agit d’une question qui a soulevé beaucoup de controverses tant sur le plan scientifique que politique et ce depuis les origines de l’analyse économique. La formulation « doit-elle » proposée dans le sujet semble en apparence inviter à une réflexion normative. En réalité, ce n’est pas l’opinion du rédacteur du devoir qui est demandée, mais une analyse rigoureuse sur la pertinence de la mise en œuvre de dispositifs visant à introduire, préserver, voire restaurer la concurrence sur les marchés. On pourra ainsi considérer dans le traitement du sujet que le verbe « stimuler » se décline de trois façons : introduire, préserver, restaurer. Si la présentation des termes de ce débat est requise, il faut toutefois garder à l’esprit le principe de la cumulativité des savoirs : depuis les fondateurs de l’économie politique la connaissance scientifique a beaucoup progressé et s’est considérablement renouvelée. En fin de compte, le piège d’un sujet débat de ce type est de donner le sentiment dans la copie d’une opposition frontale de positions immuables et incompatibles. Il est donc essentiel de donner aussi au sujet une profondeur historique afin de comprendre la transformation de ce débat.

1.2 Le cadrage du sujet et les concepts clés ******ebook converter DEMO Watermarks*******

Le concept clé est bien entendu celui de concurrence. Mais la question porte sur l’efficacité et la légitimité de sa stimulation, ce qui implique d’orienter la réflexion sur les dispositifs institutionnels qui interagissent avec la concurrence (politique de la concurrence mais aussi les autres politiques structurelles). Le cadrage du sujet est laissé à la discrétion du rédacteur, compte tenu du caractère très large de la question posée. Dans la proposition ci-dessous, le choix a été fait de s’en tenir à la stimulation de la concurrence sur le marché des produits tout en se plaçant dans une perspective historique longue. Le choix aurait pu être d’ouvrir davantage le sujet en intégrant les questions relatives à la concurrence sur le marché du travail ou celles de la concurrence entre les nations et les territoires par exemple et d’opter, le cas échéant, pour une mise en perspective historique plus modeste.

1.3 La construction de la problématique La problématique adoptée visera à répondre à trois questions successives : 1) Faut-il préserver le caractère concurrentiel des marchés, le cas échéant, par des politiques économiques dédiées ? Dans la plupart des cas, la réponse à cette question est « oui » même si les politiques de la concurrence ont connu des débuts hésitants. 2) Faut-il restaurer la concurrence sur certains marchés lorsqu’elle fait défaut ? Là encore, la réponse à cette question est le plus souvent « oui » et se traduit par des politiques de concurrence visant à lutter contre les collusions, les concentrations et les monopoles. 3) Faut-il partout et toujours chercher à introduire, préserver ou restaurer la concurrence ? Cette question appelle une réponse nuancée en particulier lorsqu’il s’agit de réfléchir à l’articulation entre les politiques de concurrence et les autres politiques structurelles.

2

Rédiger le devoir : une proposition

Introduction À l’occasion d’une conférence de presse donnée le 20 novembre 2018, la commissaire européenne à la concurrence Margrethe Vestager a déclaré que l’Union européenne veillera à ce que le Royaume-Uni respecte les règles de ******ebook converter DEMO Watermarks*******

l’Union en matière de politique de concurrence après sa sortie prévue en mars 2019. En effet, selon elle, quel que soit le protocole de Brexit adopté, l’économie britannique restera intégrée à celle des autres pays européens sur le plan commercial notamment, c’est pourquoi « il est important d’avoir des conditions de concurrence équitable » a-t-elle précisé. Cet exemple, sur fond de processus de sortie de l’Union européenne du Royaume-Uni, illustre l’importance des politiques de concurrence qui, au sein de l’Union, sont conduites par la Commission européenne. La concurrence se définit comme une situation de marché caractérisée par une compétition entre, d’une part, les agents exprimant une offre et, d’autre part, ceux exprimant une demande. Cette compétition porte généralement sur les prix, mais également sur les parts de marché ou encore sur la qualité des produits échangés. Il convient de ne pas assimiler le concept général de la concurrence avec celui de la concurrence pure et parfaite tel qu’il est proposé dans le modèle du même nom. Les théories en science économique accordent une place inégale à la concurrence mais la plupart d’entre elles considèrent que celle-ci présente des vertus importantes et que les marchés caractérisés par une concurrence suffisamment intense conduisent à une efficacité économique plus grande que les autres. Il s’agit alors de se demander si la stimulation de la concurrence par des dispositifs institutionnels est possible et si elle est requise. Comment introduire puis préserver le caractère concurrentiel des marchés ? Comment le restaurer lorsqu’il est remis en cause ? Tout dispositif de stimulation de la concurrence est-il nécessairement légitime et efficace ? Depuis les origines de la pensée économique moderne, l’idée selon laquelle il est nécessaire de préserver la concurrence pour permettre l’efficience des marchés est centrale (I). À partir de l’entrée dans la seconde mondialisation, l’accent a été mis plus fortement sur la nécessité de restaurer la concurrence sur certains marchés qui ont connu un processus de concentration et/ou de collusion ou sur lesquels elle est absente (II). Cependant, la question de la légitimité et de l’efficacité de la stimulation de la concurrence en particulier face aux autres politiques économiques structurelles est discutée (III). I. Préservation de la concurrence et efficience des marchés La plupart des analyses économiques montrent que lorsque les marchés présentent un caractère concurrentiel, ils conduisent à une plus grande ******ebook converter DEMO Watermarks*******

efficacité économique. La stimulation de la concurrence a donc, en premier lieu, consisté à introduire puis préserver le caractère concurrentiel des marchés (A). Cette réflexion a servi de support à la mise en œuvre de politiques dédiées à la stimulation de la concurrence dans un cadre préventif (B). A. Introduire et préserver la concurrence : un enjeu de l’analyse économique À partir du milieu du XVIIIe siècle, le courant des physiocrates (animé par F. Quesnay) joue un rôle important dans le développement du libéralisme économique en général et dans la promotion du marché et de la concurrence en particulier. P. de Boisguilbert par exemple (Le détail de la France, 1697) considère que le libre commerce du grain (qui n’était pas en vigueur à cette époque) favoriserait l’enrichissement de la nation en permettant d’étendre les marchés au niveau national puis international. La formule devenue célèbre de V. de Gournay « laissez faire les hommes, laissez passer les marchandises » résume bien ce primat accordé aux libertés individuelles et aux vertus de la concurrence. En 1776, A. Smith (Recherches sur la nature et les causes de la richesse des nations) s’inscrit également dans cette optique en montrant que la concurrence est à l’origine de la main invisible du marché par laquelle les actions individuelles conduisent à la réalisation de l’intérêt général. Toutefois, les physiocrates comme la plupart des classiques observent qu’il existe une tendance sur les marchés à réduire, voire à faire disparaître la concurrence. Pour ceux qui s’inscrivent dans la promotion du libéralisme économique, il s’agit alors de valoriser la coordination par le marché et d’introduire la concurrence là où elle fait défaut. Ainsi, pendant le règne de Louis XVI, Turgot supprime les frontières intérieures du Royaume de France et instaure le libre commerce du grain. En 1791, la loi Le Chapelier supprime les jurandes et maîtrises ainsi que les corporations de métiers qui réglementaient les activités à l’échelle de chaque ville. En 1846, suite notamment aux analyses de D. Ricardo, la Grande-Bretagne abroge les lois protectionnistes sur les céréales, etc. L’hypothèse du caractère autorégulateur des marchés devient centrale à partir de la révolution marginaliste à la fin du XIXe siècle et surtout avec la constitution du modèle microéconomique standard de la concurrence pure et parfaite (CPP) qui fonde la théorie néoclassique (V. Pareto). Les cinq fameuses conditions de la CPP (atomicité, homogénéité des produits, ******ebook converter DEMO Watermarks*******

transparence de l’information, fluidité et mobilité) forment l’ossature d’un modèle qui montre l’efficience de la coordination par le marché conduisant l’économie vers un optimum au sens de Pareto. Dans ce modèle, tous les agents sont preneurs de prix, ce qui implique qu’ils ne disposent d’aucun pouvoir de marché. La question centrale qui est posée est alors celle de la confrontation entre la CPP et la réalité empirique : plus les marchés observables s’éloignent des conditions du modèle, plus la stimulation de la concurrence par des dispositifs institutionnels qui permettront de s’en rapprocher apparaît comme légitime. Une des applications les plus importantes de cette idée est celle du cas des marchés oligopolistiques (remise en cause de la condition d’atomicité). En situation d’oligopole ou de duopole, la théorie enseigne que cela se traduit par une perte d’efficacité économique (prix plus élevés et volume d’échange plus faible). Le cas limite est celui du monopole pour lequel la perte pour la collectivité est significative : c’est la perte sèche du monopole (ou triangle d’A. C. Harberger). On voit que, dans ce cas, l’enjeu est bien de stimuler la concurrence pour préserver le caractère atomistique des marchés. Enfin, il faut souligner qu’à partir des années 1930, de plus en plus de travaux ont en commun de s’appuyer sur le concept de concurrence praticable (workable competition) qui correspond à une situation de marché où la concurrence est suffisante pour assurer l’efficacité économique, même s’il existe un écart entre la situation observée et le modèle de la CPP. L’économie est caractérisée par des marchés imparfaits. Elle est alors conduite vers un optimum de second rang qui peut paraître satisfaisant. Dans cette optique, l’enjeu n’est plus de ramener la concurrence vers la CPP, mais de la préserver pour qu’elle reste praticable. En 1933, E. Chamberlin (The Theory of Monopolistic Competition) propose d’analyser le fonctionnement des marchés à partir de l’hypothèse d’hétérogénéité des produits (remise en cause de la condition d’homogénéité). Il montre que la concurrence est monopolistique, même quand on observe un grand nombre de firmes sur un marché, si celles-ci adoptent une stratégie de différenciation de leurs produits. Cette différenciation peut porter sur les caractéristiques des produits (la qualité) mais aussi sur l’environnement du produit (effet de marque par exemple). Les entreprises disposent dans ce cas d’un certain pouvoir de marché, en déterminant notamment de manière plus autonome leurs prix dans la mesure où une différenciation « réussie » réduit l’élasticité-prix de la demande en fidélisant les consommateurs. ******ebook converter DEMO Watermarks*******

Cette approche a été complétée par les travaux de J. A. Schumpeter pour lequel la différenciation des produits est notamment le résultat du comportement d’innovation des firmes conduisant à des monopoles temporaires. Ce comportement est caractéristique de l’entrepreneur capitaliste selon Schumpeter : le capitalisme est un système fondamentalement déséquilibré dont la dynamique repose sur le rythme des innovations (mécanisme de la destruction créatrice). L’intensité du contexte concurrentiel et l’incitation à l’innovation doivent ainsi être logiquement préservées en particulier par des politiques de protection des firmes innovantes (protection de la propriété industrielle et intellectuelle par un système de brevet par exemple). Le rendement social d’une innovation est en effet la somme du rendement privé et de l’externalité positive qui lui est associée. Faute d’un cadre réglementaire suffisamment protecteur, le rendement privé de l’innovation peut devenir nul (les comportements de passagers clandestins deviennent rationnellement la norme), ce qui inciterait les firmes à renoncer à l’innovation. D. North (Prix Nobel d’économie 1993) montre que les pays, qui ont connu précocement la Révolution industrielle à l’image de la GrandeBretagne, doivent beaucoup à la qualité de leur contexte institutionnel et en particulier à la présence d’institutions qui ont permis de garantir les droits de propriétés et de protéger les innovations (droits des brevets). B. Les débuts hésitants des politiques de la concurrence La politique de la concurrence débute avec la volonté, d’une part, d’éviter la formation des monopoles par une concentration excessive du capital pouvant conduire à des trusts (lorsqu’une firme possède un pouvoir de marché particulièrement important de telle sorte qu’elle influence significativement la gouvernance des autres) et, d’autre part, d’éviter les stratégies collusives entre firmes pouvant conduire à des cartels, l’objectif étant ainsi de maintenir un niveau de concurrence jugé satisfaisant. On appelle « collusion » un dispositif d’entente entre firmes sur un marché par lequel les firmes concernées sortent de la concurrence (l’entente peut porter sur les prix mais aussi sur les volumes de produits). Lorsque la collusion s’inscrit dans un cadre formel, voire prend la forme d’une organisation, il s’agit d’un cartel (exemple de l’OPEP). Cette prise de conscience de la nécessité d’une politique de la concurrence préservant le caractère concurrentiel des marchés est tardive par rapport à la Révolution industrielle et au processus de concentration du ******ebook converter DEMO Watermarks*******

capital. Au Japon à partir des années 1860 par exemple, se forment les Zaibatsu, caractérisés par une concentration conglomérale aux mains des puissantes familles. Ces firmes étendent leurs activités avec le soutien du pouvoir impérial convaincu de la nécessité d’industrialiser le pays en s’appuyant sur ces grands groupes (l’objectif est notamment de lutter contre l’impérialisme occidental). Durant la seconde moitié du XIXe siècle, les cartels se multiplient également dans l’Empire allemand (on en compte plus de 400 à la fin du siècle). Au début du XXe siècle, ils prennent la forme de Konzerns qui associent concentration verticale et horizontale (Krupp, puis le cartel de la chimie Agfa-BayerBasf à partir de 1904 par exemple). Là encore, ce processus se réalise avec l’appui tacite du régime politique (le groupe Krupp fabrique des armes dont la Grosse Bertha durant la Première Guerre mondiale). Le déclenchement des premières politiques visant à préserver la concurrence se produit aux États-Unis. À la fin du XIXe siècle, certains secteurs du système productif américain conduisent à des structures de marchés oligopolistiques (tabac, acier, pétrole notamment). Les firmes sur ces marchés recherchent des avantages de taille (présence de rendements d’échelle croissants), des avantages technologiques ou encore le contrôle de l’accès à une ressource rare (ALCOA – Aluminium Compagny of America – avec l’approvisionnement en bauxite par exemple). Aux États-Unis, l’opinion publique s’est rapidement mobilisée contre les effets néfastes du contrôle des marchés par des grands groupes industriels (on parle de « barons voleurs »). Par exemple, en 1870, J.-D. Rockefeller fonde la Standard Oil. En une décennie, il met en place une stratégie de concentration horizontale particulièrement agressive jusqu’à maîtriser 90 % du raffinage aux ÉtatsUnis. Accusé par les autorités et les médias de pratiques collusives et de manipulation des prix, Rockefeller crée malgré tout un trust en 1882. C’est sur la base du constat d’une carence réglementaire à partir du cas Rockefeller que les États-Unis votent le Sherman antitrust Act en 1890 qui interdit les cartels. Puis, plus tardivement en 1914, le Clayton Act vient compléter ce dispositif par une réglementation sur les concentrations (une fois encore en réponse à Rockefeller qui fonda une holding – la Standard Oil Company – en 1899 avant que celle-ci ne soit dissoute en 1911). C’est également en 1914 qu’est créée la Federal Trade Commission – FTC –, l’autorité américaine de la concurrence chargée d’instruire les dossiers du point de vue de la puissance publique. ******ebook converter DEMO Watermarks*******

En fin de compte, les premières politiques de la concurrence s’inscrivent essentiellement dans un cadre réglementaire large, qui a vocation à préserver le caractère concurrentiel des marchés plus qu’à réprimer les pratiques anticoncurrentielles. Leur efficacité est relative et surtout la conviction d’une politique de concurrence ambitieuse n’est pas acquise. Aux États-Unis par exemple, le National Recovery Act de 1933 rend de nouveau possible le développement des cartels (des études ont montré que cette loi a contribué à prolonger la récession des années 1930 et à retarder les restructurations industrielles même si elle a favorisé la reflation). En Europe, les débuts de la politique de la concurrence sont tardifs. Celleci ne s’impose que sous l’impulsion de la construction communautaire à partir des années 1950. Depuis le Traité de Rome de 1957, la politique de la concurrence relève de la compétence de la Commission européenne qui fixe les principes du droit de la concurrence en vigueur dans les pays membres. En pratique, la Commission européenne a la charge de veiller à l’exercice de la concurrence sur le territoire européen (politiques préventives de concurrence) tandis que les autorités nationales des pays membres ont un pouvoir de contrôle sur les pratiques anticoncurrentielles (politique répressive). Les dispositifs qui visent à préserver la concurrence sur les marchés n’épuisent pas la question de la stimulation de la concurrence. Depuis notamment les années 1980, la question d’une politique de la concurrence active visant à réprimer les comportements anticoncurrentiels et à restaurer la concurrence s’est posée avec une acuité particulière. II. Restauration de la concurrence et efficience des marchés La concentration du système productif conduit à l’affaiblissement et parfois même à la disparition de la concurrence sur certains marchés, ce qui incite de nombreux pays à mettre en œuvre des politiques visant à restaurer le caractère concurrentiel des marchés. Ces politiques portent pour partie sur la lutte contre les stratégies collusives et les concentrations (A) mais aussi sur la lutte contre certains monopoles (B). A. Restaurer la concurrence par des politiques de lutte contre les collusions et les concentrations Les politiques répressives de la concurrence ont en commun de s’appuyer sur un acquis important de l’analyse économique. Lorsqu’un marché a une ******ebook converter DEMO Watermarks*******

structure oligopolistique découlant notamment de la présence de rendements d’échelle croissants, il existe une incitation forte pour les firmes à sortir de la concurrence et à opter pour des stratégies collusives. L’objectif pour chacune d’elles est alors de s’approprier une rente qui a tendance à se fixer à un niveau supérieur au profit obtenu en situation de concurrence parfaite. Les travaux en théorie des jeux (ceux de J. Nash – Prix Nobel 1994 – notamment) montrent que, dans certaines structures de marché, l’économie est alors conduite à un défaut de coordination : les intérêts individuels (les gains associés à la collusion) font obstacle à l’optimum collectif (des prix de marché plus faibles et des quantités échangées plus élevées en cas de concurrence). S’il est des arguments pour montrer que la pérennité d’un cartel dans le temps implique des conditions restrictives (nécessité d’un faible nombre de firmes au sein du cartel afin de ne pas rendre les coûts de surveillance rédhibitoires), force est toutefois de constater l’importance et la diversité des cartels dans les économies modernes alors qu’ils sont bien entendu interdits. Ainsi, depuis le milieu des années 2000, la politique de lutte contre les collusions en France conduite par l’Autorité de la concurrence (AdC) est devenue très volontariste avec une hausse considérable des sanctions financières prononcées, ce qui atteste de l’ampleur des pratiques collusives. Ces amendes s’établissent autour de 200 millions d’euros cumulés annuels dans le courant des années 2000 avec un record de 1,2 milliard d’euros en 2015 avant une « rechute » autour de 500 millions d’euros cumulés pour l’année 2017. Ce sont des secteurs très divers de l’économie qui sont concernés par ces pratiques collusives tels que la signalisation routière, les chèques bancaires, la restauration des monuments publics, la téléphonie cellulaire, etc. L’actualité a été marquée en 2017 par une amende record au « cartel du lino » de 302 millions d’euros. E. Combe (vice-président de l’AdC) indique à ce propos que si les démantèlements de cartels conduisent à des baisses de prix bénéficiant aux consommateurs (autour de 20 % de baisse en moyenne), dans nombre de cas il s’agit d’ententes portant sur des biens intermédiaires au sein d’une filière de production. Ce sont donc d’autres firmes qui subissent le préjudice de la collusion. Malgré ces constats, il apparaît que la politique répressive de lutte contre les cartels est difficile à mettre en œuvre en raison de la complexité des procédures de détection et de l’établissement des preuves. Depuis 1996, la Commission européenne a ainsi décidé d’instituer un dispositif juridique innovant inspiré de la théorie des ******ebook converter DEMO Watermarks*******

jeux et nommé « procédure de clémence » selon lequel les dirigeants des firmes, qui dénoncent l’existence d’une pratique collusive à laquelle elles ont participé, peuvent bénéficier d’une immunité dans les poursuites (un dispositif analogue a été mis en place aux États-Unis dès 1978 avec une certaine efficacité). Le second volet de la politique répressive de la concurrence porte sur les abus de position dominante. Du fait de leur taille, de leur avance technologique ou de leurs parts de marché, certaines firmes peuvent acquérir une position dominante, c’est-à-dire la possibilité pour elle d’affecter de manière significative l’évolution de la concurrence sur ce marché et par conséquent d’en modifier le fonctionnement. La position dominante sur un marché n’est pas illégitime par principe. Les autorités européennes considèrent que c’est l’exploitation délibérée de cette situation dans le but de restreindre la concurrence qui transforme la position dominante en abus. Ainsi, celui-ci se caractérise par une situation dans laquelle une firme utilise son poids important face à ses concurrents pour biaiser le marché à son avantage. Par exemple, une firme qui dispose de parts de marché importantes peut être incitée à pratiquer des prix de vente inférieurs à ceux qui maximiseraient son profit (prix prédateurs) afin d’évincer les concurrents (exemple de Engie en 2016). Cette éviction peut également passer par un mécanisme de barrière à l’entrée. En 2004 par exemple, la firme Microsoft a fait l’objet d’une condamnation en Europe pour sa pratique de vente liée : le système d’exploitation Windows impliquait que l’on utilise obligatoirement le logiciel de lecture média de Microsoft (mediaplayer). La Commission européenne a infligé à la firme américaine une amende de près de 500 millions d’euros pour avoir abusé de sa position dominante sur le marché des logiciels informatiques. En France, l’AdC a mis en évidence plusieurs cas importants d’abus de position dominante ces dernières années : Orange et SFR pour avoir commercialisé des offres favorisant les appels passés sur leur propre réseau aux dépens de Bouygues (2012) ; la SNCF pour avoir entravé l’arrivée de nouveaux opérateurs sur le marché du fret ferroviaire (2012) ; SanofiAventis pour avoir établi une stratégie de dénigrement à l’encontre des génériques face à un de ses produits phare (2013) ; ou encore Orange à nouveau mais à titre individuel pour avoir freiné le développement de la concurrence sur le marché de la téléphonie à destination des entreprises (350 millions d’euros d’amende en 2015). ******ebook converter DEMO Watermarks*******

B. Lutter contre les monopoles ? La question de la stimulation de la concurrence concerne également la remise en cause de certains monopoles. Dans les pays développés à économie de marché, plusieurs secteurs ont fait l’objet d’un processus d’ouverture à la concurrence depuis quelques décennies. C’est ce qui s’est produit aux ÉtatsUnis par exemple avec le démantèlement des public utilities (téléphonie et énergie notamment) dans les années 1980 ou de manière analogue en France en 1998 avec l’ouverture complète à la concurrence du marché des télécommunications après une décennie de restructuration pour l’opérateur historique – France Télécom – qui est passé du statut d’administration publique à celui de Société anonyme. Plus récemment toujours en France, l’ouverture à la concurrence a concerné également le marché de l’électricité ou encore celui du transport ferroviaire de passager à partir de la fin 2019. Ces marchés ont en commun d’être des industries de réseaux qui impliquent la mise en œuvre d’une infrastructure (réseau filaire de téléphonie ou d’électricité, réseau ferroviaire pour la SNCF ou la RATP par exemple). Historiquement, ces marchés relèvent d’un cas d’école de l’analyse économique : le monopole naturel. Ce type particulier de monopole correspond à une situation où une firme est seule en mesure d’être offreur sur un marché du fait de la présence de coûts fixes d’installation très élevés entraînant des rendements d’échelle fortement croissants. Afin de couvrir ses coûts, la firme doit donc produire à grande échelle, ce qui implique qu’elle puisse s’adresser à l’intégralité de la demande sur le marché. Il existe donc une barrière à l’entrée « naturelle » qui empêche une régulation concurrentielle. Depuis A. Smith, l’analyse économique enseigne qu’à partir du moment où un monopole naturel s’impose, il est légitime de confier ce type de production à la puissance publique ou de mettre en place un dispositif de strict contrôle par l’État de la firme concernée sous peine de voir celle-ci abuser de sa rente de monopole et/ou de freiner l’accès aux services pour certains utilisateurs. De fait, après 1945, en France, de nombreuses industries de réseaux font l’objet de monopoles publics (SNCF, EDF et GDF, PTT puis France Télécom notamment). Mais si ce type de firme était adapté au contexte économique et politique des Trente Glorieuses, c’est moins le cas avec les changements techniques et idéologiques qui s’opèrent au début des années 1980 (les critiques sont notamment croissantes à propos de la faible incitation à l’innovation des monopoles publics). Afin de réduire les barrières à l’entrée, un dispositif a consisté à séparer la gestion du réseau (lignes ******ebook converter DEMO Watermarks*******

téléphoniques et lignes électriques par exemple) de la production du service. En fin de compte, ce processus a bien conduit à une remise en cause de plusieurs monopoles publics et à une introduction de la concurrence sur ces marchés qui sont devenus oligopolistiques. C’est ainsi ce qui est prévu pour l’ouverture à la concurrence du « rail » en France : la « SNCF réseau » restera de la compétence de l’État tandis que le service de transport sera géré dans le cadre d’un marché concurrentiel. L’ouverture à la concurrence des marchés de réseaux a produit toutefois des résultats variables. S’agissant du marché de la téléphonie sur lequel nous disposons aujourd’hui d’un peu de recul, l’ouverture à la concurrence a sans doute été efficace du point de vue de l’incitation à l’innovation mais concernant la tarification, il a été prouvé à plusieurs reprises que les firmes présentes ont opté pour des stratégies collusives (Orange, Bouygues et SFR). Si la lutte contre les monopoles peut ainsi paraître fondée, elle ne règle pas pour autant tous les problèmes relatifs à la concurrence. La question de la lutte contre les monopoles porte également sur des monopoles publics ou des marchés très règlementés qui ne relèvent pas de cas de monopoles naturels. Ainsi, J. Delpla et C. Wyplosz (La fin des privilèges, 2007) montrent que de nombreuses activités en France comme les taxis, les pharmacies ou la grande distribution commerciale bénéficient de rentes de situation dues à des protections réglementaires qui conduisent à des pratiques de prix élevés, à des risques de niveau faible de production (pour les taxis par exemple) et à une exclusion du marché pour les concurrents potentiels. Ainsi, les firmes de la grande distribution sont « protégées » par les lois Raffarin et Galland (1996) qui limitent les possibilités d’installation de nouveaux supermarchés et hypermarchés sur des territoires prédéfinis. Les évolutions récentes sur le marché du transport collectif urbain (avec l’arrivée d’entreprises comme Blablacar ou Uber) attestent pour leur part de son attractivité importante pour les « nouveaux entrants », ce qui suscite de vifs débats politiques : cette concurrence est-elle légitime compte tenu des baisses de prix potentiels ou déloyale compte tenu notamment de la licence dont doivent s’acquitter les taxis ou des suspicions de pratique de travail dissimulé ? Depuis longtemps, de nombreux rapports ont souligné l’importance d’une stimulation de la concurrence dans ces secteurs : rapport Armand-Rueff en 1960, rapport Attali en 2008, rapport Gallois en 2012. En 2015, la loi Macron organise la libéralisation partielle de certains secteurs comme celui du transport routier de voyageurs. Son adoption a toutefois ******ebook converter DEMO Watermarks*******

soulevé de vifs débats entre parlementaires comme dans la société civile. L’objectif des politiques de la concurrence est le maintien ou la restauration du caractère concurrentiel des marchés. Cet objectif n’est cependant pas une fin en soi. Derrière la question de la stimulation de la concurrence, se pose celle de l’efficacité économique et du bien-être collectif. III. La stimulation de la concurrence en débat Des travaux économiques importants montrent que la stimulation de la concurrence peut avoir des effets néfastes sous certaines conditions (A). Audelà d’une remise en cause des dispositifs visant à stimuler la concurrence, il faut se demander comment articuler les politiques de la concurrence avec les autres politiques structurelles (B). A. Ne pas tuer la concurrence au nom de la concurrence Parmi les nombreux travaux qui considèrent que la stimulation de la concurrence peut s’avérer contreproductive, ceux de l’école autrichienne occupent une place incontournable. L’analyse de F. Hayek (Prix Nobel d’économie 1974) s’appuie en particulier sur une hypothèse qui rompt radicalement avec la conception walrassienne. Pour Hayek, les actions des agents économiques sont caractérisées par l’incomplétude des informations dont ils disposent. Il montre que le marché n’est pas un lieu intemporel où s’échangent seulement des marchandises, c’est surtout un lieu où se produisent, se diffusent, s’échangent et s’ajustent des informations partielles et atomisées sur la base d’anticipations réalisées par les agents. Le marché est ainsi un processus de découverte : les prix sur les marchés ne sont pas connus par avance, ils sont des signaux qui incitent les agents à adopter certains comportements plutôt que d’autres. Dans cette approche, la concurrence est un processus et non un état ; elle conduit à des déséquilibres sans cesse renouvelés mais qui sont simultanément résorbés au fur et à mesure que les agents ajustent leurs anticipations. Pour Hayek, le marché est une institution sociale centrale mais les règles qui le régissent ne sont pas le résultat d’une élaboration consciente. Elles s’inscrivent dans un « ordre spontané » et non dans un « ordre construit » ; elles s’imposent dès lors qu’elles rendent plus efficaces les comportements économiques. Selon la formule d’Hayek, le marché est un « ordre social spontané ». Ainsi, toute politique visant à préserver ou à renforcer la concurrence sur le marché, par des actions volontaristes de l’État en particulier, ne peut que ******ebook converter DEMO Watermarks*******

venir perturber cet ordre social spontané. Lorsque des firmes commettent des erreurs et sont évincées, cela peut réduire effectivement leur nombre mais en aucune façon l’efficacité de la régulation par le marché dans la mesure où cet événement conduira à un ajustement des anticipations chez les agents de sorte, qu’en fin de compte, le marché sélectionne toujours les meilleurs et les plus performants. Toute politique anti-trust ou qui vise à une gestion centralisée de l’information est donc logiquement néfaste et ne peut que conduire à terme sur la « route de la servitude » (titre d’un livre d’Hayek publié en 1944). En fin de compte, Hayek montre que l’action légitime essentielle des pouvoirs publics est celle qui assure la garantie les droits de propriété et des droits des contrats, le droit étant un complément indispensable à l’ordre spontané du marché sans quoi les échanges et la concurrence ne peuvent exister. Ainsi, dans La route de la servitude, Hayek considère finalement que si la concurrence est la méthode la plus efficace que l’on connaisse c’est surtout la seule méthode qui permette d’ajuster les activités humaines les unes aux autres sans intervention arbitraire ou coercitive de l’autorité, même si cette intervention a justement pour but de stimuler la concurrence. Cela revient en fin de compte à ne pas tuer la concurrence au nom de la concurrence selon la formule d’H. Lepage. B. Stimuler la concurrence : un objectif prioritaire de politique économique ? À partir de 1945, les pays industrialisés entrent dans une phase de mondialisation contenue dans laquelle les incitations à la concurrence passent essentiellement par la politique commerciale entre les nations : montée du multilatéralisme avec les accords du GATT à partir de 1947, extension du régionalisme en Europe (Traité de Rome en 1957). Sur les marchés intérieurs en revanche, c’est la politique industrielle qui domine (politique des grands projets sous la Présidence de Gaulle, politique des champions nationaux sous celle de Pompidou). Dans leurs travaux, P. Aghion et P. Howitt (L’économie de la croissance, 2010) montrent que lorsqu’une économie est en rattrapage et qu’elle se situe loin de la frontière technologique, la stratégie la plus efficace est celle de l’imitation des technologies existantes. Dans ce contexte, la structuration du système productif en grandes firmes sur des marchés oligopolistiques (aéronautique, sidérurgie, énergie, banque, etc.), le cas échéant soutenues par les pouvoirs publics, est effectivement justifiée. C’est ******ebook converter DEMO Watermarks*******

le cas de l’économie française et des autres économies européennes durant les Trente Glorieuses (mais aussi du Japon ou plus tardivement de la Corée du Sud par exemple). À partir des années 1980 et pour les pays qui se sont rapprochés de la frontière technologique, les politiques structurelles sont profondément remaniées et l’idée du caractère central de la politique de la concurrence s’impose progressivement (création du Conseil de la concurrence en France en 1986, remplacé en 2004 par l’AdC, renforcement du droit et de la politique de la concurrence en Europe avec le Traité de Lisbonne en 2009). Les travaux d’E. Combe enseignent à ce titre que la politique de la concurrence est essentielle dans la mesure où elle crée les conditions d’une plus grande efficacité économique dans tous les secteurs et pour tous les agents : baisse des prix favorables aux consommateurs et aux entreprises, mais aussi stimulation des innovations, aide aux entreprises entrantes sur les marchés, élargissement de la taille des marchés, etc. Il s’agit donc d’une politique par nature structurelle qui n’a pas vocation à être infléchie en fonction des fluctuations économiques. Combe s’appuie notamment sur le cas du marché aérien des « low cost ». Des études empiriques montrent que depuis près de 20 ans en Europe l’intensification de la concurrence sur ce marché a conduit à des baisses significatives de prix, mais également à davantage de ponctualité sur les vols (hausse de la qualité du service) ou encore à des gains de productivité qui ont pu s’articuler avec une stabilité de l’emploi dans le secteur. Pour autant, les autorités de la concurrence veillent à ce que les firmes qui ont pu bénéficier de la chute des barrières à l’entrée ne soient pas incitées à leur tour à mettre en œuvre des stratégies collusives ou de concentrations abusives. C’est pourquoi, par exemple, la fusion de Ryanair et d’Aer Lingus en Irlande en 2007 a été finalement interdite par la Commission européenne. De même, l’arrivée en 2011 en France d’un 4e opérateur sur le marché de la téléphonie cellulaire (Free) a conduit à des baisses significatives de prix et à une recomposition du paysage (fin 2017, Free détient près de 23 % de parts de marché de ce secteur !). Malgré cela, la politique de la concurrence a parfois mauvaise presse. Dans le débat public, elle est souvent perçue comme un moyen de justifier des politiques de libéralisation des marchés dans un contexte de faible croissance potentielle, de recul du périmètre des services publics et d’un creusement des inégalités d’accès à ces services. Ce débat est par exemple relancé en France en 2018 avec le dossier de l’ouverture à la concurrence du ******ebook converter DEMO Watermarks*******

rail et de la privatisation de la SNCF. Parmi les arguments mobilisés, se pose notamment la question de l’avenir des « petites lignes » interurbaines. À ce propos, les analyses de J.-L. Gaffard montrent qu’il n’y a pas lieu de faire un faux procès à la politique de la concurrence sous réserve que celle-ci soit efficacement articulée avec d’autres politiques structurelles et avec la politique industrielle en particulier. Or, en Europe notamment, c’est bien la politique industrielle qui fait défaut actuellement et qui est à l’origine d’un creusement des écarts en matière de performances économiques structurelles entre les pays membres. En France en particulier, le système productif est caractérisé par la faiblesse des entreprises de taille intermédiaire et par une hypertrophie des secteurs oligopolistiques. Or, comme le rappellent Aghion et Howitt, lorsqu’une économie est proche de la frontière technologique, l’incitation à l’innovation est plus forte lorsque l’intensité de la concurrence est vive (firmes au « coude à coude »). C’est ce qui caractérise par exemple le système productif allemand ou certains secteurs de l’économie américaine (Sillicon Valley) et fait défaut en France. Gaffard montre à ce propos qu’une politique industrielle horizontale, c’est-à-dire transectorielle et qui ne se limite pas à subventionner des « champions nationaux », est essentielle pour fournir des incitations aux firmes (enseignement supérieur de qualité, formation des salariés dans les bassins d’emploi, pôles de compétitivité, recherche publique ambitieuse, etc.) et ainsi permettre une convergence productive réelle entre les pays d’Europe là où jusqu’à présent les institutions européennes s’en tiennent à des discours d’intention (échec de la Stratégie de Lisbonne depuis 2000) et où les États membres se montrent peu actifs sur leurs territoires. Toutefois, l’articulation de la politique industrielle avec la politique de la concurrence implique aussi d’admettre l’existence nécessaire de distorsions dans la concurrence. Gaffard rappelle à ce titre que la concurrence n’est pas un « état des affaires » qu’il conviendrait de surveiller ; elle est un processus au cours duquel les firmes installées peuvent être défiées par de nouveaux concurrents dans un contexte où l’information se diffuse progressivement et où les décisions sont prises sur la base d’anticipations diverses. En fin de compte, les enseignements d’Hayek trouvent ici une nouvelle actualité : les politiques structurelles sont inefficaces si elles ne cherchent qu’à rapprocher l’économie des conditions de la concurrence parfaite (comme sont souvent tentés de le faire les tenants des politiques libérales dites « de l’offre ») ; elles gagneront en efficacité en créant un contexte incitatif aux innovations et en ******ebook converter DEMO Watermarks*******

validant certaines restrictions à la concurrence ou pratiques monopolistiques qui permettent aux entreprises d’acquérir des informations de marché et ainsi de stimuler la croissance économique potentielle. Conclusion Si la théorie économique enseigne bien que les marchés concurrentiels conduisent à plus d’efficacité, la question de la stimulation de la concurrence suscite de nombreux débats : mettre en œuvre des dispositifs qui conduisent à se rapprocher de la CPP, rendre possible une concurrence praticable, justifier la concentration du système productif en cas de rendements croissants, lutter contre les monopoles et les collusions mais aussi prendre acte du fait que la concurrence est un processus impliquant des distorsions qui sont sources de croissance. Dans son ouvrage Les habits neufs de la concurrence (2018), F. Lévêque montre que si les marchés concurrentiels changent progressivement de forme avec l’approfondissement de la mondialisation (arrivée de nouveaux acteurs sur fond d’ubérisation des économies), il y a toutefois des raisons de penser que le degré d’intensité de la concurrence tend aujourd’hui à se réduire du fait du pouvoir de marché parfois considérable que certaines firmes ont réussi à se constituer. Cela s’explique par le fait que l’élargissement des marchés dans l’économie mondiale a des effets contradictoires : si, d’une part, il augmente le volume de la demande et accroît sa diversité, il conduit aussi et surtout à des processus de concentration assortis d’instauration de nombreuses barrières à l’entrée (rendements d’échelle croissants, propriété intellectuelle, pratiques collusives). En fin de compte, face au pouvoir des grands groupes comme notamment les GAFAM, c’est bien la question politique de régulation et de contrôle dans un cadre démocratique du système capitaliste moderne qui reste posée.

******ebook converter DEMO Watermarks*******

Sujet

5 Risque de crédit et instabilité financière

1

Se préparer à la rédaction

1.1 L’enjeu du sujet La crise financière qui a commencé en 2007 et qui produit toujours des effets négatifs sur l’économie mondiale a conduit, parmi les économistes et les responsables de la politique économique, à une intensification de la réflexion sur l’instabilité financière et sur les moyens de la réduire de sorte que la « stabilité financière » apparaît aujourd’hui comme un objectif à part entière de la politique économique. Dès le G20 de Londres, en avril 2009, la décision est prise de mettre en place un Conseil de la stabilité financière. L’objectif de cette institution qui rassemble à la fois des régulateurs nationaux et des organisations internationales est d’analyser les vulnérabilités des systèmes financiers et de coordonner les actions destinées à favoriser une plus grande stabilité financière. En dépit des réformes mises en œuvre visant à renforcer les mesures micro et macro prudentielles, dix ans après la crise, des voix se font entendre qui s’inquiètent de la survenance d’une nouvelle perturbation financière majeure. Comme l’écrit Paul Krugman : « les crises reviennent toujours » et il convient de se demander pourquoi. L’énoncé du sujet rapproche deux termes, celui de « risque de crédit » et celui « d’instabilité financière » sans poser de question explicite. Il revient donc à l’auteur de la dissertation de formuler une question qui sera le cœur de sa problématique. Compte tenu de la littérature scientifique sur le sujet, on peut penser que le risque de crédit est une cause majeure de l’instabilité financière. Il conviendra donc d’analyser les relations causales entre ces deux phénomènes. Sur cette base, la question qui se pose inévitablement est celle ******ebook converter DEMO Watermarks*******

de la réduction de l’instabilité ​financière qui peut être rendue possible par une meilleure compréhension de ses causes.

1.2 Le cadrage et les concepts clés Le sujet ne porte pas sur une période historique particulière mais il convient, afin de le traiter de manière rigoureuse, de le mettre en perspective en procédant par comparaison. On peut se reporter à l’instabilité financière de la période antérieure à 1914, des troubles financiers de l’entre-deux-guerres, de la stabilité financière de la période 1945-1965, l’amplification de l’instabilité financière depuis les années 1970 et bien sûr les krachs financiers mondiaux de 1987 et 2007. On a donc l’embarras du choix. Il faut seulement choisir des exemples judicieux. Le risque de crédit est un cas particulier de risque de contrepartie. Ce dernier porte sur la probabilité que le cocontractant fasse défaut au moment du dénouement d’un contrat. Le risque de contrepartie devient risque de crédit lorsque ce contrat porte sur une opération de crédit. De manière plus large, le risque de crédit inclut le risque de marché, le risque de liquidité et le risque opérationnel. L’instabilité financière désigne pour sa part des déviations cumulatives des prix des actifs financiers par rapport à leur valeur fondamentale. Cela se traduit par des hausses ou des baisses cumulatives sur les marchés d’actions, sur les marchés de taux ou sur le marché des changes (gonflement puis éclatement de bulles spéculatives). L’instabilité financière peut aussi se manifester sur les marchés d’actifs et sur les institutions financières (banques, compagnies d’assurance, fonds d’investissement notamment). Dans ce cas, on peut assister à des faillites (éventuellement en cascade) de ces institutions qui résultent parfois de « course au guichet » (Bank Run).

1.3 La construction de la problématique En principe, le système financier (banques et marchés) sait gérer le risque de crédit. Il s’agit même de l’une de ses fonctions essentielles. Dès lors, la question se pose de savoir pourquoi, au cours de certaines périodes, le risque de crédit augmente et conduit à un accroissement de l’instabilité financière et donc à la multiplication des crises financières. Si la relation causale entre risque de crédit et instabilité financière est établie, il convient alors de se demander comment il est possible de réduire l’instabilité financière ******ebook converter DEMO Watermarks*******

notamment par le recours à des politiques prudentielles qui permettent de limiter la montée du risque de crédit.

2

Rédiger le devoir : une proposition

Introduction En décembre 2018, dans l’une de ces notes d’analyse économique, P. Artus souligne que la finance tend à devenir plus grosse et plus risquée et il ajoute qu’il serait illusoire de croire qu’elle pourrait devenir plus petite et moins risquée. L’explication réside, selon lui, dans le fait qu’il existe au niveau mondial une épargne abondante, tandis que les épargnants souhaitent un risque limité et une forte liquidité de leurs placements et que les investissements à financer supposent des ressources longues et sont associés à un risque important (nouvelles technologies, transition énergétique, etc.). Il y a là en effet une explication de l’explosion de la finance par rapport à la croissance économique en volume depuis la fin des années 1970. Banques et marchés doivent opérer des montages financiers complexes pour rendre compatibles les attentes des épargnants et celles des investisseurs. Mais cette explication, qui repose sur une analyse en termes de marché des fonds prêtables, est partielle. Elle ne prend pas en compte l’instabilité endogène de la finance qui résulte des effets d’un cycle financier largement lié à l’accroissement périodique du risque de crédit. Dans le cadre d’un paradigme qui emprunte des éléments d’analyse à J. A. Schumpeter (importance de la monnaie de crédit), à J. M. Keynes (rôle des anticipations et des « esprits animaux ») et à H. Minsky (hypothèse d’instabilité financière), l’instabilité financière est inhérente à une économie capitaliste financiarisée. Il convient donc de s’interroger sur les liens entre risque de crédit et instabilité financière. Par risque de crédit, au sens large, on entend le risque de voir un, plusieurs ou un grand nombre d’acteurs du système financier faire défaut sur leur dette ou être dans l’incapacité de respecter leurs engagements (par exemple ne pas livrer à l’échéance prévue les liquidités ou les devises que l’on s’était engagé à livrer dans le cadre d’un contrat à terme). Le risque de crédit, dans le sens que nous adoptons ici, est un risque de contrepartie (le partenaire au contrat est victime d’illiquidité et/ou d’insolvabilité) qui se manifeste sur le marché du crédit. Il inclut le risque de marché (variation ******ebook converter DEMO Watermarks*******

importante du cours des titres, des devises, des taux d’intérêt, qui place les opérateurs dans l’incapacité de respecter leurs engagements), le risque de liquidité (qui résulte d’une brutale contraction de la liquidité de marché du fait d’une crise de confiance) et enfin le risque opérationnel (qui résulte d’une erreur humaine ou d’une défaillance technologique, intentionnelle ou non). On le voit, les opérations financières (crédits bancaires ou recours aux marchés financiers) sont intrinsèquement risquées, elles mettent en relation des agents économiques qui n’ont pas le même degré d’aversion pour le risque et qui sont le plus souvent en situation d’asymétrie d’information. Mais en principe, le système financier sait comment gérer les risques et comment se protéger contre les risques. Ce qui importe donc ce sont les risques excessifs que les banques ou les marchés prennent et surtout les effets de contagion qui conduisent à un risque systémique. L’instabilité financière, quant à elle, désigne des déviations cumulatives des prix des actifs financiers par rapport à leur valeur fondamentale. Elle se manifeste par la récurrence des crises financières qui se produisent sur les marchés des changes, sur les marchés boursiers et qui se traduisent parfois par des faillites bancaires. Une première question se pose donc : comment le risque de crédit conduit-il à une instabilité financière (I) ? Si cette relation est établie, il faut alors s’interroger sur les moyens qui permettraient de stabiliser un système économique intrinsèquement instable (II). I. La dette, le boom, la crise Le schéma explicatif de l’instabilité financière peut être résumé en trois termes qui constituaient le titre d’un livre de V. Levy-Garboua et G. Maarek (1985). La dette est le point de départ. Quand la situation économique est satisfaisante (croissance soutenue, faible inflation, faible taux d’endettement des entreprises et des ménages), on assiste à un gonflement des taux d’endettement qui alimente la consommation et la production, et qui favorise la pleine utilisation des facteurs de production. Dans un second temps, la croissance débouche sur un « boom », c’est-à-dire sur une période de surchauffe de l’économie (la croissance effective est supérieure à la croissance potentielle). Cette phase de surchauffe se traduit par une augmentation du prix des actifs. À un certain moment on assiste à un retournement à la baisse. Les prêteurs (banques, épargnants) s’inquiètent de la montée de l’endettement. Les prix des actifs baissent, les agents tentent alors de se désendetter, ce qui aggrave la situation : on est passé du boom à la ******ebook converter DEMO Watermarks*******

crise. C’est ce que l’on appelle le cycle du crédit qui voit alterner des phases ​d’euphorie et des phases de détresse financières. Pour rendre compte de ce mécanisme, il faut distinguer deux choses : le mécanisme qui con​duit à l’apparition et au gonflement des bulles spéculatives (A), puis le mécanisme qui conduit à l’éclatement des bulles (B). A. Le paradoxe de la tranquillité et le gonflement des bulles spéculatives Les mécanismes qui conduisent à l’aggravation du risque de crédit ont notamment été analysés par l’économiste postkeynésien H. Minsky. Celui-ci parle d’un paradoxe de la tranquillité car c’est au cœur des périodes où la situation économique est prospère et la situation financière stable que se créent les conditions du déclenchement d’une crise financière. Minsky montre que pendant la période de tranquillité, le taux d’endettement augmente. En effet, ménages et entreprises étant peu endettés, ils sont conduits à solliciter des crédits pour consommer ou investir et les organismes financiers accordent facilement ces crédits car ils considèrent que le risque de crédit est limité. Dans un premier temps, il s’agit de ce que Minsky appelle un financement prudent (les revenus ou les gains en capital générés par l’utilisation des emprunts permettent de rembourser le capital emprunté et payer les intérêts). Dans un climat d’optimisme quant à l’avenir économique, les emprunteurs et les banques passent progressivement à un financement spéculatif (les revenus ou les gains en capital tirés de l’utilisation des emprunts permettent de payer les intérêts mais pas de rembourser le capital, les emprunteurs doivent donc souscrire un nouveau crédit à l’échéance pour rembourser). Enfin, la recherche par les prêteurs de l’extension de leur clientèle conduit progressivement à une proportion croissante de crédits qui relèvent du financement Ponzi (les revenus ne permettent de payer ni les intérêts, ni le capital). Le passage d’un mode de financement à l’autre se traduit par une montée du risque de crédit. Comment expliquer cette euphorie spéculative qui est aussi une course à l’abîme (aveuglement au désastre) ? Le cœur de l’explication se trouve dans le mécanisme de l’accélérateur financier. Dans la période d’euphorie et d’octroi généreux du crédit, le prix des actifs (immobiliers et financiers notamment) augmente. Cela produit donc, du point de vue des emprunteurs, un effet de richesse positif. Tant que les anticipations sont haussières, les agents sont donc incités à emprunter afin ******ebook converter DEMO Watermarks*******

d’acquérir de nouveaux actifs et de bénéficier de la plus-value qui découle de la hausse des prix. Du côté des prêteurs, le fait que les emprunteurs disposent d’un patrimoine dont la valeur augmente, cela constitue une garantie contre le risque de défaut (c’est particulièrement vrai dans le cas de crédits hypothécaires). La hausse du prix des actifs est donc autoentretenue et elle explique le processus de bulles spéculatives. Le krach boursier de Wall Street d’octobre 1929 est le résultat de ce type de processus : des couches de plus en plus larges de la population achetaient à crédit auprès des brokers des actions cotées sur le New York Stock Exchange. Quelques mois plus tard, ils revendaient ces actions avec une plus-value qui leur permettait de rembourser le crédit, de payer les intérêts et d’accroître leur patrimoine. Cela conduisait à emprunter à nouveau et à se porter acheteurs sur le marché boursier. Le gonflement de la bulle immobilière aux États-Unis qui a précédé la crise de 2007-2008 relève de la même logique. Cet exemple permet de mettre en évidence trois composantes essentielles de la montée du risque de crédit. D’une part, les banques, à la recherche d’un accroissement de leur part de marché, ont été conduites à accorder des crédits à des clients qui constituaient de « mauvais risques ». Il s’agit des fameux « Ninja » (No income, no job, no asset) qui bénéficiaient de crédits « subprime », alors que les « bons risques » bénéficiaient de crédit « prime ». D’autre part, le fait que des organismes liés à l’État (Freddie Mae et Fannie Mac) apportaient leur garantie et refinançaient les crédits hypothécaires conduisait les banquiers à sous-estimer les risques, enfin l’adoption du modèle « originate and distribute » permettait aux banques d’initier le crédit (originate) puis de revendre le risque (distribute) grâce à la titrisation. On voit par là que des stratégies individuelles rationnelles, y compris des stratégies visant à se protéger des risques, ont pour effet émergent d’accroître le risque systémique qui n’est pas pris en compte par les agents individuels. Cette montée du risque est donc inhérente au fonctionnement d’une économie capitaliste au sein de laquelle la sphère financière joue un rôle essentiel. Elle débouche sur une plus grande vulnérabilité à l’éclatement de crises et donc à une plus grande instabilité. B. De l’euphorie à la panique : l’éclatement des bulles spéculatives L’économiste Ch. Kindleberger a intitulé son livre sur l’histoire des crises financières Manias, Panics and Crashes (1978). « Manias » signifie en ******ebook converter DEMO Watermarks*******

anglais « folie » ou « fureur ». Mais cette phase d’euphorie résultant de comportements mimétiques ne doit pas être expliquée par des comportements irrationnels. Les stratégies des agents sur le marché du crédit comme sur les marchés financiers sont parfaitement rationnelles. Elles conduisent toutefois à la montée du risque de crédit et à un éloignement cumulatif du prix des actifs par rapport à leur valeur fondamentale. Cette hausse des cours des titres, des taux de change, des prix des matières premières et/ou des actifs immobiliers ne peut durer éternellement. Il vient toujours un moment où les anticipations se retournent à la baisse. On a pris l’habitude de parler du « moment Minsky » pour désigner cette période où les anticipations haussières se transforment en anticipations baissières. Prenons l’exemple de la crise de 1987, considérée à l’époque comme la principale crise depuis 1929. Entre 1979 et 1985 la valeur du dollar sur les marchés des changes ne cesse de s’apprécier du fait du changement de la politique monétaire des États-Unis qui provoque une hausse importante des taux d’intérêt américains et de la confiance qu’inspire la politique économique du président Reagan aux milieux financiers. Mais il apparaît dès le début des années 1980 que la bulle spéculative sur le marché des changes conduit à une surévaluation du dollar nuisible à l’économie américaine. Cette bulle sur le marché des changes en provoque une autre sur les marchés financiers puisque les placements en provenance du reste du monde alimentent la hausse du cours des obligations et des actions. En 1985, conscients de cette montée du risque, les autorités monétaires et les gouvernements des grandes puissances économiques s’efforcent d’organiser un atterrissage en douceur du dollar (soft lending) entre 1985 (accord du Plaza) et 1987 (accord du Louvre). Mais à l’automne 1987, un désaccord public entre les autorités monétaires allemandes et le secrétaire au Trésor américain déclenche une crise de confiance, une chute brutale du dollar et un effondrement des cours boursiers. C’est le « moment Minsky » de cette crise. En 1997, la crise asiatique est déclenchée par la révélation de l’effondrement des réserves de change de la Thaïlande qui déclenche une sortie massive de capitaux (Fly to Quality). De manière analogue, en 2007 c’est la fermeture de deux fonds de placement spécialisés dans le placement de produits structurés incluant des crédits hypothécaires qui amorce la crise amplifiée par la faillite de Lehman Brothers (septembre 2008). À l’origine de chaque grande crise financière se trouve un évènement singulier qui provoque un retournement des anticipations à la suite d’une ******ebook converter DEMO Watermarks*******

période de « boom » qui a conduit à une hausse excessive du prix des actifs. Dès lors, l’accélérateur financier joue à la baisse : la valeur des actifs baisse, les banques contractent leurs crédits (Credit Crunch), les agents cherchent à se désendetter en vendant leurs actifs en catastrophe, ce qui provoque une accentuation de la baisse des cours. Ce processus de déflation par la dette avait déjà été analysé en 1933 par Irving Fisher. La crise de surendettement conduit à une chute du prix des actifs et à une chute du niveau général des prix qui entraîne un paradoxe : plus les individus se désendettent et aggravent de ce fait la baisse des prix, plus la dette réelle des agents augmente. Cela est susceptible de conduire à des paniques bancaires et donc à des faillites en chaîne des banques. La crise de 2007-2008 présente de ce point de vue une originalité, elle est la première crise d’une économie financiarisée au niveau mondial. Depuis le début des années 1980 on a déréglementé les activités financières, on a libéralisé les mouvements de capitaux, on a décloisonné les activités financières (les séparations entre banques d’affaire et banques de dépôt, entre banque et assurance, entre financement bancaire et financement de marché ont été remises en cause). De ce fait un vaste marché mondial des activités financières s’est constitué. Comme le rappelle M. Aglietta, au début des années 1980 le commerce mondial comme le montant des actifs financiers étrangers représentaient chacun environ 20 % du PIB mondial. Trente ans après, le commerce mondial représente toujours environ 20 % du PIB mondial, mais les actifs financiers étrangers représentent 180 %. Cette mesure, parmi d’autres, de la financiarisation croissante de l’économie, permet de comprendre l’ampleur de la montée de l’endettement public et privé au niveau mondial. Or, cette montée de la dette est aussi une montée du risque de crédit. De plus, de nombreux travaux ont mis en évidence une corrélation positive entre la taille de la finance et la fréquence des crises financières. Il convient donc de s’interroger sur les moyens de limiter à la fois la montée du risque financier et l’instabilité financière. II. Limiter le risque de crédit, maîtriser l’instabilité financière Au lendemain de la crise de 2007-2008, le Cercle des économistes publie un ouvrage intitulé Le monde a-t-il encore besoin de la finance ? La question méritait d’être posée à la suite d’un séisme d’une telle ampleur. La réponse était en substance : oui, le monde a besoin de la finance, mais à condition qu’elle soit bien régulée. Il faut rappeler en effet que la finance exerce des ******ebook converter DEMO Watermarks*******

fonctions essentielles dans les économies développées : une fonction de transfert de richesse dans le temps (l’épargne retraite par exemple), une fonction de gestion du risque (à travers les opérations à terme ou des contrats d’assurance), une fonction de mise en commun des richesses (à travers l’émission d’actions ou d’obligations pour financer des investissements privés ou publics), une fonction de production et de diffusion de l’information (à travers les cours des titres, les taux de change ou les taux d’intérêt qui sont des signaux-prix). Sauf à imaginer un monde où les agents n’auraient recours qu’à l’autofinancement et à la thésaurisation, la finance est indispensable. Mais parce qu’elle est indispensable et que ses éventuels dysfonctionnements affectent l’ensemble de l’économie, elle doit être régulée au niveau des acteurs individuels de la finance par une politique microprudentielle qui suppose à la fois une supervision et des procédures de résolution (A) et au niveau de l’ensemble de l’économie par une politique macroprudentielle (B). A. La politique microprudentielle Pendant la période qui s’étend de la grande crise des années 1930 (adoption de la séparation bancaire dans le cadre du Glass-Steagall aux États-Unis en 1933) au début des années 1970, l’activité des banques est soumise à une règlementation stricte de la part des autorités nationales. Plusieurs études conduites aux États-Unis mettent l’accent sur le lien entre cette règlementation et le niveau élevé de stabilité financière. À partir du début des années 1990, l’idée s’impose qu’il faut laisser une plus grande latitude aux banques et au fonctionnement des marchés financiers pour assurer un financement plus dynamique des économies. Il faut pour cela dérèglementer les activités financières et, en même temps, inciter les banques à renforcer leurs contrôles internes des risques et faire jouer davantage la discipline de marché. Pourtant, dès 1974, à la suite de la faillite de la banque Herstatt en Allemagne, les banques centrales décident de mettre en place, dans le cadre de la Banque des règlements internationaux, le Comité de Bâle dont les activités vont conduire dans le cadre du dispositif dit « Bâle I » à l’instauration du ratio Cooke (qui impose le respect d’un rapport de 8 % entre les fonds propres de chaque banque et le total de ses engagements pondérés par les risques). Progressivement, du fait même de la récurrence des crises, on constate la volonté de renforcer les mesures microprudentielles afin de réduire le risque de crédit au niveau de chaque banque pour protéger les ******ebook converter DEMO Watermarks*******

clients (déposants ou emprunteurs). Cette politique microprudentielle repose, pour l’essentiel, sur les éléments suivants. En premier lieu, elle implique une surveillance de la solvabilité et de la liquidité. Dans cet objectif des ratios de fonds propres et de liquidité sont instaurés. Ces ratios visent à mettre les banques en situation de résister à des difficultés éventuelles. En deuxième lieu, elle implique de limiter l’effet de levier, c’est-à-dire le rapport entre le montant total des crédits accordés et les capitaux propres des banques et des autres institutions financières. On sait en effet que, pour un taux d’intérêt donné, la rentabilité des banques est proportionnelle à l’effet de levier. Elles ont donc intérêt à financer par leur propre endettement les crédits qu’elles accordent. Il est donc nécessaire qu’une règlementation limite l’ampleur de l’effet de levier. En troisième lieu, elle conduit à lutter contre le phénomène d’aléa moral. D’une part, certaines banques bénéficient d’une garantie publique, d’autre part, les diverses institutions bancaires et financières ont tendance, dans la période d’euphorie, à sous-estimer les risques qu’elles prennent notamment en procédant à des opérations de transformation d’échéances trop importantes (financer par des emprunts sur des échéances courtes, des prêts sur des échéances longues). La solution consiste à fixer des règles de résolution bancaire qui privilégient le « bail in », c’est-à-dire le fait que ce sont les actionnaires de la banque et les déposants les plus importants qui supportent le coût d’une éventuelle faillite et non les finances publiques. En quatrième lieu, elle implique de lutter contre l’arbitrage règlementaire. Par exemple, le renforcement de la règlementation des banques peut inciter à développer le shadow banking. La solution ici est d’étendre le champ de la règlementation à la finance de l’ombre et aux activités « hors bilan » des banques. Enfin, elle vise à séparer les activités bancaires. C’est ce qui a été réalisé au États-Unis avec la règle Volcker et en Grande-Bretagne avec la règle Vickers. Sans obliger les groupes bancaires à se scinder en entités indépendantes, ces règles consistent à cantonner dans une entité spécifique les activités de banques d’investissement (règle Volker) ou les activités de banque de dépôt (Règle Vickers). Dans les deux cas on évite la contagion entre les deux types d’activités et la garantie de la puissance publique ne bénéficie qu’aux activités de banque de dépôt. On le voit, les mesures microprudentielles sont nombreuses. C’est leur mise en place et leur renforcement qui étaient au cœur des politiques publiques à la suite des accords de « Bâle 1 » et de « Bâle 2 ». Mais depuis la ******ebook converter DEMO Watermarks*******

crise asiatique de 1997-1998 et plus encore depuis la crise de 2007-2008, les réflexions des économistes et, dans une moindre mesure, les politiques publiques mettent l’accent sur le risque systémique et les politiques macroprudentielles. B. La politique macroprudentielle Le recours aux politiques macroprudentielle constitue, selon A. Cartapanis, un changement de paradigme qui repose notamment sur l’idée que la stabilité financière est un bien collectif. Il ne s’agit donc pas seulement de protéger les intérêts des épargnants ou des emprunteurs clients de telle ou telle banque, mais d’empêcher la survenance de crises systémiques qui sont intrinsèquement liées au caractère endogène du risque de crédit. De plus, ce qui est en jeu, ce n’est pas le sort de tel ou tel marché ou de telle ou telle institution financière, mais les effets de la crise financière éventuelle sur la production en volume des économies concernées. Le risque de défaut d’une institution financière n’est pas seulement lié à l’agrégation de ses diverses prises de risque dans ses relations avec sa clientèle, mais il dépend aussi de la situation d’ensemble du système financier et, plus largement encore de la situation macroéconomique globale. Par exemple, une chute du prix des actifs (crise boursière, crise immobilière) est susceptible d’affecter la qualité des créances détenues par toutes les institutions financières. De même, un choc macroéconomique important peut conduire les banques à ne plus prêter les liquidités dont elles disposent aux autres banques avec le risque de survenance d’une crise de liquidité. Bien mieux, le comportement prudent des banques les plus liquides qui décident de placer en titres publics non risqués leurs avoirs en monnaie centrale, permet à ces banques de limiter leur propre exposition au risque, mais conduit dans le même temps à un assèchement brutal de la liquidité des marchés dont elles peuvent être victimes alors qu’au niveau individuel leur comportement apparaît comme prudent. La finalité de l’approche macroprudentielle n’est pas seulement d’assurer la résilience des institutions financières prise individuellement, ni d’assurer la stabilité du système financier dans son ensemble, mais aussi de faire en sorte que des difficultés financières ne conduisent pas à une contagion au sein de la sphère réelle. Il importe en premier lieu, dans le cadre de l’approche macroprudentielle, d’analyse les canaux de transmission du risque entre les banques et autres institutions financières. Le premier canal résulte d’une ******ebook converter DEMO Watermarks*******

exposition directe dans le cas où, par exemple, une banque est créancière d’une autre dans le cadre de prêts bilatéraux. Si la banque débitrice est en difficulté ou si elle fait défaut, la banque créancière subit les effets d’un risque de contrepartie. Elle va devoir provisionner son bilan pour compenser les pertes qui affectent ou sont susceptibles d’affecter une partie de son actif. Le second canal résulte d’une pénurie de refinancement. Une banque solvable et liquide en situation normale, puisqu’elle détient des actifs qui lui permettent de servir de collatéral à des emprunts de liquidité, peut ne pas trouver ces liquidités sur le marché en raison d’une brusque montée de la défiance. Enfin, une banque peut être victime du fait que d’autres banques réalisent des ventes massives d’actifs parce qu’elles sont en situation de détresse. Il va en découler une baisse de la valeur des actifs qui affecte aussi les banques qui ont pris peu de risque au niveau individuel. L’analyse des risques de contagion entre banques permet d’identifier des banques d’importance systémique et donc de les soumettre à une supervision particulièrement vigilante. Dans le même temps, puisqu’elle prend en compte l’analyse d’ensemble de la situation macroéconomique, l’approche macroprudentielle doit analyser la situation de l’économie au regard du cycle des affaires. On sait en effet que c’est à la fin de la phase haussière du cycle que la spéculation se développe et que la prise de risque s’accroît en même temps que le surendettement progresse. C’est largement en raison du défaut de surveillance macroprudentielle que la crise asiatique de 1997 et la crise des subprimes de 2007 sont survenues. Dans le premier cas, les autorités monétaires nationales et internationales n’ont pas pris en compte le fait que l’infrastructure financière n’était pas adaptée à l’afflux massif de capitaux qui a caractérisé la période antérieure à la crise. De plus, l’affaiblissement des réserves de change des pays concernés (notamment la Thaïlande) n’a pas été pris en compte. Ce n’est que tardivement que ce déséquilibre macroéconomique a été perçu par le FMI, au moment où les sorties massives de capitaux s’amorçaient. S’agissant de la crise de 2007, les autorités monétaires surveillaient essentiellement la stabilité des prix, l’objectif de l’accroissement de 2 % du niveau général des prix étant respecté, elles n’ont pas pris en compte l’augmentation du prix des actifs et le risque d’instabilité financière que cette hausse comportait. Enfin, comme l’a déclaré A. Greenspan après la crise, les autorités monétaires des États-Unis (mais d’autres aussi sans doute) comptaient sur la discipline de marché pour imposer aux banques des ******ebook converter DEMO Watermarks*******

comportements individuels prudents. S’il n’en a rien été c’est que la montée du risque de système n’a pas été perçue par les participants au marché du crédit et aux marchés financiers. Dans cette perspective, plusieurs types de mesures peuvent être mis en place. D’une part, la surveillance du cycle financier, d’autre part, la mise en place de « coussins de fonds propres » contracycliques et/ou liés au risque systémique. Les banques centrales peuvent donc exiger que le rapport entre les fonds propres et les engagements des banques soit plus important quand le risque systémique s’accroît, et/ou en phase haute du cycle financier. Le but est d’inciter les banques à octroyer moins de crédits quand le risque de surendettement devient plus important. De plus, en activant ces dispositifs, les autorités envoient un signal aux agents qui sont incités à modérer leur euphorie. Les autorités monétaires peuvent aussi produire une meilleure information statistique sur les risques de crédit et coopérer davantage (ce qui est rendu possible, par exemple, par la mise en place du Conseil du risque systémique en 2009 ou par l’intensification de la coopération au sein du Comité de Bâle). Au sein de l’Union européenne, la mise en place de « stress tests » sur l’ensemble des banques et la création de l’Union bancaire qui institue un cadre de supervision unique et une procédure de résolution unique en cas de crise bancaire sont une bonne illustration de la logique macroprudentielle. Conclusion Le risque de crédit est donc bien endogène. Il est inhérent au fonctionnement même d’une économie au sein de laquelle la finance occupe une place importante. Or, comme le soulignait déjà J. A. Schumpeter, le développement du capitalisme implique le financement à crédit d’une partie de l’accumulation. L’interaction entre les agents non-financiers d’une part, les banques et les marchés financiers d’autre part, fait naître un cycle du crédit qui se traduit par une aggravation du risque systémique au fur et à mesure que le taux d’endettement augmente. C’est ce cycle du crédit qui permet de comprendre le gonflement de bulles spéculatives dont l’éclatement conduit à la crise financière. L’existence d’une relation causale entre le risque de crédit et l’instabilité financière est solidement établie par une longue tradition théorique qui va de Marx à Minsky en passant par Wicksell, Keynes et Fisher. Mais cette instabilité financière n’est pas une fatalité. Comme le faisait remarquer ******ebook converter DEMO Watermarks*******

Minsky, l’existence d’une longue période de relative stabilité financière qui va des années 1930 aux années 1970 montre que des institutions judicieusement mises en place et des comportements financiers prudents sur la base de l’expérience peuvent contribuer à cette stabilité. Mais le « tournant libéral » de la fin des années 1970, le développement d’une confiance excessive dans l’efficience des marchés comme alternative à la règlementation jugée trop tatillonne, a conduit à une nouvelle période d’instabilité financière qui a culminé lors de la crise de 2007. Cela a mené à une réflexion autocritique chez les économistes et à un changement significatif de l’orientation de la politique économique visant à limiter la montée du risque (et donc le retour des crises). Il faut souligner cependant que si les responsables du système financier n’ont pas pu anticiper la crise et conjurer son éclatement, ils se sont montrés relativement efficaces pour en limiter l’impact sur l’économie mondiale. On n’a pas assisté à des faillites en chaînes des banques, ni a un effondrement durable du commerce mondial, ni à une déflation profonde et durable. À travers la politique monétaire non conventionnelle, les banques centrales ont joué à plein leur rôle de prêteur en dernier ressort. Mais un débat reste ouvert. Si certains économistes soulignent des inflexions importantes dans la gestion des risques et dans la régulation des systèmes financiers, d’autres considèrent que les changements décisifs ne sont pas intervenus (par exemple en matière de séparation bancaire ou en matière de limitation de l’effet de levier) et déplorent le fait que pour l’essentiel l’attitude « business as usual » l’ait emporté. Ils s’inquiètent d’une nouvelle montée des risques financiers et craignent la survenance d’une nouvelle crise financière.

******ebook converter DEMO Watermarks*******

Sujet

6 La croissance économique a-t-elle des limites ?

1

Se préparer à la rédaction

1.1 L’enjeu du sujet Deux interrogations centrales agitent aujourd’hui à la fois les économistes et les responsables politiques. D’une part, depuis la crise de 2007-2008 la reprise de l’économie est, au mieux, poussive. On n’a pas retrouvé la tendance de croissance antérieure à la crise. Cela concerne non seulement les pays développés (dont le Japon qui est en quasi-stagnation depuis le début des années 1990), mais aussi les pays émergents comme le montrent les situations de la Russie, du Brésil et de la Chine. D’autre part, les inquiétudes sur le réchauffement climatique, sur la destruction de la biodiversité et des écosystèmes renforcent l’idée d’une limite physique de la croissance (pénurie des matières premières, désertification, hausse du niveau des océans, etc.). La croissance semble donc bien buter contre des limites. L’un des dangers de ce sujet serait de l’aborder sur le registre des débats médiatiques et militants. Ce serait une erreur, par exemple, de centrer le devoir sur la question de la décroissance, parce que cette notion n’a pas de légitimité académique. En revanche, il existe de nombreux travaux autour de la question de la « croissance verte » ou de la « stagnation séculaire » qui peuvent être utilement mobilisés pour traiter ce sujet.

1.2 Le cadrage et les concepts clés L’histoire des faits et de la pensée économique nous enseigne que ces ******ebook converter DEMO Watermarks*******

interrogations ne sont pas nouvelles. Il faut donc éviter de se limiter aux débats contemporains. Il y a un grand intérêt, pour traiter ce sujet, à adopter une perspective historique longue car les débats anciens sur les limites de la croissance éclairent les débats actuels. Il faut aussi prendre en compte les différentes dimensions du sujet. Sans doute la plupart des candidats penseront d’abord aux questions environnementales, mais il ne faudrait pas oublier les aspects liés aux technologies et à l’innovation, les questions liées aux inégalités, celles qui concernent les politiques économiques. De nombreux champs de la science économique doivent donc être mobilisés et pas seulement les théories de la croissance. Le concept de croissance est bien sûr essentiel dans le sujet, le terme « limites » n’est pas un concept économique, on pourra donc retenir comme limites de la croissance tous les phénomènes qui peuvent ralentir le rythme de croissance et, dans certains cas, conduire à une croissance nulle voire négative.

1.3 La construction de la problématique La tentation est sans doute de faire un plan du type : oui elle a des limites, mais non elle n’en a pas (ou l’inverse). Un tel plan ne serait guère satisfaisant, car nul de conteste qu’il y ait des limites à la croissance (au moins à certains moments et dans certains espaces). Ce qui pose problème dans ce sujet, ce sont les arguments qui, au cours du temps, ont conduit des économistes, pourtant remarquables, à considérer que la tendance à la stagnation était inévitable. Leurs arguments ont été toutefois contestés et on a constaté ensuite une reprise ou une poursuite de la croissance. Cet historique des débats nous permet sans doute d’examiner les controverses contemporaines sur la stagnation séculaire. La problématique est donc la suivante : en quoi les débats conduits jadis à partir des thèses de Th. Malthus, D. Ricardo, A. Hansen et P. Sweezy nous permettent-ils d’éclairer la controverse naissante sur la stagnation séculaire ? Le plan adopté sera donc historique. De plus, tout en restant fermement ancré dans les savoirs savants de référence, la réponse à la question posée par le sujet suppose l’adoption d’un cadre d’analyse. Notre perspective sera donc la suivante : les limites de la croissance peuvent être surmontées si la croissance se transforme. Le point de vue selon lequel nous sommes entrés dans une nouvelle phase historique au cours de laquelle la croissance devient ******ebook converter DEMO Watermarks*******

durablement faible serait tout aussi acceptable.

2

Rédiger le devoir : une proposition

Introduction En septembre 2018, J. Stiglitz publie un article qui a un grand retentissement (“Beyond Secular Stagnation”). Il y affirme que la stagnation séculaire n’a rien de naturel ni d’inévitable. Pour lui, la croissance trop faible résulte d’une stimulation budgétaire insuffisante de l’économie et d’une régulation insuffisante du secteur financier. « La croissance est la religion du monde moderne » affirme de son côté D. Cohen (Le monde est clos et le désir infini, 2015). En effet, dit-il, elle apaise les conflits, elle est une promesse de progrès. Mais, affirme-t-il, la croissance matérielle s’éloigne, elle devient intermittente du fait des crises et elle menace la planète. Elle se heurte donc à des limites. Dans son livre de 2018 (Il faut dire que les temps ont changé), Cohen se réfère aux travaux de R. Gordon pour affirmer que la dynamique de croissance est parvenue à son terme. La croissance économique est, selon F. Perroux, l’augmentation sur longue période d’un indicateur du produit réel global (le plus souvent on utilise le PIB). Cependant, beaucoup d’économistes font aussi référence au produit par tête pour tenir compte à la fois de l’augmentation de la production et de l’augmentation de la population. À l’échelle de l’histoire de l’espèce humaine, la croissance économique est un phénomène récent. Au mieux, on peut parler de croissance à partir de 1750. Mais de cette époque (qui est celle de la Révolution industrielle) à nos jours, l’augmentation de la production totale et de la production par tête est spectaculaire (en particulier dans les pays qui sont les pionniers de cette Révolution industrielle). Pourtant, très tôt, des économistes s’inquiètent des limites de la croissance en mettant en avant une tendance vers l’état stationnaire. Le débat revient de façon récurrente, on le retrouve aujourd’hui avec le thème de la stagnation séculaire. Il est donc intéressant d’analyser les arguments avancés au cours des différentes étapes de ce débat. Dès le XIXe siècle, des controverses opposent les économistes sur le caractère soutenu de la croissance ou, au contraire sur la tendance à la stagnation (I). Au cours de la période contemporaine, le débat rebondit sans ******ebook converter DEMO Watermarks*******

pour autant se limiter aux questions environnementales : si les limites de la croissance sont réelles, elles peuvent toutefois être surmontées si la croissance se transforme (II). I. Les limites de la croissance : un débat qui vient de loin Les économistes classiques s’intéressent à la croissance, mais alors que certains, comme A. Smith adoptent un point de vue optimiste sur les possibilités d’une poursuite de la croissance, d’autres au contraire, comme Th. Malthus et D. Ricardo, s’inquiètent de ses limites (A). Le débat s’estompe au début du XXe siècle car les néoclassiques se concentrent sur la question de l’équilibre tandis que les enjeux liés à la dynamique économique à long terme sont considérés comme secondaires. Toutefois, le débat sur l’hypothèse stagnationniste ressurgit après la crise de 1929 (B). A. Les classiques pessimistes et l’état stationnaire La Révolution industrielle qui accélère la croissance économique est étroitement liée à la Révolution agricole et à la Révolution démographique (A. Landry). C’est la croissance démographique qui va susciter l’inquiétude de Th. Malthus (Essai sur le principe de population, 1798). Ce dernier considère que la population s’accroît selon une progression géométrique et les subsistances (production agricole) selon une progression arithmétique. Il y a donc une tendance vers une pénurie alimentaire qui se traduit par des famines et une hausse de la mortalité. Pour Malthus, cette « loi de population » est une loi naturelle qui s’impose à toutes les économies et à toutes les sociétés. Malthus considère que certains hommes n’ont pas leur place au « grand banquet de la nature » et que les lois sur les pauvres (adoptées en Grande-Bretagne entre le XVIe siècle et le XIXe siècle) aggravent la situation puisqu’elles encouragent l’accroissement de la population et donc le déséquilibre entre la population et les subsistances. D. Ricardo reprend à son compte cette loi de population et l’articule avec deux de ses contributions à l’analyse économique. D’une part, il met en évidence la loi des rendements décroissants en agriculture. Il part pour cela de l’idée simple selon laquelle les agriculteurs commencent par mettre en culture les terres les plus fertiles, puis, lorsqu’ils doivent augmenter la production, ils ont recours à la mise en culture de terres moins fertiles dont les rendements sont plus faibles. Chaque terre nouvellement mise en culture (terre marginale) est donc caractérisée par des rendements plus faibles que les ******ebook converter DEMO Watermarks*******

précédentes. D’autre part, Ricardo élabore une théorie de la répartition des revenus entre trois classes de la société : les ouvriers (qui perçoivent les salaires), les propriétaires fonciers (qui perçoivent les rentes foncières) et les industriels capitalistes (qui perçoivent les profits). Or, la rente est déterminée par les différences de rendements des terres. Il faut en effet que les vendeurs de blé des terres marginales perçoivent un prix au moins égal à leur coût de production. Comme le prix est le même pour tous les producteurs, les propriétaires de terres plus fertiles (puisque les rendements sont plus élevés) reçoivent une rente égale à la différence entre leur coût de production (faible) et le prix du marché (égal au coût de production de la dernière terre mise en culture). La conclusion de l’articulation de ces trois analyses (loi de population, loi des rendements décroissants et théorie de la répartition) est donc la suivante : lorsque la population augmente, on doit mettre en culture des terres moins fertiles, de ce fait la rente foncière perçue par les propriétaires fonciers augmente. Comme le montant des salaires dépend du coût des subsistances, il a tendance à augmenter et donc la part du profit dans la répartition des revenus diminue. Or, pour Ricardo ce sont les capitalistes (sur la base du profit) qui accumulent du capital et rendent ainsi possible la croissance. Si la part des profits diminue, l’investissement va devenir plus faible et, à terme, la croissance va s’interrompre : c’est l’état stationnaire. Cette thèse sera cependant démentie par les faits. Les analyses qui la fondent reposent sur une projection des situations observées par les auteurs. Par exemple, la tendance à l’explosion démographique qui découlerait de la progression géométrique de la population ne s’est pas produite : lorsque le niveau de vie et le niveau de l’éducation s’élèvent, les individus réduisent leur fécondité. Malthus suppose que la première phase de la transition démographique qu’il a sous les yeux va se poursuivre indéfiniment. Or, le taux de natalité se met à baisser fortement dans la seconde phase de la transition et le taux d’accroissement naturel diminue (spécifiquement en Grande-Bretagne). La même erreur de prévision concerne la fertilité des sols. Même si Ricardo a pris en compte le recours à l’importation de produits agricoles et le rôle des machines dans l’accroissement des rendements agricoles, il sous-estime l’accroissement spectaculaire des rendements agricoles lié au recours aux engrais, à l’accroissement de la taille des exploitations, à l’intensification de la production agricole. Il sous-estime aussi le changement des rapports de forces politiques en Grande-Bretagne en ******ebook converter DEMO Watermarks*******

faveur des industriels capitalistes et au détriment des propriétaires fonciers (réforme électorale de 1832, abrogation des Corn Laws de 1846 après sa mort en 1823). K. Marx est le premier à réfuter le caractère naturel de la loi de Malthus, il conteste l’idée de surpopulation absolue et insiste sur les potentialités du développement des forces productives dès lors qu’elles seraient affranchies des rapports sociaux capitalistes. Pour Marx, les limites à la croissance sont sociales et non pas naturelles. Il faut observer cependant qu’en dépit du démenti de l’histoire et des critiques historiques, les thèses malthusiennes conservent une influence jusqu’à aujourd’hui. B. Le débat des années 1930-1950 aux États-Unis : l’hypothèse stagnationniste Le débat sur les limites de la croissance (et plus précisément sur les perspectives de stagnation de l’économie) ressurgit après la Première Guerre mondiale et se poursuit pendant la totalité de l’entre-deux-guerres. Le premier protagoniste du débat est J. M. Keynes. Ce dernier développe successivement deux arguments contradictoires, mais liés à la démographie. D’une part, de la fin de la Première Guerre mondiale à 1936, Keynes adopte une position néomalthusienne : il considère que l’on ne peut pas bénéficier à la fois d’une croissance rapide de la population et d’une augmentation de la production par tête. Il y a donc de ce point de vue une limite démographique à la croissance. Keynes participe d’ailleurs en Grande-Bretagne à des campagnes en faveur de la limitation des naissances. À partir de 1937, Keynes modifie radicalement son argumentation : c’est une population déclinante qui menace la croissance économique du fait du vieillissement de la population, d’un excès d’épargne et d’une demande effective insuffisante. On se trouve donc encore en présence d’une limite démographique à la croissance, mais cette fois la limite tient à la croissance insuffisante voire à la décroissance de la population. Dans les deux cas, Keynes s’inspire de Th. Malthus, mais dans le premier cas il met l’accent sur la loi de population, dans le second cas sur les analyses de Malthus relatives à l’insuffisance de la demande effective. À partir de 1937, le débat sur les limites de la croissance connaît une nouvelle impulsion à l’initiative de l’économiste américain A. Hansen. Ce dernier bénéficie d’une grande influence pour avoir contribué à la diffusion des idées de Keynes aux États-Unis (il est à l’origine du schéma IS-LM avec ******ebook converter DEMO Watermarks*******

J. R. Hicks). Hansen occupe de nombreuses responsabilités tant sur le plan académique qu’auprès de l’administration fédérale. Son intervention dans le débat public est liée à une sévère rechute de l’économie américaine en 1937. Alors que le premier New Deal avait conduit à une relance de l’activité économique (1934-1937), l’année 1937 est marquée par une chute des cours boursiers, en 1938 le PIB baisse en valeur absolue ainsi que les revenus des ménages, le taux de chômage augmente. Cette rechute est largement liée au fait que l’administration fédérale a changé l’orientation de la politique économique donnant la priorité à la lutte contre le déficit budgétaire (hausse des impôts, baisse des dépenses), alors que la Réserve fédérale double les réserves obligatoires des banques. Hansen et les partisans de la thèse stagnationniste considèrent que l’accélération de la croissance provoquée par le premier New Deal n’a été que transitoire et que l’économie revient à sa tendance de long terme marquée par une croissance faible ou négative. Pour Hansen, trois évolutions structurelles expliquent cette tendance à la stagnation : le ralentissement des innovations technologiques, le fait que la croissance ne soit plus stimulée par la conquête de nouveaux territoires vers l’Ouest et le ralentissement de la croissance de la population. Ces trois évolutions concourent à une insuffisance de la demande adressée à l’économie, donc à la diminution des occasions d’investissement (l’activité de production devenant moins intensive en capital) et à un excès d’épargne. Hansen n’adopte pas une attitude fataliste à l’égard de cette tendance à la stagnation. D’une part, en bon keynésien, il propose de lutter contre les inégalités afin d’accroître la consommation. D’autre part, tout en précisant qu’il ne s’agit pas d’instaurer le socialisme, il indique que l’État doit se comporter comme une banque d’investissement. Il ne s’agit pas seulement, par une relance conjoncturelle, d’amorcer la pompe (Pump Priming) de l’investissement privé, mais de pratiquer ce que Keynes appelait de ses vœux à la fin de la Théorie générale de l’emploi, de l’intérêt et de la monnaie (1936), une large socialisation de l’investissement : l’État doit massivement et durablement investir lorsque l’investissement privé est structurellement insuffisant. Une contribution importante au débat est publiée en 1942 aux États-Unis par un jeune économiste : P. Sweezy. Ce dernier emprunte à la fois aux analyses de Keynes et Hansen sur la stagnation ainsi qu’aux analyses de Marx. Il considère que la stagnation est le produit à la fois d’une suraccumulation du capital et d’une crise de réalisation (manque de ******ebook converter DEMO Watermarks*******

débouchés du fait de la faiblesse des revenus salariaux). Ces tendances sont, selon lui, renforcées par le passage du capitalisme à une phase monopoliste (s’appuyant ici sur les travaux relatifs à la concurrence imparfaite). J. A. Schumpeter, bien que très proche de Sweezy sur le plan personnel, intervient dans le débat pour contester les thèses stagnationnistes et pour souligner le dynamisme des économies lié à l’innovation, à la concurrence et à la destruction créatrice. Schumpeter critique les thèses de la sousconsommation et de l’excès d’épargne et il souligne qu’en 1830 personne n’aurait pu prévoir les énormes occasions d’investissement offertes par le développement des chemins de fer et plus tard de l’électricité. Le débat ne va s’éteindre que progressivement (en 1946, un débat public oppose encore Sweezy et Schumpeter à Harvard). On le voit, de nombreux arguments en faveur de la thèse des limites de la croissance se manifestent très tôt dans l’histoire des débats économiques : limites naturelles (rendement des sols et démographie), limites technologiques (épuisement du progrès technique), limites liées à l’insuffisance de la demande globale (excès d’épargne, inégalités nuisibles à la consommation). Ces arguments apparaissent généralement dans les périodes de difficultés économiques et s’estompent lorsque l’économie se montre plus dynamique. C’est ainsi que P. Sweezy publie en 1977 (après le choc pétrolier donc) un livre intitulé The End of Prosperity (avec H. Magdoff). II. La résurgence contemporaine du débat sur les limites de la croissance Le débat sur les limites de la croissance refait surface à la fin des années 1960, il s’amplifie sous l’effet du choc pétrolier de 1973 et des préoccupations accrues à propos de l’environnement. La crise de 2007-2008 relance la question avec la reprise du thème de la stagnation séculaire. Nous distinguerons deux familles d’arguments dans ce débat : ceux qui relèvent plutôt des variables d’offre et ceux qui relèvent plutôt des variables de demande. A. Les variables d’offre : limites écologiques et technologiques En 1968, P. R. Ehrlich publie un livre intitulé The Population Bomb qui connaît un succès mondial. Mettant en évidence l’accélération de la croissance de la population mondiale depuis le XVIIIe siècle (la période de ******ebook converter DEMO Watermarks*******

doublement de la population est de plus en plus brève) il prévoit une famine massive pour 1970-1980 du fait d’une inéluctable pénurie alimentaire. Cet argument néomalthusien a été repris par des personnalités médiatiques (le commandant Cousteau) et il est présent dans le courant de l’écologie profonde qui plaide pour une baisse en valeur absolue de l’effectif de la population mondiale en raison des effets destructeurs de l’espèce humaine sur la biosphère. En 1972, le rapport au Club de Rome rédigé par une équipe de chercheurs du MIT sous la direction de D. Meadows (on parle souvent du Rapport Meadows) souligne les limites de la croissance et donne lieu à une campagne en faveur de la « croissance zéro ». Les auteurs traitent des questions démographiques, mais surtout de la pénurie inéluctable des ressources non renouvelables et des conséquences néfastes de la production de déchets et de la pollution. Là encore ce sont les limites écologiques de la croissance qui sont mises en avant. De même, certaines analyses soulignent la pénurie prochaine des énergies fossiles (en particulier du pétrole). Le Peak Oil (production maximale de pétrole précédant le déclin du fait de l’épuisement des gisements) a été prévu pour l’année 2010 par l’Agence internationale de l’energie. Force est de constater que nombre de ces prévisions alarmistes ne se sont pas réalisées. Conformément à la théorie de la transition démographique, la croissance de la population mondiale a fortement diminué et son effectif tend vers une stabilisation autour de 10 milliards d’individus (pas de croissance exponentielle infinie par conséquent). Pas de famine massive, au contraire la proportion des individus en situation de grande pauvreté a diminué à l’échelle mondiale. Pas de Peak Oil non plus, les réserves prouvées de pétrole n’ont jamais été aussi importantes et le problème économique majeur est de freiner l’utilisation du pétrole et des autres énergies fossiles afin de réduire les émissions de gaz à effet de serre. L’enjeu est aujourd’hui de renoncer à exploiter des gisements dont on connaît l’existence si on veut réussir la transition énergétique. Cela ne veut pas dire que les questions environnementales ne sont pas importantes. R. Gordon considère d’ailleurs que le coût du réchauffement climatique est l’un des facteurs de la stagnation séculaire. L’analyse scientifique implique ainsi de résister aux approches catastrophistes et de prendre en compte l’ensemble des variables qui pèsent sur le processus. Les travaux de R. Gordon portent justement sur l’évolution de la croissance potentielle et s’appuient principalement sur deux constats : d’une ******ebook converter DEMO Watermarks*******

part, on assiste à un phénomène de vieillissement de la population qui réduit la part de la population active dans la population totale, d’autre part, on assiste à un ralentissement des gains de productivité (qu’il s’agisse de la productivité du travail ou de la productivité globale des facteurs). Or, ces deux variables (population active et gains de productivité) sont les déterminants de la croissance potentielle qui ne peut donc que ralentir. S’agissant du ralentissement des gains de productivité, il résulte essentiellement du fait que le progrès technique ne les alimente plus de façon significative. Pour Gordon il existe une seule grande vague de progrès technique (One Big Wave) qui va du dernier tiers du XIXe siècle aux années 1990. Cette vague d’innovations bouleverse les conditions de l’offre avec la machine à vapeur, l’électricité, l’automobile et toutes les transformations qui leur sont liées. Les innovations récentes portent surtout sur des biens de consommation (les tablettes qui remplacent les ordinateurs par exemple) et leur impact sur la productivité est plus faible. Gordon souligne ce fait à partir d’un exemple : serions-nous disposés à renoncer à l’eau courante pour conserver Facebook ? Parmi les variables d’offre qu’il prend en compte, Gordon insiste sur le rendement décroissant de l’éducation et le coût croissant de l’enseignement supérieur. Il prend aussi en compte des variables de demande : le creusement des inégalités qui rend la demande de consommation moins dynamique et la montée de l’endettement qui, elle aussi nuit à la consommation. Comme Hansen en son temps, Gordon ne se montre pas fataliste face à la situation qu’il décrit. Il propose, par exemple, de mettre en œuvre des politiques de lutte contre les inégalités, de faciliter l’accès à l’enseignement supérieur (c’est un débat important aux États-Unis), de développer l’investissement public. À côté de ces variables d’offre qui pèsent sur les limites de la croissance, on peut identifier une série de variables qui affectent la demande et qui conduisent à reconsidérer le caractère inéluctable de ce processus de stagnation séculaire. B. Les limites liées aux variables financières et à la politique économique L. Summers est, avec R. Gordon, l’autre économiste qui a lancé le débat sur la stagnation séculaire lors d’une réunion du FMI en 2013. Ancien président de l’université d’Harvard, ancien économiste en chef de la Banque mondiale, ******ebook converter DEMO Watermarks*******

ancien secrétaire au Trésor de W. Clinton, Summers est un économiste controversé, mais très influent. P. Krugman salue le caractère hétérodoxe de ses analyses sur la stagnation séculaire. Dès 2014, le Bulletin du FMI considère comme probable une situation de stagnation séculaire (éventuellement accompagnée de déflation) dans les pays avancés. L’analyse de Summers, qui fait référence explicitement aux travaux d’A. Hansen, a pour point de départ l’absence de véritable reprise à la suite de la crise de 2007-2008. Pour lui, il ne s’agit pas d’un phénomène conjoncturel, mais d’une situation d’excès structurel d’épargne par rapport à l’investissement dans un contexte d’inflation faible (voire de menace de déflation). La situation qui caractérise le Japon depuis le début des années 1990 menace les autres économies avancées (États-Unis et Europe notamment). Summers s’appuie sur les travaux de K. Wicksell. Pour ce dernier en effet, il existe un taux d’intérêt naturel qui assure l’égalité entre l’épargne et l’investissement. Ce taux naturel doit être distingué du taux monétaire qui s’observe sur les marchés financiers. Lorsque le taux monétaire est égal au taux naturel, l’économie est en situation d’équilibre monétaire et tous les fonds prêtables offerts par les agents économiques sur la base de leur épargne sont utilisés pour financer les investissements assurant ainsi le pleinemploi des ressources productives. Summers considère que, dans l’économie mondiale actuelle, du fait de l’excès d’épargne (Global Saving Glut), le taux d’intérêt naturel est négatif. Or, la politique monétaire se heurte à la frontière des taux d’intérêt nominaux nuls (Zero Lower Bond). Certes, les taux d’intérêt réels pourraient être négatifs si l’inflation était plus importante, mais précisément elle est très faible, les menaces de déflation subsistent et les politiques monétaires très accommodantes ne se traduisent pas, comme on le voit dans la zone euro, par un rythme plus élevé de hausse des prix. Cette situation, où le taux d’intérêt monétaire est supérieur au taux d’intérêt naturel (négatif), conduit à une situation durable de récession : on est en présence d’un effet cumulatif wicksellien où la faiblesse de la demande a un effet négatif sur le niveau de la production qui a, à son tour, un effet négatif sur la demande. Cela conduit à une tendance à la stagnation séculaire. Cette situation est d’autant plus préoccupante qu’elle est autoentretenue : la faiblesse de la croissance effective liée à l’insuffisance de l’investissement par rapport à l’épargne a un effet négatif sur la croissance potentielle. En effet, un niveau élevé et durable du taux de chômage conduit à une ******ebook converter DEMO Watermarks*******

dégradation du capital humain. D’autre part, le faible niveau de l’investissement a un impact négatif sur le renouvellement du capital et sur l’innovation. Dans les deux cas, ces évolutions ont un effet négatif sur la productivité globale des facteurs, donc sur la croissance. Pour M. Aglietta, qui s’appuie lui aussi sur les travaux de Wicksell, ce qui est en cause c’est la financiarisation de l’économie qui conduit à privilégier la rentabilité à court terme des placements au détriment des investissements portant sur des échéances longues. Aglietta propose donc une voie de sortie de la stagnation séculaire qui consisterait pour l’État à émettre des titres longs afin de financer des investissements dans le domaine de la transition énergétique et de la lutte contre le réchauffement climatique. On pourrait donc, par ce type de démarche, lutter à la fois contre l’aspect demande (insuffisance de l’investissement et excès d’épargne) et sur l’aspect offre (limites environnementales à la croissance). Ch. de Perthuis et P.A. Jouvet (Le capital vert, 2013) développent un point de vue convergent. Pour eux, la prise en compte de l’environnement (pollution, capital naturel) constitue une nouvelle perspective de croissance. Il faut pour cela modifier notre conception de la fonction de production en y intégrant le capital naturel. Dès lors que l’on prendra en compte les coûts de la pollution et des prélèvements sur le stock de capital naturel, les innovations favorisant une croissance plus « verte » (moins polluante, moins consommatrice de ressources naturelles) seront encouragées et valorisées. Ces innovations contribuant à la transition écologique nécessitent des investissements de long terme et sont créatrices d’emploi. C’est dans cette perspective que P. Crifo et ses coauteurs considèrent que l’économie verte est une réponse à la crise économique. Conclusion La question des limites de la croissance est aussi ancienne que la science économique (tendance à l’état stationnaire de Malthus et Ricardo). Les économistes qui se sont inquiétés de la tendance à la stagnation de l’économie ont mis en avant, d’une part, des limites naturelles (démographie, épuisement des ressources naturelles) et, d’autre part, des limites technologique et économique (épuisement du progrès technique, insuffisance structurelle de la demande adressée à l’économie). Ces débats ressurgissent généralement lorsque l’économie mondiale est confrontée à des phases durables de récession ou de dépression. Il n’est donc pas surprenant que l’on ******ebook converter DEMO Watermarks*******

assiste depuis 2012-2013 à un débat sur la stagnation séculaire. Un examen de l’histoire de l’économie mondiale et de l’histoire des débats sur les limites de la croissance montre que, jusqu’ici, l’économie mondiale n’a pas buté sur l’état stationnaire et que les arguments des partisans de la thèse stagnationniste ont été réfutés par le dynamisme de l’économie. Sommes-nous aujourd’hui dans une situation économique comparable où l’adoption de politiques économiques adéquates permettra de trouver les « nouveaux chemins de la prospérité » (É. Laurent et J. Le Cacheux) ou bien sommes-nous confrontés à une limite écologique sans précédent ? Le débat n’est pas tranché, ni sur le plan politique et médiatique, ni sur le plan scientifique. Mais deux idées se dégagent chez les spécialistes de ces questions. D’une part, il faut reconsidérer la croissance en ne mesurant plus seulement la production (le PIB) mais en mesurant le bien-être et la soutenabilité. Il faut aussi mieux prendre en compte les gains de bien-être liés à certaines innovations dont les effets sont actuellement mal mesurés. De plus, même si on considère qu’il existe une limite à la croissance de la production matérielle, on peut mettre l’accent sur la qualité des relations sociales, sur le bienvivre, etc. D’autre part, le fait de relever les défis écologiques (et en particulier énergétiques) nécessite la construction d’importantes infrastructures, une vague d’innovations, des créations d’emplois, donc les perspectives d’une nouvelle croissance. Cela signifie que la dimension sociale de la croissance ne doit pas être négligée : c’est pourquoi É. Laurent (Le bel avenir de l’État providence, 2015) plaide pour un « État social écologique ».

******ebook converter DEMO Watermarks*******

Sujet

7 La mondialisation commerciale et productive est-elle source de croissance ?

1

Se préparer à la rédaction

1.1 L’enjeu du sujet La question posée est ouverte, ce qui appelle à se demander si et/ou sous quelles conditions la « mondialisation commerciale et productive » alimente la croissance économique, au niveau global comme au niveau de chaque économie nationale. Le développement du commerce peut être considéré comme un facteur de débouchés pour les producteurs nationaux et conduire ceux-ci à accroître leur capacité productive. Il est alors source de croissance économique. Mais d’autres « canaux de transmission » doivent être analysés et il convient de s’interroger sur les effets de la mondialisation commerciale et productive sur les niveaux de productivité. En effet, une amélioration de la productivité conduit potentiellement à un accroissement de la production et donc à la croissance. Dans le même temps, la mondialisation commerciale et productive conduit à des changements sectoriels qui modifient le volume et la structure des emplois nationaux, ce qui peut peser sur le niveau de croissance économique, à la hausse ou à la baisse. Ainsi, la mondialisation génère des gagnants (les plus qualifiés et les plus mobiles) mais aussi des perdants (les moins qualifiés). La question de la relation entre commerce international et croissance économique est apparue avec l’économie classique, en particulier avec ******ebook converter DEMO Watermarks*******

A. Smith et D. Ricardo. Ces deux auteurs se sont efforcés de montrer que les gains à l’échange étaient sources de croissance économique et qu’il fallait donc, sauf exception, favoriser le libre-échange. On retient la notion de gains à l’échange reposant sur la spécialisation dans l’avantage comparatif chez Ricardo. La croissance smithienne apparaît davantage comme une conséquence de l’élargissement des marchés qui est source de gains de productivité. Ces idées ont alimenté les réflexions théoriques mais ont également conduit plusieurs auteurs à tester cette relation entre croissance et ouverture commerciale (P. Bairoch, J. Bhagwati notamment). Une indétermination demeure à ce jour : si la corrélation entre ouverture commerciale et croissance économique est établie, le sens de la relation n’est pas évident. Il conviendra donc ici de mettre en évidence ces éléments à travers les théories du commerce international, anciennes et nouvelles. Les firmes multinationales, les investissements directs étrangers et la réduction des coûts de transport et de communication sont les facteurs principaux de la mondialisation productive. Beaucoup considèrent que cela peut favoriser la croissance économique, et même le développement, sous certaines conditions. Cette mondialisation productive accompagne la mondialisation commerciale mais beaucoup de questions sont posées quant aux effets potentiellement néfastes sur les économies nationales, poussant certains auteurs, à l’instar de D. Rodrik, à proposer de contrôler davantage la dynamique de mondialisation, quitte à la réduire, pour en préserver ses aspects positifs.

1.2 Le cadrage et les concepts clés La question posée relève du champ disciplinaire de l’économie internationale, en relation avec la question de la croissance économique. Ce champ a été fortement renouvelé à partir des années 1970 à travers l’élaboration des nouvelles théories du commerce international, dont P. Krugman (Prix Nobel 2008) est le représentant le plus connu. C’est également à la même période que les nouvelles théories de la croissance, dites théories de la croissance endogène apparaissent, ce qui va alimenter la réflexion sur les relations entre commerce international, investissements directs étrangers (IDE) et croissance économique. La décomposition internationale des processus productifs (DIPP) à partir des années 1980 questionne la relation entre croissance économique et mondialisation productive qui accélère le commerce intrafirme. Se juxtaposent alors deux types de commerce ******ebook converter DEMO Watermarks*******

international : un commerce traditionnel de complémentarité (division internationale du travail) et un commerce de concurrence sur les segments de la chaîne de valeur mondiale (DIPP). Le capitalisme a connu deux mondialisations si l’on suit S. Berger, une première à la fin du XIXe siècle, une deuxième qui débute avec les accords du GATT et s’accélère au cours des années 1980. La mondialisation productive correspond pour sa part à la dynamique d’internationalisation des processus de production appelée également décomposition internationale des processus productifs. Il s’agit d’une évolution plus récente (même si les premières firmes transnationales apparaissent à la fin du XIXe siècle) rendue possible par la libéralisation commerciale, l’effondrement des coûts de transport et le développement des technologies de l’information et de la communi​cation. Celle-ci est propre à la deuxième mondialisation et a conduit les économistes, notamment ceux de l’OMC et du FMI, à proposer des réflexions en termes de chaînes de valeur mondiale pour comprendre les dynamiques macroéconomiques rattachées à cette nouvelle organisation productive.

1.3 Construire la problématique L’analyse de la dynamique économique que sous-tend le sujet va conduire à s’interroger autour de deux questions : 1) Pourquoi la mondialisation commerciale et productive peut-elle générer une croissance économique supérieure à la croissance économique en autarcie ? 2) Quels sont les effets néfastes de la mondialisation commerciale et productive sur la croissance économique ? Existe-t-il un degré de mondialisation économique et commerciale optimal pour la croissance ? Les réponses apportées à ces deux questions permettront alors de traiter le sujet en s’appuyant sur les apports de la théorie économique.

2

Rédiger le devoir : une proposition

Introduction L’élection de D. Trump aux États-Unis en 2016 sur un programme protectionniste a sonné comme une fin de partie pour le multilatéralisme commercial à l’œuvre depuis la signature du GATT en 1947. Les taxations ******ebook converter DEMO Watermarks*******

décidées à l’encontre de la Chine, la renégociation de l’ALENA avec le Canada et le Mexique risquent de peser sur la croissance économique américaine, mais également mondiale. Pour le FMI, la possibilité d’une « guerre commerciale » pourrait « entamer la confiance des entreprises et des investisseurs ». L’idée selon laquelle la libéralisation commerciale et productive est source de croissance économique reste très présente malgré tout. Le capitalisme a connu deux mondialisations selon S. Berger, la ​première à la fin du XIXe siècle et la deuxième depuis les années 1980. Ces deux mondialisations se sont accompagnées d’une croissance économique forte au niveau mondial mais plus ou moins forte au niveau des régions ou économies nationales. Il est possible de définir la mon​dialisation commerciale comme la dynamique selon laquelle les échanges de biens et services entre économies nationales voient leur volume s’accroître dans un contexte de libéralisation des marchés, c’est-à-dire de réduction voire suppression des entraves au commerce international. La mondialisation productive correspond à la dynamique d’internationalisation des processus de production insufflée par les stratégies globales des firmes transnationales et la décomposition internationale des processus productifs (DIPP). La croissance économique peut se définir avec F. Perroux comme « l’augmentation soutenue pendant une ou plusieurs périodes longues d’un indicateur de dimension, pour une nation, le produit global net en termes réels ». Quels peuvent être les effets de la mondialisation économique et commerciale sur la dynamique économique ? Le processus n’a-t-il que des vertus ? Un grand nombre de théories économiques considère que la mondialisation commerciale et productive est un facteur de croissance économique (I). Cependant, la mondialisation économique et commerciale n’est pas ​suffisante en elle-même pour dynamiser la croissance économique, et ses effets pervers doivent être limités (II). I. La mondialisation commerciale et économique peut favoriser la croissance… L’ouverture commerciale est généralement analysée comme un facteur de croissance économique du fait de l’élargissement des marchés et des gains à l’échange (A). L’analyse économique a également mis en évidence les effets positifs de la mondialisation productive sur la dynamique productive (B). ******ebook converter DEMO Watermarks*******

A. Commerce international et croissance Le gain à l’échange a été au cœur de l’argument favorable à la libéralisation commerciale : parce que la liberté de commercer existe, les producteurs doivent se spécialiser dans les produits qu’ils savent fabriquer de façon efficiente pour échanger les surplus ainsi réalisés. L’accroissement de la taille des marchés, notamment à l’international, permet alors de renforcer la spécialisation et ainsi les niveaux de productivité. Cette analyse est au cœur de la thèse d’A. Smith (Recherche sur la nature et les causes de la richesse des nations, 1776), considéré comme le fondateur de l’économie classique. Le penchant naturel des hommes à trafiquer les conduit à échanger les surplus qu’ils produisent. Ceux-ci apparaissent lorsque l’efficacité productive s’améliore, et celle-ci s’accroît avec la division du travail. En conséquence, il convient que chacun se spécialise dans la production pour laquelle il dispose d’un « avantage absolu ». Appliquant cette analyse aux nations, Smith en conclut que le commerce international permet d’accroître le produit global, c’est-à-dire il est source de croissance économique. C’est en ce sens qu’il se prononce en faveur de la libéralisation des échanges internationaux (sauf cas particuliers pour les produits stratégiques ou en représailles à des barrières commerciales mises en place par d’autres nations). C’est cependant l’analyse ricardienne (D. Ricardo, Des principes de l’économie politique et de l’impôt, 1817) qui influencent encore plus fortement l’idée qu’une relation entre commerce international et croissance apparaît. Son analyse le conduit à démontrer que deux pays ont intérêt à commercer, même si l’un d’eux n’a aucun avantage absolu vis-à-vis de l’autre. Dans son exemple classique, le Portugal est plus productif que l’Angleterre dans la fabrication de drap comme dans celle de vin, ce qui pourrait laisser croire que le Portugal a intérêt à tout produire et ne pas échanger. Pourtant, étant donné que chaque pays est relativement plus efficace dans l’une des deux productions (le vin pour le Portugal, le drap pour l’Angleterre), la spécialisation et l’échange permettent d’augmenter les quantités produites au niveau global (croissance économique). Pour Ricardo, comme pour d’autres classiques du XIXe siècle, avec l’augmentation de la population, la dynamique économique tend à s’essouffler en raison du rendement décroissant de la terre qui conduit à accroître les coûts de production agricole et, en conséquence, le prix des denrées alimentaires et les salaires nécessaires à la reproduction de la main-d’œuvre. À terme, ******ebook converter DEMO Watermarks*******

l’économie entre dans une situation d’état stationnaire, c’est-à-dire une croissance économique nulle. Un moyen d’y remédier est de libéraliser le commerce pour accéder à des denrées alimentaires moins onéreuses et libérer des ressources pour l’investissement et l’accumulation du capital. Cet argument a conduit les Britanniques à abolir les Corn Laws en 1846. La modélisation néoclassique, proposée initialement par E. Heckscher et B. Ohlin, puis complétée par P. Samuelson (d’où l’acronyme HOS), oriente la recherche en économie internationale au cours du XXe siècle sans remettre en question les conclusions du modèle classique selon lesquelles il existe une dynamique commerce/croissance fondée sur l’avantage comparatif et les gains à l’échange. Cependant, ces modèles à « dotations factorielles », où l’avantage comparatif est déterminé par le facteur relativement abondant, ont une portée heuristique limitée aux échanges internationaux interbranches. Or, les statistiques montrent que dès les années 1970, les deux tiers du commerce international correspondent à un commerce intrabranche. De « nouvelles théories du commerce international » sont alors développées et permettent de renforcer l’idée que la relation commerce international/croissance économique est forte. En fondant son argumentation sur ces théories et sur celle de la croissance endogène, qui stipule que l’origine des gains de productivité réside dans l’activité économique elle-même, E. Helpmann montre que l’ouverture commerciale dynamise la croissance économique. D’une part, le gain à l’échange permet d’investir et d’accumuler du capital. D’autre part, les échanges facilitent les effets d’apprentissage (élément au cœur de la théorie de la croissance proposée par P. Romer, Prix Nobel 2018) grâce à l’accès à des produits techniquement plus élaborés et facteurs de progrès technique. Ces effets d’apprentissage découlent de l’usage et également de la volonté d’imiter. Enfin, l’ouverture aux échanges suscite la croissance par le biais de la recherche et développement et de l’innovation (tous les modèles de croissance pointent cette relation nécessaire entre innovation et croissance). En effet, l’accroissement de la taille des marchés incite les firmes à innover puisqu’elles pourront imputer le coût de l’innovation sur des débouchés potentiellement plus importants. Par ailleurs, la concurrence internationale peut être un facteur incitatif à l’innovation. Ces dynamiques sont illustrées par la réussite de la Corée du Sud qui est devenue un pays industrialisé en quelques décennies grâce à son accès au marché mondial. En effet, sans accès au marché mondial, la taille du marché coréen aurait été insuffisante pour ******ebook converter DEMO Watermarks*******

amortir les coûts liés au rattrapage technologique de ce pays de 60 millions d’habitants. Ainsi, il semble établi que commerce international et croissance économique sont liés. L’internationalisation des processus productifs conduit à renforcer cette dynamique. B. Développement des chaînes de valeur mondiale et croissance La croissance du commerce international a été plus rapide que celle de la production mondiale depuis l’après Seconde Guerre mondiale. La dynamique commerciale s’est intensifiée avec la mondialisation des chaînes de valeur. Cette évolution récente des dynamiques productives et commerciales a conduit l’Organisation mondiale du commerce (OMC) et l’Organisation de coopération et de développement économique (OCDE) à repenser la mesure du commerce mondial en tenant compte des valeurs ajoutées échangées et non plus des valeurs brutes échangées puisque, si les échanges entre économies nationales concernent toujours des biens et services, il s’agit aussi, et surtout à présent, de biens et services intermédiaires intégrant très souvent des services productifs « invisibles » jusqu’à présent dans les statistiques. Pour faire une analogie, le commerce international est plus justement mesuré en valeur ajoutée, comme l’est le produit intérieur brut : cela permet d’éviter les doubles comptes. L’OCDE a ainsi publié un rapport intitulé Economies interconnectées (2013) dans lequel sont listés les effets positifs de la mondialisation productive. Il convient d’abord de rappeler que celle-ci a été permise par l’abaissement important des coûts de transports, par le développement des technologies de l’information et de la communication, et par la libéralisation commerciale. Ses acteurs principaux sont les sociétés transnationales, définies par la Conférence des Nations Unies pour le commerce et le développement (CNUCED) comme toute société possédant au moins 10 % d’une unité productive sur un territoire autre que son territoire d’origine. On en compte aujourd’hui dans le monde plus de 80 000 avec en moyenne 10 filiales. La CNUCED considère qu’elles sont à l’origine des deux tiers du commerce mondial, dont la moitié relève d’un commerce intra-firme. Le développement de cette mondialisation productive repose également sur la sous-traitance internationale, c’est-à-dire le fait que des relations de soustraitance (faire faire plutôt que faire) s’établissent au-delà des frontières. Apple commande par exemple l’assemblage de ses smartphones et tablettes, ******ebook converter DEMO Watermarks*******

entre autres, à la firme taïwanaise Foxconn qui possède plusieurs usines en Chine. Si ce pays connaît aujourd’hui un « ralentissement » de sa croissance économique, il est indéniable que son inscription au bout de la chaîne de valeur mondiale (CVM) a fortement dynamisé, depuis les années 1980, son activité économique. D’autre part, les transferts de technologie apparaissent comme un des premiers éléments favorables à la croissance économique. En effet, les investissements directs étrangers (IDE) qui accompagnent la mondialisation productive permettent que les progrès de productivité se diffusent entre les pays, voire accroissent les progrès de productivité dans les pays de destination de ces IDE. Comme l’avait souligné A. Gerschenkron à propos du Japon, nul besoin de franchir toutes les étapes technologiques pour les latecomers, autant utiliser les technologies de pointe disponibles. C’est ainsi que l’Inde a pu bénéficier des avancées technologiques réalisées en Occident pour se spécialiser dans les services informatiques à distance (outsourcing) dans le cadre des CVM. En retour, le pays a développé ces techniques pour gagner en productivité, notamment autour de la ville de Bangalore. Par ailleurs, comme pour la mondialisation commerciale, la mondialisation productive dynamise la croissance par l’amélioration de la productivité liée à davantage de concurrence et aux économies d’échelle rendues possibles par l’extension des marchés des biens et services intermédiaires. Il apparaît donc que mondialisation productive et croissance éco​nomique vont de pair. La croissance est dynamisée par la réduction des coûts (concurrence, économies d’échelle) et les transferts de technologie. Cependant, comme pour le commerce, il est difficile d’établir un sens de causalité. II. … à condition de l’accompagner et de limiter les effets pervers qui y sont associés La mondialisation commerciale et productive et la croissance économique sont corrélées. Pour autant, si l’ouverture commerciale et productive semble nécessaire, elle n’est pas suffisante et ses effets en termes de croissance reposent sur d’autres conditions (A). Par ailleurs, la mondialisation économique et commerciale peut avoir des effets néfastes sur les économies nationales et doit s’accompagner de garde-fous (B). A. La mondialisation commerciale et productive, nécessaire mais pas ******ebook converter DEMO Watermarks*******

suffisante à la croissance Il est important de noter que la relation entre commerce international et croissance a été débattue de longue date. En effet, P. Bairoch s’est efforcé de montrer que, si commerce international et croissance économique étaient corrélés, rien ne prouvait qu’une causalité existe entre ouverture commerciale et croissance économique. Pour lui, à l’inverse, c’est plutôt la dynamique de croissance qui favorise l’ouverture commerciale, y compris et surtout après que davantage de protectionnisme ait redynamisé cette croissance. Ainsi, il considère que l’Allemagne, après la Grande Dépression de 1873-1893, a retrouvé un niveau de croissance économique plus élevé après avoir mis en œuvre des tarifs douaniers. De même, pour lui ce ne sont pas les replis nationaux qui ont causé la Grande Dépression de l’après-crise de 1929, mais bien la Grande Dépression qui a conduit à un effondrement du commerce international. Si sa thèse a été discutée, il n’en est pas moins vrai que les évaluations plus contemporaines établissent toujours une corrélation positive entre les deux éléments sans trancher clairement sur un sens de causalité. Par ailleurs, les études et l’expérience historique montrent que les effets positifs de la mondialisation productive sur la croissance reposent sur des conditions spécifiques. D’abord, les sociétés transnationales doivent être incitées à investir, ce qui nécessite des coûts de production réduits et une assurance quant au respect des droits de propriété, en particulier dans les pays en développement ou les pays émergents. C’est ainsi par exemple qu’ont été constituées des zones franches, c’est-à-dire dans lesquelles la fiscalité est très avantageuse pour les producteurs, souvent situées sur des zones côtières afin de faciliter l’importation des intrants et l’exportation des produits. Mais cela nécessite aussi qu’existent des infrastructures de transport et de communication de qualité et que des investissements publics soient réalisés. Enfin, il faut que les pays d’accueil des IDE soient capables de les absorber. De nouveau, la question se pose principalement pour les PED ou les émergents. Leur population active doit être suffisamment formée pour que les technologies présentes dans ces investissements se diffusent à l’économie nationale, accroissent la productivité et dynamisent la croissance. Cela nécessite une politique éducative très volontariste, à l’image de ce qu’a mis en place la Corée du Sud à partir des années 1960. L’autre élément qui renforce cette dynamique mondialisation productive-commerce-croissance repose sur la constitution de coentreprises, c’est-à-dire d’entreprises appartenant simultanément à l’investisseur international et à un investisseur ******ebook converter DEMO Watermarks*******

national (souvent l’État). La Chine l’a bien compris en imposant ce type d’organisation productive à coentreprises pour que le consortium européen puisse assembler des appareils dans la zone de libre-échange de Tianjin. Enfin, certains considèrent, à l’image de S. Jean du Centre d’études prospectives et d’informations internationales (CEPII), que la DIPP est à rendement décroissant et devrait voir ses effets sur le commerce et sur la croissance économique s’amenuiser. Suite à la crise de 2007-2008,le PIB mondial a baissé de 2 % et le commerce de 12 % en 2009. En 2010, le commerce mondial a augmenté de 13 % et la croissance mondiale s’est élevée à 4,1 %. La volatilité plus grande du commerce mondial s’explique du fait que 80 % des échanges concernent des produits manufacturés dont la demande est plus sensible aux fluctuations. Le commerce international n’a pas retrouvé le dynamisme d’avant-crise, et c’est ce qui laisse penser que l’explosion des CVM a atteint ses limites. Plusieurs facteurs peuvent être avancés. La hausse des coûts salariaux dans les pays émergents, en particulier en Chine, réduit l’intérêt d’implanter des segments de production intensif en travail dans ces pays. Il faut également noter l’intensification des risques de ruptures d’approvisionnement inhérents à la DIPP, à l’image de celles apparues à la suite du tremblement de terre au Japon en 2011. Enfin, la volonté chinoise de recentrer son économie sur son marché intérieur et de monter en gamme conduit à regrouper des segments productifs dans ce pays qui a été le catalyseur du commerce international ces dernières années. S. Jean en conclut, avec prudence en raison du manque de recul sur cette dynamique nouvelle, que la mondialisation commerciale et productive sera de moins en moins source de croissance. P. Artus rejoint ces analyses. Il montre en effet qu’une dynamique de déglobalisation est à l’œuvre avec le retour du protectionnisme et la volonté de « produire au voisinage », c’est-à-dire de défaire la segmentation productive. En conséquence, des coûts importants liés aux fermetures et transferts d’unités de production vont vraisemblablement peser sur la croissance économique. Ainsi, le sens de la relation mondialisation commerciale et productivecroissance n’est pas clairement établi. Pour autant cette relation existe et est d’autant plus forte que certaines conditions sont réunies. Cependant, il existe des gagnants et des perdants de la mondialisation, et il faut en tenir compte. B. Contrôle de la mondialisation économique et commerciale et soutenabilité politique de la croissance ******ebook converter DEMO Watermarks*******

Déjà au XIXe siècle, J. S. Mill avait montré que, si des gains à l’échange pouvaient être attendus de la libéralisation commerciale, la question de la répartition de ces gains n’était pas tranchée. Pour comprendre cette répartition, il s’appuie sur les notions de termes de l’échange, définis comme rapport entre la valeur des exportations et celle des importations, et de demandes réciproques, c’est-à-dire de demande adressée au coéchangiste. Il montre que, lorsque les demandes réciproques sont équivalentes (économies de taille similaire), les termes de l’échange ne varient pas et le gain à l’échange est partagé. En revanche, si la demande d’un pays est plus forte que celle de son partenaire, alors le prix des produits importés s’accroît, ce qui dégrade les termes de l’échange. Dès lors, les petits pays gagnent à la mondialisation commerciale puisque leur demande est relativement faible. Mill a fait valoir cet argument pour faire accepter, dans leur intérêt, l’ouverture commerciale aux partenaires de la Grande-Bretagne, économie la plus importante à l’époque. L’argument de la taille de l’économie et des effets de l’ouverture sur les termes de l’échange a aussi été utilisé par J. Bhagwati qui a forgé la notion de « croissance appauvrissante ». Pour lui, la spécialisation et l’ouverture au commerce d’un grand pays en développement, notamment, peuvent conduire à une situation de croissance économique (les volumes produits et échangés s’accroissent) sans que cela accroisse le revenu par tête. En effet, pour cet auteur, un grand pays qui accroît sa production en se spécialisant accroît l’offre de produits au point de conduire à une baisse des prix, et donc à une dégradation de ses termes de l’échange. Par ailleurs, la mondialisation commerciale et productive a des effets sur la répartition des revenus et/ou sur la structure de l’activité économique. Les modélisations du type HOS ont permis de montrer que la spécialisation modifiait la rémunération des facteurs de production. Ainsi, le théorème de Stolper-Samuelson affirme que l’augmentation du prix d’un bien augmente la rémunération réelle du facteur utilisé intensément dans la production de ce bien et diminue la rémunération réelle de l’autre facteur. Ainsi, que l’on raisonne en termes d’échange de produits ou d’inscription dans les CVM, les dynamiques devraient conduire à voir les rémunérations des travailleurs qualifiés s’accroître dans les économies fortement dotées en travail qualifié (PDEM) et celles des travailleurs peu qualifiés se réduire. C’est l’inverse dans les PED ou les pays émergents. Cette dynamique des inégalités croissantes liée à la mondialisation commerciale et productive est également ******ebook converter DEMO Watermarks*******

analysée par un économiste comme P.-N. Giraud (L’Homme inutile, 2015) qui considère, contrairement à ce que prédit le théorème de StolperSamuelson, qu’elles s’accroissent également dans les pays émergents. Rejetant l’hypothèse d’immobilité des facteurs de production, il montre que les capitaux comme les travailleurs les plus qualifiés sont nomades et s’implantent sur les espaces les plus compétitifs. Mais, ajoute-t-il, un espace est d’autant plus compétitif que les travailleurs sédentaires sont peu rémunérés relativement aux travailleurs nomades. Les stratégies d’implantation renforcent alors les dynamiques inégalitaires. Le point important, c’est que l’accroissement des inégalités pèse fortement sur la croissance économique. En effet, les inégalités réduisent la productivité en raison de leurs effets délétères sur l’alimentation, la santé, l’éducation dont la qualité détermine l’efficacité du capital humain. Ainsi, la mondialisation commerciale et productive s’accompagne d’une « mondialisation de l’inégalité » (F. Bourguignon) qui ralentit la dynamique de croissance. Enfin, l’économiste D. Rodrik distingue dans ses travaux l’intégration économique profonde de l’intégration économique superficielle. Dans le premier cas, une autorité politique permet de contrôler les effets potentiellement négatifs de l’intégration commerciale et productive, à l’image de l’organisation économique et politique des États-Unis, idéal-type pour l’auteur de l’intégration profonde. Dans le second cas, il n’existe pas d’autorité véritablement légitime au-dessus des différentes entités intégrées. C’est la situation que connaît la mondialisation actuelle (aux niveaux commerciaux et productifs, mais également financiers). Rodrik établit ainsi un triangle d’incompatibilité entre « intégration économique en profondeur », « politique démocratique » et « État-nation ». Alors, pour respecter la démocratie, approfondir l’intégration économique nécessiterait d’abandonner les souverainetés nationales. Or, comme l’illustrent les questions de souveraineté au sein de l’Union européenne avec le Brexit, ou l’élection de D. Trump aux États-Unis, les citoyens restent très attachés à l’idée de nation. Dès lors, comme Rodrik le rappelle dans La mondialisation sur la sellette (2018), vouloir libéraliser toujours plus le commerce et l’investissement au nom d’un surcroît d’activité économique est une erreur qui risque de conduire à un recul violent de la mondialisation. Selon les mots de Rodrik, pour « sauver la mondialisation de ses propres partisans », il faut accepter de protéger les économies nationales ******ebook converter DEMO Watermarks*******

lorsque des demandes de ce type apparaissent et semblent légitimes. Si une nation décide de proposer à ses travailleurs une couverture des risques sociaux, est-il légitime que ce choix soit remis en cause au nom de la mondialisation ? P. Artus établit un constat similaire : la globalisation met en péril les politiques redistributives en érodant les assiettes fiscales et sociales de leur financement, le capital et le travail qualifié étant très mobiles et attirés par les espaces peu fiscalisés. Rodrik propose que les problèmes que pose l’ouverture soient traités collectivement et donnent lieu à un contrôle multilatéral comme ceux qui concernent le commerce au sein de l’OMC. Il s’agirait alors de développer des accords de sauvegardes sociales et environnementales. Conclusion Ainsi, il apparaît indéniable que mondialisation commerciale et productive et croissance soient corrélées. En effet, des classiques aux nouveaux keynésiens, la théorie économique est venue renforcer cette idée du fait des gains à l’échange, des progrès de productivité, de la réalisation d’économies d’échelle permis par l’ouverture des économies à l’international. Cependant, d’une part l’ouverture seule ne suffit pas à dynamiser la croissance et nécessite des politiques d’accompagnement vers la croissance. D’autre part, il existe des gagnants et des perdants de la mondialisation. C’est la raison pour laquelle la mondialisation économique et commerciale ne doit pas être poussée trop loin, au risque d’être rejetée par les populations et de conduire à une contraction forte de la production. Une « intégration économique profonde » ne pourra advenir que lorsque des abandons de souveraineté nationale auront été opérés, ce qui prend beaucoup de temps. C’est d’ailleurs l’un des enjeux des années qui viennent en termes d’organisation de la gouvernance mondiale. Comment en effet concilier souverainetés nationales et enjeux globaux comme la stabilité financière et monétaire internationale, la lutte contre l’évasion fiscale ou la préservation du climat et de la biodiversité ?

******ebook converter DEMO Watermarks*******

Sujet

8 Faut-il souhaiter le retour de l’inflation ?

1

Se préparer à la rédaction

1.1 L’enjeu du sujet À partir des années 1960, le constat d’une inflation à taux croissant a été au cœur des réflexions des économistes et des responsables de la politique économique. En 1963, le plan de stabilisation du ministre des Finances, Valéry Giscard d’Estaing, a déjà pour objectif de lutter contre l’inflation. L’accélération de l’inflation à la suite des chocs pétroliers de 1973 et 1979, dans un contexte de ralentissement de la croissance et de hausse du chômage, est apparue comme paradoxale (stagflation). À partir du début des années 1980, les politiques de désinflation se généralisent et, au sein des PDEM, la cible d’inflation à 2 % s’impose aux banques centrales. Cette politique est un succès puisque la « grande inflation » est vaincue et que, du début des années 1990 à 2007, c’est la « grande modération » qui s’impose. Cette victoire sur l’inflation accroît la crédibilité des banques centrales. La crise financière de 2007-2008 change la donne. Ce n’est plus l’inflation, mais la déflation qui menace et certains économistes s’inquiètent même de la « fin de l’inflation ». Dans ce contexte, un retour de l’inflation apparaît comme une évolution souhaitable. Alors qu’il est encore chef économiste du FMI, O. Blanchard se demande s’il ne faudrait pas, dans le contexte d’après-crise, porter la cible d’inflation à 4 % par an. Cette question du retour à un taux d’inflation plus élevé ne vise pas seulement à éviter le risque de la déflation, elle concerne aussi la question de l’endettement et la question de la formation des salaires. C’est donc l’ensemble du contexte macroéconomique qui est concerné par la question d’un éventuel retour de ******ebook converter DEMO Watermarks*******

l’inflation. La formulation du sujet s’inscrit, en apparence, dans une visée normative. Il s’agit en réalité d’inviter le candidat à une réflexion sur les enjeux du débat actuel autour des politiques économiques de stabilisation et des moyens de réduire les déséquilibres macroéconomiques. L’usage du verbe « souhaiter » incite ainsi à examiner les choix politiques adoptés par les gouvernements des pays développés à partir de l’entrée dans la période de désinflation au début des années 1980 et à les soumettre à un examen critique. Au regard de quels objectifs sous-jacents un retour de l’inflation peut-il être souhaitable ? Quels sont les risques qui accompagneraient un infléchissement des politiques économiques vers « plus d’inflation » ? Indépendamment de ces risques, un retour de l’inflation serait-il de nature à réduire les déséquilibres macroéconomiques que les PDEM connaissent aujourd’hui, dix ans après la crise mondiale ?

1.2 Le cadrage du sujet et les concepts clés Même si un rappel du passage de la « grande inflation » à la « grande modération » est nécessaire, l’enjeu du sujet porte principalement sur la période qui suit la crise financière de 2007-2008. L’inflation est l’augmentation générale, durable et cumulative du niveau général des prix. Dans les pays industrialisés, l’inflation a été vaincue bien avant la crise de 2007-2008, l’objectif d’un taux d’inflation un peu inférieur à 2 % par an a été atteint. Au Japon cependant, les tendances déflationnistes se manifestent dès les années 1990, ce qui explique que ce pays a été un pionnier dans la mise en œuvre de la politique monétaire non conventionnelle. Après la faillite de Lehman Brothers, et avec la chute du commerce mondial et de la production mondiale en 2009, la crainte de la déflation (c’est-à-dire de la baisse générale, durable et cumulative du niveau général des prix) s’est installée. Dans les faits, les banques centrales ont modifié leur objectif : il ne s’agissait plus de conjurer l’inflation, mais d’éviter d’entrer dans la logique de dépression résultant de la déflation par la dette analysée par Irving Fisher dans les années 1930. Au-delà du risque de déflation, il convient de se demander si un taux d’inflation plus élevé est de nature à résoudre certaines difficultés rencontrées par les économies des PDEM et, plus largement, par l’économie mondiale. Ces difficultés concernent les conditions de formation des salaires et la ******ebook converter DEMO Watermarks*******

répartition fonctionnelle des revenus en faveur du capital, mais aussi la question de l’endettement puisque l’inflation est susceptible de réduire la valeur réelle de la dette. De plus, et à condition d’éviter le dérapage de l’inflation à taux croissant, l’inflation peut aussi soutenir l’investissement et donc la croissance.

1.3 La construction de la problématique Pour savoir si l’on doit souhaiter un retour de l’inflation, il faut tout d’abord s’interroger sur les causes de la désinflation et sur les bénéfices que l’on peut attendre d’un retour à un taux d’inflation plus élevé. Si la perspective du retour de l’inflation peut apparaître comme séduisante, c’est une évolution peu probable. La menace de désinflation est un phénomène structurel lié à un nouveau régime de croissance et à la globalisation. Dès lors, la vraie question qui se pose est celle de la politique économique qu’il convient de mettre en œuvre dans un nouveau régime de croissance et un nouveau contexte pour la politique monétaire.

2

Rédiger le devoir : une proposition

Introduction En 2010, alors que l’économie mondiale subit de plein fouet les conséquences de la crise, le Fonds monétaire international, par l’intermédiaire de son économiste en chef O. Blanchard, ouvre un débat sur une question qui ne semblait plus devoir être discutée : modifier l’objectif des grandes banques centrales en matière de ciblage d’inflation en passant de 2 à 4 %. À l’époque, cette proposition a suscité de vives oppositions notamment chez les défenseurs de ce qu’il convient d’appeler l’orthodoxie monétaire. Qu’est-ce qui peut conduire un économiste comme O. Blanchard à faire une telle proposition alors qu’un consensus en faveur d’une cible à 2 % s’était progressivement imposé à partir des années 1980 ? Depuis les années 1960 jusqu’au milieu des années 1980 la lutte contre l’inflation a été au cœur des préoccupations des économistes. La « grande inflation » qui s’est manifestée jusqu’à la fin des années 1970 a conduit à l’adoption généralisée de politiques de désinflation à partir de 1979 (politique monétaire de Paul Volcker aux États-Unis). Ces politiques ont été couronnées de succès et ont conduit, à partir du milieu des années 1980 jusqu’à la crise ******ebook converter DEMO Watermarks*******

de 2007, à la « grande modération » qui combinait faible inflation et stabilité de la croissance. Les banques centrales ont acquis de ce fait une forte crédibilité puisque la victoire contre l’inflation a été mise à leur crédit. L’inflation, définie comme une hausse continue et cumulative du niveau général des prix à la consommation, a longtemps été considérée comme le danger principal qui menaçait les économies pendant les Trente Glorieuses. Cela concernait les pays industrialisés, mais aussi, plus tard, les pays émergents qui ont connu des épisodes d’hyperinflation et les pays de l’ancien bloc soviétique après la transition au capitalisme. Dans tous les cas, l’inflation est apparue comme une perturbation majeure qui dépréciait la monnaie, nuisait à la compétitivité des entreprises, brouillait les signaux véhiculés par les prix et entraînait un creusement des inégalités de revenu et de patrimoine. On peut donc s’étonner que certains considèrent aujourd’hui un taux d’inflation plus élevé comme une réponse possible aux difficultés économiques qui résultent notamment de la crise de 2007-2008. Pour comprendre ce paradoxe apparent, il faut d’abord s’intéresser aux causes du phénomène de désinflation, mais aussi se demander en quoi une hausse plus rapide des prix pourrait constituer une solution (I). Mais nous montrerons que souhaiter un retour à un taux d’inflation plus élevé est vœu pieux car la désinflation a un caractère structurel. Dès lors, il convient de se demander quelles politiques économiques mettre en œuvre dans ce nouveau contexte macroéconomique (II). I. De la désinflation aux avantages d’un retour à l’inflation Si l’on compare la situation actuelle des principaux pays industrialisés en matière d’inflation à la situation qui prévalait à la fin des années 1970, le changement est radical. Les taux d’inflation étaient alors fréquemment à deux chiffres tant aux États-Unis qu’en Europe. Aujourd’hui, les banques centrales peinent encore à lutter contre les risques de déflation et à maintenir leur taux d’inflation au voisinage de 2 %. Comment peut-on expliquer ce phénomène de désinflation (A) ? Dans ce contexte, un taux d’inflation plus élevé peut apparaître comme une partie de la solution afin de résoudre les difficultés rencontrées (B). A. Un régime de faible inflation Comment peut-on expliquer le ralentissement de la hausse des prix ******ebook converter DEMO Watermarks*******

particulièrement sensible dans les pays industrialisés ? En premier lieu, il s’agit de l’effet des politiques de désinflation conduites par les banques centrales et les gouvernements à partir des années 1980. Les politiques de freinage de la croissance de la demande globale et les politiques monétaires restrictives ont modifié durablement le contexte économique. Les banques centrales (devenues indépendantes pour celles qui ne l’étaient pas encore) ont gagné en crédibilité au fur et à mesure que la cohérence intertemporelle de leurs politiques de désinflation s’est imposée aux agents économiques. Cette crédibilité accrue affecte les anticipations d’inflation qui ont tendance à s’aligner sur la cible d’inflation des banques centrales. Plus près de nous, dans la zone euro, l’objectif de stabilité des prix est l’objectif unique de la BCE qui figure dans le Traité de Maastricht de 1992. La période de la « grande modération » a aussi convaincu les agents économiques qu’un faible taux d’inflation était compatible avec une croissance relativement soutenue et un taux de chômage faible (notamment aux États-Unis). La crise de 2007-2008 a amplifié le phénomène de ralentissement de la hausse des prix en raison du freinage brutal de l’activité économique qui a conduit à un risque de déflation. Un autre facteur important est intervenu avec l’approfondissement de la mondialisation commerciale et la place croissante des pays émergents dans la production manufacturière mondiale à partir de la fin des années 1990. Les pays émergents ont intégré l’OMC et ils contribuent à fournir les pays industrialisés en marchandises moins coûteuses du fait de coût de production plus faibles. La baisse des coûts de transport et des coûts de coordination qui résultent du développement des nouvelles technologies contribue aussi à la baisse de certains prix et donc au freinage de la hausse générale du niveau des prix. L’internationalisation des chaînes de valeur joue également un rôle décisif. Une part importante des biens intermédiaires utilisés dans les unités de production des pays industrialisés est importée en provenance de pays à bas salaires et contribue à la diminution du coût global de production. L’inflation est donc de plus en plus liée aux caractéristiques de l’économie mondiale dans son ensemble et moins fortement liée aux déséquilibres qui peuvent surgir au niveau national. Enfin, l’affaiblissement du pouvoir de négociation des salariés conduit à ce que, même en fin de cycle, lorsque l’économie se rapproche du plein-emploi, les salaires progressent peu. La boucle prix-salaire joue donc beaucoup moins et globalement le ​partage des revenus se modifie en défaveur des salariés et en faveur du capital. ******ebook converter DEMO Watermarks*******

Ainsi, le ralentissement de la hausse des prix est un choix de politique économique (la priorité à la désinflation à partir des années 1980) mais il découle également de la mondialisation commerciale et productive ainsi que de la modification du rapport de force entre les bénéficiaires de revenus du travail et les bénéficiaires de revenus du capital. Il reste toutefois à se demander si un changement d’objectif quant à l’inflation pourrait constituer une solution face aux déséquilibres macroéconomiques à l’œuvre dans de nombreux PDEM. B. Que peut-on attendre de l’inflation ? En quoi une accélération de la hausse des prix pourrait-elle jouer un rôle positif sur la situation économique ? Le premier mécanisme concerne la croissance économique. Pendant une bonne partie des Trente Glorieuses, les économies des pays industrialisés ont bénéficié d’un effet de levier sur l’investissement et donc d’un effet positif de l’inflation sur la croissance. En effet, si l’inflation n’est pas totalement anticipée et si la hausse des prix est plus rapide que l’augmentation du taux d’intérêt nominal, le taux d’intérêt réel est inférieur au taux nominal. Or, c’est le taux d’intérêt réel qui, comparé à l’efficacité marginale du capital, détermine le niveau de l’investissement. L’inflation incite donc les entrepreneurs à investir et on peut ajouter qu’elle joue aussi en faveur de l’équipement en biens durables des ménages lorsque ceux-ci financent leurs achats à crédit. Le second effet positif d’un rythme plus soutenu d’inflation réside dans son effet sur les dettes publiques et privées. On sait en effet que le niveau global d’endettement est devenu très élevé, notamment depuis la crise de 2007-2008. Cela a deux effets négatifs sur la croissance économique. En premier lieu, la charge de la dette (remboursement du principal et des intérêts) conduit les États comme les entreprises à réduire leurs dépenses pour parvenir à se désendetter. En second lieu, le niveau élevé de l’endettement accroît le risque de crédit et incite les banques à se monter plus frileuses dans l’octroi de crédits alors même qu’elles disposent de liquidités abondantes. Lorsque la dette est à taux fixe, l’accroissement de l’inflation réduit le taux d’intérêt réel. Enfin, puisque l’inflation réduit la valeur réelle de la monnaie (son pouvoir d’achat) la valeur réelle de la dette est donc réduite par l’accroissement du taux d’inflation. Dans le passé on a souvent assisté à ce phénomène de désendettement lié à l’inflation. C’est le phénomène de ******ebook converter DEMO Watermarks*******

« l’euthanasie du rentier » dont parlait J. M. Keynes : ce sont les créanciers qui subissent un effet de richesse négatif, mais le désendettement des débiteurs stimule l’économie en favorisant la reprise de la consommation et de l’investissement. Les États, en particulier, pourraient retrouver des marges de manœuvre budgétaires non seulement pour stimuler l’économie à court terme, mais surtout pour engager des dépenses structurelles en matière de transition écologique ou d’investissement en capital humain et technologique. Ce phénomène est l’opposé de la déflation par la dette analysée par I. Fisher : c’est le désendettement par l’inflation. Enfin, une inflation plus soutenue, en même temps qu’elle appauvrirait les créanciers, pourrait favoriser le retour de l’indexation des salaires sur les prix et donc créer un contexte plus favorable aux salariés. Un rééquilibrage de la répartition des revenus en faveur des revenus du travail pourrait en découler. Ainsi, l’inflation pourrait retrouver le rôle de stimulant de la croissance et de l’emploi qui a été le sien pendant les Trente Glorieuses. Mais cela supposerait que l’augmentation du taux d’inflation ne débouche pas sur une nouvelle spirale inflationniste où l’inflation à taux croissant finirait par jouer négativement et pourrait conduire à nouveau à la stagflation. II. L’impossible retour de l’inflation et les enjeux du nouveau contexte macroéconomique Ainsi, le retour de l’inflation peut apparaître comme un moyen de dynamiser l’économie. Mais outre que le risque de dérapage vers l’inflation à taux croissant ne doit pas être écarté. On a de bonnes raisons de penser que la désinflation a un caractère structurel et qu’elle est une caractéristique durable du contexte macroéconomique (A). Dans ces conditions, il faut se demander quelles orientations il convient de donner à la politique macroéconomique (B). A. L’impossible retour de l’inflation Quand bien même le retour de l’inflation serait souhaitable, est-il possible ? Il semble bien que non. Dès la période qui a précédé la crise de 2007-2008 (pendant la période où a joué le paradoxe de la tranquillité) on a pu constater que si le taux d’inflation mesuré par l’indice du niveau général des prix à la consommation connaissait une hausse modérée, les prix des actifs financiers et immobiliers augmentaient quant à eux fortement. Dans la période qui a précédé la crise, les banques centrales ne perçoivent pas ce phénomène ******ebook converter DEMO Watermarks*******

nouveau Or, celui-ci se poursuit après la crise. L’accroissement très important de la liquidité mondiale ne se traduit pas par une accélération de la hausse des prix à la consommation ; en revanche, elle se manifeste à nouveau par une hausse des prix des actifs. Les banques centrales, tout en prenant conscience de la montée des risques financiers, continuent de mettre en avant leur cible d’inflation. C’est ainsi que M. Draghi, à partir de mars 2015, justifie la mise en œuvre de la politique d’achat d’actifs de la BCE par le fait que le taux d’inflation de la zone euro reste inférieur à la cible des 2 % d’inflation. P. Artus considère que, dans les pays développés à économie de marché, l’augmentation de la liquidité a un effet de portefeuille et se traduit par des achats d’actifs (donc une hausse des prix de ces derniers), alors que dans les pays émergents, la hausse de la quantité de monnaie a un effet de transaction et se traduit par une hausse des prix des biens et services. Il semble bien que, dans les PDEM, l’inflation, telle qu’on l’entendait traditionnellement, ne soit plus la conséquence inéluctable d’une politique monétaire accommodante. L’une des raisons de ce phénomène réside sans doute dans un ancrage à un faible niveau des anticipations d’inflation. De ce fait, même une politique de faible taux d’intérêt et de facilité quantitative ne conduit pas à un rythme d’inflation plus élevé. De plus, même si une certaine démondialisation se manifeste, la concurrence des pays à bas salaire, dont certains connaissent un développement technologique important, est une caractéristique durable de l’économie mondiale. La pression à la baisse sur les prix des biens et services liée à l’ouverture des économies et à la croissance des pays émergents va probablement se maintenir. Enfin, même si la thèse de la stagnation séculaire ne fait pas l’unanimité, il semble bien que les PDEM sont entrés dans un nouveau modèle de croissance caractérisé par une croissance potentielle faible. Dans ces conditions une stimulation de la croissance effective n’a pas d’effet positif sur l’emploi, elle peut même se traduire par une précarisation accrue de la main-d’œuvre. La stimulation de la croissance par l’inflation, qui a marqué les Trente Glorieuses dans une période où les gains de productivité étaient forts et la croissance potentielle dynamique, pourrait bien, dans ce nouveau modèle de croissance, ne pas avoir les effets favorables attendus en matière d’emploi et de partage du revenu. Le faible rythme de la hausse des prix dans les pays développés à économie de marché a donc bien un caractère structurel et un retour de ******ebook converter DEMO Watermarks*******

l’inflation ne semble pas une réponse possible aux difficultés rencontrées dans ces économies. Se pose alors la question de politiques alternatives à mettre en œuvre dans ce nouveau contexte macroéconomique. B. Quelle politique économique dans le nouveau contexte macroéconomique ? Il convient tout d’abord de redonner toute sa place à la question de la finance et de son rôle dans l’économie. Pendant longtemps, les banques centrales ont concentré leur action sur la stabilité économique entendue comme un faible niveau d’inflation. Elles doivent aujourd’hui se concentrer sur la stabilité financière entendue comme la limitation de l’ampleur du cycle financier. La crise de 2007-2008 a rendu toute son actualité à l’hypothèse d’instabilité financière d’H. Minsky. Cette analyse montre l’instabilité endogène des économies liée au cycle du crédit et à l’accélérateur financier : quand le prix des actifs augmente, l’effet de richesse positif pousse les banques à accorder plus facilement des crédits, ce qui joue à la hausse sur le prix des actifs, mais quand la tendance se retourne, l’accélérateur joue à la baisse et les prix des actifs s’effondrent provoquant la multiplication des défauts des agents sur leur dette. Les banques centrales doivent donc mettre en place des dispositifs prudentiels pour l’imiter le cycle du crédit et « stabiliser une économie instable » (Minsky). Le deuxième axe important de réflexion pour infléchir la politique économique consiste à mobiliser l’épargne et le pouvoir de création monétaire des banques, pour financer les investissements considérables qui sont nécessaires afin d’assurer la transition vers une économie décarbonée et plus largement la transition écologique. Cela impliquerait des investissements très importants en capital humain et en recherche-développement, donc la mise en place de dispositifs institutionnels permettant de combiner volontarisme public et initiative privée. L’objectif est de relever le niveau de la croissance potentielle tout en rendant cette croissance soutenable. Il s’agirait aussi d’améliorer le niveau et la qualité de l’emploi (dans plusieurs pays de l’Union européenne tel que la France, par exemple, le taux d’emploi reste à un niveau structurellement faible : moins de 66 % en 2018). J. Yellen a montré récemment que le taux d’emploi, plus que le taux de chômage, devrait constituer aujourd’hui un indicateur important pour le politique économique. Un troisième axe de réflexion pourrait porter sur la réduction des ******ebook converter DEMO Watermarks*******

inégalités de revenus et plus largement sur la protection collective contre les risques individuels qui résultent d’une économie dynamique fondée sur l’innovation. Récemment, le FMI a attiré l’attention sur les dangers d’une inégalité excessive des revenus et sur la nécessité de promouvoir une croissance inclusive. Cela suppose à la fois une réduction des inégalités dans le partage des revenus primaires (notamment en luttant contre les bas salaires et les emplois précaires) et le renforcement de la redistribution afin de pallier les risques sociaux. Enfin, le dernier axe repose sur la prise en compte du caractère incontournable d’une politique discrétionnaire de stabilisation de l’activité économique. En particulier il faut, comme on l’a fait dans les années 1960 aux États-Unis, se montrer attentif à l’écart entre la croissance effective et la croissance potentielle. Même si l’on parvient à promouvoir une croissance potentielle plus dynamique, la surveillance de l’instabilité autour du sentier de croissance reste indispensable. La coordination marchande décentralisée présente de nombreux avantages, elle ne peut suffire à assurer la stabilité financière et la stabilité économique. Conclusion Pour séduisant qu’il puisse paraître, le retour de l’inflation n’apparaît pas comme une solution possible, compte tenu du caractère structurel de la désinflation. Il n’est pas sûr qu’il soit souhaitable dans la mesure où un rythme de hausse des prix plus soutenu ne pourrait répondre aux multiples défis auxquels sont confrontées les économies contemporaines : transition écologique, inégalités, niveau et qualité de l’emploi, gestion de l’innovation, etc. À défaut de solution miracle, il apparaît que l’action de coordination et de régulation multidimensionnelle des économies est plus que jamais nécessaire. Le volontarisme public, reposant sur le débat démocratique et l’implication des citoyens, apparaît indispensable. Cela suppose des changements majeurs dans la conception et la mise en œuvre des politiques publiques au niveau national, mais aussi des efforts accrus de coopération internationale, qu’il s’agisse de la coordination des politiques économiques en zone euro et plus largement dans l’Union européenne, de développement d’un cadre prudentiel intégré pour la finance mondiale, de la mise en œuvre de la protection des biens communs mondiaux et de la production des biens collectifs mondiaux. Sur toutes ces questions, la contribution de l’analyse économique est déjà très abondante. Il reste aux responsables politiques et ******ebook converter DEMO Watermarks*******

aux citoyens à s’en emparer pour enrichir le débat public.

******ebook converter DEMO Watermarks*******

Sujet

9 Les politiques monétaires non conventionnelles depuis 2007-2008 : quel bilan ?

1

Se préparer à la rédaction

1.1 L’enjeu du sujet Depuis la crise de 2007-2008, la plupart des pays développés à économie de marché ont mis en œuvre des politiques monétaires non conventionnelles. Cela signifie que, ne pouvant plus agir par la modification des taux d’intérêt directeurs, les banques centrales ont mis en œuvre pour l’essentiel une action par les quantités de monnaie centrale. Il en est résulté une augmentation très significative de la liquidité mondiale. Ce faisant, les banques centrales ont contribué de façon décisive à ce que les économies frappées par la crise des crédits subprime ne soient précipitées dans la récession, la déflation et les faillites en cascade au sein du système bancaire et financier. À s’en tenir à ce constat, on pourrait tirer un bilan unilatéralement positif de ces choix de politique monétaire. Cependant, de nombreux économistes s’inquiètent de l’impossibilité, où se trouvent les banques centrales, de sortir de ces politiques non conventionnelles et de normaliser leurs politiques monétaires. D’une part, l’abondance de liquidité favorise le gonflement de bulles sur le prix des actifs, d’autre part, le faible niveau des taux d’intérêt favorise le recours au crédit de la part des États comme des agents privés. La hausse de l’endettement et le gonflement de bulles spéculatives s’autoentretiennent faisant croître le risque systémique. Dans cette perspective, le bilan des ******ebook converter DEMO Watermarks*******

politiques monétaires non conventionnelles apparaît contrasté. Elles n’ont fait que retarder l’échéance et contribuent à créer les conditions d’une nouvelle crise financière majeure.

1.2 Le cadrage du sujet et les concepts clés La distinction entre « politique monétaire conventionnelle » et « politique monétaire non conventionnelle » fait aujourd’hui consensus dans la littérature économique. Dans le premier cas, il s’agit des politiques monétaires, reposant sur l’action par les taux d’intérêt, telles qu’elles ont été conçues et mises en œuvre dans les principaux PDEM jusqu’à la crise de 2007-2008. Cette crise a été un choc financier, productif mais aussi théorique : alors que les banquiers centraux étaient parvenus à vaincre la Grande Inflation puis à maintenir les économies dans la Grande Modération (1985-2007), il a fallu, face à la crise, redéfinir de manière radicale les objectifs et les instruments de la politique monétaire. La politique monétaire non conventionnelle, qui repose sur l’action par la quantité de monnaie centrale, a été mise en œuvre par les PDEM à partir de 2008. Même si une politique monétaire non conventionnelle a été mise en œuvre au Japon à partir de la fin des années 1990, le sujet porte pour l’essentiel sur les politiques monétaires mises en œuvre après la crise financière de 2007-2008. On étudiera le cas des principaux pays industrialisés (États-Unis, zone euro, Grande-Bretagne). Les politiques monétaires non conventionnelles résultent du fait que la baisse, parfois très rapide, des taux directeurs ne produit pas l’effet de stimulation attendu et surtout ne permet pas de répondre à la situation d’assèchement du marché interbancaire où certaines banques ne parviennent plus à se refinancer. La politique monétaire conventionnelle rencontre de toute façon une limite lorsqu’elle atteint la « frontière des taux zéro » (Zero Lower Bound). L’action par les prix que sont les taux d’intérêt devient, dès lors, largement inopérante. Les banques centrales ont donc adopté des mesures non conventionnelles qui portent principalement sur la quantité de liquidités mise à la disposition de l’économie et sur le montant des crédits que les banques accordent. Le premier type d’action constitue ce que l’on nomme le Quantitative Easing. Il s’agit de fournir des liquidités aux banques en leur garantissant un accès illimité à un guichet à taux fixe (nul ou très proche de zéro) et en procédant à des achats massifs de titres sur les marchés. Le second moyen ******ebook converter DEMO Watermarks*******

constitue ce que l’on nomme le Credit Easing. Il s’agit d’inciter les banques de second rang à accorder davantage de crédits aux agents non bancaires. Cela passe notamment par le rachat par la banque centrale de créances de piètre qualité qui se trouvent à l’actif des banques afin que ces dernières soient incitées à accorder plus de crédits. Les banques centrales peuvent aussi conditionner l’octroi de liquidités (notamment des refinancements à long terme) aux banques de second rang au fait que ces dernières accroissent l’encours des crédits accordés aux agents non bancaires. Les banques centrales ne se désintéressent pas pour autant des taux d’intérêt, mais elles agissent sur les anticipations de taux d’intérêt à long terme par les banques de second rang et par les agents non bancaires. Dans ce but elles pratiquent le Forward Guidance. En garantissant le maintien de taux courts à un taux très faible ou nul pour une longue période, elles espèrent que cela conduira à une baisse des taux longs qui sont décisifs en matière de décisions d’investissements. Faire le bilan des politiques monétaires non conventionnelles c’est donc se demander quel est l’impact sur les économies du maintien durable de taux d’intérêt nuls ou très faibles et de la fourniture de liquidités abondantes aux banques de second rang.

1.3 La construction de la problématique L’intitulé du sujet apparaît comme assez descriptif, mais il y a bien un enjeu derrière cette formulation. En effet, face au risque de crise de liquidité, d’effondrement du système financier, de récession durable et d’éclatement de la zone euro, les banques centrales n’avaient guère d’autres choix que d’intervenir en innovant sur les instruments utilisés afin d’éviter le pire. Et, de fait, le pire a été évité. Il importe donc de comprendre comment la politique monétaire non conventionnelle a eu cet effet positif. Mais d’autre part, cette politique a eu des effets sans précédents en termes d’augmentation de la liquidité mondiale et de maintien de taux d’intérêt très faibles, de sorte que la normalisation de la politique monétaire apparaît comme très problématique et très risquée. L’idée selon laquelle la politique non conventionnelle n’était qu’une parenthèse avant un retour à la politique ​conventionnelle apparaît donc de plus en plus problématique. Y a-t-il une possible « sortie par le haut » des politiques monétaires non conventionnelles ? ******ebook converter DEMO Watermarks*******

2

Rédiger le devoir : une proposition

Introduction En juin 2018, réagissant aux annonces de politique monétaire de M. Draghi, le quotidien économique français La Tribune titrait « BCE : la fin de la morphine monétaire ». La formule était à la fois excessive et inappropriée. Excessive, car les mesures annoncées par le président de la BCE étaient très prudentes et ne constituaient pas un sevrage thérapeutique brutal. Inappropriée, car la politique de la BCE ne visait pas à provoquer l’assoupissement de l’économie, mais au contraire à la stimuler. Plutôt que de morphine, il aurait été préférable de parler de « dopant » ou de « fortifiant ». Cela illustre en tout cas la vivacité des débats autour de la politique monétaire. Mais ce n’est rien à côté de ce qui se passe aux États-Unis. En octobre 2018, le président Trump a indiqué que la Fed (Banque centrale indépendante) était « tombée sur la tête », qu’elle « devenait folle » en remontant les taux d’intérêt. Le mécontentement du président est d’autant plus vif qu’il a nommé lui-même le président du Conseil des gouverneurs, J. Powell, pour remplacer J. Yellen, une économiste démocrate nommée par B. Obama. Or, le nouveau président du Conseil des gouverneurs de la Réserve fédérale poursuit la politique de normalisation de la politique monétaire en ​augmentant prudemment mais régulièrement le principal taux directeur de la Fed (taux des fonds fédéraux). Derrière ces polémiques se joue un enjeu majeur. Selon la Banque de France, la politique monétaire est l’ensemble des moyens mis en œuvre par un État ou une autorité monétaire pour agir sur l’activité économique par la régulation de sa monnaie. On entend par « politique monétaire non conventionnelle » une politique qui repose principalement sur l’action par la quantité de liquidité telle qu’elle est menée à partir de la crise mondiale de 2008. À partir de cette date, la banque centrale des États-Unis a mis en œuvre une politique monétaire non conventionnelle combinant une baisse très rapide de son taux directeur et une vigoureuse politique d’achats d’actifs sur les marchés afin d’alimenter les banques de second rang et l’ensemble de l’économie en liquidités. La Banque centrale européenne s’est engagée dans la même voie, quoique de façon plus tardive. À partir de la fin de l’année 2015, la Fed a commencé à remonter ses taux d’intérêt sous l’autorité de J. Yellen qui s’appuyait notamment sur la baisse du taux de chômage aux ******ebook converter DEMO Watermarks*******

États-Unis. Nommé à la tête de la Fed en février 2018, J. Powell a poursuivi sa politique de hausse des taux dont il annonce le maintien pendant l’année 2019. La BCE a commencé, pour sa part, à réduire ses achats d’actifs (15 milliards par mois depuis septembre 2018 contre 30 milliards par mois précédemment et 80 milliards par mois à l’époque où la politique était la plus expansionniste). La crainte exprimée par D. Trump, et par d’autres observateurs qui utilisent des formulations plus diplomatiques, c’est que l’affaiblissement du soutien monétaire à l’activité économique ne casse pas la croissance alors que cette dernière se montre moins dynamique qu’on ne l’avait prévu précédemment. Autrement dit, le durcissement de la politique monétaire risque d’être procyclique (freinage de la consommation et de l’investissement) au moment où, en Europe notamment, la croissance faiblit et où il faudrait la soutenir. Les banquiers centraux considèrent, pour leur part, que l’on ne peut pas poursuivre indéfiniment la stimulation monétaire de l’économie par injection de liquidités au risque de provoquer une situation de surchauffe et d’aggraver l’instabilité financière. Ces débats rendent nécessaire un bilan des politiques monétaires non conventionnelles mises en œuvre dans les pays développés à économie de marché au lendemain de la crise des subprimes. En effet, montrant l’ampleur des déséquilibres financiers (assèchement des marchés monétaires, menaces sur la liquidité des banques et des autres institutions financières, contraction brutale du crédit aux agents non financiers), les banques centrales ont constaté que la politique fondée sur la modification des taux directeurs et des réserves obligatoires n’était plus efficace, notamment en raison du fait que les taux directeurs avaient atteint ou se rapprochaient dangereusement de la frontière des taux zéro. Il leur a donc fallu innover en usant de l’action par les quantités : facilité quantitative (Quantitative Easing) grâce à l’injection de liquidités, facilité de crédit (Credit Easing) par des mesures incitant les banques de second rang à accorder plus de crédits aux agents non financiers et action prospective sur les taux d’intérêt à long terme (Forward Guidance) pour agir sur les anticipations des agents en matière de taux d’intérêt et donc d’investissement. Ces politiques non conventionnelles ont eu un effet salvateur et ont évité à l’économie mondiale de s’enfoncer dans un cercle vicieux de faillites bancaires, de déflation et de dépression (I). Cependant, en inondant l’économie mondiale en liquidités, en maintenant durablement des taux d’intérêt artificiellement bas, ces mêmes politiques sont devenues un facteur de risque systémique. D’une part, elles créent les conditions d’un ******ebook converter DEMO Watermarks*******

gonflement de nouvelles bulles spéculatives, d’autre part, elles soutiennent la solvabilité des finances publiques puisque les États peuvent financer leur déficit et leur dette à des taux très faibles. Mais au total, le gonflement généralisé de l’endettement comporte un fort risque de survenance d’une nouvelle crise systémique. De ce point de vue, les politiques monétaires n’auraient fait que reculer l’échéance de l’assainissement nécessaire (II). Le bilan des politiques monétaires non conventionnelles est donc très contrasté. I. L’effet salvateur de la politique monétaire non conventionnelle Dans une très large mesure, la politique monétaire non conventionnelle s’est imposée aux banques centrales dans le cadre d’une stratégie de « Cleaning Up Afterward » (nettoyer les débats après coup). En effet, les économistes qui avaient tenté d’attirer l’attention sur la montée des risques financiers avant 2007 (notamment N. Roubini, R. Rajan) n’ont guère été entendus. L’ambiance générale était à l’optimisme quant à l’efficience des marchés et aux mérites de la titrisation sous l’égide de banques centrales qui étaient à l’origine de la « Grande modération ». Le « paradoxe de la crédibilité » a joué à plein. Le déclenchement et l’ampleur de la crise financière de 2007-2008 ont été un choc non anticipé. Mais les banquiers centraux, à la différence de ce qui s’était passé en 1929, étaient conscients des risques et disposés à prendre leurs responsabilités. Dès 2002, B. Bernanke avait formulé la doctrine qui porte son nom à propos de la déflation : « Deflation: making sure “it” doesn’t happen here ». En d’autres termes, la politique monétaire non conventionnelle a permis d’éviter une crise de liquidité (A) et une crise de solvabilité (B). A. La politique monétaire non conventionnelle a permis d’éviter la crise de liquidité Le principal risque qui a découlé de la crise porte sur la question de la liquidité du système financier et, au-delà, des agents non financiers (entreprises et ménages). Les banques et autres institutions financières comptaient à la fois sur la liquidité de leur bilan (détentions d’actifs pouvant être échangés contre de la monnaie banque centrale) et sur la liquidité de marché (l’existence de marchés sur lesquels emprunter, en cas de besoin, les liquidités). Or, la crise a provoqué une contraction brutale de ces deux sources de liquidités. D’une part, certains actifs se sont révélés de mauvaise qualité (en particulier tous les produits structurés qui incluaient des crédits ******ebook converter DEMO Watermarks*******

subprime, mais aussi les créances sur les ménages et les entreprises victimes de l’éclatement de la bulle immobilière). D’autre part, sur les marchés monétaires, la défiance généralisée a conduit les institutions financières, qui disposaient de liquidités, à refuser de les prêter par crainte que leur contrepartie ne se révèle rapidement insolvable ou illiquide. Dès lors, la possibilité existait, surtout après la faillite de Lehman Brothers en septembre 2008, d’une crise générale de liquidité et donc de faillites en chaîne du système bancaire. Outre l’effet de panique, cela aurait conduit à des effets de richesse négatifs sur les ménages et les entreprises (baisse de la valeur de leur patrimoine) et donc au déclenchement d’une spirale déflationniste. Pour enrayer une telle évolution, les banques centrales ont procédé à une baisse très rapide de leurs taux directeurs. Mais cette action par les prix s’est révélée insuffisante. Dès septembre et octobre 2007, la Réserve fédérale procède à des achats d’actifs sur les marchés, mais les montants restent encore limités (de l’ordre de 70 milliards de dollars). La BCE fait, pour sa part, une utilisation non conventionnelle des instruments conventionnels. Au lieu de refinancer les banques de second rang à taux variable dans le cadre d’un appel d’offre, elle ouvre un guichet de refinancement à taux fixe où les banques sont servies pour la totalité des liquidités qu’elles réclament. Dans la même logique, la Réserve fédérale des États-Unis met en place dès décembre 2007 un refinancement à 28 jours (alors qu’habituellement elle accorde des crédits à 24 heures). La Banque centrale américaine met aussi en place trois phases de Quantitative Easing entre décembre 2008 et décembre 2013 pour un total de près de 3 000 milliards de dollars. L’action de la BCE est plus tardive et plus progressive. Entre 2009 et 2012, elle achète des obligations sur les marchés financiers et notamment des obligations des États en difficultés dont les taux d’intérêt ont tendance à s’accroître par rapport aux taux allemands. Elle fait ainsi coup double : elle alimente l’économie en liquidités et elle renforce la crédibilité de la zone euro sapée par la perspective d’un défaut sur la dette souveraine de la Grèce et d’autres pays du Sud de la zone euro. En 2011 et 2012, la BCE met aussi en place des opérations de refinancement à très long terme (Very Long term Refinancing Operation, VLTRO) pour un montant de 1 000 milliards d’euros et une durée de trois à cinq ans alors que les opérations de refinancement à long terme sont habituellement de trois mois dans le cadre de la politique monétaire conventionnelle. C’est dans ce contexte qu’en juillet 2012, alors que l’action de la BCE ******ebook converter DEMO Watermarks*******

face à la crise de la dette grecque est contestée, que M. Draghi, président de la BCE, fait une déclaration retentissante rappelant que son mandat est de maintenir l’inflation un peu au-dessous de 2 % par an. Or, à l’époque la déflation menace, injecter massivement des liquidités est donc conforme au mandat de la BCE. De plus, explique Draghi à une assemblée de financiers réunis à Londres : « Nous ferons tout ce qui sera nécessaire pour préserver l’euro. Et croyez-moi ce sera suffisant. » Compte tenu de la crédibilité de la BCE et de M. Draghi, la déclaration a un fort impact et on voit immédiatement les écarts de taux d’intérêt entre les pays membres de la zone euro se réduire, signe que la confiance dans la pérennité de la zone euro se redresse. Enfin, à partir de mars 2015, la BCE lance un véritable Quantitative Easing, avec initialement des achats de 60 milliards d’actifs financiers par mois. Cette politique d’achat d’actif est prolongée plusieurs fois et s’est terminée en décembre 2018. Si on examine la base monétaire des pays membres de l’OCDE, c’est-àdire la monnaie banque centrale qui est au passif du bilan des banques centrales, elle passe au total de 2 000 milliards d’euros en 2002 à 12 000 milliards d’euros en 2016. Il y a donc un très fort accroissement de la liquidité mondiale. Les banques centrales ont donc joué leur rôle de prêteur en dernier ressort tel qu’il a été défini en 1873 par W. Bagehot. La crise de liquidité a donc été évitée comme la « course au guichet » qui aurait précipité les faillites bancaires. L’intervention résolue des banques centrales a contribué à restaurer la confiance entre les banques et la confiance des agents non financiers dans les banques. La liquidité de bilan s’est améliorée du fait que les banques centrales ont accepté d’acheter aux banques des actifs de moins bonne qualité et la liquidité de marché s’est améliorée aussi puisque chacun savait pouvoir compter sur les apports de liquidité des banques centrales. B. La politique monétaire non conventionnelle a évité la crise de solvabilité et soutenu l’activité économique La crise n’a pas entraîné que des problèmes de liquidité mais aussi des problèmes de solvabilité et elle a eu des effets réels qu’il a fallu combattre. Les problèmes de solvabilité se sont d’abord manifestés dans le secteur bancaire. En Grande-Bretagne, la banque Northern Rock, qui avait connu une croissance spectaculaire en levant des fonds à des taux relativement faibles soit auprès des épargnants individuels, soit auprès d’autres institutions ******ebook converter DEMO Watermarks*******

financières qui ont des liquidités à placer, se trouve en difficulté quand la situation financière se dégrade pour deux raisons : – Les prêteurs individuels (souvent des épargnants âgés) retirent leurs fonds par crainte d’une faillite de la banque (on parle de panique bancaire ou de course aux guichets). – Les institutions financières, qui craignent une crise de liquidité ou une crise de solvabilité, contractent des prêts. Dans les deux cas, les comportements sont autoréalisateurs puisque la crainte de la contraction de la liquidité provoque une crise de liquidité, voire une faillite. Pour empêcher la montée de la défiance, le gouvernement britannique nationalise la banque en février 2008. La banque américaine Bear Stearns qui, en juillet 2007, avait annoncé des pertes considérables sur ses fonds de placement en raison du début de la crise des crédits hypothécaires, est rachetée par J. P. Morgan Chase en mars 2008 au prix de 2 dollars l’action (contre 170 dollars l’action au premier semestre 2007). En septembre 2008, ce sont les deux organismes semipublics de refinancement hypothécaires (Freddie Mac et Fannie Mae) qui sont placés sous la tutelle du gouvernement fédéral. Le premier assureur mondial (AIG) est lui aussi au bord de la faillite. Le gouvernement fédéral doit procéder à une nationalisation, la Réserve fédérale apportant 85 milliards de dollars. Le 15 septembre 2008, la banque Lehman Brothers fait faillite. Le gouvernement a décidé de ne pas la sauver considérant que ses actifs sont trop faibles, et sans doute dans le but de faire un exemple afin d’éviter que l’aléa moral ne soit trop important. Cette banque d’affaire (tout comme la Bear Stearns) ne bénéficiait pas du système fédéral d’assurance des dépôts. Avec le recul, certains observateurs se demandent s’il n’aurait pas été préférable de sauver aussi Lehman Brothers. Toujours est-il qu’en octobre 2008 l’État fédéral adopte un plan de 700 milliards de dollars pour sauver le système bancaire. Au Bénélux, les États augmentent leur part dans le capital de la puissante banque Fortis pour la sauver de la faillite, en Allemagne le gouvernement intervient pour sauver la quatrième banque du pays. En France, les pouvoirs publics accordent des crédits à la plupart des grandes banques. Le schéma est donc partout le même, le budget de l’État est mobilisé pour financer le sauvetage de banques menacées de faillites. Il en découle un creusement du déficit public et de la dette publique, donc un recours accru au marché pour placer des titres de la dette publique, qui ******ebook converter DEMO Watermarks*******

sont acquis par les banques centrales dans le cadre de leur politique de refinancement et/ou d’achats d’actifs. Mais les pouvoirs publics n’ont pas eu seulement à sauver les banques. Aux États-Unis par exemple, la demande adressée aux constructeurs automobiles (General Motors et Chrysler) s’est effondrée et ceux-ci étaient au bord de la faillite, le gouvernement fédéral étant là encore intervenu pour les sauver. Le cas de l’automobile n’est qu’un exemple d’un phénomène plus général : la crise immobilière et la crise financière ont eu des effets de richesse négatifs considérables qui ont conduit les ménages et les entreprises à contracter fortement leur consommation et leurs investissements. Cette baisse de la demande globale produit logiquement une baisse de la production et une hausse du chômage qui poussent les gouvernements à procéder à des relances budgétaires importantes. Là encore les déficits et les dettes augmentent conduisant les banques centrales à intervenir sur le marché secondaire de la dette. Mais un autre mécanisme lié à la crise est intervenu, la contraction du crédit (Credit Crunch). D’une part, les banques ont contracté fortement les crédits accordés aux clients en raison d’une forte croissance de leur aversion pour le risque, d’autre part, les agents non financiers (sauf l’État) ont cherché à se désendetter, ils ont donc réduit leur demande de crédit. Au total, cette contraction du crédit a eu un effet négatif sur la dynamique de la demande globale. Les diverses composantes de la politique monétaire non conventionnelle ont toutes pour objectif de soutenir le crédit et donc l’activité économique. Au total, les politiques monétaires non conventionnelles ont contribué directement ou indirectement à lutter contre la crise de solvabilité (notamment au sein du système bancaire). Elles ont aidé aussi à soutenir le crédit, à maintenir les taux d’intérêt à long terme à un niveau modéré et donc à éviter la spirale déflationniste. Certes, la reprise économique n’a pas été très dynamique, mais le pire a été évité. II. L’impossible normalisation de la politique monétaire non conventionnelle Le bilan des politiques apparaît donc, à ce stade, très favorable, il faut cependant nuancer fortement. En effet, par définition les politiques non conventionnelles avaient vocation à être transitoires. Réponses exceptionnelles à une situation exceptionnelle, les politiques non conventionnelles devraient conduire à un retour vers les politiques ******ebook converter DEMO Watermarks*******

conventionnelles dès lors que les déséquilibres économiques se résorbent. On parle de « normalisation » des politiques monétaires. Mais cette normalisation se révèle difficile. D’une part, la crainte existe qu’une politique monétaire moins accommodante ait un impact négatif sur la croissance et l’emploi. D’autre part, certains économistes se demandent si une contraction de l’offre de liquidité banque centrale et une hausse des taux d’intérêt directeurs ne risquent pas de conduire à un krach obligataire. Enfin, la question se pose de la soutenabilité de la dette publique. Depuis 2008, les États sont habitués à se financer à des taux très faibles et à supporter une charge de la dette modérée. Le retour à des taux plus élevés pourrait susciter la méfiance des épargnants et déséquilibrer un peu plus les finances publiques. A. Normalisation contracyclique de la politique monétaire Les banques centrales, compte tenu de la gravité de la crise, qualifiée de « pire crise financière de l’histoire mondiale » par B. Bernanke, ont conservé à leur politique monétaire une orientation accommodante pendant une très longue période. Aux États-Unis, alors que la croissance du PIB devenait plus dynamique après 2010, J. Yellen la présidente de la Fed a, à plusieurs reprises, écarté la perspective d’une hausse des taux ou d’une réduction de la politique de rachat d’actifs en faisant valoir que le taux de chômage était encore trop élevé. Ce n’est qu’en 2015 que la politique monétaire prend très prudemment un tour plus restrictif, alors que le taux de chômage est revenu à son niveau d’équilibre. Mais une économie dont le chômage est à son niveau plancher, compte tenu des déterminants structurels, est menacée de ralentissement de la croissance. Il y a donc une tension entre le pouvoir exécutif qui mène une politique de stimulation budgétaire et la Réserve fédérale qui met en œuvre une orientation plus restrictive de la politique monétaire. Mais le conseil des gouverneurs fait observer que le chômage reste faible aux États-Unis et que des tensions inflationnistes peuvent survenir. Dans la zone euro, la BCE a certes annoncé la baisse de ses achats d’actifs à partir de septembre 2018 et la fin du Quantitative Easing en fin décembre 2018. Mais d’une part, elle a précisé que, si nécessaire, elle pourrait poursuivre ses acquisitions de titres sur le marché secondaire si la situation l’exigeait, d’autre part, elle a indiqué que la fin des achats d’actifs ne signifiait pas une hausse des taux d’intérêt qui resteront durablement à leurs niveaux actuels (nul pour les opérations ******ebook converter DEMO Watermarks*******

principales de refinancement, négatif pour la facilité de dépôt) bien après la fin du Quantitative Easing. Enfin, elle a indiqué que l’arrêt des achats d’actifs ne signifiait pas, dans l’immédiat, la réduction de la taille du bilan de la BCE (elle compensera par des achats sur le marché secondaire les titres qui sortent de son bilan parce qu’ils arrivent à échéance). Il ne s’agit donc pas vraiment d’une normalisation de la politique monétaire (on ne revient pas à la politique monétaire conventionnelle) mais d’une réduction de l’aspect accommodant de la politique monétaire non conventionnelle. Le problème qui est posé est double. En premier lieu, tout se passe comme s’il était impossible de normaliser la politique monétaire sans risquer de casser la croissance. Les autorités monétaires craignent manifestement qu’un durcissement excessif de la politique monétaire ne produise un effet de signal négatif et provoquent des anticipations pessimistes qui auraient des effets négatifs sur la production et l’emploi. De plus, la hausse des taux directeurs a toutes les chances de provoquer une hausse des taux débiteurs pratiqués par les banques de second rang, ce qui nuirait aux investissements et à la consommation. Une normalisation de la politique monétaire pourrait aussi conduire à un rationnement du crédit si les banques de second rang se retrouvent moins liquides et si elles obtiennent plus difficilement des liquidités sur les marchés ou auprès de la banque centrale. En zone euro comme aux États-Unis, le taux de chômage moyen se rapproche du taux de chômage d’équilibre et donc le ralentissement du rythme de la croissance, déjà à l’œuvre, pourrait s’amplifier. En second lieu, le problème est aussi qu’à ces effets réels, peuvent s’agréger des aspects financiers. Certaines composantes du système bancaire de la zone euro restent très fragiles en raison de la persistance, dans leur bilan, d’actifs de mauvaise qualité (c’est particulièrement le cas en Italie). Une politique de contraction du bilan de la BCE dans le cadre d’une éventuelle normalisation de la politique monétaire pourrait renforcer la défiance et donc rendre plus difficile les crédits interbancaires. On sait aussi que la zone euro se caractérise depuis 2008 par une faible mobilité des capitaux intra-zone, les excédents commerciaux des pays du Nord de la zone euro (notamment l’Allemagne) sont placés à l’extérieur de la zone euro plutôt que dans les pays du Sud de la zone qui ont pourtant besoin de ce transfert d’épargne pour financer le renforcement de la compétitivité structurelle de leurs économies. Comme la politique monétaire non conventionnelle a joué un rôle essentiel dans la défense de la zone euro et dans la réduction des spreads de taux entre pays membres, une ******ebook converter DEMO Watermarks*******

normalisation pourrait être perçue comme une moindre volonté de défendre l’euro, surtout à un moment où les prises de positions du gouvernement italien créent des tensions au sein de la zone. Le résultat pourrait donc être un creusement des écarts de taux d’intérêt et des difficultés de certaines banques de la zone. On peut aussi rappeler que la banque d’Angleterre est placée dans une situation difficile dans la perspective du Brexit : la livre sterling se déprécie sur le marché des changes, ce qui devrait pousser à une hausse des taux, mais l’activité économique montre des signes de faiblesse, ce qui devrait pousser au statu quo, voire à une baisse des taux directeurs. Quant à la Banque centrale du Japon, elle s’est engagée à maintenir des taux directeurs nuls pendant une très longue période. On comprend que dans ces conditions, il semble difficile de donner une orientation plus restrictive aux politiques monétaires dans le cadre de la transition vers des politiques monétaires conventionnelles. B. Soutenabilité de la dette publique, dominance budgétaire et instabilité financière La normalisation de la politique monétaire se heurte à un autre problème qui concerne le financement public. En effet, comme nous l’avons vu plus haut, les déficits publics se sont fortement creusés après la crise de 2007-2008. Cela n’a pas résulté seulement des habituels stabili​sateurs automatiques qui se manifestent dans les phases de récession. Les gouvernements ont été obligés d’engager des sommes considérables pour permettre au système bancaire d’échapper à la faillite en chaîne, mais ils ont dû aussi soutenir l’activité économique menacée par la contraction de la demande domestique et étrangère (le commerce international baisse de plus de 10 % en 2010). Cette augmentation des déficits publics s’est traduite par un gonflement de la dette publique. Les médias ont parlé de façon contestable de la « crise des dettes publiques » en zone euro en oubliant de préciser que le taux d’endettement (dette publique sur PIB) était beaucoup plus élevé en GrandeBretagne, aux États-Unis et plus encore au Japon. Pour financer cette dette, les états doivent émettre des titres de dette publique sur le marché primaire. Une question décisive concerne le taux d’intérêt que les États doivent consentir pour collecter les fonds qui leur sont nécessaires. Or, ce taux d’intérêt combiné avec le montant de la dette détermine le montant du flux d’intérêt dont l’État doit s’acquitter. Ce flux étant une composante des ******ebook converter DEMO Watermarks*******

dépenses publiques annuelles, plus il est élevé plus il contribue au déficit public et puis il réduit les marges de manœuvre budgétaire dont dispose la politique économique après paiement des intérêts. Il existe donc un risque d’effet boule de neige de la dette publique. Si le déficit primaire (déficit total moins paiement des intérêts) conduit à un accroissement du recours à l’endettement public, la dette publique devient autoentretenue. Cela conduit à une réflexion sur la soutenabilité de la dette publique. On sait que cette soutenabilité suppose que le taux de croissance en volume de l’économie soit supérieur au taux d’intérêt réel. Or, la crise a eu pour effet de ralentir fortement la croissance économique et le taux d’inflation, et pour que la dette publique soit soutenable il faut que le taux d’intérêt nominal sur les titres de la dette publique soit particulièrement faible. La politique d’achat de titre de la dette publique sur le marché secondaire a été le principal support des injections de liquidité des banques centrales et des politiques de Quantitative Easing. Comme l’effet sur les taux d’intérêt est le même si la banque centrale intervient sur le marché primaire ou sur le marché secondaire de la dette, les États ont été en mesure de financer leur dette à des taux très faibles (voire nuls ou négatifs pour les titres à court et moyen termes). Grâce à la politique monétaire non conventionnelle la soutenabilité de la dette a donc été assurée et la charge d’intérêt est restée supportable. Mais, de ce fait, la politique monétaire est soumise à une situation de dominance budgétaire (Fiscal Dominance). En effet, toute contraction de la liquidité du marché secondaire de la dette et tout relèvement des taux directeurs dans le cadre d’une normalisation de la politique monétaire risquent de conduire à une remise en cause de la soutenabilité de la dette publique. La politique monétaire non conventionnelle combinée avec le niveau élevé de l’endettement public a donc conduit à une forme d’irréversibilité : la banque centrale est condamnée à alimenter l’économie en liquidités au risque de déclencher une crise des finances publiques. Mais maintenir cette liquidité abondante présente des risques importants. En effet, une large part de ces actifs liquides est placée sur les marchés d’actifs financiers et immobiliers, de sorte que de nombreux observateurs s’inquiètent de voir se gonfler à nouveau des bulles sur les prix des actifs. Comme, dans le même temps, les politiques microprudentielles et macroprudentielles sont restées trop timides, on assiste à une montée des risques liés à l’instabilité financière. Beaucoup d’économistes considèrent ******ebook converter DEMO Watermarks*******

que les risques de crises financières sont désormais aussi forts qu’avant 2007. P. Artus affirme même en octobre 2018 que la nouvelle crise financière a déjà commencé. Il cite notamment la dépréciation des taux de change des pays émergents, la baisse des cours boursiers (en particulier les cours des actions des banques européennes) et la poursuite de la hausse de l’endettement public et privé au niveau mondial. Dans ces conditions, un durcissement de la politique monétaire pourrait conduire à un déclenchement d’une crise financière. Aux États-Unis, par exemple, on considère que la hausse des taux de la Fed contribue à expliquer la baisse des cours de la bourse de New York. Les banques centrales sont donc confrontées à un dilemme cornélien : elles doivent normaliser leur politique monétaire et revenir à une politique monétaire plus conventionnelle car il n’est pas possible de continuer indéfiniment à doper l’économie mondiale par des injections de liquidités. Mais toute tentative de rendre la politique monétaire risque de déclencher une crise des finances publiques et ou une crise financière majeure. Conclusion Le bilan des politiques monétaires non conventionnelles est donc contrasté. D’une part, elles constituent une innovation qui a permis aux banques centrales de contribuer de façon décisive à éviter l’entrée de l’économie mondiale dans une spirale déflationniste comparable à celle de la Grande Dépression des années 1930. Mais la rançon de ce succès c’est l’abondance de liquidités qui affecte l’économie mondiale et corrélativement le maintien sur longue période de taux d’intérêt anormalement bas. Cela a certes contribué à soutenir l’activité économique et l’emploi et permis aux États de se financer à moindre coût sur les marchés financiers. La soutenabilité de la dette publique a donc été assurée grâce à l’abondance des liquidités qui a fait baisser significativement les taux d’intérêt. Cette baisse des taux a particulièrement bénéficié aux titres publics, à l’exception de quelques États en difficulté, qui apparaissent comme des actifs sans risque. Mais la contrepartie de ce bilan positif réside dans une forme d’irréversibilité : il est devenu très difficile pour les banques centrales d’adopter des politiques monétaires plus restrictives au risque de porter la responsabilité de remettre en cause une croissance économique toujours fragile, voire de déclencher une crise financière. Il semble donc difficile d’échapper à ce dilemme, sauf à mettre en œuvre des mesures structurelles qui permettraient de sortir par le haut des ******ebook converter DEMO Watermarks*******

difficultés. Ces mesures pourraient concerner deux domaines. D’une part, des mesures pourraient être prises en faveur d’une croissance plus dynamique par des investissements en recherche-développement en capital humain. Il faudrait aussi, dans cette perspective, dynamiser la croissance en la rendant plus durable (transition écologique) et plus inclusive (réduction des inégalités). D’autre part, il faudrait prendre des mesures plus vigoureuses en faveur de la stabilité financière. Beaucoup de travaux confirment qu’au-delà d’un certain seuil la taille de la finance n’a plus d’effets positifs sur la croissance, voire qu’elle a un effet négatif. Il faudrait donc notamment limiter l’effet de levier sur lequel jouent les institutions financières en augmentant beaucoup plus fortement les exigences prudentielles. Dans les deux cas, un renforcement de la gouvernance mondiale s’impose pour lutter contre les déséquilibres globaux et gérer de façon coopérative les biens collectifs et les biens communs mondiaux.

******ebook converter DEMO Watermarks*******

Sujet

10 Les relations monétaires internationales peuventelles être régulées ?

1

Se préparer à la rédaction

1.1 L’enjeu du sujet La question posée vise à se demander s’il est possible de réguler le système des paiements entre les différentes zones monétaires du monde. Les relations monétaires internationales apparaissent avec les premiers échanges internationaux. Cependant, l’organisation des transactions monétaires et financières s’opère au cours de la première mondialisation avec le régime de l’étalon-or. Depuis, plusieurs régimes monétaires internationaux se sont succédé au cours de l’histoire du capitalisme pour réguler les relations monétaires internationales. Pour R. McKinnon, un régime ou système monétaire international peut se définir comme un ensemble de règles qui contraignent ou influencent les décisions des États en matière de change, de politique monétaire et de mobilité des capitaux. Il repose sur quatre éléments : la convertibilité des monnaies et l’organisation des flux de capitaux, le régime de change, la fourniture de liquidité et la surveillance/coopération monétaire. On entend par régulation un dispositif qui permet à un système complexe de corriger les déséquilibres qui l’affectent du fait de chocs exogènes ou de processus endogènes. Pour certains économistes, le marché est autorégulateur au sens où il est capable, grâce au mécanisme des prix, de rétablir son équilibre en cas de perturbation. Si l’on pense qu’il en va ainsi, alors il faut et il suffit que les relations monétaires internationales s’inscrivent dans un cadre ******ebook converter DEMO Watermarks*******

marchand (notamment la flexibilité des taux de change) pour que leur régulation soit assurée. Mais les acquis de la science économique nous apprennent que les conditions de l’autorégulation marchande sont très restrictives. Le plus souvent, les marchés sont affectés par des défauts de coordination qui conduisent à des déséquilibres cumulatifs (crises de change). L’enjeu du sujet consiste alors à rechercher s’il est possible de mettre en place des dispositifs institutionnels (règlementation, coordination des autorités monétaires, etc.) qui, dans le contexte issu de la libéralisation financière entamée au cours des années 1970, seraient en mesure d’assurer une plus grande stabilité financière internationale.

1.2 Le cadrage du sujet et les concepts clés Il s’agit d’une question qui relève du champ de l’économie et de la finance internationales ainsi que de l’économie politique internationale dans le sens où des questions de souveraineté et de pouvoir se posent nécessairement lorsqu’il s’agit de réfléchir aux relations monétaires entre pays. Cette question n’est pas propre à l’économie contemporaine puisque les relations monétaires internationales ont été régulées par différents systèmes monétaires internationaux, depuis l’étalon-or de la fin du XIXe siècle à aujourd’hui en passant par le système de Bretton-Woods. Il est en revanche important de noter que certains économistes, à l’image de J. Mistral, considèrent qu’aujourd’hui les relations monétaires internationales se déroulent dans un « non-système monétaire international ». Ainsi, le traitement du sujet doit s’appuyer sur l’histoire des relations monétaires internationales à partir de la première mondialisation et la réflexion doit porter sur les crises et refondations de leur régulation en analysant également le champ de leurs évolutions possibles. Réguler les relations monétaires internationales consiste à permettre qu’elles se déroulent dans un cadre stable, mais également que des dispositifs de réponses à des crises soient prévus. Il convient donc ici d’aborder les institutions qui les fondent : organisation des transferts monétaires, régime de change, coopération monétaire.

1.3 La construction de la problématique La formulation de la question ne doit pas conduire le candidat à opposer simplement possibilité/impossibilité de la régulation. Si la régulation était ******ebook converter DEMO Watermarks*******

impossible alors la question n’aurait pas de sens. En d’autres termes, s’il fallait donner une réponse radicale à la question, celle-ci serait positive. En revanche, les relations monétaires internationales sont régulées de manière plus ou moins efficaces selon le contexte de mise en œuvre de la régulation. Ainsi, deux grandes questions vont structurer la réflexion : 1) Pourquoi les régulations des relations monétaires internationales mises en œuvre au cours de l’histoire n’ont-elles pu être maintenues ? 2) Quelles sont les pistes et obstacles aujourd’hui pour une nouvelle régulation des relations monétaires internationales ?

2

Rédiger le devoir : une proposition

Introduction Au début du mois d’octobre 2018, des économistes français (notamment M. Aglietta, Th. Piketty, L. Scialom, G. Zucman) publient, dans le quotidien Le Monde, un article dans lequel ils s’inquiètent du fait que les accords commerciaux internationaux conduisent à affaiblir la régulation du système monétaire et financier international exposant ainsi l’économie mondiale à de nouvelles crises. Au mois de juin précédent, le Secours Catholique publie un volumineux rapport qui, s’appuyant sur une récente encyclique pontificale, s’inquiète des quarante années de dérégulation financière qui ont précédé la crise de 2007-2008 et l’insuffisance des efforts de régulation, qui ont été réalisés dans les dix ans après le choc financier et réel majeur qu’elle a constitué. Les relations monétaires internationales correspondent à l’ensemble des interdépendances qui s’établissent entre monnaies nationales (ou régionales) dans le cadre des échanges économiques et financiers internationaux. Leur régulation consiste à mettre en œuvre un ensemble de procédures qui permettent d’éviter des perturbations (crises monétaires) en garantissant la liquidité internationale ou d’en corriger les effets en rétablissant une situation d’équilibre (stabilité monétaire internationale). Cela repose sur un système monétaire international, qui permet de déterminer le taux de change des monnaies nationales, et sur un étalon monétaire international. Comment expliquer que la régulation des relations monétaires internationales ait dû être repensée au cours de l’histoire du capitalisme mondialisé ? Quelles sont les pistes proposées aujourd’hui pour pérenniser ******ebook converter DEMO Watermarks*******

les relations monétaires internationales et la mondialisation ? La réflexion s’organise autour de deux axes. Dans un premier temps, nous nous efforçons d’expliquer pourquoi les régulations fondées sur un étalon métallique ont échoué. Dans un second temps, nous réfléchissons aux écueils du nonsystème actuel et à la nécessité de concevoir une régulation des relations monétaires internationales reposant sur une coopération politique à l’échelle mondiale. I. L’impossible régulation fondée sur une monnaie nationale La première mondialisation mise en évidence par S. Berger (Notre première mondialisation, 2003) a eu pour caractéristique une intégration monétaire et financière internationale régulée par l’étalon-or. Celui-ci s’est effondré au début du XXe siècle (A). Après des tentatives avortées dans l’entre-deuxguerres, un étalon de change-or a été élaboré à la suite de la signature des accords de Bretton Woods en 1944, mais ce système était voué à l’échec (B). A. L’étalon-or et son effondrement Afin de bien comprendre les difficultés propres à la régulation des relations monétaires internationales, dont celles rencontrées par l’étalon-or, il convient de présenter le trilemme mis en avant par R. Mundell (Prix Nobel 1999). Il montre en effet qu’il est impossible de réaliser simultanément la fixité des taux de change, c’est-à-dire la définition rigide de la valeur externe des monnaies nationales, la libre circulation des capitaux, c’est-à-dire l’absence d’entrave aux mouvements monétaires et financiers, et l’autonomie des politiques économiques et en particulier de la politique monétaire, c’est-àdire de la détermination d’objectifs de taux d’intérêt et de quantité de monnaie par les autorités monétaires nationales. L’étalon-or reposant sur la fixité du change, nous allons voir que dans le cadre de la première globalisation, qui conduit à une intégration financière importante, les politiques monétaires nationales autonomes ont été abandonnées. Le système de l’étalon-or s’impose à la fin du XIXe siècle alors que l’Angleterre est devenue la première puissance économique mondiale et que les frontières s’ouvrent au commerce et aux capitaux. C’est l’adoption de la référence à l’or par l’Allemagne bismarckienne en 1873 qui accélère l’abandon du bimétallisme par les pays qui, comme la France ou les ÉtatsUnis, fondent la valeur de leur monnaie sur l’or ou l’argent, le taux de change entre les deux métaux étant fixe. Ce système bimétalliste est complexe et ******ebook converter DEMO Watermarks*******

soumis à des pressions en raison des rythmes différents de découverte de métal. L’étalon-or détermine un étalon commun de mesure de la valeur. Il repose sur plusieurs règles non écrites : la valeur des monnaies nationales est fixée en or et garantie par la banque centrale, les billets sont convertibles en or et la frappe du métal est libre, l’or peut circuler librement entre pays. Il présente un fonctionnement théorique qui doit conduire à un équilibrage automatique des balances commerciales selon l’analyse qu’en donne D. Hume dès le XVIIIe siècle. En effet, la base monétaire étant fondée sur les réserves en or des banques centrales des pays participant au commerce mondial, un excédent ou un déficit commercial doit donner lieu à un accroissement (entrées d’or) ou une réduction (sorties d’or) de cette base monétaire. En acceptant les hypothèses d’un rapport de proportionnalité fixe entre base monétaire et masse monétaire d’une part et de corrélation positive entre quantité de monnaie et niveau des prix d’autre part, un excédent commercial doit conduire à un accroissement des prix des produits nationaux et donc à une réduction de ce déficit (retour automatique à l’équilibre). En effet, du fait de la hausse des prix, les exportations perdent en compétitivité et régressent tandis que les importations progressent rééquilibrant la balance commerciale. En cas de déficit commercial, c’est l’inverse qui se produit. Par ailleurs, la fixité du change repose sur un mécanisme de points d’entrées et de sorties d’or pour les paiements. Dans un régime de change qui détermine la valeur des monnaies dans un étalon accepté en paiement ultime par tous, il peut sembler indifférent de régler ses dettes en monnaie (fiduciaire ou scripturale) ou en or. À l’époque, les lettres de change permettent ces règlements. Mais comme elles s’échangent aussi sur le marché des changes, si une monnaie s’y apprécie ou déprécie au-delà du coût du règlement en métal (transport, assurance et éventuellement frappe) alors le règlement se fait en or et par le jeu de l’offre et de la demande, le taux de change reste très proche de sa parité, c’est-à-dire de sa valeur en or. Des points d’entrées et de sorties d’or déterminent alors les marges de fluctuations du change qui restent très faibles. Ainsi, les relations monétaires internationales, pour ce qui concerne le commerce à tout le moins, sont théoriquement régulées par le mécanisme de l’étalon-or, c’est-à-dire de façon automatique sur la seule base des décisions individuelles rationnelles des agents. Cependant, comme l’ont mis en évidence plusieurs économistes, il faut ******ebook converter DEMO Watermarks*******

distinguer l’étalon-or historique de l’étalon-or théorique. Dans l’étalon-or tel qu’il a effectivement fonctionné, la livre sterling est la devise-clé du système monétaire international et la Banque d’Angleterre l’institution qui garantit la liquidité des paiements internationaux. Comme le souligne M. Aglietta dans ses nombreux ouvrages sur la question, la banque centrale anglaise est celle qui dispose des réserves de change les plus faibles de l’époque. Le régime repose sur la confiance accordée à l’institution de la City et à la livre sterling, c’est-à-dire à la monnaie de la première puissance économique, financière et militaire. L’historien de l’économie Ch. Kindleberger parle à ce propos de « stabilité hégémonique ». D’ailleurs, la pénurie potentielle d’or, dont la quantité dépend des découvertes, rend nécessaire l’utilisation de la livre sterling pour les investissements internationaux qui vont à cette période de l’Europe (Angleterre, France) vers le reste du monde (empires coloniaux, Amériques, Europe de l’Est). Il convient de noter enfin que cette stabilité des changes et des prix n’a pas garanti la stabilité économique et que de nombreux krachs boursiers et crises bancaires sont apparues au cours de la période. Les tensions nationalistes et les préparatifs du financement de la Première Guerre mondiale déstabilisent l’étalon-or. En effet, le financement monétaire des dépenses publiques conduit à un accroissement considérable de la masse monétaire au regard des réserves d’or. Pour mener une politique monétaire autonome la contrainte de l’étalon-or est alors abandonnée. B. Un étalon de change-or dysfonctionnel Après la Première Guerre mondiale les pays cherchent à rétablir une régulation monétaire internationale fondée sur des devises clés, notamment le dollar, monnaie de la première puissance économique du moment, et la livre sterling qui conserve un rôle important dans les réserves de change (balances sterlings) et dont le système bancaire a une implantation mondiale. La Conférence de Gênes de 1922 propose de conserver l’or comme étalon sans que la convertibilité interne des billets soit rétablie. Les valeurs externes des monnaies sont déterminées en or ou en monnaie convertible en or. Dans le premier cas, la monnaie devient monnaie de réserve. Le dollar est ainsi une monnaie de réserve puisque les États-Unis disposent du plus important stock d’or du monde. Le Royaume-Uni va œuvrer pour retrouver la parité or de la livre sterling d’avant-guerre, ce qui nécessite une politique déflationniste avec un stock d’or amoindri. En effet, les politiques inflationnistes qui ******ebook converter DEMO Watermarks*******

précèdent ont fait perdre leur compétitivité-prix aux produits britanniques et le retour à la parité-or nécessite la dévaluation (réduction de la valeur or du sterling) ou la déflation (réduction des prix nationaux). Le choix de la déflation est fortement critiqué par J. M. Keynes qui dénonce dans son pamphlet de 1925 Les conséquences économiques de M. Churchill : le retour à la parité d’avant-guerre se fait au prix d’une montée du chômage britannique lié à la politique déflationniste qui n’empêche pas la monnaie d’être surévaluée. Quant au franc, sa convertibilité sera rétablie en 1928 (franc Poincaré) avec une dévaluation de 80 %. Cependant, la défiance à l’égard de la livre puis la crise de 1929 et ses conséquences économiques dépressives ne permettent pas de reconstituer une régulation des relations monétaires internationales. La livre sterling est déclarée inconvertible en 1931, le dollar flotte en 1933. En 1933, la Conférence de Londres réunit soixante-six pays en vue de rétablir la stabilité monétaire internationale mais bute sur le recentrage des États-Unis sur le rétablissement de leur économie nationale dans le cadre du New Deal de Roosevelt qui les conduit à dévaluer le dollar. Il faut attendre le début des années 1940, en pleine guerre, pour que les États-Unis et la Grande-Bretagne entament des discussions en vue de rétablir un ordre monétaire international nécessaire. Les accords de Bretton Woods de 1944 donnent naissance à un second régime de change-or fondé sur une devise-clé, le dollar dont la valeur est définie en or, et sur des institutions internationales, le Fonds monétaire international (FMI) et la Banque mondiale. Deux plans s’opposaient pour constituer la nouvelle régulation des relations monétaires internationales : celui de l’administration américaine porté par H. D. White, alors secrétaire au Trésor, face à celui de la couronne britannique porté par J. M. Keynes. Le plan de Keynes est beaucoup plus ambitieux puisqu’il propose d’abandonner toute référence à l’or, « vieille relique barbare », pour organiser un système de régulation fondé sur une monnaie supranationale qu’il propose d’appeler « bancor », dans laquelle les monnaies nationales définissent une parité fixe mais ajustable, et une chambre de compensation permettant de contrôler les paiements internationaux et d’ajuster les balances des paiements (nous y reviendrons dans le point II-B). Mais la conception américaine l’a emporté : la Fed garantit un dollar à un trente-cinquième d’once d’or fin, les autres monnaies définissent leur valeur externe en dollar, as good as gold, les changes sont fixes mais ajustables sous le contrôle du FMI. ******ebook converter DEMO Watermarks*******

Selon les enseignements du triangle de Mundell, la pérennité d’un tel système nécessite un contrôle des mouvements de capitaux. Au regard de l’analyse en termes d’hégémonie, les États-Unis doivent fournir la liquidité internationale. Ces deux éléments sont au cœur du dilemme mis en évidence par R. Triffin : il n’est pas possible pour une monnaie nationale d’être également monnaie des règlements internationaux. En effet, dans un monde en reconstruction puis en rattrapage économique (les économies européennes et japonaises convergent vers celle des États-Unis) le besoin en liquidité internationale est croissant. Les États-Unis fournissent cette liquidité à travers le plan Marshall, puis par les investissements étrangers réalisés par les firmes états-uniennes et, enfin, par un déficit commercial croissant à partir des années 1960. Or, la quantité de dollars croît plus rapidement que la quantité d’or. En conséquence, le dollar doit être dévalué (sinon, la quantité de dollars en circulation dans le monde aurait dû être réduite). Le système finit par s’effondrer au début des années 1970, dans le cadre d’une amplification des mouvements internationaux de capitaux, et malgré des tentatives pour le maintenir (création du pool de l’or au début des années 1960 afin de stabiliser la valeur du métal sur le marché, création des droits de tirage spéciaux en 1968 pour élargir la liquidité en dehors du dollar). Le 15 août 1971, le président Nixon annonce unilatéralement l’inconvertibilité du dollar en or. Le flottement généralisé est à l’œuvre dès 1973 et c’est lors des accords de la Jamaïque en 1976 que le système de Bretton Woods prend fin officiellement. Ainsi, il faut reconnaître au système de Bretton Woods d’avoir tenté de mettre en œuvre une régulation des relations monétaires internationales fondée sur des institutions visant à permettre les ajustements de balance des paiements. Cependant, laisser la responsabilité à une banque centrale nationale de garantir la liquidité mondiale a fini par buter les intérêts politiques nationaux comme l’a bien exprimé J. B. Connally, le secrétaire au Trésor de R. Nixon : « Le dollar est notre monnaie, mais c’est votre problème. » II. Comment répondre à l’instabilité monétaire et financière ? La victoire idéologique et épistémologique du courant monétariste en science économique a imposé l’hypothèse d’efficience des marchés financiers favorable à la régulation par le marché. L’effondrement du système de Bretton Woods a conduit à un régime de change flottant dans le cadre d’une libéralisation financière internationale. Mais cette régulation marchande a ******ebook converter DEMO Watermarks*******

montré ses limites du fait d’une instabilité monétaire et financière croissante (A). C’est pourquoi la réflexion se porte aujourd’hui sur l’organisation d’une régulation institutionnalisée des relations monétaires internationales (B). A. L’échec de la libéralisation financière M. Friedman (Prix Nobel 1976) défend dès les années 1960 les atouts d’un régime de change flexible à travers son fameux plaidoyer flexibiliste. La régulation marchande des relations monétaires internationales permet dans ce cadre un ajustement des balances des paiements par la variation des cours du change. En effet, la monnaie d’un pays excédentaire tend à s’apprécier puisqu’elle est demandée sur le marché des changes, ce qui doit réduire la compétitivité des produits nationaux et accroître celle des produits étrangers. À l’inverse, un pays déficitaire voit sa monnaie se déprécier et sa compétitivité-prix s’accroître. Dans le modèle de Friedman, cet ajustement est quasiment immédiat, contrairement aux délais imposés par les démarches administratives nécessaires au sein du FMI sous le régime de Bretton Woods. Rappelons simplement qu’une dévaluation/réévaluation excédant 10 % de la parité officielle nécessitait un accord à la majorité qualifiée. Enfin, dans un cadre de libre circulation des capitaux, abandonner la fixité du change c’est également retrouver une autonomie de la politique monétaire. E. Fama (Prix Nobel 2013) renforce le plaidoyer flexibiliste en proposant à la communauté scientifique un modèle d’efficience des marchés financiers, ce qui conduit logiquement, sur le plan politique, à prôner la libéralisation financière. En effet, cette analyse montre que les marchés financiers sont en mesure de garantir une efficience informationnelle en déterminant des prix d’actifs synthétisant toutes les connaissances disponibles. L’efficience est également opérationnelle, la concurrence entre acteurs des marchés financiers permettant de minimiser les coûts de transaction. Elle est enfin allocationnelle puisque les ressources financières sont utilisées là où les rendements sont les meilleurs. L’argument a convaincu les décideurs politiques et permis de fonder ce que M. Aglietta appelle une communauté épistémique favorable à la libéralisation financière et ouvrant la voie à la deuxième globalisation financière de l’histoire du capitalisme. Cependant, l’histoire économique conduit à observer que la régulation marchande des relations monétaires internationales ne s’est pas révélée stabilisante. La question de la liquidité ultime n’est pas résolue par ce type de ******ebook converter DEMO Watermarks*******

dispositif puisqu’aucun étalon monétaire international n’existe. En conséquence, le dollar, monnaie nationale, est resté la monnaie des paiements internationaux qu’il s’agisse des transactions courantes ou des mouvements financiers internationaux. Dès lors, le « privilège exorbitant » des États-Unis dont parle B. Eichengreen n’a pas disparu avec le système de Bretton Woods et la stabilité monétaire internationale repose toujours sur les décisions des États-Unis. D’ailleurs, l’instabilité monétaire et financière croissante oblige la Fed à intervenir fortement à partir des années 1990 pour juguler les crises financières engendrées par la globalisation financière. C’est le cas avec les crises mexicaines de 1994-1995 et asiatique de 1997 dont les plans de sauvetage sont en partie financés par la banque centrale états-unienne. Les réponses américaines à la crise de 2007-2008 ne sont pas sans poser problèmes également puisque la politique de Quantitative Easing menée par la Fed, consistant à accroître la base monétaire par achat d’actifs financiers grâce à la création monétaire, a accru fortement la liquidité mondiale en dollars et alimenté l’activité financière internationale. Il est notable que les échanges quotidiens de devises sur le marché des changes s’élèvent selon la Banque des règlements internationaux à plus 5 000 milliards de dollars en 2016 soit dix-huit fois le montant quotidien du PIB mondial. Enfin, contrairement aux conclusions du modèle de M. Friedman, les déséquilibres commerciaux ne se résorbent pas dans le régime de changes flexibles post-Bretton Woods. Les États-Unis, bien que le dollar ait fortement fluctué depuis le flottement, connaissent un déficit commercial structurel. Au cours des années 1980, c’est à l’égard du Japon et de l’Allemagne. À partir des années 1990, c’est à l’égard de la Chine principalement. Certes, il est reproché à la Chine de sous-évaluer sa monnaie dont la valeur externe est définie par la Banque populaire de Chine pour maintenir sa compétitivité. Il lui est également reproché de contrôler les flux de capitaux à destination de son économie. Cependant, la situation monétaire conduit aujourd’hui à ce que la Chine présente des réserves de change considérables qui financent… les déficits des États-Unis. Un mouvement de défiance sur le dollar conduirait vraisemblablement à une crise financière mondiale sans précédent, ce qui n’est dans l’intérêt de personne. C’est pourquoi dès 2009, en référence au plan Keynes, le gouverneur de la Banque centrale de Chine s’interroge sur la pertinence de faire du droit de tirages spéciaux (DTS) la monnaie des règlements internationaux. L’autorégulation des relations monétaires internationales est un échec qui ******ebook converter DEMO Watermarks*******

risque de déstabiliser davantage encore l’économie mondiale et, ​au-delà, les relations internationales. C’est pourquoi l’organisation d’une régulation volontariste semble nécessaire. B. Vers de nouvelles régulations ? Il ne s’agit pas ici de faire œuvre de prospective mais d’explorer quelques évolutions institutionnelles possibles pour mieux réguler les relations monétaires internationales. Beaucoup s’accordent aujourd’hui pour dire que le dollar est contesté sans être remplacé car il n’existe pas vraiment de remplaçants, à court terme à tout le moins. Deux pistes semblent cependant se dessiner : un système multidevise ou multipolaire et la transformation du DTS en liquidité internationale ultime. La première piste est notamment analysée par A. Bénassy-Quéré et J. Pisani-Ferry dans un rapport de 2011 du Conseil d’analyse économique français intitulé Réformer le système monétaire international. Sur la base d’une analyse comparative entre un système hégémonique dans lequel une monnaie nationale joue le rôle de liquidité internationale et un système multidevise, ils concluent que les régulations monétaires internationales gagneraient à être fondées sur trois devises clés, les monnaies des trois pôles économiques dominants (dollar, euro et yuan). Ces devises flotteraient entre elles dans un cadre de libre circulation des capitaux mais cela nécessiterait qu’existe une coordination forte entre banques centrales pour éviter toute guerre des monnaies, c’est-àdire toutes tentatives d’influencer la valeur externe des monnaies pour accroître la compétitivité-prix des produits régionaux. Cette coordination éviterait l’écueil du triangle d’incompatibilité et permettrait de diluer le dilemme de Triffin et de partager le privilège exorbitant. Cependant, cela nécessite que l’euro et le yuan deviennent des monnaies équivalentes au dollar. L’euro doit en cela être complété par un budget de la zone euro et la création d’eurobonds (c’est-à-dire de titre de dette publique émis au nom de ce budget) afin de fournir un actif financier sûr aux institutions financières à l’image des bons du Trésor américains. Le yuan doit finir son internationalisation qui a débuté par la modification des règles de fixation de sa valeur externe par la Banque populaire de Chine et l’annonce de l’intégration de la monnaie chinoise dans le panier de monnaies composant le DTS. Cependant, ce type de solution ne règle pas vraiment la question de la liquidité internationale ultime et de l’ajustement des balances des paiements. ******ebook converter DEMO Watermarks*******

M. Aglietta est beaucoup plus sévère sur la capacité à réguler les relations monétaires internationales dans un système multidevise. En effet, dans le cadre d’une intégration financière complète, il ne peut exister plusieurs formes de liquidité, et si elles existent leur prix est indéterminé. Intuitivement, cela s’explique par le fait que la monnaie, fondée sur la souveraineté, est la mesure ultime de toute valeur. Or, au niveau mondial, en l’absence de souveraineté universelle, il est impossible que plusieurs monnaies soient simultanément mesure ultime de toute chose puisque chaque monnaie est mesurée dans une autre monnaie. C’est pourquoi, dans l’histoire, les relations monétaires internationales ont été régulées dans un cadre reposant sur une devise-clé. Dans la deuxième piste, M. Aglietta propose alors de s’inspirer du plan proposé par J. M. Keynes. Créer une liquidité mondiale ultime ne reposant sur aucune devise nationale permettrait d’éviter les écueils d’un système multidevise ou d’un système hégémonique. Les paiements internationaux seraient réglés par les banques centrales nationales (ou régionales) dans cette monnaie dans le cadre d’une chambre de compensation. En cas de risque systémique mondial, c’est-à-dire de perturbation délétère de l’ensemble du système monétaire et financier à l’image de la crise des subprimes, l’institution garante de cette liquidité ultime pourrait jouer le rôle de prêteur en dernier ressort international. Le DTS et le FMI seraient les candidats idéaux à condition que les puissances mondiales s’entendent pour redéfinir les statuts du fonds et rééquilibrer les rapports de force au sein de cette institution toujours dominée par les ÉtatsUnis. Conclusion Nous pouvons ainsi dire que, jusqu’à présent, toutes les tentatives de réguler les relations monétaires internationales ont connu des difficultés. Que la monnaie internationale repose sur l’or ou sur une devise-clé (celle de la puissance hégémonique), l’économie mondiale était déstabilisée par la confusion entre monnaie internationale et monnaie nationale. Ainsi, l’étalonor et la livre sterling, le change-or et le dollar ou le semiétalon dollar n’ont pas permis d’assurer simultanément la fourniture de liquidité internationale et l’ajustement des balances des paiements. Pire, le non-système actuel est source d’une instabilité économique et financière délétère. C’est pourquoi, au regard des leçons de l’histoire, des avancées de la connaissance économique et du rééquilibrage économique du monde, il est impératif de penser une ******ebook converter DEMO Watermarks*******

régulation consciente des relations monétaires internationales. Elle pourrait reposer sur un système multidevise et/ou sur une liquidité internationale ultime dont le FMI aurait la responsabilité. Cependant, beaucoup d’obstacles politiques devront être surmontés pour atteindre cet objectif ambitieux. Le premier concerne la capacité des Européens à surmonter les différentes crises que connaît l’Europe aujourd’hui, en particulier la nécessité d’élaborer le cadre institutionnel nécessaire pour faire de l’euro une monnaie complète. Le deuxième concerne la capacité des nations à mettre en œuvre une gouvernance mondiale efficace.

******ebook converter DEMO Watermarks*******

Sujet

11 Les ressources naturelles doivent-elles être gérées comme des biens communs mondiaux ?

1

Se préparer à la rédaction

1.1 L’enjeu du sujet Les questions environnementales occupent aujourd’hui une place importante dans l’analyse économique. Ce que l’on nomme classiquement les « ressources naturelles » (énergies fossiles, ressources halieutiques, eaux marines, ressources forestières, ressources minières, etc.) sont une composante significative de ces questions environnementales, même si ces dernières renvoient aussi à d’autres enjeux. Certaines de ces ressources naturelles peuvent effectivement être considérées comme des biens communs mondiaux dès lors que l’on applique les critères de définition de ce concept. Par exemple, les ressources halieutiques sont un bien rival sans être excluable, faute notamment de droits de propriété clairement établis. Cependant, pour une autre part, ces ressources naturelles peuvent faire l’objet de droits de propriété de sorte qu’elles sont gérées par des agents privés (songeons par exemple aux gisements pétroliers ou miniers, ou aux ressources forestières). Par ailleurs, les États peuvent accorder des autorisations d’exploitation ******ebook converter DEMO Watermarks*******

conduisant à ce que les ressources prélevées deviennent une production au sens économique, vendue sur des marchés, ce qui les soumet au mécanisme de l’exclusion par les prix. Même si ces ressources ne sont pas toujours des biens communs, elles font pourtant l’objet d’une attention et d’un statut particulier dans la mesure où la société juge qu’elles ne peuvent (et ne doivent) être gérées selon une pure logique marchande ou capitaliste. En ce sens, elles deviennent des « communs », c’est-à-dire des richesses qui se définissent à partir d’un choix éthique et politique du fait que leur existence, leur entretien et leur reproduction sont nécessaires à l’exercice des droits fondamentaux et au libre développement des personnes. Dans cette perspective, les « communs » sont des richesses pour lesquelles la société juge qu’elles doivent être mises en commun. On peut dire par exemple que la survie des espèces menacées (éléphants, ours blancs, etc.), le maintien de la biodiversité ou la sauvegarde de certains espaces naturels (forêts primaires, zones humides, etc.) sont des communs de l’humanité. Ils le sont notamment parce qu’ils sont menacés par la tragédie des biens communs au sens où leur usage privatif conduit à la surexploitation de la ressource jusqu’à sa disparition, mais pas seulement pour cette raison. En fin de compte, l’enjeu de ce sujet consiste à se demander comment articuler l’exercice de la propriété privée, la souveraineté des États avec la nécessité de la reproduction des communs mondiaux (qui peuvent, le cas échéant, être des biens communs).

1.2 Le cadrage du sujet et les concepts clés Le sujet suppose que l’on articule des savoirs empruntés à l’économie publique, à l’économie de la mondialisation (notamment la gouvernance mondiale) et à l’économie de l’environnement. Sur le plan chronologique, il porte essentiellement sur la période contemporaine, c’est-à-dire depuis que les questions environnementales sont devenues un enjeu planétaire (à partir des années 1970). Sur le plan géographique, il conviendra de faire porter la réflexion sur l’économie mondiale dans son ensemble. En première approche, les ressources naturelles correspondent à l’ensemble des prélèvements effectués par l’action de l’homme sur la nature et qui deviennent par la suite des richesses au sens économique : les ressources fossiles qui sont notamment source d’énergie (pétrole, gaz naturel, charbon), les ressources minières (métaux, pierres précieuses), les ressources ******ebook converter DEMO Watermarks*******

forestières, les ressources halieutiques, etc. Ces prélèvements deviennent des richesses dès lors que les hommes leur attribuent une valeur positive. C’est ainsi que l’économiste français G. Rotillon ​précise : « On parlera de ressources naturelles au sens économique quand la ressource sera utilisable avec la technologie existante et exploitable avec les prix actuels ». Par convention, ces ressources relèvent de la production au sens économique (on considère que les grandes firmes multinationales pétrolières « produisent » du pétrole). Elles sont considérées comme « renouvelables » ou « non renouvelables ». Par exemple, les ressources forestières ou halieutiques sont considérées comme renouvelables contrairement aux ressources fossiles. Cela fait toutefois l’objet de vifs débats : la surexploitation des forêts primaires peut entraîner leur disparition ! De façon plus générale, la production de ces ressources est un enjeu majeur dans la mesure où elle peut conduire à l’épuisement du capital naturel dont elles sont une composante. Le concept de « bien commun » est utilisé de longue date en économie publique. Il désigne des biens qui sont rivaux (la consommation des uns prive les autres de la consommation des mêmes biens) et non excluables (on ne peut pas interdire l’accès à la ressource notamment au moyen d’un mécanisme des prix du fait d’une difficulté à définir les droits de propriétés). Certaines ressources naturelles présentent bien ces caractéristiques (les ressources halieutiques hors des eaux territoriales par exemple). Mais beaucoup de ressources naturelles sont rivales et excluables. Le concept de « bien commun » est problématique. Il est parfois confondu avec les concepts de « bien collectif » ou de « bien public ». Une définition rigoureuse de ces concepts permet toutefois d’éviter toute confusion : un bien collectif est un bien non rival et non excluable de sorte qu’il ne peut pas être alloué par le marché ; un bien public est un bien qui est alloué par l’État (ce qui est le cas des biens collectifs mais aussi de nombreux biens privatifs comme le service éducatif par exemple). Par ailleurs, l’émergence, notamment à partir des travaux d’E. Ostrom, du concept de « communs » doit conduire à une vigilance particulière quant à la différence entre « communs » et « bien commun ». Plus généralement, dès le début de son livre Gouvernance des biens communs, Ostrom insiste sur la nécessité de distinguer, « communs » (Common Pool Resources), biens collectifs et biens publics. Pourtant de nombreux ouvrages ou articles confondent certaines de ces notions (notamment celles de « bien collectif » et de « bien public »). ******ebook converter DEMO Watermarks*******

1.3 La construction de la problématique La question posée renvoie à un dilemme. Puisque les biens communs sont situés pour la plupart sur les territoires d’États-nations et que certaines ressources naturelles sont des biens privatifs faisant le plus souvent l’objet d’une appropriation privée, ils ne semblent pas, sauf dans des cas limités, relever de la question des biens communs au niveau mondial. Pourtant, les enjeux planétaires semblent de plus en plus importants qu’il s’agisse du réchauffement climatique, de la réduction rapide de la biodiversité, de l’épuisement de certaines ressources renouvelables ou non, ce qui conduit certains observateurs à craindre une « guerre des ressources ». Ces réflexions reviennent à considérer que ce sont des « communs » et qu’ils relèvent, au même titre que les biens communs, d’une gouvernance mondiale. Pour examiner ce dilemme, il convient donc de se demander dans quelle mesure on peut parler de « biens communs » à propos des ressources naturelles et comment on peut dès lors envisager leur gestion et, par extension, leur pérennité.

2

Rédiger le devoir : une proposition

Introduction L’attribution en octobre 2018 du Prix Nobel de science économique à W. Nordhaus (et à P. Romer) montre, au-delà des polémiques, l’importance cruciale des questions environnementales pour la science économique. Dans le même temps, les travaux de recherche sur la question des « communs » ne cessent de se multiplier depuis plusieurs années. Ce sont d’ailleurs ses travaux sur les « communs » qui ont valu à Ostrom le Prix Nobel en 2009. Au cœur des débats relatifs à l’environnement figurent les ressources naturelles. Tout ce qui existe dans la nature ne constitue pas des ressources au sens économique. Pour que l’on puisse parler de ressources naturelles il faut que ces éléments naturels soient considérés comme présentant un intérêt pour les individus et les sociétés. Pendant la majorité de l’histoire de l’humanité, les gisements de pétrole ou d’uranium n’étaient pas perçus comme une ressource, mais le bois et le gibier oui. Il faut ensuite que l’on dispose d’une technologie permettant d’exploiter les ressources et il faut enfin que le prix de la ressource soit tel que les coûts de production soient au moins couverts (au prix du pétrole des années 1950, les gisements pétroliers off shore ne ******ebook converter DEMO Watermarks*******

présentent aucun intérêt). Parmi ces ressources naturelles, on distingue les ressources épuisables (ressources minérales, énergies fossiles telles que les gisements de gaz ou de pétrole) et les ressources renouvelables (forêts, ressources halieutiques, etc.). Mais cette distinction doit être fortement nuancée du fait de la disparition de certaines espèces ou de certains espaces (forêts primaires, zones humides) qui étaient pourtant en principe renouvelables. Le concept de bien commun fait aujourd’hui l’objet d’une définition stabilisée : il s’agit de biens qui sont à la fois rivaux (la consommation du bien par un agent rend impossible la consommation simultanée du même bien par un autre) et non excluables (faute de droits de propriété clairement établis, on ne peut pas exclure, notamment par un mécanisme de prix, un agent qui souhaite consommer le bien). Enfin, précisons que le qualificatif de « mondial » renvoie à l’idée que la régulation de ce type de bien doit être pensée en termes de gouvernance mondiale, compte tenu du caractère planétaire des enjeux que cette question soulève. Les menaces d’épuisement qui pèsent sur les ressources naturelles, menaces étudiées déjà par les économistes classiques (S. Jevons, The Coal Question, 1865) ou par le Rapport du Club de Rome (1972), affectent l’humanité tout entière. Dès lors, la question se pose de savoir si ces ressources naturelles ne devraient pas être considérées comme des biens communs impliquant l’humanité tout entière. Pourtant, dès 1962 une résolution de l’Assemblée générale des Nations unies affirmait la souveraineté permanente des peuples et des nations sur leurs ressources naturelles. Il existe donc une tension entre la logique de l’intérêt collectif mondial et la logique qui peut conduire chaque État à tirer le parti le plus avantageux des ressources naturelles qui se trouvent sur son territoire (y compris dans la zone maritime exclusive). Pour traiter cette question, il importe tout d’abord d’examiner comment les économistes doivent considérer les ressources naturelles : sont-elles des biens privatifs usuels, des biens communs ou encore des « communs » (I) ? Sur cette base, on pourra se demander à partir de quel mode de coordination la gouvernance de ces ressources peut s’opérer de sorte que cela permette de rendre compatible l’exercice de la souveraineté des États avec l’intérêt général de l’humanité (II). I. Les ressources naturelles : bien privatifs, biens communs ou « communs » ? ******ebook converter DEMO Watermarks*******

La définition juridique des ressources naturelles n’est pas stabilisée. Le code français de l’environnement y fait figurer les espaces et milieux naturels, les paysages, la qualité de l’air, la biodiversité. Ce code précise que ces ressources naturelles sont un « patrimoine commun de la Nation ». La stratégie européenne pour l’usage durable des ressources naturelles énumère les matières premières, la biomasse, l’air, l’eau, le sol, la géothermie, les marées et l’énergie solaire, par exemple. La Convention sur la diversité biologique (1992) et la Convention de Nagoya (2010) mettent l’accent sur le partage des avantages tirés de l’utilisation des ressources génétiques et entendent lutter contre la biopiraterie, c’est-à-dire l’appropriation privée de ces ressources sans partage des ​avantages. On le voit, à divers niveaux, la question de la définition des ressources naturelles et de leur gestion dans l’intérêt commun est posée. A. Les catégories de biens : une construction théorique essentielle C’est à P. Samuelson (dans un article célèbre de 1954) que l’on doit la distinction entre « private consumption goods », que l’on peut nommer en français « biens privatifs » et « collective consumption goods », que l’on nomme habituellement « biens collectifs ». Les bien privatifs (un vêtement par exemple) sont rivaux (si le vêtement est porté par une personne, il ne peut pas être porté par une autre) et peuvent faire l’objet d’une exclusion par les prix. Leur production dans le cadre d’une coordination marchande ne pose donc pas de problème. En revanche, les biens collectifs constituent une défaillance du marché. Ils sont en effet mis à la disposition de tous, dès lors qu’ils sont mis à la disposition d’une seule personne, le consentement à payer est donc nul et aucun producteur privé n’a intérêt à les produire alors même qu’ils sont individuellement et socialement utiles. On peut prendre l’exemple du service de prévision météorologique : le fait qu’une personne l’utilise ne prive pas une autre personne de son utilisation. Puisque de tels biens ne peuvent pas être produits dans le cadre marchand, une solution consiste à ce qu’ils soient produits par la puissance publique (on parle alors de « biens publics »), mais ils peuvent aussi être produits par des organismes privés non marchands (fondations, associations). Tous les biens collectifs ne sont donc pas publics. Inversement, tous les biens publics ne sont pas collectifs. En effet, l’État peut produire des biens tutélaires qui sont rivaux et excluables (l’éducation par exemple). À côté de ces deux cas polaires de biens privatifs et collectifs, l’économie publique a élaboré deux autres catégories de biens : ******ebook converter DEMO Watermarks*******

les biens de club qui sont non rivaux mais excluables (une séance de cinéma dans la limite du remplissage de la salle par exemple ou une chaîne de télévision cryptée) et les biens communs qui sont rivaux mais non excluables (ou difficilement excluables). Les réserves halieutiques sont un bon exemple de ce second cas : les mêmes poissons prélevés par certains pêcheurs ne peuvent pas l’être par d’autres (rivalité), mais il est difficile, surtout dans les eaux internationales, d’empêcher les différents bateaux de pêche de prélever tous les poissons qu’ils souhaitent. Cette classification a une grande portée heuristique, mais les catégories de « biens collectifs » et de « biens communs » apparaissent comme trop limitatives. Les biens véritablement non excluables sont peu nombreux et il est toujours possible d’inventer des procédures d’exclusion par les prix. C’est ainsi que la télévision est apparue au départ comme un bien collectif : dès lors que l’émission existait, tout un chacun pouvait en bénéficier à condition de se doter d’une antenne et d’un téléviseur. On peut noter que, même dans ce cas, une logique marchande était possible dès lors que l’émetteur se finançait par la publicité. Mais surtout on a inventé le cryptage et donc la nécessaire souscription d’un abonnement pour bénéficier des programmes émis. La diffusion par câble a renforcé la possibilité de l’exclusion par les prix. Des autoroutes à péages, voire des ponts comme le viaduc de Millau, montrent également l’extension possible de l’exclusion par les prix. De même, on peut transformer des biens communs en biens de club en privatisant des espaces de pêche, de chasse ou de nature et en en réservant l’accès aux agents économiques qui s’acquittent d’une cotisation ou d’un droit d’entrée. L’introduction du concept de « communs » trouve ici son intérêt : il s’agit de richesses qui ne sont pas seulement des biens techniquement non excluables, mais qui sont aussi des biens, publics ou privés, qui apparaissent comme nécessaires à l’exercice de droits fondamentaux de la personne (qu’il s’agisse des générations présentes ou des générations futures). L’approche est donc normative et substantielle et pas seulement formelle (c’est-à-dire reposant sur des critères techniques). La définition de ce qui relève de l’espace des biens communs relève donc d’un choix politique démocratique et exprime une préférence collective. On peut considérer que la stabilité du climat obtenue par une limitation du réchauffement climatique est un bien commun de même que la sauvegarde de la biodiversité ou d’espaces naturels protégés de tout usage destructeur, etc. Une fois cette typologie construite, il s’agit maintenant de se demander ******ebook converter DEMO Watermarks*******

quelle peut être sa portée s’agissant de la place des ressources naturelles : comment départager celles qui peuvent sans conséquence être considérées comme des biens privatifs de celles qui ne peuvent pas l’être soit pour des raisons techniques, soit pour des raisons politiques, soit pour les deux. B. Quel statut pour les ressources naturelles ? La liste comme la catégorisation des ressources naturelles est soumise à débats. Cela tient notamment au fait de l’évolution du statut de ces ressources mais aussi de l’approfondissement de la mondialisation et de choix politiques variables notamment en matière d’attribution des droits de propriété. Certaines ressources naturelles restent des biens privatifs. Il en va ainsi de la plupart des ressources minérales et des ressources en énergie fossile, mais aussi de la plupart des terrains et donc des espaces naturels qui s’y trouvent. Ces biens privatifs ont parfois des propriétaires privés, parfois des propriétaires publics. Dans certains cas, les ressources du sous-sol ont été nationalisées par l’État, mais l’exploitation est concédée à des opérateurs privés. Les exemples de la « Montagne d’or » en Guyane ou de l’exploitation de la forêt amazonienne au Brésil montrent que l’attribution de licences d’exploitation à des entreprises à but lucratif est source de revenus pour l’État, mais conduit à mettre gravement en péril le capital naturel. Or, les forêts sont des puits de carbone et l’humanité tout entière est une victime potentielle de la déforestation et du réchauffement climatique. D’autres ressources naturelles ont le caractère de biens communs (cas des ressources halieutiques ou des nappes phréatiques). Mais cela ne permet pas de résoudre la question des « communs ». Par exemple, peut-on autoriser un propriétaire privé ou public d’un terrain en zone humide à l’urbaniser en mettant en péril la biodiversité liée à ce type d’espace ? Peut-on autoriser des navires-usines de plus en plus puissants à prélever des poissons jusqu’à mettre l’existence même de la ressource en péril ou à utiliser des techniques de pêche (pêche électrique ou filets dérivants) qui détruisent des espèces ne présentant aucun intérêt commercial (cas des dauphins, victimes de la pêche aux thons) ? À cette question de l’articulation entre les caractéristiques des biens et leur régime juridique public ou privé s’ajoute la question de la souveraineté des différents États. En septembre 2018, par exemple, les pêcheurs français et anglais de coquilles Saint-Jacques se sont violemment affrontés en mer dans les eaux internationales. Les pêcheurs anglais avaient commencé à prélever ******ebook converter DEMO Watermarks*******

des coquilles, alors que les pêcheurs français, afin de préserver la ressource, avaient accepté une règlementation qui retardait le début de la pêche de plusieurs semaines. Ils considéraient donc que les Anglais se comportaient en passagers clandestins. Un compromis a été négocié aux niveaux des deux gouvernements concernés. Cet évènement n’a rien d’anecdotique. L’existence de la Commission baleinière internationale (créée en 1946) montre l’importance, mais aussi les difficultés des États, à protéger une ressource au niveau mondial. Un autre exemple de la difficulté à gérer des ressources naturelles tout en respectant la souveraineté des États est donné par la gestion des fleuves dont dépendent parfois plusieurs pays pour leur approvisionnement en eau. Le risque est qu’un ou des État(s) situé(s) en amont ne capte(nt) ou ne stocke(nt) une trop grande quantité d’eau au détriment des pays situés en aval. La même question est aujourd’hui débattue à propos de l’usage des énergies fossiles et du réchauffement climatique. Certains spécialistes plaident pour que l’on cesse d’exploiter les énergies fossiles. Selon eux, le seul moyen d’éviter de produire du CO2, c’est de laisser le pétrole, le gaz et le charbon dans le sol. Pour le moins, il faudrait cesser de rechercher de nouvelles ressources en énergie fossile qu’il s’agisse de ressources conventionnelles (dans le sous-sol ou dans les fonds marins de l’Arctique) ou de ressources non conventionnelles (sables et schistes bitumineux). Si une telle décision devait être prise, cela signifierait que les pays producteurs renoncent à l’usage d’une ressource naturelle située sur leur sol au nom de la défense de l’intérêt collectif mondial. Outre qu’une telle décision serait sans doute difficile à obtenir, elle pose la question d’une justice environnementale mondiale qui devrait conduire à indemniser les pays concernés par l’arrêt de l’exploitation. Certaines ressources naturelles sont des biens privatifs et peuvent être gérées au niveau national. D’autres sont des biens communs qui peuvent aussi être gérés au niveau national, voire local (la protection d’espaces naturels ou de paysages). Mais certaines ressources naturelles sont des « communs mondiaux » dans la mesure où elles concernent les droits de l’humanité tout entière, y compris les générations futures. De ce fait, elles impliquent une gouvernance mondiale qui reste très problématique du fait de l’absence d’un gouvernement mondial et des conflits d’intérêts entre États souverains. ******ebook converter DEMO Watermarks*******

II. Coordination et gouvernance des ressources naturelles Comment gérer les ressources naturelles ? L’analyse économique nous propose trois types idéaux de modes de coordination : le marché, l’État ou la coopération. L’observation du fonctionnement des économies montre que ces trois procédures sont effectivement utilisées dans les divers systèmes économiques observés dans le temps et dans l’espace. Chaque mode de coordination présente des avantages et des inconvénients et semble plus ou moins bien adapté aux diverses ressources naturelles. Cela permet de comprendre l’intérêt de l’approche d’Ostrom. Il n’existe pas de solution unique pour la gestion des ressources naturelles. En revanche, l’articulation de divers modes de gouvernance et de divers niveaux d’action peut se révéler particulièrement efficiente. A. Le marché, l’État et la coopération Le premier mode concevable de gestion des ressources naturelles est le marché. On justifie souvent cette conception à partir de la « tragédie des biens communs » formulée en 1968 par G. Hardin. Ce dernier souligne qu’en l’absence de droits de propriété, les biens en accès libre donnent lieu à une surutilisation qui met finalement en péril l’existence même des ressources naturelles. Il prend l’exemple des pâturages communaux anglais avant la période des enclosures. Dès lors que tous les habitants d’un village peuvent faire paître librement leur bétail sur les terrains communaux, un comportement individuel rationnel conduit donc chacun à maximiser le nombre de têtes de bétail qui utilisent les terrains communaux. De ce fait, on assiste à un prélèvement excessif qui fait finalement disparaître la nourriture des animaux. On peut tirer de cet exemple l’argument, selon lequel, si on attribue au contraire la propriété privative des terrains à certains éleveurs, il devient rationnel pour eux d’assurer la pérennité de la ressource donc de limiter le nombre d’animaux et de s’assurer que l’herbe des pâturages reste suffisamment abondante. Dès lors l’usage des pâturages (usus) peut aussi donner lieu à une location (fructus) ou à une vente à un prix qui dépend de la qualité du service produit par les terres (abusus). À l’appui de cette approche par le marché, on peut aussi citer l’analyse d’H. Hotelling (The Economic of Exhaustible Resources, 1931) qui montre que dans un système concurrentiel le prix d’une ressource épuisable a tendance à augmenter au fur et à mesure de la diminution du stock. Cette hausse du prix et donc de la rente du producteur conduit à la fois à une ******ebook converter DEMO Watermarks*******

diminution de l’usage de la ressource et à la rentabilisation des recherches visant à produire des substituts. Enfin, le théorème de Coase (1960) montre qu’en l’absence de coûts de transaction, la définition de droits de propriété permet aux différents détenteurs de droits de négocier le prix de la destruction des ressources naturelles (par exemple une entreprise qui pollue une rivière doit indemniser les pêcheurs et les agriculteurs qui se trouvent en aval, le coût de la pollution est donc internalisé dans les calculs de l’entreprise polluante). Cette coordination par le marché s’applique aujourd’hui aux ressources minières et aux énergies fossiles, à l’usage des sols, partiellement à l’usage de l’eau, aux espaces naturels lorsqu’ils appartiennent à des propriétaires privés. Certaines politiques publiques favorisent ce recours au marché. C’est ainsi qu’en matière de biodiversité les utilisateurs (promoteurs immobiliers par exemple) qui détruisent un espace naturel peuvent compenser en achetant des titres négociables appelés « unités de biodiversité » qui servent aux émetteurs à financer la protection d’autres espaces naturels. La gestion par l’État conduit à considérer que ce dernier représente l’intérêt général et peut donc soit s’approprier des ressources communes, soit en règlementer l’usage afin de promouvoir l’intérêt commun : la création par l’État de parcs nationaux, l’appropriation publique des zones littorales (domaine public où la circulation est libre et qui n’est pas susceptible d’une appropriation privée), l’interdiction de produits toxiques qui provoquent la disparition de certaines espèces (abeilles par exemple) ou le repeuplement par l’État de certains espaces (ours et loups), la règlementation de la chasse ou de la pêche. Par exemple, dans beaucoup de pays d’Amérique latine, la production et la distribution d’eau potable ont été longtemps le fait de monopoles publics. Le mauvais fonctionnement de ce service public et l’influence des politiques d’ajustement structurel ont conduit, à partir des années 1980, à privatiser ce service sous forme de concession à des entreprises multinationales. Cependant, à partir du milieu des années 2000 le mécontentement du public (notamment à propos des tarifs et des subventions versées par l’État aux entreprises privées) et des changements politiques ont conduit à un mouvement de reprise en main de la distribution de l’eau par l’État et/ou les collectivités locales (en Argentine notamment). On voit donc que l’intervention de l’État est l’enjeu de rapports de forces politiques. Si certains économistes défendent la prise en main par la puissance publique (nationale ou locale) de certains services publics (eau, assainissement, ******ebook converter DEMO Watermarks*******

ramassage et traitement des ordures ménagères, etc.), d’autres mettent en avant la vigilance nécessaire à l’égard des défaillances de l’État (corruption, financement des partis politiques par les entreprises concessionnaires, capture du régulateur, etc.). Les travaux d’Ostrom ont comme apport principal d’avoir montré que l’on n’était pas limité au dilemme coordination par le marché ou coordination par l’État, mais qu’il existe une troisième possibilité consistant dans la gestion coopérative des biens communs. À partir d’une étude pionnière portant sur la gestion des nappes phréatiques en Californie, Ostrom montre que la gestion coopérative est efficace et efficiente. Chaque utilisateur de ces ressources communes que sont les nappes d’eau douce souterraine pourrait en effet être tenté de prélever la plus grande quantité d’eau possible pour maximiser son avantage privé. La tragédie des biens communs consisterait non seulement dans l’épuisement de la ressource mais dans un risque de salinisation car ces nappes se trouvent au-dessous du niveau de la mer. Une baisse trop forte du niveau des nappes d’eau douce pourrait conduire à une entrée d’eau de mer rendant l’eau impropre à la consommation comme à l’irrigation. Ostrom montre que cette coordination coopérative résulte de la mise en place d’un processus d’auto-gouvernement collectif qui conduit à la mise en place de règles de prélèvement permettant d’éviter l’épuisement de la ressource. Cela suppose à la fois des procédures de contrôle du respect des règles et des sanctions en cas de manquements aux règles. Des études ultérieures ont analysé un très grand nombre de cas comparables à travers le monde (par exemple les systèmes d’irrigation en Espagne mise en place lors de la présence musulmane et maintenus bien après). Cette idée de coopération peut être décidée entre individus, mais aussi entre États au niveau mondial. B. Gouvernance polycentrique et action multiniveau La notion de biens communs mondiaux reste controversée. La littérature produite par les organisations internationales (essentiellement en langue anglaise) a généralisé l’usage de « Public Goods » traduit en français par « biens publics », ce qui contribue à une mauvaise compréhension des enjeux liés aux biens communs, aux biens collectifs et aux « communs ». Mais comme le fait remarquer C. Hess, une proche collaboratrice d’Ostrom, il s’agit le plus souvent de biens communs mondiaux. En toute rigueur, il faudrait distinguer les deux catégories de biens. Par exemple, les règles qui régissent l’Antarctique (Traité de 1959), qui interdisent toute souveraineté ******ebook converter DEMO Watermarks*******

exclusive sur ce continent, ainsi que toute militarisation, qui instituent une coopération scientifique et qui instaurent (Convention de 1964) une stricte protection de la faune et de la flore (les prélèvements ne peuvent avoir qu’une visée scientifique et sont soumis à autorisation préalable), ont le caractère d’un bien public puisqu’il s’agit d’une production des États. En revanche, grâce à ce traité, l’Antarctique est un bien commun puisque ce territoire est inappropriable à la fois par les agents privés et par les États. On est en présence d’une gestion de ce bien commun qui est réalisée au niveau mondial, dans un cadre coopératif, par l’ensemble des États signataires du Traité. L’idée d’étendre cette gestion coopérative d’un bien commun dans le cadre d’une gouvernance mondiale apparaît, pour l’instant, peu réaliste. Peuton considérer que, de ce fait, compte tenu de l’absence d’un gouvernement mondial susceptible de recourir à la hiérarchie pour imposer des solutions conformes à l’intérêt collectif mondial, les ressources naturelles sont condamnées à subir la tragédie des biens communs ? Là encore, les analyses de V. Ostrom et E. Ostrom se révèlent précieuses. Dans leurs travaux de science politique antérieurs à la création de l’École de Bloomington, ils ont montré, en étudiant le fonctionnement des services de police aux États-Unis, que la pluralité des autorités (services municipaux, services au niveau du comté, au niveau de l’État, au niveau fédéral) était finalement préférable à un système policier centralisé soumis à une autorité unique. Ils parlent à ce propos d’une gouvernance polycentrique. Ce concept est très utile dans le cadre de la réflexion sur la gestion des ressources naturelles. Soumettre la gestion des espèces sauvages ou des zones humides à la gestion d’une autorité unique, au niveau national et a fortiori au niveau mondial, n’est certainement pas la bonne solution. Pour reprendre une formule utilisée fréquemment, l’enjeu est de penser global et agir local. Une communauté rurale utilisatrice d’une forêt, des pêcheurs prélevant du poisson dans une même zone maritime ou fluviale disposent de plus d’informations et d’expériences qu’une autorité centrale. Il est donc préférable de leur laisser la responsabilité d’élaborer des règles d’utilisation des ressources communes. Mais les autorités de rang supérieur (régional, national, international) peuvent jouer un rôle important en favorisant la circulation de l’information, en offrant un cadre juridique pour l’institutionnalisation des règles élaborées au niveau local et lutter contre les comportements de passagers clandestins. Cette pluralité des centres de décision est d’autant plus importante qu’une pluralité d’acteurs intervient ******ebook converter DEMO Watermarks*******

dans la gestion des ressources naturelles : les usagers de la ressource (qu’Ostrom nomme les « appropriateurs »), par exemple les pêcheurs qui s’approprient un flux de poissons prélevés, mais aussi les organisations non gouvernementales de protection de la nature, les entreprises utilisatrices de l’espace ou des ressources, les diverses administrations en charge de la gestion de l’eau, de l’air, de la construction des infrastructures, etc. Cette gouvernance polycentrique peut et doit être aussi une gouvernance multiniveau. Par exemple, la protection du thon rouge de Méditerranée a été mise en œuvre par les États riverains de cet espace maritime. Ces États, en accord avec les pêcheurs locaux, se sont entendus pour limiter les périodes de pêche et mettre en place des quotas de prélèvements. Ils ont ensuite, via les marines nationales des États participants, imposé le respect de ces normes, même dans les eaux internationales, aux bateaux de pêche, y compris ceux qui étaient originaires de pays non riverains. Un accord mondial n’était pas nécessaire ici. En revanche, un accord mondial a été nécessaire pour interdire le commerce de l’ivoire ou la commercialisation des espèces sauvages. La commission baleinière internationale, dont il a été question ci-dessus, ne concerne que les pays qui pratiquent cette pêche. Il n’est donc pas nécessaire d’attendre un accord mondial sur la gestion des ressources naturelles pour veiller à leur exploitation durable. Par exemple, en ce qui concerne le réchauffement climatique, les États-Unis ont refusé de ratifier l’accord de Kyoto, mais la Californie, d’autres États et de nombreuses villes ont décidé d’inscrire leurs actions dans le cadre de cet accord. Dans certaines régions, ce sont les populations autochtones qui, pour préserver leurs modes de vie traditionnels, imposent la règlementation de la chasse et de la pêche ou s’opposent à la création d’exploitations minières qui remettraient en cause leur espace naturel. Certes, dans certains cas, des accords mondiaux semblent nécessaires, mais le développement d’initiatives locales favorise la création des conditions d’accords plus large. Les membres de l’équipe d’Ostrom insistent sur le fait que la mise en commun des connaissances, la circulation de l’information, l’échange d’expérience d’actions collectives favorisent l’extension de la prise en charge des biens communs à tous les niveaux. Conclusion Indiscutablement, l’interdépendance au niveau mondial entre les différents espaces, les différents États, les différentes populations s’est accrue. La ******ebook converter DEMO Watermarks*******

question des ressources naturelles joue un rôle majeur dans cette interdépendance. Qu’il s’agisse des ressources énergétiques et des conséquences de leur usage sur le réchauffement climatique, de la qualité des sols, de la biodiversité, de la disponibilité de l’eau (de plus en plus de régions sont menacées de stress hydrique), de l’acidification des océans, le patrimoine naturel mondial de l’humanité est gravement menacé. La prise de conscience de la nécessité d’agir est de plus en plus grande comme le montrent notamment les conférences mondiales, les organisations non gouvernementales, les actions des États et des collectivités locales. Mais à la nécessité de cette action coordonnée ne correspond aucune solution unique au niveau directement mondial. Il convient donc d’agir en combinant les différents modes de coordination (marché, État, coopération) et les différents niveaux de gouvernance (local, national, mondial). Il ne faut pas négliger dans cette perspective l’importance de la diffusion des connaissances scientifiques et de la mobilisation de la société civile. Lorsque des populations obtiennent la préservation d’un espace naturel, la création d’un parc naturel régional, l’adoption d’une règlementation plus stricte en matière de chasse, de pêche, d’usage de pesticides dans l’agriculture, etc., elles contribuent finalement à une gestion mondiale plus responsable des ressources naturelles. Il en va de même lorsque des villes ou des régions accroissent l’offre de transports en commun, lorsque les entreprises innovent pour favoriser la déconnexion entre la production et la consommation de ressources naturelles. En fin de compte, au-delà même de la question des ressources naturelles, le concept de bien commun pourrait être au cœur d’un nouveau paradigme permettant de penser autrement l’organisation de la vie sociale et le rapport à la Nature.

******ebook converter DEMO Watermarks*******

Sujet

12 Faut-il s’en remettre au marché pour lutter contre le réchauffement climatique ?

1

Se préparer à la rédaction

1.1 L’enjeu du sujet La question de la lutte contre le réchauffement climatique est au cœur des problématiques économiques contemporaines parce que cette lutte est indispensable mais qu’elle nécessite de changer de comportements et plus largement de modèle économique. À défaut, un réchauffement moyen excédant deux degrés centigrades par rapport à la période préindustrielle risque de conduire à des effets délétères massifs sur les sociétés, comme le rappelle le GIEC dans son dernier rapport. Les économistes apportent des éléments de compréhension des phénomènes responsables du réchauffement mais aussi des instruments d’action que peuvent mettre en œuvre les pouvoirs publics. Ainsi, en est-il des différentes taxes proposées en vertu du principe pollueur-payeur ou encore des marchés de quotas d’émission de CO2. Ces instruments ont été théorisés de longue date par des économistes comme A. C. Pigou ou R. Coase (Prix Nobel 1991) en réponse au problème des externalités, c’est-à-dire des conséquences de l’activité économique d’un agent sur d’autres agents sans que celles-ci soient prises en compte par le marché. Les émissions polluantes en sont l’illustration la plus parlante. Il est notable également que le Prix Nobel de sciences économiques 2018 a été ******ebook converter DEMO Watermarks*******

attribué à W. Nordhaus pour ses travaux d’analyse macroéconomique intégrant le changement climatique. Si des controverses l’ont opposé à d’autres économistes, en particulier avec un spécialiste de l’économie de l’environnement, N. Stern, tout cela confirme que la réflexion économique sur le réchauffement climatique est riche. Cependant, les rapports qui se succèdent restent alarmants en raison de l’accroissement continu des émissions de gaz à effet de serre (GES) et des irréversibilités liées à leur stock dans l’atmosphère. Le recours à la coordination marchande est sans doute l’action la plus évidente, pour les économistes, en vue de l’atténuation ou de l’adaptation au changement climatique. Encore faut-il que la conception même des marchés et leur encadrement institutionnel soient efficaces et efficients. Mais peu d’économistes assurent que le recours au marché est suffisant pour modifier la trajectoire périlleuse sur laquelle se trouve l’humanité. Pour remporter la lutte contre le réchauffement climatique, il faut impérativement faire appel à des actions plus volontariste reposant sur une coordination hiérarchique. Cela suppose une action déterminée du pouvoir politique.

1.2 Le cadrage et les concepts clés Le réchauffement climatique qui correspond à l’accroissement de la température terrestre moyenne peut être analysé comme une externalité négative de l’activité économique. En effet, la cause principale du changement climatique est l’émission de GES dans l’atmosphère qui s’est accélérée à partir de la révolution industrielle. L’utilisation des énergies fossiles, mais également la déforestation en sont les causes principales. Dans le cas d’externalités, l’action des pouvoirs publics est recommandée puisqu’on est en présence d’une défaillance de marché. Cette action peut passer par une intervention sur le marché (sous la forme d’une taxe pour une externalité négative ou sous la forme d’une subvention pour une externalité positive) qui vise à modifier les comportements économiques par la mise en œuvre d’incitations liées à la modification des prix relatifs. Cette action peut également passer par l’institution de marchés comme celui des quotas d’émission de CO2 qui doit également conduire à un changement de comportements. Si ces mesures s’avèrent efficaces, il est possible de s’en remettre au marché pour lutter contre le réchauffement climatique. Par ailleurs, la stabilité climatique (qui correspond à l’absence de ******ebook converter DEMO Watermarks*******

réchauffement ou, a minima, à un réchauffement contenu) peut être analysée comme un bien collectif, c’est-à-dire un bien qui n’est pas rival (vivre à une température donnée pour un individu ne la rend pas différente pour un autre) et qui n’est pas excluable (il n’est pas possible de faire payer un individu pour accéder à une température mondiale plus ou moins élevée). Un bien collectif ne pouvant pas être produit par des agents privés sur un marché, il revient à l’État de financer la stabilité du climat à partir de prélèvements fiscaux. La question climatique étant une question mondiale, elle devient un « common » au sens de l’expression d’Ostrom. En l’absence de gouvernement mondial l’enjeu est alors celui de la gouvernance mondiale. Dans cette perspective, s’en remettre au marché pour lutter contre le réchauffement climatique est sans doute contreproductif.

1.3 La construction de la problématique La question qui est posée consiste à se demander comment contenir le réchauffement climatique qui est analysé par les économistes comme une défaillance de marché. Elle consiste également à se demander comment les sociétés peuvent s’adapter aux changements inéluctables. L’action des pouvoirs publics, nécessaire, doit-elle uniquement reposer sur les marchés ? Si elle repose sur les marchés, quelles sont les conditions d’efficacité de cette action ? Le premier axe de réflexion portera sur la question de l’action sur les marchés. Le second axe visera à montrer qu’il est aussi nécessaire d’agir audelà des marchés pour lutter contre le réchauffement climatique.

2

Rédiger le devoir une proposition

Introduction En 2018, le prix de la Banque de Suède à la mémoire d’Alfred Nobel a été décerné à W. Nordhaus pour ses travaux d’analyse macroéconomique intégrant le changement climatique. Cela illustre la place qu’occupe aujourd’hui le réchauffement climatique dans les débats de société, mais cela illustre également la place qu’y prend la pensée économique qui propose des instruments de lutte contre le réchauffement climatique. Celui-ci semble aujourd’hui inéluctable en raison des irréversibilités liées aux émissions de gaz à effet de serre (GES) qui s’amorcent avec la révolution industrielle. L’accroissement moyen des températures devient une source d’inquiétude ******ebook converter DEMO Watermarks*******

plus tardivement, lorsque les questions écologiques prennent une place grandissante au cours des années 1970, mais surtout au cours des années 1990 notamment avec le Sommet de la Terre de Rio en 1992. Le réchauffement climatique pose des problèmes importants aux sociétés puisqu’il est à l’origine d’un dérèglement du climat, d’une montée des océans délétère pour les espaces géographiques proches du niveau de la mer, d’une atteinte à la biodiversité. L’impact néfaste sur les populations doit conduire les pouvoirs publics à prendre des décisions en termes d’atténuation du réchauffement (le contenir, si possible sous le seuil des deux degrés centigrades) par un contrôle des émissions de GES, mais également en termes d’adaptation, en particulier pour les populations les plus fragiles. La science économique apporte des solutions dans la mesure où l’origine du réchauffement est bien connue et analysée comme une externalité négative, c’est-à-dire comme la conséquence non désirée et néfaste d’une activité économique qui n’est pas prise en compte par le marché. L’internalisation de cette externalité peut reposer sur des mécanismes de marché. D’autre part, il est possible d’analyser la stabilité du climat comme un bien collectif, ni rival ni excluable. Dans ce cas, le marché ne permet pas de la produire et une intervention des pouvoirs publics est nécessaire. Se demander si la lutte contre le réchauffement climatique peut reposer sur le marché consiste alors à questionner l’efficacité de la coordination marchande pour atteindre les objectifs d’atténuation et d’adaptation à ce phénomène. Nous allons montrer que cette lutte peut reposer sur des mécanismes de marché (I). Nous verrons aussi qu’ils nécessitent une gouvernance efficace et juste : Sommet de la Terre de Rio en 1992 (II). I. La lutte contre le réchauffement climatique peut passer par le marché La question de la lutte contre le réchauffement climatique doit être au cœur des réflexions actuelles en raison des effets potentiellement destructeurs de ce dernier. L’origine du phénomène est anthropique et consensuellement attribuée à l’accroissement du stock de gaz à effet de serre dans l’atmosphère (CO2, méthane notamment), gaz émanant de l’activité économique. L’analyse économique propose cependant, depuis près d’un siècle, des réponses économiques à ce type de phénomène qualifié d’externalité négative à travers le principe pollueur-payeur, ou encore la mise en place de bonus-malus permettant de modifier les comportements sur les marchés. Nous allons voir ******ebook converter DEMO Watermarks*******

qu’il existe deux solutions relevant du marché : la taxe, voire la subvention en cas d’externalité positive (A) et les quotas d’émissions (B). A. Le principe pollueur-payeur et la taxe pigouvienne L’économiste britannique A. C. Pigou développe, dans les années 1920, une réflexion autour du principe pollueur-payeur lorsqu’apparaît une externalité négative. Il ne s’interroge bien sûr pas sur le réchauffement climatique en particulier mais sur les conséquences non désirées de l’activité économique sur un ou plusieurs agents économiques sans que cela donne lieu à l’émission de signaux-prix qui inciteraient les agents à réduire la production d’externalités négatives et à accroître la production d’externalités positives. Les taxes et subventions contribuent alors à modifier les comportements des agents économiques dans le sens jugé souhaitable. Cette analyse est très pertinente pour ce qui concerne la lutte contre le réchauffement climatique. La conceptualisation néoclassique a très tôt mis en évidence les potentiels échecs de marché comme les externalités. Une externalité est dite négative lorsque le coût marginal privé de production (subi par le producteur) est inférieur au coût marginal social de production (subi par la société). Dans cette circonstance, le coût global n’est pas supporté par le producteur, puisque l’effet ne donne pas lieu à compensation marchande, et la production excède la production optimale. En effet, sous l’hypothèse de rendements décroissants, les coûts marginaux sont croissants, et l’équilibre de marché est atteinte lorsque le coût marginal égalise la recette marginale, c’est-à-dire le prix de marché. Mais si ce coût marginal est plus faible pour le producteur que pour la société, la production sera établie à un niveau plus élevé que celui reflétant la totalité du coût marginal. Pour Pigou, la situation n’est pas optimale, ce qui nécessite une intervention publique visant à internaliser l’externalité, c’est-à-dire à faire supporter l’ensemble des coûts au producteur. Cela passe par la détermination d’une taxe dont le montant doit permettre d’égaliser le prix de marché au coût marginal social de production. C’est le principe pollueurpayeur mis en avant depuis plusieurs années par différents gouvernements pour justifier l’instauration de diverses écotaxes. Le réchauffement climatique peut être analysé comme une externalité négative dans la mesure où il est avéré que c’est l’activité économique qui a conduit, depuis la Révolution industrielle, à un accroissement de la concentration de GES dans l’atmosphère : les hommes utilisent trop de ******ebook converter DEMO Watermarks*******

carbone parce que les coûts liés à l’utilisation du carbone ne sont pas entièrement payés par les producteurs. La Suède a par exemple décidé de mettre en œuvre une taxe dès 1991 avec des conséquences plutôt encourageantes sur les modifications de comportements. Initialement d’un niveau modeste (27 euros la tonne de CO2 pour les ménages et le secteur des services, 7 euros pour les industriels et agriculteurs), cette taxe a été augmentée pour atteindre aujourd’hui 120 euros pour les agents non soumis au système européen de quotas d’émissions de CO2. Le mix énergétique a évolué en faveur d’une réduction des émissions avec, en 2014, l’industrie qui utilise 34 % de biocarburants et 32 % d’électricité principalement issue de l’hydroélectricité et du nucléaire (M. Cruciani, « La transition énergétique en Suède », IFRI, 2016). L’objectif d’une émission nette nulle a été fixé à 2045, ce qui fait de ce pays le plus ambitieux d’Europe occidentale et illustre l’efficacité de l’instrument fiscal pour internaliser les externalités. L’intervention fiscale sur le marché, si elle vise à limiter les activités néfastes, peut également encourager les comportements vertueux. À l’inverse du principe pollueur-payeur, il s’agit de favoriser les décisions qui engendrent des externalités positives, c’est-à-dire des bénéfices sociaux supérieurs aux bénéfices privés. L’utilisation d’un véhicule électrique émet moins de GES, ce qui est favorable à la société puisque moins de GES c’est moins de réchauffement climatique. Cependant, le coût privé d’un véhicule électrique est plus élevé que celui d’un véhicule thermique. C’est la raison pour laquelle ont été mis en place des bonus écologiques (prise en charge d’une partie du prix d’achat du véhicule) et autres primes à la conversion (somme allouée en contrepartie de la destruction d’un véhicule polluant). En France, ce type d’aide peut atteindre jusqu’à 11 000 euros pour les ménages les plus modestes ou les plus éloignés de leur lieu de travail. L’efficacité de l’incitation fiscale est reconnue par la communauté scientifique des économistes. Il s’agit d’un instrument d’intervention sur les marchés très puissant. Mais une autre solution marchande de lutte contre les émissions polluantes est envisagée et mise en œuvre : les marchés de quotas d’émission. B. Le principe pollueur-payeur et les marchés de quotas d’émission À la suite de la signature du Protocole de Kyoto en 1997, les États se sont engagés à réduire leurs émissions de GES et l’Europe a choisi d’instituer un marché des quotas d’émission. Cette idée repose sur l’analyse de ******ebook converter DEMO Watermarks*******

l’économiste R. Coase (Prix Nobel 1991) qui s’interroge en 1960 sur la question du coût social de production (The Problem of Social Coast) et qui propose à la lumière d’exemples historiques une méthode d’internalisation des externalités différente de la solution pigouvienne. Il analyse une jurisprudence anglaise de la fin du XIXe siècle qui oppose un médecin à un confiseur, le cabinet du premier étant mitoyen de l’atelier du second. Le médecin se plaint de ne pouvoir travailler lorsque les machines du confiseur fonctionnent en raison du bruit. Il obtient que le confiseur cesse son activité. Coase considère qu’une autre solution eût été possible si un marchandage avait pu être opéré entre les deux protagonistes. Quel montant monétaire le médecin aurait-il accepté en compensation du désagrément ? Une somme qui aurait permis son déménagement et/ou la construction d’une isolation phonique. Coase propose alors, sous la condition que les droits de propriété soient clairement définis et que les coûts de transaction soient nuls, d’instituer un marché de droits échangeables qui détermine un prix permettant de satisfaire toutes les parties. Cette idée est au cœur de la gestion marchande des émissions polluantes et repose sur un principe assez simple : devoir payer un prix pour émettre des GES doit conduire à une réduction des émissions par limitation de l’activité et/ou innovations dans des procédés de production plus propres. L’Union européenne a choisi de soumettre les producteurs d’électricité et de l’industrie lourde à un système d’échange de quotas d’émission (SEQE) à partir de 2005. Les pouvoirs publics ont, dans la première phase, attribué gratuitement les quotas d’émission selon un plafond national d’émission. Cette méthode n’a pas été très efficace puisque les économistes s’accordent à évoquer un prix de 40 euros la tonne pour avoir des effets significatifs sur la réduction des émissions de GES. Or, le prix s’est effondré pour stagner en dessous de 10 euros la tonne à partir de la fin 2011, soit une valeur peu incitative à la substitution de processus de production carbonés vers des processus décarbonés. Cela s’explique, d’une part, par le ralentissement économique qui fait suite aux crises financières déclenchées à partir de 20072008 qui ont eu des effets négatifs sur l’activité (le ralentissement de la production a conduit à des émissions moindres), et d’autre part, par des attributions de quotas en quantité trop importante, ce qui provoque une baisse du prix des quotas (excès d’offre sur le marché). On est là en présence d’une situation de capture du régulateur puisque les groupes de pression des secteurs contraints à se soumettre au marché de quotas sont parvenus à ******ebook converter DEMO Watermarks*******

obtenir des autorités européennes une attribution de quotas très généreuse. Fin 2018, la valeur du carbone sur le marché s’est redressée pour atteindre 25 euros la tonne et une étude de Carbon Tracker estime qu’elle pourrait atteindre 35 à 40 euros la tonne d’ici 2023. Ce redressement du prix s’explique principalement par une révision dans l’attribution des quotas d’émission. En premier lieu, plutôt que de définir un plafond national, c’est un plafond européen qui a été déterminé, permettant en ce sens de limiter les comportements de passager clandestin des États qui cherchent à préserver la compétitivité des producteurs nationaux, ce qui aurait conduit, à l’image de la concurrence fiscale, à jouer sur la « concurrence carbone ». Mais surtout, un mécanisme de stabilité a été mis en place afin de retirer du marché certains quotas d’émissions lorsque les prix s’effondrent. En effet, la réduction de l’offre sur le marché conduit à un accroissement du prix de la tonne de CO2 émise. Et comme le rappelle Carbon Tracker à propos de la production d’électricité, la mise en place d’une production moins émettrice de CO2 (usage du gaz plutôt que du charbon) renchérit le coût d’utilisation de l’énergie et doit conduire les consommateurs finaux à préférer les économies d’énergie. Ainsi, comme nous l’avons montré, la science économique ​propose des instruments d’intervention sur le marché visant à modifier les ​comportements par des incitations qui peuvent prendre la forme de taxes, de subvention ou de quotas d’émissions. Leur mise en œuvre a connu des succès plus ou moins grands selon les circonstances mais ne semble pas avoir suffi à juguler le réchauffement climatique. Il est manifeste que le recours au marché n’est pas suffisant. II. Au-delà du marché : la question de la gouvernance dans la lutte contre le réchauffement climatique La lutte contre le réchauffement climatique nécessite une gouvernance cohérente et globale qui va au-delà du marché. Cette gouvernance repose sur une mise en cohérence des instruments de lutte au niveau national comme supranational. Comme le montre l’analyse économique, un bien collectif, à l’image de la stabilité du climat, ne peut pas être produit par le marché, mais comme cette question dépasse la souveraineté des États, une action plus globale doit être entreprise (A). Cependant, des questions de justice sociale apparaissent à la fois au niveau des sociétés nationales (fiscalité, interdictions de circuler, etc.) et entre économies développées et en développement ou ******ebook converter DEMO Watermarks*******

émergentes (B). A. Le climat comme bien collectif nécessite une action globale L’analyse économique néoclassique propose des solutions en présence d’externalités par le recours au marché (fiscalité ou quota). Ce n’est pas envisageable pour ce qui concerne les biens collectifs, c’est-à-dire des biens qui ne sont ni rivaux, ni excluables. C’est le cas de la stabilité climatique. En effet, lorsqu’un agent économique bénéficie de la stabilité du climat, les autres agents peuvent simultanément en user car il n’y a pas de rivalité contrairement à un bien privatif, comme une paire de chaussures, qui ne peut satisfaire simultanément plusieurs consommateurs. De même, il n’est pas envisageable d’exiger le paiement d’un prix pour accéder à la stabilité climatique puisqu’il suffirait qu’un seul agent paie pour que les autres profitent de ce paiement. Il n’est donc pas rationnel qu’un agent décide de payer pour tous, chacun optant pour une stratégie de passager clandestin. La coordination marchande ne permet pas de produire un bien collectif, et seul l’État, par son pouvoir de lever l’impôt (et donc d’exiger que chacun paie indirectement), peut le produire (ou le faire produire). L’absence d’État mondial pose alors un problème de gouvernance climatique. C’est dans le cadre de la Convention-cadre des Nations unies sur les changements climatiques (CCNUCC), issue du Sommet de la Terre tenu à Rio en 1992, que vont s’ouvrir des discussions sur la question climatique. C’est ainsi qu’est signé le Protocole de Kyoto en 1997 qui établit des objectifs de réduction des émissions de GES pour les pays développés, mais laissant les pays en développement en dehors de ce type de contraintes afin de leur permettre un rattrapage économique. Des négociations régulières sont organisées, les Conférences des parties (COP), et celle de Copenhague en 2009 (COP15) apparaissent comme des échecs. Un espoir survient cependant après la signature de l’Accord de Paris en 2015 (COP21) à l’unanimité qui engage les signataires à contenir le réchauffement climatique à deux degrés par rapport à la période préindustrielle. Mais cet engagement repose sur des objectifs volontaires (chaque État définit son propre objectif) et non contraignants. Il n’existe en effet aucune instance de contrôle et de coercition permettant d’obliger le respect de ces engagements. Par ailleurs, le retrait des États-Unis de l’Accord de Paris en 2017 montre la fragilité de la méthode de coordination non contraignante qu’est l’ONU. Les engagements pris lors de cette COP21 ne suffisent d’ailleurs pas à ******ebook converter DEMO Watermarks*******

contenir le réchauffement climatique à deux degrés d’ici 2050. Selon J. Olivier, leur respect devrait conduire à un réchauffement d’environ trois degrés, ce qui est moins important que la poursuite du rythme actuel (quasiment cinq degrés) mais insuffisant pour éviter des effets délétères (fonte des glaciers et du permafrost, acidification des océans, migrations climatiques, désertification, etc). La stabilité climatique relève d’une action globale qui ne peut pas être mise en œuvre que par des États nationaux coordonnant leurs actions puisqu’il n’existe pas de « maître des horloges » mondial. Il apparaît cependant que les comportements opportunistes empêchent l’action. D’une part, la mise en concurrence des territoires dans le cadre de la mondialisation commerciale et productive réduit l’efficacité de toute action nationale. En effet, les segments productifs les plus polluants sont implantés sur les territoires les moins contraignants. Les économistes parlent à ce propos de fuites de carbone puisque, si la production locale est moins émettrice de GES, ce n’est pas le cas de la consommation de produits importés ou partiellement fabriqués dans des territoires aux contraintes moins fortes. Ainsi, le Réseau Action Climat estime que, si l’Union européenne, considérée comme un bon élève, a réduit ses émissions de GES de 10 % entre 2000 et 2010, elle les a accrues de 9% en tenant compte du solde des émissions exportées et importées. D’autre part, l’action en faveur du climat nécessite des politiques à long terme qui ne coïncident pas nécessairement avec le cycle politique. Ainsi, l’administration Obama engage les États-Unis dans l’Accord de Paris mais l’administration Trump l’en retire après une campagne électorale climato-sceptique de l’actuel président. En fin de compte, en présence d’un bien collectif comme la stabilité climatique, une action de l’État est nécessaire. Cependant, il n’existe pas d’État mondial et la coordination de l’action repose sur une gouvernance qui manque de capacité coercitive. C’est donc la coordination par la coopération qu’il faut développer. Surtout, l’effort financier lié au réchauffement climatique doit être juste, qu’il repose sur le marché ou pas. B. La lutte contre le réchauffement : un impératif de justice La lutte contre le réchauffement climatique peut reposer sur des instruments de marché comme le principe pollueur-payeur ou comme les marchés de quotas d’émission, mais cela ne suffit pas. Des règlementations peuvent être imposées aux agents économiques également. Mais dans tous les cas, cette ******ebook converter DEMO Watermarks*******

lutte interroge sur la justice des procédures. Comme le rappelle le rapport du Conseil économique, social et environnemental qui lui est consacré (2016), la justice climatique doit conduire à ce que la lutte contre le réchauffement climatique n’accroisse pas les inégalités (question de justice) car c’est le meilleur moyen de la rendre acceptable (question d’efficacité). Cette question se pose au niveau international comme au niveau national, et elle se pose en termes d’atténuation (réduction des émissions) comme en termes d’adaptation (les plus pauvres seront les principales victimes si rien n’est fait). Au niveau international, le Protocole de Kyoto distinguait les pays développés des pays en développement, l’accord de réduction des émissions ne concernant que les premiers, considérés comme principaux responsables des émissions de GES. Ils sont à l’origine du développement industriel qui repose initialement sur l’usage du charbon, l’énergie fossile la plus polluante. Lors de la COP15 de Copenhague, un accord est trouvé pour financer l’atténuation et l’adaptation des pays les plus pauvres à travers l’institutionnalisation d’un Fonds vert qui doit être abondé à hauteur de 100 milliards de dollars annuels d’ici 2020. En 2015, les Nations unies établissent le financement de ce fonds comme l’une des cibles des Objectifs de développement durable. Ce fonds est principalement utilisé dans le financement de mesures d’atténuation. Pour ce qui concerne les mesures d’adaptation, ce sont essentiellement de petits États insulaires, souvent archipélagiques comme les îles Tonga, qui en bénéficient car ils sont soumis à la montée des océans mais également aux phénomènes météorologiques extrêmes plus fréquents comme les cyclones et ouragans. Mais de manière plus générale, et c’est l’un des arguments du président indien N. Modi, il semble difficile de comprendre comment ceux qui sont les principaux responsables des émissions historiques de GES, qui vivent dans un confort relativement satisfaisant, pourraient imposer des restrictions empêchant la majorité de la population mondiale d’accéder à un mode de vie similaire. Le mode de vie de l’Américain moyen n’étant pas généralisable aux 10 milliards d’habitants prévus en 2050, la question de l’accompagnement vers le développement devient centrale en parallèle de la modification des modes de vie polluant du Nord. D’autre part, quels que soient les territoires observés, ce sont toujours les plus pauvres qui sont victimes du dérèglement climatique. Il est assez simple d’illustrer cela à travers l’exemple des ravages causés par l’ouragan Katrina à la Nouvelle-Orléans en 2005. Parmi les plus de 1800 victimes, une très ******ebook converter DEMO Watermarks*******

grande majorité était pauvre, principalement afro-américaine. Plus récemment, de nombreux éléments vont dans ce sens : l’interdiction de l’accès des véhicules diesel d’un certain âge au centre de Paris pénalise les ménages éloignés du centre et propriétaires de véhicules anciens ; l’accroissement de la taxe carbone est perçu comme une injustice pour les ménages les plus modestes dont les logements sont mal isolés. Ainsi, comme le rappelle l’économiste É. Laurent dans son ouvrage Le bel avenir de l’État-providence (2014), il convient de « réconcilier la question sociale et le défi environnemental » pour repenser l’Étatprovidence comme un État social-écologique. Les risques liés aux émissions de GES sont à présent bien identifiés et leur mutualisation pourrait reposer sur des assurances sociales-écologiques, à l’image des assurances sociales qui se développent après la Deuxième Guerre mondiale. Mais mettre en œuvre la transition écologique c’est aussi pour lui atteindre deux doubles dividendes : santé-climat et emploi-climat. Lutter contre les émissions de GES améliore la santé de la population et potentiellement la productivité de ses actifs. Par ailleurs, pour lutter contre les émissions de GES il faut créer des emplois dans les énergies renouvelables mais également pour les actions d’atténuation comme l’isolation thermique des bâtiments. Ainsi, que les instruments privilégiés dans la lutte contre le réchauffement climatique relèvent du marché ou de la règlementation, ils doivent être justes pour être acceptés. Cette justice sociale-écologique nécessite une action publique volontariste qui laisse penser que s’en remettre uniquement au marché ne suffit pas. Conclusion En définitive, s’en remettre au marché pour lutter contre le réchauffement climatique n’est pas dénué de sens. Les économistes proposent des instruments d’intervention sur le marché (taxe, bonus) qui ont une certaine efficacité. De même, l’institutionnalisation de marchés de quotas d’émission bien calibrés peut limiter les émissions de GES et par là même le réchauffement climatique. Cependant, considérer que le marché suffit à l’atténuation et l’adaptation au réchauffement est en revanche illusoire. Il convient en effet de coordonner les actions de lutte au niveau international, ce qui n’est pas toujours aisé. Surtout, ces actions doivent être justes aux yeux des plus démunis (États comme citoyens) pour apparaître comme légitimes et acceptées. ******ebook converter DEMO Watermarks*******

À cet égard, au-delà de la question de la lutte contre le réchauffement climatique, le mouvement des « gilets jaunes » en France apparu pendant l’hiver 2018-2019 interroge nos démocraties. Le rejet massif des élites politiques et le sentiment de ne pas être représenté nécessite sans doute de repenser l’organisation politique vers davantage de participation citoyenne à la prise de décision collective et notamment sur la question du réchauffement climatique.

******ebook converter DEMO Watermarks*******

Sujet

13 Faut-il des règles de politique économique ?

1

Se préparer à la rédaction

1.1 L’enjeu du sujet La question posée concerne les règles de politique économique et la pertinence de leur mise en œuvre. Ainsi, une erreur consisterait à vouloir débattre de la pertinence de l’existence de la politique économique, en l’occurrence les politiques conjoncturelles, c’est-à-dire la politique monétaire, la politique budgétaire et leur coordination à travers le policy-mix. Le sujet porte sur la question de la conception et de la mise en œuvre des politiques économiques conjoncturelles. Leur étude est un champ disciplinaire initié après la Grande Dépression des années 1930 par la pensée keynésienne dont la proposition centrale consiste à légitimer l’action monétaire et/ou budgétaire des pouvoirs publics en cas d’équilibre de sousemploi, c’est-à-dire lorsque la coordination par le marché ne permet pas d’utiliser pleinement les facteurs de production disponibles, en particulier le travail. Les politiques économiques conjoncturelles sont alors discrétionnaires. L’analyse a été grandement renouvelée à partir des années 1960 avec le développement des critiques du keynésianisme de la synthèse, alors fondé sur le modèle IS-LM et la courbe de Phillips. J. Pisani-Ferry interprète cette évolution de la théorie économique comme une conséquence de changements majeurs, notamment la prise en compte du temps dans l’analyse de la décision publique et dans le comportement des agents économiques (théories des anticipations, incohérence temporelle) et le développement de l’économie des choix publics (école dite du public choice) mettant en avant les possibles ******ebook converter DEMO Watermarks*******

défaillances de l’État.

1.2 Le cadrage et les concepts clés La théorie économique dans son ensemble a été traversée par les débats concernant le rôle de l’État et son intervention économique. L’analyse keynésienne connaît un succès important auprès des économistes et des décideurs politiques à la suite de la Grande Dépression des années 1930 et va guider l’action publique à partir de cette période. En 1959, R. Musgrave établit trois fonctions à l’État dont celle de stabilisation de l’activité économique (les deux autres fonctions étant celles d’allocation des ressources et de répartition des revenus) qui sera mise en œuvre grâce aux politiques économiques conjoncturelles. Si l’analyse keynésienne des Trente Glorieuses a été fondée sur des relations économiques comme l’arbitrage inflationchômage, les réflexions en termes de règles apparaissent dans la critique du keynésianisme de la synthèse. Les différentes théories qui en découlent conduisent à proposer que la politique économique soit soumise à des règles de fonctionnement, à l’image du contrôle de l’évolution de la masse monétaire pour garantir la stabilité des prix (règle dite du k % attribuée à M. Friedman, initiateur du monétarisme). La crise du mode de régulation fordiste à la fin des années 1960 et l’inefficacité des politiques conjoncturelles keynésiennes au cours de la période de stagflation des années 1970 ont renforcé les arguments des économistes opposés à la discrétion. Ainsi, en 1977, F. Kydland et E. Prescott publient un article fondamental concernant la politique monétaire : “Rules Rather than Discretion: The Inconsistency of Optimal Plans” (« Des règles plutôt que des décisions discrétionnaires : l’inconsistance des prévisions optimales »). Par ailleurs, les contraintes pesant sur les États européens, ceux de la zone euro en particulier, conduisent les autorités à imaginer des règles budgétaires dans le cadre des traités qui accompagnent la création de l’euro.

1.3 La construction de la problématique La question posée appelle ainsi deux réflexions qui vont orienter le développement de la dissertation : 1) Pour quelles raisons des règles de politique économique devraientelles être mises en œuvre ? Il convient de contrôler l’action des pouvoirs publics pour en éviter les dérives et il importe d’ancrer les anticipations ******ebook converter DEMO Watermarks*******

des agents pour gagner en efficacité. 2) Quelles sont les règles qui sont pertinentes et celles qui ne le sont pas ? Les règles peuvent avoir un effet négatif et empêcher la stabilisation de l’activité économique. Elles deviennent alors inefficaces.

2

Rédiger le devoir : une proposition

Introduction À l’automne 2018, la Commission européenne a retoqué le projet de budget du gouvernement italien qui présente un déficit public de 2,4 %, en dessous du seuil des 3 % fixés par les règles du Pacte de stabilité et de croissance (PSC). Elle a justifié cette décision par deux éléments. Tout d’abord, ce déficit excède les engagements du précédent gouvernement (déficit de 0,8 %). Mais surtout, la dette publique italienne dépasse largement le seuil de 60 % du PSC (elle atteint en effet 130 % du PIB), et un tel déficit ne permettrait pas de la voir refluer. Si l’Europe monétaire s’est construite sur des règles budgétaires de contrôle de la dépense publique à partir des années 1990, la question du contrôle réglementaire de l’action économique des pouvoirs publics se pose depuis les années 1960. Les règles de politique économique peuvent se définir comme des mécanismes automatiques de mise en œuvre de ces politiques, connus par les agents économiques et respectés par les pouvoirs publics quoi qu’il advienne. À l’inverse, les politiques sont dites discrétionnaires lorsque les responsables politiques peuvent en décider au cas par cas selon leur évaluation de la situation. La réflexion sera axée sur les politiques économiques conjoncturelles, c’est-à-dire la politique monétaire et la politique budgétaire qui visent à stabiliser l’activité économique. Pourquoi les pouvoirs publics devraient-ils être neutralisés dans la mise en œuvre de la politique économique conjoncturelle ? Quels sont les contrôles qui sont les plus pertinents ? De quelles marges de manœuvre les pouvoir publics devraient-ils être dotés ? En réponse aux critiques émises à l’encontre des prescriptions keynésiennes de politique économique, l’action économique des pouvoirs publics semble devoir être de plus en plus contrôlée (I). Cependant, la question de l’efficacité des règles nécessite d’être analysée (II). I. De la discrétion à la règle : pourquoi les règles de politique ******ebook converter DEMO Watermarks*******

économique se sont-elles imposées ? Les politiques économiques conjoncturelles élaborées après la crise de 1929 reposent généralement sur l’action discrétionnaire des pouvoirs publics (A). Cependant, l’inefficacité de ces politiques après les chocs pétroliers des années 1970 conduit à proposer des règles de politique économique conjoncturelle (B). A. De l’inefficacité de l’action discrétionnaire… La macroéconomie qui fonde les politiques économiques discrétionnaires est instituée après la publication de la Théorie générale de l’emploi, de l’intérêt et de la monnaie de J. M. Keynes en 1936. J. R. Hicks (Prix Nobel 1972) propose dès 1937 (“Mr. Keynes and the ‘Classics’: A Suggested Interpretation”) le modèle qui va guider les politiques de stabilisation de l’activité économique : le modèle IS-LM. En cas d’équilibre de sous-emploi, c’est-à-dire de situation macroéconomique d’équilibre sur le marché des biens et services et sur le marché de la monnaie mais en présence d’un chômage involontaire, les pouvoirs publics peuvent stimuler l’activité par la politique monétaire (réduction du taux d’intérêt stimulant l’investissement et la demande adressée à l’économie) et/ou par la politique budgétaire (accroissement de la demande publique) pour atteindre le plein-emploi. À la fin des années 1950, l’économiste A. W. Phillips met en évidence une relation inverse entre taux de croissance du taux de salaire nominal et taux de chômage : plus le taux de chômage est faible, plus la croissance du taux de salaire nominal est élevée puisque la réduction du chômage crée des tensions sur le marché du travail. La réinterprétation de cette courbe par P. Samuelson (Prix Nobel 1970) et R. Solow (Prix Nobel 1987) établit la possibilité d’un arbitrage entre inflation et chômage que les pouvoirs publics peuvent mener par des politiques discrétionnaires d’austérité, quand l’inflation s’accélère, et de relance quand le chômage devient trop élevé. C’est le fondement des politiques de stop and go menées notamment en Grande-Bretagne pendant les Trente Glorieuses. Cependant, ce pouvoir économique discrétionnaire est de plus en plus critiqué au cours des années 1960 et l’échec des politiques conjoncturelles mises en œuvre au cours des années 1970 renforce ces critiques. M. Friedman (Prix Nobel 1976), l’un des plus fervents opposants aux politiques économiques keynésiennes, rejette l’idée qu’une politique monétaire discrétionnaire puisse être efficace. Il fonde son analyse sur l’hypothèse ******ebook converter DEMO Watermarks*******

d’anticipations adaptatives des agents économiques selon laquelle ils modifient leurs comportements au vu des erreurs passées. Ainsi dans son analyse monétariste, il considère que « l’inflation est toujours et partout un phénomène monétaire », la quantité de monnaie en circulation déterminant en dernière instance le niveau général des prix. Dans ces conditions, une politique monétaire expansionniste visant à relancer l’activité, si elle peut avoir un effet réel à court terme, ne conduit qu’à l’inflation à long terme, cette inflation apparaissant d’autant plus vite que les agents ont appris des politiques monétaires passées et adapté leurs comportements. La courbe de Phillips devient verticale à long terme, révélant ainsi un « taux de chômage naturel » de l’économie contre lequel une politique conjoncturelle expansionniste ne peut rien. Par ailleurs, Friedman met en évidence les décalages temporels entre action sur les taux d’intérêt des autorités monétaires et situation conjoncturelle risquant de renforcer le cycle économique : en décidant par exemple de baisser les taux directeurs suite à un ralentissement conjoncturel, le risque est que la décision soit tardive et ait des effets au moment où l’activité repart, ce qui crée des tensions inflationnistes. C’est pourquoi le père du monétarisme propose que les autorités monétaires abandonnent la politique discrétionnaire de taux pour une règle de politique monétaire agissant sur la masse monétaire dite règle du k %. La théorie quantitative de la monnaie repose sur l’équation des échanges d’I. Fisher qui égalise la monnaie disponible dans l’économie (MV pour la masse monétaire multipliée par la vitesse de circulation de la monnaie) et l’ensemble des transactions réalisées (PT pour le niveau général des prix multiplié par le volume des échanges). En considérant que la vitesse de circulation est stable, que le volume des transactions n’est pas affecté par les variables monétaires (dichotomie), un accroissement de la masse monétaire (M) conduit nécessairement à un accroissement du niveau général des prix (P), soit de l’inflation. En conséquence, sachant que les transactions augmentent au rythme de la production (le trend de croissance), une masse monétaire évoluant à ce même rythme n’est pas inflationniste. Ainsi, si on appelle k % le taux de croissance de la production, un taux de croissance de k % de la masse monétaire n’est pas inflationniste. Cette analyse a influencé les autorités monétaires qui intègrent, ou ont intégré, l’évolution de la masse monétaire comme objectif intermédiaire de leur politique monétaire. La mise en œuvre de règles va ensuite se généraliser. ******ebook converter DEMO Watermarks*******

B. … à la mise en œuvre de règles de politique économique L’économiste français J. Pisani-Ferry rappelle que l’évolution de l’analyse économique a modifié la vision du rôle des pouvoirs publics dans l’économie et conduit à considérer que les pouvoirs publics devaient être contrôlés. Il identifie des évolutions théoriques poussant en ce sens : la prise en compte du temps et des anticipations des agents économiques, le développement des analyses en termes d’économie politique (l’école des choix publics considère les décideurs politiques comme des acteurs rationnels maximisant leur intérêt). La mise en œuvre de la politique monétaire a également évolué avec l’analyse de F. Kydland et E. Prescott (Prix Nobel 2004) qui publient en 1977 un article intitulé “Rules Rather than Discretion: the Inconsistency of Optimal Plans” (« Des règles plutôt que des décisions discrétionnaires : l’inconsistance des prévisions optimales »), fondé sur l’hypothèse d’anticipations rationnelles des agents économiques. Ceux-ci n’ont pas besoin d’un temps d’adaptation pour comprendre les conséquences d’une décision de politique économique. Dès lors, une règle de politique économique clairement énoncée permet d’ancrer les anticipations, c’est-àdire de lever les incertitudes quant aux décisions qui sont prises. Cependant, l’analyse s’appuie sur un autre élément : la crédibilité de la parole donnée. Considérant que l’homme politique rationnel agit en vue de sa réélection, le risque est grand de voir celui-ci renoncer à la règle et sombrer dans l’incohérence temporelle. Pour éviter cet écueil, il convient de confier la mise en œuvre de cette politique monétaire à une banque centrale indépendante du pouvoir politique. Cette analyse est renforcée par les critiques émises par l’école des choix publics (public choice), en particulier par celle de W. Nordhaus, pour qui la politique économique est déterminée par le cycle électoral. Il conduit les candidats à leur propre succession à arbitrer en faveur de l’inflation à la veille des élections et à mettre en œuvre une politique monétaire expansionniste en dehors de toute considération du cycle économique. Une fois élus, ils n’hésitent pas à revenir sur ces politiques et à arbitrer en faveur du chômage même si ce n’est pas économiquement justifié. En conséquence, une autorité monétaire indépendante du pouvoir politique mettant en œuvre une politique monétaire à partir de règles, et non de manière discrétionnaire, serait plus efficace. Les défaillances de l’État mises en évidence par l’école des choix publics ******ebook converter DEMO Watermarks*******

(objectifs d’accès au pouvoir et capture de la décision publique par des intérêts particuliers notamment) se retrouvent à propos de la mise en œuvre de la politique budgétaire. Il est d’ailleurs notable qu’un institut statistique comme l’Insee en France intègre le cycle électoral à l’analyse de la dépense budgétaire des collectivités territoriales. Ainsi, la baisse des investissements publics municipaux en 2015 en France s’explique par la fin du cycle électoral communal. La question de ​l’endettement public et de l’hypothétique report de la charge de la dette sur les générations futures justifie l’existence de règles budgétaires. Depuis la signature du Traité de Maastricht déterminant les conditions de qualification pour l’intégration à la zone euro, un contrôle budgétaire strict est mis en œuvre. Il passe par des seuils maxima de déficit public et de dette publique en pourcentage du PIB. Le Pacte de stabilité et de croissance de 1997 reprend les critères de Maastricht et fixe le seuil de déficit public à 3 % du PIB et celui de dette publique à 60 %. Ces règles budgétaires visent à éviter qu’apparaisse un effet boule de neige de la dette, c’est-à-dire une situation dans laquelle la charge de la dette (les intérêts payés sur la dette) nécessite un endettement supplémentaire pour la couvrir. Pour J.-P. Fitoussi, entre La règle et le choix (2002), c’est la règle qui s’est imposée. De même, aux États-Unis, il existe un plafond de la dette voté par le Congrès qui conduit à des coupes automatiques dans les dépenses publiques lorsqu’il est atteint. En 2013 les tensions entre le président Obama, démocrate, et le congrès républicain ont failli conduire à des coupes budgétaires d’environ 400 milliards de dollars dont les conséquences récessives auraient été élevées, et sans doute électoralement coûteuses aux Républicains. C’est pourquoi, les deux camps ont trouvé un accord et ce plafond a été relevé. Ainsi, si la révolution keynésienne a permis d’envisager l’action économique conjoncturelle des pouvoirs publics, la pertinence d’une action discrétionnaire a été remise en question par les analyses critiques du keynésianisme. Aujourd’hui, les règles de politiques économiques sont devenues la règle. II. Quelles règles pour quelle efficacité ? En pratique, les pouvoirs publics se sont dotés de règles de politique économique au niveau monétaire comme au niveau budgétaire. L’analyse économique a proposé d’identifier quelles étaient les bonnes règles de politique économique (A). Pour autant, non seulement il peut être difficile ******ebook converter DEMO Watermarks*******

d’en concilier toutes les caractéristiques mais tous les économistes ne partagent pas ce principe de contrôle réglementaire (B). A. Qu’est-ce qu’une bonne règle de politique économique ? Aujourd’hui, la politique monétaire est mise en œuvre de manière plus ou moins indépendante par la banque centrale. L’indépendance par rapport au pouvoir politique peut être totale (fixation des objectifs et instruments de politique monétaire) comme pour la BCE ou centrée sur les instruments comme pour la Banque d’Angleterre. La difficulté pour le banquier central consiste à fixer une stratégie monétaire efficace et cela peut passer par des règles. L’économiste suédois L. Svensson distingue trois types de règles : les règles instrumentales, les règles de ciblage, les règles de ciblage intermédiaire. Dans le premier cas, il s’agit d’établir une relation entre la valeur de l’instrument de politique monétaire et des variables macroéconomiques. Un exemple en est la fameuse règle proposée par J. Taylor en 1993. Cette règle relève d’un travail empirique de l’économiste qui établit une relation entre taux directeur, écart de production (différence entre la croissance réalisée et la croissance potentielle de l’économie) et écart inflationniste (différence entre inflation mesurée et cible d’inflation). Un écart de production négatif pèse à la baisse sur le niveau des taux directeurs, un accroissement des prix supérieur à la cible pèse à la hausse. Cette règle explique assez bien les décisions de la Fed sans pour autant qu’un mécanisme automatique ait été mis en place par les autorités monétaires américaines. Les règles de ciblage consistent à établir les objectifs poursuivis, le plus répandu étant le ciblage de l’inflation. C’est par exemple le cas de la BCE qui a un objectif d’inflation proche de 2 % par an. Cette règle n’est pas mécanique et laisse le champ libre pour déterminer la politique monétaire à mettre en œuvre. À la suite de la crise financière, l’inflation a très fortement ralenti en zone euro, au point de laisser craindre une dynamique de déflation. Pour juguler ce ralentissement, M. Draghi a mis en œuvre des politiques monétaires non conventionnelles. Enfin, il existe des règles de ciblage intermédiaire qui consistent à contrôler un objectif intermédiaire corrélé à l’objectif final. C’est le cas de la règle du k % puisque la stabilité des prix est obtenue par le contrôle de la masse monétaire. Pour la BCE, il s’est agi jusqu’en 2003 de contrôler l’évolution de l’agrégat monétaire M3 avec un objectif de croissance de 4,5 % par an correspondant à 2 % d’inflation et ******ebook converter DEMO Watermarks*******

2,5 % de croissance en volume. Le contrôle réglementaire de la politique budgétaire a donné lieu à une vaste littérature économique et a été organisé par les pouvoirs publics, notamment en Europe. En 1998, G. Kopits et S. Symanski ont défini une règle budgétaire idéale permettant d’éviter les dérapages financiers et assurant la soutenabilité de l’endettement. Elle doit présenter huit caractéristiques : clarté, transparence, simplicité, flexibilité, pertinence, capacité coercitive, cohérence, efficience. Cela peut passer par un plafonnement de dépenses ou encore une règle d’équilibre budgétaire à l’image du choix de l’Allemagne d’inscrire dans sa constitution l’obligation pour l’État fédéral de présenter un déficit public inférieur à 0,35 % du PIB sur le cycle économique. Cependant, ces nombreux critères sont potentiellement contradictoires : une règle flexible perd nécessairement en simplicité. P. Artus considère, quant à lui, deux conditions pour que des règles de politique budgétaire soient efficaces. Elles doivent être raisonnables, c’est-à-dire permettre au budget de jouer son rôle de stabilisation de l’activité économique. Elles doivent également être crédibles, c’est-à-dire qu’elles seront respectées par les États qui y sont soumis. L’économiste ne considère pas que le contrôle actuel des politiques budgétaires en zone euro respecte ces deux critères. B. De l’insuffisance des règles à leur rejet La crise financière déclenchée en 2007-2008 a mis en avant la nécessité de mettre en œuvre une action de politique monétaire discrétionnaire. En effet, à partir du moment où le taux directeur, principal instrument de politique monétaire, est fixé à 0 % ou très proche de 0 %, la banque centrale se doit d’innover. En l’absence de cet instrument, plus de règle de Taylor effective pour la Fed qui a dû mettre en œuvre plusieurs politiques de Quantitative Easing, c’est-à-dire de rachats programmés de titres dans l’objectif de dynamiser l’activité économique, notamment par la stimulation du crédit et par les effets de richesse associés à l’accroissement du prix des actifs financiers. C’est B. Bernanke alors président du Conseil des gouverneurs de la Fed qui a imaginé ce programme, s’inspirant de ce que fit la Banque du Japon au début des années 2000, et qui a été suivi par les principales banques centrales des pays développés, y compris par la BCE mais plus tardivement. Quelle que soit l’économie concernée, les autorités monétaires ont communiqué sur ces politiques monétaires de manière à ancrer les ******ebook converter DEMO Watermarks*******

anticipations des agents financiers. Il s’agit dans ce cas de ne pas les surprendre et d’éviter toute surréaction de leur part. Une illustration en est l’effet stabilisant qu’a eu l’annonce par M. Draghi en 2012, nouvellement nommé à la présidence de la BCE, que tout serait fait pour sauver l’euro en pleine crise grecque. Pour crédibiliser son propos il a présenté un programme potentiel de rachat de titres publics, ce qui a suffi à « calmer » les marchés. Ainsi, même si des règles de politiques monétaires peuvent être identifiées, elles ne peuvent suffire en toute circonstance, ce qui nécessite ce que Bernanke a appelé une « discrétion contrainte ». Les règles de politique budgétaire sont, quant à elles, difficiles à mettre en œuvre, voire contre-productives pour certains économistes. Qu’il s’agisse du plafond de la dette aux États-Unis ou des critères du PSC en zone euro, ils ne sont pas respectés. Depuis sa création, le plafond de la dette a été sans cesse accru par le Congrès, et les 3 % de déficit public en zone euro ont fréquemment été dépassés, et en premier lieu par la France et l’Allemagne. C’est analysé dans le cas de la zone euro comme la conséquence de sanctions insuffisantes ou peu crédibles. En effet, lorsque le non-respect de ce critère pouvait ne pas qualifier pour le passage à l’euro, tous les gouvernements se sont appliqués à le respecter. Depuis c’est beaucoup moins le cas. C’est sans doute ce qui explique la volonté du ministre allemand des Finances W. Schäuble d’exclure la Grèce de la zone euro pour non-respect du Pacte et en faire un exemple de sanction. La Commission a plutôt choisi de faire évoluer les règles budgétaires en automatisant les sanctions en cas de procédure de déficit excessif, et en contrôlant ex ante le budget de chaque État dans le cadre du semestre européen. C’est à ce titre que le projet de budget italien a été retoqué en octobre 2018. Enfin, une nouvelle règle dite « règle d’or » a été imaginée dans le cadre du Traité pour la stabilité, la coordination et la gouvernance (TSCG) signé en 2012. Il s’agit d’imposer à chaque État un équilibre ou un excédent budgétaire à moyen terme. L’équilibre budgétaire correspond à un déficit structurel de – 0,5 % du PIB pour un pays endetté au-delà de 60 % du PIB, et – 1 % du PIB pour un pays endetté en-deçà. Les règles de politique budgétaire mises en œuvre en Europe ont été critiquées par de nombreux économistes, partisans ou opposants des règles budgétaires. Tous s’accordent en effet à considérer qu’en l’état elles ont des effets pro-cycliques et non contra-cycliques comme le nécessiterait toute action budgétaire. A. Bénassy-Quéré et X. Ragot considèrent par exemple ******ebook converter DEMO Watermarks*******

qu’il faut conserver un contrôle de la politique budgétaire à travers le semestre européen mais qu’il faut le rendre plus cohérent, notamment en analysant les déséquilibres au niveau de la zone euro et pas seulement État par État. D’autres économistes sont beaucoup plus critiques à l’image de C. Mathieu et H. Sterdyniak qui rejettent ces règles budgétaires. Il s’agit en effet pour eux de contraintes incohérentes face au rôle que doivent jouer les budgets publics (action contra-cyclique), et en raison d’une conception théorique infondée. Alors que la croissance économique reste faible et le chômage élevé dans un grand nombre de pays, que la transition énergétique nécessite des financements et qu’un excès d’épargne existe en zone euro, aucune relance budgétaire ne semble possible. Par ailleurs, parler de « règle d’or » dans le cadre du TSCG est trompeur. En effet, la règle d’or des finances publiques consiste, selon P. Leroy-Beaulieu, à ne pas financer les dépenses courantes par le déficit. En revanche, les investissements générant de l’activité à long terme peuvent être financés par endettement. Enfin, fonder une règle budgétaire sur le déficit structurel est problématique. En effet, cet indicateur repose sur le PIB potentiel d’une économie, agrégat qui ne peut pas être observé et doit être construit sous diverses hypothèses. Or, les évaluations ne sont pas nécessairement convergentes et cette règle ne peut pas être rigoureusement appliquée. La discipline budgétaire est devenue un objectif alors qu’elle ne devait être qu’un moyen de contrôle des dérives, annihilant dès lors toute velléité de politique budgétaire. Conclusion Ainsi, un grand nombre de critiques ont été émises à l’encontre des politiques économiques conjoncturelles d’inspiration keynésienne. Elles ont conduit à contrôler l’action des pouvoirs publics par des règles de politique économique. Cela a d’abord été le cas des politiques monétaires mises en œuvre par des banques centrales indépendantes définissant les objectifs et/ou instruments de cette politique monétaire. Ensuite, ce sont les politiques budgétaires qui ont été contraintes, notamment dans le cas européen où les règles ont été poussées très loin, au point de proposer la quasi-automaticité des sanctions dans le TSCG. Cependant, ces règles se sont avérées procycliques et ont empêché que les politiques économiques conjoncturelles jouent leur rôle de stabilisation du cycle économique. C’est pourquoi certains prônent aujourd’hui leur révision, voire un abandon des règles et un retour à ******ebook converter DEMO Watermarks*******

la discrétion, à la possibilité pour les pouvoirs publics d’intervenir massivement dans l’économie au moment opportun. Un consensus semble d’ailleurs se dégager aujourd’hui parmi les économistes pour considérer qu’au niveau de la zone euro la mise en œuvre d’une politique économique conjoncturelle efficace doit passer par une intégration budgétaire et fiscale plus forte et par une véritable politique budgétaire. Cela nécessiterait des abandons de souveraineté nationale supplémentaires.

******ebook converter DEMO Watermarks*******

Sujet

14 La gouvernance de la zone euro : enjeux et difficultés

1

Se préparer à la rédaction

1.1 L’enjeu du sujet À la suite de la crise financière qui est survenue en zone euro à partir de 2010, la possibilité d’un éclatement de la zone monétaire est apparue. Cette possibilité a été renforcée par les déclarations de W. Schaüble, alors ministre allemand des Finances, intransigeant vis-à-vis de la Grèce et allant même jusqu’à envisager un Grexit, c’est-à-dire une sortie de ce pays de la zone euro. Cet épisode est significatif d’un défaut de gouvernance de l’union économique et monétaire. Depuis, si la zone euro s’est maintenue, c’est principalement grâce aux déclarations du nouveau gouverneur de la Banque centrale européenne (BCE), M. Draghi, qui a annoncé en 2012 que l’institution ferait tout pour préserver l’euro (“Within our mandate, the ECB is ready to do whatever it takes to preserve the euro. And believe me, it will be enough”), et aux actions de politique monétaire entreprises, notamment le rachat de titres de dette des pays en difficulté. Mais les institutions européennes ont également évolué à la suite de la meilleure compréhension des mécanismes à l’œuvre lors de cette crise. Une union bancaire est aujourd’hui en chantier et la surveillance des déséquilibres macroéconomiques est opérée. Par ailleurs, la Commission a accru le contrôle des finances publiques des États membres à travers le « semestre européen ». Beaucoup d’économistes s’accordent pour dire que ces nouveaux contrôles ne permettent pas de stabiliser véritablement la zone ******ebook converter DEMO Watermarks*******

euro, voire œuvrent à sa « déstabilisation » (J. Stiglitz). En conséquence, la réflexion se poursuit à propos des réformes nécessaires au maintien de l’intégration monétaire européenne, réformes qui reposent sur les propositions théoriques concernant les zones monétaires optimales à la suite des travaux initiaux de R. Mundell, et qui interrogent les nécessaires transferts de souveraineté permettant des transferts budgétaires pour compenser l’hétérogénéité structurelle de la zone. La formulation du sujet est assez atypique : une thématique, associée à deux axes de réflexion. L’incitation première est ainsi d’orienter l’enjeu du sujet autour de ces deux pistes : les évolutions passées et futures de la gouvernance de la zone euro depuis la mise en place de la monnaie unique (les enjeux) d’une part, les obstacles que cette gouvernance rencontre face à ces différentes pistes (les difficultés) d’autre part. Outre le caractère sans doute trop descriptif de cette démarche, son inconvénient réside dans le fait de ne pas placer au centre de la réflexion la crise qui frappe la zone euro à partir de 2009. Or, un des enjeux du sujet est justement que la gouvernance de la zone euro s’est révélée profondément différente avant et après cette crise. Ainsi, il s’agira surtout d’examiner l’évolution économique et institutionnelle dans la zone au cours des dix dernières années.

1.2 Le cadrage et les concepts clés La zone euro est institutionnalisée en 1999 à la suite des Traités de Maastricht (définissant notamment les critères de convergence permettant à une nation d’être éligible à la monnaie unique, 1992) et d’Amsterdam (définissant les règles budgétaires du Pacte de stabilité et de croissance, 1996). Si 11 pays sont éligibles au premier janvier 1999, la zone euro intègre un nombre croissant de pays membres de l’Union européenne. Elle en compte 16 en 2009 à la veille de la crise financière et 19 aujourd’hui. Parler de gouvernance c’est parler des modalités par lesquelles les institutions gèrent leurs affaires communes, ici la monnaie unique, mais également les conditions de pérennité de celle-ci. P. Lamy définit la gouvernance comme « l’ensemble des transactions par lesquelles des règles collectives sont élaborées, décidées, légitimées, mises en œuvre et contrôlées ». Elle se distingue du gouvernement en ce sens qu’elle ne repose pas sur une instance politique comme les gouvernements nationaux émanant des élections. ******ebook converter DEMO Watermarks*******

1.3 La construction de la problématique L’intitulé du sujet peut faire pencher le candidat sur un plan du type : I. Les enjeux et II. Les difficultés. Il nous apparaît cependant que la problématisation peut conduire à se questionner sur les différents éléments autour desquels la gouvernance de la zone euro existe et connaît des difficultés. La naissance de l’euro a conduit à une gouvernance fédérale de la monnaie qui est voie de finalisation avec l’union bancaire. Elle reposait sur une exigence de convergence nominale, c’est-à-dire d’homogénéisation des taux d’inflation et des taux d’intérêt, mais pas sur une convergence réelle. La Banque centrale européenne qui mène la politique monétaire de la zone a été instituée avec pour mandat de garantir la stabilité des prix. Sur le modèle de la Bundesbank allemande, elle est indépendante des pouvoirs politiques et ne peut financer directement les gouvernements. Certains considèrent aujourd’hui que ce mandat doit être élargi à la stabilité financière et à l’emploi. Par ailleurs, les États sont restés maîtres des politiques budgétaires, sous contrainte des Traités européens interdisant la solidarité budgétaire. Cependant, les situations conjoncturelles divergent et la gouvernance par les règles a conduit à des politiques pro-cycliques (sauf en 2009 lorsque ces règles ont été suspendues). Pour qu’une monnaie unique soit pérenne, il est pourtant nécessaire que des transferts budgétaires apparaissent (théorie des zones monétaires optimales), ce que les traités empêchent. Ainsi, il est possible de distinguer deux moments dans la gouvernance de la zone euro. Le premier repose sur les institutions mises en place au moment de la création de l’union monétaire, institutions dont la crise financière va révéler l’insuffisance. Le second se construit en réponse à cette crise, et s’il présente des avancées, celles-ci vont apparaître insuffisantes.

2

Rédiger le devoir : une proposition

Introduction La crise financière qui éclate en zone euro en 2009 à la suite de la crise des subprimes a mis en évidence un défaut majeur de gouvernance, en particulier dans le cas de la Grèce. Il s’est en effet avéré que les gouvernements hellènes avaient falsifié, avec la complicité tacite des instances européennes, les comptes de l’État afin d’être qualifiés pour l’euro et ensuite ne pas subir les ******ebook converter DEMO Watermarks*******

potentielles sanctions prévues par le Traité d’Amsterdam (procédure de déficit excessif). Lorsque la situation a été rendue publique, des mouvements spéculatifs très importants sur la dette grecque sont apparus (ventes massives de titres souverains) et ont conduit à un effondrement du prix de ces actifs, et corrélativement à un accroissement considérable des taux souverains. Pour répondre à cette crise et organiser un plan de sauvetage de la Grèce, le gouvernement allemand a exigé que le Fonds monétaire international (FMI) participe à ce plan dans le cadre de la « Troïka » (Commission, Banque centrale européenne et FMI). Cet épisode montre à quel point la gouvernance de la zone euro était défaillante. Qu’un espace économique aussi riche doive faire appel à l’institution financière internationale connue pour organiser le sauvetage et la restructuration des dettes des pays en développement en défaut de paiement interroge sur la capacité de la zone euro à organiser sa propre gouvernance. Pour P. Lamy la gouvernance est « l’ensemble des transactions par lesquelles des règles collectives sont élaborées, décidées, légitimées, mises en œuvre et contrôlées », c’est-à-dire des modalités par lesquelles les institutions gèrent leurs affaires communes. La zone euro est instituée à la suite de la ratification du Traité de Maastricht en 1993, et 11 pays la rejoignent en 1999. Après différents élargissements, elle compte aujourd’hui 19 pays qui ont donc choisi d’abandonner leur souveraineté monétaire au profit du Système européen de banques centrales (SEBC) à la tête duquel se trouve la BCE. Il met en œuvre la politique monétaire. Quant à la gouvernance budgétaire, elle reste de la responsabilité de chaque État membre qui s’est cependant engagé à respecter des règles budgétaires, énoncées dans le traité d’Amsterdam de 1997, puis renforcées en 2012 par le Traité sur la stabilité, la coopération et la gouvernance. S’y ajoute une surveillance macroéconomique des pays membres. En 2018, avec la multiplication des succès électoraux des partis eurosceptiques, à l’image du gouvernement italien mené par la Ligue et le Mouvement cinq étoiles qui a remis en cause les engagements budgétaires du gouvernement précédent, la question de la gouvernance de la zone euro et de ses difficultés se pose. De longue date, le projet de monnaie unique en Europe a été critiqué au niveau économique et la crise semble avoir révélé au grand public un défaut de gouvernance congénital (I). À la suite de la crise de 2009 des changements institutionnels sont apparus et la crise semble pourtant s’enliser. Les changements de gouvernance ont-ils été suffisants pour pérenniser la zone monétaire (II) ? ******ebook converter DEMO Watermarks*******

I. La crise financière en zone euro a révélé une crise de gouvernance À partir de 2009, la crise financière déclenchée aux États-Unis se diffuse à la zone euro, ce qui va révéler ses défauts de conception. Un choix de gouvernance par les règles a été opéré dès le départ, mais ce choix s’est avéré inadapté (A). Par ailleurs, la gouvernance de la zone euro ne permet pas de stabiliser l’activité économique, c’est-à-dire de mettre en œuvre des politiques conjoncturelles contra-cycliques (B). A. Une gouvernance par les règles inadaptée L’Union économique et monétaire a été construite sur l’hypothèse que la convergence nominale des économies, accompagnée de règles budgétaires, suffirait à pérenniser la zone monétaire. Ainsi, dès le Traité de Maastricht qui entre en vigueur en 1993, il est spécifié que les États membres qui seront qualifiés pour la monnaie unique doivent converger en termes d’inflation et de taux d’intérêt et respecter des niveaux de déficits et dettes publics respectivement de 3 % du PIB et 60 % du PIB. En effet, en vertu de la théorie de la parité des pouvoirs d’achat, lorsque l’évolution des prix diverge entre deux économies fortement intégrées, un ajustement des taux de change doit s’opérer. La monnaie de l’économie connaissant une inflation plus importante doit se déprécier pour compenser la perte de compétitivité liée à l’accroissement des prix nationaux et inversement pour celle de l’économie connaissant une inflation plus faible. Ainsi, pour être qualifié pour le passage à l’euro, une économie devait connaître un taux d’inflation inférieur à la moyenne des taux des trois pays les moins inflationnistes majorée d’un point et demi. De même, en vertu de la théorie de la parité des taux d’intérêt, une convergence sur les taux à long terme était exigée. En effet, les écarts de taux génèrent des ajustements du change. Le taux d’inflation d’un pays qui souhaite adopter l’euro ne doit pas dépasser de plus de 1,5 point la moyenne des taux d’inflation des trois pays candidats qui ont les prix les plus stables. Une fois l’euro adopté, la gouvernance monétaire est confiée à la Banque centrale européenne dont le mandat vise à garantir la stabilité des prix et la gouvernance budgétaire repose sur des règles, celles du Traité de Maastricht reprises dans le Traité d’Amsterdam de 1997 sous le nom de Pacte de stabilité et de croissance (PSC). Une gouvernance par les règles a donc été choisie, au détriment d’une gouvernance par la coordination de politiques budgétaires discrétionnaires comme l’a regretté J.-P. Fitoussi en 2002 dans ******ebook converter DEMO Watermarks*******

son ouvrage La règle et le choix. Parier sur la stabilité d’une zone monétaire était plutôt audacieux. La convergence nominale des économies ne conduit pas nécessairement à leur convergence réelle. Ou alors cette convergence peut devenir « artificielle » comme le soulignent A. Barbier-Gauchard, M. Sidiropoulos et A. Varoudakis dans La gouvernance économique de la zone euro (2018). Ainsi, certaines économies comme l’Espagne ou la Grèce vont connaître une croissance relativement importante et une forte réduction du chômage conduisant à une convergence vers la situation des pays d’Europe du Nord comme l’Allemagne ou les Pays-Bas. Le caractère artificiel relève du fait que cette activité économique repose sur la production de biens et services non échangeables, et est financée par des entrées importantes de capitaux. Le cas espagnol est à cet égard révélateur. En effet, l’économie est tirée par la construction immobilière qui repose elle-même sur des financements peu coûteux (du fait de l’intégration monétaire, les taux d’intérêt ont convergé), mais au prix d’un accroissement important du déficit commercial. Cela s’explique à travers l’égalité comptable (X – M) = (S – I) + (T – G) qui signifie qu’un déficit extérieur repose sur un déficit d’épargne nationale privée (cas de l’Espagne) ou publique (cas de la Grèce). Or, comme l’enseigne la théorie des zones monétaires optimales, en cas de choc asymétrique, la pérennité de la zone repose sur des transferts de ressources qui n’étaient pas prévus par les Traités. En effet, si la réflexion initiale proposée par R. Mundell en 1961 (“A Theory of Optimal Currency Area”) montre qu’un choc asymétrique, c’est-à-dire subi par un seul pays membre de l’union monétaire, peut être surmonté par la mobilité des travailleurs vers les autres pays membres, on doit surtout à P. Kenen (“The Theory of Optimum Currency Area: an Eclectic View”, 1963) d’avoir mis en évidence la nécessité de mettre en œuvre des transferts de ressources. Cela nécessite qu’existent un budget et des ressources fiscales rendant possibles ces transferts. Ainsi, les effets récessifs liés au choc peuvent être plus facilement surmontés, à l’image de l’action menée par le gouvernement fédéral aux États-Unis. Cependant, l’institution de la zone euro n’a pas été réalisée sur cette conception : il n’existe pas de budget de la zone euro. Il existe, en revanche, un budget de l’Union européenne voté pour sept ans, en équilibre, et plafonné à 1,1 % du revenu national brut quand celui des États-Unis représente environ 25 % du PIB. De ce fait, la solidarité entre économies nationales n’est pas permise (clause dite ******ebook converter DEMO Watermarks*******

de « no bail out ») et les budgets nationaux sont contraints par des règles budgétaires. Par nécessité, après la crise des subprimes, la Commission a permis que les déficits publics puissent excéder les 3 % du PIB, mais très rapidement elle a exigé un retour au respect de ces critères, et les règles ont été renforcées suite à la signature du Traité sur la stabilité, la coordination et la gouvernance (TSCG) entré en vigueur en 2012. Quant aux économies périphériques ayant le plus subi les conséquences de la crise financière en raison d’une défiance grandissante des opérateurs de marché sur la capacité des États à rembourser leur dette, elles ont été financièrement aidées, mais au prix d’une austérité budgétaire excessive visant à comprimer les coûts de production nationaux afin de regagner en compétitivité prix (on parle alors de « dévaluation interne » puisque la valeur externe de la monnaie ne peut pas être réduite). Ainsi, la convergence nominale n’a pas permis une convergence réelle soutenable et les déséquilibres macroéconomiques qui sont apparus n’ont pas pu être surmontés du fait d’une absence de solidarité. La gouvernance par les règles, en vigueur depuis le Traité de Maastricht, a eu des effets délétères puisqu’elle n’a pas permis de mener une politique de stabilisation macroéconomique. B. Une gouvernance conduisant à l’impossibilité de mener une politique conjoncturelle contra-cyclique La politique de stabilisation, aussi appelée politique conjoncturelle, vise à lisser le cycle économique autour de la croissance potentielle en mettant en œuvre des actions contra-cycliques, expansionnistes en période de ralentissement et récessives en période de surchauffe. Les instruments de la politique conjoncturelle sont la politique budgétaire et la politique monétaire. La gouvernance de la zone euro n’a pas suffisamment permis jusqu’à présent la mise en œuvre de politiques budgétaires contra-cycliques. Quant à la politique monétaire, elle a longtemps été menée dans un unique objectif de stabilité des prix, c’est-à-dire de contrôle de l’inflation à niveau proche mais inférieur à 2 % par an. Comme nous l’avons vu, il n’existe pas au sein de la zone euro de transferts budgétaires, et cela relève d’un choix politique puisqu’en réalité il n’existe pas de budget propre à la zone monétaire, mais un budget de l’Union européenne, limité à 1,1 % du revenu national de l’Union européenne. À titre de comparaison, le budget fédéral des États-Unis représente environ 25 % du ******ebook converter DEMO Watermarks*******

PIB américain. Par ailleurs, ce budget qui est voté tous les cinq ans ne peut pas être déficitaire puisqu’il n’existe aucune capacité de financement propre à la zone euro. Or, le principe de la stabilisation budgétaire conduit à un creusement du déficit en période de ralentissement économique. Cette fonction repose donc sur les budgets nationaux des pays membres de la zone euro contraints par le PSC. Ces contraintes ont pesé sur la capacité d’action des gouvernements et ont souvent empêché que des actions contra-cycliques soient mises en place. C’est ce que montre A. Bénassy-Quéré dans ses travaux sur les politiques budgétaires : entre 1995 et 2016 les politiques budgétaires discrétionnaires, c’est-à-dire insufflées par des choix gouvernementaux, ont été procycliques. H. Sterdyniak et C. Mathieu sont encore plus critiques puisqu’ils dénoncent le caractère théoriquement infondé des seuils imposés par ces règles. Ils leur apparaissent arbitraires puisque la théorie économique n’a pas établi un niveau précis dont les effets seraient délétères. Face aux dix-neuf politiques budgétaires nationales il existe également une politique monétaire de la zone euro décidée par la Banque centrale européenne. Trois questions se posent alors quant à la gouvernance de la zone : une politique monétaire unique est-elle efficace pour garantir la stabilité des prix si les prix divergent entre économie nationale ? La stabilité des prix doit-elle être le seul objectif de la politique monétaire ? Un policymix cohérent peut-il être mis en œuvre ? Tout d’abord, le mandat de la Banque centrale européenne consiste à garantir la stabilité des prix, c’est-àdire à maintenir un niveau d’inflation inférieur à 2 % mais proche de ce niveau. Jusqu’à la crise, la BCE a mené une politique monétaire conventionnelle à travers la détermination des taux directeurs. En période de surchauffe (accélération inflationniste) les taux sont relevés, en période de ralentissement de l’inflation ils sont réduits. Or, l’inflation ne converge pas nécessairement dans la zone, et si des écarts persistent, la politique monétaire risque de renforcer les divergences. Par exemple, au cours de la période précédant la crise des subprimes, le taux d’inflation est systématiquement plus élevé en Espagne qu’en Allemagne. En conséquence, la politique monétaire est trop restrictive pour l’Allemagne et pas assez pour l’Espagne. Dans un régime de change flexible ou fixe mais ajustable, la variation du taux de change doit permettre de compenser ces écarts d’inflation (théorie de la parité des pouvoirs d’achat), et dans ce cas conduire à une dépréciation (appréciation) de la monnaie ******ebook converter DEMO Watermarks*******

espagnole (allemande) pour compenser l’accroissement des prix en Espagne, ce qui est impossible avec une monnaie unique. Nous savons que la divergence des coûts est un élément important qui est à l’origine des déséquilibres externes qui sont apparus en zone euro. Ensuite, la stabilité des prix comme seul objectif de politique monétaire semble poser un problème de cohérence du policy-mix. En période de ralentissement, les pouvoirs publics nationaux peuvent légitimement chercher à relancer l’activité économique, mais cette relance peut être entravée par une politique monétaire non accommodante. Cet écueil est moins présent dans les décisions de politiques monétaires de la Fed qui reposent sur deux éléments : l’évolution des prix et l’évolution de l’activité économique. Selon la règle de Taylor, c’est l’écart entre inflation anticipée et inflation et l’écart entre activité et activité potentielle qui guident la fixation du Fed fund, le taux directeur. Ainsi, la gouvernance de la zone euro en termes de politique économique conjoncturelle n’est pas optimale puisqu’elle ne permet pas d’atteindre correctement les objectifs de stabilisation de l’activité économique. Cela est aussi dû au fait que la zone euro n’est pas vraiment une zone monétaire optimale. II. Des changements institutionnels post-crise insuffisants À la suite de la crise de 2009-2010, plusieurs réformes ont été entreprises par les États membres. Cependant, au niveau monétaire, si l’action de la BCE a été cruciale pour stopper la spéculation, les avancées en termes d’union bancaire et d’unification des marchés financiers sont insuffisantes (A). De même, il semble bien que la gouvernance budgétaire reste aujourd’hui encore moralisatrice, les déficits budgétaires sont réprouvés et la notion de mutualisation est rejetée par une grande partie des États membres (B). A. De timides avancées au niveau monétaire Suite à la crise des subprimes, les systèmes bancaires nationaux ont été mis en difficulté : une crise de confiance a conduit à un blocage des refinancements dans les systèmes interbancaires (les agents financiers ne savaient pas quelle était la qualité des actifs au bilan des emprunteurs). Pour éviter qu’ils ne s’effondrent, entraînant avec eux des pans entiers de l’économie réelle, les États sont massivement intervenus en injectant des fonds dans leurs banques. Il en est résulté un accroissement très important des déficits et dettes publiques soulignant le lien très fort entre dette publique et ******ebook converter DEMO Watermarks*******

système bancaire. Lorsque les opérateurs des marchés financiers ont commencé à douter de la capacité de certains États d’honorer leur dette, un cercle vicieux s’est mis en place. Une banque possède en effet à son actif des titres de dette publique. Or, lorsque les taux d’intérêt sur ces titres s’accroissent, leur valeur de marché se réduit et par là même la valeur de l’actif de la banque. Si le passif est inchangé, la banque est en difficulté. Pour lui venir en aide, l’État doit s’endetter, ce qui risque de conforter les agents financiers dans leurs doutes et de renchérir de nouveau le coût de l’endettement. Dette publique et crise bancaire s’autoentretiennent. Pour éviter cet écueil, il convient de mettre en place une union bancaire qui permette en théorie de gérer les crises sans dégrader les dettes publiques. En Europe, elle existe depuis 2014, mais elle est loin d’être aboutie et beaucoup la considèrent comme insuffisante. En théorie, une union bancaire repose sur trois piliers : une surveillance unique, une résolution unique et une garantie des dépôts. En zone euro, seuls les deux premiers piliers sont institués. Le Mécanisme de supervision unique est adossé à la BCE et se charge de surveiller la santé financière des 130 banques considérées comme systémiques (établissements dont on considère qu’au vu de leur taille, une défaillance pourrait entraîner l’ensemble du système bancaire et financier), notamment en procédant régulièrement à des stress tests visant à évaluer leur capacité à résister à un choc économique. Ainsi, les derniers qui ont été menés ont permis à l’Autorité bancaire européenne de conclure que ces banques étaient résistantes. Le mécanisme de résolution unique vise à faciliter la gestion d’une banque défaillante (restructuration des dettes, faillite) sans avoir à impliquer les finances publiques et donc les contribuables. Pour ce faire, un fonds de résolution unique doit être abondé par les banques à hauteur de 55 milliards d’euros d’ici 2025. Mais d’une part, les modalités de constitution de ce fonds ne sont pas encore établies, et d’autre part, son niveau semble faible au regard de la taille du bilan des banques les plus grosses (à titre d’exemple, celui de BNP-Paris avoisine les 2 000 milliards d’euros, quasiment le PIB français). En revanche, les États membres n’ont pas réussi à mettre en place une garantie des dépôts unique. S’ils se sont accordés sur une garantie à hauteur de 100 000 euros (ce qui signifie qu’en cas de faillite d’une banque les déposants sont indemnisés à hauteur de leurs dépôts jusqu’à cette limite), chaque État membre est responsable de cette garantie. Cela illustre la défiance qui reste forte entre les États membres. Les pays du Nord de la zone craignent en effet de devoir ******ebook converter DEMO Watermarks*******

prendre en charge la garantie des dépôts des pays du Sud considérés comme peu rigoureux dans la gestion de leurs finances publiques. Il est électoralement impossible pour leurs dirigeants politiques de laisser un doute quant à l’usage des ressources fiscales nationales qui seraient nécessairement sollicitées puisqu’il n’existe pas de ressources fiscales propres à la zone euro. Par ailleurs, la généralisation des politiques monétaires non conventionnelles (dites de Quantitative Easing, consistant à fournir des liquidités banque centrale aux agents financiers dans l’objectif de dynamiser le financement de l’activité économique) interpelle de nombreux économistes quant à la question de la stabilité financière. En effet, ces liquidités peuvent alimenter une activité financière importante propice aux bulles spéculatives (sur l’immobilier, sur les actifs financiers, etc.). En conséquence, la question de permettre à la BCE de garantir la stabilité du prix des actifs se pose, comme le soulignent P. Artus et M.-P. Virard dans La folie des banques centrales (2016). Pour l’heure, l’accroissement du bilan de la BCE n’a pas eu d’effet inflationniste sur les prix à la consommation (ce qui est conforme à son mandat). En revanche, des signes de bulle spéculative apparaissent sur l’immobilier ou sur les actions. La BCE pourrait avoir à jouer un rôle pour stabiliser également l’évolution du prix des actifs à travers une politique macroprudentielle repensée. Ainsi, il semble que la gouvernance monétaire de la zone euro ait connu quelques avancées, mais celles-ci sont manifestement insuffisantes. En revanche, les réformes proposées dans la gouvernance budgétaire ne semblent pas suffisantes. B. Des réformes toujours attendues au niveau budgétaire Nous avons vu que l’union monétaire s’était constituée sur la base de règles budgétaires contraignant les budgets nationaux, et que cela pouvait expliquer en partie les difficultés économiques de la zone euro. Les pays membres ont pourtant jugé nécessaire de renforcer ce contrôle budgétaire. À partir de 2012, le Traité sur la stabilité, la coordination et la gouvernance (TSCG) renforce le contrôle budgétaire en imposant que le déficit structurel, c’est-àdire en dehors des effets liés à la conjoncture économique qui, lorsqu’elle ralentit dégrade les comptes publics, n’excède pas 0,5 % du PIB (« règle d’or »). Cela signifie que sur le cycle économique un État membre de la zone euro ne peut pas être en déficit. Par ailleurs, des contrôles supplémentaires ont été décidés à travers l’examen des projets de budget dans le cadre du ******ebook converter DEMO Watermarks*******

Semestre européen, et la mise en œuvre des sanctions liées à la procédure de déficit excessif a été modifiée en vue de faciliter le déclenchement de la dite procédure. C’est ce qui menace l’Italie par exemple à la fin de l’année 2018 en raison d’un endettement public considéré comme trop élevé. Il apparaît ainsi que la gouvernance budgétaire de la zone euro, par les règles, auxquelles restent très attachés les pays membres du nord de l’Europe comme l’Allemagne ou les Pays-Bas, ait empêché que des mesures budgétaires contra-cycliques puissent être mises en place, exception faite de la période post-crise des subprimes. Dans l’esprit de la gouvernance budgétaire, les États qui ne respectent pas les règles sont des fautifs, et en tant que fautifs doivent être sanctionnés. C’est le sens même de la procédure de déficit excessif ou des conditions imposées aux gouvernements qui souhaiteraient faire appel au Mécanisme européen de stabilité (MES) en cas de difficultés au niveau des finances publiques. En effet, pour pouvoir bénéficier de prêts, les États de la zone doivent accepter des mesures de restructuration comparables aux plans d’ajustement structurels imposés aux pays en développement par le FMI et la Banque mondiale au cours des années 1980 et 1990, avec des effets délétères sur l’activité économique et le capital humain. L’Espagne, le Portugal ou la Grèce ont dû ainsi réduire les niveaux de rémunération et/ou de pensions retraites pour bénéficier des plans d’aide. Pourtant, d’autres modalités de gouvernance budgétaire sont possibles. L’idée d’un budget de la zone euro, tout comme celle d’une mutualisation au moins partielle des dettes sont proposées par plusieurs économistes afin d’organiser une véritable politique de stabilisation mais également pour faire de l’euro une monnaie complète, c’est-à-dire, pour M. Aglietta, un rapport social reposant sur des biens collectifs financés par une dette publique émise dans cette monnaie. Parmi les défenseurs d’un budget européen, nous retrouvons A. BénassyQuéré ou J. Pisani-Ferry qui proposent de mettre au centre de la stabilisation budgétaire les stabilisateurs automatiques, c’est-à-dire les variations des dépenses et des recettes publiques générées par la conjoncture économique. En effet, lorsque l’activité accélère, les recettes fiscales et sociales augmentent automatiquement (plus d’actifs travaillent, plus d’entreprises réalisent des profits et paient des cotisations et des impôts) et inversement lorsque l’activité ralentit. Organiser une stabilisation automatique au niveau de la zone euro permettrait alors des transferts de ressource vers les espaces subissant un ralentissement plus important. Les stabilisateurs automatiques ******ebook converter DEMO Watermarks*******

les plus puissants étant l’assurance chômage et l’impôt sur les sociétés, ces auteurs proposent d’avancer vers une organisation commune de ces dispositifs. Un économiste comme M. Aglietta va plus loin en proposant un budget de la zone euro à hauteur de 2-3 % du PIB alimenté par des ressources propres. Cela nécessiterait alors de créer une Agence budgétaire européenne avec un ministre des Finances et un Trésor européen qui seraient légitimés par une conférence interparlementaire de la zone euro. À travers ce budget, il s’agirait de financer des biens collectifs au niveau européen. Il s’agirait, dans un cas comme dans l’autre, d’un changement profond dans la gouvernance de la zone euro puisqu’il conduirait à mutualiser des moyens financiers plus importants que ce qui existe aujourd’hui, et dans un cadre plus resserré, l’actuel budget concernant l’Union européenne et pas seulement la zone euro. Afin de redonner une cohérence à l’action budgétaire, Aglietta propose également de surveiller le déficit consolidé plutôt que le déficit pays par pays. En effet, le seuil de déficit de 3 % du PIB de la zone euro n’est pas atteint et cela laisse une marge de manœuvre collective pour mener une politique budgétaire de relance. Cependant, cette idée semble illusoire au vu des règles imposées par le nord de l’Europe. Conclusion En définitive, il semble que les difficultés propres à la gouvernance de la zone euro n’aient pas vraiment été surmontées. La crise de la zone euro qui débute en 2009 met au jour les défauts de conception de l’union monétaire qui repose sur une gouvernance par les règles ne permettant pas d’organiser une solidarité budgétaire en cas de choc macroéconomique. Des avancées existent cependant, en particulier sur l’union bancaire, mais elles apparaissent bien insuffisantes au regard des besoins de transferts entre économies nationales nécessaires au maintien de la monnaie unique. Ces transferts pourraient d’ailleurs faciliter l’action stabilisatrice des pouvoirs publics en zone euro. Cependant, les règles budgétaires à l’œuvre l’empêchent, et l’action monétaire de la BCE, bien que volontariste, apparaît insuffisante. La solution économique est connue, une gouvernance davantage discrétionnaire reposant sur la coordination des politiques budgétaires et/ou la création d’un budget de la zone euro, mais l’action politique semble paralysée par les enjeux nationaux. Au-delà de la gouvernance de la zone euro, ces éléments de blocage entravent également l’accomplissement de l’euro comme monnaie internationale. En effet, comme le souligne M. Aglietta, l’absence ******ebook converter DEMO Watermarks*******

de Trésor et de budget propre à la zone euro empêche l’existence de bons du Trésor européens. Or, c’est l’existence de ces titres publics qui pourrait faire de la monnaie unique une monnaie complète en raison de son adossement à une souveraineté européenne. Si le dollar reste aujourd’hui la liquidité mondiale ultime, c’est parce que le marché des bons du Trésor américain demeure le plus profond et le plus liquide au niveau mondial.

******ebook converter DEMO Watermarks*******

Index A Acemoglu D., 42 Aghion P., 26, 145, 147 Aglietta M., 47, 175, 223, 227, 229 Akerlof G., 126 Alchian A., 90 Alvarado F., 46 Artus P., 47, 187, 189, 268 Atkinson A., 45 B Bachelard G., 5, 50 Bairoch P., 8, 185 Barone E., 118 Bénassy-Quéré A., 228, 270 Berger S., 41, 179, 180, 221 Berle A., 87 Bernanke B., 269 Bhagwati J., 188 Boisguilbert de P., 134 Bourguignon F., 45, 189 C Cahuc P., 119 Cancel L., 46 Cette G., 26 Chamberlin E., 136 Chandler A., 88 ******ebook converter DEMO Watermarks*******

Coase R., 6, 84, 117, 122, 124, 125, 128, 129 Cohen É., 26 Combe E., 140, 146 Crifo P., 175 D Deaton A., 46 Delpla J., 143 Demsetz H., 90 E Ehrlich P. R., 172 Eichengreen B., 227 F Fama E., 226 Fisher I., 5, 8, 264 Fitoussi J.-P., 266 Friedman M., 5, 26, 226, 227, 261, 264 G Gaffard J.-L., 38, 47, 147 Galbraith J. K., 3, 88 Giraud P.-N., 188 Gordon R., 172, 173, 174 Gournay de V., 134 Granger G.-G., 5 H Hansen A., 170, 174 Harberger A. C., 135 Hayek F., 120, 121, 144, 145 Heckscher E., 182 ******ebook converter DEMO Watermarks*******

Helpmann E., 182 Hicks J. R., 38, 170, 263 Howitt P., 145, 147 Hume D., 222 J Jean S., 186 Jensen M., 92 Jouvet P.-A., 175 K Keynes J. M., 19, 25, 26, 47, 51, 169, 170, 224, 229, 263 Kindleberger Ch., 8, 47, 223 Kopits G., 268 Krugman P., 54, 122, 174, 178 Kumhof M., 47 Kuznets S., 26 Kydland F., 261, 265 L Landry A., 167 Lange O., 118 Laurent É., 176 Le Cacheux J., 176 Lepage H., 145 Leroy-Beaulieu P., 270 Lévêque F., 148 List F., 51 M Maddison A., 8 Magdoff H., 171 Malinvaud E., 52 Malthus Th., 45, 167, 168, 169, 176 ******ebook converter DEMO Watermarks*******

Marshall A., 8 Marx K., 7, 45, 116, 169 Mathieu C., 270 McKinnon R., 218 Meadows D., 172 Means G., 87 Meckling W., 92 Mill J. S., 187 Minsky H., 3, 8, 47 Mises von L., 118, 120 Mistral J., 219 Mundell R., 20, 221 Musgrave R., 43, 261 N Nash J., 139 Nordhaus W., 265 North D., 136 O Ohlin B., 182 Ostrom E., 127, 128, 129 P Pareto V., 118, 135 Perroux F., 166, 180 Perthuis de Ch., 175 Phillips A. W., 263 Piketty Th., 8, 46 Pisani-Ferry J., 228, 260, 265 Prescott E., 261, 265 Q Quesnay F., 134 ******ebook converter DEMO Watermarks*******

R Ragot X., 270 Rajan R., 3, 38, 47 Rancière R., 47 Rébérioux A., 87 Ricardo D., 19, 20, 51, 52, 135, 167, 168, 176, 177, 181 Robinson J., 42 Rodrik D., 178, 189 Romer P., 182 Roubini N., 3 Rueff J., 51 S Saez E., 46 Samuelson P., 182, 263 Saraceno F., 38 Say J.-B., 45, 128 Schumpeter J. A., 28, 136, 171 Shleifer A., 89 Simon H., 84 Sismondi de J., 45 Smith A., 51, 116, 119, 128, 134, 142, 167, 177, 181 Solow R., 263 Sterdyniak H., 270 Stiglitz J., 8 Summers L., 174 Svensson L., 267 Sweezy P., 171 Symanski S., 268 T Taylor J., 267 Triffin R., 225 Turgot A. R., 116, 119, 135 ******ebook converter DEMO Watermarks*******

V Vishny R., 89 Volcker P., 19 W Walras L., 119 Weber M., 25 White H. D., 224 Wicksell K., 3, 174 Williamson O., 86, 124, 125 Wyplosz C., 143 Y Yellen J., 126 Z Zucman G., 8, 46

******ebook converter DEMO Watermarks*******

Des mêmes auteurs Mickaël Joubert et Lionel Lorrain, Économie de la mondialisation, 2015. Alain Beitone et Christophe Rodrigues, Économie monétaire, 2017. Alain Beitone (dir.), Dictionnaire de science économique, 2019 (6e édition). Alain Beitone (dir.), Économie, sociologie et histoire du monde contemporain, 2016 (2e édition).

******ebook converter DEMO Watermarks*******