Les marchés : le modèle de base, les défaillances et l'impact des nouvelles technologies

Modifié par Julien Lenoir le 27 septembre 2018

Par Philippe Frouté : Maître de conférence des Universités
Dernière mise à jour : Novembre 2016

En 1776, dans les Recherches sur la nature et les causes de la richesse des nations, Adam Smith présente comment les ménages et les entreprises qui se rencontrent sur des marchés agissent comme s’ils étaient guidés par une main invisible qui les conduit à une situation désirable (voir Fiche 1). Cette représentation a conduit à définir un modèle de fonctionnement des marchés basé sur un fonctionnement concurrentiel (section 1). Bien que la main invisible conduise habituellement les marchés à allouer les ressources de manière efficace, cela n’est pas toujours le cas. Il existe des situations où le marché, livré à lui-même, ne parvient pas à produire une allocation des ressources efficace et nécessite la correction des défaillances de marché (section 2). Les nouvelles technologies ont donné lieu à de nouvelles théories (nouvelle économie) qui, non seulement étendent la zone d’influence des mécanismes de marché à de nouvelles activités, mais modifient également les rapports de concurrence dans les activités traditionnelles (section 3).

1. Le modèle d’économie de marché

1.1. Les structures de marché

Un marché est un lieu, physique ou dématérialisé, où se rencontrent une ou des offres et une ou des demandes. Un marché peut présenter plusieurs types de structures :

Si un offreur fait face à un grand nombre de demandeurs, on parlera de monopole. Inversement, un demandeur faisant face à plusieurs offreurs sera en situation de monopsone. Deux offreurs faisant face à un grand nombre de demandeurs seront en situation de duopole. Deux demandeurs faisant face à plusieurs offreurs formeront un duopsone. Un petit nombre d’offreurs constituent un oligopole. Un petit nombre de demandeurs, un oligopsone. Un grand nombre de demandeurs face à un grand nombre d’offreurs constituent une situation concurrentielle. C’est cette dernière situation qui constitue le modèle de base de l’analyse économique.

1.2. La concurrence pure et parfaite

La structure de marché va influencer les comportements des agents économiques présents sur le marché. En économie industrielle, on parle du paradigme SCP (structure, comportement, performance). La structure de marché influence les comportements qui influencent à leur tour les performances de marché. Dans le cas d’un marché concurrentiel, les agents sont dits preneurs de prix. Ils ne peuvent pas influencer l’équilibre du marché. Adam Smith considère que, dans ce cadre, la poursuite des intérêts privés conduit à l’équilibre. D’autres auteurs rejoignent Adam Smith dans ses conclusions mais par des cheminements différents. Par exemple, Léon Walras décrit comment un processus de tâtonnement permettrait d’atteindre cet équilibre. Kenneth Arrow et Gérard Debreu ont présenté les conditions d’existence d’au moins un équilibre intertemporel sur l’ensemble des marchés, sans que ce dernier ne soit forcément stable ni unique (voir Fiche 1). Depuis les Éléments d’économie pure de Léon Walras, les conditions d’existence de l’équilibre de marché sont au cœur de la théorie de l’équilibre général et ont été rassemblées en deux catégories : les conditions pures et les conditions parfaites.

1.3. Les hypothèses de la concurrence pure

Trois conditions définissent la concurrence pure : atomicité, homogénéité et fluidité.

  • L’atomicité repose sur l’existence d’un grand nombre d’acheteurs et de vendeurs qui n’auront pas un poids suffisant sur le marché pour pouvoir influencer les prix.
  • L’homogénéité s’applique aux produits échangés qui ont des caractéristiques semblables et sont interchangeables et donc substituables. Il n’y a pas de différenciation sur un marché.
  • La fluidité indique que les conditions d’entrée et de sortie sur un marché sont libres pour les producteurs. Il n’y a pas de barrières à l’entrée (entrave tarifaire liée à une politique commerciale protectionniste, numerus clausus, etc.) ni à la sortie (coûts irrécouvrables, absence de coûts fixes importants, etc.).

1.4. Les hypothèses de la concurrence parfaite

Deux conditions définissent la concurrence parfaite : la libre circulation des facteurs et la transparence de l’information

  • La libre circulation des facteurs implique que les facteurs de production (capital et travail) soient parfaitement mobiles et puissent se déplacer d'une industrie à l'autre. La main-d'œuvre et les capitaux se dirigent spontanément vers les marchés où la demande est supérieure à l'offre ; il n'y a pas de délai ni de coût dans leur reconversion.
  • La transparence de l’information indique que tous les participants à un marché ont une connaissance complète de tous les facteurs significatifs du marché. L'information parfaite de tous les agents sur tous les autres et sur le bien échangé suppose une information gratuite et immédiate.

Sous ces hypothèses, lorsque les producteurs maximisent leur profit en choisissant le prix le plus élevé possible qui rencontrera une demande et lorsque les consommateurs maximisent leur utilité en choisissant le prix le plus faible possible correspondant à leur contrainte budgétaire et à leurs préférences marginales, il existe ainsi un système de prix qui optimise l’allocation des ressources des producteurs et des consommateurs.

La théorie de l’équilibre général aboutit en outre à la définition de deux théorèmes fondamentaux de l’économie du bien-être.

1.5. Les deux théorèmes fondamentaux du bien-être

Le premier théorème de l’économie du bien-être stipule que dans un cadre concurrentiel, s’il existe un système de marché complet alors tout équilibre est un équilibre de Pareto (voir Fiche 1). On ne peut pas améliorer sa situation sans détériorer celle d’au moins un autre agent.

Le second théorème indique que le marché permet d’atteindre n’importe quelle allocation efficace. Ainsi, même si la distribution des richesses est initialement inégalitaire, les individus peuvent se tourner vers le marché pour redistribuer les richesses et atteindre la meilleure situation possible.

Toutefois, l’ensemble de ces hypothèses est rarement constaté en même temps. Si une hypothèse fait défaut, le marché ne sera plus efficace mais défaillant.

2. Les défaillances de marché

Le jeu d’hypothèses nécessaires pour garantir l’existence d’un équilibre de marché est très contraignant. De nombreux travaux ont analysé les conséquences de la remise en cause de ces hypothèses.

2.1. Les asymétries d’information et la théorie des contrats.

Parmi les hypothèses centrales de la théorie, la transparence de l’information joue un rôle essentiel. L’étude des conséquences de la remise en cause de cette propriété est à l’origine d’un champ de recherche très important de l’analyse économique avec la théorie des incitations ou la théorie des contrats. Le prix Nobel 2016 a été remis conjointement à Oliver Hart et Bengt Holsmtröm pour leurs travaux dans ce champ ; on peut aussi citer Joseph Stiglitz lauréat du prix Nobel en 2001. Lorsque l’information n’est pas transparente, plusieurs situations peuvent se produire :

  • La première relève de l’existence d’une asymétrie d’information au niveau de la connaissance des caractéristiques du marché (qualité des produits, véritables coûts de production etc.). Dans un tel contexte, la partie informée peut être incitée à tirer profit de l’information dont elle dispose. De nombreuses études se sont penchées sur les conséquences de l’adoption de ces comportements opportunistes. George Akerlof en 1972 a étudié le marché des voitures d’occasion « the market for lemons ». Sur un tel marché, le prix ne peut plus jouer son rôle de résumé parfait de la qualité des produits. Les vendeurs vont avoir intérêt à surestimer la qualité de leurs produits afin de les vendre au prix le plus élevé possible. Les acheteurs ne pourront alors pas avoir confiance dans les déclarations des vendeurs, ni déduire qu’un prix élevé soit le garant d’une bonne qualité. Dans de telles conditions, le marché peut disparaître en l’absence d’institutions permettant de réduire les asymétries d’information (certifications etc.). Symétriquement, des institutions ne pouvant pas distinguer les risques présentés par les clients pourront réduire le nombre de biens proposés. C’est une explication possible aux comportements de rationnement du crédit pratiqués par des établissements bancaires. Ces situations sont également au cœur du marché de l’assurance. Les agents choisissant les niveaux de couvertures les plus élevés présenteront les risques les plus importants. On parle d’anti-sélection.
  • La seconde situation liée à l’absence de transparence de l’information porte sur les comportements observés après la signature d’un contrat par exemple. Pour décrocher un contrat de travail, un salarié potentiel peut être incité à cacher des informations (impossibilité d’arriver à l’heure sur le lieu de travail etc.) pour décrocher le contrat et modifier son comportement une fois le contrat signé. On parle d’aléa moral.

De nombreux travaux ont cherché à pallier cette catégorie de défaillances de marché. La théorie des contrats cherche ainsi à déterminer comment établir des contrats permettant de révéler l’information pour éviter les phénomènes d’anti-sélection. De la même façon, les modèles principal-agent cherchent à étudier comment un principal (l’employeur par exemple) peut acquérir suffisamment d’information pour éviter l’aléa moral. Par exemple, les périodes d’essai associées au contrat de travail sont un moyen d’acquérir de l’information sur le comportement des agents.

D’autres défaillances de marché ont également été étudiées. Dans certains cas, l’usage d’un bien par un autre consommateur n’interdit pas sa consommation par d’autres personnes. On parle de bien public. Les caractéristiques de ces biens peuvent entraîner des usages sous-optimaux.

2.2. Les biens publics

En effet, le modèle de concurrence pure et parfaite décrit l’échange de biens privés, c’est-à-dire des biens qui sont rivaux (la consommation par un agent réduit les possibilités de consommation des autres agents), et exclusifs (il faut payer pour les consommer). Si aucune de ces deux propriétés n’est vérifiée, on parlera, à la suite de Paul Samuelson, de biens publics purs ; par exemple, la défense nationale ou l’air que nous respirons. Il existe des cas intermédiaires. Des recherches protégées par un brevet sont des biens exclusifs, il faut payer une redevance pour y avoir accès mais non rivaux car plusieurs acheteurs peuvent acquitter ces droits. Un emplacement de parking gratuit est non exclusif mais rival (on ne peut pas garer deux véhicules sur la même place en même temps).

Les problèmes posés par les biens publics concernent principalement leur financement. Notons que les biens publics peuvent être fournis par le secteur public ou le secteur privé. Le problème est celui du passager clandestin. Un passager clandestin a intérêt à annoncer une demande de bien public inférieure à ses véritables préférences car le niveau de bien public proposé est indépendant de son annonce. En effet, comme les biens sont non rivaux, même sans payer, un individu pourra bénéficier du bien.

L’utilité du consommateur peut ne pas dépendre uniquement de sa propre consommation ni le profit du producteur de son seul plan de production. Les transactions entre les différents agents économiques peuvent générer et être influencées par des effets externes aussi appelés externalités.

2.3. Les externalités

On dit qu’il y a un effet externe, ou une externalité, quand les actions d’un agent influencent directement les possibilités de choix d’un autre agent sans que cette influence ne soit incluse dans leur critère de décision. L’exemple le plus célèbre d’externalités est celui de James Meade. James Meade décrit les interactions entre un apiculteur et un propriétaire d’un verger. Les abeilles de l’apiculteur contribuent à la productivité du verger tandis que les arbres du verger contribuent à la production de miel. Il s’agit ici d’externalités de production croisées positives. Le problème posé par les externalités est que les agents ne prennent pas en compte les effets externes dans leur prise de décision. L’apiculteur optimise sa production de miel sans prendre en considération l’effet positif exercé par les abeilles sur la production de son voisin. De la même façon, ce dernier cherche à optimiser sa production de pommes sans prendre en compte l’impact bénéfique des fleurs de pommier sur la production de miel. Dans le cas des externalités positives il y aura donc une sous-production par rapport à la situation socialement optimale. Symétriquement, dans le cas des externalités négatives, il y aura une surproduction. Les externalités peuvent avoir pour origine la production ou la consommation, être positives ou négatives.

De nombreux auteurs ont cherché à pallier l’existence des externalités. Parmi ceux-ci on trouve Arthur Cecil Pigou qui propose d’internaliser les externalités. La correction pigouvienne consiste à taxer en cas d’externalités négatives et à subventionner en cas d’externalités positives. Autrement dit, il s’agit de réintégrer l’externalité dans le système des prix afin que la décision des agents tienne compte de l’externalité. Cette correction suppose néanmoins d’être en mesure d’estimer le niveau de l’externalité ce qui est très difficile en pratique.

Le marché peut également se trouver en situation de défaillance si sa structure n’est pas concurrentielle.

2.4. Le pouvoir de monopole

L’équilibre de marché en situation de concurrence pure et parfaite suppose implicitement que les rendements de la production soient constants. Autrement dit, une augmentation proportionnelle des facteurs de production générera une augmentation proportionnelle des biens produits. S’il est nécessaire d’utiliser deux unités de capital pour produire une unité d’un bien, il faudra quatre unités de capital pour produire deux unités du même bien. Or, les rendements de la production peuvent être croissants en présence de coûts fixes par exemple. Dans ce cas, la hausse de la production sera plus que proportionnelle à la hausse du nombre de facteurs de production. Par exemple, le doublement des facteurs de production engendrera une hausse supérieure au doublement des quantités produites. Le niveau des rendements croissants peut justifier la réduction du nombre d’entreprises présentes sur un marché. En effet, plus une entreprise produit, plus l’efficacité productive liée aux rendements croissants sera importante. On parle alors de monopole naturel. Les conditions techniques peuvent justifier la présence d’une entreprise unique sur un marché ce qui contredit l’hypothèse d’atomicité du modèle concurrentiel.

Toutefois, cette situation peut poser un problème car elle octroie un pouvoir de marché à l’entreprise qui peut fixer les quantités et les prix en fonction des revenus des consommateurs. Cette capacité permet au monopole d’accaparer le surplus des consommateurs. En effet, en situation de monopole, ce dernier a intérêt à diminuer les quantités produites et à augmenter les prix. Les consommateurs ont donc moins de possibilités de consommation et paient les biens plus chers.

Certaines entreprises peuvent se voir octroyer un statut de monopole légal en contrepartie de l’obligation d’assurer une ou des missions de service public. C’est le cas de La Poste qui s’est vu conférée quatre missions de service public : le service universel postal, la contribution à l’aménagement du territoire, le transport et distribution de la presse et l’accessibilité bancaire. Le statut de monopole vient ainsi en contrepartie de pertes potentielles. Néanmoins, les politiques tarifaires vont être encadrées notamment par les autorités de la concurrence.

A la suite de Bernard Salanié, on peut également considérer que les fluctuations économiques à l’origine du chômage et/ou de l’inflation ont pour origine des situations de défaillances de marché (voir Fiche 4).

2.5. La correction des défaillances de marché

L’ensemble de ces défaillances a donné lieu à de nombreux débats sur les solutions pouvant être apportées pour pallier ces défaillances. Le débat principal concerne le meilleur acteur susceptible de corriger les défaillances. On oppose souvent l’intervention publique à l’intervention privée. Un des arguments en faveur de l’intervention publique est d’opposer un modèle décentralisé fondé sur l’intervention privée qui décrirait le modèle de marché à un modèle centralisé d’intervention opérée par la puissance publique qui permettrait, en présence de défaillances de marché, de pallier ces dernières.

Des théories ont alors porté le débat sur la qualité de la correction en questionnant les hypothèses principales des modèles interventionnistes comme la bienveillance du planificateur. Des théories élaborées notamment par l’école du Public Choice, aussi connue sous le nom d’école de Virginie (James Buchanan, Duncan Black ou Gordon Tullock...), ou l’école de Chicago avec la théorie de la capture du régulateur de George Stigler, mais également l’analyse de la bureaucratie de William Niskanen, ou celle de la théorie des cycles électoraux de William Nordhaus, montrent que la correction peut elle-même être défaillante et aboutir à des situations sous-optimales au sens de Pareto.

D’autres auteurs mettent en avant le fait que la correction ne doit pas forcément être le fait du secteur public. A la suite des travaux de Ronald Coase sur la firme, des auteurs néo-institutionnalistes comme Oliver Williamson, ont montré qu’une entreprise pouvait être considérée comme un mode centralisé d’organisation de la production. Le choix du mode d’organisation optimal, le plus à même d’organiser efficacement la production, dépend des caractéristiques des transactions en tenant compte des défaillances de marché en présence d’agents opportunistes cherchant à bénéficier des asymétries d’information.

Dans ce contexte, depuis les premières recherches sur la mise en réseau d’ordinateurs et les précurseurs d’internet avec ARPANET dans les années 60, de nombreux chercheurs s’interrogent sur la contribution des nouvelles technologies de l’information et de la communication (NTIC) au renforcement des mécanismes de marché et ont donné lieu à de nouvelles théories (la nouvelle économie).

3. L’impact des nouvelles technologies

Les NTIC regroupent l’ensemble des outils utilisés pour traiter, modifier et échanger de l’information. Les technologies utilisées regroupent la téléphonie mobile, le micro-ordinateur, les logiciels, Internet, etc. La particularité de ces technologies est de se situer à la convergence de l’informatique et des télécommunications. Elles ont donné lieu à de nouvelles théories (nouvelle économie) qui non seulement étendent la zone d’influence des mécanismes de marché à de nouvelles activités mais modifient également les rapports de concurrence dans les activités traditionnelles. Toutefois, si les NTIC peuvent par certains aspects rapprocher les activités économiques du modèle de marché, elles ne sont pas exemptes de défaillances.

3.1. Une proximité renforcée avec le modèle de marché

Internet et le world wide web permettent de mettre en réseau des réseaux. L’accès à l’information et sa transmission s’en trouvent donc renforcés. De ce point de vue, les NTIC renforcent la transparence de l’information et permettent de limiter les problèmes liés aux asymétries d’information.

Les NTIC permettent également de renforcer la liberté de circulation des capitaux immatériels. Des échanges quasiment instantanés peuvent s’effectuer aux quatre coins de la planète.

En outre, dans les économies tertiarisées, les NTIC ont engendré le développement de nouvelles professions, notamment dans le secteur du e-commerce et elles ont limité les besoins en capitaux nécessaires à la création d’entreprise. Les coûts fixes sont réduits aussi bien à l’entrée qu’à la sortie de l’activité. En d’autres termes, le secteur des NTIC a permis l’essor de nouvelles activités respectant davantage la condition de fluidité de la concurrence pure.

En outre, la mise en commun des réseaux réduit le pouvoir de marché des vendeurs comme des acheteurs. Par exemple, les sites de location permettent de noter la qualité des prestations de services offertes. Récemment, la logique s’est trouvée inversée et des fournisseurs de service notent également les clients. Ce mode de fonctionnement décentralisé renforce l’atomicité des parties en réduisant les pouvoirs de marché.

Ainsi, un grand nombre d’aspects plaident en faveur d’un rapprochement entre le modèle de marché et les activités liées aux NTIC. Toutefois, les NTIC ne sont pas exemptes de défaillances.

3.2. Les défaillances de la nouvelle économie

L’exemple le plus flagrant de défaillances concerne l’éclatement de la bulle internet en 2000.

La bulle internet est liée à l’apparition massive de start-ups sur les marchés financiers à la fin des années 90. Les valeurs de ces sociétés ont été surévaluées par rapport aux valeurs réelles des sociétés car de nombreux investisseurs ont surfé sur la vague internet.

On a assisté à un phénomène de correction du marché à partir de mars 2000. Aux Etats-Unis plus de 200 entreprises ont fait faillite et les places financières mondiales ont connu de fortes baisses. Entre mars 2000 et mars 2003, en France, le Cac40 a baissé de 63% suite à l’éclatement de la bulle internet.

Au niveau des entreprises, les entreprises survivantes ont surtout été des géants, Google, Yahoo, Ebay, Amazon, à travers des mouvements de fusion-acquisitions. La conséquence de la mauvaise appréciation de la rentabilité économique par les marchés financiers a engendré un surinvestissement et l’apparition de groupes au pouvoir de marché renforcé.

En outre, l’utilisation des NTIC supposent l’acquisition d’un capital humain suffisant pour pouvoir tirer profit de ces technologies. Les nouvelles technologies de l’information et de la communication donnent plus d’importance à toutes les professions qui ont un fort contenu de savoir et d’information. Elles accompagnent le développement de l’économie de la connaissance qui s’accompagne symétriquement, de destructions d’emplois ou de redéfinitions des postes (transformation des activités dans le domaine du secrétariat par exemple). La dynamique en résultant s’inscrit dans le cadre de la destruction créatrice schumpétérienne. Selon la Commission européenne dans les années 2000, les TIC ont généré plus de 50% de la croissance de la productivité européenne et contribué directement pour près de 5,9% au PIB de l’Union européenne. Aussi, ne pas disposer d’une connexion ou d’une formation adéquate pour pouvoir utiliser les NTIC renforce les inégalités ce qui peut être considéré comme une autre forme de défaillance de marchés à travers l’impossibilité d’accéder aux opportunités liées au développement des nouvelles technologies.

Tags :
    
© 2023 CNFPT