Le Prix Nobel récompense à nouveau l’économie expérimentale, et sa faculté à remettre en cause les certitudes de la théorie économique.
Après Sargent et Sims en 2011, puis Duflo et Banerjee en 2019, un nouveau Prix Nobel récompense donc le versant empirique de la discipline économique. Angrist, Imbens et Card ont apporté des contributions innovantes au vieux problème de l’inférence causale. Comment identifier une causalité solide à partir de l’observation de plusieurs groupes de caractéristiques différentes, qui présentent des résultats économiques différents ? Sont-ce les caractéristiques qui influent sur les résultats ? Les résultats qui causent les caractéristiques ? Ou un troisième facteur qui influe sur les deux ? Selon les cas, l’implication en termes de politique économique n’est évidemment pas la même.
Duflo et Banerjee avaient employé la méthode forte, en important de la médecine des essais randomisés contrôlés. Pour identifier l’effet d’un traitement, les économistes mettent la main dans le cambouis en imposant de façon aléatoire à plusieurs groupes différents des situations différentes. Avec cette méthode, le traitement est complètement décorrélé des caractéristiques de chaque groupe. Si on observe des différences de résultat économique selon le traitement, cela reflète alors forcément une causalité allant du traitement au résultat.
Quand il s’agit d’évaluer l’efficacité du don de vermifuge dans des villages africains, cette méthode est praticable. Pour beaucoup d’autres cas, elle présente des difficultés logistiques et surtout éthiques. Admettons que l’on veuille évaluer l’efficacité des études. Il paraît difficile de soumettre les décisions d’éducation de centaines d’individus à un tirage aléatoire. Accepter de jouer la suite de sa vie à pile ou face n’est pas une attitude extrêmement répandue – et si l’on s’en remettait au volontariat, on n’attirerait probablement qu’un certain type d’individus : ceux qui ont peu à perdre et beaucoup à gagner…
Les lauréats de cette année ont innové en utilisant, ou en formalisant, des moyens alternatifs aux ERC pour identifier des causalités à partir de l’observation : l’ensemble des “quasi-expériences” ou “expériences naturelles”. Au lieu de créer de toutes pièces l’aléatoire et l’expérimental, on cherche à le reconnaître à même le réel. De nombreuses décisions économiques sont influencées par des événements aléatoires : des réformes, des décisions politiques, des tirages au sort, la date de naissance… En s’intéressant à ces événements aléatoires naturels, on peut indirectement identifier les conséquences de ces décisions.
Trouver ces événements aléatoires est déjà en soi une gageure et une prouesse intellectuelle. En effet, ceux-ci doivent remplir des conditions bien spécifiques pour que l’inférence soit valide. De la même manière, pour que l’expérience soit valide, il faut parvenir à définir un “groupe de contrôle”, n’ayant pas subi le même événement aléatoire, mais restant comparable au groupe qui subit l’expérience. La délimitation précise de toutes ces conditions a été la grande oeuvre d’Angrist et Imbens. Le champ des expériences naturelles était cependant déjà fertile avant ce travail de théorisation. David Card, l’aîné des lauréats, en a été l’un des pionniers.
David Card : les expériences naturelles à l’assaut des certitudes
Card est né en 1956 à Guelph au Canada. Il étudie d’abord à l’Université du Queen’s où il obtient une licence en économie en 1978, avant d’être reçu en thèse de sciences économiques à Princeton, thèse qu’il soutiendra en 1983. Card occupe enseigne ensuite successivement dans les universités de Chicago, Princeton, Columbian et Harvard. En plus de la recherche et de l’enseignement, Card est impliqué dans des grandes revues d’économie: de 1988 à 1992 il est codirecteur de la rédaction du Journal of Labor Economics et entre 1987 et 1997 il codirige la rédaction d’Econometrica.
Spécialisé en économie du travail, David Card a tenté de remettre en cause certains automatismes intellectuels de la théorie néoclassique de l’offre et de la demande de travail. Selon cette théorie, toute augmentation du salaire minimum se traduirait par une diminution de la demande de travail – c’est-à-dire que les employeurs renonceraient à offrir certains emplois du fait des régulations – et donc une diminution du taux d’emploi. A l’inverse, un flux d’immigrés se traduirait par une augmentation de l’offre de travail, et donc par une pression à la baisse sur le prix des salaires.
La différence des différences
Dans un papier de 1992 (1), Card étudie l’effet d’une réforme californienne de 1988, par laquelle le salaire minimum était augmenté de 27 %, sur le taux d’emploi. Cette réforme est vue comme un événement aléatoire, une quasi-expérience imposée de l’extérieur. Pour évaluer son impact, on ne peut se contenter de comparer le taux d’emploi californien avant et après la réforme : en effet, il serait alors impossible de différencier l’évolution naturelle, tendancielle, du taux d’emploi, de l’évolution causée par la réforme. Il faut donc trouver un “groupe de contrôle” pour compléter cette expérience naturelle : un ensemble d’Etats comparables à la Californie, qui n’ont pas subi la même réforme.
Pour identifier l’effet de la réforme, on calcule ensuite la “différence des différences” : la différence entre l’évolution du taux d’emploi en Californie (qualifiée de “groupe traité”) et l’évolution équivalente dans les Etats comparables. Pour que cette méthode soit valide, il faut supposer qu’en l’absence de réforme, l’évolution du taux d’emploi en Californie aurait été similaire à celle observée dans les autres Etats…
Ceci étant posé, Card parvient à un résultat contre-intuitif : le taux d’emploi en Californie a augmenté de 4% de plus que dans les Etats n’ayant pas subi la réforme. Les études suivantes ont nuancé ce résultat : on parvient à un effet nul, voire très légèrement négatif, d’une augmentation du salaire minimum sur le taux d’emploi. Cette découverte a offert du crédit à des modèles alternatifs du fonctionnement du marché du travail, dont notamment la théorie du monopsone.
Selon la théorie du monopsone, les employeurs, dans leur recherche de travailleurs, détiennent un pouvoir de marché significatif, ne serait-ce qu’à l’échelle d’un secteur particulier. Par conséquent, ils peuvent se permettre de payer les employés en-dessous de leur productivité marginale. L’augmentation du salaire minimum augmente le coût marginal du travail, mais peut être encaissée par les employeurs sans réduction du niveau de l’emploi, en raison de cette marge préexistante. Tant que le coût marginal reste en-dessous de la productivité marginale, les employeurs peuvent se permettre de maintenir la quantité demandée.
David Card s’est aussi intéressé aux effets de l’immigration et de l’investissement dans l’éducation. On lui doit par exemple l’exploitation du fameux “exode de Mariel” de 1980 (2), lors duquel Fidel Castro laisse partir 120 000 Cubains vers les Etats-Unis, s’installant pour la plupart à Miami. Cet exode soudain et spontané constitue une expérience aléatoire, imprévisible. Tout effet (ou non-effet) observé sur les salaires est bien causé par cet exode, puisqu’il est impossible que ce soit l’évolution naturelle des salaires à Miami qui ait causé la décision de Castro.
Autres travaux
Enfin, dans le domaine des investissements éducatifs, Card a aussi innové (3). Bien souvent, les hommes travaillent dans la zone où ils ont grandi, ou été éduqués. Par conséquent, en comparant les salaires selon le niveau d’investissement éducatif reçu, il est impossible de distinguer ce qui est causé par l’investissement proprement dit, ou par la qualité des opportunités d’emploi dans la zone correspondante. Il est tout à fait possible que, dans les zones où il y a peu d’opportunités d’emploi, il y ait aussi peu d’investissement éducatif.
Card, pour contourner cette difficulté, exploite donc une expérience naturelle : celle de l’émigration hors de sa zone d’éducation. En comparant l’ensemble des travailleurs “immigrés inter-Etats” de Californie (c’est-à-dire ayant grandi dans un autre Etat étatsunien), il montre que, chez ceux ayant grandi dans des Etats avec un faible nombre d’élèves par professeur, les “retours sur éducation” (salaire par année d’éducation) sont plus élevés.
Pour résumer, les expériences naturelles vues jusqu’ici exploitent la création aléatoire d’un groupe traité et d’un groupe de contrôle. Un événement non-prévu, comme la réforme du salaire minimum, crée ex nihilo deux groupes : dans ce cas, l’ensemble des travailleurs californiens, le “groupe traité”, et les autres, appelés groupe de contrôle. Dans beaucoup d’expériences naturelles, l’effet de l’événement aléatoire sur l’assignation est un peu moins clair. C’est cette zone grise qu’ont tenté d’explorer les deux autres lauréats, Joshua Angrist et Guido Imbens.
Imbens et Angrist : la méthode de l’instrument et la théorisation rigoureuse de l’expérience naturelle
Guido Imbens est le benjamin des lauréats de cette édition. Né le 3 Septembre 1963, il est titulaire d’un master spécialisé (M. Sc.) en économie et économétrie de l’université de Hull au Royaume-Uni (obtenu en 1986) et d’un master en économie de l’université Brown (1989). Il réalise ensuite un doctorat sous la direction de Tony Lancaster, il soutiendra sa thèse en 1991 toujours à Brown. Il enseigne ensuite dans plusieurs universités, notamment à Harvard de 1990 à 1997 et de 2007 à 2012.
Joshua Angrist est né le 18 Septembre 1963 à Columbus, dans l’Ohio. Angrist obtient une licence en économie au Oberlin College en 1982. Angrist sert quelques années dans l’armée israélienne avant de décrocher un master en économie à Princeton en 1987. Il obtient son doctorat en économie deux ans plus tard, en 1989, dans la même université, sous la co-direction de Orley Ashenfelter, Whitney Newey et d’un certain David Card. Il enseigne ensuite l’économétrie et l’économie du travail dans plusieurs grandes universités, parmi lesquelles Harvard de 1989 à 1991, le MIT entre 1994 et 1995, ou encore Columbia en 2018.
La méthode de l’instrument
Dans un article influent de 1991, Joshua Angrist et Alan Krueger (4) utilisent l’aléatoire de la date de naissance pour évaluer la rentabilité économique d’une année d’éducation supplémentaire. Il y a certes une corrélation bien établie entre haut niveau d’éducation et haut niveau de revenus. Cependant, la causalité allant d’éducation à revenus peut paraître douteuse : un troisième facteur difficile à mesurer, l’intelligence ou la la capacité de travail par exemple, peut très bien influencer à la fois niveau d’éducation et niveau de revenus.
Dans le système américain, les élèves commencent leur scolarité primaire en septembre de l’année de leurs six ans. Ils sont autorisés à quitter le lycée après avoir célébré leur dix-huitième anniversaire. Une année scolaire s’étendant de septembre à mai, il y a donc une inégalité fondamentale selon la date de naissance : les élèves nés entre janvier et mai peuvent se permettre de se déscolariser avant la fin de leur ultime année de lycée. Ils ont donc la possibilité d’avoir une scolarité plus courte que leurs congénères de fin d’année.
Angrist et Krueger utilisent la technique de l’ “instrument” : ils évaluent l’effet de l’éducation sur le revenu en faisant le ratio entre la corrélation date de naissance-revenu et la corrélation date de naissance-éducation. Si les gens nés en janvier gagnent 120 euros/mois de moins que les autres, et qu’ils sont éduqués en moyenne six mois de moins, on peut dire que chaque mois d’éducation supplémentaire rapporte 20 euros de salaire mensuel.
On se situe, là aussi, dans le domaine des expériences naturelles. Un événement aléatoire, la date de naissance dans l’année, a une influence sur une décision économique, l’éducation. Cependant, ici, la distinction entre groupe de traitement et groupe de contrôle est beaucoup plus floue : de janvier à mai, il y a tout un continuum d’exposition à l’expérience (possibilité de finir quatre mois avant, trois mois, deux mois, etc). Surtout, pour beaucoup de gens, la date de naissance ne change rien : si on choisit de continuer sa scolarité au-delà de la période obligatoire, être né en janvier ou septembre ne fait aucune différence – et de même si on choisit de ne pas respecter la loi.
Les axiomes à vérifier
Angrist et Imbens ont répondu à deux questions (5) : dans quelles conditions ces méthodes “instrumentales” sont-elles valides ? Comment interpréter leurs résultats ?
Quatre hypothèses sont nécessaires pour que la méthode de l’instrument soit valide : tout d’abord, l’assignation aléatoire. L’instrument, ici, la date de naissance, doit être assigné de façon aléatoire entre les individus. On reste bien dans le cadre d’une expérience naturelle. Deuxièmement, la pertinence : l’instrument doit avoir un effet sur l’appartenance aux groupes de traitement / groupes de contrôle. Ici, la date de naissance doit avoir un effet non-nul sur le nombre d’années d’éducation.
Troisièmement, l’exclusion : tout instrument ne doit agir sur la variable d’intérêt que via son effet sur l’exposition au traitement / à l’expérience. Il ne doit pas y avoir d’effet autonome de la date de naissance sur le revenu, et la date de naissance ne doit pas influer sur un autre canal. Reprenons l’exemple des 120 euros mensuels perdus par les personnes nées en janvier. Si on peut prouver que les personnes nées en janvier voient leur développement embryonnaire final perturbé par le froid, et sont en moyenne moins structurées intellectuellement que les autres, alors leurs 120 euros de perte de revenu ne sont pas uniquement attribuables à la moindre éducation qu’ils ont reçue. La technique du ratio surestime alors l’effet sur le revenu de l’éducation.
La dernière hypothèse est celle de monotonie : l’instrument n’agit sur le traitement que dans un seul sens, s’il agit. Être né plus tôt dans l’année peut provoquer une déscolarisation plus précoce que prévue ; cela peut aussi ne rien changer ; par contre, cela ne doit pas permettre à l’élève de prolonger sa scolarité par rapport au cas où il serait né en fin d’année. Sinon, l’effet identifié de la date de naissance sur le revenu devient la somme d’effets contradictoires, et son interprétation causale est impossible.
Si ces quatre hypothèses sont respectées, alors le coefficient estimé par la méthode de l’instrument peut être interprété comme l’effet causal du traitement sur la variable économique – dans le papier d’Angrist & Krueger, celui de l’éducation sur le revenu. Cependant, ce coefficient ne doit être interprété que comme un “Effet Moyen Local du Traitement”. Il n’est mesuré que sur les individus dont le traitement (l’éducation) a changé du fait de leur exposition à l’instrument (la date de naissance plus ou moins précoce dans l’année) : dans ce cas, à ceux qui ne poursuivent leur scolarité que jusqu’à la limite obligatoire. Il n’est pas forcément généralisable à l’ensemble de la population.
L’éclairage de Card
Cette restriction éclaire un des mystères révélés par les méthodes instrumentales. Dans le papier d’Angrist et Krueger comme dans d’autres, l’effet estimé de l’éducation sur le revenu est plus élevé que l’effet estimé par des méthodes plus naïves. Or, on s’attendait précisément à l’inverse : une partie de la corrélation positive entre éducation et revenu est censée être attribuable à un troisième facteur non-observable (le “talent”), facteur normalement écrasé par les méthodes instrumentales.
David Card (6) (7), reprenant un modèle de capital humain développé par Gary Becker, propose une solution théorique à ce problème empirique. Pour lui, les individus choisissent leur niveau d’éducation selon leurs coûts d’emprunt. Les différences de choix d’éducation entre individus reflètent des différences dans le coût d’emprunt : la rentabilité marginale d’une année d’éducation, à l’équilibre, est égale au coût d’emprunt spécifique à la famille d’origine de l’élève.
Les élèves qui arrêtent leur scolarité le plus tôt sont ceux qui font face aux coûts d’emprunts les plus élevés. Les réglementations de scolarité obligatoire, et en l’occurrence le fait d’être né plus ou moins tôt dans l’année, affectent principalement ces élèves-là. La rentabilité marginale de l’éducation étant égale aux coûts d’emprunts, il est logique que cette rentabilité marginale soit plus élevée dans la portion de la population faisant face aux coûts d’emprunts les plus élevés. Pour des instruments affectant d’autres pans de la population, on trouverait sans doute des coefficients différents.
Imbens, Angrist et Card ont, par la somme de leurs contributions, accompagné le tournant empirique de la discipline économique moderne. Ils ont à la fois exploré, défriché, puis réglementé le champ dynamique des expériences naturelles. Deux fois en trois ans, le Nobel couronne donc cette économie expérimentale, à rebours de la tradition de l’économie spéculative, ou économie de chambre, incarnée par Milgrom et Wilson l’an dernier.
Ce tournant peut à la fois renforcer la crédibilité de l’économie, et la remettre en question. Une approche plus inductive, plus à l’écoute du réel, est évidemment rafraîchissante pour tous les lassés du consommateur représentatif et de l’utilité marginale fantôme. Cependant, elle pose les questions de la reproductibilité des expériences, et du biais de publication. Certains des papiers de Card ont présenté des résultats allant spectaculairement à l’encontre des idées reçues…avant d’être nuancés par des contre-expériences plus tardives.
Surtout, les questions de l’accès aux données créent des disparités de pouvoir entre praticiens de l’économie : heureux l’économiste assis sur une belle base de données, ou celui ayant le privilège d’exploiter une certaine expérience naturelle. La théorie et la spéculation ont pour elles l’avantage d’être plus démocratiques : elles ne se basent que sur la rencontre des esprits.
Sources :
- Card, D. (1992a), “Do minimum wages reduce employment ? A case study of California 1987-1989.” Industrial and Labor Relations Review, 46(1) : 38-54.
- Card, D. (1990). “The impact of the Mariel boatlift on the Miami labor market.” Industrial and Labor Relations Review, 43 : 245-257.
- Card, D. et A.B. Krueger (1992a). “Does school quality matter ? Returns to education and the characteristics of public schools in the United States.”, Journal of Political Economy, 100(1) : 1-40.
- Angrist, J.D. et A.B. Krueger (1991), “Does compulsory schooling attendance affect schooling and earnings ?”, Quarterly Journal of Economics, 106 : 976-1014
- Imbens, G.W. and J.D. Angrist (1994), “Identification and estimation of local average treatment effects.”, Econometrica, 61 : 467-476.
- Card, D. (1995b). “Earnings, schooling, and ability revisited.” Research in Labor Economics, 14 : 23-48.