Economie - Séance 3 - Exhaustif

Publié le par 1A 08/09 notes

Autres méthodes empiriques et recherche des causalités :




L’identification : nous permet d’aller au-delà des simples corrélations

_ identifier des mécanismes

_ détecter des causalités

_ tester des théories

_ évaluer l’impact des politiques publiques – très important dans un contexte de rareté des fonds publiques



Plan :

  1. Introduction : différence corrélation-causalité

  2. La causalité au sens de Granger

  3. Les méthodes expérimentales

  4. Les méthodes quasi-expérimentales : on imagine des expériences de pensée

  5. Les méthodes instrumentales




  1. Introduction : corrélation ou causalité



Ex. : article du Monde titré « Le cannabis augmenterait les risques d’affection psychiatrique ». Alors qu’au milieu de l’article, on apprend que « les auteurs de l’étude se refusent à établir une relation de causalité entre la consommation de cannabis et les affections psychotiques ». Ce genre d’erreurs provient du fait que l’on a envie d’établir une relation de causalité à partir de données statistiques.

Autre ex. : les promoteurs d’une loi se vantent d’avoir fait baissé la criminalité grâce à une loi, alors qu’on n’a aucun moyen de mettre en évidence une causalité avec l’étude statistique.



Ce sont des mécanismes compliqués en jeu et on a des méthodes pour retrouver les liens de causalité :


Question 1 : lien entre salaire minimum et chômage.

Deux mécanismes qui peuvent s’entremêler et conduire à fausser l’analyse statistique. Méthode empirique naïve : on prend la France, où en 1968 le salaire minimum augmente brutalement de 30%, on observe les différentes périodes où il augmente, de la même façon, il y a les périodes où l’emploi augmente ou diminue. On a deux variables pour chaque année avec l’évolution de l’emploi et du salaire minimum : la méthode naïve consiste à chercher une corrélation positive entre les deux variables, par analyse de la covariation (droite de régression).

En réalité, la décision d’un gouvernement de procéder à une hausse du salaire minimum se fait toujours dans une situation macroéconomique favorable, avec croissance de l’emploi, profits des firmes en hausse, lors desquelles le salaire minimum est un bon instrument de redistribution du pouvoir d’achat. Si on voit que le taux de chômage est de 3%, c’est un bon moment pour augmenter le salaire minimum.

Seconde relation : effet causale du salaire minimum sur l’emploi. Cela est en lien avec la demande de travail de l’entreprise dont on veut savoir si elle va réduire son embauche si elle est soumise à une augmentation du salaire minimum.


 


On a la conjonction de ces deux courbes qui s’entremêlent : on parle de système économique et les variables trop complexes perturbent toute ambition d’explication économique. Si on fait une régression linéaire bête avec ces données, on obtient un coefficient de détermination égal à 0, et une simple droite qui est une sorte de moyenne et ne veut pas dire grand-chose.


De même : prix et quantités, corrélation positive, négative ou nulle ?



Cette démarche qui consiste à retrouver les mécanismes théoriques derrière les données s’est développée dans la 2nde moitié du 20ème siècle : la Cowles commission a été créée par le milliardaire du même nom et publie à travers la revue Econometrica. Elle a eu un rôle très structurant dans la recherche économique au 20ème.



Contrairement aux sciences exactes, on n’a pas la possibilité de refaire deux fois la même expérience. Par ex. : l’emploi et l’inflation en 1968 auraient pu augmenter pour une toute autre raison que l’augmentation du salaire minimum, or on ne peut pas dupliquer la France de cette époque et lui appliquer une même expérience avec un paramètre variant.






  1. La causalité au sens de Granger



Notion de causalité assez restrictive mais assez puissante : elle permet de mieux comprendre la causalité réciproque et de penser les effets à long terme d’une politique.

L’idée est de regarder l’enchainement des événements, leur succession temporelle. Il a reçu le prix Nobel à la fin des années 1990.


 



Question 2 : Peut-on relancer l’activité économique par la consommation ? (ou est-ce l’inverse ?)

Les pics de la courbe bleue sont légèrement décalés par rapport à ceux de la courbe rouge : lorsque la bleue varie, la rouge semble la suivre un ou deux trimestres après.



Définition de la causalité en utilisant la série chronologique : une variable X va causer une variable Y si les valeurs « passées » de X ont un impact (statistique) sur la valeur actuelle ou future de Y.



La façon dont on peut faire de l’inférence sur la causalité au sens de Granger, c’est en effectuant une régression entre la variable et les « valeurs retardées » de l’autre variable. On essaie de voir s’il y a corrélation.

La causalité réciproque n’est ici pas exclue. Le fait que la production semble avoir un impact sur la consommation, n’empêche pas que l’on s’apercevrait en faisant une régression, que la consommation a aussi un impact sur la production. Cela permet d’expliquer des cycles de croissance à travers la causalité réciproque.

De même, un ministre qui met en place une réforme, dont les effets sont retardés – lenteur de la mise en place, production à long terme des effets positifs – et c’est le ministre suivant après le départ de l’initiateur qui en profite.



Limites de ce concept :


Les agents anticipent ce qui va pouvoir se passer dans le futur, ce qui perturbe assez largement le concept de causalité.


Ex 1: qqun qui va au bureau le matin et essaie de deviner si le soir il va pleuvoir. S’il voit qu’il y a des nuages, il prend son parapluie, mais ne le prend pas s’il n’y en a pas. Il se trouve que dès qu’il prend le parapluie, il se met a pleuvoir le soir. Si un économètre construit une série statistique avec une régression de la pluie sur le fait de prendre son parapluie : on obtient un lien causal entre les deux faits. En réalité, il n’y a aucun impact causal car on est simplement dans l’ordre de la prédiction. L’économiste doit faire à la fois comprendre comment se comportent les gens – mécaniste – et comment ils se représentent le monde (psychologie).


Ex 2 : les économistes anticipent que les gens vont consommer, les entreprises produisent donc plus le trimestre précédent. Elles vont causer la consommation au sens de Granger, mais en réalité, c’est la consommation future anticipée qui va causer la production.



Etude de deux économistes italiens :


Lien entre nombre de prisonniers libérés en Italie et la criminalité dans le pays. Suite à une injonction papale, un tiers des prisonniers a été libéré (20 000 peu près) à l’été 2006. On constate une explosion du nombre de vols de banques dans les semaines voire les jours qui ont suivi les libérations. La courbe en pointillé a tendance a augmenter un peu avant : on peu imaginer que, la loi ayant été votée plusieurs mois avant les libérations, les gens ont anticipé la loi d’amnistie et on donc moins craint les condamnations. On pourrait dire : le nombre de crimes et délits provoque l’amnistie alors que c’est en vérité un effet d’anticipation qui joue.


 


 


Conclusion partielle : on ne doit pas avoir une vision statique des choses, tout cela est dynamique. Les anticipations peuvent cependant perturber cette analyse. Mais si on ignore le concept de causalité, on risque de mal présenter ses arguments.




  1. Les expériences aléatoires (ou contrôlées ou field experiments) :



Thème assez vaste de la littérature empirique économique. On va faire come en médecine : on va tester des théories sur des échantillons d’individus, avec tout ce que cela peut impliquer comme problèmes éthiques. On ne peut pas avoir deux fois la France pour tester l’effet du salaire minimum, mais on va faire des expérimentations dans lesquelles on aura deux groupes d’individus : un groupe de contrôle qui ne va subir aucune mesure de politique économique, et un groupe de traitement qui va subir ces mesures. On va ensuite comparer l’évolution d’un groupe avec l’autre. Pour ce faire, il faut que les groupes soient le plus comparables possible, aussi proches l’un de l’autre que possible (âge, composition familiale, revenu, statut de l’emploi). La meilleure façon d’avoir des groupes comparables consiste à tirer les gens au sort pour savoir s’ils vont bénéficier de la mesure.


Ex : on tire au sort 10 000 personnes, 5 000 recevant une prime pour l’emploi (pour augmenter leurs revenus) et 5 000 ne recevant pas la prime. Pour le RSA, on a changé le statut du RMI pour un groupe et pas pour l’autre et on compare l’évolution.


L’exemple le plus spectaculaire de ce type de mesure est le test du Self-sufficiency project au Canada (prime pour l’emploi) dans deux régions. On prend des familles monoparentales (souvent des femmes célibataires) qui vivent de l’aide publique et dans le cadre des incitations au retour à l’emploi on leur rend un complément de salaire de 25% du salaire gagné dans le dos de l’employeur, pendant un a trois ans. On voulait savoir si cet argent a une utilité ; sachant qu’il ne revient qu’à ceux qui retrouvent un emploi.



 



Le taux d’emploi du groupe de traitement augmente rapidement de 5 à 25%. Et ce taux se maintient pendant longtemps donc l’effet n’est pas temporaire, même après l’arrêt des aides (qui durent de 12 à 36 mois). Mais ensuite, le taux d’emploi du groupe de contrôle augmente aussi et rejoint finalement celui du groupe de traitement : il n’y a, à la fin de l’expérimentation, plus de différence entre les deux groupes. Cela prouve qu’en période de fort chômage, la mesure est très efficace, mais on n’en a pas besoin pour que les gens retrouvent un emploi. En temps normal, on n’a pas besoin de cette mesure pour que les gens conservent leur emploi.


Les deux comparaisons à effectuer sont (méthode de différence-en-différence) :

_ après – avant

_ un groupe par rapport à l’autre


Cette méthode permet d’éviter les non-sens triviaux.

Ex : ministre qui mettrait en place le dispositif de prime pour l’emploi, et se satisfait de l’augmentation de l’emploi sans regarder ce qu’il se passe pour le groupe de contrôle, dont le taux d’emploi a augmenté en réalité plus que celui du groupe de traitement.

Ex inverse : la mesure limite les dégâts par rapport à si rien n’avait été fait.


Inconvénients : très cher car il faut suivre des échantillons importants pendant de longues durées.




  1. Les quasi-expériences



On essaie de se placer dans les conditions d’une expérience en utilisant des groupes de contrôle et de traitement fabriqués. Par méthode de différence-en-différence entre groupe de traitement et groupe de contrôle, on retrouve l’effet causal. On essaie de convaincre le lecteur qu’on a des groupes assez homogènes pour que l’expérience soit valide.


Expérience naturelle : on va essayer de trouver des événements assez soudains et inattendus pour être certain qu’il n’y a pas ce problème d‘endogènéité dans la décision du changement massif de politique économique : il faut un changement exogène.


En France, on peut difficilement utiliser ces expériences car nos lois s’appliquent sur tout le territoire.



Etude de D. Card : on compare des régions affectées et non-affectées. La Californie a augmenté le salaire minimum de 24% en 1998. On s’attend à ce que l’augmentation soit forte car 11% des travailleurs et 50% des jeunes adultes étaient payés moins que ce salaire. Le groupe de contrôle est les Etats qui sont autour de la Californie (Oregon, Nevada) mais malheureusement, ils ont suivi la mesure californienne. Card prend les Etats qui n’ont pas mis en place cette mesure aux E.U. : Arizona, Nouveau-Mexique, Texas, Floride, Géorgie. Il a suivi la population active et le niveau d’emploi dans ces groupes de contrôle. On peur regarder le nombre de personnes payées au niveau de salaire minimum pour voir s’il y a une chute brutale du nombre de personnes payées moins.


 


Il y a malgré tout des travailleurs rémunérés avec des pourboires, et n’ont pas le salaire minimum. On compare les Etats pour voir ce que ça a donné. La diminution est assez soudaine et brutale.


L’écart entre le niveau d’emploi en Californie et dans les Etats de contrôle avant et après la mesure a en réalité augmenté : on a de plus une augmentation du niveau de l’emploi. Cela est valable pour toutes les classes d’âge.


 


Il y a 4 points en plus d’emploi chez les jeunes après l’augmentation du salaire minimum. En réalité il y a eu une baisse de l’emploi après la mise en place de cette mesure, mais elle a mis un certain temps à s’observer.

Card interprète cela avec le modèle du monopsone : les entreprises ont un pouvoir de marché sur les salariés. Les entreprises et les consommateurs n’ont pas d’impact sur le marché car ils sont atomistiques, cad trop petits individuellement. La théorie du monopsone dit que les entreprises sont assez grandes pour avoir un contrôle à la fois sur le salaire et sur l’emploi donc elles choisissent le niveau de salaire et l’embauche. Mais si le salaire est trop bas, peu de gens vont vouloir travailler et l’emploi va baisser.

Idée : si on augmente le salaire minimum, plus de gens vont venir travailler car on force els entreprises à les payer plus.


Question : comment être sûr que le groupe de contrôle est valable ? L’article est publié dans une revue, cad qu’il a été lu par des rapporteurs dont le scepticisme censure une grande majorité des études dont les groupes de contrôle ne sont pas valables.

On pourrait imaginer un groupe qui ne devrait pas être affectés par le salaire minimum (ceux dont le niveau d’étude est PhD par ex) : si on regarde le niveau d’emploi des gens qui ont un niveau de master en Californie et en Floride, son évolution devrait être similaire, ce qui indiquerait que les tendances macroéconomiques sont bien capturées par le groupe de contrôle.




Mise au point :

Expérience naturelle : un tremblement de terre a détruit toutes les écoles et infrastructures publiques ;: on peut estimer l’impact des infrastructures sur la population du groupe qui a perdu ces infrastructures par rapport à un groupe qui n’a pas connu de dommages.

Expérience aléatoire : on construit la composition du groupe de contrôle et du groupe de traitement, de façon aléatoire mais artificielle.





  1. Méthodes instrumentales :



C’est une généralisation des méthodes de différence-en-différence.


Question 3 : La productivité dépend-elle du niveau d’étude, et si oui, de combien ?



 


Toutes les politiques de développement et d’enseignement supérieur sont basées sur la réponse à cette question… Y a-t-il des liens positifs et causaux entre le niveau de scolarisation, d’étude de la population et son niveau de productivité ? Si on regarde aux E.U. : on a le nombre moyen d’années d’éducation des différents groupes (qui correspondent chacun à un niveau d’étude) et on met à gauche la moyenne pour chacun des individus que l’on observe du log du salaire. On obtient une corrélation presque parfaite entre les deux variables. Chacun années d’étude correspond à 10% de salaire horaire en plus. La question est de savoir si c’est causal.

En France, c’est pareil : on a une corrélation assez forte, sauf pour ceux qui ont différé longtemps leur sortie du système éducatif. Plus on étudie plus, il semble que les salaires soient liés à la durée d’étude. Mais on a beaucoup de facteurs manquants qui peuvent expliquer cette corrélation : le fait d’être dans une famille avec un capital culturel élevé permet d’étudier plus et donne accès à un tas de réseau et d’opportunités qui amènent à des emplois de meilleure qualité (facteur externe qui expliquent les deux variables séparément), ou plus prosaïquement le simple talent peut expliquer que l’on prolonge ses études et que l’on est plus utile dans l’entreprise en tant que manager. Peut-être que toute la corrélation aura disparu quand on aura tenu compte de tous ces facteurs alternatifs…



1ère possibilité : l’idéal serait de prendre un individu dont on contrôle les caractéristiques (talent, famille, etc.) ; on le duplique et on donne à l’un des deux une bourse pour étudier et pas à l’autre donc ils ont un niveau d’étude différent totalement exogène. La causalité c’est ça : la même personne subit deux traitements différents et pour laquelle les effets ont différents.


2ème choix : un chercheur effectue les twin studies avec des jumeaux homozygotes qu’il interroge sur leur niveau d’étude, leur rémunération (il peut utiliser les écarts de revenus et attribuer alors aux études un impact causal indépendamment du talent de l’individu, dont on suppose qu’il est dans les gènes).


3ème choix : les expériences contrôlées. Ex : on prend des communes rurales très pauvres au Mexique, et on donne des aides directes aux familles dont la conditionnalité est que les enfants aillent à l’école. C’est une expérience dite contrôlée dans le sens où on a attribué ces aides de façon aléatoire entre les provinces : on peut comparer l’augmentation du niveau d’étude des enfants ayant reçu l’aide à celui de ceux n’ayant pas reçu l’aide donc ayant moins étudié, et regarder plus tard leurs revenus. On a vu que ça marchait plutôt bien donc on a tenté de généraliser ça au Chili et au Venezuela.


4ème possibilité : trouver un groupe de contrôle astucieux qui nous permet d’approcher le niveau d’étude avec une variable qui ne soit pas corrélée à la variable étudiée.

Angrist et Krueger ont regardé les gens nés dans les années 1930 aux E.U. et leur niveau d’étude en fonction de l’année de naissance et aussi du trimestre de naissance. Tendance globalement à une augmentation du niveau d’étude de façon séculaire ; périodicité du niveau d’étude qui porte sur 0,1 de l’échantillon, avec un individu sur 10 qui a une année d’étude de plus que les autres. C’est l’année calendaire qui détermine l’âge d’entrée dans le système éducatif aux E.U. : si on est né au 1er trimestre d’une année, on va rentrer en moyenne à 6 ans et demi dans le système. Si on est né au 4ème trimestre, on y entrera à 5 ans et ¾. Donc au final on a presque un an d’écart de l’âge d’entrée dans le système éducatif. Les gens qui sont rentrés plus tard sortiront avec une année de moins du système éducatif lorsqu’ils ont atteint l’âge limite (le jour de notre anniversaire on peut sortir du système éducatif).

C’est une bonne nouvelle pour un économètre car les gens nés au 1er ou au 4ème trimestre sont totalement identiques. On a donc un bon groupe de contrôle qui apparaît au sens où ils ont des niveaux d’étude différents – en moyenne de 0,1 année – mais sont identiques en tant qu’individus. On retrouve cette régularité qui fait que les gens nés dans les 1ers trimestres ont des salaires un peu plus faibles, et ceux qui sont nés au 4ème trimestre ont des revenus plus faibles. L’écart est de l’ordre de 1%, mais ramené à 0,1 année d’écart constaté entre les deux groupes, cela donne du 10% de salaire en plus par année d’étude.


 



 



En réalité, l’écart est tellement faible, que l’écart-type est élevé, de l’ordre de 3%. Il faut donc investir dans l’éducation, car elle fait progresser les revenus des individus.


Ici le trimestre de naissance est un instrument, cad une variable uniquement corrélée à la variable qui nous intéresse à savoir le niveau d’étude, mais qui n’est pas corrélée avec l’autre variable (ici pas d’incidence du trimestre sur le niveau de revenu).

La méthode des instruments est une généralisation de la méthode des moindres carrées.




Conclusion :



La plupart des questions économiques se traduisent de façon quantitative par des variables, et il y a des relations entre ces variables, qu’on étudie d’abord naïvement par la méthode des moindres carrés. Puis on dépasse cette approche car de multiples variables peuvent venir perturber les corrélations : on a quatre méthodes pour ce faire.



 



Publié dans Semestre 1

Commenter cet article