Econométrie Des Données de Panel Avec R PDF [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

Table des matières 1 Introduction 1.1 Qu’est-ce qu’un panel . . . . . . . . . . . 1.2 Organisation des données de panel sous R 1.3 Mesure de la variabilité dans un panel . . 1.4 Des transformations utiles . . . . . . . . . 1.5 Les différentes formes d’hétérogénéité . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

1 2 3 5 10 12

2 Modèle à erreurs composées 15 2.1 Notations et hypothèses . . . . . . . . . . . . . . . . . . . . . . . . 15 2.1.1 Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.1.2 Hypothèses sur les termes d’erreur . . . . . . . . . . . . . . 17 2.2 Estimateurs des moindres carrés ordinaires . . . . . . . . . . . . . 18 2.2.1 Estimateur des moindres carrés ordinaires sur les variables non transformées . . . . . . . . . . . . . . . . . . . . . . . . 18 2.2.2 L’estimateur between . . . . . . . . . . . . . . . . . . . . . 20 2.2.3 L’estimateur within . . . . . . . . . . . . . . . . . . . . . . 21 2.3 L’estimateur des moindres carrés généralisés . . . . . . . . . . . . . 23 2.3.1 Présentation de l’estimateur des mcg . . . . . . . . . . . . 23 2.3.2 Estimation des variances des composantes du terme d’erreur 25 2.4 Comparaison des estimateurs . . . . . . . . . . . . . . . . . . . . . 26 2.4.1 Relations entre les estimateurs . . . . . . . . . . . . . . . . 27 2.4.2 Comparaison des variances . . . . . . . . . . . . . . . . . . 28 2.5 Exemples d’application . . . . . . . . . . . . . . . . . . . . . . . . . 28 2.5.1 Un exemple complet d’estimation avec plm . . . . . . . . . 28 2.5.2 Exemples de modèles linéaires simples . . . . . . . . . . . . 32 2.6 Simulation des propriétés des estimateurs . . . . . . . . . . . . . . 37 3 Le modèle à erreurs composées : extensions 3.1 Le modèle à double erreurs composées . . . . . . . . . . . . 3.1.1 Décomposition de la variance dans le modèle doubles 3.1.2 Modèles à effets fixes et à effets aléatoires . . . . . . 3.1.3 Application . . . . . . . . . . . . . . . . . . . . . . .

. . . . effets . . . . . . . .

41 41 41 42 42

viii

Econométrie des données de panel avec R 3.2 3.3 3.4 3.5

D’autres estimateurs des variances des composantes du terme d’erreur Panel non cylindre . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.1 Application . . . . . . . . . . . . . . . . . . . . . . . . . . . L’estimateur du maximum de vraisemblance . . . . . . . . . . . . . Système d’équations corrélées . . . . . . . . . . . . . . . . . . . . . 3.5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5.2 Les moindres carrés contraints . . . . . . . . . . . . . . . . 3.5.3 La prise en compte des corrélations inter-équations . . . . . 3.5.4 Données de panel . . . . . . . . . . . . . . . . . . . . . . . . 3.5.5 Application . . . . . . . . . . . . . . . . . . . . . . . . . . .

4 Tests sur le modele a erreurs composees 4.1 Tests d’effets individuels et/ou d’effets temporels . . 4.1.1 Tests de F . . . . . . . . . . . . . . . . . . . . 4.1.2 Tests de Breush-Pagan . . . . . . . . . . . . . 4.1.3 Application . . . . . . . . . . . . . . . . . . . 4.2 Modele a erreurs composees vs modeles a coefficients 4.2.1 Modeles a coefficients variables . . . . . . . . 4.3 Modele a effet fixe vs modele a effets aleatoires . . . 5 Autocorrélation et hétéroscédasticité

. . . . . . . . . . . . . . . . . . . . . . . . variables . . . . . . . . . . . .

. . . . . . .

. . . . . . .

43 45 48 49 53 53 53 54 55 57 61 61 61 62 63 65 67 70 73

6 Endogéneite 75 6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 6.2 Estimation d’une équation isolée . . . . . . . . . . . . . . . . . . . 76 6.2.1 Les modèles within et between . . . . . . . . . . . . . . . . 80 6.2.2 Estimateurs combinant les variations intra et inter-individuelles 83 6.3 Estimation d’un système d’équation . . . . . . . . . . . . . . . . . 88 6.3.1 L’estimateur des triples moindres carrés ordinaires . . . . . 88 6.3.2 L’estimateur des triples moindres carrés ordinaires à erreurs composées . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 6.4 Estimateur d’Hausman-Taylor . . . . . . . . . . . . . . . . . . . . . 92 7 Estimation d’un modèle dynamique 97 7.1 Modèle dynamique et endogénéité . . . . . . . . . . . . . . . . . . 99 7.1.1 Le biais de l’estimateur des mco . . . . . . . . . . . . . . . 99 7.1.2 L’estimateur within . . . . . . . . . . . . . . . . . . . . . . 101 7.1.3 Méthodes d’estimation convergentes pour les modèles dynamiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 7.2 Estimateur des moments généralisés du modèle en différences . . . 105 7.2.1 Variables instrumentales et méthode des moments généralisés 105 7.2.2 Estimateur en une étape . . . . . . . . . . . . . . . . . . . . 107 7.2.3 Estimateur en deux étapes . . . . . . . . . . . . . . . . . . 109

Table des matières 7.2.4 7.3

7.4

7.5

La prolifération du nombre d’instruments dans le modèle des moments généralisés en différences . . . . . . . . . . . . . . Estimateur gmm système . . . . . . . . . . . . . . . . . . . . . . . 7.3.1 Des instruments faibles . . . . . . . . . . . . . . . . . . . . 7.3.2 Conditions de moments sur le modèle en niveau . . . . . . . 7.3.3 L’estimateur gmm en système . . . . . . . . . . . . . . . . . Inférence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.4.1 Estimation robuste de la matrice de variance des coefficients 7.4.2 Tests de validité des moments . . . . . . . . . . . . . . . . . 7.4.3 Test d’absence d’autocorrélation des innovations . . . . . . Exemples d’application . . . . . . . . . . . . . . . . . . . . . . . . .

ix

110 113 113 114 116 118 118 121 122 124

8 Modèles linéaires généralisés et assimilés 8.1 Le modele binomial . . . . . . . . . . . . . 8.1.1 Introduction . . . . . . . . . . . . 8.1.2 Panel . . . . . . . . . . . . . . . . 8.1.3 Application . . . . . . . . . . . . . 8.2 Modele ordonne . . . . . . . . . . . . . . . 8.2.1 Introduction . . . . . . . . . . . . 8.2.2 Panel . . . . . . . . . . . . . . . . 8.2.3 Application . . . . . . . . . . . . . 8.3 Modele tobit . . . . . . . . . . . . . . . . 8.3.1 Introduction . . . . . . . . . . . . 8.3.2 Panel . . . . . . . . . . . . . . . . 8.3.3 Application . . . . . . . . . . . . . 8.4 Poisson . . . . . . . . . . . . . . . . . . . 8.4.1 Introduction . . . . . . . . . . . . 8.4.2 Panel . . . . . . . . . . . . . . . . 8.4.3 Application . . . . . . . . . . . . . 8.5 Negbin . . . . . . . . . . . . . . . . . . . . 8.5.1 Introduction . . . . . . . . . . . . 8.5.2 Panel . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

127 127 127 129 131 132 132 133 134 135 135 137 138 139 139 140 142 143 143 144

9 Racines unitaires et cointégration 9.1 Introduction . . . . . . . . . . . . . 9.2 Tests de racine unitaire en panel . 9.2.1 Test de Levin-lin-Chu . . . 9.2.2 Test de Im, Pesaran et Shin 9.2.3 Le test de Madalla et Wu .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

147 147 151 152 153 153

. . . . .

. . . . .

. . . . .

. . . . .

10 Panels spacials

155

Bibliographie

161

Chapitre 1

Introduction ˆmco = (Z > Z) ˆb = (Z > BZ) ˆw = (X > W X)

1

1

1

Z > y = (Z > Z)

1

Z > By = (Z > BZ)

X > W y = (X > W X) = (Z > Z)

ˆmco ˆb

= (Z > BZ)

ˆw

= (X > W X)

Mmco = I

1

1

Z > (Z + ✏)

1

1

Z > B(Z + ✏)

X > W (↵j + X + ✏)

Z >✏

Z > B✏) 1

Z(Z > Z)

X >W ✏ 1

Z>

Mb = I Z(Z > BZ) 1 Z > B ¯ Mw = (I J)(I X(X > W X) 1 X > W ) ⌦=

qˆw qˆb E(ˆ qw ) E(ˆ qb )

= =

= =

2 ⌫I

+

2 ⌘U

e = M✏ e> W e = ✏> M > W M ✏ = tr(M > W M ✏✏> ) e> Be = ✏> M > BM ✏ = tr(M > BM ✏✏> )

tr(M > W M ⌦) = tr(M > BM ⌦) =

2 > 2 > ⌫ tr(M W M ) + ⌘ tr(M W M U ) 2 > 2 > ⌫ tr(M BM ) + ⌘ tr(M BM U )

2

Econométrie des données de panel avec R ✓

1.1

tr(M > W M ) tr(M > BM )

tr(M > W M U ) tr(M > BM U )







2 ⌫ 2 ⌘



=



E(ˆ qw ) E(ˆ qb )



Qu’est-ce qu’un panel

On appelle panel une base de données dans laquelle deux dimensions sont présentes : – une dimension individuelle (au sens large) : il peut s’agir de personnes physiques, de ménages, d’entreprises, de pays, etc. On note ces individus n = 1 . . . N . – une dimension temporelle : il existe plusieurs observations au cours du temps de ces individus. On note les périodes d’observations t = 1 . . . T . Les panels sont donc une combinaison de série temporelle et de coupe transversale ; ils permettent de combler en partie les limites de ces deux types d’échantillon : – le fait qu’il y ait deux dimensions dans ces données permet d’augmenter le nombre d’observations et la variabilité de l’échantillon, ce qui permet d’obtenir des estimations plus précises, – l’hétérogénéité individuelle peut être prise en compte de manière beaucoup plus satisfaisante dans le cadre de données de panel car on dispose de plusieurs observations des mêmes individus. Un panel est caractérisé par ses deux dimensions, transversale (N ) et temporelle (T ). En fonction de ces dimensions, on peut distinguer grossièrement deux types de panel : – les panels micros N >> T : le nombre d’individus observés est très important (typiquement plusieurs milliers) et le nombre d’observations temporelles est faible (4-5 par exemple). Pour ce type de panel, il n’est pas possible de réaliser des estimations pour chaque individu et l’accent est mis sur des problématiques de micro-économétrie : hétérogénéité individuelle, corrélation entre l’erreur et les variables explicatives, – les panels macros : le nombre d’individus est faible et le nombre de séries temporelles est élevé, typiquement N et T sont du même ordre de grandeur, la ou quelques dizaines. il s’agit par exemple de données de l’OCDE, d’eurostat ou d’autres organismes internationaux concernant des groupes de pays ou de régions. Dans ce cas, l’estimation sur données de panel est une alternative à une estimation sur une série chronologique pour un seul individu. On retrouve dans ce cas les préoccupations présentes dans l’analyse contemporaine des séries temporelles, en particulier la détection de racines unitaires et de relations de cointégration. Un panel est dit cylindré lorsque chaque individu est observé pour le même ensemble de périodes. Dans ce cas, la taille totale de l’échantillon est simplement N ⇥ T , alors que, P dans le cas général, en notant Tn le nombre d’observations pour N l’individu n, on a n=1 Tn . Très souvent, les modèles d’économétrie de panel sont présentés dans le cas ou le panel est cylindré et il est indiqué que l’extension au cas des panels non cylindrés est évidente. Ce point de vue nous semble abusif,

Chapitre 1. Introduction

3

l’estimation sur des données cylindrées étant très souvent beaucoup plus simple que sur des données non cylindrées. La littérature théorique et empirique concernant l’économétrie des données de panel est très abondante. Tous les manuels d’économétrie consacrent au moins un chapitre à ce sujet, d’autres y sont spécifiquement consacrés, en particulier Baltagi (2001), Sevestre (2002), Pirotte (2011) et Hsiao (2003) R ne permet pas d’analyser simplement les données de panel. La librairie plm (Croissant & Millo, 2008) fournit un ensemble de fonctions qui permettent de gérer correctement les données de panel et qui proposent les principales méthodes d’estimation et de test.

1.2

Organisation des données de panel sous R

La librairie plm est chargée simplement en entrant la commande suivante : > library("plm")

Avec R, il est d’usage de stocker les données dans un data.frame , qui est une liste contenant un ensemble de vecteurs qui peuvent être de modes différents, mais qui sont de même longueur, ce qui permet une représentation tabulaire. Cette structure est adaptée aux coupes transversales mais elle est insuffisante car elle est incapable de rendre compte de la double dimension (individuelle et temporelle) des données de panel. A cet effet, plm fournit une fonction appelée pdata.frame qui prend pour argument principal un data.frame et qui renvoie un objet de classe pdata.frame . Il s’agit d’un tableau de données auquel est ajouté une information sur les deux dimensions du panel. Les deux arguments obligatoires de cette fonction sont data (un tableau de données) et index . Ce dernier renseigne la structure des données. Il peut s’agir : – d’une chaîne de caractère : dans ce cas, il s’agit du nom de la variable qui contient l’index individuel, – d’un vecteur de deux chaînes de caractères, les deux variables qui contiennent les index individuels et temporels, – d’un entier, le nombre d’individus ; le panel doit dans ce cas être cylindré et les observations classées d’abord par individu. drop.index est un dernier argument optionnel logique ; s’il est égal à TRUE, les index sont retirés du tableau de données. A titre d’exemple, nous allons analyser les données Grunfeld qui figurent dans la librairie AER. Ces données indiquent l’investissement (invest), la valeur (value) et le stock de capital (capital) de 10 entreprises américaines pour 20 ans (de 1935 à 1954). Nous en prendrons pour l’instant un petit sous-ensemble, constitué de deux firmes pour trois ans. > > > >

data("Grunfeld", package = "AER") Gr index(smallGr)

1 2 3 4 21 22 23 24

firm General Motors General Motors General Motors General Motors US Steel US Steel US Steel US Steel

year 1935 1936 1937 1938 1935 1936 1937 1938

> index(smallGr, "firm")

Chapitre 1. Introduction [1] General Motors General Motors General Motors General Motors US Steel [6] US Steel US Steel US Steel Levels: General Motors US Steel > index(smallGr, 2) [1] 1935 1936 1937 1938 1935 1936 1937 1938 Levels: 1935 1936 1937 1938

Notons que les index peuvent également être extraits des séries contenues dans un pdata.frame : > z index(z)

1 2 3 4 21 22 23 24

firm General Motors General Motors General Motors General Motors US Steel US Steel US Steel US Steel

year 1935 1936 1937 1938 1935 1936 1937 1938

On peut également représenter ces séries sous forme matricielle en appliquant la méthode as.matrix à une série : > as.matrix(z) 1935 1936 1937 1938 General Motors 317.6 391.8 410.6 257.7 US Steel 209.9 355.3 469.9 262.3

1.3

Mesure de la variabilité dans un panel

Pour une coupe transversale ou une série chronologique, une variable de l’échantillon peut être notée xi avec i = 1 . . . I l’indice de l’observation. La moyenne arithmétique de la variable est : I

x ¯=

1X xi I i=1

La variabilité de la variable est la somme des écarts quadratiques par rapport à la moyenne empirique :

5

6

Econométrie des données de panel avec R

Sxx =

I X

x ¯ )2 =

(xi

i=1

I X

x2i

Ix ¯

i=1

La variance empirique est obtenue en divisant cette expression par I (ou par I 1 pour corriger du nombre de degrés de liberté). Dans un panel, la variable doit être doublement indicée, par convention d’abord par l’indice individuel (n = 1 . . . N ), puis par l’indice temporel (t = 1 . . . T ) : xnt . Trois types de moyenne empiriques peuvent être calculées : ¯, qui est la moyenne arithmétique de toutes – la moyenne globale, que l’on notera x les observations (pour tous les individus et pour l’ensemble des périodes) : ¯= x

PN

PT

n=1

t=1

xnt

NT

– les N moyennes individuelles, notées x ¯n. que l’on obtient en faisant la moyenne pour chaque individu des observations pour les différentes périodes : x ¯n. =

PT

t=1

xnt

T

– les T moyennes temporelles, notées x ¯.t que l’on obtient en faisant la moyenne pour chaque période des observations pour les différents individus : x ¯.t =

PN

n=1

xnt

N

Ces différentes moyennes permettent d’obtenir différentes mesures (et différentes décompositions) de la variabilité dans un panel. La variabilité totale est la somme quadratique des écarts par rapport à la moyenne globale : Sxx =

N X T X

(xnt

¯ )2 x

n=1 t=1

On parle de variabilité “intra” (within en anglais) lorsque l’on mesure la variabilité au sein d’une même dimension (par défaut la dimension individuelle). Ainsi, la variabilité intra-individuelle est obtenue en sommant les écarts quadratiques par rapport à la moyenne individuelle : wn Sxx =

N X T X

(xnt

x ¯n. )2

n=1 t=1

La variabilité “inter” (between en anglais) mesure la variabilité entre éléments d’une dimension (par défaut la dimension individuelle). On doit donc ici sommer les écarts quadratiques entre les moyennes individuelles et la moyenne globale :

Chapitre 1. Introduction

bn Sxx

=

N X T X

N X

¯ )2 = T x

(¯ xn.

n=1 t=1

¯ )2 x

(¯ xn.

n=1

On peut montrer aisément que la variabilité totale est la somme des variabilités intra et inter individuelles. En effet : Sxx

PN PT ¯ )2 (xnt x Pn=1 Pt=1 N T ¯)]2 x ¯n. ) + (¯ xn. x nt t=1 [(x ⇥ Pn=1 P N T ¯)2 + 2(xnt x x ¯n. )2 + (¯ xn. x ¯n. )(¯ xn. nt n=1 t=1 (xP PT N wn bn ¯) Sxx + Sxx + 2 n=1 t=1 (xnt x ¯n. )(¯ xn. x

= = = =

¯) x

⇤2

PN P ¯) Tt=1 (xnt x Or, ce dernier terme est nul, car on peut l’écrire n=1 (¯ xn. x ¯n. ) et la somme pour un individu des écarts par rapport à la moyenne individuelle est nécessairement nulle. De la même manière, on peut décomposer la variabilité totale en une variabilité “within” et “between” temporelle : wt Sxx =

N X T X

x ¯.t )2

(xnt

n=1 t=1 bt Sxx =

N X T X

(¯ x.t

¯ )2 = N x

n=1 t=1

et

T X

(¯ x.t

¯ )2 x

t=1

wt bt Sxx = Sxx + Sxx

Enfin, la variabilité “double within” s’écrit de la manière suivante : wnt Sxx =

N X T X

(xnt

x ¯n.

¯ )2 x¯t + x

n=1 t=1

Soit encore : wnt Sxx

= =

PN

n=1

Sxx

PT

t=1

bn Sxx

[(xnt bt Sxx

¯) x

(¯ xn.

¯) x

(x¯t

¯)]2 x

car on montre aisément que les doubles sommes des termes croisés sont nulles à l’aide du même argument que précédemment. On obtient donc une troisième décomposition de la variabilité : wnt bn bt Sxx = Sxx + Sxx + Sxx

plm fournit des fonctions qui permettent de calculer simplement les transformations précédemment décrites : Within calcule la transformation “within” alors que

7

8

Econométrie des données de panel avec R Between et between calculent la transformation “between” ; la différence entre

ces deux dernières fonctions est que la première renvoie un vecteur de longueur N ⇥ T , chaque moyenne individuelle étant répétée T fois alors que la seconde renvoie un vecteur de longueur N . Avec la variable invest pour le petit sous-ensemble des données Grunfeld , on obtient : > z between(z)

General Motors 344.425

US Steel 324.350

> Between(z)

General Motors General Motors General Motors General Motors 344.425 344.425 344.425 344.425 US Steel US Steel US Steel 324.350 324.350 324.350

US Steel 324.350

> Within(z)

General Motors-1935 General Motors-1936 General Motors-1937 General Motors-1938 -26.825 47.375 66.175 -86.725 US Steel-1935 US Steel-1936 US Steel-1937 US Steel-1938 -114.450 30.950 145.550 -62.050

Ces transformations sont par défaut réalisées sur la dimension individuelle. Les mêmes opérations peuvent être effectuées sur la dimension temporelle en fixant le second argument effect à "time" : > z between(z, effect = "time")

1935 1936 1937 1938 263.75 373.55 440.25 260.00

> Within(z, effect = "time")

General Motors-1935 General Motors-1936 General Motors-1937 General Motors-1938 53.85 18.25 -29.65 -2.30 US Steel-1935 US Steel-1936 US Steel-1937 US Steel-1938 -53.85 -18.25 29.65 2.30

Chapitre 1. Introduction

9

Les différentes mesures de la variabilité sont alors aisément obtenues en utilisant ces fonctions et en appliquant les formules précédement décrites (pour plus de lisibilité, on divise la variable par 1E+03, l’investissement étant alors mesuré en milliards de dollars) > > > > > > >

z une matrice de 1 de dimensions l ⇥ l. Dans ce qui suit, on supposera d’une part que les observations sont classées d’abord par individu, puis par période et d’autre part que le panel est cylindré. On a dans ce cas une variable x qui est représentée par le vecteur de longueur N ⇥ T suivant :

4 8 0 0 8 16

0 0 1 3 2 6

Chapitre 1. Introduction

11

x> = (x11 , x12 , . . . , x1T , x21 , x22 , . . . , x2T , . . . , xN 1 , xN 2 , . . . , xN T ) Pour obtenir la transformation inter-individuelle (between), on utilisera une matrice de transformation notée Bn définie par : Bn = In ⌦ JT /T Par exemple, pour N = 2 et T = 3, on a : B

=

=





0

=

On a alors :

1 0

0 1

1 0

0 1

1/3 B 1/3 B B 1/3 B B 0 B @ 0 0

1 3 1 ⌦ 4@ 1 A 1 1 1 /35 0 1 1 ◆ 1/3 1/3 1/3 ⌦ @ 1/3 1/3 1/3 A 1/3 1/3 1/3 1 1/3 1/3 0 0 0 1/3 1/3 0 0 0 C C 1/3 1/3 0 0 0 C C 0 0 1/3 1/3 1/3 C C 0 0 1/3 1/3 1/3 A 0 0 1/3 1/3 1/3 ◆

20

(Bn x)> = (¯ x1 , x ¯1 , . . . , x ¯1 , x ¯2 , x ¯2 , . . . , x ¯2 , . . . , x ¯N. , x ¯N. , . . . , x ¯N. ) Pour obtenir la transformation inter-individuelle (within), on utilisera une matrice de transformation notée Wn définie par : Wn = IN T

In ⌦ JT /T = IN T

Bn

Ces deux matrices ont des propriétés très importantes : – elles sont symétriques, on a donc B > = B et W > = W , – elles sont idempotentes, c’est-à-dire que W ⇥W = W et B ⇥B = B. Considérons par exemple l’opérateur between. Si on l’applique deux fois successivement à x, on obtient : (B ⇥ B) ⇥ x = B ⇥ (B ⇥ x). Cela revient à calculer des moyennes individuelles sur un vecteur contenant déjà des moyennes individuelles, ce qui laisse le vecteur inchangé ; on a donc bien (B ⇥ B) ⇥ x = B ⇥ x (le même raisonnement s’applique à W ), – elles réalisent une décomposition d’un vecteur, c’est-à-dire que B⇥x+W ⇥x = x. En effet, W = I B. On a alors B ⇥ x + W ⇥ x = (B + W ) ⇥ x = I ⇥ x = x, – elles sont orthogonales, c’est-à-dire que W > B = 0. En effet, en utilisant la propriété de symétrie et par définition de W , on a : W > B = W ⇥ B = (I B) ⇥ B = B B ⇥ B = B B = 0.

12

Econométrie des données de panel avec R

Ces propriétés indiquent que W et B réalisent une décomposition orthogonale d’un vecteur x ; cela signifie qu’en multipliant x par chacune de ces matrices, on obtient deux vecteurs qui se somment à x (notion de décomposition) et dont le produit intérieur est nul (notion d’orthogonalité).

1.5

Les différentes formes d’hétérogénéité

On parle d’hétérogénéité lorsque les individus (et/ou les périodes) présentent des différences systématiques. Pour simplifier, nous ignorons pour l’instant l’hétérogénéité temporelle et nous raisonnons dans le cadre habituel du modèle linéaire simple. On a donc le modèle suivant : y =↵+ x+✏

3

y

4

5

6

7

L’hétérogénéité individuelle peut prendre différentes formes : – la moyenne de la variable explicative peut être différente d’un individu à un autre, – l’ordonnée à l’origine de la droite peut être différente d’un individu à un autre, – la pente de la droite peut être différente d’un individu à un autre. Ces trois cas sont d’une nature très différente et nécessitent l’utilisation de modèles spécifiques. Pour l’instant, nous allons illustrer graphiquement ces trois formes d’hétérogénéité.

● ● ● ●

2

● ●● ● ● ●●● ● ● ●● ●●

0

1



0

1

2

3

4

5

x

Fig. 1.2 – Absence d’hétérogénéité Sur la figure 1.2, on constate que la seule forme d’hétérogénéité entre les individus correspond à des niveaux moyens différents de la variable explicative, et donc de

Chapitre 1. Introduction

13

la variable expliquée. En revanche, l’ensemble des points semblent correctement alignés sur une même droite. Le modèle que l’on devra estimer peut donc s’écrire : ynt = ↵ + xnt + ✏nt

2

3

y

4

5

6

7

Autrement dit, on se ramène à un modèle linéaire standard, et la méthode d’estimation des moindres carrés ordinaires est appropriée.

● ● ● ● ●●●●● ● ● ●● ● ●● ●●

0

1



0

1

2

3

4

5

x

Fig. 1.3 – Hétérogénéité de niveau Sur la figure 1.3, on constate que les points correspondant à chaque individu semblent alignés sur des droites parallèles, c’est-à-dire des droites dont les pentes sont identiques, mais dont les ordonnées à l’origine sont propres à l’individu. Dans ce cas, le modèle à estimer peut s’écrire sous la forme : ynt = ↵ + xnt + ✏nt avec ✏nt = µn + ⌫nt et l’ordonnée à l’origine propre à l’individu n s’écrit : ↵ + µn . On est alors dans le cadre du modèle à erreurs composées qui fera l’objet d’un traitement détaillé dans les deux section suivantes. Sur la figure 1.4, on constate que les points correspondants à chaque individu sont alignés sur des droites différentes et non parallèles. Dans ce cas, le modèle à estimer s’écrit : ynt = ↵ +

n xnt

+ ✏nt avec ✏nt = µn + ⌫nt

Les points correspondant à l’individu n sont alors alignés sur une droite d’ordonnée à l’origine ↵+µn et de pente n . Le modèle approprié à ce cas est le modèle à coefficients variables et une estimation correcte de ce modèle nécessite une dimension temporelle suffisamment longue.

3

Y

4

5

6

7

Econométrie des données de panel avec R

● ● ● ●

2

● ●● ● ● ●●● ● ● ● ● ●●

1



0

14

0

1

2

3

4

5

X

Fig. 1.4 – Hétérogénéité de pentes

Chapitre 2

Le modèle à erreurs composées Le modèle à erreurs composées est pertinent lorsque les pentes, c’est-à-dire l’effet marginal des variables explicatives sur les variables expliquées sont les mêmes pour l’ensemble des individus, les ordonnées à l’origine étant a priori différentes. Il s’agit du modèle de référence de l’économétrie des données de panel et ce chapitre en présente les principaux résultats.

2.1 2.1.1

Notations et hypothèses Notations

Pour l’observation concernant l’individu n à la période t, le modèle à estimer s’écrit, en notant ynt la variable expliquée xnt le vecteur des K variables explicatives, ✏nt l’erreur du modèle, ↵ la constante et le vecteur de paramètres associé aux variables explicatives : ynt = ↵ + x> nt + ✏nt

(2.1)

Dans certains cas, il sera plus clair de rassembler la constante et les pentes dans le même vecteur de coefficients. En notant > = (↵, > ) le vecteur complet de > paramètres à estimer et znt = (1, xnt ) le vecteur de variables explicatives associés, le modèle à estimer se réécrit alors : > ynt = znt + ✏nt

(2.2)

Pour le modèle à erreurs composées, l’erreur est la somme de deux effets : – le premier, ⌘n est un effet spécifique à l’individu n, – le second, ⌫nt est l’effet résiduel appelé également l’effet idiosyncratique. ✏nt = ⌘n + ⌫nt

(2.3)

Pour l’ensemble de l’échantillon, on notera y le vecteur contenant les valeurs de la variable expliquée et X la matrice contenant les variables explicatives, en rangeant

16

Econométrie des données de panel avec R

les observations d’abord par individu, puis par période. Nous supposerons pour l’instant que le panel est cylindré, c’est-à-dire que chaque individu est observé le même nombre de fois. Dans ce cas, y est un vecteur de longueur N T et X une matrice de dimension N T ⇥ K. 0 1 0 1 1 x11 x211 . . . xK y11 11 B y12 C B x112 C x212 . . . xK 12 C B C B .. .. C B .. C B .. .. B . C B . . . . C B C B 1 C B y1T C B x1T x21T . . . xK C 1T C B C B 1 2 K C B y21 C B x21 x21 . . . x21 C B C B 1 B y22 C B x22 C x222 . . . xK 22 C B C B B .. C B .. .. . .. .. C C B C . . y=B B . C et X = B 1. C 2 K C B y2T C B x x . . . x 2T 2T C B C B 2T B . C B . .. .. C .. B .. C B .. . . . C B C B C 2 K B yN 1 C B x1 C B C B N 1 xN 1 . . . xN 1 C 2 K B yN 2 C B x1 C B C B N 2 xN 2 . . . xN 2 C B . C B . .. .. C .. @ .. A @ .. . . . A x1N T

yN T

x2N T

...

xK NT

En notant j un vecteur de 1 de longueur N T , on obtient : y = ↵j + X + ✏

Dans le cas où on souhaite rassembler l’ensemble des coefficients, on note (↵, > ) et Z = (j, X) et le modèle à estimer s’écrit :

(2.4) >

=

(2.5)

y =Z +✏

✏ est la somme d’un vecteur ⌫ de longueur N T contenant la composante idiosyncratique du terme d’erreur et de l’effet individuel de longueur N dont chaque élément est répété T fois. On peut l’exprimer sous la forme matricielle suivante : ✏ = (IN ⌦ jT )⌘ + ⌫

(2.6)

y=↵ ˆ j + X ˆ + ✏ˆ

(2.7)

y = Z ˆ + ✏ˆ

(2.8)

Un modèle estimé sera caractérisé par des paramètre estimés ˆ > = (ˆ ↵, ˆ> ) et par un vecteur de résidus ✏ˆ.

La soustraction membre à membre de (2.5) et (2.8) permet d’écrire les résidus d’un modèle en fonction des erreurs : ✏ˆ = ✏

Z(ˆ

)

(2.9)

Chapitre 2. Modèle à erreurs composées

17

Pour obtenir une expression similaire en fonction de X et de , on utilise (2.4) et (2.7) : ✏ˆ = ✏

(ˆ ↵

↵)j

X( ˆ

)

La moyenne de cette expression est, en notant ¯j = j/O : ¯j > ✏ˆ = ¯j>✏

(ˆ ↵

↵)j

¯j > X( ˆ

)

¯>

Dans un modèle linéaire avec constante, j ✏ˆ, qui est la moyenne des résidus est nul. En combinant les deux expressions précédentes, on obtient : ⇣ ⌘ ¯ ✏ X( ˆ ✏ˆ = (I J) ) (2.10)

avec J¯ = jj > /O. Les expressions (2.9 et 2.10) seront utilisées tout au long de ce chapître pour analyser les propriétés des estimateurs.

2.1.2

Hypothèses sur les termes d’erreur

On fait les hypothèses suivantes concernant les termes d’erreurs : – Les espérances mathématiques des deux termes d’erreurs sont supposées être nulles ; elles ne peuvent de toute façon pas être identifiées s’il y a une constante dans le modèle, – les effets individuels ⌘n sont homoscédastiques et non corrélés entre eux, – la composante idiosyncratique du terme d’erreur ⌫nt est également homoscédastique et non auto-corrélée, – il n’y a pas de corrélation entre les deux composantes du terme d’erreur. Dans ce cas, la matrice de covariance des erreurs est caractérisée uniquement par les variances des deux composantes du terme d’erreur, c’est-à-dire par les deux paramètres ⌫2 et ⌘2 . On peut alors calculer les variances et les covariances des termes d’erreur : – la variance d’un terme d’erreur s’écrit : E(✏2nt ) = ⌘2 + ⌫2 , – la covariance entre deux termes d’erreur pour le même individu (mais pour des périodes différentes) s’écrit : E(✏nt ✏ns ) = ⌘2 , – la covariance entre deux termes d’erreur pour deux individus différents est nulle, mêmes s’ils sont contemporains : E(✏nt ✏mt ) = E(✏nt ✏ms ) = 0. Pour un individu donné n, la matrice de covariance du vecteur d’erreurs de l’individu n ✏> n = (✏n1 , ✏n2 , . . . , ✏nt ) s’écrit : ⌦nn = E(✏n ✏> n) =

2 ⌫ IT

+

2 ⌘ JT

(2.11)

où JT = jT jT> est une matrice carré de 1. Concernant le vecteur d’erreurs pour > > l’ensemble de l’échantillon ✏> = (✏> 1 , ✏2 , . . . , ✏N ), la covariance est une matrice carré de dimension N T constituée de sous-matrices de type E(✏n ✏m ). Pour n = m, l’expression de cette sous-matrice est donnée par (2.11), pour n 6= m, compte tenu

18

Econométrie des données de panel avec R

des hypothèses de non-corrélation des deux composantes du terme d’erreur, elle est constituée uniquement de 0. La matrice de variance-covariance des erreurs ⌦ est donc une matrice bloc-diagonale, constituée de N blocs identiques donnés par (2.11) qui peut être exprimée sous la forme d’un produit de Kronecker. ⌦ = IN ⌦

2 ⌫ IT

2 ⌘ JT

+

=

2 ⌫ IN T

+

2 ⌘ (IN

⌦ JT )

This matrix can also usefully expressed in terms of the two transformation matrices within and between described in the chapter 1. In fact, B = T1 IN ⌦ JT and W = I B ; and introducing these two matrices in the expression of ⌦, we get : ⌦=

2 ⌫ (B

+ W) + T

2 ⌘B

2 ⌫ )B

2 ⌫W

Soit finalement : ⌦=

2 ⌫W

+ (T

2 ⌘

+

=

+

2 ◆B

(2.12)

Enfin, nous supposerons tout au long de ce chapître que les deux composantes du terme d’erreur sont non-corrélées avec les différentes variables explicatives :E(⌘ | x) = E(⌫ | x) = 0.

2.2

Estimateurs des moindres carrés ordinaires

Dans le chapitre 1, nous avons montré que la variabilité dans un panel peut être décomposée en deux : – la variabilité between ou inter-individuelle qui correspond à la variabilité des variables du panel mesurées en moyenne individuelle, soit z¯n ou sous forme matricielle Bz. – la variabilité within ou intra-individuelle qui correspond à la variabilité des variables du panel mesurées en écart par rapport à la moyenne individuelle, soit znt z¯n ou sous forme matricielle W z = z Bz, Trois estimations par les moindres carrés ordinaires sont donc envisageables : la première sur les données non-transformées, la seconde sur les données transformées en moyennes individuelles (modèle between) et la troisième sur les données transformées en écarts par rapport à la moyenne individuelle (modèle within).

2.2.1

Estimateur des moindres carrés ordinaires sur les variables non transformées

Le modèle à estimer s’écrit y = ↵j + X ✏ = Z + ✏. En utilisant la seconde formulation, la somme des carrés des résidus s’écrit : (y >

>

Z > )(y

Z )

et les conditions de premier ordre pour un minimum sont :

Chapitre 2. Modèle à erreurs composées

Z > ✏ˆ = 0

19

(2.13)

On rappelle que la première colonne de Z est un vecteur de 1, associé à ↵, le premier élément P de P . La première de ces conditions de premier ordre implique donc que ✏¯ ˆ = n t ✏ˆnt /(N ⇥ T ) = 0 ou encore que : y¯ = ↵ ˆ+x ¯> ˆ

(2.14)

On retrouve ici le résultat bien connu que la droite de régression des moindres carrés ordinaires passe nécessairement par le centre du nuage de points, c’est-àdire par le pointPde P coordonnées (¯ x, y¯). Les K autres conditions de premier ordre impliquent que n t ✏ˆnt xknt = 0, soit encore, le résidu moyen ✏¯ˆ étant nul : XX (ˆ ✏nt ✏¯ ˆ)(xknt x ¯k )/(N ⇥ T ) = 0 (2.15) n

t

ce qui signifie que les covariances empiriques entre les résidus et les différentes variables explicatives sont nulles sur l’échantillon. En résolvant (2.13), on obtient l’estimateur des moindres carrés ordinaires du vecteur étendu des coefficients : ˆmco = (Z > Z)

1

Z >y

(2.16)

En remplaçant y par Z + ✏ dans (2.16), on obtient : = (Z > Z)

ˆmco

1

Z >✏

(2.17)

Pour obtenir l’estimateur restreint aux coefficients associés aux variables explicatives, on décompose Z en (j, X) et ˆ > en (↵ ˆ , ˆ> ) : ✓

↵ ˆ ˆ



=



O X >j

j>X X >X



1



j>y X >y



En appliquant la formule de l’inversion d’une matrice partitionnée, on obtient : ✓ ◆ 1 1/O + j > XF X > j/O2 j > XF/0 > Z Z = F X > j/O F 1 ¯ avec F = X > (I J)X . J¯ = jj > /O est une matrice carré de dimension O ¯ renvoie un vecteur de longueur O dont tous les éléments sont égaux à 1/O. Jz dont tous les éléments contiennent la moyenne z¯. On vérifie aisément que cette matrice est idempotente. On obtient alors :

ˆ = X > (I

¯ > J)X

1

X > (I

¯ J)y

(2.18)

c’est-à-dire une formule similaire à (2.16), mais avec des variables prémultipliées ¯ cette transformation ayant pour effet d’enlever à chaque variable sa par I J, moyenne. Concernant la constante estimée ↵ ˆ , on retrouve l’expression (2.14). Afin

20

Econométrie des données de panel avec R

d’analyser les caractéristiques de l’estimateur des mco, on remplace dans (2.18) y par ↵j + X + ✏ : ˆ=

+ X > (I

¯ > J)X

1

¯ J)✏

X > (I

¯ L’estimateur est donc sans biais (E( ˆ) = ) si E X > (I J)✏ = 0 c’est-à-dire si les covariances théoriques entre chaque variable explicative xk et ✏ sont toutes nulles. Ce résultat est à rapprocher de l’expression (2.18) qui indique que l’estimateur des mco est déterminé de telle manière que les covariances empiriques entre les résidus ✏ˆ et les variables explicatives sont nulles. L’estimateur est convergent si plim ˆ = . Cette expression s’écrit : plim ˆ =

+ plim



1 T X > (I N

¯ J)X



1

plim

1 T X > (I N

¯ J)✏

L’estimateur est donc convergent si la matrice de covariance des variable explicative est définie et si la covariance entre les variances explicatives et les erreurs du modèle sont nulle. La variance de l’estimateur des mco est donnée par : V (ˆmco ) = E (ˆmco

)(ˆmco

)> = (Z > Z)

1

Z > ⌦Z(Z > Z)

1

(2.19)

Notons que pour le modèle à erreur composées, la matrice de variance des erreurs du modèle ⌦ ne se réduit pas à un multiple de la matrice identité du fait de la corrélation générée par les effets individuels. Par conséquent, la variance de l’estimateur des mco ne se réduit pas à V (ˆmco ) = 2 (Z > Z) 1 et l’utilisation de cette expression pour construire des statistiques de test conduirait à une inférence biaisée. En conclusion, l’estimateur des mco, même s’il est non-biaisé et convergent présente deux limites : – la première est que l’estimation de la variance utilisée habituellement dans le cadre de l’estimation des mco n’est pas adaptée et doit être remplacée par une expression plus complexe, – la seconde est que, dans ce contexte, le modèle des mco n’est pas le meilleur estimateur linéaire non-biaisé, ce qui signifie qu’il existe d’autres estimateurs linéaires non-biaisés plus efficaces.

2.2.2

L’estimateur between

L’estimateur between est l’estimateur des mco appliqué au modèle pré-multiplié par B, c’est-à-dire transformé en moyennes individuelles. By = BZ + B✏ = ↵j + BX + B✏ Notons que les éléments du modèle qui ne présentent pas de variation intraindividuelle ne sont pas affectés par cette transformation : il s’agit de la colonne de 1 associée à la constante, de la matrice (IN ⌦ jT ) associée aux effets individuels

Chapitre 2. Modèle à erreurs composées

21

et également aux éventuelles variables explicatives ne présentant aucune variation intra-inviduelle (le genre dans un échantillon d’individus par exemple). Notons également que les N ⇥ T observations de ce modèle sont en fait constituées de N observations de moyennes individuelles répétées T fois. En utilisant, comme dans le cas de l’estimateur des mco, la formule de l’inverse d’une matrice partitionée, l’estimateur between s’écrit : ˆb = X > (B

1

¯ > J)X

X > (B

¯ J)y

(2.20)

La variance de ˆ est obtenue en remplaçant y par ↵j + X + ✏ : ˆb ⇣ ⌘ V ˆb = X > (B

= X > (B ¯ > J)X

1

1

¯ > J)X

X > (B

¯ J)⌦(B

X > (B

¯ J)✏

¯ J)X X > (B

¯ > J)X

1

¯ = 2 (B J). ¯ Par Or, l’expression d’⌦ donnée par (2.12) implique que (B J)⌦ ◆ conséquent, l’expression de la variance du modèle between se ramène à : ⇣ ⌘ ¯ > 1 V ˆb = ◆2 X > (B J)X (2.21)

Pour le vecteur de coefficients étendu à la constante ↵, l’estimateur between et sa variance s’écrivent : 1

ˆb = Z > BZ > V (ˆb ) =

2 ◆

Z > By

(2.22)

1

(2.23)

Z > BZ >

Pour estimer ◆2 , on part de la somme des carrés des résidus du modèle between estimé : qˆb = ✏ˆ> Bˆ ✏. Bˆ ✏= B

BZ(Z > BZ)

1

Z > B B✏ = M B✏

La matrice M est idempotente et sa trace est tr(M ) = tr(B) tr(IK+1 ) = N K 1. On a donc qˆb = ✏> BM M B✏ et E(ˆ qb ) = E(tr(✏> BM B✏)) = E(tr(BM B✏✏> )) = 2 tr(BM B⌦)) = ◆ tr(M ) L’estimateur sans biais de 2 est donc ˆ 2 = qˆb /(N K 1). Celle renvoyée par le logiciel est : qˆb /(O K 1) et la matrice de covariance des coefficients renvoyée doit donc être multipliée par (O K 1)/(N K 1).

2.2.3

L’estimateur within

L’estimateur within est obtenu en appliquant l’estimateur des mco au modèle prémultiplié par la matrice W . W y = W (↵j + X + ✏) = W X + W ⌫ La transformation within se traduit par une élimination du vecteur de 1 associé à la constante ainsi qu’à la matrice associée au vecteur d’effets individuels. Elle se traduit également par l’élimination des variables sans variation intra-individuelle.

22

Econométrie des données de panel avec R

L’application de l’estimateur des mco sur le modèle transformé abouti à l’estimateur within : 1

ˆw = X > W X > La variance de ˆw s’écrit : ⇣ ⌘ V ˆw = X > W X >

1

X >W y

X > W ⌦W X X > W X >

(2.24)

1

Or, W ⌦ = W ( ⌫ W + ◆ B) = ⌫ W . La transformation within introduit donc une corrélation entre les erreurs du modèle. L’expression de la variance du modèle within se ramène à : ⇣ ⌘ 1 V ˆw = ⌫2 X > W X > (2.25) et on retrouve donc, malgré cette corrélation, l’expression classique de la variance. Pour estimer ⌫2 , on utilise la somme des carrés des résidus du modèle within estimé : qˆw ✏ˆ> W ✏ˆ W ✏ˆ = W

W X(X > W X)

1

X >W W ✏ = M W ✏

La matrice M est idempotente et sa trace est tr(M ) = tr(W ) tr(IK ) = O N K. On a donc qˆw = ✏> W M M W ✏ et E(ˆ qw ) = E(tr(✏> W M W ✏)) = E(tr(W M W ✏✏> )) = 2 tr(W M W ⌦)) = ⌫ tr(M ). L’estimateur sans biais de ⌫2 est donc ˆ⌫2 = qˆw /(O N K), alors que celle renvoyée par le logiciel est : qˆw /(O K 1). La matrice de covariance des coefficients renvoyée doit donc être multipliée par (O K 1)/(O N K). Le modèle within est également appelé modèle à “effets fixes”, car il est équivalent à un modèle linéaire dans lequel les effets individuels sont estimés et donc considérés comme des paramètres fixes. Ce dernier modèle s’écrit : y = X + (IN ⌦ jT )⌘ + ⌫

où ⌘ est désormais un vecteur de paramètres à estimer, il y a donc au total N + K paramètres à estimer. L’estimation du modèle sous cette forme est possible si N n’est pas trop grand. En revanche, sur un panel micro de grande taille, elle devient rapidement impossible. L’équivalence entre les deux modèles peut être établie en utilisant le théorème de Frish-Waugh ou en utilisant la formule de l’inverse d’une matrice partitionnée. Le théorème de Frish-Waugh indique qu’il est équivalent d’estimer y en fonction d’un ensemble de variables explicatives X1 , X2 ou d’estimer les résidus d’estimation de y en fonction de X2 en fonction des résidus d’estimation de X1 en fonction de X2 . L’application du théorème de Frish-Waugh dans notre contexte consiste à régresser chaque variable par rapport à X2 = IN ⌦ jT et à récupèrer les résidus. Ici, pour chaque observation, le résidu s’écrit znt ⌘ˆn . Or, la condition de premier ordre de la minimisation de la somme des carrés des résidus est X2> ✏ˆ = 0. Or,

Chapitre 2. Modèle à erreurs composées

23

X2 étant ici une matrice qui sélectionne les individus, on obtient pour chaque individu : T X

(znt

⌘ˆn ) =

t=1

T X

znt

T ⌘ˆn = 0

t=1

Par conséquent, on a ⌘ˆn = z¯n. et les résidus d’estimation sont donc les écarts de la variable par rapport à sa moyenne individuelle. Par conséquent, d’après le théorème de Frish-Waugh, le modèle à effets fixe peut être estimé en appliquant l’estimateur des moindres carrés ordinaires aux variables transformées en écart par rapport à la moyenne individuelle, c’est-à-dire en estimant par les moindres carrés ordinaires W y en fonction de W X. La différence entre les deux estimations est que, dans le second cas, les effets individuels ne sont pas directement estimés. On peut malgré tout les récupérer ˆ aisément car y¯n. = ↵ ˆn + x ¯> n. . On a donc : ˆ x ¯> n.

↵ ˆ n = y¯n.

Dans le cas où on souhaite définir les effets individuels comme étant de moyenne nulle dans l’échantillon, on définit la constante générale ↵ ˆ = y¯ x ¯> ˆ et on obtient ¯ )> ˆ pour chaque individu de l’échantillon ⌘ˆn = ↵ ˆn ↵ ˆ = (¯ yn. y¯) (¯ xn. x

2.3

L’estimateur des moindres carrés généralisés

2.3.1

Présentation de l’estimateur des mcg

Dans le cas où les erreurs sont non corrélées avec les variables explicatives mais sont caractérisées par une matrice de covariance qui n’est pas un multiple de la matrice identité, l’estimateur adapté est celui des moindres carrés généralisés. Cet estimateur s’écrit : ˆgls = Z > ⌦

1

1

Z

Z >⌦

1

(2.26)

y

Afin de calculer la variance de ˆmcg , on remplace comme précédemment y par Z + ✏. On obtient alors : ˆmcg

= Z >⌦

1

Z

1

Z >⌦

1



En utilisant un raisonnement similaire à (2.19), on obtient la variance de l’estimateur : V (ˆgls )

= =

X >⌦ X >⌦

1

X 1 X

1 1

X >⌦

1

E ✏✏> ⌦

1

X X >⌦

1

X

1

(2.27)

Les hypothèses faites dans ce chapître concernant les termes d’erreur induisent que la matrice de covariance des erreurs ⌦ est donnée par (2.12), ( ⌫2 W + (T ⌘2 + ⌫2 )B)

24

Econométrie des données de panel avec R

qui ne dépend que de deux paramètres, les variances des deux composantes du terme d’erreur ( ⌫2 et ⌘2 ). Nous avons montré dans le chapître 1 que ces deux matrices sont idempotentes (B⇥B = 0 et W ⇥W = 0) et orthogonales (B⇥W = 0). L’expression des puissances de ⌦ est alors particulièrement simple : ⌦r = T

2 ⌘

+

2 r ⌫

2r ⌫ W

B+

(2.28)

que l’on peut aisément vérifier par exemple pour r = 2. Ce résultat est également valable pour r < 0 et r rationnel, on a ainsi : 1



=

T

2 ⌘

1 +

1

B+

2 ⌫



W

et l’estimateur des moindres carrés généralisés du modèle à erreurs composées et sa variance sont donc : ˆgls =



1

1





Z >W Z + 2

Z > BZ 2

V (ˆgls ) =



1



1



1

1





Z >W y + 2

>

Z WZ + 2

1

>

Z BZ 2







Z > By 2



(2.29)

1

(2.30)

Pour le vecteur de coefficients sans la constante, on obtient :

ˆgls =



1 2 ⌫

>

X WX +

ˆgls =

1 2 ◆



>

X (B 1 2 ⌫

¯ J)X

X >W X +

◆ 1 2 ◆

1



1 2 ⌫

1

>

X Wy +

X > (B

¯ J)X



2 ◆

>

X (B

¯ J)y



(2.31)

1

(2.32)

La dimension de la matrice ⌦ est donnée par la taille de l’échantillon. La formule matricielle (2.26) n’est donc pas praticable pour calculer l’estimateur lorsque la taille de l’échantillon est importante. En pratique, on détermine l’expression de la matrice C qui vérifie C > C = ⌦ 1 et on l’utilise pour transformer les différentes variables du modèle. En notant y ⇤ = Cy et Z ⇤ = CZ les variables transformées, l’estimation par les moindres carrés du modèle sur données transformées s’écrit : ˆ = (Z ⇤> Z ⇤ )

1

Z ⇤> y ⇤ = (Z > C > CZ)

1

Z > C > Cy = (Z > ⌦

1

Z)

1

Z >⌦

1

y

qui correspond bien à l’estimateur des mcg donné par (??). On obtient aisément l’expression de la matrice C en utilisant l’équation (2.28) : C=⌦

0.5

=q T

1 2 ⌘

B+ +



1 ⌫

W

Chapitre 2. Modèle à erreurs composées

25

L’estimateur des moindres carrés généralisés peut alors être obtenu en estimant par la méthode des moindres carrés ordinaires un modèle pour lequel toutes les variables (explicatives et expliquée) ont été transformées en les pré-multipliant par ⌦ 0.5 , ou plus simplement ⌫ ⌦ 0.5 . En notant ◆2 = T ⌘2 + ⌫2 et = ⌫◆ , cette transformation consiste en une combinaison linéaire des transformations between et within de la variable, les pondérations étant respectivement de et de 1. Par conséquent, la variable transformée s’écrit : x⇤nt = x ¯n. + (xnt

x ¯n. ) = xnt

(1

)¯ xn.

Pour estimer ce modèle, il faut connaître le paramètre de la transformation = p 2⌫ 2 , qui dépend des variances des deux composantes du terme d’erreur, ou T

⌘+ ⌫

plus précisément de leur rapport. En effet, on a : 1

=r

1+T

2.3.2



⌘ ⌫

(2.33)

⌘2

Estimation des variances des composantes du terme d’erreur

Ces paramètres étant en pratique inconnus, on utilise des estimations de ceux-ci basés sur les résidus d’un modèle convergent ; on parle alors de méthode d’estimation des moindres carrés généralisés réalisables (fgls pour feasible generalized least squares par la suite). Considérons les erreurs du modèle (✏nt ), leurs moyennes individuelles (¯ ✏n. ) et leurs écarts par rapport à la moyenne individuelle (✏nt ✏¯n. ). On a, par définition, V (✏nt ) = ⌫2 + ⌘2 . Concernant la moyenne individuelle, on obtient : ✏¯n. =

T T 1X 1X ✏nt = ⌘n + ⌫nt T t=1 T t=1

1 2 = 12 /T T ⌫ La variance de l’écart par rapport à la moyenne individuelle s’obtient plus facilement en isolant les termes en ✏nt : V (¯ ✏n. ) =

✏nt

✏¯n. = ✏nt

la somme contenant alors T V (✏nt Soit finalement :

2 ⌘

+

✓ T 1X ✏nt = 1 T t=1

1 T



✏nt

1X ✏st T s6=t

1 termes. La variance s’écrit alors :

✏¯n. ) =



1

1 T

◆2

2 ⌫

+

1 (T T2

1)

2 ⌫

26

Econométrie des données de panel avec R

V (✏nt

✏¯n. ) =

T

1 T

2 ⌫

Si les ✏ étaient observés, les estimateurs naturels des deux variances seraient alors : ˆ12 = T and ˆ⌫2

=

T T

1

P

PN

n=1

¯2n. n=1 ✏ N

PT

=T

(✏nt N

t=1

PN

n=1

✏¯n. )

PT

¯2n. t= 1 ✏

T =T

P

PT

N

2

T =

n=1

2 ◆

et

2 ⌫

✏> B✏ ✏> B✏ T = N N

(✏nt N (T 1) t=1

✏¯n. )

2

=

✏> W ✏ N (T 1)

c’est-à-dire des estimateurs basés sur les normes des erreurs transformées avec les opérateurs between et within. Les erreurs ne sont bien entendu pas observées, mais une estimation convergente des variances estimées peut être obtenue en remplaçant les erreurs par les résidus obtenus dans le cadre d’une estimation convergente du modèle. Parmi les nombreux estimateurs de ce type envisageables, le plus courament utilisé est celui de Swamy & Arora (1972). Il consiste à utiliser les résidus du modèle between pour estimer 2 ◆ : ˆ◆2 =

✏ˆ> Bˆ ✏ N K 1

et ceux du modèle within pour estimer ˆ⌫2 =

2 ⌫

:

✏ˆ> W ✏ˆ N (T 1) K

On peut ensuite obtenir l’estimation de la variance des effets individuels : ˆ⌘2 =

2.4

ˆ◆2

ˆ⌫2 T

Comparaison des estimateurs

Pour l’instant, on dispose de 4 estimateurs possibles du même modèle : le modèle between et le modèle within n’exploitent qu’une seule dimension de la variabilité de l’échantillon, alors que les moindres carrés ordinaires et les moindres carrés généralisés utilisent les deux. Notons tout d’abord que, si l’hypothèse d’absence de corrélation entre les erreurs et les variables explicatives est vérifiée, tous ces modèles sont non biaisés et convergents ; autrement dit, on peut s’attendre à ce qu’ils aboutissent à des estimations relativement similaires, en tous cas si l’échantillon est grand.

Chapitre 2. Modèle à erreurs composées

27

Nous commencerons par analyser les relations existant entre ces différents estimateurs, puis nous comparerons leurs variances.

2.4.1

Relations entre les estimateurs

On peut s’attendre à ce que les estimateurs des mco et des mcg donnent des résultats intermédiaires entre les estimateurs within et between dans la mesure où ils intègrent les deux sources de variabilité. A partir de l’équation (2.31), on peut écrire l’estimateur des moindres carrés généralisés sous la forme suivante : ˆmcg = X > W X +

2

X > (B

1

¯ J)X

X >W y +

2

X > (B

¯ J)y

En utilisant (2.20) et (2.24), on peut alors exprimer ˆmcg comme une moyenne pondérée des estimateurs within et between. ˆmcg = X > W X +

2

X > (B

¯ J)X

1



X > W X ˆw +

2

X > (B

¯ ˆb J)X



Il en est de même pour l’estimateur des moindres carrés ordinaires ˆmco qui correspond au précédent dans le cas particulier où = 1. ⇣ ⌘ ˆmco = X > W X + X > (B J) ¯ X 1 X > W X ˆw + X > (B J)X ¯ ˆb

Dans le cas de l’estimateur des mco, les pondérations sont très intuitives puisqu’il s’agit des parts de la variance observée intra et inter-individuelle. Dans le cas du modèle des mcg, les pondérations intègrent non seulement la part des variances des variables explicatives, mais également celle des variances des erreurs, via le paramètres . De manière générale (  1), ce modèle accorde moins de poids à la dimension between que le précédent et admet deux cas particuliers : – ! 0 ; cela signifie que ⌫ est “petit” par rapport à ⌘ . Dans ce cas, l’estimateur des mcg converge vers l’estimateur within, – ! 1 ; cela signifie que ⌫ est “grand” par rapport à ⌘ . Dans ce cas, l’estimateur des mcg converge vers l’estimateur des mco. La relation entre les différents estimateurs peut également être illustrée par le fait que l’estimateur des mcg peut être obtenu en empilant les deux transformations within et between du modèle : ✓ ◆ ✓ ◆ ✓ ◆ Wy WZ W✏ = + (2.34) By BZ B✏ La matrice de covariance des erreurs de ce modèle empilé est : ✓ 2 ◆ 0 ⌫W 2 0 ◆B

(2.35)

En appliquant les moindres carrés généralisés à 2.34, on retrouve l’expression de l’estimateur des mcg (equation 2.29).

28

Econométrie des données de panel avec R

2.4.2

Comparaison des variances

A partir de l’équation (2.32), on peut écrire la variance de l’estimateur des mcg sous la forme : ⇣ ⌘ 1 ¯ V ˆgls = ⌫2 X > W X + 2 X > BX (2.36)

La variance de l’estimateur within étant ⌫2 (X > W X) 1 , V( ˆw ) V( ˆmcg ) est nécessairement une matrice définie positive et l’estimateur des mcg est donc plus efficace que l’estimateur within. De même, l’équation (2.21) indique que la variance 1 ¯ de l’estimateur between peut s’écrire ⌫2 ( 2 X > BX) et donc V( ˆb ) V( ˆmcg ) est également une matrice définie positive.

2.5

Exemples d’application

La librairie plm fournit la fonction plm qui permet d’estimer les estimateurs décrits dans ce chapître.

2.5.1

Un exemple complet d’estimation avec

plm

Pour illustrer l’estimation des estimateurs précédemment présentés, nous utilisons les données LargeBanks de la librairie pder. Ces données concernent les coûts de production de 128 grandes banques américaines pour la période 1989-2000. cost est le coût total de production en logarithmes et assets le niveau de production en logarithmes. Nous souhaitons estimer une fonction de coût log-linéaire en utilisant le niveau de production comme unique variable. > data("LargeBanks", package = "pder") > LB > > > >

costbanks ercomp(banks.random)

30

Econométrie des données de panel avec R

Les résultats indiquent que la part de la variance due à la présence de l’effet individuel est d’environ un quart. Le paramètre appelé ✓ correspond à la part de la moyenne individuelle qui est retirée de chaque variable pour l’estimation du modèle mcg. Elle correspond ici à 56%. L’estimateur mcg est donc ici à peu près à mi-chemin entre l’estimateur mco (✓ = 0) et l’estimateur within (✓ = 1). Pour le modèle within, la méthode fixef permet d’extraire les effets individuels. Trois versions des effets individuels peuvent être obtenus selon l’argument type passé à la fonction : – level, la valeur par défaut, renvoie les ordonnées à l’origine, c’est-à-dire ↵ ˆ + ⌘ˆn , – dfirst renvoie les effets individuels en écarts par rapport au premier individu ; on a alors ↵ ˆ qui correspond à l’ordonnée à l’origine pour le premier individu, – dmean renvoie les effets indiviudels en écarts par rapport à la moyenne des effets individuels ; dans ce cas, ↵ ˆ est la moyenne des effets individuels. > head(fixef(banks.within)) 1 2 3 4 5 6 -0.4088325 -0.4814600 -0.4840704 -0.4333303 -0.4761411 -0.4434490 > head(fixef(banks.within, type = "dfirst")) 2 3 4 5 6 7 -0.07262754 -0.07523796 -0.02449779 -0.06730860 -0.03461650 -0.19118140 > head(fixef(banks.within, type = "dmean")) 1 2 3 0.061133962 -0.011493577 -0.014104000

4 5 0.036636176 -0.006174642

6 0.026517461

On montre ci-dessous l’équivalence entre le modèle within et l’estimation par les mco avec des variables indicatrices des banques. A cet effet, on introduit la variable id dans l’estimation car il s’agit de l’index individuel. Le comportement de lm est alors d’estimer une constante et d’enlever la première modalité de la variable explicative id. Les effets individuels estimés sont alors similaires à ceux obtenus en utilisant fixef avec l’argument type ixé à "dfirst". > banks.within Model Formula: cost ~ assets Coefficients: assets 1.0411

Chapitre 2. Modèle à erreurs composées

31

> head(coef(lm(cost ~ assets + factor(id), LB))) (Intercept) -0.40883248

assets factor(id)2 factor(id)3 factor(id)4 factor(id)5 1.04112845 -0.07262754 -0.07523796 -0.02449779 -0.06730860

La commande ci-dessous permet d’extraire le coefficient associé à la production pour les quatre modèles : > sapply(list(pooling = banks.pooling, within = banks.within, + between = banks.between, random = banks.random), + function(x) coef(x)[["assets"]]) pooling within between random 1.0063604 1.0411285 0.9816273 1.0285650

Les quatre modèles concluent à un coefficient très proche de 1, ce qui correspond à l’hypothèse de rendements constants. On constate également que les estimateurs mco et mcg sont bien intermédiaires entre les estimateurs within et between et que l’estimateur mcg est plus proche de l’estimateur within que l’estimateur mco. Pour retrouver formellement le résultat obtenu précédemment, on calcule tout d’abord les parts des variances intra et inter-individuelles de la varianble explicative assets. > > > > >

SxxW > >

T models sapply(models, function(x) coef(plm(imports ~ gnp, FT, model = x))["gnp"]) within.gnp pooling.gnp 0.90236420 0.06366400

random.gnp between.gnp 0.76815599 0.04870833

On constate que, pour ce modèle la variance de la variable explicative et de l’erreur est quasi exclusivement due à la variation inter-individuelle (respectivement 98 et 93%). Dans ce cas, le modèle des mcg consiste à enlever 94% de la moyenne individuelle et est donc quasiment identique au modèle within. Quand au modèle des mco qui prend en compte toute la variation inter-individuelle, il est très proche du modèle between. Enfin, les deux premiers modèles donnent des résultats très différents des deux suivants et sont caractérisés par une élasticité beaucoup plus importante. On constate sur le graphique 2.1 qu’il y a une corrélation négative très forte entre les effets individuels et la variable explicative. Dans ce cas, les estimateurs qui intègrent l’effet individuel souffrent d’un biais vers le bas. C’est le cas pour les mco et pour le modèle between, beaucoup moins pour l’estimateur des mcg qui, on l’a vu, n’intègre qu’une part infime de la variation inter-individuelle.



−5 ●

−6

● ●● ● ● ●●● ● ● ● ●● ● ● ●● ● ●● ● ● ●



● ●

−7

−8

● ●

−9



−6

−4

−2

0

Fig. 2.1 – Importations en fonction du produit intérieur pour les données ForeignTrade

Les données TurkishBanks ont été utilisées par El-Gamal & Inanoglu (2005) afin d’analyser les coûts de production des banques. On estime le coût en fonction de la production, les deux variables étant en logarithmes. En appliquant les mêmes calculs que pour l’exemple précédent, on obtient : > data("TurkishBanks", package = "pder") > TurkishBanks TB summary(log(TB$output)) total sum of squares : 2691.819 id time 0.84730373 0.01255259 > ercomp(log(cost) ~ log(output), TB) bon

var std.dev share idiosyncratic 0.3291 0.5737 0.604 individual 0.2156 0.4643 0.396 theta : Min. 1st Qu. Median Mean 3rd Qu. 0.6192 0.6509 0.6509 0.6474 0.6509

Max. 0.6509

> sapply(models, function(x) + coef(plm(log(cost) ~ log(output), TB, model = x))["log(output)"]) bon within.log(output) pooling.log(output) 0.5063813 0.8006578

random.log(output) between.log(output) 0.6470472 0.8531416

La variation de la variable explicative est principalemet inter-individuelle (85%), en revanche, pour l’erreur, le partage de la variance est assez équivalent entre la part de l’effet individuel (40%) et celle de l’effet idiosyncratique (60%). On a par conséquent de nouveaux deux estimateurs mco et between très proches. L’estimateur des mcg est au centre de l’intervalle constitué par les estimateurs mco et between car la transformation réalisée consiste à enlever environ 65% de la moyenne. La figure 2.2 semble indiquer que les effets individuels sont corrélés négativement avec la variable explicative et que par conséquent les estimateurs between, des mco et dans une moindre mesure celui des mcg sont biaisés vers le bas. Les données TexasElectr , utilisées par Kumbhakar (1996) et Horrace & Schmidt (1996), permettent d’analyser le coût de production d’entreprises de production d’électricité au Texas. On commence par définir le coût comme la somme des dépenses en travail (explab), en capital (expcap) et en carburant (expfuel). On réalise ensuite les mêmes calculs que précédemment. > > > >

data("TexasElectr", package = "pder") TexasElectr$cost sapply(models, function(x) + coef(plm(log(cost) ~ log(output), TE, model = x))["log(output)"])

within.log(output) pooling.log(output) 2.6325286 1.1804164

random.log(output) between.log(output) 1.2259868 0.8688903

La variation de la variable explicative est principalement inter-individuelle (82%), en revanche, concernant les erreurs, la variance de la composante idiosyncratique est très largement dominante, ce qui implique qu’une part infime (8%) de la moyenne individuelle est enlevée dans le cadre de l’estimation par les mcg. On a donc deux estimateurs des mcg et des mco quasiment égaux. L’estimateur within est de nouveau très supérieur du fait de la corrélation négative apparente entre les effets individuels et la variable explicative.

36

Econométrie des données de panel avec R

14

13 ●

12

11





● ●● ●



10

7.5

8.0

8.5

9.0

9.5

10.0

Fig. 2.3 – Coût en fonction de l’output pour les données TexasElectr

Le dernier jeu de donnée est DemocracyIncome25 utilisé par Acemoglu, Johnson, Robinson & Yared (2008). Les données concernent 25 pays et 7 observations de 25 ans pour la période 1850 à 2000. Les auteurs analysent la relation causale dynamique entre le niveau de richesse d’un pays et le degré de démocratie. Leur analyse sera reproduite en détail dans le chapître 7. Dans l’immédiat, nous analyserons simplement la relation entre le niveau de démocratie et le revenu retardé d’une période. > data("DemocracyIncome25", package = "pder") > DI summary(lag(DI$income))

total sum of squares : 135.0166 id time 0.4297745 0.4890893

> ercomp(democracy ~ lag(income), DI)

var std.dev share idiosyncratic 0.05585 0.23632 0.789 individual 0.01494 0.12222 0.211 theta: 0.4099

> sapply(models, function(x) + coef(plm(democracy ~ lag(income), DI, model = x))["lag(income)"])

Chapitre 2. Modèle à erreurs composées within.lag(income) pooling.lag(income) 0.1869989 0.2309095

37

random.lag(income) between.lag(income) 0.2100902 0.2891701

Pour ce jeu de données, la part inter-individuelle de la variation de la variable explicative et de l’erreur est plutôt faible (43 et 21%). La part de la moyenne retirée dans le cas de l’estimateur des mcg est de 41%. Enfin, la figure ?? montre qu’il n’y a pas de corrélation évidente entre les effets individuels et la variable explicative, ce qui a pour conséquence que les 4 estimateurs sont proches les uns des autres.

1.0



● ●

0.8







0.6 ●

0.4 ●









0.2 ●●

1.9

2.0

2.1

2.2

Fig. 2.4 – Démocratie en fonction du revenu retardé pour les données DemocracyIncome25

2.6

Simulation des propriétés des estimateurs

Les propriétés des estimateurs sont souvent difficiles, voir impossible à établir analytiquement. Dans ce cas, il est intéressant d’avoir une approche par simulation (approche dite “de Monte-Carlo”). Cette approche comporte plusieurs étapes : – on commence par définir parfaitement la manière dont les échantillons sont générés, – on créé ensuite un grand nombre d’échantillons à l’aide d’un générateur de nombres aléatoires, – on calcule pour chaque échantillon une statistique, – on s’intéresse à la distribution de cette statistique (sa moyenne par exemple). La fonction ci-dessous permet de générer un échantillon avec N individus et T périodes, pour des écarts-types des deux composantes du terme d’erreur donnés,

38

Econométrie des données de panel avec R

pour des paramètres de la droite donnés et pour un vecteur de variable explicative donné. > simpanel > >

set.seed(4) T Be – Egaliser les deux et résoudre le système de deux équations en fonction de ⌫2 et 2 ⌘. Wallace et Hussain Les deux formes quadratiques sont calculées à partir des résidus des moindres carrés ordinaires, pour lesquels on a : eo = I 1. voir Baltagi & Chang (1994).

X(X > X)

1

X >✏

46

Econométrie des données de panel avec R

Pour la première forme quadratique, qui utilise la matrice within, on obtient, en espérance : E(ˆ qw ) = tr

I

X(X > X)

1

X> W I

X(X > X)

1

X> ⌦

Soit : E(ˆ qw )

= +

2 n N tr (X > W X)(X > X) 1 ⌫ > > 1 > > tr (X U X)(X X) (X W X)(X X)

Que l’on peut également réécrire, en remplaçant W par I E(ˆ qw )

= +

1

2 ⌘

B:

2 n N K 1 + tr (X > BX)(X > X) 1 ⌫ > > 1 > > tr (X U X)(X X) tr (X U X)(X X)

1

(X > BX)(X > X)

1

2 ⌘

Pour la seconde forme quadratique, qui utilise la matrice between, l’espérance est : E(ˆ qb ) = tr

I

X(X > X)

1

X> B I

X(X > X)

1

X> ⌦

Soit encore : E(ˆ qb )

= +

2 N tr (X > X) 1 (X > BX) ⌫ > > 1 > n + tr (X U X)(X X) (X BX)(X > X)

2tr (X > U X)(X > X)

1

Swamy et Arrora Ici, qˆw est calculé à partir des résidus within et qˆb à partir des résidus between. Les deux matrices de trnansformation sont : ew = W eb = B

W X > (X > W X) BX > (X > BX)

1

1

X > W ✏ = Aw ✏

X > B ✏ = Ab ✏

qˆw est calculé à partir des résidus within. On a alors : > qˆw = ✏> A> W w W Aw ✏ = ✏

W X(X > W X)

1

X >W ✏

et donc : E(ˆ qw ) = (n

N

K)

2 ⌫

qˆb est calculé à partir des résidus between. On a alors : > qˆb = ✏> A> B B BAB ✏ = ✏

et

BX(X > BX)

1

X >B ✏

1

Chapitre 3. Le modèle à erreurs composées : extensions

E(ˆ qb ) = (N

K

2 ⌫

1)

tr (X > BX)

+ n

1

(X > U X)

47

2 ⌘

Le calcul des estimateur des variances est donc ici particulièrement simple puisque ˆ⌫2 peut être obtenu à partir de la première condition et introduit dans la seconde afin de calculer ˆ⌘2 . Amemyia Pour cet estimateur, on calcule les résidus d’estimation non transformés en utilisant l’estimateur within : X ˆw

ea = y avec ↵ ˆ = y¯ On a donc :

↵ ˆ

¯ ˆw . X y¯)

ea = (y

¯ ˆw X)

(X

(3.1)

De plus, la relation entre ˆw et ✏ est donné par : ˆw

= (X > W X)

1

X >✏

(3.2)

Pour le “vrai” modèle, on a : ✏=y

X



¯ X



La moyenne pour l’échantillon donne : ✏¯ = y¯

Soit finalement, pour le “vrai” modèle en écart par rapport à la moyenne : ✏

✏¯ = (y

y¯)

(X

¯ X)

(3.3)

En soustrayant membre à membre (3.1) et (3.3), on obtient : ew

✏ + ✏¯ =

(X

¯ ˆw X)(

)

Soit encore en utilisant 3.2 : ew = ✏ + ✏¯

(X

> ¯ X)(X W X)

1

X >✏

En notant J¯n la matrice dont tous les termes sont égaux à 1/n, on obtient finalement l’expression de la matrice Aa qui transforme les erreurs du modèles en les résidus d’Amemyia : Aa = (I

J¯n ) I

X(X > W X)

1

X >W

48

Econométrie des données de panel avec R

> > On a qˆw = e> ˆb = e> a W ea = ✏Aa W Aa ✏ et q a Bea = ✏Aa BAa ✏. > Comme W U = 0, tr(W ) = n N , tr(W X(X W X) 1 W > W ) = K l’espérance de la première forme quadratique s’écrit simplement :

E(ˆ qw ) = (n

N

K)

2 ⌫

Pour E(ˆ qb ), notons que les matrices ayant aux extrémités B ou J¯n d’un côté et W de l’autre ont une trace nulle. On a donc : E(ˆ qb ) = tr(B

J¯n ) + tr W X(X > W X)

1

(B

J¯n )X(X > W X)

1

X >W

2 ⌫+

(B

J¯n )U

Soit finalement :

E(ˆ qb ) = (N 1+tr (X > W X)

1

(X > BX)

tr (X > W X)

1

(X > J¯n X)

2 ⌫+

n

X n

3.3.1

Application

Pour illustrer l’estimation d’un panel non cylindré, nous utilisons les données Tileries qui concernent la production de carreaux en Egypte ; 25 entreprises sont observées, le nombre d’observations variant entre 12 et 22. > data("Tileries", package = "pder") > head(Tileries, 3)

1 2 3

id week area output labor machine 2 1 fayoum 5.650487 4.532599 4.663439 2 2 fayoum 6.522328 5.347108 4.234107 2 3 fayoum 6.302619 4.969813 4.234107

> pdim(Tileries) Unbalanced Panel: n=25, T=12-22, N=483

On estime une fonction de production Cobb-Douglass en spécifiant une équation log-linéaire reliant la production (output) au travail (labor) et aux machines (machine). > tile.r summary(tile.r)

T n2 /N

Chapitre 3. Le modèle à erreurs composées : extensions

49

Oneway (individual) effect Random Effect Model (Swamy-Arora’s transformation) Call: plm(formula = log(output) ~ log(labor) + log(machine), data = Tileries, model = "random") Unbalanced Panel: n=25, T=12-22, N=483 Effects:

var std.dev share idiosyncratic 0.0026396 0.0513772 0.808 individual 0.0006269 0.0250375 0.192 theta : Min. 1st Qu. Median Mean 3rd Qu. 0.4903 0.5741 0.5830 0.5785 0.5913

Max. 0.5992

Residuals : Min. 1st Qu. -0.187000 -0.027300

3rd Qu. 0.033400

Median 0.003070

Mean 0.000007

Max. 0.227000

Coefficients : Estimate Std. Error t-value Pr(>|t|) (Intercept) 0.278203 0.060791 4.5764 6.032e-06 *** log(labor) 0.908630 0.030048 30.2390 < 2.2e-16 *** log(machine) 0.023965 0.027062 0.8856 0.3763 --Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 Total Sum of Squares: 4.8402 Residual Sum of Squares: 1.2969 R-Squared : 0.73206 Adj. R-Squared : 0.72751 F-statistic: 655.722 on 2 and 480 DF, p-value: < 2.22e-16

Le paramètre de transformation est donc désormais spécifique à l’individu, ou plus exactement au nombre d’observations disponibles pour chaque individu. On constate ici que ✓ est compris entre 0.49 et 0.60.

3.4

L’estimateur du maximum de vraisemblance

Une alternative à l’estimateur des moindres carrés généralisés est l’estimateur du maximum de vraisemblance. Contrairement au précédent, les paramètres ne sont pas estimés de manière séquentielle (d’abord , puis ), mais simultanément. Afin d’écrire la vraisemblance du modèle, la distribution des erreurs doit être parfaitement définie ; par rapport au modèle précédent, on ajoutera donc l’hypothèse de distribution normale pour les deux composantes du terme d’erreur, l’effet individuel ⌘ et l’effet idiosyncratique ⌫. La vraisemblance est la densité jointe pour l’ensemble de l’échantillon, qui correspond au produit des densité individuelle dans le cas où les différentes observations ne sont pas corrélées. Ce n’est pas le cas ici,

50

Econométrie des données de panel avec R

plus précisément, les Tn observations correspondant à l’individu n sont corrélées du fait de la présence de l’effet individuel. Le modèle à estimer s’écrit : >

ynt = avec ⌘n ⇠ N (0, ⌘ ) and ⌫nt ⇠ N (0, ⌘n , la densité pour ynt s’écrit :

xn + ⌘n + ⌫nt Pour une valeur donnée de l’effet indiviudel

⌫ ).



◆2

>

ynt xnt ⌘n 1 1 2 ⌫ f (ynt | ⌘n ) = p e 2⇡ ⌫ Pour une valeur donnée de ⌘, la distribution de yn = yn1 , . . . , ynT est celle d’un vecteur de variables aléatoires indépendantes, la distribution jointe est donc simplement le produit des densités individuelles :

f (yn | ⌘n ) =



1 2⇡

2 ⌫

◆ T2n

e



⌘2

P Tn

1 2 2 ⌫

t=1

>

(ynt

xnt ⌘n )

2

La distribution non conditionnelle est obtenue en intégrant l’expression précédente par rapport à ⌘ ; cela revient à calculer une moyenne de la densité pour l’ensemble des valeurs possibles de ⌘ : 1

f (yn ) = q 2⇡

2 ⌘

Z

+1

f (yn | ⌘n )e

1

avec, en notant ✏nt = ynt A=

T X (✏nt t=1

A=

1 2 ⌫



>

⌘)2

1n



⌘2 2 ⌘

T ✏¯n.



⌘ ⌘

d⌘ = q 2⇡

= ⌘ 1n

2 ⌫

◆2

+

En notant z le premier terme, on a dz = ⌫ notant n = 1n : f (yn ) = Or : X t

✏2nt

Tn2 e¯2n.

2 ⌘ 2 1n

=

1 2⇡

X t

2 ⌫

◆ T2n

✏2nt

ne

Tn (1

>

2 1n 2 ⌘ 2 ⌘

1

2



1

xnt and ✏¯n = y¯n

+

2 ⌫

1 2

1 2 ⌫

2 ⌘



1 2⇡

2 ⌫

◆ T2n Z

X

✏nt

t

✏2nt

Tn2 ✏¯2n.

t

1n

1 2A

e

d⌘

1

xn :

2Tn ✏¯n. ⌘ + X

+1

2 ⌘ 2 1n

2

!

!

d⌘ et la densité jointe devient, en





1 2 2 ⌫



P

t

2 2 ✏n. n )¯

✏2nt Tn2 ✏¯2n.

=

X

2 ⌘ 2 1n

(✏nt

t

et la densité jointe pour un individu s’écrit donc finalement :



(1

✏n. ) n )¯

2

Chapitre 3. Le modèle à erreurs composées : extensions

f (yn ) =



1 2⇡

2 ⌫

◆ T2n

ne

1 2 2 ⌫

P

t (✏nt

(1

✏n. ) n )¯

51

2

La contribution de l’individu n à la fonction de log de vraisemblance est simplement le logarithme de cette densité jointe : Tn ln 2⇡ 2

ln Ln =

Tn ln 2

2 ⌫

+

1 ln 2

2 n

2

1 X 2 ⌫

(✏nt

(1

✏n. ) n )¯

2

t

Pour obtenir la fonction de log de vraisemblance, il ne reste qu’à sommer pour tous les individus :

ln L =

P

Tn

n

2

P

ln 2⇡

n

Tn

2

1 2 ⌫+

ln

2

X

ln

2 n

2

n

ou, plus simplement, si le panel est cylindré : ln L =

NT ln 2⇡ 2

NT ln 2

2 ⌫

+

N ln 2

2

2

Notons également que : XX n

(✏nt

(1

XX

2

)¯ ✏n. ) =

t

n

(✏nt

1 XX 2 ⌫

n

2

✏¯n. ) +

n

2

t

(1

✏n. ) n )¯

2

t

1 XX 2 ⌫

(✏nt

(✏nt

(1

)¯ ✏n. )

2

t

X

Tn ✏¯2n. = ✏> W ✏ +

2 >

✏ B✏

n

Les dérivées premières de la vraissemblance s’écrivent : @ ln L = @ @ ln L = @ ⌫2

2 ⇣ 2 ⌫



X ⇤ > y⇤

X ⇤>X ⇤

NT 1 + 4 ✏> W ✏ + 2 ⌫2 2 ⌫ @ ln L N ✏> B✏ = 2 2 @ 2 2 ⌫2

⌘ ⌘

2 >

✏ B✏

(3.4) (3.5) (3.6)

En résolvant 3.4, on obtient : ⇣ ⌘ ˆ = X ⇤>X ⇤

1

X ⇤ > y⇤

(3.7)

L’estimateur de ⌫2 est simplement obtenue en utilisant 3.5 comme la variance résiduelle du modèle estimé sur données transformées : ˆ⌫2 =

✏ˆ> W ✏ˆ + ˆ2 ✏ˆ> Bˆ ✏ NT

(3.8)

52

Econométrie des données de panel avec R

Enfin, le paramètre de transformation s’écrit, en utilisant (3.6) et (3.8) : ˆ2 =

✏ˆ> W ✏ˆ (T 1)ˆ ✏> Bˆ ✏

(3.9)

L’estimation peut être réalisée de manière itérative. Partant d’un estimateur de (par exemple celui du modèle within), on calcule ˆ2 en utilisant la formule donnée par 3.9. On transforme alors les données à l’aide de cet estimateur de 2 et on détermine une nouvelle estimation de en utilisant (3.7). On répète alors les opérations précédentes jusqu’à ce que les estimateurs de et de 2 convergent. On estime alors ⌫2 en utilisant (3.8). L’estimateur du maximum de vraisemblance est disponible dans la librairie pglm. La fonction pglm permet d’estimer un grand nombre de modèles de panel par la méthode du maximum de vraisemblance. On doit spécifier la distribution supposée des erreurs des modèles, ici normale en fixant l’argument family à "gaussian".

> library(pglm) > rice.ml summary(rice.ml)

-------------------------------------------Maximum Likelihood estimation Newton-Raphson maximisation, 6 iterations Return code 2: successive function values within tolerance limit Log-Likelihood: -460.4513 6 free parameters Estimates: Estimate Std. error t value Pr(> t) (Intercept) 5.312540 0.203771 26.0712 < 2.2e-16 *** log(seed) 0.219967 0.028330 7.7643 8.207e-15 *** log(totlabor) 0.285483 0.031047 9.1953 < 2.2e-16 *** log(size) 0.528012 0.032649 16.1725 < 2.2e-16 *** sd.mu 0.119040 0.017129 6.9496 3.663e-12 *** sd.eps 0.363663 0.008601 42.2816 < 2.2e-16 *** --Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 --------------------------------------------

On constate que les résultats sont très similaires à ceux obtenus avec les moindres carrés généralisés. Les deux paramètres appelés "sd.eps" et "sd.mu" sont les écarts-type estimés de la composante idiosyncratique de l’erreur et de l’effet individuel. Là aussi, les valeurs obtenues sont quasiment identiques à celles du modèle des moindres carrés généralisés.

Chapitre 3. Le modèle à erreurs composées : extensions

3.5 3.5.1

53

Système d’équations corrélées Introduction

Très souvent en économie, le phénomène à étudier n’est pas décrit par une équation, mais par un système d’équations. C’est en particulier le cas en micro-économie de la consommation ou de la production. Par exemple, le comportement d’un producteur sera caractérisé par une équation de coût, une équation de demande de travail et une équation de demande de capital. Il est dans ce cas préférable de considérer le système d’équations dans son intégralité pour deux raisons : – tout d’abord, les termes d’erreur des différentes équations peuvent être corrélés entre eux. Dans ce cas, même si l’estimation d’une équation isolée est convergente, elle est inefficace car elle ne prend pas en compte la corrélation des erreurs ; – ensuite, la théorie économique impose parfois des restrictions sur différents coefficients du système, par exemple l’égalité de deux coefficients appartenant à deux équations différentes du système. Dans ce cas, ces restrictions doivent être prises en compte en utilisant la méthode des moindres carrés contraints.

3.5.2

Les moindres carrés contraints

Les restrictions linéaires sur le vecteur de coefficients à estimer sont modélisés à l’aide d’une matrice de restrictions R et d’un vecteur numérique q : R =q Par exemple, si la somme des deux premiers coefficients doit être égale à 1 et que le premier et le troisième doivent être égaux, les restrictions s’écrivent : 0 1 ✓ ◆ ✓ ◆ 1 1 1 0 1 @ 2 A= 1 0 1 0 3

Pour calculer l’estimateur des mco contraints, on forme le lagrangien : L = e> e + 2

>

(R

q)

avec e = y X et le vecteur des multiplicateurs de Lagrange associées aux différentes contraintes 2 . En développant, on obtient : L = y> y

2

>

X >y +

>

X > X + 2 (R

q)

Les conditions de premier ordre s’écrivent : ⇢ @L = 2X > y 2X > X + 2R> = 0 @ @L = 2(R q) = 0 @ 2. Ces multiplicateurs de Lagrange sont multipliés par deux pour simplifier les conditions de premier ordre.

54

Econométrie des données de panel avec R

Soit encore, sous forme matricielle : ✓ > ◆✓ X X R> R 0



=



X >y q



L’estimateur des moindres carrés contraints s’obtient en utilisant la formule de l’inversion d’une matrice partitionnée. ✓

A11 A21

A12 A22



1

=



B11 B21

A21 A111 A12

avec F2 = A22



B12 B22 1

=



A111 (I + A12 F2 A21 A111 ) F2 A21 A111

et F1 = A11 1

1

A12 A221 A21

A111 A12 F2 F2



.

On a ici F2 = R(X X) R . L’estimateur contraint s’écrit alors : ˆc = > > B11 X y + B12 q, avec B11 = (X X) 1 I R> (R(X > X) 1 R> ) 1 R(X > X) 1 >

et B12 = (X > X)

1

1

>

R> R(X > X)

1

R>

1

L’estimateur non-contraint étant ˆnc = X > X ˆc = ˆnc

(X > X)

1

R> (R(X > X)

1

X > y, on obtient finalement :

1

R> )

1

(R ˆnc

q)

L’écart entre les estimateurs contraints et non-contraints est donc une combinaison linéaire du solde des contraintes linéaire du modèle évaluées pour le modèle contraint.

3.5.3

La prise en compte des corrélations inter-équations

On considère un système de L équations notées yl Sous forme matricielle, le système s’écrit : 0 1 0 10 y1 X1 0 . . . 0 B y2 C B 0 X 2 . . . 0 C B B C B CB B .. C = B .. .. .. C B .. @ . A @ . . . . A@ yL

0

0

...

XL

= Xl

1

l

+ ✏l , avec l = 1 . . . L.

1

0

C B C B .. C + B . A @ 2

L

La matrice de covariance des erreurs du système s’écrit : 0

B B ⌦ = E(✏✏> ) = E B @

✏1 ✏> 1 ✏2 ✏> 1 .. .

✏L ✏> 1

✏1 ✏> 2 ✏2 ✏> 2 .. .

✏L ✏> 2

... ... .. . ...

✏1 ✏> L ✏2 ✏> L .. .

✏L ✏> L

✏1 ✏2 .. . ✏L

1 C C C A

1 C C C A

On supposera que les erreurs d’un même individu pour deux équations l et m sont corrélées et que la covariance, notée lm , est constante. Dans ce cas, la matrice de

Chapitre 3. Le modèle à erreurs composées : extensions covariance s’écrit :

0

B B ⌦=B @

11 I

12 I

12 I

22 I

..

. 1L I

..

. 2L I

... ... .. . ...

1L I 2L I

..

.

LL I

55

1 C C C A

Soit encore, en notant ⌃ la matrice de covariance inter-équations : 0

11

B 12 B ⌃=B . @ ..

.

... ... .. .

2L

...

12 22

..

1L

1L

1

C C .. C . A 2L

LL

⌦=⌃⌦I Du fait de la corrélation inter-équations, l’estimateur efficace est celui des moindres 1 carrés généralisés, qui s’écrit : ˆ = X⌦ 1 X X > ⌦ 1 y. Cet estimateur, développé par Zellner (1962) est connu par l’acronyme sur pour seemingly unrelated regression. Il peut être obtenu en appliquant l’estimateur des moindres carrés ordinaires sur les données transformées en pré-multipliant chaque variable par la matrice ⌦ 0.5 . Du fait de la structure d’⌦, cette matrice s’écrit simplement : ⌦ 0.5 = ⌃ 0.5 ⌦I. En notant rlm les éléments de ⌃ 0.5 , la variable expliquée et les variables explicatives transformées sont : 0

B B y⇤ = B @

r11 y1 + r12 y2 + . . . + r1L yL r21 y1 + r22 y2 + . . . + r2L yL .. . rL1 y1 + rL2 y2 + . . . + rLL yL

1

0

C B C B C et X ⇤ = B A @

r11 X1 r21 X1 .. .

r12 X2 r22 X2 .. .

... ... .. .

r1L XL r2L XL .. .

rL1 X1

rL2 X2

...

rLL XL

Dans les faits, ⌃ est une matrice de paramètres inconnus. Ceux-ci peuvent être estimés en utilisant les résidus d’une estimation convergente, mais inefficace, comme celle des moindres carrés ordinaires. On obtient alors l’estimateur en suivant les étapes suivantes : – tout d’abord, on estime chaque équation séparément par les mco et on note E = (e1 , e2 , . . . , eL ) la matrice de dimension N ⇥ N dont chaque colonne est le vecteur de résidus d’une des équations du système, ˆ = E > E/N , – ensuite, on estime la matrice de covariance des erreurs : ⌃ 0.5 ˆ – on calcule la matrice ⌃ et on l’utilise pour transformer les variables du modèle y ⇤ et X ⇤ , – enfin, on estime le modèle par les moindres carrés sur les variables transformées.

1 C C C A

56

3.5.4

Econométrie des données de panel avec R

Données de panel

L’application du modèle sur aux données de panel ne pose pas de difficultés particulières dans le cas où seule la variation between ou within des données est prise en compte. Dans ce cas, il suffit simplement d’appliquer les formules précédentes en utilisant les variables en moyennes individuelles (between-sur) ou en écart par rapport aux moyennes individuelles (within-sur). La prise en compte des deux dimensions de la variabilité des données demande davantage d’attention et conduit au modèle sur à erreurs composées proposé par Avery (1977) et Baltagi (1980). Les erreurs du modèles présentent alors deux sources de corrélation : – la corrélation prise en compte dans le modèle sur, c’est-à-dire les corrélations inter-équations, – la corrélation prise en compte dans le modèle à erreurs composées, c’est-à-dire les corrélations intra-individuelles. Chaque observation est maintenant caractérisée par trois indices : zlnt représente l’observation de z pour la lième équation, le nième individu à la tième période. Les observations sont rangées d’abord par équation, puis par individu. En notant > > > ième équation et le nième ✏> ln = (✏ln1 , ✏ln2 , . . . , ✏lnT ) le vecteur d’erreurs pour la l individu, on obtient : E(✏ln ✏> mn ) = ⌫lm IT + ⌘lm JT L’absence de corrélation entre erreurs associées à des individus différents implique la matrice suivante de corrélation pour deux équations et pour l’ensemble des individus : E(✏l ✏> m ) = IN ⌦ ( ⌫lm IT + ⌘lm JT ) = ⌫lm IN T + ⌘lm IN ⌦ JT = ⌫lm (W + B) + T ⌘lm B = ⌫lm W + ( ⌫lm + T ⌘lm )B = ⌫lm W + 1lm B Finalement, pour l’ensemble du système d’équations, on obtient, en notant ⌃⌫ et ⌃1 les deux matrices de dimensions L ⇥ L contenant les paramètres ⌫lm et 1lm , la matrice de covariance des erreurs suivantes : ⌦ = ⌃⌫ ⌦ W + ⌃1 ⌦ B Le modèle sur à erreurs composées peut être obtenu en appliquant les moindres carrés ordinaires sur les données transformées en pré-multipliant chaque variable par ⌦ 0.5 . Cette matrice s’écrit : ⌦

0.5

= ⌃⌫ 0.5 ⌦ W + ⌃1 0.5 ⌦ B

(3.10)

et peut être estimée en utilisant les décompositions de Cholesky de ⌃⌫ 1 et de ⌃1 1 (voir Kinal & Lahiri, 1990). Les deux matrices de covariance des erreurs étant inconnues, l’estimateur sur à erreurs composées est obtenu en suivant les étapes suivantes :

Chapitre 3. Le modèle à erreurs composées : extensions

57

– tout d’abord, on estime chaque équation séparément en utilisant une méthode d’estimation convergente (les moindres carrés ordinaires par exemple) et on note W E la matrice des résidus en écart par rapport à la moyenne individuelle et BE la matrice des moyennes individuelles des résidus, – ensuite, on estime les matrices de covariance des erreurs. A cet effet, on peut étendre aux systèmes d’équations les méthodes d’estimations des variances utilisées dans le cas de l’estimation d’équations isolées. Par exemple, Baltagi (1980) a utilisé la méthode proposé par Amemiya (1971) alors qu’Avery (1977) a choisi celle de Swamy & Arora (1972). En notant E la matrice de résidus des moindres ˆ ⌫ = (W E)> (W E)/(N (T 1)) et ⌃ ˆ 1 = (BE)> (BE)/(N carrés ordinaires, on obtient : ⌃ 1), ˆ ⌫ 0.5 et ⌃ ˆ 0.5 et on obtient ainsi une estimation de ?? – on calcule les matrices ⌃ 1 qui est utilisée pour obtenir les variables transformées y ⇤ et X ⇤ , – enfin, on estime le modèle par les moindres carrés sur les variables transformées.

3.5.5

Application

Une application classique du modèle sur est l’analyse des coûts de production. La fonction de coût indique le coût minimum de production C compte tenu du vecteur de prix des K facteurs de production p> = (p1 , p2 , . . . , pK ) et du niveau de production q. La fonction de coût minimum s’écrit C(p, q). Elle vérifie plusieurs propriétés : – elle est homogène de degré 1 par rapport aux prix des facteurs : C( p, q) = C(p, q), – les fonctions de demande de facteurs de production sont obtenues par dérivation du coût minimum par rapport aux prix des facteurs 3 , il s’agit donc du gradient de la fonction de coût : @C @p (p, q) = x(p, q) – la matrice hessienne de la fonction de coût est symétrique :

@2C @pi @p> j

=

@2C . @pi @p> j

La forme fonctionelle la plus souvent retenue pour la fonction de coût minimum est la fonction translog, définie par : ln C(p, q)

= +

PK + q ln q + i=1 i ln pi PK PK 0.5 qq ln2 q + 0.5 i=1 j=1 0

ij

ln pi ln pj

Imposer l’homogénéité de degré 1 par rapport au prix revient à considérer le coût total et les prix de facteur en les divisant par un des prix (le premier par exemple) : ln pC1 (p, q)

= +

PK + q ln q + i=2 i ln pp1i PK PK 0.5 qq ln2 q + 0.5 i=2 j=2 0

ij

p

ln pp1i ln p1j

pi xi ln C @C pi Le lemme de shepard implique que : @@ ln pi = @pi C = C = si , c’est-à-dire que la dérivée logarithmique du coût par rapport à un prix est égale à la part du facteur

3. Ce résultat est connu sous le nom de lemme de Shephard.

58

Econométrie des données de panel avec R

dans le coût. La part du facteur j est donc : sj =

@ ln C = @ ln pj

j

+

jj ln

pj + p1

K X

i=2&i6=j

ij

ln

pi p1

Il est d’usage de rapporter chaque prix et la production à la moyenne de l’échantillon ; dans ce cas ln q et ln pi sont nuls à la moyenne de l’échantillon, ce qui donne un sens intuitif aux coefficients de premier ordre. q est en effet l’élasticité du coût par rapport à la production à la moyenne de l’échantillon et i la part du facteur i dans le coût de production à la moyenne de l’échantillon. Les données utilisées concernent le coût de production de 10 producteurs d’électricité du Texas pour 18 ans (de 1966 à 1983). Elles ont été utilisées par Kumbhakar (1996), Horrace & Schmidt (1996) et Horrace & Schmidt (2000). Trois facteurs de production sont utilisés, le carburant, le travail et le capital. Pour chaque facteur, on dispose des prix unitaires (pfuel, plab et pcap) et des dépenses (expfuel, explab et expcap). On commence par caluler les prix en logarithmes, en les divisant par la moyenne de l’échantillon et en les divisant également par un des prix, par exemple le prix du carburant : > > > >

data("TexasElectr", package = "pder") TexasElectr$pf >

TexasElectr$C

TexasElectr$pll plmtest(rice.p, effect = "twoways") Lagrange Multiplier Test - two-ways effects (Honda) data: log(goutput) ~ log(seed) + log(totlabor) + log(size) normal = 44.9166, p-value < 2.2e-16 alternative hypothesis: significant effects

4.2

Modèle à erreurs composées vs modèles à coefficients variables

Le modèle à erreurs composées impose que tous les paramètres du modèle (à l’exception de l’ordonnée à l’origine) sont les mêmes d’un individu à un autre. Dans ce cas, on peut estimer un seul modèle pour l’ensemble de l’échantillon, avec éventuellement des constantes spécifiques. L’alternative est de considérer que le modèle à appliquer à chaque individu est spécifique, c’est-à-dire que des paramètres spécifiques à chaque individu doivent être estimés. On parle alors de modèles à coefficients variables. Dans ce cadre, le modèle non-contraint consiste à estimer un modèle différent pour chaque individu par les moindres carrés ordinaires. On obtient alors SCRnp = > > e> 1 e1 + e2 e2 + . . . en en . Pour ce modèle, le nombre de degrés de liberté est : N (T K 1). Le modèle contraint est soit le modèle des moindres carrés ordinaires (SCRP avec N T K 1 degrés de liberté), soit le modèle within (SCRw avec N (T 1) K degrés de liberté), suivant que l’on suppose ou non l’absence d’effets indiviuels. La statistique de test s’écrit alors (en utilisant le modèle within comme modèle non-contraint) : SCRP SCRw N (T SCRw (N

K 1) 1)K

Il s’agit d’un test de stabilité (appelé souvent test de Chow) dont la distribution est un F à (N 1)K et N (T K 1) degrés de liberté sous H0 . La fonction permettant de réaliser ce test est appelée pooltest . La première manière d’utiliser cette fonction est de lui fournir deux modèles : un modèle où l’estimation est réalisée individu par individu et un modèle soit de moindres carrés ordinaires, soit un modèle within. Dans le premier cas, sous H0 , tous les paramètres sont supposées être identiques, y compris les constantes. Le modèle non contraint est estimé à l’aide de la fonction pvcm (pour variable coefficients model). Cette

66

Econométrie des données de panel avec R

fonction permet d’estimer deux modèles suivant la valeur du paramètre mode ; la valeur appropriée ici est "within", l’autre modèle ferra l’objet de la section suivante. Pour le tableau de données USAirlines , on obtient : > air.np air.np Model Formula: log(cost) ~ log(output)

Coefficients: (Intercept) log(output) 1 14.021 2.0498 2 14.437 1.9510 3 15.175 1.9765 4 15.788 1.6218 5 15.617 1.4235 6 15.521 1.2994 > summary(air.np) Oneway (individual) effect No-pooling model Call: pvcm(formula = log(cost) ~ log(output), data = Air, model = "within") Balanced Panel: n=6, T=15, N=90 Residuals: Min. 1st Qu. -0.384100 -0.106600 Coefficients: (Intercept) Min. :14.02 1st Qu.:14.62 Median :15.35 Mean :15.09 3rd Qu.:15.59 Max. :15.79

Median 0.003459

Mean 0.000000

3rd Qu. 0.088070

Max. 0.334500

log(output) Min. :1.299 1st Qu.:1.473 Median :1.786 Mean :1.720 3rd Qu.:1.970 Max. :2.050

Total Sum of Squares: 9745.3 Residual Sum of Squares: 1.9738 Multiple R-Squared: 0.9998

Le test de stabilité peut alors être réalisé en passant à la fonction de test air.np et air.pooling ou air.within selon que l’on souhaite ou non poser sous H0 l’hypothèse d’absence d’effets individuels.

Chapitre 4. Tests sur le modele a erreurs composees

67

> pooltest(air.pooling, air.np) F statistic data: log(cost) ~ log(output) F = 33.139, df1 = 10, df2 = 78, p-value < 2.2e-16 alternative hypothesis: unstability > pooltest(air.within, air.np) F statistic data: log(cost) ~ log(output) F = 8.3319, df1 = 5, df2 = 78, p-value = 2.388e-06 alternative hypothesis: unstability

L’hypothèse de stabilité est très fortement rejetée, même dans sa version la plus faible (constantes spécifiques). Les mêmes tests peuvent être réalisés avec une interface formula-data, en précisant grâce à l’argument model quel modèle contraint doit être utilisé. > pooltest(log(cost)~log(output), Air, model = "within") > pooltest(log(cost)~log(output), Air, model = "within")

4.2.1

Modèles à coefficients variables

Swamy (1970) a proposé un modèle dans lequel tous les coefficients du modèle sont propres à l’individu. On a alors : ynt =

> n xnt

+ ⌫nt

On ferra l’hypothèse que ⌫nt ⇠ N (0, ⌫2 ), autrement dit nous ne faisons pas l’hypothèse d’homoscédasticité dans ce modèle. On supposera également que n ⇠ N ( , ), soit encore n = n ⇠ N (0, ). Le modèle se réécrit alors : ynt =

>

xnt + ✏nt

avec ✏nt = ⌫nt + n> xnt . Les erreurs du modèles sont donc hétéroscédastiques (en particulier parce que nous n’avons pas imposé l’homoscédasticité de ⌫) et les erreurs d’un même individu sont corrélées car elles contiennent le même vecteur de paramètres n . Pour un individu n, la matrice de variance des erreurs s’écrit donc : ⌦n = E(✏n ✏> n ) = E (⌫n + Xn ⌫ et

n)

⌫n> +

étant par hypothèse non corrélés, on obtient :

> > n Xn

68

Econométrie des données de panel avec R

⌦n = E(✏n ✏> n) =

2 n IT

+ Xn Xn>

Pour l’ensemble de l’échantillon, ⌦ = E(✏✏> ) est une matrice bloc-diagonale, chaque bloc ayant comme expression ⌦n . L’estimation de ce modèle par les moindres carrés ordinaires est inefficace car elle ne prend pas en compte l’hétéroscédasticité et la corrélation des erreurs. La méthode des moindres carrés généralisés consiste à calculer ⌦ 0.5 et à estimer le modèle par la méthode des moindres carrés ordinaires en prémultipliant les variables par ⌦ 0.5 . Cette matrice étant bloc-diagonale, on peut également calculer ⌦n 0.5 et pré-multiplier les variables pour l’individu n par ⌦n 0.5 . Bien évidemment ⌦n étant inconnu, le modèle des moindres carrés généralisés n’est pas opérationnel. En revanche, on peut utiliser la méthodes des moindres carrés quasi-généralisés en remplaçant ⌦ 0.5 par une estimation basée sur les résultat d’une estimation convergente du modèle. Cela revient ici à estimer les N n2 et les éléments de la matrice , soit au total N + K(K + 1)/2 paramètres. A cet effet, on commence par estimer par les moindres carrés ordinaires le modèle pour chaque individu. On obtient alors : ˆn = (X > Xn ) n Un estimateur naturel de

2 n

1

Xn> yn =

n

+ (Xn> Xn )

1

Xn ⌫ n

est alors :

ˆn2 =

T X

e2nt /(T

K

1)

t

Une fois ces estimations obtenues, on peut également calculer leur moyenne :

L’estimation de

N X ¯ ˆn ˆ= 1 N n=1

est basée sur l’expression : zn = ˆn

¯ ˆ

qui s’écrit, en développant et en regroupant les termes : zn

= =

PN > 1 > > Xn ⌫n N1 n=1 nP+ (Xn> Xn ) 1 X n + (Xn Xn ) n ⌫n P N 1 N 1 1 1 > 1 > > > Xn ⌫n N m6=n m N m6=n (Xm Xm ) 1 Xm ⌫m n + N (Xn Xn ) N

L’intérêt de cette dernière expression est d’écrire zn comme une combinaison linéaire de différentes variables aléatoires non corrélées. Le calcul de la variance de z en est largement simplifié car les covariances sont toutes nulles. On a alors :

Chapitre 4. Tests sur le modele a erreurs composees

E(zn2 ) =



N

1 N

◆2

+



N

1 N

◆2

2 > 1 N + n (Xn Xn )

1

+

N2

1 X N2

69

2 > 1 m (Xm Xm )

m6=n

Soit finalement, en regroupant les termes : E(zn2 ) =

N

1

+

N

N

2

2 > 1 n (Xn Xn )

N

+

On a alors : E

P

2 n zn

= = E

(N (N

1) 1) 1

N

1

+ + X n

N 2 N N 1 N

zn2

!

P Pn

=

2 > 1 n (Xn Xn ) 2 > 1 n (Xn Xn )

n

+

Ce qui permet d’obtenir l’estimateur de ˆ =

1 N

1

X n

zn2

1 X N2 n

:

1 X N n

1 X N n

+

1 N

2 > 1 n (Xn Xn )

P

n

2 > 1 n (Xn Xn )

2 > 1 n (Xn Xn )

2 > 1 n (Xn Xn )

Le modèle de Swamy (1970) est estimé avec la fonction pvcm et l’argument model égal à "random". > summary(pvcm(log(cost)~log(output), Air, model="random")) Oneway (individual) effect Random coefficients model Call: pvcm(formula = log(cost) ~ log(output), data = Air, model = "random") Balanced Panel: n=6, T=15, N=90 Residuals: total sum of squares : 70.46241 id time 0.95300854 0.01073151 Estimated mean of the coefficients: Estimate Std. Error z-value Pr(>|z|) (Intercept) 15.03427 0.28734 52.322 < 2.2e-16 *** log(output) 1.65227 0.12350 13.379 < 2.2e-16 *** --Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 Estimated variance of the coefficients: (Intercept) log(output)

70

Econométrie des données de panel avec R (Intercept) log(output)

0.48610 -0.18913

-0.189126 0.080597

Total Sum of Squares: 9745.3 Residual Sum of Squares: 77.102 Multiple R-Squared: 0.99209

On constate que la dispersion du coefficient associé à la production est très importante. Elle correspond à un écart-type de de 0.28, la valeur moyenne du coefficient étant de 1.65.

4.3

Modèle à effet fixe vs modèle à effets aléatoires

On a vu que, si les erreurs du modèles ne sont pas corrélées aux variables explicatives, les deux modèles sont convergents. Pour comparer les deux modèles, on continuera de supposer que la composante idiosyncratique du terme d’erreur (E(X > ⌫) = 0) est non corrélée avec les variables explicatives. Deux situations peuvent alors être distinguées : – E(X > µ) = 0 : les effets individuels ne sont pas non plus corrélés avec les variables explicatives ; dans ce cas, les deux modèles sont convergents, mais le modèle à effets aléatoires est plus efficace que le modèle à effets fixes. – E(X > µ) 6= 0 : les effets individuels sont corrélés avec les variables explicatives ; dans ce cas, le modèle à effet fixe est convergent car les effets individuels sont des paramètres estimés. En revanche, le modèle à effets aléatoires n’est pas convergent car une composante des erreurs de ce modèle sont les effets individuels qui sont corrélés avec la variable explicative. Afin de clarifier la relation entre les deux modèles, Mundlak (1978) a considéré le modèle suivant : ynt = x> nt + µn + ⌫nt avec µn = x ˆn. ⇡n + ⌘n Autrement dit, les effets individuels sont corrélés avec les variables explicatives, plus précisément, ils sont égaux à la somme d’une combinaison linéaire des moyennes individuelles de ces variables explicatives et d’un terme d’erreur ⌘n . Le modèle à estimer s’écrit alors, sous forme matricielle : y = X + BX⇡ + (IN ⌦ JT )⌘ + ⌫

Le terme d’erreur ✏ = (IN ⌦ JT )⌘ + ⌫ a les caractéristiques habituelles du modèle à erreurs composées, c’est-à-dire une espérance nulle et une variance donnée par : ⌫⌦

=

2 ⌫ IN T

+

2 ⌘ ((IN

⌦ JT ) =

2 ⌫W

+

2 1B

Chapitre 4. Tests sur le modele a erreurs composees

71

Le modèle des moindres carrés généralisés consiste à estimer le modèle sur les données transformées en pré-multipliant chaque variable par ⌦ 0.5 = W + ⌫1 B On a alors y ⇤ = W y + ✓By, X ⇤ = W X + ✓BX et (BX)⇤ = ✓BX. L’estimateur des moindres carrés généralisés s’écrit alors : ✓

ˆ ⇡ ˆ





ˆ ⇡ ˆ

=

✓



=

X > W + ✓X > B ✓X > B 



1

W X + ✓BX

X > W X + ✓2 X > BX ✓2 X > BX

✓BX

1

✓2 X > BX ✓2 X > BX





X > W + ✓X > B ✓X > B

X > W y + ✓2 X > By ✓2 X > By



(W y+✓B



Afin d’obtenir l’expression de ˆ, on utilise le résultat suivant concernant l’inverse d’une matrice partitionnée : 

A11 A21

1

A12 A22

=



(A11 A12 A221 A21 ) 1 (A22 A21 A111 A12 ) 1 A21 A111

A111 A12 (A22 A21 A111 A12 ) (A22 A21 A111 A12 ) 1

On obtient finalement : ✓

ˆ ⇡ ˆ





=



(X > W X) 1 (X > W X) 1

ˆ ⇡ ˆ



=

V



ˆ ⇡ ˆ



(X > W X) 1 > (X W X) 1 + ✓12 (X > BX)

(X > W X) 1 X > W y > (X BX) 1 X > By (X > W X)

1

X >W y





X > W y + ✓2 X > By ✓2 X > By

=



ˆw ˆb

ˆw

(X > W X) 1 > (X W X) 1 + ✓12 (X > BX)



1



et ◆

=

2 ⌫



(X > W X) 1 (X > W X) 1

1

Le résultat fondamental de Mundlak (1978) est donc que si on prend correctement en compte la corrélation entre les termes d’erreurs et les variables explicatives, le modèle des moindres carrés généralisés est le modèle à effets fixes. Il donne également une piste pour tester la présence de corrélation ; en effet, l’absence de corrélation revient à tester : H0 : ⇡ = 0. Sous H0 , on a : ⇡ ˆ > Vˆ (ˆ ⇡)

1

⇡ ˆ

qui suit un 2 à K degrés de liberté. Or, on a ⇡ ˆ = ˆb ˆw et V(ˆ ⇡ ) = V( ˆw )+V( ˆb Cette statistique de test est une des version du test proposé par Hausman (1978). Le principe général de ce test consiste à comparer deux modèles A et B avec,



1

72

Econométrie des données de panel avec R

– sous H0 : A et B sont convergents, mais B est plus efficace que A, – sous H1 : seul A est convergent. L’idée du test est que, si H0 est vraie, les coefficients estimés dans les deux modèles seront proches. Dans le cas inverse, on s’attend à des différences importantes. Le test est donc basé sur ˆA ˆb et Hausman a montré que, sous H0 , la variance de cette différence est simplement égale à : V( ˆA ˆb ) = V( ˆA ) V( ˆb ). La version la plus commune de ce test est basé sur la comparaison des modèles within et du modèle de moindres carrés généralisés. La différence entre les deux s’écrit : qˆ = ˆw ˆg . Sous l’hypothèse d’absence de corrélation entre les variables explicatives et le terme d’erreur, on a plim qˆ = 0. La variance de qˆ s’écrit : V(ˆ q ) = V( ˆw ) + V( ˆg )

2cov( ˆw , ˆg )

Pour déterminer ces variances et ces covariances, on écrit les deux estimateurs en fonction des erreurs : ˆg = (X > ⌦ 1 X) 1 X⌦ 1 ✏ et ˆw = (X > W X) 1 XW ✏. On a alors V( ˆg ) = (X > ⌦ 1 X) 1 , V( ˆw ) = ⌫2 (X > W X) 1 et cov( ˆw , ˆg ) = (X > ⌦ 1 X) 1 . La variance de qˆ s’écrit donc simplement : V(ˆ q) =

2 > 1 ⌫ (X W X)

(X > ⌦

1

X)

1

et la statistique de test est simplement : qˆ> V(ˆ q )ˆ q qui, sous H0 , suit un 2 à K degrés de liberté. Le test d’hausman est réalisé avec la fonction phtest , qui prend pour argument deux modèles. > phtest(air.within, air.random) Hausman Test data: log(cost) ~ log(output) chisq = 596.4829, df = 1, p-value < 2.2e-16 alternative hypothesis: one model is inconsistent > phtest(rice.w, rice.r) Hausman Test data: log(goutput) ~ log(seed) + log(totlabor) + log(size) chisq = 3.775, df = 3, p-value = 0.2868 alternative hypothesis: one model is inconsistent

On constate que l’hypothèse de non corrélation des variables explicatives avec l’effet individuel est très fortement rejetée dans le cas des données sur les compagnies aériennes, alors qu’elle ne l’est pas avec les données sur les fermes de riz. Ce résultat était présivible puisque les résultats des modèles à effets fixes et à effets aléatoires étaient très différents dans le premier cas et très proches dans le second.

Chapitre 5

Autocorrélation et hétéroscédasticité

74

Econométrie des données de panel avec R

Chapitre 6

Endogénéité 6.1

Introduction

On parle d’endogénéité lorsque l’erreur du modèle est corrélée avec (au moins) une variable explicative. Ce phénomène est particulièrement courant en économétrie, dans la mesure où, contrairement aux chercheurs en sciences expérimentales, l’économètre n’a pas la possibilité de contrôler le processus générateur de données. Les causes possibles d’endogénéité sont multiples, on citera simplement pour mémoire les trois principales : la simultanéité . L’équation d’intérêt comporte une variable explicative qui est déterminée simultanément avec la variable expliquée : c’est le cas par exemple de l’estimation d’une équation de demande pour un bien, qui contient le prix de ce bien. La quantité demandée et le prix sont simultanément déterminés par l’égalisation de l’offre et de la demande et, par conséquent, une variation du terme d’erreur de l’équation de demande se traduira par un déplacement de la courbe de demande et donc par une variation de la quantité et du prix d’équilibre. l’erreur de mesure sur une variable explicative . Si le vrai modèle est y = ↵ + x + ⌫ et que l’on observe x⇤ = x + ⌘, le modèle estimé s’écrit alors : y = ↵ + (x⇤ ⌘) + ⌫, soit encore y = ↵ + x⇤ + ✏ avec ✏ = ⌫ ⌘ et ✏ est corrélé avec x. les variables explicatives omises . Si le vrai modèle est y = ↵ + x x + z z + ⌫ et que la variable z n’est pas observée, le modèle estimé est y = 0 + x x + ✏, avec ✏ = z z + ⌫. L’erreur du modèle estimé contient alors l’influence de la variable omise et cette erreur est alors corrélée à x si x et z sont corrélés. L’estimateur du modèle linéaire simple y = X + ✏ s’écrit : ˆ = X >X

1

X >y

76

Econométrie des données de panel avec R

En remplaçant y par son expression, on obtient ˆ en fonction des erreurs du modèle : ˆ = + X >X 1 X >✏ On a alors, en notant n la taille de l’échantillon : ˆ=

+



1 > X X n



1

X >✏ n

> On a alors un estimateur convergent plim ˆ = si limn!+1 Xn ✏ = 0, cette expression étant le vecteur de covariances pour la population entre les variables explicatives et l’erreur. La convergence du modèle linéaire simple nécessite donc l’absence de corrélation entre les variables explicatives et l’erreur. Dans le cas où cette condition n’est pas vérifiée, on à recours à la méthode des variables instrumentales qui sera développée en détail dans ce chapître. Le cas de la simultanéité pose un problème supplémentaire car le modèle est défini non pas par une équation, mais par un système d’équation. Dans ce cas, deux stratégies sont possibles : – estimer uniquement l’équation d’intérêt (on parle de modèle à information limitée), – estimer simultanément l’ensemble des équations du modèle (on parle alors de modèle à information complète). Cette dernière situation présente l’avantage d’être a priori plus efficace, car elle permet de prendre en compte la corrélation entre les erreurs des différentes équations. En revanche, si une équation est mal spécifiée, ce problème de mauvaise spécification peut se diffuser au niveau de l’estimation des paramètres des autres équations du modèle.

6.2

Estimation d’une équation isolée

Nous considérons dans un premier temps l’estimation d’une seule équation du système. Comme dans le cas du modèle à erreur composée classique, on peut distinguer les variations intra et inter-individuelles et estimer alors respectivement un modèle within et un modèle between. On peut également combiner au mieux ces deux sources de variation en utilisant un estimateur des moindres carrés généralisés. Généralités sur l’estimateur des variables instrumentales Variables instrumentales et doubles moindres carrés On considère le modèle suivant : y = X + ✏ avec V (✏) = 2 I. Si au moins une des variables explicatives est corrélée avec les erreurs, l’estimateur ols n’est pas convergent. Afin d’obtenir un estimateur convergent, on utilise la méthode des variables instrumentales. Les variables instrumentales sont notées Z. On notera K le nombre de

Chapitre 6. Endogéneite

77

variables explicatives et L K le nombre d’instruments. Les variables instru> mentales doivent vérifier : limn!+1 Zn ✏ = 0, autrement dit, elles ne doivent pas présenter de corrélation avec les erreurs 1 . Dans le cas le plus simple où le nombre de colonnes de X et de Z est le même, l’estimateur des variables instrumentales est simplement obtenu en résolvant le système d’équations : Z > e = 0 qui est juste identifié. En développant, on obtient Z > (y X ) = 0, soit encore : 1

ˆ = Z >X

Z >y

(6.1)

S’il y a plus d’instruments que de variables explicatives (L > K), Z > e ne peut pas être un vecteur de 0. Dans ce cas-là, deux approches permettent de déterminer l’estimateur optimal. La première consiste à pré-multiplier le modèle par Z > . Z >y = Z >X + Z >✏

(6.2)

Il s’agit d’un modèle contenant L lignes et K paramètres à estimer . Si on le considère comme un modèle de régression classique, la variance de l’erreur étant V Z > ✏ = 2 Z > Z, le meilleur estimateur linéaire est celui des moindres carrés généralisés (gls) et on obtient alors l’estimateur des variables instrumentales : ˆiv

= =



X >Z Z >Z

X > PZ X

1

1

Z >X

X > PZ y



1



X >Z Z >Z

1

Z >y



(6.3)

1

avec PZ = Z Z > Z Z >. La seconde approche est celle des moments généralisés. On considère en effet un vecteur de L moments E Z > ✏ = E Z > (y X ) , dont la variance est V(Z > ✏) = 2 > Z Z. Dans le cadre de la méthode des moments généralisés, on minimise la forme quadratique du vecteur de moments en utilisant l’inverse de la matrice de variance de ces moments : 1 2

(y >

>

X > )Z Z > Z

1

Z(y

X )=

1 2

(y >

>

X > )PZ (y

X )

Les conditions de premier ordre pour un minimum s’écrivent : 2X > PZ (y X ) = 0 et en résolvant ce sytème d’équations linéaires, on obtient le même estimateur que précédemment. Cet estimateur est également appelé l’estimateur des doubles moindres carrés (twostage least squares ou 2sls) car il peut être obtenu en appliquant deux fois la méthode des moindres carrés. Lorsque l’on considère la régression d’une variable 1 > v en fonction de Z, on obtient un estimateur ˆ = Z > Z Z v et des valeurs 1 > > ˆ prédites vˆZ = Z = Z Z Z Z v = PZ v. La matrice PZ est donc la matrice de projection dans le sous-espace défini par les colonnes de Z. Cette matrice 1. En général, certaines variables explicatives ne sont pas corrélées avec les erreurs du modèle et seront donc également utilisées comme instrument.

78

Econométrie des données de panel avec R

est symétrique et idempotente, c’est-à-dire que PZ PZ = PZ . L’estimateur des vaˆ Z = PZ X riables instrumentales (6.3) peut donc également s’écrire, en notant X les valeurs prédites des différentes variables explicatives en fonction des différentes variables instrumentales : ⇣ ⌘ ˆ2sls = X ˆ z> X ˆZ

1

⇣ ⌘ ˆ Z> y = X ˆ Z> X ˆZ X

1

ˆ Z> yˆZ X

(6.4)

et peut donc être obtenu en appliquant les moindres carrés ordinaires deux fois : – la première fois en régressant chaque variable explicative par rapport aux instruments, – la seconde fois en régressant la variable expliquée par rapport aux valeurs prédites de la première estimation. La variance de l’estimateur des variables instrumentales est : ⇣ ⌘ V ˆ =

2



ˆ >X ˆz X z



1

On voit alors que l’estimateur sera d’autant plus efficace que la corrélation entre X et Z est importante. Estimateur des variables instumentales généralisé Dans le cas où les erreurs ne sont pas indépendament et identiquement distribuées, la variance de ✏ est notée de manière générale ⌦ et celle des erreurs du modèle (6.2) est égale à Z > ⌦Z. L’estimateur des variables instrumentales généralisée est alors obtenu, soit en appliquant les gls au modèle (6.2), soit en utilisant la méthode des moments généralisés en minimisant : 1 2

(y >

>

1

X > )Z Z > ⌦Z

Dans les deux cas, l’estimateur s’écrit : ⇣ ⌘ ˆg2sls = X > Z Z > ⌦Z 1 Z > X

1



Z(y

X )

X > Z Z > ⌦Z

1

Z >y



(6.5)

La formule précédente fait apparaître des matrices carrés de dimensions égales à la taille de l’échantillon. Elle peut donc s’avérer inapplicable pour de gros échantillons et en tout cas elle est numériquement inefficace. Cet estimateur sera de préférence calculé en utilisant la décomposition de Cholesky de ⌦, c’est-à-dire en calculant la matrice diagonale supérieure L qui vérifie L⌦L> = I soit encore L> L⌦L> L = L> L et donc L> L = ⌦ 1 L’estimateur des variables instrumentales généralisées peut être obtenu en appliquant l’estimateur des variables instrumentales sur le modèle Ly = LX + L✏ en 1 utilisant comme instruments Z˜ = L> Z. La matrice de projection définie par ces instruments est alors : ✓ ◆ 1 ⇣ ⌘ ⇣ ⌘ 1 1 > 1 1 > PZ˜ = L> Z Z > L> L> Z Z > L>

Chapitre 6. Endogéneite Or :



On a donc :

⌘ 1 >

L>

PZ˜ = L>

1

1

L> 1

Z Z > ⌦Z

79

=⌦

Z>



⌘ 1 >

L>

En utilisant cette matrice de projection dans la formule de l’estimateur des variables instrumentales (6.3), on obtient : ✓ ◆ 1 ⇣ ⌘ 1 1 > 1 > ˆ = X > L> L> Z Z > ⌦Z Z L> LX ✓ ◆ (6.6) ⇣ ⌘ 1 1 > 1 > ⇥ X > L> L> Z Z > ⌦Z Z L> Ly soit finalement :

⇣ ˆ = X > Z Z > ⌦Z

1

Z >X



1



X > Z Z > ⌦Z

1

Z >y



qui correspond bien à la formule (6.5) de l’estimateur des variables instrumentales généralisées. En pratique, comme dans le cas du modèle des moindres carrés généralisés, ⌦ est inconnu et donc être estimé, en utilisant les résultats d’une estimation préliminaire convergente. Estimateur des variables instrumentales efficace Un estimateur plus général est obtenu en pré-multipliant le modèle par (U Z)> , U étant une matrice de transformation de dimension n ⇥ n : Z >U >y = Z >U >X + Z >U >✏

(6.7)

La variance des erreurs de ce modèle est alors : Z > U > ⌦U Z et l’estimateur obtenu : ⇣ ˆ = X > U Z Z > U > ⌦U Z

En choisissant U = ⌦ cace : ⇣ ˆe2sls = X > ⌦

1

1

Z >U >X



1

1

X > U Z Z > U > ⌦U Z

Z >U >y

, on obtient l’estimateur des variables instrumentales effi-

Z Z >⌦

1

1

Z

Z >⌦



1

1

X

X >⌦

2. Cet estimateur est présenté en détail par White (1986).

1

Z Z >⌦

1

Z >⌦ 1y (6.8) L’estimateur des variables instrumentales généralisées peut être obtenu en appliquant l’estimateur des variables instrumentales sur le modèle Ly = LX + L✏ en utilisant comme instruments LZ, autrement dit en appliquant la même transformation aux différents éléments du modèle (variable expliquée, variables explicatives et instruments) 2 . 1

1

Z

80

Econométrie des données de panel avec R

6.2.1

Les modèles within et between

La variation au sein de l’échantillon pouvant se décomposer en une variation inter et intra-individuelle, il est naturel de commencer par présenter les estimateurs qui ne prennent en compte qu’une seule de ces deux sources de variation, c’est-à-dire les estimateurs des variables instrumentales between et within. Pour l’estimateur within, chaque variable du modèle est mesurée en écart par rapport à la moyenne, c’est à dire prémultipliée par W . On a donc W y = W X +W ✏ avec W Z la matrice d’instruments. En prémultipliant le modèle par (W Z)> , on obtient : Z >W y = Z >W X + Z >W ✏

(6.9)

L’estimateur des variables instrumentales within est obtenu en appliquant les moindres carrés généralisés à cette équation, la variance des erreurs de ce modèle étant 2 Z > W Z : ⇣ ⌘ 1⇣ ⌘ 1 > ˆw2sls = X > W Z Z > W Z 1 Z > W X X >W Z Z >W Z Z Wy Soit encore :

1

ˆw2sls = X > W P W W X Z

X > W PZW W y = X > PZW X

1

X > PZW y

(6.10)

1

avec PZW = W Z Z > W Z Z > W . La dernière égalité est obtenue en notant que W est idempotente. Un raisonnement similaire peut être mené pour le modèle between. On considère la transformation between du modèle By = BX + B✏, avec la même transformation appliquée aux instruments (BZ). L’estimateur des variables instrumentales est obtenue en pré-multipliant le modèle par BZ : Z > By = Z > BX + Z > B✏

(6.11)

et en appliquant à ce modèle l’estimateur des moindres carrés généralisés : ⇣ ⌘ 1⇣ ⌘ 1 > ˆb2sls = X > BZ Z > BZ 1 Z > BX X > BZ Z > BZ Z By

Soit encore :

ˆb2sls = X > P B X Z

1

X > PZB y

(6.12)

Le modèle w2sls est convergent, même si les effets individuels sont corrélés avec les variables explicatives. En revanche, le modèle b2sls ne l’est qu’en l’absence de corrélation. Si cette dernière hypothèse est vérifiée, aucun des deux n’est efficace car chacun ne prend en compte qu’une source de la variabilité. Exemple 6.1 Cohen & Einav (2003) se sont intéressés à l’influence du port de la ceinture de sécurité sur le nombre de morts sur les routes aux Etats-Unis, en distinguant les

Chapitre 6. Endogéneite

81

occupants des véhicules concernés par les accidents (environ 35000 morts par an) et les non-occupants (environ 5000 morts par an). Ils utilisent des données de panel pour les 50 Etats américains pour la période 1983-1997. La principale variable explative est le taux d’utilisation de la ceinture de sécurité. Deux questions font principalement l’objet de leur attention : – la première concerne le test de la théorie de la compensation du comportement développée par Peltzman (1975). D’après cette théorie, le port de la ceinture met le conducteur plus en confiance et l’amène à adoter une conduite moins prudente. Si l’effet du port de la ceinture sur la mortalité des conducteurs en cas d’accident est naturellement négatif, l’effet global sur la mortalité peut être insignifiant, voir positif. En particulier, il est possible que le développement du port de la ceinture de sécurité augmente la mortalité des non-occupants. – la seconde concerne la question de l’endogénéité : si les conditions de conduite se dégradent, par exemple pour des raisons météorologiques, toutes choses égales par ailleurs, la mortalité sur les routes va augmenter, mais l’usage de la ceinture de sécurité va également augmenter car les automobilistes perçoivent l’aggravation du risque d’accident. On a donc une corrélation entre le terme d’erreur de l’équation de mortalité et la variable explicative qui mesure le taux d’usage de la ceinture de sécurité. Dans ce cas, la non prise en compte de l’endogénéité se traduira par un biais vers le bas de l’estimation du coefficient associé à l’usage de la ceinture de sécurité. Cohen & Einav (2003) proposent trois types d’estimation. La première est une estimation par les moindres carrés ordinaires qui ne prend donc nullement en compte le problème d’endogénéité. La seconde est une estimation du modèle à effets fixes ; dans le cadre de celle-ci, le problème d’endogénéité entre la composante individuelle du terme d’erreur et la variable explicative est pris en compte car la transformation within élimine l’effet individuel. En revanche, subsiste le problème de la corrélation entre la composante idiosyncratique du terme d’erreur et la variable explicative. Ce dernier problème est résolu en estimant un modèle w2sls. Les instruments utilisés sont des variables de lois concernant la ceinture, qui sont corrélées avec l’usage de la ceinture de sécurité, mais pas avec le terme d’erreur. De nombreuses variables de contrôle sont également introduites (voir la page d’aide des données pour plus de précision). L’estimation d’un modèle avec variables instrumentales est réalisée à l’aide de la fonction plm . Les variables instrumentales sont spécifiées à l’aide d’une formule en deux parties, disponible grâce à la librairie Formula (Zeileis & Croissant, 2010)). La première partie indique la liste des variables explicatives du modèle alors que la seconde indique la liste des variables instrumentales. Très souvent, une partie importante des variables explicatives sont utilisées comme instrument. Afin d’éviter de répéter quasimment deux fois la même liste de variables, il est possible d’utiliser une syntaxe différentielle en utilisant le signe .. Par exemple, si les variables explicatives sont x1, x2 et x3, que seule x2 est endogène et qu’il existe un seul instrument extérieur z, la description du modèle peut être réalisée de manière équivalente à l’aide des deux formules ci-dessous :

82

Econométrie des données de panel avec R > y ~ x1 + x2 + x3 | x1 + x3 + z > y ~ x1 + x2 + x3 | . - x2 + z

Cohen & Einav (2003) estiment successivement trois modèles. Le premier est un modèle avec des effets fixes temporels (qualifié par les auteurs de modèle mco car il n’y a pas de prise en compte des effets individuels), le second est un modèle à doubles effets fixes individuels et temporels et le dernier est un modèle à doubles effets fixes avec des variables instrumentales afin de prendre en compte l’endogénéité du port de la ceinture de sécurité. > > > + + + + + > > > + +

data("SeatBelt", package = "pder") SeatBelt$occfat ◆ ✓ > ◆ ✓ > ◆ Z Wy Z WX Z W✏ = + Z > By Z > BX Z > B✏ ce qui a un sens, car le vecteur de paramètres à estimer est le même dans les deux équations. Afin d’appliquer les gls, on calcule la variance des erreurs du modèle empilé : V



Z >W ✏ Z > B✏



=E



Z > W ✏✏> W Z Z > B✏✏> W Z



Z > W ✏✏> BZ Z > B✏✏> BZ

=

2 ⌫



Z >W Z 0

0 1

2

Z > BZ

2

⌫ avec 2 = T 2 + 2 . On applique ensuite la formule de l’estimateur des moindres ⌘ ⌫ carrés généralisés :

ˆ = ⇥

ˆ = ⇥

"

>

X WZ X >W Z

h h



>

X BZ



X > BZ

Z >W Z 0

Z >W Z 0

X >W Z Z >W Z

1

Z >W X +

X >W Z Z >W Z

1

Z >W y +



1

2 2

X > BZ Z > BZ

X > BZ Z > BZ

On obtient finalement : ⇥ ˆec2sls = X > P W X + Z

2

X > PZB X



1



Z >W X 1 > Z BZ Z > BX 2 ◆ 1✓ > ◆ 0 Z Wy 1 > Z > By 2 Z BZ 0



X > PZW y +

2

1

Z > BX i 1 > Z By

X > PZB y



◆#

i

1

1

(6.13)



84

Econométrie des données de panel avec R

On vérifie aisément, comme dans le modèle à erreur composée simple, que l’estimateur ec2sls est une moyenne pondérée des estimateurs within et between : ˆe2sls = DW ˆw2sls + DB ˆb2sls , avec : ⇥ DW = X > PZW X +

DB =

2



2

X > PZB X

X > PZW X +

2



X > PZB X

1



X > PZW X 1

X > PZB X

L’estimateur des doubles moindres carrés généralisés Cet estimateur, appelé g2sls (pour generalised two stages least squares) a été proposé par Balestra & Varadharajan-Krishnakumar (1987). On part du modèle à erreurs composées classique : y = X + ✏, avec : 2 ⌘

V(✏) = ⌦ = T

2 ⌫

+

2 ⌫W

B+

L’estimateur proposé est un estimateur des variables instrumentales efficaces obtenu en pré-multipiant toutes les variables du modèle et les instruments par ⌦ 0.5 ou plus simplement par ⌫ ⌦ 0.5 ⌫⌦

0.5

=W+q

x⇤nt = (xnt



T

2 ⌘

B=W+ B +



x ¯n. ) + x ¯n. = xnt

On considère alors le modèle pré-multiplié par ⌦

(1 0.5

)xn.

:

y ⇤ = X ⇤ + ✏⇤ pour lequel les erreurs sont identiquement distribuées. On applique à ce modèle la méthode des variables instrumentales, on note A la matrice d’instruments et PA le sous-espace de projection des colonnes de A. L’estimateur obtenu s’écrit : ˆ = X ⇤> PA X ⇤

1

X ⇤> PA y ⇤

(6.14)

White (1986) a montré que dans ce contexte, il est efficace d’appliquer aux instruments la même transformation qu’aux autres éléments du modèle. On a alors A=

⌫⌦

0.5

Z = W Z + BZ = Z ⇤

L’estimateur proposé par (Baltagi, 1981) est également un estimateur de la même famille, mais avec un choix d’instruments différents : A = (BX, W X) (Cornwell et al., 1992). En effet, en introduisant PA = PZB + PZW dans (6.14), on obtient 3 : 3. Voir aussi Baltagi & Li (1992) et Baltagi & Liu (2009).

Chapitre 6. Endogéneite

ˆ = ⇥

h

(W X + BX)

(W X + BX)

ˆ = X >P W X + Z

2

>

>

PZW + PZB (W X + BX) PZW + PZB (W y + By)

X > PZB X

>

X > PZW y +

2

i

85

1

X > PZB y

L’avantage de la formulation de Baltagi (1981) est que la liste des instruments within et celle des instruments between peut être différente. On peut alors considérer trois types de variables (Cornwell et al., 1992) : – les variables endogènes sont corrélées avec les deux composantes du terme d’erreur, – les variables simplement exogènes sont corrélées avec les effets individuels, mais pas avec la composante idiosyncratique du terme d’erreur, – les variables doublement exogènes ne sont corrélées ni avec les effets individuels, ni avec la composante idiosyncratique du terme d’erreur. Dans le cadre d’une estimation avec variables instrumentales, les variables doublement exogènes peuvent être utilisées deux fois, une fois en utilisant leur transformation between et une fois en utilisant leur transformation within, comme le suggère Baltagi (1981). Les variables simplement exogènes en revanche ne peuvent être introduites comme instrument qu’avec leur transformation within. Exemple 6.2 Kinal & Lahiri (1993) se sont intéressés aux déterminants du commerce international pour les pays en développement et en particulier à la mesure des élasticités prix et revenu du commerce international pour les pays en développement. Ce sujet est particulièrement important car il conditionne en grande partie la croissance et l’évolution de l’endettement de ces pays. Le panel utilisé contient 31 pays en développement, pour la période 1964-1986. Ces données sont disponibles dans la librairie pder sous le nom ForeignTrade. Plus précisément, ils estiment trois équations : la première définit la demande d’importations, la deuxième la demande d’exportations et la troisième l’offre d’exportations. Plus précisément, les auteurs supposent que : – la demande d’importations imports augmente avec le revenu domestique gnp, diminue avec le prix des importations en devises locales rapportée au prix domestiques pmcpi et augmente avec le ratio des réserves sur les importations resimp retardé d’une période, – la demande pour les exportations exports augmente avec le revenu du reste du monde gnpw et diminue avec le prix relatif des exportations et de leurs substituts étrangers pxpw, – l’offre d’exportations exports augmente avec le prix mondial exprimé en devise domestique rapporté à l’indice des prix à la consommation pwpci, avec le revenu domestique potentiel pgnp (utilisé comme proxy du stock de capital) et dépend également positivement d’une variable qui représente le rôle des importations

86

Econométrie des données de panel avec R

dans l’offre d’exportation importspmpx (mesurée par les importations en devises du pays divisé par le prix des exportations) 4 . Toutes les variables sont exprimées en logarithmes et, les pays présents dans le panel étant de tailles très diverses, par tête, de manière à limiter les problèmes d’hétéroscédasticité. Afin de prendre en compte la dynamique de l’ajustement, un retard de la variable expliquée est introduit comme variable explicative dans chaque équation. Les variables gnp, exports, imports et leur retard (et donc resimp et importspmpx) sont considérées comme endogènes, ainsi que le prix des exportations qui rend endogène pxpw et l’indice des prix à la consomation domestique qui rend endogène pmcpi et pwcpi. Parmi l’ensemble des variables explicatives, seules gnpw et pgnp sont considérées comme exogènes et peuvent donc être utilisées comme instruments. De nombreuses autres variables sont utilisées comme instruments : le trend linéaire trend, la population pop, le taux de change exrate, la consommation consump, le revenu disponible income, les réserves reserves, l’offre de monaie money, l’indice des prix à la consommation cpi, le prix des importations pm, le prix des exportations px, le prix mondial pw, la plupart du temps avec un décalage d’une période. Kinal & Lahiri (1993) s’inscrivent dans le prolongement d’un article de Khan & Knight (1988) qui ont estimé un système d’équation expliquant les déterminants du commerce international pour les pays en développement en utilisant la transformation within. Ils indiquent leur préférence pour un estimateur plus efficace qui prend en compte la variation inter-individuelle et retiennent l’estimateur ec2sls. Cependant, la convergence de cet estimateur n’est assurée que si les instruments ne sont pas corrélés avec les effets individuels. La stratégie qu’ils adoptent consiste dans un premier temps à estimer la même équation en utilisant l’estimateur within et l’estimateur à erreurs composées et à réaliser un test d’Hausman afin de pouvoir tester l’hypothèse d’exogénéité des instruments. Nous présentons ci-dessous les résultats obtenus concernant la demande d’importations. Le modèle within et des mcg sont successivement estimés. Concernant le modèle des mcg, l’argument inst.method est fixé à "baltagi", de manière à introduire les instruments en moyennes individuelles et en écart par rapport à cette moyenne. L’autre possibilité (qui constitue la valeur par défaut) est "bvk" pour Balestra & Varadharajan-Krishnakumar (1987). L’argument random.method st fixé à "kinla" pour pouvoir reproduire les résultats de Kinal & Lahiri (1993). Ceux-ci utilisent en effet une technique d’estimation des variances des composantes du terme d’erreur non standard ; similaires à celle de Nerlove (1971), mais avec une correction du nombre de degrés de liberté. > data("ForeignTrade", package = "pder") > w1 r1 phtest(r1, w1) Hausman Test data: imports ~ pmcpi + gnp + lag(imports) + lag(resimp) | lag(consump) + chisq = 11.0059, df = 4, p-value = 0.0265 alternative hypothesis: one model is inconsistent

...

L’hypothèse de non-corrélation entre les instruments et les variables effets individuels est rejetée 5 . Plutôt que de rejeter l’estimateur mcg et de se contenter de l’estimateur within, Kinal & Lahiri (1993), suivant en cela Cornwell et al. (1992), choisissent de différencier deux types d’instruments : – ceux qui ne sont pas corrélés avec les effets individuels, dans ce cas, ils peuvent être introduits doublement avec leur transformation between et within, – ceux qui sont corrélés avec les effets individuels ; pour ceux-là, seule la transformation within est utilisée comme instrument. Un tel modèle est défini à l’aide d’une formule en trois parties : – la deuxième partie indique quelles sont les instruments introduits en utilisant les deux transformations within et between, – la troisième partie indiquant les instruments introduits seulement en utilisant la transformation within. Ils aboutissent finalement à la spécification présentée ci-dessous : > r1b phtest(w1, r1b) Hausman Test data: imports ~ pmcpi + gnp + lag(imports) + lag(resimp) | lag(consump) + chisq = 7.372, df = 4, p-value = 0.1175 alternative hypothesis: one model is inconsistent

...

5. C’est également le cas pour les deux autres équations d’offre d’exportation et de demande d’exportation.

88

Econométrie des données de panel avec R

On constate que désormais, sur la base du test d’Hausman (1978), l’hypothèse de convergence de l’estimateur des mcg n’est pas rejetée. Comme on le constate avec les résultats présentés ci-dessous, les estimateurs within et des mcg sont désormais très similaires : > rbind(within = coef(w1), e2sls = coef(r1b)[-1]) pmcpi gnp lag(imports) lag(resimp) within -0.05873374 0.02890065 0.9512149 0.05215182 e2sls -0.05419095 0.01352559 0.9481222 0.04170158

L’élasticité de court-terme de la demande d’importations est directement donnée par le coefficient associé au prix. L’élasticité de long-terme est obtenue en divisant ce coefficients par le complément à l’unité du coefficient associé à l’endogène retardée. On obtient ainsi : > matrix(c(coef(w1)["pmcpi"], + coef(w1)["pmcpi"] / (1 - coef(w1)["lag(imports)"]), + coef(r1)["pmcpi"], + coef(r1)["pmcpi"] / (1 - coef(r1)["lag(imports)"]), + coef(r1b)["pmcpi"], + coef(r1b)["pmcpi"] / (1 - coef(r1b)["lag(imports)"])), + byrow = TRUE, nrow = 3, + dimnames = list(c("w1", "r1", "r1b"), c("CT", "LT"))) CT LT w1 -0.05873374 -1.203928 r1 -0.05521142 -1.197191 r1b -0.05419095 -1.044588

La prise en compte d’une partie de la variation inter-individuelle a permis de réduire considérablement la variance des estimateurs, comme l’atteste la comparaison des écarts-types des coefficients : > rbind(within = coef(summary(w1))[, 2], + ec2sls = coef(summary(r1b))[-1, 2]) pmcpi gnp lag(imports) lag(resimp) within 0.02915262 0.041235082 0.03066695 0.008257449 ec2sls 0.02179875 0.006871687 0.01281239 0.006683680

6.3 6.3.1

Estimation d’un système d’équation L’estimateur des triples moindres carrés ordinaires

Dans le cas de systèmes d’équations, on prend souvent en considération la corrélation entre les erreurs d’équations différentes pour la même observation. Dans ce cas, le modèle à estimer, qui contient L équations s’écrit :

Chapitre 6. Endogéneite 0 B B B @

y1 y2 .. . yL

1

0

C B C B C=B A @

10

X1 0 .. .

0 X2 .. .

... ... .. .

0 0 .. .

0

0

...

XL

1

1

0

CB 2 C B CB C B C B .. C + B A@ . A @ L

✏1 ✏2 .. . ✏L

La matrice d’instruments pour le système s’écrit quant à elle : 0 1 Z1 0 . . . 0 B 0 Z2 . . . 0 C B C B .. .. . . .. C @ . . . . A 0

0

...

89

1 C C C A

ZL

La matrice de variance des erreurs s’écrit :

⌦ = V(✏) = E ✏✏>

=

= avec :

0

B B EB @ 0 B B B @

0

B B ⌃=B @

✏1 ✏> 1 ✏2 ✏> 1 .. .

✏1 ✏> 2 ✏2 ✏> 2 .. .

✏L ✏> 1 11 I 21 I .. .

✏L ✏> ... 2 ... 12 I ... 22 I .. .. . .

L1 I

L2 I

.. .

.. .

22

... ... .. .

L1

L2

...

11 21

12

✏ 1 ✏> L ✏ 2 ✏> L .. .

... ... .. .

... 1L 2L

.. .

LL

1 C C C A

✏ L ✏> L1 1L I C 2L I C .. C = ⌃ ⌦ I . A

(6.15)

LL I

1 C C C A

la matrice de covariances des erreurs des différentes équations du système. L’estimateur des triples moindres carrés (3sls) est obtenu en appliquant l’estimateur des variables instrumentales généralisées au système d’équation. En remplaçant dans la formule de cet estimateur (6.5) la variance des erreurs donnée par (6.15), on obtient : ˆ3sls

= ⇥





X >Z Z > ⌃

1

X >Z Z > ⌃

1

⌦I Z ⌦I Z

⌘ Z >X ⌘ 1 > Z y 1

1

(6.16)

Dans le cas particulier où la matrice d’instruments est la même pour toute les équations, la formule se simplifie à : ˆ3sls = X > ⌃

1

⌦ PZ X

1

X >⌃

1

⌦ PZ y

Le calcul pratique des triples moindres carrés est le suivant :

(6.17)

90

Econométrie des données de panel avec R

– on estime les équations indépendemment les unes des autres en utilisant l’estimateur des variables instrumentales, ce qui permet d’obtenir une matrice de résidus e = (e1 , e2 , . . . , eL ) qui constitue une estimation convergente des erreurs des différentes équations, – on estime la matrice de covariance des erreurs du système : s = e> e/N – on calcule la décomposition de Cholesky de cette matrice : l | lsl> = I, – on transforme les différents éléments du modèle : y ⇤ = (l ⌦ I)y, X ⇤ = (l ⌦ I)X et Z ⇤ = (l 1 ⌦ I)Z. – on applique la méthode des variables instrumentales sur le modèle transformé. La transformation est particulièrement simple ici : 0 1 0 1 y1 l11 y1 + l12 y2 + . . . l1L yL B y2 C B l21 y1 + l22 y2 + . . . l2L yL C B C B C y ⇤ = (l ⌦ I) B . C = B C .. @ .. A @ A . yL

0

X1 0 .. .

0 X2 .. .

... ... .. .

0 0 .. .

0

0

...

XL

Z1 0 .. .

0 Z2 .. .

... ... .. .

0 0 .. .

0

0

...

ZL

B B X ⇤ = (l ⌦ I) B @ 0

B B Z ⇤ = (l ⌦ I) B @

lL1 y1 + lL2 y2 + . . . lLL yL

1

1

0

C B C B C=B A @ 0

(l C B (l C B C=B A @ (l

l11 X1 l21 X1 .. .

l12 X2 l22 X2 .. .

... ... .. .

l1L XL l2L XL .. .

lL1 X1

lL2 X2

...

lLL XL

1

)11 Z1 1 )21 Z1 .. .

(l (l

1

)L1 Z1

(l

1

1

1 C C C A

)12 Z2 1 )22 Z2 .. .

... ... .. .

(l (l

1

)L2 Z2

...

(l

1

)1L ZL 1 )2L ZL .. . )LL ZL

L’estimateur des triples moindres carrés within et between n’appelle aucun développement complémentaire. Il suffit simplement d’appliquer l’estimateur précédemment décrit aux données transformées en écart par rapport à la moyenne individuelle (within) ou en moyenne individuelle (between).

6.3.2

L’estimateur des triples moindres carrés ordinaires à erreurs composées

Balestra & Varadharajan-Krishnakumar (1987) et Baltagi (1981) ont, en plus de l’estimateur des doubles moindres carrés, proposé des estimateurs des triples moindres carrés utilisant au mieux la variation inter et intra-individuelles des données de panel. On doit désormais considérer trois indices, l’indice de l’équation l = 1 . . . L s’ajoutant aux indices n = 1 . . . N et t = 1 . . . T habituels. L’erreur du modèle à erreur composée s’écrit alors : ✏lnt = ⌘ln + ⌫lnt

1 C C C A

Chapitre 6. Endogéneite

91

En notant ✏> ln = (✏ln1 , . . . , ✏lnT ), le vecteur d’erreurs pour l’individu n et l’équation l, le vecteur d’erreurs pour le système d’équation s’écrit : > > > > > > > > ✏> = (✏> 11 , ✏12 , . . . , ✏1N ), (✏21 , ✏22 , . . . , ✏2N ), . . . , (✏L1 , ✏L2 , . . . , ✏LN )

La variance des erreurs du modèle est alors : ⌦ = V(✏) = ⌃⌘ ⌦ (IN ⌦ JT ) + ⌃⌫ ⌦ (IN ⌦ IT ) Seule la présence des effets individuels rend le modèle spécifique par rapport à l’estimateur classique des triples moindres carrés. Par rapport au modèle à erreurs composées standard, les scalaires ⌘2 et ⌫2 sont remplacés par les deux matrices de covariances ⌃⌘ et ⌃⌫ . ⌦

= = =

(T ⌃⌫ + ⌃⌘ ) ⌦ (IN ⌦ J¯T ) + ⌃⌫ ⌦ (IN ⌦ (IT (T ⌃⌫ + ⌃⌘ ) ⌦ B + ⌃⌫ ⌦ Z ⌃1 ⌦ B + ⌃ ⌫ ⌦ Z

J¯T ))

Exemple 6.3 Kinal & Lahiri (1993) estiment le système constitué de l’équation de demande d’importations et de celle de demande d’exportations par la méthode des triples moindres carrés. Pour réaliser cette estimation avec plm , il faut indiquer comme premier argument une liste contenant la description des différentes équations du modèle. > + + + > + + + > + + + >

eqimp rbind(ec2sls = coef(summary(r1b))[-1, 2], + ec3sls = coef(summary(r12), "import.demand")[-1, 2]) pmcpi gnp lag(imports) lag(resimp) (Intercept) pxpw ec2sls 0.02179875 0.006871687 0.01281239 0.006683680 0.02179875 0.006871687 ec3sls 0.02169995 0.005286002 0.01186829 0.006341284 0.13947240 0.019461702 gnpw lag(exports) ec2sls 0.01281239 0.00668368 ec3sls 0.05335346 0.01329825

6.4

Estimateur d’Hausman-Taylor

Le modèle à erreurs composées amène à choisir entre le modèle within et le modèle mcg. L’avantage du modèle within est qu’il est convergent même si les effets

Chapitre 6. Endogéneite

93

individuels sont corrélés avec les variables explicatives. Le désavantage est que, si certaines variables explicatives ne présentent aucune variation intra-individuelle, elles disparaissent de l’estimation. Or, ces variables sont souvent des variables essentielles. Par exemple, dans le cadre d’une estimation d’une fonction de salaire, des variables telles que le genre, le niveau d’éducation et l’origine ethnique sont souvent au centre de l’attention, mais le chercheur n’a alors que le choix entre : – un estimateur mcg qui renvoit des coefficients associés à ces variables, mais qui n’est pas un estimateur convergent compte tenu de la corrélation entre les effets individuels et les variables explicatives, – un estimateur within qui est convergent mais qui ne donne aucune information sur l’influence de ces variables. Si on reprend la typologie de Cornwell et al. (1992), Hausman & Taylor (1981) considère un modèle qui ne contient pas de variables endogènes, c’est-à-dire que des variables non corrélées avec la composante idiosyncratique du terme d’erreur. Certaines de ces variables sont simplement exogènes (donc corrélées avec les effets individuels), d’autre sont doublement exogènes (non corrélées avec les effets individuels). De plus, on prendra explicitement en compte le fait qu’un sous-ensemble de variables ne présentent pas de variations intra-individuelles. En croisant ces deux éléments de typologie, on obtient quatre catégories de variables (Cx , Ce , Vx et Ve ) en notant C et V les variables sans / avec variation intra-individuelle et x et e les variables doublement / simplement exogènes. L’idée est de construire un estimateur de variables instrumentales sans avoir recours à des instruments extérieurs au modèle, souvent difficiles à trouver. Pour chaque type de variable, on décompte le nombre d’instruments : – les variables Vx , au nombre de Kvx , fournissent chacune deux instruments (within et between), – les variables Ve , au nombre de Kve fournissent chacune un instrument (within), – les variables Cx au nombre deKcx fournissent chacune un instrument, – les variables Ce au nombre de Kce ne fournissent aucun instrument. On a donc L = 2Kvx + Kve + Kcx instruments et K = Kvx + Kve + Kcx + Kce variables explicatives. Par conséquent, le modèle est identifié (L K) si Kvx Kce . Si cette condition est vérifiée, l’estimateur proposé par Hausman & Taylor (1981) est un estimateur des mcg qui utilise (W Vx , BVx , W Ve , Cx ) comme instruments. Pour réaliser cette estimation, il faut au préalable estimer les variances des composantes du terme d’erreur. A cet effet, il faut disposer d’une estimation convergente des résidus et le choix naturel est celui de l’estimateur within. Cet estimateur ( ˆw ) est obtenu en régressant W y en fonction de (W Vx , W Ve ). Cette estimation est convergente car toutes les variables sont supposées non corrélées avec les effets individuels. De cette estimation within, on récupère les résidus ✏ˆw qui permet de calculer l’estimateur de ⌫2 utilisé par Amemiya (1971) et Swamy & Arora (1972), c’est-à-dire : ˆ⌫2 = ✏ˆ> ˆw /(O N K) wW ✏

94

Econométrie des données de panel avec R

On extrait également de cette estimation les effets indivuels ⌘ˆn . On doit purger de ces effets individuels l’influence des variables sans variation intra-individuelle. A cet effet, on régresse ⌘ˆn en fonction des variables sans variation intra-individuelle (Cx , Ce ). Les variables Ce étant corrélées avec les effets individuels, on doit trouver au moins Kce instruments, et ceux-là sont fournis par les variables Vx , au nombre de Kvx . On obtient alors le vecteur des coefficients estimés ˆ associés à (Cx , Ce ). On obtient alors des résidus : ✏ˆ = y

(Vx , Ve ) ˆw

à partir desquel on obtient l’estimateur de

(Cx , Ce )ˆ 2 ◆

(6.18)

:

ˆ◆2 = ✏ˆ> Bˆ ✏/N

(6.19)

Voir aussi Breusch et al. (1989) et Amemiya & MaCurdy (1986). Exemple 6.4 Egger & Pfaffermayr (2004) se sont intéressé aux déterminants au commerce bilatéral de deux pays, l’Allemagne et les Etats-Unis avec leurs partenaires commerciaux. Les exportations sont ici observées au niveau d’une combinaison pays-secteur qui constitue ici l’ “individu”. La variable expliquée est lrex, le log des exportations bilatérales réelles. Les variables explicatives sont : ldist, le log de la distance entre les deux pays, les dotations relatives des deux pays en travail (lrl), en capital (lrk) et en capital humain (lrh), une variable mesurant la similitude entre les deux pays (lsimi) et deux variables d’interaction : lkldist est l’interaction entre ldist et lrk-lrl et lkgdt celle entre lrk en valeurs absolues et lgdt. Comme les auteurs, nous commençons par estimer le modèle within pour les données concernnt les Etats-Unis. Ce modèle est valable même s’il existe des corrélations entre les variables explicatives et la composante individuelle du terme d’erreur, le problème est qu’il ne permet pas d’estimer de coefficients associés aux variables propres à l’individu, ici la distance. Les résultats sont présentés cidessous : > data("TradeFDI", package="pder")

> TradeUS wm coef(summary(wm))[1:7, ]

Chapitre 6. Endogéneite

95

Estimate Std. Error t-value Pr(>|t|) lkldist -0.101909178 0.357257542 -0.2852541 7.754740e-01 lgdt 3.401276395 0.446679551 7.6145783 3.773733e-14 lkgdt -0.002224905 0.006289922 -0.3537253 7.235757e-01 lsimi 1.185650961 0.283767050 4.1782545 3.042234e-05 lrk 1.169721273 3.112589518 0.3758033 7.070963e-01 lrh 0.173182814 0.082666204 2.0949651 3.627828e-02 lrl -0.465181905 3.083511888 -0.1508611 8.800979e-01

Pour les auteurs, l’effet individuel, indiquant une propension à commercer avec un pays donné pour des raisons de proximités géographique et culturelle est vraisemblablement corrélé avec la distance. Cette variable, la seule sans variation temporelle, est donc corrélée avec l’effet individuel. Au niveau des variables qui varient au cours du temps, les trois variables qui mesurent les dotations relatives en facteur et l’indice de similitude sont considérées comme doublement exogènes, alors que les autres sont supposées être corrélées avec la composante individuelle du terme d’erreur. > ht print(summary(ht), subset = 1:9) Oneway (individual) effect Hausman-Taylor Model Call: pht(formula = lrex ~ ldist + lkldist + lgdt + lkgdt + lsimi + lrk + lrh + lrl + factor(year) | lsimi + lrk + lrh + lrl + factor(year), data = TradeUS, model = "ht") T.V. T.V. T.I. T.I.

exo endo exo endo

: lsimi, lrk, lrh, lrl, factor(year) : lkldist, lgdt, lkgdt : : ldist

Unbalanced Panel: n=341, T=3-11, N=2767 Effects:

var std.dev share idiosyncratic 0.1790 0.4231 0.049 individual 3.5074 1.8728 0.951 theta : Min. 1st Qu. Median Mean 3rd Qu. 0.8707 0.9204 0.9287 0.9223 0.9320 Residuals : Min. 1st Qu.

Median

Mean

Max. 0.9320

3rd Qu.

Max.

96

Econométrie des données de panel avec R -2.34000 -0.24500 Coefficients :

0.03040

0.00016

0.26400

Estimate Std. Error t-value (Intercept) -60.1815522 13.6941742 -4.3947 ldist -1.6473986 0.7996188 -2.0602 lkldist -0.3500265 0.3183469 -1.0995 lgdt 3.0224557 0.4016546 7.5250 lkgdt -0.0045699 0.0060232 -0.7587 lsimi 1.2692939 0.2026840 6.2624 lrk 3.4976621 2.7600926 1.2672 lrh 0.1232587 0.0784673 1.5708 lrl -2.8425857 2.7783193 -1.0231 --Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’

1.48000

Pr(>|t|) 1.109e-05 0.03938 0.27154 5.272e-14 0.44802 3.790e-10 0.20507 0.11622 0.30625

*** * *** ***

0.05 ‘.’ 0.1 ‘ ’ 1

Total Sum of Squares: 13701 Residual Sum of Squares: 478.97 F-statistic: 4214.31 on 18 and 2748 DF, p-value: < 2.22e-16

L’impression des résultats rappelle la typologie des variable. Le modèle est ici identifié parce que le nombre de variables constantes endogènes est bien inférieur au nombre de variables exogènes variables (1 contre 4 + 10 variables indicatrices de l’année).

Chapitre 7

Estimation d’un modèle dynamique Un modèle est dit dynamique lorsqu’une de ses variables explicatives est la variable expliquée retardée. L’intérêt des données de panel pour estimer un modèle dynamique est évident. Il est naturellement impossible d’estimer une relation dynamique sur des données en coupe transversale et, s’agissant des séries chronologiques, une telle relation ne peut être estimée précisément que si la série est suffisamment longue. En revanche, pour des données de panel, le modèle peut être estimé pour un ensemble d’individus observés un petit nombre de fois. Les modèles présentés dans ce chapitre sont adaptés pour des données de panel “micro”, c’est-àdire des données pour lesquelles N >> T . Pour des panels “macro”, caractérisés par une dimension temporelle équivalente ou supérieure à la dimension individuelle, les modèles pertinents sont basés sur une adaptation des problématiques de détection de racines unitaires et de relations de cointégration aux spécificités des données de panel. Parmi les nombreux exemples d’application rencontrés dans la littérature, on peut citer : – l’estimation de la convergence de la richesse par tête, obtenue en régressant le taux de croissance en fonction du niveau de richesse initiale ou, ce qui est équivalent, en régressant le niveau de richesse par tête en fonction du niveau de richesse retardé ; – l’analyse de la vitesse d’ajustement de la main d’oeuvre, obtenue en régressant le nombre d’employés en fonction de différente variables, dont l’emploi retardé ; – l’analyse de la dynamique de la consommation, basée sur une fonction de consommation qui dépend de la consommation retardée. L’article fondateur concernant l’estimation d’un modèle dynamique en panel est celui de Balestra & Nerlove (1966). La littérature sur le sujet est devenu considérable à partir des années 90 et des articles de Holtz-Eakin, Newey & Rosen (1988)

98

Econométrie des données de panel avec R

et Arellano & Bond (1991) qui ont introduit l’utilisation de la méthode d’estimation des moments généralisés pour les panels dynamiques 1 . Celle-ci est devenue la méthode d’estimation privilégiée et la plus grande partie de ce chapitre sera consacrée à sa présentation. Il faut cependant noter que le champ d’application de cette méthode pour les panels n’est pas limitée aux modèles dynamiques et qu’elle peut également être utilisée avec profit pour des modèles statiques. Exemple 7.1 Tout au long de ce chapitre, nous utiliserons l’article de Acemoglu, Johnson, Robinson & Yared (2008) afin d’illustrer les résultats. Cette étude traite de la relation causale entre le niveau de richesse et le niveau de démocratie des pays. Les auteurs utilisent différentes données de panel. Parmi celles-ci, nous en avons retenu deux : – les premières correspondent à une fréquence d’observation de 5 ans, avec 11 observations sur la période 1950 à 2000 pour 211 pays ; – les secondes correspondent à une fréquence d’observation de 25 ans, avec 7 observations sur la période 1850 à 2000 pour 25 pays. Ces données sont disponibles dans la librairie pder sous le nom de DemocracyIncome pour les premières et de DemocracyIncome25 pour les secondes. > data("DemocracyIncome", package = "pder") > data("DemocracyIncome25", package = "pder")

En coupe transversale, la relation positive entre le degré de démocratie et le revenu par tête est évidente. Ceci est illustré sur la figure 7.1 qui utilise les données de Acemoglu et al. (2008) pour l’année 2000. Cependant, cette corrélation instantanée n’implique pas nécessairement qu’il existe une relation de causalité entre les deux variables. Les données de panel utilisées permettent de spécifier une relation dynamique entre le revenu et la démocratie et donc d’analyser cette éventuelle causalité. > library("plm") > pdim(DemocracyIncome)

Balanced Panel: n=211, T=11, N=2321

> head(DemocracyIncome, 4)

1 2 3 4

country Andorra Andorra Andorra Andorra

year democracy income sample 1950 NA NA 0 1955 NA NA 0 1960 NA NA 1 1965 NA NA 1

1. Il existe de nombreuses revues de cette littérature, en particulier, Harris et al. (2008), Bond (2002), Roodman (2009a).

99

1.0

1.2

Chapitre 7. Estimation d’un modèle dynamique

Bolivia ●

Croatia Chile El Salvador St. Vincent and the Grenadines Korea, Rep. Dominican Jamaica ● ● ●● ●● ● Republic ●Thailand ●● Trinidad ● ● ● and ● Tobago ● Mexico Moldova RomaniaBulgaria India Philippines

0.6

Senegal Malawi Nepal Bangladesh ●Mozambique ● ●Nicaragua ●●● ● Honduras

0.4

Burkina Faso Nigeria ● Guinea−Bissau ● ● Niger ●● Tanzania

Guatemala ● ●●● ● Venezuela, ●Brazil ● RBSeychelles ● Indonesia SriEcuador Lanka Peru

Macedonia, FYR Colombia ●Albania ●Jordan ●Paraguay ● ● ●●● Turkey ● Ukraine Georgia Armenia



Lesotho

Ethiopia 1993− Togo ● Yemen ● ● ● Zambia

0.2

democracy

0.8

● ● Benin ● ● Madagascar Ghana Mali

Burundi

0.0



Antigua



Gabon Russia ●●Malaysia ●

Morocco ●

Uganda Kenya Congo, Rep. Pakistan−post−1972 Azerbaijan Kyrgyz Republic Cote d'Ivoire ●● Tajikistan ●●Comoros ● ●● ●Zimbabwe ●Guinea ● ●● ●Swaziland ● ●● ●Tunisia ●● ● Iran Egypt, Arab Rep. Chad Lebanon Algeria Kazakhstan Belarus

Gambia, The ● ● Rwanda

6

Iceland St. Kitts and Nevis Hungary Sweden New Zealand Germany Norway Netherlands Estonia Barbados Slovakia Italy Canada Belgium United Kingdom St.Belize Lucia Switzerland Ireland Czech Republic Denmark Greece Slovenia Australia Japan Lithuania Spain Uruguay Israel Dominica United ● Costa ●● ● ● ●Latvia ● ● ● ●Africa ●Argentina ●● ●●Mauritius ● ● ●● ● ● ● ●●France ● ● ● ● ● ●●● ● ●States ● Finland Luxembourg Poland Portugal Rica Grenada South Austria Cape Verde Panama

7



Syrian Arab Republic Equatorial Guinea China

●● ●

Cameroon

8

9

10

income

Fig. 7.1 – Relation entre revenu et démocratie

Les données pour lesquelles la fréquence d’observation est de 5 ans constituent un panel cylindré de 211 pays pour 11 périodes. Cependant, le caractère cylindré est artificiel car il y a énormément d’observations manquantes, en particulier pour le degré de démocratie. En plus des deux index individuels et temporels (country et year), les données contiennent l’indice de démocratie (democracy), le logarithme du produit intérieur brut par habitant (income) et enfin une variable indicatrice permettant de sélectionner le sous-échantillon retenu par les auteurs (sample).

7.1

Modèle dynamique et endogénéité

Le modèle dynamique le plus simple est le modèle autorégressif d’ordre 1 : ynt = yn(t

1)

+ ⌘n + ⌫nt

l’erreur du modèle étant supposée être la somme d’un effet individuel ⌘n invariant au cours du temps et d’une composante idiosyncratique ⌫nt que l’on appellera par la suite l’innovation. Tout au long de ce chapitre, nous supposerons que les innovations ne sont pas auto-corrélées E(⌫nt ⌫ns ) = 0 8s 6= t, ne sont pas corrélées avec l’effet individuel E(⌘n ⌫nt ) = 0 et que le processus considéré n’est pas un processus de racine unitaire (| |< 1). Pour la période précédente, le modèle s’écrit : yn(t 1) = yn(t 2) + ⌘n + ⌫n(t 1) . L’erreur et la variable explicative yn(t 1) sont donc corrélées puisque yn(t 1) est corrélé avec l’effet individuel ⌘n .

100

7.1.1

Econométrie des données de panel avec R

Le biais de l’estimateur des mco

Du fait de cette corrélation, l’estimateur des moindres carrés ordinaires (ainsi que celui des moindres carrés généralisés) n’est pas convergent. Cet estimateur s’écrit : ˆ=

PN

PT n=1 t=2 ynt yn(t 1) PN PT 2 n=1 t=2 yn(t 1)

=

+

PN

n=1

PT

t=2 (⌘n

+ ⌫nt )yn(t PT 1 2 n=1 t=1 ynt

PN

1)

et le numérateur du second terme ne converge pas vers 0 car ⌘n est positivement corrélé avec yn(t 1) . La corrélation étant positive, le biais des mco est un biais vers le haut. Afin d’analyser l’ampleur de ce biais, on réécrit ynt par substitutions successives, en notant S la date de début du processus et 1 la date de la première observation : ynt

yn( S) + 1 1 ⌫nt + ⌫n(t 1) + t+S

= +

t+S

2

⌘n ⌫n(t

t+S 1

+ ...

2)

(7.1)

⌫n(

S+1)

En supposant que les valeurs initiales de y sont fixes, on obtient alors, pour le dénominateur de l’estimateur des mco les limites suivantes, d’abord par rapport à N , puis par rapport à T : ✓ N 1 X 2 1 lim ynt = N !+1 N 1 n=1

t+S

◆2

2 ⌘

+

N T 1 XX 2 ynt = T !+1 N !+1 N T (1 n=1 t=1

2 ⌘

lim

lim

2(t+S)

1

)2

2 ⌫

2

1

+

2 ⌫

(7.2)

2

1

Pour le numérateur, avec l’hypothèse d’absence de corrélation entre l’effet individuel et les innovations, on obtient : 1 X (⌘n + ⌫nt )yn(t N !+1 N n lim

1)

=

t+S 1

1 1

1 XX (⌘n + ⌫nt )yn(t N !+1 T !+1 N T n t lim

lim

1)

=

2 ⌘

2 ⌘

(7.3)

1

L’estimateur des mco converge donc vers : 2 ⌘

plim ˆ =

1

+

2 ⌘

(1

)2

+

2 ⌫

1

= 2

+

(1 (1 + )

2

) 2 + (1 ⌘

2 ⌘

)

2 ⌫

Au vue de cette expression, l’estimateur des mco est biaisé vers le haut. Le biais tend vers 0 lorsque ⌘2 tend vers 0.

Chapitre 7. Estimation d’un modèle dynamique

101

Exemple 7.2 Dans le modèle estimé par Acemoglu et al. (2008), la variable expliquée est l’indice de démocratie et les variables expliquées l’indice de démocratie et le revenu par tête retardés d’une période. Des variables indicatrices des années sont également introduites et l’estimation est réalisée sur le sous-ensemble d’observations défini par la variable sample. L’estimation du modèle des mco à l’aide de la fonction lm de R est ici malaisée du fait de la présence de retards. En effet, la méthode lag utilisée sera alors celle qui est appropriée pour les séries temporelles et non pour les données de panel 2 . Pour cette raison, on utilisera la fonction plm de la librairie plm en fixant l’argument model à "pooling", de manière à utiliser les données non transformées. Le -1 dans la formule indique que l’on ne veut pas estimer de constante générale, mais un coefficient pour toutes les modalités de la variable year, ce qui est sans conséquence sur l’estimation. > mco mco coef(summary(mco))

Estimate Std. Error t-value Pr(>|t|) lag(democracy) 0.70636982 0.024293078 29.07700 6.978578e-133 lag(income) 0.07231846 0.008342943 8.66822 1.915051e-17

Deux résultats ressortent de ce premier modèle. D’une part, la variable democracy semble assez persistante puisqu’on obtient un coefficient estimé égal à 0.71. Cependant, nous savons que l’estimateur des mco souffre d’un biais vers le haut. D’autre part, le revenu retardé semble avoir une influence significativement positive sur l’indice de démocratie.

7.1.2

L’estimateur within

Le biais des mco étant dû à la corrélation entre le terme d’erreur et la variable endogène retardée causée par la présence d’un effet individuel, on peut penser résoudre le problème en utilisant une transformation qui permet d’éliminer l’effet individuel. Le choix within. On a alors, en PT le1 plus évident est la transformation PT notant y¯n( 1) = t=1 ynt /(T 1) et y¯n = t=2 ynt /(T 1) : 2. Cela signifie en particulier que le retard de la variable pour la première observation du deuxième pays sera à tort indiquée comme étant égale à la dernière observation du premier pays.

102

Econométrie des données de panel avec R

ˆ =

PN

PT ¯n )(yn(t 1) y¯n( 1) ) nt y n=1 P t=2 (y PT N (y y¯n( 1) )2 PNn=1PTt=2 nt ¯n( 1) )(⌫nt n(t 1) y n=1 P t=2 (y P N T ¯n( 1) )2 n=1 t=2 (ynt y

=

+

⌫ ¯n )

Les effets individuels (et donc le problème de biais) présents dans l’estimateur des mco ont bien disparu. En revanche, une seconde source de biais a été ajoutée. En effet, yn(t 1) T 1 1 (yn1 + . . . + yn(T 1) ) et ⌫t T 1 1 (⌫n2 + . . . + ⌫nT ) sont corrélés. Pour t > 2, on a un terme en T 1 1 ynt ⇥ ⌫nt , un terme en yn(t 1) ⇥ T 1 1 ⌫n(t 1) et T 2 termes en (T 11)2 ynt ⌫nt . Chaque terme en ⌫nt ynt ayant une espérance de 2 ⌫ , on obtient finalement : ✓ ◆ 1 1 T 2 T 2 + = ⌫2 ⇥ ⌫ 2 T 1 T 1 (T 1) (T 1)2 et le biais est donc négatif 3 . Plus précisément, on peut montrer que 4 : plim ˆ =

1+ T 11

1 (1

2 )(T

1 1 T 1 1)



1

T

1 T (1

T

)



Ce biais présente deux caractéristiques qui le différencie de celui des mco. Tout d’abord, il est négatif et ensuite il tend vers 0 lorsque T tend vers l’infini. Ce biais ne peut cependant pas être ignoré dans le cas de panels micros où la dimension temporelle est réduite. Par exemple, pour T = 10 (soit une durée assez longue) et = 0.5, le biais est de 0.167. Exemple 7.3 Le modèle within est obtenu avec plm en fixant les arguments model et effect à "within" et "twoways", puisque l’on souhaite introduire des effets temporels et individuels. Le modèle peut être estimé simplement en actualisant le modèle des mco précédemment estimé : > within coef(summary(within)) Estimate Std. Error t-value Pr(>|t|) lag(democracy) 0.37862837 0.03344426 11.3211770 1.251513e-27 lag(income) 0.01041497 0.02640112 0.3944898 6.933266e-01

Par rapport au modèle des mco, le coefficient autorégressif est plus petit (0.38 contre 0.71), ce qui était attendu dans la mesure où l’estimateur within est biaisé vers le bas alors que celui des mco est biaisé vers le haut. On constate également qu’avec l’introduction des effets individuels, le coefficient du revenu devient très proche de 0 et est non significatif. 3. Nickel (1981). 4. Voir par exemple Hsiao (2003) p.72.

Chapitre 7. Estimation d’un modèle dynamique

7.1.3

103

Méthodes d’estimation convergentes pour les modèles dynamiques

Les méthodes d’estimation les plus courantes utilisées dans le cas de modèles statiques étant inadaptées, plusieurs stratégies d’estimation peuvent être envisagées afin d’obtenir un estimateur convergent. – la première est d’utiliser la méthode du maximum de vraisemblance. Elle présente cependant l’inconvénient majeur d’être extrêmement sensible aux hypothèses faites sur les valeurs initiales de la variable expliquée. Suivant que ces valeurs sont considérées comme fixes ou aléatoires et corrélées ou non avec les effets individuels, on obtient des modèles sensiblement différents et les biais d’estimation peuvent être sévères dans le cas où la spécification retenue n’est pas la bonne. Pour cette raison, cette méthode d’estimation n’est plus beaucoup utilisée et ne sera pas présentée ici 5 ; – la seconde consiste à partir d’un estimateur biaisé et de corriger ce biais. C’est la démarche suivie par Kiviet (1995) qui propose un estimateur within corrigé du biais analysé précédemment. Cependant, l’intérêt de cette approche est limité par le fait qu’elle n’est applicable qu’aux panels cylindrés et qu’elle ne prend pas en considération l’éventuelle endogénéité des autres variables explicatives 6 ; – la troisième est d’utiliser la méthode des variables instrumentales, les instruments utilisés étant des retards en niveau ou en différences de la variable expliquée. La méthode des moments généralisés, qui est une extension de la méthode des variables instrumentales est de plus en plus utilisée. La méthode des variables instrumentales est utilisée sur un modèle qui a été préalablement transformé de manière à éliminer les effets individuels. La transformation within apparaît de prime abord comme un choix naturel, elle est cependant peu adaptée. En effet, en l’absence d’instruments extérieurs pertinents, les seules variables instrumentales disponibles sont souvent la variable explicative retardée, c’est-à-dire ici la variable expliquée PT retardée au moins deux fois. Or, avec le modèle within, l’erreur est : ⌫nt T 1 1 t=2 ⌫nt . Elle contient donc l’ensemble des réalisations de ⌫nt et est donc corrélée avec l’ensemble des valeurs retardées de ynt . Deux transformations alternatives peuvent être utilisées avec profit, la différence première et la déviation orthogonale.

5. Pour une présentation détaillée de l’estimation d’un panel dynamique par le maximum de vraisemblance, voir Hsiao (2003), chapitre 4. 6. Voir Roodman (2009a), p. 103.

104

Econométrie des données de panel avec R

Pour la différence première, on a simplement sous forme vectorielle, zn = Dzn avec : 0 1 1 0 ... B 0 1 1 ... B B 0 0 1 ... B D=B . .. .. .. . B . . . . B @ 0 0 0 ... 0 0 0 ...

znt = znt 0 0 0 .. . 1 1

0 0 0 .. .

zn(t

1) ,

soit encore,

1

C C C C C C C 0 A 1

L’avantage de cette transformation est qu’elle est simple et intuitive. Elle présente cependant trois inconvénients : – le premier est qu’une observation, la première, est nécessairement perdue ; – le second est que si les erreurs initiales sont non corrélées, celles du modèle transformé le sont. En effet, on a ⌫t ⌫t 1 = (⌫t ⌫t 1 )(⌫t 1 ⌫t 2 ) et donc, si les ⌫ sont homoscédastiques et non corrélées, les erreurs transformées sont homoscédastiques E ⌫t2 = 2 ⌫2 , mais corrélées pour deux erreurs successives 2 E ( ⌫t ⌫t 1 ) = ⌫; – le dernier est que, pour chaque période t où une observation est manquante, deux observations t et t + 1 sont perdues en différence. La transformation en déviations orthogonales ne souffre pas des deux derniers problèmes, elle est par contre moins intuitive car elle consiste à calculer la différence entre une observation et la moyenne des observations postérieures à celle-ci. Formellement, on a : ! T 1 X z˜nt = cnt znt zns Tnt s>t

où Tnt est le nombre d’observations postérieures à t pour l’individu n et cnt un q Tnt facteur d’échelle égal à Tnt +1 . Comme pour la transformation en différences premières, une observation est perdue, mais il s’agit désormais de la dernière. Sous forme matricielle, pour un panel cylindré, la transformation s’écrit z˜t = Oz, avec z = (z1 , z2 , . . . zt ) et : 0 q T 1 p 1 p 1 p 1 p 1 ... T T (T 1) T (T 1) T (T 1) T (T 1) B q B T 2 1 1 1 B p p p 0 ... T 1 B (T 1)(T 2) (T 1)(T 2) (T 1)(T 2) q B T 3 1 1 O=B p p 0 0 ... B T 2 (T 2)(T 3) (T 2)(T 3) B B .. .. .. .. .. .. B . . . . . @ q q. 1 1 0 0 0 ... 2 2 En supposant que les erreurs initiales sont homoscédastiques et non corrélées, on a alors, pour les erreurs transformées :

1 C C C C C C C C C C A

Chapitre 7. Estimation d’un modèle dynamique

V(˜ ⌫ ) = E(˜ ⌫ ⌫˜> ) = E(O⌫⌫ > O> ) =

2 > ⌫ OO

=

105

2 ⌫I

Le dernier résultat est dû au fait que les lignes de O sont mutuellement orthogonales. De plus, en cas d’observations manquantes pour une période, seule cette observation sera perdue pour l’estimation, contre deux pour le modèle estimé en différences premières. L’estimateur proposé par Anderson & Hsiao (1982) utilise le modèle écrit en différences premières de manière à éliminer les effets individuels. La variable explicative yn(t 1) = yn(t 1) yn(t 2) est alors corrélée avec l’erreur en différences ⌫nt = ⌫nt ⌫n(t 1) . Si les innovations ne sont pas auto-corrélées, yn(t 1) peut être instrumenté soit par yn(t 2) = yn(t 2) yn(t 3) , soit par yn(t 2) . Dans les faits, il s’avère que yn(t 2) est un bien meilleur instrument que yn(t 2) . Exemple 7.4 Afin de calculer l’estimateur de Anderson & Hsiao (1982), on doit spécifier que les variables explicatives et expliquée sont en différences et que l’endogène retardée en différence est intrumentée par l’endogène en niveau retardée de deux périodes. Acemoglu et al. (2008) ont choisi également d’instrumenter le revenu par tête en utilisant un deuxième retard. Le modèle est décrit simplement en utilisant une formule à deux parties 7 , la première partie indiquant les variables explicatives et la seconde les instruments, les deux parties étant séparées par le signe |. > ahsiao coef(summary(ahsiao))[1:2, ]

Estimate Std. Error t-value Pr(>|t|) lag(diff(democracy)) 0.4686593 0.1181956 3.9651163 7.970953e-05 lag(diff(income)) -0.1035793 0.3048546 -0.3397662 7.341189e-01

Le modèle d’Anderson & Hsiao (1982) étant convergent, on s’attend à ce que le coefficient autorégressif estimé soit compris entre celui du modèle within (biaisé vers le bas) et celui du modèle mco (biaisé vers le haut). C’est effectivement le cas ici, la valeur obtenue de 0.47 étant bien comprise entre 0.38 et 0.71. On remarque également que le coefficient associé au revenu est désormais à la limite du seuil de significativité de 10%. 7. On utilise ici les formules étendues fournies par la librairie Formula (Zeileis & Croissant, 2010).

106

7.2

Econométrie des données de panel avec R

Estimateur des moments généralisés du modèle en différences

L’estimateur des variables instrumentales présenté dans la section précédente est inefficace pour deux raisons : – la première est qu’il ne prend pas en compte la corrélation des erreurs provoquée par la différenciation ; – la seconde est qu’il existe d’autres instruments valables qui peuvent être utilisées. Ces deux limites de l’estimateur de variables instrumentales peuvent être surmontées en utilisant l’estimateur des moments généralisés proposé par Holtz-Eakin et al. (1988) et Arellano & Bond (1991).

7.2.1

Variables instrumentales et méthode des moments généralisés

Cet estimateur prend en compte le fait que le nombre d’instruments valides augmente avec t. Le caractère dynamique du modèle rend la première observation inutilisable. Le fait que le modèle soit estimé en différences premières fait perdre la seconde observation. Par conséquent, la première observation utilisable est la troisième, pour laquelle le modèle s’écrit : yn3

yn2 = (yn2

yn1 ) + (⌫n3

⌫n2 )

Pour cette observation, yn1 est le seul instrument valable. Pour la quatrième observation, l’erreur est ⌫n4 ⌫n3 , yn2 et yn1 sont des instruments valables. Ainsi, un instrument supplémentaire est ajouté dès que t augmente de 1. Pour l’individu n, la matrice d’instruments s’écrit : 0

B B B Zn = B B @

yn1 0 0 .. .

0 yn1 0 .. .

0 yn2 0 .. .

0 0 yn1 .. .

0 0 yn2 .. .

0 0 yn3 .. .

... ... ... .. .

0 0 0 .. .

0 0 0 .. .

0 0 0 .. .

0 0 0 .. .

0

0

0

0

...

...

...

yn1

yn2

...

yn(T

1

2)

C C C C (7.4) C A

Les conditions de moment correspondent au vecteur µ = Z > ⌫. Les instruments étant par hypothèse non corrélés avec les erreurs en différence, ce vecteur doit être d’espérance nulle : E(µ) = 0. La méthode des moments généralisés consiste à écrire l’équivalent pour l’échantillon de ce vecteur de moments théoriques, c’est-à-dire la moyenne arithmétique de l’expression précédente pour l’ensemble des individus de l’échantillon : m ¯ =

N N 1 X 1 X > mn = Z ( yn N n=1 N n=1 n

Xn )

(7.5)

Chapitre 7. Estimation d’un modèle dynamique

107

où, dans le cas simple d’un modèle purement autorégressif, Xn est un vecteur colonne qui contient l’endogène retardée d’une période en différence. La manière d’obtenir l’estimateur dépend alors de la comparaison entre le nombre de moments J et le nombre de coefficients à estimer K. Si J = K, l’estimateur des moments est obtenu simplement en fixant (7.5) à 0 et en résolvant pour . On obtient alors : ˆ=

N X

Zn>

n=1

Xn

!

1

N X

n=1

Zn>

yn

!

Si J < K, le système d’équations linéaires défini par (7.5) est sous-identifié, il y a une infinité de combinaisons de valeurs des paramètres qui permettent d’égaliser (7.5) à 0. Dans le cas où J > K, le système est sur-identifié et, sauf cas très particulier, il n’existe pas de combinaisons de valeurs des paramètres qui permettent d’égaliser (7.5) à 0. Dans ce cas, on cherchera la combinaison de paramètres qui minimise la taille de ce vecteur, cette taille étant définie par une forme quadratique du vecteur de moments empiriques : ! ! N N 1 X 1 X > > > > ( yn Xn )Zn A Z ( yn Xn ) (7.6) N n=1 N n=1 n où A est la matrice de pondérations des moments. En annulant les dérivés de (7.6) par rapport à et en résolvant par rapport à , on obtient l’estimateur des moments généralisés : ˆ = ⇥

7.2.2

⇥ P ⇥ Pn n

⇤ P Xn> Zn A Pn Zn> Xn ⇤ > Xn> Zn A yn n Zn

1

(7.7)

Estimateur en une étape

Pour que cet estimateur puisse être calculé, il faut choisir une matrice de pondérations. Le choix le plus simple pour A est la matrice identité. Dans ce cas, la fonction à minimiser est simplement la somme des carrés des différents éléments du vecteur. Cette solution n’est pas efficace dans le cas où les variances de ces différents éléments sont différentes. Dans ce cas, intuitivement, il est plus efficace d’accorder un poids d’autant plus élevé à un élément du vecteur que sa variance est faible. La matrice de pondération est alors une diagonale contenant l’inverse de la variance de chaque élément. De plus, si des éléments du vecteur sont corrélés, leurs poids conjoints doivent être réduits car ces éléments véhiculent une information similaire. De manière générale, la matrice optimale de pondérations est l’inverse de la matrice de variance-covariance du vecteur de moments 8 . On a donc : ! N N 1 X 1 X 1 A = V(m) ¯ =V mn = 2 V(mn ) N n=1 N n=1 8. Voir Hansen (1982).

108

Econométrie des données de panel avec R

Si les erreurs en niveau sont homoscédastiques et non-autocorrélées, V(mn ) a une expression très simple. En effet, on a : V(mn ) = E Zn> ⌫n ⌫n> Zn = Zn> E D⌫n ⌫n> D> Zn = avec

0

B B B h = DD = B B @ >

2 1 0 .. .

1 2 1 .. .

0 1 2 .. .

0

0

0

... ... ... .. .

0 0 0 .. .

1

2

2 > ⌫ Zn hZn

1 C C C C C A

(7.8)

En effet, les erreurs du modèle sont les innovations en différence ⌫nt ⌫n(t supposant que ces erreurs son homoscédastiques et non corrélées, on a : 2 – E( ⌫nt ) = 2 ⌫2 ; 2 – E( ⌫nt ⌫n(t 1) ) = ⌫; – E( ⌫nt ⌫ns ) = 0 si | t s |> 1. L’inverse de la matrice de pondération s’écrit alors : A(1)

1

= V(m) ¯ =

N N 2 X 1 X ⌫ V(m ) = Z > hZn n N 2 n=1 N 2 n=1 n

1) .

En

(7.9)

est un scalaire inconnu qui ne joue aucun rôle dans l’estimation et qui peut donc être ignoré. L’estimateur qui utilise cette matrice de pondérations est qualifié d’es⇣P ⌘ 1 N > timateur en une étape. Il s’obtient simplement en substituant n=1 Zn hZn à A dans l’équation (7.7). Afin de calculer sa variance, on commence par remplacer yn dans (7.7) par Xn + ⌫n . On obtient alors : 2 ⌫

ˆ(1)

= ⇥

h P h Pn n

Xn> Zn Xn> Zn

P P

Zn> hZn

1

> n Zn hZn

1

n

P P

n

Zn> Xn

> ⌫n n Zn

i

i

qui permet d’obtenir l’expression de la variance de ˆ(1) , notée V(1) : ⇣ ⌘ V(1) = E ( ˆ )( ˆ )> h P i 1 P > 1 P > > = X Z Z hZ Z X n n n n n n n n h Pn P > 1 > ⇥ X Z Z hZ n n n n n ⇥ P ⇤ Pn > > ⇥ E Z ⌫ ⌫ Z n n n i n n n P > 1 P > ⇥ Xn n Zn hZn n Zn h P i 1 P 1 P > > > ⇥ X Z Z hZ Z X n n n n n n n n n

1

(7.10)

(7.11)

Chapitre 7. Estimation d’un modèle dynamique

109

Si les hypothèses faites sur les erreurs sont vérifiées, on a : " ! !# X X X E Zn> ⌫n ⌫n> Zn = ⌫2 Zn> hZn n

n

n

et l’expression de la variance se simplifie alors à : (1)

ˆ V

=

2 ⌫

2 4

X

Xn> Zn

n

!

X

Zn> hZn

n

!

1

X n

!3

1

Zn> Xn 5

(7.12)

L’estimateur des moments généralisés et sa variance peuvent être exprimés de manière plus compacte en utilisant les notations matricielles suivantes : X > = > > > X1> , X2> , . . . , XN , y> = y1> , y2> , . . . , yN , Z > = Z1> , Z2> , . . . , ZN et H une matrice bloc-diagonale obtenue en répétant h N fois. On a alors : ⇥ ˆ(1) = ( X > Z)(Z > HZ) ˆ (1) = V

2 ⌫

1



(Z > X)



1



( X > Z)(Z > HZ)

( X > Z)(Z > HZ)

1

(Z > X)



1

1

(Z > y)



(7.13) (7.14)

Si, contrairement aux hypothèse faites, les erreurs sont hétéroscédastiques et/ou autocorrélées, l’estimateur en une étape demeure convergent, mais deux problèmes classiques se posent : – d’une part, la matrice de pondérations utilisée n’est pas une estimation convergente de la “bonne” matrice de pondération, ce qui se traduit par une perte d’efficacité ; – d’autre part, l’estimation de la variance donnée par l’équation (7.14) n’est pas convergente. Par conséquent, tous les tests basés sur cette variance estimée seront biaisés.

7.2.3

Estimateur en deux étapes

Afin de résoudre en partie le premier problème, on peut utiliser un estimateur en deux étapes, qui consiste à récupérer les résidus d’estimation du modèle en une ⇥ P > ⇤ P P (1) (1) (1)> étape ⌫ˆn et d’estimer E ⌫n ⌫n> Zn par n Zn> ⌫ˆn ⌫ˆn Zn , n Zn n cet estimateur étant robuste à la présence d’hétéroscédasticité et/ou d’autocorrélation. L’inverse de la matrice de pondération des moments utilisée s’écrit dans ce cas : P ˆ ˆ m) A(2) 1 = V( ¯ = N12 n V(m n) P (7.15) (1) (1)> ˆ ˆ(1) Z = N12 n Zn> ⌫ˆn ⌫ˆn Zn = N12 Z > ⌦ ˆ ˆ(1) une matrice bloc diagonale constituée des blocs : ⌫ˆn(1) ⌫ˆn(1)> pour avec ⌦ n = 1 . . . N . L’estimateur gmm en deux étapes est alors obtenu en substituant

110

Econométrie des données de panel avec R

(7.15) à A dans l’équation (7.7) : ˆ(2)

= ⇥

 

X >Z X >Z

⇣ ⇣

ˆ ˆ(1) Z Z >⌦ ˆ ˆ(1) Z Z >⌦

⌘ ⌘

1 1

1

Z> X

(7.16)

Z> y

Concernant la variance de l’estimateur, par un raisonnement similaire à celui décrit par les équations (7.11 et 7.12), on obtient : h ˆ (2) = ( X > Z)(Z > ⌦ ˆ ˆ(1) Z) V

1

(Z > X)

i

1

(7.17)

ˆ ˆ(1) qui dépend Le problème de cet estimateur de la variance est qu’il intègre ⌦ des résidus d’estimation du modèle en une étape et donc de ˆ(1) et de y. Cet estimateur est par conséquent biaisé et la dérivation d’un estimateur robuste de la variance sera présentée dans la section 7.4. Exemple 7.5 L’estimation d’un modèle de panel par la méthode des moments généralisés est réalisée en utilisant la fonction pgmm de la librairie plm. Les arguments de cette fonction sont les mêmes que ceux de la fonction plm et il y a quelques arguments spécifiques : – formula : la formule est particulière car elle comporte trois parties : la première partie contient comme d’habitude les variables explicatives, la deuxième les instruments “gmm” et la troisième les instruments “normaux” ; – model : le modèle à estimer est soit le modèle en une étape : "onestep", soit le modèle en deux étapes "twosteps" ; – effect : les effets sont soit individuels "individuals" (ils sont alors éliminés par la différentiation), soit double "twoways", dans ce cas des variables indicatrices pour chaque période sont ajoutées ; On estime ci-dessous le modèle en une étape. Dans la deuxième partie de la formule, on indique ici que l’on ne souhaite utiliser que la variable democracy comme instrument gmm et que l’on souhaite utiliser tous les retards disponibles en partant du deuxième. Comme dans le cas précédent, on instrumente également le revenu retardé d’une période par cette même variable retardée de deux périodes. > diff1 coef(summary(diff1)) Estimate Std. Error z-value Pr(>|z|) lag(democracy) 0.50499446 0.09049045 5.580638 2.396373e-08 lag(income) -0.09010807 0.08029127 -1.122265 2.617498e-01

Chapitre 7. Estimation d’un modèle dynamique

111

Le modèle à deux étapes est obtenu en fixant l’argument model à "twosteps" : > diff2 coef(summary(diff2)) Estimate Std. Error z-value Pr(>|z|) lag(democracy) 0.554007280 0.10783032 5.13776889 2.780195e-07 lag(income) 0.001843585 0.06053787 0.03045341 9.757054e-01

Tous les retards disponibles étant utilisés, le nombre d’instruments est très important. On a en effet : 0.5 ⇥ (11 1) ⇥ (11 2) = 45 instruments gmm plus les 9 variables indicatrices de la période et le revenu retardé de deux périodes, soit J = 55. Notons que ces résultats sont proches de ceux du modèle d’Anderson & Hsiao (1982) ( coefficient autorégressif proche de 0.5 et coefficient du revenu non significatif).

7.2.4

La prolifération du nombre d’instruments dans le modèle des moments généralisés en différences

Pour l’estimateur des moments généralisés, le nombre d’instruments augmente avec la dimension chronologique de l’échantillon. Pour le modèle gmm en différences, en considérant uniquement les niveaux de y qui instrumentent y, on a 1 instrument y1 pour la troisième observation (la première utilisable), deux instruments y1 , y2 pour la quatrième et T 2 instruments pour la dernière observation y1 , y2 , . . . , yT 2 soit au total J = 1+2+. . .+(T 2) = 0.5(T 1)(T 2) instruments. Par exemple, pour T = 10, on obtient 36 instruments. Le nombre d’instruments augmente donc de manière quadratique avec T . Les matrices de pondération des moments (7.9) et (7.15) sont de dimension J ⇥ J. Du fait de leur symétrie, elles contiennent J ⇥ (J + 1)/2 éléments uniques. Le nombre d’éléments à estimer de cette matrice est donc un polynôme en T dont le terme dominant est T 4 /8. Chaque élément de cette matrice étant estimé par une moyenne empirique calculée sur les N individus de l’échantillon, il est évident que la précision de l’estimation des éléments de cette matrice n’est assurée que si N est “grand” par rapport à J. Si ce n’est pas le cas, il arrive fréquemment que les matrices (7.9 et 7.15) soient singulières. L’estimateur des moments généralisés ne peut alors plus être calculé en utilisant la formule donnée par (7.7) car celle-ci utilise l’inverse de cette matrice. On peut alors avoir recours à une méthode d’inverse généralisée pour calculer l’estimateur, mais c’est clairement le symptôme d’un nombre d’instruments trop élevé par rapport au nombre d’individus. Pour comprendre les conséquences néfastes d’un nombre d’instruments très élevé, le plus simple est de considérer le cas de l’estimateur des variables instrumentales. Cet estimateur peut être obtenu en appliquant deux fois les moindres carrés : une première fois en régressant chaque colonne de la matrice de variables explicatives X par rapport aux variables instrumentales W , une seconde fois en régressant la

112

Econométrie des données de panel avec R

variable expliquée y par rapport aux valeurs prédites des estimations précédentes ˆ Plus le nombre d’instruments J sera important, meilleurs seront les résultats X. ˆ sera d’autant plus proche de X que des premières estimations, c’est-à-dire que X J sera élevé. Si J devient supérieur ou égal au nombre d’observations, on aura ˆ = X et l’estimateur des variables instrumentales sera identique à celui des X moindres carrés ordinaires. On parle de problème d’ “over-fitting” 9 . Afin de limiter le nombre d’instruments, plusieurs solutions sont envisageables. La première consiste à limiter le nombre de retard pour les instruments. Par exemple, pour T = 10, si on limite le nombre de retards à 3, on obtient 1 instrument pour t = 3, 2 pour t = 4, 3 pour t = 5 . . . 10, soit au total 21 instruments contre 36 si tous les retards sont utilisés. La seconde consiste à “agglomérer” les conditions de moments 10 . Dans ce cas, la matrice d’instruments (7.4) est remplacée par la matrice suivante : 0

yn1 yn2 yn3 .. .

B B B B Zn = B B B @ yn(T yn(T

0 yn1 yn2 .. . 3) 2)

Le vecteur des (T Zn> ⌫n

>

=

yn(T yn(T

0 0 yn1 .. . 4) 3)

yn(T yn(T

0 0 0 .. . 5) 4)

yn(T yn(T

6) 5)

... ... ... .. .

0 0 0 .. .

0 0 0 .. .

... ...

yn2 yn3

yn1 yn2 P 1

2) moments empiriques est alors : m ¯ = ⇣P PT

T t=3

t=T

yn(t 1

⌫nt ,

2)

yn(t

T +2)

PT

t=4

yn(t

3)

⌫nt , yn1 ⌫nT



⌫nt ,

N

PT

t=5

0 0 0 .. .

1

C C C C C C C 0 A yn1 n

(7.18)

Zn> ⌫n avec :

yn(t

4)

⌫nt , . . . ,

Exemple 7.6 Afin d’illustre le problème de prolifération des instruments, nous utilisons le second jeu de données pour lequel la fréquence d’observation est de 25 ans. > data("DemocracyIncome25", package = "pder") > pdim(DemocracyIncome25) Balanced Panel: n=25, T=7, N=175

Nous estimons le modèle gmm en différences avec les deux variables democracy et income utilisées comme instruments gmm en utilisant l’ensemble des retards disponibles. > diff25 diff25lim diff25coll sapply(list(diff25, diff25lim, diff25coll), function(x) coef(x)[1:2])

[,1] [,2] [,3] lag(democracy) 0.4066085 0.4678152 0.50272735 lag(income) -0.1713431 -0.1257871 -0.04221125

On constate que les résultats des trois modèles sont relativement similaires.

7.3

Estimateur des moments généralisés en différences et en niveau

Le problème principal de l’estimateur des moments généralisés en différences est que les retards en niveau de la variable expliquée sont souvent très faiblement corrélés avec la variable expliquée retardée en différence. Pour résoudre ce problème d’instruments faibles, des conditions de moments sur le modèle en niveau peuvent être ajoutées.

7.3.1

Des instruments faibles

La faiblesse de la corrélation entre les instruments du modèle estimé en différences et la variable explicative yt 1 peut être mise en évidence dans le cas d’un modèle autorégressif simple avec T = 3 11 . Dans ce cas, le modèle en différences s’écrit pour la troisième observation (la seule utilisable) : yn3 = 11. Voir Blundell & Bond (1998) p.120.

yn2 +

⌫n3

114

Econométrie des données de panel avec R

Le seul instrument disponible pour cette observation est yn1 . L’estimateur des moments généralisés se ramène donc à l’estimateur des variables instrumentales, yn2 étant instrumenté par yn1 . En appliquant la démarche des doubles moindres carrés, on estime dans un premier temps yn2 en fonction de yn1 , puis dans un second temps yn3 en fonction de yˆn2 . La première estimation correspond au modèle linéaire suivant : yn2 = ⇡yn1 + ⌘n Le modèle structurel étant ynt = yn(t 1) + ⌘n + ⌫nt , l’équation à estimer peut également s’écrire : yn2 = ( 1)yn1 + ⌘n + ⌫n2 L’estimateur des mco est alors : ⇡ ˆ=(

1) +

1/N

P

yn1 (⌘n + ⌫n2 ) P 2 1/N n yn1 n

En supposant que le processus a commencé il y a un grand nombre de périodes, on peut calculer la limite de ⇡ ˆ en notant que le numérateur tend vers ⌘2 /(1 ) 2 (voir 7.3) et le dénominateur vers ⌘2 /(1 )2 + ⌫2 /(1 ) (voir 7.2). On a alors, 2 en notant k = (1 )2 /(1 ): plim ⇡ ˆ=(

1)

k 2 2 ⌘/ ⌫

(7.19)

+k

En notant que lim =1 k = 0, on voit clairement que si le processus est proche d’un processus de racine unitaire, ⇡ ˆ sera proche de 0. La figure 7.2, qui représente plim ⇡ ˆ et 1 en fonction de illustre le fait que, même pour des valeurs de sensiblement inférieures à 1, plim ⇡ ˆ est très proche de 0. Les instruments sont alors faibles et la seconde estimation du modèle des doubles moindres carré ordinaires sera médiocre (valeur du coefficient erratique, ecart-type élevé). Les instruments seront également faibles si la variance de l’effet individuel est très élevée par rapport à celle de l’innovation.

7.3.2

Conditions de moments sur le modèle en niveau

Arellano & Bover (1995) et Blundell & Bond (1998) ont montré qu’avec des hypothèses faibles sur la manière dont les données sont générées, une condition de moment supplémentaire existe pour l’équation en niveau qui s’écrit : ynt = yn(t

1)

+ ⌘n + ⌫nt

Les conditions de moment supplémentaires s’écrivent : E

yn(t

s) (⌘n

+ ⌫nt ) = 0 s = 1 . . . t

1

Elles indiquent donc que yn(t s) sont des instruments valides pour yn(t 1) dans l’équation en niveau. Si les conditions de moments pour le modèle en différences

Chapitre 7. Estimation d’un modèle dynamique

115

0.0

−0.2

−0.4

−0.6

−0.8

−1.0 0.0

0.2

0.4

0.6

Fig. 7.2 – Coefficient de la première étape et coefficient autorégressif

0.8

1.0

1 en fonction de la valeur du

sont également prises en compte, seule la condition correspondant à s = 1 est pertinente, les autres étant redondantes. Par exemple, pour T = 4, il y 3 conditions de moment pour l’équation en niveau 12 : (⌘ + ⌫3 ) y2

(7.20)

(⌘ + ⌫4 ) y3

(7.21)

(⌘ + ⌫4 ) y2

(7.22)

et 3 conditions pour le modèle en différences : (⌫3

⌫2 )y1

(7.23)

(⌫4

⌫3 )y2

(7.24)

(⌫4

⌫3 )y1

(7.25)

En soustrayant (7.20) de (7.22) ou en soustrayant (7.25) de (7.24), on obtient dans les deux cas : (⌫4 ⌫3 ) y2 . Par conséquent, une condition de moment est redondante. On peut omettre la condition (7.22) et plus généralement ne prendre en considération que les conditions de moment pour le modèle en niveau du type : E yn(t 1) (⌘n + ⌫nt ) = 0. En remplaçant yn(t 1) par yn(t 2) + ⌘n + ⌫n(t 1) , on obtient : ⇥ ⇤ E (⌘n + ⌫nt )(( 1)yn(t 2) + ⌘n + ⌫n(t 1) ) = 0 12. L’indice individuel est temporairement omis.

116

Econométrie des données de panel avec R

Les ⌫ étant non corrélés, on obtient : ⇥ E ⌘n ( 1)yn(t

2)

+ ⌘n

Soit encore, pour la période t :

E [⌘n ((



=0

1)ynt + ⌘n )] = 0

Pour | |< 1 (hypothèse d’absence de racine unitaire), cette condition peut se réécrire, en la divisant par 1 :  ✓ ◆ ⌘n mnt = E ⌘n ynt =0 1 Or, 1⌘n est l’état stationnaire de ynt dans le cadre du modèle autorégressif simple. La condition de moment indique donc que, à la période t, l’écart entre la valeur de la variable et l’état stationnaire ne doit pas être corrélé avec l’effet individuel. En remplaçant ynt par yn(t 1) + ⌘n + ⌫nt , on obtient :  ✓ ◆ ⌘n mnt = E ⌘n yn(t 1) + ⌘n + ⌫nt = 1  ✓ ◆ ⌘n E ⌘n yn(t 1) = mn(t 1) 1

On a donc : mn(t 1) = 0 ) mnt = 0. Cette équation indique donc que la condition de moment est soit vérifiée pour toutes les périodes, soit pour aucune. Cette situation est illustrée sur la figure 7.3 13 . Une interprétation plus pragmatique de cette équation est que mn décroît au cours du temps à un taux donné par . Si le processus a débuté il y a longtemps, y est proche de sa valeur stationnaire et la condition de moment est acceptable, même si elle n’est pas exactement vérifiée. Cette situation est illustrée sur la figure 7.4.

7.3.3

L’estimateur gmm en système

L’estimateur qui ajoute au modèle estimé en différences des conditions de moments sur le modèle en niveau est appelé estimateur des moments généralisés en système ou “sys-gmm”. Cet estimateur est obtenu en utilisant le vecteur d’erreurs en différence et en niveau : ✏+ n = ( ✏ n , ✏n ) = ( ⌫ n , ✏n ) et la matrice de moments augmentée suivante : 0 Zn 0 0 ... B 0 y 0 ... n2 + Zn = B @ 0 0 yn3 . . . 0 0 0 ...

1

0 0 0 yn(T

1)

C C A

13. Cette figure et la suivante sont inspirées de Roodman (2009b) p.145 et 147.

Chapitre 7. Estimation d’un modèle dynamique

117

12

10 ●



8



● ● ●





● ● ● ●

● ●

● ● ● ● ● ●







● ● ● ●

● ●

6

● ● ● ● ●

● ●

● ●



● ●



● ●



● ● ● ● ● ● ●

● ●

4

● ● ●

2



● ●

0 0

5

10

15

20

25

30

Fig. 7.3 – Le cas où la condition est vérifiée à chaque période

10

● ● ● ● ●

● ●



● ● ● ● ● ●









8

● ● ●

● ● ● ●

6





● ● ● ●

4



2

● ●





● ●

● ●



● ●

● ●





● ● ● ● ● ●



● ● ●



0



0

5

10

15

20

25

30

Fig. 7.4 – Le cas où la condition est quasiment vérifiée pour les dernières périodes

118

Econométrie des données de panel avec R

Les conditions de moments sont alors : X

Zn+>

n



⌫n ( ) ✏n ( )

◆! >

=

X

X

yn1 ⌫n3 ,

n

yn1 ⌫nT ,

n

X

X

X

yn1 ⌫n4 ,

n

✏n3 yn2 ,

n

yn2 ⌫nT , . . . ,

X

yn(T

2)

⌫nT ,

n

✏n4 yn3 , . . . ,

n

yn2 ⌫n4 , . . . ,

n

n

X

X

X

✏nT yn(T

1)

n

!>

Le choix d’une matrice de pondération initiale est moins évident que dans le cas du modèle en différence. En effet, dans celui-ci, seul le vecteur des erreurs en différences est utilisé et par conséquent la variance de ce vecteur est, avec les hypothèses d’absence d’autocorrélation et d’homoscédasticité des innovations, proportionnelle à une matrice connue, le coefficient de proportionnalité étant ⌫2 dont l’estimation n’est pas nécessaire (voir 7.8). En revanche, ici, le vecteur d’erreurs augmenté inclue les erreurs en niveaux, et donc les effets individuels. Dans ce cas, la matrice de variance dépend de ⌫2 et de ⌘2 . Pour résoudre ce problème et disposer d’une matrice initiale connue, on peut supposer ⌘2 = 0. Dans ce cas : V(✏+ n)

=E

✓✓

⌫n ⌫n



⌫n> , ⌫n>



=E



D⌫n ⌫n> D> ⌫n ⌫n> D>

D⌫n ⌫n> ⌫n ⌫n>



=

2 ⌫



h D>

D I

Exemple 7.7 Le modèle gmm en système est obtenu d’une manière similaire au modèle en différence, la seule différence étant que l’argument transformation doit être fixé à "ld" (pour level et difference), sa valeur par défaut étant "d" pour difference. > sys2 coef(summary(sys2))

Estimate Std. Error z-value Pr(>|z|) lag(democracy) 0.6175939 0.05713917 10.808591 3.134483e-27 lag(income) 0.1199633 0.01791565 6.696003 2.141970e-11

On constate que le coefficient autorégressif obtenu dans le modèle en système est proche de celui obtenu précédemment dans le modèle en différence. On remarque également que le coefficient associé au revenu est significativement positif et beaucoup plus élevé que précédemment.



Chapitre 7. Estimation d’un modèle dynamique

7.4

119

Inférence

L’estimation d’un modèle par la méthode des moments généralisés pose deux types de problèmes en termes d’inférence : – le premier est que, même si l’estimation du modèle est convergente, il n’en est pas nécessairement de même pour la matrice de variance-covariance des coefficients si la formule classique de cette matrice est appliquée. On peut alors mettre en oeuvre des estimateurs robustes de cette matrice ; – le second est que l’estimation n’est convergente que si certaines hypothèses sont vérifiées : en particulier l’hypothèse d’absence de corrélation des innovations et celle de validité des conditions de moments.

7.4.1

Estimation robuste de la matrice de variance des coefficients

La formule de la variance de l’estimateur en une étape est donnée par l’équation > (7.11). Si les innovations sont hétéroscédastiques et/ou corrélées, ⇥ P > ⇤ Z HZ n’est pas P > un estimateur convergent de E ⌫n et l’estimateur de n ⌫ n Zn n Zn n ˆ ˆ(1) Z est un la variance donné par (7.14) n’est pas robuste. En revanche, Z > ⌦ estimateur convergent de la variance des moments, ce qui permet, en introduisant cette expression dans (7.11), d’obtenir l’estimateur robuste de la variance des coefficients du modèle en une étape : ⇥ ⇤ 1 ˆ ˆ (1) = V X > Z(Z > HZ) 1 Z > X ˆ ˆ(1) Z)(Z > HZ) 1 Z > X (7.26) ⇥ X > Z(Z > HZ) 1 (Z > ⌦ ⇥ ⇤ 1 > > 1 > ⇥ X Z(Z HZ) Z X

L’expression de l’estimateur en deux étapes est donnée par (7.16). La difficulté est ˆ ˆ(1) , qui dépend lui-même de ˆ(1) et donc de y. Par que l’estimateur dépend de ⌦ conséquent, ˆ(2) n’est pas une fonction linéaire de y et la formule habituelle de la variance n’est pas adaptée. ˆ ˆ(1) est typiquement très L’estimation de la variance du vecteur des J moments ⌦ imprécise pour deux raisons. La première est que le nombre de paramètres est très important (J ⇥ (J + 1)/2). La seconde est que ces paramètres sont des moments d’ordre 2 de moments d’ordre 2, donc des moments d’ordre 4 des données originales 14 . La démarche proposée par Windmeijer (2005) permet d’obtenir une estimation convergente de la variance de l’estimateur en deux étapes. Pour commencer, on remplace dans (7.16) y par X + ⌫. On obtient alors :  1 ⇣ ⌘ 1 ˆ(2) ˆ ˆ(1) Z = X >Z Z >⌦ Z> X  (7.27) ⇣ ⌘ 1 ˆ ˆ(1) Z ⇥ X >Z Z >⌦ Z> ⌫ 14. Voir Roodman (2009b) p.140.

120

Econométrie des données de panel avec R

De manière générale, on définit :  ⇣ ⌘ ˆ ˆ g( y, ⌦) = X > Z Z > ⌦Z  ⇣ ⌘ ˆ ⇥ X > Z Z > ⌦Z

1 1

1

Z> X

(7.28)

Z> ⌫

ˆ ˆ(1) ). La variance de ˆ(2) est donc celle de ce qui implique que ˆ(2) = g( y, ⌦ ˆ ˆ(1) ). On réalise ensuite un développement limité d’ordre 1 de g autour de g( y, ⌦ la vraie valeur des paramètres . On note D le gradient de g évalué pour la vraie valeur des paramètres : @ ˆ ˆ) | ˆ D= g( y, ⌦ = @ˆ Le développement limité s’écrit alors : ˆ ˆ(1) ) ⇡ g( y, ⌦ ˆ ) + D( ˆ(1) g( y, ⌦ Or, ( ˆ(1)

)

) = g( y, H). Par conséquent, le développement limité devient : ˆ ˆ(1) ) ⇡ g( y, ⌦ ˆ ) + Dg( y, H) g( y, ⌦

La variance de ˆ(2) est alors approximée par : h ih i> ˆ ˆ (2) ⇡ g( y, ⌦ ˆ ) + Dg( y, H) g( y, ⌦ ˆ ) + Dg( y, H) V Soit encore :

ˆ ˆ (2) V

⇡ + + +

ˆ )g( g( y, ⌦ Dg( y, H)g( ˆ )g( g( y, ⌦ Dg( y, H)g(

y, H)> D> ˆ )> y, ⌦ ˆ )> y, ⌦ y, H)> D>

(7.29)

ˆ par ⌦ ˆ ˆ(1) , g( y, ⌦ ˆ )g( y, ⌦ ˆ )> et g( y, ⌦ ˆ )g( y, H)> ⌫ˆ(1) et ⌦ h i 1 ˆ (2) = ˆ ˆ(1) Z) 1 Z > X sont tous les deux approximés par V X > Z(Z > ⌦ . De ⇥ ⇤ (1) 1 ˆ . On obtient plus, g( y, H)g( y, H)> = X > Z(Z > HZ) 1 Z > X = V donc finalement l’expression de la matrice de variance robuste de l’estimateur en deux étapes : ˆ ˆ (2) = V ˆ (2) D> + DV ˆ (1) D> + V ˆ (2) + DV ˆ (2) V En remplaçant

⌫ par

L’expression de D est donnée par Windmeijer (2005). Exemple 7.8 La fonction vcov permet d’obtenir l’expression “classique” et non convergente de la variance et vcovHC permet d’obtenir la version robuste (équations 7.26 pour le modèle en une étape et 7.29 pour le modèle en deux étapes). Nous extrayions cidessous les écarts-types des deux premiers coefficients pour le modèle en différences en deux étapes.

Chapitre 7. Estimation d’un modèle dynamique

121

> sqrt(diag(vcov(diff2)))[1:2] lag(democracy) 0.04794953

lag(income) 0.04645903

> sqrt(diag(vcovHC(diff2)))[1:2] lag(democracy) 0.10783032

lag(income) 0.06053787

On constate effectivement sur cet exemple que l’expression classique de la variance de l’estimateur semble biaisée vers le bas. En effet, l’écart-type “robuste” est nettement supérieur à l’écart-type “classique”.

7.4.2

Tests de validité des moments

Si P les conditions de moments sont valides, le vecteur de moments empiriques m ¯ = 1 > Z ⌫ est d’espérance nulle. Si cette hypothèse est vérifiée, la statistique n n n N de Wald : m ¯ > V(m) ¯ 1m ¯ suit un 2 à J K degrés de liberté. Ce test a été proposé par Sargan (1958) et appliqué aux modèles des moments généralisés par Hansen (1982). Plusieurs versions de ce test peuvent être obtenues selon : – que les résidus du modèle en une étape ou en deux étapes sont utilisés pour approximer m ¯; 2 ˆ ˆ(1) Z) de la matrice de – que l’estimation simple ( N⌫2 Z > HZ)ou robuste ( N12 Z > ⌦ variance des moments est utilisée. Par exemple, le test portant sur le modèle à deux étapes utilisant l’estimation robuste de la matrice des moments est basé sur la statistique : 1 N

⌫ˆ(2)> Z



⌫ˆ(2)> Z

1 >ˆ N 2 Z ⌦ ˆ(1) Z



ˆ ˆ(1) Z Z >⌦





1 1

1 > NZ

⌫ˆ(2) =

Z > ⌫ˆ(2)

qui est la valeur de la fonction objectif du modèle de moments généralisés en deux étapes évaluée pour ˆ(2) . Il est recommandé, dans le cas du modèle “sys-gmm”, de réaliser un test de SarganHansen sur le sous-ensemble de conditions de moments qui concerne le modèle en niveau, afin de tester séparément la validité des hypothèses supplémentaires imposées pour que ce modèle soit valide. Exemple 7.9 Le test de Sargan-Hansen est réalisé à l’aide de la fonction sargan . Par exemple, pour le modèle en différences en une étape, on obtient :

122

Econométrie des données de panel avec R > sargan(diff2) Sargan Test data: chisq = 49.8814, df = 44, p-value = 0.251 > sargan(sys2) Sargan Test data: chisq = 55.6784, df = 54, p-value = 0.4114

On a pour le modèle en différences J = 55 (les 45 instruments “gmm”, la variable de revenu et les 9 variables indicatrices de la période) et K = 11 (l’endogène retardée, le revenu et les 9 variables indicatrices de la période). Le nombre de degrés de liberté de ce test est donc de J K = 44. L’hypothèse de validité des moments pour ce modèle est ici non-rejetée. Pour le modèle en système, le nombre d’observations utilisées est de 10 (une de plus que dans le modèle en différence). Il y a donc un coefficient et un instrument en plus (le coefficient associé à la variable indicatrice de la période supplémentaire), et 10 instrument supplémentaires qui correspondent aux conditions de moments pour les 10 observations du modèle en niveau. On a donc J = 55 + 1 + 10 = 66 et K = 11 + 1 = 12. Le nombre de degrés de liberté est donc de J K = 66 12 = 44 et là aussi, l’hypothèse de validité des conditions de moment pour le modèle gmm en système n’est pas rejetée. Le test de Hansen-Sargan est particulièrement sensible au problème de prolifération des instruments. Roodman (2009b) montre, en utilisant les études de Levine et al. (2000) et de Forbes (2000), que la probabilité critique de ce test a tendance à être très élevée, ce qui conduit à ne pas rejeter l’hypothèse de validité des conditions de moments, alors que le même test réalisé sur des modèles plus parcimonieux en termes de nombre d’instruments peut conduire au résultat opposé. Afin d’illustrer ce résultat, on calcule le test de Sargan sur les modèles estimés précédemment sur les données pour lesquelles il y a 7 observations de 25 pays. > sapply(list(diff25, diff25lim, diff25coll), + function(x) sargan(x)[["p.value"]]) chisq chisq chisq 0.91890072 0.07104934 0.21531390

La probabilité critique pour le modèle qui utilise toutes les conditions de moment est proche de 1, alors que celles des deux autres modèles sont bien inférieure ; en particulier, pour le modèle qui limite le nombre de retards à 3, l’hypothèse de validité des conditions de moment est rejetée au seuil de 5%.

Chapitre 7. Estimation d’un modèle dynamique

7.4.3

123

Test d’absence d’autocorrélation des innovations

La méthode des moments généralisés n’est convergente que si les conditions de moments sont vérifiées, ce qui implique en particulier que les innovations ne sont pas auto-corrélés. Arellano & Bond (1991) ont proposé un test adapté à cette situation. Ce test est basé sur la statistique suivante : 1 al = p N

⌫ˆ> ⌫ˆ

l

où ⌫ l est le retard d’ordre l de ⌫. En utilisant l’expression du modèle théorique et du modèle estimé : y = X + ⌫ = X ˆ + ⌫ˆ, on obtient : ⌫ˆ =

X( ˆ



)

En insérant cette expression dans la statistique de test, on obtient : ⇣ ⌘⇣ ⌘ al = p1N ⌫> ( ˆ )> X > ⌫ l X l( ˆ ) = p1N ⌫ > ⌫ l p 1 > l ⌫ X N( ˆ ) N p > 1 > ˆ ) N X ⌫ l pN ( p > p1 1 ˆ + N( ) N N X> X l N ( ˆ ) Cette expression se simplifie sipN !p+1 en notant que : – ˆ étant convergent d’ordre N , N ( ˆ ) n’est ni divergent, ni ne converge vers 0 ; – si les variable explicatives ne sont pas post-déterminées, elles ne sont pas corrélées avec les valeurs postérieures de ⌫. On a alors : N1 ⌫ > X l ! 0 ; – N1 X > X l ne diverge pas. ce qui implique que les deuxième et quatrième termes convergent vers 0. Le calcul d’un estimateur convergent de la variance de al peut donc être basé sur celle de : ⌘ 1 ⇣ > bl = p ⌫ ⌫ l (ˆ )> X > ⌫ l N Un estimateur convergent de bl (et donc de al ) est :

2 ⌫ˆ

1 ⇣ ⌫ˆ N l>

l> ˆ

V( ⌫ˆ) ⌫ˆ

l

+

X( X > ZAZ > X)

⌫ˆ 1

l>

ˆ ˆ) X > ⌫ˆ X V(

ˆ ⌫ˆ) ⌫ˆ XZAZ > V(

l l



La statistique de test est alors obtenue en divisant al par la racine carré de l’expression précédente et elle suit une distribution normale si l’hypothèse d’absence d’autocorrélation est vérifiée. Le modèle étant exprimé en différence, le test d’autocorrélation d’ordre 1 n’est pas pertinent car ⌫nt = ⌫nt ⌫n(t 1) est corrélé

124

Econométrie des données de panel avec R

avec ⌫n(t 1) = ⌫n(t 1) ⌫n(t 2) du fait de la présence de ⌫n(t 1) dans les deux différences successives. En revanche, le test d’autocorrélation d’ordre 2 est pertinent, puisqu’il consiste à analyser la corrélation entre ⌫nt = ⌫nt ⌫n(t 1) et ⌫n(t 2) = ⌫n(t 2) ⌫n(t 3) , qui existe si ⌫n(t 1) est corrélé à ⌫n(t 2) , c’est-à-dire si les innovations en niveau présentent une autocorrélation d’ordre 1. Exemple 7.10 Le test d’autocorrélation des innovations de Arellano & Bond (1991) est obtenu à l’aide de la fonction mtest . L’argument order est ici fixé à 2 conformément à la remarque précédente. > mtest(diff2, order = 2) Autocorrelation test of degree 2 data: normal = 0.8809, p-value = 0.1892

Les résultats détaillés du modèle sont disponibles en utilisant la méthode summary . Les tests précédemment décrits sont imprimés et l’inférence est réalisée à l’aide de l’estimateur robuste de la variance des coefficients si l’argument robust est vrai, ce qui est la valeur par défaut. > summary(diff2) Twoways effects Two steps model Call: pgmm(formula = democracy ~ lag(democracy) + lag(income) | lag(democracy, 2:99) | lag(income, 2), data = DemocracyIncome, subset = sample == 1, effect = "twoways", model = "twosteps", index = c("country", "year")) Balanced Panel: n=211, T=11, N=2321 Number of Observations Used: Residuals Min. 1st Qu. -1.301000 -0.003145

Median 0.000000

838 Mean 0.001891

3rd Qu. 0.000000

Max. 1.079000

Coefficients

Estimate Std. Error z-value Pr(>|z|) lag(democracy) 0.5540073 0.1078303 5.1378 2.78e-07 *** lag(income) 0.0018436 0.0605379 0.0305 0.9757 --Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 Sargan Test: chisq(44) = 49.8814 (p.value=0.25098) Autocorrelation test (1): normal = -4.457875 (p.value=4.1388e-06) Autocorrelation test (2): normal = 0.8592423 (p.value=0.1951) Wald test for coefficients: chisq(2) = 28.13308 (p.value=7.78e-07) Wald test for time dummies: chisq(9) = 33.6682 (p.value=0.00010211)

Chapitre 7. Estimation d’un modèle dynamique

7.5

125

Exemples d’application

Les articles utilisant la méthode des moments généralisés en panel sont très nombreux. Nous nous contenterons ici de décrire ceux pour lesquels les données sont disponibles dans les librairies plm et pder. L’étude de Levine et al. (2000) vise à analyser s’il existe une relation de causalité entre la qualité du système financier (qui permet de limiter les asymétries d’information et de faciliter les transactions) et la croissance économique. A cet effet, ils estiment un modèle dans lequel la croissance économique est estimée en fonction d’un ensemble de variables de contrôle et des caractéristiques exogènes du système financier. Ils utilisent un panel de 74 pays pour lequel ils ont 7 observations de périodes de 5 ans allant de 1960 à 1995. Le taux de croissance en logarithme est régressé en fonction du niveau de richesse initiale en logarithme, et de trois indicateurs de la qualité du système financier : le degré de liquidité du système financier, le rapport entre les dépôts des banques commerciales et la somme des dépôts des banques commerciales et de la banque centrale et le rapport entre les crédits accordés à l’économie et le PIB. Les deux modèles gmm en différences et en système sont estimés et les trois indicateurs de la qualité du système financier ont une influence significativement positive sur la croissance, en particulier dans le cadre de l’estimation en système. Roodman (2009b) revient sur cette étude en s’intéressant au problème de prolifération des instruments, susceptible d’aboutir à une validation fallacieuse de l’hypothèse de validité des conditions de moments. En particulier, dans l’étude originale, la probabilité critique du test de Hansen pour les conditions de moments du modèle en niveau est de 0.97. Des spécifications différentes, plus économes en termes de nombre d’instruments, utilisées par Roodman (2009b) donnent des résultats bien différents. En effet, la probabilité critique est de 0.001 et l’hypothèse de validité des conditions de moments supplémentaires du modèle en système est rejetée. Les données permettant de reproduire ces résultats sont disponibles sous le nom de FinGrowth dans la librairie pder. Forbes (2000) s’intéresse à l’influence de l’inégalité de la distribution des revenus sur la croissance économique. A cet effet, un panel de 45 pays pour 6 périodes quinquennales allant de 1960 à 1995 est utilisé. La croissance est estimée en fonction du revenu par tête en logarithme retardé d’une période, du coefficient de Gini retardé d’une période, du niveau d’éducation des hommes et des femmes et du niveau de prix de l’investissement. Plusieurs méthodes d’estimation sont utilisées, en particulier l’estimateur gmm en différences de Arellano & Bond (1991). Le résultat principal de l’étude est que le coefficient associé à l’indice de Gini est positif et significatif au seuil de 5%. Ce résultat est en contradiction avec beaucoup d’études réalisées en coupe transversale qui concluent à une relation négative entre inégalité et croissance. Cette étude a été reprise par Roodman (2009b) afin d’illustrer le risque d’utiliser des instruments faibles et nombreux. En effet, le coefficient autorégressif est proche de 1 et le nombre d’instruments est très élevé (80, alors qu’il n’y a que 138 observations). Roodman (2009b) utilise plusieurs autres spécifications qui limitent le nombre d’instruments et, dans ce cas, l’indice de Gini n’est plus

126

Econométrie des données de panel avec R

significatif. Caselli et al. (1996) s’intéressent à l’analyse de la croissance économique des pays et en particulier au phénomène de convergence. Il partent des résultats obtenus dans de nombreuses études réalisées en coupe transversale qui aboutissent pour la plupart à la conclusion que les pays convergent vers leur état stationnaire à un taux très faible, égal environ à 2-3%. Leur argument est que ces études souffrent de deux problèmes de spécification : le premier est la non prise en compte de la nature dynamique du modèle et le second est la non prise en compte de la possible endogénéité des variables explicatives. Les auteurs appliquent l’estimateur de Arellano & Bond (1991) sur un panel de 93 pays et 6 périodes quinquennales de 1965 à 1985. Ils aboutissent à un taux de convergence beaucoup plus élevé, de l’ordre de 10%. Bond et al. (2001) indiquent que les résultats obtenus doivent être pris avec circonspection dans la mesure où la variable expliquée étant quasiment une variable à racine unitaire, les instruments utilisés dans le modèle sont faibles. Ils réestiment le même modèle en utilisant l’estimateur de Blundell & Bond (1998) et ils obtiennent alors un taux de convergence beaucoup plus faible, de l’ordre de 2-4%. Dans leur article fondateur, Arellano & Bond (1991) ont utilisé des données de 140 entreprises britanniques de 1976 à 1984 afin d’estimer une équation de demande de travail. Celle-ci est dynamique du fait de l’inclusion de deux retards de la variable expliquée. Les autres variables explicatives utilisées, elles aussi avec deux retards, sont le taux de salaire, le stock de capital et le niveau de production. Ces données ont été utilisées dans de nombreux autres articles, en particulier Blundell & Bond (1998), Windmeijer (2005) et Roodman (2009a). Elles sont disponibles sous le nom de EmplUK dans la librairie plm. Alonso-Borrego & Arellano (1999) mènent une étude sur des données similaires concernant 738 entreprises espagnoles sur la période 1983-1990. Un modèle var est utilisé pour l’emploi et le taux de salaire. Ces données sont disponibles sous le nom de Snmesp dans la librairie plm. Mairesse & Hall (1996), Blundell & Bond (2000) et Bond (2002) ont estimé une fonction de production Cobb-Douglas sur un panel de 509 entreprises américaines sur la période 1982-1989. Les variables explicatives sont, en logarithme, l’endogène retardée et les deux facteurs de production (travail et capital) contemporains et avec un retard. Les résultats de Mairesse & Hall (1996), obtenus en utilisant l’estimateur de Arellano & Bond (1991) sont surprenants : l’hypothèse de rendements constants est rejetée et le coefficient associé au capital est faible et non-significatif. Blundell & Bond (2000) montrent que ces mauvais résultats sont dûs au fait que les variables utilisées sont proches d’être des processus de racine unitaire. Dans ce cas, on sait que l’estimateur gmm en différences donne de mauvais résultat car les instruments sont faibles. En revanche, les résultats qu’ils obtiennent en utilisant l’estimateur en système donne des résultats plus plausibles (hypothèse de rendements constants non rejetée et coefficient associé au capital significatif). Ces données sont disponibles sous le nom de RDPerfCompanies dans la librairie pder. Bond (2002) présente un exemple d’estimation de modèle autorégressif simple en

Chapitre 7. Estimation d’un modèle dynamique

127

utilisant une série de taux d’investissement pour 703 entreprises américaines sur la période 1987-2000. Ces données sont disponibles sous le nom de InvRate dans la librairie pder. Kessler et al. (2011) s’intéressent à l’influence des transferts inter-régionaux dans un Etat fédéral sur les inégalités entre les régions. Leur modèle théorique prédit que, contrairement à l’intuition, ces transferts peuvent aggraver les inégalités interrégionales. Ils utilisent des données pour 17 pays de l’OCDE sur la période 19821999, en utilisant en particulier la méthode d’estimation de Arellano & Bond (1991). Les résultats indiquent effectivement qu’un accroissement des transferts aggrave les inégalités inter-régionales. Ces données sont disponibles sous le nom de RegIneq dans la librairie pder.

128

Econométrie des données de panel avec R

Chapitre 8

Modèles linéaires généralisés et assimilés Les modèles linéaires généralisés constituent une famille de modèles utilisés en statistique. Ces modèles sont caractérisés par une fonction de distribution pour la variable expliquée et inclue, comme cas particulier : – le modèle gaussien, équivalent au modèle linéaire, – le modèle binomial, pour lequel la variable explicative ne prend que deux valeurs ; deux cas particuliers très utilisés des modèles binomiaux sont les modèles logit et probit, – le modèle de Poisson, adapté au cas où la variable expliquée est une variable de comptage. En plus de ces modèles, très couramment utilisés en économétrie, nous décrivons dans cette section d’autres modèles qui ne sont pas des modèles linéaires généralisés mais qui constituent des extensions naturelles de ceux-ci ; il s’agit : – du modèle tobit qui est un mélange du modèle gaussien et du modèle probit, – du modèle ordonné, qui est une extension naturelle du modèle binomial, – du modèle negbin, qui est une extension du modèle de Poisson.

8.1 8.1.1

Le modèle binomial Introduction

On considère une modèle pour lequel la variable expliquée est binomiale, les deux valeurs possibles étant notées 0 et 1. On définit une variable latente y ⇤ , qui est une variable continue inobservable. Cette variable latente est reliée à la variable binomiale observée y par la règle d’observation suivante :

130

Econométrie des données de panel avec R

y⇤ > µ ) y = 1 y⇤  µ ) y = 0 Sans perte de généraité, on peut supposer que µ = 0. La valeur de la variable latente est la somme d’une combinaison linéaire de variables explicatives et d’un terme d’erreur. y⇤ =

>

x+✏

Les probabilités associées aux deux valeurs possibles de la variable expliquée sont alors : P (y = 0) = P (✏ 

P (y = 1) = P (✏ >

>

x)

>

x)

En notant F la fonction de densité cummulée de ✏, nous avons :

P (y = 1) = 1

P (y = 0) = F (

>

x)

>

>

x)

F(

x) = F (

la dernière expression étant valable si la densité de ✏ est symétrique. En notant q = 2y 1, qui est égal à 1, +1, la probabilité peut être exprimée en utilisant l’expression compacte suivante : P (y) = F (q

>

x)

La moyenne et la variance de la variable latente ne sont pas identifiées. Deux fonctions de distribution sont couramment utilisées. La distribution normale : Z 1 2 1 p e ✏ F (✏) = (✏) = 2⇡ 1 qui conduit au modèle probit et la distribution logistique : F (✏) = ⇤(✏) =

e✏ 1 + e✏

qui conduit au modèle logit. La fonction de log de vraisemblance s’écrit : X ln L = ln Fi i

avec :

Chapitre 8. Modèles linéaires généralisés et assimilés

Le gradient est :

et la hessienne :

Fi = F (zi ) and zi = qi ⇥

>

131

xi

@ ln L X fi = qi xi @ Fi i X @ 2 ln L = > @ @ i

fi0 Fi



fi Fi

◆2 !

qi2 xi x> i

Pour le modèle logit, ces deux expressions deviennent : @ ln L X 1 = qi xi @ 1 + ezi i X

@ 2 ln L = @ @ >

i

ezi q 2 xi x> i 1 + ezi i

alors que pour le modèle probit, on obtient : @ ln L X i = qi x i @ i i ◆ X i ✓ @ 2 ln L i = zi + qi2 xi x> i @ @ > i i i

8.1.2

Panel

Dans le cas de données de panel, nous disposons d’observations répétées de y pour les mêmes individus. La variable latente est alors définie par : ⇤ ynt =

>

xnt + µn + ⌫nt

Le terme d’erreur est classiquement la somme de deux composantes, un effet individuel µn et un terme isiosyncratique ⌫nt . Deux observations du même individu sont alors corrélées du fait de la présence de µn . Si le vecteur contient une constante, on peut suposer sans perte de généralité que E(µ) = 0. ⇤ ynt =

>

xnt + µn + ⌫nt

Pour une valeur donnée de µn , la probabilité est définie comme précédemment pour une observation : P (ynt | µn ) = F qnt (

>

xnt + µn )

132

Econométrie des données de panel avec R

La probabilité jointe des différentes réalisations de y pour les différentes périodes pour l’individu n s’écrit :

P (yn1 , yn2 , . . . , ynT | µn ) =

T Y

F qnt (

>

xnt + µn )

t=1

La probabilité non conditionelle est obtenue en intégrant cette expression. En supposant que la distribution de µ est normale, on obtient :

Ln =

Z

T +1 Y

F qnt (

>

1 t=1

µ v=p 2 1 Ln = p ⇡

Z

T +1 Y

1 t=1

xnt + µ) p

1 e 2⇡

0.5( µ )

2



dµ ) dv = p 2

⇣ F qnt (

>

xnt +

p

⌘ 2 v) e

v2

dv

Il n’y a pas d’expression analytique pour cette intégrale, mais elle peut être approximée numériquement de manière efficace en utilisant les quadrature d’Hermite. On a alors : R T ⇣ Y 1 X Ln = p wr F qnt ( ⇡ r=1 t=1

avec : Fir =

QT

t=1

F qnt (

>

xnt +

p

>

xnt +

p

R ⌘ 1 X 2 vr ) = p wr Fir ⇡ r=1

2 vr )

r gnt =

hrnt =

r @ ln Fnt r @znt

r @ 2 ln Fnt 2 r @znt

Le gradient et la hessienne sont, en notant ✓ = ( , ) l’ensemble des paramètres à estimer : " ( T ✓ ◆)# R X @ ln Ln 1 X r x nt r =p F wr qnt gnt p 2vr @✓ ⇡Ln r=1 n t=1

Chapitre 8. Modèles linéaires généralisés et assimilés

@ 2 ln Ln @✓@✓>

= +

8.1.3

133

" T ✓ ◆⇣ R X 2 p ⌘ 1 X r xnt r r p p Fn w r qnt hnt x> , 2vr nt 2vr ⇡Ln r=1 t=1 !# ✓ ◆! X T T ⇣ ⌘ X p x nt r r p ant gnt ant gnt x> nt , 2vr 2vr t=1 t=1 ✓ ◆✓ ◆> @ ln Ln @ ln Ln @✓ @✓

Application

Brender & Drazen (2008) se sont intéressé à l’influence de la politique budgétaire sur la réélection des hommes politiques. Plus précisément, il est souvent suggéré que lorsqu’une échéance électorale approche, les hommes politiques en place ont tendance à mener une politique budgétaire plus généreuse, c’est-à-dire à réduire les impôts et/ou à augmenter les dépenses. Dans cet article, un panel de 75 pays est utilisé, avec un nombre d’observations compris entre 1 et 16. Au sein de cet échantillon, un sous-ensemble d’observations est isolé lorsque l’homme politique au pouvoir se représente (pour les autres observations, on analyse si le parti au pouvoir est réélu ou non). Ce sous-échantillon peut être sélectionné à l’aide de la variable logique narrow. La variable expliquée est reelect qui vaut 1 en cas de réélection et 0 autrement. Les deux variables explicatives cruciales sont ddefterm et ddefey qui mesure le ratio d’excédent budgétaire, dans le premier cas pour les deux années précédent l’élection par rapport aux deux années précédentes et dans le second cas pour l’année de l’élection par rapport à l’année précédente. Les variables de contrôle sont le taux de croissance du pib durant le mandat gdppc, le fait que le pays soit en développement ou non dev, le fait qu’il soit nouvellement une démocratie nd et le fait que le système électoral soit majoritaire ou non maj. > library("pglm") > data("Reelection", package="pder")

Les résultats du modèle logit à effets aléatoires est donné ci-dessous : > summary(elect.ea t)

134

Econométrie des données de panel avec R (Intercept) -1.53702 0.48947 -3.1402 0.001689 ddefterm 14.08614 8.21124 1.7155 0.086259 ddefey 13.79305 6.99844 1.9709 0.048738 gdppc 19.37953 7.61767 2.5440 0.010958 dev 0.89268 0.42963 2.0778 0.037728 nd 0.80960 0.43940 1.8425 0.065402 maj 0.84695 0.38076 2.2243 0.026126 sigma 0.84054 0.34604 2.4290 0.015140 --Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 --------------------------------------------

** . * * * . * * ‘.’ 0.1 ‘ ’ 1

On constate que la probabilité de réélection est plus forte dans les pays en développement, dans les pays nouvellement démocratique et pour les systèmes électoraux majoritaires. Le taux de croissance du pib a également l’effet positif attendu sur la probabilité de réélection. Concernant la politique budgétaire, les coefficients associés aux deux variables indiquant la variation du surplus budgétaire à l’approche de l’élection sont positifs ; cela signifie qu’une politique budgétaire “électoraliste” n’a pas d’effet positif systématique sur la réélection. A l’inverse, les résultats indiquent que les électeurs auraient plutôt tendance à pénaliser ce type de politique.

8.2 8.2.1

Modèle ordonné Introduction

Un modèle ordonné est un modèle pour lequel la variable expliquée peut prendre J valeurs (avec J > 2). La modélisation est similaire au modèle binomial. On considère une variable latente, égale comme précédemment à la somme d’une combinaison linéaire de variables explicatives et d’un terme d’erreur : y⇤ =

>

x+✏

Notons ! = (!1 , !1 , . . . , !J , !J+1 ) un vecteur de paramètres, avec !1 = 1 et !J+1 = +1. La règle d’observation pour les différentes valeurs de y s’écrit alors : y y

= = .. .

1 2

y y

= =

J J

, , .. . 1

  .. .

!1 !2

, !J 1 , !J

 

>

x+✏ x+✏

!2 !3

>

  .. .

x+✏ x+✏

 

!J !J+1

>

>

En notant F la fonction de densité cummulative de ✏, la probabilité associée à une valeur de y s’écrit : P(y = j) = F (!j

>

x)

F (!j

1

>

x)

Chapitre 8. Modèles linéaires généralisés et assimilés

135

The probability of the outcome yn for the individual n can be writen : >

Pyn = P(y = yn ) = F (!yn +1

xn )

>

F (!yn

xn )

The gradient and the hessian are, denoting ✓ = ( , !) the complete set of the parameters, wh a vector of J + 1 elements which are all zero except at the h 0 position and f the derivative of the density function f : ✓ ◆ ✓ ◆ @ ln Ln fyn +1 f yn xn xn = wyn +1 w yn @✓ Py n Py n @ 2 ln Ln @✓@✓>

8.2.2



=



xn wyn +1 @ ln Ln @✓



◆✓



0

> x> n , wyn +1

@ ln Ln @✓

◆>

fyn +1 Py n

xn w yn



0

f yn Py n

> x> n , w yn

Panel

Le raisonnement est similaire à celui adopté pour le modèle binomial. La probabilité jointe pour un individu n pour une valeur donnée de l’effet individuel est :

P (yn1 , yn2 , . . . , ynt | µn ) =

T Y ⇥

>

F !ynt +1

xnt

µn

>

F !ynt

xnt

µn

t=1

En supposant que la distribution des effets individuels est normale, la probabilité non conditionelle s’écrit :

Ln =

Z

T +1 Y ⇥ 1 t=1

F !ynt +1

>

xnt

µn

F !ynt

>

xnt

µn



p

1 e 2⇡



0.5( µ )

2



En utilisant le même changement de variable que précédemment, on obtient : 1 Ln = p ⇡

Z

T h +1 Y 1 t=1

⇣ F !ynt +1

>

xnt

p

2 v



⇣ F !ynt

>

xnt

p

2 v

⌘i

e

que l’on peut approximer en utilisant les quadrature de Gauss-Hermite : R T h ⇣ Y 1 X Ln = p wr F !ynt +1 ⇡ r=1 t=1

>

xnt

p

2 vr



⇣ F !ynt

>

xnt

p

2 vr

⌘i

v2

dv

136

Econométrie des données de panel avec R

En notant : 8 r > znt = !ynt xnt > > > r r > m = m(z ) < nt 0 nt 1 xn > r > = @ wpynt A > Mnt > : 2vr

p

p

+r > znt = !ynt +1 xnt +r m+r = m(z ) nt 0 nt 1 xn r+ Mnt = @ wypnt +1 A 2vr

2vr

R T Y ⇥ +r 1 X Ln = p wr Fnt ⇡ r=1 t=1

r Fnt

2vr



QT ⇥ +r avec ✓> = ( > , ! > , ) le vecteur complet de paramètres à estimer, Fnr = t=1 Fnt +r +r r r @ ln[Fnt Fnt @ 2 ln[Fnt Fnt ] r ] r gnt = , hnt = le gradient et la hessienne s’écrivent : @z r @z r 2 nt

nt

R X

@ ln Ln 1 =p @✓ ⇡Ln

2

@ ln Ln @✓@✓>

=

+

1 p ⇡Ln T X t=1

T X

R X



wr Pnr

e+r ynt Fy+r nt

Fyrnt

◆✓

8 T < X :

(

T X

+r +r gnt Mnt

r r gnt Mnt

t=1

+r +r gnt Mnt

r r gnt Mnt

t=1

+r +r Mnt Mnt

+r fy+r Mnt nt

@ ln Ln @✓

wr Fnr

r=1

r=1

t=1

8.2.3

r Fnt

>

T X t=1

r fyrnt Mnt

Fy+r nt

@ ln Ln @✓

◆>

!

erynt Fy+r nt

+r fy+r Mnt nt

Fyrnt

2

Fyrnt



)

T X

+r +r gnt Mnt

r r gnt Mnt

t=1

r r > Mnt Mnt

r fyrnt Mnt



> !)

Application

Raux et al. (2009) ont analysé l’équité perçue de différents type de rationnement de la demande à l’aide d’une enquête dans laquelle les individus devaient indiquer sur une échelle ordinale leur avis sur une proposition de rationnement concernant soit l’allocation de places de TGV, soit de places de parking. La variable expliquée answer prend des valeurs entières de 0 (très injuste) à 3 (très juste). La principale variable explicative indique le type de rationnement proposé : tarification de pointe peak, règle administative admin, tirage au hasard lottery, offre complémentaire addsupply, file d’attente queuing, règle morale moral et règle de compensation compensation. Les autres variables explicatives indique que le rationnement est récurrent ou non reccuring, que la personne interrogée a un diplôme education et qu’elle dispose ou non d’un permis de conduire driving. L’estimation suivante

!>

Chapitre 8. Modèles linéaires généralisés et assimilés

137

est un probit ordonné pour le bien parking en prenant en compte l’interaction entre le type de règle et l’éducation. > data(’Fairness’, package = ’pglm’) > op summary(op)

-------------------------------------------Maximum Likelihood estimation Newton-Raphson maximisation, 5 iterations Return code 1: gradient close to zero Log-Likelihood: -2705.814 13 free parameters Estimates: Estimate Std. error t value Pr(> t) (Intercept) -0.268592 0.072483 -3.7056 0.0002109 *** recurringyes -0.077394 0.059175 -1.3079 0.1909119 drivingno 0.255440 0.079863 3.1985 0.0013816 ** educationno -0.308525 0.105204 -2.9326 0.0033610 ** ruleadmin -0.066439 0.088131 -0.7539 0.4509275 rulelottery 0.238053 0.086215 2.7612 0.0057594 ** ruleaddsupply 1.221326 0.085302 14.3177 < 2.2e-16 *** rulequeuing 1.847690 0.088629 20.8476 < 2.2e-16 *** rulemoral 2.836708 0.098330 28.8487 < 2.2e-16 *** rulecompensation 2.622407 0.095999 27.3170 < 2.2e-16 *** mu_1 1.018679 0.037790 26.9566 < 2.2e-16 *** mu_2 2.515460 0.058926 42.6888 < 2.2e-16 *** sigma 0.529240 0.050331 10.5152 < 2.2e-16 *** --Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 --------------------------------------------

8.3 8.3.1

Modèle tobit Introduction

On considère désormais une variable y qui est censurée à gauche en 0. Sa relation avec la variable latente continue y ⇤ est alors la suivante : y⇤  0 ) y = 0

y⇤ > 0 ) y = y⇤

Les mêmes hypothèses que précédemment sont faites sur la variable latente, c’està-dire y ⇤ = > x + ✏, avec ✏ ⇠ N (0, ✏2 ). La contribution d’une observation à la

138

Econométrie des données de panel avec R

vraisemblance dépend alors du fait que cette observation soit nulle ou positive. Pour une observation nulle, il s’agit d’une probabilité : ✓

P(y = 0) =

>



x



alors que pour une observation positive, il s’agit de la densité : f (y) =



1 ✏

>

y

x





En notant In0 et In+ deux variables indicatrices qui valent respectivement 1 si l’observation est nulle et positive et 0 autrement, la contribution d’une observation à la fonction devraisemblance est alors :  ✓

>



xn ✏

0 In







1 ✏

>

yn

xn





+ In

ce qui conduit à la fonction de log de vraisemblance : ln L =

n  X

In0



ln

i=1

>

xn ✏





In+

1 ln(2⇡ 2

2 ✏)

1 (yn + 2

>

xn ) 2

2 ✏



Le gradient et la hessienne ont pour expression : ⇢

@ ln Ln = @ ⇢

@ ln Ln = @ ✏2 @ 2 ln Ln = @ @ > @ 2 ln Ln = @ @ ✏2



In0



1 2 ✏

1 2

3

@ 2 ln Ln 1 = 4 @ ✏ 2 ✏4



In0

+

n

e˜0n

n



n

In0 > xn 2 ✏3



n

In0

n n



✓ 

3

+

n

xn

n

+



>

xn

n

+





e˜0n

n n

+

xn

2 ✏

In+ 2 ✏2

n

>

yn e n

n n

✓ ◆





e2n

1

2 ✏

n n

n n



+ yn x n x > n >

2

xn 4

e˜0n + In+ (1

In+

en

2 e˜+ n

4

2

xn

Chapitre 8. Modèles linéaires généralisés et assimilés

8.3.2

139

Panel

En cas d’observation répétées pour les mêmes individus, on décompose comme précédemment l’erreur en la somme d’un effet individuel et d’un terme isiosyncra⇤ tique : µn : ynt = > xnt + µn + ✏nt , avec ✏ ⇠ N (0, ✏2 ) et µ ⇠ N (0, µ2 ) La probabilité jointe d’observer le vecteur yn = yi1 , . . . , ynt pour l’individu n pour une valeur donnée de l’effet individuel est :

P(yn | µn ) =

( ✓ T Y

>

xnt + µn ✏

t=1



1 ynt







1 ✏

>

ynt

xnt

µn





ynt

)

La probabilité non conditionnelle s’obtient en intégrant l’expression précédente par rapport à l’effet individuel : P(yn ) = q

Z

1 2⇡

2 µ

+1

P(yn | µn )e

1

pµ 2

En utilisant le changement de variable z =

1 P(yn ) = p ⇡

Z

82 0

T > < +1 Y 1 t=1 > :

4 @

>

1 2

xnt +

q

2

µ

2 µz





µ µ

⌘2



, on obtient : 131

2

ynt

0

1 ⇥4

A5

@



qui peut être approximé par la quadrature de Gauss-Hermite :

P(yn )

= =

p1 ⇡ p1 ⇡

avec :

r ln Pnt

2 T X 6 = 4(1

PR

r=1 wr

PR

r=1

Le gradient s’écrit :

t=1

r wr Pnt

ynt ) ln

t=1

QT

0 @

( ✓

>

>

2

2 µ vr



xnt +

⇢ R X @ ln Ln 1 (1 r p = w P ⇥ r nt @( , µ2 ) 2⇡Ln r=1

p

xnt +

q 2

2 µ vr



ynt ) ✏

r nt r nt

1 A

+



1 ynt





0

ynt ⇣ 2 ✏

ent

p

2



1 ✏

B 0.5ynt @ln(2⇡

>

ynt

2 ✏)

2 ✏ vr

ynt

+



q

xnt

p

xnt

>

2

2

2 µz

2 µ vr





ynt

>

xnt

◆ ⌘ ✓ x p nt 2vr

2 ✏

1

A



q

140

Econométrie des données de panel avec R

@ ln Ln 1 =p @ ✏2 2⇡Ln

8.3.3

R X r=1

r wr Pnt ⇥

Application

8 > < (1

ynt )(

> :

>

2

xnt +

p

2

3/2 ✏

2 µ vr )

r nt r nt

0

ynt B @1 2 ✏2



ent

Porto & Revelli (2012) se sont intéressé aux déterminants du niveau d’une taxe régionale sur les automobiles en Italie. Les données concernent une panel constitué des 100 régions italiennes sur 7 ans (2000-2007). La variable expliquée tax est censurée car certaines régions certaines années ont choisi de ne pas appliquer cette taxe. Les variables explicatives sont le fait qu’il y ait ou non une élection régionale election, le fait que le gouvernement régional soit ou non de droite right, le montant de subventions reçu par la région grants en euros par tête, le revenu régionale par tête income et le nombre de véhicules immatriculés l’année précédente vehicules. > data("VehiculeTax", package="pder")

On commence par analyser la variable explicative : > mean(VehiculeTax$tax) [1] 16.52429 > prop.table(table(VehiculeTax$tax == 0)) FALSE TRUE 0.8785714 0.1214286

Le taux de taxe moyen est de 16.5% et il est nul pour 12% des observations. L’estimation du modèle tobit à effets aléatoires nous donne : > summary(z t) (Intercept) -9.70268 6.77223 -1.4327 0.1519389 rightyes -2.36868 0.86185 -2.7484 0.0059890 **

p

2

2 ✏

2 ✏v

Chapitre 8. Modèles linéaires généralisés et assimilés

141

log(grants) 1.96307 0.51455 3.8151 0.0001361 *** log(income) 6.54658 2.22255 2.9455 0.0032241 ** vehicules -3.34148 1.26429 -2.6430 0.0082182 ** election 0.10314 0.51589 0.1999 0.8415450 sd.eps 4.96077 0.15649 31.7012 < 2.2e-16 *** sd.mu 5.68479 0.51949 10.9431 < 2.2e-16 *** --Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 --------------------------------------------

8.4 8.4.1

Poisson Introduction

On considère désormais un modèle pour lequel la variable expliquée est une variable de comptage. Nous supposons dans un premier temps que la distribution de y est une loi de Poisson de paramètre ✓n (qui est à la fois la moyenne et la variance de la variable). Avec cette hypothèse de distribution, la probabilité associée à yn s’écrit : P (yn ) =

✓n y n ✓n

e

yn !

En utilisant le lien logarithmique, le paramètre de Poisson est une fonction loglinéaire des variables explicatives : >

✓n = e

xn

Ce qui conduit à la probabilité suivante pour l’observation n. P (yn | xn ) =

e

e

>x

n

e yn !

>

x n yn

En prenant cette probabilité en logarithmes et en sommant pour l’ensemble des individus, on obtient la fonction de log de vraisemblance suivante : ln L =

n X

e

>

xn

+

i=1

n X

>

x n yn

i=1

Le gradient et la hessienne s’écrivent :

i=1

@ ln L X ⇣ = yn @ i=1 n

@ ln L = @ @ >

n X i=1

n X

e

e

>

>

xn

xn



xn

xn x> n

ln yn !

142

8.4.2

Econométrie des données de panel avec R

Panel

En cas d’observations répétées pour les mêmes individus, on écrit désormais le paramètre de Poisson pour l’individu n à la date t de la manière suivante : ✓nt = ↵n

nt

= ↵n e

>

xnt

ce qui signifie que l’on suppose que l’effet individu est multiplicatif. Pour une valeur donnée de cet effet individuel, la probabilité associée à ynt s’écrit : P(ynt | xnt , ↵n , ) =

✓nt ynt ✓nt

e

ynt !

PT

=

e

↵n

(↵n ynt !

nt )

nt

ynt

Soit Yn = t=1 ynt la somme des réalisations de la variable pour l’ensemble des PT périodes pour l’individu n et ⇤n = t=1 nt la somme des paramètres de Poisson. La somme de variables de Poisson est une variable de Poisson dont le paramètre est égal à la somme des paramètres des variables sommées. Par conséquent, nous avons : P(Yn | xn , ↵n , ) =

e

↵n ⇤n

(↵n ⇤n )Yn Yn !

(8.1)

Soit yn = (yi1 , yi2 , . . . , ynt ) le vecteur de réalisations de y pour l’individu n. On a alors :

P(yn | xn , ↵n , ) =

e

↵n

PT

t=1

nt

QT

QT

t=1

t=1 (↵n nt )

ynt !

ynt

=

e

↵n ⇤i

↵nYn QT

t=1

En appliquant le théorème de Bayes, on a :

QT

t=1

ynt !

ynt nt

(8.2)

P(yn | xn , ↵n , ) = P(yn | xn , ↵n , , Yn )P(Yn | xn , ↵n , )

i.e. la probabilité jointe des éléments de yn est le produit de la probabilité conditionnelle de yn compte tenu de la somme des réalisations Yn et de la distribution marginae de Yn . Cette probabilité conditionnelle s’écrit : P(yn | xn , ↵n , , Yn ) = ce qui implique : P(yn | xn , , Yn ) =

P(yn | xn , ↵n , ) P(Yn | xn , ↵n , ) T Yn ! Y yntnt ⇤Ynn t=1 ynt !

(8.3)

Yn est une “statistique suffisante”, ce qui signifie qu’elle permet d’éliminer l’effet individuel. En prenant le logarithme de cette expression et en sommant pour l’ensemble des individus, on obtient le modèle de Poisson “within” :

Chapitre 8. Modèles linéaires généralisés et assimilés

ln L(y | x, , Y ) =

n X

ln Yn !

Yn ln

T X

nt

+

t=1

i=1

T X

(ynt ln

nt

ln ynt !)

t=1

!

143

(8.4)

Pour obtenir le modèle “between” et le modèle à effets aléatoires, on doit intégrer les probabilités pertinentes (8.1 et ?? respectivement), en faisant une hypothèse de distribution pour ces effets indivduels. Comme ceux-ci sont nécessairement positifs, un choix de distribution naturel est une distribution gamma, dont la densité s’écrit : ab e (b)

f (x, a, b) =

ax b 1

x

avec (z) =

Z

+1

tz

1

e t dt

0

la fonction . L’espérance et la variance de x sont respectivement : b b and V(x) = 2 a a Si le modèle contient une constante, l’espérance n’est pas identifiée et on peut donc, sans restriction, supposer qu’elle est égale à 1, ce qui implique que a = b. On obtient ainsi une distribution de gamma à un paramètre (noté ) : E(x) =

f (↵) =

( )

e





1

En intégrant les probabilités conditionelles (8.1 et ??), on obtient les probabilités non-conditionelles pour les modèles “between” et pour le modèles à effets aléatoires : P(Yn | xn , ) = P(yn , xn , ) =

Z

Z

+1

P(Yn , xn , ↵, )f (↵)d↵ = 0

+1

P(yn , xn , ↵, )f (↵)d↵ = 0

⇤ n Yn (Yn + ) Yn ! ( ) (⇤n + )Yn +

T Y

t=1

ynt nt

(Yn + ) ynt ! ( ) (⇤n + )Yn +

ce qui conduit aux fonctions de log de vraisemblance pour les deux modèles : ln L(Y | x, )

=

ln L(y | x, )

=

Pn Pn

[Yn ln

P

ln Yn ! + ln ⇣ PT ln ( ) + ln (Yn + ) (Yn + ) ln t=1 i=1

P

t

(ynt ln

nt

ln ynt !) + ln⇣ PT ln ( ) + ln (Yn + ) (Yn + ) ln t=1 i=1

[

t

nt +

⌘i

(8.5)

+

⌘i

(8.6)

nt

nt

144

Econométrie des données de panel avec R

8.4.3

Application

Drakos (2007) s’est intéressé à la mesure des actions terroristes. Plus précisément, l’hypothèse testée est qu’il y a un biais vers le bas dans la publicité faite par les autorités sur les actions terroristes menées sur leur sol et que ce biais est d’autant plus important que le pays est peu démocratique, et en particulier que la liberté de la presse n’est pas respectée. A cet effet, on souhaite estimer un modèle dans lequel la variable expliquée est le nombre d’actions terroristes (incidents) et les deux variables explicatives polity qui est un index de régime politique qui varie de -10 (régime très autocratique) à +10 (régime très démocratique) et press qui est une variable catégorielle avec trois modalités : notFree, partlyFree et Free. > data("Terrorism", package="pder")

On commence par estimer le modèle à effets aléatoires, qui est le modèle par défaut : > ea summary(ea) -------------------------------------------Maximum Likelihood estimation Newton-Raphson maximisation, 6 iterations Return code 2: successive function values within tolerance limit Log-Likelihood: -4251.775 5 free parameters Estimates: Estimate Std. error t value Pr(> t) (Intercept) 0.5672487 0.1388095 4.0865 4.379e-05 *** polity 0.0686051 0.0070205 9.7721 < 2.2e-16 *** presspartlyFree 0.0221862 0.0602074 0.3685 0.7125 pressFree 0.1376516 0.0752343 1.8296 0.0673 . sigma 0.3977339 0.0451065 8.8177 < 2.2e-16 *** --Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 --------------------------------------------

Le coefficient associé à la variable polity est de signe positif et est très significative. Les coefficients associés aux trois modalités de la variable press sont classés conformément à ce qui était attendu. Pour tester la significativité de cette variable, on peut réaliser un test de Wald : > stpress stpress [1] 5.685158

qui suit, sous H0 un chi-deux à 2 degrés de liberté. La probabilité critique est :

Chapitre 8. Modèles linéaires généralisés et assimilés

145

> pchisq(stpress, df = 2, lower.tail = FALSE)

[1] 0.05827518

L’hypothèse que la variable press n’a pas d’influence n’est pas rejetée au seuil de 5%, mais elle l’est au seuil de 10%. Les autres modèles (pooling, within et between) sont aisément estimé en mettant à jour le modèle précédemmment estimé : > > > >

po + ✏t t

Le vecteur de variables explicatives peut contenir un 1, un trend linéaire et différentes variables explicatives. Pour simplifier, on supposera par la suite que = 0, on s’intéresse donc à un processus autorégressif “pur”. Concernant l’erreur (appelée aussi dans ce contexte l’innovation), nous supposerons qu’elle est d’espérance nulle et d’écart-type . Par substitutions successives, on obtient : y t = ⇢t y 0 + ⇢t

1

✏ 1 + ⇢t

2

+ . . . + ⇢✏t

1

+ ✏t

Si y0 est déterministe et les ✏ ne sont pas corrélés, la variance de yt s’écrit : V(yt ) = (⇢t

1

+ ⇢t

2

+ . . . + ⇢ + 1)

Si ⇢ 6= 1, on a : V(yt ) =

1 1

⇢t ⇢

2

!

1 1

2



2

150

Econométrie des données de panel avec R

2

5

En revanche, si ⇢ = 1, on a V(yt ) = t 2 , la variance augmente avec t et tend vers l’infini, la série n’est pas stationnaire, on dit qu’elle présente une racine unitaire. La présence de racine unitaire présente plusieurs problème, le principale étant celui des régressions falacieuses. En présence de racine unitaire, une série présente une sorte de tendance, qui n’est pas une tendance déterministe mais stochastique, et le présence de tendances de ce type sur deux séries présentant des racines unitaires peut faire apparaître une corrélation artificielle entre deux variables. Sur la figure 9.1 on présente deux séries autorégressives avec ⇢ = 0.2 et ⇢ = 1. On constate que dans le premier cas, le processus autoregressif se traduit par une corrélation entre les valeurs successives de yt , en particulier si yt 1 < 0, il y a plus de chances que yt soit négatif que positif. Cependant, la courbe représentative de y coupe malgré tout fréquemment l’axe des abcisses. Dans le cas d’une racine unitaire en revanche, on voit clairement la présence d’un trend stochastique (ici à la hausse), yt ne change de signe qu’une seule fois et la plupart des valeurs de y sont positives.





● ●

4

●● ●

1



●●



3

● ● ●





● ● ●



●●● ● ● ● ● ● ●



2

0

1 ● ● ● ●

● ●

●● ●





● ●



0

−1

● ●●

● ●● ●●





●●

● ●



●●

●● ●

●●

● ● ● ● ● ●

−1

−2

● ●



−2

● ● ●





0

10

20

30

●●

40

0

10

20

30

40

Fig. 9.1 – Courbe représentative pour un processus autoregressif Pour illustrer l’importance du phénomène de régressions fallacieuses, on mène un exercice de simulations ; on créé deux séries indépendantes autorégressives, on régresse l’une par rapport à l’autre et on récupère la statistique de student correspondant à l’hypothèse HO : = 0. Cette hypothèse est ici vraie et, dans un contexte normal, cela signifie que, dans 95% des cas, on doit avoir une statistique inférieure à 2 en valeur absolue. Commençons par illustrer ce résultat pour ⇢ = 0.2. A cet effet, on utilise 2 fonctions : autoreg génère une série autoregressive, tstat réalise une estimation et récupère la statistique de Student : > autoreg > > >

151

for (t in 2:(T)) e[t] > + + + + + +

R