Econometrie Des Series Temporelles [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

ECONOMETRIE DES SERIES TEMPORELLES

Chapitre I : ETUDE UNIVARIEE : MODELISATION D’UNE SERIE TEMPORELLE 1234567-

Series chronologiques Fonctions d’autocorrélation : simple et partielle Séries stationnaires : processus TS et DS Tests de stationnarité (ou tests de racine unitaire) Processus ARIMA Processus ARMA Méthode de Box et Jenkins : identification du ARMA(p,q), estimation par la méthode du maximum de vraisemblance, validation (test de Box-Pierce et test ARCH) et critères de choix des modèles (MAE, RMSE, MAPE, AIC, Schwarz, Hannan-Quinn). 8- Processus ARCH : ARCH, GARCH, EGARCH, TARCH, ARCH-M

Chapitre 2 : ETUDE MULTIVARIEE : MODELISATION DE LA RELATION ENTRE DEUX SERIES TEMPORELLES : 1- Séries non stationnaires, cointegration et modèle à correction d’erreur 2- Modèle VAR et test de causalité au sens de Granger BIBLIOGRAPHIE : • Lardic S. et Mignon V. (2002), Econométrie des Séries Temporelles Macroéconomiques et Financières, Economica. • Bourbonnais R. (2000), Econométrie, DUNOD.

***

1

Chapitre I

Séries temporelles : Cas univarié

Une série temporelle ou encore une série chronologique est une suite finie (𝑥1 , 𝑥2 , … 𝑥𝑛 ) de données indexées par le temps. L’indice temps peut être selon les cas, minute, heure, jour, année, etc. Le nombre n est appelé la longueur de la série. Souvent il est utile de représenter la série temporelle sur un graphe construit de la manière suivante : en abscisse le temps et en ordonnée la valeur de l’observation à chaque instant.

I-

Série temporelle/ Chronologique

1- Propriété Avant le traitement d’une série chronologique il convient d’étudier les caractéristiques stochastiques (espérance mathématique et variance). Si son espérance et sa variance se trouvent modifié dans le temps, la série temporelle est considérée comme non stationnaire. Dans le cas d’un processus stochastique invariant, la série chronologique est stationnaire. D’une manière générale, le processus stochastique 𝑦𝑡 est stationnaire si : •

𝐸(𝑦𝑡 ) = 𝐸(𝑦𝑡+𝑚 ) = 𝜇

∀ 𝑡 𝑒𝑡 ∀ 𝑚

Donc la moyenne est constante est indépendante du temps. •

𝑉(𝑦𝑡 ) < ∞



𝐶𝑜𝑣(𝑦𝑡 , 𝑦𝑡+𝑘 ) = 𝐸[(𝑦𝑡 − 𝜇)(𝑦𝑡+𝑘 − 𝜇)] = 𝛾𝑘 la covariance est indépendante du temps.

la variance est finie et indépendante du temps

2- Bruit blanc Un processus de bruit blanc est une suite de variables aléatoires de même distribution et indépendantes (iid). Il apparait à partir des propriétés précédentes qu’un processus de bruit blanc 𝜀𝑡 , dans lequel les 𝜀𝑡 sont indépendants et de même loi 𝑁(0, 𝜎𝜀2 ), est stationnaire. Une série temporelle est stationnaire si elle est la réalisation d’un processus stationnaire. Ceci implique que la série ne comporte ni tendance ni saisonnalité et plus généralement aucun facteur n’évolue avec le temps. 3- Composante d’une chronique Dans un premier temps, l’examen graphique de la série étudiée (yi, 1 ≤ i ≤ n) permet de dégager, lorsqu’on envisage une période de temps suffisamment longue, un certain nombre de composantes fondamentales de l’´evolution de la grandeur étudiée. a- La tendance 2

La tendance représente l’évolution à long terme de la grandeur étudiée et traduit l’aspect général de la série : c’est une fonction monotone. On parle de la tendance lorsque la série𝑦𝑡 , avec 1 < t < n , peut s’écrire comme une combinaison linéaire de n fonctions de temps, choisie à priori (par exemple fonction exponentielle, logarithmique, polynomiale…) •

Lorsque 𝑦𝑡 = 𝛼𝑡 + 𝛽 + 𝜀𝑡 ; la tendance est dite linéaire.



Lorsque 𝑦𝑡 = 𝛼1 𝑡 𝑝 + 𝛼𝑝−1 𝑡 𝑝−1 + ⋯ + 𝛼𝑝+1 + 𝜀𝑡 la tendance est dite polynomiale

b- Composante saisonnière La composante saisonnière est liée au rythme imposé par les saisons météorologiques (production agricole, consommation d’électricité…) ou par des activités économiques et sociales (fêtes, vacances, solde…). Mathématiquement se sont des fonctions périodiques, c'est-à-dire il existe un entier p appelé période tel que : 𝑆𝑖 = 𝑆𝑖+𝑝

∀𝑖 ≥1

Cette composante est entièrement déterminée par ses p premiers valeurs 𝑆1 , 𝑆2 , … , 𝑆𝑝 c- Composante cyclique Les cycles 𝐶𝑖 1 ≤ 𝑖 ≤ 𝑛 regroupent des variations à période moins précise autour de la tendance par exemple les phases économiques d’expansion ou de recession. Ces phases durent généralement plusieurs années mais n’ont pas de durées fixes. Généralement, il est difficile de distinguer la tendance du cycle c’est pour cela que dans le cadre de ce cours la tendance regroupera pour la plupart du temps aussi les cycles (c'està-dire la composante cyclique est nulle). d- Les fluctuations irrégulières Les fluctuations irrégulières/ résidus /bruit (ei, 1 ≤ i ≤ n) sont des variations de faible intensité et de courte durée, et de nature aléatoire (ce qui signifie ici, dans un cadre purement descriptif, qu’elles ne sont pas complètement explicables). En effet, elles ne sont pas clairement apercevables dans les graphiques, `a cause de leur faible intensité par rapport aux autres composantes. Elles apparaissent clairement seulement après ”l’enlèvement du signal” ; la question qui se posera alors sera : est-ce qu’ils contiennent encore du signal, ou est-ce que c’est vraiment du ”bruit” ?

En résumé, nous considérons une série chronologique comme la décomposition de trois composantes. 𝑓𝑡 : la tendance 𝑆𝑡 : les coefficients saisonniers 3

𝑒𝑡 : les fluctuations irrégulières (bruit blanc) Après avoir détecté graphiquement quelles sont les composantes présentes, il faut proposer un modèle. En effet il existe deux types de modèle de composition d’une série chronologique : modèle additif et modèle multiplicatif.

4- Le modèle additif Pour un modèle additif, le mouvement saisonnier a des amplitudes indépendantes de la tendance. yt = ft + st + et

,1  t  n

Pour bien séparer la tendance de la composante saisonnière, et pour des raisons d’unicité dans la décomposition proposée, on impose que la somme des facteurs saisonniers soit nulle : p

S j =1

j

=0

Les différentes composantes de la série s’additionnent de manière indépendante pour constituer la série brute 5-

Le modèle multiplicatif

Pour le modèle multiplicatif les mouvements saisonniers présentent des amplitudes proportionnelles à la tendance. Par conséquent, la tendance 𝑓𝑡 et la saisonnalité 𝑆𝑡 ne sont pas indépendantes yt = ft * st + et

,1  t  n

Pour ce type de modèle p

S j =1

j

=1

6- Distinction entre modèle additif et modèle multiplicatif Pour faire la distinction entre un modèle additif et un modèle multiplicatif, on recourt à la méthode graphique. Le graphique de la série présente des points Max et des points Min. on relie les points Max par une droite ou par une courbe et ainsi de même pour les points Min. Si les droites (ou les courbes) sont parallèles alors le modèle est additif, si non le modèle est multiplicatif. Remarque En général et dans la pratique la plupart des modèles sont multiplicatifs.

II- Détermination de la tendance Il s’agit de déterminer une expression de la tendance. En général, il existe deux familles, celle ou la tendance est une fonction paramétrique du temps et celle ou la tendance 4

s’exprime en fonction des valeurs passées de la série. Cette deuxième famille est dite non paramétrique ou empirique. 1- Méthode paramétrique La tendance est une fonction du temps 𝑓𝑡 = 𝑓(𝑡) cette fonction peut prendre plusieurs formes analytiques dont les plus courantes sont : -

La forme linéaire ft = at + b, a  0

-

La forme polynomiale ft = at 2 + bt + c

-

La forme exponentielle ft = b at

a  0 et b  0

Quelque soit la forme analytique de la tendance, l’estimation des paramètres se fait par les MCO Remarque L’inconvénient majeur de la méthode paramétrique est la difficulté de connaitre graphiquement la forme analytique de la tendance. C’est pour cette raison qu’on préfère utiliser une méthode non paramétrique qui filtre les séries chronologiques. 2- Méthode non paramétrique (méthode de moyenne mobile) On appelle moyenne mobile (MA) centré de longueur h avec h < T de la série chronologique Yt , les moyennes arithmétiques successives calculées sur les h dates consécutives Pour la détermination de la tendance par la méthode de moyenne mobile, on a deux cas : i-

La longueur h de la MA est impaire

h est impaire  h = 2m + 1 alors la moyenne mobile MA d’ordre h est :

1 m M h (t ) =  yt + k h k =− m Il ya donc (T-h+1) moyenne mobile MA centré de longueur impaire h ii-

La longueur h de la MA est paire

h est paire  h = 2m La moyenne mobile MA d’ordre h est

5

m −1 y  1  yt − m M h (t ) =  +  yt + k + t + m  h 2 2  k =− m +1

II-

Détermination des mouvements saisonniers : calculs des coefficients saisonniers.

Le calcul des coefficients saisonniers nécessite la distinction entre un modèle additif et un modèle multiplicatif. 1- Modèle additif Pour un modèle additif, la série chronologique est représentée par : yt = ft + St + et

,1  t  n ou encore yt = M h (t ) + St + et

,1  t  n

Avant de déterminer les coefficients saisonniers, il faut déterminer les variations saisonnières qui sont St = yt − ft

ou St = yt − M h (t )

Pour chaque saison, il faut calculer la moyenne arithmétique simple des variations saisonnières appelées coefficients saisonniers notés Sj . Si la moyenne arithmétique simple des coefficients saisonniers est nulle, alors le mouvement saisonnier est alors déterminé. Si non, il faudra alors corriger le mouvement saisonnier pour aboutir finalement au :

S j = S j − S

avec S =

1 p Sj p j =1

Pour terminer l’analyse de la série et pour éventuellement faire les prévisions, on termine par deux notions : celle d’une série ajustée et celle d’une série corrigée des variations saisonnières (CVS) -

On appelle série ajustée notée yˆ , un modèle obtenu en ajoutant le mouvement saisonnier à la tendance yˆ = ft + S j

-

ou

yˆ = M h (t ) + S 

On appelle série corrigée des variations saisonnières (CVS) celle qui est constituée de la différence entre la série et les coefficients saisonniers

y* = yt − S j

III-

Indices descriptifs d’une chronique

1- Indice de tendance centrale 6

Nous utilisons comme indicateur de la tendance centrale la moyenne 𝑛

1 𝑥̅𝑛 = ∑ 𝑥𝑡 𝑛 𝑡=1

2- Indice de dispersion Nous utilisons comme indicateur de dispersion la variance empirique et sa racine carré l’écart type empirique 𝑛

𝜎̂𝑛2 (0)

1 = ∑(𝑥𝑡 − 𝑥̅𝑛 )2 𝑛 𝑡=1

3- Indice de dépendance Ces notions, plus spécifiques à l’étude de série temporelle renseignent sur la dépendance entre les données 𝑥𝑡 a- La fonction d’autocovariance et d’autocorrélation La fonction d’autocovariance notée γ(h), mesure la covariance entre une variable et cette même variable à des dates différentes, pour un délai h: γ(h) = Cov(Yt, Yt−h) = E[(Yt − E(Yt))(Yt−h − E(Yt−h))] Ainsi γ(0) = V ar(Yt) = E[(Yt − E(Yt))2] = σ2Y . Elle fournit une information sur la variabilité de la série et sur les liaisons temporelles qui existent entre les diverses composantes de la série Yt. La fonction d’autocovariance d’un processus stationnaire est une fonction paire c’est à dire γ(−h) = γ(h) ∀h

b- La fonction d’autocorrélation simple La fonction d’autocorrélation est d´efinie par :

 (h) =

 (h) , h  (0)

avec ρ(0) = 1 et |ρ(h)| < 1 (donc |γ(h)| ≤ γ(0)) On appelle coefficient d’autocorrélation d’ordre 1 (resp. d’ordre k) le coefficient de corrélation linéaire ρ(1) (resp. ρ(k)) calculé entre la série et cette série décalée d’une période (resp. k périodes). On définit la matrice de corrélation (de dimension m) de la manière suivante :

7

 (1)  ( 2 ) . . . ..... (m − 1)  1     (1) 1  (1) . . ........  ( m − 2)   R(m) =  ....... 1 ......    ..........      (m − 1)  (m − 2). . .  (1) 1    Puisque la fonction ρ(h), h ∈ Z est de type positif, on a la propriété suivante : detR(m) ≥ 0, ∀m ∈ N* Ainsi, on a les contraintes suivantes : • detR(1) ≥ 0 • detR(2) ≥ 0 ⇐⇒ ρ(1) ≤ 1 • detR(3) ≥ 0 ⇐⇒ [1 − ρ(2)][1 + ρ(2) − 2ρ(1)2] ≥ 0. Ainsi, comme ρ(2) < 1, on a ρ(2) ≥ 2ρ(1)2 −1. Si la corrélation d’ordre 1 est élevée, il en est de même de la corrélation d’ordre 2. Il ne peut donc y avoir de chute brutale de valeur entre ρ(1) et ρ(2) lorsque ρ(1) est grand. a- Les fonctions d’auto-corrélations partielles (FACP) Elle mesure la liaison (linéaire) entre Yt et Yt−h une fois retirés les liens transitant par les variables intermédiaires Yt−1, . . . , Yt−h+1. Le coefficient de corrélation partielle mesure la liaison entre deux variables lorsque l’influence d’une troisième variable est retirée. Le coefficient d’autocorrélation partielle d’ordre h, noté r(h), est le coefficient de corrélation entre : * Yt − E(Yt/Yt−1, . . . , Yt−h+1) * et Yt−h − E(Yt−h/Yt−1, . . . , Yt−h+1) On a donc : r(h) = corr(Yt, Yt−h/Yt−1, . . . , Yt−h+1) C’est donc le coefficient de Yt−h dans la régression de Yt sur Yt−1, . . . , Yt−h+1, Yt−h. Si Yt est un processus stationnaire centré, la prédiction optimale de Yt sachant son passé jusqu’`a t − h est donnée par : E(Yt/Yt−1, . . . , Yt−h)) = a1Yt−1 + . . . + ahYt−h que l’on peut réécrire matriciellement :

8

Le coefficient d’autocorrélation partielle d’ordre h d’un processus stationnaire est alors ah et se calcule de la manière suivante :

Exemple Soit le modèle ARMA(1,1) suivant 𝑦𝑡 = 0,5 𝑦𝑡−1 + 𝜀𝑡 − 0,6𝜀𝑡−1 1- Calculer les trois premières FAC 2- Calculer les trois premières FACP Correction 9

𝛾(ℎ) = 𝐸((𝑦𝑡 − 𝐸(𝑦𝑡 )(𝑦𝑡−ℎ − 𝐸(𝑦𝑡−ℎ )) 𝛾(ℎ) = 𝐸(𝑦𝑡 , 𝑦𝑡−ℎ ) 𝛾(ℎ) = 𝐸(0,5 𝑦𝑡−1 + 𝜀𝑡 − 0,6𝜀𝑡−1 , 𝑦𝑡−ℎ ) 𝛾(ℎ) = 0,5𝐸( 𝑦𝑡−1 , 𝑦𝑡−ℎ ) + 𝐸(𝜀𝑡 , 𝑦𝑡−ℎ ) − 0,6𝐸(𝜀𝑡−1 , 𝑦𝑡−ℎ ) 𝛾(ℎ) = 0,5𝛾(ℎ − 1) + 𝐸(𝜀𝑡 , 𝑦𝑡−ℎ ) − 0,6𝐸(𝜀𝑡−1 , 𝑦𝑡−ℎ ) − 𝑝𝑜𝑢𝑟 ℎ = 0, 𝛾(0) = 0,5𝛾(−1) + 𝜎 2 − 0,6(𝐸(𝜀𝑡−1 , 0,5 𝑦𝑡−1 + 𝜀𝑡 − 0,6𝜀𝑡−1 ) 𝛾(0) = 0,5𝛾(−1) + 𝜎 2 − 0,6 ∗ 0,5(𝐸(𝜀𝑡−1 , 𝑦𝑡−1 ) + 0 + 0,6 ∗ 0,6𝜎 2 ) ⇒, 𝛾(0) = 0,5𝛾(1) + 1,36 𝜎 2 − 0,3𝜎 2 ⇒, 𝛾(0) = 0,5𝛾(1) + 1,06 𝜎 2 − 𝑝𝑜𝑢𝑟 ℎ = 1, 𝛾(1) = 0,5𝛾(0) + 𝐸(𝜀𝑡 , 𝑦𝑡−1 ) − 0,6𝐸(𝜀𝑡−1 , 𝑦𝑡−1 ) − 𝑝𝑜𝑢𝑟 ℎ = 1, 𝛾(1) = 0,5𝛾(0) + 0 − 0,6 𝜎 2 − 𝑝𝑜𝑢𝑟 ℎ = 2, 𝛾(2) = 0,5𝛾(1) − 𝑝𝑜𝑢𝑟 ℎ = 3, 𝛾(3) = 0,5𝛾(2) ∗ 𝛾(0) = 0,5(0,5𝛾(0) − 0,6 𝜎 2 ) + 1,06 𝜎 2 ⇒, 𝛾(0) = 0,25 𝛾(0) + 0,76 𝜎 2 ⇒, 𝛾(0) =

0,76 2 𝜎 = 1,013𝜎 2 0,75

⇒ 𝛾(1) = 0,5(1,013𝜎 2 ) − 0,6 𝜎 2 ⇒ 𝛾(1) = −0,093𝜎 2 ⇒ 𝛾(2) = 0,5(0,093𝜎 2 ) = −0,046𝜎 2 ⇒ 𝛾(3) = 0,5(0,05𝜎 2 ) = −0,023𝜎 2

1)

2)

𝛾(1)

𝜌1 = 𝛾(0) = −0,091 𝜌2 =

𝛾(2) = −0,045 𝛾(0)

𝜌3 =

𝛾(3) = 0,0223 𝛾(0)

1 𝑅(ℎ = 3) = (𝜌1 𝜌2 𝑎11

𝜌1 1 𝜌1

𝜌2 𝜌1 ) 1

|𝑅 ∗ (1)| 𝜌1 = = = 𝜌1 = −0,091 |𝑅(1)| 1

𝑎22 =

|𝑅 ∗ (2)| 𝜌2 − 𝜌12 −0,046 − (0,091)2 = = = −0,54 |𝑅(2)| 1 − (0,091)2 1 − 𝜌12

10

IV-

Séries stationnaires

1- Caractéristiques des corrélogrammes a- Cas d’un processus AR(P) Un coefficient d’autocorrélation d’ordre k est tout simplement le coefficient de Pearson calculé entre une série et elle-même décalée de k retards. Pour k = 0, il est évidemment égal à 1. Un test du Student( t) indique si ce coefficient est significativement différent de zéro. Il est démontré que le corrélogramme simple d’un processus AR(P) est caractérisé par une décroissance géométrique des fonctions d’auto-corrélation simple k Le corrélogramme partiel a ses seuls premiers p termes différents de 0. b- Cas d’un processus MA(q) Le corrélogrmme simple d’un processus MA(q) est de la forme générale C'est-à-dire que seuls les q premiers termes du corrélogramme simple sont significativement différents de 0. Le corrélogramme partiel est caractérisé par une décroissance géométrique des retards. 2- Le processus ARMA(p, q) Les processus AR et MA ont des caractéristiques qui se révèlent grâce à leurs fonctions d’autocorrélations et leurs fonctions d’auto-corrélations partielles. Pour un processus AR, nous avons vu que la fonction d’auto-corrélation partielle possède un point de rupture après un certain nombre d´écarts ; ce dernier détermine l’ordre du polynôme AR. Pour un processus MA, nous avons vu que c’est la fonction d’auto-corrélation qui possède un point de rupture après un certain nombre d’´ecarts ; ce dernier détermine l’ordre du polynôme MA. Cependant pour certains processus, ni la fonction d’auto-corrélation, ni la fonction d’auto-corrélation partielle ne possèdent de point de rupture. Dans de tels cas, il faut construire un modèle mixte. Nous définissons les séries ARMA qui sont la combinaison des processus autorégressifs et moyennes mobiles. Cette classe de processus ARMA est encore un cas particulier de processus linéaires et jouera un rôle important dans la modélisation concrète des processus stationnaires. Les modèles ARMA sont donc représentatifs d’un processus généré par une combinaison des valeurs passées et des erreurs passées. Ils sont définis par l’équation : ARMA(p, q) :

(1 − a1L − a2 L2 − ... − a p Lp ) yt = (1 − b1L − b2 L2 − ... − bq Lq ) t

Nous avons ARMA(1, 0) = AR(1) ARMA(0, 1) = MA(1) La stationnarité d’un ARMA(p, q) est assurée lorsque toutes les racines du polynôme

A( z ) = 1 − a1 z − a2 z 2 − ... − a p z p sont de module strictement supérieur à 1. Nous traitons d’abord le corrélogramme d’un ARMA(1,1) et puis nous passerons au cas général. Soit un ARMA(1,1) 11

-

Les fonctions d’auto-corrélations simples présentent une décroissance géométrique après le premier retard le signe est déterminé par (a1 – b1).

-

Les fonctions d’auto-corrélations partielles présentent décroissance exponentielle ou sinusoïde amortie.

Analysons maintenant le cas général, soit ARMA(p,q) -

Les fonctions d’auto-corrélations simples présentent une décroissance exponentielle ou sinusoïdale amortie après (p-q) retards.

-

Les fonctions d’auto-corrélations partielles présentent une décroissance exponentielle ou sinusoïdale amortie après (p-q) retards.

V-

Tests de stationnarité

1- Test de Dickey Fuller Les tests de racine unitaire permettent non seulement de détecter l’existence d’une tendance (test de racine unitaire ( unit root test), mais aussi de déterminer la bonne manière de stationnariser une chronique. Pour ce faire, deux types de processus sont distingués. a- Le processus TS Le processus TS (trend stationnary) qui présente une non-stationnarité de type déterministe. Un processus TS s’écrit : X t = a0 + a1t +  t

Le processus TS est non stationnaire car E(Xt) dépend du temps E ( X t ) = E (a0 ) + tE (at ) + E ( t ) = aˆ0 + aˆ1t

Connaissant aˆ0 et aˆ1 le processus X t peut être stationnarisé en retranchant de la valeur de X t en t, la valeur estimée aˆ0 + aˆ1t

X t = a0 + a1t +  t − aˆ0 + aˆ1t X t = a0 − aˆ0 + t (a1 − aˆ1 ) +  t E ( X t ) = E (a0 − aˆ0 ) + tE (a1 − aˆ1 ) + E ( t ) E( X t ) = 0 Donc le processus TS X t est stationnaire car ne dépend pas du temps. Dans ce type de modélisation l’effet produit par un choc à un instant t est provisoire. Le modèle étant déterministe, la chronique retrouve sont mouvement de long terme qui est ici la tendance. b- Le processus DS Le processus DS (Differency stationnary) est un processus non stationnaire aléatoire. Les processus DS sont des processus que l’on peut rendre stationnaire par l’utilisation d’un filtre aux différences premières (d=1). Le processus est dit alors processus de premier ordre et s’écrit : (1 − L) X t =  +  t

 X t = X t −1 +  +  t 12

L’introduction de la constante  dans le processus DS permet de définir deux processus différents :

 = 0 le processus DS est dit sans dérive et il s’écrit X t = X t −1 +  t

-

Comme  t est un bruit blanc, alors le processus DS porte le nom de marche aléatoire (random walk model). Pour stationnariser une marche aléatoire il suffit d’appliquer au processus le filtre aux différences premières X t = X t −1 +  t

 (1 − L) X t =  t

  0 le processus porte alors le nom de processus DS avec dérive et il s’écrit :

-

X t = X t −1 +  +  t

La stationnarisation de ce processus est réalisée en utilisant le filtre aux différences premières X t = X t −1 +  +  t  (1 − L) X t =  +  t Dans le processus de type, un choc à un instant donné se répercute à l’infini sur les valeurs futures de la série. L’effet d’un choc est donc permanant et va en décroissant.

c- Tests de racines unitaires (tests de Dickey Fuller simple) Les tests de Dickey Fuller permettent de mettre en évidence le caractère stationnaire ou non d’une chronique par la détermination d’une tendance déterministe ou stochastique. Les modèles servent de base à la construction de ces tests sont au nombre de trois. Le principe des tests est simple : si l’hypothèse H 0 :  = 1 est retenu dans l’un de ces trois modèles, le processus est alors non stationnaire.

1

X t =  X t −1 +  t

 2

X t =  X t −1 +  +  t

3

X t =  X t −1 +  +  t +  t modèle autorégressif avec tendance

modèle autorégressif d’ordre1 modèle autorégressif avec constante (dérive)

Si l’hypothèse H 0 est vérifiée, la chronique X t n’est pas stationnaire quelque soit le modèle retenu. Le dernier modèle [3] si on accepte H 0 :   1 et si le coefficient  est significativement différent de 0, alors le processus est un TS Sous H 0 les règles habituelles de l’inférence statistique ne peuvent pas être appliquées pour tester une hypothèse, en particulier la distribution de Student du paramètre  ; Dickey et Fuller ont étudié la distribution asymptotique de  sous l’hypothèse H 0 . Ils ont fait des tables analogues aux tables de Student, et ont choisi de tester (ˆ −1) au lieu ˆ . En effet

13

X t =  X t −1 +  t X t − X t −1 =  X t −1 − X t −1 +  t X t = ( − 1) X t −1 +  t Les principaux généraux du test sont les suivant : on estime par les MCO le paramètre  noté ˆ pour les modèles [1], [2] et [3]. L’estimation par MCO des coefficients et des écarttypes des modèle fournit tˆ qui est analogue a la statistique de Student (rapport du coefficient par son écart type). Si tˆ  ttabulée alors on accepte H 0 ; il existe une racine unitaire et donc le processus n’est pas stationnaire. d- Tests de Dickey et Fuller augmentés (ADF) Dans les modèles précédents, utilisés pour les tests DF simple le processus  t est par hypothèse un bruit blanc. Or il n’ya aucune raison pour que les erreurs soient à priori non corrélés. Donc Dickey et Fuller ont pris en compte cette hypothèse et ont fournit les tests de Dickey et fuller augmentés (ADF). Les tests ADF sont fondés sous l’hypothèse alternative H a :|  | 1 sur l’estimation par MCO des trois modèles suivant : p

 a  X t =  X t −1 +    X t −i +1 +  t i =2 p

b X t =  X t −1 +    X t −i +1 +  +  t i =2

c

p

X t =  X t −1 +    X t −i +1 +  +  t +  t i =2

avec  t → iid

-

Les tests se déroulent d’une manière similaire aux tests DF simples, seule les tables statistiques diffèrent. Pour un test DF ou ADF Si t calculée < t tabulée, alors on accepte Ha Si t calculée > t tabulée, alors on accepte H0

Les hypothèses du test sont les suivantes :

14

Sous H0 vraie, la statistique de test pour l’estimateur de ø1 est donnée par :

On commence par étudier le modèle général [3]. On regarde si b est significativement différent de 0 ou non. Si b est significativement non différent de 0, on passe à l’étude du modèle [2] et on cherche à savoir si c est significativement différent de 0 ou pas. Si c est significativement non différent de 0, on étudie le modèle [1].

ATTENTION : Sous H0 vraie, les t de Student de la constante et de la tendance sont à comparer avec les valeurs de la table de Dickey-Fuller (Pour une taille d’échantillon supérieure à 500 observations, les valeurs critiques sont : 2.78 à 5% pour la tendance du modèle [3], 2.52 pour la constante du modèle [2] et –1.95 pour le paramètre ø1) car sous H0 vraie le processus étudié est non stationnaire (yt ~>I(1)) et l’estimateur de ø1 ne suit pas la loi normale. Les règles de décision sont les suivantes : • Si t > tDF où tDF désigne la valeur critique donnée par table de DF ⇒ on accepte H1 : le coefficient de la variable explicative est significativement différent de 0. Si on a b significativement différent de 0 pour le modèle [3], le test s’arrête ici, on n’étudie pas les autres modèles. De même que si on arrive au modèle [2] et que l’on a la constante qui est significativement différente de 0, le test s’arrête au modèle [2]. • Si | tø1| > tDF ⇒ On accepte H0 : la série est non stationnaire (ATTENTION : il faut observer ici que pour | tø1| > tDF , on n’a pas H1 ! La règle de décision est ici inversée). 15

b/ Test de Dickey-Fuller Augmenté : Dans le test de Dickey-Fuller que nous venons d’étudier, le processus εt est par hypothèse un bruit blanc. Or il n’y a aucune raison pour que, a priori, l’erreur soit non corrélée. Le test de Dickey-Fuller Augmenté ne suppose pas que εt est un bruit blanc. Les hypothèses du test de Dickey-Fuller Augmenté se définissent de la façon suivante :

⎞ 16

⇔ yt – ø1yt-1 - θ1yt-1 - θ2yt-2 -…- θp-1yt-(p-1) + ø1θ1yt-2 + ø1θ1yt-3 + … + ø1θp-1yt-p = ηt ⇔ yt = (ø1 + θ1)yt-1 + (θ2 - ø1θ1)yt-2 + ... + (θp-1 - ø1θp-2 )yt-p+1 - ø1θp-1yt-p + ηt p1 ⇔ ∆yt = [(ø1-1)(1- θ1- θ2 -…- θp-1)]yt-1 - ∑ γk∆yt-k + ηt k= 1 car on a : yt = (ø1 + θ1)yt-1 + (θ2 - ø1θ1)yt-2 + ... + (θp-1 - ø1θp-2 )yt-p+1 - ø1θp-1yt-p + ηt ⇔ yt = α1yt-1 + α2yt-2 + ... + αp-1yt-p+1 + αpyt-p + ηt . Or on constate que pour un modèle AR(1), on a l’écriture suivante : yt = α1yt-1 + ηt ⇔ yt - yt-1 = α1yt-1 - yt-1 + ηt ⇔ ∆yt = (α1-1) yt-1 + ηt . Pour un modèle AR(2), il vient : yt = α1yt-1 + α2yt-2 + ηt ⇔ yt - yt-1 = - yt-1 + α1yt-1 + α2yt-2 + α2yt-1 – α2yt-1 + ηt ⇔ ∆yt = (α1+ α2 –1) yt-1 + α2(yt-2 - yt-1) + ηt ⇔ ∆yt = (α1+ α2 –1) yt-1 - α2(yt-1 - yt-2) + ηt ⇔ ∆yt = (α1+ α2 –1) yt-1 - α2∆yt-1 + ηt Pour un modèle AR(3), on obtient : yt = α1yt-1 + α2yt-2 + α3yt-3 + ηt ⇔ ∆yt = (α1+ α2 + α3 –1) yt-1 – (α2 + α3)∆yt-1 - α3∆yt-2 + ηt

17

Détermination du retard p du test ADF : La valeur p est déterminée à l’aide du corrélogramme partiel de la série différenciée ∆yt. Une fois déterminée la valeur p, on procède de la même façon qu’avec le test de DickeyFuller simple : on commence par étudier la significativité de b du modèle [3]. La règle de décision est la même que pour le test de DF simple.

18

La statistique de test pour l’estimateur de ø1 est :

qui est à comparer avec la valeur critique tDF de la table de Dickey-Fuller. Si | tø1| > tDF ⇒ On accepte H0 : la série est non stationnaire (ATTENTION : il faut observer comme dans le cas du test de DF simple que pour | tø1| > tDF , on n’a pas H1 ! La règle de décision est inversée ici ! ). c/ Test de Phillips-Perron :

19

I.4 / Processus ARIMA Lorsque l’on a une série {yt} à non stationnarité stochastique, il convient de la modéliser à l’aide d’un processus ARIMA(p,d,q) où d désigne l’ordre de différenciation (ou d’intégration). Définition 6 : Un processus ARIMA(p,d,q) ou "Autoregressive Integrated Moving Average" d’ordre p, d, et q pour la série {yt} est un processus de la forme suivante : (1- Φ1B - … - ΦpBp) ∇dyt = (1- θ1B - … - θqBq) εt ou encore (1- Φ1B - … - ΦpBp) (1-B)dyt = (1- θ1B - … - θqBq) εt où εt ~> BB(0,σε2) , B est l’opérateur de retard tel que Byt = yt-1 et Bpyt = yt-p , ∇d est l’opérateur de différence de degré d (d ≥ 0 est un entier positif), (Φ1,…, Φp) et (θ1,…, θq) sont des coefficients à estimer. La série {yt} est une série non stationnaire alors que la série wt = ∇dyt est une série stationnaire. Estimer les paramètres du processus ARIMA(p,d,q) pour la série {yt} non stationnaire revient à estimer les coefficients du processus ARMA(p,q) pour la série {wt}stationnaire.

I.5 / Processus ARMA Wold (1954) montre que les séries stationnaires peuvent être représentées par les processus ARMA. Définition 7 : Soit {yt} une série stationnaire. Le modèle AR(p) ou autorégressif d’ordre p est défini par : yt - Φ1yt-1 - Φ2yt-2 - ... - Φpyt-p = εt ou encore

(1- Φ1B - … - ΦpBp) yt = εt 20

où Φ1, Φ2,..., Φp sont des coefficients (positifs ou négatifs) à estimer et εt ~ BB(0, σ2ε). Un modèle AR(p) présente un corrélogramme simple caractérisé par une décroissance géométrique de ses termes et un corrélogramme partiel caractérisé par ses p premiers termes différents de 0. Définition 8 : Le modèle MA(q) ou "Moving Average" (moyenne mobile) d’ordre q est donné par : yt = εt – θ1εt-1 – θ2εt-2 - … - θqεt-q ou encore

yt = (1- θ1B - … - θqBq) εt

où θ1, θ2,…, θq sont des paramètres à estimer. Un modèle MA(q) présente un corrélogramme simple défini par ses q premiers termes significativement différents de 0 et un corrélogramme partiel caractérisé par une décroissance géométrique des retards.

Définition 9 : Le modèle ARMA(p,q) est une combinaison des processus AR(p) et MA(q) : yt - Φ1yt-1 - Φ2yt-2 - ... - Φpyt-p = εt – θ1εt-1 – θ2εt-2 - … - θqεt-q ou encore

(1- Φ1B - … - ΦpBp) yt = (1- θ1B - … - θqBq) εt

ou encore

Φ(B)yt = θ(B)εt



εt ~ BB(0, σε2).

Le modèle ARMA(p,q) présente un corrélogramme simple et partiel qui sont un mélange des deux corrélogrammes des processus AR et MA purs.

21

I.6 / Méthode de Box et Jenkins La méthode de Box et Jenkins permet de déterminer le modèle ARIMA pouvant convenir à une série temporelle selon ses caractéristiques. Elle se décompose en plusieurs étapes :

Détermination et élimination de la saisonnalité de la série chronologique

Analyse du corrélogramme simple et partiel Tests de stationnarité : • test de Dickey-Fuller • test de Phillips-Perron • test de KPSS (Kwiatkowski, Phillips, Schmidt et Shin)

Détermination et élimination de la tendance de la série chronologique désaisonnalisée

Détermination des ordres p et q du modèle ARMA : analyse des corrélogrammes simple et partiel

si le résidu n’est pas un bruit blanc

Estimation des coefficients du modèle

Méthode du maximum de vraisemblance

Analyse des coefficients et des résidus

Prévision

a/ Estimation des paramètres du processus ARMA(p,q) : 22

L’estimation des coefficients du processus ARMA(p,q) s’effectue principalement à l’aide de la méthode du maximum de vraisemblance. On suppose pour cela que ε ~> N(0,σ2ε ). t

Méthode d’estimation du maximum de vraisemblance : La méthode du maximum de vraisemblance est couramment utilisée pour estimer les coefficients des modèles des séries temporelles car c’est une méthode simple à mettre en place pour estimer des modèles plus complexes que le modèle linéaire.

23

24

b/ Validation du processus ARMA(p,q) : Lors de la détermination des ordres p et q du processus ARMA(p,q) à l’aide des corrélogrammes simple et partiel, on peut être amené à sélectionner plusieurs ordres possibles p et q pour le processus ARMA(p,q). Après avoir estimé les différents processus ARMA(p,q) possibles, il reste à les valider et à les départager. La validation des processus passe par un examen des coefficients estimés (ils doivent être significativement différent de 0) et par un examen des résidus (les résidus estimés doivent suivre un processus de bruit blanc : et ~ BB(0, σ2e ) où et est l’estimateur de l’erreur εt puisque l’on a supposé que εt ~ BB(0,σε2) lors de la définition du processus ARMA(p,q)).

b.1/ Tests sur les coefficients : Parmi les processus ARMA estimés, on ne retiendra que ceux dont tous les coefficients ont un t de Student > 1,96 (pour un risque de 5% et pour une taille d’échantillon suffisamment grande : T > 30).

b.2/ Tests sur les résidus : ™ Tests d’autocorrélation : Il existe un grand nombre de tests d’autocorrélation, les plus connus sont ceux de Box et Pierce (1970) et Ljung et Box (1978). Nous n’étudierons ici que le test de Box et Pierce. Le test de Ljung et Box est à appliquer lorsque l’échantillon est de petite taille. Soit une autocorrélation des erreurs d’ordre K (K>1) : εt = ρ1εt-1 + ρ2εt-2 + … + ρKεt-K + υt



υt ~>N(0, σ2υ)

Les hypothèses du test de Box-Pierce sont les suivantes : ⎧⎪ H0 : ρ1 = ρ2 = … = ρK = 0 ⎨ H1 : il existe au moins un ρi significativement différent de 0. Pour effectuer ce test, on a recours à la statistique Q qui est donnée par :

25

K

Q=n

∑ k =1

2 ρˆk

où n est le nombre d’observations et ρˆ2k est le coefficient d’autocorrélation d’ordre k des résidus estimés et . Sous l’hypothèse H0 vraie, Q suit la loi du Khi-deux avec K degrés de liberté : K

Q=n

∑ k =1

ρˆk2 ~> χ²(K).

La règle de décision est la suivante : si Q > k* où k* est la valeur donnée par la table du Khi-Deux pour un risque fixé et un nombre K de degrés de liberté ⇒ On rejette H0 et on accepte H1 (autocorrélation des erreurs).

™ Tests d’hétéroscédasticité : Il existe plusieurs tests possibles : test de Goldfeld et Quandt, test de White, test de Breusch et Pagan et test ARCH de Engle. Nous étudierons ici le test ARCH car il est très fréquemment employé en économétrie des séries temporelles financières. Test ARCH : Le test ARCH consiste à effectuer une régression autorégressive des résidus carrés sur q retards : q

e2t = α0 + ∑ αi e2t −i i =1



et désigne le résidu à l’instant t issu de l’estimation des paramètres du processus

ARMA(p,q). Pour déterminer le nombre de retards q, on étudie le corrélogramme des résidus au carré.

26

27

Pour mener le test, on utilise la statistique de test n×R² où n correspond au nombre d’observations de la série et et R² représente le coefficient de détermination associé à la q

régression e2t = α0 + ∑ αi e2t −i . i =1

Sous l’hypothèse H0, la statistique de test n×R² suit la loi du Khi-deux à q degrés de liberté. La règle de décision est alors : -Si n×R² ≤ χ²(q) où χ²(q) désigne la valeur critique figurant dans la table du Khi-deux , on accepte ici l’hypothèse H0 d’homoscédasticité. -Si n×R² > χ²(q) où χ²(q) désigne la valeur critique valeur figurant dans la table du Khideux, on rejette ici l’hypothèse H0 d’homoscédasticité et on admet qu’il y a de l’hétéroscédasticité.

b.3/ Critères de choix des modèles : Après examen des coefficients et des résidus, certains modèles sont écartés. Pour départager les modèles restants, on fait appel aux critères standards et aux critères d’information. ™ Critères standards :

Plus la valeur de ces critères est faible, plus le modèle estimé est proche des observations. ™ Critères d’information :

28

I.7 / Processus ARCH

29

30

2.4

Modèles ARCH et GARCH les modèles ARCH et GARCH (Autoregressive Conditional Heteroscedasticity and

Generalized Autoregressive Conditional Heteroscedasticity) sont des modèles qui jouent un rôle primordial au niveau de la description des séries financières vu le comportement hétérosédastique de leur variance, chose qui a toujours été mal considérée par les modèles ARIMA dans lesquels on suppose que la variance est inconditionnelle par rapport au temps. En effet, face aux anomalies des représentations ARMA pour les problèmes monétaires et financiers, Engle (1982) [1, 2, 3,6] a mis, à la disposition de l’ensemble des acteurs du marché financier, une nouvelle catégorie de modèles autorégressifs conditionnellement hétéroscédastiques aptes à capter le comportement de la volatilité dans le temps. Cette dernière est un paramètre de mesure du risque du rendement et du prix. La volatilité sert également aux calculs pour optimiser la diversification des portefeuilles d’actifs financiers (MEDAF). Les séries monétaires et financières sont caractérisées par le regroupement (clustering) de la volatilité, à savoir les périodes de forte volatilité alternent avec les périodes de faible volatilité. Ce phénomène, que nous appelons aussi l’hétéroscédasticité conditionnelle.

2.4.1

Modèle ARCH

Commençant tout abord à présenter le modèle ARCH(1) introduit par Engle (1982). √ Le processus xt est un processus ARCH (1) si xt = ht t tel que t est un bruit blanc gaussien,t ∼ N (0, 1) et ht = w0 + w1 x2t− 1 la variance conditionnelle du processusxt . Les moments conditionnels se représentent comme suit : p p E[xt /ht ] = E[ ht t /ht ] = ht E[t /ht ] = 0 La variance conditionnelle s’exprime de la manière suivante : p V [xt /ht ] = V [ ht t /ht ] = ht V [t /ht ] = ht E[2t /ht ] = ht

On détermine l’espérance non conditionnelle du processus xt comme suit : E[xt ] = E[E[xt /ht ] = E[0] = 0 20

La variance du processus à l’instant t est donnée par : V [xt ] =

w0 1 − w1

De même la covariance de ce processus est définie par : cov[xt , xt+h /xt−m ] = 0 ∀h > 0 ∀m > 0 Un processus ARCH (p) est un processus defini par : xt =

p ht t

ht = w0 +

p X

wi x2t−i

i=1

L’espérance du processus est donnée par : E[xt ] = 0 De ce qui est la variance, il suffit de définir une formule de récurrence de façon à exprimer explicitement cette variance en passant par le calcul de la limite. A ce stade on ne ferait P i pas les calculs, on se contente de fournir le résultat et de supposer que si | w i=1 | < 0 alors la variance du processus existe et elle s’exprime par la formule suivante : V [Xt ] =

w0 P i 1− w i=1

Condition de stationnarité Un processus ARCH(p) est dit stationnaire si : p X

wi + < 1

i=1

21

2.4.2

Modèle GARCH

Pour de nombreuses applications, l’introduction d’un grand nombre de retards p dans l’équation de la variance conditionnelle du modèle ARCH (p) est nécessaire pour tenir compte de la longue mémoire de la volatilité qui caractérise certaines séries monétaires et financières . Ce nombre important de paramètres peut conduire a la violation de la contrainte de non-négativité de la variance et poser des problèmes d’estimations. Dans cette perspective, une extension importante, le modèle autorégressif conditionnellement hétéroscédastique généralisé (GARCH), est suggéré par Bollerslev [1986]. Cette approche exige moins de paramétres à estimer que la formulation ARCH(p) pour modéliser les phénomènes de persistance des chocs. La variance conditionnelle de la variable étudiée est déterminée par le carré des p termes d’erreur passés et des q variances conditionnelles retardées. Un processus GARCH (1,1) s’écrit de la forme : xt =

p ht t

avec t ∼ N (0, 1)etht = w0 + w1 x2t−1 + β1 ht−1 représente la variance conditionnelle du processus. Ainsi, on fournit les moments conditionnels : E[xt /Ft ] = 0 oùFt représente la filtration engendrée par les valeurs passées de xt ,x2t et ht .De ce fait, la variance conditionnelle du modèle sera alors : p V [xt /Ft ] = V [ ht t /Ft ] = ht V [t /Ft ] = ht Pour ce qui est des moments non conditionnels, l’espérance ainsi que la variance du processus s’obtiennent de la façon suivante : E[xt ] = E[E[xt /ht ] = E[0] = 0 22

De même : V [xt ] =

w0 1 − (w1 + β1 )

Un modèle GARCH (p, q) s’écrit de la façon suivante : xt = ht = w0 +

p X

p ht t

wi x2t−i

+

q X

βj ht−j

j=1

i=1

L’espérance s’obtient simplement à partir de la loi des espérances itérées : E[xt ] = E[E[xt /ht ]] = 0 Si le processus GARCH (p, q) est stationnaire au second ordre, on aura alors : p X

wi +

i=1

q X

βj < 1

j=1

Cette condition s’avère nécessaire pour définir la variance non conditionnelle par :

V [xt ] =

w0 P Pp 1 − ( i=1 wi + qj=1 βj )

Conditions de stationnarité Un processus GARCH (p, q) est dit stationnaire si : p X i=1

wi +

q X j=1

23

βj < 1

Les conditions de normalité Pour qu’une série chronologique soit normale, elle doit vérifier les conditions suivantes : Un Skewness nul (moment centré d’ordre 3) .Si ce n’est pas le cas, la distribution seradonc asymétrique. Un Kurtosis égale 3 (moment centré d’ordre 4). Si cette statistique est supérieur à 3 la distribution sera plus aplatie qu’une gaussienne. Afin de déterminer la normalité des données, on fait recours au test d’hypothèse suivant : H0 : les données suivent une loi normale VS H1 :les données ne suivent pas une loi normale avec JB =

n−k (S 2 6

2

− ( (k−3) ) ∼ χ2 (la statistique de Jarque Bera). 4

n= Nombre d’observations. k= Nombre de variables explicatives si les données proviennent des résidus d’une régression linéaire. Sinon, k = 0. S = Skewness : Moment d’ordre 3 d’une variable centrée-réduite. K =Kurtosis : Moment d’ordre 4 d’une variable centrée-réduite. Une loi normale a un coefficient d’asymétrie = 0 et un Kurtosis = 3. On saisit alors que si les données suivent une loi normale, le test s’approche alors de 0 et on accepte (on ne rejette pas) H0 au seuil α.

2.4.3

Estimation et prévision

La méthode de maximum de vraisemblance Pour comprendre cette approche, nous allons tout d’abord, considÈrer le cas le plus simple d’un processus ARCH pour Yt . Nous Ètudierons ensuite le cas des processus GARCH, et enfin des modèles de régression avec erreur (G)ARCH. L’estimateur des paramètres de modËle ARCH se base très souvent sur la maximisation de la fonction de vraisemblance. Nous supposons que le processus Yt est conditionnellement gaussien.

24

La vraisemblance associée à Yt conditionnellement au passé It−1 est donc :

L(yt /It−1 ) =

1 √

ht 2π

exp(−

(yt − mt (θ))2 ), θ = (α0 , ....αp ) 2h2t (θ)

La fonction de vraisemblance de (y1 ; y2 ; ...; yT ) conditionnelle est par conséquent :

L(y1 , y2 , . . . , xT ; θ) =

T Y

L(yt /It−1 , θ)

i=1

L’estimateur est alors défini comme le vecteur θˆT = (αˆ0 ; ....; αˆp ) qui maximise le logarithme de cette fonction vraisemblance : θˆT = argmaxlogL(y1 ; y2 ; ....; yT )

Estimation des paramètres du modèle GARCH La vraisemblance associée Yt conditionnellement au passé It−1 s0 crit :

L(yt /It−1 ) =

1 (y − m (θ))2 √ exp(− t 2 t ) 2ht (θ)) ht 2π

Mais cette fois, la variance h2t suit un processus ARMA et dépend donc des valeurs passée de la variance conditionnelle h21 ..., h2t .Ces valeurs n’étant pas observées en pratique, la maximisation en direct de la vraisemblance est rendue impossible. En pratique, on estime successivement les valeurs de h21 ..., h2t avant de calculer la vraisemblance. Ainsi, pour un vecteur θ0 = (α00 , ...., αp0 , β10 , ..., βq0 ) fixé de paramètres, on calcul récursivement

hˆ2s = α00 +

p X

αi0 (Y

2

s − i) +

i=1

q X j=1

avec la convention Yi = 0et (hi )2 si i ≤ 0 .

25

ˆ )2 βj0 (hs−j

On remplace donc la fonction de vraisemblance par

L(yt /It−1 ) =

1 (yt − mt (θ))2 ) √ exp(− 2 hˆt 2π 2hˆt (θ))

et la fonction de vraisemblance totale est :

L(y1 , y2 , . . . , xT ; θ0 ) =

T Y

L(yt /It−1 , θ0 )

i=1

Cette fonction de vraisemblance peut être calculée pour différentes valeurs du vecteur θ0 et sa maximisation livre l’estimateur de maximum de vraisemblance.

Prévision Modèle avec erreur ARCH Supposons un processus AR(1) sans constante pour modéliser la moyenne conditionnelle Xt = cXt−1 + t avec t /It−1 ∼ N (0, ht ).t ARCH(1) tel que ht = α0 + α1 (t−1 )2 Nous avons s calculé précédemment les espérances et variances conditionnelles du processus ARCH. Nous connaissons aussi les formules pour les prévision XT +h +h et les erreurs de prévision (T +h )2 h d’un modèle AR(1) supposant un bruit blanc fort des résidus. Plus spécifiquement,

E(XT +h /IT ) = ch XT on a

Xt+h = cXt+h−1 + t+h = ch Xt + ch−1 t+1 + ...ct+h−1 + t+h ainsi

V (T +h /IT ) = σ 2 (1 + c2 + ... + (ch−1 )2 ) 26

Dans le cas d’un terme d’erreur ARCH(1), les erreurs au carré suivent un processus AR(1) ainsi ,nous avons

E[(T +h )2 /IT ] = α0 + α1 E[(T +h−1 )2 /IT ] = α0 + α0 α1 + ... + (α1 )h (T )2 Il s’agit alors de remplacer les termes appropriés dans l’équation V (T +h /IT ) = E[(T +h )2 /IT ] + c2 E[(T +h−1 )2 /IT ] + .. + ch−1 E[(T +1 )2 /IT ] + 0 Ainsi, les acteurs des marchés financiers peuvent établir leurs prévisions de la volatilité à partir des informations les plus récentes dont ils disposent. Dans le cas du modèle GARCH(1 ; 1), nous avons (hT +1 )2 = hT (1) = α0 + α1 (T )2 + β1 (hT )2 Il est possible décrire la prévision d’une autre manière et en particulier la prévision de plusieurs périodes. En mettant t = ηtt . En élevant au carré nous obtenons (t )2 = (ηt )2 (t )2 . Remplaçons cette expression dans la formulation du modèle GARCH(1,1) on obtient (ht )2 = α0 + (β1 + α1 )(hT )2 + α1 (hT )2 ((ηT )2 − 1) Ainsi, en répétant les substitutions, pour la prévision de h périodes, nous avons

α0 [1 − (β1 + α1 )h − 1] hˆt (h) = + (β1 + α1 )h−1 ((hT )2 )(1) 1 − (β1 + α1 ) et quand h tend vers l’infini la variance conditionnelle tend vers la valeur d’équilibre

α0 1 − (β1 + α1 )

27

3

Étude Pratique

Cette partie est une application sur l’indice boursier CAC 40 à l’aide du logiciel statistique EVIEWS 7.

3.1

L’indice boursier CAC 40

le CAC 40 ou Cotisation Assistée en Continu est un indice boursier qui traduit la performance des actions des 40 plus grandes entreprises françaises et qui représentent les

3 4

de

la valeur du marché parisien. Exemples d’entreprises du cac 40 : Total (13% de l’indice) , Renault , Carrefour ,etc ...

3.2

Description de la base de données

Il s’agit de 1279 observations journalières (5 jours par semaine) s’étalant sur 5 ans. (du 02-04-2013 au 29-03-2018). La base contient 7 variables tel que : l’identifiant de la valeur, la date, le cours d’ouverture, le plus haut, le plus bas, le cours de clôture et le volume de titres échangés. On s’intéresse particulièrement à la variable "Plus Haut" qui correspond au cours le plus élevée calculé chaque jour de 9h à 17h.30.

28

3.3

Etude de la stationnarité

Représentation graphique de la variable d’intérêt

L’allure de ce graphe met en évidence la non-stationnarité puisqu’elle semble présenter : - La présence d’une tendance. - Une volatilité qui varie au cours du temps . Nous allons étudier les corrélogrammes de la série pour plus de précision. A ce niveau, nous allons nous intéresser aux fonctions d’autocorrélations ACF et d’autocorrélations partielles PACF, dans le but d’en tirer des résultats pouvant nous guider à choisir le bon modèle.

29

Représentation du corrélogramme La non-stationnarité du processus se confirme par la représentation du corrélogramme ci-dessous.

30

Test de racine unitaire (ADF) Le test augmenté de Dickey-Fuller ou test ADF est un test statistique qui vise à savoir si une série temporelle est stationnaire.

Les p valeurs de la constante et du Trend sont inférieure à 5%. La constante et le Trend sont significatifs.

H0 : non stationnarité du processus La p valeur étant supérieure au seuil 5% (0.1397 > 0.05) On accepte l’hypothèse de base : la série n’est pas stationnaire.

Conclusion : Le processus est complet et non stationnaire . Il faut le différencier pour le stationnariser.

Différentiation : Il s’agit de différencier le log de la variable plus haut . L’application du log a pour but de lisser et réduire la tendance alors que la différenciation stationnarise le processus.

31

Courbe de la différenciation

L’allure de la courbe de différenciation marque une oscillation autour de la moyenne nulle ce qui montre sa stationnarité.

On mène un ADF test pour confirmer ce résultat .

Test de racine unitaire (ADF-test) Les p valeurs de la constante et du Trend sont supérieur à 5%. La constante et le Trend ne sont pas significatifs.

H0 : non stationnarité du processus la p valeur étant nulle (< 0.05) On rejète l’hypothèse de base : la série différenciée est stationnaire.

Conclusion : Le processus est stationnaire .Le trend et la constante étant non siginificatifs on refait le test sans trend.

32

La p valeur de la constante est supérieure à 5%. La constante n’est pas significative.

H0 : non stationnarité du processus. la p valeur étant nulle (< 0.05) On rejète l’hypothèse de base : la série différenciée est stationnaire. Conclusion : Le processus est stationnaire .La constante étant non siginificative donc on refait le test sans contrainte ni trend .

H0 : non stationnarité du processus la p valeur étant nulle (< 0.05) On rejète l’hypothèse de base : la série différenciée est stationnaire.

Conclusion : Le processus DLPlus-Haut est stationnaire sans tendance ni drift.

33

3.4

Modélisation

Modélisation ARMA(p,q) : Pour identifier l’ordre p et q d’un processus ARMA, nous utilisons le corrélogramme de la fonction d’autocorrélation et la fonction d’autocorrélation partiel de la série .

A priori, les éventuels processus de la variation du dlplus-haut sont AR(1), MA(1) et ARMA(1,1).

34

L’estimation de ce processus par la méthode de moindre carrée ordinaire est représentée dans le tableau suivant et justifie le choix d’un AR(1) avec une p value (0.0019) < 5% .

Tests sur les résidus : a.Test d’absence d’auto corrélation des résidus :

les Q-stat sont faibles et les p-values > 5 % on conclue alors que les erreurs ne sont pas corrélées. 35

On représente également l’intervalle de confiance résiduel ci dessous :

La majorité des valeurs résiduelles sont à l’intérieur de l’intervalle de confiance d’où L’absence de corrélation résiduelles dans les résidus estimés, ce qui confirme la présence de volatilité.

36

b.Tests de normalité sur les résidus du modèle optimal AR(1) : •Test de Skewness (asymétrie) , de Kurtosis (aplatissement) et Test de Jarque et Bera :

Remarquons que le coefficient d’aplatissement Kurtosis est égal à « 7.66537 »est un peu élevé, qui est supérieur à la valeur du kurtosis de la loi normal qui est 3. La valeur de ce coefficient trouvé indique que la courbe de la série est plus aplatie que la courbe de loi normale, cette valeur du coefficient témoigne la forte probabilité d’occurrence de point extrêmes.. De même, le coefficient d’asymétrie Skewness étant de l’ordre de « 0,467436» n’est pas nul (la valeur théorique du coefficient de skeweness pour une la loi normal) , ce coefficient montre la présence de l’asymétrie de la courbe de la série . Le coefficient d’asymétrie est négatif, cela nous permet de dire que la distribution est étalée vers la gauche. En outre, le test de Jarque Bera donne un résultat de 1204.619 > χ20.05 (2) = 5, 99 et une pvalue nulle (< 5%) donc on rejette H0 : les données suivent une loi normale. Ce qui nous conduit à confirmer le rejet de la normalité.

37

•Test QQ-Plot (méthode graphique)

Le nuage de point (en bleu) est formé par (quantiles de N(0,1), quantiles empiriques réduits des résidus), sous H0 le nuage est rectiligne sur la droite rouge y = x ) On remarque que le nuage de point n’est pas rectiligne sur la droite, donc l’hypothèse nulle est rejetée c’est-à-dire les résidus ne suivent pas une loi normale. On affirme donc que les résidus forment un bruit blanc non gaussien.

38

c.Test d’effet ARCH et test d’homoscédasticité : •Plot des résidus :

Une première observation du graphe des résidus ci-dessous montre que la moyenne de cette série est constante alors que sa variance change au cours du temps. De plus le processus étant non gaussien, on suspecte la présence d’un effet ARCH.

39

Test ARCH : •Le corrélogramme des résidus au carré du modèle AR(1) :

==> On a pic à p = 4 et q = 4

Il faut préalablement déterminer le nombre de retards q à retenir. Au regard du corrélogramme des résidus au carré du modèle AR(1), on choisit, compte tenu du critère de parcimonie, un nombre de retards égal à 2 comme le montre le test d’hétéroscédasticité suivant .

40

Les deux statistiques Fisher et Khi-deux donnent deux p-valeurs inférieures au seuil (5 % ) : on rejette donc l’hypothèse nulle d’homoscédasticité en faveur de l’alternative d’hetéroscédasticité conditionnelle. Ce qui confirme la présence d’un effet ARCH. Alors il faut ré-estimer le modèle en tenant compte de cet effet. Estimation de modèle ARCH et GARCH : Afin de tenir compte de l’effet d’ARCH, nous allons estimer par la méthode du maximum de vraisemblance l’équation de la variance conditionnelle conjointement à l’équation de la moyenne.

41

Estimation de modèle ARCH(2) :

L’estimation du modèle ARCH(2) se résume dans le tableau suivant :

Le tableau de l’estimation d’ARCH(2) montre que les coefficients de paramètre de l’équation de la variance sont significativement différents de zéro et positifs donc les coefficients vérifient les contraintes assurant la positivité de la variance (que ce n’est pas les cas pour les autres modèles ARCH qu’on a déjà testé). De cela, nous retenons le modèle ARCH(2) comme modèle représentant la variance conditionnelle du processus .

42

Estimation du modèle GARCH (1,1)

Nous allons résumer l’estimation de ce modèle dans le tableau suivant :

Le tableau de l’estimation de GARCH(1,1) illustre que les coefficients de paramètre de l’équation de la variance sont significativement différents de zéro et que les coefficients de l’équation de la variance vérifient les contraintes qui assure la positivité de la variance. De cela, nous retenons ce modèle GARCH(1,1).

43

Comme nous avons retenu les modèles ARCH(2) et GARCH(1,1) , la question qui se pose est : Quelle modèle doit-on finalement retenir pour la modélisation de la variance conditionnelle ? Pour répondre à cette question, nous utilisons les critères de choix entre les différents modèles : •Le coefficient de détermination corrigé R2 •La valeur de la log-vraisemblance à l’optimum(LL) •Le critére d’information d’Akaike (AIC) •Le critére d’information de Schwarz (SIC). Nous retenons donc le modèle qui a le minimum valeur selon les critéres AIC et SIC.

Critères d’informations

ARCH(2) GARCH(1,1)

R2

0,00611

0,006760

logLikelihood

4219.908

4251.397

AIC

-6.602831

-6.652149

SIC

-6,586693

-6.636011

HQ

-6.596771

-6.646089

La comparaison des critères de sélection entre les différents modèles retenus nous mène à opter pour le modèle GARCH(1,1)comme meilleur modèle pour la modélisation de la variance conditionnelle du processus. Notre processus est donc un AR(1)-GARCH(1,1) Le modèle estimé obtenu s’écrie donc de la façon suivante : xbt = 0.078xd t−1 La variance estimée : 2 2 σbt 2 = 1.4.10−6 + 0.917σd t−1 + 0.068 d t−1

44

3.5

Prévision

Après avoir redimensionner la base en augmentant sa taille d’une année, on mène la prévision dynamique et statique pour une année plus tard (2019).

3.5.1

Prévision dynamique

Calcule les prévisions pour les périodes après la première période de l’échantillon en utilisant les valeurs précédemment prévues de la variable

Intervalle de confiance et prévision de la variance

Le Root Mean Squared Error est quasiment nul et est de l’ordre de 0.009 ce qui indique une bonne prévision.

45

3.5.2

Prévision statique

Utilise les valeurs réelles plutôt que les valeurs prévues (il ne peut être utilisé que lorsque les données réelles sont disponible). On les appelle aussi des prévisions progressives ou à un pas.

Etant donné que le Root Mean Squared Error de la prévision statique est plus faible que celui de la prévision dynamique (0.009212