50 24 1MB
2010 M1 IEF
PROJET D’ECONOMETRIE LE MODELE DE RENTABILITE A TROIS FACTEURS DE FAMA ET FRENCH(1993)
KUNAL TAYLAN
RESUME
De récents travaux ont montré le rôle de variables "fondamentales" (taille, ratio valeur comptable/valeur de marché ) dans l'explication de la rentabilité des titres. Fama et French (1993) proposent un modèle à trois facteurs (bêta, HML, SMB) pour expliquer ces observations. Dans ce test du modèle de Fama et French (1993) sur le marché américain, l'explication de la rentabilité des titres dépend négativement du facteur lié à la taille et positivement du ratio VC/VM. Toutefois, le facteur de marché reste la variable explicative la plus significative.
Sommaire Première partie de projet 1.
INTRODUCTION
2.
EXPLICATION DE LA RENTABILITE DES TITRES AVEC UN MODELE MULTIFACTORIEL 2.1. Ratio valeur comptable/valeur de marché et rentabilité des titres, capitalisation boursière 2.1.1. L’effet taille et la rentabilité des titres 2.1.2. L’effet ratio VC/VM et la rentabilité des titres 2.2. Le modèle Fama et French
3.
PRESENTATION DES DONNEES ET CONSTRUCTION DES VARIABLES 3.1. Le méthode de calcul des données financières 3.2. Le méthode de calcul des données comptables 3.3. Les variables explicatives: Rm-Rf, SMB et HML 3.4. Les variables expliquées: Six portefeuilles de titres classés par taille et ratioVC/VM 3.5. Le choix de la variable expliquée pour la Partie 1 du projet
4. 5.
LE MODELE DE RENTABILITE A TROIS FACTEURS DE FAMA ET FRENCH CONCLUSION
Introduction Les premiers tests empiriques du Modèle d’Evaluation Des Actifs Financiers (Médaf), au début des années 70, ont pu laisser croire que le Médaf et l'efficience des marchés financiers au sens de Fama (1970) fournissaient un cadre théorique capable d'expliquer la rentabilité des titres. Le Médaf nécessite de construire un portefeuille prenant en compte tous les investissements possibles sur la planète (actions, obligations, objets d'art, immobilier…). Les tests du Médaf constituent donc des tests conjoints de l'efficience ex ante du portefeuille retenu comme portefeuille de marché et du Modèle d'Evaluation Des Actifs Financiers.
L'observation empirique d'anomalies dans les rentabilités des titres contredisant le Médaf représente une deuxième remise en cause essentielle du modèle qui postule notamment que le coefficient bêta suffit à décrire les rentabilités espérées en coupe transversale. Ainsi, certaines données fondamentales liées aux titres présentent un pouvoir explicatif des rentabilités complétant le bêta, en contradiction avec la théorie du Médaf. L'objet de cette étude est de tester la capacité explicative du modèle à trois facteurs de Fama et French (1993) sur le marché américain des actions.
2. EXPLICATION DE LA RENTABILITE DES TITRES AVEC UN MODELE MULTIFACTORIEL
2 .1 Ratio valeur comptable/valeur de marché et rentabilité des titres, capitalisation boursière 2.1.1 L’effet taille et la rentabilité des titres
En 1981, Selon BANZ, la taille de l’entreprise, mesurée par sa capitalisation boursière renforce le Beta pour expliquer les rentabilités des titres. En effet, par rapport à l’estimation de leur Beta, les rentabilités moyennes des petites capitalisations sont trop élevées par rapport aux celles des grandes capitalisations qui sont trop faibles. Chan et Chen (1988) montrent une très forte corrélation entre la taille moyenne des titres de chaque portefeuille et les estimations des coefficients de Beta de ces mêmes portefeuilles. En France, Hamon (1986) observe une rentabilité des titres de faible capitalisation plus importante. Cette anomalie serait liée à un effet liquidité du marché. En 1992 Girerd Potin confire une plus forte rentabilité de pf de petites firmes.
La mesure de la taille par la capitalisation boursière repose sur le cours. L’évaluation du cours d’un titre reposant sur l’actualisation de ces flux futurs et le taux d’actualisation étant lié au risque, il est logique d'observer une plus grande rentabilité des titres sous-évalués. Berk met en évidence l'une des difficultés des recherches empiriques sur la rentabilité des titres. La rentabilité des titres dépend directement de leur prix et de son évolution sur une période de référence :
, avec Ri(t-1; t) , rentabilité arithmétique du titre i sur la périodes (t-1,t) et
Ri(t-1:t) =
P it, cours du titre i à l’instant t.
2.1.2 L’effet ratio valeur comptable/valeur de marché et la rentabilité des titres
Fama et French (1991), sur le marché américain identifient le ratio VC/VM comme facteur explicatif important des rentabilités: Les entreprises avec un ratio VC/VM élevée sont associées des rentabilités espérées élevées. Ils démontrent que le ratio VC/VM est une variable explicative plus significative que la variable taille. Pour Daniel et Titman (1997), la rentabilité attendue d'un titre est déterminée par les caractéristiques de la firme et non par des primes de risque.
On calcule le ratio VC/VM de la façon suivante:
VM=∑
[
VM/VC = ∑
] [
Il existe une relation inverse entre rentabilité attendue et valeur de marché.
]
Relation négative entre la rentabilité et le ratio VM/VC.Inversement
une relation positive doit être observée entre le ratio VC/VM, et la rentabilité espérée des titres.
2.2 Le modèle à trois facteurs de Fama et French Fama et French (1992, 1993), propose un modèle à trois facteurs qui corrige les défaillances du modèle d’évaluation des actifs financiers Medaf. Le modèle à trois facteurs inclut le risque du marché (le bêta utilisé dans le MÉDAF), et utilise également le risque relié à la taille et celui attribué au ratio VC / VM pour mieux expliquer la variabilité des rendements des actions cotée sur le NYSE, l’AMEX et le NASDAQ.
Selon ces auteurs, on aurait tendance à observer un risque plus élevé dans le cas des petites entreprises et des entreprises de valeur (ratio VC / VM élevé) comparativement aux grandes entreprises et aux entreprises de croissance (ratio VC / VM faible), ce qui amènerait les marchés financiers à requérir un plus fort rendement en compensation. L’équation du modèle à trois facteurs de Fama et French est la suivante :
(
)
: Rendement excédentaire du portefeuille d’entreprise observées
par rapport
au rendement sans risque Rft : Un mois de Bon du Trésor des Etats-Unis.
: Rentabilité du portefeuille de marché. : Rentabilité du portefeuille basé sur la différence entre la rentabilité des titres de petite capitalisation boursière et la rentabilité des titres de capitalisation boursière importante (SMB, small minus big).
: Rentabilité du portefeuille basé sur la différence entre la rentabilité des titres avec un ratio valeur comptable sur valeur de marché élevé et la rentabilité des titres avec un ratio valeur comptable sur valeur de marché faible (HML, high minus low).
,
,
: Coefficients des primes de risque
,
et
.
3. Présentation des données et construction des variables La méthodologie de cette étude est adaptée de Fama et French (1993). Elle repose sur la construction de portefeuilles de titres tant pour les variables expliquées que pour les variables explicatives fondamentales (SMB, HML) et de marché (RM - Rf).
3.1 Les données financières 6 portefeuilles formés de taille et Book to market ratio:VC/VM Rendements mensuels:
Juillet 1980-Juin 2010 ( 360 obs)
Les données sont prises sur le site d’internet de Kenneth R. French. Les portefeuilles construits sont l’intersection de 2 portefeuilles classée par leurs tailles (Small Capi, Big Capi) et 3 portefeuilles classés par leur ratio de valeur comptable / valeur de marché (High,Neutral,Low).
Les portefeuilles construits de juillet de l’année t à Juin de l’année t+1 inclue tous les titres de NYSE, d’AMEX et de NASDAQ. Le placement à taux sans risque utilisé dans le modèle à trois facteurs, Rf, est le placement sur le marché monétaire à 1 mois. Le taux sans risque retenu dans l'équation est donc le taux moyen mensuel de Bon du Trésor.
3.2 Les données comptables La taille de l'entreprise est représentée par sa capitalisation boursière (nombre de titres multiplié par le cours de bourse). Le classement suivant la taille repose sur la capitalisation boursière des titres en juin t. La capitalisation boursière de l'entreprise fin décembre t-1 est utilisée pour calculer le ratio valeur comptable/valeur de marché (VC/VM). Le ratio VC/VM est égal à la valeur comptable des titres en décembre t-1, divisé par la dernière cotation de décembre t-1. La capitalisation boursière correspond ici, au nombre de titres multiplié par le dernier cours de décembre t-1.
3.3 Les variables SMB et HML A la fin du mois de juin de l'année t, les titres de l’échantillon sont répartis en deux groupes (S pour small et B pour big) suivant que leur valeur de marché en juin t est inférieure ou supérieure à la valeur de marché médiane de l’échantillon. Indépendamment, les titres sont classés suivant leur ratio VC/VM en décembre t-1, et répartis en trois groupes correspondant respectivement aux trois premiers déciles (L pour low,), aux quatre déciles médians (M pour medium) et aux trois derniers déciles (H pour high). Six portefeuilles (S/L, S/M, S/H, B/L, B/M, B/H) sont constitués à l'intersection des deux répartitions précédentes. Les rentabilités sont calculées chaque mois de juillet t à juin t+1. a) Le portefeuille SMB construit pour reproduire le facteur de risque associé à la taille correspond à la différence, calculée mensuellement, entre la rentabilité moyenne des trois portefeuilles de valeur de marché faible (S/L, S/M, S/H) et la rentabilité moyenne des trois portefeuilles de valeur de marché élevée (B/L, B/M, B/H). SMB =1/3 (Small Value + Small Neutral + Small Growth) - 1/3 (Big Value + Big Neutral + Big Growth). b) HML correspond à la différence, calculée mensuellement, entre la rentabilité moyenne des deux portefeuilles de ratio VC/VM élevé (S/H, B/H) et la rentabilité moyenne des deux portefeuilles de ratio VC/VM faible (S/L, B/L). HML =1/2 (Small Value + Big Value) - 1/2 (Small Growth + Big Growth).
3.4 Les variables expliquées: Six portefeuilles de titres classés par taille et ratio VC/VM Six portefeuille sont construits à l’intersection de deux répartitions ( taille et ratio VC/VM ) Nous avons six portefeuilles à expliquer, ce sont : SmallHigh,SmallMedium,SmallLow BigHigh,BigMedium,BigLow
4. LE MODELE DE RENTABILITE A TROIS FACTEURS DE FAMA ET FRENCH
(
)
Nous allons utiliser le modèle de régression multiple pour tester le modèle de rentabilité de Fama et French (1993). 4.1 Données statistiques des variables explicatives Tableau 1 : Données statistiques des rentabilités mensuelles des variables Rm-Rf, SMB et HML de 07/1926 à 01/2009, 991 mois
Moyenne Ecart-type
Rm-Rf 0.582 5.45
SMB 0.182 3.34
HML 0.475 3.575
Commentaire : Le portefeuille de marché enregistre une rentabilité moyenne annuelle de 59% qui est supérieure à celle des autres variables explicatives. Le portefeuille SMB a une rentabilité moyenne de 19% , qui est inférieure à celle de HML 48%: De plus cette rentabilité moyenne élevé est associée à un écart type des rentabilités plus élevé.
4.2 Donnée statistiques des variables expliquées Les portefeuilles de titres de petite capitalisation présentent une rentabilité plus élevée donc cela nous confirme l’existance d’un effet taille. Les portefeuilles de titres avec une ratio de VC/VM élevé ont une rentabilité également plus élevé.
Tableau 3: Données statistiques de portefeuilles classés par taille et ratio VC/VM
Elevé Taille Grande Petite
Med Faible Ecart-type 7.294189 5.8258258 5.412988 8.355718 7.1238315 7.845203
Elevé
Med Faible Taille Moyenne Grande 0.856125 0.6256004 0.560091 Petite 1.144329 0.9458628 0.642805
Commentaire : Les écarts-types les plus élevés montrent la plus forte volatilité. Nous allons examiner les effets de ratio VC/VM et de la taille des entreprises sur les écarts-type des six portefeuilles.
Graphique 1: Projection des portefeuilles dans l’espace espérence de rentabilité mensuelle en excès (Rm-Rf) /écart type des rentabilité en excès ( Rp-Rf )
Commentaire: Le portefeuille SMB associe une rentabilité moyenne avec une variabilité faible. Les deux portefeuilles (SH et SN ) de petits capitalisations ont des rentabilités plus important que les entreprises avec la grande capitalisation. La ligne bleu signifie “ la Droite de Marché ”, au dessus de cette droite nous avons des portefeuilles avec fortes rentabilités moyennes et au dessous il se trouve des portefeuilles avec faible rentabilité moyennes. Nous pouvons constater un effet lié au ratio VC/VM , les portefeuilles avec un ratio VC/VM élevé ont également une rentabilités plus élevés et plus ils ont des ratios élevés plus ils sont risqués.
4.5 Choix de la variable à expliquée pour la partie 1 du projet : Durant cette partie 1 du projet, Nous allons travailler sur le portefeuille classé des titres de grande capitalisation et une ratio VC/VM faible pour les raisons suivantes :
Le portefeuille LB se trouve sur la Droite de Marché, les portefeuilles qui sont en dessus de cette droite ont des rentabilités moyennes plus élevés que les portefeuilles qui se trouve au dessous de cette droite. Le portefeuille (LB) a un écart-type moins élevé que les autres, cela signifie qu’il est le moins volatile. Le coefficient de détermination du portefeuille LB représente 97,7% . Le modèle de régression de Fama et French explique 97 ,7% de la rentabilité du portefeuille classé LB. C’est le portefeuille mieux expliqué entre ces 6 portefeuilles. (Selon la régression que j’ai faite pour le projet d’économétrie 2009.) Nous allons travailler pour la suite de projet avec la série désaisonnalisé « LBSA »
4.6 Description de l’allure graphique de la série « LBSA » 4.6.1 Evaluation graphique de la Stationnarité
Commentaire : Au vue du graphique, on peut conclure qu’il s’agit d’un processus stationnaire, la moyenne et la variance sont constants au cours du temps. Le processus ne semble ni un processus DS ni TS , mais un bruit blanc. Dans cette étape on n’a pas pouvoir de dire qu’il est un bruit blanc car un processus stationnaire n’est pas forcement un bruit blanc.
4.6.2 Analyse des fonctions d’auto-corrélation simple et partielle
Commentaire : Le premier graphique représente les auto-corrélations d’ordre h=1,….20 et le deuxième les autocorrélations partielles d’ordre h=1,…20. Ici la fonction d’auto-corrélation simple permet de mesurer le coefficient d’auto-corrélation de rendement mensuel de portefeuille classé LB avec le rendement de portefeuille de mois précédent. Ici, les coefficients d’auto-corrélation simple ne sont pas significativement différent de zéro. ( Prob
0 nous appliquons le test Dickey Fuller augmenté. 5.1 Le choix du nombre de retards Pourquoi de choisir un nombre de retard optimal est important ? : Inclusion d’un nombre insuffisant de retards peut affecter le niveau du test tandis que l’introduction d’un nombre trop-élevé de retards réduit le nombre de degrés de liberté et donc la puissance du test, c'est-à-dire qu’il y a un Racine unitaires alors que notre processus est stationnaire. Nous allons déterminer le nombre de retard p optimal par EViews qui calcule directement le p optimal :
En faisant les tests de racine unitaire par les critères d’Akaike (AIC) et de Schwartz (SIC), Eviews nous indique p=0. Nous allons faire le test de Dickey Fuller simple par la suite comme le nombre de retards optimal est zéro. La procédure de test : On part du modèle le plus général (le modèle 3) (Trend and intercept). On y teste la racine unitaire puis on vérifie par un test approprié que le modèle retenu est le bon, si on n’est pas dans le bon modèle, on recommence dans un modèle plus contraint (le modèle 2), puis avec le model 1.
5.2 Test de Racine unitaire : Etude du Modèle 3 : On teste les hypothèses suivantes :
| | Unit Root test sur Eviews :
Commentaire : Calcul de DF test statistique manuellement :
t-Statistic = -17,552 < VC3 ≈ -3 Règle de décision ;
On rejette l’hypothèse nulle de racine unitaire, il n’existe pas de Racine unitaire donc le série est stationnaire. A fin de voir si le modèle 3 est un bon modèle, nous allons faire le test de student sur le paramètre b du modèle pour voir s’il y a tendance.
Test de Student : Y a-t-il une tendance ?
| |
|
|
On ne rejette pas l’hypothèse H0 la nullité de b, donc le série n’a pas de tendance. On n’est pas dans le bon modèle , nous allons continuer de faire le test DF avec le modèle plus contraint (modèle 2)
Etude du Modèle 2 sans tandance : On teste les hypothèses suivantes :
| | Unit Root test sur Eviews :
Commentaire : t-Statistic = -17,5438 < VC2 Règle de décision ;
On rejette l’hypothèse nulle de racine unitaire, il n’existe pas de Racine unitaire donc la série est stationnaire. A fin de voir si le modèle 2 est un bon modèle, nous allons faire le test de student sur le paramètre c du modèle pour voir s’il y a une constante dans mon modèle. ( toujours à droite du stratégie du test)
Test de Student : Y a-t-il une constante ?
| |
|
|
On ne rejette pas l’hypothèse H0 la nullité de c, donc mon modèle 2 n’a pas de constante. On n’est pas dans le bon modèle, nous allons continuer à faire le test DF avec le modèle plus contraint (modèle 1).
Etude du Modèle 1 ni tendance ni constante : On teste les hypothèses suivantes :
| | Unit Root test sur Eviews :
Commentaire : t-Statistic = -17,37 < VC1 Règle de décision ;
On rejette l’hypothèse nulle de racine unitaire, il n’existe pas de Racine unitaire donc le modèle 1 est stationnaire. Il s’agit d’un processus stationnaire sans constante.
Nous allons vérifier la stationnarité de la série avec la procédure de test de Phillips-Perron.
5.4 Le test de Phillips Perron Le test de Phillips et Perron est basé sur une modification non paramétrique des statistiques de Dickey-Fuller pour prendre en compte l’auto-corrélation des résidus. Nous allons utiliser les modèles 1 ,2 et 3 avec les mêmes hypothèses sauf les valeurs empiriques du t Student sont corrigées. La valeur de l définit le nombre de retards calculé par la règle de Newey West, est environ égale à : [ (
)
]
Modèle 1, Modèle 2, Modèle 3
Conclusion :
La statistique de Phillips et Perron pour trois modèles est supérieure aux valeurs critiques. On rejette l’hypothèse nulle de racine unitaire. Il s’agit bien d’un processus stationnaire.
6. Identification du modèle et Estimation des paramètres Methodologie ( Box et Jenkins 1976) On choisit le modèle ARMA dont les caractéristiques théoriques se rapprochent le plus des caractéristiques des caractéristiques de la série observée (LBSA).
Nous allons étudier les corrélogrammes simple et partiel de la série. Nous allons retenir le modèle qui satisfait ces trois conditions suivantes :
Les coefficients des paramètres sont tous significativement différents de zéro Les polynômes d’opérateur de la partie AR ne possèdent pas de racine commune et son module est inferieur à 1. La probabilité critique de la statistique de Ljung-Box est supérieure à 0,05
6.1. L’Identification du Processus Le corrélogramme de notre série LBSA est le suivant :
Les probabilités critiques sont tous supérieurs à 5% . On suppose que c’est un processus bruit blanc non centré. La forme du corrélogramme nous indique également que le processus semble d’être un bruit blanc comme rien qui dépasse.
Nous allons commencer à effectuer une régression sur ARMA(1,1) Dependent Variable: LBSA Method: Least Squares Date: 11/22/10 Time: 23:39 Sample (adjusted): 1980M08 2010M06 Included observations: 359 after adjustments Convergence achieved after 11 iterations Backcast: 1980M07 Variable
Coefficient
Std. Error
t-Statistic
Prob.
C AR(1) MA(1)
0.477310 0.535793 -0.477328
0.271150 0.316766 0.331768
1.760321 1.691444 -1.438742
0.0792 0.0916 0.1511
R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat
0.007840 0.002266 4.532031 7311.994 -1050.403 1.970968
Inverted AR Roots Inverted MA Roots
.54 .48
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic)
0.505775 4.537175 5.868539 5.900990 1.406511 0.246355
Les coefficients ne sont pas significativement différents de zéro. On ne retient pas ce modèle. On est amené à enlever la variable MA(1) qui est la moins significative (p-value plus éloigné de 5%) pour améliorer la significativité globale du modèle. On estime ce modèle sans constante comme c n’est pas significative :
Variable
Coefficient
Std. Error
t-Statistic
Prob.
AR(1) MA(1)
0.645458 -0.577963
0.242489 0.261246
2.661809 -2.212335
0.0081 0.0276
Sans C le modèle ARMA(1,1) est bien significatif.
Dependent Variable: LBSA Method: Least Squares Date: 11/22/10 Time: 23:40 Sample (adjusted): 1980M08 2010M06 Included observations: 359 after adjustments Convergence achieved after 3 iterations Variable
Coefficient
Std. Error
t-Statistic
Prob.
C AR(1)
0.503072 0.078500
0.259423 0.052526
1.939197 1.494505
0.0533 0.1359
R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat Inverted AR Roots
0.006218 0.003434 4.529378 7323.949 -1050.696 2.001318
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic)
0.505775 4.537175 5.864602 5.886236 2.233546 0.135927
.08
Les coefficients ne sont toujours pas significativement différents de zéros. Comme le coefficient de « C » n’est pas significative, on l’enlève. Variable
Coefficient
Std. Error
t-Statistic
Prob.
AR(1)
0.090364
0.052360
1.725826
0.0852
R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Inverted AR Roots
-0.004107 -0.004107 4.546482 7400.040 -1052.551
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Durbin-Watson stat
0.505775 4.537175 5.869366 5.880183 2.004123
.09
Le fait d’enlever la constate pas significative, nous permet de retenir le modèle AR(1) comme le coefficient est significativement différent de zéro à 10%. (p-value < 10%).
Un nouvel examen de corrélogramme des résidus est nécessaire :
Les probabilités critiques sont supérieurs à 5%. Ces deux processus a une tête de bruit blanc. Au vu de corrélogramme comme rien qui dépasse , cela me confirme qu’il s’agit bien d’un bruit blanc.
On reconnait ici un processus AR(1) significative à 10% et ARMA(1,1) significative à 5%
6.2.Estimation du processus AR(1) et ARMA(1,1) en enlevant les 3 dernières observations. Nous allons estimer deux processus AR(1) et ARMA(1,1) sans c car il s’agit des modèles concurrents puis je vais faire les prévisions avec ses deux modèle pour voir le quel prévoit mieux. ( Pendant le cour on a dit que si c’est toujours un bruit blanc après les tests on utilise un AR(1) donc nous allons voir quel modèle est plus fiable pour les prévisions d’une série qui a la tete d’un bruit blanc).
Dependent Variable: LBSA Method: Least Squares Date: 12/04/10 Time: 19:47 Sample: 1980M08 2010M03 Included observations: 356 Convergence achieved after 2 iterations Variable
Coefficient
Std. Error
t-Statistic
Prob.
AR(1)
0.086350
0.052596
1.641738
0.1015
R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Inverted AR Roots
-0.007246 -0.007246 4.534083 7298.059 -1042.779
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Durbin-Watson stat
0.550556 4.517746 5.863928 5.874813 2.004790
.09
Sample (adjusted): 1980M08 2010M03 Included observations: 356 after adjustments Convergence achieved after 10 iterations Backcast: 1980M07 Variable
Coefficient
Std. Error
t-Statistic
Prob.
AR(1) MA(1)
0.689276 -0.623102
0.225214 0.244873
3.060534 -2.544597
0.0024 0.0114
R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood
-0.002228 -0.005059 4.529160 7261.704 -1041.890
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Durbin-Watson stat
0.550556 4.517746 5.864552 5.886321 1.980545
Inverted AR Roots .69 Inverted MA Roots .62 Lorsqu’on enlève 3 dernières observations, les p-value de modèle ARMA(1,1) sont améliorés en revanche p-value du processus AR(1) a dépassé le seuil de 10%.(0,1015) On va supposer que le modèle AR(1) est significative à 10% en enlevant les 3 dérnières observations.
6.3. Validation du processus pour un processus AR(1) 6.3.1. L’analyse de Racine AR(1) Nous allons vérifier la stationnarité de processus AR pour la stabilité du modèle, le module de racine doit être inférieur à 1. Un processus étant toujours inversible, il est stationnaire lorsque les racines l’extérieur du cercle unité du plan. Inverted AR Roots
sont à
.09 < 1
La condition sur la racine est bien vérifiée.
6.4. Tests sur les résidus Nous allons effectuer plusieurs test pour vérifier la pertinence du modèle estimé AR(1).
Test de Ljung Box ou Test de non auto-corrélation des résidus
Analyse du corrélogrammes des résidus, comme on a précédemment fait, la probabilité critique de la statistique de Ljung-Box est supérieurs à 5%. On ne rejette pas l’hypothèse nul de non corrélation des résidus. Les termes de auto-corrélation et partial corrélation sont dans l’intervalle de confiance. La séries peut être considérée comme un bruit blanc.
Test de Breush-Godfrey Ce test nous sert à détecter une auto-corrélation d’ordre supérieurs et égale à 1 des résidus.
Eviews nous donne deux Stats ; obs*R-squared ce qui est la bonne statistique et F-stats.
Breusch-Godfrey Serial Correlation LM Test: F-statistic Obs*R-squared
0.427538 0.000000
Probability Probability
0.652447 1.000000
Test Equation: Dependent Variable: RESID Method: Least Squares Date: 12/04/10 Time: 01:41 Presample missing value lagged residuals set to zero. Variable
Coefficient
Std. Error
t-Statistic
Prob.
AR(1) RESID(-1) RESID(-2)
0.410592 -0.413532 -0.058842
0.495843 0.498782 0.069606
0.828067 -0.829083 -0.845357
0.4082 0.4076 0.3985
R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood
-0.007824 -0.013486 4.553770 7382.308 -1052.121
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Durbin-Watson stat
0.457204 4.523371 5.878109 5.910561 2.000981
Comme p-value de la statistique Obs*R-squared= 1 est supérieur à 5%, On ne rejette pas l’hypothèse nul de non auto-corrélation des résidus à l’ordre supérieur à 1.
Test d’homoscédasticité Nous avons déjà conclu que la série est un bruit blanc. Une série de bruit blanc est homoscédastique.
Test ARCH de Engle (1982)
Résultat du test pour p=1 ARCH Test: F-statistic Obs*R-squared
0.457623 0.459603
Probability Probability
0.499176 0.497810
0.731336 1.468998
Probability Probability
0.481991 0.479746
0.691185 2.084836
Probability Probability
Résultat du test pour p=2 ARCH Test: F-statistic Obs*R-squared
Résultat du test pour p=3 ARCH Test: F-statistic Obs*R-squared
0.557924 0.554987
Le test Arche pour p=1 ;2 ;3 nous permet de conclure à une homoscédasticité comme les p-value des tests sont tous supérieurs à 5%, On ne rejette pas l’hypothèse nul de homoscédasticité. C’est normale comme la série est un bruit blanc.
Test de normalité des résidus Le test de normalité consiste à déterminer si le bruit blanc suit une loi normale. On utilise la statistique de Jarque-Bara pour conclure sur la normalité des résidus. Le skewness d’une loi normale est égale à 0. Le kurtosis d’une loi normale vaut 3.
Le
Kurtosis n’est pas proche de 3 ( 5.53) et le Skewness n’est pas très proche de 0 (-0,55) ; La statistique de JB donnée par Eviews est 114 ce qui est très élevé et la probabilité critique étant 0 au dessous de 5%, On rejette l’hypothèse nul de Normalité. Donc le bruit blanc ne suit pas une loi normale et aussi on peut conclure que tous les tests qu’on a fait précédemment ne sont pas rigoureux comme ces tests sont construits sous l’hypothèse de Normalité.
6.3.2. L’Analyse de Racine ARMA(1 ,1) Il est nécessaire de vérifier qu’il n’y ait pas de racines redondantes entre AR et MA. Si tel était le cas, cela soulèverait des problèmes d’estimation et il faudrait alors éliminer dans la partie AR ou MA la racine la moins significative. Ici, les racines sont toutes différentes entre elles.
Variable
Coefficient
Std. Error
t-Statistic
Prob.
AR(1) MA(1)
0.689276 -0.623102
0.225214 0.244873
3.060534 -2.544597
0.0024 0.0114
R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood
-0.002228 -0.005059 4.529160 7261.704 -1041.890
Inverted AR Roots Inverted MA Roots
.69 .62
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Durbin-Watson stat
0.550556 4.517746 5.864552 5.886321 1.980545
Un processus AR est toujours inversible. Il est stationnaire losrque les racines sont à l’extérieur du cercle unité du plan complexe. Inverted AR Roots
.69