34 0 535KB
Avant propre
Ce document ne constitue qu’un support pédagogique destiné à assister les cours des étudiants dans l’élaboration de leurs synthèses des cours. Il ne remplace aucunement les cours magistraux.
Chapitre 1 : Régression linéaire simple Réalisé par : Dr. Salah Eddine SALHI ********************************* 1. Spécification du modèle de régression simple L’analyse de la régression simple s’intéresse à l’étude de la dépendance d’une variable, la variable dépendante, par rapport à une seule variable, la variable indépendante (explicative). Soit la spécification d’un modèle linéaire simple :
Avec :
: La variable à expliquer, variable endogène ou encore variable dépendante. : La variable explicative, variable exogène ou encore variable indépendante. : La constante du modèle (c’est l’ordonnée à l’origine), paramètre à estimer par MCO : La pente du modèle (coefficient de la régression), paramètre à estimer par MCO. : La variable aléatoire non observable. En effet, c’est la variable erreur de nature stochastique et inconnue qui représente l’ensemble des variables non prises en compte par le modèle. 2. Les hypothèses du modèle de régression simple Les hypothèses suivantes permettent de déterminer les estimateurs des coefficients du modèle ayant de bonnes propriétés et de construire des tests statistiques et des intervalles de confiance sur les estimateurs.
ou bien le modèle est susceptible d’être transformé en exemple transformation logarithmique). H1 : Le modèle est linéaire en
(par
H2 : Les valeurs
sont observées sans erreurs. Autrement dit, les données collectées sont supposées correctes et justes ( est non stochastique, alors que est stochastique par l’intermédiation de ). H3 : L’espérance mathématique des erreurs est nulle : ( )
En moyenne les erreurs s’annulent, il s’agit des erreurs qui se compensent entre elles, les positives avec les négatives. Par conséquent, ∑ . H4 : La variance des erreurs est constante : ( )
: Homoscédasticité
Les erreurs ne varient pas en fonction des valeurs prises par les variables explicatives. Le risque de l’amplitude de l’erreur est constant quelle que soit la période. Par contre, si le risque de l’amplitude est explosif, on parle de l’hétéroscédasticité
H5 : Absence d’aucorrélation des erreurs : (
)
ou
(
)
Cette hypothèse signifie que les erreurs sont non corrélées (ou encore indépendantes) ; une erreur à l’instant t n’a pas d’influence sur les erreurs suivantes. H6 : H7 :
(
) (
: L’erreur est indépendante de la variable explicative.
) : Hypothèse de l’inférence statistique.
3. Distribution de Y Soit le modèle de régression linéaire simple suivant :
L’espérance de
( ) ( )
( (
) )
( )
Comme ( ) ( )
La variance de
( ) Comme
(
)
est indépendante de ( )
(
)
( )
Ainsi, ( ) ( )
La loi de
Comme : ( ) ( ) (
)
Donc,
(
)
4. Estimation des paramètres du modèle Soit le modèle de régression linéaire simple suivant :
Pour estimer les paramètres du modèle ( ), nous estimons par la méthode des moindres ̂ (les estimateurs du modèle de régression simple) qui carrées ordinaires (MCO) ̂ consiste à minimiser l’erreur du modèle. Les formules à retenir sont les suivantes :
̂
L’estimation de ̂ : ∑
̂ ∑
̂
∑
∑
̅ )(
( ∑
(
̅)
̅)
∑
̅̅
̅)
(
si on note
∑
̅
∑
̂
∑ ( ∑ (
̅
∑
̅ )(
(
̅̅
∑
̂
̅)
(
̅)
( ) ( )
̅)
( ̅) ̅)
L’estimation de ̂ : ̂
̅
̂ ̅
5. Présentation de la droite linéaire MCO ̂
̂
̂
6. Propriétés de la MCO
La droite de régression passe toujours par le point ( ̅ ̅ )
̂ La moyenne des estimées est égale à la moyenne des observées ̅ La moyenne des résidus est nulle : comme∑ ̂ , implique que ̅
̅
7. Critères d’un meilleur estimateur
Les estimateurs sont linéaires Les estimateurs sont sans biais (̂ ) et Les estimateurs sont convergents (̂ )
(̂ )
(̂ ) Par conséquent les estimateurs des MCO sont BLUE 8. Le coefficient de corrélation Le coefficient de corrélation mesure l’intensité de liaison (le degré de liaison) entre deux variables X et Y : -1