Cours Statistique Inferentielle [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

Edition 2020

Cours : STATISTIQUE INFERENTIELLE

Auteur : Pr. Z. BENABBOU

Plan

Chapitre I : Concept de base de la théorie des probabilités 1. Terminologies et règles de calcul des probabilités 2. Distributions de probabilités 2-1 Loi de Bernoulli 2-2 Loi Binomiale 2-3 Loi de Poisson 2-4 Loi uniforme 2-5 Loi de Laplace-Gauss ou loi normale 2-6 Approximation par la loi normale 2-7 Lois des variables aléatoires liées à des variables aléatoires normales

Chapitre II : Théorie d’échantillonnage 1- Echantillonnage. 2- Distribution d’échantillonnage des moyennes 3- Distribution de la proportion de l’échantillonnage

Chapitre III : Estimation

1- Notion d’estimateur 2- Qualités d’un estimateur 3- Estimation ponctuelle 4- Estimation par intervalle de confiance

1

Z.BENABBOU

EDITION : 2020

Chapitre IV : Les tests d’hypothèse 1-

Tests paramétriques 1-1 Principe des tests 1-2 Tests de conformité 1-2-1 Test de comparaison d’une moyenne à une valeur donnée 1-2-2 Test de comparaison d’une proportion à une valeur donnée 1-3. Tests d’homogénéité 1-3-1 Comparaison de deux variances 1-3-2 Comparaison de deux moyennes a-

Variances des populations connues

b-

Variances des populations inconnues et égales

c-

Variances des populations inconnues et inégales

1-3-3 Comparaison de deux proportions

2-

Test non paramétrique : Test d’indépendance de deux variables

2

Z.BENABBOU

EDITION : 2020

Chapitre I : Concept de base de la théorie des probabilités 1. Terminologies et règles de calcul des probabilités 1-1 Terminologies ➢ Espace échantillonnal ou univers : est l’ensemble de tous les résultats « potentiellement possibles » d’une expérience. ➢ Evénement simple : est un élément de l’espace échantillonnal. ➢ Evénement composé : est un ensemble formé d’un ou de plusieurs événements simples ➢ Probabilité d’un événement : notée P (« événement ») est une mesure des chances (en proportion) de réalisation de l’événement. Toute probabilité est un nombre situé entre 0 et 1 ➢ Evénement impossible : a une probabilité de 0. ➢ Evénement certain : a une probabilité de 1 ➢ Probabilité conditionnelle : Soient P (A) = la probabilité que l’événement A se produise et P (B) = la probabilité que l’événement B se produise. On définit la probabilité conditionnelle de B étant donné A, notée P (B | A), comme la probabilité que l’événement B se produise étant donné que l’événement A s’est produit. ➢ Evénements mutuellement exclusifs : Deux événements sont dits mutuellement exclusifs si la réalisation de l'un empêche la réalisation de l’autre :

P (B) ≠ 0 et P (B | A) = 0

Dans le cas contraire, ces événements sont dits non mutuellement exclusifs : P (B) ≠ 0 et P (B | A) ≠ 0

3

Z.BENABBOU

EDITION : 2020

➢ Evénements indépendants : Deux événements sont dits indépendants si la réalisation ou la non-réalisation de l’un ne modifie en rien la probabilité de réalisation de l’autre, c’est-à-dire P (B | A) = P (B). Dans le cas contraire, ces événements sont dits dépendants. 1-2 Règles de calcul des probabilités ➢ Règle du complément (= NON) P (non A) = P ( A ) = 1 - P (A) ➢ Règles de l'addition (= OU)

P(A ou B) = P(A) + P(B) - P(A et B)

➢ Règles de la multiplication (= ET) ➢ Événements indépendants : P (A et B) = P(A) × P(B) ➢ Événements dépendants : P (A et B) = P(A) × P(B | A) ➢ Espérance mathématique et variance Espérance On sait qu'à chaque événement de l'espace échantillonnal est associé une probabilité ; supposons qu'on lui associe également une « valeur » (donnée par la variable aléatoire). La question est alors de savoir quelle « valeur », à long terme, peut-on obtenir. La valeur espérée, appelée espérance mathématique, est alors la moyenne pondérée, par la probabilité, de toutes les valeurs des événements de l'espace échantillonnal . Pour la calculer, on fait le produit de la valeur de chaque résultat possible par sa probabilité d'apparition et on fait la somme de tous les produits ainsi obtenus. En formule n

E ( X ) =  xi p ( xi ) i =1

4

Z.BENABBOU

EDITION : 2020



E(X) = l'espérance mathématique de la variable X xi = valeur que peut prendre la variable X

P( xi ) = la probabilité de la valeur xi Variance n appelle variance de la V.A X le nombre réel défini par :

( )

n  n  V ( X ) = EX − E ( X )2 = E X 2 − E ( X )2 =  xi2 . pi −   xi . pi  i =1  i =1 

2

2- Distributions de probabilités Une distribution de probabilités est une énumération de tous les résultats possibles d'une expérience avec leur probabilité respective On remarque que la somme de toutes les probabilités est 1;ce qui est le cas pour toutes les distributions de probabilités Plusieurs distributions de probabilités s'avèrent essentielles pour comprendre les méthodes de l'inférence statistique. On étudiera ici : la distribution binomiale, la distribution normale et la distribution de Poisson. Plus tard, on présentera : la distribution t de Student, la distribution F de Fischer et la distribution du χ2.

2-1

Loi de Bernoulli :

Définition : Une variable aléatoire X suit une loi de Bernoulli si elle prend les valeurs 0 et 1 avec la probabilité : P (X = 1) = p P (X = 0) = 1 – p = q Espérance et variance :

1

E(X) =  x P(X=x) = p

x =0

5

Z.BENABBOU

EDITION : 2020

1 V(x) =  (X – E(X))2 P(X=x) x =0 1

=  x2P(X=x) - p2

x =0

= p - p2

2-2

= p(1-p) = pq

Loi Binomiale :

Présentation : Soit une épreuve aléatoire à deux issues, que l’on peut appeler « succès » et « échec ». La probabilité d’avoir un « succès » est toujours p. Celle d’avoir un « échec » est q = 1 – p. On répète cette épreuve n fois de suite de façon indépendante. Le nombre de « succès » est une variable aléatoire suivant la loi binomiale notée B(n,p). Définition : Une v.a suit une loi binomiale B(n,p) si elle prend les n +1 valeurs0,1,…..,n Avec les probabilités : P(X=k) =

Cnk =

Cnk p k q n − k n! k!(n − k )!

Remarque : La loi binomiale est la loi discrète rencontrée le plus fréquemment car elle sert à modéliser de nombreux phénomènes aléatoires. On l’obtient comme la somme de variables de Bernoulli.

6

Z.BENABBOU

EDITION : 2020

Espérance et variance :

n n n E(X) = E (  X i ) =  E ( X i ) =  p =np i =1 i =1 i =1 n

V(x) =  V ( X i ) = npq

i =1

2-3 Loi de Poisson : La loi de Poisson sert souvent à modéliser les fréquences d’apparition d’événements rares et constitue sous certaines conditions une approximation de la loi binomiale. Elle sert également à modéliser des phénomènes dépendant du temps tels que la survenue des moments d’appel à un central téléphonique, la succession des dates auxquelles se produit une panne dans une usine. Définition : La variable aléatoire X de Poisson est une variable discrète qui prend les valeurs entières x = 0,1, 2,…… avec les probabilités :

Espérance et variance :

−

P(X=k) =

e

E(X) = V(X) =



k k!

Démonstration :

On utilise la propriété :

 k  e = 

k = 0 k!

  e −  k E(X) =  kp( X = k ) =  k k! k =0 k =0

7

Z.BENABBOU

EDITION : 2020

Le premier terme de la somme étant nul, on peut alors la débuter à 1 et mettre



en

facteur :

E(X) =



 e −  k −1  k =1 (k − 1)!

Faisons le changement de variable : k’ = k-1. On obtient : ' k'  e −  k   E(X) =   = e −   = e −  e  =  ' ' k ' =0 k ! k ' =0 k !

V(X) = E(X2) – [E(X)] 2 Calculant :

E

(X2)

k  2  2 e −  k −  2  =e =  k p( X = k ) =  k  k k ! k! k =0 k =0 k =0

k −1 −  =e  k k =1 ( k − 1)! Faisons le changement de variable : k’ = k-1. On obtient :

k'   − ' E (X2) =  e  ( k + 1) k '! k ' =0 k' k'     − [  k' +  ] =e ' ' ' ' k =0 k ! k =0 k !

D’où :

V(X) =

=

 e −  [ e  + e  ]

=

2 + 

2 +  − 2 = 

8

Z.BENABBOU

EDITION : 2020

Propriété : Si deux variables aléatoires indépendantes suivent respectivement des lois de Poisson de paramètres paramètre

1

et

2

alors leur somme suit une loi de Poisson de

 = 1 +  2

2-4 Loi uniforme : 4-a Loi uniforme discrète : Modèle aléatoire de cette loi : L’expérience aléatoire de cette loi consiste à tirer une boule dans une urne qui contient n boules numérotées de 1 à n ou à extraire des nombres d’une table de nombres au hasard. La variable aléatoire X associe à cette expérience est égale au numéro obtenu sur la boule extraite de l’urne. Les nombres entiers de 1 à n ont ainsi tous la même probabilité d’apparition soit

1 n

Définition : SX = {1, 2,,k,…..,n} est l’ensemble des situations possibles de X = x

Pk = P (X = k) =

1 n

Remarque : Au lieu de faire varie les résultats possibles de 1 à n, il est possible de faire varier les résultats de n’importe quel réel, même négatif, avec un pas quelconque.

Espérance et variance :

E(X) =

n +1 2

et

V(X) =

n2 − 1 12 9

Z.BENABBOU

EDITION : 2020

4-b Loi uniforme continue : Modèle aléatoire Cette loi modélise des phénomènes continus uniformément répartis dans un intervalle. Souvent il s’agit d’un intervalle de temps, la probabilité d’un intervalle est proportionnelle à sa longueur. Définition : Une variable aléatoire X continue suit une loi uniforme sur un intervalle [a,b] si X est une variable aléatoire de densité f telle que :

1   f ( x) =  b−a  f ( x ) = 0 

si

x  [ a, b]

sinon

Espérance et variance :

E(X) =

a+b 2

et

V(X) =

(b − a ) 2 12

Démonstration :

b + b x  x2  a+b E(X) =  xf ( x ) dx =  dx =   = 2  2(b − a)  a − ab − a V(X) = E(X2) – [E(X)] 2 2

b x 1 2 dx = (b 2 + ab + a 2 ) E(X ) =  3 ab − a Par conséquence :

V (X) =

(b − a ) 2 12

10

Z.BENABBOU

EDITION : 2020

2-5 Loi normale ou loi de Laplace-Gauss 2-5.1 Objectifs : •

La loi de Laplace-Gauss joue un rôle particulièrement important dans la théorie des probabilités et en statistique car c’est une loi limite vers laquelle tendent les autres lois de probabilités pour des conditions que l’on rencontre fréquemment dans la pratique. C’est pour cette raison qu’il est d’usage de la désigner par le terme de loi normale.



Cette loi a été introduite pour rendre compte des fluctuations « normales » d’une grandeur physique. On s’attend à savoir : -

La plupart des valeurs centrées autour d’une moyenne µ,

-

Une dispersion symétrique autour de µ,

-

De faibles chances d’être loin de µ, d’autant plus faibles qu’on s’en éloigne.

2-5-2 Définition : X suit une loi normale N (µ,

 ) si sa fonction de densité est donnée par :

f ( x) = On a alors :

1 e  2

E(X) = µ et

V(X) =

1  x− −  2 

  

2

2

2-5-3 Cas particulier : Loi normale centrée réduite : •

C’est une loi normale de moyenne 0 et d’écart-type 1, de densité :

f ( x) =

1 2

x2 − e 2 11

Z.BENABBOU

EDITION : 2020

Elle est notée par N (0,1). •

On montre que l’on peut se ramener, par un changement de variable, d’une loi normale quelconque à la loi normale centrée réduite :

Si

X



N (µ,

X −

)

alors Z =





N(0,1)

La fonction de répartition de la loi normale centrée réduite est tabulée. Elle sert, moyennant le changement de variable encadré, à l’étude de toute loi normale.

2-5-4Utilisation pratique X suit une loi normale N (µ,

 ). Pour calculer P(X-a) = P(Z  2 seuil :  2 obs <  2 seuil :

on rejette H0. on accepte H0.

 2 seuil =  2 ((l-1)(c-1); 1-α) Dans notre exemple : (17 - 13,54)² (14 - 10,54)² + ........+ 13,54 10,54 = 4.02

2  obs =

2.3 Conditions d’application: Tous les effectifs théoriques doivent être supérieurs ou égaux à 5. Dans notre exemple, d.d.l. = (2 - 1) x (2 - 1) = 1, avec un risque de 5% de se tromper, la valeur lue est 3.841. Donc

 2 obs = 4,02 >  2 seuil = 3,841

Nous pouvons conclure qu'il existe une liaison statistiquement significative entre ces deux variables. 47

Z.BENABBOU

EDITION : 2020