Problème Type Sur Les Probabilités Conditionnelles [PDF]

Problème type sur les probabilités conditionnelles et méthode intuitive et révolutionnaire pour le résoudre 3 usines A,

31 0 630KB

Report DMCA / Copyright

DOWNLOAD PDF FILE

Problème Type Sur Les Probabilités Conditionnelles [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

Problème type sur les probabilités conditionnelles et méthode intuitive et révolutionnaire pour le résoudre 3 usines A, B et C fabriquent des pièces. Elles se partagent le marché de la manière suivante : 55% pour A, 35% pour B et 10% pour C. Certaines pièces fabriquées sont défectueuses; le taux de pièces défectueuses est de 10% dans l'usine A, 8% dans l'usine B et 20% dans l'usine C. On voudrait calculer un certain nombre de valeurs, par exemple : - probabilité qu'une pièce mise sur le marché soit défectueuse - probabilité qu'une pièce défectueuse vienne de A - probabilité qu'une pièce non défectueuse vienne de B...

Ce type de problème est classique et donne lieu à deux types de résolution en général : -Méthode 1 : très compliquée avec des formules partout et applications de théorèmes et définitions -Méthode 2 : construction d'arbres pour symboliser le problème; Aucune de ces deux méthodes ne convient, parce qu'elles sont appliquées comme des recettes de cuisine, sans comprendre ce qu'on fait; Il est temps d'évoluer, de passer des arbres aux cases !! (cf Darwin) Traduisons toutes les données de l'énoncé dans un tableau et voyons ce que l'on peut en déduire, Fixons la production globale, par exemple à 1000 pièces (on aurait pu prendre un autre nombre, le choix est arbitraire et n'influe pas sur la résolution du problème mais il vaut mieux faire en sorte de ne pas avoir de nombres décimaux à trainer...) 55% des pièces proviennent de A, soit 550, 35% des pièces proviennent de B, soit 350 10% des pièces proviennent de C, soit 100 Défectueuses

Pas Défectueuses

TOTAL

A

.

.

550

B

.

.

350

C

.

.

100

TOTAL

.

.

1000

10% des pièces provenant de A sont défectueuses, soit 55 = 550 x 0,10 8% des pièces provenant de B sont défectueuses, soit 28 = 350 x 0,08 20% des pièces provenant de C sont défectueuses, soit 20 = 100 x 0,20 Défectueuses

Pas Défectueuses

TOTAL

A

55

.

550

B

28

.

350

C

20

.

100

TOTAL

103

.

1000

On peut, par soustraction déduire la valeur des cases de droite (non défectueuses) Défectueuses

Pas Défectueuses

TOTAL

A

55

505

550

B

28

322

350

C

20

80

100

TOTAL

103

.

1000

Le calcul de la dernière case peut s'effectuer de deux manières et permettre la vérification des calculs précédents : 1000-103 ou 505+322+80 = 897 Défectueuses

Pas Défectueuses

TOTAL

A

55

505

550

B

28

322

350

C

20

80

100

TOTAL

103

897

1000

Une fois ce tableau constitué, vous êtes à même de répondre à toutes les questions posées (et les autres) - probabilité qu'une pièce mise sur le marché soit défectueuse = 103/1000 = 10,3% - probabilité qu'une pièce défectueuse vienne de A = 55/103 (parmi les défectueuses, lesquelles viennent de A?) - probabilité qu'une pièce non défectueuse vienne de B = 322/897 (parmi les non défectueuses, lesquelles viennent de B?) - probabilité qu'une pièce soit défectueuse et vienne de C = 20/1000 (parmi toutes les pièces, il y en a 20 à la fois défectueuses et venant de C) La Notion de Probabilité conditionnelle permet d'établir un résultat important en Calcul des Probabilités : le Théorème de Bayes A et B est le même événement que B et A, ils ont donc la même probabilité; si on applique la formule précédente à B et A, on obtient : P(B et A) = P(A) x P(B si A) On a donc P(A et B) = P(B) x P(A si B) = P(B et A) = P(A) x P(B si A) donc P(B) x P(A si B) = P(A) x P(B si A) donc : P(B si A) = P(A si B) x P(B) / P(A) Cette formule permet de calculer des probabilités dites a posteriori

On peut utiliser les probabilités conditionnelles pour calculer des probabilités complexes : Supposez par exemple, que vous ayez à calculer la probabilité d'un événement B et que celle-ci soit difficile à établir. Subdivisez la réalité en plusieurs cas, par exemple A1, A2, A3, A4, A5; si vous avez bien choisi les cas, il sera plus facile de déterminer les probabilités suivantes : P(A1) P(A2) P(A3) P(A4) P(A5) et P(B si A1) P(B si A2) P(B si A3) P(B si A4) P(B si A5) Et d'agréger ensuite le tout : La probabilité de B est la résultante des probabilités de B dans chacun des cas A1,A2,A3,A4,A5 en tenant compte de l'importance respective de chacun des cas, soit :

P(B) = P(B si A1)xP(A1) + P(B si A2)xP(A2) + +P(B si A3)xP(A3) + P(B si A4)xP(A4) + P(B si A5)xP(A5) Cette Formule s'appelle Formule des probabilités totales La Formule des probabilités totales et le TH de Bayes peuvent vous sembler compliquées, vous les avez pourtant appliquer intuitivement en résolvant le Problème Type sur les Pièces défectueuses. Reprenons : - probabilité qu'une pièce mise sur le marché soit défectueuse = 103/1000 = 10,3% Comment obtient-on le 103 ? En additionnant 55, 28 et 20. Donc 103/1000 = 0,055 + 0,028 + 0,020 en notant D l'événement "la pièce est défectueuse" Comment obtient-on 55 ? En multipliant 550 par 0,10, soit 1000 par 0,55 puis par 0,10. 0,55 = P(A) et 0,10 = P(D si A) Comment obtient-on 28 ? En multipliant 350 par 0,08, soit 1000 par 0,35 puis par 0,08. 0,35 = P(B) et 0,10 = P(D si B) Comment obtient-on 20 ? En multipliant 100 par 0,20, soit 1000 par 0,10 puis par 0,20. 0,10 = P(C) et 0,20 = P(D si C) Donc P(D) = 93/1000 = (0,55 x 0,10) + (0,35 x 0,08) + (0,10 x0,20) = P(A)xP(D si A) + P(B)xP(D si B) + P(C)xP(D si C) Formule des probabilités totales

- probabilité qu'une pièce défectueuse vienne de A = 55/103 = 0,055/0,103 Donc P(A si D) = 0,55 x 0,10 / 0,103 = P(A) x P(D si A) / P(D) TH de Bayes

VARIABLES ALEATOIRES

Une variable aléatoire, c'est un alea numérique, quelque chose de numérique qui prend ses valeurs aléatoirement.

Quand le nombre de valeurs possibles est fini, on dit que la v.a. est discrète.

Quand le nombre de valeurs possibles est infini, mais que les valeurs sont isolées (par exemple, des nombres entiers), on dit que la v.a. est entière.

Quand le nombre de valeurs possibles est infini et que ses valeurs ne sont pas isolées, (c'est à dire qu'entre deux valeurs quelconques, aussi proches soient-elles, il y en a toujours d'autres) on dit que la v.a. est continue.

Par exemple, le résultat d'un dé est une v.a. discrète (on la notera X). Par exemple, le nombre de lancers nécessaires pour faire tomber une pièce sur Pile est une v.a. entière (on la notera Y). Par exemple, la taille d'un nouveau-né est une v.a. continue (on la notera Z).

Distribution de probabilité :

Quand on traite une variable discrète ou entière, la distribution de probabilité est la donnée des probabilités d'apparition des différentes valeurs de la v.a.

Par exemple P(X=1) = 1/6, P(X=2) = 1/6, ......., P(X=6) = 1/6 c'est à dire P(X=k) = 1/6 pour k= 1,2,....6. P(Y=k) = (1/2)k (les k-1 premiers lancers doivent donner Face et le kème Pile; ils sont indépendants).

On peut donner la distribution de probabilité (on dit aussi loi de probabilité) sous la forme d'une formule générale ou d'un tableau à simple entrée (dans le cas d'une v.a. discrète).

Densité de probabilité :

Quelle est la probabilité que la taille d'un nouveau-né soit égale à 50 cm (on supposera une précision de mesure illimitée) ? Il y a une infinité de tailles possibles; la probabilité qu'elle vaille 50 est donc égale à .......0 =

.

Dans le cas d'une variable continue, toute probabilité ponctuelle (la probabilité d'apparition d'une valeur) est nulle.

Pourtant, la probabilité que la taille du nouveau-né soit comprise entre 20 et 70 cm n'est pas nulle (elle a même tendance à valoir quasiment 1).

Il y a donc un paradoxe : une somme de probabilités nulles, qui ne vaut pas 0. C'est possible car le nombre de termes de la somme est infini.

Quand vous avez rencontré des "points" en géométrie, on vous a dit qu'ils n'avaient pas de dimension, donc pas de longueur, et pourtant un segment de droite (composé de points), lui, a une longueur. C'est ici le même paradoxe : une infinité de 0, ça ne vaut pas forcément 0 !

Compte tenu de cette remarque, il n'est pas question de définir une distribution de probabilité pour une v.a. continue puisque toutes les probabilités ponctuelles sont nulles.

Dans le cas d'une v.a. continue, on définira une densité de probabilité pour chaque valeur, une espèce de "probabilité linéique" analogue, par exemple à la notion de masse volumique en Physique.

On notera cette densité f(x). C'est une fonction continue et la surface sous sa courbe représentative est égale à 1 puisqu'elle représente la somme des probabilités, d'où

(la surface, c'est l'intégrale !).

Espérance :

L'espérance d'une v.a (qu'on notera E(.))., c'est concrètement "la valeur moyenne" prise par cette v.a., on la calcule en multipliant les différentes valeurs possibles par leur probabilité d'apparition et en faisant la somme des résultats obtenus.

Par exemple,

Variance :

L'utilité de la variance (notée V(.)) sera de mesurer la dispersion de la v.a. par rapport à son espérance. Par définition, la variance sera égale à l'espérance du carré de l'écart à l'espérance de la v.a. :

V(X) =E[(X-E(X))²]

Comme en Statistique, on n'utilise jamais cette définition pour le calcul pratique de la variance.

Pour effectuer pratiquement ce calcul, on utilise la propriété suivante : la variance, c'est l'espérance du carré moins le carré de l'espérance.

V(X) = E(X²) - E(X)²

Dans l'exemple du dé,

On appellera écart-type (noté ) la racine carrée de la variance

COUPLE DE VARIABLES ALEATOIRES Considérons le tableau suivant (appelé tableau à double entrée):

X \ Y 1 2 Total

0 1/10 2/10 3/10

1 3/10 1/10 4/10

2 2/10 1/10 3/10

Total 6/10 4/10 1

On étudie simultanément deux variables aléatoires : X qui peut prendre les valeurs 1 et 2, Y qui peut prendre les valeurs 0,1 et 2.

On trouve dans le tableau les probabilités d'apparition simultanée des différentes valeurs de X et Y. Par exemple, la probabilité que X soit égale à 1 et Y égale à 2 vaut 2/10.

On appelle la donnée de ces probabilités : la loi de probabilité du couple (X,Y) (on dit aussi conjointe ou croisée, on parle aussi de distribution de probabilité du couple).

Le total des probabilités de la première ligne (6/10) représente la probabilité que X prenne la valeur 1. La colonne Total représente donc la distribution de probabilité de la seule variable X (on parle de loi de probabilité marginale).

Il en va bien sûr de même pour la ligne Total qui représente la loi de probabilité de Y. Le total des probabilités présentes dans ce tableau est égal à 1.

Pour calculer l'espérance du produit X.Y, on multipliera chaque probabilité du tableau par la valeur de X correspondante (qu'on trouve à gauche) et par la valeur de Y (qu'on trouve au-dessus); on fait ensuite la somme des résultats obtenus :

La covariance de X et de Y se définira comme l'espérance du produit moins le produit des espérances, ce qui donne ici : cov(X,Y) = 1,3 - (1,4x1) = - 0,1 Comme vous pouvez le noter, rien n'empêche une covariance d'être négative (alors qu'une variance, compte tenu de sa définition, est toujours positive).

Compte tenu de la définition, on a Cov(X,Y) = Cov(Y,X).

La covariance mesure le degré de dépendance linéaire entre les variables X et Y (on dit que deux variables sont dépendantes linéairement quand la relation liant Y à X est du type Y=aX+b). On dit que deux variables sont indépendantes quand elles prennent leurs valeurs indépendamment, c'est à dire quand la valeur prise par l'une n'influe pas sur la valeur prise par l'autre. Quand les variables sont indépendantes, elles sont a fortiori indépendantes linéairement, donc la covariance est nulle. En revanche, la réciproque est fausse : en effet si la covariance est nulle, cela signifie que les variables sont indépendantes linéairement, ce qui ne signifie pas qu'elles soient indépendantes, elles peuvent dépendre l'une de l'autre par un autre type de relation (par exemple : Y = X²).

MANIPULATION DES OPERATEURS

(1) E(X + Y) = E(X) + E(Y) somme des espérances

L'espérance de la somme est égale à la

(2)

Par exemple E(2X+3) = 2E(X) + 3

E(aX + b) = a E(X) + b

(3) V(aX) = a² V(X) la variance est multipliée par exemple V(3X) = 9 V(X)

Quand on multiplie une va par une constante, le carré; ainsi par

(4) V(X + b) = V(X) Quand on ajoute une constante à une va, on ne change pas la variance, ce qui est normal puisque la variance mesure la dispersion

(5)

V(aX + b) = a² V(X)

Simple combinaison des formules (3) et (4)

Les autres formules sur les variances et les covariances se déduisent de la remarque suivante :

La Variance se manipule comme un carré La Covariance se manipule comme un produit

Cela signifie qu'un calcul de variance est analogue à un calcul de carrés et qu'un calcul de covariance est analogue à un calcul de produits; les calculs sont similaires avec des variances à la place des carrés et des covariances à la place des produits.

Supposons, par exemple, qu'on ait à calculer V(X+2Y).

On sait que :

(a)

On en déduit donc que : (X,Y)

(b)

(X+2Y)² = X² + 4Y² + 4XY.

V(X+2Y) = V(X) + 4V(Y) + 4 cov

Pour passer de (a) à (b), on a simplement remplacé les carrés par des variances et les produits par des covariances

Autres exemples : V(3X+4Y) = 9V(X) + 16V(Y) + 24cov(X,Y) car (3X+4Y)² = 9X² + 16Y² + 24XY

Cov(2X+Y,3X-Y) = 6V(X) - V(Y) + Cov(X,Y) car (2X+Y)(3X-Y) = 6X² - Y² + XY

Cette méthode de calcul permet aussi d'établir les deux formules suivantes (analogues aux identités remarquables) :

(6)

V(X + Y) = V(X) + V(Y) + 2 Cov(X,Y)

(7)

V(X - Y) = V(X) + V(Y) - 2 Cov(X,Y)

Il est à noter que les formules (6) et (7) se simplifient si les variables sont indépendantes (car en ce cas, la covariance est nulle), on en déduit alors que :

la Variance de la somme et la Variance de la différence sont toutes deux égales à la somme des Variances

LA LOI BINOMIALE

La loi binômiale se définira de la manière suivante :

Considérons une succession d'épreuves identiques et indépendantes,

chaque épreuve pouvant se solder soit par un succès, soit par un échec.

Si l'on note p la probabilité de succès à une épreuve

et si l'on définit la variable aléatoire X comme étant le nombre de succès obtenus en n épreuves,

on dira (par définition) que X suit une loi binômiale de paramètres n et p

On note :

(le premier paramètre n représente le nombre d'épreuves, le second p représente la probabilité de succès à une épreuve)

Exemple : Si l'on note X le nombre de "6" obtenu en lançant 12 dés, on sait que X suivra une loi binômiale de paramètres 12 et 1/6.

Nous allons maintenant déterminer la distribution de probabilité d'une loi binômiale, c'est à dire la probabilité qu'elle prenne telle ou telle valeur.

Remarquons tout d'abord que le nombre de succès en n épreuves peut aller de 0 à ... n.

Nous allons donc déterminer P( X = k ) pour k prenant toutes les valeurs entre 0 et n

Avoir k succès en n épreuves, c'est aussi avoir n-k échecs.

La probabilité d'avoir un succès est notée p; la probabilité d'avoir un échec sera notée q et vaudra bien sûr 1-p.

La probabilité d'avoir k succès puis n-k échecs lors d'une succession de n épreuves vaudra donc :

Mais cette probabilité ne représente qu'un des cas où les n épreuves comportent k succès : c'est celui où tous les succès ont lieu d'abord.

On peut imaginer quantité d'autres cas, par exemple, tous les succès peuvent avoir lieu à la fin, ou au milieu, ou après 3 épreuves, ou en alternance avec les échecs, etc...

De toutes façons, chacun de ces cas aura la même probabilité d'apparition que le premier évoqué, c'est à dire pk qn-k

Pour déterminer la probabilité d'avoir k succès (X=k), il suffit donc de compter tous ces cas.

Or il y a autant de cas que de façons de choisir la place des k succès parmi les n épreuves (la place des échecs est toute désignée une fois choisie celle des succès), il y en a donc : .

La probabilité cherchée vaut donc :

Exemple : Si l'on veut appliquer la formule pour déterminer la probabilité qu'il y ait 3 faces "6" lors du lancer de 12 dés, cela donne : 0,1615.

Nous allons maintenant donner l'Espérance et la Variance d'une loi binômiale (sans calculs) :

E(X) = np

V(X) = npq

Ce qui donne, toujours dans l'exemple considéré, une espérance de 2 et une variance de 5/3.

LA LOI HYPERGEOMETRIQUE

Considérons une population de N individus partagée en deux : les individus "positifs" en proportion p (donc au nombre de Np) et les individus "négatifs" en

proportion 1-p notée q (donc au nombre de Nq) Supposons qu'on prélève dans cette population un échantillon aléatoire de n personnes, cet échantillon étant prélevé sans remise. Si on s'intéresse au nombre de personnes positives dans cet échantillon, on dira, par définition, qu'il suit une loi hypergéométrique de paramètres N,n,p

. Notez qu'il y 3 paramètres pour une loi hypergéométrique : le premier, c'est la taille de la population; le deuxième, c'est la taille de l'échantillon; le troisième, c'est la proportion initiale d'individus positifs dans la population (initiale car cette proportion est constamment modifiée puisque le tirage est effectué sans remise).

Notez aussi qu'on pourrait parfaitement définir la loi binômiale comme on vient de définir la loi hypergéométrique; la seule différence est qu'alors le tirage devrait être effectué avec remise, les individus de l'échantillon représentant des épreuves et les individus positifs, des succès.

Cette remarque sera utile dans la suite, hypergéométrique : sans remise et binômiale : avec remise.

Cela dit, si n est "petit" par rapport à N (dès que le rapport n/N, appelé taux de sondage, est inférieur à 1/10) on pourra assimiler la loi hypergéométrique à la loi binômiale.

La distribution de la loi hypergéométrique est la suivante

:

En effet, le nombre d'échantillons possibles est égal à et le nombre de cas favorables s'obtient en multipliant le nombre de façons de choisir les k individus positifs (parmi Np) et les n-k individus négatifs (parmi Nq)

L'espérance est égale à : binômiale).

np

(comme la loi

La variance vaut :

(

s'appelle facteur d'exhaustivité).

Remarque : Ce facteur étant clairement plus petit que 1, on en déduit que la variance de la loi hypergéométrique est inférieure à celle de la loi binomiale associée.

Donc que la variance du nombre d’individus positifs dans un échantillon est plus faible si l’échantillon est prélevé sans remise qu’avec.

LA LOI DE POISSON La loi de Poisson est une variable aléatoire entière à un paramètre (noté ). On

note:

Sa distribution de probabilité est la suivante : 1, 2, 3, 4,......

Son Espérance et sa Variance valent :

λ

pour k = 0,

.

Le paramètre d'une loi de Poisson apparaît donc concrètement comme la valeur moyenne prise par cette loi.

La loi de Poisson peut être définie comme régissant le nombre d'apparitions d'un phénomène quand deux conditions sont remplies :

(1) La probabilité d'apparition du phénomène sur un court intervalle de temps est proportionnelle à la durée de cet intervalle.

(2) La probabilité d'une apparition multiple du phénomène sur un très court intervalle de temps est négligeable (infiniment petit du second ordre).

Compte tenu de ces conditions, on qualifie parfois la Loi de Poisson de "loi des événements rares".

La loi de Poisson est, par exemple, celle qui régit les arrivées dans les files d'attente ou les passages de véhicules sur les routes.

Il existe des tables de la loi de Poisson : ces tables sont de deux types, les premières fournissent pour une valeur du paramètre et pour une valeur k la probabilité ponctuelle P( X = k ); les secondes fournissent les probabilités cumulées P( X k )

Remarques :

1) La somme de deux lois de Poisson indépendantes est une loi de Poisson. Son paramètre est égal à la somme des paramètres des deux lois de départ.

2) On peut approcher une loi binômiale de paramètres n et p par une loi de Poisson de paramètre n p dès que n est suffisamment grand (on prendra n > 50) et que np est suffisamment petit (on prendra np < 15))

LA LOI NORMALE La Loi Normale est une variable continue (on l'appelle aussi loi de Gauss, loi de Laplace-Gauss, 2ème Loi de Gauss).

Une variable suivra une loi normale si : elle dépend d'un grand nombre de causes, indépendantes, dont aucune n'est prépondérante et dont les effets s'additionnent (ces conditions définissant la loi normale sont appelées conditions de Borel). Une Loi normale possède deux paramètres : le premier correspond à son espérance (sa "moyenne") et sera donc noté : m; le second correspond à son écart-type (à la racine carrée de sa Variance) et sera donc noté . Une loi normale de paramètres m et sera notée : N (m,σ). On a donc :

V(X) = σ²

E(X) = m

Comme c'est une variable aléatoire continue, les probabilités ponctuelles sont nulles et l'on définit une densité de probabilité :

Ne vous affolez pas, cette formule est compliquée mais n'est d'aucune utilité pratique.

Quand on aura à manipuler une loi normale, on utilisera la propriété suivante :

Si X→N(m,σ),

en posant

,

on aura T→N(0,1)

Ainsi, par un changement de variable, on peut ramener une loi normale quelconque à une loi normale de paramètres 0 et 1 (appelée loi normale centrée réduite). Cette opération s'appelle : "centrer réduire". Vous devrez l'utiliser à chaque fois. Compte tenu de cette propriété, seule reste à étudier la loi normale centrée réduite.

N(0,1) : Si l'on trace la courbe représentative de la densité de probabilité, on obtient une courbe en forme de cloche symétrique par rapport à l'axe des ordonnées :

On sait que la surface sous cette courbe représente la probabilité, donc on peut définir la fonction de répartition (probabilité d'être avant une valeur donnée) comme étant la surface sous la courbe de - à la valeur considérée (cf. Table 3). On note cette fonction de répartition : .

Ainsi :

En effet, la probabilité d'être après b est égale à 1 moins la probabilité d'être avant et la probabilité d'être entre a et b est égale à la probabilité d'être avant b moins la probabilité d'être avant a.

Notez que l'on a utilisé des inégalités "larges" ( et ) mais que l'on aurait pu sans problème utiliser des inégalités strictes (< et >) puisqu'en rajoutant une valeur ponctuelle, on ne change pas la probabilité dans le cas d'une variable continue.

On a donc ramené tout calcul de probabilité sur une loi normale à un calcul de fonction de répartition de N(0,1). Remarquons aussi que la probabilité d'être avant -t ( (-t) ) est égale (puisque la courbe est symétrique) à la probabilité d'être après t, c'est à dire à 1 - (t). Cette remarque permettra de déduire la fonction de répartition d'un nombre négatif de celle du nombre positif opposé. Pour récapituler, si l'on connaît la fonction de répartition de N(0,1) pour les nombres positifs, on est capable de faire tout calcul de probabilité concernant une loi normale quelconque. Une Table nous donne pour toute valeur de t positive la valeur de (t) : les deux premières décimales de t se trouvent sur la première colonne et la troisième décimale sur la première ligne.

Par exemple : Π(1,12) = 0,8686 (ligne 1,1 et colonne 0,02) Π(0,37) = 0,6443 (ligne 0,3 et colonne 0,07) Π(-1,12) = 1-0,8686 = 0,1314

Combinaison de lois normales :

Toute combinaison linéaire de lois normales indépendantes est une loi normale; les paramètres se déterminent par manipulation d'espérances et de variances.

Par exemple, si X→ N(m,σ), si Y→N(m',σ'), si X et Y sont indépendantes, alors

En effet, le premier paramètre d'une loi normale, c'est l'espérance. Or l'espérance de la somme est égale à la somme des espérances (cf. Variables aléatoires, Manipulation des opérateurs). Le second paramètre, c'est l'écart-type, la racine carrée de la variance. Or la variance de la somme se ramène pour des variables indépendantes à la somme des variances (la covariance étant nulle) (cf. idem qu'au-dessus)

Remarque : On aurait, par exemple, dans les mêmes conditions :

Approximations

1) Poisson par Normale : On peut approcher une loi de Poisson par une loi Normale dès que est suffisamment grand (on prendra > 15) :

2) Binômiale par Normale : On peut approcher une loi binômiale par une loi Normale dès que n est suffisamment grand et p suffisamment proche de 0,5 (on prendra n > 100 et npq > 5)

Remarque très importante :

Dans les approximations, on approche une variable aléatoire discrète ou entière (binômiale ou Poisson) par une variable continue (la loi normale). Si on se sert de ces approximations pour calculer des probabilités ponctuelles, on obtiendra 0 puisque les probabilités ponctuelles d'une variable continue sont nulles.

Il faut donc remplacer la valeur ponctuelle k par un intervalle centré sur k égal à [ k-½ , k+½ ]