Modèles aléatoires: Applications aux sciences de l'ingénieur et du vivant (Mathématiques et Applications) [1 ed.] 3540332820, 9783540332824 [PDF]

Cet ouvrage présente des modèles aléatoires élémentaires et certaines de leurs applications courantes : algorithmes d�

142 9 5MB

French Pages 448 [439] Year 2006

Report DMCA / Copyright

DOWNLOAD PDF FILE

Modèles aléatoires: Applications aux sciences de l'ingénieur et du vivant (Mathématiques et Applications) [1 ed.]
 3540332820, 9783540332824 [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

´ MATH EMATIQUES & APPLICATIONS Directeurs de la collection : G. Allaire et M. Bena¨ım

57

M AT H E´ M AT I Q U E S

& A P P L I C AT I O N S

Comit´e de Lecture / Editorial Board G R E´ GOIRE A LLAIRE ´ CMAP, Ecole Polytechnique, Palaiseau [email protected]

D OMINIQUE P ICARD Proba. et Mod. Al´eatoires, Univ. Paris 7 [email protected]

M ICHEL B ENA¨I M Math´ematiques, Univ. de Neuchˆatel [email protected]

ROBERT ROUSSARIE Topologie, Univ. de Bourgogne, Dijon [email protected]

T HIERRY C OLIN Math´ematiques, Univ. de Bordeaux 1 [email protected]

C LAUDE S AMSON INRIA Sophia-Antipolis [email protected]

M ARIE -C HRISTINE C OSTA CEDRIC, CNAM, Paris [email protected]

B ERNARD S ARAMITO Maths Appl., Univ. de Clermont 2 [email protected]

G E´ RARD D EGREZ Inst. Von Karman, Louvain [email protected]

A NNICK S ARTENAER Math´ematique, Univ. de Namur [email protected]

J EAN D ELLA -D ORA LMC, IMAG, Grenoble [email protected]

Z HAN S HI Probabilit´es, Univ. Paris 6 [email protected]

JACQUES D EMONGEOT TIMC, IMAG, Grenoble [email protected]

S YLVAIN S ORIN Equipe Comb. et Opt., Univ. Paris 6 [email protected]

F R E´ D E´ RIC D IAS CMLA, ENS Cachan [email protected]

J EAN -M ARIE T HOMAS Maths Appl., Univ. de Pau [email protected]

N ICOLE E L K AROUI ´ CMAP, Ecole Polytechnique Palaiseau [email protected]

A LAIN T ROUV E´ CMLA, ENS Cachan [email protected]

M ARC H ALLIN Stat. & R.O., Univ. libre de Bruxelles [email protected]

J EAN -P HILIPPE V IAL HEC, Univ. de Gen`eve [email protected]

L AURENT M ICLO LATP, Univ. de Provence laurent : [email protected]

B ERNARD Y CART LMC, IMAG, Grenoble [email protected]

H UYEN P HAM Proba. et Mod. Al´eatoires, Univ. Paris 7 [email protected]

E NRIQUE Z UAZUA Matem´aticas, Univ. Auton´oma de Madrid [email protected]

VAL E´ RIE P ERRIER LMC, IMAG, Grenoble [email protected]

Directeurs de la collection :

G. A LLAIRE et M. B ENA¨I M Instructions aux auteurs : ˆ soumis directement a` l’un des membres du comite´ de lecture avec Les textes ou projets peuvent etre ´ copie a` G. A LLAIRE OU M. B ENA¨I M. Les manuscrits devront eˆ tre remis a` l’Editeur sous format LATEX 2e.

Jean-François Delmas Benjamin Jourdain

Modèles aléatoires Applications aux sciences de l’ingénieur et du vivant

Jean-François Delmas Benjamin Jourdain ´ cole Nationale des Ponts et Chaussées E CERMICS 6 et 8, avenue Blaise Pascal Cité Descartes - Champs-sur-Marne 77455 Marne-la-Vallée Cedex 2 France e-mail: [email protected] ; [email protected]

Library of Congress Control Number: 2006924181

Mathematics Subject Classification (2000): 60J10, 60J27, 60J80, 60K20, 60G70, 49L20, 62F12, 62N05, 90C15, 90B22, 90B25, 90B05, 92D20, 92D25, 92B15

ISSN 1154-483X ISBN- 10 3-540-33282-0 Springer Berlin Heidelberg New York ISBN- 13 978-3-540 -33282-4 Springer Berlin Heidelberg New York Tous droits de traduction, de reproduction et d’adaptation r´eserv´es pour tous pays. La loi du 11 mars 1957 interdit les copies ou les reproductions destin´ees a` une utilisation collective. Toute repr´esentation, reproduction int´egrale ou partielle faite par quelque proc´ed´e que ce soit, sans le consentement de l’auteur ou de ses ayants cause, est illicite et constitue une contrefac¸on sanctionn´ee par les articles 425 et suivants du Code p´enal. Springer est membre du Springer Science+Business Media c Springer-Verlag Berlin Heidelberg 2006  springer.com Imprime´ aux Pays-Bas Imprime´ sur papier non acide 31 00/SPi - 5 4 3 2 1 0 -

` Ginger, Vickie et Gautier A ` Erwan et Alexy A

Pr´ eface

´ Ce livre reprend les notes d’un cours que nous enseignons a` l’Ecole Nationale des Ponts et Chauss´ees depuis l’ann´ee 2000. L’objectif de ce cours est de montrer comment des mod`eles al´eatoires ´el´ementaires permettent d’apporter des ´el´ements de r´eponse int´eressants et de se forger une intuition sur des probl`emes concrets. Nous abordons plusieurs th`emes traditionnels des m´etiers d’ing´enieur : algorithmes d’optimisation, gestion des approvisionnements, dimensionnement de files d’attente, fiabilit´e et dimensionnement d’ouvrages a` l’aide des lois de valeurs extrˆemes. Nous avons ´egalement choisi de regarder des probl´ematiques plus r´ecentes, voire en cours de d´eveloppement. Ainsi, nous pr´esentons des r´esultats sur l’´etude de l’ADN : recherche de s´equences exceptionnelles, de zones homog`enes et estimation du taux de mutation. Nous proposons aussi une introduction aux ph´enom`enes de coagulation qui interviennent dans la croissance des mol´ecules de polym`eres ou d’a´erosols. Les outils probabilistes que nous pr´esentons pour mod´eliser les ph´enom`enes consid´er´es dans ce livre, comme les chaˆınes de Markov, les processus de renouvellement ou les lois de valeurs extrˆemes, sont des outils g´en´eraux utilis´es dans bien d’autres domaines des sciences de l’ing´enieur, des sciences du vivant, de la physique, de la finance math´ematique ou de l’assurance. Le pr´erequis pour la lecture de ce livre est la maˆıtrise du contenu d’un cours d’initiation aux probabilit´es en premi`ere ann´ee d’´ecole d’ing´enieurs ou en troisi`eme ann´ee du cycle Licence. Nous avons choisi d’utiliser des outils ´el´ementaires afin que le livre soit accessible aux ´etudiants qui ne se destinent pas aux math´ematiques : en particulier, nous ne recourons pas a` la notion de martingale. Nous avons s´epar´e les mod`eles que nous pr´esentons en deux grandes classes faisant chacune l’objet d’une partie : les mod`eles discrets et les mod`eles continus. La premi`ere partie d´ebute par un chapitre g´en´eral sur les chaˆınes de Markov a` temps discret et leur comportement asymptotique en temps long. Dans le chapitre 2, nous pr´esentons l’algorithme du recuit simul´e pour r´esoudre le probl`eme du voyageur de commerce : trouver le trajet le plus court joignant

VIII

Pr´eface

un certain nombre de villes. L’avantage de cet algorithme stochastique est qu’il peut s’adapter facilement a` des probl`emes complexes d’optimisation plus g´en´eraux. Le chapitre 3 traite de l’optimisation d’un stock de pi`eces de rechange par un gestionnaire qui s’approvisionne aupr`es d’un fournisseur et doit r´epondre aux demandes de ses clients. La r´esolution du probl`eme de minimisation des coˆ uts repose sur la th´eorie du contrˆ ole des chaˆınes de Markov qui est pr´esent´ee `a cette occasion. Le chapitre 4 aborde la mod´elisation des ´evolutions de population et le calcul des probabilit´es d’extinction a` l’aide des processus de Galton-Watson. Ce chapitre, o` u la fonction g´en´eratrice constitue l’outil privil´egi´e, peut ˆetre lu de mani`ere isol´ee. Dans le chapitre 5, nous nous int´eressons `a la d´etection du sens de lecture d’un ADN circulaire quand on connaˆıt seulement la succession des nucl´eotides. Pour retrouver l’information cach´ee du sens de lecture, nous consid´erons un mod`ele de chaˆıne de Markov cach´ee, et nous pr´esentons puis utilisons l’algorithme Esp´erance-Maximisation (EM). Le chapitre 6 est consacr´e `a la d´etection des s´equences exceptionnellement rares ou fr´equentes dans l’ADN et qui, de ce fait, sont susceptibles d’avoir une signification biologique. Dans ce but, nous comparons, pour des s´equences de quelques nucl´eotides, le nombre d’occurences constat´e avec le nombre d’occurences th´eorique pr´edit quand on mod´elise la succession des nucl´eotides par une chaˆıne de Markov. Enfin, le chapitre 7 traite de l’estimation du taux de mutation de l’ADN a` partir des diff´erences entre les s´equences d’ADN observ´ees chez les individus, dans le cadre du mod`ele d’´evolution de population de Wright-Fisher et du processus de coalescence associ´e. Le chapitre 8, qui d´ebute la deuxi`eme partie, pr´esente une construction des chaˆınes de Markov a` temps continu puis ´etudie leur comportement en temps long. Dans le chapitre 9, nous nous int´eressons aux mod`eles de files d’attente et plus particuli`erement au dimensionnement du nombre de serveurs. Lorsque les dur´ees entre les temps d’arriv´ee des clients et les temps de service suivent des lois exponentielles, l’´evolution au cours du temps du nombre de clients dans la file d’attente constitue une chaˆıne de Markov a` temps continu. Chacun des chapitres 10 et 11 peut ˆetre lu de fa¸con isol´ee. Le premier est consacr´e `a une introduction a` la fiabilit´e, c’est-`a-dire a` la mod´elisation des dur´ees de bon fonctionnement des mat´eriels. Nous y pr´esentons les processus de renouvellement avec lesquels nous ´etudions des strat´egies de maintenance pr´eventive. Dans le chapitre 11, nous d´eveloppons la th´eorie des lois de valeurs extrˆemes qui permet d’estimer des probabilit´es d’´ev´enements rares. Cette th´eorie a de nombreuses applications dans l’´etude des risques, comme le dimensionnement des digues contre les crues exceptionnelles. Enfin, le chapitre 12 traite des ´equations de coagulation et de fragmentation discr`etes qui interviennent en astronomie, en physique et en chimie. Nous explicitons, dans des cas particuliers, l’expression analytique de la solution de ces ´equations. Nous proposons ensuite deux algorithmes qui permettent en toute g´en´eralit´e d’approcher cette solution et qui consistent a` simuler des chaˆınes de Markov a` temps continu. Dans la troisi`eme partie, l’appendice A reprend sans d´emonstration les d´efinitions et les r´esultats de base correspondant `a un cours d’initiation aux

Pr´eface

IX

probabilit´es. Les autres appendices fournissent la d´emonstration de r´esultats qui d´epassent a priori le cadre d’un tel cours et sont utilis´es dans plusieurs chapitres du livre. Remerciements Nous tenons a` remercier Vidal Cohen qui dans le courant de l’ann´ee 1999 ´ nous a invit´e `a proposer un cours sur les mod`eles al´eatoires `a l’Ecole Nationale des Ponts et Chauss´ees. L’int´erˆet des ´etudiants qui ont suivi ce cours depuis sa cr´eation nous a motiv´e pour r´ediger un polycopi´e. Nous remercions Gilles Pag`es qui nous a sugg´er´e de transformer ce polycopi´e en livre, et notre ´editeur, Bernard Ycart, ainsi que les deux rapporteurs anonymes dont les critiques constructives nous ont beaucoup aid´e `a am´eliorer la premi`ere version du livre. Nous tenons a` remercier Aur´elien Alfonsi, Jean-St´ephane Dhersin et Julien Guyon pour leur relecture approfondie de la version finale des diff´erents chapitres. Nous devons beaucoup `a Jean-Philippe Chancelier pour son aide pr´ecieuse concernant l’utilisation des logiciels Latex et surtout Scilab (http://www.scilab.org/) avec lequel nous avons r´ealis´e les simulations et les illustrations du livre. Nous remercions ´egalement Bernard Lapeyre, Jacques Daniel, Sylvie Berte, Khadija Elouali ainsi que tous nos coll`egues du CERMICS pour l’ambiance de travail sympathique et stimulante qui r`egne au sein de ce laboratoire. Enfin, nous voulons particuli`erement remercier nos familles pour leur soutien durant la r´edaction de ce livre ainsi que pour le bonheur qu’elles nous apportent jour apr`es jour.

Champs sur Marne, Octobre 2005

Jean-Fran¸cois Delmas Benjamin Jourdain

Table des mati` eres

partie I Mod` eles discrets 1

Chaˆınes de Markov ` a temps discret . . . . . . . . . . . . . . . . . . . . . . . . 1.1 D´efinition et propri´et´es . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Chaˆıne trace, ´etats absorbants . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Probabilit´es invariantes, r´eversibilit´e . . . . . . . . . . . . . . . . . . . . . . . 1.4 Chaˆınes irr´eductibles, chaˆınes ap´eriodiques . . . . . . . . . . . . . . . . . . 1.5 Th´eor`eme ergodique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.6 Th´eor`eme central limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . R´ef´erences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3 4 8 10 11 12 23 29

2

Recuit simul´ e.............................................. 2.1 Condition de Doeblin et convergence des chaˆınes de Markov . . 2.2 Algorithme de Metropolis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Le recuit simul´e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.1 Mesures de Gibbs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.2 Un r´esultat partiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.3 R´esultats th´eoriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4 Le probl`eme du voyageur de commerce . . . . . . . . . . . . . . . . . . . . . R´ef´erences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

31 33 35 37 37 40 44 45 50

3

Gestion des approvisionnements . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1 Le mod`ele probabiliste de gestion de stock . . . . . . . . . . . . . . . . . . 3.1.1 Le mod`ele `a une p´eriode de temps . . . . . . . . . . . . . . . . . . . 3.1.2 Le mod`ele dynamique de gestion de stock . . . . . . . . . . . . ´ ements de contrˆole de chaˆınes de Markov . . . . . . . . . . . . . . . . . 3.2 El´ 3.2.1 Description du mod`ele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ´ 3.2.2 Evaluation du coˆ ut associ´e `a une strat´egie . . . . . . . . . . . . ´ 3.2.3 Equations d’optimalit´e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.4 Application au recrutement : le probl`eme de la secr´etaire

51 52 52 57 58 58 60 62 66

XII

Table des mati`eres

3.3 R´esolution du probl`eme dynamique de gestion de stock . . . . . . . 3.3.1 Gestion sans coˆ ut fixe d’approvisionnement . . . . . . . . . . . 3.3.2 Gestion avec coˆ ut fixe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.3 D´elai de livraison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . R´ef´erences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

71 72 74 80 84 84

4

Le processus de Galton-Watson . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 ´ 4.1 Etude du ph´enom`ene d’extinction . . . . . . . . . . . . . . . . . . . . . . . . . 89 4.1.1 Caract´erisation de la probabilit´e d’extinction η . . . . . . . . 92 4.1.2 Vitesse d’extinction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 4.2 Lois limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 4.2.1 Le cas surcritique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 4.2.2 Le cas sous-critique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 4.2.3 Le cas critique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 4.3 R´eduction de variance dans les cas sous-critique ou critique . . . 108 4.4 Loi de la population totale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 R´ef´erences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119

5

Recherche de zones homog` enes dans l’ADN . . . . . . . . . . . . . . . . 121 5.1 Chaˆınes de Markov cach´ees . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 5.2 L’estimateur du maximum de vraisemblance (EMV) . . . . . . . . . 125 5.2.1 D´efinitions et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125 5.2.2 Convergence de l’EMV dans un mod`ele simple . . . . . . . . 129 5.3 Pr´esentation g´en´erale de l’algorithme EM . . . . . . . . . . . . . . . . . . . 132 5.4 Mise en œuvre de l’algorithme EM . . . . . . . . . . . . . . . . . . . . . . . . . 135 5.4.1 L’´etape esp´erance : ´etape E . . . . . . . . . . . . . . . . . . . . . . . . . 135 5.4.2 L’´etape maximisation : ´etape M . . . . . . . . . . . . . . . . . . . . . 142 5.5 Convergence de l’EMV pour les chaˆınes de Markov cach´ees . . . 143 5.6 Autres exemples d’application de l’algorithme EM . . . . . . . . . . . 151 5.6.1 Le m´elange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151 5.6.2 Donn´ees censur´ees . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156 5.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158 R´ef´erences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160

6

S´ equences exceptionnelles dans l’ADN . . . . . . . . . . . . . . . . . . . . . 163 6.1 Fluctuations du nombre d’occurrences d’un mot . . . . . . . . . . . . . 165 6.2 Une autre approche asymptotique . . . . . . . . . . . . . . . . . . . . . . . . . 171 6.3 Une troisi`eme approche asymptotique . . . . . . . . . . . . . . . . . . . . . . 179 6.3.1 « Loi des petits nombres» ou loi de Poisson . . . . . . . . . . . 179 6.3.2 « Loi des petits nombres» pour le nombre d’occurrences 181 6.4 Un autre mod`ele pour la s´equence d’ADN . . . . . . . . . . . . . . . . . . 186 6.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 R´ef´erences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194

Table des mati`eres

7

XIII

Estimation du taux de mutation de l’ADN . . . . . . . . . . . . . . . . . 195 7.1 Le mod`ele d’´evolution de population . . . . . . . . . . . . . . . . . . . . . . . 196 ´ 7.2 Etude de l’arbre phylog´enique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197 7.2.1 Temps d’apparition de l’ancˆetre de deux individus . . . . . 197 7.2.2 Temps d’apparition de l’ancˆetre de r individus . . . . . . . . 199 7.2.3 Processus de Kingman et commentaires . . . . . . . . . . . . . . 203 7.3 Le mod`ele de Wright-Fisher . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 7.4 Mod´elisation des mutations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206 7.4.1 Estimation du taux de mutation I . . . . . . . . . . . . . . . . . . . 208 7.4.2 Estimation du taux de mutation II . . . . . . . . . . . . . . . . . . 212 7.4.3 Conclusion sur l’estimation du taux de mutation . . . . . . 216 R´ef´erences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216

partie II Mod` eles continus 8

Chaˆınes de Markov ` a temps continu . . . . . . . . . . . . . . . . . . . . . . . 221 8.1 Construction des chaˆınes de Markov a` temps continu . . . . . . . . . 222 8.1.1 Construction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222 8.1.2 Propri´et´e de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224 8.2 Semi-groupe, g´en´erateur infinit´esimal . . . . . . . . . . . . . . . . . . . . . . 226 8.3 Comportement asymptotique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230 8.4 Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235 R´ef´erences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237

9

Files d’attente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239 9.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240 9.1.1 Mod´elisation des files d’attente . . . . . . . . . . . . . . . . . . . . . . 240 9.1.2 Pr´esentation des files M/M/K . . . . . . . . . . . . . . . . . . . . . . 241 ´ 9.2 Etude des files a` un serveur : M/M/1 . . . . . . . . . . . . . . . . . . . . . . 243 9.2.1 Probabilit´e invariante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243 9.2.2 Temps pass´e dans la file d’attente : client virtuel . . . . . . 246 9.2.3 Temps pass´e dans la file d’attente : client r´eel . . . . . . . . . 247 ´ 9.3 Etude des files a` K serveurs : M/M/K . . . . . . . . . . . . . . . . . . . . . 251 9.3.1 Probabilit´e invariante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251 9.3.2 Temps pass´e dans la file d’attente : client virtuel . . . . . . 253 9.4 R´eseaux de Jackson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257 9.4.1 Mod`ele et propri´et´es . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257 9.4.2 Files en tandem, processus de sortie . . . . . . . . . . . . . . . . . 261 9.5 Explosion et r´ecurrence des files M/GI/1 . . . . . . . . . . . . . . . . . . . 262 R´ef´erences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264

XIV

Table des mati`eres

´ ements de fiabilit´ 10 El´ e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265 10.1 Introduction a` la fiabilit´e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266 10.1.1 Mesures de performance . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266 10.1.2 Taux de d´efaillance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267 10.1.3 Taux de d´efaillance monotone, lois NBU . . . . . . . . . . . . . . 270 10.2 Simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274 10.2.1 Inversion du taux de d´efaillance cumul´e . . . . . . . . . . . . . . 274 10.2.2 M´ethode des pannes fictives . . . . . . . . . . . . . . . . . . . . . . . . 275 ´ 10.3 Etude de strat´egies de maintenance . . . . . . . . . . . . . . . . . . . . . . . . 277 ´ ements de renouvellement . . . . . . . . . . . . . . . . . . . . . . . . 278 10.3.1 El´ 10.3.2 Remplacement suivant l’ˆ age . . . . . . . . . . . . . . . . . . . . . . . . 282 10.3.3 Remplacement pr´eventif par bloc . . . . . . . . . . . . . . . . . . . . 285 10.3.4 Comparaisons entre les remplacements suivant l’ˆ age et par bloc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288 10.3.5 Dur´ees entre pannes non identiquement distribu´ees . . . . 292 ´ ements de fiabilit´e des syst`emes complexes . . . . . . . . . . . . . . . . 295 10.4 El´ 10.4.1 Fonction de structure, coupes . . . . . . . . . . . . . . . . . . . . . . . 295 10.4.2 Calcul de la disponibilit´e . . . . . . . . . . . . . . . . . . . . . . . . . . . 297 10.4.3 Facteurs d’importance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299 R´ef´erences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 300 11 Lois de valeurs extrˆ emes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303 11.1 Statistique d’ordre, estimation des quantiles . . . . . . . . . . . . . . . . 307 11.2 Exemples de convergence du maximum renormalis´e . . . . . . . . . . 316 11.3 Limites des maximums renormalis´es . . . . . . . . . . . . . . . . . . . . . . . 320 11.4 Domaines d’attraction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 325 11.4.1 Caract´erisations g´en´erales . . . . . . . . . . . . . . . . . . . . . . . . . . 325 11.4.2 Domaines d’attraction des lois de Fr´echet et Weibull . . . 327 11.5 Estimation du param`etre de la loi de valeurs extrˆemes . . . . . . . 329 11.5.1 Estimateur de Pickand . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 329 11.5.2 Estimateur de Hill . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332 11.6 Estimation des quantiles extrˆemes . . . . . . . . . . . . . . . . . . . . . . . . . 336 ` l’aide de l’estimateur de Pickand. . . . . . . . . . . . . . . . . . . 337 11.6.1 A ` 11.6.2 A l’aide de l’estimateur de Hill . . . . . . . . . . . . . . . . . . . . . . 340 11.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340 R´ef´erences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 341 12 Processus de coagulation et fragmentation . . . . . . . . . . . . . . . . . 343 ´ 12.1 Equations de coagulation discr`etes . . . . . . . . . . . . . . . . . . . . . . . . . 344 12.1.1 D´efinition et propri´et´es des solutions . . . . . . . . . . . . . . . . . 344 12.1.2 Solutions explicites pour les noyaux constant, additif et multiplicatif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 348 12.2 Coagulation et fragmentation discr`etes . . . . . . . . . . . . . . . . . . . . . 365 12.3 Chaˆınes de Markov a` temps continu associ´ees . . . . . . . . . . . . . . . 367 12.3.1 Le processus de Marcus-Lushnikov . . . . . . . . . . . . . . . . . . . 368

Table des mati`eres

XV

12.3.2 Le processus de transfert de masse . . . . . . . . . . . . . . . . . . . 375 R´ef´erences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383 partie III Appendice A

Rappels de probabilit´ es . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 387 A.1 Variables al´eatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 387 A.1.1 Espace de probabilit´e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 387 A.1.2 Variables al´eatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 388 A.1.3 Esp´erance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 388 A.1.4 Convergence des esp´erances . . . . . . . . . . . . . . . . . . . . . . . . . 390 A.1.5 Ind´ependance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 391 A.1.6 Variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 391 A.1.7 Fonction caract´eristique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 392 A.1.8 Transform´ee de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393 A.1.9 Probabilit´es conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . 393 A.2 Lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 394 A.2.1 Lois discr`etes usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 394 A.2.2 Lois a` densit´e usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 396 A.2.3 Simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 398 A.3 Convergence et th´eor`emes limites . . . . . . . . . . . . . . . . . . . . . . . . . . 400 A.3.1 Convergence de variables al´eatoires . . . . . . . . . . . . . . . . . . 400 A.3.2 Loi forte des grands nombres . . . . . . . . . . . . . . . . . . . . . . . 402 A.3.3 Th´eor`eme central limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . 402 A.3.4 Intervalles de confiance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 403 R´ef´erences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 405

B

Une variante du th´ eor` eme central limite . . . . . . . . . . . . . . . . . . 407

C

Fonction de r´ epartition et quantile . . . . . . . . . . . . . . . . . . . . . . . . . 411

D

Convergence en variation sur un espace discret . . . . . . . . . . . . 415

E

´ Etude d’une ´ equation diff´ erentielle ordinaire . . . . . . . . . . . . . . . 417

R´ ef´ erences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 421 Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 429

1 Chaˆınes de Markov ` a temps discret

Comme nous le verrons au cours des prochains chapitres, les chaˆınes de Markov permettent de mod´eliser de mani`ere ´el´ementaire, mais robuste, de nombreux ph´enom`enes al´eatoires o` u l’´evolution future d’une quantit´e ne d´epend du pass´e qu’au travers de sa valeur pr´esente. Par exemple, si on note Xn l’´etat d’un stock de pi`eces d´etach´ees `a l’instant n, Dn+1 la demande (al´eatoire) formul´ee par des clients, et q ∈ N∗ la quantit´e (d´eterministe) de pi`eces d´etach´ees fabriqu´ees entre les instants n et n+1, alors a` l’instant n+1, l’´etat du stock est u x+ d´esigne la partie positive de x ∈ R. Dans le Xn+1 = (Xn + q − Dn+1 )+ , o` cas o` u la demande est constitu´ee de variables al´eatoires ind´ependantes, alors l’´evolution future (Xk , k ≥ n + 1) ne d´epend du pass´e (Xk , k ∈ {0, . . . , n}) qu’au travers de l’´etat pr´esent Xn . Cette propri´et´e, dite propri´et´e de Markov, est la base de la d´efinition des chaˆınes de Markov (voir la d´efinition 1.1.1). Le but de ce chapitre est de pr´esenter en un ensemble coh´erent les objets math´ematiques et certaines de leurs propri´et´es que nous utiliserons dans les chapitres suivants. Plus pr´ecis´ement, dans les paragraphes 1.1, 1.2 et 1.3 nous ´enon¸cons la d´efinition des chaˆınes de Markov et quelques propri´et´es ´el´ementaires. Le paragraphe 1.4 pr´esente le comportement asymptotique (convergence en loi) de la suite (Xn , n ≥ 1) sous certaines hypoth`eses. Ces r´esultats seront compl´et´es dans le Chap. 2, lors de la d´emonstration de la convergence d’un algorithme stochastique d’optimisation : le recuit simul´e. Dans les paragraphes 1.5 et 1.6, on s’int´eresse n au comportement asymptotique des moyennes temporelles de la forme n1 k=1 f (Xk ). Dans l’exemple de la gestion de stock, si f est la fonction identit´e, alors n f (Xn ) = Xn repr´esente la quantit´e de pi`eces d´etach´ees `a l’instant n et n1 k=1 f (Xk ) la moyenne dans le temps de l’´etat du stock. Dans le paragraphe 1.5, on d´emontre le th´eor`eme ergodique : c’est la convergence presque sˆ ure (p.s.) de ces moyennes tempou la loi de relles vers une limite d´eterministe qui est l’esp´erance de f (X ∗ ), o` X ∗ , not´ee π, est la loi stationnaire de la chaˆıne de Markov (i.e. si l’´etat initial de la chaˆıne de Markov, X0 , est al´eatoire de loi π, alors la loi de Xn est π pour tout temps n). Le th´eor`eme ergodique est l’analogue de la loi forte des grands nombres pour les chaˆınes de Markov. On ´etudie ´egalement, au paragraphe 1.6,

4

1 Chaˆınes de Markov ` a temps discret

l’analogue du th´eor`eme central limite pour les chaˆınes de Markov, c’est-`a-dire les fluctuations des moyennes temporelles autour de leur limite. Le paragraphe 1.1 est ´el´ementaire et n´ecessaire pour la compr´ehension de la plupart des chapitres qui suivent. Il en est de mˆeme des paragraphes 1.2, 1.3 et 1.4 qui comportent peu de d´emonstrations. En revanche les paragraphes 1.5 et 1.6 abordent des concepts plus difficiles, et les d´emonstrations d´etaill´ees qui sont pr´esent´ees sont d’un niveau technique cons´equent. Les r´esultats des paragraphes 1.5 et 1.6 seront essentiellement utilis´es pour la recherche des mots exceptionnels de l’ADN (Chap. 6) et motiveront ´egalement une partie de l’analyse des files d’attente (Chap. 9). Il peuvent donc ˆetre omis jusqu’`a la lecture de ces chapitres. Enfin une vaste litt´erature sur les chaˆınes de Markov est disponible. Pour plus de d´etails, on pourra consulter les ouvrages [7, 8, 10] et les ouvrages plus sp´ecialis´es [3, 4, 5 ou 9].

1.1 D´ efinition et propri´ et´ es Soit E un espace discret, i.e. E est un espace au plus d´enombrable muni de la topologie discr`ete, o` u tous les points de E sont isol´es. D´ efinition 1.1.1. On dit que la suite de variables al´eatoires X = (Xn , n ≥ 0), a valeurs dans E, est une chaˆıne de Markov si elle poss`ede la propri´et´e de ` Markov : pour tous n ∈ N, y, x0 , . . . , xn ∈ E, tels que P(Xn = xn , . . . , X0 = x0 ) > 0, on a P(Xn+1 = y | Xn = xn , . . . , X0 = x0 ) = P(Xn+1 = y | Xn = xn ). Remarquons que par d´efinition des probabilit´es conditionnelles, si P(Xn =  xn ) > 0, alors P(Xn+1 = y | Xn = xn ) = 1. y∈E

D´ efinition 1.1.2. Une matrice P = (P (x, y), x, y ∈ E) est dite matrice stochastique si et seulement si ses coefficients sont positifs et la somme sur une ligne des coefficients est ´egale a `1: 

P (x, y) = 1.

y∈E

D´ efinition 1.1.3. – Soit (Qn , n ≥ 1) une suite de matrices stochastiques. On dit que les matrices (Qn , n ≥ 1) sont les matrices de transition de la chaˆıne de Markov X si pour tous n ≥ 1 et x ∈ E tels que P(Xn−1 = x) > 0, on a pour tout y ∈ E, Qn (x, y) = P(Xn = y|Xn−1 = x).

1.1 D´efinition et propri´et´es

5

– Soit P une matrice stochastique. On dit que la chaˆıne de Markov X est homog`ene, de matrice de transition P , si pour tous n ≥ 0 et x, y ∈ E tels que P(Xn = x) > 0, on a P(Xn+1 = y | Xn = x) = P (x, y). Par convention1 , on pose P(Xn+1 = y | Xn = xn , . . . , X0 = x0 ) = P (xn , y) si P(Xn = xn , . . . , X0 = x0 ) = 0. Suivant les applications, il est parfois plus naturel de consid´erer la chaˆıne de Markov X = (Xn , n ≥ m) a` partir d’un instant m ∈ Z quelconque. Enfin, comme les chaˆınes de Markov consid´er´ees sont, sauf cas particulier, homog`enes, on omettra la plupart du temps le mot homog`ene. Exemple 1.1.4. Reprenons l’exemple donn´e en introduction. On note Xn l’´etat d’un stock de pi`eces d´etach´ees `a l’instant n, Dn+1 la demande (al´eatoire), et q la quantit´e (d´eterministe) constante de pi`eces d´etach´ees fabriqu´ees. L’´equation d’´evolution de l’´etat du stock, entre les instants n et n + 1, est Xn+1 = (Xn + q − Dn+1 )+ . On suppose que la demande (Dn , n ≥ 1) est une suite de variables al´eatoires enti`eres ind´ependantes et de mˆeme loi qu’une variable D : pour k ∈ N, pk = P(D = k). Il est clair que (Xn , n ≥ 0) est une chaˆıne de Markov a` valeurs dans N de matrice de transition : P (x, y) = pk si ♦ y = x + q − k > 0, et P (x, 0) = P(D ≥ x + q) = k≥x+q pk . Exemple 1.1.5. La marche al´eatoire n sym´etrique simple sur Z, S = (Sn , u Z = (Zn , n ≥ 1) est une suite n ≥ 0), est d´efinie par Sn = S0 + k=1 Zk , o` de variables al´eatoires ind´ependantes et de mˆeme loi, P(Zn = 1) = P(Zn = −1) = 1/2, et S0 est une variable al´eatoire a` valeurs dans Z ind´ependante de Z. On v´erifie facilement que la marche al´eatoire simple est une chaˆıne de Markov a` valeurs dans Z de matrice de transition : P (x, y) = 0 si |x − y| =  1 et P (x, y) = 1/2 si |x − y| = 1. ♦

Remarque 1.1.6. Dans les deux exemples pr´ec´edents, on consid`ere une suite de variables X = (Xn , n ≥ 0) d´efinies pour n ≥ 0 par Xn+1 = f (Xn , Un+1 ), o` u f est une fonction de E ×F ` a valeurs dans E et (Un , n ≥ 1) est une suite de variables al´eatoires `a valeurs dans F , de mˆeme loi, ind´ependantes entre elles et ind´ependantes de X0 . Sous ces hypoth`eses, X est une chaˆıne de Markov de matrice de transition P d´efinie par P (x, y) = P(f (x, U1 ) = y), pour x, y ∈ E. Cette repr´esentation permet de construire, pour toute matrice stochastique P , une chaˆıne de Markov ayant P comme matrice de transition (voir plus g´en´eralement le th´eor`eme d’extension de Kolmogorov, [1], appendice II). ♦ Le calcul suivant montre que la loi conditionnelle de X2 sachant X0 s’exprime facilement `a l’aide de la matrice de transition. On a, si P(X0 = x) > 0, 1

Cette convention est diff´erente de celle donn´ee dans (A.3), mais elle permet d’all´eger les calculs sans prˆeter ` a cons´equence.

6

1 Chaˆınes de Markov ` a temps discret

P(X2 = y, X0 = x) P(X0 = x)  P(X2 = y, X1 = z, X0 = x) = P(X0 = x)

P(X2 = y|X0 = x) =

(1.1)

z∈E

 P(X1 = z, X0 = x) P(X2 = y, X1 = z, X0 = x) P(X0 = x) P(X1 = z, X0 = x) z∈Ex  = P(X1 = z|X0 = x)P(X2 = y|X1 = z, X0 = x)

=

z∈Ex

=



P (x, z)P (z, y) = P 2 (x, y),

z∈E

o` u on a utilis´e la d´efinition des probabilit´es conditionnelles pour la premi`ere ´egalit´e, la notation Ex = {z ∈ E ; P(X1 = z, X0 = x) > 0} pour la troisi`eme, la d´efinition des chaˆınes de Markov et l’homog´en´eit´e pour la cinqui`eme, et la notation P 2 pour le carr´e de la matrice P dans la derni`ere. Plus g´en´eralement, si P k d´esigne la puissance k-i`eme, on obtient par r´ecurrence P(Xk = y | X0 = x) = P k (x, y). La proposition suivante permet de v´erifier que l’´evolution future d’une chaˆıne de Markov ne d´epend du pass´e qu’au travers de sa valeur pr´esente. Afin d’utiliser des notations concises, on note ynm le vecteur (yn , . . . , ym ) pour n ≤ m. Proposition 1.1.7. Soit m ≥ 1, A ⊂ E m , et In = {(Xn+1 , . . . , Xn+m ) ∈ A} pour n ≥ 0. On consid`ere ´egalement pour n ≥ 1, Jn = {(X0 , . . . , Xn−1 ) ∈ B}, o` u B ⊂ E n . Si P(Xn = xn , Jn ) > 0, alors on a P(In |Xn = xn , Jn ) = P(In |Xn = xn ) = P(I0 |X0 = xn ). D´emonstration. On suppose que P(Xn = xn , Jn ) > 0. La formule de compon+m ∈ Em, sition des probabilit´es conditionnelles (A.4) implique que pour xn+1 n+m n+m P(Xn+1 = xn+1 |Xn = xn , Jn ) =

m 

P(Xn+k = xn+k |Xnn+k−1 = xnn+k−1 , Jn ).

k=1

En d´ecomposant suivant les valeurs possibles de X0 , . . . , Xn−1 , il vient si P(Xnn+k−1 = xnn+k−1 , Jn ) > 0 P(Xn+k = xn+k |Xnn+k−1 = xnn+k−1 , Jn )

P(Xnn+k = xnn+k , Jn ) P(Xnn+k−1 = xnn+k−1 , Jn )  n+k = xn+k , X0n−1 = y0n−1 ) n y n−1 ∈B P(Xn = 0 . n+k−1 = xnn+k−1 , X0n−1 = z0n−1 ) z n−1 ∈B P(Xn

=

0

1.1 D´efinition et propri´et´es

7

En utilisant la propri´et´e de Markov, le terme P(Xnn+k = xnn+k , X0n−1 = y0n−1 ) est ´egal `a P(Xn+k = xn+k |Xn+k−1 = xn+k−1 )P(Xnn+k−1 = xnn+k−1 , X0n−1 = y0n−1 ). On en d´eduit donc P(Xn+k = xn+k |Xnn+k−1 = xnn+k−1 , Jn )

= P(Xn+k = xn+k |Xn+k−1 = xn+k−1 ) = P (xn+k−1 , xn+k ),

o` u l’on a utilis´e l’homog´en´eit´e pour la derni`ere ´egalit´e. On a ainsi obtenu que si P(Xnn+m−1 = xnn+m−1 , Jn ) > 0, n+m n+m P(Xn+1 = xn+1 |Xn = xn , Jn ) =

m 

P (xn+k−1 , xn+k ).

(1.2)

k=1

Si P(Xnn+m−1 = xnn+m−1 , Jn ) = 0, comme P(Xn = xn , Jn ) > 0, on en d´eduit qu’il existe k ∈ {1, . . . , m − 1} tel que P(Xnn+k = xnn+k , Jn ) = 0 et P(Xnn+k−1 = xnn+k−1 , Jn ) > 0. Ceci implique, d’apr`es les calculs pr´ec´edents, que P (xn+k−1 , xn+k ) = 0, et donc (1.2) est ´egalement vraie si P(Xnn+m−1 = xnn+m−1 , Jn ) = 0. Des calculs similaires assurent que n+m |X0 = xn ) = P(X1m = xn+1

m 

P (xn+k−1 , xn+k ).

k=1

n+m n+m n+m = xn+1 |Xn = xn , Jn ) = P(X1m = xn+1 |X0 = xn ). En Ainsi on a P(Xn+1 n+m sommant sur xn+1 ∈ A, il vient

P(In |Xn = xn , Jn ) = P(I0 |X0 = xn ) =



xn+m ∈A n+1

m 

P (xn+k−1 , xn+k ). (1.3)

k=1

Enfin, en choisissant B = E n , on a {Xn = xn , Jn } = {Xn = xn }, et on d´eduit ⊓ ⊔ de l’´egalit´e pr´ec´edente que P(In |Xn = xn ) = P(I0 |X0 = xn ). Remarque 1.1.8. On conserve les notations de la proposition 1.1.7. Dans la d´emonstration pr´ec´edente, le dernier membre de droite des ´egalit´es (1.3) est bien d´efini mˆeme si P(Xn = xn , Jn ) = 0. Par convention, si P(Xn = xn , Jn ) = 0, on pose P(In |Xn = xn , Jn ) =



∈A xn+m n+1

m 

k=1

P (xn+k−1 , xn+k ),

8

1 Chaˆınes de Markov ` a temps discret

 m et si P(X0 = x0 ) = 0, P(I0 |X0 = x0 ) = xm ∈A k=1 P (xk−1 , xk ). Avec 1 m cette convention, on a ´egalement que pour xm ∈ E , 1 n+m P(Xn+1

=

xm 1 |Xn

= x0 ) =

m 

P (xk−1 , xk ).

k=1

♦ D´ efinition 1.1.9. Un ´ev´enement I est dit presque sˆ ur (p.s.) si P(I|X0 = x) = 1 pour tout x ∈ E. Soit ν0 la loi de X0 : ν0 (x) = P(X0 = x) pour tout x ∈ E. En d´ecomposant suivant les valeurs possibles de X0 , on calcule la loi de X1 :   P(X1 = y) = P(X1 = y | X0 = x)P(X0 = x) = ν0 (x)P (x, y). x∈E

x∈E



eter On utilise la notation ν0 P (y) = x∈E ν0 (x)P (x, y). On peut l’interpr´ comme le produit usuel entre le vecteur ligne ν0 = (ν0 (x) ; x ∈ E) et la matrice P . Par r´ecurrence, on v´erifie que la loi de Xn est ν0 P n . Soit f une fonction de E dans R positive ou born´ee. On a  f (y)P(Xn = y|X0 = x) E[f (Xn )|X0 = x] = y∈E

=



P n (x, y)f (y) = P n f (x),

y∈E

o` u l’on consid`ere dans la derni`ere ´egalit´e la fonction f comme un vecteur colonne et P n f est le produit de la matrice P n par le vecteur colonne f . On a de plus  P(Xn = x)f (x) = ν0 P n f. E[f (Xn )] = x∈E

On retiendra que la multiplication a` gauche de la matrice de transition concerne le calcul de loi, et la multiplication a` droite le calcul d’esp´erance ou d’esp´erance conditionnelle.

1.2 Chaˆıne trace, ´ etats absorbants Soit X = (Xn , n ∈ N) une chaˆıne de Markov a` valeurs dans E, de matrice de transition P . D´ efinition 1.2.1. On dit que x est un ´etat absorbant de la chaˆıne X si P (x, x) = 1, i.e. pour tout y = x, P (x, y) = 0.

1.2 Chaˆıne trace, ´etats absorbants

9

En particulier si la chaˆıne de Markov atteint un de ses points absorbants, elle ne peut plus s’en ´echapper. On introduit les temps successifs de sauts de la chaˆıne X. On pose S0 = 0, et pour k ∈ N∗ , on d´efinit par r´ecurrence Tk = inf{n ≥ 1 ; XSk−1 +n = XSk−1 }, avec la convention inf ∅ = 0, et Sk = Sk−1 + max(Tk , 1). Pour k ∈ N, on pose Zk = XSk et on note R = inf{k ≥ 1 ; Tk = 0} avec la convention inf ∅ = ∞, de sorte que (Zk , 0 ≤ k < R) repr´esente les ´etats successifs diff´erents de la chaˆıne X. En fait, on peut v´erifier que s’il n’existe pas d’´etat absorbant alors p.s. R = ∞. Th´ eor` eme 1.2.2. Le processus Z = (Zn , n ∈ N) est une chaˆıne de Markov, appel´ee chaˆıne trace associ´ee a ` X, de matrice de transition Q d´efinie par : ⎧ ⎪ ⎨

P (x, y) 1{x=y} Q(x, y) = 1 − P (x, x) ⎪ ⎩1{x=y}

si x n’est pas un ´etat absorbant, sinon.

Les chaˆınes X et Z ont les mˆemes points absorbants. De plus, conditionnellement ` a (Z0 , . . . , Zn ) les variables al´eatoires (T1 , . . . , Tn+1 ) sont ind´ependantes. Pour 1 ≤ k ≤ n + 1, conditionnellement a ` (Z0 , . . . , Zn ), on a Tk = 0 p.s. si Zk−1 est un point absorbant, sinon Tk suit la loi g´eom´etrique de param`etre 1 − P (Zk−1 , Zk−1 ). D´emonstration. Soit n ≥ 1, x0 , . . . , xn+1 ∈ E et t1 , . . . , tn+1 ∈ N. On d´esire calculer I = P(Z0 = x0 , . . . , Zn+1 = xn+1 , T1 = t1 , . . . , Tn+1 = tn+1 ). Si la condition suivante, not´ee (C), «pour tout i ∈ {0, . . . , n}, soit xi n’est pas un point absorbant, xi+1 = xi et ti+1 ≥ 1, soit xi est un point absorbant et pour tout j ∈ {i + 1, . . . , n + 1} on a xj = xi et tj = 0», n’est pas v´erifi´ee, alors par construction I = 0. Si la condition (C) est v´erifi´ee, alors d’apr`es la propri´et´e de  Markov, voir la deuxi`eme partie de la remarque 1.1.8, il vient en k posant sk = i=1 max(ti , 1), I = P(X0 = x0 , . . . , Xs1 −1 = x0 , Xs1 = x1 , . . .

. . . , Xsn −1 = xn−1 , Xsn = xn , . . . , Xsn+1 −1 = xn , Xsn+1 = xn+1 ) = ν0 (x0 )

n+1  i=1

P (xi−1 , xi−1 )max(ti ,1)−1 P (xi−1 , xi ),

10

1 Chaˆınes de Markov ` a temps discret

o` u ν0 (x0 ) = P(X0 = x0 ). On obtient, en utilisant la matrice de transition Q d´efinie dans le th´eor`eme, I = ν0 (x0 )

n+1  i=1

Q(xi−1 , xi )pi (1 − pi )max(ti ,1)−1 ,

(1.4)

avec la convention 00 = 1 et la notation pj = 1−P (xj−1 , xj−1 ) si xj−1 n’est pas un ´etat absorbant et pj = 1 sinon. (La notation peu naturelle, pj = 1 si xj−1 est un ´etat absorbant, permet de traduire le fait que la suite (Zk , k ∈ N) qui est naturellement d´efinie jusqu’` a l’instant o` u elle atteint un point absorbant, est prolong´ee artificiellement par la suite constante.) L’´egalit´e (1.4) reste valide si la condition (C) n’est pas v´erifi´ee, car alors les deux membres de l’´egalit´e sont nuls. On en d´eduit donc, en sommant sur les valeurs possibles de t1 , . . . , tn+1 , que pour tous n ≥ 1 et x0 , . . . , xn+1 ∈ E, P(Z0 = x0 , . . . , Zn+1 = xn+1 ) = ν0 (x0 )Q(x0 , x1 ) · · · Q(xn , xn+1 ). Comme Q est une matrice stochastique, ceci assure que Z = (Zk , k ∈ N) est une chaˆıne de Markov de matrice de transition Q. D’apr`es la d´efinition de Q, il est clair que les chaˆınes X et Z ont les mˆemes points absorbants. En sommant (1.4) et l’´equation pr´ec´edente sur xn+1 ∈ E, et en faisant le rapport, on obtient pour P(Z0 = x0 , . . . , Zn = xn ) > 0, que P(T1 = t1 , . . . , Tn+1 = tn+1 |Z0 = x0 , . . . , Zn = xn )

= p1 (1 − p1 )max(t1 ,1)−1 · · · pn+1 (1 − pn+1 )max(tn+1 ,1)−1 .

Ceci assure que conditionnellement `a (Z0 , . . . , Zn ) les variables al´eatoires (T1 , . . . , Tn+1 ) sont ind´ependantes et on a Tk = 0 p.s. si Zk−1 est un point absorbant, sinon Tk suit la loi g´eom´etrique de param`etre pk = 1 − ⊓ ⊔ P (Zk−1 , Zk−1 ).

1.3 Probabilit´ es invariantes, r´ eversibilit´ e Les probabilit´es invariantes jouent un rˆ ole important dans l’´etude des comportements asymptotiques des chaˆınes de Markov. Soit X = (Xn , n ∈ N) une chaˆıne de Markov a` valeurs dans E, de matrice de transition P . D´ efinition 1.3.1. Une probabilit´e π sur E est appel´ee probabilit´e invariante, ou probabilit´e stationnaire, de la chaˆıne de Markov si π = πP . En particulier, si la loi de X0 , not´ee ν0 , est une probabilit´e invariante, alors la loi de X1 est ν1 = ν0 P = ν0 , et en it´erant, on obtient que Xn a mˆeme loi que X0 . La loi de Xn est donc constante, on dit aussi stationnaire, au cours du temps, d’o` u le nom de probabilit´e stationnaire.

1.4 Chaˆınes irr´eductibles, chaˆınes ap´eriodiques

11

Supposons que π(x) > 0 pour tout x ∈ E. Pour x, y ∈ E, on pose π(y)P (y, x) . π(x)  Comme π est une probabilit´e invariante, on a y∈E π(y)P (y, x) = π(x). On en d´eduit que la matrice Q est une matrice stochastique. Si X0 est distribu´e suivant la probabilit´e invariante π, on a pour x, y ∈ E, n ≥ 0, Q(x, y) =

P(Xn = y|Xn+1 = x) =

P(Xn = y, Xn+1 = x) = Q(x, y). P(Xn+1 = x)

Plus g´en´eralement, il est facile de v´erifier que pour tous k ∈ N∗ , y, x1 , . . . , xk ∈ E, avec x1 = x, on a P(Xn = y|Xn+1 = x1 , . . . , Xn+k = xk ) = Q(x, y). La matrice Q s’interpr`ete comme la matrice de transition de la chaˆıne de Markov X apr`es retournement du temps. D´ efinition 1.3.2. On dit que la chaˆıne de Markov de matrice de transition P , ou plus simplement la matrice P , est r´eversible par rapport a ` la probabilit´e π si on a pour tous x, y ∈ E, π(x)P (x, y) = π(y)P (y, x).

(1.5)

En sommant (1.5) sur x, on en d´eduit le lemme suivant. Lemme 1.3.3. Si la chaˆıne de Markov est r´eversible par rapport a ` la probabilit´e π, alors π est une probabilit´e invariante. Intuitivement si une chaˆıne est r´eversible par rapport a` une probabilit´e invariante π, alors sous cette probabilit´e invariante la chaˆıne et la chaˆıne apr`es retournement du temps ont mˆeme loi. Plus pr´ecis´ement, si la loi de X0 est π, alors les vecteurs (X0 , . . . , Xn−1 , Xn ) et (Xn , Xn−1 , . . . , X0 ) ont mˆeme loi pour tout n ∈ N∗ .

1.4 Chaˆınes irr´ eductibles, chaˆınes ap´ eriodiques D´ efinition 1.4.1. On dit qu’une chaˆıne de Markov, ou sa matrice de transition, est irr´eductible si la probabilit´e partant d’un point quelconque x de E, d’atteindre un point quelconque y ∈ E en un nombre nx,y d’´etapes est strictement positive, autrement dit : si pour tous x, y ∈ E, il existe n = nx,y ≥ 1 (d´ependant a priori de x et y) tel que P n (x, y) > 0. La condition P n (x, y) > 0 est ´equivalente a` l’existence de x0 = x, x1 , . . . , n xn = y tels que k=1 P (xk−1 , xk ) > 0. Une chaˆıne poss´edant des ´etats absorbants n’est pas irr´eductible (sauf si l’espace d’´etat est r´eduit a` un point). Par exemple, la marche al´eatoire sym´etrique simple sur Z, (Sn , n ≥ 0), d´efinie dans l’exemple 1.1.5, est irr´eductible. Remarquons que, si S0 est pair

12

1 Chaˆınes de Markov ` a temps discret

alors p.s. S2k est pair et S2k+1 est impair. On assiste en fait a` un ph´enom`ene p´eriodique. La quantit´e P(Sn pair) prend successivement les valeurs 1 et 0. Ce ph´enom`ene motive la d´efinition suivante. D´ efinition 1.4.2. On dit qu’une chaˆıne de Markov est p´eriodique de p´eriode d ≥ 1 si l’on peut d´ecomposer l’espace d’´etat E en une partition a ` d sous ensembles C1 , . . . , Cd = C0 , tels que pour tout k ∈ {1, . . . , d}, P(X1 ∈ Ck | X0 ∈ Ck−1 ) = 1. On dit qu’une chaˆıne est ap´eriodique si sa plus grande p´eriode est 1. Le th´eor`eme suivant est un corollaire direct des propositions 1.5.5, 1.5.4 et du th´eor`eme 1.5.6, ainsi que de la remarque 1.5.7 pour le cas E fini. Th´ eor` eme 1.4.3. Une chaˆıne de Markov irr´eductible poss`ede au plus une probabilit´e invariante, π, et alors π(x) > 0 pour tout x ∈ E. Si E est fini, alors toute chaˆıne de Markov irr´eductible poss`ede une et une seule probabilit´e invariante. On admet le th´eor`eme suivant, appel´e dans certains ouvrages th´eor`eme ergodique, concernant le comportement asymptotique des chaˆınes de Markov ap´eriodiques et irr´eductibles (voir [3] th´eor`emes 4.2.1 et 4.2.4, [7] th´eor`eme 2.6.18 ou [2] dans un contexte plus g´en´eral). Th´ eor` eme 1.4.4. Soit (Xn , n ≥ 0) une chaˆıne de Markov ap´eriodique, irr´eductible. Si elle poss`ede une (unique) probabilit´e invariante, π, alors pour tout x ∈ E on a limn→∞ P(Xn = x) = π(x), i.e. la suite des lois des variables Xn converge ´etroitement vers l’unique probabilit´e invariante. Si elle ne poss`ede pas de probabilit´e invariante, alors limn→∞ P(Xn = x) = 0 pour tout x ∈ E. Nous d´emontrerons au Chap. 2 la convergence en loi de la chaˆıne de Markov sous d’autres hypoth`eses ne faisant pas directement intervenir le caract`ere ap´eriodique (voir le th´eor`eme 2.1.2).

1.5 Th´ eor` eme ergodique On consid`ere X = (Xn , n ≥ 0) une chaˆıne de Markov, de matrice de transition P , sur un espace E discret. On rappelle la notation ynm = (yn , . . . , ym ) pour m ≥ n. L’objet de ce paragraphe est l’´etude du comportement asymptotique des moyennes temporelles, `a savoir n

1 f (Xk ) ou n k=1

n

1 k f (Xk−r+1 ), n k=r

quand n tend vers l’infini, o` u f est une fonction r´eelle ou vectorielle.

1.5 Th´eor`eme ergodique

13

Exemple 1.5.1. Un brin d’ADN (acide d´esoxyribonucl´eique) est une macromol´ecule compos´ee d’une succession de bases ou nucl´eotides. Il existe quatre bases diff´erentes : ad´enine (A), cytosine (C), guanine (G) et thymine (T). On suppose que la s´equence d’ADN, y1 . . . yN , de longueur N est la r´ealisation d’une chaˆıne de Markov (Yn , n ≥ 1) a` valeurs dans E = {A, C, G, T} et de matrice de transition P . On s’int´eresse au nombre d’occurrences d’un mot w = w1 . . . wh de longueur h dans l’ADN. Ce nombre d’occurrences est la r´ealisation de la variable al´eatoire Nw =

N 

k=h

1{Y k

k−h+1

=w} .

Au chapitre 6, on comparera le nombre d’occurrences observ´e avec le nombre th´eorique attendu. Intuitivement, si le mot w a un rˆ ole biologique, alors la valeur observ´ee de Nw sera certainement diff´erente des valeurs observ´ees dues au hasard. Pour cela, il faut d´eterminer la loi de Nw . Il est difficile de calculer explicitement et num´eriquement cette loi. En revanche les th´eor`emes ergodiques permettent d’´etudier son comportement asymptotique lorsque N tend vers l’infini. ♦ D´ efinition 1.5.2. On d´efinit le temps de retour en x par T (x) = inf {k ≥ 1 ; Xk = x} , avec la convention inf ∅ = +∞. On dit qu’un ´etat x est r´ecurrent si P(T (x) < ∞|X0 = x) = 1, sinon on dit que l’´etat est transient. Lemme 1.5.3. On a les propri´et´es suivantes. (i) Un ´etat x est transient si et seulement si P(Xn = x pour une infinit´e ∞ de n|X0 = x) = 0. On a alors n=1 P(Xn = x|X0 = x) < ∞. (ii) Un ´etat x est r´ecurrent si et  seulement si P(Xn = x pour une infinit´e ∞ de n|X0 = x) = 1. On a alors n=1 P(Xn = x|X0 = x) = ∞. (iii) Si X est une chaˆıne irr´eductible, alors soit tous les ´etats sont transients, on dit alors que la chaˆıne est transiente et {Xn = x pour un nombre fini de n} est p.s. pour tout x ∈ E, soit tous les ´etats sont r´ecurrents, on dit alors que la chaˆıne est r´ecurrente et {Xn = x pour une infinit´e de n} est p.s. pour tout x ∈ E. D´emonstration. On consid`ere les ´ev´enements I = {Xn = x pour un nombre fini de n} et Fn = {Xn = x, Xn+k = x pour tout k ≥ 1}. En d´ecomposant suivant les valeurs du dernier temps de passage de la chaˆıne en x, on obtient ∞  P(Fn |X0 = x). P(I|X0 = x) = n=0

14

1 Chaˆınes de Markov ` a temps discret

On remarque que Fn est la limite d´ecroissante quand m tend vers l’infini de Fn,m = {Xn = x, Xn+k = x, k ∈ {1, . . . , m}}. On a P(Fn,m |X0 = x)

= P(Xn+k = x, k ∈ {1, . . . , m}|Xn = x, X0 = x)P(Xn = x|X0 = x) = P(F0,m |X0 = x)P(Xn = x|X0 = x),

o` u l’on a utilis´e pour la derni`ere ´egalit´e la proposition 1.1.7 avec In = {Xn+k = x, k ∈ {1, . . . , m}} et Jn = {X0 = x}. Par convergence domin´ee, on en d´eduit P(Fn |X0 = x) = P(F0 |X0 = x)P(Xn = x|X0 = x).

(1.6)

Il vient alors P(I|X0 = x) = P(F0 |X0 = x)

∞ 

P(Xn = x|X0 = x).

n=0

∞ (i) Si P(F0 |X0 = x) > 0 (i.e. l’´etat x est transient), alors n=1 P(Xn = ∞. De cette derni`ere in´egalit´e on d´eduit que la variable x|X0 = x) < ∞ al´eatoire n=1 1{Xn =x} est finie P(·|X0 = x)-p.s., c’est-`a-dire P(I|X0 = x) = 1. (ii) Si P(F0 |X0 = x) = 0 (i.e. l’´etat x est r´ecurrent), alors on d´eduit de (1.6) que P(Fn |X0 = x) = 0 pour tout n ≥ 0. Comme I = ∪n≥0 Fn , cela implique ∞la variable ∞ que P(I|X = x) = 0. Donc, P(·|X0 = x)-p.s. al´eatoire n=1 1{Xn =x} est infinie. En particulier, on a n=1 P(Xn = x|X0 = x) = ∞. On d´emontre (iii). Supposons que la chaˆıne est irr´eductible. Soit x et y deux ´etats. Il existe deux entiers, r et s, tels que P(Xr = x|X0 = y) > 0 et P(Xs = y|X0 = x) > 0. On remarque alors, en utilisant la propri´et´e 1.1.7, c’est-`a-dire la propri´et´e de Markov, que pour tout n ≥ 1, P(Xn+r+s = x|X0 = x) ≥ P(Xn+r+s = x, Xn+s = y, Xs = y|X0 = x) (1.7) = P(Xr = x|X0 = y)P(Xn = y|X0 = y)P(Xs = y|X0 = x), ainsi que P(Xn+r+s = y|X0 = y) ≥ P(Xn+r+s = y, Xn+r = x, Xr = x|X0 = y) = P(Xs = y|X0 = x)P(Xn = x|X0 = x)P(Xr = x|X0 = y). ∞ ∞ Cela implique que les deux s´eries n=1 P(Xn = x|X0 = x) et n=1 P(Xn = y|X0 = y) sont de mˆeme nature (convergentes ou divergentes). Ainsi les deux ´etats sont soit tous les deux r´ecurrents soit tous les deux transients. Les ´etats d’une chaˆıne irr´eductible sont donc soit tous r´ecurrents soit tous transients.

1.5 Th´eor`eme ergodique

15

Pour conclure, remarquons qu’en utilisant la propri´et´e de Markov, on a P(Xn+s = x|X0 = x) ≥ P(Xn+s = x, Xs = y|X0 = x) = P(Xn = x|X0 = y)P(Xs = y|X0 = x), ainsi que P(Xn+r = x|X0 = y) ≥ P(Xn+r = x, Xr = x|X0 = y) = P(Xn = x|X0 = x)P(Xr = x|X0 = y). ∞ ∞ Cela implique que les deux s´eries n=1 P(Xn = x|X0 = x) et n=1 P(Xn = x|X0 = y) sont de mˆeme nature. Ainsi si x est un ´etat transient, les sommes ur, et si x est sont finies et {Xn = x pour un nombre fini de n} est presque sˆ un ´etat r´ecurrent, les sommes sont infinies et {Xn = x pour une infinit´e de n} est presque sˆ ur. ⊓ ⊔ Le temps moyen de retour d’un ´etat x est d´efini par µ(x) = E[T (x) | X0 = x] ∈ [0, ∞]. Notons que, comme T (x) ≥ 1, on a µ(x) ≥ 1. On pose π(x) =

1 . µ(x)

Proposition 1.5.4. Soit X = (Xn , n ≥ 0) une chaˆıne de Markov irr´eductible. Pour tout x ∈ E, on a n

1 p.s. 1{Xk =x} −−−−→ π(x). n→∞ n

(1.8)

k=1

De plus, soit π(x) = 0 pour tout x ∈ E, soit π(x) > 0 pour tout x ∈ E. Dans ce dernier cas les ´etats sont n´ecessairement r´ecurrents, et on dit que la chaˆıne est r´ ecurrente positive. Si π(x) = 0 pour tout x ∈ E, alors soit les ´etats sont transients soit les ´etats sont r´ecurrents. Dans ce dernier cas, on dit que la chaˆıne est r´ ecurrente nulle. D´emonstration. Si la chaˆıne poss`ede un ´etat transient alors tous les ´etats sont transients. Pour tout x ∈ E, on a alors P(T (x) = ∞|X0 = x) > 0 ainsi que µ(x) = +∞. D’apr`es (iii) du lemme 1.5.3, les variables al´eatoires n ∞ 1 1{Xk =x} = 0. lim k=1 1{Xk =x} sont finies p.s. et donc p.s. n→∞ n k=1 Supposons que la chaˆıne poss`ede un ´etat r´ecurrent, alors tous les ´etats sont r´ecurrents. Soit alors x ∈ E. D’apr`es (iii) du lemme 1.5.3, on visite

16

1 Chaˆınes de Markov ` a temps discret

p.s. un nombre infini de fois l’´etat x. On peut alors d´efinir les temps de retours successifs en x. On note T1 = T (x), et par r´ecurrence on d´efinit pour n ≥ 1, Tn+1 = inf{k ≥ 1 ; XSn +k = x}, o` u Sn =

n 

Tk . Par convention, on pose S0 = 0. Les variables al´eatoires

k=1

(Tn , n ≥ 1) sont p.s. finies. On montre dans un premier temps que T1 et T2 sont ind´ependants. En effet, on a en utilisant la propri´et´e de Markov, et plus particuli`erement la proposition 1.1.7, pour tous k1 , k2 ∈ N∗ , P(T1 = k1 , T2 = k2 |X0 = y)

= P(Xk1 = x, Xk1 +k2 = x, Xk = x pour tout k ∈ {1, . . . , k1 − 1, k1 + 1, . . . , k1 + k2 − 1}|X0 = y) = P(Xk1 = x, Xk = x pour tout k ∈ {1, . . . , k1 − 1}|X0 = y)

P(Xk1 +k2 = x, Xk = x pour tout k ∈ {k1 + 1, . . . , k1 + k2 − 1} |X0 = y, Xk = x pour tout k ∈ {1, . . . , k1 − 1}, Xk1 = x)

= P(Xk1 = x, Xk = x pour tout k ∈ {1, . . . , k1 − 1}|X0 = y) P(Xk2 = x, Xk = x pour tout k ∈ {1, . . . , k2 − 1}|X0 = x) = P(T1 = k1 |X0 = y)P(T1 = k2 |X0 = x).

On en d´eduit que T1 et T2 sont ind´ependants. De plus la loi de T2 est la loi de T1 conditionnellement a` X0 = x. De mani`ere similaire, on montre que les variables al´eatoires T1 , . . . , Tn sont ind´ependantes et que les variables al´eatoires T2 , . . . , Tn ont mˆeme loi. On en d´eduit donc que les variables al´eatoires (Tn , n ≥ 1) sont ind´ependantes, et les variables al´eatoires (Tn , n ≥ 2) ont mˆeme loi que T1 conditionnellement `a X0 = x. Comme T1 est fini, on d´eduit du corollaire A.3.14 que lim

n→∞

Sn = µ(x) p.s. n

Pour m ∈ N∗ , on consid`ere n(m) le nombre de fois o` u l’on a visit´e x entre les instants 1 et m soit, m  1{Xk =x} . (1.9) n(m) = k=1

En particulier, on a p.s. limm→∞ n(m) = ∞. Remarquons que n(m) est n(m) n(m) + 1 l’unique entier tel que Sn(m) ≤ m < Sn(m)+1 . Ainsi on a < n(m) + 1 Sn(m)+1 n(m) n(m) ≤ , et il vient que p.s. m Sn(m)

1.5 Th´eor`eme ergodique

lim

m→∞

1 n(m) = = π(x). m µ(x)

17

(1.10)

On en d´eduit que p.s. m

1  n(m) = π(x). 1{Xk =x} = lim m→∞ m m→∞ m lim

k=1

Il reste `a v´erifier que si µ(x) m= ∞, alors µ(y) = ∞ pour tout y ∈ E. 1 ee par 1, on d´eduit du Comme la variable al´eatoire m k=1 1{Xk =y} est born´ th´eor`eme de convergence domin´ee que pour tout y ∈ E, m

1  P(Xk = y|X0 = y) = π(y). m→∞ m lim

k=1

m 1 On d´eduit de (1.7), que si lim m→∞ m k=1 P(Xk = x|X0 = x) = 0 (i.e. m 1 P(X µ(x) = +∞), alors limm→∞ m k = y|X0 = y) = 0 et donc µ(y) = k=1 +∞. Cela termine la d´emonstration de la proposition. ⊓ ⊔ Proposition 1.5.5. Une chaˆıne irr´eductible qui est transiente ou r´ecurrente nulle, ne poss`ede pas de probabilit´e invariante. D´emonstration. On raisonne par l’absurde. On suppose qu’il existe une probabilit´e invariante ν. Soit X0 de loi ν. Par convergence domin´ee, on obtient, en prenant l’esp´erance dans (1.8), et en utilisant le fait que pour tout k ≥ 0, P(Xk = x) = ν(x), que ν(x) = 0 pour tout x ∈ E. En particulier, ν n’est pas une probabilit´e, ce qui est absurde. Donc il n’existe pas de probabilit´e invariante. ⊓ ⊔ Si f est  une fonction d´efinie sur E soit positive, soit int´egrable par rapport a π (i.e. x∈E π(x) |f (x)| < ∞), alors on note ` (π, f ) =



π(x)f (x).

x∈E

On a le r´esultat de convergence suivant appel´e th´eor`eme ergodique. Th´ eor` eme 1.5.6. Soit X une chaˆıne de Markov sur E, irr´eductible et r´ecurrente positive. Le vecteur π = (π(x), x ∈ E) est l’unique probabilit´e invariante de la chaˆıne de Markov. De plus, pour toute fonction f d´efinie sur E, telle que f ≥ 0 ou (π, |f |) < ∞, on a n

1 p.s. f (Xk ) −−−−→ (π, f ). n→∞ n

(1.11)

k=1

La moyenne temporelle est donc ´egale `a la moyenne spatiale par rapport a la probabilit´e invariante. `

18

1 Chaˆınes de Markov ` a temps discret

Remarque 1.5.7. Ces r´esultats se simplifient dans le cas o` u l’espace d’´etat est fini. En effet, dans ce cas, toute chaˆıne de Markov irr´eductible est r´ecurrente positive (comme E est fini, on peut sommer (1.8) pour x ∈ E,  et obtenir ainsi que x∈E π(x) = 1). En particulier, elle poss`ede une unique probabilit´e invariante, not´ee π. Remarquons alors que π(x) > 0 pour tout x ∈ E, d’apr`es la proposition 1.5.4. ♦ n 1 Exemple 1.5.8. Suite de l’exemple 1.1.4. La quantit´e n k=1 Xk correspond au stock moyen. Intuitivement, cette quantit´e converge si la demande est plus forte que les commandes (E[D] > q) et explose sinon. Nous nous contentons de montrer que si la chaˆıne de Markov X = (Xn , n ≥ 0) est irr´eductible, alors elle poss`ede une unique probabilit´e invariante d`es que E[D] > q. Remarquons que la condition d’irr´eductibilit´e est satisfaite par exemple si P(D > q) > 0 et P(D = q − 1) > 0. En effet, dans ce cas, on a pour k ∈ N∗ , P(Xk = 0|X0 = k) ≥ P(D1 > q, . . . , Dk > q) > 0 ainsi que P(Xk = k|X0 = 0) ≥ P(D1 = q − 1, . . . , Dk = q − 1) > 0. En particulier, pour tous k, j ∈ N, on a en utilisant la propri´et´e de Markov et l’homog´en´eit´e P(Xk+j = k|X0 = j) ≥ P(Xk+j = k, Xj = 0|X0 = j) = P(Xk+j = k|Xj = 0, X0 = j)P(Xj = 0|X0 = j) = P(Xk = k|X0 = 0)P(Xj = 0|X0 = j) > 0. La condition d’irr´eductibilit´e est donc satisfaite. Enfin, l’exercice 1.5.9 permet de calculer sur un cas ´el´ementaire la probabilit´e invariante, et de v´erifier que le stock moyen a alors une limite finie d`es que E[D] > q. On suppose que E[D] > q > 0 et que la chaˆıne de Markov X est irr´eductible. Pour d´emontrer qu’elle poss`ede une unique probabilit´e invariante, il suffit de v´erifier, d’apr`es la proposition 1.5.4 et le th´eor`eme 1.5.6, u T = inf{n ≥ 1 ; Xn = 0} est le premier temps de que E[T |X0 = 0] < ∞, o` retours en 0. Pour cela, on introduit une suite auxiliaire d´efinie par Y0 = 0 et Yn+1 = Yn + q − Dn+1 . Remarquons que sur l’´ev´enement {T > n}, on a Xk+1 = Xk + q − Dk+1 = Yk+1 pour tout k < n. En particulier, il vient P(T > n|X0 = 0) = P(Y1 > 0, . . . , Yn > 0) ≤ P(Yn > 0) ≤ E[eλYn ], n pour tout λ ≥ 0. D’autre part, comme Yn = nq − k=1 Dk , on a n E[eλYn ] = E[enλq−λ k=1 Dk ] = enλq g(λ)n ,

o` u g(λ) = E[e−λD ] est la transform´ee de Laplace de D. La transform´ee de Laplace est de classe C ∞ sur ]0, +∞[, voir le paragraphe A.1.8 en appendice.

1.5 Th´eor`eme ergodique

19

On a g ′ (λ) = −E[D e−λD ], et limλ→0+ g ′ (λ) = −E[D] < −q. Donc, pour tout λ > 0 suffisamment petit, on a g(λ) − 1 < −λq, et P(T > n|X0 = 0) ≤ enλq g(λ)n ≤ en[λq+log(1−λq)] . Pour λ et ε > 0 suffisamment petits, on a λq + log(1 − λq) ≤ −ε et P(T > n|X0 = 0) ≤ e−nε .  Comme E[T |X0 = 0] = egalement n≥0 P(T > n|X0 = 0), cela implique ´ que E[T |X0 = 0] < ∞. Cela suffit pour d´emontrer l’existence d’une unique probabilit´e invariante. ♦ Exercice 1.5.9. Suite de l’exemple 1.5.8. On suppose que q = 1 et la demande peut prendre trois valeurs : 0,1 ou 2. On pose pk = P(D = k) pour k ∈ {0, 1, 2}. On suppose que ces trois probabilit´es sont strictement positives. 1. V´erifier que la chaˆıne de Markov X est irr´eductible. 2. Calculer la probabilit´e invariante si E[D] > 1 (i.e. si p2 > p0 ). On pourra s’inspirer des calculs faits au paragraphe 9.2.1, avec λ = p0 et µ = p2 . n 3. En d´eduire que si E[D] > 1, alors n1 k=1 Xk poss`ede une limite p.s. et la calculer. 

D´emonstration du th´eor`eme 1.5.6. Soit x ∈ E. On consid`ere la suite des monstration de la protemps de retours en x, (Tn , n ≥ 1), d´efinie dans la d´e n position 1.5.4. On pose S0 = 0 et pour n ≥ 1, Sn = k=1 Tk . On introduit les excursions hors de l’´etat x, c’est-`a-dire les variables al´eatoires (Yn , n ≥ 1) a valeurs dans k≥1 {k} × E k+1 d´efinies par ` Yn = (Tn , XSn−1 , XSn−1 +1 , . . . , XSn ).

Un calcul analogue a` celui effectu´e dans la d´emonstration de la proposition 1.5.4 assure que, pour tout N ≥ 2, les variables al´eatoires (Yn , n ∈ {1, . . . , N }) sont ind´ependantes et que les variables al´eatoires (Yn , n ∈ {2, . . . , N }) ont pour loi celle de Y1 sous P(·|X0 = x). En particulier, cela implique que les variables al´eatoires (Yn , n ≥ 1) sont ind´ependantes, et que les variables al´eatoires (Yn , n ≥ 2) ont mˆeme loi. Soit f une fonction r´eelle positive finie d´efinie sur E. On pose F (Yn ) =

Tn 

f (XSn−1 +i ).

i=1

Les variables al´eatoires (F (Yn ), n ≥ 2) sont positives, ind´ependantes et ace au de mˆeme loi. Comme F (Y1 ) est positif et fini, on en d´eduit, grˆ

20

1 Chaˆınes de Markov ` a temps discret

corollaire A.3.14, que p.s. limn→∞ a bien sˆ ur

1 n

n

E[F (Y1 )|X0 = x] = E

T1

 i=1

Remarquons que l’on a l’´egalit´e

F (Yk ) = E[F (Y1 )|X0 = x]. On

k=1

f (Xi ) X0 = x .

(1.12)

Sn n n 1 1  F (Yk ). Comme p.s. f (Xi ) = Sn i=1 Sn n k=1

1 Sn = , on en d´eduit que p.s. on a lim n→∞ n π(x)

Sn 1  lim f (Xi ) = π(x)E[F (Y1 )|X0 = x]. n→∞ Sn i=1

n Pour m ∈ N∗ , on consid`ere l’entier n(m) = k=1 1{Xk =x} . En particulier, on a Sn(m) ≤ m < Sn(m)+1 et p.s. limm→∞ n(m) = ∞. On a les in´egalit´es Sn(m) m  Sn(m)+1 Sn(m) 1  1 1 f (Xi ) ≤ f (Xi ) ≤ Sn(m)+1 Sn(m) i=1 m i=1 Sn(m) Sn(m)+1

Comme limn→∞ Sn = ∞ et lim

n→∞

d´eduit que p.s.

Sn(m)+1



f (Xi ).

i=1

Sn+1 Sn+1 n n + 1 = 1 p.s., on en = lim n→∞ n + 1 Sn Sn n

m

1  f (Xi ) = π(x)E[F (Y1 )|X0 = x]. m→∞ m i=1 lim

(1.13)

En choisissant f (z) = 1{z=y} , on d´eduit de la proposition 1.5.4 et de (1.12), que T1

 1{Xi =y} X0 = x . (1.14) π(y) = π(x)E i=1

 En sommant sur y ∈ E, il vient par convergence monotone, y∈E π(y) = π(x)E[T1 |X0 = 1] = 1. On en d´eduit que π = (π(x), x ∈ E) est une probabilit´e. Enfin remarquons que grˆ ace `a (1.14), et par convergence monotone, π(x)E[F (Y1 )|X0 = x] =



y∈E

=



T1

 f (y)π(x)E 1{Xi =y} X0 = x i=1

f (y)π(y) = (π, f ).

(1.15)

y∈E

Enfin si f est de signe quelconque, on utilise la d´ecomposition f = f+ −f− , o` u f+ (x) = max(f (x), 0) et f− (x) = max(−f (x), 0). On d´eduit de ce qui pr´ec`ede que p.s.

1.5 Th´eor`eme ergodique m

21

m

1  f+ (Xi ) = (π, f+ ) et m→∞ m i=1

1  f− (Xi ) = (π, f− ). m→∞ m i=1

lim

lim

Si (π, |f |) est fini, par soustraction des deux termes, on en d´eduit que p.s. m

1  lim f (Xi ) = (π, f ). m→∞ m i=1

(1.16)

V´erifions que π est une probabilit´e invariante. Soit ν la loi de X0 . On pose n

ν¯n (x) =

1 νP i (x). n i=1

Par convergence domin´ee, on d´eduit de (1.8), en prenant l’esp´erance, que limn→∞ ν¯n (x) = π(x) pour tout x ∈ E. Soit f born´ee. Par convergence domin´ee, en prenant l’esp´erance dans (1.16), il vient (¯ νn , f ) −−−−→ (π, f ). n→∞

En choisissant f (·) = P (·, y), on a (¯ νn , f ) = ν¯n P (y) = Par passage `a la limite, il vient

n+1 ¯n+1 (y) − n1 n ν

νP (y).

πP (y) = π(y). On en d´eduit donc que π est une probabilit´e invariante. Soit ν une probabilit´e invariante. Avec les notations pr´ec´edentes, on obtient alors que ν¯n = ν. Or, on a vu que limn→∞ ν¯n (x) = π(x). Donc ν = π et π est l’unique probabilit´e invariante. ⊓ ⊔ On peut g´en´eraliser le th´eor`eme ergodique `a des fonctions multivari´ees. Pour cela on consid`ere le lemme technique suivant. Lemme 1.5.10. Soit X = (Xn , n ≥ 0) une chaˆıne de Markov sur E, irr´eductible, r´ecurrente positive, de matrice de transition P et de probabin ˜ n = Xn−p+1 pour n ≥ p − 1. lit´e invariante π. Soit p ≥ 2. On pose X  p−1 p p ˜ = {x ∈ E ; ˜ ˜ n , n ≥ p) Soit E P (x , x ) > 0}. La suite X = (X k k+1 1 k=1 ˜ est une chaˆıne de Markov sur E, irr´eductible, positive r´ecurrente, de matrice de transition P˜ (xp1 , y1p ) = 1{xp =yp−1 } P (yp−1 , yp ), et de probabilit´e invariante 2 1 p−1 π ˜ (xp1 ) = π(x1 ) k=1 P (xk , xk+1 ). ˜ = (X ˜ n , n ≥ p) est D´emonstration. Il est facile de v´erifier que le processus X ˜ une chaˆıne de Markov irr´eductible sur E avec la matrice de transition p−1 annonc´ee dans le lemme. V´erifions que la probabilit´e π ˜ (xp1 ) = π(x1 ) k=1 P (xk , xk+1 )

22

1 Chaˆınes de Markov ` a temps discret

est une probabilit´e invariante (et aussi la seule d’apr`es la proposition 1.5.5 et ˜ le th´eor`eme 1.5.6). En effet, il vient pour y1p ∈ E  π ˜ (xp1 )P˜ (xp1 , y1p ) π ˜ P˜ (y1p ) = ˜ xp 1 ∈E

=



π(x1 )

p xp 1 ∈E

=



P (xk , xk+1 )1{xp =yp−1 } P (yp−1 , yp )

p−1 

P (xk , xk+1 )1{xp =yp−1 } P (yp−1 , yp )

k=1

π(x2 )

p xp 2 ∈E

= π(y1 )

p−1 

k=2 p−2 

2

2

1

1

P (yk , yk+1 )P (yp−1 , yp )

k=1

=π ˜ (y1p ),  o` u l’on a utilis´e x1 ∈E π(x1 )P (x1 , x2 ) = π(x2 ) pour la troisi`eme ´egalit´e.

⊓ ⊔

Le corollaire suivant est alors une cons´equence directe du th´eor`eme ergodique et du lemme 1.5.10.

Corollaire 1.5.11. Soit p ≥ 1. Soit X = (Xn , n ≥ 0) une chaˆıne de Markov sur E, irr´eductible, r´ecurrente positive, de matrice de transition P et de prop babilit´ p−1 g d´efinie sur E , positive ou telle e invariante π. Pour toute fonction que xp =(x1 ,...,xp )∈E p |g(xp1 )| π(x1 ) k=1 P (xk , xk+1 ) < ∞, alors on a 1

n

1 p.s. k g(Xk−p+1 ) −−−−→ n→∞ n k=p



p xp 1 ∈E

g(xp1 )π(x1 )

p−1 

P (xk , xk+1 ).

k=1

Nous aurons ´egalement besoin dans le prochain paragraphe des formules suivantes. Soit g une fonction d´efinie sur E 2 positive ou bien telle que  |g(x, y)| P (x, y) < ∞, alors on note y∈E  P (x, y)g(x, y). P g(x) = y∈E

Lemme 1.5.12. Soit X = (Xn , n ≥ 0) une chaˆıne de Markov sur E, irr´eductible, r´ecurrente positive, de matrice de transition P et de probabilit´e invariante π. Soit f une fonction r´eelle d´efinie sur E, positive ou bien telle que (π, |f |) < ∞. Alors on a (x) (π, f )

T , f (Xk ) X0 = x = E π(x) k=1

o` u T (x) est le temps de retour en x. Soit g une fonction r´eelle d´efinie sur E 2 , positive ou bien telle que (π, P |g|) < ∞. Alors on a

1.6 Th´eor`eme central limite

23

(x) (π, P g)

T . E g(Xk−1 , Xk ) X0 = x = π(x) k=1

D´emonstration. La premi`ere ´egalit´e se d´eduit de (1.12) et de (1.15). Pour la deuxi`eme ´egalit´e, on reprend la d´emonstration du th´eor`eme 1.5.6 u Yn = (Tn , XSn−1 , XSn−1 +1 , . . . , XSn ) est la n-i`eme en rempla¸cant F (Yn ), o` excursion hors de l’´etat x, par Tn  g(XSn−1 +i−1 , XSn−1 +i ). G(Yn ) = i=1

Des arguments similaires `a ceux utilis´es dans la d´emonstration du th´eor`eme 1.5.6 assurent l’analogue de (1.13) : p.s. on a m 1  g(Xi−1 , Xi ) = π(x)E[G(Y1 )|X0 = x], lim m→∞ m i=2

 T (x) et E[G(Y1 )|X0 = x] = E g(X , X ) X = x . D’autre part, le corol k−1 k 0 k=1 laire 1.5.11, avec p = 2, assure que p.s. m 1  lim g(Xi−1 , Xi ) = (π, P g). m→∞ m i=2 On en d´eduit donc la deuxi`eme ´egalit´e du lemme.

⊓ ⊔

1.6 Th´ eor` eme central limite On peut dans certains cas pr´eciser la vitesse de convergence dans le th´eor`eme ergodique a` l’aide du th´eor`eme central limite (TCL) pour les chaˆınes de Markov. C’est l’objet de ce paragraphe. On consid`ere une chaˆıne de Markov sur E, X = (Xn , n ≥ 0), irr´eductible, r´ecurrente positive, de matrice de transition P et de probabilit´e invariante π. Rappelons la notation introduite a` la fin du paragraphe  pr´ec´edent : si g est une fonction d´efinie sur E 2 soit positive, soit telle que y∈E |g(x, y)| P (x, y) < ∞, alors on note  P g(x) = P (x, y)g(x, y). y∈E

` valeurs dans R, telle Th´ eor` eme 1.6.1. Soit g une fonction d´efinie sur E 2 a (x)

T [g(Xk−1 , Xk ) − que (π, P |g|) < ∞ et il existe x ∈ E avec s(x)2 = E

k=1 2 2 2 (π, P g)] X0 = x fini. On note σ = π(x)s(x) . Pour toute loi initiale de X0 , on a   n √ 1 Loi g(Xk−1 , Xk ) − (π, P g) −−−−→ N (0, σ 2 ). n n→∞ n k=1

24

1 Chaˆınes de Markov ` a temps discret

Si on choisit g de la forme g(x, y) = f (y), alors on a (π, P g) = (π, f ) d`es que f est positive ou (π, |f |) est fini. Le corollaire suivant est une cons´equence directe du th´eor`eme pr´ec´edent. Corollaire 1.6.2. Si (π, |f |) < ∞ et s’il existe x ∈ E tel que s(x)2 = T (x) E[( k=1 [f (Xk ) − (π, f )])2 |X0 = x] < ∞, alors on a √

n



 n 1 Loi f (Xk ) − (π, f ) −−−−→ N (0, σ 2 ), n→∞ n k=1

o` u σ 2 = s(x)2 π(x). D´emonstration du th´eor`eme 1.6.1. On reprend les notations de la d´emonstration du th´eor`eme 1.5.6. On pose pour n ≥ 1 G(Yn ) =

Tn  [g(XSn−1 +r−1 , XSn−1 +r ) − (π, P g)]. r=1

Les variables al´eatoires (G(Yn ), n ≥ 2) sont ind´ependantes, de mˆeme loi et de carr´e int´egrable avec, pour n ≥ 2, E[G(Yn )2 ] = s(x)2 . La d´efinition π(x) = 1/µ(x) et la deuxi`eme ´egalit´e du lemme 1.5.12 impliquent que pour n ≥ 2, E[G(Yn )] = 0. On d´eduit du th´eor`eme central limite que n

1  Loi √ G(Yk ) −−−−→ N (0, s(x)2 ). n→∞ n k=2

Toujours en utilisant la notation n(m) d´efinie dans (1.9), on a Sn(m) ≤ m < Sn(m)+1 , et √ m



 m 1  g(Xi−1 , Xi ) − (π, P g) m k=1

n(m) 1 1 1  G(Yk ) + √ G(Y1 ) + √ =√ m m m k=2

m 

i=Sn(m) +1

[g(Xi−1 , Xi ) − (π, P g)].

Comme limm→∞ n(m)/m = π(x) p.s., d’apr`es (1.10), on d´eduit du th´eor`eme de Slutsky A.3.12 que 

n(m)   n(m) 1 Loi  G(Yk ) −−−−→ π(x)N (0, s(x)2 ) = N (0, s(x)2 π(x)). m→∞ m n(m) k=2

1.6 Th´eor`eme central limite

25

Comme Sn(m) ≤ m < Sn(m)+1 , on a la majoration suivante m  1 √ [g(X , X ) − (π, P g)] i−1 i m i=Sn(m)+1  n(m) 1  ≤ Sn(m) n(m)

Sn(m)+1



i=Sn(m) +1

|g(Xi−1 , Xi ) − (π, P g)| .

Sn+1 |g(Xi−1 , Xi ) − (π, P g)| pour tout n ≥ 2. Les variables On pose Zn = i=S n +1 ace `a la (Zn , n ≥ 2) sont ind´ependantes et de mˆeme loi. De plus on a, grˆ deuxi`eme ´egalit´e du lemme 1.5.12, (x)

T |g(Xi−1 , Xi ) − (π, P g)| X0 = x E[Zn ] = E i=1

= (π, P |g − (π, P g)|)/π(x).

On d´eduit de l’in´egalit´e |P g| ≤ P |g| et de l’invariance de la probabilit´e π, que (π, P |g − (π, P g)|) ≤ (π, P (|g| + |(π, P g)|)) ≤ 2(π, P |g|) < ∞. De l’in´egalit´e P(n−1/2 Zn > ε) ≤ n−1/2 E[Zn ]/ε, on d´eduit que la suite (n−1/2 Zn , n ≥ 1) converge en probabilit´e vers 0. Comme (Sn(m) /m, m ≥ 1) converge p.s. m  1 [g(Xi−1 , Xi )−(π, P g)], m ≥ 1) vers 1, cela implique que la suite ( √ m i=Sn(m)+1

converge en probabilit´e vers 0. Bien sˆ ur, ( √1m G(Y1 ), m ≥ 1) converge en probabilit´e vers 0. On d´eduit du th´eor`eme de Slutsky A.3.12 que   m √ 1  Loi g(Xk−1 , Xk ) − (π, P g) −−−−→ N (0, s(x)2 π(x)). m n→∞ m k=1

On a d´emontr´e ce r´esultat, pour toute loi initiale de X0 .

⊓ ⊔

On peut expliciter dans le th´eor`eme pr´ec´edent la valeur de σ 2 dans le cas particulier, qui nous sera utile au Chap. 6, o` u g(x, y) = h(x, y) − P h(x). Remarquons que, si (π, P |h|) < ∞, alors on a (π, P g) = (π, P h)−(π, P (P h)) = 0, car π est une probabilit´e invariante. Comme (P (x, y), y ∈ E) est une probabilit´e sur E, on d´eduit de l’in´egalit´e de Cauchy-Schwarz que (P h)2 (x) =



y∈E

2  P (x, y)h(x, y) ≤ P (x, y)h(x, y)2 = P h2 (x). y∈E

En particulier si (π, P h2 ) < ∞ alors (π, (P h)2 ) < ∞.

26

1 Chaˆınes de Markov ` a temps discret

Proposition 1.6.3. Soit h une fonction d´efinie sur E 2 ` a valeurs dans R, telle que (π, P h2 ) < ∞. Pour toute loi initiale de X0 , on a n

1  Loi √ [h(Xk−1 , Xk ) − P h(Xk−1 )] −−−−→ N (0, σ 2 ), n→∞ n k=1

2

2

o` u σ = (π, P h ) − (π, (P h)2 ).

ace Remarque 1.6.4. On d´esire calculer explicitement la valeur de σ 2 , grˆ a la proposition pr´ec´edente, pour le cas particulier du corollaire 1.6.2, o` ` u g(x, y) = f (y). Pour cela, on admet que si (π, |f |) < ∞, alors il existe, a` une constante additive pr`es, une unique fonction F telle que (π, |F |) < ∞ et F est solution de l’´equation de Poisson : pour tout x ∈ E, 

F (x) − P F (x) = f (x) − (π, f ),

o` u P F (x) = z∈E P (x, z)F (z). Comme (π, P |F |) = (π, |F |) < ∞, on remarque que P |F | ainsi que P F sont bien d´efinis, et donc l’´equation de Poisson a un sens. On pourra consulter le Chap. 9 de [6] pour l’existence et l’unicit´e des solutions de l’´equation de Poisson. Si on suppose de plus que (π, F 2 ) < ∞, alors on peut appliquer la proposition 1.6.3 avec h(x, y) = F (y) et en d´eduire que   n √ 1 Loi f (Xk ) − (π, f ) −−−−→ N (0, σ 2 ), n n→∞ n k=1

2

2

o` u σ = (π, P h ) − (π, (P h)2 ) = (π, F 2 ) − (π, (P F )2 ). En pratique on utilise le TCL pour donnerun intervalle de confiance pour l’estimation de (π, f ) par n la simulation de n1 k=1 f (Xk ). La variance σ 2 , qui intervient dans l’intervalle de confiance, ne peut ˆetre directement estim´ee sur la simulation d’une seule r´ealisation car cela n´ecessite de r´esoudre l’´equation de Poisson. Cette difficult´e nous conduira a` utiliser la proposition 1.6.3 plutˆ ot que le r´esultat apparemment plus naturel du corollaire 1.6.2. ♦ D´emonstration de la proposition 1.6.3. On d´eduit de l’in´egalit´e de CauchySchwarz que (π, |P h|) ≤ (π, P |h|) ≤ (π, P h2 )1/2 < ∞.

Ainsi, si on pose pour x, y ∈ E, g(x, y) = h(x, y) − P h(x), on a (π, P |g|) < ∞. En utilisant le fait que π est invariante, il vient (π, P g) = (π, P h) − (π, P (P h)) = 0. Pour appliquer le th´eor`eme 1.6.1, il faut v´erifier que s(x)2 = E

(x)

T k=1

2 [h(Xk−1 , Xk ) − P h(Xk−1 )] X0 = x

est fini. Puis il faut calculer la valeur de s(x)2 pour conclure la d´emonstration. (Les arguments qui suivent sont inspir´es de la d´emonstration du TCL ergodique a` partir de la th´eorie des martingales, voir par exemple [5]. Comme nous

1.6 Th´eor`eme central limite

27

avons choisi de ne pas recourir aux martingales, nous retrouvons par le calcul certains r´esultats interm´ediaires qui sont des cons´equences bien connues des propri´et´es des martingales.) On pose Hk = h(Xk−1 , Xk ) − P h(Xk−1 ) et T (x)∧n Mn = k=1 Hk avec la convention M0 = 0 et a ∧ b = min(a, b). On d´efinit T (x) M = k=1 Hk = limn→∞ Mn . On d´esire donc calculer E[M 2 |X0 = x] = s(x)2 . Pour cela, dans une premi`ere ´etape on calcule E[Hk Hl 1{T (x)≥l} |X0 = x] pour k ≤ l, puis E[Mn2 ]. On v´erifiera dans une seconde ´etape que limn→∞ E[Mn2 ] = E[M 2 ]. Premi`ere ´etape. On suppose 1 ≤ k < l, et on remarque que l’´ev´enement {T (x) ≥ l} peut aussi s’´ecrire {Xr = x, ∀r ∈ {1, . . . , l − 1}}. En conditionnant par rapport aux valeurs de X0l−1 , on obtient que pour x0l−1 ∈ E l , avec x0 = x, s’il existe r ∈ {1, . . . , l − 1} tel que xr = x, alors E[Hk Hl 1{T (x)≥l} |X0l−1 = x0l−1 ] = 0, et si xr = x pour tout r ∈ {1, . . . , l − 1}, alors E[Hk Hl 1{T (x)≥l} |X0l−1 = x0l−1 ] = E[(h(xk−1 , xk ) − P h(xk−1 ))(h(xl−1 , Xl ) − P h(xl−1 ))|X0l−1 = x0l−1 ] = (h(xk−1 , xk ) − P h(xk−1 ))E[h(xl−1 , Xl ) − P h(xl−1 )|X0l−1 = x0l−1 ] = (h(xk−1 , xk ) − P h(xk−1 ))E[h(xl−1 , Xl ) − P h(xl−1 )|Xl−1 = xl−1 ] = (h(xk−1 , xk ) − P h(xk−1 ))(P h(xl−1 ) − P h(xl−1 )) = 0, o` u l’on a utilis´e la propri´et´e de Markov pour la troisi`eme ´egalit´e. Il vient donc en multipliant E[Hk Hl 1{T (x)≥l} |X0l−1 = x0l−1 ] = 0 par P(X0l−1 = x0l−1 |X0 = x) et en sommant sur x1l−1 ∈ E l−1 que, pour 1 ≤ k < l, E[Hk Hl 1{T (x)≥l} |X0 = x0 ] = 0.

(1.17)

Donc on obtient E[Mn2 |X0 = x]

 Hk Hl 1{T (x)≥max(k,l)} X0 = x0 =E 1≤k,l≤n



T (x)∧n  =E Hk2 X0 = x0 + 2 k=1

=E

T (x)∧n  k=1

Hk2 X0 = x0 .



1≤k 0) associ´ees `a H qui se concentrent sur les points qui r´ealisent le minimum de H quand T tend vers 0, voir le lemme 2.3.2. Par analogie avec la physique statistique, la fonction H est appel´ee ´energie ou fonction d’´energie et le param`etre T est appel´e temp´erature. L’algorithme du recuit simul´e (« simulated annealing » en anglais) d´ecrit dans le paragraphe 2.3.2 a pour but de simuler des variables al´eatoires qui se concentrent sur l’ensemble des points o` u H atteint son minimum. L’id´ee est d’utiliser l’algorithme de Metropolis pour simuler une chaˆıne de Markov qui converge vers µT , avec T proche de 0. Pour T proche de 0, si la loi initiale de la chaˆıne de Markov utilis´ee dans l’algorithme de Metropolis est ´eloign´ee (au sens de la norme en variation) de µT , alors l’algorithme converge tr`es lentement. Il est plus judicieux de choisir une loi initiale proche de µT . Le lemme 2.3.3 assure que les mesures de Gibbs sont proches pour la norme en variation si les temp´eratures sont proches. On choisit donc une temp´erature ´elev´ee, T1′ , une loi initiale quelconque, puis on utilise l’algorithme de Metropolis pour construire une chaˆıne de Markov dont la loi au temps n1 est proche de µT1′ . Ceci fournit alors une loi initiale raisonnable pour construire, a` l’aide de l’algorithme de Metropolis, une chaˆıne de Markov dont la loi au temps n2 est proche de µT2′ , avec T2′ < T1′ . Cette proc´edure est ensuite it´er´ee. Le sch´ema de temp´erature associ´e `a cette construction est constitu´e de la suite (Tk , k ≥ 1) dont les n1 premiers termes sont ´egaux a` T1′ , les n2 suivants a` T2′ , et ainsi de suite. L’objectif est alors d’exhiber un sch´ema de temp´erature (Tk , k ≥ 1) qui assure que les variables al´eatoires simul´ees se concentrent sur les points o` u H atteint son minimum. Dans le paragraphe 2.3.2, nous d´emontrons ce r´esultat pour des sch´emas de temp´eratures de la forme Tk = γ/ log(k), k ≥ 1. Nous pr´esentons au paragraphe 2.3.3 quelques r´esultats th´eoriques sur le comportement asymptotique du recuit simul´e. La terminologie de recuit (« annealing » en anglais) provient de la m´etallurgie, o` u le m´etal en fusion est refroidi lentement, afin de lui assurer une meilleure r´esistance. Un refroidissement brutal peut en revanche le figer dans un ´etat plus fragile que l’´etat d’´energie minimum. Enfin, nous revenons sur le probl`eme du voyageur de commerce au paragraphe 2.4 avec des comparaisons empiriques sur les vitesses de d´ecroissance des temp´eratures et les choix des algorithmes de Metropolis.

2.1 Condition de Doeblin et convergence des chaˆınes de Markov

33

2.1 Condition de Doeblin et convergence des chaˆınes de Markov Soit P la matrice de transition d’une chaˆıne de Markov X = (Xn , n ∈ N) sur un espace discret, E. D´ efinition 2.1.1. On dit que X v´erifie la condition de Doeblin si et seulement s’il existe l ∈ N∗ , α > 0 et c une probabilit´e sur E tels que pour tous x, y ∈ E, P l (x, y) ≥ αc(y).

(2.1)

La notion de convergence en variation qui intervient dans le th´eor`eme qui suit est d´efinie en appendice, voir la d´efinition D.1. Th´ eor` eme 2.1.2. Supposons que X v´erifie la condition de Doeblin. Alors pour toute loi ν de X0 , la loi de Xn converge en variation vers une probabilit´e π. De plus cette probabilit´e π est l’unique probabilit´e invariante de X. Remarque 2.1.3. – Il est clair qu’une chaˆıne de Markov p´eriodique de p´eriode d > 1 ne v´erifie pas la condition de Doeblin. – Si E est fini, les th´eor`emes 1.4.3 et 1.4.4 impliquent que la chaˆıne est irr´eductible et ap´eriodique si et seulement si elle v´erifie la condition de Doeblin avec une probabilit´e c telle que c(y) > 0 pour tout y ∈ E. Cette ´equivalence n’est plus vraie en g´en´eral si E n’est pas fini. ♦ D´emonstration du th´eor`eme 2.1.2. On suppose dans un premier temps que l = 1. Si µ, µ′ sont deux probabilit´es sur E, alors on a 1 |µP (y) − µ′ P (y)| 2 y∈E 1   ′ = [µ(x) − µ (x)]P (x, y) 2 y∈E x∈E 1   [µ(x) − µ′ (x)][P (x, y) − αc(y)] = 2

µP − µ′ P  =

y∈E x∈E

 1 |µ(x) − µ′ (x)| [P (x, y) − αc(y)] ≤ 2 x∈E

y∈E

1 |µ(x) − µ′ (x)|(1 − α) = 2 x∈E

= (1 − α) µ − µ′ ,

34

2 Recuit simul´e

  ′ 1 pour la troisi`eme ´egalit´e, o` u l’on a utilis´e x∈E µ (x) =  x∈E µ(x) = P (x, y)−αc(y) ≥ 0 pour la premi`ere in´egalit´e, et y∈E [P (x, y)−αc(y)] = 1−α pour la quatri`eme ´egalit´e. On a ainsi obtenu µP − µ′ P  ≤ (1 − α) µ − µ′ .

(2.2)

Rappelons que l’on peut voir l’ensemble des mesures sur E comme l’ensemble e est alors un vecteur p = (px ; x ∈ E) tel des vecteurs de RE . Une probabilit´  que px ∈ [0, 1] pour tout x ∈ E et x∈E px = 1. L’ensemble des probabilit´es, P, est un ferm´e de RE . La norme en variation sur RE correspond, a` un facteur 1/2 pr`es, `a la norme L1 . En particulier, RE muni de la norme en variation est complet. Donc l’espace P est ´egalement complet pour la norme en variation. Ainsi, l’application qui a` la probabilit´e µ associe la probabilit´e µP est une application de P dans P, contractante de rapport 1 − α < 1 pour la norme en variation. Comme l’espace P est complet, elle admet un unique point fixe π ∈ P. La probabilit´e π est donc l’unique probabilit´e telle que π = πP . On d´emontre par r´ecurrence, en utilisant (2.2), que νP n − π = νP n − πP n  ≤ (1 − α)n ν − π ≤ (1 − α)n. En particulier, si ν est la loi de X0 , alors on en d´eduit que la loi de Xn , νP n , converge en variation vers π quand n tend vers l’infini. Si l > 1, remarquons que (Xkl , k ≥ 0) est une chaˆıne de Markov de matrice de transition P l . On d´eduit de ce qui pr´ec`ede que pour toute loi ν de X0 , la loi de Xkl , νP kl , converge en variation vers l’unique probabilit´e π telle que π = πP l , quand k tend vers l’infini. De plus si n = kl + p avec 0 ≤ p < l, on a νP n − π = ||νP kl+p − πP kl || ≤ (1 − α)k νP p − π ≤ (1 − α)k. On en d´eduit que la loi de Xn , νP n , converge en variation vers π, quand n tend vers l’infini. Enfin remarquons que πP = πP l+1 car π est une probabilit´e invariante pour P l . Donc la probabilit´e πP est une probabilit´e invariante de P l . On en d´eduit πP = π. La probabilit´e π est donc invariante pour P . Soit µ une autre probabilit´e invariante pour P . Elle est ´egalement invariante pour ⊔ P l , et donc µ = π. Ainsi la probabilit´e π est l’unique probabilit´e invariante. ⊓ Remarque 2.1.4. Soit P une matrice stochastique. Pour ν, ν ′ ∈ P, on a 1   ′ ′ νP − ν P  = [ν(x) − ν (x)]P (x, y) 2 y∈E x∈E



 1 |ν(x) − ν ′ (x)| P (x, y) = ν − ν ′ . (2.3) 2 x∈E

y∈E

Si la condition de Doeblin est satisfaite avec l = 1, alors la premi`ere partie de la d´emonstration du th´eor`eme 2.1.2, voir (2.2), assure que l’application ν → νP est en fait contractante sur P. ♦

2.2 Algorithme de Metropolis

35

2.2 Algorithme de Metropolis Une m´ethode pour simuler de mani`ere approch´ee une loi de probabilit´e µ sur E consiste `a construire une chaˆıne de Markov, X = (Xn , n ∈ N), v´erifiant (2.1) et dont la probabilit´e invariante est µ. Dans ce cas, la loi de Xn pour n grand est proche de µ pour la norme en variation. Il existe plusieurs choix possibles pour la loi de X, voir par exemple l’exercice 2.2.4. La m´ethode pr´esent´ee ci-dessous est appel´ee algorithme de Metropolis. On se donne une matrice stochastique, P , sur E telle que, pour tous x, y ∈ E, P (x, y) > 0 ⇐⇒ P (y, x) > 0. (2.4) Cette matrice stochastique, appel´ee matrice de s´election, d´ecrit la mani`ere de visiter l’espace E. On dit que x et y sont voisins si P (x, y) > 0. On d´efinit la fonction ρ par   µ(y)P (y, x) , x, y ∈ E, ρ(x, y) = min 1, µ(x)P (x, y) avec la convention que ρ(x, y) = 1 si µ(x)P (x, y) = 0. D´ecrivons intuitivement l’algorithme de Metropolis. Notons xn = x la valeur observ´ee `a l’´etape n. On choisit un voisin, y, de x avec probabilit´e P (x, y) donn´ee par la matrice de s´election. Avec probabilit´e ρ(x, y), on accepte la transition, et on pose xn+1 = y. Avec probabilit´e 1 − ρ(x, y), on rejette la transition, et on pose xn+1 = x. En particulier, on accepte toujours la transition si µ(y)P (y, x) ≥ µ(x)P (x, y). Plus pr´ecis´ement, soit Y = (Yn,x , n ≥ 1, x ∈ E) et V = (Vn , n ≥ 1) deux suites ind´ependantes de variables al´eatoires ind´ependantes telles que P(Yn,x = y) = P (x, y) pour tous x, y ∈ E et Vn suit la loi uniforme sur [0, 1]. Soit X0 une variable al´eatoire `a valeurs dans E, ind´ependante de Y et V . On d´efinit par r´ecurrence la suite Xn : pour n ≥ 0, Xn+1 = Yn+1,Xn 1{Vn+1 ≤ρ(Xn ,Yn+1,Xn )} + Xn 1{Vn+1 >ρ(Xn ,Yn+1,Xn )} .

(2.5)

Proposition 2.2.1. Le processus X = (Xn , n ≥ 0) d´ecrit par (2.5), est une chaˆıne de Markov de matrice de transition Q d´efinie par  P (x, y)ρ(x, y) si x = y, Q(x, y) = (2.6)  1 − z=x Q(x, z) sinon. La chaˆıne de Markov X est r´eversible par rapport a ` la probabilit´e µ. En particulier, µ est une probabilit´e invariante pour X. D´emonstration. La premi`ere partie de la proposition est une cons´equence directe de la remarque 1.1.6 avec Un = ((Yn,x , x ∈ E), Vn ). Pour d´emontrer la deuxi`eme partie, remarquons que pour x = y, on a

36

2 Recuit simul´e

µ(x)Q(x, y) = µ(x)P (x, y)ρ(x, y) = min(µ(x)P (x, y), µ(y)P (y, x)). Par sym´etrie, on en d´eduit donc que µ(x)Q(x, y) = µ(y)Q(y, x). Ainsi la chaˆıne de Markov X est r´eversible par rapport a` la probabilit´e µ. D’apr`es le lemme 1.3.3 la probabilit´e µ est une probabilit´e invariante. ⊓ ⊔ Proposition 2.2.2. On suppose E fini et µ(x) > 0 pour tout x ∈ E. Si P v´erifie la condition (2.1), alors Q v´erifie (2.1). En particulier X converge en variation vers µ, son unique probabilit´e invariante. Il est crucial, pour l’application au recuit simul´e, de remarquer que pour mettre en œuvre l’algorithme de Metropolis il n’est pas besoin de connaˆıtre explicitement µ, mais seulement les rapports µ(y)/µ(x). Il est donc suffisant de connaˆıtre µ ` a une constante multiplicative pr`es.  µ(y)P (y, x) ; x, y ∈ E, tels que D´emonstration. On pose a = min µ(x)P (x, y)  P (x, y) > 0 . Comme E est fini, on a, d’apr`es (2.4), 0 < a ≤ 1. Ainsi pour x = y, il vient Q(x, y) ≥ aP (x, y). De plus comme Q(x, y) ≤ P (x, y) si x = y, on en d´eduit que Q(x, x) = 1 −



y =x

Q(x, y) ≥ 1 −



y =x

P (x, y) = P (x, x) ≥ aP (x, x).

Cela implique que pour tous x, y ∈ E, on a Q(x, y) ≥ aP (x, y) et aussi Q2 (x, y) =



z∈E

Q(x, z)Q(z, y) ≥ a2



P (x, z)P (z, y) = a2 P (x, y).

z∈E

Par r´ecurrence, on montre que pour tout n ≥ 1, Qn (x, y) ≥ an P n (x, y). En particulier si P v´erifie la condition (2.1), alors Q v´erifie (2.1) avec le mˆeme entier l, la mˆeme probabilit´e c et α remplac´e par αal . On d´eduit alors du th´eor`eme 2.1.2 que X converge en variation vers µ, et que µ est l’unique probabilit´e invariante de X. ⊓ ⊔ La remarque suivante nous servira pour r´esoudre le probl`eme du voyageur de commerce. Remarque 2.2.3. On suppose E fini, µ(x) > 0 pour tout x ∈ E, P irr´eductible tel qu’il existe x, y ∈ E avec P (x, y) > 0 et ρ(x, y) < 1. Soit Q la matrice d´efinie par (2.6). Alors on a Q(x, x) > 0, et la chaˆıne de Markov associ´ee `a Q est ap´eriodique. On observe que si P (x, y) > 0, alors Q(x, y) > 0. En particulier P ´etant irr´eductible, il en est de mˆeme pour Q. On d´eduit de la remarque 2.1.3, que Q v´erifie la condition de Doeblin (2.1). Ainsi, bien que la chaˆıne de Markov associ´ee `a P

2.3 Le recuit simul´e

37

puisse ˆetre p´eriodique, et donc ne pas satisfaire la condition de Doeblin, la conclusion de la proposition 2.2.2 reste encore vraie : la chaˆıne de Markov X associ´ee `a Q converge en variation vers µ, son unique probabilit´e invariante. ♦ Exercice 2.2.4. Soit h une fonction d´efinie sur R+ `a valeurs dans [0, 1[ telle 1 , pour u > 0. que h(0) = 0 et h(u) = uh u u 1. V´erifier que les fonctions u → min(1, u) et u → 1+u satisfont les ´egalit´es ci-dessus. 2. D´emontrer que la chaˆıne  de Markovde matrice de transition d´efinie par µ(y)P (y, x) si µ(x)P (x, y) > 0, et ρ(x, y) = 1 (2.6) avec ρ(x, y) = h µ(x)P (x, y) sinon, est r´eversible par rapport a` la probabilit´e µ. 

2.3 Le recuit simul´ e On suppose E fini, et on se donne H une fonction d´efinie sur E `a valeurs dans R. On cherche a` d´eterminer un point o` u H atteint son minimum, c’esta-dire un point de argmin(H) = {x ∈ E ; H(x) = H} avec H = miny∈E H(y). ` La fonction H est souvent appel´ee ´energie ou fonction d’´energie par analogie avec la physique statistique. 2.3.1 Mesures de Gibbs En physique statistique les mesures de Gibbs d´ecrivent la probabilit´e d’un ´etat x du syst`eme consid´er´e, en fonction de son ´energie et de la temp´erature du syst`eme, voir l’exercice `a la fin de ce paragraphe. D´ efinition 2.3.1. La mesure de Gibbs associ´ee ` a la fonction d’´energie H et a ` la temp´erature T > 0 est la probabilit´e (µT (x), x ∈ E) d´efinie par µT (x) =

1 −H(x)/T e , ZT

 o` u ZT = x∈E e−H(x)/T , appel´ee fonction de partition, est la constante de normalisation. Lorsque la temp´erature d´ecroˆıt vers 0, les mesures de Gibbs se concentrent sur argmin(H). Plus pr´ecis´ement, on a le lemme suivant. Lemme 2.3.2. On a lim+ µT ({x ∈ E ; H(x) > H}) = 0. T →0

38

2 Recuit simul´e

D´emonstration. Comme E est fini, il existe ε > 0 tel que {x ∈ E ; H(x) > H} = {x ∈ E ; H(x) ≥ H + ε}. On a ZT ≥ e−H/T Card (argmin(H)). Il vient µT ({x ; H(x) ≥ H + ε}) = ≤



x∈E ; H(x)≥H+ε



x∈E

e−H/T

= e−ε/T

1 −H(x)/T e ZT

1 e−(H+ε)/T Card (argmin(H))

Card (E) . Card (argmin(H))

On en d´eduit donc que limT →0+ µT ({x ; H(x) ≥ H + ε}) = 0.

⊓ ⊔

Enfin, on utilisera par la suite la majoration suivante de la distance, pour la norme en variation, entre deux mesures de Gibbs associ´ees `a la mˆeme fonction d’´energie. Lemme 2.3.3. Soit ∆(H) = maxx∈E H(x) − H. On a 1 1 µT − µT ′  ≤ − ′ ∆(H). T T

D´emonstration. La mesure de Gibbs reste inchang´ee si on remplace H par H − a. Quitte a` choisir a = minx∈E H(x), on peut donc supposer que H ≥ 0 et H = 0. Supposons que T ≥ T ′ . Rappelons que 0 ≤ 1 − e−z ≤ z pour tout z ≥ 0. Comme ( T1′ − T1 )H(x) ≥ 0, on a ′ 1 −H(x)/T − e−H(x)/T = e−H(x)/T 1 − e−( T ′ e ≤

Il vient



1 T



)H(x)

1 1 max(H(y)) e−H(x)/T . − ′ T T y∈E

1 ′ 1 −H(x)/T ∆(H) e−H(x)/T . − e−H(x)/T ≤ (2.7) − e ′ T T

1  ′ 1 ∆(H)ZT , − On obtient |ZT − ZT ′ | ≤ e−H(x)/T − e−H(x)/T ≤ T′ T x∈E puis en divisant par ZT ZT ′ , 1 1 1 1 1 ∆(H) − − . ≤ ZT ZT ′ T′ T ZT ′

(2.8)

2.3 Le recuit simul´e

39

Enfin on remarque que  1 1 −H(x)/T ′ −H(x)/T e − 2 µT − µT ′  = ZT e ZT ′ x∈E  1 1  −H(x)/T ′ −H(x)/T −H(x)/T ′ 1 −e e + − ≤ e ZT ZT ZT ′ x∈E x∈E

1 1 ∆(H), ≤2 − T′ T

o` u l’on a utilis´e (2.7), (2.8) et le fait que µT et µT ′ sont des probabilit´es pour la derni`ere in´egalit´e. ⊓ ⊔ Les mesures de Gibbs et les lois de Boltzmann apparaissent naturellement lorsque l’on d´esire affecter des probabilit´es aux ´etats quantifi´es d’un syst`eme dont on connaˆıt l’´energie moyenne. L’exercice suivant a pour but de pr´esenter ces mod´elisations. Exercice 2.3.4. Soit E l’ensemble fini des ´etats d’un syst`eme. On note H(x) l’´energie correspondant a` l’´etat x. On suppose que l’´energie moyenne H est connue. On a  H(x)p(x), (2.9) H = x∈E

o` u p(x) est la probabilit´e pour que le syst`eme soit dans l’´etat x. On recherche la probabilit´e qui satisfait (2.9) et qui contient le moins d’information. On peut, voir les travaux de Shannon (1948) sur l’information,  quantifier l’information contenue dans p par son entropie : S(p) = − x∈E p(x) log(p(x)) (avec la convention 0 log(0) = 0). L’information totale correspond au cas o` u l’on sait avec certitude que l’on est dans l’´etat x0 : la loi de probabilit´e est alors p(x) = 1{x=x0 } et S(p) = 0. L’entropie est alors minimale. On peut v´erifier que l’entropie est maximale pour la loi uniforme qui mod´elise l’absence d’information. Nous retiendrons le principe g´en´eral suivant : pour d´eterminer un mod`ele, on recherche une loi de probabilit´e sur E qui maximise l’entropie en tenant compte des contraintes qui traduisent les informations a priori sur le mod`ele. On consid`ere les lois de Boltzmann, νβ , d´efinies par νβ (x) = Z1′ e−βH(x) , β  −βH(x) e , et β ∈ R. L’objectif de cet exercice est x ∈ E, avec Zβ′ = x∈E de d´emontrer qu’il existe une unique valeur, β0 ∈ R, telle que la probabilit´e νβ0 v´erifie l’´equation (2.9), et que νβ0 est l’unique probabilit´e qui maximise l’entropie sous la contrainte (2.9). On suppose que l’´energie de tout ´etat est finie et qu’il existe y, y ′ ∈ E tels que H(y ′ ) < H < H(y). 1. En utilisant par exemple le th´eor`eme des multiplicateurs  de Lagrange, montrer que si p ∈]0, 1[E maximise S(p) sous les contraintes x∈E p(x) = 1 et (2.9), alors p est une loi de Boltzmann.

40

2 Recuit simul´e

2. V´ (2.9) pour νβ se r´ecrit ϕ(β) = 0 avec ϕ(b) = erifier que la contrainte −b(H(x)− H ) (H(x) − H) e . Montrer que la fonction ϕ est strictex∈E ment d´ecroissante sur R et admet un seul z´ero. En d´eduire qu’il existe une unique valeur, β0 ∈ R, telle que νβ0 satisfasse (2.9).

3. Soit q une probabilit´e v´erifiant (2.9) et telle que qz = 0 pour un certain z ∈ E. Quitte a` changer H par −H, on peut supposer que H(z) ≤ H. V´erifier qu’il existe a ∈]0, 1] tel que aHz + (1 − a)Hy = H. On d´efinit la probabilit´e q ε par qzε = εa, qyε = (1 − ε)qy + ε(1 − a) et qxε = (1−ε)qx pour x ∈ {z, y}. Montrer que la probabilit´e q ε satisfait (2.9) ∂S(q ε ) = +∞. et que lim ∂ε ε→0+ 4. En d´eduire que νβ0 est l’unique probabilit´e qui v´erifie (2.9) et qui maximise l’entropie. 5. Montrer que S(νβ0 ) = β0 H + log(Zβ′ 0 ).

Quitte a` changer le signe de la fonction d’´energie, on remarque que, si β = 0, la loi de Boltzmann est une mesure de Gibbs.  2.3.2 Un r´ esultat partiel Soit P une matrice stochastique irr´eductible sym´etrique, i.e. P (x, y) = P (y, x) pour tous x, y ∈ E. Cette derni`ere condition assure que (2.4) est v´erifi´ee. Un sch´ema de temp´erature est une suite (Tn , n ∈ N∗ ) a` valeurs dans R∗+ . Pour all´eger les notations, on note µn , pour µTn , la mesure de Gibbs associ´ee `a la fonction d’´energie H et `a la temp´erature Tn . On consid`ere X = (Xn , n ≥ 0) une chaˆıne de Markov non-homog`ene de u Qn est d´efinie par (2.6) avec µ remplac´e matrice de transition (Qn , n ≥ 1), o` par µn . Comme P est sym´etrique, on remarque que  + P (x, y) e−[H(y)−H(x)] /Tn si x = y, (2.10) Qn (x, y) =  sinon, 1 − z=x Qn (x, z)

o` u a+ = max(a, 0) d´esigne la partie positive de a. On s’attend a` ce que la loi de Xn soit proche de la mesure de Gibbs µn , et donc au vu du lemme 2.3.2 que limn→∞ P(H(Xn ) > H) = 0 si limn→∞ Tn = 0. Nous pr´ecisons les conditions sous lesquelles ce r´esultat intuitif est vrai.

Proposition 2.3.5. On suppose que P est sym´etrique irr´eductible et satisfait la condition de Doeblin (2.1). Il existe H0 tel que pour tout h > H0 , si l’on consid`ere le sch´ema de temp´erature (Tn , n ≥ 1) d´efini par Tn = h/ log(n), alors pour toute loi ν0 de X0 , on a lim νn − µn  = 0,

n→∞

o` u νn est la loi de Xn . En particulier, on a lim P(H(Xn ) > H) = 0. n→∞

2.3 Le recuit simul´e

41

La constante H0 que nous calculerons n’est pas optimale a priori, nous reviendrons sur cette question au paragraphe 2.3.3. Avant de d´emontrer la proposition 2.3.5, nous ´enon¸cons un lemme pr´eliminaire. Soit κ = max (H(y) − H(x)) 1{P (x,y)>0} . x,y∈E

Comme P est sym´etrique, on a κ ≥ 0. La quantit´e κ repr´esente le saut maximal d’´energie que la chaˆıne de Markov de matrice de transition P peut franchir en une ´etape. Lemme 2.3.6. On suppose que P satisfait la condition de Doeblin (2.1) avec α > 0, l ∈ N∗ . On consid`ere le sch´ema de temp´erature d´efini par Tn = h/ log(n), pour n ≥ 1. Pour toutes probabilit´es µ et µ′ sur E, n ≥ 1, on a 

(µ − µ′ )Qn+1 · · · Qn+l  ≤ 1 − α e−κl log(n+l)/h µ − µ′ . D´emonstration. Soit p ∈ N∗ . On a la minoration de Qp suivante si x = y : Qp (x, y) = e−[H(y)−H(x)]

+

/Tp

P (x, y) ≥ e−κ/Tp P (x, y).

On a ´egalement la majoration Qp (x, y) ≤ P (x, y) si x = y. On en d´eduit   Qp (x, x) = 1 − Qp (x, y) ≥ 1 − P (x, y) = P (x, x) ≥ e−κ/Tp P (x, x). y =x

y =x

On a donc pour tous x, y ∈ E, Qp (x, y) ≥ e−κ/Tp P (x, y). Comme P satisfait (2.1), on en d´eduit que pour tous x, y ∈ E, −κ( T

Qn+1 · · · Qn+l (x, y) ≥ e

1 n+1

+···+ T

1 n+l

)

P l (x, y) ≥ e−κl log(n+l)/h αc(y),

o` u la probabilit´e c est celle qui apparaˆıt dans (2.1). En introduisant la matrice stochastique P ′ = Qn+1 · · · Qn+l et α′ = e−κl log(n+l)/h α, on a pour tous x, y ∈ E, P ′ (x, y) ≥ α′ c(y). Le mˆeme raisonnement que celui de la d´emonstration de l’in´egalit´e (2.2) assure alors que (µ − µ′ )P ′  ≤ (1 − α′ ) (µ − µ′ ) . ⊓ ⊔ D´emonstration de la proposition 2.3.5. Soit h > 0. On consid`ere le sch´ema de temp´erature (Tn = h/ log(n), n ≥ 1). Soit n ∈ N∗ . Rappelons que µn Qn = µn . Il est facile de v´erifier par r´ecurrence que la loi de Xn est νn = ν0 Q1 . . . Qn . Soit n, m ∈ N∗ . Il vient νn+m = νn Qn+1 · · · Qn+m . On en d´eduit donc que νn+m − µn+m

= (νn − µn )Qn+1 · · · Qn+m + µn Qn+1 · · · Qn+m − µn+m m  (µn+k−1 − µn+k )Qn+k · · · Qn+m . = (νn − µn )Qn+1 · · · Qn+m + k=1

42

2 Recuit simul´e

On d´eduit de (2.3) avec P remplac´e par Qn+k · · · Qn+m , que pour k ∈ {1, . . . , m}, (µn+k−1 − µn+k )Qn+k · · · Qn+m  ≤ µn+k−1 − µn+k . On en d´eduit donc que pour n, m ∈ N∗ , νn+m − µn+m  ≤ (νn − µn )Qn+1 · · · Qn+m  +

m 

k=1

µn+k−1 − µn+k .

(2.11) En reprenant l’in´egalit´e ci-dessus avec n = jl et m = l, on d´eduit des lemmes 2.3.6 et 2.3.3 que pour j ∈ N∗ , l      ν(j+1)l − µ(j+1)l)  ≤ (νjl − µjl )Qjl+1 · · · Q(j+1)l  + µjl+k−1 − µjl+k  k=1

≤ (1 − αj ) νjl − µjl  +bj ,

l  log(jl + k) − log(jl + k − 1) ∆(H) = avec αj = α e−κl log(jl+l)/h et bj = h k=1   j+1 ∆(H) log . Si on pose zj = νjl − µjl , il vient pour j ∈ N∗ , zj+1 ≤ h j (1 − αj )zj + bj . Le lemme d´eterministe qui suit, et dont la d´emonstration est report´ee `a la fin de ce paragraphe, permet de conclure que la suite (zj , j ≥ 1) converge vers 0 quand j tend vers l’infini.

Lemme 2.3.7. Soit (αn , n ≥ 1) et (bn , n ≥ 1) deux suites positives telles que αn ∈]0, 1[ pour tout n ≥ 1. Soit (zn , n ≥ 1) une suite telle que z1 ≥ 0 et v´erifiant pour tout n ≥ 1 zn+1 ≤ (1 − αn )zn + bn . Si



n≥1

αn = +∞ et lim

n→∞

(2.12)

bn = 0, alors on a lim zn = 0. n→∞ αn

Par d´efinition de αj et bj , on a les ´equivalents suivants quand j tend κl bj vers l’infini : αj ∼ aj −κl/h , avec a > 0, et ∼ a′ j −1+ h avec a′ > 0. αj En particulier, si h > H0 avec H0 = κl, les conditions du lemme 2.3.7 sont satisfaites. On obtient alors que limj→∞ νjl − µjl  = 0. Enfin pour tout p ∈ {1, . . . , l − 1}, on d´eduit de (2.11) avec n = jl et m = p, de (2.3) avec P = Qjl+1 · · · Qjl+p et du lemme 2.3.3 que   jl + p νjl+p − µjl+p  ≤ νjl − µjl  +∆(H) log . jl En particulier, cela implique que si h > H0 , limn→∞ νn − µn  = 0.

2.3 Le recuit simul´e

On a pour n ∈ N∗ ,

 |P(H(Xn ) > H) − µn ({x ; H(x) > H})| =

43

(νn (x) − µn (x))

x ; H(x)>H

≤ 2 νn − µn  .

Comme, d’apr`es le lemme 2.3.2, limn→∞ µn ({x ; H(x) > H}) = 0, on d´eduit ⊓ ⊔ de ce qui pr´ec`ede que, si h > H0 , alors lim P(H(Xn ) > H) = 0. n→∞

D´emonstration du lemme 2.3.7. On pose A1 = 1 et pour n ≥ 2, An = 1 . On a en multipliant (2.12) par An+1 que An+1 zn+1 ≤ An zn + 1 − αi i=1 An+1 bn . On en d´eduit par r´ecurrence que pour n ≥ 2,

n−1 

An zn ≤ A1 z1 +

n−1 

Ai+1 bi .

i=1

Il suffit alors de remarquer que A1 = 1 et Ai+1 = la majoration zn ≤

1 (Ai+1 − Ai ) pour obtenir αi

n−1 z1 1  bi + (Ai+1 − Ai ). An An i=1 αi

(2.13)

n−1 La suite (An , n ≥ 1) est une suite croissante. On a log(An ) = − i=1 log(1 − n−1  αi ) ≥ i=1 αi . Comme la s´erie i≥1 αi diverge, la suite (An , n ≥ 0) diverge. Ainsi le premier terme du membre de gauche de (2.13) converge vers 0 quand n tend vers l’infini. Montrons que le second terme du membre de gauche de (2.13) converge bi = 0, ´egalement vers 0 quand n tend vers l’infini. Soit ε > 0. Comme lim i→∞ αi la suite (bi /αi , i ≥ 1) est major´ee par une constante que nous notons M et il existe i0 ≥ 2 tel que pour tout i ≥ i0 , on bi /αi ≤ ε/2. Comme la suite (An , n ≥ 1) diverge, il existe n0 ≥ i0 tel que pour tout n ≥ n0 , on a eduit que pour tout n ≥ n0 , on a A−1 n ≤ ε/(2M Ai0 ). On en d´ n−1 ε An − Ai0 1 1  bi (Ai+1 − Ai ) ≤ M (Ai0 − A1 ) + ≤ ε. An i=1 αi An 2 An n−1 1  bi (Ai+1 − Ai ) = 0. On en d´eduit alors que n→∞ An α i=1 i ⊓ ⊔

Cela implique lim lim zn = 0.

n→∞

44

2 Recuit simul´e

2.3.3 R´ esultats th´ eoriques Nous ´enon¸cons sans d´emonstration des r´esultats pr´ecis sur le comportement asymptotique du recuit simul´e. Soit x ∈ E, tel que H(x) > H. On dit que γ = (x0 , . . . , xn ) est un chemin possible de x ` a argmin(H) si x0 = x, xn ∈ argmin(H) et si P (xk , xk+1 ) > 0 pour 0 ≤ k < n. La barri`ere d’´energie franchie par ce chemin est H(γ) = max0≤k≤n−1 H(xk ) − H. Soit Γx l’ensemble des chemins possibles de x `a argmin(H). On note Hx∗ = min H(γ), γ∈Γx

le minimum des barri`eres d’´energie franchies sur tous les chemins possibles de x` a argmin(H). On note H ∗ = maxx ; H(x)>H Hx∗ la plus haute de ces barri`eres d’´energie. Pour tout x, tel que H(x) > H, il existe un chemin possible de x `a argmin(H) dont la barri`ere d’´energie est inf´erieure ou ´egale `a H ∗ . Remarquons que la quantit´e H ∗ d´epend de la fonction d’´energie H, mais aussi de la matrice de s´election. Le r´esultat suivant est dˆ u a` Hajek [5]. Th´ eor` eme 2.3.8. On a limn→∞ P(H(Xn ) > H) = 0 si et seulement si ∞  ∗ e−H /Tn = +∞. limn→∞ Tn = 0 et n=1

En particulier, si on consid`ere des sch´emas de temp´erature de la forme Tn = h/ log(n), ou constants par morceaux avec Tn = 1/k pour e(k−1)h ≤ n < ekh , alors le th´eor`eme pr´ec´edent assure que limn→∞ P(Xn > H) = 0 si et seulement si h ≥ H ∗ . De plus, des r´esultats difficiles permettent de d´emontrer que pour tout sch´ema de temp´erature d´ecroissant, pour tout ε > 0, on a min lim sup − x∈E

n→∞

1 ε log(P(H(Xn ) ≥ H + ε|X0 = x)) ≤ ∗ . log(n) H

Ceci donne une minoration de la vitesse de convergence du recuit simul´e. En fait, la convergence est d’autant plus rapide que h est proche de H ∗ . Toutefois, en pratique on utilise l’algorithme du recuit simul´e avec un horizon, i.e. un nombre d’´etapes, fini N . Les sch´emas les plus efficaces th´eoriquement sont les sch´emas de temp´erature en puissance qui d´ependent de N , voir les travaux de Catoni [3], paragraphe 7.8, et Trouv´e [10]. Plus pr´ecis´ement, si on introduit la difficult´e associ´ee `a H : D=

x;

Hx∗ − (H(x) − H) , H(x) − H H(x)>H max

on a le r´esultat suivant (voir [2] th´eor`emes 5, 6 et 7) Th´ eor` eme 2.3.9. Il existe deux constantes K2 ≥ K1 > 0 telles que pour tout N ≥ 1,

2.4 Le probl`eme du voyageur de commerce

45

K2 K1 P(H(XN ) > H|X0 = x) ≤ 1/D . ≤ max inf x∈E T0 ≥···≥TN N 1/D N Et pour tout A > 0, il existe d > 0 tel que pour tout N , le sch´ema de n/N

(N ) (N ) log(N )2 1 , satisfait temp´erature (T0 , . . . , TN ) d´efini par (N ) = A A Tn

max P(H(XN ) > H|X0 = x) ≤ d x∈E



log(N ) log(log(N )) N

1/D

.

2.4 Le probl` eme du voyageur de commerce Reprenons l’exemple du voyageur de commerce. On consid`ere N villes. Une permutation, σ, de {1, . . . , N } est identifi´ee au trajet ayant la ville σ1 pour point de d´epart et d’arriv´ee, et joignant les villes σi `a σi+1 pour 1 ≤ i ≤ N −1. L’espace d’´etat est l’ensemble des permutations de {1, . . . , N }, E = SN , et la fonction d’´energie, H, ´evalu´ee en σ correspond a` la longueur du trajet associ´e a σ. ` On d´efinit la matrice de s´election, P1 , de la mani`ere suivante : partant d’une permutation σ = (σ1 , . . . , σN ), on choisit uniform´ement et ind´ependamment deux villes i et j parmi les N villes, et on les ´echange. Ainsi, si i < j, ur si i = j, alors le nouveau trajet est σ ′ = (σ1 , . . . , σj , . . . , σi , . . . , σN ). Bien sˆ σ ′ = σ. La figure 2.1 donne un exemple de deux trajets voisins distincts pour N = 6. En tenant compte du fait que σ est voisin de lui-mˆeme, on obtient que la N (N − 1) + 1 voisins. La matrice de s´election permutation σ a exactement 2 est donn´ee par ⎧ 2 ⎪ ⎨P1 (x, y) = N 2 si x et y sont voisins et x = y, P1 (x, x) = N1 , ⎪ ⎩ P1 (x, y) = 0 si x et y ne sont pas voisins. La matrice P1 est sym´etrique.

4

4

3

3 i=2

2 5

j=5

6

6 1

1

Fig. 2.1. Deux trajets voisins pour la matrice de s´election P1

46

2 Recuit simul´e

V´erifions maintenant qu’elle satisfait la condition de Doeblin (2.1). On   dit que τ ∈ SN est une transposition si Card {i ∈ {1, . . . , N } ; τi = i} = 2. Pour x = (x1 , . . . , xN ), y = (y1 , . . . , yN ) ∈ SN , on note y ◦ x la permutation (yx1 , . . . , yxN ). Remarquons que x et y sont voisins si et seulement si y = x ou bien il existe une transposition τ telle que y = τ ◦x. Toute permutation y peut s’´ecrire comme la compos´ee d’une permutation x quelconque et d’au plus N −1 u τi est soit une transpositions. Pour tous x, y ∈ E, il existe τ1 , . . . , τN −1 , o` transposition soit l’identit´e, tels que y = τN −1 ◦ · · · τ1 ◦ x. Remarquons enfin que comme x et τ ◦ x sont voisins, on a P1 (x, τ ◦ x) ≥ N22 . On en d´eduit que  N −1 . La condition (2.1) est donc satisfaite avec l = N − 1, P1N −1 (x, y) ≥ N22 α = N !2N −1 N −2N +2 et pour c la probabilit´e uniforme sur E. Dans l’algorithme du recuit simul´e, il est important de visiter de nouveaux voisins afin d’explorer plusieurs valeurs de H. La probabilit´e P1 (x, x) est ici ´elev´ee, et elle ralentit l’algorithme du recuit simul´e. L’exercice suivant propose une solution pour rem´edier a` ce probl`eme. Exercice 2.4.1. On dit que x et y sont voisins si et seulement s’il existe une transposition τ telle que y = τ ◦ x. On consid`ere la matrice de s´election P2 d´efinie par  P2 (x, y) = N (N2−1) si x et y sont voisins, P2 (x, y) = 0

sinon.

1. Montrer que la chaˆıne de Markov de matrice de transition P2 est p´eriodique de p´eriode d = 2. On pourra regarder l’´evolution de la signature de la permutation Xn . On rappelle que la signature est l’unique application de SN dans {−1, 1} telle que la signature d’une transposition est ´egale `a −1, la signature de la permutation identit´e est ´egale `a 1, et la signature de la permutation de x ◦ y est le produit de la signature de x par celle de y.

2. En d´eduire que P2 ne v´erifie pas la condition de Doeblin (2.1). 3. V´erifier que P2 est irr´eductible.

4. Pour quelles valeurs de N la fonction H n’est-elle pas constante ? Dans ces cas, d´eduire de la remarque 2.2.3 que la conclusion de la proposition 2.3.5 reste vraie avec P remplac´ee par P2 .  Le choix de la matrice de s´election est crucial pour la vitesse de convergence du recuit simul´e. Sur le probl`eme du voyageur de commerce, on constate empiriquement que la convergence est plus rapide si l’on choisit la matrice de s´election P3 correspondant au m´ecanisme suivant qui g´en´eralise celui associ´e a P1 . Partant d’une permutation x, on choisit k villes distinctes au hasard, ` et on effectue une permutation al´eatoire sur les k villes choisies. Les valeurs k = 3 ou k = 4 donnent des r´esultats acceptables. Nous mentionnons la variante P4 , qui donne en g´en´eral de meilleurs r´esultats. Partant d’une permutation x = (x1 , . . . , xN ), on choisit 2 villes distinctes au hasard que l’on permute en changeant le sens de parcours des

2.4 Le probl`eme du voyageur de commerce

47

4

4

3

3 i=2

2 5

j=5

6

6 1

1

Fig. 2.2. Deux trajets voisins pour P4

villes entre i et j. Par exemple si 3 ≤ i < j ≤ N − 2, la nouvelle permutation est (x1 , . . . , xi−1 , xj , xj−1 , . . . , xi+1 , xi , xj+1 , . . . , xN ). La figure 2.2 donne un exemple de deux trajets voisins distincts pour N = 6 (comparer avec la Fig. 2.1). Enfin, la matrice de s´election P0 , d´efinie par P0 (x, y) = 1/N !, pour laquelle tous les trajets sont voisins les uns des autres donne de tr`es mauvais r´esultats. Cette variante revient a` ´enum´erer les chemins au hasard. La notion de voisinage a pour but d’explorer plus rapidement les points qui minimisent H. Pour ˆetre pertinent dans le choix de la matrice de s´election, il faut tenir compte des sp´ecificit´es du probl`eme consid´er´e. Dans le cas du voyageur de commerce, un trajet qui se croise, comme par exemple les trajets de droite des Figs. 2.1 et 2.2, n’est pas optimal. On peut ´eliminer un croisement en une ´etape du recuit simul´e avec la matrice de s´election P4 , ce n’est pas le cas en g´en´eral avec les matrices de s´election P1 , P2 ou P3 . Par exemple pour 50 villes, on a obtenu les r´esultats suivants pour des simulations avec les diff´erentes matrices de s´election et diff´erents sch´emas de temp´erature. On remarque que les meilleurs r´esultats sont obtenus pour la matrice de s´election P4 qui, nous l’avons vu, est bien adapt´ee au probl`eme consid´er´e, et pour des sch´emas de temp´erature qui d´ecroissent plus vite vers 0 qu’en γ/ log(n). La figure 2.3 pr´esente le trajet initial, le trajet obtenu apr`es 25 000 et N0 = 50 000 it´erations ainsi que le trajet optimal pour un sch´ema de temp´erature en γ/n. Dans la figure 2.5 nous repr´esentons l’´evolution de la longueur des trajets pour 50 000 it´erations du recuit simul´e avec divers sch´emas de temp´erature. Pour les sch´emas de la forme γ/ log(n) on observe une convergence pour γ faible vers un minimum local, et un comportement encore chaotique pour γ ´elev´e. Le r´esultat obtenu pour le sch´ema de temp´erature donn´e dans la deuxi`eme partie du th´eor`eme 2.3.9 au facteur multiplicatif pr`es, voir la Fig. 2.4, est sur cette simulation moins bon que celui obtenu pour un sch´ema de temp´erature de la forme γ/n. Enfin, dans la figure 2.6, on observe l’´evolution de la longueur des trajets pour les matrices de s´election P0 , P1 , P3 et P4 et des vitesses de la forme γ/n. On constate que la matrice de s´election P0 , correspondant a` un choix uniforme sur tous les trajets, donne de mauvais

48

2 Recuit simul´e Trajet initial

Trajet obtenu apres 50 000 iterations

Trajet obtenu apres 25 000 iterations

Trajet optimal sur 50 000 iterations

´ Fig. 2.3. Evolution des trajets au cours d’une simulation du recuit simul´e avec matrice de s´election P4 et sch´ema de temp´erature Tn = γ/n Trajet initial

Trajet obtenu apres 50 000 iterations

Trajet obtenu apres 25 000 iterations

Trajet optimal sur 50 000 iterations

´ Fig. 2.4. Evolution des trajets au cours d’une simulation du recuit simul´e avec matrice de s´election P4 et sch´ema de temp´erature Tn = 2 log(N0 )−2n/N0 , avec N0 = 50 000

r´esultats et que la matrice de s´election P4 semble la plus adapt´ee au probl`eme du voyageur de commerce. En conclusion, l’algorithme du recuit simul´e est un algorithme stochastique qui permet de trouver un ou plusieurs points qui r´ealisent le minimum de H, en fait un minimum local, pour une fonction quelconque. Il est simple d’utilisation, mais le choix de la matrice de s´election est crucial. Enfin le r´eglage

2.4 Le probl`eme du voyageur de commerce

49

5.00

5.00 Trajet optimal de longueur 0.825

Tn = γ n

Tn = 2log(N0) 2n N0

Trajet optimal de longueur 0.814

0.50

0.50 0

25 000

0

50 000

5.00

25 000

50 000

5.00

Tn = 5γ0 log(n)

Tn = γ0 log(n)

Trajet optimal de longueur 1.599

Trajet optimal de longueur 0.855

0.50

0.50 0

25 000

50 000

0

25 000

50 000

´ Fig. 2.5. Evolution de la longueur des trajets au cours de N = 50 000 it´erations du recuit simul´e avec la matrice de s´election P4 et divers sch´emas de temp´erature

5.00

5.00 Matrice de sélection P0

Matrice de selection P1 Trajet optimal de longueur 1.064

Trajet optimal de longueur 3.160

0.50

0.50 0

25 000

50 000

0

25 000

50 000

5.00

5.00

Matrice de selection P4

Matrice de sélection P3 avec permutation de 4 villes

Trajet optimal de longueur 0.814

Trajet optimal de longueur 1.126

0.50

0.50 0

25 000

50 000

0

25000

50000

´ Fig. 2.6. Evolution de la longueur des trajets au cours de N = 50 000 it´erations du recuit simul´e avec un sch´ema de temp´erature en γ/n et diff´erentes matrices de s´election. La constante γ n’est pas la mˆeme suivant les matrices de s´election

50

2 Recuit simul´e

des sch´emas de temp´erature se fait de mani`ere empirique en consid´erant l’´evolution de l’´energie. Par exemple, on d´esire ´eviter les r´esultats observ´es sur les deux diagrammes du bas de la Fig. 2.5 : pas de convergence (diagramme de gauche) et convergence trop brutale (diagramme de droite) vers un minimum local. On recherche plutˆ ot des comportements similaires `a ceux observ´es dans les deux diagrammes du haut de la Fig. 2.5, o` u une longue s´equence d’exploration (´evolution chaotique de l’´energie) est suivie par une s´equence de d´ecroissance de l’´energie.

R´ ef´ erences 1. N. Bartoli et P. Del Moral. Simulation et algorithmes stochastiques. C´epadu`es, 2001. 2. O. Catoni. Metropolis, simulated annealing, and iterated energy transformation algorithms : theory and experiments. J. Complexity, 12(4) : 595–623, 1996. Special issue for the Foundations of Computational Mathematics Conference (Rio de Janeiro, 1997). 3. O. Catoni. Simulated annealing algorithms and Markov chains with rare transitions. In S´eminaire de probabilit´ es XXXIII, volume 1709 de Lect. Notes Math., pages 69–119. Springer, 1999. 4. M. Duflo. Algorithmes stochastiques, volume 23 de Math´ematiques & Applications. Springer, Berlin, 1996. 5. B. Hajek. Cooling schedules for optimal annealing. Math. Oper. Res., 13(2) : 311–329, 1988. 6. W. Hastings. Monte carlo sampling methods using markov chains and their applications. Biometrika, 57 : 97–109, 1970. 7. E. Lawler, J. Lensra, A.R. Kan et D. Shmoys. The traveling salesman problem. Wiley, New-York, 1987. 8. N. Metropolis, A.W. Rosenbluth, M.N. Rosenbluth, E. Teller et A.H. Teller. Equation of state calculations by fast computing machines. J. Chem. Phys., 90 : 233–241, 1953. 9. G. Reinelt. The traveling salesman. Computational solutions for TSP applications, volume 840 de Lecture Notes in Computer Science. Springer-Verlag, Berlin, 1994. 10. A. Trouv´e. Rough large deviation estimates for the optimal convergence speed exponent of generalized simulated annealing algorithms. Ann. Inst. H. Poincar´ e Probab. Statist., 32(3) : 299–348, 1996. 11. B. Ycart. Mod`eles et algorithmes markoviens, volume 39 de Math´ematiques & Applications. Springer, Berlin, 2002.

3 Gestion des approvisionnements

Ce chapitre est consacr´e `a l’´etude de la gestion du stock d’un produit, une pi`ece de rechange automobile par exemple, sur plusieurs p´eriodes de temps. Au d´ebut de chaque p´eriode, le gestionnaire du stock effectue une commande aupr`es de son fournisseur ; pendant la p´eriode, la quantit´e command´ee est livr´ee et des clients formulent des demandes que le gestionnaire peut ou non satisfaire suivant le stock dont il dispose. On appelle strat´egie du gestionnaire la mani`ere dont il d´ecide de la quantit´e command´ee en fonction du pass´e. L’objectif du chapitre est de caract´eriser les strat´egies optimales en termes de minimisation du coˆ ut total qui s’exprime comme la somme du coˆ ut d’achat du produit aupr`es du fournisseur, du coˆ ut de stockage et du coˆ ut associ´e aux demandes de clients qui n’ont pu ˆetre honor´ees faute de stock. Bien entendu, minimiser la somme du coˆ ut d’achat et du coˆ ut de stockage et minimiser le coˆ ut associ´e aux demandes non satisfaites sont des objectifs antagonistes. Dans le premier paragraphe, nous commen¸cons par r´esoudre le probl`eme d’optimisation sur une seule p´eriode de temps avant de d´ecrire pr´ecis´ement le probl`eme dynamique de gestion de stock sur plusieurs p´eriodes de temps. Le second paragraphe est consacr´e `a une introduction au contrˆ ole de chaˆınes de Markov, dans un cadre qui englobe le probl`eme dynamique de gestion de stock. L’objectif est de montrer comment le principe de la programmation dynamique introduit par Bellman [1] a` la fin des ann´ees 1950 permet de ramener l’´etude d’un probl`eme d’optimisation a` N p´eriodes de temps `a celle de N probl`emes `a une seule p´eriode de temps. Nous illustrons sur le probl`eme dit de la secr´etaire comment ce principe permet d’expliciter la strat´egie optimale d’un recruteur. On suppose que le recruteur sait classer les N candidats `a un poste qui se pr´esentent successivement pour passer un entretien avec lui et que tout candidat qui ne re¸coit pas de r´eponse positive lors de son entretien trouve un emploi ailleurs. Pour maximiser la probabilit´e de choisir le meilleur des N candidats lors de cette proc´edure, le recruteur doit d’abord observer une proportion proche de 1/e de candidats sans les recruter, puis choisir ensuite tout candidat meilleur que ceux qu’il observ´es (si aucun candidat meilleur ne se pr´esente ensuite, il recrute le dernier candidat qu’il re¸coit).

52

3 Gestion des approvisionnements

Enfin, dans le troisi`eme paragraphe, nous utilisons les r´esultats du second paragraphe pour d´eterminer les strat´egies optimales du gestionnaire de stock dans le mod`ele dynamique : a` chaque instant, lorsque le stock est ´egal `a x, le gestionnaire doit commander la quantit´e 1{x≤s} (S − x)+ qui permet de se ramener au stock objectif S si le stock est inf´erieur au seuil s, o` u le couple (s, S) peut d´ependre ou non du temps.

3.1 Le mod` ele probabiliste de gestion de stock 3.1.1 Le mod` ele ` a une p´ eriode de temps Ce mod`ele comporte un seul produit et une seule p´eriode de temps. Au d´ebut de la p´eriode, pour satisfaire les besoins de sa client`ele, un gestionnaire (par exemple un vendeur de journaux) commande une quantit´e q de produit qui lui est factur´ee au coˆ ut unitaire c > 0 par le fournisseur. Il est souvent naturel de supposer que le produit se pr´esente sous forme d’unit´es (cas des journaux par exemple), auquel cas q ∈ N. Mais on peut aussi se placer dans un cadre continu (cas d’un liquide comme l’essence par exemple) et supposer q ∈ R+ , ce qui simplifie parfois le probl`eme d’optimisation. Comme la demande des clients sur la p´eriode de temps n’est pas connue du gestionnaire au moment o` u il effectue sa commande, il est naturel de la mod´eliser par une variable al´eatoire D ` a valeurs dans N ou R+ . On suppose que D est d’esp´erance finie E[D] = µ et que l’on connaˆıt sa loi au travers de sa fonction de r´epartition F (x) = P(D ≤ x). ` l’issue de la p´eriode trois situations sont possibles : A – q = D : le gestionnaire a vis´e juste. – q > D i.e. il y a (q − D) unit´es de produit en surplus. On associe a` ut de ce surplus un coˆ ut unitaire cS qui correspond par exemple au coˆ stockage sur la p´eriode. Notons que l’on peut supposer cS n´egatif pour rendre compte de la possibilit´e de retourner le surplus au fournisseur (c’est le cas pour les journaux qui sont repris par les Nouvelles Messageries de la Presse Parisienne). Dans ce cas, il est naturel de supposer que c > −cS i.e. que le prix auquel le fournisseur reprend le surplus est plus petit que le coˆ ut unitaire c auquel le gestionnaire se fournit. Nous supposerons donc d´esormais que c > 0 et c > −cS . – q < D : on appelle manquants les demandes que le gestionnaire n’a pu satisfaire. On associe aux D − q manquants un coˆ ut unitaire cM ≥ 0 qui rend compte de la d´et´erioration de l’image du gestionnaire aupr`es des clients non servis. L’objectif pour le gestionnaire est de trouver q ≥ 0 qui minimise l’esp´erance du coˆ ut total g(q) = cq + cS E[(q − D)+ ] + cM E[(D − q)+ ]

(3.1)

3.1 Le mod`ele probabiliste de gestion de stock

53

o` u pour y ∈ R, y + = max(y, 0) d´esigne la partie positive de y. Mˆeme si la quantit´e command´ee est positive, nous allons supposer que la fonction g est d´efinie sur R car cela sera utile lorsque nous introduirons un coˆ ut fixe d’approvisionnement et un stock initial. V´erifions que g est continue. Comme la demande D est positive, pour q ≤ 0, (D−q)+ = D−q et E[(D−q)+ ] = µ−q. Donc q → E[(D − q)+ ] est continue sur R− . Pour q ≥ 0, 0 ≤ (D − q)+ ≤ D. Comme q → (D −q)+ est continue, on en d´eduit par convergence domin´ee que q → E[(D − q)+ ] est continue sur R+ et donc sur R. L’´egalit´e y + = y + (−y)+ entraˆıne que ∀q ∈ R, E[(q − D)+ ] = q − µ + E[(D − q)+ ].

(3.2)

On en d´eduit la continuit´e de q → E[(q − D)+ )] puis celle de g. Pour assurer que inf q≥0 g(q) est atteint, il suffit maintenant de v´erifier que limq→+∞ g(q) = +∞. Pour montrer ce r´esultat, on distingue deux cas dans lesquels on utilise respectivement les in´egalit´es c > 0 et c > −cS : – si cS ≥ 0, alors g(q) ≥ cq, – si cS < 0, pour q ≥ 0, (q − D)+ ≤ q et donc E[(q − D)+ ] ≤ q ce qui implique g(q) ≥ (c + cS )q. Ainsi inf q≥0 g(q) est atteint. La proposition suivante indique quelle quantit´e le gestionnaire doit commander pour minimiser le coˆ ut. Proposition 3.1.1. – Si cM ≤ c alors la fonction g est croissante et ne rien commander est optimal. – Sinon, (cM − c)/(cM + cS ) ∈]0, 1[ et si on pose S = inf{z ∈ R : F (z) ≥ (cM − c)/(cM + cS )}

(3.3)

alors S ∈ R+ . En outre, si D est une variable al´eatoire enti`ere i.e. P(D ∈ N) = 1, alors S ∈ N. Enfin, g est d´ecroissante sur ] − ∞, S] et croissante sur [S, +∞[, ce qui implique que commander S est optimal. Remarque 3.1.2. L’hypoth`ese cM > c qui rend le probl`eme d’optimisation int´eressant peut se justifier par des consid´erations ´economiques. En effet, il est naturel de supposer que le prix de vente unitaire du produit par le gestionnaire a ses clients est sup´erieur au coˆ ` ut c auquel il s’approvisionne. Comme la perte cM correspondant a` une unit´e de manquants est ´egale `a la somme de ce prix ♦ de vente unitaire et du coˆ ut en termes d’image, on a alors cM > c. D´emonstration. D’apr`es (3.1) et (3.2), g(q) = cM µ + (c − cM )q + (cM + cS )E[(q − D)+ ]. (3.4)  q Pour q ≥ 0, (q − D)+ = 0 1{z≥D} dz ce qui implique en utilisant le th´eor`eme de Fubini,  q ! q q # " + 1{z≥D} dz = E 1{D≤z} dz = F (z)dz. E[(q − D) ] = E 0

0

0

54

3 Gestion des approvisionnements

Comme D est une variable al´eatoire positive, sa fonction de r´epartition F est nulle sur ] − ∞, 0[ et l’´egalit´e pr´ec´edente reste vraie pour q < 0. Donc q

∀q ∈ R, g(q) = cM µ +

0

((c − cM ) + (cM + cS )F (z)) dz.

(3.5)

– Si cM ≤ c alors comme F est `a valeurs dans [0, 1], l’int´egrande dans le membre de droite est minor´e par c − cM + min(0, cM + cS ) = min(c−cM , c +cS ). Ce minorant est positif si bien que g est une fonction croissante et ne rien commander est optimal. u – Si cM > c, comme c > −cS , 0 < cM − c < cM + cS . D’o` 0
c, si la fonction de r´epartition F de la demande D est continue (c’est le cas par exemple si la variable al´eatoire D poss`ede une densit´e), alors F (S) = (cM − c)/(cM + cS ). Cette ´egalit´e peut se voir comme la condition d’optimalit´e du premier ordre g ′ (S) = 0 puisque g ′ (q) = (c − cM ) + (cM + cS )F (q). On peut la r´ecrire c + cS P(D ≤ S) = cM P(D > S). Elle a donc l’interpr´etation ´economique suivante : le surcoˆ ut moyen c + cS P(D ≤ S) li´e `a la commande d’une unit´e suppl´ementaire est compens´e par l’´economie moyenne cM P(D > S) r´ealis´ee grˆace `a cette unit´e suppl´ementaire. – La fonction q → (q − D)+ est convexe sur R. Lorsque cM + cS ≥ 0, on en d´eduit en multipliant par cM + cS et en prenant l’esp´erance que q → (cM + cS )E[(q − D)+ ] est convexe sur R. Avec (3.4), on conclut que g est alors une fonction convexe sur R. ♦ Choix de la loi de la demande D Il est souvent raisonnable de consid´erer que la demande D provient d’un grand nombre n de clients ind´ependants qui ont chacun une probabilit´e p de

3.1 Le mod`ele probabiliste de gestion de stock

55

commander une unit´e du produit. C’est par exemple le cas pour une pi`ece de rechange automobile : les n clients potentiels sont les d´etenteurs de la voiture pour laquelle la pi`ece est con¸cue. Dans ces conditions, la demande suit la loi binomiale de param`  (n, p) i.e. pour 0 ≤ k ≤ n, la probabilit´e qu’elle etre vaille k est donn´ee par nk pk (1 − p)n−k . En particulier µ = E[D] = np. La loi binomiale n’´etant pas d’une manipulation tr`es agr´eable, on pourra pr´ef´erer les deux lois obtenues dans les passages `a la limite suivants : – n grand (n → +∞) et p petit (p → 0) avec np → µ > 0. Dans cette asymptotique, d’apr`es l’exemple 6.3.1, la loi binomiale de param`etres (n, p) converge ´etroitement vers la loi de Poisson de param`etre µ. On peut donc mod´eliser la demande comme une variable de Poisson de param`etre µ. – n grand (n → +∞) avec p > 0 fix´e, alors le th´eor`eme central limite A.3.15 justifie l’utilisation de la loi gaussienne N (µ, σ 2 ) (avec (x−µ)2

σ 2 = µ(1 − µ/n)) de densit´e σ√12π e− 2σ2 comme loi pour D. Une variable al´eatoire gaussienne de variance σ 2 > 0 a toujours une probabilit´e strictement positive de prendre des valeurs n´egatives. Mais dans les conditions d’application du th´eor`eme central limite, cette probabilit´e est tr`es faible pour la loi limite N (µ, σ 2 ) et la commande de la quantit´e S donn´ee par la proposition 3.1.1 est une bonne strat´egie.

Taux de manquants On suppose cM > c. Du point de vue du gestionnaire, le taux de manquants i.e. le taux de demandes de clients non satisfaites est un indicateur important. + . On a Lorsqu’il a command´e S, ce taux est ´egal `a (D−S) D  ! " # (D − S)+ c + cS E ≤ E 1{D>S} = P(D > S) = 1 − F (S) ≤ , D cM + cS la derni`ere in´egalit´e ´etant une ´egalit´e si F est continue en S. En g´en´eral, l’esp´erance du taux de manquants est mˆeme significativement plus petite que la probabilit´e pour qu’il y ait des manquants.

Exemple 3.1.4. Dans le cas particulier o` u D suit la loi de Poisson de param`etre 50, c = 10, cM = 20 et cS = 5, on v´erifie num´eriquement que le c + cS qui vaut 0.6 est l´eg`erement stock objectif vaut S = 48. Le rapport cM + cS sup´erieur a` P(D > S) ≃ 0.575 mais tr`es sensiblement sup´erieur au taux de manquants qui est ´egal `a 6.8 %. La fonction g correspondant a` ce cas particulier est repr´esent´ee sur la Fig. 3.1. ♦ R´ esolution avec stock initial et coˆ ut fixe d’approvisionnement On suppose maintenant que si le gestionnaire commande une quantit´e q non nulle aupr`es de son fournisseur, il doit payer un coˆ ut fixe cF positif en plus

56

3 Gestion des approvisionnements 1 300 g(z)

1 100

900 g(s) = g(S) + cF 700 g(S ) 500 −20

0

20

40 s = 23.2

60

80

z

100

S = 48

Fig. 3.1. Repr´esentation de g(z), s et S (c = 10, cM = 20, cS = 5, cF = 200, D distribu´ee suivant la loi de Poisson de param`etre 50)

du coˆ ut unitaire c. On suppose ´egalement que le stock initial x n’est pas n´ecessairement nul. On autorise mˆeme la situation o` u x est n´egatif qui traduit le fait qu’une quantit´e ´egale `a −x de demandes formul´ees par des clients avant le d´ebut de la p´eriode n’ont pu ˆetre satisfaites et sont maintenues par ces clients. Le probl`eme est maintenant de trouver la quantit´e command´ee q ≥ 0 qui minimise cF 1{q>0} + cq + cS E[(x + q − D)+ ] + cM E[(D − x − q)+ ].

(3.6)

Proposition 3.1.5. On suppose cM > c. Alors l’ensemble {z ∈] − ∞, S], g(z) ≥ cF + g(S)} est non vide. Si on note s sa borne sup´erieure, la strat´egie (s, S) qui consiste a ` commander la quantit´e q = (S − x) permettant d’atteindre le stock objectif S lorsque x est inf´erieur au stock seuil s et ` a ne rien faire (q = 0) sinon est optimale au sens o` u elle minimise (3.6). La figure 3.1 repr´esente la fonction g et fournit une interpr´etation graphique du couple (s, S) dans le cas particulier o` u D suit la loi de Poisson de param`etre 50, c = 10, cM = 20, cS = 5 et cF = 200. D´emonstration. Lorsque z ≤ 0, on a (z − D)+ = 0 et (D − z)+ = D − z, d’o` u pour la fonction g d´efinie par (3.1), ∀z ≤ 0, g(z) = cz + cM (E[D] − z) = (c − cM )z + cM µ.

3.1 Le mod`ele probabiliste de gestion de stock

57

Comme cM > c, cela implique que limz→−∞ g(z) = +∞. Ainsi l’ensemble {z ∈] − ∞, S], g(z) ≥ cF + g(S)} est non vide et sa borne sup´erieure s est dans ] − ∞, S]. On ne change rien a` la quantit´e q optimale en ajoutant cx au coˆ ut (3.6). Le crit`ere `a minimiser devient cF 1{q>0} + g(x + q). Comme d’apr`es la proposition 3.1.1, g est croissante sur [S, +∞[, il est clairement optimal de ne rien commander si x ≥ S. Pour x < S, comme g atteint son minimum en S, il est optimal de commander S − x si g(x) ≥ cF + g(S) et de ne rien commander sinon. Notons que lorsque le produit se pr´esente sous forme d’unit´es, le stock initial x est entier tout comme le stock objectif S (voir la proposition 3.1.1), ce qui assure que le gestionnaire peut bien commander la quantit´e S − x qui est enti`ere. La d´ecroissance et la continuit´e de g sur ] − ∞, S] entraˆınent que {x ∈ ⊔ ] − ∞, S], g(x) ≥ cF + g(S)} =] − ∞, s], ce qui ach`eve la d´emonstration. ⊓ Remarque 3.1.6. – Si cF = 0, alors s = S. Comme la strat´egie (S, S) consiste `a commander (S − x) lorsque x ≤ S, on retrouve bien le r´esultat de la proposition 3.1.1. – Le coˆ ut minimal associ´e `a la strat´egie (s, S) est   u(x) = −cx + inf cF 1{q>0} + g(x + q) q≥0

= −cx + (g(S) + cF )1{x≤s} + g(x)1{x>s} .

Dans la d´efinition 3.3.3, nous introduirons une notion de convexit´e sp´ecifique a` la gestion des approvisionnements. Le coˆ ut minimal u(x) fournira un exemple typique de fonction satisfaisant cette propri´et´e de convexit´e. ♦ 3.1.2 Le mod` ele dynamique de gestion de stock Le mod`ele comporte toujours un seul produit mais N p´eriodes de temps (typiquement des journ´ees, des semaines ou des mois). Pour t ∈ {0, . . . , N −1}, une demande Dt+1 positive est formul´ee par les clients sur la p´eriode [t, t + 1]. Les variables al´eatoires D1 , D2 , . . . , DN sont suppos´ees ind´ependantes et identiquement distribu´ees de fonction de r´epartition F et d’esp´erance finie i.e. E[D1 ] = µ < +∞. Au d´ebut de chaque p´eriode [t, t+1], le gestionnaire d´ecide de commander une ot que le stock phyquantit´e Qt ≥ 0 qui lui est livr´ee pendant la p´eriode. Plutˆ sique qui est toujours positif ou nul la grandeur int´eressante `a consid´erer est le stock syst` eme qui peut prendre des valeurs n´egatives. Le stock syst`eme est d´efini comme le stock physique si celui-ci est strictement positif et comme moins la quantit´e de manquants (i.e. les demandes de clients qui n’ont pu ˆetre honor´ees faute de stock) sinon. On note Xt le stock syst`eme `a l’instant t ∈ {0, . . . , N }.

58

3 Gestion des approvisionnements

On suppose que – le gestionnaire ne renvoie pas de produit a` son fournisseur, – les demandes correspondant aux manquants sont maintenues par les clients jusqu’` a ce que le gestionnaire puisse les servir. Ainsi la dynamique du stock syst`eme est donn´ee par Xt+1 = Xt + Qt − Dt+1 .

(3.7)

Au cours de la p´eriode [t, t + 1], le coˆ ut est donn´e par une formule analogue a celle du mod`ele `a une seule p´eriode : cF 1{Qt >0} + cQt + cS (Xt+1 )+ + ` u y − = max(−y, 0). On associe au stock syst`eme final XN un cM (Xt+1 )− o` coˆ ut uN (XN ) (par exemple, estimer que ce stock final a une valeur unitaire ´egale `a c consiste `a poser uN (x) = −cx). Enfin pour traduire la pr´ef´erence du gestionnaire pour 1 Euro a` la date t par rapport a` 1 Euro a` la date t + 1, on utilise un facteur d’actualisation α ∈ [0, 1]. L’esp´erance du coˆ ut total actualis´e est donn´ee par  N −1    t + − N α cF 1{Qt >0} + cQt + cS (Xt+1 ) + cM (Xt+1 ) + α uN (XN ) . E t=0

(3.8) L’objectif du gestionnaire est de choisir les quantit´es Qt au vu du pass´e jusqu’` a l’instant t de mani`ere `a minimiser l’esp´erance du coˆ ut total. Le but du paragraphe suivant est de montrer que la r´esolution d’un tel probl`eme d’optimisation a` N p´eriodes de temps peut se ramener `a la r´esolution de N probl`emes `a une p´eriode de temps d´efinis par r´ecurrence descendante.

´ ements de contrˆ 3.2 El´ ole de chaˆınes de Markov Nous allons dans ce paragraphe d´ecrire puis r´esoudre un probl`eme de contrˆole de chaˆınes de Markov qui englobe le probl`eme dynamique de gestion de stock que nous venons de pr´esenter. 3.2.1 Description du mod` ele On consid`ere un mod`ele d’´evolution d’un syst`eme command´e par un gestionnaire sur N p´eriodes de temps. On note E l’ensemble des ´etats possibles du syst`eme et A l’ensemble des actions possibles du gestionnaire. Ces deux ensembles sont suppos´es discrets. L’´etat du syst`eme `a l’instant t ∈ {0, . . . , N } est not´e Xt tandis que l’action choisie par le gestionnaire a` l’instant t ∈ {0, . . . , N − 1} est not´ee At . Pour t ∈ {0, . . . , N − 1}, le gestionnaire choisit l’action At au vu de l’histoire Ht = (X0 , A0 , X1 , A1 , . . . , Xt−1 , At−1 , Xt ) ∈ a l’instant t. On suppose que l’´etat Xt+1 du syst`eme `a (E × A)t × E jusqu’` l’instant t + 1 ne d´epend de l’histoire Ht et de l’action At qu’au travers du couple (Xt , At ) : ∀t ∈ {0, . . . , N − 1},

´ ements de contrˆ 3.2 El´ ole de chaˆınes de Markov

59

∀ht = (x0 , a0 , x1 , a1 , . . . , xt ) ∈ (E × A)t × E, ∀at ∈ A, ∀xt+1 ∈ E, P(Xt+1 = xt+1 |Ht = ht , At = at ) = P(Xt+1 = xt+1 |Xt = xt , At = at ) = pt ((xt , at ), xt+1 ), (3.9)  o` u la matrice pt : (E × A) × E → [0, 1] v´erifie y∈E pt ((x, a), y) = 1 pour tout (x, a) ∈ E × A. ut ´egal `a Pour t ∈ {0, . . . , N − 1}, le choix de l’action At induit un coˆ u ϕt : E ×A×E → R. A l’instant final, ϕt (Xt , At , Xt+1 ) sur la p´eriode [t, t+1] o` un coˆ ut uN (XN ) est associ´e `a l’´etat final XN avec uN : E → R. L’esp´erance du coˆ ut total actualis´e avec le facteur d’actualisation α ∈ [0, 1] est donn´ee par  N −1  αn ϕn (Xn , An , Xn+1 ) + αN uN (XN ) . E n=0

Exemple 3.2.1. Le probl`eme dynamique de gestion de stock d´ecrit au paragraphe 3.1.2 entre dans ce cadre lorsque le produit se pr´esente sous forme d’unit´es. L’espace d’´etat est E = Z pour le stock syst`eme Xt et l’ensemble d’actions A = N pour la quantit´e Qt de produit command´ee. On a Xt+1 = Xt + Qt − Dt+1 o` u les demandes (D1 , . . . , DN ) sont des variables al´eatoires positives ind´ependantes et identiquement distribu´ees que l’on suppose `a valeurs dans N. Donc pour t ∈ {0, . . . , N − 1} et ht = (x0 , q0 , x1 , q1 , . . . , xt ) ∈ (Z × N)t × Z, on a P(Xt+1 = xt+1 |Ht = ht , Qt = qt ) = P(Xt + Qt − Dt+1 = xt+1 |Ht = ht , Qt = qt )

P(Dt+1 = xt + qt − xt+1 , Ht = ht , Qt = qt ) P(Ht = ht , Qt = qt ) = P(Dt+1 = xt + qt − xt+1 ) = P(D1 = xt + qt − xt+1 ),

=

car les variables Ht et Qt ne d´ependent que de D1 , D2 , . . . , Dt et sont ind´ependantes de Dt+1 . Ainsi (3.9) est v´erifi´e pour pt ((x, q), y) = P(D1 = x + q − y). Enfin la fonction ϕt qui intervient dans l’expression de l’esp´erance du coˆ ut total actualis´e est donn´ee par : ∀(t, x, q, y) ∈ {0, . . . , N −1}×Z×N×Z, ϕt (x, q, y) = cF 1{q>0} + cq + cS y + + cM y − . Elle ne d´epend que des deux derni`eres variables.



Le fait que le gestionnaire d´ecide de l’action At au vu de l’histoire Ht se traduit par l’existence d’une application dt de l’ensemble (E × A)t × E des histoires possibles jusqu’` a l’instant t dans l’ensemble A des actions telle que At = dt (Ht ). Cette application dt est appel´ee r`egle de d´ecision du gestionnaire a l’instant t. La strat´egie π = (d0 , . . . , dN −1 ) du gestionnaire est constitu´ee `

60

3 Gestion des approvisionnements

de l’ensemble de ses r`egles de d´ecision. Bien sˆ ur, la dynamique du syst`eme Xt , t ∈ {0, . . . , N } d´epend de la strat´egie du gestionnaire. Pour expliciter cette d´ependance on note d´esormais Xtπ et Htπ l’´etat du syst`eme et l’histoire a l’instant t ∈ {0, . . . , N } qui correspondent a` la strat´egie π. Sachant que l’´etat ` ut moyen associ´e `a la strat´egie π est donn´e par : initial du syst`eme est x0 , le coˆ v0π (x0 )

=E

N −1 

α

n

π ϕn (Xnπ , dn (Hnπ ), Xn+1 )



n=0

On note

N



π π uN (XN ) X0



= x0 .

v0∗ (x0 ) = inf v0π (x0 ). π

L’objectif du gestionnaire est de trouver a` l’instant initial une strat´egie optimale π ∗ qui r´ealise l’infimum lorsque celui-ci est atteint ou une strat´egie ε ε-optimale π ε v´erifiant ∀x0 ∈ E, v0π (x0 ) ≤ v0∗ (x0 ) + ε avec ε > 0 arbitraire lorsque l’infimum n’est pas atteint. Dans le paragraphe 3.2.2 nous allons montrer comment ´evaluer le coˆ ut associ´e `a une strat´egie par r´ecurrence descendante. Puis dans le paragraphe 3.2.3, nous en d´eduirons les ´equations d’optimalit´e et nous montrerons que leur r´esolution permet de construire des strat´egies optimales ou ε-optimales. Enfin, dans le paragraphe 3.2.4, nous appliquerons la th´eorie d´evelopp´ee pour d´eterminer la strat´egie optimale d’un recruteur dans « le probl`eme de la secr´etaire ». ´ 3.2.2 Evaluation du coˆ ut associ´ e` a une strat´ egie Nous allons montrer que le coˆ ut moyen associ´e `a la strat´egie π peut ˆetre ´evalu´e par r´ecurrence descendante. On introduit pour cela le coˆ ut a` venir a` l’instant t ∈ {1, . . . , N } sachant que l’histoire est ht ∈ (E × A)t × E :  N −1  π n−t π π π N −t π π α ϕn (Xn , dn (Hn ), Xn+1 ) + α uN (XN ) Ht = ht . vt (ht ) = E n=t

Cette notation est bien compatible avec la d´efinition de v0π au paragraphe pr´ec´edent. La proposition suivante indique comment exprimer vtπ en fonction π : de vt+1 Proposition 3.2.2. π ∀hN = (x0 , a0 , x1 , a1 , . . . , xN ) ∈ (E × A)N × E, vN (hN ) = uN (xN ).

En outre, pour t ∈ {0, . . . , N −1}, ∀ht = (x0 , a0 , x1 , a1 , . . . , xt ) ∈ (E ×A)t ×E,  pt ((xt , dt (ht )), xt+1 )) vtπ (ht ) = xt+1 ∈E

" # π ϕt (xt , dt (ht ), xt+1 ) + αvt+1 ((ht , dt (ht ), xt+1 )) .

´ ements de contrˆ 3.2 El´ ole de chaˆınes de Markov

61

La formule pr´ec´edente peut s’interpr´eter de la fa¸con suivante : lorsque l’histoire jusqu’` a l’instant t est ht ∈ (E × A)t × E, sous la strat´egie π, l’action π du syst`eme du gestionnaire en t est dt (ht ). Pour tout xt+1 ∈ E, l’´etat Xt+1 π a l’instant t + 1 sont donc respectia l’instant t + 1 et l’histoire Ht+1 jusqu’` ` vement ´egaux a` xt+1 et `a (ht , dt (ht ), xt+1 ) ∈ (E × A)t+1 × E avec probabilit´e ut a` venir a` l’instant t sachant que l’histoire est ht se pt ((xt , dt (ht )), xt+1 ). Le coˆ d´ecompose donc comme la somme sur les ´etats possibles xt+1 ∈ E du syst`eme ut ϕt (xt , dt (ht ), xt+1 ) a l’instant t + 1 pond´er´ee par pt ((xt , dt (ht )), xt+1 ) du coˆ ` π ((ht , dt (ht ), xt+1 )) `a venir sur la p´eriode [t, t + 1] plus le coˆ ut actualis´e αvt+1 a l’instant t + 1 sachant que l’histoire est (ht , dt (ht ), xt+1 ). ` D´emonstration. Par d´efinition, π π π (hN ) = E[uN (XN )|HN = hN ] = vN



π E uN (XN )1{HNπ =hN } π =h ) P(HN N

.

π π Comme HN = hN = (x0 , a0 , x1 , a1 , . . . , xN ) implique XN = xN , on a



π π E uN (XN )1{HNπ =hN } = E uN (xN )1{HNπ =hN } = uN (xN )P(HN = hN ), π et on conclut que vN (hN ) = uN (xN ). Soit t ∈ {0, . . . , N − 1}. Par lin´earit´e de l’esp´erance,  N  −1 π αn−t ϕn (Xnπ , dn (Hnπ ), Xn+1 ) P(Htπ = ht )vtπ (ht ) = E 1{Htπ =ht } n=t

+α =



xt+1 ∈E

N −t

π uN (XN )

!

 N  −1 π π =x π =h } E 1{Xt+1 αn−t ϕn (Xnπ , dn (Hnπ ), Xn+1 ) ,H t t+1 t n=t

π + αN −t uN (XN )

!

π = Comme sous la strat´egie π, Htπ = ht implique At = dt (ht ), (Htπ = ht , Xt+1 π xt+1 ) implique Ht+1 = (ht , dt (ht ), xt+1 ). Donc    π π π P(Ht = ht )vt (ht ) = E 1{Ht+1 =(ht ,dt (ht ),xt+1 )} ϕt (xt , dt (ht ), xt+1 ) xt+1 ∈E



$ N −1

α

n−t−1

π ϕn (Xnπ , dn (Hnπ ), Xn+1 )



N −t−1

n=t+1

=



xt+1 ∈E

π P(Ht+1

%!

π uN (XN )

 = (ht , dt (ht ), xt+1 )) ϕt (ht , dt (ht ), xt+1 )

! π + αvt+1 ((ht , dt (ht ), xt+1 )) .

62

3 Gestion des approvisionnements

Il suffit de remarquer que π π P(Xt+1 P(Ht+1 = (ht , dt (ht ), xt+1 )) = xt+1 , Htπ = ht , At = dt (ht )) = P(Htπ = ht ) P(Htπ = ht , At = dt (ht )) π = P(Xt+1 = xt+1 |Htπ = ht , At = dt (ht ))

= pt ((xt , dt (ht )), xt+1 ) d’apr`es (3.9) pour conclure la d´emonstration de la formule de r´ecurrence.

⊓ ⊔

´ 3.2.3 Equations d’optimalit´ e On d´efinit vt∗ (ht ) = inf π vtπ (ht ). Le th´eor`eme suivant explique comment ´evaluer vt∗ par r´ecurrence descendante : Th´ eor` eme 3.2.3. Pour tout t ∈ {0, . . . , N }, ∀ht = (x0 , a0 , x1 , a1 , . . . , xt ) ∈ (E × A)t × E, vt∗ (ht ) = ut (xt ) a partir du coˆ ut o` u les fonctions ut sont d´efinies par r´ecurrence descendante ` equations d’optimalit´ e : pour t ∈ {0, . . . , N − 1}, terminal uN par les ´  ∀xt ∈ E, ut (xt ) = inf pt ((xt , a), xt+1 ) [ϕt (xt , a, xt+1 ) + αut+1 (xt+1 )] . a∈A

xt+1 ∈E

(3.10)

π (hN ) = uN (xN ). Donc D´emonstration. D’apr`es la proposition 3.2.2, ∀π, vN ∗ vπ (hN ) = uN (xN ), ce qui permet d’initialiser la d´emonstration par r´ecurrence descendante de l’assertion ∀t ∈ {0, . . . , N }, vt∗ (ht ) ≥ ut (xt ). Supposons que l’hypoth`ese de r´ecurrence est vraie `a l’instant t + 1. π ∗ (ht+1 ) ≥ vt+1 (ht+1 ) ≥ ut+1 (xt+1 ). En ins´erant Soit π une strat´egie. On a vt+1 cette in´egalit´e dans la formule de r´ecurrence de la proposition 3.2.2, on obtient

vtπ (ht ) ≥



pt ((xt , dt (ht )), xt+1 )) [ϕt (xt , dt (ht ), xt+1 ) + αut+1 (xt+1 )]

xt+1 ∈E

≥ inf

a∈A



pt ((xt , a), xt+1 ) [ϕt (xt , a, xt+1 ) + αut+1 (xt+1 )] = ut (xt ).

xt+1 ∈E

Comme la strat´egie π est arbitraire, on conclut que vt∗ (ht ) = inf π vtπ (ht ) ≥ ut (xt ) i.e. que l’hypoth`ese de r´ecurrence est v´erifi´ee au rang t. Pour montrer l’in´egalit´e inverse, on fixe γ > 0. Pour t ∈ {0, . . . , N − 1} et xt ∈ E, d’apr`es (3.10), il existe δt (xt ) ∈ A t.q.

´ ements de contrˆ 3.2 El´ ole de chaˆınes de Markov



xt+1 ∈E

63

pt ((xt , δt (xt )), xt+1 ) [ϕt (xt , δt (xt ), xt+1 ) + αut+1 (xt+1 )] ≤ ut (xt ) + γ.

Notons π γ la strat´egie telle que la r`egle de d´ecision `a chaque instant t dans {0, . . . , N − 1} est dt (ht ) = δt (xt ) et montrons par r´ecurrence descendante que γ

∀t ∈ {0, . . . , N }, ∀ht = (x0 , a0 , x1 , a1 , . . . , xt ), vtπ (ht ) ≤ ut (xt ) + (N − t)γ. γ

π On a vN (hN ) = uN (xN ). Supposons que l’hypoth`ese est v´erifi´ee pour n dans πγ (ht+1 ) ≤ ut+1 (xt+1 ) + (N − t − 1)γ {t + 1, . . . , N }. En ins´erant l’in´egalit´e vt+1 dans la formule de r´ecurrence de la proposition 3.2.2, on obtient  γ pt ((xt , dt (ht )), xt+1 )) vtπ (ht ) ≤ xt+1 ∈E

[ϕt (xt , dt (ht ), xt+1 ) + α (ut+1 (xt+1 ) + (N − t − 1)γ)]  En utilisant successivement xt+1 ∈E pt ((xt , dt (ht )), xt+1 )) = 1, la d´efinition de dt et α ≤ 1, on en d´eduit que  γ pt ((xt , δt (xt )), xt+1 )) [ϕt (xt , δt (xt ), xt+1 ) + αut+1 (xt+1 )] vtπ (ht ) ≤ xt+1 ∈E

+ α(N − t − 1)γ ≤ ut (xt ) + γ + (N − t − 1)γ.

Donc l’hypoth`ese de r´ecurrence est v´erifi´ee au rang t. Pour t ∈ {0, . . . , N } et ht ∈ (E × A)t × E, on conclut que γ

vt∗ (ht ) ≤ inf vtπ (ht ) ≤ inf (ut (xt ) + (N − t)γ) = ut (xt ). γ>0

γ>0

⊓ ⊔ D´ efinition 3.2.4. 1. Une strat´egie π ∗ est dite optimale si ∗

∀t ∈ {0, . . . , N }, ∀ht ∈ (E × A)t × E, vtπ (ht ) = inf vtπ (ht ) = vt∗ (ht ). π

2. Une strat´egie π ε est dite ε-optimale si ε

∀t ∈ {0, . . . , N }, ∀ht ∈ (E × A)t × E, vtπ (ht ) ≤ vt∗ (ht ) + ε. 3. Une strat´egie πM = (d0 , . . . , dN −1 ) est dite markovienne si pour tout t dans {0, . . . , N − 1}, la r`egle de d´ecision a ` l’instant t ne d´epend du pass´e qu’au travers de l’´etat du syst`eme a ` l’instant t i.e. il existe δt : E → A t.q. ∀ht = (x0 , a0 , x1 , a1 , . . . , xt ), dt (ht ) = δt (xt ).

64

3 Gestion des approvisionnements

Remarque 3.2.5. – Les ´equations d’optimalit´e (3.10) expriment que pour qu’une strat´egie soit optimale sur la p´eriode [t, N ], il faut que la d´ecision prise en t soit optimale mais aussi que toutes les d´ecisions ult´erieures le soient. Ainsi, lorsqu’une strat´egie π est optimale au sens introduit a` la fin du paragraphe 3.2.1, a` savoir v0π (x0 ) = v0∗ (x0 ), elle est aussi optimale au sens du point 1 de la d´efinition pr´ec´edente (qui peut sembler plus exigeant en premi`ere lecture). – Les strat´egies markoviennes sont particuli`erement int´eressantes car il n’est pas n´ecessaire de garder en m´emoire tout le pass´e pour les appliquer. La terminologie markovienne provient de ce que sous une telle strat´egie πM = (δ0 , . . . , δN −1 ), HtπM = ht entraˆıne At = δt (xt ) et donc πM = xt+1 |HtπM = ht ) P(Xt+1 πM = P(Xt+1 = xt+1 |HtπM = ht , At = δt (xt )) = pt ((xt , δt (xt )), xt+1 )

πM du syst`eme `a l’instant t + 1 ne d´epend d’apr`es (3.9). Ainsi l’´etat Xt+1 πM du pass´e Ht qu’au travers de l’´etat XtπM du syst`eme `a l’instant t i.e. la suite (XtπM )t∈{0,...,N } est une chaˆıne de Markov. ♦

Il faut noter que pour γ = ε/N , la strat´egie π γ qui a ´et´e construite dans la d´emonstration du th´eor`eme 3.2.3 est ε-optimale et markovienne, ce qui fournit la premi`ere assertion du corollaire suivant : Corollaire 3.2.6. 1. Pour tout ε > 0, il existe une strat´egie markovienne ε-optimale. 2. Si A est fini ou bien s’il existe une strat´egie π ∗ = (d0 , . . . , dN −1 ) optimale, alors il existe une strat´egie markovienne optimale. D´emonstration. Si A est fini, alors pour tout t ∈ {0, . . . , N −1} et tout xt ∈ E, l’infimum de l’application  a∈A→ pt ((xt , a), xt+1 ) [ϕt (xt , a, xt+1 ) + αut+1 (xt+1 )] (3.11) xt+1 ∈E

est un minimum i.e. il est atteint. V´erifions maintenant que cette propri´et´e reste vraie s’il existe une strat´egie π ∗ = (d0 , . . . , dN −1 ) optimale. Pour ht = ∗ (x0 , a0 , x1 , a1 , . . . , xt ), d’apr`es le th´eor`eme 3.2.3, ut (xt ) = vt∗ (ht ) = vtπ (ht ). En utilisant l’´equation d’optimalit´e (3.10) et la proposition 3.2.2, on en d´eduit que  pt ((xt , a), xt+1 ) [ϕt (xt , a, xt+1 ) + αut+1 (xt+1 )] = ut (xt ) inf a∈A

xt+1 ∈E

=

∗ vtπ (ht )

=



xt+1 ∈E

 pt ((xt , dt (ht )), xt+1 ) ϕt (xt , dt (ht ), xt+1 )

! π∗ + αvt+1 ((ht , dt (ht ), xt+1 )) .

´ ements de contrˆ 3.2 El´ ole de chaˆınes de Markov

65



∗ π ((ht , dt (ht ), xt+1 )) = vt+1 ((ht , dt (ht ), xt+1 )) = ut+1 (xt+1 ), on en Comme vt+1 d´eduit que  pt ((xt , a), xt+1 ) [ϕt (xt , a, xt+1 ) + αut+1 (xt+1 )] inf a∈A

xt+1 ∈E

=



pt ((xt , dt (ht )), xt+1 ) [ϕt (xt , dt (ht ), xt+1 ) + αut+1 (xt+1 )] .

xt+1 ∈E

Puisque dt (ht ) ∈ A, l’infimum de (3.11) est atteint pour a = dt (ht ). La quantit´e minimis´ee (3.11) ne d´epend que de xt et a. Donc il existe δt∗ : E → A t.q. l’infimum est atteint pour a = δt (xt ). On en d´eduit que ut (xt ) =



pt ((xt , δt∗ (xt )), xt+1 ) [ϕt (xt , δt∗ (xt ), xt+1 ) + αut+1 (xt+1 )] .

xt+1 ∈E

Il suffit de reprendre l’argument de r´ecurrence descendante de la fin de la d´emonstration du th´eor`eme 3.2.3 avec γ = 0 pour voir que la strat´egie mar∗ ∗ = (δ0∗ , . . . , δN ⊓ ⊔ kovienne πM −1 ) est optimale. Les ´equations d’optimalit´e (3.10) sont aussi appel´ees ´equations de Bellman ou ´equations de la programmation dynamique. Elles permettent de ramener la r´esolution du probl`eme d’optimisation a` N p´eriodes de temps `a celle plus simple de N probl`emes d’optimisation `a une p´eriode. Leur r´esolution par r´ecurrence descendante fournit une proc´edure effective qui porte le nom de programmation dynamique pour calculer le coˆ ut minimal et d´eterminer les strat´egies markoviennes optimales (ou ε-optimales). La th´eorie d´evelopp´ee dans ce paragraphe peut ˆetre ´etendue `a un cadre beaucoup plus g´en´eral. Par exemple, on peut consid´erer des espaces d’´etats E et d’actions A non discrets mais pour cela il faut utiliser la notion d’esp´erance conditionnelle sachant une tribu qui d´epasse le cadre de ce livre. N´eanmoins, les conclusions sont analogues `a celles que nous avons obtenues. Il est ´egalement int´eressant de consid´erer le probl`eme `a horizon infini dans le cas o` u les fonctions pt et ϕt ne d´ependent pas du temps et sont not´ees respectivement p et ϕ. On suppose que le facteur d’actualisation α est strictement plus petit que 1 pour pouvoir d´efinir le coˆ ut total. Le passage a` la limite formel t → +∞ dans (3.10) explique pourquoi on travaille alors avec l’´equation d’optimalit´e : u(x) = inf

a∈A



p((x, a), y) [ϕ(x, a, y) + αu(y)] .

y∈E

Nous renvoyons par exemple aux livres de Puterman [8], de Bertsekas [2, 3], de Bertsekas et Shreve [4], de White [10] et de Whittle [11] pour plus de d´etails concernant les g´en´eralisations possibles.

66

3 Gestion des approvisionnements

3.2.4 Application au recrutement : le probl` eme de la secr´ etaire L’objectif du probl`eme que nous allons ´enoncer dans ce paragraphe est de voir comment un probl`eme d’arrˆet optimal peut ˆetre trait´e comme un probl`eme de contrˆ ole de chaˆıne de Markov. Nous renvoyons au Chap. 2 du livre de Lamberton et Lapeyre [5] pour une autre r´esolution du probl`eme d’arrˆet optimal bas´ee sur la technique de l’enveloppe de Snell. L’exemple consid´er´e ici est int´eressant parce que suffisamment simple pour qu’il soit possible d’expliciter la strat´egie optimale. Probl` eme 3.2.7. Un nombre N sup´erieur a` 2 de candidats que le recruteur sait classer postule pour un emploi. Pour t ∈ {1, . . . , N }, on note Θt le rang, dans l’ordre de pr´ef´erence du recruteur, du t-i`eme candidat qui se pr´esente : Θt = 1 signifie que le t-i`eme candidat est le meilleur tandis que Θt = N signifie que c’est le moins bon. Les candidats se pr´esentent dans un ordre al´eatoire, ce que l’on mod´elise en supposant que la permutation al´eatoire Θ est distribu´ee suivant la loi uniforme sur le groupe SN des permutations de {1, . . . , N }. On suppose que le recrutement a lieu dans une p´eriode de plein emploi et on consid`ere que les candidats qui ne re¸coivent pas de r´eponse positive lors de leur entretien trouvent un emploi ailleurs avant que le recruteur ne puisse les recontacter. Le recruteur re¸coit donc successivement les candidats jusqu’` a l’instant τ ≤ N o` u il d´ecide de prendre le candidat qu’il a en face de lui, ce qui ach`eve la proc´edure de recrutement. Notons que si aucun des N − 1 premiers candidats n’a ´et´e choisi, le N -i`eme l’est forc´ement. Le recruteur souhaite choisir un bon candidat et si possible le meilleur des N candidats, ce que l’on traduit en introduisant le coˆ ut βΘτ + γ1{Θτ >1} fonction du rang Θτ du candidat retenu. En outre, son temps est pr´ecieux et on affecte le coˆ ut δτ ` a la dur´ee τ de la proc´edure de recrutement. Les trois constantes β, γ et δ sont suppos´ees positives avec β +γ +δ > 0. Finalement, le recruteur souhaite choisir l’instant τ qui met fin a` la proc´edure de recrutement (probl`eme d’arrˆet optimal) de fa¸con a` minimiser E[βΘτ + γ1{Θτ >1} + δτ ]. Dans le cas particulier o` u le recruteur veut maximiser la probabilit´e de recruter le meilleur des candidats (β = δ = 0), la question 11 permettra de v´erifier que sa strat´egie optimale est la suivante : observer une proportion explicite proche de 1/e des candidats sans les recruter puis retenir le premier candidat meilleur que ceux qu’il a observ´es. 1. Montrer"qu’en termes de strat´e#gie optimale, il revient au mˆeme de minimiser E βΘτ − γ1{Θτ =1} + δτ , probl`eme qui va ˆetre trait´e dans la suite. Pour t ∈ {1, . . . , N }, on note Rt ∈ {1, . . . , t} le rang relatif du t-i`eme candidat parmi les t premiers. Si par exemple N = 5 et (Θ1 , . . . , Θ5 ) = (2, 5, 3, 1, 4), alors (R1 , . . . , R5 ) = (1, 2, 2, 1, 4). 2. Remarquer que l’ensemble des vecteurs de rang relatifs (r1 , . . . , rN ) ∈ {1} × {1, 2} × . . . × {1, . . . , N } est en bijection avec celui des permutations

´ ements de contrˆ 3.2 El´ ole de chaˆınes de Markov

67

σ de SN . En d´eduire que le vecteur (R1 , . . . , RN ) suit la loi uniforme sur {1} × {1, 2} × . . . × {1, . . . , N }. Puis pour t ∈ {1, . . . , N } et (r1 , . . . , rt ) ∈ {1}×{1, 2}×. . .×{1, . . . , t} donner P(Rt = rt ) et P(R1 = r1 , . . . , Rt = rt ).

σ ) le vecteur des rangs relatifs associ´e `a σ ∈ SN . D´esormais, on note (r1σ , . . . , rN L’objectif des questions qui suivent est de v´erifier que le probl`eme consid´er´e peut ˆetre trait´e comme un probl`eme de contrˆole de chaˆıne de Markov puis de r´esoudre ce probl`eme de contrˆole. ` l’instant t ∈ {1, . . . , N −1}, si le recruteur n’a retenu aucun des t−1 premiers A candidats, alors il observe Xt = Rt le rang partiel du t-i`eme candidat parmi les t premiers. Au vu de l’information (X1 , . . . , Xt ) dont il dispose, il a deux choix possibles : soit il refuse ce candidat ce que l’on traduit par At = 0, soit il recrute ce candidat ce que l’on traduit par At = 1. Dans ce dernier cas, la proc´edure de recrutement est achev´ee ce que l’on traduit par Xs = ∆ (∆ est ` l’instant N , s’il n’a retenu aucun des l’´etat stopp´e) pour s ∈ {t + 1, . . . , N }. A N − 1 premiers candidats, il observe XN = RN = ΘN et recrute forc´ement le N -i`eme candidat.

3. Montrer que le crit`ere `a minimiser se met sous la forme  N −1   1{Xt =∆} At βΘt − γ1{Θt =1} + δt E t=1

!   + 1{XN =∆} βΘN − γ1{ΘN =1} + δN .

4. Soit t ∈ {1, . . . , N } et (r1 , . . . , rt ) ∈ {1} × . . . × {1, . . . , t}. V´erifier que la loi conditionnelle de Θ sachant {R1 = r1 , . . . , Rt = rt } est la loi uniforme sur les permutations σ de SN telles que r1σ = r1 , . . . , rtσ = rt . En d´eduire que pour f : {1, . . . , t} → R, E[f (Θt )|R1 = r1 , . . . , Rt = rt ] =

t!  1{r1σ =r1 ,...,rtσ =rt } f (σt ). N! σ∈SN

En d´eterminant de mani`ere analogue la loi de Θ sachant Rt = rt , montrer que t  E[f (Θt )|Rt = rt ] = 1{rtν =rt } f (νt ). N! ν∈SN

Remarquer qu’en permutant les t − 1 premi`eres valeurs d’une permutation σ ∈ SN telle que r1σ = r1 , . . . , rtσ = rt , on obtient (t − 1) ! permutations ν ∈ SN telles que rtν = rt et νt = σt . Conclure que E[f (Θt )|R1 = r1 , . . . , Rt = rt ] = E[f (Θt )|Rt = rt ]. Ainsi la loi conditionnelle de Θt sachant R1 = r1 , . . . , Rt = rt et la loi conditionnelle de Θt sachant Rt = rt sont ´egales.

68

3 Gestion des approvisionnements

5. En remarquant que pour t ∈ {1, . . . , N − 1}, 1{Xt =∆} At est fonction de (R1 , . . . , Rt ), en d´eduire que le crit`ere `a minimiser se met aussi sous la forme  N −1  ϕt (Xt , At ) + uN (XN ) , E t=1

avec

 0 si x = ∆ uN (x) = βx − γ1{x=1} + δN sinon

et ϕt (x, a) = af (t, x) pour  0 si x = ∆ f (t, x) = δt + E[βΘt − γ1{Θt =1} |Rt = x] sinon. 6. Montrer que pour r ∈ {1, . . . , t}, ⎧ ⎪ s>r+N −t ⎨0 si s< r ou  s−1 N −s P(Θt = s|Rt = r) = r−1 ⎪ N t−r sinon. ⎩

(3.12)

t

En d´eduire que

r+1+N  −t k=r+1

Remarquer que

k−1N +1−k r

 N +1t−r

= 1.

t+1

  −s r+N −t rs Nt−r N +1 t f (t, r) = δt + β r N +1 − γ1{r=1} t+1 N s=r t+1

+1 et conclure que f (t, r) = δt + β Nt+1 r − γ1{r=1} Nt .

7. Montrer que pour tout (x1 , . . . , xt+1 , a1 , . . . , at ) dans {1} × {∆, 1, 2} × . . . × {∆, 1, . . . , t + 1} × {0, 1}t P(Xt+1 = xt+1 |X1 = x1 , A1 = a1 , . . . , Xt = xt , At = at ) = pt ((xt , at ), xt+1 ) avec  1{xt+1 =∆} P(Rt+1 = xt+1 ) si xt = ∆ et at = 1 pt ((xt , at ), xt+1 ) = 1{xt+1 =∆} sinon. Dans le probl`eme consid´er´e ici, l’espace des actions possibles du recruteur est A = {0, 1} et le facteur d’actualisation vaut 1. La variable X1 est `a valeurs dans E1 = {1} tandis que pour t ∈ {2, . . . , N }, Xt prend ses valeurs dans Et = {∆, 1, . . . , t}. Ainsi l’espace d’´etats d´epend de t. Nous admettrons que

´ ements de contrˆ 3.2 El´ ole de chaˆınes de Markov

69

dans cette situation qui sort l´eg`erement du mod`ele pr´esent´e au paragraphe 3.2.1, les ´equations d’optimalit´e s’´ecrivent pour t ∈ {1, . . . , N − 1},  pt ((xt , a), xt+1 ) [ϕt (xt , a) + ut+1 (xt+1 )] . ∀xt ∈ Et , ut (xt ) = inf a∈A

xt+1 ∈Et+1

8. V´erifier par r´ecurrence descendante que pour t ∈ {2, . . . , N }, ut (∆) = 0. En d´eduire que ∀t ∈ {1, . . . , N − 1}, ∀x ∈ {1, . . . , t}, ut (x) = min(f (t, x), νt ) o` u νt = E[ut+1 (Rt+1 )]. Montrer que νt croˆıt avec t. 9. Conclure a` l’existence d’une suite unique ∗ (r1∗ , . . . , rN −1 ) ∈ {0, 1} × {0, 1, 2} × . . . × {0, 1, . . . , N − 1}

telle que la strat´egie optimale du recruteur consiste `a retenir le τ ∗ -i`eme candidat qui se pr´esente o` u  N si ∀1 ≤ t ≤ N − 1, Rt > rt∗ τ∗ = min{t : Rt ≤ rt∗ } sinon. V´erifier que pour t ∈ {1, . . . , N − 1}, si rt∗ ≤ t − 1, alors f (t, rt∗ + 1) > νt . Calculer E[uN (RN )] = E[uN (ΘN )] et en d´eduire que ∗ – si γ > N (δ + β(N + 1)(1/2 − 2/N )), rN −1 = 1. γ ∗ – si δ ≥ N + β(N + 1)(1/2 − 1/N ), rN −1 = N − 1. Dans ce cas, montrer ut alors par r´ecurrence que ∀t ∈ {1, . . . , N − 1}, rt∗ = t : comme le coˆ δ affect´e `a chaque entretien est trop important, la strat´egie optimale consiste `a choisir le premier candidat.  t−1 r∗ Montrer que pour 2 ≤ t ≤ N , P(τ ∗ ≥ t) = k=1 1 − kk . En d´eduire la loi de τ ∗ et v´erifier que E[τ ∗ ] =

N  t=1

P(τ ∗ ≥ t) = 1 +

 N t−1   r∗ 1− k . k t=2 k=1

En utilisant le r´esultat de la question 4, montrer que la probabilit´e P(Θτ ∗ = 1) d’obtenir le meilleur candidat est ´egale `a N  t=1

∗ , Rt = 1). 1{rt∗ ≥1} P(Θt = 1|Rt = 1)P(R1 > r1∗ , . . . , Rt−1 > rt−1

En d´eduire que P(Θ

τ∗

 N t−1  rk∗ 1  ∗ . 1− 1{rt ≥1} = 1) = N t=1 k k=1

o` u on adopte la convention

∗ rN

= N.

70

3 Gestion des approvisionnements

∗ 10. On s’int´eresse `a la monotonie de la suite (r1∗ , . . . , rN −1 ). – Montrer que si δ = 0, alors pour t ∈ {1, . . . , N − 1} et r ∈ {1, . . . , t}, ∗ f (t + 1, r) ≤ f (t, r). En d´eduire que dans ce cas la suite (r1∗ , . . . , rN −1 ) est croissante. – Soit t ∈ {1, . . . , N − 2}. Montrer que

νt =

∗ ∗ ∗ t + 1 − rt+1 (rt+1 + 1) rt+1 N +1 ∗ νt+1 + δrt+1 +β t+1 (t + 1)(t + 2) 2 γ ∗ − 1{rt+1 ≥1} . N

∗ ∗ ≤ t − 1 sans quoi n´ecessairement rt∗ ≤ rt+1 . V´erifier Supposons que rt+1 en utilisant l’expression de νt ci-dessus que ∗ rt+1 − (t + 1) ∗ (f (t + 1, rt+1 + 1) − νt+1 ) t+1 ∗ ∗ + 1)(rt+1 + 2) (N + 1)(rt+1 γ + − δ. =β 2(t + 1)(t + 2) N

∗ f (t, rt+1 + 1) − νt +

Conclure que si δ ≤ croissante.

(N +1)β N (N −1)

+

γ N,

∗ la suite (r1∗ , . . . , rN −1 ) est toujours

11. On se place dans le cas particulier (β, γ, δ) = (0, 1, 0) o` u le recruteur souhaite maximiser la probabilit´e de retenir le candidat le meilleur. Comme nous allons le voir, il est alors possible d’expliciter la strat´egie optimale. Calculer νN −1 et montrer la relation de r´ecurrence   t − N1 + t+1 νt+1 si νt+1 ≥ − t+1 N ∀t ∈ {1, . . . , N − 2}, νt = νt+1 sinon. En d´eduire que pour t∗ (N ) = min{t ≥ 1 :

1 t

t ∀t ∈ {t (N ) − 1, . . . , N − 1}, νt = − N





+

1 t+1

rt∗ =



1 N −1

≤ 1},

1 1 1 + + ... + t t+1 N −1

et ∀t ∈ {1, . . . , t∗ (N ) − 2}, νt = νt∗ (N )−1 . Conclure que

+ ... +



0 si t ≤ t∗ (N ) − 1 1 si t∗ (N ) ≤ t ≤ N − 1.

Ainsi la strat´egie optimale du recruteur consiste `a observer les t∗ (N ) − 1 premiers candidats qui se pr´esentent puis `a choisir ensuite tout candidat meilleur que ces t∗ (N ) − 1 premiers. Si le meilleur des candidats figure dans les t∗ (N ) − 1 premiers, il choisit le dernier candidat qu’il re¸coit. Montrer que limN →+∞ t∗ (N )/N = limN →+∞ P(Θτ ∗ = 1) = 1/e.

3.3 R´esolution du probl`eme dynamique de gestion de stock

71

12. Pour diff´erentes valeurs de (β, γ, δ) dont (1, 0, 0) et (0, 1, 0) – D´eterminer la strat´egie optimale en r´esolvant num´eriquement les ´equa∗ tions d’optimalit´e. La suite (r1∗ , . . . , rN −1 ) est-elle toujours croissante ? – Illustrer son caract`ere optimal en la comparant par la m´ethode de Monte-Carlo a` d’autres strat´egies. 

3.3 R´ esolution du probl` eme dynamique de gestion de stock D’apr`es l’exemple 3.2.1, lorsque le produit se pr´esente sous forme d’unit´es, le probl`eme dynamique de gestion de stock d´ecrit au paragraphe 3.1.2 entre dans le cadre du paragraphe pr´ec´edent consacr´e au contrˆ ole de chaˆınes de Markov. L’espace d’´etat est E = Z pour le stock syst`eme Xt et l’ensemble d’actions A = N pour la quantit´e Qt de produit command´ee. En outre, pour tout (t, x, q, y) dans {0, . . . , N − 1} × Z × N × Z,  pt ((x, q), y) = P(D1 = x + q − y), ϕt (x, q, y) = cF 1{q>0} + cq + cS y + + cM y − . Les ´equations d’optimalit´e (3.10) s’´ecrivent : pour t ∈ {0, . . . , N − 1}, x ∈ Z  ut (x) = inf pt ((x, q), y) [ϕt (x, q, y) + αut+1 (y)] q∈N

= inf

q∈N

= inf

q∈N

 y∈Z

 z∈Z

y∈Z

" # P(D1 = x + q − y) cF 1{q>0} + cq + cS y + + cM y − + αut+1 (y)

P(D1 = z)[cF 1{q>0} + cq + cS (x + q − z)+ + cM (x + q − z)− + αut+1 (x + q − z)] en posant z = x + q − y,

= inf E[cF 1{q>0} + cq + cS (x + q − D1 )+ + cM (x + q − D1 )− q∈N

+ αut+1 (x + q − D1 )]. Nous allons ´etudier ces ´equations dans le cadre continu o` u le stock syst`eme est r´eel, les demandes sont des variables al´eatoires positives non n´ecessairement enti`eres et les quantit´es command´ees sont des r´eels positifs, car leur r´esolution est plus simple que dans le cadre discret o` u nous les avons ´etablies. Elles s’´ecrivent alors : pour t ∈ {0, . . . , N − 1}, ut (x) = inf E[cF 1{q>0} + cq + cS (x + q − D1 )+ q≥0

+ cM (x + q − D1 )− + αut+1 (x + q − D1 )].

(3.13)

72

3 Gestion des approvisionnements

3.3.1 Gestion sans coˆ ut fixe d’approvisionnement En plus de la nullit´e du coˆ ut fixe (cF = 0), nous supposerons dans ce paragraphe que la fonction de coˆ ut terminale est uN (x) = −cx, ce qui revient a` associer une valeur unitaire c au stock syst`eme terminal XN . Cette hypoth`ese simplificatrice qui va nous permettre d’obtenir une strat´egie optimale stationnaire (i.e. telle que la r`egle de d´ecision `a l’instant t ne d´epend pas de t) est discutable : si XN ≤ 0, il y a −XN manquants et il est naturel de leur associer le coˆ ut −cXN puisque c’est le prix a` payer au fournisseur pour obtenir la ut −cXN et donc la valeur cXN au quantit´e −XN ; en revanche affecter le coˆ stock physique r´esiduel XN ≥ 0 est moins naturel. Commen¸cons par d´eterminer la quantit´e de produit command´ee optimale `a l’instant N − 1. Comme uN (x) = −cx,  uN −1 (x) = αcE[D1 ] − cx + inf (1 − α)c(x + q) + cS E[(x + q − D1 )+ ] q≥0  + + cM E[(D1 − x − q) ] = αcE[D1 ] − cx + inf gα (x + q) q≥0

(3.14)

o` u la fonction gα (y) = (1 − α)cy + cS E[(y − D1 )+ ] + cM E[(D1 − y)+ ] est d´efinie comme la fonction de coˆ ut moyen g du mod`ele ´etudi´e au paragraphe 3.1.1 (voir ´equation (3.1)) a` ceci pr`es que le coˆ ut unitaire c est remplac´e par (1 − α)c . On se place dans le cas int´eressant o` u cM > (1−α)c > −cS . D’apr`es l’analyse men´ee au paragraphe 3.1.1, la fonction gα est continue, d´ecroissante sur ] − ∞, Sα ] et croissante sur [Sα , +∞[ avec Sα = inf{z ≥ 0 : F (z) ≥ (cM − (1 − α)c)/(cM + cS )} ∈ R+ , o` u F est la fonction de r´epartition commune des demandes. La d´ecision optimale `a l’instant N − 1 consiste donc `a commander la quantit´e (Sα − x)+ (i.e. (Sα − x) si x ≤ Sα et rien du tout sinon) si le stock syst`eme est x. Nous allons v´erifier que cela reste vrai `a tout instant t dans {0, . . . , N − 2}. Th´ eor` eme 3.3.1. On suppose cF = 0, cM > (1−α)c > −cS et uN (x) = −cx. La strat´egie avec stock objectif Sα = inf{z ≥ 0 : F (z) ≥ (cM − (1 − α)c)/(cM + cS )}, qui consiste pour tout t ∈ {0, . . . , N − 1} a ` commander la quantit´e (Sα − x)+ lorsque le stock syst`eme vaut x est optimale. La figure 3.2 illustre l’optimalit´e de la strat´egie de stock objectif Sα = 55 dans le cas particulier o` u les demandes sont distribu´ees suivant la loi de Poisson de param`etre 50, N = 10, α = 0.9, c = 10, cM = 20, cS = 5, cF = 0, uN (x) = −cx et le stock initial est X0 = 20. Pour z ∈ {40, 41, . . . , 70} les

3.3 R´esolution du probl`eme dynamique de gestion de stock

73

8 000

Commande égale à z 7 000

6 000

5 000

Stock objectif égal à z

4 000

3 000 40

50

Sα = 

60

z

70

Fig. 3.2. Comparaison des coˆ uts entre la strat´egie de stock objectif z et la strat´egie de commande constante ´egale ` a z (N = 10, stock initial X0 = 20, α = 0.9, c = 10, cM = 20, cS = 5, cF = 0, uN (x) = −cx, demandes distribu´ees suivant la loi de Poisson de param`etre 50)

coˆ uts moyens (3.8) associ´es `a la strat´egie qui consiste `a commander z `a chaque instant d’une part et a` la strat´egie de stock objectif z d’autre part ont ´et´e ´evalu´es en effectuant la moyenne empirique des coˆ uts sur 1 000 r´ealisations i )1≤i≤1 000 des demandes. Les mˆemes r´ealisations ind´ependantes (D1i , . . . , D10 de ces variables ont ´et´e utilis´ees pour chacune des strat´egies. Plus pr´ecis´ement, le coˆ ut moyen est approch´e par   9 1 000   1   i i i )+ + 20(Xt+1 )− − 10(0.9)10 XN (0.9)t 10Qit + 5(Xt+1 1 000 i=1 t=0 i = o` u pour i ∈ {1, . . . , 1 000}, X0i = 20 et pour t ∈ {0, . . . , 9}, Qit = z et Xt+1 i i Xt + z − Dt+1 dans la strat´egie qui consiste `a commander z `a chaque instant i i = max(Xti , z) − Dt+1 dans la strat´egie de stock et Qit = (z − Xti )+ et Xt+1 objectif z. Les courbes en pointill´es repr´esentent les bornes des intervalles de confiance a` 95 % obtenus pour chacun des coˆ uts moyens. On observe bien que parmi les strat´egies consid´er´ees, le coˆ ut moyen minimal est obtenu pour la strat´egie de stock objectif Sα = 55.

D´emonstration. Comme la quantit´e q optimale dans (3.14) est (Sα −x)+ , on a  αcE[D1 ] − cx + gα (Sα ) si x ≤ Sα uN −1 (x) = αcE[D1 ] − cx + gα (x) sinon. Ainsi uN −1 (x) = KN −1 − cx + wN −1 (x) o` u KN −1 = αcE[D1 ] + gα (Sα ) est une constante et wN −1 (x) = 1{x≥Sα } (gα (x) − gα (Sα )) est une fonction croissante et nulle sur ] − ∞, Sα ].

74

3 Gestion des approvisionnements

Nous allons v´erifier que cette ´ecriture se g´en´eralise aux instants ant´erieurs en d´emontrant par r´ecurrence descendante que pour tout t dans {0, . . . , N − 1}, la d´ecision optimale `a l’instant t consiste `a commander (Sα − x)+ si le stock u Kt est une constante et wt syst`eme est x et que ut (x) = Kt − cx + wt (x) o` est une fonction croissante et nulle sur ] − ∞, Sα ]. Supposons que l’hypoth`ese de r´ecurrence est v´erifi´ee au rang t + 1. En ins´erant l’´egalit´e ut+1 (x) = Kt+1 − cx + wt+1 (x) dans l’´equation (3.13) avec cF = 0, on obtient  ut (x) = inf E cq + cS (x + q − D1 )+ + cM (x + q − D1 )− q≥0 ! + α(Kt+1 − c(x + q − D1 ) + wt+1 (x + q − D1 )) = α(Kt+1 + cE[D1 ]) − cx + inf (gα (x + q) + αE[wt+1 (x + q − D1 )]) . q≥0

Pour analyser la minimisation du dernier terme, on remarque que – la fonction gα (y) est croissante sur [Sα , +∞[ et atteint son minimum pour y = Sα ; – la fonction y → E[wt+1 (y − D1 )] est croissante par croissance de wt+1 ; – cette fonction est nulle pour y ≤ Sα puisque comme D1 ≥ 0, y − D1 est u wt+1 s’annule. alors dans l’ensemble ] − ∞, Sα ] o` On en d´eduit que l’infimum est atteint pour q = (Sα − x)+ et que ut (x) = Kt − cx + wt (x) avec  Kt = α(Kt+1 + cE[D1 ]) + gα (Sα ) wt (x) = 1{x≥Sα } (gα (x) − gα (Sα ) + αE[wt+1 (x − D1 )]). La fonction wt est clairement croissante et nulle sur ] − ∞, Sα ].

⊓ ⊔

Remarque 3.3.2. Notons que si le produit se pr´esente sous forme d’unit´es, les demandes des clients sont enti`eres et on peut v´erifier comme dans la ` d´emonstration de la proposition 3.1.1 que le stock objectif Sα est entier. A l’instant t, le stock syst`eme Xt est entier et il est possible pour le gestionnaire de commander la quantit´e (Sα − Xt )+ qui est un entier positif. Cette strat´egie est optimale car elle l’est pour le mod`ele o` u le produit se pr´esente sous forme continue qui offre plus d’opportunit´es en termes de quantit´e command´ee. ♦ 3.3.2 Gestion avec coˆ ut fixe Nous supposons maintenant qu’en plus du coˆ ut unitaire c, toute commande u supporte un coˆ ut fixe cF ≥ 0 et nous nous pla¸cons dans le cas int´eressant o` cM > (1 − α)c > −cS . Les ´equations d’optimalit´e (3.13) s’´ecrivent alors : pour t ∈ {0, . . . , N − 1},

3.3 R´esolution du probl`eme dynamique de gestion de stock

75

  ut (x) = −cx + inf cF 1{q>0} + g(x + q) + αE[ut+1 (x + q − D1 )] q≥0   = −cx + min ft (x), cF + inf ft (x + q) q>0

o` u la fonction g(y) = cy + cS E[(y − D1 )+ ] + cM E[(D1 − y)+ ] est la fonction de coˆ ut du mod`ele `a une p´eriode de temps du paragraphe 3.1.1 et ft (y) = g(y) + αE[ut+1 (y − D1 )]. Afin de pr´eciser les hypoth`eses faites sur la fonction de coˆ ut terminale uN , nous introduisons la notion de C-convexit´e qui a ´et´e utilis´ee pour la premi`ere fois par Scarf [9] en 1960 : D´ efinition 3.3.3. Pour C ≥ 0, une fonction u : R → R est dite C-convexe si ∀x ≤ y, ∀β ∈ [0, 1], u(βx + (1 − β)y) ≤ βu(x) + (1 − β)(u(y) + C).

La notion de convexit´e usuelle correspond `a la 0-convexit´e et pour 0 ≤ C ′ ≤ C, toute fonction C ′ -convexe est C-convexe. Exemple 3.3.4. Si C ≥ 0 et f est une fonction convexe continue sur R qui atteint son minimum f ∗ en S, alors la fonction u d´efinie par  f ∗ + C si x ≤ s u(x) = o` u s = sup{z ≤ S : f (z) ≥ f ∗ + C} f (x) si x > s avec la convention sup ∅ = −∞, est C-convexe d’apr`es le lemme 3.3.9 ´enonc´e plus loin. La figure 3.3 illustre cette construction. ♦

u (x ) f ( x)

f∗+ C

f∗

s

S

x

Fig. 3.3. En trait plein : exemple de fonction C-convexe u obtenue par la construction de l’exemple 3.3.4 ` a partir d’une fonction f convexe continue atteignant son minimum f ∗ en S (s = sup{z ≤ S : f (z) ≥ f ∗ + C})

76

3 Gestion des approvisionnements

Remarque 3.3.5. Dans le cas o` u cM ≥ −cS , la fonction g d´efinie par (3.1) est convexe d’apr`es la remarque 3.1.3. Elle atteint son minimum en S d’apr`es la proposition 3.1.1. Et le stock seuil s est d´efini comme sup{z ≤ S : g(z) ≥ g(S) + cF } d’apr`es la proposition 3.1.5. D’apr`es l’exemple 3.3.4, la fonction ut minimale (g(S)+cF )1{x≤s} +g(x)1{x>s} est cF -convexe. Et la fonction de coˆ u(x) = −cx + (g(S) + cF )1{x≤s} + g(x)1{x>s} obtenue dans la remarque 3.1.6 pour le mod`ele `a une p´eriode de temps avec coˆ ut fixe cF > 0 est ´egalement cF -convexe. Il n’est donc pas ´etonnant que la notion de cF -convexit´e intervienne dans la r´esolution des ´equations d’optimalit´e pour le mod`ele `a plusieurs p´eriodes de temps. ♦ Le r´esultat que nous allons d´emontrer est une g´en´eralisation de celui obtenu dans le paragraphe 3.1.1 pour le mod`ele `a une p´eriode avec coˆ ut fixe : Th´ eor` eme 3.3.6. On suppose que cM > (1−α)c > −cS et que uN (x) est une u KN ∈ R et v´erifiant fonction continue, cF -convexe, minor´ee par KN − cx o` u ηN , γN ≥ 0. Alors il existe une strat´egie optimale |uN (x)| ≤ ηN + γN |x| o` dont la r`egle de d´ecision ` a chaque instant t ∈ {0, . . . , N −1} est du type (st , St ) i.e. consiste a ` commander 1{x≤st } (St − x)+ si le stock syst`eme vaut x. Remarque 3.3.7. La fonction de coˆ ut terminale uN (x) = −cx introduite au paragraphe pr´ec´edent est continue, v´erifie l’hypoth`ese de minoration pour KN = 0 et celle de domination pour ηN = 0 et γN = c. Enfin, elle est lin´eaire donc convexe et `a fortiori cF -convexe. Ainsi elle v´erifie les hypoth`eses du u cD ≥ 0 s’interpr`ete th´eor`eme. La fonction de coˆ ut uN (x) = cx− + cD x+ o` comme le coˆ ut support´e par le gestionnaire pour se d´ebarrasser d’une unit´e de stock r´esiduel a` l’instant terminal N v´erifie ´egalement les hypoth`eses. ♦ D´emonstration. Le principe de la d´emonstration est le suivant : – nous allons v´erifier par r´ecurrence descendante que ∀t ∈ {0, . . . , N } la u Kt ∈ R, fonction ut (x) est continue, cF -convexe, minor´ee par Kt − cx o` – en v´erifiant que pour t ∈ {0, . . . , N − 1}, l’hypoth`ese de r´ecurrence au rang t+1 implique l’hypoth`ese de r´ecurrence au rang t, nous montrerons qu’il existe un couple (st , St ) tel que la r`egle de d´ecision (st , St ) est optimale a` l’instant t. L’hypoth`ese de r´ecurrence est clairement v´erifi´ee au rang N . Supposons-la v´erifi´ee au rang t + 1 avec t ∈ {0, . . . , N − 1}. Il est facile d’en d´eduire que y → αE[ut+1 (y − D1 )] est αcF -convexe et donc cF -convexe (α ∈ [0, 1]). La continuit´e de cette fonction se d´eduit de celle de ut+1 en utilisant le th´eor`eme de convergence domin´ee et une majoration technique du type |ut+1 (y)| ≤ ηt+1 + γt+1 |y| avec ηt+1 , γt+1 ≥ 0 que nous ne d´emontrerons pas ici (mais qui s’obtient ´egalement par r´ecurrence descendante sur t). Comme la fonction g est continue et convexe d’apr`es la remarque 3.1.3, la fonction ft (y) = g(y) + αE[ut+1 (y − D1 )] est cF -convexe continue.

3.3 R´esolution du probl`eme dynamique de gestion de stock

77

Par hypoth`ese de r´ecurrence, ut+1 (y − D1 ) ≥ Kt+1 − cy + cD1 . Donc ft (y) est minor´e par (1 − α)cy + cS E[(y − D1 )+ ] + cM E[(D1 − y)+ ] + α(Kt+1 + cE[D1 ])

= ((1 − α)c + cS )y + (cS + cM )E[(D1 − y)+ ] + αKt+1 + (αc − cS )E[D1 ].

En remarquant que pour y ≤ 0, le second membre est ´egal `a ((1−α)c−cM )y + αKt+1 + (αc + cM )E[D1 ], on d´eduit de l’in´egalit´e cM > (1 − α)c > −cS que lim|y|→+∞ ft (y) = +∞. D’o` u l’existence de (st , St ) avec ft (St ) = inf ft (y) et st = sup{z ≤ St , ft (z) ≥ cF + inf ft (y)}. y

y∈R

` l’instant t, Posons ft∗ = inf y ft (y). Par continuit´e de ft , ft (st ) = cF + ft∗ . A comme   ut (x) = −cx + min ft (x), cF + inf ft (x + q) , q>0

le gestionnaire doit choisir la commande q ≥ 0 qui minimise cF 1{q>0} + ft (x + q). Montrons que la r`egle de d´ecision (st , St ) est optimale. Pour cela, on distingue trois situations cas 1 : x ≤ st . Lorsque cF = 0, st = St et commander St − x est optimal. On suppose donc cF > 0. Alors st ∈ [x, St [ i.e. st = βx + (1 − β)St pour β ∈]0, 1] et par cF -convexit´e de ft , ft (st ) ≤ βft (x) + (1 − β)(ft∗ + cF ). Comme ft (st ) = ft∗ + cF , on en d´eduit que ft (x) ≥ cF + ft∗ = cF + inf ft (x + q) q>0

et il est optimal de commander St − x. cas 2 : st ≤ x < St . Par d´efinition de st , ft (x) ≤ cF +ft∗ = cF +inf q>0 ft (x+q) et il est optimal de ne rien commander. cas 3 : x ≥ St . Pour q ≥ 0, comme x ∈ [St , x + q], il existe β ∈ [0, 1] tel que x = βSt + (1 − β)(x + q). Par cF -convexit´e de ft , puis en utilisant ft∗ = inf y ft (y), ft (x) ≤ βft∗ +(1−β)(ft (x+q)+cF ) ≤ ft (x+q)+(1−β)cF ≤ ft (x+q)+cF . On en d´eduit que ft (x) ≤ cF + inf q>0 ft (x + q) et qu’il est optimal de ne rien commander. En cons´equence,  −cx + ft∗ + cF si x ≤ st ut (x) = , −cx + ft (x) si x > st

78

3 Gestion des approvisionnements

et cette fonction est continue et minor´ee par Kt − cx pour Kt = ft∗ . Le lemme suivant assure que la fonction 1{x≤st } (ft∗ + cF ) + 1{x>st } ft (x) est cF -convexe. On en d´eduit facilement que ut qui s’obtient en ajoutant a` cette fonction la ⊓ ⊔ fonction lin´eaire −cx est cF -convexe, ce qui ach`eve la d´emonstration. Remarque 3.3.8. Lorsque les demandes des clients D1 , . . . , DN ne sont pas identiquement distribu´ees mais restent ind´ependantes et int´egrables, on peut v´erifier que les ´equations d’optimalit´e s’´ecrivent   ut (x) = −cx + inf cF 1{q>0} + gt (x + q) + αE[ut+1 (x + q − Dt+1 )] , q≥0

o` u gt (y) = cy + cS E [(y − Dt+1 )+ ] + cM E [(Dt+1 − y)+ ]. La d´emonstration pr´ec´edente permet toujours de conclure a` l’existence d’une strat´egie optimale ♦ de la forme (st , St ).

Lemme 3.3.9. Soit C ≥ 0 et f : R → R une fonction C-convexe continue qui atteint son minimum f ∗ en S. On suppose que l’ensemble {z ≤ S, f (z) ≥ f ∗ + C} est non vide et on note s sa borne sup´erieure. Alors la fonction u(x) = 1{x≤s} (f ∗ + C) + 1{x>s} f (x) est C-convexe. D´emonstration. La fonction u est C-convexe sur chacun des intervalles ] − ∞, s] et [s, +∞[ car constante sur le premier et ´egale `a f sur le second. Pour conclure, il suffit donc de montrer l’in´egalit´e de C-convexit´e (voir d´efinition 3.3.3) pour x ≤ s ≤ y. Pour ce faire, on distingue deux cas : cas 1 : β ∈ [0, 1] est t.q. βx + (1 − β)y ≤ s. Alors, u(βx + (1 − β)y) = f ∗ + C = β(f ∗ + C) + (1 − β)(f ∗ + C), et comme u(x) = f ∗ + C et u(y) = f (y) ≥ f ∗ , l’in´egalit´e de C-convexit´e est v´erifi´ee. cas 2 : βx + (1 − β)y ≥ s. Alors pour β˜ = β(y − x)/(y − s) ∈ [β, 1], βx + ˜ + (1 − β)y. ˜ (1 − β)y = βs En utilisant la C-convexit´e de f puis l’´egalit´e f (s) = f ∗ + C, on a ˜ + (1 − β)y) ˜ ˜ (s) + (1 − β)(f ˜ (y) + C) u(βx + (1 − β)y) = f (βs ≤ βf ˜ (y) − f ∗ ) = β(f ∗ + C) + (1 − β)(f (y) + C) + (β − β)(f ˜ (y) − f ∗ ) = βu(x) + (1 − β)(u(y) + C) + (β − β)(f ≤ βu(x) + (1 − β)(u(y) + C),

˜ (y) − f ∗ ) ≤ 0. puisque (β − β)(f

⊓ ⊔

Dans le cas particulier o` u N = 10, α = 0.9, c = 10, cM = 20, cS = 5, uN (x) = −cx et les demandes sont distribu´ees suivant la loi de Poisson de param`etre 50, les Tableaux 3.1 et 3.2 fournissent respectivement les valeurs de la suite (St , 0 ≤ t ≤ 9) des stocks objectifs et de

3.3 R´esolution du probl`eme dynamique de gestion de stock

79

Tableau 3.1. Suite des stocks objectifs en fonction de cF dans le cas N = 10, α = 0.9, c = 10, cM = 20, cS = 5, uN (x) = −cx et demandes distribu´ees suivant la loi de Poisson de param`etre 50 cF = 0 cF = 100 cF = 200 cF = 300 cF = 400 cF = 500 cF = 600 cF = 700

S0 55 55 55 55 100 100 100 100

S1 55 55 55 55 100 100 100 100

S2 55 55 55 55 100 100 100 100

S3 55 55 55 55 100 100 100 100

S4 55 55 55 55 100 100 100 100

S5 55 55 55 55 100 100 100 101

S6 55 55 55 55 100 100 100 100

S7 55 55 55 55 100 100 101 139

S8 55 55 55 55 100 100 100 100

S9 55 55 55 55 55 55 55 55

Tableau 3.2. Suite des stocks seuils en fonction de cF dans le cas N = 10, α = 0.9, c = 10, cM = 20, cS = 5, uN (x) = −cx et demandes distribu´ees suivant la loi de Poisson de param`etre 50 cF = 0 cF = 100 cF = 200 cF = 300 cF = 400 cF = 500 cF = 600 cF = 700

s0 55 42 36 31 28 27 25 21

s1 55 42 36 31 27 23 19 17

s2 55 42 36 31 29 27 25 22

s3 55 42 36 31 27 22 19 17

s4 55 42 36 31 29 28 26 22

s5 55 42 36 31 26 22 18 16

s6 55 42 36 31 29 28 27 23

s7 55 42 36 31 26 21 17 15

s8 55 42 36 31 30 29 28 28

s9 55 42 36 31 26 20 15 10

la suite (st , 0 ≤ t ≤ 9) des stocks seuils pour cF parcourant l’ensemble {0, 100, 200, 300, 400, 500, 600, 700}. Ces suites ont ´et´e calcul´ees en effectuant par r´ecurrence descendante sur t l’ensemble des ´etapes donn´ees par les formules encadr´ees dans la d´emonstration du th´eor`eme 3.3.6. Plus pr´ecis´ement, lors de l’impl´ementation informatique, il faut borner l’ensemble des valeurs du stock syst`eme pour lesquelles on effectue les cal` cet effet, on se donne deux entiers relatifs xmin < xmax et on note culs. A D = {xmin , xmin + 1, . . . , xmax }. On commence par calculer (g(x), x ∈ D) en utilisant par exemple la formule (3.5). Puis partant de (uN (x) = −cx, x ∈ D), on effectue par r´ecurrence descendante sur t ∈ {N − 1, . . . , 0} l’ensemble des ´etapes suivantes : K – calcul de ft (x) = g(x) + α k=0 ut+1 (max(x − k, xmin ))P(D1 = k) pour x ∈ D o` u K est fix´e de fa¸con a` ce que P(D1 ≤ K) soit suffisamment proche de 1 (pour D1 distribu´ee suivant la loi de Poisson de param`etre 50, le choix K = 80 assure P(D1 ≤ K) ≃ 1 − 3.4 × 10−5 ), – d´etermination de St ∈ D tel que ft (St ) = minx∈D ft (x),

80

3 Gestion des approvisionnements

– calcul de st = max{x ∈ {xmin , . . . , St } : ft (x) ≥ ft (St ) + cF } avec la convention max ∅ = xmin − 1, – calcul de ut (x) = −cx + 1{x≤st } (ft (St ) + cF ) + 1{x>st } ft (x) pour x ∈ D. Pour mesurer les effets des r´eductions de domaine effectu´ees `a la fois pour les valeurs du stock syst`eme (choix de xmin et de xmax ) et pour les valeurs des demandes (choix de K), il convient de regarder si diminuer xmin en augmentant simultan´ement xmax et K modifie les valeurs des stocks objectifs et des stocks seuils calcul´ees par l’algorithme. Sur notre exemple, nous avons obtenu les r´esultats qui figurent dans les tableaux 3.1 a` la fois pour (xmin , xmax , K) = (−700, 300, 80) et pour (xmin , xmax , K) = (−3 000, 1 000, 100). Ces r´esultats appellent quelques commentaires. Tout d’abord, en absence de coˆ ut fixe (cF = 0), on a st = St = 55 pour tout t ce qui signifie que la strat´egie optimale consiste `a chaque instant a` commander (55 − x)+ lorsque le stock syst`eme est ´egal `a x. On retrouve bien la strat´egie optimale donn´ee par le th´eor`eme 3.3.1 puisque pour le choix des param`etres consid´er´e, Sα = 55 (voir ut Fig. 3.2). Ensuite, il est normal que la valeur de S9 ne d´epende pas du coˆ fixe cF puisque S9 s’obtient comme r´ealisant le minimum de f9 , fonction qui s’´ecrit `a partir de u10 et de g qui ne d´ependent pas de cF . Enfin, lorsque l’on augmente le niveau du coˆ ut fixe cF , on distingue deux r´egimes : – dans un premier temps (cF ≤ 300) le stock objectif S reste ´egal `a 55 tandis que le stock seuil s, constant en temps, diminue. La quantit´e command´ee minimale (lors d’une commande effective) qui est ´egale `a la diff´erence S − s augmente donc pour compenser l’augmentation du coˆ ut fixe. – dans un second temps (cF ≥ 400), le stock objectif passe `a 100 = 2E[D1 ] sauf au dernier instant tandis que la moyenne temporelle du stock seuil continue a` diminuer. On peut interpr´eter le doublement approximatif du stock objectif de la fa¸con suivante : lorsque le gestionnaire d´ecide de passer une commande aupr`es de son fournisseur, il approvisionne suffisamment de stock pour faire face aux demandes des clients sur deux p´eriodes et non plus sur une seule p´eriode comme pour des valeurs plus faibles du coˆ ut fixe. 3.3.3 D´ elai de livraison Nous introduisons la g´en´eralisation tr`es utile en pratique qui consiste a` supposer que les commandes effectu´ees par le gestionnaire aupr`es de son fournisseur lui sont livr´ees avec un d´elai de d ∈ N p´eriodes de temps : plus pr´ecis´ement la quantit´e Qt command´ee en t ∈ {0, . . . , N − 1} est livr´ee sur la p´eriode [t+d, t+d+1]. Jusqu’` a pr´esent, nous nous sommes int´eress´e au cas d = 0. Nous supposons ´egalement que pour t ∈ {0, . . . , N + d − 1}, les clients formulent la demande Dt+1 sur la p´eriode [t, t + 1] avec D1 , . . . , DN +d des variables al´eatoires positives int´egrables ind´ependantes et de fonction de r´epartition commune F .

3.3 R´esolution du probl`eme dynamique de gestion de stock

81

Pour t ∈ {0, . . . , N + d}, on note Yt la quantit´e ´egale au stock physique moins les manquants `a l’instant t. Et pour t ∈ {0, . . . , N }, on d´efinit le stock syst` eme Xt en t comme la somme de Yt et de l’en-commande c’est-`a-dire la quantit´e command´ee Qt−d + Qt−d+1 + . . . + Qt−1 qui se trouve en attente de livraison : Xt = Yt + Qt−d + Qt−d+1 + . . . + Qt−1 . (3.15) Pour t ∈ {0, . . . , N − 1}, entre t et t + 1, l’en-commande varie de Qt − Qt−d (quantit´e command´ee en t moins quantit´e livr´ee sur la p´eriode) tandis que Yt varie de Qt−d − Dt+1 (quantit´e livr´ee moins demandes des clients sur la p´eriode) si bien que Xt+1 = Xt + (Qt − Qt−d ) + (Qt−d − Dt+1 ) = Xt + Qt − Dt+1 . Ainsi l’´equation (3.7) donnant l’´evolution du stock syst`eme en absence de d´elai de livraison est pr´eserv´ee. + et Le stock physique et les manquants en t + d + 1 sont donn´es par Yt+d+1 − Yt+d+1 si bien que le coˆ ut sur la p´eriode [t+d, t+d+1] induit par la commande de Qt en t ∈ {0, . . . , N − 1} est donn´e par − + . + cM Yt+d+1 cF 1{Qt >0} + cQt + cS Yt+d+1

En ajoutant un coˆ ut final donn´e par uN +d (YN +d ), on obtient que l’esp´erance du coˆ ut total avec facteur d’actualisation α est donn´ee par

E

N −1  t=0

 t





− + + αN uN +d (YN +d ) . α cF 1{Qt >0} + cQt + cS Yt+d+1 + cM Yt+d+1

Pour t ∈ {0, . . . , N − 1}, la quantit´e stock physique moins manquants en t+d+1 s’obtient en ajoutant a` cette quantit´e en t les commandes Qt−d , . . . , Qt qui sont livr´ees par le fournisseur sur la p´eriode [t, t+d+1] et en y retranchant les demandes Dt+1 , . . . , Dt+d+1 qui sont formul´ees par les clients sur la mˆeme p´eriode : Yt+d+1 = Yt + Qt−d + . . . + Qt−1 + Qt − Dt+1 − . . . − Dt+d+1 = Xt + Qt − Dt+1 − . . . − Dt+d+1 , d’apr`es (3.15). a Comme Xt et Qt ne d´ependent que des demandes D1 , D2 , . . . , Dt jusqu’` l’instant t qui sont ind´ependantes des demandes ult´erieures Dt+1 , . . . , DN +d , le couple (Xt , Qt ) est ind´ependant du vecteur al´eatoire (Dt+1 , . . . , Dt+d+1 ).

82

3 Gestion des approvisionnements

D’apr`es la proposition A.1.21, on en d´eduit que # " + − = E[ϕ(Xt , Qt )], + cM Yt+d+1 E cF 1{Qt >0} + cQt + cS Yt+d+1  o` u ϕ(x, q) = E cF 1{q>0} + cq + cS (x + q − Dt+1 − . . . − Dt+d+1 )+ ! − + cM (x + q − Dt+1 − . . . − Dt+d+1 ) . De mani`ere analogue, YN +d = XN −DN +1 −. . .−DN +d o` u la variable al´eatoire XN est ind´ependante du vecteur al´eatoire (DN +1 , . . . , DN +d ), ce qui entraˆıne u que E[uN +d (YN +d )] = E[uN (XN )] o` uN (x) = E[uN +d (x − DN +1 − . . . − DN +d )]. On en d´eduit que l’esp´erance du coˆ ut total actualis´e s’´ecrit  N −1  t N α ϕ(Xt , Qt ) + α uN (XN ) . E t=0

Comme les demandes sont identiquement distribu´ees, les ´equations d’optimalit´e s’´ecrivent : pour t ∈ {0, . . . , N − 1},   ut (x) = inf ϕ(x, q) + αE[ut+1 (x + q − D1 )] q≥0  = inf E cF 1{q>0} + cq + cS (x + q − D1 − . . . − Dd+1 )+ q≥0  − + cM (x + q − D1 − . . . − Dd+1 ) + αut+1 (x + q − D1 ) . Par rapport aux ´equations d’optimalit´e (3.13), les termes (x + q − D1 )+ et (x+q−D1 )− sont respectivement remplac´es ici par (x+q−D1 −. . .−Dd+1 )+ et (x+q −D1 −. . .−Dd+1 )− , ce qui traduit le fait que les premi`eres cons´equences en termes de coˆ ut de la d´ecision de commander la quantit´e q ont lieu d + 1 p´eriodes plus tard i.e. lorsque les clients ont exprim´e leurs demandes sur d + 1 p´eriodes. Le terme E[ut+1 (x+q −D1 )] est inchang´e car la dynamique du stock syst`eme l’est. u Lorsque la fonction uN +d (x) est continue, cF -convexe, minor´ee par K − cx o` K ∈ R et v´erifie |uN +d (x)| ≤ η + γ|x| (avec η, γ ≥ 0) il est facile de v´erifier que uN v´erifie les mˆemes propri´et´es. Lorsque uN +d (x) = −cx, uN (x) = −cx + u la constante cd E[D1 ] ne change rien a` la strat´egie optimale. En cd E[D1 ] o` reprenant l’approche et les d´emonstrations des deux paragraphes pr´ec´edents, on obtient : Th´ eor` eme 3.3.10. On suppose cM > (1 − α)c > −cS . u K ∈ R, cF -convexe et v´erifie Si uN +d (x) est continue, minor´ee par K − cx o`

3.3 R´esolution du probl`eme dynamique de gestion de stock

83

|uN +d (x)| ≤ η + γ|x| avec η, γ ≥ 0, alors il existe une strat´egie optimale dont la r`egle de d´ecision a ` l’instant t ∈ {0, . . . , N − 1} est de la forme (st , St ) i.e. ` l’instant t est x. consiste ` a commander 1{x≤st } (St − x)+ si le stock syst`eme a Dans le cas particulier o` u cF = 0 et uN +d (x) = −cx, la strat´egie avec stock u objectif Sα,d o`  Sα,d = inf{z ≥ 0 : Fd+1 (z) ≥ (cM − (1 − α)c)/(cM + cS )} avec Fd+1 (z) = P(D1 + . . . Dd+1 ≤ z) qui consiste a ` commander (Sα,d − x)+ lorsque le stock syst`eme vaut x est optimale. La figure 3.4 illustre l’optimalit´e de la strat´egie de stock objectif Sα,1 = 107 dans le cas particulier o` u le d´elai de livraison est d = 1, les demandes sont distribu´ees suivant la loi de Poisson de param`etre 50, N = 10, α = 0.9, c = 10, cM = 20, cS = 5, cF = 0, f (x) = −cx et le stock initial est X0 = 50. Pour z ∈ {90, 91, . . . , 120} le coˆ ut moyen associ´e `a la strat´egie de stock objectif z a ´et´e ´evalu´e en effectuant la moyenne empirique des coˆ uts sur 1 000 r´ealisations des demandes (D1 , . . . , D11 ). Les mˆemes r´ealisations de ces variables ont ´et´e utilis´ees pour chacune des strat´egies. Les courbes en pointill´es repr´esentent les bornes des intervalles de confiance `a 95 % obtenus pour chacun des coˆ uts moyens.

4 700

4 200

3 700 90

100

Sα,1 = 107

110

z

120

Fig. 3.4. Coˆ ut associ´e ` a la strat´egie de stock objectif z pour un d´elai de livraison d = 1 (N = 10, stock initial X0 = 50, α = 0.9, c = 10, cM = 20, cS = 5, cF = 0, uN +d (x) = −cx, demandes distribu´ees suivant la loi de Poisson de param`etre 50)

Remarque 3.3.11. Dans le cas o` u les demandes sont distribu´ees suivant la loi de Poisson de param`etre µ (resp. la loi gaussienne N (µ, σ 2 )), D1 + . . . + Dd+1

84

3 Gestion des approvisionnements

suit la loi de Poisson de param`etre (d + 1)µ (resp. la loi normale N ((d + ♦ 1)µ, (d + 1)σ 2 )) et Fd+1 est la fonction de r´epartition de cette loi.

3.4 Conclusion Dans ce chapitre nous avons mis en ´evidence l’int´erˆet des r`egles de d´ecision de type (s, S) pour la gestion dynamique du stock d’un produit (pi`ece de rechange par exemple). En effet, nous avons montr´e l’optimalit´e d’une strat´egie compos´ee de r`egles de d´ecision markoviennes de ce type `a chaque p´eriode parmi toutes les strat´egies compos´ees de r`egles de d´ecision fonctions de tout le pass´e. Ce r´esultat reste valable pour des mod`eles plus g´en´eraux que celui que nous avons ´etudi´e : fonctions de coˆ ut de surplus et de coˆ ut de manquants convexes (elles sont suppos´ees lin´eaires ici), demandes ind´ependantes mais non identiquement distribu´ees, fonctions de coˆ ut d´ependant du temps, coˆ uts fixes d´ependant du temps sous r´eserve que αcF (t + 1) ≤ cF (t), etc. Nous renvoyons a la pr´esentation de Porteus [7] ou au livre de Liu et Esogbue [6] pour la ` description de ces mod`eles g´en´eraux. L’optimalit´e d’une strat´egie (s, S) reste ´egalement valable pour le probl`eme de gestion de stock `a horizon temporel infini, auquel est consacr´e le Chap. 13 du livre de Whittle [11]. ` cet effet, D’un point de vue pratique, on doit identifier la loi de la demande. A il est par exemple possible d’effectuer un traitement statistique des demandes pass´ees. On peut ensuite d´eterminer les (st , St ) en r´esolvant par r´ecurrence descendante les ´equations d’optimalit´e.

R´ ef´ erences 1. R. Bellman. Dynamic programming. Princeton University Press, Princeton, N.J., 1957. 2. D.P. Bertsekas. Dynamic programming and stochastic control. Academic Press [Harcourt Brace Jovanovich Publishers], New York, 1976. Mathematics in Science and Engineering, 125. 3. D.P. Bertsekas. Dynamic Programming and Optimal Control, Vol. 1 et 2. Athena Scientific, 1995. 4. D.P. Bertsekas et S.E. Shreve. Stochastic optimal control, volume 139 de Mathematics in Science and Engineering. Academic Press Inc. [Harcourt Brace Jovanovich Publishers], New York, 1978. The discrete time case. 5. D. Lamberton et B. Lapeyre. Introduction au calcul stochastique appliqu´ e ` a la ´ finance. Ellipses Edition Marketing, Paris, seconde ´edition, 1997. 6. B. Liu et A.O. Esogbue. Decision criteria and optimal inventory processes. International Series in Operations Research & Management Science, 20. Kluwer Academic Publishers, Boston, MA, 1999. 7. E.L. Porteus. Stochastic inventory theory. In Stochastic models, volume 2 de Handbooks Oper. Res. Management Sci., pages 605–652. North-Holland, Amsterdam, 1990.

R´ef´erences

85

8. M.L. Puterman. Markov decision processes : discrete stochastic dynamic programming. Wiley Series in Probability and Mathematical Statistics : Applied Probability and Statistics. John Wiley & Sons Inc., New York, 1994. 9. H. Scarf. The optimality of (s, S) policies in the dynamic inventory problem. In S.U. Press, editor, Proceeding of the 1959 Stanford Symposium on Mathematical Methods in the Social Sciences, pages 196–202, 1960. 10. D.J. White. Markov decision processes. John Wiley & Sons Ltd., Chichester, 1993. 11. P. Whittle. Optimization over time. Vol. I. Wiley Series in Probability and Mathematical Statistics : Applied Probability and Statistics. John Wiley & Sons Ltd., Chichester, 1982. Dynamic programming and stochastic control.

4 Introduction aux ph´ enom` enes de branchement : le processus de Galton-Watson

L’´etude des processus de branchement est n´ee avant le si`ecle dernier de l’int´erˆet pour la disparition des noms de familles nobles en Angleterre. En 1873, Galton a propos´e un probl`eme math´ematique pr´ecis en lien avec ce ph´enom`ene : N hommes adultes d’une nation qui portent tous des noms de famille diff´erents partent coloniser un pays. On suppose qu’` a chaque g´en´eration, la proportion d’hommes qui ont k gar¸cons est pk (k ∈ N). La question est de savoir quelle sera, apr`es n g´en´erations, la proportion des noms de famille qui auront disparu. En raisonnant sur la premi`ere g´en´eration, on peut voir que la probabilit´e η de disparition ou extinction d’un nom de famille dans le futur est ´egale `a la probabilit´e p0 pour que l’ancˆetre n’ait aucun gar¸con, plus la probabilit´e p1 qu’il ait un gar¸con fois la probabilit´e η que la descendance masculine de ce gar¸con s’´eteigne, plus la probabilit´e p2 qu’il ait deux gar¸cons fois la probabilit´e η 2 que les descendances masculines, suppos´ees ind´ependantes, de ces deux gar¸cons s’´eteignent et ainsi de suite. Ainsi η est solution de l’´equation  pk η k (4.1) η = p 0 + p1 η + p 2 η 2 + p3 η 3 + . . . = k∈N

Watson a obtenu cette ´equation par un raisonnement l´eg`erement diff´erent. Comme η = 1 en est toujours solution, il a conclu de mani`ere incorrecte au caract`ere in´eluctable de l’extinction de la descendance masculine et donc de la disparition des noms de famille. Plus r´ecemment, les processus de branchement sont apparus comme des mod`eles pertinents en biologie (voir [4]) et en particulier en g´en´etique. On trouve dans ce domaine des questions tr`es proches de celle de la disparition des noms de famille. Consid´erons par exemple une macro-mol´ecule d’ADN ou d’ARN qui consiste en une chaˆıne de ν nucl´eotides. En une unit´e de temps, cette chaˆıne est r´epliqu´ee, chaque nucl´eotide ´etant copi´e de fa¸con correcte ` l’issue avec probabilit´e p et ce ind´ependamment des autres nucl´eotides. A de la r´eplication, la mol´ecule est d´etruite avec probabilit´e w ou bien donne

88

4 Le processus de Galton-Watson

naissance `a deux mol´ecules avec probabilit´e compl´ementaire 1 − w. La probabilit´e de disparition de la population de macro-mol´ecules correctes est ´egale `a celle d’extinction d’un nom de famille dans le cas o` u p0 = w (destruction), p1 = (1 − w)(1 − pν ) (non destruction mais r´eplication incorrecte), p2 = (1 − w)pν (non destruction et r´eplication correcte) et pk = 0 pour k ≥ 3. Cet exemple est tir´e du livre de Kimmel et Axelrod [6]. Afin d’´etudier de mani`ere rigoureuse les probl`emes pr´ec´edents, il faut introduire quelques notations et hypoth`eses. On note Zn le nombre de descendants (gar¸cons ou mol´ecules correctes) `a la n-i`eme g´en´eration issus d’un unique ancˆetre : Z0 = 1. Si Zn > 0, chaque individu d’indice i compris entre 1 et Zn a ξin enfants si bien que  0 si Zn = 0 (4.2) Zn+1 = Zn n sinon. i=1 ξi

Les variables (ξin , n ≥ 0, i ≥ 1) sont ind´ependantes et identiquement distribu´ees suivant la loi de reproduction (pk , k ∈ N) i.e. P(ξin = k) = pk . n On les suppose de carr´e int´egrable " ξn # et on note respectivement m = E[ξi ], 2 2 n σ = E[(ξi − m) ] et G(s) = E s i , s ∈ [0, 1] leur esp´erance, leur variance et leur fonction g´en´eratrice communes. La famille de variables al´eatoires (Zn , n ∈ N) s’appelle processus de GaltonWatson. Il va s’av´erer que la position de l’esp´erance m par rapport a` 1 joue un rˆ ole important dans l’analyse du ph´enom`ene d’extinction. C’est pourquoi nous introduisons la d´efinition suivante : D´ efinition 4.0.1. Le processus de Galton-Watson et sa loi de reproduction sont dits – sous-critiques si m < 1, – critiques si m = 1, – surcritiques si m > 1. Le premier paragraphe du chapitre est consacr´e `a l’´etude de la probabilit´e d’extinction. Dans le second paragraphe, nous motivons par un exemple biologique l’´etude de la loi conditionnelle de Zn sachant Zn > 0. Puis nous montrons en distinguant les cas sous-critique, critique et surcritique que cette loi conditionnelle correctement renormalis´ee converge lorsque n tend vers l’infini. Dans le troisi`eme paragraphe, nous introduisons une technique de fonction d’importance qui permet de se ramener a` la simulation d’un processus surcritique lorsque l’on souhaite calculer une esp´erance relative a` un processus sous-critique ou critique. L’objectif de cette technique est d’obtenir un estimateur de variance moindre. Enfin, dans le dernier  paragraphe, nous ´etudions les liens entre la loi de la population totale n∈N Zn du processus de Galton-Watson et la loi de reproduction. Les r´esultats obtenus seront utilis´es dans le Chap. 12 consacr´e

´ 4.1 Etude du ph´enom`ene d’extinction

89

aux ph´enom`enes de coagulation et de fragmentation ainsi que dans le Chap. 9 qui traite des files d’attente. Les d´emonstrations sont beaucoup plus techniques que celles donn´ees dans les paragraphes pr´ec´edents. Remarque 4.0.2. Pour (z1 , . . . , zn−1 , x, y) ∈ Nn+1 , P(Zn+1 = y|Z1 = z1 , . . . , Zn−1 = zn−1 , Zn = x) &  x  ξin = y, Z1 = z1 , . . . , Zn = x P(Z1 = z1 , . . . , Zn = x) =P i=1

=P



x  i=1

ξin



=y ,

par ind´ependance des variables (ξin , i ≥ 1) et des variables Z1 , . . . , Zn qui sont fonctions des (ξil , 0 ≤ l ≤ n − 1, i ≥ 1). Ainsi le processus (Zn , n ≥ 0) est une chaˆıne de Markov homog`ene de matrice de transition   x  1 ξi = y . ∀x, y ∈ N, P (x, y) = P i=1

Cette propri´et´e ne sera pas exploit´ee dans ce qui suit car le bon outil pour ♦ l’´etude du processus (Zn , n ≥ 0) est la fonction g´en´eratrice. Remarque 4.0.3. Pour des  r´esultats plus fins que ceux expos´es dans ce chapitre ou sous l’hypoth`ese k≥1 k log(k)pk < +∞ moins forte que celle  2 k p < +∞ que nous avons faite, on pourra se r´ef´erer aux livres k k≥1 d’Asmussen et Hering [1], d’Athreya et Ney [2] et de Harris [3]. ♦

´ 4.1 Etude du ph´ enom` ene d’extinction On note E l’´ev´enement “la descendance s’´eteint” : E = n≥1 {Zn = 0}. Comme, lorsque la population s’annule a` la n-i`eme g´en´eration, elle reste u nulle ult´erieurement, les ´ev´enements {Zn = 0} sont croissants au sens o` {Zn = 0} ⊂ {Zn+1 = 0}. Ainsi la probabilit´e d’extinction η est donn´ee par η = P(E) = lim P(Zn = 0). n→+∞

# " On note Gn (s) = E sZn la fonction g´en´eratrice du nombre de descendants a` la n-i`eme g´en´eration. On a P(Zn = 0) = Gn (0). Donc η = lim Gn (0). n→+∞

Pour caract´eriser la probabilit´e d’extinction η, nous allons ´etudier la suite (Gn (0), n ≥ 0). La cl´e de cette ´etude est la relation entre Gn−1 , Gn et la fonction g´en´eratrice G de la loi de reproduction ´enonc´ee dans le lemme suivant.

90

4 Le processus de Galton-Watson

Rappelons auparavant que d’apr`es le th´eor`eme A.2.4, la fonction G est croissante et convexe sur [0, 1]. Avec les hypoth`eses que nous avons faites, elle est deux fois continˆ ument d´erivable sur [0, 1] et v´erifie G′ (1) = E[ξin ] = m et G′′ (1) = E[ξin (ξin − 1)] = σ 2 + m2 − m. Lemme 4.1.1. Pour tout n ∈ N∗ , Gn (s) = Gn−1 (G(s)) = G ◦ . . . ◦ G*(s), ' ◦ G ()

n fois c’est-` a-dire que Gn est la compos´ee n-i`eme de la fonction g´en´eratrice G des variables ξin . En outre E[Zn ] = mn .

D´emonstration. Onutilise le caract`ere discret de la variable al´eatoire Zn−1 qui assure que 1 = k∈N 1{Zn−1 =k} et son ind´ependance avec les ξin−1 , i ≥ 1. Ces deux propri´et´es entraˆınent que ⎡ ⎤ k n−1  " Zn # = E⎣ 1{Zn−1 =k} s i=1 ξi ⎦ Gn (s) = E s k≥0

=



k≥0

n−1 k  = P(Zn−1 = k)E sξ1 G(s)k P(Zn−1 = k) = Gn−1 (G(s)). k≥0

D’apr`es le th´eor`eme A.2.4, on a E[Zn ] = G′n (1). La relation de r´ecurrence que nous venons d’´etablir assure que Gn (s) = G(Gn−1 (s)) et donc que G′n (s) = G′ (Gn−1 (s))G′n−1 (s) =

n 

G′ (Gl−1 (s)).

l=1

Comme pour tout l ≥ 1, Gl (1) = 1, on conclut que E[Zn ] = G′ (1)n = mn .

⊓ ⊔

Remarque 4.1.2. On peut retrouver les r´esultats qui pr´ec`edent en d´ecomposant suivant les valeurs prises par Z1 au lieu de le faire suivant les valeurs i le nombre de descendants a` la prises par Zn−1 . En effet, si on note Z1,n n-i` e me g´ e n´ e ration du i-i` e me descendant de la premi`ere g´en´eration, alors Zn = Z1 i Z . En outre, conditionnellement a ` l’´ e v´ enement {Z1 = k}, les variables i=1 1,n i , 1 ≤ i ≤ k sont ind´ependantes et ont mˆeme loi que Zn−1 . Ainsi al´eatoires Z1,n   1 k E[1{Z1 =k} sZ1,n +...+Z1,n ] = P(Z1 = k)(Gn−1 (s))k E[sZn ] = k∈N

k∈N

= G(Gn−1 (z)).

♦ Dans le cas particulier suivant, nous allons obtenir une expression explicite pour Gn et en d´eduire la loi du nombre de descendants Zn `a la n-i`eme g´en´eration.

´ 4.1 Etude du ph´enom`ene d’extinction

91

Exemple 4.1.3. On suppose que chaque variable ξin est ´egale avec probabilit´e β ∈]0, 1] a` une variable g´eom´etrique de param`etre p ∈]0, 1[ et avec probabilit´e 1−β ` a 0 i.e.  1 − β si k = 0 (4.3) pk = u on note q = 1 − p). β p q k−1 si k ≥ 1 (o` On v´erifie alors en utilisant par exemple les r´esultats du paragraphe A.2.1 sur les variables al´eatoires g´eom´etriques que m=

β , p

σ2 =

β(1 + q − β) p2

et G(s) = 1 − β +

βps . 1 − qs

L’´equation G(s) = s se r´ecrit en utilisant p + q = 1 : 0 = 1 − β − qs + βqs + βps − s + qs2 = (1 − β − qs)(1 − s). 1−β . Ces deux racines sont dis1−p tinctes si et seulement si l’esp´erance m des variables ξin est diff´erente de 1. On v´erifie que s−r 1 − qt G(s) − G(r) = × . ∀r, ∀t = s, G(s) − G(t) s−t 1 − qr

Elle admet donc comme racines 1 et s0 =

Comme

β 1 − qs0 = = m, pour le choix r = 1 et t = s0 , on obtient 1−q p s−1 G(s) − 1 =m . G(s) − s0 s − s0

Cette formule s’it`ere pour donner s−1 Gn (s) − 1 = mn . Gn (s) − s0 s − s0 Lorsque m = 1, alors s0 = 1 et on peut calculer Gn (s) a` partir de cette ´equation. Ainsi Gn (s) =

(1 − mn s0 )s + s0 (mn − 1) (1 − mn )s + mn − s0

si

m=

β = 1. p

Cette approche ne fonctionne plus dans le cas m = 1 o` u s0 = 1. On peut n´eanmoins v´erifier par r´ecurrence que Gn (s) =

nq + (1 − (n + 1)q)s 1 + (n − 1)q − nqs

si

m=

β = 1. p

(4.4)

92

4 Le processus de Galton-Watson

Dans tous les cas, ⎧ 1 − s0 ⎪ ⎨ n si m = 1 βn pn s m − s0 n o` u βn = m pn et pn = Gn (s) = 1−βn + p ⎪ 1 − (1 − pn )s ⎩ sinon. 1 +(n − 1)q (4.5)

La population Zn ` a la n-i`eme g´en´eration est donc ´egale avec probabilit´e βn `a une variable g´eom´etrique de param`etre pn et avec probabilit´e 1 − βn `a 0. On v´erifie facilement que lorsque n tend vers l’infini, Gn (0) = 1 − βn tend vers 1 si m ≤ 1 et vers s0 sinon. Ainsi la probabilit´e d’extinction η vaut 1 si ♦ m ≤ 1 et s0 sinon. L’exercice suivant qui se place dans le cas particulier que nous venons de consid´erer, a pour but de retrouver l’expression de Gn donn´ee dans le cas critique a` partir de celle obtenue dans le cas sous-critique. Exercice 4.1.4. On suppose que la loi de reproduction est donn´ee par l’´equation (4.3) avec β = p ∈]0, 1[. On se donne ind´ependamment des variables (ξin , n ≥ 0, i ≥ 1) distribu´ees suivant cette loi, des variables (Uin , n ≥ 0, i ≥ 1) ind´ependantes et uniform´ement r´eparties sur [0, 1]. Pour ε ∈]0, 1[, n ≥ 0 et i ≥ 1, on pose ξ˜iε,n = 1{Uin ≥ε} ξin . On note (Z˜nε , n ∈ N) le processus de GaltonWatson associ´e. ˜ε,n – Quelle est la loi commune variables ξi ?

des ˜ε

En d´eduire Gεn (s) = E sZn . – V´erifier par r´ecurrence que lorsque ε tend vers 0, alors pour tout n ∈ N, Z˜nε converge presque sˆ urement vers Zn . – Conclure que la fonction g´en´eratrice de Zn est donn´ee par (4.4). 

4.1.1 Caract´ erisation de la probabilit´ e d’extinction η Pour une loi de reproduction quelconque, il n’est pas en g´en´eral possible de calculer Gn . Mais la relation de r´ecurrence Gn (s) = G(Gn−1 (s)) suffit a` caract´eriser la limite η de la suite (Gn (0))n pour obtenir la proposition suivante : Proposition 4.1.5. La probabilit´e d’extinction η est la plus petite racine positive de l’´equation G(s) = s. Elle est nulle si p0 = 0. Sinon, elle est ´egale a ` 1 dans les cas sous-critique et critique et se trouve dans l’intervalle ouvert ]0, 1[ dans le cas surcritique. Dans le cas particulier de la loi de reproduction (4.3), la plus petite racine u m = β/p > 1 et positive est η = s0 = (1 − β)/(1 − p) dans le cas surcritique o` η = 1 sinon.

´ 4.1 Etude du ph´enom`ene d’extinction

93

D´emonstration. En passant a` la limite n → +∞, dans l’´egalit´e Gn+1 (0) = G(Gn (0)), on obtient avec la continuit´e de G que η = G(η). Ainsi on retrouve l’´equation (4.1) introduite en d´ecomposant sur le nombre de descendants `a la premi`ere g´en´eration. On s’int´eresse donc aux racines de l’´equation G(s) = s dans [0, 1] : – soit p1 = 1 et tous les s ∈ [0, 1] sont racines, – soit p1 < 1 avec p0 + p1 = 1 et s = 1 est la seule racine, – soit p0 + p1 < 1 et la fonction G est strictement convexe ce qui entraˆıne qu’il y a au plus une autre racine que 1. L’´equation admet donc une plus petite racine sur [0, 1], que l’on note s. Par croissance de G, G(0) ≤ G(s) = s, in´egalit´e que l’on it`ere en Gn (0) ≤ s. En prenant la limite n → +∞, on obtient η ≤ s. Comme η est une racine positive de l’´equation on conclut que η = s. Lorsque p0 = 0, alors G(0) = p0 = 0 ce qui entraˆıne que η = 0, r´esultat qui n’´etonnera personne puisque la population Zn est alors croissante avec n. Il ne reste plus qu’` a d´eterminer la position de la plus petite racine positive de G(s) = s lorsque p0 > 0. On commence par ´eliminer le cas n´ecessairement sous-critique o` u p0 + p1 = 1. On a alors G(s) = p0 + p1 s et la plus petite racine positive est ´egale `a 1. On suppose d´esormais que p0 + p1 < 1, ce qui assure que la fonction G est strictement convexe sur [0, 1]. Ainsi pour s ∈ [0, 1[, G(s) > G(1) + G′ (1)(s − 1) = 1 + m(s − 1). Dans les cas sous-critique ou critique on en d´eduit que pour s ∈ [0, 1[, G(s) > 1 + (s − 1) = s, ce qui permet de conclure que la plus petite racine est ´egale `a 1 (voir Fig. 4.1). Dans le cas surcritique, G′ (1) = m > 1 ce qui entraˆıne que pour s proche de 1, G(s) < G(1) + (s − 1) = s. Comme G(0) − 0 = p0 > 0, le th´eor`eme des valeurs interm´ediaires entraˆıne l’existence d’une racine sur ]0, 1[, qui est mˆeme unique du fait de la stricte convexit´e de G (voir Fig. 4.2). ⊓ ⊔ Nous allons maintenant revenir sur nos deux exemples introductifs. D’apr`es [5], en estimant la probabilit´e pk pour qu’un homme ait k gar¸cons sur les ´ donn´ees du recensement des hommes blancs de 1920 aux Etats-Unis, et en appliquant la proposition 4.1.5, Lotka [7] a obtenu η = 0.88 comme probabilit´e d’extinction de la descendance masculine issue d’un individu. Dans [8], il a ´egalement remarqu´e que la loi de reproduction (4.3) pour β = 0.5187 et p = 0.4414 s’ajustait bien aux donn´ees du recensement. Pour cette loi de reproduction surcritique (m = β/p = 1.175), la probabilit´e d’extinction est s0 = (1 − β)/(1 − p) = 0.862. Dans l’introduction de ce chapitre, nous avons ´egalement mod´elis´e l’´evolution d’une population de macro-mol´ecules correctes `a l’aide d’un processus de Galton-Watson de loi de reproduction : – p0 = w : probabilit´e pour que la mol´ecule soit d´etruite apr`es r´eplication, – p1 = (1 − w)(1 − pν ) : probabilit´e 1 − w pour que la mol´ecule et sa copie survivent fois la probabilit´e (1 − pν ) pour que l’un au moins des ν nucl´eotides ait ´et´e mal copi´e,

94

4 Le processus de Galton-Watson

1 y = G(s) y=s

G(0)

0

0

1

Fig. 4.1. Cas sous-critique ou critique m ≤ 1 : illustration de la convergence de la suite (Gn (0), n ≥ 0) vers η = 1

– p2 = (1 − w)pν : probabilit´e 1 − ν pour que la mol´ecule et sa copie survivent fois la probabilit´e pν pour que chacun des ν nucl´eotides ait ´et´e copi´e correctement, – pk = 0 pour k ≥ 3. L’esp´erance correspondante est m = (1 − w)(1 + pν ). Pour que la probabilit´e d’extinction de la population de mol´ecules correctes soit diff´erente de 1, il faut w . Si la probabilit´e w de destruction de la que m > 1, ce qui se r´ecrit pν > 1−w mol´ecule apr`es r´eplication est sup´erieure a` 1/2, cette condition n’est jamais v´erifi´ee. Dans le cas w < 1/2, seules les mol´ecules dont la taille en nombre de nucl´eotides est inf´erieure `a log(w/(1 − w))/ log(p) peuvent survivre avec probabilit´e strictement positive. Ce r´esultat permet d’expliquer pourquoi il y a une limite a` la complexit´e des organismes primitifs. 4.1.2 Vitesse d’extinction Dans ce paragraphe, nous allons ´etudier la vitesse `a laquelle la suite (P(Zn = 0), n ∈ N) converge vers η.

´ 4.1 Etude du ph´enom`ene d’extinction

95

1 y = G(s) y=s

G(0)

0 0

η

1

Fig. 4.2. Cas surcritique m > 1 : illustration de la convergence de la suite (Gn (0), n ≥ 0) vers η < 1

Dans le cas particulier o` u p2 = 1−p0 , on a G(s) = p0 +(1−p0 )s2 et l’´equation du second degr´e G(s) = s admet p0 /(1 − p0 ) et 1 comme racines. La figure 4.3 illustre la convergence de P(Zn = 0) = Gn (0) vers η = min(1, p0 /(1 − p0 )) lorsque n tend vers l’infini pour diff´erentes valeurs de p0 . La convergence semble beaucoup moins rapide dans le cas critique que dans les cas souscritique et surcritique. Le lemme suivant montre que la vitesse de convergence u est g´eom´etrique lorsque m = 1. Il faut pour cela exclure le cas p0 = 0 o` u pour tout n ≥ 1, pour tout n, P(Zn = 0) = η = 0 et le cas p0 = 1, o` P(Zn = 0) = η = 1. Lemme 4.1.6. On suppose que p0 ∈]0, 1[ et que m = 1. Alors G′ (η) ∈]0, 1[ et la suite (G′ (η)−n (η − Gn (0)), n ≥ 0) est d´ecroissante et admet une limite strictement positive. Remarque 4.1.7. Nous verrons que dans le cas critique avec p1 < 1, P(Zn > 0) = 1 − P(Zn = 0) est ´equivalent a` 2/nσ 2 lorsque n → +∞ (voir l’´equation (4.12)). La convergence de P(Zn = 0) vers η = 1 est effectivement beaucoup moins rapide que dans les cas sous-critique et surcritique. ♦

96

4 Le processus de Galton-Watson p0 = 0.9 (η = 1)

1.0

p0 = 0.7 (η = 1)

0.9

p = 0.5 (m = η = 1) 0

0.8 0.7 0.6 0.5

p = 0.3 (η = 3/7) 0

0.4 0.3 0.2

p = 0.1 (η = 1/9) 0

0.1 0 0

4

8

12

16

20

24

28

n

Fig. 4.3. Pour p2 = 1 − p0 , convergence de (P(Zn = 0) = Gn (0), n ≥ 0) vers η = min(1, p0 /(1 − p0 ))

D´emonstration. Comme p0 ∈]0, 1[, η > 0 et pour tout s ∈]0, 1], G′ (s) > 0, propri´et´es qui assurent d’une part que G′ (η) > 0 et d’autre part que ∀n ∈ N, η − Gn (0) = Gn (η) − Gn (0) > 0.

(4.6)

Montrons maintenant que G′ (η) < 1. Dans le cas sous-critique η = 1 et G′ (η) = m < 1. Dans le cas surcritique, pour s ∈]η, 1[, G(s) < s, ce qui, avec la convexit´e de G, assure que G(η)+G′ (η)(s−η) < s. Cette in´egalit´e se r´ecrit (G′ (η)−1)(s−η) < 0 et entraˆıne que G′ (η) < 1 (voir Fig. 4.2). Par convexit´e de G, Gn+1 (0) ≥ G(η) + G′ (η)(Gn (0) − η). En soustrayant η = G(η) aux deux membres et en multipliant par −G′ (η)−(n+1) , on obtient G′ (η)−(n+1) (η − Gn+1 (0)) ≤ G′ (η)−n (η − Gn (0))

et la suite (G′ (η)−n (η − Gn (0)), n ≥ 0) est d´ecroissante. Pour achever la d´emonstration, il suffit de v´erifier que la limite de cette suite est strictement positive. Soit c > G′′ (η)/2. Comme Gn (0) tend vers η, il existe n0 t.q. ∀n ≥ n0 , Gn+1 (0) ≤ G(η) + G′ (η)(Gn (0) − η) + c(Gn (0) − η)2 . En soustrayant η = G(η) aux deux membres et en multipliant le r´esultat par −G′ (η)−(n+1) , on obtient G′ (η)−(n+1) (η − Gn+1 (0))

≥ G′ (η)−n (η − Gn (0)) − cG′ (η)n−1 [G′ (η)−n (η − Gn (0))]2

≥ (1 − cG′ (η)n−1 )[G′ (η)−n (η − Gn (0))],

4.2 Lois limites

97

en utilisant G′ (η)−n (η − Gn (0)) ≤ η ≤ 1. Ainsi, quitte a` augmenter n0 pour que cG′ (η)n0 −1 ≤ 1/2, ′

−n

∀n ≥ n0 , G (η)



−n0

(η − Gn (0)) ≥ G (η)

(η − Gn0 (0))

n−1 

l=n0

(1 − cG′ (η)l−1 ).

Puisque pour x ∈ [0, 1/2], log(1 − x) ≥ −2x, on a alors  n−1  n−1   ′ l−1 lim log (1 − cG (η) ) ≥ lim −2c G′ (η)l−1 > −∞. n→+∞

l=n0

n→+∞

l=n0

Comme d’apr`es (4.6) η − Gn0 (0) > 0, on conclut que la limite de la suite ⊓ ⊔ d´ecroissante (G′ (η)−n (η − Gn (0)), n ≥ 0) est strictement positive.

4.2 Lois limites En g´en´etique, on appelle amplification d’un g`ene, l’augmentation du nombre de copies de ce g`ene par cellule. L’amplification du g`ene qui code l’enzyme dihydrofolate reductase est li´ee `a la r´esistance au m´edicament de lutte contre le cancer appel´e m´ethotrexate. On peut obtenir une population de cellules r´esistantes et qui comportent plus de copies du g`ene en question en cultivant une population initialement compos´ee de cellules normales dans un milieu comportant une concentration croissante de m´ethotrexate. Les copies suppl´ementaires du g`ene apparaissent sur des ´el´ements d’ADN extrachromosomiques appel´es doubles minutes et qui ressemblent `a des petits chromosomes. Lorsque la population de cellules r´esistantes est ensuite cultiv´ee dans un milieu sans m´ethotrexate, on constate la disparition progressive des doubles minutes. Mais la loi du nombre de doubles minutes parmi les cellules qui en comportent reste stable dans le temps au fur et a` mesure des divisions cellulaires. Lors des divisions cellulaires, le m´ecanisme de transmission des doubles minutes d’une cellule a` ses deux cellules filles peut se mod´eliser de la mani`ere suivante. Avant la division de la cellule m`ere, chaque double minute est r´epliqu´ee avec probabilit´e a ou bien non r´epliqu´ee avec probabilit´e 1 − a. En l’absence de r´eplication, lorsque la cellule se divise en deux cellules filles, la double minute est transf´er´ee de fa¸con ´equiprobable a` l’une ou l’autre des cellules filles. En cas de r´eplication, les deux copies sont r´eparties entre les deux cellules filles avec probabilit´e α ou se retrouvent toutes les deux dans la premi`ere ou la seconde cellule fille avec probabilit´e compl´ementaire (1 − α) (contrairement aux chromosomes dont les copies sont syst´ematiquement r´eparties entre les deux cellules-filles, ce qui correspond `a α = 1, les doubles minutes sont acentriques). Pour chaque double minute pr´esente `a la naissance de la cellule m`ere, on retrouve, dans une des deux cellules filles choisie au hasard,

98

4 Le processus de Galton-Watson

deux doubles minutes avec probabilit´e a(1 − α)/2, une double minute avec probabilit´e aα + (1 − a)/2 et z´ero avec probabilit´e (1 − aα)/2. Dans la phase de culture sans m´ethotrexate, on choisit une des cellules pr´esentes initialement et par r´ecurrence, `a la g´en´eration n ≥ 1, on choisit au hasard une des deux cellules filles de la cellule choisie `a la g´en´eration n − 1. On note Zn le nombre de doubles minutes dans la cellule choisie a` la g´en´eration n. Alors Zn est un processus de Galton-Watson de loi de reproduction : p0 = (1 − aα)/2, ` partir de p1 = aα + (1 − a)/2, p2 = a(1 − α)/2 et pk = 0 pour k ≥ 3. A donn´ees exp´erimentales, il a ´et´e possible d’obtenir les estimations suivantes : p0 = 0.50 et p2 = 0.47. La loi de reproduction est donc sous-critique. Cet exemple est tir´e du livre de Kimmel et Axelrod [6]. La question de savoir pourquoi la loi du nombre de doubles minutes parmi les cellules qui en comporte est stable est une motivation pour ´etudier le comportement de la loi conditionnelle de Zn sachant Zn > 0 lorsque n tend vers l’infini. Dans les cas surcritique et critique, nous allons voir que conditionnellement a` Zn > 0, « la population Zn tend vers l’infini » avec n et il faut utiliser un facteur de renormalisation pour obtenir une limite non triviale. Dans le cas sous-critique, il n’y a pas besoin de renormaliser. 4.2.1 Le cas surcritique On se place dans le cas surcritique m > 1. Comme E[Zn ] = mn explose lorsque n tend vers l’infini, il est naturel de renormaliser par le facteur mn pour obtenir un r´esultat de convergence. C’est pourquoi on pose Wn =

Zn . mn

La convergence ´etroite de la loi conditionnelle de Wn sachant Zn > 0 d´ecoule facilement du r´esultat de convergence presque sˆ ure suivant : Proposition 4.2.1. On suppose m > 1. Alors lorsque n tend vers l’infini, urement vers une variable al´eatoire la suite (Wn , n ≥ 0) converge presque sˆ positive W" telle #que P(W = 0) = η. Sa transform´ee de Laplace α ∈ R+ → ϕ(α) = E e−αW est solution de l’´equation fonctionnelle ∀α ≥ 0, ϕ(α) = G(ϕ(α/m)).

La figure 4.4 illustre cette convergence presque sˆ ure en repr´esentant 15 trajectoires ind´ependantes du processus de Galton-Watson renormalis´e (Wn , 0 ≤ n ≤ 50) dans le cas de la loi de reproduction p0 = 1 − p2 = 0, 4. Remarque 4.2.2. Pour ω dans l’ensemble d’extinction E, la population Zn (ω) est nulle a` partir d’un certain rang T (ω), ce qui entraˆıne a fortiori que limn→+∞ Wn (ω) = W (ω) = 0. Donc {W = 0} = E ∪ {E c ∩ {W = 0}}.

4.2 Lois limites

99

9 8 7 6 5

Wn 4 3 2 1 0 0

10

20

30

40

50

n

Fig. 4.4. 15 trajectoires de n → Wn = Zn /mn dans le cas surcritique p0 = 1 − p2 = 0.4 (η = p0 /(1 − p0 ) = 2/3)

Comme P(W = 0) = η = P(E), on en d´eduit que P(E c , W = 0) = 0. Ainsi pour presque tout ω dans E c , W (ω) > 0 et Zn (ω) est ´equivalent a` mn W (ω) lorsque n → +∞. On conclut donc que soit il y a extinction, soit la population ♦ explose en mn . Corollaire 4.2.3. Dans le cas surcritique la loi conditionnelle de Wn = m−n Zn sachant Zn > 0 converge ´etroitement vers la loi conditionnelle de W sachant W > 0 lorsque n tend vers l’infini. Nous allons d´emontrer le corollaire avant de v´erifier la proposition. D´emonstration. Soit f : R → R continue born´ee. # " E f (Wn )1{Zn >0} . E[f (Wn )|Zn > 0] = 1 − P(Zn = 0) Lorsque n tend vers l’infini, f (Wn )1{Zn >0} converge presque sˆ urement vers urement ´egale `a f (W )1{W >0} f (W )1E c , variable al´eatoire qui est presque sˆ d’apr`es la remarque pr´ec´edente. D’apr`es le th´eor`eme de convergence domin´ee, le num´erateur converge vers E[f (W )1{W >0} ]. Comme le d´enominateur converge vers 1 − η = P(W > 0), on en d´eduit que le rapport converge vers E[f (W )|W > 0]. La d´efinition A.3.4 est donc satisfaite. ⊓ ⊔ Exercice 4.2.4. Dans le cas particulier (4.3) avec β/p = m > 1 o` u on a  n η = s0 = (1 − β)/(1 − p), calculer Gn e−α/m pour α ≥ 0 et en d´eduire que ϕ(α) = η + (1 − η)

1−η . α + (1 − η)

Quelle est la loi conditionnelle de W sachant W > 0 ?



100

4 Le processus de Galton-Watson

D´emonstration de la proposition 4.2.1. Soit n ≥ 0. ⎡  k 2 ⎤   # " 1{Zn =k} ξin − km ⎦ E (Wn+1 − Wn )2 = m−2(n+1) E ⎣ i=1

k≥0

= m−2(n+1)



P(Zn = k)σ 2 k = σ 2 m−2(n+1) E[Zn ] = σ 2 m−(n+2) .

k≥0

Par l’in´egalit´e de Cauchy-Schwarz, E|Wn+1 − Wn | ≤ E[|Wn+1 − Wn |2 ]1/2 = σm−(n+2)/2 . Donc ⎡ ⎤   E⎣ m−(n+2)/2 < +∞. |Wn+1 − Wn |⎦ ≤ σ n≥0

n≥0



n≥0 |Wn+1 − Wn | est finie, k−1 ce quiimplique la convergence de Wk = W0 + n=0 (Wn+1 − Wn ) vers W = W0 + n≥0 (Wn+1 −Wn ) lorsque k tend vers l’infini. En outre, E|W | ≤ E|W0 |+  n≥0 E|Wn+1 − Wn | < +∞. " # Par convergence domin´ee, pour tout α ≥ 0, E e−αWn converge vers ϕ(α) = # " −αW . Or E e

 " # −(n+1) −(n+1) Zn+1 E e−αWn+1 = E e−αm = Gn+1 e−αm  



−n −n = G E e−(α/m)m Zn = G Gn e−(α/m)m 



= G E e−(α/m)Wn .

Ainsi presque sˆ urement, la variable al´eatoire

En passant a` la limite n → +∞ dans les deux termes extrˆemes de cette ´egalit´e, on obtient avec la continuit´e de G que ∀α ≥ 0, ϕ(α) = G(ϕ(α/m)).

urement vers 1{W =0} lorsque α tend vers Comme e−αW converge presque sˆ +∞, on obtient par le th´eor`eme de convergence domin´ee que limα→+∞ ϕ(α) = P(W = 0). Donc l’´equation fonctionnelle que nous avons ´etablie pour ϕ entraˆıne que P(W = 0) est racine de l’´equation G(s) = s. Comme, dans le cas surcritique, p0 + p1 < 1, la fonction G est strictement convexe sur [0, 1] et l’´equation G(s) = s a exactement deux racines sur cet intervalle qui sont 1 et η ∈ [0, 1[. Il suffit maintenant d’exclure que P(W = 0) puisse valoir 1. Pour cela nous allons calculer E[W ]. La renormalisation de la population a ´et´e choisie pour que pour tout n ∈ N, E[Wn ] = 1. On s’attend donc a` ce que E[W ] = 1, ce qui se v´erifie en passant a` la limite n → +∞ dans l’in´egalit´e   |E[W ] − E[Wn ]| ≤ E|W − Wn | ≤ E|Wl+1 − Wl | ≤ σ m−(l+2)/2 . l≥n

l≥n

⊓ ⊔

4.2 Lois limites

101

4.2.2 Le cas sous-critique L’exemple introductif de l’´evolution du nombre de doubles minutes par cellule lorsque la population de cellules est cultiv´ee dans un milieu sans m´ethotrexate sugg`ere que la loi conditionnelle de Zn sachant Zn > 0 converge lorsque n tend vers l’infini. Dans le cas particulier de la loi de reproduction (4.3) avec β < p, d’apr`es a la n-i`eme g´en´eration est ´egale avec probabilit´e mn (1− (4.5), la population Zn ` n )/(m −s ) (o` u m = β/p et s0 = (1−β)/(1−p)) `a une variable g´eom´etrique s0 0 de param`etre (1−s0 )/(mn −s0 ) et avec probabilit´e compl´ementaire `a 0. La loi conditionnelle de Zn sachant Zn > 0 est donc la loi g´eom´etrique de param`etre (1 − s0 )/(mn − s0 ). Lorsque n tend vers l’infini, le param`etre converge vers 1 − 1/s0 = (p − β)/(1 − β). Ainsi la loi conditionnelle de Zn sachant Zn > 0 converge ´etroitement vers la loi g´eom´etrique de param`etre (p − β)/(1 − β). La figure 4.5 illustre cette convergence. Dans le cas d’une loi de reproduction sous-critique quelconque, on note π n la loi conditionnelle de Zn sachant Zn > 0 : pour k ∈ N∗ , on pose πkn = P(Zn = k|Zn > 0). Pour ´etudier le comportement de la suite (π n , n ≥ 0) lorsque n tend vers l’infini, l’outil naturel demeure la fonction g´en´eratrice : # " " # # E sZn 1{Zn >0} " Zn E sZn − P(Zn = 0) π = Gn (s) = E s |Zn > 0 = P(Zn > 0) 1 − P(Zn = 0) Gn (s) − Gn (0) . (4.7) = 1 − Gn (0) 0.20 0.18 0.16 0.14 0.12 0.10 0.08 0.06 0.04 0.02 0

0.20 0.18 0.16 0.14 0.12 0.10 0.08 0.06 0.04 0.02 0



n = 10

◊ ◊ ◊ ◊ ◊





0



◊◊

◊◊

◊◊

◊◊◊

10

◊◊ ◊ ◊◊

◊◊◊ ◊ ◊◊◊◊◊ ◊◊◊◊◊◊◊

20

30

◊◊◊◊◊◊◊◊◊◊◊

40

50



n = 30

◊ ◊ ◊ ◊ ◊

0







◊◊

10

◊◊

◊◊

◊◊◊

◊◊ ◊◊ ◊◊

20

◊◊◊ ◊◊◊ ◊◊◊◊◊◊ ◊◊◊◊◊◊◊◊◊◊◊◊◊◊

30

40

50

0.20 0.18 0.16 0.14 0.12 0.10 0.08 0.06 0.04 0.02 0

0.20 0.18 0.16 0.14 0.12 0.10 0.08 0.06 0.04 0.02 0



n = 20

◊ ◊ ◊ ◊ ◊





0



◊◊

◊◊

◊◊

10

◊◊◊

◊◊ ◊ ◊◊

◊◊◊ ◊ ◊◊◊◊◊ ◊◊◊◊◊◊◊

20

30

◊◊◊◊◊◊◊◊◊◊◊

40

50



n = 40

◊ ◊ ◊ ◊ ◊

0







◊◊

10

◊◊

◊◊

◊◊σ ◊◊ ◊◊ ◊◊

20

◊◊◊ ◊◊◊ ◊◊◊◊◊◊ ◊◊◊◊◊◊◊◊◊◊◊◊◊◊

30

40

50

Fig. 4.5. Pour la loi de reproduction sous-critique (4.3) avec β = 0.6 et p = 0.65, histogrammes de 10 000 tirages de Zn sachant Zn > 0 et comparaison avec la loi g´eom´etrique de param`etre (p − β)/(1 − β) = 0.125 (losanges)

102

4 Le processus de Galton-Watson

En ´etudiant le comportement asymptotique de Gπn , nous allons montrer le r´esultat suivant qui porte le nom de th´eor`eme de Yaglom dans la litt´erature : Proposition 4.2.5. Dans le cas sous-critique avec p0 < 1, les probabilit´es (π n , n ≥ 0) convergent lorsque n → +∞ vers une probabilit´e π pour la norme en variation . La fonction g´en´eratrice Gπ de cette probabilit´e est solution de l’´equation fonctionnelle Gπ (G(s)) = 1 + m(Gπ (s) − 1).

(4.8)

Dans l’exemple introductif, l’´evolution du nombre Zn de doubles minutes dans la cellule choisie `a la g´en´eration n se mod´elise `a l’aide d’un processus de Galton-Watson de loi de reproduction : p0 = 0.50, p1 = 0.03, p2 = 0.47 et pk = 0 pour k ≥ 3. Comme cette loi est sous-critique, la proposition s’applique et permet de comprendre pourquoi la loi du nombre de doubles minutes parmi les cellules qui en comportent reste stable au fur et a` mesure des divisions cellulaires lors de la phase de culture sans m´ethotrexate. La d´emonstration de la proposition repose sur le lemme suivant et se trouve report´ee apr`es la d´emonstration de ce lemme : Lemme 4.2.6. Pour tout s ∈ [0, 1], Gπn (s) converge vers un r´eel Gπ (s) et Gπ est solution de l’´equation fonctionnelle (4.8). D´emonstration. La suite Gπn (1) constante ´egale `a 1 converge vers Gπ (1) = 1. Soit s ∈ [0, 1[. On a Gπn (s) = 1 − Hn (s) pour Hn (s) =

1 − Gn (s) . 1 − Gn (0)

(4.9)

La fonction h(s) = (1 − G(s))/(1 − s) a pour d´eriv´ee h′ (s) =

−G′ (s)(1 − s) + G(1) − G(s) . (1 − s)2

Comme par convexit´e de G le num´erateur est positif, la fonction h est croissante sur [0, 1]. Par croissance de G, Gn (s) ≥ Gn (0) et donc h(Gn (s)) ≥ h(Gn (0)). Ainsi, 1 − Gn+1 (s) 1 − Gn (0) 1 − Gn+1 (s) 1 − Gn (0) Hn+1 (s) = × = × Hn (s) 1 − Gn+1 (0) 1 − Gn (s) 1 − Gn (s) 1 − Gn+1 (0) h(Gn (s)) ≥ 1. = h(Gn (0)) Ainsi la suite Hn (s) est croissante. Comme elle est major´ee par 1, elle converge vers une limite H(s). Avec (4.9), on en d´eduit que Gπn (s) converge vers une limite Gπ (s) t.q. Gπ (s) = 1 − H(s).

4.2 Lois limites

On a Hn (G(s)) =

103

1 − Gn+1 (0) 1 − Gn+1 (s) = × Hn+1 (s). 1 − Gn (0) 1 − Gn (0)

Lorsque n → +∞, Gn (0) = P(Zn = 0) croˆıt vers la probabilit´e d’extinction G(1) − G(Gn (0)) 1 − Gn+1 (0) = converge vers G′ (1) = m. On en η = 1 et 1 − Gn (0) 1 − Gn (0) d´eduit que pour tout s dans [0, 1[, H(G(s)) = mH(s) et on conclut grˆ ace `a ⊓ ⊔ la relation H(s) = 1 − Gπ (s). D´emonstration de la proposition 4.2.5. L’id´ee consiste `a v´erifier que la convergence de Gπn (s) vers Gπ (s) pour tout s ∈ [0, 1] implique que pour tout k ∈ N∗ , πkn converge vers une limite πk lorsque n tend vers +∞. Lorsque Gπ est continue a` gauche en 1, (πk , k ≥ 1) est une probabilit´e sur N∗ . Soit k, n, l ≥ 1. Par in´egalit´e triangulaire, pour s ∈]0, 1[, |πkn − πkl |sk ≤ |Gπn (s) − Gπl (s)| + ≤ |Gπn (s) − Gπl (s)| +

k−1 

κ=1 k−1 

κ=1

Donc pour s ∈]0, 1[, |πkn − πkl | ≤ s−k |Gπn (s) − Gπl (s)| +

|πκn − πκl |sκ +

κ=1

(πκn + πκl )sκ

κ≥k+1

|πκn − πκl |sκ + 2

k−1 





sκ .

κ≥k+1

|πκn − πκl |sκ−k + 2s/(1 − s).

On raisonne par r´ecurrence sur k. Si on suppose que pour 1 ≤ κ ≤ k − 1, limn,l→+∞ |πκn − πκl | = 0, propri´et´e qui est vraie pour k = 1, alors en faisant tendre n, l vers +∞, on obtient lim sup |πkn − πkl | ≤ s−k lim sup |Gπn (s) − Gπl (s)| + 2s/(1 − s).

n,l→+∞

n,l→+∞

Le premier terme du second membre est nul car la suite (Gπn (s))n est convergente d’apr`es le lemme 4.2.6 et v´erifie donc le crit`ere de Cauchy. En faisant tendre s vers 0, on en d´eduit que limn,l→+∞ |πkn − πkl | = 0. Ainsi, on obtient par r´ecurrence que pour tout k ∈ N∗ , la suite (πkn , n ≥ 0) a` valeurs dans [0, 1] est de Cauchy. Elle converge donc  vers πk ∈ [0, 1]. Le lemme de Fatou assure que k∈N∗ πk ≤ lim inf n→+∞ k∈N∗ πkn = 1. Comme πkn sk ≤ sk et comme la s´erie de terme g´en´eral (sk )k≥1 est convergente pour s ∈ [0, 1[, le th´eor`eme de convergence domin´ee assure que   πk sk = lim πkn sk = lim Gπn (s) = Gπ (s). ∀s ∈ [0, 1[, k∈N∗

n→+∞

k∈N∗

n→+∞

Cette ´egalit´e n’est pas n´ecessairement vraie pour s = 1. En  revanche, par convergence monotone, la limite a` gauche Gπ (1− ) est ´egale `a k∈N∗ πk . En outre lorsque s croˆıt vers 1, G(s) croˆıt vers 1 et

104

4 Le processus de Galton-Watson

lim Gπ (G(s)) = Gπ (1− ) =

s→1−



πk .

k∈N∗

 En passant a` la limite s → 1− dans (4.8), on obtient k∈N∗ πk = 1 +   π − 1 . Comme π ≤ 1, cette ´ e galit´ e se r´ e crit m ∗ ∗ k k k∈N k∈N    (m − 1) πk − 1 = 0 (4.10) k∈N∗

ce qui permet de conclure que π est une probabilit´e sur N∗ . D’apr`es le lemme D.2, la suite des probabilit´es (π n , n ≥ 0) converge en variation vers la probabilit´e π. ⊓ ⊔ L’exercice d’application suivant a pour but de v´erifier que si la population initiale Z0 est distribu´ee suivant la probabilit´e limite π, alors la suite des lois conditionnelles (π n , n ≥ 0) n’est pas seulement convergente : elle est mˆeme constante. Exercice 4.2.7. On se place dans le cas sous-critique avec p0 < 1. On suppose que la population initiale Z0 est une variable al´eatoire distribu´ee suivant la probabilit´e (πk , k ∈ N∗ ) ind´ependante des variables (ξin , n ≥ 0, i ≥ 1) et que sa descendance ´evolue suivant l’´equation (4.2). – Montrer que P(Z1 = 0) = Gπ (p0 ) puis que E[sZ1 |Z1 > 0] =

Gπ (G(s)) − Gπ (p0 ) . 1 − Gπ (p0 )

– En utilisant l’´equation (4.8), v´erifier que Gπ (p0 ) = 1 − m puis que E[sZ1 |Z1 > 0] = Gπ (s). – Pour n ≥ 1, quelle est la loi conditionnelle de Zn sachant Zn > 0 ?  Remarque 4.2.8. Dans le cas critique, le lemme 4.2.6 reste valable de mˆeme que le d´ebut de la d´emonstration de la proposition 4.2.5 : pour tout k ∈ N∗ , P(Zn = k|Zn > 0) converge vers une limite πk lorsque n tend vers l’infini. L’´equation (4.10)  reste vraie mais comme m = 1, elle ne permet plus d’obtenir la valeur de k∈N∗ πk . L’´equation fonctionnelle (4.8) se r´ecrit Gπ (G(s)) = Gπ (s). Pour s = 0, on obtient  πk pk0 = Gπ (p0 ) = Gπ (0) = 0. k∈N∗

Lorsque p1 < 1, n´ecessairement p0 > 0, et on conclut que pour tout k ∈ N∗ , πk = 0. Ainsi lorsque p1 < 1, pour tout k ≥ 1, limn→+∞ P(Zn = k|Zn > 0) = 0. Lorsque p1 = 1, la population reste ´egale `a 1 au fil des g´en´erations et pour tout k ∈ N∗ , πk = 1{k=1} . ♦

4.2 Lois limites

105

Remarque 4.2.9. Dans le cas surcritique avec p0 > 0, la probabilit´e η de l’ensemble d’extinction E est strictement positive. On peut ´etudier le comportement asymptotique de la loi (πkn = P(Zn = k|Zn > 0, E), k ∈ N∗ ) de Zn sachant qu’il y a extinction apr`es la n-i`eme g´en´eration. La fonction g´en´eratrice de cette loi est  # " k E sZn 1{Zn >0,E} k≥1 s P(Zn = k, E) π = . Gn (s) = P(Zn > 0, E) P(E) − P(Zn = 0) Pour k ≥ 1, l’´ev´enement {Zn = k, E} est l’intersection de l’´ev´enement {Zn = k} qui ne d´epend que des variables (ξil , l ≤ n − 1, i ≥ 1) et de l’´ev´enement extinction des descendances ind´ependantes des k individus pr´esents `a la n-i`eme g´en´eration qui s’exprime en fonction des (ξil , l ≥ n, i ≥ 1) et a pour probabilit´e η k . Donc P(Zn = k, E) = η k P(Zn = k) et on a Gπn (s) =

Gn (ηs) − Gn (0) . η − Gn (0)

(4.11)

En rempla¸cant Hn et h par (η −Gn (ηs))/(η −Gn (0)) et (η −G(s))/(η −s) pour adapter la d´emonstration du lemme 4.2.6, on obtient que pour s ∈ [0, 1], Gπn (s) converge vers un r´eel Gπ (s) et que la fonction Gπ est solution de l’´equation fonctionnelle ∀s ∈ [0, 1], Gπ (η −1 G(ηs)) = 1 + G′ (η)(Gπ (s) − 1). Le d´ebut de la d´emonstration de la proposition 4.2.5 ´etablit que pour tout k ∈ N∗ , P(Zn = k|Zn > 0, E) converge vers une limite πk lorsque n tend vers l’infini. En passant a` la limite s → 1− dans l’´equation satisfaite par Gπ , il vient  ′ (G (η) − 1)( k∈N∗ πk − 1) = 0. Comme d’apr`es le lemme 4.1.6, G′ (η) < 1, on conclut que π est une probabilit´e sur N∗ . Dans le cas particulier de la loi de reproduction (4.3) avec β > p, on peut v´erifier que π est la loi g´eom´etrique de param`etre (β − p)/(1 − p). ♦ 4.2.3 Le cas critique Nous nous pla¸cons dans le cas critique m = 1 et nous supposons que p1 < 1, ce qui est ´equivalent a` σ 2 > 0 et aussi `a p0 > 0. D’apr`es la proposition 4.1.5, la probabilit´e d’extinction vaut 1. Et d’apr`es la remarque 4.2.8, pour tout k ≥ 1, P(Zn = k|Zn > 0) converge vers 0 lorsque n tend vers l’infini. Ce dernier r´esultat indique que «conditionnellement a` Zn > 0, Zn tend vers +∞ ». Nous allons nous int´eresser `a la vitesse de convergence de P(Zn > 0) vers 0 pour en d´eduire comment renormaliser la loi conditionnelle de Zn sachant Zn > 0 afin d’obtenir une limite non triviale lorsque n tend vers l’infini. Dans le cas particulier (4.3) avec β = p, on a σ 2 = 2(1 − p)/p et d’apr`es (4.4), P(Zn > 0) = 1 − Gn (0) =

p 2 p ∼ = . 1 + (n − 1)(1 − p) n(1 − p) nσ 2

106

4 Le processus de Galton-Watson

Nous allons v´erifier (voir le lemme 4.2.11 ci-dessous pour s = 0), que le r´esultat reste vrai pour une loi de reproduction critique quelconque de variance σ 2 > 0 : pour n → +∞, P(Zn > 0) ∼

2 . nσ 2

(4.12)

Comme E[Zn ] = 1, on a # " E Zn 1{Zn >0} E[Zn ] 1 = = . E[Zn |Zn > 0] = P(Zn > 0) P(Zn > 0) P(Zn > 0) On en d´eduit que

! 2Zn lim E > 0 = 1. Z n n→+∞ nσ 2 

C’est pourquoi 2/nσ 2 apparaˆıt comme un bon candidat en tant que facteur multiplicatif de renormalisation et le r´esultat suivant n’est pas ´etonnant. Proposition 4.2.10. Dans le cas critique avec p1 < 1, la loi conditionnelle de 2Zn /nσ 2 sachant Zn > 0 converge ´etroitement vers la loi exponentielle de param`etre 1 lorsque n tend vers l’infini. La figure 4.6 illustre cette convergence dans le cas de la loi de reproduction p0 = p2 = 0, 5 pour laquelle σ 2 = 1. La d´emonstration de ce r´esultat repose sur le lemme suivant qui implique (4.12) pour le choix s = 0. 1.0 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0

1.0 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0

n = 25

0

1

2

3

4

5

6

n = 100

0

1

2

3

4

5

6

1.0 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0

1.0 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0

n = 50

0

1

2

3

4

5

6

5

6

n = 200

0

1

2

3

4

Fig. 4.6. Dans le cas critique p0 = p2 = 0.5, histogrammes de 10 000 tirages de 2Zn /n sachant Zn > 0 et comparaison avec la densit´e exponentielle de param`etre 1

4.2 Lois limites

Lemme 4.2.11. Dans le cas critique, la suite converge uniform´ement vers

σ2 2

pour s ∈ [0, 1[.

1 1 n ( 1−Gn (s)



1 1−s ), n

107

≥1



Commen¸cons par prouver la proposition. Ensuite nous d´emontrerons le lemme. D´emonstration de la proposition 4.2.10. On utilise la caract´erisation de la convergence en loi des variables al´eatoires positives par la convergence des transform´ees de Laplace (cf. th´eor`eme A.3.9). Soit α > 0. En raisonnant 2 comme dans (4.7) avec s = e−2α/σ n , on obtient

2α 

2α 

2αZn Gn e− σ2 n − Gn (0) 1 − Gn e− σ2 n =1− . E e− σ2 n |Zn > 0 = 1 − Gn (0) 1 − Gn (0) D’apr`es le lemme 4.2.11, lorsque n → +∞

Donc

1 σ2 → n(1 − Gn (0)) 2 σ2 σ2 1 1

2α  ∼ 

→ + (1 + 1/α). 2α 2 2 n 1 − Gn e− σ2 n n 1 − e− σ 2 n

2αZn ∀α > 0, E e− σ2 n |Zn > 0 → 1 −

1 1 = . 1 + 1/α 1+α

On conclut en reconnaissant au second membre la transform´ee de Laplace de la loi exponentielle de param`etre 1. ⊓ ⊔ D´emonstration du lemme 4.2.11. Comme G′ (1) = m = 1 et G′′ (1) = σ 2 − m + m2 = σ 2 , la formule de Taylor avec reste int´egral assure que pour s dans [0, 1], G(s) = 1 + (s − 1) + (s − 1)2 ϕ0 (s) avec ϕ0 born´ee sur [0, 1] et telle que lims→1− ϕ0 (s) = σ 2 /2. Donc 1 − G(s) = 1 − s − (1 − s)2 ϕ0 (s) et pour s dans [0, 1[, 1 1 1 = × . 1 − G(s) 1 − s 1 − (1 − s)ϕ0 (s) La fonction s ∈ [0, 1] → (1−s)ϕ0 (s) = (G(s)−s)/(1−s) = 1−(1−G(s))/(1−s) est d´ecroissante d’apr`es le d´ebut de la d´emonstration du lemme 4.2.6. Comme elle vaut p0 pour s = 0 et elle s’annule pour s = 1, elle prend ses valeurs dans u [0, p0 ]. En utilisant le fait que pour x dans [0, p0 ], 1/(1−x) = 1+x+xϕ1 (x) o` la fonction ϕ1 est born´ee sur [0, p0 ] et v´erifie limx→0 ϕ1 (x) = 0, on en d´eduit que pour s dans [0, 1[, 1 σ2 σ2 1 = + +ψ(s) o` u ψ(s) = ϕ0 (s)− +ϕ0 (s)ϕ1 ((1 − s)ϕ0 (s)) 1 − G(s) 1−s 2 2

108

4 Le processus de Galton-Watson

est une fonction born´ee sur [0, 1[ qui v´erifie lims→1− ψ(s) = 0. Comme G est strictement croissante, pour tout k dans N et tout s dans [0, 1[, Gk (s) est dans [0, 1[ et en posant par convention G0 (s) = s, on obtient que 1 σ2 1 − − = ψ(Gk (s)). 1 − Gk+1 (s) 1 − Gk (s) 2 Pour n ∈ N∗ , en sommant cette ´egalit´e pour k ∈ {0, . . . , n − 1} et en divisant le r´esultat par n, il vient ∀s ∈ [0, 1[,

1 n



1 1 − 1 − Gn (s) 1 − s





n−1 1 σ2 = ψ(Gk (s)). 2 n k=0

ˆ D’apr`es les propri´et´es de ψ, la fonction ψˆ d´efinie pour x dans [0, 1[ par ψ(x) = ˆ supy∈[x,1[ |ψ(y)| est born´ee, d´ecroissante et v´erifie limx→1− ψ(x) = 0. Comme par croissance de G, pour tout k dans N et tout s dans [0, 1[, Gk (s) ≥ Gk (0), on a   n−1 1 1 1 σ 2 1 ˆ − − ≤ ψ(Gk (0)). sup 1 − Gn (s) 1 − s 2 n s∈[0,1[ n k=0

La suite (Gk (0), k ∈ N) converge vers 1 lorsque k tend vers l’infini. Donc la ˆ suite (ψ(G (0)), k ∈ N) converge vers 0 et la suite des moyennes de C´esaro n−1 ˆk 1 ( n k=0 ψ(Gk (0)), n ∈ N∗ ) converge ´egalement vers 0 lorsque n tend vers l’infini. ⊓ ⊔

4.3 R´ eduction de variance dans les cas sous-critique ou critique Dans le cas critique (en excluant p1 = 1) et surtout dans le cas sous-critique, la probabilit´e pour que la population Zn de la n-i`eme g´en´eration soit nulle converge tr`es rapidement vers 1 lorsque n augmente. Lorsque l’on ´evalue par la m´ethode de Monte-Carlo l’esp´erance d’une fonction de Zn , la majeure partie des trajectoires simul´ees conduisent `a l’extinction avant l’instant n, ce qui pose des probl`emes de pr´ecision. Pour rem´edier `a cette difficult´e, on peut utiliser une technique de fonction d’importance qui permet de se ramener a` la simulation d’un processus de Galton-Watson surcritique. Le principe est le suivant. On suppose p0 + p1 < 1. Dans ce cas, E[ξin ] > P[ξin ≥ 1] = 1 − p0 . Donc 1/E[ξin ] < 1/(1 − p0 ) et on peut choisir α ∈]1/E[ξin ], 1/(1 − p0 )[. Alors  αpk si k ≥ 1 p˜k = 1 − α(1 − p0 ) si k = 0

4.3 R´eduction de variance dans les cas sous-critique ou critique

109

est une probabilit´e sur N. Soit (ξ˜in , n ≥ 0, i ≥ 1) des variables i.i.d. suivant cette probabilit´e et (Z˜n )n le processus de Galton-Watson associ´e. Comme E[ξ˜in ] = αE[ξin ] > 1, ce processus est surcritique. Le r´esultat suivant permet de se ramener `a simuler le processus surcritique (Z˜n )n lorsque l’on veut calculer une esp´erance relative au processus initial. Bien sˆ ur, la proportion de trajectoires qui s’´eteignent avant l’instant n est bien plus faible pour le processus surcritique que pour le processus initial. On compense cela par l’introduction, dans l’esp´erance relative au processus (Z˜n )n , d’un facteur multiplicatif al´eatoire qui est appel´e facteur d’importance. Proposition 4.3.1. Pour tout n ∈ N∗ et toute fonction Φ : Nn → R positive ` ou born´ee, l’esp´erance E[Φ(Z1 , . . . , Zn )] est ´egale a  1+Z˜1 +...+Z˜n−1 −N˜n   p0 ˜n −N ˜ ˜ (4.13) E Φ(Z1 , . . . , Zn )α 1 − α(1 − p0 ) ˜n = n−1 Z˜l 1 ˜l en´erations o` u N l=0 i=1 {ξi >0} est le nombre d’individus des g´ ˜ 0, 1, . . . , n − 1 ayant eu au moins un descendant tandis que 1 + Z1 + . . . + ˜n repr´esente le nombre d’individus sans descendants. Z˜n−1 − N Remarque 4.3.2. D’un point de vue num´erique, il faut prendre garde a` la 1+Z˜1 +...+Z˜n−1 −N˜n

˜ p0 . Dans le possible explosion des facteurs αNn et 1−α(1−p 0)

calcul du poids multiplicatif qui apparaˆıt dans l’esp´erance (4.13), pour profiter des compensations entre ces facteurs, il est pr´ef´erable d’´evaluer leur rapport sous la forme !   p0 ˜ ˜ ˜ ˜ . exp −Nn log(α) + (1 + Z1 + . . . + Zn−1 − Nn ) log 1 − α(1 − p0 ) (4.14) Et surtout, il faut ´eviter de se ramener `a un processus de Galton-Watson tr`es surcritique. ♦ Exemple 4.3.3. Nous nous pla¸cons dans le cas de la loi de reproduction sous-critique p0 = 1 − p2 = 0.65. Pour ´evaluer E[Z20 ] = 0.720 ≃ 7.98 × 10−4 par la m´ethode de Monte-Carlo, nous comparons – l’approche directe qui consiste a` g´en´erer 100 000 r´ealisations du processus de Galton-Watson de loi de reproduction p0 = 1 − p2 = 0.65 jusqu’` a la vingti`eme g´en´eration et a` calculer la moyenne empirique des populations obtenues a` la vingti`eme g´en´eration. – la technique de fonction d’importance d´ecrite plus haut avec α = 11/7 : nous simulons 100 000 r´ealisations du processus de Galton-Watson de a la vingti`eme g´en´eration loi de reproduction p˜0 = 1 − p˜2 = 0.45 jusqu’` et nous calculons la moyenne empirique des populations a` la vingti`eme g´en´eration multipli´ees par les poids (4.14) correspondants.

110

4 Le processus de Galton-Watson

Les r´esultats obtenus sont pr´esent´es dans le tableau suivant : M´ ethode

moyenne variance empirique empirique

intervalle de confiance ` a 95 %

temps CPU (s)

1.12 × 10−3 5.04 × 10−3 [6.8 × 10−4 ; 1.56 × 10−3 ]

19

fonction d’importance 7.93 × 10−4 4.66 × 10−5 [7.51 × 10−4 ; 8.36 × 10−4 ]

76

directe

Avec la technique de fonction d’importance, nous obtenons donc une r´eduction de variance d’un facteur cent en multipliant le temps de calcul par quatre. Pour parvenir a` la mˆeme pr´ecision par l’approche directe, il faudrait multiplier le nombre de trajectoires et donc le temps de calcul par cent. ♦ D´emonstration. Il suffit de v´erifier l’´egalit´e pour Φ(z1 , . . . , zn ) = 1k1 (z1 ) × u (k1 , . . . , kn ) ∈ Nn . Par ind´ependance des variables (ξil , l ≥ . . . × 1kn (zn ) o` 0, i ≥ 1), E[Φ(Z1 , . . . , Zn )] = P(Z1 = k1 , . . . , Zn = kn ) 

= k = P ξ10 = k1 , ξ11 + . . . + ξk11 = k2 , . . . , ξ1n−1 + . . . + ξkn−1 n n−1   P(∀0 ≤ l ≤ n − 1, ∀1 ≤ i ≤ kl , ξil = xli ) ... = x11 +...+x1k =k2

xn−1 +...+xn−1 =kn 1 k





1

=

n−1

...

x11 +...+x1k =k2 1

xn−1 +...+xn−1 =kn 1 kn−1

kl n−1 

P(ξil = xli ),

l=0 i=1

o` u les xli sont des entiers naturels. Si pour x ∈ N, on pose  1/α si x ≥ 1 px ψ(x) = = p˜x p0 /(1 − α(1 − p0 )) si x = 0, on obtient que l’esp´erance E[Φ(Z1 , . . . , Zn )] est ´egale `a 

x11 +...+x1k =k2 1

=





...

xn−1 +...+xn−1 =kn 1 kn−1

...

x11 +...+x1k =k2 1



kl n−1 

l=0 i=1

xn−1 +...+xn−1 =kn 1 k n−1

P(ξ˜il = xli )ψ(xli )

n−1 k l 

l=0 i=1

ψ(xli )

 n−1 k l 

l=0 i=1

 l l ˜ P(ξi = xi )

4.4 Loi de la population totale

=



...

x11 +...+x1k =k2 1



α−νn

+...+xn−1 =kn xn−1 1 k n−1



p0 1 − α(1 − p0 )

×

kl n−1 

111

1+k1 +...+kn−1 −νn

P(ξ˜il = xli ),

l=0 i=1

n−1 kl o` u νn = l=0 ependance des variables (ξ˜il , l ≥ 0, i ≥ 1), i=1 1{xli >0} . Par ind´ le dernier membre est ´egal `a  1+Z˜1 +...+Z˜n−1 −N˜n   p ˜ 0 − N . E Φ(Z˜1 , . . . , Z˜n )α n 1 − α(1 − p0 ) ⊓ ⊔

4.4 Loi de la population totale On note Yn = 1 + Z1 + . . . + Zn la population cumul´ee jusqu’` a la n-i`eme g´en´eration. La suite (Yn , n ≥ 0) est croissante et sa limite Y ∈ N∗ ∪ {+∞} pour n → +∞ est la population totale du processus de Galton-Watson. En l’absence d’extinction, pour tout n entier, la population Zn `a l’instant n est non nulle. Donc pour tout n, la population cumul´ee Yn est sup´erieure a` n et la population totale est infinie. En cas d’extinction, Zn est nulle et donc Yn constante a` partir du temps d’extinction si bien que Y est finie. Donc la population totale Y est finie si et seulement s’il y a extinction. En particulier, on en d´eduit que P(Y = +∞) = 1 − η. n n D’apr`es le lemme 4.1.1, E[Yn ] = k=0 E[Zk ] = k=0 mk . Comme d’apr`es le th´eor`eme de convergence monotone, E[Yn ] croˆıt vers E[Y ] lorsque n → +∞, on en d´eduit que  1/(1 − m) dans le cas sous-critique i.e. si m < 1, E[Y ] = (4.15) +∞ sinon. L’un des principaux objectifs de ce paragraphe, au del` a de l’´etude de la loi de Y , est d’´etablir le corollaire 4.4.5 ci-dessous. Ce corollaire permettra d’identifier la solution de l’´equation de coagulation discr`ete avec noyau additif dans le Chap. 12. Pour le d´emontrer, nous allons dans un premier temps relier la fonction s/G(s) et la fonction g´en´eratrice F (s) = E[sY ] de la population totale Y , o` u par convention s+∞ = 0 si s ∈ [0, 1[ et 1+∞ = 1. Puis nous ´etablirons un lien entre la loi de Y et la loi de reproduction.

112

4 Le processus de Galton-Watson

Lemme 4.4.1. On suppose que p0 > 0. Alors, dans les cas sous-critique et critique, la fonction s ∈ [0, 1] → F (s) = E[sY ] est l’inverse de la fonction s ∈ [0, 1] → s/G(s). Dans le cas surcritique, la fonction s ∈ [0, 1[→ F (s) est l’inverse de la fonction s ∈ [0, η[→ s/G(s). D´emonstration. On va commencer par v´erifier que ∀s ∈ [0, 1], F (s) = sG(F (s)). Pour ´etablir cette ´equation, on s’int´eresse `a l’´evolution de Fn (s) = E[sYn ] avec n. Soit n ≥ 1. On d´ecompose Yn suivant les valeurs prises par Z1 . Si on note i le nombre de descendants entre la g´en´eration 1 et la g´en´eration n du Y1,n  Z1 i i-i`eme individu pr´esent `a la premi`ere g´en´eration, on a Yn = 1 + i=1 Y1,n . En i ,1≤i≤k outre, pour k ∈ N∗ , conditionnellement a` Z1 = k, les variables Y1,n sont ind´ependantes et ont mˆeme loi que Yn−1 . Donc on a ! k    i k pk Fn−1 (s) E 1{Z1 =k} s1+ i=1 Y1,n = s Fn (s) = E[sYn ] = k∈N

k∈N

= sG(Fn−1 (s)).

Soit s ∈ [0, 1]. Lorsque n → +∞, sYn converge presque sˆ urement vers sY . Comme 0 ≤ sYn ≤ 1, on d´eduit du th´eor`eme de convergence domin´ee que Fn (s) = E[sYn ] converge vers F (s) = E[sY ]. La continuit´e de G permet de a Fn−1 pour conclure que F (s) = passer `a la limite dans l’´equation reliant Fn ` sG(F (s)). Cette ´equation se r´ecrit ∀s ∈ [0, 1], H(F (s)) = s o` u pour x ∈ [0, 1], H(x) = x/G(x). Pla¸cons nous d’abord dans les cas sous-critique et critique. Pour s dans [0, 1], F (s) est `a valeurs dans [0, 1]. Comme la fonction H est continue sur [0, 1] et v´erifie H(0) = 0/p0 = 0 et H(1) = 1, il suffit de v´erifier que H est strictement croissante sur [0, 1] pour conclure. Lorsque p0 + p1 = 1, G(s) = p0 + p1 s et cela se v´erifie tr`es facilement. Supposons donc que p0 + p1 < 1. On a H ′ (s) =

G(s) − sG′ (s) . G2 (s)

Le num´erateur G(s) − sG′ (s) de d´eriv´ee −sG′′ (s) est strictement d´ecroissant sur [0, 1] puisqu’il existe k ≥ 2 tel que pk > 0. Il prend la valeur positive 1 − m pour s = 1. Donc pour tout s ∈ [0, 1[, H ′ (s) > 0. Dans le cas surcritique, la population totale est infinie avec la probabilit´e strictement positive 1 − η et pour s dans [0, 1[, F (s) prend ses valeurs dans [0, η[. Comme H(0) = 0, H(η) = η/η = 1, il suffit cette fois de v´erifier que la fonction H est strictement croissante sur [0, η] pour conclure. Comme il existe

4.4 Loi de la population totale

113

k ≥ 2 tel que pk > 0, le num´erateur G(s) − sG′ (s) de H ′ (s) est strictement d´ecroissant. Et comme G′ (η) < 1 d’apr`es le lemme 4.1.6, G(η) − ηG′ (η) = (1 − G′ (η))η > 0, ce qui permet de conclure. Notons que mˆeme si lims→1− F (s) = η, F (1) est toujours ´egal `a 1, ce qui entraˆıne que s ∈ [0, 1] → F (s) n’est pas l’inverse de s ∈ [0, η] → s/G(s). ⊓ ⊔ En dehors du cas particulier de l’exercice d’application suivant, il est en g´en´eral difficile d’inverser la fonction s/G(s) de fa¸con analytique et d’identifier ainsi la loi de la population totale Y . Exercice 4.4.2. Dans le cas o` u p0 + p1 = 1 avec p0 > 0, d´eterminer F et en d´eduire la loi de Y . Justifier intuitivement le r´esultat.  C’est pourquoi le r´esultat principal du paragraphe est la proposition suivante qui relie la loi de la population totale a` la loi de reproduction. Proposition 4.4.3. Pour tout n ∈ N∗ , P(Y = n) = n1 P(ξ1 + . . . + ξn = n − 1) o` u les variables (ξi , i ≥ 1) sont ind´ependantes et identiquement distribu´ees suivant la loi de reproduction. Lorsque la loi de la somme de n variables ind´ependantes distribu´ees suivant la loi de reproduction a une expression simple, on en d´eduit une expression analytique de la loi de la population totale. Exemple 4.4.4. – Si p0 + p2 = 1, alors (ξ1 + . . . + ξn )/2 suit la loi binomiale de param`etre n et p2 et  0 si n est pair ∗ ∀n ∈ N , P(Y = n) = 1  n  n−1 n+1 2 (1 − p2 ) 2 si n est impair. n n−1 p2 2

– Si la loi de reproduction est la loi de Poisson de param`etre θ > 0, alors ξ1 + . . . + ξn suit la loi de Poisson de param`etre nθ et ∀n ∈ N∗ , P(Y = n) = e−nθ

(nθ)n−1 . n!

Comme E[ξ1 ] = θ, lorsque θ ≤ 1, la population totale est presque n−1 `a tout sˆ urement finie. La probabilit´e qui donne le poids e−nθ (nθ)n! entier naturel n non nul porte alors le nom de loi de Borel de param`etre n−1  θ. Lorsque θ > 1, la somme n∈N∗ e−nθ (nθ)n! est ´egale `a la probabilit´e d’extinction η < 1 qui v´erifie eθ(η−1) = η puisque la fonction g´en´eratrice de la loi de Poisson de param`etre θ est G(s) = eθ(s−1) . La figure 4.7 illustre ces r´esultats pour les deux lois de reproduction souscritiques suivantes : p2 = 1−p0 = 0.45 et loi de Poisson de param`etre θ = 0.9.♦ Lorsque la loi de reproduction est la loi de Poisson de param`etre θ, G(s) = eθ(s−1) . En combinant l’exemple 4.4.4, le lemme 4.4.1 et l’´equation (4.15), on obtient le corollaire suivant qui nous permettra d’identifier la solution de l’´equation de coagulation discr`ete avec noyau additif dans le Chap. 12.

114

4 Le processus de Galton-Watson 0.6



p2 = 1− p0 = 0.45

0.5 0.4 0.3 0.2 ◊

0.1 0



0







10











20















30











40





50

0.6

Loi de Poisson de paramètre 0.9

0.5 ◊

0.4 0.3 0.2



0.1 0

◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊ ◊

0

10

20

30

40

50

Fig. 4.7. Histogrammes de 10 000 tirages de la population totale et comparaison avec la loi exacte (losanges)

Corollaire 4.4.5. Soit θ ∈]0, 1]. Alors la fonction s ∈ [0, 1] → seθ(1−s) ∈ [0, 1] est inversible. Son inverse est la fonction g´en´eratrice de la loi de Borel de n−1 a tout entier n non nul. ` param`etre θ qui donne la probabilit´e e−nθ (nθ)n! Elle a pour esp´erance 1/(1 − θ) (o` u par convention 1/0 = +∞). La d´emonstration de la proposition 4.4.3 repose sur les deux lemmes suivants. Le premier relie la loi de la population totale a` la marche al´eatoire dont les incr´ements sont donn´es par les variables (ξi , i ≥ 1). Il interviendra ´egalement dans le paragraphe 9.5 consacr´e `a l’´etude des files d’attente a` un serveur lorsque la loi du temps de service des clients est quelconque. ` Lemme 4.4.6. Pour tout n ∈ N∗ , la probabilit´e P(Y = n) est ´egale a P(ξ1 ≥ 1, ξ1 + ξ2 ≥ 2, . . . , ξ1 + . . . + ξn−1 ≥ n − 1, ξ1 + . . . + ξn = n − 1). Le second lemme est un r´esultat de nature combinatoire : Lemme 4.4.7. Soit n ≥ 2 et (x1 , . . . , xn ) un n-uplet de {−1} ∪ N tel que x1 ≥ 0, x1 + x2 ≥ 0, . . . , x1 + . . . + xn−1 ≥ 0 et x1 + . . . + xn = −1. (4.16) Alors les n permutations cycliques (xi1 , . . . , xin ) = (xi+1 , . . . , xn , x1 , . . . , xi ) d’indice i ∈ {1, . . . , n} de ce n-uplet sont distinctes. En outre, tout n-uplet (y1 , . . . , yn ) de {−1} ∪ N tel que y1 + . . . + yn = −1 s’´ecrit comme permutation cyclique d’un tel n-uplet. Nous reportons les d´emonstrations tr`es techniques de ces deux lemmes `a la fin du paragraphe.

4.4 Loi de la population totale

115

D´emonstration de la proposition 4.4.3. Pour n ∈ N∗ , on note qn = P(ξ1 ≥ 1, ξ1 + ξ2 ≥ 2, . . . , ξ1 + . . . + ξn−1 ≥ n − 1, ξ1 + . . . + ξn = n − 1). D’apr`es le lemme 4.4.6, il suffit de v´erifier que qn = P(ξ1 + . . . + ξn = n − 1)/n. Pour cela nous introduisons Xk = ξk − 1 pour 1 ≤ k ≤ n. Les variables X1 , . . . , Xn prennent leur valeurs dans {−1} ∪ N. Comme elles sont ind´ependantes et identiquement distribu´ees, pour tout i ∈ {1, . . . , n}, le vecteur (X1i , . . . , Xni ) = (Xi+1 , . . . , Xn , X1 , . . . , Xi ) a mˆeme loi que (X1 , . . . , Xn ). Donc pour tout n-uplet (x1 , . . . , xn ) de {−1} ∪ N, n

P(X1 = x1 , . . . , Xn = xn ) = =

1 P(X1i = x1 , . . . , Xni = xn ) n i=1

n−1 1 P(X1 = x1n−i , . . . , Xn = xnn−i ), n i=0

o` u (x1n−i , . . . , xnn−i ) d´esigne le vecteur (xn−i+1 , . . . , xn , x1 , . . . , xn−i ). Ainsi en notant An l’ensemble des n-uplets (x1 , . . . , xn ) de {−1}∪N qui v´erifient (4.16), on obtient qn = P(X1 ≥ 0, X1 + X2 ≥ 0, . . . , X1 + . . . + Xn−1 ≥ 0, X1 + . . . + Xn = −1)  P(X1 = x1 , . . . , Xn = xn ) = (x1 ,...,xn )∈An

1 = n

n−1 



P(X1 = x1n−i , . . . , Xn = xnn−i ).

(x1 ,...,xn )∈An i = 0

D’apr`es le lemme 4.4.7, on d´ecrit l’ensemble des n-uplets (y1 , . . . , yn ) de {−1}∪ N tels que y1 + . . . + yn = −1 en parcourant l’ensemble des n permutations cycliques de tous les n-uplets (x1 , . . . , xn ) de An . On conclut donc que  1 P(X1 = y1 , . . . , Xn = yn ) qn = n y , . . . , y ≥ −1 1

n

y1 + . . . + yn = −1

=

1 1 P(X1 + . . . + Xn = −1) = P(ξ1 + . . . + ξn = n − 1). n n ⊓ ⊔

L’objectif de l’exercice suivant est d’´etablir l’identit´e combinatoire (4.17) qui intervient dans l’exercice 12.1.17 du Chap. 12 consacr´e aux ph´enom`enes de coagulation et de fragmentation. Exercice 4.4.8. Soit (ξi , i ≥ 1) une suite de variables al´eatoires ind´ependantes et identiquement distribu´ees `a valeurs dans N et n ∈ N∗ .

116

4 Le processus de Galton-Watson

1. V´erifier que l’´ev´enement {ξ1 + . . . + ξn = n − 1} s’´ecrit comme union des ´ev´enements {ξ1 ≥ 1, . . . , ξ1 +. . . ξk−1 ≥ k−1, ξ1 +. . .+ξk = k−1, ξk+1 +. . .+ξn = n−k}

pour k ∈ {1, . . . , n}. 2. En d´eduire en utilisant le lemme 4.4.6 que n−1 P(ξ1 + . . . + ξn = n − 1) n n−1 1 P(ξ1 + . . . + ξk = k − 1)P(ξk+1 + . . . + ξn = n − k). = k k=1

3. Dans le cas particulier o` u les variables ξi suivent la loi de Poisson de param`etre 1, en d´eduire l’identit´e combinatoire (n − 1)

n−1  (n − k)n−k k k−1 nn−1 = × . n! (n − k)! k!

(4.17)

k=1



D´emonstration du lemme 4.4.6. Tout d’abord on a P(Y = 1) = P(Z1 = 0) = P(ξ10 = 0), ce qui ´etablit le r´esultat pour n = 1. Supposons d´esormais n ≥ 2. En d´ecomposant l’´ev´enement {Y = n} sur les valeurs prises par Z1 puis par Z2 et ainsi de suite, on obtient que P(Y = n) = P(Z1 = n − 1, Z2 = 0) + = P(Z1 = n − 1, Z2 = 0) +

n−2 

P(Z1 = i1 , Y = n)

i1 =1



P(Z1 = i1 , Z2 = i2 , Z3 = 0)

i1 , i2 ≥ 1

i1 + i2 = n − 1

+



P(Z1 = i1 , Z2 = i2 , Y = n)

i1 , i2 ≥ 1

i1 + i2 ≤ n − 2

=

n−1  k=1

P(Y = n) =

n−1  k=1



P(Z1 = i1 , Z2 = i2 , . . . , Zk = ik , Zk+1 = 0)

i1 , . . . , ik ≥ 1 i1 + . . . + ik = n − 1



P(ξ10 = i1 , ξ11 + . . . + ξi11 = i2 , . . . ,

i1 , . . . , ik ≥ 1 i1 + . . . + ik = n − 1

ξ1k−1 + . . . + ξik−1 = ik , ξ1k + . . . + ξikk = 0). k−1

4.4 Loi de la population totale

117

Comme pour tout i1 , . . . , ik ∈ N∗ tels que i1 + . . . + ik = n − 1, le vecteur al´eatoire (ξ10 , ξ11 , . . . , ξi11 , . . . , ξ1k , . . . , ξikk ) a mˆeme loi que le vecteur al´eatoire (ξ1 , ξ2 , . . . , ξ1+i1 , . . . , ξ2+i1 +...+ik−1 , . . . , ξn ), on en d´eduit que P(Y = n) =

n−1  k=1



i1 , . . . , ik ≥ 1

 P ξ1 = i1 , ξ2 + . . . + ξ1+i1 = i2 , . . . ,

i1 + . . . + ik = n − 1

ξ2+i1 +...+ik−2 + . . . + ξ1+i1 +...+ik−1 = ik ,  ξ2+i1 +...+ik−1 + . . . + ξ1+i1 +...+ik = 0 .

(4.18)

Nous allons maintenant montrer que la probabilit´e qn = P(ξ1 ≥ 1, ξ1 + ξ2 ≥ 2, . . . , ξ1 + . . . + ξn−1 ≥ n − 1, ξ1 + . . . + ξn = n − 1) est ´egale au second membre de (4.18). En d´ecomposant sur les valeurs prises par ξ1 et en remarquant que si ξ1 = i1 ≥ 1 alors pour 1 ≤ l ≤ i1 , ξ1 +. . .+ξl ≥ l, on obtient qn = P(ξ1 = n − 1, ξ2 + . . . + ξn = 0) n−2   + P ξ1 = i1 , ξ2 + . . . + ξ1+i1 ≥ 1, . . . , i1 =1

 ξ2 + . . . + ξn−1 ≥ n − 1 − i1 , ξ2 + . . . + ξn = n − 1 − i1 .

On d´ecompose ensuite sur les valeurs prises par ξ2 + . . . + ξ1+i1 les ´ev´enements dont la probabilit´e apparaˆıt dans la somme sur i1 : qn = P(ξ1 = n − 1, ξ2 + . . . + ξn = 0)  + P(ξ1 = i1 , ξ2 + . . . + ξ1+i1 = i2 , ξ2+i1 + . . . + ξn = 0) i1 , i2 ≥ 1

i1 + i2 = n − 1

+



i1 , i2 ≥ 1

 P ξ1 = i1 , ξ2 + . . . + ξ1+i1 = i2 , ξ2+i1 + . . . + ξ1+i1 +i2 ≥ 1,

i1 + i2 ≤ n − 2

 . . . , ξ2+i1 + . . . + ξn−1 ≥ n − 1 − i1 − i2 , ξ2+i1 + . . . + ξn = n − 1 − i1 − i2 . En d´ecomposant maintenant sur les valeurs prises par ξ2+i1 + . . . + ξ1+i1 +i2 et ainsi de suite, on conclut que qn est ´egal au second membre de (4.18), ce qui ach`eve la d´emonstration. ⊓ ⊔

118

4 Le processus de Galton-Watson

D´emonstration du lemme 4.4.7. Soit (x1 , . . . , xn ) un n-uplet de {−1} ∪ N tel que x1 ≥ 0, x1 + x2 ≥ 0, . . . , x1 + . . . + xn−1 ≥ 0 et x1 + . . . + xn = −1. (4.19) Notons que (xn1 , . . . , xnn ) = (x1 , . . . , xn ) et donc que % $  j l  xnk = min xnk . n = min l : k=1

1≤j≤n

k=1

Pour d´emontrer que les n permutations cycliques (xi1 , . . . , xin ) d’indice i ∈ {1, . . . , n} sont distinctes, nous allons v´erifier que pour i ∈ {1, . . . , n − 1}, % $  j l  i i xk = min xk . n − i = min l : k=1

1≤j≤n

(4.20)

k=1

n j Comme d’apr`es (4.19), pour j ∈ {i + 1, . . . , n − 1}, k=1 xk > k=1 xk i en soustrayant k=1 xk aux deux membres de cette in´egalit´e et en posant l = j − i, on obtient que ∀l ∈ {1, . . . , n − i − 1},

l 

xik >

n−i 

xik .

k=1

k=1

j xk ≥ 0, Par ailleurs, toujours d’apr`es (4.19), pour j ∈ {1, . . . , i}, n−i k=1 n−i+j i i in´egalit´e qui se r´ecrit k=n−i+1 xk ≥ 0. En additionnant k=1 xk aux deux membres de cette in´egalit´e et en posant l = n − i + j, on obtient que ∀l ∈ {n − i + 1, . . . , n},

l 

k=1

xik ≥

n−i 

xik ,

k=1

ce qui ach`eve la d´emonstration de (4.20). Soit maintenant (y1 , . . . , yn ) un n-uplet de {−1} ∪ N tel que y1 + . . . + yn = −1. Nous allons montrer que (y1 , . . . , yn ) s’obtient comme permutation cyclique d’un n-uplet (x1 , . . . , xn ) qui satisfait (4.19). Dans ce but, posons % $  j l  yk = min yk . i = min l : k=1

1≤j≤n

k=1

Si i = n, alors (x1 , . . . , xn ) = (y1 , . . . , yn ) v´erifie (4.19). ur (y1 , . . . , yn ) = Si i ∈ {1, . . . , n−1} posons (x1 , . . . , xn ) = (y1i , . . . , yni ). Bien sˆ (x1n−i , . . . , xnn−i ) et il suffit de v´erifier (4.19) pour conclure. Par d´efinition de i, ∀l ∈ {1, . . . , i − 1},

l 

k=1

yk >

i 

k=1

yk et ∀l ∈ {i + 1, . . . , n},

l 

k=i+1

yk ≥ 0.

R´ef´erences

119

En utilisant la d´efinition de (x1 , . . . , xn ), ces in´egalit´es se r´ecrivent :  j n ∀j ∈ {n − i + 1, . . . , n − 1}, k=n−i+1 xk > k=n−i+1 xk . j ∀j ∈ {1, . . . , n − i}, x ≥ 0 k=1 k

n−i Il suffit d’ajouter ndeux membres de la premi`ere in´egalit´e et de n k=1 xk aux remarquer que k=1 xk = k=1 yk = −1 pour conclure que (x1 , . . . , xn ) satisfait (4.19). ⊓ ⊔

R´ ef´ erences 1. S. Asmussen et H. Hering. Branching processes. Birkha¨ user, 1983. 2. K. Athreya et P. Ney. Branching processes. Springer-Verlag, 1972. 3. T. Harris. The theory of branching processes. Springer-Verlag, 1963. 4. P. Jagers. Branching processes with biological applications. Wiley, 1975. 5. D. Kendall. Branching processes since 1873. J. Lond. Math. Soc., 41 : 385–406, 1966. 6. M. Kimmel et D. Axelrod. Branching Processes in Biology. Springer-Verlag, 2002. 7. A. Lotka. The extinction of families, i. J. Washington Acad. Sci., 21 : 377–380, 1931. 8. A. Lotka. The extinction of families, ii. J. Washington Acad. Sci., 21 : 453–459, 1931.

5 Recherche de zones homog` enes dans l’ADN

Le bact´eriophage lambda est un parasite de la bact´erie Escherichia coli. Son ADN (acide d´esoxyribonucl´eique) circulaire comporte N0 = 48 502 paires de nucl´eotides (voir [15]), et il est essentiellement constitu´e de r´egions codantes, i.e. de r´egions lues et traduites en prot´eines. La transcription, c’est-` a-dire la lecture de l’ADN, s’effectue sur des parties de chacun des deux brins qui forment la double h´elice de l’ADN. Ainsi sur la s´equence d’ADN d’un seul brin on peut distinguer deux types de zones : celles o` u la transcription a lieu sur le brin et celles o` u la transcription a lieu sur le brin appari´e. On observe sur les parties codantes une certaine fr´equence d’apparition des diff´erents nucl´eotides Ad´enine (A), Cytosine (C), Guanine (G) et Thymine (T). Le nucl´eotide A (resp. C) d’un brin est appari´e avec le nucl´eotide T (resp. G) du brin appari´e et vice versa. Les deux types de zones d’un brin d´ecrites plus haut correspondent en fait a` des fr´equences d’apparitions diff´erentes des quatre nucl´eotides. Les biologistes ont d’abord analys´e l’ADN du bact´eriophage lambda en identifiant les g`enes de l’ADN, c’est-`a-dire les parties codantes de l’ADN, et les prot´eines correspondantes. Et ils ont ainsi constat´e que les deux brins de l’ADN comportaient des parties codantes. Il est naturel de vouloir d´etecter a priori les parties codantes, ou susceptibles d’ˆetre codantes, `a partir d’une analyse statistique de l’ADN. Cela peut permettre aux biologistes d’identifier plus rapidement les parties codantes pour les organismes dont la s´equence d’ADN est connue. Les paragraphes qui suivent montrent comment, en mod´elisant la s´equence d’ADN comme une r´ealisation partielle d’une chaˆıne de Markov, on peut d´etecter les zones o` u les fr´equences d’apparitions des quatre nucl´eotides sont significativement diff´erentes. L’algorithme EM (Esp´erance Maximisation) que nous pr´esentons et son utilisation pour l’analyse de l’ADN ont ´et´e ´etudi´es en d´etail et dans un cadre plus g´en´eral par Muri [12]. De nombreux travaux r´ecents permettent d’am´eliorer l’algorithme EM pour la d´etection de zones int´eressantes de l’ADN en tenant compte d’informations biologiques connues a priori, voir par exemple les travaux du Laboratoire Statistique et G´enome (http://stat.genopole.cnrs.fr).

122

5 Recherche de zones homog`enes dans l’ADN

Les algorithmes EM ont ´et´e initialement introduits en 1977 par Dempster, Laid et Rubin [8]. Ils sont utilis´es pour l’estimation de param`etres dans des mod`eles o` u des variables sont cach´ees, c’est-`a-dire non observ´ees (voir par exemple [5] p. 213). Dans l’exemple ci-dessus, avec l’interpr´etation biologique que l’on esp`ere retrouver, on ne sait pas si le k-i`eme nucl´eotide observ´e appartient a` une zone transcrite ou a` une zone appari´ee `a une zone transcrite. Le brin transcrit au niveau du k-i`eme nucl´eotide est donc une variable cach´ee que l’on d´esire retrouver. Il existe de nombreuses applications des algorithmes EM, voir par exemple [10]. Signalons, sans ˆetre exhaustif, que ces algorithmes sont utilis´es dans les domaines suivants : – Classification ou ´etude de donn´ees m´elang´ees dont les sources sont inconnues : pour les donn´ees m´elang´ees voir par exemple [11], pour l’analyse d’image voir par exemple [7 et 9], voir aussi l’exemple du paragraphe 5.6.1. – Analyse de donn´ees censur´ees ou tronqu´ees, voir le probl`eme du paragraphe 5.6.2. – Estimation de matrice de covariance avec des donn´ees incompl`etes, etc. Nous pr´esentons bri`evement le mod`ele math´ematique pour la s´equence ` la s´equence d’ADN, d’un brin d’ADN, y1 . . . yN0 du bact´eriophage lambda. A u on peut associer la s´equence non observ´ee, dite s´equence cach´ee, s1 . . . sN0 , o` si sk = +1, alors yk est la r´ealisation d’une variable al´eatoire, Yk , de loi p+ sur X = {A, C, G, T}, et si sk = −1 alors la loi de Yk est p− . Les probabilit´es p+ et p− sont distinctes mais inconnues. On mod´elise la suite s1 , . . . , sN0 comme la r´ealisation d’une chaˆıne de Markov, (Sn , n ≥ 1), sur I = {+1, −1} de matrice de transition, a, ´egalement inconnue. Remarque. La matrice de transition a est de la forme   1−ε ε , a= ε′ 1 − ε′ o` u ε et ε′ sont intuitivement inversement proportionnels a` la longueur moyenne des zones homog`enes o` u les fr´equences d’apparitions des quatre nucl´eotides sont constantes. En effet, si par exemple S1 = +1, la loi du premier instant o` u la chaˆıne de Markov change d’´etat, T = inf{k ≥ 1 ; Sk+1 = +1}, suit une loi g´eom´etrique de param`etre ε car P(T = k|S1 = +1) = P(Sk+1 = −1, Sk = 1, . . . , S2 = 1|S1 = 1) = (1 − ε)k−1 ε, et son esp´erance vaut 1/ε.



Le mod`ele utilis´e comporte une chaˆıne de Markov, S, qui n’est pas directement observ´ee. Ce type de mod`ele, dit mod`ele de chaˆınes de Markov cach´ees, est pr´esent´e de mani`ere d´etaill´ee au paragraphe 5.1. Pour identifier les zones homog`enes, il faut estimer les param`etres inconnus a, p+ et p− . Pour cela, on utilisera les estimateurs du maximum de vraisemblance (EMV) qui poss`edent de bonnes propri´et´es. La construction de ces estimateurs ainsi que leurs propri´et´es asymptotiques sont pr´esent´ees dans le paragraphe 5.2 au

5.1 Chaˆınes de Markov cach´ees

123

travers d’un exemple ´el´ementaire et dans un cadre simple. La convergence de l’EMV vers les param`etres inconnus du mod`ele dans le cadre des chaˆınes de Markov cach´ees est plus complexe `a ´etablir. Ce r´esultat et sa d´emonstration technique sont report´es au paragraphe 5.5. Nous verrons au paragraphe 5.3, qu’il est impossible de calculer explicitement l’EMV dans le cas particulier des chaˆınes de Markov cach´ees. Mais nous exhiberons une m´ethode, l’algorithme EM, pour en donner une bonne approximation. Le paragraphe 5.4, qui est le cœur de ce chapitre, pr´esente la mise en œuvre explicite de l’algorithme EM. En particulier, on calcule la loi des ´etats cach´es S1 , . . . , SN0 sachant les observations y1 , . . . , yN0 , voir la Fig. 5.7 pour les valeurs de P(Sn = +1|y1 , . . . , yN0 ) concernant l’ADN du bact´eriophage lambda. Dans les mod`eles de m´elanges ou de donn´ees censur´ees, l’algorithme EM s’exprime simplement. Ces applications importantes, en marge des mod`eles de chaˆınes de Markov, sont abord´ees au paragraphe 5.6. Pour les mod`eles de m´elanges, on utilise les donn´ees historiques des crabes de Weldon, analys´ees par Pearson en 1894, premi`ere approche statistique d’un mod`ele de m´elange. Les mod`eles de donn´ees censur´ees sont ´evoqu´es au travers d’un probl`eme. Enfin, dans la conclusion, paragraphe 5.7, nous pr´esentons les r´esultats num´eriques obtenus pour le bact´eriophage lambda ainsi que quelques commentaires sur la m´ethode utilis´ee.

5.1 Chaˆınes de Markov cach´ ees On rappelle la notation condens´ee suivante xnm pour le vecteur (xm , . . . , xn ) avec m ≤ n ∈ Z. On consid`ere S = (Sn , n ≥ 1) une chaˆıne de Markov a` valeurs dans I, un espace fini non r´eduit a` un ´el´ement, de matrice de transition a et de loi initiale π0 . Soit (Yn , n ≥ 1) une suite de variables a` valeurs dans X , un espace d’´etat fini, telle que conditionnellement a` S les variables al´eatoires (Yn , n ≥ 1) sont ind´ependantes et la loi de Yk sachant S ne d´epend que de la valeur de Sk . Plus pr´ecis´ement, pour tout N ≥ 1, conditionnellement a` S1N , les variables al´eatoires Y1N sont ind´ependantes : pour tous N ≥ 1, y1N ∈ X N N et sN 1 ∈ I , on a P(Y1N = y1N |S1N = sN 1 )=

N 

n=1

P(Yn = yn |S1N = sN 1 ),

de plus il existe une matrice b = (b(i, x) ; i ∈ I, x ∈ X ), telle que

P(Yn = yn |S1N = sN 1 ) = P(Yn = yn |Sn = sn ) = b(sn , yn ).

(5.1)

(5.2)

Lemme 5.1.1. La suite ((Sn , Yn ), n ≥ 1) est une chaˆıne de Markov. On a pour tous n ≥ 2, sn1 ∈ I n et y1n ∈ X n , P(Sn = sn , Yn = yn |S1n−1 = s1n−1 , Y1n−1 = y1n−1 ) = a(sn−1 , sn )b(sn , yn ), et

P(Sn = sn |S1n−1 = s1n−1 , Y1n−1 = y1n−1 ) = a(sn−1 , sn ).

124

5 Recherche de zones homog`enes dans l’ADN

D´emonstration. En utilisant les ´egalit´es (5.1) et (5.2) ainsi que la propri´et´e de Markov pour (Sn , n ≥ 1), on a P(S1n = sn1 , Y1n = y1n ) = P(Y1n = y1n |S1n = sn1 )P(S1n = sn1 )   n  b(sk , yk ) P(Sn = sn |S1n−1 = s1n−1 )P(S1n−1 = s1n−1 ) = k=1 n 

=



=



k=1 n 



b(sk , yk ) P(Sn = sn |Sn−1 = sn−1 )P(S1n−1 = s1n−1 ) 

b(sk , yk ) a(sn−1 , sn )P(S1n−1 = s1n−1 ).

k=1

 D’autre part, en sommant sur yn ∈ X et en utilisant x∈X b(sn , x) = 1, puis en sommant sur sn ∈ I et en utilisant sn ∈I a(sn−1 , sn ) = 1, il vient P(S1n−1

=

s1n−1 , Y1n−1

=

y1n−1 )

=

n−1  k=1



b(sk , yk ) P(S1n−1 = s1n−1 ).

On en d´eduit donc la premi`ere ´egalit´e du lemme. Ainsi la suite ((Sn , Yn ), n ≥ 1) est une chaˆıne de Markov. La deuxi`eme ´egalit´e du lemme se d´eduit de la premi`ere en sommant sur ⊓ ⊔ yn ∈ X . Dans le mod`ele de chaˆıne de Markov cach´ee, lors d’une r´ealisation, on observe simplement y1N , une r´ealisation de Y1N . Les variables S1N sont appel´ees variables cach´ees, et leur valeur prise lors d’une r´ealisation, les valeurs cach´ees. Dans ce mod`ele, on cherche `a estimer, `a partir de l’observation y1N , le param`etre θ = (a, b, π0 ) puis a` calculer, pour i ∈ I, les probabilit´es P(Sn = i|Y1N = y1N ). L’ensemble des param`etres possibles forme un compact Θ de 2 [0, 1]I × [0, 1]I×X × [0, 1]I . Remarquons que la loi du vecteur des observations Y1N ne d´etermine pas compl`etement le param`

etre θ = (a, b, π0 ). En effet, soit σ une permutation de I. On note θσ = a(σi , σj ), i ∈ I, j ∈ I), (b(σi , x), i ∈ I, x ∈ X ), (π0 (σi ),  i ∈ I) . Les param`etres θ et θσ g´en`erent la mˆeme loi pour le processus des

observations Y1N (mais pas pour (S1N , Y1N ) en g´en´eral). On ne peut pas esp´erer a la seule vue des observations. On dit que le mod`ele n’est distinguer θ de θσ ` pas identifiable. Remarquons ´egalement que s’il existe une probabilit´e p sur X telle que pour tous i ∈ I, x ∈ X , b(i, x) = p(x) alors la suite Y est une suite de variables al´eatoires ind´ependantes et de mˆeme loi p. En particulier la loi de Y1N ne d´epend pas des valeurs de a et π0 .

5.2 L’estimateur du maximum de vraisemblance (EMV)

125

D´ efinition 5.1.2. Soit X une variable al´eatoire dont on peut observer les r´ealisations. On suppose que la loi, a priori inconnue, de X appartient ` a une u Θ est un famille de lois indic´ee par un param`etre : P = {Pθ , θ ∈ Θ}, o` ensemble de param`etres. Il s’agit d’un mod` ele param´ etrique. On dit que le mod`ele est identifiable si pour θ = θ′ ∈ Θ, on a Pθ = Pθ′ . Nous reviendrons sur la notion de mod`ele identifiable dans le paragraphe suivant lors de la construction d’un estimateur de θ, param`etre a priori inconnu de la loi de X. Pour que le mod`ele de chaˆıne de Markov cach´ee soit identifiable, il suffit de restreindre l’ensemble des param`etres possibles `a un sous-ensemble Θ′ de Θ. Pour cela, on v´erifie qu’il est possible de choisir Θ′ un ouvert de Θ, tel que si θ = (a, b, π0 ) ∈ Θ, alors – soit il existe i = i′ et pour tout x ∈ X , b(i, x) = b(i′ , x), alors on a θ ∈ Θ′ , – soit pour tous i = i′ , il existe x ∈ X tel que b(i, x) = b(i′ , x), et alors il existe σ une permutation unique de I telle que θσ ∈ Θ′ . Ainsi si θ et θ′ appartiennent a` Θ′ et sont distincts, alors les lois des u l’ensemble des param`etres observations Y1N sont diff´erentes. Le mod`ele, o` est Θ′ , est alors identifiable.

5.2 L’estimateur du maximum de vraisemblance (EMV) 5.2.1 D´ efinitions et exemples Nous illustrons l’estimation par maximum de vraisemblance dans l’exemple qui suit. Exemple 5.2.1. Vous d´esirez jouer `a un jeu de pile ou face avec un adversaire. Vous savez qu’il dispose en fait de deux pi`eces biais´ees. On note θi la probabilit´e d’obtenir pile pour la pi`ece i ∈ {1, 2}, avec θ1 = 0.3 et θ2 = 0.8. La pi`ece avec laquelle votre adversaire vous propose de jouer, a d´ej` a ´et´e utilis´ee dans le jeu de pile ou face pr´ec´edent, o` u vous avez observ´e k0 = 4 piles sur n = 10 lancers. Le nombre de pile obtenu lors de n lancers suit une loi binomiale de param`   etre (n, θ), θ ´etant la probabilit´e d’obtenir pile. On note p(θ, k) = n k θ (1 − θ)n−k la probabilit´e qu’une variable de loi binomiale de param`etre k (n, θ) prenne la valeur k. On visualise ces probabilit´es pour n = 10, et θ ∈ {θ1 , θ2 } sur la Fig. 5.1. Il est raisonnable de supposer que la pi`ece utilis´ee est la pi`ece 1 car la probabilit´e d’observer k0 = 4 est plus grande pour θ = θ1 , p(θ1 ; k0 ) ≃ 0.2, que pour θ = θ2 , p(θ2 ; k0 ) ≃ 0.006. On choisit ainsi le param`etre θ ∈ {θ1 , θ2 } qui maximise la fonction u θ ∈ Θ = {θ1 , θ2 }. θ → p(θ ; k0 ) o`

126

5 Recherche de zones homog`enes dans l’ADN 0.4

× 0.3



×

◊ ◊

×

0.2





0.1

◊ × 0.0 0

×

×

×

×

1

2

3

4

× 5

×

× ◊ ◊ 6

7







8

9

10

Fig. 5.1. Lois binomiales de param`etres (10, θ) avec θ = 0.3 (losanges) et θ = 0.8 (croix)

La fonction ci-dessus s’appelle la vraisemblance, et le param`etre qui la maximise s’appelle l’estimateur du maximum de vraisemblance. ♦ D´ efinition 5.2.2. On consid`ere un mod`ele param´etrique : P = {Pθ , θ ∈ Θ} une famille de lois (resp. de lois a ` densit´e) sur un espace E discret (resp. sur u Θ est un ensemble de param`etres. On note p(θ ; x) la probabilit´e E = Rn ), o` qu’une variable de loi Pθ prenne la valeur x ∈ E (resp. la densit´e en x ∈ E ` x ∈ E fix´e, par θ → d’une variable de loi Pθ ). La fonction d´efinie sur Θ, a p(θ ; x) s’appelle la vraisemblance. Supposons que pour tout x ∈ E, il existe une unique valeur de θ, not´ee ˆ ˆ ˆ ; x) > p(θ, x) θ(x), telle que la vraisemblance soit maximale en θ(x) : p(θ(x) ˆ ˆ pour tous x ∈ E, θ ∈ Θ et θ = θ(x). La fonction x → θ(x), pour x ∈ E, s’appelle l’Estimateur du Maximum de Vraisemblance (EMV) de θ. Comme la fonction log est strictement croissante, on peut aussi rechercher l’EMV comme la valeur de θ qui maximise la log-vraisemblance θ → log p(θ ; x). Cette approche est souvent techniquement plus simple. Dans le cas o` u la vraisemblance atteint son maximum en plusieurs points, l’EMV est mal d´efini, voir la remarque 5.2.10 a` ce sujet. Soit X est une variable al´eatoire de loi Pθ0 , avec θ0 ∈ Θ inconnu. ˆ D´ efinition 5.2.3. La variable al´eatoire θˆ = θ(X) est ´egalement appel´ee l’EMV de θ. Remarque 5.2.4. Si g est une bijection d´efinie sur Θ, alors on v´erifie facilement que l’EMV de r = g(θ), qui est l’EMV associ´e au mod`ele param´etrique

5.2 L’estimateur du maximum de vraisemblance (EMV)

127

ˆ o` Q = {Qr = Pg−1 (r) , r ∈ g(Θ)} est g(θ), u θˆ est l’EMV de θ. Par convention ˆ si g est une fonction d´efinie sur Θ, alors l’EMV de g(θ) est g(θ). ♦ L’estimateur du maximum de vraisemblance poss`ede de bonnes propri´et´es statistiques : convergence, normalit´e asymptotique. En revanche, cet estimateur est souvent biais´e. Ce handicap est g´en´eralement compens´e par le fait qu’il permet de construire un intervalle de confiance ´etroit comparativement a d’autres estimateurs. Apr`es avoir donn´e une d´efinition pr´ecise aux termes ` pr´ec´edents, nous illustrerons ces propri´et´es sur l’estimation de la probabilit´e d’avoir un gar¸con `a la naissance. D´ efinition 5.2.5. On consid`ere un mod`ele param´etrique. Soit X = (Xn , n ≥ 1) une suite de variables al´eatoires a ` valeurs dans E, dont la loi Pθ0 appartient ` a une famille de lois P = {Pθ , θ ∈ Θ}, o` u Θ est un ensemble de param`etres. Le param`etre θ0 est inconnu a priori. a partir de X1n est une fonction explicite Un estimateur de θ0 construit ` n de X1 . En particulier, elle ne fait pas intervenir θ0 . Un estimateur h(X1n ) de θ0 est dit sans biais s’il est int´egrable et si E[h(X1n )] = θ0 pour tout θ0 ∈ Θ. Sinon, on dit que l’estimateur est biais´e. u δn est construit a ` partir Soit (δn , n ≥ 1) une suite d’estimateurs de θ0 , o` de X1n . On dit que la suite (δn , n ≥ 1) est un estimateur convergent (on dit aussi fortement convergent) de θ0 , si pour tout θ0 ∈ Θ, on a p.s. lim δn = θ0 .

n→∞

Si la convergence a lieu en probabilit´e seulement, on parle d’estimateur faiblement convergent. On dit que la suite (δn , n ≥ 1) est un estimateur asymptotiquement normal de θ0 , si pour tout θ0 ∈ Θ, on a √

Loi

n(δn − θ0 ) −−−−→ N (0, Σ(θ0 )), n→∞

o` u Σ(θ0 ) est la variance asymptotique (ou matrice de covariance asymptotique si le param`etre θ est multidimensionnel). Exemple 5.2.6. On suppose qu’` a la naissance chaque b´eb´e a une probabilit´e θ0 d’ˆetre un gar¸con et une probabilit´e 1 − θ0 d’ˆetre une fille. On consid`ere une population de n b´eb´es et on d´esire donner une estimation de θ0 afin de savoir si `a la naissance il naˆıt significativement plus de gar¸cons que de filles ou plus de filles que de gar¸cons ou autant de gar¸cons que de filles. On pr´ecise le mod`ele param´etrique. On note Xi = 1 si le i`eme b´eb´e est un gar¸con et Xi = 0 sinon. Il est naturel de supposer que les variables al´eatoires X = (Xi , i ≥ 1) sont ind´ependantes et de mˆeme loi de Bernoulli de param`etre θ0 ∈ Θ = [0, 1]. Pour calculer l’EMV θˆn , a` partir de l’´echantillon X1n , on remarque que P(Xi = xi ) = θ0xi (1 − θ0 )1−xi . Par ind´ependance, on en d´eduit que la vraisemblance est la fonction de θ d´efinie sur Θ, pour x = xn1 ∈ {0, 1}n , par

128

5 Recherche de zones homog`enes dans l’ADN

pn (θ ; x) =

n 

i=1

n

o` u n1 = d´efinie par

i=1

θxi (1 − θ)1−xi = θn1 (1 − θ)n−n1 ,

xi repr´esente le nombre de gar¸cons. La log-vraisemblance est

Ln (θ ; x) = log pn (θ ; x) = n1 log(θ) + (n − n1 ) log(1 − θ), avec la convention que 0 log 0 = 0. Dans un premier temps on cherche θ qui annule sa d´eriv´ee : n1 n − n1 ∂Ln (θ ; x) = − = 0, ∂θ θ 1−θ soit θ = n1 /n. Comme ∂Ln /∂θ est une fonction strictement d´ecroissante, on en d´eduit dans un deuxi`eme temps, que la log-vraisemblance est maximale n n 1 n1 = xi . L’EMV est donc θˆn = n1 i=1 Xi . On peut remarpour θ = n n i=1 quer que dans ce cas pr´ecis l’EMV est un estimateur sans biais de θ0 . On d´eduit de la loi forte des grands nombres que (θˆn , n ≥ 1) converge presque sˆ urement vers le vrai param`etre inconnu √ θ0 , i.e. l’EMV est convergent. On d´eduit du th´eor`eme central limit que ( n(θˆn − θ0 ), n ≥ 1) converge en u Σ(θ0 ) = Var(X1 ) = loi vers une variable de loi gaussienne N (0, Σ(θ0 )), o` θ0 (1 − θ0 ). L’EMV est donc asymptotiquement normal de variance asymptotique Σ(θ0 ). On peut alors, en rempla¸cant Σ(θ0 ) par l’estimation θˆn (1− θˆn ), en d´eduire un intervalle de confiance de θ0 de niveau asymptotique 95 % (cf. le paragraphe A.3.4). Par exemple, aux U.S.A. en 1996 on compte n1 =1 990 480 naissances de gar¸cons et n − n1 =1 901 014 naissances de filles. On en d´eduit que θˆn = n1 /n ≃ 0.511495. On calcule / l’intervalle de !confiance de niveau √ asymptotique 95 % pour θ : θˆn ± 1.96 θˆn (1 − θˆn )/ n ≃ [0.511, 0.512]. Il

naˆıt significativement plus de gar¸cons que de filles.



Exercice 5.2.7. On consid`ere le mod`ele param´etrique gaussien. Soit (Xn , n ≥ 1) une suite de variables al´eatoires ind´ependantes et de mˆeme loi gaussienne de moyenne µ ∈ R et de variance σ 2 > 0. Le param`etre est θ = (µ, σ 2 ) ∈ Θ = R×]0, ∞[. La vraisemblance associ´ee au vecteur X1n est sa densit´e. 1. Expliciter la vraisemblance et la log-vraisemblance du mod`ele gaussien. µn , σ ˆn2 ), de θ associ´e `a X1n est d´efini par la 2. Montrer que l’EMV, θˆn = (ˆ moyenne empirique et la variance empirique : n

µ ˆn =

1 Xk , n k=1

σ ˆn2 =

n

n

k=1

k=1

1 1 2 (Xk − µ ˆn )2 = Xk − µ ˆ2n . n n

(5.3)

5.2 L’estimateur du maximum de vraisemblance (EMV)

129

3. V´erifier que la moyenne empirique est un estimateur sans biais de µ, mais que la variance empirique est un estimateur biais´e de σ 2 . Construire a` partir de σ ˆn2 un estimateur sans biais de σ 2 . 4. V´erifier que l’EMV, θˆn , est un estimateur de θ convergent et asymptotiquement normal.  Sous des hypoth`eses assez g´en´erales sur la vraisemblance, on peut montrer u θˆn est l’EMV de θ construit a` partir que la suite d’estimateurs (θˆn , n ≥ 1), o` n de X1 , est convergente et asymptotiquement normale. On pourra consulter [4], paragraphe 16, pour une d´emonstration pr´ecise de ces r´esultats quand les variables (Xn , n ≥ 1) sont ind´ependantes et de mˆeme loi. Dans le paragraphe qui suit, nous d´emontrons la convergence de l’EMV, dans le cas o` u les variables (Xn , n ≥ 1), ind´ependantes et de mˆeme loi, d´ependant d’un param`etre θ ∈ Θ, sont a` valeurs dans un espace discret E. Des arguments similaires permettront de montrer la convergence de l’EMV pour les chaˆınes de Markov cach´ees (voir le paragraphe 5.5). Au chapitre 6, la d´emonstration du lemme 6.2.1 ´etablit directement la convergence de l’EMV de la matrice de transition pour un mod`ele de chaˆıne de Markov a` l’aide du th´eor`eme ergodique pour les chaˆınes de Markov et la normalit´e asymptotique a l’aide du TCL ergodique. ` 5.2.2 Convergence de l’EMV dans un mod` ele simple On consid`ere P = {Pθ ; θ ∈ Θ}, une famille de lois sur un espace discret E, indic´ee par un param`etre θ ∈ Θ. Soit (Xn , n ≥ 1) une suite de variables al´eatoires ind´ependantes et de mˆeme loi Pθ0 , θ0 ´etant inconnu. Pour x1 ∈ E on pose p(θ0 ; x1 ) = P(X1 = x1 ). La vraisemblance associ´ee `a X1 est donc vraisemblance associ´ee `a l’´echantillon X1N θ → p(θ, x1 ). Par ind´ependance, la n n n est, pour x1 ∈ E, pn (θ ; x1 ) = i=1 p(θ ; xi ). La log-vraisemblance est Ln (θ ; xn1 ) =

n 

log p(θ ; xi ).

(5.4)

i=1

On suppose que l’EMV de θ, θˆn est bien d´efini : la variable al´eatoire θˆn est l’unique valeur de Θ en laquelle Ln (θ ; X1n ) et donc n1 Ln (θ ; X1n ) sont maximaux : n 1 log p(θ ; Xi ). (5.5) θˆn = argmax n i=1 θ∈Θ

On consid`ere le lemme suivant dont la d´emonstration est report´ee `a la fin de ce paragraphe.

Lemme 5.2.8. Soit un espace E discret, PE l’ensemble des probabilit´es sur a valeurs dans E, et p = (p(x), x ∈ E) ∈ PE . On consid`ere la fonction Hp ` [−∞, 0] d´efinie sur PE par

130

5 Recherche de zones homog`enes dans l’ADN

Hp : p′ → Hp (p′ ) =



p(x) log p′ (x),

x∈E

avec la convention 0 log 0 = 0. On suppose que Hp (p) > −∞. Alors la fonction Hp atteint son unique maximum pour p′ = p. Remarquons que la quantit´e Hp (p) est au signe pr`es l’entropie de p. u Par simplicit´e d’´ecriture, on note pour θ, θ0 ∈ Θ, Hθ0 (θ) = Hp0 (p), o` p = p(θ ; ·) et p0 = p(θ0 ; ·). Comme p(θ ; X1 ) ≤ 1, on a  p(θ0 ; x) log p(θ, x) = E[log p(θ ; X1 )] ∈ [−∞, 0], Hθ0 (θ) = x∈E

et par la loi forte des grands nombres, cf. corollaire A.3.14, n

1 1 p.s. Ln (θ ; X1n ) = log p(θ ; Xi ) −−−−→ Hθ0 (θ). n→∞ n n i=1

(5.6)

1 Ceci sugg`ere que θˆn = argmax Ln (θ ; X1n ) converge presque sˆ urement n θ∈Θ vers argmax Hθ0 (θ) (i.e. vers θ0 d’apr`es le lemme 5.2.8) quand n tend vers θ∈Θ

l’infini ; et donc que l’EMV est convergent. Plus pr´ecis´ement, on a le th´eor`eme suivant. Th´ eor` eme 5.2.9. On suppose les conditions suivantes : 1. Θ est compact. 2. Le mod`ele est identifiable. 3. La vraisemblance d´efinie sur Θ, θ → p(θ ; x), est continue pour tout x ∈ E. 4. P.s. pour n assez grand, (5.5) d´efinit uniquement l’EMV θˆn . 5. La quantit´e Hθ (θ) est finie pour tout θ ∈ Θ.

Alors l’EMV de θ, d´efini par (5.5), est un estimateur convergent. n

D´emonstration. On pose pour tout x ∈ E, fn (x) = remarque que

1 1{Xi =x} , et on n i=1

 1 Ln (θ ; X1n ) = log p(θ ; x)fn (x). n x∈E

La loi forte des grands nombres assure que p.s. pour tout x ∈ E, p.s.

fn (x) −−−−→ p(θ0 ; x). n→∞

Comme Θ est compact, et que p.s. l’EMV est bien d´efini pour n assez grand, la suite des EMV admet au moins un point d’accumulation θ∗ ∈ Θ. Et il existe p.s. une fonction strictement croissante (al´eatoire), σ, de N∗ dans N∗ , telle que

5.2 L’estimateur du maximum de vraisemblance (EMV)

131

la suite (θˆσ(n) , n ≥ 1) converge vers θ∗ . Par continuit´e de la vraisemblance, on a pour tout x ∈ E, p.s. log p(θˆσ(n) ; x) −−−−→ log p(θ∗ ; x). n→∞

Comme les fonctions fσ(n) et − log p(θˆσ(n) ; ·) sont positives, on d´eduit du lemme de Fatou que p.s. lim inf − n→∞

 1 σ(n) Lσ(n) (θˆσ(n) ; X1 ) = lim inf − log p(θˆσ(n) ; x)fσ(n) (x) n→∞ σ(n) x∈E





x∈E

lim inf − log p(θˆσ(n) ; x)fσ(n) (x) n→∞

= −Hθ0 (θ∗ ). Comme θˆn est l’EMV, on a Ln (θ0 ; X1n ) ≤ Ln (θˆn ; X1n ), et grˆ ace `a (5.6), p.s. lim inf − n→∞

1 1 σ(n) σ(n) Lσ(n) (θˆσ(n) ; X1 ) ≤ lim inf − Lσ(n) (θ0 ; X1 ) n→∞ σ(n) σ(n) = −Hθ0 (θ0 ).

On d´eduit de ces in´egalit´es, que p.s. Hθ0 (θ∗ ) ≥ Hθ0 (θ0 ). Le mod`ele ´etant identifiable et Hθ0 (θ0 ) fini, on d´eduit du lemme 5.2.8 que p.s. θ∗ = θ0 . Ceci implique que la suite des EMV admet p.s. un seul point d’accumulation θ0 . Elle est donc p.s. convergente et sa limite est θ0 . Ceci d´emontre donc le th´eor`eme. ⊓ ⊔ Remarque 5.2.10. Si la vraisemblance pn (·, X1n ) atteint son maximum en plusieurs points l’EMV n’est pas d´efini (condition 4 du th´eor`eme 5.2.9 non v´erifi´ee). Les arguments de la d´emonstration ci-dessus assurent en fait que toute suite (θˆn , n ≥ 1), telle que la vraisemblance pn (·, X1n ) atteint son maximum en θˆn , admet p.s. un seul point d’accumulation qui est θ0 . La suite converge donc p.s. vers la vraie valeur θ0 . Ainsi, on peut ´etendre la d´efinition de l’EMV a` tout point de Θ tel que la vraisemblance soit maximale en ce point, et conserver les propri´et´es de convergence. ♦ D´emonstration du lemme 5.2.8. Remarquons que pour r ≥ 0, on a log r ≤ r − 1 avec ´egalit´e si et seulement  si r = 1. Pour y > 0, z ≥ 0, on a y log z − z − 1 = z − y, avec ´egalit´e si et seulement si z = y. y log y = y log(z/y) ≤ y y Avec la convention 0 log 0 = 0, on obtient que pour y ≥ 0, z ≥ 0 y log z − y log y ≤ z − y,

(5.7)

132

5 Recherche de zones homog`enes dans l’ADN

avec ´egalit´e si et seulement si y = z. On a   p(x) log p′ (x) − p(x) log p(x) Hp (p′ ) − Hp (p) = x∈E

=



x∈E





x∈E



x∈E

p(x)[log p (x) − log p(x)] p′ (x) − p(x)

= 0, 

o` u l’on a utilis´e le fait que x∈E p(x) |log p(x)| < ∞ pour la deuxi`eme ´egalit´e et (5.7) pour l’in´egalit´e. Ainsi on a Hp (p′ ) ≤ Hp (p). Enfin comme (5.7) n’est une ´egalit´e que si y = z, on en d´eduit que Hp (p′ ) = Hp (p) si et seulement si ⊓ ⊔ p′ = p.

5.3 Pr´ esentation g´ en´ erale de l’algorithme EM On ´ecrit Pθ et Eθ pour les probabilit´es et esp´erances calcul´ees quand le vrai param`etre de la chaˆıne de Markov ((Sn , Yn ), n ≥ 1) est θ = (a, b, π0 ). Pour N N N abr´eger les notations, on notera S = S1N , s = sN 1 ∈ I , Y = Y1 et y = y1 ∈ X . La vraisemblance du mod`ele incomplet est d´efinie par pN (θ ; y) = Pθ (Y = y). On a, en utilisant (5.1) et (5.2),  Pθ (Y = y|S = s)Pθ (S = s) pN (θ ; y) = s∈I N

=



s∈I N



N 

n=1



b(sn , yn ) π0 (s1 )

N 

a(sn−1 , sn ).

(5.8)

n=2

La log-vraisemblance du mod`ele incomplet est LN (θ ; y) = log pN (θ ; y). Pour ur, il d´eterminer l’EMV de θ, il faut maximiser pN (· ; y) en θ = (a, b, π). Bien sˆ 1 pour tout i ∈ I faut tenir compte des contraintes suivantes : j∈I a(i, j) =  (a est la matrice de transition d’une chaˆıne deMarkov), x∈X b(i, x) = 1 pour tout i ∈ I (b(i, ·) est une probabilit´e) et i∈I π0 (i) = 1 (π0 est la loi de S1 ). On choisit Θ′ , d´efini a` la fin du paragraphe 5.1, pour l’ensemble des param`etres possibles de sorte que le mod`ele param´etrique soit identifiable. L’existence et la convergence de l’EMV sont pr´esent´ees au paragraphe 5.5, voir le th´eor`eme 5.5.2. Pour calculer num´eriquement l’EMV, remarquons ome de degr´e 2N `a Card (I 2 × qu’il faut maximiser pN (θ ; y), un polynˆ (I × X ) × I) variables sous 2Card (I) + 1 contraintes lin´eaires libres. Pour des applications courantes, on ne peut pas esp´erer calculer num´eriquement l’EMV par des algorithmes classiques d’optimisation. On peut, en revanche, utiliser des algorithmes de recuit simul´e (cf. [16] pour la d´etection de zones homog`enes de l’ADN).

5.3 Pr´esentation g´en´erale de l’algorithme EM

133

Pour une autre approche, on consid`ere la vraisemblance du mod`ele complet (θ ; s, y) = Pθ (S = s, Y = y). On a d´efinie par pcomplet N pcomplet (θ ; s, y) = π0 (s1 )b(s1 , y1 ) N

N 

a(sn−1 , sn )b(sn , yn ).

n=2

Nous verrons au paragraphe 5.4.2 que le calcul de l’EMV pour le mod`ele complet est ´el´ementaire. La loi conditionnelle de S sachant Y est donn´ee par pcomplet (θ ; s, y) Pθ (S = s, Y = y) = N . Pθ (Y = y) pN (θ ; y) (5.9) On ´ecrit artificiellement la log-vraisemblance du mod`ele incomplet, calcul´ee pour θ, avec la log-vraisemblance du mod`ele complet calcul´ee pour θ′ distinct  de θ a priori. Comme s∈I N πN (θ′ ; s|y) = 1, on a πN (θ ; s|y) = Pθ (S = s|Y = y) =

LN (θ ; y)

= log pN (θ ; y)  = πN (θ′ ; s|y) log pN (θ ; y) s∈I N

=



s∈I N

πN (θ′ ; s|y) log pcomplet (θ ; s, y) − N



πN (θ′ ; s|y) log πN (θ ; s|y),

s∈I N

o` u l’on a utilis´e la d´efinition (5.9) de πN (θ ; s|y) pour la derni`ere ´egalit´e. On pose, pour y ∈ X N ,  Q(θ, θ′ ) = πN (θ′ ; s|y) log pcomplet (θ ; s, y), N s∈I N

et Hθ′ (θ) =



πN (θ′ ; s|y) log πN (θ ; s|y).

s∈I N

On a donc LN (θ ; y) = Q(θ, θ′ ) − Hθ′ (θ). On ´etablit le lemme suivant. Lemme 5.3.1. Soit θ′ fix´e. Soit θ∗ le (ou un) param`etre qui maximise la fonction θ → Q(θ, θ ′ ). Alors LN (θ∗ ; y) ≥ LN (θ′ ; y). D´emonstration. On d´eduit du lemme 5.2.8 que Hθ′ (θ∗ ) ≤ Hθ′ (θ′ ). Comme ⊓ ⊔ Q(θ∗ , θ′ ) ≥ Q(θ′ , θ′ ), cela implique que LN (θ∗ ; y) ≥ LN (θ′ ; y).

134

5 Recherche de zones homog`enes dans l’ADN

L’algorithme EM (Esp´erance Maximisation) consiste a` construire par r´ecurrence une suite de param`etres (θ(r) , r ∈ N) de la mani`ere suivante. θ(0) ∈ Θ′ est choisi de mani`ere quelconque. On suppose θ(r) construit. On calcule Q(θ, θ(r) ). Il s’agit d’un calcul d’esp´erance (´etape E). Puis, on choisit θ(r+1) tel que la fonction θ → Q(θ, θ (r) ) atteigne son maximum en la valeur θ(r+1) . Il s’agit d’une maximisation (´etape M). D’apr`es le lemme pr´ec´edent, la suite (LN (θ(r) ; y), r ∈ N) est donc croissante. Soit δ > 0. On consid`ere l’hypoth`ese suivante not´ee (Hδ ) : Pour tous i, j ∈ I et x ∈ X , on a a(i, j) > δ, b(i, x) > δ et π0 (i) > δ. Soit Θδ l’ensemble des param`etres θ ∈ Θ′ qui v´erifient la condition (Hδ ). On suppose que l’on peut choisir δ assez petit pour que le vrai param`etre θ0 soit dans Θδ . On admet le th´eor`eme suivant qui d´ecoule des r´esultats de [14]. Th´ eor` eme 5.3.2. La suite construite par l’algorithme EM dans Θδ , (θ(r) , r ∈ N), converge vers l’EMV de θ, θˆN , d`es que θ(0) est assez proche de θˆN . Comme le souligne le th´eor`eme, la difficult´e de l’algorithme EM r´eside dans le choix du point d’initialisation θ(0) . On peut d´emontrer, sous des hypoth`eses assez g´en´erales, que la suite g´en´er´ee par l’algorithme EM converge vers un point en lequel la d´eriv´ee de la log-vraisemblance s’annule. Il peut tr`es bien s’agir d’un point selle ou d’un maximum local et non du maximum global θˆN . De plus l’algorithme EM converge mal si le point initial se trouve dans une r´egion o` u la log-vraisemblance ne varie pas beaucoup. Il existe des proc´edures pour introduire de l’al´eatoire dans les premi`eres it´erations de l’algorithme (variante stochastique (SEM) de l’algorithme EM) afin de s’affranchir de ces probl`emes. On peut aussi utiliser l’algorithme EM avec plusieurs points d’initialisation. On pourra consulter [10] pour des r´esultats pr´ecis concernant ces questions. Exemple 5.3.3. Les calculs explicites du paragraphe suivant permettent d’impl´ementer facilement l’algorithme EM pour l’estimation des param`etres et des variables cach´ees pour les chaˆınes de Markov cach´ees. On peut ainsi v´erifier la pertinence de cet algorithme sur des simulations. On choisit un exemple avec des param`etres proches de ceux estim´es dans l’exemple de la s´equence d’ADN du bact´eriophage lambda (voir le paragraphe 5.7 pour les r´esultats num´eriques et plus particuli`erement (5.22) pour la valeur des param`etres N0 0 ıne de Markov estim´es). On consid`ere une simulation (sN 1 , y1 ) de la chaˆ N0 N0 cach´ee (S1 , Y1 ), avec N0 = 48 502, I = {+1, −1}, X = {A, C, G, T}, et les param`etres suivants :     0.9999 0.0001 0.246 0.248 0.298 0.208 a= , b= et π0 = (1, 0). 0.0002 0.9998 0.270 0.208 0.198 0.324 Apr`es 1 000 it´erations de l’algorithme EM, initialis´e avec     0.28 0.72 0.21 0.36 0.37 0.06 (0) a(0) = , b(0) = et π0 = (0.5, 0.5), 0.19 0.81 0.27 0.27 0.26 0.20 (5.10)

5.4 Mise en œuvre de l’algorithme EM

135

on obtient l’estimation suivante des param`etres a et b :     0.99988 0.00012 0.2456 0.2505 0.2946 0.2096 a≃ , b≃ . 0.00015 0.99985 0.2723 0.2081 0.1952 0.3244 Cette estimation d´epend assez peu du point de d´epart pourvu que les termes diagonaux de a(0) ne soient pas simultan´ement trop petits. Dans la Fig. 5.2, on 0 ees (P(Sn = +1| pr´esente les valeurs de la simulation sN 1 et les valeurs restaur´ N0 N0 Y1 = y1 ), n ∈ {1, . . . , N0 }). La figure 5.3 (resp. 5.4) pr´esente l’´evolution au cours des it´erations de l’algorithme EM, des coefficients diagonaux de a (resp. des coefficients de b). On constate que les estimations sont constantes apr`es un petit nombre (devant N0 ) d’it´erations, et que les valeurs num´eriques estim´ees sont proches des vraies valeurs des param`etres. ♦

1

-1 1

9 701

19 401

29 102

38 802

48 502

1

9 701

19 401

29 102

38 802

48 502

1.0

0.5

0.0

Fig. 5.2. Valeur des ´etats cach´es simul´es (n → Sn ) en haut et valeur des probabilit´es estim´ees de l’´etat cach´e +1 (n → P(Sn = +1|Y1N0 = y1N0 )) en bas

5.4 Mise en œuvre de l’algorithme EM 5.4.1 L’´ etape esp´ erance : ´ etape E On suppose construit θ(r) . On d´esire construire θ(r+1) . Pour cela, il faut calculer Q(θ ; θ(r) ). Soit θ, θ′ ∈ Θδ . On note θ = (a, b, π0 ) et θ′ = (a′ , b′ , π0′ ). On rappelle que Pθ′ et Eθ′ d´esignent les probabilit´es et esp´erances quand le vrai

136

5 Recherche de zones homog`enes dans l’ADN 1.0

0.5

0.0 1

201

401

600

800

1000

´ Fig. 5.3. Evolution de l’estimation des termes diagonaux de la matrice de transition des ´etats cach´es en fonction des it´erations, obtenue pour 1 000 it´erations

0.50

0.00 1

201

401

600

800

1 000

´ Fig. 5.4. Evolution de l’estimation des termes de la matrice b en fonction des it´erations, obtenue pour 1 000 it´erations

param`etre de la chaˆıne de Markov ((Sn , Yn ), n ≥ 1) est θ′ . Comme θ′ ∈ Θδ , remarquons que toutes les probabilit´es de transition sont strictement positives. En particulier, pour tous n ≥ 1, sn1 ∈ I n , y1n ∈ X n , Pθ′ (S1n = sn1 , Y1n = y1n ) > 0. Avec les notations du paragraphe pr´ec´edent, on calcule Q(θ, θ′ ) pour y ∈ XN :  πN (θ′ ; s|y) log pcomplet (θ ; s, y) Q(θ, θ′ ) = N s∈I N

(θ ; S, y)|Y = y] = Eθ′ [log pcomplet N   N

  = Eθ′ log π0 (S1 )b(S1 , y1 ) a(Sn−1 , Sn )b(Sn , yn ) Y = y n=2

5.4 Mise en œuvre de l’algorithme EM

137

= Eθ′ [log π0 (S1 )|Y = y] + Eθ′ [log b(S1 , y1 )|Y = y] +

N 

Eθ′ [log a(Sn−1 , Sn )|Y = y] +



Eθ′ [log b(Sn , yn )|Y = y]

n=2

n=2

=

N 

Pθ′ (S1 = i|Y = y) log π0 (i)

i∈I

+

N  

Pθ′ (Sn = i|Y = y) log b(i, yn )

n=1 i∈I

+

N  

Pθ′ (Sn−1 = i, Sn = j|Y = y) log a(i, j).

n=2 i,j∈I

Nous devons donc calculer, pour la chaˆıne de Markov de param`etre θ′ , les probabilit´es Pθ′ (Sn−1 = i, Sn = j|Y = y) pour 2 ≤ n ≤ N et Pθ′ (Sn = i| Y = y) pour 1 ≤ n ≤ N . Pour r´esoudre ce probl`eme, appel´e probl`eme de filtrage, on effectue les ´etapes suivantes : a l’ins1. Pr´edire la valeur de Sn connaissant les observations partielles jusqu’` tant n − 1. Il s’agit de la pr´evision. a 2. Estimer la valeur de Sn connaissant les observations partielles jusqu’` l’instant n. Il s’agit du filtrage. a 3. Estimer la valeur de Sn connaissant les observations partielles jusqu’` l’instant final N . Il s’agit du lissage. Lemme 5.4.1 (Pr´ evision). On a, pour n ≥ 2, y1n−1 ∈ X n−1 ,  a′ (j, i)Pθ′ (Sn−1 = j|Y1n−1 = y1n−1 ). Pθ′ (Sn = i|Y1n−1 = y1n−1 ) = j∈I

D´emonstration. On d´ecompose suivant les valeurs de S1n−1 : Pθ′ (Sn = i|Y1n−1 = y1n−1 )  =

sn−1 ∈I n−1 1

=



Pθ′ (Sn = i, S1n−1 = s1n−1 |Y1n−1 = y1n−1 ) Pθ′ (Sn = i|S1n−1 = s1n−1 , Y1n−1 = y1n−1 )

∈I n−1 sn−1 1

=



Pθ′ (S1n−1 = s1n−1 |Y1n−1 = y1n−1 )

sn−1 ∈I n−1 1

=



sn−1 ∈I

a′ (sn−1 , i)Pθ′ (S1n−1 = s1n−1 |Y1n−1 = y1n−1 )

a′ (sn−1 , i)Pθ′ (Sn−1 = sn−1 |Y1n−1 = y1n−1 ),

o` u l’on a utilis´e le lemme 5.1.1 pour la troisi`eme ´egalit´e.

⊓ ⊔

138

5 Recherche de zones homog`enes dans l’ADN

Lemme 5.4.2 (Filtrage). On a, pour n ≥ 1, y1n ∈ X n , Pθ′ (Sn = i|Y1n = y1n ) = 

j∈I

b′ (i, yn )Pθ′ (Sn = i|Y1n−1 = y1n−1 ) b′ (j, yn )Pθ′ (Sn = j|Y1n−1 = y1n−1 )

.

Remarquons que les termes de pr´evision a` l’instant n s’´ecrivent en fonction des termes de filtrage `a l’instant n − 1. Ces derniers s’´ecrivent en fonction des termes de pr´evision a` l’instant n − 1. On en d´eduit que l’on peut donc calculer les termes de pr´evision et de filtrage a` l’instant n en fonction de a′ , b′ et Pθ′ (S1 = i|Y1 = y1 ). Or d’apr`es la formule de Bayes, on a b′ (i, y1 )π0′ (i) Pθ′ (S1 = i, Y1 = y1 ) . = ′ ′ j∈I Pθ ′ (S1 = j, Y1 = y1 ) j∈I b (j, y1 )π0 (j)

Pθ′ (S1 = i|Y1 = y1 ) = 

On en d´eduit donc que l’on peut exprimer les termes de pr´evision et de filtrage en fonction de θ′ = (a′ , b′ , π0′ ). Avant de d´etailler la d´emonstration du lemme 5.4.2, nous d´emontrons un r´esultat technique interm´ediaire. Lemme 5.4.3. Soit θ ∈ Θ. Soit m ≥ 0, n ≥ 2, ynn+m+1 ∈ X m+1 , sk ∈ I et u B ⊂ (I × X )n−1 . Si Pθ (Sn = sn , Jn ) > 0, alors Jn = {(S1n−1 , Y1n−1 ) ∈ B}, o` on a Pθ (Ynn+m = ynn+m |Sn = sn , Jn ) = Pθ (Ynn+m = ynn+m |Sn = sn ), et si Pθ (Ynn+m = ynn+m , Sn = sn , Jn ) > 0 Pθ (Yn+m+1 = yn+m+1 |Ynn+m = ynn+m , Sn = sn , Jn )

= Pθ (Yn+m+1 = yn+m+1 |Ynn+m = ynn+m , Sn = sn ).

D´emonstration. On calcule dans un premier temps Pθ (Yn = yn |Sn = sn , Jn ). En d´ecomposant suivant les valeurs possibles de (S1n−1 , Y1n−1 ), il vient  Pθ (Yn = yn , Sn = sn , Jn ) = Pθ (S1n = sn1 , Y1n = y1n ) (sn−1 ,y1n−1 )∈B 1

=



π0 (s1 )b(s1 , y1 )

(sn−1 ,y1n−1 )∈B 1

n 

a(sk−1 , sk )b(sk , yk ),

k=2

o` u l’on a utilis´e pour la derni`ere ´egalit´e le fait que ((Sk , Yk ), k ≥ 1) est une chaˆıne de Markov, cf. le lemme 5.1.1, de loi initiale Pθ (S1 = s1 , Y1 = y1 ) = Pθ (Y1 = y1 |S1 = s1 )Pθ (S1 = s1 ) = π0 (s1 )b(s1 , y1 ). En sommant sur yn ∈ X , on en d´eduit que Pθ (Sn = sn , Jn ) =



,y1n−1 )∈B (sn−1 1

π0 (s1 )b(s1 , y1 )

n−1  k=2



a(sk−1 , sk )b(sk , yk ) a(sn−1 , sn ),

5.4 Mise en œuvre de l’algorithme EM

139

et donc si Pθ (Sn = sn , Jn ) > 0, Pθ (Yn = yn |Sn = sn , Jn ) = b(sn , yn ) = Pθ (Yn = yn |Sn = sn ). On suppose m ≥ 1. On a alors Pθ (Ynn+m = ynn+m |Sn = sn , Jn )

n+m n+m = yn+1 |Sn = sn , Yn = yn , Jn )Pθ (Yn = yn |Sn = sn , Jn ) = Pθ (Yn+1

n+m n+m = yn+1 |Sn = sn , Yn = yn )Pθ (Yn = yn |Sn = sn , Jn ) = Pθ (Yn+1

n+m n+m = yn+1 |Sn = sn , Yn = yn )Pθ (Yn = yn |Sn = sn ) = Pθ (Yn+1

= Pθ (Ynn+m = ynn+m |Sn = sn ),

o` u on utilise la formule de d´ecomposition des probabilit´es conditionnelles pour les premi`ere et derni`ere ´egalit´es, et la proposition 1.1.7 pour la chaˆıne de n+m n+m n+m , Yn+1 ) ∈ I m × {yn+1 }} pour la Markov ((Sk , Yk ), k ≥ 1) avec In = {(Sn+1 deuxi`eme ´egalit´e. Ceci d´emontre la premi`ere ´egalit´e du lemme. Remarquons, que grˆ ace `a la d´efinition des probabilit´es conditionnelles, on a si Pθ (Ynn+m = ynn+m , Sn = sn , Jn ) > 0, Pθ (Yn+m+1 = yn+m+1 |Ynn+m = ynn+m , Sn = sn , Jn )

Pθ (Ynn+m+1 = ynn+m+1 |Sn = sn , Jn ) Pθ (Ynn+m = ynn+m |Sn = sn , Jn ) Pθ (Ynn+m+1 = ynn+m+1 |Sn = sn ) = Pθ (Ynn+m = ynn+m |Sn = sn ) = Pθ (Yn+m+1 = yn+m+1 |Ynn+m = ynn+m , Sn = sn ),

=

o` u l’on a utilis´e la premi`ere ´egalit´e du lemme deux fois pour obtenir l’avantderni`ere ´egalit´e. Ceci termine la d´emonstration du lemme. ⊓ ⊔ D´emonstration du lemme 5.4.2. On a Pθ′ (Sn = i|Y1n = y1n ) =

Pθ′ (Y1n−1 = y1n−1 , Sn = i, Yn = yn ) Pθ′ (Y1n−1 = y1n−1 , Yn = yn )

=

j∈I

=

j∈I

=

j∈I

=

j∈I

Pθ′ (Y1n−1 = y1n−1 , Sn = i, Yn = yn ) Pθ′ (Y1n−1 = y1n−1 , Sn = j, Yn = yn ) Pθ′ (Yn = yn |Y1n−1 = y1n−1 , Sn = i)Pθ′ (Y1n−1 = y1n−1 , Sn = i)

Pθ′ (Yn = yn |Y1n−1 = y1n−1 , Sn = j)Pθ′ (Y1n−1 = y1n−1 , Sn = j)

Pθ′ (Yn = yn |Sn = i)Pθ′ (Sn = i|Y1n−1 = y1n−1 )

Pθ′ (Yn = yn |Sn = j)Pθ′ (Sn = j|Y1n−1 = y1n−1 )

b′ (i, yn )Pθ′ (Sn = i|Y1n−1 = y1n−1 )

b′ (j, yn )Pθ′ (Sn = j|Y1n−1 = y1n−1 )

,

140

5 Recherche de zones homog`enes dans l’ADN

o` u l’on a utilis´e la premi`ere ´egalit´e du lemme 5.4.3 (avec m = 0) pour la quatri`eme ´egalit´e. ⊓ ⊔ Lemme 5.4.4 (Lissage). On a, pour 2 ≤ n ≤ N , y1N ∈ X N , Pθ′ (Sn−1 = i, Sn = j|Y1N = y1N ) = a′ (i, j)

Pθ′ (Sn−1 = i|Y1n−1 = y1n−1 ) Pθ′ (Sn = j|Y1N = y1N ), Pθ′ (Sn = j|Y1n−1 = y1n−1 )

et, pour 1 ≤ n ≤ N − 1, y1N ∈ X N , Pθ′ (Sn = j|Y1N = y1N ) =

 l∈I

a′ (j, l)

Pθ′ (Sn = j|Y1n = y1n ) Pθ′ (Sn+1 = l|Y1N = y1N ). Pθ′ (Sn+1 = l|Y1n = y1n )

D´emonstration. Soit 2 ≤ n ≤ N . En utilisant la premi`ere ´egalit´e du lemme 5.4.3 avec n + m = N , il vient Pθ′ (Sn−1 = i, Sn = j, Y1N = y1N ) = Pθ′ (YnN = ynN |Sn−1 = i, Sn = j, Y1n−1 = y1n−1 ) Pθ′ (Sn−1 = i, Sn = j, Y1n−1 = y1n−1 ) = Pθ′ (YnN = ynN |Sn = j)Pθ′ (Sn−1 = i, Sn = j, Y1n−1 = y1n−1 ). On a aussi Pθ′ (Sn = j, Y1N = y1N ) = Pθ′ (YnN = ynN |Sn = j)Pθ′ (Sn = j, Y1n−1 = y1n−1 ). En particulier, en faisant le rapport de ces deux ´egalit´es, on obtient Pθ′ (Sn−1 = i|Sn = j, Y1N = y1N ) =

Pθ′ (Sn = j, Sn−1 = i, Y1n−1 = y1n−1 ) Pθ′ (Sn = j, Y1n−1 = y1n−1 )

=

Pθ′ (Sn = j|Sn−1 = i, Y1n−1 = y1n−1 )Pθ′ (Sn−1 = i|Y1n−1 = y1n−1 ) . Pθ′ (Sn = j|Y1n−1 = y1n−1 )

En utilisant la proposition 1.1.7 pour la chaˆıne de Markov ((Sn , Yn ), n ≥ 1) et le lemme 5.1.1, il vient

5.4 Mise en œuvre de l’algorithme EM

141

Pθ′ (Sn = j|Sn−1 = i, Y1n−1 = y1n−1 )  Pθ′ (Sn = j, Yn = x|Sn−1 = i, Y1n−1 = y1n−1 ) = x∈X

=



Pθ′ (Sn = j, Yn = x|Sn−1 = i, Yn−1 = yn−1 )

x∈X

=



a′ (i, j)b′ (j, x)

x∈X ′

= a (i, j). On en d´eduit Pθ′ (Sn−1 = i|Sn = j, Y1N = y1N ) = a′ (i, j)

Pθ′ (Sn−1 = i|Y1n−1 = y1n−1 ) . Pθ′ (Sn = j|Y1n−1 = y1n−1 )

On calcule maintenant Pθ′ (Sn−1 = i, Sn = j|Y1N = y1N ). On d´eduit de l’´egalit´e pr´ec´edente que Pθ′ (Sn−1 = i, Sn = j|Y1N = y1N ) = Pθ′ (Sn−1 = i|Sn = j, Y1N = y1N )Pθ′ (Sn = j|Y1N = y1N ) = a′ (i, j)

Pθ′ (Sn−1 = i|Y1n−1 = y1n−1 ) Pθ′ (Sn = j|Y1N = y1N ). Pθ′ (Sn = j|Y1n−1 = y1n−1 )

Il reste `a calculer Pθ′ (Sn = j|Y1N = y1N ). On d´eduit de l’´egalit´e pr´ec´edente, en rempla¸cant n par n + 1, que, pour 1 ≤ n ≤ N − 1, Pθ′ (Sn = j|Y1N = y1N )  Pθ′ (Sn = j, Sn+1 = l|Y1N = y1N ) = l∈I

=

 l∈I

a′ (j, l)

Pθ′ (Sn = j|Y1n = y1n ) Pθ′ (Sn+1 = l|Y1N = y1N ). Pθ′ (Sn+1 = l|Y1n = y1n ) ⊓ ⊔

Remarquons que le calcul de Pθ′ (SN = j|Y1N = y1N ) provient des ´equations de filtrage et de pr´evision. Son calcul n´ecessite le parcours complet de la ` partir de cette quantit´e, on d´eduit des ´equations de lissage suite y = y1N . A que l’on peut calculer par r´ecurrence descendante Pθ′ (Sn = j|Y1N = y1N ) (on part donc de n = N ). Et parall`element, on peut calculer les quantit´es Pθ′ (Sn−1 = i, Sn = j|Y1N = y1N ). Ces calculs n´ecessitent le parcours complet a 1. On fait r´ef´erence `a ces calculs sous de la suite y = y1N de 1 `a N puis de N ` le nom d’algorithme « forward-backward ». On a ainsi calcul´e les coefficients de Q(θ, θ ′ ) qui sont fonction de θ′ = (a′ , b′ , π0′ ).

142

5 Recherche de zones homog`enes dans l’ADN

5.4.2 L’´ etape maximisation : ´ etape M On recherche θ = (a, b, π0 ) qui maximise Q(θ, θ′ ) a` y et θ′ fix´es. On maximise la quantit´e Q(θ, θ′ ) d´efinie par 

Pθ′ (S1 = i|Y = y) log π0 (i) +

N  

Pθ′ (Sn = i|Y = y) log b(i, yn )

n=1 i∈I

i∈I

+

N  

Pθ′ (Sn−1 = i, Sn = j|Y = y) log a(i, j),

n=2 i,j∈I

sous les contraintes que (π0 (j), j ∈ I) est une probabilit´e, de mˆeme que (b(i, x), x ∈ X ) et (a(i, j), j ∈ I) pour tout i ∈ I. On remarque que l’on peut maximiser s´epar´ement les sommes correspondant `a chacune des contraintes pr´ec´edentes. Consid´erons par exemple la somme intervenant dans Q(θ, θ′ ) qui fait intervenir les termes b(i, x) pour x ∈ X et i fix´e : N 

Pθ′ (Sn = i|Y = y) log b(i, yn ).

n=1

On peut r´ecrire cette somme de la mani`ere suivante q(x) =

N 

n=1



x∈X

q(x) log b(i, x) o` u

1{yn =x} Pθ′ (Sn = i|Y = y).

 Remarquons que la probabilit´e (b(i, x), x ∈ X ) maximise x∈X q(x) log b(i, x) u p(x) = si et seulement si elle maximise la somme x∈X p(x) log b(i, x), o`  q(x)/ z∈X q(z). La suite p = (p(x), x ∈ X ) d´efinit une probabilit´e sur X . On d´eduit du lemme 5.2.8 que la somme est maximale pour b(i, ·) = p. On peut utiliser des arguments similaires pour calculer a et π0 . En d´efinitive, on en d´eduit que Q(θ, θ′ ) est maximal pour θ = (a, b, π0 ) d´efini pour i, j ∈ I, x ∈ X par N

1{yn =x} Pθ′ (Sn = i|Y = y) , N ′ n=1 Pθ (Sn = i|Y = y) N Pθ′ (Sn−1 = i, Sn = j|Y = y) a(i, j) =  n=2 N ′ n=2 Pθ (Sn−1 = i, Sn = l|Y = y) l∈I N Pθ′ (Sn−1 = i, Sn = j|Y = y) , = n=2 N −1 ′ n=1 Pθ (Sn−1 = i|Y = y)

b(i, x) =

n=1

π0 (i) = Pθ′ (S1 = i|Y = y).

Ceci termine l’´etape M.

5.5 Convergence de l’EMV pour les chaˆınes de Markov cach´ees

143

5.5 Convergence de l’EMV pour les chaˆınes de Markov cach´ ees Le th´eor`eme 5.3.2 assure, sous certaines hypoth`eses, la convergence de la suite construite avec l’algorithme EM vers l’EMV de θ. Dans ce paragraphe nous indiquons les arguments qui permettent de montrer que l’EMV est un estimateur convergent pour le mod`ele de chaˆıne de Markov cach´ee pr´esent´e au paragraphe 5.1. Ces arguments sont similaires `a ceux employ´es dans le paragraphe 5.2, pour la convergence de l’EMV dans le mod`ele param´etrique o` u les variables (Xn , n ≥ 1) sont ind´ependantes et de mˆeme loi. On reprend les notations du paragraphe 5.3. La log-vraisemblance des donn´ees observ´ees pour un ´echantillon de taille N est, pour y ∈ X N , LN (θ ; y) = log pN (θ ; y). On introduit les probabilit´es conditionnelles suivantes pour k ≥ 2 : p(θ ; yk |y1k−1 ) = Pθ (Yk = yk |Y1k−1 = y1k−1 ) =

pk (θ ; y1k ) . pk−1 (θ ; y1k−1 )

n Comme pN (θ ; y) = k=1 p(θ ; yk |y1k−1 ), avec la convention p(θ ; yk |y1k−1 ) = p(θ ; y1 ) si k = 1, on peut alors r´ecrire la log-vraisemblance de la mani`ere suivante : N  log p(θ ; yk |y1k−1 ). LN (θ ; y) = k=1

(Comparer cette expression avec celle de (5.4), concernant un mod`ele param´etrique de variables al´eatoires ind´ependantes et de mˆeme loi.) Remarquons que par construction, voir (5.8), la log-vraisemblance est une fonction continue sur Θδ , l’espace des param`etres d´ecrit page 134. Avant de d´emontrer la proposition suivante (cf. th´eor`eme 3.1 dans [1]), nous indiquons comment elle implique la convergence de l’EMV. Proposition 5.5.1. Soit θ0 ∈ Θδ le vrai param`etre. Alors pour tout θ ∈ Θδ , on a 1 p.s. LN (θ ; Y1N ) −−−−−→ Hθ0 (θ), N →+∞ N o` u la fonction Hθ0 est continue. De plus si θ = θ0 , alors on a Hθ0 (θ) < Hθ0 (θ0 ). Quand l’EMV existe, il est d´efini par 1 LN (θ ; Y1N ). θˆN = argmax N θ∈Θδ

(5.11)

144

5 Recherche de zones homog`enes dans l’ADN

D’apr`es la proposition pr´ec´edente, θ0 = argmax Hθ0 (θ), θ∈Θδ

et Hθ0 (θ) est la limite p.s. de N1 LN (θ ; Y1N ). Vu le paragraphe 5.2.2, et plus particuli`erement le th´eor`eme 5.2.9, il est naturel de penser que l’EMV est un estimateur convergent. Le r´esultat qui suit est d´emontr´e par exemple dans [1] (th´eor`eme 3.4) : Th´ eor` eme 5.5.2. Soit θ0 ∈ Θδ le vrai param`etre. Pour N assez grand, l’EMV, θˆN , de θ ∈ Θδ est bien d´efini. De plus l’EMV est convergent : p.s. θˆN −−−−−→ θ0 . N →+∞

Sous des hypoth`eses suppl´ementaires sur le mod`ele, difficiles `a v´erifier en pratique, on peut montrer que l’EMV est ´egalement asymptotiquement normal (voir [1]). Le reste du paragraphe est consacr´e aux ´el´ements de d´emonstration de la proposition 5.5.1, qui incluent une cascade de lemmes. D´emonstration de la proposition 5.5.1. Soit θ le param`etre de la chaˆıne de ace `a (Hδ ), la chaˆıne de Markov est irr´eductible. Markov ((Sn , Yn ), n ∈ N∗ ). Grˆ Comme l’espace d’´etat est fini, elle poss`ede une unique probabilit´e invariante, µθ , d’apr`es la remarque 1.5.7. On continue la d´emonstration sous l’hypoth`ese que (S1 , Y1 ) a pour loi µθ . Pour tout n ≥ 1, (Sn , Yn ) a pour loi µθ , et plus g´en´eralement, pour tout k ∈ N∗ , les suites ((Sn+k , Yn+k ), n ≥ −k) ont mˆeme loi, c’est-`a-dire que pour tous m, k ∈ N∗ , les suites ((Sn+k , Yn+k ), m ≥ n ≥ −k) ont mˆeme loi. Le th´eor`eme d’extension de Kolmogorov (voir [3], appendice II) permet d’une certaine mani`ere de passer `a la limite k → ∞, et plus pr´ecis´ement de construire une suite Z = (Zn , n ∈ Z) telle que pour tout k ∈ N∗ , la suite (Zn+k , n ≥ 0) est une chaˆıne de Markov issue de µθ et de mˆeme loi que ((Sn , Yn ), n ∈ N∗ ) (i.e. mˆeme loi initiale et mˆeme matrice de transition). En particulier, la loi de Zn est la loi invariante µθ . Par abus de notation, on ´ecrit Zn = (Sn , Yn ) pour n ∈ Z. Soit y = (. . . , y−1 , y0 ) ∈ X −N . Pour tout n ∈ N∗ , on d´efinit la fonction −1 −1 = y−n ), gn (θ ; y) = Pθ (Y0 = y0 |Y−n

o` u θ ∈ Θδ est le param`etre de la loi de Z. Le lemme suivant, dont la d´emonstration est report´ee `a la suite de celle-ci, assure que pour n > 0 grand, l’information suppl´ementaire donn´ee par Y−(n+1) = y−(n+1) a peu d’influence −1 sur la connaissance de Y0 quand on connaˆıt d´ej`a Y−n .

Lemme 5.5.3. Il existe ρ ∈ [0, 1[ tel que pour tous θ ∈ Θδ , y ∈ X −N , n ∈ N∗ , on a |gn (θ ; y) − gn+1 (θ ; y)| ≤ ρn−1 .

De plus les fonctions gn sont uniform´ement minor´ees par une constante c > 0.

5.5 Convergence de l’EMV pour les chaˆınes de Markov cach´ees

145

On d´eduit de ce lemme que la suite de fonctions (gn , n ≥ 1) converge uniform´ement en y ∈ X −N , θ ∈ Θδ vers une limite g. Les fonctions gn ´etant continues en θ ` a valeurs dans [c, 1], on en d´eduit que la fonction g est continue en θ, a` valeurs dans [c, 1]. La fin de la d´emonstration de la proposition est scind´ee en trois ´etapes : dans la premi`ere on construit la fonction Hθ0 , dans la deuxi`eme on v´erifie la convergence ´enonc´ee dans la proposition, enfin dans la derni`ere ´etape on montre que la fonction Hθ0 atteint son maximum en θ0 . Premi`ere ´etape. Remarquons que gn (θ ; (Yr , r ≤ k)) est en fait une fonction k k et donc une fonction de Zk−n que l’on note exp fn : de Yk−n k ). log gn (θ ; (Yr , r ≤ k)) = fn (Zk−n

(5.12)

Comme gn ∈ [c, 1], on en d´eduit que les fonctions fn sont born´ees et n´egatives. Comme (Zk−n , k ≥ 0) est une chaˆıne de Markov irr´eductible de probabilit´e k , k ≥ 0) est une chaˆıne de invariante µθ0 , on d´eduit du lemme 1.5.10 que (Zk−n 0 (rappelons que la Markov irr´eductible de probabilit´e invariante la loi de Z−n loi de Z−n est la probabilit´e invariante µθ0 ). Comme la fonction fn est born´ee, on d´eduit de (5.12) et du corollaire 1.5.11 que N 1  p.s. 0 )] = Eθ0 [log gn (θ ; (Yr , r ≤ 0))]. log gn (θ ; (Yr , r ≤ k)) −−−−→ Eθ0 [fn (Z−n n→∞ N k=1 (5.13) Par convergence domin´ee, on a

lim Eθ0 [log gn (θ ; (Yr , r ≤ 0))] = Hθ0 (θ),

n→∞

(5.14)

o` u Hθ0 (θ) = Eθ0 [log g(θ ; (Yr , r ≤ 0))]. La fonction g ´etant continue en θ, on en d´eduit, par convergence domin´ee, que la fonction θ → Hθ0 (θ) est continue sur Θδ . Deuxi`eme ´etape. Soit N ≥ n ≥ 1. On pose N 1 1  n N log gn (θ ; (Yr , r ≤ k)) . AN = log pN (θ ; Y1 ) − N N k=1

Il existe C tel que pour tous a, b ≥ c, on a |log a − log b| ≤ C |a − b|. Il vient N en utilisant le lemme 5.5.3, ainsi que log pN (θ ; Y1N ) = k=1 log gk (θ ; (Yr , r ≤ k)), AnN ≤

N 1  |log gk (θ ; (Yr , r ≤ k)) − log gn (θ ; (Yr , r ≤ k))| N

≤C

k=1

N 1  |gk (θ ; (Yr , r ≤ k)) − gn (θ ; (Yr , r ≤ k))| N k=1

146

5 Recherche de zones homog`enes dans l’ADN

≤C

n 1  |gk (θ ; (Yr , r ≤ k)) − gn (θ ; (Yr , r ≤ k))| N k=1

+C

N k−1 1   |gl+1 (θ ; (Yr , r ≤ k)) − gl (θ ; (Yr , r ≤ k))| N k=n+1 l=n

N 

≤ 2Cc

1 n +C N N

≤ 2Cc

ρ n +C . N 1−ρ

k−1 

ρl−1

k=n+1 l=n n−1

On en d´eduit que lim lim AnN = 0.

n→∞ N →∞

Comme d’apr`es (5.13) et (5.14), p.s. N 1  log gn (θ ; (Yr , r ≤ k)) = Hθ0 (θ), n→∞ N →∞ N

lim lim

k=1

on en d´eduit que

1 p.s. LN (θ ; Y1N ) −−−−−→ Hθ0 (θ). N →+∞ N

On admet que le r´esultat reste vrai, mˆeme si la loi de (S1 , Y1 ) n’est pas la probabilit´e invariante µθ0 . Troisi`eme ´etape. On remarque que  pn+1 (θ0 ; y0n ) log p(θ ; yn |y0n−1 ) Eθ0 [log gn (θ ; (Yr , r ≤ 0))] = y0n ∈X n+1

=



pn (θ0 ; y0n−1 )hθ0 (θ),

y0n−1 ∈X n

o` u la fonction h d´epend de y0n−1 :  p(θ0 ; y|y0n−1 ) log p(θ ; y|y0n−1 ). hθ0 (θ) = y∈X

 Remarquons que hθ0 (θ) peut s’´ecrire x∈X p(x) log p′ (x) avec les probabilit´es p = p(θ0 ; ·|y0n−1 ) et p′ = p(θ ; ·|y0n−1 ). D’apr`es le lemme 5.2.8, on a hθ0 (θ) ≤ hθ0 (θ0 ) pour tout θ ∈ Θδ . En particulier, on en d´eduit que pour tout θ ∈ Θδ , Eθ0 [log gn (θ ; (Yr , r ≤ 0))] ≤ Eθ0 [log gn (θ0 ; (Yr , r ≤ 0))]. Par passage a` la limite, on obtient que Hθ0 (θ) ≤ Hθ0 (θ0 ) pour tous θ, θ0 ∈ Θδ . ⊔ On admet que le mod`ele ´etant identifiable, l’in´egalit´e est stricte si θ = θ0 . ⊓

5.5 Convergence de l’EMV pour les chaˆınes de Markov cach´ees

147

D´emonstration du lemme 5.5.3. Pour n ≥ 1, on consid`ere les quantit´es −1 −1 Mn+ (y) = max Pθ (Y0 = y0 |Y−n = y−n , S−n = i) i∈I

et

−1 −1 Mn− (y) = min Pθ (Y0 = y0 |Y−n = y−n , S−n = i). i∈I

On a −1 −1 Pθ (Y0 = y0 , Y−n = y−n ) −1 −1 Pθ (Y−n = y−n )  −1 −1 Pθ (Y0 = y0 , Y−n = y−n , S−n = i) . = i∈I −1 −1 i∈I Pθ (Y−n = y−n , S−n = i)

gn (θ ; y) =

ar Soit ar > 0, br > 0 pour 1 ≤ r ≤ k. On a les in´egalit´es bu min ≤ au ≤ 1≤r≤k br ar . En sommant sur u ∈ {1, . . . , k}, il vient ais´ement bu max 1≤r≤k br  ar ar 1≤u≤k au min ≤ max ≤  . (5.15) 1≤r≤k br 1≤r≤k br 1≤u≤k bu On en d´eduit que

Mn− (y) ≤ gn (θ ; y) ≤ Mn+ (y).

(5.16)

De plus, on a −1 −1 ) = y−(n+1) gn+1 (y) = Pθ (Y0 = y0 |Y−(n+1)  −1 −1 ) = y−(n+1) Pθ (Y0 = y0 , S−n = i|Y−(n+1) = i∈I

=



−1 −1 , S−n = i) = y−(n+1) Pθ (Y0 = y0 |Y−(n+1)



−1 −1 Pθ (Y0 = y0 |Y−n = y−n , S−n = i)

i∈I

=

i∈I

−1 −1 Pθ (S−n = i|Y−(n+1) ) = y−(n+1)

−1 −1 Pθ (S−n = i|Y−(n+1) = y−(n+1) ),

o` u on a  utilis´e la deuxi`eme ´egalit´e du lemme 5.4.3 pour la derni`ere ´egalit´e. −1 −1 ) = 1, on en d´eduit que = y−(n+1) Comme i∈I Pθ (S−n = i|Y−(n+1) Mn− (y) ≤ gn+1 (θ ; y) ≤ Mn+ (y).

(5.17)

Grˆ ace `a (5.16) et (5.17), on obtient |gn (θ ; y) − gn+1 (θ ; y)| ≤ Mn+ (y)−Mn− (y). La d´emonstration du lemme sera compl`ete d`es que le lemme suivant sera d´emontr´e. ⊓ ⊔

148

5 Recherche de zones homog`enes dans l’ADN

Lemme 5.5.4. Il existe ρ ∈ [0, 1[ tel que, pour tous θ ∈ Θδ , y ∈ X −N et n ∈ N∗ , on a Mn+ (y) − Mn− (y) ≤ ρn−1 . De plus les fonctions Mn− sont uniform´ement minor´ees par une constante c > 0. Pour cela on d´emontre d’abord le lemme technique suivant. Lemme 5.5.5. Il existe ηδ > 0 tel que pour tous θ ∈ Θδ , i, h ∈ I, y ∈ X −N et n ≥ 1, on a −1 −1 = y−(n+1) , S−(n+1) = h) ≥ ηδ . Pθ (S−n = i|Y−(n+1)

D´emonstration du lemme 5.5.5. Soit i, h ∈ I. On a pour n ≥ 2, −1 −1 Pθ (S−n = i, S−(n+1) = h, Y−(n+1) = y−(n+1) )  −(n−1) −n −n −1 −1 ) = y−(n+1) , S−(n+1) = (h, i, l), Y−(n+1) = y−(n−1) Pθ (Y−(n−1) = l∈I

=



−n −n −1 −1 ) = y−(n+1) |S−(n+1) = (h, i, l), Y−(n+1) = y−(n−1) Pθ (Y−(n−1)



−1 −1 Pθ (Y−(n−1) = y−(n−1) |S−(n−1) = l)

l∈I

=

l∈I

−(n−1)

−(n−1)

−n −n ) = y−(n+1) Pθ (S−(n+1) = (h, i, l), Y−(n+1)

µθ (h)b(h, y−(n+1) )a(h, i)b(i, y−n )a(i, l),

o` u l’on a utilis´e la premi`ere ´egalit´e du lemme 5.4.3 pour la troisi`eme ´egalit´e. On en d´eduit donc que pour i, j, h ∈ I, on a −1 −1 ) = y−(n+1) Pθ (S−n = j|S−(n+1) = h, Y−(n+1) −1 −1 Pθ (S−n = i|S−(n+1) = h, Y−(n+1) = y−(n+1) )

=

−1 −1 Pθ (S−n = j, S−(n+1) = h, Y−(n+1) = y−(n+1) )

−1 −1 Pθ (S−n = i, S−(n+1) = h, Y−(n+1) = y−(n+1) )  −1 −1 l∈I Pθ (Y−(n−1) = y−(n−1) |S−(n−1) = l) = ··· −1 −1 ′ l′ ∈I Pθ (Y−(n−1) = y−(n−1) |S−(n−1) = l )

···



µθ (h)b(h, y−(n+1) )a(h, j)b(j, y−n )a(j, l) µθ (h)b(h, y−(n+1) )a(h, i)b(i, y−n )a(i, l′ )

−1 −1 |S−(n−1) = l) 1 = y−(n−1) Pθ (Y−(n−1) ≤ −1 −1 ′ δ3 l′ ∈I Pθ (Y−(n−1) = y−(n−1) |S−(n−1) = l ) l∈I

=

1 , δ3

5.5 Convergence de l’EMV pour les chaˆınes de Markov cach´ees

149

o` u l’on a utilis´e pour l’in´egalit´e les in´egalit´es δ ≤ a(i′ , j ′ ) ≤ 1 et δ ≤ b(i′ , x′ ) ≤ 1 pour i′ , j ′ ∈ I, x′ ∈ X . Pour n = 1, des calculs similaires donnent −1 −1 Pθ (S−1 = j|S−2 = h, Y−2 = y−2 )

Pθ (S−1 = i|S−2 =

−1 h, Y−2

=

−1 y−2 )



1 1 ≤ 3. δ2 δ

On d´eduit de l’´egalit´e  −1 −1 Pθ (S−n = j|Y−(n+1) = y−(n+1) , S−(n+1) = h) = 1, j∈I

que

Pθ (S−n =

−1 i|Y−(n+1)

1 −1 = y−(n+1) , S−(n+1) = h)

=1+

−1 −1  Pθ (S−n = j|Y−(n+1) , S−(n+1) = h) = y−(n+1)

j =i∈I

≤1+

−1 −1 Pθ (S−n = i|Y−(n+1) = y−(n+1) , S−(n+1) = h)

Card (I) − 1 . δ3

−1 −1 = y−(n+1) , S−(n+1) = h) est uniDonc pour n ≥ 1, Pθ (S−n = i|Y−(n+1) form´ement minor´e par une constante strictement positive. ⊓ ⊔

D´emonstration du lemme 5.5.4. Remarquons dans un premier temps que −1 −1 Pθ (Y0 = y0 |Y−(n+1) = y−(n+1) , S−(n+1) = h)  −1 −1 Pθ (Y0 = y0 , S−n = i|Y−(n+1) = y−(n+1) , S−(n+1) = h) = i∈I

=



−1 −1 Pθ (Y0 = y0 |Y−n = y−n , S−n = i, Y−(n+1) = y−(n+1) , S−(n+1) = h)



−1 −1 Pθ (Y0 = y0 |Y−n = y−n , S−n = i)

i∈I

=

i∈I

−1 −1 , S−(n+1) = h) = y−(n+1) Pθ (S−n = i|Y−(n+1)

−1 −1 = y−(n+1) , S−(n+1) = h), Pθ (S−n = i|Y−(n+1)

(5.18)

o` u l’on a utilis´e la deuxi`eme ´egalit´e du lemme 5.4.3 pour la derni`ere ´egalit´e. On en d´eduit donc que  − −1 −1 Mn+1 (y) ≥ min , S−(n+1) = h) = y−(n+1) Mn− (y)Pθ (S−n = i|Y−(n+1) h∈I

i∈I

≥ Mn− (y).

150

5 Recherche de zones homog`enes dans l’ADN

En particulier la suite (Mn− , n ≥ 1) est uniform´ement minor´ee par M1− qui est strictement positif grˆace `a l’hypoth`ese (Hδ ). De plus, on a en utilisant (5.18) a` nouveau, + − (y) − Mn+1 (y) Mn+1 

= max

h,j∈I

−1 −1 Pθ (Y0 = y0 |Y−(n+1) = y−(n+1) , S−(n+1) = h)

− Pθ (Y0 = = max

h,j∈I

  i∈I

−1 y0 |Y−(n+1)

[A(h, i) − A(j, i)]Pθ (Y0 =

=

−1 y−(n+1) , S−(n+1)

−1 y0 |Y−n

=

−1 y−n , S−n

0

= j) 0

= i) ,

−1 −1 o` u A(l, i) = Pθ (S−n = i|Y−(n+1) , S−(n+1) = l). On consid`ere les = y−(n+1) ensembles suivants qui d´ependent de h et j :

I + = {i ∈ I ; A(h, i) − A(j, i) ≥ 0} et I − = {i ∈ I ; A(h, i) − A(j, i) < 0}. On a + − (y) − Mn+1 (y) Mn+1  0   − + [A(h, i) − A(j, i)]Mn (y) [A(h, i) − A(j, i)]Mn (y) + ≤ max h,j∈I

= max

h,j∈I

i∈I −

i∈I +





i∈I +

[A(h, i) −

A(j, i)](Mn+ (y)



0

Mn− (y))

,

  en ayant remarqu´ e pour la derni`ere ´egalit´ e que i∈I A(h, i) = i∈I A(j, i) =   1 implique i∈I − [A(h, i) − A(j, i)] = − i∈I + [A(h, i) − A(j, i)]. Remarquons enfin, grˆ ace au lemme 5.5.5, que    A(j, i) ≤ 1−Card (I)ηδ ≤ 1−2ηδ . A(h, i)− [A(h, i)−A(j, i)] = 1− i∈I +

i∈I −

i∈I +

On pose ρ = 1 − 2ηδ ∈ [0, 1[, et on obtient + − (y) − Mn+1 (y) ≤ ρ(Mn+ (y) − Mn− (y)). Mn+1

Par d´efinition de M1+ (y) et M1− (y), on a 0 ≤ M1+ (y) − M1− (y) ≤ 1. On en d´eduit que Mn+ (y) − Mn− (y) ≤ ρn−1 . Cela termine la d´emonstration du lemme 5.5.4. ⊓ ⊔

5.6 Autres exemples d’application de l’algorithme EM

151

5.6 Autres exemples d’application de l’algorithme EM 5.6.1 Le m´ elange Un des premiers exemples d’´etude de loi de m´elange remonte `a la fin du XIX `eme si`ecle. Il s’agit aujourd’hui d’une probl´ematique courante, voir par exemple [11] ou Chap. 9 dans [5]. Les crabes de Weldon ` la fin du XIX `eme si`ecle, Weldon mesure le rapport entre la largeur du front et A la longueur du corps de 1 000 crabes de la baie de Naples. Le tableau 5.1 donne le nombre d’individus observ´es sur 29 intervalles pour le rapport des deux mesures (les mesures sont faites avec une pr´ecision du dixi`eme de millim`etre, et la longueur moyenne d’un animal est de 35 millim`etres). Si l’on suppose un mod`ele gaussien pour les donn´ees de ratio, on calcule a partir de (5.3) la moyenne empirique µ0 ≃ 0.645 et l’´ecart type empirique, ` racine carr´ee de la variance empirique, σ0 ≃ 0.019. L’asym´etrie des donn´ees, voir les histogrammes de la figure 5.5, indique que les donn´ees ne proviennent pas de r´ealisations de variables gaussiennes ind´ependantes et de mˆeme loi. Effectivement, un test d’ad´equation de loi (χ2 , Shapiro-Wilk, . . . , cf. [2]) permet de rejeter l’hypoth`ese de normalit´e pour les donn´ees. Ceci induit Weldon `a postuler l’existence de deux sous` partir de ces donn´ees, Pearson [13] estime les param`etres d’un populations. A

Tableau 5.1. Nombre de crabes de la baie de Naples (sur un total de 1 000 crabes) dont le ratio de la largeur du front par la longueur du corps sont dans les intervalles (Weldon, 1893) Intervalle Nombre Intervalle Nombre [0.580, 0.584[ 1 [0.640, 0.644[ 74 [0.584, 0.588[ 3 [0.644, 0.648[ 84 [0.588, 0.592[ 5 [0.648, 0.652[ 86 [0.592, 0.596[ 2 [0.652, 0.656[ 96 [0.596, 0.600[ 7 [0.656, 0.660[ 85 [0.600, 0.604[ 10 [0.660, 0.664[ 75 [0.604, 0.608[ 13 [0.664, 0.668[ 47 [0.608, 0.612[ 19 [0.668, 0.672[ 43 [0.612, 0.616[ 20 [0.672, 0.676[ 24 [0.616, 0.620[ 25 [0.676, 0.680[ 19 [0.620, 0.624[ 40 [0.680, 0.684[ 9 [0.624, 0.628[ 31 [0.684, 0.688[ 5 [0.628, 0.632[ 60 [0.688, 0.692[ 0 [0.632, 0.636[ 62 [0.692, 0.696[ 1 [0.636, 0.640[ 54

152

5 Recherche de zones homog`enes dans l’ADN

mod`ele `a I = 2 populations diff´erentes. Ainsi un crabe pris au hasard a une probabilit´e πi d’appartenir a` la population i, πi ´etant proportionnel a` la taille de la population i. Et, au sein de la population i, les mesures du ratio sont distribu´ees suivant une loi gaussienne r´eelle de moyenne µi , de variance σi2 et de densit´e fµi ,σi . On suppose de plus que les mesures sont des r´ealisations de variables ind´ependantes (Yn , n ≥ 1). L’objectif est d’estimer les probabilit´es πi et les param`etres (µi , σi ), i ∈ I. Le groupe, Zn , du n-i`eme crabe mesur´e est une variable cach´ee, que l’on essaie ´egalement de restaurer. Dans ce qui suit, nous nous proposons d’estimer les param`etres avec leur EMV, que nous approchons a` l’aide de l’algorithme EM. Plusieurs autres m´ethodes existent pour l’approximation de ces EMV, cf. [11, 5]. Historiquement, Pearson a estim´e les param`etres de sorte que les cinq premiers moments de la loi de Yn ´egalent les moments empiriques. Cette m´ethode conduit a` rechercher les racines d’un polynˆ ome de degr´e neuf. Le mod` ele de m´ elange. Soit I ≥ 2 fix´e. Le mod`ele complet est donn´e par une suite de variables u Zn est `a valeurs al´eatoires ind´ependantes de mˆeme loi, ((Zn , Yn ), n ≥ 1), o` dans I = {1, . . . , I}, de loi π = (π(i), i ∈ I), et la loi de Yn sachant Zn = i a pour densit´e fµi ,σi . On observe les r´ealisations des variables ele (Yn , n ≥ 1) et les variables (Zn , n ≥ 1) sont cach´ees. Il s’agit d’un mod` de m´ elange de lois gaussiennes. Le mod`ele est param´etrique, de param`etre u PI est l’ensemble inconnu θ = (π, ((µi , σi ), i ∈ I)) ∈ Θ = PI ×(R×]0, ∞[)I , o` des probabilit´es sur I. Remarquons que le nombre I est fix´e a priori. L’estimation du nombre I de populations diff´erentes est un probl`eme d´elicat en g´en´eral, voir [11], Chap. 6. Comme `a la fin du paragraphe 5.1, il est facile de v´erifier que le mod`ele est identifiable si l’on restreint l’ensemble des param`etres `a Θ′ = {θ ∈ Θ tels que si i < j ∈ I, alors soit µi < µj soit µi = µj et σi < σj }. On admet alors que l’EMV de θ, θˆn , construit a` partir de (Z1n , Y1n ), est un estimateur convergent. Pour d´eterminer la loi de Yn , remarquons que pour tous a < b, on a, en utilisant la loi de Yn sachant Zn , P(Yn ∈ [a, b]) =

 i∈I

P(Yn ∈ [a, b]|Zn = i)P(Zn = i) =



fθ (y) dy,

fµi ,σi (y) dy =

πi [a,b]

i∈I

[a,b]

 avec fθ = i∈I πi fµi ,σi . Ainsi, Yn est une variable continue de densit´e fθ . Comme les variables (Yn , n ≥ 1) sont ind´ependantes, la vraisemblance du mod`ele associ´e `a l’´echantillon Y1N est pour y = y1N ∈ RN : pN (θ ; y) =

N 

k=1

fθ (yk ),

5.6 Autres exemples d’application de l’algorithme EM

153

et la log-vraisemblance LN (θ ; y) =

N 

log fθ (yk ).

k=1

La vraisemblance du mod`ele complet associ´e `a l’´echantillon (Z1N , Y1N ) est pour z = z1N ∈ I N , y = y1N ∈ RN : pcomplet (θ ; z, y) = N

N 

πzk fµzk ,σzk (yk ).

k=1

Il est difficile de calculer num´eriquement l’EMV de θ du mod`ele incomplet. L’algorithme EM, que nous explicitons, est rapide a` mettre en œuvre dans ce cadre. Les mˆemes arguments permettent de d´emontrer le lemme 5.3.1, avec Q d´efini ici par  (θ ; z, y), πN (θ′ ; z|y) log pcomplet Q(θ, θ′ ) = N z∈I N

o` u θ, θ′ = (π ′ , ((µ′i , σi′ ), i ∈ I)) ∈ Θ′ , et par d´efinition πN (θ′ ; z|y) =

N  pcomplet (θ′ ; z, y) N = ρ′zk ,k , pN (θ′ ; y) k=1

o` u pour tous i ∈ I, k ∈ {1, . . . , N } ρ′i,k =

πi′ fµ′i ,σi′ (yk ) fθ′ (yk )

.

(5.19)

La quantit´e ρ′i,k s’interpr`ete comme la probabilit´e que Zk = i sachant Yk = yk , θ′ ´etant le param`etre du mod`ele. La quantit´e πN (θ′ ; z|y) s’interpr`ete comme la loi conditionnelle des variables cach´ees Z1N sachant les variables observ´ees Y1N . L’´ etape E On explicite la fonction Q(θ, θ′ ). On remarque que log pcomplet (θ ; z, y) = N

N

 log(πzk ) + log(fµzk ,σzk (yk )) .

k=1

Comme pour tout l ∈ {1, . . . , N }, on a 

z∈I N ;zk =i



j∈I

ρ′j,l = 1, il vient

πN (θ′ ; z|y) = ρ′i,k .

154

5 Recherche de zones homog`enes dans l’ADN

Cette ´egalit´e repr´esente le calcul de la loi marginale de Zk sachant Yk . On en d´eduit donc que ′

Q(θ, θ ) =

N  

ρ′i,k [log(πi ) + log(fµi ,σi (yk ))].

k=1 i∈I

L’´ etape M On ´ecrit Q(θ, θ′ ) = N A0 +



j∈I

Aj avec A0 =

πi∗ =

N 1  ′ ρi,k , N



i∈I

πi∗ log π, (5.20)

k=1

N ′ et Aj = k=1 ρj,k log(fµj ,σj (yk )) pour j ∈ I. Remarquons que maximiser ′ Q(θ, θ ) en θ ∈ Θ′ revient a` maximiser s´epar´ement A0 , sous la contrainte que π ∈ PI , et Aj pour j ∈ I. Comme π ∗ = (πi∗ , i ∈ I) est une probabilit´e sur I, on d´eduit du lemme 5.2.8 que, sous la contrainte π ∈ PI , A0 est maximal pour π = π ∗ . On cherche ensuite les z´eros des d´eriv´ees de Aj par rapport a` µj et σj . Comme (v − µ)2 1 log fµ,σ (v) = − log(2π) − log(σ) − , on a 2 2σ 2 N

 (yk − µj ) ∂Aj ρ′j,k = , ∂µj σj2 k=1

et   N  (yk − µj )2 ∂Aj 1 ′ . 1− ρj,k =− ∂σj σj σj2 k=1

Les deux d´eriv´ees ci-dessus s’annulent en N

k=1

µ∗j = N

ρ′j,k yk

k=1

ρ′j,k

et

(σj∗ )2 =

N

ρ′j,k (yk − µ∗j )2 . N ′ k=1 ρj,k

k=1

(5.21)

On v´erifie ais´ement que Aj poss`ede un unique maximum pour (µj , σj ) ∈ R × ]0, ∞[, et qu’il est atteint en (µ∗j , σj∗ ). On en d´eduit donc que θ → Q(θ, θ ′ ) atteint son unique maximum en θ∗ = (π ∗ , ((µ∗i , σi∗ ), i ∈ I)). L’algorithme EM consiste donc, a` partir d’un point initial θ(0) ∈ Θ′ , a` it´erer les op´erations d´efinies par (5.19), (5.20) et (5.21). On pourra remarquer que les actualisations (5.20) et (5.21) s’interpr`etent comme le calcul de la moyenne empirique et de la variance empirique pond´er´ees par ρ′i,· , qui est la probabilit´e, calcul´ee avec les anciens param`etres, d’ˆetre dans la population i.

5.6 Autres exemples d’application de l’algorithme EM 25 20

25

N(µ0, σ02)

20

π1N(µ1,σ21) + π2N(µ2,σ22) N(µ1, σ21)

N(µ2, σ22)

15

15

10

10

5

5

0 0.580

155

0.604

0.628

0.652

0.676

0.700

0 0.580

0.604

0.628

0.652

0.676

0.700

Fig. 5.5. Histogrammes des mesures pour les crabes de Weldon avec, `a droite, la a gauche, les densit´es des lois gaussiennes densit´e de la loi gaussienne N (µ0 , σ02 ) et, ` N (µ1 , σ12 ), N (µ2 , σ22 ) et la densit´e de la loi m´elange fθ = π1 N (µ1 , σ12 )+π2 N (µ2 , σ22 ). On remarque une meilleure ad´equation de la densit´e fθ (figure de droite) aux donn´ees par rapport a ` la densit´e gaussienne N (µ0 , σ02 ) (figure de gauche) 1

0 0.580

0.604

0.628

0.652

0.676

0.700

Fig. 5.6. Restauration des donn´ees manquantes pour les crabes de Weldon : probabilit´e d’appartenir ` a la population 1, sachant la valeur du ratio

R´ esultats La limite et la convergence de l’algorithme d´ependent peu du point de d´epart θ(0) . Dans l’exemple des crabes de Weldon, on obtient les valeurs num´eriques suivantes estim´ees par l’algorithme EM pour les param`etres du m´elange : π1 ≃ 0.434, π2 ≃ 0.566,

µ1 ≃ 0.632, µ2 ≃ 0.655,

σ1 ≃ 0.018, σ2 ≃ 0.013.

La figure 5.5 permet de visualiser l’ad´equation des donn´ees `a la densit´e pour les param`etres estim´es. Enfin, dans la Fig. 5.6 on trace la probabilit´e d’appartenir a` la population 1, sachant la valeur y du ratio : y → π(θ ; 1|y) =

π1 fµ1 ,σ1 (y) . π1 fµ1 ,σ1 (y) + π2 fµ2 ,σ2 (y)

156

5 Recherche de zones homog`enes dans l’ADN

Pour confirmer l’ad´equation des donn´ees `a la loi du m´elange, on peut faire un test du χ2 , voir [2]. On peut ´egalement proposer un mod`ele param´etrique a partir de la loi de Weibull qui est asym´etrique. Cette approche fournit ` ´egalement une bonne ad´equation aux donn´ees et donne une interpr´etation diff´erente des observations. 5.6.2 Donn´ ees censur´ ees Dans de nombreuses ´etudes, en particulier les ´etudes m´edicales ou les ´etudes de qualit´e, certaines donn´ees sont censur´ees, par exemple si le temps d’observation est limit´e par t0 . Ainsi, au lieu d’observer une r´ealisation de (Xn , n ≥ 1), suites de variables `a valeurs dans R, on observe une r´ealisation u t0 est connu. Il s’agit a` nouveau d’un mod`ele de (Yn = min(Xn , t0 ), n ≥ 1), o` a variables cach´ees. Le probl`eme qui suit permet d’expliciter l’algorithme EM ` dans ce cadre. Probl` eme 5.6.1. On se place dans le cadre d’un mod`ele param´etrique. Soit (Xn , n ≥ 1) une suite de variables al´eatoires r´eelles ind´ependantes de mˆeme u θ ∈ Θ est inconnu. On pose pour v ∈ R loi de densit´e fθ , o` F¯θ (v) = P(X1 ≥ v) =



fθ (r) dr.

v

On suppose que l’on n’observe que les r´ealisations de (Yn = min(Xn , t0 ), n ≥ 1). La vraisemblance associ´ee `a Y1 est donn´ee pour y1 ∈ R par  fθ (y1 ) si y1 < t0 , p1 (θ ; y1 ) = F¯θ (t0 ) si y1 = t0 , et la vraisemblance associ´ee `a (X1 , Y1 ) est donn´ee pour x1 , y1 ∈ R par pcomplet (θ ; x1 , y1 ) = fθ (x1 )1{y1 =min(x1 ,t0 )} . 1 On pose CN = {k ∈ {1, . . . , N } ; yk < t0 }, et n = N − Card CN , le nombre de donn´ees censur´ees. 1. Calculer la vraisemblance du mod`ele incomplet Y1N , pN (θ ; y), pour y = y1N ∈ RN . 2. En d´eduire la log-vraisemblance :  LN (θ ; y) = log fθ (yk ) + n log F¯θ (t0 ). k∈CN

3. Dans le cas particulier du mod`ele exponentiel, fθ (v) = θ e−θv 1{v>0} , θ ∈ Θ =]0, ∞[, calculer l’EMV, θˆN , de θ construit a` partir de Y1N . Montrer directement la convergence de l’EMV. On peut ´egalement d´emontrer la normalit´e asymptotique de l’EMV.

5.6 Autres exemples d’application de l’algorithme EM

157

En g´en´eral, on ne peut pas calculer explicitement l’EMV de θ. On peut alors utiliser l’algorithme EM pour donner une approximation de l’EMV. 4. V´erifier que la vraisemblance du mod`ele complet (X1N , Y1N ), pour x = N N tels que xk = yk si k ∈ CN , peut s’´ecrire xN 1 , y = y1 ∈ R   (θ ; x, y) = fθ (yk ) fθ (xl )1{xl ≥t0 } . pcomplet N k∈CN

l∈CN

N N tels que xk = yk si k ∈ CN , On d´efinit pour x = xN 1 , y = y1 ∈ R

πN (θ ; x|y) =

pcomplet (θ ; x, y) N pN (θ ; y)

qui s’interpr`ete comme la loi conditionnelle des variables cach´ees sachant les variables observ´ees. On pose ´egalement Q(θ, θ′ ) = [t0 ,+∞[n

πN (θ′ ; x|y) log(pcomplet (θ ; x, y)) N

5. Montrer que



k∈CN

dxl ,

l∈CN

o` u θ, θ′ ∈ Θ′ , avec la convention que si n = 0, alors Q(θ, θ′ ) = Q(θ, θ ′ ) =



1 log fθ (yk ) + n ¯ Fθ′ (t0 )

N

k=1

log fθ (yk ).

fθ′ (v) log fθ (v) dv. [t0 ,∞[

On peut  born´ees continues,  v´erifier que si h et g sont deux densit´es sur R, g(v) log h(v) dv < g(v) |log g(v)| dv < ∞, alors h =  g implique et si R R  g(v) log g(v) dv (cf. le lemme 5.2.8 pour des variables discr` etes). R On suppose que fθ est la densit´e de la loi gaussienne de moyenne θ et de variance 1. 6. V´erifier que R

fθ (x) |log fθ (x)| dx < ∞, puis le lemme 5.3.1, pour le

mod`ele de donn´ees censur´ees.

7. Montrer que θ → Q(θ, θ ′ ) est maximal pour   1 1  fθ′ (v)v dv . yk + n ¯ θ= N Fθ′ (t0 ) [t0 ,∞[ k∈CN

8. V´erifier que



[t0 ,∞[

fθ′ (v)v dv = θ′ F¯θ′ (t0 ) + fθ′ (t0 ).

9. En d´eduire que la suite (θ(r) , r ≥ 0) de l’algorithme EM est d´efinie pour r ≥ 0 par la relation de r´ecurrence   f0 (t0 − θ(r) ) 1  (r) (r+1) . yk + nθ + n ¯ = θ N F0 (t0 − θ(r) ) k∈CN

158

5 Recherche de zones homog`enes dans l’ADN

10. On peut v´erifier que pour toute valeur de θ(0) , la suite (θ(r) , r ≥ 0) converge vers une limite θ∗ . En d´eduire l’´equation satisfaite par θ∗ . 11. V´erifier que la d´eriv´ee de la log-vraisemblance s’annule en θ∗ . On peut v´erifier que la d´eriv´ee de la log-vraisemblance ne s’annule qu’en un seul point, θ∗ , et donc la log-vraisemblance est maximale en θ∗ . En particulier l’EMV de θ est θ∗ . Ainsi la suite issue de l’algorithme EM converge vers l’EMV. On peut ´egalement v´erifier sur cet exemple que l’EMV est convergent. 

5.7 Conclusion Pour le bact´eriophage lambda, on obtient apr`es 1 000 it´erations de l’algorithme EM, initialis´e avec (5.10), l’approximation suivante de l’EMV des param`etres a = (a(i, j) ; i, j ∈ {−1, +1}) et b = (b(i, j) ; i ∈ {−1, +1}, j ∈ {A, C, G, T}) :     0.24635 0.24755 0.29830 0.20780 0.99988 0.00012 . (5.22) , b≃ a≃ 0.26974 0.20845 0.19834 0.32347 0.00023 0.99977 L’algorithme EM fournit ´egalement les valeurs de P(Sn = i|Y = y) par les ´equations de lissage, calcul´ees avec l’approximation (5.22) de l’EMV de θ. La figure 5.7 met en ´evidence la pr´esence de six grandes zones homog`enes associ´ees aux valeurs cach´ees +1 ou −1. Ces zones correspondent `a des proportions diff´erentes des quatre nucl´eotides. Ces proportions diff´erentes pourraient provenir du fait que la transcription se fait sur le brin d’ADN analys´e ou sur le brin appari´e (voir [6]). Enfin les Figs. 5.8 et 5.9 repr´esentent l’´evolution des param`etres estim´es, termes diagonaux de la matrice a, et termes de la matrice b, en fonction du nombre d’it´erations de l’algorithme EM. On observe une convergence tr`es rapide de l’algorithme. Toutefois, pour des initialisations ´eloign´ees des valeurs donn´ees dans (5.22), on observe une convergence de l’algorithme EM vers une valeur diff´erente, correspondant a` un maximum local de la log-vraisemblance. Si on augmente le nombre de valeurs cach´ees possibles, certaines des zones pr´ec´edentes se divisent, mais les r´esultats deviennent moins nets. On peut ´egalement choisir des mod`eles plus compliqu´es (et donc avec plus de param`etres) o` u la loi de Yn peut d´ependre de Sn et aussi de Yn−1 ; on peut aussi tenir compte dans les mod`eles du fait que trois nucl´eotides codent pour un acide amin´e, etc. Nous renvoyons `a [12] pour une ´etude tr`es d´etaill´ee des diff´erents mod`eles et des r´esultats obtenus pour chacun. On retrouve ´egalement dans ces mod`eles un d´ecoupage de l’ADN proche du cas pr´esent´e ici, o` u l’on se limite a` deux ´etats cach´es. Les r´esultats sont donc robustes. Ils sugg`erent donc vraiment l’existence de six zones homog`enes de deux types diff´erents.

5.7 Conclusion

159

1.0

0.5

0.0 1

9 701

19 401

29 102

38 802

48 502

1

9 701

19 401

29 102

38 802

48 502

1.0

0.50

0.0

Fig. 5.7. Probabilit´e des ´etats cach´es pour la s´equence d’ADN du bact´eriophage lambda dans un mod`ele ` a deux ´etats cach´es : I = {−1, 1}, obtenu avec 1 000 it´erations (de haut en bas : n → P(Sn = i|Y1N0 = y1N0 ), pour i = −1, +1)

1.0

0.5

0.0 1

201

401

600

800

1 000

´ Fig. 5.8. Evolution de l’estimation des termes diagonaux de la matrice de transition des ´etats cach´es en fonction des it´erations, obtenue pour 1 000 it´erations

160

5 Recherche de zones homog`enes dans l’ADN 0.5

0.0

1

201

401

600

800

1 000

´ Fig. 5.9. Evolution de l’estimation des termes de la matrice b en fonction des it´erations, obtenue pour 1 000 it´erations

R´ ef´ erences 1. L. Baum et T. Petrie. Statistical inference for probabilistic functions of finite state Markov chains. Ann. Math. Stat., 37 : 1554–1563, 1966. 2. P. Bickel et K. Doksum. Mathematical statistics. Basic ideas and selected topics. Holden-Day Series in Probability and Statistics. Holden-Day, San Francisco, 1977. 3. P. Billingsley. Convergence of probability measures. John Wiley & Sons Inc., New York, 1968. 4. A.A. Borovkov. Mathematical statistics. Gordon and Breach Science Publishers, Amsterdam, 1998. 5. R. Casella et C. Robert. Monte Carlo statistical methods. Springer texts in statistics. Springer, 1999. 6. G. Churchill. Hidden Markov chains and the analysis of genome structure. Comput. Chem., 16(2) : 105–115, 1992. 7. F. Dellaert. Monte Carlo EM for data-association and its application in computer vision. PhD thesis, Carnegie Mellon (Pittsburgh, U.S.A.), 2001. 8. A.P. Dempster, N.M. Laird et D.B. Rubin. Maximum likelihood from incomplete data via the EM algoritm (with discussion). J. of the Royal Stat. Soc. B, 39 : 1–38, 1977. 9. D. Forsyth et J. Ponce. Computer vision – A modern approach. Prentice Hall, 2003. 10. G. McLachlan et T. Krishnan. The EM algorithm and extensions. Wiley Series in Probability and Mathematical Statistics. Wiley & Sons, 1997. 11. G. McLachlan et D. Peel. Finite mixture models. Wiley Series in Probability and Mathematical Statistics. Wiley & Sons, 2001. 12. F. Muri. Comparaison d’algorithmes d’identification de chaˆınes de Markov cach´ees et application a ` la d´ etection de r´egions homog` enes dans les s´ equences d’ADN. Th`ese, Universit´e Ren´e Descartes (Paris V), 1997.

R´ef´erences

161

13. K. Pearson. Contributions to the theory of mathematical evolution. Phil. Trans. of the Royal Soc. of London A, 185 : 71–110, 1894. 14. R. Redner et H. Walker. Mixture densities, maximum likelihood and the EM algorithm. SIAM Rev., 26(2) : 195–239, 1984. 15. F. Sanger, A. Coulson, G. Hong, D. Hill et G. Petersen. Nucleotide sequence of bacteriophage lambda DNA. J. Mol. Biol., 162(4) : 729–773, 1982. 16. P. Vandekerkhove. Contribution a ` l’´etude statistique des chaˆınes de Markov cach´ees. Th`ese, Universit´e de Montpellier II, 1997.

6 S´ equences exceptionnelles dans l’ADN

Les enzymes de restriction sont des enzymes (endonucl´eases) capables de couper l’ADN a` l’endroit o` u apparaˆıt une s´equence pr´ecise, appel´ee site de restriction. Les enzymes de restriction sont tr`es largement utilis´ees en biologie mol´eculaire, par exemple pour le fractionnement de l’ADN, pour la pr´eparation de fragments d’ADN en vue de leur insertion dans l’ADN d’un organisme ou pour la recherche de mutations dans l’ADN. Plusieurs centaines d’enzymes de restriction, avec la s´equence du site de restriction associ´ee, sont actuellement r´epertori´ees (voir le site REBASE http://rebase.neb.com). Les enzymes de restriction participent `a la d´efense des bact´eries contre les infections virales. En effet, si un virus poss`ede dans son ADN un ou plusieurs sites de restriction, alors, d`es qu’il p´en`etre dans la bact´erie, son ADN est d´ecoup´e par les enzymes de restriction correspondantes de la bact´erie. Ensuite, d’autres enzymes interviennent pour d´egrader compl`etement les fragments d’ADN du virus. Il est clair que ce m´ecanisme de d´efense peut ´egalement se retourner contre la bact´erie elle-mˆeme. Mˆeme si des m´ecanismes de r´eparation de l’ADN de la bact´erie permettent de compenser les d´egradations dues a` la pr´esence de ces sites de restriction, on s’attend `a ce que les sites de restriction associ´es aux enzymes de restriction de la bact´erie soient des s´equences tr`es peu fr´equentes dans l’ADN de la bact´erie. Voici trois exemples de sites de restriction de Escherichia coli (E. coli) : GGTCTC, CGGCCG, CCGCGG correspondant aux enzymes de restriction Eco 31 I, Eco 52 I et Eco 55 I. Il existe ´egalement des enzymes (exonucl´eases) qui d´egradent l’ADN a` partir d’une extr´emit´e du brin d’ADN. Tr`es sch´ematiquement, quand certaines nucl´eases rencontrent, lors de la d´egradation de l’ADN, un motif particulier, appel´e motif Chi (acronyme de « cross-over hotspot instigator »), la d´egradation s’arrˆete et un m´ecanisme de r´eparation entre alors en jeu (voir [6] pour E. coli). Ce m´ecanisme permet `a la bact´erie de se prot´eger contre ses propres m´ecanismes de d´egradations des ADN ´etrangers. En particulier, on s’attend a` ce que le motif Chi soit une s´equence tr`es fr´equente dans l’ADN de la bact´erie. Pour E. coli, le motif Chi est la s´equence GCTGGTGG. D’autres

164

6 S´equences exceptionnelles dans l’ADN

motifs Chi ont ´egalement ´et´e identifi´es dans d’autres micro-organismes (voir par exemple [5]) comme la s´equence GCGCGTG pour le Lactococcus lactis. On comprend a` partir de ces deux exemples que certains mots, i.e. certaines courtes s´equences de bases, sont pour des raisons biologiques tr`es rares ou tr`es fr´equentes. Pour exhiber des mots susceptibles d’avoir une signification biologique, il est int´eressant de d´etecter les mots exceptionnels : des mots tr`es fr´equents ou tr`es rares. Apr`es avoir propos´e un mod`ele de chaˆıne de Markov pour la s´equence d’ADN, on peut alors pr´eciser si le nombre d’occurrences d’un mot donn´e correspond aux pr´edictions du mod`ele ou si, au contraire, ce mot est exceptionnel. Des logiciels de recherche de mots exceptionnels ont ´et´e d´evelopp´es `a partir de tels mod`eles par le groupe de recherche SSB (Statistiques des S´equences Biologiques) et sont disponibles sur le site de l’INRA (http://www-mig.jouy.inra.fr/ssb/rmes/). Les paragraphes qui suivent pr´esentent plusieurs approches pour d´etecter les mots exceptionnels. Ils reposent sur des travaux effectu´es depuis les ann´ees 1990. Nous renvoyons a` l’article de Prum, Rodolphe et de Turckheim [8], ainsi qu’aux th`eses de Schbath [11] et Nuel [7], pour un expos´e rigoureux et plus complet des m´ethodes utilis´ees. On pourra ´egalement consulter l’ouvrage de Robin, Rodolphe et Schbath, [9], sur le sujet. Un test d’ind´ependance pour les paires de bases cons´ecutives de l’ADN met en ´evidence que l’on ne peut mod´eliser les s´equences de l’ADN comme la r´ealisation de variables al´eatoires `a valeurs dans E = {A, C, G, T}, ind´ependantes et de mˆeme loi. Dans ce qui suit, nous choisissons donc un mod`ele plus complexe mais ´el´ementaire de chaˆıne de Markov : nous supposons que la s´equence de l’ADN, de longueur N , y1 . . . yN , est la r´ealisation des N premiers termes d’une chaˆıne de Markov Y = (Yn , n ≥ 1) a` valeurs dans E. On note P sa matrice de transition (inconnue). Nous observons, sur une s´equence d’ADN assez longue, toutes les successions possibles de paires. Cela implique que pour tous y, y ′ ∈ E, P (y, y ′ ) > 0 et donc que P (y, y ′ ) ∈ ]0, 1[. Dans le paragraphe 6.1, nous calculons d’abord, grˆ ace au th´eor`eme ergodique, le nombre d’occurrences th´eorique moyen d’un mot (i.e. d’une s´equence donn´ee) pour un mod`ele g´en´eral, ainsi que les fluctuations attendues autour de cette moyenne th´eorique. Puis nous pr´esentons une m´ethode statistique, autrement dit un test, pour exhiber les mots exceptionnels par rapport aux pr´edictions du mod`ele. Il s’agit de mots dont le trop petit ou trop grand nombre d’occurrences n’est pas expliqu´e par le hasard, tel qu’il est mod´elis´e. Dans le paragraphe 6.2, nous pr´esentons une variante, qui permet de s’affranchir d’un d´efaut du test ´etabli dans le paragraphe 6.1 (voir la remarque 6.1.3, point 3). Les paragraphes 6.1 et 6.2 reposent sur l’analyse des fluctuations associ´ees aux th´eor`emes ergodiques. Cette analyse est valide quand la s´equence d’ADN est tr`es longue devant le mot ´etudi´e. Or d`es que l’on consid`ere des mots de quelques lettres (par exemple le motif Chi de E. coli), le nombre th´eorique d’occurrences du mot est faible (quelques unit´es ou quelques centaines) et l’utilisation du th´eor`eme central limite (TCL) n’est plus valide. De fait nous

6.1 Fluctuations du nombre d’occurrences d’un mot

165

pr´esentons dans le paragraphe 6.3 des tests reposant sur les « lois des petits nombres» qui sont plus adapt´es aux ordres de grandeurs observ´es en analyse de l’ADN. Enfin le paragraphe 6.4 pr´esente sous forme de probl`eme une g´en´eralisation des r´esultats du paragraphe 6.1 pour les mod`eles de chaˆınes de Markov d’ordre sup´erieur. Les th´eor`emes principaux des paragraphes 6.2 et 6.3 seront admis (voir [8] et [11] pour un expos´e complet).

6.1 Fluctuations du nombre d’occurrences d’un mot Soit une chaˆıne de Markov Y = (Yn , n ≥ 1) a` valeurs dans un espace fini E non r´eduit a` un singleton, de matrice de transition P , telle que pour tous y, y ′ ∈ E, P (y, y ′ ) ∈ ]0, 1[. En particulier la chaˆıne de Markov est irr´eductible et, d’apr`es la remarque 1.5.7, elle poss`ede une unique probabilit´e invariante π et π(y) > 0 pour tout y ∈ E. On utilise la notation ykl pour le vecteur (yk , . . . , yl ) (avec k ≤ l). u vi ∈ E On appelle mot de longueur h ≥ 1 une s´equence v = v1 · · · vh , o` pour 1 ≤ i ≤ h. Le mot v est ´egalement identif´e au vecteur (v1 , . . . , vh ). On note Nv le nombre d’occurrences du mot v dans une s´equence, Y1 , . . . , YN , de longueur N : N  1{Y k Nv = =v} . k−h+1

k=h

(Ainsi pour la s´equence abaaa, on a Nab = 1 et Naa = 2.) Pour h ≥ 2, on d´efinit π(v) la probabilit´e en r´egime stationnaire pour que Y1h soit ´egal au mot v : h−1  P (vi , vi+1 ). (6.1) π(v) = π(v1 ) i=1

Soit w = w1 · · · wh un mot de longueur h ≥ 3. D’apr`es le th´eor`eme ergodique, et plus pr´ecis´ement le corollaire 1.5.11 avec g(y1h ) = 1{y1h =w} , nous avons l’asymptotique suivante pour le nombre d’occurrences Nw du mot w : 1 p.s. Nw −−−−→ π(w). N →∞ N

(6.2)

Nous voulons ´etudier les fluctuations de Nw par rapport a` N π(w). Comme π(w) n’est pas connu, il faut en donner un estimateur. Remarquons que, si w− = w1 · · · wh−1 d´esigne le mot w priv´e de sa derni`ere lettre, on a π(w) = π(w−)P (wh−1 , wh ) =

π(w−)π(wh−1 wh ) . π(wh−1 )

166

6 S´equences exceptionnelles dans l’ADN

Le th´eor`eme ergodique (corollaire 1.5.11) permet alors de donner un esti1 Nw− Nwh−1 wh mateur convergent de π(w) sous la forme de , Il est alors N Nwh−1 Nw et naturel d’´etudier la diff´erence entre les deux estimateurs de π(w) : N Nw− Nwh−1 wh . Dans ce but, on pose N Nwh−1   Nw− Nwh−1 wh 1 Nw − . (6.3) ζN = √ Nwh−1 N Th´ eor` eme 6.1.1. La suite (ζN , N ≥ h) converge en loi vers G de loi gaussienne centr´ee de variance

π(w−) [1 − P (wh−1 , wh )]. σ 2 = π(w) 1 − π(wh−1 ) La d´emonstration compl`ete de ce th´eor`eme est report´ee `a la fin de ce paragraphe. On d´efinit ´egalement  ! ! / Nwh−1 wh Nw− Nw 2 2 . 1− 1− et σ ˆN = σ = ˆN σ ˆN N Nwh−1 Nwh−1 Remarquons que le th´eor`eme ergodique (corollaire 1.5.11) implique que la 2 , N ≥ h) converge p.s. vers σ 2 . Comme σ 2 > 0, on d´eduit alors du suite (ˆ σN th´eor`eme de Slutsky (th´eor`eme A.3.12) le corollaire suivant. σN , N ≥ h) converge en loi vers Corollaire 6.1.2. La suite Z = (ZN = ζN /ˆ G de loi gaussienne centr´ee r´eduite. L’exemple 6.2.5 donne une illustration de ce corollaire au travers d’une simulation. Nous indiquons maintenant comment ce dernier r´esultat asymptotique permet d’´etablir une proc´edure de test pour identifier les mots ou s´equences d’ADN exceptionnels. La proc´edure de test est pr´esent´ee ici au travers de la notion de p-valeur (voir par exemple [3] pour un trait´e de statistique). obs la valeur de ZN calcul´ee sur la s´equence observ´ee y1 · · · yN On note ZN (par exemple la s´equence d’ADN). Plus pr´ecis´ement on remplace les nombres d’occurrences des mots, Nv , par les nombres d’occurrences de ces mˆemes mots, Nvobs , observ´es sur la s´equence d’ADN consid´er´ee. On s’int´eresse ensuite `a la ee : p-valeur, pobs N , associ´ obs pobs N = P(ZN > ZN ). obs Remarquons que pobs u FN est la fonction de r´epartition N = 1 − FN (ZN ), o` de ZN . La fonction de r´epartition FN n’est pas connue explicitement, on ne peut donc pas calculer la p-valeur. Comme (ZN , N ≥ h) converge en loi vers

6.1 Fluctuations du nombre d’occurrences d’un mot

167

G de loi gaussienne centr´ee r´eduite de fonction de r´epartition continue F , on d´eduit de la proposition C.2, que (FN , N ≥ h) converge simplement vers F . (En fait la convergence est uniforme par le th´eor`eme de Dini.) La fonction de r´epartition, F , de la loi gaussienne, est tabul´ee (ou programm´ee), on peut obs donc calculer num´eriquement la p-valeur approch´ee p˜obs N = 1 − F (ZN ). Si le mod`ele est correct, alors les nombres d’occurrences observ´es correspondent a` des r´ealisations de variables al´eatoires d´ecrites par le mod`ele. En ealisation de la particulier, la p-valeur approch´ee du mot w, p˜obs N , est une r´ variable al´eatoire p˜N = 1 − F (ZN ). En particulier, le corollaire 6.1.2 assure u Z est que la p-valeur approch´ee (˜ pN , N ≥ h) converge en loi vers 1 − F (Z), o` une variable al´eatoire gaussienne centr´ee. Remarquons que F est la fonction de r´epartition de Z. La proposition C.5 assure que la loi de F (Z), et donc de 1 − F (Z), est la loi uniforme sur [0, 1]. ealisation d’une Ainsi, la p-valeur approch´ee p˜obs N est asymptotiquement la r´ variable al´eatoire uniforme. En conclusion, on obtient le test suivant pour d´etecter si un mot est exceptionnel : – Si la p-valeur p˜obs N est anormalement faible (proche de 0), cela signifie obs est anormalement ´elev´ee. Cela traduit le fait que que la valeur de ZN obs obs obs Nwh−1 wh /Nwobs . On dira Nw est anormalement plus grand que Nw− h−1 alors que le mot w est exceptionnellement fr´equent. elev´ee (proche de 1), cela signifie – Si la p-valeur p˜obs N est anormalement ´ obs obs . On Nwh−1 wh /Nwobs que Nwobs est anormalement plus petit que Nw− h−1 dira alors que le mot w est exceptionnellement rare. Remarque 6.1.3. Les trois remarques suivantes permettent d’appr´ehender les limites de cette approche. – En pratique, on calcule la p-valeur approch´ee pour tous les mots d’une longueur donn´ee, et on exhibe ceux dont les p-valeurs sont tr`es faibles ou tr`es ´elev´ees. Mais attention, si l’on regarde seulement des mots de longueur h = 6 pour un espace d’´etat `a 4 ´el´ements, alors on dispose de 46 = 4 096 mots et donc de 4 096 p-valeurs. Si les nombres d’occurrences des mots de longueur 6 ´etaient ind´ependants (ce qui bien sˆ ur n’est pas le cas), alors on observerait 4 096 r´ealisations de variables uniformes ind´ependantes. Il serait tout a` fait naturel d’observer parmi les 4 096 p-valeurs des p-valeurs faibles (de l’ordre de 1/4 096 ≃ 0.0002) et des p-valeurs ´elev´ees (de l’ordre de 0.9998). Signalons que les p-valeurs extrˆemes observ´ees pour l’ADN de E. coli, qui correspondent aux r´esultats num´eriques du Tableau 6.1, d´epassent tr`es largement ces bornes. En revanche pour des simulations, voir l’exemple 6.2.5, les p-valeurs minimales et maximales sont de cet ordre. Nous retiendrons que le seuil de d´etection des mots exceptionnels d´epend du nombre de mots consid´er´es. – Le TCL pour les chaˆınes de Markov permet d’obtenir le comportement asymptotique de la p-valeur approch´ee p˜N quand N est grand.

168

6 S´equences exceptionnelles dans l’ADN

Toutefois, il ne permet pas d’obtenir la pr´ecision de cette approximation. Dans le cas de variables al´eatoires ind´ependantes, une indication de cette pr´ecision est donn´ee, par exemple, par le th´eor`eme de BerryEss´een. De mani`ere g´en´erale, on observe que l’approximation du TCL est mauvaise pour les grandes valeurs de |ZN | ou quand on regarde des ph´enom`enes de faible probabilit´e. On n’obtient pas alors le bon ordre de grandeur de la p-valeur. Dans ces cas, il est souvent pr´ef´erable d’utiliser d’autres approches asymptotiques. En particulier, si le mot w est long, alors sa probabilit´e d’apparition est faible, et on s’int´eresse alors `a des ph´enom`enes rares. Ce dernier aspect peut ˆetre abord´e par la th´eorie des grandes d´eviations (voir [7]) ainsi que par la « loi des petits nombres ». Cette derni`ere approche est l’objet du paragraphe 6.3. – En regardant la d´emonstration du th´eor`eme 6.1.1, on peut remarquer que le choix de ζN correspond exactement au cadre du TCL pour les chaˆınes de Markov. Cet opportunisme math´ematique ne doit pas masquer la r´ealit´e du test construit dans ce paragraphe. En fait, le test construit dans ce paragraphe affirme que le mot w est exceptionnel si l’´ecart entre Nw et Nw− Nwh−1 wh /Nwh−1 est significatif. La quantit´e Nw− Nwh−1 wh /Nwh−1 repr´esente le nombre de mots w escompt´e connaissant le nombre d’occurrences du mot w−, et les nombres d’occurrences de wh−1 et wh−1 wh . En particulier, si le mot w− est lui-mˆeme exceptionnel (rare ou fr´equent), il se peut que, conditionnellement au nombre d’occurrences de w−, le mot w ne soit pas exceptionnel. Le test construit dans ce paragraphe permet de d´etecter en fait les mots w qui sont exceptionnels au vu du nombre d’occurrences du mot w−. Dans le paragraphe 6.3, on pr´esente un autre test qui permet de s’affranchir de cet artefact. ♦ D´emonstration du th´eor`eme 6.1.1. On consid`ere la suite de variables al´eatoires X = (Xn , n ≥ h − 1) a` valeurs dans E h−1 d´efinie par n . Xn = (Yn−h+2 , . . . , Yn ) = Yn−h+2

D’apr`es le lemme 1.5.10, X est une chaˆıne de Markov irr´eductible sur E h−1 h−1 de matrice de transition d´efinie pour x = x1h−1 , x′ = x′ 1 ∈ E h−1 , par P X (x, x′ ) = 1{x′ h−2 =xh−1 } P (xh−1 , x′h−1 ), 1

X

2

et de probabilit´e invariante π (x) = π(x1 )

h−2 

P (xi , xi+1 ).

i=1

Le nombre d’occurrences du mot w peut se r´ecrire comme Nw =

N 

k=h

g1 (Xk−1 , Xk ),

6.1 Fluctuations du nombre d’occurrences d’un mot

o` u g1 (x, x′ ) = 1{xh−1 =w−,x′ 1

h−1

=wh }

169

(rappelons que w− est le mot w tronqu´e

de sa derni`ere lettre). La proposition 1.6.3 permet alors de pr´eciser la vitesse de convergence de Nw /N vers π(w). Toutefois, pour utiliser la proposition N 1.6.3 dans cet exemple, il faut ´evaluer k=h P X g1 (Xk−1 ). On calcule pour x = xh−1 ∈ E h−1 1  P X (x, x′ )g1 (x, x′ ) P X g1 (x) = x′ ∈E h−1

=



x′1 ,...,x′h−1 ∈E

1{x′ h−2 =xh−1 } P (xh−1 , x′h−1 )1{xh−1 =w−,x′ 2

1

1

h−1

=wh }

= 1{xh−1 =w−} P (wh−1 , wh ). 1

Ainsi, on obtient N 

P X g1 (Xk−1 ) =

N 

k=h

k=h

1{Y k−1

k−h+1

=w−} P (wh−1 , wh )

= Nw− P (wh−1 , wh ) − 1{Y N

N −h+2

=w−} P (wh−1 , wh ),

o` u Nw− est le nombre d’occurrences du mot w−. Remarquons que l’on ne connaˆıt pas la quantit´e P (wh−1 , wh ). On cherche donc a` l’estimer, `a l’aide de Xh−1 , . . . , XN . Il est naturel d’estimer P (wh−1 , wh ) par Nwh−1 wh /Nwh−1 . Le nombre d’occurrences du mot wh−1 wh , Nwh−1 wh , peut s’´ecrire Nwh−1 wh =

N 

g2 (Xk−1 , Xk ) +

h−1  k=2

k=h

1{Yk−1 =wh−1 ,Yk =wh } ,

avec g2 (x, x′ ) = 1{xh−1 =wh−1 ,x′h−1 =wh } . Remarquons que l’on a P X g2 (x) = 1{xh−1 =wh−1 } P (wh−1 , wh ) et N 

P X g2 (Xk−1 )

k=h

= Nwh−1 P (wh−1 , wh ) −

h−2  k=1



1{Yk =wh−1 } + 1{YN =wh−1 } P (wh−1 , wh ).

h−1 Les suites ( √1N 1{Y N ≥ h), ( √1N k=2 1{Yk−1 =wh−1 ,Yk =wh } , =w−} , N N −h+2 h−2 N ≥ h) et ( √1N [ k=1 1{Yk =wh−1 } + 1{YN =wh−1 } ], N ≥ h) sont positives et √ major´ees par la suite (h/ N , N ≥ h). Donc elles convergent p.s. vers 0. On

170

6 S´equences exceptionnelles dans l’ADN

d´eduit du th´eor`eme de Slutsky et du corollaire 1.6.5, avec la fonction vectou rielle h = (g1 , g2 ), que la suite (HN , N ≥ h), o`   1 Nw − Nw− P (wh−1 , wh ) √ , HN = N Nwh−1 wh − Nwh−1 P (wh−1 , wh ) converge en loi vers G un vecteur gaussien centr´e de matrice de covariance Σ = (Σi,j , 1 ≤ i, j ≤ 2), avec Σi,j = (π X , P X (gi gj )) − (π X , (P X gi )(P X gj )). On explicite ensuite la matrice de covariance. Comme g12 = g1 , on obtient Σ11 = (π X , P X (g1 )) − (π X , (P X g1 )2 ) = π(w) − π(w−)P (wh−1 , wh )2 = π(w)[1 − P (wh−1 , wh )],

car π(w) = π(w−)P (wh−1 , wh ). Remarquons ensuite que l’on a g1 g2 = g1 et (P X g1 )(P X g2 ) = (P X g1 )2 , et donc Σ12 = Σ21 = Σ11 . Enfin, comme g22 = g2 , on obtient, avec π(wh−1 wh ) = π(wh−1 )P (wh−1 , wh ) (cf. la d´efinition (6.1)) : Σ22 = (π X , P X (g2 )) − (π X , (P X g2 )2 )

= π(wh−1 wh ) − π(wh−1 )P (wh−1 , wh )2 = π(wh−1 wh )[1 − P (wh−1 , wh )].

Il vient donc Σ = [1 − P (wh−1 , wh )]



 π(w) π(w) . π(w) π(wh−1 wh )

On d´eduit du corollaire 1.5.11 que la suite (Nw− /Nwh−1 , N ≥ h) converge p.s. vers π(w−)/π(wh−1 ), qui est bien d´efini car π(wh−1 ) > 0. Cela ace au th´eor` implique, grˆ eme de Slutsky, la convergence en loi du vecteur HN , Nw− /Nwh−1 , N ≥ h vers (G, π(w−)/π(wh−1 )). On pose     Nw− Nwh−1 wh 1 Nw− Nw − HN = √ . ζN = 1, − Nwh−1 Nwh−1 N continue de L’application f : ((h 1 , h2 ), x) → h1 − xh2 est une application  2 R ×R dans R. Donc ζN = f (HN , Nw− /Nwh−1 ), N ≥ h converge en loi vers f (G, π(w−)/π(wh−1 )) = (1, −π(w−)/π(wh−1 ))G de loi gaussienne centr´ee et de variance     1 2 σ = 1, −π(w−)/π(wh−1 ) Σ −π(w−)/π(wh−1 )  # "  π(w) 1 − π(w−)  π(wh−1 ) [1 − P (wh−1 , wh )] = 1, −π(w−)/π(wh−1 ) 0

π(w−) [1 − P (wh−1 , wh )], = π(w) 1 − (6.4) π(wh−1 ) o` u l’on a utilis´e π(w) =

π(w−)π(wh−1 wh ) pour la deuxi`eme ´egalit´e. π(wh−1 )

⊓ ⊔

6.2 Une autre approche asymptotique

171

6.2 Une autre approche asymptotique On rappelle que w = w1 · · · wh est un mot de longueur h ≥ 3. Si l’on consid`ere (6.2), il est naturel de comparer Nw /N et sa limite (inconnue) π(w). Dans le paragraphe pr´ec´edent, la probabilit´e π(w) a ´et´e estim´ee par l’estimateur 1 Nw− Nwh−1 wh convergent (voir la remarque 6.1.3, point 3). Il apparaˆıt en N Nwh−1 fait plus naturel de consid´erer l’estimateur du maximum de vraisemblance (EMV) de π(w). On commence par le lemme pr´eliminaire suivant, dont on pourra survoler la d´emonstration qui est report´ee `a la fin de ce paragraphe. #   √ " Nyy′ − P (y, y ′ ) , y, y ′ ∈ E , N ≥ 2 N Lemme 6.2.1. La suite Ny converge en loi vers un vecteur gaussien centr´e dont la matrice de covariance Σ = (Σxx′ ,yy′ , x, x′ , y, y ′ ∈ E) est d´efinie par Σxx′ ,yy′ =

1 P (x, x′ )[1{x′ =y′ } − P (y, y ′ )]1{x=y} . π(x)

De plus PˆN = (PˆN (y, y ′ ) = Nyy′ /Ny , y, y ′ ∈ E) est un estimateur convergent de P , asymptotiquement normal de mˆeme variance asymptotique que l’estimateur du maximum de vraisemblance de P . Par abus de langage, on dira que PˆN est l’EMV de P .  D’un point de vue pratique, signalons que comme Ny = z∈E Nyz +  ˆ 1{yN =y} = z∈E Nzy + 1{y1 =y} , le calcul de PN ne n´ecessite que la connaissance des nombres d’occurrences des mots de deux lettres et la valeur de la premi`ere base (i.e. y1 ) de la s´equence consid´er´ee. En fait, l’ensemble des nombres d’occurrences observ´ees des mots de deux lettres et la valeur de la premi`ere lettre forme un ensemble (on parle de statistique) qui contient toute l’information suffisante a` l’estimation des param`etres du mod`ele, c’est-`a-dire de la matrice de transition. Plus pr´ecis´ement, on peut montrer que la loi de (Y1 , . . . , YN ), sachant la statistique Y1 et (Nyy′ , y, y ′ ∈ E), ne d´epend pas du param`etre P . On dit que la statistique est exhaustive. Cela implique en particulier que, dans le cadre du mod`ele consid´er´e, il est coh´erent d’´ecrire tous les estimateurs et tous les tests `a l’aide de cette statistique exhaustive. De plus les estimateurs construits `a partir des statistiques exhaustives poss`edent en g´en´eral de bonnes propri´et´es. Pour tenir compte de ces remarques, on observe que pour un mot v = v1 · · · vk de longueur k ≥ 2, la suite d’estimateurs construits a` partir u de la statistique exhaustive, (ˆ πN (v), N ≥ h), o` π ˆN (v) =

k−1 1 Nv1 v2 · · · Nvk−1 vk Nv1  Nvl vl+1 , = N Nv l N Nv2 · · · Nvk−1 l=1

(6.5)

172

6 S´equences exceptionnelles dans l’ADN

converge p.s. vers π(v) d´efini par (6.1). On explique dans la remarque 6.2.6 que π ˆN (v) est en fait l’EMV de π(v). ˆN (w) en posant On consid`ere maintenant l’´ecart entre Nw /N et π 1 ′ ζN = √ (Nw − N π ˆN (w)). N ′ Avant de donner le th´eor`eme de convergence concernant ζN , on introduit quelques notations li´ees au fait que les mots w peuvent se chevaucher. Pour d ∈ {1, . . . , h − 1}, on note δ(w ; d) = 1 si w = w1 · · · wd w1 · · · wh−d (i.e. si le mot w peut apparaˆıtre simultan´ement en position i et i + d), et δ(w ; d) = 0 sinon. Si δ(w ; d) = 1, alors on consid´erera le mot de longueur h + d : w(d) w = w1 · · · wd w1 · · · wh . (Si on consid`ere le mot w = aba, alors on a δ(w ; 1) = 0, δ(w ; 2) = 1 et w(2) w = ababa.) Enfin, on note nv (w′ ) le nombre d’occurrences du mot v dans le mot w′ . On rappelle que w− = w1 · · · wh−1 d´esigne le mot w tronqu´e de sa derni`ere lettre. On admet le th´eor`eme suivant (voir [8 et 11], o` u ce th´eor`eme est d´emontr´e dans un cadre plus g´en´eral). ′ , N ≥ h) Th´ eor` eme 6.2.2. Avec les notations qui pr´ec`edent, la suite (ζN ′2 u converge en loi vers G de loi gaussienne N (0, σ ), o`

σ ′2 = π(w) + 2

h−2 

δ(w ; d)π(w(d) w)

d=1

⎞  nyz (w)2  ny (w−)2 2n (w−) − 1 w1 ⎠. − − + π(w)2 ⎝ π(y) π(yz) π(w1 ) ⎛

y∈E

y,z∈E

Le deuxi`eme terme dans la d´efinition de σ ′2 provient du fait que les mots w peuvent se chevaucher. Le chevauchement possible des mots rend d´elicates les d´emonstrations des th´eor`emes asymptotiques. D’apr`es les commentaires qui suivent (6.5), l’estimateur suivant est un 2 estimateur convergent de σ ′ : ′2 =π ˆN (w) + 2 σ ˆN

h−2 

δ(w ; d)ˆ πN (w(d) w)

d=1

⎞  ny (w−)2  nyz (w)2 2n (w−) − 1 w 1 ⎠. − − +π ˆN (w)2 ⎝ π ˆN (y) π ˆN (yz) π ˆN (w1 ) ⎛

y∈E



y,z∈E

′ ′2 . On d´ On pose σ ˆN ˆN eduit du th´eor`eme de Slutsky et du th´eor`eme = σ 6.2.2 le corollaire suivant. ′ ′ ′ = ζN /ˆ σN , N ≥ h) converge en loi vers Corollaire 6.2.3. La suite Z ′ = (ZN G de loi gaussienne centr´ee r´eduite.

6.2 Une autre approche asymptotique

173

On peut alors reproduire le raisonnement qui suit le corollaire 6.1.2, uti′ , pour exhiber les lisant les p-valeurs construites `a l’aide de la statistique ZN mots w exceptionnellement fr´equents ou rares d’une s´equence observ´ee. Ici le test compare le nombre d’occurrences d’un mot w avec le nombre d’occurrences des mots de une et deux lettres qui le composent, contrairement au test du paragraphe 6.1 qui compare le nombre d’occurrences du mot w avec le nombre d’occurrences de w− et du mot form´e de ses deux lettres finales wh−1 wh . Ces deux approches sont diff´erentes si h > 3. Enfin, pour des mots w de longueur h = 3, l’exercice qui suit permet de se convaincre que l’approche de ce paragraphe (th´eor`eme 6.2.2) et celle du paragraphe pr´ec´edent (th´eor`eme 6.1.1) co¨ıncident. En revanche les corollaires 6.2.3 et 6.1.2 proposent des estimations de σ 2 diff´erentes. Exercice 6.2.4. On consid`ere les mots de trois lettres : on suppose h = 3. ′ Montrer que π ˆN (w) = Nw− Nwh−1 wh /Nwh−1 . En particulier, on a ζN = ζN (voir (6.3) pour la d´efinition de ζN ). Remarquer que si δ(w ; 1) = 1, alors il existe a ∈ E tel que w = aaa. Montrer, en distinguant suivant les cas δ(w ; 1) = 1 et δ(w ; 1) = 0, que σ ′2 d´efini dans le th´eor`eme 6.2.2 peut se r´ecrire de la mani`ere suivante :   1 1 1 + − . σ ′2 = π(w) − π(w)2 π(w1 w2 ) π(w2 w3 ) π(w2 ) V´erifier que la variance σ 2 d´efinie par (6.4) est ´egale `a σ ′2 . Ainsi pour les mots de longueur 3, le th´eor`eme 6.2.2 et le th´eor`eme 6.1.1 sont identiques. En revanche les th´eor`emes diff`erent si l’on consid`ere des mots de longueur h > 3.  Exemple 6.2.5. Les figures 6.1 et 6.2 pr´esentent les histogrammes des ′ calcul´ees pour tous variables ZN (d´efinies au paragraphe pr´ec´edent) et ZN les mots de longueur 6 et 8, correspondant a` la simulation d’une chaˆıne de Markov a` valeurs dans E = {A, C, G, T} avec N = 4 639 221 (N correspond a` la longueur de la s´equence d’ADN de E. coli). La matrice de transition utilis´ee pour les simulations est proche de celle estim´ee pour E. coli (voir (6.11)) : ⎛

⎞ 0.30 0.22 0.21 0.27 ⎜0.27 0.22 0.31 0.20⎟ ⎟ P =⎜ ⎝0.22 0.32 0.24 0.22⎠. 0.18 0.23 0.30 0.29

Il existe 46 = 4 096 mots distincts de longueur 6 et 48 = 65 536 mots ′ ) ne soient distincts de longueur 8. Bien que les variables ZN (ainsi que ZN pas ind´ependantes pour tous les mots, on observe une bonne ad´equation entre les histogrammes et la densit´e de la loi gaussienne centr´ee r´eduite. La figure 6.3 (resp. 6.4) pr´esente pour la mˆeme simulation les points de ′ ) pour tous les mots de longueur 6 (resp. 8). On remarque coordonn´ees (ZN , ZN

174

6 S´equences exceptionnelles dans l’ADN 0.5 0.4 0.3

ZN

0.2 0.1 0 −4

−3

−2

−1

0

1

2

4

3

0.5 0.4 0.3

ZN

0.2 0.1 0 −4

−3

−2

−1

0

1

2

3

4

′ ZN

Fig. 6.1. Histogrammes de ZN et pour tous les mots de longueur 6 observ´es sur une simulation d’un ADN de mˆeme longueur que celui de E. coli, compar´e avec la densit´e de la loi N (0, 1)

que le nuage de points est positionn´e autour de la diagonale, et que les valeurs typiques varient dans [−5, 5]. Les p-valeurs approch´ees pour les mots de 6 lettres, calcul´ees `a partir du Tableau 6.1 page 192, sont comprises entre ′ . ♦ 0.00007 et 0.9998 pour ZN et entre 0.0002 et 0.99995 pour ZN D´emonstration du lemme 6.2.1. On consid`ere la fonction vectorielle sur E 2 : h = (hyy′ = 1{(y,y′ )} , y, y ′ ∈ E). On a P hyy′ (x) =



z∈E

Remarquons que N 

k=2

N

k=2

P (x, z)1{(y,y′ )} (x, z) = P (y, y ′ )1{y} (x).

hyy′ (Xk−1 , Xk ) = Nyy′ et

P hyy′ (Xk−1 ) = Ny P (y, y ′ ) − 1{YN =y} P (y, y ′ ).

On d´eduit du corollaire 1.6.5 la convergence en loi suivante :

1 "  # Loi √ Nyy′ − Ny P (y, y ′ ) + 1{YN =y} P (y, y ′ ) , y, y ′ ∈ E −−−−→ N (0, Σ ′ ), N →∞ N

6.2 Une autre approche asymptotique

175

0.5 0.4 0.3

ZN

0.2 0.1 0 −4

−3

−2

−1

0

1

2

3

4

0.5 0.4 0.3

ZN

0.2 0.1 0 −4

−3

−2

−1

0

1

2

3

4

′ Fig. 6.2. Histogrammes de ZN et ZN pour les mots de longueur 8 observ´es sur une simulation d’un ADN de mˆeme longueur que celui de E. coli, compar´e avec la densit´e de la loi N (0, 1)

′ ′ ′ o` u la matrice Σ ′ = (Σxx efinie par ′ ,yy ′ , x, x , y, y ∈ E) est d´ ′ Σxx ′ ,yy ′ = (π, P (hxx′ hyy ′ )) − (π, (P hxx′ )(P hyy ′ ))

= π(x)P (x, x′ )1{xx′ =yy′ } − π(x)P (x, x′ )P (y, y ′ )1{x=y}

= 1{x=y} π(x)P (x, x′ )[1{x′ =y′ } − P (y, y ′ )].

√ Comme les suites (1{YN =y} P (y, y ′ )/ N , N ≥ 2) convergent p.s. vers 0 pour tout y ∈ E, on en d´eduit que !

N √ N ′  Loi yy y N − P (y, y ′ ) , y, y ′ ∈ E −−−−→ N (0, Σ ′ ). N →∞ N Ny Le th´eor`eme ergodique implique la convergence p.s. des suites (N/Ny , N ≥ 1) vers 1/π(y) pour y ∈ E. On d´eduit alors du th´eor`eme de Slutsky que ! 

√  N ′ Loi yy ′ − P (y, y ) , y, y ′ ∈ E −−−−→ N (0, Σ), N N →∞ Ny ′ ′ ′ o` u Σ = (Σxx′ ,yy′ = Σxx ′ ,yy ′ /[π(x)π(y)], x, x , y, y ∈ E). On obtient ainsi la premi`ere partie du lemme.

176

6 S´equences exceptionnelles dans l’ADN 4

+ +

3

+

+ + ++ ++ ++ + + + ++++ ++ ++ + +++++ ++ + + ++ ++ + + ++++ + + + ++ + + ++++ ++++ + + + +++++++++++ ++ +++ + ++ ++++++++++ +++++ + ++ + + ++++++ +++ +++ ++ ++ +++++++ + + ++++++ ++++ + + + + + + + + + + + + + + + + + + + +++++++ +++++++++++++++++++++++++++++++ + ++ + + + + + + + +++++++++++++++++ +++++++++++++++++++++++ + + + ++++++ ++ + +++++++ ++ ++++ ++ ++++++ + + + + ++++ ++++ ++++++++ +++++++ + + + + + + + + + + + + + + ++ + ++++++++++ ++++++++ + ++++ +++ ++ + +++++ + + ++ ++ + +++++++ +++ + + +++ ++ + ++++ ++ ++ + ++++ ++ ++++++ +++ ++++ +++ +++++ ++++ ++ +++ ++++++ +++++ ++ ++ ++ ++ ++ +++++++ +++++++++ + + + + +++++ ++ ++ + ++++ ++ ++ +++++++ +++ ++ + + +++++ ++ ++ + + ++ ++ ++++ +++++++ +++++ + ++ + +++ +++++++ ++ + +++++ ++++++++ ++++++ ++ ++ +++ + +++++++ +++++++ + ++ ++++ +++ + +++ ++ ++ +++++ +++ ++++++++ ++ + +++++++++ + ++ + +++++++++++ ++ ++ ++ + + ++++ + ++ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +++ +++++ +++ +++ ++++++++++++++++++ ++++++ +++++ + + ++++ +++++++ +++++++++++++ ++ ++++ ++ +++++ + ++ + ++ ++++++ +++++ +++ ++++ +++++++++++++++ +++ +++ ++++++ +++++++ +++ ++++++++ ++ ++ ++ ++ ++ ++ +++ + ++++++++++ + +++++ ++ +++++ +++ +++ +++++ +++++ + ++ ++ +++ + ++++ +++ ++++++ +++ +++ +++ ++ ++++++++ ++ + ++++ +++ +++ + +++ +++++ ++ + ++ +++++ ++ + ++ ++++ + ++ +++++ ++ +++ ++++++++ ++ ++++++ + + +++++++ + ++ ++ ++ ++++ ++ ++++ ++++ ++++++++++ + +++ ++++ ++++++ ++++ +++++++ ++ ++++++ +++ +++++ ++ ++++ ++++ ++ ++ + ++++++++ +++ + ++ + ++ + + ++ ++++++++++++++ + + +++ ++++ +++++++ ++ ++++ + ++++++ + ++ + ++++ +++++ ++++ + ++++ +++ ++++ ++++ ++++ ++++++ + + ++ ++ + +++ + ++ +++ +++ + ++ ++ + + ++ ++ +++ + + + ++ +++ ++ ++ ++++ + ++++++++ + +++ ++ + + ++ ++++ +++ ++++++++++++ ++++++ + + ++ +++++ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +++++ + ++ + + +++++++ ++++++ + ++++ ++++ +++++ +++ +++++++++++++++ +++++++++++ ++ ++ +++++ ++ +++ ++ + ++++ + ++ ++ + + ++++ ++++++++ +++ +++ +++ +++++++++++++++ ++++ ++ +++++ +++++ ++ ++ ++ ++ ++++ ++++++ ++ ++ +++ ++ + + + +++++ ++++ +++++++++ +++++ ++++ +++++++ +++++++ ++++++ ++++++ ++ ++ + +++ ++++++ + +++ +++ ++++ + +++++++ + ++++ +++ ++ ++++++ +++++ ++ ++++ ++ +++ ++ + ++ + ++++ + ++ ++++++ ++ ++ + + +++ ++ +++++ + + +++++ ++++ +++ +++ ++++++++++ + ++++ +++++ ++ ++++ ++++ ++++++ +++ ++++ ++ ++ ++++ ++ ++ ++ ++ +++ + ++ + ++ ++++++ ++ + +++++ + ++ ++ +++ +++++ +++++ ++ +++++++ + +++ + +++++++ + ++++ +++ + + +++++ ++ + +++++++ ++++++ +++ + ++++++ ++ + +++++ ++ + + + + ++++ +++++ ++++++ +++ ++++++ +++ + ++++++++ +++ ++++++ ++ + + + ++ ++++ + ++++++ ++++++++++++ + ++++ ++ ++ + + + + ++ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +++++++++++++++ ++++++ + + ++++++++++++ ++++++++++++++ ++ + + +++++++ + +++++ +++++++ +++ ++++ ++ +++++++++ ++++ + ++++++++ ++++++ +++ + +++ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + ++++++++++++++ +++++++++++++ + +++ +++ ++++++++ ++ + ++++++++++++ ++ ++++++++ ++ ++ ++++++ ++ ++ +++ +++++++ + +++ + ++ +++ + + ++ ++++ ++++++ + +++++++++++++ + + +++ ++ ++++++++ + ++ + ++ ++++++ + ++ +++++++ + ++++++++ ++++++ + + + +++ ++ ++++ +++ + +++++++++ ++++ ++ ++++ +++ ++ +++++++++++ + ++++ + +++ +++ + + + + +++++ + + ++ + + +++++++++ + + + + + ++ + ++++++ ++++++ + + ++ + + + ++ + + + + + + ++ + + + + +++++++++ + + + + + + + ++++ + + + ++ ++ + + + + + + ++ +++ + + N + + ++ + + + +

ZN′

+

+

CGGCCG

2 1 0

GGTCTC

−1 −2

+ +

CCGCGG

+

Z

−3

+

+

+

+

+

−4 −4

−3

−2

−1

0

1

2

3

4

′ (ZN , ZN )

Fig. 6.3. pour tous les mots de longueur 6 observ´es sur une simulation d’un ADN de mˆeme longueur que celui de E. coli

On recherche maintenant l’EMV, P˜N , de la matrice de transition P . La vraisemblance associ´ee `a la chaˆıne de Markov (Yn , n ∈ {1, . . . , N }) est pN (P ; y1 , . . . , yn ) = P(Y1 = y1 , . . . , Yn = yn ) = P(Y1 = y1 )P (y1 , y2 ) · · · P (yN −1 , yN )  = P(Y1 = y1 ) P (y, y ′ )Nyy′, y,y ′ ∈E

o` u Nyy′ est le nombre d’occurrences du mot yy ′ . On en d´eduit la logvraisemblance : LN (P ; y1 , . . . , yN ) = log pN (P ; y1 , . . . , yn )  = log(P(Y1 = y1 )) + Nyy′ log(P (y, y ′ )). y,y ′ ∈E

L’EMV de P est la matrice P˜N = (P˜N (y, y ′ ), y, y ′ ∈ E) qui maximise la log-vraisemblance et telle que (P˜N (y, y ′ ), y ′ ∈ E) est une probabilit´e pour tout y ∈ E. Comme ces contraintes sont s´epar´ees pour y ∈ E, on en d´eduit (y, y ′ ), y ′ ∈ E) qui maxique pour la probabilit´e (P˜N  tout y ∈ E, on recherche ′ ′ ′ ′ mise y′ ∈E Nyy log(P  (y, y )), ′et donc qui maximise y′ ∈E p(y ) log(P (y, y )), ′ ′ o` u (p(y ) = Nyy / z∈E Nyz , y ∈ E) est une probabilit´e sur E. On d´eduit du lemme 5.2.8 que, sous la contrainte que (P (y, y ′ ), y ′ ∈ E) soit une probabilit´e, la quantit´e y′ ∈E p(y ′ ) log(P (y, y ′ )) est maximale pour P (y, y ′ ) = p(y ′ ) pour tout y ′ ∈ E. Ainsi, pour y, y ′ ∈ E, l’EMV de P (y, y ′ ) est Nyy′ . P˜N (y, y ′ ) =  z∈E Nyz

6.2 Une autre approche asymptotique

177

6

4 ZN′ 2

0 GCTGGTGG

ZN

0

2

4

6

′ Fig. 6.4. (ZN , ZN ) pour tous les mots de longueur 8 observ´es sur une simulation d’un ADN de mˆeme longueur que celui de E. coli

Pour v´erifier que P˜N et PˆN ont mˆeme variance asymptotique, il suffit de v´erifier que p.s. pour tous y, y ′ ∈ E, lim N 1/2 [P˜N (y, y ′ ) − PˆN (y, y ′ )] = 0.

N →∞

Comme



z∈E

(6.6)

Nyz = Ny − 1{yN =y} , on a P˜N (y, y ′ ) − PˆN (y, y ′ ) =

Ny

N ′  yy

z∈E

Nyz

1{yN =y} .

N ′  yy

= π(yy ′ )/π(y)2 . Ny z∈E Nyz Cette limite ´etant fini, cela implique (6.6) et termine la d´emonstration du lemme. ⊓ ⊔

On d´eduit du corollaire 1.5.11, que p.s. lim N N →∞

Remarque 6.2.6. L’estimateur π ˆN (v) de π(v), d´efini par (6.5), est un estimateur convergent. Nous allons v´erifier qu’il est ´egalement asymptotiquement normal de mˆeme variance que l’EMV de π(v). Dans une premi`ere ´etape, on v´erifie que la probabilit´e invariante π peut s’´ecrire comme une fonction r´eguli`ere de P . On rappelle le th´eor`eme de PerronFrobenius (voir par exemple [12]). Th´ eor` eme 6.2.7. Soit P ′ = (P ′ (y, y ′ ), (y, y ′ ) ∈ E 2 ) une matrice dont tous les coefficients sont strictement positifs. Alors elle poss`ede une valeur propre r´eelle positive simple, λP ′ , strictement plus grande que le module de toutes a la ` gauche, πP ′ , associ´e ` les autres valeurs propres de P ′ . Le vecteur propre a

178

6 S´equences exceptionnelles dans l’ADN

valeur propre λP ′ peut ˆetre normalis´e de telle sorte que πP ′ = (πP ′ (y) > 0, y ∈ E) soit une probabilit´e sur E. Si de plus P ′ est une matrice stochastique, alors λP ′ = 1. Ainsi si P ′ est une matrice stochastique dont les coefficients sont strictement positifs, alors πP ′ est la probabilit´e invariante de la chaˆıne de Markov de matrice de transition P ′ . La matrice P est une matrice stochastique dont tous les coefficients sont strictement positifs, et bien sˆ ur πP = π. Comme λP est racine simple, il existe un voisinage ouvert de P dans RE×E , O, et une fonction ϕ d´efinie sur O de classe au moins C 1 tels que si P ′ ∈ O, alors P ′ est une matrice dont les coefficients sont strictement positifs et ϕ(P ′ ) = πP ′ . Dans une deuxi`eme ´etape on exhibe un estimateur proche de l’EMV de (P, π). On reprend les notations de la d´emonstration du lemme 6.2.1. Pour N assez grand l’EMV, P˜N , de P appartient a` O. Par convention (voir la d´efinition 5.2.2), l’EMV de π est l’image par ϕ de l’EMV de P , c’est-`a-dire π ˜N = ϕ(P˜N ), la probabilit´e invariante de P˜N . Comme ϕ est de classe C 1 , la proposition A.3.17 implique que π ˜N est un estimateur asymptotiquement ˜N ), est un normal de π, et plus g´en´eralement que l’EMV de (P, π), (P˜N , π estimateur asymptotiquement normal. πN (y) = Ny /N, y ∈ E) comme estiEn fait il est naturel de choisir π ˆN = (ˆ mateur de la probabilit´e invariante π. Cet estimateur est convergent grˆace au th´eor`eme ergodique. Il est facile de v´erifier que π ˆN est la probabilit´e invariante de la matrice stochastique PˇN d´efinie pour y, y ′ ∈ E par Nyy′ + 1{yN =y,y1 =y′ } . PˇN (y, y ′ ) = Ny Nous v´erifions ensuite que PˇN est proche de P˜N . On a P˜N (y, y ′ ) − PˇN (y, y ′ ) =

Ny

N ′  yy

z∈E Nyz

1{yN =y} −

1 1{yN =y,y1 =y′ } . Ny

Ainsi l’´egalit´e (6.6) est satisfaite avec PˇN au lieu de PˆN . Pour N assez grand, ˆN = ϕ(PˇN ). Comme ϕ est au moins de classe C 1 sur un on a PˇN ∈ O, et π voisinage de P , on en d´eduit alors que p.s. πN (y) − π ˆN (y)] = 0. lim N 1/2 [˜

N →∞

En particulier ceci assure que π ˆN est asymptotiquement normal de mˆeme ˆN ) est variance asymptotique que π ˜N . En fait, avec (6.6), on obtient que (PˆN , π un estimateur asymptotiquement normal de (P, π), de mˆeme variance asymptotique que l’EMV. k−1 ˆ (v1 ) l=1 Pˆ (vl , vl+1 ) est un estimateur On en d´eduit que π ˆN (v) = π k−1 asymptotiquement normal de π(v) = π(v1 ) l=1 P (vl , vl+1 ) de mˆeme variance asymptotique que l’EMV. De fait, on dira que π ˆN (v) est l’EMV de π(v). ♦

6.3 Une troisi`eme approche asymptotique

179

6.3 Une troisi` eme approche asymptotique Comme nous l’avons soulign´e dans la remarque 6.1.3, point 2, les r´esultats du type TCL, comme ceux ´enonc´es dans le corollaire 6.1.2 et le corollaire 6.2.3 ne donnent pas de bonnes approximations de la p-valeur pour des mots ayant une faible probabilit´e d’apparition, ce qui est le cas par exemple si la probabilit´e, π(w), d’observer le mot w est de l’ordre de 1/N , o` u N est la longueur de la s´equence observ´ee. Intuitivement, le nombre d’occurrences du mot w sera alors de l’ordre de N π(w) = O(1). On n’est pas dans le r´egime de la loi forte des grands nombres (et donc pas dans le cadre du TCL), mais plutˆ ot dans un r´egime de type ´ev´enements rares ou « loi des petits nombres » (voir [1] o` u de nombreux exemples sont trait´es concernant la « loi des petits nombres »). Avant de donner les r´esultats concernant l’analyse du nombre des occurrences des mots dans l’optique de la «loi des petits nombres», nous pr´esentons d’abord quelques r´esultats ´el´ementaires sur cette loi. 6.3.1 « Loi des petits nombres » ou loi de Poisson L’exemple ´el´ementaire suivant rappelle comment la loi de Poisson apparaˆıt naturellement comme «loi des petits nombres ». eatoires de Exemple 6.3.1. Soit X1n = (Xkn , k ∈ {1, . . . , n}) des variables al´  n Bernoulli de mˆeme param`etre pn , ind´ependantes. On note Sn = k=1 Xkn le n nombre d’occurrences de 1 dans la suite X1 . La loi de Sn est la loi binomiale de param`etre (n, pn ) : pour k ∈ {0, . . . , n},   k n k 1 (n−k) log(1−pn )  pn (1 − pn )n−k = e P(Sn = k) = (n − i + 1)pn . k k! i=1 En particulier, si limn→∞ npn = θ ∈ ]0, ∞[, on obtient que pour tout k ∈ N, lim P(Sn = k) =

n→∞

1 −θ k e θ . k!

La suite (Sn , n ≥ 1) converge donc en loi vers une variable de loi de Poisson de param`etre θ. Ce r´esultat est un exemple de la « loi des petits nombres » : quand la probabilit´e d’un ´ev´enement, pn , est de l’ordre de 1/n, et que l’on dispose de n observations, le nombre d’occurrences de l’´ev´enement suit asymptotiquement une loi de Poisson. ♦ Dans la suite de ce paragraphe nous montrons comment ce r´esultat peut s’´etendre a` une suite de variables al´eatoires de Bernoulli, (Xn , n ≥ 1), ind´ependantes mais pas de mˆeme loi. Pour cela, on d´esire comparer, au sens n = X et la loi de la norme en variation (voir l’appendice D), la loi de S n k k=1 n u pk = P(Xk = 1) est le param`etre de Poisson de param`etre θn = k=1 pk , o` de la loi de Bernoulli de Xk .

180

6 S´equences exceptionnelles dans l’ADN

En utilisant les fonctions g´en´eratrices, il est imm´ediat de v´erifier que la loi n u les variables Vk sont ind´ependantes de loi de Poisson de de Un = k=1 Vk , o` n param`etres respectifs pk , est la loi de Poisson de param`etre θn = k=1 pk . Nous majorons la distance, pour la norme en variation, entre la loi de Bernoulli de param`etre pn et la loi de Poisson de param`etre pn . Pour cela, on note de mani`ere g´en´erale µT , la loi d’une variable al´eatoire a` valeurs enti`eres T : µT (k) = P(T = k) pour k ∈ N. On a 1 1 1 − pn − e−pn +pn (1 − e−pn ) + pin e−pn 2 i! i≥2

1 −pn e +pn − 1 + pn (1 − e−pn ) + 1 − e−pn −pn e−pn = 2 = pn (1 − e−pn )

µXn − µVn  =

≤ p2n ,

o` u l’on a utilis´e que e−x −1 + x ≥ 0 pour x ≥ 0, dans l’in´egalit´e. Le lemme suivant permet de majorer la distance, pour la norme en variation, entre des lois de sommes de variables al´eatoires ind´ependantes. Lemme 6.3.2. Soit (Xk′ , 1 ≤ k ≤ n) et (Vk′ , 1 ≤ k ≤ n) deux suites de variables al´eatoires ind´ependantes ` a valeurs dans N. On a   n µ

k=1

Xk′

− µn

k=1

n       ′  ′ − µ ≤ µ  Xk Vk . V′ k

k=1

D´emonstration. Si on ´etablit le r´esultat pour n = 2, alors un raisonnement par r´ecurrence ´evident permet d’obtenir le r´esultat pour n quelconque. On a   µX ′ +X ′ − µV ′ +V ′  2 1 2 1 1 |P(X1′ + X2′ = i) − P(V1′ + V2′ = i)| = 2 i∈N i   1 ′ ′ ′ ′ = [P(X1 = l, X2 = i − l) − P(V1 = l, V2 = i − l)] 2 i∈N l=0 i 1   ′ ′ ′ ′ = [P(X1 = l)P(X2 = i − l) − P(V1 = l)P(V2 = i − l)] 2 i∈N l=0 i

1  |P(X1′ = l)P(X2′ = i − l) − P(V1′ = l)P(V2′ = i − l)| 2 i∈N l=0 1  ≤ |P(X1′ = l)P(X2′ = j) − P(V1′ = l)P(V2′ = j)|, 2 ≤

j,l∈N

6.3 Une troisi`eme approche asymptotique

181

o` u on a pos´e j = i − l pour la derni`ere in´egalit´e. Il vient    µX ′ +X ′ − µV ′ +V ′  ≤ 1 |P(X1′ = l) − P(V1′ = l)| P(X2′ = j) 2 2 1 1 2 j,l∈N

1  |P(X2′ = j) − P(V2′ = j)| P(V1′ = l) 2 j,l∈N     − µV1′ + µX2′ − µV2′ . +

 = µX1′

Ceci termine la d´emonstration du lemme.

⊓ ⊔

On en d´eduit que µSn − µUn  ≤



k=1

µXk − µVk  ≤

n 

p2k .

(6.7)

k=1

En u les param`etres pk sont tous ´egaux a` p, on obtient  particulier, dans le cas  o`  n  2  n µ Xk − µ Vk  ≤ np . Pour p = θ/n, la distance pour la norme en k=1

k=1

variation entre la loi binomiale de param`etre (n, θ/n) et la loi de Poisson de param`etre θ est major´ee par θ2 /n. Elle tend vers 0 quand n → ∞. On retrouve ainsi le r´esultat de l’exemple 6.3.1 ci-dessus, pour pn = θ/n. De nombreux r´esultats plus pr´ecis que (6.7) sur l’approximation de la loi de la somme de variables de Bernoulli ind´ependantes par une loi de Poisson existent, ainsi que des r´esultats dans le mˆeme esprit concernant la somme de variables de Bernoulli d´ependantes, voir par exemple [2]. Enfin, l’exercice qui suit permet de retrouver compl`etement le r´esultat ´el´ementaire de l’exemple 6.3.1. Exercice 6.3.3. Soit U et U ′ des variables al´eatoires de Poisson de param`etres respectifs θ et θ′ . V´erifier que si θ ≥ θ′ > 0, alors on a ′



| e−θ θk − e−θ θ′k | ≤ e−θ (θk − θ′k ) + θ′k (e−θ − e−θ ). En d´eduire que µU − µU ′  ≤ 1 − e− |θ−θ | . Montrer que la distance pour la norme en variation entre la loi binomiale de param`etre (n, pn ) et la loi de Poisson de param`etre θ est major´ee par np2n + 1 − e− |θ−npn | . Retrouver ainsi le r´esultat de l’exemple 6.3.1.  ′

6.3.2 « Loi des petits nombres » pour le nombre d’occurrences Nous reprenons les hypoth`eses et notations du paragraphe 6.1 : la s´equence y1 , . . . , yN est la r´ealisation des N premiers termes d’une chaˆıne de Markov sur E (fini non r´eduit a` un singleton) irr´eductible (Yn , n ≥ 1) de matrice de transition P ` a coefficients strictement positifs et de probabilit´e invariante π.

182

6 S´equences exceptionnelles dans l’ADN

Soit w = w1 · · · wh un mot de longueur h ≥ 3. On note Vi = 1 si le mot w commence en position i de la s´equence et 0 sinon : Vi = 1{Y i+h−1 =w} . i

N −h+1 Vi . Le nombre d’occurrences de w peut alors s’´ecrire comme Nw = i=1 En r´egime stationnaire (i.e. si la loi de Y1 est la probabilit´e invariante π), la loi de Vi est la loi de Bernoulli de param`etre π(w). Donc Nw est la somme de N variables (d´ependantes) de loi de Bernoulli de param`etre π(w). Si π(w) est de l’ordre de 1/N , alors d’apr`es le paragraphe pr´ec´edent, la loi du nombre d’occurrences du mot w est `a comparer avec une loi de Poisson, mˆeme si on s’attend `a des ph´enom`enes plus complexes dus `a la d´ependance des variables (Vi , i ∈ {1, . . . N }) entre elles. Si le mot w ne peut pas se chevaucher lui-mˆeme (i.e., avec les notations pr´ec´edant le th´eor`eme 6.1.1, si δ(w ; d) = 0 pour d ∈ {1, . . . , h − 1}), alors si N π(w) = O(1), on peut montrer que la loi de N (w) est proche de la loi de Poisson de param`etre N π(w). En revanche, si le mot w peut se chevaucher avec lui-mˆeme, alors il faut ´etudier le nombre d’occurrences de groupes de mots w se chevauchant. On note V˜i = 1 si un mot w commence en position i et si aucun mot commen¸cant avant la position i ne le chevauche, et V˜i = 0 sinon : min(h,i)−1

V˜i = Vi



k=1

(1 − Vi−k ).

On dit qu’un train de mots w d´ebute en position i si V˜i = 1. Le nombre de trains observ´es est donc N −h+1 ˜w = V˜i . N i=1

(Pour la s´equence aabaaa et le mot w = aa, on a V1 = V4 = V5 = 1, mais ˜w = 2.) V˜1 = V˜4 = 1 et V˜5 = 0. On a aussi Nw = 3 et N Pour un mot w, on note Ck l’ensemble des mots correspondant `a un train comportant exactement k occurrences du mot w. Plus pr´ecis´ement, le mot v = v1 · · · vn est un ´el´ement de Ck si et seulement si – le mot v commence et se termine par le mot w : v1 · · · vh = w et vn−h+1 · · · vn = w, – pour la suite (v1 , . . . , vn ), correspondant au mot v, on a Nw = k et ˜w = 1 (un seul train, mais k occurrences du mot w). N (Par exemple si w = aba, alors C1 = {aba}, C2 = {ababa}, C3 = {abababa}, ou encore si w = abaaba, alors C1 = {abaaba}, C2 = {abaabaaba, abaababaaba}.) Notons que tout mot de Ck poss`ede une longueur n comprise entre h+k −1 et k(h − 1) + 1. Enfin, on a C1 = {w}, et si le mot w ne peut pas se chevaucher lui-mˆeme, alors on a pour k ≥ 2, Ck = ∅. u la probabilit´e π(v) est Pour k ≥ 1, on pose π(Ck ) = v∈Ck π(v), o` d´etermin´ee par (6.1), et on d´efinit θ(k) (w) = π(Ck ) − 2π(Ck+1 ) + π(Ck+2 ).

6.3 Une troisi`eme approche asymptotique

183

La quantit´e θ(k) (w) s’interpr`ete comme la probabilit´e, en r´egime stationnaire, d’observer un train de k occurrences exactement du mot w, d´ebutant en position i donn´ee (avec i grand). En effet, on comprend intuitivement que si on observe une s´equence v, qui est un train de k occurrences exactement du mot w, d´ebutant en position i, cela signifie – que la s´equence v constitue un train comportant k occurrences du mot w : elle commence donc par un ´el´ement de Ck (ce qui arrive avec probabilit´e π(Ck )), – que la s´equence v ne fait pas partie d’un train d´ebutant en i et comportant au moins k + 1 occurrences du mot w : la s´equence d´ebutant en i ne commence donc pas par un ´el´ement de Ck+1 (ce qui arrive avec probabilit´e π(Ck+1 )), – que la s´equence v ne fait pas partie d’un train qui d´ebute avant la position i : elle ne repr´esente donc pas la fin d’un train comportant au moins k + 1 occurrences (ce qui arrive avec probabilit´e π(Ck+1 )), – enfin, dans les deux derniers ´ev´enements, on a compt´e deux fois les trains comportant au moins k + 2 occurrences qui d´ebutent avant la position i et qui se terminent apr`es la s´equence v (ce qui arrive avec probabilit´e π(Ck+2 )). La probabilit´e, en r´egime stationnaire, d’observer un train d´ebutant en position i donn´ee (avec i grand) est intuitivement donn´ee par  θ(k) (w). (6.8) θ(w) = k≥1

Remarquons que θ(w) est la probabilit´e d’observer un mot w d´ebutant en position i, π(w), moins la probabilit´e que ce mot appartienne a` un train ayant commenc´e avant la position i. Ces trains comportent au moins deux occurrences, leur probabilit´e est donc π(C2 ). On v´erifie formellement que θ(w) = π(w) − π(C2 ) : θ(w) =



k≥1

[π(Ck ) − 2π(Ck+1 ) + π(Ck+2 )] =



k≥1

π(Ck ) − 2



π(Ck ) +

k≥2



k≥3

π(Ck ) = π(w) − π(C2 ).

La probabilit´e, en r´egime stationnaire, d’observer un mot w d´ebutant en position i, c’est-`a-dire π(w), peut se d´ecomposer suivant le nombre d’occurrences du mot w dans le train auquel le mot w d´ebutant en position i appartient et suivant sa position dans le train (k possibilit´  es pour un train de k occurrences). On v´erifie formellement que π(w) = k≥1 kθ(k) (w) :     kθ(k) (w) = kπ(Ck ) − 2(k − 1) π(Ck ) + (k − 2) π(Ck ) k≥1

k≥1

= π(C1 ) = π(w).

k≥2

k≥3

184

6 S´equences exceptionnelles dans l’ADN

Le lemme suivant, dont nous aurons besoin par la suite, permet de justifier les calculs formels pr´ec´edents. On pose αw =

π(C2 ) . π(w)

(6.9)

Lemme 6.3.4. On a αw < 1. Et pour k ≥ 1, on a π(Ck+1 ) = αw π(Ck ), en k−1 π(w). particulier π(Ck ) = αw k−1 π(w), puis les deux ´egalit´es On en d´eduit que θ(k) (w) = (1 − αw )2 αw sugg´er´ees ci-dessus :  θ(w) = θ(k) (w) = (1 − αw )π(w) = π(w) − π(C2 ), k≥1



k≥1



(k)

(w) = π(w)(1 − αw )2



k−1 kαw = π(w).

k≥1

D´emonstration du lemme 6.3.4. Comme toutes les s´equences de C2 commencent aussi par le mot w, on a π(C2 ) ≤ π(w). Nous d´emontrons par l’absurde que π(C2 ) < π(w). On commence par d´emontrer que tous les trains de mots w sont p.s. finis. Soit w′ un mot compos´e de h occurrences de la mˆeme lettre et distinct de w. En particulier, un train de mots w ne peut contenir le mot w′ . Comme π(w′ ) = π(w1′ )P (w1′ , w1′ )h−1 > 0, on d´eduit du th´eor`eme ergodique que p.s. limN →∞ Nw′ /N = π(w′ ) > 0. Ainsi, p.s. il existe n ≥ 1, tel que Ynn+h = w′ . Donc, tous les trains de w sont p.s. finis. Si π(C2 ) = π(w), cela signifie que p.s. toute s´equence commen¸cant par le mot w commence par un train comportant au moins deux occurrences. Mais la deuxi`eme occurrence est alors p.s. aussi le d´ebut d’un train comportant au moins deux occurrences. En it´erant ce raisonnement, on obtient qu’une s´equence commen¸cant par le mot w est p.s. une succession de mots w se chevauchant. Et donc les trains de w sont p.s. infinis, ce qui contredit le raisonnement pr´ec´edent. Donc, on a π(C2 ) < π(w). On suppose k ≥ 2. Nous v´erifions maintenant qu’il existe une bijection, ϕ, entre Ck+1 et C2 ×Ck . Si v ∈ Ck+1 , alors le mot v commence par un mot u ∈ C2 . On d´efinit le mot z, tel que v soit la concat´enation de u et z : v = uz. Comme v ∈ Ck+1 et que u est un train comportant seulement deux occurrences du mot w, on en d´eduit que le mot wz est un train comportant exactement k occurrences du mot w. On d´efinit ϕ(v) = (u, wz). Par construction ϕ est une injection de Ck+1 dans C2 × Ck . Pour tout couple (u, y) ∈ C2 × Ck , comme le mot y commence par le mot w, on peut d´efinir z, tel que y = wz, et consid´erer le mot v = uz. Par construction v est un train comportant k + 1 occurrences du mot w. Donc on a v ∈ Ck+1 ainsi que ϕ(v) = (u, wz) = (u, y). La fonction ϕ est une surjection, donc une bijection. Rappelons que si u ∈ C2 alors la derni`ere lettre de u est wh et si y ∈ Ck , alors y est de la forme wz et on a π(y) = π(w)P (wh , z1 )π(z)/π(z1 ). Remarquons ensuite que pour u ∈ C2 , y = wz ∈ Ck , on a ϕ−1 (u, y) = uz et π(ϕ−1 (u, y)) = π(uz) =

π(u)π(y) π(u)P (wh , z1 )π(z) = . π(z1 ) π(w)

6.3 Une troisi`eme approche asymptotique

185

On en d´eduit donc que pour k ≥ 2, π(Ck+1 ) =



v∈Ck+1



π(v) =

π(ϕ−1 (u, y))

u∈C2 ,y∈Ck

=



u∈C2 ,y∈Ck

π(C2 )π(Ck ) π(u)π(y) = = αw π(Ck ). π(w) π(w) ⊓ ⊔

Dans ce qui suit, nous pr´esentons sans d´emonstration les th´eor`emes asymptotiques, et nous renvoyons a` [11] pour un expos´e complet de ces r´esultats. On consid`ere une suite de mots (wN , N ≥ 3) de longueur hN telle que N π(wN ) = O(1). Ceci est automatiquement r´ealis´e, si hN ≥ 1 + c log N , pour une constante c assez grande. En effet, comme m = max{P (y, y ′ ), y, y ′ ∈ E} ∈ ]0, 1[, on a alors π(wN ) ≤ mhN −1 et N π(wN ) ≤ exp[(hN −1) log(m) + log(N )]. En particulier on a N π(wN ) ≤ 1 d`es que c ≥ 1/ log(1/m). ˜w = k), k ∈ N) la loi de N ˜w , le nombre On note µN˜w = (µN˜w (k) = P(N de trains de mots w dans une s´equence de longueur N . On note ´egalement ρθ = (ρθ (k) = e−θ θk /k!, k ∈ N) la loi de Poisson de param`etre θ. On a le r´esultat suivant sur la convergence au sens de la norme en variation de la loi ˜w vers une loi de Poisson. de N N Proposition 6.3.5. Soit (wN , N ≥ 3) une suite de mots de longueur hN telle que N π(wN ) = O(1) et hN = o(N ). Alors, on a     lim µN˜w − ρN θ(wN )  = 0. N →∞

N

˜w = Nw , et la loi Si le mot w ne peut pas se chevaucher lui-mˆeme, alors N de Nw est donc proche (au sens de la norme en variation) asymptotiquement de la loi de Poisson de param`etre N θ(w) = N (π(w) − π(C2 )) = N π(w). Enfin, si les mots se chevauchent, la description de la loi asymptotique de ˜w(k) le nombre d’occurrences Nw est plus complexe. Pour cela, on consid`ere N de trains comportant exactement k mots w se chevauchant. En particulier, on  ˜ (k) ˜ (k) ˜w =  eses du th´eor`eme aN k≥1 Nw et Nw = k≥1 k Nw . Sous les hypoth` (k) ˜ pr´ec´edent, on peut v´erifier que (NwN , k ≥ 1) se comporte asymptotiquement u les variables al´eatoires (Vk , k ≥ 1) sont ind´ependantes comme (Vk , k ≥ 1), o` et la loi de Vk est la loi de Poisson de param`etres N θ(k) (wN ). Ainsi les trains comportant exactement k occurrences du mot w suivent asymptotiquement une « loi des petits nombres ». De plus, les occurrences, correspondant `a des trains ne comportant pas le mˆeme nombre de fois le mot w, sont asymptotiquement ind´ependantes. Cela permet alors de d´emontrer le r´esultat suivant. Proposition 6.3.6. Soit (wN , N ≥ 3) une suite de mots de longueur hN telle que N π(wN ) = O(1) et hN = o(N ). Alors, on a     lim µNwN − νN  = 0, N →∞

186

6 S´equences exceptionnelles dans l’ADN

 o` u νN est la loi de k≥1 kVkN , les variables (VkN , k ≥ 1) ´etant ind´ependantes et distribu´ees suivant les lois de Poisson de param`etres respectifs N θ (k) (wN ). Bien sˆ ur les param`etres θ(k) (wN ) sont inconnus. Mais ils peuvent ˆetre estim´es par les estimateurs convergents suivants :  ˆN (v) v∈C2 (wN ) π (k) 2 k−1 ˆ , ˆ wN π ˆN (wN ), avec α ˆ wN = ˆ wN ) α θN (wN ) = (1 − α π ˆN (wN ) o` uπ ˆN (v) est l’estimateur convergent de π(v) donn´e par (6.5), et C2 (wN ) est l’ensemble C2 d´efini pour le mot wN : c’est l’ensemble des trains comportant exactement 2 occurrences du mot wN . On peut alors montrer (voir [11]) que la convergence ´etablie dans la proposition 6.3.6 reste valide si l’on remplace les param`etres par leur estimation. Plus pr´ecis´ement, on a le r´esultat suivant. Th´ eor` eme 6.3.7. Soit (wN , N ≥ 3) une suite de mots de longueur hN telle que N π(wN ) = O(1) et hN = o(N ). Alors, on a     lim µNwN − ν˜N  = 0, N →∞



k V˜kN , les variables (V˜kN , k ≥ 1) ´etant ind´ependantes (k) et distribu´ees suivant les lois de Poisson de param`etres respectifs N θˆN (wN ). o` u ν˜N est la loi de

k≥1

On peut alors reproduire un raisonnement similaire a` celui d´evelopp´e apr`es le corollaire 6.1.2 pour d´etecter les mots exceptionnels.

6.4 Un autre mod` ele pour la s´ equence d’ADN ` la fin du paragraphe 6.2, nous avons soulign´e le fait que dans le mod`ele de A chaˆıne de Markov consid´er´e, il n’est pas coh´erent d’utiliser le nombre d’occurrences de w− quand on cherche a` d´etecter les mots exceptionnels (voir aussi le troisi`eme point de la remarque 6.1.3) en dehors du cas o` u w est un mot de longueur 3. Ceci remet en cause l’approche ´el´ementaire du paragraphe 6.1. En fait, si l’on consid`ere des mod`eles de chaˆınes de Markov d’ordre h − 2, o` u h est la longueur du mot w, voir la d´efinition ci-dessous, alors le nombre d’occurrences de w− est dans la statistique exhaustive et apparaˆıt naturellement dans la construction d’estimateurs du maximum de vraisemblance. Ceci sugg`ere que l’approche du paragraphe 6.1 s’inscrit plutˆ ot dans le cadre d’un mod`ele de chaˆıne de Markov d’ordre h − 2. L’objectif de ce paragraphe est de g´en´eraliser le th´eor`eme 6.1.1 et le corollaire 6.1.2 au mod`ele de chaˆıne de Markov d’ordre sup´erieur, en utilisant des techniques similaires. De ce fait, les r´esultats seront sugg´er´es au travers d’un probl`eme. D´ efinition 6.4.1. On dit que la suite Y = (Yn , n ≥ 1) est une chaˆıne de n , n ≥ m) est une chaˆıne de Markov. Markov d’ordre m, si la suite (Yn−m+1

6.4 Un autre mod`ele pour la s´equence d’ADN

187

Remarquons qu’une chaˆıne de Markov est une chaˆıne de Markov d’ordre 1, et que si Y est une chaˆıne de Markov d’ordre m, alors elle est ´egalement d’ordre k ≥ m.

Probl` eme 6.4.2. On consid`ere Y = (Yn , n ≥ 1) une chaˆıne de Markov d’ordre m ≥ 1 sur E, fini non r´eduit a` un singleton. Pour tous y ∈ E m , z ∈ E, on pose Q(y ; z) = P(Ym+1 = z|Y1m = y), et on suppose que Q(y ; z) ∈ ]0, 1[. n , n ≥ m) 1. V´erifier que la matrice de transition de la chaˆıne Y˜ = (Yn−m+1 m est d´efinie de la mani`ere suivante : pour y = y1m , y ′ = y ′ 1 ∈ E m , ′ P (y, y ′ ) = 1{y′ m−1 =ym } Q(y ; ym ). 2

1

En d´eduire que la chaˆıne de Markov Y˜ est irr´eductible. On note π = (π(y), y ∈ E m ) la probabilit´e invariante de Y˜ . Pour un mot v = v1 · · · vl de longueur l, le nombre d’occurrences du mot v dans une s´equence de longueur N est d´efini par Nv =

N  k=l

1{Y k

k−l+1

=v} ,

et si l ≥ m + 1, on pose π(v) = π(v1m )

l−m 

Q(vii+m−1 ; vi+m ).

i=1

Soit w = w1 · · · wh un mot de longueur h = m + 2. En particulier, on a π(w) = π(w1h−2 )Q(w1h−2 ; wh−1 )Q(w2h−1 ; wh ). ˆ N (y ; z) = Nyz /Ny . Montrer que 2. Pour y ∈ E m et z ∈ E, on pose Q ˆ QN (y ; z) est un estimateur convergent de Q(y ; z). On pourra ´egalement ˆ N (y ; z) v´erifier, en s’inspirant de la d´emonstration du lemme 6.2.1, que Q est un estimateur asymptotiquement normal de mˆeme variance asymptotique que l’estimateur du maximum de vraisemblance de Q(y ; z). ˆN (y) = Ny /N est un estimateur 3. V´erifier que, pour tout y ∈ E m , π convergent de π(y). 4. D´eduire des questions pr´ec´edentes un estimateur de π(w) construit a` partir ˆ N (y ; z), y ∈ E m , z ∈ E) et π ˆN = (ˆ πN (y), y ∈ E m ). des estimateurs (Q 5. Montrer que p.s. limN →∞ Nw /N = π(w). n , n ≥ h − 1) est une 6. On rappelle que m = h − 2. V´erifier que (Xn = Yn−h+2 h−1 chaˆıne de Markov irr´eductible sur E , de matrice de transition d´efinie h−1 , x′ = x′ 1 ∈ E h−1 par pour x = xh−1 1 h−2

P X (x, x′ ) = 1{x′ h−2 =xh−1 } Q(x′ 1 1

2

; x′h−1 ),

188

6 S´equences exceptionnelles dans l’ADN

et de probabilit´e invariante ) = π(xh−2 )Q(xh−2 ; xh−1 ). π X (xh−1 1 1 1 On note w− = w1 · · · wh−1 le mot w tronqu´e de sa derni`ere lettre, −w = w2 · · · wh , le mot w tronqu´e de sa premi`ere lettre et −w− = w2 · · · wh−1 , le mot w tronqu´e de ses premi`ere et derni`ere lettre. On a π(w−) = π(w1h−2 )Q(w1h−2 ; wh−1 )

et

π(−w) = π(−w−)Q(−w− ; wh−1 ). h−1

, x′ = x′ 1 On consid`ere les fonctions d´efinies pour x = xh−1 1 g1 (x, x′ ) = 1{xh−1 =w−,x′ 1

h−1

=wh }

et

∈ E h−1 :

g2 (x, x′ ) = 1{xh−1 =−w−,x′ 2

h−1

=wh } .

7. V´erifier que ) = 1{xh−1 =w−} Q(−w− ; wh ), P X g1 (xh−1 1 1

) = 1{xh−1 =−w−} Q(−w− ; wh ) P X g2 (xh−1 1 2

X

X

ainsi que (π , P g1 ) = π(w), (π X , (P X g1 )2 ) = π(w)Q(−w− ; wh ), et, en utilisant le fait que π est la probabilit´e invariante associ´ee `a P , que (π X , P X g2 ) = π(−w) et (π X , (P X g2 )2 ) = π(−w)Q(−w− ; wh ). N N N X 8. Calculer k=h g1 (Xk−1 , Xk ), k=h P g1 (Xk−1 ), k=h g2 (Xk−1 , Xk ), N X k=h P g2 (Xk−1 ).

On pose

  Nw− N−w 1 ′′ Nw − ζN . =√ N−w− N 9. Montrer en s’inspirant de la d´emonstration du th´eor`eme 6.1.1 que la ′′ , N ≥ h) converge en loi vers une variable gaussienne centr´ee suite (ζN de variance

π(w−) [1 − Q(−w− ; wh )]. σ ′′2 = π(w) 1 − π(−w−)

On pose ′′ ′′ ′′ = ζN /σN , (6.10) ZN /



N−w ′′ ′′ 2 et σ ′′ 2 = Nw− N−w 1 − Nw− 1− . = σN o` u σN N N N−w− N−w− N−w− 10. Donner l’analogue du corollaire 6.1.2 pour un mod`ele de chaˆıne de Markov d’ordre m = h−2. En d´eduire un test pour identifier les mots exceptionnels ′′ . construits a` partir de la statistique ZN

Les quantit´es Nw− , N−w apparaissent naturellement dans l’estimation de π(w) a l’aide de l’estimateur du maximum de vraisemblance dans un mod`ele de ` chaˆıne de Markov d’ordre h − 2. 

6.5 Conclusion

189

6.5 Conclusion D’apr`es les commentaires qui suivent le lemme 6.2.1, on d´esire connaˆıtre la loi du nombre exact d’occurrences d’un mot w connaissant le nombre d’occurrences des mots de longueur deux, ainsi que la valeur de la premi`ere lettre (i.e. y1 ). Elle est en fait connue explicitement mais difficile a` calculer num´eriquement. Elle permet toutefois de v´erifier la validit´e des th´eor`emes limites pr´esent´es dans ce chapitre (voir [10]). L’approximation par la «loi des petits nombres » semble mieux se comporter pour les mots ayant un faible nombre d’occurrences (mots rares ou mots longs). Il faut ´egalement citer l’existence de m´ethodes de type grandes d´eviations (voir [7]) pour tester si des groupes de mots sont exceptionnellement rares ou fr´equents. Dans l’exemple 6.2.5 nous avons observ´e sur une simulation le comporte′ , d´efinies au parament des variables ZN , d´efinies au paragraphe 6.1, et ZN graphe 6.2, pour une matrice de transition proche de celle estim´ee pour E. coli (voir ci-dessous). Les r´esultats num´eriques qui suivent concernent la s´equence circulaire de l’ADN de E. coli, extraite de [4]. La matrice P estim´ee par la formule du lemme 6.2.1 est ⎛ ⎞ 0.29579 0.22472 0.20825 0.27124 ⎜0.27566 0.23032 0.29390 0.20012⎟ ⎟ PˆN ≃ ⎜ (6.11) ⎝0.22709 0.32620 0.22951 0.21720⎠. 0.18578 0.23426 0.28242 0.29755

Les figures pr´esentent toutes les donn´ees, sauf certaines ayant des valeurs extrˆemes (voir le Tableau 6.1 pour les valeurs maximales et minimales des statistiques). On donne dans la Fig. 6.5 (resp. 6.8) les histogrammes des ′ calcul´ees pour tous les mots de longueur 6 (resp. 8). variables ZN et ZN On remarquera que ni les grandeurs typiques (entre -50 et 50 pour les mots de longueur 6 et entre -15 et 15 pour les mots de longueur 8) ni l’allure des histogrammes ne correspondent `a des r´ealisations de variables al´eatoires gaussiennes centr´ees r´eduites. Les figures sont tr`es diff´erentes de celles obtenues dans l’exemple 6.2.5 sur des simulations. Ainsi, le mod`ele de chaˆıne de Markov vu au paragraphe 6.1 et 6.2 semble inadapt´e. En particulier, les donn´ees de l’ADN d’E. coli, ne peuvent raisonnablement pas ˆetre mod´elis´ees par une chaˆıne de Markov. En fait des mod´elisations plus complexes de l’ADN, prenant en compte plusieurs ph´enom`enes biologiques, sont actuellement utilis´ees pour l’analyse statistique de l’ADN. Pour les mots de longueur 6 (resp. 8), la Fig. 6.6 (resp. 6.9) pr´esente les ′ ) ; la Fig. 6.7 (resp. 6.10) pr´esente les points points de coordonn´ees (ZN , ZN ′′ ′ ′′ ′′ , ZN ), o` u les variables ZN sont d´efinies au de coordonn´ees (ZN , ZN ) et (ZN paragraphe 6.4 par (6.10) (il s’agit d’un mod`ele de chaˆıne de Markov d’ordre 4 pour les mots de longueur 6, et d’ordre 6 pour les mots de longueur 8). On ′ ) est globalement situ´e remarque ´egalement que le nuage de points (ZN , ZN autour de la diagonale, alors que l’on observe un comportement diff´erent pour

190

6 S´equences exceptionnelles dans l’ADN 0.06 0.05 0.04

ZN

0.03 0.02 0.01 0.00 −50

−30

−10

10

30

50

0.06 0.05 0.04

′ ZN

0.03 0.02 0.01 0.00 −50

−30

−10

10

30

50

′ Fig. 6.5. Histogrammes de ZN et ZN pour les mots de longueur 6 observ´es sur l’ADN de E. coli

100 ZN′ 50 GGTCTC 0 + ++ +

+

+ ++

+

+

+ + ++ ++ + + + + + + + + + + + ++ + + + ++ + ++ ++++++++ +++++ + + ++++++ ++++ + ++ +++ + ++++ ++ + +++ + + + + + + ++++++ ++++++ ++++ + ++ ++ ++ + ++++++++ ++++ +++++++ + + ++ + ++ + ++++ + ++++ + ++++++++ ++ ++++++++++++ ++ +++++++++ + +++ +++ + ++ +++ +++++++ ++++++ ++++++++ + + ++++ + ++ + +++++ + +++++++++++++++++ ++++++++ +++ ++ +++ ++ ++++++++ +++ +++ ++++ ++ + + +++ +++ +++ ++ + +++++++ + ++ +++++++++ + +++++ ++ +++++++ ++++++++ + +++ ++ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +++++++++++++++++++++++++++++ ++++ ++++ +++++++ + + ++ ++ ++++ + +++ +++ + + ++++ ++ + ++++ +++ +++++++ +++ +++ +++++++ ++ ++ +++ + + ++ ++ ++++ +++ ++ + + ++ +++ ++ + + + ++++++ ++ ++++ ++++ +++ ++++ ++ +++ +++++ +++ ++ + +++++ + ++ + +++++ + + + + + +++ ++++++++ ++ + + ++ ++ ++ + + +++ ++ ++++ ++ + + ++ ++++ ++ + +++ ++++++ ++ +++ + + ++ ++++ + ++ ++ + +++ + +++++ + ++++++++ + ++ ++ + +++ ++ + + +++ +++ + ++ ++ + + + + + ++++++ ++ +++ + + ++ ++ + ++ +++++ + ++++ ++ ++ ++++++ + +++ ++ ++ ++ ++++ ++ +++ ++++++++ +++ ++ + + ++ ++ +++ ++ ++ + +++ +++ ++++ ++ + + ++++++++ + ++ ++ ++ + +++ + +++ + ++ + + + ++++ ++ + ++++++ ++ ++ ++ + + ++ + + + + + + ++ ++ ++ ++ ++ + ++ ++ + + ++ + ++ + + ++ + + ++ +++ ++ ++ ++ ++ ++++++ + + ++ + ++ ++ + + ++++++ + ++++ + + ++ ++ ++ +++ ++ ++ ++ ++ ++ + + ++ ++ + ++ ++ ++++++++++ ++ +++ + ++ + + + + ++ ++ +++ + ++ + + + + + + + ++ ++ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + ++ + + + + + + + + + + + + + + + + + + + + + + + + + + + ++ +++ + ++ +++++ + +++ ++ + ++ ++ ++ ++++++ ++++++++ +++ ++ + ++ + ++ + ++ +++ ++++++ + ++ ++ ++ + + +++++ ++ +++ + ++++++++++++ ++ + ++++ + +++ + ++ ++ + ++ ++++++ + ++ ++++ + ++ ++ ++++ +++ +++++ + +++++ ++ + ++ + ++ + + + ++ +++ ++ ++ + ++++ + ++ + + ++++++ ++ ++ + +++ ++ +++ + ++++++++ + + + ++ ++ ++ +++++ + + ++++ ++ ++ ++ + ++ ++ ++ + ++ ++ ++++ + +++++ ++ ++ ++ + ++ +++ ++ + +++ ++ + +++++++ +++++ + + ++ + ++ ++ +++ + ++ +++ + + ++ ++ ++ ++ + ++++++ + ++++++++++ ++ +++++ ++++ ++ +++++++++++ ++ ++ +++ + ++ ++ +++++ + ++++ ++ ++ + ++ +++++ ++ ++++++ ++ +++ ++ + ++++ +++ ++ ++ + +++++++++++++++++++ ++ ++ +++++++ + + ++ +++++ + ++++++ ++ +++ ++++ + + ++++++++ + +++ +++ + +++++++ ++ +++ ++++ +++ +++++ ++++ ++++ + +++ +++++ ++++ +++++ ++++++ ++ + +++++++++++ + ++ ++ ++++++ + + +++++ + + + + + + ++ ++ +++ + + +

ZN

CCGCGG CGGCCG 0

Fig. 6.6.

′ (ZN , ZN )

50

100

pour les mots de longueur 6 observ´es sur l’ADN de E. coli

′′ ′ ′′ les couples (ZN , ZN ) et (ZN , ZN ). Les r´esultats sont donc sensibles `a l’ordre de la chaˆıne de Markov, ce qui souligne encore une fois que le mod`ele de chaˆıne de Markov (d’ordre 1) n’est pas adapt´e. Enfin, nous pr´esentons, dans le Tableau 6.2, les r´esultats num´eriques obtenus pour les trois sites de restriction et la s´equence Chi pr´esent´es en introduction de ce chapitre :

6.5 Conclusion

191

100

100 ZN′′

ZN′′

50

50

GGTCTC

GGTCTC

0

0

−50

−50 ZN′

ZN CCGCGG

CCGCGG

CGGCCG

−100 −100

−50

0

−100 −100 100

50

CGGCCG

−50

0

50

100

′′ ′ ′′ Fig. 6.7. (ZN , ZN ) (figure de gauche) et (ZN , ZN ) (figure de droite) pour les mots de longueur 6 observ´es sur l’ADN de E. coli

0.20 0.15 ZN

0.10 0.05 0.00 −15

−10

−5

0

5

10

15

0.20 0.15 ZN′

0.10 0.05 0.00 −15

−10

−5

Fig. 6.8. Histogrammes de ZN et l’ADN de E. coli

0 ′ ZN

5

10

15

pour les mots de longueur 8 observ´es sur

– La premi`ere ligne indique le nombre d’occurrences des s´equences concern´ees. – Pour le mod`ele d´evelopp´e au paragraphe 6.1, on donne le nombre d’occurrences attendu estim´e, Nw− Nwh−1 wh /Nwh−1 , la statistique de test ZN , ainsi que son rang parmi tous les ZN des mots de mˆeme longueur (46 = 4 096 mots distincts pour les sites de restriction consid´er´es qui

192

6 S´equences exceptionnelles dans l’ADN 70 50 30

ZN′ GCTGGTGG

10

ZN

10

Fig. 6.9.

′ (ZN , ZN )

30

50

70

pour tous les mots de longueur 8 observ´es sur l’ADN de E. coli

Tableau 6.1. Valeurs extrˆemales des statistiques pour les mots de longueur 6 et 8 Pour une simulation, voir l’exemple 6.2.5. ′ ′ ′′ ′′ Longueur des mots min(ZN ) max(ZN ) min(ZN ) max(ZN ) min(ZN ) max(ZN ) 6 - 3.8 3.6 - 3.5 3.9 - 3.8 3.7 8 - 5.3 3.7 - 4.1 4.6 - 5.8 3.5 Pour la s´equence de E. coli. ′ ′ ′′ ′′ Longueur des mots min(ZN ) max(ZN ) min(ZN ) max(ZN ) min(ZN ) max(ZN ) 6 -218.4 40.2 -42.6 101.7 -267.9 24.0 8 - 94.7 14.4 - 13.5 58.0 - 21.0 8.2

comportent 6 lettres, et 48 = 65 536 mots distincts pour le motif Chi de 8 lettres). – Pour le mod`ele d´evelopp´e au paragraphe 6.2, on donne le nombre d’oc′ , ainsi que currences attendu estim´e, π ˆN (w), la statistique de test ZN ′ son rang parmi tous les ZN des mots de mˆeme longueur. – Pour le mod`ele d´evelopp´e au paragraphe 6.4 (variante du premier mod`ele pour des chaˆınes de Markov d’ordre sup´erieur), on donne le nombre d’occurrences attendu estim´e, Nw− N−w /N−w− , la statistique de test ′′ ′′ , ainsi que son rang parmi tous les ZN des mots de mˆeme longueur. ZN Enfin, les r´esultats num´eriques correspondant a` l’approximation par la « loi des petits nombres », pr´esent´ee au paragraphe 6.3, n´ecessitent des calculs plus d´elicats pour les mots pouvant se chevaucher. Ils ne sont pas pr´esent´es ici, mais ils sont disponibles grˆ ace aux logiciels de l’INRA (voir le site http://www-mig.jouy.inra.fr/ssb/rmes/). Pour les mod`eles ci-dessus, presque tous les mots ont des p-valeurs extrˆemement faibles ou extrˆemement ´elev´ees (on a d´ej` a remarqu´e que le mod`ele

6.5 Conclusion

193

Tableau 6.2. Valeurs calcul´ees pour trois sites de restriction de longueur 6 (4 096 mots de longueur 6), et pour le motif Chi de longueur 8 (65 536 mots de longueur 8) de E. coli S´equence GGTCTC CGGCCG CCGCGG GCTGGTGG Nombre d’occurrences (Nw ) 124 284 657 499 Mod`ele du paragraphe 6.1 Nw− Nwh−1 wh /Nwh−1 ZN rang rang (%)

559.9 984.0 1425.3 -44.8 -49.5 -34.2 4077 4085 4055 99.5 % 99.7 % 99.0 %

291.9 10.6 31 0.05 %

Mod`ele du paragraphe 6.2 π ˆN (w) ′ ZN rang rang (%)

644.2 1756.7 1756.7 -20.6 -35.4 -26.5 3936 4093 4069 96.1 % 99.9 % 99.3 %

70.1 51.3 6 0.01 %

Mod`ele du paragraphe 6.4 Nw− N−w /N−w− ′′ ZN rang rang (%)

332.0 859.2 1404.7 -23.0 -46.2 -37.6 4079 4093 4089 99.6 % 99.9 % 99.8 %

420.2 5.7 27 0.04 %

70

70 GCTGGTGG

50 30

30

10

10

−10

−10

−30

−30

−50

−50

−70

GCTGGTGG

50

ZN′′

ZN

−90 −110 −110 −90 −70 −50 −30 −10 10 30 50 70

−70

ZN′′

ZN′

−90 −110 −110 −90 −70 −50 −30 −10 10 30 50 70

′′ ′ ′′ Fig. 6.10. (ZN , ZN ) (figure de gauche) et (ZN , ZN ) (figure de droite) pour tous les mots de longueur 8 observ´es sur l’ADN de E. coli

n’´etait pas vraiment adapt´e aux observations). En revanche, si l’on ne peut pas appliquer les proc´edures de tests d´ecrites dans les paragraphes pr´ec´edents, il est int´eressant de regarder les rangs des statistiques. En particulier, on constate dans le Tableau 6.2 que les trois sites de restriction ont des rangs tr`es

194

6 S´equences exceptionnelles dans l’ADN

´elev´es dans les trois mod`eles (i.e. des valeurs tr`es n´egatives des statistiques, parmi les cinquante derni`eres sur 46 = 4 096, sauf pour une valeur), et le motif Chi a un rang tr`es faible (i.e. des valeurs tr`es positives des statistiques, parmi les quarante premiers mots sur 48 = 65 536). On pourra comparer les positions des mots d’int´erˆet, sites de restriction et motif Chi, dans les nuages de points correspondant a` une simulation (Figs. 6.3 et 6.4) et les nuages correspondant a l’ADN d’E. coli (Figs. 6.5 et 6.8). En ce sens le mod`ele d´etecte bien ces mots ` qui poss`edent un rˆ ole biologique.

R´ ef´ erences 1. D. Aldous. Probability approximations via the Poisson clumping heuristic, volume 77 de Applied Mathematical Sciences. Springer-Verlag, 1989. 2. A. Barbour, L. Holst et S. Janson. Poisson approximation. Oxford Studies in Probability. Clarendon Press, 1992. 3. P. Bickel et K. Doksum. Mathematical statistics. Basic ideas and selected topics. Holden-Day Series in Probability and Statistics. Holden-Day, San Francisco, 1977. 4. F. Blattner, G. Plunkett, C. Bloch, N. Perna, V. Burland, M. Riley, J. ColladoVides, J. Glasner, C. Rode, G. Mayhew, J. Gregor, N. Davis, H. Kirkpatrick, M. Goeden, D. Rose, B. Mau et Y. Shao. The complete genome sequence of Escherichia coli K-12. Science, 277 : 1453–1474, 1997. 5. M. El Karoui, M. Schaeffer, V. Biaudet, A. Bolotin, A. Sorokin et A. Gruss. Orientation specificity of the Lactococcus lactis Chi site. Genes to Cells, 5 : 453–461, 2000. 6. S. Kowalczykowski, D. Dixon, A. Eggleston, S. Lauder et W. Rehauer. Biochemistry of homologous recombination in Escherichia coli. Microbiol. Rev., 58 : 401–465, 1994. 7. G. Nuel. Grandes d´ eviations et chaˆınes de Markov pour l’´ etude des occurrences ´ de mots dans les s´ equences biologiques. Th`ese, Universit´e d’Evry Val d’Essonne, 2001. 8. B. Prum, F. Rodolphe et E. de Turckheim. Finding words with unexpected frequencies in deoxyribonucleic acid sequences. J.R. Statist. Soc. B, 57(1) : 205– 220, 1995. 9. S. Robin, F. Rodolphe et S. Schbath. ADN, mots et mod` eles. Belin, 2003. 10. S. Robin et S. Schbath. Numerical comparison of several approximations of the word count distribution in random sequences. J. Comp. Biol., 2001. ´ 11. S. Schbath. Etude asymptotique du nombre d’occurrences d’un mot dans une chaˆıne de Markov et application a ` la recherche de mots de fr´ equences exceptionnelles dans les s´equences d’ADN. Th`ese, Universit´e Ren´e Descartes (Paris V), 1995. 12. E. Seneta. Nonnegative matrices and Markov chains. Springer, New-York, seconde ´edition, 1981.

7 Estimation du taux de mutation de l’ADN

Depuis les ann´ees 1990, les mod`eles probabilistes pour l’´evolution g´en´etique connaissent un essor consid´erable. Ils permettent d’aborder pour ne citer que ces exemples : – la reconstruction des arbres g´en´ealogiques ou phylog´eniques avec des techniques r´ecentes `a partir des s´equences d’ADN, voir les monographies [17 ou 9] et les nombreux sites consacr´es aux algorithmes de reconstruction d’arbres, – l’effet de l’histoire des populations, expansion ou r´ecession, sur la diversit´e de l’ADN, voir par exemple [4], – l’influence des mutations neutres ou favorables sur la diversit´e de l’ADN, voir les monographies [5 et 4]. Ce chapitre est une introduction au mod`ele d’´evolution de Wright-Fisher, qui est un mod`ele ´el´ementaire mais repr´esentatif. Le lecteur int´eress´e pourra consulter les monographies de Ewens [5] (2004), Tavar´e [17] (2001) et Durrett [4] (2002) ainsi que leurs r´ef´erences, o` u des mod`eles plus g´en´eraux sont ´etudi´es et de nombreux th`emes li´es `a l’´evolution g´en´etique des populations sont trait´es. Ce chapitre est organis´e comme suit. Le paragraphe 7.1 pr´esente le mod`ele d’´evolution de Wright-Fisher d´evelopp´e `a partir des ann´ees 1920. Le paragraphe 7.2 est consacr´e `a l’´etude des arbres g´en´ealogiques correspondants, qui repose sur les processus de coalescence. Le mod`ele de Wright-Fisher permet de v´erifier que sans mutation la diversit´e biologique disparaˆıt, voir le paragraphe 7.3. Enfin, le paragraphe 7.4 montre comment on peut, grˆ ace aux mod`eles d’arbres g´en´ealogiques, estimer le taux de mutation de l’ADN. Ces m´ethodes d’estimation reposent sur les diff´erences observ´ees entre les s´equences d’ADN au sein d’une mˆeme population. En revanche, la reconstruction d’un arbre g´en´ealogique, a` partir des s´equences d’ADN d´epasse le cadre de ce chapitre.

196

7 Estimation du taux de mutation de l’ADN

7.1 Le mod` ele d’´ evolution de population On pr´esente le mod`ele d’´evolution de population de Wright-Fisher, introduit par Fisher [6, 7] a` partir de 1922 et par Wright [19] en 1931. Les mod`eles d’´evolution de population ont ´et´e g´en´eralis´es ult´erieurement par Cannings [2, 3]. Par simplicit´e on consid`ere une population haplo¨ıde (ce qui correspond a une population asexu´ee) : chaque individu poss`ede un seul exemplaire de ` chaque double brin d’ADN. C’est par exemple le cas de la population humaine si l’on s’int´eresse `a l’ADN mitochondrial. Ce dernier est en fait uniquement transmis par la m`ere. L’´etude de son ´evolution repose donc sur un mod`ele de population haplo¨ıde, car seule l’´evolution de la population f´eminine conditionne l’´evolution de cet ADN. On consid`ere le mod`ele ´el´ementaire suivant : – La taille de la population reste constante au cours du temps, ´egale `a N . Cette hypoth`ese est r´ealiste quand l’´ecosyst`eme est stable. (En cas de colonisation ou de changement brusque de l’environnement tel que changement climatique ou ´epid´emie par exemple, la taille de la population peut varier de mani`ere importante. On peut modifier le mod`ele pour en tenir compte.) – Les g´en´erations ne se chevauchent pas : `a chaque instant k ∈ N, la k-i`eme g´en´eration meurt et donne naissance aux N individus de la (k + 1)-i`eme g´en´eration. Cette hypoth`ese est v´erifi´ee par exemple pour les plantes annuelles. (Le mod`ele de Moran [13] est une version en temps continu du mod`ele pr´esent´e ; il permet de s’affranchir de cette hypoth`ese.) ∈ – La reproduction est al´eatoire. Plus pr´ecis´ement, si on note ak+1 i {1, . . . , N } le parent de l’individu i de la g´en´eration k + 1, vivant a` la , i ∈ {1, . . . , N }, k ∈ N) g´en´eration k, alors les variables al´eatoires (ak+1 i sont ind´ependantes et de mˆeme loi uniforme sur {1, . . . , N }. Tout se passe comme si chaque individu choisissait de mani`ere ind´ependante son parent dans la g´en´eration pr´ec´edente. En particulier, ce mod`ele ne permet pas d’appr´ehender l’´evolution de la population en pr´esence d’avantage s´electif. = i} le nombre d’enfants de l’inOn note νik = Card {r ∈ {1, . . . , N }; ak+1 r dividu i ∈ {1, . . . , N } de la g´en´eration k. Bien sˆ ur les variables al´eatoires ν k = N k k (νi , i ∈ {1, . . . , N }) ne sont pas ind´ependantes car i=1 νi = N . Comme chaque enfant de la g´en´eration k +1 choisit uniform´ement et ind´ependamment de param`etre son parent, on en d´eduit que la loi de ν k est la loi multinomiale N (N, (1/N, . . . , 1/N )) : pour j1 , . . . , jN ∈ N tel que k=1 jk = N , on a k = jN ) = P(ν1k = j1 , . . . , νN

N! 1 . j1 ! . . . jN ! N N

Les variables al´eatoires (ν k , k ≥ 0) sont ind´ependantes et de mˆeme loi. L’exercice suivant permet de donner une autre repr´esentation du vecteur al´eatoire ν k .

´ 7.2 Etude de l’arbre phylog´enique

197

Exercice 7.1.1. Soit Y1 , . . . , YN des variables al´eatoires ind´ependantes de Poisson de param`etre θ > 0. N 1. D´eterminer en utilisant les fonctions caract´eristiques la loi de i=1 Yi . 2. Montrer que ν k a mˆeme loi que (Y1 , . . . , YN ) conditionnellement a` l’´ev´eN nement { i=1 Yi = N }.

3. V´erifier que la loi de νik est la loi binomiale de param`etre (N, 1/N ).



´ 7.2 Etude de l’arbre phylog´ enique Le but de ce paragraphe est de calculer, pour le mod`ele pr´esent´e au paragraphe 7.1, le temps d’apparition dans le pass´e de l’ancˆetre commun le plus r´ecent (ACPR) d’un groupe de r individus vivant aujourd’hui. Le graphique 7.1 pr´esente une r´ealisation de l’´evolution d’une population de taille N = 5 sur 10 g´en´erations. L’arbre g´en´ealogique des individus vivant a la derni`ere g´en´eration est en trait plein. Le temps d’apparition de l’ACPR ` de toute la g´en´eration 10 est de 4 g´en´erations : l’ACPR apparaˆıt a` la sixi`eme g´en´eration. Le graphique 7.2 pr´esente une r´ealisation de l’arbre g´en´ealogique des individus vivant a` la derni`ere g´en´eration (pour une population de N = 20 individus) sur 60 g´en´erations. Le temps d’apparition de l’ACPR de toute la population est de 40 g´en´erations. 7.2.1 Temps d’apparition de l’ancˆ etre de deux individus On consid`ere deux individus a` l’instant actuel. On d´esire savoir s’ils poss`edent un ancˆetre commun. On note τ2 ∈ N∗ ∪ {+∞} le nombre de g´en´erations ´ecoul´ees dans le pass´e pour observer leur premier ancˆetre commun, avec la convention que τ2 = +∞, si les deux individus n’ont pas d’ancˆetre commun. Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

0

1

2

3

4

5

6

7

8

9 10

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

Ο

0

1

2

3

4

5

6

7

8

9 10

Fig. 7.1. G´en´ealogie d’une population de N = 5 individus sur 10 g´en´erations. (Le graphique de droite reprend la mˆeme g´en´ealogie que le graphique de gauche, mais avec une num´erotation des individus diff´erente, de sorte que les branches ne se croisent pas)

198

7 Estimation du taux de mutation de l’ADN

0

10

20

30

40

50

60

Fig. 7.2. G´en´ealogie d’une population de N = 20 individus sur 60 g´en´erations

On dit que τ2 est le temps de coalescence des deux individus. La probabilit´e que deux individus donn´es diff´erents aient des parents diff´erents `a la g´en´eration pr´ec´edente (i.e. τ2 > 1) est P(τ2 > 1) =

1 N (N − 1) . =1− N2 N

On a utilis´e le fait que chaque individu choisit de mani`ere uniforme son parent dans la g´en´eration pr´ec´edente, et ce ind´ependamment des autres individus. Comme les choix des parents sont ind´ependants a` chaque g´en´eration, on en d´eduit que r  1 . P(τ2 > r) = 1 − N

La loi de τ2 est donc la loi g´eom´etrique de param`etre p′2 = 1/N . En particulier, τ2 est p.s. fini. On ´etudie le mod`ele avec l’asymptotique N grand et la normalisation suivante o` u une unit´e de temps correspond `a N g´en´erations. Le temps ´ecoul´e depuis l’apparition de l’ACPR est donc τ2 /N . Le lemme suivant permet de d´eterminer la loi asymptotique de τ2 /N quand N tend vers l’infini.

Lemme 7.2.1. Soit (Vn , n ≥ 1) une suite de variables al´eatoires de lois g´eom´etriques de param`etres (µn , n ≥ 1) telle que limn→∞ nµn = µ > 0. La Vn suite ( , n ≥ 1) converge en loi vers V de loi exponentielle de param`etre µ. n D´emonstration. La transform´ee de Laplace de Vn /n, voir la remarque A.2.7, est donn´ee pour α ≥ 0 par : E[e−αVn /n ] =

µn µn e−α/n . = −α/n 1 − (1 − µn ) e µn − (1 − eα/n )

´ 7.2 Etude de l’arbre phylog´enique

On en d´eduit que lim E[e−αVn /n ] =

n→∞

199

µ . µ+α

On reconnaˆıt, pour le membre de droite, la transform´ee de Laplace de la loi exponentielle de param`etre µ. La conclusion d´ecoule alors du th´eor`eme A.3.9. ⊓ ⊔ Dans le cas d’une population comportant N individus, et dans une ´echelle de temps o` u une unit´e est ´egale `a N g´en´erations, le temps d’apparition de l’ACPR pour deux individus donn´es est asymptotiquement distribu´e suivant la loi exponentielle de param`etre 1. Comme l’esp´erance de la loi exponentielle de param`etre 1 est 1, on en d´eduit que E[τ2 ] ∼ N quand N → ∞. 7.2.2 Temps d’apparition de l’ancˆ etre de r individus On note k le nombre d’ancˆetres distincts que les r individus, vivant aujourd’hui, poss`edent n g´en´erations dans le pass´e, et A1 , . . . , Ak la descendance actuelle de chacun des k ancˆetres parmi les r individus. Ainsi Yn = {A1 , . . . , Ak } forme une partition de {1, . . . , r}. On note Pr l’ensemble fini des partitions de {1, . . . , r}. Le processus Y = (Yn , n ≥ 0), a` valeurs dans Pr , est le processus de coalescence en temps discret associ´e au processus d’´evolution de la population. On remarque que Y0 est la partition triviale form´ee de r singletons. Comme `a chaque g´en´eration les enfants choisissent leur parent de mani`ere uniforme et ind´ependante, il s’en suit que le processus Y est une chaˆıne de Markov a` valeurs dans Pr . On note P sa matrice de transition. Pour expliciter P , on introduit un ordre partiel sur les partitions. On dit que η = {B1 , . . . , Bℓ } est une partition plus grossi`ere que ξ = {A1 , . . . , Ak } si pour tout 1 ≤ i ≤ ℓ, Bi est la r´eunion d’un ou plusieurs ´el´ements de ξ. On note alors η  ξ. On note |ξ| = k le nombre de sous-ensembles non vides qui forment la partition ξ. En particulier, si η  ξ, on a |η| ≤ |ξ|. On remarque que la partition triviale r´eduite a` tout l’ensemble, ξ0 = {{1, . . . , r}}, est un ´el´ement absorbant de la chaˆıne de Markov. On calcule la matrice de transition P (ξ, η) pour ξ = ξ0 (i.e. pour ξ tel que |ξ| ≥ 2) : – Si η n’est pas plus grossi`ere que ξ, la transition est impossible et on a P (ξ, η) = 0. – Si η = ξ, alors les |ξ| individus ont des ancˆetres tous distincts. Le premier individu a N choix possibles pour son ancˆetre, le deuxi`eme N − 1, . . . et le dernier N − |ξ| +1. Il existe donc N !/(N − |ξ|)! configurations qui conviennent parmi les N |ξ| configurations ´equiprobables pour le choix des ancˆetres des |ξ| individus. Il vient  |ξ| −1   |ξ|(|ξ| −1) k N! + O(N −2 ). =1− = 1− P (ξ, ξ) = |ξ| N 2N N (N − |ξ|)! k=1

200

7 Estimation du taux de mutation de l’ADN

– Si η  ξ et |η| = |ξ| −1, alors seulement deux individus fix´es ont un ancˆetre commun `a la g´en´eration pr´ec´edente. Ces deux individus ont N choix possibles pour leur ancˆetre commun et les |ξ| −2 autres individus ont respectivement N −1, . . . et N −|ξ| +2 choix possibles. Il existe donc N !/(N − |ξ| +1)! configurations qui conviennent. On obtient  |ξ| −2  1 1  k N! + O(N −2 ), = = 1− P (ξ, η) = |ξ| N N N N (N − |ξ| +1)! k=1 avec la convention

0

k=1



1−

k N



= 1. On remarque qu’il existe



 |ξ| = 2

|ξ|(|ξ| −1) choix possibles pour les deux individus qui ont un ancˆetre 2  commun `a la g´en´eration pr´ec´edente. Ainsi on a P (ξ, η) =

|ξ|(|ξ| −1) + O(N −2 ). 2N  P (ξ, η) = 1 et P (ξ, ξ) + – Comme η

ηξ, |η|=|ξ| −1



P (ξ, η) = 1 + O(N −2 ),

ηξ, |η|=|ξ| −1

on en d´eduit que pour η  ξ et |η| < |ξ| −1, alors P (ξ, η) = O(N −2 ).

On introduit les temps successifs de sauts de la chaˆıne Y . On note τ0 = 0 et S0′ = 0, et pour k ≥ 1, on d´efinit par r´ecurrence ′ ′ τk = inf{n ≥ 1; YSk−1 }, +n = YSk−1

′ avec la convention inf ∅ = 0, et Sk′ = Sk−1 + max(τk , 1). Pour k ∈ N, on ′ ′ pose Zk = YSk et on note R = inf{k ≥ 0 ; Zk′ = ξ0 }, de sorte que (Zk′ , k ∈ {0, . . . , R}) repr´esente les ´etats successifs diff´erents de la chaˆıne Y . On rappelle, voir th´eor`eme 1.2.2, que Z ′ = (Zn′ , n ∈ N) est une chaˆıne de Markov, appel´ee chaˆıne trace, de matrice de transition Q′ : pour ξ = ξ0 et η = ξ, ⎧ 2 ⎨ + O(N −1 ) si η  ξ et |η| = |ξ| −1, P (ξ, η) ′ = |ξ|(|ξ| −1) Q (ξ, η) = ⎩ 1 − P (ξ, ξ) O(N −1 ) sinon.

On remarque que R ≤ r − 1 et Zn′ = ξ0 pour n ≥ R. D’apr`es le th´eor`eme 1.2.2, les temps successifs de sauts sont conditionnellement `a Z ′ des variables al´eatoires ind´ependantes, et pour 1 ≤ n ≤ R, la loi de τn est la loi g´eom´etrique ′ −1) Z ′ ( Zn−1 ′ ′ de param`etre 1 − P(Zn−1 + O(N −2 ). , Zn−1 ) = n−1 2N On d´emontre le r´esultat suivant sur la convergence de la chaˆıne Z ′ et des temps successifs de sauts renormalis´es.

´ 7.2 Etude de l’arbre phylog´enique

201

 τr−1 ′ τ1 , Zr ), N ≥ r Th´ eor` eme 7.2.2. Soit r ≥ 2. La suite (Z0′ , , . . . , N N u: converge en loi vers (Z0 , Tr , . . . , T2 , Zr ), o` – Z = (Zk , k ≥ 0) est une chaˆıne de Markov sur Pr , pour laquelle ξ0 est un point absorbant et de matrice de transition Q d´efinie : pour ξ = ξ0 par ⎧ 2 ⎨ si η  ξ et |η| = |ξ| −1, Q(ξ, η) = |ξ|(|ξ| −1) ⎩ 0 sinon.

Et Z0 est la partition triviale de {1, . . . , r} en r singletons. – Les variables al´eatoires (Z, Tr , . . . , T2 ) sont ind´ependantes. – Pour 1 ≤ k ≤ r, la loi de Tk est la loi exponentielle de param`etre k(k − 1) . 2 Remarque 7.2.3. On peut remarquer que Zk = ξ0 pour k ≥ r et que |Zk | = max(r−k, 1). En particulier, lors de l’apparition d’un ancˆetre commun, cela ne concerne que deux individus seulement. La variable Tk repr´esente le temps `a attendre pour observer l’apparition d’un ancˆetre commun quand on consid`ere une population de k individus. Cette derni`ere remarque justifie la num´erotation de ces temps d’attente. Dans l’approche asymptotique N grand, le temps d’attente de l’ACPR de u Wr = T2 + . . . + Tr . En moyenne, r individus est donc de l’ordre de N Wr , o` on a E[Wr ] =

r 

k=2

E[Tk ] =

r 

k=2

r

 2 2 2 2 = − =2− . k(k − 1) k−1 k r k=2

On remarque que la derni`ere coalescence n´ecessite une dur´ee T2 d’esp´erance 1, qui repr´esente en moyenne plus de la moiti´e du temps d’atteinte de l’´etat le temps absorbant ξ0 (voir les graphiques 7.1 et 7.2). Ainsi, pour   N grand, 1 g´en´erations. d’apparition de l’ACPR est en moyenne de l’ordre de 2N 1 − r ♦ D´emonstration du th´eor`eme 7.2.2. Rappelons que si τ suit la loi g´eom´etrique 1−q de param`etre 1 − q, alors on a, pour α ≥ 0, E[e−ατ ] = α . Soit e −q α1 , . . . , αr−1 ∈ R+ et F0 , . . . , Fr des fonctions r´eelles born´ees d´efinies sur Pr . En conditionnant par rapport a` (Z0′ , . . . , Zr′ ), on obtient ′ )F (Zr′ )], E[F0 (Z0′ ) e−α1 τ1 /N· · · e−αr−1 τr−1 /N Fr (Zr′ )] = E[G′0 (Z0′ ) · · · G′r−1 (Zr−1

o` u G′k (ξ) = Fk (ξ) d´eduit que

1 − P (ξ, ξ) si ξ = ξ0 et G′k (ξ0 ) = Fk (ξ0 ) e−αk /N . On en eαk /N −P (ξ, ξ)

202

7 Estimation du taux de mutation de l’ADN

E[F0 (Z0′ ) e−α1 τ1 /N · · · e−αr−1 τr−1 /N Fr (Zr′ )] ⎞ ⎛ r−1   G′k (ηk )Q′ (ηk , ηk+1 )⎠ F (ηr ), =⎝ η1,...,ηr ∈Pr k=0

o` u η0 est la partition triviale en r singletons. Par passage a` la limite, on en d´eduit que lim E[F0 (Z0′ ) e−α1 τ1 /N · · · e−αr−1 τr−1 /N Fr (Zr′ )] ⎛ ⎞ r−1   =⎝ Gk (ηk )Q(ηk , ηk+1 )⎠ F (ηr ), (7.1)

N →∞

η1,...,ηr ∈Pr k=0

|ξ|(|ξ| −1) si ξ =  ξ0 et Gk (ξ0 ) = Fk (ξ0 ). En choisis|ξ|(|ξ| −1) + 2αk sant α1 = · · · = αr−1 = 0, on en d´eduit que

o` u Gk (ξ) = Fk (ξ)

lim E[F0 (Z0′ ) · · · Fr (Zr′ )] = E[F0 (Z0 ) · · · Fr (Zr )],

N →∞

o` u Z = (Zk , k ≥ 0) est une chaˆıne de Markov sur Pr issue de η0 et de matrice de transition Q donn´ee dans le th´eor`eme. En particulier, on a p.s. que |Zk | = max(r − k, 1). Ainsi, dans le membre de droite de l’´egalit´e (7.1), seuls les termes tels que |ηk | = r − k pour 0 ≤ k ≤ r − 1 et ηr = ξ0 ont une contribution non nulle a` la somme. On en d´eduit que Gk (ηk ) = Fk (ηk )

(r − k)(r − k − 1) . (r − k)(r − k − 1) + 2αk

Il vient lim E[F0 (Z0′ ) e−α1 τ1 /N · · · e−αr−1 τr−1 /N Fr (Zr′ )]

N →∞

= E[F0 (Z0 ) · · · Fr (Zr )]

r−1 

k=0

(r − k)(r − k − 1) . (r − k)(r − k − 1) + 2αk

(r − k)(r − k − 1) est la transform´ee de Laplace de Tr−k , de (r − k)(r − k − 1) + 2αk loi exponentielle de param`etre (r − k)(r − k − 1)/2, on a Comme

lim E[F0 (Z0′ ) e−α1 τ1 /N · · · e−αr−1 τr−1 /N Fr (Zr′ )]

N →∞

= E[F0 (Z0 ) · · · Fr (Zr )]

r 

E[e−αr−j+1 Tj ].

j=2

Si l’on consid`ere des variables T2 , . . . , Tr ind´ependantes entre elles, ind´ependantes de Z = (Zk , k ≥ 0) et telles que Tk suit la loi exponentielle de param`etre k(k − 1)/2, alors, d’apr`es les r´esultats de convergence du para-

7.3 Le mod`ele de Wright-Fisher

203

 τr−1 ′ τ1 , Zr ), N ≤ r converge graphe A.3.1 en appendice, la suite (Z0′ , , . . . , N N en loi vers (Z0 , Tr , . . . , T2 , Zr ). Ceci termine la d´emonstration du th´eor`eme. ⊓ ⊔ 7.2.3 Processus de Kingman et commentaires On conserve les notations du th´eor`eme 7.2.2. On pose pour 1 ≤ k ≤ r−1, Sk =  r efinit le processus `a temps continu i=r−k+1 Ti , S0 = 0 et Sr = +∞. On d´ Ut = Zk pour t ∈ [Sk , Sk+1 [. Ce processus est appel´e processus de coalescence de Kingman [10]. (Il s’agit d’une chaˆıne de Markov a` temps continu, voir le Chap. 8, et plus pr´ecis´ement le paragraphe 8.1). Plus g´en´eralement il peut ˆetre d´efini pour r = +∞, de sorte que Z0 est la partition triviale de N∗ en singletons. On peut g´en´eraliser le processus de coalescence, voir Pitman [14], pour obtenir : – des coalescences multiples qui mod´elisent le fait que pour le processus limite, plus que deux individus peuvent avoir le mˆeme ancˆetre commun a la g´en´eration pr´ec´edente, ` – des coalescences simultan´ees qui mod´elisent le fait que plusieurs ancˆetres communs apparaissent simultan´ement `a la mˆeme g´en´eration. Les processus de coalescence permettent de mod´eliser des ph´enom`enes en chimie, physique, astronomie ou biologie, voir par exemple l’´etude d’Aldous [1]. Le chapitre 12 est en partie consacr´e `a la pr´esentation et `a la r´esolution d’´equations de coagulation qui correspondent a` des ph´enom`enes de coalescence. D’autres m´ecanismes de reproduction que «chaque enfant choisit ind´ependamment et uniform´ement son parent » permettent d’obtenir le processus de coalescence de Kingman ou des processus de coalescence plus g´en´eraux. L’´etude de ces processus attire beaucoup l’attention depuis la fin des ann´ees 1990 et le d´ebut des ann´ees 2000. Voir par exemple les travaux de M¨ ohle [11], M¨ ohle et Sagitov [12], Sagitov [15], Schweinsberg [16] et leurs r´ef´erences.

7.3 Le mod` ele de Wright-Fisher L’exemple suivant permet d’introduire un peu de vocabulaire. Exemple 7.3.1. Un all`ele est une version d’un g`ene. Ainsi chez l’homme, le g`ene qui code pour le groupe sanguin poss`ede trois all`eles diff´erents : A, B ´ et O. Etant donn´e que l’homme est diplo¨ıde, c’est-`a-dire qu’il poss`ede deux exemplaires de chaque chromosome, il existe six g´enotypes diff´erents : AA, AB, AO, BB, BO, OO. En fait comme l’all`ele O est r´ecessif (en pr´esence d’un all`ele A ou B, l’all`ele O n’est pas exprim´e), on distingue seulement quatre ph´enotypes ou classes diff´erentes de groupes sanguins : A, B, O et AB. ♦ Le mod`ele de Wright-Fisher concerne l’´etude de l’´evolution de la r´epartition de deux all`eles, A et a, au sein d’une population. Le mod`ele d’´evolution de la population haplo¨ıde utilis´e est celui d´ecrit au paragraphe 7.1.

204

7 Estimation du taux de mutation de l’ADN

On note Xk le nombre d’all`eles A pr´esents `a la g´en´eration k dans la population. Comme l’´evolution de la population a` l’instant k+1 ne d´epend des g´en´erations pass´ees qu’au travers de la g´en´eration k, il est clair que (Xk , k ≥ 0) est une chaˆıne de Markov homog`ene. Si Xk = i, chaque enfant de la g´en´eration k + 1 a une probabilit´e i/N d’avoir un parent poss´edant l’all`ele A. Chaque enfant choisissant son parent de mani`ere ind´ependante, on en d´eduit que conditionnellement a` Xk = i, la loi de Xk+1 est une loi binomiale de param`etre (N, i/N ). La matrice de transition, P , est donc : pour i, j ∈ {0, . . . , N } N −j    j  i i N 1− . P (i, j) = P(Xk+1 = j|Xk = i) = j N N On remarque que si Xk = 0 (resp. Xk = N ), alors pour tout n ≥ k, Xn = 0 (resp. Xn = N ). Les ´etats 0 et N sont des ´etats absorbants. Si a` un instant donn´e la diversit´e disparaˆıt, elle ne r´eapparaˆıt plus. On note τ le premier instant de disparition de la diversit´e τ = inf{k ≥ 0, Xk ∈ {0, N }}, avec la convention inf ∅ = +∞. Lemme 7.3.2. La variable al´eatoire τ est p.s. finie. De plus, on a P(Xτ = N |X0 = i) = i/N pour tout i ∈ {0, . . . , N }. Ainsi la probabilit´e que toute la population finisse par poss´eder l’all`ele A (resp. a) est ´egale `a la proportion initiale de l’all`ele A (resp. a). On remarque que dans ce mod`ele la diversit´e disparaˆıt p.s. en temps fini. Pour tenir compte du fait que l’on observe de la diversit´e dans les populations actuelles, il est n´ecessaire de compl´eter le mod`ele de Wright-Fisher, en tenant compte par exemple des mutations. Une mod´elisation ´el´ementaire des mutations est pr´esent´ee au paragraphe suivant. D´emonstration. Si on pose p = minx∈[0,1] xN + (1 − x)N = 2−N +1 , il vient pour tout i ∈ {1, . . . , N − 1}, N  N  i i + 1− ≥ p. P(τ = 1|X0 = i) = P(X1 ∈ {0, N }|X0 = i) = N N On pose q = 1 − p. Pour tout i ∈ {1, . . . , N − 1}, on a P(τ > 1|X0 = i) ≤ q. En utilisant la propri´et´e de Markov pour X, il vient pour k ≥ 2, P(τ > k|X0 = i) =

N −1 

P(Xk ∈ {0, N }, Xk−1 = j|X0 = i)

N −1 

P(Xk ∈ {0, N }|Xk−1 = j, X0 = i)P(Xk−1 = j|X0 = i)

j=1

=

j=1

7.3 Le mod`ele de Wright-Fisher

=

N −1  j=1

≤q

205

P(X1 ∈ {0, N }|X0 = j)P(Xk−1 = j|X0 = i)

N −1 

P(Xk−1 = j|X0 = i)

j=1

= qP(τ > k − 1|X0 = i). Par r´ecurrence, on en d´eduit que P(τ > k|X0 = i) ≤ q k−1 P(τ > 1|X0 = i) = q k . Comme {τ = +∞} est la limite d´ecroissante des ´ev´enements {τ > k} quand k tend vers l’infini, on d´eduit de la propri´et´e de convergence monotone des probabilit´es que pour tout i ∈ {1, . . . , N − 1}, P(τ = +∞|X0 = i) = lim P(τ > k|X0 = i) = 0. k→∞

Ainsi τ est p.s. fini. On remarque que Xn = Xτ 1{τ ≤n} + Xn 1{τ >n} . Comme τ est fini p.s., on a donc p.s. limn→∞ Xn = Xτ . Par convergence domin´ee (0 ≤ Xn ≤ N pour tout n ∈ N), il vient pour tout i0 ∈ {1, . . . , N −1}, lim E[Xn |X0 = i0 ] = E[Xτ |X0 = i0 ].

n→∞

Comme, conditionnellement `a Xn−1 = i, Xn est distribu´e suivant la loi de Bernoulli de param`etre (N, i/N ), on a E[Xn |Xn−1 = i, X0 = i0 ] = E[Xn |Xn−1 = i] = N

i = i. N

On en d´eduit que E[Xn |X0 = i0 ] = =

N  i=0

N 

E[Xn |Xn−1 = i, X0 = i0 ]P(Xn−1 = i|X0 = i0 ) iP(Xn−1 = i|X0 = i0 )

i=0

= E[Xn−1 |X0 = i0 ], et par r´ecurrence E[Xn |X0 = i0 ] = E[X0 |X0 = i0 ] = i0 . On a donc montr´e que E[Xτ |X0 = i0 ] = i0 . De plus comme Xτ ∈ {0, N }, on a E[Xτ |X0 = i0 ] = N P(Xτ = N |X0 = i0 ). On en d´eduit donc que P(Xτ = N |X0 = i0 ) = ⊓ ⊔ i0 /N .

206

7 Estimation du taux de mutation de l’ADN

Remarque 7.3.3. Il est int´eressant d’´etudier le temps moyen o` u disparaˆıt ur, on a t0 = la diversit´e : ti = E[τ |X0 = i], pour i ∈ {0, . . . , N }. Bien sˆ tN = 0. Pour 1 ≤ i ≤ N − 1, on remarque que sur l’´ev´enement {X0 = i}, τ = 1 + inf{k ≥ 0, Xk+1 ∈ {0, N }}, de sorte que, en utilisant la propri´et´e de Markov, on a E[τ |X1 = j, X0 = i] = 1 + E[τ |X0 = j]. Il vient ti =



j∈{0,...,N }

=



j∈{0,...,N }

=



E[τ 1{X1 =j} |X0 = i] E[τ |X1 = j, X0 = i]P(X1 = j|X0 = i) (1 + tj )P (i, j)

j∈{0,...,N }

=1+



P (i, j)tj .

j∈{0,...,N }

 Comme 0 et N sont des ´etats absorbants, on a ti = j∈{0,...,N } P (i, j)tj = 0 pour i ∈ {0, N }. Si on note T = (t0 , . . . , tN ), e0 (resp. eN ) le vecteur de RN +1 ne comportant que des 0 sauf un 1 en premi`ere (resp. derni`ere) position, et 1 = (1, . . . , 1) ∈ RN +1 , on a T = P T + 1 − e0 − eN . Le calcul des temps moyens o` u disparaˆıt la diversit´e se fait donc en r´esolvant un syst`eme lin´eaire. Pour N grand, on a l’approximation suivante (voir [5]) : pour x ∈ [0, 1], E[τ |X0 = [N x]] ∼ −2N (x log(x) + (1 − x) log(1 − x)) , o` u [N x] d´esigne la partie enti`ere de N x. Cette approximation est illustr´ee par le graphique 7.3. ♦

7.4 Mod´ elisation des mutations Pour rendre compte de la diversit´e des individus dans une population, on peut compl´eter le mod`ele de Wright-Fisher en tenant compte des possibilit´es de mutation de l’ADN, en particulier lors de sa r´eplication. Les mutations entraˆınent une diversification des enfants d’un mˆeme individu. Rappelons qu’un chromosome est un double brin en h´elice d’ADN. Chaque brin est constitu´e de plusieurs milliers de bases. Il existe quatre bases, ou nucl´eotides, diff´erentes : Ad´enine (A), Guanine (G), Cytosine (C) et Thymine (T). Les deux brins d’ADN mettent en correspondance les bases A et T (par

7.4 Mod´elisation des mutations 14

140 ×

12

×

×

×

120 ×

10

100 ×

×

×

×

×

×

×

×

×

×

×

×

×

×

××

××

××

××

××

×××

×××××

×××××××××××

×××

××

××

××

××

××

×

×

×

×

×

×

×

×

×

207

×

×

×

×

×

8

×

×

80

×

×

×

×

×

×

×

×

×

×

6

×

60

×

×

×

×

×

×

×

×

×

40

4

×

×

×

×

×

×

20

2

×

×

×

×

0

×

0

×

1

2

3

4

5

6

7

8

9

10

0

×

×

0

×

10

20

30

40

50

60

70

80

90 100

Fig. 7.3. Temps moyen de disparition de la diversit´e (k → E[τ |X0 = k]) et son approximation continue, N x → 2N (x log(x) + (1 − x) log(1 − x)), pour N = 10 (` a gauche) et N = 100 (` a droite)

deux liaisons d’hydrog`ene) et les bases C et G (par trois liaisons d’hydrog`ene). Les bases A et G (resp. C et T) ont des propri´et´es physiques proches ; elles sont appel´ees purines (resp. pyrimidines). Le taux de mutation d’une base, i.e. le remplacement par erreur lors de la r´eplication d’une base par une autre, est tr`es faible, de l’ordre de 10−5 `a 10−8 mutation par base et par g´en´eration. On suppose pour simplifier que : – Le taux ne d´epend pas de la base concern´ee. (Une mutation qui conserve le type purine ou pyrimidine est appel´ee transition, sinon on parle de transversion. Les transversions sont plus rares que les transitions.) – Le taux ne d´epend pas de la position dans l’ADN. (Certaines mutations ne sont pas viables. D’autres mutations ne concernent pas les r´egions codantes de l’ADN. D’autres mutations encore sont silencieuses : la mutation qui affecte le codon, suite de trois bases qui code pour un des 20 acides amin´es, ne change pas l’acide amin´e concern´e. Il est clair que le taux de mutation n’est pas constant sur l’ADN ! Toutefois, si l’on se restreint `a des r´egions de l’ADN qui ont peu ou pas de rˆ ole dans la production de prot´eines, alors on peut supposer que le taux de mutation est homog`ene.) – Le taux est constant au cours du temps. Ainsi, on suppose donc qu’` a chaque g´en´eration un individu a une probabilit´e µ > 0 d’avoir une mutation qui le diff´erencie de son parent. Si l’on consid`ere une s´equence relativement longue, le faible taux d’apparition des mutations fait que la probabilit´e que deux mutations concernent le mˆeme site de la s´equence est n´egligeable devant les autres probabilit´es. On fera donc l’hypoth`ese simplificatrice que l’on a une infinit´e d’all`eles possibles et que chaque mutation affecte un site diff´erent. Ainsi une mutation donne toujours un nouvel all`ele. Ce mod`ele est appel´e « mod`ele avec une infinit´e de sites ». Enfin, le taux de mutation ´etant faible, on suppose que l’on a au plus une seule mutation entre un individu et son parent. Le temps d’apparition d’une mutation dans la lign´ee ancestrale d’un individu suit donc une loi g´eom´etrique de param`etre µ. On pose θ = 2µN , et on suppose que θ = O(1). L’utilit´e de la

208

7 Estimation du taux de mutation de l’ADN

constante 2 apparaˆıtra ult´erieurement dans les calculs. L’objectif est d’estimer le param`etre inconnu θ. On s’int´eresse `a l’approche asymptotique N grand, et on consid`ere la nor` la malisation suivante : une unit´e de temps correspond a` N g´en´erations. A limite, quand N tend vers l’infini, on d´eduit du lemme 7.2.1, que le temps d’apparition d’une mutation, R, dans la lign´ee ancestrale d’un individu suit la loi exponentielle de param`etre θ/2. On peut v´erifier que la suite des temps entre les apparitions successives de mutations apr`es R forme une suite de variables al´eatoires ind´ependantes, ind´ependantes de R, et de mˆeme loi exponentielle de param`etre θ/2. Les deux processus de coalescence et de mutation sont d’origines al´eatoires diff´erentes. On les mod´elise donc par des processus ind´ependants. 7.4.1 Estimation du taux de mutation I Pour estimer θ, on suppose que l’on dispose de n s´equences d’ADN correspondant a` n individus haplo¨ıdes. Plusieurs individus peuvent poss´eder le mˆeme all`ele, i.e. la mˆeme s´equence d’ADN. On note Kn le nombre d’all`eles distincts. L’´etude de la loi de Kn permettra de donner une estimation de θ et un intervalle de confiance, voir la proposition 7.4.3. Proposition 7.4.1. On a Kn =

n 

ηk ,

k=1

o` u les variables al´eatoires (ηk , k ≥ 1) sont ind´ependantes de loi de Bernoulli de param`etre θ/(k − 1 + θ). La d´emonstration de cette proposition et l’interpr´etation des variables al´eatoires (ηk , k ≥ 1) sont donn´ees `a la fin de ce paragraphe. Le graphique 7.4 donne l’histogramme de la loi de Kn obtenu par simulation. La proposition suivante pr´esente une estimation de θ `a l’aide de l’estimateur Kn . Voir la d´efinition 5.2.5 pour les propri´et´es des estimateurs. Proposition 7.4.2. Pour n ≥ 1, on a E[Kn ] = θ log(n) + O(1) et Var(Kn ) = θ log(n) + O(1).   Kn , n ≥ 1 est un estimateur faiblement convergent de θ : la La suite log(n)   Kn , n ≥ 1 converge en probabilit´e vers θ. suite log(n) D´emonstration. On a E[Kn ] = n+θ θ

n

n

k=1

E[ηk ] =

n

θ k=1 k−1+θ .

1 1 dx  ≤ ≤ + x k−1+θ θ k=1

n−1+θ θ

Comme

dx , x

7.4 Mod´elisation des mutations

209

0.16

0.24

0.14

0.20

0.12 0.16

0.10 0.08

0.12

0.06

0.08

0.04 0.04

0.02 0

0 0

2

4

6

8

10

12

0

14

4

8

12

16

20

24

Fig. 7.4. Histogrammes de la loi de Kn pour θ = 1, n = 50 (` a gauche) et n = 5 000 (` a droite), obtenus ` a l’aide de 100 000 simulations de Kn , et densit´e de la loi gaussienne de moyenne et de variance θ log(n)

on a donc l’encadrement   θ − θ log(θ) θ log(n) + θ log 1 + n

  θ−1 − θ log(θ). ≤ E[Kn ] ≤ θ log(n) + 1 + θ log 1 + n

En particulier, il vient E[Kn ] = θ log(n) + O(1). On calcule la variance de Kn . En utilisant l’ind´ependance des variables al´eatoires η1 , . . . , ηn , il vient Var(Kn ) = =

n 

k=1 n 

k=1

Var(ηk ) θ k−1+θ

= E[Kn ] − θ2

 1−

n 

k=1

θ k−1+θ



1 . (k − 1 + θ)2

Comme la s´erie du dernier terme du membre de droite est convergente quand n tend vers l’infini, on en d´eduit que Var(Kn ) = θ log(n) + O(1). En utilisant l’in´egalit´e de Tchebychev (A.2), on a pour tout ε > 0,  2 ! Kn   E log(n) − θ Kn − θ ≥ ε ≤ P log(n) ε2 Var(Kn ) + (E[Kn ] − θ log(n))2 = log(n)2 ε2 1 = 2 O(log(n)−1 ). ε D’apr`es la d´efinition 5.2.5, l’estimateur est faiblement convergent.

⊓ ⊔

210

7 Estimation du taux de mutation de l’ADN



 Kn − θ log(n) √ Proposition 7.4.3. La suite , n ≥ 1 converge en loi vers G Kn de loi gaussienne centr´ee r´eduite N (0, 1). En particulier, si z est le quantile d’ordre 1 − α/2 de la loi N (0, 1), alors on obtient un intervalle de confiance de niveau asymptotique 1 − α pour θ : √ ! z Kn Kn ± , ∆n = log(n) log(n) 

c’est-`a-dire limn→∞ P(θ ∈ ∆n ) = 1 − α. D´emonstration. On utilise le th´eor`eme B.1 qui est une variante du th´eor`eme central limite. On pose Xk = ηk − E[ηk ]. On remarque que E[Xk2 ] = Var(ηk ). Les conditions 1 et 2 du th´eor`eme B.1 sont v´erifi´ees, d’apr`es ce qui pr´ec`ede. Pour d´emontrer la condition 3, en remarquant que les variables al´eatoires ηk sont des variables al´eatoires de Bernoulli, on a 3 Xk = |ηk − E[ηk ]|3 =



θ 1− k−1+θ

3

ηk +



θ k−1+θ

3

(1 − ηk ).

On en d´eduit donc que 3

E[|Xk | ] = ≤



θ 1− k−1+θ

3

θ + k−1+θ



θ k−1+θ

3  1−

θ k−1+θ



θ , k−1+θ

o` u l’on utilise que (1 − x)((1 − x)2 + x2 ) ≤ 1 pour x ∈ [0, 1], avec x = n 3 θ/(k − 1 + θ). Ainsi, on a k=1 E[|Xk | ] ≤ E[Kn ], puis n E[X 3 ] E[Kn ] n k=1 2 k 3/2 ≤ = O(log(n)−1/2 ). ( k=1 E[Xk ]) Var(Kn )3/2

La eor`eme B.1 est donc v´erifi´ee. Ceci implique que la suite  condition 3 du th´  Kn − E[Kn ]  , n ≥ 1 converge en loi vers G de loi N (0, 1). Comme E[Kn ] = Var(Kn ) θ log(n) + O(1) et limn→∞ Kn /Var(Kn ) = 1 en probabilit´e,  on d´eduit du Kn − θ log(n) √ , n ≥ 1 converge en th´eor`eme de Slutsky A.3.12 que la suite Kn loi vers G de loi N (0, 1). ⊓ ⊔ La suite de ce paragraphe est consacr´ee `a la d´emonstration de la proposition 7.4.1. On ´etablit le lemme pr´eliminaire suivant.

7.4 Mod´elisation des mutations

211

Lemme 7.4.4. Soit V1 , . . . , Vn une suite de variables al´eatoires ind´ependantes de loi exponentielle de param`etres respectifs µ1 , . . . , µn . On d´efinit V = min1≤i≤n Vi et p.s. il existe un unique indice al´eatoire, I, tel que V = VI . Les variables al´eatoires V et I sont n ind´ependantes. De plus la loi de V est la loi exponentielle de param`etre i=1 µi , et pour tout i0 ∈ {1, . . . , n}, on a µi P(I = i0 ) = n 0 . i=1 µi D´emonstration. Comme les variables al´eatoires V1 , . . . , Vn sont ind´ependantes et continues, la probabilit´e que deux d’entre elles prennent la mˆeme valeur est nulle. En particulier, on en d´eduit que I est uniquement d´etermin´e avec probabilit´e 1. Pour t ≥ 0, i0 ∈ {1, . . . , n}, on a P(I = i0 , V > t) = P(t < Vi0 < Vi , ∀i = i0 )  = E[1{t t},

j=1

(i)

et les variables (Rj , j ≥ 1, i ≥ 1) sont ind´ependantes de loi exponentielle de param`etre θ/2. En particulier les variables S (1) (t), . . . , S (k) (t) sont (i) ind´ependantes. On a de plus que Tk est ind´ependant de la suite (Rj , j ≥ 1, . En ´ecrivant l’´ev´enement i ≥ 1) et suit la loi exponentielle de param`etre k(k−1) 2 0 r r i +1 i  (i) (i) (i) {S (Tk ) = ri } = , Rl ≤ T k < Rl l=1

0

l=1

(i)

avec la convention l=1 Rl = 0, et en utilisant l’ind´ependance des variables al´eatoires, on obtient pour r1 , . . . , rk ∈ N, P(S (1) (Tk ) = r1 , . . . , S (k) (Tk ) = rk ) ∞

= 0

k(k − 1) −k(k−1)t/2 e 1{t>0} P(S (1) (t) = r1 , . . . , S (k) (t) = rk ) dt. 2

214

7 Estimation du taux de mutation de l’ADN

On en d´eduit la fonction caract´eristique de Yk : pour u ∈ R, k (i) E[eiuYk ] = E[eiu i=1 S (Tk ) ] k (i) ∞ k(k − 1) −k(k−1)t/2 e = 1{t>0} E[eiu i=1 S (t) ] dt 2 0 ∞

= 0



k  (i) k(k − 1) −k(k−1)t/2 e E[eiuS (t) ] dt 1{t>0} 2 i=1

k(k − 1) −k(k−1)t/2 e 1{t>0} e−kθt(1−exp(iu))/2 dt 2 0 k(k − 1) 1 = 2 k(k − 1)/2 + kθ(1 − exp(iu))/2 p = , 1 − (1 − p) eiu =

k−1 . On a utilis´e l’ind´ependance des variables S (1) (t),. . ., k−1+θ S (k) (t) pour la troisi`eme ´egalit´e, et pour la quatri`eme ´egalit´e le fait que S (i) (t) est distribu´e suivant la loi de Poisson de param`etre θt/2 d’apr`es la remarque ˜ est de loi g´eom´etrique de param`etre p, on a 7.4.5. D’autre part, si G  p ˜ p(1 − p)n−1 eiu(n−1) = . E[eiu(G−1) ] = 1 − (1 − p) eiu

avec p =

n≥1

˜ − 1 ont mˆeme loi. On en d´eduit donc que Yk et G

⊓ ⊔

On compte Yk mutations pendant la p´eriode al´eatoire de dur´ee Tk , o` u le nombre d’ancˆetres des n individus consid´er´es est ´egal `a k. Comme les dur´ees, T2 , . . . , Tn , des p´eriodes sont al´eatoires et ind´ependantes, on en d´eduit que les variables Y2 , . . . , Yn sont ind´ependantes. Leur loi est d´ecrite par le lemme 7.4.6. Enfin, le nombre total de mutations observ´ees sur un ´echantillon de n individus, est Sn = Y2 + . . . + Yn . On calcule l’esp´erance et la variance de Sn . ˜ est une variable g´eom´etrique de param`etre p, alors On rappelle que si G ˜ ˜ E[G] = 1/p et Var(G) = (1 − p)/p2 (voir le tableau A.1 page 396). On en d´eduit que  n  n   k−1+θ − 1 = θan , E[Yk ] = E[Sn ] = k−1 k=2

k=2

o` u an =

n−1  k=1

Var(Sn ) =

1 et k

n 

k=2

Var(Yk ) = θ

n  k−1+θ

k=2

(k − 1)2



n−1  k=1

n−1

 1 1 + θ2 = θan + θ2 bn , k k2 k=1

7.4 Mod´elisation des mutations

215

n−1 

Sn 1 . Watterson [18] a propos´e comme estimateur sans biais k2 an k=1 de θ. On remarque que an ∼ log(n) quand n tend vers l’infini et que la suite (bn , n ≥ 2) converge.

o` u bn =

Proposition 7.4.7. L’estimateur de θ, (Sn /an , n ≥ 2), est faiblement convergent (i.e. la suite(Sn /an , n ≥ 2) converge en probabilit´e vers θ). La  Sn − θan √ , n ≥ 1 converge en loi vers G de loi gaussienne centr´ee suite Sn r´eduite N (0, 1). La convergence en loi de la proposition est illustr´ee par le graphique 7.5. La d´emonstration de cette proposition est indiqu´ee dans l’exercice suivant. Exercice 7.4.8. Le but de cet exercice, est de d´emontrer la proposition 7.4.7. 1. En utilisant l’in´egalit´e de Tchebychev, et en s’inspirant des arguments utilis´es dans la d´emonstration de la proposition 7.4.2, v´erifier que l’estimateur de Watterson est faiblement convergent. ˜ une variable al´eatoire de loi g´eom´etrique de param`etre p ∈]0, 1[. 2. Soit G 2 ˜ − 1)3 ] = 6(1 − p) + 1 − p . Puis, en ˜ − 1|3 ] = E[(G V´erifier que E[|G p3 p utilisant l’in´egalit´e (x + y)3 ≤ 4x3 + 4y 3 pour x, y ≥ 0, montrer que

˜ − 1 3 ≤ 32 1 − p . E G p p3 3

3. On pose Xk = Yk − E[Yk ]. Montrer que E[|Xk | ] ≤ 32θ(1 + θ)2 v´erifier les hypoth`eses du th´eor`eme B.1.

1 . Puis k−1

4. D´emontrer la deuxi`eme partie de la proposition 7.4.7 en s’inspirant des arguments utilis´es dans la d´emonstration de la proposition 7.4.3.  0.24

0.14

0.20

0.12

0.16

0.10 0.08

0.12

0.06 0.08 0.04 0.04

0.02

0 0

2

4

6

8

10

12

14

0

0

4

8

12

16

20

24

Fig. 7.5. Histogramme de la loi de Sn pour θ = 1, n = 50 (` a gauche) et n = 5 000 (` a droite), obtenu ` a l’aide de 100 000 simulations de Sn , et densit´e de la loi gaussienne de moyenne θan et de variance θan + θ2 bn

216

7 Estimation du taux de mutation de l’ADN

En particulier, si z est le quantile d’ordre 1 − α/2 de la loi N (0, 1), alors on obtient un intervalle de confiance de niveau asymptotique 1 − α pour θ : √ !  z Sn Sn , ± ∆n = an an c’est-`a-dire limn→∞ P(θ ∈ ∆n ) = 1 − α. 7.4.3 Conclusion sur l’estimation du taux de mutation Il n’y a pas une grande diff´erence entre Kn et Sn pour l’estimation de θ. de log(n), la longueur de l’intervalle de Comme Kn et Sn dont de l’ordre  confiance est de l’ordre de 1/ log(n). Pour diviser la longueur de l’intervalle de confiance par 2, il faut observer n4 individus au lieu de n. Ceci semble peu r´ealisable. Les estimateurs Kn / log(n) et Sn /an de θ sont tr`es impr´ecis (voir les histogrammes des loi de Kn et Sn , graphiques 7.4 et 7.5). Malheureusement la vitesse de convergence en (log n)−1/2 est g´en´erique pour l’estimation de θ. La vitesse de convergence de l’estimateur du maximum de vraisemblance de θ, voir d´efinition 5.2.2, quand on connaˆıt l’arbre g´en´ealogique (forme et longueur des branches i.e. la suite T2 , . . . , Tn ) et le nombre de mutations pour chaque branche est aussi en (log n)−1/2 , voir [8]. En revanche, on peut am´eliorer l’estimation de θ, a` horizon fini, en tenant compte des arbres phylog´eniques compatibles avec les donn´ees observ´ees, voir par exemple [17], Chaps. 5 et 6.

R´ ef´ erences 1. D.J. Aldous. Deterministic and stochastic models for coalescence (aggregation and coagulation) : a review of the mean-field theory for probabilists. Bernoulli, 5(1) : 3–48, 1999. 2. C. Cannings. The latent roots of certain Markov chains arising in genetics : a new approach. I. Haploid models. Advances in Appl. Probability, 6 : 260–290, 1974. 3. C. Cannings. The latent roots of certain Markov chains arising in genetics : a new approach. II. Further haploid models. Advances in Appl. Probability, 7 : 264–282, 1975. 4. R. Durrett. Probability models for DNA sequence evolution. Probability and its Applications (New York). Springer-Verlag, New York, 2002. 5. W.J. Ewens. Mathematical population genetics. I, volume 27 de Interdisciplinary Applied Mathematics. Springer-Verlag, New York, seconde ´edition, 2004. Theoretical introduction. 6. R.A. Fisher. On the dominance ratio. Proc. Roy. Soc. Edinburgh, 42 : 321–341, 1922. 7. R.A. Fisher. The genetical theory of natural selection. Clarendon Press, Oxford, 1930.

R´ef´erences

217

8. Y.X. Fu et W.H. Li. Maximum likelihood estimation of population parameters. Genetics, 1993. 9. O. Gascuel. Mathematics of Evolution and Phylogeny. Oxford University Press, 2005. 10. J.F.C. Kingman. The coalescent. Stochastic Process. Appl., 13(3) : 235–248, 1982. 11. M. M¨ ohle. Robustness results for the coalescent. J. Appl. Probab., 35(2) : 438–447, 1998. 12. M. M¨ ohle et S. Sagitov. A classification of coalescent processes for haploid exchangeable population models. Ann. Probab., 29(4) : 1547–1562, 2001. 13. P.A.P. Moran. Random processes in genetics. Proc. Cambridge Philos. Soc., 54 : 60–71, 1958. 14. J. Pitman. Coalescents with multiple collisions. Ann. Probab., 27(4) : 1870–1902, 1999. 15. S. Sagitov. The general coalescent with asynchronous mergers of ancestral lines. J. Appl. Probab., 36(4) : 1116–1125, 1999. 16. J. Schweinsberg. Coalescent processes obtained from supercritical GaltonWatson processes. Stochastic Process. Appl., 106(1) : 107–139, 2003. 17. S. Tavar´e et O. Zeitouni. Lectures on probability theory and statistics, volume 1837 de Lecture Notes in Mathematics. Springer-Verlag, Berlin, 2004. 31i`eme ´ e par Jean Picard. ´ecole d’´et´e de probabilit´e ` a Saint-Flour, 8–25 juillet 2001. Edit´ 18. G.A. Watterson. On the number of segregating sites in genetical models without recombination. Theoret. Population Biology, 7 : 256–276, 1975. 19. S. Wright. Evolution in Mendelian populations. Genetics, 16 : 97–159, 1931.

8 Chaˆınes de Markov ` a temps continu

Il est des probl´ematiques, comme par exemple celles abord´ees aux Chaps. 5 et 6 sur l’ADN, o` u naturellement la mod´elisation utilise un processus al´eatoire index´e par N. En revanche, pour d’autres applications comme la mod´elisation des temps successifs de panne d’un syst`eme, des files d’attente aux guichets, des r´eactions chimiques (voir les Chaps. 10, 9 et 12), il est naturel d’utiliser une approche en temps continu. Ainsi pour analyser une file d’attente, on peut ´etudier la succession des nombres de personnes dans la file d’attente en fonction des arriv´ees ou des d´eparts des clients. Si l’on d´esire ´etudier l’´evolution du nombre de personnes dans la file au cours du temps, on peut, a` l’aide d’une discr´etisation du temps, utiliser des chaˆınes de Markov a` temps discret. Rappelons que nous avons vu au paragraphe 1.2, qu’une chaˆıne de Markov peut ˆetre d´ecrite `a l’aide de la chaˆıne trace, donn´ee par les ´etats successifs diff´erents, et des temps d’attente dans chacun des ´etats. Ces derniers, conditionnellement `a la chaˆıne trace, sont ind´ependants et suivent des lois g´eom´etriques dont le param`etre d´epend de l’´etat. En particulier, pour tout pas de discr´etisation δ > 0, le temps d’attente r´eel dans l’´etat initial, T suppos´e d’esp´erance finie, est repr´esent´e par [T /δ] + 1 pas de temps de longueur δ, pour la chaˆıne de Markov a` temps discret. En [T /δ] + 1 suit une loi g´eom´etrique de " particulier # param`etre pδ = 1/(1 + E [T /δ] ). Quand le pas de discr´etisation tend vers z´ero, on obtient par convergence domin´ee que limδ→0 + 1δ pδ = 1/E[T ]. Comme δ([T /δ]+1) converge p.s. vers T quand δ tend vers 0, on d´eduit du lemme 7.2.1 que la loi de T est une loi exponentielle. Comme le sugg`ere ce raisonnement, on mod´elise la suite des ´etats successifs par une chaˆıne trace, et les temps d’attente dans chacun des ´etats par des variables al´eatoires de loi exponentielle. Le processus obtenu est appel´e chaˆıne de Markov a` temps continu. Nous pr´esentons au paragraphe 8.1 une construction des chaˆınes de Markov a` temps continu, appel´ees aussi processus de sauts purs r´eguliers, a partir d’une chaˆıne trace et de temps d’attente de loi exponentielle entre ` les changements d’´etats. Les param`etres des lois exponentielles s’interpr`etent comme des taux de sauts. Puis nous indiquons comment le caract`ere sans m´emoire des lois exponentielles permet d’obtenir la propri´et´e de

222

8 Chaˆınes de Markov ` a temps continu

Markov : l’´evolution future du processus ne d´epend du pass´e qu’au travers de l’´etat pr´esent. Le paragraphe 8.2 introduit les notions de semi-groupes et g´en´erateurs infinit´esimaux qui sont des outils g´en´eraux pour l’´etude des processus de Markov. On v´erifie que le g´en´erateur infinit´esimal a une expression tr`es simple en fonction de la matrice de transition de la chaˆıne trace sousjacente et des taux de sauts. Nous ´etudions au paragraphe 8.3 le comportement en temps long des chaˆınes de Markov. Ces r´esultats sont `a rapprocher des th´eor`emes ergodiques du paragraphe 1.5 pour les chaˆınes de Markov a` temps discret. Enfin, dans le paragraphe 8.4, nous introduisons le processus de Poisson, qui est un exemple tr`es ´el´ementaire de chaˆıne de Markov a` temps continu. Ce processus permet de mod´eliser les temps de pannes de machines, ou le processus des temps d’arriv´ee des clients dans une file d’attente. Enfin une vaste litt´erature sur les chaˆınes de Markov est disponible. Pour plus de d´etails, on pourra consulter les ouvrages suivants : Jacod [4], Lacroix [5], Ycart [6] et les ouvrages plus sp´ecialis´es : Br´emaud [1], Chung [2] ou C ¸ inlar [3].

8.1 Construction des chaˆınes de Markov ` a temps continu 8.1.1 Construction Il est facile de v´erifier a` l’aide des fonctions de r´epartition que si U est de loi uniforme sur [0, 1], alors T = −log(U )/λ, o` u λ > 0, est de loi exponentielle de param`etre λ. Soit Z = (Zn , n ∈ N) une chaˆıne trace (cf. paragraphe 1.2) sur un espace discret E et de matrice de transition Q. La chaˆıne trace d´ecrit les ´etats diff´erents successifs du ph´enom`ene ´etudi´e. On rappelle que pour tout x ∈ E, on a Q(x, x) ∈ {0, 1}. Si Q(x, x) = 1, alors x est un point absorbant de la chaˆıne trace. Pour chaque ´etat x ∈ E, on se donne λ(x) ≥ 0 qui correspond au taux de sauts auquel on quitte le site x. On suppose que λ(x) = 0 si x est un point absorbant. Le param`etre λ(x) correspond au param`etre de la loi exponentielle des temps d’attente en x. Soit une suite (Un , n ≥ 1) de variables al´eatoires de loi uniforme sur [0, 1], ind´ependantes et ind´ependantes de Z. On pose Vn = − log(Un )/λ(Zn−1 ) pour n ≥ 1, avec la convention que Vn = +∞ si λ(Zn−1 ) = 0. Ainsi, conditionnellement a` Z, les variables (Vn , n ≥ 1) sont ind´ependantes et de loi exponentielle de param`etres respectifs (λ(Zn−1 ), n ≥ 1) (avec la convention qu’une variable al´eatoire de loi exponentielle de param`etre 0 est n ´egale `a +∞). On pose S0 = 0, pour n ≥ 1, Sn = k=1 Vk , et si Sn < +∞, Xt = Zn

pour t ∈ [Sn , Sn+1 [.

(8.1)

Les variables al´eatoires Xt sont d´efinies pour t < limn→∞ Sn . Le lemme suivant permet de donner des conditions qui assurent que cette limite est p.s. infinie.

8.1 Construction des chaˆınes de Markov ` a temps continu

223

Lemme 8.1.1. Soit (Tn , n ≥ 1) une suite de variables al´eatoires ind´ependantes, telles que la loi de Tn est la loi exponentielle de param`etre λn ∈]0, ∞[. Les trois assertions suivantes sont ´equivalentes.  (i) P( n≥1 Tn = ∞) = 1. (ii) P( n≥1 Tn = ∞) > 0.  (iii) 1/λn = ∞. n≥1

D´emonstration. Clairement (i) implique (ii). Montrons, par contrapos´ ee que    1/λ < ∞, alors on a E[T ] = 1/λ (ii) implique (iii). Si n n n < n≥1 n≥1 n≥1  ∞ et donc p.s. n≥1 Tn < ∞.  Montrons  que (iii) implique (i). Si la s´erie n≥1 1/λn est divergente alors Comme log(1 + x) ≥ min(1, x/2) la s´erie n≥1 min(1, 1/2λn ) est divergente.  sur [0, ∞[, cela implique que la s´erie n≥1 log(1 + 1/λn ) est ´egalement divergente. On en d´eduit que    λn log(1+ λ1n ) − Tn − n≥1 n≥1 =e = 0. ]= E[e 1 + λn n≥1





T

n n≥1 est une variable al´eatoire Comme e positive d’esp´erance nulle, elle ⊓ ⊔ est donc p.s. nulle. En particulier, on a p.s. n≥1 Tn = ∞.

On d´eduit de ce lemme que



 −1 λ(Zn ) = ∞|Z0 = x0 = 1. (8.2) P( lim Sn = ∞|Z0 = x0 ) = 1 ⇔ P n→∞

n≥0

Remarque 8.1.2. 1. Si supx∈E λ(x) < ∞, alors on d´eduit de (8.2) que p.s. limn→∞ Sn = ∞. En particulier, cette condition est toujours satisfaite si E est fini. 2. Si l’ensemble Ex0 des ´etats que peut visiter la chaˆıne de Markov Z issue de x0 est fini p.s. alors P(limn→∞ Sn = ∞|Z0 = x0 ) = 1.

3. Enfin l’´egalit´e de droite de (8.2) est ´egalement v´erifi´ee si x0 est r´ecurrent pour la chaˆıne de Markov Z. En particulier, si la chaˆıne est irr´eductible r´ecurrente alors p.s. limn→∞ Sn = ∞. ♦

Exemple 8.1.3. On peut mod´eliser la file d’attente a` un guichet de mani`ere ´el´ementaire en supposant que si la file d’attente comporte k ≥ 1 clients alors : soit un nouveau client arrive, et elle comporte alors k + 1 clients, soit un client termine son service puis part, et elle comporte alors k − 1 clients. Si on suppose que le temps de service suit une loi exponentielle de param`etre µ > 0 et que le temps d’arriv´ee d’un nouveau client est ind´ependant et suit une loi exponentielle de param`etre λ > 0, on d´eduit du lemme 7.4.4, que le nouvel ´etat de la file d’attente est k + 1 avec probabilit´e λ/(λ + µ) et k − 1 avec probabilit´e

224

8 Chaˆınes de Markov ` a temps continu

µ/(λ + µ), et que le temps qu’il faut attendre avant d’observer un d´epart ou une arriv´ee suit une loi exponentielle de param`etre λ + µ. Enfin si la file est vide, il faut attendre un temps al´eatoire de loi exponentielle de param`etre λ, pour qu’un nouveau client arrive. Pour la mod´elisation, on consid`ere donc une chaˆıne trace sur N, qui repr´esente les diff´erents ´etats de la file et dont les termes non nuls de la matrice de transition sont Q(0, 1) = 1, et pour k ≥ 1, Q(k, k + 1) = λ/(λ + µ) et Q(k, k − 1) = µ/(λ + µ). Enfin le temps d’attente dans l’´etat k suit une loi exponentielle de param`etre λ si k = 0 et de param`etre λ + µ sinon. Dans ce cas les param`etres des lois exponentielles sont born´es par λ + µ. Et le processus d´efini par (8.1), qui d´ecrit la taille de la file a` l’instant t est bien d´efini, pour t ∈ [0, ∞[. Cet exemple sera ´etudi´e plus en d´etail au Chap. 9. ♦ Exercice 8.1.4. Les conditions suivantes apparaissent naturellement quand on ´etudie les files d’attente. On a E = N. On suppose qu’il existe des constantes positives c0 , c1 et r telles que les taux de sauts sont sous-lin´eaires : λ(x) ≤ c0 + c1 x pour tout x ∈ N, et les sauts sont uniform´ement born´es : Q(x, y) = 0 si y > x + r. 1. V´erifier que p.s. Zn ≤ Z0 + nr.

2. En d´eduire que p.s. limn→∞ Sn = ∞.



8.1.2 Propri´ et´ e de Markov On suppose d´esormais que p.s. lim Sn = ∞.

n→∞

(8.3)

Le processus al´eatoire X = (Xt , t ≥ 0) est alors bien d´efini. Il est a` valeurs dans l’espace discret E. Il est constant par morceaux, continu a` droite et avec un nombre fini de sauts sur tout intervalle de temps born´e. Nous v´erifions maintenant que ce processus poss`ede la propri´et´e de Markov : pour tout t ≥ 0, l’´evolution de X apr`es l’instant t ne d´epend de son ´evolution avant l’instant t qu’au travers de la valeur de Xt . Les outils dont nous disposons sont insuffisants pour donner une d´emonstration rigoureuse de la propri´et´e de Markov ´enonc´ee au th´eor`eme 8.1.6. Pour plus de d´etails, nous renvoyons par exemple a` la d´emonstration du th´eor`eme 9.1.2 dans [1]. Toutefois, il est crucial dans l’´etablissement de la propri´et´e de Markov d’utiliser le fait que les temps d’attente suivent des lois exponentielles, et que les lois exponentielles sont sans m´emoire (voir le lemme 8.1.5). Pour comprendre ce point important, nous esquissons une d´emonstration de la propri´et´e de Markov. L’´etat pass´e du processus X avant l’instant t est donn´e par le nombre de transitions avant t, disons n, ses ´etats successifs, disons x0 , . . . , xn , et les temps d’attente dans chacun de ces ´etats. L’´etat pr´esent du processus

8.1 Construction des chaˆınes de Markov ` a temps continu

225

V2 Z 1 = x1 Vn+1 Z n = xn

T

V1

Vn+2 Zn+1

X0 = Z0 = x0

S0 = 0

S1

S2

Sn

t

Sn+1

Fig. 8.1. Exemple d’´evolution d’une chaˆıne de Markov ` a temps continu

est donn´e par sa valeur Xt = xn . L’´etat futur est donn´e par l’´evolution de la chaˆıne trace (Zk , k ≥ n) issue de xn , par les temps d’attente dans chacun des ´etats. D’apr`es la propri´et´e de Markov pour la chaˆıne trace, son ´evolution sachant l’´etat pass´e de X ne d´epend que de xn . Les temps d’attente dans les ´etats xn , Zn+1 , Zn+2 , . . . sont donn´es par les variables u T = Vn+1 −(t−Sn ), voir la Fig. 8.1. Par construction, on T, Vn+2 , Vn+3 , . . ., o` a Vn+k = − log(Un+k )/λ(Zn+k−1 ) pour k ≥ 2, et les variables (Un+k , k ≥ 2) sont ind´ependantes, de loi uniforme sur [0, 1] et sont ind´ependantes de Z et de t. Il reste donc `a montrer que la loi de T = Vn+1 − (t − Sn ) conditionnellement `a Z0 = x0 , . . . , Zn = xn , (Zn+k , k ≥ 1), V1 , . . . , Vn , Sn ≥ t et Vn+1 > (t − Sn ), est une loi exponentielle de param`etre λ(xn ). Les conditions Sn ≥ t et Vn+1 > (t − Sn ) assurent que l’on a bien eu n transitions exactement avant l’instant t. Remarquons que conditionnellement a` Z les variables V1 , . . . , Vn+1 sont ind´ependantes de loi exponentielle. Pour calculer la loi conditionnelle de T on utilise le caract`ere sans m´emoire des lois exponentielles. Lemme 8.1.5. Soit V une variable al´eatoire de loi exponentielle de param`etre λ > 0. Soit R une variable al´eatoire positive ind´ependante de V . On a P(V > R) = E[e−λR ].

(8.4)

Et conditionnellement ` a {V > R}, la loi de V − R est la loi exponentielle de param`etre λ. D´emonstration. On d´eduit de la proposition A.1.21 avec ψ(x) = E[1{V >x} ] = min(1, e−λx ) que E[1{V >R} ] = E[ψ(R)]. Comme R est une variable positive, on obtient P(V > R) = E[1{V >R} ] = E[e−λR ]. Pour u ≥ 0, on a P(V > u + R | V > R) =

E[e−λ(u+R) ] P(V > u + R) = = e−λu = P(V > u), P(V > R) E[e−λR ]

226

8 Chaˆınes de Markov ` a temps continu

o` u l’on a utilis´e la formule des probabilit´es conditionnelles pour la premi`ere ´egalit´e, l’´egalit´e (8.4) avec u + R et R. La loi de V − R conditionnellement a` {V > R} est bien celle de V . ⊓ ⊔ On choisit alors R = t − Sn et V = Vn+1 , et l’on peut v´erifier que la loi conditionnelle de T = V − R est la loi exponentielle de param`etre λ(xn ). En particulier, T est ind´ependante de t et de Vn+2 , Vn+3 , . . ., conditionnellement a (Zn+k , k ≥ 0). ` Ceci permet de montrer la propri´et´e de Markov : On dit que le processus et´ e de Markov si pour tout entier n, pour (Xt , t ≥ 0) v´erifie la propri´ tous r´eels 0 = t0 ≤ · · · ≤ tn = t, pour tous x1 , . . . , xn = x, y ∈ E, tel que P(Xt0 = x0 , . . . , Xtn = xn ) > 0, et pour tout s ≥ 0, on a P(Xs+t = y | Xt0 = x0 , . . . , Xtn = xn ) = P(Xs+t = y | Xt = x).

(8.5)

La propri´et´e de Markov est dite homog` ene si de plus P(Xs+t = y | Xt = x) ne d´epend pas de t. On admet le r´esultat suivant. Th´ eor` eme 8.1.6. On suppose que (8.3) est v´erifi´ee presque sˆ urement. Alors le processus (Xt , t ≥ 0) satisfait la propri´et´e de Markov homog`ene. On dit que X est une chaˆıne de Markov ` a temps continu ou un processus markovien homog`ene r´egulier de sauts purs. Le processus Z est la chaˆıne trace associ´ee `a X. Remarque 8.1.7. On v´erifie que si la probabilit´e de visiter x ∈ E est strictement positive, alors P(Xt = x) > 0 pour tout t > 0. Par construction, si la probabilit´e que X visite x ∈ E est strictement positive, alors il existe un chemin x0 , . . . , xn = x ∈ E, tel que P(Z0 = x0 , . . . , Zn = xn ) > 0 et si n ≥ 1, λ(x0 ) . . . λ(xn−1 ) > 0. Alors on a P(In |Z0 = x0 , . . . , Zn = xn ) > 0, o` u In = {V1 < t/n, . . . , Vn < t/n, Vn+1 > t} si n ≥ 1 et I0 = {V1 > t} sinon. Comme {Z0 = x0 , . . . , Zn = xn } ∩ In ⊂ {Xt = x}, on en d´eduit que ♦ P(Xt = x) > 0 pour tout t > 0. Exercice 8.1.8. Montrer que si (Xt , t ≥ 0) est une chaˆıne de Markov a` temps  continu, alors (Xn , n ∈ N) est une chaˆıne de Markov a` temps discret.

8.2 Semi-groupe, g´ en´ erateur infinit´ esimal Soit X = (Xt , t ≥ 0) une chaˆıne de Markov a` temps continu sur un espace d’´etat discret E. Quitte a` se restreindre `a l’ensemble des ´etats qui ont une probabilit´e strictement positive d’ˆetre visit´es par X, on peut supposer d’apr`es la remarque 8.1.7 que pour tous t > 0, x ∈ E, on a P(Xt = x) > 0. Comme X satisfait la propri´et´e de Markov homog`ene, les probabilit´es P(Xs+t = y | Xt = x) ne d´ependent pas de t. On les note Ps (x, y). Par convention on pose

8.2 Semi-groupe, g´en´erateur infinit´esimal

227

 P(Xs = y | X0 = x) = Ps (x, y) si P(X0 = x) = 0. On a y∈E Ps (x, y) = 1. La matrice de transition Ps = (Ps (x, y), x, y ∈ E) est une matrice stochastique. On admet la r´eciproque suivante du th´eor`eme 8.1.6 (voir [3]). Th´ eor` eme 8.2.1. Si Y = (Yt , t ≥ 0) est un processus al´eatoire a ` temps continu ` a valeurs dans un espace discret E et qui – est constant par morceaux, – est continu a ` droite et avec un nombre fini de sauts sur tout intervalle born´e , – v´erifie la propri´et´e de Markov homog`ene, i.e. les ´egalit´es (8.5) avec le membre de gauche ind´ependant de t, alors Y est une chaˆıne de Markov a ` temps continu. En particulier le processus Y poss`ede une chaˆıne trace, et les temps d’attente dans chacun des ´etats sont, conditionnellement a` la chaˆıne trace, des variables al´eatoires ind´ependantes de loi exponentielle dont le param`etre d´epend de l’´etat. Il est en g´en´eral tr`es difficile de calculer le semi-groupe de transition mˆeme dans le cas ´el´ementaire de l’exemple 8.1.3 (voir l’exemple 8.3.14 pour expliciter les cas o` u E est r´eduit a` deux ´el´ements). En revanche, il est souvent naturel lors d’une mod´elisation d’exhiber la matrice de la chaˆıne trace et les taux de sauts. Ces objets sont suffisants pour ´etudier les comportements en temps long des chaˆınes de Markov. Mais ils n’ont pas de sens d`es que l’on d´esire regarder des espaces d’´etats continus. De fait, il est plus int´eressant de regarder le g´en´erateur infinit´esimal associ´e `a la chaˆıne de Markov, qui garde un sens dans le cas des espaces d’´etats continus. Proposition 8.2.2. Soit X une chaˆıne de Markov a ` temps continu de semigroupe de transition (Pt , t ≥ 0). Il existe une matrice A = (A(x, y), x, y ∈ E), appel´ee g´en´erateur infinit´esimal de la chaˆıne de Markov de semi-groupe de transition (Pt , t ≥ 0), telle que A = lim

h→0+

au sens o` u

Ph − I , h

⎧ Ph (x, y) ⎪ ⎪ si x = y, ⎨ lim+ h h→0 A(x, y) = ⎪ ⎪ lim Ph (x, x) − 1 si x = y. ⎩ h h→0+ Le g´en´erateur infinit´esimal est reli´e ` a la matrice de transition Q de la chaˆıne trace associ´ee ` a X et aux taux de sauts (λ(x), x ∈ E) de la mani`ere suivante : pour tout x ∈ E, A(x, x) = −λ(x), et pour tout y ∈ E diff´erent de x, A(x, y) = λ(x)Q(x, y). En particulier, on a pour tout x ∈ E,  A(x, y) = 0. (8.6) y∈E

228

8 Chaˆınes de Markov ` a temps continu

Remarquons que, d’apr`es la d´efinition de A, on a A(x, x) ≤ 0 et A(x, y) ≥ 0 pour x = y. Remarque 8.2.3. On admet (voir [1] Chap. 8) les r´esultats suivants concerPt+h − Pt , nant le g´en´erateur infinit´esimal. Pour tout t ≥ 0, la limite de h dPt quand h d´ecroˆıt vers 0, existe. On la note et on a dt dPt = Pt A = APt . dt

(8.7)

Pour t ≥ 0, on note νt la loi de Xt (νt (x) = P(Xt = x) pour x ∈ E) et ut (x) = E[f (Xt )|X0 = x], x ∈ E, avec f born´ee. Par d´efinition de Pt , on a νt = ν0 Pt et ut = Pt f . On peut d´ecrire l’´evolution de νt et ut `a l’aide de (8.7). Plus pr´ecis´ement, on admet les ´equations de Kolmogorov : pour t ≥ 0, dut = Aut dt

et

dνt = νt A. dt ♦

Remarque 8.2.4. Dans le cas o` u E est fini, l’unique solution de (8.7) est donn´ee par  tk Ak , (8.8) Pt = etA = k! k≥0

avec la convention A0 = I. Dans le cas o` u E est infini, rien n’assure que le ♦ produit de matrices A2 = AA, et a fortiori etA , aient un sens. Remarque 8.2.5. Supposons que chaque ´etat y = x poss`ede une horloge ind´ependante des autres qui sonne `a un temps de loi exponentielle de param`etre A(x, y) = λ(x)Q(x, y). En g´en´eralisant le lemme 7.4.4 pour une suite infinie de variables al´eatoires ind´ependantes de loi exponentielle, on peut v´erifier que le temps o` u la premi`ere horloge sonne suit une loi exponentielle de param`etre y=x λ(x)Q(x, y) = λ(x), et que l’horloge de y a sonn´e la premi`ere avec probabilit´e Q(x, y). En particulier, dans la construction de X, conditionnellement `a {X0 = x}, tout se passe comme si la chaˆıne de Markov sautait a la premi`ere sonnerie sur le site dont l’horloge sonne. La quantit´e A(x, y) ` s’interpr`ete comme un taux de transition de x vers y. ♦ D´emonstration de la proposition 8.2.2. Quitte a` d´ecaler le temps de t0 > 0, on peut supposer que P(X0 = x) > 0. On reprend les notations du paragraphe pr´ec´edent. Si λ(x) = 0, alors on a V1 = +∞, et donc p.s. Xt = x pour tout t ≥ 0. Donc il vient Pt (x, x) = 1 pour tout t ≥ 0, et donc A(x, y) = 0 pour tout y ∈ E. Supposons λ(x) > 0. On rappelle que Z0 = X0 . Remarquons que, conditionnellement a` {Z0 = x}, s’il n’y a pas eu de saut avant l’instant t, alors

8.2 Semi-groupe, g´en´erateur infinit´esimal

229

Xt = x, et si Xt = x soit il n’y pas eu de saut avant l’instant t soit il y a eu au moins deux sauts avant t. On a donc {V1 ≥ t} ⊂ {Xt = x} ⊂ {V1 ≥ t} ∪ {V1 + V2 < t}. En prenant l’esp´erance, et en utilisant le fait que V1 suit la loi exponentielle de param`etre λ(x), il vient e−λ(x)t ≤ Pt (x, x) ≤ e−λ(x)t + P(V1 + V2 < t|Z0 = x). En d´ecomposant suivant les ´etats possibles de Z1 , on obtient P(V1 + V2 < t|Z0 = x) ≤ P(V1 < t, V2 < t|Z0 = x)  = Q(x, y)P(V1 < t, V2 < t|Z0 = x, Z1 = y) y∈E

=



Q(x, y)P(V1 < t|Z0 = x, Z1 = y)P(V2 < t|Z0 = x, Z1 = y)

y∈E

= [1 − e−λ(x)t ]



y∈E

Q(x, y)[1 − e−λ(y)t ].

 Par le th´eor`eme de convergence domin´e, on a limt→0 y∈E Q(x, y)[1 − e−λ(y)t ] = 0. Ainsi on obtient limt→0 1t P(V1 + V2 < t|Z0 = x) = 0. On en d´eduit donc que limt→0 1t [Pt (x, x) − 1] existe et vaut limt→0 1t [e−λ(x)t −1] = −λ(x). Pour y = x, conditionnellement a` {Z0 = x}, on a {V1 < t, V1 + V2 ≥ t, Z1 = y} ⊂ {Xt = y} ⊂ {V1 < t, V1 + V2 ≥ t, Z1 = y} ∪ {V1 + V2 < t}. On a donc en prenant l’esp´erance P(V1 < t, V1 + V2 ≥ t, Z1 = y|Z0 = x) ≤ Pt (x, y) ≤ P(V1 < t, V1 + V2 ≥ t, Z1 = y|Z0 = x) + P(V1 + V2 < t|Z0 = x). Remarquons que P(V1 < t, V1 + V2 ≥ t, Z1 = y|Z0 = x) = Q(x, y) R2+

1{v1 0 pour tout t > 0. La chaˆıne de Markov a` temps continu est irr´eductible si et seulement si λ(x) > 0 pour tout x ∈ E et la chaˆıne trace est irr´eductible. On peut aussi v´erifier directement que la chaˆıne est irr´eductible a` partir du g´en´erateur infinit´esimal A, comme le montre l’exercice qui suit. Exercice 8.3.5. Soit X une chaˆıne de Markov a` temps continu de g´en´erateur infinit´esimal A. V´erifier que si pour tout couple (x, y), il existe n ≥ 1 et une n−1 suite de points distincts x0 = x, . . . , xn = y tels que i=0 A(xi , xi+1 ) > 0, alors la chaˆıne de Markov est irr´eductible. 

On suppose dor´enavant que X est irr´eductible. Nous donnons l’analogue du th´eor`eme 1.4.3, qui est une cons´equence directe des propositions 8.3.10, 8.3.9 et du th´eor`eme 8.3.12.

Th´ eor` eme 8.3.6. Une chaˆıne de Markov a ` temps continu irr´eductible poss`ede au plus une probabilit´e invariante, π, et alors π(x) > 0 pour tout x ∈ E.

Les exercices 8.3.11 et 8.3.13 permettent de calculer la probabilit´e invariante, quand elle existe, de la chaˆıne a` temps continu ou de la chaˆıne trace a` partir de la probabilit´e invariante de l’autre chaˆıne. Nous admettons l’analogue du th´eor`eme 1.4.4 sur la convergence en loi des chaˆınes de Markov a` temps continu (voir [1] th´eor`eme 8.6.2).

8.3 Comportement asymptotique

231

Th´ eor` eme 8.3.7. Soit (Xt , t ≥ 0) une chaˆıne de Markov a ` temps continu, irr´eductible. Si elle poss`ede une (unique) probabilit´e invariante, π, alors limt→∞ P(Xt = x) = π(x), pour tout x ∈ E : i.e. la suite des lois des variables Xt converge ´etroitement vers l’unique probabilit´e invariante quand t tend vers l’infini. Si elle ne poss`ede pas de probabilit´e invariante, alors limt→∞ P(Xt = x) = 0 pour tout x ∈ E. Remarque 8.3.8. Les ph´enom`enes de p´eriodicit´e des chaˆınes de Markov ` temps discret, qui compliquent l’´etude du comportement en temps long, a disparaissent pour les chaˆınes de Markov a` temps continu. ♦ Nous donnons ´egalement le th´eor`eme ergodique 8.3.12, analogue en temps continu du th´eor`eme 1.5.6. Pour t > 0, on pose Xt− = lims→t− Xs la limite a` gauche de X en t. On note, avec la convention inf ∅ = +∞, U (x) = inf{t > 0 ; Xt− = x, Xt = x}, le premier temps de retour en x de X, et T (x) = inf{k ≥ 1 ; Zk = x}, le premier temps de retour en x de la chaˆıne trace Z. Remarquons que, comme le processus X n’a qu’un nombre fini de sauts sur tout intervalle de temps born´e, on a {U (x) = +∞} = {T (x) = +∞}. Si la chaˆıne Z est transiente, alors ces ´ev´enements sont de probabilit´es non nulles. On dit que la chaˆıne X est transiente (resp. r´ecurrente) si la chaˆıne trace est transiente (resp. r´ecurrente). On rappelle que X ´etant irr´eductible, on a λ(x) > 0 pour tout x ∈ E. On pose ν(x) = E[U (x)|X0 = x] ∈ (0, ∞]

et π(x) =

1 . ν(x)λ(x)

Nous d´emontrons l’analogue de la proposition 1.5.4. Proposition 8.3.9. Soit X une chaˆıne de Markov a ` temps continu irr´eductible. Pour tout x ∈ E, on a 1 t

t

0

p.s.

1{Xs =x} ds −−−−→ π(x). n→∞

(8.9)

De plus, soit π(x) = 0 pour tout x ∈ E, soit π(x) > 0 pour tout x ∈ E. Dans ce dernier cas on dit que la chaˆıne est r´ ecurrente positive. Si π(x) = 0 pour tout x ∈ E, alors soit la chaˆıne est transiente, soit elle est r´ecurrente. Dans ce dernier cas, on dit que la chaˆıne est r´ ecurrente nulle. D´emonstration. Soit x ∈ E. Dans le cas transient, l’´ev´enement {U (x) = +∞} est de probabilit´e non nulle. On en d´eduit que ν(x) = +∞ et π(x) = 0. De plus il existe p.s. un temps fini t0 al´eatoire tel que pour tout s > t0 , on a Xs = x. On en d´eduit donc que (8.9) est v´erifi´e.

232

8 Chaˆınes de Markov ` a temps continu

On suppose que la chaˆıne X est r´ecurrente. On pose U1 = U (x), et pour tout n ≥ 1, Un+1 = inf{t > 0 ; XRn +t− = x, XRn +t = x}, o` u Rn = n ≥ 1, o` u Sn =

n 

Uk , avec R0 = 0. On pose ´egalement T1 = T (x), et pour tout

k=1

n 

Tn+1 = inf{k ≥ 1 ; ZSn +k = x}, Tk , avec S0 = 0. Le fait de supposer la chaˆıne r´ecurrente assure

k=1

que tous les temps de retours sont p.s. finis. On consid`ere les excursions hors de x : pour n ≥ 1, Yn = (Tn , ZSn−1 , VSn−1 +1 , ZSn−1 +1 , . . . , VSn , ZSn ), Remarquons que la dur´ee de la n-i`eme excursion du processus X hors de x est donn´ee par Tn  VSn−1 +k . (8.10) Un = k=1

Un calcul analogue a` celui effectu´e dans la d´emonstration de la proposition 1.5.4, assure que, pour tout N ≥ 2, les variables al´eatoires (Yn , n ∈ {1, . . . , N }) sont ind´ependantes et que les variables al´eatoires (Yn , n ∈ {2, . . . , N }) ont pour loi celle de Y1 sous P(·|X0 = x). En particulier, cela implique que les variables al´eatoires (Yn , n ≥ 1) sont ind´ependantes, et que les variables al´eatoires (Yn , n ≥ 2) ont mˆeme loi. Par la loi forte des grands nombres, on en d´eduit que p.s. n

Rn 1 = lim Uk = ν(x). n→∞ n n→∞ n lim

k=1

Dans l’excursion n ≥ 2, X est dans l’´etat x pendant une p´eriode de temps de longueur VSn−1 . Ainsi pour n ≥ 2 et t ∈ [Rn , Rn+1 [, on a 1 Rn+1

n−1  k=2

VSk−1 +1 ≤

1 t

t 0

1{Xs =x} ds ≤

n 1  VSk−1 +1 . Rn k=1

Comme les variables (VSk−1 +1 , k ≥ 2) sont ind´ependantes et de loi exponentielle de param`e tre λ(x), on d´eduit de la loi forte des grands nombres n que p.s. limn→∞ n1 k=2 VSk−1 +1 = 1/λ(x). On en d´eduit ainsi que p.s.  1 t limt→∞ t 0 1{Xs =x} ds = 1/(ν(x)λ(x)). Ceci d´emontre (8.9). Par conver1 t gence domin´ee, on en d´eduit que pour tout y ∈ E, lim Ps (y, x) ds = t→∞ t 0 π(x). Comme Ps (y, x) ≥ Ps−1 (y, z)P1 (z, x) pour s ≥ 1, on en d´eduit que

8.3 Comportement asymptotique

1 t→∞ t

t

lim

0

1 t→∞ t

Ps (y, x) ds ≥ P1 (z, x) lim

233

t−1

Ps (y, z) ds, 0

c’est-`a-dire π(x) ≥ P1 (z, x)π(z). Or on a P1 (z, x) > 0 pour tous x, z ∈ E. Et donc soit π(x) > 0 pour tout x ∈ E, soit π(x) = 0 pour tout x ∈ E. ⊓ ⊔ Un raisonnement similaire a` celui de la d´emonstration de la proposition 1.5.5, permet de d´emontrer la proposition suivante. Proposition 8.3.10. Une chaˆıne irr´eductible, (Xt , t ≥ 0), qui est transiente ou r´ecurrente nulle, ne poss`ede pas de probabilit´e invariante.  u µ est une probabilit´e On rappelle la notation (µ, f ) = x∈E µ(x)f (x), o` sur E et f une fonction sur E telles que la somme soit convergente.

Exercice 8.3.11. On suppose que la chaˆıne trace est r´ecurrente positive de probabilit´e invariante π trace . On a (π trace , λ1 ) ∈]0, ∞]. 1. Montrer, en utilisant par exemple le lemme 1.5.12 et (8.10), que pour x ∈ E, on a ν(x) =

(π trace , λ1 ) π trace (x)

et

π(x) =

1 π trace (x) . λ(x) (π trace , λ1 )

2. En d´eduire que la chaˆıne X est r´ecurrente positive si et seulement si (π trace , λ1 ) < ∞.  On a le r´esultat de convergence suivant appel´e th´eor`eme ergodique, qui est l’analogue en temps continu du th´eor`eme 1.5.6. Th´ eor` eme 8.3.12. Soit X une chaˆıne de Markov ` a temps continu sur E, irr´eductible et r´ecurrente positive. Le vecteur π = (π(x), x ∈ E) est l’unique probabilit´e invariante de la chaˆıne de Markov. De plus, pour toute fonction f d´efinie sur E, telle que f ≥ 0 ou (π, |f |) < ∞, on a 1 t

t

p.s.

f (Xs ) ds −−−−→ (π, f ). n→∞

0

(8.11)

La moyenne temporelle est donc ´egale `a la moyenne spatiale par rapport a la probabilit´e invariante. ` D´emonstration. On conserve les notations de la d´emonstration de la proposition 8.3.9. On suppose que la chaˆıne X est r´ecurrente positive. Soit f une fonction positive d´efinie sur E. Rappelons que Xs = Zp pour s ∈ [Sp , Sp + Vp+1 [, p ∈ N. On a l’in´egalit´e suivante pour t ∈ [Rn , Rn+1 [ : 1 Rn+1

Tk n−1 

f (ZSk−1 +i−1 )VSk−1 +i

k=1 i=1

1 ≤ t

t 0

n Tk 1  f (Xs ) ds ≤ f (ZSk−1 +i−1 )VSk−1 +i . Rn i=1 k=1

234

8 Chaˆınes de Markov ` a temps continu

Par l’ind´ependance des excursions, et le fait qu’elles ont toutes mˆeme loi, sauf peut-ˆetre la premi`ere, on en d´eduit que p.s. pour tout x ∈ E,   U (x) 1 1 t E lim (8.12) f (Xs ) ds = f (Xs ) ds X0 = x . t→∞ t 0 ν(x) 0 Pour f (x) = 1{x=y} , on d´eduit de (8.9) que   U (x) 1 E π(y) = 1{Xs =y} ds X0 = x . ν(x) 0

(8.13)

En sommant sur y, il vient que π = (π(x), x ∈ E) est une probabilit´e. On obtient a` partir de (8.12) que 1 t→∞ t

t

lim

f (Xs ) ds = (π, f ). 0

` l’aide d’arguments similaires a` ceux utilis´es `a la fin de la d´emonstration du A th´eor`eme 1.5.6, on peut ´etendre cette convergence aux fonctions f de signe quelconque et telles que (π, |f |) < ∞, puis v´erifier que π est une probabilit´e invariante et que c’est la seule. ⊓ ⊔ Exercice 8.3.13. L’objectif de cet exercice est de calculer la probabilit´e invariante, quand elle existe, de la chaˆıne trace. Soit X une chaˆıne de Markov a temps continu irr´eductible r´ecurrente positive de probabilit´e invariante π. ` 1. V´erifier a` l’aide de (8.13) que pour f ≥ 0,   U (x) 1 E f (Xs ) ds X0 = x . (π, f ) = ν(x) 0

(π, λ) . π(x)λ(x) 3. Montrer ainsi que la chaˆıne trace est r´ecurrente positive si et seulement si (π, λ) < ∞, et que pour x ∈ E, on a 2. En d´eduire, avec f (x) = λ(x), que E[T (x)|X0 = x] =

π trace (x) =

π(x)λ(x) . (π, λ) 

Exemple 8.3.14. Le g´en´erateur infinit´esimal le plus g´en´eral d’une chaˆıne irr´eductible sur un espace E ` a 2 ´el´ements, est de la forme   −λ λ A= , µ −µ

8.4 Processus de Poisson

235

o` u λ > 0 et µ > 0. La matrice de transition de la chaˆıne trace associ´ee `a A est   01 Q= . 10 En particulier, elle est irr´eductible et sa probabilit´e invariante est (1/2, 1/2). u On peut diagonaliser le g´en´erateur : A = U −1 DU , o`       1 µ λ 0 0 1 λ et U −1 = D= . , U= 1 −µ 0 −(λ + µ) λ + µ 1 −1 On calcule alors le semi-groupe de transition de la chaˆıne de Markov a` temps continu de g´en´erateur infinit´esimal A par la formule (8.8) : Pt = etA   1 0 U =U 0 e−(λ+µ)t     1 1 µλ λ −λ −(λ+µ)t +e . = λ+µ µ λ λ + µ −µ µ −1

On retrouve bien que la chaˆıne est irr´eductible. La probabilit´e invariante de Pt est caract´eris´ee par πA = 0 soit : π=

1 (µ, λ), λ+µ

(elle est diff´erente en g´en´eral de la probabilit´e invariante de la chaˆıne trace) et on a   1 µλ lim Pt = . t→∞ λ+µ µ λ

Remarquons que pour toute loi initiale, ν, on a limt→∞ νPt = π. De plus on ♦ a νPt − π ≤ e−(λ+µ)t . La vitesse de convergence est exponentielle.

8.4 Processus de Poisson Soit (Tk , k ≥ 1) une suite de variables al´eatoires ind´ependantes de loi exponentielle de param`etre λ > 0. Pour t ≥ 0, on d´efinit 

Nt = sup n ≥ 1 ;

n 

k=1

0

Tk ≤ t ,

avec la convention que sup ∅ = 0. On peut ´egalement ´ecrire  1{n Tk ≤t} . Nt = n≥1

k=1

(8.14)

236

8 Chaˆınes de Markov ` a temps continu

D´ efinition 8.4.1. Le processus N = (Nt , t ≥ 0) est un processus de ˜0 une variable al´eatoire a ` valeurs dans N Poisson de param`etre λ > 0. Soit N ˜0 est ind´ependante de la suite (Tk , k ≥ 1). Le processus de Poisson issu de N ˜ ˜ d´efini par N = (Nt + N0 , t ≥ 0). Le processus de Poisson permet par exemple de mod´eliser les temps de panne successifs d’une machine (voir le Chap. 10) ou les temps d’arriv´ee des clients `a un guichet (voir Chap. 9). ˜ est construit comme le processus X dans l’´equation (8.1), Le processus N avec E = N, λ(x) = λ pour les taux de sauts, et pour matrice de transition de la chaˆıne trace : Q(x, x + 1) = 1 et Q(x, y) = 0 si y = x + 1. Le taux de sauts est constant, ind´ependant de la position. Par construction, le processus de Poisson est une chaˆıne de Markov a` temps continu de g´en´erateur infinit´esimal ⎛ ⎞ −λ λ 0 0 . . . ⎜ ⎟ A = ⎝ 0 −λ λ 0 . . . ⎠. .. .

Le processus de Poisson est transient. Nous donnons quelques propri´et´es des processus de Poisson.

Proposition 8.4.2. (i) Le processus N = (Nt , t ≥ 0) est croissant avec des sauts de 1. (ii) La loi de Nt est la loi de Poisson de param`etre λt. (iii) Pour tout p ∈ N∗ , pour tous 0 = t0 ≤ t1 ≤ · · · ≤ tp , les variables Nt1 − Nt0 , . . . , Ntp − Ntp−1 , sont ind´ependantes. De plus Ntk − Ntk−1 a mˆeme loi que Ntk −tk−1 . On dit que les accroissements du processus (Nt , t ≥ 0) sont ind´ependants et stationnaires. ˜ , car on ne Les propri´et´es (i) et (iii) restent vraies pour le processus N consid`ere que les accroissements. D´emonstration. (i) Il d´ecoule de la formule (8.14), que le processus N est croissant. Remarquons que les sauts de (Nt , t ≥ 0) sont ´egaux a` 1 si et seuleurement. Or ceci est vrai car ment si ∀k ∈ N∗ , Tk = 0 presque sˆ  P(Tk = 0) = 0. P(∃k ∈ N∗ ; Tk = 0) ≤ k≥1

(ii) Remarquons que si n ≥ 1, {Nt ≥ n} =

 n  i=1

0

Ti ≤ t .

n D’apr`es la remarque A.2.12, la loi de k=1 Tk est une loi gamma de param`etre 1 λn sn−1 e−λs 1{s>0} . On en d´eduit donc que pour (λ, n) de densit´e (n − 1)! n ≥ 1,

R´ef´erences

P(Nt = n) = P(Nt ≥ n) − P(Nt ≥ n + 1)  n  n+1    =P Ti ≤ t − P Ti ≤ t i=1

237

i=1

t 1 1 = λn sn−1 e−λs ds − (n − 1)! 0 n! 1 " n n −λs #t λ s e = 0 n! n n λ t . = e−λt n!

t

λn+1 sn e−λs ds 0

Enfin, pour n = 0, on obtient P(Nt = 0) = P(T1 > t) = e−λt . On en d´eduit que la loi de Nt est la loi de Poisson de param`etre λt. (iii) En utilisant Nt0 = 0, la formule des probabilit´es conditionnelles (A.4), et la propri´et´e de Markov, on obtient P(Nt1 − Nt0 = n1 , . . . , Ntp − Ntp−1 = np ) = P(Nt1 = n1 , . . . , Ntp =

p 

ni )

i=1

= P(Nt1 = n1 ) = P(Nt1 = n1 ) = P(Nt1 = n1 )

p k−1 k

    ni ni Nt1 = n1 , . . . , Ntk−1 = P Ntk =

k=2 p 

k=2 p 

k=2

i=1

i=1

k−1 k

   ˜ ˜t −t ni N = n = P N 0 i k k−1 i=1

i=1

P(Ntk −tk−1 = nk ).

Comme ceci est vrai pour toutes valeurs enti`eres de n1 , . . . , np , on d´emontre ainsi la propri´et´e (iii). ⊓ ⊔ Nous terminons ce paragraphe par une propri´et´e asymptotique du processus de Poisson, qui est un cas particulier de la proposition 10.3.3. Proposition 8.4.3. Soit (Nt , t ≥ 0) un processus de Poisson de param`etre λ > 0. On a p.s. Nt = λ. lim t→∞ t

R´ ef´ erences 1. P. Br´emaud. Markov chains. Gibbs fields, Monte Carlo simulation, and queues. Springer texts in applied mathematics. Springer, 1998. 2. K. Chung. Markov chains with stationary transition probabilities. SpringerVerlag, Berlin-Heidelberg-New York, seconde ´edition, 1967.

238

8 Chaˆınes de Markov ` a temps continu

3. E. C ¸ inlar. Introduction to stochastic processes. Prentice-Hall Inc., Englewood Cliffs, N.J., 1975. 4. J. Jacod. Chaˆınes de Markov, processus de Poisson et applications. Cours de DEA, Paris VI, http ://www.proba.jussieu.fr/supports.php, 2004. 5. J. Lacroix. Chaˆınes de Markov et processus de Poisson. Cours de DEA, Paris VI, http ://www.proba.jussieu.fr/supports.php, 2002. 6. B. Ycart. Mod`eles et algorithmes markoviens, volume 39 de Math´ematiques & Applications. Springer, Berlin, 2002.

9 Files d’attente

De nombreuses entreprises sous-traitent leurs centres d’appels t´el´ephoniques `a des soci´et´es de services. Une de ces soci´et´es de services annonce dans sa publicit´e sur internet qu’elle peut dimensionner le nombre d’op´erateurs du centre d’appel en fonction : – du nombre moyen d’appels par unit´e de temps, λ, – de la dur´ee moyenne des appels, 1/µ, – et d’un seuil d’attente, compt´e en nombre de sonneries, tel que la probabilit´e d’attendre plus longtemps que ce seuil avant qu’un op´erateur ne r´eponde soit inf´erieur a` 20 %. L’´etude des lois des temps d’attentes, entre autres, dans les files d’attente remonte aux r´esultats d’Erlang en 1917 [5], qui travaillait pour la Compagnie de T´el´ephone de Copenhague. Depuis, la mod´elisation des files d’attente et des r´eseaux a connu un essor consid´erable dˆ u en particulier a` la diversit´e et `a l’omnipr´esence des files d’attente : caisses d’une grande surface, guichets des compagnies de transport, r´eseaux t´el´ephoniques, r´eseaux informatiques, requˆetes des microprocesseurs, etc. Le but de ce chapitre est de pr´esenter des mod`eles ´el´ementaires de files d’attente et de r´eseaux, mais qui sont en fait repr´esentatifs des ph´enom`enes observ´es. Plus pr´ecis´ement nous introduisons, dans le paragraphe 9.1, des mod`eles de chaˆınes de Markov a` temps continu, vues au Chap. 8, pour les files d’attentes `a K serveurs. Apr`es avoir exhib´e le g´en´erateur infinit´esimal, nous calculons, au paragraphe 9.2 pour un serveur, et au paragraphe 9.3 pour K serveurs, la probabilit´e invariante quand elle existe, le nombre moyen de personnes dans la file d’attente, la loi asymptotique du temps d’attente pour un client arrivant dans le syst`eme. Le calcul de la loi du temps d’attente permet de comprendre comment dimensionner le nombre de serveurs `a partir du nombre moyen d’appels par unit´e de temps, λ, de la dur´ee moyenne des appels, 1/µ, et d’une borne sur le temps moyen d’attente dans la file. On peut ´egalement comparer, selon plusieurs crit`eres, les files d’attente `a un et deux serveurs, quand le serveur de la premi`ere file d’attente est aussi efficace que les deux serveurs de l’autre file d’attente. Le paragraphe 9.4 aborde un exemple

240

9 Files d’attente

´el´ementaire de r´eseaux. Finalement, le paragraphe 9.5 pr´esente le lien entre certaines files d’attente et les processus de Galton-Watson, vus au Chap. 4. Une vaste litt´erature sur le domaine est disponible. Nous renvoyons aux ouvrages suivants : Bougerol [3] et Br´emaud [4] pour une pr´esentation ´el´ementaire, Asmussen [1], Baccelli et Br´emaud [2], et Robert [7] pour une ´etude plus approfondie.

9.1 Introduction 9.1.1 Mod´ elisation des files d’attente Nous pr´esentons d’abord la terminologie usuelle pour la description des files d’attente, puis nous donnerons le g´en´erateur infinit´esimal de la chaˆıne de Markov correspondant aux files M/M/K. Une file d’attente est d´ecrite par un processus d’arriv´ee des clients, un mod`ele pour les temps de services des requˆetes exprim´ees et le mode de gestion des requˆetes. 1. Le processus des temps d’arriv´ees : on utilise la notation GI si les temps entre deux arriv´ees successives de clients, ou temps d’inter-arriv´ees, sont des variables al´eatoires ind´ependantes et de mˆeme loi. Le processus d’arriv´ee est alors la fonction de comptage associ´e aux temps d’inter-arriv´ees. Si de plus la loi est une loi exponentielle, alors le processus des arriv´ees est un processus de Poisson, et on utilise la notation M pour souligner le caract`ere markovien. 2. Les temps de service : on utilise la notation GI si les temps de services sont des variables al´eatoires ind´ependantes de mˆeme loi et ind´ependantes du processus d’arriv´ee. Si de plus la loi des temps de services est une loi exponentielle, on utilise la notation M . Nous verrons que dans ce cas, si le processus d’arriv´ee est un processus de Poisson, alors l’´evolution de la taille de la file d’attente est une chaˆıne de Markov. 3. Gestion des requˆetes : on distingue plusieurs ´el´ements. a) Le nombre de guichets ou serveurs est not´e K ∈ N∗ ∪ {+∞}.

b) La taille de la salle d’attente not´ee k ∈ N∪{+∞}. Quand on t´el´ephone a un centre d’appel, si tous les op´erateurs sont d´ej`a occup´es, alors ` l’appel est mis en attente. Au del` a d’un certain nombre d’appels en attente, correspondant `a la taille de la salle d’attente, la connexion peut ˆetre refus´ee. Pour les r´eseaux t´el´ephoniques, si tous les serveurs sont occup´es, ce qui correspond `a un r´eseau satur´e, alors la connexion est refus´ee. Dans ce cas, la taille de la salle d’attente est donc nulle. Enfin, on suppose que la salle d’attente est commune a` tous les serveurs. Ce n’est pas le cas par exemple aux caisses d’une grande surface, o` u chaque serveur a une file d’attente.

9.1 Introduction

241

c) Il existe plusieurs politiques de gestion des requˆetes. – FIFO (« First In First Out ») : les clients sont servis suivant leur ordre d’arriv´ee. – LIFO (« Last In First Out ») : le dernier client arriv´e est le premier servi. On distingue suivant que le service en cours est termin´e avant de servir le dernier client arriv´e ou interrompu (LIFO avec pr´eemption), puis repris lorsque le service du ou des derniers clients arriv´es est termin´e. Cette derni`ere strat´egie est int´eressante si les requˆetes sont de types tr`es diff´erents : pour un serveur informatique elle permet par exemple de traiter rapidement les courriels courts pour lesquels la probabilit´e d’interruption est faible, et d’accepter en contrepartie que l’envoi de courriels incluant par exemple de gros fichiers soit en partie ralenti. – Requˆetes partag´ees : tous les clients sont servis en mˆeme temps, mais avec une vitesse inversement proportionnelle au nombre de clients. – Al´eatoire : le prochain client de la file d’attente a` ˆetre servi est choisi au hasard. – SPT (« shortest processing time ») : le prochain client de la file d’attente a` ˆetre servi est celui qui a la requˆete la plus courte. – ... Dans ce qui suit on ne consid`ere que la strat´egie FIFO. On utilise la notation conventionnelle de Kendall M/GI/K/k pour d´ecrire une file d’attente dont les temps d’inter-arriv´ees sont ind´ependants de mˆeme loi exponentielle, les temps de services sont ind´ependants de loi quelconque, le nombre de serveurs est K et la taille de la salle d’attente est k. On omet g´en´eralement k lorsque k = ∞. 9.1.2 Pr´ esentation des files M/M/K On consid`ere une file M/M/K, o` u les temps d’inter-arriv´ees suivent la loi exponentielle de param`etre λ > 0, et o` u les temps de services suivent la loi exponentielle de param`etre µ > 0. On note Xt ∈ N la taille du syst`eme `a l’instant t ≥ 0, qui comprend les clients dans la salle d’attente, ainsi que les clients aux guichets. On utilise la notation x ∧ y = min(x, y).

Proposition 9.1.1. Le processus X = (Xt , t ≥ 0) est une chaˆıne de Markov a ` temps continu homog`ene irr´eductible de g´en´erateur infinit´esimal A = (A(i, j), i ≥ 0, j ≥ 0) dont les termes non nuls hors de la diagonale sont A(i, i + 1) = λ et A(i + 1, i) = (i ∧ K)µ pour i ∈ N, soit ⎛ ⎞ −λ λ 0 0 ... ⎜ µ −(λ + µ) λ 0 ...⎟ ⎜ ⎟ A = ⎜ 0 (2 ∧ K)µ −(λ + (2 ∧ K)µ) λ . . . ⎟. (9.1) ⎝ ⎠ .. .

242

9 Files d’attente

Les diff´erentes politiques de gestion des requˆetes ne changent pas le temps de travail du serveur, mais les temps d’attente des clients. La loi de Xt reste inchang´ee si on regarde la strat´egie LIFO sans pr´eemption, ou la strat´egie des requˆetes partag´ees. Enfin les files d’attentes M/M/K exhibent des comportements que l’on retrouve pour les files d’attente plus g´en´erales. D´emonstration. On consid`ere les ´etats successifs du syst`eme (Zn , n ≥ 0) et (Vn , n ≥ 1) les temps entre les changements d’´etat du syst`eme. Si Z0 = 0, le prochain ´ev´enement est l’arriv´ee d’un client. Donc la loi de V1 conditionnellement a` {Z0 = 0} est la loi exponentielle de param`etre λ. Si Z0 = r ≥ 1, le prochain ´ev´enement est soit l’arriv´ee d’un nouveau client, a` la date T , soit la fin de service de l’un des r ∧ K clients, aux dates S1 , . . . , Sr∧K . Il arrive donc a` l’instant V1 = min{T, S1 , . . . , Sr∧K }. D’apr`es le lemme 7.4.4, la loi de V1 est alors la loi exponentielle de param`etre λ + (r ∧ K)µ. De plus on a P(Z1 = r + 1|Z0 = r) = P(V1 = T |Z0 = r) =

λ λ + (r ∧ K)µ

P(Z1 = r − 1|Z0 = r) = P(V1 = T |Z0 = r) =

(r ∧ K)µ , λ + (r ∧ K)µ

et

ainsi que P(|Z1 − r| =  1|Z0 = r) = 0. Le taux de transition, voir la remarque 8.2.5, de r vers r + 1 est ´egal `a λ et de r ≥ 1 vers r − 1 a` (r ∧ K)µ. Enfin, en g´en´eralisant le lemme 8.1.5 `a plusieurs variables exponentielles ind´ependantes, on obtient que conditionnellement a` V1 = T (resp. V1 = Si ), les variables S1 − V1 , . . . , Sr∧K − V1 (resp. T − V1 et Sj − V1 pour 1 ≤ j ≤ r ∧ K et j = i) sont ind´ependantes et de loi exponentielle de param`etre µ (resp. exponentielle de param`etre λ pour T − V1 et exponentielle de param`etre µ pour les autres). En particulier, les lois de (Zk , k ≥ 2) et de (Vk , k ≥ 2) conditionnellement a` Z0 , V1 et Z1 , ne d´ependent que de Z1 . En it´erant le raisonnement, on obtient que (Zn , n ≥ 0) est une chaˆıne de Markov de matrice de transition Q = (Q(i, j), i ≥ 0, j ≥ 0) d´efinie par ⎧ ⎪  1, ⎨0 si |i − j| = Q(i, j) = λ/[λ + (i ∧ K)µ] si j = i + 1, ⎪ ⎩ (i ∧ K)µ/[λ + (i ∧ K)µ] si i ≥ 1 et j = i − 1. Enfin, conditionnellement a` (Zn , n ≥ 0) les variables (Vn , n ≥ 1) sont ind´ependantes, et la loi de Vk est la loi exponentielle de param`etre λ+(Zk−1 ∧ K)µ. Si K est fini, alors la condition (8.3) est satisfaite car les taux de sauts sont born´es par λ + Kµ. Si K est infini, alors la condition (8.3) est satisfaite d’apr`es l’exercice 8.1.4. Par construction, X = (Xt , t ≥ 0) est une chaˆıne de Markov homog`ene `a temps continu de g´en´erateur infinit´esimal A, d´efini par (9.1).

´ 9.2 Etude des files ` a un serveur : M/M/1

243

V´erifions qu’elle est irr´eductible. Soit x  = y ∈ N. Si x < y, on a y−x−1 x−y−1 A(x + i, x + i + 1) > 0 et si x > y, on a A(x − i, x − i − 1) > 0. i=0 i=0 La chaˆıne est irr´eductible d’apr`es l’exercice 8.3.5. ⊓ ⊔

´ 9.2 Etude des files ` a un serveur : M/M/1 Les inter-arriv´ees des clients suivent la loi exponentielle de param`etre λ, et les temps des services suivent la loi exponentielle de param`etre µ. Le temps moyen de service est E[S] = 1/µ et le temps moyen entre deux arriv´ees de clients est E[T ] = 1/λ. On d´efinit la densit´e de trafic par ρ = λ/µ. Elle correspond au temps moyen de service divis´e par le temps moyen entre deux arriv´ees. D’apr`es la proposition 8.4.3, λ repr´esente le nombre moyen de personnes arrivant par unit´e de temps dans le syst`eme. De mˆeme µ peut ´egalement s’interpr´eter comme le nombre moyen de personnes servies par unit´e de temps par un serveur ayant une infinit´e de clients. Ainsi, la densit´e de trafic peut aussi s’interpr´eter comme le nombre moyen de personnes arrivant par unit´e de temps divis´e par le nombre moyen de personnes servies par unit´e de temps. On d´esire ´etudier le comportement de la file, X = (Xt , t ≥ 0), en temps long : nombre moyen de clients dans le syst`eme, temps d’attente d’un nouveau client,... Grˆ ace aux th´eor`emes 8.3.7 et 8.3.12, les limites en temps long correspondent a` des moyennes sous la probabilit´e invariante. Dans le paragraphe 9.2.1 nous d´eterminons la probabilit´e invariante, π, appel´ee aussi probabilit´e stationnaire. Puis nous calculons la taille moyenne du syst`eme dans le r´egime stationnaire. Dans les paragraphes 9.2.2 et 9.2.3 nous calculons le temps moyen d’attente d’un client virtuel arrivant dans la file d’attente a` l’instant t, avec t grand, ou du n-i`eme client, avec n grand. 9.2.1 Probabilit´ e invariante Proposition 9.2.1. Il existe une (unique) probabilit´e invariante π pour la chaˆıne X si et seulement si ρ < 1. De plus, si ρ < 1, la probabilit´e invariante π = (πn , n ∈ N) est donn´ee par πn = ρn (1 − ρ),

n ∈ N.

(9.2)

Remarquons que si Y est de loi π, alors 1 + Y suit une loi g´eom´etrique de param`etre 1 − ρ. Enfin le cas ρ ≥ 1 est abord´e dans la remarque 9.5.2. La figure 9.1 repr´esente des simulations de la chaˆıne X pour diverses valeurs de ρ. D´emonstration. La chaˆıne est irr´eductible. Elle poss`ede donc au plus une probabilit´e invariante, π d´etermin´ee par πA = 0, o` u A est le g´en´erateur infinit´esimal de X donn´e dans la proposition 9.1.1 avec K = 1. On obtient le syst`eme suivant : −λπ0 + µπ1 = 0 et pour k ≥ 2, λπk−2 − (λ + µ)πk−1 + µπk = 0.

244

9 Files d’attente 8

16

ρ = 1/2

6

12

4

8

2

4

0

ρ=1

0 0

10

20

30

40

50

60

70

80

90 100

12

0

10

20

30

40

50

60

70

80

90 100

48

9

ρ=2

36

ρ=1

6

24

3

12

0

0 0

10

20

30

40

50

60

70

80

90 100

0

10

20

30

40

50

60

70

80

90 100

Fig. 9.1. Simulations d’une file M/M/1, t → Xt , pour diff´erentes valeurs de ρ, avec λ=1

En sommant la premi`ere ´egalit´e et les ´egalit´es ci-dessus pour k ≤ n (ce qui revient a` sommer les n premi`eres colonnes de A puis a` multiplier le r´esultat `a gauche par π), il vient 0 = −λπ0 + µπ1 +

n 

(λπk−2 − (λ + µ)πk−1 + µπk ) = −λπn−1 + µπn .

k=2

On en d´eduit que πn = ρπn−1 , puis que πn = ρn π0 . La suite (πn ,  n ∈ N) d´efinit une probabilit´e si et seulement si n≥0 πn = 1, c’est-`a-dire π0 n≥0 ρn = 1. Ceci n’est r´ealisable que si ρ < 1. Dans ce cas, on a pour n ≥ 0, πn = ⊓ ⊔ ρn (1 − ρ). Remarque 9.2.2. Le th´eor`eme 8.3.7 assure, si ρ < 1, que la suite des lois des variables Xt converge ´etroitement vers π quand t tend vers l’infini. Le calcul de P(Xt = j | X0 = i) est difficile. On peut en trouver une expression dans [1], p. 89 et p. 92, ainsi que l’approximation √

P(Xt = j | X0 = i) − π(j) ≈ C(i, j)t−3/2 e−(

√ 2 µ− λ) t

,

´ 9.2 Etude des files ` a un serveur : M/M/1

245

o` u C(i, j) est une constante qui d´epend que de i, j, λ et µ. Remarquons que le taux de d´ecroissance dans l’exponentielle est ind´ependant de i et j. La

√ √ −2 est souvent appel´ee temps de relaxation du syst`eme. µ− λ quantit´e ♦ Proposition 9.2.3. On suppose ρ < 1. En r´egime stationnaire, on a E[Xt ] =



nπn =

n≥0

ρ 1−ρ

et

Var(Xt ) =

ρ . (1 − ρ)2

La figure 9.2 repr´esente des simulations de l’´evolution de la moyenne en temps du nombre d’individus dans  le syst`eme. D’apr`es le th´eor`eme ergodique, cette quantit´e converge vers n≥0 nπn = ρ/(1 − ρ) si ρ < 1. On peut d´emontrer qu’elle diverge si ρ ≥ 1. D´emonstration. On a vu que si Y est de loi π, alors 1 + Y suit une loi g´eom´etrique de param`etre 1 − ρ. Les r´esultats d´ecoulent alors du paragraphe A.2.1 (voir le tableau A.1 page 396). ⊓ ⊔ 3

60

ρ = 1/2

ρ=1

2

40

1

20

0

0 0

100 200 300 400 500 600 700 800 900 1000 300

0

100 200 300 400 500 600 700 800 900 1000

ρ=2 200

100

0 0

100 200 300 400 500 600 700 800 900 1000

Fig. 9.2. Simulations de t → valeurs de ρ, avec λ = 1

1 t

t

Xs ds, pour une file M/M/1 pour diff´erentes 0

246

9 Files d’attente

Exercice 9.2.4. Pour ρ > 0, calculer le temps moyen de repos du serveur t  par unit´e de temps, c’est-`a-dire limt→∞ 1t 0 1{Xs =0} ds.

Exercice 9.2.5. Calculer, en r´egime stationnaire, la loi du premier temps de sortie d’un client de la file d’attente. Voir le paragraphe 9.4.2 pour plus d’information sur le processus de sortie. 

9.2.2 Temps pass´ e dans la file d’attente : client virtuel On suppose ρ < 1. On consid`ere un client virtuel arrivant a` l’instant t dans la file d’attente. On note W (t) le temps pass´e dans la file d’attente par ce client avant que ne d´ebute son service, et U (t), le temps total pass´e dans le syst`eme. Bien sˆ ur on a U (t) = W (t) + S, o` u S, qui repr´esente le temps de service du client virtuel, est une variable al´eatoire ind´ependante de W (t) de loi exponentielle de param`etre µ. Proposition 9.2.6. On suppose ρ < 1. Les variables al´eatoires (W (t), t ≥ 0) convergent en loi quand t tend vers l’infini. Si W suit la loi limite, alors on a P(W = 0) = (1 − ρ) et pour s ≥ 0, P(W > s) = ρ e−(µ−λ)s . Enfin en r´egime stationnaire la loi de W (t) est ´egale a ` la loi de W . Remarquons que P(W > s | W > 0) = e−(µ−λ)s . La loi de W conditionnellement `a {W > 0} est la loi exponentielle de param`etre µ − λ. En r´esum´e, quand un client virtuel arrive a` l’instant t, t grand, alors avec probabilit´e 1 − ρ, il est servi tout de suite, et avec probabilit´e ρ, il doit attendre un temps al´eatoire de loi exponentielle de param`etre µ − λ. D´emonstration. Pour Xt = 0, on a W (t) = 0. Pour Xt = k ≥ 1, le syst`eme comporte k clients avant l’arriv´ee du client virtuel. Le service de ce dernier u S1 repr´esente le temps r´esiduel d´ebutera a` l’instant S1 + S2 + . . . + Sk , o` de service du premier client du syst`eme et Si , i ≥ 2, repr´esente la dur´ee de service du i − 1-`eme client dans la file d’attente. Par construction les variables (Si , 1 ≤ k) sont ind´ependantes, les variables (Si , 2 ≤ i ≤ k) suivent des lois exponentielles de param`etre µ. Par la propri´et´e sans m´emoire des lois exponentielles, le temps r´esiduel de service, S1 suit ´egalement une loi exponentielle de param`etre µ. Si on note νt la loi de Xt , on obtient pour s ≥ 0, P(W (t) > s) =



k≥0

P(W (t) > s, Xt = k) =



k≥1

k

  νt (k)P Si > s . i=1

D’apr`es le th´eor`eme 8.3.7, la chaˆıne (Xt , t ≥ 0) converge en loi vers une variable de loi π. En particulier, (νt , f ) converge vers (π, f ) pour toute fonction f born´ee. Comme πn = ρn (1 − ρ), on a donc

´ 9.2 Etude des files ` a un serveur : M/M/1

lim P(W (t) > s) =

t→∞



k≥1

=



k≥1

k

  πk P Si > s

247

i=1

ρk (1 − ρ)

= ρ(1 − ρ)µ

1 (k − 1)!





µk uk−1 e−µu du

s

eρµu e−µu du

s

= ρ e−(µ−λ)s , o` u pour la deuxi`eme ´egalit´e, on a utilis´e que la somme de k variables exponentielles de mˆeme param`etre, µ, ind´ependantes suit une loi gamma de param`etre (µ, k). Enfin on a P(W (t) = 0) = P(Xt = 0), qui converge vers π0 = (1 − ρ) quand t tend vers l’infini. On en d´eduit que les fonctions de r´epartition de (W (t), t ≥ 0) convergent vers la fonction de r´epartition de la variable W , d´efinie par P(W ≤ s) = 1 − P(W > s) = 1 − ρ e−(µ−λ)s pour s ≥ 0. Ceci implique la convergence en loi de la suite (W (t), t ≥ 0) vers W quand t tend vers l’infini. Enfin, en r´egime stationnaire, on a νt = π, ce qui assure que W (t) a mˆeme loi que W . ⊓ ⊔ Exercice 9.2.7. On suppose ρ > 1. Soit U une variable al´eatoire exponentielle de param`etre µ − λ > 0. 1. Montrer, en utilisant la proposition 9.2.6 et les fonctions caract´eristiques, que (U (t), t ≥ 0) converge en loi vers U .

2. V´erifier qu’en r´egime stationnaire U (t) a mˆeme loi que U . 3. Montrer et interpr´eter les ´egalit´es suivantes : E[W ] =

1 ρ , µ 1−ρ

E[U ] =

1 1 . µ 1−ρ 

9.2.3 Temps pass´ e dans la file d’attente : client r´ eel Dans les ph´enom`enes d’attente, il existe parfois des paradoxes. Ainsi le temps d’attente d’un client virtuel arrivant a` l’instant t, W (t), est en g´en´eral diff´erent du temps d’attente, Wn , du n-i`eme client, dit client r´eel, arriv´e apr`es l’instant initial. Par exemple dans le cas stationnaire, a` t fix´e, la loi du nombre de clients dans le syst`eme juste avant l’arriv´ee du client virtuel a` l’instant t, not´e Xt− , est π, mais pour T al´eatoire, la loi du nombre de clients dans le syst`eme juste avant l’instant T , XT − est a priori diff´erente de π. En effet, consid´erons comme temps al´eatoire T1 , le temps d’arriv´ee du premier client apr`es l’instant initial. Entre 0 et T1 , si X0 > 0, il existe une probabilit´e non nulle pour que

248

9 Files d’attente

des clients aient termin´e leurs services. Donc, si X0 > 0, avec probabilit´e strictement positive on a XT − < X0 . Ainsi la loi de XT − est diff´erente de π. 1 1 Pour ´etudier la loi asymptotique de Wn , nous regardons l’´evolution du syst`eme juste avant l’arriv´ee des nouveaux clients. On note (Ti , i ≥ 1) la suite  des inter-arriv´ees des clients dans la file d’attente. Pour n ≥ 1, on pose n τn = i=1 Ti le temps d’arriv´ee du n-i`eme client. Le nombre de clients dans le syst`eme juste avant l’arriv´ee du client n est X(n) = Xτn− = Xτn − 1. On suppose que l’instant t = 0 correspond a` l’arriv´ee d’un nouveau client, de sorte que X0 ≥ 1, et on pose X(0) = X0 − 1. ` temps Proposition 9.2.8. La suite (X(n) , n ≥ 0) est une chaˆıne de Markov a discret homog`ene ` a valeurs dans N.

D´emonstration. Soit (Zn , n ≥ 0) la chaˆıne trace associ´ee `a la chaˆıne `a temps continu (Xt , t ≥ 0). Par hypoth`ese, on a Z0 > 0. On pose Z(0) = Z0 − 1 et R1 = inf{k ≥ 1 ; Zk = Zk−1 + 1}, le nombre d’´etapes avant l’arriv´ee d’un nouveau client. Pour n ≥ 1, on consid`ere, pour la chaˆıne trace, la date d’arriv´ee du n-i`eme client, Vn ∈ N, la taille du syst`eme juste avant son arriv´ee, Z(n) , et le temps d’inter-arriv´ee entre ce client et le client suivant, Rn+1 ∈ N∗ . Plus pr´ecis´ ement, on pose V0 = 0 et pour tout n ≥ 1, on d´efinit par r´ecurrence  n Vn = k=1 Rk , Z(n) = ZVn − 1 et Rn+1 = inf{k ≥ 1 ; Zk+Vn = Zk+Vn −1 + 1}. Par construction on a Z(n) = X(n) pour tout n ∈ N. Nous montrons maintenant que (Z(n) , n ≥ 0) est une chaˆıne de Markov. Par construction, pour tout n ∈ N∗ , on a p.s. Z(n) ≤ Z(n−1) + 1, avec ´egalit´e si aucun client n’a fini son service entre l’arriv´ee du (n − 1)-i`eme et du n-i`eme client. Entre les instants Vn−1 + 1 et Vn − 1, on n’observe pour la chaˆıne trace que des sorties de clients. On en d´eduit que pour k ∈ {0, Rn − 1} on a ZVn−1 +k = Z(n−1) + 1 − k, ainsi que Rn = Z(n−1) + 2 − Z(n) et donc Vn = Z(0) + 2n − Z(n) . On en d´eduit donc que pour un chemin donn´e, n ∈ N∗ , x0 , . . . , xn avec xk+1 ≤ xk + 1 et 0 ≤ k ≤ n − 1, l’´ev´enement {Z(0) = x0 , . . . , Z(n) = xn } d´etermine compl`etement les valeurs de (Zk , 0 ≤ k ≤ x0 + 2n − xn ). En particulier, si on pose vn−1 = x0 + 2(n − 1) − xn−1 et rn = xn−1 + 2 − xn , l’´ev´enement {Z(n) = xn , . . . , Z(0) = x0 } est ´egal `a l’intersection de {Zvn−1 +rn = xn + 1, (Zvn−1 +k = xn−1 + 1 − k, 1 ≤ k ≤ rn − 1)} et de {Z(n−1) = xn−1 , . . . , Z(0) = x0 }. Apr`es avoir remarqu´e que sur l’´ev´enement {Z(n−1) = xn−1 , . . . , Z(0) = x0 }, on a Vn−1 = vn−1 et Zvn−1 = xn−1 + 1, on d´eduit de la proposition 1.1.7 appliqu´ee `a la chaˆıne de Markov Z ` a l’instant vn−1 , que pour n ≥ 1, on a P(Z(n) = xn |Z(0) = x0 , . . . , Z(n−1) = xn−1 )

= P(Zrn = xn + 1, (Zk = xn−1 + 1 − k, 1 ≤ k ≤ rn − 1)|Z0 = xn−1 + 1) = P(Z(1) = xn |Z(0) = xn−1 ).

Ceci assure que (Z(n) , n ≥ 0) est une chaˆıne de Markov homog`ene.

⊓ ⊔

´ 9.2 Etude des files ` a un serveur : M/M/1

249

Proposition 9.2.9. La chaˆıne de Markov (X(n) , n ≥ 0) est irr´eductible et ap´eriodique. Elle poss`ede une (unique) probabilit´e invariante si et seulement si ρ < 1. La probabilit´e invariante est alors la probabilit´e π d´efinie par (9.2). D´emonstration. On reprend les notations de la d´emonstration pr´ec´edente. D´eterminons la matrice de transition P . Pour k ≥ 1, l ≥ 0, on remarque que si Z(0) = k + l et Z(1) = k, alors a` l’instant t = 0, k + l + 1 clients sont dans le syst`eme. De plus, quand arrive un nouveau client, l + 1 clients ont ´et´e servis et ont quitt´e le syst`eme, et le service du l + 2-i`eme client a d´ebut´e, mais n’est pas termin´e. Les temps de service S1 , . . . , Sl+1 , Sl+2 de ces l + 2 clients sont des variables ind´ependantes de loi exponentielle de param`etre µ, ind´ependantes du temps d’arriv´ee, T du nouveau client. On en d´eduit que pour k ≥ 1, l ≥ 0, P(Z(1) = k | Z(0) = k + l) = P

 l+1  i=1

Si < T ≤

l+2 



Si .

i=1

En utilisant l’ind´ependance de T avec les variables S1 , . . . , Sl+2 , on d´eduit de (8.4) P

 l+1  i=1

Si < T ≤

l+2 

Si

i=1



=P

 l+1 

Si < T

i=1



−P

 l+2 

Si < T

i=1



l+2 l+1



= E e−λ i=1 Si − E e−λ i=1 Si l+2 l+1



− E e−λS1 = E e−λS1

=



µ λ+µ

l+1





µ λ+µ

l+2

.

On obtient pour k ≥ 1, l ≥ 0, P(Z(1) = k | Z(0) = k + l) =

λµl+1 . (λ + µ)l+2

Pour l = −1, un nouveau client arrive avant que le premier service soit termin´e. On a alors P(Z(1) = k | Z(0) = k − 1) = λ/(λ + µ). Comme Z(1) ≤ Z(0) + 1, on en d´eduit que P(Z(1) = k | Z(0) = k + l) = 0 si − k ≤ l < −1. Enfin si Z(0) = l, pour l ≥ 0, et Z(1) = 0, cela signifie que l + 1 clients sont dans le syst`eme `a l’instant t = 0, et qu’ils ont tous ´et´e servis avant l’arriv´ee du nouveau client. On d´eduit de (8.4) que  l+1  l+1  µl+1 . Si < T = E[e−λ i=1 Si ] = P(Z(1) = 0 | Z(0) = l) = P (λ + µ)l+1 i=1

250

9 Files d’attente

On en d´eduit que les termes P (i, j) de la matrice de transition sont nuls pour j > i + 1, et  ! λ µi−j+1 1{j>0} , pour i + 1 ≥ j ≥ 0, i ≥ 0. 1{j=0} + P (i, j) = (λ + µ)i−j+1 λ+µ Comme pour tout i ∈ N, on a P (i, i + 1) = λ/(λ + µ) > 0 et P (i, 0) > 0, on en d´eduit que la chaˆıne est irr´eductible et ap´eriodique. Supposons ρ < 1, et v´erifions que π d´efinie par (9.2) est une probabilit´e invariante. Soit j ≥ 1, on a 

πi P (i, j) =

i≥0



i≥j−1

ρi (1 − ρ)

= ρj−1 (1 − ρ) j

= ρ (1 − ρ) = πj ,

λµi−j+1 (λ + µ)i−j+2

λ  l µl ρ λ+µ (λ + µ)l l≥0

o` u on a pos´e l = i −j + 1 dans la deuxi`eme ´egalit´e. En  sommant ces ´egalit´es sur j ≥ 1, il vient i≥0 πi (1 − P (i, 0)) = 1 − π0 , soit i≥0 πi P (i, 0) = π0 . La probabilit´e π est donc une probabilit´e invariante. Comme la chaˆıne est irr´eductible, c’est la seule. Supposons ρ ≥ 1. Si la chaˆıne trace, Z, poss´edait une probabilit´e invariante, alors d’apr`es l’exercice 8.3.11, comme les taux de sauts sont minor´es par λ, la chaˆıne X poss`ederait ´egalement une probabilit´e invariante. Comme ce n’est pas le cas d’apr`es la proposition 9.2.1, on en d´eduit que la chaˆıne trace ne poss`ede pas de probabilit´e invariante. Rappelons que Vk d´esigne le temps d’arriv´ee du k-i`eme client pour la chaˆıne trace. Remarquons que si Z(k) = 0 pour k ≥ 1, alors il existe j ≥ 1 tel que Vk = j et Zj−1 = 0. On en d´eduit que n 

k=1

1{Z(k) =0} ≤

V n −1 j=0

1{Zj =0} .

On a vu que Vn = Z(0) + 2n − Z(n) . Ceci assure que lim supn→∞ Vn /n ≤ 2, et donc 0 ≤ lim sup n→∞

Vn −1 n 1 1  1{Z(k) =0} ≤ lim sup(Vn /n) lim sup 1{Zj =0} . n n→∞ n→∞ Vn j=0 k=1

Comme limn→∞ Vn = +∞, le th´eor`eme ergodique n 8.3.12 implique que le terme de droite est nul. Donc on a p.s. limn→∞ n1 k=1 1{Z(k) =0} = 0. Comme la chaˆıne (Z(n) , n ≥ 1) est irr´eductible, ceci implique, d’apr`es la proposition 8.3.9, qu’elle ne poss`ede pas de probabilit´e invariante. ⊓ ⊔

´ 9.3 Etude des files ` a K serveurs : M/M/K

251

Donc, pour ρ < 1, si X0 − 1 suit la loi π, alors la chaˆıne (X(n) , n ≥ 0) est stationnaire. Dans ce r´egime stationnaire, le nombre de clients dans le syst`eme juste avant l’arriv´ee d’un nouveau client est distribu´e suivant la probabilit´e π. On retrouve la mˆeme loi que pour le nombre de clients dans le syst`eme avant l’arriv´ee d’un client virtuel. Il ne s’agit toutefois pas des mˆemes r´egimes stationnaires. Dans le cas du client virtuel, on regarde le r´egime stationnaire qui apparaˆıt apr`es un temps long, dans le cas du client r´eel, on regarde le r´egime stationnaire qui apparaˆıt apr`es un grand nombre d’arriv´ees de clients (le temps long est ici al´eatoire). On consid`ere le n-i`eme client, et on note Wn le temps pass´e dans la file d’attente par ce client avant que ne d´ebute son service. La d´emonstration de la proposition suivante est analogue a` celle de la proposition 9.2.6 pour le client virtuel. Proposition 9.2.10. On suppose ρ < 1. La suite (Wn , n ≥ 0) converge en loi vers W , d´efinie dans la proposition 9.2.6. Si X0 − 1 suit la loi π, alors la chaˆıne (X(n) , n ≥ 0) est stationnaire et Wn a mˆeme loi que W . On retrouve donc les mˆemes lois pour le client r´eel et pour le client virtuel en ce qui concerne les temps d’attente et les temps pass´es dans le syst`eme. Ces r´esultats sont pr´eserv´es mˆeme si les temps de services sont des variables al´eatoires ind´ependantes de mˆeme loi quelconque, pourvu que le processus des arriv´ees soit un processus de Poisson. Cette propri´et´e est connue sous le nom de propri´et´e PASTA (« Poissons Arrivals See Time Average »). En revanche, les lois asymptotiques pour le temps d’attente du client r´eel et du client virtuel sont en g´en´eral diff´erentes si le processus d’arriv´ee n’est plus un processus de Poisson.

´ 9.3 Etude des files ` a K serveurs : M/M/K On consid`ere une file d’attente avec K ∈ N serveurs ind´ependants. Le processus d’arriv´ee est un processus de Poisson de param`etre λ. Les temps de services sont des variables exponentielles de param`etre µ. On d´efinit la densit´e de trafic par ρ = λ/(Kµ) . Attention, certains auteurs consid`erent que la densit´e de trafic est ρ = λ/µ. 9.3.1 Probabilit´ e invariante Proposition 9.3.1. Il existe une (unique) probabilit´e invariante π pour la chaˆıne X si et seulement si ρ < 1. De plus, si ρ < 1, la probabilit´e invariante π = (πn , n ∈ N) est donn´ee par KK Kn si n ≤ K, πn = π0 ρn n! K!  et π0 est d´etermin´e par k≥0 πn = 1. πn = π0 ρn

si n ≥ K,

(9.3)

252

9 Files d’attente

D´emonstration. La chaˆıne est irr´eductible. Elle poss`ede au plus une probabilit´e invariante, π, d´etermin´ee par πA = 0, o` u A est le g´en´erateur infinit´esimal de X donn´e dans la proposition 9.1.1. On obtient le syst`eme suivant : −λπ0 + µπ1 = 0 et pour k ≥ 2, λπk−2 − (λ + ((k − 1) ∧ K)µ)πk−1 + (k ∧ K)µπk = 0. En sommant la premi`ere ´egalit´e et les ´egalit´es ci-dessus pour k ≤ n (ce qui revient a` sommer les n premi`eres colonnes de A puis a` multiplier le r´esultat `a gauche par π), il vient 0 = −λπ0 + µπ1 +

n 

(λπk−2 − (λ + ((k − 1) ∧ K)µ)πk−1 + (k ∧ K)µπk )

k=2

= −λπn−1 + (n ∧ K)µπn . n  K K πn−1 , puis que πn = π0 ρn , ce qui n∧K k∧K k=1 donne (9.3). La suite (πn , n ∈ N) d´efinit une probabilit´e si et seulement si  π ealisable que si ρ < 1. La constante π0 est alors n≥0 n = 1. Ceci n’est r´  n K n d´efinie par π0 k≥0 ρ ⊓ ⊔ k=1 k∧K = 1.

On en d´eduit que πn = ρ

Donnons maintenant quelques r´esultats sur la file d’attente en r´egime stationnaire.

Proposition 9.3.2. Soit ρ < 1. On suppose que X0 est distribu´e suivant la probabilit´e invariante. ρK K K . 1. La probabilit´e pour que tous les serveurs soient occup´es est π0 1 − ρ K! 2. Le nombre moyen de serveurs occup´es est Kρ. 3. Le nombre moyen de clients dans le syst`eme est E[Xt ] =



nπn = Kρ + π0

n≥0

ρK+1 K K . (1 − ρ)2 K!

D´emonstration. 1. La probabilit´e pour que tous les serveurs soient occup´es est P(Xt ≥ K). On a donc P(Xt ≥ K) =



n≥K

πn =



n≥K

π0 ρn

KK ρK K K = π0 . K! 1 − ρ K!

2. Le nombre de serveurs occup´es est Xt ∧ K. On a, en utilisant πn = K πn−1 pour n ≥ 1, ρ n∧K

´ 9.3 Etude des files ` a K serveurs : M/M/K

E[Xt ∧ K] =



n≥1

(n ∧ K)πn = ρK



253

πn−1 = Kρ.

n≥1

3. On a, en utilisant le calcul pr´ec´edent, E[Xt ] =



nπn

n≥0

=

K 

nπn +

n=1



Kπn +

n≥K+1

= Kρ + π0 ρK

KK K!



(n − K)πn

n≥K+1



(n − K)ρn−K .

n≥K+1

Remarquons que 

(n − K)ρn−K =

n≥K+1



n≥1

nρn =

ρ  n−1 ρ , nρ (1 − ρ) = 1−ρ (1 − ρ)2 n≥1

o` u pour la derni`ere ´egalit´e on a reconnu dans la somme l’esp´erance d’une variable al´eatoire de loi g´eom´etrique de param`etre 1 − ρ. On en d´eduit que KK ρ . ⊓ ⊔ E[Xt ] = Kρ + π0 ρK K! (1 − ρ)2 9.3.2 Temps pass´ e dans la file d’attente : client virtuel On suppose ρ < 1. Comme dans le paragraphe 9.2.2, on consid`ere un client virtuel arrivant a` l’instant t dans la file d’attente. On note W (t) le temps pass´e dans la file d’attente par ce client avant que ne d´ebute son service, et U (t), le temps total pass´e dans le syst`eme. Bien sˆ ur on a U (t) = W (t) + S, o` u S est une variable al´eatoire ind´ependante de W (t) de loi exponentielle de param`etre µ. Proposition 9.3.3. On suppose ρ < 1. Les variables al´eatoires (W (t), t ≥ 0) convergent en loi quand t tend vers l’infini. Si W suit la loi limite, alors on ρK K K et pour s ≥ 0, P(W > s) = a P(W = 0) = 1 − a, avec a = π0 1 − ρ K! −(Kµ−λ)s ae . Enfin en r´egime stationnaire la loi de W (t) est ´egale a ` la loi de W . On retrouve en particulier le r´esultat 1. de la proposition 9.3.2. En effet {W > 0} correspond bien au fait que tous les serveurs sont occup´es.

254

9 Files d’attente

Remarquons encore que la loi de W conditionnellement a` {W > 0} est la loi exponentielle de param`etre (Kµ − λ). En r´esum´e, quand un client virtuel arrive a` l’instant t, pour t grand, alors avec probabilit´e 1 − a, il est servi tout de suite, et avec probabilit´e a, il doit attendre un temps al´eatoire de loi exponentielle de param`etre Kµ − λ avant que son service d´ebute. La figure 9.3 repr´esente l’´evolution de E[W ] et de P(W > t) quand K varie, pour deux valeurs de µ. Remarque 9.3.4. Comme pour les files d’attente M/M/1, on obtient les mˆemes r´esultats si on regarde les limites en loi des temps d’attente dans la file pour un client virtuel arrivant a` l’instant t, t grand, ou du n-i`eme client r´eel, n grand. ♦ D´emonstration de la proposition 9.3.3. Pour Xt ≤ K −1, il reste au moins un serveur libre. Le service du client virtuel d´ebute imm´ediatement. On a alors W (t) = 0. Pour Xt = k ≥ K, le syst`eme comporte k clients avant l’arriv´ee du client virtuel. On note V1 le premier temps de sortie de la file d’attente d’un client u la variable al´eatoire Si apr`es l’instant t : V1 = min{Si , 1 ≤ i ≤ K}, o` d´esigne le temps r´esiduel de service du client au guichet i. Les variables Si sont ind´ependantes et, grˆ ace `a la propri´et´e sans m´emoire des lois exponentielles, de mˆeme loi exponentielle de param`etre µ. Donc V1 suit la loi exponentielle de param`etre Kµ. On note Vj le temps entre la (j − 1)-i`eme et la j-`eme sortie d’un client de la file d’attente apr`es l’instant t. Remarquons que le serveur

1.0

P(W > t), pour 1/µ = 18 E[W], pour 1/µ = 18

0.8

P(W > t), pour 1/µ = 20 E[W], pour 1/µ = 20

0.6

0.4

0.2

0.0 20

21

22

23

24

25

26

27

28

29

30

´ Fig. 9.3. Evolution de E[W ] et de P(W > t), o` u t = 3 minutes, en fonction de K ∈ {21, . . . , 30}, avec des arriv´ees de clients toutes les minutes en moyenne (λ = 1), et des services de 20 et 18 minutes en moyenne

´ 9.3 Etude des files ` a K serveurs : M/M/K

255

lib´er´e lors de la j-i`eme sortie d’un client commence `a servir un des k − K clients qui attendaient a` l’instant t. On en d´eduit que le service du nouveau client d´ebutera apr`es le temps V1 + V2 + . . . + Vk−K+1 . En utilisant le caract`ere sans m´emoire des lois exponentielles, on montre que les variables al´eatoires (Vj , 1 ≤ j ≤ k − K + 1) sont ind´ependantes et de mˆeme loi exponentielle de param`etre Kµ. La loi de V1 + V2 + . . . + Vk−K+1 est donc une loi gamma de param`etre (Kµ, k − K + 1). Si on note νt la loi de Xt , on obtient pour s ≥ 0, P(W (t) > s) =



P(W (t) > s, Xt = k)

k≥K

=



νt (k)P (V1 + . . . + Vk−K+1 > s)

k≥K

=



+∞

1 (Kµ)k−K+1 rk−K e−Kµr dr. (k − K)!

νt (k) s

k≥K

D’apr`es le th´eor`eme 8.3.7, la chaˆıne (Xt , t ≥ 0) converge en loi vers une variable de la loi π. En particulier, (νt , f ) converge vers (π, f ) pour toute fonction f born´ee. On a donc lim P(W (t) > s) =

t→∞



+∞

πk

k≥K +∞

= s



π0 ρk

k≥K

= π0 ρK = π0

s

1 (Kµ)k−K+1 rk−K e−Kµr dr (k − K)!

KK Kµ K!

KK 1 (Kµ)k−K+1 rk−K e−Kµr dr K! (k − K)! +∞

e−(Kµ−λ)r dr s

ρK K K −(Kµ−λ)s e . 1 − ρ K!

ρK K K et P(W = 0) = 1 − a. 1 − ρ K! Enfin, en r´egime stationnaire, on a νt = π, ce qui assure que W (t) a mˆeme loi que W . ⊓ ⊔ On en d´eduit que a = P(W > 0) = π0

256

9 Files d’attente

Exercice 9.3.5. Montrer que le temps moyen d’attente dans la file est en r´egime stationnaire : E[W ] =

1 ρK K K π0 . Kµ (1 − ρ)2 K! 

Exercice 9.3.6. On consid`ere la file M/M/2 de param`etre (λ, µ). 1−ρ 2ρ 1. Montrer que π0 = et qu’en r´egime stationnaire E[Xt ] = . 1+ρ 1 − ρ2 2. Montrer que P(W = 0) = 1 −

2ρ2 , 1+ρ

E[W ] =

1 ρ2 , µ 1 − ρ2

E[U ] =

1 1 . µ 1 − ρ2

3. Comparer ces r´esultats avec une file M/M/1 de param`etre (λ, 2µ). Quelle file est pr´ef´erable pour le client ? Quel crit`ere prendre en compte ?  Exercice 9.3.7. On consid`ere la file M/M/∞, qui comporte une infinit´e de serveurs. u Xt d´esigne 1. V´erifier, grˆ ace `a l’exercice 8.1.4, que le processus (Xt , t ≥ 0), o` le nombre de personnes dans le syst`eme, est une chaˆıne de Markov a` temps continu. 2. V´erifier que la chaˆıne est homog`ene irr´eductible. 3. Calculer et reconnaˆıtre la probabilit´e invariante de la file M/M/∞. 4. Quel est le nombre moyen de clients dans le syst`eme en r´egime stationnaire ?  Exercice 9.3.8. Le but de cet exercice est l’´etude d’une file d’attente avec deux serveurs de caract´eristiques diff´erentes. On consid`ere une file d’attente avec deux serveurs A et B. On suppose que les temps de service du serveur A (resp. B) sont des variables al´eatoires exponentielles de param`etres µA (resp. µB ), avec µA ≥ µB > 0. On suppose que le processus d’arriv´ee est un processus de Poisson de param`etre λ > 0. Si les deux serveurs sont libres, on suppose que le client qui arrive choisit le serveur A, qui est en moyenne le plus rapide. Si un seul serveur est libre, on suppose que le client qui arrive va directement a` ce serveur. On note Xt l’´etat du syst`eme `a l’instant t. Si Xt = 0, les deux serveurs sont libres, si Xt ≥ 2, les deux serveurs sont occup´es. Si un seul serveur est occup´e, on distingue le u B est occup´e, on note cas o` u A est occup´e, on note alors Xt = A, et le cas o` alors Xt = B. On note E = {0, A, B, 2, . . .} l’ensemble des valeurs possibles des ´etats du syst`eme.

9.4 R´eseaux de Jackson

257

1. Montrer que X = (Xt , t ≥ 0) est une chaˆıne de Markov a` temps continu sur E. Donner son g´en´erateur infinit´esimal et la matrice de transition de la chaˆıne trace. 2. On pose ρ = λ/(µA + µB ). On cherche une probabilit´e invariante π = (π0 , πA , πB , π2 , . . .) de la chaˆıne. Expliquer pourquoi si elle existe, alors elle est unique. Montrer que si on pose π1 = πA + πB , alors on a πn = ρπn−1 pour tout n ≥ 2 et donc πn = ρn−1 π1 . V´erifier ´egalement que π1 = π0

1 λ (λ + µB ) . 1 + 2ρ µA µB

3. En d´eduire qu’il existe une probabilit´e invariante si et seulement si ρ < 1. V´erifier alors que µA µB 1 1 +(1 + 2ρ) , = π1 1−ρ λ(λ + µB ) et

1 1 1 λ(λ + µB ) =1+ . π0 1 + 2ρ 1 − ρ µA µB

˜ t = 1 si Xt = ˜ t le nombre de personnes dans le syst`eme : X 4. On note X ˜ t = Xt sinon. V´erifier que, en r´egime stationnaire, A ou Xt = B, et X π1 ˜t] = E[X . En d´eduire que, a` µA + µB = 2µ constant (taux de (1 − ρ)2 service moyen constant), le nombre moyen de personnes dans le syst`eme est minimal, de valeur N1 (ρ), pour    1 1 1 + − 1 , et µA = µB 1 + . µB = λ ρ ρ 5. Soit N2 (ρ) le nombre moyen de personnes dans le syst`eme en r´egime stationnaire pour une file M/M/2 de taux de service µ, taux d’arriv´ee λ et ρ = λ/2µ. V´erifier que quand ρ tend vers 1, la diff´erence N2 (ρ) − N1 (ρ) converge vers une limite finie. En d´eduire que la diff´erence relative entre la file M/M/2 et la file optimis´ee est n´egligeable quand ρ est proche de 1. On pourra consulter l’ouvrage [6] pour plus de r´esultats dans cette direction. 

9.4 R´ eseaux de Jackson 9.4.1 Mod` ele et propri´ et´ es Les r´eseaux de Jackson introduits en 1957 sont des r´eseaux constitu´es de K files d’attentes, chacune associ´ee `a un seul serveur, avec plusieurs entr´ees et plusieurs sorties. Nous reprenons la pr´esentation de Bougerol [3]. Les clients de

258

9 Files d’attente

la file d’attente i, une fois leur service termin´e, se dirigent vers la file d’attente u j avec probabilit´e pi,j et sortent du syst`eme avec probabilit´e βi o` βi +

K 

pi,j = 1.

j=1

Des clients ext´erieurs au syst`eme arrivent dans la file d’attente i suivant un processus de Poisson de param`etre αi . Les services fournis par le serveur i sont des variables al´eatoires exponentielles ind´ependantes de param`etre µi et ind´ependantes du processus d’arriv´ee dans la file i des clients ext´erieurs. Enfin les temps de service et les processus d’arriv´ee des clients ext´erieurs sont ind´ependants d’un serveur a` l’autre. (i) On note Xt le nombre de personnes dans la file d’attente i `a l’instant t, y compris le client au guichet i. L’´etat du syst`eme est enti`erement d´ecrit par (1) (K) le vecteur Xt = (Xt , . . . , Xt ) a` valeurs dans NK . La proposition suivante g´en´eralise la proposition 9.1.1, et sa d´emonstration est similaire. ` Proposition 9.4.1. Le processus (Xt , t ≥ 0) est une chaˆıne de Markov a temps continu de g´en´erateur infinit´esimal A dont les termes non nuls hors de la diagonale sont A(n, n + ei ) = αi , A(n, n − ei ) = βi µi si ni > 0, A(n, n − ei + ej ) = pi,j µi si i = j et ni > 0, o` u n = (n1 , . . . , nK ) ∈ NK et ei est le i-`eme vecteur de la base canonique de (i) (l) (K) (1)  i et ei = 1). RK (ei = (ei , . . . , ei ) avec ei = 0 si l = S’il existe i et j tels que αi > 0 et βj > 0, alors on parle de r´eseaux de Jackson ouverts. Sinon on parle de r´eseaux de Jackson ferm´es ou de r´eseaux de Gordon-Newell. Dans ce qui suit on consid`ere les r´eseaux de Jackson ouverts. La chaˆıne est irr´eductible d`es que les deux conditions suivantes sont satisfaites : 1. Pour tout j, il existe m ∈ N∗ , i, i1 , . . . , im tels que αi pi,i1 . . . pim ,j > 0.

2. Pour tout i, il existe m ∈ N∗ , i1 , . . . , im , j tels que pi,i1 . . . pim ,j βj > 0.

La premi`ere condition signifie que pour tout serveur j, il existe une probabilit´e strictement positive qu’un client entre en i, puis se dirige vers les serveurs i1 , . . . et enfin j. La deuxi`eme condition assure que pour tout serveur i, il existe une probabilit´e strictement positive qu’un client sorte de i, se dirige u il sort du syst`eme. Il est clair que ces vers les serveurs i1 , . . ., et enfin j d’o` deux conditions impliquent que de tout ´etat on peut rejoindre tout autre ´etat avec probabilit´e strictement positive. On suppose dor´enavant que les conditions 1 et 2 sont satisfaites. Supposons que le r´egime soit stationnaire. Le flux entrant dans la file i, i.e. le nombre

9.4 R´eseaux de Jackson

259

de clients entrant dans la file i par unit´e de temps, et le flux sortant, i.e. le nombre de clients sortant de la file par unit´e de temps, de cette mˆeme file sont ´egaux. On note λi le flux (entrant ou sortant) du serveur i. Ce raisonnement intuitif conduit aux formules dites «´equation de trafic» : Pour tout 1 ≤ i ≤ K,

αi +

K 

λj pj,i = λi .

j=1

En sommant les ´equations ci-dessus pour i ∈ {1, . . . , K}, et en utilisant K que i=1 pj,i = 1 − βj , on obtient K  i=1

αi =

K 

λj βj .

(9.4)

j=1

Lemme 9.4.2. L’´equation de trafic poss`ede une seule solution (λ1 , . . . , λK ) ∈ RK +. D´emonstration. On introduit une chaˆıne de Markov interm´ediaire qui repr´esente l’´etat d’un client : il est soit a` un guichet i ∈ {1, . . . , K} soit hors du syst`eme dans l’´etat 0. On note Q la matrice de transition d´efinie de la mani`ere suivante : si i = 0 et j = 0, alors qi,j = pi,j ; si i = 0, qi,0 = βi ; si j = 0, K q0,j = αj / l=1 αl ; enfin q0,0 = 0. Cette chaˆıne de Markov n’est pas la chaˆıne trace. Les hypoth`eses 1 et 2 entraˆınent que la chaˆıne de Markov de matrice de transition Q est irr´eductible. La remarque 1.5.7 implique que la chaˆıne de Markov poss`ede une unique probabilit´e invariante ν = (νi , 0 ≤ i ≤ K) et de plus νi > 0 pour tout i. En particulier, on a νQ = ν, ce qui donne : pour 1 ≤ i ≤ K, K  j=1

αi νj pj,i + ν0 K

l=1

αl

= νi .

Une solution de l’´equation de trafic est donc λi =

 K

l=1

 αl νi /ν0 , pour

equation 1 ≤ i ≤ K. Enfin si (λ′1 , . . . , λ′K ) ∈ RK + est une autre solution de l’´ de trafic, on v´erifie a` l’aide de l’´equation de trafic et de (9.4) que le vecteur K K K ′ ) o` u ν0′ = ( l=1 αl )/( i=1 (λ′i + αi )) et νi′ = λ′i ν0′ / j=1 αj est (ν0′ , . . . , νK une probabilit´e invariante de Q. Par unicit´e de la probabilit´e invariante, on a ν ′ = ν. Cela implique donc que λi = λ′i pour i ∈ {1, . . . , K}. La solution positive de l’´equation de trafic est donc unique. ⊓ ⊔ On pose ρi = trafic.

λi pour 1 ≤ i ≤ K, qui s’interpr`ete comme une densit´e de µi

260

9 Files d’attente

Th´ eor` eme 9.4.3. Si pour tout 1 ≤ i ≤ K, on a ρi < 1, alors l’unique probabilit´e invariante du processus X = (Xt , t ≥ 0), est la probabilit´e π d´efinie par K  (1 − ρi )ρni i , o` u n = (n1 , . . . , nK ). πn = i=1

La probabilit´e invariante est sous forme de produit. En r´egime stationnaire, la file d’attente au guichet i est, `a l’instant t, ind´ependante de la file d’attente au guichet j = i. De plus chaque file d’attente i, se comporte comme une file u (λ1 , . . . , λn ) est solution de l’´equation de M/M/1 de param`etre (λi , µi ), o` trafic. D´emonstration. Le processus X ´etant irr´eductible, il poss`ede au plus une probabilit´e invariante. Il suffit de v´erifier que πA = 0 pour affirmer que π K est la probabilit´e invariante. Nous allons donc v´erifier que pour tout n ∈ N , πm A(m, n) = −πn A(n, n), o` u on rappelle que

m=n

A(n, n) = − =− =−



A(n, m)

m=n K  i=1

K  i=1



⎣αi + βi µi 1{ni >0} +

 j =i



pi,j µi 1{ni >0} ⎦

" # αi + (1 − pi,i )µi 1{ni >0} .

On a pour n fix´e, 

m=n

πm A(m, n) =

K   i=1

πn−ei A(n − ei , n)1{ni >0} + πn+ei A(n + ei , n) +

 j =i

! πn+ej −ei A(n + ej − ei , n)1{ni >0} .

En utilisant la forme de π, il vient ⎤ ⎡ K    ρj µj pj,i α i ⎣ 1{ni >0} + ρi µi βi + 1{ni >0} ⎦ πm A(m, n) = πn ρ ρ i i i=1 j =i m=n ⎛ ⎤ ⎞ ⎡ K   1 ⎣λi βi + ⎝αi + = πn λj pj,i ⎠ 1{ni >0} ⎦. ρ i i=1 j =i

Grˆ ace `a l’´equation de trafic, on a

9.4 R´eseaux de Jackson



πm A(m, n) = πn

K   i=1

m=n

= πn

1 λi βi + λi (1 − pi,i ) 1{ni >0} ρi

261

!

K  " # λi βi + µi (1 − pi,i ) 1{ni >0} i=1

= −πn A(n, n),

o` u l’on a utilis´e (9.4) pour la derni`ere ´egalit´e. Ceci conclut la d´emonstration. ⊓ ⊔ 9.4.2 Files en tandem, processus de sortie On d´esire ´etudier un syst`eme constitu´e de deux serveurs en tandem. Quand un client arrive, il est d’abord dirig´e vers le serveur 1, et d`es que sa requˆete est servie, il est dirig´e vers le serveur 2, o` u il effectue une nouvelle requˆete. u Xti est la taille du Le syst`eme est d´ecrit par le couple Xt = (Xt1 , Xt2 ), o` syst`eme i : nombre de clients dans la file d’attente du serveur i, y compris le client encore servi par le serveur i. On suppose que le processus des arriv´ees est un processus de Poisson de param`etre λ, et les temps de service sont des variables ind´ependantes entre elles et ind´ependantes du processus des arriv´ees. On suppose que les temps de service du serveur i suivent des lois exponentielles de param`etre µi . Il s’agit d’un cas particulier des r´eseaux de Jackson. L’´equation de trafic se r´esume `a λ = λ1 pour le serveur 1 et λ1 = λ2 pour le serveur 2. En particulier (Xt , t ≥ 0) est une chaˆıne de Markov homog`ene sur N2 , qui poss`ede une probabilit´e invariante si ρ1 = λ/µ1 < 1 et ρ2 = λ/µ2 < 1. De plus en r´egime stationnaire Xt1 et Xt2 sont, a` t fix´e, ind´ependants, et la loi de Xti est la loi π(ρi ) donn´ee par (9.2) avec ρ = ρi . On peut utiliser une autre propri´et´e int´eressante des files M/M/1 pour retrouver ce r´esultat. On note Nt , le nombre de clients sortis avant l’instant t d’une file d’attente M/M/1 de param`etre ρ. Le processus (Nt , t ≥ 0) est appel´e processus de sortie de la file d’attente. On peut montrer (cf. [1], proposition 4.4 p. 64) que pour ρ < 1, en r´egime stationnaire, le processus de sortie est un processus de Poisson d’intensit´e λ. De plus le processus de sortie jusqu’` a l’instant t, (Nu , u ∈ [0, t]), est en r´egime stationnaire ind´ependant de l’´evolution future du syst`eme. Si on consid`ere une file d’attente en tandem, le processus des arriv´ees des clients au premier serveur est un processus de Poisson de param`etre λ. En (1) r´egime stationnaire, la loi de Xt est la loi π(ρ1 ). De plus le processus de sortie de la file 1, est un processus de Poisson de param`etre λ. Ce processus correspond au processus des arriv´ees pour la file 2. En particulier, la loi de (2) Xt est, en r´egime stationnaire, la loi π(ρ2 ). Comme en r´egime stationnaire, (1) a l’instant t, on Xt est ind´ependant du processus de sortie de la file 1 jusqu’` (1) (2) retrouve que Xt et Xt sont ind´ependants.

262

9 Files d’attente

9.5 Explosion et r´ ecurrence des files M/GI/1 On consid`ere une file M/GI/1. Les temps de service (Sn , n ≥ 1) des diff´erents clients sont des variables al´eatoires ind´ependantes de mˆeme loi. Le processus des temps d’arriv´ee est un processus de Poisson de param`etre λ > 0. On note a l’instant Xt le nombre de clients dans le syst`eme `a l’instant t. On suppose qu’` 0, le syst`eme comporte un seul client dont le service vient juste de d´ebuter : X0 = 1. On note τ = inf{t > 0, Xt = 0} le temps de retour `a un syst`eme vide. On a le r´esultat suivant. ` l’´etat vide : Th´ eor` eme 9.5.1. Si λE[S1 ] ≤ 1, alors p.s. le syst`eme retourne a τ < ∞. Si λE[S1 ] > 1, alors on a P(τ = ∞) > 0. En particulier, si λE[S1 ] ≤ 1, alors la file d’attente revient infiniment ` l’´etat vide presque sˆ a urement. Cet ´etat est donc r´ecurrent. En revanche si λE[S1 ] > 1, alors le nombre de retours a` l’´etat vide est p.s. fini Et on peut v´erifier que limt→∞ Xt = +∞, i.e. la file d’attente est transiente. Ceci permet de compl´eter l’´etude des files d’attente M/M/1. Remarque 9.5.2. Pour les chaˆınes M/M/1, on a ρ = λE[S1 ]. La condition de stabilit´e est satisfaite si ρ < 1. Si ρ = 1, alors le syst`eme retourne p.s. `a l’´etat vide, mais il ne poss`ede pas de probabilit´e invariante. Donc pour ρ = 1, la chaˆıne de Markov (Xt , t ≥ 0) est r´ecurrente nulle. Si ρ > 1, alors le syst`eme a une probabilit´e non nulle de ne pas retourner a` l’´etat vide d`es qu’un client arrive. La chaˆıne est transiente. ♦ Le lemme suivant nous servira pour d´emontrer le th´eor`eme 9.5.1. Lemme 9.5.3. Soit N = (Nt , t ≥ 0) un processus de Poisson de param`etre λ > 0 et variable al´eatoire positive ind´ependante de N . On a P(NS =  Sn une ! λ S n −λS n) = E e . n! n n+1 D´emonstration. Pour n ≥ 1, on a {NS = n} = { k=1 Tk ≤ S < k=1 Tk }, o` u les variables (Tk , k ≥ 1) sont ind´ependantes de loi exponentielle de param`etre λ, et sont ind´ependantes de S. On d´eduit de la proposition A.1.21 u ψ(s) = E[1{n T ≤s R ≥ 0 P k=n+2

n+1 n 

   n+k  Tk P Tk ≤ S1 < Tk + Tn+1 ≤ S2 =P k=1

k=1

k=n+2

= P(ν1 = n)P(ν1 ≥ k),

o` u l’on a utilis´e pour la deuxi`eme ´egalit´e le caract`ere sans m´emoire des lois exponentielles, i.e. le lemme 8.1.5 avec V = Tn+1 . Soit (νk′ , k ≥ 1) une suite de variables ind´ependantes de mˆeme loi que ν1 . On a donc montr´e que (νk , k ∈ u U ′ = inf{n ≥ {1, min(2, U )}) a mˆeme loi que (νk′ , k ∈ {1, min(2, U ′ )}), o` n  1; νk′ = n − 1}. k=1

En g´en´eralisant cette d´emonstration, on obtient que (νn , 1 ≤ n ≤ U ) a mˆeme loi que (νn′ , 1 ≤ n ≤ U ′ ). On d´eduit du lemme 4.4.6 que U a mˆeme loi que la population totale d’un processus de Galton-Watson dont la loi de reproduction est la loi de ν1 . En particulier le syst`eme retourne `a l’´etat vide p.s. si la population totale du processus de Galton-Watson est p.s. finie. On d´eduit de la proposition 4.1.5 que τ < ∞ p.s. si et seulement si E[ν1 ] ≤ 1. Comme   !  n n ∞ ∞   λ S1 −λS1 λn S1n −λS1 e e = E λS1 = λE[S1 ], E[ν1 ] = nE n! n! n=0 n=1

264

9 Files d’attente

on en d´eduit que τ < ∞ p.s. si λE[S1 ] ≤ 1. Et si λE[S1 ] > 1, alors on a P(τ = ∞) > 0. ⊓ ⊔

R´ ef´ erences 1. S. Asmussen. Applied probability and queues. Wiley Series in Probability and Mathematical Statistics. John Wiley & Sons, 1987. ´ 2. F. Baccelli et P. Br´emaud. Elements of queueing theory, volume 26 of Applications of Mathematics. Springer-Verlag, Berlin, seconde ´edition, 2003. 3. P. Bougerol. Processus de saut et files d’attente. Cours de Maˆıtrise, Paris VI, http ://www.proba.jussieu.fr/supports.php, 2002. 4. P. Br´emaud. Markov chains. Gibbs fields, Monte Carlo simulation, and queues. Springer texts in applied mathematics. Springer, 1998. 5. A. Erlang. Solution of some problems in the theory of probabilities of significance in automatic telephone exchanges. Elektrotkeknikeren, 13, 1917. 6. A. Kaufmann et R. Cruon. Les ph´ enom` enes d’attente. Th´eorie et applications. Dunod, Paris, 1961. 7. P. Robert. R´eseaux et files d’attente : m´ethodes probabilistes, volume 35 de Math´ematiques & Applications. Springer-Verlag, Berlin, 2000.

10 ´ ements de fiabilit´ El´ e

Comme des mat´eriels de mˆeme nature, des ampoules ´electriques ou des automobiles par exemple, produits dans la mˆeme usine, peuvent avoir des dur´ees de bon fonctionnement tr`es diff´erentes, il est naturel d’adopter une mod´elisation al´eatoire pour la dur´ee de vie d’un mat´eriel. Ce chapitre constitue une introduction a` la th´eorie probabiliste de la fiabilit´e dont les objectifs sont : – d’effectuer une mod´elisation des dur´ees de vie permettant de rendre compte des donn´ees exp´erimentales, – de construire des indicateurs de performance des mat´eriels, – de mod´eliser le fonctionnement d’un syst`eme complexe `a partir de celui de ses composants ´el´ementaires, – d’´etudier les effets d’une politique de maintenance pr´eventive... Le premier paragraphe, inspir´e du livre de Cocozza-Thivent [5], pr´esente les notions de disponibilit´e et de fiabilit´e qui sont des mesures de la performance des mat´eriels. Puis nous introduisons le taux de d´efaillance λ d’un mat´eriel. Cette notion qui joue un rˆ ole tr`es important dans la mod´elisation en fiabilit´e est d´efinie de la fa¸con suivante : la probabilit´e pour que le mat´eriel connaisse sa premi`ere panne entre t et t + dt sachant qu’il a bien fonctionn´e jusqu’en t est donn´ee par λ(t)dt. Le cas o` u le taux de d´efaillance est une fonction monotone du temps fait l’objet d’une attention particuli`ere. Le second paragraphe explique comment simuler une dur´ee de vie de taux de d´efaillance donn´e. Les deux m´ethodes pr´esent´ees, l’inversion du taux de d´efaillance cumul´e et la m´ethode des pannes fictives, sont respectivement le pendant de la m´ethode d’inversion de la fonction de r´epartition et de la m´ethode du rejet destin´ees `a simuler une variable al´eatoire r´eelle de densit´e donn´ee. Le troisi`eme paragraphe repose sur le livre de Barlow et Proschan [2] qui a pos´e les bases math´ematiques de la fiabilit´e. Il est consacr´e `a l’´etude de strat´egies de maintenance pr´eventive, en particulier lorsque l’on s’int´eresse `a un mat´eriel qui est remplac´e imm´ediatement par un mat´eriel ´equivalent lors de chaque panne. Si les dur´ees de vie successives sont ind´ependantes et identiquement distribu´ees, la suite des instants de pannes forme un processus de

266

´ ements de fiabilit´e 10 El´

renouvellement. Apr`es avoir ´etudi´e ce processus de renouvellement, nous nous int´eressons `a deux strat´egies de remplacement pr´eventif. La premi`ere, le remplacement suivant l’ˆ age, consiste `a remplacer pr´eventivement tout mat´eriel ayant atteint l’ˆ age s > 0 sans avoir connu de panne. La seconde, le remplacement par bloc, consiste `a remplacer le mat´eriel de fa¸con pr´eventive aux instants ls pour l ∈ N∗ . Nous ´etudions l’optimisation du param`etre s dans chacune des strat´egies avant d’effectuer des comparaisons entre les deux strat´egies. Le quatri`eme paragraphe est une introduction a` la fiabilit´e des syst`emes complexes. La notion de fonction de structure permet de formaliser la mani`ere dont l’´etat du syst`eme d´epend de celui de ses composants ´el´ementaires. Cette fonction peut ˆetre ´evalu´ee en recensant les coupes, c’est-`a-dire les ensembles de composants dont la panne simultan´ee entraˆıne la panne du syst`eme. Elle permet de calculer la performance du syst`eme en termes de disponibilit´e et de fiabilit´e. Lorsque la complexit´e du syst`eme fait que le calcul devient trop coˆ uteux, il faut se contenter de minorations de ces quantit´es. Pour plus de d´etails sur les mod`eles probabilistes en fiabilit´e, nous renvoyons aux ouvrages d´ej` a cit´es [2, 5] ainsi qu’aux livres en fran¸cais de Bon [4], Pag`es et Gondran [11] et Limnios [8] et ceux en anglais d’Aven et Jensen [1], Birolini [3], Gertsbakh [6], Hoyland et Rausand [7], Osaki [10] et Thompson [13].

10.1 Introduction a ` la fiabilit´ e 10.1.1 Mesures de performance On consid`ere un mat´eriel (lampe, composant ´electronique, moteur,...) qui peut se trouver dans diff´erents ´etats. On note E l’ensemble de ces ´etats que l’on suppose divis´e en deux classes : la classe M des ´etats de marche et la classe P des ´etats de panne. Pour rendre compte des diff´erents sc´enarii possibles, on d´ecrit l’´evolution dans le temps du syst`eme par un processus stochastique (Xt , t ≥ 0) sur un espace de probabilit´e Ω c’est-`a-dire par une famille de variables al´eatoires Xt indiquant l’´etat du mat´eriel `a l’instant t. Pour ω ∈ Ω fix´e, l’application t ∈ [0, +∞[→ Xt (ω) ∈ E est un sc´enario d’´evolution possible. D´ efinition 10.1.1. – La disponibilit´ e (availability en anglais) D(t) du mat´eriel a ` l’instant t est la probabilit´e pour que ce mat´eriel fonctionne a ` cet instant : D(t) = P(Xt ∈ M). – La fiabilit´ e (reliability en anglais) F¯ (t) du mat´eriel a ` l’instant t est la probabilit´e pour que ce mat´eriel fonctionne sur tout l’intervalle [0, t] : F¯ (t) = P(∀s ∈ [0, t], Xs ∈ M).

10.1 Introduction a ` la fiabilit´e

267

Bien sˆ ur, on a F¯ (t) ≤ D(t). Soit T = inf{s ≥ 0 : Xs ∈ P} la premi`ere dur´ee de bon fonctionnement et F (t) = P(T ≤ t) sa fonction de r´epartition que l’on suppose continue. On a F¯ (t) = P(T > t) = 1 − P(T ≤ t) = 1 − F (t).

(10.1)

On d´efinit ´egalement le MTTF (Mean Time To Failure) comme la dur´ee moyenne de bon fonctionnement : M T T F = E[T ] = E



+∞ 0

! 1{T >t} dt =

∞ 0

+∞

P(T > t)dt =

F¯ (t)dt.

0

10.1.2 Taux de d´ efaillance Dans les paragraphes suivants, nous supposons que la variable al´eatoire positive T poss`ede la densit´e f (t) sur R+ . D´ efinition 10.1.2. On appelle taux de d´efaillance (ou aussi taux de hasard) de T et de sa densit´e f la fonction λ d´efinie sur R+ par ⎧ ⎨f (t)/F¯ (t) si F¯ (t) > 0 λ(t) = (10.2) ⎩0 sinon, o` u F¯ (t) = P(T > t) =

 +∞ t

f (s)ds.

Le taux de d´efaillance est homog`ene `a l’inverse d’un temps. Intuitivement, la probabilit´e pour que le mat´eriel connaisse sa premi`ere panne entre t et t + dt sachant qu’il a bien fonctionn´e jusqu’en t est donn´ee par λ(t)dt. Plus rigoureusement si la densit´e f est continue en t,  t+∆t f (s)ds f (t) 1 P(t + ∆t ≥ T > t|T > t) = t −→ ¯ = λ(t). ¯ ∆t→0 ∆t ∆tF (t) F (t) u α, β > 0 Exemple 10.1.3. La loi de Weibull sur R+ de param`etre (α, β) o` est la loi de densit´e      β−1 β t β t f (t) = 1{t≥0} . exp − α α α Cette famille de lois est tr`es utilis´ee en fiabilit´e car elle permet des calculs analytiques. En effet, on obtient facilement      β−1 β β t t puis λ(t) = . F¯ (t) = exp − α α α

268

´ ements de fiabilit´e 10 El´

 β En outre, si T suit cette loi, en effectuant le changement de variables u = αt , on obtient      β−1 β +∞ +∞ t β t dt = αu1/β e−u du exp − t× E[T ] = α α α 0 0   1 = αΓ 1 + , β o` u Γ d´esigne la fonction gamma d’Euler. D’un point de vue th´eorique, l’utilisation de la loi de Weibull peut se justifier par la th´eorie des valeurs extrˆemes. En effet, si on consid`ere que le mat´eriel est constitu´e d’un grand nombre de composants ind´ependants et identiquement distribu´es plac´es en s´erie, sa dur´ee de bon fonctionnement est ´egale au minimum des dur´ees de bon fonctionnement de ces composants. D’apr`es la remarque 11.3.4, il est naturel de mod´eliser cette dur´ee de bon fonctionnement par une variable al´eatoire distribu´ee suivant une loi de Weibull sur R+ . ♦ La proposition suivante exprime la fiabilit´e F¯ en fonction du taux de d´efaillance : Proposition 10.1.4.  ¯ ∀t ≥ 0, F (t) = exp −



t

λ(s)ds . 0

En outre, si on pose a = inf{s ≥ 0, F¯ (s) = 0}, alors pour tout t t ≥ a, 0 λ(s)ds = +∞.

D´emonstration. Par continuit´e et d´ecroissance de F¯ , si a < +∞, F¯ est nulle sur [a, +∞[. On suppose que t < a. Par d´ecroissance de F¯ , on a t 0

t

1 λ(s)ds ≤ ¯ F (t)

0

1 < +∞. f (s)ds ≤ ¯ F (t)

Par ailleurs, F¯ (t) = 1 − F (t) = 1 −

t 0

t

f (s)ds = 1 −

λ(s)F¯ (s)ds.

0

D’apr` E.1, on en d´eduit que pour tout t dans [0, a[, F¯ (t) = 

esla proposition t exp − 0 λ(s)ds . Lorsque a < +∞, comme F¯ (a) = 0, par continuit´e de F¯ , limt→a− F¯ (t) = 0. On en d´eduit que t

lim−

t→a

Donc ∀t ≥ a,

t 0

0

λ(s)ds = − lim− log(F¯ (t)) = +∞. t→a

  t λ(s)ds = +∞ et F¯ (t) = exp − 0 λ(s)ds .

⊓ ⊔

10.1 Introduction a ` la fiabilit´e

269

Remarque 10.1.5. – On d´eduit de la proposition 10.1.4 que le taux de d´efaillance d’une variable al´eatoire de densit´e f sur R+ est une fonction λ : R+ → R+  +∞ v´erifiant 0 λ(r)dr = − limt→+∞ log(F¯ (t)) = +∞ et que t

a = inf{t ≥ 0,

λ(r)dr = +∞},

0

t ce qui implique que λ(s) = 0 pour tout s ≥ inf{t ≥ 0, 0 λ(r)dr = +∞}. En outre, d’apr`es la proposition et la d´efinition du  taux de d´efaillance, t pour tout t ∈ [0, a[, f (t) = λ(t) exp − 0 λ(s)ds . Lorsque a est fini,

cette formule reste vraie pour t ∈ [a, +∞[ car les deux membres sont alors nuls. – Inversement, si on se donne une fonction λ : R+ → R+ telle que  +∞ λ(r)dr = +∞ et que λ(s) = 0 pour tout s ≥ b o` u b = 0 t inf{t ≥ 0, 0 λ(r)dr = +∞} (convention : inf ∅ = +∞) alors f (t) = t λ(t) exp(− 0 λ(s)ds) est une densit´e de probabilit´e sur R+ telle que  +∞ t f (s)ds = exp(− 0 λ(s)ds) (ce r´esultat, vrai pour t ≥ b car les t deux membres sont nuls, s’obtient sinon en prenant la limite t′ → b− dans (E.2)) et qui admet λ comme taux de d´efaillance. On peut donc d´ecrire la loi d’une variable al´eatoire `a densit´e en se donnant cette densit´e (c’est le point de vue g´en´eralement adopt´e par les probabilistes) ou en se donnant son taux de d´efaillance (c’est le point de vue g´en´eralement adopt´e par les fiabilistes). Notons que la mod´elisation au travers du taux de d´efaillance est aussi tr`es utilis´ee dans le domaine du risque de cr´edit pour d´ecrire le temps de d´efaut d’une entreprises, c’est-` a-dire l’instant o` u cette entreprise cesse de rembourser ses dettes. ♦ Exercice 10.1.6. Quelles sont les densit´es associ´ees aux taux de d´efaillance 1{t≥1} 1{t 0?  λ(t) = 1−t t Il est courant de consid´erer que la courbe du taux de d´efaillance t → λ(t) d’un mat´eriel a une forme de baignoire. Dans une premi`ere phase, il est d´ecroissant : c’est la p´eriode de rodage o` u les ´eventuels d´efauts de fabrication peuvent entraˆıner une panne. Puis, dans une seconde phase, il est approximativement constant : c’est la p´eriode de vie utile o` u on ne d´ecouvre plus de d´efauts de fabrication et o` u le mat´eriel n’est pas encore fragilis´e par son utilisation. Enfin, dans une troisi`eme phase, il est croissant : c’est la p´eriode de vieillissement o` u l’usure du mat´eriel li´ee `a son utilisation devient sensible. Le corollaire suivant caract´erise les lois avec taux de d´efaillance constant : Corollaire 10.1.7. Le taux de d´efaillance de la variable al´eatoire T est constant et ´egal a ` λ > 0 si et seulement si T suit la loi exponentielle de param`etre λ i.e. admet f (t) = λ exp(−λt) comme densit´e sur R+ .

270

´ ements de fiabilit´e 10 El´

 +∞ D´emonstration. Si T suit la loi exponentielle, F¯ (t) = t λ exp(−λs)ds = exp(−λt) et λ(t) = f (t)/F¯ (t) = λ. R´eciproquement, si le taux de d´efaillance de T est constant ´egal `a λ > 0,  −

d’apr`es la remarque 10.1.5, T poss`ede la densit´e λe

t

0

λds

= λe−λt sur R+ . ⊓ ⊔

L’interpr´etation physique d’un taux de d´efaillance constant est que le mat´eriel ne vieillit pas (il ne rajeunit pas non plus) : P(T > t + s|T > t) = P(T > s) ce qui s’´ecrit aussi F¯ (t + s) = F¯ (t)F¯ (s). On retrouve la propri´et´e d’absence de m´emoire des variables exponentielles (voir le lemme 8.1.5). 10.1.3 Taux de d´ efaillance monotone, lois NBU D´ efinition 10.1.8. La variable T et sa loi sont dites IFR (Increasing Failure Rate) si le taux de d´efaillance t → λ(t) est croissant sur R+ . Elle sont dites DFR (Decreasing Failure Rate) s’il est d´ecroissant. Lorsque la dur´ee de vie d’un mat´eriel est IFR (resp. DFR), plus le temps passe sans que le mat´eriel ait connu de panne, plus (resp. moins) ce mat´eriel est fragile. Exemple 10.1.9. Le taux de d´efaillance de la loi de Weibull sur R+ de param`etre (α, β) est  β−1 β t . λ(t) = α α Donc cette loi est DFR pour β ∈]0, 1[ et IFR pour β > 1. Pour β = 1 le taux de d´efaillance est constant et on retrouve la loi exponentielle de param`etre 1/α. ♦ Remarque 10.1.10. Dans le cas IFR, λ est strictement positif sur ]t0 , +∞[ o` u t0 = inf{t ≥ 0 : λ(t) > 0}. Avec la d´efinition du taux de d´efaillance on en d´eduit que la fiabilit´e F¯ est strictement positive sur ]t0 , +∞[. Par d´ecroissance de F¯ , on a donc ∀t ≥ 0, F¯ (t) > 0. Cette propri´et´e reste  le cas DFR puisque d’apr`es la proposition

vraie dans t ¯ ♦ 10.1.4, F (t) = exp − 0 λ(s)ds ≥ e−λ(0)t .

Exercice 10.1.11. La loi gamma de param`etre (λ, α) avec λ, α > 0 a pour densit´e f (t) = 1{t≥0} λα tα−1 e−λt /Γ (α). 1. Montrer que son taux de d´efaillance v´erifie λ(t) =

λ .  +∞ 1 + (α − 1) 1 sα−2 e−λt(s−1) ds

10.1 Introduction a ` la fiabilit´e

271

2. En d´eduire que cette loi est DFR pour α ≤ 1 et IFR pour α ≥ 1.

3. V´erifier que limt→+∞ λ(t) = λ.

 Une propri´et´e tr`es int´eressante des variables IFR d’esp´erance µ est que l’on peut minorer sur [0, µ] la fiabilit´e qui leur est associ´ee par exp(−t/µ) (c’est-`a-dire la fiabilit´e associ´ee `a une variable exponentielle d’esp´erance µ). Proposition 10.1.12. Si T est IFR d’esp´erance µ, alors ∀t ∈ [0, µ], F¯ (t) ≥ exp(−t/µ). La figure 10.1 illustre cette proposition en repr´esentant sur l’intervalle de temps [0, 2] la fiabilit´e associ´ee `a plusieurs lois d’esp´erance µ = 1. On constate que sur l’intervalle de temps [0, 1], les courbes correspondant aux lois IFR 1 1 , 3), Weibull ( Γ (3/2) , 2), gamma (3, 3) et gamma (2, 2)) sont (Weibull ( Γ (4/3) effectivement au-dessus de la courbe en trait plein associ´ee a` la loi exponentielle de param`etre 1. Elles passent en dessous de cette courbe en trait plein au-del` a du temps 1. Les fiabilit´es associ´ees aux lois DFR (Weibull ( 12 , 21 ) et gamma ( 21 , 12 )) sont au-dessous de la courbe de la loi exponentielle sur l’intervalle de temps [0, 1]. En fait pour une loi DFR, on peut inverser toutes les in´egalit´es ´ecrites plus loin dans la d´emonstration de la proposition 10.1.12 pour obtenir : ∀t ∈ [0, µ], F¯ (t) ≤ exp(−t/µ). Pour effectuer cette d´emonstration, il est utile d’introduire la notion de taux de d´efaillance cumul´e : D´ efinition  t 10.1.13. On appelle taux de d´efaillance cumul´e de T la fonction Λ(t) = 0 λ(s)ds. 1.0

1 , 3) Weibull ( Γ(4/3)

F¯ (t)

1 , 2) Weibull ( Γ(3/2)

gamma (3,3)

0.8

gamma (2,2) expo (1) gamma ( 12 , 12 ) Weibull ( 12 , 12 )

0.6

0.4

0.2

0.0 0.0

0.4

0.8

µ = 1 1.2

1.6

t

2.0

Fig. 10.1. Repr´esentation de la fiabilit´e t → F¯ (t) pour diverses lois d’esp´erance µ=1

272

´ ements de fiabilit´e 10 El´

D´emonstration de la proposition 10.1.12. Par croissance de λ, si 0 ≤ s ≤ t, Λ(t) − Λ(s) ≥ λ(s)(t − s). Cette in´egalit´e reste vraie si 0 ≤ t ≤ s, les deux membres ´etant alors n´egatifs. En choisissant s = E[T ], on en d´eduit que ∀t ≥ 0, Λ(t) ≥ Λ(E[T ]) + λ(E[T ])(t − E[T ]). Donc Λ(T ) ≥ Λ(E[T ]) + λ(E[T ])(T − E[T ]) et en prenant l’esp´erance, on obtient que E[Λ(T )] ≥ Λ(E[T ]). En utilisant le th´eor`eme de Fubini, on a +∞

t

f (t)

E[Λ(T )] = 0

f (t)dt ds

0

s

+∞

λ(s)F¯ (s)ds =

0

+∞

λ(s)

0 +∞

=

+∞

λ(s)ds dt =

f (s)ds = 1. 0

Donc Λ(µ) ≤ 1. En utilisant la convexit´e de Λ qui d´ecoule de la croissance de λ, on obtient que ∀t ≤ µ, Λ(t) ≤

t t µ−t Λ(0) + Λ(µ) ≤ 0 + . µ µ µ

Par la proposition 10.1.4, on conclut que ∀t ≤ µ, F¯ (t) ≥ exp(−t/µ).

⊓ ⊔

La notion suivante est couramment utilis´ee pour traduire le vieillissement d’un mat´eriel. D´ efinition 10.1.14. La variable T et sa loi sont dites NBU (New Better than Used) si ∀s, t ≥ 0, F¯ (t + s) ≤ F¯ (t)F¯ (s) (10.3) c’est-` a-dire si

∀s, t ≥ 0 avec P(T > t) > 0, P(T > t + s|T > t) ≤ P(T > s). Cette notion est plus faible que IFR. Proposition 10.1.15. Si la variable T est IFR, alors ∀s, t, s′ , t′ ≥ 0 avec s + t = s′ + t′ et max(s, t) ≤ max(s′ , t′ ), F¯ (t)F¯ (s) ≥ F¯ (t′ )F¯ (s′ ). En particulier toute loi IFR est NBU. D´emonstration. Quitte a` ´echanger s et t (resp. s′ et t′ ), on suppose que s ≤ t et s′ ≤ t′ . On a alors 0 ≤ max(s′ , t′ )−max(s, t) = t′ −t = s−s′ . La croissance du taux de t s  t′ d´efaillance λ entraˆıne que t λ(u)du ≥ s′ λ(u)du. En ajoutant 0 λ(u)du +  s′ λ(u)du aux deux membres de cette in´egalit´e, on en d´eduit 0 t′

s′

λ(u)du + 0

0

t

λ(u)du ≥

s

λ(u)du + 0

λ(u)du. 0

On conclut grˆ ace `a la proposition 10.1.4 que F¯ (t)F¯ (s) ≥ F¯ (t′ )F¯ (s′ ). Avec le ′ ⊓ ⊔ choix t = t + s, s′ = 0 on en d´eduit que toute loi IFR est NBU.

10.1 Introduction a ` la fiabilit´e

273

Exercice 10.1.16. Montrer que la loi uniforme sur [0, u] (o` u u > 0) et la loi de taux de d´efaillance λ(t) = 2 × 1{1≤t x) ≤ P(X2 > x) i.e. F1 (x) ≥ F2 (x). La proposition suivante pr´ecise la signification de cette notion d’ordre : Proposition 10.1.18. On a X1 ≺st X2 si et seulement si on peut construire ˜ 2 ) v´erifiant P(X ˜1 ≤ X ˜ 2 ) = 1 avec X ˜ 1 et X ˜ 2 respectivement ˜1, X un couple (X de mˆeme loi que X1 et que X2 . ˜ 1 et X ˜ 2 ont respectivement mˆeme loi que X1 et X2 et D´emonstration. Si X ˜ 2 ) = 1, alors pour tout x ∈ R, P(X1 > x) = P(X ˜ 1 > x) ≤ ˜1 ≤ X v´erifient P(X ˜ 2 > x) = P(X2 > x) et on a X1 ≺st X2 . P(X Pour d´emontrer la condition n´ecessaire, on utilise la m´ethode d’inversion de la fonction de r´epartition. Pour i = 1, 2 on note Fi−1 l’inverse g´en´eralis´e de Fi d´efini par Fi−1 (y) = inf{x : Fi (x) ≥ y} pour y ∈]0, 1[. Comme pour tout x ∈ R, F1 (x) ≥ F2 (x), on a ∀y ∈]0, 1[, F1−1 (y) ≤ F2−1 (y).

(10.4)

Soit U une variable al´eatoire uniforme sur [0, 1]. D’apr`es la proposition C.5, ˜ 2 = F −1 (U ) ont respectivement ˜ 1 = F −1 (U ) et X les variables al´eatoires X 1 2 ˜1 ≤ X ˜ 2 ) = 1. ⊓ ⊔ mˆeme loi que X1 et X2 . En outre, d’apr`es (10.4), P(X Pour en revenir a` la fiabilit´e, on suppose que la dur´ee de vie T d’un mat´eriel v´erifie ∀t ≥ 0, P(T > t) = F¯ (t) > 0 (condition satisfaite par exemple dans les cas IFR et DFR d’apr`es la remarque 10.1.10). On appelle alors dur´ee de survie a l’instant t, une variable al´eatoire positive τt qui suit la loi conditionnelle de ` T − t sachant T > t i.e. qui v´erifie pour tout s ≥ 0,   t+s P(T > t + s) = exp − λ(u)du . P(τt > s) = P(T − t > s|T > t) = P(T > t) t Notons que la dur´ee de vie T a mˆeme loi que la dur´ee de survie initiale τ0 . On traduit facilement les propri´et´es IFR, DFR et NBU en termes de comparaison entre les dur´ees de survie aux diff´erents instants.

274

´ ements de fiabilit´e 10 El´

Proposition 10.1.19. Si T est IFR (resp. DFR) alors la dur´ee de survie a ` l’instant t associ´ee est stochastiquement d´ecroissante en t i.e. pour 0 ≤ s ≤ t, τt ≺st τs (resp. croissante en t i.e. pour 0 ≤ s ≤ t, τs ≺st τt ). Lorsque ∀t ≥ 0, P(T > t) > 0, la loi de T est NBU si et seulement si ∀t ≥ 0, τt ≺st T (⇔ ∀t ≥ 0, τt ≺st τ0 ). Remarque 10.1.20. – La proposition 10.1.18 permet de comprendre en quoi une dur´ee de vie NBU est plus grande que les dur´ees de survie associ´ees. – La loi exponentielle de param`etre λ est « new equivalent to used » au a l’instant t associ´ee est la mˆeme sens o` u la loi de la dur´ee de survie τt ` quel que soit t. ♦

10.2 Simulation d’une variable al´ eatoire de taux de d´ efaillance donn´ e Nous allons pr´esenter deux m´ethodes sp´ecifiques permettant de simuler, `a partir d’une suite de variables al´eatoires ind´ependantes et identiquement distribu´ees suivant la loi uniforme sur [0, 1], une variable al´eatoire de taux de d´efaillance λ(t) o` u λ : R+ → R+ v´erifie t

λ(r)dr = +∞,

lim

t→+∞

(10.5)

0

t et λ(s) = 0 pour tout s ≥ inf{t ≥ 0, 0 λ(r)dr = +∞} (convention : inf ∅ = +∞). Pour les m´ethodes classiques de simulation de variables al´eatoires (m´ethode du rejet, m´ethode d’inversion de la fonction de r´epartition,...), nous renvoyons au paragraphe A.2.3. 10.2.1 Inversion du taux de d´ efaillance cumul´ e Lemme 10.2.1. Soit Λ−1 (x) = inf{t ≥ 0 : Λ(t) ≥ x} l’inverse g´en´eralis´e t du taux de d´efaillance cumul´e Λ(t) = 0 λ(s)ds. Si U suit la loi uniforme sur [0, 1] alors Λ−1 (− log(U )) a pour taux de d´efaillance t → λ(t). Remarque 10.2.2. Si T a pour taux de d´efaillance t → λ(t), alors T a mˆeme loi que Λ−1 (− log(U )). On d´eduit d’une g´en´eralisation de (C.2) avec F remplac´ee par Λ, que Λ(Λ−1 (− log(U ))) = − log(U ). Donc Λ(T ) a mˆeme loi que − log(U ), c’est-`a-dire Λ(T ) suit la loi exponentielle de param`etre 1. On retrouve ainsi que E[Λ(T )] = 1, propri´et´e obtenue dans la d´emonstration de la proposition 10.1.12. ♦ D´emonstration. L’´equivalence (C.1) relie les ensembles de niveau d’une fonction de r´epartition et ceux de son inverse g´en´eralis´e. Cette relation se g´en´eralise

10.2 Simulation

275

a toute fonction croissante et continue a` droite et s’´ecrit dans le cas du taux ` de d´efaillance cumul´e Λ−1 (x) ≤ t ⇔ x ≤ Λ(t). Avec la croissance stricte de la fonction exponentielle, on en d´eduit que {Λ−1 (− log(U )) ≤ t} = {− log(U ) ≤ Λ(t)} = {U ≥ exp(−Λ(t))}. Ainsi   s t λ(r)dr ds, λ(s) exp − P(Λ−1 (− log(U )) ≤ t) = 1 − exp(−Λ(t)) = 0

0

en utilisant (E.2) pour la derni`ere ´egalit´e. Ainsi, la fonction de r´epartition de Λ−1 (− )) est

log(U  ´egale `a celle associ´ee `a la loi de densit´e f (t) = t λ(t) exp − 0 λ(s)ds . Comme la fonction de r´epartition caract´erise la loi (proposition C.2), T a pour densit´e f et donc pour taux de d´efaillance λ. ⊓ ⊔ u Exemple 10.2.3. Pour la loi de Weibull sur R+ de param`etre (α, β) o` α, β > 0, on a  β−1  β t β t , Λ(t) = et ϕ(x) = αx1/β . λ(t) = α α α Donc si U suit la loi uniforme sur [0, 1], T = α(− log(U ))1/β suit la loi de Weibull de param`etre (α, β). Dans le cas particulier β = 1, on retrouve le r´esultat classique suivant lequel −α log(U ) suit la loi exponentielle de param`etre 1/α. ♦ Remarque 10.2.4. Il est facile de voir que cette technique est tr`es proche de la m´ethode d’inversion de la fonction de r´epartition pr´esent´ee dans la proposition C.5. En effet, de l’´egalit´e ∀t ≥ 0, F (t) = 1 − e−Λ(t) , on d´eduit facilement que F −1 et Λ−1 , les inverses g´en´eralis´es respectifs de F et Λ sont reli´es par ∀y ∈]0, 1[, F −1 (y) = Λ−1 (− log(1 − y)). Si U suit la loi uniforme sur [0, 1], comme U a mˆeme loi que 1 − U , on en d´eduit que F −1 (U ) = Λ−1 (− log(1 − U )) a mˆeme loi que Λ−1 (− log(U )). ♦ 10.2.2 M´ ethode des pannes fictives ¯ < +∞. On se On suppose que le taux de d´efaillance est major´e par λ ∗ donne deux suites ind´ependantes (Un , n ∈ N ) et (Vn , n ∈ N∗ ) de variables ind´ependantes et identiquement distribu´ees suivant la loi uniforme sur [0, 1]. ¯ Les variables Xn sont alors Pour n ∈ N∗ , on pose Xn = − log(Vn )/λ. ind´ependantes et identiquement distribu´ees suivant la loi exponentielle de ¯ param`etre λ. La variable Xn s’interpr`ete comme la dur´ee entre la (n − 1)-i`eme panne et la n-i` sont les enme panne si bien que les instants successifs des pannes ¯ et T = Sν X . On note ν = inf{n ≥ 1 : U ≤ λ(S )/ λ} Sn = k n n k=1 avec la convention inf ∅ = +∞ et S+∞ = +∞. Les pannes index´ees par n ∈ {1, . . . , ν − 1} ne sont pas prises en compte : ce sont les pannes fictives dont la m´ethode tire son nom.

276

´ ements de fiabilit´e 10 El´

Proposition 10.2.5. Sous l’hypoth`ese (10.5) les variables al´eatoires ν et T sont finies presque sˆ urement (i.e. P(ν < +∞) = P(T < +∞) = 1) et le taux de d´efaillance de la variable T est la fonction t → λ(t). D´emonstration. On a, avec la convention S0 = 0,   P(T > t) = P(Sn ≤ t < Sn+1 , Sν > t) = pn . n≥0

(10.6)

n≥0

o` u pn = P(Sn ≤ t < Sn+1 , ν ≥ n + 1). En utilisant les d´efinitions des Sk et de ν, on obtient que pour n ≥ 0,  pn = P X1 + . . . + Xn ≤ t < X1 + . . . + Xn+1 ,  λ(X1 + . . . + Xn ) λ(X1 ) U1 > ¯ , . . . , Un > ¯ λ λ   n  λ(x1 + . . . + xk ) 1− = ¯ λ x +...+x ≤t t) = e

 1  ¯ − λt n!

n≥0

t

λ(s)ds 0

n

 = exp −

t 0

 λ(s)ds .

On conclut que T a pour taux de d´efaillance λ(t) comme `a la fin de la d´emonstration du lemme 10.2.1. En outre, d’apr`es (10.5),   t λ(s)ds = 0. P(T = +∞) = lim P(T > t) = lim exp − t→+∞

t→+∞

0

´ 10.3 Etude de strat´egies de maintenance

277

Et comme par convention T = +∞ lorsque ν = +∞, on conclut que P(ν = +∞) = 0. ⊓ ⊔ Exercice 10.2.6. On s’int´eresse `a l’esp´erance du nombre de pannes ν que l’on doit g´en´erer afin de construire T .   1. Montrer que ν = n≥1 1{ν≥n} et en d´eduire que E[ν] = n≥1 P(ν ≥ n). 2. En vous inspirant de la d´emonstration de la proposition 10.2.5, v´erifier que pour n ≥ 2, +∞

P(ν ≥ n) =

0

¯ ¯ e−λt (λ − λ(t))

¯ En d´eduire que P(ν ≥ n) = λ

3. Conclure que

 +∞ 0

+∞

¯ E[ν] = λ 0

e

¯ −λt

 exp −



¯ − λt

t 0

λ(s)ds

(n − 2)! n−1 t

¯ λt−

0

λ(s)ds

(n−1)!

t 0

n−2

dt.

dt.

 λ(s)ds dt.

¯ 4. En d´e duire que E[ν] = λE[T ]. Retrouver ce r´esultat en remarquant que T = n≥1 Xn 1{ν≥n} et que les variables al´eatoires Xn et 1{ν≥n} sont ind´ependantes. ¯ telle que 5. Donner une fonction de taux de d´efaillance λ : R+ → [0, λ]  +∞ λ(t)dt = +∞ et E[ν] = +∞. 0

   +∞ t 6. Lorsque 0 exp − 0 λ(s)ds dt < +∞, comment a-t-on int´erˆet `a choi¯ pour minimiser les calculs ? sir λ 

´ 10.3 Etude de strat´ egies de maintenance On consid`ere un mat´eriel qui est imm´ediatement remplac´e lors de chaque panne par un mat´eriel identique. Les dur´ees de vie successives (τi , i ∈ N∗ ) sont suppos´ees ind´ependantes et identiquement distribu´ees suivant la loi de densit´e f sur R+ et int´egrables. On note F la fonction de r´epartition commune des τi et F¯ = 1 − F . Des remplacements pr´eventifs peuvent ˆetre effectu´es avant les pannes. Chaque remplacement (pr´eventif ou cons´ecutif a` une panne) entraˆıne un coˆ ut c > 0. On associe ´egalement `a chaque panne un surcoˆ ut k × c o` u k > 0. L’introduction de ce surcoˆ ut se justifie facilement en pratique : par exemple si on s’int´eresse `a un mat´eriel informatique de stockage de donn´ees, `a la diff´erence d’un remplacement pr´eventif, une panne peut entraˆıner des pertes

278

´ ements de fiabilit´e 10 El´

de donn´ees ou bien si le mat´eriel est un composant d’un syst`eme plus gros, lors des pannes de ce syst`eme, il faut prendre en compte le coˆ ut de recherche du composant en cause. Apr`es avoir ´etudi´e les instants de pannes en absence de remplacement pr´eventif, nous nous int´eresserons `a deux strat´egies de maintenance pr´eventive : – le remplacement suivant l’ˆ age qui consiste `a remplacer pr´eventivement tout mat´eriel ayant atteint l’ˆ age s > 0 sans avoir connu de panne, – le remplacement par bloc qui consiste `a remplacer le mat´eriel de fa¸con pr´eventive aux instants ls pour l ∈ N∗ . Enfin, nous pr´esenterons sous forme de probl`eme un mod`ele de fiabilit´e de logiciel o` u les dur´ees entre pannes ne sont pas identiquement distribu´ees. ´ ements de renouvellement 10.3.1 El´ D´ efinition 10.3.1. On appelle processus de renouvellement une suite (τi , i ∈ N∗ ) de variables al´eatoires positives int´egrables d’esp´erance µ, de fonction de r´epartition F et v´erifiant P(τi = 0) < 1. Pour n ≥ 1, on pose Sn = τ1 + τ2 + . . . + τn . La fonction de comptage du processus de renouvellement est d´efinie comme suit : pour t ≥ 0, Nt = max{n ≥ 1, Sn ≤ t} (avec la convention max ∅ = 0). On a aussi Nt =  n≥1 1{Sn ≤t} .

Dans un contexte de fiabilit´e, l’hypoth`ese P(τi = 0) < 1 n’est pas restrictive car comme le cas τi = 0 correspond au remplacement par un mat´eriel d´ej` a en panne, il est mˆeme naturel de supposer P(τi = 0) = 0. La variable Sn repr´esente l’instant de la n-i`eme panne et la fonction de comptage Nt le nombre de pannes avant l’instant t. La loi de la variable Nt est donn´ee par P(Nt = 0) = P(τ1 > t) et pour n ≥ 1, P(Nt = n) = P(τ1 + . . . + τn ≤ t < τ1 + . . . + τn + τn+1 ) = P(τ1 + . . . + τn ≤ t) − P(τ1 + . . . + τn + τn+1 ≤ t). Exemple 10.3.2. Lorsque les τi suivent la loi exponentielle de param`etre λ > 0, on retrouve le processus de Poisson de param`etre λ introduit dans le paragraphe 8.4 : d’apr`es la proposition 8.4.2, pour tout t ∈ R+ , Nt suit la loi de Poisson de param`etre λt. ♦ 1 Nt = o` u µ est l’esp´erance Proposition 10.3.3. Presque sˆ urement, lim t→+∞ t µ commune des variables al´eatoires τi . D´emonstration. La d´emonstration repose sur la loi forte des grands nombres qui implique que presque sˆ urement, Sn /n = (τ1 + . . . + τn )/n →n→+∞ µ. urement limt→+∞ Nt = +∞. Par Comme pour t ≥ Sn , Nt ≥ n on a presque sˆ d´efinition de la fonction de comptage SNt ≤ t < SNt +1 , ce qui implique

´ 10.3 Etude de strat´egies de maintenance

279

t SNt +1 Nt + 1 SNt ≤ ≤ . Nt Nt Nt + 1 N t La passage `a la limite t → +∞ dans cet encadrement entraˆıne que presque ⊓ ⊔ sˆ urement, limt→+∞ t/Nt = µ. La remarque suivante sera utile ult´erieurement dans l’´etude du coˆ ut associ´e a la strat´egie de remplacement par bloc. ` Remarque 10.3.4. Si les variables τi poss`edent la densit´e f , alors pour n ≥ 1, la variable Sn a une densit´e et avec la convention S0 = 0 on obtient   ∀t > 0, P(SNt = t) = P(Nt = n, Sn = t) ≤ P(Sn = t) = 0. n≥1

n≥1

♦ L’esp´erance de la fonction de comptage joue un rˆ ole important dans l’´etude des processus de renouvellement : D´ efinition 10.3.5. On appelle fonction de renouvellement la fonction t → M (t) = E[Nt ]. Exemple 10.3.6. Lorsque le processus de renouvellement est un processus de Poisson de param`etre λ > 0, Nt suit la loi de Poisson de param`etre λt. Donc, comme l’esp´erance d’une variable de Poisson est ´egale `a son param`etre, ♦ M (t) = E[Nt ] = λt.  Proposition 10.3.7. Pour tout t ≥ 0, M (t) = n≥1 P(Sn ≤ t) < +∞ et 1 M (t) = . lim t→+∞ t µ En outre, si les variables τi poss`edent la densit´e f , la fonction M est continue et satisfait l’´equation de renouvellement t

∀t ≥ 0, M (t) =

0

(1 + M (t − s))f (s)ds.

D´emonstration.  En prenant l’esp´erance dans l’´egalit´e Nt = obtient M (t) = n≥1 P(Sn ≤ t). Or

(10.8)



n≥1

#n  " # # " " . P(Sn ≤ t) = E 1{Sn ≤t} ≤ E et−Sn = et E e−τ1

1{Sn ≤t} , on (10.9)

−τ1 Donc comme E [e ] < 1 (τ1 est une variable positive non identiquement t −τ1 n ]) < +∞. nulle), M (t) ≤ e n≥1 (E [e

´ ements de fiabilit´e 10 El´

280

 On a SNt +1 = τ1 + k≥2 τk 1{Nt ≥k−1} . Pour k ≥ 2, l’´ev´enement {Nt ≥ k−1} = {τ1 + . . . + τk−1 ≤ t} est ind´ependant de τk . Avec la lin´earit´e de l’esp´erance, on en d´eduit que  E [SNt +1 ] = E[τ1 ] + E[τk ]P(Nt ≥ k − 1) k≥2

    P(Nt = n) = E[τ1 ] 1 + k≥2 n≥k−1

   n+1  = E[τ1 ] 1 + P(Nt = n) n≥1 k=2

= E[τ1 ](1 + M (t)).

Comme SNt +1 ≥ t implique que E[SNt +1 ] ≥ t, on en d´eduit que

et

lim inf t→+∞ Mt(t)

(10.10) M (t) t

1 µ.





1 µ

− 1t

Pour montrer que lim supt→+∞ Mt(t) ≤ µ1 , on introduit Ntu et M u (t) la fonction de comptage et la fonction de renouvellement associ´ees aux variables n u u > 0. On pose ´egalement Snu = i=1 min(τi , u) al´eatoires (min(τi , u), i ≥ 1) o` u u ≤ t+u, ce qui entraˆıne E[SN ] ≤ t+u. En ´ecrivant pour n ≥ 1. On a SN u u t +1 t +1 (10.10) pour ce nouveau processus de renouvellement, on obtient 1 u 1 M u (t) ≤ + − . t E[min(τ1 , u)] tE[min(τ1 , u)] t Comme Nt ≤ Ntu , on a M (t) ≤ M u (t), ce qui assure que lim supt→+∞ Mt(t) ≤ 1 E[min(τ1 ,u)] . Lorsque u tend vers l’infini, E[min(τ1 , u)] tend vers µ et on conclut que limt→+∞ Mt(t) = µ1 . Supposons d´esormais que les variables τi poss`edent la densit´e f . Pour n ≥ 2, P(Sn ≤ t) = P(τ1 + . . . + τn ≤ t) =

f (t1 ) . . . f (tn )dt1 . . . dtn

(10.11)

t1 +...+tn ≤t t

f (tn )

= 0



t

= 0

f (t1 ) . . . f (tn−1 )dt1 . . . dtn−1 t1 +...+tn−1 ≤t−tn



dtn

f (s)P(Sn−1 ≤ t − s)ds.

Donc M (t) =



n≥1

P(Sn ≤ t) = P(τ1 ≤ t) +

t

=

t

f (s)ds + 0

f (s) 0



k≥1



n≥2

t 0

f (s)P(Sn−1 ≤ t − s)ds

P(Sk ≤ t − s)ds =

t 0

(1 + M (t − s))f (s)ds.

´ 10.3 Etude de strat´egies de maintenance

281

Enfin pour ´etablir la continuit´e de M il suffit de remarquer qu’avec (10.11), le th´eor`eme de convergence domin´ee entraˆıne que t → P(Sn ≤ t) est continue. ∗ n D’apr`es (10.9), pour t ∈ [0, t∗ ], P(Sn ≤ t) est major´e par et (E [e−τ1 ]) qui est le terme g´en´eral d’une s´erie absolument convergente.  Donc le th´eor`eme de convergence domin´ee pour les s´eries implique que t → n≥1 P(Sn ≤ t) = M (t) est continue sur [0, t∗ ]. Comme t∗ est arbitraire, la fonction de renou⊓ ⊔ vellement est continue sur R+ .  +∞ −αt ˜ (α) = e M (t)dt, On peut exprimer la transform´ee de Laplace M 0 α > 0 de la fonction de renouvellement en fonction de celle des variables al´eatoires τi . En effet, lorsque les variables τi poss`edent la densit´e f , d’apr`es (10.8),   +∞ t 1 ˜ ˜ (α) = +M (α) E[e−ατ1 ], e−α(t−s) e−αs (1+M (t−s))f (s)dsdt = M α 0 0 E[e−ατ1 ] . D’apr`es la proposition 6.12 p. 164 α(1 − E[e−ατ1 ]) [5], cette formule reste valable mˆeme lorsque les τi n’ont pas de densit´e. Mais en g´en´eral on ne sait pas inverser la transform´ee de Laplace donn´ee par cette formule pour expliciter la fonction de renouvellement M (t). Toutefois, dans le cas particulier trait´e dans l’exercice suivant, le calcul explicite de M (t) est possible (voir ´egalement [2] p. 57 pour d’autres exemples plus compliqu´es).

˜ (α) = d’o` u l’on tire M

Exercice 10.3.8. On suppose que les variables τi suivent la loi gamma de param`etre (λ, 2) (o` u λ > 0) de densit´e λ2 t exp(−λt) sur R+ . 1. En remarquant que la loi gamma de param`etre (λ, 2) est la loi de la somme de deux variables exponentielles de param`etre λ ind´ependantes, v´erifier que ˜t = 2n) + P(N˜t = 2n + 1) P(Nt = n) = P(N ˜t est un processus de Poisson de param`etre λ. o` uN 2. En d´eduire que M (t) =

˜t ] 1  E[N − P(N˜t = 2n + 1). 2 2 n∈N

3. Conclure que M (t) =

λt e−2λt 1 + − . 2 4 4

(10.12) 

282

´ ements de fiabilit´e 10 El´ 3 Weibull ( 12 , 12 )

M (t) t

gamma (

1 1 2, 2

)

1 , 4) Weibull ( Γ(9/4) 5

gamma (2,2) gamma (3,3) 1 , 3) Weibull ( Γ(4/3)

2

1

0 0

1

2

3

4

t

5

Fig. 10.2. Repr´esentation de t → M (t)/t pour diverses lois d’esp´erance µ = 1

Plutˆ ot que de repr´esenter t → M (t) qui est une fonction croissante, nous avons choisi sur la Fig. 10.2 de repr´esenter t → Mt(t) pour diverses lois d’esp´erance µ = 1. Pour la loi gamma de param`etre (2, 2), nous avons trac´e en −4t trait plein l’expression analytique 1 + e 4t−1 de Mt(t) d´eduite de (10.12). Pour J  1 j chacune des autres lois, nous avons trac´e t → tJ j=1 n≥1 1{τ j +...+τn ≤t} 1

pour J = 10 000 r´ealisations ind´ependantes (τij , i ≥ 1), 1 ≤ j ≤ J du processus de renouvellement correspondant `a cette loi. Les diff´erentes courbes illustrent bien le r´esultat de convergence limt→+∞ Mt(t) = µ1 ´enonc´e dans la proposition 10.3.7. Au vu de la figure, il peut sembler que la fonction Mt(t) est croissante dans le cas IFR et d´ecroissante dans le cas DFR. Mais on sait seulement d´emontrer que la fonction de renouvellement est sous-lin´eaire dans le cas IFR au sens o` u ∀r, s ≥ 0, M (r + s) ≤ M (r) + M (s) (voir le th´eor`eme M (t) 2.3 p. 52 dans [2]). Cette propri´et´e est plus  la d´ecroissance de t

faible que qui assure que M (r + s) ≤ (r + s) min ∀r, s ≥ 0, M (r + s) ≥ M (r) + M (s).

M (r) M (s) r , s

. Dans le cas DFR, on a

10.3.2 Remplacement suivant l’ˆ age Dans cette strat´egie, le mat´eriel est remplac´e de mani`ere pr´eventive d`es qu’il atteint l’ˆ age s > 0 sans avoir connu de panne. Ainsi la i-i`eme dur´ee de fonctionnement devient min(τi , s). Soit RtA le nombre total de remplacements effectu´es sur l’intervalle de temps [0, t]. Notons que RtA est la fonction de ut Zi comptage du processus de renouvellement (min(τi , s), i ∈ N∗ ). Le coˆ support´e lors du i-i`eme cycle est ´egal au coˆ ut c auquel s’ajoute le surcoˆ ut kc si le i-i`eme remplacement est cons´ecutif a` une panne i.e. si τi ≤ s. Ainsi

´ 10.3 Etude de strat´egies de maintenance

283

  age s qui minimise le coˆ ut sur un Zi = c 1 + k1{τi ≤s} . On souhaite trouver l’ˆ horizon infini. C’est pourquoi on s’int´eresse au comportement asymptotique pour t → +∞ du coˆ ut par unit´e de temps sur [0, t] : RA

CtA

t 1 Zi . = t i=1

Proposition 10.3.9. Pour tout s ∈]0, +∞] (le cas s = +∞ correspondant ` a l’absence de remplacement pr´eventif ), presque sˆ urement, lim CtA =

t→+∞

E[Z1 ] 1 + kF (s) = c × γA (s, k) o` . u γA (s, k) =  s ¯ E[min(τ1 , s)] F (t)dt 0

D´emonstration. Les variables Zi = c + k1{τi ≤s} sont ind´ependantes, identiquement distribu´ees et int´egrables. Par la loi forte des grands nombres on en n d´eduit que presque sˆ urement limn→+∞ n1 i=1 Zi = E[Z1 ]. On a A

CtA

Rt 1  RA Zi . = t × A t Rt i=1

D’apr`es la proposition 10.3.3, p.s., limt→+∞ RtA /t = 1/E[min(τ1 , s)] ce qui u p.s., limt→+∞ CtA = implique en particulier que limt→+∞ RtA = +∞. D’o` E[Z1 ]/E[min(τ1 , s)].   On conclut en remarquant que E[Z1 ] = c 1 + kE[1{τ1 ≤s} ] = c(1 + kF (s)) et que ! !  +∞  +∞ 1{s>t} 1{τ1 >t} dt 1{min(τ1 ,s)>t} dt = E E[min(τ1 , s)] = E 0

0

s

=

F¯ (t)dt.

0

⊓ ⊔ Pour k > 0 fix´e, la fonction s → γA (s, k) est continue sur ]0, +∞]. Comme lims→0+ γA (s, k) = +∞, on en d´eduit l’existence d’un aˆge de remplacement u sA (k) ∈]0, +∞] optimal au sens o` γA (sA (k), k) =

inf

s∈]0,+∞]

γA (s, k).

Lorsque sA (k) = ∞, il est optimal de se contenter de remplacer le mat´eriel lors des pannes.

284

´ ements de fiabilit´e 10 El´

Exemple 10.3.10. Lorsque les variables τi suivent la loi exponentielle de param`etre λ > 0, F (s) = 1 − e−λs et ∀s ∈]0, +∞[, γA (s, k) = λ



1 +k 1 − e−λs



> λ(1 + k) = γA (+∞, k),

si bien que quel que soit le facteur multiplicatif k > 0, sA (k) = +∞. Ainsi, il est optimal de se contenter de remplacer le mat´eriel lors des pannes. ♦ Remarque 10.3.11. Si on ne connaˆıt pas explicitement la loi des τi , une strat´egie possible est la strat´egie minimax qui consiste `a choisir la valeur de l’ˆ age de remplacement qui minimise le maximum du coˆ ut sur toutes les lois possibles. Supposons par exemple que l’on connaˆıt seulement E[τ1 ] = µ. Pour toutes les lois d’esp´erance µ, on a γA (+∞, k) = (1 + k)/µ. Cette valeur est inf´erieure pour tout s ∈]0, +∞[ a` la valeur γA (s, k) associ´ee `a la loi exponentielle de param`etre 1/µ et donc au maximum du coˆ ut sur toutes les lois d’esp´erance µ. Ainsi la strat´egie minimax consiste alors `a ne pas effectuer de remplacement pr´eventif. ♦ Il est naturel qu’il soit optimal de ne pas effectuer de remplacement pr´eventif lorsque les τi suivent la loi exponentielle de param`etre λ > 0 car cette loi est « sans vieillissement » ce qui se traduit math´ematiquement par la constance de son taux de d´efaillance. En revanche, si la dur´ee de vie est IFR (non constante) le mat´eriel vieillit et le remplacer pr´eventivement peut devenir int´eressant au moins lorsque le facteur multiplicatif k est suffisamment grand. En effet, plus k est grand plus le surcoˆ ut k × c associ´e aux pannes est grand. Proposition 10.3.12. Si du mat´eriel est IFR, 8 alors pour 7 la dur´ee de vie s tout k > 0, sA (k) = inf s ∈ R+ , λ(s) 0 F¯ (t)dt − F (s) ≥ 1/k (convention inf ∅ = +∞) est un a ˆge de remplacement pr´eventif optimal. En outre, sA (k) est une fonction d´ecroissante telle que limk→+∞ sA (k) = 0. Elle est infinie ou finie suivant que k < 1/(E[τ1 ] lims→+∞ λ(s) − 1) ou k > 1/(E[τ1 ] lims→+∞ λ(s) − 1). Exemple 10.3.13. – Pour la loi de Weibull sur R+ de param`etre (α, β) avec α > 0 et   β s β−1 β > 1, le taux de d´efaillance λ(s) = α est croissant et v´erifie α lims→+∞ λ(s) = +∞ si bien que sA (k) < +∞ pour tout k > 0. – La loi gamma de param`etre (λ, α) (voir l’exercice 10.1.11) a pour esp´erance α/λ et la limite a` l’infini de son taux de d´efaillance est λ. Lorsque α > 1, son taux de d´efaillance est strictement croissant. La proposition 10.3.12 assure donc que l’ˆ age de remplacement optimal sA (k) est fini si et seulement si 1/(α − 1) < k. La figure 10.3 repr´esente s → γA (s, 6) pour α = 2, λ = 1. Comme 1/(2−1) = 1 < 6, sA (6) < +∞. ♦

´ 10.3 Etude de strat´egies de maintenance

285

D´emonstration. Si on suppose que la densit´e commune f des τi est continue, la fonction s → γA (s, k) est d´erivable et pour s > 0,   s F¯ (r)(1 + kF (r)) kf (r) r γA (s, k) = γA (1, k) + −  r dr. 2 F¯ (t)dt 1 F¯ (t)dt 0 0

Cette formule reste vraie lorsque f n’est pas n´ecessairement continue ; on la retrouve en remarquant que pour la fonction continˆ ument d´erivable g(r) = 1 r 1/ 0 F¯ (t)dt − 1/ 0 F¯ (t)dt, s

s

f (r)g(r)dr =

1

r

s

g ′ (u)dudr =

f (r)

1

1

1

g ′ (u)(F (s) − F (u))du

s

= F (s)g(s) −

g ′ (r)F (r)dr + 1

g(s) 1 − k k

s

g ′ (r)dr 1

et en multipliant les deux membres extrˆemes de cette ´egalit´e par k. r En introduisant h(r) = λ(r) 0 F¯ (t)dt − F (r), on a donc pour s > 0,   s 1 k F¯ (r) dr. (10.13) γA (s, k) = γA (1, k) +  r 2 h(r) − k 1 F¯ (t)dt 0

La croissance du taux de d´efaillance λ entraˆıne que pour r < s, s

λ(s) 0

F¯ (t)dt − λ(r)

r 0

F¯ (t)dt ≥

s r

λ(t)F¯ (t)dt = F (s) − F (r).

Ainsi la fonction h est croissante. Comme sA (k) = inf{r > 0, h(r) ≥ 1/k}, l’´equation (10.13) assure que l’ˆ age de remplacement sA (k) est optimal. La fonction h est nulle en 0 et v´erifie limr→+∞ h(r) = E[τ1 ] limr→+∞ λ(r) − 1 ≥ h(0) = 0. On en d´eduit que sA (k) d´ecroˆıt avec k, tend vers 0 lorsque k tend vers +∞ et vaut +∞ ou est fini suivant que k < 1/(E[τ1 ] limr→+∞ λ(r) − 1) ⊓ ⊔ ou k > 1/(E[τ1 ] limr→+∞ λ(r) − 1). En suivant une strat´egie de remplacement suivant l’ˆage, on ne peut pr´evoir que la date du prochain remplacement pr´eventif. Si on souhaite planifier les dates de tous les remplacements pr´eventifs `a l’avance, il faut se tourner vers la strat´egie de remplacement par bloc. 10.3.3 Remplacement pr´ eventif par bloc C’est la strat´egie qui consiste `a remplacer le mat´eriel aux dates ls pour l = 1, 2, . . . et lors des pannes. Ainsi les dates des remplacements pr´eventifs sont connues a` l’avance. La terminologie remplacement par bloc provient de ce qu’en pratique cette strat´egie est employ´ee pour remplacer simultan´ement des ensembles («blocks» en anglais) de composants (ex : les lampes d’´eclairage public dans une rue). Soit NtB le nombre de pannes sur [0, t] lorsque l’on suit la

286

´ ements de fiabilit´e 10 El´

strat´egie de remplacement par bloc de p´eriode s > 0. Pour l ≥ 1, les variables B B sont ind´ependantes et ont mˆeme loi que la fonction de comptage −N(l−1)s Nls Ns du processus de renouvellement (τi , i ∈ N∗ ). D’apr`es la remarque 10.3.4, avec probabilit´e 1, il n’y a pas de panne aux instants ls, l ≥ 1 si bien que le coˆ ut par unit´e de temps sur l’intervalle [0, t] est : CtB = c ×

(1 + k)NtB + [t/s] , t

` nouveau, on s’int´eresse au comporteo` u [x] d´esigne la partie enti`ere de x. A ment asymptotique de ce coˆ ut pour t → +∞. Proposition 10.3.14. Pour tout s ∈]0, +∞[, presque sˆ urement, lim CtB = c × γB (s, k) o` u γB (s, k) =

t→+∞

(1 + k)M (s) + 1 , s

et M (s) = E[Ns ] est la fonction de renouvellement associ´ee au processus (τi , i ∈ N∗ ). D´emonstration. On a limt→+∞ [t/s]/t = limt→+∞ ([t/s] + 1)/t = 1/s. En B B entraˆıne ≤ NtB ≤ N[t/s]s+s outre, l’in´egalit´e N[t/s]s t

t

[s] [ s ]+1  [ st ] + 1 [ st ] 1  1 NtB B B B B × t ≤ × t (Nls − N(l−1)s ) ≤ (Nls − N(l−1)s ). t t t [ s ] l=1 [ s ] + 1 l=1

Comme par la loi forte des grands nombres, presque sˆ urement, n

1 B B (Nls − N(l−1)s ) = M (s), lim n→+∞ n l=1

on obtient que presque sˆ urement, limt→+∞ NtB /t = M (s)/s et on conclut facilement. ⊓ ⊔ Comme d’apr`es la proposition 10.3.7, la fonction de renouvellement M (s) est continue, la fonction s → γB (s, k) est continue sur ]0, +∞[. La limite presque sˆ ure du coˆ ut par unit´e de temps en absence de remplacement pr´eventif est, d’apr`es le paragraphe consacr´e au remplacement suivant l’ˆ age, 1+k . Comme cγA (+∞, k). On pose donc γB (+∞, k) = γA (+∞, k) = E[τ ] 1 lims→+∞ M (s)/s = 1/E[τ1 ] d’apr`es la proposition 10.3.7, la fonction s → u l’exisγB (s, k) est continue sur ]0, +∞]. Or lims→0+ γB (s, k) = +∞. D’o` u tence d’une p´eriode de remplacement sB (k) ∈ ]0, +∞] optimale au sens o` γB (sB (k), k) =

inf

s∈]0,+∞]

γB (s, k).

´ 10.3 Etude de strat´egies de maintenance

287

Lorsque sB (k) = +∞, il est optimal de se contenter de remplacer le mat´eriel lors des pannes. En g´en´eral, a` la diff´erence de l’exemple qui suit, la fonction de renouvellement n’est pas connue de fa¸con explicite et il faut utiliser des m´ethodes num´eriques pour d´eterminer sB (k). Exemple 10.3.15. Si les τi sont des variables exponentielles de param`etre λ > 0, M (s) = λs et ∀s ∈]0, +∞[, γB (s, k) = (1 + k)λ +

1 > (1 + k)λ = γB (+∞, k), s

si bien que sB (k) = +∞ pour tout k > 0. En outre, en raisonnant comme dans la remarque 10.3.11, on v´erifie que dans le cas o` u on ne connaˆıt la loi des τi qu’au travers de son esp´erance E[τ1 ], la strat´egie minimax optimale consiste `a ne pas effectuer de remplacement pr´eventif. ♦ Dans la strat´egie de remplacement par bloc de p´eriode s, les mat´eriels remplac´es pr´eventivement aux instants ls, l ∈ N∗ ont fonctionn´e sans panne pendant des dur´ees al´eatoires ind´ependantes et identiquement distribu´ees `a valeurs dans [0, s]. Intuitivement, du fait de ce caract`ere al´eatoire, on peut penser que quel que soit s, le coˆ ut associ´e `a cette strat´egie est plus ´elev´e que le coˆ ut associ´e `a la strat´egie de remplacement suivant l’ˆage optimal. L’objet de l’exercice suivant est de v´erifier ce r´esultat lorsque les τi suivent la loi gamma de param`etre (λ, 2) ; la Fig. 10.3 l’illustre dans le cas o` u λ = 1 et k = 6.

3.6

3.4

γA(s,6)

3.2

γB(s,6)

3.0

2.8 0.4

sA(6) sB(6)

1.4

2.4

s

3.4

Fig. 10.3. Comparaison de s → γA (s, k) et de s → γB (s, k) lorsque k = 6 et que les dur´ees de vie τi suivent la loi gamma de param`etre (1, 2)

288

´ ements de fiabilit´e 10 El´

Exercice 10.3.16. On suppose que les τi suivent la loi gamma de param`etre (λ, 2) (densit´e f (t) = λ2 te−λt 1{t≥0} ) et on rappelle que d’apr`es (10.12), e−2λs − 41 . M (s) = λs 2 + 4 B 1. V´erifier que ∂γ eme signe que 1 − ∂s (s, k) a mˆ −2λs . (1 + 2λs)e

4 1+k

− g(s) o` u g(s) =

2. V´erifier que g est une fonction continue strictement d´ecroissante sur [0, +∞[ telle que g(0) = 1 et lims→+∞ g(s) = 0. On note g −1 : ]0, 1] → [0, +∞[ son inverse. 3. V´erifier que si k ≤ 3, sB (k) = +∞ et en d´eduire que γA (sA (k), k) ≤ γA (sB (k), k). 

erifier que sur l’intervalle 4. Montrer que si k > 3, sB (k) = g −1 k−3 1+k . V´ ]3, +∞[, la fonction sB est continue et d´ecroˆıt strictement de +∞ `a 0. D´eterminer sa fonction inverse kB (s). 5. V´erifier que pour t > 0, F¯ (t) = (1 + λt)e−λt puis que pour s > 0, s 0

En d´eduire que

 1 2 − (2 + λs)e−λs . F¯ (t)dt = λ s

[γB (s, kB (s)) − γA (s, kB (s))] × e2λs (1 − g(s))

(10.14)

F¯ (t)dt = h(λs),

0

o` u h(x) = (x − 1)ex − 4 + (5 + 5x + 2x2 )e−x .

6. En calculant ex h′ (x)/x, v´erifier que la fonction h est croissante sur ]0, +∞[ puis qu’elle est positive sur cet intervalle. En d´eduire que ∀s > 0, γA (s, kB (s)) ≤ γB (s, kB (s)) 7. Conclure que pour tout k > 0, γA (sA (k), k) ≤ γB (sB (k), k).



10.3.4 Comparaisons entre les remplacements suivant l’ˆ age et par bloc Afin d’effectuer des comparaisons, pour s > 0 fix´e, on note a l’instant t respectivement – Nt , NtA et NtB les nombres de pannes jusqu’` sans remplacement pr´eventif, sous la strat´egie de remplacement suivant l’ˆ age s et sous la strat´egie de remplacement par bloc de p´eriode s, – rtA et rtB les nombres de remplacements pr´eventifs effectu´es avant t respectivement sous la strat´egie suivant l’ˆ age et sous la strat´egie de remplacement par bloc, – RtA = NtA + rtA et RtB = NtB + rtB les nombres totaux de remplacements effectu´es avant t respectivement sous la strat´egie suivant l’ˆ age et sous la strat´egie de remplacement par bloc.

´ 10.3 Etude de strat´egies de maintenance

289

Pour comparer des variables al´eatoires qui ne sont pas forc´ement d´efinies sur le mˆeme espace de probabilit´e, on utilise la notion d’ordre stochastique introduite dans la d´efinition 10.1.17. Le prochain th´eor`eme ´enonce rigoureusement l’id´ee naturelle suivante : sous des hypoth`eses de vieillissement du mat´eriel (New Better than Used ou Increasing Failure Rate), le nombre de pannes est moins important dans le cas de remplacements pr´eventifs qu’en l’absence de maintenance. Th´ eor` eme 10.3.17. Pour tout s > 0, on a les comparaisons suivantes entre la strat´egie de remplacement suivant l’ˆ age s, la strat´egie de remplacement par bloc de p´eriode s et la strat´egie qui consiste a ` ne pas faire de remplacement pr´eventif : 1. ∀t ≥ 0, rtB = [t/s] et P(rtA ≤ rtB ) = 1.

2. ∀t ≥ 0, P(Nt ≤ RtA ≤ RtB ) = 1. En particulier, le nombre total de remplacements augmente lorsqu’on applique une strat´egie de maintenance pr´eventive.

3. Si la dur´ee de vie du mat´eriel est NBU, alors ∀t ≥ 0, NtA ≺st Nt et NtB ≺st Nt .

4. Si la dur´ee de vie du mat´eriel est IFR, alors ∀t ≥ 0, NtB ≺st NtA ≺st Nt .

5. Si la dur´ee de vie du mat´eriel est DFR, alors ∀t ≥ 0, Nt ≺st NtA ≺st NtB .

D´emonstration. 1. Il suffit de remarquer que le nombre de remplacements pr´eventifs sur [0, t] en suivant la strat´egie par bloc est rtB = [t/s] tandis que dans la strat´egie de remplacement suivant l’ˆage, comme la dur´ee entre deux remplacements pr´eventifs successifs est au moins s, il y en a au plus [t/s] sur l’intervalle [0, t]. 2. Soit (τi , i ∈ N∗ ) des variables ind´ependantes de densit´e commune f qui repr´esentent les dur´ees de vie successives du mat´eriel. On note Sn (resp. SnA et SnB ) l’instant du n-i`eme remplacement sans maintenance pr´eventive (resp. avec maintenance pr´eventive suivant l’ˆ age ou par bloc). Si on pose S0 = S0A = S0B = 0, on a les relations de r´ecurrence : A ∀n ≥ 1, Sn = Sn−1 + τn , SnA = Sn−1 + min(τn , s)

B B et SnB = min(Sn−1 + τn , ([Sn−1 /s] + 1)s).

On en d´eduit par r´ecurrence que ∀n ≥ 1, P(Sn ≥ SnA ≥ SnB ) = 1 et donc que P(∀n ≥ 1, Sn ≥ SnA ≥ SnB ) = 1. Les nombres de remplacements avant t ´etant obtenus comme des fonctions de comptage i.e.    1{Sn ≤t} , RtA = 1{SnA ≤t} , RtB = 1{SnB ≤t} , Nt = n≥1

n≥1

n≥1

on conclut que P(Nt ≤ RtA ≤ RtB ) = 1. 3. Pour i ≥ 1, soit TiA la dur´ee entre la (i − 1)-i`eme panne et la i-i`eme panne lorsque le mat´eriel est remplac´e pr´eventivement d`es qu’il atteint l’ˆ age

290

´ ements de fiabilit´e 10 El´

s > 0. Par convention, T1A est l’instant de la premi`ere panne. Les variables (TiA , i ∈ N∗ ) sont ind´ependantes et identiquement distribu´ees. On note F¯ A la fiabilit´e associ´ee. On a pour t ≥ 0, F¯ A (t) = P(T1A > t) = P(τ1 > s, . . . , τ[t/s] > s, τ[t/s]+1 > t − [t/s]s) = F¯ (s)[t/s] F¯ (t − [t/s]s). Si la dur´ee de vie est NBU, en utilisant (10.3), on obtient par r´ecurrence que ∀n ≥ 0, F¯ (ns) ≤ F¯ (s)n . On en d´eduit que F¯ (t) ≤ F¯ ([t/s]s)F¯ (t − [t/s]s) ≤ F¯ A (t), a` nouveau par la propri´et´e NBU. Ainsi τ1 ≺st T1A . Notons F −1 et FA−1 les inverses g´en´eralis´es (voir d´efinition C.4) des fonctions de r´epartition 1 − F¯ (t) et 1 − F¯ A (t) et posons τ˜i = F −1 (Ui ) et T˜iA = FA−1 (Ui ) o` u (Ui , i ∈ N∗ ) est une suite de variables al´eatoires ind´ependantes et identiquement distribu´ees suivant la loi uniforme sur [0, 1]. D’apr`es la proposition C.5, les variables al´eatoires (˜ τi , i ∈ N∗ ) sont ind´ependantes et de mˆeme loi que τ1 et les variables al´eatoires (T˜iA , i ∈ N∗ ) sont ind´ependantes et de mˆeme loi que T1A . En outre, par un raisonnement analogue a` celui effectu´e dans la d´emonstration 1. On en d´eduit que de la proposition 10.1.18, P(∀i ≥ 1, τ˜i ≤ T˜iA ) =  ˜t = pour tout t ≥ 0, les fonctions de comptage N τ1 +...+˜ τn ≤t} et n≥1 1{˜  A A ˜ ˜ ˜ Nt = n≥1 1{T˜A +...+T˜A ≤t} v´erifient P(Nt ≤ Nt ) = 1. Comme elles ont resn 1 pectivement mˆeme loi que Nt et NtA , on conclut que NtA ≺st Nt . Pour traiter le cas du remplacement par bloc de p´eriode s, on remarque que si on note (TiB , i ≥ 1) les dur´ees entre les pannes successives, par comparaison avec le remplacement suivant l’ˆage, on a ∀t ≥ 0, P(T1B > t) = F¯ A (t) et on pose F¯0B (t) = F¯ A (t). En revanche, rien n’assure que les variables TiB soient ind´ependantes et identiquement distribu´ees : si une panne a lieu `a l’instant u (= ls, ∀l ≥ 1), les dates des remplacements pr´eventifs successifs ´etant donn´ees par ls pour l ≥ ([u/s] + 1), la probabilit´e pour que la panne suivante ait lieu apr`es une dur´ee strictement sup´erieure `a t est, si on note v = ([u/s] + 1)s − u la dur´ee `a courir jusqu’au prochain remplacement pr´eventif,  F¯ (t) si t ≤ v B F¯v (t) = F¯ (v)F¯ (s)[(t−v)/s] F¯ (t − v − [(t − v)/s]s) sinon (dans le cas u = ls la probabilit´e est F¯0B (t)). La propri´et´e NBU entraˆıne que ∀v ∈ [0, s[, ∀t ≥ 0, F¯vB (t) ≥ F¯ (t). On conclut par une construction qui repose sur les mˆemes id´ees mais qui est un peu plus compliqu´ee que celle effectu´ee −1 d´esigne l’inverse pour le remplacement suivant l’ˆ age : si pour v ∈ [0, s[, FB,v −1 B (U1 ) et g´en´eralis´e de la fonction de r´epartition 1 − F¯v , on pose T˜1B = FB,0 −1 B ˜ u pour i ≥ 2, Ti = FB,Vi−1 (Ui ) o` B B )/s] + 1)s − T˜1B − . . . − T˜i−1 . Vi−1 = ([(T˜1B + . . . + T˜i−1

˜B La suite (T˜iB ) a mˆeme loi que la suite (TiB ) et v´erifie  P(∀i ≥ 1, Ti ≥ ˜ τ˜i ) = 1. Donc les fonctions de comptage Nt = τ1 +...+˜ τn ≤t} et n≥1 1{˜

´ 10.3 Etude de strat´egies de maintenance

291

˜tB =  eme loi que Nt et NtB N n≥1 1{T˜1B +...+T˜nB ≤t} qui ont respectivement mˆ ˜B ≤ N ˜t ) = 1. Ainsi N B ≺st Nt . v´erifient P(N t t 4. Comme toute loi IFR est NBU (voir proposition 10.1.15), la seule propri´et´e `a montrer est NtB ≺st NtA . D’apr`es ce qui pr´ec`ede, il suffit pour cela de montrer que ∀v ∈ [0, s[, ∀t ≥ 0, F¯vB (t) ≥ F¯ A (t). Soit donc v ∈ [0, s[ et t ≥ 0. Nous distinguons trois cas Cas 1 : t ≤ v. Alors F¯vB (t) = F¯ (t) = F¯ A (t). Cas 2 : t ≥ v et [(t − v)/s] = [t/s]. Alors v + (t − v − [(t − v)/s]s) = t − [t/s]s, et d’apr`es la propri´et´e NBU, F¯ (v)F¯ (t − v − [(t − v)/s]s) ≥ F¯ (t − [t/s]s).

En multipliant cette in´egalit´e par F¯ (s)[(t−v)/s] = F¯ (s)[t/s] et en utilisant les d´efinitions de F¯vB et F¯ A , on obtient l’in´egalit´e souhait´ee. Cas 3 : t ≥ v et [(t − v)/s] = [t/s] − 1. Alors v +(t − v − [(t − v)/s]s) = s+(t−[t/s]s) et le plus grand des quatre termes dans cette ´egalit´e est s. Par la proposition 10.1.15, on en d´eduit que F¯ (v)F¯ (t − v − [(t − v)/s]s) ≥ F¯ (s)F¯ (t − [t/s]s); on conclut en multipliant cette in´egalit´e par F¯ (s)[(t−v)/s] = F¯ (s)[t/s]−1 . 5. Il suffit de remarquer que dans le cas DFR, on peut ´echanger le sens de toutes les in´egalit´es portant sur F¯ , F¯ A et F¯ B ´ecrites dans la d´emonstration des points 3 et 4. ⊓ ⊔ Remarque 10.3.18. D’apr`es les d´emonstrations des propositions 10.3.9 et 10.3.14, presque sˆ urement   F (s) 1 + M (s) M (s) 1  A B A B 1 , s ¯ Rt , Rt , Nt , Nt =  s ¯ . , , lim t→+∞ t s s F (t)dt F (t)dt 0 0 (s) 1 . ≤ 1+M s F¯ (t)dt 0 En effet, RsB = NsB + 1 RsB P( i=1 min(τi , s) = s)

– Le point 2 du th´eor`eme pr´ec´edent implique que  s

Si

F¯ (s) < 1, cette in´egalit´e est mˆeme stricte. = RsB A = Ns + 1 et  i=1 min(τi , s) ≥ s. Comme P(τ1 ≥ s) + k≥2 P(τ1 + . . . + τk = s) = F¯ (s) + 0, dans le cas RsB o` u F¯ (s) s. Les variables B R(l+1)s al´eatoires min(τi , s), l ≥ 0 sont ind´ependantes et identiquei=RB +1 ls

ment distribu´ees et la loi forte des grands nombres assure que lorsque B B Rls Rls RB l → +∞, 1l i=1 min(τi , s) = lls × R1B i=1 min(τi , s) converge presque ls RsB sˆ urement d’une  s part vers E[ i=1 min(τi , s)] > s et d’autre part vers (1 + M (s)) × 0 F¯ (t)dt.

292

´ ements de fiabilit´e 10 El´

– Le point 4 du th´eor`eme pr´ec´edent entraˆıne que dans le cas IFR,  sF (s) ≥ M (s) mais il semble difficile de trouver une condition simple s ¯ 0

F (t)dt

qui assure que cette in´egalit´e est stricte. Si on suppose qu’elle l’est et que F¯ (s) < 1, comme kF (s) 1 1 + M (s) kM (s) + , γA (s, k) =  s ¯ + s ¯ et γB (s, k) = s s F (t)dt F (t)dt 0 0

on obtient que γA (s, k) est inf´erieur ou sup´erieur  s a` γB (s, k) suivant que (1+M (s)) F¯ (t)dt−s 0 k est inf´erieur ou sup´erieur a` κ(s) = . Intuitivement s ¯ sF (s)−M (s)

0

F (t)dt

cela traduit l’id´ee suivante : comme dans la strat´egie par bloc, il y a plus de remplacements pr´eventifs et moins de pannes que dans la strat´egie suivant l’ˆ age, il faut que le surcoˆ ut li´e aux pannes repr´esent´e par le facteur multiplicatif k soit assez important pour la strat´egie par bloc soit pr´ef´erable `a la strat´egie suivant l’ˆ age. L’exercice 10.3.19 ci-dessous a pour objet de d´emontrer que l’in´egalit´e  sF (s) ≥ M (s) est stricte dans le cas de la loi gamma de param`etre s ¯ 0

F (t)dt

(λ, 2). Notons que dans le cas de la loi gamma de param`etre (1, 2), d’apr`es la Fig. 10.3, les courbes s → γA (s, 6) et s → γB (s, 6) se croisent pour s de l’ordre de 2.13 et que l’on peut v´erifier que κ(2.13) = 6.0015. ♦

Exercice 10.3.19. On suppose que les variables al´eatoires τi suivent la loi gamma de param`etre (λ, 2). 1. En utilisant (10.14), v´erifier que  sF¯(s) 0

2. En d´eduire que  sF¯(s) 0

F (t)dt



M (s) s

=

F (t)dt

=

λ 2



λ2 se−λs . 2(2−(2+λs)e−λs )

e−2λs g(λs) 2s(2−(2+λs)e−λs )

o` u

g(x) = e2x − 1 − x2 ex − (2 + x) sinh(x).

3. V´erifier que le d´eveloppement en s´erie enti`ere de g s’´ecrit   xn 2n − n(n − 1) − 2 si n est impair, avec an = an g(x) = n! 2n − n2 si n est pair. n≥1 Conclure que ∀s > 0,  sF¯(s) 0

F (t)dt

>

M (s) s .



10.3.5 Dur´ ees entre pannes non identiquement distribu´ ees Dans le paragraphe qui pr´ec`ede, nous avons suppos´e les dur´ees de vie successives ind´ependantes et identiquement distribu´ees. Mais le choix de dur´ees de

´ 10.3 Etude de strat´egies de maintenance

293

vie ind´ependantes mais non identiquement distribu´ees est parfois plus naturel du point de vue de la mod´elisation. Le probl`eme suivant est consacr´e `a un tel mod`ele introduit par Moranda [9] dans le cadre de la fiabilit´e des logiciels. Pour une pr´esentation d´etaill´ee des mod`eles de fiabilit´e des logiciels, on pourra se r´ef´erer a` [12]. Probl` eme 10.3.20. Les dates successives o` u sont d´ecouvertes les erreurs d’un logiciel sont d´ecrites de la mani`ere suivante : la dur´ee τn entre la d´ecouverte de la (n − 1)-i`eme erreur et celle de la n-i`eme erreur suit la loi exponentielle de param`etre λβ n−1 . Les variables (τn , n ≥ 1) sont suppos´ees ind´ependantes. Les param`etres λ et β sont strictement positifs avec β < 1 ce qui traduit l’hypoth`ese que les dur´ees entre les erreurs sont croissantes (au sens de l’ordre stochastique). Cette hypoth`ese semble raisonnable mˆeme s’il arrive qu’en corrigeant une erreur, on en introduise une nouvelle. Pour t ≥ 0, on note Nt le nombre d’erreurs d´ecouvertes `a l’instant t et M (t) = E[Nt ]. L’objectif de ce probl`eme est d’´etudier la dur´ee de test T optimale du logiciel dans les deux cas suivants : – la dur´ee de service du logiciel est t1 > 0 i.e. le logiciel fonctionnera sur l’intervalle temporel [T, T + t1 ]. – la date de fin de service du logiciel est t2 > 0 i.e. il fonctionnera sur [T, t2 ] si T < t2 . On affecte – un coˆ ut a > 0 `a la correction d’une erreur pendant la phase de test. – un coˆ ut b ` a la correction d’une erreur pendant la phase op´erationnelle : pour tenir compte du d´eficit d’image caus´e aupr`es des utilisateurs, il faut supposer b grand devant a. – un coˆ ut c > 0 par unit´e de temps de test : ce coˆ ut tient compte a` la fois du coˆ ut interne des tests et des opportunit´es de ventes perdues du fait que le logiciel n’est pas encore sur le march´e. On souhaite trouver la dur´ee T qui minimise l’esp´erance du coˆ ut total : C1 (T ) = aM (T ) + b(M (T + t1 ) − M (T )) + cT +

C2 (T ) = aM (T ) + b(M (t2 ) − M (T )) + cT

dans le premier cas, dans le second.

1. a) Montrer, en vous inspirant de la proposition 10.3.7 que ∀T ≥ 0, M (T ) < +∞ et que la fonction T → M (T ) est continue. Qu’en d´eduit-on pour les fonctions de coˆ ut moyen C1 et C2 ? b) En remarquant que Nt est une chaˆıne de Markov a` temps continu de g´en´erateur ∀n, n′ ∈ N, A(n, n′ ) = λβ n (1{n′ =n+1} − 1{n′ =n} ), v´erifier formellement" que# limh→0+ h1 E[Nt+h − Nt |Nt = n] = λβ n puis que M ′ (t) = λE β Nt , r´esultat que l’on peut justifier rigoureusement. En d´eduire que limt→+∞ M ′ (t) = 0. V´erifier que si s > t, ∀n ∈ N, P(Ns > Nt |Nt = n) > 0 et conclure que M ′ (t) est une fonction strictement d´ecroissante.

´ ements de fiabilit´e 10 El´

294

1 2 c) Montrer l’existence de Topt ∈ [0, +∞[ et Topt ∈ [0, t2 ] qui minimisent 2 2 =0 respectivement C1 et C2 . Montrer Topt est unique puis que Topt si et seulement si λ(b − a) ≤ c. 2. Nous allons v´erifier, grˆ ace `a la transformation de Laplace que M (t) est ´egale `a j j+1   j (λt) (−1) (1 − β i ) g(t) = (j + 1)! i=1 j≥0 0 avec la convention i=1 (1 − β i ) = 1. a) On rappelle que la fonction Γ d’Euler d´efinie par +∞

sx−1 e−s ds

∀x > 0, Γ (x) =

0

v´erifie Γ (x + 1) = xΓ (x) et donc ∀n ∈ N, Γ (n + 1) = n!.  +∞ Montrer que la transform´ee de Laplace 0 e−αs g(s)ds de g est ´egale pour tout α > λ ` a 

(−1)j

j≥0

b)

j λj+1  (−1)m αj+2 m=0



β i1 +...+im ,

1≤i1 xp . ⊓ ⊔

Cela signifie que p.s. limn→∞ X(k(n),n) = xp .

Proposition 11.1.10. Soit p = 1 (resp. p = 0). Soit (k(n), n ≥ 1) une k(n) = p. Alors la suite suite d’entiers telle que 1 ≤ k(n) ≤ n et lim n→∞ n (X(k(n),n) , n ≥ 1) converge presque sˆ urement vers xF = inf{x ; F (x) = 1} (resp. x ˜F = sup{x ; F (x) = 0}), avec la convention inf ∅ = +∞ (resp. sup ∅ = −∞). D´emonstration. Pour p = 1, un raisonnement similaire a` celui de la d´emonstration de la proposition pr´ec´edente assure que p.s. lim inf n→∞ X(k(n),n) ≥ xF . Par d´efinition de xF , on a p.s. Xn ≤ xF pour tout n ≥ 1. Ceci assure donc que limn→∞ X(k(n),n) = xF . Pour p = 0, en consid´erant les variables Yk = −Xk , on est ramen´e au cas p = 1. ⊓ ⊔ Dans certains cas, on peut donner un intervalle de confiance pour le quantile empirique. Proposition 11.1.11. Soit p ∈]0, 1[. Supposons que la loi de X1 poss`ede une densit´e, f continue √  en xp et telle que f (xp ) > 0. On suppose de plus que k(n) = np + o n . On a la convergence en loi suivante :  Loi √  n X(k(n),n) − xp −−−−→ N n→∞



0,

 p(1 − p) . f (xp )2



  aα p(1 − p) √ , o` Soit α > 0. L’intervalle al´eatoire X(k(n),n) ± u aα est le f (X(k(n),n) ) n quantile d’ordre 1 − α/2 de la loi N (0, 1), est un intervalle de confiance pour xp , de niveau asymptotique 1 − α. Le graphique 11.2 repr´esente l’´evolution de la m´ediane empirique et de l’intervalle de confiance de niveau asymptotique 95% associ´e pour des variables al´eatoires ind´ependantes de loi de Cauchy en fonction de la taille de l’´echantillon. Rappelons que pour une loi de Cauchy, la densit´e est 1/(π(1 + x2 )), et la m´ediane est 0.

312

11 Lois de valeurs extrˆemes

x D´emonstration. Notons k = k(n). Soit x ∈ R fix´e. On pose yn = xp + √ n yn

et pn = F (yn ). Comme la densit´e est continue, on a pn − p =   1 xf (xp ) √ +o √ . n n On rappelle (11.2). La d´emonstration repose sur le fait que

f (u)du = xp

 √ √  n X(k,n) − xp ≤ x ⇔ X(k,n) ≤ yn ⇔ Sn (yn ) ≥ k ⇔ Vn ≥ n

√ o` u Vn = n



 k − pn , n

 Sn (yn ) − pn . En utilisant les fonctions caract´eristiques, on a n  √  ! S (y ) " iuVn # iu n n n n −pn =E e E e  n   √ ! 1{Xj ≤yn } −pn / n iu j=1 =E e

√ n = E eiu(1{X1 ≤yn } −pn )/ n

√ n √ = pn eiu(1−pn )/ n +(1 − pn ) e−iupn / n .



On fait un d´eveloppement limit´e du dernier terme entre crochets. On a pn eiu(1−pn )/

√ n



+(1 − pn ) e−iupn / n   iu u2 2 −2 (1 − pn ) + o(n ) = pn 1 + √ (1 − pn ) − 2n n   iu u2 2 pn + o(n−2 ) + (1 − pn ) 1 − √ pn − 2n n u2 pn (1 − pn ) + o(n−2 ) =1− 2n u2 =1− p(1 − p) + O(n−3/2 ). 2n

Il en d´ecoule donc que  !n # " u2 p(1 − p) + O(n−3/2 ) . E eiuVn = 1 − 2n

On d´eduit du lemme B.3 que !n   !n 2 u2 u2 −3/2 p(1 − p) + O(n p(1 − p) = e−u p(1−p)/2 . ) = lim 1 − lim 1 − n→∞ n→∞ 2n 2n loi vers V, de loi gaussienne N (0, p(1 − Donc la suite (Vn , n ≥ 1) converge en  √ k − pn = −xf (xp ), on d´eduit du p)). Comme de plus on a lim n n→∞ n

11.1 Statistique d’ordre, estimation des quantiles

313

 √  th´eor`eme de Slutsky A.3.12 que pour x = 0, Vn / n nk − pn converge en loi vers V /(−xf (xp )), qui est une variable al´eatoire continue. On a donc P

     √  √ k − pn −→ P (V ≥ −xf (xp )). n X(k,n) − xp ≤ x = P Vn ≥ n n→∞ n

En utilisant le fait que V et −V ont mˆeme loi il vient P (V ≥ −xf (xp )) = V epartition de la loi de P f (x ) ≤ x . Cela implique que la fonction de r´  √  p n X(k,n) − xp converge vers celle de V /f (xp ) et donc vers la fonction de r´epartition de la loi N (0, p(1−p)/f (xp )2 ). La premi`ere partie de la proposition d´ecoule alors de la proposition C.2. Comme la densit´e f est continue en xp , on d´eduit de la proposition 11.1.8 que p.s. limn→∞ f (X(k,n) ) = f (xp ). Le th´eor`eme de Slutsky A.3.12 assure que √ f (X(k,n) ) Loi (X(k,n) − xp ) −−−−→ N (0, 1). n n→∞ p(1 − p) 

  aα p(1 − p) √ , o` On en d´eduit que l’intervalle al´eatoire X(k(n),n) ± u aα f (X(k(n),n) ) n est le quantile d’ordre 1 − α/2 de la loi N (0, 1), est un intervalle de confiance ⊓ ⊔ de niveau asymptotique 1 − α pour xp . Remarque 11.1.12. Si la loi ne poss`ede pas de densit´e, ou si la densit´e est irr´eguli`ere, la vitesse de convergence du √ quantile empirique vers le quantile peut ˆetre beaucoup plus rapide que 1/ n. En revanche, si la densit´e existe, est continue√et si f (xp ) = 0, alors la vitesse de convergence peut ˆetre plus ♦ lente que 1/ n. Dans la proposition 11.1.11 intervient la densit´e de la loi. Or, en g´en´eral, si on cherche `a estimer un quantile, il est rare que l’on connaisse la densit´e. On peut construire un autre intervalle de confiance pour xp sous des hypoth`eses plus g´en´erales, qui ne fait pas intervenir la densit´e. Si les hypoth`eses de la proposition 11.1.11 sont v´erifi´ ees, alors la largeur al´eatoire de cet intervalle de √ confiance est de l’ordre de 1/ n. Proposition 11.1.13. Soit p ∈]0, 1[. Soit aα le quantile  1 − α/2 √ d’ordre de la loi N (0, 1).  On consid`ere les entiers in = [np − naα p(1 − p)] et √ jn = [np + naα p(1 − p)]. Pour n assez grand les entiers in et jn sont compris entre 1 et n. De plus l’intervalle al´eatoire [X(in ,n) , X(jn ,n) ] est un intervalle de confiance pour xp de niveau asymptotique 1 − α. D´emonstration. On pose Zn =



1 n n

Sn − p

, o` u Sn =

n 

1{Xi ≤xp } . On p(1 − p) i=1 d´eduit du th´eor`eme central limite que la suite (Zn , n ≥ 1) converge en loi

314

11 Lois de valeurs extrˆemes

vers Z de loi gaussienne centr´ee r´eduite. Pour n suffisamment grand, on a 1 ≤ in ≤ jn ≤ n, et P(X(in ,n) ≤ xp ≤ X(jn ,n) ) = P(in ≤ Sn ≤ jn )   √ n1 jn − p √ n1 in − p . ≤ Zn ≤ n  n =P p(1 − p) p(1 − p)

De la d´efinition de in et jn , on d´eduit que pour n ≥ n0 ≥ 1, on a 

1



P −aα ≤ Zn ≤ aα − √  n0 p(1 − p)   √ n1 in − p √ n1 jn − p ≤P ≤ Zn ≤ n  n p(1 − p) p(1 − p)   1 ≤ P −aα − √  ≤ Zn ≤ aα . n0 p(1 − p)

On en d´eduit donc, en faisant tendre n puis n0 vers l’infini, que   √ n1 jn − p √ n1 in − p lim P = P(−aα ≤ Z ≤ aα ) = 1−α. ≤ Zn ≤ n  n n→∞ p(1 − p) p(1 − p) On a donc obtenu

lim P(X(in ,n) ≤ xp ≤ X(jn ,n) ) = 1 − α.

n→∞

L’intervalle al´eatoire [X(in ,n) , X(jn ,n) ] est bien d´efini pour n suffisamment grand, et c’est un intervalle de confiance pour xp de niveau asymptotique 1 − α. ⊓ ⊔ La suite de ce paragraphe est consacr´ee `a des r´esultats qui seront utiles dans les paragraphes suivants. Le lemme 11.1.2 assure que l’´etude de la statistique d’ordre associ´ee `a une loi quelconque peut se d´eduire de l’´etude de la statistique d’ordre associ´ee `a la loi uniforme sur [0, 1]. Nous donnons une repr´esentation de cette derni`ere `a l’aide de variables al´eatoires de loi exponentielle. Soit (Ei , i ≥ 1) une suite de nvariables al´eatoires de loi exponentielle de eatoire Γn suit la loi param`etre 1. On note Γn = i=1 Ei . La variable al´ gamma de param`etre (1, n), voir la remarque A.2.12. Soit (U1 , . . . , , Un ) une suite de variables al´eatoires ind´ependantes de loi uniforme sur [0, 1]. a mˆeme loi que Lemme 11.1.14. La variable al´eatoire (U(1,n) , . . . , U(n,n) ) `  Γ1 Γn . ,..., Γn+1 Γn+1

11.1 Statistique d’ordre, estimation des quantiles

315

D´emonstration. Soit g une fonction r´eelle mesurable born´ee d´efinie sur Rn . On a !   Γn Γ1 ,..., E g Γn+1 Γn+1  x1 = g n+1 )n+1 (R∗ +

i=1

xi

,...,

n

j=1 xj n+1 i=1 xi



e−

n+1 i=1

xi

dx1 . . . dxn+1 .

En consid´erant  les changements successifs de variables y1 = x1 , y2 = x1 + n+1 x2 , . . . , yn+1 = i=1 xi puis z1 = y1 /yn+1 , . . . , zn = yn /yn+1 , zn+1 = yn+1 , on obtient apr`es int´egration sur zn+1 , !   Γ1 Γn = n! E g ,..., Γn+1 Γn+1

1{0t} −→ ¯ t→∞ α F (t)

D´emonstration. On d´eduit de la d´efinition des fonctions a` variation lente et du F¯ (tx) th´eor`eme 11.4.9, que F ∈ D(Φα ), o` = u ξ = 1/α, si et seulement si lim ¯ t→∞ F (t) x−α pour tout x > 0. Supposons par simplicit´e que la loi de X poss`ede la densit´e f . Par int´egration par partie, on a pour t > 1 # " E (log X − log t)1{X>t} +∞

= t

" #+∞ (log x − log t)f (x)dx = −F¯ (x)(log x − log t) t +

+∞ t

F¯ (x) dx. x

En fait le membre de gauche est ´egal au membre de droite en toute g´en´eralit´e.

334

11 Lois de valeurs extrˆemes

Grˆ ace au lemme 11.5.2, on a F¯ (x) = x−α L(x) = o(x−α+ρ ), avec −α + ρ < +∞ ¯ F (x) dx. 0. Le membre de droite de l’´equation ci-dessus se r´eduit donc a` x t On a d’apr`es la deuxi`eme partie du lemme 11.5.2, +∞ t

F¯ (x) dx = x

∞ t

x−α−1 L(x) dx ∼

1 1 −α t L(t) = F¯ (t). α α

⊓ ⊔ " # Il nous faut maintenant trouver un estimateur de F¯ (t) = E 1{X>t} et " # un estimateur de E (log X − log t)1{X>t} . La loi forte des grands nombres n 1 assure que 1{Xi >t} converge p.s. vers F¯ (t). Il reste `a remplacer t par une n i=1 quantit´e qui tende vers +∞ avec n. Comme pour l’estimateur de Pickand, il est u la suite (k(n), n ≥ 1) satisfait les naturel de remplacer t par X(n−k(n)+1,n) , o` hypoth`eses suivantes : lim k(n) = +∞, et lim k(n)/n = 0. Cette derni`ere n→∞ n→∞ condition assure d’apr`es la proposition 11.1.10 et le th´eor`eme 11.4.9 que p.s. X(n−k(n)+1,n) diverge vers l’infini. Pour all´eger les notations, notons k = k(n). Si l’on suppose que F est continue, la statistique d’ordre est strictement croissante p.s., et on a pour estimation de F¯ (X(n−k+1,n) ) : On en d´eduit donc le lemme.

n

n

1 k−1 1 . 1{Xi >X(n−k+1,n) } = 1{X(i,n) >X(n−k+1,n) } = n i=1 n i=1 n n

1 La loi forte des grands nombres assure que (log Xi − log t) 1{Xi >t} n i=1 # " converge p.s. vers g(t) = E (log X − log t)1{X>t} . On remplace a` nouveau t par X(n−k+1,n) , et on obtient comme estimation de g(X(n−k+1,n) ) : n

 1  log Xi − log X(n−k+1,n) 1{Xi >X(n−k+1,n) } n i=1  n   1 = log X(i,n) − (k − 1) log X(n−k+1,n) . n i=n−k+2

On en d´eduit que 1 k−1

n 

i=n−k+2

log X(i,n) − log X(n−k+1,n)

est un bon candidat pour l’estimation de ξ. Il est d’usage de remplacer k−1 par k sauf dans le dernier terme, ce qui ne change rien au r´esultat asymptotique. Nous admettrons le th´eor`eme suivant, voir [6] th´eor`eme 6.4.6.

11.5 Estimation du param`etre de la loi de valeurs extrˆemes

335

Th´ eor` eme 11.5.4. Soit (Xn , n ≥ 1) une suite de variables al´eatoires ind´epenk(n) = 0, dantes de loi F ∈ D(H(ξ)), o` u ξ > 0. Si lim k(n) = ∞ et lim n→∞ n→∞ n alors l’estimateur de Hill d´efini par H ξ(k(n),n) =

1 k(n)

n 

i=n−k(n)+1

log X(i,n) − log X(n−k(n)+1,n) .

converge en probabilit´e vers ξ. k(n) = ∞, alors l’estimateur de n→∞ log log n Hill est fortement convergent : i.e on a la convergence presque sˆ ure. Sous certaines hypoth`eses suppl´ementaires sur la suite (k(n), n ≥ 1) et sur F , on asymptotiquement normal : la suite

peut montrer qu’il  est ´egalement  H k(n) ξ(k(n),n) − ξ , n ≥ 1 converge en loi vers une variable de loi gausSi l’on suppose de plus que lim

sienne centr´ee de variance ξ 2 . Cela permet donc de donner un intervalle de confiance pour l’estimation. Mais attention, tout comme l’estimateur de Pickand, l’estimateur de Hill est biais´e. H Pour un ´echantillon de taille n fix´e, on trace le diagramme de Hill : ξ(k,n) en fonction de k, voir les Figs. 11.7 et 11.8. On est alors confront´e au dilemme suivant : si k est petit, on a une estimation avec un intervalle de confiance large ; si k est grand, l’intervalle de confiance est plus ´etroit, mais il faut tenir compte d’un biais inconnu. 1.50

1.50 Loi de Cauchy

Loi de Cauchy

1.25

1.25 n = 40 000

n = 40 000

1.00

1.00

0.75

0.75

0.50

0

1.5

200

400

600

800

1 000

0.50

0

1.5

Loi de Pareto

2 000

4 000

6 000

8 000 10 000

Loi de fonction de repartition e pour x ⬎ e x log(x)

F(x) = 1 −

n = 4 000

1.0

1.0

0.5

0.5 n = 40 000

0.0

0

200

400

600

800

1 000

0.0

0

200

400

600

800

1 000

H Fig. 11.7. Estimateur de Hill : k → ξ(k,n) ` a n fix´e pour diff´erentes lois

336

11 Lois de valeurs extrˆemes 1.3

1.3 Loi de Cauchy

Loi de Cauchy

n = 50 000

n = 50 000

1.0

1.0

0.7

0.7 0 1.1

500

1 000

Loi de fonction de repartition e pour x ⬎ e F(x) = 1 − x log(x)

0

10 000

20 000

1.1

Loi de fonction de repartition e pour x ⬎ e x log(x)

F(x) = 1 − 0.9

0.9 0.7 n = 50 000 n = 50 000

0.7 0

500

1 000

0.5

0

10 000

20 000

H Fig. 11.8. Estimateur de Hill : k → ξ(k,n) ,` a n fix´e, pour diff´erentes lois et plusieurs r´ealisations

Il existe des variantes de l’estimateur de Hill qui estiment ξ pour tout ξ ∈ R, voir par exemple [6] p. 339 ou [1] p. 107.

11.6 Estimation des quantiles extrˆ emes On d´esire estimer zq le quantile d’ordre 1 − q quand q est petit. Si la fonction de r´epartition F est continue strictement croissante, cela revient `a r´esoudre l’´equation F (zq ) = 1−q. On suppose que F ∈ D(H(ξ)) pour un certain ξ ∈ R. Si q est fix´e, alors un estimateur de zq est le quantile empirique X(n−[qn],n) . Nous avons d´ej`a vu, au paragraphe 11.1, son comportement asymptotique : convergence p.s., normalit´e asymptotique, intervalle de confiance. Or notre probl´ematique correspond plutˆ ot a` l’estimation de zq quand on a peu d’obser1 vations, c’est-`a-dire pour q de l’ordre de . Donc on recherche un estimateur n de zqn lorsque qn n admet une limite c ∈]0, ∞[ quand n tend vers l’infini, et on est int´eress´e par son comportement asymptotique. On dit que l’estimation est `a l’int´erieur des donn´ees si c > 1, et que l’estimation est hors des donn´ees si c < 1. Soit Mn le maximum de n variables al´eatoires ind´ependantes de fonction de r´epartition F ∈ D(H(ξ)). Il existe donc une suite ((an , bn ), n ≥ 1), telle que pour n grand, n P(a−1 n (Mn − bn ) ≤ x) = F (xan + bn ) ≈ H(ξ)(x).

11.6 Estimation des quantiles extrˆemes

337

Nous utiliserons en fait l’approximation plus g´en´erale suivante : pour k fix´e et n grand, on a F (xan/k + bn/k )n/k ≈ H(ξ)(x). Ainsi, on a intuitivement qn = 1 − F (zqn )   zqn − bn/k k/n ≈ 1 − H(ξ) an/k 0    zqn − bn/k −1/ξ k 1+ξ = 1 − exp − n an/k   zq − bn/k −1/ξ k 1+ξ n . ≈ n an/k On en d´eduit donc que

zqn ≈

k nqn

ξ ξ

−1

an/k + bn/k ,

(11.8)

o` u qn n ≈ c. Les estimateurs de Pickand et de Hill que nous pr´esentons s’´ecrivent sous cette forme. Il reste donc `a donner des estimations pour les param`etres de normalisation an/k et bn/k . ` l’aide de l’estimateur de Pickand. 11.6.1 A   1 . De la proposition 11.4.1, on d´eduit que pour Remarquons que zqn = U qn ξ = 0 et s assez grand, on a, pour k ∈ {1, . . . , n − 1}, U (sx) =

xξ − 1 (U (s) − U (sy))(1 + o(1)) + U (s). 1 − yξ

(11.9)

1 et s grand, de sorte que qn l’on puisse n´egliger o(1), on d´esire retrouver une estimation de zqn de la forme (11.8). Pour cela, il nous faut fournir un estimateur de la fonction U . Il est naturel de choisir la fonction empirique Un , l’inverse g´en´eralis´e de la fonction n   1 u Fn (x) = 1{Xi ≤x} . de r´epartition empirique : Un (t) = Fn−1 1 − 1t o` n i=1   Comme p.s. Fn X(i,n) = ni pour tout i ∈ {1, . . . , n} et que Fn est constante sur [X(i,n) , X(i+1,n) [, on a, pour k ∈ {1, . . . , n − 1},  

n n−k −1 = Fn = X(n−k,n) . Un k n En faisant un choix pour s, x et y tels que sx =

338

11 Lois de valeurs extrˆemes

Le th´eor`eme C.3 assure que (Fn , n ≥ 1) converge p.s. vers F pour la norme de la convergence uniforme. Cela implique que Un (x) converge p.s. vers U (x) pour presque tout x. 1 k−1 k n ,x = = ≈ et y = 1/2, o` u k est Choisissons alors s = k−1 sqn nqn nqn

 n = fix´ e, c’est-`a-dire k ne d´epend pas de n. En rempla¸cant U (s) par Un k−1

 

n n ≈ Un 2k−1 = X(n−2k+1,n) , on obtient X(n−k+1,n) et U (sy) par Un 2k−2 a partir de (11.9) qu’un candidat pour estimer zqn = U (sx) est : `

P zk,q = n

k nqn

ξ P

1−

−1

2−ξP

 X(n−k+1,n) − X(n−2k+1,n) + X(n−k+1,n) ,

k nqn

(11.10) ξ P

−1 o` u ξ P est l’estimateur de Pickand de ξ. Il faut bien sˆ ur remplacer 1 − 2−ξP 

k log nqn si ξ P = 0. On retrouve (11.8) avec bn/k = X(n−k+1,n) et par log(2)   P an/k = 1−2ξ −ξP X(n−k+1,n) − X(n−2k+1,n) . Nous admettrons le r´esultat suivant, voir [5], o` u deux coquilles se sont gliss´ees dans la description de la loi de Qk et Hk . Th´ eor` eme 11.6.1. Soit (Xn , n ≥ 1) une suite de variables al´eatoires ind´ependantes de fonction de r´epartition F ∈ D(H(ξ)), ξ ∈ R. Supposons que P l’estimateur d´efini par (11.10). Pour limn→∞ nqn = c ∈]0, ∞[. Soit zk,q n k > c, fix´ e, on a la convergence en loi de la suite   X(n−k+1,n) − zqn ,n ≥ 1 X(n−k+1,n) − X(n−2k+1,n)

ξ 1 − Qck , o` u Qk et Hk sont ind´ependants, la loi de Qk est la loi vers 1 + ξH e k −1 2k−1 gamma de param`etre (1, 2k) et Hk a mˆeme loi que i=k Ei /i, les variables Ei ´etant ind´ependantes de loi exponentielle de param`etre 1. Le th´eor`eme ci-dessus permet de donner un intervalle al´eatoire de la forme

  a− X(n−k+1,n) − X(n−2k+1,n) + X(n−k+1,n) ,   a+ X(n−k+1,n) − X(n−2k+1,n) + X(n−k+1,n) ,

o` u a− et a+ sont des quantiles de la loi de 1 +

avec une probabilit´e asymptotique fix´ee.

1−

Qk c



eξHk −1

, qui contient zqn

11.6 Estimation des quantiles extrˆemes

339

Les exercices suivants permettent d’´etudier directement la loi asymptoX(n−k+1,n) − zqn dans le cas ´el´ementaire o` u k = 1, qn = c/n. tique de X(n−k+1,n) − X(n−2k+1,n)

Exercice 11.6.2. Soit (Xn , n ≥ 1) une suite de variables al´eatoires ind´ependantes de loi exponentielle de param`etre λ > 0. On pose qn = c/n. On suppose que λ est inconnu. 1. V´erifier que zqn = log(n/c)/λ. 2. Montrer en utilisant la densit´e de la statistique d’ordre que X(n−1,n) et X(n,n) − X(n−1,n) sont ind´ependants. 3. V´erifier que λ(X(n,n) − X(n−1,n) ) suit une loi exponentielle de param`etre 1. 4. Montrer, en utilisant (11.3), que (λX(n−1,n) − log(n), n ≥ 2) converge en ˜ de fonction de r´epartition e− e−x (1+e−x ). loi vers une variable al´eatoire, G, 5. Soit (Tn , n ≥ 1) et (Un , n ≥ 1) deux suites de variables al´eatoires qui convergent en loi vers T et U , telles que Tn et Un sont ind´ependantes pour tout n ≥ 1. Montrer, en utilisant les fonctions caract´eristiques par exemple, que la suite ((Tn , Un ), n ≥ 1) converge en loi vers (T, U ). 1

˜ + log(c) , Y +G 6. Montrer que (X(n,n) − zqn , n ≥ 2) converge en loi vers λ o` u Y est une variable al´eatoire de loi exponentielle de param`etre 1 ˜ ind´ependante de G. 

X (n,n) − zqn , n ≥ 2 converge en loi et que la limite 7. V´erifier que X(n,n) − X(n−1,n) ne d´epend pas de λ. V´erifier que la loi limite correspond a` celle donn´ee dans le th´eor`eme 11.6.1. 8. En d´eduire un intervalle al´eatoire qui contient zqn avec une probabilit´e asymptotique fix´ee. V´erifier que la largeur de cet intervalle al´eatoire ne tend pas vers 0 quand n tend vers l’infini.  Exercice 11.6.3. Soit (Xn , n ≥ 1) une suite de variables al´eatoires ind´ependantes de loi uniforme sur [0, θ], avec θ > 0. On pose qn = c/n. On suppose que θ est inconnu. 1. V´erifier que zqn = θ(1 − nc ). 2. Montrer en utilisant la densit´e de la statistique d’ordre que X(n,n) et X(n−1,n) /X(n,n) sont ind´ependants. 

X ), n ≥ 2 converge en loi vers une variable 3. Montrer que n(1 − (n,n) θ al´eatoire V1 de loi exponentielle de param`etre 1.

 4. En d´eduire que n(X(n,n) − zqn ), n ≥ 2 converge en loi vers θ(c − V1 ).

 X 5. V´erifier que n(1 − X(n−1,n) ), n ≥ 2 converge en loi vers V2 de loi expo(n,n) nentielle de param`etre 1.

340

11 Lois de valeurs extrˆemes

6. Soit (Tn , n ≥ 1) et (Un , n ≥ 1) deux suites de variables al´eatoires qui convergent en loi vers T et U , telles que Tn et Un sont ind´ependantes pour tout n ≥ 1. Montrer, en utilisant les fonctions caract´eristiques par exemple, que la suite ((Tn , Un ), n ≥ 1) converge en loi vers (T, U ). 

X c − V1 (n,n) − zqn , n ≥ 2 converge en loi vers , 7. En d´eduire que X(n,n) − X(n−1,n) V2 o` u V1 et V2 sont ind´ependantes de loi exponentielle de param`etre 1. 8. Montrer que si Y1 et Y2 sont deux variables al´eatoires ind´ependantes de loi exponentielle de param`etre 1, alors Y1 +Y2 suit la loi gamma de param`etre Y1 (1, 2), suit la loi uniforme sur [0, 1] et ces deux variables al´eatoires Y1 + Y2 sont ind´ependantes. 9. Soit Q1 de loi gamma de param`etre (1, 2) et H1 de loi exponentielle de param`etre 1. D´eterminer la loi de e−H1 . D´eduire de la question pr´ec´edente que (Q1 , e−H1 ) a mˆeme loi que (Y1 + Y2 , Y1 /(Y1 + Y2 )), puis que (Q1 e−H1 , Q1 (1 − e−H1 )) a mˆeme loi que (Y1 , Y2 ). 1 − Qc c − V1 10. V´erifier que la loi de correspond a` celle 1 + −H1 1 avec les V2 e −1 notations du th´eor`eme 11.6.1. 11. En d´eduire un intervalle al´eatoire qui contient zqn avec probabilit´e asymptotique fix´ee. V´erifier que la largeur de cet intervalle al´eatoire est d’ordre 1/n quand n tend vers l’infini.  ` l’aide de l’estimateur de Hill 11.6.2 A On suppose que ξ > 0. L’estimateur du quantile associ´e `a l’estimateur de Hill est donn´e par ξ H  k H zk,q = (11.11) X(n−k+1,n) , n nqn o` u ξ H est l’estimateur de Hill de ξ. On retrouve la forme donn´ee par (11.8) avec bn/k = an/k /ξ H = X(n−k+1,n) . Nous renvoyons a` [1] paragraphe 4.6 et [6] page 348 pour les propri´et´es de cet estimateur et les r´ef´erences correspondantes.

11.7 Conclusion Le paragraphe pr´ec´edent a permis de r´epondre a` la premi`ere question pos´ee : Trouver une estimation de zq telle que la probabilit´e que la surcote de la mar´ee durant une tempˆete soit plus haute que zq est q. On peut utiliser l’estimateur de Pickand ou l’estimateur de Hill et fournir un intervalle de confiance.

R´ef´erences

341

Rappelons la deuxi`eme question : Soit q fix´e, typiquement de l’ordre de 10−3 ou 10−4 , trouver yq tel que la probabilit´e pour que la plus grande surcote annuelle soit sup´erieure `a yq est q. Pour cela il faut estimer le nombre moyen de tempˆetes par an, disons k0 . La probabilit´e pour que parmi k0 tempˆetes, il y ait une surcote sup´erieure `a h est 1 − F (h)k0 . On en d´eduit donc que yq est solution de F (yq )k0 = 1 − q. On trouve yq = zq′ o` u q ′ = 1 − (1 − q)1/k0 . On peut utiliser l’estimateur de Pickand ou l’estimateur de Hill et fournir un intervalle de confiance pour la r´eponse. Pour l’exemple pr´ecis concernant les Pays-Bas, Haan [4] observe que le param`etre de forme est tr`es l´eg`erement n´egatif, et il choisit de l’estimer a` 0, car cela permet d’avoir des r´esultats plus conservateurs, dans le sens o` u les probabilit´es que la mar´ee d´epasse un niveau donn´e sont major´ees. Il semble que de mani`ere g´en´erale, les ph´enom`enes observ´es dans les domaines de la finance et de l’assurance correspondent `a des param`etres ξ positifs. En revanche les ph´enom`enes m´et´eorologiques correspondent plutˆ ot a` des param`etres ξ n´egatifs. Soulignons en guise de conclusion que pour l’estimation des quantiles, il est vivement recommand´e d’utiliser plusieurs m´ethodes. Ainsi dans l’article [4], pas moins de huit m´ethodes diff´erentes sont utilis´ees pour fournir une r´eponse et la commenter.

R´ ef´ erences 1. J. Beirlant, Y. Goegebeur, J. Teugels et J. Segers. Statistics of extremes. Wiley Series in Probability and Statistics. John Wiley & Sons Ltd., Chichester, 2004. 2. N. Bingham, C. Goldie et J. Teugels. Regular variation. Cambridge University Press, Cambridge, 1987. 3. S. Coles. An introduction to statistical modeling of extreme values. Springer Series in Statistics. Springer-Verlag London Ltd., London, 2001. 4. L. de Haan. Fighting the arch-enemy with mathematics. Stat. Neerl., 44(No.2) : 45–68, 1990. 5. A.L.M. Dekkers et L. de Haan. On the estimation of the extreme-value index and large quantile estimation. Ann. Statist., 17(4) : 1795–1832, 1989. 6. P. Embrechts, C. Klueppelberg et T. Mikosch. Modelling extremal events for insurance and finance, volume 33 d’Applications of Mathematics. Springer, Berlin, 1997. 7. M. Falk, J. H¨ usler et R.-D. Reiss. Laws of small numbers : extremes and rare events, volume 23 de DMV Seminar. Birkh¨ auser Verlag, Basel, 1994. 8. M.E.J. Newman. Power laws, Pareto distributions and Zipf’s law. Contemporary Physics, 46 : 323–351, 2005. 9. S. Resnick. Extreme values, regular variation, and point processes. Applied Probability. Springer-Verlag, New York, 1987.

12 Processus de coagulation et fragmentation

Les ph´enom`enes de coagulation et de fragmentation interviennent de fa¸con tr`es naturelle dans la mod´elisation 1. de la polym´erisation [13] : des polym`eres de taille n ∈ N∗ compos´es de n monom`eres identiques sont pr´esents dans une solution homog`ene ; un polym`ere de taille n peut se lier avec un polym`ere de taille k pour former un polym`ere de taille n + k ou bien se fragmenter pour donner naissance a deux polym`eres de tailles respectives j et n − j o` ` u 1 ≤ j ≤ n − 1, 2. des a´erosols [10, 19, 9] : des particules solides ou liquides (fum´ee, brouillard, polluants, flocons de neige,...) pr´esentes en suspension dans un gaz peuvent s’agr´eger ou bien se fragmenter, 3. de la formation des structures a` grande ´echelle de l’univers [21], de la formation des amas protostellaires dans les galaxies [20, 11], de la formation des plan`etes dans les syst`emes solaires [24] en astronomie, 4. en phylog´enie [23] : nous verrons que le mod`ele pr´esent´e dans le paragraphe 7.2 pour d´ecrire les ancˆetres communs d’une population de n individus est un processus de coagulation. Dans ce chapitre, pour des raisons de simplicit´e, nous nous int´eressons uniquement au cas discret o` u la taille des objets mod´elis´es prend ses valeurs dans N∗ et nous garderons a` l’esprit l’interpr´etation des ´equations de coagulation et fragmentation en termes de polym´erisation. Mais ces ´equations poss`edent une version continue plus g´en´erale o` u la taille des objets mod´elis´es est un r´eel positif. Cette version intervient par exemple dans la mod´elisation des a´erosols en pollution atmosph´erique [9]. Nous commencerons par ´etudier dans le premier paragraphe le syst`eme infini d’´equations diff´erentielles ordinaires introduit par Smoluchowski au d´ebut du vingti`eme si`ecle [22] pour d´ecrire des ph´enom`enes de coagulation discrets. Puis, dans le second paragraphe, nous verrons comment modifier ces ´equations pour prendre en compte le ph´enom`ene de fragmentation. Dans le troisi`eme paragraphe, nous pr´esenterons le processus de MarcusLushnikov qui a ´et´e introduit vers 1970 dans [17] et [16]. Ce processus est

344

12 Processus de coagulation et fragmentation

une chaˆıne de Markov a` temps continu dont les transitions sont la traduction des ph´enom`enes physiques de coagulation et de fragmentation. Nous verrons comment obtenir les ´equations de coagulation et de fragmentation discr`etes `a partir de ce processus lorsque le nombre N de polym`eres initialement pr´esents tend vers +∞. Puis nous introduirons un algorithme probabiliste d´evelopp´e au d´ebut des ann´ees 2000 et qui permet d’approcher la solution des ´equations de coagulation et de fragmentation discr`etes plus efficacement que la simulation du processus de Marcus-Lushnikov. Cet algorithme qui porte le nom d’algorithme de transfert de masse consiste `a simuler une autre chaˆıne de Markov a` temps continu dont les transitions pr´eservent les nombres de polym`eres pr´esents alors qu’un polym`ere disparaˆıt lors d’une coagulation physique et un polym`ere apparaˆıt lors d’une fragmentation physique. Le lecteur int´eress´e par une synth`ese sur les mod`eles d´eterministes de coagulation et leurs pendants probabilistes pourra se r´ef´erer `a [1].

´ 12.1 Equations de coagulation discr` etes Les ´equations de coagulation de Smoluchowski d´ecrivent l’´evolution au cours du temps des concentrations cn (t) de polym`eres de taille n ∈ N∗ dans une solution homog`ene lorsque pour j, k ∈ N∗ , la constante de la r´eaction de coagulation qui a` partir de deux polym`eres de taille j et k donne naissance `a un polym`ere de taille j + k est not´ee Kj,k : ∀n ∈ N∗ , c˙n (t) =

n−1  1 Kn−k,k cn−k (t)ck (t) − cn (t) Kn,k ck (t), 2 ∗ k=1

(12.1)

k∈N

o` u pour toute fonction f d´ependant du temps t, on note f˙ la d´eriv´ee de f par rapport a` t. Le premier terme du second membre correspond `a la formation de polym`eres de taille n par coagulation de deux polym`eres de tailles n − k et k o` u 1 ≤ k ≤ n − 1. Le second terme traduit la disparition des polym`eres de taille n qui coagulent. Le noyau de coagulation K est suppos´e sym´etrique : ∀j, k ∈ N∗ , Kj,k = Kk,j . Apr`es avoir pr´esent´e quelques propri´et´es g´en´erales des solutions de (12.1), nous obtiendrons des solutions explicites de ces ´equations pour des noyaux de coagulation sp´ecifiques. 12.1.1 D´ efinition et propri´ et´ es des solutions D´ efinition 12.1.1. On appelle solution de l’´equation (12.1) sur [0, T [ o` u 0 < T ≤ +∞ une famille (cn (t), t ∈ [0, T [, n ∈ N∗ ) telle que pour tout n ∈ N∗ , 1. s → cn (s) est une fonction continue de [0, T [ dans R+ et pour tout t ∈ t [0, T [, 0 k∈N∗ Kn,k ck (s)ds < +∞,

´ 12.1 Equations de coagulation discr`etes

345

2. l’´equation (12.1) est v´erifi´ee sous forme int´egr´ee en temps : pour tout t dans [0, T [, t

cn (t) = cn (0) + 0

 n−1   1 Kn−k,k cn−k (s)ck (s) − cn (s) Kn,k ck (s) ds. 2 ∗ k=1

k∈N

(12.2)

Notons que la condition 1 assure que d’une part, pour t ∈ [0, T [, la foncn−1 tion s → k=1 Kn−k,k cn−k (s)ck (s) est continue donc born´ee sur [0, t] et d’autre part que cn (s) k∈N∗ Kn,k ck (s) est int´egrable sur [0, t] comme produit  de la fonction continue donc born´ee cn (s) et de la fonction int´egrable egrale dans (12.2) est bien d´efinie. k∈N∗ Kn,k cn (s). Donc l’int´

Remarque 12.1.2. Soit (cn (t), t ∈ [0, T [, n ∈ N∗ ) une solution de l’´equation de coagulation (12.1) et α, β deux constantes positives. Pour t < T /(αβ) et n ∈ N∗ , αβt

αcn (αβt) = αcn (0) + α 0

 n−1 1 Kn−k,k cn−k (s)ck (s) 2 k=1   Kn,k ck (s) ds − cn (s) k∈N∗

t

= αcn (0) + 0

 n−1 1 βKn−k,k αcn−k (αβr)αck (αβr) 2 k=1   βKn,k αck (αβr) ds. − αcn (αβr) k∈N∗

 αβt  t Par ailleurs 0 k∈N∗ βKn,k αck (αβr)dr = 0 k∈N∗ Kn,k ck (s)ds < +∞. Donc (αcn (αβt), t ∈ [0, T /(αβ)[, n ∈ N∗ ) est solution de (12.1) pour le noyau ♦ de coagulation βKj,k . Si (cn (t), t ≥ 0, n ∈ N∗ ) est solution de (12.1), pour l ∈ N et t ≥ 0, on note  ml (t) = nl cn (t) ∈ [0, +∞] n∈N∗

le moment d’ordre l associ´e `a cette solution `a l’instant t. On pose ´egalement µl = ml (0) =



nl cn (0).

n∈N∗

Comme le nombre de monom`eres qui constituent les polym`eres qui r´eagissent et donc la masse sont conserv´es lors de chaque coagulation, on s’attend a` ce que la concentration massique totale m1 (t) = n∈N∗ ncn (t) soit une fonction

346

12 Processus de coagulation et fragmentation

constante de t. Si on somme sur n ∈ N∗ l’´equation (12.1) multipli´ee par n et on ´echange formellement somme et d´eriv´ee au premier membre et sommes entre elles au second membre, on obtient que m ˙ 1 (t) est ´egal `a    1 (k + (n − k))Kn−k,k cn−k (t)ck (t) − ncn (t)Kn,k ck (t) 2 ∗ ∗ k∈N n≥k+1

=

 1 

2

n,k∈N

k∈N∗

+



kck (t)



ck (t)

k∈N∗

=

1 2





k∈N∗



n≥k+1

kck (t)

k∈N∗

+

Kn−k,k cn−k (t)

n≥k+1



  Kn−k,k (n − k)cn−k (t) − ncn (t)Kn,k ck (t) n,k∈N∗

Kj,k cj (t)

j∈N∗

ck (t)



j∈N∗

  Kj,k jcj (t) − ncn (t)Kn,k ck (t) n,k∈N∗

=0 car par sym´etrie, ∀k, j ∈ N∗ , Kj,k = Kk,j . Pour des questions d’int´egrabilit´e, les ´echanges effectu´es formellement pour obtenir la nullit´e de m ˙ 1 (t) ne sont pas toujours licites. On peut tout de mˆeme montrer la d´ecroissance de la concentration massique totale m1 (t) de toute solution de (12.1) ainsi que celle de la concentration totale de polym`eres m0 (t). Cette derni`ere se justifie intuitivement de la fa¸con suivante : lors de chaque coagulation deux polym`eres disparaissent pour former un seul polym`ere. Lemme 12.1.3. Si (cn (t), t ∈ [0, T [, n ∈ N∗ ) est solution de (12.1), alors m0 (t) et m1 (t) sont des fonctions d´ecroissantes de t. D´emonstration. Soit 0 ≤ τ ≤ t < T . D’apr`es (12.2), on a  n−1  t  1 Kn,k ck (s) ds. Kn−k,k cn−k (s)ck (s) − cn (s) cn (t) = cn (τ ) + 2 τ ∗ k∈N

k=1

On multiplie cette ´egalit´e par n et on somme le r´esultat pour n ∈ {1, . . . , N } pour obtenir n−1 N N N t     1 Kn−k,k cn−k (s)ck (s) n ncn (τ ) + ncn (t) = 2 n=1 τ n=1 n=1 k=1



N 

n=1

ncn (s)



k∈N∗

 Kn,k ck (s) ds.

(12.3)

´ 12.1 Equations de coagulation discr`etes

347

En ´echangeant les sommes puis en posant j = n − k et en utilisant la sym´etrie du noyau de coagulation, on obtient que N 

n=1

n

n−1 

Kn−k,k cn−k (s)ck (s) =

N 

n=1

k=1

=

N −1 

ck (s)

N −1 

jcj (s)

j=1

=2

N −k 

n−1 

jKj,k cj (s) +

N −j 

n=1

ncn (s)

N −1 

kck (s)

Kj,k cj (s) +

N −n 

N −1  k=1

N −k 

Kj,k cj (s)

j=1

k=1

k=1

N −1 

Kn−k,k cn−k (s)ck (s)

k=1

j=1

k=1

=

((n − k) + k)

kck (s)

N −k 

Kk,j cj (s)

j=1

Kn,k ck (s).

k=1

En reportant cette ´egalit´e dans (12.3), on conclut que N 

ncn (t) =

N 

n=1

n=1

ncn (τ ) −

N t

τ n=1

ncn (s)



Kn,k ck (s)ds.

(12.4)

k≥N −n+1

N N En particulier, n=1 ncn (t) ≤ n=1 ncn (τ ). En prenant la limite N → +∞, on conclut que m1 (t) ≤ m1 (τ ). Pour montrer la d´ecroissance de la concentration totale de polym`eres, on passe N N a la limite N → +∞ dans l’in´egalit´e n=1 cn (t) ≤ n=1 cn (τ ) qui s’obtient ` N N en remarquant que la diff´erence n=1 cn (t) − n=1 cn (τ ) est ´egale `a −

N t

τ n=1

cn (s)

 1

k∈N

2

 1{k≤N −n} + 1{k≥N −n+1} Kn,k ck (s)ds.

⊓ ⊔ La concentration massique totale m1 (t) peut d´ecroˆıtre strictement : par exemple la solution explicite (12.25) que l’on obtiendra dans le cas du noyau de coagulation multiplicatif Kj,k = jk pour la condition initiale cn (0) = 1{n=1} est telle que m1 (t) = min(1, 1/t). Intuitivement, cela correspond a` la formation d’un polym`ere de taille infinie appel´e gel auquel une partie de la masse initialement pr´esente est transf´er´ee. Ce ph´enom`ene de transition de phase est appel´e g´elification. La possibilit´e que la concentration massique totale ne soit pas pr´eserv´ee conduit a` s’int´eresser aux solutions de concentration massique totale constante. D´ efinition 12.1.4. On dit que (cn (t), t ∈ [0, T [, n ∈ N∗ ) est une solution de (12.1) de masse constante sur [0, T [ si 1. (cn (t), t ∈ [0, T [, n ∈ N∗ ) est solution au sens de la d´efinition 12.1.1,  2. µ1 = n∈N∗ ncn (0) < +∞ et ∀t ∈ [0, T [, m1 (t) = µ1 .

348

12 Processus de coagulation et fragmentation

Avant d’expliciter des solutions particuli`eres de (12.1), nous ´enon¸cons un r´esultat d’existence et d’unicit´e que nous ne d´emontrerons pas (voir [3, 18]) : Th´ eor` eme 12.1.5. S’il existe une constante κ > 0 telle que ∀j, k ∈ N∗ , Kj,k ≤ κ(j + k)

(12.5) 

et si la condition initiale (cn (0), n ∈ N∗ ) v´erifie µ1 = n∈N∗ ncn (0) < +∞, alors l’´equation (12.1) admet une solution √ de masse constante sur∗ [0, ∞[. ≤ κ jk pour tous j, k dans N soit µ2 = Si on suppose en outre soit K j,k  2 n c (0) < +∞ alors il y a unicit´ e des solutions (non n´ecessairement n n∈N∗ de masse constante) pour l’´equation (12.1).  Remarque 12.1.6. Notons qu’avec l’hypoth`ese (12.5), k∈N∗ Kn,k ck (0) ≤ κ(nµ0 + µ1 ). Il est donc naturel de supposer µ1 < +∞ en vue d’assurer la condition d’int´egrabilit´e du point 1 de la d´efinition 12.1.1. ♦ 12.1.2 Solutions explicites pour les noyaux constant, additif et multiplicatif Dans ce paragraphe inspir´e de [8], nous allons donner la solution de (12.1) dans le cas cn (0) = 1{n=1} pour les noyaux de coagulation constant Kj,k = 1, additif Kj,k = j + k et multiplicatif Kj,k = jk. La remarque 12.1.2 permet d’en d´eduire la solution lorsque cn (0) = c1{n=1} et Kj,k = κ, Kj,k = κ(j + k) ou Kj,k = κjk pour toutes constantes c, κ > 0. Noyau constant : Kj,k = 1 Dans ce cas, (12.1) se r´ecrit ∀n ∈ N∗ , cn (t) = cn (0) +

1 2

t n−1 

0 k=1

t

cn−k (s)ck (s)ds −

m0 (s)cn (s)ds. 0

(12.6)

Ainsi, pour n ∈ N∗ , l’´equation donnant l’´evolution de cn (t) ne fait intervenir les concentrations de polym`eres de taille sup´erieure `a n qu’au travers de m0 (.). En commen¸cant par d´eterminer la fonction m0 (.), nous allons d´emontrer l’existence d’une unique solution pour l’´equation (12.1) avec noyau de coagulation constant sous l’hypoth`ese que la concentration totale initiale µ0 est finie. Cette hypoth`ese est moins restrictive que celle faite dans le th´eor`eme 12.1.5. Proposition 12.1.7. Soit (cn (0), n ∈ N∗ ) une condition initiale telle que  µ0 = n∈N∗ cn (0) est fini. Alors l’´equation (12.1) admet une unique solution (cn (t), t ≥ 0, n ∈ N∗ ) pour le noyau constant Kj,k = 1. La concentration massique totale de cette solution est m0 (t) = 2µ0 /(2 + µ0 t). Enfin, ∀n ∈ N∗ , ∀t ≥ 0, cn (t) = cn (0) +

1 2

t n−1 

0 k=1

t

cn−k (s)ck (s)ds −

0

2µ0 cn (s)ds. 2 + µ0 s (12.7)

´ 12.1 Equations de coagulation discr`etes

349

D´emonstration. Soit (cn (t), t ≥ 0, n ∈ N∗ ) une solution de (12.1) pour le noyau de coagulation constant Kj,k = 1. Nous allons commencer par v´erifier que m0 (t) est ´egal `a 2µ0 /(2 + µ0 t) pour en d´eduire que (cn (t), t ≥ 0, n ∈ N∗ ) est solution de (12.7). Puis nous observerons que le syst`eme d’´equations (12.7) se r´esout par r´ecurrence sur n. Il admet une unique solution (˜ cn (t), t ≥ 0, n ∈ derni` ere ´etape, nous N∗ ), ce qui assure l’unicit´e pour (12.1). Enfin, dans une  ˜n (t) associ´ee `a d´emontrerons que la concentration totale m ˜ 0 (t) = n∈N∗ c cn (t), t ≥ 0, n ∈ N∗ ) cette solution est ´egale `a 2µ0 /(2 + µ0 t) ce qui assure que (˜ est solution de (12.6) et donc de (12.1). Par le th´eor`eme de Fubini, puis en posant j = n − k, on obtient 

n∈N∗

t n−1 

t



cn−k (s)ck (s)ds =

0 k=1

0 k∈N∗ t



= t 0

cn−k (s)ds

n≥k+1

ck (s)

0 k∈N∗

=



ck (s)



cj (s)ds

j∈N∗

m20 (s)ds.

Cette quantit´e est finie puisque d’apr`es le lemme 12.1.3, s → m0 (s) est d´ecroissante et que par hypoth`ese µ0 < +∞. De mˆeme, 

n∈N∗

t

t

m0 (s)cn (s)ds = 0

m0 (s) 0



t

cn (s)ds = 0

n∈N∗

m20 (s)ds < +∞.

Ainsi en sommant (12.6) sur n ∈ N∗ , on obtient m0 (t) = µ0 −

1 2

t 0

m20 (s)ds.

Donc m ˙ 0 (t) = − 21 m20 (t) et en r´esolvant cette ´equation diff´erentielle avec la condition initiale µ0 , on conclut que m0 (t) = 2µ0 /(2 + µ0 t). En reportant cette valeur dans (12.6), on obtient (12.7). D’apr`es la proposition E.1, (˜ cn (t), t ≥ 0, n ∈ N∗ ) est solution de (12.7) si et seulement si pour tout n ∈ N∗ et tout t ≥ 0,   t 2µ0 dr c˜n (t) = cn (0) exp − 0 2 + µ0 r   t t n−1  1 2µ0 dr ds + c˜n−k (s)˜ ck (s) exp − 2 0 s 2 + µ0 r k=1   n−1 1 1 t = 4cn (0) + c˜n−k (s)˜ ck (s)(2 + µ0 s)2 ds . (12.8) (2 + µ0 t)2 2 0 k=1

Comme le second membre ne d´epend que des concentrations de polym`eres de taille inf´erieure ou ´egale `a n − 1, en raisonnant par r´ecurrence sur n ∈ N∗ , on

350

12 Processus de coagulation et fragmentation

v´erifie que le syst`eme (12.7) admet une unique solution (˜ cn (t), t ≥ 0, n ∈ N∗ ) ∗ ument d´erivable sur et que pour tout n ∈ N , la fonction t → c˜n (t) est continˆ R+ et `a valeurs dans R+ .  Il reste `a v´erifier que la concentration totale associ´ee m ˜ 0 (t) = n∈N∗ c˜n (t) est cn (t), t ≥ 0, n ∈ N∗ ) est solution donn´ee par 2µ0 /(2 + µ0 t) pour conclure que (˜ de (12.6). Commen¸cons par v´erifier par r´ecurrence sur N , que pour tout N ∈ N∗ , ∀t ≥ 0,

N 

n=1

2µ0 . 2 + µ0 t

c˜n (t) ≤

(12.9)

D’apr`es (12.8), pour tout t ≥ 0, c˜1 (t) = 4c1 (0)/(2 + µ0 t)2 . Comme 4/(2 + µ0 t)2 ≤ 2/(2 + µ0 t) et que c1 (0) ≤ µ0 , l’hypoth`ese de r´ecurrence (12.9) est satisfaite pour N = 1. Supposons maintenant que l’hypoth`ese de r´ecurrence (12.9) est satisfaite jusqu’au rang N ≥ 1. En sommant (12.8) sur n ∈ {1, . . . , N + 1} et en multipliant le r´esultat par (2 + µ0 t)2 , il vient (2 + µ0 t)2

N +1 

c˜n (t) = 4

N +1 

cn (0) +

n=1

n=1

t

1 2

(2 + µ0 s)2 0

N +1 n−1  

c˜n−k (s)˜ ck (s)ds.

n=1 k=1

Comme N +1 n−1  

c˜n−k (s)˜ ck (s) =

n=1 k=1

N 

c˜k (s)

k=1

N +1−k j=1

c˜j (s) ≤

 N

k=1

2 c˜k (s) ,

l’hypoth`ese de r´ecurrence (12.9) assure que (2 + µ0 t)2

N +1  n=1

c˜n (t) ≤ 4µ0 +

1 2

t 0

4µ20 ds = 2µ0 (2 + µ0 t).

En divisant les deux membres par (2 + µ0 t)2 , on obtient l’hypoth`ese de r´ecurrence au rang N + 1. Ainsi (12.9) est v´erifi´e pour tout N ∈ N∗ . En passant a` la limite N → +∞ dans l’in´egalit´e, on en d´eduit que pour t ≥ 0, m ˜ 0 (t) ≤ 2µ0 /(2 + µ0 t). Il reste `a d´emontrer l’in´egalit´e inverse pour achever la d´emonstration. En sommant (12.7) sur n ∈ N∗ et en utilisant la majoration pr´ec´edente pour justifier les ´echanges entre sommes et int´egrales, on obtient   t 2µ0 m ˜ 0 (s) − ds m ˜ 0 (t) = µ0 + m ˜ 0 (s) 2 2 + µ0 s 0 2   t 2µ0 ˜ 0 (s) (2 + µ0 s)m ˜ 0 (s) (2 + µ0 s)m = µ0 + − 1 ds. 2 + µ0 s 2µ0 4µ0 0

´ 12.1 Equations de coagulation discr`etes

351

Comme pour tout s ≥ 0, (2 + µ0 s)m ˜ 0 (s)/2µ0 est dans l’intervalle [0, 1] et que le minimum de la fonction x → x(x/2 − 1) sur cet intervalle, atteint pour x = 1, vaut −1/2, on en d´eduit que m ˜ 0 (t) ≥ µ0 −

1 2

t 0



2µ0 2 + µ0 s

2

ds = µ0 +



2µ0 2 + µ0 s

!t

0

=

2µ0 . 2 + µ0 t ⊓ ⊔

On suppose que µ0 ∈]0, +∞[. Pour t ≥ 0 et n ∈  N∗ , on pose pn (t) = pn (t) = 1 i.e. cn (t)/m0 (t) = (2 + µ0 t)cn (t)/2µ0 de telle sorte que n∈N∗  (pn (t), n ∈ N∗ ) est une probabilit´e sur N∗ . On note F (t, s) = n∈N∗ sn pn (t) o` u s ∈ [0, 1] la fonction g´en´eratrice associ´ee. En d´eduisant de (12.7) l’´evolution de F (t, s) nous allons identifier (cn (t), t ≥ 0, n ∈ N∗ ). Proposition 12.1.8. On suppose que µ0 ∈]0, +∞[. Alors la solution de (12.1) pour le noyau constant Kj,k = 1 est donn´ee par (2µ0 pn (t)/(2 + µ0 t), t ≥ 0, n ∈ Nt eatoires u (pn (t), n ∈ N∗ ) est la loi de N∗ ), o` i=1 Xi avec les variables al´ (Xi , i ∈ N∗ ) ind´ependantes et identiquement distribu´ees suivant la probabilit´e (cn (0)/µ0 , n ∈ N∗ ) et Nt une variable al´eatoire ind´ependante de loi g´eom´etrique de param`etre 2/(2 + µ0 t).  L’objectif de l’exercice suivant est de v´erifier que si µ1 = n∈N∗ ncn (0) est fini, alors la solution que nous venons d’exhiber est de masse constante. Exercice 12.1.9. Dans le cas o` u µ1 < +∞, v´erifier que les variables Xi sont Nt int´egrables puis que E ecomposer sur X i=1 i = E[Nt ]E[X1 ] (on pourra d´ les valeurs prises par Nt ). En d´eduire que la solution de (12.1) pour le noyau  Kj,k = 1 est de masse constante. D´emonstration. D’apr`es (12.7), cn (t) 2 + µ0 t + p˙n (t) = 2 2µ0 µ0 = 2 + µ0 t

n−1  k=1



 n−1 2µ0 1 cn (t) cn−k (t)ck (t) − 2 2 + µ0 t k=1



pn−k (t)pk (t) − pn (t) .

Soit s ∈ [0, 1]. En int´egrant cette ´equation en temps et en multipliant le r´esultat par sn , on obtient n−1  t  µ0 n−k k n n n s pn−k (r)s pk (r) − s pn (r) dr. s pn (t) = s pn (0) + 0 2 + µ0 r k=1 (12.10)

352

12 Processus de coagulation et fragmentation

D’apr`es le th´eor`eme de Fubini, n−1   t µ0  sn−k pn−k (r)sk pk (r) + sn pn (r) dr 2 + µ0 r 0 ∗ n∈N k=1 ⎛ ⎞ t    µ0 ⎝ = sk pk (r) sn pn (r)⎠ dr sn−k pn−k (r) + 0 2 + µ0 r ∗ ∗ k∈N

t

=

0

n∈N

n≥k+1

µ0 (F 2 (r, s) + F (r, s))dr ≤ 2 + µ0 r

t

0

2µ0 dr < +∞. 2 + µ0 r



Donc en sommant (12.10) sur n ∈ N , et en ´echangeant somme et int´egrale au second membre, il vient t

F (t, s) = F (0, s) + 0

µ0 F (r, s)(F (r, s) − 1)dr. 2 + µ0 r

(12.11)

Comme pour n ∈ N∗ , t → pn (t) est continue, la majoration sn pn (t) ≤ sn et le th´eor`eme de convergence domin´ee assurent que pour s dans [0, 1[, t → F (t, s) est continue. Avec (12.11) on en d´eduit que pour s dans [0, 1[, t → F (t, s) est continˆ ument d´erivable et v´erifie µ0 ∂ F (t, s) = F (t, s)(F (t, s) − 1). ∂t 2 + µ0 t Pour s dans ]0, 1[, comme F (t, s) ∈]0, 1[, cette ´equation se r´ecrit   1 d d log −1 = log(2 + µ0 t). dt F (t, s) dt En int´egrant en temps, on obtient     1 2 + µ0 t 1 −1= −1 × . F (t, s) F (0, s) 2 On en d´eduit que pour t ≥ 0 et s ∈]0, 1[, F (t, s) =

2F (0, s) , 2 + µ0 t − µ0 tF (0, s)

(12.12)

´equation qui reste vraie pour s = 0 et s = 1 puisque pour tout t ≥ 0, F (t, 0) = 0 et F (t, 1) = 1. En raisonnant comme dans d´emonstration du lemme 4.1.1, on obtient que la Nt Xi est la compos´ee de la fonction g´en´eratrice la fonction g´en´eratrice de i=1 de N avec la fonction g´en´eratrice s → F (0, s) commune aux r → 2+µ02r t t−µ0 tr variables al´eatoires Xi , c’est-`a-dire que !  N t Xi = F (t, s). ∀s ∈ [0, 1], E s i=1 Le th´eor`eme A.2.4 assure alors que la loi de

Nt

i=1

Xi est (pn (t), n ∈ N∗ ).

⊓ ⊔

´ 12.1 Equations de coagulation discr`etes

353

Dans le cas particulier o` u (pn (0), n ∈ N∗ ) est la loi g´eom´etrique de param`etre p ∈]0, 1], on a F (0, s) = ps/(1 − (1 − p)s) et d’apr`es (12.12) F (t, s) =

2ps/(2 + µ0 t) 2ps = . (2 + µ0 t)(1 − (1 − p)s) − µ0 tps 1 − s(1 − 2p/(2 + µ0 t))

On reconnaˆıt la fonction g´en´eratrice de la loi g´eom´etrique de param`etre 2p/(2 + µ0 t). Donc pour n ∈ N∗ et t ≥ 0,  n−1 2 + µ0 t − 2p 2p × . pn (t) = 2 + µ0 t 2 + µ0 t On en d´eduit le corollaire suivant : Corollaire 12.1.10. Pour la condition initiale (cn (0) = µ0 p(1 − p)n−1 , n ∈ N∗ ) avec µ0 ∈]0, +∞[ et p ∈]0, 1], la solution de (12.1) pour le noyau de coagulation constant Kj,k = 1 est donn´ee par n−1  2 + µ0 t − 2p 4µ0 p cn (t) = × . (2 + µ0 t)2 2 + µ0 t En particulier, pour la condition initiale cn (0) = 1{n=1} obtenue lorsque µ0 = p = 1, ∗

∀n ∈ N , ∀t ≥ 0, cn (t) =



2 2+t

2 

t 2+t

n−1

.

(12.13)

Sur la figure 12.1, nous avons repr´esent´e la solution (12.13) sur l’intervalle de temps [0, 10]. Exercice 12.1.11. V´erifier directement que cn (t) donn´e par (12.13) est  solution de (12.1) pour Kj,k = 1 et cn (0) = 1{n=1} . Noyau additif : Kj,k = j + k  Soit (cn (0), n ∈ N∗ ) une condition initiale t.q. µ1 = n∈N∗ ncn (0) < +∞ et (cn (t), t ≥ 0, n ∈ N∗ ) une solution de (12.1) de masse constante, dont l’existence est assur´ee par le th´eor`eme 12.1.5. Nous allons a` nouveau commencer par d´eterminer l’´evolution de m0 (t) pour en d´eduire un nouveau syst`eme d’´equations satisfait par (cn (t), t ≥ 0, n ∈ N∗ ). Lemme 12.1.12. Pour tout t positif, m0 (t) = µ0 e−µ1 t . En outre (cn (t), t ≥ 0, n ∈ N∗ ) est l’unique solution de ∀n ∈ N∗ , c˙n (t) =

n−1  k=1

  (n − k)cn−k (t)ck (t) − µ1 + nµ0 e−µ1 t cn (t)

(12.14)

ument d´erivable sur R+ . et pour tout n ∈ N∗ , la fonction t → cn (t) est continˆ

354

12 Processus de coagulation et fragmentation 1.0 0.9 0.8 0.7 0.6 0.5

c1(t)

0.4

m0(t)

0.3

c2(t)

0.2

c3(t)

0.1 0 0

1

2

3

4

5

6

7

8

9

10

t

Fig. 12.1. Solution pour le noyau constant et cn (0) = 1{n=1}

Remarque 12.1.13. Ainsi, lorsque la condition initiale est telle que µ1 =  nc (0) < +∞, l’´equation de coagulation (12.1) pour le noyau de coan n∈N∗ masse constante. gulation additif Kj,k = j + k admet une unique solution de  D’apr`es le th´eor`eme 12.1.5, sous l’hypoth`ese plus forte µ2 = n∈N∗ n2 cn (0) < +∞ sur la condition initiale, l’unicit´e a lieu dans la classe plus large des solutions de masse non n´ecessairement constante. ♦ D´emonstration.En utilisant la conservation de la concentration massique totale m1 (t) = k∈N∗ kck (t) = µ1 , on obtient que pour n ∈ N∗ et t ≥ 0, c˙n (t) =

n−1 n cn−k (t)ck (t)ds − (µ1 + m0 (t)n)cn (t). 2

(12.15)

k=1

En remarquant que n−1 

(n−k)cn−k (s)ck (s) =

n−1  k=1

k=1

kck (s)cn−k (s) =

n−1 1 ((n−k)+k)cn−k (s)ck (s), 2 k=1

on en d´eduit que cn (t) = cn (0) +

t n−1 

0 k=1

t

(n − k)cn−k (s)ck (s)ds −

(µ1 + m0 (s)n)cn (s)ds. 0

(12.16)

´ 12.1 Equations de coagulation discr`etes

355

En utilisant  le th´eor`emede Fubini, la constance de m1 (s) et la majoration m0 (s) = k∈N∗ ck (s) ≤ k∈N∗ kck (s) = µ1 , on obtient 

n∈N∗

t n−1 

0 k=1

t

(n − k)cn−k (s)ck (s)ds =



ck (s)

0 k∈N∗ t

= 0



n≥k+1

(n − k)cn−k (s)ds

m0 (s)m1 (s)ds ≤ µ21 t < +∞.

Par ailleurs 

n∈N∗

t

t

(µ1 + m0 (s)n)cn (s)ds = 2µ1 0

m0 (s)ds < +∞. 0

t Donc en sommant (12.16) sur n ∈ N∗ , on a m0 (t) = µ0 − µ1 0 m0 (s)ds. On conclut que m0 (t) = µ0 e−µ1 t . En reportant cette ´egalit´e dans (12.16), on obtient (12.14). Comme d’apr`es la proposition E.1, (cn (t), t ≥ 0, n ∈ N∗ ) est solution de ce syst`eme si et seulement si pour tout n ∈ N∗ et tout t ≥ 0   t  −µ1 r µ1 + nµ0 e dr cn (t) = exp − 0

 × cn (0) +

t n−1 

0 k=1

(n − k)cn−k (s)ck (s) exp



s

0



   µ1 + nµ0 e−µ1 r dr ds ,

l’unicit´e s’obtient par r´ecurrence sur n. En outre, comme l’int´egrande qui figure au membre de droite est une fonction continue de s, t → cn (t) est continˆ ument d´erivable. ⊓ ⊔ n ∈ N∗ , on pose pn (t) = eµ1 t cn (t)/µ0 de telle sorte que  Pour t ≥ 0 et µ1 t e m0 (t)/µ0 = 1 i.e. (pn (t), n ∈ N∗ ) est une probabilit´e. On n∈N∗ pn (t) = note F (t, s) = n∈N∗ sn pn (t), s ∈ [0, 1] la fonction g´en´eratrice associ´ee.

Lemme 12.1.14. La fonction F est continˆ ument diff´erentiable sur R+ ×[0, 1] et v´erifie ∂F ∂F (t, s) = µ0 e−µ1 t s(F (t, s) − 1) (t, s). ∂t ∂s

D´emonstration. Commen¸cons par ´etablir la continuit´e de ∂F ∂s sur R+ × [0, 1]. Comme  µ1 eµ1 t eµ1 t m1 (t) = < +∞, npn (t) = µ0 µ0 ∗ n∈N

pour tout t ≥ 0, la fonction s → F (t, s) est continˆ ument d´erivable sur [0, 1]  n−1 (t, s) = ns p (t). de d´eriv´ee ∂F n n∈N∗ ∂s Pour r ∈ [0, 1[, la continuit´e de t → pn (t) et l’in´egalit´e ∀(t, s) ∈ R+ × [0, r], 0 ≤ nsn−1 pn (t) ≤ nrn−1

356

12 Processus de coagulation et fragmentation

entraˆınent par convergence domin´ee la continuit´e de (t, s) → ∂F ∂s (t, s) sur R+ × [0, r]. Comme r est arbitraire, cette fonction est continue sur R+ × [0, 1[. Pour montrer qu’elle est continue sur R+ × [0, 1], on se donne maintenant ((tl , sl ), l ≥ 0) une suite de R+ ×[0, 1] qui converge vers (t, 1) lorsque l → +∞. Le lemme de Fatou assure que lim inf l→+∞

  ∂F ∂F (tl , sl ) = lim inf (t, 1). nsln−1 pn (tl ) ≥ npn (t) = l→+∞ ∂s ∂s ∗ ∗ n∈N

n∈N

Par ailleurs, la croissance de s ∈ [0, 1] → ∂F µ1 t /µ0 assurent que ∂s (t, 1) = µ1 e lim sup l→+∞

∂F ∂s

(t, s) et la continuit´e de t →

∂F ∂F ∂F (tl , sl ) ≤ lim (tl , 1) = (t, 1). l→+∞ ∂s ∂s ∂s

Donc ∂F On conclut que ∂F ∂s (tl , sl ) converge vers F (t, 1) lorsque l → +∞. ∂s (t, s)  s ∂F est continue sur R+ × [0, 1] de mˆeme que F (t, s) = 0 ∂s (t, u)du. Nous allons maintenant v´erifier que F satisfait l’´equation aux d´eriv´ees ument d´erivable, partielles ´enonc´ee dans le lemme. Comme t → cn (t) est continˆ en d´erivant pn (t) par rapport a` t et en utilisant (12.14), on obtient n−1  eµ1 t  −µ1 t p˙n (t) = µ1 pn (t) + (n − k)cn−k (t)ck (t) − (µ1 + µ0 e n)cn (t) µ0 k=1

= µ0 e

−µ1 t

n−1  k=1



(n − k)pn−k (t)pk (t) − npn (t) .

Donc pour s ∈ [0, 1] et n ∈ N∗ , t n

n

s pn (t) = s pn (0) +

µ0 e

−µ1 r

s

0

k=1

t



n−1 

(n − k)sn−k−1 pn−k (r)sk pk (r)dr

µ0 e−µ1 r s nsn−1 pn (r)dr.

(12.17)

0

D’apr`es le th´eor`eme de Fubini, 

n∈N∗

t

µ0 e−µ1 r s 0

n−1  k=1

(n − k)sn−k−1 pn−k (r)sk pk (r)dr t

µ0 e−µ1 r s

= 0



sk pk (r)

k∈N∗ t

µ0 e−µ1 r sF (r, s)

= 0



n≥k+1

(n − k)sn−k−1 pn−k (r)dr

∂F (r, s)dr < +∞, ∂s

´ 12.1 Equations de coagulation discr`etes

357

et 

n∈N∗

t

t

µ0 e−µ1 r snsn−1 pn (r)dr = 0

µ0 e−µ1 r s 0

∂F (r, s)dr < +∞. ∂s

Donc en sommant (12.17) sur n ∈ N∗ , on obtient que pour s ∈ [0, 1] et t ≥ 0, t

µ0 e−µ1 r s(F (r, s) − 1)

F (t, s) = F (0, s) + 0

∂F (r, s)dr. ∂s

Comme l’int´egrande est continu en r, on en d´eduit que F (t, s) est d´erivable par rapport a` t de d´eriv´ee partielle ∂F ∂F (t, s) = µ0 e−µ1 t s(F (t, s) − 1) (t, s). ∂t ∂s La continuit´e du second membre sur R+ × [0, 1] entraˆıne celle de conclut que F est continˆ ument diff´erentiable sur R+ × [0, 1].

∂F ∂t

et on ⊓ ⊔

Nous nous pla¸cons d´esormais dans le cas particulier de la condition cn (0) = ument 1{n=1} pour laquelle µ0 = µ1 = 1. Alors F (t, s) est solution continˆ diff´erentiable de l’´equation aux d´eriv´ees partielles non lin´eaire suivante : ⎧ ∂ ⎨∂ F (t, s) = e−t s(F (t, s) − 1) F (t, s) pour (t, s) ∈ R+ × [0, 1] ∂t ∂s ⎩F (0, s) = s pour s ∈ [0, 1] et F (t, 1) = 1 pour t ≥ 0.

(12.18) Nous allons en d´eduire cn (t) en utilisant des r´esultats sur les processus de Galton-Watson.

Proposition 12.1.15. Pour tout t ≥ 0, (pn (t), n ∈ N∗ ) est la loi de Borel de param`etre 1 − e−t : ∀n ∈ N∗ , pn (t) =

(n(1 − e−t ))n−1 −n(1−e−t ) e . n!

Comme pn (t) = et cn (t), on en d´eduit la solution de (12.1). Notons que comme µ2 = 1 < +∞, d’apr`es le th´eor`eme 12.1.5, l’unicit´e a lieu dans la classe des solutions de masse non n´ecessairement constante. Corollaire 12.1.16. Pour la condition initiale cn (0) = 1{n=1} et le noyau de coagulation additif Kj,k = j + k, l’unique solution de l’´equation de coagulation (12.1) est donn´ee par ∀n ∈ N∗ , ∀t ≥ 0, cn (t) =

(n(1 − e−t ))n−1 −t −n(1−e−t ) e e . n!

(12.19)

358

12 Processus de coagulation et fragmentation 1.0 0.9 0.8 0.7 0.6 0.5 0.4

m0(t)

0.3

c1(t)

0.2

c2(t)

0.1

c3(t)

0 0

0.2

0.4

0.6

0.8

1.0

1.2

1.4

1.6

1.8

2.0

t

Fig. 12.2. Solution pour le noyau additif et cn (0) = 1{n=1}

Sur la figure 12.2, nous avons repr´esent´e la solution (12.19) sur l’intervalle de temps [0, 2]. D´emonstration de la proposition 12.1.15. Nous allons construire les courbes caract´eristiques t → ϕ(t) telles que la fonction t → F (t, ϕ(t)) est constante, ce qui, compte tenu de (12.18), implique formellement ϕ(t) ˙ = −e−t ϕ(t)(F (t, ϕ(t)) − 1). Nous en d´eduirons l’unicit´e pour (12.18). Puis nous caract´eriserons la solution de cette ´equation en utilisant les r´esultats sur la population totale d’un processus de Galton-Watson donn´es dans le paragraphe 4.4. La fonction F (t, s) est continˆ ument diff´erentiable sur R+ ×[0, 1] et satisfait (12.18). Avec la condition au bord F (t, 1) = 1, on v´erifie facilement que pour tout T > 0, la fonction x ∈ R → −e−t 1{x∈[0,1]} x(F (t, x)−1) est lipschitzienne et born´ee avec une constante de Lipschitz et une borne uniformes pour t ∈ [0, T ]. Par le th´eor`eme de Cauchy-Lipschitz, on en d´eduit que pour y ∈ R, l’´equation diff´erentielle ordinaire ϕ˙ y (t) = −e−t 1{ϕy (t)∈[0,1]} ϕy (t)(F (t, ϕy (t)) − 1), ϕy (0) = y, admet une unique solution. Comme pour x ∈ / [0, 1], −e−t 1{x∈[0,1]} x(F (t, x) − 1) = 0, on v´erifie facilement que pour s ∈ [0, 1], ∀t ≥ 0, ϕs (t) ∈ [0, 1] ce qui implique en particulier que ϕ˙ s (t) = −e−t ϕs (t)(F (t, ϕs (t)) − 1). En utilisant (12.18), on obtient que ∂ ∂ d F (t, ϕs (t)) = F (t, ϕs (t)) + ϕ˙ s (t) F (t, ϕs (t)) = 0. dt ∂t ∂s

´ 12.1 Equations de coagulation discr`etes

359

Donc ∀t ≥ 0, ∀s ∈ [0, 1], F (t, ϕs (t)) = F (0, ϕs (0)) = s.

(12.20)

En particulier l’´equation diff´erentielle ordinaire donnant la caract´eristique issue de s se r´ecrit ϕ˙ s (t) = −e−t ϕs (t)(s − 1), ϕs (0) = s. Son unique solution est donn´ee par −t ϕs (t) = se(1−s)(1−e ) . Soit t > 0. D’apr`es le corollaire 4.4.5, la fonction s ∈ [0, 1] → ϕs (t) ∈ [0, 1] est inversible et son inverse s ∈ [0, 1] → ψ(t, s) est la fonction g´en´eratrice de la loi de Borel de param`etre 1 − e−t . Comme l’´egalit´e (12.20) se r´ecrit F (t, s) = ψ(t, s), on conclut que (pn (t), n ∈ N ∗ ) est la loi de Borel de param`etre 1 − e−t i.e. que (n(1 − e−t ))n−1 −n(1−e−t ) e ∀n ∈ N∗ , pn (t) = . n! ⊓ ⊔ Dans le d´eveloppement qui pr´ec`ede, nous avons effectivement montr´e que toute solution de masse constante de (12.1) pour le noyau de coagulation additif Kj,k = j + k et la condition initiale cn (0) = 1{n=1} est n´ecessairement donn´ee par (12.19). Et c’est le r´esultat d’existence ´enonc´e dans le th´eor`eme 12.1.5 mais admis qui assure que (12.19) fournit bien une solution de (12.1). L’objet de l’exercice suivant est de v´erifier directement ce point. −t

n−1

−t

Exercice 12.1.17. Soit cn (t) = (n(1−en! )) e−t e−n(1−e ) . ` 1. A 4.4.5,  v´erifier que pour tout t ≥ 0, m0 (t) =  l’aide du corollaire −t c (t) = e et m (t) = ∗ n 1 n∈N n∈N∗ ncn (t) = 1. 2. En utilisant l’identit´e combinatoire (4.17), v´erifier que cn (t) est solution de (12.16) puis de (12.1).

 Noyau multiplicatif : Kj,k = jk Le r´esultat suivant tir´e de [8], garantit l’existence d’une  solution a` (12.1) pour le noyau de coagulation multiplicatif lorsque µ2 = n∈N∗ n2 cn (0) < +∞ en ´etablissant un lien avec l’´equation de coagulation pour le noyau additif.

Proposition 12.1.18. Soit (c∗n (0), n ∈ N∗ ) une condition initiale telle que  ∗ ∗ µ2 = n∈N∗ n2 c∗n (0) < +∞ et (c+ n (t), t ≥ 0, n ∈ N ) la solution de masse constante de (12.1) pour le noyau additif Kj,k = j + k et la condition initiale ∗ ∗ ee par le th´eor`eme 12.1.5 (c+ n (0) = ncn (0), n ∈ N ), dont l’existence est assur´ et l’unicit´e par le lemme 12.1.12. Alors si on pose pour t ∈ [0, 1/µ∗2 [ et n ∈ N∗   1 1 1 + ∗ c − log (1 − µ t) , (12.21) c∗n (t) = 2 1 − µ∗2 t n n µ∗2

360

12 Processus de coagulation et fragmentation

(c∗n (t), t ∈ [0, 1/µ∗2 [, n ∈ N∗ ) est solution de masse constante de l’´equation de coagulation (12.1) pour le noyau multiplicatif Kj,k = jk. D´ Comme la concentration massique totale constante µ+ 1 = emonstration. + + ∗ egale `a µ∗2 , dans n∈N∗ ncn (t) de la solution (cn (t), t ∈ [0, +∞[, n ∈ N ) est ´ toute la d´emonstration, nous remplacerons µ∗2 par µ+ 1. V´erifions d’abord la constance de la concentration massique totale pour c∗ . Pour s ∈ [0, 1/µ+ 1 [, en utilisant le lemme 12.1.12, on a      +    µ+ 1 1 0 exp log 1 − µ1 s + + ∗ m0 − + log 1 − µ1 s = ncn (s) = 1 − µ+ µ1 1 − µ+ 1s 1s n∈N∗ ∗ = µ+ 0 = µ1 .

 Donc la concentration massique totale n∈N∗ nc∗n (s) est constante sur l’intervalle [0, 1/µ+ egrabilit´e de la d´efinition 12.1.1 est satisfaite 1 [ et la condition d’int´ pour tout t ∈ [0, 1/µ+ 1 [. ument d´erivable. En Toujours d’apr`es le lemme 12.1.12, t → c+ n (t) est continˆ d´erivant (12.21) et en utilisant (12.15), on obtient que pour t ∈ [0, 1/µ+ 1 [, si  + 1 on pose τ = − µ+ log 1 − µ1 t , 1

c˙∗n (t) = =

=

=

µ+ 1

n(1 −

c+ 2 n µ+ t) 1

(τ ) +

1 c˙+ (τ ) 2 n n(1 − µ+ t) 1

 ! n−1  +  + n + + 1 + + + µ c (τ ) + c c (τ ) − µ + nm (τ ) c (τ ) n 1 n 1 0 n−k k 2 2 n(1 − µ+ 1 t) k=1 n−1 1 nc∗n (t) + m0 (τ ) (n − k)c∗n−k (t)kc∗k (t) − 2 1 − µ+ 1t k=1

n−1 1 nc∗n (t)  + ck (τ ) (n − k)kc∗n−k (t)c∗k (t) − 2 1 − µ+ 1 t k∈N∗ k=1

n−1  1 (n − k)kc∗n−k (t)c∗k (t) − nc∗n (t) kc∗k (t), = 2 ∗ k=1

k∈N

en utilisant (12.21) pour les trois derni`eres ´egalit´es.

⊓ ⊔

Pour le noyau de coagulation multiplicatif, l’´equation de coagulation se r´ecrit ∀n ∈ N∗ , c˙n (t) =

n−1 1 (n − k)cn−k (t)kck (t) − m1 (t)ncn (t). 2

(12.22)

k=1

L’´evolution de cn (t) ne fait donc intervenir les concentrations de polym`eres de taille sup´erieure `a n qu’au travers de la concentration massique totale m1 (.). Nous allons tirer parti de cette propri´et´e pour d´emontrer le r´esultat d’unicit´e suivant :

´ 12.1 Equations de coagulation discr`etes

361

Proposition 12.1.19. Soit (cn (t), n ∈ N∗ , t ∈ [0, T [) et (˜ cn (t), n ∈ N∗ , ˜ t ∈ [0, T [) deux solutions de l’´equation (12.1) pour le noyau de coagulation ∗ multiplicatif Kj,k = jk issues la mˆeme condition  initiale ( ∀n ∈ N , cn (0) = c˜n (0)) de concentration massique totale µ1 = n∈N∗ ncn (0) finie. Alors pour tout t ∈ [0, min(T, T˜)[, pour tout n ∈ N∗ , cn (t) = c˜n (t). D´emonstration. D’apr`es la proposition E.1, l’´equation (12.22) implique que pour t < T , et n ∈ N∗ , −n

cn (t) = e

t 0

m1 (r)dr

cn (0) +

1 2

t n−1 

0 k=1

−n

(n − k)cn−k (s)kck (s)e

t s

m1 (r)dr

ds.

t n m1 (r)dr 0 , on en d´eduit que Apr` e s multiplication de cette ´ e quation par e t m1 (r)dr n ∗ (e 0 cn (t), n ∈ N , t ∈ [0, T [) est solution de γn (t) = cn (0) +

1 2

t n−1 

0 k=1

(n − k)γn−k (s)kγk (s)ds.

Pour n = 1, on obtient γ1 (t) = c1 (0). Puis pour n = 2, on en d´eduit que γ2 (t) = c2 (0) + c21 (0)t/2. Plus g´en´eralement, en raisonnant par r´ecurrence sur n, on v´erifie que ce syst`eme d’´equations admet une unique solution (γn (t), n ∈ N∗ , t ∈ [0, +∞[). Ainsi t m1 (r)dr −n 0 ∀t ∈ [0, T [, ∀n ∈ N∗ , cn (t) = e γn (t).  En particulier, la concentration massique totale m1 (t) = n∈N∗ ncn (t) de la premi`ere solution de (12.1) v´erifie  −n  t m (r)dr 1 0 m1 (t) = nγn (t). (12.23) e n∈N∗

t ˜ 1 (r)dr ˜[, ∀n ∈ N∗ , c˜n (t) = e−n 0 m γn (t) et m ˜ 1 (t) = De mˆeme pour t ∈ [0, T t  −n m ˜ 1 (r)dr 0 γn (t). Il suffit donc de v´erifier que pour tout t dans n∈N∗ ne t t ˜ 1 (r)dr pour conclure que les deux solutions [0, min(T, T˜)[, 0 m1 (r)dr = 0 m ˜ c et c˜ co¨ıncident sur [0, min(T, T )[. Pour tout n dans N∗ , par d´ecroissance de la fonction x → e−nx ,   t  t t t −n m1 (r)dr −n m ˜ 1 dr 0 0 e −e m1 (r)dr − m ˜ 1 dr ≤ 0. 0

0

En multipliant cette in´egalit´e par nγn (t), en sommant le r´esultat sur n dans ˜ 1 on obtient, N∗ et en utilisant (12.23) ainsi que l’´equation analogue pour m ∀t ∈ [0, min(T, T˜)[, (m1 (t) − m ˜ 1 (t))

t 0

(m1 (r) − m ˜ 1 (r))dr ≤ 0.

(12.24)

362

12 Processus de coagulation et fragmentation

Pour s ∈ [0, min(T, T˜)[, en int´egrant cette in´egalit´e sur [0, s], il vient que 1 2



s 0

(m1 (r) − m ˜ 1 (r))dr

2

s

= 0

t

(m1 (t) − m ˜ 1 (t))

0

(m1 (r) − m ˜ 1 (r))drdt

est n´egatif, ce qui ach`eve la d´emonstration.

⊓ ⊔

Le r´esultat d’existence et le r´esultat d’unicit´e qui pr´ec`edent vont maintenant nous permettre d’exhiber l’unique solution de (12.1) pour le noyau de coagulation multiplicatif et la condition initiale cn (0) = 1{n=1} . Corollaire 12.1.20. La famille (cn (t), t ≥ 0, n ∈ N∗ ) d´efinie par ⎧ 1 (nt)n−1 −nt ⎪ ⎨ e si t ∈ [0, 1] n! ∀n ∈ N∗ , cn (t) = n n−2 ⎪ ⎩1 n e−n si t ≥ 1. t n!

(12.25)

est l’unique solution de l’´equation de coagulation (12.1) pour le noyau de coagulation multiplicatif Kj,k = jk et la condition initiale cn (0) = 1{n=1} . D´emonstration. En reprenant les notations de la proposition 12.1.18, lorsque es le corollaire 12.1.16 c∗n (0) = 1{n=1} , alors µ∗2 = 1 et c+ n (0) = 1{n=1} . D’apr` qui donne la solution de (12.1) pour le noyau de coagulation additif et la condi∗ e par (12.25) tion initiale (c+ n (0), n ∈ N ) et la proposition 12.1.18, cn (t) donn´ est solution de masse constante sur l’intervalle de temps [0, 1[ de l’´equation de coagulation avec noyau multiplicatif Kj,k = jk pour la condition initiale cn (0) = 1{n=1} . Nous allons maintenant en d´eduire que cn (t) satisfait ´egalement (12.1) pour t > 1. Comme le second membre de (12.22) est continu sur [0, 1[, t → cn (t) est continˆ ument d´erivable sur cet intervalle et en passant a` la limite t → 1− , on obtient n−1 1 (n − k)cn−k (1)kck (1) − ncn (1). c˙n (1− ) = 2 k=1

Par ailleurs en d´erivant (12.25), on obtient que pour t dans [0, 1[, c˙n (t) = [nn−1 (n − 1)tn−2 − n(nt)n−1 ]e−nt /(n × n!). En prenant la limite t → 1− , il vient c˙n (1− ) = −nn−2 e−n /n! = −cn (1). L’´egalit´e des deux expressions pr´ec´edentes de c˙n (1− ) s’´ecrit −cn (1) =

n−1 1 (n − k)cn−k (1)kck (1) − ncn (1). 2 k=1

Comme le corollaire 4.4.5 assure que la loi de Borel de param`etre 1 qui n−1 −n e /n! a` tout entier n non nul est une probabilit´e, on donne  le poids n a k∈N∗ kck (1) = 1 et on en d´eduit

´ 12.1 Equations de coagulation discr`etes

−cn (1) =

n−1  1 (n − k)cn−k (1)kck (1) − ncn (1) kck (1). 2 ∗ k=1

363

(12.26)

k∈N

Pour t > 1, d’apr`es (12.25), cn (t) = cn (1)/t, ce qui assure que c˙n (t) = −cn (1)/t2 . En divisant (12.26) par t2 on en d´eduit que (12.1) est v´erifi´ee pour t > 1. ument Notons que comme c˙n (1− ) = c˙n (1+ ) = −cn (1), t → cn (t) est continˆ d´erivable sur [0, +∞[ et l’´equation (12.1) est satisfaite sur [0, +∞[. L’unicit´e est assur´ee par la proposition 12.1.19. ⊓ ⊔ Remarque 12.1.21. – La concentration massique totale m1 (t) = min(1, 1/t) de la solution (12.25) est strictement d´ecroissante `a partir du temps t = 1, appel´e temps de g´elification. L’interpr´etation physique de ce ph´enom`ene est qu’il se forme au temps de g´elification un polym`ere de taille infinie appel´e gel, auquel de la masse est ensuite transf´er´ee. – Pour calculer m0 (t) et m2 (t), on peut remarquer que pour t plus grand que 1, m0 (t) et m2 (t) sont respectivement ´egaux `a m0 (1)/t et m2 (1)/t. u D’autre part, pour t dans [0, 1], m0 (t) = E[1/Yt ] et m2 (t) = E[Yt ] o` Yt suit la loi de Borel de param`etre t. D’apr`es le corollaire 4.4.5, pour t dans [0, 1], E[Yt ] = 1/(1 − t) (avec la convention 1/0 = +∞), ce qui assure que m2 (t) est ´egal `a 1/(1 − t) pour t dans [0, 1[ et `a +∞ ensuite. Par ailleurs la fonction g´en´eratrice s ∈ [0, 1] → F (s) de Yt est l’inverse de la fonction u ∈ [0, 1] → ϕ(u) = uet(1−u) . Comme P(Yt = 0) = 0 et 1 1 comme pour n ∈ N∗ , n1 = 0 sn−1 ds, on a Y1t = 0 sYt −1 ds. En prenant l’esp´erance, on en d´eduit  ! 1 1 1 t 1 F (ϕ(u)) ′ F (s) ds = ϕ (u)du = = (1 − tu)du = 1 − . E Yt s ϕ(u) 2 0 0 0 On conclut alors que m0 (t) est ´egal `a 1 − t/2 pour t dans [0, 1] et a` 1/(2t) ensuite. ♦ Sur la figure 12.3, nous avons repr´esent´e la solution (12.25) sur l’intervalle de temps [0, 2]. Le noyau multiplicatif Kj,k = jk ne satisfait pas les hypoth`eses faites dans le th´eor`eme 12.1.5 en vue d’obtenir un r´esultat d’existence et d’unicit´e pour (12.1). Le r´esultat suivant tir´e de [18] englobe le cas de ce noyau : Th´ eor` eme 12.1.22. S’il existe une constante κ > 0 telle que ∀j, k ∈ N∗ , et si la condition initiale non nulle (cn (0), n ∈ N∗ ) v´erifie µ2 = K j,k ≤ κjk 2 n∈N∗ n cn (0) < +∞, alors il existe un unique T ≥ 1/(κµ2 ) tel que (12.1) admet une solution (cn (t), t ∈ [0, T [, n ∈ N∗ ) de masse constante sur [0, T [ et t ` que la fonction t → 0 m2 (s)ds associ´ee est finie sur [0, T [ avec une limite a gauche en T ´egale a ` +∞.

364

12 Processus de coagulation et fragmentation 1.2

1.0

m1(t)

0.8

0.6

m0(t) c1(t)

0.4

0.2

c2(t) c3(t) 0 0

0.2

0.4

0.6

0.8

1.0

1.2

1.4

1.6

1.8

2.0

t

Fig. 12.3. Solution pour le noyau multiplicatif et cn (0) = 1{n=1}

En outre, on a le r´esultat d’unicit´e suivant : toute solution de (12.1) sur l’intervalle de temps [0, τ [ co¨ıncide avec cn (t) sur [0, min(T, τ )[. Remarque 12.1.23. Comme ∀j, k ∈ N∗ , j + k ≤ 2jk l’hypoth`ese de croissance sur le noyau de coagulation faite dans le th´eor`eme pr´ec´edent est plus faible que celle faite dans le th´eor`eme 12.1.5. Si le noyau de coagulation ne satisfait pas Kj,k ≤ κjk, on peut perdre l’existence de solutions de masse constante sur un intervalle [0, T [ o` u T > 0. Par exemple, s’il existe des constantes α, β t.q. β > α > 1 et ∀j, k ∈ N∗ , j α + k α ≤ Kj,k ≤ (jk)β alors Carr et da Costa [5] on montr´e que le temps de g´elification de toute solution non nulle de (12.1) est n´ecessairement nul. ♦ L’objet de l’exercice suivant est de donner une r´eciproque a` la proposition 12.1.18 : ∗ Exercice 12.1.24. Soit (c+ n (0), n ∈ N ) une condition initiale non nulle telle  + ∗ ∗ = nc (0) < +∞ et (c que µ+ n n (t), t ∈ [0, T [, n ∈ N ) avec T ≥ 1/ 1 n∈N∗ + µ1 la solution de masse constante de l’´equation de coagulation avec noyau ∗ multiplicatif Kj,k = jk pour la condition initiale (c∗n (0) = c+ n (0)/n, n ∈ N ) ∗ dont l’existence est assur´ee par le th´eor`eme 12.1.22. Pour t > 0 et n ∈ N , on pose   1 −µ+ −µ+ 1 t) . 1 t nc∗ c+ (1 − e (t) = e n n µ+ 1

1. Montrer que pour tout n ∈ N∗ ∀t ≥ 0,

c˙+ n (t)

n−1 

n + + + ∗ −µ+ 1 t + µ cn−k (t)c+ = 1 cn (t). k (t) − nµ1 e 2 k=1

12.2 Coagulation et fragmentation discr`etes

365

2. Calculer µ+ a l’aide du lemme 12.1.12 que (c+ n (t), t ≥ 0, 0 et conclure ` ∗ n ∈ N ) est la solution de masse constante de (12.1) pour le noyau additif ∗ Kj,k = j + k et la condition initiale (c+ n (0), n ∈ N ) dont l’existence est assur´ee par le th´eor`eme 12.1.5. 

´ 12.2 Equations de coagulation et de fragmentation discr` etes Nous enrichissons maintenant les ´equations pour prendre en compte, en plus de la coagulation, le ph´enom`ene inverse : la fragmentation. Un polym`ere de taille n ≥ 2 peut se fragmenter pour donner naissance a` deux polym`eres de tailles respectives n − k et k o` u k ∈ {1, . . . , [n/2]} (pour x r´eel, [x] d´esigne la partie enti`ere de x). La constante de cette r´eaction est Fn−k,k = Fk,n−k si k = n/2 et 12 F n2 , n2 si k = n/2. La constante globale de fragmentation d’un n−1 polym`ere de taille n est alors 12 k=1 Fn−k,k et les ´equations de coagulation fragmentation discr`etes s’´ecrivent : n−1 1 (Kn−k,k cn−k (t)ck (t) − Fn−k,k cn (t)) ∀n ∈ N , c˙n (t) = 2 ∗

k=1





k∈N∗

(Kn,k cn (t)ck (t) − Fn,k cn+k (t)) .

(12.27)

Notons que la fragmentation n’introduit que des termes lin´eaires dans le syst`eme pr´ec´edent. Comme la masse est conserv´ee lors de chaque fragmentation, on s’attend a` ce que la concentration massique totale m1 (t) =  ee. Ce n’est pas toujours vrai. Comme nous l’avons n∈N∗ ncn (t) soit conserv´ vu dans le cas du noyau de coagulation multiplicatif, en l’absence de fragmentation, il se peut que la concentration massique totale d´ecroisse : cela correspond physiquement a` la formation d’un polym`ere de taille infinie appel´e gel. En l’absence de coagulation, comme le montre l’exemple suivant tir´e de [3], on peut construire des solutions de (12.27) telles que m1 (t) est strictement croissante. Exemple 12.2.1. Pour n ∈ N∗ et t ≥ 0, on pose cn (t) =

et . (n + 1)(n + 2)(n + 3)

On a alors c˙n (t) = cn (t) = −

n+1 n−1 cn (t) + cn (t). 2 2

366

12 Processus de coagulation et fragmentation

Par ailleurs, 

cn+k (t) = et

k∈N∗

  1 1 1 − 2 (n + k + 1)(n + k + 2) (n + k + 2)(n + k + 3) ∗

k∈N

   et  1 1 − = 2 (n + k + 1)(n + k + 2) (n + j + 1)(n + j + 2) ∗ j≥2

k∈N

=

1 n+1 et × = cn (t). 2 (n + 2)(n + 3) 2

On a donc c˙n (t) = cn (t) = −

n−1  1 cn (t) + cn+k (t). 2 ∗ k=1

k∈N

Donc cn (t) est solution de (12.27) pour le noyau de fragmentation constant ´egal `a 1 et le noyau de coagulation nul. Comme 1 1 1 1 n = − − + , (n + 1)(n + 2)(n + 3) n + 2 2(n + 1)(n + 2) n + 3 2(n + 2)(n + 3) on v´erifie  facilement que la concentration massique totale de cette solution est t m1 (t) = n∈N∗ ncn (t) = e4 , fonction strictement croissante. Notons que la constante globale de fragmentation d’un polym`ere de taille n n’est pas born´ee : elle est ´egale `a (n − 1)/2 et tend vers +∞ avec la taille n. ♦ Comme les ´equations ne font intervenir que les polym`eres de taille finie, ce ph´enom`ene d’augmentation de masse doit ˆetre rejet´e pour des arguments physiques. C’est pourquoi nous imposons la d´ecroissance de la concentration massique totale dans la d´efinition suivante des solutions : D´ efinition 12.2.2. On appelle solution de l’´equation (12.27) sur [0, T [ o` u 0 < T ≤ +∞ une famille (cn (t), t ∈ [0, T [, n ∈ N∗ ) telle que 1. pour tout n ∈ N∗ , s → cn (s) est une fonction continue de [0, T [ dans R+ t et pour tout t ∈ [0, T [, 0 k∈N∗ (Kn,k ck (s) + Fn,k cn+k (s)) ds < +∞,

2. pour tout n ∈ N∗ , l’´equation (12.27) est v´erifi´ee sous forme int´egr´ee en temps : pour tout t ∈ [0, T [, t

cn (t) = cn (0) + 0

k=1

t



n−1 1 (Kn−k,k cn−k (s)ck (s) − Fn−k,k cn (s)) ds 2



0 k∈N∗

(Kn,k cn (s)ck (s) − Fn,k cn+k (s)) ds,

12.3 Chaˆınes de Markov ` a temps continu associ´ees

3. ∀t ∈ [0, T [, m1 (t) = d´ecroissante sur [0, T [.



n∈N∗

367

ncn (t) < +∞ et la fonction m1 (t) est

Remarque 12.2.3. En raisonnant comme dans la remarque 12.1.2, on obtient que si (cn (t), t ∈ [0, T [, n ∈ N∗ ) est solution de (12.27) pour les noyaux K et F , alors pour toutes constantes positives α et β, (αcn (αβt), t ∈ [0, T /(αβ)[, ♦ n ∈ N∗ ) est solution de (12.27) pour les noyaux βK et αβF . Nous regroupons dans le th´eor`eme suivant tir´e de [15] et que nous ne d´emontrerons pas des r´esultats d’existence et d’unicit´e pour (12.27) sous les hypoth`eses du th´eor`eme 12.1.5 et des r´esultats sous les hypoth`eses du th´eor`eme 12.1.22. Th´ eor` eme 12.2.4. On suppose que la condition initiale (cn (0), n ∈ N∗ ) est  non nulle et v´erifie µ2 = n∈N∗ n2 cn (0) < +∞. – S’il existe une constante κ > 0 t.q. ∀j, k ∈ N∗ , Kj,k ≤ κ(j + k) alors l’´equation (12.27) admet une unique solution sur [0, +∞[. En outre, cette solution est de masse constante. – S’il existe une constante κ > 0 telle que ∀j, k ∈ N∗ , Kj,k ≤ κjk, alors il existe un unique T ≥ 1/(κµ2 ) tel que (12.27) admet une solution (cn (t), t ∈ [0, T [, n ∈ N∗ ) de masse constante sur [0, T [ et que la fonction t ` gauche en t → 0 m2 (s)ds associ´ee est finie sur [0, T [ avec une limite a T ´egale a ` +∞. En outre, toute solution de (12.27) sur l’intervalle de temps [0, τ [ co¨ıncide avec cn (t) sur [0, min(T, τ )[. Remarque 12.2.5. Dans l’´enonc´e pr´ec´edent nous n’avons pas fait d’hypoth`ese sur le noyau de fragmentation et nous g´en´eralisons les r´esultats obtenus en absence de fragmentation c’est-`a-dire pour un noyau F nul. Dans [6], da Costa adopte un point de vue radicalement diff´erent : il se place sous une hypoth`ese dite de fragmentation forte qui assure que le ph´enom`ene de fragmentation domine celui de coagulation pour obtenir des r´esultats d’existence et d’unicit´e pour (12.27). ♦

12.3 Chaˆınes de Markov ` a temps continu associ´ ees Nous allons d’abord introduire le processus de Marcus-Lushnikov qui est une chaˆıne de Markov a` temps continu dont les transitions sont la traduction des ph´enom`enes physiques de coagulation et de fragmentation. Puis nous pr´esenterons le processus de transfert de masse qui permet d’approcher la solution des ´equations de coagulation et de fragmentation discr`etes plus efficacement que la simulation du processus de Marcus-Lushnikov.

368

12 Processus de coagulation et fragmentation

12.3.1 Le processus de Marcus-Lushnikov Existence du processus Le processus de Marcus-Lushnikov est une chaˆıne de Markov a` temps continu qui d´ecrit l’´evolution d’une population de mol´ecules de polym`eres pr´esentes initialement. Plus pr´ecis´ement l’espace d’´etats % $ ∗ N∗ ∗ E = x = (x(n), n ∈ N ) ∈ N : ∃n0 ∈ N , ∀n ≥ n0 , x(n) = 0 , est d´enombrable puisque si on note pour x ∈ E, M (x) = max{n ∈ N∗ : x(n) > 0} alors x ∈ E → (x(1), x(2) . . . , x(M (x))) est une injection dans l’espace d´enombrable k≥1 Nk . Lorsque le processus est dans l’´etat x ∈ E, cela signifie que pour tout n ∈ N∗ , x(n) mol´ecules de polym`eres de taille n sont pr´esentes. Les transitions transcrivent directement la physique des ph´enom`enes de coagulation et de fragmentation. Si pour k ∈ N∗ , ek = (0, . . . , 0, 1, 0, . . . , 0, . . .) d´esigne l’´el´ement de E avec un 1 en k-i`eme position et des 0 ailleurs (ce qui s’´ecrit aussi ek (n) = 1{n=k} ), le g´en´erateur infinit´esimal est donn´e pour y = x par ⎧ ⎪ si y = x + ej + ek − ej+k o` u 1 ≤ k 0, lim E sup n (t) − ncn (t) N →+∞

t∈[0,T ] n∈N∗

Simulation Comme dans le cas du processus de Marcus-Lushnikov, pour des noyaux sp´ecifiques, on peut g´en´erer astucieusement la chaˆıne trace en temps discret comme le montre l’exercice suivant :  Exercice 12.3.7. Soit x ∈ E. Pour l ∈ {−1, 0, 1}, on pose νl = n∈N∗ nl x(n). Soit β0 et γ0 de loi (x(n)/ν0 , n ∈ N∗ ), β1 de loi (x(n)/nν−1 , n ∈ N∗ ) et γ1 de loi (nx(n)/ν1 , n ∈ N∗ ). Toutes ces variables al´eatoires sont suppos´ees ind´ependantes. Le noyau de fragmentation F est suppos´e nul. 1. Dans le cas du noyau de coagulation constant Kj,k = 1, v´erifier que |A˜N (x, x)| = ν0 ν−1 /N et que Y = x + eγ0 +β1 − eγ0 suit la loi (1{y=x} A˜N (x, y)/|A˜N (x, x)|)y∈E . 2. Dans le cas du noyau de coagulation multiplicatif Kj,k = jk, v´erifier que |A˜N (x, x)| = ν0 ν1 /N et que Y = x + eγ1 +β0 − eγ1 suit la loi (1{y=x} A˜N (x, y)/|A˜N (x, x)|)y∈E .

12.3 Chaˆınes de Markov ` a temps continu associ´ees

381

3. Dans le cas du noyau de coagulation additif Kj,k = j + k, on se donne ind´ependamment de β0 , β1 , γ0 et γ1 une variable al´eatoire α de loi de Bernoulli de param`etre ν1 ν−1 /(ν02 + ν1 ν−1 ). V´erifier que |A˜N (x, x)| = (ν02 + ν1 ν−1 )/N et que Y = x + eβα +γα − eγα suit la loi (1{y=x} A˜N (x, y)/|A˜N (x, x)|)y∈E .  R´ esultats num´ eriques La figure 12.6 illustre la convergence de la solution approch´ee construite grˆace au processus de transfert de masse vers la solution (12.13) de l’´equation sans fragmentation pour le noyau de coagulation constant Kj,k = 1 et la condition initiale cn (0) = 1{n=1} . La concentration cn (t) de polym`eres de taille n est ˜N approch´ee par pN n (t)/n = Xt (n)/(N n). La concentration totale m0 (t) est N  ˜ (n) X approch´ee par N1 n∈N∗ t n . Dans le cas du noyau de coagulation multiplicatif Kj,k = jk, en absence de fragmentation et pour la condition initiale cn (0) = 1{n=1} , il y a accumulation des sauts pour le processus de transfert de masse au voisinage du temps de g´elification t = 1. Il n’est pas possible de simuler le processus au del`a de ce temps d’accumulation. Pour rem´edier `a cette difficult´e, on peut choisir de supprimer tous les polym`eres de taille sup´erieure

1.0 0.9 0.8 0.7 0.6 0.5

c1(t)

0.4

m0(t)

0.3

c2(t)

0.2

c3(t)

0.1 0 0

1

2

3

4

5

6

7

8

9

10

t

Fig. 12.6. Comparaison de la solution exacte (12.13) et de la solution approch´ee par le processus de transfert de masse pour N = 500

382

12 Processus de coagulation et fragmentation 1.2

1.0

m1(t)

0.8

0.6

m0(t) c1(t)

0.4

0.2

c2(t) c3(t)

0 0

0.2

0.4

0.6

0.8

1.0

1.2

1.4

1.6

1.8

2.0

t

Fig. 12.7. Comparaison de la solution exacte (12.25) et de la solution approch´ee par le processus de transfert de masse modifi´e pour N = 1 000 10e−4

10e−4

9e−4

9e−4

8e−4

8e−4

7e−4

7e−4

6e−4

6e−4

5e−4

5e−4 4e−4

4e−4

c20(t)

3e−4

c20(t)

3e−4

2e−4

2e−4

1e−4

1e−4 0

0 0

0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0

t

0

0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0

t

Fig. 12.8. Comparaison de c20 (t) donn´e par (12.19) et de son approximation par le processus de Marcus-Lushnikov (resp. transfert de masse) avec N = 50 000 a ` gauche (resp. avec N = 5 000 ` a droite)



˜ N (n) d´ecroˆıt alors avec le temps et on peut X t  ˜ N (n) X t ˜ tN (n) (resp. 1  ). approcher m1 (t) (resp. m0 (t)) par N1 n∈N∗ X n∈N∗ N n La figure 12.7 illustre la convergence de la solution approch´ee construite `a par` la diff´erence du processus tir de ce processus de transfert de masse modifi´e. A de Marcus-Lushnikov, le processus de transfert de masse, convenablement

a N qui se forment : `

n∈N∗

R´ef´erences

383

modifi´e pour ´eviter l’accumulation des sauts, est capable de rendre de compte du ph´enom`ene de transition de phase a` t = 1. La figure 12.8, illustre sur l’exemple de la solution 12.19 (Kj,k = j + k, Fj,k = 0, cn (0) = 1{n=1} ) la constatation suivante : pour avoir une pr´ecision analogue pour la concentration de polym`eres de taille 20, il faut choisir N environ 10 fois plus grand pour le processus de Marcus-Lushnikov que pour le processus de transfert de masse. Cela s’explique par le fait que lorsque XtN (n) a un saut d’amplitude 1, alors cN n (t) a un saut d’amplitude 1/N tandis ˜ tN (n) a un saut d’amplitude 1, pN que lorsque X n (t)/n a un saut d’amplitude 1/N n. En conclusion, pour une mˆeme valeur de N , la simulation du processus de transfert de masse permet d’approcher plus pr´ecis´ement les concentrations de polym`eres de taille grande que la simulation du processus de MarcusLushnikov. En revanche, elle est plus coˆ uteuse en temps de calcul, notamment parce que le nombre de mol´ecules de polym`eres d´ecroˆıt au cours du temps dans le processus de Marcus-Lushnikov et pas dans le processus de transfert de masse.

R´ ef´ erences 1. D. Aldous. Deterministic and stochastic models for coalescence (aggregation and coagulation) : a review of the mean-field theory for probabilists. Bernoulli, 5(1) : 3–48, 1999. 2. H. Babovsky. On a Monte Carlo scheme for Smoluchowski’s coagulation equation. Monte Carlo Methods Appl., 5(1) : 1–18, 1999. 3. J.M. Ball et J. Carr. The discrete coagulation-fragmentation equations : existence, uniqueness, and density conservation. J. Statist. Phys., 61(1-2) : 203–234, 1990. 4. E. Buffet et J.V. Pul´e. Polymers and random graphs. J. Statist. Phys., 64(1-2) : 87–110, 1991. 5. J. Carr et F.P. da Costa. Instantaneous gelation in coagulation dynamics. Z. Angew. Math. Phys., 43(6) : 974–983, 1992. 6. F.P. da Costa. Existence and uniqueness of density conserving solutions to the coagulation-fragmentation equations with strong fragmentation. J. Math. Anal. Appl., 192(3) : 892–914, 1995. 7. M. Deaconu, N. Fournier et E. Tanr´e. A pure jump Markov process associated with Smoluchowski’s coagulation equation. Ann. Probab., 30(4) : 1763–1796, 2002. 8. M. Deaconu et E. Tanr´e. Smoluchowski’s coagulation equation : probabilistic interpretation of solutions for constant, additive and multiplicative kernels. Ann. Scuola Norm. Sup. Pisa Cl. Sci. (4), 29(3) : 549–579, 2000. 9. E. Debry, B. Sportisse et B. Jourdain. A stochastic approach for the simulation of the general dynamics equation for aerosols. J. Comput. Phys., 184 : 649–669, 2003.

384

12 Processus de coagulation et fragmentation

10. R. Drake. A general mathematical survey of the coagulation equation. Int. Rev. Aerosol Phys. Chem., 3 : 201–376, 1972. 11. E. Allen et P. Bastien On coagulation and the stellar mass function. Astrophys. J., 452 : 652–670, 1995. 12. A. Eibeck et W. Wagner. Stochastic particle approximations for Smoluchowski’s coagulation equation. Ann. Appl. Probab., 11(4) : 1137–1165, 2001. 13. M.H. Ernst. Exact solutions of the nonlinear Boltzmann equation and related kinetic equations. In Nonequilibrium phenomena, I, volume 10 de Stud. Statist. Mech., pages 51–119. North-Holland, Amsterdam, 1983. 14. I. Jeon. Existence of gelling solutions for coagulation-fragmentation equations. Comm. Math. Phys., 194(3) : 541–567, 1998. 15. B. Jourdain. Nonlinear processes associated with the discrete Smoluchowski coagulation-fragmentation equation. Markov Process. Related Fields, 9(1) : 103–130, 2003. 16. A. Lushnikov. Evolution of coagulating systems. J. Colloid Interface Sci., 45 : 549–556, 1973. 17. A.H. Marcus. Stochastic coalescence. Technometrics, 10 : 133–143, 1968. 18. J.R. Norris. Smoluchowski’s coagulation equation : uniqueness, nonuniqueness and a hydrodynamic limit for the stochastic coalescent. Ann. Appl. Probab., 9(1) : 78–109, 1999. 19. J. Seinfeld. Atmospheric Chemistry and Physics of Air Pollution. Wiley, 1986. 20. J. Silk et T. Takahashi. A statistical model for the initial stellar mass function. Astrophys. J., 229 : 242–256, 1979. 21. J. Silk et S. White. The development of structure in the expanding universe. Astrophys. J., 228 : L59–L62, 1978. 22. M. Smoluchowski. Drei vortr¨ age u ¨ber diffusion, brownsche bewegung und koagulation von kolloidteilchen. Phys. Z., 17 : 557–585, 1916. 23. S. Tavar´e. Line-of-descent and genealogical processes, and their applications in population genetics models. Theoret. Population Biol., 26(2) : 119–164, 1984. 24. G. Wetherill. Comparison of analytical and physical modeling of planetisimal accumulation. Icarus, 88 : 336–354, 1990.

Troisi` eme partie

Appendice

A Rappels de probabilit´ es

Cet appendice rappelle les d´efinitions et ´enonce sans d´emonstration les r´esultats enseign´es dans un cours d’initiation aux probabilit´es en premi`ere ann´ee d’´ecole d’ing´enieur ou en troisi`eme ann´ee du cycle Licence. On peut trouver les d´emonstrations de ces r´esultats dans les ouvrages g´en´eraux [2, 6 et 7] ou les ouvrages plus sp´ecialis´es [1, 3 et 4].

A.1 Variables al´ eatoires A.1.1 Espace de probabilit´ e D´ efinition A.1.1. Soit Ω un ensemble. Un sous-ensemble A de l’ensemble P(Ω) des parties de Ω est une tribu si – ∅, Ω ∈ A. – A est stable par passage au compl´ementaire : si A ∈ A, alors Ac ∈ A. – A est stable par r´eunion et intersection d´enombrables : si pour tout : i ∈ N, Ai ∈ A alors i∈N Ai et i∈N Ai sont dans A.

Exemple A.1.2. – P(Ω) est une tribu appel´ee tribu discr`ete. – On appelle tribu bor´elienne de Rd , et on note B(Rd ), la plus petite tribu contenant tous les ouverts de Rd . Comme l’intersection d’une famille quelconque de tribus est une tribu, B(Rd ) s’obtient comme l’intersection de toutes les tribus contenant les ouverts de Rd . ♦ D´ efinition A.1.3. Soit Ω un ensemble muni d’une tribu A. On appelle probabilit´e sur (Ω, A) une application P : A → [0, 1] qui v´erifie les deux propri´et´es suivantes : – P(Ω) = 1, – Pour toute famille (Ai )i∈I d´enombrable d’´el´ements disjoints de A,

388

A Rappels de probabilit´es

9   P Ai = P(Ai ) (propri´et´e appel´ee σ-additivit´e). i∈I

i∈I

Le triplet (Ω, A, P) s’appelle un espace de probabilit´e. Exemple A.1.4. Si E est un ensemble fini, on appelle probabilit´e uniforme sur (E, P(E)) la probabilit´e P qui a` A ∈ P(E) associe P(A) = Card (A)/Card (E). ♦ Remarque A.1.5. La propri´et´e de σ-additivit´e implique la propri´et´e de monotonie suivante : si (An , n ∈ N) est une suite d’´el´ements de A croissante au sens o` u pour tout n ∈ N, An ⊂ An+1 , alors  9 An = lim ր P(An ). P n∈N

n→+∞

♦ A.1.2 Variables al´ eatoires D´ efinition A.1.6. Soit F et G deux ensembles munis respectivement d’une tribu F et d’une tribu G. Une application f : F → G est dite mesurable de (F, F) dans (G, G) si pour tout B ∈ G, l’image r´eciproque f −1 (B) de B par f appartient ` a F.

Exemple A.1.7. Toute application continue de Rd dans Rk est mesurable ♦ de (Rd , B(Rd )) dans (Rk , B(Rk )).

D´ efinition A.1.8. Soit Ω muni d’une tribu A. On appelle variable al´eatoire ` valeurs dans Rd toute application X mesurable de (Ω, A) dans (Rd , B(Rd )). a Lorsque d = 1, on parle de variable al´eatoire r´eelle. Exemple A.1.9. Si A ∈ A, la fonction 1A d´efinie par  1 si ω ∈ A, ∀ω ∈ Ω, 1A (ω) = 0 sinon, est une variable al´eatoire r´eelle.



Remarque A.1.10. Comme la compos´ee de deux applications mesurables est mesurable, si X est une variable al´eatoire a` valeurs dans Rd , et f une application mesurable de (Rd , B(Rd )) dans (Rk , B(Rk )), alors Y = f (X) est ♦ une variable al´eatoire `a valeurs dans Rk . A.1.3 Esp´ erance D´esormais on suppose que l’on s’est donn´e un espace de probabilit´e (Ω, A, P). Les variables al´eatoires que l’on consid`ere sont d´efinies sur (Ω, A).

A.1 Variables al´eatoires

389

Cas des variables al´ eatoires positives D´ efinition A.1.11. – On appelle variable al´eatoire positive une application X de Ω dans R ∪ {+∞} telle que pour tout B dans la plus petite tribu contenant B(R) et {+∞}, X −1 (B) ∈ A et telle que P(X ∈ R+ ∪ {+∞}) = 1. – Si une variable al´eatoire positive X prend un nombre fini de valeurs u P(X ∈ {x1 , . . . , xk }) = 1, on {x1 , . . . , xk } ⊂ R+ ∪ {+∞} au sens o` d´efinit son esp´erance par E[X] =

k 

xi P(X = xi ).

i=1

Remarque A.1.12. La notion d’esp´erance formalise l’id´ee de valeur moyenne. Elle prolonge ´egalement la notion de probabilit´e car pour tout A ∈ A, ♦ E[1A ] = P(A). On ´etend l’esp´erance `a toute variable al´eatoire X positive en «approchant» X par la suite croissante (Xn , n ∈ N∗ ) o` u, pour n ∈ N∗ , Xn =

n n2 −1 

k=0

k + n1{X≥n} 1 k k+1 2n { 2n ≤X< 2n }

prend un nombre fini de valeurs. La variable al´eatoire Xn a pour esp´erance E[Xn ] =

n n2 −1 

k=0

k P 2n



k k+1 ≤X< n 2 2n



+ nP(X ≥ n).

La suite (E[Xn ], n ∈ N∗ ) est croissante et on d´efinit l’esp´erance de X par E[X] = lim E[Xn ]. n→∞

L’esp´erance de X peut ˆetre ´egale `a +∞. C’est le cas par exemple si P(X = +∞) > 0 puisqu’alors pour tout n ∈ N∗ , E[Xn ] ≥ nP(X = +∞). Par contrapos´ee, une variable al´eatoire positive d’esp´erance finie est finie avec probabilit´e 1. Il est facile de v´erifier que si deux variables al´eatoires positives X et Y sont telles que P(X ≤ Y ) = 1 alors pour tout n ∈ N∗ , E[Xn ] ≤ E[Yn ] ce qui implique que E[X] ≤ E[Y ] (propri´et´e de croissance). Cas des variables al´ eatoires de signe quelconque Pour x ∈ R, on pose x+ = max(x, 0) et x− = max(−x, 0). Notons que x = x+ − x− et que max(x+ , x− ) = |x|.

390

A Rappels de probabilit´es

D´ efinition A.1.13. Une variable al´eatoire r´eelle X est dite int´egrable si E[|X|] < +∞. Dans ce cas, E[X + ] < +∞ et E[X − ] < +∞ et on d´efinit l’esp´erance de X par E[X] = E[X + ] − E[X − ]. Le th´eor`eme suivant regroupe des propri´et´es importantes de l’esp´erance. Th´ eor` eme A.1.14. 1. L’esp´erance est lin´eaire : si X et Y sont deux variables al´eatoires r´eelles int´egrables alors pour tout λ ∈ R, X + λY est int´egrable et E[X + λY ] = E[X] + λE[Y ]. 2. Si Y est une variable al´eatoire r´eelle int´egrable, alors toute variable al´eatoire r´eelle X telle que P(|X| ≤ Y ) = 1 est int´egrable.

3. L’esp´erance est croissante : si X et Y sont deux variables al´eatoires r´eelles int´egrables telles que P(X ≤ Y ) = 1, alors E[X] ≤ E[Y ]. A.1.4 Convergence des esp´ erances

D´ efinition A.1.15. Une suite (Xn , n ∈ N∗ ) de variables al´eatoires r´eelles converge presque sˆ urement (p.s.) vers une variable al´eatoire r´eelle X si et seulement si P (limn→∞ Xn = X) = 1. urement vers X, on est souLorsque (Xn , n ∈ N∗ ) converge presque sˆ vent confront´e `a la question naturelle de savoir si (E[Xn ], n ∈ N∗ ) converge vers E[X]. Les th´eor`emes suivants ´enoncent des conditions sous lesquelles la r´eponse est affirmative. Comme l’esp´erance d’une variable al´eatoire positive X a ´et´e introduite comme la limite des esp´erances de variables al´eatoires Xn qui croissent vers X lorsque n tend vers l’infini, le r´esultat suivant est naturel. Th´ eor` eme A.1.16 (Convergence monotone). Soit (Xn , n ∈ N∗ ) une suite de variables al´eatoires positives croissante au sens o` u pour tout n ∈ N∗ , ≤ X ) = 1. Alors on a P(Xn n+1

E lim ր Xn = lim ր E[Xn ], n→∞

n→∞

o` u les deux membres peuvent prendre simultan´ement la valeur +∞. On en d´eduit le r´esultat suivant.

Corollaire A.1.17 (Lemme de Fatou). Soit (Xn , n ∈ N∗ ) une suite de variables al´eatoires positives. On a :

E lim inf Xn ≤ lim inf E[Xn ]. n→∞

n→∞

A.1 Variables al´eatoires

391

Th´ eor` eme A.1.18 (Convergence domin´ ee). Soit Y une variable al´eatoire positive telle que E[Y ] < ∞ et (Xn , n ∈ N∗ ) une suite de variables al´eatoires r´eelles domin´ees par Y au sens o` u pour tout n ∈ N∗ , P(|Xn | ≤ Y ) = 1. Si la ∗ urement vers X, alors X est int´egrable suite (Xn , n ∈ N ) converge presque sˆ et lim E[|X − Xn |] = 0, n→+∞

ce qui implique en particulier que E[X] = lim E[Xn ]. n→+∞

A.1.5 Ind´ ependance D´ efinition A.1.19. a valeurs respectives dans Rd1 , . . . , Rdn 1. Des variables al´eatoires X1 , . . . , Xn ` sont dites ind´ependantes si pour toutes fonctions fi : Rdi → R mesurables et born´ees   n n   E[fi (Xi )]. (A.1) fi (Xi ) = E i=1

i=1

2. Une famille quelconque de variables al´eatoires est dite ind´ependante si toute sous-famille finie est ind´ependante.

ependantes Remarque A.1.20. Si les variables al´eatoires X 1 , . . . , Xn sont ind´ n et si fi (Xi ) est int´egrable pour 1 ≤ i ≤ n, alors i=1 fi (Xi ) est int´egrable et (A.1) reste vraie. ♦

Proposition A.1.21. Soit X et Y deux variables al´eatoires ind´ependantes ` a valeurs respectives dans Rd et Rk et f : Rd+k → R une fonction mesurable telle que pour tout x dans Rd , f (x, Y ) est int´egrable d’esp´erance ψ(x). Alors la fonction ψ est mesurable. En outre, si f (X, Y ) est int´egrable, ψ(X) est ´egalement int´egrable et E[f (X, Y )] = E[ψ(X)]. A.1.6 Variance D´ efinition A.1.22. – Une variable al´eatoire r´eelle X est dite de carr´e int´egrable si X 2 est int´egrable (ce qui implique que X est int´egrable). On d´efinit alors sa variance not´ee Var(X) par # " Var(X) = E[X 2 ] − (E[X])2 = E (X − E[X])2 .

– Soit X, Y deux variables al´eatoires r´eelles de carr´e int´egrable. On d´efinit leur covariance not´ee Cov(X, Y ) par Cov(X, Y ) = E[XY ] − E[X]E[Y ] = E[(X − E[X])(Y − E[Y ])].

392

A Rappels de probabilit´es

– Pour X = (X1 , . . . , Xd ) une variable al´eatoire a ` valeurs dans Rd dont les coordonn´ees sont int´egrables, on appelle esp´erance de X et on note E[X] le vecteur dont les coordonn´ees sont les esp´erances des coordonn´ees de X. Lorsque les coordonn´ees de X sont de carr´e int´egrable, on appelle matrice de covariance de X et on note Cov(X, X) la matrice sym´etrique positive Σ = (Σij , 1 ≤ i, j ≤ d) d´efinie par Σij = Cov(Xi , Xj ), 1 ≤ i, j ≤ d. Remarque A.1.23. – On appelle ´ecart-type d’une variable al´eatoire r´eelle la racine carr´ee de sa variance. – La variance et l’´ecart-type d’une variable al´eatoire r´eelle X mesurent l’´etalement de cette variable al´eatoire autour de son esp´erance. En particulier, l’in´egalit´e de Bienaym´e-Tchebychev permet de majorer la probabilit´e pour que X diff`ere de E[X] de plus de a ∈ R∗+ en fonction de Var(X) : Var(X) . (A.2) P(|X − E[X]| ≥ a) ≤ a2 – Si X et Y sont des variables al´eatoires r´eelles int´egrables ind´ependantes, alors on a Cov(X, Y ) = 0. – Si X et Y sont de carr´e int´egrable alors XY est int´egrable et on a l’in´egalit´e de Cauchy-Schwarz   |E[XY ]| ≤ E[X 2 ] × E[Y 2 ]. ♦

Proposition A.1.24. Soit X1 , . . . , Xn des variables al´eatoires r´eelles de carr´e int´egrable et S = X1 + · · · + Xn leur somme. Alors S est de carr´e int´egrable et Var(S) =

n 

Var(Xi ) + 2

i=1



Cov(Xi , Xj ).

1≤j 0, si ∀k ∈ N, P(X = k) = e−θ

θk , k!

– g´ eom´ etrique de param` etre p, o` u p ∈ ]0, 1], si ∀k ∈ N∗ , P(X = k) = p(1 − p)k−1 . Remarque A.2.6. On rappelle que la loi binomiale de param`etre (n, p) est la loi de la somme de n variables de Bernoulli de param`etre p ind´ependantes et que la loi g´eom´etrique de param`etre p est la loi du temps de premier succ`es dans une suite d’exp´eriences al´eatoires ind´ependantes avec mˆeme probabilit´e de succ`es p. ♦ Le tableau A.1 rappelle la fonction g´en´eratrice, l’esp´erance, la variance et la fonction caract´eristique de chacune de ces lois (pour retrouver l’esp´erance et la variance des lois g´eom´etrique et de Poisson, on peut commencer par calculer leur fonction g´en´eratrice et utiliser le th´eor`eme A.2.4). Remarque A.2.7. La transform´ee de Laplace d’une variable al´eatoire enti`ere X est reli´ee `a sa fonction g´en´eratrice de moments GX (s) par l’´egalit´e " # ∀α ≥ 0, E e−αX = GX (e−α ).

Si par exemple, X suit la loi g´eom´etrique de param`etre p ∈]0, 1], on a pour # " p e−α . ♦ α ≥ 0, E e−αX = 1 − (1 − p) e−α D´ efinition A.2.8. Soit n, k ∈ N∗ et (p1 , . . . , pk ) ∈ [0, 1]k tels que p1 + a valeurs · · · + pk = 1. On dit que la variable al´eatoire X = (X1 , . . . , Xk ) ` dans Nk suit la loi multinomiale de param`etre (n, p1 , . . . , pk ) si pour tout x = (x1 , . . . , xk ) dans {0, . . . , n}k , P(X = x) = 1{x1 +...+xk =n}

n! px1 · · · pxkk . x1 ! · · · xk ! 1

396

A Rappels de probabilit´es

Tableau A.1. Fonction g´en´eratrice, esp´erance, variance et fonction caract´eristique des lois discr`etes usuelles Loi

fonction g´en´eratrice esp´erance variance fonction caract´eristique GX (s) E[X] Var(X) ψX (u)

Bernoulli p

1 − p + ps

p

p(1 − p)

1 − p + p eiu

binomiale (n, p)

(1 − p + ps)n

np

np(1 − p)

(1 − p + p eiu )n

Poisson θ

eθ(s−1)

θ

θ

g´eom´etrique p

ps 1 − (1 − p)s

1 p

1−p p2

eθ(e

iu

−1)

p eiu 1 − (1 − p) eiu

Remarque A.2.9. – La loi multinomiale de param`etre (n, p1 , . . . , pk ) est la loi du vecteur constitu´e des nombres d’objets dans les boˆıtes d’indices 1, . . . , k lorsque n objets sont rang´es ind´ependamment dans ces boites suivant la probabilit´e (p1 , . . . , pk ). – Si X = (X1 , . . . , Xk ) suit la loi multinomiale de param`etre (n, p1 , . . . , pk ) alors pour i ∈ {1, . . . , k}, Xi suit la loi binomiale de param`etre (n, pi ). Comme X1 + · · · + Xk = n, les variables Xi ne sont pas ind´ependantes. ♦ A.2.2 Lois ` a densit´ e usuelles D´ efinition A.2.10. On dit que la variable al´eatoire X ` a valeurs dans Rd d poss`ede la densit´e p o` u p : R → R est une fonction mesurable positive d’int´egrale 1 si ∀f : Rd → R mesurable born´ee, E[f (X)] =

f (x)p(x)dx. Rd

D´ efinition A.2.11. On dit que la variable al´eatoire r´eelle X suit la loi – uniforme sur [a, b], o` u a < b ∈ R, si X poss`ede la densit´e p(x) =

1 1{a≤x≤b} , b−a

A.2 Lois usuelles

397

– exponentielle de param` etre λ, o` u λ > 0, si X poss`ede la densit´e p(x) = λ e−λx 1{x>0} , – de Cauchy de param` etre a, o` u a > 0, si X poss`ede la densit´e p(x) =

a , π(x2 + a2 )

– gaussienne ou normale de param` etre (m, σ 2 ) not´ ee N (m, σ 2 ), o` u m ∈ R et σ > 0, si X poss`ede la densit´e p(x) =

(x−m)2 1 √ e− 2σ2 , σ 2π

– gamma de param` etre (λ, α) o` u λ, α > 0 si X poss`ede la densit´e p(x) =

λα α−1 −λx x e 1{x>0} Γ (α)

o` u

+∞

xα−1 e−x dx,

Γ (α) =

(A.5)

0

– b´ eta de param` etre (a, b) o` u a, b > 0 si X poss`ede la densit´e p(x) =

Γ (a + b) a−1 x (1 − x)b−1 1{0 0, on a lim P(|Xn − X| > ε) = 0

n→∞

o` u |Xn − X| d´esigne la norme euclidienne de Xn − X. Exemple A.3.2. Soit (Xn , n ∈ N∗ ) une suite de variables al´eatoires de Bernoulli avec Xn de param`etre pn . Si lim pn = 0, alors la suite converge en n→∞

probabilit´e vers 0. En effet, pour tout ε ∈]0, 1[, on a P(|Xn | > ε) = pn .



Proposition A.3.3. La convergence presque sˆ ure entraˆıne la convergence en probabilit´e. D´ efinition A.3.4. On dit qu’une suite de variables al´eatoires (Xn , n ∈ N∗ ) a valeurs dans Rd si pour toute a valeurs dans Rd converge en loi vers X ` ` d fonction g : R → R continue et born´ee, on a lim E [g(Xn )] = E [g(X)] .

n→∞

On dit alors ´egalement que la suite des lois des variables Xn converge ´etroitement vers la loi de X. Dans le cas o` u X suit la loi gaussienne en dimension d de param`etre (m, Σ), on note Loi

Xn −−−−→ N (0, Σ). n→∞

A.3 Convergence et th´eor`emes limites

401

% n−1 1 . Alors la Exemple A.3.5. Soit Xn de loi uniforme sur 0, , · · · , n n ∗ suite (Xn , n ∈ N ) converge en loi vers U de loi uniforme sur [0, 1]. En effet, si g est continue born´ee, on d´eduit de la convergence des sommes de Riemann que n−1   1 k −→ g g(x) dx = E[g(U )]. E[g(Xn )] = n n n→∞ [0,1] $

k=0



On peut ´etendre la convergence des esp´erances `a des fonctions discontinues. Proposition A.3.6. Soit (Xn , n ∈ N∗ ) une suite de variables al´eatoires a ` valeurs dans Rd qui converge en loi vers X. Soit h : Rd → R une fonction mesurable born´ee et C l’ensemble de ses points de continuit´e. Si P(X ∈ C) = 1, alors on a

lim E [h(Xn )] = E [h(X)].

n→∞

On en d´eduit le corollaire suivant. Corollaire A.3.7. Soit (Xn , n ∈ N∗ ) une suite de variables al´eatoires a ` valeurs dans Rd qui converge en loi vers X. Soit h : Rd → R une fonction mesurable. On note C l’ensemble des points o` u elle est continue. Si P(X ∈ C) = 1, alors la suite de variables al´eatoires (h(Xn ), n ∈ N∗ ) converge en loi vers h(X). La convergence en loi est ´equivalente a` la convergence ponctuelle des fonctions caract´eristiques, r´esultat tr`es utile en pratique. ` valeurs Th´ eor` eme A.3.8. Une suite (Xn , n ∈ N∗ ) de variables al´eatoires a dans Rd converge en loi vers X si et seulement si ∀u ∈ Rd , ψXn (u) −→ ψX (u). n→∞

Pour des variables al´eatoires r´eelles positives, on peut ´egalement caract´eriser la convergence en loi `a l’aide de la transform´ee de Laplace. Th´ eor` eme A.3.9. Une suite (Xn , n ∈ N∗ ) de variables al´eatoires r´eelles positives converge en loi vers X si et seulement si # # " " ∀α ≥ 0, E e−αXn −→ E e−αX . n→∞

Proposition A.3.10. La convergence en probabilit´e implique la convergence en loi. Ainsi la convergence presque sˆ ure entraˆıne la convergence en probabilit´e qui elle-mˆeme implique la convergence en loi. Les r´eciproques sont fausses en g´en´eral. Signalons la r´eciproque partielle suivante.

402

A Rappels de probabilit´es

Proposition A.3.11. Si la suite de variables al´eatoires (Xn , n ∈ N∗ ) converge en loi vers une constante a, alors elle converge ´egalement en probabilit´e vers a. Le r´esultat suivant est tr`es utile pour construire des intervalles de confiance. Th´ eor` eme A.3.12 (Th´ eor` eme de Slutsky). Soit (Xn , n ∈ N∗ ) une suite de variables al´eatoires a ` valeurs dans Rd1 qui converge en loi vers X et ∗ ` valeurs dans Rd2 qui converge (Yn , n ∈ N ) une suite de variables al´eatoires a en loi vers une constante a. Alors la suite ((Xn , Yn ), n ∈ N∗ ) converge en loi vers (X, a). A.3.2 Loi forte des grands nombres Th´ eor` eme A.3.13 (Loi forte des grands nombres). Soit (Xn , n ∈ N∗ ) une suite de variables al´eatoires r´eelles ou vectorielles ind´ependantes, de mˆeme loi et int´egrables ( E[|X1 |] < ∞). Alors on a n

 p.s. ¯n = 1 X Xk −−−−→ E[X1 ]. n→∞ n k=1

# " ¯ n − E[X1 ] = 0. En outre, lim E X n→∞

On en d´eduit le corollaire suivant.

Corollaire A.3.14. Soit (Xn , n ∈ N∗ ) une suite de variables al´eatoires ¯n = positives, ind´ependantes et de mˆeme loi. Alors la moyenne empirique X n 1 urement vers E[X1 ] ∈ [0, ∞] quand n tend vers k=1 Xk converge presque sˆ n l’infini. A.3.3 Th´ eor` eme central limite Le th´eor`eme central limite (TCL) pr´ecise la vitesse de convergence de la loi forte des grands nombres. Th´ eor` eme A.3.15 (Th´ eor` eme central limite). Soit (Xn , n ∈ N∗ ) une suite de variables al´eatoires r´eelles ind´ependantes de mˆeme loi et de carr´e int´en 1 2 2 ¯ Xk . grable ( E[Xn ] < ∞). On pose µ = E[Xn ], σ = Var(Xn ) et Xn = n k=1 √ ¯ La suite de variables al´eatoires ( n[Xn − µ], n ∈ N∗ ) converge en loi vers une variable al´eatoire de loi gaussienne N (0, σ 2 ) : n √ Xk − nµ Loi ¯ n − µ] = k=1√ −−−−→ N (0, σ 2 ). n[X n→∞ n Ce r´esultat admet la version vectorielle suivante.

A.3 Convergence et th´eor`emes limites

403

Proposition A.3.16. Soit (Xn , n ∈ N∗ ) une suite de variables al´eatoires a ` 2 valeurs dans Rd ind´ependantes, de mˆeme loi et de carr´e int´egrable ( E[|Xn | ] < de covariance de Xn . ∞). Soit µ = E[Xn ] et Σ = Cov(X √ n¯, Xn ) la matrice ∗ ¯ n = 1 n X k , uX La suite de variables al´eatoires ( n(X n − µ), n ∈ N ), o` k=1 n converge en loi vers un vecteur gaussien de loi N (0, Σ) : √

Loi

¯ n − µ) −−−−→ N (0, Σ). n(X n→∞

¯n) On peut ´egalement pr´eciser le comportement asymptotique de g(X lorsque la fonction g a de bonnes propri´et´es. Proposition A.3.17. Soit (Xn , n ∈ N∗ ) une suite de variables al´eatoires ind´ependantes et de mˆeme loi, a ` valeurs dans Rd . On suppose que Xn est de carr´e int´egrable. On note µ = E[Xn ] sa moyenne et Σ = Cov(Xn , Xn ) sa matrice de covariance. Soit g une fonction de Rd dans Rp mesurable. On suppose de plus que g est continue et diff´erentiable en µ. Sa diff´erentielle au ∂g (µ) de taille p × d d´efinie par : point µ est la matrice ∂x′ ∂gi ∂g (µ) ; (µ)i,j = ′ ∂x ∂xj On notera

1 ≤ i ≤ p,

1 ≤ j ≤ d.

∂g ′ (µ) sa transpos´ee. On a alors ∂x p.s.

¯ n ) −−−−→ g(µ) g(X n→∞

n

et

# √ " ¯ n ) − g(µ) −−Loi n g(X −−→ N (0, V ), n→∞

 ∂g ′ ∂g ¯n = 1 (µ). o` uX (µ) Σ Xk d´esigne la moyenne empirique et V = ′ n ∂x ∂x k=1

A.3.4 Intervalles de confiance e int´egraSoit (Xn , n ∈ N∗ ) une suite de variables al´eatoires r´eelles de carr´ ¯ n = 1 n Xk la ble ind´ependantes et identiquement distribu´ees. On note X k=1 n moyenne empirique et on pose µ = E[Xn ], σ 2 = Var(Xn ). Comme la loi gaussienne est une loi `a densit´e, elle ne charge pas les points de discontinuit´e de la fonction indicatrice 1[−aσ,aσ] . Apr`es avoir remarqu´e que   ! " # √ aσ ¯ aσ ¯ ¯ E 1[−aσ,aσ] ( n[Xn − µ]) = P µ ∈ Xn − √ , Xn + √ , n n

on d´eduit du th´eor`eme central limite A.3.15 et de la proposition A.3.6 le corollaire suivant.

404

A Rappels de probabilit´es

Corollaire A.3.18. Soit (Xn , n ∈ N∗ ) une suite de variables al´eatoires r´eelles ind´ependantes, identiquement distribu´ ees et de carr´e int´egrable. On pose µ = ¯ n = 1 n Xk . Alors, pour a > 0, on a E[Xn ], σ 2 = Var(Xn ) et X k=1 n !   a 2 aσ aσ ¯ dx ¯ e−x /2 √ . −→ P µ ∈ Xn − √ , Xn + √ n→∞ n n 2π −a Si l’on d´esire donner une approximation de µ, a` l’aide  de la moyenne empi! aσ ¯ aσ ¯ ¯ rique Xn , on peut fournir un intervalle al´eatoire In = Xn − √ , Xn + √ n n qui contient la valeur de la moyenne, µ, avec une probabilit´e asymptotique α = P(|Z| ≤ a), o` u Z suit la loi N (0, 1). L’intervalle In est appel´e intervalle de confiance pour µ de niveau asymptotique α. Les valeurs les plus couramment utilis´ees sont α = 95 % avec a ≃ 1.96 et α = 99 % avec a ≃ 2.58. En g´en´eral, quand on d´esire estimer la moyenne µ, on ne connaˆıt pas la variance σ 2 . Il faut donc remplacer σ dans l’intervalle de confiance par une estimation. Comme σ 2 = E[X 2 ] − E[X]2 , on d´eduit de la loi forte des grands nombres que la suite (σn2 , n ∈ N∗ ), d´efinie par n

σn2 =

1 2 ¯ n2 , Xk − X n k=1

2

converge p.s. vers σ . √ ¯ 2 ∗ Le th´eor`eme de Slutsky A.3.12 assure que (( n(X n − µ), σn ), n ∈ N ) 2 u Z est de converge en loi vers (σZ, σ ), o`  loi gaussienne centr´ee r´eduite N (0, 1). Enfin, la fonction f (x, y) = x/ |y| si y = 0 et f (x, y) = 0 sinon, admet R × R∗+ comme ensemble de points de continuit´e. Si σ 2 > 0, on a P((σZ, σ 2 ) ∈ R × R∗+ ) = 1. On d´eduit donc du corollaire A.3.7, que la suite (f (Xn , Yn ), n ∈ N∗ ) converge en loi vers Z qui a pour loi N (0, 1). En particulier, une nouvelle utilisation de la proposition A.3.6, avec la fonction h(r) = 1[−a,a] (r), assure que si σ = 0, !   a 2 dx ¯ n + aσ ¯ n − aσ √n,X √n e−x /2 √ . −→ P µ∈ X n→∞ n n 2π −a Ainsi pour n grand, la moyenne  ! µ appartient a` l’intervalle de confiance aσ aσ n n ¯n − √ , X ¯n + √ al´eatoire X avec une probabilit´e proche du niveau n n asymptotique α = P(|Z| ≤ a). On peut de la validit´e de l’intervalle de confiance :  enfin  se poser la question! aσn ¯ aσn ¯ on a P µ ∈ Xn − √ , Xn + √ ≃ P(|Z| ≤ a), mais quelle est la n n pr´ecision de cette approximation ? Le r´esultat suivant apporte une r´eponse a cette question. ` Th´ eor` eme A.3.19 (Th´ eor` eme de Berry-Ess´ een). Soit (Xn , n ∈ N∗ ) une suite de variables al´eatoires r´eelles ind´ependantes et identiquement

R´ef´erences

405

3

distribu´ees. On suppose E[|Xn | ] < ∞. On note µ = E[Xn ], σ 2 = Var(Xn ) et 3 µ3 = E[|Xn − µ| ]. Alors pour tout a ∈ R, n ≥ 1, on a   a ¯n − µ √ X Cµ −x2 /2 dx P √ ≤ 3 √3 , ≤a − n e (A.6) σ σ n 2π −∞

o` u la constante C est universelle (i.e. ind´ependante de a et de la loi de X1 ) avec (2π)−1/2 ≤ C < 0.8.

On connaˆıt de meilleures majorations si a est grand. En effet, on peut alors remplacer C par C(a), o` u lim|a|→∞ C(a) = 0. Enfin, la majoration (A.6) reste vraie si l’on remplace σ dans le membre de gauche par son estimation σn , avec une autre constante universelle C ′ rempla¸cant C. Si le rapport µ3 /σ 3 (ou une approximation de µ3 /σ 3 ) est ´elev´e, cela sugg`ere que la convergence du th´eor`eme central limite peut ˆetre lente. Par exemple, pour des variables de Bernoulli de param`etre p, le rapport est ´equivalent √ a 1/ p lorsque p tend vers 0. Dans ce cas, il est plus judicieux d’utiliser ` l’approximation donn´ee par la loi des petits nombres (voir le paragraphe 6.3.1) et non pas la loi forte des grands nombres et le TCL. Enfin remarquons que la majoration du th´eor`eme A.3.19 est ind´ependante de la loi des variables (la constante C est universelle). Elle est dans bien des cas tr`es grossi`ere. Elle donne cependant le bon ordre de grandeur pour des variables de Bernoulli.

R´ ef´ erences 1. A.A. Borovkov. Mathematical statistics. Gordon and Breach Science Publishers, Amsterdam, 1998. 2. N. Bouleau. Probabilit´es de l’ing´enieur. Variables al´eatoires et simulation, volume 1418 d’Actualit´es Scientifiques et Industrielles. Hermann, Paris, 1986. 3. L. Breiman. Probability, volume 7 de Classics in Applied Mathematics. Society for Industrial and Applied Mathematics (SIAM), Philadelphia, PA, 1992. 4. P. Br´emaud. Point processes and queues. Martingale dynamics. Series in Statistics. Springer-Verlag, New York - Heidelberg - Berlin, 1981. 5. G.S. Fishman. Monte Carlo. Concepts, algorithms, and applications. Springer Series in Operations Research. Springer-Verlag, New York, 1996. 6. G.R. Grimmett et D.R. Stirzaker. Probability and random processes. Oxford University Press, New York, troisi`eme ´edition, 2001. 7. G. Saporta. Probabilit´es, Statistique et Analyse des Donn´ees. Technip, 1990. 8. B. Ycart. Mod`eles et algorithmes markoviens, volume 39 de Math´ematiques & Applications. Springer, Berlin, 2002.

B Une variante du th´ eor` eme central limite

Dans cet appendice, nous allons d´emontrer une variante du th´eor`eme central limite pour des variables al´eatoires centr´ees, mais n’ayant pas la mˆeme loi. Th´ eor` eme B.1. Soit (Xn , n ≥ 1) une suite de variables al´eatoires ind´ependantes telles que Xn3 est int´egrable pour tout n ≥ 1. On suppose de plus que : 1. E[Xn ] = 0 pour tout n ≥ 1, n  2. lim E[Xk2 ] = +∞, n→∞

k=1

n 3 E[|Xk | ] nk=1 = 0. 2 3/2 n→∞ ( l=1 E[Xl ]) n   k=1 Xk  Alors la suite , n ≥ 1 converge en loi vers une variable n ( l=1 E[Xl2 ])1/2 al´eatoire de loi gaussienne centr´ee r´eduite N (0, 1). 3. lim

Pour d´emontrer le th´eor`eme, nous aurons besoin de l’in´egalit´e de Jensen ´enonc´ee dans le lemme suivant.

Lemme B.2 (In´ egalit´ e de Jensen). Soit X une variable int´egrable a ` valeurs dans Rd , et ϕ une fonction r´eelle d´efinie sur Rd convexe et telle que ϕ(X) soit int´egrable. Alors, on a ϕ(E[X]) ≤ E[ϕ(X)]. D´emonstration du lemme B.2. Comme ϕ est une fonction convexe, pour tout a ∈ Rd , il existe λa ∈ Rd tel que pour tout x ∈ Rd ϕ(a) + (λa , x − a) ≤ ϕ(x), o` u (., .) d´esigne le produit scalaire dans Rd . En choisissant a = E[X] et x = X, on en d´eduit que ϕ(E[X]) + (λE[X] , X − E[X]) ≤ ϕ(X).

408

B Une variante du th´eor`eme central limite

En prenant l’esp´erance dans cette in´egalit´e, et en utilisant la croissance de l’esp´erance, on en d´eduit ϕ(E[X]) ≤ E[ϕ(X)]. ⊓ ⊔ D´emonstration du th´eor`eme B.1. On pose σn2 = E[Xn2 ]. En utilisant la d´efinition des fonctions caract´eristiques et l’ind´ependance des variables al´eatoires (Xn , n ∈ N∗ ), on a   n  u . ψXk n ψ n Xk (u) = 2 k=1 σ  l=1 l k=1 n 2 l=1

σ

l

Rappelons que pour y ∈ R, eiy −1 − iy + 

uXk exp i n

l=1

σl2



uXk = 1 + i  n



y2 2

l=1

σl2

3

|y|3 6 .





Donc on a

u2 X 2 n k 2 + hn (Xk ), 2 l=1 σl

u3 |X | n k2 3/2 . 6( l=1 σl ) Remarquons que hn (Xk ) est int´egrable. En prenant l’esp´erance dans l’´egalit´e ci-dessus, il vient :   u2 σ 2 u n k 2 + E[hn (Xk )]. = 1 − ψXk n 2 2 l=1 σl l=1 σl avec |hn (Xk )| ≤

En appliquant l’in´egalit´e de Jensen (voir le lemme B.2) avec la fonction ϕ(x) = 3/2 3 |x| , on obtient σk2 = E[Xk2 ] ≤ E[|Xk | ]2/3 . En particulier on a σk2

n

l=1

σl2





3

E[|X | ] n k ( l=1 σl2 )3/2

2/3

.

On d´eduit donc de l’hypoth`ese 3. du th´eor`eme que lim

σ2 sup n k

n→∞ 1≤k≤n

l=1

σl2

= 0.

(B.1)

On a ´egalement recours au lemme suivant qui se d´emontre facilement par r´ecurrence. Lemme B.3. Soit (ak , k ∈ N∗ ) et (bk , k ∈ N∗ ) des suites de nombres complexes de modules inf´erieurs a ` 1 (|ak | ≤ 1 et |bk | ≤ 1 pour tout k ∈ N∗ ). On a : n n n    |ak − bk |. b a − ≤ k k k=1

k=1

k=1

B Une variante du th´eor`eme central limite

409

u2 σ 2 Pour n assez grand tel que sup n k 2 ≤ 4, on a en utilisant ce lemme 1≤k≤n l=1 σl pour la premi`ere in´egalit´e,    n  n   u2 σk2 u 1 − n − ψXk n 2 2 2 σ σ l=1 l l=1 l k=1 k=1   n  u2 σk2 u − 1 + n ≤ ψXk n 2 2 l=1 σl2 l=1 σl =

k=1 n 

k=1 n 

|E[hn (Xk )]|

 3 u3 |Xk | n . E ≤ 2 3/2 6( l=1 σl ) k=1 

   n  n   u2 σk2 u 1 − n − ψXk n On en d´eduit que lim 2 = 0. 2 n→∞ σ 2 σ l=1 l l=1 l k=1 k=1 En utilisant le fait que log(1 − x) = −x + o(x), quand x tend vers 0, on remarque grˆ ace `a (B.1) que   n u2 σ 2  n  log 1− n k 2 2 2  k=1 u σ σ 2 l=1 l 1 − n k 2 = e 2 l=1 σl k=1

u2

converge vers e− 2 lorsque n tend vers l’infini. Comme    n n   2 2  u2 u σ u n 1 − n k 2 − ψXk n (u) − e− 2 ≤ ψ Xk 2  2 l=1 σl k=1 l=1 σl k=1 k=1 n σ2 l=1 l n    2 u2 σk2 − u2 1 − n − e + , 2 l=1 σl2 k=1

on conclut que le membre de gauche tend vers 0n lorsque n tend vers l’infini. k=1 Xk converge en loi vers D’apr`es le th´eor`eme A.3.8, cela assure que  n 2 l=1 σl une variable al´eatoire gaussienne de loi N (0, 1). ⊓ ⊔

C Fonction de r´ epartition et quantile

D´ efinition C.1. Soit X une variable al´eatoire r´eelle. On appelle fonction de r´epartition de X la fonction F : R → [0, 1] d´efinie par ∀x ∈ R, F (x) = P(X ≤ x). La proposition suivante regroupe des propri´et´es classiques de la fonction de r´epartition que nous ne d´emontrerons pas. Proposition C.2. La fonction de r´epartition F d’une variable al´eatoire r´eelle X est croissante, continue ` a droite et v´erifie lim F (x) = 0 et

x→−∞

lim F (x) = 1.

x→+∞

Ensuite, la fonction de r´epartition caract´erise la loi : si X et Y sont deux variables al´eatoires r´eelles qui ont mˆeme fonction de r´epartition, alors ∀f : R → R mesurable born´ee , E[f (X)] = E[f (Y )]. Enfin, une suite (Xn , n ∈ N∗ ) de variables al´eatoires r´eelles converge en loi vers X si et seulement si, pour tout point de continuit´e x ∈ R de la fonction de r´epartition F de X, on a Fn (x) −→ F (x), n→∞

o` u Fn d´esigne la fonction de r´epartition de Xn . Soit x ∈ R et (Xn , n ∈ N∗ ) une suite de variables al´eatoires r´eelles ind´ependantes et de mˆeme loi. D’apr`es la loi forte des grands nombres, on a p.s. n

1 1{Xk ≤x} = P(X1 ≤ x). n→∞ n lim

k=1

Le th´eor`eme suivant assure en fait que cette convergence est uniforme en x.

412

C Fonction de r´epartition et quantile

Th´ eor` eme C.3 (Glivenko-Cantelli). Soit (Xn , n ∈ N∗ ) une suite de variables al´eatoires r´eelles ind´ependantes et de mˆeme loi. On a p.s. lim sup |Fn (x) − P(X1 ≤ x)| = 0,

n→∞ x∈R

o` u Fn , d´efinie par n

1 1 Fn (x) = 1{Xk ≤x} = Card {k ∈ {1, . . . , n} : Xk ≤ x}, n n k=1

est la fonction de r´epartition empirique de l’´echantillon X1 , . . . , Xn . Pour la d´emonstration de ce r´esultat, nous renvoyons par exemple a` la r´ef´erence [1] de l’appendice A. D´ efinition C.4. – Soit X une variable al´eatoire r´eelle de fonction de r´epartition F . Pour p ∈ ]0, 1], on appelle quantile ou fractile d’ordre p de X le nombre xp = inf{x ∈ R, F (x) ≥ p} o` u par convention inf ∅ = +∞. – L’application p ∈ ]0, 1[→ xp ∈ R s’appelle l’inverse g´en´eralis´e de F . On la note F −1 : ∀p ∈ ]0, 1[, F −1 (p) = xp . Le r´esultat suivant est `a la base de la m´ethode d’inversion de la fonction de r´epartition destin´ee `a simuler des variables al´eatoires r´eelles de fonction de r´epartition F . Proposition C.5. Soit F une fonction de r´epartition et F −1 son inverse g´en´eralis´e. Alors on a l’´equivalence F (x) ≥ p ⇔ x ≥ F −1 (p).

(C.1)

En outre, si F est continue, alors ∀p ∈ ]0, 1[, F (F −1 (p)) = p.

(C.2)

Soit X une variable al´eatoire r´eelle de fonction de r´epartition F et U une variable al´eatoire de loi uniforme sur [0, 1]. Alors, la variable F −1 (U ) a mˆeme loi que X. Et si F est continue, alors F (X) suit la loi uniforme sur [0, 1]. Si la fonction F est inversible de R dans ]0, 1[, alors elle est continue sur R et l’´egalit´e (C.2) entraˆıne que l’inverse g´en´eralis´e et l’inverse co¨ıncident. L’int´erˆet de l’inverse g´en´eralis´e est qu’il reste d´efini mˆeme lorsque F n’est pas inversible soit parce que cette fonction est discontinue soit parce qu’elle est constante sur des intervalles non vides. D´emonstration. Soit p ∈]0, 1[. Nous allons d’abord v´erifier (C.1). Par d´efinition de xp = F −1 (p), il est clair que si F (x) ≥ p alors x ≥ F −1 (p). En outre, pour tout n ∈ N∗ , il existe yn ≤ F −1 (p)+ n1 tel que F (yn ) ≥ p. Par croissance de F ,

C Fonction de r´epartition et quantile

413

  on a F F −1 (p) + n1 ≥ p pour tout n ∈ N∗ . Par continuit´e `a droite de F , on en d´eduit que (C.3) ∀p ∈]0, 1[, F (F −1 (p)) ≥ p.

Avec la croissance de F , cela implique que si x ≥ F −1 (p), alors F (x) ≥ p, ce qui ach`eve la d´emonstration de (C.1). L’´equivalence (C.1) implique que pour tout x < F −1 (p), on a F (x) < p. Avec (C.3), on en d´eduit que si F est continue au point F −1 (p) alors F (F −1 (p)) = p, ce qui entraˆıne (C.2). Enfin, si X a pour fonction de r´epartition F et U est une variable al´eatoire uniforme sur [0, 1], on a d’apr`es (C.1) ∀x ∈ R, P(F −1 (U ) ≤ x) = P(U ≤ F (x)) = F (x). Les variables X et F −1 (U ) ont mˆeme fonction de r´epartition. Elles ont donc mˆeme loi. Par cons´equent, F (X) a mˆeme loi que F (F −1 (U )), variable al´eatoire qui est ´egale `a U avec probabilit´e 1 lorsque F est continue d’apr`es (C.2). ⊓ ⊔

D Convergence en variation sur un espace discret

Soit ν = (ν(x), x ∈ E) une mesure sign´ee (ou vecteur) sur E, espace d´enombrable, muni  de la topologie discr`ete. La norme en variation de ν est d´efinie par ν = 12 x∈E |ν(x)|. Cela correspond a` la moiti´e de la norme L1 de ν vu comme vecteur de RE . D´ efinition D.1. On dit qu’une suite de mesures (νn , n ≥ 1) converge en variation vers ν si et seulement si limn→∞ νn − ν = 0.

` valeurs Lemme D.2. Soit (Yn , n ∈ N∗ ) une suite de variables al´eatoires a dans E. On note νn = (νn (x) = P(Yn = x), x ∈ E) la loi de Yn . Soit Y une variable al´eatoire a ` valeurs dans E de loi ν = (ν(x) = P(Y = x), x ∈ E). Il y a ´equivalence entre les trois propositions suivantes : (i) La suite (Yn , n ∈ N∗ ) converge en loi vers Y . (ii) Pour tout x ∈ E, on a lim νn (x) = ν(x). n→∞

(iii) La suite (νn , n ∈ N∗ ) converge en variation vers ν.

D´emonstration. Nous d´emontrons les implications suivantes : (i) ⇒ (ii) ⇒ (iii) ⇒ (i). On note xk , k ∈ N∗ , les ´el´ements de E. On suppose (i). Comme E est muni de la topologie discr`ete, toutes les fonctions r´eelles sur E sont continues. Donc, pour toute fonction r´eelle born´ee f d´efinie sur E, on a limn→∞ E[f (Yn )] = E[f (Y )]. En prenant f (y) = 1{y=xk } , on obtient que pour tout k ∈ N∗ , lim νn (xk ) = ν(xk ).

n→∞

Donc (i) implique (ii). Montrons que (ii) implique (iii). On suppose (ii). On a alors pour K ∈ N∗ , νn − ν ≤

K 1  1 |νn (xk ) − ν(xk )| + (νn (xk ) + ν(xk )). 2 2 k=1

k≥K+1

416

D Convergence en variation sur un espace discret

Comme ν et νn sont des probabilit´es, il vient 

k≥K+1

νn (xk ) = 1 −

K 

νn (xk ) =



k∈N∗

k=1



ν(xk ) −



K 

ν(xk ) +

k≥K+1

νn (xk )

k=1 K 

k=1

|νn (xk ) − ν(xk )|.

Ainsi on a νn − ν ≤

K 

k=1

|νn (xk ) − ν(xk )| +



ν(xk ).

k≥K+1

Le second terme du membre de droite est arbitrairement petit (uniform´ement en n) pour K grand tandis qu’` a K fix´e, le premier terme tend vers 0 lorsque n tend vers l’infini. Donc limn→+∞ νn − ν = 0 et (ii) implique (iii). Il reste donc `a d´emontrer que (iii) implique (i). Cela d´ecoule de l’in´egalit´e ⊓ ⊔ |E[f (Yn )] − E[f (Y )]| ≤ 2 νn − ν supk∈N∗ |f (xk )|.

E ´ Etude d’une ´ equation diff´ erentielle ordinaire

Cet appendice est consacr´e `a l’´etude d’une ´equation diff´erentielle ordinaire a` coefficients affines. Proposition E.1. Soit T > 0, x ∈ R, et g, h : [0, T ] → R deux fonctions mesurables int´egrables sur [0, T ]. Alors l’´equation t

∀t ∈ [0, T ], f (t) = x +

t

g(s)ds + 0

h(s)f (s)ds

(E.1)

0

admet comme unique solution continue sur [0, T ] la fonction  t   t  t ϕ(t) = x exp h(r)dr + g(s) exp h(r)dr ds. 0

0

s

Remarque E.2. – Si f est une fonction mesurable born´ee sur [0, T ], alors la fonction s → g(s) + h(s)f (s), est int´egrable sur [0, T ]. Si en outre f est solution de (E.1), on en d´eduit que f est une fonction continue sur [0, T ]. Ainsi l’unicit´e reste vraie dans la classe plus large des fonctions born´ees sur [0, T ]. – Pour le choix x = 1, g ≡ 0 et h ≡ −λ [0, T ], on en  avec λ int´egrable sur  t′ t ′ λ(r)dr v´ e rifie ϕ(t ) = ϕ(t)− λ(s)ϕ(s)ds d´eduit que ϕ(t) = exp − 0 t ′ pour 0 ≤ t ≤ t ≤ T . Cette ´egalit´e est utilis´ee dans le Chap. 10 consacr´e a la fiabilit´e sous la forme `     t t′ s λ(r)dr λ(r)dr ds = exp − λ(s) exp − 0 t  0 ′ t

− exp −

λ(r)dr .

0

(E.2)

418

´ E Etude d’une ´equation diff´erentielle ordinaire

– Lorsque les fonctions g et h sont continues sur [0, T ], la d´emonstration de la proposition E.1 est ´el´ementaire. Soit en effet f une solution continue sur [0, T ]. Comme la fonction s → g(s) +h(s)f (s) est continue sur [0, T ], on d´eduit de (E.1) que la fonction f est continˆ ument d´erivable sur [0, T ] et v´erifie ∀s ∈ [0, T ], f ′ (s) = g(s) + h(s)f (s). Donc pour tout s dans [0, T ],   !  s d ′ f (s) exp − h(r)dr = (f (s) − h(s)f (s)) exp − ds 0   s h(r)dr . = g(s) exp −

s

h(r)dr 0



0

En int´

egrant cette  ´equation sur [0, t], puis en multipliant le r´esultat par t exp 0 h(r)dr , il vient f (t) = exp



t

h(r)dr 0



t

x+ 0

 g(s) exp −

s

0

  h(r)dr ds = ϕ(t).

Inversement, ϕ(t) est une fonction continˆ ument d´erivable sur [0, T ] et en d´erivant par rapport a` t son expression donn´ee dans l’´egalit´e pr´ec´edente, on obtient qu’elle satisfait (E.1). ♦ Pour d´emontrer la proposition dans le cas g´en´eral, nous utiliserons le lemme suivant qui intervient ´egalement dans le Chap. 10. Lemme E.3. Soit s ≤ t et γ une fonction mesurable positive ou int´egrable sur [s, t]. Alors pour tout n ∈ N∗ et toute permutation σ de {1, . . . , n}, on a  t n 1 γ(r)dr . γ(s1 ) . . . γ(sn )ds1 . . . dsn = n! s s≤sσ(1) ≤sσ(2) ≤...≤sσ(n) ≤t D´emonstration du lemme E.3. Par sym´etrie, la valeur I de l’int´egrale γ(s1 ) . . . γ(sn )ds1 . . . dsn s≤sσ(1) ≤...≤sσ(n) ≤t

ne d´epend pas de σ. On en d´eduit que I=

1  n!

σ∈Sn

=

1 n!

γ(s1 ) . . . γ(sn )ds1 . . . dsn s≤sσ(1) ≤...≤sσ(n) ≤t

γ(s1 ) . . . γ(sn )ds1 . . . dsn = [s,t]n

1 n!



t

γ(r)dr s

n

. ⊓ ⊔

´ E Etude d’une ´equation diff´erentielle ordinaire

419

D´emonstration de la proposition E.1. On note CT l’espace des fonctions continues sur [0, T ] et Φ : CT → CT l’application d´efinie par t

Φ(f )(t) = x +

t

g(s)ds + 0

h(s)f (s)ds. 0

Une fonction ϕ ´el´ement de CT est solution de (E.1) si et seulement si c’est un point fixe de Φ. Pour f, f˜ ∈ CT , on a pour tout t ∈ [0, T ], sup |Φ(f )(r) − Φ(f˜)(r)| ≤ r≤t

t 0

|h(s1 )| sup |f (u) − f˜(u)|ds1 . u≤s1

En it´erant cette in´egalit´e, on obtient que la compos´ee n-i`eme Φn de Φ v´erifie sup |Φn (f )(r) − Φn (f˜)(r)| r≤t



0≤sn ≤sn−1 ≤...≤s1 ≤t

≤ sup |f (u) − f˜(u)| u≤t

|h(s1 ) . . . h(sn )| sup |f (u) − f˜(u)|dsn . . . ds1 u≤sn

0≤sn ≤sn−1 ≤...≤s1 ≤t

Avec le lemme E.3, on en d´eduit que  1 n n ˜ sup |Φ (f )(r) − Φ (f )(r)| ≤ n! r≤T

|h(s1 ) . . . h(sn )|dsn . . . ds1 .

T 0

|h(s)|ds

n

sup |f (u) − f˜(u)|.

u≤T

N

 T |h(s)|ds < N !, l’application ΦN est Pour N assez grand pour que 0 contractante. Comme CT muni de la norme uniforme est un espace complet, on d´eduit du th´eor`eme de point fixe de Picard que ΦN admet un unique point fixe ϕ. Comme Φ(ϕ) = Φ(ΦN (ϕ)) = ΦN (Φ(ϕ)), on a Φ(ϕ) = ϕ i.e. ϕ est point fixe de Φ. Comme tout point fixe de Φ est point fixe de ΦN , on conclut que Φ admet ϕ comme unique point fixe, c’est-`a-dire que (E.1) admet une unique solution ϕ. Pour identifier ϕ, on ´ecrit ϕ = Φn (ϕ) c’est-`a-dire que pour tout t dans [0, T ],   n−1  ϕ(t) = x 1 + h(sk ) . . . h(s1 )dsk . . . ds1 k=1

t

+



0≤sk ≤...≤s1 ≤t

g(s) 1 + 0

n−1  k=1

h(sk ) . . . h(s1 )dsk . . . ds1 s≤sk ≤...≤s1 ≤t

+



ds

h(sn )ϕ(sn )h(sn−1 ) . . . h(s1 )dsn dsn−1 . . . ds1 , 0≤sn ≤sn−1 ≤...≤s1 ≤t

(E.3)

420

´ E Etude d’une ´equation diff´erentielle ordinaire

formule que l’on peut v´erifier par r´ecurrence sur n. D’apr`es le lemme E.3, k n−1 1  t h(s)ds et le premier terme du second membre est ´egal `a x k=0 k! 0 

 t converge vers x exp 0 h(s)ds lorsque n tend vers l’infini. Toujours d’apr`es le lemme E.3, le second terme du second membre est ´egal k k t n−1 1  t n−1 1  t a 0 g(s) k=0 k! ` converge vers h(r)dr ds. Or h(r)dr k=0 k! s s 

 t exp s h(r)dr lorsque n tend vers l’infini et n−1  1  g(s) k! k=0

t

s

k  h(r)dr ≤ |g(s)| exp

t

s

|h(r)|dr



o` u le membre de droite est int´egrable sur [0, t] par int´egrabilit´e de g et h. Le th´eor`eme de convergence domin´ee assure donc

 que le  second terme du t t second membre de (E.3) tend vers 0 g(s) exp s h(r)dr ds lorsque n tend vers l’infini. Enfin la valeur absolue dutroisi`eme terme du second membre est major´ee n t par supr≤t |ϕ(r)| 0 |h(s)|ds /n!, ce qui assure que ce terme tend vers 0. En faisant tendre n vers l’infini dans (E.3), on conclut donc que  t   t  t ∀t ∈ [0, T ], ϕ(t) = x exp h(s)ds + g(s) exp h(r)dr ds. 0

0

s

⊓ ⊔

R´ ef´ erences

1. D. Aldous. Probability approximations via the Poisson clumping heuristic, volume 77 de Applied Mathematical Sciences. Springer-Verlag, 1989. 2. D. Aldous. Deterministic and stochastic models for coalescence (aggregation and coagulation) : a review of the mean-field theory for probabilists. Bernoulli, 5(1) : 3–48, 1999. 3. E. Allen et P. Bastien On coagulation and the stellar mass function. Astrophys. J., 452 : 652–670, 1995. 4. S. Asmussen. Applied probability and queues. Wiley Series in Probability and Mathematical Statistics. John Wiley & Sons, 1987. 5. S. Asmussen et H. Hering. Branching processes. Birkha¨ user, 1983. 6. K. Athreya et P. Ney. Branching processes. Springer-Verlag, 1972. 7. T. Aven et U. Jensen. Stochastic models in reliability, volume 41 de Applications of Mathematics (New York). Springer-Verlag, New York, 1999. 8. H. Babovsky. On a Monte Carlo scheme for Smoluchowski’s coagulation equation. Monte Carlo Methods Appl., 5(1) : 1–18, 1999. ´ 9. F. Baccelli et P. Br´emaud. Elements of queueing theory, volume 26 of Applications of Mathematics. Springer-Verlag, Berlin, seconde ´edition, 2003. 10. J.M. Ball et J. Carr. The discrete coagulation-fragmentation equations : existence, uniqueness, and density conservation. J. Statist. Phys., 61(1-2) : 203– 234, 1990. 11. A. Barbour, L. Holst et S. Janson. Poisson approximation. Oxford Studies in Probability. Clarendon Press, 1992. 12. R.E. Barlow et F. Proschan. Mathematical theory of reliability, volume 17 de Classics in Applied Mathematics. Society for Industrial and Applied Mathematics (SIAM), Philadelphia, PA, 1996. 13. N. Bartoli et P. Del Moral. Simulation et algorithmes stochastiques. C´epadu`es, 2001. 14. L. Baum et T. Petrie. Statistical inference for probabilistic functions of finite state Markov chains. Ann. Math. Stat., 37 : 1554–1563, 1966. 15. J. Beirlant, Y. Goegebeur, J. Teugels et J. Segers. Statistics of extremes. Wiley Series in Probability and Statistics. John Wiley & Sons Ltd., Chichester, 2004.

422

R´ef´erences

16. R. Bellman. Dynamic programming. Princeton University Press, Princeton, N. J., 1957. 17. D.P. Bertsekas. Dynamic programming and stochastic control. Academic Press [Harcourt Brace Jovanovich Publishers], New York, 1976. Mathematics in Science and Engineering, 125. 18. D.P. Bertsekas. Dynamic Programming and Optimal Control, Vol. 1 et 2. Athena Scientific, 1995. 19. D.P. Bertsekas et S.E. Shreve. Stochastic optimal control, volume 139 de Mathematics in Science and Engineering. Academic Press Inc. [Harcourt Brace Jovanovich Publishers], New York, 1978. The discrete time case. 20. P. Bickel et K. Doksum. Mathematical statistics. Basic ideas and selected topics. Holden-Day Series in Probability and Statistics. Holden-Day, San Francisco, 1977. 21. P. Billingsley. Convergence of probability measures. John Wiley & Sons Inc., New York, 1968. 22. N. Bingham, C. Goldie et J. Teugels. Regular variation. Cambridge University Press, Cambridge, 1987. 23. A. Birolini. On the use of stochastic processes in modeling reliability problems, volume 252 de Lecture Notes in Economics and Mathematical Systems. Springer-Verlag, Berlin, 1985. 24. F. Blattner, G. Plunkett, C. Bloch, N. Perna, V. Burland, M. Riley, J. ColladoVides, J. Glasner, C. Rode, G. Mayhew, J. Gregor, N. Davis, H. Kirkpatrick, M. Goeden, D. Rose, B. Mau et Y. Shao. The complete genome sequence of Escherichia coli K-12. Science, 277 : 1453–1474, 1997. 25. J.L. Bon. Fiabilit´e des syst`emes : m´ ethodes math´ ematiques. Masson, 1995. 26. A.A. Borovkov. Ergodicity and stability of stochastic processes. John Wiley & Sons, Chichester, 1998. 27. A.A. Borovkov. Mathematical statistics. Gordon and Breach Science Publishers, Amsterdam, 1998. 28. P. Bougerol. Processus de saut et files d’attente. Cours de Maˆıtrise, Paris VI, http://www.proba.jussieu.fr/supports.php, 2002. 29. N. Bouleau. Probabilit´es de l’ing´enieur. Variables al´eatoires et simulation, volume 1418 d’Actualit´es Scientifiques et Industrielles. Hermann, Paris, 1986. 30. L. Breiman. Probability, volume 7 de Classics in Applied Mathematics. Society for Industrial and Applied Mathematics (SIAM), Philadelphia, PA, 1992. 31. P. Br´emaud. Point processes and queues. Martingale dynamics. Series in Statistics. Springer-Verlag, New York - Heidelberg - Berlin, 1981. 32. P. Br´emaud. Markov chains. Gibbs fields, Monte Carlo simulation, and queues. Springer texts in applied mathematics. Springer, 1998. 33. E. Buffet et J.V. Pul´e. 64(1–2) : 87–110, 1991.

Polymers and random graphs.

J. Statist. Phys.,

34. C. Cannings. The latent roots of certain Markov chains arising in genetics : a new approach. I. Haploid models. Advances in Appl. Probability, 6 : 260–290, 1974.

R´ef´erences

423

35. C. Cannings. The latent roots of certain Markov chains arising in genetics : a new approach. II. Further haploid models. Advances in Appl. Probability, 7 : 264–282, 1975. 36. J. Carr et F.P. da Costa. Instantaneous gelation in coagulation dynamics. Z. Angew. Math. Phys., 43(6) : 974–983, 1992. 37. R. Casella et C. Robert. Monte Carlo statistical methods. Springer texts in statistics. Springer, 1999. 38. O. Catoni. Metropolis, simulated annealing, and iterated energy transformation algorithms : theory and experiments. J. Complexity, 12(4) : 595–623, 1996. Special issue for the Foundations of Computational Mathematics Conference (Rio de Janeiro, 1997). 39. O. Catoni. Simulated annealing algorithms and Markov chains with rare transitions. In S´eminaire de probabilit´ es XXXIII, volume 1709 de Lect. Notes Math., pages 69–119. Springer, 1999. 40. K. Chung. Markov chains with stationary transition probabilities. SpringerVerlag, Berlin-Heidelberg-New York, seconde ´edition, 1967. 41. G. Churchill. Hidden Markov chains and the analysis of genome structure. Comput. Chem., 16(2) : 105–115, 1992. 42. E. C ¸ inlar. Introduction to stochastic processes. Prentice-Hall Inc., Englewood Cliffs, N.J., 1975. 43. C. Cocozza-Thivent. Processus stochastiques et fiabilit´e des syst`emes, volume 28 de Math´ematiques et Applications (SMAI). Springer-Verlag, 1997. 44. S. Coles. An introduction to statistical modeling of extreme values. Springer Series in Statistics. Springer-Verlag London Ltd., London, 2001. 45. F.P. da Costa. Existence and uniqueness of density conserving solutions to the coagulation-fragmentation equations with strong fragmentation. J. Math. Anal. Appl., 192(3) : 892–914, 1995. 46. L. de Haan. Fighting the arch-enemy with mathematics. Stat. Neerl., 44(No.2) : 45–68, 1990. 47. M. Deaconu et E. Tanr´e. Smoluchowski’s coagulation equation : probabilistic interpretation of solutions for constant, additive and multiplicative kernels. Ann. Scuola Norm. Sup. Pisa Cl. Sci. (4), 29(3) : 549–579, 2000. 48. M. Deaconu, N. Fournier et E. Tanr´e. A pure jump Markov process associated with Smoluchowski’s coagulation equation. Ann. Probab., 30(4) : 1763–1796, 2002. 49. E. Debry, B. Sportisse et B. Jourdain. A stochastic approach for the simulation of the general dynamics equation for aerosols. J. Comput. Phys., 184 : 649–669, 2003. 50. A.L.M. Dekkers et L. de Haan. On the estimation of the extreme-value index and large quantile estimation. Ann. Statist., 17(4) : 1795–1832, 1989. 51. F. Dellaert. Monte Carlo EM for data-association and its application in computer vision. PhD thesis, Carnegie Mellon (Pittsburgh, U.S.A.), 2001. 52. A.P. Dempster, N.M. Laird et D.B. Rubin. Maximum likelihood from incomplete data via the EM algoritm (with discussion). J. of the Royal Stat. Soc. B, 39 : 1–38, 1977.

424

R´ef´erences

53. R. Drake. A general mathematical survey of the coagulation equation. Int. Rev. Aerosol Phys. Chem., 3 : 201–376, 1972. 54. M. Duflo. Algorithmes stochastiques, volume 23 de Math´ematiques & Applications. Springer, Berlin, 1996. 55. M. Duflo. Random iterative models, volume 34 d’Applications of Mathematics. Springer, Berlin, 1997. 56. R. Durrett. Probability models for DNA sequence evolution. Probability and its Applications (New York). Springer-Verlag, New York, 2002. 57. A. Eibeck et W. Wagner. Stochastic particle approximations for Smoluchoski’s coagulation equation. Ann. Appl. Probab., 11(4) : 1137–1165, 2001. 58. M. El Karoui, M. Schaeffer, V. Biaudet, A. Bolotin, A. Sorokin et A. Gruss. Orientation specificity of the Lactococcus lactis Chi site. Genes to Cells, 5 : 453–461, 2000. 59. P. Embrechts, C. Klueppelberg et T. Mikosch. Modelling extremal events for insurance and finance, volume 33 d’Applications of Mathematics. Springer, Berlin, 1997. 60. A. Erlang. Solution of some problems in the theory of probabilities of significance in automatic telephone exchanges. Elektrotkeknikeren, 13, 1917. 61. M.H. Ernst. Exact solutions of the nonlinear Boltzmann equation and related kinetic equations. In Nonequilibrium phenomena, I, volume 10 de Stud. Statist. Mech., pages 51–119. North-Holland, Amsterdam, 1983. 62. W.J. Ewens. Mathematical population genetics. I, volume 27 de Interdisciplinary Applied Mathematics. Springer-Verlag, New York, seconde ´edition, 2004. Theoretical introduction. 63. M. Falk, J. H¨ usler et R.-D. Reiss. Laws of small numbers : extremes and rare events, volume 23 de DMV Seminar. Birkh¨ auser Verlag, Basel, 1994. 64. E.A. Feinberg et A. Shwartz, editors. Handbook of Markov decision processes. Methods and applications. International Series in Operations Research & Management Science. Kluwer Academic Publishers, Boston, 2002. 65. R.A. Fisher. On the dominance ratio. Proc. Roy. Soc. Edinburgh, 42 : 321–341, 1922. 66. R.A. Fisher. The genetical theory of natural selection. Clarendon Press, Oxford, 1930. 67. G.S. Fishman. Monte Carlo. Concepts, algorithms, and applications. Springer Series in Operations Research. Springer-Verlag, New York, 1996. 68. D. Forsyth et J. Ponce. Computer vision – A modern approach. Prentice Hall, 2003. 69. Y.X. Fu et W.H. Li. Maximum likelihood estimation of population parameters. Genetics, 1993. 70. O. Gascuel. Mathematics of Evolution and Phylogeny. Oxford University Press, 2005. 71. I.B. Gertsbakh. Statistical reliability theory, volume 4 de Probability : Pure and Applied. Marcel Dekker Inc., New York, 1989. 72. G.R. Grimmett et D.R. Stirzaker. Probability and random processes. Oxford University Press, New York, troisi`eme ´edition, 2001.

R´ef´erences

425

73. B. Hajek. Cooling schedules for optimal annealing. Math. Oper. Res., 13(2) : 311–329, 1988. 74. T. Harris. The theory of branching processes. Springer-Verlag, 1963. 75. W. Hastings. Monte carlo sampling methods using markov chains and their applications. Biometrika, 57 : 97–109, 1970. 76. A. Høyland et M. Rausand. System reliability theory. Wiley Series in Probability and Mathematical Statistics : Applied Probability and Statistics. John Wiley & Sons Inc., New York, 1994. 77. J. Jacod. Chaˆınes de Markov, processus de Poisson et applications. Cours de DEA, Paris VI, http://www.proba.jussieu.fr/supports.php, 2004. 78. P. Jagers. Branching processes with biological applications. Wiley, 1975. 79. I. Jeon. Existence of gelling solutions for coagulation-fragmentation equations. Comm. Math. Phys., 194(3) : 541–567, 1998. 80. B. Jourdain. Nonlinear processes associated with the discrete Smoluchowski coagulation-fragmentation equation. Markov Process. Related Fields, 9(1) : 103–130, 2003. 81. A. Kaufmann et R. Cruon. Les ph´ enom` enes d’attente. Th´eorie et applications. Dunod, Paris, 1961. 82. D. Kendall. Branching processes since 1873. J. Lond. Math. Soc., 41 : 385–406, 1966. 83. M. Kimmel et D. Axelrod. Branching Processes in Biology. Springer-Verlag, 2002. 84. J.F.C. Kingman. The coalescent. Stochastic Process. Appl., 13(3) : 235–248, 1982. 85. S. Kowalczykowski, D. Dixon, A. Eggleston, S. Lauder et W. Rehauer. Biochemistry of homologous recombination in Escherichia coli. Microbiol. Rev., 58 : 401–465, 1994. 86. J. Lacroix. Chaˆınes de Markov et processus de Poisson. Cours de DEA, Paris VI, http://www.proba.jussieu.fr/supports.php, 2002. 87. D. Lamberton et B. Lapeyre. Introduction au calcul stochastique appliqu´ e` a la ´ finance. Ellipses Edition Marketing, Paris, seconde ´edition, 1997. 88. E. Lawler, J. Lensra, A.R. Kan et D. Shmoys. The traveling salesman problem. Wiley, New-York, 1987. 89. N. Limnios. Arbres de d´efaillances. Hermes, 1991. 90. B. Liu et A.O. Esogbue. Decision criteria and optimal inventory processes. International Series in Operations Research & Management Science, 20. Kluwer Academic Publishers, Boston, MA, 1999. 91. A. Lotka. The extinction of families, i. J. Washington Acad. Sci., 21 : 377–380, 1931. 92. A. Lotka. The extinction of families, ii. J. Washington Acad. Sci., 21 : 453–459, 1931. 93. A. Lushnikov. Evolution of coagulating systems. J. Colloid Interface Sci., 45 : 549–556, 1973. 94. A.H. Marcus. Stochastic coalescence. Technometrics, 10 : 133–143, 1968.

426

R´ef´erences

95. P. Mazliak, L. Priouret et P. Baldi. Martingales et chaˆınes de Markov. Hermann, 1998. 96. G. McLachlan et T. Krishnan. The EM algorithm and extensions. Wiley Series in Probability and Mathematical Statistics. Wiley & Sons, 1997. 97. G. McLachlan et D. Peel. Finite mixture models. Wiley Series in Probability and Mathematical Statistics. Wiley & Sons, 2001. 98. N. Metropolis, A.W. Rosenbluth, M.N. Rosenbluth, E. Teller et A.H. Teller. Equation of state calculations by fast computing machines. J. Chem. Phys., 90 : 233–241, 1953. 99. S.P. Meyn et R.L. Tweedie. Markov chains and stochastic stability. SpringerVerlag, London, 1993. 100. M. M¨ ohle. Robustness results for the coalescent. J. Appl. Probab., 35(2) : 438–447, 1998. 101. M. M¨ ohle et S. Sagitov. A classification of coalescent processes for haploid exchangeable population models. Ann. Probab., 29(4) : 1547–1562, 2001. 102. P.A.P. Moran. Random processes in genetics. Proc. Cambridge Philos. Soc., 54 : 60–71, 1958. 103. P.B. Moranda. Prediction of software reliability and its applications. In Proceedings of the Annual Reliability and Maintainability Symposium, Washington D.C., pages 327–332, 1975. 104. F. Muri. Comparaison d’algorithmes d’identification de chaˆınes de Markov cach´ees et application a ` la d´etection de r´egions homog` enes dans les s´equences d’ADN. Th`ese, Universit´e Ren´e Descartes (Paris V), 1997. 105. M.E.J. Newman. Power laws, Pareto distributions and Zipf’s law. Contemporary Physics, 46 : 323–351, 2005. 106. J.R. Norris. Smoluchowski’s coagulation equation : uniqueness, nonuniqueness and a hydrodynamic limit for the stochastic coalescent. Ann. Appl. Probab., 9(1) : 78–109, 1999. 107. G. Nuel. Grandes d´ eviations et chaˆınes de Markov pour l’´ etude des occur´ rences de mots dans les s´ equences biologiques. Th`ese, Universit´e d’Evry Val d’Essonne, 2001. 108. S. Osaki. Stochastic system reliability modeling, volume 5 de Series in Modern Applied Mathematics. World Scientific Publishing Co., Singapore, 1985. 109. A. Pag`es et M. Gondran. Fiabilit´e des syst`emes. Collection de la Direction des ´ ´ Etudes et Recherches d’Electricit´ e de France. Eyrolles, 1980. 110. K. Pearson. Contributions to the theory of mathematical evolution. Phil. Trans. of the Royal Soc. of London A, 185 : 71–110, 1894. 111. J. Pitman. Coalescents with multiple collisions. Ann. Probab., 27(4) : 1870– 1902, 1999. 112. E.L. Porteus. Stochastic inventory theory. In Stochastic models, volume 2 de Handbooks Oper. Res. Management Sci., pages 605–652. North-Holland, Amsterdam, 1990. 113. B. Prum, F. Rodolphe et E. de Turckheim. Finding words with unexpected frequencies in deoxyribonucleic acid sequences. J. R. Statist. Soc. B, 57(1) : 205–220, 1995.

R´ef´erences

427

114. M.L. Puterman. Markov decision processes : discrete stochastic dynamic programming. Wiley Series in Probability and Mathematical Statistics : Applied Probability and Statistics. John Wiley & Sons Inc., New York, 1994. 115. R. Redner et H. Walker. Mixture densities, maximum likelihood and the EM algorithm. SIAM Rev., 26(2) : 195–239, 1984. 116. G. Reinelt. The traveling salesman. Computational solutions for TSP applications, volume 840 de Lecture Notes in Computer Science. Springer-Verlag, Berlin, 1994. 117. S. Resnick. Extreme values, regular variation, and point processes. Applied Probability. Springer-Verlag, New York, 1987. 118. P. Robert. R´eseaux et files d’attente : m´ethodes probabilistes, volume 35 de Math´ematiques & Applications. Springer-Verlag, Berlin, 2000. 119. S. Robin, F. Rodolphe et S. Schbath. ADN, mots et mod` eles. Belin, 2003. 120. S. Robin et S. Schbath. Numerical comparison of several approximations of the word count distribution in random sequences. J. Comp. Biol., 2001. 121. S. Sagitov. The general coalescent with asynchronous mergers of ancestral lines. J. Appl. Probab., 36(4) : 1116–1125, 1999. 122. F. Sanger, A. Coulson, G. Hong, D. Hill et G. Petersen. Nucleotide sequence of bacteriophage lambda DNA. J. Mol. Biol., 162(4) : 729–773, 1982. 123. G. Saporta. Probabilit´es, Statistique et Analyse des Donn´ees. Technip, 1990. 124. H. Scarf. The optimality of (s, S) policies in the dynamic inventory problem. In S.U. Press, editor, Proceeding of the 1959 Stanford Symposium on Mathematical Methods in the Social Sciences, pages 196–202, 1960. ´ 125. S. Schbath. Etude asymptotique du nombre d’occurrences d’un mot dans une chaˆıne de Markov et application a ` la recherche de mots de fr´ equences exceptionnelles dans les s´equences d’ADN. Th`ese, Universit´e Ren´e Descartes (Paris V), 1995. 126. J. Schweinsberg. Coalescent processes obtained from supercritical GaltonWatson processes. Stochastic Process. Appl., 106(1) : 107–139, 2003. 127. J. Seinfeld. Atmospheric Chemistry and Physics of Air Pollution. Wiley, 1986. 128. E. Seneta. Nonnegative matrices and Markov chains. Springer, New-York, seconde ´edition, 1981. 129. J. Silk et T. Takahashi. A statistical model for the initial stellar mass function. Astrophys. J., 229 : 242–256, 1979. 130. J. Silk et S. White. The development of structure in the expanding universe. Astrophys. J., 228 : L59–L62, 1978. 131. N.D. Singpurwalla et S.P. Wilson. Statistical methods in software engineering. Springer Series in Statistics. Springer-Verlag, New York, 1999. Reliability and risk. 132. M. Smoluchowski. Drei vortr¨ age u ¨ber diffusion, brownsche bewegung und koagulation von kolloidteilchen. Phys. Z., 17 : 557–585, 1916. 133. S. Tavar´e. Line-of-descent and genealogical processes, and their applications in population genetics models. Theoret. Population Biol., 26(2) : 119–164, 1984.

428

R´ef´erences

134. S. Tavar´e et O. Zeitouni. Lectures on probability theory and statistics, volume 1837 de Lecture Notes in Mathematics. Springer-Verlag, Berlin, 2004. ´ e par a Saint-Flour, 8–25 juillet 2001. Edit´ 31i`eme ´ecole d’´et´e de probabilit´e ` Jean Picard. 135. W.A. Thompson, Jr. Point process models with applications to safety and reliability. Chapman and Hall, New York, 1988. 136. A. Trouv´e. Rough large deviation estimates for the optimal convergence speed exponent of generalized simulated annealing algorithms. Ann. Inst. H. Poincar´e Probab. Statist., 32(3) : 299–348, 1996. 137. P. Vandekerkhove. Contribution a ` l’´etude statistique des chaˆınes de Markov cach´ees. Th`ese, Universit´e de Montpellier II, 1997. 138. G.A. Watterson. On the number of segregating sites in genetical models without recombination. Theoret. Population Biology, 7 : 256–276, 1975. 139. G. Wetherill. Comparison of analytical and physical modeling of planetisimal accumulation. Icarus, 88 : 336–354, 1990. 140. D.J. White. Markov decision processes. John Wiley & Sons Ltd., Chichester, 1993. 141. P. Whittle. Optimization over time. Vol. I. Wiley Series in Probability and Mathematical Statistics : Applied Probability and Statistics. John Wiley & Sons Ltd., Chichester, 1982. Dynamic programming and stochastic control. 142. S. Wright. Evolution in Mendelian populations. Genetics, 16 : 97–159, 1931. 143. B. Ycart. Mod`eles et algorithmes markoviens, volume 39 de Math´ematiques & Applications. Springer, Berlin, 2002.

Index

ACPR, 197 algorithme de Marcus-Lushnikov, 372 de Metropolis, 35 de transfert de masse, 375 du recuit simul´e, 37 EM, 121, 132 ancˆetre commun, 197 bassin d’attraction, 325 Bellman, 65 Boltzmann, 39 Borel, 113, 114, 357, 359, 363 Cauchy, 318, 397 chaˆıne a temps continu, 369, 379 ` ap´eriodique, 12 cach´ee, 122 convergente, 33 homog`ene, 5, 226 irr´eductible, 11, 230 p´eriodique, 12 r´ecurrente, 13, 15, 231 trace, 9, 222 transiente, 13, 231 coagulation, 344 condition de Doeblin, 33 convergence ´etroite, 106, 400 domin´ee, 391 en loi, 400 en probabilit´e, 400 en variation, 33, 179, 415

monotone, 390 p.s., 390 presque sˆ ure, 390, 400 covariance, 391 densit´e de trafic, 243, 251 DFR, 270 disponibilit´e, 266, 297 Doeblin, 33 EMV, 126 entropie, 39, 130 ´equation d’optimalit´e, 62, 65 de Bellman, 65 de filtrage, 137 de Kolmogorov, 228 de lissage, 137 de Poisson, 26 de pr´evision, 137 de programmation dynamique, 65 de trafic, 259 esp´erance, 388 conditionnelle, 8, 393 estimateur asymptotiquement normal, 127 convergent, 127, 208 de Hill, 335 de Pickand, 329 du maximum de vraisemblance, 126, 171 sans biais, 127 ´etat absorbant, 8, 204

430

Index

r´ecurrent, 13 transient, 13 fiabilit´e, 266 file d’attente M/GI/1, 262 M/M/1, 243 M/M/K, 251 M/M/∞, 256 Fisher, 203 fonction C-convexe, 75 caract´eristique, 392, 401 d’importance, 108 de renouvellement, 279 de r´epartition, 52, 54, 307, 411 g´en´eratrice, 89, 101, 351, 355, 374, 394 formule de Poincar´e, 297 Fr´echet, 318, 320 fractile, 412 fragmentation, 365 Galton, 87, 263 g´elification, 347, 363, 364, 379 g´en´erateur infinit´esimal, 227, 241 Gibbs, 37, 40 Gordon, 258 Gumbel, 317, 320 Hill, 335 IFR, 270 in´egalit´e de Bienaym´e-Tchebychev, 392 Cauchy-Schwarz, 392 Jensen, 407 ind´ependance, 391 intervalle de confiance, 311, 313, 404 Jackson, 257 Kingman, 203, 369 lemme de Fatou, 390 log-vraisemblance, 126 loi b´eta, 397 binomiale, 113, 395 de Bernoulli, 395

de de de de de de de

Boltzmann, 39 Borel, 113, 114, 357, 359, 363 Cauchy, 318, 397 Fr´echet, 318, 320 Gumbel, 317, 320 Pareto, 315, 320, 329 Poisson, 55, 56, 83, 113, 116, 179, 278, 395 de valeurs extrˆemes g´en´eralis´ees, 321 de Weibull, 155, 267, 270, 275, 284, 316, 320 de Yule, 319 en puissance, 320 exponentielle, 106, 269, 372, 397 g´eom´etrique, 91, 105, 395 gamma, 270, 281, 284, 287, 292, 397 gaussienne, 55, 83, 397 max-stable, 320 multinomiale, 196, 395 uniforme, 396, 401 loi des petits nombres, 179 loi forte des grands nombres, 402 Lushnikov, 368, 372 Marcus, 368, 372 matrice stochastique, 4 mesurabilit´e, 388 mesure de Gibbs, 37, 40 m´ethode d’inversion, 398, 412 des coagulations fictives, 372 des pannes fictives, 275 du rejet, 398 Metropolis, 35 mod`ele de donn´ees censur´ees, 155 de m´elange, 152 de Wright-Fisher, 203 identifiable, 125 param´etrique, 125 NBU, 272 Newell, 258 niveau asymptotique, 404 norme en variation, 102, 415 ordre d’une chaˆıne de Markov, 186 ordre stochastique, 273, 289 p-valeur, 166

Index Pareto, 315, 320, 329 Pickand, 329 Poincar´e, 297 population totale, 111, 263 probabilit´e, 387 conditionnelle, 393 invariante, 10, 17, 33, 230, 233, 243, 251 stationnaire, 10, 230 uniforme, 388 probl`eme de la secr´etaire, 66 du collectionneur, 318 du voyageur de commerce, 31, 45 processus de branchement, 87 coalescence, 203 Galton-Watson, 87, 263 Kingman, 203, 369 Marcus-Lushnikov, 368 Poisson, 235, 278 renouvellement, 278 quantile, 309, 311, 313, 412 empirique, 304, 309, 311, 313 r´eseaux de Gordon-Newell, 258 Jackson, 257 r´eversibilit´e, 11 statistique d’ordre, 307 exhaustive, 171 stock syst`eme, 57

431

strat´egie (s, S), 56, 76 de maintenance, 277 markovienne, 63 optimale, 63 taux de d´efaillance, 267, 274 transition, 228 TCL, 402 th´eor`eme central limite, 23, 402 de Berry-Ess´een, 404 de Slutsky, 402 ergodique, 17, 231, 233 transform´ee de Laplace, 98, 107, 281, 294, 393, 401 tribu, 387 variable al´eatoire discr`ete, 394 r´eelle, 388 variance, 391 asymptotique, 127 empirique, 404 vraisemblance, 126 Watson, 87, 263 Weibull, 155, 267, 270, 275, 284, 316, 320 Weldon, 151 Wright, 203 Yule, 319

D´ej`a parus dans la mˆeme collection

1. T. C AZENAVE , A. H ARAUX Introduction aux probl`emes d’´evolution semi-lin´eaires. 1990

17. G. BARLES Solutions de viscosit´e des e´ quations de Hamilton-Jacobi. 1994

2. P. J OLY Mise en œuvre de la m´ethode des e´ l´ements finis. 1990

18. Q. S. N GUYEN Stabilit´e des structures e´ lastiques. 1995

3/4. E. G ODLEWSKI , P.-A. R AVIART Hyperbolic systems of conservation laws. 1991 5/6. P H . D ESTUYNDER Mod´elisation m´ecanique des milieux continus. 1991 7. J. C. N EDELEC Notions sur les techniques d’´el´ements finis. 1992 8. G. ROBIN Algorithmique et cryptographie. 1992 9. D. L AMBERTON , B. L APEYRE Introduction au calcul stochastique appliqu´e. 1992 10. C. B ERNARDI , Y. M ADAY Approximations spectrales de probl`emes aux limites elliptiques. 1992 11. V. G ENON -C ATALOT, D. P ICARD El´ements de statistique asymptotique. 1993 12. P. D EHORNOY Complexit´e et d´ecidabilit´e. 1993 13. O. K AVIAN Introduction a` la th´eorie des points critiques. 1994 14. A. B OSSAVIT ´ Electromagn´ etisme, en vue de la mod´elisation. 1994 15. R. K H . Z EYTOUNIAN Mod´elisation asymptotique en m´ecanique des fluides Newtoniens. 1994 16. D. B OUCHE , F. M OLINET M´ethodes asymptotiques en e´ lectromagn´etisme. 1994

19. F. ROBERT Les syst`emes dynamiques discrets. 1995 20. O. PAPINI , J. W OLFMANN Alg`ebre discr`ete et codes correcteurs. 1995 21. D. C OLLOMBIER Plans d’exp´erience factoriels. 1996 22. G. G AGNEUX , M. M ADAUNE -T ORT Analyse math´ematique de mod`eles non lin´eaires de l’ing´enierie p´etroli`ere. 1996 23. M. D UFLO Algorithmes stochastiques. 1996 24. P. D ESTUYNDER , M. S ALAUN Mathematical Analysis of Thin Plate Models. 1996 25. P. ROUGEE M´ecanique des grandes transformations. 1997 ¨ 26. L. H ORMANDER Lectures on Nonlinear Hyperbolic Differential Equations. 1997 27. J. F. B ONNANS , J. C. G ILBERT, ´ C. L EMAR E´ CHAL , C. S AGASTIZ ABAL Optimisation num´erique. 1997 28. C. C OCOZZA -T HIVENT Processus stochastiques et fiabilit´e des syst`emes. 1997 ´ PARDOUX , R. S ENTIS 29. B. L APEYRE , E. M´ethodes de Monte-Carlo pour les e´ quations de transport et de diffusion. 1998 30. P. S AGAUT Introduction a` la simulation des grandes e´ chelles pour les e´ coulements de fluide incompressible. 1998

D´ej`a parus dans la mˆeme collection

31. E. R IO Th´eorie asymptotique des processus al´eatoires faiblement d´ependants. 1999 32.

33.

34.

35.

36.

37.

38.

39.

40.

41.

42.

43.

44.

45. C. B ERNARDI , Y. M ADAY, F. R APETTI Discr´etisations variationnelles de probl`emes aux limites elliptiques. 2004 46. J.-P. F RANC¸ OISE J. M OREAU , P.-A. D OUDIN , Oscillations en biologie : Analyse P. C AZES (E DS .) qualitative et mod`eles. 2005 L’analyse des correspondances et les techniques connexes. 1999 47. C. L E B RIS Syst`emes multi-´echelles : Mod´elisation B. C HALMOND et simulation. 2005 El´ements de mod´elisation pour l’analyse d’images. 1999 48. A. H ENROT, M. P IERRE Variation et optimisation de formes : Une J. I STAS analyse g´eometric. 2005 Introduction aux mod´elisations math´ematiques pour les sciences du 49. B. B ID E´ GARAY-F ESQUET vivant. 2000 Hi´erarchie de mod`eles en optique quantique : De Maxwell-Bloch a` P. ROBERT Schr¨odinger non-lin´eaire. 2005 R´eseaux et files d’attente : m´ethodes probabilistes. 2000 ´ , E. Z UAZUA 50. R. D AGER Wave Propagation, Observation and A. E RN , J.-L. G UERMOND Control in 1 − d Flexible El´ements finis : th´eorie, applications, Multi-Structures. 2005 mise en œuvre. 2001 51. B. B ONNARD , L. FAUBOURG , S. S ORIN E. T R E´ LAT A First Course on Zero-Sum Repeated M´ ecanique c´eleste et contrˆole des Games. 2002 v´ehicules spatiaux. 2005 J. F. M AURRAS 52. F. B OYER , P. FABRIE Programmation lin´eaire, complexit´e. El´ements d’analyse pour 2002 l’´etude de quelques mod`eles B. Y CART d’´ecoulements de fluides Mod`eles et algorithmes Markoviens. visqueux incompressibles. 2005 2002 53. E. C ANC E` S , C. L. B RIS , Y. M ADAY M´ethodes math´ematiques B. B ONNARD , M. C HYBA en chimie quantique. Singular Trajectories and their Role in Une introduction. 2006 Control Theory. 2003 54. J-P. D EDIEU A. T SYBAKOV Points fixes, zeros et la methode Introdution a` l’estimation de Newton. 2006 non-param´etrique. 2003 55. P. L OPEZ , A. S. N OURI J. A BDELJAOUED , H. L OMBARDI Th´eorie e´ l´ementaire et M´ethodes matricielles – Introduction a` la pratique de la commande complexit´e alg´ebrique. 2004 par les r´egimes glissants. 2006 U. B OSCAIN , B. P ICCOLI 56. J. C OUSTEIX , J. M AUSS Optimal Syntheses for Control Systems Analyse asympotitque et on 2-D Manifolds. 2004 couche limite. 2006 L. YOUNES 57. J.-F. D ELMAS, B. J OURDAIN Invariance, d´eformations et Mod`eles al´eatoires. 2006 reconnaissance de formes. 2004