Precis de Recherche Operationne - Robert Faure PDF [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

Précis de recherche opérationnelle Méthodes et exercices d’application

Robert Faure était professeur de la chaire de recherche opérationnelle au CNAM

Bernard Lemaire est professeur émérite de la chaire de recherche opérationnelle au CNAM

Christophe Picouleau est professeur des universités au CNAM

7e édition

REMER­­CIEMENTS Nous remer­­cions toutes les per­­sonnes qui ont contri­­bué à la réa­­li­­sa­­tion de cette édi­­tion du Pré­­cis de recherche opé­­ra­­tion­­nelle. En par­­ti­­cu­­lier : Mme Nacera SEGHOUANI-­­­BENNACER Enseignante-­­chercheuse à Supélec, pour le cha­­pitre por­­tant sur la simu­­la­­tion ; M. Patrick SIARRY, Pro­­fes­­seur à l’Uni­­ver­­sité Paris XII, pour le cha­­pitre trai­­tant des méta­­­heu­­ris­­tiques ; M Daniel VANDERPOOTEN, Pro­­fes­­seur à l’Uni­­ver­­sité Paris-­­­Dauphine pour le cha­­pitre intro­­duc­­tif à l’aide multi­­­cri­­tère à la déci­­sion. Mme Agnès PLATEAU-ALFANDARI, maître de conférences au CNAM, pour ses remarques pertinentes.

Illustration de couverture ©Kentoh-Fotolia.com

© Dunod, Paris, 2014 ISBN 978-2-10-071060-7

Table

des

Matières

Avant-Propos......................................................................................... Introduction À la recherche operationnelle.................................... 1 Struc­­tures

ordon­­nées

et de l’algèbre de

Appli­­ca­­tions

Boole

vii ix

des treillis

en recherche

opé­­ra­­tion­­nelle.................................................................................

       1

1.1  Notions sur les struc­­tures ordonnées..............................................

1

1.2 Repré­­sen­­ta­­tion ensembliste des algèbres de Boole. Appli­­ca­­tion à la logique élé­­men­­taire..................................................

11

1.3  L’algèbre de Boole binaire................................................................

19

1.4  Appli­­ca­­tions élé­­men­­taires..................................................................

27

2 Notions

de complexité...................................................................

42

2.1  Complexité des Algorithmes..............................................................

42

2.2  Complexité des Problèmes. ................................................................

47

3 Élé­­ments de la théo­­rie des graphes : défi­­ni­­tion, concepts essentiels ­­  ; par­­cours des graphes..................................................    59 3.1  Élé­­ments de la théo­­rie des graphes...................................................

59

3.2  Par­­cours des graphes.........................................................................

70

4 Appli­­ca­­tions des graphes à la recherche opéra ­­ tion ­­ ­­ nelle .................................................................................     99 4.1  Notions de pro­­gram­­ma­­tion dyna­­mique (PRD)...................................

99

4.2  Appli­­ca­­tions aux che­­mins opti­­maux. .................................................. 104 4.3  Pro­­blèmes d’ordon­­nan­­ce­­ment en ges­­tion de pro­­jets. ....................... 114 4.4  Pro­­blème du flot de valeur maximale. ............................................. 128 4.5  Flot de valeur maximale à coût mini­­mal.......................................... 134 4.6  Pro­­blèmes d’affec­­ta­­tion.................................................................... 139 4.7  Notions d’arbre et d’arbo­­res­­cence................................................... 144 4.8  Appli­­ca­­tions aux arbres opti­­maux..................................................... 146 4.9  Les pro­­grammes de tran­­sport............................................................ 149 4.10  Recherches arbo­­res­­centes............................................................... 163 iii

Table des Matières

5 Pro­­ces­­sus sto­­chas­­tiques et pro­­gram­­ma­­tion dynamique ­­ sto­­chas­­tique................................................................     186 5.1  Intro­­duc­­tion aux pro­­blèmes sto­­chas­­tiques....................................... 186 5.2  Défi­­ni­­tion d’un pro­­ces­­sus sto­­chas­­tique............................................. 188 5.3  Chaînes de Markov à espace d’états dis­­cret.................................... 188 5.4 Clas­­si­­fi­­ca­­tion des états d’une chaîne de Markov finie à l’aide du graphe des transi ­­ tions ­­ ............................................. 191 5.5  Pro­­ces­­sus de Markov à espace d’états dis­­cret................................. 197 5.6  Pro­­ba­­bi­­li­­tés des états........................................................................ 200 5.7  Ergodicité........................................................................................... 202 5.8  Cal­­cul des pro­­ba­­bi­­li­­tés des états en régime permanent ­­ –théorème ­­ des coupes........................................................ 204 5.9  Pro­­ces­­sus de Markov par­­ti­­cu­­liers.................................................... 208 5.10  Notion de pro­­gram­­ma­­tion dyna­­mique stochas ­­ ­­ tique . ................................................................................... 216

6 Fia­­bi­­lité des com­­po­­sants, sûreté de fonc­­tion­­ne­­ment des systèmes ­­ .....................................................................................     228 6.1  Don­­nées dis­­crètes. courbes de sur­­vie expé­­ri­­men­­tale........................ 228 6.2  Loi de sur­­vie : forme ana­­ly­­tique. ...................................................... 233 6.3  Pro­­ba­­bi­­lité de consom­­ma­­tion. appro­­vi­­sion­­ne­­ments........................... 237 6.4  Cal­­cul des appro­­vi­­sion­­ne­­ments. ........................................................ 239 6.5  Un autre com­­pro­­mis : l’entre­­tien pré­­ven­­tif...................................... 244 6.6  Fia­­bi­­lité des sys­­tèmes non répa­­rables............................................... 250 6.7  Sûreté de fonc­­tion­­ne­­ment des sys­­tèmes répa­­rables......................... 254 6.8  Stra­­té­­gie de rem­­pla­­ce­­ment................................................................ 259

7 Les

phé­­no­­mènes d’attente.............................................................

270

7.1  Géné­­ra­­li­­tés sur les phé­­no­­mènes d’attente. ...................................... 270 7.2  Loi des arri­­vées. Loi des ser­­vices...................................................... 271 7.3  File à une sta­­tion. Sys­­tème ouvert : file M/M/1.............................. 272 7.4  File à s sta­­tions, sys­­tème ouvert : file M/M/S................................. 278 7.5  Appli­­ca­­tion numé­­rique........................................................................ 280 7.6  File à s sta­­tions, cas du sys­­tème fermé : file M/M/S/N...................................................................................... 286

iv

Table des Matières

7.7  Pro­­ba­­bi­­lité de dépas­­ser une cer­­taine attente : cas de la file M/M/1.......................................................................... 289

8 La

pro­­gram­­ma­­tion linéaire...........................................................

297

8.1  Exemple de pro­­gramme linéaire (pl) – Aspect géo­­mé­­trique................ 298 8.2  Algo­­rithme du sim­­plexe : méthode algé­­brique, méthode des tableaux. ....................................................................... 307 8.3  Dégé­­né­­res­­cences possibles................................................................. 321 8.4  Aspect matriciel................................................................................. 324 8.5  Démar­­rage de l’algo­­rithme du sim­­plexe : pro­­blème de la base initiale ­­ .............................................................................. 330 8.6  Notions sur la méthode révi­­sée du sim­­plexe..................................... 340 8.7  Dua­­lité. .............................................................................................. 342 8.8  Pro­­gramme linéaire en nombres entiers ; Méthode des troncatures de gomory............................................................... 352

9 Intro­­duc­­tion

à la théo­­rie des jeux.............................................

367

9.1  Un jeu d’enfant. ................................................................................. 367 9.2  Jeux à deux per­­sonnes et à somme nulle. .......................................... 368 9.3  Notion de stra­­té­­gies mixtes ; calcul des frequences optimales....... 372 9.4  Autre méthode de cal­­cul : les pl des joueurs sont en dualité ­­ . .......................................................................................... 376 9.5  Exemple d’appli­­ca­­tion éco­­no­­mique ; domi­­nance d’une straté ­­ gie ­­ , réduc­­tion d’un jeu. ........................................................... 379 9.6  Métho­­do­­lo­­gie d’étude des jeux à deux joueurs et somme nulle................................................................................... 382

© Dunod – Toute reproduction non autorisée est un délit.

10 Simu­­la­­tion....................................................................................... 384 10.1  Intro­­duc­­tion..................................................................................... 384 10.2  Défi­­ni­­tions........................................................................................ 386 10.3  Les « entrées » d’un modèle de simu­­la­­tion. .................................... 387 10.4  Un exemple de simu­­la­­tion. ............................................................... 392 10.5  Les résul­­tats (sor­­ties) d’une simu­­la­­tion et analyse ­­ statistique ­­ . ......................................................................... 393

v

Table des Matières

10.6  Lan­­gages de simu­­la­­tion................................................................... 398 10.7  Conclu­­sion. ...................................................................................... 399

11 Méta­­­heu­­ris­­tiques

en opti­­mi­­sation com­­bi­­na­­toire.......................

400

11.1  Intro­­duc­­tion....................................................................................

400

11.2  La tâche impar­­tie aux méta­­­heu­­ris­­tiques........................................

401

11.3  La méthode du recuit simulé...........................................................

404

11.4  La recherche tabou. .......................................................................

408

11.5  Les algo­­rithmes géné­­tiques............................................................

412

11.6  Les algo­­rithmes de colo­­nies de four­­mis.........................................

415

11.7  Les méthodes hybrides. ...................................................................

417

12 Intro­­duc­­tion à l’aide multi­­­cri­­tère à la déci­­sion.................................. 419 12.1  Intro­­duc­­tion..................................................................................... 419 12.2  Cadre géné­­ral.................................................................................. 421 12.3  La somme pon­­dé­­rée........................................................................... 427 12.4  Méthodes de sur­­­clas­­se­­ment (Electre)............................................ 429 12.5  Opti­­mi­­sation multi­­­objec­­tif............................................................... 435 12.6  Conclu­­sion........................................................................................ 440

Solu­­tions des exer­­cices....................................................................................... 442 Solu­­tions des exer­­cices du cha­­pitre 1.............................................................. 442 Solu­­tions des exer­­cices du cha­­pitre 2.............................................................. 450 Solu­­tions des exer­­cices du cha­­pitre 3.............................................................. 452 Solu­­tions des exer­­cices du cha­­pitre 4.............................................................. 457 Solu­­tions des exer­­cices du cha­­pitre 5.............................................................. 482 Solu­­tions des exer­­cices du cha­­pitre 6.............................................................. 497 Solu­­tions des exer­­cices du cha­­pitre 7.............................................................. 514 Solu­­tions des exer­­cices du cha­­pitre 8.............................................................. 526 Solu­­tions des exer­­cices du cha­­pitre 9.............................................................. 559

Bibliographie générale........................................................................... Index ......................................................................................................

vi

568 569

Avant-­­­Propos

Le « Pré­­cis de recherche opé­­ra­­tion­­nelle » a été publié pour la pre­­mière fois en 1968, puis a fait l’objet de cinq autres édi­­tions, puis d’une sixième édition en 2009 refon­ due et complétée. En voici une 7e édition révisée. Cet ouvrage se dis­­tingue prin­­ci­­pa­­le­­ment par son carac­­tère péda­­go­­gique très mar­­ qué, par son souci de repla­­cer l’exposé des prin­­ci­­pales méthodes de la recherche opé­­ra­­tion­­nelle dans un contexte appli­­qué. Il a connu, depuis sa pre­­mière ver­­sion, une très large dif­­fu­­sion qui en a fait un vec­­teur pri­­vi­­lé­­gié d’ini­­tiation et de for­­ma­­tion à la recherche opé­­ra­­tion­­nelle pour des géné­­ra­­tions d’étu­­diants, d’ingé­­nieurs, de cadres. Aussi nous a-­­­t-il sem­­blé impor­­tant de l’actua­­li­­ser pour lui per­­mettre de conti­­nuer d’assu­­rer cette mis­­sion. Ce livre peut être abordé par un large public : il pri­­vi­­lé­­gie un lan­­gage d’expli­­ca­­ tion natu­­relle, en évi­­tant, sous pré­­texte de rigueur aca­­dé­­mique, un exposé par trop abs­­trait s’appuyant sur un for­­ma­­lisme mathéma­­tique ou un jar­­gon qui ne le ren­­drait que beau­­coup plus dif­­fi­­ci­­le­­ment acces­­sible. Il comporte plu­­sieurs niveaux de lec­­ture, les para­­graphes les plus «  poin­­tus  » ayant été pla­­cés en fin de cha­­pitre. Ainsi convient-­­­il tout à fait à une décou­­verte de la R.O., comme on la pra­­tique en deuxième ou troi­­sième année de l’ensei­­gne­­ment supé­­rieur. Il est acces­­sible à des lec­­teurs dont la for­­ma­­tion de base est variée, pas néces­­sai­­re­­ment spé­­cia­­li­­sés en mathéma­­tiques et/ou en infor­­ma­­tique. Certes la dif­­fu­­sion, désor­­mais large, de logi­­ciels inté­­grant les méthodes ici décri­ tes, faci­­lite et accé­­lère l’appli­­ca­­tion de la R.O. par l’ingé­­nieur dans l’entre­­prise, mais ­encore faut-­­­il pour mieux les uti­­li­­ser connaître les méthodes qui les sous-­­­tendent : nous expo­­sons ici les prin­­ci­­pales. Il convient aussi d’apprendre à formuler, modéliser les problèmes concrets que peut rencontrer l’ingénieur. Le souci des auteurs, pour la pré­­sente édi­­tion, a été de moder­­ni­­ser et de complé­­ ter le contenu de ce manuel, tout en conser­­vant le carac­­tère péda­­go­­gique. Depuis les pre­­mières édi­­tions, l’algo­­rith­­mique a connu et conti­­nue de connaître de nom­­breux pro­­grès. Ainsi dans le domaine de la complexité des algo­­rithmes et des pro­­blèmes (qu’ils soient poly­­no­­miaux ou bien «  NP-­­­complets  »), avec l’approximabilité des pro­­blèmes dif­­fi­­ciles, avec la démons­­tra­­tion du carac­­tère poly­­no­­mial de la pro­­gram­­ ma­­tion linéaire (même si les algo­­rithmes poly­­no­­miaux de réso­­lu­­tion des pro­­grammes linéaires, les « méthodes inté­­rieures », sortent du cadre de cet ouvrage) ; les avan­­cées dans les struc­­tures de don­­nées et les algo­­rithmes de « par­­cours des graphes » ont

p­ er­­mis de construire des algo­­rithmes de faible complexité résol­­vant des pro­­blèmes clas­­siques tant de théo­­rie des graphes non valués (connexité, forte connexité, etc.) que d’opti­­mi­­sation dans les graphes valués. Dans le domaine sto­­chas­­tique (aléa­­ toire), on a assisté notam­­ment au déve­­lop­­pe­­ment de la sûreté de fonc­­tion­­ne­­ment des sys­­tèmes et de l’éva­­lua­­tion de leurs per­­for­­mances. Nous avons eu le souci de pré­­sen­­ter des méthodes spé­­ci­­fiques qui sont éprou­­vées, opé­­ra­­tion­­nelles. En fin d’ouvrage le lec­­teur trou­­vera trois cha­­pitres trai­­tant de mé­ thodes géné­­rales de réso­­lu­­tion de pro­­blèmes : d’une part un cha­­pitre sur les tech­­niques de simu­­la­­tion, d’autre part un cha­­pitre sur les méta-­­­heuristiques (recuit simulé, ­tabou, algo­­rithmes géné­­tiques, colonies de fourmis, etc.) qui per­­mettent à l’ingé­­nieur d’obte­­nir rapi­­de­­ment une pre­­mière solu­­tion (géné­­ra­­le­­ment sous-­­­optimale) au pro­­ blème de R.O. qu’il doit trai­­ter (sou­­vent en un temps bien limité !), enfin un cha­­pitre consa­­cré à l’aide à la prise de déci­­sion face à plu­­sieurs cri­­tères (ana­­lyse multi­­­cri­­ tère). Nous nous sommes gar­­dés du souci d’exhaus­­ti­­vité qui aurait conduit à un ouvrage plé­­tho­­rique, pour nous limi­­ter aux bases de la dis­­ci­­pline et à ses pro­­blèmes cen­­traux. Aussi des domaines, tels que : les SIAD (sys­­tèmes inter­­ac­­tifs d’aide à la déci­­sion), les réseaux de Petri, les bases de la pro­­gram­­ma­­tion non linéaire, la pro­­gram­­ma­­tion convexe, les méthodes polyédrales, ne sont pas abor­­dés ici ; tou­­te­­fois leurs prérequis y sont déve­­lop­­pés. Dans le domaine des graphes nous ne trai­­tons pas direc­­te­­ment cer­­tains pro­­blèmes avan­­cés (emplois du temps, tour­­nées de véhi­­cules, affec­­ta­­tions de res­­sources et de fré­­quences en télé­­communications, etc.), même si les modèles et algo­­rithmes pré­­sen­­tés ici peuvent contri­­buer à leur réso­­lu­­tion. Nous serons tout à fait satis­­faits si ce livre est jugé, par ses lec­­teurs, comme appro­­prié à son but, qui est de trans­­mettre des connais­­sances et de four­­nir une ouver­­ ture d’esprit sur la modé­­li­­sa­­tion et l’opti­­mi­­sation appli­­quées. Nous espé­­rons aussi qu’il les inci­­tera à un appro­­fon­­dis­­se­­ment !



viii



Pr B. LEMAIRE [email protected]

Pr C. PICOULEAU [email protected]

Intro­­duc­­tion

à la recherche opé­­ra­­tion­­nelle

À pre­­mière vue, la recherche opé­­ra­­tion­­nelle est un ensemble de tech­­niques récentes, datant tout au plus de la Seconde Guerre mon­­diale. Et, en fait, c’est bien à son appli­­ ca­­tion aux opé­­ra­­tions mili­­taires qu’elle doit son nom. En réa­­lité, elle est bien plus ancienne, car, dès le xvii e siècle, Blaise Pas­­cal et Pierre de Fermat, inven­­teurs de la notion d’espé­­rance mathéma­­tique (1654), cher­ c­­haient, sui­­vis de peu par Jacques Bernoulli puis Waldegrave, à résoudre des pro­­ blèmes de déci­­sion dans l’incer­­tain. Avant la fin de l’ancien régime, Gaspard Monge s’était pro­­posé et avait résolu ana­­ly­­ti­­que­­ment un pro­­blème éco­­no­­mique de nature com­­bi­­na­­toire  : celui des déblais et rem­­blais (1776). Sous la monar­­chie de Juillet, Augustin Cournot s’était atta­­qué à la théo­­rie mathéma­­tique des richesses (1838), deve­­nant ainsi le pré­­cur­­seur de l’éco­­no­­mé­­trie. Au début du xx e siècle, Emile Borel intro­­dui­­sait la théo­­rie mathéma­­tique des jeux, sous sa forme moderne, à l’Aca­­dé­­mie des Sciences (1921-1925), tan­­dis qu’Erlang fon­­dait celle des files d’attente, qu’il uti­­ li­­sait à la concep­­tion des réseaux télé­­pho­­niques (1917). Enfin, à la veille de la guerre 1939-1945, Leonid Kantorovitch conce­­vait et appli­­quait la pro­­gram­­ma­­tion linéaire à la pla­­ni­­fi­­ca­­tion, peu après que Dénes König eut sys­­té­­ma­­tisé les graphes (1936). On peut donc dire que, lorsque le phy­­si­­cien anglais Patrick Blackett fut, en 1940, appelé à diri­­ger la pre­­mière équipe de chercheurs opé­­ra­­tion­­nels, d’illustres devan­­ ciers l’avaient pré­­cédé. Cepen­­dant, Blackett eut l’immense mérite de trou­­ver, notam­­ ment, l’orga­­ni­­sa­­tion lui per­­met­­tant de trai­­ter rapi­­de­­ment et avec suc­­cès les dif­­fi­­ciles ques­­tions telles que l’implan­­ta­­tion opti­­male des radars de sur­­veillance des côtes bri­­ tan­­niques ou encore de la pro­­tec­­tion des convois de navires mar­­chands reliant la Grande Bretagne et les États-Unis, qui devaient jouer un rôle déter­­mi­­nant dans la bataille d’Angleterre. L’effi­­ca­­cité de son entre­­prise était due aux trois faits sui­­vants : l’équipe qu’il avait ras­­sem­­blée était très hété­­ro­­gène (autre­­ment dit elle ras­­sem­­blait des com­­pé­­tences variées, com­­plé­­men­­taires ; ainsi, les points de vue qu’elle expri­­mait étaient plus per­­ti­­nents) ; aucune infor­­ma­­tion (même secrète) ne fut jugée trop noble

Intro­­duc­­tion à la recherche opé­­ra­­tion­­nelle

pour échap­­per à sa com­­pé­­tence : les don­­nées, néces­­saires à ses études, étaient com­­ plètes et fiables ; enfin il réser­­vait la déci­­sion à l’état-major (il n’y eut pas de subs­­ti­­ tution de pou­­voir : son équipe ne s’est pas arrogé le pou­­voir de déci­­sion. L’ami­­rauté bri­­tan­­nique res­­tait libre d’adop­­ter les conclu­­sions des tra­­vaux de Blackett et de son équipe, ou bien de les reje­­ter). Ces règles s’appliquent encore aujourd’hui, et font par­­tie de la déon­­to­­lo­­gie de la recherche opé­­ra­­tion­­nelle d’entre­­prise. Dès la fin des hos­­ti­­li­­tés, furent ten­­tés de nom­­breux essais d’appli­­ca­­tion à l’éco­­no­­ mie indus­­trielle des méthodes jus­­qu’alors éprou­­vées seule­­ment par les états-­­­majors alliés. Depuis les années cin­­quante, nombre de publi­­ca­­tions scien­­ti­­fiques et tech­­ niques témoignent de leur réus­­site et de leurs heu­­reux déve­­lop­­pe­­ments. C’est pour­­quoi l’on peut légi­­ti­­mement se demander pour­­quoi l’appa­­ri­­tion de la recherche opé­­ra­­tion­­nelle d’entreprise a été si tar­­dive. Il est bon de citer ici quelques­­­unes des prin­­ci­­pales rai­­sons de cette nais­­sance labo­­rieuse : a) les modèles mathéma­­tiques qui ont, de longue date, conquis la phy­­sique et, peu à peu, bien d’autres sciences expé­­ri­­men­­tales, n’ont pas été accep­­tés d’emblée par les spé­­cia­­listes des sciences éco­­no­­miques, par­­ti­­cu­­liè­­re­­ment de la micro-­­­économie et sur­­tout de l’éco­­no­­mie d’entre­­prise. Il ne faut pas méconnaître que les éco­­no­­mistes avaient quelques rai­­sons de sus­­pec­­ter des modèles inertes, sim­­plistes, rigides et abs­­ traits, d’être peu propres à repré­­sen­­ter le milieu vivant, com­­plexe, flexible et ter­­ri­­ ble­­ment concret de l’éco­­no­­mie. Tou­­te­­fois, dès que la connais­­sance éco­­no­­mique fut ­suf­­fi­­sam­­ment avan­­cée et consen­­tit à se parer du nom de science, il fal­­lut bien se ren­ dre à l’évi­­dence : comme dans toutes les autres sciences expé­­ri­­men­­tales, par­­ve­­nues à une cer­­taine matu­­rité, le recours à la mathéma­­tique était incontour­­nable ; b) c’est seule­­ment à par­­tir des années cin­­quante que les pro­­blèmes éco­­no­­miques sont deve­­nus irré­­mé­­dia­­ble­­ment com­­plexes, en rai­­son de la taille crois­­sante des firmes et de l’intri­­ca­­tion extraor­­di­­naire des liens qui les unissent entre elles ; c) enfin, les acquis théo­­riques de la recherche opé­­ra­­tion­­nelle ne seraient rien sans la puis­­ sance de cal­­cul : les ordi­­na­­teurs sont indis­­pen­­sables pour résoudre les pro­­blèmes dans la pra­­tique. Or, les pre­­miers ordi­­na­­teurs n’ont été com­­mer­­cia­­li­­sés qu’en 1955-1956. À ce pro­­pos, il peut être utile de remar­­quer qu’il en va de la recherche opé­­ra­­tion­­ nelle comme des ordi­­na­­teurs. Ces der­­niers ont sus­­cité des espoirs déme­­su­­rés ou des craintes infon­­dées. Il faut répé­­ter que la machine doit être consi­­dé­­rée comme un ins­­ tru­­ment, un outil au ser­­vice de son créa­­teur : l’homme. Il faut se per­­sua­­der que lors­ que l’on confie à une machine l’exé­­cu­­tion d’opé­­ra­­tions qui, naguère encore étaient l’apa­­nage de l’esprit humain, le carac­­tère de cette besogne se trans­­forme, du même coup, radi­­ca­­le­­ment : le tra­­vail intel­­lec­­tuel devient un simple tra­­vail d’exé­­cu­­tion. Il n’y a donc aucune chance qu’une machine dépasse un jour son auteur, bien qu’il n’y ait pas d’impos­­si­­bi­­lité à ce qu’elle démontre une conjec­­ture, voire découvre un théo­­rème inconnu (par une com­­bi­­nai­­son logique inat­­ten­­due...). De la même manière, la recherche opé­­ra­­tion­­nelle est l’auxi­­liaire de la déci­­sion humaine : elle lui est, par essence, subor­­don­­née et il n’existe pas plus de chance qu’elle la sup­­plante un jour. C’est pour­­quoi on consi­­dère sou­­vent que la recherche opé­­ra­­tion­­nelle est une com­­po­­ sante majeure de l’aide à la déci­­sion. x

Les domaines d’appli­­ca­­tion

une défi­­ni­­tion de la r.o. Plu­­tôt qu’un simple arse­­nal de méthodes mathématico-­­­informatiques des­­tiné à l’opti­­mi­­sation des pro­­ces­­sus de pro­­duc­­tion et de dif­­fu­­sion des pro­­duits ou à celle d’orga­­ni­­sa­­tions dans le sec­­teur ter­­tiaire, la recherche opé­­ra­­tion­­nelle peut se définir comme l’ensemble des méthodes et tech­­niques ration­­nelles d’ana­­lyse et de syn­­thèse des phé­­no­­mènes d’orga­­ni­­sa­­tion uti­­li­­sables pour éla­­bo­­rer de meilleures déci­­sions. Chaque fois que des hommes, des machines, des pro­­duits se trouvent en rela­­tions actives, on dira que l’on a affaire à un phé­­no­­mène d’orga­­ni­­sa­­tion. Les pro­­blèmes rela­­tifs à ces phé­­no­­mènes d’orga­­ni­­sa­­tion se signalent tout d’abord, géné­­ra­­le­­ment, par leur carac­­tère hau­­te­­ment com­­bi­­na­­toire. Pour peu que le hasard y soit mêlé et que la concur­­rence s’y mani­­feste, les situa­­tions deviennent encore plus com­­pli­­quées. Il a été long­­temps de mode de pen­­ser que les déci­­sions, à pro­­pos des phé­­no­­mènes d’orga­­ni­­sa­­tion qui existent dans l’entre­­prise, la région, voire la nation, étaient du res­­ sort du seul bon sens. C’est par­­ti­­cu­­liè­­re­­ment vrai en France, où la for­­ma­­tion des diri­­ geants et des entre­­pre­­neurs est for­­te­­ment tein­­tée de car­­té­­sia­­nisme et où l’on confond volon­­tiers la puis­­sance de l’esprit humain avec les res­­sources du sens com­­mun. Aussi, la recherche opé­­ra­­tion­­nelle n’est pas le moyen d’échap­­per aux juge­­ments de bon sens. Bien au contraire, elle consti­­tue la méthode adé­­quate pour rame­­ner l’atten­­tion de l’homme aux domaines où sa rai­­son indi­­vi­­duelle peut s’exer­­cer effi­­ ca­­ce­­ment, c’est-­­­à-dire au niveau des choix – une fois réso­­lus et explo­­rés, par des tech­­niques adé­­quates, les pro­­blèmes com­­bi­­na­­toires, aléa­­toires ou concur­­ren­­tiels qui dépassent l’esprit humain même le mieux consti­­tué.

Les

domaines d’appli­­ca­­tion

© Dunod – Toute reproduction non autorisée est un délit.

L’idée à rete­­nir est que la R.O. ne s’occupe pas des pro­­blèmes dans les­­quels une solu­­tion de bon sens inter­­vient tout natu­­rel­­le­­ment. Son domaine réservé est celui des situa­­tions dans les­­quelles, pour une rai­­son quel­­conque, le sens com­­mun se révèle faible ou impuis­­sant. Tels sont : 1) Les pro­­blèmes com­­bi­­na­­toires ; 2) Les domaines de l’aléa­­toire ; 3) Les situa­­tions de concur­­rence. 1) Il est bien connu que l’homme envi­­sage dif­­fi­­ci­­le­­ment la mul­­ti­­pli­­cité des com­­bi­­ nai­­sons qui se pré­­sentent, dans les moindres faits de la vie, lorsque plu­­sieurs varia­ bles peuvent prendre, cha­­cune, des états dif­­fé­­rents. Ainsi, si l’on pose à l’homme de la rue cette ques­­tion : com­­bien faut-­­­il de temps à une famille de huit per­­sonnes, pre­­nant en com­­mun deux repas jour­­na­­liers, pour épui­­ ser les diverses pos­­si­­bi­­li­­tés de se grou­­per autour de la table fami­­liale ?, on rece­­vra des réponses variées, dont les moins opti­­mistes fixe­­ront un délai de quelques mois pour la réa­­li­­sa­­tion de ce modeste objec­­tif. On sait qu’en réa­­lité, à rai­­son de deux xi

Intro­­duc­­tion à la recherche opé­­ra­­tion­­nelle

repas par jour (2), douze mois par an 1 3 3 4 2 , trente jours par mois 1 5 3 6 2 , il fau­­ dra cinquante-­­­six ans 1 7 3 8 2 pour en venir à bout, car : 8 ! 5 1 3 2 3 3 3 4 3 5 3 6 3 7 3 8, le nombre des dis­­po­­si­­tions dif­­fé­­rentes, est déjà un nombre très grand. Soit : 8 ! = 40 320 Dans tous les pro­­blèmes for­­te­­ment com­­bi­­na­­toires (le pré­­cé­­dent étant encore de taille modeste), l’esprit humain ne peut envi­­sa­­ger le nombre astro­­no­­mique des arran­­ ge­­ments, per­­mu­­ta­­tions, com­­bi­­nai­­sons. Il lui faut un fil d’Ariane s’il veut choi­­sir, entre telle ou telle de ces dis­­po­­si­­tions, rela­­ti­­ve­­ment à un cri­­tère quel­­conque, car, même avec une puis­­sante machine, le prin­­cipe fon­­da­­men­­tal en matière com­­bi­­na­­toire demeure de pros­­crire toute énu­­mé­­ra­­tion. Pour s’en convaincre, il suf­­fit de consta­­ter que l’énu­­mé­­ ra­­tion de 20! solu­­tions (nombre des affec­­ta­­tions de vingt per­­sonnes à vingt postes), à rai­­son d’un million d’affec­­ta­­tions par seconde, pren­­drait 77 096 ans ; le lec­­teur notera que même avec un ordi­­na­­teur mille fois plus rapide, qui pour­­rait donc énu­­mé­­rer un milliard d’affec­­ta­­tion par seconde, il fau­­drait encore 77 ans ! Or les com­­pa­­gnies aérien­ nes sont confron­­tées à de tels pro­­blèmes, mais à la dimen­­sion 100 ou davan­­tage... Ou bien d’ima­­gi­­ner un ins­­tant qu’il est pos­­sible d’énu­­mé­­rer les fonc­­tions dif­­fé­­rentes de 9 variables boo­­léennes seule­­ment ; or celles-­­­ci sont au nombre de : 22 5 2512 # 1,134076087.10155, qui dépasse le nombre estimé des élec­­trons et des pro­­tons dans l’Uni­­vers ! 9

2) Devant les pro­­blèmes de l’aléa­­toire, la situa­­tion du déci­­deur n’est guère meilleure. Consi­­dé­­rons l’exemple (d’école) qui suit : dans une grande entre­­prise, la moyen­ ne des ­entrées des per­­son­­nels au bureau du cor­­res­­pon­­dant de la sécu­­rité sociale, est d’une per­­sonne par 4 minutes ; l’employé de ce bureau peut ser­­vir, en moyenne, une per­­sonne toutes les 3 minutes 18 secondes. On peut en conclure1 que l’em­ 8 3 60 ployé de ­bureau, rece­­vant 5 120 clients par jour et leur consa­­crant 3mn 4 18 3 120 5 6 h 36 mn, sur sa jour­­née de 8 heures, peut lar­­ge­­ment suf­­fire à ce ser­­vice. Mais cette solu­­tion par les moyennes est mau­­vaise, comme on le verra plus loin, car le temps perdu par les per­­son­­nels, en attente d’être ser­­vis, peut atteindre de nom­­ breuses heures qui, étant don­­née la perte à la pro­­duc­­tion cor­­res­­pon­­dante, reviennent incroya­­ble­­ment plus cher que l’embauche d’un second employé, pour­­tant des­­tiné seule­­ment à absor­­ber les pointes de tra­­fic. Pour que cette véri­­table solu­­tion puisse appa­­raître, il est néces­­saire de consi­­dé­­ rer le phé­­no­­mène aléa­­toire dans toute son ampleur ; il faut tenir compte de toutes les inci­­dences du hasard et minimi­­ser l’espé­­rance mathéma­­tique du coût glo­­bal des opé­­ra­­tions. 1. Tant il est vrai que la croyance à la com­­pen­­sa­­tion est ancrée dans la conscience de l’homme social, alors que les condi­­tions ne sont évi­­dem­­ment pas réunies pour qu’elle puisse jouer au niveau de l’entre­­prise. xii

Dif­­fi­­cul­­tés et dan­­gers de l’opti­­mi­­sation

3) Enfin, les situa­­tions de « duel » (sinon de concur­­rence mul­­tiple, cas encore plus dif­­fi­­ciles) demandent à être étu­­diées avec le plus grand soin. Il est bien clair, en effet, que le choix d’une stra­­té­­gie, dans une situa­­tion don­­née, dépend des déci­­sions des concur­­rents. Et, comme celles-­­­ci sont éven­­tuelles, il s’agit, à la fois, d’un pro­­blème com­­bi­­na­­toire et d’une situa­­tion de hasard. Ima­­gi­­nons, par exemple, qu’un fabri­­cant A hésite, à chaque cam­­pagne de vente, entre la hausse, le main­­tien et la dimi­­nu­­tion de ses prix de vente, sachant par­­fai­­te­­ment que la concur­­rence peut lui oppo­­ser les mêmes stra­­té­­gies. Sup­­po­­sons, en outre, qu’il ait été en mesure de déter­­mi­­ner les gains (les gains étant néga­­tifs sont des pertes) qu’il réa­­li­­se­­rait pour chaque paire de choix (son propre choix et celui du concur­­rent) par rap­­port au chif­ fre nor­­mal. Ces situa­­tions sont résu­­mées par le tableau ci-­­­dessous :

Stratégies de A

1

5 2

Stratégies de la concurrence 1 5 2 10 21 24 6 0 22 10 21 2

© Dunod – Toute reproduction non autorisée est un délit.

On verra, dans le cha­­pitre 9 por­­tant sur la théo­­rie des jeux, que la solu­­tion (nul­­ le­­ment immé­­diate) de ce pro­­blème est la sui­­vante : le fabri­­cant doit, au hasard, mais trois fois sur cinq, main­­te­­nir ses prix et, deux fois sur cinq, les abais­­ser, pen­­dant que son concur­­rent, s’il est habile (ce qui est évi­­dem­­ment pos­­tulé) doit, quatre fois sur cinq, les main­­te­­nir et, une fois sur cinq, les dimi­­nuer, moyen­­nant quoi A ne per­­dra, en moyenne, que 0,4 à chaque « coup ». Les domaines d’appli­­ca­­tion de la recherche opé­­ra­­tion­­nelle peuvent donc se clas­­ser en : – pro­­blèmes com­­bi­­na­­toires ; exemples  : défi­­ni­­tion des inves­­tis­­se­­ments les plus ren­­tables ; opti­­mi­­sation des pro­­grammes de pro­­duc­­tion, des niveaux d’acti­­vité, des affec­­ta­­tions, des tran­­sports et de la logistique ; ordon­­nan­­ce­­ments, etc. ; – pro­­blèmes sto­­chas­­tiques (c’est-­­­à-dire où inter­­vient le hasard) ; exemples : files d’attente, fia­­bi­­lité des équi­­pe­­ments et sûreté de fonc­­tion­­ne­­ment des systèmes, ges­­tion de la pro­­duc­­tion, etc. ; – pro­­blèmes concur­­ren­­tiels ; exemples : défi­­ni­­tion de poli­­tiques d’appro­­vi­­sion­­ne­­ ment, de vente, etc.

Dif­­fi­­cul­­tés

et dan­­gers de l’opti­­mi­­sation

a) Un entre­­pre­­neur pour­­rait avoir le sen­­ti­­ment qu’en minimi­­sant ses inves­­tis­­se­­ments, opti­­mi­­sant ses fabri­­ca­­tions (pro­­duc­­ti­­vité maximale, coût mini­­mal), déter­­mi­­nant le prix de vente le plus conve­­nable, etc., il fera le pro­­fit maximal. Mais le mathéma­­ti­­cien est sou­­vent désem­­paré face à un pro­­blème dans lequel existent simul­­ta­­né­­ment plu­­sieurs fonc­­tions à opti­­mi­­ser. L’aide multi­­­cri­­tère à la xiii

Intro­­duc­­tion à la recherche opé­­ra­­tion­­nelle

d­ éci­­sion vise à trai­­ter de tels pro­­blèmes (à laquelle est consa­­cré un cha­­pitre en fin de cet ouvrage). C’est pour­­quoi, dans la majo­­rité des cas, l’entre­­pre­­neur doit se bor­­ner à indi­­quer les limites de ses inves­­tis­­se­­ments, des dépenses en études et recherches, en ser­­vice com­­mer­­cial, les capa­­ci­­tés de fabri­­ca­­tion et de sto­­ckage, etc., pour per­­mettre au cher­ cheur opé­­ra­­tion­­nel d’opti­­mi­­ser une seule et unique fonc­­tion, par exemple maxi­­mi­­ser une fonc­­tion de revenu. Les limites indi­­quées four­­nissent les contraintes du pro­­blème. Par exemple, si des pro­­duits P1, P2 et P3, fabri­­qués en quan­­ti­­tés res­­pec­­tives x1, x2 et x3, occupent res­­ pec­­ti­­ve­­ment un volume de 1, 2, et 2 m­3 par uni­­té fabriquée, et si l’on dis­­pose d’une capa­­cité totale de sto­­ckage de 4 000 m­3, on écrira : x1 1 2x2 1 2x3 < 4 000 ; c’est la contrainte de capa­­cité de sto­­ckage. Si ces pro­­duits laissent des pro­­fits nets res­­pec­­tifs de 4, 12 et 3 uni­­tés moné­­taires et si l’on désire maxi­­mi­­ser le revenu, on posera : [max] z 5 4x1 1 12x2 1 3x3 ; C’est la fonc­­tion éco­­no­­mique ou cri­­tère d’opti­­mi­­sation du pro­­blème. Les dif­­fé­­rentes contraintes limitent, dans un espace à n dimen­­sions (s’il y a n variables), un volume à l’inté­­rieur ou à la péri­­phérie duquel se trouvent les points dont les coor­­don­­nées consti­­tuent une solu­­tion pos­­sible du pro­­blème. Il reste alors à trou­­ver et à uti­­li­­ser des tech­­niques per­­met­­tant de choi­­sir, parmi cette infi­­nité de points, celui (ou ceux) qui donne(nt) à la fonc­­tion éco­­no­­mique sa valeur opti­­ male. Fré­­quem­­ment il y aura uni­­cité de la fonc­­tion (ou critère) à opti­­mi­­ser. Remar­­quons que cette idée n’est pas en oppo­­si­­tion avec la démarche de l’ana­­lyse multi­­­cri­­tère  introduite en fin de cet ouvrage. b) On se rend compte qu’il est bien dif­­fi­­cile d’ima­­gi­­ner – et, a for­­tiori, en géné­­ral impos­­sible de bâtir – un modèle com­­plet du fonc­­tion­­ne­­ment d’une entre­­prise. En consé­­quence, l’entre­­pre­­neur pro­­pose, sou­­vent, au chercheur opé­­ra­­tion­­nel, de se bor­­ner à un aspect de ses pré­­oc­­cu­­pa­­tions (fixa­­tion des niveaux d’acti­­vité, opti­­mi­­ sation de la ges­­tion des sto­­cks, par exemple). Dans ces condi­­tions, il ne s’agit que d’une sous-­­­optimisation, qui risque de pro­­vo­­quer des per­­tur­­ba­­tions sérieuses dans des domaines connexes de l’entre­­prise (ou de son envi­­ron­­ne­­ment). Une sous-­­­optimisation com­­porte donc des dan­­gers ; avant de l’appli­­quer, il faut prendre garde à ses consé­­quences sur les élé­­ments qui ne figurent pas dans le ­modèle. Ainsi une opti­­mi­­sation des sto­­cks chez B, qui a comme four­­nis­­seur A, et C comme client, peut entraî­­ner des dif­­fi­­cul­­tés inat­­ten­­dues chez ce four­­nis­­seur et ce client ! c) Un cri­­tère d’opti­­mi­­sation peut se dégra­­der, voire même être périmé lorsque un cer­­tain temps a passé. Cela est dû, avant tout, à la grande varia­­bi­­lité du monde éco­­ no­­mique, aux pro­­grès de la tech­­nique, à l’obso­­les­­cence des pro­­duits, aux fluc­­tua­­tions

xiv

La R.O. : une pra­­tique à carac­­tère scientifique

des régle­­men­­ta­­tions, aux ren­­ver­­se­­ments de la mode, etc. et par­­fois, tout sim­­ple­­ment, à la suc­­ces­­sion des sai­­sons. Ce qui est bon pour l’année n peut deve­­nir mau­­vais pour l’année n 1 1 ; ce qui est à conseiller en été peut être à reje­­ter en hiver... Bref, en recherche opé­­ra­­tion­­nelle, l’évo­­lu­­tion est de règle, même pour le cri­­tère de choix.

Objec­­tifs

et cri­­tères

© Dunod – Toute reproduction non autorisée est un délit.

La défi­­ni­­tion des objec­­tifs et la déter­­mi­­na­­tion du cri­­tère d’opti­­mi­­sation sont du res­­ sort de l’entre­­pre­­neur. Ce serait avoir une vue tech­­no­­cra­­tique de la recherche opé­­ra­­tion­­nelle que d’ima­­ gi­­ner que c’est à l’ana­­lyste de fixer les valeurs limites défi­­nis­­sant les contraintes et de fixer le(s) cri­­tère(s) de choix. Au contraire, ce sont là des domaines qui appar­­tiennent en propre à l’entre­­pre­­ neur. Si, par exemple, l’ana­­lyste se voit confier l’étude des poli­­tiques d’exploi­­ta­­tion d’une société conces­­sion­­naire de ser­­vices, il ne peut déci­­der, de lui-­­­même, d’opti­­ mi­­ser la rému­­né­­ra­­tion du capi­­tal, en limi­­tant le ser­­vice aux exi­­gences du cahier des charges, ou, au contraire, d’opti­­mi­­ser le ser­­vice au meilleur pro­­fit des usa­­gers, en assi­­gnant au capi­­tal tel ou tel ren­­de­­ment qui lui plaît. C’est aux diri­­geants de la société, ou, dans cer­­tains cas, aux auto­­ri­­tés de tutelle, de choi­­sir ­entre ces deux situa­­tions oppo­­sées. Le mieux étant sans doute, dans le cas présent ­comme dans beau­­coup d’autres, d’obte­­nir un éven­­tail de solu­­tions favo­­ri­­sant ainsi un choix éclairé. Car le chercheur opé­­ra­­tion­­nel ne sau­­rait non plus se subs­­ti­­tuer à l’entre­­pre­­neur, dont c’est la fonc­­tion de déci­­der quelle solu­­tion lui paraît la plus conve­­nable ou la plus pra­­ti­­cable. Il faut affir­­mer bien haut que la R.O., loin d’entra­­ver l’exer­­cice des pré­­ro­­ga­­tives de l’entre­­pre­­neur, auto­­rise ce der­­nier à déci­­der en meilleure connais­­sance de cause, donc élève fina­­le­­ment le niveau où se mani­­feste la liberté du choix.

La R.O. :

une pra­­tique à carac­­tère scientifique

Les méthodes et le but de la recherche opé­­ra­­tion­­nelle en font bien plus une pra­­tique à carac­­tère scien­­ti­­fique qu’une science. En effet, elle ne cherche pas tant à expli­­quer les phé­­no­­mènes qu’elle prendrait en compte en décou­­vrant des lois, qu’à per­­mettre d’agir sur l’évo­­lu­­tion de ces phénomènes. Un modèle (ou, plus modes­­te­­ment, un schéma d’inter­­ven­­tion) est utile voire indis­­ pen­­sable à un agent éco­­no­­mique déter­­miné pour obte­­nir – de son point de vue – les meilleurs résul­­tats pos­­sibles dans des cir­­constances déter­­mi­­nées.

xv

Intro­­duc­­tion à la recherche opé­­ra­­tion­­nelle

En tout cas, la recherche opé­­ra­­tion­­nelle appa­­raît comme une discipline-­­­carrefour, asso­­ciant étroi­­te­­ment les méthodes et les résul­­tas de l’éco­­no­­mie d’entre­­prise, la mathéma­­ tique et l’infor­­ma­­tique. L’éla­­bo­­ra­­tion du schéma d’inter­­ven­­tion (ou ­modèle) uti­­lise les res­­sources conju­­guées de l’ana­­lyse éco­­no­­mique et de la théo­­rie des sys­­tèmes ; elle a ­besoin aussi de don­­nées à collecter puis à saisir, jus­­ti­­ciables de méthodes sta­­tistiques. Le trai­­te­­ment algo­­rith­­mique du modèle, après que la mathéma­­tique ait per­­mis de choi­­sir une voie (le plus sou­­vent un algo­­rithme) pour atteindre une bonne solu­­tion (voire l’opti­­mum, s’il est bien défini et acces­­sible), entraîne un recours à l’infor­­ma­­tique. Enfin la cri­­tique des résul­­tats exige, une fois de plus, la réunion des dif­­fé­­rents acteurs.

Ren­­ta­­bi­­lité

de la

R.O.

On se doute bien que la R.O. n’est pas gra­­tuite. Le plus fré­­quem­­ment, elle est mise en œuvre par des consul­­tants n’appar­­te­­nant pas à l’entre­­prise ; il s’agit donc de savoir si, au plan finan­­cier, l’appli­­ca­­tion des résul­­tats de leurs études pro­­cure ou non un béné­­fice, compte tenu des charges entraî­­nées par l’étude elle-­­­même et quelle est la durée du « retour sur ­­­inves­­tis­­se­­ment ». Même dans la société la mieux admi­­nis­­trée, un cer­­tain nombre de pro­­blèmes com­­bi­­na­­toires peuvent être mal réso­­lus. Nous nous per­­met­­trons de citer, à ce sujet, deux exemples emprun­­tés à A. Kaufmann : xvi

Ren­­ta­­bi­­lité de la R.O.

1) une société de tran­­sports aériens, ayant 400 vols et 600 liai­­sons à effec­­tuer entre 13 villes sou­­hai­­tait amé­­lio­­rer le plan de ses vols, conçu jus­­qu’alors par un bureau d’études tra­­vaillant selon une méthode « habi­­tuelle ». À pre­­mière vue d’ailleurs, le pro­­gramme des vols éta­­bli par cette méthode sem­­blait don­­ner satis­­faction, mais la direc­­tion dési­­rait en obte­­nir confir­­ma­­tion. À cause de nom­­breuses contraintes de carac­­tère éco­­no­­mique ou social (temps maximal de pilo­­tage, temps sup­­plé­­men­­taire passé au sol, repos obli­­ga­­toire, retour pério­­dique des équi­­pages et des appa­­reils au port d’attache, entre­­tien pré­­ven­­tif, indem­­ni­­tés de dépla­­ce­­ment, etc), le cal­­cul appa­­ rais­­sait comme com­­pli­­qué. Néan­­moins, l’ordi­­na­­teur, après implémentation d’un pro­­gramme d’affec­­ta­­tion approp­­rié, four­­nit, en un temps minime, un solu­­tion qui pro­­cu­­rait un gain de 18 % par rap­­port au plan obtenu manuel­­le­­ment... 2) Une usine sidé­­rur­­gique pos­­sé­­dait trois chaînes de lami­­noirs, dont la pre­­mière était très moderne et la der­­nière très vétuste. Chaque mois, un bureau de pla­­ni­­fi­­ca­­tion répar­­tis­­sait entre les trois chaînes les pro­­duc­­tions à réa­­li­­ser, selon le car­­net de com­­mandes et les pré­­ vi­­sions du ser­­vice com­­mer­­cial. Un simple pro­­gramme linéaire, dont la solu­­tion sur ordi­­ na­­teur peut être obte­­nue en bien moins d’une seconde, éta­­blit une répar­­tition qui fai­­sait gagner 6 % du coût total de fabri­­ca­­tion, par rap­­port au plan, par­­ti­­cu­­liè­­re­­ment soi­­gné, cal­­ culé par le bureau com­­pétent. Et, bien entendu, tout plan et toute modi­­fi­­ca­­tion pou­­vaient être désor­­mais obte­­nus dans les minutes qui sui­­vaient, quasiment en temps réel... Cepen­­dant, il est bien clair, néan­­moins, qu’on ne doit pas tou­­jours s’attendre à des gains de cet ordre, à chaque inter­­ven­­tion. Néanmoins le «  retour sur inves­­ tis­­se­­ments » se chiffre en mois bien plus sou­­vent qu’en années. Et plu­­sieurs sous­optimisations non contra­­dic­­toires peuvent conduire à des béné­­fices cumu­­lés dignes d’être pris en consi­­dé­­ra­­tion.

© Dunod – Toute reproduction non autorisée est un délit.

D’autre part, la recherche opé­­ra­­tion­­nelle appa­­raît, de jour en jour davan­­tage, dans un rôle moins ponc­­tuel d’aide à la déci­­sion, qui lui convient bien mieux. Pour le jouer conve­­na­­ble­­ment, il lui faut reve­­nir à une com­­po­­si­­tion plus hété­­ro­­gène des équipes d’ana­­lystes (qui ne sau­­raient notam­­ment se pas­­ser ni des com­­pé­­tences d’éco­­ no­­mistes, ni d’orga­­ni­­sa­­teurs – au sens de spé­­cia­­listes de la vie des entre­­prises –) et à une pro­­lon­­ga­­tion des inter­­ven­­tions au-­­­delà de la remise du rap­­port d’étude (main­­ te­­nance, cycle de vie). En effet, le temps est révolu du rap­­port alam­­bi­­qué, hérissé de for­­mules et de jar­­ gon, dont les conclu­­sions ne seront jamais mises en appli­­ca­­tion. Les ana­­lystes, après le dépôt de leur rap­­port, qui sera rédigé le plus sim­­ple­­ment pos­­sible dans le lan­­gage le plus cou­­rant, devront encore convaincre les res­­pon­­sables de la pos­­si­­bi­­lité d’agir en tenant compte de leurs recom­­man­­da­­tions et les aider à les mettre en œuvre. Le conseiller en recherche opé­­ra­­tion­­nelle apporte un œil neuf et des méthodes raf­­fi­­nées d’ana­­lyse et de syn­­thèse. Sa fonc­­tion n’est pas d’émettre des oracles, mais d’aider ceux qui le consultent à com­­prendre les impli­­ca­­tions des dif­­fé­­rentes déci­­ sions qu’ils pour­­raient prendre, de les aider à choi­­sir, puis fina­­le­­ment de les assis­­ter dans la mise en pra­­tique de la déci­­sion rete­­nue. Sans cette volonté d’accom­­pa­­gner l’action, il ris­­que­­rait, le plus sou­­vent, d’aban­­don­­ner le déci­­deur à ses pré­­ju­­gés ou ses impul­­sions irra­­tion­­nelles ou – pire – de se subs­­ti­­tuer au déci­­deur. xvii

Intro­­duc­­tion à la recherche opé­­ra­­tion­­nelle

R.O.

et ges­­tion

Naguère encore, le souci d’une bonne ges­­tion se tra­­dui­­sait par un soin spé­­cial appor­ té à la comp­­ta­­bi­­lité. Initialement, la comp­­ta­­bi­­lité est l’his­­toire du passé de l’acti­­vité et elle com­­porte plu­­sieurs buts, dont l’un est de per­­mettre de connaître la situa­­tion financière de l’entre­­prise (les élé­­ments pas­­sifs et actifs) et l’autre de four­­nir au fisc les bases d’impo­­si­­tion. Puis la comp­­ta­­bi­­lité est aussi deve­­nue un ins­­tru­­ment de pré­­vi­­sion. L’étude des ­ratios per­­met de sur­­veiller le déve­­lop­­pe­­ment de l’entre­­prise et faci­­lite l’éla­­bo­­ra­­tion de cer­­taines déci­­sions  : le contrôle bud­­gé­­taire auto­­rise une cer­­taine pla­­ni­­fi­­ca­­tion ­interne et un contrôle per­­manent de l’uti­­li­­sation et de la crois­­sance des res­­sources. La comp­­ta­­bi­­lité doit concou­­rir à une ges­­tion de plus en plus scien­­ti­­fique. Une des condi­­tions de ce déve­­lop­­pe­­ment est l’inté­­gra­­tion des don­­nées, qui vise à sai­­sir le fait élé­­men­­taire, une fois pour toutes, dans sa « pureté », c’est-­­­à-dire au plus près de sa source. Il faut remar­­quer que cette exi­­gence ne contra­­rie en rien la réa­­li­­sa­­tion d’un sys­­tème d’infor­­ma­­tion adapté à une struc­­ture plus ou moins décen­­tra­­li­­sée de l’entre­­ prise et s’accom­­mode, sans dif­­fi­­culté, de tout sys­­tème infor­­ma­­tique cor­­res­­pon­­dant au type d’orga­­ni­­sa­­tion retenu. Par exemple, l’étude de la dis­­tri­­bu­­tion sta­­tistique des ventes néces­­si­­tait hier une ven­­ti­­lation par­­ti­­cu­­lière des com­­mandes des clients ; aujourd’hui, les codes-barre à une ou deux dimensions (QR-codes) ou les puces électroniques, sur lesquels ont été enre­­gis­­trées les don­­nées, en vue d’éta­­blir les bons de livrai­­son, bor­­de­­reaux, fac­­tures, etc., peuvent ser­­vir, sans autre apprêt, à un rapide dépouille­­ment.

But

et plan de l’ouvrage

Le présent ouvrage repro­­duit en grande par­­tie des confé­­rences, puis des cours, pro­­fes­­sés depuis plus de cin­­quante ans, prin­­ci­­pa­­le­­ment au CNAM, où ils ont béné­­fi­­cié du meilleur accueil. Sans doute faut-­­­il rechercher la rai­­son de ce bon accueil dans le fait que les élèves du Conser­­va­­toire National des Arts et Métiers étant déjà pour la plupart des pra­­ ti­­ciens, ont, plus que d’autres élèves-­­­ingénieurs sou­­vent plus jeunes, le sens des réa­­li­­tés éco­­no­­miques, la connais­­sance de l’entre­­prise, et la notion des dif­­fi­­cul­­tés à vaincre dans ces domaines. Dans l’entre­­prise ou l’admi­­nis­­tra­­tion clas­­siques, dans les grou­­pe­­ments éco­­no­­ miques hori­­zon­­taux ou ver­­ti­­caux, pri­­vés ou publics, les méthodes de ges­­tion scien­­ ti­­fique et, en par­­ti­­cu­­lier, la recherche opé­­ra­­tion­­nelle ont gagné bien du ter­­rain. Et encore davantage en période de crise... Ces méthodes sont désor­­mais indis­­pen­­sables  : la société tout entière étant confron­­tée à l’auto­­ma­­ti­­sation et à l’infor­­ma­­ti­­sation. Car ces mots, dans le domaine indus­­triel, n’évoquent plus seule­­ment la créa­­tion, pour les pro­­duc­­tions de masse, de chaînes où les mani­­pu­­la­­tions des élé­­ments en cours de fabri­­ca­­tion sont effec­­tuées méca­­ni­­que­­ment. Il s’agit, bien davan­­tage, de l’asso­­cia­­tion des ordi­­na­­teurs à la pro­­ duc­­tion et au contrôle : xviii

But et plan de l’ouvrage

a) com­­mande et contrôle numé­­rique des machines-­­­outils ou des robots en vue de l’usi­­nage des pièces com­­plexes, de grandes dimen­­sions, à tolé­­rances ser­­rées ; b) conduite et régu­­la­­tion des pro­­ces­­sus dans les indus­­tries de trans­­for­­ma­­tion phy­­ sique, chi­­mique ou physico-­­­chimique ; c) com­­mande et contrôle en temps réel d’un ensemble de pro­­ces­­sus indus­­triels et admi­­nis­­tra­­tifs. Il en va de même dans le sec­­teur ter­­tiaire (notam­­ment en tran­­sport et logis­­tique). Les solu­­tions implé­­men­­tées informatiquement doivent être capables à tout moment : 1) d’éla­­bo­­rer des ins­­truc­­tions ayant pour but de cor­­ri­­ger une action en cours ou de la modi­­fier; 2) de rendre compte sur-­­­le-champ de leur acti­­vité aux inté­­res­­sés immé­­diats ; 3) d’infor­­mer suc­­cinc­­te­­ment, au fur et à mesure, les diri­­geants. Il est donc natu­­rel que les ingé­­nieurs des diverses spé­­cia­­li­­tés, au CNAM comme ailleurs, et au pre­­mier rang, ceux qui s’occu­­pe­­ront jus­­te­­ment du trai­­te­­ment des don­­nées et de l’optimisation, soient inté­­res­­sés par les méthodes et les tech­­niques de la recherche opé­­ra­­tion­­nelle. Cet ouvrage didac­­tique, péda­­go­­gique est des­­tiné à leur venir en aide. L’exposé a été divisé en quatre grandes par­­ties. • La R.O., fil d’Ariane dans les pro­­blèmes com­­bi­­na­­toires dis­­crets

© Dunod – Toute reproduction non autorisée est un délit.

Après avoir donné quelques élé­­ments d’algèbre de Boole binaire, de théo­­rie des graphes, des par­­cours des graphes et pro­­gram­­ma­­tion dyna­­mique en uni­­vers cer­­tain, on exa­­mine leurs prin­­ci­­pales appli­­ca­­tions en recherche opé­­ra­­tion­­nelle. Pour l’algèbre de Boole : codage et énu­­mé­­ra­­tion impli­­cite. Recherches arbo­­res­­centes. Pour les graphes : – pro­­blèmes de che­­mins de valeur opti­­male ; – pro­­blèmes d’ordon­­nan­­ce­­ment ; – pro­­blèmes de flot maximal ; – pro­­blèmes d’affec­­ta­­tion ; – pro­­blèmes de tran­­sport ; – pro­­blème du voya­­geur de com­­merce. La théo­­rie des graphes consti­­tue d’ailleurs le lien impli­­cite entre les deux pre­­ mières par­­ties du livre. • La R.O. contre le hasard (sto­­chas­­tique)

Dans cette par­­tie, on étu­­die tout d’abord, notamment au moyen des graphes, les bases de la théo­­rie des pro­­ces­­sus sto­­chas­­tiques (essen­­tiel­­le­­ment les chaînes et les pro­­ces­­sus de Markov) et l’on donne un aper­­çu de la pro­­gram­­ma­­tion dyna­­mique en uni­­vers aléa­­toire.

xix

Intro­­duc­­tion à la recherche opé­­ra­­tion­­nelle

Puis on en envi­­sage les impor­­tantes appli­­ca­­tions : – fia­­bi­­lité des équi­­pe­­ments et sûreté de fonc­­tion­­ne­­ment des sys­­tèmes ; – phé­­no­­mènes d’attente. Enfin, un cha­­pitre par­­ti­­cu­­lier, en fin d’ouvrage, est consa­­cré aux méthodes de simu­­la­­tion. • La R.O. dans les pro­­blèmes com­­bi­­na­­toires conti­­nus

Cette par­­tie est entiè­­re­­ment dévo­­lue à la pro­­gram­­ma­­tion mathéma­­tique. En fait, vu le niveau auquel on se place ici, on se bor­­nera à la pro­­gram­­ma­­tion linéaire, selon le plan sui­­vant : – pré­­sen­­ta­­tion des pro­­grammes linéaires ; leur aspect géométrique ; – algo­­rithme du sim­­plexe ; – notion de dua­­lité ; – paramétrisation : para­­mé­­trages de la fonc­­tion éco­­no­­mique et du second membre. En dépit du titre de cette troi­­sième par­­tie, on appor­­tera quelques indi­­ca­­tions sur les tron­­ca­­tures réa­­li­­sables en pro­­gram­­ma­­tion « dis­­crète », avec les programmes li­ néaires en nombres entiers. • La R.O. et les situa­­tions concur­­ren­­tielles

On se borne, dans cette par­­tie, à pré­­sen­­ter la théo­­rie des jeux et ses liens avec la pro­­ gram­­ma­­tion linéaire (dua­­lité).

La R.O.

dans sa pra­­tique

Ce pré­­cis n’est qu’un ouvrage didac­­tique, aussi n’abordons-­­­nous que briè­­ve­­ment les condi­­tions dans les­­quelles la R.O. inter­­vient dans la pra­­tique. Hâtons-­­­nous de pré­­ci­­ser d’abord, que, dans la vie, on ne ren­­contre que rare­­ment des situa­­tions assez simples pour être jus­­ti­­ciables direc­­te­­ment d’un des algo­­rithmes élé­­men­­taires. Bien sou­­vent, un pro­­blème concret néces­­site la mise en œuvre d’un ­ensemble de méthodes, les unes s’ins­­pi­­rant des pro­­cé­­dés clas­­siques, les autres résul­­ tant de recherches ori­­gi­­nales. Par­­fois, pris par le temps, l’ana­­lyste se contente d’adap­­ ter une méta-­­­heuristique (aux­­quelles nous avons réservé un cha­­pitre en fin d’ouvrage) à son pro­­blème et n’obtient qu’une solu­­tion appro­­chée. Pour cer­­taines « heu­­ris­­tiques » (algo­­rithmes appro­­chés), il existe des « garan­­ties de per­­for­­mance ». Répé­­tons aussi que l’on peut avoir avan­­tage, dans la pra­­tique, à subs­­ti­­tuer à la notion d’opti­­mum (mathéma­­tique), uti­­li­­sée dans les sché­­mas les plus simples, le concept de solu­­tion « très satis­­faisante », ou même seule­­ment « bonne ». C’est notam­­ment le cas lors­­qu’un cri­­tère unique et pré­­cis n’a pu être défini. Insis­­tons enfin sur les rela­­tions entre chercheurs opé­­ra­­tion­­nels et « uti­­li­­sa­­teurs ». Toute équipe de R.O. doit, sous peine d’échec, tra­­vailler en par­­fait accord avec les uti­­li­­sa­­teurs, et pré­­pa­­rer, en col­­la­­bo­­ra­­tion avec eux et leur orga­­ni­­sa­­teur, les amé­­lio­­ ra­­tions et chan­­ge­­ments qu’elle pré­­co­­nise et dont il lui faut éta­­blir clai­­re­­ment l’effi­­ ca­­cité. Tout ceci est valable, qu’il s’agisse d’une déci­­sion excep­­tion­­nelle prise au niveau le plus élevé, ou qu’il soit tout sim­­ple­­ment ques­­tion d’amé­­lio­­rer des pro­­ cé­­dures déci­­sion­­nelles répé­­titives. Dans ce der­­nier cas, il y a inté­­rêt à ins­­ti­­tuer une col­­la­­bo­­ra­­tion, géné­­ra­­le­­ment accep­­tée, entre l’homme et la machine. xx

Struc­­tures ordonnées ­­ Applica ­­ tions ­­

1

des treillis et de l’algèbre de Boole en recherche opé­­ra­­tion­­nelle

1.1 Notions

sur les struc­­tures ordonnées1

1.1.1 Rela­­tions. Rela­­tions binaires. Propriétés On nomme rela­­tion tout sous-ensemble du « pro­­duit car­­té­­sien » de deux ou plu­­sieurs ensembles. Ainsi, R 5 5( a, b ) ; 1 c, a 2 ; 1 c, d 2 6 est par définition un sous-­­­ensemble de : 5( a, a ) ; ( a, b ) ; ( a, g ) ; ( a, d ) ; ( b, a ) ; ( b, b ) ; ( b, g ) ; ( b, d ) ; ( c, a ) ; ( c, b ) ; ( c, g ) ; ( c, d )6 , qui n’est autre que le pro­­duit car­­té­­sien, noté A 3 B de A 5 5 a, b, c 6 par B 5 5 a, b, g, d 6 . En par­­ti­­cu­­lier, une rela­­tion binaire sur un ensemble de Ε (ainsi que l’on dit par abus de lan­­gage) est un sous-­­­ensemble du pro­­duit E 3 E. Pre­­nons par exemple E 5 5 x, y, z 6 . Nous repré­­sen­­tons le pro­­duit car­­té­­sien sous forme d’un tableau : 1. Ce sous cha­­pitre ne consti­­tue qu’un rapide rap­­pel. Au cas où le lec­­teur vou­­drait appro­­fon­­dir les ques­­tions concer­­nant les rela­­tions et les struc­­tures ordon­­nées, il pourra se repor­­ter à des livres spé­­cia­­li­­sés.

Chapitre 1 • Structures ordonnées Applications des treillis

x

y

z

x

x (x, x)

(x, y)

(x, z)

x (x, x)

y ( y, x)

( y, y)

( y, z)

y

z ( z, x)

( z, y)

(z, z)

z ( z, x)

y

z

x

(x, z)

y

x (x, x)

( y, y)

(x, y)

y

( y, z)

z ( z, x)

(z, z)

Relation R1

Produit cartésien ExE

z

Relation R2

On nomme tout natu­­rel­­le­­ment rela­­tion dia­­go­­nale : D 5 5 1 x, x 2 ; 1 y, y 2 ; 1 z, z 2 6 . Une rela­­tion est, par défi­­ni­­tion, réflexive si elle contient la dia­­go­­nale. La rela­­tion R1, est symé­­trique, mais elle n’est pas réflexive. Pour qu’une rela­­tion soit symé­­ trique, il faut, quels que soient a et b, qu’elle contienne le couple (b, a) si le couple (a, b) lui appar­­tient. La rela­­tion R2 est anti­­sy­­mé­­trique, mais elle n’est pas réflexive. Pour qu’une rela­­tion soit anti­­sy­­mé­­trique, il faut, quels que soient a et b, qu’elle ne contienne pas le couple (b, a) si le couple (a, b) lui appar­­tient, sauf si a 5 b, c’est­­­à-dire s’il s’agit d’un élé­­ment de la dia­­go­­nale. x x (x, x)

y

z

x

y

(x, y)

(x, z)

(x, x)

(x, y)

(x, t)

(y, x)

(y, y)

(y, t)

y

z

(y, z)

z

t

(z, z)

(z, z)

(t, x)

(t, y)

Relation R3

(t, t)

Relation R4

Pour qu’une rela­­tion soit tran­­si­­tive, il faut qu’elle contienne (a, g) si elle contient (a, b) et (b, g), quels que soient a, b, g. La rela­­tion R3 est tran­­si­­tive ; elle n’est pas non plus réflexive ; elle est anti­­sy­­mé­­ trique. La rela­­tion R4 est tran­­si­­tive ; elle est réflexive ; elle est symé­­trique. NB : Le contraire de réflexif, symé­­trique, tran­­si­­tif est, res­­pec­­ti­­ve­­ment, ir­­­réflexif, asy­­ mé­­trique, intran­­si­­tif. Une rela­­tion est ir­­réflexive si elle ne contient aucun élé­­ment de D ; elle est asy­­mé­­trique, si elle n’est symé­­trique pour aucun couple ; elle est intran­­si­­tive si elle n’est tran­­si­­tive pour aucune paire de couples ; c’est le cas de la rela­­tion R5. x x

y ( x, y)

z ( z, x)

x x (x, x)

( y, z)

y

y

z

(x, y)

(x, z)

y

( y, z)

z ( z, x) Relation R5

2

z

Relation R6

1.1  Notions sur les struc­­tures ordonnées

Il faut se gar­­der de confondre ces qua­­li­­fi­­ca­­tifs avec non réflexif (il y a des élé­­ ments dans la dia­­go­­nale, mais non tous), non symé­­trique (il existe des élé­­ments symé­­triques, mais tous ne le sont pas), non tran­­si­­tif (la tran­­si­­ti­­vité existe pour cer­­ tains couples, mais pas pour d’autres). La rela­­tion R6 est, à la fois, non réflexive, non symé­­trique et non tran­­si­­tive.

1.1.2 Préordre. Équi­­va­­lence. Ordre a) une rela­­tion réflexive et tran­­si­­tive est une rela­­tion de préordre. Exemple.  Le Cri­­terium des cham­­pions a donné les résul­­tats sui­­vants (tableau 1.1) : A 1er Camille e

2 ex aequo e

4 Ernest

{

Anatole Désiré

e



5 Bernard Tableau 1.1



B

C

D

E

A (A, A)

(A, B)

B

(B, B)

C (C, A)

(C, B)

(C, C) (C, D) (C, E)

D (D, A) E

(D, B) (E, B)

(D, D) (D, E) (E, E)

(A, D) (A, E)

Tableau 1.2: relation R

© Dunod – Toute reproduction non autorisée est un délit.

Classons-­­­les d’après la rela­­tion R « avoir obtenu un rang meilleur ou aussi bon que ». Dans le tableau 1.2, le couple (A, B) signi­­fie qu’Anatole a obtenu un rang meilleur ou aussi bon que Bernard : A s B. La rela­­tion est évi­­dem­­ment réflexive, puis­­qu’elle contient la dia­­go­­nale ; elle est aussi tran­­si­­tive puisque si X a obtenu un rang meilleur ou aussi bon que Y et Y un rang meilleur ou aussi bon que Z, X a évi­­ dem­­ment un rang meilleur ou aussi bon que Z : 3 X s Y et Y s Z 4 entraîne 3 X s Z 4 . Mais elle n’est pas symé­­trique, bien que A s D et D a A ; par exemple, A s E, mais E O A ; elle n’est pas non plus anti­­sy­­mé­­trique, puisque 3 A s D et D s A] n’entraîne pas 3 A ; D 4 (Anatole ne peut pas être confondu avec Dési­­ré).

b) une rela­­tion réflexive, tran­­si­­tive et symé­­trique est une rela­­tion d’équi­­va­­lence. Par exemple, envi­­sa­­geons deux groupes de droites paral­­lèles  : d’une part A || C ; d’autre part B || D || E. Le tableau 1.3 ci-dessous cor­­res­­pond à la rela­­tion || : « être paral­­lèle à ou confondu avec ». Le tableau 1.4, résulte de la par­­tition des droites en classes d’équi­­va­­lence. Il y a deux classes {A, C} et {B, D, E}. À titre d’exemple, repre­­nons main­­te­­nant le clas­­se­­ment du Cri­­terium des cham­­pions dans l’ordre d’arri­­vée (A et D étant indif­­fé­­rents). L’exis­­tence d’une rela­­tion l’équi­­va­­lence (donc réflexive, symé­­trique et tran­­si­­tive), « avoir le même rang que », est mani­­feste pour A et D. Si l’on fait le quo­­tient du préordre par cette rela­­tion d’équi­­va­­lence, on trouve en réa­­lité quatre classes ; {C}, {A, D}, {E}, {B} et, désor­­mais : C s 5 A, D 6 s 5 E 6 s 5 B 6 , la rela­­tion stricte S ayant le sens : « avoir un meilleur rang que ». Posons 5 C 6 5 a, 5 A, D 6 5 b, 5 E 6 5 g et 5 B 6 5 d ; si l’on repré­­sente par le tableau 1.6 la rela­­tion sur l’ensemble {a, b, g, d}, on constate qu’elle est ir­­­réflexive, asy­­mé­­trique ; en revanche, elle est tran­­si­­tive. 3

Chapitre 1 • Structures ordonnées Applications des treillis

A

B

A A, A

D

E

A

B, B

C C, A

B, D B, E

D

D, B

D, D D, E

E

E, B

E, D E, E



Tableau 1.3: relation ||

A

C (C, C) A

(C, A)

D

E

(C, D) (C, E) (C, B)

......

(E, E) (E, B) (B, B)

B



E

B

B, B B, D B, E

D

D, B D, D D, E

E

E, B E, D E, E

B

.............

......

E

D

Tableau 1.4: relation ||

(A, A) (A, D) (A, E) (A, B) .(D, . . .A). . . .(D, . . .D). . (D, E) (D, B)

D

B

C B, B C, C

C, C

C

C

A A, A A, C

A, C

B



C









 .

, 

 .  .  .



Tableau 1.5

.

, 

, 

, 

, 

. .

. .

, 

.

Tableau 1.6: relation S

c) Une rela­­tion réflexive, anti­­sy­­mé­­trique, tran­­si­­tive est, par définition, une rela­­tion d’ordre ( large par définition). Exemple.  Consi­­dé­­rons N* l’ensemble des entiers natu­­rels privé du zéro, et la rela­­ tion x | y (x divise exac­­te­­ment y, sans reste), étant entendu que x divise x, quel que soit x N*. En rai­­son de cette der­­nière hypo­­thèse, la rela­­tion est réflexive (ce que l’on tra­­duit en disant que l’ordre est large). Elle est évi­­dem­­ment tran­­si­­tive, car si x | y et y | z, alors x | z. De plus, elle est anti­­sy­­mé­­trique : en effet si x | y et y | x, c’est que x 5 y. Soit X 5 {1, 2, 3, 5, 10, 20, 30} une par­­tie de N. Le tableau 1.7 repré­­sente la rela­­ tion x | y sur cet ensemble. 1 2 3 5 10

1

2

3

5

10

20

30

(1, 1)

(1, 2) (2, 2)

(1, 3)

(1, 5)

(1, 10) (2, 10)

(1, 20) (2, 20)

(1, 30) (2, 30)

(3, 3)

(3, 30) (5, 5)

(5, 10)

(5, 20)

(5, 30)

(10, 10)

(10, 20) (20, 20)

(10, 30)

20

(30, 30)

30 Tableau 1.7

4

1.1  Notions sur les struc­­tures ordonnées

On véri­­fie aisé­­ment sur le tableau la réflexi­­vité et l’anti­­­symé­­trie. On vérifie (moins faci­­le­­ment) la tran­­si­­ti­­vité sur ce tableau par les “rectangles” dont un des sommets est sur la diagonale :

© Dunod – Toute reproduction non autorisée est un délit.

(1, 2)   (2, 2)  (1, 2)  (2, 2)   (1, 5)  (5, 5)   (1, 5)   (5, 5)   

... ... ... ... ... ... ... ...

(1, 10) (1, 10)  . . . (1, 30) (1, 3) . . . (1, 30) (2, 10) (10, 10)   . . . (10, 30) (3, 3)  . . . (3, 30) (1, 30) (5, 10)  . . . (2, 30) (1, 5) . . . (1, 20) (2, 30) (10, 10) . . . (10, 30) (5, 5)  . . . (5, 20) (1, 10) (5, 10)  . . . (5, 30) (1, 10) . . . (1, 20) (5, 10) (10, 10) . . . (10, 30) (10, 10)   . . . (10, 20) (1, 30) (1, 2) . . . (1, 20) (2, 10) . . . (2, 20) (5, 30) (2, 2) . . . (2, 20) (10, 10) . . . (10, 20) (5, 10) . . . (5, 20) (10, 10) . . . (10, 20)

Ainsi le rectangle en haut à gauche se lit : 1/2 et 2/2 et 2/10 entraîne 1/10. Contrai­­re­­ment à ce qui se passe pour le tableau 1.5, la par­­tie supé­­rieure du tableau (au-­­­dessus de la dia­­go­­nale) ne fait pas appa­­ raître tous les couples. C’est qu’au sens de la rela­­tion tous les élé­­ments ne sont pas deux à deux compa­­rables. Ainsi, par exemple, on n’a pas 2 | 3 ni 2 | 5 (et pas davan­­tage 3 | 2 Figure 1.1 Figure 1.2 ou 5 | 2). On exprime ce fait en disant que l’ordre est par­­tiel. Dans le cas contraire, l’ordre est total. La rela­­tion < sur N, Z, Q ou R (ou tout sous-­­­ensemble de ceux-­­­ci) est une rela­­tion d’ordre total. On peut don­­ner une repré­­sen­­ta­­tion « sagit­­tale » de la rela­­tion (figure 1.1) : Deux élé­­ments a et b, repré­­sen­­tés cha­­cun par un point, sont réunis par un arc si et seule­­ment si a | b. Il y a autant d’arcs que de couples dans le tableau 1.7 soit 22, y compris 7 boucles. Mais on peut réduire le nombre de ces arcs, en sup­­pri­­mant ceux qui résultent de la réflexi­­vité et de la tran­­si­­ti­­ vité. On obtient alors un dia­­gramme de Hasse (fig. 1.2), plus lisible. Le dia­­gramme de Hasse d’un ensemble tota­­le­­ment ordonné est une Figure 1.3 chaîne (fig.  1.3) (en fait, en termes de graphes orien­­tés, il s’agira d’un ­che­­min). À toute rela­­tion d’ordre large cor­­res­­pond une et une seule rela­­tion d’ordre strict. Une rela­­tion d’ordre strict est ir­­réflexive, asy­­mé­­trique et tran­­si­­tive. Elle peut induire un ordre par­­tiel ou un ordre total.

5

Chapitre 1 • Structures ordonnées Applications des treillis

Pour obte­­nir la repré­­sen­­ta­­tion de la rela­­tion d’ordre strict cor­­res­­pon­­dant à | (divise), c’est-­­­à-dire la rela­­tion (divise et n’est pas égal), il suf­­fit de sup­­pri­­mer la dia­­go­­nale du tableau 1.7 et les boucles (arcs fer­­més sur eux-­­­mêmes) de la fig. 1.1. Ici, l’ordre strict n’est que par­­tiel (tout comme l’ordre large d’où il provient). À toute rela­­tion d’ordre a (ou a ) cor­­res­­pond une rela­­tion converse s (ou s) . Le diagramme de Hasse (fig 1.2) s’obtient en supprimant dans la fig. 1.1, les boucles et les arcs de transitivité : ainsi 1 divise 2 et 2 divise 10 entraîne 1 divise 10 : l’arc (1,10) est un arc de transitivité.

1.1.3 Élé­­ments par­­ti­­cu­­liers d’un ensemble ordonné Un ensemble sur lequel est défi­­nie une rela­­tion d’ordre (par­­tiel ou total) est nommé ensemble ordonné (par­­tiel­­le­­ment ou tota­­le­­ment). Cer­­tains élé­­ments par­­ti­­cu­­liers des ensembles par­­tiel­­le­­ment ordon­­nés jouent un grand rôle en recherche opé­­ra­­tion­­nelle. Consi­­dé­­rons un ensemble X, par­­tiel­­le­­ment ordonné par la rela­­tion a (être infé­­rieur ou égal à) et une par­­tie P de cet ensemble. S’il existe (bien noter cette res­tric­­tion) : a) Un élé­­ment m de X qui est infé­­rieur ou égal à tout élé­­ment x de P, m est un mino­­rant de P. Un élé­­ment M de X qui est supé­­rieur ou égal à tout éle­­ment x de P, est un majo­­ rant de P. b) Un élé­­ment M de P, tel qu’il n’existe pas d’élé­­ments de Ρ supé­­rieur à M, est un élé­­ment maximal de P.1  n élé­­ment m de P, tel qu’il n’existe pas d’élé­­ments de Ρ infé­­rieur à M, est un U élé­­ment mini­­mal de P. De même les élé­­ments définis ci-dessous peuvent exister ou ne pas exister : c) Le plus grand élé­­ment E (ou encore : le maxi­­mum) de P est l’élé­­ment de P, tel que, pour tout xPP, on a : E s x. Le plus petit élé­­ment e (ou encore : le mini­­mum) de P est l’élé­­ment de P, tel que, pour tout xPP, on a : e a x. d) La borne supé­­rieure (b.s.) B de P (ou supremum de P, notée aussi sup P) est le plus petit élé­­ment de l’ensemble des majo­­rants de P. La borne infé­­rieure (b.i.) b de P (ou infimum de P, notée aussi inf P) est le plus grand élé­­ment de l’ensemble des minorants de P. e) L’élé­­ment uni­­ver­­sel de X est le plus grand élé­­ment de X. L’élé­­ment nul de X est le plus petit élé­­ment de X.

1. L’Aca­­dé­­mie des sciences recom­­mande d’employer les termes «  maxi­­mum, mini­­mum, opti­­ mum » uni­­que­­ment comme subs­­tan­­tifs ; les adjec­­tifs cor­­res­­pon­­dants étant « maximal, mini­­mal, opti­­mal ». Ainsi on doit dire « élé­­ment maximal » (et non pas « élé­­ment maxi­­mum »). 6

1.1  Notions sur les struc­­tures ordonnées

Insistons sur le fait que les élé­­ments par­­ti­­cu­­liers défi­­nis en a), b), c), d) et e) n’existent pas néces­­sai­­re­­ment dans un ensemble par­­tiel­­le­­ment ordonné, ce qui est illustré par l’exemple ci-dessous. Exemples.  Soit X 5 {1, 2, 3, 5, 10, 20, 30} un ensemble par­­tiel­­le­­ment ordonné par la rela­­tion x | y (x divise y). Nous invi­­tons le lec­­teur à se repor­­ter au dia­­gramme de Hasse asso­­cié (Fig. 1.2). 1.  Pre­­nons P 5 {2, 3, 5, 10}. P est inclus dans X Il existe un majo­­rant de P : 30, un mino­­rant : 1, deux élé­­ments maximaux : 3 et 10, trois élé­­ments mini­­maux : 2, 3, 5, ni plus grand élé­­ment, ni plus petit élé­­ment de P. La b.s. de P est 30, la b.i. est 1. X n’admet pas d’élé­­ment uni­­ver­­sel, mais un élé­­ment nul : 1. 2. Pre­­nons main­­te­­nant P 5 {2, 5, 10}. Ρ compte trois majo­­rants : 10, 20, 30, un mino­­rant : 1, un élé­­ment maximal : 10, deux élé­­ments mini­­maux : 2 et 5, un plus grand élé­­ment : 10, pas de plus petit élé­­ ment. La borne supé­­rieure de Ρ est 10, la borne infé­­rieure est 1. Pour une par­­tie réduite à deux élé­­ments (ou «  paire  ») {x, y}, d’un ensemble ordonné, il peut exis­­ter une borne supé­­rieure et/ou une borne infé­­rieure ; la b.s., lors­­ qu’elle existe, est notée x ~ y et la b.i. par x ` y.

1.1.4 Treillis

© Dunod – Toute reproduction non autorisée est un délit.

a) On appelle treillis (ou encore lat­­tis ou ensemble réti­­culé) un ensemble par­­tiel­­le­­ ment ordonné dans lequel, pour toute paire d’élé­­ments, existent une borne supé­­rieure (b.s.) et une borne infé­­rieure (b.i.). À cette défi­­ni­­tion on peut subs­­ti­­tuer la défi­­ni­­tion axio­­ma­­tique sui­­vante. Soit un ensemble T, dont les élé­­ments sont munis de deux lois de compo­­si­­tion, ~ et ` , véri­­ fiant, quels que soient x, y et zPT, les pro­­prié­­tés ci-­­­après : 1.  x ~ y 5 y ~ x (commu­­ta­­ti­­vité) 1r.  x ` y 5 y ` x ~ ~ ~ ~ 1 2 1 2 2.  x 2r.  x ` 1 y ` z 2 5 1 x ` y 2 ` z y z 5 x y z (associativité) 3.  x ~ x 5 x (idempotence) 3r.  x ` x 5 x 4.  x ~ 1 x ` y 2 5 x (absorp­­tion) 4r. x ` ( x ~ y ) 5 x alors T consti­­tue un ensemble ordonné par la rela­­tion a telle que : 5.  3 x a y 4   équi­­vaut à  3 x ` y 4 5 x  et équi­­vaut à 3 x ~ y 4 5 y. On appelle alors T un treillis. On peut aisément démontrer l’équivalence de ces deux définitions. Exemple.  Consi­­dé­­rons, par exemple, les divi­­seurs de 30 : 1, 2, 3, 5, 6, 10, 15, 30 (ils sont au nombre de 8 car 1 1 1 1 2 # 1 1 1 1 2 # 1 1 1 1 2 5 8 et 30 5 21 # 31 # 51 2 , ordon­­nés par la rela­­tion x | y (x divise y). Rap­­pe­­lons que si, n 5 p # qb # rg cest la décom­­po­­si­­tion en pro­­duit de fac­­teurs premiers de l’entier n 1 n > 2 2 , alors n admet 1 a 1 1 2 1 b 1 1 2 1 g 1 1 2 c divi­­seurs (y compris 1 et n). 7



Chapitre 1 • Structures ordonnées Applications des treillis



Ces díviseurs forment un treillis dont le dia­­gramme de Hasse est donné par la figure 1.4. La b.s. de deux élé­­ments quel­­conques est leur p.p.c.m ; la b.i., leur p.g.c.d. Ainsi : 5 ~ 6 5 5 3 6 5 30 et 5 ` 6 5 1 ; 6 ~ 15 5 2 3 3 3 5 5 30 et 6 ` 15 5 3, etc. L’élé­­ment uni­­ver­­sel de ce treillis est 30, l’élé­­ment nul, 1. D’une manière géné­­rale N* 5 N 2 5 0 6 , ordonné par la rela­­ tion x | y (x divise y), pré­­sente une struc­­ture de treillis infini. L’élé­­ment nul est tou­­jours 1 ; il n’y a pas d’élé­­ment uni­­ver­­sel. On montre que tout treillis T ayant un nombre fini d’éléments comporte un élément nul et un élément universel. b) Un treillis, comportant un élé­­ment nul et un uni­­ver­­sel, que nous dési­­gne­­rons, res­­pec­­ti­­ve­­ment par n et U, est complémenté si, à tout élé­­ment x de T, on peut asso­­cier au moins un élé­­ment de T, noté x tel que : Figure 1.4

6. x ~ x 5 U  et 6r. x ` x 5 n.  



Le treillis de la figure 1.4 est complémenté. En effet : 1 ~ 30 5 30, 1 ` 30 5 1 ; 2 ~ 15 5 30, 2 ` 15 5 1 ; 3 ~ 10 5 30, 3 ` 10 5 1 ; 5 ~ 6 5 30, 5 ` 6 5 1. Ainsi n = 1 est le complément de U = 30 et réciproquement ; de même 3 et 10 sont le complément l’un de l’autre, tout comme 5 et 6. Pro­­priété.  On a, d’après 4 : x ` 1 x ~ x 2 5 x. Or, x ` 1 x ~ x 2 5 x ` U 5 x. D’où : x ` U 5 x. De même : x ~ n 5 x. N.B. Le sys­­tème d’axiomes (1 à 4), (1r à 4r) n’est pas mini­­mal; mais il est pra­­tique pour le cal­­cul. On peut, en effet, mon­­trer que l’absorp­­tion entraîne l’idempotence. c) Un treillis est dis­­tri­­bu­­tif lors­­qu’aux axiomes 1 à 4 et 1r à 4r, s’ajoute le sui­­vant : 7. x ` 1 y ~ z 2 5 1 x ` y 2 ~ 1 x ` z 2 , quels que soient x, y et zPT.



Cet axiome entraîne (cf. Execrcice 1 ci-dessous) :

7r.  x ~ 1 y ` z 2 5 1 x ~ y 2 ` 1 x ~ z 2 .

Inver­­se­­ment, 7r entraîne 7. Exercices. 

8

1.  Soit à démon­­trer, à par­­tir des axiomes 1 à 4, 1r à 4r et 7, que : 7r. x ~ 1 y ` z 2 5 1 x ~ y 2 ` 1 x ~ z 2 . Grâce à 4, on peut écrire le pre­­mier membre de 7r sous la forme : 3 x ~ 1 x ` y 2 4 ~ 1 y ` z 2  , en remplaçant x par x ~ 1 x ` y 2 . Grâce à 2, cette expression est égale à : x ~ 3 1 x ` y 2 ~ 1 y ` z 2 4 (par associativité de ~ ). et, en vertu de 1r, elle est aussi égale à : x ~ 3 ( y ` x ) ~ ( y ` z ) 4 (par commutativité de ` ).

1.1  Notions sur les struc­­tures ordonnées

De ce fait, grâce à 7, le crochet est égal à y ` 1 x ~ z 2 et cette expres­­sion devient : x ~ 3 (y ` (x ~ z) 4 Rem­­pla­­çons x par sa valeur d’après 4r ; l’expression devient : 3 x ` 1 x ~ z 4 ~ 3 1 y ` 1 x ~ z 2 4  ; il vient alors, en appli­­quant 7 : 1 x ~ y 2 ` 1 x ~ z 2 (par distributivité).

et c’est pré­­ci­­sé­­ment le deuxième membre de 7r, qu’il fal­­lait obte­­nir par un cal­­cul fondé sur les seuls axiomes 1 à 7 et 1r à 6r. 2.  Dans un treillis dis­­tri­­bu­­tif, la complémentation est unique. Rai­­son­­nons par l’absurde et sup­­po­­sons que l’élé­­ment x ait deux complé­­ments dif­­fé­­rents, x et x* ; on aurait : x ~ x 5 x ~ x* 5 U et x ` x 5 x ` x* 5 n, avec x 2 x* On peut écrire : x 5 x ` U 5 x ` 1 x ~ x* 2 5 1 x ` x 2 ~ 1 x ` x* 2 5 n ~ 1 x ` x* 2 5 x ` x*, De même :

x* 5 x* ` U 5 x* ` ( x ~ x ) 5 ( x* ` x ) ~ ( x* ` x )

5 n ~ ( x* ` x ) 5 x* ` x 5 x ` x*

© Dunod – Toute reproduction non autorisée est un délit.

Fina­­le­­ment x 5 x*, contrai­­re­­ment à l’hypo­­thèse et ainsi la complémentation est unique. d) Un treillis à la fois dis­­tri­­bu­­tif et complémenté est appelé treillis de Boole. Il est isomorphe à une algèbre de Boole. Une algèbre de Boole B est donc un ensemble par­­tiel­­le­­ ment ordonné, doté d’un élé­­ment nul et d’un élé­­ment uni­­ver­­ sel, dont les élé­­ments véri­­fient les axiomes 1 à 4; 1r à 4r ; 6, 6r et 7 (et donc aussi 7r). La rela­­tion d’ordre est défi­­nie par l’une des quatre rela­­ tions équi­­va­­lentes sui­­vantes : 5*. x a y équi­­vaut à x ` y 5 x ou x ~ y 5 y ou

Figure 1.5

x ` y 5 0 ou x ~ y 5 1 0 et 1 dési­­gnant, res­­pec­­ti­­ve­­ment, n et U. Une algèbre de Boole comportant un seul géné­­ra­­teur a, dif­­fé­­rent de 0 et de 1, comporte quatre élé­­ments (fig. 1.5). 9

Chapitre 1 • Structures ordonnées Applications des treillis



La figure 1.6 repré­­sente un hyper­­­cube, qui n’est autre que le dia­­gramme de Hasse d’une algèbre de Boole à deux géné­­ra­­teurs, a et b, dif­­fé­­rents de 0 et 1. Elle comporte 24 = 16 élé­­ments. Les élé­­ments diagonalement oppo­­sés sur la figure sont le complé­­ ment l’un de l’autre. Ainsi : a ` b et a ~ b , a ~ b et a ` b, etc. Plus généralement une algèbre de Boole avec m atomes comporte 2m éléments.

Figure 1.6

Noter que  : D 5 1 a ` b ~ 1 a ` b 2 5 1 a ~ b 2 ` 1 a ~ b 2 désigne la somme dis­­ jonc­­tive (ou « dif­­fé­­rence symé­­trique ») de a et b : D 5 a { b ;

D 5 ( a ~ b ) ` 1 a ~ b 2 5 1 a ` b 2 ~ 1 a ~ b 2 est le complé­­ment de D. Comme toute algèbre de Boole finie, l’algèbre à deux géné­­ra­­teurs est ato­­mique. Ses atomes, ou élé­­ments qui couvrent 0 (c’est-­­­à-dire sont immé­­dia­­te­­ment supé­­rieurs à 0) sont a ` b, a ` b, a ` b et a ` b. Le théo­­rème de Stone, dont la démons­­tra­­tion n’est pas immé­­diate1 énonce que tout algèbre de Boole est isomorphe à un « corps d’ensembles » (cf. NB ci-­­­dessous). Ainsi, à l’algèbre de Boole de la figure 1.6, on peut faire cor­­res­­pondre le schéma de la figure 1.7. On sup­­pose que a 2 b et a ` b 2 0. Alors appa­­raissent clai­­re­­ment sur la figure, dont le carré repré­­sente l’uni­­vers U, les « régions » A d B, A d B, A d B et A d B, cor­­res­­pon­­dant aux atomes a ` b, a ` b, a ` b et a ` b. NB : On appelle « corps d’ensembles » une famille de par­­ties d’un ensemble, munie des opé­­ra­­tions ensemblistes clas­­siques (réunion, inter­­jec­­tion, complémentation) ; dans le cas d’un ensemble fini E, la famille de ses par­­ties p(E) consti­­tue le corps d’ensembles. Notons que l’algèbre de Boole de la ­figure  1.5 U Figure 1.7 est isomorphe au treillis des divi­­seurs de tout entier de la forme 1. Voir : R. FAURE et E. HEURGON, Struc­­tures ordon­­nées et algèbre de Boole, Gauthier-­­­Villars, 1971. 10

1.2  Repré­­sen­­ta­­tion ensembliste des algèbres de Boole

n 5 p # q (où p et q sont des nombres pre­­miers dif­­fé­­rents). Pour la figure 1.6, il s’agi­­ rait du treillis des divi­­seurs de n 5 p # q # r # s (p, q, r, s pre­­miers) ; par exemple pour n 5 210 5 21 # 31 # 51 # 71. Cette isomorphie se tra­­duit par l’iden­­tité des deux dia­­ grammes de Hasse. Une conséquence du théorème de Stone est que toute algèbre de Boole comportant m atomes (donc finie) comporte 2m éléments.

1.2 Repré­­sen­­ta­­tion ensembliste des algèbres de Boole. Appli­­ca­­tion à la logique élé­­men­­taire 1.2.1 Prin­­cipes de la logique aris­­to­­té­­li­­cienne

© Dunod – Toute reproduction non autorisée est un délit.

Soit un ensemble fon­­da­­men­­tal R, appelé réfé­­ren­­tiel, dont les élé­­ments sont sus­­cep­­ tibles de pré­­sen­­ter cer­­taines pro­­prié­­tés. Étant donnée une pro­­priété p déter­­mi­­née, les élé­­ments qui la véri­­fient forment le sous-­­­ensemble A(p) de R, que nous dési­­gne­­rons plus briè­­ve­­ment par A. On connaît aussi le sous-­­­ensemble A des élé­­ments de R qui véri­­fient la pro­­priété non-p (ou, de manière équi­­va­­lente, n’ont pas la pro­­priété P). C’est le complé­­men­­taire du sous-­­­ensemble A. Un dia­­gramme d’Euler-­­­Venn illustre ces défi­­ni­­tions (figure 1.8). En logique clas­­sique, le prin­­cipe de non contradiction enseigne qu’aucun élé­­ment ne peut, à la fois, véri­­fier et ne pas véri­­fier une pro­­ priété, c’est-­­­à-dire pré­­sen­­ter, en même temps, la pro­­priété p et la pro­­priété non-p. Ce prin­­cipe se tra­­duit, en mathéma­­tique, par le fait que A et A sont dis­­joints. Un autre prin­­cipe de la logique aris­­to­­té­­li­­cienne, le prin­­cipe du tiers exclu, indique que l’on ne trou­­vera jamais plus de deux classes en tri­­ant un ensemble d’élé­­ments par rap­­port à une pro­­priété p : les uns, qui véri­­fient la pro­­priété p, consti­­tuent le sous-­­­ensemble A du réfé­­ren­­tiel; les autres, qui ont la pro­­priété non-p (ou de manière équi­­va­­lente, ne véri­­fient pas la pro­­priété p), forment le complé­­men­­taire A de A. Si l’une de ces deux classes est vide, l’autre se confond avec le réfé­­ren­­tiel.

Remarque.  Si l’on prend le complé­­ment de l’ensemble A, soit A, on retombe évi­­dem­­ment sur l’ensemble A. La complémentation est dite, pour cette rai­­son, involutive. Figure 1.8

1.2.2 Expres­­sion du prin­­cipe de non-­­­contradiction Consi­­dé­­rons main­­te­­nant une pro­­priété p, à laquelle cor­­res­­pond le sous-­­­ensemble A du référentiel R, et une pro­­priété q, à laquelle cor­­res­­pond le sous-­­­ensemble B de R. Si les deux pro­­prié­­tés ne sont pas contra­­dic­­toires, il y aura des élé­­ments véri­­fiant à la fois les deux pro­­prié­­tés. On aura donc, dans R (fig. 1.9) : Figure 1.9

11

Chapitre 1 • Structures ordonnées Applications des treillis

– des élé­­ments véri­­fiant la pro­­priété p seule (région 2) ; – des élé­­ments véri­­fiant la pro­­priété q seule (région 1) ; – des élé­­ments véri­­fiant les pro­­prié­­tés p et q (région 3) ; – des élé­­ments ne véri­­fiant ni la pro­­priété p, ni la pro­­priété q (région 0). Par défi­­ni­­tion, les élé­­ments pos­­sé­­dant les pro­­prié­­tés p et q sont dits consti­­tuer l’inter­­sec­­tion des sous-­­­ensembles A et B (région 3) et l’on désigne ce sous-­­­ensemble par la nota­­tion A d B, où le sym­­bole d indique que l’on a appli­­qué l’opé­­ra­­tion d’inter­­sec­­tion aux sous-­­­ensembles A et B. On voit que : – les élé­­ments de la région 2 forment un sous-­­­ensemble de R qui peut être noté A d B ; – les élé­­ments de la région 1 forment le sous-­­­ensemble A d B ; – les élé­­ments de la région 0 consti­­tuent le sous-­­­ensemble A d B. De plus, le prin­­cipe de contra­­dic­­tion peut main­­te­­nant s’expri­­mer par : A d A 5 [,

(1.1)

le sym­­bole [ dési­­gnant le sous-­­­ensemble vide (le plus sou­­vent nommé ensemble vide).

1.2.3 For­­mules de de Morgan. Prin­­cipe du tiers exclu Reve­­nons aux sous-­­­ensembles A et B pré­­cé­­dents et préoccupons-­­­nous de savoir si nous pou­­vons trou­­ver un sous-­­­ensemble de R dont les élé­­ments véri­­fient les pro­­ prié­­tés p ou q. Hâtons-­­­nous de dire que cette for­­mu­­la­­tion est ambigüe. Les latins, par exemple, avaient deux mots pour expri­­mer la conjonc­­tion de coor­­di­­na­­tion ou : vel et a­­­ut. Nous tra­­dui­­sons a­­­ut par : ou bien et vel sim­­ple­­ment par : ou ; c’est dire que, dans le pre­­mier cas, il s’agit du ou exclu­­sif (c’est-à-dire : soit l’un, soit l’autre), tan­­dis que, dans le second, il s’agit du ou non-­­­exclusif (ou inclu­­sif), le ou habituel du fran­­çais. Aussi quand nous vou­­lons recher­­cher les élé­­ments qui véri­­fient les pro­­prié­­tés p ou q, nous enten­­dons rete­­nir : – les élé­­ments qui véri­­fient la pro­­priété p seule ; – les élé­­ments qui véri­­fient la pro­­priété q seule ; – les élé­­ments qui véri­­fient les pro­­prié­­tés p et q, à la fois. Ces élé­­ments sont tous ceux qui, compris dans les ­régions 1, 2 et 3 de la figure 1.10 consti­­tuent ce que l’on appelle la réunion des sous-­­­ensembles A et B, que l’on note : A c B. On constate, sur le dia­­gramme, que le complé­­ment de A c B est formé par les élé­­ments de la région 0, c’est-­­­à-dire le sous-­­­ensemble A d B. On a donc : 12

Figure 1.10

1.2  Repré­­sen­­ta­­tion ensembliste des algèbres de Boole



AcB5A

d

B

(1.2)

Rem­­pla­­çons, dans cette for­­mule, A par A et B par B ; on obtient : A c B 5 A c B 5 A d B. Pre­­nons main­­te­­nant le complé­­men­­taire de chaque membre ; il vient : A c B 5 A d B ; mais, d’après l’involution A c B 5 A c B ; on a donc :

A

d

B 5 A c B

(1.3)

Les expres­­sions (1.2) et (1.3) sont dites for­­mules de de Morgan. En reve­­nant à la figure 1.8 on voit que le prin­­cipe du tiers exclu s’exprime par :

A c A 5 R.

(1.4)

1.2.4 Commu­­ta­­ti­­vité. Idempotence. Élé­­ments neutres Les opé­­ra­­tions d et c sont évi­­dem­­ment commu­­ta­­tives :

A d B 5 B d A ;

(1.5)

(1.5bis) A c B 5 B c A. On montre, étant donné le contexte logique sous-­­­jacent, qu’elles sont aussi asso­­cia­­ tives :



A d 1B d C2 5 1A d B2

A c 1B c C2 5 1A c B2 Il n’est pas dif­­fi­­cile de voir que :

© Dunod – Toute reproduction non autorisée est un délit.



A d A 5 A

d

C ;

(1.6)

c

C.

(1.6bis) (1.7)

et que : A c A 5 A ; (1.7bis) on dit alors que les deux opé­­ra­­tions d et c sont idempotentes (cette pro­­priété se tra­­ duit par l’inuti­­lité d’expo­­sants et de coef­­fi­­cients en algèbre de Boole). Reve­­nons à l’ensemble vide, [ ; il ne comprend aucun élé­­ment ; en consé­­quence, on a : (1.8) A c [ 5 A. Pre­­nons main­­te­­nant l’inter­­sec­­tion de A et du référentiel R ; elle est évi­­dem­­ment iden­­ tique à A : (1.9) A d R 5 A. Les élé­­ments [ et R sont, res­­pec­­ti­­ve­­ment, les élé­­ments neutres (ou uni­­tés), respectivement, des opé­­ra­­tions c et d. 13

Chapitre 1 • Structures ordonnées Applications des treillis

1.2.5 Distributivité Les opé­­ra­­tions d et c doivent être mutuel­­le­­ment dis­­tri­­bu­­tives. C’est-­­­à-dire que l’on a :

A d 1B c C2 5 1A d B2

et

A c 1B d C2 5 1A c B2

c

d

1A d C2

(1.10)

1 A c C 2 .

(1.10bis)

Figure 1.12 1 A c B 2  

Figure 1.11 A c 1 B d C 2  







Il est facile de le véri­­fier, par exemple au moyen des dia­­grammes d’Euler-­­­Venn. Construi­­sons, à cet effet, le sous-­­­ensemble cor­­res­­pon­­dant à l’expres­­sion for­­mant le membre gauche de (1.10bis) : il s’agit de réunir les régions A (hachures ver­­ti­­cales) et B d C (hachures hori­­zon­­tales) ; on obtient ainsi une région, compor­­tant un type ou l’autre des hachures, qui a été entou­­rée d’un trait gras sur la figure 1.11. Construi­­sons main­­te­­nant le sous-­­­ensemble cor­­res­­pon­­dant au second membre de (1.10bis) : il s’agit de trou­­ver l’inter­­sec­­tion des réunions A c B (hachures ver­­ti­­cales) et A c C (hachures hori­­zon­­tales) ; on obtient ainsi une région compor­­tant l’un et l’autre type de hachures ; elle a été entou­­rée d’un trait gras sur la figure 1.12 et l’on voit qu’elle coïn­­cide avec la région dis­­tin­­guée de la figure 1.11.

d

1A c C2

Le lec­­teur est invité à véri­­fier lui-­­­mème la for­­mule (1.10), au moyen d’une construc­­tion ana­­logue. Remarque.  Il ne s’agit ici que de véri­­fi­­ca­­tion ; elle ne se haus­­se­­rait au rang d’une démons­­tra­­tion que si l’on pre­­nait soin de consi­­dé­­rer les seize cas de figure. On peut donner une démons­­tra­­tion, et pas seulement une véri­­fi­­ca­­tion de (1.10), étant donné (1.10bis), consi­­déré comme un axiome, et à condi­­tion d’ajou­­ter les axiomes d’absorp­­tion : A d 1 A c B 2 5 A c 1 A d B 2 5 A, le lec­­teur pour­­ra s’ins­­pi­­rer du para­­graphe consa­­cré aux treillis dis­­tri­­bu­­tifs.

1.2.6 Vers une axio­­ma­­tique On a l’habi­­tude, en algèbre de Boole, de dési­­gner l’ensemble vide par 0 et le réfé­­ren­­ tiel par 1 (plutot que n et U). On montre qu’un ensemble dans lequel existent deux opé­­ra­­tions binaires, d et c, et une opé­­ra­­tion unaire, , telles que les axiomes sui­­vants soient véri­­fiés : 14

1.2  Repré­­sen­­ta­­tion ensembliste des algèbres de Boole



A c B 5 B c A AdB5BdA 1B c C2 5 1A c B2



Ac



A d 1B d C2 5 1A d B2 A c A 5 A AdA5A

c

C

d

C



Ac



Ad



A

d

(Idempotence)

f (Élé­­ments neutres)

A c A 5 1



f (Associativité) f

A c 0 5 A Ad15A



f (Commu­­ta­­ti­­vité)

f (Défi­­ni­­tion du complé­­ment) AdA50 1B d C2 5 1A c B2 d 1A c C2 (Distributivité mutuelle) 1 B c C 2 5 1 A d B 2 c 1 A d C 2 f (A

c

B) 5 A 5 A

c

(A

d

B )

(Absorption)

consti­­tue une algèbre de Boole compre­­nant au moins deux élé­­ments, 0 et 1. Dans cette algèbre on a, notam­­ment, les pro­­prié­­tés :

A 5 A (Involution de la complémentation)

A d B 5 A c B et A c B 5 A d B (For­­mules de de Morgan) On remarque que le deuxième axiome de cha­­cune des six paires d’axiomes ­ci-­­­dessus peut être obtenu à par­­tir du pre­­mier axiome de la paire, en chan­­geant tout signe c en d, tout signe d en c et tout 0 en 1. Les cor­­res­­pon­­dances : c 4 d ; d 4 c ; 0 4 1 per­­mettent donc de pas­­ser d’un axiome quel­­conque à l’axiome qui lui cor­­res­­pond dans la même paire. En appli­­quant les règles de la logique (en par­­ti­­cu­­lier deux des axiomes de la liste  : contra­­dic­­tion et tiers exclu), cette pro­­priété sera conser­­vée. Ainsi, à toute pro­­priété géné­­rale, éta­­blie pour une algèbre de Boole, cor­­res­­pond une pro­­priété duale, obte­­nue en effec­­tuant les échanges de sym­­boles indi­­qués ci-­­­dessus.

© Dunod – Toute reproduction non autorisée est un délit.



1.2.7 Impli­­ca­­tion. Inclu­­sion On remarque que l’opé­­ra­­tion d’inter­­sec­­tion cor­­res­­pond à la conjonc­­tion logique «  et », l’opé­­ra­­tion de réunion à la conjonc­­tion logique «  ou  » (inclusif) et la complémentation à la n­ éga­­tion. On uti­­lise aussi en logique l’impli­­ca­­tion : la pro­­priété p implique la pro­­priété q, et l’on écrit : p 1 q, si et seule­­ment si tous les élé­­ments qui véri­­fient la pro­­priété p véri­­fient aussi la pro­­priété q. Dans ces condi­­tions, le sous-­­­ensemble A(p) est inclus dans le sous-­­­ensemble B(q) et l’on écrit : A ( B. 15

Chapitre 1 • Structures ordonnées Applications des treillis

La rela­­tion d’inclu­­sion, que nous avons dési­­gnée par le sym­­bole ( , est une rela­­ tion d’ordre (large) : 1) elle est réflexive, car, quel que soit p, on a : p 1 p, d’où : A ( A ; 2) elle est tran­­si­­tive, car : d’où :

1 p 1 p et q 1 r 2 1 1 p 1 r 2 ,

d’où:



1 A ( B et B ( C 2 1 1 A ( C 2  ; 3) elle est anti­­sy­­mé­­trique, car si l’on a, à la fois : p 1 q et q 1 p, c’est que A(p) 5 B(q), A(B et s 1 A 5 B. B(A

Sur le dia­­gramme d’Euler-­­­Venn (figure 1.13), on remarque que, si A ( B : A c B 5 B et A d B 5 A. On ver­­rait faci­­le­­ment aussi que, si A ( B : A c B 5 1 et A d B 5 0. Ce sont là quatre expres­­sions équi­­va­­lentes de l’inclu­­sion : Figure 1.13

1 A ( B 2 3 A d B 5 A 3 A c B 5 B 3 A c B 5 1 3 A d B 5 0. L’expression de p 1 q par A c B 5 1 est fréquemment employée en logique.

Remarque.  Le fait d’écrire : p 1 p, c’est-­­­à-dire que toute pro­­po­­si­­tion s’implique elle-­­­même, revient à for­­mu­­ler le prin­­cipe d’iden­­tité.

1.2.8 Formes cano­­niques

Au lieu de par­­ler de sous-­­­ensembles A1, A2,cd’un réfé­­ren­­tiel, nous pour­­rons, grâce au para­­graphe 1.2.6, par­­ler main­­te­­nant de variables A1, A2,c. Soient n variables boo­­léennes (n, nombre fini) : A1, A2, A3,c, Ai,c, An.

Dési­­gnons par Xi la variable Ai sous l’un de ses deux aspects : Ai (affir­­ma­­tif) ou Ai (néga­­tif). On appelle minterme de l’algèbre de Boole à n variables toute expres­­sion :

X1 d X2 d X3 d cd Xi d cd Xn , où chaque variable figure sous un et un seul de ses aspects. Dualement, on appelle maxterme toute expres­­sion de la forme : X1 c X2 c X3 c cc Xi c cc Xn ,

16

1.2  Repré­­sen­­ta­­tion ensembliste des algèbres de Boole

où chaque variable figure sous un et un seul de ses aspects. Il est facile de voir que le nombre des mintermes de n variables est 2n ; de même le nombre des maxtermes. La notion de minterme (ou atome) est très impor­­tante ; en effet, d’une part, les mintermes de n variables sont deux à deux dis­­joints (ils dif­­fèrent, en effet, l’un de l’autre au moins par l’aspect d’une variable: affirmée ou niée ; d’autre part, la réunion des 2n mintermes de n variables est égale au réfé­­ren­­tiel (en effet, 2n 2 1 mintermes s’écrivent A d 1 X2 d X3 d cd Xn 2 et les 2n 2 1 autres A d 1 X2 d X3 d cd Xn 2  ; ainsi, leur réunion est X2 d X3 d cd Xn et, en dimi­­nuant à chaque fois d’une ­variable, on finit par tom­­ber sur Xn c Xn 5 1). Par consé­­quent, les mintermes consti­­ tuent une par­­tition du réfé­­ren­­tiel. Tout minterme peut être dési­­gné par m i , i étant la valeur déci­­male du nombre binaire obtenu en fai­­sant cor­­res­­pondre 1 à toute variable affir­­mée et 0 à toute variable niée. Exemple.  Pour quatre variables A, B, C et D, n 5 4, on a 24 mintermes, soit 16. On écrira, par exemple : m13 5

A 1

d

B 1

d

C 0

d

D 1

car la valeur déci­­male du nombre binaire 1101 est 13. On montre que toute fonc­­tion boo­­léenne f 1 A1, A2, c, Ai, cAn 2 peut être mise sous une forme unique de réunion de mintermes appelée forme cano­­ nique dis­­jonc­­tive. Dualement, il existe, bien entendu, une forme cano­­nique conjonc­­tive, qui est une inter­­sec­­tion de maxtermes. Soit un vec­­teur ligne e 5 3 e0, e1, c, e2n 2 1 4 de 2n élé­­ments, ei étant égal à 1 si le minterme mi existe dans la forme cano­­nique dis­­jonc­­tive, et à 0, sinon. La forme cano­­nique dis­­jonc­­tive peut donc être sym­­bo­­li­­sée par le pro­­duit sca­­laire : e # m 5 a ei # m i,  noté plus bas : d ( e d m) ,

© Dunod – Toute reproduction non autorisée est un délit.

2n 2 1 i50

m étant le vec­­teur colonne : m0 m1 ( m5F V mi ( m 2n 2 1 à condi­­tion d’inter­­préter le pro­­duit de deux compo­­santes comme une inter­­sec­­tion et la somme des pro­­duits comme une réunion. 17

Chapitre 1 • Structures ordonnées Applications des treillis

Exemple.  Soit la fonction booléenne  , à trois variables A, B et C :  5 5 3 1A d B2

c

C4 d 1A d B2 6

c

3 1B d C2

d

Appli­­quons d’abord la for­­mule géné­­ra­­li­­sée de de Morgan :  5 5 3 1A c B2

d

C4 d 1A d B2 6

c

3 1B d C2

d

1A c C2 4 1A c C2 4

Déve­­lop­­pons ensuite en uti­­li­­sant la distributivité de l’opé­­ra­­tion d par rap­­port à ­l’opé­­ ra­­tion c :  5 5 3 1A d C2

 5 3 1A d C2  5 (A

d

d

A

c

1B d C2 4 d 1A d B2 6

1A d B2 4 c 3 1B d C2

d

B d C) c (A

d

d

c

5 3 1B d C2

d

A4 c 3 1B d C2

1A d B2 4 c 3 1A d B d C2

B d B d C) c (A

d

c

d

C 46

1B d C d C4

B d C) c (B d C d C)

Éli­­mi­­nons ensuite les termes tels que X d X 5 0 et rem­­pla­­çons X d X par X :  5 0 c 1A d B d C2 Le minterme A On a donc :

d

5 1A d B d C2

c c

1A d B d C2

c

1A d B d C2.

0

B d C se code 100 ; A d B d C se code 010 .  5 m4 c m2 .

On peut obte­­nir  de deux façons : – ou bien, sous la forme d’une réunion de mintermes, en ne pre­­nant que ceux qui n’appar­­tiennent pas à  :  5 m7 c m6 c m5 c m3 c m1 c m0 – ou bien, sous la forme d’une inter­­sec­­tion de maxtermes, en pre­­nant le complé­­ men­­taire de l’expres­­sion de  sous la forme d’une réunion de mintermes :  5 m4 c m2 5 m4 d m2 5 M3 d M5 5 1 A c B c C 2

d

1A c B c C2

(on observe, en effet, qu’en pre­­nant le complé­­men­­taire d’un minterme d’indice i on obtient le maxterme d’indice 2n 2 1 2 i). Dans ces condi­­tions, on peut obte­­nir  sous la forme d’une inter­­sec­­tion de maxtermes de deux façons, en effet, on a d’abord :  5  5 m7 c m6 c m5 c m3 c m1 c m0 5 M0 d M1 d M2 d M4 d M6 d M7 , puis, aussi bien :  5 , inter­­sec­­tion de tous les maxtermes, à l’excep­­tion de ceux qui figurent dans  :  5  5 M0 d M1 d M2 d M4 d M6 d M7 . 18

1.3  L’algèbre de Boole binaire

1.3 L’algèbre

de

Boole

binaire

1.3.1 Fonc­­tion carac­­té­­ris­­tique. Opé­­ra­­tions binaires Appe­­lons fonc­­tion carac­­té­­ris­­tique fA 1 x 2 d’un élé­­ment x, par rap­­port à un sous-­ensemble A du réfé­­ren­­tiel, une fonc­­ tion qui prend la valeur 1 si et seule­­ment si x H A et, sinon, la valeur 0. On voit clai­­re­­ment (figure  1.14) que fA 1 x 2 5 1, alors f A 1 x 2 5 0 et inver­­se­­ment. C’est la complémentation ou néga­­tion logique. Figure 1.14 Consi­­dé­­rons main­­te­­nant deux sous-­­­ensembles A et B d’un réfé­­ren­­tiel R (figure 1.15) et étu­­dions la valeur de fA d B 1 x 2 par rap­­port aux valeurs de fA(x) et fB(x) pour toutes les posi­­tions pos­­sibles de x.

f A ( x ) 5 1 ; f B ( x ) 5 0 ; f A d B ( x ) 5 0

f A ( x ) 5 1 ; f B ( x ) 5 1 ; fA d B 1 x 2 5 1













f A ( x ) 5 0 ; f B ( x ) 5 1 ; fA d B 1 x 2 5 0



f A ( x ) 5 0 ; f B ( x ) 5 0 ; fA d B 1 x 2 5 0



f A ( x ) 5 0 ; f B ( x ) 5 0 ; fA c B 1 x 2 5 0







On constate que l’on a dans tous les cas possibles : f A d B ( x ) 5 f A ( x ) ? f B ( x ) avec les règles habi­­tuelles du pro­­duit, que nous appel­­le­­rons néan­­moins, ici pro­­duit logique, car il n’est pas dif­­fi­­cile de décou­­vrir qu’il s’agit bien de l’opé­­ra­­tion et, envi­­ sa­­gée plus haut. Effec­­tuons main­­te­­nant l’étude pour fA c B 1 x 2 , dans les mêmes condi­­tions (figure 1.16).



© Dunod – Toute reproduction non autorisée est un délit.

Figure 1.15

f A ( x ) 5 0 ; f B ( x ) 5 1 ; fA c B 1 x 2 5 1 19

fA 1 x 2 5 1   fB 1 x 2 5 1 fA c B 1 x 2 5 1





fA 1 x 2 5 1   fB 1 x 2 5 0 fA c B 1 x 2 5 1







Chapitre 1 • Structures ordonnées Applications des treillis

Figure 1.16

Cette fois, on remarque que l’on a :

#

fA c B 1 x 2 5 f A 1 x 2 1 fB 1 x 2

#

avec une règle spé­­ciale qui veut que : 1 1 1 5 1 (propriété d’idempotence). Nous appel­­le­­rons cette opé­­ra­­tion la somme logique ; elle cor­­res­­pond à l’opé­­ra­­tion ou, envi­­sa­­gée pré­­cé­­dem­­ment. En résumé, sur l’ensemble {0, 1}, nous avons une opé­­ra­­tion unaire et deux opé­­ ra­­tions binaires, dont les tables sont données ci-­­­dessous : Négation logique

Somme logique 1

 0

1

Produit logique 1  0

1

0

0

0

0

0

0

1

1

0

1

1

1

1

  0

Nous uti­­li­­se­­rons en par­­ti­­cu­­lier ces opé­­ra­­tions en théo­­rie des graphes, lors de la déter­­mi­­na­­tion de la « fer­­me­­ture tran­­si­­tive » d’un graphe. Remarque. # L’élé­­ment 0 appa­­raît comme l’élé­­ment neutre #de l’opé­­#ra­­tion 1 et le 1, comme l’élé­­ment neutre de l’opé­­ra­­tion ? : 0 1 a 5 a 1 0 et 1 # a 5 a # 1, pour tout a P 5 0, 1 6 Mais, faute de symé­­trique pour chaque élé­­ment, tant pour la somme logique # où 1 n’a pas de symé­­trique ( q xP 5 0,1 6 tel que 1 1 x 5 0) que pour le pro­­duit logique où 0 n’a pas de symé­­trique ( q xP 5 0,1 6 tel que 0 # x 5 1), les opé­­ra­­ tions consi­­dé­­rées ne confèrent pas une struc­­ture de groupe à l’ensemble {0,1}. C’est pour­­quoi l’on intro­­duit sou­­vent une nou­­velle opé­­ra­­tion appe­­lée somme dis­­jonc­­tive ou encore somme modulo 2, telle que ;a, bP {0, 1} :

# a ! b 5 a # b 1 a # b.

20

1.3  L’algèbre de Boole binaire



Du fait que A ! B repré­­sente la zone hachu­­rée sur la figure  1.17, on voit que :



Figure 1.17

0

1

0

0

1

1

1

0



La somme dis­­jonc­­tive confère à l’ensemble {0,1} une struc­­ture de groupe abélien, car elle est asso­­cia­­tive, commu­­ta­­tive, admet un élé­­ment neutre (0), et chaque élé­­ment a un symé­­trique : lui même. Or, le pro­­duit logique est ­asso­­cia­­tif, commu­­ta­­tif et dis­­tri­­bu­­tif par rap­­port à la somme dis­­jonc­­tive ; ces pro­­prié­­tés entraînent que la somme dis­­jonc­­tive et le pro­­duit logique munissent l’ensemble {0,1} d’une struc­­ture d’anneau abé­ lien, qui, en outre, est uni­­taire ; 1 est l’unité (ou élé­­ment neutre du pro­­duit logique). Il est alors à remar­­quer que, 1 admet­­tant un symé­­trique pour l’opé­­ra­­tion pro­­ duit logique, l’anneau abélien uni­­taire défini ci-­­­dessus est un corps.

1.3.2 Tables de vérité Soit une fonc­­tion boo­­léenne des variables a, b, c (valant 0 ou 1) :

#

#

#

 5 1a # b 1 c2 # a # b 1 b # c # 1a 1 c2.

On la ramène par la formule de de Morgan à la forme :

# #  5 3 (a 1 b) # c 4 # a # b 1 a # b # c

© Dunod – Toute reproduction non autorisée est un délit.

#

#

5 a # b # c 1 a # b # c 5 m 4 1 m 2.

Mon­­trons que l’on aurait pu obte­­nir direc­­te­­ment sa décom­­po­­si­­tion cano­­nique en uti­­li­­sant un tableau de valeurs, où les variables a, b, c prennent toutes les valeurs pos­­sibles. Dans la colonne 15, on a fait la somme logique des valeurs conte­­nues dans les ­colonnes 11 et 14, un cal­­cul direct ayant été pra­­ti­­qué à par­­tir de la forme ini­­tiale de f.

#

On retrouve bien :  5 m4 1 m2 ; ce sont les deux seuls mintermes à appa­­raître dans la décom­­po­­si­­tion.

21

Chapitre 1 • Structures ordonnées Applications des treillis

123456 7

8

9

10

11

12

13

14

15 16

# # # # # a b c a b c a # b a # b 1 c a # b 1 c a # b 1 ab 1 c 2 # a # b b # c a 1 c b # c # 1 a 1 c 2 f a # b # c 000111 0 0 1 0 0 0 1 0 0 m0 001110 0

1

0

0

0

0

1

0

0 m1

010101 0

0

1

0

0

1

1

1

1 m2

011100 0

1

0

0

0

0

1

0

0 m3

100011 0

0

1

1

1

0

0

0

1 m4

101010 0

1

0

1

0

0

1

0

0 m5

110001 1

1

0

0

0

1

0

0

0 m6

111000 1

1

0

0

0

0

1

0

0 m7

1.3.3 Minimi­­sa­­tion d’une fonc­­tion boo­­léenne

Consi­­dé­­rons deux fonc­­tions des variables binaires 1 x1, x2, c, xn 2 . On dit que la fonc­­ tion f implique la fonc­­tion g et l’on écrit : f 1 g   ,   si f 5 1 entraîne g 5 1, c’est-­ à-dire si f est une par­­tie de g : les mintermes de f figurent aussi dans ceux de g. Soit alors la fonc­­tion :

#

#

F 5 x1 # x2 1 x2 # x1 1 x1 # x3. Si l’on choi­­sit des valeurs telles que l’un des pro­­duits x1 # x2 ou bien x 2 # x 1 ou bien # x1 x3, soit égal à 1, on a évi­­dem­­ment F 5 1. La fonc­­tion F est impli­­quée par l’un

quel­­conque de ces pro­­duits.

Consi­­dé­­rons alors la fonc­­tion  1 x1, x2 2 5 x1 # x2 ; si l’on y fait x1 5 1 ou bien x2 5 1, on obtient :  1 1, x2 2 5 x2 ;  1 x1, 1 2 5 x1 ;

la fonc­­tion f n’est impli­­quée ni par x1, ni par x2 ; en effet : 1 x1 5 1 1  5 1 ; 1 x2 5 1 2 1  5 1.

Comme f implique F et f n’est impli­­qué ni par x1, ni par x2, on dit que f est un consti­­tuant pre­­mier (ou encore monôme pre­­mier) de F. Au contraire, si l’on fait x3 5 1 dans F, on obtient :

#

#

F 1 x3 5 1 2 5 x1 # x2 1 x2 1 x1

et, si l’on construit le tableau des valeurs (voir tableau ci-­­­dessous),

22

1.3  L’algèbre de Boole binaire

x1 0 0

#

#

x2 F 5  x1 # x2 1 x2 1 x1 # # 0 5  0 1 1  1 1 5 1 1

1

0

1

1

# # # # 1 1  1 0 5 1 # #

5  0

1 0  1 1 5 1

5  1

1 0  1 0 5 1

5  0

on s’aper­­çoit que : 1 x3 5 1 2 1 F.

C’est que c 5 x2 # x3 ou u 5 x1 # x3 ne sont pas des consti­­tuants (monômes) pre­­ miers de F. Il est impor­­tant de pou­­voir obte­­nir la liste de tous les consti­­tuants (monômes) pre­­miers d’une fonc­­tion boo­­léenne. Consi­­dé­­rons, à cet effet, les fonc­­tions :

# #

1 5 C # y 1 C

2 5 A # x 1 B # x.

Dans la fonc­­tion f1, C est un pro­­duit boo­­léen (monôme) qui ne comporte la variable y sous aucun de ses aspects. On peut écrire : # 1 5 C # ( 1 1 y ) 5 C

et seul le consti­­tuant C est pre­­mier, car C # y ( C. On en déduit que :

1) dans une liste de consti­­tuants (monômes), on peut sim­­pli­­fier en sup­­pri­­mant tout consti­­tuant qui est contenu (inclus) dans un autre. Supposons maintenant que dans la fonc­­tion f2 , ni A ni B ne contiennent x ou x. On a :

# #

© Dunod – Toute reproduction non autorisée est un délit.

A #x 5 1 3 A 1 x 5 0 B#x 5 1 3 B 1 x 5 0

d’où : Or :

#

#

3 ( A 1 x 5 0 ) ou ( B 1 x 5 0 )4 3 3 ( A # x 5 1 ) ou ( B # x 5 1 )4 1 F 5 1

donc :

#

#

#

#

3 ( A 1 x 5 0 ) ou ( B 1 x 5 0 )4 3 3 ( A 1 x ) # ( B 1 x )4 5 0 ;

#

#

3 1A 1 x2 # 1B 1 x2 5 04 1 F 5 1

23

Chapitre 1 • Structures ordonnées Applications des treillis

ou :

#

#

1A # B 1 A # x 1 B # x 5 02 1 F 5 1

ou encore :

#

#

#

3 1 A 1 B 2 # 1 A 1 x 2 # 1 B 1 x 2 5 1 4 1 F 5 1.

En fai­­sant le pro­­duit, on obtient :

#

On en déduit donc que :

#

1 A # B 1 A # x 1 B # x 5 1 2 1 F 5 1.

#

2) Lors­­qu’une fonc­­tion se pré­­sente sous la forme A # x 1 B # x, on peut lui ajou­­ter # A # B, nommé « consen­­sus » de A # x 1 B # x, comme consti­­tuant (ce qui ne pré­­sente d’inté­­rêt que s’il n’est pas iden­­ti­­que­­ment égal à 0). Ce sont ces remarques qui consti­­tuent le fon­­de­­ment de la « méthode de Quine » pour l’obten­­tion des consti­­tuants pre­­miers. Leur appli­­ca­­tion sys­­té­­ma­­tique et ité­­ra­­tive per­­met de cal­­cu­­ler la liste complète des consti­­tuants pre­­miers d’une fonc­­tion. Repre­­nons à cet effet la fonc­­tion :

#

#

F 5 x1 # x2 1 x2 # x3 1 x1 # x3 Elle n’est pas sim­­pli­­fiable par la pre­­mière règle. Écrivons-­­­la sous la forme d’un tableau à double entrée pour faci­­li­­ter l’appli­­ca­­tion de la seconde. On a ainsi le tableau I, qui per­­met de compa­­rer deux à deux les consti­­tuants initiaux de F et de cal­­cu­­ler, selon la règle 2), des consti­­tuants sup­­plé­­men­­taires. Ainsi, si l’on pose : A # x 5 x 1 # x 2 , c’est-à-dire A 5 x 1 et x 5 x 2,

on a aussi :

B # x 5 x 3 # x 2 , c’est-à-dire B 5 x 3 et x 5 x 2, d’où l’appa­­ri­­tion du consti­­tuant (consen­­sus) : A # B 5 x1 # x3. De même : x1 # x2 et x1 # x3 donnent le consen­­sus : x2 · x3 . II

I

x1 • x2 I II

x1 • x3

x1 • x3

x2 • x3

x1 • x3

x1 • x3 x2 • x3

x2 • x3 x3

x2 • x3 x1 • x3

24

x2 • x3

x3

1.3  L’algèbre de Boole binaire

On n’écri­­rait, évi­­dem­­ment pas, le consti­­tuant sup­­plé­­men­­taire s’il était déjà contenu dans F , en rai­­son de l’idempotence ; on ne l’écri­­rait pas non plus s’il était contenu dans un des consti­­tuants déjà connus ou s’il était iden­­tique à l’un de ces consti­­tuants. Après l’achè­­ve­­ment du tableau I on applique la règle 1), mais ici elle ne four­­nit pas de sim­­pli­­fi­­ca­­tion ; on a alors :

#

#

#

F 5 x1 # x2 1 x2 # x3 1 x1 # x3 1 x2 # x3. Avec les consti­­tuants de cette liste, on forme le tableau II ; on trouve, à deux reprises, grâce à l’appli­­ca­­tion de la règle 2), le consti­­tuant nou­­veau x3, que l’on n’écrit qu’une fois. La règle de sim­­pli­­fi­­ca­­tion 1) s’applique main­­te­­nant : en effet, x2 # x3 , x1 # x3 , x1 # x3 et x2 # x3 sont conte­­nus dans x3 et il reste donc :

#

F 5 x1 # x2 1 x3. On pour­­rait consti­­tuer un tableau III pour exa­­mi­­ner ces deux consti­­tuants, mais c’est inutile, car, la fonc­­tion n’étant pas de la forme f2, la règle 2) ne peut plus s’appli­­quer. C’est à ce moment que l’on a la liste de tous les consti­­tuants pre­­miers de F.

Remarque.  Une autre manière commode, dite « méthode de double duale », d’obte­­nir la liste des consti­­tuants pre­­miers consiste à : 1) prendre le complé­­ment F de F ; 2) déve­­lop­­per ; sup­­pri­­mer les termes nuls ou redon­­dants (c-à-d absorbés) . 3) prendre alors le complé­­ment F de F et supprimer les termes nuls ou redondants. On peut prou­­ver que l’expres­­sion obte­­nue après déve­­lop­­pe­­ment, puis réduc­­ tion, consti­­tue la liste des consti­­tuants pre­­miers de F. Exemple.

#

#

Soit F 5 a # b # c 1 a # b # c 1 b # c . Calculons F : # # # # # # # # F 5 ( a 1 b 1 c ) # [( a 1 b 1 c ) # ( b 1 c ) \ 5 ( a 1 b 1 c ) # [( a # b 1 c )\

© Dunod – Toute reproduction non autorisée est un délit.

# # # # # 5 a # c 1 a # b 1 b # c 1 a # b # c 5 a # c 1 a # b 1 b # c, car a # b absorbe a # b # c Puis calculons F, qui n’est autre que F :

# # # # # F 5 F 5 1a 1 c2 # 1a 1 b2 # 1b 1 c2 5 1a 1 c2 # 1b 1 a # c2 #

#

5 a # b 1 b # c 1 a # c. # En fait, cette méthode équi­­vaut à la pré­­cé­­dente car G 5 1 1 2 donne :

#

#

G 5 1 # 2 5 C # ( A # B 1 A # x 1 B # x )

#

#

#

puis G 5 G 5 C 1 A # B 1 A # x 1 Bx, comme en page 24 on a ici obtenu, pour la fonc­­tion F, sa forme mini­­male. Mais ce n’est pas tou­­jours le cas. Soit, par exemple, de nou­­veau :

# # F 5 a # b # c 1 a # b # c 1 b # c ;

25

Chapitre 1 • Structures ordonnées Applications des treillis

le lec­­teur pourra véri­­fier faci­­le­­ment, par la méthode indi­­quée plus haut, la liste complète des consti­­tuants pre­­miers de cette fonc­­tion :

#

#

F 5 a # b 1 a # c 1 b # c ; or, cette liste n’est pas la forme mini­­male de F. En effet, si nous déve­­lop­­pons F sous la forme cano­­nique dis­­jonc­­tive (somme de mintermes), nous trou­­vons :

# # # F 5 a # b # c 1 a # b # c 1 a # b # c 1 a # b # c .

# Si main­­te­­nant nous déve­­lop­­pons : Fr 5 a # b 1 a # c, sous forme canonique disjonctive nous aurons éga­­le­­ment : #

#

#

Fr 5 a # b # c 1 a # b # c 1 a # b # c 1 a # b # c ; ainsi Fr 5 F.

c’est donc que les deux consti­­tuants pre­­miers a # b et a # c suf­­fisent à repré­­sen­­ter la fonc­­tion F. Pour mieux nous en rendre compte, dres­­sons un tableau à double entrée dans lequel nous men­­tion­­ne­­rons, en colonnes, les mintermes de la forme cano­­nique et, en lignes, les consti­­tuants pre­­miers. Mar­­quons d’une croix, sur a • b•c a • b•c a•b•c a•b•c chaque ligne, les mintermes que l’on obtien­­drait en déve­­lop­­pant   a•b cha­­cun des consti­­tuants pre­­miers.   a•c On constate que les mintermes   a # b # c et a # b # c ne sont conte­­nus, b•c res­­pec­­ti­­ve­­ment, que dans a # b et # # # # # a c ; au contraire, les mintermes a b c et a b c peuvent être obte­­nus res­­pec­­ti­­ve­­ment, soit par déve­­lop­­pe­­ment de a # b et a # c, soit encore par déve­­lop­­pe­­ment de b # c.

Les consti­­tuants pre­­miers a # b et a # c sont des consti­­tuants (premiers) essen­­tiels ; l’absence de l’un d’entre eux dans la forme mini­­male n’est pas possible, puis­­qu’ils engendrent des mintermes qui ne sont conte­­nus dans aucun autre consti­­tuant pre­­mier. Il se trouve que les consti­­tuants essen­­tiels suf­­fisent ici à repré­­sen­­ter la fonc­­tion et que b # c est un consti­­tuant pre­­mier redon­­dant, donc qu’il ne faut pas faire figu­­rer dans la forme mini­­male. Mais il arrive souvent que, pour obte­­nir une forme mini­­ male, on doive employer, outre les consti­­tuants essen­­tiels, un cer­­tain nombre de consti­­tuants non essen­­tiels ; le pro­­blème qui consiste à trou­­ver un ensemble mini­­mal de ces consti­­tuants n’est guère plus dif­­fi­­cile, mais sor­­ti­­rait de notre sujet (il s’agit du pro­­blème de « recou­­vre­­ment », bien connu en recherche opé­­ra­­tion­­nelle). Notons qu’une même fonction peut admettre plusieurs formes minimales (cf ci-dessous). Remarque.  La mani­­pu­­la­­tion des for­­mules de l’algèbre de Boole exige par­­fois des cal­­culs très longs. En effet, les problèmes rencontrés sont le plus sou­­vent NP-complets (le lec­­teur se repor­­tera au cha­­pitre 2). Nous ver­­rons, plus loin dans cet ouvrage, dans la par­­tie défi­­nis­­sant ces pro­­blèmes, qu’ils ne peuvent pas être réso­­lus sans avoir recours à des méthodes énu­­mé­­ra­­tives très lourdes en temps de cal­­cul.

26

1.4  Appli­­ca­­tions élé­­men­­taires

Cepen­­dant, pour des exemples par­­ti­­cu­­liers de petite taille, un rai­­son­­ne­­ment spé­­ci­­ fique au pro­­blème consi­­déré per­­met de s’affran­­chir d’une grande part de l’énu­­mé­­ ra­­tion. Voici un exemple où le rai­­son­­ne­­ment per­­met d’évi­­ter des lon­­gueurs.

#

#

#

#

#

#

Soit  : F 5 ( a 1 b ) # ( c 1 d ) # ( a # b ) 1 ( a 1 b 1 c ) # ( c 1 d ) 1 c # ( a 1 b ) . On obtient :

#

#

#

#

#

F 5 a # b # c # d 1 a # b # c  puis  F 5 F 5 b 1 a # c 1 a # d 1 c # d 1 a # c. On voit faci­­le­­ment que F ne contient que trois mintermes :  a # b # c # d, a # b # c # d et a # b # c # d (soit m9, m3 et m2); d’où F en ­comporte treize. Il serait donc très fas­­ti­­dieux d’avoir recours à un tableau tel que celui de la page 26 pour cher­­ cher les consti­­tuants essen­­tiels et la forme mini­­male. Mais la simple ins­­ pec­­tion de la liste des consti­­tuants pre­­miers per­­met d’évi­­ter ici tout cal­­cul : b est évi­­dem­­ment un consti­­tuant essen­­tiel ; a # c éga­­le­­ment, puisque a # b # c # d n’est cou­­vert par aucun autre consti­­tuant ; de même a # c, à cause de a # b # c # d. Res­­tent les consti­­tuants pre­­miers a # d et c # d ; un déve­­lop­­pe­­ment ne fai­­sant appa­­raître que des mintermes non cou­­verts par b ne peut admettre b comme fac­­teur ; d’où : a # b # d et b # cd. Mais alors, tout déve­­lop­­pe­­ment du pre­­mier (resp. second) consti­­tuant, non cou­­vert par a # c (resp. a # c), ne peut admettre c (resp. a) comme fac­­teur. L’un ou l’autre, ne pou­­vant plus ser­­vir à cou­­vrir que le minterme a # b # c # d, peut être choisi pour être adjoint aux consti­­tuants essen­­tiels. Ainsi y a-­­­t-il deux formes mini­­males :

# # # # # # F1 5 b 1 a # c 1 a # c 1 a # d 5 b 1 a # 1 c 1 d 2 1 a # c, # # # # # # F2 5 b 1 a # c 1 a # c 1 c # d 5 b 1 a # c 1 c 1 a 1 d 2 .

© Dunod – Toute reproduction non autorisée est un délit.

1.4  Appli­­ca­­tions

élé­­men­­taires L’algèbre de Boole se prête à l’ana­­lyse et à la syn­­thèse des cir­­cuits logiques, s’applique en élec­­tri­­cité, en élec­­tro­­nique et en auto­­ma­­tique, à ­l’étude de cer­­taines ques­­tions de logique, etc. Nous allons voir quelques-­­­unes de ses ­appli­­ca­­tions élé­­men­­taires en recherche opé­­ra­­tion­­nelle, notam­­ment à des pro­­blèmes combi­­na­­toires. NB. Nous vou­­lons sim­­ple­­ment mon­­trer, au tra­­vers des exemples sui­­vants, comment l’algèbre de Boole per­­met de résoudre cer­­tains pro­­blèmes de la recherche opé­­ ra­­tion­­nelle. Les méthodes pré­­sen­­tées ne sont pas nécessairement celles uti­­li­­sées en pra­­tique pour la réso­­lu­­tion de ces pro­­blèmes. Nous ver­­rons en effet, au long de cet ouvrage, qu’il peut exister des méthodes plus effi­­caces que celles pré­­sen­­tées ici.

1.4.1 Étude d’un iti­­né­­raire Une per­­sonne veut, par­­tant de la ville A et y reve­­nant, choi­­sir parmi les moyens de tran­­sport ceux qui lui per­­met­­tront de se rendre dans les villes B, C et D, de manière à ce que son absence totale soit de durée mini­­male.

27

Chapitre 1 • Structures ordonnées Applications des treillis

Elle peut par­­tir de A pour B par bateau à 8h00, la durée du tra­­jet étant de trois heures ou bien par avion, à 9h00, le tra­­jet ne durant alors qu’une heure. Elle pourra reve­­nir de B vers A par ces moyens res­­pec­­tifs en par­­tant à 17h00 et 21h00, les durées de tra­­jet étant inchan­­gées. Entre B et C, elle peut prendre le train, qui met deux heures pour effec­­tuer le tra­­jet et part à 10h30 ; elle peut, par le même moyen, reve­­nir de C vers B, en par­­tant à 13h00. Entre B et D existe un ser­­vice fer­­ro­­viaire : départ à 11h30, retour à 14h30, durée du tra­­jet : deux heures, et aussi un ser­­vice aérien : départ à 12h00, retour à 14h00 durée du tra­­jet : une heure. Enfin, entre C et D existe un train express, qui part de D à 12h30 et de C à 14h00, et dont le tra­­jet dure une heure dans chaque sens. Pour être plus concrets, éta­­blis­­sons un schéma des liai­­sons (figure  1.18) et un tableau réca­­pi­­tu­­la­­tif des horaires. Affec­­tons des variables boo­­léennes latines aux tra­­ jets AB, BC, BD, CD et des variables boo­­léennes grecques aux tra­­jets inverses. Horaires A B

a 08h00 11h00 B C c

B D

11h30 13h30 D C

a 09h00 10h00 b 10h30 12h30

a 20h00 17h00 b 15h00 13h00

a 22h00 21h00

c 12h00 13h00 d 12h30 13h30

g 15h00 14h00 d 15h00 14h00

g 16h30 14h30

Figure 1.18

Il est évident (figure 1.18) qu’il y a deux sens de cir­­cu­­la­­tion : ABCDBA ou ABDCBA. On pour­­rait évi­­dem­­ment énu­­mé­­rer toutes les solu­­tions pos­­sibles en déve­­lop­­pant les expres­­sions :

#

#

#

1a 1 a2 # b # d # 1g 1 g 2 # 1a 1 a2

#

#

#

et 1 a 1 a 2 # 1 c 1 c 2 # d # b 1 a 1 a 2

qui cor­­res­­pondent, res­­pec­­ti­­ve­­ment, à ces deux sens ; on trou­­ve­­rait ainsi 16 pos­­si­­bi­­ li­­tés. Mais étu­­dions plu­­tôt les suites de deux lettres de façon à faire appa­­raître les chan­­ge­­ments de date si l’emploi d’un moyen oblige à attendre le len­­de­­main pour emprun­­ter le sui­­vant.

28

1.4  Appli­­ca­­tions élé­­men­­taires

Nous indi­­que­­rons ces chan­­ge­­ments de date par une barre ver­­ti­­cale : sens ABCDBA



sens ABDCBA parcours ABD  :  ac ; ac ; ac ; a c

par­­cours ABC  :  ab ; a k b

BCD  :  bd



CDB  :  d k g ; d k g

BDC  :  c k d ; c k d DCB  :  d k b CBA  :  ba ; ba

DBA  :  ga ; g a ; ga ; ga ;



Dans la deuxième colonne (sens ABDCBA), nous remar­­quons qu’il y a tou­­jours deux chan­­ge­­ments de date. Dans la pre­­mière colonne, il n’y en a qu’un si nous emprun­­tons la suite ab. Il reste fina­­le­­ment à exa­­mi­­ner les suites : abdga ; abdg a ; abd g a ; abd g a. En uti­­li­­sant les moyens indi­­qués, le voya­­geur pourra par­­tir un jour quel­­conque et de retour le len­­de­­main. Il n’est pas dif­­fi­­cile de voir que les suites : abd ga et abd g a sont équi­­va­­lentes, comme fai­­sant par­­tir le voya­­geur le jour J, à 09h00 et le fai­­sant, toutes deux, ren­­trer le jour J 1 1, à 20h00. J Ville Solution

d

A

B

C

D

a

d

a

d

J 1 B A

D a

d a avion

d

a

abd 09h00 10h00 10h30 12h30 14h00 15h00 14h00 15h00 17h00 20h00 abd   09h00 10h00 10h30 12h30 14h00 15h00 14h30 16h30 17h00 20h00

© Dunod – Toute reproduction non autorisée est un délit.

avion

train

train

train

bateau

La seconde solu­­tion est plus éco­­no­­mique, mais la pre­­mière pro­­cure un arrêt plus long dans la ville B, au retour.

1.4.2 Choix d’inves­­tis­­se­­ments Un ate­­lier reçoit trois commandes C1, C2, C3, qui peuvent être exé­­cu­­tées au moyen d’au plus cinq machines M1, M2, M3, M4 et M5. On désigne par ci (i 5 1, 2, 3) la variable boo­­léenne égale à 1 si la commande Ci est exé­­cu­­tée (et à 0 sinon) ; de même la variable boo­­léenne xj 1 j 5 1, 2, c, 5 2 est égale à 1 si la machine Mj est uti­­li­­sée (et à 0 sinon). 29

Chapitre 1 • Structures ordonnées Applications des treillis

Pour exé­­cu­­ter C1, on peut avoir recours aux machines M1 et M3 ou à la machine M4, ce qui peut s’écrire :

#

c1 5 x1 # x3 1 x4. On a, de même, pour C2 et C3 :

# #

c2 5 x2 # x4 1 x1 # x5,

c3 5 x2 # x5 1 x3. D’autre part, une contrainte tech­­nique t1 exige que l’on uti­­lise x2 ou que l’on n’uti­­lise pas x4 :

#

t1 5 x2 1 x4 5 x2 # x4 ; une autre contrainte tech­­nique peut s’écrire :

#

#

t2 5 x1 # x2 1 x4 # x5 1 x2 # x3. Pour que les commandes soient hono­­rées, il faut et il suf­­fit que l’on ait : c1 5 c2 5 c3 5 1 ; pour que les contraintes soient obser­­vées, il faut et il suf­­fit que :

t1 5 t2 5 1. Tous les ensembles de cinq valeurs binaires (x1, x2, x3, x4, x5) tels que :

F 5 c 1 # c 2 # c 3 # t1 # t2 5 1 sont solu­­tions du pro­­blème. Ima­­gi­­nons main­­te­­nant que l’achat et l’ins­­tal­­la­­tion des machines entraîne les ­dépenses sui­­vantes (en milliers d’uni­­tés moné­­taires) : M1 7

A1

M2 5

M3 3

M4 6

M5 2

On désire minimi­­ser la dépense totale I, c’est-­­­à-dire : I 5 a Aj # xj. 5

j51

Il importe donc de trou­­ver tous les consti­­tuants pre­­miers de F 1 x1, x2,c, x5 2 et de cal­­cu­­ler, pour cha­­cun d’eux, la valeur de I, de manière à pou­­voir sélec­­tion­­ ner la plus faible. En effet, un consti­­tuant pre­­mier implique la fonc­­tion (si ce consti­­tuant vaut 1) et il n’est impli­­qué par aucun autre consti­­tuant impli­­quant lui-­­­même la fonc­­tion, si bien que les ensembles de machines repré­­sen­­tés par les consti­­tuants pre­­miers sont les ensembles mini­­maux qui couvrent la fonc­­tion, donc per­­mettent les fabri­­ca­­tions, tout en assu­­rant le respect des contraintes. Cal­­ cu­­lons d’abord F :

#

#

#

#

#

#

F 5 1 x1 # x3 1 x4 2 # 1 x2 # x4 1 x1 # x5 2 # 1 x2 # x5 1 x3 2 # 1 x2 1 x4 2 # 1 x1 # x2 1 x4 # x5 1 x2 # x3 2

#

#

#

5 x2 # x4 # x5 1 x2 # x3 # x4 1 x1 # x2 # x3 # x5 1 x1 # x2 # x3 # x4 # x5,

30

1.4  Appli­­ca­­tions élé­­men­­taires

puis, par une méthode quel­­conque, par exemple celle de Quine, consta­­tons que les constituants x1 # x2 # x3 # x5 et x 1 # x 2 # x 3 # x 4 # x 5 donnent le consti­­tuant x1 # x3 # x4 # x5 (qui est le consensus de ces deux termes). Or x1 # x2 # x3 # x4 # x5 est inclus dans x1 # x3 # x4 # x5.

D’où la liste des consti­­tuants pre­­miers de F :

#

#

#

F 5 x 2 # x 4 # x 5 1 x 2 # x 3 # x 4 1 x 1 # x 2 # x 3 # x 5 1 x 1 # x 3 # x 4 # x 5.

Seules les valeurs affir­­mées nous inté­­ressent dans cha­­cun de ces consti­­tuants pre­­miers pour éta­­blir les prix, car elles seules impliquent des achats de machines ; d’où :

Ai

x2 # x4 # x5 x2 # x3 # x4 x1 # x3 # x5 # x4

7 x1

1

5 x2 1 1

3 x3 1 1

6 x4 1 1

2 x5 1 1

Total 13 14 12

On a volontairement omis le troi­­sième de ces consti­­tuants premiers : il condui­­rait à acqué­­rir les machines M1, M2, M3 et M5 alors qu’avec le qua­­trième consti­­tuant, il suf­­fit d’acqué­­rir M1 et M3 et M5 (il y figure x4 , ce qui signifie qu’on n’a pas à acheter M4). La der­­nière solu­­tion est la moins coû­­teuse : son coût est I = 12 (au lieu de 13 et 14 pour les deux autres). On véri­­fie bien que, pour : x1 5 x3 5 x5 5 1, x2 5 x4 5 0, on a :

# # c2 5 x2 # x4 1 x1 # x5 5 1 # c3 5 x2 # x5 1 x3 5 1 # t1 5 x2 1 x4 5 1 # # # # #

© Dunod – Toute reproduction non autorisée est un délit.

c1 5 x1 # x3 1 x4 5 1

t2 5 x1 x2 1 x4 x5 1 x2 x3 5 1

1.4.3 Fonc­­tion à variables binaires à opti­­mi­­ser sous contraintes Le cha­­pitre 8 consa­­cré à la pro­­gram­­ma­­tion linéaire, défi­­nira le cadre d’appli­­ca­­tion et la ter­­mi­­no­­logie uti­­li­­sée pour toute une famille de pro­­blèmes appe­­lés pro­­grammes linéaires. Les méthodes per­­met­­tant de résoudre l’exemple sui­­vant (pro­­gramme linéaire en variables boo­­léennes) seront reprises aux cha­­pitres 4 et 9. Nous expo­­sons ci-­­­dessous la méthode boo­­léenne de Faure et Malgrange. Il s’agit d’une des toutes pre­­mières méthodes de recherche arbo­­res­­cente (1962). Elle uti­­lise 31

Chapitre 1 • Structures ordonnées Applications des treillis

une stra­­té­­gie « gour­­mande » dans une explo­­ra­­tion « en pro­­fon­­deur d’abord » : ces termes seront pré­­ci­­sés aux cha­­pitres 3 et 4.

Variables boo­­léennes (binaires) Soit à maxi­­mi­­ser la fonc­­tion économique : F 5 3x1 + 5x2 – x3 + 2x4, où x1, x2, x3, et x4 sont des variables ne pou­­vant prendre que les valeurs 0 ou 1, sachant qu’elles sont sou­­mises aux inéga­­li­­tés sui­­vantes : 3x1 1 4x2 2 2x3 2x1 2 x2 1 3x3 4x1 2 x2 2 x3 expri­­mant les contraintes du pro­­blème.

1 2 1

x4 x4 2x4

< <
1 telle que pour toute instance du problème on ait : < r (ou bien : C* C* < r pour un problème de maximisation). Il est d’autant meilleur que r est proche Cˆ de 1 ; pour un algorithme optimal on a : r = 1. Avec ces algorithmes, nous serons assurés que, dans le pire des cas, la solution proposée sera éloignée au plus d’un facteur r de la solution optimale. Ces ­algorithmes répondent donc parfaitement à la problématique posée puisqu’ils sont de faible complexité et que l’erreur commise sur le coût de la solution obtenue est toujours bornée par une constante. Cependant une telle garantie n’est pas toujours aisée à obtenir ; il est même montré, qu’elle ne peut pas exister pour certains problèmes. Le lecteur pourra consulter le livre de Hochbaum cité dans la bibliographie pour les résultats concernant l’approximabilité des problèmes NP-difficiles. Dans le chapitre consacré au problème du voyageur de commerce et aux méthodes arborescentes, un algorithme approché polynomial avec garantie relative de performance est présenté. De nombreux autres exemples d’algorithmes approchés, polynomiaux, avec garantie ­relative de performance peuvent être trouvés dans la « littérature ».

(1)  en pratique difficile, voire impossible à obtenir… 52

2.2  Complexité des Problèmes

Exemple d’un algorithme polynomial avec garantie de performance pour le problème du voyageur de commerce euclidien Nous allons ici donner l’exemple d’un algorithme polynomial ayant une garantie relative de performance pour le problème du voyageur de commerce dans le cas où les distances vérifient les inégalités triangulaires (cf. ci-dessous). Le problème du voyageur de commerce ainsi qu’un algorithme (non polynomial) fournissant une solution optimale sont présentés dans la section 4.10.1. Nous considérons G 5 ( X, A ) un graphe non orienté complet de n sommets où chaque arête [i, j] est valuée par un entier naturel cij, appelé coût de l’arête [i, j]. On suppose que les coûts satisfont l’inégalité triangulaire : pour tout triplet de sommets {i, j, k} on a : cij # cik 1 ckj. Le problème du voyageur de commerce consiste à déterminer un cycle hamiltonien de longueur minimale. L’instance suivante, comportant six sommets {a, b, c, d, e, f }, servira d’illustration pour le déroulement de l’algorithme. Voici le tableau des coûts qui est symétrique : b 1

a b c d e

c 2 3

d 3 4 2

e 2 4 2 1

f 2 2 3 2 1

L’algorithme est constitué de trois étapes, cf. Fig 2.2 ci-dessous : La première consiste en la détermination d’un arbre couvrant de coût minimal qui s’effectue en temps polynomial (le lecteur pourra se référer à la section 4.8). L’ensemble d’arêtes F 5 5 3 a, b 4 , 3 a, c 4 , 3 a, e 4 , 3 e, f 4 , 3 e, d 46 forme un arbre H 5 ( X, F ) couvrant G de coût 7, minimal, pour l’exemple traité.

© Dunod – Toute reproduction non autorisée est un délit.

1

a

f 2

b

c

2

f

a

1

e

b

f

a b

e

1

e

d arbre H

c

d

graphe H

d

c cycle C

Figure 2.2  La construction d’un cycle hamiltonien c

La seconde étape consiste à construire le graphe orienté symétrique Hr qui est déduit de H en remplaçant chacune des ses arêtes [x, y] par les deux arcs (x, y) et (y, x). Puis on construit dans Hr un circuit eulérien E (c-à-d empruntant tous les arcs de Hr une fois et une seule). Dans notre exemple : E 5 ( a, b, a, c, a, e, d, e, f, e, a) , qui a pour coût 14. 53

Chapitre 2 • Notions de complexité

Dans la dernière étape on construit un cycle hamiltonien à partir du circuit E. Ce cycle est obtenu en considérant uniquement la première occurrence de chaque sommet dans E puis en ajoutant en dernière position le sommet initial (ici : a). Le cycle C 5 ( a, b, c, e, d, f, a ) est la solution approchée, son coût est : Ĉ 5 11. Le coût de l’optimum (inconnu ici) est noté C*. Nous allons montrer que pour toute instance du problème du voyageur de commerce euclidien l’algorithme précédant construit une solution de coût Ĉ vérifiant Cˆ # 2 : notons c(H) le coût d’un arbre couvrant de coût minimal. Le coût du C* circuit eulérien E est : l ( E ) 5 2 c ( H ) . Puisque que tous les coûts vérifient l’inéˆ galité triangulaire, nous avons : l ( E ) $ C; en effet : l ( E ) 5 cab 1 ( cba 1 cac ) 1 ˆ ( cca 1 cae ) 1 ced 1 ( cde 1 cef ) 1 ( cfe 1 cea ) $ cab 1 cbc 1 cce 1 ced 1 cdf 1 cfa 5 C. D’autre part tout cycle hamiltonien est la réunion d’une chaîne élémentaire P couvrant les sommets de G et de l’arête [k, l] joignant les deux extrémités k et l de cette chaîne. Toute chaîne qui couvre les sommets de G est aussi un arbre couvrant ; ainsi en notant l(P) le coût de la chaîne P, nous avons : c ( H ) # l ( P ) puisque H est un arbre couvrant de coût minimal. Comme les valuations (coûts) des arêtes sont positives, tout cycle hamiltonien C a un coût l ( C ) 5 l ( P ) 1 ckl qui vérifie : l ( C ) $ l ( P ) $ c ( H ) . En particulier un cycle hamiltonien de longueur minimale est tel que C* $ c ( H ) . En regroupant les inégalités nous obtenons : Cˆ # l ( E ) 5 2 c ( H ) # 2 C* et ainsi Cˆ Ĉ 11 = = 1, 22. # 2. En fait, ici, C* 5 9 avec ( a, b, f, e, d, c, a) et C* C* 9 On peut montrer que l’algorithme permettant d’obtenir cette solution approchée est polynomial ; nous avons donc un algorithme polynomial avec une garantie relative de performance de rapport 2 pour le problème du voyageur de commerce euclidien (ce problème étant prouvé NP-difficile, il n’exite pas d’algorithme polynomial fournissant une solution optimale, sauf si P 5 NP : ce qui est très improbable !).

Autre exemple : un algorithme polynomial avec garantie de performance pour le problème du bin packing

Considérons n objets de même forme linéaire, dont les tailles a1, c, an vérifient : 0 , ai , A. On cherche à placer ces objets dans des boîtes de taille A de façon à utiliser un nombre minimal de boîtes. Par exemple ces objets peuvent être des livres ; la ‘taille’ de chacun est son épaisseur ; on désir les ranger dans des éta­ gères, chacune de longueur A ; on veut minimiser le nombre d’étagères à acheter. Ce problème connu sous le nom de bin packing (mise en boîte) est NP-difficile. L’algorithme suivant permet d’obtenir une solution approchée : les objets sont placés un à un dans les boîtes suivant l’ordre arbitraire 1, c, n. L’étape i ( i 5 1, c, n ) de l’algorithme consiste à placer l’objet i dans une des boîtes déjà partiellement remplie (sauf pour l’objet 1 rangé dans une boîte vide), si cela est possible (la somme des tailles des objets placés dans chacune des boîtes ne doit pas dépasser la capacité A). Si ce n’est pas possible, l’objet i est placé dans une nouvelle boîte.

54

2.2  Complexité des Problèmes

Nous allons montrer que cet algorithme très simple possède une garantie relative de performance. 1 n Les boîtes étant de capacité A, une solution optimale vérifie C* $ a i 51ai, A car chaque objet est placé dans une boîte. Maintenant nous montrons une propriété de l’algorithme : à toute étape de l’exécution de l’algorithme, il est impossible que A deux boîtes aient leur contenu inférieur ou égal à : en effet, si tel était le cas, les 2 objets placés dans l’une de ces deux boîtes auraient du être placés dans l’autre boîte. Ainsi, lorsque l’exécution de l’algorithme est achevée, au plus une boîte peut avoir A un contenu inférieur ou égal à , les Cˆ 2 1 autres boîtes ayant un contenu supérieur 2 Cˆ 2 1 A 1 n à , nous avons ainsi : , a ai . En regroupant les inégalités, nous obte2 2 A i 51 ˆ C21 1 n nons : , a ai # C* ; alors en divisant chaque membre par Cˆ il vient : 2 A i 51 C* C* Cˆ 1 1 1 # 2. 2 ˆ # ˆ et, Cˆ et C* étant entiers : # ˆ , soit C* 2 2C 2 C C Dans l’exemple, au pire le nombre d’étagères achetées sera toujours inférieur au double du nombre minimal. En fait, on peut montrer que le rapport d’approximation de cet, algorithme est de l’ordre de 1, 7. L’algorithme est de complexité polynomiale, nous avons donc un algorithme polynomial avec une garantie relative de performance pour le problème du bin packing (ce problème étant NP-difficile, il n’existe pas d’algorithme polynomial pour le résoudre exactement sauf si P 5 NP ) . Le lecteur pourra également se référer au chapitre 4, à la fin du paragraphe 10 de cet ouvrage où un deuxième algorithme polynomial avec une garantie relative de performance pour le problème du bin packing est présenté.

© Dunod – Toute reproduction non autorisée est un délit.

Les métaheuristiques Les métaheuristiques les plus fréquemment utilisées pour fournir des solutions ­approchées à des problèmes NP-difficiles ont pour principal attrait d’être suffisamment génériques pour s’adapter facilement à de nombreux problèmes. Si ces heuristiques fournissent généralement assez rapidement des solutions approchées, elles ne fournissent cependant aucune garantie sur l’écart entre le coût de la solution fournie et le coût d’une solution optimale. Des études statistiques faites sur les ­métaheuristiques telles que le recuit simulé et la recherche “tabou” ont montré, pour certains types de problèmes, la bonne qualité des solutions obtenues. Le recuit ­simulé et la recherche tabou sont deux méthodes de voisinage : c’est-à-dire des méthodes dans lesquelles, à chaque itération, à partir d’une solution courante S, un voisinage V(S) de cette solution est déterminé. Ensuite, une nouvelle solution S’ appartenant à ce voisinage V(S) est choisie, suivant un critère probabiliste. Contrairement aux classiques méthodes dites “de descente”, la nouvelle solution courante S’ peut être de 55

Chapitre 2 • Notions de complexité

moins bonne qualité que la solution précédente S. Pour chacune de ces deux méthodes, seuls deux paramètres sont à déterminer : la définition de voisinage dépendant uniquement du problème à résoudre, et la taille de la liste tabou pour la recherche tabou ou bien la vitesse de décroissance de la « température » pour le recuit simulé. Le lecteur est invité à consulter le chapitre 11 pour trouver de nombreux exemples d’application de ces métaheuristiques. D’autres méthodes ont été conçues avec de mêmes objectifs, mais sans être toujours plus efficaces que la recherche tabou ou le recuit simulé : méthodes neuronales, algorithmes génétiques, méthode de bruitage, colonies de fourmis : cf. le chapitre 11. Une tendance actuelle est de combiner des métaheuristiques entre elles pour ­obtenir des méthodes hybrides qui se révèlent parfois plus efficaces pour certaines classes de problèmes.

56

Exercices

EXERCICES

*2.1 Le tri par transpositions et sa complexité On veut trier, par ordre croissant, n nombres rangés dans un tableau (à une ­seule ligne, ou « vecteur »), par transpositions successives. Par exemple pour trier  : 1

2

3

4

5

4

9

1

5

4

,  on opère comme suit :

9

1

4

5 . 4 : on les transpose



4

5

9

9

1

5 , 9 : on ne les transpose pas

1

4

9 . 1 : on les transpose





5

5

1

9

fin de la 1ère phase

En fin de la 1ère phase, le nombre le plus grand (ici 9) est à sa place définitive : la case n. Puis on entreprend une seconde phase avec les n 2 1 nombres des cases 1 à n 2 1 (ici n 2 1 5 3) : 4

5

1



4

4 , 5 : on ne transpose pas

5

1

4

1

5



5 . 1 : on les transpose

© Dunod – Toute reproduction non autorisée est un délit.

En fin de seconde phase, le second plus grand nombre est à sa place. Ici, il n’y a que 3 phases (n 2 1 5 3) 4

1

1

4 . 1 : on transpose Ce tableau trié par ordre croissant est donc :

4 FIN.

1

4

5

9

1)  Évaluer le nombre de comparaisons entre deux nombres effectuées dans l’exemple. Puis donner la complexité de ce tri, avec n nombres. 2)  Écrire une procédure générale pour le tri par transpositions de n nombres.

57

Chapitre 2 • Notions de complexité

**2.2 Complexité du tri par fusion Considérons 2 tableaux T1 et T 2 comportant n1 et n2 éléments, respectivement. Les éléments des deux tableaux sont déjà triés, suivant un ordre croissant par exemple. L’objectif est de fusionner ces deux tableaux en un tableau T unique contenant les n 5 n1 1 n2 éléments de T1 et T 2, T devant être lui aussi trié suivant le même ordre croissant. Considérons l’algorithme suivant effectuant la fusion de T1 et T 2 (par la suite, nous noterons T 5 T1 { T 2 le résultat de cette opération) : 1.  i1 d 1 ; i2 d 1 ; i d 1 ; 2.  Tant que i1 < n1 et i2 < n2 3.  si T1 1 i1 2 < T 2 1 i2 2 alors : T ( i ) d T1 ( i1 ) ; i1 d i1 1 1 4.  sinon : T ( i ) d T 2 ( i2 ) ; i2 d i2 1 1 5.  i d i 1 1 6.  si i1 < n1 alors tant que i1 < n1 : T ( i ) d T1 ( i1 ) ; i1 d i11 1 ; i d i 1 1 7.  sinon tant que i2 < n2 : T ( i ) d T 2 ( i2 ) ; i2 d i2 1 1 ; i d i 1 1 1) Appliquer cet algorithme aux tableaux suivants : 7

5

2 T1

8

4

1

3

9

6

T2

2) Après avoir montré que l’algorithme effectue correctement la fusion de deux tableaux triés en un seul, montrer que la complexité dans le pire des cas de cet algorithme est O(n). Quelles sont les complexités dans le meilleur des cas et dans le cas moyen ? Considérons maintenant un tableau T contenant n éléments. L’objectif est de trier les éléments de T suivant un ordre croissant par exemple. n n Si n > 2, nous notons m 5 j k (l’arrondi par défaut de ). 2 2 Nous désignons par Tgauche la première moitié de T (c’est-à-dire le tableau constitué des éléments T 1 1 2 , c, T 1 m 2 2 , et par Tdroite la seconde moitié de T (le tableau constitué des éléments T 1 m 1 1 2 , c, T 1 n 2 ). Considérons l’algorithme Tri(T) suivant : 1.  Tri(T) 2.  si n > 2 alors T d Tri 1 Tgauche 2 { Tri 1 Tdroite 2 3.  sinon Tri 1 T 2 d T 3) Montrer que la complexité de l’algorithme est O 1 n log n 2 .

58

Élé­­ments de la théorie ­­ des

3

graphes

3.1  Élé­­ments

de la théo­­rie des graphes

3.1.1 Qu’est-­­­ce qu’un graphe ? Un des plus anciens pro­­blèmes combi­­na­­toires, est la déter­­mi­­na­­tion d’un iti­­né­­raire à tra­­vers la ville de Königsberg (aujourd’hui Kaliningrad) en n’uti­­li­­sant qu’une fois et une seule cha­­cun des sept ponts qui enjam­­baient les bras de la rivière ou condui­­saient à deux îles, dont Euler mon­­tra en 1735 l’impos­­si­­bi­­lité en uti­­li­­sant un argu­­ment simple, de parité, semble consti­­tuer le pre­­mier témoi­­gnage de l’emploi des graphes :

A B

C D

Figure 3.1

La preuve de l’impossiblité est donnée dans l’exercice 3.2. Plus tard, J. Petersen, avec ses graphes régu­­liers (1891), André Sainte-­­­Laguë, ancien pro­­fes­­seur du CNAM, avec la pre­­mière thèse sur les réseaux (ou graphes), en 1926, et sur­­tout Dénes König, publiant sa Theo­­rie der endlichen und unendli­ chen Graphen (1936), déve­­lop­­pèrent ce concept. C’est en 1958 que Claude Berge fit paraître sa Théo­­rie des graphes et appli­­ca­­tions, consi­­dé­­ra­­ble­­ment ampli­­fiée dans

Chapitre 3 • Éléments de la théorie des graphes

Graphes et hyper­­­graphes (1971), d’où un renou­­vel­­le­­ment, un essor des recherches, notamment en France, en Hongrie, aux États-­­­Unis, en Union Sovié­­tique (aujourd’hui Russie) et au Japon. La théo­­rie des graphes est deve­­nue l’un des ins­­tru­­ments les plus effi­­caces pour repré­­sen­­ter (modé­­li­­ser), puis résoudre de nom­­breux pro­­blèmes dis­­crets que pose la recherche opé­­ra­­tion­­nelle. Claude Berge a reconnu que la R.O. contri­­bue aux pro­­grès de la théo­­rie des graphes, en sus­­ci­­tant de nou­­velles recherches (voir, par exemple, l’avant-­­­propos de Graphes et hyper­­­graphes).

3.1.2 Voca­­bu­­laire de la théo­­rie des graphes ; connexité, a ­ rbres Consi­­dé­­rons les « points » A, B, C, D et E et un cer­­tain nombre de « flèches » joi­­ gnant entre eux plu­­sieurs couples de ces points (figure 3.2). Désor­­mais ces points seront nom­­més som­­mets et ces flèches, arcs. B A C

E D

Figure 3.2

À chaque som­­met de l’ensemble X 5 5 A, B, C, D, E 6 cor­­res­­pond par l’appli­­ca­­ tion G 1 (nom­­mée appli­­ca­­tion suc­­ces­­seurs), un sous-­­­ensemble de X ; ainsi en sui­­vant les arcs (flèches), on voit que : G 1 1 A 2 5 5 B,C 6  ; G 1 1 B 2 5 5 D, E 6  ; G 1 1 C 2 5 5 E 6  ; G 1 1 D 2 5 5 C 6  ; G 1 ( E ) 5 0.

le som­­met E, qui n’a pas de suc­­ces­­seur, est appelé sor­­tie du graphe (un graphe peut compor­­ter zéro, une ou plu­­sieurs sor­­ties). Si l’on remonte main­­te­­nant les arcs, on obtient l’appli­­ca­­tion réci­­proque, nom­­mée appli­­ca­­tion pré­­dé­­ces­­seurs et notée G 2 : G 2 ( A ) 5 0 ; G 2 1 B 2 5 5 A 6  ; G 2 1 C 2 5 5 A, D 6  ; G 2 1 D 2 5 5 B 6  ; G 2 1 E 2 5 5 B, C 6  ; Le som­­met A, qui n’a pas de pré­­dé­­ces­­seur, est appelé entrée du graphe. Le sommet E, qui n’a pas de successeur, est appelé sortie du graphe. Ainsi un graphe est défini lorsque l’on connaît l’ensemble X de ses som­­mets et l’appli­­ca­­tion suc­­ces­­seur G 1 , d’où l’écri­­ture G 5 1 X, G 1 2 . Ou bien si l’on connaît X et G 2  ; on note alors : G 5 1 X, G 2 2 . Tout arc u peut être dési­­gné par le couple formé par son som­­met, extré­­mité ­ini­­tiale, puis son extré­­mité extrémale. Par exemple l’arc reliant A à B est noté :

60

3.1  Élé­­ments de la théo­­rie des graphes

(A,  B). Soit U l’ensemble de tous les arcs du graphe ; le graphe peut aussi être noté : G 5 1 X, U 2 . Pour le graphe de la figure 3.2, on a :

© Dunod – Toute reproduction non autorisée est un délit.

U 5 5 1 A, B 2 , 1 A, C 2 , 1 B, D 2 , 1 B, E 2 , 1 C, E 2 , 1 D, C 2 6

U étant un ensemble de couples, U est donc une rela­­tion binaire sur l’ensemble X des som­­mets (rap­­pel : une rela­­tion binaire sur un ensemble X est un sous-­­­ensemble du pro­­duit car­­té­­sien X 3 X  : U ( X 3 X  ; le pro­­duit car­­té­­sien X 3 X est, par défi­­ni­­tion, l’ensemble de tous les couples (x, y) où x et y appar­­ tiennent à X ). Dans cer­­taines appli­­ca­­tions, on n’a pas besoin de noter (ou de conser­­ver) l’orien­­ ta­­tion ini­­tiale des arcs : à tout graphe orienté cor­­res­­pond un graphe non orienté. Ses arcs «  déso­­rien­­tés  » sont nom­­més arêtes ; ainsi l’arc (A, B), sans son orien­­ta­­tion, donne l’arête [A, B] (qui peut être notée tout aussi bien : [B, A]). Mais si un graphe G comporte à la fois l’arc (x, y) et l’arc (y, x), le graphe non orienté asso­­cié comporte une seule arête : [x, y] (qu’on peut noter aussi : [y, x]). Dans un graphe, on appelle che­­min une séquence d’arcs dont l’extré­­mité ter­­mi­­ nale de cha­­cun, sauf pour le der­­nier, est l’extré­­mité ini­­tiale du sui­­vant. Un che­­min qui se ferme sur lui-­­­même est un cir­­cuit. On exige, le plus sou­­vent, qu’un che­­min soit simple : un che­­min est simple s’il ne passe qu’une fois par cha­­cun de ses arcs ; il est élé­­men­­taire s’il ne passe pas plus d’une fois cha­­cun de ses som­­mets. (NB : un che­­min élé­­men­­taire est néces­­sai­­re­­ment simple, mais la réciproque est fausse). La lon­­gueur d’un che­­min est le nombre de ses arcs. Un cir­­cuit de lon­­gueur 1 est une boucle. La figure 3.3 repré­­sente un graphe dans lequel : (D, A, E, A, E, A) est un che­­min, (A, C, D, A) un cir­­cuit ; en B existe une boucle. (D, A, E, A, E, A) n’est pas simple, (D, A, E, A) est simple, mais pas élé­­men­­taire ; (D, A, E) est élé­­men­­taire. Le “demi-­­­degré exté­­rieur” du som­­met x est : dx1 5 card G 1 1 x 2  : c’est le nombre d’arcs ayant leur extré­­mité ini­­tiale en x (en excluant les boucles) ; le “demi-­­­degré inté­­rieur” du som­­met x est : dx2 5 card G 2 1 x 2  : c’est le nombre d’arcs ayant leur extré­­mité ter­­mi­­nale en x (boucles exclues).

Figure 3.3

Consi­­dé­­rons main­­te­­nant le graphe de la figure 3.3 comme non orienté. C’est le graphe G 5 1 X, V 2 , où V est l’ensemble des arêtes. On appelle chaîne une suite d’arêtes, dont cha­­cune a une extré­­mité commune avec l’arête pré­­cé­­dente (sauf la pre­­mière) et l’autre commune avec l’arête sui­­vante (sauf la der­­nière). Ainsi [A, D, E, C] est une chaîne.

61

Chapitre 3 • Éléments de la théorie des graphes

Une chaîne qui se ferme sur elle-­­­même (et qui est simple) est un cycle. Un graphe est connexe s’il existe au moins une chaîne entre toute paire de som­­ mets ; s’il n’est pas connexe, les sous-ensembles maximaux (au sens de l’inclu­­sion) de som­­mets tels qu’entre deux som­­mets quel­­conques d’un même sous-­­­ensemble existe une chaîne, sont nom­­més « compo­­santes connexes » du graphe. Ce concept ne fait donc pas appel à l’orientation du graphe. N.B. Nous définirons plus loin la forte connexité qui, elle, concerne les graphes orientés. Le graphe ci-­­­dessus est connexe ; la sup­­pres­­sion des arêtes [A, B], [A, C], [D, A], [D, E] et [E, C] le ren­­drait non connexe, le graphe res­­tant compor­­te­­rait p 5 2 compo­­ santes connexes : {A, E} et {B, C, D}. Le degré d’un som­­met x est le nombre d’arêtes ayant une extré­­mité en x : dA 5 4, dB 5 2 (la boucle est exclue), dC 5 4, etc. Un arbre est un graphe connexe et sans cycle (cette notion ne fait donc pas ­appel à l’orien­­ta­­tion du graphe) ; dans la figure 3.3 si l’on sup­­prime les arcs (A, B), (B, B), (D, A), (E, A) et (C, E), le graphe res­­tant est un arbre (illustré par les arêtes grasses de la fig. 3.3). Un arbre de n som­­mets comporte n 2 1 arêtes (arcs). Insis­­ tons sur le fait qu’un arbre n’est pas orienté a priori. Une arbo­­res­­cence, dans un graphe orienté, est un arbre compor­­tant un som­­met par­­ ti­­cu­­lier r, nommé racine de l’arbo­­res­­cence ; depuis r, il existe dans l’arbo­­res­­cence un che­­min (et un seul) vers tout autre som­­met (cette notion fait donc bien appel à l’orien­­ ta­­tion du graphe) ; en sup­­pri­­mant tous les arcs de la fig. 3.3 sauf les n 2 1 5 4 arcs sui­­vants : (B, C), (C, D), (D, A) et (D, E), on obtient une arbo­­res­­cence de racine B. N.B. Cer­­tains infor­­ma­­ti­­ciens nomment “arbre” ce qui – en théo­­rie des graphes – est une arbo­­res­­cence.

Figure 3.4  Matrice boo­­léenne asso­­ciée

Tout graphe peut être défini par sa matrice d’adja­­cence M qui est boo­­léenne. L’exis­­tence d’un arc de X vers Y se tra­­duit par la pré­­sence d’un 1 à l’inter­­sec­­tion de la ligne X et de la ­colonne Y de la matrice M ; l’absence d’arc, par la pré­­sence d’un 0. La matrice d’adja­­cence rela­­tive au graphe de la figure 3.3 est don­­née ci-contre. En excluant les boucles : la somme des termes de la ligne X est : d  +x, de la colonne Y : d  –y.

À une matrice asso­­ciée symé­­trique (voir le chap. 1 sur les rela­­tions) cor­­res­­ pond un graphe symé­­trique  : si (x, y)PU alors (y, x)PU une matrice asso­­ciée anti­­sy­­mé­­trique, un graphe anti­­sy­­mé­­trique : si (x, y)PU alors (y, x) x U. Un graphe est complet si, pour tout arc (x, y), on a : [(x, y) x U] entraîne [(y, x)PU] 62

3.1  Élé­­ments de la théo­­rie des graphes

Le graphe complet symé­­trique de n som­­met est noté Kn (ou clique de n som­­mets), en honneur au mathématicien polonais Kuratowski. Une autre manière de décrire un graphe est d’uti­­li­­ser sa matrice d’inci­­dence som­­mets/arcs : chaque ligne de cette matrice est asso­­ciée à un som­­met, et chaque colonne est asso­­ciée à un arc du graphe. Dans la colonne cor­­res­­pon­­dant à un arc (i, j) autre qu’une boucle, figurent la valeur 11 sur la ligne cor­­res­­pon­­dant au som­­met i, la valeur 21 sur la ligne cor­­res­­ pon­­dant au som­­met j et la valeur 0 sur toutes les autres lignes. Dans une colonne cor­­res­­pon­­dant à une boucle (i, i) figurent la valeur 11 sur la ligne cor­­res­­pon­­dant au som­­met i et la valeur 0 sur toutes les autres lignes. La figure 3.5 donne cette matrice pour le graphe de notre exemple (les valeurs 0 ont été omises).

Figure 3.5  Matrice d'incidence

© Dunod – Toute reproduction non autorisée est un délit.

Une autre manière de repré­­sen­­ter un graphe est d’uti­­li­­ser la liste chaînée de ses suc­­ces­­seurs1. La figure 3.5 bis donne la liste des suc­­ces­­seurs pour notre exemple. Cette repré­­sen­­ta­­tion compacte d’un graphe est aisée à obte­­nir en machine en uti­­li­­sant les struc­­tures de don­­nées dyna­­miques exis­­tant désor­­mais dans tous les lan­­gages de pro­­gram­­ma­­tion. A

B

C

E

....

successeurs de A

B

B

C

..............

successeurs de B

C

D

........................

successeurs de C

D

A

E

..............

successeurs de D

E

A

C

..............

successeurs de E

Figure 3.5 bis  Listes de successeurs

1. Rap­­pe­­lons que l’ensemble des suc­­ces­­seurs d’un som­­met x se note : G 1 ( x ) , ou bien G ( x ) . 63

Chapitre 3 • Éléments de la théorie des graphes

3.1.3 Che­­mins de lon­­gueur k. Fer­­me­­ture tran­­si­­tive Consi­­dé­­rons la matrice M du graphe de la figure 3.3. On peut se pro­­po­­ser de l’éle­­ver au carré, au cube, etc. On obtient ainsi M 2, M 3, M 4, c où l’élé­­ment (i, j) de M k est le nombre de che­­mins de lon­­gueur k allant du som­­met i au som­­met j (ce que l’on peut prou­­ver par récur­­rence sur k). Rap­­pe­­lons que le pro­­duit d’une matrice A, de for­­mat p 3 q, par une matrice B, de for­­mat q 3 r, est la matrice C 5 A # B de for­­mat p 3 r, telle que cij 5 ai1 # b1j 1ai2 # b2j 1 c1 aiq # bqj.

Dans un graphe de n som­­mets, un plus long che­­min élé­­men­­taire comporte, évi­­dem­­ ment, s’il existe, n – 1 arcs. Il passe alors une fois et une seule par tous les som­­mets du graphe : on l’appelle che­­min hamiltonien. Un che­­min hamiltonien qui se referme sur lui-­­­même est un cir­­cuit hamiltonien. Dans le graphe de la figure 3.3 on n’a qu’un cir­­cuit hamiltonien : (A, B, C, D, E, A), alors qu’on avait plu­­sieurs che­­mins hamiltoniens. On peut éga­­le­­ment cal­­cu­­ler les « puis­­sances » suc­­ces­­sives de M en uti­­li­­sant ­comme loi « multiplicative » le pro­­duit logique et, comme loi « addi­­tive » la somme logique dont nous rappelons les tables ci-dessous. Ainsi, M [k] sera encore une matrice boo­­léenne :

Dans ces condi­­tions, la pré­­sence d’un 1 à l’inter­­sec­­tion de la ligne x et de la colonne y de M [k] signi­­fie : « il existe au moins un che­­min de lon­­gueur k entre x et y ». Dans l’exemple choisi, on a les résul­­tats sui­­vants :

Tous les termes M[4] sont égaux à 1 car dans G il existe au moins un chemin de longueur 4 de tout sommet x vers tout sommet y : le vérifier sur la Fig. 3.3. 64

3.1  Élé­­ments de la théo­­rie des graphes

Si l’on fait la somme boo­­léenne :

#

#

#

#

#

#

M 1 M 324 1 M 334 1 M 344 et, plus géné­­ra­­le­­ment, M 1 M 324 1 c1 M 3k 2 14, on trouve une matrice (qui, dans le cas par­­ti­­cu­­lier de l’exemple est entiè­­re­­ment for­­ mée de 1) dans laquelle la pré­­sence d’un 1 à l’inter­­sec­­tion de la ligne x et de la ­colonne y signi­­fie : « il existe dans le graphe au moins un che­­min de lon­­gueur infé­­ rieure ou égale à k 2 1 de x vers y ». On appelle fer­­me­­ture tran­­si­­tive d’un som­­met x, d’un graphe G 5 1 X, G 2 , l’expres­­sion : ˆ 1 x 2 5 5 x 6 x G 1 x 2 x G 2 1 x 2 x c x Gn 2 1 1 x 2 , G où, pour sim­­pli­­fier, on a noté G 1 1 x 2 5 G 1 x 2 et Gk 1 x 2 5 G 1 Gk 2 1 1 x 2 2 . ˆ 1 x 2 désigne l’ensemble des des­­cen­­dants de x, c’est-­­­à-dire des som­­mets acces­­ G sibles depuis x par des che­­mins ( y compris x lui-même). Il est facile de mon­­trer que l’on obtient la fer­­me­­ture tran­­si­­tive de l’ensemble X # des som­­mets du graphe en cal­­cu­­lant la matrice ( I 1 M ) 3n 2 14 (car la lon­­gueur maxi­ male des che­­mins élé­­men­­taires de G est : n21). ˆ 5 I 1# M 1# M 324 1# c1# M 3n 2 14 5 1 I 1# M 2 3n 2 14 M

où I est la matrice boo­­léenne unité (qui ne comporte que des 1 dans la dia­­go­­nale et des 0 par­­tout ailleurs). En effet, en cal­­cul boo­­léen, la for­­mule du binôme de Newton est plus simple :

# # # # # 1 A 1 B 2 3n 2 14 5 A3n 2 14 1 A3n 2 24 # B 1 A3n 2 34 # B324 1 c1 B3n 2 14. #

(À cause de l’idempotence de la somme boo­­léenne : 1 1 1 5 1, le tri­­angle de Pas­­cal (des C pn) a tous ses élé­­ments égaux à 1 en cal­­cul boo­­léen !) Consi­­dé­­rons, par exemple, le graphe de la ­ gure 3.6. On a d’abord# écrit M, puis en por­­tant des fi 1 dans la dia­­go­­nale, I 1 M. © Dunod – Toute reproduction non autorisée est un délit.

#

Figure 3.6

#

#

Cal­­cu­­lons 1 I 1 M 2 324, 1 I 1 M 2 334, puis 1 I 1 M 2 354. Nous obte­­nons :

65

Chapitre 3 • Éléments de la théorie des graphes



Remarques. # • 1 I 1 M 2 3k4 est la matrice codant l’exis­­tence des che­­mins d’au plus k arcs dans le graphe. •  M comporte, dans l’exemple, une colonne entiè­­re­­ment for­­mée de 0 ; c’est une entrée du graphe (ici, le som­­met A) ; elle comporte aussi une ligne consti­­ tuée uni­­que­­ment de 0 : c’est une sor­­tie du graphe (ici, F). •  Dans un graphe de n som­­mets, il ne peut y avoir de che­­min élémentaire de lon­­gueur supé­­rieure à n 2 1 (sans répé­­tition de som­­met), si bien que lors­­ qu’on recherche la fer­­me­­ture tran­­si­­tive, (ou ensemble des# des­­cen­­dants de tous les som­­mets) on peut s’arrêter à la puis­­sance n 2 1 de I 1 M. En pra­­tique, on peut d’ailleurs s’arrê­­ter dès que : # # 1 I 1 M 2 3 k 4 5 1 I 1 M 2 3 k 2 1 4. ˆ Posons A 5 I 1# M. Le Don­­nons deux sché­­mas pos­­sibles pour le cal­­cul de M. pre­­mier schéma consiste à cal­­cu­­ler : A324 5 A # A, puis A334 5 A324 # A, puis A344, c, puis A3n 2 14 5 A3n 2 24 # A, soit n 2 2 pro­­duits de matrices. Or le pro­­duit de deux matrices n 3 n requiert n3 mul­­ti­­pli­­cations boo­­léennes ; en effet, soient B, C, D des matrices n 3 n telles que : D 5 B # C. Rap­­pe­­lons que : # # # dij 5 bi1 # c1j 1 bi2 # c2j 1 c1 bin # cnj. L’éva­­lua­­tion de dij requiert donc n mul­­ti­­pli­­cations boo­­léennes ; or D comporte n2 termes : au total, il faut effec­­tuer n2 3 n, soit n3 mul­­ti­­pli­­cations boo­­léennes pour cal­­cu­­ler D. ˆ on aura 1 n 2 2 2 3 n3 mul­­ti­­pli­­cations boo­­léennes. La Fina­­le­­ment pour éva­­luer M, complexité de ce schéma est donc O(n4). Ainsi pour un graphe de n 5 240 som­­mets, l’on cal­­cu­­le­­rait : A2 5 A # A, A3 5 A2 # A, c, A239 5 A238 # A soit 238 pro­­duits de matrices. On peut donc amé­­lio­­rer ce schéma comme suit : on a vu plus haut que : # # # 1 I 1 M 2 3n 2 14 5 1 I 1 M 2 3n4 5 c5 3 I 1 M 4 3n 1 p4 (p entier > 21 2 . ˆ 5 A239 ; comme : 27 5 128 , 239 , 28 5 256, on a aussi : Pour ce graphe M 256 ˆ M 5 A . D’où le schéma de cal­­cul amé­­lioré : A2 5 A # A , puis A4 5 A2 # A2 , A8 5 A4 # A4 , c, A256 5 A128 # A128. 66

3.1  Élé­­ments de la théo­­rie des graphes

où à chaque ité­­ra­­tion, on cal­­cule le carré de la matrice de l’ité­­ra­­tion pré­­cé­­dente. Ce schéma ne néces­­site que 8 pro­­duits de matrices (au lieu de 238...) et dans le cas géné­­ral : E* [log2(n – 1)] pro­­duits de matrices, où E*[x] désigne la par­­tie entière de x par excès : ici n 2 1 5 239 ; puisque 27 , 239 , 28, on a : 7 , log2 239 , 8 et E* 3 log2 239 4 5 8. La complexité de la méthode matricielle avec ce schéma amé­­ lioré n’est plus que de O(n3 log2 n), qui est effectivement moindre que O(n4). Nous allons main­­te­­nant don­­ner l’algo­­rithme de Roy-­­­Warshall, de complexité moindre : O(n3) qui, lui aussi, déter­­mine la fer­­me­­ture tran­­si­­tive d’un graphe (cet algo­­rithme a été aussi trouvé indé­­pen­­dam­­ment par le Pr Louis Nolin). 1.  A d M 2.  pour i 5 1 à n faire 3.   A(i, i) d 1 4.  pour k 5 1 à n faire 5.   pour j 5 1 à n faire 6.    pour i 5 1 à n faire # 7.     A 1 i, j 2 d A 1 i, j 2 1 A 1 i, k 2 3 A 1 k, j 2

La figure 3.7 illustre sur l’exemple pré­­cé­­dent le dérou­­le­­ment de cet algo­­rithme ; lors de chaque ité­­ra­­tion k on a enca­­dré cer­­tains 1  : ils cor­­res­­pondent aux arcs ajou­­ tés, lors de cette ité­­ra­­tion, au graphe cou­­rant. Les som­­mets sont consi­­dé­­rés dans l’ordre A, B, C, D, E, F et les rela­­tions de réflexi­­vité (boucles) ne sont pas prises en compte. ­Ci-­­­dessous ces som­­mets sont notés a, b, c, d, e et f (pour évi­­ter la confu­­sion entre la matrice A et le som­­met A). a b c d e f a

© Dunod – Toute reproduction non autorisée est un délit.

A=

a b c d e f

1 1 0 0 1 0

a b c d e f

a b c d e f

1 1 0 1 0

1 1 1 1 0

1 0 0 1 0

b 0 1 1 0 0 0

0

c

0 0

0 0 1 1 0 0

1 0 0 0 1 0 0

d 0 0 0 1 0 1

0 0 0

e

0 1 1 0 1 1

0 1 1 0

f

0 0 0 0 0 1

0 0 0 0 0

Initialisation a

0 1 1

1 0 0 0

0 0

1 0 0

0 0 0

0 1

0 1 1 0

1

0 0 0 0 0

0

1 1 0 0

0 0

1 0 0

0 0 0

0 1

0 1 1 1

1

0 0 0 0 0

k = 1 (cf a)

k = 2 (cf b)

k = 3 (cf c)

1 1 1 1 1

1 1 1 1 1

1 1 1 1 1

b 0

1 1 0 1

c 0 0

1 0 1

d 0 0 0

0 1

e 0 1 1 1 f

0

0 0 0 0 0

k = 4 (cf d)

1

0

1 1 0 1

0 0

1 0 1

0 0 0

0 1

0 1 1 1 0 0 0 0 0

k = 5 (cf e)

1

0

1 1 0 1

0 0

1 0 1

0 0 0

0 1

0 1 1 1

=M

1

0 0 0 0 0

k = 6 (cf f ) 67

Chapitre 3 • Éléments de la théorie des graphes

(2)

(3)

B

C (4)

A

4

(4)

E (3)

(3)

D

F

Figure 3.7 :  Un exemple d’exé­­cu­­tion de l’algo­­rithme de Roy-­­­Warshall

L’ité­­ra­­tion k 5 1 n’ajoute aucun arc car a est une entrée. L’ité­­ra­­tion 2 ajoute l’arc (a, c) car le graphe cou­­rant comporte (a, b) et (b, c), l’itération 3 ajoute les arcs (a, d  ), (b, d  ) et (e, d  ) etc. L’ité­­ra­­tion 6 n’ajoute aucun arc car f est une sor­­tie. La ˆ se déduit de M en éga­­lant à 1 tous les termes de sa dia­­go­­nale : M ˆ 5 M 1# I, matrice M où M est la matrice obtenue en fin d’application de l’algorithme. Le lec­­teur inté­­ressé pourra consul­­ter les ouvrages cités en biblio­­gra­­phie pour trou­­ver la preuve de cet algo­­rithme.

3.1.4 Forte connexité Cette notion, contrai­­re­­ment à celle de la connexité, fait appel à l’orien­­ta­­tion du graphe. Soit la rela­­tion binaire défi­­nie sur l’ensemble des som­­mets X : « il existe au moins un che­­min de x à y et au moins un che­­min de y à x » ; elle est réflexive (de tout som­­met x vers lui-­­­même existe un che­­min de lon­­gueur 0), symé­­trique, (par défi­­ni­­tion), et tran­­si­­tive : s’il existe un che­­min de x à y et un che­­min de y à z, la mise bout à bout ou « conca­­té­­na­­tion » de ces deux che­­mins four­­nit un che­­min de x à z ; de même avec un che­­min de y à x et un che­­min de z à y. C’est donc une rela­­tion d’équi­­va­­lence. Les classes de cette rela­­tion d’équi­­va­­lence se nomment les compo­­santes for­­te­­ment connexes du graphe1. Un graphe est for­­te­­ment connexe s’il comporte une seule compo­­sante for­­te­­ment connexe. Si l’on ajoute l’arc (d, a) au graphe de la Figure 3.6 (ou 3.7), il devient fortement connexe.

Consi­­dé­­rons, à titre d’exemple, le graphe de la figure 3.8 pour lequel k X k 5 n 5 7. ˆ 5 ( I 1# M ) 364, on constate qu’un nou­­vel arran­­ge­­ment Si l’on observe la matrice M des colonnes et des lignes per­­met de faire appa­­raître des matrices car­­rées, uni­­que­­ ment for­­mées de 1, s’appuyant sur la dia­­go­­nale prin­­ci­­pale.

1. Dans toute compo­­sante for­­te­­ment connexe c, il existe donc un che­­min entre tout couple de som­­mets de c. 68

3.1  Élé­­ments de la théo­­rie des graphes

2

1

Figure 3.8

A B CDE FG

A B F CD E G

A 1 1 1 1 1 1 1 B 1 1 1 1 1 1 1

A 1 1 1 1 1 1 1 B 1 1 1 1 1 1 1

C 0 0 1 1 1 0 1 ˆ MD 0 0 1 1 1 0 1

F 1 1 1 1 1 1 1 C 0 0 0 1 1 1 1

E 0 0 1 1 1 0 1

D 0 0 0 1 1 1 1 E 0 0 0 1 1 1 1 G 0 0 0 1 1 1 1

F 1 1 1 1 1 1 1 G 0 0 1 1 1 0 1

À cha­­cune de ces matrices car­­rées cor­­res­­pond une compo­­sante for­­te­­ment ­connexe du graphe. c1 5 5 A, B, F 6 et c2 5 5 C, D, E, G 6 sont les ensembles de som­­mets des deux compo­­santes for­­te­­ment connexes du graphe de la figure 3.8.

Remarques.  1) Lorsqu’un graphe comporte un cir­­cuit hamiltonien, il est # for­­te­­ment connexe et la matrice 1 I 1 M 2 3n 2 14 ne contient que des 1. Mais le # fait que la matrice 1 I 1 M 2 3n 2 14 soit uni­­que­­ment for­­mée de 1 n’implique pas l’exis­­tence d’un cir­­cuit hamiltonien : cela veut sim­­ple­­ment dire que le graphe est for­­te­­ment connexe. Par exemple G 5 1 X, U 2 où : X 5 ({A, B, C, D} ; U 5 {(A, B) ; (B, C) ; (C, A) ; (C, D) ; (D, B)}

© Dunod – Toute reproduction non autorisée est un délit.

2) Tous les som­­mets appar­­te­­nant à un même cir­­cuit, appar­­tiennent néces­­sai­­re­­ ment à la même compo­­sante for­­te­­ment connexe. Un algo­­rithme très effi­­cace, dû à Tarjan, per­­met de déter­­mi­­ner les compo­­santes for­­ te­­ment connexes d’un graphe. Cet algo­­rithme effec­­tue un seul par­­cours en pro­­fon­­deur du graphe (cf. 3.2.d) et est de complexité O(m), où m est le nombre d’arcs (sup­­posé ici supé­­rieur ou égal à n). Le lec­­teur pourra consul­­ter la réfé­­rence [8] pour la des­­crip­­tion et la preuve de cet algo­­rithme. Nous conseillons au lecteur l’exercice corrigé en fin de ce chapitre donnant l’algorithme plus simple mais efficace, dû à Kosaraju et Sharis, également en O(m), aboutissant au même résultat, mais en effectuant deux parcours en profondeur.

3.1.5 Uti­­lité du concept de graphe en recherche opé­­ra­­tion­­nelle Un graphe peut repré­­sen­­ter toutes sortes de situa­­tions dans les phé­­no­­mènes d’orga­­ ni­­sa­­tion. Par exemple, un réseau de transport, c’est-­­­à-dire un graphe compor­­tant une entrée et une sor­­tie, peut cor­­res­­pondre à des cana­­li­­sa­­tions où cir­­cule un fluide (liquide, gaz). Dans ce cas, il véri­­fie la loi des nœuds ou loi de Kirchhoff, bien connue en élec­­ tri­­cité, et selon laquelle les quan­­ti­­tés entrantes (par unité de temps) en un som­­met sont égales aux quan­­ti­­tés sor­­tantes (par unité de temps) en ce même som­­met (figure 3.9). Il est facile, en effet, de comprendre que, si trois cana­­li­­sa­­tions apportent en un som­­met A des débits res­­pec­­tifs de 2, 3 et 1 litres/mn, soit en tout 6 O/mn, les cana­­li­­sa­­tions qui partent de A doivent avoir un débit total de 6 O/mn. 69

Chapitre 3 • Éléments de la théorie des graphes

Mais un graphe n’est pas tou­­jours un réseau repré­­sen­­tant des cir­­ cu­­la­­tions quel­­conques. Sou­­vent, une flèche (arc) entre deux points implique seule­­ment une rela­­tion de suc­­ces­­sion : par exemple, le graphe (figure 3.10) Figure 3.9 peut vou­­loir dire seule­­ment que A pré­­cède B, qui, lui-­­­même, pré­­ cède C. Une pro­­priété évi­­dente, dans ce cas, est la tran­­si­­ti­­vité. Si A pré­­cède B et B pré­­cède C, alors A pré­­cède C ; mais on n’a pas besoin de l’indi­­quer par une flèche sup­­plé­­men­­taire entre A et C. Figure 3.10 Si dans cette inter­­pré­­ta­­tion, on abou­­tit à une figure (figure 3.11) compor­­tant un cir­­cuit, le pro­­blème n’est pas cohé­­rent, car on ne sau­­ rait avoir à la fois : A pré­­cède C (par tran­­si­­ti­­vité) et C pré­­cède A. Les graphes des pro­­blèmes d’ordon­­nan­­ce­­ment pré­­sen­­tés plus loin ne sau­­ raient compor­­ter de cir­­cuit. Figure 3.11 On dit qu’un graphe est valué si, à tout arc qui le consti­­tue, cor­­ res­­pond une valeur numé­­rique, qu’on écrit seule­­ment, sur la figure, à proxi­­mité de cet arc. Ces valeurs peuvent être des quan­­ti­­tés tran­­spor­­tées, des débits, des coûts, des durées, etc. Signa­­lons que les graphes per­­mettent de repré­­sen­­ter aisé­­ment les « sys­­tèmes » pou­­ vant se trou­­ver dans des « états », les chan­­ge­­ments d’états étant des « tran­­si­­tions ». Tout état est alors repré­­senté par un som­­met, toute tran­­si­­tion par un arc. Nous ren­­contre­­rons plus loin des exemples de sys­­tèmes états/tran­­si­­tions : il s’agira des chaînes de Markov, puis des pro­­ces­­sus de Markov. Un autre exemple en est donné par les réseaux de Petri.

3.2 Par­­cours

des graphes

Nous pré­­sen­­tons ici une méthode générale appe­­lée par­­cours d’un graphe qui, appli­­ quée à un graphe orienté ou non orienté, per­­met la concep­­tion de toute une famille d’algo­­rithmes par­­ti­­cu­­liè­­re­­ment effi­­caces. Ces algo­­rithmes, appli­­qués à un graphe donné, en déter­­minent des pro­­prié­­tés spé­­ci­­fiques (par exemple si le graphe est connexe, ou encore s’il est for­­te­­ment connexe) ou bien cal­­culent des quan­­ti­­tés carac­­té­­ris­­tiques de ce graphe (nombre de compo­­santes connexes ; lon­­gueurs de che­­mins ; etc.). Le lec­­teur pourra consta­­ter tout l’inté­­rêt de cette méthode au tra­­vers des exemples clas­­siques pré­­sen­­tés dans ce sous-cha­­pitre. Le prin­­cipe de la méthode est de par­­cou­­rir un graphe, c’est-­­­à-dire l’ensemble de ses som­­mets et de ses arcs (ou arêtes). Le par­­cours du graphe doit se faire en res­­pec­­ tant quelques règles simples assu­­rant, d’une part, que tout som­­met et toute arête (ou arc) ont bien été visi­­tés et, d’autre part, une complexité mini­­male de la pro­­cé­­dure en évi­­tant toute redon­­dance. In­­­for­­mel­­lement, la pro­­cé­­dure de par­­cours d’un graphe peut s’énon­­cer de la manière qui suit : on choi­­sit un som­­met ini­­tial que l’on commence à visi­­ter, la visite d’un som­­met étant ter­­mi­­née lorsque l’on est allé visi­­ter tous ses suc­­ces­­seurs si le graphe est orienté (ou tous les som­­mets qui lui sont adja­­cents, si le graphe est non orienté). Ensuite, à chaque étape, on choi­­sit un som­­met en cours de visite et on 70

3.2  Par­­cours des graphes

p­ our­­suit sa visite. Lors­­qu’il n’est plus pos­­sible de pour­­suivre la visite d’aucun som­­ met du graphe, pour le som­­met ini­­tial choisi, la pro­­cé­­dure s’arrête si tous les som­­ mets du graphe sont visi­­tés ; dans le cas contraire, on reprend le par­­cours à par­­tir d’un som­­met non encore visité. Tout au long de la pro­­cé­­dure de par­­cours d’un graphe, chaque som­­met passe par trois états suc­­ces­­sifs : ini­­tia­­le­­ment, un som­­met n’est pas atteint par le par­­cours, il est alors dit non mar­­qué, puis lors­­qu’un som­­met est atteint pour la pre­­mière fois, sa visite débute, le som­­met est alors dans l’état ouvert, enfin lorsque la visite d’un som­­met est ter­­mi­­née, le som­­met est alors dans l’état fermé. Un par­­cours débute alors par l’ouver­­ture d’un som­­ met du graphe (le som­­met ini­­tial) et se ter­­mine lorsque tous les som­­mets sont fer­­més. Les algo­­rithmes effec­­tuant des par­­cours de graphe se dis­­tinguent par la stratégie de choix, à chaque étape, du som­­met à ouvrir, à par­­tir duquel est pour­­sui­­vie la visite. Ainsi la stra­­té­­gie uti­­li­­sée par un algo­­rithme de par­­cours induit deux ordres pour les som­­mets du graphe :

© Dunod – Toute reproduction non autorisée est un délit.

•  l’ordre dans lequel les som­­mets sont ouverts, appelé ordre de prévisite ; •  l’ordre dans lequel les som­­mets sont fer­­més, appelé ordre de postvisite. La complexité algo­­rith­­mique du par­­cours d’un graphe dépend du type de stra­­ té­­gie uti­­li­­sée. Cepen­­dant, dans un pre­­mier temps, si l’on sup­­pose que le choix du som­­met à ouvrir à chaque étape peut se faire en un temps constant (c’est-­­­à-dire avec une complexité O(1), voir le cha­­pitre 2), la complexité du par­­cours est O(n 1 m). En effet, si le graphe est repré­­senté sous la forme de listes de suc­­ces­­seurs (ou bien de listes de som­­mets adja­­cents pour un graphe non orienté) (cf. 3.1.2), cha­­cune des n listes asso­­ciées aux n som­­mets du graphe est par­­cou­­rue entiè­­re­­ment une fois et une seule. Cha­­cun des élé­­ments d’une liste cor­­res­­pon­­dant à l’un des m arcs (ou des m arêtes) du graphe, nous en dédui­­sons la complexité annon­­cée. Après avoir donné deux exemples de par­­cours dans les graphes orien­­tés et les graphes non orien­­tés, nous consa­­cre­­rons les deux der­­nières par­­ties de ce sous-cha­­pitre à deux stra­­té­­gies de par­­cours sur les­­quelles sont fon­­dés de nom­­breux algo­­rithmes : le par­­cours en lar­­geur et le par­­cours en pro­­fon­­deur. Nous ver­­rons qu’en uti­­li­­sant des struc­­tures de don­­nées appro­­priées, ces deux der­­niers types de par­­cours ont une complexité O(n 1 m). En R.O. on a souvent affaire à des graphes denses : m W n ; alors celle-ci est O(m).

3.2.1 Par­­cours d’un graphe non orienté Dans ce para­­graphe, nous don­­nons un algo­­rithme géné­­rique effec­­tuant le par­­cours d’un graphe non orienté. Nous allons voir ensuite, par l’inter­­mé­­diaire d’un exemple, comment un tel par­­cours per­­met de déter­­mi­­ner effi­­ca­­ce­­ment les compo­­santes ­connexes d’un graphe. L’algo­­rithme est le sui­­vant : 1.  Ini­­tia­­le­­ment tous les som­­mets sont non mar­­qués ; 2.  tant qu’il existe s un som­­met non mar­­qué, ouvrir s ; 3.   tant que cela est pos­­sible exé­­cu­­ter l’une des ins­­truc­­tions 4 ou 5 ; 4.    ouvrir un som­­met y non mar­­qué s’il est adja­­cent à un som­­met x ouvert ; 5.    fer­­mer un som­­met x si tous ses som­­mets adja­­cents sont ouverts ou fer­­més. 71

Chapitre 3 • Éléments de la théorie des graphes

Les figures 3.13 à 3.17 illus­­trent un dérou­­le­­ment pos­­sible de l’algo­­rithme pour le graphe repré­­senté dans la figure 3.12 ; remar­­quons que ce graphe n’est pas connexe et comporte p 5 3 compo­­santes connexes. Dans ces figures, les som­­mets gri­­sés sont les som­­mets ouverts et les som­­mets cer­­clés d’un trait épais et non gri­­sés sont les som­­mets fer­­més. Tout arc (x, y) repré­­senté par une flèche épaisse indique le som­­met x à par­­tir duquel s’effec­­tue l’ouver­­ture du som­­met y.

Figure 3.12

Nous détaillons main­­te­­nant la façon dont le par­­cours est effec­­tué, le lec­­teur pourra suivre ce par­­cours sur les figures 3.13 et 3.17. Le pre­­mier som­­met ouvert est le som­­met A. Ensuite, le som­­met B adja­­cent à A est ouvert ; à noter cepen­­dant, que les som­­mets E ou F auraient tout aussi pu être ouverts à cette étape. Les som­­mets I, puis E, puis H sont ensuite suc­­ces­­si­­ve­­ment ouverts. Le som­­met E est alors fermé (L ou F auraient pu être ouverts à cette étape), le graphe cor­­res­­pon­­dant est alors le der­­nier de la figure 3.14. L est ensuite ouvert, puis I fermé. À ce moment, la reprise de la visite du som­­met A, per­­met l’ouver­­ture du som­­met F. Les som­­mets H, A, B, F, L (fig. 3.16 en haut) sont alors suc­­ces­­si­­ve­­ment fer­­més ; remar­­quons encore que tout autre ordre de fer­­me­­ture de ces cinq der­­niers som­­mets aurait été compa­­tible avec l’algo­­rithme. À ce moment, plus aucun som­­met n’est ouvert : c’est la fin de la première passe mais tous les som­­mets ne sont pas fer­­més : le som­­met non mar­­qué C est alors ouvert : c’est le début de la seconde passe. Le par­­cours se pour­­suit par l’ouver­­ture du som­­met J. Puis suc­­ces­­si­­ve­­ment s’exé­­cutent les ouver­­tures de K puis de D, la fer­­me­­ture de J sui­­vie de l’ouver­­ture de G, puis des fer­­me­­tures suc­­ces­­sives des som­­mets C, K, G et D (fig. 3.16, en bas). À nou­­veau, aucun som­­met n’est ouvert, mais tous les som­­mets ne sont pas fer­­més. Le par­­cours se pour­­suit (troisième passe) par l’ouver­­ture du som­­met M, puis celles de N et O, suc­­ces­­si­­ve­­ment. Les som­­mets N, M, O sont alors suc­­ces­­si­­ve­­ment fer­­més (fig. 3.17, second graphe) ; ici encore, tout autre ordre de fer­­me­­ture de ces trois der­­niers som­­ mets aurait pu conve­­nir. Tous les som­­mets sont fer­­més à cette étape de l’algo­­rithme ; le par­­cours du graphe est alors ter­­miné. 72

3.2  Par­­cours des graphes

Un par­­cours peut se résu­­mer, d’une part par les deux ordres d’ouver­­ture (on dit ­aussi de prévisite) et de fer­­me­­ture (on dit aussi de postvisite) des som­­mets du graphe, et, d’autre part, par la forêt cou­­vrante (une forêt est un graphe dont chaque ­compo­­sante connexe est une arbo­­res­­cence) défi­­nie par l’ensemble des arcs (x, y) telle que l’ouver­­ ture du som­­met y s’est effec­­tuée au cours de la visite du som­­met x ; elle « couvre » tous les som­­mets. Dans cet exemple ces deux ordres sont, en par­­tie, arbi­­traires. Ce ne sera plus le cas pour les par­­cours en lar­­geur ou en pro­­fon­­deur qui sont décrits plus loin. Début de la première passe

on a ouvert A

© Dunod – Toute reproduction non autorisée est un délit.

puis on a ouvert B

puis on a ouvert I Figure 3.13

73

Chapitre 3 • Éléments de la théorie des graphes

Pour le par­­cours effec­­tué dans l’exemple fourni pré­­cé­­dem­­ment, la forêt obte­­nue est repré­­sen­­tée par l’ensemble des arcs épais figu­­rant au bas de la figure 3.17. L’ordre de prévisite, c’est-­­­à-dire l’ordre dans lequel les som­­mets du graphe sont ouverts, cor­­res­­pond à la liste : PRÉVISITE 5 (A, B, I, E, H, L, F, C, J, K, D, G, M, N, O) L’ordre de postvisite, c’est-­­­à-dire l’ordre dans lequel les som­­mets du graphe sont fer­­més, cor­­res­­pond à la liste : POSTVISITE 5 (E, I, H, A, B, F, L, J, C, K, G, D, N, M, O) Suite de la première passe

puis on a ouvert E

puis on a ouvert H

puis on a fermé E Figure 3.14

74

3.2  Par­­cours des graphes

puis on a ouvert L

© Dunod – Toute reproduction non autorisée est un délit.

puis on a fermé I

puis on a ouvert F Figure 3.15

75

Chapitre 3 • Éléments de la théorie des graphes

Figure 3.16

76

3.2  Par­­cours des graphes

Ici on a ouvert D puis G, puis fermé C, D, G, J, K. fin de la seconde passe Début de la troisième passe

ici on a ouvert N puis O, puis fermé O, N, et M. Fin de la troisième passe Figure 3.17  En traits gras : on a obtenu, en fin du parcours, une forêt couvrante.

Nous allons mon­­trer, dans les exemples qui suivent, comment des algo­­rithmes de parcours des graphes peuvent uti­­li­­ser les posi­­tions rela­­tives des som­­mets dans ces deux ordres et la forêt cou­­vrante (défi­­nie pré­­cé­­dem­­ment), pour déter­­mi­­ner effi­­ca­­ce­­ ment cer­­taines pro­­prié­­tés et/ou quan­­ti­­tés carac­­té­­ris­­tiques du graphe par­­couru.

© Dunod – Toute reproduction non autorisée est un délit.

Connexité d’un graphe Le pro­­blème de la connexité consiste à déter­­mi­­ner si le graphe donné est connexe et sinon à déterminer p, le nombre de compo­­santes connexes du graphe. Si le graphe n’est pas connexe (c’est-­­­à-dire, p > 2), il est demandé de déter­­mi­­ner, pour chaque som­­met du graphe, la compo­­sante connexe à laquelle il appar­­tient. Ce pro­­blème peut se for­­mu­­ler pour les graphes non orien­­tés ou orien­­tés : dans ce der­­nier cas, un arc est assi­­milé à une arête et deux arcs symé­­triques (x, y) et (y, x) sont fusion­­nés en une seule arête [x, y]. Nous mon­­trons qu’une simple adap­­ta­­tion de l’algo­­rithme de par­­cours donné plus haut résout ce pro­­blème. On note c(x) le numéro de la compo­­sante connexe à laquelle appar­­tient le som­­met x. Consi­­dé­­rons l’algo­­rithme sui­­vant (le lec­­teur consta­­tera qu’il est simi­­laire à celui pré­­senté plus haut) : 1.  ini­­tia­­le­­ment tous les som­­mets sont non mar­­qués ; p d 0 ; 2.  tant qu’il existe s un som­­met non mar­­qué, ouvrir s ; p d p 1 1 ; 77

Chapitre 3 • Éléments de la théorie des graphes

3.   tant que cela est pos­­sible exé­­cu­­ter l’une des ins­­truc­­tions 4 ou 5 ; 4.    ouvrir un som­­met y non mar­­qué s’il est adja­­cent à un som­­met x ouvert ; 5.   fer­­mer un som­­met x si tous ses som­­mets adja­­cents sont ouverts ou fer­­més ; c(x) d p. La figure 3.18 four­­nit le résul­­tat de l’appli­­ca­­tion de cet algo­­rithme au graphe ­donné par la figure 3.12. La valeur ins­­crite à côté de chaque som­­met x, soit c(x), indique le numéro de la compo­­sante connexe à laquelle appar­­tient le som­­met x.

Figure 3.18  La forêt couvrante importe p 5 3 arborescences : G a 3 composantes connexes.

La jus­­ti­­fi­­cation de la vali­­dité de cet algo­­rithme se fait de la manière sui­­vante : soit x le som­­met le pre­­mier ouvert d’une compo­­sante connexe (donc dans l’ordre de prévisite). Dans la forêt cou­­vrante (c’est-­­­à-dire à l’ensemble des arbo­­res­­cences) rela­­tive au par­­cours effec­­tué, x n’a pas de pré­­dé­­ces­­seur (sinon x ne pour­­rait pas être le pre­­mier som­­met prévisité de sa compo­­sante connexe), x est donc une racine. Si un som­­met y appar­­tient à la même compo­­sante que x, il existe une chaîne du graphe reliant x et y. Il est aisé de véri­­fier que, dans ce cas, il y a un che­­min de x à y dans la forêt cou­­vrante. Réci­­pro­­que­­ment, si un som­­met y n’appar­­tient pas à la compo­­sante connexe de x, il n’existe pas de chaîne reliant x et y dans le graphe et, a for­­tiori, il n’y a pas de che­­min de x à y dans la forêt cou­­vrante rela­­tive au par­­cours effec­­tué. Donc chaque arbo­­res­­cence de la forêt cor­­res­­pond à une compo­­sante connexe du graphe et réci­­pro­­que­­ment. Il est aisé de véri­­fier que les som­­mets ouverts lors des exécutions de l’ins­­truc­­tion 2 sont les racines de la forêt cou­­vrante : A, C et M dans la figure 3.18. Ceci ter­­mine notre démons­­tra­­tion. Nous pou­­vons faci­­le­­ment remar­­quer que la complexité de cet algo­­rithme est iden­­ tique à celle du par­­cours, soit O(m 1 n).

3.2.2 Par­­cours d’un graphe orienté Nous pré­­sen­­tons dans ce para­­graphe un algo­­rithme géné­­rique effec­­tuant le par­­cours d’un graphe orienté. La simi­­li­­tude avec l’algo­­rithme pré­­senté plus haut pour les graphes non orien­­tés étant impor­­tante, le lec­­teur est invité à se repor­­ter au para­­graphe pré­­ cé­­dent pour tout ce qui concerne la ter­­mi­­no­­logie uti­­li­­sée. L’algo­­rithme est le sui­­vant. 78

3.2  Par­­cours des graphes

1.  Ini­­tia­­le­­ment tous les som­­mets sont non mar­­qués ; 2.  tant qu’il existe s un som­­met non mar­­qué, ouvrir s ; 3.   tant que cela est pos­­sible, exé­­cu­­ter l’une des ins­­truc­­tions 4 ou 5 ; 4.    ouvrir un som­­met y non mar­­qué s’il est suc­­ces­­seur d’un som­­met x ouvert ; 5.   fer­­mer un som­­met x si tous ses som­­mets suc­­ces­­seurs sont ouverts ou fer­­més. Les figures 3.20 et 3.21 illus­­trent un dérou­­le­­ment pos­­sible de l’algo­­rithme pour le le graphe repré­­senté sur la figure 3.19.

© Dunod – Toute reproduction non autorisée est un délit.

Figure 3.19

Les étapes suc­­ces­­sives du par­­cours sont les sui­­vantes. A est le pre­­mier som­­met ouvert, puis vient ensuite l’ouver­­ture de B, sui­­vie de celle de G. À l’étape sui­­vante, F est ouvert lors de la pour­­suite de la visite du som­­met B, ce qui jus­­ti­­fie l’intro­­duc­­ tion de l’arc (B, F) dans la forêt repré­­sen­­ta­­tive du par­­cours. Ensuite, le som­­met A est fermé, puis le som­­met D est ouvert. Les som­­mets B et G sont suc­­ces­­si­­ve­­ment fer­­més avant que C soit ouvert. Il vient ensuite les fer­­me­­tures suc­­ces­­sives des som­­mets D, C et F. À cette étape, aucun som­­met n’est ouvert et le som­­met E est encore non mar­­ qué. E est alors ouvert, puis n’ayant pas de successeur non marqué, E est fermé. Le par­­cours est alors ter­­miné. La forêt fina­­le­­ment obte­­nue est repré­­sen­­té par l’ensemble des arcs épais du ­graphe au bas à droite de la figure 3.21. Elle comporte deux arborescences ; celle de racine E est réduite à une seul sommet. L’ordre dans lequel les som­­mets du graphe sont ouverts, cor­­res­­pond à la liste : PRÉVISITE 5 (A, B, G, F, D, C, E) et l’ordre de postvisite cor­­res­­pond à la liste POSTVISITE 5 (A, B, G, D, C, F, E). Nous allons mon­­trer, dans le para­­graphe sui­­vant, comment en adap­­tant très sim­­ ple­­ment l’algo­­rithme géné­­rique que nous venons de pré­­sen­­ter, nous obte­­nons un algo­­rithme effi­­cace per­­met­­tant de déter­­mi­­ner l’ensemble des des­­cen­­dants d’un som­­ met donné. Le lec­­teur est invité à consta­­ter que l’algo­­rithme de Dijkstra, pré­­senté au cha­­pitre 4, qui cal­­cule les valeurs de plus courts che­­mins issus d’une ori­­gine s, est un par­­cours de graphe uti­­li­­sant une stra­­té­­gie spé­­ci­­fique d’ouver­­ture et de fer­­me­­ture des som­­mets. 79

Chapitre 3 • Éléments de la théorie des graphes

Début de la première passe 1

2

on ouvre A

puis on ouvre B 4

3

puis on ouvre G

puis on ouvre F

5

6

puis on ferme A

puis on ferme B et on ouvre D Figure 3.20

80

3.2  Par­­cours des graphes

puis on ferme G

puis on ouvre C

7

8

Fin de la première passe début de la seconde passe 9

10

on a fermé C et on a ouvert E

on a fermé E

Fin de la seconde passe Figure 3.21

Acces­­si­­bi­­lité

© Dunod – Toute reproduction non autorisée est un délit.

Le pro­­blème de l’acces­­si­­bi­­lité dans un graphe consiste à déter­­mi­­ner l’ensemble des des­­cen­­dants d’un som­­met donné s (que l’on a nommé en 3.1.3 : « fer­­me­­ture tran­­si­­ tive » de s). Nous allons mon­­trer ici qu’un algo­­rithme résol­­vant ce pro­­blème peut être sim­­ple­­ment obtenu en adap­­tant l’algo­­rithme géné­­rique pré­­senté pré­­cé­­de­ment. Consi­­dé­­rons l’algo­­rithme sui­­vant. 1.  Ini­­tia­­le­­ment tous les som­­mets sont non mar­­qués ; 2.  ouvrir s ; 3.   tant que cela est pos­­sible exé­­cu­­ter l’une des ins­­truc­­tions 4 ou 5 ; 4.    ouvrir un som­­met y non mar­­qué s’il est suc­­ces­­seur d’un som­­met x ouvert ; 5.   fer­­mer un som­­met x si tous ses som­­mets suc­­ces­­seurs sont ouverts ou fer­­més. Le résul­­tat de l’appli­­ca­­tion de cet algo­­rithme au graphe donné par la figure 3.19, pour le som­­met s 5 A, est repré­­senté en bas à droite de la figure 3.21. Les som­­mets des­­cen­­dants de A sont les som­­mets appar­­te­­nant à l’arbo­­res­­cence (en traits épais) ayant A pour racine. Cet algo­­rithme se jus­­ti­­fie par la pro­­priété sui­­vante : si s est le pre­­mier som­­met ouvert dans un par­­cours, alors il existe un che­­min du som­­met s au som­­met x dans l’arbo­­res­­cence rela­­tive au par­­cours, si et seule­­ment si, il existe un che­­min de s à x dans le graphe par­­couru. La preuve de cette pro­­priété est la sui­­vante : d’une part le 81

Chapitre 3 • Éléments de la théorie des graphes

che­­min de s à x existe dans l’arbo­­res­­cence rela­­tive au par­­cours seule­­ment si ce même che­­min existe dans le graphe auquel l’algo­­rithme est appli­­qué ; d’autre part, s étant le pre­­mier som­­met ouvert, il est aisé de véri­­fier que quelle que soit la manière dont le par­­cours est réa­­lisé, tout som­­met des­­cen­­dant de s dans le graphe par­­couru est néces­­ sai­­re­­ment un som­­met de l’arbo­­res­­cence ayant le som­­met s pour racine. Dans ce cha­­pitre, nous avons donné dif­­fé­­rents algo­­rithmes per­­met­­tant de cal­­ cu­­ler la fer­­me­­ture tran­­si­­tive d’un graphe. L’algo­­rithme le plus effi­­cace que nous avions pré­­senté jus­­qu’alors était celui dû à Roy et Warshall de complexité O(n3). L’algo­­rithme que nous venons de pré­­sen­­ter nous per­­met aussi d’obte­­nir la fer­­me­­ture tran­­si­­tive d’un graphe. Il suf­­fit pour cela d’appli­­quer n fois cet algo­­rithme à par­­tir de cha­­cun des n som­­mets du graphe. Comme nous le ver­­rons juste en des­­sous, il est pos­­sible d’effec­­tuer le par­­cours d’un graphe avec une complexité O(n 1 m). Lorsque le graphe consi­­déré comporte de nom­­breux arcs, c’est-­­­à-dire m 5 O(n2), la complexité de ces par­­cours est O(n2), donc en effec­­tuant n par­­cours (un depuis chacun des sommets) nous obte­­nons la fer­­me­­ture tran­­si­­tive d’un graphe avec la complexité O(n3), ce qui est iden­­tique à la complexité de l’algo­­rithme de Roy-­­­Warshall. En revanche, si le graphe consi­­déré comporte peu d’arcs, c’est-­­­à-dire m 5 O(n), ce qui est le cas des graphes pla­­naires fré­­quem­­ment ren­­contrés en recherche opé­­ra­­tion­­nelle, la complexité d’un par­­cours est alors O(m) 5 O(n). En effec­­tuant n par­­cours, nous obte­­nons la fer­­me­­ture tran­­si­­tive d’un graphe avec une complexité O(n2). Pour ce type de graphes, l’algo­­rithme effec­­tuant n par­­cours est alors plus effi­­cace que ceux pré­­sen­­tés au début de ce cha­­pitre. Tarjan a donné un algo­­rithme per­­met­­tant de résoudre le pro­­blème de l’acces­­si­­bi­­ lité, de complexité O ( m 1 n ) , utilisant un seul parcours du graphe.

3.2.3  Par­­cours en lar­­geur Nous défi­­nis­­sons dans cette sec­­tion une stra­­té­­gie par­­ti­­cu­­lière de par­­cours de graphe appe­­lée par­­cours en lar­­geur. Ce type de par­­cours est défini dans ce para­­graphe pour les graphes orien­­tés, l’adap­­ta­­tion immé­­diate des algo­­rithmes, pro­­po­­sés ici, aux graphes non orien­­tés est lais­­sée au lec­­teur. Nous ver­­rons comment en uti­­li­­sant une file comme struc­­ture de don­­nées, la complexité d’un algo­­rithme de par­­cours en lar­­geur est O 1 n 1 m 2 (nous rap­­pe­­lons plus bas en quoi consiste une file). Nous illus­­tre­­rons ensuite l’effi­­ca­­cité des par­­cours en lar­­geur en mon­­trant comment déter­­mi­­ner les plus courts che­­mins d’un graphe depuis un sommet s donné. La stra­­té­­gie pour effec­­tuer un par­­cours en lar­­geur obéit aux deux règles sui­­ vantes : tous les suc­­ces­­seurs non mar­­qués du som­­met en cours de visite sont ouverts suc­­ces­­si­­ve­­ment et leurs numé­­ros d’ordre de prévisite seront donc consé­­cu­­ tifs ; le som­­met visité à toute étape est, parmi les som­­mets ouverts, celui qui a été ouvert le pre­­mier. Comme nous l’avons mon­­tré un peu plus haut, si les opé­­ra­­tions per­­met­­tant de mettre en œuvre une stra­­té­­gie par­­ti­­cu­­lière de par­­cours peuvent s’effec­­tuer en temps constant, la complexité glo­­bale des opé­­ra­­tions néces­­saires à un par­­cours est O 1 n 1 m 2 . Nous allons voir comment, en uti­­li­­sant une file, il est pos­­sible de réa­­li­­ser cet objec­­tif. 82

3.2  Par­­cours des graphes

Une file est une liste ordon­­née d’élé­­ments pour laquelle seulement deux opé­­ra­­ tions élé­­men­­taires peuvent être réa­­li­­sées : la pre­­mière opé­­ra­­tion sup­­prime le pre­­mier élé­­ment en tête de la file ; la seconde insère un élé­­ment en queue de la file. Ces deux opé­­ra­­tions peuvent s’effec­­tuer en temps constant en uti­­li­­sant une repré­­sen­­ta­­tion des don­­nées appro­­priée (le lec­­teur pourra obte­­nir tous les détails tech­­niques néces­­saires en consul­­tant les nom­­breux ouvrages trai­­tant d’algo­­rith­­mique et/ou de pro­­gram­­ma­­tion). On n’a pas accès aux autres élé­­ments de la file. Par suite les deux ordres “PREVISITE” (celui d’ouverture) et “­ POSTVISITE” (celui de fermeture) sont iden­­tiques. TÊTE QUEUE L’algo­­rithme géné­­rique effec­­tuant le par­­cours en lar­­geur d’un graphe orienté s’énonce de la manière sui­­vante : 1.  ini­­tia­­le­­ment tous les som­­mets sont non mar­­qués ; 2.  tant qu’il existe s un som­­met non mar­­qué, ouvrir s et insé­­rer s dans la file ; 3.   tant que la file n’est pas vide faire ; 4.    sup­­pri­­mer le som­­met x en tête de la file ; 5.    ouvrir et insé­­rer suc­­ces­­si­­ve­­ment en queue la file tous les som­­mets y non mar­­ qués, suc­­ces­­seurs de x ; 6.    fer­­mer le som­­met x. La figure 3.22 en page suivante illustre le par­­cours en lar­­geur d’un graphe orienté commençant par le sommet B. Pour cha­­cune des étapes de l’algo­­rithme, le contenu de la file est repré­­senté sous le graphe cor­­res­­pon­­dant (la tête de file étant à gauche).

Plus courts che­­mins

© Dunod – Toute reproduction non autorisée est un délit.

Nous mon­­trons comment déter­­mi­­ner les plus courts che­­mins depuis le som­­met s et les autres som­­mets d’un graphe. Nous rap­­pe­­lons que la lon­­gueur d’un che­­min est le nombre d’arcs de ce che­­min ; il convient de la dis­­tin­­guer de la valeur d’un che­­ min pour un graphe dont les arcs sont valués. Consi­­dé­­rons l’algo­­rithme sui­­vant (le ­lec­­teur pourra consta­­ter sa simi­­li­­tude avec l’algo­­rithme pré­­senté plus haut), où d(x) représente la longueur du chemin le plus court de s à x. 1.  Ini­­tia­­le­­ment tous les som­­mets sont non mar­­qués ; 2.  ouvrir s et insé­­rer s dans la file ; d(s) d 0 ; 3.   tant que la file n’est pas vide faire ; 4.    sup­­pri­­mer le som­­met x en tête de la file ; 5.   ouvrir et insé­­rer suc­­ces­­si­­ve­­ment dans la file tous les som­­mets y non mar­­qués suc­­ces­­seurs de x ; d(y) d d(x) 1 1 ; 6.    fer­­mer le som­­met x. La figure 3.23 (deux pages plus bas) illustre le dérou­­le­­ment de l’algo­­rithme à par­­tir du som­­met s 5 A. Les valeurs ins­­crites à côté des som­­mets sont les lon­­gueurs des plus courts che­­mins issus du som­­met A : ainsi les plus courts chemins de A à E comportent 3 arcs. La jus­­ti­­fi­­cation de la vali­­dité de l’algo­­rithme se fait de la manière sui­­vante. Nous ­allons mon­­trer que pour tout som­­met x du graphe, le che­­min de s à x dans ­l’arbo­­res­­cence 83

Chapitre 3 • Éléments de la théorie des graphes

Début de la première passe : le sommet initial est B. Début de la première passe : le sommet initial est B.

Début de lade première passe : leen sommet initial est B. Exemple parcours largeur Début de la première passe : le sommet initial est B.

on ouvre B on ouvre B on ouvre B

on ferme B, on ouvre F puis E on ferme B, on ouvre F puis E on ferme B, on ouvre F puis E

on ouvre B

on ferme B, on ouvre F puis E

on ferme F, on ouvre C on ferme F, on ouvre C on ferme F, on ouvre C

on ferme C on ferme C Fin de la : onpremière ferme C passe Fin de la première passe : Fin de la première passe : on ferme C Fin de la première passe :

on ferme F, on ouvre C

on ouvre G on ouvre G on ouvre G Début de la seconde passe Début de la seconde passe on la ouvre G passe Début de seconde Début de la seconde passe

on ferme G; on ferme G; videG; onfile ferme file vide file vide on ferme G; file vide

on ferme A, on ouvre D on ouvre A on ferme A, on ouvre D on ouvre A on ferme A, on ouvre D on ouvre A Fin de la seconde passe : on ferme D Fin de la seconde passe : on ferme D Fin de : on ferme ferme A,Don ouvre D on ouvre A la seconde passe on Fin de la seconde passe : on ferme D

file vide : FIN file vide : FIN fileFigure vide :3.22 FIN 84

file vide : FIN

3.2  Par­­cours des graphes

parcours en largeur : Plus courts chemins depuis a

© Dunod – Toute reproduction non autorisée est un délit.

Début de la première passe : le sommet initial est A.

Fin de la première passe

file vide : FIN

le parcours comprend unepasse. seule passe. NB : N ici,Ble: ici, parcours comprend une seule Figure 3.23

85

Chapitre 3 • Éléments de la théorie des graphes

rela­­tive au par­­cours est un plus court che­­min de s à x dans le graphe. Nous mon­­ trons cette pro­­priété en effec­­tuant une récur­­rence sur la lon­­gueur du che­­min de s à x dans l’arbo­­res­­cence. La pro­­priété est évi­­dem­­ment vraie pour le som­­met s : d ( s ) 5 0. Supposons-­­­la éga­­le­­ment véri­­fiée pour tous les som­­mets situés à une dis­­tance d 2 1 de s dans l’arbo­­res­­cence. Il résulte de cette hypo­­thèse que pour un som­­met x à la dis­­tance d de s dans l’arbo­­res­­cence, un plus court che­­min de s à x dans le graphe est consti­­tué d’au moins d arcs. Le che­­min de s à x dans l’arbo­­res­­cence est aussi un che­­min du graphe, il est consti­­tué de d arcs ; c’est donc un plus court che­­min de s à x dans le graphe. Nous lais­­sons au lec­­teur le soin de véri­­fier que les valeurs d(x) cal­­cu­­lées par l’algo­­ rithme cor­­res­­pondent effec­­ti­­ve­­ment au nombre d’arcs de ces che­­mins. La complexité de cet algo­­rithme est évi­­dem­­ment iden­­tique à celle d’un par­­cours en lar­­geur, c’est-­­­à-dire O 1 n 1 m 2 en uti­­li­­sant une file.

Par­­cours en pro­­fon­­deur

Nous défi­­nis­­sons ici une autre stra­­té­­gie de par­­cours de graphe appe­­lée par­­cours en pro­­fon­­deur. Dans cette par­­tie, nous déter­­mi­­nons ce type de par­­cours pour les graphes non orien­­tés ; l’adap­­ta­­tion immé­­diate de l’algo­­rithme géné­­rique pro­­posé aux graphes orien­­tés est lais­­sée au lec­­teur. Nous ver­­rons comment en uti­­li­­sant une struc­­ture de don­­nées par­­ti­­cu­­lière appe­­lée pile (rap­­pe­­lée plus bas), il est pos­­sible d’obte­­nir une complexité O 1 n 1 m 2 pour un algo­­rithme effec­­tuant un par­­cours en pro­­fon­­deur. La stra­­té­­gie uti­­li­­sée pour effec­­tuer un par­­cours en pro­­fon­­deur obéit à la règle sui­­ vante : un som­­met qui était non mar­­qué n’est ouvert que s’il est adja­­cent au der­­nier som­­met pré­­cé­­dem­­ment ouvert ; si un tel som­­met n’existe pas, le der­­nier som­­met ouvert est alors fermé. II est pos­­sible de déter­­mi­­ner le der­­nier som­­met ouvert en uti­­li­­sant une pile. Dans ce cas, cette opé­­ra­­tion peut s’effec­­tuer en temps constant. La complexité obte­­nue pour effec­­tuer le par­­cours en pro­­fon­­deur d’un graphe est alors O 1 n 1 m2 . Une pile est une liste ordon­­née d’élé­­ments pour laquelle seulement deux opé­­ra­­ tions élé­­men­­taires peuvent s’effec­­tuer. La pre­­mière insère un élé­­ment au som­­met de la pile ; la seconde opé­­ra­­tion sup­­prime l’élé­­ment situé au som­­met de la pile. On n’a donc pas accès aux élé­­ments de la pile autres que celui situé au som­­met. L’algo­­rithme géné­­rique effec­­tuant un par­­cours en pro­­fon­­deur d’un graphe non orienté est le sui­­vant : 1.  ini­­tia­­le­­ment tous les som­­mets sont non mar­­qués ; 2.  tant qu’il existe s un som­­met non mar­­qué, ouvrir s et insé­­rer s au som­­met de la pile ; 3.   tant que la pile n’est pas vide faire ; 4.   s’il existe un som­­met y non mar­­qué, adja­­cent au som­­met x situé au som­­met   de la pile ; 5.     alors ouvrir y et insé­­rer y dans la pile ; 6.     sinon fer­­mer le som­­met x et sup­­pri­­mer x de la pile. On ren­­contre les syno­­nymes sui­­vants : « empi­­ler » pour « insé­­rer (en haut) dans la pile » et « dépi­­ler » pour « sup­­pri­­mer (du haut) de la pile ». 86

3.2  Par­­cours des graphes

Les figures 3.24 à 3.26 illus­­trent le par­­cours en pro­­fon­­deur d’un graphe. Pour cha­­cune des étapes de l’algo­­rithme, le contenu de la pile est repré­­senté à la droite du graphe cor­­res­­pon­­dant.

© Dunod – Toute reproduction non autorisée est un délit.

Début de la première passe

on ouvre A

on ouvre B

on ouvre C

on ferme C

on ferme B

on ouvre E

Figure 3.24

87

Chapitre 3 • Éléments de la théorie des graphes

on ouvre I

on ouvre D

on ferme D

on ferme I

Fin de la première passe

on ferme A

on ferme E

pile vide : Fin de la 1ère passe. Figure 3.25

88

3.2  Par­­cours des graphes

Début de la seconde passe

on ouvre H

on ouvre G

on ouvre F

on ferme F

© Dunod – Toute reproduction non autorisée est un délit.

Fin de la seconde passe

on ferme G puis H

FIN

:

Figure 3.26

89

Chapitre 3 • Éléments de la théorie des graphes

Nous allons don­­ner quelques pro­­prié­­tés carac­­té­­ris­­tiques des par­­cours en pro­­ fon­­deur (nommés aussi “Parcours en Profondeur D’Abord”, notés “P.P.D.A”.). •  Pre­­mière pro­­priété : lors­­qu’un som­­met est ouvert il est placé dans la pile et lors­­qu’il est fermé il est sup­­primé de la pile. L’ordre de prévisite est donc celui dans lequel les som­­mets sont insé­­rés dans la pile et l’ordre de postvisite, celui dans ­lequel, ils en sont extraits. Il s’en suit qu’à chaque étape, les som­­mets ouverts sont les ­som­­mets pré­­sents dans la pile. •  Deuxième pro­­priété : à chaque étape où la pile est vide, le par­­cours d’une compo­­ sante connexe du graphe est ter­­miné. Ainsi juste avant qu’un som­­met cor­­res­­pon­­dant à la racine d’une arbo­­res­­cence soit ouvert, la pile est vide, et lors­­qu’il vient d’être fermé, la pile est vide à nou­­veau. La racine d’une arbo­­res­­cence est donc tou­­jours au fond de la pile. •  Troisième propriété (uti­­li­­sée pour la concep­­tion de nom­­breux algo­­rithmes) : à chaque étape, les som­­mets pré­­sents dans la pile, consi­­dé­­rés dans le même ordre que dans celle-­­­ci, forment un che­­min de l’arbo­­res­­cence rela­­tive au par­­cours. Cette pro­­priété est trivialement vraie lorsque, seule, la racine est dans la pile. Supposons-­­­la satis­­faite lorsque h – 1 som­­mets sont dans la pile. Soit alors x le som­­met au som­­met de la pile. Lors­­qu’un som­­met y est inséré (h som­­mets sont alors dans la pile) un arc (x, y) est ajouté à l’arbo­­res­­cence et, puisque par hypo­­thèse, il existe un che­­min de la racine au som­­met x, dans l’arbo­­res­­cence il existe aussi un che­­min de la racine au som­­met y ayant (x, y) comme der­­nier arc. À l’issue du par­­cours en profondeur d’un graphe non orienté, ses arêtes sont de deux types : une arête de liai­­son est une arête [x, y] telle que (x, y) est un arc de(s) arborescence(s) rela­­tive(s) au par­­cours ; les autres arêtes du graphe sont appe­­lées arêtes de retour. Ainsi pour le par­­cours effec­­tué dans notre exemple, [C, B] est une arête de liai­­son et [C, A] est une arête de retour. Nous mon­­trons main­­te­­nant une pro­­priété carac­­té­­ris­­tique des arêtes de retour. Dans un par­­cours en pro­­fon­­deur, pour toute arête de retour [x, y] avec y ayant un rang supé­­rieur à celui de x dans l’ordre de prévisite, le som­­met x est sur le che­­min unique allant, dans l’arbo­­res­­cence, de la racine à y. La preuve est la sui­­vante : x a été ouvert avant y et donc inséré dans la pile avant y ; si x n’est pas sur le che­­min de la racine à y, d’après la pro­­priété pré­­cè­­dente, au moment où y est empilé, x n’est plus dans la pile ; x est donc fermé, mais cela est impos­­sible car l’arête [x, y] appar­­te­­nant au graphe, x ne peut pas être fermé avant que y soit ouvert. Remar­­quons que toute arête de retour [x, y] ferme, avec le che­­min de x à y de l’arbo­­res­­cence, un cycle. De même pour le parcours d’un graphe orienté : tout arc de retour (y, x) ferme, avec le chemin de x à y de l’arborescence, un circuit. Ainsi on peut déterminer, par un simple parcours en profondeur, si un graphe comporte des circuits ou non. De nom­­breux algo­­rithmes, comme celui pré­­senté ci-après, uti­­lisent ces dif­­fé­­rentes pro­­prié­­tés.

90

3.2  Par­­cours des graphes

Som­­mets d’arti­­cu­­lation Nous allons, à présent, mon­­trer comment un par­­cours en pro­­fon­­deur per­­met de déter­­mi­­ner les som­­mets d’arti­­cu­­lation d’un graphe. Sans perte de géné­­ra­­lité, dans ce qui suit, nous consi­­dé­­rons un graphe non orienté et connexe. En effet, la notion de ­som­­met d’arti­­cu­­lation ne fait pas appel à l’orien­­ta­­tion du graphe. Un som­­met x est appelé som­­met d’arti­­cu­­lation, si et seule­­ment si sa sup­­pres­­sion rend le graphe non connexe. Ainsi les som­­mets A et E de la figure 3.27 sont des ­som­­mets d’arti­­cu­­lation.

© Dunod – Toute reproduction non autorisée est un délit.

Figure 3.27

Nous lais­­sons le soin au lec­­teur de démon­­trer, à titre d’exer­­cice, la pro­­priété : un som­­met x d’un graphe est un som­­met d’arti­­cu­­lation si et seule­­ment si il existe deux som­­mets u et v dif­­fé­­rents de x, tels que toute chaîne reliant u à v passe par x. Ainsi dans notre exemple, toute chaîne de I à B passe par x 5 A (et aussi par xr 5 E) : A et E, nous l’avons déjà vu, sont des som­­mets d’arti­­cu­­lation. Ces pro­­ prié­­tés sont uti­­li­­sées plus loin lors de la jus­­ti­­fi­­cation de la vali­­dité de l’algo­­rithme que nous pro­­po­­sons. Nous don­­nons ci-­­­après un algo­­rithme déter­­mi­­nant les som­­mets d’arti­­cu­­lation d’un graphe sup­­posé connexe. Cet algo­­rithme effec­­tue un par­­cours en pro­­fon­­deur à par­­tir d’un som­­met ini­­tial s (choisi arbitrairement). L’ensemble d’arcs A, déter­­miné au cours de l’algo­­rithme, cor­­res­­pond en fin d’application de l’algorithme aux arcs de l’arbo­­res­­cence rela­­tive au par­­cours effec­­tué. Pour chaque som­­met x du graphe, deux valeurs sont cal­­cu­­lées : prévisite(x) est le rang de x dans l’ordre de prévisite et hau­­ teur(x) (qui est défi­­nie plus bas dans l’algo­­rithme) ; nous ver­­rons plus loin comment la compa­­rai­­son des valeurs prévisite(x) avec les valeurs hau­­teur(x), per­­met de déter­­ mi­­ner les som­­mets d’arti­­cu­­lation.   1.  Ini­­tia­­le­­ment tous les som­­mets sont non mar­­qués ; prévisite d 1 ; A d \ ;   2.  ouvrir le som­­met s et insé­­rer s au som­­met de la pile ;   3.  prévisite(s) d prévisite ; prévisite d prévisite 1 1 ;   4.   tant que la pile n’est pas vide faire (x étant le som­­met en haut de la pile) ;   5.    s’il existe un som­­met y non mar­­qué, adja­­cent au som­­met x ;   6.     alors ouvrir y ; insé­­rer y dans la pile ; 1 x, y 2 H A ;   7.     prévisite(y) d prévisite ; prévisite d prévisite 1 1 ;   8.     hau­­teur(y) d prévisite(y) ; 91

Chapitre 3 • Éléments de la théorie des graphes

  9.    sinon fer­­mer le som­­met x et sup­­pri­­mer x de la pile ; 10.     pour tout som­­met z suc­­ces­­seur de x tel que 1 z, x 2 x A faire ; 11.      hau­­teur(x) d min (hau­­teur(x), hau­­teur(z)) ; 12.  si s a, au moins, deux suc­­ces­­seurs dans A alors s est un som­­met d’arti­­cu­­lation ; 13.  pour x 2 s, s’il existe y suc­­ces­­seur de x dans A tel que hau­­teur(y) > prévisite(x) alors x est un som­­met d’arti­­cu­­lation Les figures 3.28 et 3.29 illus­­trent l’appli­­ca­­tion de l’algo­­rithme à par­­tir du som­­ met ini­­tial A. Les valeurs prévisite (x) et hau­­teur (x) sont ins­­crites res­­pec­­ti­­ve­­ment à gauche et à droite dans le rec­­tangle situé à côté de chaque som­­met x. Le choix du som­­met ini­­tial ainsi que cer­­taines phases de l’algo­­rithme étant arbi­­traires, nous allons effec­­tuer une autre exé­­cu­­tion de l’algo­­rithme sur le même graphe. La figure 3.30 illustre le résul­­tat d’une autre appli­­ca­­tion de l’algo­­rithme à par­­tir, cette fois-­­­ci, du som­­met ini­­tial B.

on ouvre A.

on ouvre B.

on ouvre C.

ici (z, x) = (C, A) on ferme C.

on ferme B.

on ouvre E.

Figure 3.28

92

3.2  Par­­cours des graphes

on ouvre I.

on ouvre D.

ici (z, x) = (D, E) on ferme D.

ici (z, x) = (D, I) on ferme I

on ferme E.

on ferme A : FIN

© Dunod – Toute reproduction non autorisée est un délit.

Figure 3.29

En fin d’appli­­ca­­tion, la racine A de l’arbo­­res­­cence a deux suc­­ces­­seurs : A est un som­­met d’arti­­cu­­lation. I, suc­­ces­­seur de E dans l’arbo­­res­­cence, a pour hau­­teur h 1 I 2 5 4 ; E a pour numéro d’ordre de prévisite : prévisite 1 E 2 5 4 ; puisque h(I) > prévisite (E), E est un som­­met d’arti­­cu­­lation. Voici brièvement une autre appli­­ca­­tion, mais avec B comme som­­met ini­­tial : En fin d’appli­­ca­­tion (fig. 3.30), la racine B de l’arbo­­res­­cence a un seul suc­­ces­­seur : B n’est pas un som­­met d’arti­­cu­­lation ; hau­­teur 1 E 2 5 4 > prévisite (A) 5 3, donc A est un som­­met d’arti­­cu­­lation ; puis h 1 I 2 5 4 > prévisite 1 E 2 5 4 : E en est un aussi. 93

Chapitre 3 • Éléments de la théorie des graphes

Figure 3.30

Nous allons main­­te­­nant mon­­trer la vali­­dité de cet algo­­rithme1. Nous mon­­trons pre­­ mière­­ment que le som­­met s, som­­met à par­­tir duquel commence le par­­cours, est un som­­ met d’arti­­cu­­lation si et seule­­ment si s a au moins deux suc­­ces­­seurs dans l’arbo­­res­­cence rela­­tive au par­­cours. Soient u et v deux suc­­ces­­seurs de s dans l’arbo­­res­­cence. Mon­­trons que toute chaîne reliant u et v passe par le som­­met racine s. S’il exis­­tait une chaîne reliant u et v ne pas­­sant pas par s, il exis­­te­­rait une arête de retour {x, y} avec x som­­met de la sous-­­­arborescence de racine u et y n’appar­­te­­nant pas à cette sous-­­­arborescence. Cela est impos­­sible, car comme nous l’avons mon­­tré pré­­cé­­dem­­ment, dans un par­­cours en pro­­fon­­deur, les arêtes de retour ont leurs deux extré­­mi­­tés sur un même che­­min de l’arbo­­res­­cence rela­­tive au par­­cours. Nous en concluons que toute chaîne reliant les som­­mets u et v passe par s : s est donc un som­­met d’arti­­cu­­lation. Réci­­pro­­que­­ment, sup­­po­­sons que la racine s de l’arbo­­res­­cence soit un som­­met d’arti­­cu­­lation. Il existe alors deux som­­mets u et v tels que toute chaîne les reliant passe par s. Si la racine s de l’arbo­­res­­cence a un suc­­ces­­seur unique x, alors il existe dans l’arbo­­res­­cence un che­­min de x à u et un che­­min de x à v. Cela implique l’exis­­ tence, dans le graphe par­­couru, d’une chaîne reliant u et v pas­­sant par x et ne pas­­sant pas par s. La pro­­priété est donc démon­­trée. Dans l’algo­­rithme pro­­posé, l’ins­­truc­­tion 12 teste si la racine s a, au moins, deux suc­­ces­­seurs. Consi­­dé­­rons main­­te­­nant un som­­met x 2 s. Nous allons mon­­trer que x est un som­­met d’arti­­cu­­lation, si et seule­­ment si, il n’existe pas d’arête de retour {u, t} telle que le som­­met u soit un des­­cen­­dant de x (suc­­ces­­seur non néces­­sai­­re­­ment immé­­diat) et le som­­met t soit un pré­­dé­­ces­­seur de x dans l’arbo­­res­­cence rela­­tive au par­­cours. S’il existe une arête de retour {u, t} satis­­faisant à la défi­­ni­­tion pré­­cé­­dente, alors il existe une chaîne reliant u et t pas­­sant par le som­­met x, cette chaîne cor­­res­­pon­­dant au che­­min allant de t à u dans l’arbo­­res­­cence ; il existe aussi une chaîne reliant u et t ne pas­­sant pas par le som­­met x, cette chaîne est consti­­tuée de la seule arête {u, t}. La réunion de ces deux chaînes forme un cycle pas­­sant par x, le som­­met x n’est donc pas un som­­met d’arti­­cu­­lation. Réci­­pro­­que­­ment, si pour tout des­­cen­­dant u et pré­­dé­­ces­­ seur t de x dans l’arbo­­res­­cence, il n’existe pas d’arête de retour {u, t}, les arêtes de retour dans un par­­cours en pro­­fon­­deur ayant leurs deux extré­­mi­­tés sur un même che­­ min de l’arbo­­res­­cence, toute chaîne reliant t et u passe néces­­sai­­re­­ment par le som­­met x. x est donc un som­­met d’arti­­cu­­lation. La pro­­priété est alors démon­­trée. 1. le lecteur pourra sauter cette preuve, en première lecture. 94

3.2  Par­­cours des graphes

Les valeurs hau­­teur(y), cal­­cu­­lées par l’algo­­rithme, déter­­minent pour chaque som­­ met y de l’arbo­­res­­cence le pre­­mier som­­met t pré­­cé­­dant y dans l’ordre de prévisite tel que {u, t} soit une arête de retour, u étant le som­­met y ou un des­­cen­­dant de y. L’ins­­ truc­­tion 13 de l’algo­­rithme per­­met de tester si la pro­­priété mon­­trée au para­­graphe pré­­cé­­dant est satis­­faite. La preuve de l’algo­­rithme est alors ter­­mi­­née. Rap­­pe­­lons que, sur l’exemple traité, pour le par­­cours effec­­tué à par­­tir de A, la ­racine A a deux suc­­ces­­seurs dans l’arbo­­res­­cence. D’autre part, le som­­met E, qui est un som­­met d’arti­­cu­­lation, est le qua­­trième dans la liste de prévisite et son suc­­ces­­seur, le som­­met I, a pour valeur hau­­teur(I) 5 4. Dans le par­­cours effec­­tué à par­­tir de B (figure 3.30), la racine B qui n’est pas un som­­met d’arti­­cu­­lation n’a qu’un seul suc­­ ces­­seur dans l’arbo­­res­­cence. Le som­­met A de rang 3 dans la liste de prévisite, a pour suc­­ces­­seur E pour lequel hau­­teur(E) 5 4 > 3. En revanche, le som­­met C qui n’est pas un som­­met d’arti­­cu­­lation, qui a le deuxième rang dans l’ordre de prévisite, a pour suc­­ces­­seur dans l’arbo­­res­­cence le som­­met A pour lequel hau­­teur(A) 5 1 , 2. L’algo­­rithme pro­­posé étant appli­­qué à des graphes connexes, nous avons m > n 2 1 et la complexité obte­­nue est O 1 n 1 m2 5 O 1 m2 . En effet, les opé­­ra­­tions autres que celles effec­­tuant le par­­cours sont en nombre infé­­rieur à celles du par­­cours.

NUMEROTATION “TOPOLOGIQUE” DES SOMMETS :

Si un graphe ne comporte pas de circuit, on peut numéroter ses sommets de manière « topologique », c’est-à-dire que pour tout arc (xi, xj), on ait : i  0, c’est-à-dire de flux non nul, marquer −y le sommet x 5. En fin de marquage : si le puits p est marqué, alors le flot courant est améliorable. Si le puits p n’est pas mar­­qué, il n’existe pas de chaîne amé­­lio­­rante et le flot courant est opti­­mal. 1. Autre­­ment dit, si l’on par­­court la chaîne de Ο vers P, les arcs directs sont par­­cou­­rus dans le sens de leur orien­­ta­­tion, tan­­dis que les arcs indi­­rects (ou « rétro­­grades ») sont par­­cou­­rus en sens inverse de leur orien­­ta­­tion. 130

4.4  Pro­­blème du flot de valeur maximale

Inver­­se­­ment, il est aisé de démon­­trer, en se repor­­tant à la défi­­ni­­tion d’une chaîne amé­­lio­­rante, qu’une chaîne amé­­lio­­rante existe si et seule­­ment si le som­­met Ρ est mar­­ qué. Une telle chaîne est obte­­nue, à l’issue de l’application de la procédure de mar­­ quage, en remont aut le marguage récur­­si­­ve­­ment depuis P jus­­qu’au som­­met O. Appli­­quons l’algo­­rithme à notre exemple ; il est facile d’obte­­nir un flot ini­­tial ; nous repre­­nons celui de la figure pré­­cé­­dente, en indi­­quant les arcs satu­­rés par un trait gras.

© Dunod – Toute reproduction non autorisée est un délit.

Figure 4.22  Mar­­quage des som­­mets

On peut remar­­quer que l’on ne peut pas amé­­lio­­rer trivialement la valeur du flot courant : tout che­­min de O vers P com­­por­­tant au moins un arc saturé (on dit alors que le flot est « com­­plet »). Appli­­quons la pro­­cé­­dure de mar­­quage des som­­mets : l’ini­­tia­­li­­sation consiste à mar­­ quer O d’un 1 ; puis A, extré­­mité ter­­mi­­nale de l’arc (Ο, A), non saturé, est mar­­qué du signe 1O ; E, extré­­mité ter­­mi­­nale de l’arc (A, E), non saturé, est mar­­qué 1A ; B, extré­­ mité ini­­tiale de l’arc (B, E), tran­­spor­­tant un flot non nul, est mar­­qué 2E ; D, extré­­mité ter­­mi­­nale de l’arc (B, D), non saturé, est mar­­qué 1B ; enfin, P, extré­­mité ter­­mi­­nale de l’arc non saturé (D, P), est mar­­qué 1D : le flot cou­­rant n’est donc pas un flot de valeur maximale. Consi­­dé­­rons alors la chaîne amé­­lio­­rante [O, A, E, B, D, P] : on l’obtient à par­­tir du puits Ρ en remon­­tant le chaî­­nage arrière contenue dans les marques. En effet p(P) 5 D, puis p(D) 5 B, puis p(B) 5 E, puis p(E) 5A et enfin p(A) 5 O, où p(Y ) est le prédécesseur de Y sur la chaîne améliorante.

Figure 4.23  Chaîne amé­­lio­­rante

131

Chapitre 4 • Appli­­ca­­tions des graphes à la recherche opé­­ra­­tion­­nelle

Si nous dési­­rons amé­­lio­­rer le flot, il fau­­dra aug­­men­­ter les flux tran­­spor­­tés par (O, A), (A, E), (B, D) et (D, P) (les arcs de la chaîne amé­­lio­­rante qui ont donné lieu à un mar­­quage 1), mais il fau­­dra dimi­­nuer d’autant le flux tran­­sporté par (B, E) (arc de la chaîne amé­­lio­­rante ayant donné lieu à un mar­­quage -), de manière qu’aux som­­mets A, Ε, B et D, la loi Kirchhoff conti­­nue d’être res­­pec­­tée. Nous voyons immé­­dia­­te­­ment que l’on ne peut dimi­­nuer le flot de (B, E) que de 5 1/s ; par consé­­quent, nous ne pou­­vons aug­­men­­ter les flux de cha­­cun des autres arcs que de 5 1/s et c’est pos­­sible parce que la dif­­fé­­rence entre la capa­­cité et la quan­­tité tran­­spor­­tée est supé­­rieure à 5 pour tous ces arcs (il suf­­fi­­rait qu’elle soit égale) : le cal­­cul donne d 1 5 10 et d 2 5 5. D’où d 5 5. Effec­­tuons cette modi­­fi­­ca­­tion sur le flot ci-­­­dessus ; pour les arcs directs  : fru 5 fu 1 d et pour l’arc indirect : fru 5 fu 2 d ; on obtient la figure 4.24. On obtient un nou­­veau flot f9, de valeur V ( f9 ) 5 85. Appli­­quons la pro­­cé­­dure de mar­­quage à ce nou­­veau flot ; on ne peut pas mar­­quer le puits P : le flot obtenu est de valeur maximale. Si l’on vou­­lait satis­­faire toutes les demandes, on pour­­rait aug­­men­­ ter le débit maximal de la cana­­li­­sa­­tion AD d’au moins 5 1/s. Bien que nous ne don­­nions que plus loin la démons­­tra­­tion de l’algo­­rithme, nous allons déjà nous rendre compte qu’il conduit bien à une solu­­tion opti­­male. Consi­­dé­­rons une ligne fer­­mée (ou coupe), à l’inté­­rieur de laquelle sont tous les som­­mets mar­­qués. Vers l’exté­­rieur de cette courbe ne sortent que des arcs satu­­rés (NB : l’arc (B, D) ayant son extré­­mité ini­­tiale et son extré­­mité ter­­mi­­nale à l’exté­­rieur de la courbe, ne doit être consi­­déré ni comme arc sor­­tant, ni comme arc entrant) ; vers l’inté­­rieur de cette courbe ne pénètrent que des arcs de flux nul, ici un seul (l’arc (B, E)). Il est évi­­dem­­ment impos­­ sible de faire sor­­tir un flot de valeur supé­­rieure à celui qui est indi­­qué, puisque tous les arcs sor­­tants sont satu­­rés et qu’il est impos­­sible de réduire le flot entrant, puisqu’il est nul. Comme la courbe contient la source O, c’est bien le flot maximal qui part de la source.

Figure 4.24  Flot de valeur maximale et coupe de valeur mini­­male.

NB.  Sur cet exemple, l’optimum est obtenu en une seule itération. Bien entendu, dans le cas général, il peut y en avoir plusieurs. 132

4.4  Pro­­blème du flot de valeur maximale

4.4.2 Théo­­rème de Ford-­­­Fulkerson Nous allons don­­ner le théo­­rème, dû à Ford et Fulkerson, jus­­ti­­fiant l’algo­­rithme pré­­ senté plus haut. Rap­­pe­­lons les défi­­ni­­tions et nota­­tions uti­­li­­sées. Nous note­­rons, ici, s le som­­met source 1 G2 1 s 2 5 [ 2 et p le som­­met puits 1 1 G 1 p 2 5 [ 2 du réseau de tran­­sport. Pour tout arc (i, j) du réseau, cij est la capa­­ cité cet arc et wij est son flux. Les contraintes que doivent res­­pec­­ter un flot sont les ­sui­­vantes : 1.  pour tout arc (i, j), on a : 0 < wij < cij

2.  pour tout som­­met i 2 s, p, on a : a wji 5 a wij (loi de Kirchhoff). jHG 2 (i)

jHG 1 (i)

Par défi­­ni­­tion la valeur d’un flot F 5 ( w1, c, wm ) , notée V ( F ) , est la quan­­tité ­sui­­vante : V ( F ) 5 a wsi. (Par abus de nota­­tion, dans cette par­­tie, nous écri­­vons c, m). a wsi pour a wsi.) ; on a dési­­gné par wk le flux sur l’arc uk (k 5 1, iPG11s2

Consi­­dé­­rons S un sous-­­­ensemble de som­­mets du réseau de tran­­sport conte­­nant la source mais ne conte­­nant pas le puits : s H S, p x S. Cet ensemble et son com­­plé­­ men­­taire S 5 X 2 S forment une « coupe » et C(S), la « capacité » de cette coupe, est par définition : C ( S ) 5 a cij iPS, jPS

Mon­­trons la prop­­riété sui­­vante : pour toute coupe 1 S, S 2 et tout flot , on a : V ( F ) 5 a wij 2 a wji. i HS, jxS

i HS, jxS

© Dunod – Toute reproduction non autorisée est un délit.

La valeur du flot, v ( F ) , égale la somme des flux sor­­tants de S, dimi­­nuée de la somme des flux entrants dans S. En uti­­li­­sant la loi de Kirchhoff pour chaque som­­met i 2 s, appar­­te­­nant à l’ensemble S, et la défi­­ni­­tion de la valeur du flot  nous obte­­nons : V ( F ) 5 a wsi 1

a a wij 2 a wji b a (''')'''* i HS, i 2s 50

La source s n’ayant pas de pré­­dé­­ces­­seur A a wjs 5 0B, il vient : V ( F ) 5 a wij 2 a wji i HS

i HS

en décom­­po­­sant cha­­cune de ces deux sommes, sui­­vant que j appar­­tient ou non à l’ensemble S nous avons : V ( F ) 5 a wij 2 a wji 1 a wij 2 a wji i HS, jHS

i HS, jHS

i HS, jxS

i HS, jxS

133

Chapitre 4 • Appli­­ca­­tions des graphes à la recherche opé­­ra­­tion­­nelle

les deux pre­­mières sommes étant iden­­tiques (chaque arc ( i, j ) , i H S, j x S, appa­­raît une fois dans cha­­cune), nous obte­­nons : V ( f) 5 a wij 2 a wji i HS, jxS

i HS, jxS

Cette prop­­riété montre que pour tout ensemble de som­­mets S conte­­nant la source et ne conte­­nant pas le puits, la somme des flux sor­­tant diminuée de la somme des flux ­entrant est égale à la valeur du flot. Nous allons mon­­trer une seconde prop­­riété reliant la valeur d’une coupe à celle d’un flot. L’énoncé de cette prop­­riété est le sui­­vant : Pour toute coupe C (de capa­­cité C(S)) et tout flot  (de valeur V()), on a : C ( S ) > V ( F ) . En effet, pour tout arc (i, j) nous avons : 0 < wij < cij, d’où nous obte­­nons : C ( S ) 5 a cij > a wij > a wij 2 a wji 5 V ( F ) . i HS, jxS

i HS, jxS

i HS, jxS

i HS, jxS

On en déduit, en rai­­son­­nant par l’absurde, que s’il existe une coupe S* et un flot f tels que : C ( S* ) 5 V ( f* ) , alors f* est un flot de valeur maximale et S*, une coupe de capa­­cité mini­­male. Nous sommes main­­te­­nant en mesure de mon­­trer le théo­­rème de Ford-­­­Fulkerson qui s’énonce de la façon sui­­vante : Dans tout réseau de tran­­sport, la capa­­cité mini­­male des coupes est égale à la valeur maximale des flots. Soit F le der­­nier flot obtenu par appplication de l’algo­­rithme, pour lequel il n’existe donc pas de chaîne amé­­lio­­rante. Nous avons déjà observé que dans ce cas, après l’application de la procédure de mar­­quage, p n’est pas mar­­qué. Consi­­dé­­rons alors S l’ensemble des som­­mets mar­­qués. s étant mar­­qué, et p n’étant pas mar­­qué, l’ensemble S et son com­­plé­­men­­taire S (les som­­mets non mar­­qués) sont non vides et défi­­nissent bien une coupe. Tout arc (i, j) avec i H S, j x S est nécessairement saturé, c’est-­­­à-dire nous avons wij 5 cij car, sinon, j aurait été mar­­qué. D’autre part, pour tout arc (j, i) avec j x S, et i H S, on a nécessairement wji 5 0, puisque j n’a pas été mar­­qué. Nous obte­­nons alors : C ( S ) 5 a cij 5 a wij 2 a wij 5 V ( F ) . *

i HS, jxS

i HS, jxS

i HS, jxS

En uti­­li­­sant la prop­­riété pré­­cé­­dente nous arri­­vons au résul­­tat annoncé. Celui-­­­ci jus­­ti­­fie l’algo­­rithme puisque l’algo­­rithme se ter­­mine lors­­qu’il n’y a plus de chaîne amé­­lio­­rante et permet d’exhiber une coupe et un flot de même valeur. Le flot consi­­ déré à cette étape est donc opti­­mal (de valeur maximale).

4.5 Flot

de valeur maximale à coût mini­­mal

Dans de nom­­breux pro­­blèmes, outre les capa­­ci­­tés limi­­tées de tran­­sport, le coût d’ache­­mi­­ne­­ment d’une mar­­chan­­dise (ou d’une cer­­taine quan­­tité de pro­­duit) doit être pris en compte. Le pro­­blème de la recherche d’un flot maximal(1) à coût mini­­mal per­­ met de prendre en compte ce second objec­­tif dans le cadre d’un réseau de tran­­sport. D’autant que, si la valeur maximale V * d’un flot est évi­­dem­­ment unique, il existe 134

4.5  Flot de valeur maximale à coût mini­­mal

fré­­quem­­ment de nom­­breux flots dif­­fé­­rents de même valeur V * ; parmi ceux-­­­ci, il est inté­­res­­sant d’en trou­­ver un de moindre coût. Ce pro­­blème se for­­ma­­lise de la manière sui­­vante : R est un réseau de tran­­sport où s et p dési­­gnent res­­pec­­ti­­ve­­ment la source et le puits. À chaque arc (i, j) sont asso­­ciées deux valeurs posi­­tives : 3 cij, pij 4 où cij est la capa­­cité et pij est le coût uni­­taire asso­­ciés à l’arc. Le coût d’un flot F s’obtient de la façon sui­­vante : wij # pij est le coût du flux wij circulant le long de l’arc (i, j) ; le coût de F est alors la somme de ces coûts sur tous les arcs du réseau : a wij # pij. 1i, j2 La par­­tie gauche de la figure 4.25 montre un réseau de tran­­sport dans lequel un flot de valeur 5 et de coût 20 est déter­­miné. Avant de don­­ner un algo­­rithme de réso­­lu­­tion pour ce pro­­blème, nous allons reve­­nir au pro­­blème du flot maximal1. Pour tout réseau de tran­­sport R nous défi­­nis­­sons GeF, le graphe d’écart asso­­cié au flot F (nous sup­­po­­se­­rons R anti­­sy­­mé­­trique : il ne com­­porte pas de couple d’arcs (i, j) et (j, i) ; (si tel n’était pas le cas, nous pour­­rions y remé­­dier en scin­­dant l’arc (i, j) en deux arcs (i, k) et (k, j), tous deux de capa­­cité cij et de coût 12 pij 2 . Le graphe d’écart GFe et le réseau de tran­­sport R ont les mêmes som­­mets. Pour tout arc (i, j) de R, les arcs du graphe d’écart et leur valuation sont obte­­nus de la façon sui­­vante :

© Dunod – Toute reproduction non autorisée est un délit.

1.  si 0 , wij , cij, alors GFe com­­porte un arc (i, j) de valuation rij 5 cij 2 wij et un arc (j, i) de valuation rji 5 wij 2.  si wij 5 0, GFe com­­porte un arc (i, j) de valuation rij 5 cij, mais pas d’arc (j, i) 3.  si wij 5 cij, GFe com­­porte un arc (j, i) de valuation rji 5 wij, mais pas d’arc (i, j). Nous pou­­vons remar­­quer que pour le flot nul : F 5 ( 0, c, 0 ) , le graphe d’écart et le réseau de tran­­sport coïn­­cident.

Figure 4.25  À gauche, un flot F  avec 4 arcs saturés ; à droite GFe le graphe d’écart asso­­cié

D’autre part il est aisé de consta­­ter qu’à une chaîne amé­­lio­­rante pour R cor­­res­­ pond un che­­min de la source au puits dans GFe et réci­­pro­­que­­ment. Ainsi un flot est maximal si et seule­­ment si il n’existe pas de che­­min de s à p dans GFe . 1. Par abré­­via­­tion, nous appe­­lons ici flot maximal, tout flot de valeur maximale. 135

Chapitre 4 • Appli­­ca­­tions des graphes à la recherche opé­­ra­­tion­­nelle

Soit l’arc (i, j) du réseau de tran­­sport ; dans le graphe d’écart GFe le coût de l’arc (i, j) (qui existe si wij , cij) est 1pij et celui de l’arc (j, i) (qui existe si wij . 0) est 2pij. La figure 4.25 illustre cette construc­­tion ; le réseau de tran­­sport et le flot sont repré­­sen­­tés à gauche, le graphe d’écart cor­­res­­pon­­dant est à droite. Nous allons main­­te­­nant don­­ner, sans le démon­­trer, le théo­­rème de Roy four­­nis­­ sant une condi­­tion néces­­saire et suf­­fi­­sante d’optimalité : un flot F est de coût mini­­ mal parmi les flots de valeur v ( f) , si et seule­­ment si il n’existe pas de cir­­cuit de coût stric­­te­­ment néga­­tif dans GFe . (NB. : ce théo­­rème est énoncé pour tout flot F, F n’est donc pas néces­­sai­­re­­ment de valeur maximale.)

Figure 4.26  Un flot maximal de coût mini­­mal

Pour le flot maximal de coût 20 consi­­déré dans la figure 4.25, le cir­­cuit (A, S, B, A) est de coût 25 : en vertu du théo­­rème pré­­cé­­dent, ce flot n’est donc pas de ­­coût minimal. En effet le flot maximal repré­­senté dans la figure 4.26 est de coût 15. Ce der­­nier flot est maximal car son graphe d’écart ne com­­porte pas de che­­min de S à P. (NB : les coûts des cir­­cuits du graphe d’écart asso­­cié sont alors posi­­tifs ou nuls). Nous allons don­­ner un algo­­rithme cal­­cu­­lant un flot maximal de coût mini­­mal dû à B. Roy puis, indé­­pen­­dam­­ment, à R. Busacker et P. Gowen. Comme dans l’algo­­rithme pré­­senté pour la recherche d’un flot de valeur maximale, à chaque étape de l’algo­­ rithme un flot F est cal­­culé à par­­tir d’un flot F9 en uti­­li­­sant une chaîne amé­­lio­­rante (cf 4.4.1). Le choix de la chaîne amé­­lio­­rante uti­­li­­sée fait que le graphe d’écart GeF asso­­cié n’a pas de cir­­cuit de coût stric­­te­­ment néga­­tif. Cet algo­­rithme est le sui­­vant : 1. ini­­tia­­le­­ment F 5 ( 0, c, 0 )  ; GFe 5 R car on part du flot nul : wij 5 0 pour tout arc (i, j) ; 2.  tant qu’il existe un che­­min de s à p dans GFe faire 3.   déter­­mi­­ner C, un che­­min de coût mini­­mal de s à p 4.   modi­­fier le flux sur tout arc (i, j) de C : si d 5 min rij, le flux est aug­­menté de 1i, j2 HC

d si (i, j) est un arc du réseau de tran­­sport ; le flux est dimi­­nué de d si (j, i) est un arc du réseau de tran­­sport. 5.   tra­­cer le graphe d’écart GFe du flot ainsi modi­­fié. 136

4.5  Flot de valeur maximale à coût mini­­mal

La déter­­mi­­na­­tion d’un che­­min de coût mini­­mal peut se faire en uti­­li­­sant l’algo­­ rithme de Ford pré­­senté plus haut. Le lecteur remarquera que le cal­­cul des nou­­veaux flux sur le che­­min C se fait de manière ana­­logue à celle pré­­sen­­tée dans le para­­graphe pré­­cé­­dent consa­­cré aux flots de valeur maximale. La figure 4.27 illustre sur l’exemple pré­­cé­­dent le dérou­­le­­ment de l’algo­­rithme. Les flèches épaisses cor­­res­­pondent, ici à chaque étape, au che­­min de coût mini­­mal de S vers P. (et non pas à des arcs saturés, comme plus haut).

Figure 4.27  Une exé­­cu­­tion de l’algo­­rithme de Roy-­­­Busacker-Gowen

1. Poser f d f102. Pour tout arc u 5 (x, y) du réseau de transport, poser v(u) d w (x, y ). 2.  Construire le graphe d’écart Ge(f) (comme dans le Fig. 4.25). 3.  Tant que Ge(f) com­­porte un che­­min de s vers p 4.   choi­­sir un tel che­­min, soit : m

  

     poser e 5 min v ( u ) ; uPm 5.   pour tout arc u 5 (x, y) du che­­min m faire v 1 x, y 2 d v 1 x, y 2 2 e ; si v 1 x, y 2 5 0, sup­­pri­­mer l’arc u dans Ge 1 f 2  ;    

  

© Dunod – Toute reproduction non autorisée est un délit.

Remar­­quons enfin, en reve­­nant au pro­­blème de flot de valeur maximale, que l’on peut aisé­­ment refor­­mu­­ler l’algo­­rithme de Ford-­­­Fulkerson en termes de graphe d’écart : soit f(0) le flot ini­­tial.

v ( y, x ) d v ( y, x ) 1 e ; si v ( y, x ) était nul, ajou­­ter u dans Ge 1 f 2

Voici un exemple du pro­­blème de flot de valeur maximale, ci-­­­dessous, avec un flot ini­­tial (arbi­­traire) f(0), traité par l’algo­­rithme de Ford-­­­Fulkerson refor­­mulé en termes de graphe d’écart : 137

Chapitre 4 • Appli­­ca­­tions des graphes à la recherche opé­­ra­­tion­­nelle

Figure 4.28  Réseau de transport et flot f(0) de valeur 30

Figure 4.29  Graphe d’écart Ge 1 f 102 2 .

Ge 1 f102 2 com­­porte un (seul) che­­min m de s vers p : m 5 1 s, A, C, B, D, p 2  ; on a : e 5 min 1 10, 5, 10, 10 2 5 5. La valeur du flot va donc être aug­­men­­tée de 5 uni­­tés.

Voici le nou­­veau graphe d’écart Ge 1 f112 2 , il ne com­­porte pas de che­­min de s à p : le flot asso­­cié f(1) est donc opti­­mal, il est valeur v* 5 35. On nomme désor­­mais S l’ensemble des som­­mets qu’on peut atteindre depuis s par des che­­mins ; ici S 5 5 s, A, C 6  ; S est aussi l'ensemble des sommets marqués quand on applique la procédure de marquage de Ford-Fulkerson au flot f(1).

Figure 4.30  Graphe d’écart Ge 1 f 112 2 . avec le cocircuit ( S, S ) en pointillé

138

4.6  Pro­­blèmes d’affec­­ta­­tion

Voici, sur le réseau de tran­­sport, le flot opti­­mal f(1)  :

Figure 4.31  Flot opti­­mal f(1) avec la coupe minimale ( S, S )

Notes. •  L’arc (B, D) ne tra­­verse pas en fait la coupe mini­­male puisque B et D H S. •  À la coupe mini­­male du réseau de transport R cor­­res­­pond un « co-­­­circuit » dans Ge 1 f* 2 . L’ensemble des arcs du graphe d’écart allant des som­­mets de S vers ceux de S est vide : U1S 5 [. Tout arc ayant une extré­­mité et une seule dans S est orienté dans le sens de S vers S. Ici S 5 5 s, A, C 6 et S 5 5 B, D, p 6 .

4.6 Pro­­blèmes d’affec­­ta­­tion

© Dunod – Toute reproduction non autorisée est un délit.

Nous les pré­­sen­­tons ici comme une appli­­ca­­tion de l’algo­­rithme de Ford-­­­Fulkerson. Exemple.  On désire pro­­cé­­der aux muta­­tions de cinq per­­sonnes A, B, C, D et Ε, et on leur offre les postes a, b, c, d et e. Ces per­­sonnes dési­­rant maxi­­mi­­ser leur satis­­faction, décident cha­­cune de noter de 1 à 5 les postes offerts et obtiennent le tableau sui­­vant regrou­­pant leurs avis (tableau 4.1) ; la note 1 est don­­née au poste pré­­féré, …, la note 5 à celui le moins appré­­cié : Il est évident qu’il convient, pour a b c d e maxi­­mi­­ser la satis­­faction géné­­rale, de A 1 2 3 4 5 choi­­sir un chiffre et un seul par ligne B 1 4 2 5 3 et par colonne, de manière à ce que la somme des cinq chiffres choi­­sis soit C 3 2 1 5 4 mini­­male (si cha­­cun pou­­vait obte­­nir D 1 2 3 5 4 le poste qu’il a classé n° 1, la somme mini­­male serait 5) ; mais c’est ici E 2 1 4 3 5 impos­­sible : trois per­­sonnes ont classé Tableau 4.1 le poste a en pre­­mier. On ne change pas le pro­­blème en sous­­trayant, ligne par ligne, puis colonne par ­colonne, le plus petit élé­­ment de la ligne ou de la colonne (ceci se prouve aisé­­ment). 139

Chapitre 4 • Appli­­ca­­tions des graphes à la recherche opé­­ra­­tion­­nelle

Si l’on pou­­vait, dans le tableau 4.3 ainsi obtenu, choi­­sir un zéro par ligne et par colonne, on aurait déjà la solu­­tion, mais ce n’est pas pos­­sible. De plus, nous savons déjà que le « coût » de l’affec­­ta­­tion ne sera pas infé­­rieur à 9 (somme des chiffres ôtés aux dif­­fé­­rentes ran­­gées pour faire appa­­raître un zéro par ligne : 5, puis par colonne : 4, cf tableaux 4.2 et 4.3). Remarque.  Le lec­­teur pour­­rait être tenté par l’énu­­mé­­ra­­tion des solu­­tions (qui, ici, demeu­­re­­rait envi­­sa­­geable puisque 5 ! 5 120). Mais il devra se sou­­ve­­nir que 10 ! ­atteint déjà 3 628 800 et qu’il fau­­drait plus de quatre mil­­lions de siècles pour énu­­mé­­rer, à la vitesse d’un million de per­­mu­­ta­­tions par seconde, les affec­­ta­­tions pos­­sibles sur un Tableau 25 3 25 (cf. cha­­pitre 2 sur la com­­ plexité). L’algo­­rithme hon­­grois, exposé ci-­­­dessous, per­­met de résoudre le pro­­ blème en un temps rai­­son­­nable (même pour la dimen­­sion n 5 100). a

b

c

d

e

A

0

1

2

1

2

2

B

0

3

1

2

0

4

3

C

2

1

0

2

1

2

4

3

D

0

1

2

2

1

3

2

4

E

1

0

3

0

2

a

b

c

d

e

A

0

1

2

3

4

B

0

3

1

4

C

2

1

0

D

0

1

E

1

0

Tableau 4.2  On a sous­­trait 1 : le plus petit élé­­ment de chaque ligne

Tableau 4.3  On a ensuite sous­­trait le plus petit élé­­ment de chaque colonne (2 en colonnes d et e)

Affec­­tons le zéro unique de la ligne A du tableau 4.3 ; nous ne pou­­vons plus affec­­ter, sur la ligne B, que le zéro de la colonne e ; affec­­tons encore le zéro unique de la ligne C ; nous ne pou­­vons plus affec­­ter aucun zéro de la ligne D, l’unique zéro qu’elle conte­­nait ayant été exclu de l’affec­­ta­­tion par le choix du zéro de la ligne A ; enfin, sur la ligne E, nous avons le choix entre le zéro de la colonne b et celui de la colonne d ; rete­­nons, par exemple, le pre­­mier. Mais nous n’avons affecté que quatre per­­sonnes, pas cinq… Nous n’avons pas obtenu la solu­­tion, mais il convient de véri­­fier qu’il est impos­­ sible d’affec­­ter davan­­tage de zéros. Pour cela, consi­­dé­­rons le réseau de tran­­sport com­­por­­tant une source fic­­tive O et un puits fic­­tif S, dont les arcs, tous de capa­­cité 1, cor­­res­­pondent, entre les som­­mets A, B, C, D, E, d’une part, et les som­­mets a, b, c, d et e, d’autre part, aux zéros du tableau 4.3 (figure 4.32) ; les autres arcs relient O à A, B, C, D et E, ainsi que a, b, c, d et e à S ; leur capa­­cité est 1. Asso­­cions un flot dans ce réseau de tran­­sport, à l’affec­­ta­­tion par­­tielle ci-­­­dessus. Ayant affecté les zéros comme au tableau 4.4, nous fixons à 1 le flux sur les arcs (A, a), (B, e), (C, c) et (E, b), qui sont satu­­rés. 140

4.6  Pro­­blèmes d’affec­­ta­­tion

© Dunod – Toute reproduction non autorisée est un délit.

Figure 4.32

Par suite, (O, A), (O, B), (O, C) et (Ο, E), d’une part, (a, S), (b, S), (c, S) et (e, S), d’autre part, sont aussi satu­­rés. La procédure de marquage permet de marquer seulement : O (+), D (+O), a (+D) et A (–a). S n’est pas mar­­qué ; nous avons donc bien un flot maximal, ce qui veut dire que, quels que soient les choix des zéros sur le tableau 4.3, nous n’arri­­ve­­rons pas à affec­­ ter plus de quatre zéros. Pour résoudre le pro­­blème, nous devons main­­te­­nant avoir recours à la méthode hon­­groise. a b c d e Repre­­nons le tableau 4.4 où on a men­­tionné éga­­ le­­ment les zéros que nous avons dû éli­­mi­­ner A 0 pour les choix ulté­­rieurs, par suite d’une affec­­ta­­ B 0 0 tion d’un autre zéro sur la même ligne ou la même C 0 colonne : ces zéros seront dits : zéros bar­­rés ; les zéros affec­­tés seront dits  : zéros enca­­drés. La D 0 trans­­po­­si­­tion du mar­­quage de Ford-­­­Fulkerson à E 0 0 ce tableau (zéro « barré » : arc de flux nul ; zéro « enca­­dré » : arc saturé) four­­nit (cf Tab. 4.5) : Tableau 4.4 a) mar­­quer 1 toute une ligne n’ayant pas de zéro enca­­dré (ici la ligne D) ; a b c d e b) mar­­quer ensuite 1 toute colonne ayant un zéro A 0  barré sur une ligne mar­­quée (ici la colonne a) ; B 0 c) mar­­quer alors – toute ligne ayant un zéro enca­­ 0 dré dans une colonne mar­­quée (ici, la ligne A) C 0 et reve­­nons à b), etc., jus­­qu’à ce que le mar­­quage D 0  ne soit plus pos­­sible (c’est le cas, dès à présent, dans l’exemple). E 0 0 En effet, a) cor­­res­­pond à pra­­ti­­quer le mar­­quage  (1) pour les som­­mets x tels que l’arc (O, x) n’est pas Tableau 4.5 saturé : ici, seul (O, D) est dans ce cas : on a mar­­ qué D ; b) cor­­res­­pond à pra­­ti­­quer le mar­­quage (1) pour les som­­mets y tels qu’il existe un arc (x, y) non saturé, si x est déjà mar­­qué. Ici, seul (D, a) est dans ce cas : a est mar­­qué 1 ; c) cor­­res­­pond à pra­­ti­­quer le mar­­quage (2) pour 141

Chapitre 4 • Appli­­ca­­tions des graphes à la recherche opé­­ra­­tion­­nelle

les som­­mets x tels qu’il existe un arc (x, y) de flux non nul (donc ici saturé puisque tous les arcs ont pour capa­­cité 1), si y est déjà mar­­qué ; ici on a mar­­qué – le som­­met A. Cette cor­­res­­pon­­dance est détaillée plus bas : sur les graphes des figures 4.33 et 4.34. a

b

c

d

e

A

0

1

2

1

2

B

0

3

1

2

0

C

2

1

0

2

1

D

0

1

2

2

1

E

1

0

3

0

2

 Tableau 4.6

a

b

c

d

e

A

0

0

1

0

1

B

1

3

1

2

0

C

3

1

0

2

1

D

0

0

1

1

0

E

2

0

3

0

2





Tra­­çons alors un trait sur les lignes non mar­­ quées et les colonnes mar­­quées ­(tableau 4.6). Le sous-­­­tableau res­­tant com­­prend les cases asso­­ ciées aux arcs «  utiles  » c’est-­­­à-dire tels que, si l’un d’eux était ajouté au graphe pré­­cé­­dent, on pour­­rait mar­­quer de nou­­veaux som­­mets. Consi­­ dé­­rons le plus petit nombre du tableau res­­tant  : retranchons-­­­le de tous les élé­­ments non rayés et ajoutons-­­­les aux élé­­ments rayés deux fois ­(tableau 4.7). Cela revient à ajou­­ter au graphe le (ou les) arc(s) «  utile(s)  » de plus faible coût  : il y a en quatre ici, ceux de coût 1 (tableau 4.6), dans le tableau res­­tant. On obtient alors le tableau 4.7. Sur le tableau 4.7, il est main­­te­­nant pos­­sible d’affec­­ter un zéro par ligne par colonne, et cela de trois manières dif­­fé­­rentes qui consti­­tuent les solu­­tions équi­­va­­lentes du pro­­blème, en ce sens qu’elles donnent toutes, en reve­­nant au tableau 4.1, la somme (coût) 10.

On remar­­quera que le coût de 10 cor­­res­­pond bien à la somme de la borne infé­­rieure 9 trou­­vée pré­­ cé­­dem­­ment, et du plus petit élé­­ment sous­­trait pos­­ Tableau 4.7 té­­rieu­­re­­ment au tableau. Plus géné­­ra­­le­­ment, soit g la borne du coût lors d’une itération quel­­conque ; notons XM les som­­mets mar­­qués du pre­­mier niveau et YM , ceux du second niveau. On montre que la borne infé­­rieure du coût passe de g à g 1 a ( Card XM 2 Card YM ) où a est le plus petit coût du « tableau res­­tant », c’est-­­­à-dire du sous-­­­tableau dont les lignes sont mar­­quées (XM) et dont les colonnes ne sont pas mar­­quées ( Y M )  ; le lec­­teur pourra prou­­ver que nécessairement on a : Card XM . Card YM. Au cas où le Tableau 4.7 n’aurait pas fourni la solu­­tion, il aurait fallu reprendre l’algo­­ rithme, après avoir affecté le plus pos­­sible de zéros, (ce que l’on véri­­fie en résol­­vant un pro­­blème de flot maximal comme ci-­­­dessus), à la pro­­cé­­dure de mar­­quage, et ainsi de suite jus­­qu’à l’obten­­tion de la solu­­tion (qui nécessite en général plusieurs itérations). Une solu­­tion opti­­male consiste à affec­­ter : A à a ; B à e ; C à c ; D à b et Ε à d. Elle a pour coût 10. Telle est la méthode hon­­groise, à laquelle on a donné ce nom en sou­­ve­­nir de deux mathéma­­ti­­ciens hon­­grois, Egervary et König, qui ont contri­­bué, avec Kuhn, à en fon­­der la théo­­rie. 142

4.6  Pro­­blèmes d’affec­­ta­­tion





Nous n’avons pas l’inten­­tion de démon­­trer ici la vali­­dité de l’algo­­rithme, mais le lec­­teur sera sûre­­ment inté­­ressé de consta­­ter que la colonne rayée cor­­res­­pond au som­­met mar­­qué (1D) , soit a, et que les lignes non rayées cor­­res­­pondent éga­­le­­ment aux som­­mets mar­­qués (2a) et (1O), soient A et D (figure 4.33), d’après le mar­­quage réa­­lisé à par­­tir de la figure 4.32.



Figure 4.33



La figure 4.34 pré­­sente la situa­­tion de telle sorte qu’il est visible que, pour résoudre le pro­­blème, il importe de trou­­ver l’arc de moindre coût (ou un arc de moindre coût) entre l’ensemble des som­­mets mar­­qués du pre­­mier niveau, soit ΧM, et l’ensemble des som­­mets non mar­­qués du second niveau, soit Y M  : on vise à effec­­tuer une aug­­men­­ta­­tion du flot en uti­­li­­sant cet arc (ou l’un de ces arcs) par une progression du marquage. En regrou­­pant le tableau des coûts sous la forme cor­­res­­pon­­dant à la figure 4.34, on obtient le tableau 4.8. On voit que l’on ne change rien à la situa­­tion exis­­tant entre les sommets mar­­qués si l’on sous­­trait le plus petit élé­­ment des élé­­ments non rayés de la matrice et si on l’ajoute aux élé­­ments rayés deux fois. En effet, dans les cases YM YM (A, a) et (D, a), le coût d­ emeu­­rera 0. a b c d e Mais on crée ainsi quatre arcs de coût zéro entre l’ensemble des som­­mets mar­­ A 0 1 2 1 2 1 XM qués du pre­­mier niveau et l’ensemble des D 0 1 2 2 1 1 som­­mets non mar­­qués du second niveau ; B 0 3 1 2 0 ce sont les arcs  : (A, b) ; (A, d) ; (D, b) ; (D, e). XM C 2 1 0 2 1 Les échanges concernant le flot les plus E 1 0 3 0 2 simples sont les sui­­vants (au choix) : 1 1)  faire cir­­cu­­ler un flux satu­­rant de 1 sur (A, d), satu­­rant (d, S) ; faire cir­­cu­­ler un flux Tableau 4.8 satu­­rant de 1 sur (O, D) et satu­­rer (D, a) ;



© Dunod – Toute reproduction non autorisée est un délit.

Figure 4.34





143

Chapitre 4 • Appli­­ca­­tions des graphes à la recherche opé­­ra­­tion­­nelle

2)  ou bien faire cir­­cu­­ler un flux satu­­rant de 1 sur (O, D) et satu­­rer (D, b), repor­­ter le flux satu­­rant de 1 de (E, b) à (E, d), ce qui sature (d, S). 3)  Une troi­­sième pos­­si­­bi­­lité nous est offerte : Satu­­rer (A, b) et (O, D) ; ache­­mi­­ner le flux de (O, D) sur (D, a) ; enfin repor­­ter le flux de (E, b) à (E, d), ce qui sature (d, S). L’arc (D, e) ne per­­met pas de modi­­fi­­ca­­tion inté­­res­­sante, car le coût de l’arc (B, d) est 2 et non 0. On a donc 3 solutions (de coût 10)  : [A-a, B-e, C-c, D-b, E-d] ou [A-b, B-e, C-c, D-a, E-d] ou [A-d, B-e, C-c, D-a, E-b]. Remarques. 1.  Le lec­­teur pourra consta­­ter l’ana­­lo­­gie de cette méthode avec l’algo­­rithme de Roy (Busacker-­­­Gowen) pré­­senté au para­­graphe 4.5. En effet, un pro­­ blème d’affec­­ta­­tion à coût mini­­mal peut être modé­­lisé par un pro­­blème de flot maximal de coût mini­­mal. Le réseau de tran­­sport asso­­cié au pro­­blème d’affec­­ta­­tion est obtenu comme ci-­­­dessus (fig. 4.32) de la façon sui­­vante : la source Ο du réseau a pour suc­­ces­­seurs les som­­mets cor­­res­­pon­­dant aux lignes du tableau, le puits S a pour pré­­dé­­ces­­seurs les som­­mets cor­­res­­pon­­dant aux colonnes ; tout som­­met cor­­res­­pon­­dant à une ligne a pour suc­­ces­­seurs tous les som­­mets (qui cor­­res­­pon­­dent aux colonnes) ; ainsi à toute case du tableau cor­­res­­pond un arc dans le réseau de tran­­sport ; les capa­­ci­­tés des arcs valent toutes 1 ; les coûts uni­­taires asso­­ciés aux arcs sont les sui­­vants : 0 pour les arcs ayant la source Ο pour ori­­gine ou le puits S pour extré­­mité ; le coût pij asso­­cié à l’arc (i, j) est le coef­­fi­­cient de la case situé sur la ligne i et la ­colonne j du tableau ini­­tial des coûts. L’affec­­ta­­tion par­­tielle don­­née dans le tableau 4.4 cor­­res­­pond au flot repré­­ senté par la figure 4.32. Ce flot est obtenu après 4 ité­­ra­­tions de l’algo­­rithme de Roy (Busacker-­­­Gowen). À cha­­cune de ces ité­­ra­­tions, le che­­min de coût mini­­mal dans le graphe d’écart était de coût 0. À cette étape, le flot de valeur 4 n’est pas maxi­­mal. Le che­­min de coût mini­­mal dans le graphe d’écart, cor­­ res­­pon­­dant au flot repré­­senté par la figure 4.32, est le che­­min (O, D, b, E, d, P) de coût 1. Le flot sui­­vant est alors de valeur maximale 5 et de coût mini­­ mal 10. Ce flot cor­­res­­pond à l’affec­­ta­­tion repré­­sen­­tée dans le tableau 4.7 2.  La démons­­tra­­tion de la vali­­dité de l’algo­­rithme hon­­grois (ou «  méthode hon­­groise ») pré­­sente une ana­­lo­­gie inté­­res­­sante avec celle de l’algo­­rithme de Ford-­­­Fulkerson ; le lec­­teur inté­­ressé pourra se repor­­ter à [1].

4.7 Notions d’arbre

et d’arbo­­res­­cence

Nous appro­­fon­­dis­­sons des notions que nous avions défi­­nies au cha­­pitre 3. Au préa­­lable défi­­nis­­sons le “nombre cyclomatique” d’un graphe G : V ( G ) . Si G com­­porte n som­­mets, m arcs et p com­­po­­santes connexes, on pose V 1 G 2 5 m 2 n 1 p. Par récur­­rence on peut mon­­trer que V 1 G 2 5 0 si et seulement si G nra pas de cycle et V 1 G 2 5 1 si et seulement si G com­­porte un cycle unique.

144

4.7  Notions d’arbre et d’arbo­­res­­cence

4.7.1 Arbre. Défi­­ni­­tion et prop­­rié­­tés élé­­men­­taires Étant donné un graphe non orienté de n som­­mets 1 n > 2 2 , on obtient un arbre en «  connec­­tant  » tous les som­­mets sans for­­mer de cycle (c’est-­­­à-dire en reliant les som­­mets deux à deux par des arêtes). Par dé­­finition, un arbre est un graphe connexe et sans cycle. Un arbre com­­porte n 2 1 arêtes. En effet, G est connexe entraîne p 5 1 ; G est sans cycle entraîne V ( G ) 5 0, d’ou V 5 m 2 n 1 1 et m 5 n 2 1. Une défi­­ni­­tion équi­­va­­lente d’un arbre est qu’il consti­­tue un graphe connexe de n 2 1 arêtes. En effet p 5 1 et m 5 n 2 1 entraîne V ( G ) 5 m 2 ( n 2 1 ) 1 1 5 0 : donc G est sans ­cycle. Une prop­­riété qui nous sera utile pour les appli­­ca­­tions (cf. les pro­­grammes de tran­­sport) est que l’addi­­tion à un arbre d’une arête entre deux som­­mets (en par­­ti­­cu­­ lier, deux som­­mets non-­­­adjacents dès que n > 3) crée un cycle et un seul. En effet, si l’on relie par une arête sup­­plé­­men­­taire les deux som­­mets d’un arbre on crée un cycle unique : ces deux som­­mets, dans l’arbre, étant reliés par une chaîne unique, l’addi­­ tion d’une arête crée alors un cycle et un seul. En effet V ( G ) 5 0 ; l’ajout d’une arête se tra­­duit par : m r 5 m 1 1 et V ( Gr ) 5 V ( G ) 1 1 5 1. Il est aisé de prou­­ver que dans un arbre deux som­­mets quel­­conques x et y sont reliés par une chaîne unique : s’il n’exis­­tait pas de chaîne entre x et y le graphe ne serait pas connexe (or un arbre est connexe par défi­­ni­­tion). S’il exis­­tait plu­­sieurs chaînes entre x et y, on pour­­rait alors exhi­­ber au moins un cycle (or un graphe est sans cycle par défi­­ni­­tion). Dans l’exemple de la figure 4.35, l’addi­­tion de l’arête [D, P] crée un cycle et un seul : [D, C, B, E, G, H, L, P, D]. Dans l’arbre, D et P sont reliés par une chaîne unique :

© Dunod – Toute reproduction non autorisée est un délit.

[D, C, B, E, G, H, L, P].

4.7.2 Arbo­­res­­cence

Figure 4.35

Dans un graphe G 5 (X, U), on nomme « racine », tout som­­met à par­­tir duquel part au moins un che­­min vers tout autre som­­met. Un graphe peut com­­por­­ter 0 ou 1 ou plu­­ sieurs racines ; ainsi dans un graphe for­­te­­ment connexe, tout som­­met est une racine ; dans un « réseau de tran­­sport » (cf Flot 4.4.1) la source est une racine, alors unique. On définit une « arbo­­res­­cence » comme un graphe qui, sans son orien­­ta­­tion, est un arbre et, avec son orien­­ta­­tion, com­­porte une racine. Cette racine est unique (sinon si r et rr étaient deux racines dif­­fé­­rentes, par r et r’ pas­­se­­rait un cir­­cuit et le graphe sans l’orien­­ta­­tion com­­por­­te­­rait un cycle, ce qui 145

Chapitre 4 • Appli­­ca­­tions des graphes à la recherche opé­­ra­­tion­­nelle

contredit le fait qu’une arbo­­res­­cence soit, sans l’orien­­ta­­tion, un arbre. En recherche opé­­ra­­tion­­nelle on uti­­lise fré­­quem­­ment la notion d’arbo­­res­­cence (d’ailleurs nous avons déjà dû nous en ser­­vir plus haut). Nous en don­­nons plus loin (au para­­graphe 4.10), une autre appli­­ca­­tion : au fameux « pro­­blème du voya­­ geur de com­­merce » (« Tra­­ve­­ling Salesman Problem », ou « TSP »). Notons un abus de lan­­gage : la plu­­part des « arbres » des infor­­ma­­ticiens sont en fait des arborescences, au sens de la théo­­rie des graphes.

4.8  Appli­­ca­­tions

r

Figure 4.36

aux arbres opti­­maux

En recherche opé­­ra­­tion­­nelle, on ren­­contre assez sou­­vent des pro­­blèmes fai­­sant appel à la notion d’arbre de valeur mini­­male, par exemple en opti­­mi­­sation des réseaux. Étant donné un graphe valué G 5 (X, V), de n som­­mets et connexe, on veut construire, en uti­­li­­sant n 2 1 de ses arêtes, un arbre dont la somme des valeurs (ou coûts) des arêtes sera mini­­male. En 1956, J.B. Kruskal a donné un algo­­rithme simple pour résoudre ce pro­­blème. Il consiste à : a) éta­­blir une liste des arêtes par valeurs crois­­santes ; b) choi­­sir une arête de valeur mini­­male puis, suc­­ces­­si­­ve­­ment, au fur et à mesure de la construc­­tion de l’arbre, l’arête sui­­vante dans la liste ne for­­mant pas un cycle avec les arêtes rete­­nues jusque-­­­là. S’arrê­­ter lorsque tous les som­­mets du graphe sont connec­­ tés (ou, ce qui revient au même, lorsque le nombre d’arêtes rete­­nues égale n 2 1). Pour un exemple se repor­­ter à la Fig 4.37. Il s’agit du pre­­mier exemple de « méthode gour­­mande » (ou « glou­­tonne » ; en anglais : « greedy algorithm »), car à chaque pas on choi­­sit l’élé­­ment le plus inté­­res­­ sant (comme si l’on pre­­nait le plus gros mor­­ceau dans le par­­tage d’un gâteau). Un autre algo­­rithme a été pro­­posé en 1961, par G. Sollin, alors chef de tra­­vaux au CNAM, pour opti­­mi­­ser des réseaux de cana­­li­­sa­­tion ; le voici : Ini­­tia­­le­­ment aucun som­­met n’a été « retenu ». a) Choi­­sir arbi­­trai­­re­­ment un som­­met x en dehors de ceux qui ont déjà été rete­­nus ; relier, par l’arête de valeur la plus faible, ce som­­met x à l’un des som­­mets (déjà retenu ou non) aux­­quels il est adja­­cent ; soit y ce der­­nier som­­met : y est alors « retenu », de même que x. b) Lorsque tous les som­­mets ont été rete­­nus : – soit on a obtenu un arbre et le pro­­blème est résolu : cet arbre est de coût minimal. – soit on a seule­­ment plu­­sieurs sous-­­­arbres. Contrac­­ter cha­­cun en un som­­met unique ; créer le multi­­­graphe1 dont chaque som­­met est asso­­cié à l’un de ces sous-­­­arbres et dont 1. On appelle multi­­­graphe un graphe dont deux som­­mets au moins sont reliés par plus d’un arête. 146

4.8  Appli­­ca­­tions aux arbres opti­­maux

les arêtes sont les arêtes du graphe ini­­tial, sus­­cep­­tibles de connec­­ter deux à deux ces sous-­­­arbres (elles ont la même valeur dans le graphe ini­­tial et dans le sous-­­­graphe). Pas­­ser à a). La vali­­dité de cet algo­­rithme est justifiée comme suit : la pro­­cé­­dure, qui est néces­­ sai­­re­­ment finie, ne peut engen­­drer que des sous-­­­arbres (ou un arbre) puisque, à chaque étape, on prend un som­­met x non encore retenu et donc on ne peut pas ainsi créer un cycle. On montre, par l’absurde, qu’à chaque étape de l’algo­­rithme ces sous-­­­arbres sont opti­­maux. Fina­­le­­ment, on construit un arbre à par­­tir de ses sous-­­­arbres opti­­maux. Exemple. Consi­­dé­­rons un graphe G 5 (X, U ), dont les arêtes sont valuées par des coûts ; on veut trou­­ver dans ce graphe, qui repré­­sente le pro­­jet d’un réseau de dis­­tri­­ bu­­tion, un arbre de coût mini­­mal (fig. 4.37).

© Dunod – Toute reproduction non autorisée est un délit.

Figure 4.37

Opé­­rons selon l’algo­­rithme de Kruskal : La liste par coûts croissants est : [B, E] : 1 ; [B, F] : 2 ; [A, F] : 3 ; [B, C] : 3 ; [C, E] : 3 ; [D, G] : 3 ; [E, F] : 3 ; [D, E] : 4 ; [F, G] : 4 ; etc. La première arête choisie est [B, E] ; puis [B, F], puis [A, F], puis [B, C] ; on rejette [C, E] qui forme un cycle avec les arêtes déjà retenues ; puis on prend [D, G], on rejette [E, F], puis on prend [D, E] : fin car n 2 1 5 6 arêtes ont été retenues ; l’arbre optimal a pour coût 16 (cf fig. 4.37, à droite). Opé­­rons maintenant selon l’algo­­rithme de Sollin : 1) choix dans X de A : sélec­­tion de l’arête [A, F] ; 2) choix dans X 2 5 A, F 6 de B : sélec­­tion de l’arête [B, E] ; 3) choix dans X 2 5 A, F, B, E 6 de C : sélec­­tion de l’arête [C, B] ; 4) choix dans X 2 5 A, F, B, E, C 6 de D : sélec­­tion de l’arête [D, G]. La liste des som­­mets est épui­­sée : on a trois sous-­­­arbres entre les­­quels sub­­siste un cer­­tain nombre d’arêtes (ici, toutes les autres, sauf [C, E], qui, si on l’ajou­­tait, for­­me­­ rait un cycle dans l’un des sous-­arbres) : cf fig. 4.38. Nous dési­­gne­­rons main­­te­­nant par a, b et g les sous-­­­arbres {A, F}, {B, C, E} et {D, G}, consi­­dé­­rés désor­­mais comme les som­­mets d’un multi­­­graphe (figures 4.38 et 4.39, avant et après « contrac­­tion »), formé par ces som­­mets et les arêtes qui les relient entre eux. Ce sont, on le voit, toutes les arêtes autres que celles déjà rete­­nues, à l’excep­­tion de [C, E] qui ne relie pas deux sous-­­­arbres (et, pour cette rai­­son, ferme un cycle dans {B, C, E}). 147

Chapitre 4 • Appli­­ca­­tions des graphes à la recherche opé­­ra­­tion­­nelle

Figure 4.38

Figure 4.39

Sélec­­tion­­nons, par exemple, le som­­met a. L’arête de valeur la plus faible adja­­cente à a est [B, F], de valeur 2, qui relie a à b : on la retient. Pre­­nons un som­­met, en dehors de {a, b} ; seul reste g. L’arête de valeur la plus faible adja­­cente à g est [F, G], de valeur 4 : on la retient. On obtient fina­­le­­ment l’arbre de la figure 4.40, de coût 16, en ajou­­tant [B, F] et [F, G] aux trois sousFigure 4.40 ­­arbres de la figure 4.38. Il y a d’autres solu­­tions de même coût : [F, G] peut être rem­­pla­­cée par [D, E] (cf partie droite de la fig. 4.37) et [B, C] par [C, E]. Nous pré­­sen­­tons main­­te­­nant un der­­nier algo­­rithme, lui aussi très simple, dû à Prim : 1.  mar­­quer arbi­­trai­­re­­ment un som­­met 2.  tant qu’il existe un som­­met non mar­­qué faire 3. choi­­sir une arête de coût mini­­mal ayant une de ses deux extré­­mi­­tés mar­­quée et l’autre non mar­­quée et l’inclure dans l’arbre en for­­ma­­tion ; mar­­quer cette autre extré­­mité. Il est aisé de mon­­trer que l’ensemble des arêtes choi­­sies à l’issue de l’algo­­rithme consti­­tue un arbre de coût mini­­mal. Un exemple d’exé­­cu­­tion de l’algo­­rithme est pré­­senté dans la figure 4.41 Les som­­ mets mar­­qués sont gri­­sés et les arêtes choi­­sies sont en trait épais. On a pris arbi­­trai­­ re­­ment F comme som­­met ini­­tial. L’arbre opti­­mal ainsi obtenu a pour valeur (ou coût) 16, comme avec l’algo­­rithme de Kruskal et celui de Sollin. Mais il dif­­fère de l’arbre opti­­mal de Sollin ; cepen­­dant en rem­­pla­­çant l’arête [F, G] dans la Fig 4.40, par l’arête [D, E] de même coût (égal à 4), on obtient l’arbre opti­­mal de Prim de la Fig 4.41 (qui est le même que celui fourni par l’algo­­rithme de Kruskal). En uti­­li­­sant des struc­­tures de don­­nées approp­­riées, la com­­plexité des algo­­rithmes pré­­sen­­tés est O(m log m) pour l’algo­­rithme de Kruskal et O 1 m 1 n log n 2 pour celui dû à Prim. Le lec­­teur pourra consul­­ter [8] pour trou­­ver les argu­­ments jus­­ti­­fiant ces com­­plexi­­tés. 148

4.9  Les pro­­grammes de tran­­sport

© Dunod – Toute reproduction non autorisée est un délit.

Figure 4.41  Une exé­­cu­­tion de l’algo­­rithme de Prim

Le lec­­teur aura cer­­tai­­ne­­ment remar­­qué que les trois algo­­rithmes que nous venons de pré­­sen­­ter, basés tous les trois sur une stra­­té­­gie « gour­­mande » (on dit aussi : « glou­­ tonne » ; en anglais : « greedy »), se révèlent par­­ti­­cu­­liè­­re­­ment effi­­caces. Le lec­­teur consul­­ tera les cha­­pitres consa­­crés aux matroïdes dans les ouvrages trai­­tant d’algo­­rith­­mique [8] ou de théo­­rie des graphes pour trou­­ver les jus­­ti­­fi­­cations théo­­riques de cette effi­­ca­­cité.

4.9 Les

pro­­grammes de tran­­sport

Les notions sur les arbres, pré­­sen­­tées dans les para­­graphes pré­­cé­­dents, vont nous être utiles pour résoudre un pro­­blème pra­­tique des plus cou­­rants en recherche opé­­ra­­tion­­ nelle : celui des pro­­grammes de tran­­sport, que nous défi­­nis­­sons ci-­­­dessous. 149

Chapitre 4 • Appli­­ca­­tions des graphes à la recherche opé­­ra­­tion­­nelle



Entre m ori­­gines (dépôts) et n des­­ti­­nations (clients) consti­­tuant les som­­mets d’un graphe biparti, (rap­­pe­­lons qu’un graphe est dit biparti si ses som­­mets sont par­­ta­­gés en deux classes, à l’inté­­rieur de cha­­cune des­­quelles les som­­mets ne sont pas deux à deux adja­­cents), on peut tra­­cer m 3 n arcs qui sym­­bo­­lisent les liai­­sons que l’on peut employer pour tran­­spor­­ter des mar­­chan­­dises de chaque ori­­gine vers chaque des­­ti­­ nation. On pour­­rait aussi com­­plé­­ter ce graphe sans boucle par une entrée et une sor­­tie pour obte­­nir un réseau de tran­­sport. Mais le pro­­blème que l’on se pose main­­te­­nant n’est plus celui du flot opti­­mal, et cette trans­­for­­ma­­tion ne serait ici d’aucune uti­­lité. En effet dans les programmes de tran­­sport, les capa­­ci­­tés des arcs sont sup­­po­­sées illi­­mi­­tées, mais chaque arc est valué par le coût uni­­taire du tran­­sport sur la liai­­son qu’il repré­­sente. Ce que l’on cherche est une solu­­tion à coût mini­­mal. Dès 1776, G. Monge s’était atta­­qué à ce pro­­blème, mais en continu, c’est-­­­à-dire en consi­­dé­­rant le dépla­­ce­­ment de volumes infi­­ni­­té­­si­­maux dv ; il avait dû bâtir la théo­­ rie nou­­velle des congruences de nor­­males pour le résoudre. Aujourd’hui, on envi­­sage le pro­­blème dis­­cret qui consiste à tran­­spor­­ter des uni­­tés indi­­vi­­sibles (m3 ou tonnes par exemple) et ainsi le pro­­blème se for­­mule en nombres entiers. Sous cette forme, c’est A. Tolstoï qui l’a publié en 1939, L.V. Kantorovitch et F.L. Hitchcock le pré­­ci­­sant de nou­­veau en 1941, avec Koopmans. Pra­­ti­­que­­ment et sans perte de géné­­ra­­lité, on se ramène tou­­jours au cas où l’offre égale la demande : le total géné­­ral des quan­­ti­­tés dis­­po­­nibles aux ori­­gines cor­­res­­pond au total géné­­ral des demandes aux dif­­fé­­rentes des­­ti­­nations. S’il n’en était pas ainsi, il suf­­fi­­rait de créer soit une des­­ti­­nation fic­­tive (cas de l’excès des dis­­po­­ni­­bi­­li­­tés) soit une ori­­gine fic­­tive (cas de l’excès des demandes), en affec­­tant à ce som­­met fic­­tif la dif­­fé­­ rence entre les deux totaux géné­­raux et en valuant les rela­­tions nou­­velles par un coût nul, de manière à ne pas trou­­bler le pro­­ces­­sus de minimi­­sa­­tion du coût de tran­­sport des quan­­ti­­tés effec­­ti­­ve­­ment tran­­spor­­tées. À titre d’exemple, nous exa­­mi­­ne­­rons le pro­­blème sui­­vant : assu­­rer, au moindre coût, les tran­­sports des quan­­ti­­tés deman­­dées aux dépôts (clients) numé­­ro­­tés de 1 à 6, à par­­tir des usines de I à IV, connais­­sant les dis­­po­­ni­­bi­­li­­tés de ces usines et les coûts de tran­­sport uni­­taires de toute ori­­gine à toute des­­ti­­nation. Matrice des coûts uni­­taires Quantités i j 1 2 3 4 5 6 disponibles (ai)

Quantités demandées (bj) 150

I

12

27

61

49

83

35

18

II

23

39

78

28

65

42

32

III

67

56

92

24

53

54

14

IV

71

43

91

67

40

49

9



9

11

28

6

14

5

73

4.9  Les pro­­grammes de tran­­sport

a) On observe que la somme des demandes (ici 73) est égale à la somme des dis­­po­­ ni­­bi­­li­­tés. On note m le nombre d’ori­­gines et n celui des des­­ti­­nations. b) Soient ai les quan­­ti­­tés dis­­po­­nibles, bj les quan­­ti­­tés deman­­dées, cij les coûts de tran­­sport ; la solu­­tion du pro­­blème revient à trou­­ver les valeurs numé­­riques des mn nombres non néga­­tifs xij qui repré­­sente la quan­­tité livrée depuis l’ori­­gine i à la des­­ ti­­nation j, tels que :

a ai 5 a bj : offre 5 demande

(4.1)

c, m 2 a xij 5 ai 1 i 5 1, 2,

(4.2)

m

n

i51

j51

toute ori­­gine i livre entiè­­re­­ment sa quan­­tité dis­­po­­nible ai :

n

j51

à toute des­­ti­­nation j est livrée toute sa demande bj :

a xij 5 bj ( j 5 1, 2, m

i 51

c, n )

(4.3)

et que la fonc­­tion éco­­no­­mique (coût glo­­bal du tran­­sport) :

© Dunod – Toute reproduction non autorisée est un délit.



# a a cij xij 5 z m

n

i 51 j51

(4.4)

soit mini­­male. Nous ver­­rons plus tard que ce type de pro­­blème appar­­tient à la classe des pro­­ grammes linéaires, mais il n’est pas néces­­saire de lui appli­­quer les méthodes géné­­ rales de la pro­­gram­­ma­­tion mathéma­­tique : ce que nous nous gar­­de­­rons de faire, même si l’on peut inter­­préter les méthodes par­­ti­­cu­­lières qui vont suivre en termes de pro­­gram­­ma­­tion mathéma­­tique. Consi­­dé­­ra­­tions pré­­li­­mi­­naires Pour résoudre un tel pro­­blème, on peut tout d’abord d’obte­­nir une solu­­tion admissible, c-à-d conforme aux rela­­tions (4.1), (4.2) et (4.3) sans se pré­­oc­­cu­­per de la fonc­­tion éco­­ no­­mique (4.4). Pour qu’une telle solu­­tion soit uti­­li­­sable pour la suite de l’algo­­rithme, il convient qu’elle ne soit pas dégénérée, c’est-­­­à-dire qu’elle com­­porte exac­­te­­ment : n # m 2 1n 1 m 2 12 5 1n 2 12 # 1m 2 12

variables nulles1, et donc m 1 n 2 1 variables positives. Nous ver­­rons d’ailleurs que, sur le graphe biparti asso­­cié à une solu­­tion, seule une solu­­tion de base, c’est-­­­à-dire répon­­dant à la condi­­tion ci-­­­dessus, four­­nit un arbre. Il existe une méthode extrê­­mement facile pour en obte­­nir une ; mal­­heu­­reu­­se­­ment elle n’a pas de but éco­­no­­mique, alors que nous serons ensuite confron­­tés à un pro­­

1. Il y a n # m inconnues, liées par n 1 m rela­­tions ; mais ces n 1 m rela­­tions ne sont pas indé­­pen­­ dantes, puisque la somme des seconds membres des n pre­­mières est la même que la somme des seconds membres des m autres, il y a au plus n 1 m 2 1 rela­­tions indé­­pen­­dantes. Il doit donc y avoir, dans une solu­­tion admissible, au moins n # m 2 ( n 1 m 2 1 ) variables nulles. 151

Chapitre 4 • Appli­­ca­­tions des graphes à la recherche opé­­ra­­tion­­nelle

blème éco­­no­­mique. Décrivons-­­­la néan­­moins pour intro­­duire les élé­­ments théo­­riques de la ques­­tion. Il s’agit de la pro­­cé­­dure dite du coin Nord-­­­Ouest, consis­­tant à tran­­spor­­ter d’abord sur la rela­­tion (I, 1) (qui est le coin Nord-­­­Ouest du tableau) la quan­­tité maximale pos­­sible, c’est-­­­à-dire le mini­­mum du couple (demande, dis­­po­­ni­­bi­­lité), soit ici min(9, 18) 5 9 ; puis, le dépôt 1 étant servi et l’usine I étant encore appro­­vi­­sion­­née de 9 uni­­tés, à tran­­spor­­ter sur la rela­­tion (I, 2), min(11, 9) 5 9. Cette fois, c’est l’usine I dont le stock est épuisé, mais il manque 2 uni­­tés au dépôt 2, qu’on ache­­mi­­nera sur la rela­­tion (II, 2) et ainsi de suite… On aboutit au tableau ci-dessous : On constate que, dans le cas i j 1 2 3 4 5 6 ai géné­­ral, cette pro­­cé­­dure se tra­­ duit, à chaque choix d’une rela­­ 0 0 0 0 I 9 9 18 tion, par l’éli­­mi­­na­­tion d’une 0 0 0 II 2 28 2 32 des­­ti­­nation ou bien d’une ori­­ 0 III 0 4 10 14 gine et, par­­fois, des deux (sauf 0 0 tou­­te­­fois lors de la der­­nière IV 0 0 0 0 4 5 9 affec­­tion : au coin Sud-­­­Est, bj pour laquelle on achève de ser­­ 9 11 28 6 14 5 vir le der­­nier dépôt en épui­­sant solu­­tion de base obte­­nue par la le stock de la der­­nière usine). méthode du coin Nord-­­­Ouest : tableau des [xij] Elle donne une solu­­tion sans cycle, qui est ici une solu­­tion de base. En effet, elle a conduit ici à sélec­­tion­­ner en tout m 1 n 2 1 rela­­tions uti­­li­­sées pour les tran­­sports, alors qu’on ne tran­­sporte rien sur les autres, ce qui cor­­res­­pond bien à la condi­­tion selon laquelle il faut exac­­te­­ment n # m 2 1 n 1 m 2 1 2 5 1 n 2 1 2 1 m 2 1 2 variables nulles dans la solu­­tion. Dans l’exemple ci-­­­dessus, m 5 4, n 5 6 ; on doit avoir 3 3 5 5 15 «  zéros  » (c’est-­­­à-dire xij nuls) dans la solu­­tion : on le vérifie aisément. La figure 4.42 montre que le graphe du tran­­sport effec­­tif est bien un arbre puisque nous avons un graphe sans cycle (ou encore connexe) de N 5 n 1 m som­­mets et N 2 1 5 n 1 m 2 1 arêtes (rap­­pe­­lons que, par défi­­ni­­tion, un arbre est connexe et sans cycle). Ses 9 arêtes représentent les 9 liaisons (i, j) telles que : xij > 0. Bien entendu, le tableau ci-dessus donnant les quantités transportées xij vérifie les équa­­tions (4.1), (4.2) et (4.3) : 1.

a ai 5 18 1 32 1 14 1 9 5 73 ; 4

i 51 6

a bj 5 9 1 11 1 28 1 6 1 14 1 5 5 73,

j51



152

car on avait pris a ai 5 a bj : l’offre est, ici, égale à la demande ; 4

6

i 51

j51

4.9  Les pro­­grammes de tran­­sport

a x1j 5 9 1 9 1 0 1 0 1 0 1 0 5 18 5 a1 ; 6



2.

j51 6

a x2j 5 0 1 2 1 28 1 2 1 0 1 0 5 32 5 a2 ; etc.



3.

j51 4

a xi1 5 9 1 0 1 0 1 0 5 9 5 b1 ;



i 51 4

a xi2 5 9 1 2 1 0 1 0 5 11 5 b2 ; etc.

i 51

et, rappelons-­­­le, nous ne nous sommes, jus­­qu’à présent, pas occupé du seul pro­­blème de recherche opé­­ra­­tion­­ nelle que contient la ques­­tion, c’est-­­­à-dire la minimi­­sa­­ tion du coût de tran­­sport. Dans chaque programme de tran­­sport, il y aura donc néces­­sai­­re­­ment une phase d’opti­­mi­­sation. Nous allons indi­­quer com­­ment la théo­­rie des graphes va faci­­li­­ter le tra­­vail. Monétairement, la solu­­tion que nous avons trou­­vée coûte : 9 3 12 1 9 3 27 1 2 3 39 1 28 3 78 1 c 1 5 3 49 5 3 700 u.m.

Figure 4.42  Arbre asso­­cié à la solu­­tion de base du coin Nord-­­­Ouest.

mais on peut ima­­gi­­ner, du moment qu’elle a ignoré le coût de tran­­sport, que des modi­­fi­­ca­­tions ulté­­rieures vont pou­­voir amé­­lio­­rer ce coût... Or, com­­ment la modi­­fi­­ca­­tion la plus élé­­men­­taire se présente-­­­t-elle? Admet­­tons qu’on veuille tran­­spor­­ter une unité de mar­­chan­­dise sur la rela­­tion (I, 3) jus­­qu’à présent inuti­­li­­sée. Si nous réa­­li­­sions cette opé­­ra­­tion, il nous fau­­drait retran­­cher une unité tran­­spor­­tée sur la rela­­tion (I, 2) et éga­­le­­ment sur la rela­­tion (II, 3), de manière à ne pas chan­­ger les totaux des xij sur la ligne I et dans la colonne 3 ; il fau­­drait aussi ajou­­ter une unité sur la rela­­tion (II, 2) de manière à réta­­blir l’équi­­libre sur la ligne II et dans la colonne 2.

© Dunod – Toute reproduction non autorisée est un délit.

22 2 33 3 22 2 33 3 22 2 33 3 27 2761 61 61 II I 99 9 00 099 9 II I99 911 1 1 1199 9II I27 1 28 1 30 IIII II39 39 3978 78 78 21128 28 1130 30 30 IIII II 22 228 28 28 30 30 IIII II22 Extrait du tableau des [xij] (avant modi­­fi­­ca­­tion)

(modi­­fi­­ca­­tion uni­­taire)

22 2 33 3 II I 00 0 99 999 9 30 IIII II11 11 1119 19 19 30 30

Extrait du tableau Extrait du nou­­veau des coûts [cij] tableau des [xij] (après modi­­fi­­ca­­tion maximale)

D’autre part, nous sommes en mesure d’é­­valuer le coût mar­­gi­­nal dI,3 de l’opé­­ra­­ tion, puisque nous connais­­sons les coûts uni­­taires de tran­­sport pour toutes les rela­­ tions. On a donc dans ce cas : d I, 3 5 cI3 1 cII2 2 cI2 2 cII3 5 161 1 39 2 27 2 78 5 100 2 105 5 2 5,

153

Chapitre 4 • Appli­­ca­­tions des graphes à la recherche opé­­ra­­tion­­nelle

ce qui signi­­fie que l’on va gagner 5 uni­­tés moné­­taires pour chaque unité tran­­spor­­tée sur la rela­­tion (I, 3). Sur com­­bien d’uni­­tés ce gain peut-­­­il por­­ter ? On le voit, à la rela­­tion (I, 2) : on ne peut sous­­traire que 9 uni­­tés tran­­spor­­tées (au lieu de 28 sur (II, 3)) ; le gain maximal résul­­tant de cet échange por­­tera donc sur 9 uni­­tés et se mon­­tera à 9 3 5 5 45 uni­­tés moné­­taires. Remar­­quons d’ailleurs que seul un échange libé­­rant l’une des rela­­tions aupa­­ra­­vant sélec­­ tion­­nés conduit de nou­­veau à une solu­­tion de base (dans le cas présent, avec 15 zéros). Mais à quelle modi­­fi­­ca­­tion le trans­­fert uni­­taire envi­­sagé ci­­­dessus correspond-­­­il sur le graphe de la figure 4.42 ? Sim­­ple­­ ment à l'ajout d’un arc (I, 3), ce qui engendre un cycle et un seul dans l’arbre repré­­sen­­ta­­tif de la solu­­tion, comme nous l’avons sou­­li­­gné en 4.7.1. Ce cycle (I, 3), (3, II), (II, 2), (2, I) a deux arêtes par­­cou­­rues dans le sens des flèches, deux autres par­­cou­­ Figure 4.43 rues en sens inverse (fig. 4.43). Du point de vue des quan­­ti­­tés, la loi de Kirchhoff est respectée : il y a équi­­libre entre 11 et 21, en cha­­cun des quatre som­­mets I, 3, II et 2. Monétairement, on ajoute les coûts d’une unité sur les arcs (I, 3) et (II, 2) et l’on en retranche les coûts sur les arcs (I, 2) et (II, 3) : on retrouve exac­­te­­ment 25. Mais la struc­­ture d’arbre va encore faci­­li­­ter les cal­­culs. En effet, un arbre consti­­tue un graphe sur lequel on peut défi­­nir, fixant arbitrairement le poten­­tiel d’un sommet et les dif­­fé­­rences de poten­­tiel entre les som­­mets adja­­cents, un ensemble unique de poten­­ tiels (à une constante addi­­tive près). La prop­­riété est tri­­viale et résulte d’ailleurs du fait que, dans un arbre, il existe une chaîne et une seule entre deux som­­mets quel­­conques. Consi­­dé­­rons alors le réseau « élec­­trique » formé par l’arbre de la figure 4.44 ; sur chaque arc, indi­­quons la dif­­fé­­rence de poten­­tiel qui est égale au coût uni­­taire de tran­­s­port sur la rela­­tion cor­­res­­pon­­dante. De plus, fixons arbitrairement à 0 le poten­­tiel du som­­ met II  : UII 5 0. On peut ainsi, de proche en proche, cal­­cu­­ler le poten­­tiel de tous les autres som­­mets, notés Ui pour les som­­mets du pre­­mier niveau et Vj pour ceux du second niveau ; pour tout arc (i, j) de l’arbre on aura : Vj 2 Ui 5 cij. Mais alors, lorsque nous rajou­­tons la rela­­tion (I,3), Figure 4.44 du coût 61, on peut écrire : d I, 3 5 UI 1 cI, 3 2 V3 5 12 1 61 2 78 5 25. et plus pré­­ci­­sé­­ment : d i, j 5 Ui 1 cij 2 Vj 5 cij 2 1 Vj 2 Ui 2 for­­mule qui per­­met­­tra de cal­­cu­­ler rapi­­de­­ment le coût mar­­gi­­nal di,j de toute relation (i, j) inutilisée c-à-d telle que xij 5 0, sans avoir à rechercher le cycle de subs­­ti­­tution (ce qui peut être long). Ainsi, pour la rela­­tion (I, 6) : d I, 6 5 UI 1 cI, 6 2 V6 5 12 1 35 2 66 5 219, Ui

154

i

j

Vj

4.9  Les pro­­grammes de tran­­sport

ce qui résume en fait le cal­­cul ci-­­­dessous asso­­cié au cycle de subs­­ti­­tution de la rela­­ tion (I, 6), qui est de lon­­gueur 8 ; on obtient ce cycle en rajou­­tant l’arc (I, 6) à l’arbre ci-­­­dessus : [I, 6, IV, 5III, 4, II, 2, I] : d I,6 5 cI6 2 cIV6 1 cIV5 2 cIII5 1 cIII4 2 cII4 1 cII2 2 cI2 5 35 2 49 1 40 2 53 1 24 2 28 1 39 2 27 5 219. Nous pro­­fi­­terons de toutes ces remarques dans les appli­­ca­­tions. On en déduit une méthode d’amé­­lio­­ra­­tions suc­­ces­­sives de la solu­­tion ini­­tiale, per­­met­­tant de pas­­ser d’une solu­­tion de base à une autre solu­­tion de base plus éco­­ no­­mique, qui néces­­si­­tera, à chaque étape, de déter­­mi­­ner tous les coûts mar­­gi­­naux di,j, pour les rela­­tions inuti­­li­­sées, et, d’après les quan­­ti­­tés déplaçables sur le ­cycle de subs­­ti­­tution, le gain total cor­­res­­pon­­dant à cha­­cun de ceux qui sont néga­­tifs. On choi­­sira à chaque pas la meilleure modi­­fi­­ca­­tion pos­­sible. Si tous les di, j deviennent non-­­­négatifs, on peut mon­­trer qu’on a atteint l’opti­­mum. Cet opti­­mum sera unique si tous les di, j sont stric­­te­­ment posi­­tifs à la der­­nière étape ; il y aura plu­­sieurs solu­­tions équi­­va­­lentes si cer­­tains sont égaux à 0. La démons­­tra­­tion de la conver­­gence de cet algo­­rithme, qui serait très aisée si le coût total du tran­­sport dimi­­nuait stric­­te­­ment à chaque étape, est com­­pro­­mise par le fait qu’il se pré­­sente, comme on le verra ci-­­­dessous, des risques de retour à une solu­­ tion déjà ren­­contrée anté­­rieu­­re­­ment, si le coût total de tran­­sport ne varie pas pour cer­­tains échanges : il s’agit du cas de solu­­tions dégénérées. Remarque.  Jus­­qu’à présent nous n’avons pas encore envi­­sagé le cas où la solu­­tion ini­­tiale obte­­nue ne serait pas une solu­­tion de base, c’est-­­­à-dire com­­ por­­te­­rait plus de zéros qu’il n’en faut. Tel serait le cas du pro­­blème consi­­déré plus haut si l’on échan­­geait la pre­­mière ligne contre la troi­­sième et la pre­­mière colonne contre la cin­­quième avant d’appli­­quer la méthode du coin Nord-­­­Ouest. i

j 5

1

2

3

4

6

ai

© Dunod – Toute reproduction non autorisée est un délit.

III 53 67 56 92 26 54 14

j 5

i

2

3

4

6

I

II 65 23 39 78 28 42 32 IV 40 71 43 91 67 49 9 bj 14 9 11 28 6 3

II IV bj 14

ai 14

III 14

I 65 12 27 61 49 35 18

Tableau des cij (réordonné)

1 9

2 9

18

9 28

11 28

32

2 4

5

6

5

9

Tableau des xij

On obtien­­drait une solu­­tion dégénérée, avec 16 zéros au lieu de 15, dont le graphe com­­pren­­drait deux sous-­­­arbres, ce qui ne per­­met­­trait plus de cal­­cu­­ler tous les di,j. Bien entendu, une telle solu­­tion dégénérée peut se pré­­sen­­ter aussi à une ité­­ra­­ tion quel­­conque de la réso­­lu­­tion du pro­­blème. 155

Chapitre 4 • Appli­­ca­­tions des graphes à la recherche opé­­ra­­tion­­nelle

La manière de remé­­dier à cette situa­­tion est simple. Elle consiste à « reconnec­­ter » les sous-­­­arbres, de manière à obte­­ nir de nou­­veau un arbre. Dans le présent cas (fig. 4.45), cela peut se faire de 8 de façons différentes ; par exemple on peut ajou­­ter un arc (III, 1), repré­­ sen­­tant le tran­­sport fic­­tif d’une quan­­tité très petite, e . 0. Une fois l’opti­­mum obtenu, on fera e 5 0. On obtient alors une solution de base, non dégénérée, pour laquelle on peut calculer les 15 di,j. Figure 4.45

i

j

5

1

III

14



I

9

2

6

9

18 28

IV 14 9  

4

14   2

II

3

11

28

2

32

4

5

6

5

9

Remarque pra­­tique impor­­tante.  Lorsque, dans un pro­­blème dégé­­néré, si un di,j est négatif et si la seule quan­­tité associée dépla­­çable vaut ε, il ne fau­­drait pas en conclure que l’on a atteint l’opti­­mum et l’on doit pour­­suivre l’algo­­ rithme (en veillant à ne pas retom­­ber sur une solu­­tion anté­­rieure). On montre en effet que le cri­­tère d’optimalité pour une solu­­tion est que tout coût mar­­gi­­nal di,j de liai­­son non employée 1 xij 5 0 2 doit être posi­­tif ou nul.

Réso­­lu­­tion pra­­tique du pro­­blème de tran­­sport

• Pre­­mière phase (obten­­tion d’une solu­­tion de base ini­­tiale) Il est bien évident que si la solu­­tion de base ini­­tiale du pro­­blème a été construite en tenant compte des faits éco­­no­­miques, c’est-­­­à-dire en essayant d’obte­­nir un coût total peu élevé, la pro­­cé­­dure d’opti­­mi­­sation décrite au para­­graphe pré­­cé­­dent risque d’être consi­­dé­­ra­­ble­­ment abré­­gée. Les pra­­ti­­ciens ont pro­­posé un très grand nombre d’heu­­ris­­tiques pour par­­ve­­nir à fournir une bonne pre­­mière solu­­tion de base. Com­­men­­çons par les heu­­ris­­tiques « gour­­mandes » : cer­­tains ont pré­­co­­nisé la pro­­cé­­dure MINI­­­LI, consis­­tant à affec­­ter la quan­­tité maximale à la rela­­tion de coût unitaire mini­­mal dans la pre­­mière ligne, puis à la rela­­tion de coût mini­­mal, parmi celles qui sub­­sistent, dans la seconde ligne, etc., ou ­encore MINICO (méthode cor­­res­­pon­­dante uti­­li­­sant, cette fois, les coûts ­unitaires mini­­maux en colonne). Plus uti­­le­­ment, l’affec­­ta­­tion successive aux rela­­tions de coûts mini­­maux crois­­sants du tableau, en par­­tant du mini­­mum minimorum, a ses par­­ti­­sans : c’est la pro­­cé­­dure MINITAB. 156

4.9  Les pro­­grammes de tran­­sport

© Dunod – Toute reproduction non autorisée est un délit.

À titre de com­­pa­­rai­­son, le lec­­teur pourra essayer MINI­­­LI, qui donne un coût de 3 734 (pas de chance on a obtenu 3 700 par la méthode du coin Nord-Ouest !), MINICO, pour laquelle le coût tombe à 3 658 et MINITAB qui four­­nit 3 634. La fai­­ blesse de ces trois heu­­ris­­tiques gour­­mandes pro­­vient du fait qu’on ne modi­­fie pas le pro­­blème en ajou­­tant à tous les coûts d’une même ligne i (ou d’une même colonne j) une même quan­­tité ui (resp. vj) ce qui revient à rem­­pla­­cer cij par crij 5 cij 1 ui 1 vj. Cette trans­­for­­ma­­tion bou­­le­­verse le clas­­se­­ment des coûts cij par valeur crois­­sante : par exemple on peut ajouter 1 000 à tous les coûts d’une même ligne (ou d’une même colonne) sans changer le classement des solutions suivant leur coût total. La méthode sui­­vante n’a pas le même inconvé­­nient. Une pro­­cé­­dure, géné­­ra­­le­­ment très effi­­cace, est celle de la dif­­fé­­rence maximale (ou heu­­ris­­tique de Balas-­­­Hammer) qui favo­­rise l’obten­­tion d’une solu­­tion ini­­tiale ayant un coût total assez proche de l’opti­­mum. Elle consiste à cal­­cu­­ler pour chaque ran­­gée (ligne ou colonne), la dif­­fé­­rence entre le coût le plus petit et le coût immé­­dia­­te­­ment supé­­rieur ou égal. Puis à affec­­ter à la rela­­tion de coût le plus petit dans la ran­­gée pré­­sen­­tant la dif­­fé­­rence maximale, la quan­­tité la plus éle­­vée pos­­sible, ce qui a pour effet de « satu­­rer » une ligne ou une colonne. Ensuite, de reprendre le pro­­ces­­sus jus­­qu’à ce que toutes les ran­­gées soient satu­­rées. Si on sature à chaque fois une seule ligne ou une seule colonne, sauf au der­­nier pas, où plu­­sieurs ran­­gées sont satu­­rées à la fois, on uti­­lise bien n 1 m 2 1 rela­­tions, dans le cas géné­­ral, et l’on obtient une solu­­tion de base. S’il arrive que l’on sature à la fois une ligne et une colonne (excluons le der­­nier pas), alors la solu­­ tion sera dégénérée. Ci-dessus, on note D, les différences en ligne et Dc, celles en colonne. Don­­nons les pre­­miers pas pour la matrice pro­­po­­sée plus haut : 1er pas 3 4



III 67

56 92 24

IV 71

43 91 67

40 49

9

bj

9

11

28

6

14

5

73

c

11

12 17

4

13

7

53 54 14

16

67 56 92 53 54

8

1

IV 71 43 91 40 49 bj 9 11 28 14 5

9

3

5

II

23 39 78

29

III

28 65 42 32

23

65 42 32

12 27 61

39 78

II

3

j

15

I

49 83 35 18

12

6

83 35 18

15

27 61

I

5



1



2

a1

i

ai

1

2e pas 3 5

c

2



11 12 17 13

6

67

7

•  1er pas. La dif­­fé­­rence maximale 53 2 24 5 29 est rela­­tive à la ligne III. À la rela­­ tion (III,4), cor­­res­­pon­­dant au coût le plus petit de la ligne III, on affecte la quan­­tité 6, ce qui sature la colonne 4, qui disparaît alors du problème. Obser­­va­­tions. On remarque que c’est une idée de « regret » qui consti­­tue le fon­­de­­ ment éco­­no­­mique de la méthode ; plu­­tôt que d’affec­­ter le maxi­­mum d’uni­­tés à ­tran­­ 157

Chapitre 4 • Appli­­ca­­tions des graphes à la recherche opé­­ra­­tion­­nelle

spor­­ter à la rela­­tion qui com­­porte le plus petit coût de la matrice (ici I, 1), puis pas­­ser à celle à laquelle cor­­res­­pond le plus petit coût dans le reste du tableau, et ainsi de suite (méthode MINITAB), on pré­­fère rechercher une rela­­tion telle que, si l’on ne lui affecte pas la quan­­tité la plus grande pos­­sible, on sera obligé, dans la suite du pro­­blème, d’affec­­ter cette quan­­tité, à une ou plu­­sieurs rela­­tions de coût de beau­­coup supé­­rieur. Puis on passe à la rela­­tion qui est dési­­gnée par la dif­­fé­­rence maximale dans le tableau res­­tant (cf tableau “2e pas” ci-dessus), et ainsi de suite. •  2e pas. Sur la matrice réduite, la dif­­fé­­rence maximale est 17, ce qui amène à affec­­ter la quan­­tité 18 à la rela­­tion (I, 3) satu­­rant ainsi la ligne I, qui disparaît du problème.

j

i

1



2

3e pas 3 5

j

i

2 3 39 78

18

16

32

1

14

3

18

16

III 67 56

92 53 54

32

1

III 56 92

53 54

IV 71 43

91 40 49

14

3

IV 43 91

40 49

bj� 9 11 10 Dc 44 4 13

65

ai� �D � ℓ

42

II 23

39 78

6

4e pas 5 6 65 42

14

5

13

7

49

II



bj�

11

10

14

5

Dc

4

13

13

7

ai� ��Dℓ

40

•  3e pas. Le tableau res­­tant fait appa­­raître la dif­­fé­­rence maximale 44, cor­­res­­pon­­dant à la rela­­tion (II,1). On y affec­­te la quan­­tité 9, ce qui sature la colonne 1, qui disparaît. •  4e pas. Au qua­­trième pas, le tableau res­­tant se pré­­sente comme il est indi­­qué ci-dessus. Deux colonnes four­­nissent la même dif­­fé­­rence maximale : 13 ; les rela­­ tions (II,3) et (IV, 5) leur cor­­res­­pondent, avec des affec­­ta­­tions pos­­sibles de 10 et 9 res­­pec­­ti­­ve­­ment. Trois solu­­tions sont ici accep­­tables, que nous ne dis­­cu­­te­­rons pas plus à fond : 1)  affec­­ter 10 à la rela­­tion (II, 3) ; 2)  affec­­ter 9 à la rela­­tion (IV, 5) ; 3)  faire les deux affec­­ta­­tions en même temps (elles sont indépendantes). Tout à fait arbi­­trai­­re­­ment,(1) déci­­dons d’affec­­ter 9 à la rela­­tion (IV,5), ce qui sature la ligne IV. À ce moment, grâce aux affec­­ta­­tions pra­­ti­­quées, quatre rela­­tions sont uti­­li­­sées et quatre ran­­gées sont satu­­rées. En conti­­nuant ainsi, on affecte ensuite 11 en (II, 2), 5 en (II, 6), 5 en (III, 5), 7 en (II, 3) et, enfin, 3 en (III, 3). 1. Les autres affec­­ta­­tions condui­­sant ici direc­­te­­ment à l’opti­­mum, nous pri­­ve­­raient de la pos­­si­­bi­­ (1) lité d’expo­­ser concrè­­te­­ment la deuxième phase de réso­­lu­­tion des pro­­blèmes de tran­­sport. 158

4.9  Les pro­­grammes de tran­­sport

Le plan de tran­­sport [xij] qui en résulte : j i

1

2

I II

3

4

6

9

11

7

5

3

6

IV 9

11

ai 18

18

III bj

5

28

6

32

5

14

9

9

14

5

73

a) véri­­fie les équa­­tions (4.1), (4.2) et (4.3) : 1) a ai 5 18 1 32 1 14 1 9 5 73 4

i 51 6

a bj 5 9 1 11 1 28 1 6 1 14 1 5 5 73 et a ai 5 a bj j51

2) a x1j 5 0 1 0 1 18 1 0 1 0 1 0 5 18 5 a1 6

j51 6

a x2j 5 9 1 11 1 7 1 0 1 0 1 5 5 32 5 a2, etc. j51 4

3) a xi1 5 0 1 9 1 0 1 0 5 9 5 b1 i 51 4

a xi2 5 0 1 11 1 0 1 0 5 11 5 b2 i 51 4

a xi3 5 18 1 7 1 3 1 0 5 28 5 b3, etc. © Dunod – Toute reproduction non autorisée est un délit.

i 51

b) en outre, le nombre des rela­­tions inuti­­li­­sées est de 15 ; il est pré­­ci­­sé­­ment égal à : nm 2 1 n 1 m 2 1 2 5 6 3 4 2 1 6 1 4 2 1 2 5 24 2 9 5 15, la solu­­tion obte­­nue n’est donc pas dégénérée. On a bien affaire à une solu­­tion de base. Ce que l’on véri­­fie en tra­­çant le graphe biparti asso­­cié : c’est bien un arbre.

• Deuxième phase : optimisa­­tion de la solu­­tion de base par la méthode du « stepping-­­­stone ».

On ne sait pas encore si la solu­­tion obte­­nue opti­­mise la fonc­­tion éco­­no­­mique (4.4) : z 5 a a cij # xij 5 12x11 1 27x12 1 61x13 1 c i

j

1 23x21 1 39x22 1

c 1 40x45 1 49x46.

159

Chapitre 4 • Appli­­ca­­tions des graphes à la recherche opé­­ra­­tion­­nelle

On peut cal­­cu­­ler la valeur de la fonc­­tion éco­­no­­mique pour les affec­­ta­­tions obte­­ nues ; on trouve :

z 5 61 3 18 1 23 3 9 1 39 3 11 1 78 3 7 1 42 3 5 1 92 3 3 1 24 3 6 1 53 3 5 1 49 3 9 5 3 535. Cette solu­­tion est donc, comme on s’y atten­­dait, meilleure que celle du coin Nord-­­­Ouest (3 700). Pour reconnaître si la solu­­tion de base ini­­tiale, obte­­nue par une pro­­cé­­dure quel­­conque, est opti­­male, il faut bien entendu cal­­cu­­ler les coûts mar­­gi­­ naux rela­­tifs aux rela­­tions inuti­­li­­sées. Il est bon d’avoir recours, à cet effet, au cal­­cul des dif­­fé­­rences de poten­­tiel sur l’arbre repré­­sen­­ta­­tif de la solu­­tion ; c’est ce que nous ferons en reve­­nant à l’exemple ci-­­­dessus, pour le plan de transport ci-dessus. Grâce à l’arbre de la figure 4.46, on pourra cal­­cu­­ler tous les coûts mar­­gi­­naux par la formule : d i,j 5 Ui 1 ci,j 2 Vj 5 cij 2 ( Vj 2 Ui ) Par exemple :

d I, 1 5 31 1 12 2 37 5 6 ; d I, 2 5 31 1 27 2 53 5 5 ; etc.



Figure 4.46

j

i I II III IV Vj

9

1

2

12

27

23

11 39

d II, 4 5 14 1 28 2 24 5 18 ; etc.

3 18 61 7 �

4

5

6

49

83

35 �

67

78 28 65 � 3 5 6 56 92 24 53

71

43

37

53

91 92

67 24

40 53

5

42 � 54 42

Ui 31 14 0 13

56

Il n’est d’ailleurs pas néces­­ saire de tra­­cer la figure elle­­­même ; on peut opé­­rer direc­­te­­ ment sur la matrice, en ayant soin de divi­­ser chaque case en deux par­­ties, l’une, celle du bas, rece­­vant (de façon défi­­ni­­tive) le coût de tran­­sport de la rela­­ tion cor­­res­­pon­­dante et l’autre, celle du haut, la quan­­tité affec­­ tée dans la solu­­tion courante (chaque quan­­tité xij a été cer­­clée dans le tableau c­ i-­­­contre).

Pour cal­­cu­­ler les poten­­tiels Ui et Vj, on choi­­sit alors la rela­­tion affec­­tée du coût le plus grand [ici, (III, 3)] et l’on écrit 0 (ori­­gine des poten­­tiels) face à la ligne III, sur la droite de la matrice, ce qui revient à poser UIII 5 0 ; on a alors : cIII, 3 5 V3 2 UIII

160

4.9  Les pro­­grammes de tran­­sport

d’où :

© Dunod – Toute reproduction non autorisée est un délit.

V3 5 cIII, 3 2 0 5 92 2 0 5 92, et, par suite, l’ins­­crip­­tion du poten­­tiel 92 sous la colonne 3 au bas de la matrice. Du fait que UIII 5 0, on a immé­­dia­­te­­ment V4 5 24 et V5 5 53, puisque les rela­­tions (III,4) et (III,5) sont affec­­tées. Ayant V5 5 53, on obtient :

UIV 5 V5 2 cIV, 5 5 53 2 40 5 13, et ainsi de suite. La pro­­cé­­dure équi­­vaut très exac­­te­­ment à celle que l’on a pra­­ti­­ quée sur l’arbre de la figure 4.48, mais elle évite le recours à un son tracé. Pour cal­­cu­­ler alors le coût mar­­gi­­nal d’une liai­­son inuti­­li­­sée, on la repère d’abord sur le tableau (la par­­tie haute de la case étant vide), par exemple (III, 2), et l’on lit cIII,2 5 56. On a : d III, 2 5 UIII 1 cIII, 2 2 V2 5 0 1 56 2 53 5 3, car on remarque que UIII est le poten­­tiel lu sur la ligne III à droite de la matrice, alors que V2 est celui que l’on lit au bas de la colonne 2, sous la matrice. Le lec­­teur s’exer­­cera à cal­­cu­­ler de cette façon tous les coûts mar­­gi­­naux. Il en trou­­vera un seul néga­­tif (c’est-­­­à-dire un seul éco­­no­­mi­­que­­ment inté­­res­­sant) ; c’est : d III, 6 5 0 1 54 2 56 5 22. Il faut ensuite, pour tout coût mar­­gi­­nal néga­­tif δij, rechercher le cycle de subs­­ti­­ tution per­­met­­tant de réa­­li­­ser la modification du tran­­sport auquel il cor­­res­­pond. C’est le cycle unique qu’on obtient en rajoutant à l’arbre (Fig. 4.46) l’arête [ij] ; quand un tel cycle ne comporte que 4 arêtes, il est aisé de le trouver directement sur le tableau des [xij] de la solution de base courante. Dans le cas présent, posons un signe 1 dans la case (III,6) ; il nous faut un signe – en (II,6), un signe 1 en (II,3) et, enfin, un signe – en (III,3). On contrôle d’ailleurs que 54 2 42 1 78 2 92 5 22. Les cases mar­­quées sont asso­­ciées aux arcs du cycle de subs­­ti­­tution. Cherc­­hons main­­te­­nant la quan­­tité maximale déplaçable : les signes –, dans les cases (II, 6) et (III, 3), per­­mettent de consta­­ter que si l’on peut dimi­­nuer de 5 la quan­­tité ins­­crite en (II,6), en revanche on ne peut dimi­­nuer que de 3 celle por­­tée en (III,3) : fina­­le­­ment, il est seule­­ment pos­­sible de dépla­­cer trois uni­­tés. Le résul­­tat de cette subs­­ti­­tution sera 3 3 ( 22 ) 5 26, c’est-­­­à-dire un gain total de 6. La solu­­tion obte­­nue alors a pour coût : 3 529 ; nous mon­­trons plus bas qu’elle est opti­­male. S’il y avait plu­­sieurs di, j néga­­tifs, on cal­­cu­­le­­rait le gain rela­­tif à cha­­cune des subs­­ti­­ tutions pos­­sibles et l’on choi­­si­­rait de réa­­li­­ser celle qui apporte le gain total le plus grand. Par­­fois, plu­­sieurs subs­­ti­­tutions sont pos­­sibles simul­­ta­­né­­ment et rien n’empêche alors de les réa­­li­­ser ensemble ; il suf­­fit qu’elles se tra­­duisent par des cycles de subs­­ ti­­tution indé­­pen­­dants (sans arcs ni sommets com­­muns). Exer­­cice.  Le lec­­teur pourra s’exer­­cer, en par­­tant de la solu­­tion de base obte­­nue par la méthode du coin Nord-­­­ouest. Il trou­­vera 5 coûts mar­­gi­­naux néga­­tifs, dont les deux plus inté­­res­­sants peuvent être réa­­li­­sés ensemble, fai­­sant tom­­ber le coût total du ­tran­­sport à 3 607. Après avoir effec­­tué ces subs­­ti­­tutions simul­­ta­­nées, il trou­­vera encore deux subs­­ti­­tutions com­­pa­­tibles, l’ame­­nant au coût total de 3 529. 161

Chapitre 4 • Appli­­ca­­tions des graphes à la recherche opé­­ra­­tion­­nelle

Reve­­nons à notre pro­­blème. Effec­­tuons les subs­­ti­­tutions indi­­quées plus haut. Nous obte­­nons un nou­­veau plan de tran­­sport (cf tableau ci-dessous), véri­­fiant tou­­ jours les équa­­tions (4.1), (4.2) et (4.3) et réa­­li­­sant une solu­­tion de base. Après avoir posé UII 5 0 puis éta­­bli le sys­­tème de poten­­tiels, cal­­cu­­lons les coûts mar­­gi­­naux : d I, 1 5 7 1 12 2 23 5 6  ; d I, 2 5 17 1 27 2 39 5 5, etc. Ils sont tous posi­­tifs et l’on a donc atteint l’opti­­mum. Le coût de tran­­sport total est : 3 529 5 coût de la solu­­tion anté­­rieure – coût fourni par la subs­­ti­­tution 5 3 535 2 6. NB : dans le tableau sui­­vant, pour toute rela­­tion (i, j) inuti­­li­­sée (c’est-à-dire telle que xij 5 0 2 , on a donné la valeur numé­­rique du dij asso­­cié : il figure en haut de la case ij, pré­­cédé de son s­ igne, qui ici est le signe 1, car l’opti­­mum est atteint. i

j

1

2

3

4

5

6

6 5 18 54 59 10 12 27 61 49 83 35 16 24 11 9 10 2 II 23 39 78 28 65 42 32 29 2 6 5 3 III 67 56 92 24 53 54 8 49 5 14 56 9 IV 71 43 91 67 40 49 I

Vj

23

39

78

12

41

42

Ui

Ui

i

17 0 12 1

j

Vj

1

23

17

I

2

39

0

II

3

78

-12

III

4

12

1

IV

5

41

6

42

L’opti­­mum est unique du fait que tous les coûts mar­­gi­­naux sont, ici, stric­­te­­ment posi­­tifs. Si cer­­tains étaient nuls, on ferait appa­­raître d’autres solu­­tions équi­­va­­lentes (grâce à des subs­­ti­­tutions de gain nul). En clair : xI,3 5 18 ; xII,1 5 9 ; xII,2 5 11 ; xII,3 5 10 ; xII,6 5 2 ; xIII,4 5 6 ; xIII,5 5 5 ; xIII,6 5 3 ; xIV,5 5 9 pour un coût mini­­mal de 3 529 uni­­tés moné­­taires. Remarque(1) 1  La for­­mu­­la­­tion de ce pro­­gramme de tran­­sport en tant que pro­­ gramme linéaire amène à intro­­duire N 5 m 3 n 5 24 variables puis à écrire M 5 m 1 n 5 10 contraintes (certes liées par une rela­­tion de dépen­­dance ; on peut sup­­pri­­mer l’une d’entre elle, ce qui amène à Mr 5 m 1 n 2 1 5 9 contraintes) ; ces contraintes étant en éga­­lité, on doit intro­­duire une variable arti­­fi­­cielle dans cha­­cune d’elles pour obte­­nir une base (arti­­fi­­cielle) ini­­tiale ; la réso­­lu­­tion de la « pre­­mière phase » par l’algo­­rithme du sim­­plexe condui­­rait (après un mini­­mum de m 1 n 2 1 itérations) à une base réa­­li­­sable. L’avan­­ tage de la méthode du stepping-­­­stone, que nous venons de décrire, est d’évi­­ter toutes les ité­­ra­­tions de cette « pre­­mière phase », puisqu’on part d’une base réa­­ li­­sable ; de plus, si l’on uti­­lise la méthode de Balas-­­­Hammer, la base réa­­li­­sable ini­­tiale, on le sait, sera « bonne », c’est-­­­à-dire que l’on évi­­tera de nom­­breuses ité­­ra­­tions lors de la « seconde phase » pour atteindre l’optimum. (1) 1. La compréhension de cette remarque sup­­pose la connais­­sance du cha­­pitre 8 du présent livre. 162

4.10  Recherches arbo­­res­­centes

Remarque 2  L’heu­­ris­­tique de Balas-­­­Hammer a fourni ici une solu­­tion de coût 3 535, très voi­­sin du coût opti­­mal 3 529 : ceci en illustre la qua­­lité…

4.10 Recherches

arbo­­res­­centes

© Dunod – Toute reproduction non autorisée est un délit.

4.10.1  Pro­­blème du voya­­geur de com­­merce Ima­­gi­­nons un voya­­geur de com­­merce qui doit visi­­ter de nom­­breuses villes (cha­­cune une fois et une seule) et reve­­nir à son point de départ. Si l’on dis­­pose de la matrice des coûts de tran­­sport de ville à ville (qu’on pourra sup­­po­­ser non symé­­trique pour cor­­ser le pro­­blème), le voya­­geur de com­­merce recherche un cir­­cuit hamiltonien de valeur mini­­male. Pen­­dant de longues années, de nom­­breux chercheurs ont tenté d’inven­­ter un algo­­ rithme conduisant à l’optimum de ce pro­­blème (NP-difficile) ; on n’en trou­­vait pas et l’on n’était pas cer­­tain de la vali­­dité des solu­­tions ingé­­nieuses pro­­po­­sées par les uns et les autres pour des exemples numé­­riques rela­­ti­­ve­­ment impor­­tants pour l’époque, modestes aujourd’hui... (entre 40 et 50 villes). Bien entendu, ces solu­­tions étaient obte­­nues à l’aide d’heu­­ris­­tiques, car il n’était pas ques­­tion d’énu­­mé­­rer les 1 n 2 1 2  ! cir­­cuits pos­­sibles. C’est alors que Little et al. (1963) ont appli­­qué au pro­­blème une pro­­cé­­dure de recherche arbo­­res­­cente, qui a per­­mis d’obte­­nir des solu­­tions opti­­males, mais en des temps de cal­­cul par­­fois assez long. De nom­­breux per­­fec­­tion­­ne­­ments sont appor­­tés conti­­nuel­­le­­ment à des méthodes de ce type, qui sortent du cadre de cet ouvrage ; on résout désormais, optimalement, des problèmes dépassant le millier de villes. En fait de recherches arbo­­res­­centes, nous trai­­tons ici d’abord l’exemple du voya­­geur de com­­merce (mais sans abor­­der la conver­­gence et la finitude de la méthode employée). Signa­­lons, que les ini­­tiales SEP., très employées en France pour carac­­té­­ri­­ser la classe des méthodes arborescentes mises au point, en 1964-65, par B. Roy et son équipe, signi­­fient «  Sépa­­ra­­tion et Eva­­lua­­tion Pro­­gres­­sives  ». Nous allons jus­­te­­ ment don­­ner un exemple d’un prin­­cipe de sépa­­ra­­tion dicho­­to­­mique, consis­­tant à aug­­men­­ter ou non un ensemble d’un élé­­ment, en mesu­­rant l’effi­­ca­­cité de l’une ou de l’autre déci­­sion par l’éva­­lua­­tion de la borne infé­­rieure d’un coût. Tan­­dis que les ini­­tiales SES : « Sépa­­ra­­tion et Eva­­lua­­tion Séquen­­tielle » cor­­res­­pondent à une stra­­ té­­gie de par­­cours en pro­­fon­­deur d’abord (cf. cha­­pitre 3) ; la méthode boo­­léenne de Faure et Malgrange (1962) ­employait déjà impli­­ci­­te­­ment cette stra­­té­­gie (elle est décrite en fin de cha­­pitre 1). Pour évi­­ter des lon­­gueurs, l’exemple choisi, à n 5 5 villes, sera celui d’un voya­­geur de com­­merce demeu­­rant dans la ville A et dési­­reux de se rendre une fois et une seule dans les villes B, C, D, Ε et F, avant de reve­­nir chez lui. La matrice des coûts est don­­née ci-­­­après (les tirets rem­­placent des valeurs infi­­nies) ; il s’agit évi­­dem­­ment de déter­­mi­­ner, parmi les 1 n 2 1 2 ! 5 120 cir­­cuits hamiltoniens, celui de valeur mini­­male. L’énumération exhaustive de 1 n 2 1 2  ! est impraticable dès que n . 15 ou 20 (cf chapitre 2). 163

Chapitre 4 • Appli­­ca­­tions des graphes à la recherche opé­­ra­­tion­­nelle

Nous divi­­se­­rons les ité­­ra­­tions en blocs.

A  6 7 3 1 3 1 B 7  8 2 9 7 2 C 5 10  10 1 7 1 D 8 6 5  5 1 1 E 7 7 6 7  4 4 F 9 8 8 5 3  3  . Matrice des coûts : à 1 droite de chaque ligne on a figuré son plus petit coût.



– Bloc A.  On sous­­trait le plus petit élé­­ment de chaque ran­­gée (d’abord dans les ­lignes, puis dans les colonnes) ; la ­matrice résul­­tante com­­porte donc au moins un zéro par ran­­gée : alors il se pour­­rait que l’opti­­mum ait un coût nul. Cette opé­­ra­­tion (comme dans les pro­­blèmes d’affec­­ta­­tion) conduit à un pro­­blème équi­­va­­lent. – Bloc B.  On cal­­cule une borne infé­­rieure de la valeur du cir­­cuit de valeur mini­­male cherché. Elle est égale à la somme des valeurs sous­­traites de la matrice, au bloc A. En effet, si la matrice 3 per­­met­­tait de trou­­ver un cir­­ cuit hamiltonien uti­­li­­sant uni­­que­­ment des arcs de coût 0, la valeur de ce cir­­cuit coïn­­ci­­de­­rait avec la somme des coûts retran­­chés à la matrice ini­­tiale. Dans le cas présent, cette borne vaut : B 5 1 1 1 2 1 1 1 1 1 4 1 3 2 1 1 3 1 3 1 2 2 5 20.

A B C D E F

La racine R de l’arbo­­res­­cence rece­­vra la valuation B 5 20.

– Bloc C.  On cal­­cule les coûts de A B C D E F A B C D E F subs­­ti­­tution (ou regrets) des arcs A  5 6 2 0 2 A  2 4 2 0 2 de coût nul (ou “zéros”) et l’on retient le maxi­­mum d’entre eux B 5  6 0 7 5 B 2  4 0 7 5 (ou l’un d’eux en cas d’éga­­lité). C 4 9  9 0 6 C 1 6  9 0 6 Expli­­quons d’abord cette ­notion D 7 5 4  4 0 D 4 2 2  4 0 de regret  : soit, par exemple, le 0 qui value l’arc (B, D) dans la E 3 3 2 3  0 E 0 0 0 3  0 ­matrice 3 ; il signi­­fie qu’on a inté­­ F 6 5 5 2 0  F 3 2 3 2 0  rêt à ­employer l’arc (B, D) qui, a 3 3 2 0 0 0 3. Après sous­­trac­­tion priori, est à recom­­man­­der, étant 2. Après sous­­trac­­tion du plus petit élé­­ment de coût rési­­duel le plus petit sur la du plus petit élé­­ment de chaque ligne. Au de chaque colonne de la ligne B. Com­­bien paierait-­­­on en dessous de chaque matrice 2. plus si l’on déci­­dait de ne pas l’uti­­ colonne on a figuré son li­­ser ? Comme il fau­­drait tout de plus petit coût. même pas­­ser par les points B et D, la meilleure solu­­tion consis­­te­­rait à atteindre D par (A, D) : coût 2 – ou encore (F, D) : coût 2 – et à quit­­ter B par (B, A) : coût 2. La somme de ces deux minima, soit 2 1 2 5 4, donne le regret (mini­­mal) rela­­tif au zéro de la rela­­tion (B, D). On déter­­mine ainsi le coût de subs­­ti­­tution (regret) pour tout zéro de la ­matrice 3 (cf matrice 4). Puis, on choi­­sit d’exa­­mi­­ner les consé­­quences qu’auraient la sélec­­tion ou le rejet de l’arc cor­­res­­pon­­dant au plus fort Figure 4.47 des regrets mini­­maux. 164

4.10  Recherches arbo­­res­­centes

En cas d’éga­­lité, on se donne une règle arbi­­traire pour rete­­nir l’un des regrets maximaux, par exemple le pre­­mier ren­­contré lors du balayage de la matrice ligne après ligne. On obtient ainsi la matrice 4, où le regret maximal, soit 4, concerne l’arc (B, D). – Bloc D.  On sait à présent, après que l’on ait pro­­cédé à l’éva­­lua­­tion des ­regrets des zéros d’une matrice, et cela à toute étape du pro­­blème, qu’il reste p­ os­­sible : - soit de renon­­cer à uti­­li­­ser l’arc (X, Y), de regret p(X, Y), le plus fort parmi les regrets. Alors la valeur de ce regret doit être ajou­­tée à la borne infé­­rieure, ­cal­­cu­­lée plus haut, pour obte­­nir une borne du coût des solu­­tions évi­­tant l’arc (X, Y) ; - soit de choi­­sir d’uti­­li­­ser l’arc (X, Y). Restent à exa­­mi­­ ner les consé­­quences de ce choix.

A B C D E F A

2

B

4 1

C D

2

E 1 2 2

0

F

2

4. Regrets cor­­res­­pon­­

C’est ainsi que se déve­­lop­­pera l’arbo­­res­­cence décri­­vant dant aux zéros de la la recherche, par la créa­­tion d’un som­­met de type I : NON matrice 3. (X, Y) et d’un som­­met de type II : (X, Y) : cf Fig 4.48. D’où déjà, pour le som­­met de type I, cor­­res­­pon­­dant à la déci­­sion NON (X, Y), c’est­­­à-dire la déci­­sion de renon­­cer à l’uti­­li­­sation de (X, Y), ce qui a le surcoût p(X, Y) : B :5 B 1 p ( X, Y ) . Dans l’exemple cité, la borne du som­­met NON (B, D) de l’arbo­­res­­cence est : B :5 20 1 4 5 24.

© Dunod – Toute reproduction non autorisée est un délit.

– Bloc E. 1)  Au contraire, si l’on inclut l’arc (X, Y), il faut sup­­pri­­mer la ligne X et la ­colonne Y, de la matrice des coûts réduits, puis, par l’intro­­duc­­tion d’un coût ­infini, inter­­ dire l’arc qui fer­­me­­rait un cir­­cuit « para­­site » (c’est-­­­à-dire un cir­­cuit qui serait de lon­­gueur infé­­rieure à n, donc non hamiltonien). Notons que les cir­­cuits para­­sites n’existent plus lorsque l’on est par­­venu à une matrice de dimen­­sion 1 3 1. A B C E F 2)  Il faut main­­te­­nant véri­­fier s’il existe tou­­jours dans la matrice réduite (matrice 5) un zéro par ligne et par colonne. ­Sinon, ­faire A  2 4 0 2 appa­­raître un zéro par ran­­gée (matrice 5 bis). Dans l’exemple, C 1 6  0 6 il n’y a rien à modi­­fier ; ici la matrice 5 bis se confond avec la D 4  2 4 0 matrice 5. 3)  La borne du som­­met (X, Y) de l’arbo­­res­­cence devient, le cas échéant : B :5 B 1 somme des élé­­ments ôtés au § 2 du bloc E. Dans notre exemple, elle reste égale à 20.

E 0 0 0  0 F 3 2 3 0  Matrice 5 et 5 bis

4) Si l’on a atteint une matrice 1 3 1, arrê­­ter les cal­­culs, car on a la solu­­tion. ­Sinon pas­­ser au bloc sui­­vant. 165

Chapitre 4 • Appli­­ca­­tions des graphes à la recherche opé­­ra­­tion­­nelle

C’est ce qu’on doit faire en pour­­sui­­vant le trai­­te­­ment de l’exemple. – Bloc F. 1)  À cette étape du pro­­blème, ins­­pec­­ter d’abord les bornes des som­­mets pen­­dants de l’arbo­­res­­cence et choi­­sir le som­­met pendant de borne la plus petite. Dans l’exemple, on a NON (B, D)  : 24, et (B, D)  : 20 ; on choi­­sit donc (B, D) (cf. fig. 4.48). 2)  Si ce som­­met cor­­res­­pond au type II : (X, Y), il faut reve­­nir au bloc C. Sinon, il faut aller au bloc G. Dans l’exemple, on ira au bloc C, puisque l’on a choisi un som­­met de type II : (B, D). – Bloc G.  Il s’agit du cas où l’on a choisi, au bloc F, d’après la valeur de sa borne, un som­­met de type I, c’est-­­­à-dire NON (X, Y). Dans ce cas, inter­­dire l’arc (X, Y) en met­­tant un coût infini dans la case cor­­res­­ pon­­dante de la matrice des coûts réduits. Puis sous­­traire le plus petit élé­­ment de la ligne X et de la colonne Y, ce qui cor­­res­­pond à l’emploi de la subs­­ti­­tution envi­­sa­­gée au bloc C. Enfin, reve­­nir au bloc C. (Ne pas modi­­fier la borne du som­­met de l’arbo­­res­­cence asso­­cié : la somme des élé­­ments ainsi retran­­chés est égale au regret du zéro en case (X, Y), soit p(X, Y), qui a déjà été rajouté à la borne : cf. bloc D.) Suite de l’exemple (le lec­­teur consul­­tera en paral­­lèle l’arbo­­res­­cence p. 169).

Figure 4.48

Rap­­pe­­lons d’abord la situa­­tion à laquelle la pro­­cé­­dure nous a conduit. Le pro­­blème se ­ramène main­­te­­nant à l’étude de la matrice 5 bis (qui se confond avec la matrice 5, dans l’exemple). Sur l’arbo­­res­­cence, on a créé les deux som­­mets NON (B, D) et (B, D) ; le pre­­mier a 24 pour valeur de la borne infé­­rieure, le second, 20. On a choisi le som­­ met (B, D), de type II ; il faut donc reve­­nir au bloc C pour évaluer les regrets des zéros de la matrice.

1.  Prendre en consi­­dé­­ra­­tion le regret concer­­nant (A,  E), qui est un des regrets maximaux dans la matrice 6. À par­­tir du som­­met (B, D), de A B C F A B C E F borne 20, déve­­lop­­per la branche C 1 6 � 6 �1 2 de l’arbo­­res­­cence : NON (A, E), la A D 4 � 2 0 1 borne pas­­sant à 20 1 2 5 22. C E � 0 0 0 2 Sup­­pri­­mer la ligne A et la D colonne E de la matrice 5 bis, inter­­ E 1 2 2 F 3 2 3 � �2 0 dire l’arc (E, A) qui fer­­me­­rait un 2 F cir­­cuit para­­site, d’où la matrice 7. Matrice 6. Matrice 7. Cette matrice ne com­­por­­tant R  egrets des zéros de la plus un zéro sur cha­­cune de ses matrice 5 ran­­gées, il faut sous­­traire 1 de la ligne C et 2 de la ligne F. 166

4.10  Recherches arbo­­res­­centes

© Dunod – Toute reproduction non autorisée est un délit.

On obtient la matrice 7 bis et la ­borne du som­­met (A, E) : 20 1 3 5 23.

A B C F

A B C E F

C 0 5  5 Choi­­sir le som­­met pen­­dant de la borne la D 4  2 0 plus petite : c’est NON (A, E), de type I, qui E  0 0 0 a pour borne 22. 2.  Il faut évi­­dem­­ment reprendre la matrice F 1 0 1  5 (matrice des coûts rela­­tive au som­­met de l’arbo­­res­­cence pré­­cé­­dant celui que l’on vient Matrice 7 bis. d’adop­­ter) pour exé­­cu­­ter le bloc G, d’où la matrice 8. Reve­­nir à C.

A  0 2  0 C 1 6  0 6

Matrice 9. Éva­­lua­­tion des regrets des zéros de la matrice 8. Le plus petit vaut 2, la borne de NON (D, F) devient 22 1 2 5 24. Matrice 10. Obtenue par sup­­pres­­sion de la ligne D et de la colonne F de la matrice 8, puis inter­­dic­­tion de (F, B) : elle comporte au moins un zéro dans toute rangée : Borne de 1 D, F 2 5 22 1 0 5 22. Cal­­cul du min{24, 24, 23, 22} 5 22 pour trouver le sommet pendant de plus petite borne. Repar­­tir de (D, F), qui est de type II. 3.  La matrice 11 donne les regrets de la matrice 10 ; le plus fort vaut 3 : (F, E). Borne de NON 1 F, E 2 5 22 1 3 5 25. Borne de 1 F, E 2 5 22 1 1 5 23 (pas­­sage de la matrice 12 à la matrice 12 bis). Cal­­cul du min{24, 24, 25, 23, 23} 5 23. On décide de conti­­nuer à par­­tir de (F, E), de borne 23. L’arc parasite est (E, B). 4.  La matrice 13 des regrets de la matrice 12 bis désigne (A, B), de plus fort regret : Borne de NON 1 A, B 2 5 23 1 7 5 30. Borne de 1 A, B 2 5 23 1 0 (matrice 14). Cal­­cul du min{24, 24, 25, 30, 23, 23} 5 23. On décide de conti­­nuer à par­­tir de (A, B) de borne 23. L'arc parasite est (E, B). 5.  La matrice 15 laisse le choix entre (C, A) et (E, C). Arbi­­trai­­re­­ment : choix de (C, A). Borne de NON 1 F, E 2 5 23 1 ` 5 1 `. Borne de 1 C, A 2 5 23 1 0 (matrice 16).

D 4  2 4 0 E 0 0 0  0 F 3 2 3 0  Matrice 8.

A B C F

A B C E F 0

A

A  0 2  C 1 6  0 E 0 0 0  F 3  3 0

0 1

C D

2

E 1 0 2

0 2

F

Matrice 9. (regrets)

A B C E 2

A

1

C

Matrice 10. l’arc (F, B) fermerait un circuit parasite avec les arcs déjà retenus : (B, D) puis (D, F )

E 1 0 2 3

F

Matrice 11. (regrets)

A B C A  0 2 C 1 6  1 E 0



0

Matrice 12.

A B C A

A  0 2 C 0 5  E 0  0 Matrice 12 bis : on a soustrait à la ligne C

A C

0 

7

C 5 E 0

A B C



0

2

Matrice 13. (regrets)

Matrice 14.

167

Chapitre 4 • Appli­­ca­­tions des graphes à la recherche opé­­ra­­tion­­nelle

La matrice 16 est de for­­mat 1 3 1  : se gar­­der d’inter­­dire l’arc (E, C). 6.  Prendre (E, C). Borne de NON 1 E, C 2 5 23 1 ` 5 1 `. Borne de 1 E, C 2 5 23 1 0 5 23.

A C C E

C E 0

 

Matrice 15. regrets

Matrice 16.

On a le cir­­cuit hamiltonien : (B, D, F, E, C, A, B), de valeur 23. 6 bis.  On remarque que la borne du som­­met (A, E) est éga­­le­­ment 23 ; au numéro 5, on a d’ailleurs choisi de conti­­nuer en pre­­nant (E, C) parce que la matrice 16 était de for­­mat 1 3 1. Il se pour­­rait donc qu’il existe un autre cir­­cuit hamiltonien uti­­li­­sant l’arc (A, E). Reve­­nant à la matrice 7 bis, on éva­­lue les regrets de ses zéros et l’on choi­­sit ainsi l’arc (C, A). On a ensuite : borne de NON 1 C, A 2 5 23 1 6 5 29 et borne de 1 C, A 2 5 23 1 1 5 24. A B C F C 6

D

2

E

0 1 0

F

1

Matrice 17 regrets.

B C F

D



2 0

E 0  0 F 0 1 

B C F

D



1 0

E 0  0 F 0 0 

1 Matrice 18.

Matrice 18 bis.

Toutes les autres bornes des som­­mets pen­­dants de l’arbo­­res­­cence étant main­­te­­ nant stric­­te­­ment supé­­rieures à 23, on est sûr que le cir­­cuit opti­­mal trouvé en 6. est unique. La figure 4.49 repré­­sente l’arbo­­res­­cence par­­cou­­rue ; elle est rela­­ti­­ve­­ment peu éten­­due par rap­­port à l’arbo­­res­­cence « poten­­tielle », celle asso­­ciée aux 1 6 2 1 2 !, soit 120 cir­­cuits hamiltoniens.

Remarque.  Une méthode « gour­­mande » pour résoudre de manière appro­­ chée (heuristiquement) cet exemple consis­­te­­rait à choi­­sir un arc de plus petit coût, soit (A, E) de coût 1, puis, sans remettre en cause ce choix, choi­­sir un arc de plus petit coût com­­pa­­tible avec (A, E) : (D, F) de coût 1, et ainsi de suite. On choi­­sit ensuite (B, D) de coût 2, puis (C, A) de coût 5 ; on doit alors obli­­ga­­toi­­re­­ment prendre les arcs (chers !) (E, B) de coût 7 et (F, C) de coût 8, pour fer­­mer un cir­­cuit hamiltonien : (A, E, B, D, F, C, A) de coût 24, non optimal. Certes sur cet exemple, l’heu­­ris­­tique gour­­mande a fourni une solu­­tion proche de l’opti­­mum : ce n’est pas le cas en géné­­ral, même sur des graphes de petite taille. Ainsi, pour l’exemple ci-­­­dessous, cf. Matrice 19, cette méthode gour­­ mande four­­nit le cir­­cuit hamiltonien (A, B, D, C, A) de coût 103... alors que l’opti­­mum (A, D, B, C, A) a pour coût seule­­ment 5.

168

4.10  Recherches arbo­­res­­centes

Le lec­­teur obser­­vera que dans la méthode gour­­ mande, le choix ini­­tial d’arcs de faible coût peut avoir pour consé­­quence (impli­­ca­­tion) l’obli­­ga­­tion de prendre des arcs « chers » en fin d’appli­­ca­­tion de la méthode.

A

B

C

A 

1

1

D 2

B

1



2

1

C

1

D

2

2 1

 100 100 

Matrice 19.

© Dunod – Toute reproduction non autorisée est un délit.

Figure 4.49  L’opti­­mum est le cir­­cuit hamiltonien (B, D, F, E, C, A, B) de coût 23.

Il se pose alors la ques­­tion de l’exis­­tence d’une garan­­tie de per­­for­­mance pour une heu­­ris­­tique don­­née : peut-­­­on bor­­ner l’écart entre le coût de l’opti­­mum c* d’un pro­­ blème et le coût cH d’une solu­­tion heu­­ris­­tique cal­­cu­­lée en temps poly­­no­­mial ? Pour le pro­­blème du voya­­geur de com­­merce, on peut mon­­trer qu’il n’existe pas de garan­­tie rela­­tive de per­­for­­mance, c’est-­­­à-dire qu’il existe des exemples (ou ins­­tances) pour les­­quels le rap­­port cH/c* peut être rendu arbi­­trai­­re­­ment grand. En revanche, pour ce même pro­­blème du voya­­geur de com­­merce, si le ­tableau des coûts (ou dis­­tances) est eucli­­dien, c’est-­­­à-dire s’il véri­­fie les inéga­­li­­tés ­tri­­an­­gu­­laires : pour tout i, j, k : cij < cik 1 ckj, comme le font les dis­­tances géo­­gra­­phiques, il existe des heu­­ris­­tiques pour les­­quelles cH ^ c* < 2, quelle que soit l’ins­­tance consi­­dé­­rée.

Mon­­trons com­­ment pour un autre pro­­blème, une heu­­ris­­tique gour­­mande (glou­­tonne) four­­nit une garan­­tie de per­­for­­mance. Le pro­­blème appelé bin packing s’énonce de la façon sui­­vante : n objets non sécables, l’objet i étant de taille ai, 0 , ai , A, sont à pla­­cer dans un nombre mini­­mal de boîtes toutes de taille A (la somme des tailles des objets 169

Chapitre 4 • Appli­­ca­­tions des graphes à la recherche opé­­ra­­tion­­nelle

pla­­cés dans une même boîte ne doit pas être supé­­rieure à la taille de la boîte). Un algo­­rithme glou­­ton four­­nis­­sant une solu­­tion appro­­chée au pro­­blème est le sui­­vant : ini­­tia­­le­­ment, les objets sont triés par taille décrois­­sante : a1 > a2 > c> ai > ai 1 1 > c> an ; les objets sont pla­­cés un à un, sui­­vant l’ordre résul­­tant du tri effec­­tué, dans la pre­­mière boîte pou­­vant les conte­­nir ; si aucune boîte déjà utilisée ne peut conte­­nir un objet, l’objet est placé dans une boîte vide. Le mathéma­­ti­­cien amé­­ri­­cain D. Johnson a mon­­tré que, pour toute ins­­tance du pro­­blème de bin packing, en notant cH le nombre de boîtes uti­­li­­sées par une solu­­tion four­­nie par l’algo­­rithme pré­­cé­­dent et c* le nombre de boîtes uti­­li­­sées dans une solu­­tion opti­­male, la garan­­tie rela­­tive de per­­for­­mance de l’algo­­rithme véri­­fie : 11 cH /c* < . Ainsi en uti­­li­­sant l’heu­­ris­­tique gour­­mande pro­­po­­sée pour résoudre ce pro­­ 9 blème, nous sommes assu­­rés que le nombre de boîtes uti­­li­­sées n’excède, dans le pire des cas, que de 22,3 % le nombre minimal de boîtes néces­­saires. Le lec­­teur inté­­ressé par ce sujet pourra consul­­ter l’ouvrage [11] entiè­­re­­ment dédié à l’approxi­­ma­­tion des pro­­blèmes algorithmiquement dif­­fi­­ciles. Après avoir intro­­duit la notion de recherche arbo­­res­­cente en résol­­vant par l’algo­­ rithme de Little et al. le pro­­blème du voya­­geur de com­­merce (pra­­ti­­cable pour des ins­­ tances ayant moins d’une cen­­taine de villes), nous pré­­ci­­sons main­­te­­nant cette notion et l’appli­­quons à deux autres pro­­blèmes. Le pro­­blème du sac à dos et la pro­­gram­­ma­­tion linéaire en nombres entiers (ce der­­nier pro­­blème, déjà ren­­contré au cha­­pitre 1, est ­repris ulté­­rieu­­re­­ment dans le cha­­pitre 8 consa­­cré à la pro­­gram­­ma­­tion linéaire).

4.10.2  Recherches arbo­­res­­centes par sépa­­ra­­tion et ­éva­­lua­­tion Nous allons main­­te­­nant pré­­sen­­ter une méthode géné­­rale per­­met­­tant la réso­­lu­­tion des pro­­blèmes d’opti­­mi­­sation NP-­­­difficiles. Nous avons déjà signalé que seules des ­méthodes énu­­mé­­ra­­tives (qu’on souhaite le moins exhaustives possible) sont à même de résoudre ces pro­­blèmes : la méthode ­décrite ici a pour objec­­tif de mener à bien l’énu­­mé­­ra­­tion des solu­­tions réa­­li­­sables du pro­­blème traité en essayant d’évi­­ter le plus pos­­sible l’énu­­mé­­ra­­tion expli­­cite de cet e­ nsemble. Dans cet ouvrage, cette méthode est illus­­trée à tra­­vers trois exemples très clas­­ siques de la recherche opé­­ra­­tion­­nelle. Deux de ces exemples ayant pour cadre la pro­­gram­­ma­­tion linéaire en nombres entiers sont situés plus bas dans ce para­­graphe ; le troi­­sième, l’algo­­rithme dû à Little et al., résol­­vant le pro­­blème du voya­­geur de com­­merce vient d’être pré­­senté, a servi d’introduction pour ce paragraphe. Le prin­­cipe de la méthode est le sui­­vant : •  Une arbo­­res­­cence est déve­­lop­­pée au cours de l’algo­­rithme. Chaque som­­met de cette arbo­­res­­cence cor­­res­­pond à un sous-­­­ensemble de solu­­tions admis­­sibles (on dit aussi  : réa­­li­­sables) du pro­­blème ; la racine de l’arbo­­res­­cence cor­­res­­pon­­dant à l’ensemble de toutes les solu­­tions réa­­li­­sables. •  Éva­­lua­­tion.  Pour cha­­cun des som­­mets Si, une valeur E(Si) appe­­lée éva­­lua­­tion du som­­met, est cal­­cu­­lée via, le plus sou­­vent, une fonc­­tion appe­­lée fonc­­tion ­d’éva­­lua­­tion. Pour un pro­­blème de maxi­­mi­­sa­­tion, cette valeur E(Si) doit être un majo­­rant de la ­valeur de la meilleure solu­­tion conte­­nue dans l’ensemble des solu­­tions cor­­res­­pon­­dant au som­­ 170

4.10  Recherches arbo­­res­­centes

met de l’arbo­­res­­cence Si. Au contraire, E(Si) doit être un mino­­rant de cette valeur dans un pro­­blème de minimi­­sa­­tion (comme dans l’algorithme de Little et al.). •  Si l’éva­­lua­­tion E(Si) d’un som­­met est infé­­rieure (pour un pro­­blème de maxi­­mi­­ sa­­tion, supérieure pour un pro­­blème de minimi­­sa­­tion) à la valeur d’une solu­­tion connue du pro­­blème, le som­­met Si n’est pas exploré. Dans ce cas, Si ne peut pas conte­­nir une solu­­tion meilleure que celle déjà obte­­nue. •  Lorsque pour un som­­met Si la (ou l’une des) meilleure(s) solu­­tion(s) de l’ensemble cor­­res­­pon­­dant est obte­­nue ou bien s’il appa­­raît que Si ne contient pas de solu­­tion, l’explo­­ra­­tion de Si est ter­­mi­­née et Si n’a pas de suc­­ces­­seur dans l’arbo­­res­­cence. •  Sépa­­ra­­tion.  Lorsque l’on n’est pas dans le cas pré­­cé­­dent, l’ensemble Si est séparé en plusieurs sous-­­­ensembles non vides, chacun comportant moins de solutions que Si, tels que toute solu­­tion admis­­sible conte­­nue dans Si soit conte­­nue dans l’un de ces sous-­­­ensembles. Les suc­­ces­­seurs de Si dans l’arbo­­res­­cence sont les som­­mets cor­­res­­ pon­­dant à ces ensembles. Une stra­­té­­gie de par­­cours de l’arbo­­res­­cence doit être adop­­tée. Les stra­­té­­gies les plus cou­­ram­­ment uti­­li­­sées sont soit un par­­cours en pro­­fon­­deur d’abord ou “S.E.S” (cf. cha­­pitre 3), soit un par­­cours où le som­­met à explo­­rer en priorité est celui (ou l’un de ceux) pos­­sé­­dant la meilleure éva­­lua­­tion parmi ceux non encore explo­­rés, ou “S.E.P”. Les prin­­cipes de sépa­­ra­­tion et d’éva­­lua­­tion dépendent du pro­­blème traité. L’effi­­ ca­­cité de la méthode dépend for­­te­­ment des prin­­cipes uti­­li­­sés. En pra­­tique, on consi­­ dé­­rera comme de « bonnes » éva­­lua­­tions, des éva­­lua­­tions rapides à obte­­nir et dont l’écart avec la solu­­tion opti­­male du sous-­­­problème asso­­cié au som­­met Si consi­­déré est petit. Par ailleurs, le déve­­lop­­pe­­ment d’une heu­­ris­­tique rapide per­­met­­tant d’obte­­ nir une bonne solu­­tion appro­­chée au pro­­blème est géné­­ra­­le­­ment néces­­saire à l’effi­­ca­­ cité de la méthode. En effet, plus petit est l’écart entre l’éva­­lua­­tion d’un ensemble de solu­­tions et la valeur d’une solu­­tion admis­­sible connue, plus grandes sont les pos­­si­­ bi­­li­­tés d’arrê­­ter après peu d’étapes (sépa­­ra­­tions) l’explo­­ra­­tion du som­­met consi­­déré et plus rapide sera la résolution du problème.

© Dunod – Toute reproduction non autorisée est un délit.

Pro­­blème du sac à dos (knapsack) Le pro­­blème nommé sac à dos ou encore knapsack est l’un des pro­­blèmes les plus clas­­siques de la recherche opé­­ra­­tion­­nelle. Il peut se pré­­sen­­ter in­­­for­­mel­­lement de la façon sui­­vante. Un ran­­don­­neur dis­­pose d’un sac à dos de volume B ; il a devant lui n objets cha­­cun de volume donné ai ; cha­­cun de ces objets a une uti­­lité que le ran­­don­­ neur note ci, ci étant un nombre entier posi­­tif ; le volume cumulé des n objets étant supé­­rieur au volume du sac, le ran­­don­­neur devra choi­­sir parmi les objets ceux qu’il empor­­tera ; son objec­­tif est de maxi­­mi­­ser la somme des uti­­li­­tés des objets empor­­tés. Le pro­­blème se for­­ma­­lise de la manière sui­­vante : max a ci xi n

µ

i 51 n

a ai xi < B

i 51

xi H 5 0, 1 6 , 1 < i < n. 171

Chapitre 4 • Appli­­ca­­tions des graphes à la recherche opé­­ra­­tion­­nelle

Dans la solu­­tion obte­­nue, les objets mis dans le sac à dos sont ceux pour les­­quels la variable cor­­res­­pon­­dante xi vaut 1. Ceux pour les­­quels xi vaut 0 ne sont pas ­empor­­tés. Sans perte de géné­­ra­­lité, dans tout ce qui suit, nous sup­­po­­se­­rons que ai < B pour tout indice i et que : a ai . B (sinon on pourrait mettre les n objets dans le sac !). n

i 51

Nous sup­­po­­se­­rons aussi que ces objets sont indi­­cés de sorte que : cn c2 c1 > > c> . a1 a2 an et sont donc classés par utilité décroissante. Pour illus­­trer l’effi­­ca­­cité des méthodes par sépa­­ra­­tion et éva­­lua­­tion, consi­­dé­­rons le pro­­blème du sac à dos sui­­vant : max z 5 15x1 1 18x2 1 4x3 1 7x4 1 2x5 1 x6 3x1 1 4x2 1 x3 1 3x4 1 x5 1 x6 < 5 xi H 5 0, 1 6 , 1 < i < 6. On vérifie que 15/3 . 18/4 . 4/1 . 7/3 . 2/1 . 1/1. La figure 4.50 repré­­sente l’arbo­­res­­cence que nous allons obte­­nir au long de la réso­­lu­­tion de cet exemple :



Figure 4.50  Arbo­­res­­cence obte­­nue pour la réso­­lu­­tion du pro­­blème de sac à dos.

Une borne supé­­rieure de la solu­­tion opti­­male, l’éva­­lua­­tion de la racine de l’arbo­­ res­­cence, est obte­­nue en “relâ­­chant” les contraintes d’inté­­grité sur les variables, c’est­­­à-dire en rem­­pla­­çant les contraintes xi 5 0 ou xi 5 1 par : 0 < xi < 1. Dans le cas spé­­ci­­fique du pro­­blème du sac à dos, la solu­­tion opti­­male du pro­­gramme linéaire cor­­ res­­pon­­dant est faci­­le­­ment obte­­nue sans même uti­­li­­ser les algo­­rithmes pré­­sen­­tés dans le cha­­pitre 8. Pour notre exemple, nous obte­­nons la solu­­tion relâchée (continue) : 172

4.10  Recherches arbo­­res­­centes

© Dunod – Toute reproduction non autorisée est un délit.

x1 5 1, x2 5 1/2, x3 5 x4 5 x5 5 x6 5 0, de valeur z 5 24. L’éva­­lua­­tion de la racine S0 sera donc E(S0) 5 24. Cette solu­­tion conti­­nue obte­­nue n’étant pas entière (x2 5 0,5), l’ensemble S0 des solu­­tions admis­­sibles est séparé en S1 : l’ensemble des solu­­tions telles que x2 5 1, et S2 : l’ensemble des solu­­tions telles que x2 5 0. Le pro­­blème asso­­cié à S1 est alors : max z 5 15x1 1 4x3 1 7x4 1 2x5 1 x6 3x1 1 x3 1 3x4 1 x5 1 x6 < 1 • xi H 5 0, 1 6 , 1 < i < 6. Celui asso­­cié à S2 est : max z 5 15x1 1 4x3 1 7x4 1 2x5 1 x6 3x1 1 x3 1 3x4 1 x5 1 x6 < 5 • xi H 5 0, 1 6 , 1 < i < 6. Ces deux pro­­blèmes sont aussi des pro­­blèmes de sac à dos, nous pou­­vons leur appli­­quer le même trai­­te­­ment que celui effec­­tué à S0. Nous obte­­nons, pour S1, la solu­­tion opti­­male en variables conti­­nues : 1 x1 5 , x2 5 1, x3 5 x4 5 x5 5 x6 5 0, de valeur z 5 23, 3 et, pour S2, la solu­­tion en variables conti­­nues : 1 x1 5 1, x2 5 0, x3 5 1, x4 5 , x5 5 x6 5 0, de valeur z 5 21. 3 Pour ces deux pro­­blèmes les solu­­tions obte­­nues ne sont pas entières, les ensembles cor­­res­­pon­­dant devront être à nou­­veau sépa­­rés. En appli­­quant le prin­­cipe d’explo­­ra­­tion consis­­tant à exa­­mi­­ner en priorité l’ensemble ayant la meilleure éva­­lua­­tion, S1 est par­­titionné en S3, l’ensemble des solu­­tions telles que x1 5 1 et S4, l’ensemble des solu­­tions telles que x1 5 0. Le pro­­ blème asso­­cié à S3 n’admet pas de solu­­tion, la contrainte de capa­­cité du sac à dos étant vio­­lée ; l’explo­­ra­­tion de S3 est ter­­mi­­née. Le pro­­blème asso­­cié à S4 est : max z 5 4x3 1 7x4 1 2x5 1 x6 x3 1 3x4 1 x5 1 x6 < 1 • x1 H 5 0, 1 6 , 1 < i < 6

qui admet pour solu­­tion en variables conti­­nues (x1 5 0, x2 5 1,) x3 5 1, x4 5 x5 5 x6 5 0, de valeur z 5 22. Cette solu­­tion est entière, l’explo­­ra­­tion de S4 se ter­­mine et une solu­­tion réa­­li­­sable du pro­­blème ini­­tial est trou­­vée. Nous reve­­nons alors au som­­met S2. Son éva­­lua­­tion E(S2) 5 21 est infé­­rieure à la valeur de la solu­­tion que nous venons de trouver, l’ensemble des solu­­tions conte­­nues dans S1, qu’on sait être a priori moins inté­­res­­santes que celles conte­­nues dans S4, n’est donc pas exploré. Tous les som­­mets de l’arbo­­res­­cence ont alors été explo­­rés, l’algo­­rithme s’arrête. La solu­­tion opti­­male (unique) est celle obte­­nue pour S4 : x1 5 0, x2 5 1, x3 5 1, x4 5 x5 5 x6 5 0 d’uti­­lité 22, de volume (maximal) 5. 173

Chapitre 4 • Appli­­ca­­tions des graphes à la recherche opé­­ra­­tion­­nelle

Remar­­quons qu’à l’opti­­mum, le sac-à-dos n’est pas néces­­sai­­re­­ment plein comme c’est le cas ici. Ceci résulte du caractère non sécable des objets.

Pro­­gram­­ma­­tion linéaire en nombres entiers L’exemple que nous allons trai­­ter est celui pré­­senté dans le cha­­pitre consa­­cré aux appli­­ca­­tions de l’algèbre de Boole au cha­­pitre 1. Consi­­dé­­rons le pro­­gramme linéaire (PL) en nombres entiers sui­­vant : max z 5 3x1 1 8x2 x1 1 4x2 < 20 x1 1 2x2 < 11 e 3x1 1 2x2 < 22 x1, x2 H N À cha­­cun des som­­mets de l’arbo­­res­­cence est asso­­cié un pro­­gramme linéaire(1) ­obtenu en ajou­­tant une contrainte sup­­plé­­men­­taire au pro­­blème-père. L’éva­­lua­­tion cal­­cu­­lée est la valeur opti­­male du pro­­gramme linéaire continu cor­­res­­pon­­dant (voir le cha­­pitre 8 pour la réso­­lu­­tion de pro­­gramme linéaire continu). L’arrêt de l’explo­­ra­­ tion se fait lorsque la solu­­tion du pro­­gramme linéaire continu se trouve être entière ou bien s’il n’admet pas de solu­­tion. Dans le cas contraire, l’ensemble des solu­­tions asso­­cié au som­­met consi­­déré est séparé en deux de la manière sui­­vante : si xi est une variable de valeur ν non entière dans la solu­­tion conti­­nue, le pre­­mier sous-­­­ensemble de solu­­tions est obtenu en ajou­­tant la contrainte xi < :v; et le second sous-­­­ensemble est obtenu en ajou­­tant la contrainte xi > 5 x1, x2 H N La solu­­tion conti­­nue de ce pro­­blème donne x1 5 0, x2 5 5 de coût z 5 40. Cette solu­­tion étant entière, l’explo­­ra­­tion du som­­met S1 s’arrête. Une pre­­mière solu­­tion réa­­li­­sable de coût 40 est obte­­nue. S2, le second suc­­ces­­seur de la racine S0, est obtenu en ajou­­tant la contrainte x2 < 4 au pro­­blème ini­­tial. Le pro­­gramme asso­­cié à S2 est alors : max z 5 3x1 1 8x2 x1 1 4x2 < 20 x1 1 2x2 < 11 f 3x1 1 2x2 < 22 x2 < 4 x1, x2 H N La solu­­tion conti­­nue de ce pro­­blème donne x1 5 3, x2 5 4 de coût z 5 41. Cette solu­­tion est entière, de coût égal à l’éva­­lua­­tion de S0, elle est donc opti­­male.

175

Chapitre 4 • Appli­­ca­­tions des graphes à la recherche opé­­ra­­tion­­nelle

Exer­­cices I Pro­­gram­­ma­­tion dyna­­mique

**4.1  Pro­­blème du sac à dos : réso­­lu­­tion par la pro­­gram­­ma­­tion dyna­­mique Un alpiniste choisit les aliments qu’il va emporter dans son sac-à-dos. Pour chacun des aliments possibles, on connaît sa valeur nutritive ci et son poids ai Nous consi­­dé­­rons le pro­­gramme linéaire en variables 0 2 1 sui­­vant : L’alpiniste peut porter au plus b kilos. Il veut maximiser la valeur nutritive globale des aliments emportés. max z 5 a cixi n

a aixi < b i 51

n

µ

i 51

x i H 5 0, 1 6 , 1 < i < n; x i 5 1 si l’aliment i est emporté, = 0 sinon. où les coefficients ai, ci, b sont entiers et posi­­tifs. L’objec­­tif de cet exer­­cice est de mon­­trer com­­ment résoudre ce pro­­blème en uti­­li­­sant un prin­­cipe de pro­­gram­­ma­­tion dyna­­mique. Le pro­­blème est décom­­posé en n phases de la façon sui­­vante : à la phase k, 1 < k < n, on cal­­cule la valeur nutritive optimale du sac chargé à d kilos en choisissant des aliments seulement parmi les k premiers aliments zk ( d ) 5 maxb a ci xi ` a aixi < d, xi H 5 0, 1 6 r k

k

i 51

i 51

pour toutes les valeurs de d, 0 < d < b. On note z(b) la solu­­tion (valeur nutritive) opti­­male du pro­­blème de sac-­­­à-dos à résoudre, en considérant ici les n aliments. 1.  Mon­­trer que z(b) 5 zn(b). Notre objec­­tif est alors de cal­­cu­­ler zn(b) à par­­tir des valeurs de zn 2 1 qui seront elles-­­­mêmes cal­­cu­­lées à par­­tir de zn 2 2 et ainsi de suite. 2.  Mon­­trer que la récur­­rence est ini­­tia­­li­­sée par z1 1 d 2 5 b

c1 si a1 < d 0 si a1 . d

(ici k = 1 : on ne considère que le premier aliment) 3.  Sup­­po­­sons qu’à la phase k, pour la valeur d, xk 5 1 soit dans une solu­­ tion opti­­male. Mon­­trer que d 2 ak > 0. En déduire que dans ce cas que : zk 1 d 2 5ck 1 zk 2 1 1 d 2 ak 2 . 176

Exercices

4.  Sup­­po­­sons main­­te­­nant qu’à la phase k, pour la valeur d, xk 5 0 soit dans une solu­­tion opti­­male. Mon­­trer que dans ce cas zk 1 d 2 5 zk 2 1 1 d 2 . 5.  Déduire des ques­­tions pré­­cé­­dentes que pour k 5 2, c, n et d 5 0, c, b on a : si ak . d, z 1d2    zk 1 d 2 5 b k 2 1 si ak < d. max 1 zk 2 1 1 d 2 , ck 1 zk 2 1 1 d 2 ak 2 2

6.  Consi­­dé­­rons l’exemple sui­­vant : max 16x1 1 19x2 1 23x3 1 28x4 5 z 2x1 1 3x2 1 4x3 1 5x4 < 7 x1, x2, x3, x4 H 5 0, 1 6 Appli­­quer l’algo­­rithme de pro­­gram­­ma­­tion dyna­­mique à cet exemple. On pourra tracer le graphe des décisions pour illustrer le calcul de l’optimum.

© Dunod – Toute reproduction non autorisée est un délit.

***4.2 Déter­­mi­­na­­tion de la plus longue sous-­­­séquence ­com­­mune à deux séquences, par appli­­ca­­tion de la pro­­gram­­ma­­tion ­dyna­­mique

Soit deux séquences (ou mots) A 5 a1 can et B 5 b1 cbk. On dira que B 5 b1 cbk est une sous-­­­séquence de A, s’il existe une suite d’indices i1, c, ik stric­­te­­ment crois­­sante (mais non néces­­sai­­re­­ment consé­­cu­­tifs) extraite de 1, c, n telle que, pour tout j 5 1, c, k, on ait  : aij 5 bj. Par exemple, la séquence B 5 cnam est une sous-­­­séquence de la séquence A 5 reconstituames. Étant données deux séquences A et B, Ζ est une sous-­­­séquence com­­mune de A et B si et seule­­ment si Ζ est une sous-­­­séquence de A et de B. Par exemple Ζ 5 mai est une sous-­­­séquence com­­mune de A 5 com­­bi­­na­­toire et B 5 opti­­mi­­sation. Le pro­­blème que l’on veut résoudre est la déter­­mi­­na­­tion d’une sous-­­­séquence com­­mune à deux séquences don­­nées, qui soit de lon­­gueur maximale. Ce pro­­blème admet de nom­­breuses appli­­ca­­tions, notam­­ment dans l’étude de ­séquences d’ADN en bio­­lo­­gie. 1.  Mon­­trer que le nombre de sous-­­­séquences d’une séquence de lon­­gueur n est 2n (par conven­­tion la séquence vide, de lon­­gueur nulle, est une sous­­­séquence de toute séquence). En déduire la com­­plexité d’un algo­­rithme qui cal­­cu­­le­­rait toutes les sous-­­­séquences de A et de B et les com­­pa­­re­­rait deux à deux pour déter­­mi­­ner une plus longue sous-­­­séquence com­­mune. L’objet de cet exer­­cice est de conce­­voir un algo­­rithme de pro­­gram­­ma­­tion dyna­­mique de com­­plexité moindre. Soit une séquence A 5 a1 can, on défi­­nit le ième pré­­fixe de A, pour i 5 0, c, n, par Ai 5 a1 cai. Par exemple, si A 5 modé­­li­­sa­­tion alors A4 5 mode.

177

Chapitre 4 • Appli­­ca­­tions des graphes à la recherche opé­­ra­­tion­­nelle

Soient Ai et Bj res­­pec­­ti­­ve­­ment le ième pré­­fixe d’une séquence A et le jème pré­­fixe d’une séquence B. Soit Z 5 z1 czk une plus longue sous-­­­séquence com­­mune de ces deux p­ ré­­fixes. 2.  Mon­­trer que si ai 5 bj alors zk 5 ai et z1 czk 2 1 est une plus longue sous-­­­séquence com­­mune de Ai 2 1 et de Bj 2 1. 3.  Mon­­trer que si ai 2 bj alors Ζ est une plus longue sous-­­­séquence com­­ mune de Ai 2 1 et de Bj, ou de Ai et de Bj 2 1. Soit f(i, j) la lon­­gueur maximale d’une sous-­­­séquence com­­mune de Ai et Bj. 4.  Jus­­ti­­fier l’équa­­tion de récur­­rence sui­­vante : 0 si i 5 0 ou j 5 0, f 1 i, j 2 5 c f 1 i 2 1, j 2 1 2 1 1   si i, j . 0 et ai 5 bj, max 1 f 1 i, j 2 i 2 , f 1 i 2 1, j 2 2 si i, j . 0 et ai 2 bj.

Afin de ne pas cal­­cu­­ler plu­­sieurs fois une même valeur f(i, j), ces valeurs seront conser­­vées un tableau bi­­­dimen­­sion­­nel T. 5.  Expli­­quer com­­ment déduire direc­­te­­ment la valeur T(i, j) des valeurs T(k, l), où : 0 < k < i  et  0 < l < j. 6.  Décrire un algo­­rithme de com­­plexité O(nm) pour cal­­cu­­ler toutes les valeurs f(i, j) ,  i H 5 0, c, n 6   et  j H 5 0, c, n 6 . 7.  Appli­­quer cet algo­­rithme aux deux séquences A 5 parité et B 5 arrêt. La lon­­gueur d’une plus longue sous-­­­séquence com­­mune étant cal­­cu­­lée, une plus longue sous-­­­séquence com­­mune peut être obte­­nue à par­­tir de cette valeur et du tableau T. 8.  Don­­ner le prin­­cipe d’un algo­­rithme de com­­plexité O 1 m 1 n 2 pour cal­­ cu­­ler une plus longue sous-­­­séquence com­­mune de A et B.

**4.3 D’un pro­­blème ancien à l’éta­­ge­­ment des fusées Une bête de somme, consom­­mant 0,5 kg de nour­­ri­­ture par kilo­­mètre par­­couru et pou­­vant tran­­spor­­ter une charge de 100 kg au maxi­­mum, se trouve en un dépôt qui contient 500 kg de nour­­ri­­ture. 1.  De quelle dis­­tance maximale cette bête peut-­­­elle s’écarter de son point de départ en uti­­li­­sant com­­plè­­te­­ment la réserve ? (1er cas). 2.  Quelle quan­­tité maximale de nour­­ri­­ture pourrait-­­­elle appor­­ter à une dis­­ tance de 100 km de son point ini­­tial ? (2e cas).

II Che­­mins opti­­maux *4.4 Algo­­rithme de FORD : cas d’une minimi­­sa­­tion On donne le graphe ci-­­­dessous et l’on demande d’appli­­quer à la recherche du che­­min de valeur mini­­male, l’algo­­rithme de Ford, entre A et F. 178

Exercices

NB : l’arc (B, D) est valué : 22 ; les arcs (A, D) et (B, E) sont valués : 6.

*4.5 Algo­­rithme de FORD : cas d’une maxi­­mi­­sa­­tion On donne le graphe ci-­­­dessous. 1.  Mon­­trer que G est sans cir­­cuit : a for­­tiori, G ne com­­porte pas de cir­­ cuit absor­­bant. Pour cela vous trou­­ve­­rez une numé­­ro­­ta­­tion topologique des som­­mets (rap­­pel : dans celle-­­­ci, tout arc (xi, xj) est tel que i , j). 2.  Appli­­quer l’algo­­rithme de Ford pour déter­­mi­­ner les che­­mins de valeur maximale, d’ori­­gine x1 vers tous les autres som­­mets (traiter les sommets dans l’ordre de cette numérotation topologique).

© Dunod – Toute reproduction non autorisée est un délit.

*4.6 Algo­­rithme de Dijkstra Un livreur de piz­­zas doit livrer une com­­mande en moins de 14 minutes. Chaque arête du graphe repré­­senté par la figure ci-­­­dessous indique la durée, expri­­mée en minutes, des tra­­jets entre les dif­­fé­­rents car­­re­­fours de son arron­­dis­­se­­ment. La société fabri­­quant les pizze se situe au som­­met A du graphe et la livrai­­son doit s’effec­­tuer au som­­met H. 1.  Dire pour quelles rai­­sons le livreur peut résoudre ce pro­­blème en uti­­li­­sant l’algo­­rithme de Dijkstra ; au préa­­lable chaque arête [x,y] sera rem­­pla­­cée par deux arcs de sens opposés : (x,y) et (y,x) ; sauf pour celles issues de A et de H. 2.  Le livreur arrivera-­­­t-il à temps ?

179

Chapitre 4 • Appli­­ca­­tions des graphes à la recherche opé­­ra­­tion­­nelle

**4.7 Méthode matricielle

1 2 3 4 5 6 7 8 9

La matrice 1 ci-­­­dessous donne les valuations d’un graphe. Appli­­quer la méthode matricielle, c’est-­­­à-dire l’adap­­ta­­tion de l’algo­­rithme de Roy-­­­Warshall, pour déter­­mi­­ner les « plus courts » che­­mins (c’est-­­­à-dire les che­­mins de valeur mini­­male) entre tous les couples de som­­mets du graphe ; il est conseillé de l’implé­­men­­ter, ce qui est aisé. Vous pour­­rez véri­­fier les résul­­tats en tra­­çant le graphe (qui est sans cir­­cuit). 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16  5

9

4            

    3 2              4  1                 7                 4 2 9             3   9 6                7    5             5    

       3     10 10         6    5 11              12             

   1   2  

  9 13            4  3   14                4 15              4  3 16                

III Ordon­­nan­­ce­­ments

*4.8 Graphes PERT et MPM, che­­min cri­­tique et marges La mise en exploi­­ta­­tion d’un nou­­veau gise­­ment minier néces­­site la réa­­li­­sa­­tion des opé­­ra­­tions ci-­­­dessous : Durée a) Obten­­tion d’un per­­mis d’exploi­­ta­­tion...................................... 8 mois* b) Construc­­tion d’une piste entre route et site.............................. 3 mois 180

Exercices

c) d) e) f) g) h) i) j) k) l)

Ins­­tal­­la­­tion de trois son­­deuses.................................................. Édi­­fi­­ca­­tion de baraquements pro­­vi­­soires.................................. Asphal­­tage de la piste............................................................... Adduc­­tion d’eau....................................................................... Cam­­pagne de son­­dage.............................................................. Fonçage et équi­­pe­­ment des puits.............................................. Ins­­tal­­la­­tion au fond du maté­­riel d’exploi­­ta­­tion........................ Construc­­tion de loge­­ments pour le per­­son­­nel.......................... Tra­­çage et amé­­na­­ge­­ment du fond............................................. Construc­­tion d’une lave­­rie.......................................................

3 semaines 1 mois 3 semaines 6 semaines 8 mois 5 mois 2 mois 13 semaines 38 semaines 42 semaines

* Les mois seront comp­­tés cha­­cun pour 4 semaines. On a constaté que l’opé­­ra­­tion b devait être pré­­cé­­dée de l’opé­­ra­­tion a et qu’elle pré­­ cède les opé­­ra­­tions c, d, e et f ; que les opé­­ra­­tions c et d devaient pré­­cé­­der l’opé­­ra­­tion g ; que les opé­­ra­­tions h et j, enfin, devaient être pré­­cé­­dées par les opé­­ra­­tions e, f, g et qu’elles pré­­cèdent les opé­­ra­­tions i, k et l. A. 1.  Tra­­cer le graphe événements-­­­opérations (graphe PERT), rela­­tif à l’ensemble de ces opé­­ra­­tions. 2.  Rechercher le che­­min cri­­tique. 3.  Cal­­cu­­ler les dates au plus tôt, dates au plus tard, marges totales, marges libres. B.  Effec­­tuer le même cal­­cul en uti­­li­­sant la méthode des poten­­tiels MPM.

*4.9

© Dunod – Toute reproduction non autorisée est un délit.

Un projet comporte les tâches : A, B, …, H, I. Voici leurs durées et les contraintes auxquelles elles sont soumises : A B C D E F G H I

16 jours 14 jours 20 jours 8 jours 18 jours 25 jours 15 jours 17 jours 10 jours

peut commencer au moins 5 jours après le début global peut commencer dès le début global peut commencer au moins 31 jours après le début nécessite A et B finis nécessite B fini nécessite B et C finis nécessite D, E et F finis nécessite E et la 1re moitié de C finis nécessite D, E et F finis

1.  Tracer un graphe PERT pour ce projet  ; attention aux tâches fictives (8 au minimum sont nécessaires). 2.  Puis calculer la durée minimale du projet ; donner le chemin critique. 181

Chapitre 4 • Appli­­ca­­tions des graphes à la recherche opé­­ra­­tion­­nelle

**4.10 Modi­­fi­­ca­­tions sur­­ve­­nant dans le dérou­­le­­ment d’un pro­­jet On donne le graphe ci-­­­dessous et l’on demande de rechercher le che­­min cri­­tique. NB. Sur ce dia­­gramme les som­­mets sont des ­évé­­ne­­ments, les arcs des opé­­ra­­tions. On intro­­duit alors les modi­­fi­­ca­­tions sui­­vantes : 1.  l’opé­­ra­­tion b ne peut débu­­ter que lorsque les 2/3 de l’opé­­ra­­tion c ont été ache­­vés ; 2.  l’opé­­ra­­tion c ne peut débu­­ter qu’une période après le début géné­­ral des opé­­ ra­­tions ; 3.  l’opé­­ra­­tion k ne peut com­­men­­cer que lorsque le pre­­mier tiers de l’opé­­ra­­tion j a été exé­­cuté ; 4.  l’opé­­ra­­tion h ne peut débu­­ter qu’après l’exé­­cu­­tion aux 2/3 de l’opé­­ra­­ tion e ; 5.  le début de l’opé­­ra­­tion m ne peut avoir lieu que deux périodes après l’achè­­ve­­ment de l’opé­­ra­­tion f. Cal­­cu­­ler le nou­­veau che­­min cri­­tique en uti­­li­­sant la méthode des poten­­tiels. Étu­­dier aussi la modi­­fi­­ca­­tion du graphe PERT. Com­­pa­­rer les deux méthodes.

IV Flots, affec­­ta­­tions et tran­­sport

*4.11 Pro­­blème de flot Trois dépôts A, B, C dis­­posent res­­pec­­ti­­ve­­ment de 30, 20 et 45 tonnes de mar­­chan­­ dises ; cinq des­­ti­­nations D, E, F, G et H en demandent des quan­­ti­­tés res­­pec­­tives de 10, 25, 20, 25 et 15 tonnes. Des camions, fai­­sant route entre les points dési­­gnés, offrent les dis­­po­­ni­­bi­­li­­tés (tonnages) ci-­­­contre.

Eta­­blir le meilleur plan de tran­­sport.

182

Exercices

*4.12 Tracé d'un réseau de transport et flot maximal I) Un graphe de n 5 5 sommets et m 5 8 arcs est décrit par la liste des s­ uccesseurs: i

1

2

3

4

5

di+

2

2

3

0

1

où di1 le demi-degré extérieur du sommet i, est le nombre d’arcs partant du sommet i. j

1

2

3

4

5

6

7

8

ext(j)

2

5

1

5

1

2

5

4

Le tableau ext(j) liste, dans l’ordre lexicographique, les extrémités terminales des arcs issus du sommet 1 puis celles du sommet 2, etc. Ainsi le sommet 1 a deux successeurs : ce sont les 2 premiers éléments du tableau ext(j), donc les sommets 2 et 5. 1.  Tracer ce graphe. Montrer, en détail, qu’il s’agit d’un réseau de transport (la capacité de chaque arc étant donnée à la question suivante). 2.  On associe à chaque arc uj une capacité et un flux : j

1

2

3

4

5

6

7

8

capa(j)

1

3

2

5

5

3

4

12

flux(j)

1

3

2

2

2

3

4

9

Vérifier que les flux proposés forment bien un flot sur ce réseau de transport. Déterminer, obligatoirement à l’aide de l’algorithme approprié, si ce flot est maximal. Sinon, l’optimiser. Donner la valeur du flot maximal ; indiquer une coupe minimale, et rappeler sa signification concrète.

© Dunod – Toute reproduction non autorisée est un délit.

*4.13 Pro­­blème d’affec­­ta­­tion On a tiré au hasard les élé­­ments de la matrice ci-­­­dessous à six lignes et six ­colonnes. Affec­­ter un élé­­ment et un seul par ligne et par colonne, de manière à obte­­nir la somme mini­­male “coût” minimal des affectations. a

10 B 29 C 17 D 58 E 15 F 25 A

b

c

d

e

f

90 24 43 14 41 44

27

14 90 02 18 44 36

39 23 73 16 73 80

52 13 70 63 70 80

79 62 06 78 81

183

Chapitre 4 • Appli­­ca­­tions des graphes à la recherche opé­­ra­­tion­­nelle

*4.14 Pro­­gramme de tran­­sport En des dépôts 1, 2, 3, et 4 existent des quan­­ti­­tés res­­pec­­tives de 500, 600, 200 et 900 tonnes de mine­­rai à tran­­spor­­ter. Les dis­­tances mutuelles des clients, au nombre de 6, aux dépôts 1, 2, 3, et 4 sont don­­nées par la matrice ci-­­­dessous.

1 2 3 4

1

2

3

4

5

6

9 7 6 6

12 3 5 8

9 7 9 11

6 7 11 2

9 5 3 2

10 5 11 10

Éta­­blir le plan de tran­­sport le plus éco­­no­­mique de manière à faire par­­ve­­nir, aux points de vente 1, 2, 3, 4, 5 et 6, les quan­­ti­­tés res­­pec­­tives : 400, 300, 700, 200, 400 et 200 tonnes.

*4.15 Com­­pa­­rai­­son d’heu­­ris­­tiques pour les pro­­grammes de tran­­sport On donne la matrice d’un programme de tran­­sport ci-­­­dessous, com­­por­­tant quatre ori­­gines et cinq des­­ti­­nations. Véri­­fier que la somme des dis­­po­­ni­­bi­­li­­tés égale celle des demandes.

On demande de chercher la (ou les) solu­­tions opti­­males(s) en uti­­li­­sant, pour obte­­ nir la pre­­mière solu­­tion de base : a) la règle du coin nord-­­­ouest ; b) la règle de la dif­­fé­­rence maximale (méthode de Balas-­­­Hammer). Com­­pa­­rer ces deux méthodes du point de vue de la lon­­gueur des cal­­culs.

184

Exercices

V ARBRES, RECHERCHES ARBO­­RES­­CENTES

*4.16 On consi­­dère le graphe valué donné par la figure ci-­­­contre et l’on demande de chercher l’arbre de valeur (ou “poids”) mini­­male :

1.  par l’algo­­rithme de Prim, en respectant l’ordre alphabétique. 2.  par l’algo­­rithme de Kruskal. Existe-­­­t-il plu­­sieurs solu­­tions ?

*4.17 Résoudre le même pro­­blème que pré­­cé­­dem­­ment mais, cette fois, afin de trou­­ver l’arbre de valeur maximale.

**4.18 On demande de déter­­mi­­ner un cir­­cuit hamiltonien de valeur mini­­male dans le graphe valué donné par la matrice des valeurs des arcs ci-­­­dessous : A

B

C

D

E

A 

1

0

1

2

B

0



4

3

5

C

1

1



4

0

D

4

7

2



1

E

0

1

2

0



NB. Le lec­­teur trou­­vera d’autres exer­­cices por­­tant sur les recherches arbo­­res­­centes, en fin du cha­­pitre 1 : exer­­cices 1.4 et 1.6. 185

5

Pro­­ces­­sus stochas ­­ ­­ tiques et program ­­ ­­ tion ma ­­ dynamique ­­ stochas ­­ ­­ tique

5.1 Intro­­duc­­tion

aux pro­­blèmes sto­­chas­­tiques

On dit qu’on a affaire à un pro­­blème sto­­chas­­tique lorsque le hasard y inter­­vient : c’est la dif­­fi­­culté prin­­ci­­pale de ces pro­­blèmes. Or, le ges­­tion­­naire n’est pas tota­­le­­ment désarmé dans une telle situa­­tion. S’il a une connais­­sance sta­­tistique du passé récent et s’il estime que l’ave­­nir proche res­­ sem­­blera à ce passé, il peut son­­ger à uti­­li­­ser son infor­­ma­­tion pour se pré­­mu­­nir contre des consé­­quences fâcheuses du hasard. Cette atti­­tude, toute natu­­relle dans les sciences expé­­ri­­men­­tales où les lois peuvent, à l’échelle humaine, être consi­­dé­­rées comme per­­ma­­nentes et où les mêmes causes pro­­duisent les mêmes effets, ne peut être éten­­due aux phé­­no­­mènes d’orga­­ni­­sa­­tion qu’avec pru­­dence. Ainsi, si l’on a reconnu que les ventes de l’année pas­­sée ont affecté la forme d’une cer­­taine dis­­tri­­bu­­tion sta­­tistique, de moyenne 500 par mois, par exemple, et s’il s’agit d’un pro­­duit en pleine expan­­sion, on pourra esti­­mer que la même allure sta­­tistique du phé­­no­­mène se conser­­vera cette année, la moyenne étant tou­­te­­fois rele­­vée de x % et l’on déter­­mi­­nera cette pro­­por­­tion par l’étude de la « ten­­ dance » (trend) sur les sta­­tistiques anté­­rieures. La pro­­jec­­tion du passé sur l’ave­­nir ne peut donc pas se faire de façon auto­­ma­­tique. Si les bud­­gets de la publi­­cité et du ser­­vice com­­mer­­cial doivent subir une ­sérieuse aug­­men­­ta­­tion, on se don­­nera pour objec­­tif d’accroître les ventes de l’année pré­­cé­­ dente ; mais, si un puis­­sant concur­­rent vient de s’ins­­tal­­ler, sans doute faudra-­­­t-il pré­­ voir que le déve­­lop­­pe­­ment du mar­­ché ne pro­­fi­­tera pas qu’aux firmes déjà en place... Dans ces condi­­tions, les indi­­ca­­tions sta­­tistiques qui seront uti­­li­­sées dans les ­divers cha­­pitres rela­­tifs à la lutte contre le hasard, quoique pré­­sen­­tées, pour la faci­­lité de l’exposé, comme des don­­nées résul­­tant de l’étude directe du passé, devraient en réa­­lité

© Dunod – Toute reproduction non autorisée est un délit.

5.1  Intro­­duc­­tion aux pro­­blèmes sto­­chas­­tiques

faire d’abord l’objet d’une cri­­tique et d’un rajus­­te­­ment conve­­nable avant leur pro­­jec­­ tion sur l’ave­­nir. Une autre méthode consis­­te­­rait, dans bien des cas, tout en par­­tant de don­­nées non rec­­ti­­fiées, à mettre ensuite en cause les résul­­tats pro­­vi­­soires de l’opti­­mi­­sation mathéma­­tique, pour tenir compte des expan­­sions ou régres­­sions dues à la conjonc­­ ture ou aux évé­­ne­­ments par­­ti­­cu­­liers à l’entre­­prise et à son envi­­ron­­ne­­ment ­immé­­ diat. Une autre carac­­té­­ris­­tique com­­mune aux cha­­pitres en ques­­tion est d’abou­­tir cha­­ cun à un com­­pro­­mis entre le coût cor­­res­­pon­­dant à l’utilisation de moyens humains ou maté­­riels et l’espé­­rance mathéma­­tique du gain résul­­tant de l’usage de ces moyens, dans des condi­­tions connues seule­­ment en pro­­ba­­bi­­lité. Dans un pro­­blème de files d’attente1, par exemple, il s’agit, en géné­­ral, de déter­­ mi­­ner le nombre des sta­­tions (où les « clients » viennent chercher un « ser­­vice ») de manière à ce que ces clients ne perdent qu’un temps limité. Et cela revient à minimi­­ ser le coût total de déploiement des sta­­tions et de l’attente des clients ; donc fina­­ le­­ment à éta­­blir un com­­pro­­mis entre le coût des ser­­veurs et le coût de l’attente des clients, ces deux coûts variant évi­­dem­­ment en sens inverse. Mais le coût des ser­­veurs est sim­­ple­­ment pro­­por­­tion­­nel à leur nombre, tan­­dis que celui de l’attente des clients dépend de don­­nées aléa­­toires (l’affluence de la clien­­tèle et la durée du ser­­vice). Dans les pro­­blèmes de main­­te­­nance1 (d’entre­­tien) des équi­­pe­­ments, c’est l’usure qui est aléa­­toire, et c’est sa connais­­sance sta­­tistique qui peut per­­mettre de fixer les taux d’appro­­vi­­sion­­ne­­ment, de manière à obte­­nir le meilleur com­­pro­­mis entre le coût des arrêts du sys­­tème (maté­­riel) et celui du sto­­ckage des équi­­pe­­ments (pièces) de rechange. Tous ces pro­­blèmes font appel à la notion com­­mune de pro­­ces­­sus sto­­chas­­tique. Il sera donc néces­­saire de don­­ner ici, tout d’abord, quelques notions sur ces pro­­ces­­sus. Nous serons aidés par le fait que presque tous, étant donné en R.O. le carac­­tère dis­­ cret (c’est-­­­à-dire fini ou infini dénom­­brable) de leurs ensembles d’états, peuvent être expo­­sés concrè­­te­­ment en uti­­li­­sant la théo­­rie des graphes2. La pre­­mière idée de la théo­­rie des pro­­ces­­sus sto­­chas­­tiques revient sans doute à A. Einstein qui, en 1905, sou­­tint sa thèse sur le mou­­ve­­ment brownien. Ensuite, A. Markov, vers 1910, en étu­­diant l’œuvre de Pouchkine inti­­tu­­lée « Eu­­­gène Onéguine », décri­­vit de manière pro­­ba­­bi­­liste l’alter­­nance des consonnes et des voyelles sous la forme d’une “chaîne” qui porte son nom. Le Danois Erlang créa, vers 1914, la théo­­ rie des files d’attente (pour l’aider à résoudre des pro­­blèmes de dimensionnement de stan­­dards télé­­pho­­niques). C’est à A. Kolmogorov, que l’on doit la for­­ma­­li­­sa­­tion géné­­ rale du pro­­ces­­sus sto­­chas­­tique (1933). Des mathéma­­ti­­ciens comme D.G. ­Kendall, P. Lévy, A. Khintchine, W. Feller, J. Doob ont entre­­pris, dans l’inter­­valle ou par la suite, de déve­­lop­­per encore cette théo­­rie. 1. Pour le voca­­bu­­laire tech­­nique employé ici, se repor­­ter aux para­­graphes sui­­vants. 2. Nous insis­­te­­rons sur l’impor­­tante éco­­no­­mie de pen­­sée que pro­­cure la théo­­rie des graphes pour la pré­­sen­­ta­­tion des notions utiles sur les pro­­ces­­sus sto­­chas­­tiques et leurs appli­­ca­­tions.

187

Chapitre 5 • Pro­­ces­­sus sto­­chas­­tiques et pro­­gram­­ma­­tion…

5.2 Défi­­ni­­tion d’un

pro­­ces­­sus sto­­chas­­tique

Un pro­­ces­­sus sto­­chas­­tique (ou pro­­ces­­sus aléa­­toire) est une famille de variables ­aléa­­ toires Xt : 5 Xt, t H T 6

où t par­­court l’ensemble T (qui repré­­sente, le plus sou­­vent, un ensemble de temps). Si T est dis­­cret, on parle plus volon­­tiers de suite sto­­chas­­tique, l’appel­­la­­tion de pro­­ ces­­sus étant alors réser­­vée au cas de T continu. Dans les appli­­ca­­tions, Xt repré­­sen­­tera l’état pris par un sys­­tème à l’ins­­tant t : ainsi pour une file d’attente, Xt sera le nombre de clients présents à t. La lettre T a donc été choi­­sie en rai­­son du fait que, très sou­­vent, elle désigne un ensemble de dates ; lorsque T est dis­­cret, t1, t2, c, tn, csont des ins­­tants don­­ nés ; lorsque T est continu (T 5 R1 par exemple), t désigne un ins­­tant quel­­conque 1t > 02. Lorsque Xt peut prendre un ensemble fini ou infini dénom­­brable de valeurs (ou états), le pro­­ces­­sus est dit à espace d’états dis­­cret  : c’est très sou­­vent le cas en recherche opé­­ra­­tion­­nelle. Si, au contraire, ses valeurs appar­­tiennent à un ensemble continu (un inter­­valle de R par exemple), on dit qu’il est à espace d’états continu : c’est fré­­quem­­ment le cas en phy­­sique. Un pro­­ces­­sus aléa­­toire 5 Xt, t H T 6 est markovien si, pour tout ins­­tant u, pour toute valeur Xu 5 x don­­née, la pro­­ba­­bi­­lité pour que le pro­­ces­­sus prenne la valeur y (passe par l’état y) à un ins­­tant quel­­conque t ulté­­rieur (c’est-­­­à-dire pour tout t > u) ne dépend pas des valeurs prises par le pro­­ces­­sus avant l’ins­­tant u : P 3 Xt 5 y k Xs pour s , u ; Xu 5 x 4 5 P 3 Xt 5 y k Xu 5 t 4

On dit aussi que le pro­­ces­­sus est sans mémoire.

5.3 Chaînes

de

Markov

à espace d’états dis­­cret

C’est ainsi qu’on nomme une suite sto­­chas­­tique (le temps est donc discret) à espace d’états dis­­cret et véri­­fiant la prop­­riété « sans mémoire » ci-­­­dessus ; nous sup­­po­­se­­ rons, en outre, le pro­­ces­­sus homo­­gène. On a donc T 5 5 t0, t1, c, tn, c6 ; le plus sou­­vent on confon­­dra T avec N : on étu­­diera les états Xt par les­­quels passe un sys­­tème à t 5 0, 1, 2, c Soit un ensemble d’états : e 5 5 E1, E2, c, En, c6 , fini ou infini. On dit que «  le pro­­ces­­sus est passé par l’état Ek à l’ins­­tant n  » si : Xn 5 k. Par défi­­ni­­tion, une chaîne de Markov pos­­sède la prop­­riété « sans mémoire ». P 3 Xn 5 j k X0 5 i0, X1 5 i1, c, X 5 i 4 5 P 3X 5 j k X 5 i 4 5 p( n ) . n21

188

n21

n

n21

n21

ij

5.3  Chaînes de Markov à espace d’états dis­­cret

On dit alors que la chaîne est markovienne d’ordre 1. Elle serait d’ordre p si la pro­­ba­­bi­­lité de l’état atteint à l’ins­­tant n ne dépen­­dait que des p états anté­­rieurs (atteints res­­pec­­ti­­ve­­ment à t 2 p, t 2 p 1 1, c, t 2 1 ) ; par une démul­­ti­­pli­­cation des états, on peut rame­­ner une chaîne d’ordre p à une chaîne d’ordre 1. Les pro­­ba­­bi­­li­­tés condi­­tion­­nelles P 3 Xn 5 j k Xn 2 1 5 i 4 sont appe­­lées pro­­ba­­bi­­li­­tés de tran­­si­­tion. On fera le plus sou­­vent l’hypo­­thèse que la chaîne est homo­­gène(1) : alors les pro­­ba­­bi­­li­­tés de tran­­si­­tion pij(n) seront indé­­pen­­dantes de l’ins­­tant n de la tran­­ si­­tion (c’est pour­­quoi on les qua­­li­­fie, par­­fois, de sta­­tion­­naires dans le temps) : pij1n2 5 P 3 Xn 5 j k Xn 2 1 5 i 4 5 pij. Ainsi, par exemple, la pro­­ba­­bi­­lité de pas­­ser de l’état E12 à l’état E37 entre les ins­­ tants t 5 0 et t 5 1, ou encore entre t 5 1 321 et 1 322 est la même : elle vaut p12,37.

Dans la suite, nous sup­­po­­sons que l’ensemble e des états est fini, de car­­di­­nal r. Les pro­­ba­­bi­­li­­tés de tran­­si­­tion pij véri­­fient ; 0 < pij < 1 et : pour i = 1, 2,... n : a pij 5 1, car il est certain que si la chaîne est dans l’état Ei à r

j51

t = n – 1, elle sera dans l’un quelconque des états E1, E2,..., Er à t = n. Ainsi une chaîne de Markov homo­­gène, à espace d’état fini, est don­­née par une matrice M car­­rée r 3 r, à terme posi­­tifs : 3 pij 4 5 M, dont la somme des termes, pour toute ligne, est égale à un. Une telle matrice est dite sto­­chas­­tique. Nous dési­­gnons par (n) le vec­­teur (sto­­chas­­tique) des pro­­ba­­bi­­li­­tés des états : P ( n ) 5 3 p 1 ( n ) , p 2 ( n ) , c, p r ( n ) 4 , où :

p k ( n ) 5 P 3 X n 5 k 4 et a p i ( n ) 5 1 pour tout n = 0,1,... i51 Ainsi (0) sera la dis­­tri­­bu­­tion ini­­tiale des pro­­ba­­bi­­li­­tés des états. Éva­­luons (1) connais­­sant (0) ; on peut expri­­mer p j 1 1 2 à l’aide de la ­for­­mule des pro­­ba­­bi­­li­­tés totales. Rap­­pe­­lons que : P 3 B 4 5 a P 3 B k Ai 4 # P 3 Ai 4 , où B est un évé­­ pd

© Dunod – Toute reproduction non autorisée est un délit.

i

ne­­ment et les Ai forment un sys­­tème com­­plet d’évé­­ne­­ments, c’est-­­­à-dire une par­­ tition de l’ensemble fon­­da­­men­­tal . Ainsi, en pre­­nant pour Ai l’évé­­ne­­ment X0 5 i : P 3 X1 5 j 4 5 a P 3 X1 5 j k X0 5 i 4 # P 3 X0 5 i 4 , soit : r

p j 1 1 2 5 a p i 1 0 2 # pij ; soit, matriciellement : i 51 P ( 1 ) 5 P ( 0 ) # M ; De même on a : P ( n ) 5 P ( n 2 1) # M i 51



r

1. (1) Un pro­­ces­­sus 5 Xt, t H T 6 est homo­­gène si, pour tout inter­­valle [s, t], la pro­­ba­­bi­­lité P 3 Xt 5 y k Xs 5 x 4 dépend seule­­ment de la lon­­gueur t – s de cet inter­­valle. Alors, pour tout u : P 3 Xt 1 u 5 y k Xs 1 u 5 x 4 5 P 3 Xt 5 y k Xs 5 x 4 . En par­­ti­­cu­­lier, cette pro­­ba­­bi­­lité est égale à : P 3 Xt 2 s 5 y k X0 5 x 4 . 189

Chapitre 5 • Pro­­ces­­sus sto­­chas­­tiques et pro­­gram­­ma­­tion…

On peut écrire aussi :







P ( n 2 1) 5 P ( n 2 2) # M et ainsi de suite, jus­­qu’à : P (2) 5 P (1) # M e t   P ( 1 ) 5 P ( 0 ) # M En rem­­pla­­çant P(1) par sa valeur dans l’expres­­sion de P(2), P(2) par sa valeur dans l’expres­­sion de P 1 3 2 ,c, on obtient évi­­dem­­ment : P ( n ) 5 P ( 0 ) # Mn, ce qui signi­­fie que la « situa­­tion du sys­­tème » (c’est-­­­à-dire les pro­­ba­­bi­­li­­tés des états) après la nième tran­­si­­tion ne dépend que de la dis­­tri­­bu­­tion ini­­tiale P(0) et des pro­­ba­­bi­­ li­­tés de tran­­si­­tion, [pij] 5 M. Notons que si les probabilités de transition possèdent la propriété “sans mémoire”, ce n’est pas le cas pour les probabilités des états. Nous notons pij1n2 la pro­­ba­­bi­­lité de pas­­ser de l’état Ei à l’état Ej, en exac­­te­­ment n tran­­si­­tions(1). Dans ces condi­­tions, on a évi­­dem­­ment pour n = 2 transitions : pij122 5 a pik # pkj r

k51

car, pour aller de Ei à Ej en exac­­te­­ment deux tran­­si­­tions, il faut pas­­ser par un état inter­­mé­­diaire Ek, qui peut être n’importe lequel des r états for­­mant l’espace d’état e (fig. 5.1). De la même façon, on a aussi pour n = 1 + (n – 1) transitions : pij1n2 5 a pik # pkj1n 2 12, r

k51

puis, d’une manière plus géné­­rale pour n = p+q transitions :

pij1p 1 q2 5 a pik1p2 # pkj1q2. k51 Cette der­­nière rela­­tion est appe­­lée rela­­tion de ChapmanKolmogorov ; elle est carac­­té­­ris­­tique du fait que la chaîne est « sans mémoire ». Il est facile de mon­­trer que la pro­­ba­­bi­­lité de pas­­ser de l’état Ei à l’état Ej en exactement n tran­­si­­tions, soit pij1n2, est égale à l’élé­­ment (i, j) de la matrice M n : 3 pij1n2 4 5 3 pij 4 n, soit M (n) 5 Mn. r

Figure 5.1

En effet, on a bien : pij122 5 a pik # pkj ; on reconnaît la formule r

k51

du produit matriciel et donc 3 pij(2) 4 5 M2. 1. (1) Nous pose­­rons, en outre, pij(0) 5 dij, d ij étant le sym­­bole de Kronecker (dij 5 1 si et seule­­ment si i 5 j et dij 5 0 sinon).

190

5.4  Clas­­si­­fi­­ca­­tion des états d’une chaîne de Markov

Par récur­­rence, il est aisé de mon­­trer que, si la prop­­riété est vraie pour n 2 1, elle

est vraie aussi pour n : sup­­po­­sons que 3 pij(n 2 1) 4 5 Mn 2 1. Comme pij1n2 5 a pij # pkj1n 2 12 , k51 soit : M (n) 5 M # Mn 2 1, on a aussi : M (n) 5 Mn. r

Matriciellement, la rela­­tion de Chapman-­­­Kolmogorov M 5M(p) # M(q), vrai car Mp 1 q 5 Mp # Mq. ( p 1 q)

revient

à :

5.4 Clas­­si­­fi­­ca­­tion des états d’une chaîne de Markov finie à l’aide du graphe des tran­­si­­tions À la matrice M 5 [pij], fai­­sons cor­­res­­pondre le graphe G 5 (X, U), tel que X 5 e, c’est-­­­à-dire que les som­­mets du graphe ne sont autres que les états de la chaîne de Markov, et U 5 5 1 Ei, Ej 2 k Ei. Ej Pe ; pij . 0 6 , c’est-­­­à-dire qu’il existe un arc dans le graphe G de l’état Ei vers l’état Ej si la pro­­ba­­bi­­lité de tran­­si­­tion pij est stric­­te­­ment posi­­tive. Exemple.  Un sys­­tème peut se trou­­ver dans l’un des 12 états : A, B, C. c, L. On a donc e 5 5 A, B, c, L 6 , (plu­­tôt que e 5 5 E1, E2, c, E12 6  : ceci pour allé­­ger la nota­­tion).

Toutes les minutes, ce sys­­tème subit une tran­­si­­tion, c’est-­­­à-dire un chan­­ge­­ment d’état (ou bien reste dans l’état anté­­rieur). Voici la matrice M 5 3 pij 4 don­­nant les pro­­ba­­bi­­li­­tés de tran­­si­­tion et le graphe G 5 1 e, U 2 asso­­cié (fig 5.2) : (les cases vides correspondent à un zéro) A A 0, 1 B

B

C

D

E

H 0, 4

0, 2

0, 5

I

0, 3 0, 4

E

L

0, 3

0, 2

0, 4 1

1 0, 6

0, 3

0, 1

I

0, 2

J L

K

0, 7

M =F

K

J

1

D

© Dunod – Toute reproduction non autorisée est un délit.

G

0, 5

C

G H

F

0, 8 1

0, 4

0, 5

0, 1 0, 8

0, 1

0, 1

Le lecteur vérifiera que la somme des termes, dans toute ligne de M, vaut 1.

191

Chapitre 5 • Pro­­ces­­sus sto­­chas­­tiques et pro­­gram­­ma­­tion…

Figure 5.2

On dit qu’un état Ej est « acces­­sible » à par­­tir de l’état Ei si, pour au moins une cer­­ taine valeur de l’entier q, on a : pij1q2 . 0. En termes de graphe cela signi­­fie qu’il existe un che­­min de lon­­gueur q (com­­posé de q arcs) du som­­met Ei vers le som­­met Ej. Deux états Ei et Ej mutuel­­le­­ment acces­­sibles sont dits « com­­mu­­ni­­cants ». En termes de graphe : il existe alors un che­­min de Ei vers Ej et un che­­min de Ej vers Ei. Autre­­ment dit, Ei et Ej appar­­tiennent à une même com­­po­­sante for­­te­­ment connexe du graphe. Le graphe com­­porte deux com­­po­­santes connexes : en termes de chaînes de Markov, on dit que la chaîne com­­porte deux sous-­­­chaînes, ayant pour ensemble d’états res­­pec­­ti­­ve­­ment ; e1 5 5 A, B, C, D, E, F, G, K 6 et e2 5 5 I, J, L 6 .

Si l’état ini­­tial du sys­­tème appar­­tient à e1 la chaîne ne pas­­sera jamais par les états de e2, et réci­­pro­­que­­ment. La matrice M 5 3 pij 4 est alors « décom­­po­­sable » :

1

2





A B

A

B

·1

·5

C

E

G

H

·5

·2

K

I

·3 ·4

D E

·7 ·2

F

·6

L

·3

0

·4

1

1

G

J

1

C

H

F

·4

·3

K I J L

NB. Ici # 4 repré­­sente : 0,4. 192

D

·4

·5

0

·1

·1

·2 ·8

1

·1

·8 ·1

5.4  Clas­­si­­fi­­ca­­tion des états d’une chaîne de Markov

Déter­­mi­­nons, pour chaque sous-­­­chaîne, les « classes d’états com­­mu­­ni­­cants » qui d’après la remarque ci-­­­dessus, coïn­­cident avec les com­­po­­santes for­­te­­ment connexes du graphe (cette déter­­mi­­na­­tion peut se faire algorithmiquement : par un algo­­rithme fondé sur un par­­cours en pro­­fon­­deur du graphe, donc de faible com­­plexité). Pour e1, on trouve 4 com­­po­­santes for­­te­­ment connexes et donc 4 classes : c1 5 5 A 6 , c2 5 5 B, H 6 , c3 5 5 C, F, G 6 , c4 5 5 D, E, K 6 .

Pour e2, on trouve 2 com­­po­­santes for­­te­­ment connexes et donc 2 classes : c5 5 5 I, L 6 , c6 5 5 J 6 .

© Dunod – Toute reproduction non autorisée est un délit.

 

On peut alors retra­­cer le graphe en fai­­sant appa­­raître l’ordre sur ces com­­po­­santes for­­te­­ment connexes. Rap­­pe­­lons que « ck pré­­cède c, » (ck < c,) si et seule­­ment si, dans G, il existe un che­­min d’un som­­met quel­­conque de ck vers un som­­met quel­­ conque de c, ; cette rela­­tion étant réflexive, anti­­sy­­mé­­trique et tran­­si­­tive, il s’agit d’une rela­­tion d’ordre sur les classes, dont voici le dia­­gramme de Hasse :

Les classes c1, c2 et c5 sont des classes d’états tran­­si­­toires : si le sys­­tème est ini­­ tia­­le­­ment dans l’un des som­­mets de ces classes, il finira par le quit­­ter défi­­ni­­ti­­ve­­ment (pour tout état tran­­si­­toire Ei, pij1q2 S 0 quand le nombre de tran­­si­­tions q S ` 2 . Dans le dia­­gramme ci-­­­dessus toute classe tran­­si­­toire ck a une classe « au des­­sus » d’elle, c’est-­­­à-dire que ck pré­­cède une autre classe. Au contraire, les classes c3, c4 et c6 – qui sont des « élé­­ments maximaux » (sans classe « au des­­sus » d’elles) – sont nom­­mées « classes récur­­rentes » (on dit aussi per­­sis­­tantes ou finales) ; lorsque le sys­­tème atteint un état d’une classe récur­­rente cr, tous les états par les­­quels il pas­­sera ulté­­rieu­­re­­ment appar­­tiennent à cette même classe cr. Mais il existe des dif­­fé­­rences entre les classes récur­­rentes ; ainsi entre la classe c4 5 5 D, E, K 6 et la classe c3 5 5 C, F, G 6  : en effet si le sys­­tème passe par l’état C lors de la kième tran­­si­­tion, il est cer­­tain qu’il pas­­sera par F lors de la k 1 1ième, par G lors de la k 1 2ième, de nou­­veau par C lors de la k 1 3ième et ainsi de suite : il s’agit 193

Chapitre 5 • Pro­­ces­­sus sto­­chas­­tiques et pro­­gram­­ma­­tion…

d’une « classe pério­­dique ». Nous pré­­ci­­se­­rons plus loin, dans une annexe, la notion de pério­­di­­cité. Au contraire pour la classe 5 D, E, K 6 5 c4, l’évo­­lu­­tion sera toute dif­­fé­­ rente : on dit qu’il s’agit d’une «  classe a­­­pério­­dique  ». On peut cal­­cu­­ler la pro­­ ba­­bi­­lité pour que le sys­­tème se trouve dans cha­­cun des états de c4 au bout d’un grand nombre de tran­­si­­tions, sachant qu’ini­­tia­­le­­ment (à t = 0), le sys­­tème y était déjà : p D 1 0 2 1 p E 1 0 2 1 p K 1 0 2 5 1 (ou bien si l’on est sûr qu’au bout d’un cer­­tain nombre de tran­­si­­tions, le sys­­tème a atteint l’un des états D, E, ou K). Soit Mr la sous-­­­matrice des pro­­ba­­bi­­li­­tés des tran­­si­­tions entre les états de la classe c4 ; nous sup­­po­­se­­rons l’exis­­tence d’une dis­­tri­­bu­­tion sta­­tion­­naire des pro­­ba­­bi­­li­­tés des états (atteinte après un grand nombre de tran­­si­­tions), soit P* 5 3 p *D, p *E, p *K 4 . Cette dis­­tri­­bu­­tion étant sta­­tion­­naire, on retrouve la même après une tran­­si­­tion : P* 5 P* # Mr, soit, en posant (pour allé­­ger les nota­­tions) P* 5 3 a, b, c 4 : D

E

5 5 5 5

a b c 1

K

D 0, 3 0, 7 0 3a, b, c4 5 3a, b, c4 Mr, où: Mr 5 E £ 0, 4 0, 2 0, 4 § K 0, 4 0, 5 0, 1 Le sys­­tème P* 5 P* # Mr s’écrit : 0, 3a 1 0, 4b 0, 7a 1 0, 2b µ 0, 4b a b

0, 4c 1 0, 5c 1 0, 1c 1 c 1

(1) (2) (3) (4)

Remar­­quons que (4) – (1) – (2) redonne l’équa­­tion (3), si bien que ce sys­­tème com­­porte 3 équa­­tions indé­­pen­­dantes, pour 3 inconnues. L’équa­­tion (5.3) four­­nit 9 13 b 5 c ; en repor­­tant dans (2), il vient : a 5 c. En repor­­tant dans (4), il vient : 4 7 a

13 9 1 1 1b c 5 1, 7 4

28 63 52 52 63 28  ; puis b 5 et a 5 , soit P* 5 B , , R : ce sont 143 143 143 143 143 143 donc les pro­­ba­­bi­­lités de trou­­ver le sys­­tème en D, Ε ou Κ au bout d’un grand nombre de tran­­si­­tions. Sup­­pri­­mons les 9 autres états pour gar­­der seule­­ment la sous-­­­chaîne ayant comme ensemble d’états c4 et pour matrice Mr ; on constate ici que les pro­­ ba­­bi­­li­­tés des états tendent vers une limite P* indé­­pen­­dante de la dis­­tri­­bu­­tion ini­­tiale P(0) et stric­­te­­ment posi­­tive.

d’où : c 5

194

5.4  Clas­­si­­fi­­ca­­tion des états d’une chaîne de Markov

À cause de cette prop­­riété par­­ti­­cu­­lière, la sous-chaîne est qua­­li­­fiée d’ergodique, car elle assure (comme en théo­­rie ciné­­tique des gaz) un cer­­tain équi­­libre sta­­tistique, qu’on nomme ergodisme.

On admet­­tra qu’une chaîne de Markov finie est ergodique (alors P* > 0) si et seule­­ment si elle com­­porte une seule classe récur­­rente1 et si, de plus, cette classe est a­­­ pério­­dique (voir page suivante). Une chaîne de Markov est for­­te­­ment ergodique (alors P* . 0 ) si elle est consti­­tuée d’une seule classe d’états, tous a­­­pério­­diques ; cette classe unique est récur­­rente, il n’existe pas alors de classe tran­­si­­toire ; en termes de graphes, une chaîne de Markov finie est for­­te­­ment ergodique si son graphe est for­­te­­ment connexe (ce qui assure l’exis­­tence d’une classe for­­te­­ment connexe et d’une seule) et com­­porte une boucle (ce qui assure que la classe soit a­­­pério­­dique) ; cette condition d’apériodicité est suffisante mais elle n’est pas nécessaire : cf. la fin de ce paragraphe. Remar­­quons que, dans la sous-­­­chaîne {I, J, L}, les états I et L sont tran­­si­­toires, tan­­dis qu’elle com­­porte une seule classe récur­­rente et a­­­pério­­dique conte­­nant, en fait, un seul état : J. Dans ce cas, un tel état est qua­­li­­fié d’« absor­­bant » (noter l’ana­­lo­­gie avec les états-­­­piège dans les auto­­mates). Notons que cette sous-­­­chaîne est ergodique, mais pas for­­te­­ment ergodique puisque : P* 5 3 0 1 0 4 I J L Remarques. •  Une chaîne de Markov finie pos­­sède nécessairement au moins une classe récur­­rente (qui peut être a­­­pério­­dique ou pério­­dique). •  Pour une chaîne for­­te­­ment ergodique, la matrice M* 5 lim Mn a toutes nS ` ses lignes iden­­tiques et égales au vec­­teur P*, ainsi : 52 63 28 1 lim Mr 5 £ 52 63 28 § 143 n S` 52 63 25 © Dunod – Toute reproduction non autorisée est un délit.

n

Cette prop­­riété per­­met de com­­prendre le para­­doxe (qui n’est qu’apparent) suivant : Nous avons vu que : P ( n ) 5 P ( 0 ) # Mn. Pour une chaîne ergodique, on sait que M n pos­­sède une limite M* quand n S `, et que P(n) tend vers une limite P* indé­­pen­­dante de la dis­­tri­­bu­­tion ini­­tiale P(0). Pre­­nons la limite de chaque membre de l’équa­­tion ci-­­­dessus quand n tend vers l’infini, il vient : P* 5 P ( 0 ) # M*.

ce qui semble contre­­dire notre pro­­pos : appa­­rem­­ment P*, dans cette rela­­tion, dépen­­ drait de P(0). Mais il faut savoir que M* a toutes ses lignes égales à P*. 1. Elle peut donc com­­por­­ter plu­­sieurs classes tran­­si­­toires.

195

Chapitre 5 • Pro­­ces­­sus sto­­chas­­tiques et pro­­gram­­ma­­tion…

Ainsi, pour la sous-­­­chaîne {D, Ε, K}, pre­­nons une répar­­tition ini­­tiale quel­­conque P(0) 5 [a, b, g] où a, b et g > 0 et a 1 b 1 g 5 1. Effec­­tuons P ( 0 ) 3 M*, il vient :

d’où : P* 5

52 63 28 1 # 3 a, b, g 4 £ 52 63 28 § 5 P* 143 52 63 28 1 52 , 63 , 28 3 52 ( a 1 b 1 g ) , 63 ( a 1 b 1 g ) , 28 ( a 1 b 1 g ) 4 5 c d. 143 143 143 143

P*, ne dépen­­dant pas de a, b et g, est donc bien indé­­pen­­dant de P(0) ! •  Valeurs propres de la matrice M 5 3 pij 4 . La matrice M est une matrice à élé­­ments posi­­tifs ou nuls ; la somme des termes de chaque ligne étant égale à 1 (on dit alors que M est « sto­­chas­­tique »). Toute matrice sto­­chas­­tique admet au moins une valeur propre égale à 1 et toutes les valeurs propres ont un module infé­­rieur ou égal à 1. L’ordre de mul­­ti­­pli­­cité de la valeur propre l 5 1 est égal au nombre de classes récur­­rentes de la chaîne de Markov don­­née par M. Si une classe récur­­rente est pério­­dique de période d, alors les d racines d ièmes de l’unité sont valeurs propres de M. Ainsi pour Mr, le poly­­nôme carac­­té­­ris­­tique : dét(M 2 lI), est : l3 2 0, 6 l2 20, 37 l 20, 03 5 (l 2 1)(l 1 0, 3)(l 1 0, 1). Les valeurs propres de Mr sont donc : 1, 20,3 et 20,1. En par­­ti­­cu­­lier, on ­retrouve le fait que la chaîne asso­­ciée à Mr com­­porte une seule classe (l 5 1 étant d’ordre 1) et a­­­pério­­dique (aucune racine d ième de l’unité parmi les valeurs propres). C F G C 0 1 0 En revanche, pour Ms 5 F £ 0 0 1 § , le poly­­nôme carac­­té­­ris­­tique est : G 1 0 0 l 3 2 1 5 ( l 2 1 )( l 2 j )( l 2 j ) où j 5 2

1 "3 1 "3 et j 5 2 2 i 1i . 2 2 2 2

Les valeurs propres de Ms sont les racines cubiques de l’unité : 1, j, j ; la chaîne asso­­ciée à Ms com­­porte donc une seule classe, récur­­rente, de période d 5 3. •  Retour sur la notion de pério­­di­­cité Par défi­­ni­­tion, la période di d’un état récur­­rent Ei est : di 5 PGCD 5 n k pij(n) . 0 6 , où pii1n2 est la pro­­ba­­bi­­lité que le sys­­tème, par­­tant de Ei, y repasse après n tran­­si­­tions ; la période di est donc aussi le PGCD des lon­­gueurs des cir­­cuits pas­­sant par Ei. 196

5.5  Pro­­ces­­sus de Markov à espace d’états dis­­cret

© Dunod – Toute reproduction non autorisée est un délit.

Ainsi pour la chaîne ci-­­­dessus com­­por­­tant une seule classe d’états (qui est donc récur­­rente) car son graphe est fortement connexe, la période de E4 est : d4 5 PGCD 5 4, 8, 12, c6 5 4. On véri­­fie que les cir­­cuits pas­­sant par E4 ont une lon­­gueur qui est un mul­­tiple de 4. L’exemple ­ci-­­dessus montre que la pério­­di­­cité d 1 142 pour l’état Ei n’exige pas que : pii1n2 soit égal à 1. Ainsi p55 5 . 3 Un état Ei est dit « a­­­pério­­dique » si di 5 1. Une condi­­tion suf­­fi­­sante d’a­­­pério­­di­­ cité pour Ei est que le graphe pos­­sède une boucle au som­­met Ei : alors pii112 5 pii . 0 et di 5 PGCD 5 1, c6 5 1. Cette condi­­tion n’est pas néces­­saire : Pour la chaîne ci-­­­dessous : di 5 PGCD 5 2, 3,c6 5 1. En effet il y a un cir­­cuit de lon­­gueur 2 pas­­sant par Ej, et un autre de lon­­gueur 3. Enfin on peut mon­­trer que tous les états d’une même classe (récur­­rente) ont la même période : il s’agit en fait d’un résul­­tat concer­­nant les lon­­ gueurs des cir­­cuits à l’inté­­rieur d’une com­­po­­sante for­­te­­ment connexe d’un graphe. •  Si l’on résol­­vait le sys­­tème P* # Ms 5 P*, on obtien­­drait 1 p *C 5 p *F 5 p *G 5 . 3 Cela ne cor­­res­­pond pas à une limite aux pro­­ba­­bi­­li­­tés des états P(n) quand n S `, mais seule­­ment à une limite en moyenne : « au sens de Cesaro » (toutes les 3 tran­­si­­ tions, le sys­­tème passe par C, F ou G). P(n) n’a pas de limite, puisqu’il oscille entre les 3 vec­­teurs ; [1, 0, 0] , [0, 1, 0] et [0, 0, 1].

5.5  Pro­­ces­­sus

de

Markov

à espace d’états dis­­cret

Nous avons étu­­dié dans le para­­graphe pré­­cé­­dent les chaînes de Markov ; ce sont des pro­­ces­­sus sto­­chas­­tiques à temps dis­­cret et à espace d’états dis­­cret. Nous pré­­sen­­tons 197

Chapitre 5 • Pro­­ces­­sus sto­­chas­­tiques et pro­­gram­­ma­­tion…

main­­te­­nant les pro­­ces­­sus de Markov, qui sont des pro­­ces­­sus sto­­chas­­tiques à temps continu et à espace d’états dis­­cret : ils consti­­tuent un outil pri­­vi­­lé­­gié pour modé­­li­­ser en recherche opé­­ra­­tion­­nelle bien des pro­­blèmes : dans le domaine des phé­­no­­mènes d’attente ou de la fia­­bi­­lité et de la sûreté de fonc­­tion­­ne­­ment, notam­­ment. Un pro­­ces­­sus sto­­chas­­tique Xt carac­­té­­rise l’état d’un sys­­tème à l’ins­­tant t. C’est un pro­­ces­­sus de Markov à temps continu et à espace d’états dis­­cret s’il véri­­fie les trois prop­­rié­­tés sui­­vantes : 1)  le temps t est continu. Le plus sou­­vent le temps varie de 0 à l’infini ; alors : tPT 5 R1 ; 2)  Xt appar­­tient à un espace d’états e qui est dis­­cret (c’est-­­­à-dire, comme nous l’avons déjà dit, fini ou infini dénom­­brable) : Xt Pe 5 5 E1, E2, c, Em, c6 . Dans la suite on omet­­tra de rap­­pe­­ler à chaque fois ce carac­­tère dis­­cret. Mais dans ce paragraphe, e peut être infini. 3)  Le pro­­ces­­sus sto­­chas­­tique Xt véri­­fie la prop­­riété « sans mémoire » (ou prop­­ riété de Markov) : la pro­­ba­­bi­­lité pour que le sys­­tème passe par l’état Ej à l’ins­­tant t 1 , sachant qu’il était dans l’état Ei à l’ins­­tant t, ne dépend pas des états par les­­ quels le sys­­tème est passé entre les ins­­tants 0 et t – : P 3 Xt 1  5 Ej k Xu pour 0 < u , t , Xt 5 Ei 4 5 P 3 Xt 1  5 Ej k Xt 5 Ei 4 . 4)  Nous sup­­po­­se­­rons en outre dans la suite que les pro­­ces­­sus de Markov sont « homo­­gènes » (de même que nous l’avons fait pour les chaînes de Markov) : la pro­­ba­­bi­­lité de tran­­si­­tion ci-­­­dessus sera sup­­po­­sée indé­­pen­­dante de t et dépen­­dra donc seule­­ment de la durée τ d’évo­­lu­­tion du sys­­tème (entre t et t 1  ) : P 3 Xt 1  5 Ej k Xt 5 Ei 4 5 pij 1  2 . On notera M( ) 5 3 pij ( ) 4 la matrice de ces pro­­ba­­bi­­li­­tés de tran­­si­­tion. N.B. On sup­­pose le plus sou­­vent les pro­­ces­­sus de Markov «  homo­­gènes  » car l’emploi de pro­­ces­­sus de Markov non homo­­gènes est des plus rares dans les applications. Notons que l’on a pour les pro­­ba­­bi­­li­­tés de tran­­si­­tion : a pij 1  2 5 1 pour tout état Ei.

EjPe

En effet, sachant qu’à l’ins­­tant t le pro­­ces­­sus est dans l’état Ei, il est cer­­tain qu’à l’ins­­tant t 1  il se trou­­vera dans l’un quelconque des états de e (le pro­­ces­­sus ne peut pas «  s’échap­­per  » de son espace d’états), et la pro­­ba­­bi­­lité d’un évé­­ne­­ment cer­­tain vaut 1. Don­­nons main­­te­­nant la rela­­tion de Chapman-­­­Kolmogorov pour les pro­­ba­­bi­­li­­tés des tran­­si­­tions : pij ( u 1  ) 5 a pik ( u ) # pkj (  ) , dont voici la démons­­tra­­tion : Ek Pe

pij ( u 1  ) 5 P 3 X U 1  5 Ej k X 0 5 Ei 4 5 a P 3 X U 1  5 Ej et X U 5 Ek k X 0 5 Ei 4 . Ek Pe

198

5.5  Pro­­ces­­sus de Markov à espace d’états dis­­cret

En appli­­quant la défi­­ni­­tion des pro­­ba­­bi­­li­­tés condi­­tion­­nelles : P 3 U k V 4 5 P 3 U et V 4 / P 3 V 4 , le lec­­teur véri­­fiera aisé­­ment que : P 3 A et B k C 4 5 P 3 A k B et C 4 # P 3 B k C 4 . D’où :

pij ( u 1  ) 5 a P 3 X U 1  5 Ej k X 0 5 Ei et X U 5 Ek 4 # P 3 X U 5 Ek k X 0 5 Ei 4 . Ek Pe

D’après la prop­­riété sans mémoire, la pre­­mière pro­­ba­­bi­­lité de ce pro­­duit ne ­dépend pas de l’évé­­ne­­ment X0 5 Ei, qui est anté­­rieur à  ; elle est alors égale à : P 3 X U 1  5 Ej k X U 5 Ek 4 5 pkj (  ) , ceci en tenant compte de la prop­­riété d’homo­­gé­­néité. Par ailleurs, par défi­­ni­­tion : P 3 X U 5 Ek k X 0 5 Ei 4 5 pik ( u ) .

Fina­­le­­ment : pij ( u 1  ) 5 a pik ( u ) # pkj (  ) . EkPe Matriciellement, cette rela­­tion four­­nit : M ( u 1  ) 5 M ( u ) # M (  ) . Don­­nons main­­te­­nant l’expres­­sion des pro­­ba­­bi­­li­­tés de tran­­si­­tions sur un inter­­valle de temps infi­­ni­­té­­si­­mal :  5 Dt. Sous des hypo­­thèses très larges, véri­­fiées notam­­ ment si e est fini, on peut mon­­trer que les prop­­rié­­tés 1), 2), 3) et 4) font que : où i 2 j pij ( Dt ) 5 l ij # Dt 1 o ( Dt )               • pii ( Dt ) 5 1 2 a l ij # Dt 1 o ( Dt ) 5 1 2 qi Dt 1 o ( Dt ) Ej He j2i

© Dunod – Toute reproduction non autorisée est un délit.

Rap­­pe­­lons que ο(Dt) est la nota­­tion de Lan­­dau ; lim o 1 Dt 2 5 0 et que Dt S 0 ( ) o Dt lim 5 0. Dt S 0 Dt On dit que les termes en ο(Dt) sont « d’ordre supé­­rieur à un en Dt ». Notons que lij est le taux de tran­­si­­tion de Ei vers Ej ; en effet : lim 3 pij ( Dt ) /Dt 4 5 l ij. Dt S 0 Ce taux est néces­­sai­­re­­ment posi­­tif ou nul (puisque pij 1 Dt 2 > 0). On peut alors mon­­trer que la pro­­ba­­bi­­lité que, étant dans l’état Ei à l’ins­­tant t, le pro­­ces­­sus reste constam­­ment dans cet état entre t et t 1  vaut e 2 q i  ; on peut aussi prou­­ver que la pro­­ba­­bi­­lité pour que le pro­­ces­­sus, étant dans l’état Ei à l’ins­­tant t, quitte pour la pre­­mière fois cet état Ei pour pas­­ser dans l’état Ej vaut : lij /qi 5 mij ( i 2 j, sinon m ij 5 0 ) . La matrice [mij] étant telle que a mij 5 1, est une matrice EjPe sto­­chas­­tique. Le « géné­­ra­­teur infi­­ni­­té­­si­­mal » du pro­­ces­­sus de Markov est une matrice A 5 3 aij 4 où aij 5 lij pour j 2 i et aii 5 2qi. La somme des élé­­ments de toute ligne de cette d ­matrice est donc nulle. En notant M(  ) 5 3 pij (  ) 4 et Mr (  ) 5 B pij (  ) R, on ­montre dt que l’on a les équa­­tions « du passé » : Mr (  ) 5 A # M (  ) et les équa­­tions « du futur » : 199

Chapitre 5 • Pro­­ces­­sus sto­­chas­­tiques et pro­­gram­­ma­­tion…

Mr ( ) 5 M( ) # A. On obtient ainsi des sys­­tèmes d’équa­­tions dif­­fé­­ren­­tielles linéaires pour les pro­­ba­­bi­­li­­tés de tran­­si­­tion sur un inter­­valle de temps quel­­conque  (que l’on ne peut résoudre analytiquement que dans des cas simples, comme c­ i-­­­dessous). Don­­nons un exemple simple de pro­­ces­­sus de Markov : dans un bureau tra­­vaille un ingé­­nieur. Des col­­lègues se pré­­sentent aléa­­toi­­re­­ment à la porte de ce bureau (sans rendez-­­­vous !) : si l’ingé­­nieur est déjà occupé, ces col­­lègues renoncent à attendre et revien­­dront une autre fois. Si notre ingé­­nieur n’est pas déjà occupé avec un autre col­­lègue, le visi­­teur entre et une dis­­cus­­sion, de durée aléa­­toire..., s’engage. La ­pro­­ba­­bi­­lité pour qu’un visi­­teur se pré­­sente pen­­dant un inter­­valle de temps Dt est : lDt 1 o(Dt) ; celle que plu­­sieurs visi­­teurs se pré­­sentent est négli­­geable (en o(Dt). Une conver­­sa­­tion en cours à t se ter­­mi­­nera entre t et t 1 Dt avec la pro­­ba­­bi­­lité m Dt 1 ο(Dt). On peut alors asso­­cier un pro­­ces­­sus de Markov au « fonc­­tion­­ne­­ment » de ce bureau ; l’ensemble des états est e 5 5 E0, E1 6 où E0 (resp. E1) désigne l’état pour lequel il n’y a pas de visite en cours dans le bureau de l’ingé­­nieur (resp. une visite est en cours). Voici les pro­­ba­­bi­­li­­tés de tran­­si­­tion entre t et t 1 Dt : p01 1 Dt 2 5 lDt 1 o 1 Dt 2  ; p00 1 Dt 2 5 1 2 lDt 1 o 1 Dt 2 p10 ( Dt ) 5 mDt 1 o ( Dt )  ; p11 ( Dt ) 5 1 2 mDt 1 o ( Dt ) 2l l Le géné­­ra­­teur infi­­ni­­té­­si­­mal est alors : A 5 c d  ; on véri­­fie que la somme m 2m des élé­­ments de toute ligne est nulle. On peut asso­­cier à un pro­­ces­­sus de Markov homogène un graphe G 5 1 e, U 2 où à chaque état du pro­­ces­­sus est asso­­cié un som­­met du graphe et où, à chaque tran­­si­­ tion de pro­­ba­­bi­­lité non nulle (ou non négli­­geable), est asso­­cié un arc qui sera valué par la pro­­ba­­bi­­lité de la tran­­si­­tion entre t et t 1 Dt. Ainsi pour notre exemple :

Du graphe des tran­­si­­tions entre t et t 1 Dt, on déduit le «  graphe sim­­pli­­fié  » G 5 1 e, Ur 2 déduit du pré­­cé­­dent en sup­­pri­­mant les boucles et en valuant tout arc (Ei, Ej) par le taux lij (rappel : lij > 0, i 2 j ) .

5.6  Pro­­ba­­bi­­li­­tés

des états

Dans les appli­­ca­­tions (modé­­li­­sa­­tions par pro­­ces­­sus de Markov), les para­­mètres signi­­fi­­ca­­tifs du fonc­­tion­­ne­­ment des sys­­tèmes ainsi modé­­li­­sés s’éva­­luent à par­­tir des valeurs des pro­­ba­­bi­­li­­tés des états : d’où l’inté­­rêt pra­­tique de cette notion. 200

5.6  Pro­­ba­­bi­­li­­tés des états

Soit une dis­­tri­­bu­­tion ini­­tiale des pro­­ba­­bi­­li­­tés des états : P(0) 5 [p0(0), p1(0), c4 où pi(0) désigne la pro­­ba­­bi­­lité ini­­tiale (à t 5 0) de l’état Εi : pi(0) 5 P[X0 5 Ei]. La pro­­ba­­bi­­lité de l’état Ej à l’ins­­tant t est : pj(t) 5 P[Xt 5 Ej] (elle n’a de sens que si la dis­­tri­­bu­­tion ini­­tiale P(0) a été spé­­ci­­fiée). Par appli­­ca­­tion de la « for­­mule des pro­­ba­­bi­­li­­tés totales » (cf p. 189), on a : p j ( t ) 5 P 3 Xt 5 Ej 4 5 a P 3 Xt 5 Ej k X0 5 Ei 4 # P 3 X0 5 Ei 4 ,

soit : p j 1 t 2 5 a p i 1 0 2 # pij 1 t 2 . En posant P 1 t 2 5 3 p 0 1 t 2 , p 1 1 t 2 , c4 et i M( t ) 5 3 pij 1 t 2 4 , cette rela­­tion s’écrit matriciellement : P 1 t 2 5 P 1 0 2 # M 1 t 2 . Plus géné­­ ra­­le­­ment, on peut mon­­trer la rela­­tion : P 1 t 1  2 5 P 1 t 2 # M 1  2 . En effet la rela­­tion de Chapman-­­­Kolmogorov : EiPe

pij 1 t 1  2 5 a pik 1 t 2 # pkj 1  2 k four­­nit, après mul­­ti­­pli­­cation de chaque membre par p(0), puis en som­­mant pour tous les états Ei de e : p j 1 t 1  2 5 a p i 1 0 2 # pij 1 t 1  2 5 a a p i 1 0 2 # pik 1 t 2 # pkj 1  2 i

i

k

5 a a a p i 1 0 2 # pik 1 t 2 b # pkj 1  2 5 a p k 1 t 2 # pkj 1  2 . k

i

k

En résumé : p j 1 t 1  2 5 a p k 1 t 2 # pkj 1  2 , qui s’écrit bien matriciellement : k

P ( t 1  ) 5 P ( t ) # M(  ) . Posons  5 Dt dans la rela­­tion ci-­­­dessus et uti­­li­­sons les expres­­sions des pro­­ba­­bi­­ li­­tés pkj(Dt) don­­nées plus haut : p j 1 t 1 Dt 2 5 a p k 1 t 2 # pkj 1 Dt 2 5 a p k 1 t 2 # l kj # Dt 1 1 1 2 qjDt 2 # p j 1 t 2 1 o 1 Dt 2 k

k2j

Retran­­chons pj(t) à chaque membre, puis divi­­sons cha­­cun par Dt : p j ( t 1 Dt ) 2 p j ( t ) o ( Dt ) 5 a p k ( t ) # l kj 2 qjp jt 1 . Dt Dt

© Dunod – Toute reproduction non autorisée est un délit.

k2j

Pre­­nons la limite pour Dt ten­­dant vers 0 :

p rj ( t ) 5 a p k ( t ) # l kj 2 qj # p j ( t ) . k2j

Soit, matriciellement, Pr ( t ) 5 P ( t ) # A. Remar­­quons qu’on aurait pu éta­­blir direc­­te­­ment cette rela­­tion matriciellement ; en effet en posant  5 Dt dans la rela­­tion P ( t 1  ) 5 P ( t ) # M(  ) puis en retran­­chant P ( t ) à chaque membre et enfin en divi­­sant cha­­cun par Dt: P ( t 1 Dt ) 2 P ( t ) M( Dt ) 2 I 5 P(t) # . Dt Dt Par pas­­sage à la limite pour Dt ten­­dant vers 0, il vient : Pr ( t ) 5 P ( t ) # A. 201

Chapitre 5 • Pro­­ces­­sus sto­­chas­­tiques et pro­­gram­­ma­­tion…

5.7  Ergodicité Nous com­­men­­ce­­rons par prendre un exemple : celui de l’ingé­­nieur dans son bureau. Nous connais­­sons les expres­­sions des pro­­ba­­bi­­li­­tés de tran­­si­­tion entre t et t 1 Dt, c'est-à-dire sur un inter­­valle de temps infi­­ni­­té­­si­­mal Dt ; cal­­cu­­lons main­­te­­nant ces pro­­ba­­bi­­li­­tés pour un inter­­valle de temps quel­­conque, d’ampli­­tude t. Dans l’équa­­tion de Chapman-­­­Kolmogorov fai­­sons τ 5 Dt et i 5 j 5 0 : p00 1 t 1 Dt 2 5 a p0k 1 t 2 # pk0 1 Dt 2 5 p00 1 t 2 1 1 2 lDt 2 1 p01 1 t 2 # mDt 1 o 1 Dt 2 . k

p00 ( t 1 Dt ) 2 p00 ( t ) o ( Dt ) D’où : 5 2 l # p00 ( t ) 1 m # p01 ( t ) 1 . Dt Dt Par pas­­sage à la limite pour Dt ten­­dant vers 0, il vient : pr00 1 t 2 5 2 l # p00 1 t 2 1 m # p01 1 t 2  ; Or p00(t) 1 p01(t) 5 1, d’où : pr00 1 t 2 5 2 l # p00 1 t 2 1 m 1 1 2 p00 1 t 2 2 , soit : pr00 ( t ) 1 ( l 1 m ) # p00 ( t ) 5 m. Il s’agit d’une équa­­tion dif­­fé­­ren­­tielle du pre­­mier ordre, à coef­­fi­­cients constants et avec second membre. Sa solu­­tion, p00(t), sera la somme de l’« inté­­grale géné­­rale » sans second membre, soit K # exp 3 2 1 l 1 m 2 t 4 , et d’une inté­­grale par­­ti­­cu­­lière avec le m ­second membre, soit m/ 1 l 1 m 2 . On a donc : p00 1 t 2 5 K e 2 1l1 m2t 1 . l1m Sachant que p00(0) 5 1, la constante Κ vaut : K 5 l/ 1 l 1 m 2 . l m Fina­­le­­ment p00 1 t 2 5 e 2 1l 1 m 2t 1 . l1m l1m l l e 2 1l 1 m2t 1 On en déduit p01 1 t 2 5 2 , car p01 1 t 2 5 1 2 p00 1 t 2 . l1m l1m De même on mon­­tre­­rait que : p10 ( t ) 5 2



m l1 m

e 2 (l1 m )t 1

m l1 m

m l e 2 (l1 m )t 1 p11 ( t ) 5 , avec p10 ( t ) 1 p11 ( t ) 5 1. l1 m l1 m Matriciellement : M( t ) 5 c

1 p00 ( t ) p01 ( t ) e 2 ( l 1 m ) t l 2l m l 5 d 1 c c d d p10 ( t ) p11 ( t ) 2 m m l1m l1m m l

Remarque impor­­tante.  Si l’on fait tendre t vers l’infini, les pro­­ba­­bi­­li­­tés de m ( car : e2` 5 0 ) . tran­­si­­tion p00(t) et p10(t) ont la même limite : l1m 202

5.7  Ergodicité

De même, p01(t) et p11(t) ont la même limite :

l l1m

.

Ces limites sont les mêmes quelque soit l’état ini­­tial : E0 ou E1. Ce fait a une consé­­quence impor­­tante pour les pro­­ba­­bi­­li­­tés des états : sup­­po­­ sons qu’à t 5 0 on ait une répar­­tition quel­­conque des pro­­ba­­bi­­li­­tés des états, soit : p0(0) 5 a et p1(0) 5 b, soit P(0) 5 [a, b], où a et b sont des réels posi­­tifs ou nuls, tels que a 1 b 5 1. Éva­­luons les pro­­ba­­bi­­li­­tés d’états E0 et E1 à l’ins­­tant t : p 0 ( t ) 5 a p i ( 0 ) # pij ( t ) 5 p 0 ( 0 ) # p00 ( t ) 1 p 1 ( 0 ) # p10 ( t ) 5 ap00 ( t ) 1 bp10 ( t ) . i

D’où : p 0 ( t ) 5 ( a 1 b ) et : p 1 ( t ) 5 ( a 1 b )

m l1m

l

1 e2

2 e2

(l 1 m )t

(l1 m )t

# al 2 bm , l1m

# al2 bm . On vérifie : p 0 ( t ) 1 p 1 ( t ) 5 1.

l1 m l1 m Pre­­nons alors les limites de ces pro­­ba­­bi­­li­­tés d’états quand t tend vers l’infini : l m p0(t) tend vers p *0 5 (car a 1 b 5 1). ; de même : p *1 5 l1m l1m

© Dunod – Toute reproduction non autorisée est un délit.

Ainsi, les pro­­ba­­bi­­li­­tés des états tendent, ici, vers une limite posi­­tive, indé­­pen­­ dante de la dis­­tri­­bu­­tion ini­­tiale. On dit alors que le pro­­ces­­sus de Markov est « for­­te­­ ment ergodique ». D’une manière géné­­rale, nous dirons d’un pro­­ces­­sus de Markov (homo­­gène) qu’il est « for­­te­­ment ergodique » si toute pro­­ba­­bi­­lité de tran­­si­­tion pij(t) admet, quand t tend vers l’infini, une limite posi­­tive p*j , indé­­pen­­dante de l’état ini­­tial Εi. La matrice M(t) aura alors pour limite la matrice M* dont toutes les lignes sont iden­­tiques et égales à 3 p*0, p*1, p*2, c4 . Ainsi dans notre exemple : M* 5 ≥

m l l1m l1m m

l

l1m l1m

¥

Par consé­­quent, le vec­­teur des pro­­ba­­bi­­li­­tés des états admet une limite P*, posi­­ tive, indé­­pen­­dante de la dis­­tri­­bu­­tion ini­­tiale. En effet, puisque P ( t ) 5 P ( 0 ) # M( t ) , par pas­­sage à la limite, il vient : * P 5 P ( 0 ) # M *. Exemple.  Sans perte de géné­­ra­­lité, on peut consi­­dé­­rer un pro­­ces­­sus de Markov, for­­te­­ment ergodique, avec 3 états : e 5 5 E0, E1, E2 6  ; pre­­nons une répar­­tition ini­­ tiale quel­­conque P(0) 5 [a, b, c] où a, b, c sont posi­­tifs ou nuls et a 1 b 1 c 5 1. ­Détaillons le pro­­duit matriciel ci-­­­dessus : 203

Chapitre 5 • Pro­­ces­­sus sto­­chas­­tiques et pro­­gram­­ma­­tion…

p*0 p*1 p*2 P* 5 3 a, b, c 4 # C p*0 p*1 p*2 S 5 3 p*0 1 a 1 b 1 c 2 , p*1 1 a 1 b 1 c 2 , p*2 1 a 1 b 1 c 2 4 , p*0 p*1 p*2 soit P* 5 3 p*0, p*1, p*2 4  : cette limite est, elle aussi, posi­­tive et indé­­pen­­dante de la dis­­ tri­­bu­­tion ini­­tiale P(0). Remar­­quons, en outre, que pour tout état Ei, on a : p *i 5 p*i . On peut don­­ner une condi­­tion suf­­fi­­sante de forte ergodicité (admise ici) pour un pro­­ces­­sus de Markov : c’est que son graphe soit for­­te­­ment connexe et fini. Ce qui était le cas dans notre exemple. Rap­­pe­­lons que « graphe fini » équi­­vaut à : « e fini ». Nous ver­­rons ulté­­rieu­­re­­ment que, pour un pro­­ces­­sus de Markov com­­por­­tant un nombre infini d’états, la forte ergodicité peut avoir lieu ou pas, selon les valeurs rela­­tives des dif­­fé­­rents taux lij (comme plus bas, dans les pro­­ces­­sus de nais­­sance et de mort). Pré­­ci­­sons enfin qu’un pro­­ces­­sus de Markov est « ergodique » (on dit aussi « sim­­ ple­­ment ergodique ») si toute pro­­ba­­bi­­lité de tran­­si­­tion pij(t) admet, quand t tend vers l’infini, une limite posi­­tive ou nulle p*j indé­­pen­­dante de l’état ini­­tial Ei. Les états Ej, tels que p*j 5 0, sont des états tran­­si­­toires.

5.8 Cal­­cul des pro­­ba­­bi­­li­­tés des états permanent ­­ –théo­­rème des coupes

en régime

Soit un pro­­ces­­sus de Markov homo­­gène, for­­te­­ment ergodique. On dit que ce pro­­ces­­ sus est en « régime per­­manent », si t est suf­­fi­­sam­­ment grand pour que les pro­­ba­­bi­­li­­tés des états aient atteint leur limite ; alors : p i 1 t 2 5 p *i . On se pro­­pose de cal­­cu­­ler ces pro­­ba­­bi­­li­­tés des états en régime per­­manent. Ce cal­­cul peut se pra­­ti­­quer soit en résol­­vant un sys­­tème d’équa­­tions linéaires, soit en appli­­quant le théo­­rème des coupes (qui conduit à un cal­­cul plus aisé, en par­­ti­­cu­­lier si le graphe asso­­cié au pro­­ces­­sus de Markov pré­­sente une struc­­ture régu­­lière).

5.8.1 Théo­­rème des coupes On nomme «  fré­­quence des tran­­si­­tions de l’état Ei vers l’état Ej  en régime per­­ manent », la quan­­tité wij 5 p *i # l ij. Soit B un sous-­­­ensemble d’états : B ( e. La « coupe », asso­­ciée à B (ou « coupe B »), désigne l’ensemble des arcs ayant une extré­­mité et une seule dans B (en théo­­rie des graphes, on uti­­lise le terme : « co­­­cycle asso­­cié à B », noté v(B)). Cet ensemble d’arcs com­­porte deux par­­ties : v1(B) (resp. v2(B)), l’ensemble des arcs ayant leur extré­­mité ini­­tiale (resp. ter­­mi­­nale) dans B et leur extré­­mité ter­­mi­­nale (resp. ini­­tiale) dans B. On nomme « fré­­quence des tran­­si­­tions vers l’exté­­rieur de B » la quan­­tité : wB S B 5 a a p *i # l ij 5 Ei HB Ej HB

204

a

(Ei, Ej) Hv1 (B )

p *i # l ij.

5.8  Cal­­cul des pro­­ba­­bi­­li­­tés des états en régime…

De même, la « fré­­quence des tran­­si­­tions vers l’inté­­rieur de B » est la quan­­tité : w B S B 5 a a p *i # l ij 5 Ei HB Ej HB

a

(Ei, Ej) Hv2 (B )

p *i # l ij.

On peut alors énon­­cer le théo­­rème des coupes : pour tout pro­­ces­­sus de Markov, homo­­gène, for­­te­­ment ergodique, en régime per­­ manent, la fré­­quence des tran­­si­­tions vers l’exté­­rieur de toute coupe B est égale à la fré­­quence des tran­­si­­tions vers l’inté­­rieur de B. Soit, pour tout B ( e, wB S B 5 wB S B. Don­­nons un pre­­mier exemple d’appli­­ca­­tion (bureau de l’ingé­­nieur). En pre­­nant B 5 {E0} et B 5 5 E1 6 , il vient :

λ

w B S B 5 w 01 5 lp *0 ; w B S B 5 w 10 5 m p *1.

D’où : lp *0 5 mp *1. Puisque p *0 1 p *1 5 1, on en déduit : p *0 5

m

et p *1 5

E0

E1

l

. µ l1m l1m On retrouve les valeurs obte­­nues au para­­graphe pré­­cé­­dent, en pre­­nant la limite de p0(t) et p1(t) quand t tend vers l’infini : le lec­­teur appré­­ciera le gain de temps obtenu en appli­­quant le théo­­rème des coupes. Voici une démons­­tra­­tion du théo­­rème des coupes : On a mon­­tré que : p i( t 1  ) 5 a p k ( t ) # p ki(  ) . k

En pre­­nant τ 5 Dt, et en expri­­mant les pro­­ba­­bi­­li­­tés de tran­­si­­tion p ki(  ) sur cet inter­­valle de temps infi­­ni­­té­­si­­mal, il vient : p i( t 1 Dt ) 5 B a p k ( t ) # l ki Dt R 1 p i( t ) ( 1 2 q i Dt ) 1 o ( Dt ) .

© Dunod – Toute reproduction non autorisée est un délit.

k 2i

En régime per­­manent, les pro­­ba­­bi­­li­­tés des états ont atteint leur valeur limite, soit : 1 p i t 1 Dt 2 5 p i 1 t 2 5 p *i . D’où : p *i 5 B a p *k # l ki R Dt 1 p *i ( 1 2 qi Dt ) 1 o ( Dt ) . k2i

En sim­­pli­­fiant dans chaque membre p *i , puis en divi­­sant par Dt que l’on fait alors tendre vers 0, il vient : 0 5 B a p *k lki R 2 p *i a lij, car qi 5 a lij. k 2i

j2i

j2i

205

Chapitre 5 • Pro­­ces­­sus sto­­chas­­tiques et pro­­gram­­ma­­tion…

Soit pour tout état Ei : a p *i # l ij 5 a p *k # l ki, c’est-­­­à-dire a wij 5 a wki. j2i

k2i

j2i

k2i

On reconnaît (par ana­­lo­­gie avec la loi des nœuds en élec­­tri­­cité) la «  loi de ­ irchhoff » appliquée au som­­met Ei. Les φij consti­­tuent donc un flot sur le graphe K sim­­pli­­fié du pro­­ces­­sus de Markov (au besoin se repor­­ter au sous-­­­chapitre 4.4). On montre aisé­­ment que, si la loi de Kirchhoff appliquée est véri­­fiée en tout som­­met d’un graphe, elle est aussi véri­­fiée pour tout ensemble de som­­mets B: wB S B 5 wB S B  ; ainsi le théo­­rème est prouvé.

5.8.2  Cal­­cul algé­­brique de P* Le cal­­cul des pro­­ba­­bi­­li­­tés des états en régime per­­manent peut aussi se faire en résol­­ vant un sys­­tème linéaire. On a vu que : Pr ( t ) 5 P ( t ) # A. En régime per­­manent P(t) ­atteint une ­limite P* (indé­­pen­­dante de la dis­­tri­­bu­­tion ini­­tiale P(0)) : d P* 5 0 où 0 5 3 0, 0, c, 0 4 , car la déri­­vée d’un vec­­teur Alors Pr ( t ) 5 dt constant est le vec­­teur nul 0 ici de for­­mat 1 3 r (on a sup­­posé que Card e 5 r : le pro­­ces­­sus com­­porte r états). D’où le sys­­tème : 0 5 p # A ; a p *i 5 1  (ce qui s’écrit aussi : P* # 1 5 1 où 1 5 3 1, 1, c, 1 4 ). *

r

i51

On montre que pour un pro­­ces­­sus de Markov for­­te­­ment ergodique, ce sys­­tème admet une solu­­tion unique, stric­­te­­ment posi­­tive. Ainsi, pour notre exemple : l R   et  p *0 1 p *1 5 1. m 2m On retrouve le sys­­tème l # p *0 5 m # p *1 et p *0 1 p *1 5 1, puis: 3 0, 0 4 5 3 p *0, p *1 4 # B p *0 5

2l

m l et p *1 5 . l1m l1m

Exemple.  Un ate­­lier com­­porte deux machines iden­­tiques ; cha­­cune à une « fia­­bi­­lité » expo­­nen­­tielle de taux l c’est-­­­à-dire que la pro­­ba­­bi­­lité qu’une machine don­­née en mar­ che à t, tombe en panne entre t et t 1 dt, vaut l dt 1 o(dt). Lorsque panne sur­­vient, la répa­­ra­­tion requiert l’inter­­ven­­tion de deux répa­­ra­­teurs : R1 puis R2 (et tou­­jours dans cet ordre) ; l’ate­­lier ne dis­­pose que d’un seul répa­­ra­­teur R1 et d’un seul répa­­ra­­teur R2. Les durées des répa­­ra­­tions chez R1 comme chez R2 suivent des lois expo­­nen­­tielles de taux res­­pec­­tifs m1 et m2 (la pro­­ba­­bi­­lité qu’une répa­­ra­­tion, en cours à t chez R1, se ter­­mine entre t et t 1 dt vaut : m1 dt 1 o(dt) et m2 dt 1 o(dt) pour R2. Toute machine réparée est immé­­dia­­te­­ment remise en ser­­vice. Les délais d’inter­­ven­­tion des répa­­ra­­ teurs, si ­ceux-­­­ci sont dis­­po­­nibles, sont négli­­geables. On se pro­­pose de modé­­li­­ser le fonc­­tion­­ne­­ment de cet ate­­lier par un pro­­ces­­sus de Markov ; on mon­­trera qu’il est for­­ te­­ment ergodique, puis on cal­­cu­­lera les pro­­ba­­bi­­li­­tés des états en régime per­­manent 206

5.8  Cal­­cul des pro­­ba­­bi­­li­­tés des états en régime…

(par appli­­ca­­tion du théo­­rème des coupes) dans le cas où m1 5 m2 5 m. On en déduira la valeur de deux para­­mètres inté­­res­­sants : la « dis­­po­­ni­­bi­­lité » D* de l’ate­­lier, c’est-­­­ à-dire la pro­­ba­­bi­­lité, en régime per­­manent, qu’au moins l’une des deux machines soit en état de marche, ainsi que d : durée moyenne d’une période de dis­­po­­ni­­bi­­lité. Les états du sys­­tème (ate­­lier) sont les sui­­vants : E0 : aucune machine en panne ;



Ε1 : une machine en panne, chez R1 ; E2 : une machine en panne, chez R2 ; E3 : deux machines en panne : l’une chez R1, l’autre attend R1 ; E4 : deux machines en panne : l’une chez R1, l’autre chez R2 ; E5 : deux machines en panne : l’une chez R2, l’autre attend R2. e 5 5 E0, E1, c, E5 6 . Ainsi:

Remar­­quer que lorsque deux machines sont en marche à t, la pro­­ba­­bi­­lité que l’une des deux tombe en panne entre t et t 1 dt est : 2ldt 1 o(dt). Le graphe est for­­te­­ment connexe (en effet, il com­­porte un cir­­cuit hamiltonien : (0, 1, 3, 4, 5, 2, 0)) et fini : le pro­­ces­­sus est donc for­­te­­ment ergodique. Pour cal­­cu­­ler les pro­­ba­­bi­­li­­tés des états en régime per­­manent, on pour­­rait résoudre 4

le sys­­tème P* # A 5 0 avec a p *i 5 1, mais il est plus pra­­tique d’uti­­li­­ser le théo­­ i 50

5 E4 6  : 2m # p *4 5 l # p *2 1 m # p *3 et : p *0 1 p *1 1 c1 p *5 5 1.



;









rème des coupes (on a posé m1 5 m2 5 m) : 5 E0 6  : 2l # p *0 5 m # p *2 ; 5 E1 6  : ( l 1 m ) # p *1 5 2l # p *0 1 m # p *4 ; 5 E2 6  : ( l 1 m ) # p *2 5 m # p *1 1 m # p *5 ; 5 E3 6  : m # p *3 5 l # p *1 ;



© Dunod – Toute reproduction non autorisée est un délit.

Voici le graphe des tran­­si­­tions entre t et t 1 dt, puis le graphe sim­­pli­­fié :

5 E5 6  : m # p *5 5 m # p *4 ;

207

Chapitre 5 • Pro­­ces­­sus sto­­chas­­tiques et pro­­gram­­ma­­tion…

On a donc p *4 5 p *5 d’après (5) : puis (0) et (1) donnent : m # p *4 1 m # p *2 5 1 l 1 m 2 # p *1 et (2) et (5) donnent : m # p *4 1 m # p *1 5 1 l 1 m 2 p *2. La dif­­fé­­rence membre à membre de ces deux rela­­tions four­­nit : m # ( p *2 2 p *1 ) 5 2 ( l1 m ) # ( p *22 p *1 2 , d’où : p *1 5 p *2 ; (2) s’écrit alors : m # p *5 5 l # p *2 et (3) : l # p *2 5 m # p *3. D’ où : p *3 5 p *5. ­Fina­­le­­ment :

2 2l * # p 0   et  p *3 5 p *4 5 p *5 5 2l2 # p *0. m m 4l 6l 2 Or, p *0 1 p *1 1 c1 p *5 5 1, soit p *0 # a1 1 1 2 b 5 1 et :  m m 1 * p0 5 . 1 1 4l/m 1 6l 2 /m 2 1 1 4l/m La dis­­po­­ni­­bi­­lité D* est : D* 5 p *0 1 p *1 1 p *2 5 . 1 1 4l/m 1 6l 2 /m 2 On montre que la durée moyenne d d’une période de dis­­po­­ni­­bi­­lité (c’est-­­­à-dire de séjour, en régime per­­manent, dans le sous-­­­ensemble d’états B 5 {E0, E1, E2}) vaut : p *0 1 p *1 1 p *2 p *0 ( 1 1 4l/m ) p *B 1 1 4l/m 4l 1 m 1 m d5 5 5 5 5 5 1 . wB S B wB S B l ( p *1 1 p *2 ) 4l 2 /m 4l 2 l 4l 2

p *0 5 p *1 5

On véri­­fie que d est effec­­ti­­ve­­ment supé­­rieure à 1/l, qui est la durée moyenne de bon fonc­­tion­­ne­­ment d’une seule machine. Plus les répa­­ra­­tions sont rapides, plus m est grand : par suite plus d est grand.

5.9  Pro­­ces­­sus

de

Markov

par­­ti­­cu­­liers

5.9.1 Pro­­ces­­sus de nais­­sance Uti­­li­­sés dès 1940 par Lundberg pour des sta­­tistiques d’acci­­dents, puis vers 1943 par Arley à pro­­pos du rayon­­ne­­ment cos­­mique, ils ont été employés vers 1950 par Kendall, Bartlett et Feller en bio­­lo­­gie. Nous les uti­­li­­se­­rons en recherche opé­­ra­­tion­­ nelle, par exemple pour repré­­sen­­ter des arri­­vées aléa­­toires de clients dans des files d’attente ou encore des occur­­rences de pannes d’équi­­pe­­ments. Par défi­­ni­­tion, un pro­­ces­­sus de Markov homo­­gène Xt est un pro­­ces­­sus de nais­­ sance si les pro­­ba­­bi­­li­­tés de tran­­si­­tion entre t et t 1 Dt, ont pour expres­­sion : pi, i 1 1 1 Dt 2 5 l i # Dt 1 o 1 Dt 2 b pi, i 1 Dt 2 5 1 2 l i # Dt 1 o 1 Dt 2 où l i 5 l i, i 1 1 est le « taux de nais­­sance » à par­­tir de l’état Ei. Les probabilités de transition de i vers i 1 2, i 1 3, ... , sont négligeables. Celles de i vers i 2 1, i 2 2, ... , sont nulles.

208

5.9  Pro­­ces­­sus de Markov par­­ti­­cu­­liers

© Dunod – Toute reproduction non autorisée est un délit.

Xt peut être vu comme la taille d’une «  popu­­la­­tion  » (au sens sta­­tistique du terme), à l’ins­­tant t, expri­­mée en nombres d’« indi­­vi­­dus » pré­­sents. Dans l’état Ek, k indi­­vi­­dus sont pré­­sents (on confond donc le plus sou­­vent l’ensemble des états e avec N). La pro­­ba­­bi­­lité d’appa­­ri­­tion (ou « nais­­sance ») d’un nou­­vel indi­­vidu entre t et t 1 Dt, lorsque la popu­­la­­tion com­­porte i indi­­vi­­dus à t, est : li Dt 1 ο(Dt) ; celle d’appa­­ri­­tion de plu­­sieurs indi­­vi­­dus entre t et t 1 Dt est négli­­geable (en ο(Dt)). Notons qu’ici aucune dis­­pa­­ri­­tion (ou « mort ») ne peut se pro­­duire. Voici le graphe des tran­­si­­tions entre états, entre t et t 1 Dt :

Le pro­­ces­­sus est dit « ouvert » si li est stric­­te­­ment posi­­tif pour toute taille (état) i de la population. Alors cette taille tend vers l’infini quand t tend vers l’infini : le pro­­ces­­sus n’est pas ergodique. Tou­­te­­fois, pour t fini, on peut chercher à cal­­cu­­ler les pro­­ba­­bi­­li­­tés des états pi(t), sachant qu’ini­­tia­­le­­ment elle est de taille nulle : X0 5 0. C’est ce que nous ferons ci-­­­dessous pour les pro­­ces­­sus de Pois­­son. Indi­­quons que ce cal­­cul n’est pos­­sible que si li ne croît pas « trop vite » avec i ; on montre que les pro­­ba­­bi­­li­­tés des états à t (fini) n’existent que si la série a 1/l i ­diverge. Intui­­ti­­ve­­ment, puisque 1/li est le temps moyen de séjour de l’état i, la ­somme 1/l 0 1 1/l 1 1 c1 1/l n repré­­sente l’espé­­rance du temps passé dans les états 0, 1, cn. Si la série converge, la popu­­la­­tion atteint une taille moyenne infi­­nie en un temps fini... Ce serait le cas, par exemple, pour l i 5 ( i 1 1 ) 2 # l. Au contraire, le pro­­ces­­sus est dit «  fermé  » s’il existe une taille N telle que lN 5  0 (sachant que li est posi­­tif pour tout i 5 0, 1, c, N 2 1 ) . La popu­­la­­tion devient « sté­­rile » dès qu’elle a atteint la taille N. En pra­­tique, c’est le cas des sys­­ tèmes à capa­­cité limi­­tée à N uni­­tés : lorsque cette capa­­cité est atteinte, il n’y a plus d’arri­­vée (nais­­sance). Ainsi si un stan­­dard télé­­pho­­nique est saturé (ses N lignes étant occu­­pées) les appels qui arrivent alors sont per­­dus. Le pro­­ces­­sus fermé est ergodique (mais pas for­­te­­ment ergodique) : quand t tend vers l’infini, on a : p *0 5 p *1 5 c5 p *N 2 1 5 0 et p *N 5 1. L’état N est ­« absor­­ bant ».

5.9.2 Pro­­ces­­sus de Pois­­son Par défi­­ni­­tion, un pro­­ces­­sus de Pois­­son est un pro­­ces­­sus de nais­­sance ouvert pour lequel le taux de nais­­sance ne dépend pas de la taille de la popu­­la­­tion : li 5 l pour i 5 0, 1, 2, c 209

Chapitre 5 • Pro­­ces­­sus sto­­chas­­tiques et pro­­gram­­ma­­tion…

Sup­­po­­sons qu’à t 5 0, la taille de la popu­­la­­tion soit nulle : X0 5 0 et expri­­mons les pro­­ba­­bi­­li­­tés des états à t 1 Dt en fonc­­tion de celles-­­­ci à t, et du taux de nais­­sance l. (5.1) p0(t 1 Dt) 5 p0(t 2 # 1 1 – l D t) 1 ο(Dt) e pn(t 1 Dt) 5 pn–1(t 2 # l Dt 1 pn(t 2 # 1 1 – l D t) 1 ο(Dt) (n 5 1, 2, c). (5.2) La rela­­tion (5.1) entraîne p r0 1 t 2 5 2l # p 0 1 t 2 , d’où : p 0 1 t 2 5 K # e 2 lt. Puisque p0(0) 5 1, il vient Κ 5 1 et : p0 ( t ) 5 e 2lt.

La rela­­tion (5.2) : •  pour n 5 1 four­­nit : p 1r ( t ) 5 l # p 0 ( t ) 2 l # p 1 ( t ) , soit p 1r ( t ) 1 l # p 1 ( t ) 5 le 2 lt, qui a pour solu­­tion p1(t) 5 lt e–lt. •  Pour n 5 2, on obtient alors : p 2r ( t ) 1 l # p 2 ( t ) 5 l 2e 2 lt qui a pour solu­­tion

l 2t2 2 lt #e . 2

l 3t3 2 lt e . 6 ( lt ) 4 l4t 4 2lt e2lt. e 5 •  Pour n 5 4, on trouve : 24 4! •  Pour n 5 3, on trouve : p 3 ( t ) 5

On fait alors l’hypo­­thèse de récur­­rence : pn ( t ) 5

( lt ) n n!

e 2lt

et l’on montre que pn11(t) a la forme ana­­logue : p n 1 1 ( t ) 5

( lt ) n 1 1 (n 1 1)!

e2lt.

Connais­­sant, désor­­mais, les pro­­ba­­bi­­li­­tés des états d’un pro­­ces­­sus de Pois­­son, on peut cal­­cu­­ler l’espé­­rance et la variance du nombre de nais­­sances entre 0 et t (ou entre  et  1 t puisque le pro­­ces­­sus est homo­­gène) : E 1 Xt 2 5 a n # p n 1 t 2 5 e `

n50

5 e 2 lt # lt # elt 5 lt.

210

an `

2 lt

n51

1 lt 2 n

n # 1n 2 12!

# lt a `

5e

2 lt

1 lt 2 n 2 1

n51 1 n

2 12!

5.9  Pro­­ces­­sus de Markov par­­ti­­cu­­liers

Par abus de lan­­gage, nous dirons que le « nombre moyen » de nais­­sances sur un inter­­valle de temps d’ampli­­tude t est lt. La variance est : 2 1 E 1 Xt 2 2 5 a n2 # p n 1 t 2 2 1 lt 2 2 ; `

var Xt 5

E 1 X 2t 2

2

n50

par un cal­­cul ana­­logue à celui ci-­­­dessus, il vient : var Xt 5 lt.

Rap­­pe­­lons, en résumé, les prop­­rié­­tés impor­­tantes du pro­­ces­­sus de Pois­­son : – il est homo­­gène, ce qui se tra­­duit par le fait que le taux de nais­­sance l est indé­­ pen­­dant du temps ; – c’est une loi à « accrois­­se­­ments indé­­pen­­dants » : les nombres de nais­­sances X 1 et X 2 sur deux inter­­valles de temps T 1 et T 2 dis­­joints, sont des variables aléa­­ toires indé­­pen­­dantes ; – la pro­­ba­­bi­­lité d’occur­­rence « simul­­ta­­née » (c’est-­­­à-dire entre t et t 1 Dt) de plu­­sieurs évé­­ne­­ments (nais­­sances) est négli­­geable : elle est en o(Dt) ; – le pro­­ces­­sus n’est pas ergodique : le nombre de nais­­sances Xt tend vers l’infini quand t tend vers l’infini. Remarque.  Le pro­­ces­­sus (ou loi) de Pois­­son se ren­­contre fré­­quem­­ment en pra­­tique : arri­­vées d’usa­­gers à un arrêt d’auto­­bus, à un gui­­chet de banque ; occur­­rence de pannes de com­­po­­sants élec­­tro­­niques (ou de cer­­tains moteurs) ; arri­­vées d’appels à un stan­­dard télé­­pho­­nique ; arri­­vées de pro­­ces­­sus (requêtes) dans un sys­­tème ou réseau infor­­ma­­tique.

5.9.3 Loi expo­­nen­­tielle Soit un pro­­ces­­sus de Pois­­son de taux m ; consi­­dé­­rons l’inter­­valle de temps T sépa­­rant deux évé­­ne­­ments (nais­­sances) consé­­cu­­tifs. En remar­­quant que T sera supé­­rieur à t si et seule­­ment si aucune nais­­sance n’a lieu entre 0 et t, il vient : 0 naissance sur un intervalle R 5 p 0 1 t 2 5 e 2 mt, de temps d’amplitude t la variable aléa­­toire T est donc régie par une loi expo­­nen­­tielle. La den­­sité de pro­­ba­­ bi­­lité de T, notée f (t), vaut : f 1 t 2 dt 5 P 3 t , T < t 1 dt 4 5 d 1 P 3 T < t 4 2 5 d 1 1 2 e 2 mt 2 5 me 2 mtdt.

© Dunod – Toute reproduction non autorisée est un délit.

P 3 T . t 4 5 PB

La durée moyenne entre deux nais­­sances consé­­cu­­tives, autre­­ment dit E(T), est : 1 E ( T ) 5 3 t # f ( t ) # dt 5 3 t m e 2 mt dt 5 m . `

0

`

0

On peut aussi cal­­cu­­ler var T 5 s2T. Elle est égale à :

1

. m2 Une prop­­riété impor­­tante de la loi expo­­nen­­tielle est la sui­­vante :

211

Chapitre 5 • Pro­­ces­­sus sto­­chas­­tiques et pro­­gram­­ma­­tion…

cherc­­hons la pro­­ba­­bi­­lité d’occur­­rence d’un évé­­ne­­ment entre t et t 1 dt, sachant qu’il y a eu un évé­­ne­­ment à t 5 0, puis aucun évé­­ne­­ment entre 01 et t : P 3 t , T < t 1 dt k T . t 4 5 5

P 3 t , T < t 1 dt et T . t 4 m#e

2 mt

P 3T . t 4 # dt 5 m # dt.

5

P 3 t , T < t 1 dt 4 P 3T . t 4

e 2 mt Notons la sim­­pli­­fi­­ca­­tion par e qui a une consé­­quence impor­­tante : On trouve m # dt : cette valeur est indé­­pen­­dante de t (ce qui est lié à la prop­­riété « sans mémoire » du pro­­ces­­sus de Markov qu’est le pro­­ces­­sus de Pois­­son de taux m, consi­­déré ici). En pra­­tique, pre­­nons deux exemples : –mt

•  sup­­po­­sons d’abord qu’une conver­­sa­­tion télé­­pho­­nique, se dérou­­lant dans une cabine publique, suive une loi expo­­nen­­tielle et qu’à l’exté­­rieur une per­­sonne attende que la cabine se libère... Alors, que cette per­­sonne ait attendu 10 secondes, 5 minutes ou 1 heure, la pro­­ba­­bi­­lité que la conver­­sa­­tion se ter­­mine dans la seconde qui suit (dt 5 1 s) est la même ! Tout se passe comme si, à chaque ins­­tant, la conver­­sa­­tion venait de com­­men­­cer... •  Consi­­dé­­rons ensuite un équi­­pe­­ment de fia­­bi­­lité expo­­nen­­tielle (c’est-­­­à-dire que si T est la date de sa panne, on a P[T > t] 5 e–mt). À tout ins­­tant, tout se passe comme si l’équi­­pe­­ment était neuf. Aussi, pra­­ti­­quer un renou­­vel­­le­­ment pré­­ven­­tif sur un tel équi­­pe­­ment revien­­drait... à mettre à la pou­­belle un équi­­pe­­ment neuf ! Ter­­mi­­nons par une remarque. Pour la loi expo­­nen­­tielle, le carré du coef­­fi­­cient de varia­­tion : s2T/ 1 E 1 T 2 2 2 est égal à 1. Pour des lois moins dis­­per­­sées que la loi expo­­ nen­­tielle, ce coef­­fi­­cient est infé­­rieur à 1 : tel est le cas pour la loi d’Erlang-k (déduite d’un pro­­ces­­sus de Pois­­son de taux km, dans lequel on regroupe les évé­­ne­­ments en ( km ) ktk 2 1e2kmt ( ) groupes de k évé­­ne­­ments) dont la den­­sité de pro­­ba­­bi­­lité est : f t 5  ; (k 2 1)! 1 alors E 1 T 2 5 m et s2T 5 1/km 2 ; le carré du coef­­fi­­cient de varia­­tion vaut donc 1/k : k étant un entier posi­­tif, on a donc : s2T/ ( E ( T )) 2 , 1. Au contraire, pour des lois plus dis­­per­­sées que la loi expo­­nen­­tielle, ce coef­­fi­­cient est supé­­rieur à 1 ; ainsi pour les lois hyper-­­­expo­­nen­­tielles dont la den­­sité de pro­­

ba­­bi­­lité est : f ( t ) 5 a ai l i e i 51 s2T/ ( E ( T )) 2 . 1. r

2 li t

, où a ai 5 1 et ai . 0. Alors E(T) = a r

p

i 51

i 51

ai li

et

5.9.4 Pro­­ces­­sus de mort Soit le pro­­ces­­sus sto­­chas­­tique Xt, où Xt s’inter­­prète comme la taille d’une popu­­la­­tion à l’ins­­tant t, ini­­tia­­le­­ment non nulle : X0 5 M. La pro­­ba­­bi­­lité de dis­­pa­­ri­­tion d’un indi­­

212

5.9  Pro­­ces­­sus de Markov par­­ti­­cu­­liers

vidu (on dit aussi mort, ou départ) entre t et t 1 Dt, lorsque la popu­­la­­tion com­­porte i indi­­vi­­dus est : mi Dt 1 ο(Dt). Il ne se pro­­duit pas de nais­­sance. On a alors affaire à un pro­­ces­­sus de Markov dont voici le graphe des tran­­si­­tions entre t et t 1 Dt :

On sup­­pose que m0 5 0 et mi > 0 pour i 5 1, 2, c, M. Le pro­­ces­­sus de mort est ergodique ; quand t tend vers l’infini, on a les limites : p *0 5 1 et p *1 5 p *2 5 c5 p *M 5 0. E0 est un état absorbant.

5.9.5 Pro­­ces­­sus de nais­­sance et de mort Nous pas­­sons main­­te­­nant à ce pro­­ces­­sus, très employé pour modé­­li­­ser notam­­ment des phé­­no­­mènes d’attente ou encore des sys­­tèmes sujets à des pannes répa­­rables. Le pro­­ces­­sus de nais­­sance et de mort est obtenu en super­­po­­sant un pro­­ces­­sus de nais­­ sance et un pro­­ces­­sus de mort. Ce pro­­ces­­sus de Markov Xt, où Xt repré­­sente la taille d’une popu­­la­­tion à l’ins­­tant t, est donné par les pro­­ba­­bi­­li­­tés de tran­­si­­tion entre t et t 1 dt ci-­­­dessous : : une nais­­sance entre t et t 1 dt p i, i 1 1 ( Dt ) 5 l i D t 1 o ( Dt )

• p i, i 2 1 ( Dt ) 5 mi D t 1 o ( Dt ) p i, i( Dt )

: une mort entre t et t 1 dt

5 1 2 ( l i 1 m i) D t 1 o ( Dt ) : ni nais­­sance, ni mort entre t et t 1 dt

Voici le géné­­ra­­teur infi­­ni­­té­­si­­mal asso­­cié, noté A : 2 l0

© Dunod – Toute reproduction non autorisée est un délit.

A5E

m

1

l0 2 ( l1 1 m 1 )

0

m

(

f

2

0

0c

0c U. 2 ( l2 1 m 2 ) l2 l1

f

f

Dans le cas d’un pro­­ces­­sus fermé (lN 5 0 ; li > 0 pour i 5 1, 2, c, Ν 2 1 et mi > 0 pour i 5 1, 2, c, N), on a le graphe sim­­pli­­fié :

213

Chapitre 5 • Pro­­ces­­sus sto­­chas­­tiques et pro­­gram­­ma­­tion…

Le graphe étant for­­te­­ment connexe et fini, le pro­­ces­­sus de nais­­sance et de mort fermé est for­­te­­ment ergodique (quelles que soient les valeurs rela­­tives des taux de nais­­sance et de mort). Rap­­pe­­lons qu’alors les pro­­ba­­bi­­li­­tés des états tendent vers une limite : P* 5 3 p *0, p *1, c, p *N 4 solution de O = P*·A,

indé­­pen­­dante de la répar­­tition ini­­tiale (d’ailleurs, nous n’avions pré­­cisé, ici, aucun état ini­­tial, ni de dis­­tri­­bu­­tion ini­­tiale P(0)). Dans le cas d’un pro­­ces­­sus ouvert (li > 0 pour tout i 5 1, 2, c), le nombre d’états est infini. On ne peut pas savoir d’emblée si le pro­­ces­­sus est for­­te­­ment ergodique ou pas ; nous ferons cepen­­dant, l’hypo­­thèse de forte ergodicité et trou­­ verons, a pos­­te­­riori, une condi­­tion por­­tant sur les valeurs rela­­tives des taux de nais­­sance et de mort pour que cette hypo­­thèse soit véri­­fiée. Repre­­nons le graphe sim­­pli­­fié :

Soit Bn la « coupe » : Bn 5 5 E0, E1,c, En 2 1 6 . Plaçons-­­­nous en régime per­­manent et appli­­quons le théo­­rème des coupes à Bn , puis à Bn 2 1, c , puis B1 :

l n 2 1 # p *n 2 1  5  m n # p *n



l n 2 2 # p *n 2 2 5 m n 2 1 # p *n 2 1





( ( l 1 # p *1  5  m 2 # p *2 l 0 # p *0  5  m 1 # p *1

l n 2 1 # l n 2 2 # c# l 0 # p *0  5  m n # m n 2 1 # c# m 1 # p *n Le pro­­duit membre à membre de ces n rela­­tions four­­nit, après sim­­pli­­fi­­ca­­tions : p *n

l n 2 1 # l n 2 2 # c# l 0 5 m # m # c# m # p *0. n n21 1

On a ainsi pu expri­­mer la pro­­ba­­bi­­lité de l’état n en régime per­­manent, soit p *n, en fonc­­tion des dif­­fé­­rents taux de nais­­sance et de mort, ainsi que de p *0. Reste à cal­­cu­­ler p *0. 214

5.9  Pro­­ces­­sus de Markov par­­ti­­cu­­liers

Cas du pro­­ces­­sus fermé, on écrit : a p *n 5 1, d’où : N

n50

p *0

lk 2 1 5 1^ c1 1 a a q m b d . k N

n

n51

k51

Ainsi, dans le cas simple : l 0 5 l 1 5 c5 l N 2 1 5 l et m 1 5 m 2 5 c5 m N 5 m (que l’on ren­­contrera plus loin dans les files d’attente) il vient : p *0 5 1^ c1 1 p *0 5 1

l l2 lN 1 2 1 c1 N d  ; si l ≠ m, on a alors : m m m

l 1 2 amb

l 12m

N11

5

l 12m l 1 2 amb

N11

, et si l 5 m , p *0 5

1

N11

.

Cas du pro­­ces­­sus ouvert, a p *m est une série (somme infi­­nie de termes) qui `

n50

doit conver­­ger vers 1 (la somme des pro­­ba­­bi­­li­­tés des états étant égale à 1). Appli­­ quons le cri­­tère de conver­­gence de d’Alembert (qui est une condi­­tion suf­­fi­­sante de conver­­gence) : si, à par­­tir d’un cer­­tain rang N0 (c’est-­­­à-dire pour tout n > N0) le rap­­ port p *n /p *n 2 1 est infé­­rieur ou égal à a , 1, la série est conver­­gente. p *n ln 2 1 ln 2 1 Or * 5 m n ; la condi­­tion m , 1 peut s’inter­­préter ici comme suit : n p n21

© Dunod – Toute reproduction non autorisée est un délit.

à par­­tir d’une cer­­taine taille N0 , le taux de nais­­sance doit être infé­­rieur au taux de mort, pour toute coupe Bn ; sinon, on « sent » que la taille de la popu­­la­­tion s’accroî­­trait jus­­qu’à l’infini : il ne sau­­rait exis­­ter alors un régime per­­manent. On inter­­prètera encore mieux cette condi­­tion pour les files d’attente (M/M/1 ou M/M/S, par exemple). Dans le cas simple l0 5 l1 5 l2 5 c 5 l et m1 5 m2 5 m3 5 c 5  m avec  l   m, (nous ver­­rons plus loin que c’est le cas de la file M/M/1) il vient : ln p *n 5 n # p *0 ; le cal­­cul de p *0 dans le cas ouvert conduit donc à som­­mer la série géo­­ m l2 ln l mé­­trique : p *0 # c1 1 1 2 1 c1 n 1 cd 5 1. Cette série est conver­­gente m m m l l lorsque m , 1 et a pour somme 1^ a1 2 m b. D’où, p *0

n

l l l 5 1 2 m et p *n 5 a m b # a1 2 m b pour n 5 0, 1, 2, c

215

Chapitre 5 • Pro­­ces­­sus sto­­chas­­tiques et pro­­gram­­ma­­tion…

5.10 Notion de pro­­gram­­ma­­tion stochas ­­ ­­tique

dyna­­mique

Nous avons étu­­dié au cha­­pitre 4 la pro­­gram­­ma­­tion dyna­­mique se rap­­por­­tant à des situa­­tions où le hasard n’inter­­vient pas. Ici, au contraire, nous nous inté­­res­­se­­rons aux cas où le hasard joue un rôle. Bien entendu, de ce fait, nous ne pour­­rons plus com­­pa­­rer direc­­te­­ment les résul­­tats de telle ou telle poli­­tique, mais seule­­ment des espé­­rances mathéma­­tiques de gain ou de coût. L’intro­­duc­­tion de cette mesure des résul­­tats ­impose un cer­­tain nombre de pré­­cau­­tions et, notam­­ment, ne peut don­­ner des indi­­ca­­tions valables que si la loi des grands nombres s’applique dans le contexte du pro­­blème. Nous don­­ne­­rons d’abord un exemple simple de la manière dont peut se pra­­ti­­quer le cal­­cul, en pré­­sence d’évé­­ne­­ments sou­­mis au hasard.







Exemple.  Sup­­po­­sons que nous ayons affaire à un joueur qui connaît, au début du jeu, la posi­­tion qu’il occupe : A, B ou C et reçoit, en phase 1, l’auto­­ri­­sa­­tion de chan­­ ger de posi­­tion ou de rester dans sa position selon les flèches (arcs) pleines du des­­sin (fig. 5.3). Le hasard inter­­vient ensuite en imposant au joueur un déplacement aléa­ toire, sui­­vant les flèches (arcs) des­­si­­nées en poin­­tillés sur lesquelles sont indiqués le gain correspondant à chaque déplacement puis la probabilité de celui-ci. À la fin de la phase 1, le joueur se trouve donc dans une des trois posi­­tions A, Β ou C et reçoit de nou­­veau – c’est la phase 2 – le droit de se dépla­­cer à son gré, puis de par­­ti­­ci­­per à un nou­­veau tirage (fig. 5.4).

Figure 5.3

Figure 5.4

Étu­­dions quelles doivent être les stra­­té­­gies opti­­males de ce joueur dans un jeu com­­por­­tant de nom­­breuses par­­ties de même type. Appe­­lons z2 ( y2, x2 ) l’espé­­rance mathéma­­tique du joueur qui, se trou­­vant en y2, décide d’aller en x2 (cf Fig. 5.4) ; on a, en pre­­nant y2 5 A : z2 1 A, A 2 5 2 3 0, 8 1 4 3 0, 2 5 2, 4 216

z2 1 A, B 2 5 3 3 0, 5 1 4 3 0, 5 5 3, 5

5.10  Notion de pro­­gram­­ma­­tion dyna­­mique sto­­chas­­tique

et l’on voit que le joueur doit choi­­sir la seconde déci­­sion, comme don­­nant une espé­­rance de gain plus forte que la pre­­mière. Des cal­­culs ana­­logues pour y2 5 Β puis y2 5 C donnent les résul­­tats sui­­vants : z2 ( B, A ) 5 2, 4 ; z2 ( B, C ) 5 2, 8 ; puis :

z2 ( C, A ) 5 2, 4 ; z2 ( C, B ) 5 3, 5 ; z2 ( C, C ) 5 2, 8, d’où le choix x2 5 C si y2 5 Β et le choix x2 5 Β si y2 5 C. Remon­­tons à la 1ère phase et cal­­cu­­lons de la même manière, l’espé­­rance z1 (y1, x1) ; on a pour y15 A : z1 1 A, A 2 5 1 3 1 3, 5 2 3 0, 7 1 1 2 1 2, 8 2 3 0, 2 1 1 1 1 3, 5 2 3 0, 1 5 5, 96 ;

z1 ( A, C ) 5 ( 2 1 2, 8 ) 3 0, 2 1 ( 5 1 3, 5 ) 3 0, 8 5 7, 76 , d’où l’on déduit que, si y1 5 A, il faut choi­­sir x1 5 C. On obtient éga­­le­­ment : z1 ( B, A ) 5 5, 96 ; z1 ( B, B ) 5 7, 10 ; z1 ( C, B ) 5 7, 10 ; z1 ( C, C ) 5 7, 76 , d’où les stra­­té­­gies : si y1 5 B, choi­­sir : x1 5 B ; si y1 5 C, choi­­sir : x1 5 C. Stra­­té­­gies opti­­males :

© Dunod – Toute reproduction non autorisée est un délit.

En phase I

En phase II

Si le joueur se trouve en

il choisit

Si le joueur se trouve en

il choisit

A

C

A

B

B

B

B

C

C

C

C

B

On remarque que, dans ces cal­­culs, on uti­­lise déjà les résul­­tats de la phase sui­­ vante, c’est-­­­à-dire qu’on admet que les dépla­­ce­­ments futurs seront conformes aux stra­­té­­gies opti­­males déjà déter­­mi­­nées : le cal­­cul remonte du futur vers le passé. Il faut obser­­ver que l’on a été obligé, ici, de remon­­ter du futur au passé pour effec­­tuer les cal­­culs, car sinon on n’aurait pas béné­­fi­­cié d’une réduc­­tion du carac­­tère com­­bi­­na­­toire du pro­­blème : il aurait fallu énu­­mé­­rer 556 che­­mins pos­­sibles, comme si l’on igno­­rait la notion d’espé­­rance mathéma­­tique. Le pro­­blème est dit « for­­te­­ment ordonné ». 217

Chapitre 5 • Pro­­ces­­sus sto­­chas­­tiques et pro­­gram­­ma­­tion…

Bien entendu, l’exemple n’est rela­­tif qu’à deux phases, mais on peut ima­­gi­­ner un nombre élevé de phases suc­­ces­­sives. Il arrive par­­fois que les diverses phases se déroulent exac­­te­­ment selon le même schéma, contrai­­re­­ment à ce qui se passe dans l’exemple choisi ci-dessus ; il est alors indi­­qué de faire appel éga­­le­­ment à la théo­­rie des chaînes de Markov (méthode de Howard). Le théo­­rème d’optimalité, rela­­tif à un phé­­no­­mène s’éten­­dant sur N périodes, s’énonce alors : une sous-­­­stratégie opti­­male de Ν à N 2 n ne peut être for­­mée que par une sous-­­­stratégie opti­­male de Ν à N 2 n 1 1. On peut évi­­dem­­ment consi­­dé­­rer, en ave­­nir aléa­­toire, des choix dis­­crets ou conti­­ nus, un hori­­zon (nombre de phases) limité ou un hori­­zon illi­­mité. Essayons de for­­mu­­ler les équa­­tions de récur­­rence dans le cas aléa­­toire, comme nous l’avons fait pour le cas cer­­tain, avec des choix dis­­crets et un hori­­zon limité. Nous choi­­si­­rons un pro­­ces­­sus où, à chaque phase, le hasard inter­­vient pour faire évo­­luer la situa­­tion, après que l’on ait pris une déci­­sion ; pour cette rai­­son, on qua­­li­­ fie un tel pro­­ces­­sus de pro­­ces­­sus D.H. (décision-­­­hasard) ; il existe, bien entendu, le pro­­ces­­sus inverse, H.D., un peu plus dif­­fi­­cile cepen­­dant à manier. Soient donc : •  E1t 2 1, E2t 2 1, c, Eit 2 1, c, Ept 2(t)1, les états dans les­­quels peut se trou­­ver le sys­­tème au début de la phase t ; p(t) désigne le nombre d’états pos­­sibles lors de ce début de phase. •  Dt1, Dt2, c, Dtj, c, Dtq(t), les états vers lesquels le déci­­deur peut trans­­fé­­rer le sys­­ tème par la déci­­sion qu’il prend à la phase t ; •  ctij, le coût de la déci­­sion de trans­­fé­­rer le sys­­tème de l’état Eit 2 1 à l’état Dtj (dans l’exemple ci-­­­dessus ce coût était nul). Obser­­vons tou­­te­­fois qu’à par­­tir de l’état Eit 2 1, seule une par­­tie des Dtj, soit G1 1 Eit 2 1 2 , est acces­­sible ; • ptjk, la pro­­ba­­bi­­lité de pas­­ser de l’état Dtj à l’état Etk à la fin de la phase t, et r tjk le revenu résul­­tant de ce pas­­sage (cf les arcs en poin­­tillés de la Fig 5.3). Rap­­pe­­lons qu’on appelle « stra­­té­­gie » la col­­lec­­tion des déci­­sions qui doivent être prises, pour chaque phase, quand le sys­­tème est dans un état déter­­miné. Sup­­po­­sons que nous connais­­sions la sous-­­­stratégie opti­­male du début de la phase t 1 1 jus­­qu’à la fin de la phase N, donc les z*t 1 Etk 2 , c’est-­­­à-dire les p(t) valeurs opti­­ males de l’espé­­rance mathéma­­tique du revenu en cha­­cun des états pos­­sibles Etk à la fin de la phase t (ou début de la phase t 1 1). Nous écri­­rons z*t 1 Etk 2 sous la forme plus simple z*t k . Nous vou­­lons éva­­luer les 21 z*t , c’est-­­­à-dire espé­­rances mathéma­­tiques opti­­males lorsque, au début de la phase i t, le sys­­tème se trouve dans l’état Eit 2 1. On a : 21 z*t t

218

1 a ptjk # ( rjkt 1 z*t k )f. p( t )

5

max

jPG1(Ett 2 1 )

e 2ctij

k51

5.10  Notion de pro­­gram­­ma­­tion dyna­­mique sto­­chas­­tique

où G 1 1 E it 2 1 2 désigne les déci­­sions pos­­sibles à t, à par­­tir de l’état E it 2 1. Notons que ctij est pré­­cédé du signe moins car un coût est un revenu néga­­tif. Ces équa­­tions montrent que le cal­­cul est mené, comme nous l’avons déjà remar­­qué, par­­tant de la fin de la phase N, en remon­­tant dans le temps de proche en proche. Le lec­­teur trou­­vera une appli­­ca­­tion des pro­­ces­­sus D – H au cha­­pitre 6, à pro­­pos de l’opti­­mi­­sation de stra­­té­­gies de rem­­pla­­ce­­ment d’équi­­pe­­ments. t�1

t D1t

E1t

�1

E1t

Cit1 t

revenu : rjk proba : pjtk

Eit

�1

coût cit j

t�1

Djt t

Dqt(t)

Ep(t�1)

 

Ep(t)

Ekt

Décision

Hasard

© Dunod – Toute reproduction non autorisée est un délit.

Phase t

219

Chapitre 5 • Pro­­ces­­sus sto­­chas­­tiques et pro­­gram­­ma­­tion…

EXER­­CICES I Chaînes de MARKOV *5.1 Qua­­lité d’un canal de trans­­mis­­sion On consi­­dère un canal qui trans­­met, de façon conti­­nue, des bits d’infor­­ma­­tion. Mais ce canal peut être affecté par des per­­tur­­ba­­tions qui altèrent les bits trans­­mis. Les ­erreurs se pro­­duisent en géné­­ral par groupes, c’est-­­­à-dire que lors­­qu’un bit est altéré par une per­­tur­­ba­­tion, la pro­­ba­­bi­­lité que le bit sui­­vant soit aussi altéré est impor­­tante. Plus pré­­ci­­ sé­­ment, sup­­po­­sons qu’à un cer­­tain moment le der­­nier bit trans­­mis ait été cor­­rect : le bit sui­­vant sera alors trans­­mis cor­­rec­­te­­ment avec la pro­­ba­­bi­­lité p0 et altéré avec la pro­­ba­­bi­­ lité q0 (p01 q05 1) ; sup­­po­­sons main­­te­­nant que l’avant der­­nier bit trans­­mis était cor­­rect et que le der­­nier bit trans­­mis est faux : le bit sui­­vant sera trans­­mis cor­­rec­­te­­ment avec la pro­­ba­­bi­­lité p1 et altéré avec la pro­­ba­­bi­­lité q1 1 p1 1 q1 5 1 2 ; ainsi de suite : si depuis le der­­nier bit trans­­mis cor­­rec­­te­­ment, k bits erro­­nés ont été trans­­mis, la pro­­ba­­bi­­lité que le bit sui­­vant soit cor­­rect est pk et qu’il soit faux, qk 1 pk 1 qk 2 5 1 où 0 < k < N. Lorsque N bits consé­­cu­­tifs sont erro­­nés depuis le der­­nier trans­­mis cor­­rec­­te­­ment, la pro­­ba­­bi­­lité que le sui­­vant soit cor­­rect est comme plus haut pN ; mais si le bit sui­­ vant est faux (pro­­ba­­bi­­lité qN) une ré-­­­initialisation fait que tout se pas­­sera ensuite comme si l’on venait de trans­­mettre un bit faux après un bit exact. 1.  Modé­­li­­ser ce canal à l’aide d’une chaîne de Markov com­­por­­tant n 1 1 états, E0, E1, c, Ek, c, EN : dans l’état Ek, depuis le der­­nier bit trans­­mis cor­­rec­­te­­ment k bits erro­­nés ont été trans­­mis. Tra­­cer le graphe des tran­­si­­tions entre états lors de la trans­­mis­­sion d’un bit, et le valuer. À quel arc cor­­res­­pond la ré-­­­initialisation ? À cet arc près, dans quel pro­­ blème clas­­sique avez-­­­vous ren­­contré des graphes de ce type ? 2.  Pour N 5 3, sachant que p0 5 0,95 p15 0,20 p2 5 0,15 p3 5 0,10, a) don­­ner la matrice M des pro­­ba­­bi­­li­­tés de tran­­si­­tion pour une ­trans­­mis­­sion ; b) en sup­­po­­sant qu’ini­­tia­­le­­ment un bit ait été trans­­mis cor­­rec­­te­­ment, don­­ ner le vec­­teur p(0) des pro­­ba­­bi­­li­­tés d’états ; cal­­cu­­ler la pro­­ba­­bi­­lité pour que les deux sui­­vants soient faux, à l’aide de M, p(0), p(1) et p(2). 3.  a) La chaîne pré­­cé­­dente admet-­­­elle un régime per­­manent, au bout d’un grand nombre de trans­­mis­­sions de bits, indé­­pen­­dant de l’état ini­­tial ? (Jus­­ ti­­fier en détail votre réponse.) b) Si oui, cal­­cu­­ler numé­­ri­­que­­ment les pro­­ba­­bi­­li­­tés p *k 1 0 < k < 3 2 de chaque état en régime per­­manent (sup­­pri­­mer la pre­­mière équa­­tion qui est redon­­dante ; expri­­mer les p *k en fonc­­tion de p *1, puis cal­­cu­­ler p *1). c) En déduire la pro­­ba­­bi­­lité pour qu’une trans­­mis­­sion de bit prise au hasard en régime per­­manent soit cor­­recte. Que pensez-­­­vous de la qua­­lité de ce canal ? 220

Exercices

*5.2 Chaîne de Markov régu­­lière (for­­te­­ment ergodique) Mon­­trer que la matrice d’une chaîne de Markov :

M5 D

0, 2

0, 2

0, 1

0

0

0, 6

0, 3

0, 1

0, 8

0, 2

0, 1

0, 2

0, 3

0, 1

0, 7 0, 1

T

éle­­vée à la puis­­sance n, tend vers : 457 220 458 533

M* 5

457 220 458 533 1 T  lorsque n S 1 `. D 1668 457 220 458 533 457 220 458 533

NB Sans cal­­cu­­ler expli­­ci­­te­­ment M n : tra­­cer d’abord le graphe G asso­­cié puis mon­­trer que G est for­­te­­ment connexe et que la chaîne est a­­­pério­­ dique.

*5.3  Sous-­­­chaînes de Markov Étant donné la matrice d’une chaîne de Markov : 0 1 2 0 1 M =2

© Dunod – Toute reproduction non autorisée est un délit.

3 4

3

4

0, 2 0 0, 4 0 0, 4 0 0, 3 0 0, 7 0 0, 6

0

0, 2

0

0, 2

0

0, 5

0

0, 5

0

0, 4

0

0, 2

0

0, 4

étu­­dier la limite de la puis­­sance nième de M lorsque n tend vers l’infini sans cal­­cu­­ler expli­­ci­­te­­ment Mn, en vous aidant du graphe asso­­cié.

221

Chapitre 5 • Pro­­ces­­sus sto­­chas­­tiques et pro­­gram­­ma­­tion…

**5.4 États tran­­si­­toires, États récurrents. Ergodicité simple Soit la matrice d’une chaîne de Markov : 0 1

2

3

4

0 1

0,2 0,1

0 0,2

0

0,8

0

0,3

0,3

0,1

M =2

0,2

0,1

0,5

0,1

0,1

3 4

0,4

0

0

0,6

0

0,2

0,1 0,2

0,1 0,4

Tra­­cer le graphe et déter­­mi­­ner la classe des états tran­­si­­toires et celle des états ­récurrents. On demande d’étu­­dier le com­­por­­te­­ment de M  n lorsque n aug­­mente indé­­fi­­ni­­ment et de trouver P* = P* (`).

**5.5 Chaîne pério­­dique On donne la matrice sto­­chas­­tique ci-­­­dessous et l’on demande d’exa­­mi­­ner ce qui se passe lors­­qu’on l’élève à la puis­­sance n. (NB : tra­­cer d’abord le graphe) En par­­ti­­cu­­lier, existe-­­­t-il une limite pour M  n lorsque n tend vers l’infini ? 0 0 1

0 0,8

M =2

0,9

3 4

0 0,3

1

2

0, 4 0,6 0 0 0

0

0, 2 0,5 0

0

3

4

0

0

0,2

0

0,1

0

0

0,3

0,7

0

***5.6 Pério­­di­­cité d’ordre 3 Soit la chaîne de Markov don­­née par le graphe ci-­­­dessous.

222

Exercices

1.  Écrire la matrice des pro­­ba­­bi­­li­­tés de tran­­si­­tion M et mon­­trer que : an an 2 1 an 1 1 2pn 1 a R. M 5 B n 1 1 an an 2 1 R où an 5 B 1 1 2 cos 3 3 an 2 1 an 1 1 an n

Expli­­ci­­ter M n selon que n 5 3k, 3k 1 1 ou 3k 1 2. 2.  Soit P(0) 5 [l, 0, 0], cal­­cu­­ler P(n) selon que n 5 3k ou n 5 3k 1 1 ou n 5 3k 1 2, où k est un entier posi­­tif ou nul. 1 1 1 3.  Que peut-­­­on dire de P(`) lorsque P ( 0 ) 5 B , , R  ? 3 3 3

***5.7 Valeurs propres des matrices sto­­chas­­tiques Mon­­trer que : 1.  la matrice de l’exer­­cice 5.2 admet une valeur propre égale à 1 ; 2.  la matrice de l’exer­­cice 5.3, admet deux valeurs propres égales à 1 ; 3.  la matrice de l’exer­­cice 5.5, admet une valeur propre égale à 1 et une valeur propre égale à –1 ; 4.  la matrice de l’exer­­cice 5.6, admet une valeur propre égale à 1, une cos 2p 2p et une troi­­sième égale à : 1 i sin deuxième égale à : j 5 3 3 4p 4p ( 5 j ) .; qui sont les racines cubiques de 1. j 5 j2 5 cos 1 i sin 3 3 (Rappel : j3 = 1 et j 3 = 1).

II Pro­­ces­­sus de Markov

© Dunod – Toute reproduction non autorisée est un délit.

*5.8 Pro­­ces­­sus de Pois­­son Consi­­dé­­rons un pro­­ces­­sus de Pois­­son de taux a. 1.  Quelle est la pro­­ba­­bi­­lité que quatre évé­­ne­­ments se pro­­duisent entre t et 2t ? Entre 3t et 5t ? ( at ) n 2.  On rap­­pelle que p n ( t ) 5 e 2 lt pour toute durée d’inter­­valle t. n! En fai­­sant t :5 Δt, retrou­­ver la pro­­ba­­bi­­lité d’avoir res­­pec­­ti­­ve­­ment 0 évé­­ne­­ ment, 1 évé­­ne­­ment, au moins 2 évé­­ne­­ments entre  et  1 Δt. 3.  Soit Xt 1 t 2 5 at le nombre moyen d’évé­­ne­­ments se pro­­dui­­sant sur un inter­­valle de durée t et s2Xt la variance de ce nombre. Éva­­luer s2Xt. 4.  Quelle est la durée moyenne sépa­­rant deux « nais­­sances » (évé­­ne­­ments) consé­­cu­­tifs ? Éva­­luer la variance de cette durée. 223

Chapitre 5 • Pro­­ces­­sus sto­­chas­­tiques et pro­­gram­­ma­­tion…

**5.9 Un autre pro­­ces­­sus de nais­­sance Pour un cer­­tain micro-­­­organisme, la pro­­ba­­bi­­lité de se sépa­­rer en deux micro­­­ organismes pen­­dant l’inter­­valle de temps [t, t 1 dt] est indé­­pen­­dante de t et égale à l dt 1 o(dt) ; la pro­­ba­­bi­­lité qu’il y ait plus d’une sépa­­ra­­tion dans cet inter­­valle est négli­­geable (en o(dt)). On sup­­pose qu’il existe un seul micro-­­­organisme à l’ins­­tant ini­­tial (t 5 0). Mon­­trer que la pro­­ba­­bi­­lité pn(t) pour qu’il y ait n micro-­­­organismes à l’ins­­tant t est : p n ( t ) 5 e2lt # ( 1 2 e2lt ) n 2 1, ( m $ 1 ) . Géné­­ra­­li­­ser au cas où il y aurait N micro-­­­organismes pré­­sents à t 5 0.

***5.10 Lien entre pro­­ces­­sus de Markov et chaîne de Markov Soit un pro­­ces­­sus de Markov fini. 1.  Sachant qu’à t 5 0 le pro­­ces­­sus est dans l’état Ei, mon­­trer que la pro­­ ba­­bi­­lité pour que – en quit­­tant l’état Ei pour la pre­­mière fois – le pro­­ces­­sus passe par l’état Ej est : p ij 5 l ij /q i (où q i 5 a l ij ) j 2i

Véri­­fier que a p ij 5 1 j 2i

2.  Éva­­luer la pro­­ba­­bi­­lité d’une « tra­­jec­­toire » sui­­vie entre t 5 t0 et t 5 tn : P 3 Xt0 5 Ei0, Xt1 5 Ei1, c, Xtn 1 5 Ein 1, Xtn 5 Ein 4 , où tk est la date d’entrée dans l’état Eik et : t0 , t1 , c , tn-1 , tn On se donne p i0 ( 0 ) 5 P 3 Xt 0 5 Ei0 4 2

2

*5.11 Étude de la ligne télé­­pho­­nique d’un abonné

Lors­­qu’un abonné décroche son com­­biné pour pas­­ser un appel, une pre­­mière phase s’engage (phase 1) pen­­dant laquelle il com­­pose au cadran le numéro de son cor­­res­­ pon­­dant puis attend d’être relié à celui-­­­ci (en fin de phase 1, le télé­­phone com­­mence à son­­ner chez le cor­­res­­pon­­dant). Le cor­­res­­pon­­dant, qui n’est jamais absent et dont la ligne est tou­­jours libre, décroche au bout d’un cer­­tain temps après le début de la son­­ne­­rie, puis une conver­­sa­­tion s’éta­­blit (l’ensemble son­­ne­­rie et conver­­sa­­tion for­­ mant la phase 2). La durée aléa­­toire de la phase 1 (resp. 2) est régie par une loi expo­­nen­­tielle de taux  (resp. m). Le pro­­ces­­sus formé par les ins­­tants de début d’appel par l’abonné est un pro­­ ces­­sus de Pois­­son de taux l (en neu­­tra­­li­­sant les périodes d’occu­­pa­­tion de la ligne étu­­diée). 224

Exercices

L’abonné reçoit aussi des appels, lorsque la ligne est libre, arrivant sui­­vant un pro­­ ces­­sus de Pois­­son de taux a ; la durée aléa­­toire d’une telle conver­­sa­­tion est encore régie par une loi de Pois­­son de taux m. On remar­­quera que dans ce cas de récep­­tion d’un appel, la phase 1 n’a pas lieu pour la ligne étu­­diée. 1.  Asso­­cier au fonc­­tion­­ne­­ment de la ligne un pro­­ces­­sus de Markov à 3 états E0, E1, E2, ; décrire en détail chaque état. Tra­­cer le graphe asso­­cié ; valuer chaque arc par le taux de la tran­­si­­tion cor­­ res­­pon­­dant. 2.  Ce pro­­ces­­sus est-­­­il ergodique ? Jus­­ti­­fier. 3.  Sachant que l 5 a 5 3 appels/heure, qu’une conver­­sa­­tion dure en moyenne 3 minutes et que la phase 1 dure en moyenne 20 secondes, cal­­cu­­ ler numé­­ri­­que­­ment les pro­­ba­­bi­­li­­tés des états en régime per­­manent (appli­­ quer le théo­­rème des coupes à E0 et E1). On pren­­dra l’heure comme unité com­­mune de temps. Déter­­mi­­ner pen­­dant com­­bien de temps, en moyenne et par heure, la ligne est libre.

© Dunod – Toute reproduction non autorisée est un délit.

**5.12  Appli­­ca­­tion des pro­­ces­­sus de nais­­sance et de mort Une société d’infor­­ma­­tique pos­­sé­­dant un puissant ordi­­na­­teur a ins­­tallé N ter­­mi­­naux iden­­tiques dans cer­­tains de ses bureaux. Chaque ter­­mi­­nal peut tom­­ber en panne avec un taux a : la pro­­ba­­bi­­lité qu’un ter­­mi­­nal en état de marche à t tombe en panne entre t et t 1 dt vaut a dt ; les pannes des dif­­fé­­rents ter­­mi­­naux sont indé­­pen­­dantes. Les bureaux sou­­hai­­tant une inter­­ven­­tion rapide après une panne, la société étu­­die deux poli­­tiques de main­­te­­nance entre les­­quelles elle devra choi­­sir. La poli­­tique P1 consiste à enga­­ger R répa­­ra­­teurs (R , N ) et à en envoyer un dès qu’une panne se pro­­duit dans un bureau, s’ils ne sont pas tous déjà occu­­pés ; lorsque les répa­­ra­­teurs sont tous occu­­pés et que des pannes sur­­viennent, les répa­­ra­­tions ont lieu ulté­­rieu­­re­­ment dans l’ordre d’occur­­rence de ces pannes. La poli­­tique P2 consiste à enga­­ger un seul répa­­ra­­teur, et consti­­tuer un stock de S ter­­mi­­naux de rechange. Lors­­qu’une panne sur­­vient dans un bureau et que le stock de ter­­mi­­naux n’est pas nul, le ter­­mi­­nal hors d’état est immédiatement rem­­placé par un ter­­mi­­nal pris dans le stock ; celui hors-­­­service est envoyé à l’ate­­lier de répa­­ra­­tion où le répa­­ra­­teur, s’il est libre, remet ce ter­­mi­­nal en état puis le replace dans le stock. Si le stock est nul, le bureau doit attendre la répa­­ra­­tion de son ter­­mi­­nal. Dans tous les cas la durée d’une répa­­ra­­tion obéit à une loi expo­­nen­­tielle de taux b. On sup­­pose négli­­geable le temps néces­­saire au dépla­­ce­­ment des répa­­ra­­teurs ou au rem­­pla­­ce­­ment d’un ter­­mi­­nal par un autre.

225

Chapitre 5 • Pro­­ces­­sus sto­­chas­­tiques et pro­­gram­­ma­­tion…

1 1 Soient les valeurs numé­­riques sui­­vantes : N 5 4, a 5 6 jours, 5 1 jour, R 5 2, b S 5 2. (Elles sont peu réa­­listes mais per­­mettent des cal­­culs simples.) 1.  Étude de la poli­­tique P1 a) On désigne par Ek l’état pour lequel k ter­­mi­­naux sont en état de marche. Mon­­trer que l’évo­­lu­­tion du parc de ter­­mi­­naux est régie par un pro­­ces­­sus de nais­­sance et de mort ; on tra­­cera le graphe asso­­cié à ce pro­­ces­­sus et l’on valuera ses arcs en fonc­­tion de a et b (sans valeur numé­­rique). Existe-­­­t-il un régime per­­manent pour ce pro­­ces­­sus ? Pour­­quoi ? Dans la suite du pro­­ blème, on uti­­li­­sera direc­­te­­ment les valeurs numé­­riques. b)  On sup­­pose le régime per­­manent atteint. Notons alors p*k la pro­­ba­­bi­­lité de l’état Ek. 1 Expri­­mer p*k en fonc­­tion de p*0 ; puis mon­­trer que p*0 5 ; en déduire les 805 valeurs numé­­riques des pro­­ba­­bi­­li­­tés p*. k

c) Déter­­mi­­ner le nombre moyen r de répa­­ra­­teurs inoc­­cu­­pés ainsi que le nombre moyen r de ter­­mi­­naux en panne. 2.  Étude de la poli­­tique P2 a) Appe­­lons Fk l’état pour lequel k ter­­mi­­naux sont en état de marche (dans les bureaux et dans le stock). Asso­­cier à l’évo­­lu­­tion du parc des ter­­mi­­naux un pro­­ces­­sus de nais­­sance et de mort ; tra­­cer le graphe asso­­cié à ce pro­­ces­­sus et le valuer en fonc­­tion de a et b. b) On sup­­pose le régime per­­manent atteint ; on note alors q*k la pro­­ba­­bi­­lité de l’état Fk. Cal­­cu­­ler les valeurs numé­­riques des pro­­ba­­bi­­li­­tés q*k . c) Déter­­mi­­ner le nombre moyen r r de répa­­ra­­teurs inoc­­cu­­pés, le nombre moyen rr de ter­­mi­­naux en panne (pour le parc com­­plet) ainsi que le nombre moyen t de ter­­mi­­naux en panne dans les dif­­fé­­rents ser­­vices de la société. 3.  Com­­pa­­rai­­son éco­­no­­mique des deux poli­­tiques On donne les coûts sui­­vants : –  la charge sala­­riale jour­­na­­lière d’un répa­­ra­­teur est 50 € ; – le coût estimé de non-­­­fonctionnement d’un ter­­mi­­nal dans un bureau est de 200 € par jour­­née d’indis­­po­­ni­­bi­­lité ; –  le coût d’amor­­tis­­se­­ment d’un ter­­mi­­nal est éva­­lué à 30 € par jour. Choi­­sir la poli­­tique qui minimise le coût journalier : coût de l’inac­­ti­­vité des répa­­ra­­teurs 1 coût d’indis­­po­­ni­­bi­­lité 1 coût d’amor­­tis­­se­­ment des ter­­ mi­­naux. 226

Exercices

***5.13 Appli­­ca­­tion de la pro­­gram­­ma­­tion dyna­­mique sto­­chas­­tique : processus D-H Au cours d’une trans­­for­­ma­­tion chi­­mique, qui dure plu­­sieurs heures, on pro­­cède à un réglage qui a lieu toutes les dix minutes. Dans l’inter­­valle des réglages, qui sont sup­­ po­­sés sans durée appré­­ciable, la réac­­tion évo­­lue d’elle-­­­même. La masse trai­­tée peut se trou­­ver dans les états E1, E2 ou E3. Si elle est dans l’état E1 le réglage peut l’y main­­te­­nir ou la faire pas­­ser à E2 ; si elle est dans l’état E2, le réglage peut la faire pas­­ser à E1 ou E3 ; si, enfin, elle est dans l’état E3, le réglage peut la faire pas­­ser à E1 ou E2. Or, lorsque la réac­­tion évo­­lue ensuite à par­­tir de l’état E1, elle conduit 3 fois sur 10 à l’état E2 (avec une éco­­no­­mie de 5 unités monétaires : u.m.) et 7 fois sur 10 à l’état E3 (avec une perte de 2 u.m.) ; lors­­qu’elle évo­­lue à par­­tir de E2, une fois sur deux elle passe à E1 (gain de 1 u.m.) ou à E2 (perte de 1 u.m.) ; lors­­qu’enfin elle évo­­ lue à par­­tir de E3, six fois sur dix il y a pas­­sage à E2 (gain de 3 u.m.) et quatre fois sur dix, on reste en E3 (perte de 2 u.m.). Quel réglage opé­­rer, dans chaque hypo­­thèse, de manière à obte­­nir la trans­­for­­ma­­ tion la plus éco­­no­­mique ? N.B. Il est indif­­fé­­rent que la matière trai­­tée soit fina­­le­­ment sous l’un quel­­conque des trois états, pourvu que la durée de la trans­­for­­ma­­tion, pré­­vue à l’avance, ait été obser­­vée. Quel gain réalise-­­­t-on sur 100 réglages, en appli­­quant la poli­­tique ­opti­­male ?

227

2 6

Fia­­bi­­lité des compo ­­ sants ­­ , sûreté de fonction ­­ ne ­­ ment ­­ des systèmes ­­

L’usure et le renou­­vel­­le­­ment des équi­­pe­­ments (ou com­­po­­sants) peuvent être envi­­sa­­ gés dans le cas de l’usure cer­­taine, ce qui donne lieu à des pro­­blèmes de mathéma­­ tiques finan­­cières clas­­siques, l’actua­­li­­sa­­tion étant alors le moyen de com­­pa­­rer les équi­­pe­­ments entre eux. Nous ne nous occu­­pe­­rons pas ici de ce point de vue. Au contraire, lors­­qu’il s’agit d’usure aléa­­toire, celle-­­­ci ne peut être connue qu’en pro­­ba­­bi­­lité ; dans ces condi­­tions, c’est bien à un pro­­blème de recherche opé­­ra­­tion­­nelle que l’on a affaire. L’étude de ce genre de ques­­tion doit conduire à un com­­pro­­mis entre le coût d’appro­­vi­­sion­­ne­­ment et le coût de panne des maté­­riels. L’étude de l’usure et du renou­­vel­­le­­ment des équi­­pe­­ments au plan théo­­rique doit beau­­coup à V. Volterra (1931), bien que des ingé­­nieurs comme T.C. Fry s’en soient pré­­oc­­cu­­pés dès 1928. Elle a fait ensuite des pro­­grès avec M. Fréchet, W. Feller et, d’une façon géné­­rale, tous ceux qui ont tra­­vaillé dans les domaines d’appli­­ca­­tion de la théo­­rie des pro­­ces­­sus sto­­chas­­tiques. Nous ter­­mi­­ne­­rons ce cha­­pitre par l’étude de la sûreté de fonc­­tion­­ne­­ment de « sys­­ tèmes », vus comme assem­­blages d’équi­­pe­­ments (com­­po­­sants ou modules).

6.1  Don­­nées dis­­crètes. expéri ­­ men ­­ ­­tale

courbes de sur­­vie

Pour com­­men­­cer, nous allons exa­­mi­­ner com­­ment, à par­­tir d’un simple fichier de main­­te­­nance ou de sources comp­­tables élé­­men­­taires, on peut défi­­nir la courbe de sur­­vie d’un maté­­riel, car c’est de la loi de sur­­vie que nous dédui­­rons le taux d’appro­­ vi­­sion­­ne­­ment. Exemple.  Consi­­dé­­rons une société de location de voi­­tures, comp­­tant 500 véhi­­cules, tous du même modèle, équipés cha­­cun de cinq pneus iden­­tiques. Moyen­­nant une

6.1  Don­­nées dis­­crètes. courbes de sur­­vie expé­­ri­­men­­tale

orga­­ni­­sa­­tion très simple, on peut connaître, sur un lot de 2 500 pneus com­­bien ont duré moins d’un mois, de un mois à deux mois, de deux mois à trois mois, etc. Les don­­nées du pro­­blème se pré­­sentent sous la forme du tableau ci-­­­après. En fait nous avons ici « contracté » le temps afin que l’exemple garde une taille rai­­son­­nable (en réa­­lité les durées de vie des pneus sont, heu­­reu­­se­­ment, bien supé­­rieures). Classe de durée t

Durée

tr

Durée des pneus

Nombre de pneus n ( t21 ) 2n ( t ) restants :

Nombre ­ cumulé de pneus ­défaillants

­Mortalité relative n ( t21 ) 2n ( t )

pi 5

n(0)

n(t) 0

2 500

0

1

0,5

moins de 1 mois

2 495

5

5

0,002

2

1,5

de 1 mois à 2 mois

2 480

15

20

0,006

3

2,5

de 2 mois à 3 mois

2 440

40

60

0,016

4

3,5

de 3 mois à 4 mois

2 350

90

150

0,036

5

4,5

de 4 mois à 5 mois

2 190

160

310

0,064

6

5,5

de 5 mois à 6 mois

1 990

200

510

0,080

7

6,5

de 6 mois à 7 mois

1 740

250

760

0,100

8

7,5

de 7 mois à 8 mois

1 390

350

1 110

0,140

9

8,5

de 8 mois à 9 mois

790

600

1 710

0,240

10

9,5

de 9 mois à 10 mois

340

450

2 160

0,180

11

10,5

de 10 mois à 11 mois

90

250

2 410

0,100

12

11,5

de 11 mois à 12 mois

30

60

2 470

0,024

13

12,5

de 12 mois à 13 mois

10

20

2 490

0,008

14

13,5

de 13 mois à 14 mois

0

10

2 500

0,004

plus de 14 mois

0

0

2 500

0

a 51

© Dunod – Toute reproduction non autorisée est un délit.

Tableau 6.1

La sixième colonne du tableau donne le nombre de pneus res­­tants, n(t), à chaque date t de la ges­­tion du lot consi­­déré : le lec­­teur s’y repor­­tera avant de lire les colonnes 4 et 5. On obtient donc faci­­le­­ment la courbe n(t) ; un simple chan­­ge­­ment d’échelle sur l’axe des ordon­­nées per­­met de repré­­sen­­ter la courbe de sur­­vie : n1t2

; n102 v(t) peut être inter­­prété comme la pro­­ba­­bi­­lité de sur­­vie ou « fia­­bi­­lité » d’un pneu à toute époque déter­­mi­­née t, en rai­­son du fait qu’on a étu­­dié un lot assez nom­­breux d’équi­­pe­­ments a priori iden­­tiques (tableau 6.1). v1t2 5

229

Chapitre 6 • Fiabilité des composants, sûreté. . .

Par exemple, la pro­­ba­­bi­­lité pour qu’un pneu dure plus de 8 mois est : n(8)

1 390 5 0, 556, soit encore 55,6 %. 2 500 n(0) La pro­­ba­­bi­­lité pour qu’un pneu cesse d’être en état de rou­­ler entre l’époque t 2 1 et l’époque t n’est autre que : 5

pt 5

n(t 2 1) 2 n(t)

 ; n(0) on lit les résul­­tats (“mor­­ta­­lité rela­­tive”) dans la sep­­tième colonne. Ainsi, la pro­­ba­­bi­­ lité pour qu’un pneu soit réformé entre 8 et 9 mois vaut : n(8) 2 n(9)

1 390 2 790 600 5 5 0, 24, 2 500 2 500 n(0) qui est une valeur très éle­­vée (mais nos données du tableau 6.1 sont artificielles). p9 5

5

On remarque que l’on a aussi : n(t 2 1) 2 n(t)

5 v (t 2 1) 2 v (t). n(0) La pro­­ba­­bi­­lité pour qu’un pneu soit ­réformé entre t et t 1 Dt peut s’écrire : v 1 t 2 2 v 1 t 1 Dt 2 . pt 5

Or, si Dt tend vers 0, le rap­­port v ( t ) 2 v ( t 1 Dt )

Dt tend, par défi­­ni­­tion, vers 2v r ( t ) . Il en résulte que 2v r ( t ) . Dt est la pro­­ba­­bi­­lité pour qu’un pneu soit réformé entre t et t 1 Dt, lorsque Dt tend vers zéro. Il est impor­­tant de connaître la “pro­­ba­­ bi­­lité d’ava­­rie” pc(t), c’est-­­­à-dire la pro­­ ba­­bi­­lité pour qu’un pneu encore en état à t 2 1 cesse d’être apte à rou­­ler entre t 2 1 et t ; c’est une pro­­ba­­bi­­lité condi­­tion­­nelle. Figure 6.1 Pour la cal­­cu­­ler, remar­­quons que la pro­­ ba­­bi­­lité pt pour qu’un pneu cesse d’être en état entre t 2 1 et t est le pro­­duit de la pro­­ba­­bi­­lité pour qu’il ait sur­­vécu jus­­ qu’à t 2 1, soit v 1 t 2 1 2 , par la pro­­ba­­bi­­lité d’ava­­rie pc(t) (on note T sa date de réforme) : pc ( t ) 5 p 3 t 2 1 , T # t | T . t 2 1 4 5 pt / v ( t 2 1 ) . 230

6.1  Don­­nées dis­­crètes. courbes de sur­­vie expé­­ri­­men­­tale

d’où : pc ( t ) 5

pt

5

n(t 2 1) 2 n(t )

v(t 2 1) n(0) Éva­­luons ainsi pc(9) ; on a :

pc 1 9 2 5 1 2

3

n192

n(0)

n(t 2 1) 512

5

n(t 2 1) 2 n(t ) n(t 2 1)

512

n(t) n(t 2 1)

790 . 0, 432. 1 390

n182 Ce résul­­tat est fort signi­­fi­­ca­­tif puisqu’il nous apprend que plus de 43 % des pneus encore en ser­­vice au bout de 8 mois auront cessé d’être aptes à rou­­ler avant la fin du neu­­vième mois. La for­­mule de cal­­cul de la “durée de vie moyenne”, approximation de l’espérance mathématique de la durée de vie E(T), s’écrit : 14

t 5 a t # pt 1

donne ici la valeur 8,334, qu’on peut tou­­te­­fois rec­­ti­­fier1 si l’on tient compte de la durée t’ pour chaque classe (deuxième colonne) , on obtient alors : 14

1 tr 5 a tr # pt . 7, 8 ( 34 ) mois, où : tr 5 t 2 , 2 1 on cal­­cu­­lera aussi très faci­­le­­ment la variance : s2t d’où un écart-­­­type de :

14

5 a tr2 # pt 2 tr2 . 1, 98, soit . 2 1

st 5 "1, 98 . 1, 4 ( 1 ) mois. La figure 6.2 montre que : t # pt 5 t 3 v ( t 2 1 ) 2 v ( t ) 4 5 t # D v.

© Dunod – Toute reproduction non autorisée est un délit.

Si donc on fait la somme a t # pt, pour toutes les valeurs de t, on obtient une aire qui est très légè­­re­­ment supé­­rieure à l’aire sous-­­­tendue par la courbe v(t). Dans le cas où v(t) est une fonc­­tion conti­­nue, on peut faire tendre Δν vers zéro et l’on obtient exac­­te­­ment l’aire com­­prise entre la courbe de sur­­vie et l’axe des temps. On peut donc écrire, dans ce cas : t 5 3 v ( t ) dt. `

0

14

14

14

1 1 1 1. Cette rec­­ti­­fi­­cation don­­nera : tr 5 t 2 0, 5 car a at 2 b # pt 5 a t # pt 2 a pt 5 t 2 . 2 2 1 2 1 1

231

.





Chapitre 6 • Fiabilité des composants, sûreté. . .



Figure 6.2

Figure 6.3

En géné­­ral, la forme même de la courbe de sur­­vie peut déjà ren­­sei­­gner sur le type d’équi­­pe­­ment auquel on a affaire. Plus elle se rap­­proche d’une expo­­nen­­tielle décrois­­sante (figure 6.3) et plus la pro­­ba­­bi­­lité d’ava­­rie tend vers une constante. En effet, si l’on avait : v(t) 5 e2lt (cas d’une loi expo­­nen­­tielle, temps continu), on aurait : 2vr ( t ) # D t 5 v ( t ) # p c ( t ) # D t,

en dési­­gnant par p c 1 t 2 # D t la pro­­ba­­bi­­lité d’ava­­rie entre t et t 1 Dt, lorsque Δt tend vers 0. La quan­­tité pc(t), dans ce cas, sera notée plus bas : l(t). Il vien­­drait donc :

pc1t2 5 2

vr 1 t 2

.

v1t2

Ainsi pour la valeur par­­ti­­cu­­lière de v(t) 5 e2lt, cette quan­­tité est constante : p c ( t ) 5 2 3 2 l e2lt 4 #

1 e

2lt

5 l.

Cal­­cu­­lons la « durée de vie1 moyenne » t dans le cas d’une courbe de sur­­vie expo­­nen­­tielle (il s’agit en réalité, ici, de l’espérance de la durée de vie : E(T)) : t 5 3 e 2 lt # dt 5 `

0

1 ; l

or, la valeur a, cor­­res­­pon­­dant à v(t) 5 0,5, est telle que  : 0,5 5 e2lt ou encore  : ln 2 . On a donc a , t puisque ln 2 5 0,693 est infé­­rieur à 1. a5 l Plus la courbe de sur­­vie se rap­­proche d’un éche­­lon rec­­tan­­gu­­laire, plus la pro­­ba­­bi­­ lité d’ava­­rie, qui était nulle jus­­qu’à l’âge a 5 t, subit un saut brusque ; v(t) vaut alors 1 (figure 6.4) pour t , a puis vaut 0 pour t ù a. 1. Par abus de lan­­gage ; on devrait dire « espér­­ance mathéma­­tique de la durée de vie » 232

6.2  Loi de sur­­vie : forme ana­­ly­­tique

Ces remarques per­­mettent d’affir­­mer que, dans le pre­­mier cas (celui de la ­figure 6.3) on a affaire à des pièces dites « de fatigue », dont la pro­­ba­­bi­­lité d’ava­­rie est constante ; dans ces condi­­tions, il n’y a aucun inté­­rêt à pra­­ti­­quer un entre­­tien pré­­ven­­tif sur ce genre de maté­­riel, puisqu’une pièce neuve pré­­sente la même fra­­gi­­lité qu’une pièce usa­­gée, comme nous le ver­­rons plus loin. Dans le second cas (figure 6.4), on a, au contraire, affaire à des pièces consti­­tuant un lot par­­fai­­te­­ment homo­­gène ; les maté­­riels dont la courbe de sur­­vie affecte une forme presque rec­­tan­­gu­­laire sont des pièces « d’usure ». Il y a intérêt à les réformer juste avant t.

Figure 6.4

6.2 Loi

de sur­­vie : forme ana­­ly­­tique

Dans le cas « continu », c’est-­­­à-dire le cas où l’on dis­­pose de la loi de sur­­vie sous forme ana­­ly­­tique (par ex. v ( t ) 5 e 2 lt ) on a les défi­­ni­­tions et résul­­tats sui­­vants :

•  À la mor­­ta­­lité rela­­tive, cal­­cu­­lée dans le cas dis­­cret, cor­­res­­pond ici la den­­sité de pro­­ba­­bi­­lité i(t), telle que : i ( t ) dt 5 Pr 5 t < T , t 1 dt 6 5 Pr 5 T , t 1 dt 6 2 Pr 5 T , t 6 , d’où : i ( t ) dt 5 3 1 2 v ( t 1 dt ) 4 2 3 1 2 v ( t ) 4 repré­­sente la pro­­ba­­bi­­lité de défaillance entre t et t 1 dt ; On remarque ainsi que : d i ( t ) # dt 5 2dv ( t ) et que : i ( t ) 5 2 v ( t ) 5 2vr ( t ) . dt t Notons que : 1 2 v ( t ) 5 3 i(u) du.  

© Dunod – Toute reproduction non autorisée est un délit.

•  la durée de vie est une variable aléa­­toire T, repré­­sen­­tant le temps écoulé depuis la mise en ser­­vice jus­­qu’à la défaillance de l’équi­­pe­­ment. Si l’on pose : v ( t ) 5 Pr 5 T > t 6 , v(t) est la pro­­ba­­bi­­lité pour que l’équi­­pe­­ment accom­­plisse sans défaillance des fonc­­ tions déter­­mi­­nées pen­­dant le temps donné t : pour cette rai­­son, cette pro­­ba­­bi­­lité prend le nom de fia­­bi­­lité, car elle carac­­té­­rise le degré de confiance que l’on peut accor­­der au maté­­riel (ce degré est décrois­­sant, évi­­dem­­ment, avec t).

0

•  À la pro­­ba­­bi­­lité d’ava­­rie pc(t) du cas « dis­­cret », cor­­res­­pond, dans le cas « continu » la pro­­ba­­bi­­lité condi­­tion­­nelle l 1 t 2 # dt, pour qu’un équi­­pe­­ment d’âge t, subisse une défaillance entre t et t 1 dt ; en effet : Pr 5 t < T , t 1 dt 6 5 Pr5 T > t 6 # l ( t ) # dt, soit i ( t ) # dt 5 2v ( t ) # l ( t ) # dt, d’où : i(t) vr ( t ) 52 . l (t) 5 v(t) v(t) 233

Chapitre 6 • Fiabilité des composants, sûreté. . .

On nomme l(t) « taux d’ava­­rie ». On obtient évi­­dem­­ment en inté­­grant chaque membre de cette rela­­tion : 3 l(u) du t

0

car 3 l ( u ) du 5 2 3 log v ( u ) 4 t0 . t

 ,



v (t) 5 e

2

0





Les courbes l(t), pour des types d’équi­­pe­­ments (com­­po­­sants) donnés, ont les allures ci-­­­dessous (courbes « en bai­­gnoire »).



Figure 6.5

Figure 6.6

Pen­­dant une brève période, l(t) peut être ini­­tia­­le­­ment décrois­­sant : il s’agit de la période d’éli­­mi­­na­­tion de com­­po­­sants affec­­tés de défauts de fabri­­ca­­tion (« mala­­ dies de jeu­­nesse »). Suit une période longue pen­­dant laquelle l(t) est soit constant (équi­­pe­­ments dits de fatigue, de fia­­bi­­lité expo­­nen­­tielle), soit crois­­sant modé­­ré­­ment (équi­­pe­­ments dits d’usure). Soit enfin, une phase pen­­dant laquelle l(t) brus­­que­­ment se met à croître de plus en plus vite : il s’agit d’une phase d’usure pro­­non­­cée (géné­­ ra­­le­­ment on rem­­place les équi­­pe­­ments attei­­gnant cette phase). •  Cal­­cu­­lons l’âge moyen ˉt d’appa­­ri­­tion de l’ava­­rie ou la “durée de vie moyenne” d’un équi­­pe­­ment (qui est en réalité l’espé­­rance mathéma­­tique E[T]). Il vient : t 5 3 t # i ( t ) # dt 5 3 t # d 3 2v ( t ) 4 5 3 2t # v ( t ) 4 0` 2 3 2v ( t ) dt 5 3 v ( t ) # dt, 0 0 `

`

`

0

`

0

car, en inté­­grant par par­­ties, le terme 2t # v ( t ) est nul entre 0 et l’infini. On a supposé : lim t # v ( t ) 5 0, ce qui est phy­­si­­que­­ment évident, aucun équi­­pe­­ment n’étant éter­­nel. tS` C’est cette durée de vie moyenne qui est appe­­lée MTTF ou MTF (Mean Time To Failure) par les indus­­triels : Temps Moyen jusqu’à la Panne, qui a rem­­placé le terme 234

6.2  Loi de sur­­vie : forme ana­­ly­­tique

ancien de MTBF1 désor­­mais réservé au cas de sys­­tèmes répa­­rables (et non pas d’un com­­po­­sant ou un équi­­pe­­ment isolé). Bien entendu la loi « conti­­nue » n’est qu’une loi idéale, tirée de l’obser­­va­­tion par le sta­­tisti­­cien, d’après des don­­nées du même type que celles dont nous avons fait usage dans l’exemple traité plus haut (Tab. 6.1). Dans beau­­coup de pro­­blèmes pra­­tiques, on n’a pas besoin de cette loi. C’est le cas lorsque, pour exé­­cu­­ter un cal­­cul sur ordi­­na­­teur, il est néces­­saire de « discrétiser » la loi conti­­nue qu’on vient de tirer des don­­nées expé­­ri­­men­­tales dis­­crètes. En revanche, les méthodes sta­­tistiques sont très utiles si les don­­nées expé­­ri­­men­­tales contiennent des points aber­­rants ou bien des « trous ». Par des méthodes sta­­tistiques que nous ne pré­­ci­­sons pas ici, on a pu trou­­ver l’expres­­sion conti­­nue sui­­vante pour l’exemple cité plus haut : v ( t ) 5 e 2 (0, 12t) , 5

ce qui cor­­res­­pond à une loi dite « de Weibull », de la forme v 1 t 2 5 e 2 1at2 avec les valeurs a 5 0,12 ; b 5 5. b

On a alors t 5 7,64 au lieu de la valeur expé­­ri­­men­­tale 7,8 et des écarts entre la courbe idéale et la courbe pra­­tique (figure 6.8). Don­­nons quelques com­­plé­­ments sur la loi de Weibull. Cette loi dépend de deux para­­mètres posi­­tifs : b est le para­­mètre de « forme » (cf. courbes ci-­­­dessous Fig 6.7) et a, celui de « durée de vie ». b La fia­­bi­­lité est v ( t ) 5 e 2 (a t) . La den­­sité de pro­­ba­­bi­­lité de défaillance est : i ( t ) 5 2vr ( t) 5 ab # (at ) b 2 1 # e 2 (at) . Le taux d’ava­­rie est : l 1 t 2 5 ab # 1 at 2 b 2 1.

© Dunod – Toute reproduction non autorisée est un délit.

b

Ce taux est stric­­te­­ment crois­­sant pour b . 1 ; il est constant pour b 5 1 (on retrouve alors la loi expo­­nen­­tielle  : v(t) 5 e2at). Ce taux serait décrois­­sant pour b , 1 (cas peu réa­­liste). Notons que pour b 5 2, on obtient la loi de Rayleigh-­­­Maxwell pour laquelle le taux d’ava­­rie croît linéai­­re­­ment avec t ; en effet, on a alors : l(t) 5 2 a2 t. On montre en outre que pour b 5 3,25 et a 5 1, la loi de Weibull donne une bonne approxi­­ma­­ tion de la loi nor­­male (gaussienne). La « durée de vie moyenne » MTTF (Mean Time To Failure), en fait E(T), vaut : 1 1 t 5 3 i ( t ) dt 5 a G a1 1 b b 0 `

où G ( x ) 5 3 tx 2 1e 2 tdt est la fonc­­tion fac­­to­­rielle, qui vaut 1 x 2 1 2 ! pour x entier `

0

posi­­tif, nom­­mée aussi fonc­­tion « gamma ».

1. Voir, plus loin, le para­­graphe sur la sûreté de fonc­­tion­­ne­­ment des sys­­tèmes. 235

Chapitre 6 • Fiabilité des composants, sûreté. . .

Figure 6.7

Figure 6.8

La loi de Weibull, en rai­­son de la large gamme de lois obser­­vées qu’elle per­­met de repré­­sen­­ter, est l’une des plus uti­­li­­sées en pra­­tique. On uti­­lise aussi la loi « lognormale » : cf le paragraphe 6.6.

236

6.3  Pro­­ba­­bi­­lité de consom­­ma­­tion. appro­­vi­­sion­­ne­­ments

6.3 Pro­­ba­­bi­­lité de consom­­ma­­tion. appro­­vi­­sion­­ne­­ments L’étude des courbes (et fonc­­tions) de sur­­vie est de nature à favo­­ri­­ser la connais­­sance de nom­­breuses quan­­ti­­tés signi­­fi­­ca­­tives, telles que la pro­­ba­­bi­­lité de consom­­ma­­tion et le taux d’appro­­vi­­sion­­ne­­ment que nous définissons ci-après : On appelle pro­­ba­­bi­­lité de consom­­ma­­tion durant le temps t, la pro­­ba­­bi­­lité d’avoir à rem­­pla­­cer une quan­­tité déter­­mi­­née d’équi­­pe­­ments défaillants. On dési­­gnera par qm(t) la pro­­ba­­bi­­lité d’avoir m défaillances dans l’inter­­valle de temps [0, t]. D’après la défi­­ni­­tion même de la courbe de sur­­vie on a : n1t2 q0 1 t 2 5 5 v1t2, n102 car, si un équi­­pe­­ment sur­­vit à t, on n’aura pas à le rem­­pla­­cer jus­­qu’à cette date… Cherc­­hons main­­te­­nant à éva­­luer q1(t). Pour cela, sup­­po­­sons que l’inter­­valle de temps [0, t] soit divisé en r sous-­­­périodes de durée t ; pour qu’à l’époque t on n’ait qu’un rem­­pla­­ce­­ment à exé­­cu­­ter, il faut que l’équi­­pe­­ment ini­­tial ait été défaillant entre 1 k 2 1 2 t et kt 1 1 < k < r 2 et que l’équi­­pe­­ment neuf subs­­ti­­tué à l’équi­­pe­­ment rem­­placé ait sur­­vécu de kt à t. La pro­­ba­­bi­­lité pour qu’il y ait une défaillance entre 1 k 2 1 2 t et kt est égale à : pk t 5

n 3 ( k 2 1 ) t 4 2 n ( kt )

n(0) celle de sur­­vie du nou­­vel équi­­pe­­ment n’est autre que : v 1 t 2 kt 2 5

le pro­­duit de ces deux pro­­ba­­bi­­li­­tés : pkt # v 1 t 2 kt 2 5

n 1 t 2 kt 2 n102

 ;

 ;

n 3 1 k 2 1 2 t 4 2 n 1 kt 2

3

n 1 t 2 kt 2

n102 n102 doit être consi­­déré pour chaque valeur de k, de 1 à r, d’où : q1 ( t ) 5 a

© Dunod – Toute reproduction non autorisée est un délit.

k 5r

k 51

n 3 ( k 2 1 ) t 4 2 n ( kt ) n(0)

3

n ( t 2 kt ) n(0)

,

5 a pk t # v ( t 2 kt ) . k 5r

k 51

D’une manière ana­­logue, on obtiendrait la for­­mule de récur­­rence : qm ( t ) 5 a qm 2 1 ( t 2 kt ) # pk t, k 5r

k 51

En pré­­sence d’une fonc­­tion v(t) conti­­nue, qm(t) est donné par la convo­­lu­­tion :

qm ( t ) 5 2 3 qm 2 1 ( t 2 u ) # v r ( u ) # du 5 3 qm 2 1 ( t 2 u ) # i ( u ) # du 0 0 # 1 2 puisque pkt peut être rem­­placé par 2 vr t D t lorsque t tend vers zéro. t

t

237

Chapitre 6 • Fiabilité des composants, sûreté. . .

Lorsque la fia­­bi­­lité est expo­­nen­­tielle : v(t) 5 e2lt, cette récur­­rence se résout aisé­­ ( lt ) m ( ) ment ; on trouve : qm t 5 e 2 lt, c’est-­­­à-dire que l’on retrouve une loi de ­Pois­­ m! son. En effet, on sait que la loi expo­­nen­­tielle est la loi de la durée des inter­­valles de temps sépa­­rant deux évé­­ne­­ments consé­­cu­­tifs (ici : deux pannes) dans un pro­­ces­­sus de Pois­­son. Le taux d’appro­­vi­­sion­­ne­­ment per­­met le cal­­cul, pour une période t don­­née, du nombre d’équi­­pe­­ments néces­­saires pour cou­­vrir les besoins en pièces de rechange dans une limite déter­­mi­­née. Sup­­po­­sons, par exemple, qu’on veuille assu­­rer le dépan­­ nage avec la pro­­ba­­bi­­lité au moins égale à 95%. On aura à cal­­cu­­ler m tel que : a qk ( t ) > 0, 95,

k 5m

k 50

On cherchera donc la plus petite valeur de m réa­­li­­sant cette condi­­tion. Notons que si l’on vou­­lait assu­­rer le dépan­­nage avec la pro­­ba­­bi­­lité 1, il fau­­drait avoir un stock de pièces de rechange… infini1 ! En pratique au lieu de 1, on adapte 0,99 ou 0,999 ou... Les condi­­tions d’appro­­vi­­sion­­ne­­ment durant une période de ges­­tion sont pré­­ci­­sées par la consi­­dé­­ra­­tion du taux d’appro­­vi­­sion­­ne­­ment. Pour mettre en évi­­dence cette ­notion, il est néces­­saire de connaître, en fonc­­tion du temps, le nombre d’équi­­pe­­ments que l’on veut main­­te­­nir en état : c’est la fonc­­tion d’uti­­li­­sation (t). Soit, par exemple, à mettre en ser­­vice Ν équi­­pe­­ments au temps t 5 0, puis à por­­ter le nombre de ces équi­­pe­­ments à Nr au temps t 5 t1, pour le main­­te­­nir à cette valeur jus­­qu’à t2, puis le lais­­ser décroître régu­­liè­­re­­ment de N à 0 entre t2 et t3. La figure 6.9 repré­­sente la fonc­­tion d’uti­­li­­sation. Ima­­gi­­nons main­­te­­nant que l’axe des temps soit divisé en périodes égales de durée t. Pour la ­période 3 1 k 2 1 2 t , k t 4 , le nombre d’appro­­vi­­sion­­ne­­ment r(t) est : r 1 kt 2 5 n 1 kt 2 2 n 3 1 k 2 1 2 t 4 , si l’on appelle n(kt) le nombre d’équi­­pe­­ments rem­­pla­­cés jus­­qu’au temps kt. À chaque période it, les équi­­pe­­ments rem­­pla­­cés, au nombre de r(it), étant neufs, seront ­sou­­mis à la loi de sur­­vie v 1 t 2 it 2 , si bien qu’il en res­­tera en ser­­vice au temps t : r 1 it 2 # v 1 t 2 it 2 À toute époque t, on devra avoir, si t 5 rt : 1 ( t ) 5 N # v ( t ) 1 a r ( kt ) # v ( t 2 kt ) k 5r

Figure 6.9

k 51

1. Ceci est inhé­­rent à la nature sto­­chas­­tique (aléa­­toire) de l’occu­­rrence des défaillances. 238

6.4  Cal­­cul des appro­­vi­­sion­­ne­­ments

puisqu’à chaque époque t, 2t , c, kt , c, on a pro­­cédé au rem­­pla­­ce­­ment de r(kt) équi­­pe­­ments. Dans le cas d’une fonc­­tion conti­­nue, on obtient une inté­­grale dite de ­Volterra : 1 ( t ) 5 N # v ( t ) 1 3 R r ( t ) # v ( t 2 t ) # dt , t

0

où R r ( t ) désigne la déri­­vée par rap­­port au temps du nombre d’équi­­pe­­ments R ( t ) , rem­­pla­­cés jus­­qu’à t. Il est très remar­­quable que si l’on désire main­­te­­nir un niveau constant, égal à N0, N0 d’équi­­pe­­ments en ser­­vice, on ne tend que len­­te­­ment vers le taux , qui est la limite, t pour t ten­­dant vers l’infini, de Rr 1 t 2 . Pen­­dant une période plus ou moins longue, le taux d’appro­­vi­­sion­­ne­­ment oscille autour de cette valeur limite, dont, au début, il s’en écarte beau­­coup. Cela est dû au fait que le phé­­no­­mène demeure long­­temps tran­­si­­ toire et n’évo­­lue que len­­te­­ment vers un régime per­­manent.

n(t)

© Dunod – Toute reproduction non autorisée est un délit.

t 0

2 500

1 2

2 495 2 480

3

2 440

4

n(t) / n(t1)

pc(t)

 0, 998

0, 002

0, 993 988

0, 006 012

2 350

0, 983 871 0, 963 115

0, 016 129 0, 036 885

5

2 190

0, 931 915

0, 068 085

6

1 990

0, 908 676

0, 091 324

7

1 740

0, 874 372

0, 125 628

8

1 390

0, 798 851

0, 201 149

9

790

0, 568 345

0, 431 655

10

340

0, 430 380

0, 569 620

11

90

0, 264 706

0, 735 294

12

30

0, 333 333

0, 666 667

13

10

0, 333 333

0, 666 667

14

0

0

6.4 Cal­­cul

Figure 6.10

1

des appro­­vi­­sion­­ne­­ments

Repre­­nons l’exemple ci-­­­dessus et cal­­cu­­lons cette fois, pour chaque valeur de t, la quan­­tité pc(t) ou « pro­­ba­­bi­­lité d’ava­­rie ». 239

Chapitre 6 • Fiabilité des composants, sûreté. . .

Remarque.  On note une « irré­­gu­­la­­rité » de la courbe repré­­sen­­ta­­tive de pc(t). Il n’y a pas lieu de s’alar­­mer de cette constata­­tion, les faibles effec­­tifs des der­­nières classes ne per­­met­­tant pas d’espé­­rer des résul­­tats d’expé­­rience plus vrai­­sem­­blables. La pro­­ba­­bi­­lité pour qu’un équi­­pe­­ment, par­­venu à l’âge t, soit défaillant dans l’inter­­ valle [t, t 1 1] étant pc(t), la pro­­ba­­bi­­lité pour qu’il sur­­vive n’est autre que 1 2 pc ( t ) . Donc, si nous consi­­dé­­rons les états 0, 1, 2, c, 13 (âges) du maté­­riel, les pro­­ba­­bi­­li­­tés de tran­­si­­tion des états pré­­cé­­dents à l’état 0 (panne suivie du rem­­pla­­ce­­ment) sont : 0, 002 ; 0, 006 ; c; 0, 667 ; 1, tan­­dis que les pro­­ba­­bi­­li­­tés de tran­­si­­tion des états pré­­cé­­dents aux états 1, 2, 3, c (sur­­vie pendant une période) sont : 0, 998 ; 0, 994 ; c; 0, 333 ; 0. Nous obte­­nons ainsi la matrice des pro­­ba­­bi­­li­­tés de tran­­si­­tion(1) de dimen­­sion 14 3 14, qui est stochastique et défi­­nit une chaîne de Markov (ce point est détaillé à la fin de ce para­­graphe) ; le lecteur vérifiera que la somme des termes dans chaque ligne de M, vaut 1 :

0 1 2 3 4 5 6 M= 7 8 9 10 11 12 13

0 1 2 6 5 3 8 4 7 9 10 11 12 13 0, 002 0, 998 0, 006 0, 994 0, 016 0, 984 0, 037 0, 963 0, 068 0, 932 0, 091 0, 909 0, 126 0, 874 0, 201 0, 799 0, 432 0, 568 0, 570 0, 430 0, 735 0, 265 0, 667 0, 333 0, 667 0, 333 1 0

dont le graphe G est donné par la figure 6.11 ; cette chaîne est non décom­­po­­sable (car G est fortement connexe) et a­­­pério­­dique (car G comporte une boucle), elle est donc for­­te­­ment ergo­­­dique ; mais ici nous allons étu­­dier le régime tran­­si­­toire). (1) les probabilités non spécifiées, telle p02, sont nulles. 1. 240

6.4  Cal­­cul des appro­­vi­­sion­­ne­­ments

Figure 6.11

© Dunod – Toute reproduction non autorisée est un délit.

En fai­­sant le pro­­duit du vec­­teur N(0)1, dont les élé­­ments sont les nombres d’équi­­ pe­­ments d’âges déter­­mi­­nés mis en ser­­vice à la date 0, par la matrice M, on obtien­­dra N(1)1, les élé­­ments de ce vec­­teur étant les nombres d’équi­­pe­­ments d’âges déter­­mi­­ nés: à rem­­pla­­cer (colonne 0) ou sur­­vi­­vants (colonnes 1 à 13) à la date 1. En mul­­ti­­ pliant N(1) par M, on obtien­­dra N(2)1, et ainsi de suite. Nous ferons le cal­­cul dans l’hypo­­thèse où l’on a, ini­­tia­­le­­ment, 2 500 équi­­pe­­ments neufs : N ( 0 ) 5 3 2 500 ; 0 ; c; 0 4

Il vient suc­­ces­­si­­ve­­ment : N ( 1 ) 5 N ( 0 ) # M 5 3 5 ; 2 495 ; 0 ; 0 ; c; 0 4 ; N ( 2 ) 5 N ( 1 ) # M 5 3 14,98 ; 4,99 ; 2 480,03 ; 0 ; 0 ; c; 0 4 , etc. pour les âges des équi­­pe­­ments aux périodes suc­­ces­­sives. On remarque que la pre­­ mière com­­po­­sante N0(k) de chaque vec­­teur N(k) donne la quan­­tité à réap­­pro­­vi­­sion­­ ner en chaque début de période  : ini­­tia­­le­­ment, 2 500 ; après une période, 5 ; après deux périodes : 14,98 ; etc. Bien entendu, les nombres non entiers qui appa­­raissent sur le tableau cor­­res­­pondent à un cal­­cul théo­­rique. Dans la pra­­tique, on rem­­place un nombre d’équi­­pe­­ments évidemment entier et les effec­­tifs des dif­­fé­­rentes classes d’âge s’expriment éga­­le­­ment en nombres entiers (cf. tableau 6.3). La « courbe » de la figure 6.12 (pour rendre plus visible l’évo­­lu­­tion, on a réuni les points par des seg­­ments de droite) est extrê­­mement inté­­res­­sante. Elle montre que les quan­­ti­­tés à appro­­vi­­sion­­ner oscil­­lent très lar­­ge­­ment autour de la valeur moyenne N 2 500 5 . 300 équi­­pe­­ments par période. La pour­­suite du cal­­cul mon­­tre­­rait que 8, 334 t ce n’est qu’à par­­tir d’une loin­­taine période que l’on aurait une dif­­fé­­rence de moins de N 1 % entre ré­­­appro­­vi­­sion­­ne­­ments cal­­cu­­lés et le ré­­­appro­­vi­­sion­­ne­­ment moyen . Cela t signi­­fie que l’on a renou­­velé, en moyenne, six à sept fois le maté­­riel avant d’être par­­ venu à l’équi­­libre ( 52/8,33 < 6,24 ) .

1. les vec­­teurs N(0), N(1), N(2), etc., sont égaux aux vec­­teurs de pro­­ba­­bi­­lité des états  : P(0), P(1), P(2), mul­­ti­­pliés par 2 500. 241

242 166,82

208,78 238,88

262,79

281,97

9

94,75

789,70 1,58 4,73 12,55 28,60 50,74 63,70 81,01 114,20 196,81 154,68 99,23

Tableau 6.3  DES LIGNES N(0) à N(20) ET DU RÉGIME PER­­MANENT N*

292,80

297,56

299,36

8

1390,32 2,78 8,33 22,10 50,35 89,34 1 12,15 142,62 2 389,96 346,49 272,32 174,70 89,27

7

1740,08 3,48 10,43 27,66 63,02 111,81 140,37 178,50 251,64 433,66 340,82 218,65 111,73 117,81

6

1990,94 3,98 11,93 31,65 72,10 127,93 160,60 204,23 287,92 496,17 389,96 250,17 127,84 134,79 171,86

5

2190,25 4,38 13,12 34,82 79,32 140,74 176,68 224,68 316,74 545,85 429,00 275,22 140,64 148,28 189,07 224,26

4

2 440,35 4,88 2 350,06 4,70 14,62 14,08 38,79 37,36 88,38 85,11 156,81 196,86 151,01 250,33 189,57 352,91 241,07 608,17 339,85 477,98 585,67 306,64 460,30 29,00 156,70 165,21 150,90 210,66 159,10 249,87 202,87 291,88 240,62 333,04 281,08

3

2480,03 4,96 14,86 39,42 89,82 159,36 200,06 254,40 358,64 618,06 485,76 311,63 159,25 167,90 214,08 253,93 296,63 338,45 381,77

2

2495 4,99 14,95 39,66 90,36 160,32 201,26 255,94 360,81 621,79 488,69 313,51 160,21 168,91 215,38 255,46 298,42 340,50 384,07 377,72

1

40,74

339,57 0,68 2,03 5,40 12,30 21,82 27,39 34,83 49,11 84,63 66,51

10

10,80

89,99 0,18 0,54 1,43 3,26 5,78 7,26 9,23 13,01 22,43

11

Pour la com­­pa­­rai­­son avec le régime sta­­tion­­naire, cal­­cu­­lons p *0, d’après : 1 5 p *0 1 0, 998 p *0 1 0, 998 3 0, 994 p *0 1 0, 998 c0, 994 3 0, 984p *0 1 c3 0, 333p *0, soit : p *0 5 0, 1198, d’où : 2 500 # p *0 5 300 et, en arron­­dis­­sant approxi­­ma­­ti­­ve­­ment à l’entier le plus proche : 297 293 282 263 239 209 167 95 41 11 2 500 # P* 5 [300 299

299,96

Régim. perm.

0

2500 5 14,98 39,74 90,54 160,64 201,67 256,45 361,53 623,04 489,67 314,14 160,53 169,25 215,81 255,97 299,02 341,18 384,84 378,47 329,66

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

3

3,60

29,97 0,06 0,18 0,48 1,09 1,93 2,42 3,07 4,33

12

1]

1,20

9,98 0,02 0,06 0,16 0,36 0,64 0,80 1,02

13

Chapitre 6 • Fiabilité des composants, sûreté. . .

6.4  Cal­­cul des appro­­vi­­sion­­ne­­ments

Il faut en tirer la conclu­­sion, très impor­­tante, que les phé­­no­­mènes per­­ma­­nents sont en géné­­ral de peu d’inté­­rêt en matière de renou­­vel­­le­­ment des équi­­pe­­ments. En effet, on n’aura pas encore atteint le régime per­­manent lorsque, frappé d’obso­­les­­cence, l’équi­­pe­­ment consi­­déré sera déjà à rem­­pla­­cer par un nou­­veau type d’équi­­pe­­ment ! On peut donc, avec avan­­tage, se lais­­ser gui­­der par ce cal­­cul simple pour dres­­ser les tableaux de com­­mande du maté­­riel à renou­­ve­­ler, période par période, quitte à ins­­ti­­ tuer un cer­­tain stock de sécu­­rité, pour évi­­ter les consé­­quences d’aléas éven­­tuels. Le gain, sou­­vent consi­­dé­­rable, qui résulte de com­­mandes caden­­cées, selon la méthode ci-­­­dessus, pour le ré­­­appro­­vi­­sion­­ne­­ment des équi­­pe­­ments, est cal­­culé comme en matière de sto­­ckage.

© Dunod – Toute reproduction non autorisée est un délit.

Figure 6.12

La matrice M ci-­­­dessus, étant sto­­chas­­tique, défi­­nit une chaîne de Markov finie (à 14 états). Le graphe asso­­cié (figure 6.11) est un graphe fini for­­te­­ment connexe (car il com­­porte un cir­­cuit hamiltonien (0, 1, 2, c, 12, 13, 0)) : ainsi, la chaîne de Markov comporte-­­­t-elle une seule classe d’états, donc tous récur­­rents. De plus, le graphe quand n S 1 ` com­­porte une boucle : l’arc (0, 0) ; ainsi cette classe est a­­­pério­­dique. La chaîne de Markov est donc for­­te­­ment ergodique : le vec­­teur de pro­­ba­­bi­­li­­tés des états P(n) tend vers une limite P*, indé­­pen­­dante de la dis­­tri­­bu­­tion ini­­tiale P(0) quand n S 1 `: P*=[300, 299, 297, 293, 282, 263, 239, 209, 167, 95, 41, 11, 3, 1]. Rap­­pe­­lons qu’entre le vec­­teur des âges N(n) et P(n), on a la rela­­tion  : 1 # N ( n )  ; ainsi le vec­­teur des âges admet-­­­il une limite N * quand P(n) 5 2 500 n S ` : N* 5 2 500 # P*. Mais, dans le cas de ce cal­­cul d’appro­­vi­­sion­­ne­­ment, ­cette limite est très longue à atteindre : répé­­tons que sou­­vent le type d’équi­­pe­­ment étu­­dié devient obso­­lète avant que cette limite soit atteinte ! Néan­­moins, ce cal­­cul per­­met de posi­­tion­­ner l’asymp­­tote de la courbe d’approvisonnement, cor­­res­­pon­­dant à la quan­­ 243

Chapitre 6 • Fiabilité des composants, sûreté. . .

tité d’équi­­pe­­ments N *0 (pre­­mière com­­po­­sante du vec­­teur N *)  : N *0 5 2 500 p *0. On 2 500 1 peut mon­­trer que p *0 5 5 1/8,334, pour retrou­­ver N *0 5 . 300. t t

6.5 Un

autre com­­pro­­mis : l’entre­­tien pré­­ven­­tif

Il sera com­­mode de consi­­dé­­rer ici qu’une machine (ou un sys­­tème) com­­porte un organe par­­ti­­cu­­liè­­re­­ment fra­­gile et d’étu­­dier quelles sont les consé­­quences des déci­­ sions contraires que l’on peut prendre au sujet du rem­­pla­­ce­­ment de cet organe : soit attendre sa défaillance et subir, de ce fait, une panne coû­­teuse ; soit envi­­sa­­ger de le rem­­pla­­cer à une période θ (res­­tant à déter­­mi­­ner), de manière à évi­­ter, dans une cer­­ taine mesure, une inter­­rup­­tion intem­­pes­­tive du ser­­vice. •  Dans le pre­­mier cas, on paie : 1) le rem­­pla­­ce­­ment de cet organe au prix p ; 2) le coût de la panne, soit P. Si tr est la durée de vie moyenne de l’organe consi­­déré, le coût moyen, par unité de temps, vaut : p1P

. t •  Dans le second cas, la courbe de sur­­vie pré­­sente un saut à l’époque θ (fig. 6.13) et, si v(t) est la fonc­­tion conti­­nue de sur­­vie cor­­res­­pon­­dante (fonc­­tion de fia­­bi­­lité), les consé­­quences de la panne ne se feront sen­­tir que si l’organe fra­­gile est défaillant avant θ, c’est-­­­à-dire avec la pro­­ba­­bi­­lité 1 2 v 1  2 . On a ainsi un coût moyen par unité de temps : C1 5

C2 (  ) 5

p 1 3 1 2 v ( ) 4 # P , t

tθ étant la durée de vie moyenne d’un organe dont la courbe de sur­­vie subit un saut à θ, soit : t 5 3 v ( t ) dt. 

0

En effet, nous sommes dans le cas d’une loi de pro­­ba­­bi­­lité tronquée : t 5 3 t # f ( t ) # dt 1  # Pr( T .  ) , 0 

avec : Figure 6.13

f (t) 5

244

d v ( t ) et Pr ( T .  ) 5 v (  ) dt

6.5  Un autre com­­pro­­mis : l’entre­­tien pré­­ven­­tif

Mon­­trons que les deux expres­­sions de t ci-­­­dessous sont bien égales :  3 t # f ( t ) # dt 5 23 t # dv ( t ) 5 2 3 tv 4 0 1 3 v ( t ) # dt 5 2v (  ) 1 3 v ( t ) # dt ; 0 0 0 0 







ainsi :

t5 3 t # f ( t ) # dt 1  # v (  ) 5 2 # v (  ) 1 3 v ( t ) # dt 1  # v (  ) 5 3 v ( t ) # dt ■ 0 0 0 





Pour que l’entre­­tien pré­­ven­­tif soit avan­­ta­­geux, il faut qu’il existe au moins une époque θ telle que l’on ait : C2 1  2 , C1, c’est-­­­à-dire : p 1 3 1 2 v ( ) 4P t

ou :

,

p1P t

p # t 1 P # t 2 P # v (  ) # t , ( p 1 P) # t  ;

mais :

t 5 t 2 t  avec : t  5 3 v ( t ) # dt. `



Il vient donc : 2P # v (  ) # t , 2 ( p 1 P ) # t  ,

d’où :

p1P P

,

v1 2 # t t

,

soit encore :

© Dunod – Toute reproduction non autorisée est un délit.

C1 , P #

v1 2 t

.

Dans ces condi­­tions, c’est-­­­à-dire si  : C1 , P #

v1 2

, l’époque la plus favo­­rable t pour l’entre­­tien pré­­ven­­tif sera évi­­dem­­ment la valeur θ ren­­dant C2(θ) mini­­mal. Or, C2(θ) est géné­­ra­­le­­ment une fonc­­tion tout d’abord décrois­­sante, puis crois­­sante de θ (on écrit plus bas, en abrégé : v, au lieu de : v(θ)). Cal­­cu­­lons

dC2 1  2 d

 ; on a :

245

Chapitre 6 • Fiabilité des composants, sûreté. . .

2t  # P #

dC2 1  2

5

d

Sachant que :

ou encore :

dv dt 2 3p 1 1 1 2 v 2 P 4 # d d t22

dt 5 v (  )  ; il en résulte que C2(θ) est mini­­mal pour : d dv 2t  # P # 2 3p 1 1 1 2 v 2 # P 4 # v 5 0 d 2t #

p1P vr .   (6.1) 1v5 v P

Remar­­quons au pas­­sage que pour une fia­­bi­­lité expo­­nen­­tielle : t 5 3 e2lt # dt 5 0 

1 2 e2l 

et : vr (  ) 5 2le2l .

L’équa­­tion (6.1) donne alors : 2

(1 2 e2l ) ( 2le2l ) l

#

e2l p1P

1 e2l 5

p1P , P

, P ce qui sup­­po­­se­­rait que le prix de l’équi­­pe­­ment p soit nul ! En fait, pra­­ti­­quer de l’entre­­tien (rem­­pla­­ce­­ment) pré­­ven­­tif avec un maté­­riel de fia­­bi­­lité expo­­nen­­tielle est absurde : le taux de panne l étant constant, cette démarche revien­­drait à mettre à la pou­­belle des équi­­pe­­ments neufs ! En effet, un tel équi­­pe­­ment n’a pas d’« âge » (au sens habi­­tuel du terme). En pratique, l est constant sur une très longue période, mais la phase d’usure finit par apparaître : cf. Fig 6.5. Appli­­quons main­­te­­nant ces résul­­tats à un exemple dans lequel la loi de sur­­vie serait conforme au tableau mais oublions qu’il s’agis­­sait de pneu­­ma­­tiques, les consé­­ quences éco­­no­­miques de la panne étant, dans ce der­­nier cas, trop faibles pour que le pro­­blème soit inté­­res­­sant. Consi­­dé­­rons, au contraire, et suc­­ces­­si­­ve­­ment, que : l) p 5 0,1 ; P 5 1  ;  2) p 5 1 ; P 5 1. Le tableau ci-­­­dessous per­­met de tirer des conclu­­sions inté­­res­­santes. soit après simplifications :

246

15

6.5  Un autre com­­pro­­mis : l’entre­­tien pré­­ven­­tif



υ() 1υ() υ /  t 

(1)

t  /υ()

  t



υ() / 

t  υ υ() υ() 

t

C2() Cas 1 Cas 2

1 0, 998 0, 002 0, 002 0, 999

1, 001 6, 835 0, 146

1

0,102 1, 003

2 0, 992 0, 008 0, 006 1, 994

2, 010 5, 840 0,170

1, 004

0, 054 0, 506

3 0, 976 0, 024 0, 016 2,978

3, 051 4, 856 0, 201

1, 025

0, 042 0, 344

4 0, 940 0, 060 0, 036 3,936

4,187 3, 898 0, 241

1, 091

0, 041 0, 269

5 0, 876 0,124 0, 064 4, 844 5, 530 2, 990 0, 293 6 0, 796 0, 204 0, 080 5, 680 7,136 2,154 0, 370

1, 230 1, 367

0, 046 0, 232 0, 054 0, 212

7 0, 696 0, 304 0,100 6, 426 9, 233 1,408 0, 494 8 0, 556 0, 444 0,140 7, 052 12, 683 0, 782 0, 711

1, 619 2, 332

0,063 0, 203 0, 077 0, 205

9 0, 316 0, 684 0, 240 7, 488

0, 346 0, 913

0,105 0, 225

10 0,136 0, 864 0,180 7, 714

0, 120 1, 133

0, 125 0, 242

11 0, 036 0, 964 0,100 7, 800

0, 034 1, 059

0,136 0, 252

12 0, 012 0, 988 0, 024 7, 824

0, 010 1, 200

0,139 0, 254

13 0, 004 0, 996 0, 008 7,832

0,002 2

0,140 0, 255

14

0

1

 0,004 7,834

0

0,140 0,255



t

 C1  C1



Pour cal­­cu­­ler t , on trace la courbe v(θ) en joi­­gnant les points (θ, v(θ)), où θ = 0, 1, c, 14, par des seg­­ments de droite : la « courbe » v(θ) est alors une ligne bri­­sée. Puis on éva­­lue l’aire com­­prise entre la courbe et l’axe des temps entre t = 0 et t = θ : t  est alors la somme des aires de θ tra­­pèzes. En outre, comme v(t) = 0 pour t > 14, on a : t14 5 tr.

© Dunod – Toute reproduction non autorisée est un délit.

1) Dans le pre­­mier cas, on a pour tout θ : C1 . P #

C1 5

1, 1

7, 834

5 0, 140 4 et P 5 1. Ici C2 ( ) 5

v () t

. En effet

0, 1 1 1 2 v ( ) t

.

247

Chapitre 6 • Fiabilité des composants, sûreté. . .

Le mini­­mum de C2 (  ) a lieu pour θ  5 4 et l’on constate que l’on aura  : p1P t Dv # 5 1,1 pour une valeur de θ très légè­­re­­ment supé­­ 1 v ( ) 5 P v ( ) D rieure à θ 5 4.

2

Il est très inté­­res­­sant de pra­­ti­­quer l’entre­­tien pré­­ven­­tif et d’adop­­ter la date θ 5 4 ; C1 2 C2 le gain rela­­tif est de 70 % ; C1 v ( ) 2) dans le second cas on a : C1 5 0, 255 ; on n’a donc C1 , qu’à par­­tir de t θ 5 5 ; le mini­­mum de C2(θ) a lieu entre l’époque 7 et 8 ; pour θ 5 7,5 on peut p1P t Dv 1 v < 1, 950, c’est-­­­à-dire pra­­ti­­que­­ment : cal­­cu­­ler : 2 v # p 5 2. D Il est inté­­res­­sant de pra­­ti­­quer l’entre­­tien pré­­ven­­tif, en adop­­tant une valeur  < 7, 5 ; mais le gain rela­­tif n’est alors que de 20 %. N.B. La com­­pa­­rai­­son des diverses courbes de sur­­vie (fiabilité) est faci­­li­­tée par l’adop­­tion d’une variable auxi­­liaire : ,n 1 t/a 2 x5 m ,

m étant un para­­mètre de dis­­per­­sion. On constate, en effet, que la variable x est dis­­ tri­­buée selon une loi de Laplace-­­­Gauss. Ce pas­­sage par une loi log­­­nor­­male1 est très fruc­­tueux, car les pièces de fatigue sont alors carac­­té­­ri­­sées par une valeur de para­­ mètre m de l’ordre de 0,9, tan­­dis que les pièces d’usure le sont par des valeurs com­­ prises entre 0,2 et 0,6. Si v(t) est la fonc­­tion de sur­­vie, on peut cal­­cu­­ler la « médiane », soit la valeur de t pour laquelle v(t) 5 0,5 ; appe­­lons a cette valeur. Consi­­dé­­rons alors la variable auxi­­liaire : ,n ( t/a ) ,n t 2 ,n a ,n t 2 m 5 5 x5 m m m , où m 5 ,n a. On montre que, pour beau­­coup de pièces, la déri­­vée de la loi de sur­­vie peut s­ ’écrire : 1

(,n t 2 m)2 2

, m"2pt puis dt 5 m # emx 1 m # dx, la loi de sur­­vie (fia­­bi­­lité) : 2

d’où, avec : t 5 e mx 1 m

dv ( t ) dt

5

e

2m2

1. Kelly a fondé l’étude de l’entre­­tien pré­­ven­­tif sur l’uti­­li­­sation d’une repré­­sen­­ta­­tion log­­­nor­­male des courbes de sur­­vie. 248

6.5  Un autre com­­pro­­mis : l’entre­­tien pré­­ven­­tif

v (x ) 5 1 2

1

3 e x

2

x2 2

dx 5 1 2 Pr ( x ) . "2p 2` On reconnaît dans l’inté­­grale la fonc­­tion de répar­­tition de la loi nor­­male cen­­trée réduite. Repré­­sen­­tons (figure 6.14) un cer­­tain nombre de courbes de sur­­vie, en fonc­­tion t de a  ; elles passent toutes, dans ces condi­­tions, par le point de coordonnées : t a 5 1 ; v 5 0, 5. On remarque, de plus, que ces courbes vont de la loi rec­­tan­­gu­­laire pour m 5 0 à la loi expo­­nen­­tielle décrois­­sante pour m 5 0, 84, c’est-­­­à-dire balaient le champ habi­­tuel des courbes de sur­­vie. Il est aisé de cal­­cu­­ler : m2

m2

t 5 e m 1 2 , soit: t 5 e m 1 2 Pr ( t 1 m) 1 em t 1 m 3 1 2 Pr ( t) 4

© Dunod – Toute reproduction non autorisée est un délit.

où :

t 5

,n  2 m . m

Figure 6.14

249

Chapitre 6 • Fiabilité des composants, sûreté. . .

On obtient alors : C2 C1

5

p 1 3 1 2 v( ) 4P t

# t

p1P

5

( p / P ) 1 Pr ( t) (p / P) 1 1

#

1 m mat 2 b 2

Pr ( t 2 m ) 1 e

# 3 1 2 Pr ( t) 4

.

Il est inté­­res­­sant de consta­­ter que les pièces d’usure, pour les­­quelles le coef­­fi­­cient m est com­­pris entre 0,3 et 0,6, donnent des minima bien mar­­qués du rap­­port C2/C1, ceci d’autant mieux que p/P est petit (nous l’avons constaté sur l’exemple numé­­rique pré­­cé­­dent, où l’on pour­­rait prendre m < 0,4, tout au moins pour la par­­tie supé­­rieure de la courbe de sur­­vie). Il est donc, en géné­­ral, avan­­ta­­geux de pra­­ti­­quer l’entre­­tien pré­­ven­­tif : une pièce d’usure (cour­­roie, gar­­ni­­ture de frein, chaîne, etc.) est, le plus sou­­vent, de peu de prix devant le coût d’une panne. Au contraire, les pièces de fatigue (com­­po­­sants élec­­tro­­niques, axes, rou­­le­­ments, fleu­­rets, vile­­bre­­quins, etc.), pour les­­quelles le coef­­fi­­cient m est voi­­sin de 0,9, ne ­donnent de minima signi­­fi­­ca­­tifs du rap­­port C2/C1 que lorsque p/P est vrai­­ment faible, de l’ordre de 0,05, par exemple. Or, les pièces de fatigue sont géné­­ra­­le­­ment coû­­ teuses et ainsi le rap­­port p/P dépasse lar­­ge­­ment la limite indi­­quée ci-­­­dessus, si bien que l’on n’a pas sou­­vent inté­­rêt à pra­­ti­­quer l’entre­­tien pré­­ven­­tif. D’ailleurs, puisque les pièces de fatigue sur­­vivent selon une courbe qui s’appa­­ rente à l’expo­­nen­­tielle décrois­­sante, il est à peu près évident qu’on n’a pas d’avan­­ tage à rem­­pla­­cer une vieille pièce par une pièce neuve de fra­­gi­­lité égale, comme nous l’avons déjà sou­­li­­gné plus haut, ceci tant que la phase d’usure n’est pas atteinte (Fig. 6.5).

6.6  Fia­­bi­­lité

des sys­­tèmes non répa­­rables

6.6.1 Fia­­bi­­lité d’un sys­­tème formé de com­­po­­sants mon­­tés en série

Figure 6.15

Nous sup­­po­­se­­rons l’indé­­pen­­dance de l’occur­­rence des pannes des com­­po­­sants C1, C2, c, Cn. Soient alors les variables aléa­­toires T1, T2, c, Tn : ins­­tants d’occur­­ rence res­­pec­­tifs de ces pannes et TS : durée de vie du système-­­­série (qui est en panne dès que l’un de ses com­­po­­sants est en panne).

250

6.6  Fia­­bi­­lité des sys­­tèmes non répa­­rables

La fia­­bi­­lité de ce sys­­tème est : VS 1 t 2 5 P 3 TS . t 4 , on a : V S ( t ) 5 P 3 T 1 . t et T 2 . t et cet T n . t 4  ; puisque T 1, T 2,c, T n sont indépendantes : V s (t) 5 P3 T1 . t 4 ? P3 T2 . t 4 ? c ? P3 Tn . t 4 5 v1 (t) ? v2 (t) ? c ? vn(t)

Mon­­ter des com­­po­­sants en série fra­­gi­­lise un sys­­tème : pour fixer les idées, sup­­ po­­sons que l’on ait n 5 6 com­­po­­sants mon­­tés en série, la fia­­bi­­lité au bout de 1 000 heures de cha­­cun valant : vk(1 000) 5 0,9.

La fia­­bi­­lité du sys­­tème série vaut alors : VS 5 (1 000) 5 0,96, soit seule­­ment 0,53 : même si la fia­­bi­­lité indi­­vi­­duelle de chaque com­­po­­sant peut être jugée cor­­ recte, la fia­­bi­­lité du système-­­­série sera sou­­vent inac­­cep­­table, car trop faible. Notons que, pour des fia­­bi­­li­­tés « expo­­nen­­tielles »  : vi ( t ) 5 e 2 lit, on  

, soit  : l S 5 a l j  : les taux de panne, dans ce cas, s’ajoutent. n

a  :  VS(t)  5  e

2(Σli)t

i 51

Le MTTF vaut : tS 5 1/l S ; ainsi, pour n com­­po­­sants de même taux de panne : li, 5 1 l, il vient tS 5 nl  ; la durée de vie moyenne du système-­­­série est alors n fois plus faible que celle d’un de ses com­­po­­sants...

6.6.2 Fia­­bi­­lité d’un sys­­tème monté en paral­­lèle Avec les mêmes nota­­tions que ci-­­­dessus, la fia­­bi­­lité Vp(t) de ce sys­­tème paral­­lèle est  : Vp 1 t 2 5 P 3 Tp . t 4 .

© Dunod – Toute reproduction non autorisée est un délit.

Ce sys­­tème est en panne seule­­ment lorsque les n com­­po­­sants sont en panne. D’où :

Figure 6.16

1 2 Vp ( t ) 5 P 3 Tp , t 4 5 P 3 T1 , t et T2 , t et cet Tn , t 4 5 P 3 T1 , t 4 ? P 3 T2 , t 4 ? c ? P 3 T , t 4 n

5 3 1 2 v1 ( t ) 4 ? 3 1 2 v2 ( t ) 4 ? c ? 3 1 2 vn ( t ) 4

En par­­ti­­cu­­lier, si n 5 2, il vient : Vp 1 t 2 5 v1 1 t 2 1 v2 1 t 2 2 v1 1 t 2 # v2 1 t 2 . Mon­­ter des com­­po­­sants en paral­­lèle per­­met d’accroître la fia­­bi­­lité d’un sys­­tème ; ainsi avec n 5 3 com­­po­­sants et (comme ci-­­­dessus) vk(1 000) 5 0,9, il vient : 1 2 Vp 1 1 000 2 5 3 1 2 0, 9 4 3 soit Vp 1 1 000 2 5 0, 999 : bien meilleur que 0,9 !

Doubler, tripler des composant est lar­­ge­­ment uti­­lisé dans des sys­­tèmes embar­­ qués, satel­­lites, navettes spa­­tiales, etc.

251

Chapitre 6 • Fiabilité des composants, sûreté. . .

Notons que pour des fia­­bi­­li­­tés expo­­nen­­tielles vi(t) 5 e2lt et pour n 5 3, 1 2 Vp 1 t 2 5 3 1 2 e2lt 4 3 d’où V p ( t ) 5 3e2lt 2 3e22lt 1 e23lt   : la fia­­bi­­lité du 3 3 11 1 5 l, sys­­tème ne suit plus une loi expo­­nen­­tielle ; en outre, tp 5 2 1 6 l 2l 3l soit près du double de la durée de vie (1/l) d’un seul com­­po­­sant.

6.6.3  Fia­­bi­­lité de mon­­tages série-­­­parallèle La fia­­bi­­lité V(t) s’obtient en com­­bi­­nant les résul­­tats des deux para­­graphes pré­­cé­­ dents. Ainsi pour le sys­­tème ci-­­­dessous :

Figure 6.17

on peut rem­­pla­­cer les deux com­­po­­sants C1 et C2 par un com­­po­­sant unique C1,2 de fia­­bi­­lité v 1 ( t ) # v 2 ( t ) . On a alors C1, 2 et C3 en paral­­lèle : la fia­­bi­­lité de ce sous-­­­système paral­­lèle est : ( v1 # v2 ) 1 v3 2 ( v1v2 ) # v3 et fina­­le­­ment ce sous-­­­système étant en série avec C4 , il vient : V 1 t 2 5 3 v1 1 t 2 # v2 1 t 2 1 v3 1 t 2 2 v1 1 t 2 # v2 1 t 2 # v3 1 t 2 4 # v4 1 t 2 . Pour des fia­­bi­­li­­tés expo­­nen­­tielles, toutes de même taux l, on aurait : t5

7 1 1 1 . 5 1 2 3l 2l 4l 12l

6.6.4 Cas des sys­­tèmes quel­­conques On a inté­­rêt à uti­­li­­ser, pour cal­­cu­­ler la fia­­bi­­lité V(t) du sys­­tème à employer, le théo­­rème des « pro­­ba­­bi­­li­­tés totales ». Par exemple, pour un sys­­tème en pont de Wheatstone : Ce sys­­tème fonc­­tionne tant qu’il existe une chaîne de com­­po­­sants ­entre e et s, sans aucun com­­po­­sant en panne. Le théo­­rème des pro­­ba­­bi­­li­­tés totales s’écrit ici : Figure 6.18

V ( t ) 5 P 3 T . t 4 5 P 3 T . t k T5 > t 4 ? P 3 T5 > t 4 1 P 3 T . t k T5 , t 4 ? P 3 T5 , t 4 . (6.1) 252

6.6  Fia­­bi­­lité des sys­­tèmes non répa­­rables

Pour le pre­­mier terme de cette somme (6.1), on sait que la panne de T5 sur­­vien­­dra après t : pour éva­­luer P 3 T . t k T5 > t 4 , on peut alors consi­­dé­­rer C5 comme un court­­­circuit ; le sys­­tème devient alors :



Figure 6.19

Figure 6.20

qui est un sous-­­­système série/paral­­lèle de fia­­bi­­lité : 1 v1 1 v3 2 v1v3 2 # 1 v2 1 v4 2 v2v4 2 . Pour le second terme de la somme (6.1), on sait que la panne sur­­vien­­dra avant t : pour éva­­luer P 3 T . t k T5 , t 4 , on peut consi­­dé­­rer alors que C5 est en panne ouverte : tout se passe comme si C5 avait été sup­­primé : On obtient un autre sous-­­­système série­­­parallèle de fia­­bi­­lité :

Figure 6.21

v1v2 1 v3v4 2 v1v2v3v4. Fina­­le­­ment, en remar­­quant que : P 3 T5 > t 4 5 v5 1 t 2 et P 3 T5 , t 4 5 1 2 v5 1 t 2 ,

on obtient : V 5 3 1 v1 1 v3 2 v1v3 2 # 1 v2 1 v4 2 v2v4 2 4 # v5 1 3 v1v2 1 v3v4 2 v1v2v3v4 4 # 1 1 2 v5 2 Si vi(t) 5 v(t) pour tout i, on a : V 1 t 2 5 2v5 1 t 2 2 5v4 1 t 2 1 2v3 1 t 2 1 2v2 1 t 2 .

© Dunod – Toute reproduction non autorisée est un délit.

Pour vi(t) 5 e2lt, on obtient alors t 5

49 5 2 2 2 5 2 1 1 . 60l 5l 4l 3l 2l

L’approche uti­­li­­sée ici pour éva­­luer V(t) est plus effi­­cace que celle consis­­tant à énu­­mé­­rer toutes les chaînes de com­­po­­sants de e à s, puis à appli­­quer la for­­mule du crible (que nous don­­nons ici à l’ordre 4) : P [A1 ou A2 ou A3 ou A4] 5 P 3 A1 4 1 P 3 A2 4 1 P 3 A3 4 1 P 3 A4 4 2 P 3 A1 et A2 4 2 P 3 A1 et A3 4 2 P 3 A1 et A4 4 2 P 3 A 2 et A 3 4 2 P 3 A 2 et A 4 4 2 P 3 A 3 et A 4 4 1 P 3 A 1 et A 2 et A 3 4 1 P 3 A 1 et A 2 et A 4 4 1 P 3 A1 et A3 et A4 4 1 P 3 A2 et A3 et A4 4 2 P 3 A1 et A2 et A3 et A4 4 .

Pour l’exemple ci-­­­dessus, on trouve les quatre chaînes : A1 5 [C1, C2] ; A2 5 [C1, C5,C4] ; A3 5 [C3, C5, C2] ; A4 5 [C3, C4]. P [A1] désigne ici la fia­­bi­­lité de C1 et C2 en série, soit P 3 A1 4 5 v1 # v2. Ainsi, on aura : P 3 A 2 et A 4 4 5 v 1 # v 3 # v 4 # v 5 (et non pas v1v5v4 # v3v4 , on ne doit pas répéter v 4!). 253

Chapitre 6 • Fiabilité des composants, sûreté. . .

De même, P [A1 et A2 et A3 et A4] 5 v1 # v2 # v3 # v4 # v5. Le lec­­teur véri­­fiera (au moins dans le cas où v1 5 v) que l’on retrouve le résul­­tat pré­­cé­­dent.

6.7 Sûreté de fonc­­tion­­ne­­ment réparables ­­

des sys­­tèmes

Pour des sys­­tèmes de fonc­­tion­­ne­­ment constant (sauf, bien sûr en période de panne), on défi­­nit plu­­sieurs gran­­deurs dépen­­dant, d’une part, de la fia­­bi­­lité indi­­vi­­duelle des com­­po­­sants, mais aussi de la poli­­tique de main­­te­­nance (répa­­ra­­tions) choi­­sie. Ces sys­­tèmes n’ont, en géné­­ral, pas de panne « cata­­lep­­tique » (ou binaire) comme une lampe qui peut cla­­quer, mais ont des modes de fonc­­tion­­ne­­ment dégradé, cor­­res­­pon­­ dant à des pannes par­­tielles. Notre exposé repo­­sera sur l’exemple simple, ci-­­­dessous, d’un sys­­tème paral­­lèle. Nous sup­­po­­se­­rons que v1(t) 5 v2(t) 5 e2lt. Lors­­ qu’une panne de com­­po­­sant sur­­vient, un répa­­ra­­teur inter­­vient ; la pro­­ba­­bi­­lité pour que la durée (aléa­­toire) d’une répa­­ra­­tion dépasse t est : e2mt. Il n’y a qu’un seul répa­­ra­­teur pour ce sys­­tème.

Figure 6.22

6.7.1  Modé­­li­­sa­­tion markovienne

Le sys­­tème ci-­­­dessus a trois états : – E0 :  les deux com­­po­­sants fonc­­tionnent (donc le taux glo­­bal de panne est 2 # l) ; – E1 :  un seul com­­po­­sant fonc­­tionne, l’autre est en cours de répa­­ra­­tion ; – E2 : les deux com­­po­­sants sont en panne : l’un est en cours de répa­­ra­­tion, l’autre attend d’être réparé. Voici alors le graphe des tran­­si­­tions entre t et t 1 dt :

Figure 6.23

Le pro­­ces­­sus de Markov, qui modé­­lise le sys­­tème, a un graphe fini, for­­te­­ment connexe  : il est for­­te­­ment ergodique, c’est-­­­à-dire que les pro­­ba­­bi­­li­­tés des états 254

6.7  Sûreté de fonc­­tion­­ne­­ment des sys­­tèmes répa­­rables

tendent vers une limite quand t S 1 ` : P* 5 3 p *0, p *1, p *2 4 posi­­tive, indé­­pen­­dante de la dis­­tri­­bu­­tion ini­­tiale P(0).

6.7.2 Dis­­po­­ni­­bi­­lité asymp­­to­­tique D*

On défi­­nit la « dis­­po­­ni­­bi­­lité » asymp­­to­­tique D* de ce sys­­tème, comme la pro­­ba­­bi­­lité pour, qu’en régime per­­manent, le sys­­tème rem­­plisse, au moins, une fonc­­tion mini­­ male spé­­ci­­fiée à l’avance. Ici, on demandera qu’au moins l’un des deux com­­po­­sants fonc­­tionne. On a alors : D* 5 a p *i , où FC est l’ensemble des états pour les­­quels EiPFC

cette fonc­­tion mini­­male est assu­­rée. Il convient alors, pour éva­­luer D*, de cal­­cu­­ler les pro­­ba­­bi­­li­­tés des états en régime 0 5 P* # A S 1 2 per­­manent t `   : on résout le sys­­tème linéaire b , où A désigne le 1 5 a p *i géné­­ra­­teur infi­­ni­­té­­si­­mal du pro­­ces­­sus de Markov. Ici, on a : 0 0 22l A 5 1≥ m 2

1 2l 2(l 1 m )

0

m

2 0 l ¥.

2m

On peut aussi appli­­quer le théo­­rème des coupes (pour lequel il suf­­fit de consi­­dé­­rer le graphe sim­­pli­­fié): – Pour C0 5 {E0} :

2l # p *0 5 m # p *1.

C1

C0

– Pour C1 5 {E0, E1} : l # p *1 5 m # p *2,

© Dunod – Toute reproduction non autorisée est un délit.



et : p *0 1 p *1 1 p *2 5 1. Figure 6.24

1 1 2l/m

. On véri­­fie que D* , 1 et que, si l / m est 1 1 2l/m 1 2l 2 /m 2 petit, c’est-­­­à-dire que le taux de répa­­ra­­tion est très supé­­rieur au taux de panne, D* est voi­­sin de 1 ; on aurait, pour l 5 0, D* 5 1 : un sys­­tème sans panne est tou­­jours dis­­po­­nible ! On obtient D* 5

On pour­­rait aussi chercher la dis­­po­­ni­­bi­­lité à l’ins­­tant t : D(t), connais­­sant la dis­­ tri­­bu­­tion ini­­tiale des pro­­ba­­bi­­li­­tés des états, mais ce cal­­cul de régime tran­­si­­toire est plus déli­­cat. 255

Chapitre 6 • Fiabilité des composants, sûreté. . .

6.7.3 MUT, MDT et MTBF Les gran­­deurs ci-­­­dessous sont défi­­nies en régime per­­manent. Ci-­­­dessous nous conti­­ nuons à par­­ler de “durées moyennes” alors que, stricto sensu, il s’agit d’espé­­rances mathéma­­tiques. Le MUT (Mean Up Time) est la durée moyenne d’une période de fonc­­tion­­ne­­ment cor­­rect du sys­­tème (après répa­­ra­­tion). Le MDT (Mean Down Time) est la durée moyenne d’une période d’indis­­po­­ni­­bi­­ lité. Elle inclut les durées de détec­­tion, d’inter­­ven­­tion et de répa­­ra­­tion. Ainsi, le MTBF (Mean Time Between Failure) : moyenne du temps entre pannes, apparaît-­­­il comme la somme du MUT et du MDT. Remar­­quons que la dis­­po­­ni­­bi­­lité asymp­­to­­tique D* vaut alors : MUT MUT 5 . MDT 1 MUT MTBF

D* 5

Figure 6.25

On peut aisé­­ment cal­­cu­­ler les quan­­ti­­tés dans le cas d’une modé­­li­­sa­­tion marko­ vienne. Rap­­pe­­lons la for­­mule des temps (cf. cha­­pitre 5) :

L’ensemble des états e étant par­­titionné en F et F, le temps moyen de séjour parmi les états de F, entre deux pas­­sages par ceux de F, vaut : TF 5 p *F // wF S F, où : p *F 5 a p *i et wF S F 5 a a p *i l ij. EiPF

EiPF EjPF

Pour éva­­luer le MUT, on pren­­dra pour F le sous-­­­ensemble d’états de fonc­­tion­­ ne­­ment cor­­rect : dans ce cas, on aura p *F 5 D* ; pour le MDT, on pren­­dra F. Ainsi dans l’exemple : F 5 5 E0, E1 6 ; F 5 5 E2 6 ; wF S F 5 l # p *1 5 wF S F 5 m # p *2 MUT 5

256

p *0 1 p *1 l # p *1

5

1 m / 2l 1 1 2 # p *1 l # p *1

5

2l 1 m 2l 2

,

6.7  Sûreté de fonc­­tion­­ne­­ment des sys­­tèmes répa­­rables

p *2

p *2



2l 1 m 1 1 1m 5 m ; MTBF 5 2l 2 l # p *1 m # p *2 ( 2 l 1 m ) /2l 2 MUT 2 l m 1 m2 5 5 On retrouve : D* 5 . MTBF ( 2 l m 1 m 2 1 2 l 2 ) /2 l 2m 2 l m 1 m 2 1 2l 2 En divi­­sant le numé­­ra­­teur et le déno­­mi­­na­­teur par m2, on retrouve bien : 1 1 (2 l / m ) . D* 5 1 1 ( 2 l / m ) 1 ( 2 l 2 / m2 ) Remar­­quons enfin que le fonc­­tion­­ne­­ment d’un sys­­tème (pour lequel les durées de répa­­ra­­tions sont petites par rap­­port aux temps entre défaillances) est modélisable par un pro­­ces­­sus de Markov... à deux états : MDT 5

5

Figure 6.26

où E0 désigne le macro-­­­état de fonc­­tion­­ne­­ment cor­­rect et E1, celui de défaillance. On 1 1 a les taux équi­­va­­lents : l éq 5 et m éq 5 . MUT MDT MUT Dans ce cas, on a sim­­ple­­ment : D* 5 p *0 5 car d’après le théo­­ MUT 1 MDT rème des coupes l éq # p *0 5 m éq # p *1 et, en outre, p *0 1 p *1 5 1, conduisent à : m éq MUT 1 / MDT . , c’est-à-dire : p *0 5 5 l éq 1 m éq MUT 1 MDT 1 / MUT 1 1 / MDT

© Dunod – Toute reproduction non autorisée est un délit.

6.7.4 Fia­­bi­­lité des sys­­tèmes répa­­rables On défi­­nit dans ce cas la fia­­bi­­lité V(t) comme la pro­­ba­­bi­­lité que la durée de fonc­­ tion­­ne­­ment T en mode cor­­rect du sys­­tème (à par­­tir de t 5 0) dépasse la durée t : V 1 t 2 5 P 3 T . t 4 . Pour un sys­­tème modé­­lisé par un pro­­ces­­sus de Markov, on rend alors absor­­bant l’état (ou les états) cor­­res­­pon­­dant à des modes de fonc­­tion­­ne­­ment dégradé inac­­cep­­ tables. Ainsi, dans notre exemple :

Figure 6.27

257

Chapitre 6 • Fiabilité des composants, sûreté. . .

L’arc (E2, E1) a été sup­­primé : l’état de panne E2 a été rendu absor­­bant (il com­­ porte une boucle valuée par une pro­­ba­­bi­­lité de tran­­si­­tion égale à 1). Sachant qu’à t 5 0 aucune panne n’est sur­­ve­­nue (le sys­­tème est dans l’état E0), le pro­­blème revient à cal­­cu­­ler p0(t) et p1(t) (donc en régime tran­­si­­toire), puisque : V1t2 5 p01t2 1 p1 1t2. Soit A le géné­­ra­­teur infi­­ni­­té­­si­­mal du pro­­ces­­sus de Markov. On résout Pr ( t ) 5 P ( t ) # A, de pré­­fé­­rence à l’aide de la trans­­for­­mée de Carson-­­­Laplace(1) : ,( ) V s 5 s3 V ( t ) e2st dt). 0 `

p 0r ( t ) 5 22l # p 0 ( t ) 1 m # p 1 ( t ) ; p 1r ( t ) 5 2 ( l 1 m ) # p 1 ( t ) 1 2 l # p 0 ( t ) avec, comme condi­­tion ini­­tiale : p0(0) 5 1. , On trouve V ( s ) 5 est :

s # ( s 1 3l 1 m )

s2 1 s ( 3l 1 m ) 1 2l

. Or, l’original de 2

1s 1 a2 1s 1 b2

a 2 c 2at b 2 c 2bt 1 3 ae2bt 2 be2a t 4 , où : e 2 e . D’où : V 1 t 2 5 a2b a2b "D

D 5 l 2 1 6lm 1 m 2 ; a 5

s1s 1 c2

3 l 1 m 1 "D 3 l 1 m 2 "D ; b5 . 2 2

Notons que, pour m 5 0, (c’est-­­­à-dire en l’absence de répa­­ra­­tion), on retrouve : V ( t ) 5 2e2lt 2 e22lt

(alors "D 5 l, a 5 2l, b 5 l), expres­­sion que l’on avait aisé­­ment obte­­nue au para­­graphe consa­­cré aux sys­­tèmes paral­­lèles non répa­­rables. Le lec­­teur en a déjà été averti : le cal­­cul for­­mel d’un régime tran­­si­­toire est sou­­vent lourd, voire impra­­ti­­cable (même en dis­­po­­sant d’un logi­­ciel du type Mathematica). Cepen­­dant, nous allons voir que le cal­­cul du MTFF (Mean Time To First Failure) : temps moyen jus­­qu’à la pre­­mière panne para­­ly­­sante, peut se pra­­ti­­quer plus aisé­­ment. Certes, si l’on a déjà éva­­lué V(t) comme ci-­­­dessus, on a : MTFF 5 3 V ( t ) # dt ; 0 ` 1 2gt # sachant que : 3 e dt 5 g ( g . 0 ) , il vient : 0 `

MTFF 5

( 3 l 1 m ) # "D ( a 1 b )( a 2 b ) 3 l 1 m. a b 2 d 5 5 5 2l 2 "D b a "D # a b "D # 2l 2 1

c

1. (1) Si le lec­­teur ne connaît pas la trans­­for­­mée de Carson-­­­Laplace, il peut sau­­ter ce déve­­lop­­pe­­ment et pas­­ser au paragraphe ci-dessous (commençant par “cependant, nous...”). 258

6.8  Stra­­té­­gie de rem­­pla­­ce­­ment

,( ) V s ( ) (En fait, en uti­­li­­sant un théo­­rème de cal­­cul opé­­ra­­tion­­nel : 3 V t dt 5 lim s , 0 sS0 s # ( s 1 3l 1 m ) 3l 1 m 1 ) on obtient plus rapi­­de­­ment : MTFF 5 lim s # 2 5 2 sSo s 1 s ( 3l 1 m ) 1 2l 2l 2 `

•  Mais le cal­­cul direct du MTFF est pos­­sible sans avoir à éva­­luer la fiabilité V(t) (ni même la trans­­for­­mée de Carson-­­­Laplace , V ( s )) , si on uti­­lise l’absorp­­tion dans les pro­­ces­­sus de Markov. Consi­­dé­­rons les états tran­­si­­toires Ε0, Ε1, c, Ek21 (les autres états étant absor­­bants) ; notons tj le temps moyen passé dans l’état tran­­si­­ toire Ej, avant absorp­­tion ; extrayons du géné­­ra­­teur infi­­ni­­té­­si­­mal A la sous-­­­matrice car­­rée Atr de dimension k 3 k rela­­tive aux états tran­­si­­toires. Enfin, notons Ttr le vecteur-­­­ligne : 3 t0, t1, c, tk 2 1 4 et Ptr ( 0 ) 5 3 p 0 ( 0 ) , p 1 ( 0 ) , c, p k 2 1 ( 0 ) 4 . On montre que l’on a la rela­­tion : Ttr 5 Ptr ( 0 ) # 3 Atr 4 21. En pra­­tique, on résout le sys­­tème linéaire de k équa­­tions à k inconnues : Ttr # Atr 5 2Ptr ( 0 ) .

On cal­­cule alors : MTFF 5 a ti k21

k50

Ainsi pour l’exemple : P ( 0 ) 5 3 1, 0 4 , Atr 5 c

22l

2l

m

2(l 1 m )

d , Ttr 5 3 t0, t1 4 .

D’où le sys­­tème : 22 l # t0 1 m # t1 5 21 et 2 l # t0 2 ( l 1 m ) # t1 5 0, qui a pour solu­­tion : 1  et  t1 5 . l 2l Fina­­le­­ment on retrouve le résul­­tat obtenu plus haut : t0 5

l1m 2

© Dunod – Toute reproduction non autorisée est un délit.

MTFF 5 t0 1 t1 5

6.8 Stra­­té­­gie

3l 1m 2l 2

.

de rem­­pla­­ce­­ment

Il est conseillé de relire d’abord le sous-­­­chapitre 5.10. Consi­­dé­­rons un équi­­pe­­ment qui peut se trou­­ver dans quatre états. S’il devient défaillant au cours d’une période, il est rem­­placé en fin de période. S’il se trouve, en début de période, dans l’état 0, il a “deux chances sur dix” d’être défaillant en cours de période et, par dif­­fé­­rence, “huit chances sur dix” de sur­­vivre. Dans l’état 1, en début de période, la pro­­ba­­bi­­lité pour qu’il soit défaillant au cours de la période est 0,5 ; la pro­­ba­­bi­­lité de sur­­vie, 0,5. Dans l’état 2, en début de période, les pro­­ba­­bi­­li­­ tés res­­pec­­tives de défaillance et de sur­­vie sont 0,7 et 0,3. Enfin, si l’équi­­pe­­ment se trouve dans l’état 3 en début de période, il sera sûre­­ment défaillant avant la fin de la période et sera rem­­placé en fin de période. 259

Chapitre 6 • Fiabilité des composants, sûreté. . .

Étu­­dions la stra­­té­­gie de rem­­pla­­ce­­ment des équi­­pe­­ments de ce type, sachant que le prix de l’équi­­pe­­ment est de 175 uni­­tés moné­­taires, le coût de la panne est 300 u.m., les coûts de l’entre­­tien 40, 60, 100 et 160 u.m., res­­pec­­ti­­ve­­ment durant les pre­­ mière, deuxième, troi­­sième et der­­nière périodes de vie. Ces coûts sont dus en début de période. La figure 6.28 va nous ser­­vir pour trai­­ter ce pro­­blème en uti­­li­­sant la pro­­gram­­ma­­ tion dyna­­mique, car il s’agit évi­­dem­­ment d’un pro­­ces­­sus DH : Décision-­­­Hasard Envi­­sa­­geons d’abord la phase N. Si l’équi­­pe­­ment se trouve ini­­tia­­le­­ment dans l’état E0N 2 1, le ges­­tion­­naire n’a pas de véri­­table déci­­sion à prendre, il se retrouve en DN0 , où l’espé­­rance mathéma­­tique des coûts n’est autre que : d’ou : z*N 0 5 135.

0, 2 3 5151 1 0, 8 3 40 5 135

Figure 6.28 Pour ne pas sur­­char­­ger, les pro­­ba­­bi­­li­­tés de tran­­si­­tion ont été indi­­quées à la phase N 2 1, les coûts à la phase N.

Si l’équi­­pe­­ment se trouve en E1N 2 1, le décideur a le choix entre DN0 et DN1  : soit rem­­ pla­­cer l’équi­­pe­­ment par un neuf ( DN0 ) , soit de le conser­­ver pour la phase Ν ( DN1 ) . Dans le pre­­mier cas, cela coûte, en moyenne : 175 1 ( 0, 2 3 515 ) 1 ( 0, 8 3 40 ) 5 310, puisque DN0 entraîne le chan­­ge­­ment de maté­­riel au coût de 175 ; dans le second cas : 0 1 ( 0, 5 3 535 ) 1 ( 0, 5 3 60 ) 5 297, 5.

1. Le coût 515 est la somme du prix de l’équi­­pe­­ment (175), du coût de la panne (300) et du coût de l’entre­­tien en pre­­mière période (40). 260

6.8  Stra­­té­­gie de rem­­pla­­ce­­ment

On voit que cette deuxième solu­­tion est pré­­fé­­rable, d’où : z*N 1 5 297, 5. Cela signi­­ fie que pour la phase Ν il ne faut pas chan­­ger le maté­­riel s’il trouve dans l’état 1. *N On cal­­cule de même z*N 2 5 z3 5 310, ce qui signi­­fie qu’à la phase N, il faut rem­­ pla­­cer le maté­­riel s’il a déjà atteint l’âge 2 ou l’âge 3. Pas­­sons main­­te­­nant à la phase N 2 1. En modi­­fiant légè­­re­­ment la for­­mule de récur­­rence (du § 2, ch. 5, puisqu’il n’y a ici que des coûts), on obtient : 21 z*N 5 min b cij 1 a pjk ag jk 1 z*N i k br DN 1 j

2

k

où  : cij 5 175 si j 2 i et 5 0 si i 5 j ; g jk 5 515,  535, 575 et 635, si j 5 0, 1, 2, 3 et si k 5 0 ; g jk 5 40, 60, 100, 160, si k 5 j 1 1, j , 3 ; les pjk sont les pro­­ba­­bi­­li­­tés de tran­­si­­tion. On a : 21 *N # 1) z*N 5 c00 1 p00 # ( g 00 1 z*N 0 0 ) 1 p01 ( g 01 1 z1 ) 5 0 1 0, 2 3 ( 515 1 135 ) 1 0, 8 3 ( 40 1 297, 50 ) 5 400 ; 21 5 2) z*N 1



*N # min e cc10 1 p00 # ag 00 1 z*N 0 b 1 p01 ag 01 1 z1 b d ;

D0N 2 1 # D1N 2 1

*N # cc11 1 p10 # a g 10 1 z*N 0 b 1 p12 a g 12 1 z2 b d f

5 min 5 3 175 1 0, 2 3 ( 515 1 135 ) 1 0, 8 3 ( 40 1 297, 5 ) 4 ; 3 0 1 0, 5 3 ( 535 1 135 ) 1 0, 5 3 ( 60 1 310 ) 46 5 min ( 575 ; 520 ) 5 520 ;

ce résul­­tat signi­­fie qu’à la phase N 2 1, il ne faut pas rem­­pla­­cer un maté­­riel qui est dans l’état 1 ;

© Dunod – Toute reproduction non autorisée est un délit.

21 3) z*N 5 min 5 3 575 4 ; 3 0 1 0, 7 ( 575 1 135 ) 1 0, 3 ( 100 1 310 ) 46 2 5 min ( 575, 620 ) 5 575 ;

cela indique que tout maté­­riel dans l’état 2, au début de la phase N 2 1, doit être rem­­placé ; 21 4) z*N 5 min ( 575, 770 ) 5 575 ; 3 d’où l’on conclut qu’il faut aussi rem­­pla­­cer, au début de la phase N 2 1, tout maté­­riel dans l’état 3. En remon­­tant dans le temps, on peut essayer de contrô­­ler si la stra­­té­­gie ainsi défi­­nie est « per­­ma­­nente » (valable pour toutes les périodes) ou seule­­ment adap­­tée à cer­­taines périodes (début, fin), etc. Comme on l’a dit plus haut, la méthode de Howard per­­met de cal­­cu­­ler la stra­­té­­gie opti­­male sans cal­­cul inutile, mais elle sort du cadre de cet ouvrage. 261

Chapitre 6 • Fiabilité des composants, sûreté. . .

Exer­­cices

*6.1 Fia­­bi­­lité et rem­­pla­­ce­­ment Soit un maté­­riel de fia­­bi­­lité v ( t ) 5 P 3 T . t 4 , où v ( t ) 5 ( 1 1 at ) e2at. 1.  Cal­­cu­­ler la den­­sité de pro­­ba­­bi­­lité asso­­ciée à l’ins­­tant de la panne, soit i(t), puis le MTTF t de ce maté­­riel. Éva­­luer le taux d’ava­­rie l(t). 2.  Dès que ce maté­­riel tombe en panne, on le rem­­place sans délai par un maté­­riel neuf iden­­tique ; déter­­mi­­ner la pro­­ba­­bi­­lité pm(t) de consom­­mer m maté­­riels entre 0 et t. Jus­­ti­­fier l’expres­­sion obte­­nue pour pm(t), en se fon­­ dant sur un pro­­ces­­sus de Pois­­son de taux a.

**6.2 Fia­­bi­­lité d’un mon­­tage en pont double



Cal­­cu­­ler la fia­­bi­­lité V(t) de ce pont double connais­­sant les fia­­bi­­li­­tés des com­­po­­sants : vA(t), vB(t), c, vH(t). Indi­­ca­­tion : on aura inté­­rêt à appli­­quer la for­­mule des pro­­ba­­bi­­li­­tés totales : V ( t ) 5 P 3 T . t 4 5 P 3 T . T k TA . t 4 ? P 3 TA . T 4 1 P 3 T . t k T A < t 4 ? P 3 TA < t 4 où TA (resp. T ) est la variable aléa­­toire « durée de vie » du com­­po­­sant A (resp. « durée de vie » du mon­­tage en pont double). Pour éva­­luer le pre­­mier terme de cette somme, on pourra rem­­pla­­cer A par un court-­­­circuit ; pour le second, on pourra sup­­pri­­mer A. NB. Pour­­suivre le cal­­cul seule­­ment dans le cas où vA(t) 5 vB(t) 5 c 5 vH(t) 5 v(t).

**6.3 Durée de vie rési­­duelle d’un maté­­riel Soit un maté­­riel de fia­­bi­­lité v ( t ) 5 P 3 X . t 4 où X désigne la variable aléa­­toire « durée de vie du maté­­riel ». On note r la durée de vie rési­­duelle moyenne, sachant que ce maté­­riel a déjà atteint l’âge θ : r 5 E 3 X 2  k X .  4 . 262

Exercices

1.  Mon­­trer i ( t ) # dt 5 P 3 t , X < t 1 dt k X .  4 est égal à :

2vr ( t ) # dt / v (  ) , puis que : r 5 3 t # i ( t ) # dt 2  5 3 v ( t ) # dt / v (  ) . `

`





2.  Dans le cas d’une fia­­bi­­lité expo­­nen­­tielle v(t) 5 e2lt, éva­­luer r et com­­ men­­ter le résul­­tat obtenu.

*6.4 Cal­­cul de ré­­­appro­­vi­­sion­­ne­­ment et chaîne de Markov Une société de location de voi­­tures, comp­­tant 200 véhi­­cules, tous de même modèle, dotés cha­­cun de cinq pneus, entre­­prend d’étu­­dier la sur­­vie de ces der­­niers. D’après le fichier de l’ate­­lier de maintenance, sur un échan­­tillon ini­­tial de 1 000 pneus, on a pu éta­­blir les fré­­quences indi­­quées par le tableau ci-­­­après. 1.  Dres­­ser la courbe de sur­­vie des pneu­­ma­­tiques. Cal­­cu­­ler la vie moyenne et l’écart-type de l’âge du remplacement des pneus. Com­­plé­­ter le tableau par l’indi­­ca­­tion des mor­­ta­­li­­tés rela­­tives et des pro­­ba­­bi­­li­­tés d’ava­­rie. Nombre de pneus ayant duré

Nombre de pneus ayant duré

moins d'un mois

5

de 7 à 8 mois

120

de 1 à 2 mois

10

de 8 à 9 mois

70

de 2 à 3 mois

40

de 9 à 10 mois

50

de 3 à 4 mois

80

de 10 à 11 mois

25

de 4 à 5 mois

130

de 11 à 12 mois

15

de 5 à 6 mois

250

de 12 à 13 mois

3

de 6 à 7 mois

200

de 13 à 14 mois

2

© Dunod – Toute reproduction non autorisée est un délit.

2.  À sup­­po­­ser que les 1 000 pneus soient renou­­ve­­lés ensemble à une date t 5 0, étu­­dier les condi­­tions du ré­­­appro­­vi­­sion­­ne­­ment à ins­­ti­­tuer pour main­­ te­­nir ensuite le nombre de pneus en ser­­vice à cette valeur.

*6.5 Per­­ti­­nence éco­­no­­mique de l’entre­­tien pré­­ven­­tif Une pièce, appar­­te­­nant à un maté­­riel, est carac­­té­­ri­­sée par la fonc­­tion de sur­­vie (fiabilité) sui­­vante : t

1

2

3

4

5

6

7

0, 95

0, 85

0, 70

0, 50

0, 30

0, 15

0, 10

8

9

0, 05 0, 025

10 0

263

Chapitre 6 • Fiabilité des composants, sûreté. . .

Lorsque cette pièce est défaillante, elle met en panne le maté­­riel sur lequel elle est mon­­tée. On exa­­mi­­nera s’il y a inté­­rêt à pra­­ti­­quer l’entre­­tien pré­­ven­­tif dans les deux cas sui­­vants : 1.  le prix p de la pièce est cinq fois infé­­rieur au coût P de la panne ; 2.  le prix de la pièce est la moi­­tié du coût de la panne.

**6.6 Com­­pa­­rai­­son éco­­no­­mique de deux maté­­riels concur­­rents Un maté­­riel est payé 25 000  € à l’achat et, durant ses trois pre­­mières années de fonctionnement, néces­­site des frais annuels de 3 000 € pour l’entre­­tien. Ensuite, le coût de l’entre­­tien s’accroît de 1 000 € chaque année. Un maté­­riel concur­­rent serait payé 17 000 € à l’achat, mais son entre­­tien revien­­ drait à 5 000 € par an durant les quatre pre­­mières années et, ensuite, à 6 000 € pour la cin­­quième année, 7 000 € pour la sixième, 8 000 € pour la sep­­tième, etc. L’un et l’autre sont pré­­vus pour durer 15 ans et sont sup­­po­­sés sans valeur rési­­ duelle appré­­ciable au bout de quelques années. Quel est le maté­­riel le plus avan­­ta­­geux ? Au bout de com­­bien d’années devient-­­­il plus avan­­ta­­geux que le concur­­rent ? Le taux d’actua­­li­­sa­­tion sera pris (pour faci­­li­­ter les cal­­culs) égal à 10 %. Les frais d’entre­­tien sont sup­­po­­sés payés à la fin de chaque année.

*6.7 Priorité de répa­­ra­­tion entre deux sys­­tèmes et chaîne de Markov Dans une entre­­prise, on a des sys­­tèmes de type S1 et des sys­­tèmes de type S2, qui tombent en panne avec une pro­­ba­­bi­­lité de 1/2 par jour­­née pour le pre­­mier sys­­tème et une pro­­ba­­bi­­lité de 1/3 par jour­­née pour le sys­­tème S2 (valeurs peu réa­­listes, mais faci­­li­­tant les c­ al­­culs !). La répa­­ra­­tion d’un sys­­tème du type S1 demande une jour­­née, celle d’un sys­­tème S2 trois jour­­nées. On notera R 2(1), R 2(2), R 2(3) un système S2 en 1re, 2e, 3e semaine de réparation. L’ate­­lier de l’entre­­prise se charge de la répa­­ra­­tion dans les condi­­tions sui­­vantes : si, tel jour, une seule tâche se pré­­sente, on l’entre­­prend sans ter­­gi­­ver­­ser, mais si deux tâches de type dif­­fé­­rent sont pro­­po­­sées, on hésite à entre­­prendre l’une par priorité sur l’autre… On a pour critère de minimiser l’inactivité de l’atelier de réparation. Sachant que les tra­­vaux non entre­­pris par l’ate­­lier local sont immé­­dia­­te­­ment confiés à l’exté­­rieur, déter­­mi­­ner la poli­­tique la meilleure.

264

Exercices

6.8 Dis­­po­­ni­­bi­­lité asymp­­to­­tique d’un appa­­reil de fonc­­tion­­ne­­ment inter­­mit­­tent Soit un appa­­reil fonc­­tion­­nant de façon inter­­mittente (par exemple, un appa­­reil de signa­­li­­sa­­tion). Il peut être en état de fonc­­tion­­ne­­ment (état EF), inac­­tif (état EI), en attente de répa­­ra­­tion (état EA) ou, enfin, en répa­­ra­­tion (état ER). On appelle : a # Dt, la pro­­ba­­bi­­lité pour que l’appa­­reil fonc­­tion­­nant à t, tombe en panne entre t et t 1 Dt. b # Dt, la pro­­ba­­bi­­lité pour que l’appa­­reil en fonc­­tion­­ne­­ment à t, devienne inac­­tif entre t et t 1 Dt. m # Dt, la pro­­ba­­bi­­lité pour que l’appa­­reil en répa­­ra­­tion à t, soit fini d’étre répa­­ré entre t et t 1 Dt (il sera alors rendu à l’état inac­­tif). # l Dt, la pro­­ba­­bi­­lité pour que l’appa­­reil inac­­tif à t, soit mis en fonc­­tion­­ne­­ment entre t et t 1 Dt. v # Dt, la pro­­ba­­bi­­lité pour que l’appa­­reil en attente de répar­­tition t, com­­mence à être réparé entre t et t 1 Dt. Jus­­ti­­fier que le pro­­ces­­sus de Markov asso­­cié admet un régime per­­manent pour les pro­­ba­­bi­­li­­tés de ces états, indé­­pen­­dant des condi­­tions ini­­tiales (d’ailleurs non spé­­ci­­ fiées dans cet énoncé !). Éva­­luer alors la pro­­ba­­bi­­lité de l’état EF, qui est l’utilisation asymp­­to­­tique de l’appa­­reil, notée U*.

6.9 Para­­mètres de la sûreté de fonc­­tion­­ne­­ment d’un ate­­lier.

© Dunod – Toute reproduction non autorisée est un délit.

On consi­­dère un ate­­lier de fabri­­ca­­tion com­­por­­tant Ν machines iden­­tiques, d’uti­­li­­ sation constante (quand elles ne sont pas en panne). Chaque machine a la même fia­­bi­­lité v(t) 5 e2lt. Dès qu’une machine tombe en panne, un tech­­ni­­cien vient la répa­­rer ; on peut faire appel à autant de tech­­ni­­ciens qu’il est néces­­saire. La pro­­ba­­bi­­lité pour qu’une répa­­ra­­ tion dure plus que le laps de temps t est : e2mt. 1.  Modé­­li­­ser le fonc­­tion­­ne­­ment de l’ate­­lier par un pro­­ces­­sus de Markov. Quels sont les N 1 1 états de ce pro­­ces­­sus ? Tra­­cer le graphe des tran­­si­­tions entre t et t 1 dt et valuer chaque arc par la pro­­ba­­bi­­lité de tran­­si­­tion asso­­ciée. 2.  Jus­­ti­­fier le fait que ce pro­­ces­­sus est for­­te­­ment ergodique. Éva­­luer alors la pro­­ba­­bi­­lité de chaque état en régime per­­manent, puis le nombre moyen n de machines en marche. Quelle est la dis­­po­­ni­­bi­­lité D* de cet ate­­lier (au moins une machine en marche) ?

265

Chapitre 6 • Fiabilité des composants, sûreté. . .

3.  Pouvez-­­­vous expli­­ci­­ter la sim­­pli­­cité des expres­­sions obte­­nues à l’aide de la loi binomiale ? (Indi­­ca­­tion : consi­­dé­­rer d’abord le cas d’un ate­­lier avec une seule machine et un seul répa­­ra­­teur, puis consi­­dé­­rer le pro­­blème comme Ν fois la répé­­tition de ce cas élé­­men­­taire.) 4.  Sur un inter­­valle de temps t , quelle est la durée moyenne de para­­ly­­sie (indis­­po­­ni­­bi­­lité) de l’ate­­lier ?

6.10 Étude d’un sys­­tème com­­posé de modems, d’un ordi­­na­­teur et d’un auto­­mate câblé Le sys­­tème que nous décri­­vons a été pro­­posé pour équi­­per cha­­cun des postes asser­­vis (PA) d’une com­­pa­­gnie pro­­dui­­sant de l’élec­­tri­­cité. Ce sys­­tème reçoit des com­­mandes en pro­­ve­­nance de l’ordi­­na­­teur du poste cen­­tra­­lisé (PC), les traite, puis les retrans­­ met à un auto­­mate câblé (ΕAR) qui gère les lignes à haute ten­­sion et les ouvrages hydrau­­liques. Le sys­­tème émet vers le poste cen­­tra­­lisé des acquit­­te­­ments pour les com­­mandes reçues ainsi que diverses mesures. La qua­­lité essen­­tielle exi­­gée d’un tel sys­­tème est la sécu­­rité, et, dans ce but, une étude qua­­li­­ta­­tive a été réa­­li­­sée. Tou­­te­­fois, de façon à assu­­rer une bonne dis­­po­­ni­­bi­­lité, cer­­tains élé­­ments ont été dou­­blés et des marches en fonc­­tion­­ne­­ment dégradé sont pos­­sibles : – les infor­­ma­­tions échan­­gées avec le poste cen­­tra­­lisé sont trans­­mises simul­­ta­­né­­ment sur deux voies ; les élé­­ments assu­­rant ces trans­­ferts sont donc dou­­blés (lignes, modems et cartes de couplage-­­­modem) ; – les cartes d’entrée-­­­sortie, des­­ti­­nées aux échanges avec l’auto­­mate câblé, sont répar­­ties sur deux bacs. En cas de défaillance d’un bac, le sys­­tème réa­­lise par­­tiel­­ le­­ment sa tâche avec l’autre bac. Ci-­­­dessous, on désigne par « bac E/S » cha­­cun de ces bacs ; – lorsque les deux voies de com­­mu­­ni­­ca­­tion avec le poste cen­­tra­­lisé sont ­défaillantes un fonc­­tion­­ne­­ment en mode local est pos­­sible. Le sys­­tème peut être sché­­ma­­ti­­que­­ment repré­­senté par la figure sui­­vante :

Nous ferons, pour le cal­­cul de la dis­­po­­ni­­bi­­lité de ce sys­­tème, les hypo­­thèses sim­­ pli­­fi­­ca­­trices sui­­vantes : 266

Exercices

– toute panne de l’unité cen­­trale (U.C.) est fatale, – une panne de péri­­phériques locaux ne per­­turbe pas la marche du sys­­tème (on n’en tien­­dra donc pas compte dans le cal­­cul), – on ne dis­­tingue pas les pannes de cou­­pleurs ne per­­tur­­bant pas le bus E/S, toute panne d’un cou­­pleur avec l’EAP pro­­voque la cou­­pure de l’ali­­men­­ta­­tion ­cor­­res­­pon­­dant, – on ne consi­­dère pas les pannes tran­­si­­toires et les pannes dues au logiciel. On note A, B, C les évé­­ne­­ments sui­­vants : A : panne d’un bac cou­­pleur avec l’auto­­mate (ΕAP) B : panne d’un modem ou d’un cou­­pleur modem

© Dunod – Toute reproduction non autorisée est un délit.

C : panne fatale pour le sys­­tème. On fera l’hypo­­thèse que l’occur­­rence de ces évé­­ne­­ments est régie par des lois expo­­nen­­tielles de taux res­­pec­­tifs l1, l2, l3 , (l3 est en fait, ici, la somme des taux de panne des élé­­ments dont la défaillance entraîne une panne fatale). On sup­­po­­sera de plus que, de tout état cor­­res­­pon­­dant à fonc­­tion­­ne­­ment dégradé ou à une panne fatale, on retourne – après répa­­ra­­tion – à un état de fonc­­tion­­ne­­ment nor­­mal : ceci se tra­­duira, sur le graphe sim­­pli­­fié du pro­­ces­­sus de Markov asso­­cié, par un arc joi­­gnant cha­­cun de ces états à l’état de fonc­­tion­­ne­­ment nor­­mal (qu’on notera « État 1 »), valué par un arc de taux m ; on a en effet sup­­posé que toutes les répa­­ra­­ tions quelle que soit leur impor­­tance, ont des durées aléa­­toires régies par une même loi expo­­nen­­tielle de taux m. 1.  Déter­­mi­­ner les 7 états du pro­­ces­­sus de Markov asso­­cié ; on notera : E1 : l’état de fonc­­tion­­ne­­ment nor­­mal ; E5 : l’état de fonc­­tion­­ne­­ment en local (mais avec les deux bacs d’Ε/S en état de marche) ; E7 : l’état pour lequel le sys­­tème est en panne (fatale ou les deux bacs E/S en panne). 2.  Faire la liste des évé­­ne­­ments qui causent des chan­­ge­­ments d’états (on pourra noter D une fin de répa­­ra­­tion), pour cha­­cun des états. Tra­­cer alors le graphe sim­­pli­­fié (c’est-­­­à-dire sans boucles et avec les arcs valués par des taux), en dis­­po­­sant comme suit les som­­mets :

267

Chapitre 6 • Fiabilité des composants, sûreté. . .

Le pro­­ces­­sus de Markov obtenu est-­­­il for­­te­­ment ergodique ? 3.  Soit A l’ensemble des 3 états que l’on peut quit­­ter par des arcs de taux 2l1 et aussi de taux l3. Déter­­mi­­ner ces 3 états. Soit B l’ensemble des 3 états, que l’on peut quit­­ter par des arcs de taux l 3 1 l 1 et aussi m. Déter­­mi­­ner ces 3 états (en remar­­quant que B d A est vide). 4.  On estime que le sys­­tème rem­­plit sa fonc­­tion s’il se trouve dans l’un des états E1, E2, c, Ε6. Autre­­ment dit, sa « dis­­po­­ni­­bi­­lité asymp­­to­­tique » est  : D* 5 p *1 1 p *2 1 c1 p *6 où p *i est la pro­­ba­­bi­­lité de l’état Ei en régime per­­manent. On note p *A 5 a p *i et p *B 5 a p *i . Mon­­trer que : D* 5 p *A 1 p *B. EiPA

EiPB

En appli­­quant le théo­­rème des coupes à A, mon­­trer que : p *A 5

m  ; puis avec B, que : ( m 1 l 1 1 l 3 ) p *B 5 2 l 1p *A. m 1 2 l1 1 l3

En déduire D*. Véri­­fier que lim D* 5 1 : expli­­quer pour­­quoi. mS ` Véri­­fier que : D* 5 0 si m 5 0 : expli­­quer pour­­quoi. Pouvez-­­­vous expli­­quer pour­­quoi D* ne dépend pas de l2 ? Peut-­­­on alors envi­­sa­­ger une modé­­li­­sa­­tion plus simple (3 états) ? 5.  À l’aide de cette modé­­li­­sa­­tion sim­­pli­­fiée, éva­­luer le MTTF et le MUT. Com­­men­­ter.

6.11 Dis­­po­­ni­­bi­­lité et fia­­bi­­lité d’un sys­­tème infor­­ma­­tique Un sys­­tème infor­­ma­­tique com­­prend un pre­­mier ordi­­na­­teur A suivi de deux pro­­ces­­ seurs iden­­tiques B1 et B2 :

Ce sys­­tème peut donc assu­­rer sa mis­­sion si A fonc­­tionne et si B1 ou B2 (ou les deux) fonc­­tionnent. B1 et B2 sont en redon­­dance sélec­­tive active : ils fonc­­tionnent en paral­­lèle en per­­ma­­nence ; si B1 tombe en panne, il est immé­­dia­­te­­ment relayé par B2 (si B2 n’est pas déjà en panne).

268

Exercices

1.  a) On sup­­pose connues les fia­­bi­­li­­tés RA(t) et RB(t), res­­pec­­ti­­ve­­ment de l’ordi­­na­­teur A et d’un pro­­ces­­seur. (B1 et B2 ont la même fia­­bi­­lité.) Cal­­cu­­ler la fia­­bi­­lité R(t) du sys­­tème et son MTTF (durée de vie moyenne), en l’absence de toute répa­­ra­­tion, en fonc­­tion de RA(t) et RB(t). b) Appli­­ca­­tion : RA(t) 5 e2at ; RB(t) 5 e2bt : expli­­ci­­ter R(t) et le MTTF. 2.  On désire modé­­li­­ser le fonc­­tion­­ne­­ment de ce sys­­tème par un pro­­ces­­sus de Markov à trois états (sachant que des répa­­ra­­tions sont pos­­sibles, cf. cidessous) : E0, E1 et E2, où E2 est une panne para­­ly­­sante (A en panne, ou bien B1 et B2 sont en panne). Pré­­ci­­ser les états E0 et E1. Dès qu’une panne para­­ly­­sante est inter­­ve­­nue, une répa­­ra­­tion du (ou des élé­­ments) en panne démarre  : la pro­­ba­­bi­­lité pour que la durée aléa­­toire d’une répa­­ra­­tion dépasse t est e2mt (ceci, quel que soit le nombre d’élé­­ ments à répa­­rer). À par­­tir de l’état E1, on n’entre­­prend pas de répa­­ra­­tion. a) Tra­­cer le graphe sim­­pli­­fié du pro­­ces­­sus de Markov asso­­cié. Valuer cha­­ cun de ses quatre arcs par le taux conve­­nable  : vous com­­men­­ce­­rez par recen­­ser, pour chaque état, quels sont les élé­­ments qui fonc­­tionnent et donc sont sus­­cep­­tibles de tom­­ber en panne. Mon­­trer, en par­­ti­­cu­­lier, que le taux l12 , qui value l’arc (E1, E2) égale a 1 b. b) Ce pro­­ces­­sus est-­­­il ergodique ? Jus­­ti­­fier votre réponse. Si oui, appli­­quer le théo­­rème des coupes à E0 puis à E1 et en déduire les pro­­ba­­bi­­li­­tés, en régime per­­manent, sachant que a 5 b et m 5 10a. 3.  On consi­­dère le même sys­­tème, mais en l’absence de répa­­ra­­tions. a) Tra­­cer et valuer le graphe (non sim­­pli­­fié) des tran­­si­­tions entre t et t 1 dt. b) Mon­­trer que les pro­­ba­­bi­­li­­tés des états à l’ins­­tant t satis­­font aux équa­­tions dif­­fé­­ren­­tielles ci-­­­dessous, (uti­­li­­ser la matrice du géné­­ra­­teur du pro­­ces­­sus de Markov) : p 0r ( t ) 5 2 ( a 1 2b ) p 0 ( t ) • p 1 ( t ) 5 2bp 0 ( t ) 2 ( a 1 b ) p 1 ( t ) p 2r ( t ) 5 ap 0 ( t ) 1 ( a 1 b ) p 1 ( t ) . Sachant qu’à t 5 0, le sys­­tème est dans l’état E0, c’est-­­­à-dire que p0(0) 5 1, cal­­cu­­ler p0(t) et p1(t). c) Jus­­ti­­fier pour­­quoi on a l’éga­­lité R ( t ) 5 p 0 ( t ) 1 p 1 ( t ) . Rem­­pla­­cer p 0 ( t ) 1 p 1 ( t ) par leur expres­­sion trou­­vée au 3)b) et véri­­fier qu’on retrouve le résul­­tat du l)b). d) Facul­­ta­­tif : asso­­cier un réseau de Petri, dont le graphe des mar­­quages acces­­sibles (“GMA”) coïn­­cide avec le graphe sim­­pli­­fié, déduit du 3)a). Don­­ner le mar­­quage ini­­tial (pos­­sible avec 4 places et 3 tran­­si­­tions).

269

7

Les phé­­no­­mènes d’attente

7.1  Géné­­ra­­li­­tés

sur les phé­­no­­mènes d’attente

Les phé­­no­­mènes d’attente sont, hélas, d’obser­­va­­tion cou­­rante dans la vie quo­­ti­­ dienne. Quand nous nous ren­­dons à la poste, à la gare, à la banque, bien sou­­vent nous devons « faire la queue » pour obte­­nir des timbres, un billet, de l’argent. On a l’habi­­tude d’appe­­ler clients les indi­­vi­­dus qui consti­­tuent la file d’attente et sta­­tion le lieu (par ex. gui­­chet) où un ser­­veur leur pro­­cure un ser­­vice déter­­miné. La file d’attente ne se mani­­feste pas tou­­jours d’une manière phy­­sique : par exemple si, dans un ate­­lier, des machines tom­­bées en panne « attendent » la visite et les soins du mécanicien-­­­réparateur, elles ne se consti­­tuent pas en file. De même, les patients qui sol­­li­­citent une consultation chez un spécialiste, ou des pro­­ces­­sus à trai­­ter dans un sys­­tème infor­­ma­­tique. Il est néan­­moins facile, à chaque fois, de déter­­mi­­ner quels sont les « clients », la ou les « sta­­tion(s) », le ou les « ser­­veur(s) ». Remar­­quons qu’il s’agit de phé­­no­­mènes sto­­chas­­tiques. En effet, les clients arrivent en géné­­ral au hasard ; par ailleurs la durée d’occu­­pa­­tion de la sta­­tion par chaque client n’est en géné­­ral pas constante. Il suf­­fit en effet que l’une de ces deux carac­­té­­ris­­tiques se pré­­sente comme un phé­­no­­mène aléa­­toire pour qu’il s’agisse déjà d’un pro­­blème sto­­chas­­tique. Consi­­dé­­rons le cas très simple (figure 7.1) où il n’existe qu’une sta­­tion, donc qu’une seule file d’attente (en l’absence de priori­­tés). Chaque client pénètre dans l’enceinte où fonc­­tionne la sta­­tion (en pas­­sant par un tam­­bour) : il se dirige aus­­si­­tôt (c’est-­­­à-dire en temps négli­­geable) vers la file d’attente et y prend la der­­nière place (ou passe immé­­dia­­te­­ment à la sta­­tion, si elle est libre) ; dès qu’un client a reçu le ser­­vice qu’il atten­­dait de la sta­­tion, il s’en va aus­­si­­tôt ; le pre­­mier de ceux qui atten­­ daient dans la file entre dans la sta­­tion (si la file est vide, la sta­­tion reste inoc­­cu­­pée jus­­qu’à l’arri­­vée du pro­­chain client).

7.2  Loi des arri­­vées. Loi des ser­­vices

Cette maté­­ria­­li­­sa­­tion du pas­­sage des clients d’un File d’attente état dans un autre est Sortie Entrée sim­­ple­­ment utile pour (queue) pré­­ci­­ser le voca­­bu­­laire Station employé dans la théo­­ rie des phé­­no­­mènes Figure 7.1 d’attente. On a, en effet, cou­­tume d’appe­­ler file d’attente l’ensemble des clients qui attendent d’être ser­­vis, à l’exclu­­sion de celui ou ceux en train de se faire ser­­vir.

© Dunod – Toute reproduction non autorisée est un délit.

On nomme sys­­tème avec attente l’ensemble des clients qui font la queue, y com­­ pris celui ou ceux au ser­­vice. Le phé­­no­­mène d’attente s’étend à tous les clients pos­­sibles (dans le cas de sys­­tèmes bou­­clés, nom­­més réseaux de files d’attente, les mêmes clients reviennent plus tard à l’entrée – par exemple des machines qui tombent en panne dans un ate­­lier –, le nombre des clients est alors, en géné­­ral, fini). Ces appel­­la­­tions se géné­­ra­­lisent et prennent sur­­tout leur inté­­rêt dans les situa­­tions où coexistent plu­­sieurs sta­­tions et plu­­sieurs files d’attente. Atten­­tion : en amé­­ri­­cain “queue” désigne tout le sys­­tème d’attente. Nous dis­­tin­­gue­­rons donc deux types prin­­ci­­paux de sys­­tèmes avec attente : le sys­­ tème ouvert, dans lequel le nombre de clients poten­­tiels est très élevé (cas des gui­­ chets publics, des grands maga­­sins, etc.), au point qu’on peut consi­­dé­­rer qu’il est illi­­mité ; le sys­­tème avec attente fermé, dans lequel le nombre de client est limité (cas d’un ate­­lier dans lequel existe un ser­­vice de répa­­ra­­tion de machines) ; dans les deux cas il peut y avoir une ou plu­­sieurs files d’attente. La théo­­rie des files d’attente remonte aux pre­­miers tra­­vaux du Danois K. Erlang, en 1917, sur le cal­­cul du nombre d’organes de chaque type à ins­­tal­­ler dans un cen­­tral télé­­phonique auto­­ma­­tique. Déve­­lop­­pé aussi par Engset (1918), cette théo­­rie s’est ampli­­ fiée sous l’impul­­sion de nom­­breux chercheurs, parmi les­­quels il faut citer E. Borel, D. Kendall, A. Kolmogorov, Khintchine, LC. Palm, F. Pollaczek, L. Feller, etc. Les infor­­ma­­ti­­ciens l’uti­­lisent, notam­­ment pour l’éva­­lua­­tion de per­­for­­mances – à titre pré­­vi­­sion­­nel – des sys­­tèmes ou des réseaux infor­­ma­­tiques depuis les années 1970.

7.2  Loi

des arri­­vées.

Loi

des ser­­vices

Reve­­nons au phé­­no­­mène d’attente le plus simple où il n’existe qu’une queue et qu’une sta­­tion. Le cas inté­­res­­sant est celui où deux phé­­no­­mènes aléa­­toires sont conju­­gués : les clients arrivent au hasard et le temps passé à la sta­­tion par chaque client est aléa­­toire. Par exemple, les auto­­mo­­bi­­listes arrivent au hasard à un parc de sta­­tion­­ne­­ment (cela veut dire : l’heure d’arri­­vée de cha­­cun est aléa­­toire) ; ils y sta­­tionnent un temps variable qui ne peut être prévu pour cha­­cun d’eux (c’est encore une variable aléa­­toire). Peut-­­­on carac­­té­­ri­­ser sta­­tisti­­que­­ment la manière dont les clients arrivent au parc et la durée de leur sta­­tion­­ne­­ment ? L’occupation des places de ce parking ? 271

Chapitre 7 • Les phé­­no­­mènes d’attente

L’expé­­rience montre que, dans beau­­coup de phé­­no­­mènes d’attente, les lois des arri­­vées et des ser­­vices sont, res­­pec­­ti­­ve­­ment, poissonniennes et expo­­nen­­tielles. Ce ne sont évi­­dem­­ment pas les seules formes que peuvent affec­­ter ces lois, mais ce sont les plus fré­­quentes et aussi les plus simples à employer pour obte­­nir un exposé facile des prin­­cipes et de la théo­­rie des phé­­no­­mènes d’attente. La nota­­tion de Kendall a pour but de décrire, de manière com­­pacte, les carac­­té­­ris­­tiques d’un sys­­tème avec attente, en lui asso­­ciant une chaîne de carac­­tères comme ci-­­­dessous : A/B/S/N/ dis­­ci­­pline •  A est le code de la loi des arri­­vées ; pour la loi de Pois­­son on a A 5 M (M, en fait ici, pour Markov) ; pour des arri­­vées déter­­mi­­nistes, c’est-­­­à-dire à inter­­valles constants, on a A 5 D ; pour une loi quel­­conque, géné­­rale, on aurait A 5 G, etc. •  B est le code de la loi des ser­­vices ; pour la loi expo­­nen­­tielle on a B 5 M ; on aurait B 5 D pour des ser­­vices de durée constante, B 5 G pour une loi géné­­rale. On peut ren­­contrer d’autres codes, le cas Markovien étant le plus fré­­quent. Ainsi Ek désigne une loi d’Erlang-­­­k (moins dis­­per­­sée que la loi de Pois­­son), Hr désigne une loi Hyper-­­­expotentielle d’ordre r (davan­­tage dis­­per­­sée que la loi de Pois­­son), Cn une loi de Cox d’ordre n. L’exposé de ces lois sort du cadre de cet ouvrage ; contentons­­­nous de signa­­ler que des ser­­vices régis par ces trois lois peuvent être simu­­lés par un réseau de k (resp. r, n) gui­­chets fic­­tifs déli­­vrant cha­­cun un ser­­vice régi par une loi ex­­­ponen­­tielle. Cela per­­met de modé­­li­­ser des fils d’attente où inter­­viennent de telles lois, à l’aide d’un pro­­ces­­sus de Markov mais moyen­­nant une démul­­ti­­pli­­cation des états. •  S est le nombre de sta­­tions fonc­­tion­­nant en paral­­lèle ; en l’absence de pré­­ci­­sion, toutes ces sta­­tions sont répu­­tées équi­­va­­lentes : elles ont le même taux moyen de ser­­vice. •  N est la « capa­­cité », c’est-­­­à-dire le nombre maximal de clients admis­­sibles dans le sys­­tème (file et sta­­tion(s)). Si cette indi­­ca­­tion est omise, c’est que N 5 ` : le sys­­tème a une capa­­cité illi­­mi­­tée (ou assez grande pour que tout se passe comme si N 5 `). •  La dis­­ci­­pline n’est spé­­ci­­fiée que dans la règle n’est pas « pre­­mier arrivé, pre­­mier à être servi » (PAPS ; en anglais : FIFO). D’autres dis­­ci­­plines existent, notam­­ment « pro­­ces­­seur par­­tagé » (« round robin ») ou DAPS (en anglais LIFO) : « der­­nier arrivé, pre­­mier au ser­­vice », qui se ren­­contrent en infor­­ma­­tique.

7.3  File

à une sta­­tion.

Sys­­tème

ouvert : file

M/M/1

Consi­­dé­­rons le cas où il existe une seule sta­­tion, les arri­­vées des clients for­­mant un pro­­ces­­sus de Pois­­son de taux l et le temps de ser­­vice sui­­vant une loi expo­­nen­­tielle de taux m. On obser­­vera que l est le nombre moyen d’arri­­vées par unité de temps, m, le 1 nombre moyen de clients pou­­vant être ser­­vis par unité de temps ; ainsi m est la durée moyenne d’un ser­­vice. Nous avons étu­­dié en détail le pro­­ces­­sus de Pois­­son et la loi expo­­nen­­tielle au cha­­pitre 5 auquel le lec­­teur pourra se repor­­ter (de 5.2.1 à 5.2.3). Nous pour­­rions nous contenter, pour ce qui est de la modé­­li­­sa­­tion de cette file, de ren­­voyer le lec­­teur aux pro­­ces­­sus de nais­­sance et de mort que nous avons envi­­sa­­gés 272

7.3  File à une sta­­tion. Sys­­tème ouvert : file M/M/1

éga­­le­­ment au cha­­pitre 5. Nous repren­­drons cepen­­dant ici, à titre d’exer­­cice, le rai­­ son­­ne­­ment élé­­men­­taire de la méthode dif­­fé­­ren­­tielle. Si n per­­sonnes ( n > 1 ) sont dans le sys­­tème d’attente à t 1 Dt, cela ne peut pro­­ve­­ nir1 que des trois situa­­tions à l’instant t ci-­­­après : Tableau 7.1

Nombre de personnes présentes à t n1 n n1

Entrées

Sorties

Nombre de personnes présentes à t  t

pendant t 1

0

n

0 0

0

n

1

n

Les pro­­ba­­bi­­li­­tés d’entrée et de sor­­tie pen­­dant Dt étant, res­­pec­­ti­­ve­­ment, l  D t et m  D t et les pro­­ba­­bi­­li­­tés com­­plé­­men­­taires (1 2 m  D t) et (1 2 l  D t), on a : pn ( t 1 Dt ) 5 pn 2 1 ( t ) 3 l # D t ( 1 2 m # D t ) 4 1 pn ( t ) 3 ( 1 2 l # D t )( 1 2 m # D t ) 4 1 pn 1 1 ( t ) 3 ( 1 2 l # D t ) # m # D t 4 , où l’on a noté pn(t) la pro­­ba­­bi­­lité de la situa­­tion (ou état) : n per­­sonnes sont dans le sys­­ tème à t ; on a ici noté pn(t) – au lieu de pn(t) comme au cha­­pitre 5 car il n’y a pas de risque de confu­­sion, ici, entre les pro­­ba­­bi­­li­­tés des états et celles des tran­­si­­tions – la pro­­ba­­bi­­lité pour que n per­­sonnes soient pré­­sentes dans le sys­­tème à la date t. En négli­­geant les pro­­duits en Dt2 (c’est-­­­à-dire en o(Dt)), on obtient : pn ( t 1 Dt ) 5 pn 2 1 ( t ) l # D t 1 pn ( t ) 3 1 2 ( l 1 m ) # D t 4 1 pn 1 1 ( t ) m # D t, d’où :

pn ( t 1 Dt ) 2 pn ( t )

5 l # pn 2 1 ( t ) 2 ( l 1 m ) # pn ( t ) 1 m # pn 1 1 ( t ) , Dt sauf pour n 5 0, auquel cas on a seule­­ment les situa­­tions du tableau ci-­­­dessous : Tableau 7.2

© Dunod – Toute reproduction non autorisée est un délit.

Nombre de personnes

Entrées

Sorties

à t  t

àt

d’où :

0

0

0

1

0

1

p0 ( t 1 Dt ) 2 p0 ( t ) Dt

Nombre de personnes 0 0

5 2l p0 ( t ) 1 mp1 ( t ) ,

1. Ainsi que nous l’avons remar­­qué au cha­­pitre 5 dans un pro­­ces­­sus de nais­­sance et de mort, on n’a pas à envi­­sa­­ger une entrée et une sor­­tie pen­­dant le temps Dt, la pro­­ba­­bi­­lité de cet évé­­ne­­ment  étant négli­­geable : en Dt2, donc o(Dt). Le lec­­teur qui com­­met­­trait cette erreur par inad­­ver­­tance ver­­ rait d’ailleurs le terme cor­­res­­pon­­dant dis­­pa­­raître ensuite de l’équa­­tion don­­nant pn(t 1 Dt). 273

Chapitre 7 • Les phé­­no­­mènes d’attente

(on obser­­vera que, si aucun client n’est présent à t, la pro­­ba­­bi­­lité pour qu’il n’en sorte pas du sys­­tème pen­­dant le Dt sui­­vant est 1, et non 1 2 m D t). Reve­­nons au cas n > 1. On a donc, en fai­­sant tendre Dt vers 0 : (7.1) prn ( t ) 5 lpn 2 1 ( t ) 2 ( l 1 m ) pn ( t ) 1 mpn 1 1 ( t ) et (7.2) pr0 ( t ) 5 2l p0 ( t ) 1 mp1 ( t ) Sup­­po­­sons le phé­­no­­mène sta­­tion­­naire : les pro­­ba­­bi­­li­­tés des états ont alors atteint une limite. On a donc : pn ( t ) 5 p*n 5 constante ; d’où : pr0 ( t ) 5 pr1 ( t ) 5 c5 prn ( t ) 5 c5 0.

Les équa­­tions dif­­fé­­ren­­tielles (7.1) et (7.2) se trans­­forment alors en équa­­tions linéaires algé­­briques : 2lp*0 1 m p*1 5 0 et, pour n > 1 : 0 5 lp*n 2 1 2 ( l 1 m ) p*n 1 m p*n 1 1 On obtient faci­­le­­ment, de  2l p*0 1 mp*1 5 01 : l p*1 5 m p*0

En por­­tant dans : lp*0 1 ( l 1 m ) p*1 1 mp*2 5 0, on obtient : p*2 et, ainsi de suite, d’où : p*n

Or,

2

l 5 a m b p*0 n

l 5 a m b p*0

(7.3)

p*0 1 p*1 1 c1 p*n 1 c5 1, d’où, d’après la for­­mule (7.3) :

p*0

1

p*1

2

(7.4) n

l l l 1 c1 p*n 1 c5 p*0 1 m p*0 1 a m b p*0 1 c1 a m b p*0 1 c 5

p*0 C1

2

n

l l l 1 m 1 a m b 1 c1 a m b 1 cS.

1. On remar­­quera que la quan­­tité de 2l pn 2 1 1 mpn est un « inva­­riant » car elle ne dépend pas de n ; de plus, cette quan­­tité est nulle, ce qui sim­­pli­­fie la réso­­lu­­tion de la récur­­rence. Cet inva­­riant découle de la conser­­va­­tion des fré­­quences de tran­­si­­tion expri­­mée par le théo­­rème des coupes (cf. cha­­pitre 5) 274

7.3  File à une sta­­tion. Sys­­tème ouvert : file M/M/1



Rap­­pe­­lons que la somme des termes d’une pro­­gres­­sion géo­­mé­­trique illi­­mi­­tée : 1 1 q 1 q2 1 c1 qm 1 c vaut :  1/(1 2 q)  si q , 1. l Or m , 1, comme nous le justifions au paragraphe suivant ; d’où: 1 , 1 5 p*0 # (7.5) l 12 m en fai­­sant la somme de la pro­­gres­­sion géo­­mé­­trique illi­­mi­­tée (« série géo­­mé­­trique »). On l obser­­vera que cette série est conver­­gente, car il est phy­­si­­que­­ment néces­­saire que m , 1, autre­­ment dit que le taux d’arri­­vées des clients soit infé­­rieur au taux de ser­­vice, pour qu’il n’y ait pas engor­­ge­­ment. Il vient alors : l p*0 5 1 2 m . La sim­­pli­­cité de cette for­­mule s’explique par la notion de conser­­va­­tion des clients : en régime per­­manent le taux des entrées dans le sys­­tème M/M/1 est égal à l ; celui des sor­­ties serait égal à m si la sta­­tion était occu­­pée en per­­ma­­nence, mais celle-­­­ci n’est occu­­ pée qu’avec la pro­­ba­­bi­­lité 1 2 p*0. Le taux des sor­­ties valant alors m # ( 1 2 p*0 ) est égal, en régime per­­manent, au taux des entrées, soit l, d’où : l 5 m ( 1 2 p*0 ) . Puis on obtient : p*n

n

l l 5 a m b # a1 2 m b .

© Dunod – Toute reproduction non autorisée est un délit.

Comme nous l’avons dit plus haut, on peut aussi trai­­ter cette file d’attente comme un pro­­ces­­sus de nais­­sance et de mort. L’état n (ou En) désigne la situa­­tion où n clients sont pré­­sents. Les arri­­vées des clients, de loi poissonienne, consti­­tuent (nous l’avons vu au cha­­pitre 5) un pro­­ces­­sus de nais­­sance ; de plus le taux de nais­­sance à par­­tir de l’état n vaut ici : l n 5 l ( n 5 0,1, 2, c) . Les départs de clients, dus aux fins de ser­­ vices, consti­­tuent un pro­­ces­­sus de mort pour lequel m n 5 m ( n 5 1, 2, 3, c) . Voici alors le graphe des tran­­si­­tions entre états, entre t et t 1 Dt :

Figure 7.2

Le graphe « sim­­pli­­fié » est le sui­­vant :

Figure 7.3

275

Chapitre 7 • Les phé­­no­­mènes d’attente

En appli­­quant le théo­­rème des coupes à B0 5 5 E0 6 , puis B1 5 B0 c 5 E1 6 , puis c, puis Bn 2 1 5 Bn 2 2 c 5 En 2 1 6 5 5 E0, E1, c, En 2 1 6 , il vient: l # p*0 5 m # p*1 ; l # p*1 5 m # p*2 ; c ; l # p*n 2 1 5 m # p*n.

On retrouve ainsi direc­­te­­ment :

p*n

n

l 5 a m b # p*0.

Obser­­vons que le théo­­rème des coupes nous a fourni direc­­te­­ment l’inva­­riant : lp*n 2 1 2 mp*n 5 0, qui avait faci­­lité la réso­­lu­­tion de la récur­­rence (por­­tant initialement sur trois termes consé­­cu­­tifs : pn 2 1, pn et pn 1 1, au lieu de deux ici : pn 2 1 et pn). On aurait pu aller encore plus vite, en appli­­quant la rela­­tion valable pour les pro­­ ces­­sus de nais­­sance et de mort for­­te­­ment ergodiques (c’est le cas ici si l/m , 1 ) : n l n 2 1 ? l n 2 2 ? c? l 0 l * * * pn 5 m ? m ? c? m ? p0    soit ici : pn 5 a m b . n

n21

1

Cal­­cu­­lons la “moyenne” de cette dis­­tri­­bu­­tion (en fait l’espé­­rance du nombre de clients pré­­sents) : n 5 a n # p*n 5 0 # p*0 1 1 # p*1 1 2 # p*2 1 c1 n # p*n 1 c `

0

2

3

n

l l l l 5 C a m b 1 2a m b 1 3a m b 1 c1 na m b 1 cS

Or : 2

2

n

n21

l l c1 na l b 1 c5 l C1 1 2 l 1 3a l b 1 c1 na l b m 1 2am b 1 m m m m m

1 cS

l et l’on reconnaît, dans le cro­­chet, la déri­­vée, par rap­­port à q 5 m de la pro­­gres­­sion : q . q 1 q2 1 q3 1 c1 qn 1 c 5 q ( 1 1 q 1 q2 1 c) 5 12q En déri­­vant cette der­­nière expres­­sion par rap­­port à q, on obtient

le crochet vaut

1

; d’où : n 5 a n # 2

l a1 2 mb

p*n

l 5m#

1

2

l a1 2 mb

l a1 2 mb 5

1

(1 2 q )2

et ainsi

l m

l . 5 l m2l 12 m

On observera que si lS μ– ; le dénominateur tend vers 0+ et n S ` : on voit se profiler la saturation ! 276

7.3  File à une sta­­tion. Sys­­tème ouvert : file M/M/1

Il est facile de cal­­cu­­ler le temps moyen qu’attend un client dans la file ; lors de son arri­­vée il trouve en moyenne une file de n clients qui s’écou­­lera en un temps 1 1 moyen n 3 m , m étant le temps moyen passé par chaque client à la sta­­tion (y com­­ pris pour celui au ser­­vice, car la loi expo­­nen­­tielle est « sans mémoire » : pour un ser­­ vice de loi expo­­nen­­tielle, tout se passe, à chaque ins­­tant, comme si ce ser­­vice venait de com­­men­­cer). On a donc : l . tf 5 n / m 5 m (m 2 l ) De même si lS μ–, alors tf S ` ; c’est l’engorgement. Remarque.  On obser­­ve qu’on a : n 5 l# t, t étant le temps de séjour dans le sys­­tème (et non dans la file). On a aussi : v 5 l# tf, v étant le nombre moyen de clients dans la file, à l’excep­­tion de celui qui se fait ser­­vir, quand le ser­­vice est occupé. Ces deux rela­­tions sont les for­­ mules de Little. Les méthodes dites de conser­­va­­tion (ou encore d’inva­­riants) per­­­mettent d’expli­­quer, notam­­ment, les for­­mules de Little : n 5 l # t et v 5 l # t f . La dif­­fé­­rence entre t et tf est évi­­dem­­ment égale à la moyenne du temps de ser­­vice : moyenne du temps d’attente dans le sys­­tème – moyenne du temps d’attente dans la file 5 moyenne du temps de ser­­vice. 1 l l Ainsi : t 2 tf 5 m , d’où n 2 v 5 l ( t 2 tf ) 5 m et v 5 n 2 m . Dans notre cas M/M/1 où l ne dépend pas de n, on retrouve bien tf 5 v / l 5 n / m. Lorsque l dépend de n, on défi­­nit un taux d’arri­­vée moyen l *eq tel que :

n 5 l *eq ? t  et  v 5 l *eq ? tf .

Ainsi, si la file est limi­­tée à N per­­sonnes et com­­porte une sta­­tion (file M/M/1/N) : l *eq 5 a l ? p*n 5 l ? ( 1 2 p*N )  ;

© Dunod – Toute reproduction non autorisée est un délit.

N21

n50

si un ate­­lier com­­porte N machines, chacune de taux de panne l, et un seul répa­­ ra­­teur de taux m : l *eq

5 a ( N 2 n ) ? l ? p*n 5 m ? ( 1 2 p*0 ) . N21

n50

Appli­­ca­­tion.  Dès à présent, le lec­­teur peut se rendre compte des rai­­sons pour les­­quelles on attend si long­­temps chez le méde­­cin… Par exemple, si la durée d’une consul­­ta­­tion est, en moyenne, de 15 min, le méde­­cin convoque ses patients toutes les 20 min, mais, dans notre société où l’inexac­­ti­­tude est deve­­nue la règle, ceux-­­­ci arrivent fina­­le­­ment au hasard... On a : l = 3, μ = 4 (par heure). Il est alors facile de cal­­cu­­ler : 277

Chapitre 7 • Les phé­­no­­mènes d’attente

n5

l m2l

5

3

n 3 5 3  et tf 5 m 5 , 4 423

ce qui veut dire que le nombre moyen de patients (!) pré­­sents est 3 et que leur attente moyenne est de 3/4 d’heure !

7.4  File

à

S

sta­­tions, sys­­tème ouvert : file

M/M/S

Lorsque S sta­­tions sont dis­­po­­nibles, le phé­­no­­mène n’est guère plus com­­pli­­qué à décrire ; tant que les sta­­tions ne sont pas toutes occu­­pées, il n’y a pas de file d’attente: autre­­ment dit, les taux de trai­­te­­ment du sys­­tème d’attente sont : m lors­­qu’une station est occupée, 2m lorsque deux stations sont occu­­pées, etc., jus­­qu’à Sm. Repre­­nons le modèle d’un pro­­ces­­sus de nais­­sance et de mort (cha­­pitre 5). On a, bien sûr li 5 l, pour tout i, car le nombre d’arri­­vées ne dépend pas du nombre de clients pré­­sents dans le sys­­tème. En revanche, on a : mn 5 nm, pour 1 < n , S, et mn 5 Sm, pour n > S. Ainsi l’on peut tra­­cer le graphe sim­­pli­­fié de ce pro­­ces­­sus de Markov par­­ti­­cu­­lier :

Figure 7.4

Bien entendu, la condi­­tion pour que le sys­­tème ne s’engorge pas est ici : Appli­­quons le théo­­rème des coupes à B0 , puis à B1 , etc. Il vient: l # p*0 5 m # p*1 , l # p*1 5 2 m # p*2 , l # p*2 5 3 m # p*3 , c , l # p*S 2 1 5 S m # p*S. 2

3

l 1 l 1 l D’où : p*1 5 m p*0 ; p*2 5 a m b p*0 ; p*3 5 a m b p*0 , c 2 6

et, plus géné­­ra­­le­­ment, pour n < S : p*n Ainsi, pour n 5 S : p*s

n

1 l * 5 a b p0. n! m S

1 l * 5 a b p0. S! m

Au-­­­delà de S clients pré­­sents, on obtient : l # p*S 1 k 5 S m # p*S 1 k 1 1. 278

l , 1. mS

7.4  File à S sta­­tions, sys­­tème ouvert : file M/M/S

On obtient l’expres­­sion de p*S 1 1 (en fai­­sant k 5 0) aisé­­ment par: p*S 1 1 5 S11

l * pS  : Sm

l 1 ? a m b ? p*0. 5 S # S! puis, de proche en proche, pour n > S : n l 1 * ? a m b ? p*0. pn 5 n 2 S S S! En fait, ces expres­­sions peuvent s’obte­­nir plus rapi­­de­­ment en appli­­quant la rela­­tion éta­­blie pour les pro­­ces­­sus de nais­­sance et de mort1. Comme la somme illi­­mi­­tée des p*n vaut 1 : p*S 1 1

15

p*0

2

n

l 1 l 1 l C 1 a b 1 c1 a b 1 cS m m 2! n! m

('''')''''* n,S

1

s

1 l 1 l C a b 1 a b S! m SS! m

p*0

S11

1 c1 n

1 Sn 2 S S!

n

l a m b 1 cS

Ss  l  Dans le second crochet, le terme général égale    : on reconnaît une S !  Sm  S

Ss  l  l et de premier terme   . D’où : série géométrique de raison S !  Sº  Sm

Le nombre moyen de clients dans la file d’attente est: v 5 a k # p*S 1 k. En effet la file n’existe que si au moins (S + 1) clients sont pré­­sents. k51 © Dunod – Toute reproduction non autorisée est un délit.

`

Or 

p*S 1 k

5

p*S

# a l b . Ainsi  v 5 p*S # a ka l b 5 p*S # l a k # a l b Sm Sm Sm Sm k

`

k51

k

`

k21

.

k51

l 0 # l 1 # c# l n 2 1 l ? l ? c? l * p0, soit : p* ; pour n < S il vient : p*n 5 m 1 # m 2 # c# m n 0 1m # 2 m # c# nm c c ln * # p . Pour n > S : p*n 5 l ? l ? ? l ? l ? l ? ? l p*n 5 p* n 0 c c? Sm 0 n!m 1m ? 2m ? ? ( S 2 1 ) m ? Sm ? Sm ? ('')''* n2S fois n2S n s s l lS l 1 l l * * * s ? p 5 ? ? p 5 ? p , b a a b c’est-­­­à-dire : n b 5a b. 0 0 car : S a m Sm S!m S Sm S n 2 S S! m 1. En effet : p*n 5

279

Chapitre 7 • Les phé­­no­­mènes d’attente

D’où : v 5 p*S #

l # Sm

1 a1 2

l b Sm

2

l amb

5

S11

S # S! # a1 2

l b Sm

2

# p*0.

On obtient le temps moyen d’attente tf par la rela­­tion de Little : v 5 l# tf , d’où : tf 5

( l/m ) S S m # S! # a1 2

l b Sm

2

# p*0.

Le nombre moyen de clients pré­­sents dans le sys­­tème est n ; en notant g le nombre moyen de sta­­tions (gui­­chets) occu­­pées, on a : n 5 v 1 g. S21

Certes l’on pour­­rait cal­­cu­­ler g par : g 5 a k # k51

1 a S # p*k , (en effet si le nombre `

p*k

k5S

de clients pré­­sents est infé­­rieur à S, le nombre de gui­­chets occu­­pés est égal à k : tout client est à un gui­­chet ; sinon, tous les S gui­­chets sont occu­­pés, pour tout k > S). Mais ce cal­­cul est lourd ; il est plus élé­­gant d’appli­­quer la prop­­riété de conser­­va­­tion des clients : en régime sta­­tion­­naire (per­­manent) le taux des entrées dans le sys­­tème, soit l, est égal au taux des sor­­ties du sys­­tème ; celui-­­­ci serait Sm si les S gui­­chets étaient tous occu­­pés en per­­ma­­nence, ce qui est faux lorsque le nombre de clients pré­­ sents est infé­­rieur au nombre de gui­­chets. En fait, le taux des sor­­ties est le pro­­duit du taux de ser­­vice d’un gui­­chet, soit m, par le nombre moyen de gui­­chets occu­­pés, soit g. D’où l 5 mg et la valeur (très simple !) g 5 l/m. Ce que l’on peut véri­­fier à l’aide des rela­­tions de Little : on a g 5 n 2 v ; or n 5 l # t 1 l 1 et v 5 l # tf d’où g 5 l ( t 2 tf ) . Mais : t 5 tf 1 m . Fina­­le­­ment : g 5 l # a m b 5 m .

7.5 Appli­­ca­­tion

numé­­rique

Dans une entreprise existe un bureau spécialisé, auquel le personnel a accès pen­­dant les heures de tra­­vail. Le chef du per­­son­­nel (D.R.H.), qui a remar­­qué l’affluence des inté­­res­­sés à ce bureau, demande qu’une étude rela­­tive au fonc­­tion­­ne­­ment de ce ser­­vice lui soit pré­­sen­­tée. Ce contexte est certes arti­­fi­­ciel, mais per­­met de fixer les idées. Un ana­­lyste est dési­­gné pour déter­­mi­­ner le temps moyen d’attente des employés dans la file et la durée moyenne de l’entre­­tien que cha­­cun a avec le responsable de ce bureau. 280

7.5  Appli­­ca­­tion numé­­rique

Il s’agit bien d’un pro­­blème d’attente à une sta­­tion. Le pre­­mier tra­­vail de l’ana­­lyste sera de défi­­nir les périodes pen­­dant les­­quelles le phé­­no­­mène peut être consi­­déré comme sta­­tion­­naire : durant la pre­­mière demi-­­­heure et la der­­nière de la jour­­née, ainsi que l’heure du repas, l’affluence au bureau est très fluc­­tuante et faible ; au contraire, durant les autres périodes de la jour­­née, le phé­­no­­ mène sta­­tion­­naire est éta­­bli et l’on peut exa­­mi­­ner les entrées et ser­­vices du point de vue sta­­tistique.

7.5.1 Études des arri­­vées Pen­­dant cent inter­­valles de cinq minutes, suc­­ces­­sifs ou non, mais tous situés dans la période de stationnarité, le nombre de « clients » arri­­vant durant chaque inter­­valle de cinq minutes a été compté. Sup­­po­­sons que les résul­­tats soient ceux du tableau ci-­­­dessous : La moyenne de cette loi de dis­­tri­­bu­­tion Tableau 7.3 est facile à cal­­cu­­ler : 6

Nombre d'ouvriers arrivant pendant une période de 5 min

Féquences observées fn

0

29

1 2

34 24

3 4

9

5 6

1

3 0

© Dunod – Toute reproduction non autorisée est un délit.

100

# an 0

fn

100

5

1 ( 0 3 29 1 1 3 34 1 100

2 3 24 1 3 3 9 1 4 3 3 1 5 3 1 ) 5 1,26. L’emploi d’un test sta­­tistique va per­­ mettre de véri­­fier si la loi obser­­vée se rap­­proche d’une loi théo­­rique clas­­sique, en l’espèce celle de Pois­­son. ( lt ) n

e2lt, avec n! lt 5 1,26 et e21,26 5 0,2837 per­­met de cal­­cu­­ler les fré­­quences théo­­riques d’une loi de Pois­­son de moyenne 1,26 arrivées/ 5 min ; ce sont cent fois les valeurs : La for­­mule : qn ( t ) 5

q0 5 0,28 ; q1 5 0,36 ; q2 5 0,23 ; q3 5 0,09 ; q4 5 0,03 ; q5 5 0,01 (q5, en réalité, a été prise égale à la dif­­fé­­rence entre 1 et la somme des autres qn jus­­qu’à q4). Employons, par exemple, le test du x2 de Pearson, qui s’applique à des classes dans les­­quelles, le nombre d’évé­­ne­­ments atten­­dus est ou moins de l’ordre de 5 (il suf­­fira de regrou­­per les deux der­­nières classes pour satis­­faire gros­­siè­­re­­ment à cette exi­­gence). Ce test consiste à cal­­cu­­ler les car­­rés des dif­­fé­­rences entre les fré­­quences théo­­riques de la loi à véri­­fier et les fré­­quences obser­­vées, puis à divi­­ser cha­­cun de ces car­­rés par la fré­­quence théo­­rique de la classe à laquelle les fré­­quences sont rela­­tives. 281

Chapitre 7 • Les phé­­no­­mènes d’attente

Tableau 7.4



2

2/fth

observées (fn)

Fréquences théoriques (fth )

0

29

28

1

1

0, 0357

1

36

2

4

0, 1111

2

34 24

23

1

0, 0435

3

9

9

1 0

0

0

4

4

4

0

0

n

Fréquences

0   0, 1903  2 calculé

Le nombre de degrés de liberté du sys­­tème est d 5 c 2 1 2 p, c étant le nombre de classes (ici 5) et p le nombre de para­­mètres de la loi théo­­rique tirés de l’obser­­va­­ tion (ici un seul : la moyenne lt) ; on a donc : d 5 5 2 1 2 1 = 3. Or, en se repor­­tant à une table des x2, on trouve, pour 3 degrés de liberté :

x 20, 95 5 0, 352. Comme le x2 cal­­culé (0,19) est infé­­rieur à cette valeur, l’ana­­lyste décide d’admettre que le phé­­no­­mène observé suit une loi de Pois­­son. (avec un seuil de confiance de 95 %). La conclu­­sion à tirer de l’étude des arri­­vées est qu’elles se font « à la Pois­­son », 1, 26 avec un taux de < 0,25 arri­­vée par minute. 5 Remarque.  Lorsque, pour le même nombre de degrés de liberté, le x2 cal­­culé avec les don­­nées de l’expé­­rience, moyen­­nant l’hypo­­thèse que celles-­­­ci suivent telle ou telle loi théo­­rique, est com­­paré aux valeurs ins­­crites sur la même ligne de la table, la valeur cal­­cu­­lée se situe entre deux valeurs du tableau, lues dans des colonnes adja­­centes, p1 et p2 ( p1 . p2 ) , cela veut dire que, si la variable sui­­vait la loi théo­­rique envi­­sa­­gée, la pro­­ba­­bi­­lité d’obte­­nir un écart dû au hasard supé­­rieur au x2 cal­­culé serait supé­­rieure à p2. Si la valeur p2 est très petite (disons, infé­­rieure à 0,05), l’hypo­­thèse est très peu vrai­­sem­­blable ; si, au contraire, elle est très grande (disons, par exemple, supé­­rieure à 0,50), l’hypo­­thèse est vrai­­sem­­blable. Entre ces deux valeurs, y a-­­­t-il place pour une hypo­­thèse « assez vrai­­sem­­blable » ou, du moins, « n’intro­­dui­­sant pas de contra­­dic­­tion dan­­ge­­reuse » ? Selon les rai­­sons que l’on a d’être exi­­geant, on fixe quelque­­fois le seuil de rejet à 0,10, voire 0,20 ; en recherche opé­­ra­­tion­­nelle, il n’est pas rare que l’on soit beau­­coup plus exi­­geant que cela. À l’inverse, cer­­tains se méfient des x2 cal­­cu­­lés infé­­rieurs à x 20, 98 ou, a for­­tiori, x 20, 99 et rejettent l’hypo­­thèse, car les résul­­tats sont jugés « trop bons pour être hon­­nêtes », les écarts dus au hasard devant, la plu­­part du temps, être plus impor­­tants. Nous nous gar­­de­­rons d’adop­­ter sys­­té­­ma­­ti­­que­­ 282

7.5  Appli­­ca­­tion numé­­rique

ment ce point de vue. À moins d’avoir de sérieuses rai­­sons de dou­­ter des don­­ nées col­­lec­­tées, il est rare que l’on repousse, en recherche opé­­ra­­tion­­nelle, une hypo­­thèse don­­nant un excellent x2, le cas est d’ailleurs assez rare ! Les seuils indi­­qués plus haut sont arbi­­traires. Mais, en tout cas, avant chaque test, il convient de se don­­ner a priori le seuil d’accep­­ta­­tion (le plus sou­­vent : 0,95).

7.5.2 Études des ser­­vices À cent reprises, consé­­cu­­tives ou non, mais prises dans la période sta­­tion­­naire, on relève la durée du ser­­vice, c’est-­­­à-dire le temps passé par un client au “service”. Sup­­po­­sons que les résul­­tats obte­­nus soient les sui­­vants : Tableau 7.5

Durée des services

Nombre

Nombre

de services observés

Durée des services

de services observés

 1 min

23

de 7 à 8 min

5

de 1 à 2 min

20

de 8 à 9 min

de 2 à 3 min

de 9 à 10 min

de 3 à 4 min

14 12

3 2

de 10 à 11 min

2

de 4 à 5 min

9

de 11 à 12 min

1

de 5 à 6 min

5

12 min

0

de 6 à 7 min

4

La moyenne est ici : 1 ( 0, 5 3 23 1 1, 5 3 20 1 2, 5 3 14 1 3, 5 3 12 1 4, 5 3 9 1 5, 5 3 5 1 6, 5 3 4 100

© Dunod – Toute reproduction non autorisée est un délit.

1 7, 5 3 5 1 8, 5 3 3 1 9, 5 3 2 1 10, 5 3 2 1 11, 5 3 1 ) 5 3, 27 min.

Le nombre de clients ser­­vis par minute est donc : 1 < 0, 30. 3, 27

On fait alors l’hypo­­thèse que la loi des ser­­vices est une loi expo­­nen­­tielle, de den­­sité : 0,30 e20,30t, et de taux : m 5 0,30. Se rame­­nant au centre des classes : 0,5 ; 1,5 ; 2,5 etc., et rédui­­sant à huit classes (6 degrés de liberté), on a x 2calculé 5 0, 906 ; le x20,95, lu dans la table, s’élève à 1,635 et l’ana­­lyste décide d’admettre qu’il a bien une loi expo­­nen­­tielle de taux : m 5 0,30. 283

Chapitre 7 • Les phé­­no­­mènes d’attente

7.5.3 Pre­­miers cal­­culs Les for­­mules don­­nées pré­­cé­­dem­­ment pour une sta­­tion unique (file M/M/1) per­­mettent de cal­­cu­­ler : – le nombre moyen de “clients” dans le sys­­tème : n5

l m2l

5

0, 25

0, 30 2 0, 25

5 5 ;

– le temps moyen d’attente dans la file pour chaque client : n 5 2 5 16 min . tf 5 m 5 0, 30 3 On se rend compte que le temps perdu par les « clients » (les employés de l’entre­­ prise qui, pen­­dant ce temps, n’exécutent pas leur tâche habituelle) est consi­­dé­­rable ; pour une journée de travail de 8 h et 0,25 client par minute, atten­­dant cha­­cun en 2 moyenne 16 min, cela fait au total : 3 8 3 60 3 0,25 3 16

2 1 min 5 33 h . 3 3

Pour­­tant, le responsable du bureau n’est occupé en moyenne que : 1 8 3 60 3 0, 25 3 3,27 min < 6 h , par pour. 2

7.5.4 Opti­­mi­­sation du nombre de gui­­che­­tiers La « solu­­tion par les moyennes » consis­­te­­rait pra­­ti­­que­­ment à adop­­ter un nombre de « pré­­po­­sés » per­­met­­tant d’assu­­rer le ser­­vice et l’on trou­­ve­­rait ainsi que l’unique pré­­ posé, c-à-d le responsable du bureau, suf­­fit à sa tâche. La solu­­tion éco­­no­­mique, fon­­dée sur la recherche opé­­ra­­tion­­nelle, a pour but d’éta­­ blir un bilan total de l’opé­­ra­­tion qui consis­­te­­rait à embau­­cher 1, 2, … autres pré­­po­­sés (cette déci­­sion accrois­­sant le coût de fonc­­tion­­ne­­ment du ser­­vice), en vue de dimi­­nuer le temps perdu par les employés (ce résul­­tat fai­­sant réa­­li­­ser un gain sur le temps total de tra­­vail). Défi­­nir le nombre de pré­­po­­sés cor­­res­­pon­­dant au bilan opti­­mal est jus­­te­­ ment l’objet du pro­­blème. Il ne fau­­drait sur­­tout pas ima­­gi­­ner que si, par exemple, on double le nombre de préposés, le nombre moyen d’employés dans la file dimi­­nuera de moi­­tié et qu’en consé­­quence le temps d’attente sera éga­­le­­ment dimi­­nué de moi­­tié...

284

7.5  Appli­­ca­­tion numé­­rique

Du reste, appe­­lant S le nombre de “sta­­tions” (ici : le nombre de préposés), et le l rap­­port C 5 m , on a, d’après les résul­­tats du para­­graphe 7.4 : – pro­­ba­­bi­­lité d’une attente nulle (pro­­ba­­bi­­lité de l’absence de tout client dans le sys­­tème) : 1

p*0 5

CS S!a1 2

– attente moyenne dans la file :

C b S

S21

Cn 1 a n! n50

CS

tf 5

m # S # S!a1 2

2

C b S

 ;

? p*0  ;

– nombre moyen de clients dans le sys­­tème :

n 5 C # 3 mtf 1 1 4 .

On désigne, de plus, par r le taux moyen d’inac­­ti­­vité des “sta­­tions”. Dans le cas qui nous occupe, on cal­­cule faci­­le­­ment : – pour S 5 1, – pour S 5 2,

p*0 5 1 2 C 5 1 2 0, 833 5 0,167 ;

p*0 5

( 0, 833 )

© Dunod – Toute reproduction non autorisée est un délit.

2!a1 2

0, 833 2

– pour S 5 3, p*0 5

3!a1 2

3

On peut alors cal­­cu­­ler aussi :

1 111

b 1

( 0, 833 ) 3

0, 833

2

111

b

0, 833 1!

0, 833

5 0, 411 ;

1!

1

( 0, 833 ) 2

5 0, 432.

2!

2 – pour S 5 1, tf 5 16 min , r 5 0,167 ; 3 285

Chapitre 7 • Les phé­­no­­mènes d’attente

– pour S 5 2, tf 5 0,70 min, r 5 1,167  ;

– pour S 5 3, tf 5 0,09 min, r 5 2,167. Sup­­po­­sant alors que le coût de l’inac­­ti­­vité des préposés de ce bureau repré­­sente le salaire (et les charges) cor­­res­­pon­­dant à la durée de cette inac­­ti­­vité, soit, par exemple, 12 euros de l’heure et que le temps perdu en attente par les employés peut être éva­­lué à 50 euros de l’heure, on obtient les coûts totaux sui­­vants : 2 50 12 – pour S 5 1, G ( 1 ) 5 120 3 16 3 1 480 3 0,167 3 5 1 682,70 euros ; 3 60 60 – pour S 5 2, G ( 2 ) 5 120 3 0, 70 3

50 12 1 480 3 1,167 3 5 182,03 euros ; 60 60

50 12 1 480 3 2,167 3 5 217, 03 euros. 60 60 On constate qu’il suf­­fit d’avoir deux préposés pour atteindre le coût mini­­mal (il fau­­drait connaître le taux d’absen­­téisme des pré­­po­­sés pour être à même d’exa­­mi­­ner s’il ne serait pas plus ration­­nel, fina­­le­­ment, d’en pré­­voir trois). – pour S 5 3, G ( 3 ) 5 120 3 0,09 3

7.6  File file

S sta­­tions, M/M/S/N à

cas du sys­­tème fermé :

Repre­­nons le sys­­tème pré­­cé­­dent mais impo­­sons main­­te­­nant au nombre d’uni­­tés (clients) pré­­sentes dans le sys­­tème d’être limité, par exemple par le nombre N qui appa­­raît alors comme la capa­­cité du sys­­tème. Nous sup­­po­­sons que le nombre de sta­­tions S est infé­­rieur à ce nombre N : sinon il n’y aurait jamais d’attente. Nous nous inté­­res­­sons au cas où le taux de nais­­sance à par­­tir de l’état En (noté n plus bas), soit ln, est pro­­por­­tion­­nel au nombre N 2 n d’unités non encore pré­­sentes dans le sys­­tème : ln 5 (N 2 n) # l (où n 5 0, 1, c, N 2 1). Tel serait le cas d’un ate­­lier com­­por­­tant N machines de fonc­­tion­­ne­­ment per­­ manent (sauf panne) et S répa­­ra­­teurs ( S , N )  ; le taux de panne indi­­vi­­duel de chaque machine est l et vaut (N 2 n) l si n machines sont en panne, le taux de ser­­vice d’un répa­­ra­­teur donné étant m. Dans l’état En : •  si 0 < n , S, il y a n répa­­ra­­tions en cours et m n 5 n # m ; mais •  si S < n < N, il y a S répa­­ra­­tions en cours et m n 5 S # m. Voici le graphe sim­­pli­­fié du pro­­ces­­sus de nais­­sance et de mort asso­­cié au sys­­tème :

Figure 7.5

286

7.6  File à S sta­­tions, cas du sys­­tème fermé : file M/M/S/N

Pour éva­­luer les pro­­ba­­bi­­li­­tés des états en régime sta­­tion­­naire (per­­manent) il suf­­fit alors d’instancier le résul­­tat géné­­ral des pro­­ces­­sus de nais­­sance et de mort : l0 ? l1 ? c? l k 2 1 p*k 5 m ? m ? c? m p*0 1 2 k

avec les valeurs de ln et mn ci-­­­dessus, puis d’éva­­luer p*0, ce que nous fai­­sons dans l’exemple ci-­­­dessous. Notons que ce pro­­ces­­sus de Markov est for­­te­­ment ergodique (les pro­­ba­­bi­­li­­tés des états tendent, quand t S `, vers des limites indé­­pen­­dantes de leur valeur à t 5 0), car le graphe est for­­te­­ment connexe et fini.

1 par 3 1 heure. On a un méca­­ni­­cien pour répa­­rer les machines, le taux de ser­­vice est m 5 2 (autre­­ment dit, il faut deux heures en moyenne au méca­­ni­­cien pour répa­­rer une machine). Le salaire, charges com­­prises, d’un méca­­ni­­cien est 30 euros de l’heure. Trois ouvriers travaillent dans l’atelier ; mais, pour produire, chacun a besoin d’une machine (en état de marche). Lors­­qu’un ouvrier est immo­­bi­­lisé la perte (salaire 1 charges 1 perte de pro­­duc­­tion) est esti­­mée à 50 euros par heure. Ne vaudrait-­­­il pas mieux aug­­men­­ter le nombre de méca­­ni­­ciens ? Exemple. Un ate­­lier dis­­pose de cinq machines, tom­­bant en panne au taux l 5







NB : ici les valeurs numé­­riques ne sont pas réa­­listes, mais elles per­­mettent des cal­­ culs simples ! 1) Pour 5 machines et un seul méca­­ni­­cien, on a : l n 5 n # l ( n 5 0, 1, c, 4 ) e mn 5 m ( n 5 1, 2, c, 5 )

Figure 7.6

où l 5

1 1 et m 5 . 2 3

© Dunod – Toute reproduction non autorisée est un délit.

5l 5 m # 4l 5 l # 4 l # 3l 5 l # 4 l # 3 l # 2l p*1 5 m p*0 ; p*2 5 m # m p*0 ; p*3 5 m # m # m p*0 ; p*4 5 m # m # m # m p*0 ; p*5 5

5l # 4l # 3l # 2l # l * p0, or : p*0 1 p*1 1 p*2 1 p*3 1 p*4 1 p*5 5 1. Il vient : m#m#m#m#m

p*1 5 p*0 a

10 * 80 160 * 640 * 1 280 * p0  ; p*2 5 p*0  ; p*3 5 p0. p0  ; p*4 5 p0  ; p*5 5 9 9 27 3 81

81 81 270 720 1 440 1920 1280 1 1 1 1 1 , et : b 5 1, d’où p*0 5 81 81 81 81 81 81 5711 p*1 5

1920 * 270 720 1440 * 1280 , p*2 5 , p*3 5 , p4 5 , p5 5 . 5711 5711 5711 5711 5711

287

Chapitre 7 • Les phé­­no­­mènes d’attente

81 Le méca­­ni­­cien est inoc­­cupé les de la jour­­née (c’est bien peu !), d’où un 5 711 coût de : 81 3 8 3 30 5 3, 40 euros/jour. 5 711 Les ouvriers ne peuvent pas tra­­vailler pen­­dant les cas sui­­vants : 1 280 de la jour­­née (état E5: toutes les 5 machines en panne) ; 5 711 1 920 de la jour­­née (état E4 : une seule machine – deux d’entre eux, pen­­dant les 5 711 en marche) ; – les trois, pen­­dant les

1 440 – un seul, enfin, pen­­dant les de la jour­­née (état E3 : deux machines en 5 711 marche). La perte totale jour­­na­­lière pour les ouvriers, par impos­­si­­bi­­lité de tra­­vailler, est donc : 1 920 1 440 1 280 123 1 b 3 8 3 50 5 638,77 euros/jour. 5 711 5 711 5 711 d’où un coût total se mon­­tant à : 638,77 1 3,40 5 642,17 euros par jour. 2) Dans les mêmes condi­­tions, mais avec deux méca­­ni­­ciens, on a : a3 3

Figure 7.7

on trouve : p*0 5

81 270 360 360 240 80 ; p*1 5 ; p*2 5 ; p*3 5 ; p*4 5 ; p*5 5 . 1 391 1 391 1 391 1 391 1 391 1 391

On obtient fina­­le­­ment un coût total de 74,536 1 310,567 5 385,10 euros par jour, moindre que le pré­­cé­­dent. 3) Essayons d’aug­­men­­ter encore le nombre de méca­­ni­­ciens. Le lec­­teur véri­­fiera sans peine que le coût total s’élève à 447,67 euros par jour dans l’hypo­­thèse où l’on a un effec­­ tif de trois méca­­ni­­ciens. On remar­­quera que le manque à gagner a pour expres­­sion : ( 3p*5 1 2p*4 1 1p*3 ) 3 8 3 50 1 ( 3p*0 1 2p*1 1 1p*2 ) 3 8 3 30. En conclu­­sion, la meilleure solu­­tion est d’enga­­ger deux méca­­ni­­ciens. Cepen­­dant le pro­­blème est loin d’être épuisé, car on pour­­rait pen­­ser aussi à para­­mé­­trer, c’est­­­à-dire à faire varier, le nombre d’ouvriers ou encore tenir compte de l’absen­­téisme des méca­­ni­­ciens... 288

7.7*  Pro­­ba­­bi­­lité de dépas­­ser une cer­­taine attente : cas de la file M/M/1

7.7* Pro­­ba­­bi­­lité

de dépas­­ser une cer­­taine attente :

cas de la file

M/M/1

Cette étoile indique qu’il s’agit d’un paragraphe d’approfondissement, qui peut être omis en première lecture. Reve­­nons d’abord au cas d’un sys­­tème ouvert à une sta­­tion, c’est-­­­à-dire la file M/M/1, en régime per­­manent. La pro­­ba­­bi­­lité que l’attente dépasse t est : P 3 Tf . t 4 5 a P 3 Tf . t 0 N 5 n 4 # P 3 N 5 n 4 , `

n51

obtenue en appli­­quant la for­­mule « des pro­­ba­­bi­­li­­tés totales ». Tf est une variable aléa­­toire ; nous note­­rons f (t) sa den­­sité de pro­­ba­­bi­­lité : d 5 P 3 Tf < t 46 .  Or, on a : P 3 Tf < t 4 5 1 2 P 3 Tf . t 4 , dt d d’où : f ( t ) 5 2 5 P 3 Tf . t 46 . dt Nous notons ici N la variable aléa­­toire « nombre de clients trou­­vés dans le sys­­ tème par un nou­­veau client y arri­­vant » ; on montre que P 3 N 5 n 4 5 p*n, c’est-­­­à-dire que cette pro­­ba­­bi­­lité coïn­­cide avec celle de trou­­ver n clients dans le sys­­tème à un ins­­ tant quel­­conque. En outre pour qu’il y ait attente, il faut que le nou­­veau client arri­­vant trouve, lors de son arri­­vée, au moins un client déjà présent dans le sys­­tème : n > 1. Éva­­luons P 3 Tf . t k N 5 n 4  : l’attente Tf dépas­­sera t pour un nou­­veau client arri­­ vant, disons à u, si entre u et u 1 t le ser­­veur a servi soit 0, soit 1, c, soit n 2 1 clients (mais pas n, sinon le nou­­veau client arrivé à u serait en cours de ser­­vice à u 1 t, et donc plus en attente). Or les fins de ser­­vice, lorsque le ser­­veur ne connaît pas de période d’inac­­tivité (faute de clients à ser­­vir), forment un pro­­ces­­sus de Pois­­ son de taux m (les ser­­vices repré­­sentent les inter­­valles de temps entre deux évé­­ne­­ ments consé­­cu­­tifs de ce pro­­ces­­sus : on sait que la loi de ces ser­­vices est alors une ( mt ) k ( ) loi expo­­nen­­tielle de taux m). En notant qk t 5 e2mt, la pro­­ba­­bi­­lité d’avoir n k! évé­­ne­­ments dans ce pro­­ces­­sus entre u et u 1 t, il vient :

© Dunod – Toute reproduction non autorisée est un délit.

f (t) 5

P 3 Tf . t 0 N 5 n 4 5 q0 ( t ) 1 q1 ( t ) 1 c1 qn 2 1 ( t ) 5 e2mt # C1 1

( mt ) 2 ( mt ) n 2 1 mt S 5 U.V 1 1 c1 1! 2! (n 2 1)!

dont la déri­­vée Ur # V 1 Vr # U vaut : 2m e

2mt

# C1 1 mt 1 c1 1!

n22 ( mt ) n 2 1! mt c ( n 2 1 ) m # ( mt ) 2mt # S1e S Cm 1 2 m 1 1 2! (n 2 1)! (n 2 1)!

289

Chapitre 7 • Les phé­­no­­mènes d’attente

Le second cro­­chet vaut : m # C1 1

n22 mt c ( mt ) S . D’où : 1 1 1! (n 2 2)!

( mt ) n21 d 5 P 3 Tf . t 0 N 5 n 46 5 2m # e2mt # dt ( n2 1 ) !

d d P 3 Tf . t 4 5 2 b a P 3 Tf . t 0 N 5 n 4 # p*n r . dt dt n51 `

f (t) 5 2

l l Rap­­pe­­lons que : p*n 5 a1 2 m b # a m b.

` ( mt ) n 2 1 l n l 2 mt f ( t ) 5 m # a1 2 m b # e a a b (n 2 1)! m n51

5 (m # l ) # e

2mt

` ( lt ) n 2 1 l #ma . (n 2 1)! n51

xn 2 1 5 ex, le sigma vaut elt ; il vient : Puisque a ( ) n 2 1 ! n51 l f ( t ) 5 ( m 2 l ) m e2(m 2 l )t. t l D’où : P 3 Tf . t 4 5 1 2 3 f ( u ) du 5 m e2(m2 l)t. 0 `

II est alors aisé de retrou­­ver l’attente moyenne (qui n’est autre que l’espé­­rance de Tf) : tf 5 E ( Tf ) 5 3 t # f ( t ) dt 5 `

l

(valeur déjà trou­­vée au 7.3). m ( m 2 l) Connais­­sant f (t), on peut cal­­cu­­ler les moments E ( Tfk ) . En par­­ti­­cu­­lier : 0

l

. m (m 2 l )2 De la même manière, on peut éta­­blir que pour le temps total de séjour dans le sys­­ tème, soit T, com­­pre­­nant l’attente et le ser­­vice, on a : P[T . t] 5 e2(m2l)t : on reconnaît une loi expo­­nen­­tielle de taux a 5 m 2 l. Aussi, la durée moyenne de séjour est : var ( Tf ) 5 E ( Tf2 ) 2 3 E ( tf ) 4 2 5

1 1 (valeur déjà trou­­vée au 7.3). t 5 E (T) 5 a 5 m2l En outre, on montre que le pro­­ces­­sus des sor­­ties d’une file M/M/1 (comme d’une file M/M/S) est un pro­­ces­­sus de Pois­­son de taux l. Ceci est impor­­tant pour les réseaux de files d’attente, dont le pion­­nier a été J. JACKSON, mais dont l’étude sort du cadre de cet ouvrage. Le lec­­teur pourra géné­­ra­­li­­ser à la file M/M/S, le cal­­cul de P[Tf . t] et celui f (t). Soit P[Tf . 0] la pro­­ba­­bi­­lité d’une attente non nulle ; on a : 290

7.7*  Pro­­ba­­bi­­lité de dépas­­ser une cer­­taine attente : cas de la file M/M/1

P 3 Tf . 0 4 5 où :

p*S

p*S

p*0 ( l/m )

5

S!

p*S 1 1

1

2

*

pS l l 1 c5 p*S C1 1 1 a b 1 cS 5 Sm Sm 1 2 l/Sm

. On obtient : f (t) 5 P[Tf . 0] # (Sm 2 l) # e2(Sm2l)t.

Ce qui per­­met de retrou­­ver : tf 5 E (Tf ) 5 3 t # f ( t ) # dt, d’où : tf 5 P 3Tf . 04 # `

0

1 . Sm 2 l

On retrouve bien l’expres­­sion de tf déjà don­­née plus haut : tf 5

p*0 # ( l/m) S

#

1

S! ( 1 2 l/Sm) S # m # ( 1 2 l/Sm)

5

( l/m ) S S m # S! # ( 1 2 l/Sm) 2

# p*0.

Exemple d’appli­­ca­­tion : un pro­­ces­­seur infor­­ma­­tique doit trai­­ter des tra­­vaux qui arrivent aléa­­toi­­re­­ment, selon un pro­­ces­­sus de Pois­­son de taux l fixé. La nature de ces tra­­vaux et les carac­­té­­ris­­tiques tech­­niques du pro­­ces­­seur font que la durée aléa­­ toire d’exé­­cu­­tion de chaque tra­­vail suit une loi expo­­nen­­tielle de taux m. Le cahier des charges pour ce pro­­ces­­seur exige que les deux spé­­ci­­fi­­ca­­tions ci­­­ dessous soient res­­pec­­tées : 1) le temps de « réponse » moyen (attente et exé­­cu­­tion) doit être infé­­rieur à une durée don­­née : u ; 2) dans 90 % des cas, le temps de réponse Τ doit être infé­­rieur à k # θ (k est un entier, en pra­­tique de l’ordre de 2 ou 3). Nous repre­­nons ci-­­­dessous les résul­­tats éta­­blis pour la file M/M/1. Il fau­­dra donc trou­­ver un pro­­ces­­seur tel que la vitesse d’exé­­cu­­tion pour les tra­­ vaux consi­­dé­­rés, soit m, véri­­fie : 1)  t 5

1 1 , u soit m . l 1   (on savait déjà que néces­­sai­­re­­ment : m . l)  ; u m2l

© Dunod – Toute reproduction non autorisée est un délit.

2)  P 3 T , ku 4 > 0, 9. Or :   P 3 T , ku 4 5 3

ku

0

f ( t ) # dt, soit : 3

(m2l)ku

0

e2x dt, en posant x 5 ( m 2 l) t.

D’où : 1 2 e2(m2 l)ku > 0, 9, c’est-­­­à-dire 0, 1 > e2(m2 l)ku . En pre­­nant le loga­­ rithme népé­­rien de chaque membre : 22,3 > 2 ( m 2 l) # k # u. Fina­­le­­ment : m2l>

2, 3 ku

soit m > l 1

2, 3 ku

.

Il y a donc deux cas : •  pour k . 2,3 , c’est la spé­­ci­­fi­­ca­­tion 1 qui déter­­mine m : m . l1 1/u ; •  pour k , 2,3 , c’est la spé­­ci­­fi­­ca­­tion 2 qui déter­­mine m : m . l1 2, 3/ku. •  pour k 5 2,3 , les deux spécifications donnent m 5 l1 1/8. 291

Chapitre 7 • Les phé­­no­­mènes d’attente

EXER­­CICES

*7.1 La file d’attente la plus simple : file M/M/1 Dans un phé­­no­­mène d’attente, les arri­­vées sont poissoniennes et le ser­­vice expo­­nen­­ tiel. Un seul employé des­­sert un gui­­chet ouvert de 10 heures à 16 heures, sans inter­­ rup­­tion. Le nombre moyen des clients est 54 par jour ; la durée moyenne du ser­­vice, 5 minutes. 1.  On demande de déter­­mi­­ner : le nombre moyen, n des clients dans le sys­­tème d’attente ; le nombre moyen, v, des clients dans la file ; le temps moyen d’attente, tf. 2.  Quelle est la pro­­ba­­bi­­lité d’attendre plus d’une demi-­­­heure ?

**7.2 La file d’attente avec plusieurs stations banalisées : file M/M/S Le tableau ci-­­­contre résume les obser­­va­­tions qu’on Nombre Fréquence a faites sur un sys­­tème d’attente, dans lequel la durée d'arrivées observée moyenne du ser­­vice est de 8 min 3/4. 0 0 1.  On envi­­sage un ser­­vice pro­­por­­tion­­nel au 1 4 1 nombre de clients pré­­sents ; quel est le nombre 2 7 maximal de sta­­tions à pré­­voir, dans cette hypo­­ 13 3 thèse, de manière à cou­­vrir sans attente le ser­­ 18 4 vice de la clien­­tèle (on admet­­tra qu’il n’y a pas 5 18 d’attente appré­­ciable si plus de 99 % des clients 6 15 sont ser­­vis immé­­dia­­te­­ment). 7 9 2.  On trouve que la solu­­tion, dans l’hypo­­thèse 8 8 pré­­cé­­dente, est coû­­teuse. On envi­­sage alors 4 9 de réduire le nombre des sta­­tions ; quel est le 10 2 nombre opti­­mal de sta­­tions à mettre en œuvre 11 1 si le coût d’attente d’un client est de 90 uni­­ 12 1 tés moné­­taires/heure, tan­­dis que le salaire d’un 13 0 gui­­che­­tier peut être estimé à 48 u.m./h ? Com­­men­­taires a)  Le nombre des entrées dans le sys­­tème, objet du tableau ci-­­­dessus, a été observé pen­­dant des périodes d’un quart d’heure. b)  On pourra éta­­blir le bilan des opé­­ra­­tions pour une jour­­née de tra­­vail de 8 heures.

1. C’est-­­­à-dire que le nombre de sta­­tions en opé­­ra­­tion est égal au nombre de clients pré­­sents. 292

Exercices

**7.3 Cas de plu­­sieurs sta­­tions à taux de ser­­vice dif­­fé­­rent On consi­­dère un phé­­no­­mène d’attente consti­­tué par un sys­­tème ouvert à deux sta­­ tions. Le taux moyen d’arri­­vée des clients est l et la loi de ces arri­­vées est la loi de Pois­­son. Les deux sta­­tions ont un taux moyen de ser­­vice dif­­fé­­rent. La pre­­mière sta­­ tion S1 a un taux μ1, la seconde sta­­tion S2 a un taux m2 ; tou­­te­­fois, dans ces deux sta­­ tions, la loi des durées de ser­­vice est la loi expo­­nen­­tielle. On admet que, si un client se pré­­sente et que les deux sta­­tions sont inoc­­cu­­pées, il choi­­sit l’une des sta­­tions par tirage 1 au sort don­­nant la même pro­­ba­­bi­­lité, soit , à S1 et S2 d’être choi­­sies. En ce qui concerne 2 ces clients la règle est : pre­­mier arrivé, pre­­mier au ser­­vice. 1.  On demande d’éta­­blir les équa­­tions dif­­fé­­ren­­tielles des pro­­ba­­bi­­li­­tés d’état en appe­­lant : pn(t) où n 5 0, 2, 3, 4, c (i  1), la pro­­ba­­bi­­lité pour qu’il y ait n clients dans le sys­­tème ; p0.1(t) la pro­­ba­­bi­­lité pour qu’il y ait 1 client dans le sys­­tème et que S1 soit inoc­­cu­­pée ; p1.0(t) la pro­­ba­­bi­­lité pour qu’il y ait 1 client dans le sys­­tème et que S2 soit inoc­­cu­­pée. l

2.  On fait l’hypo­­thèse que c 5 m 1 m , 1, cette condi­­tion entraî­­nant 1 2 l’exis­­tence d’un régime per­­manent. Don­­ner les équa­­tions d’état en régime per­­manent. 3.  Exprimer, p *0, p *0,1, p *1, 0, p *2, p *3, c, p *n, c en fonc­­tion de : l, m1 et m2. 4.  Cal­­cu­­ler n qui repré­­sente le nombre moyen de clients dans le sys­­tème en régime per­­manent.

*7.4 Répa­­ra­­tions de machines : files M/M/2/6, …, M/M/6/6

© Dunod – Toute reproduction non autorisée est un délit.

Un ate­­lier compte six machines, cha­­cune ayant un taux de panne poissonien égal à 1/6 (par heure). Deux méca­­ni­­ciens sont char­­gés des réparations : les durées des répa­­ ra­­tions, valant en moyenne à 4 heures, suivent une loi expo­­nen­­tielle. 1.  Quel est le nombre moyen de machines en panne en régime per­­manent ? 2.  Même ques­­tion pour n 5 3, puis n 5 4, …, puis n 5 6.

**7.5 Cabi­­net médi­­cal : files M/M/1 et M/M/2 Un méde­­cin spécialiste a observé que la durée moyenne d’une consul­­ta­­tion est de 15 minutes. Il se dit qu’en convo­­quant ses patients à des heures fixées, sépa­­rées par un inter­­valle de 20 min, il verra décroître l’exces­­sive occu­­pa­­tion de son cabinet. La salle d’attente est très grande…

293

Chapitre 7 • Les phé­­no­­mènes d’attente

En fait, la durée des consul­­ta­­tions suit une loi expo­­nen­­tielle et l’arri­­vée des clients, qui ont tou­­jours une bonne excuse (encom­­bre­­ments, dif­­fi­­cul­­tés à trou­­ver un sta­­tion­­ne­­ ment, etc.) pour se pré­­sen­­ter aléa­­toi­­re­­ment, peut être assi­­mi­­lée à une loi de Pois­­son de moyenne 3 arrivées par heure. 1.  Cal­­cu­­ler le temps d’attente et les pro­­ba­­bi­­li­­tés (en se limi­­tant à celle supé­­rieures à 0,05) pour qu’il y ait 1, 2, c per­­sonnes chez le méde­­cin. 2.  Quelle est la pro­­ba­­bi­­lité qu’un patient (c’est le cas de le dire !) attende plus d’une heure ? plus de deux heures ? 3.  a) Qu’arriverait-­­­il si le méde­­cin déci­­dait de ne convo­­quer ses patients que toutes les 25 min car la fréquentation moyenne de son cabinet est tombée à 2,4 patients/h. ? b) Quel serait l’inter­­valle au-­­­delà duquel moins de 10 % des patients auraient à attendre ? 4.  Le méde­­cin s’adjoint un jeune confrère (mais qui n’apporte pas de nou­­ velle clien­­tèle) ; tout patient peut-­­­être reçu indif­­fé­­rem­­ment par l’un ou l’autre des méde­­cins. a)  Pen­­dant quelques jours, des rendez-­­­vous étant déjà pris, l’inter­­valle de 20 minutes entre convo­­ca­­tions est main­­tenu. Cal­­cu­­ler le temps moyen d’attente et mon­­trer que la pro­­ba­­bi­­lité d’une attente supé­­rieure à 1 heure est négli­­ geable. b) Pour que cha­­cun des deux méde­­cins assure trois consul­­ta­­tions par heure en moyenne, il fau­­drait convo­­quer les patients à des inter­­valles de 10 min (il en arriverait en moyenne 6 par heure). Quels seraient alors le temps moyen d’attente ? La pro­­ba­­bi­­lité pour que l’attente dépasse 1 heure ? c)  Les deux méde­­cins décident de ne pas impo­­ser à leurs patients une attente moyenne supé­­rieure à 10 min. Com­­bien doivent-­­­ils recevoir de patients en moyenne par heure ? Quelle est alors la pro­­ba­­bi­­lité d’attendre plus d’1 heure ?

*7.6 Poste de douane et… pro­­ces­­sus de nais­­sance et de mort À un poste de douane, habi­­tuel­­le­­ment peu fré­­quenté, un seul agent est nor­­ma­­le­­ment affecté au contrôle des auto­­mo­­biles ; tou­­te­­fois dès qu’au moins trois autos sont pré­­ sentes, un second doua­­nier vient à la res­­cousse et contrôle les voi­­tures en paral­­lèle avec son col­­lègue et indé­­pen­­dam­­ment. Chaque voi­­ture n’est contrô­­lée qu’une fois. Une étude sta­­tistique a per­­mis d’éta­­blir que les arri­­vées aléa­­toires des autos sont régies par une loi de Pois­­son de taux l et, d’autre part, que les durées aléa­­toires des contrôles suivent une loi expo­­nen­­tielle, de durée moyenne 1/m.

294

Exercices

1.  a)  Don­­ner la condi­­tion pour que le poste de douane ne soit pas engorgé. b)  Asso­­cier un pro­­ces­­sus de Markov et tra­­cer son graphe sim­­pli­­fié. On notera Ek, l’état pour lequel k voi­­tures sont pré­­sentes. Quel pro­­ces­­sus par­­ti­­cu­­lier reconnaissez-­­­vous ? (jus­­ti­­fier en détail et expri­­mer lk pour tout k > 0 ; déter­­mi­­ ner mk selon que k < 2 ou k > 3). 2.  a)  On sup­­pose l’exis­­tence d’un régime per­­manent. Soit alors p*k , la pro­­ ba­­bi­­lité de Ek. En posant C 5 l/m, expri­­mer p*k en fonc­­tion de p*0, C et k (dis­­tin­­guer k < 2 et k > 3). à l’aide de la rela­­tion a p*k 5 1 ; on écrira cette somme `

b)  Éva­­luer

p *k

k50

sous la forme 1 5 p*0 1 p*1 1 p*2 ( 1 1 q 1 q2 1 q3 1 c) .

1 . On rap­­pelle que pour q , 1, 1 1 q 1 q2 1 q3 1 c5 12q 22C Mon­­trer alors que p *0 5 . 2 1 C 1 C2 3.  a)  Prou­­ver que le nombre moyen d de doua­­niers occu­­pés au contrôle des voi­­tures est : d 5 2 2 ( 2 # p*0 ) 2 ( 1 # p*1 ) 2 ( 1 # p*2 ) . b)  En rem­­pla­­çant alors p*0 , p*1 et p*2 par leur valeur en fonc­­tion de C, prou­­ver que d 5 C. Inter­­préter cette rela­­tion en terme de conser­­va­­tion de clients (éga­­lité du taux d’arri­­vée des voi­­tures à la douane et du taux de départ de voi­­tures contrô­­lées).

© Dunod – Toute reproduction non autorisée est un délit.

*7.7 Com­­ment amé­­lio­­rer un sys­­tème infor­­ma­­tique ? (Files M/M/1/S et M/M/2/S) Un ordi­­na­­teur, ini­­tia­­le­­ment mono­­­pro­­ces­­seur, peut pla­­cer en mémoire de masse les don­­nées rela­­tives à quatre tra­­vaux élé­­men­­taires (job), tout en trai­­tant un cin­­quième en mémoire cen­­trale. Si l’ordi­­na­­teur n’est pas saturé, les tra­­vaux prennent place – lors de leur arri­­vée – dans la file (avec la dis­­ci­­pline : pre­­mier arrivé, pre­­mier servi) ; sinon le sixième est régu­­liè­­re­­ment refusé. Les arri­­vées aléa­­toires des tra­­vaux suivent une loi de Pois­­son de taux l et les durées aléa­­toires des ser­­vices, une loi expo­­nen­­ tielle de taux m. 1.  Modé­­li­­ser le pro­­blème à l’aide d’un pro­­ces­­sus de nais­­sance et de mort com­­por­­tant six états (indi­­cés de 0 à 5). Tra­­cer le graphe des tran­­si­­tions entre t et t 1 dt. Don­­ner la nota­­tion de Kendall de cette file (A/B/m/n). Ce pro­­ces­­sus est-­­­il for­­te­­ment ergodique ? Jus­­ti­­fier en détail. 2.  On se place en régime per­­manent ; cal­­cu­­ler les pro­­ba­­bi­­li­­tés des états en fonc­­tion de l, m et p*0 (pro­­ba­­bi­­lité d’avoir aucun tra­­vail en trai­­te­­ment). Puis cal­­cu­­ler p*0. 295

Chapitre 7 • Les phé­­no­­mènes d’attente

Rap­­pel : 1 1 a 1 a2 1 c1 ak 5 (1 2 ak 1 1) / (1 2 a) si a 2 1 ; 5 k 1 1 si a 51. 3.  A.N. En moyenne, il arrive 24 tra­­vaux par minute, traité cha­­cun en deux secondes. Quelle est l’uti­­li­­sation U du processeur (pro­­ba­­bi­­lité que le pro­­ ces­­seur soit actif)? Quel est le temps moyen d’unité cen­­trale (pro­­ces­­seur) perdu par heure ? Quel est le nombre moyen de tra­­vaux r refu­­sés par heure (« déchet ») ? Véri­­fiez que l ( 1 2 p*5 ) 5 m # U et inter­­préter cette rela­­tion en termes de conser­­va­­tion des clients. 4.  Ce déchet étant jugé inac­­cep­­table, on a le choix entre deux poli­­tiques : a)  dou­­bler la mémoire de masse (on pourra alors accep­­ter 9 tra­­vaux au maxi­­mum dans le sys­­tème) ; on notera Ur1, et rr1 (au lieu de U et r au 3.) b)  ins­­tal­­ler un second pro­­ces­­seur, tra­­vaillant en paral­­lèle avec le pre­­mier (on pourra alors trai­­ter deux tra­­vaux simul­­ta­­né­­ment et six pour­­ront prendre place, au maxi­­mum dans le sys­­tème). Dans ce cas, Ur2 désigne le nombre moyen de pro­­ces­­seurs actifs et rr2, le déchet. Reprendre la modé­­li­­sa­­tion dans cha­­cun de ces deux cas puis cal­­cu­­ler Ur et le nombre moyen rr de tra­­vaux refu­­sés par heure. Quel serait votre choix ? Don­­ner briè­­ve­­ment ses impli­­ca­­tions finan­­cières. 5.  On décide d’ins­­tal­­ler un second pro­­ces­­seur (comme au 4-b) mais en aug­­men­­tant en outre la mémoire de masse : a)  si cette mémoire est dou­­blée par rap­­port à la confi­­gu­­ra­­tion ini­­tiale (cf. le 1), don­­ner la nota­­tion de Kendall de cette file d’attente, éva­­luer Us et rs et com­­men­­ter ces résul­­tats ; b)  si cette mémoire était illi­­mi­­tée : don­­ner la condi­­tion d’exis­­tence d’un régime per­­manent et éva­­luer Ut et rt. Retrou­­ver la valeur (simple) de Ut à l’aide de la notion de conser­­va­­tion des clients.

296

8

La pro­­gram­­ma­­tion

linéaire

Soit un phé­­no­­mène éco­­no­­mique y, résul­­tat de plu­­sieurs effets élé­­men­­taires : e1, en, c, e . n

Si l’on sup­­pose que les effets élé­­men­­taires consi­­dé­­rés sont addi­­tifs, on a : y 5 e1 1 e2 1 c1 en ;

Par exemple, y pour­­rait repré­­sen­­ter une quan­­tité de pro­­duit, qui est fabri­­qué dans n ate­­liers ; si l’on sup­­pose, en outre, que cha­­cun des effets élé­­men­­taires est pro­­por­­tion­­ nel à sa cause xi, on peut écrire : (8.1) y 5 a1x 1 1 a 2 x 2 1 c1 a n x n c a1, a2, , an étant les coef­­fi­­cients de pro­­por­­tion­­na­­lité. Pour notre exemple, ei repré­­senterait la quan­­tité fabri­­quée dans un ate­­lier i, qui, elle-­­­même, est pro­­por­­tion­­nelle au temps de fabri­­ca­­tion xi (ai étant une vitesse de fabri­­ca­­tion) : ei 5 a i x i. L’éga­­lité (8.1) est du pre­­mier degré par rap­­port aux variables x1, x2, c, xn : on dit encore qu’elle est une fonc­­tion linéaire de ces variables. Il arrive que, dans beau­­coup de pro­­blèmes, les m 1 1 effets soient tous pro­­por­­ tion­­nels aux causes (au moins de façon suf­­fi­­sam­­ment appro­­chée) ; le pro­­blème peut alors se décrire uni­­que­­ment au moyen d’équa­­tions linéaires : y 1 5 a11x 1 1 a12 x 2 1 c1 a x 1n n

…………………………………………… y m 5 a m1x 1 1 am2 x 2 1 c1 a x mn n

y m 1 1 5 a m 1 1,1x 1 1 am 1 1,2 x 2 1 c1 a m 1 1, n x n Comme nous l’avons déjà pré­­cisé dans le cha­­pitre 1, en limi­­tant supé­­rieu­­re­­ment ou inférieurement les m pre­­miers effets : y1 < b1 ou y1 > b1 ; y2 < b2 ou y2 > b2 ; c ; y < b ou y > b , m

m

m

m e

c’est-­­­à-dire qu’en écri­­vant m contraintes, on per­­met l’opti­­mi­­sation du ( m 1 1 ) effet : 3 max 4 y m 1 1 5 lj # x 1 1 l2 # x 2 1 c1 ln # x m où lj 5 am 1 1, j pour j = 1 à n est la fonc­­tion éco­­no­­mique du pro­­blème ; ym+1 est souvent noté : z ; lj 5 am 1 1, j est le plus souvent noté cj.

Chapitre 8 • La pro­­gram­­ma­­tion linéaire

Les m contraintes, si elles sont com­­pa­­tibles, déli­­mitent dans un espace à n dimen­­sions (autant que de variables) un hyper­­­volume convexe1 à l’inté­­rieur ou à la péri­­phérie duquel se trouve(nt) le (ou les) point(s) dont les coor­­don­­nées ( x 1, x 2, c, x n ) satis­­font aux contraintes. En outre les variables x1, x2, c, xn sont toujours positives ou nulles. La pro­­gram­­ma­­tion linéaire a pour objet de résoudre le pro­­blème d’opti­­mi­­sation qui consiste à maxi­­mi­­ser une fonc­­tion­­nelle linéaire (la « fonc­­tion éco­­no­­mique ») dans le domaine ainsi défini. Nous pen­­sons qu’il sera plus adapté, au niveau que nous nous fixons, de l’expo­­ser sur un exemple concret.

8.1 Exemple de pro­­gramme géomé ­­ trique ­­

linéaire

– Aspect

8.1.1 Pro­­blème de maxi­­mi­­sa­­tion Une entre­­prise peut fabri­­quer, sur une machine don­­née, tra­­vaillant 45 heures par semaine2 trois pro­­duits dif­­fé­­rents P1, P2 et P3. Cette machine peut fabriquer un seul type de produits à la fois ; ses temps de réglage sont négligeables. Une unité du pro­­ duit P1 laisse un pro­­fit net de 4 euros, une de P2, un pro­­fit de 12 euros, et enfin, pour P3, de 3 euros. Les ren­­de­­ments de la machine sont, res­­pec­­ti­­ve­­ment pour les trois pro­­ duits, et dans le même ordre : 50, 25 et 75 uni­­tés par heure. On sait d’autre part, grâce à une étude de mar­­ché, que les pos­­si­­bi­­li­­tés de vente ne dépassent pas 1 000 uni­­tés de P1, 500 uni­­tés de P2 et 1 500 uni­­tés de P3, par semaine. On se pose le pro­­blème de répar­­tir la capa­­cité de pro­­duc­­tion entre les trois pro­­duits, de manière à maxi­­mi­­ser le pro­­fit heb­­do­­ma­­daire.

8.1.2 For­­mu­­la­­tion algé­­brique Posons main­­te­­nant le pro­­blème sous forme algé­­brique. Appe­­lons x1, x2 et x3 les quan­­ ti­­tés res­­pec­­tives (inconnues) des pro­­duits P1, P2 et P3 que nous avons à fabri­­quer pour obte­­nir le pro­­fit maximal. Les quan­­ti­­tés des pro­­duits P1, P2 et P3 ne doivent pas dépas­­ser, res­­pec­­ti­­ve­­ment 1 000, 500 et 1 500 par semaine ; on peut donc écrire : 1)  x 1 < 1 000 ;

2)  x 2 < 500 ; 3)  x 3 < 1 500. D’autre part, le temps employé pour pro­­duire x1 uni­­tés de P1 est en heures : 1 1 x1 3 ; celui qui cor­­res­­pond à la fabri­­ca­­tion de x2 uni­­tés de P2 est : x 2 3 ; enfin, 50 25 1 pour confec­­tion­­ner x3 uni­­tés de P3, il fau­­dra x 3 3 heures. Or, la somme des temps 75

1. “Convexe” signifie que si l’on prend deux points situés à l’intérieur (ou à la surface) de ce volume d, le segment les joignant ne sort pas de d. 2. Ce qui n’entraîne pas, bien sûr, que chaque ouvrier doive travailler 45 h par semaine ! 298

8.1  Exemple de pro­­gramme linéaire – Aspect géo­­mé­­trique

de fabri­­ca­­tion ne doit pas dépas­­ser 45 h, dis­­po­­ni­­bi­­lité totale de la machine. On aura donc (en négligeant les durées des réglages de la machine lors des changements de gammes de produits) : 1 1 1 x1 1 x2 1 x 3 < 45 50 25 75 ou encore, en mul­­ti­­pliant les deux membres de cette inéga­­lité par le déno­­mi­­na­­teur com­­mun 150 : 4)  3x 1 1 6x 2 1 2x 3 < 6 750. Les inéga­­li­­tés 1), 2), 3) et 4) sont les contraintes expri­­mées par l’énoncé ; les variables y figurent au pre­­mier degré : ces contraintes sont pour cela appe­­lées linéaires. On les appelle par la suite : « contraintes explicites ». En réa­­lité, il y a encore, dans l’énoncé, trois contraintes cachées ; les quan­­ti­­tés x1, x2 et x3 ont un sens phy­­sique pré­­cis : ce sont des nombres d’uni­­tés de pro­­duits dont la fabri­­ca­­tion est envi­­sa­­gée ; elles ne peuvent donc qu’être posi­­tives ou nulles ou, comme on dit, non-­­­négatives. On écrira : 5)  x 1 > 0 ;   6)  x 2 > 0 ;   7)  x 3 > 0. Ces contraintes sont appelées par la suite : « contraintes implicites ». Il reste enfin à expri­­mer l’objec­­tif du pro­­blème, qui est de choi­­sir x1, x2 et x3 de manière que le pro­­fit hebdomadaire soit maximal. Le pro­­fit z est égal à : 4x 1 1 12x 2 1 3x 3 ( euros ) , cette exi­­gence pourra être notée : 8)  3 max 4 z 5 4x 1 1 12x 2 1 3x 3 ; on remarque que cette fonc­­tion­­nelle, appe­­lée fonc­­tion éco­­no­­mique, est elle aussi linéaire.

8.1.3 Signi­­fi­­ca­­tion géo­­mé­­trique

© Dunod – Toute reproduction non autorisée est un délit.

Cas de n 5 2 variables Nous com­­men­­ce­­rons par exa­­mi­­ner un sous-­­­problème du pro­­blème pré­­cé­­dent. Sup­­ po­­sons que l’entre­­prise ait éli­­miné le pro­­duit P3 de sa gamme et ait réduit l’acti­­vité de l’ate­­lier à 35 heures par semaine. Le pro­­blème devient :

1 1 x1 1 x2 < 35 soit x1 1 2x2 < 1 750 ; 50 25 x 1 > 0 ; x 2 > 0 ; 3 max 4 z 5 4x 1 1 12x 2. Rien ne nous empêche ici de recou­­rir à la méthode géo­­mé­­trique, puisque nous n’avons que deux variables et qu’il est facile de repré­­sen­­ter le pro­­blème dans l’espace à deux dimen­­sions (le plan) dont les axes por­­te­­ront les quan­­ti­­tés x1 et x2 . Toute solu­­tion du pro­­blème est repré­­sen­­tée par un point du plan, de coor­­don­­nées x1 et x2, déter­­mi­­nées. Les contraintes x 1 > 0 et x 2 > 0 font que nous pour­­rons nous contenter du pre­­mier qua­­drant du plan dans lequel les deux coordonnées sont positives ou nulles. x1 < 1 000 ; x2 < 500 ;

299

Chapitre 8 • La pro­­gram­­ma­­tion linéaire

Figure 8.1

Les contraintes sont aisées à repré­­sen­­ter. Ainsi la contrainte x 1 < 1 000 signi­­ fie que dans le qua­­drant posi­­tif, les points dont la coor­­don­­née x1 excède 1 000 sont exclus du domaine des solu­­tions. Or, x 1 5 1 000 repré­­sente une droite D1 ver­­ti­­cale, ortho­­go­­nale à l’axe Ox1 au point x 1 5 1 000 : à toutes les solu­­tions res­­pec­­tant cette contrainte, sont asso­­ciés des points com­­pris entre D1 et l’axe Ox2 (et au-­­­dessus de l’axe Ox1). On rai­­son­­nerait de même pour la contrainte x2 < 500 (la droite D2, hori­­ zon­­tale, a pour équa­­tion x 2 5 500). Si le pro­­blème ne com­­por­­tait que les contraintes 0 < x 1 < 1 000 et 0 < x 2 < 500 le domaine « admis­­sible », c’est-­­­à-dire le domaine des points asso­­ciés aux solu­­ tions véri­­fiant ces contraintes, serait le rec­­tangle OABC. Mais x 1 1 2x 2 5 1 750 est aussi l’équa­­tion d’une droite D3 dont l’inter­­sec­­tion avec la droite D1 est le point E ( x 1 5 1 000, x 2 5 375 ) et l’inter­­sec­­tion avec D2 est le point F ( x 1 5 750, x 2 5 500 ) . Le domaine des solu­­tions admis­­sibles d de notre pro­­blème est donc le poly­­gone convexe OAFEC, à la fron­­tière ou à l’inté­­rieur duquel se trouvent les points asso­­ciés à ces solu­­tions admis­­sibles. Jus­­qu’à présent nous ne nous sommes occu­­pés que des contraintes ; pour choi­­sir parmi les solu­­tions admis­­sibles une solu­­tion qui soit opti­­male, nous devons chercher à maxi­­mi­­ser la fonc­­tion­­nelle z 5 4x 1 1 12x 2 (« fonc­­tion éco­­no­­mique »), cf fig. 8.2. L’ensemble (ou « lieu ») des points tels que z 5 0, est la droite Δ0 d’équa­­tion 1 x 2 5 2 x 1 ; elle n’a qu’un seul point com­­mun avec le domaine admis­­sible : c’est le 3 point Ο (pro­­duc­­tion nulle et donc béné­­fice nul !). Le lieu des points tels que z 5 4 000 est la droite Δ4 000, paral­­lèle à Δ0 et pas­­sant par le point C ( x1 5 1 000, x2 5 0 ) . Pour une valeur don­­née arbi­­trai­­re­­ment à la fonc­­tion éco­­no­­mique, soit z 5 a, on peut a montrer que la dis­­tance de l’origine Ο à la droite Δα est : OH 5 . 2 "4 1 122 Ainsi la valeur α de la fonc­­tion éco­­no­­mique est-­­­elle pro­­por­­tion­­nelle à OH. Dès lors, pour maxi­­mi­­ser z, il suf­­fira de tra­­cer une droite paral­­lèle à Δ0 dont la dis­­tance à 300

8.1  Exemple de pro­­gramme linéaire – Aspect géo­­mé­­trique

l’ori­­gine soit la plus grande pos­­sible et qui ait encore au moins un point en com­­mun avec le poly­­gone d des solu­­tions admis­­sibles OAFEC.

Figure 8.2

© Dunod – Toute reproduction non autorisée est un délit.

Il est facile de voir que cette droite est obte­­nue pour a 5 9 000 ; cette droite a un seul point en commun avec le poly­­gone : c’est le point F. D’où la solu­­tion opti­­male :

x *1 5 750, x *2 5 500, z* 5 9 000 euros. Cette méthode géo­­mé­­trique per­­met de résoudre tous les pro­­grammes linéaires à deux variables ; en résumé, elle consiste à écar­­ter la droite de la fonc­­tion éco­­no­­mique pas­­ sant par un point ini­­tial évident (ici O), paral­­lè­­le­­ment à elle-­­­même, tant que l’inter­­ sec­­tion de la droite cou­­rante avec le poly­­gone d des solu­­tions admis­­sibles n’est pas vide. La réso­­lu­­tion s’arrête lorsque la droite cou­­rante n’a plus qu’un seul point de contact (ou une arête de contact) avec ce poly­­gone (on a évidemment supposé que d n’est pas vide c-à-d que les contraintes ne sont pas contradictoires). N.B. Si on avait z = 4x1 + 8x2, les droites Dα seraient parallèles à FE : alors tous les points de l’arête seraient optimaux, y compris les sommets F et E.

Cas de n 5 3 variables Rien ne nous empêche ici de recou­­rir encore à la méthode géo­­mé­­trique puisque nous n’avons que trois variables et qu’il est pos­­sible de repré­­sen­­ter en clair les trois axes (orthonormés) qui por­­te­­ront les quan­­ti­­tés x1, x2 et x3. A priori, toute solu­­tion du pro­­blème est repré­­sen­­tée par un point de l’espace, de coor­­ don­­nées x1, x2 et x3, déter­­mi­­nées. Reportons nous à la formulation du 8.1.2 : Les contraintes 5), 6) et 7) signi­­fient d’ailleurs que nous pour­­rons nous contenter de repré­­sen­­ter l’octant posi­­tif de ce sys­­tème de coor­­don­­nées, puisque nous avons :

x1, x2 et x 3 > 0

(figure 8.3). 301

Chapitre 8 • La pro­­gram­­ma­­tion linéaire

Nous allons voir que les contraintes 1) à 4) s’inter­­prètent éga­­le­­ment d’une manière très aisée. Par exemple, la contrainte 1) signi­­fie que, dans l’octant posi­­tif, les points dont la coor­­don­­née x1 excède 1 000 sont exclus de l’espace des solu­­tions. Or, x 1 5 1 000 repré­­sente un plan P1 ortho­­go­­nal à l’axe Οx1, le coupant au point x 1 5 1 000, x 2 5 0, x 3 5 0 ; toutes les solu­­tions éven­­tuelles du pro­­blème seront donc com­­prises, dans l’octant posi­­tif, entre le plan de base x2Ox3 et le plan x 1 5 1 000. On rai­­son­­nerait de même pour les contraintes 2) et 3). En fait, les plans :

P1 : x 1 5 1 000, P2 : x 2 5 500, P3 : x 3 5 1 500 déli­­mitent le paral­­lélé­­pi­­pède OABCDEFG, à l’inté­­rieur ou à la sur­­face duquel se trouvent la (ou les) solu­­tion(s) éven­­tuelle(s). D’autre part 3x 1 1 6x 2 1 2x 3 5 6 750 est aussi l’équa­­tion d’un plan P4, dans l’espace à trois dimen­­sions et la contrainte 4) signi­­fie que les points-solu­­tions doivent néces­­sai­­ re­­ment se trou­­ver aussi à l’inté­­rieur ou à la sur­­face du tétraèdre OA rB rCr, formé par les trois plans de coor­­don­­nées et le plan P4 ; le plan P4 coupe Ox1 en A r (2 250, 0, 0), Ox2 en B r (0, 1 125, 0) et Ox3 en Cr (0, 0, 3 375). Il est facile de voir que le plan P4 coupe la droite FG au point Ρ (1 000, 125, 1 500) ; en effet, FG est l’inter­­sec­­tion des plans : b

x 1 5 1 000

x 3 5 1 500 et P4 a comme équa­­tion :

3x 1 1 6x 2 1 2x 3 5 6 750 ; si l’on rem­­place, dans cette équa­­tion x1 et x3 par leur valeur, on obtient : d’où :

3 000 1 6x 2 1 3 000 5 6 750,

6x 2 5 750 et x 2 5 125. On éta­­bli­­rait de même que P4, coupe GD en Q (250, 500, 1 500) et GB en R (1 000, 500, 375). C’est le solide com­­mun au paral­­lélé­­pi­­pède OABCDEFG et au tétraèdre (pyra­­mide tri­­ an­­gu­­laire de som­­met O  : OA rB rCr) qui contien­­dra les solu­­tions ; on constate qu’il faut enle­­ver au paral­­lélé­­pi­­pède le (petit) tétraèdre GPQR. Fina­­le­­ment, pour satis­­faire aux contraintes, un point solu­­tion doit néces­­sai­­re­­ment se trou­­ver à l’inté­­rieur ou à la sur­­face du polyèdre OABCDEFPQR, noté d. Figure 8.3

302

8.1  Exemple de pro­­gramme linéaire – Aspect géo­­mé­­trique

Jus­­qu’à présent, nous ne nous sommes occu­­pés que des contraintes ; pour choi­­sir entre les solu­­tions que nous venons de déter­­mi­­ner celle (celles) qui est (sont) opti­­ male(s), nous devons chercher à maxi­­mi­­ser la fonc­­tion économique :

z 5 4x 1 1 12x 2 1 3x 3. Pour chaque point M ( x 1 5 j , x 2 5 h, x 3 5 u) de l’espace des solu­­tions, z a une valeur don­­née : z ( j , h, u ) 5 4 j 1 12 h 1 3 u. Par exemple, pour le point C (0, 500, 0), on a : z 5 ( 4 3 0 ) 1 ( 12 3 5 000 ) 1 ( 3 3 0 ) 5 6 000. Mais, les points qui, tel C, donnent à z la valeur 6 000 forment un plan P(z 56 000) d’équa­­tion :

4x 1 1 12x 2 1 3x 3 5 6 000. Repré­­sen­­tons ce plan, qui coupe les axes Ox1, Ox2 et Ox3 aux points I (1 500, 0, 0), C (0, 500, 0) et J (0, 0, 2 000) (figure 8.4). Son intersection avec le polyèdre d est le pentagone STUVC. Tout plan Pz, quelle que soit la valeur de z : z 5 4x 1 1 12x 2 1 3x 3, repré­­sente un plan paral­­lèle au plan P(z 56 000). La dis­­tance de l’ori­­gine à un plan Pz est : OH 5

z

© Dunod – Toute reproduction non autorisée est un délit.

"42 1 122 1 32 z 5 . 13 On a donc : z 5 13 # OH. Dès lors, pour maxi­­mi­­ser z, il suf­­fira de tra­­cer un plan paral­­lèle au plan ICJ, dont la dis­­tance à l’ori­­gine soit la plus grande pos­­sible et qui ait encore au moins un point com­­mun avec le polyèdre OABCDEFPQR. Il est facile de voir que ce plan est obtenu pour z 5 11 500.

Figure 8.4

303

Chapitre 8 • La pro­­gram­­ma­­tion linéaire

Il coupe Ox1 en α (2 875 ; 0 ; 0), Ox2 en β (0 ; 958,33 ; 0) et Ox3 en γ (0; 0; 3 833,33). Son unique point de contact avec le polyèdre des solu­­tions est le point Q (250, 500, 1 500), d’où la solu­­tion opti­­male : x *1 5 250 ; x *2 5 500 ; x *3 5 1 500 ; z * 5 11 500.

8.1.4 Rai­­son­­ne­­ment éco­­no­­mique On remarque qu’un rai­­son­­ne­­ment pure­­ment éco­­no­­mique suf­­fit, ici, à résoudre la ques­­tion. En effet, les ren­­de­­ments horaires peuvent aussi être expri­­més en uni­­tés moné­­taires ; ils sont res­­pec­­ti­­ve­­ment, pour les produits P1, P2 et P3 : 4 euros 3 50 5 200 euros/h, 12 euros 3 25 5 300 euros/h ; 3 euros 3 75 5 225 euros/h. Il appa­­raît donc que, si l’on désire maxi­­mi­­ser le pro­­fit, il faut fabri­­quer d’abord la plus grande quan­­tité pos­­sible du pro­­duit P2, puisqu’il four­­nit le pro­­fit horaire le plus élevé ; s’il reste du temps, on fabri­­quera ensuite des uni­­tés P3, dont le ren­­de­­ment moné­­taire vient au second rang ; en der­­nier lieu, si l’on n’a pas épuisé le temps de pro­­duc­­tion (45 h), il fau­­dra pro­­duire des uni­­tés de P1. En fait, ce rai­­son­­ne­­ment s’appuie sur le fait que, si l’on vou­­lait fabri­­quer les quan­­ti­­tés maximales des trois produits, on devrait faire fonc­­tion­­ner la machine pen­­ dant 60 heures. Comme on dis­­pose de 45 heures seule­­ment, il est indis­­pen­­sable de les employer au mieux. Il n’est pas dif­­fi­­cile de voir que la solu­­tion consiste à fabri­­quer toutes les uni­­ tés P2, ce qui occupe la machine durant 20 heures, puis toutes les uni­­tés de P3, ce qui occupe encore la machine pen­­dant 20 heures ; fina­­le­­ment, il ne reste plus que 5 heures pour fabri­­quer des uni­­tés de P1, ce qui cor­­res­­pon­­dant à une quan­­tité de 5 3 50 5 250 uni­­tés de P1. Le résul­­tat s’éta­­blit donc ainsi : uni­­tés de P1 : 250 ; uni­­tés de P2 : 500 ; uni­­tés de P3 : 1 500 ; profit total : ( 250 3 4 ) 1 ( 500 3 12 ) 1 ( 1 500 3 3 ) 5 11 500 euros/semaine. Mais la méthode que nous venons d’uti­­li­­ser n’a pas un carac­­tère géné­­ral. Notre but est d’intro­­duire un algo­­rithme per­­met­­tant la réso­­lu­­tion géné­­rale des pro­­grammes linéaires.

8.1.5 Dif­­fi­­cul­­tés de géné­­ra­­li­­sa­­tion Évi­­dem­­ment la résolu­­tion géo­­mé­­trique ne peut pas s’étendre au cas d’un nombre de variables supé­­rieur à trois, puisqu’il n’est pas pos­­sible d’effec­­tuer des repré­­sen­­ ta­­tions géo­­mé­­triques dans un espace à n dimen­­sions dès que n dépasse 3. D’autre part, même avec seulement 3 variables, le rai­­son­­ne­­ment éco­­no­­mique échoue lorsque le nombre de contraintes aug­­mente. Sup­­po­­sons seule­­ment que nous ajou­­tions ici une contrainte de capa­­cité de sto­­ckage : x 1 1 2x 2 1 2x 3 < 4 000

304

8.1  Exemple de pro­­gramme linéaire – Aspect géo­­mé­­trique

© Dunod – Toute reproduction non autorisée est un délit.

On peut encore espé­­rer, par des rai­­son­­ne­­ments du type « fausse hypo­­thèse », et des subs­­ti­­tutions mutuelles d’uni­­tés des dif­­fé­­rents pro­­duits, se tirer d’affaire et trou­­ver le nou­­vel opti­­mum (point W) que confir­­me­­rait la construc­­tion géo­­mé­­trique :

x1 5 375 ; x2 5 500 ; x3 5 2 625/2 ; z 5 11 437, 5. Notons qu’en W, la variable x3 n’a pas une valeur entière. En effet, la pré­­sence d’une nou­­velle contrainte conduit à tron­­quer le polyèdre des solu­­tions, qui se réduit alors au solide OABCDEFXWR et c’est le point W dont les coor­­don­­nées forment la solu­­tion opti­­male. Mais, avec m contraintes (m grand), il n’est plus pos­­sible de s’y retrou­­ver dans des rai­­son­­ne­­ments de ce type, qui deviennent par trop com­­bi­­na­­toires. Il faut donc tenter d’uti­­li­­ser les infor­­ma­­tions obte­­nues jus­­qu’ici pour tenter de géné­­ ra­­li­­ser le pro­­blème par une autre voie. Nous allons énon­­cer, dans le théo­­rème qui suit, une prop­­riété qui nous per­­met­­tra de carac­­té­­ri­­ser une solu­­tion opti­­male d’un pro­­gramme linéaire (PL). Théo­­rème.  Si l’ensemble des contraintes d’un pro­­gramme linéaire forme un polyèdre1 non vide, il existe (au moins) une solu­­tion opti­­male qui est un som­­met de ce polyèdre. Preuve.  Le polyèdre formé par les contraintes du PL étant sup­­posé non vide, le PL admet au moins une solu­­tion optimale. Nous allons sup­­po­­ser dans un pre­­mier temps, que cette solu­­tion est unique. Ci-dessous, z désigne un point du polyèdre (et non pas la fonction économique) La démons­­tra­­tion se fait par récur­­rence sur la dimen­­sion d du polyèdre. Si d 5 0, le polyèdre se réduit à un point qui est aussi un som­­met, le résul­­tat est donc véri­­fié. Sup­­po­­sons main­­te­­nant d . 0. Mon­­trons que le point repré­­sen­­ta­­tif de la solu­­tion ne peut se trou­­ver à l’inté­­rieur du polyèdre. Soit z un point situé à l’inté­­rieur du polyèdre et sup­­po­­sons que z cor­­res­­ponde à la solu­­tion opti­­male. Consi­­dé­­rons Pz l’hyper­­­plan pas­­sant par z et dont la direc­­tion est fixée par les coef­­fi­­cients de la fonc­­tion éco­­no­­ mique. Pz par­­tage le polyèdre en deux par­­ties non vides. Il existe alors un point z r à l’inté­­rieur de l’une de ces deux par­­ties, cor­­res­­pon­­dant à une solu­­tion réa­­li­­sable du PL dont la valeur sera stric­­te­­ment supé­­rieure à la valeur du point z. Cela contre­­dit le fait que z soit la solu­­tion opti­­male. La solu­­tion opti­­male est donc située sur une face du polyèdre. Une face d’un polyèdre de dimen­­sion d étant un polyèdre de dimen­­sion dr , d, en appli­­quant à nou­­veau le même rai­­son­­ne­­ment, nous avons mon­­tré le résul­­ tat, mais seulement lorsque la solu­­tion opti­­male est unique. ❑ Dans le cas géné­­ral où la solu­­tion opti­­male n’est pas néces­­sai­­re­­ment unique (cf le N.B. du cas de n = 2 variables), un rai­­son­­ne­­ment ana­­logue peut s’appli­­quer, dans lequel le point z r consi­­déré cor­­res­­pond à une solu­­tion de valeur supé­­rieure ou égale (mais non néces­­sai­­re­­ment stric­­te­­ment) à la valeur du point z. Le théo­­rème est alors démon­­tré. L’ensemble des contraintes d’un PL ne forme pas tou­­jours un polyèdre convexe. En effet, il peut arri­­ver que cet ensemble com­­porte des points à l’infini et donc forme un poly­­­tope convexe ouvert (un polyèdre étant un poly­­­tope fermé). Dans ce der­­nier 1. Par défi­­ni­­tion un polyèdre est fini (il ne pos­­sède pas de points à l’infini). 305

Chapitre 8 • La pro­­gram­­ma­­tion linéaire

cas, bien que des solu­­tions réa­­li­­sables du PL existent, il n’existe pas néces­­sai­­re­­ment de solu­­tion opti­­male (les solu­­tions opti­­males peuvent être reje­­tées à l’infini). Alors, si une solu­­tion opti­­male finie existe, on peut mon­­trer avec une démons­­tra­­tion simi­­laire à la pré­­cé­­dente qu’il existe une solu­­tion opti­­male située en un som­­met du poly­­­tope. Mais, dans les applications de R.O. ce cas est pratiquement exclu : les ressources, les temps, les capacités, etc. y sont en effet finis ! Dans d’autres cas, les contraintes capacités peuvent être contra­­dic­­toires : alors le polyèdre est vide et le PL est impos­­sible. On pour­­rait alors en déduire qu’il suf­­fit de déter­­mi­­ner les coor­­don­­nées de tous les som­­mets du polyèdre et de cal­­cu­­ler la valeur de la fonc­­tion éco­­no­­mique qui cor­­res­­ pond à cha­­cun d’eux : il res­­te­­rait à choi­­sir la plus grande de ces valeurs. Mais, s’il y a n variables et m contraintes, il y a n 1 m plans, dont les inter­­sec­­tions n à n sont au nombre de : (m 1 n)! C nn 1 m 5 , m!n! pour n 5 15 et m 5 10, on a 3 268 760 points d’inter­­sec­­tion et pour­­tant il ne s’agit encore que d’un petit pro­­gramme linéaire. Même avec de très puis­­sants ordi­­na­­teurs, d’aujourd’hui ou de demain, l’énu­­mé­­ra­­tion de tous les som­­mets est impra­­ti­­cable dès que n et m dépassent 20 : elle condui­­rait à des durées pro­­hi­­bi­­tives sur des P.L. de taille indus­­trielle, pou­­vant dépas­­ser des milliards d’années, ou plus !1 Il est exclu d’énu­­mé­­rer dans le com­­bi­­na­­toire ! L’algo­­rithme le plus connu pour la réso­­lu­­tion des pro­­grammes linéaires : l’algo­­ rithme du sim­­plexe, au lieu de cal­­cu­­ler la valeur de z pour tous les som­­mets (donc en les énumérant), la cal­­cule seule­­ment pour une suite de som­­mets telle que la valeur de z pour le nième ne soit pas infé­­rieure à la valeur z pour le ( n 2 1 ) ième. Ainsi, on est sûr de par­­ve­­nir à l’opti­­mum au bout d’un nombre de pas fini, puisque le nombre de som­­mets est fini, à condi­­tion que la valeur de la fonc­­tion éco­­no­­mique z aug­­mente stric­­te­­ment pour un cer­­tain nombre de ces pas. Rappelons que l’on maximise z. Les som­­mets qui consti­­tuent la suite envi­­sa­­gée sont adja­­cents, c’est-­­­à-dire le kième et le ( k 1 1 ) ième sont les extré­­mi­­tés d’une même arête ; il est donc néces­­saire que, quelque soit le som­­met de départ, on puisse tou­­jours trou­­ver, étant donné un som­­met auquel on est par­­venu, un som­­met adja­­cent dont les coor­­don­­nées donnent une valeur non infé­­rieure à z, tant qu’on n’est pas arrivé à l’opti­­mum. Or, ceci est pos­­sible, en rai­­son d’une prop­­riété des polyèdres engen­­drés par des contraintes linéaires : la « convexité ».

1. Les points d’inter­­sec­­tion ne sont pas tous des som­­mets du polyèdre des solu­­tions dans l’espace à n dimen­­sions ; autre­­ment dit, les coor­­don­­nées de cer­­tains de ces points ne véri­­fient pas une ou plu­­sieurs contraintes. Ainsi, le polyèdre que nous avons consi­­déré plus haut, comme exemple, ne compte que 10 som­­mets, alors qu’il existe @37 5 35 points d’inter­­sec­­tion des plans 3 à 3. Mais ce fait ne res­treint pas le pro­­blème, puisqu’il fau­­drait exa­­mi­­ner toutes les inter­­sec­­tions pour déter­­mi­­ ner les som­­mets « admis­­sibles » c’est-­­­à-dire véri­­fiant toutes les contraintes. 306

8.2  Algo­­rithme du sim­­plexe : méthode algé­­brique…

© Dunod – Toute reproduction non autorisée est un délit.

Consi­­dé­­rons d’abord (figure 8.5) une mon­­tagne en forme de pain de sucre. Par­­tant d’un point quel­­conque C, on peut tou­­jours atteindre le som­­ met S, pourvu qu’on monte tou­­jours (les iti­­né­­ raires com­­por­­tant des paliers hori­­zon­­taux limi­­tés sont auto­­ri­­sés). Ce n’est pas vrai pour une mon­­ tagne qui pré­­sen­­te­­rait un som­­met « para­­site » S r, Figure 8.5 Figure 8.6 auquel on ris­­que­­rait de par­­ve­­nir en appli­­quant la méthode pré­­cé­­dente (figure 8.6). Cela s’explique par le fait que la pre­­mière mon­­tagne est convexe (si l’on joint deux points quel­­conques de l’inté­­rieur ou de la sur­­ face, le segment de droite qui les joint est tout entier conte­­nu dans le volume), tan­­dis que la seconde ne l’est pas. Or, tout polyèdre (non vide) engen­­dré par des contraintes linéaires est nécessairement convexe et l’on peut trou­­ ver au moins un che­­min (figure 8.7) qui, à par­­tir de n’importe quel som­­met, conduise Figure 8.7 (de som­­met en som­­met adja­­cent) au som­­met don­­nant la valeur maximale à la fonc­­tion éco­­ no­­mique (autre­­ment dit : il existe tou­­jours au moins un som­­met adja­­cent, situé, par rap­­port à l’ori­­gine au-­­­delà du plan (ou sur le plan) de la fonc­­tion éco­­no­­mique cor­­res­­pon­­dant à un som­­met quel­­conque, à moins que ce der­­ nier ne soit l’opti­­mum). Ici c’est le che­­min CGHS. En bref, l’algo­­rithme du sim­­plexe a un fon­­de­­ment pure­­ment géo­­mé­­trique : il consiste, en dis­­po­­sant d’un point de départ, qui est un som­­met du polyèdre, sup­­posé connu, de pas­­ser lors de toute ité­­ra­­tion d’un som­­met M à un som­­met voi­­sin M r – c’est-­­­à-dire à décrire une arête du polyèdre – en lequel la valeur de la fonc­­tion éco­­no­­mique, est meilleure (ou au moins aussi bonne) qu’en M. Lors­­qu’on atteint un som­­met Q pour lequel aucun som­­met voi­­sin n’est meilleur, alors l’algo­­rithme s’arête : le som­­met Q est opti­­mal.

8.2 Algo­­rithme

du sim­­plexe : méthode algé­­brique,

méthode des tableaux

8.2.1 Méthode algé­­brique du sim­­plexe On com­­mence par rame­­ner le pro­­gramme linéaire (PL) à une forme « stan­­dard » pour laquelle toutes les contraintes sont en éga­­li­­tés et les seconds membres sont posi­­tifs (ceci moyen­­nant l’intro­­duc­­tion de nou­­velles variables, dites « variables d’écart »). Toutes les variables sont posi­­tives ou nulles. La fonc­­tion éco­­no­­mique est à maxi­­mi­­ ser (ce qui n’est pas restrictif car minimi­­ser une fonc­­tion équi­­vaut à maxi­­mi­­ser son oppo­­sée). Reportons ­­­nous au PL for­­mulé au 8.1.2. 307

Chapitre 8 • La pro­­gram­­ma­­tion linéaire

Ainsi, la contrainte x 1 < 1 000 signi­­fie que x1 étant infé­­rieur (resp : égal) à 1 000, il faut lui ajou­­ter une quan­­tité posi­­tive (resp. nulle) que nous note­­rons x4, pour ame­­ ner sa valeur à 1 000 :

x 1 < 1 000 équi­­vaut à :  x 1 1 x 4 5 1 000  et  x 4 > 01. La variable x4 est nom­­mée « variable d’écart » et repré­­sente, dans le contexte de l’exemple, l’écart à la satu­­ra­­tion du mar­­ché en pro­­duit P1. Les contraintes (1) à (5) peuvent s’écrire sous forme d’équa­­tions en intro­­dui­­sant des variables d’écart x4, x5, x6 et x7 : (1) x1 (2) (3) e (4) (5)

1 x4

x2

x3

3x 1 1 6x 2 1 2x 3 x1

,

x2

,

x3

5 1 000 1 x5

5 1 x6

500

5 1 500

1 x 7 5 6 750

, x4 , x5 , x6 , x7 >

0

(x7 repré­­sente 150 fois le nombre d’heures de tra­­vail par semaine non employées : l’ate­­lier est dis­­po­­nible 45 heures par semaine ; le fac­­teur 150 vient du fait que pour chas­­ser les déno­­mi­­na­­teurs de (4), on a mul­­ti­­plié chaque membre par 150 ; ainsi : 6 750 5 45 3 150 ) . Les variables d’écart2 ont une contri­­bu­­tion nulle à la fonc­­tion éco­­no­­mique z :

z 5 4x 1 1 12x 2 1 3x 3 1 0x 4 1 0x 5 1 0x 6 1 0x 7. En effet ne pas satu­­rer un mar­­ché, ou encore ne pas uti­­li­­ser des machines à 100 %, cela ne rap­­porte aucun béné­­fice. Pre­­nons comme solu­­tion ini­­tiale le som­­met O : x 1 5 0, x 2 5 0, x 3 5 0 (c’est la solu­­tion « du mois d’août » : on ne fabrique rien, on ne gagne rien ; mais cette solu­­ tion est admis­­sible au sens mathéma­­tique puisque les contraintes du PL sont véri­­ fiées). Les m 5 4 variables qui sont alors posi­­tives (autant que de contraintes) sont x4, x5, x6 et x7. On les nomme variables de base en O. De même, les variables nulles au som­­met Ο : x1, x2 et x3 sont nom­­mées variables hors-­­­base en Ο (on écarte de cet exposé intro­­duc­­tif les cas de dégé­­né­­res­­cence – dits de « seconde espèce » – où une variable de base serait nulle : tel serait le cas si, par exemple, quatre plans déli­­mi­­tant des contraintes étaient concou­­rants en un même som­­met. Ce cas sera traité en détail plus loin). On peut expri­­mer faci­­le­­ment les variables de base en Ο (qui forment l’ensemble @o) en fonc­­tion des variables hors base en O, de même que la fonc­­tion éco­­no­­mique z : 1. Si l’on avait affaire à une contrainte en sens inverse, par exemple 2x 1 1 x 2 1 5x 3 > 1 000, on retran­­cherait une variable d’écart (x8) pour obte­­nir 2x 1 1 x 2 1 5x 3 2 x 8 5 1 000 et x 8 > 0. 2. On aurait pu noter dif­­fé­­re­­ment les variables d’écart : x 1, x 2, x 3 et x 4. 308

8.2  Algo­­rithme du sim­­plexe : méthode algé­­brique…

x 4 5 1 000 2 x 1 x5 5

500

z 5

0

2

x2

2 x3 @0 = {x4, x5, x6, x7} O e x 6 5 1 500 x 7 5 6 700 2 3x 1 2 6x 2 2 2x 3 1 4x 1 1 12x 2 1 3x 3

L’exa­­men de z montre que, pour aug­­men­­ter sa valeur numé­­rique, il faut don­­ner à l’une des variables hors base, actuel­­le­­ment nulle au som­­met consi­­déré (O), une valeur posi­­tive. Puisque dans z, x2 a le coef­­fi­­cient (béné­­fice mar­­gi­­nal) le plus élevé, nous choi­­sis­­sons d’accroître x2 en posant x 2 5 u, où θ est un para­­mètre que nous pre­­nons posi­­tif crois­­sant ; nous gar­­dons, pour cette ité­­ra­­tion, les autres variables hors ­­­base nulles : x 1 5 x 3 5 0. Le sys­­tème devient : x 4 5 1 000 x 5 5 500 2

u

e x 6 5 1 500 x 7 5 6 750 2 6u z 5 0 1 12u Jus­­qu’à quelle valeur peut-­­­on accroître θ (c’est-­­­à-dire x2) ? Le béné­­fice glo­­bal z est pro­­por­­tion­­nel à θ : l’entre­­prise peut-­­­elle deve­­nir très riche en don­­nant à θ une valeur très éle­­vée ? En fait non, car il ne faut pas oublier que toutes les variables sont posi­­tives ou nulles, et doivent le demeu­­rer (« contraintes impli­­cites » ) : x 5 > 0 entraîne u < 500

© Dunod – Toute reproduction non autorisée est un délit.

x 7 > 0 entraîne u < 6 750/6 5 1 125 Ainsi, la plus grande valeur de θ qui res­­pecte la positivité de toutes les variables est u 5 500 (et non pas 1 125 qui ren­­drait x5 néga­­tif). Si l’on pose donc u 5 500, il vient numé­­ri­­que­­ment : x 4 5 1 000 x5 5

0

x1 5

0

x 2 5 500

e x 6 5 1 500 x 3 5 0 x 7 5 3 750 z 5 6 000 On reconnaît alors les coor­­don­­nées du som­­met C : le pro­­gramme de pro­­duc­­tion (0, 500, 0) qui engen­­dre un béné­­fice z 5 6 000 euros. On vient donc de trou­­ver un pro­­cédé algé­­brique qui nous a per­­mis de pas­­ser d’un som­­met (O) d’un polyèdre à un som­­met « voi­­sin » (C), en décri­­vant une arête de ce polyèdre : l’arête OC, en augmentant z. 309

Chapitre 8 • La pro­­gram­­ma­­tion linéaire

Pour pou­­voir encore pro­­gres­­ser il convient d’expri­­mer les variables de base en C, c’est-­­­à-dire celles qui sont posi­­tives en C, en fonc­­tion des variables hors-­­­base en C. Or, désor­­mais, x2 est deve­­nue posi­­tive et x5 s’est annu­­lée : on va donc fal­­loir pro­­cé­­der à un échange : la variable x2 entrant dans la base et la variable x5 sor­­tant de la base. Repar­­tons du sys­­tème asso­­cié au som­­met Ο et transformons-­­­le pour obte­­nir celui asso­­cié au som­­met C : x 4 5 1 000 2 x 1 500

x5 5

2

x2

2 x3 O e x 6 5 1 500 x 7 5 6 750 2 3x 1 2 6x 2 2 2x 3

(*)

0 1 4x 1 1 12x 2 1 3x 3

z 5

Nous allons expri­­mer les variables de bases en C (celles posi­­tives en ce som­­met) en fonc­­tion des variables hors base (celles nulles en C). On com­­mence, à par­­tir de l’équa­­tion de l’échange, qui est la rela­­tion qui a fixé la valeur maximale à don­­ner à la variable entrante (ici x2), à expri­­mer la variable entrante en fonc­­tion de la variable sor­­tante (ici x5) (et, éven­­tuel­­le­­ment, des autres variables hors base) ; il vient :

x 2 5 500 2 x 5. Puis cha­­cune des autres variables qui restent en base : x4, x6, x7, de même que z doit être expri­­mée en fonc­­tion des variables hors base en C, c’est-­­­à-dire : x1, x5 et x3. Pour ce faire, il suf­­fit dans l’expres­­sion de cha­­cune des autres variables de base en O de subs­­ti­­tuer à la variable x2 (la variable entrante) son expres­­sion issue de l’équa­­tion de l’échange (ici x 2 5 500 2 x 5 ) . Ici seules x7 et z sont concernées (x2 étant absente de l’expression de x4 et x6 ci-dessus). Il vient donc : x 4 5 1 000 2 x2 5 500 x 6 5 1 500

(*)

x1 2 2

x3

@c = {x4, x2, x6, x7} C g x 7 5 6 750 2 3x 1 2 2x 3 2 5 3 750 2 3x 1 2 2x 3 1

x5 6 ( 500 2 x 5 ) 6x 5

0 1 4x 1 1 3x 3 1 12 ( 500 2 x 5 ) 5 6 000 1 4x 1 1 3x 3 2 12x 5 On peut alors, par­­tant du sommet C (où le béné­­fice est de 6 000 euros), pra­­ti­­quer une nou­­velle ité­­ra­­tion afin d’accroître ce béné­­fice. La variable entrante est la variable hors base qui a le plus grand coef­­fi­­cient posi­­tif1 dans l’expres­­sion de z en fonc­­tion des variables hors base ; soit ici x1. On pose donc x 1 5 u où θ est posi­­tif crois­­sant, en gar­­dant x3 5 x5 5 0 (x3 et x5 étant nulles en C). Il vient : z

5

1. On pour­­rait se contenter de choi­­sir comme variable entrante, une variable hors-­­­base ayant un coef­­fi­­cient posi­­tif dans l’expres­­sion de z en fonc­­tion des variables hors-­­­base. 310

8.2  Algo­­rithme du sim­­plexe : méthode algé­­brique…

x 4 5 1 000 2 u x 2 5 500 e x 6 5 1 500 x 7 5 3 750 2 3u z 5 6 000 1 4u L’accroissement du bénéfice étant proportionnel à u, on a intérêt à prendre u le plus grand possible.

Pour res­­pec­­ter la positivité des variables, on prend au mieux u 5 1 000: x4 alors s’annule et sort de la base ; l’équa­­tion de l’échange est x 4 5 1 000 2 x 1 ; en subs­­ ti­­tuant dans les autres équa­­tions du sys­­tème asso­­cié au som­­met C, à x1 la valeur 1 000 2 x 4, il vient, avec @B = {x1, x2, x6, x7} : x1 x2

5 5

x6

5

B g x7

5 5

z

5 5

1 000

x4

2

500

1 500

3 750

750

6 000

10 000

2 2 2 1 1

x3

2x 3 2x 3 3x 3

3x 3

2 1 1 2

3 ( 1 000 2 x 4 ) 3x 4

4 ( 1 000 2 x 4 ) 4x 4

2

x5

1

6x 5

1 2 2

6x 5

12x 5

(*)

12x 5

On reconnaît en effet le sys­­tème asso­­cié au som­­met Β : l’expres­­sion des variables de base en Β : x1, x2, x6, x7, en fonc­­tion des variables hors base en Β : x3, x4, x5.

© Dunod – Toute reproduction non autorisée est un délit.

Puisque z, ainsi exprimé, com­­porte encore un coef­­fi­­cient posi­­tif : 3, sur une variable hors base (x3), on peut pra­­ti­­quer une nou­­velle ité­­ra­­tion ; on pose x3 5 u positif et crois­­sant, et x 4 5 x 5 5 0 ; il vient : x 1 5 1 000 x 2 5 500 e x 6 5 1 500 2 u x 7 5 750 2 2u z 5 10 000 1 3u On prend u 5 375 : en effet la variable x7 est la pre­­mière à s’annu­­ler quand u croît ; x7 est donc la variable sor­­tante ; l’équa­­tion de l’échange est : x 7 5 750 2 2x 3 1 3x 4 1 6x 5 ; 3 1 d’où : x 3 5 375 1 x 4 1 3x 5 2 x 7. 2 2 En subs­­ti­­tuant à x3 cette valeur dans les autres équa­­tions du sys­­tème asso­­cié à B, il vient, avec @R = {x1, x2, x6, x3} : 311

Chapitre 8 • La pro­­gram­­ma­­tion linéaire

Rh

x1 5

1 000

x2 5

500

x6 5

1 125

x3 5

375

x4

2

2 x5 3 1 2 x 4 2 3x 5 1 x7 (*) 2 2 1

3 1 x 4 1 3x 5 2 x7 2 2

3 1 x 4 2 3x 5 2 x7 2 2 On reconnaît le som­­met R (1 000, 500, 375) où le béné­­fice vaut : 11 125 euros. Nou­­velle (et der­­nière) ité­­ra­­tion : la variable hors base x4 ayant dans z un coef­­ fi­­cient posi­­tif (1/2), entre en base : on pose x 4 5 u, posi­­tif crois­­sant et on garde x 5 5 x 7 5 0 ; il vient : 5 11 125

z

1

3 3 1 u, x 3 5 375 1 u, z 5 11 125 1 u. 2 2 2 3 La variable sor­­tante est donc x6 (avec u 5 1 125^ a b 5 750 ) . 2 3 1 L’équa­­tion de l’échange est : x 6 5 1 125 2 x 4 2 3x 5 1 x 7 ; d’où, en l’inversant : 2 2 3 1 2 1 x 4 5 1 125 2 3x 5 2 x 6 1 x 7  et donc : x 4 5 750 2 2x 5 2 x 6 1 x 7. 3 3 2 2 En subs­­ti­­tuant à x4 cette valeur dans les autres équa­­tions du sys­­tème asso­­cié à R, il vient, avec @Q = {x1, x2, x3, x4}. 2 1 x6 2 x7 x1 5 250 1 2x 5 1 3 3 x2 5 500 2 x 5 x 1 5 1 000 2 u, x 2 5 500, x 6 5 1 125 2

Qh

x3 5

1 500

x4 5

750

x6 2 1 x6 1 x7 2 3 3

2 2

2x 5

1 4 x6 2 x7 3 3 On reconnaît le som­­met Q : x 1 5 250, x 2 5 500, x 3 5 1 500 avec un béné­­fice de z 5 11 500 euros. Le som­­met est opti­­mal : il n’est pas pos­­sible d’amé­­lio­­rer z par le pro­­cédé ci-­­­dessus car tous les coef­­fi­­cients des variables (hors base) figu­­rant dans z sont néga­­tifs ; on peut alors démon­­trer, en uti­­li­­sant un argu­­ment de convexité et de dualité que, dans ces condi­­tions, l’opti­­mum est effec­­ti­­ve­­ment atteint : nous y revien­­ drons plus loin dans le para­­graphe 8.7 consacré à la dua­­lité. Sys­­té­­ma­­ti­­sons la pro­­cé­­dure ci-­­­dessus employée dans l’algo­­rithme du sim­­plexe. Nous avons vu que l’algo­­rithme consiste à pro­­gres­­ser d’un som­­met ini­­tial vers un som­­met adja­­cent en ayant soin de ne pas dimi­­nuer la valeur de la fonc­­tion éco­­ z

312

5 11 500

2

4x 5 2

8.2  Algo­­rithme du sim­­plexe : méthode algé­­brique…

no­­mique ; d’autre part, nous savons aussi que toutes les variables (prin­­ci­­pales ou d’écart) doivent demeu­­rer non-­­­négatives. Nous repar­­tons ci-­­­dessous du som­­met ini­­ tial O, et présentons sous forme de tableaux le système associé à O. i

j

4 Sommet O

5 6 7 ∆j

A

1

A

2

A

3

A

4

A

5

A

6

A

7



1 0

0

0

1

0

0

0

1 000

1

0

0

1

0

0

500

0

1

0

0

1

0

1 500

3

0 6

2

0

0

0

1

6 750

4

12

3

0

0

0

0

z0

© Dunod – Toute reproduction non autorisée est un délit.

Repre­­nons, dans ces condi­­tions, la repré­­sen­­ta­­tion matricielle ini­­tiale et notons les colonnes par un indice j 5 1, 2, c, 7 , de manière que les vecteurs-­­­colonnes puissent être dénom­­més A 1, A 2, c, A 7 : notons aussi b le vec­­teur second membre. Ins­­cri­­vons main­­te­­nant, à gauche et face à la valeur qu’elle a dans la solu­­tion (base) ini­­tiale, l’indice i de la variable xi (ici, au départ : x4 5 1 000, x5 5 500, x6 5 1 500, x7 5 6 750 ; les indices i sont donc : 4, 5, 6 et 7) ; ces indices i ser­­vi­­ront à dési­­gner les lignes de la matrice ; ils sont asso­­ciés aux variables de base : la colonne tout à gauche est donc un descriptif de la base. Lors de toute ité­­ra­­tion, l’élé­­ment de la matrice situé à l’inter­­sec­­tion d’une ligne i et d’une colonne j sera dési­­gné par aij ; l’élé­­ment de la colonne b situé sur la ligne i sera sim­­ple­­ment dési­­gné par bi. Ini­­tia­­le­­ment, la colonne b coïn­­cide avec la colonne des seconds membres des contraintes, notée tra­­di­­tion­­nel­­le­­ment b comme ci-­­­dessus. Enfin, écrivons séparément la ligne de la fonc­­tion éco­­no­­mique : z 5 4x 1 1 12x 2 1 3x 3, dont les coef­­fi­­cients seront écrits dans la ligne du bas ; le coefficient en colonne Aj sera noté dans la suite : Dj. Lors de toute itération, z sera exprimé uniquement en fonction des variables hors base ; par suite Dj = 0 si xj est une variable de base NB. Sur la ligne des Dj dans les colonnes Α4, Α5, Α6, Α7, on a écrit des 0, car la fonc­­ tion éco­­no­­mique peut s’écrire : 4x 1 1 12x 2 1 3x 3 1 0x 4 1 0x 5 1 0x 6 1 0x 7 5 z 2 0, car les variables d’écart sont de pro­­fit nul. De plus, ini­­tia­­le­­ment, z 5 0. Les for­­mules du chan­­ge­­ment(1) de coor­­don­­nées, réa­­lisé par la sor­­tie d’un vec­­teur As de la base et l’entrée d’un vec­­teur Ae sont les sui­­vantes (autrement dit : xs est la variable sortante et xe, la variable entrante) : bs •  nou­­velle valeur de la fonc­­tion éco­­no­­mique : zr 5 z 1 ase # De , z étant l’ancienne valeur ; le coefficient ase est nommé « pivot ». (1)  Le lecteur pourra préférer les règles pratiques de transformation : p. 317. 313

Chapitre 8 • La pro­­gram­­ma­­tion linéaire

•  nou­­velles valeurs des variables de base (l’élément de la ligne k dans le vec­­teur second membre b est la valeur de xk) : brk 5 bk 2 ake

bs ase

(k 2 s)

et brs 5

bs ase

(valeur de la variable entrante xe)

bk (resp. bs) étant l’ancienne valeur ; •  nou­­velle valeur de l’élé­­ment de la ligne k et de la colonne A ( k 2 s ) : as, ark, 5 ak, 2 ake , ase ak étant l’ancienne valeur ; •  nou­­velle valeur de l’élé­­ment de la ligne s de la colonne A : as, ars, 5 ase , as étant l’ancienne valeur : on divise la ligne s, celle du pivot, par le pivot : ase qui est nécessairement positif, cf le second critère de Dantzig. Dans ces condi­­tions, comme à chaque pas on désire que zr soit supérieur (ou égal) bs à z, il fau­­dra prendre Δe posi­­tif  ( ase sera posi­­tif, car bs . 0 est posi­­tif ou  – excep­­ tion­­nel­­le­­ment –  nul et le pivot ase sera pris posi­­tif). Heuristiquement, on a inté­­rêt à

prendre De . 0 le plus élevé pos­­sible. C’est pour­­quoi le pre­­mier cri­­tère de Dantzig s’énonce ainsi : « Pour déter­­mi­­ner la colonne Ae qui doit entrer dans la base, on choi­­sit celle qui com­­porte le Dj posi­­tif le plus grand ». Si tous les Dj sont néga­­tifs ou nuls: fin, l’opti­­ mum est atteint (prop­­riété admise ici). Le pre­­mier cri­­tère de Dantzig vise à minimi­­ser le nombre d’ité­­ra­­tions effec­­tuées au cours du dérou­­le­­ment de l’algo­­rithme. Mais ceci n’est pas tou­­jours le cas, il existe même des exemples, certes rares, pour les­­quels l’uti­­li­­sation de ce cri­­tère peut être par­­ti­­cu­­liè­­re­­ment désas­­treuse et l’algo­­rithme ne jamais se ter­­mi­­ner. C’est pour­­quoi d’autres cri­­tères ont été don­­nés évi­­tant ceci. Citons le cri­­tère de Bland : pour déter­­ mi­­ner la colonne Ae, qui doit entrer dans la base, on choi­­sit celle pour laquelle l’indice j est le plus petit, parmi celles pour les­­quelles Dj . 0. Bland a mon­­tré que l’uti­­li­­sation de ce cri­­tère assu­­rait la ter­­mi­­nai­­son de l’algo­­rithme. En pra­­tique, des stra­­té­­gies mixtes com­­bi­­nant les deux cri­­tères de Bland et Dantzig, ou bien encore d’autres stra­­té­­gies basées sur des tirages aléa­­toires peuvent être uti­­li­­sées.

On veut encore que, pour tout k, brk soit non-­­­négatif : bs bs brk 5 bk 2 ake # ase > 0. Cela s’écrit aussi : bk > ake # ase . 314

8.2  Algo­­rithme du sim­­plexe : méthode algé­­brique…

bs bs Si l’on prend ase posi­­tif, alors βk, qui est posi­­tif, est sûre­­ment plus grand que ake # ase

lorsque ake est néga­­tif. Au contraire, lorsque ake est posi­­tif, on peut divi­­ser les deux membres de l’inéga­­lité par ake et l’on a : bs ase




0

x1 ,

1 x2

5 16 1 x3 5 3

x2 , x1 , x2 , x3 >

0

Les tableaux suc­­ces­­sifs condui­­sant à la solu­­tion se pré­­sentent de la manière sui­­vante : (les suivre en parallèle avec la figure 8.8) : ci i

1 2 1 2 3

(0)  b

ci i

1 2 1 2 3

(1)

0 1

3 2 1 0 0

4

0 1

0 2 1 0 3

13

0 1 0

16

0 2

7

0 3 1 0 0 0 1 Sommet j 6 4 0 0 0 O

3

0 2 0 1 3 1 0 0 0 1

0 2

3

s



© Dunod – Toute reproduction non autorisée est un délit.



ci i

e 1 2 1 2 3

0 1

0 0 1 1 6

4 2

0 1 0

1 3  2 2

6 1 1 0 0 0 1 Sommet j 0 0 0 2 0 C



s





s

6 1

z 0

Sommet j 0 4 0 0 6 D ↑

(2)

ci i

6

0 3

7 2

4 2



3 z  32

6 1

e 1 2 1 2 1 1 0 0  6 6 1 3 0 1 4 4 1 1 1 0 6 6

3 z  18

3

(3)

1

1

0

5

0

2

Sommet j 0 0 0 2 0 B

z  32

e

321

Chapitre 8 • La pro­­gram­­ma­­tion linéaire

N.B.  Lors de chaque itération (pas), on a cerclé le pivot. Sur le troi­­sième tableau, on constate que D3 5 0, alors que la colonne 3 est hors base. Bien qu’on ait atteint la valeur opti­­male de la fonc­­tion éco­­no­­mique, si l’on consi­­dère que D3 est le plus grand des Δj non-­­­négatifs cor­­res­­pon­­dant aux variables hors base (troi­­ sième tableau), on peut faire entrer la variable x 3 dans la base, d’où sort la variable x 1, et l’on a alors D1 5 0 (qua­­trième tableau). Ce fait tra­­duit que la fonc­­tion éco­­no­­ mique z 5 6x 1 1 4x 2 est paral­­lèle à l’hyper­­­ plan (ici, la droite) limi­­tant le demi-­­­plan Figure 8.8 déter­­miné par la contrainte 3x 1 1 2x 2 < 16 ; les som­­mets Β et C sont tous deux opti­­maux. L’enve­­loppe convexe de ces som­­mets, c’est­­­à-dire le seg­­ment BC, est telle que cha­­cun de ses points donne à z la valeur opti­­male 32. C’est le cas dit de « dégé­­né­­res­­cence de pre­­mière espèce ».

8.3.2 Dégé­­né­­res­­cence de deuxième espèce Pour cer­­tains pro­­grammes linéaires, une (ou plu­­sieurs) variable(s) de la base opti­­ male peut être nulle. Voici un exemple détaillé : ajou­­tons au pro­­gramme pré­­cé­­dent la contrainte : x 1 1 4x 2 < 22 soit x 1 1 4x 2 1 x 4 5 22

et pre­­nons comme fonc­­tion éco­­no­­mique : 3 max 4 z 5 x 1 1 x 2  (au lieu de 3 max 4 z 5 6x1 1 4x2)

Il en résulte la figure 8.9. Trai­­tons néan­­moins le pro­­gramme par la méthode des tableaux. On obtient les résul­­tats sui­­vants, ayant choisi arbi­­trai­­re­­ment, au deuxième tableau, de faire sor­­tir la variable x 4 de la base (on avait le choix entre x2 et x 4). ci

j1 2 1 2 3 4

i

ci

0 1

3 2 1 0 0 0

4

1 2

0 2

3 2 0 1 0 0

16

0 2

6

0 3

1 0 0 0 1 0

3

0 3

0 4

1 4 0 0 0 1

22

0 4

Sommet O

1 1 0 0 0 0

s





s

i

i

j 1

3

4

i

i/ ie

1/ 2

0

0

0

2

0 ) pour i 5 1, 2, c, m ; s F.S. c a ij j n j51 c x j > 0 pour j 5 1, 2, , n ; max z 5 a cjx j f n

j51

Notons A 5 3 aij 4 la matrice m 3 n des coef­­fi­­cients des pre­­miers membres des contraintes expli­­cites ; b, le vecteur-­­­colonne m 3 1 des seconds membres de ces contraintes ; c, le vecteur-­­­ligne 1 3 n des coef­­fi­­cients de la fonc­­tion éco­­no­­mique ; x, le vecteur-­­­colonne n 3 1 des variables du PL. La forme stan­­dard s’écrit alors matriciellement : F.S. U A # x 5 b ( où b > 0 ) ; x > 0 ; max z 5 c # x V . On remar­­quera que le résultat du pro­­duit c # x est une matrice de dimen­­sions 1 3 1, donc com­­por­­tant un élé­­ment unique, égal à z. En dési­­gnant par Aj la jième colonne de la matrice A ( j 5 1, 2, c, n ) , le sys­­tème des contraintes expli­­cites peut s’écrire sous forme d’une com­­bi­­nai­­son linéaire des vecteurs-­­­colonne extraits de A : x1 # A1 1 x2 # A2 1 c1 xn # An 5 b. Indi­­quons main­­te­­nant com­­ment rame­­ner tout PL à la forme stan­­dard : •  si l’objec­­tif du PL est de minimi­­ser z, on le rem­­place par maxi­­mi­­ser z r, où z r 5 2z ; •  si le signe d’une variable n’est pas connu à l’avance : par exemple pour x j > 2273, on pose x jr 5 x j 1 273 et l’on aura : x jr > 0. Mais si l’on ne connaît pas de borne infé­­rieure pour xj (comme ci-­­­dessus), on peut poser x j 5 x jr 2 xsj avec x jr et xsj posi­­ tifs ou nuls. En effet tout nombre réel xj peut être repré­­senté comme la dif­­fé­­rence de deux nombres posi­­tifs ou nuls ; 324

8.4  Aspect matriciel

•  si une contrainte i com­­porte un second membre néga­­tif : bi , 0, on mul­­ti­­plie par 21 chaque membre de cette contrainte ; •  si cer­­taines contraintes sont ini­­tia­­le­­ment en inéga­­lité, on peut les rame­­ner à des éga­­li­­tés par intro­­duc­­tion de nou­­velles variables, nom­­mées « variables d’écart » . Ainsi 3x 1 1 4x 2 < 5 équi­­vaut à : 3x 1 1 4x 2 1 x e 5 5 et x e > 0.

De même, 2x 1 1 7x 2 > 11 équi­­vaut à : 2x 1 1 7x 2 2 x er 5 11 et x er > 0. Donc, dans le cas de contraintes a aijx j < bi, on ajoute une variable d’écart, tan­­ dis que dans le cas inverse : a aijx j > bi, on retranche une variable d’écart (après avoir rendu bi positif, si nécessaire). Obser­­vons que ces variables d’écart, tout comme les variables « prin­­ci­­pales » (c’est-­­­à-dire les variables d’ori­­gine, intro­­duites pour for­­ mu­­ler le pro­­blème) sont toutes posi­­tives ou nulles. Ainsi, lors de la réso­­lu­­tion, on ne fera pas de dis­­tinction entre les variables d’écart et les variables prin­­ci­­pales. Nous ferons les deux hypo­­thèses sui­­vantes sur la forme stan­­dard FS : 1)  le nombre de lignes de A (contraintes expli­­cites) est infé­­rieur au nombre de colonnes de A (qui est égal au nombre de variables) : m , n. Remar­­quons que, si les contraintes expli­­cites du PL étaient ini­­tia­­le­­ment des inéga­­li­­ tés, on intro­­duit une variable d’écart dans cha­­cune, soit en tout m variables d’écart. Alors le nombre total de variables devient nécessairement supé­­rieur à m. Cette hypo­­ thèse est donc, en pra­­tique, peu limi­­ta­­tive. 2)  Nous sup­­po­­se­­rons que l’on peut extraire de A, m colonnes dif­­fé­­rentes qui, regrou­­pées dans une matrice car­­rée B, sont telles que le déter­­mi­­nant de B n’est pas nul (ce qui équi­­vaut à dire que les m vecteurs-­­­colonnes ainsi extraits, sont indé­­pen­­ dants ; on dit alors que le « rang » de la matrice A est égal à m). Remar­­quons à nou­­veau que si les contraintes expli­­cites du PL étaient ini­­tia­­le­­ment des inéga­­li­­tés, les m colonnes de A asso­­ciées aux variables d’écart forment la matrice m3m: 61 0 0 c 0 0

© Dunod – Toute reproduction non autorisée est un délit.

• 0

61 0

0

61

c c

0

0 µ

c f ( ( ( 0 0 0 c 61 Cette matrice dia­­go­­nale a pour déter­­mi­­nant le pro­­duit des élé­­ments dia­­go­­naux, qui vaut donc 11 ou 21 : il est donc non nul. À nou­­veau, cette hypo­­thèse est, en pra­­tique, peu res­tric­­tive. Dans ces condi­­tions, le sys­­tème linéaire A # x 5 b de m équa­­tions à n inconnues admet au moins une solu­­tion (et, en géné­­ral, une infi­­nité). C’est un sys­­tème « sous déter­­miné » com­­por­­tant plus d’inconnues que d’équa­­tions. Notons que si l’on connaît deux solu­­tions dif­­fé­­rentes xr et xs de ce sys­­tème, alors tout x de la forme x 5 l # xr 1 ( 1 2 l ) # xs, où 0 < l < 1, est aussi une solu­­tion du sys­­tème ; x est nommé : “com­­bi­­nai­­son linéaire convexe” de xr et de xs. 325

Chapitre 8 • La pro­­gram­­ma­­tion linéaire

Base Par défi­­ni­­tion, une « base » d’un PL est un ensemble de m vecteurs-­­­colonne indé­­pen­­ dants, extraits de A. Ainsi si l’on découpe A en colonne : A  A1

A2

A3

...

An

et que l’on ait extrait de A les m colonnes d’indices j1, j2, c, jm , à la base B est asso­­ ciée une matrice car­­rée m 3 m, de déter­­mi­­nant non nul :

xj1



B

Aj1

...

Aj2

Ajm

xB 5 D



xj2 ( xjm

T

Les « variables de base » sont les variables x j1, x j2, c, x jm asso­­ciées aux colonnes consti­­tuant la base ; on note xB le vec­­teur colonne des m variables de base. Les n 2 m autres variables sont dites « variables hors base » et l’on note xN leur vecteur-­­­colonne.

Réécri­­ture du pro­­gramme linéaire asso­­ciée à une base B Par per­­mu­­ta­­tion des colonnes de A, on place en tête (calées à gauche) les colonnes de base qui forment la sous-matrice B, puis on place, immé­­dia­­te­­ment à droite de celles-­­­ci, les colonnes hors base (qui forment la sous-­­­matrice N ). On per­­mute dans le même ordre les variables ; ainsi A 5 ( B, N ) xB et x 5 a x b : N

...

Aj2

...

Ajm

 

A  Aj1

B

N

Alors le sys­­tème des contraintes expli­­cites A # x 5 b, cal­­culé par blocs, devient : ( B, N ) # a

xB # # xN b 5 b, soit B xB 1 N xN 5 b.

Don­­nons un exemple de cette réécri­­ture (avec m 5 2 contraintes) : e 326

2x 1 1 3x 2 2 x 3 1 x 4 1 3x 5 5 12 7x 1 2 x 2 1 2x 3 1 5x 4 1 x 5 5 6

8.4  Aspect matriciel

soit :

A1

A2

A3

A4

A5

2

3

1

1

3

7

1

2

5

1

x1 x2 x3  12 soit A . x  b. 6 x4 x5

.

Les m 5 2 colonnes A2 et A5 forment une base B 5 ( A2, A5 ) 5 a

déter­­mi­­nant de cette matrice n’est pas nul : dét B 5 6. La réécri­­ture four­­nit : A2

A5

A1

A3

A4

3

3

2

1

1

1

1

7

2

5

B soit :

3 3 1 1

.

x2  2 1 1 x5 7 2 5

N

.

x2

.

x5 x1 x3 x4

3 3

21 1

x

b puisque le

B

x

N

 12 6

b

x1 12 x3  c’est-à-dire B. xB N . xN  b. 6 x4

Solu­­tion de base

Posons xN 5 0, il reste alors B # xB 5 b, qui est un sys­­tème de m équa­­tions à m inconnues, de déter­­mi­­nant non nul (sys­­tème de Cra­­mer), admet­­tant une solu­­tion unique :

© Dunod – Toute reproduction non autorisée est un délit.

xB 5 B 2 1 # b •  si xB véri­­fie aussi les contraintes « impli­­cites » de positivité, c’est-­­­à-dire si xB est posi­­tif ou nul, xB est alors une « solu­­tion de base admis­­sible ». Repre­­nons l’exemple ci-­­­dessus ; pour la base B 5 ( A2, A5 ) , on obtient la solu­­tion de base asso­­ciée en posant x 1 5 x 3 5 x 4 5 0, soit xN 5 0. Il reste le sys­­tème :

1 or B 1  1 or B 1  6 6

1 3 11 3 3 1 3

3 3 1 1 1 x , d’où : x22  1 , d’où : x5  6 x5 6

3 31 1 1 11 1

. . 3 3 3 3

x2  12 , 6 , xx52  12 6 x5

. .

12  1  x : on n’a pas xB  0 : B 12 6  1 5  xB : on n’a pas xB  0 : 6 5

cette solu­­tion de base n’est pas admis­­sible car x2 5 21 , 0. Par contre avec la base Br 5 ( A2, A3 ) on obtient une solu­­tion de base admis­­sible car xB 5 6 , puisque ici 6 on a : xB > 0. 327

Chapitre 8 • La pro­­gram­­ma­­tion linéaire

D’une manière géné­­rale une « solu­­tion admis­­sible » (on dit aussi « réa­­li­­sable » ou même « fai­­sable » : mau­­vaise re-­­­traduction de l’anglais « feasible ») est une solu­­tion (pas néces­­sai­­re­­ment de base) du sys­­tème : A # x 5 b, avec x > 0. Le théo­­rème sui­­vant (que nous admet­­tons sans démons­­tra­­tion) pré­­cise la cor­­res­­pon­­ dance entre les som­­mets du polyèdre  et les solu­­tions de base admis­­sibles : il fait le lien entre l’aspect géo­­mé­­trique et l’aspect algé­­brique en pro­­gram­­ma­­tion linéaire. Théo­­rème.  À toute solu­­tion de base admis­­sible cor­­res­­pond un som­­met du polyèdre des solu­­tions admis­­sibles et un seul. La réci­­proque n’est vraie qu’en l’absence de dégé­­né­­res­­cence de deuxième espèce, c’est-­­­à-dire si xB est stric­­te­­ment posi­­tif (aucune variable de base nulle). •  À titre d’exemple, repre­­nons le pro­­blème res­treint de l’ate­­lier (deux pro­­duits, 35 heures de tra­­vail heb­­do­­ma­­daire) c

5 1 000

1 x3

x1 1 x2

x 1 1 2x 2

1 x4

5

500

1 x 5 5 1 750

où x3, x4 et x5 sont des variables d’écart.

Le lec­­teur véri­­fiera que : 3 4 5 1 0 0

1 000 3

0 0 1

1 750 5

– au som­­met Ο cor­­res­­pond la base BO 5 C 0 1 0 S et xBO 5 C 500 S 4 2 3 5 0 1 0

500

2 0 1

750

2

– au som­­met A cor­­res­­pond la base BA 5 C 1 0 0 S et xBA 5 C 1 000 S 3

328

5

8.4  Aspect matriciel

1 2 3 1 0 1

750 1

– au som­­met F cor­­res­­pond la base BF 5 C 0 1 0 S et xBF 5 C 500 S 2 1 2 0 1 2 4 1 0 0

250 3 1 000 1

– au som­­met Ε cor­­res­­pond la base BE 5 C 0 1 1 S et xBE 5 C 375 S 2 1 2 0 1 4 5 1 0 0

1 000 1

1 0 1

750

125

4

– au som­­met C cor­­res­­pond la base BC 5 C 0 1 0 S et xBC 5 C 500 S 4 5

Remar­­quons qu’aux som­­mets G, H et I (I étant l’inter­­sec­­tion de la droite FE avec l’axe Ox1) qui sont à l’extérieur du domaine admissible d cor­­res­­pondent des bases non admis­­ sibles c’est-­­­à-dire pour les­­quelles cer­­taines variables de bases seraient néga­­tives :





© Dunod – Toute reproduction non autorisée est un délit.



1 2 5 1 0 0

1 000 1

1 2 1

2250

5

2 3 4 0 1 0

875

2

1 0 0

2375

BG 5 C 0 1 0 S et xB G 5 C 500 S 2

BH 5 C 2 0 1 S et xB H 5 C 1 000 S 3 4

1 3 4 1 1 0

1 750 1

1 0 0

500

BI 5 C 0 0 1 S et xB I 5 C 2750 S 3 4

On peut aussi illus­­trer le cas de dégé­­né­­res­­cence de deuxième espèce en se repor­­tant à l’exemple du para­­graphe 8.3.2 et la Fig. 8.9 : au som­­met B, par lequel passent trois droites, on peut asso­­cier trois bases dif­­fé­­rentes (don­­nées ci-­­­dessous par la liste des variables de base) : b1 5 5 x 1, x 2, x 3, x 1 6 , b2 5 5 x 1, x 2, x 3, x 4 6 et b3 5 5 x 1, x 2, x 3, x 2 6 .

8.4.2 Fonc­­tion éco­­no­­mique

Matriciellement z peut s’écrire z 5 c # x, où c est le vecteur-­­­ligne 1 3 n des coef­­fi­­ cients (ini­­tiaux) de la fonc­­tion éco­­no­­mique. Rap­­pe­­lons que les coef­­fi­­cients ini­­tiaux des variables d’écart sont nuls, et que x est le vecteur-­­­colonne n 3 1 des variables du PL. 329

Chapitre 8 • La pro­­gram­­ma­­tion linéaire

Dans le pro­­blème de l’ate­­lier (3 pro­­duits, 45 h/semaine), on a : c 5 [4,12, 3, 0, 0, 0, 0] et xT 5 3 x1, x2, x3, x4, x5, x6, x7 4 T. On peut aussi sépa­­ rer, dans le vec­­teur c, les coef­­fi­­cients asso­­ciés aux variables de base qui forment le sous vecteur-­­­ligne 1 3 m noté cB, des autres coef­­fi­­cients qui, eux, sont asso­­ciés aux variables hors-­­­base et forment le sous vecteur-­­­colonne 1 3 ( n 2 m ) , notés cN. xB Ainsi z 5 c # x 5 ( cB, cN ) # a x b 5 cB # xB 1 cN # xN. N

Pour expri­­mer z seule­­ment en fonc­­tion des variables hors-­­­base, il suf­­fit de tirer l’expres­­sion de xB à par­­tir du sys­­tème : B # xB 1 N # xN 5 b. En mul­­ti­­pliant à gauche par B21 chaque membre, il vient : B 2 1 # B # xB 1 B 2 1 # N # xN 5 B 2 1 # b, d’où xB 5 B 2 1 # b 2 B 2 1 # N # xN, qui est la forme matricielle de l’expres­­sion des variables de base en fonc­­tion des variables hors-­­­base. Subs­­ti­­tuons alors à xB cette expres­­sion dans la rela­­tion z 5 cB # xB 1 cN # xN. Il vient : z 5 cB # ( B21 # b 2 B21 # N # xN ) 1 cN # xN, soit : z 5 cB # B21 # b 1 ( cN 2 cB # B21 # N ) # xN 5 ,zB 1 DN # xN.

La valeur numé­­rique ,zB de la fonc­­tion éco­­no­­mique pour la solu­­tion de base xB s’obtient en fai­­sant xN 5 0 ; elle est donc : ,zB 5 cB # B 2 1 # b. Puisque z est désor­­mais exprimé seule­­ment en fonc­­tion des variables hors-­­­base, le coef­­fi­­cient de toute variable hors-­­­base xj, dans cette der­­nière expres­­sion de z, n’est autre que le coef­­fi­­cient noté plus haut Δj. Ainsi le vec­­teur 1 3 ( n 2 m ) des Δj, noté DN, est : DN 5 cN 2 cB # B21 # N soit, com­­po­­sante par com­­po­­sante : Dj 5 cj 2 cB # ( B21 # N ) j où y j 5 ( B21 # N ) j est la colonne asso­­ciée à la variable hors-­­­base xj, dans la matrice B21 # N (dans la méthode des tableaux, c’est la colonne asso­­ciée à la variable hors-­­­base xj). On a donc : Dj 5 cj 2 a ci # aij, i

où la som­­ma­­tion est faite pour tous les indices i des m variables de base, et aij est l’élé­­ment i du vecteur-­­­colonne y j 5 ( B21 # N ) j du tableau cou­­rant.

8.5 Démar­­rage de l’algo­­rithme problème ­­ de la base ini­­tiale

du sim­­plexe :

8.5.1 Cas « favo­­rable » Plaçons-­­­nous dans le cas où toutes les m contraintes d’un pro­­gramme linéaire sont ini­­ tia­­le­­ment sous forme d’in­­­équa­­tions, com­­por­­tant p variables prin­­ci­­pales, du type : c # a aij x j < bi  où bi est posi­­tif ou nul ( i 5 1, 2, , m ) . p

j51

330

8.5  Démar­­rage de l’algo­­rithme du sim­­plexe…

Tel est le cas dans notre exemple du pro­­blème de l’ate­­lier. Dans cha­­cune des m contraintes, on ajoute une variable d’écart :

# a aij xj 1 x i 5 bi. p

j51

Les m variables d’écart xi forment une base de matrice iden­­tité I (dont les élé­­ ments diagonaux sont égaux à 1 et les non diagonaux égaux à 0). Les p 5 n 2 m variables prin­­ci­­pales : x1, x2, c, xp sont hors-­­­base. Le som­­met asso­­cié est l’ori­­gine Ο (dans l’espace des variables prin­­ci­­pales : Rp ) . L’expres­­sion des variables de base en fonc­­tion des variables hors-­­­base est immé­­ diate : x i 5 bi – a aij # x j,  ( i 5 1, 2, c, m ) . p

j51

Enfin, l’expres­­sion ini­­tiale de la fonc­­tion éco­­no­­mique : z 5 a cj # x j fait que z est p

j51

direc­­te­­ment expri­­mée uni­­que­­ment en fonc­­tion des variables hors-­­­base : z 5 a cj # x j 1 ( 0 # x 1 1 0 # x 2 1 c1 0 # x m ) p

j51

a22

1

0

a2p

0

1

m

i  bi

0

b1

0

b2

(0)

m

am1

am2

...

...

a21

a1p

... ... ...

...

2

2

...

a12

1

...

a11

p

...

1

... ... ...

...

2

...

1

...

i

amp

0

0

...

© Dunod – Toute reproduction non autorisée est un délit.

Le tableau asso­­cié à cette base ini­­tiale est :

...

1

bm

c1

c2

...

cp

0

0

...

0

z0

Le lec­­teur se repor­­tera à notre exemple de l’ate­­lier pour l’illus­­tra­­tion de ce cas.

8.5.2 Cas où une solu­­tion est connue à l’avance Il arrive fré­­quem­­ment qu’un « sys­­tème » dont on veut opti­­mi­­ser la marche pos­­sède déjà un point de fonc­­tion­­ne­­ment, c’est-­­­à-dire dans le cadre d’un pro­­gramme linéaire, une solu­­tion admis­­sible (on rappelle qu’une telle solution vérifie les m + n contraintes du PL). Cette solu­­tion ne sera uti­­li­­sable, pour la réso­­lu­­tion par l’algoritme du sim­­plexe, que s’il s’agit d’une solu­­tion de base réa­­li­­sable, c’est-­­­à-dire com­­por­­tant, au plus, m variables posi­­tives (les autres étant nulles) et telles que les m colonnes de la matrice A asso­­ciées à ces variables forment une matrice régu­­lière (inver­­sible), notée B. Le démar­­rage de l’algo­­rithme du sim­­plexe néces­­site de connaître l’expres­­sion des m variables de base et de z, en fonc­­tion des variables hors-­­­base. 331

Chapitre 8 • La pro­­gram­­ma­­tion linéaire

Rap­­pe­­lons que le pro­­gramme linéaire (après intro­­duc­­tion des variables d’écart) s’écrit : A # x 5 b , x > 0 , max z 5 c # x. Avec la base, de matrice B, il vient : B # xB 1 N # xN 5 b et z 5 cB # xB 1 cN # xN. Sup­­po­­sons que l’on connaisse B21, il vient l’expres­­sion cherc­­hée (cf 8.4.2) : b

xB 5 B21 # b 2 B21 # N # xN

z 5 cB # B21 # b 1 ( cN 2 cB # B21 # N ) xN 5 ,zB 1 DN # xN

à par­­tir de laquelle on peut démar­­rer la réso­­lu­­tion. Le tableau asso­­cié s’écrit (sous forme matricielle) : I # xB

1

b # 0 xB

B 2 1 # N # xN DN # x N

1

B 2 1 # b ( le second membre est b 5 B 2 1 # b ) z 2 ,zB ( ,zB 5 cB # B 2 1 # b )

5 5

Remar­­quons que, pour obte­­nir les expres­­sions ci-­­­dessus, il suf­­fit de connaître B21 # N et B21 # b (et donc, pas néces­­sai­­re­­ment, B21 expli­­ci­­te­­ment). Voici un exemple de ce cas ; soit le PL ci-­­­dessous : x1

2x 1 e x1 x1 x1

1 1

,

1

x2 6x 2 x2 3x 2

2 1 1

,

1

x3

4x 3 x3 x3 5x 3

1 1

, 1

x4

2x 4

5 1 1

x4 x4

,

1

x5 2x 5 x5 4x 5

5 5 > 5

1

7 19 0 z 3 MAX 4

Soit la « solu­­tion » : x 1 5 0, x 2 5 2, x 3 5 1, x 4 5 0 et x 5 5 3. Le lec­­teur véri­­fira aisé­­ment qu’il s’agit bien d’une solu­­tion admis­­sible. Exa­­mi­­nons s’il s’agit d’une solu­­ tion de base ; elle com­­porte bien m 5 3 variables posi­­tives : x2, x3 et x5 (une solu­­tion qui com­­por­­te­­rait plus de m variables posi­­tives ne sau­­rait être de base). La matrice Β 1 21 0 asso­­ciée est for­­mée des colonnes A2, A3 et A5 de la matrice A : B 5 C 0

4

1S ;

6 1 2 on véri­­fie que Β est régu­­lière, puisque dét B 5 I. Le cal­­cul de B21 four­­nit : 7 2 21

B21 5 C 6

2

224 27

21 S. Nous invitons le lecteur à vérifier que B–1 · B = I.

4

Le sys­­tème des contraintes expli­­cites : B # xB 1 N # xN 5 b s’écrit : 1 21 0 x2 1 1 1 x1 C 0 4 1 S # C x 3 S 1 C 2 2 S # B R 5 C 7 S. x4 6 1 2 1 0 19 x5 21 21 # # # Le pro­­duit à gauche par B four­­nit : I xB 1 B N xN 5 B21 # b, soit :

332

8.5  Démar­­rage de l’algo­­rithme du sim­­plexe…

1 0 0

10

11

2 x1 C 0 1 0 S # C x3 S 1 C 9 10 S # B R 5 C 1 S. x4 0 0 1 3 x5 234 238 2 x2

On retrouve dans le second membre b 5 B21 # b 5 C 1 S , c’est-à-dire les valeurs pro­­ 3 po­­sées dans la solu­­tion que nous avons « para­­chu­­tée » ci-dessus. Sous forme algé­­brique, ce sys­­tème s’écrit : x2 1 c

10x 1 1 11x 4 5 2 1 9x 1 1 10x 4 5 1

1

x3

x 5 2 34x 1 2 38x 4 5 3

Reste à expri­­mer z 5 x 1 1 3x 2 1 5x 3 1 x 4 1 4x 5 uni­­que­­ment en fonc­­tion des variables hors-­­­base ; ceci est aisé, puisque le sys­­tème ci-­­­dessus four­­nit l’expres­­sion de chaque variable de base en fonc­­tion des variables hors base : z 5 x 1 1 3 ( 2 2 10x 1 2 11x 4 ) 1 5 ( 1 2 9x 1 2 10x 4 ) 1 x 4 1 4 ( 3 1 34x 1 1 38x 4 ) , soit : z 5 23 1 62x 1 1 70x 4. Pour ce faire, nous aurions aussi pu pro­­cé­­der matriciellement : z 5 c B # ( B 2 1 # b ) 1 3 c N 2 c B # ( B 2 1 # N ) 4 # xN ; 10

or nous avons déjà cal­­culé ci-­­­dessus B21 # N 5 C 9

11

2

10 S et B21 # b 5 C 1 S ;

234 238

puisque cB 5 3 3, 5, 4 4 et cN 5 3 1, 1 4 , il vient : 2

10

z 5 3 3, 5, 4 4 # C 1 S 1 c 3 1, 1 4 2 3 3, 5, 4 4 # C 9

10 S s # B

234 238

x1 R 5 23 1 62x 1 1 70x 4. x4

Le tableau cor­­res­­pon­­dant à cette solu­­tion de base est le sui­­vant :





© Dunod – Toute reproduction non autorisée est un délit.

3

11

3

i

1

2

3

4

5

(0) B1 .b

2

10

1

0

11

0

2

3

9

0

1

10

0

1

5

34

0

0

38

1

3

62

0

0

70

0

z 23



e

333

Chapitre 8 • La pro­­gram­­ma­­tion linéaire

La base pro­­po­­sée n’est pas opti­­male ; en fai­­sant entrer x4 en base on obtient l’opti­­mum en une seule ité­­ra­­tion : z* 5 30 et x1 5 0, x2 5 0,9, x3 5 0, x4 5 0,1 et x5 5 6,8.

8.5.3 Cas d’une base « évi­­dente » : B 5 I Soit le pro­­gramme linéaire : y1 e y1

3y4

1

y2 ,

6y4

1

y3

,

y2

2y4

1

,

y3

2 y1

y4

2 3 1 000y1 1 500y2 1 1 500y3 1 750y4 4

5 2 y2

5 2 y3 5

, y1 , y2 , y3 >

4

12 3

0

5 z 3 max 4

Les variables d’écart y 1, y 2 et y 3 forment certes une base de matrice Br 5 2I ; mais cette base n’est pas admis­­sible. En effet si l’on annule les variables hors base : y1, y2, y3, et y4, il vient : y 1 5 24, y 2 5 212, y 3 5 23, ce qui viole les contraintes de non-­­­négativité des variables (les contraintes dites « impli­­cites »). En revanche, les variables y1, y2 et y3 forment une base « évi­­dente », c’est-­­­à-dire de matrice B 5 I . Après avoir exprimé z en fonc­­tion des variables hors base : z 5 214 500 1 2 250y 4 2 1 000y 1 2 500y 2 2 1 500y 3, l’opti­­mum s’obtient alors en une ité­­ra­­tion (cf 8.7.4 pour le détail des calculs). Le pro­­gramme ci-­­­dessus est en fait le « dual » du pro­­gramme linéaire asso­­cié à notre exemple de l’ate­­lier ; il sera traité in extenso dans un para­­graphe 8.7 consa­­cré à la notion de dua­­lité. Il arrive que l’on puisse se rame­­ner au cas d’une base évi­­dente. Aussi pour le PL ci-­­­dessous (issu d’un pro­­blème d’opti­­mi­­sation de découpes) : 3y 1

y2 y2 y2

1

d y 1

,

2y 3 y3

1

,

36 24 0

> > >

16y 1 1 27y 2 1 10y 3 5 z 3 min 4

il suf­­fit de divi­­ser la pre­­mière contrainte par 3 et la seconde par 2 pour avoir une base B 5 I, asso­­ciée aux variables y1 et y3 : y1 d y 1

216y1

1

, 2

1/3y2 1/2y2 1 y2 , 27y2

2

2

y3 y3

10y3

,

y1 2

y1

,

y2 y2

5 5 >

12 12 0

5 zr 3 max 4

l’expres­­sion de z r (5 2z ) en fonc­­tion des variables hors-­­­base four­­nit : z r 5 216 # ( 12 2 1/3y 2 1 y 1 ) 2 27y 2 2 10 # ( 12 2 1/2y 2 1 y 2 ) , soit: z r 5 2312 2 50/3y 2 2 16y 1 2 10y 2. Ainsi, ici, la base « évi­­dente » se révèle être l’opti­­mum... trouvé en 0 ité­­ra­­tion ! 334

8.5  Démar­­rage de l’algo­­rithme du sim­­plexe…

8.5.4 Cas géné­­ral : emploi de variables arti­­fi­­cielles Un pro­­gramme linéaire peut com­­por­­ter 3 types de contraintes (Ρ), (Q) et (R) :

les contraintes du types (P) sont de la forme : a aijx j < bi où bi est posi­­tif p

j51

(ou nul) ; après intro­­duc­­tion d’une variable d’écart x i , il vient : a aij # xj 1 x i 5 bi, p

j51

les contraintes du type Q sont de la forme : a akj # x j > bk (où bk est posi­­tif ou nul) ; p

j51

après intro­­duc­­tion d’une variable d’écart xk , il vient : a aij # xj 2 xk 5 bk. p

j51

Enfin les contraintes de type (R) sont celles qui, à l’ori­­gine, sont en équa­­tion :

# a aij xj 5 bl ( bl > 0 ) , donc dans les­­quelles on n’intro­­duit pas de variable d’écart. p

j51

Voici un exemple avec m 5 3 contraintes expli­­cites : la pre­­mière de type (P) ; la deuxième, de type (Q) ; la troi­­sième de type (R). x1

1

2x1 1

e x1 x1

1

,

2x2 1

© Dunod – Toute reproduction non autorisée est un délit.

2x 1 1

e x1 x1

1

,

2x 2 1 x2

1

x2

,

x2

(R)

x3

> 0 5 z 3 max 4

1

x1

x3

x3 x3

5 4

,

x2

soit : 1

(P)

> 1

1

4x1 1 5x2 1 3x3

x1

< 5

x3

x2

x2

x3

5 5

2

,

x1

(Q)

,

x2

5 1

x2

> 0

5 4

4x 1 1 5x 2 1 3x 3 1 0x 1 1 0x 2 5 z 3 max 4

Si toutes les contraintes étaient de type (P), on serait dans le cas « favo­­rable », traité plus haut au 8.5.1. Nous allons consti­­tuer une base ini­­tiale de matrice B 5 I ; on peut inclure dans cette base les variables d’écart ajou­­tées dans les contraintes de type (P) ; en effet la colonne asso­­ciée à cha­­cune de ces variables d’écart est uni­­taire ; ainsi dans l’exemple 1 ci-­­­dessus la colonne asso­­ciée à x 1 est : C 0 S . 0

335

Chapitre 8 • La pro­­gram­­ma­­tion linéaire

On com­­plète cette base en intro­­dui­­sant dans chaque contrainte de type (Q) ou (R), une nou­­velle variable, de coef­­fi­­cient égal à 1, nom­­mée « variable arti­­fi­­cielle » dont la colonne asso­­ciée est uni­­taire. Ainsi pour notre exemple, en notant xar et xas les deux variables arti­­fi­­cielles néces­­ saires pour consti­­tuer une base de matrice B 5 I, il vient : x1

d

1

2x1 1

2x2 1 x3 1 x1 x2

x1

1

x2

x1

,

x2

1

,

x3 x3

5 5 2

,

x1

,

5 1

x2 1 xar x2

,

xar

1

xas 5 4

,

xas > 0

Les variables arti­­fi­­cielles, comme les autres variables du pro­­gramme linéaire sont posi­­tives ou nulles. Cepen­­dant remar­­quons que : – si xar n’est pas nulle, on a : 2x1 1 x2 1 x3 2 x 2 2 1 et que, – si xas n’est pas nulle, on a : x 1 1 x 2 2 4. Ainsi la positivité d’une variable arti­­fi­­cielle fait que la contrainte dans laquelle elle a été intro­­duite est vio­­lée... Indi­­quons main­­te­­nant com­­ment trai­­ter un tel cas :

8.5.5 Méthode des deux phases Il convient alors, par­­tant d’une base com­­por­­tant une ou plu­­sieurs variables arti­­ fi­­cielles, d’obte­­nir, en ité­­rant l’algo­­rithme du sim­­plexe, si pos­­sible une base sans variable arti­­fi­­cielle (dans cette solu­­tion de base les variables arti­­fi­­cielles seront nulles car hors base, et l’on obtien­­dra un som­­met admis­­sible du polyèdre d). Pour tenter d’atteindre ce but, on subs­­ti­­tue à la fonc­­tion éco­­no­­mique z, une autre fonc­­tion éco­­no­­mique z r qui est la somme des variables arti­­fi­­cielles (zr 5 xar 1 xas) dans l’exemple. L’objec­­tif sera de minimi­­ser z r. À l’opti­­mum de ce nou­­veau pro­­ gramme linéaire, deux cas sont pos­­sibles : Puisque pour toute solu­­tion admis­­sible, z r est posi­­tif ou nul : – soit z r 5 0 : on a obtenu alors un som­­met du polyèdre d, à par­­tir duquel on reprend la réso­­lu­­tion du PL ini­­tial (donc avec la fonc­­tion éco­­no­­mique z, à maxi­­mi­­ser) ; – soit z r . 0 : toute base admis­­sible du nou­­veau PL com­­porte au moins une variable arti­­fi­­cielle de valeur stric­­te­­ment posi­­tive ; alors le PL d’ori­­gine est impos­­sible (le polyèdre d est vide : les contraintes sont contra­­dic­­toires). Ainsi, pour l’exemple, il convient d’abord d’expri­­mer la fonc­­tion éco­­no­­mique z r en fonc­­tion des variables hors-­­­base (sachant que la base ini­­tiale est for­­mée des variables x 1, xar et xas ) : zr 5 xar 1 xas 5 ( 1 2 2x1 2 x2 2 x3 1 x 2 ) 1 ( 4 2 x1 2 x2 ) , soit : zr 5 5 2 3x1 2 2x2 2 x3 1 x 2. On maxi­­mi­­sera donc : zs 5 2z r 5 25 1 3x 1 1 2x 2 1x3 2 x 2.

336

s



8.5  Démar­­rage de l’algo­­rithme du sim­­plexe…

i

1

2

3

1

2

a a

(0)

1

1

2

1

1

0

2

1

1

1

1

1

0

0 0

0 0

5

a

0 1

0

0

1

4

3

2

1

0

1

0

0

z (5)

2

3

1

2

a

a

a

j



1

e

1

1

0

3/ 2 1/ 2

1

1 0

1/ 2 1/ 2

0

a



s

i

j

(1)

1/ 2 1/ 2 0 0 1/ 2 1/ 2 0

9/ 2

1/ 2 1/ 2 0

1/ 2 1/ 2 1

7/ 2

1/ 2 1/ 2 0

1/ 2 3/ 2 0

z 7/ 2

1



1/ 2

e

i

1

2

3

1

2

a

a

(2)

1

1

1

1

0

0

1

0 1

1

0

0

0

0

1 1

1 4

2

0

1

1

0

1

1

2

7

0

0

0

0

0

1 1

z 0

À l’opti­­mum de la phase 1, nous sommes dans le pre­­mier cas : z r 5 0 (car zr 5 2zs ). C’est-­­­à-dire que la base asso­­ciée aux variables x 1, x 1 et x 2 est admis­­sible pour le pro­­ gramme d’ori­­gine ; c’est à par­­tir de cette base que l’on va résoudre le PL d’ori­­gine, dont la fonc­­tion éco­­no­­mique est : z 5 4x 1 1 5x 2 1 3x 3. Il suf­­fit alors d’expri­­mer z en fonc­­tion des variables hors-­­­base, après avoir annulé (défi­­ni­­ti­­ve­­ment) les variables arti­­fi­­cielles, soit xar 5 xas 5 0 : z 5 4 # ( 4 2 x2 ) 1 5x2 1 3x3 5 16 1 x2 1 3x3. Voici le tableau asso­­cié (où les colonnes ar et as ne figurent plus car xa' et xa" sont définitivement nulles) :  1 2 2 1 3 i s



© Dunod – Toute reproduction non autorisée est un délit.

j

1

0

1

1

1

0

1

1

1

0

0

2

0

1

1

0 0

1 4

1

7

0

1

3

0

0

z  16

j



e

337

Chapitre 8 • La pro­­gram­­ma­­tion linéaire

i

1

2

3

1

2



3

0

1

1

1

0

1

1

1

0

0

0

1 4

2

0

2

0

1

1

8

0

2

0

3

0

z 19

j

On a obtenu, en une ité­­ra­­tion, lors de la phase 2, l’opti­­mum du PL d’ori­­gine : x 1 5 4 , x 2 5 0 , x 3 5 1 et z* 5 19. ( x 2 5 8 ; x 1 5 x 3 5 0 ) .

8.5.6 Variante. Méthode du « grand M » Nous don­­nons cette variante à titre d’exer­­cice seule­­ment : les logi­­ciels de P.L. uti­­ lisant la méthode des 2 phases. On peut com­­bi­­ner les deux phases 1 et 2 en intro­­dui­­sant les variables arti­­fi­­cielles comme ci-­­­dessus dans les contraintes, puis en les intro­­dui­­sant aussi dans la fonc­­tion éco­­no­­mique d’ori­­gine : chaque variable arti­­fi­­cielle y sera munie d’un coef­­fi­­cient –M, « très néga­­tif » : c’est-­­­à-dire qu’on peut prendre la valeur M arbi­­trai­­re­­ment supé­­ rieure à tout autre coef­­fi­­cient inter­­ve­­nant dans le PL. Ainsi, si une variable arti­­fi­­cielle n’est pas nulle, elle don­­nera à cette nou­­velle fonc­­tion éco­­no­­mique une valeur numé­­rique très « mau­­vaise » car très néga­­tive (de valeur abso­­lue très grande). En maxi­­mi­­sant la nou­­velle fonc­­tion éco­­no­­mique, notée ˆz , l’algorithme aura ten­­ dance à faire sor­­tir les variables arti­­fi­­cielles de la base ; si, à l’opti­­mum de ce PL, toutes les variables arti­­fi­­cielles sont nulles, alors ˆz coïn­­cide avec la fonc­­tion éco­­no­­ mique d’ori­­gine z. Mais si à l’opti­­mum du PL (avec la fonc­­tion éco­­no­­mique ˆz ) une ou plu­­sieurs variable(s) arti­­fi­­cielle(s) est (sont) en base et non nulles, cela signi­­fie que le PL d’ori­­gine est impos­­sible. Ainsi, pour notre exemple, [MAX] ˆz 5 z 2 Mxar 2 Mxas, soit : [MAX] ˆz 5 4x1 1 5x2 1 3x3 2 Mxar 2 Mxas. La base ini­­tiale étant asso­­ciée aux variables x 1, x ar et x as, l’expres­­sion de ˆz , en fonc­­ tion des variables hors-­­­base ini­­tia­­le­­ment, est : ˆz 5 4x 1 1 5x 2 1 3x 3 2 M ( 1 2 2x 1 2 x 2 2 x 3 1 x 2 ) 2 M ( 4 2 x 1 2 x 2 ) ˆz 5 25M 1 ( 3M 1 4 ) x 1 1 ( 2M 1 5 ) x 2 1 ( M 1 3 ) x 3 2 Mx 2

La valeur initiale de la fonction économique est donc : 25M : très négative. 338

8.5  Démar­­rage de l’algo­­rithme du sim­­plexe…

D’où le tableau : 1

2

3

1

2



1

1

2

a a

1

1

0

0

5

a

2

1

1

1

1

0

1 0

0

1

0 0

0 1 0

1

4

0 M

0

0

z 5M

2

a



a

j

3M 2M M





s

(0)

i

4 5 3 ↑

i

1

2

3

1

0

0

3/ 2

1/ 2

1

4

1 1

1

1/ 2

1/ 2

0

M

a

0

1/ 2 1/ 2

cj j

4 0

5

3

M/ 2 M/ 2 3

0 0 0

1

1/ 2 1/ 2 1/ 2 1/ 2 1/ 2 1/ 2 0

(1)

a



0 0

9/ 2 1/ 2

1

7/ 2

M M

M/ 2 3M/ 2 0 2 2

z 2 7/ 2M



ci



s



e



e

(2)

ci

i

1

2

3

1

2

a

a

0

1

0

1

1

1

0

0

1

1

4

1

1

1

0

0

0

1

4

0

2

0

1

1

0 0

1

1

2

7

4

5

3

0

0

M M

0

1

3

0

0

M M 4

j



z  16



cj 

© Dunod – Toute reproduction non autorisée est un délit.

s



On fait entrer x2 ,  plu­­tôt que x2 ,  en base car, alors, la variable arti­­fi­­cielle x as sort de la base :



e

On observe qu’à ce stade les variables arti­­fi­­cielles sont sor­­ties de la base : on peut les annu­­ler défi­­ni­­ti­­ve­­ment (ce qui revient à sup­­pri­­mer les colonnes ar et as dans le tableau ci-­­­dessus) ; on remarque aussi qu’alors, ˆz et z coïn­­cident. La der­­nière ité­­ra­­ tion étant alors iden­­tique à celle de la phase 2 du para­­graphe pré­­cé­­dent, n’est pas repro­­duite ici. 339

Chapitre 8 • La programmation linéaire

Remarque.  L’éva­­lua­­tion des Δj dans la variante « méthode du grand M » est faci­­li­­tée par l’appli­­ca­­tion de la for­­mule que nous avons prou­­vée plus haut (cf. para­­graphe 8.4) : Dj 5 cj 2 a ci # aij  (pour xj hors-­­­base),

où la som­­ma­­tion est éten­­due aux indices des variables de base ; les αij étant les coef­­fi­cients du tableau cou­­rant ; ci désigne ici le coef­­fi­cient (initial) de la iième variable de base. Ainsi après une ité­­ra­­tion, on a : D2 5 c2 2 ( c1 # a12 1 c1 # a22 1 cas # a32 ) 3/2 5 5 2 3 0, 4, 2 M 4 # C 1/2 S 5 M/2 1 3 1/2

Pour appli­­quer plus faci­­le­­ment cette for­­mule on a indi­­qué immé­­dia­­te­­ment à gauche de chaque variable de base xi son coef­­fi­cient ini­­tial dans ˆz , soit ci , et l’on a inter­­calé entre le tableau prin­­ci­­pal et la ligne des Δˆ j , les valeurs des coef­­fi­cients ini­­tiaux cj de ˆz . En pra­­tique, les logi­­ciels de pro­­gram­­ma­­tion linéaire implé­­men­­tant l’algo­­ rithme du sim­­plexe uti­­lisent la méthode en deux phases. En effet, lors de la phase 1, en minimi­­sant la somme des variables arti­­fi­cielles, la variante dite du « grand M » conduit à uti­­li­­ser des nombres dont les ordres de gran­­deur sont très dif­­fé­­rents, ce qui est source de dif­­fi­cul­­tés numé­­riques.

8.6  Notions

sur la méthode révi­­sée du sim­­plexe

La méthode révi­­sée du sim­­plexe est une amé­­lio­­ra­­tion de l’algo­­rithme du sim­­plexe visant, d’une part, à réduire la masse de cal­­culs et, d’autre part, à amé­­lio­­rer la pré­­ci­­ sion des résul­­tats.1 Consi­­dé­­rons une base admis­­sible du pro­­gramme linéaire (PL) [A # x 5 b ; x > 0 ; max z 5 c # x], de matrice B. Le sys­­tème des contraintes A # x 5 b s’écrit alors : B # xB 1 N # xN 5 b. Pour obte­­nir la valeur numé­­rique de la solu­­tion (som­­met) asso­­ciée à cette base, on annule les variables hors-­­­base : xN 5 0 ; il reste donc à résoudre un pre­­mier sys­­tème linéaire B # xB 5 b, sys­­tème de Cra­­mer (c’est-­­­à-dire à déter­­mi­­nant non nul) de m équa­­tions à m inconnues. En par­­ti­­cu­­lier si l’on connaît l’inverse de la matrice B, soit B21, on obtient direc­­te­­ment : xB 5 B2 1 # b. 1. enta­­chés par des erreurs dues à l’uti­­li­­sation de l’arith­­mé­­tique flot­­tante en infor­­ma­­tique. 340

8.6  Notions sur la méthode révi­­sée du sim­­plexe

Dans la méthode des tableaux, on repré­­sente en fait le sys­­tème B # xB 1 N # xN 5 b sous la forme : I # xB 1 B2 1 # N # xN 5 B2 1 # b (où I est la matrice iden­­tité m × m), ce qui revient à mul­­ti­­plier chaque membre du sys­­tème, à gauche, par B21. Mais, en fait, une seule colonne hors-­­­base (l’une des colonnes de B21 # N) est utile lors de l’ité­­ ra­­tion : c’est la « colonne entrante » qui per­­met ensuite de déter­­mi­­ner, à l’aide du second cri­­tère de Dantzig, la variable sor­­tante. Aussi, le cal­­cul de la valeur cou­­rante des autres colonnes hors-­­­base (celles de B21 # N), qui sont au nombre de n 2 m, est-­­­il inutile pour pra­­ti­­quer l’ité­­ra­­tion. Dans la méthode révi­­sée du sim­­plexe, on évite ces cal­­culs inutiles : on cal­­cule seule­­ment les coef­­fi­cients de la colonne entrante, c’est-­­ à-dire du vecteur-­­­colonne B21 # Ne 5 ye, où Ne est la colonne d’indice e de la matrice Ν (sous-­­­matrice de A). Ceci revient à résoudre un second sys­­tème linéaire : B # ye 5 Ne (si l’on ne connaît pas B21, ou bien si l’on ne sou­­haite pas cal­­cu­­ler expli­­ ci­­te­­ment cet inverse). Ainsi on résout un nouveau sys­­tème linéaire, mais de même matrice B que le pre­­mier sys­­tème, celui qui nous a per­­mis de cal­­cu­­ler la solu­­tion de base xB. Les m coef­­fi­cients de ye sont notés : αi1,e, αi2,e,c, αim,e, sachant que la base est com­­ po­­sée des colonnes Ai1, Ai2,c, Aim (extraites de A). Il est alors aisé, connais­­sant ye, de déter­­mi­­ner, à l’aide du second cri­­tère de Dantzig, la variable sor­­tante xs. Pour déter­­mi­­ner la variable entrante xe, on peut préa­­la­­ble­­ment appli­­quer, par exemple, le pre­­mier cri­­tère de Dantzig, ce qui sup­­pose la connais­­sance des coef­­fi­cients Dj (c’est-­­­à-dire de l’expres­­sion de z en fonc­­tion des variables hors-­­­base). Nous allons mon­­trer que les Dj peuvent être obte­­nus par la réso­­lu­­tion d’un troi­­sième système linéaire, à nou­­veau de matrice B. Nous avons vu que z 5 ,zB 1 DN # xN où ,zB 5 cB # B 2 1 et DN 5 cN 2 cB # B2 1 # N.

© Dunod – Toute reproduction non autorisée est un délit.

Posons p 5 cB # B21 : ce vec­­teur ligne 1 3 m est nommé vec­­teur des « mul­­ti­­pli­­ca­­ teurs du sim­­plexe ». Le cal­­cul de p revient à résoudre le sys­­tème linéaire p # B 5 cB Remar­­quons que, s’il a la même matrice Β que les deux sys­­tèmes pré­­cé­­dents, il fait inter­­ve­­nir un vecteur­­­ligne d’inconnues : p 5 [pι, p2,c, pm] mul­­ti­­pliant à gauche la matrice B, alors que, dans les deux sys­­tèmes pré­­cé­­dents, on avait un vecteur-­­­colonne m 3 1 mul­­ti­­ pliant à droite la matrice B. Une fois cal­­culé p, le cal­­cul de DN est tri­­vial : DN 5 cN 2 p # N et l’on peut alors déter­­mi­­ner la variable entrante. Ainsi dans la méthode révi­­sée du sim­­plexe, chaque ité­­ra­­tion se résume à résoudre trois sys­­tèmes linéaires, de même matrice B, régu­­lière. La réso­­lu­­tion numé­­rique de tels sys­­tèmes est du domaine de l’ana­­lyse numé­­rique ; elle a été très investiguée et béné­­fi­cie de mul­­tiples variantes de réso­­lu­­tion effi­­caces et pré­­cises. Il existe donc de nom­­breuses variantes de la méthode révi­­sée du sim­­plexe. Une voie pos­­sible est de cal­­cu­­ler B21. Dans la variante EFI (forme expli­­cite de l’inverse), on cal­­cule expli­­ci­­te­­ment B21 à par­­tir de l’inverse de la matrice de la base de l’ité­­ra­­tion pré­­cé­­dente, B21 étant repré­­sen­­tée en mémoire cen­­trale. Cette variante est adap­­tée aux pro­­grammes linéaires de taille modé­­rée. 341

Chapitre 8 • La programmation linéaire

Pour les pro­­grammes linéaires de plus grande taille, on uti­­lise plu­­tôt la variante PFI (forme pro­­duit de l’inverse), où B21 est uti­­li­­sée, mais impli­­ci­­te­­ment. L’avan­­tage de la méthode révi­­sée (par rap­­port à la ver­­sion ini­­tiale de l’algo­­rithme du sim­­plexe, par exemple implé­­men­­tée par la méthode des tableaux) est double : – Une réduc­­tion de la masse des cal­­culs : lors de chaque ité­­ra­­tion on expli­­cite une seule colonne hors-­­­base : ye, la colonne entrante, au lieu des n 2 m colonnes hors base dans la ver­­sion ini­­tiale de l’algo­­rithme du sim­­plexe. – Des gains de pré­­ci­­sion sont obte­­nus ; en arith­­mé­­tique flot­­tante les erreurs de tron­­ ca­­ture se cumulent, ce qui peut ame­­ner, au fil des ité­­ra­­tions, à des cal­­culs impré­­cis, voire même faux. Ainsi lorsque l’on connaît l’ensemble des variables de base, on peut recal­­cu­­ler B21 direc­­te­­ment à par­­tir des don­­nées ini­­tiales (donc non enta­­chées d’erreurs au fil des ité­­ra­­tions). On recal­­cule ainsi B21 (« ré­­­inver­­sion ») en pra­­tique, toutes les 15 à 20 ité­­ra­­tions envi­­ron. L’ana­­lyse numé­­rique nous four­­nit, ici aussi, des méthodes effi­­caces et pré­­cises pour recal­­cu­­ler B21. La méthode révi­­sée du sim­­plexe est celle qui est implé­­men­­tée dans les logi­­ciels uti­­ li­­sant l’algo­­rithme du sim­­plexe. Il existe d’autres méthodes pour résoudre les pro­­grammes linéaires (déve­­lop­­pées effi­­ca­­ce­­ment à par­­tir de 1985) : les méthodes dites «  inté­­rieures », dont l’exposé sort du cadre de cet ouvrage (elles relèvent des tech­­niques de la pro­­gram­­ma­­tion non linéaire). Leur com­­plexité (dans le pire des cas) est poly­­no­­miale, ce qui n’est pas le cas de l’algo­­rithme du sim­­plexe. À l’heure actuelle aucune de ces deux approches ne sur­­classe en pra­­tique l’autre ; d’ailleurs cer­­tains logi­­ciels très per­­for­­mants les implé­­ mentent toutes deux et, lors de la réso­­lu­­tion d’un pro­­blème, toutes les deux sont exé­­cu­­tées indé­­pen­­dam­­ment, en paral­­lèle : il s’opère ainsi une «  course  » (dont le « gagnant » varie selon les ins­­tances trai­­tées).

8.7  Dua­­lité 8.7.1 Défi­­ni­­tion du dual Une des remarques les plus fruc­­tueuses que l’on peut faire à pro­­pos de la pro­­gram­­ ma­­tion linéaire, est qu’à chaque pro­­gramme linéaire on peut asso­­cier, par la règle donnée ci-­­­dessous, un autre pro­­gramme linéaire, nommé « pro­­gramme dual ». Le pre­­mier pro­­gramme linéaire est alors appelé « pro­­gramme primal ». Leurs prop­­rié­­ tés, nous le verrons, sont étroi­­te­­ment liées. Repre­­nons l’exemple pré­­cé­­dent : x1 f

342

3x1 x1 4x1

x2 + , +

6x2 x2 12x2

+ , +

x3 2x3 x3 3x3

< < < < > =

1 000 500 1 500 6 750 0 z [max]

8.7  Dua­­lité

Il est de la forme : A # x < b  ,  x > 0  ,  c # x 5 z  [max]  , que l’on appelle « forme stan­­dard de pas­­sage au dual ». Dans ce cas, les com­­po­­santes du vec­­teur b ne sont pas astreintes à être posi­­tives, comme lors de la réso­­lu­­tion du primal. Par défi­­ni­­tion, le pro­­gramme dual de notre exemple est : y1

y2

e y1 1 000y1

, +

y2 500y2

, +

y3 y3 1 500y3

+ + + , +

3y4 6y4 2y4 y4 6 750y4

> > > > =

4 12 3 0 z r [min]

Ainsi le primal com­­porte n = 3 variables, posi­­tives ou nulles et m = 4 contraintes expli­­cites. Dans le pro­­gramme dual on a nr 5 m 5 4 variables, elles aussi posi­­tives ou nulles, et m r 5 n 5 3 contraintes expli­­cites. L’objec­­tif du primal est une maxi­­ mi­­sa­­tion, celui du dual est une minimi­­sa­­tion. Les « seconds membres » du dual ne sont autres que les coef­­fi­cients de la fonc­­tion éco­­no­­mique du primal, c’est-­­à-dire le vec­­teur c (trans­­posé) ; de même, les coef­­fi­cients de la fonc­­tion éco­­no­­mique du dual ne sont autres que les « seconds membres » du primal, c’est-­­­à-dire le vec­­teur b (trans­­posé). Enfin les matrices des coef­­fi­cients du primal : A, et celle du dual : Ar, sont : 1 0 A = D m3n 0 3

0 1 0 6

0 0 T ; 1 2

1 Ar = C0 n3m 0

0 1 0

0 0 1

3 6S 2

On constate que la matrice Ar du dual est la trans­­po­­sée de la matrice du primal : Ar 5 AT . Enfin, on remarque que les contraintes, dans la forme stan­­dard du primal, sont des inéga­­li­­tés de sens : < ,  soit : a aij # x j < bi  où i = 1, 2,c, m .

© Dunod – Toute reproduction non autorisée est un délit.

n

j51

Celles du dual sont de sens inverse : > ,  soit : a y i # aij > cj  où j = 1, 2,c, n . m

i51

On peut résu­­mer matriciellement cette règle de pas­­sage : le primal, sans intro­­duc­­ tion de variable d’écart et s’il ne com­­porte pas de contrainte en éga­­lité, peut s’écrire : (P) A # x < b , x > 0 , 3 max 4 z 5 c # x où bi (i 5 1, 2,c, m) est ici de signe quel­­conque, les for­­mats étant les sui­­vants : pour A : m 3 n ; pour b : m 3 1 ; pour x : 1 3 n ; pour c : 1 3 n.

343

Chapitre 8 • La programmation linéaire

Le pro­­gramme dual, en notant y le vec­­teur-ligne 1 3 m des variables duales, est par défi­­ni­­tion : (D) y # A > c ,  y > 0 ,   3 min 4 zr 5 y # b . Pour notre exemple, il vient pour le primal : 1 0 D 0 3

0 1 0 6

0 1 000 x1 0 500 T ? B x2 R < C1 500S ; 1 x3 6 750 2

x1 x1 B x2 R > 0 ; [max] z = [4, 12, 3] ? B x2 R x3 x3

et pour le dual : 3 y1, y2, y3, y4 4 # D





i

1

0

0

0 3

0 6

1 2

0

1

0

T > 3 4, 12, 3 4 ,

3 y1, y2, y3, y4 4 > 0 ;

1 000

min z r 5 3 y 1, y 2, y 3, y 4 4 # C 500S . 1 500 6 750

En déve­­lop­­pant, on retrouve l’expres­­sion du dual don­­née plus haut. ❑ À titre d’exer­­cice, indi­­quons com­­ment pas­­ser au dual pour le PL sui­­vant : 2x 1 x1

3x 1

e 3 min 4

1 2 2

x1

,

2 2x 1

1

x2 5x 2

2x 2

2 1 1

x2

,

3x 2

1

4x 3 6x 3

< >

10 2

7x 3

5

x3

>

0

4x 3

5

z

5

Il convient de rame­­ner chaque contrainte, si néces­­saire, à la forme : ax 1 1 bx 2 1 gx 3 < d (où δ, ici, peut être néga­­tif), de s’assu­­rer de ce que toutes les variables du primal sont posi­­tives ou nulles, et - enfin - de rame­­ner la fonc­­tion éco­­no­­mique, si néces­­saire, à une maxi­­mi­­sa­­tion. En par­­ti­­cu­­lier ici on rem­­pla­­cera la contrainte en éga­­lité : 3x1 – 2x2 + 7x3 = 5, par deux in­­­équa­­tions de sens contraires : 3x 1 2 2x 2 1 7x 3 < 5 et 3x 1 2 2x 2 1 7x 3 > 5 cette der­­nière in­­­équa­­tion (de même que : x 1 2 5x 2 1 6x 3 > 2) doit être mul­­ti­­pliée par –1 pour obte­­nir une inéga­­lité de la forme ax 1 1 bx 2 1 gx 3 < d ; de même on ramène la fonc­­tion éco­­no­­mique à une maxi­­mi­­sa­­tion en la mul­­ti­­pliant par –1. Ainsi le primal devient, sous forme standard de passage au dual : 344

8.7  Dua­­lité

2x1

1

2 x1

1

3x1

(P) f

2x2

x1

,

2x1

2

2

x2

,

3x2

2

22


>

0

5

zr

On a donné, ci-dessus, le dual que le lec­­teur obtien­­dra en appli­­quant la règle de pas­­ sage que nous avons détaillée plus haut.

8.7.2 Liens entre le primal et le dual Don­­nons main­­te­­nant des prop­­rié­­tés impor­­tantes liant le primal et le dual. 1) D’abord, si l’on a la curio­­sité de chercher le dual du dual pour notre pre­­mier exemple, il nous fau­­dra com­­men­­cer par rame­­ner les contraintes du dual à des in­­­ équa­­tions de la forme

0

y1

,

y2

,

y3

,

y4

2 1 000y 1

2

500y 2

2

1 500y 3

2

6 750y 4

3 max 4

Nommons t1, t2 et t3 les nouvelles variables duales : 2 t1

> 21 000 2

dual du f dual

t2 t3

> 21 500

6t2

2 2t3

> 26 750

t1

,

t2

,

t3

2 4t1 2 12t2 2 3t3

> 0 3 min 4




3 3

0 y2 > 2y2 = z9 [min]

On véri­­fie (par exemple gra­­phi­­que­­ment) que l’opti­­mum de Ρ est rejeté à l’infini. Le dual est impos­­sible (son polyèdre est vide) car la somme de ses deux contraintes explicites four­­nit : 23y 2 > 6, soit : y 2 < 22, qui est contra­­dic­­toire avec y 2 > 0. – Illus­­tra­­tion du cas 3

(P) d

x1



–x1

+

x1

,

2x1

+

x2 < x2 < x2 > x2 =

3

(1)

– 4

(2)

0 z [max]

(D) d

y1



– y1

+

y1

,

3y1



y2 > y2 >

2

(19)

1

(29)

0 y2 > 4y2 = z9 [min]

(P) n’a pas de solu­­tion admis­­sible : (1) + (2) entraîne 0 < 21 : impos­­sible. (D) non plus, car (1r) + (2r) entraîne 0 > 3 : impos­­sible.

346

8.7  Dua­­lité

8.7.3 Cri­­tère d’optimalité Sup­­po­­sons que le primal et le dual aient des solu­­tions admis­­sibles (cas 1). Soit x une solu­­tion admis­­sible du primal et y une solu­­tion admis­­sible du dual (ces solu­­tions n’étant pas néces­­sai­­re­­ment des solu­­tions de base). On montre aisément(1) que la valeur de la fonc­­tion éco­­no­­mique du primal pour tout x est majo­­rée par celle du dual pour tout y : z ( x ) < z r ( y )  soit : c # x < y # b. On en déduit aisé­­ment (par l’absurde) que s’il existe une solu­­tion admis­­sible , x du primal et une solu­­tion admis­­sible du dual , y telles que : z(, x ) 5 z r( , y )  soit : c # , x5, y # b, alors , x est une solu­­tion opti­­male du primal et , y , une solu­­tion opti­­male du dual.

© Dunod – Toute reproduction non autorisée est un délit.

8.7.4 Cor­­res­­pon­­dance entre l’opti­­mum du primal et l’opti­­mum du dual (cas 1) Nous allons tout d’abord résoudre le pro­­gramme dual du pro­­blème de l’ate­­lier. Le lec­­teur obser­­vera que les variables d’écart doivent pré­­sen­­ter un coef­­fi­cient –1, en rai­­son du sens des inéga­­li­­tés au dual : > ; on rap­­pelle que les variables d’écart doivent être non néga­­tives. Il se pose le pro­­blème de la solu­­tion de départ (de la base ini­­tiale). Dans la réso­­lu­­tion du primal nous avions annulé les variables x1, x2 et x3 (variables hors-­­­base) et obtenu x4 = 1 000, x5 = 500, x6 = 1 500 et x7 = 6 750, c’est-­­­à-dire que la base ini­­tiale était for­­mée des m = 4 variables d’écart ; de plus les colonnes A4, A5, A6 et Α7 étaient uni­­taires (et jux­­ta­­po­­sées, consti­­tuant une matrice iden­­tité 4 3 4). Mais, au dual, si l’on pra­­ti­­quait de même, on aurait y5 = – 4, y6 = –12 et y7 = –3 : non admis­­sible. Cepen­­dant, pour la réso­­lu­­tion du dual, nous avons une base ini­­tiale admissible évi­­dente puisque les colonnes 1, 2 et 3 du dual sont uni­­taires : les variables y1, y2 et y3 forment cette base et la matrice de base est : B 5 I. Il convient alors d’expri­­mer z r uni­­que­­ment en fonc­­tion des variables hors-­­­base, c’est-­­­à-dire y4, y5, y6 et y7 : z r 5 1 000y 1 1 500y 2 1 1 500y 3 1 6 750y 4 zr 5 1 000 # ( 4 2 3y4 1 y5 ) 1 500 # ( 12 2 6y4 1 y6 ) 1 1 500 # ( 3 2 2y4 1 y7 ) 1 6 750y4 z r 5 14 500 2 2 250y 4 1 1 000y 5 1 500y 6 1 1 500y 7 Enfin au lieu de minimi­­ser z r, nous maxi­­mi­­se­­rons son opposé (ce qui est équi­­va­­lent) : z s 5 2z r 5 214 500 1 2 250y 4 2 1 000y 5 2 500y 6 2 1 500y 7. 1. (1) En effet : 3 A # x < b et y > 0 4 entraîne : y # ( A # x ) < y # b (5 z r ( y )) et 3 y # A > c et x > 0 4 entraîne : ( y # A ) # x > c # x (5 z ( x )) , d’où : z ( x ) < y # A # x < z r ( y ) .

347

Chapitre 8 • La programmation linéaire

s



Pour la formulation de ce dual, le lecteur se reportera au paragraphe 8.7.1. Le tableau ini­­tial pour ce dual est le sui­­vant : (1)

y1

y2

y3

y4

y5

y6

y7



y1

1

0

0

3

1

0

0

4

4/ 3*

y2

0 0

1

0

0

1

0

12

12/ 6

0

1

6 2

0

0

1

3

3/ 2

0

0

0

y3 i

2250 1000 500 1500

z 14 500



e

La fonc­­tion éco­­no­­mique du dual com­­porte un seul coef­­fi­cient posi­­tif : Δ4 = 2250 : y4 entre en base ; puis on déter­­mine la variable sor­­tante : y1. On obtient alors une nou­­velle base, dont voici le tableau : y1

y2

y3

(2)

y1

y2

y3

y4

y5

y6

y7



0

0

1

1/ 3

0

0

y2

1/ 3 2

1

0

0

2

1

0

4/ 3 4

y3

2/ 3

0

1

0

2/ 3

0

1

1/ 3

750

0

0

0

y4

i

250 500 1500

z 11 500

On a atteint l’opti­­mum : y1 = 0 , y2 = 4 , y3 = 1/3 , y4 = 4/3 , y1 5 0, y2 5 0, y3 5 0 ; zs 5 211 500. Puisque z s 5 211 500, on a z r 5 11 500. Rap­­pe­­lons le tableau opti­­mal du primal : x2

x1

x2

x3

x4

x1

1

0

0

0

x2

0

1

0

0

x1

0

0

0

1

2

0

0

1

0

0

0

0

0

0

x3

j

348

x1

x5

x3

x6

x4

x7

2 2/ 3 1/ 3 0 1 0

 250 500 750

2/ 3 1/ 3 0 1

1500

4 1/ 3 4/ 3

z 11 500

8.7  Dua­­lité

On a renommé les variables d’écart du dual : y 1, y 2 et y 3 (au lieu de y 5, y 6 et y 7) ; de même pour celles du primal : x 1, x 2, x 3 et x 4, (au lieu de x4, x5, x6 et x7). On constate alors à l’opti­­mum du primal et du dual que : 1)  la valeur de zr 5 11 500 de l’opti­­mum du dual égale celle de l’opti­­mum du pri­ mal ; 2)  les valeurs des variables de base au dual : y2, y3 et y4 sont égales, au signe près, aux valeurs de D 2, D 3 et D 4 au primal ; 3)  les valeurs des D jr du dual : D 1,r D 1r , D 2r et D 3r sont égales, au signe près, aux valeurs de x 1, x1, x2 et x3 au primal. On montre que cette cor­­res­­pon­­dance entre l’opti­­mum du primal et l’opti­­mum du dual est géné­­rale : yi 5 2 Di et x i 5 2 D ir pour i 5 1, 2, c, m c y j 5 2 Dj et xj 5 2 D jr pour j 5 1, 2, c, n. De plus, si xj est dans la base opti­­male du primal (resp. hors-­­­base), alors y j est hors­­­ base au dual (resp. dans la base). De même si yi est dans la base du dual (resp. hors­­­base), alors x i est hors-­­base au primal (resp. dans la base). On le mon­­trera au 8.7.5. 4)  On peut don­­ner aussi une cor­­res­­pon­­dance entre les coef­­fi­cients akl du tableau opti­­mal du primal et arkl, ceux du tableau opti­­mal du dual, en se limi­­tant aux colonnes hors-­­­base (les colonnes de base sont tri­­viales, puisque uni­­taires) :

© Dunod – Toute reproduction non autorisée est un délit.

r 5 2 a l ,k . ak,l 5 2 a rl ,k et ak,l Une manière pra­­tique d’appli­­quer cette règle de cor­­res­­pon­­dance est de conden­­ser en un tableau unique le tableau opti­­mal et celui du dual : On y a réor­­donné la base opti­­male du primal : x1, x2, x3, x 1 ; x 2, x 3, x 4 (en met­­tant en tête les variables de base, puis les variables hors-­­­base) et le tableau opti­­mal du primal en consé­­quence (en échan­­geant sa troi­­sième et sa qua­­trième ligne) et l’on a fait figu­­ rer la ligne de la fonc­­tion éco­­no­­mique à l’opti­­mum du primal (les Δj et z) au-­­­dessus du tableau (au lieu d’au-­­­dessous). On y a aussi réor­­donné la base opti­­male du dual : y 1, y 2, y 3, y1 ; y 2, y 3, y 4 (en met­­tant en tête les variables hors-­­­base, puis les variables de base) et le tableau opti­­mal du dual en consé­­quence (en pla­­çant en der­­nière ligne, sa pre­­mière ligne, puis en réor­­ don­­nant les colonnes dans l’ordre ci-­­dessus. Enfin le vec­­teur des seconds membres a été placé à gauche du tableau au lieu d’à droite. Le tableau opti­­mal du dual est alors placé immé­­dia­­te­­ment au-­­­dessous de celui du primal. On déduit alors le sous-­­tableau non tri­­vial du tableau opti­­mal du dual (c’est-­­à-dire les colonnes hors-­­­base, les seconds membres et les Dr des variables hors-­­­base), à par­­tir du sous-­­­tableau non tri­­vial du tableau opti­­mal du primal, en trans­­po­­sant ce der­­nier sous-­­­tableau, puis en mul­­ti­­pliant par –1 tous les élé­­ments du sous-­­­tableau trans­­posé ; les deux sous-­­­tableaux non tri­­viaux, res­­pec­­ti­­ve­­ment du primal et du dual, sont enca­­drés d’un trait épais : 349

Chapitre 8 • La programmation linéaire





x4

x1

x2

x3

x1

x2

0

0

0

0

4 1/ 3 4/ 3 11500

1

0

0

2 2/ 3 1/ 3

250

x1

0

1

0

0 0

0

500

x2

0

0

1

0

0

0

0

1

0 2

0

2

1

0

1 2/ 3

0

1

0 0

1/ 3

0

0

1

0

0

0

y2

y3

y4

1

x3

0

1500 0 1 2/ 3 1/ 3 750 ↑



y2

4

2

1

y3

1/ 3

2/ 3

0

y4

4/ 3

1/ 3

0

0

z  11500 250 500 1500 750 y1

y2

y3

y1

z

x3 Primal x1

 Dual



Les sous-­­­tableaux rela­­tifs aux variables de base, res­­pec­­ti­­ve­­ment du primal (x1, x2, x3 et x 1) et du dual (y2, y3 et y4), sont qua­­li­­fiés de « tri­­viaux » car consti­­tués de colonnes uni­­taires (for­­mant une matrice iden­­tité, de for­­mat m 3 m au primal et n 3 n au dual), et de la par­­tie de la ligne des coef­­fi­cients de la fonc­­tion éco­­no­­mique (resp. D et Dr) asso­­ciée à ces variables de base ; ces coefficients sont donc tous nuls.

8.7.5 Rela­­tions d’exclu­­sion Consi­­dé­­rons deux pro­­grammes linéaires en dua­­lité : le primal (P) [A # x < b  ,  x > 0  ,  max z = c∙x]  et le dual (D) [y # A > c  ,  y > 0  ,  min zr 5 y # b].  Alors : , , , x 1, , x et y , ( x 5 3 , y 5 3, y 1, , y 2, c, , x 2, c, , y m 4 ), solu­­tions admis­­sibles x n 4 et , res­­pec­­ti­­ve­­ment du primal et du dual, sont des solu­­tions opti­­males si et seule­­ment si : , yi # , xi 5 0

, y i # £ bi 2 a aij # , xj ≥ 5 0 n

soit :

(i = 1, 2,c, m)

(1)

j51

f , y j#, xj 5 0

£ a, y i # aij 2 cj ≥ # , x i 5 0 ( j = 1, 2,cn) m

soit :

(2)

i51

Appli­­quons ces rela­­tions à notre exemple, le problème de l’atelier : y1 ? (1 000 2 x1) 5 0 ; y2 ? (500 2 x2) 5 0 ; y3 ? (1 500 2 x3) 5 0 ; c y4 ? (6 750 2 3x1 2 6x2 2 2x3) 5 0 (1) (y1 1 3y4 2 4) ? x1 5 0 ; (y2 1 6y4 2 12 ) ? x2 5 0 ; (y3 1 2y4 2 3) # x3 5 0 (2) 350

8.7  Dua­­lité

Les rela­­tions d’exclu­­sion per­­mettent : •  de trou­­ver aisément l’opti­­mum de dual, si l’on connaît l’opti­­mum du primal et réci­­pro­­que­­ment (on sup­­pose évi­­dem­­ment ici que l’on ne connaît pas le tableau opti­­ mal, sinon on appli­­que­­rait la règle de cor­­res­­pon­­dance du para­­graphe pré­­cé­­dent!), comme suit : Repre­­nons le sous-­­­problème de notre exemple de l’ate­­lier à n = 2 variables : ( P ) 3 x1 < 1 000 ; x2 < 500 ; x1 1 2x2 < 1 750 ; x1, x2 > 0 ; max z 5 4x1 1 12x2 4

il a pour dual : ( D )3 y1 1 y3 > 4; y2 1 2y3 > 12; y1, y2. y3 > 0; min zr 5 1 000y1 1 500y2 1 1750y34 .

Les rela­­tions d’exclu­­sion s’écrivent :

y1 ? (1 000 2 x1) 5 0 ; y2 ? (500 2 x2) 5 0 ; y3 ? (1 750 2 x1 2 2x2) 5 0

(1)

(y1 1 y3 2 4) ? x1 5 0 ; (y2 1 2y3 2 12 ) ? x2 5 0

(2)

b

On a résolu (gra­­phi­­que­­ment) (P) : x *1 5 750 , x *2 5 500 , z * 5 9 000 Repor­­tons ces valeurs dans les rela­­tions d’exclu­­sion ; il vient le sys­­tème linéaire :

© Dunod – Toute reproduction non autorisée est un délit.

y1 ? (1 000 2 750) 5 0 ; y2 ? (500 2 500) 5 0 ; y3 ? (1 750 2 1 750) 5 0 b (y1 1 y3 2 4) ? 750 5 0 ; (y2 1 2y3 2 12 ) ? 500 5 0

(1) (2)

On trouve aisé­­ment : y1 = 0 et, en repor­­tant dans (2) : y3 = 4, y2 = 4. On sait en outre qu’à l’opti­­mum z r = z, d’où z r = 9 000. L’optimum de (D) a donc été facilement obtenu. •  Les rela­­tions d’exclu­­sion per­­mettent aussi de tester si une solu­­tion admis­­sible du primal (ou du dual) est opti­­male ou pas. Il suf­­fit alors de repor­­ter les valeurs des variables du primal (resp. du dual) dans le sys­­tème des rela­­tions d’exclu­­sion, puis de déter­­mi­­ner si l’on obtient une solu­­tion admis­­sible du dual (resp. du primal) : si oui, la solu­­tion tes­­tée du primal est opti­­male, sinon elle ne l’est pas. Ainsi, sur le même exemple, tes­­tons si la solu­­tion admis­­sible x1 = 850 ; x2 = 450 est opti­­male (certes, nous connais­­sons d’avance le résul­­tat, puisque la solu­­tion opti­­male du pro­­blème de l’ate­­lier est unique, mais omet­­tons le pro­­vi­­soi­­re­­ment). Il vient : y1 ∙ (1 000 2 850) = 0 ; y2 ∙ (500 2 450) = 0 ; y3 ∙ (1 750 2 1 750) = 0 , d’où y1 = y2 = 0. Puis : (y3 2 4) ∙ 850 = 0 et (2y3 2 12) ∙ 450 = 0. Il y a contra­­dic­­tion : y3 ne sau­­rait être égal à la fois à 4 et à... 6. La solution admissible de (P) : x1 5 850 et x2 5 450 n’est donc pas optimale. Pour ter­­mi­­ner sou­­li­­gnons que les rela­­tions d’exclu­­sion s’appliquent à des solu­­tions admis­­sibles de (P) et (D), mais pas néces­­sai­­re­­ment de base (comme dans notre cal­­ cul ci-­­­dessus). Ainsi pour l’exemple du 8.3.1, pour lequel tous les points du segment [B,C] sont optimaux, le lecteur pourra vérifier ainsi que la solution x1 = 2,2 ; x2 = 4,7 ; x 1 5 1,2 (qui n’est pas de base) est optimale : le point (2,2 ; 4,7) étant sur [B, C].

351

Chapitre 8 • La programmation linéaire

Enfin ces rela­­tions impliquent que : – si une contrainte du primal n’est pas satu­­rée (x i 2 0), alors la variable duale asso­­ciée à cette contrainte est nulle : yi = 0 ; – si une contrainte du dual n’est pas satu­­rée (y j 2 0), alors la variable primale asso­­ciée à cette contrainte est nulle : xj = 0 ; – si une variable du primal xj est non nulle, alors la variable d’écart du dual y j est nulle. – si une variable du dual yi est non nulle, alors la variable d’écart du primal x i est nulle.

8.8 Pro­­gramme linéaire en nombres entiers Méthodes des troncatures de gomory En pra­­tique il arrive fré­­quem­­ment que dans un pro­­gramme linéaire cer­­taines variables soient astreintes à être entières, comme nous l’avons déjà vu en fin du cha­­ pitre 1. On parle alors de « pro­­gramme linéaire en nombres entiers » (PLNE). Ainsi une entre­­prise ne sau­­rait construire 1, 45 entre­­pôts, acqué­­rir x2 = 2, 37 camions ou encore affré­­ter x3 = 0, 41 avion. . . comme pour­­rait lui indi­­quer la solu­­tion opti­­ male d’un PL en variables conti­­nues ! Mal­­heu­­reu­­se­­ment l’arrondi des variables, que ce soit par excès ou par défaut, peut ne pas être opti­­mal ou, pire, ne pas être admis­­sible (comme dans l’exemple du para­­graphe sui­­vant). Aussi ne pourra-­­­t-on pas se contenter d’arron­­dir les variables pour pas­­ser de l’opti­­mum du PL continu à celui du PLNE. En outre, dans la modé­­li­­sa­­tion de nom­­breux pro­­blèmes de recherche opé­­ra­­tion­­nelle, il se révèle néces­­saire d’intro­­duire des variables binaires : xj = 0 ou 1, pour repré­­sen­­ter des contraintes non clas­­siques, comme par exemple des dis­­conti­­nui­­tés dans une courbe de tarif d’un tran­­spor­­teur ou dans le cas de charges fixes, s’ajou­­tant à un coût d’acti­­vité pro­­por­­tion­­nel au niveau de cette acti­­vité, dès lors que ce niveau n’est pas nul ; ou, plus clas­­si­­que­­ment, pour le choix d’entre­­pôts à construire sur des sites à déter­­mi­­ner dans une liste des sites pos­­sibles ; ou encore pour le choix de maté­­riels à acqué­­rir ou pas. Quelques modèles clas­­siques sont impor­­tants pour les appli­­ca­­tions en logis­­tique comme dans les plan­­nings de tran­­sport de per­­sonnes (auto­­bus, métros, trains, avions) : le pro­­blème du sac à dos ou knapsack (déjà traité dans cet ouvrage), le pro­­blème de par­­ tition­­ne­­ment, le pro­­blème de recou­­vre­­ment (consul­­ter, par exemple, [Roseaux, tome 3]). Voici un exemple de « knapsack » : un camion peut tran­­spor­­ter une charge maximale de b = 14 tonnes, de n = 4 mar­­chan­­dises dif­­fé­­rentes. Le poids de cha­­cune des 4 mar­­chan­­dises est res­­pec­­ti­­ve­­ment de 4, 6, 8 et 10 tonnes. Enfin, le béné­­fice attendu de la vente de cha­­cune des mar­­chan­­dises, après son tran­­sport, vaut res­­pec­­ti­­ve­­ment : 2 000, 2 700, 3 600 et 4 400 euros. Déter­­mi­­ner le char­­ge­­ment du camion per­­met­­tant de maxi­­mi­­ser le béné­­fice. Le pro­­blème s’écrit : c

352

4x 1

1

6x 2

1

8x 3

1

10x 4


1 , où i 5 1, 2, n

n

j51

j51

Voici une appli­­ca­­tion du pro­­blème de par­­tition­­ne­­ment à un pro­­blème de tour­­ nées. Soient quatre points e1, e2, e3, e4 repré­­sen­­tant quatre clients à qui l’on doit livrer respectivement 2, 4, 8 et 10 tonnes de mar­­chan­­dise, à par­­tir d’un entre­­pôt cen­­tral e0, ceci avec un camion de capa­­cité C = 16 tonnes. Le tableau (symé­­trique) des dis­­ tances (en km) est le sui­­vant : e0 e1 e2 e3 e4 e0

.

e1 15

15 8

.

12 9

e3

12 25 5 8 12 . 10 20 12 25 10 . 6

e4

9

e2

5

20 6

.

P1 P2 P3 P4 P5 P6 P7 P8 P9 P10 P11 e1

1

0

0

0

1

1

1

0

0

1

1

e2

1

0

0

1

0

0

1

1

1

1 A

e3

0 0

0

1

0

0

1

0

1

0

1

0

e4

0

0

0

1

0

0

1

0

1

0

1

cj 30 16 24 18 35 52 29 30 37 49 34 On peut, ici, énu­­mé­­rer toutes les tour­­nées « admis­­sibles » Pj, c’est-­­­à-dire res­­pec­­tant la contrainte de capa­­cité (la somme des quan­­ti­­tés livrées aux clients d’une même tour­­née doit être infé­­rieure ou égale à 16 tonnes) ; cette énu­­mé­­ra­­tion des 11 tour­­ nées admis­­sibles n’a été pos­­sible que parce que cet exemple est de très petite taille. Don­­nons le détail du cal­­cul du coût cj de la tour­­née Pj ; ainsi pour la tour­­née P11 qui concerne les clients e1, e2 et e4 (puisque a1, 11 = a2, 11 = a3, 11 = 1), on cherche l’iti­­ né­­raire de lon­­gueur (en km) mini­­male qui, par­­tant de e0, per­­met de pas­­ser une fois et une seule chez ces trois clients, puis de reve­­nir à e0. Ceci revient à résoudre le « pro­­blème du voya­­geur de com­­merce » (TSP) pour une ins­­tance de très petite taille, puisque com­­por­­tant seulement quatre points ; on véri­­fie que, parmi les 3 cycles hamiltoniens du graphe ci-­­contre, celui de la lon­­ gueur mini­­male est : 354

8.8  Pro­­gramme linéaire en nombres entiers…

[e0, e2, e1, e4, e0] avec 34 km. Dans un exemple de taille indus­­trielle, l’énu­­mé­­ra­­tion exhaus­­ 5 12 9 8 tive des tour­­nées admis­­sibles serait impra­­ti­­cable et l’on e4 e2 pro­­cé­­de­­rait à une géné­­ra­­tion pro­­gres­­sive de tour­­nées « inté­­ 20 res­­santes », sans les énu­­mé­­rer toutes : il s’agit là d’une tech­­ nique de « géné­­ra­­tion de colonnes » per­­met­­tant de trai­­ter cer­­tains PL com­­por­­tant, a priori, un très grand nombre de colonnes (dont l’exposé sort du cadre de cet ouvrage). Les pro­­blèmes de tour­­nées peuvent être réso­­lus, de manière appro­­chée, par des heu­­ris­­tiques « gour­­mandes » comme la méthode des écar­­te­­ments de Fletcher. Voici la for­­mu­­la­­tion de notre pro­­blème de tour­­nées en tant que pro­­blème de par­­ tition­­ne­­ment avec 11 variables binaires : 15

e0

e1

x1

+ x5 + x6 + x7 + x10 + x11 = + x8 + x9 + x10 + x11 = x5 + x2 + x6 + x8 + x10 = e x3 + x7 + x9 + x11 = x4 30x1 + 16x2 + 24x3 + 18x4 + 35x5 + 52x6 + 29x7 + 30x8 + 37x9 + 49x10 + 34x11 =

1 1 1 1 z

La solu­­tion opti­­male de ce pro­­blème est : x3 = x11 = 1 ; elle a pour coût z* = 58. Elle cor­­res­­pond aux deux tour­­nées [e0, e2, e1, e4, e0] et [e0, e3, e0]. Nous pas­­sons main­­te­­nant à une méthode de réso­­lu­­tion dif­­fé­­rente de celles évo­­ quées ci-­­­dessus, fon­­dée uni­­que­­ment sur la pro­­gram­­ma­­tion linéaire et per­­met­­tant de trai­­ter des PL en variables entières.

8.8.1 Méthode des tron­­ca­­tures de Gomory 12x1

© Dunod – Toute reproduction non autorisée est un délit.

Soit à résoudre le PL :  d

2

x1

,

x1

1

8x2

2x2

<
Ε(aij), car Ε(aij) est le plus grand entier infé­­rieur ou égal à aij. Pre­­nons une variable hors-­­­base xj; puisqu’elle est posi­­tive ou nulle, on a aij # x j > E ( aij ) # x j.

Som­­mons toutes ces rela­­tions pour x j Pn; il vient : a aij # x ij > a E ( aij ) # x j. Par ajout de xi à chaque membre, il vient :

x jPn

x jPn

bi 5 x i 1 a aij # x j > x i 1 a E ( aij ) # x j. x jPn

(8.1)

x jPn

On a aussi bi > E ( bi ) . Si xi doit être entier, de même que xj pour tout x j PN, on a donc : E ( bi ) > x i 1 a E ( aij ) # x j x jPn

356

(8.2)

8.8  Pro­­gramme linéaire en nombres entiers…

Intro­­dui­­sons la par­­tie fractionnaire fi de bi : bi 5 E(bi) 19 19 5 19 par exemple 5 2 1 donc E a b 5 2 et f a b 5 7 7 7 7 pour la par­­tie fractionnaire fij de aij : aif 5 E(aij) 1 La rela­­tion (1) s’écrit :

1 fi où 0 < fi , 1 ; 5 ; il en va de même 7 fij où 0 < fij , 1.

x i 1 a ( E ( aij ) 1 f ij ) # x j 5 bi

(8.2bis)

x jPn

Intro­­dui­­sons une variable d’écart si > 0 dans la rela­­tion (8.2) : x i 1 a E ( aij ) # x j 1 si 5 E ( bi )

(8.2ter)

x jPn

La sous­­trac­­tion membre à membre (8.2bis) et (8.2ter) four­­nit :

# a f ij x j 2 si 5 f i

(8.3)

x jPn

Consi­­dé­­rons maintenant une variable de base xi qui, à l’opti­­mum du PL continu, ne serait pas entière ; alors on a : fi . 0 . Pour pas­­ser aux valeurs numé­­riques des variables à cet optimum, on annule les variables hors-­­­base : xj = 0 pour x j Pn; (8.3) donne alors –si = fi, or –si est néga­­tif ou nul, tan­­dis que fi est stric­­te­­ment posi­­tif. Ainsi la contrainte (3) n’est pas véri­­fiée à l’opti­­mum du PL continu ; si on la rajoute aux contraintes du PL, elle sup­­prime une par­­tie du domaine admis­­sible $, d’où son nom de « tron­­ca­­ture » ; on peut démon­­trer que la par­­tie sup­­pri­­mée ne contient pas de point à coor­­don­­nées qui seraient toutes entières. Notons que l’on peut faire subir à l’expres­­sion (2) de la fonc­­tion éco­­no­­mique : z 1 a Dj # x j 5 z*,

(8.4)

x jPn

© Dunod – Toute reproduction non autorisée est un délit.

un trai­­te­­ment ana­­logue à celui de la rela­­tion (2). Reve­­nons à notre exemple. Les rela­­tions (8.3) s’écrivent : 5 1 1 1 x 3 1 x 4 2 s1 5 f a b 5 3 12 4 4 3 1 1 pour i = 2 :  x 4 2 s2 5 f a b 5 2 2 2 pour i = 1 : 

1 1 x4 2 s2 5 dans notre pro­­gramme 2 2 linéaire ; pour cette nou­­velle contrainte, la solu­­tion cou­­rante du primal n’est pas admis­­sible. Mais nous pou­­vons l’inté­­grer au primal1, à condi­­tion d’ajou­­ter dans Nous choi­­sis­­sons d’inté­­grer la seconde :

1. Cette contrainte est « duale-­­­admissible » et pour­­rait être direc­­te­­ment inté­­grée au dual. Notre démarche, ici, est seule­­ment didac­­tique. 357

Chapitre 8 • La programmation linéaire

cette nou­­velle contrainte une variable arti­­fi­cielle, notée a2, pour com­­plé­­ter la base pré­­cé­­dente b 5 {x1, x2}; en effet, nous avons désor­­mais 3 contraintes expli­­cites. 1 1 Comme plus haut : La nou­­velle contrainte devient : x 4 2 s2 1 a2 5 et la 2 2 fonc­­tion éco­­no­­mique (cf 8.5.6) :





z r 5 x 1 1 x 2 2 M # a 2  (où M est un coef­­fi­cient posi­­tif très grand); a2 étant une variable de base, il convient d’abord d’expri­­mer z r en fonc­­tion des variables hors-­­­base, 11 M M 5 1 soit : x3, x4 et s2 ; ce qui donne : zr 5 a 2 b 2 x3 1 a 2 bx4. 4 2 2 12 6 ci

xi

x1

x2

1

x1

1

0

1

x2

0

1

M

a2

0 cj

s2

a2

1/ 12 1/ 3

0

0

5/4

0

1/2

0

0

3/ 2

0

0

1/2

1

1

1/ 2

1

1

0

0

0

M

0

0 1/ 12 M/ 2 M 5/ 6

x3

x4

0

z  11 M 4  2



e

En une ité­­ra­­tion, on fait sor­­tir de la base cou­­rante la variable arti­­fi­cielle a2 et on obtient une base sans variable arti­­fi­cielle (a2 sera donc prise nulle ulté­­rieu­­re­­ment) : ci

xi

x1

x2

x3

x4

s2

1

x1

1

0

1/ 12

0

2/ 3 2/ 3

1

x2

0

1

0

1

0

x4

0

0

0 0

1

2

1 2

1

1

0

0

0

M

0

0

cj

1/ 12 0

a2

5/ 3 M 5/ 3

11/ 12 1 1 z  23 12

(comme la variable arti­­fi­cielle a2 est nulle, on a : z coïncide désormais avec z'). Dans la suite on sup­­pri­­mera donc la colonne a2 de ce tableau. 11 La variable de base x1 vaut  ; x1 n’étant pas entière, on peut en déduire une nou­­ 12 11 1 2 velle tron­­ca­­ture : x 3 1 s2 2 t1 5 , où t1 est une nouvelle variable d’écart. 3 12 12 358

8.8  Pro­­gramme linéaire en nombres entiers…

s



À nou­­veau, cette contrainte n’est pas « primal-­­­admissible » : pour l’inté­­grer au primal, on y ajoute une variable arti­­fi­cielle, notée a1. Elle devient : 11 1 2 x 3 1 s2 2 t1 1 a1 5 . 3 12 12 # et la fonc­­tion éco­­no­­mique est z s 5 x 1 1 x 2 2 M a1  (à maximiser). Le nou­­veau tableau est le sui­­vant : ci

xi

x1

x2

x3

x4

s2

t1

a1

1

x1

1

0

1/ 12

0

2/ 3

0

0

11/12

1

x2

0

1

0

0

1

0

0

1

0

x4

0

0

0

1

2

0

0

1

M

a1

0

0

1/ 12

0

2/ 3

1

1

11/12

1

1

0

0

0

0

M

0

M 1 12

0

2M 5 3

M

0

cj

0

j

z  23 11M 12



e

© Dunod – Toute reproduction non autorisée est un délit.

En fai­­sant entrer en base x3, la variable arti­­fi­cielle a1 sort de la base : ci

xi

x1

x2

x3

x4

s2

t1

a1

1

x1

1

0

0

0

0

1

1

0

1

x2

0

1

0

0

1

0

0

1

0

x4

0

0

0

1

2

0

0

1

0

x3

0

0

1

0

8

12

12

11

cj

1

1

0

0

0

0

M

j

0

0

0

0

1

1

M

z  1

1 ici z s 5 z car a1 5 0. Puisque désor­­mais a1 = 0, on peut sup­­pri­­mer la colonne a1. On est alors à l’opti­­mum de PLNE puisque toutes les variables sont entières : x1 = 0 ,  x2 = 1,  x3 = 11,  x4 = 1 ;  z* = 1.

8.8.2 Inter­­pré­­ta­­tion gra­­phique On aurait pu, certes, pro­­fi­ter du fait que le PLNE ne com­­porte ini­­tia­­le­­ment que 2 variables pour le résoudre gra­­phi­­que­­ment. Mais notre pro­­pos est, ici, seule­­ment d’illus­­trer com­­ment, à chaque ité­­ra­­tion, la tron­­ca­­ture éli­­mine du domaine admis­­sible 359

Chapitre 8 • La programmation linéaire

ini­­tial d, une par­­tie ne conte­­nant pas de point à coor­­don­­nées toutes entières (points indi­­qués en gras sur les figures ci-­­après).

Figure 8.11

Pour obte­­nir l’équa­­tion de la droite qui tronque d(0) et ainsi obte­­nir d(1), il suf­­ 1 1 fit, dans la pre­­mière tron­­ca­­ture : x 4 2 s2 5 , de ne faire figu­­rer que les variables 2 2 prin­­ci­­pales : x1, x2, et s. Après intro­­duc­­tion de la variable d’écart x4 dans la seconde 3 1 contrainte du PL ini­­tial, on avait : 2x2 + x4 = 3 d’où x 4 5 2 x 2, que nous repor­­ 2 2 3 1 tons dans la tron­­ca­­ture : a 2 x 2 b 2 s2 5 soit x2 + s2 = 1 qui équi­­vaut (s2 étant 2 2 une variable d’écart) à la contrainte nou­­velle : x 2 < 1; la droite tron­­quant d(0) pour obte­­nir d(1) est donc : x2 = 1. Pour la seconde tron­­ca­­ture (pas­­sage de d(1) à d(2)), 11 1 2 il vient : x 3 1 s2 2 t1 5  ; or, d’après la pre­­mière contrainte du PL ini­­tial : 3 12 12 1 1 2 12x1 – 8x2 + x3 = 3, d’où : x 3 5 2 x 1 1 x 2. De plus nous avions, au pas 3 12 4 2 2 2 pré­­cé­­dent, x2 + s2 = 1, d’où s2 5 2 x 2. La seconde tron­­ca­­ture s’écrit donc : 3 3 3 1 2 2 11 2 ,  soit x1 + t1 = 0 ,  d’où la nou­­velle a 2 x 1 1 x 2 b 1 a 2 x 2 b 2 t1 5 3 3 3 4 12

contrainte : x 1 < 0 ; la droite tron­­quant d(1) pour obte­­nir d(2), qui n’est autre que le seg­­ment [O, C], est donc : x1 = 0. Note. Le nombre de contraintes (tron­­ca­­tures) rajou­­tées au fil des ité­­ra­­tions peut être expo­­nen­­tiel par rap­­port à la taille du pro­­gramme linéaire d’ori­­gine : la méthode de Gomory n’est pas poly­­no­­miale. Indi­­quons que – plus géné­­ra­­le­­ment – le pro­­blème de la pro­­gram­­ma­­tion linéaire en nombres entiers est NP-­­difficile (le lec­­teur se repor­­ tera au cha­­pitre 2, para­­graphe 2.2.1, com­­plexité des pro­­blèmes). Même dans des cas « simples » comme le pro­­blème du sac à dos en variables entières (knapsack), c’est360

Exercices

­à-dire un PL com­­por­­tant une seule contrainte, le pro­­blème reste NP-­­difficile (pour des don­­nées quel­­conques).

EXER­­CICES *8.1 For­­mu­­la­­tion et réso­­lu­­tion gra­­phique d’un P.L. Une bras­­se­­rie A pro­­duit 2 types de bière pour les­­quels elle uti­­lise 3 matières pre­­ mières : maïs, hou­­blon et malt. Le tableau ci-­­­dessous résume les don­­nées du pro­­blème. Maïs

Houblon

Malt

Bénéfice

Bière blonde

2,5 kg

125 g

175 kg

65 €

Bière brune

7,5 kg

125 g

10 kg

115 €

Quantités disponibles

240 kg

5 kg

595 kg

Pour fabri­­quer 1 ton­­neau de bière blonde, le bras­­seur uti­­lise 2,5 kg de maïs, 125 g de hou­­blon et 17,5 kg de malt. La fabri­­ca­­tion de ce ton­­neau lui rap­­porte alors un béné­­ fice de 65 €. Le tableau se lit de manière ana­­logue pour la bière brune. 1.  Déter­­mi­­ner la fabri­­ca­­tion opti­­male du bras­­seur gra­­phi­­que­­ment ; véri­­fier par la méthode des tableaux. 2.  Une bras­­se­­rie concur­­rente (notée B) demande au bras­­seur A de lui ven­ dre 50 % de son stock de hou­­blon (et ce, bien entendu, avant que la fabri­­ ca­­tion déter­­mi­­née au 1) ne soit lan­­cée). À quel prix mini­­mum A devra-­­­t-il lui vendre cette quan­­tité de hou­­blon ? Expli­­quer clai­­re­­ment votre rai­­son­­ne­­ment.

© Dunod – Toute reproduction non autorisée est un délit.

*8.2 Méthode des tableaux du sim­­plexe et para­­mé­­trages Dans une carrière, trois tailles t1, t2 et t3 sont sus­­cep­­tibles de four­­nir une extrac­­tion maximale jour­­na­­lière de res­­pec­­ti­­ve­­ment e1 = 200, e2 = 500 et e3 = 300 tonnes de trois minerais. La pro­­duc­­tion jour­­na­­lière est d’abord sto­­ckée dans un local abrité, d’une conte­­nance maximale de 1 800 m3 et l’on indique les volumes spé­­ci­­fiques res­­pec­­tifs des trois minerais : 1,8 ; 2 et 2,2 m3/t. Le len­­de­­main, les mine­­rais sont lavés : la lave­­rie débite res­­pec­­ti­­ve­­ment 80, 90 et 100 tonnes à l’heure pour les pro­­duits extraits des tailles t1, t2 et t3 ; en outre, son horaire jour­­na­­lier est limité à 10 heures de tra­­vail. Enfin, les pro­­fits uni­­taires réa­­li­­sés sont, res­­pec­­ti­­ve­­ment : p1 = 4, p2 = 5, p3 = 6 uni­­tés moné­­taires par tonne de minerai. 361

Chapitre 8 • La programmation linéaire

1.  Quelle est la meilleure répar­­tition des quan­­ti­­tés de minerais à extraire ? 2.  On conteste le pro­­fit réa­­lisé sur le mine­­rai extrait de la taille 1 : com­­ ment l’opti­­mum est-­­­il modi­­fié si ce pro­­fit varie autour de 4 uni­­tés moné­­ taires ? Poser : c1 = 4(1 + l). Les cal­­culs pour la ques­­tion 3 étant longs, le lec­­teur est invité à consul­­ter le cor­­rigé. 3.  La quan­­tité maximale, extraite de t3 a été mal éva­­luée. Com­­ment la répar­­tition opti­­male évolue-­­­t-elle si l’on pose : e3 = 300(1 + μ) ? NB.  Cet exer­­cice couvre une grande par­­tie de ce cha­­pitre de P.L. Le niveau de la ques­­tion 2 est de 2 étoiles ; celui de la 3ème, de 3 étoiles.

*8.3 Contrainte redon­­dante. Dua­­lité Soit à maxi­­mi­­ser la fonc­­tion­­nelle linéaire : 5x1 1 4x2 1 3x3 1 sous les contraintes : x1 1 x2 1 x3 1 e

x4

5

x4


> >

60 6 12 60 10 42 0

(1) (2) (3) (4) (5) (6)

1.  Écrire les six in­­­équa­­tions don­­nant x1 en fonc­­tion des autres variables et mon­­trer que l’une d’entre elles est redon­­dante (c-à-d iso­­ler le terme en x1 dans les six in­­­équa­­tions). 2.  Uti­­li­­sant le fait qu’il reste une in­­­équa­­tion seule­­ment du type x 1 < f ( x 2, x 3 ) et plu­­sieurs du type x1 > wi ( x2, x3 ) , mon­­trer que, quel que soit i : wi ( x 2, x 3 ) < f ( x 2, x 3 ) .

363

Chapitre 8 • La programmation linéaire

3.  Mettre les deux in­­­équa­­tions qui sub­­sistent sous la forme : x3 < g(x2 ) x 3 > c( x 2 ) et en déduire les bornes numé­­riques de x2. 4.  Mon­­trer qu’il faut prendre x2 = 0 pour minimi­­ser F et en tirer les bornes numé­­riques de x3. 5.  Reve­­nant aux in­­­équa­­tions ini­­tiales qui ne contiennent plus x2, déter­­mi­­ ner les bornes numé­­riques de x1, puis choi­­sir x1 et x3 de manière à minimi­­ ser F, tout en res­­pec­­tant l’ensemble des contraintes.

**8.7 Pro­­blème de découpe Une pape­­te­­rie fabrique du papier en rou­­leaux de lar­­geur don­­née, qui est impo­­sée par les carac­­té­­ris­­tiques de la machine de fabri­­ca­­tion. Par contre, les com­­mandes des clients font état de diverses lar­­geurs. Ainsi, le rou­­leau de lar­­geur stan­­dard, 215 cm ici, doit-­­­il être coupé, ce qui entraîne des pertes. Le pro­­blème que le pape­­tier veut résoudre est celui de la minimi­­sa­­tion des pertes à la coupe (c’est-­­­à-dire de la sur­­face des chûtes). On pourra consi­­dé­­rer, dans la suite, que la lon­­gueur des rou­­leaux est qua­­si­­ment infi­­nie.

On sup­­pose que la pape­­te­­rie a reçu les com­­mandes sui­­vantes : Largeurs (en cm) Longueurs commandées (en cm) A

95

180

B

84

90

C

60

90

On pré­­cise que les com­­mandes doivent être au moins satis­­faites, mais on n’exige pas qu’elles le soient, exac­­te­­ment : les lon­­gueurs décou­­pées en sur­­plus, sur une des lar­­geurs com­­man­­dées, ne sont pas consi­­dé­­rées comme des chutes (elles seront commercialisées ultérieurement). 364

Exercices

1.  Don­­ner, sous la forme d’un tableau, les 6 pos­­si­­bi­­li­­tés de coupe (« plans de coupe ») stan­­dard en fonc­­tion des lar­­geurs com­­man­­dées, ainsi que les pertes sur la lar­­geur (expri­­mées en cm). On jus­­ti­­fiera le fait qu’on ne consi­­dère que 6 pos­­ si­­bi­­li­­tés, à énu­­mé­­rer dans l’ordre lexi­­co­­gra­­phique : 1) AA, 2) AΒ, … 6) CCC. 2.  a)  En notant xj la lon­­gueur décou­­pée sui­­vant le plan de coupe j ( j = l, 2, …, 6), modé­­li­­ser ce pro­­blème sous forme de pro­­gramme linéaire. b)  Don­­ner son dual et poser le pre­­mier tableau de la réso­­lu­­tion de ce dual. c)  Trou­­ver une solu­­tion opti­­male du dual quasi évi­­dente (qu’implique la 3e contrainte du dual). 3.  En divi­­sant chaque contrainte du primal par un entier conve­­nable, faire appa­­raître une base évi­­dente (avec B = I ) et poser le tableau asso­­cié. Est-­­­il opti­­mal ? (NB : intro­­duire les variables d’écart seulement APRES ces divi­­ sions.) Com­­pa­­rer cette démarche avec l’emploi de variables arti­­fi­­cielles pour le primal sous sa forme du 2). 4.  Par ins­­pec­­tion des contraintes expri­­mant que les lon­­gueurs décou­­pées, res­­pec­­ti­­ve­­ment en lar­­geur 95 cm (A) et 84 cm (B), sont au moins égales aux lon­­gueurs res­­pec­­tives com­­man­­dées, et en tenant compte des coef­­fi­­cients de la fonc­­tion éco­­no­­mique, trou­­ver par un rai­­son­­ne­­ment direct le (ou les) opti­­ mum(s). On jus­­ti­­fiera le fait que les variables x3, x5 et x7 sont les variables de base à l’opti­­mum. Don­­ner alors la sur­­face des chûtes en m2. 5.  Don­­ner la matrice de base Β asso­­ciée à la solu­­tion du 4) pour laquelle la lon­­gueur décou­­pée en lar­­geur 95 cm vaut exac­­te­­ment 180 m. Cal­­cu­­ler Β–1, puis dres­­ser le tableau du sim­­plexe asso­­cié. Conclure. 6.  a) A l’aide du 5), déter­­mi­­ner sans cal­­cul les valeurs opti­­males des variables duales. b) Retrou­­ver ces valeurs, à l’aide des rela­­tions d’exclu­­sion, connais­­sant l’opti­­ mum du primal.

© Dunod – Toute reproduction non autorisée est un délit.

**8.8  Démar­­rage de l’algo­­rithme du sim­­plexe : pro­­blème de la base ini­­tiale Soit le programme linéaire (PL) : x1 1 3x2 1 5x3 x1

d

3x 1

2x 1 x1

1

x2

2

1

x2

1

1

7x 2

x3

3x 3

1

x4

1

x4

1

4x5

5 5

1

3x 4

1

1

x4

1

x5

2x 5

5 5

z 3 max 4 1

8

20

, x2 , x3 , x4 , x5 > 0 1.  Véri­­fier que la solu­­tion x1 = 0 ; x2 = 2 ; x3 = 1 ; x4 = 0 ; x5 = 3 est une solu­­tion de base ; on notera B la matrice for­­mée des colonnes asso­­ciées aux variables de cette base. 2.  Expri­­mer cha­­cune des variables de base en fonc­­tion des variables hors base (il sera néces­­saire de cal­­cu­­ler B–1). 365

Chapitre 8 • La programmation linéaire

3.  Don­­ner l’expres­­sion de la fonc­­tion éco­­no­­mique, z, en fonc­­tion des variables hors base ; est-­­­on à l’opti­­mum du P.L. ? 4.  Dres­­ser le tableau du sim­­plexe cor­­res­­pon­­dant à cette solu­­tion de base ; au besoin ité­­rer l’algo­­rithme du sim­­plexe pour obte­­nir l’opti­­mum, que l’on don­­nera en détail.

**8.9  Pro­­blème de Klee et Minty (1972) Il s’agit ici d’un cas extrême, pour lequel le 1er cri­­tère de Dantzig conduit à un nombre très grand d’ité­­ra­­tions (énu­­mé­­ra­­tif) (c’est pourquoi on peut lui substituer le critère de Bland, par exemple). Soit les pro­­grammes linéaires ci-­­­dessous : x1

PL 2 d

20x 1 x1




0

1

x2

5

z 3 max 4

x1

PL 3 e 200x 1 x1

100x 1

i21

PLnf


a14p1 1 a24p2 1 a34p3 > p1 1 p2 1 p3 5

g;

( dans le cas où q1 ( si  q2 g; ( si  q3 g ;  ( si  q4 g; 1

5 1) 5 1) 5 1) 5 1)

Mais, si nous posons comme hypo­­thèse l’exis­­tence d’un point-­­­selle a32 , nous avons, avec β31 , β33 , β34 . 0 et β12 , β22 > 0 : a31 = a32 + β31 ;  a33 = a32 + β33 ;  a34 = a32 + β34 , car un point-­­­selle est le plus petit élé­­ment dans sa ligne (ici d’indice i = 3). Et : a12 = a32 – β12 ;  a22 = a32 – β22 , car un point selle est le plus grand élement dans sa colonne (ici d’indice j = 2). 1. Il s’agit de l’espé­­rance mathéma­­tique de gain de A, pour un coup donné. 370

9.2  Jeux à deux per­­sonnes et à somme nulle

Nous pour­­rons écrire : a11p1

+

a21p2

+

(a32 + β31)p3

>

g

(a32 – β12)p1

+

(a32 – β22)p2

+

a32p3

>

g

a13p1

+

a23p2

+

(a32 + β33)p3

>

g

a14p1

+

a24p2

+

(a32 + β34)p3

g

p1

+

p2

+

p3

> =

Ir e

1

La deuxième inéga­­lité peut être mise aussi sous la forme : a32 – (β12p1 + β22p2) > g, dont le pre­­mier membre atteint son maxi­­mum pour p1 = p2 = 0 (car : β12, β22 . 0  et  p1, p2 > 0). Alors on a  : p3 = 1. Ainsi, a32 > g : la valeur du jeu est infé­­rieure ou égale au point-­­­selle. Au contraire, pour le joueur B, joueur minimi­­sant, sa perte doit être la plus faible pos­­sible : a11q1 + a12q2 + a13q3 + a21q1 + a22q2 + a23q3 + II d a31q1 + a32q2 + a33q3 + q2 + q3 + q1 + Avec les mêmes nota­­tions que ci-­­­dessus, on obtient :

IIr d

a14q4 a24q4 a34q4 q4

< < < =

g g g 1.

a11p1

+

(a32 – β12)q2

+

a13q3

+

a14q4


> > = >

g g g 1 0 373

Chapitre 9 • Introduction à la théorie des jeux

[min] g sous les contraintes : –q1 + 2q2 + q3 < g q1 – 2q2 + 2q3 < g pour B : II e 3q1 + 4q2 – 3q3 < g q2 + q3 = 1 q1 + q2 , q3 > 0 q1 , Ce sont deux pro­­grammes linéaires para­­mé­­trés (par g). Nous pou­­vons éli­­mi­­ner des in­­­équa­­tions de II l’une des variables, par exemple q3 > 0, en substituant à q3 sa valeur : q 3 5 1 2 q 1 2 q 2 Il vient : –2q1 –q1 IIr e 6q1 q1 q1

q2 4q2 7q2 q2 q2

+ – + + ,

q3 q3

+ ,

g–1 g–2 g+3 1 0

< < < = >

Intro­­dui­­sons des variables d’écart pour rame­­ner les in­­­équa­­tions à des équa­­tions :

IIs d

–2q1

+

q2

–q1 6q1

– +

4q2 7q2

q1

+

q2

+

q4 +

q5 +

+

q6

q3

=

g – 1 (1)

= =

g – 2 (2) g + 3 (3)

=

1

Nous allons main­­te­­nant sim­­pli­­fier le sys­­tème, en sous­­trayant la deuxième équa­­tion : (2) de la pre­­mière (1), et de la troi­­sième (3), de manière à faire dis­­pa­­raître la valeur inconnue g ; nous avons choisi de sous­­traire la deuxième équa­­tion car g – 2 , g – 1 < g + 3 : ainsi obtiendrons-­­­nous des seconds membres posi­­tifs. On a : –q1 7q IIt c 1 q1

+ + +

5q2 11q2 q2

+ +

q3

q4

– –

q5 q5

+

q6

= = =

1 5 11

Si, compte tenu de ces trois éga­­li­­tés, on minimise la fonc­­tion –q1 – 4q2 + q5 + 2, qui est égale à g, on obtient­­ un programme linéaire ; en fait, nous maxi­­mi­­se­­rons l’opposé, soit q1 + 4q2 – q5 – 2, qu’on résoudra en uti­­li­­sant la méthode des tableaux. Nous pre­­nons donc comme fonction économique z = q1 + 4q2 – q5, qui est à maximiser. 1. Cette équation signifie que le point représentatif de toute solution dans le système d'axes q1, q2, q3 se trouve dans le plan q1 1 q2 1 q3 5 1. 374

9.3  Notion de stra­­té­­gies mixtes

Note. On remarque que l’équa­­tion ini­­tiale Sqk  =  1 est fina­­le­­ment conser­­vée, l’une de ses variables (ici q3) jouant le rôle d’une variable d’écart. Il serait dan­­ge­­reux d’éli­­ mi­­ner cette équation, car on n’obtien­­drait pas néces­­sai­­re­­ment un pro­­gramme équi­­va­­ lent. Mais, même en la main­­te­­nant, étant donné qu’on a éli­­miné arbi­­trai­­re­­ment l’une des variables prin­­ci­­pales des autres équa­­tions, il peut se pré­­sen­­ter des dif­­fi­­cul­­tés en cas dégé­­né­­res­­cence. Voici la résolution par la méthode des tableaux du simplexe. 1

5

0 1 1 0

1

0 6

7 11 0 0 1 1

5

0 3

1 1 1 0 0 0

1

1 4 0 0 1 0

z 0

0 4

1

s



s



1 2 3 4 5 6

2

3

4

5

6

1/ 5 1/ 5 0

1/ 5

0 11/ 5 6/ 5

1

14/ 5

0

1 1/ 5 1/ 5

0

4/ 5

0

0  4/ 5 1/ 5 0

4

2

1/ 5 1

0

0

6

46/5

0

0

3

6/ 5 9/ 5

z 4/ 5





e

e Finalement:

1

2

3

4

2

0

1

0

1

1

1

0

0

3

0

0 0

0

0

0

j

1

4

5

6

7/46 4/23 1/46 11/46 3/23 5/46

6/23 7/23

1/23 3/23

10/23

17/4610/23 9/46

z 31/23

2/23

Pour le tableau ci-­­­dessus, les Δj des variables hors base sont tous néga­­tifs : l’opti­­mum est atteint. Les résul­­tats sont donc : q1 5

7 6 10 ; q2 5 ; q3 5 ; q 4 5 q 5 5 q 6 5 0. 23 23 23

31 15  , d’où:  g 5 2 ( Z*2 2 ) 5 , 23 23 31 15 . g 5 2 q1 2 4q2 1 q5 1 2 5 2 125 23 23

© Dunod – Toute reproduction non autorisée est un délit.

Z* 5

car :

Connais­­sant la valeur de g, la réso­­lu­­tion du sys­­tème I four­­nit : 9 17 10 ; p3 5 ; p2 5 , 23 46 46 valeurs qu’on peut aussi lire, au signe près, sur la ligne des Δj du tableau opti­­mal du sys­­tème II. 15 Il faut remar­­quer que : g 5 , 1 ; on constate bien qu’à l’inter­­sec­­tion de la stra­­ 23 té­­gie-ligne du maximin et de la stratégie-colonne du mini­­­max, on trouve une valeur p1 5

375

Chapitre 9 • Introduction à la théorie des jeux

qui, dans le cas géné­­ral, dif­­fère de la valeur du jeu, contrai­­re­­ment à ce qui se pro­­duit quand le jeu est à point-­­­selle unique. On notera : 1)  que ce pro­­blème conduit à poser un type par­­ti­­cu­­lier de pro­­gramme linéaire, ce qui découle de son carac­­tère com­­bi­­na­­toire ; 2)  que la connais­­sance des fré­­quences (probabilités) p1, p2, c, et q1, q2, c, à adop­­ter respectivement pour les stra­­té­­gies 1, 2, c, et I, II, c, par les adver­­ saires, se double de la mise en évi­­dence d’une valeur du jeu, g, qui repré­­sente le gain (resp. la perte) moyen(ne) de cha­­cun des joueurs, ce qui res­­ti­­tue la notion d’équi­­libre ren­­contrée pré­­cé­­dem­­ment ; cela veut dire qu’aucun des joueurs n’a inté­­rêt à s’écar­­ter des fré­­quences cal­­cu­­lées, de même que, dans un jeu à point-­­­selle, il n’a pas d’inté­­rêt à s’écar­­ter de la stra­­té­­gie pure cor­­res­­pon­­dant à ce point-selle. 3)  qu’il est très impor­­tant de tirer au hasard, tout en espectant les fré­­quences, la suc­­ces­­sion des stra­­té­­gies pures employées, de manière à lais­­ser tou­­jours l’adver­­saire dans l’igno­­rance du coup sui­­vant (le tirage doit avoir lieu comme dans les méthodes de simu­­la­­tion, cf. cha­­pitre 11).

9.4 Autre méthode de cal­­cul : les p.l. des deux joueurs sont

en dua­­lité

La méthode pré­­cé­­dente peut se révé­­ler déli­­cate d’emploi, dans cer­­tains pro­­blèmes pré­­sen­­tant des dégé­­né­­res­­cences. C’est pour­­quoi nous don­­nons, ci-dessous, une méthode plus sys­­té­­ma­­tique, dans laquelle toutes les variables sub­­sistent jus­­qu’à la fin des cal­­culs. Repre­­nons la matrice 3 de l’exemple pré­­cé­­dent. Le maximin est –1, le mini­­­max, 2 : la valeur g du jeu est com­­prise entre ces deux limites, et on ne peut donc pas, a priori, affir­­mer qu’elle est posi­­tive. En revanche, si l’on ajou­­tait 2 à tous les élé­­ments de la matrice (ce qui ne change rien quant aux situa­­tions rela­­tives des deux joueurs), on aurait : gr 5 g 1 2, d’où : maximin = 1, mini­­­max = 4 et donc l’assu­­rance que gr est stric­­te­­ment posi­­tif. En fait pour être sûr que g′ est strictement positif, il suffit d’ajouter aux élé­­ments de la matrice du jeu un nombre tel que tous deviennent stric­­te­­ment posi­­tifs. Par exem­ ple, dans le cas qui nous occupe, si l’on ajoute 4, on aura la matrice 3 bis :

3 A

5 7

B 6 2

5 6

8

1

Matrice 3bis 376

9.4  Autre méthode de cal­­cul : les p.l. des deux joueurs sont en dua­­lité

On se sou­­vien­­dra, lors­­qu’on aura trouvé la valeur gr du jeu cor­­res­­pon­­dant à cette matrice, que : g 5 gr 2 4. Écri­­vons alors les pro­­grammes linéaires rela­­tifs au nou­­veau jeu : 3q1 5q1 7q1 B f q1 q1 [min] gr

+ 6q2 + 2q2 + 8q2 + q2 , q2

+ 5q3 + 6q3 + q3 + q3 , q3

gr gr gr 1 > 0 < < < =

+ 5p2 + 2p2 + 6p2 + p2 , p2

3p1 6p1 5p1 A f p1 p1 [max] gs

+ 7p3 + 8p3 + p3 + p3 , p3

gs gs gs 1 > 0 > > > =

Pour B nous pou­­vons divi­­ser cha­­cune des in­­­équa­­tions ci-­­­dessus par gr sans en changer leur sens, puisque gr . 0. De même, par gs pour A, puisque gs . 0 (nous mon­­trons plus bas que : gr 5 gs). On obtient, en posant x j 5 q j / g r et y i 5 p i / g s : 3x1 + 5x1 + 7x1 + B f x1 ,

6x2 + 2x2 + 8x2 + x2 ,

5x3 6x3 x3 x3

< < < >

3y1 + 6y1 + 5y1 + A f y1 ,

1 1 1 0

5y2 + 2y2 + 6y2 + y2 ,

7y3 8y3 y3 y3

> > > >

1 1 1 0

1 y1 + y5 + y3 = 1 [min]. [max] gs gr et, bien entendu, B dési­­rant minimi­­ser gr qui est posi­­tif, il maxi­­mi­­sera son inverse : x2 +

x1 +

x3 =

1 5 x1 1 x2 1 x3. gr Par suite, les deux pro­­grammes linéaires obte­­nus sont en dua­­lité : le dual du pro­­ gramme de B est le pro­­gramme de A et réci­­pro­­que­­ment. En par­­ti­­cu­­lier, à l’opti­­mum, on a : 1 1 5   et donc : g9 5 g 0 5 g. gr gs Résol­­vons le pro­­gramme B (plutôt que celui de A, qui nécessiterait l’introduction de trois variables artificielles) :

s



© Dunod – Toute reproduction non autorisée est un délit.

z5

1

2

3

1

2

3

0

1

3

6

5

1

0

0

1

0

2

5

2

6

0

1

0

0

3

7

8

1

0

0

1

1 1

1

1

1

0

0

0

z0



e

377

Chapitre 9 • Introduction à la théorie des jeux

s



Nous don­­nons sans com­­men­­taire les tableaux suc­­ces­­sifs, en fai­­sant remar­­quer sim­­ ple­­ment qu’au départ il est indi­­qué de pivo­­ter sur l’élé­­ment maximal de la matrice, soit 8 (D1, D2, D3 étant égaux à 1, on a ici choisi D2 : x2 est entré en base). 1

2

3

1

2

3

0

17/4

1

0

0

23/4

0

1

�3/4 �1/ 4

3/ 4

1/8

1/ 8

0

1

0

2

�9/ 4 13/4

1

2

7/ 8

1

1/ 8

0

0

1/ 8

0

7/ 8

0

0 �1/8

après 1 itération

1/ 4

z � 1/ 8



s



e

1 9 �� 17

2

1 4 1 � � 17

3

2

3 3 �� 17

1 � 17

1

3

0

2

107 � 17

0

0

23 �� 17

1

13 � 17

7 � 17

1

2

16 � 17

1

0

1 �� 34

0

5 � 34

2 � 17

10 � 17

0

0

7 �� 37

0

1 � 34

3 z� � 17

1

2

1 2 3 13 12 9 1 � 107 107 107 23 17 13 0 � 107 107 107 16 7 37 0 � 214 107 214

après 2 itérations

0

0



e

1

3

0

0

1

1

1

0

1

2

0

1

0

0

après 3 itérations On a donc :

378

3

0 �

17 10 9 � � 214 107 214

107 107 15 23 1 , d’où gr 5   et g 5 . 245 5 107 23 23 23 gr

10 107 7 107 6 107 z�

23 107

9.5  Exemple d’appli­­ca­­tion éco­­no­­mique

D’autre part : q 1 5 x 1r # g r 5

7 107 6 7 10 5  ; de même :  q2 5 3 ; q3 5 . 107 23 23 23 23

23 1 Enfin, par dua­­lité, on a : y 1 5 2D1 , y 2 5 2D2 , y 3 5 2D3 et , soit 5 107 gs 107 gs 5 , (on retrouve évidemment g r 5 g s 5 g). 23 p1 5 2D1 # gs 5

107 10 17 17 9 3 ; p3 5 . 5   ;  et de même  :  p2 5 23 46 214 23 46

Les résul­­tats sont, natu­­rel­­le­­ment, les mêmes que ceux fournis par la première méthode.

9.5 Exemple d’appli­­ca­­tion éco­­no­­mique dominance ­­ d’une stra­­té­­gie, réduc­­tion d’un

jeu

Une firme F est éta­­blie depuis peu sur le mar­­ché ; ses diri­­geants ont remar­­qué que, s’ils fai­­saient varier leur prix de vente par rap­­port à ceux de la concur­­rence C, les varia­­tions des résul­­tats s’éta­­blis­­saient comme l’indique le tableau ci-­­­après : C 5 % 0 % 5 % F

5 %

2

4

4

p1

0%

1

0

3

p2

5 %

3

2

0

p3

q1

q2

q3

© Dunod – Toute reproduction non autorisée est un délit.

Quelle stra­­té­­gie mixte la firme F doit-­­­elle adop­­ter face à la concur­­rence ? On a, pour les stra­­té­­gies de la concur­­rence C : –2q1 – q1 e –3q1 q1 q1



4q2

+ + ,

2q2 q2 q2

– –

4q3 3q3

+ ,

q3 q3

< < < = >

g g g 1 0.

on voit immé­­dia­­te­­ment que : – q1 – 3q3 < g  entraîne :  –2q1 – 4q2 – 4q3 < g ; en effet : –2q1 – 4q2 – 4q3 = – q1 – 3q3 – (q1 + 4q2 + q3), d’où, puisque q1 + 4q2 + q3  est posi­­tif, : –2q1 – 4q2 – 4q3 , – q1 – 3q3 < g et: –2q1 – 4q2 – 4q3 , g. 379

Chapitre 9 • Introduction à la théorie des jeux

  On dit, dans ces condi­­tions, que la pre­­mière stra­­té­­gie de F est domi­­née par sa deuxième stra­­té­­gie : une ligne est domi­­née par une autre ligne si les coef­­fi­­cients de l’inéga­­lité qu’exprime cette ligne sont supé­­rieurs aux coef­­fi­­cients de l’inéga­­ lité qu’exprime cette autre ligne. Lorsque la domi­­nance est stricte, c’est-­­­à-dire lorsque les coef­­fi­­cients de la ligne domi­­nante sont stric­­te­­ment supé­­rieurs à ceux, cor­­res­­pon­­dants, de la ligne domi­­née, on peut, sans modi­­fier ni la valeur du jeu ni les fré­­quences à cal­­cu­­ler, sup­­pri­­mer la ligne domi­­née. On dira encore que la pre­­mière stra­­té­­gie de F est réces­­sive et, l’ayant sup­­pri­­mée, on posera p1 = 0 et le tableau se réduira à : ce qui cor­­res­­pond, pour la firme F, à résoudre : 1

0

3

p2

3

2

0

p3

q1

q2

q3

p2 + –p2 – 3p3 > g 2p3 > g avec c c –3p2 p2 , > g

p3 = 1 et p3 > 0

On voit éga­­le­­ment que : 2 p2 2 3p3 > g  entraîne  :  2p3 > g ;

en effet : 2p3 = – p2 – 3p3 + (p2 + 5p3) d’où, puisque p2 + 5p3 est posi­­tif : 2p3 . 2p2 2 3p3 > g, 2p3 . g.

soit :

(9.1)

On peut donc éli­­mi­­ner la deuxième stra­­té­­gie de C, c’est-­­­à-dire poser : q2 = 0. Il s’agit, cette fois, d’une domi­­nance stricte de colonnes. Rap­­pe­­lons que l’on reconnaît qu’une colonne en domine une autre si les coef­­fi­­cients de la pre­­mière sont infé­­rieurs à ceux, cor­­res­­pon­­dants, de la seconde. Il ne nous reste fina­­le­­ment que le tableau réduit ci-dessous pour lequel : maximin = 3 et minimax = -1 (donc sans point-selle). Les pro­­grammes sui­­vants en résultent : �1

�3

p2

�3

0

p3

q1

q3

(I) b

–p2 – 3p3 > g p2 + avec b p2 , –3p2 > g

(II) b

q1 + – q1 – 3q3 < g avec b q1 , –3q1 < g

p3 = 1 p3 > 0 q3 = 1 q3 > 0

Une méthode rapide, pour résoudre l’un de ces pro­­grammes, est la méthode gra­­phique. Pre­­nons, par exemple, le pre­­mier et rem­­pla­­çons p3 par 1 – p2. Il vient : –p2 – 3p3  =  –p2 – 3(1 – p2)  =  2p2 – 3 380



9.5  Exemple d’appli­­ca­­tion éco­­no­­mique

d’où : [max g] 2p2 – 3 > g d –3p2 >g p2 >0 p2 0).

La valeur de g, sur la figure 9.1 où sont repré­­ sen­­tées les droites g = –3p2 et g = 2p2 – 3, en fonc­­tion de p2 (0 < p2 < 1), est le maxi­­mum des valeurs com­­pa­­tibles avec les deux in­­­équa­­tions : g  q , qui per­­met de modé­­li­­ser les situa­­tions de pré­­ fé­­rence stricte (P), pré­­fé­­rence faible (Q) et indif­­fé­­rence (I ). On a donc (cf. aussi figure 12.1) : g ( a) > g ( b ) 1 p c g ( b ) 1 q , g ( a) , g ( b ) 1 p g ( b ) 2 q < g ( a) < g ( b ) 1 q

3 3 3

aPb aQb aI b

Fig. 12.1  Pseudo-­­­critère

Obser­­vons que si l’on ne sou­­haite pas intro­­duire la situa­­tion de pré­­fé­­rence faible, il suf­­fit de poser q 5 p (ce qui donne lieu à un quasi-­­­critère). De plus, si l’on pose q 5 p 5 0 on se retrouve dans le cas par­­ti­­cu­­lier du vrai-­­­critère. 422

12.2  Cadre géné­­ral

Exemple 2 « Choix d’un loge­­ment » (suite) L’éva­­lua­­tion des cri­­tères g1, g2 et g3 est enta­­chée d’une part d’arbi­­traire irré­­duc­­tible qui devrait conduire à prendre des pré­­cau­­tions lors­­qu’on com­­pare deux loge­­ments. Ainsi, l’éva­­lua­­tion du temps de tra­­jet (g2 ) ne peut être effec­­tuée de façon suf­­fi­­sam­­ ment pré­­cise (et à quel moment de la jour­­née effec­­tuer cette mesure ?) pour que l’on puisse don­­ner un sens à une dif­­fé­­rence de quelques minutes. De même, le mon­­tant du loyer (g1 ), bien qu’il puisse appa­­raître rela­­ti­­ve­­ment pré­­cis puisqu’annoncé contrac­­ tuel­­le­­ment, recèle en fait des incer­­ti­­tudes (mon­­tant réel des charges) et n’appré­­ hende pas com­­plè­­te­­ment la tota­­lité du coût du loge­­ment (taxe d’habi­­ta­­tion, frais de fonc­­tion­­ne­­ment non inclus dans ces charges,…). Enfin, une dif­­fé­­rence de quelques m2 sur le cri­­tère super­­fi­­cie (g3 ) n’est cer­­tai­­ne­­ment guère per­­cep­­tible. Pour toutes ces rai­­sons, il appa­­raît per­­tinent de défi­­nir des seuils d’indif­­fé­­rence en-­­­deçà des­­quels toute dif­­fé­­rence de per­­for­­mance sur un cri­­tère ne sera pas jugée signi­­fi­­ca­­tive. Nous fixe­­rons ainsi q1 5 50, q2 5 5 et q3 5 3. Par souci de sim­­pli­­cité, nous fixe­­rons qj 5 pj, ( j 5 1,2,3) uti­­li­­sant donc nos cri­­tères comme des quasi-­­­critères.

12.2.3  Espace des déci­­sions – Espace des cri­­tères

© Dunod – Toute reproduction non autorisée est un délit.

Dans la suite, on consi­­dère : – un ensemble A d’actions poten­­tielles, – une famille de p cri­­tères : g1, c, gp ( p > 2 ) . L’espace des déci­­sions per­­met de repré­­sen­­ter l’ensemble A des actions. Cet espace est défini for­­mel­­lement lorsque A est défini impli­­ci­­te­­ment. Ainsi, il s’agit de Rn, Zn ou 5 0,1 6 n si A est défini à l’aide de n variables de déci­­sion. Il peut aussi s’agir d’un ensemble d’arran­­ge­­ments par­­ti­­cu­­liers d’arcs d’un graphe (che­­mins, cir­­cuits,…). En revanche, cet espace n’est pas défini lorsque A est défini expli­­ci­­te­­ment par une liste nomi­­na­­tive (exhaustive). Il est plus aisé de tra­­vailler dans un espace tou­­jours défini for­­mel­­lement : l’espace des cri­­tères où chaque action a P A est repré­­sen­­tée par ses per­­for­­mances sur les p cri­­tères : ( g1 ( a) , c, gp ( a)) . De plus, il s’agit bien là de l’espace « signi­­fi­­ca­­tif », puisque, dans une approche multi­­­cri­­tère, l’appré­­cia­­tion d’une action s’effec­­tue pré­­ ci­­sé­­ment à tra­­vers les valeurs qu’elle prend sur chaque cri­­tère. Soit donc Z l’espace des cri­­tères (à ne pas confondre avec Z) ; on a Z ( Rp. L’image de A dans l’espace des cri­­tères est notée ZA. À chaque action a P A cor­­res­­ pond un vec­­teur cri­­tère (ou point) z P Z A avec z(a) = (g1(a), … , gp(a)). On a : Z A 5 g ( A ) 5 5 z P Z : z j 5 gj ( a) ( j 5 1, c, p ) , a P A 6

Exemple 1 « Choix d’un pro­­duit » (suite)

L’ensemble A des actions est repré­­senté par la liste des 4 pro­­duits can­­di­­dats. On peut repré­­sen­­ter ces actions dans l’espace des cri­­tères en asso­­ciant à chaque action son vec­­teur cri­­tère (cf. figure 12.2). 423

Chapitre 12 • Intro­­duc­­tion à l’aide multi­­­cri­­tère à la déci­­sion

Fig. 12.2  Repré­­sen­­ta­­tion des actions dans l’espace des cri­­tères – Exemple 1

Exemple 3 « Plan de pro­­duc­­tion » (suite) L’ensemble A des actions est carac­­té­­risé, dans l’espace des déci­­sions, par les contraintes sui­­vantes : x 1 1 4x 2 < 40 3x 1 1 2x 2 < 60 d x > 4 1 (x1 > 0) x2 > 0 où xi repré­­sente la quan­­tité de pro­­duit Pi à fabri­­quer (i 5 1,2). Notons que la pre­­ mière contrainte de non-­­­négativité  : x 1 > 0 est redon­­dante du fait de la der­­nière contrainte prin­­ci­­pale : x 1 > 4. Les deux cri­­tères (ou fonc­­tions objec­­tifs) à consi­­dé­­rer sont :

– la marge totale (bénéfice) engen­­drée, expri­­mée en milliers d’euros (à maxi­­mi­­ser) : max z 1 5 2x 1 1 3x 2 – la quan­­tité totale de matière toxique uti­­li­­sée, expri­­mée en uni­­tés de pro­­duit M1 (à minimi­­ser) : min x 1 1 3x 2 que l’on expri­­mera, de façon équi­­va­­lente, comme un cri­­tère à maxi­­mi­­ser : max z 2 5 2x 1 2 3x 2 Afin de carac­­té­­ri­­ser ZA, l’image de A dans l’espace des cri­­tères, ré­­­expri­­mons en fonc­­tion de z1 et z2 les contraintes carac­­té­­ri­­sant A (en n’oubliant pas la contrainte de non-­­­négativité non redon­­dante x 2 > 0). Pour ce faire, on s’appuie sur l’expres­­sion des valeurs des fonc­­tions objec­­tifs z1 et z2 en fonc­­tion des variables de déci­­sion x1 et x2 424

12.2  Cadre géné­­ral

1 2 (ce qui per­­met de déduire : x 1 5 z 1 1 z 2 et x 2 5 2 z 1 2 z 2 ). 3 3 Ainsi, ZA est carac­­té­­risé par : 2z 1

d

7z 1 z1 z1

5z 2 1 5z 2 1 z2 1 2z 2

2

< 120 < 180 > 4 < 0

Les repré­­sen­­ta­­tions de l’ensemble des actions dans l’espace des déci­­sions et dans l’espace des cri­­tères sont pro­­po­­sées en figure 12.3.

Figure 12.3  Espace des déci­­sions (a) et espace des cri­­tères (b) – Exemple 3.

12.2.4  Le concept de domi­­nance

© Dunod – Toute reproduction non autorisée est un délit.

Pour com­­pa­­rer deux actions quel­­conques a et b, il convient de com­­pa­­rer les deux vec­­teurs de per­­for­­mances cor­­res­­pon­­dants : g ( a) 5 ( g1 ( a) , c, gj ( a) , c, gp ( a)) et g ( b ) 5 ( g1 ( b ) , c, gj ( b ) , c, gp ( b )) Le seul cas où une com­­pa­­rai­­son peut être effec­­tuée, sans infor­­ma­­tion sup­­plé­­men­­ taire, est le cas de domi­­nance : aDb 3 gj ( a ) > gj ( b ) ( j 5 1, c, p ) (1) où D est la rela­­tion binaire de domi­­nance au sens large, dont la par­­tie stricte, notée D(1), est telle que : aDb

3

aDb

et non ( bDa )

3 gj ( a) > gj ( b ) ( j 5 1, c, p ) , avec au moins l’une des inégalités strictes. Une action a P A est dite effi­­cace si il n’existe pas d’action b P A qui domine stric­­te­­ment a, c’est-­­­à-dire telle que bDa. (1)  Noter l’analogie avec l’ordre large sur R : > et l’ordre strict : >. 425

Chapitre 12 • Intro­­duc­­tion à l’aide multi­­­cri­­tère à la déci­­sion

Exemples 1, 2 et 3 (suite) Dans l’exemple 2, une com­­pa­­rai­­son par paire des actions per­­met d’éta­­blir que ,4D,6 (cf. Tableau 12.2). Ainsi, en s’appuyant sur les trois cri­­tères consi­­dé­­rés, on peut écar­­ter du choix ,6 qui est dominé stric­­te­­ment. Tous les autres loge­­ments: ,1. c. ,5 consti­­tuent l’ensemble des actions effi­­caces. Dans le cas bi­­­cri­­tère (p 5 2), on peut uti­­li­­ser la repré­­sen­­ta­­tion gra­­phique dans l’espace des cri­­tères pour iden­­ti­­fier les vec­­teurs cri­­tères (ou points) non domi­­nés. En effet, consi­­dé­­rant un point à tester, il suf­­fit de repré­­sen­­ter le « cône de domi­­nance » asso­­cié à ce point (c’est-­­­à-dire, pour des cri­­tères à maxi­­mi­­ser, l’orthant posi­­tif ayant pour ori­­gine ce point – cf. exemples ci-­­­dessous). Il reste alors à obser­­ver si ce cône contient ou non au moins un point cor­­res­­pon­­dant à une action réa­­li­­sable. Ainsi dans l’exemple 1, la repré­­sen­­ta­­tion gra­­phique en figure 12.4 per­­met de consta­­ter que le cône de domi­­nance de d contient le point asso­­cié à l’action b, ce qui signi­­fie que bDd : b domine strictement d. En revanche, le cône de domi­­nance asso­­cié à chacun des trois autres points est vide, ce qui signi­­fie que a, b et c sont effi­­caces.

Fig. 12.4  Cônes de domi­­nance asso­­ciés aux dif­­fé­­rents points – Exemple 1

Consi­­dé­­rant main­­te­­nant l’exemple 3, l’exa­­men de la figure 12.3(b) per­­met de consta­­ter que les seuls points qui ont un cône de domi­­nance vide sont ceux situés sur les seg­­ments [za,zd] et [zd,zc]. L’ensemble des solu­­tions effi­­caces cor­­res­­pond à l’image inverse de ces seg­­ments dans l’espace des déci­­sions, à savoir l’ensemble des solu­­tions situées sur les seg­­ments [a,d] et [d,c] (cf. figure 12.3(a)). La rela­­tion de domi­­nance est le plus sou­­vent trop pauvre pour gui­­der le choix comme le montrent les exemples pré­­cé­­dents. Afin de pro­­gres­­ser vers la recom­­man­­ da­­tion d’une meilleure action, il convient de prendre parti vis-­­­à-vis des conflits entre cri­­tères. Pour celà, il faut recueillir et uti­­li­­ser de l’infor­­ma­­tion sur les pré­­fé­­rences du déci­­deur (par exemple des poids) et les inté­­grer dans un méca­­nisme d’agré­­ga­­tion. On peut dis­­tin­­guer deux grandes familles de méca­­nismes d’agré­­ga­­tion : 426

12.3  La somme pon­­dé­­rée

– les fonc­­tions d’agré­­ga­­tion, telles que la somme pondérée. – les rela­­tions de pré­­fé­­rence glo­­bale telles que la méthode ELECTRE.

12.3 La

somme pon­­dé­­rée

12.3.1  Pré­­sen­­ta­­tion La façon la plus natu­­relle d’agré­­ger dif­­fé­­rents cri­­tères est de recou­­rir à une somme pon­­dé­­rée. Il s’agit alors de construire un cri­­tère unique g agré­­geant les p cri­­tères g1, c, gp. L’éva­­lua­­tion de toute action a P A est don­­née par : g ( a) 5 a l j # gj ( a)   avec l j . 0 ( j 5 1, c, p )   (et, éven­­tuel­­le­­ment, a l j 5 1 ) p

p

j51

j51

où l j est le « poids » asso­­cié au cri­­tère gj ( j 5 1, c, p ) . Dans un contexte de choix, il suf­­fit alors de sélec­­tion­­ner l’action a* telle que : g ( a* ) > g ( a) 4a P A c’est-à-dire l’action dont l’évaluation, au sens de g, est la meilleure.

12.3.2  Avan­­tages de la somme pon­­dé­­rée 1.  Il s’agit de la façon la plus connue et la plus simple d’agré­­ger dif­­fé­­rents cri­­tères. 2.  Toute solu­­tion opti­­male selon une somme pon­­dé­­rée est effi­­cace : En effet, soit a* une solu­­tion opti­­male pour un jeu de poids par­­ti­­cu­­lier ( lr1, c, lrp ) . Sup­­po­­sons que a* ne soit pas effi­­cace. Il existerait alors b P A telle que bDa*. p p On a alors a j51 lrjgj ( b ) . a j51 lrjgj ( a* ) ; puisque pour tout j on aurait  : gj (b) > gj (a), ce qui contre­­dit l’optimalité de a*.

© Dunod – Toute reproduction non autorisée est un délit.

12.3.3  Limites de la somme pon­­dé­­rée 1.  L’inter­­pré­­ta­­tion des poids n’est pas très claire car ils intègrent à la fois la notion d’impor­­tance rela­­tive des cri­­tères et un fac­­teur de nor­­ma­­li­­sa­­tion des échelles des cri­­ tères. Un poids plus élevé ne cor­­res­­pond donc pas néces­­sai­­re­­ment à un cri­­tère plus impor­­tant, comme l’illustrent les exemples ci-dessous. Exemple 2 « Choix d’un loge­­ment » (suite) Sup­­po­­sant que les cri­­tères Prix (g1 ) et Temps de tra­­jet (g2 ) soient jugés d’impor­­ tance sem­­blable et que le cri­­tère Super­­fi­­cie (g3 ) soit consi­­déré deux fois moins impor­­tant. Com­­ment tra­­duire cette infor­­ma­­tion pré­­fé­­ren­­tielle par un jeu de poids ? L’intui­­tion natu­­relle consis­­tant à attri­­buer une valeur iden­­tique à cha­­ cun des deux pre­­miers cri­­tères et une valeur deux fois plus petite au troi­­sième 427

Chapitre 12 • Intro­­duc­­tion à l’aide multi­­­cri­­tère à la déci­­sion

cri­­tère (par exemple l 1 5 0,4, l 2 5 0,4 et l 3 5 0,2) ne convient pas. Cela condui­­rait en effet à accor­­der un rôle pré­­pon­­dé­­rant au cri­­tère g1 dans la somme pon­­dé­­rée sim­­ple­­ ment parce que celui-­­­ci est exprimé sur une échelle com­­por­­tant des valeurs beau­­coup plus éle­­vées que celles des échelles des deux autres cri­­tères. Il convien­­drait donc de nor­­ ma­­li­­ser ces poids pour prendre en compte l’hété­­ro­­gé­­néité des échelles. Il existe néan­­ moins de nom­­breuses façons d’effec­­tuer cette nor­­ma­­li­­sa­­tion, dont aucune ne s’impose et qui, cha­­cune, condui­­rait à un jeu de poids dif­­fé­­rent. 2.  La logique d’agré­­ga­­tion sous-­­­jacente est tota­­le­­ment com­­pen­­sa­­toire. Une très mau­­vaise note sur un cri­­tère peut être com­­pen­­sée par une ou plu­­sieurs bonnes notes sur d’autres cri­­tères. On pré­­fère sou­­vent uti­­li­­ser des méca­­nismes d’agré­­ga­­tion qui tolèrent les com­­pen­­sa­­tions lorsque les écarts sont faibles et les rejettent lorsque les écarts sont forts (logique d’agré­­ga­­tion par­­tiel­­le­­ment com­­pen­­sa­­toire). 3.  Cer­­taines solu­­tions effi­­caces peuvent ne pas appa­­raître comme solu­­tions opti­­ males d’une somme pon­­dé­­rée, quel que soit le jeu de poids choisi. Il s’agit là d’une limite très impor­­tante, car cer­­taines solu­­tions qui pour­­raient s’avé­­rer inté­­res­­santes sont éli­­mi­­nées a priori par la démarche de la somme pondérée. Exemple 1 « Choix d’un pro­­duit » (fin) Consi­­dé­­rons les trois pro­­duits a, b et c qui res­­tent can­­di­­dats après l’éli­­mi­­na­­tion de d (qui est dominé). Nous allons mon­­trer qu’il n’existe aucun jeu de poids qui per­­mette de faire appa­­raître b comme solu­­tion opti­­male d’une somme pon­­dé­­rée. En effet pour que b soit opti­­mal, on devrait avoir simul­­ta­­né­­ment g ( b ) $ g ( a) et g ( b ) $ g ( c ) , c’est­­­à-dire res­­pec­­ti­­ve­­ment 10l 1 1 10l 2 > 18l 1 1 4l 2 et 10l 1 1 10l 2 $ 4l 1 1 18l 2 ou 3 4 encore l 2 > l 1 et l 2 < l 1, ce qui est clai­­re­­ment incom­­pa­­tible (car l 1 . 0). En 4 3 fait, on obser­­vera en se repor­­tant à la figure 12.2 que si l 1 $ l 2 alors a est le choix sug­­géré par la somme pon­­dé­­rée et que si l 2 $ l 1 alors c est le choix sug­­géré par la somme pon­­dé­­rée (et donc a ou b si l 1 5 l 2 ). Pour­­tant de nom­­breuses per­­sonnes pour­­raient pré­­fé­­rer b à a et c, car b est plus équi­­li­­bré. Une fonc­­tion d’agré­­ga­­tion de type somme pon­­dé­­rée ne peut modé­­li­­ser ce type de pré­­fé­­rence pour cet exemple. 4.  De très légères varia­­tions sur les valeurs des poids peuvent conduire à des solu­­ tions radi­­ca­­le­­ment dif­­fé­­rentes. Ainsi, dans l’exemple pré­­cé­­dent, le jeu de poids (0,51 ; 0,49) conduit à choi­­sir a alors que le jeu de poids (0,49 ; 0,51) conduit à choi­­sir c. Deux jeux de poids fort proches, et en pra­­tique équi­­va­­lents, conduisent ici à des solu­­ tions radi­­ca­­le­­ment oppo­­sées ! 5.  Il n’y a pas de cor­­res­­pon­­dance intui­­tive entre les valeurs des poids et la solu­­ tion opti­­male pro­­po­­sée par une somme pon­­dé­­rée. Le résul­­tat peut même appa­­raître très contre-­­­intuitif. Dans l’exemple pré­­cé­­dent, les jeux de poids très équi­­li­­brés ( l 1 . l 2 . 0,5 ) conduisent à choi­­sir soit a soit c qui sont fort dés­­équi­­li­­brés. En dépit des avan­­tages de la somme pon­­dé­­rée, les limites pré­­cé­­dem­­ment citées conduisent à envi­­sa­­ger d’autres méca­­nismes d’agré­­ga­­tion.

428

12.4  Méthodes de sur­­­clas­­se­­ment (Electre)

12.4 Méthodes

de sur­­­clas­­se­­ment

(Electre)

Ces méthodes ont été intro­­duites dans les années 60 par B. Roy et al. : – à l’occa­­sion de nom­­breuses appli­­ca­­tions réelles, – pour dépas­­ser les limites de la somme pon­­dé­­rée. Ces méthodes ne concernent que le cas où l’ensemble des actions A est défini expli­­ci­­te­­ment par une liste. Nous pré­­sen­­te­­rons ici une ver­­sion légè­­re­­ment sim­­pli­­fiée de la méthode ELECTRE I qui per­­met de sélec­­tion­­ner un sous-­­­ensemble aussi res­treint que pos­­sible des actions les meilleures. Sou­­li­­gnons que d’autres méthodes de sur­­­clas­­se­­ment furent ensuite déve­­lop­­pées sur des prin­­cipes simi­­laires (autres méthodes ELECTRE, méthodes PROMETHEE, MEL­­CHIOR, ORESTE, TACTIC,…).

12.4.1  Le concept de rela­­tion de sur­­­clas­­se­­ment Consi­­dé­­rons deux actions a et b de A. On dira que aSb (a sur­­classe b) est éta­­bli si on peut trou­­ver des argu­­ments suf­­fi­­sam­­ment pro­­bants pour accep­­ter, en accord avec les pré­­fé­­rences du déci­­deur, l’asser­­tion sui­­vante : « a est au moins aussi bon que b » Les rai­­sons pour accep­­ter aSb sont fon­­dées sur : – les vec­­teurs de per­­for­­mance des deux actions : ( g1 ( a) , c, gp ( a)) et ( g1 ( b ) , c, gp ( b )) – l’infor­­ma­­tion pré­­fé­­ren­­tielle qui per­­met de rela­­ti­­vi­­ser le rôle joué par chaque cri­­ tère (poids, seuils).

© Dunod – Toute reproduction non autorisée est un délit.

Remarques : – S peut être per­­çue comme résul­­tant d’un enri­­chis­­se­­ment de la rela­­tion de domi­­nance : en effet aDb entraîne aSb (c’est-­­­à-dire D # S ) –  S est réflexive : 4a P A, a­­­Sa – S n’est pas néces­­sai­­re­­ment tran­­si­­tive : aSb et bSc n’entraînent pas néces­­sai­­ re­­ment aSc Dans cer­­tains cas, on ne pourra éta­­blir ni aSb ni bSa, ce qui conduit à une situa­­ tion d’in­­­com­­pa­­ra­­bi­­lité. Ainsi, lors­­qu’on com­­pare deux actions, quatre situa­­tions peuvent sur­­ve­­nir (cf. figure 12.5). Sou­­li­­gnons que l’intro­­duc­­tion de la situa­­tion d’in­­­ com­­pa­­ra­­bi­­lité est une spé­­ci­­ficité impor­­tante des approches fon­­dées sur la construc­­ tion d’une rela­­tion de pré­­fé­­rence glo­­bale. En effet, les approches fon­­dées sur une fonc­­tion d’agré­­ga­­tion conduisent à tou­­jours com­­pa­­rer deux actions à tra­­vers les éva­­ lua­­tions de ces actions sur cette fonc­­tion. Les approches rela­­tion­­nelles conduisent 429

Chapitre 12 • Intro­­duc­­tion à l’aide multi­­­cri­­tère à la déci­­sion

donc à des modèles de pré­­fé­­rence plus fins dans la mesure où ils n’imposent pas de com­­pa­­rer des actions qui seraient trop dis­­sem­­blables. En revanche, ces modèles sont plus dif­­fi­­ciles à exploi­­ter pour déga­­ger une recom­­man­­da­­tion.

Fig. 12.5  4 situa­­tions de com­­pa­­rai­­son

Les méthodes de sur­­­clas­­se­­ment peuvent géné­­ra­­le­­ment se décom­­po­­ser en deux phases : 1.  construc­­tion de la rela­­tion de sur­­­clas­­se­­ment, 2.  exploi­­ta­­tion de la rela­­tion de sur­­­clas­­se­­ment pour déter­­mi­­ner une recom­­man­­da­­tion.

12.4.2  Construc­­tion de la rela­­tion de sur­­­clas­­se­­ment Afin d’éta­­blir la probance de l’asser­­tion aSb, on s’appuiera sur les deux prin­­cipes fon­­da­­men­­taux sui­­vants : Prin­­cipe de concor­­dance : Une majo­­rité de cri­­tères, compte-­­­tenu de leur impor­­ tance, doit sup­­por­­ter l’asser­­tion aSb (prin­­cipe majo­­ri­­taire), Prin­­cipe de non dis­­cor­­dance : Parmi les cri­­tères qui ne sup­­portent pas l’asser­­ tion aSb, aucun ne doit expri­­mer un désac­­cord trop fort (prin­­cipe de respect des mino­­ri­­tés). Concor­­dance Pour chaque cri­­tère g   j, on exa­­mine sa contri­­bu­­tion à l’asser­­tion aSb en bâtis­­sant un indice de concor­­dance par­­tielle cj ( a,b ) P 3 0,1 4 ( j 5 1, c, p ) tel que :

– cj (a,b) 5 1 lorsque le cri­­tère gj sup­­porte tota­­le­­ment l’asser­­tion aSb – cj (a,b) 5 0 lorsque le cri­­tère gj ne sup­­porte pas du tout l’asser­­tion aSb – 0 , cj ( a,b ) , 1 dans les cas inter­­mé­­diaires Plus pré­­ci­­sé­­ment, on a (cf. figure 12.6) : 1 1 3 gj ( b ) # gj ( a) 1 qj cj ( a,b ) 5 c

430

0 0 p 2 (g (b) 2 g (a)) pj j2 ( gj ( b )j 2 gj ( a) ) j pj 2 j pjq2 qj

3

gj ( b ) $ gj ( a) 1 pj

3

gj ( a) 1 qj # gj ( b ) # gj ( a) 1 pj

12.4  Méthodes de sur­­­clas­­se­­ment (Electre)

où qj et pj repré­­sentent res­­pec­­ti­­ve­­ment les seuils d’indif­­fé­­rence et de pré­­fé­­rence asso­­ ciés au cri­­tère gj.

Fig. 12.6  Indice de concor­­dance par­­tiel

Pour éva­­luer la contri­­bu­­tion glo­­bale de l’ensemble des cri­­tères à l’asser­­tion aSb, on construit un indice de concor­­dance glo­­bale C ( a,b ) P 3 0,1 4 défini par : C ( a,b ) 5 a k j # cj ( a,b ) p

j51

où kj est le poids asso­­cié à gj, avec : a k j 5 1. j

Remarque  :  Les poids kj sont appli­­qués à des «  indices  » défi­­nis sur une échelle com­­mune variant entre 0 et 1. Ils reflètent donc uni­­que­­ment l’impor­­ tance rela­­tive des cri­­tères, ce qui rend leur signi­­fi­­ca­­tion claire. On notera que les poids l j uti­­li­­sés dans la somme pon­­dé­­rée sont de nature dif­­fé­­rente car ils intègrent à la fois l’impor­­tance rela­­tive des cri­­tères et un fac­­teur de nor­­ma­­li­­ sa­­tion des échelles des cri­­tères (cf. remarque 1 de la sec­­tion 12.3.3).

© Dunod – Toute reproduction non autorisée est un délit.

Exemple 2 « Choix d’un loge­­ment » (suite) Les indices de concor­­dance par­­tielle sont repor­­tés dans les trois matrices (cf. tableaux 12.3). Ils sont, ici, égaux à 0 ou 1 car les seuils de pré­­fé­­rence pj ont été choi­­sis égaux aux seuils d’indif­­fé­­rence qj. Rap­­pe­­lons que nous avons fixé ces seuils d’indif­­fé­­rence comme suit : q1 5 50, q2 5 5 et q3 5 3. Nous avons éga­­le­­ment défi­­ni­­ ti­­ve­­ment écarté ,6 qui est dominé par ,4.

Tab. 12.3 

Matrices de concor­­dance par­­tielle

431

Chapitre 12 • Intro­­duc­­tion à l’aide multi­­­cri­­tère à la déci­­sion

Obser­­vons, par exemple, que l’on a c1 ( ,4,,1 ) 5 1, ce qui signi­­fie que le cri­­tère g1 sup­­porte l’asser­­tion ,4S,1. En effet, bien que le coût du loge­­ment ,4 soit supé­­rieur à celui du loge­­ment ,1 (720 € contre 700 € – cf. tableau 12.2), la dif­­fé­­rence de 20 € est jugée négli­­geable compte tenu du seuil d’indif­­fé­­rence q1 5 50. Afin de construire l’indice de concor­­dance glo­­bale, il convient de fixer les poids. Rap­­pe­­lons que lorsque nous avons tenté de fixer des poids pour uti­­li­­ser la somme pon­­dé­­rée pour ce même exemple, nous avons consi­­déré que les cri­­tères Loyer (g1 ) et Temps de tra­­jet (g2 ) étaient jugés d’impor­­tance sem­­blable et que le cri­­tère Super­­fi­­cie (g3 ) était consi­­déré deux fois moins impor­­tant. Nous pou­­vons ici fixer les poids sans dif­­fi­­culté à par­­tir de cette infor­­ma­­tion pré­­fé­­ren­­tielle : k1 5 0,4, k2 5 0,4 et k3 5 0,2. La matrice de concor­­dance glo­­bale en découle immé­­dia­­te­­ment (cf. Figure 12.4).

Tab. 12.4  Matrice de concor­­dance glo­­bale

Dis­­cor­­dance Parmi les cri­­tères qui ne sont pas concor­­dants avec l’asser­­tion aSb, cer­­tains peuvent expri­­mer une forte oppo­­si­­tion, un veto, condui­­sant à reje­­ter aSb. Un cri­­tère gj pourra ainsi oppo­­ser son veto à l’asser­­tion aSb lorsque gj(a) est beau­­coup plus faible que gj(b). On défi­­nit donc pour chaque cri­­tère gj un seuil de veto vj où v j $ pj ( j 5 1, c, p ) . Dès qu’il existe un cri­­tère gj tel que gj ( b ) $ gj ( a) 1 v j, l’asser­­tion aSb est reje­­tée. Notons que plus le seuil vj est faible, plus le pou­­voir de veto de gj est grand. Exemple 2 « Choix d’un loge­­ment » (suite) Sup­­po­­sons que l’on asso­­cie res­­pec­­ti­­ve­­ment à chaque cri­­tère les trois seuils de veto sui­­vants : v1 5 400, v2 5 20 et v3 5 40. Cela signi­­fie en par­­ti­­cu­­lier pour le cri­­tère Loyer (g1 ) qu’un loge­­ment qui coû­­te­­rait 400 € de plus qu’un autre ne peut pas être jugé glo­­ba­­le­­ment « au moins aussi bon » que cet autre loge­­ment, indé­­pen­­dam­­ment des per­­for­­mances, éven­­tuel­­le­­ment très bonnes, qu’il atteint sur les autres cri­­tères. Ainsi, en se repor­­tant au tableau 12.2, on constate que le cri­­tère g1 oppose son veto à l’asser­­tion « ,3S,5 » (car g1 ( ,3 ) 5 1 000 $ g1 ( ,5 ) 1 v 1 5 600 1 400 ) , même si ,3 est signi­­fi­­ca­­ti­­ve­­ment meilleur que ,5 sur les deux autres cri­­tères. Le choix d’une valeur éle­­vée v3 5 40 pour le cri­­tère Super­­fi­­cie (g3  ) indique que, compte tenu de l’écart maxi­­mum de super­­fi­­cie qui n’est que de 25 m2 dans le tableau de per­­for­­ mances, on ne sou­­haite pas don­­ner à ce cri­­tère un pou­­voir de veto. La matrice de dis­­cor­­dance pré­­sen­­tée au tableau 12.5 indique par la valeur 1 toutes les situa­­tions de dis­­cor­­dance. 432

12.4  Méthodes de sur­­­clas­­se­­ment (Electre)

Tab. 12.5  Matrice de dis­­cor­­dance

Test de sur­­­clas­­se­­ment Afin d’accep­­ter aSb on doit véri­­fier les deux condi­­tions sui­­vantes : 1.  une condi­­tion de concor­­dance : C ( a,b ) > s 2.  une condi­­tion de non dis­­cor­­dance : gj ( b ) , gj ( a) 1 v j 4j P 5 1, c, p 6 où s repré­­sente le seuil de concor­­dance. La condi­­tion de concor­­dance s’ins­­pi­­rant d’un prin­­cipe de type majo­­ri­­taire, il est légi­­time d’impo­­ser s . 0.5. En pra­­tique, on prend des valeurs entre 0,6 et 0,9. Remarque :  ELECTRE I uti­­lise en fait une condi­­tion de non dis­­cor­­dance un peu plus com­­plexe. Cette condi­­tion étant d’autant moins exi­­geante que C(a,b) est grand. Exemple 2 « Choix d’un loge­­ment » (suite)

© Dunod – Toute reproduction non autorisée est un délit.

Choi­­sis­­sons un seuil de concor­­dance s 5 0,8. On en déduit la matrice de sur­­­clas­­se­­ ment et le graphe de sur­­­clas­­se­­ment cor­­res­­pon­­dant pré­­sen­­tés en figure 12.7.

Fig. 12.7  Matrice et graphe de sur­­­clas­­se­­ment

12.4.3  Exploi­­ta­­tion de la rela­­tion de sur­­­clas­­se­­ment Une fois que la rela­­tion de sur­­­clas­­se­­ment est construite, il convient de l’exploi­­ter afin de déga­­ger le sous-­­­ensemble des actions les meilleures. Consi­­dé­­rant le graphe cor­­res­­pon­­dant, on s’inté­­res­­sera à un sous-­­­ensemble d’actions N ( A, appelé noyau du graphe, véri­­fiant les deux prop­­rié­­tés sui­­vantes : 433

Chapitre 12 • Intro­­duc­­tion à l’aide multi­­­cri­­tère à la déci­­sion

– deux som­­mets quel­­conques d’un noyau ne peuvent pas être adja­­cents : 4a P N, 4b P N,  non(aSb)  et  non(bSa) – pour tout som­­met hors du noyau, il existe un arc depuis un som­­met du noyau vers ce som­­met : 4b x N

Ea P N : a Sb

Un noyau est donc un sous-­­­ensemble d’actions incom­­pa­­rables tel que toute action ne fai­­sant pas par­­tie du noyau est sur­­clas­­sée par au moins une action du noyau. Tout graphe sans cir­­cuit admet un noyau unique. Un graphe avec cir­­cuit peut admettre aucun, un ou plu­­sieurs noyaux. L’algo­­rithme sui­­vant per­­met de détecter le noyau d’un graphe G sans cir­­cuit. (0)  Repré­­sen­­ter G par son « dic­­tion­­naire des pré­­cé­­dents » (ce dic­­tion­­naire asso­­cie à chaque som­­met la liste de ses pré­­cé­­dents ou « prédécesseurs ») Tant que pos­­sible faire (1)  Mar­­quer tout som­­met dont la liste est vide (sans prédécesseurs) (2)  Bar­­rer tout som­­met qui contient au moins un som­­met mar­­qué dans sa liste (3)  Sup­­pri­­mer des listes les som­­mets bar­­rés L’ensemble des som­­mets mar­­qués à l’issue de l’algo­­rithme consti­­tue le noyau. Lorsque le graphe contient des cir­­cuits, on peut, par exemple, réduire les cir­­ cuits (c’est-­­­à-dire contrac­­ter en un som­­met unique tous les som­­mets fai­­sant par­­ tie d’un même cir­­cuit et pré­­ser­­ver les arcs avec les som­­mets exté­­rieurs au cir­­cuit). Cette opé­­ra­­tion de réduc­­tion revient à consi­­dé­­rer que les som­­mets d’un même cir­­cuit sont indif­­fé­­rents. On peut alors déter­­mi­­ner le noyau sur le graphe réduit (qui, par construc­­tion, ne contient pas de cir­­cuit). En pra­­tique, il ne suf­­fit pas d’exé­­cu­­ter une fois l’ensemble de ce pro­­ces­­sus et de prendre le noyau résul­­tant comme recom­­man­­da­­tion. Il convient de pro­­cé­­der à une ana­­lyse de robus­­tesse consis­­tant à répé­­ter le pro­­ces­­sus en fai­­sant varier les para­­mètres cri­­tiques du modèle (seuil de concor­­dance, poids, seuils de veto…). La recom­­man­­ da­­tion sera consti­­tuée des actions appa­­rais­­sant régu­­liè­­re­­ment dans le noyau. Exemple 2 « Choix d’un loge­­ment » (fin) L’appli­­ca­­tion de l’algo­­rithme de détec­­tion du noyau au graphe de sur­­­clas­­se­­ment de la figure 12.7 conduit au noyau (unique) N 5 5 ,4,,5 6 . Afin d’esquis­­ser une ana­­ lyse de robus­­tesse, on peut envi­­sa­­ger de modi­­fier le seuil de concor­­dance. En fixant ce seuil s à 0,6 on obtient un graphe de sur­­­clas­­se­­ment beau­­coup plus riche. Le lec­­teur véri­­fiera qu’après avoir réduit les cir­­cuits du graphe pré­­cé­­dent, on obtient comme noyau de ce nou­­veau graphe l’ensemble N r 5 5 ,3,,4 6 . Il semble donc que le loge­­ment ,4, qui reste présent dans cha­­cun des noyaux, consti­­tue un choix inté­­ res­­sant. (pour les trois critères choisis par le décideur) : 434

12.5  Opti­­mi­­sation multi­­­objec­­tif

12.5 Opti­­mi­­sation

multi­­­objec­­tif

1

Nous nous inté­­res­­sons ici au cas où l’ensemble A des actions poten­­tielles est défini impli­­ci­­te­­ment (cf. sec­­tion 12.2.1). Nous nous res­trein­­drons au cas de la pro­­gram­­ma­­ tion linéaire multi­­­objec­­tif, sans consi­­dé­­rer par exemple les pro­­blèmes d’opti­­mi­­sation com­­bi­­na­­toire multi­­­objec­­tif (plus court che­­min multi­­­objec­­tif, affec­­ta­­tion multi­­­ objec­­tif, etc.). De plus, nous ne pré­­sen­­te­­rons qu’une façon (parmi bien d’autres) de rechercher un meilleur com­­pro­­mis dans ce contexte. Soit donc le pro­­gramme linéaire multi­­­objec­­tif sui­­vant, exprimé sous forme matricielle (on note, ici, D la matrice notée A aux chapitres 8 et 9) : max z 1 5 c 1 # x, c

max z 2 5 c 2 # x, c, D#x < b x>0

max z p 5 c p # x

où x 5 ( x 1, c, x n ) t est le vec­­teur-colonne des variables de déci­­sion, et n z j 5 cj # x 5 a c ji x i repré­­sente la j e fonc­­tion objec­­tif ( j 5 1, c, p ) , i51

D est la matrice des contraintes et b est le vec­­teur-colonne des seconds membres. ­­­ Dans la suite, on notera X plutôt que d le domaine (convexe) des solu­­tions admis­­ sibles : X 5 5 x : x . 0 et D # x < b 6 . Remarque :  La nota­­tion « max », ici quelque peu abu­­sive, signi­­fie en fait que l’on recherche un meilleur com­­pro­­mis en regard de p fonc­­tions objec­­tifs, cha­­ cune étant à maxi­­mi­­ser.

12.5.1  Tableau des gains, point idéal Une pre­­mière idée natu­­relle pour pro­­gres­­ser vers la recherche de ce com­­pro­­mis consiste à opti­­mi­­ser indé­­pen­­dam­­ment cha­­cun des p pro­­grammes linéaires sui­­vants :

© Dunod – Toute reproduction non autorisée est un délit.

( PL j ) b

( j 5 1, c, p ) max z j 5 c j # x    xPX

Soit x*j une solu­­tion opti­­male du pro­­gramme (PLj) et z *j la valeur opti­­ male de sa fonc­­tion objec­­tif ( j 5 1, c, p ) . On consti­­tue le tableau des gains en don­­nant la valeur de cha­­cune des solu­­tions x*i sur chaque fonc­­tion objec­­tif z k 5 ck # x ( i 5 1, c, p ; k 5 1, c, p ) – cf. tableau 12.6. Le point z * 5 ( z *1, c, z *p ) , dont les coor­­don­­nées cor­­res­­pondent aux valeurs opti­­ males de chaque fonc­­tion objec­­tif est appelé point idéal (ou zénith). Ces coor­­don­­ nées se situent donc sur la dia­­go­­nale du tableau des gains.

1. Conseil au lec­­teur : lire aupa­­ra­­vant le cha­­pitre 8 sur la pro­­gram­­ma­­tion linéaire. 435

Chapitre 12 • Intro­­duc­­tion à l’aide multi­­­cri­­tère à la déci­­sion

Tab. 12.6 Tableau des gains

Soit nj 5 mink 51,c, p 5 c j # x*k 6 la valeur mini­­male de la jème colonne du tableau des gains, l’inter­­valle 3 nj, z *j 4 consti­­tue une bonne approxi­­ma­­tion, facile à cal­­cu­­ler, des valeurs prises par le jème cri­­tère. En pra­­tique, il sera inté­­res­­sant de four­­nir au

déci­­deur ces inter­­valles pour chaque fonc­­tion objec­­tif afin qu’il appré­­hende mieux le domaine des valeurs pos­­sibles. Le point (n1, n2,..., np) est appelé nadir. Exemple 3 « Plan de pro­­duc­­tion » (suite) Consi­­dé­­rons cha­­cun des deux pro­­blèmes

  

max z 1 5 2x 1 1 3x 2 s.c. les contraintes: sous x 1 1 4x 2 < 40 ( PL 1 ) f 3x 1 1 2x 2 < 60 > 4 x1 x 1, x 2 > 0

max z 2 5 2x 1 2 3x 2 s.c. x 1 1 4x 2 < 40 ( PL 2 ) f 3x 1 1 2x 2 < 60 > 4 x1 x 1, x 2 > 0

*1 * dont les solu­­tions opti­­males sont x *1 1 5 16, x 2 5 6, z 1 5 50, pour (PL1) et *2 *2 * x 1 5 4, x 2 5 0, z 2 5 24, pour (PL2). Le tableau des gains est pré­­senté au tableau 12.7. Le point idéal z* 5 (50, –4) et le point nadir n 5 (n1,n2) 5 (8, –34) sont repré­­sen­­tés à la figure 12.8.

Tab. 12.7 Tableau des gains – Exemple 3

436

12.5  Opti­­mi­­sation multi­­­objec­­tif

Fig. 12.8  Point idéal z* et point nadir n – Exemple 3

12.5.3  Solu­­tions effi­­caces extrêmes et non extrêmes

© Dunod – Toute reproduction non autorisée est un délit.

Afin de gui­­der le choix d’une solu­­tion de meilleur com­­pro­­mis, on pour­­rait, mal­­ gré les limites sou­­li­­gnées en sec­­tion 12.3.3, uti­­li­­ser une fonc­­tion d’agré­­ga­­tion de type somme pon­­dé­­rée. Ceci revien­­drait à maxi­­mi­­ser une fonc­­tion objec­­tif de type p a j51 l jz j, ce qui pré­­sen­­te­­rait l’avan­­tage de n’avoir à résoudre qu’un pro­­gramme

linéaire. De plus, dans le cas par­­ti­­cu­­lier de la pro­­gram­­ma­­tion linéaire multi­­­objec­­tif, l’une des limites essen­­tielles de la somme pon­­dé­­rée (celle qui exprime que cer­­taines solu­­tions effi­­caces ne peuvent pas appa­­raître comme solu­­tion opti­­male d’une somme pon­­dé­­rée – cf. remarque 3 de la sec­­tion 12.3.3) ne s’applique pas. Ceci tient au fait que l’image de l’ensemble des solu­­tions dans l’espace des cri­­tères est un ensemble convexe (ce qui n’était pas le cas de notre exemple pré­­senté en figure 12.2). Nous mon­­trons cepen­­dant sur notre exemple que l’uti­­li­­sation de la somme pon­­dé­­rée n’est guère adap­­tée. Exemple 3 « Plan de pro­­duc­­tion » (suite)

Nous avons observé pré­­cé­­dem­­ment que l’ensemble des solu­­tions effi­­caces cor­­res­­ pond à l’ensemble des points situés sur les seg­­ments [za, zd] et [zd, zc] (cf. figure 12.8). Il est clair que cha­­cun de ces points peut appa­­raître comme solu­­tion opti­­male d’une somme pon­­dé­­rée l 1z1 1 l 2z2 pour un jeu de poids par­­ti­­cu­­lier (l 1,l 2 ) . Pour les solu­­tions effi­­caces cor­­res­­pon­­dant à des som­­mets du polyèdre – à savoir a, c et d dont les images res­­pec­­tives dans l’espace des cri­­tères sont les som­­mets za, zc et zd – 437

Chapitre 12 • Intro­­duc­­tion à l’aide multi­­­cri­­tère à la déci­­sion

il existe une infi­­nité de jeux de poids qui per­­mettent de les faire appa­­raître comme solu­­tion opti­­male d’une somme pon­­dé­­rée. Ces solu­­tions effi­­caces extrêmes sont donc rela­­ti­­ve­­ment faciles à faire appa­­raître. En revanche, l’infi­­nité de solu­­tions effi­­caces non extrêmes qui se trouvent sur une arête (ou plus géné­­ra­­le­­ment à l’inté­­rieur d’une facette) du polyèdre peuvent certes appa­­raître opti­­males, mais cha­­cune pour un jeu de poids unique seule­­ment. Ainsi, l’ensemble des vec­­teurs cri­­tères non domi­­nés situés sur le seg­­ment ]z d, z c[ appa­­raissent comme solu­­tions opti­­males (mul­­tiples) d’un seul 7 15 jeu de poids (en l’occur­­rence l 1 5 , l 2 5 ). Il appa­­raît fort peu vrai­­sem­­blable 12 12 de faire expri­­mer ce jeu de poids par­­ti­­cu­­lier à un déci­­deur! De plus, même si l’on y par­­ve­­nait, la réso­­lu­­tion du pro­­gramme linéaire qui en résul­­te­­rait ne per­­met­­trait pas d’explo­­rer fine­­ment l’infi­­nité de solu­­tions opti­­males ; les algo­­rithmes de réso­­lu­­tion tels que l’algorithme du sim­­plexe ne don­­ne­­raient d’ailleurs comme solu­­tion opti­­ male que l’un des deux som­­mets c ou d… Nous consta­­tons donc que les solu­­tions effi­­caces non extrêmes sont très dif­­fi­­ciles à explo­­rer à l’aide d’une somme pon­­dé­­rée. Pour­­tant ces solu­­tions ne sont pas moins inté­­res­­santes que les solu­­tions effi­­caces extrêmes. Nous nous fixons donc comme but de pou­­voir explo­­rer l’ensemble de toutes les solu­­tions effi­­caces, et ceci sans devoir résoudre des pro­­blèmes plus com­­plexes que des pro­­grammes linéaires.

12.5.5  Méthodes fon­­dées sur des points d’aspi­­ra­­tion Dans ce type de méthodes, le déci­­deur doit four­­nir de l’infor­­ma­­tion pré­­fé­­ren­­ tielle s’expri­­mant sous forme de niveaux d’aspi­­ra­­tion sur cha­­cun des cri­­tères. Ces niveaux d’aspi­­ra­­tion cor­­res­­pondent, pour chaque cri­­tère, à des valeurs sou­­hai­­tées par le déci­­deur. Soit donc z j la valeur sou­­hai­­tée sur le jème cri­­tère ( j 5 1, c, p ) et z 5 ( z 1, c, z p ) le point d’aspi­­ra­­tion asso­­cié. Nous allons chercher à déter­­mi­­ner, dans l’espace des cri­­tères, le point non dominé le plus « proche » pos­­sible de ce point d’aspi­­ra­­tion z. Autre­­ment dit, nous allons pro­­ je­­ter z sur la fron­­tière des points non domi­­nés. Pour ce faire, nous allons résoudre le pro­­blème sui­­vant for­­mulé dans l’espace des cri­­tères (rap­­pe­­lons que ZA est l’ensemble des points admis­­sibles dans cet espace) : min max 5 l j ( z j 2 z j )6 où : z 5 ( z 1, c,z j, c,z p ) z P ZA

j51,c,p

Il reste main­­te­­nant à déter­­mi­­ner la valeur des zpoids l j. Ces poids visant à nor­­ ma­­li­­ser les écarts z j 2 z j, nous allons fixer l j 5 z *j 21 nj ( j 5 1, c, p ) . La réso­­ lu­­tion du pro­­blème pré­­cé­­dent en uti­­li­­sant ce choix de valeur des poids revient, géométriquement, à pro­­je­­ter z sur la fron­­tière des points non domi­­nés selon la direc­­ tion indi­­quée par les points z* (zenith) et n (nadir), c’est-à-dire parallèlement à la droite joignant z* et n. Dans l’espace des déci­­sions, le pro­­blème pré­­cé­­dent s’écrit : min

X PX

438

max 5 l j ( z j 2 c j # x )6

j51,c, p

12.5  Opti­­mi­­sation multi­­­objec­­tif

Les contraintes x P X sont linéaires. Seule la fonc­­tion objec­­tif est non linéaire. Ce pro­­gramme peut cepen­­dant être refor­­mulé de façon équi­­va­­lente par le pro­­gramme linéaire sui­­vant :

d

min s.c.

  > l j ( z j 2 c j # x ) ( j 5 1, c, p ) xPX

En effet, on intro­­duit ici une nou­­velle variable µ que l’on contraint à prendre une valeur supé­­rieure à cha­­cun des p argu­­ments du max (dans la for­­mule maxj51,c,p 5 l j ( z j 2 c j # x )6) . Cette variable étant minimi­­sée, elle repré­­sente bien le maxi­­mum de ces argu­­ments. Sou­­li­­gnons fina­­le­­ment que ces méthodes fon­­dées sur des points d’aspi­­ra­­tion sont uti­­li­­sées le plus sou­­vent de façon inter­­ac­­tive. Ainsi, l’uti­­li­­sa­­teur fixe un pre­­ mier point d’aspi­­ra­­tion. Obser­­vant la réponse du modèle, il ajuste ses pré­­fé­­rences en fixant un second point d’aspi­­ra­­tion. Il pour­­suit ainsi son explo­­ra­­tion de l’ensemble des solu­­tions effi­­caces, appré­­hen­­dant de mieux en mieux les solu­­tions can­­di­­dates inté­­res­­santes. Ce pro­­ces­­sus inter­­ac­­tif se ter­­mine lors­­qu’il estime avoir trouvé un bon com­­pro­­mis. Exemple 3 « Plan de pro­­duc­­tion » (fin) Sup­­po­­sons que le déci­­deur, au vu des infor­­ma­­tions four­­nies par le tableau des gains (cf. tableau 12.7), décide de fixer un pre­­mier point d’aspi­­ra­­tion z1 5 ( 30, 2 10 ) . Ces niveaux cor­­res­­pondent, sur le cri­­tère éco­­no­­mique, à une valeur sou­­hai­­tée pour la marge totale égale à 300 000 € et, sur le cri­­tère éco­­lo­­gique, à une consom­­ma­­tion sou­­hai­­tée de matière toxique égale à M1 de 10 uni­­tés. Les poids à uti­­li­­ser sont l 1 5

1

© Dunod – Toute reproduction non autorisée est un délit.

z *1 2 n1 gramme linéaire à résoudre est alors :

5

1 1 1 5 . Le pro­­ et l 2 5 * 42 30 z 2 2 n2

min  s.c.

1 ( 30 2 ( 2x 1 1 3x 2 )) 42 1 ( 210 2 ( 2x 1 2 3x 2 )) > 30 x 1 1 4x 2 < 40 3x 1 1 2x 2 < 60 > 4 x1 x 1, x 2 > 0

> i

439

Chapitre 12 • Intro­­duc­­tion à l’aide multi­­­cri­­tère à la déci­­sion

dont la solu­­tion opti­­male est x 1 < 12,94, x2 5 0 et  < 0,1 cor­­res­­pon­­dant aux valeurs sui­­vantes sur les cri­­tères  : z 1 < 25,88 et z 2 < 212,94. La réponse du modèle, quand on lui four­­nit le point d’aspi­­ra­­tion z 1, est donc le point non-­­­dominé z1 5 (25,88 ; 212,94). Comme on peut le véri­­fier sur la figure 12.9, cela cor­­res­­pond bien à pro­­je­­ter ce point z 1 sur la fron­­tière des points non-­­­dominés, selon la direc­­tion indi­­quée par les points z* et n.

Fig. 12.9  Explo­­ra­­tion des points non domi­­nés – Exemple 3

Sup­­po­­sons que le déci­­deur sou­­haite explo­­rer un autre type de solu­­tions et exprime un second point d’aspi­­ra­­tion z 2 5 ( 40, 230 ) . La réso­­lu­­tion du nou­­veau pro­­ gramme linéaire four­­nit la solu­­tion opti­­male x 1 < 18,11, x 2 < 2,84 et  < 20,11 cor­­res­­pon­­dant aux valeurs sui­­vantes sur les cri­­tères : z 1 < 44,73 et z 2 < 226,62. La réponse du modèle, quand on lui four­­nit le point d’aspi­­ra­­tion z 2, est donc le point non-­­­dominé z2 5 ( 44,73; 226,62 ) (cf. figure 12.9). On constate ici que le point d’aspi­­ra­­tion fourni est sous-­­­estimé car il cor­­res­­pond à un vec­­teur cri­­tère dominé. Le modèle pro­­jette donc ce point (dans l’autre sens) sur la fron­­tière non domi­­née c’està-dire sur le segment [zc, zd]. Cette situa­­tion de sous-­­­estimation peut se détecter en obser­­vant que la variable  prend une valeur néga­­tive à l’opti­­mum.

12.6 Conclu­­sion Ce cha­­pitre ne consti­­tue qu’une intro­­duc­­tion à l’aide multi­­­cri­­tère à la déci­­sion. Nous y avons pré­­senté les concepts fon­­da­­men­­taux et intro­­duit quelques méthodes multi­­­ cri­­tères repré­­sen­­ta­­tives. L’une des idées prin­­ci­­pales à rete­­nir est que l’agré­­ga­­tion de 440

12.6  Conclu­­sion

plu­­sieurs cri­­tères par une somme pon­­dé­­rée, bien que fort uti­­li­­sée en pra­­tique du fait de sa sim­­pli­­cité, pré­­sente de gros inconvé­­nients comme indi­­qué en sec­­tion 12.3.3. Cela jus­­ti­­fie de s’inté­­res­­ser à d’autres méthodes pour prendre en compte des cri­­tères mul­­tiples. Parmi les domaines que nous n’avons pas abor­­dés figure l’opti­­mi­­sation com­­ bi­­na­­toire multi­­­objec­­tif. Il s’agit, par exemple, de rechercher dans un graphe repré­­ sen­­tant un réseau de com­­mu­­ni­­ca­­tion un che­­min joi­­gnant deux som­­mets iden­­ti­­fiés et réa­­li­­sant le meilleur com­­pro­­mis entre dif­­fé­­rents cri­­tères (coût, durée). Dans ce même contexte, on peut éga­­le­­ment sou­­hai­­ter engen­­drer l’ensemble des che­­mins effi­­ caces afin de per­­mettre au déci­­deur d’appré­­hen­­der les arbi­­trages pos­­sibles entre les dif­­fé­­rents cri­­tères. Cette exten­­sion multi­­­objec­­tif du pro­­blème du plus court che­­min s’applique éga­­le­­ment aux autres pro­­blèmes d’opti­­mi­­sation com­­bi­­na­­toire clas­­siques (arbre cou­­vrant, affec­­ta­­tion, flots,…). Le lec­­teur sou­­hai­­tant appro­­fon­­dir le domaine de l’aide multi­­­cri­­tère à la déci­­sion trou­­vera ci-­­­après les réfé­­rences de quelques ouvrages géné­­raux.

Biblio­­gra­­phie Bouyssou D., Mar­­chant T., Pirlot M., Tsoukiás A. et Vincke Ph. – Evaluation and decision models with mul­­tiple criteria : Stepping stones for the analyst, Springer, Berlin, 2006. Col­­lette Y. et Siarry P. – Opti­­mi­­sation multi­­­objec­­tif Eyrolles, Paris, 2002. Ehrgott M. – Multicriteria Optimization, Springer, Berlin, 2005. Pomerol J.Ch. et Barba-­­­Romero S. – Choix multi­­­cri­­tère dans l’entre­­prise, Hermès, Paris, 1993. Roy B. – Métho­­do­­lo­­gie Multi­­­cri­­tère d’Aide à la Déci­­sion  : Méthodes et Cas, Economica, Paris, 1985. english trans­­la­­tion  : Multicriteria Methodology for Decision Aiding, Kluwer Academic Publishers, 1996. Roy B. et Bouyssou D. – Aide Multi­­­cri­­tère à la Déci­­sion : Méthodes et Cas, Economica, Paris, 1993. Steuer R.E. – Mul­­tiple criteria optimization  : theory, com­­pu­­ta­­tion, and appli­­ca­­tion, Wiley, New York, 1986. Vallin Ph. et Vanderpooten D. – Aide à la déci­­sion : une approche par les cas, Ellipses, Paris, 2000. 2e édi­­tion 2002. Vincke Ph. – L’aide multi­­­cri­­tère à la déci­­sion, Ellipses, Paris, 1989. english trans­­la­­tion  : Multicriteria decision-­­­aid, Wiley, 1992.

441



Solu­­tions Solu­­tions des exer­­cices du cha­­pitre 1

1.1  (1)  entraîne : A + Β = 1 : (2)  entraîne : C ! D 5 1 soit C # D 1 C # D 5 1 ; (3)  est l’impli­­ ca­­tion : E 1 C, soit E 1 C 5 1 ; (4)  entraîne A # D 1 A # D 5 1 ; (5)  est l’impli­­ca­­tion

B 1 E et A, soit B 1 A # E 5 1. Cha­­cune de ces équa­­tions boo­­léennes sera égale à 1 si et seule­­ment si leur pro­­duit est égal à 1 : ( 1 ) # ( 2 ) # ( 3 ) # ( 4 ) # ( 5 ) 5 1. Il est plus rapide, en uti­­li­­sant l’associativité et la com­­mu­­ta­­ti­­vité du pro­­duit boo­­léen, de cal­­cu­­ler comme suit ce pro­­duit : ( 1 ) # ( 5 ) 5 1, soit ( A 1 B ) # ( B 1 A # E ) 5 1, entraîne A # B 1 A # E 5 1, c’est-­­­à-dire # A ( B 1 E ) 5 1 : A étant en fac­­teur du produit est néces­­sai­­re­­ment égal 1 ; alors (4) entraîne

D = 1 ; en repor­­tant dans (2), il vient C 5 1, soit C = 0 ; enfin en repor­­tant dans (3), il vient E 5 1, soit E = 0, puis avec (5) B 5 1, soit B = 0. La liste des cadeaux res­­pec­­tant les exi­­gences de ce joyeux bam­­bin (mais est-­­­ce bien rai­­ son­­nable ?) est asso­­ciée à A = D = 1 et B = C = E = 0 : elle com­­porte le jeu élec­­tro­­nique et le Playmobil. 1.2  On intro­­duit les cinq variables boo­­léennes : D, S, T, I, C ; cha­­cune est égale à 1 si le per­­ son­­nage asso­­cié dit la vérité (ainsi D = 1 si le direc­­teur de sec­­teur dit la vérité), ou à 0 s’il ment (alors D = 0, soit D 5 1). Le dia­­logue com­­porte trois décla­­ra­­tions (et le début d’une qua­­trième, inter­­rom­­pue par le géné­­ral), soit d1 , d2 et d3. •  d1 entraîne : S # C # D 1 S # C # D 5 1. •  d2 est plus com­­pli­­qué à coder : – soit le direc­­teur et la sécré­­taire disent la vérité ; alors selon que l’ins­­pec­­teur dit la vérité ou, au contraire, ment, il vient : D#S#I#T 1 D#S#I#T 5 1 –  soit le direc­­teur et la secré­­taire mentent tous deux : D#S#I#T 1 D#S#I#T 5 1

mais pour que D # S # I # T, ou bien D # S # I # T, soit égal à 1, il fau­­drait avoir 3 des 4 variables nulles et donc 3 men­­teurs ; or l’on sait qu’il y en a au plus 2 ... On n’aura donc pas à tenir compte de cette rela­­tion.

Solu­­tions des exer­­cices du cha­­pitre 1

–  soit un seul des deux ment : (D # S 1 D # S) # (I # T 1 I # T) 5 1 soit ( D # S 1 D # S ) # ( I 1 T ) # ( I 1 T ) 5 1,  qui donne : ( D # S 1 D # S ) 1 ( I # T 1 I # T ) 5 1

mais si I # T 5 1, alors I = 0 et Τ = 0 ; compte tenu de ce qu’en outre soit le direc­­teur soit la sécré­­taire ment, on aurait alors 3 men­­teurs ; on aban­­donne ces deux cas ; il reste : ( D # S 1 D # S ) # I # T 5 1, soit : #

D # S # I # T 1 D # S # I # T 5 1.

Au total, d2 se for­­mule par :

D # S # I # T 1 D # S # I # T 1 D # S # I # T 1 D # S # I # T 5 1, (que l’on pour­­rait sim­­pli­­fier en tenant compte de d1).

•  d3 entraîne : I # S 1 I # S 5 1. Pour la réso­­lu­­tion, on exprime que les équa­­tions boo­­léennes tra­­dui­­sant d1, d2 et d3 sont simul­­ta­­né­­ment vraies ; chaque équa­­tion étant égale à 1, le pro­­duit de ces équa­­tions doit être égal à 1 : ( S # C # D 1 S # C # D ) # ( D # S # I # T 1 D # S # I # T 1 D # S # I # T 1 D # S # I # T ) # ( I # S 1 I # S ) 5 1 ; en déve­­lop­­pant et en éli­­mi­­nant les monômes boo­­léens nuls ou asso­­ciés à des com­­bi­­nai­­sons de 3 men­­teurs, il reste : 1 5 C # D # S # I # T,

soit :  D # S # T 5 1 et  C # I 5 1. La solu­­tion est unique (car on a obtenu un seul monôme boo­­léen après déve­­lop­­pe­­ment et réduc­­tion du pro­­duit ci-­­­dessus) : D = S = T = 1  et  C = I = 0. Seuls le conseiller et l’ins­­pec­­teur mentent... 1 1 2 3 4 1 1.3  1)  T 11 5 A1 # L1 ;  T12 5 T12 5 T11 5 T12 5 0 ; T13 5 A1 # L1 ,  etc. •  À t = 2, conflit pos­­sible pour les séries 1 et 2 sur la machine 1 :

© Dunod – Toute reproduction non autorisée est un délit.

A1L1 1 A1 # L1 1 A2 # L2 < 1, or ( A1 1 A1 ) # L1 5 L1, soit : L1 1 A2 # L2 < 1 •  À t = 3, conflit pos­­sible pour les séries 1 et 2 sur la machine 1 :

(1).

A1 # L1 1 A2 # L2 1 A2 # L2 < 1 et pour les séries 2 et 3 sur la machine 2 :

soit : A1 # L1 1 L2 < 1

(2),

A2 # L2 1 A2 # L2 1 A3 # B3 # L3 < 1 ainsi que pour les séries 1 et 3 sur la machine 3 :

soit : L2 1 A3 # B3 # L3 < 1

(3) ;

A1 # L1 1 A3 # B3 # L3 < 1    (4). •  À t = 4, conflit pos­­sible entre les séries 2 et 4 sur la machine 1 : A2 # L2 1 A4 # L4 # M4 < 1    (5),

443

Solutions

et pour les séries 2, 3, 4 sur la machine 2 : A2 # L2 1 A3 # B3 # L3 1 A4 # L4 # M4 < 1    (6), ainsi que pour les séries 3, 4 sur la machine 3 : A3 # B3 # L3 1 A4 # L4 # M4 < 1    (7). •  À t = 5, conflit pos­­sible pour les séries 3, 4 sur la machine 2 : A3 # B3 # L3 1 A4 # L4 # M4 < 1    (8), et pour les séries 3, 4 sur la machine 3 : A3 # B3 # L3 1 A4 # L4 # M4 < 1    (9). 2) En posant A1 = A3 = B3 = L2 = L1 = 1 et A2 = 0   , il vient : (1) 1 1 1 0 < 1  : oui

(2) 1 0 1 1 < 1  : oui (3) 1 0 1 L3 < 1 : oui

(6)  1 0 1 0 1 A4 # L4 # M4 < 1 :

oui

(7)  1

oui

(8)  1

(9)  1 (4) 1 0 1 L3 < 1 : oui (5) 1 1 1 A4 # L4 # M4 < 1 soit  A4 # L4 # M4 5 0  . e

0 1 A4 # L4 # M4 < 1 :

0 1 A4 # L4 # M4 < 1 : 0 1 A4 # L4 # M4 < 1 :

oui oui

L1 5 1  : la 1ère série est exé­­cu­­tée sur la machine 1 lors de t = 1 et t = 2. A1 5 1

L2 5 1  : la 2e série est exé­­cu­­tée sur la machine 1 lors de t = 3 et 4. A2 5 1 A3 = B3 = 1 : la 3e série est exé­­cu­­tée au temps t = 3 sur les machines 2 ou 3 (2 solu­­tions). e

L4 5 1

M4 5 1

A4 # L4 # M4 5 0 ; soit : A4 5 0  µ L4 5 0

M4 5 1

L4 5 1

M4 5 0

la 4e série est exé­­cu­­tée au temps t = 5 sur la machine 1, ou 2, ou 3.

soit : A4 5 1  •

L4 5 0

M4 5 1

L4 5 1

M4 5 0

la 4e série est exé­­cu­­tée au temps t = 4 sur la machine 2 ou 3. Au total, 10 solu­­tions : 2 (pour la série 3) 3 5 (pour la série 4). 3)  La machine 1 est uti­­li­­sée pour les séries 1 et 2 (t = 1, 2 puis 3 et 4). Si L3 = 1, la machine 2 est uti­­li­­sée pour la série 3 : il faut alors uti­­li­­ser M3 pour la série A4. 2 solu­­tions : A4 = 0, L4 = 0, M4 = 1 : s4 sur M3 à t = 5 ; A4 = 1, L4 = 0, M4 = 1 : s4 sur M3 à t = 4.

444

Solu­­tions des exer­­cices du cha­­pitre 1

Si L3 5 0 ( L3 5 1 )  : la machine 3 est uti­­li­­sée pour la série 3 : il faut alors uti­­li­­ser la machine 2 pour la série 4. 2 solu­­tions : A4 = 0, L4 = 1, M4 = 0 : s4 sur M2 à t = 5 ; A4 = 1, L4 = 1, M4 = 0 : s4 sur M2 à t = 4. On trouve 4 solu­­tions au total dans ce cas. 4)  On fixe L3 = 0 ; de plus on veut finir à t = 4. Il reste la solu­­tion unique : A4 = 1, L4 = 0, M4 = 1 : on effectuera s1 sur M1 à t = 1 et 2 , s2 sur M2 à t = 3 et 4 , s3 sur M3 à t = 3 , s4 sur M2 à t4. 1.4  1)  En développant F sous forme canonique disjonctive, il vient 9 minterms :

© Dunod – Toute reproduction non autorisée est un délit.

F 5 abcd 1 abcd 1 abcd 1 abcd 1 abcd 1 abcd 1 abcd 1 abcd 1 abcd Uti­­li­­sons, par exemple, la méthode de Quine pour trouver les monômes (ou constituants) premiers : Initialement (k = 0), on forme un tableau à double entrée ; chacune des ses 4 lignes et de ses 4 colonnes est associée à l’un des monômes de F figurant dans l’énoncé. Puis on forme leur consensus 2 à 2 (lorsqu’il existe) et on l’ajoute s’il n’est pas contenu dans (absorbé par) un des 4 monômes de F : on en trouve deux : abd et bc. N.B. : toutes les cases de la diagonale sont hachurées car un monôme ne peut pas former un consensus avec luimême ; on hachure aussi les cases qui correspondraient à une répétition : si l’on a déjà formé le consensus de abc et de bcd, il est inutile de former celui de … bcd et abc. Puis (k = 1) on associe une ligne et une colonne à chaque consensus retenu (ici : abd et bc) et l’on recommence : on trouve un seul consensus à retenir  : bd. Finalement (k = 2) on crée une ligne et une colonne associées à bd ; on forme les consensus comme ci-dessus : on trouve bc, mais qui a déjà été obtenu : FIN. On supprime ensuite les monômes absorbés par un autre : ainsi abc est absorbé par bc ; bcd, par bd ; abd, par bd. Les monômes restants sont les monômes premiers de F : F 5 ab 1 bc 1 bd 1 cd. Ensuite formons un tableau dont les lignes sont associées aux monômes premiers et les colonnes, aux minterms. Ceci pour reconnaître quels sont les minterms couverts (absorbés) par les monômes premiers.

445

Solutions

abcd abcd abcd abcd abcd abcd a bcd abcd abc d ab bc bd cd Nous reconnais­­sons tout de suite les monômes premiers «  essentiels  » : ab, bd et cd, car cha­­cun d’eux couvre un minterm (au moins) qui n’est cou­­vert par aucun autre monôme premier (cf les points gras cerclés dans le tableau ci-dessus). En revanche, le monôme premier bc est redon­­dant car il est le consensus des monômes premiers essentiels : bd et cd. La forme mini­­male de F est (unique ici) : F 5 ab 1 bd 1 cd . 2)  Il est abso­­lu­­ment inutile de recom­­men­­cer les cal­­culs pour G. En effet, dans la forme cano­­nique de G, seul le minterm abcd (le der­­nier du tableau pré­­cé­­dent) aura dis­­paru. En consé­­quence, ab ne sera plus un monôme pre­­mier. Or bc, qui reste monôme pre­­mier pour G, conti­­nuera à être cou­­vert par bd + cd, d’où la forme mini­­male (à nouveau unique) : G 5 bd 1 cd. 1.5  1)  On commence par substituer à toute variable xi ayant un coefficient négatif dans l’une des inégalités et dans la fraction économique, 1− xi  : 2 x1 + 3 x2 + x3 + x4 ≤ 5 3 x1 + 2 x2 + 2 x3 + x4 ≤ 7 x1 + x2 + x3 + x4 ≤ 3 2 x1 + 4 x2 + x3 + 3 x4 − 4 = F[MAX] 2)  Rangeons les coefficients de la fonction de la fraction économique dans l’ordre décroissant de leur contribution à la valeur de : F = 4 x2 + 3 x4 + 2 x1 + x3 − 4 (d’où F # 6 5 4 1 3 1 2 1 1 2 4). Posons : 4x 2 1 3x 4 1 2x 1 1 x 3 5 Fr

446

Solu­­tions des exer­­cices du cha­­pitre 1

c’est cet ordre que nous allons tenter de donner aux variables de valeur 1. Ci-dessous nous présentons les calculs à l’aide d’une arborescence (ce qui est équivalent au calcul en tableau de la page 33). Première phase : obtention d’une « bonne » solution admissible a. x2 ayant le plus grand coefficient dans F, on a intérêt semble-t-il, à prendre x2 = 1 (et donc x2 = 0 ) si c’est possible (c’est-à-dire si les contraintes sont respectées). Les contraintes deviennent : 2 x1 + x3 + x4 ≤ 5 3 x1 + 2 x3 + x4 ≤ 5 x1 + x3 + x4 ≤ 3

et Fr : 3 x4 + 2 x1 + x = F' On remarque que dans chaque contrainte ci-dessus, le coefficient de toute variable est inférieur au second membre : le choix de x2 = 1 n’a pas d’implication sur les valeurs des autres variables. (Si l’on avait  : 2 x1 + 7 x3 + x4 ≤ 5 puisque 7  >  5, une implication serait x3 = 0  ; mais ce n’est pas le cas ici.) b. x4 ayant le second plus grand coefficient dans F : 3, on prend x4 = 1 . Les contraintes deviennent : 2 x1 + x3 ≤ 5 3 x1 + 2 x3 ≤ 4 x1 + x3 ≤ 2

et Fr :

© Dunod – Toute reproduction non autorisée est un délit.

2 x1 + x3 + 3 = F' . À nouveau on n’a pas d’implication. c. x1 ayant alors le plus grand coefficient dans F, on prend x1 = 1 . Les contraintes deviennent : x3 ≤ 3 2 x3 ≤ 1 x3 ≤ 2 et F : x3 + 5 = F' 447

Solutions

La seconde contrainte implique : x3 = 0 . Finalement on a obtenu la solution x4 = x1 = 1, x2 = x3 = 0 de valeur F = 5. Mais nous ne savons pas, pour l’instant, si cette solution est optimale ou non.

etc.

Deuxième phase : recherche de la solution optimale On va remettre en cause les choix effectués, en partant du dernier, puis de l’avant dernier, c′. Si on prend x1 = 0 (en gardant x2 = x4 = 1 ), les contraintes deviennent : x3 ≤ 5 2 x3 ≤ 4 x3 ≤ 3 et F′ : x3 + 3 = F'

Manifestement F′≤ 4 (au mieux ; si x3 = 1) alors qu’on connaît une solution de valeur F' = 5 : il n’existe pas de meilleure solution avec x1 = 0 . On va remonter alors à la mise en cause du choix précédent. b′. Si on prend x4 = 0 (en gardant x2 = 1 ), les contraintes deviennent : 2 x1 + x3 ≤ 4 3 x1 + 2 x3 ≤ 5 x1 + x3 ≤ 3 et F′ : 2 x1 + x3 = F′ Manifestement F' ≤ 3. On va alors alors remonter alors à la mise en cause du premier choix. a′. Si on prend x2 = 0 (c’est-à-dire x2 = 1) : 2 x1 + x3 + x4 ≤ 1 3 x1 + 2 x3 + x4 ≤ 7 x1 + x3 + x4 ≤ 2 et F' : 2 x1 + x3 + x4 − 4 = F' .

448

Solu­­tions des exer­­cices du cha­­pitre 1

Manifestement désormais F'≤ 0 . La deuxième phase s’achève sans qu’on n’ait trouvé une meilleure solution que notre « bonne » solution de la phase 1, qui s’avère ici être optimale : F ′* = 5, x1 = x4 = 1, x2 = x4 = 0 En revenant à F = F′ – 4, on obtient la valeur optimale F* = 1.

6 x2 = 1

0

6 x4 = 1

x4 = 0 3

6 x1 = 1 6

x2 = 0

x1 = 0 4

x3 = 0

© Dunod – Toute reproduction non autorisée est un délit.

5

NB :  la gestion de cette arborescence peut s’effectuer à l’aide d’une pile.

449

Solutions

Solu­­tions des exer­­cices du cha­­pitre 2

2.1  1)  On effec­­tue n 2 1 com­­pa­­rai­­sons lors de la 1ère phase, n 2 2 com­­pa­­rai­­sons lors de la 2ème, ..., 1 com­­pa­­rai­­son lors de la ( n 2 1 ) ème phase. La com­­plexité est : ( n 2 1 ) 1 ( n 2 2 ) 1 c, 1 1 5 n ( n 2 1 ) /2, soit en O(n2). Le lec­­teur trou­­vera dans l’exer­­cice sui­­vant un tri de com­­plexité moindre, en O(n log n). Sup­­po­­sons que l’on doive trier n = 1 000 élé­­ments : par un tri par trans­­po­­si­­tions on effec­­tuera plus de 500 000 com­­pa­­rai­­sons et seule­­ment de l’ordre de 10 000 com­­pa­­rai­­sons pour un tri en O(n log n) (nous approximons ici log 1 000 par log 1 024, c’est-à-dire log 210 = 10). 2)  Les n cases du tableau sont notées : Tab(1), Tab(2), ..., Tab(n). pour i 5 1 à n 2 1 pour j 5 1 à n 2 i si Tab ( j ) . Tab ( j 1 1 ) alors élt d Tab ( j 1 1 )  ; Tab ( j 1 1 ) d Tab ( j )  ; Tab ( j ) d élt ; fin si fin pour fin pour 2.2  1)  Le nombre d’élé­­ments du tableau étant 9, l’algo­­rithme com­­mence par trier d’une part le tableau 7 5 2 8 et le tableau 4 1 3 9 6 avant de fusion­­ner ces deux tableaux en uti­­li­­sant l’algo­­rithme pré­­senté à la ques­­tion pré­­cé­­dente. Appli­­quons l’algo­­rithme de tri au tableau de gauche : 7 5 2 8 . Ce tableau com­­por­­tant plus de deux élé­­ments, l’algo­­rithme doit être exé­­cuté pour les tableaux 7 5 et 2 8 avant qu’ils soient fusion­­nés. L’algo­­rithme appli­­qué à 7 5 com­­mence par sépa­­rer ce tableau en deux tableaux 7 et 5 . Ces deux tableaux étant de taille uni­­taire, ils consti­­tuent cha­­cun un tableau trié ; le résul­­tat de leur fusion est alors 5 7 . De même, l’appli­­ca­­tion de l’algo­­rithme de tri au tableau 2 8 don­­nera 2 8 et la fusion des deux tableaux 5 7 et 2 8 aura pour résul­­tat 2 5 7 8 . Le tableau 4 1 3 9 6 est d’abord scindé en deux tableaux : 4 1 et 3 9 6 . Pour le tableau 4 1 , après une nou­­velle sépa­­ra­­tion et une fusion, le tableau résul­­tat est 1 4 . Le tableau 3 9 6 est lui séparé en 3 et 9 6 . L’algo­­rithme de tri est appli­­qué à ce der­­nier tableau de deux élé­­ments et le tableau résul­­tant est 6 9  ; sa fusion avec 3 donne 3 9 6 , qui lui­­­même fusionné avec 1 4 four­­nit le tableau 1 3 4 6 9 . Fina­­le­­ment, la fusion des deux tableaux 2 5 7 8 et 1 3 4 6 9 donne comme résul­­tat 1 2 3 4 5 6 7 8 9 . 2)  Mon­­trons qu’après k pas­­sages dans la boucle de l’ins­­truc­­tion 2, les k pre­­miers élé­­ments du tableau Τ ont été cor­­rec­­te­­ment insé­­rés. Notons pre­­mière­­ment qu’à cha­­cun des pas­­sages un et un seul élé­­ment est inséré dans le tableau. Soit a le der­­nier élé­­ment inséré et sup­­po­­sons qu’à cette étape T1 ( i1 ) < T 2 ( i2 ) (le rai­­son­­ne­­ment est évi­­dem­­ment iden­­tique dans le cas 450

Solu­­tions des exer­­cices du cha­­pitre 2

contraire), T1(i1) est donc inséré en posi­­tion k de Τ : si a est un élé­­ment de T1, c’est-­­­à-dire a = T1(i1 – l), puisque T1 est trié, on a a < T1 ( i1 )  ; si a est un élé­­ment de T2 c’est-­­­à-dire l’élé­­ ment T2(i2 – l), à l’étape pré­­cé­­dente on avait T1 ( i1 ) . T2 ( i2 2 1 ) 5 a, ainsi l’élé­­ment T1(i1) est donc bien cor­­rec­­te­­ment inséré dans T. La boucle de l’ins­­truc­­tion 2 se ter­­mine lorsque tous les élé­­ments de l’un des deux tableaux (mais pas des deux) ont été insé­­rés. Sup­­po­­sons que ce soit l’ensemble des élé­­ments de T2 qui soit dans Τ avant que tous les élé­­ments de T1 soient insé­­rés (ici aussi, l’autre cas est ana­­logue). Le pre­­mier élé­­ment non encore inséré de T1 a une valeur supé­­rieure au der­­nier élé­­ment de T2, sinon il aurait été inséré avant celui-­­­ci. Τ est donc trié, et contient tous les élé­­ments de T1 et T2. L’inser­­tion d’un élé­­ment dans Τ demande un nombre constant d’opé­­ra­­tions élé­­men­­taires, que se soit dans le corps dans la boucle de l’ins­­truc­­tion 2 ou dans l’ins­­truc­­tion de la ligne 6, n élé­­ments sont insé­­rés, la com­­plexité est donc O(n) que se soit dans le pire des cas, dans le meilleur des cas ou dans le cas moyen. 3)  Sup­­po­­sons dans un pre­­mier temps que n, la taille du tableau, soit de la forme n = 2k, k étant un entier. Dans ce cas, à chaque étape, un tableau est séparé en deux tableaux de tailles égales. Ainsi, au pre­­mier niveau, le tableau est séparé en 2 tableaux de taille 2k–1, au deuxième niveau, il y aura 22 = 4 tableaux de taille 2k–2, et ainsi de suite jus­­qu’au moment où chaque tableau est de taille 1 et n’est donc plus séparé. À ce stade nous sommes arri­­vés au niveau k = log2n de sépa­­ra­­tion et il y a n tableaux. À tout niveau b il y a donc 2b tableaux de taille 2k–b ; nous avons vu que la fusion de deux t tableaux de taille néces­­si­­tait O(t) opé­­ra­­tions ; à chaque niveau, les opé­­ra­­tions de fusion 2 néces­­sitent donc O(2b2k–b) = O(2k). Puisque il y a k niveaux, l’ensemble des opé­­ra­­tions de fusion néces­­site O(k2k) = O(n log n) opé­­ra­­tions élé­­men­­taires. Le nombre d’opé­­ra­­tions néces­­ saires à la sépa­­ra­­tion du tableau est O(n) puisque la sépa­­ra­­tion s’arrête quand chaque tableau est de taille uni­­taire. Le nombre d’opé­­ra­­tions pour l’ensemble de l’algo­­rithme est donc O(n log n) + O(n) = O(n log n).

© Dunod – Toute reproduction non autorisée est un délit.

Lorsque n n’est pas de la forme n = 2k, soit k l’entier tel que 2k 2 1 , n , 2k. Le nombre d’opé­­ra­­tions exé­­cu­­tées par l’algo­­rithme est moindre que celui néces­­saire pour un tableau de taille 2k. La com­­plexité de l’algo­­rithme est donc O(n log n).

451

Solutions

Solu­­tions des exer­­cices du cha­­pitre 3

1 1 2 2 3.1  1)  G ( A ) 5 5 F, C 6 ; G ( B ) 5 5 A, B, C, D 6 ; G ( A ) 5 5 B, F 6 ; G ( B ) 5 5 B 6   2) dA2 5 2 ; dB2 5 1 ; dC2 5 3 ; dD2 5 2 ; dE2 5 2 ; dF2 5 2   dA1 5 2 ; dB1 5 4 ; dC1 5 1 ; dD1 5 3 ; dE1 5 0 ; dF1 5 2 ;

E est une “sor­­tie” car le som­­met E n’a pas de suc­­ces­­seur : dE1 5 0 car G(1E) 5 [ . Si l’on sup­­prime la boucle (B, B), alors B devient une entrée. NB : la somme des demi-­­­degrés inté­­rieurs (resp. exté­­rieurs) de tous les som­­mets est égale au nombre d’arcs : en effet cette somme revient à comp­­ter les arcs par leur extré­­mité ini­­tiale (resp. terminale), ici m = 12. 3)  (B, D, C, D, E) est un che­­min simple : aucun de ses arcs n’est emprunté plu­­sieurs fois ; mais ce che­­min n’est pas élé­­men­­taire : il passe deux fois par D. 4)  Puisque le graphe com­­porte une sor­­tie, le som­­met E qui est sans suc­­ces­­seur, aucun cir­­cuit ne peut pas­­ser par E ; en par­­ti­­cu­­lier, pas un cir­­cuit hamiltonien. Si G com­­porte un che­­min hamiltonien, celui-­­­ci doit par­­tir de l’entrée B (sup­­pri­­mer la boucle) pour arri­­ver à la sor­­tie E. On trouve alors faci­­le­­ment le che­­min hamiltonien (B, A, C, D, F, E). 5)  G com­­por­­tant une sor­­tie, il n’est pas for­­te­­ment connexe : depuis E il n’existe pas de che­­min vers les autres som­­mets. Mais l’ajout de l’arc (E, B) le rendrait fortement connexe. 6)  B est néces­­sai­­re­­ment la racine des arbo­­res­­cences cherc­­hées. En voici deux : B

B D

A A

D

F

E

C F

C

E

Une troi­­sième arbo­­res­­cence (par­­ti­­cu­­lière, car sans rami­­fi­­ca­­tion) est le che­­min hamiltonien du 4. 3.2  On cherche un par­­cours (non orienté) pas­­sant par tous les points une fois et une seule. En termes de graphes : une chaîne (ou un cycle) eulérienne. Sup­­po­­sons le pro­­blème pos­­sible avec le point (sommet) de départ d dif­­fé­­rent du point (sommet) d’arri­­vée a. Dans le dia­­gramme les degrés de d et de a seraient alors impairs ; les autres som­­mets étant des points de pas­­sage, leur degré serait pair. Si d et a étaient confon­­dus, tous les som­­mets du dia­­gramme auraient un degré pair. Bref le pro­­blème est pos­­sible si ce dia­­gramme com­­porte au plus 2 som­­mets de degré impair. Or dans le dia­­gramme des 7 ponts, les 4 som­­mets ont un degré impair (dA = dC = dD = 3 et dB = 5) : le pro­­blème est impos­­sible. Avec un hui­­tième pont ajouté entre A et D, le pro­­blème est pos­­sible en par­­tant de B et en finis­­sant en C (ou l’inverse). 3.3  1)  Toute arête a deux extré­­mi­­tés : si l’on somme tous les degrés des sommets on compte chaque arête deux fois ; cette somme vaut donc 2m (rap­­pel : m désigne le nombre d’arêtes du graphe) 452

Solu­­tions des exer­­cices du cha­­pitre 3

2)  Sup­­po­­sons, par l’absurde, qu’il existe un graphe com­­por­­tant un seul som­­met (noté x1) de degré impair (noté d1), tan­­dis que les degrés des autres som­­mets sont pairs : d2 + d3, ..., dn. On vient de mon­­trer que : d1 + (d2 + d3 + ... + dn) est pair car égal à 2m ; or (d2 + d3 + ... + dn) étant une somme de nombres tous pairs est paire ; par suite, la somme d1 + (d2 + d3 + ... + dn) est impaire, ce qui contre­­dit le résul­­tat du 1)  : «  d1 + d2 + ... + dn  » est pair. Il est donc impossible d’avoir un seul sommet de degré impair. Plus géné­­ra­­le­­ment, on peut mon­­trer que, pour tout graphe, le nombre de som­­mets de degré impair, est pair. 3.4  On a tracé le graphe non orienté associé à la matrice :

Figure 3.7

© Dunod – Toute reproduction non autorisée est un délit.

Figure 3.8

1)  En nom­­mant A, B, c, I les som­­mets sui­­vant l’ordre des lignes et colonnes de la matrice, la figure 3.7 sui­­vante cor­­res­­pond à un tracé du graphe. La suite des opé­­ra­­tions sui­­ vantes cor­­res­­pond à un par­­cours pos­­sible de ce graphe : A est ouvert, Β est ouvert à par­­tir de A, F est ouvert à par­­tir de A, F est fermé, G est ouvert à par­­tir de Β, I est ouvert à par­­tir de A, D est ouvert à par­­tir de G, Ε est ouvert à par­­tir de G, C est ouvert, H est ouvert à par­­tir de C. L’ordre de Prévisite est alors (A, B, F, G, I, D, E, C, H). La forêt cor­­res­­pon­­dant à ce par­­cours est repré­­sen­­tée par la figure 3.2. Cette forêt com­­pre­­nant deux arbo­­res­­cences, le nombre de com­­po­­santes connexes du graphe est donc deux. 2)  Pour déter­­mi­­ner les som­­mets d’arti­­cu­­lation, nous effec­­tuons un par­­cours en pro­­fon­­ deur du graphe, et cal­­cu­­lons les valeurs prévisite et hau­­teur pour cha­­cun des som­­mets de la manière décrite dans la par­­tie dédiée à ce pro­­blème.

Figure 3.9

453

Solutions

En ini­­tia­­li­­sant le par­­cours par l’ouver­­ture du som­­met A, nous abou­­tis­­sons aux numé­­ro­­ta­­tions de la figure 3.9. Les racines A et C de la forêt que nous avons obte­­nue ont un unique suc­­ces­­ seur dans leur arborescence et ne sont donc pas par consé­­quent des som­­mets d’arti­­cu­­lation. Le som­­met B, qui a pour ordre de prévisite 2, a pour suc­­ces­­seur le som­­met G pour lequel la hau­­teur cal­­cu­­lée est 3; or 3 > 2 donc Β est un som­­met d’arti­­cu­­lation. G est aussi un som­­met d’arti­­cu­­lation puisque son suc­­ces­­seur Ε dans l’arbo­­res­­cence a une hau­­teur 3 égale à la valeur de prévisite de G. Les autres som­­mets du graphe ne sont pas des som­­mets d’arti­­cu­­lation puisque tous leurs suc­­ces­­seurs dans l’arbo­­res­­cence ont des hau­­teurs infé­­rieures au rang du som­­met dans la liste de prévisite. 3.5  1)  Sup­­po­­sons que le graphe ait un cycle de lon­­gueur impaire. Nous pou­­vons noter [x1, x2, c, x2n+1, x1] ce cycle. Si x 1 PX alors x 2 PY puisqu’une arête relie x1 et x2. Alors x 3 PX , et ainsi de suite. Donc tous les som­­mets d’indice impair sont des élé­­ment de X. Mais {x1, x2n+1} est une arête du cycle ayant ses deux extré­­mi­­tés dans l’ensemble X, donc le graphe ne peut pas être biparti. Sup­­po­­sons main­­te­­nant que tous les cycles du graphe soient de lon­­gueur paire. Effec­­tuons un par­­cours de ce graphe en colo­­rant les som­­mets de la manière sui­­vante : le som­­met ini­­tia­­ li­­sant le par­­cours est coloré en bleu. À chaque fois qu’un som­­met est ouvert, il est coloré en bleu si le som­­met ayant per­­mis son ouver­­ture est coloré en rouge, et réci­­pro­­que­­ment le som­­ met est coloré en rouge si le som­­met ayant per­­mis son ouver­­ture est coloré en bleu. Ainsi à la fin du par­­cours chaque som­­met est soit bleu soit rouge. Les arêtes du graphe cor­­res­­pon­­dant à un arc de la forêt rela­­tive au par­­cours ont leurs deux extré­­mi­­tés de cou­­leurs dif­­fé­­rentes étant donné la manière dont les som­­mets ont été colo­­rés. Consi­­dé­­rons les autres arêtes [x, y] : il y a une chaîne reliant x et y dans la forêt rela­­tive au par­­cours. L’ajout de l’arête [x, y] à cette chaîne cor­­res­­pond à un cycle, de lon­­gueur paire par hypo­­thèse. La chaîne reliant x et y dans la forêt a donc un nombre impair d’arêtes. Cette chaîne appar­­te­­nant à la forêt, ses som­­mets sont colo­­rés alter­­na­­ti­­ve­­ment en bleu et rouge, les deux som­­mets extré­­mi­­tés de cette chaîne ont donc des cou­­leurs dif­­fé­­rentes. Donc pour toute arête du graphe, l’une de ses extré­­mi­­tés est rouge et l’autre est bleue. En par­­ tition­­nant l’ensemble des som­­mets sui­­vant leur cou­­leur, nous véri­­fions alors que le graphe est biparti. 2)  Nous venons de voir dans la démons­­tra­­tion pré­­cé­­dente com­­ment un par­­cours per­­met de colo­­rer avec deux cou­­leurs les som­­mets d’un graphe biparti. Pour véri­­fier qu’un graphe est biparti, il suf­­fit donc d’effec­­tuer un par­­cours et de véri­­fier que chaque arête a ses deux extré­­mi­­tés de cou­­leurs dif­­fé­­rentes. 3.6  1)  Si (y, x) est un arc arrière, en ajou­­tant cet arc au che­­min allant de x à y dans l’arborescence du parcours nous obte­­nons un cir­­cuit dans le graphe donné. Réci­­pro­­que­­ment, consi­­dé­­rons un cir­­cuit du graphe. Soit x le pre­­mier som­­met visité de ce cir­­cuit dans l’ordre de prévisite et y le pré­­dé­­ces­­seur de x dans ce cir­­cuit. Le som­­met y étant aussi un descendant de x il y a néces­­sai­­re­­ment un che­­min de x à y dans l’arbo­­res­­cence du fait que le par­­cours s’effec­­tue en pro­­fon­­deur (cette prop­­riété a été mon­­trée dans le cas des graphes non orien­­tés, il est laissé le soin au lec­­teur de véri­­fier que la démons­­tra­­tion don­­née est encore valide pour les graphes orien­­tés), et de ce fait (y, x) est un arc arrière. 2)  Nous avons vu que la com­­plexité d’un par­­cours en pro­­fon­­deur est O(max(m, n)). La détec­­tion d’un arc arrière (y, x) peut se faire simul­­ta­­né­­ment au par­­cours sans ajou­­ter d’opé­­ra­­ tion sup­­plé­­men­­taire. Il suf­­fit lors de la visite du som­­met y, au cours de l’exa­­men du som­­met x (suc­­ces­­seur de y) de véri­­fier que x est ouvert. 454

Solu­­tions des exer­­cices du cha­­pitre 3

3)  (E, G) et (F, A) sont des arcs-arrière : ils ferment respectivement les circuits (E, G, C, D, E) et (F, A, B, F). 3.7  Voici le par­­cours en pro­­fon­­deur du graphe de l’appli­­ca­­tion, depuis A, puis dans une seconde phase depuis E, donné par les 2 arbo­­res­­cences (ou « forêt ») et aussi par les dif­­fé­­rents états de la pile asso­­ciée à ce par­­cours : 2

1

π(B) = 4

8 = π(E)

E

B

π(A) = 5

A

F

H

π(F) = 7 graphe g

G

D

π(G) = 6

π(D) = 3

C π(C) = 2

A

E

B

F C

D

G

H

© Dunod – Toute reproduction non autorisée est un délit.

pile vide

E début phase 2

A début phase 1

F E

B A

C B A

π(H) = 1

H C B A

C B A

B A

D B A

B A

A fin phase 1

G F E

F E

E fin phase 2

NB Ici (G, E ) et (C, A) sont des arcs-arrières : ils ferment les circuits (G, E, F, G ) et (C, A, B, C ). (A, H ) est un arc-avant. (D, C), (E, B) et (G, D) sont des arcs-transverses. 455

Solutions

Voici main­­te­­nant gt, le graphe-­­­miroir de g et la forêt constituée de 3 arbo­­res­­cences de son par­­cours en pro­­fon­­deur ; le sommet initial est celui de plus fort rang dans le premier parcours en profondeur : cʼest E puisque p ( E ) 5 8. 2

1

E

B

A

F

3

H G

D

C

E

A

G

C

F

B

1

2

D

H

3

  Dans la première passe de ce second parcours en profondeur, on visite seulement les 3 sommets {E, F, G}. Ensuite le second sommet non encore visité est A puisque p ( A ) 5 5 : A est le sommet initial de la seconde passe ; on visite alors {A, B, C, D}. Enfin il reste un seul sommet non encore visité : H qui est le sommet initial de la troisième passe... et final puisque il était seul. Le graphe ini­­tial com­­porte donc 3 com­­po­­santes for­­te­­ment connexes :

K1 = {E, F, G} , K2 = {A, B, C, D} , K3 = {H}

Le som­­met H est le seul dans sa com­­po­­sante for­­te­­ment connexe car H est une sor­­tie du graphe ini­­tial. À titre de véri­­fi­­ca­­tion (visuelle) dans le graphe initial : les trois som­­mets E, F et G appar­­te­­nant à un même cir­­cuit : (E, F, G, E) appar­­tiennent à la même com­­po­­sante for­­te­­ ment connexe ; il en va de même pour A, B, C et D avec le cir­­cuit (A, B, D, C, A).

456

Solu­­tions des exer­­cices du cha­­pitre 4

Solu­­tions des exer­­cices du cha­­pitre 4 4.1  1)  Chaque phase k fait inter­­ve­­nir le sous-­­­ensemble de variables x1, c, xk, la phase n fait donc inter­­ve­­nir l’ensemble des variables du pro­­blème. Les valeurs zk(d ) cor­­res­­pondent aux pro­­blèmes pour les­­quels le second membre de l’inéga­­lité a pour valeur d : ainsi pour d = b et k = n, nous retrou­­vons le pro­­blème ini­­tial, donc z(b) = zk(b). 2)  Les pro­­blèmes de la phase k = 1 sont de la forme : z1(d ) = max c1x1 avec a1x 1 < d où c1 est posi­­tif et où d est un paramètre entier variant de 0 à b. Lorsque a1 . d, la seule valeur pos­­sible de la variable x1 est x1 = 0 et alors z1(d ) = 0 ; inver­­se­­ment, lorsque a1 < d, les deux valeurs 0 ou 1 sont pos­­sibles pour x1, donc c1x1 est maximal lorsque x1 = 1 et a pour valeur z1(d ) = c1. k 21

3)  À la phase k, si xk = 1, on a a ai x i 5 a ai x i 1 ak < d. Les coef­­fi­­cients a1 ainsi que les k 21 k

variables xi étant posi­­tifs, on a bien ak < d. Nous avonc donc d’une part a ai x i < d 2 ak , et k k 21 i51

i51

d’autre part max a ci x i 5 max a a ci x i b 1 ck . La valeur de xk étant fixée, les variables sont i51 i51 x1, c, xk – 1 , ce qui cor­­res­­pond à résoudre les pro­­blèmes (paramétrés par d ) : i51

max a ci x i 5 z k 2 1 ( d 2 ak )  ; k 21

i51

ainsi nous avons bien : z k ( d ) 5 z k 2 1 ( d 2 ak ) 1 ck . k

k 21

i51

i51

4)  Durant la phase k, si xk = 0, on a : a ai x i 5 a ai x i < d et d’autre part :

max a ci x i 5 max a ci x i. Les variables étant x1, c , xk

k 21

i51

i51

les pro­­blèmes (paramétrés par d) à résoudre sont  :

max a ci x i 5 z k 2 1 ( d ) et nous obte­­nons zk(d) = zk – 1(d) . k 21

© Dunod – Toute reproduction non autorisée est un délit.

– 1,

k

i51

5)  Lorsque ak . d, néces­­sai­­re­­ment xk = 0 et, ainsi que nous venons de le voir dans la ques­­tion pré­­cé­­dente, zk(d ) = zk–1(d )  ; si ak < d, xk peut a priori prendre l’une des deux valeurs 0 ou 1 ; si xk = 0, alors comme nous venons de le voir, zk(d ) = zk–1(d )  ; dans le cas contraire, lorsque xk = 1, nous avons vu que : z k ( d ) 5 ck 1 z k 2 1 ( d 2 ak )  ; en com­­pa­­rant ces deux pos­­si­­bi­­li­­tés, il vient : z k ( d ) 5 max ( z k 2 1 ( d ) , ck 1 z k 2 1 ( d 2 ak )) . 6)  Nous devons déter­­mi­­ner z4(7). Com­­men­­çons par effec­­tuer la phase k = 1, c’est-­­­à-dire cal­­cu­­ler z1(0), z1(1), c, z1(7) ; a1 = 2, nous obte­­nons alors z1(0) = z1(1) = 0 avec x1 = 0 et z1(2), c, z1(7) = 16 avec x1 = 1. Effec­­tuons la phase k = 2 : puisque a2 = 3, nous obte­­nons z2(0) = z1(0) = 0, z2(1) = z1(1) = 0, et z2(2) = z1(2) = 16 avec x2 = 0 ; cal­­cu­­lons z2(3), nous avons : 457

Solutions

z2(3) = max (z1(3), 19 + z1(3 – 3 = 0)) = max(16, 19) = 19, ce maxi­­mum étant obtenu pour x2 = 1 ; de la même manière, nous obte­­nons : z2(4) = max (z1(4), 19 + z1(1)) = max(16, 19) = 19, avec x2 = 1 ; z2(5) = max (z1(5), 19 + z1(2)) = max(16, 19 + 16) = 35, ce maxi­­mum étant obtenu avec x1 = x2 = 1 ; de même nous obte­­nons : z2(6) = max (z1(6), 19 + z1(3)) = max(16, 35) = 35 et z2(7) = max (z1(7), 19 + z1(4)) = max(16, 35) = 35, obtenu avec x1 = x2 = 1. Effec­­tuons main­­te­­nant la phase k = 3 : Puisque a3 = 4, nous obte­­nons z3(0) = z2(0) = 0 , z3(1) = z2(1) = 0 , z3(2) = z2(2) = 16 , et z3(3) = z2(3) = 19 avec x3 = 0 ; nous avons : z3(4) = max (z2(4), 23 + z2(0)) = max(19, 23) = 23, obtenu avec x3 = 1 ; z3(5) = max (z2(5), 23 + z2(1)) = max(35, 23) = 35, obtenu avec x3 = 0 ; z3(6) = max (z2(6), 23 + z2(2)) = max(35, 23 + 16) = 39, obtenu pour x3 = 1 ; z3(7) = max (z2(7), 23 + z2(3)) = max(35, 23 + 19) = 42, obtenu pour x3 = 1 ; Pour finir, la phase k = 4 consis­­tera uni­­que­­ment au cal­­cul de z4(7) = z(7), la solu­­tion du pro­­ blème w nous obte­­nons, puisque a 4 5 5 < 7 : z4(7) = max (z3(7), 28 + z3(2)) = max(42, 28 + 16) = 44, et cette solu­­tion est obte­­nue avec x4 = 1, x3 = 0 venant du cal­­cul de z3(2) = 16, x2 = 0 car pour le cal­­cul de z2(2) nous avions z2(2) = z1(2), et x1 = 1 venant du cal­­cul z1(2) = 16. Le tableau et le graphe de décisions sui­­vants résument l’ensemble des cal­­culs (on y ajoute les z4(d) pour d < 7) :

z k (d)

k1

k2

k3

k4

d0

0

0

0

0

d1

0

0

0

0

d2

16

16

16

16

d3

16

19

19

19

d4

16

19

23

23

d5

16

35

35

35

d6

16

35

d7

16

35

39 42

39 44

En résumé, l’optimum est : x1 = 1, x2 = x3 = 0, x4 = 1 et z* = 44. Le lecteur se convaincra aisément que résoudre ce problème est équivalent à chercher un chemin de valeur maximale du sommet α au sommet ω dans le « graphe de décisions » ci-dessus (il est formé des arcs figurés par un trait double). L’alpiniste emportera donc seulement les aliments 1 et 4. 458

Solu­­tions des exer­­cices du cha­­pitre 4

4.2  1)  Chaque carac­­tère d’une séquence de lon­­gueur n peut être soit conservé soit sup­­primé pour for­­mer une sous-­­­séquence. Il y a donc 2n sous-­­­séquences pos­­sibles. Tester si deux séquences de lon­­gueur x sont iden­­tiques peut se faire avec un algo­­rithme de com­­plexité, dans le pire des cas, O(x). Ainsi un algo­­rithme consis­­tant à énu­­mé­­rer les 2n sous-­­­séquences de A et les 2m sous-­­­séquences Β et à les com­­pa­­rer deux à deux serait de com­­ plexité O(min(m,n) . 2n + m ), prohibitive : ne pas énumérer dans le combinatoire ! 2)  Si zk , la der­­nière lettre de la plus longue sous-­­­séquence com­­mune Z, n’était pas ai = bj, on pour­­rait ajou­­ter zi après zk dans Z et on obtien­­drait une sous-­­­séquence com­­mune Zai plus longue que Z, ce qui est contra­­dic­­toire. Donc zk = ai = bj et z1 czk – 1 est une sous­­­séquence com­­mune à Ai – 1 et Bj – 1. Elle est de lon­­gueur maximale car s’il exis­­tait S une sous-­­­séquence com­­mune à Ai – 1 et Bj – 1 de lon­­gueur supé­­rieure, la séquence Sai serait une sous-­­­séquence com­­mune à Ai et Bj de lon­­gueur supé­­rieure à Ζ qui est de lon­­gueur maximale : contradiction. 3)  zk, la der­­nière lettre de Z, ne peut pas être la der­­nière lettre de Ai et de Bj puisque ai 2 bj. Alors Z est une plus longue sous-­­­séquence com­­mune de Ai – 1 et Bj ou de Ai et Bj – 1. 4)  Si i = 0 ou j = 0 l’une des séquences Ai ou Bj est la séquence vide qui est de lon­­gueur 0 ; il est donc évident que f (i, j) = 0. Lorsque ai = bj, nous avons vu en 2) que z1 czk–1 est une plus longue sous-­­­séquence com­­mune de Ai – 1 et Bj – 1. Comme f (i – 1, j – 1) est la lon­­gueur de z1 c zk – 1, il s’en suit que z1 czk – 1 zk est la plus longue sous-­­­séquence com­­mune à Ai et Bj ; elle est de lon­­gueur f (i, j) = f (i – 1, j – 1) + 1. Nous avons mon­­tré en 3) que lorsque ai 2 bj, la plus longue sous-­­­séquence com­­mune de Ai et Bj est une plus longue sous-­­­séquence com­­mune de Ai – 1 et Bj de lon­­gueur f (i – 1, j), ou de Ai et Bj – 1 de lon­­gueur f (i, j – 1). Il s’en suit donc que :

© Dunod – Toute reproduction non autorisée est un délit.

f (i, j ) = max (f (i – 1,  j),  f (i,  j – 1)). 5)  Si ai = bj, alors T(i, j ) = 1 + T(i – 1, j – 1). Si ai 2 bj, alors T(i, j ) = max (T(i – 1, j ), T(i, j – 1)). 6)  L’algo­­rithme sui­­vant, de com­­plexité O(mn), per­­met de cal­­cu­­ler les valeurs T(i, j ) : Pour j ← 1 à n faire T(0, j ) ← 0 pour i ← 1 à m faire T(i, 0) ← 0 pour j ← 1 à n faire si ai = bj alors T(i, j ) ← 1 + T(i – 1, j – 1) sinon T(i, j ) ← max (T(i – 1, j ), T(i, j – 1))

459

Solutions

7)  Nous obte­­nons le tableau sui­­vant :

p

a

r

i

t

e

a1

a2

a3

a4

a5

a6

0

0

0

0

0

0

0

A B a

b1

0

0

1

1

1

1

1

r

b2

0

0

1

2

2

2

2

r

b3

0

0

1

2

2

2

2

e

b4

0

0

1

2

2

2

3

t

b5

0

0

1

2

2

3

3

La plus longue sous-­­­séquence com­­mune est donc de lon­­gueur 3. C’est : art, comme nous le montrons dans la question suivante. 8)  En par­­tant de l’élé­­ment T (n, m) du tableau, la déter­­mi­­na­­tion d’une sous-­­­séquence com­­ mune de lon­­gueur maximale se fait à rebours, depuis le der­­nier carac­­tère jus­­qu’au pre­­mier, de la manière sui­­vante ; si ai = bj alors on conserve la lettre ai et on se place dans la posi­­ tion (case) T (i – 1,  j – 1) ; si ai 2 bj, on se place dans la posi­­tion du tableau T ( i – l,  j) ou T (i, j – 1) de valeur maximale. Ainsi dans notre exemple en par­­tant de T (6, 5) on suit la tra­­jec­­toire sui­­vante (cette tra­­jec­­toire n’est pas unique) : on se posi­­tionne en T (5, 5) puisque a6 5 e 2 b5 5 t (on aurait aussi bien pu se posi­­tion­­ner en T (6, 4) car Τ (5, 5) = T (6, 4) = 3), ensuite a5 = b5 et le carac­­tère t est conservé et l’on se posi­­tionne en T (4, 4), puis en T (3, 4), puis en T (3, 3) où la lettre r est conser­­vée ; ensuite on se posi­­tionne en T (2, 2) puis en T (2, 1), le carac­­tère a est conservé et l’on arrive en T (0, 0) et l’algo­­rithme s’arrête. La plus longue sous-­­­séquence com­­mune reconnue est donc : art. 4.3  Ce pro­­blème connu depuis l’Anti­­quité, jouit d’un cer­­tain regain d’actua­­lité, car il est ana­­logue à celui de l’éta­­ge­­ment des fusées. Les anciens le trai­­taient par des méthodes arith­­mé­­tiques, voire géo­­mé­­triques. Mais il peut consti­­tuer aussi une appli­­ca­­tion de la pro­­gram­­ma­­tion dyna­­mique. 1)  Nous remar­­que­­rons sim­­ple­­ment que le nombre de voyages effec­­tués par l’ani­­mal décroît de deux chaque fois que la charge dis­­po­­nible dimi­­nue de 100 kg. Cela peut per­­ mettre de décom­­po­­ser le pro­­blème en «  phases  », selon qu’après 2n + 1 voyages il reste n 3 100 , 1 n 2 1 2 3 100 , c , 100 kg de nour­­ri­­ture dis­­po­­nible. • Partant du point A où 500 kg de nourriture sont disponibles, on va chercher le point B où l’on peut apporter 400 kg : pour cela la bête parcourra (500 – 400)/0,5 = 200 km constitués de 4 allers-retours entre A et B, suivis d’un aller AB ; soit au total 9 fois la distance AB ; ainsi la distance de A à B vaut : 200/9 = 22,22 km.

• Partant de B, on va chercher le point C où on peut apporter 300 kg : pour cela la bête parcourra (400 – 300)/0,5 = 200 km constitués de 3 allers-retours entre B et C, suivis d’un aller BC ; soit au total 7 fois la distance BC ; ainsi la distance de B à C vaut : 200/7 = 28,56 km. • Puis pour constituer un stock de 200 kg en D, la bête fera 2 allers-retours ente C et D, suivis d’un aller CD ; ainsi CD = 200/5 = 40 km. 460

Solu­­tions des exer­­cices du cha­­pitre 4

• Puis pour constituer un stock de 100 kg en E, la bête fera 1 aller-retour ente C et D, suivis d’un aller DE ; ainsi DE = 200/3 = 66,67 km. • Finalement de E, la bête ira en un seul voyage à F, parcourant ainsi EF = 200 km. Arrivée en F, elle aura consommé tout le stock initial de nourriture, soit 500 kg. • La distance totale entre A et F vaut 22,22 + 28,56 + 40 + 66,67 + 200 = 357,45 km. La distance maximale : 357,45 km , est illustrée par la figure ci-dessous: A

22,22 km

B

28,56 km

C

40 km

66,67 km

D

E

200 km

F

500 kg

400 kg

300 kg 200 kg 100 kg

0 kg distance

0

22,22

50,78

90,78

157,45

357,45

2)  Une fois cette question résolue, celle de la deuxième ques­­tion en découle, en effet, la route ABCDEF est opti­­male, qu’elle soit ou non tron­­quée avant son extré­­mité ; comme c’est la route « éco­­no­­mique », elle conti­­nuera d’être emprun­­tée par l’ani­­mal. À une dis­­tance de 90,78 km, il peut appor­­ter au maxi­­mum 200 kg de nour­­ri­­ture, d’où 3 voyages de 100 – 90,78 = 9,21 km et une consom­­ma­­tion de 13,81 kg. À une dis­­tance de 100 km, il apportera donc une réserve de 200 2 13, 81 5 186,19 kg au plus (point T).

© Dunod – Toute reproduction non autorisée est un délit.

kg A 500 400

B C

300

D

200

E

100 22,2

50,78

90,78 100

km

461

Solutions

4.4  Appli­­quons l’algo­­rithme de Ford : Ini­­tia­­le­­ment, lA 5 0 , l B 5 l C 5 l D 5 l E 5 l F 5 1 ` puis exa­­mi­­nons tour à tour les arcs per­­met­­tant de faire décroître les l i : 1 A , D 2 : l A 5 0 , l D 5 6 , l B 5 l C 5 l E 5 l F 5 1` 1 A , B 2 : l A 5 0 , l B 5 3 , l C 5 1` , 1 B, E 2 : l A 5 0 , l B 5 3 , l C 5 1 ` , 1 D, F 2 : l A 5 0 , l B 5 3 , l C 5 1 ` , 1 A , C 2 : lA 5 0 , lB 5 3 , lC 5 8 , lD

( B, D) : l A 5 0 , l B 5 3 , l C 5 8 , ( D, F) : lA 5 0 , l B 5 3 , l C 5 8 , 1 D, C 2 : l A 5 0 , l B 5 3 , l C 5 3 , ( C, E) : l A 5 0 , l B 5 3 , l C 5 3 ,

l D 5 6 , l E 5 l F 5 1`

l D 5 6 , l E 5 9 , l F 5 1` l D 5 6 , l E 5 9 , l F 5 13

5 6 , l E 5 9 , l F 5 13

l D 5 1 , l E 5 9 , l F 5 13 lD 5 1 , lE 5 9 , lF 5 8

lD 5 1 , lE 5 9 , lF 5 8

lD 5 1 , lE 5 4 , lF 5 8 ( D, F) : l A 5 0 , l B 5 3 , l C 5 3 , l D 5 1 , l E 5 4 , l F 5 6 Aucun arc ne per­­met plus de faire décroître les l, (A, B, D, C, E, F) est alors un che­­min mini­­mal de A à F, son coût est l F 5 6 . C’est aussi un chemin hamiltonien. 4.5  1)  Nous allons véri­­fier qu’il existe N, une numé­­ro­­ta­­tion topologique des som­­mets de G : N(x1) = 1, N(x2) = 2, N(x5) = 3, N(x3) = 4, N(x6) = 5, N(x8) = 6, N(x4) = 7, N(x7) = 8, N(x9) = 9, N(x10) = 10, est bien une telle numé­­ro­­ta­­tion (le numéro de l’ori­­gine de tout arc est infé­­rieur au numéro de son extré­­mité). G est donc sans cir­­cuit. (Cf la fin du paragraphe 3. 2 du cours). 2) Ini­­tia­­le­­ment, l ( x 1 ) 5 0 , l ( x 2 ) 5 c5 l( x 10 ) 5 2 `. Exa­­mi­­nons tout à tour les som­­mets sui­­vant l’ordre topologique : x 1 : l ( x 1 ) 5 0, l ( x 2 ) 5 3, l ( x 3 ) 5 5, l ( x 4 ) 5 4, l ( x 5 ) 5 c5 l ( x 10 ) 5 2 ` x 2 : l 1 x 1 2 5 0, l 1 x 2 2 5 3, l 1 x 3 2 5 6, l 1 x 4 2 5 4, l 1 x 5 2 5 11,    l 1 x 6 2 5 c5 l 1 x 10 2 5 2 ` x 5 : l ( x 1 ) 5 0, l ( x 2 ) 5 3, l ( x 3 ) 5 13, l ( x 4 ) 5 4, l ( x 5 ) 5 11, l ( x 6 ) 5 l ( x 7 ) 5 2 `    l ( x 8 ) 5 16, l ( x 9 ) 5 l ( x 10 ) 5 2 ` x 3 : l ( x 1 ) 5 0, l ( x 2 ) 5 3, l ( x 3 ) 5 13, l ( x 4 ) 5 15, l ( x 5 ) 5 11, l ( x 6 ) 5 20,    l ( x 7 ) 5 16, l ( x 8 ) 5 16, l ( x 9 ) 5 l ( x 10 ) 5 2 ` x 6 : l ( x 1 ) 5 0, l ( x 2 ) 5 3, l ( x 3 ) 5 13, l ( x 4 ) 5 15, l ( x 5 ) 5 11, l ( x 6 ) 5 20,    l ( x 7 ) 5 16, l ( x 8 ) 5 22, l ( x 9 ) 5 29, l ( x 10 ) 5 2 ` x 8 : l ( x 1 ) 5 0, l ( x 2 ) 5 3, l ( x 3 ) 5 13, l ( x 4 ) 5 15, l ( x 5 ) 5 11, l ( x 6 ) 5 20,    l ( x 7 ) 5 16, l ( x 8 ) 5 22, l ( x 9 ) 5 29, l ( x 10 ) 5 23 x 4 : l ( x 1 ) 5 0, l ( x 2 ) 5 3, l ( x 3 ) 5 13, l ( x 4 ) 5 15, l ( x 5 ) 5 11, l ( x 6 ) 5 20,   l ( x 7 ) 5 19, l ( x 8 ) 5 22, l ( x 9 ) 5 29, l ( x 10 ) 5 23 x 7 : l ( x 1 ) 5 0, l ( x 2 ) 5 3, l ( x 3 ) 5 13, l ( x 4 ) 5 15, l ( x 5 ) 5 11, l ( x 6 ) 5 20,   l ( x 7 ) 5 19, l ( x 8 ) 5 22, l ( x 9 ) 5 29, l ( x 10 ) 5 23

462

Solu­­tions des exer­­cices du cha­­pitre 4

x 9 : l ( x 1 ) 5 0, l ( x 2 ) 5 3, l ( x 3 ) 5 13, l ( x 4 ) 5 15, l ( x 5 ) 5 11, l ( x 6 ) 5 20,   l ( x 7 ) 5 19, l ( x 8 ) 5 22, l ( x 9 ) 5 29, l ( x 10 ) 5 34 3 x2

8 2

3

x1

13

0

2 15

11

x6

7

x3 x4

x5

20 4

x7

22

x8

2

x10

9

34

x9 19

29

Ci-dessus : l’arborescence des chemins de valeur maximale de x1 vers les autres sommets. NB : Nous avons détaillé à l’extrême les calculs ; en pratique il vaut mieux les présenter en tableau. 4.6  1)  Le pro­­blème du livreur consiste à trou­­ver un plus court che­­min de A à H. Cha­­cune des arêtes du graphe d’ori­­gine est dédou­­blée en deux arcs d’orien­­ta­­tions oppo­­sées qui sont valués par les durées de tra­­jets entre les car­­re­­fours cor­­res­­pon­­dants (sauf pour les arcs issus de A et ceux aboutissant en H). Le graphe obtenu est donc orienté et avec des valuations posi­­tives. 2)  Appli­­quons l’algo­­rithme : Ini­­tia­­le­­ment, l A 5 0 , l B 5 l C 5 l D 5 l E 5 l F 5 l G 5 l H 5 1 ` puis exa­­mi­­nons tour à tour les som­­mets (l X est une valeur pro­­vi­­soire ; l x , défi­­ni­­tive) : l A 5 0 , l B 5 2 , l C 5 1` , l D 5 5 , l E 5 7 , l F 5 l G 5 l H 5 1` l A 5 0 , l B 5 2 , l C 5 11 , l D 5 5 , l E 5 6 , l F 5 l G 5 l H 5 1 `

l A 5 0 , l B 5 2 , l C 5 11 , l D 5 5 , l E 5 6 , l F 5 9 , l G 5 l H 5 1 `

l A 5 0 , l B 5 2 , l C 5 10 , l D 5 5 , l E 5 6 , l F 5 9 , l G 5 10, l H 5 1 ` l A 5 0 , l B 5 2 , l C 5 10 , l D 5 5 , l E 5 6 , l F 5 9 , l G 5 10, l H 5 14

© Dunod – Toute reproduction non autorisée est un délit.

l A 5 0 , l B 5 2 , l C 5 10 , l D 5 5 , l E 5 6 , l F 5 9 , l G 5 10, l H 5 14

l A 5 0 , l B 5 2 , l C 5 10 , l D 5 5 , l E 5 6 , l F 5 9 , l G 5 10, l H 5 14 l A 5 0 , l B 5 2 , l C 5 10 , l D 5 5 , l E 5 6 , l F 5 9 , l G 5 10, l H 5 14 Ainsi en pre­­nant le tra­­jet A, B, E, F, H la livrai­­son sera faite en 14 mn.

463

Solutions

k=0

k=1

k=3

k=2

k = 4 et 5

k=6

8

B = 2 9 9

4

4

2 4

3

8

7

6

5

G

4

10 =  G 8

3

3 4

D

6

4

E

3

6

8

7

4

F

4

5

8

8

A

C

H 8

A = 0

10 =  C 11

8

B

14 = H

9 = F

5 = D

4.7 Voici le résultat final : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16

464

1

2

3

4

5

6

0

5 0

9

4

8 3

7 10 12 10 16 13 17 20 15 15 18 2 5 7 5 11 8 12 15 10 10 13

0

4 0 0

7

8

1 4 19 7 4 0 3 18 0 0 3 9

9 10 11 12 13 14 15 16

16 10 7 19 15 9 14 16 2 9 9 12 10 15 9 6 18 14 8 7 9 5 8 10 13 0 6 0 9 5 1 2 0 0 4 0 3 0 4

9 12 12 15 14 8 11 5 8 14 17 5 6 9 7 4 0 3 0

Solu­­tions des exer­­cices du cha­­pitre 4

La première ligne de ce tableau, associée à x1, donne pour tout descendant xj de x1 ( j = 2, 3, ..., 16) la valeur minimale (coût) des chemins de x1 à xj. En particulier le chemin optimal de x1 à x16 a pour coût λ16 = 18 , c’est le chemin : (x1, x4, x7, x15, x16). 4.8  Pour tra­­cer le graphe PERT, défi­­nis­­sons d’abord les évé­­ne­­ments du pro­­gramme.

Mais nous ne pou­­vons admettre des arcs dif­­fé­­rents de même ori­­gine et de même extré­­mi­­té, d’où l’intro­­duc­­tion des opé­­ra­­tions fic­­tives. La tâche fic­­tive (5,6) ci-dessous n’est pas indis­­pen­­ sable ; elle a été intro­­duite pour une meilleure lisi­­bilité.

© Dunod – Toute reproduction non autorisée est un délit.

Les opé­­ra­­tions cri­­tiques sont : a, b, d, g, h, ℓ. La durée totale est de 142 semaines. Les inter­­valles de flot­­te­­ment et marges sont por­­tés sur la figure, ainsi que les dates deman­­dées. Le tableau uti­­lisé dans la méthode des poten­­tiels se pré­­sente de la façon sui­­vante :

0

a

32

0

D:0

0

48

g

80

h

44

e :3

80 h : 20 44

e :3

142 Fin 80 h : 20 80 h : 20 100 i : 8

44 d : 4 44

f :6

80 j : 13 44

f :6

80 j : 13 80 j : 13 100 k : 38

48 g : 32

100  : 42

44 c : 3

b

44

c

44

d

44

e

44

f

a : 32 32 b : 12 32 b : 12 32 b : 12 32 b : 12

48 g : 32

100

i

80

j

100

k

100



On retrouve bien le chemin critique : (D, a, b, d, g, h, f, Fin) de durée 142 semaines. Le dia­­gramme de GANTT ci-­­­dessous per­­met­­trait de réa­­li­­ser l’éta­­le­­ment du per­­son­­nel :

465

Solutions

4.9  On remarque que la tâche B inter­­vient plu­­sieurs fois en préa­­lable à d’autres tâches (ici 3 fois ; avec D, E et F ), mais chaque fois en com­­pa­­gnie de tâches dif­­fé­­rentes : ainsi

B, avec A, pré­­cède D ; B seule pré­­cède E ; B, avec C, pré­­cède F.

Pour évi­­ter toute erreur, il faut alors ne pas fusion­­ner l’évé­­ne­­ment « fin de B » avec l’évé­­ne­­ ment « fin de A » et l’évé­­ne­­ment « fin C » ; si on le fai­­sait, alors on intro­­dui­­rait une contrainte étran­­gère au pro­­blème ; « E est pré­­cé­­dée par B, mais aussi par A et C » ce qui est faux. Puis de la fin de B, on a fait par­­tir des tâches fic­­tives φ : une vers la fin de A, l’autre vers la fin de C. De même pour E qui, avec D et F, pré­­cède G et I, mais qui, avec la pre­­mière moi­­tié de C, pré­­cède H ; on a donc laissé « libre » la fin de E (i.e. on n’a fusionné cet évé­­ne­­ment ni avec la fin de D et F ni avec la fin de la pre­­mière moi­­tié de C). Puis de la fin de E, on a fait par­­tir deux tâches fic­­tives : une vers la fin de D et de F. Remar­­quons que, au contraire, puisque D et F inter­­viennent tou­­jours ensemble en préa­­ lable à d’autres tâches (ici G et I), on n’intro­­duit pas d’erreur en fusion­­nant les deux évé­­ne­­ ments « fin de D » et « fin de F ». D’autre part la tâche C a dû être décou­­pée en 2 tâches C1 et C2, cha­­cune de durée 10 : C1 désigne la pre­­mière moi­­tié de C et C2, la seconde. Enfin deux tâches dif­­fé­­rentes (comme ici G et I) ne peuvent pas être repré­­sen­­tées par deux arcs ayant le même som­­met ini­­tial et le même som­­met ter­­mi­­nal (si on le fai­­sait, elles devien­­ draient confon­­dues, indis­­tin­­guables). Il convient alors de lais­­ser libre soit le début de G soit la fin de G, ou encore le début de I ou la fin de I. On a choisi ici arbi­­trai­­re­­ment, la fin de G. Chaque som­­met du graphe PERT a été repré­­senté par un disque com­­por­­tant trois champs (par­­ties) : en haut, on trouve le numéro de l’évé­­ne­­ment, en bas à gauche sa date au plus tôt et en bas à droite sa date au plus tard (qui, sur le che­­min cri­­tique, égale la date au plus tôt). Enfin de même qu’il y a un som­­met « début du pro­­jet », il faut créer un som­­met unique « fin du pro­­ jet », qui est pré­­cédé par les tâches ter­­mi­­nales : celles qui ne sont préa­­lables à aucune autre. 2 5 24

φ 1 0 0

3

8 21 40

A 16

φ

5 3 14 23

B 14

φ

φ

0

7 32 46

E 18 0

4

3 3

C1 10

5 13 13

10 63 63

15

0

10

I

0

φ C2 10

6 23 23

φ

0

φ 12 63 63

F 25

0

466

G

� 48 48

D 8

φ

H 11 32 46

17

Solu­­tions des exer­­cices du cha­­pitre 4

Le che­­min cri­­tique est (1, 4, 5, 6, 9, 10, 12) ; les tâches C1 et C2 (c’est-­­­à-dire C), F et G sont cri­­tiques. Le pro­­jet dure au mini­­mum 63 jours. 4.10  Voici le graphe PERT, avec le che­­min cri­­tique ;

puis, moyen­­nant la liste des tâches anté­­rieures : a , d ; b, d , e, f, g ; f, j , m ; c, e , h, i ; g, h , j, k ; i, k , ,, le tableau des poten­­tiels (avant modi­­fi­­ca­­tions) :

0

a

0

b

0

c

2

d

9

e

9

f

9

g

0

D:0

0

D:0

0

D:0

0

a :2

0

b:5

0

b:5

0

b:5

2

d :7

2

d:7

2

d:7

m

28

F

12

h

12

i

20

j

20

k

22



26

0

c:3 e :3

0

c:3

9

g:4

9

g:4

12

i :7

9

e :3

12

h : 8 12 h : 8 20 k : 2

9 20

9

f : 5 22  : 5 j : 6 26 m : 2

© Dunod – Toute reproduction non autorisée est un délit.

Les modi­­fi­­ca­­tions sont immé­­diates dans le tableau des poten­­tiels :

0

a

3

b

1

c

2

d

9

e

9

f

9

g

0

D:0

0

D:0

0

D:1

0

a :2

3

b:5

3

b:5

3

b:5

1

c:2

2

d :7

2

d :7

2

d :7

23



25

m

28

F

11

h

12

i

19

j

21

k

9

e:2

1

c:3

9

g:4

9

g:4

1

c:3

9

e:3

11

h : 8 11 19

21 k : 2 19

j:6

25 m : 2

i :7

f :7

23  : 5

h : 8 12

9

j:2

467

Solutions

Elles sont aussi évi­­dentes dans le graphe rela­­tif à cette méthode (en pra­­tique, on n’a pas besoin de tracer de graphe et on uti­­lise le tableau).

On voit qu’avec la méthode de MPM il suf­­fit de modi­­fier trois chiffres et d’ajou­­ter deux arcs. … La modi­­fi­­ca­­tion du graphe événements-­­­opérations PERT n’est pas aussi aisée : elle néces­­ site l’adjonc­­tion de six nou­­veaux évé­­ne­­ments et porte le nombre d’arcs à vingt (au lieu de treize) ; plu­­sieurs des anciens arcs ont dû être effa­­cés :

En conclu­­sion la méthode des poten­­tiels est supé­­rieure à la méthode PERT : le cal­­cul de l’ordon­­nan­­ce­­ment y est plus aisé, de même que la prise en compte de modi­­fi­­ca­­tions (qui, en pra­­tique, sur­­viennent toujours lors de l’exé­­cu­­tion de tout pro­­jet !).

468

Solu­­tions des exer­­cices du cha­­pitre 4

4.11  Traçons le réseau de transport, puis éta­­ blis­­sons d’abord un flot com­­plet, c’est-­­­à-dire pour lequel tout che­­min allant de la source O au puits S, com­­porte au moins un arc saturé : Pro­­cé­­dons ensuite au mar­­quage qui, dans le cas de figure ci-­­­dessus, abou­­tit à mar­­quer le puits S du réseau. On sait que, dans ces condi­­ tions, on n’a pas obtenu le flot maximal. On voit que la chaîne OCHAEBFS ci-dessous, extraite du graphe, se prête à des modi­­fi­­ca­­tions. En res­­pec­­tant la loi de Kirchhoff, on pourra aug­­men­­ter le flot total de 5 uni­­tés (le tran­­sport de cer­­tains arcs est aug­­menté de 5, celui des arcs diri­­gés dans le sens inverse du par­­cours OS de la chaîne est dimi­­nué de 5).

Chaîne améliorante

La figure en bas de cette page tient compte des modi­­fi­­ca­­tions effec­­tuées sur la chaîne ; la pro­­ cé­­dure de mar­­quage n’abou­­tit plus à S. On a donc une solu­­tion opti­­male (une autre solu­­tion opti­­male évi­­dente sature toutes les des­­ti­­nations sauf E), de valeur 90. On remar­­quera que la coupe (Γ), dont font par­­tie tous les sommets non mar­­qués, reçoit bien un flot opti­­mal : tous les arcs allant de sommets mar­­qués vers des sommets non mar­­qués sont satu­­rés ; le seul arc allant d’un sommet non mar­­qué à un sommet mar­­qué tran­­sporte un flot nul : c’est (B, H ). © Dunod – Toute reproduction non autorisée est un délit.

10

+A

D

-G

A

30 15 20 B O 5 40 0 5 20 5

+O

C

Γ

0 5

5 10

10

D

10 E

F G

+C

25 15

S

25

E

C

F

H 15

Sommet non marqués

A

O

FLOT H OPTIMAL +A

Sommet marqués

0

+

S

B

G COUPE MINIMALE ( Γ)

NB : ci-dessus, les arcs en traits épais sont des arcs saturés. 469

Solutions

4.12  Voici le tracé du graphe :  x3

x1 [3]

[5] 2



[1]

[2]

x3

2 [3]

3

x5

1

 x2

[12] 9

 x5

x4

2

3

[5]

x2

Flot initial

(de valeur 9)

 x1 [4], 4

1)  Ce graphe est bien un « réseau de tran­­sport » : il est fini, sans boucle, com­­porte un sommet-­­­source (x3) et un sommet-­­­puits (x4) et tout arc est valué par un entier posi­­tif (nommé : « capa­­cité »). 2)  Les flux pro­­po­­sés forment bien un flot : tout flux sur un arc est supé­­rieur ou égal à zéro et inférieur ou égal à sa capacité : en tout som­­met autre que la source et le puits, on véri­­fie la loi de Kirchhoff : la somme des flux entrant sur le som­­met égale celle des flux sor­­tant ; ainsi en x1 il entre 2 + 2 = 4 et repart 1 + 3 = 4, etc. Le flot pro­­posé est com­­plet: tout che­­min de la source au puits com­­porte au moins un arc saturé (il n’est donc pas trivialement amé­­lio­­rable). Appli­­quons la pro­­cé­­dure de mar­­quage de Ford-­­­Fulkerson : on l’ini­­tia­­lise en mar­­quant la source x3 du signe + ; puis x1 est mar­­qué +x3, car l’arc (x3, x1) n’est pas saturé ; puis x2 est mar­­ qué –x1 car l’arc (x2, x1) est de flux non nul ; puis x5 est mar­­qué +x2 car l’arc (x2, x5) n’est pas saturé ; enfin x4 est mar­­qué +x5. Puisque le puits est mar­­qué, le flot pro­­posé n’est pas opti­­mal. Voici la chaîne amé­­lio­­rante μ (qu’on trouve en remon­­tant le mar­­quage, depuis le puits). +x3

x1

2 +

x3

+x2

x5

[5] 2

+x5

x4

2 [5]

x2

470

9 [12]

x1

chaîne améliorante µ

Solu­­tions des exer­­cices du cha­­pitre 4

Les arcs « directs » de μ sont ceux qu’on ren­­contre dans le sens de leur orien­­ta­­tion lors­­ qu’on par­­court la chaîne de la source jus­­qu’au puits ; ce sont : (x3, x1), (x2, x5), (x5, x4) (ces arcs ont donné lieu à un mar­­quage +). Ici il y a un seul arc « indi­­rect » : (x2, x1) (qui a donné lieu à un mar­­quage 2). Les capa­­ci­­tés rési­­duelles des arcs directs sont : 522, 522, 1229 : la plus petite capa­­cité rési­­duelle est donc δ+ = 3 ; le flux de l’arc indi­­rect (x2, x1) est : 2, donc δ2 = 2. Le flot peut être amé­­lioré de δ = min (δ+, δ2): sur tout arc direct, le flux est aug­­menté de δ, soit ici de 2 uni­­tés ; sur tout arc indi­­rect, le flux est dimi­­nué de δ (22 uni­­tés sur (x2, x1)). Le flot amé­­lioré, de valeur 9 + δ = 11 , est le sui­­vant : + x3 [5]

+

[3]

4

3

+ x2 [2]

x3

[1]

0 [3]

coupe minimale

x1

x5

1

[12] 11

x4

4

3

[5]

x2 [4] 4

Appli­­quons lui la pro­­cé­­dure de mar­­quage : on marque la source x3 puis x1 : aucun autre som­­met ne peut être mar­­qué (x2 ne peut pas être mar­­qué –x1, car le flux sur l’arc (x2, x1) est désor­­mais nul). Le puits n’étant pas mar­­qué ce flot est opti­­mal ; il a pour valeur v * 5 11. La coupe mini­­male est consti­­tuée des arcs dont l’extré­­mité ini­­tiale est mar­­quée : x1 ou x3, et l’extré­­mité ter­­mi­­nale est non mar­­quée ; elle consti­­tue le gou­­let d’étran­­gle­­ment du réseau de tran­­sport ; voici la rai­­son intui­­tive de l’optimalité du flot final : tous les arcs qui tra­­versent la coupe dans le sens direct (de la source vers le puits) sont satu­­rés ; ceux dans le sens indi­­rect sont de flux nul (ici, un seul (x2, x1)).

© Dunod – Toute reproduction non autorisée est un délit.

* 4.13  Sous­­trayons des élé­­ments de chaque ligne le plus petit élé­­ment de celle-­­­ci : on obtient le tableau 1 ; puis opé­­rons de même pour les colonnes b et e ne conte­­nant pas encore de zéro; il vient le tableau 2.

a

b

c

d

e

f

0

80

17

4

29

42

B 16

11

66

77

10

C 15

41

60

0

D 52

8

0

E

0

26

F

0

19

A

a

b

c

d

e

A

0

72

17

4

19

f 42

0

B

16

3

66

77

0

0

71

68

C

15

33

60

0

61

68

12

10

57

D

52

0

0

12

0

57

63

29

58

55

E

0

18

63

29

48

55

56

11

58 55 ↑10

F

0

11

56

11

48

55

↑8 Tableau 1

Tableau 2

471

Solutions

Essayons alors d’affec­­ter le maxi­­mum de zéros. On obtient le tableau 2. Avant de conti­­nuer à appli­­quer l’algo­­ rithme hon­­grois, il faut véri­­fier que l’on a bien obtenu un cou­­plage maximal. À cet effet, on peut éta­­blir un réseau de tran­­sport, dont la capa­­cité de tout arc est 1. On constate que la pro­­cé­­dure de mar­­quage échoue ; on a donc un flot maximal et, par­­tant, un cou­­ plage maximal. Dans ces condi­­tions, on applique à la matrice pré­­cé­­dente l’algo­­rithme hon­­grois. On marque les lignes Ε et F, ce qui conduit à mar­­quer ensuite la colonne a, puis la ligne A.

a

b

c

d

e

A

0

72

17

4

19

f 42 �

B

16

3

66

77

0

0

C

15

33

60

0

61

68

D

52

0

0

12

0

57

E

0

18

63

29

48

F

0

11 56

11

48

55 � 55 �

Graphe associé au tableau 2 sur les arcs gras le flux vaut 1 (0 sur les maigres)

� Tableau 2 bis

On raye alors les lignes non marquées B, C, D et la colonne marquée a (tab. 2 bis). Le plus petit élé­­ment du tableau res­­tant est 4 ; on l’enlève à tous les élé­­ments de ce tableau res­­ tant et on l’ajoute aux élé­­ments rayés deux fois (Tab. 3). On fait ainsi appa­­raître un nou­­veau zéro (ligne A, colonne d ) mais l’affec­­ta­­tion reste la même ; il est facile de véri­­fier que le cou­­ plage est encore maximal ; le som­­met d de la deuxième colonne du réseau de tran­­sport peut être mar­­qué +A, le som­­met c de la pre­­mière colonne, –D, mais le mar­­quage s’arrête là :

�0 E

a

b

c

d

e

A

0

68

13

0

15

B

20

3

66

77

0

C

19

33

60

0

61

D

56

0

0

12

0

f 38  0 68 � 0 57

E

0

14

59

25

44

51 

F �a A �d C

7

52

7

44

51 

B

F

0 

 Tableau 3

D

�E (ou � F) a d �A f e b c

Graphe associé au tableau 3

472

S

Solu­­tions des exer­­cices du cha­­pitre 4

L’algo­­rithme hon­­grois per­­met de mar­­quer les lignes Ε et F, puis la colonne a, ensuite la ligne A, puis la colonne d et enfin, la ligne C (cf. Tab. 3). Après avoir rayé les lignes non marquées Β et D, ainsi que les colonnes marquées a et d, le plus petit élé­­ment du tableau res­­ tant est 7 ; on le sous­­trait des élé­­ments non rayés et on l’ajoute aux élé­­ments rayés 2 fois (Tab. 4). L’affec­­ta­­tion, telle qu’elle est réa­­li­­sée sur le tableau 4 consti­­tue un cou­­plage maximal, comme on le vérifie sur le graphe associé ou tableau 4 :

a

b

c

d

e

A

0

61

6

0

8

B

27

3

66

94

0

f 31  0

C

19

26

53

0

54

61 

D

63

0

0

19

0

57

E

0

7

52

25

37

44 

F

0

0

45

7

37

44 



�0 E

�E a d �A

F �a A �d C

� 0

f e

B



Tableau 4

S

b

D

c

Le couplage ne portant que sur cinq lettres, on applique donc, une nou­­velle fois, Graphe associé au tableau 4 l’algo­­rithme hon­­grois. L’élé­­ment non rayé plus petit est main­­te­­nant 6. On obtient sans dif­­fi­­culté le tableau 5 ci-dessous : Ce tableau per­­met d’obte­­nir une affec­­ta­­tion d’un zéro par ligne et par colonne. Elle donne donc la solu­­tion opti­­male qui, ici, est unique. L’affectation optimale est : A S c ; B S f ; C S d ; D S e ; E S a ; F S b En reve­­nant à la matrice de l’énoncé, on voit qu’elle a pour valeur : V * 5 27 1 13 1 02 1 16 1 15 1 44 5 117.

© Dunod – Toute reproduction non autorisée est un délit.

Remarque 1. En affec­­tant par ordre crois­­sant des coûts (« méthode gourmande »), on obtien­­drait une solution de coût : V = 172. En employant une méthode de regret une solution de coût : V = 154 ; On constate la supé­­riorité de l’algo­­rithme hon­­grois, le coût de la solution optimal n’étant que : V * 5 117.

Remarque 2.

a

b

c

d

e

A

0

55

0

0

2

f 25

B

33

3

66 100

0

0

C

19

20

47

0

48

55

D

69

0

0

19

0

57

E

0

1

46

25

31

38

F

6

0

45

13

37

44

Mon­­trons sur un exemple 4 × 4 la néces­­sité Tableau 5 de véri­­fier, avant appli­­ca­­tion de l’algo­­rithme hon­­grois, que l’on a un cou­­plage maximal. La matrice ci-dessous contient deux zéros par ligne, sauf sur la ligne C où elle en pos­­ sède 3, et au moins un zéro par colonne. 473

Solutions

a

A B C D

b

d

c

On peut donc affec­­ter le zéro (A, a) mar­­qué ①, ce qui entraîne la sup­­pres­­sion de quatre zéros. Il reste alors un  seul zéro dans les lignes Β et D. 0  0  0  On peut alors affec­­ter le zéro (B, c) mar­­qué ②, ce qui entraîne 0 0 0   la sup­­pres­­sion d’un autre zéro. Il ne reste plus alors qu’un 0 zéro sur cha­­cune des lignes C et D. On peut donc affec­­ter le 0 0  zéro (C, d) mar­­qué ③, ce qui entraîne la sup­­pres­­sion du der­­ nier zéro figu­­rant encore dans la matrice.     Si l’on appli­­que alors le mar­­quage hon­­grois, on voit que l’on peut mar­­quer toutes les lignes et toutes les colonnes... alors que le pro­­blème n’est pas résolu. C’est que l’on a affaire à un cou­­plage non maximal, ainsi que le prouve le fait que, sur le réseau de trans­port associé à ce tableau, on peut mar­­quer S :

O

A -a

a +D

B

b

C

+A

couplage amélioré : +b S

c

+O

D

d

L’amé­­lio­­ra­­tion du cou­­plage, par la chaîne ODaAbS donne l’une des trois solu­­tions opti­­ males équi­­va­­lentes  : A S b ; B S c ; C S d ; D S a . Les 2 autres solutions optimales sont  : 3 A b ; Ba ; Cc ; Dd 4 et 3 Ab ; Bc ; Ca ; Dd 4 .

4.14  1)  Il s’agit d’un pro­­blème de tran­­sport clas­­sique. On prend comme unité la cen­­taine de tonnes. On rap­­pelle que, si ; x 11 , x 12, c, x 16 , x 21 , x 22 , c, x 26 , c, x 41, x 42 , c, x 46

sont les quan­­ti­­tés à tran­­spor­­ter des ori­­gines 1, 2, c, 4 aux des­­ti­­nations 1, 2, 3, c, 6 on a : x 11 1 x 12 1 c 1 x 16 5 5 x 21 1 x 22 1 c 1 x 26 5 6 cccccccccc 4 équa­­tions en ligne : x 41 1 x 42 1 c 1 x 46 5 9

6 équa­­tions en colonne :

et l’on doit minimi­­ser :

x 11 1 x 21 1 x 31 1 x 41 5 4

x 12 1 x 22 1 x 32 1 x 42 5 3 cccccccccc x 16 1 x 26 1 x 36 1 x 46 5 2

F 5 9x 11 1 12x 12 1 9x 13 1 c1 7x 21 1 c1 6x 31 1 c1 6x 41 1 c1 10x 46. La théo­­rie des équa­­tions linéaires nous apprend que le sys­­tème de solu­­tions com­­por­­tera au moins 24 2 ( 4 1 6 2 1 ) 5 15 valeurs nulles. 474

Solu­­tions des exer­­cices du cha­­pitre 4

Si nous employons la méthode de Balas-­­­Hammer, nous tom­­bons sur la solu­­tion de base indi­­quée par le tableau 1.

1

2

3

4

5

6

∆l

9

12

9

6

9

10

3

3

0

7

3

7

7

5

5

2

2

2

6

5

9

11

11

2

2

6

8

11

2

3 2

0

0

∆c 0

2

2

4

1

10 5I

2 4 III

0

2

2

4

0 0

2

2 2

-

1 2 3 4

i\j

-

1

-

1

2

1

4

3

6

5

3IV

3 1VI 4 3V bj 4

0

0

0

1

3

3

2

5

V

VI

-

2I

1VII

6 2

1IX 3

ai 5

5VIII

2

0

-

1

II

0 4 IV

2II 2

7

9

4III 4

2

Coût total : 116 Tableau 1

Le détail du cal­­cul des δij est traité dans l’exer­­cice sui­­vant 4.16 On obtient ici : δ11 = 3 ; δ12 = 7 ; δ14 = 4 ; δ15 = 7 ; δ16 = 3 ; δ21 = 3 ; δ24 = 7 ; δ25 = 5 ; δ32 = 0 ; δ34 = 9 ; δ35 = 1 ; δ36 = 4 ; δ42 = 3 ; δ43 = 2 ; δ46 = 3. La solu­­tion obte­­nue est opti­­male car tous les δij sont positifs ou nuls, mais elle n’est pas unique, car δ32 = 0 per­­met d’en obte­­nir une seconde solution de base (tableau 2) de même coût : 116.

© Dunod – Toute reproduction non autorisée est un délit.

1

2

3

4

5

6

5

I 2

II III

1

IV

3 4

2

2

2

1 3

5 6

7

2

4

2

4

9 2

Tableau 2

4.15  On véri­­fie que ; offre = demande = 3 549 1)  a)  La règle du coin nord-­­­ouest donne la solu­­tion de base ci-dessous ; il s’agit bien d’une solu­­tion de base, puisqu’elle com­­porte exac­­te­­ment : 475

Solutions

mn – (n + m – 1) = 5 × 4 – (5 + 4 – 1) = 12 xij nuls (cases non affec­­tées). Cette solu­­tion sera dési­­gnée par la déno­­mi­­na­­tion : tableau 1. Le cal­­cul des coûts mar­­gi­­naux des subs­­ti­­tutions uni­­taires pos­­sibles à par­­tir de cette solu­­tion de base, four­­nit (voir l’arbre 1) les résul­­tats sui­­vants (nous nous bor­­ nons à indi­­quer les δij néga­­tifs) :

1

1

2

800

96

2

343

liaison liaison liaison liaison liaison

5 896

50

389

782

3

401 542 943

4

928 928 800 439

50

Nombre d’uni­­tés déplaçables (ν) (2, 1) 343 (3, 1) 343 (3, 2) 343 (3, 3) 50 (4, 1) 343

On peut sup­­po­­ser qu’il est indi­­qué d’effec­­tuer d’abord la subs­­ti­­tution dont l’influence sur le coût total est la plus forte : (3, 1) – cf tableau 2 – et l’on peut consta­­ter immé­­dia­­te­­ment que la subs­­ti­­tution (3, 3) peut être exé­­ cu­­tée aus­­si­­tôt après – cf tableau 3. Le tableau 3 (arbre 2) pré­­sente deux subs­­ti­­tutions utiles : δ14 = 0 + 49 – 90 = – 41 et δ15 = 0 + 13 – 103 = –90

790 1 470

Coût total : 181 721 Tableau 1

Rappel : δij = Cij – (vj – ui) δ21 = 51 + 27 – 113 = –35 δ31 =   0 + 11 – 113 = –102 δ32 =   0 + 47 – 103 = –56 δ33 =   0 + 14 –   94 = –80 δ41 = 39 + 52 – 113 = –22

Pour le calcul des potentiels des sommets de l’arbre associé à la solution de base (Tab. 1), on a a = 0, puis calculé les autres posé 3 potentiels de proche en proche  : vj – ui = cij pour tout arc de l’arbre.

Arbre 1

4

3

Influence sur le coût total (ρ) – 12 005 – 34 986 – 19 208 – 4 000 – 7 546

1

2

3

4

5

1 457 439 2

50 732 58 542

3 343

928

4 Tableau 2

ν     ρ (1, 4) 8    –328 (1, 5) 457 – 41 130

4

1 2 3 1 457 439 2 3 343

782 50 8 542

4 Arbre 2

476

5

928 Tableau 3

Solu­­tions des exer­­cices du cha­­pitre 4

On tombe sur le tableau 4 après avoir effec­­tué la seconde de ces subs­­ti­­tutions. Il ne com­­porte (arbre 3) qu’une subs­­ti­­tution inté­­res­­sante: δ12 = 0 + 47 – 91 = – 44, avec ν = 85 et ρ = –3 740

1 1

4

2 3 439

2

5 457

782

3 800

50 8

4

85 928

Tableau 4 Arbre 3

Après avoir effec­­tué cette subs­­ti­­tution, on obtient le tableau 5, dans lequel appa­­raît (arbre 4) une seule rela­­tion de coût mar­­gi­­nal néga­­tif : δ44 = 0 + 77 – 85 = –11, avec ν = 8 et ρ = – 88

1 1

4

2 3 354

2

5 542

1

782

3 800 85 50 8 4

1

+46

2

+46

2 3 346 +106 +45

+17

3 800 93 50 928

4

Tableau 5

+36

+42

+57

4 +16

5 550

782

+33

+11

+44

8 920

Tableau 6 (coût : 97 777)

Arbre 4

© Dunod – Toute reproduction non autorisée est un délit.

On obtient fina­­le­­ment le tableau 6, pour lequel on vérifie que les coûts mar­­gi­­naux δij donnés en petits chiffres sont tous stric­­te­­ment posi­­tifs ; il s’agit donc de l’unique solu­­tion opti­­male. b)  La règle de la dif­­fé­­rence maximale donne évi­­dem­­ment une solu­­tion de base ini­­tiale bien meilleure que la règle du coin nord-­­­ouest.

1

2

3

4

5

1

21

11

84

49

13

896

2

8

2

27

52

43

29

42

782

2

2

36 13

3

11

47

14

80

93

943

3

3

69 III 13

4

52

94

76

74

54

928

2

2

�max

800

439

50

790

1470

10

36

29

20

29

I

II

45 6

V

2

IV

VII et VIII

20

II

12 39

VI

477

Solutions

On obtient ainsi le tableau 7, dont le coût total est seule­­ment 101 605, c’est-­­­à-dire à moins de 4 % de l’opti­­mum : On calcule δ32 = c32 – c12 + c15 – c35 = –44 1 2 3 4 5 La substitution porte sur v = 85 unités :

439 � I

1 2 3 4

800 V

457 � II

1

1

3

2

4

354�

5

542�

2 782 III 3 800 85� 50 8� � 50 85 � 8 928 IV VII VIII 4 � � 928 Pour cette solution δ44 = –11. Le cycle de est donné ci-dessus. Cette substi­ VI substitution tution, avec v = 8, fournit le tab. 6 : l’optimum.

Tableau 7 En conclusion : la méthode de la différence maximale (Bales-Hammer) est bien supérieure à la méthode du coin Nord-Ouest (et aux méthodes «gourmandes» décrites en 4.9). Lorsqu’elle ne fournit pas l’optimum, elle donne une solution qui en est proche.

*4.16  1)  Pour appli­­quer l’algo­­rithme de Prim, choi­­sis­­ sons arbi­­trai­­re­­ment le som­­met A comme som­­met ini­­tial. L’arête [A, B] est celle de poids le moins élevé issue de A, elle est donc rete­­nue dans la solu­­tion. L’arête [H, B] est rete­­nue dans la solu­­tion car elle est de poids mini­­mal parmi celles ayant une et une seule extré­­mité dans {A, B}. Ensuite [F, B] est sélec­­tion­­née, puis [F, E], [I, E], [I, D], [E, G] et fina­­le­­ment [C, G]. La figure ci-­­­contre repré­­sente l’arbre opti­­mal de poids 22 obtenu. Il n’est pas unique. 2) Pas­­sons à l’algo­­rithme de Kruskal. À cet effet, éta­­blis­­sons la liste des arêtes par ordre de valeurs crois­­santes : (pour sim­­pli­­fier : [X,Y] est noté XY) BH CG DI DE AE

: : : : :

1 3 5 6 8

: : : : :

EI EG EF FI EH

: : : : :

1 3 5 7 9

: : : : :

BF AH CD BG CF

: : : : :

2 4 5 7 9

: : : : :

AB FH DG CI FG

: : : : :

2 4 6 8 10

On prend suc­­ces­­si­­ve­­ment, dans l’ordre ci-­­­dessus, les arêtes qui ne forment pas de cycle avec les pré­­cé­­dentes : BH, EI, BF, AB, CG, EG, puis on éli­­mine AH et FH, qui forment des cycles avec les pré­­cé­­dentes ; enfin, on retient DI et EF. On retrouve la même solu­­tion que ci-­­dessus, mais on peut aussi rem­­pla­­cer DI par CD, de même valeur : il existe plusieurs arbres optimaux. *4.17  Appli­­quons l’algo­­rithme de Prim. Choi­­sis­­sons le som­­met A comme som­­met ini­­tial. L’arête [A, E] est celle de poids le plus élevé issue de A, elle est donc rete­­nue dans la solu­­tion. L’arête [H, E] est rete­­nue dans la solu­­tion car elle est de poids maximal parmi celles ayant une et une seule extré­­mité dans {A, E}. Ensuite [E, D] est sélec­­tion­­née, puis [G, D], [G, F], [F, C], [C, I] et fina­­le­­ment [B, G]. Nous obte­­nons ainsi un arbre opti­­mal, de poids 63. 478

Solu­­tions des exer­­cices du cha­­pitre 4

4.18 Il s’agit du problème du voyageur de commerce (en anglais : travelling salesman problem, « TSP ») qu’on résout par l’algorithme de LITTLE et al. (historiquement une des premières méthodes de recherche arborescente, nommée « Branch and Bound »). Plus bas on écrit : « C.H. » pour circuit hamiltonien.

• Initialisation Partant du tableau initial des coûts, on commence par faire apparaître un « zéro » (coût réduit nul) dans chaque ligne en retranchant à chaque ligne son plus petit élément ; puis un « zéro » dans chaque colonne en retranchant, à chaque colonne du tableau obtenu, son plus petit élément. On dit alors que le tableau des coûts est « réduit ». Ainsi on retranche 1 à tous les éléments de la ligne D, puis 1 à tous ceux de la colonne B. Le coût de tout C.H. est au moins égal à la somme des éléments retranchés, soit 2 : la borne b0 associée à la racine s0 de l’arborescence est b0 = 2. On obtient le tableau « réduit » suivant :

© Dunod – Toute reproduction non autorisée est un délit.

Tableau initial après réduction

Tab. 0

Arb. 1

• 1ère itération Puis on calcule le regret de chaque « zéro » (cf Tab. 0) et l’on considère l’arc de coût réduit nul dont le regret est maximal, c’est ici (B,A) ; son regret vaut : c 0BD 1 c 0EA 5 3 1 0 5 3 On va alors séparer l’ensemble s0 de tous les C.H. en deux sous-ensembles s1 et s2. Ceux qui n’empruntent pas l’arc (B,A) forment le sous-ensemble s1 ; la borne inférieure de leur coût b1 , est égale à la borne inférieure précédente b0 = 2, augmentée du regret de (B,A) : 3, soit b1 = 5. Les C.H. qui empruntent l’arc (B,A) forment le sousensemble s2. Les implications du choix de (B,A) sont de supprimer la ligne B et la colonne A et d’interdire l’arc parasite (A,B) (on pose donc c 2AB 5 `, cf Tab. 2) et de faire apparaître (au moins) un zéro par ligne et par colonne si le tableau restant n’est pas réduit ; mais, ici, on constate qu’il est réduit). Par suite b2 = b0 = 2 : l’arborescence Arb. 1 illustre cette séparation. • 2ème itération On va séparer s2 car il a la plus faible borne parmi les sommets pendants ; son tableau de coûts réduits

Tab. 2

479

Solutions

est donné ci-dessous (Tab. 2) ; on y a indiqué aussi le regret de chaque « zéro », le regret maximal est 2, relatif à l’arc (A,C). On sépare donc s2 en deux sous-ensembles s3 et s4. s3 est l’ensemble des C.H. passant par (B,A) mais évitant (A, C), de borne b3 = b2 + rA2 C p 4A C = 2 + 2 = 4 ; s4 est l’ensemble des C.H. passant par (B,A) et (A,C). On supprime alors dans le tableau de s2 (Tab. 2) la ligne A, la colonne C et on interdit l’arc parasite (C,B) qui formerait avec les deux arcs déjà retenus, un circuit de longueur 3 : pas un C.H. (on pose donc c 4CB : 5 `) ce qui donne le nouveau tableau (Tab.4). L’arborescence Arb. 2 illustre cette nouvelle séparation :

Tab. 6 Tab. 4

Tab. 69

Arb. 2

Le tableau restant (Tab. 4) étant réduit, on a b4 = b2 =2.

• 3ème itération On va séparer le sommet qui a la plus faible borne parmi les sommets pendants, soit s4. L’arc (D,E) a le plus fort regret (il vaut 5) : on va séparer s4 en s5 et s6 ; b5 = b4 + r 4DE = 2 + 5 = 7. Le tableau associé à s6 (Tab. 6) est obtenu en supprimant la ligne D et la colonne E et en interdisant l’arc parasite (E,D) ; mais, cette fois, le tableau restant (Tab. 5) n’est pas réduit (il ne comporte pas un « zéro » dans chaque ligne et chaque colonne) : il faut retrancher 4 aux éléments de sa ligne C (pour le réduire) ; par suite : b6 = b4 + 4 = 6 : cf Tab. 6′. Remarquons qu’on n’a alors plus le choix ; les arcs (C,D) et (E,B) doivent être pris ; avec ceux précédemment pris ils forment le C.H. (B,A,C,D,E,B), de coût 6. Mais il n’est pas nécessairement optimal. • 4ème itération Cette fois le sommet pendant de plus faible borne (s3) n’est pas le fils (s6) du sommet qu’on vient de séparer (s4) d’où un SAUT vers le sommet s3 (dans le nom anglais “Branch and Bound”, Bound a les deux sens : borne et bond/saut). Le tableau relatif à s3 s’obtient à partir de celui de s2, simplement en posant c 3A , C 5 `, puis en le réduisant : on retranche 1 en ligne A et 1 en colonne C ; la somme des éléments retranchés (1+1) est précisément le regret de l’arc (A,C), qui a déjà été pris en compte pour évaluer la borne de s3 (= b2 + r 3AC) qui vaut bien 2. Il serait donc faux de l’ajouter à nouveau à b3.

480

Tab. 3

Solu­­tions des exer­­cices du cha­­pitre 4

Tab. 8 Arb. 3

• 5ème itération On sépare s3, qui est le sommet pendant de plus faible borne, à l’aide de l’arc (A,D), qui a le plus fort regret parmi les « zéros » (r 3AD 5 1, cf Tab. 3), en s7 (refus de (A,D)), avec (b7 = b3 + r 3AD 5 4 1 1 5 5) , et en s8 (on accepte (A,D)) ; après suppression de la ligne A et de la colonne D et l’interdiction de l’arc parasite (D,B) obtenue en faisant c 8DB 5 1 `, on obtient le tableau Tab. 8, qui se trouve être « réduit » ; par suite b8 = b3 = 4.

© Dunod – Toute reproduction non autorisée est un délit.

• 6ème itération On sépare le sommet pendant de plus faible borne : s8, à l’aide de (D,C) de regret 1, en s9 3 5 4 + 1 = 5) et en s10 (après suppression de la ligne D et (refus de (D,C), avec b9 = b8 + rDC de la colonne C dans le tableau Tab. 8, et de l’arc parasite (C,B) obtenu en posant c10 CB 5 1 `, on obtient le tableau 10 qui se trouve être réduit ; par suite b10 = b8 = 4). On constate alors le choix forcé de (C,E) et (E,B) ; on obtient le C.H. (B,A,D,C,E,B) de coût 4 : il est optimal car tous les sommets de l’arborescence ont une borne supérieure à 4. On arrête-là la recherche arborescente.

Tab. 10

Le C. H. optimal est : (B, A, D, C, E, B) de coût 4. L’optimum est unique ; tout autre C.H. a un coût au moins égal à 5.

Arb. 4

481

Solutions

Solu­­tions des exer­­cices du cha­­pitre 5

5.1  1)  État Ek : depuis le der­­nier bit trans­­mis cor­­rec­­te­­ment, k bits faux ont été trans­­mis.

Ré­­­ini­­tia­­li­­sation : arc (N, 1) ; si cet arc n’exis­­tait pas (pN = 1), on aurait affaire à un graphe d’un pro­­blème de renou­­vel­­le­­ment. 2)  a) 0 1 2 3

0 0, 95 0, 05

0

0

M  1 0, 20

0

0, 80

0

2 0, 15

0

0

0, 85

0

0  

3 0, 10 0, 90



b) P(0) = [l ; 0 ; 0 ; 0] , P(1) = [0,95 ; 0,05 ; 0 ; 0] = P(0) # M P(2) = [0,91 ; 0,05 ; 0,04 ; 0] = P(1) # M La pro­­ba­­bi­­lité cherc­­hée est p 2(2) = 0,04. (En fait, c’est q0 # q1 : on pou­­vait ainsi l’obte­­nir plus rapi­­de­­ment.) 3)  a) Cette chaîne de Markov est régu­­lière. En effet, son graphe est fini for­­te­­ment connexe (il com­­porte un cir­­cuit hamiltonien (0, 1, 2, 3, 0)) : la chaîne com­­porte une seule classe d’états, donc récur­­rents ; de plus cette classe est a­­­pério­­dique car le graphe com­­porte une boucle en E0. D’où : P* 5 P* # M, soit en posant P* 5 3 a, b, c, d 4  : 0,95a + 0,2b + 0,15c + 0,1d 0,05a + 0,9d 0,8b 0,85c a + b + c + d d’où c = 0,8b, puis d = 0,68b ; en repor­­tant dans (2) :

= = = = =

a b c d 1

0,05a = b(1 – 0,612) = 0,388  d’où a = 7,76b.

482

(1) (2) (3) (4) (5)

Solu­­tions des exer­­cices du cha­­pitre 5

(5) four­­nit alors b : b(7,76 + 1 + 0,8 + 0,68) = 1 , d’où b = 1/10,24. Fina­­le­­ment P* 5 [0,7578 ; 0,0977 ; 0,0781 ; 0,0664].

c) La pro­­ba­­bi­­lité p cherc­­hée est : p 5 p*0 # p0 1 p*1 # p1 1 p*2 # p2 1 p*3 # p3, or P* 5 P* # M s’écrit : p0 q0 0 0 3 p*0 ; p*1 ; p*2 ; p*3 4 # E

p1 0 q1 0 p2 0 0 q2

U  , d’où : p *0 # p0 1 p *1 # p1 1 p *2 # p2 1 p *3 # p3 5 p *0.

p3 q3 0 0

Donc p 5 p *0 5 0,7578 : cette valeur est beau­­coup trop faible : un canal qui ne trans­­ mettrait cor­­rec­­te­­ment que 3 bits sur 4 serait à réfor­­mer d’urgence ! Dans un cas réel, le cahier des charges impo­­se­­rait que p = 0,999... (en fixant le nombre de 9 après la vir­­gule). 5.2  On montre aisément que G est fortement connexe ; en outre G comporte 4 boucles  : la chaîne est donc régulière puisque comportant une seule classe dʼétats, apériodique. On a donc P* = P(0) # M*  et  P* = P* # M. Cette rela­­tion peut s’écrire P* # (M – I) = 0. Pour obte­­nir P* 5 3 p *1 , p *1 , c, p *n 4 , il suf­­fit de résoudre le sys­­tème :

b

P* # ( M 2 I) 5 0

p *0 1 p *1 1 c1 p *n 5 1,

qui s’écrit ici :

© Dunod – Toute reproduction non autorisée est un délit.

20,8 p *0

1 0,1p *2

1

0,6p *3 5 0

1

0,2p *3 5 0

0,2p *0

2

0,9p *1

g 0,3p 0*

1

0,8p *1

2 0,8p *2

1

0,1p *3 5 0

0,3p *0

1

0,1p *1

1 0,7p *2

2

0,9p *3 5 0

p *0

1

p *1

1

p *2 1

p *3

5 1

qui a bien pour solu­­tion : p *0 5

457

1 668

, p *1 5

220

1 668

, p *2 5

458

1 668

, p *3 5

553

1 668

.

Rap­­pe­­lons que pour une chaîne régu­­lière, M * 5 lim M n est une matrice dont toutes les nS` lignes sont iden­­tiques, cha­­cune étant égale au vecteur-­­­ligne P*.

483

Solutions

5.3  Construi­­sons d’abord le graphe repré­­sen­­ ta­­tif. Nous consta­­tons aisé­­ment qu’il n’est pas connexe. Il existe, en réa­­lité, une décom­­po­­si­­tion des états en deux classes d'états dis­­jointes : la pre­­mière com­­prend les états 1 et 3 ; la seconde, les états 0,2 et 4. Il n’y a pas de pas­­sage pos­­sible entre états qui appar­­tiennent à deux classes dif­­ fé­­rentes. Ces classes sont évidemment les com­ posantes connexes du graphe. Si l’on regroupe lignes et colonnes, comme le montre la matrice sui­­vante, appa­­raissent deux matrices car­­rées non nulles, s’appuyant sur la dia­­go­­nale prin­­ci­­pale : les autres élé­­ments sont nuls.

1

3

0

2

4

0,3

0,7

0

0

0

3 0,5 M50H M5 0 0 2 2 0 4 4 0

0,5

0

0

0

0

0,2

0,4

X 0,4

0

0,6

0,2

0,2

0

0,4

0,2

0,4

1 3

1

On ver­­rait, en cal­­cu­­lant :

lim 3 M 4 n nS`

que les sous-­­­matrices car­­rées sont sépa­­ré­­ment ergodiques :

5 12

lim 3 M 4 5 nS `

484

5 12

7 12

7 12

0

0

0

0

0

0

0

0

0

0

0

0

11 29

8 29

10 29

11 29

8 29

10 29

11 29

8 29

10 29

Solu­­tions des exer­­cices du cha­­pitre 5

Remarque.  Plus géné­­ra­­le­­ment, les matrices sto­­chas­­tiques de la forme : A 0 B R 0  où A et  sont des matrices car­­rées, se décom­­posent d’une manière ana­­logue ; c’est pour­­quoi on les dit réduc­­tibles. On a évi­­dem­­ment : 0

An

0

0  0 car A et  sont des matrices sto­­chas­­tiques.

n

B

A

n

R 5B

R

5.4  Dès que l’on a tracé le graphe repré­­sen­­ta­­tif, on s’aper­­çoit qu’il comporte deux composantes fortement connexes  : le pas­­sage de tout état de l’ensemble d’états tran­­si­­toire e2, à un état de l’ensemble des états récur­­rents e1 est pos­­sible, l’inverse ne l’étant pas. Bien entendu, un ran­­ge­­ment conve­­nable des lignes et colonnes de M fait appa­­raître aussi la prop­­riété :

0

3

1

2

4

00 0,2

0,8

0

0

0

33 0,4

0,6

0

0

0

M M5 = 11 G0,1

0,3

0,2

0,3

0,1W

2 2 0,2

0,1

0,1

0,5

0,1

4 4 0,2

0,1

0,1

0,2

0,4

0,8

0,2

0,4

4

© Dunod – Toute reproduction non autorisée est un délit.

B

0

C

D

n

R 5B

An

0

En

Dn

0,1

0,1 0,2 0,1 1 0,2 0,1 0,1 0,3 2 0,5

0

A

Plus géné­­ra­­le­­ment, toute matrice sto­­chas­­tique de la forme : B d’une manière ana­­logue. On a : C A

3 0,3 0,1

0,2 0,1

0,2

0,6

0,4

0

D

R est décom­­po­­sable

R  avec : En 5 En 2 1 # A 1 Dn 2 1 # C  et  E1 5 C.

La matrice sto­­chas­­tique A a une limite A* lorsque n aug­­mente indé­­fi­­ni­­ment ; on a aussi : lim Dn 5 0 ; comme la puis­­sance ne d’une matrice sto­­chas­­tique est encore une matrice sto­­ nS` chas­­tique, si Dn → 0 lorsque n aug­­mente indé­­fi­­ni­­ment, En est une matrice sto­­chas­­tique (la somme des termes de cha­­cune de ses lignes égale à 1). lim nS ` B

0,2

0,8

0,4

0,6

n

R 5 B

Dans l’exemple pré­­cé­­dent A* 5 lim An 5 lim n S `. nS `

1/3

2/3

1/3

2/3

R

485

Solutions

On montre aisé­­ment que lim Dn 5 0 (en effet, la pro­­ba­­bi­­lité – par­­tant d’un état tran­­ nS` si­­toire – de trou­­ver le sys­­tème dans un état tran­­si­­toire après n tran­­si­­tions tend vers 0 quand n → ∞). Pre­­nons la limite pour n → ∞ de chaque membre de : En 5 En 2 1 # A 1 Dn 2 1 # C.

Il vient, en posant E * 5 lim En il vient : E * 5 E * # A 1 0, puisque lim Dn 5 0 et que nS` nS` lim En 5 lim En 2 1. nS` nS` E * est aussi une matrice sto­­chas­­tique ; on peut donc poser : e*1 1 2 e*1

e*1 1 2 e*1  

E * 5 De*2 1 2 e*2 T  ;  d’où

e*1 1 2 e*1

e*4 1 2 e*4

e*4 1 2 e*4

# B

De*2 1 2 e*2 T = De*2 1 2 e*2 T e*4 1 2 e*4

0,2

0,8

0,4

0,6

R



D’où : e*1 5 0,2e*1 1 0,4 ( 1 2 e*1 )   et e*1 5 1/3. De même, on trouve e*2 5 e*4 5 1/3. 1/3 Ainsi E* 5 ≥1/3

1/3

2/3 2/3¥. 2/3

Fina­­le­­ment :

0

3

1

2

4

0

1/3

2/3

0

0

0

3

1/3

2/3

0

0

0

M* 5 lim M n 5 1 G1/3 nS ` 2 1/3

2/3

0

0

0W

2/3

0

0

0

2/3

0

0

0

4

1/3

Cette chaîne est “simplement ergodique” car elle comporte des états transitoires de probabilité-limite nulle, et on a : Π(`) 5 3 1/3 2/3 0 0 0 4 . NB. Une prop­­riété ana­­logue peut être mon­­trée pour les matrices de la forme

B

A



0

D

R, qui sont aussi décom­­po­­sables (ou « réduc­­tibles »).

5.5  Sur le graphe repré­­sen­­ta­­tif, on voit clai­­re­­ment que tout état de e1 (0 ou 3) est suivi d’un état de e2 (1, 2 ou 4) ; cela veut dire que le sys­­tème oscille per­­pé­­tuel­­le­­ment entre e1 et e2. La matrice M peut être sous la forme :

486

Solu­­tions des exer­­cices du cha­­pitre 5

3

0

1

2

4

3

0

0

0,2

0,5

0,3

0

0

0

0,4

0,6

0

M51

G0,2

0,8

0

0

0W

2

0,1

0,9

0

0

0

4

0,7

0,3

0

0

0

par ran­­ge­­ment conve­­nable des lignes et colonnes, la matrice est du type : B

0

A



0

R où les

matrices nulles s’appuyant sur la dia­­go­­nale sont car­­rées ; les matrices de ce type sont dites pério­­diques. On cal­­cu­­le­­rait faci­­le­­ment : B et B

0

A



0

0

A



0

2n

R

5 B

( A)n

0

0

( A )n

0

( A)nA

( A)nA

0

2n 1 1

R

5 B

R

R

Numé­­ri­­que­­ment, dans l’exemple pré­­cé­­dent :

3 0

1 5 6 6

© Dunod – Toute reproduction non autorisée est un délit.

1 5 6 6

lim 2n nS` M 5

1

2

4

0

0

0

0

0

0

3 0

0 0

22 35 3 60 60 60

1

0 0

22 35 3 60 60 60

2

0 0

22 35 3 60 60 60

4

et :

487

Solutions

3 0

1

4

22 35 3 60 60 60

0 0

3

22 35 3 60 60 60

0

0

0

0

1

1 5 6 6

0

0

0

2

1 5 6 6

0

0

0

4

0 0 1 5 6 6

lim M2n 1 1 5 nS `

2

Il n’y a donc pas, à prop­­re­­ment par­­ler, de limite de m lorsque n tend vers l’infini. 0

1

0

5.6  1)  M 5 D 0

0

1 T est une matrice dite de « per­­mu­­ta­­tion ».

1 0 0 Par récur­­rence  : sup­­po­­sons que M n ait la forme don­­née dans l’énoncé ; mon­­trons que Mn+1 a alors la forme ana­­logue : an M n 1 1 5 Mn # M 5 D an 1 1 an 2 1

an 2 1

an 1 1

an

an 2 1 T

an 1 1

an

0

1

0

an 1 1

# D 0 0 1 T 5 D an 2 1 1

0

0

an

an

an 2 1

an 1 1 an 2 1

an T an 1 1

2p ( n 2 1 ) 2p ( n 1 1 ) En remar­­quant que an 2 1 5 an 1 2 (car cos , puisque 5 cos 3 3 2p (n 1 1) 2p (n 1 2) 5 1 2p et que cos x = cos(x + 2p) ), il vient : 3 3 an 1 1 M n 1 1 5 D an 1 2 an

an an 1 1 an 1 2

an 1 2

am

am 2 1

an T 5 D am 1 1 an 1 1

am 2 1

am 1 1 am 2 1 T , où m 5 n 1 1.

am am 1 1

am

1

0

0

0

1

0

0

0

1

M 3k 5 D 0

1

0 T 5 I ; M 3k 1 1 5 M 5 D 0

0

1 T ; M 3k 1 2 5 D 1

0

0T.

0

0

1

0

0

1

0

488

1

0

Solu­­tions des exer­­cices du cha­­pitre 5

2)  P(3k) = [1, 0, 0] ; P(3k + 1) = [0, 1, 0] ; P(3k + 2) = [0, 0, l] . On observe que P(n) oscille entre ces trois vec­­teurs, selon que n = 3k ou n = 3k + 1 ou n = 3k + 2 : P(n) n’a pas de limite dans ce cas. 3)  Avec ce choix très par­­ti­­cu­­lier de P(0), il vient : B

111

333

R 5 P ( 0 ) 5 P ( 1 ) 5 P ( 2 ) 5 c5 P ( ` )

ce vec­­teur de pro­­ba­­bi­­li­­tés est un « point fixe » de M. 5.7  Indi­­ca­­tions. On a les équa­­tions carac­­té­­ris­­tiques res­­pec­­tives sui­­vantes : 1)  ( l 2 1 )( l 3 1 0,4 l 2 1 0,23 1 0,038 ) 5 0 ; 2)  ( l 2 1 ) 2 ( l 3 1 0,4 l 2 2 0,008 ) 5 0 ; 3)  l ( l 2 1 )( l 1 1 )( l 2 2 0,16 ) 5 0 ; 4)  ( l 2 1 )( l 2 1 l 1 1 ) 5 0.

Dans le pre­­mier cas, outre les racines réelles 1 et –0, 2 c, et on a deux racines ima­­gi­­ naires : 20,1 1 0,3i "2  et  20,1 1 0,3i "2. Dans le deuxième, toutes les racines sont réelles : 1 ; 1 ; –0,2 ; –0,1 ( 1 1 "5 )  ;

–0,1 ( 1 2 "5 )  ; 20,1( 1 2 "5 ) . Noter que l 5 1 est racine double. Dans le troi­­sième, les racines sont éga­­le­­ment réelles : 1  ; –1  ; 0,4  ; –0,4 et 0. Dans le der­­nier cas, la seule racine réelle est  : 1, les deux autres sont ima­­gi­­naires conju­­guées : j 5 2

1

2

1i

"3 2

et j2 5 j 5 2

1 2

2i

"3 2

. Le poly­­nôme carac­­té­­ris­­tique

est : l3 – 1 = 0 ; ses racines sont les racines cubiques de l’unité, soit : 1, j et j2. Rap­­pe­­lons

© Dunod – Toute reproduction non autorisée est un délit.

que cette chaîne est pério­­dique, de période 3. D’une manière géné­­rale, pour une chaîne de Markov com­­por­­tant une classe d’états récur­­rents pério­­diques, (de période d), dans les racines de l’équa­­tion carac­­té­­ris­­tiques figurent les racines d ièmes de l’unité : ei.2kp/d où : k = 0, 1, c, d – 1. En outre, si une chaîne de Markov pos­­sède p classes d’états récur­­rents, l = 1 est racine d’ordre p de l’équa­­tion carac­­té­­ris­­tique (c’est-­­­à-dire que l’on peut mettre (l – 1)p en fac­­teur dans cette équa­­tion).

5.8  1)  p4 ( t ) 5 p 4 ( 2t ) 5

(a t)4

4! (2 a t)4 4!

# e 2 at  : car la lon­­gueur de l’inter­­valle [t, 2t] est t. # e 2 2at  : car la lon­­gueur de l’inter­­valle [3t, 5t] est 2t.

489

Solutions

( Dt ) 0

2) p0 ( Dt ) 5  

0! x2 x3

x1

#

e 2 a Dt 5 1 2 a D t 1 o ( Dt ) , car le développement de e–x en série  :

1 2 1 c four­­nit pour x petit le développement 1! 2! 3! e–x = 1 – x + o(x). La probabilité d’avoir un événement entre o et o 1 Dt est : Dt p ( Dt ) 5 e 2 aDt 5 aDt 1 0 ( Dt ) 1! La pro­­ba­­bi­­lité d’avoir deux évé­­ne­­ments entre θ et θ + Δt est :

e2x 5 1 2

( Dt ) 2

( Dt ) 2

3 1 2 aDt 1 o ( Dt ) 4 5 e 5 2! 2 cette pro­­ba­­bi­­lité, du second ordre en Δt, est négli­­geable. p2 ( Dt ) 5

2 aDt

( Dt ) 2 2

limité :

1 o ( Dt2 ) 5 o ( Dt2 )

3) n ( t ) 5 E ( Xt ) 5 a t, où Xt est la variable aléa­­toire «  nombre d’évé­­ne­­ments sur un inter­­valle de temps de lon­­gueur t. » Par défi­­ni­­tion : s 2Xt 5 var ( Xt ) 5 E ( X2t ) 2 ( E ( Xt )) 2. E(Xt) étant connu, il reste à éva­­luer E ( X 2t )  : E ( X 2t ) 5 a n2 # pn ( t ) 5 a n ( n 2 1 ) # pn ( t ) 1 a n # pn ( t ) . `

`

n51

`

n51

Le pre­­mier sigma vaut : a n ( n 2 1 ) `

n52

(a t)n

en effet on a : n! = n # (n – 1) # (n – 2)!.

n!

n51

e

, soit ( a t ) 2e 2 at a `

2 at

(a t)n2 2

n52 ( n

2 2)!

 ;

5 a Or : a 5 eat (en posant m = n – 2) ; on reconnaît la série qui ` n52 ( n 2 2 ) ! m50 m! x1 x2 c xm ). défi­­nit l’expo­­nen­­tielle (rap­­pe­­lons que ex 5 1 1 1 1 5 a 1! 2! m! m50 `

(a t)n2 2

`

(a t)m

Fina­­le­­ment : E ( X 2t ) 5 3 ( a t ) 2e 2 at # eat 1 E ( Xt ) 4 et :

s 2X t 5 3 ( a t ) 2 1 a t 2 ( a t ) 2 4 5 a t. 4)  La durée Τ sépa­­rant deux évé­­ne­­ments consé­­cu­­tifs est régie par la loi expo­­nen­­tielle de taux α ; elle vaut donc en “moyenne” (espérance) : 1/α. ` 1 1 var T 5 E ( T 2 ) 2 c a d 5 3 t2 # ( a e 2 at ) dt 2 a .  Posons αt = u, il vient : 0 2

var T 5

2 2u 3 u # e # du 2 2

1

a

`

0

1

a

2

5

2!

a

2

2

1

a

2

5

1

a2

.

5.9  1)  Il s’agit du pro­­ces­­sus de naissance dit de « Yule ».

490

Solu­­tions des exer­­cices du cha­­pitre 5

On reconnaît un pro­­ces­­sus de nais­­sance ouvert. D’où : b

b

p1 ( t 1 dt ) 5 ( 1 2 l dt ) # p1 ( t ) pn ( t 1 dt ) 5 ( n 2 1 ) l dt # pn 2 1 ( t ) 1 ( 1 2 nl dt ) # pn ( t ) pour n > 2 p r ( t ) 5 2l # p1 ( t )

(1)

p rn ( t ) 5 ( n 2 1 ) l # pn 2 1 ( t ) 1 nl # pn ( t )

(2)

D’où : p 1(t) = e–lt , puis p2r ( t ) 2 2l p2 ( t ) 5 l e 2 lt , qui a pour solu­­tion : p 1(t) = e–lt – e–2lt (sachant que p 2(0) = 0). Soit: p 2(t) = e–lt(1 – e–lt) : p 2(t) a bien la forme don­­née dans l’énoncé. Par récur­­rence : sup­­po­­sons que l’on ait p n–1(t) = e–lt(1 – e–lt)n–1. En repor­­tant cette valeur dans (2), puis en inté­­grant cette équa­­tion dif­­fé­­ren­­tielle on trouve effec­­ti­­ve­­ment : p n(t) = e–lt (1 – e–lt)n. On véri­­fie alors que le nombre moyen de micro-­­­organismes pré­­sents à t est : E(Xt) = elt. On retrouve l’idée com­­mune de crois­­sance « expo­­nen­­tielle » pour une popu­­la­­tion (bio­­ lo­­gique). 2) Lors­­qu’il y a ini­­tia­­le­­ment N micro-­­­organismes pré­­sents à t = 0, il vient : pN 1 n ( t ) 5 @nn 1 N 2 1 e2Nlt # ( 1 2 e2lt ) n (le cal­­cul est plus com­­mode si l’on uti­­lise une trans­­for­­mée, comme celle de Laplace ou de Carson-Laplace).

© Dunod – Toute reproduction non autorisée est un délit.

5.10  1)  Sup­­po­­sons, pour sim­­pli­­fier, que de Ei on ne puisse atteindre que deux états, soit Ε1 et E2. On note, alors, li1 = α et li2 = β. On a ici qi = α + β. Soient les deux variables aléa­­toires Y1 et Y2 telles que : P[Y1 . t] = e–αt et P[Y2 . t] = e–βt ; par consé­­quent : F1 ( t ) 5 P 3 Y1 < t 4 5 1 2 e 2 at , et F2 ( t ) 5 P 3 Y2 < t 4 5 1 2 e 2 bt sont les fonc­­tions de répar­­tition de ces deux variables aléa­­toires. Leurs den­­si­­tés de pro­­ba­­bi­­lité sont res­­pec­­ti­­ve­­ment : f1 ( t ) 5 Fr ( t ) 5 a e 2 at et f2 ( t ) 5 b e 2 bt.

La pro­­ba­­bi­­lité pi1 cherc­­hée, est la pro­­ba­­bi­­lité que la valeur de Y1 soit infé­­rieure à celle de Y2 : pi1 = P[Y1 , Y2]. Détaillons cette pro­­ba­­bi­­lité : sup­­po­­sons que Y1 ait une valeur com­­prise entre t – dt et t,

alors Y2 doit avoir une valeur supé­­rieure à t. D’où pi1 5 3 P 3 t 2 dt , Y1 < t et Y2 . t 4 . `

0

Les deux variables aléa­­toires Y1 et Y2 étant indé­­pen­­dantes, il vient : pi1 5 3 P 3 t 2 dt , Y1 < t 4 # P 3 Y2 . t 4 5 3 f1 ( t ) dt # 3 1 2 F2 ( t ) 4 `

0

`

0

491

Solutions ` ` l i1 a pi1 5 3 a e 2 at dt # e 2 bt 5 a 3 e 2 (a 1 b )t # dt 5 5 . a 1b l i1 1 l i2 0 0

b

De même, on cal­­cu­­le­­rait pi2 5

a 1b

5

l i2 l i1 1 l i2

.

Plus géné­­ra­­le­­ment on a : pij 5 l ij ^ a a lijb 5 l ij / qi. j2i

2) Dési­­gnons par A l’évé­­ne­­ment : « Xtn 5 Ein » et par B, l’évé­­ne­­ment : « Xt 5 E et Xt 5 E et cet Xt 5 E ». n21

in 2 1

n22

in 2 2

0

i0

La pro­­ba­­bi­­lité qn de la tra­­jec­­toire est alors Ρ[A et B]. Or, par défi­­ni­­tion d’une pro­­ba­­bi­­lité condi­­tion­­nelle : Ρ[A et B] = P[A | B] # P[B]. Ainsi : qn 5 PBXtn 5 Ein 0 Xt0 5 Ei0 , c, Xtn 2 1 5 Ein 2 1 R # qn 2 1

Par appli­­ca­­tion de la prop­­riété sans mémoire : qn 5 PBXtn 5 Ein 0 Xtn 2 1 5 Ein 2 1 R # qn 2 1 ,

soit qn 5 pin 2 1, in # qn 2 1 ; fina­­le­­ment : qn 5 pin 2 1, in # pin 2 2, in 2 1 # c# pi 0 i1 # q0. Or q0 5 P 3 X0 5 Ei 0 4 5 pi 0( 0 ) . Soit : pn 5 pi ( 0 ) # pi , i # pi , i # c# p , i . 0

0 1

in 2 1 n

1 1

avec (cf. ques­­tion pré­­cé­­dente) : pik, ik 1 1 5

l ik ik 1 1

a l ik j

5

lik, i k 1 1 qik

j2i

5.11  1)  E0 : la ligne de l’abonné est libre ; E1 : phase 1 en cours (l’abonné com­­pose un numéro) ; E2 : phase 2 en cours. Voici le graphe sim­­pli­­fié du pro­­ces­­sus de Markov asso­­cié :

2)  Ce graphe étant fini et for­­te­­ment connexe, le pro­­ces­­sus de Markov asso­­cié est for­­te­­ ment ergodique.

492

Solu­­tions des exer­­cices du cha­­pitre 5

1 3)  La durée moyenne d’une phase 1 est v (puisque cette durée est régie par une loi expo­­ nen­­tielle de taux ω). 20 3 1 1 –1 –1 v 5 3 600 h, d’où : ω = 180 h   ; m 5 60 h , d’où μ = 20 h . Appli­­quons le théo­­rème des coupes à {E0}, puis à {E1} : m # p*2 5 ( l 1 a ) # p*0

l 1 (a) l d’où: p*0 # B1 1 v 1 R 51. m

d l # p*0 5 v # p*1 p*0 1 p*1 1 p*2 5 1 60

Numé­­ri­­que­­ment : p*0 5

79

, p*1 5

1

79

, p*2 5

18

79

.



60 La ligne est libre dans l’état E0 , soit avec la pro­­ba­­bi­­lité en régime per­­manent : p*0 5 , soit 79 60 3 600 3 5 2 734 secondes par heure (soit envi­­ron 46 mn/h) : environ les 3/4 du temps. 79 5.12  1)  On a, en tout, Ν = 4 ter­­mi­­naux ; il y a donc N + 1 = 5 états ( Ek, 0 < k < 4 ) . Le graphe des tran­­si­­tions entre t et t + dt est fini et for­­te­­ment connexe : le pro­­ces­­sus est fortement ergodique.

2)  En notant p*i la probabilité de l’état Ei en régime permanent : 2b * 2b 2b b p 5 12p*0 , p*2 5 p*1 5 72p*0 , p*3 5 p*2 5 288p*0 , p*4 5 p*3 5 432p*0 . a 0 2a 4a 3a p*0 # ( 1 1 12 1 72 1 288 1 432 ) 5 1 d’où : p*0 5 1/805

© Dunod – Toute reproduction non autorisée est un délit.

p*1 5

et p*1 5

12

805

, p*2 5

72

805

3) r 5 1 # p*3 1 2p*4 5

, p*3 5

288 805

288 1 864 805

r 5 4p*0 1 3p*1 1 2p*2 1 p*3 5

et p*4 5

432 805

.

5 1,4311 répa­­ra­­teurs inoc­­cu­­pés

4 1 36 1 144 1 288

5 0,5863 ter­­mi­­naux en panne. 805 4) En tout N + S = 6 ter­­mi­­naux ; il y a donc 7 états ( notés Fk , 0 < k < 6 ) a) graphe sim­­pli­­fié : 493



Solutions

b b b b b) q*1 5 q*0 5 6q*0 , q*2 5 q*1 5 18q*0 , q*3 5 q*2 5 36q*0 , q*4 5 q*3 5 54q*0 , a 2a 4a 3a q*5 5 q*0 # a

b 243 * p*0 5 81q*0 , q*0 5 q*5 5 q0 . 4a 4a 2 b

2 1 12 1 36 1 72 1 108 1 162 1 243 2

c) r r 5 0 # ( q*0 1 c1 q*5 ) 1 1 # q*6 5

243

635

b 5 1, d’où : q*0 5

2

635

.

5 0,3827

NB r 2 r r 1 1. rr 5 6q*0 1 5q*1 1 4q*2 1 3q*3 1 2q*4 1 1q*5 5 t 5 4q*0 1 3q*1 1 2q*2 1 q*3 5

810

635

8 1 36 1 72 1 72

5 1,2756 188

5 0,2961. 635 635 3) Coût jour­­na­­lier de P1 : 500r 1 2 000r 1 300N 5 3 088 €/j 5

P2 : 500 r r 1 2 000t 1 300 ( N 1 S ) 5 2 584 €/j. La seconde poli­­tique est pré­­fé­­rable. 5.13  Sur le gra­­phique ci-­­­après, les dépla­­ce­­ments dus aux réglages sont indi­­qués en traits gras, ceux qui cor­­res­­pondent à des tran­­si­­tions concernant l’évo­­lu­­tion du sys­­tème sans inter­­ ven­­tion exté­­rieure sont figu­­rés en traits ponc­­tués ; les pro­­ba­­bi­­li­­tés de trans­­fert et les gains sont indi­­qués sur les arcs.

494

Solu­­tions des exer­­cices du cha­­pitre 5

Les variables de déci­­sion sont les xi , les variables de posi­­tion les yi ; les espé­­rances mathéma­­tiques de gain seront dési­­gnés par Z. On a, en unités monétaires (u.m.) :

E1 , E1   0,3  5  0,7  (2)  0,1 Z n1  E1 , E2   0,5  1  0,5 (0)  0

E1 , E1   0,3  (5  1)  0,7  (2  0,1)  0,47 Z n2  E1 , E2   0,5  (1  0,1)  0,5  (1 1)  0,55

E2 , E1   0,1 Z n1  E2 , E3   0,6  3  0,4 (2) 

E2 , E1   0,47 Z n2  E2 , E3   0,6  (3  1)  0,4  (2  0,1) 

Z n1

Z n2

Z n1

Z n2

1

E3 , E1   0,1 Z n1  E3 , E2   0

1,64

E3 , E1   0,47 Z n2  E3 , E2   0,55

Z n1

Z n2

Puis pour n – 3, n – 4, …, n – 10 : max zn 2 3 ( E1 ) 5 1,095 E1 S E2

max zn 2 3 ( E2 ) 5 2,204 E2 S E3

max zn 2 3 ( C ) 5 1,095 E3 S E2 ,

représentent les décisions optimales à n – 3. max zn 2 4 ( E1 ) 5 1,6495 E1 S E2

max zn 2 4 ( E2 ) 5 2,7604 E2 S E3

max zn 2 4 ( C ) 5 1,6495 E3 S E2

max z n 2 10 ( E1 ) 5 4,982 7 max z n 2 10 ( E2 ) 5 6,093 8 S E1 E2 S E3 E2 d’où l’on tire la poli­­tique opti­­male :

max z n 2 10 ( E3 ) 5 4,982 7 E3 S E2

Remar­­quons main­­te­­nant que : VEn12 k 5 3 0,5 0,5 0 4

# D21 1 VEn 2 k 1 1 T 5 0,5 aVEn 2 k 1 1 1 VEn 2 k 1 1 b 3

01

2

3

VEn22 k 1 1

0 1 VEn22 k 1 1 VEn12 k 5 3 0 0,6 0,4 4

© Dunod – Toute reproduction non autorisée est un délit.

1 1 VEn22 k 1 1

# D 3 1 VEn 2 k 1 1 T 5 1 1 0,6VEn 2 k 1 1 1 VEn 2 k 1 1 3

22 1

3

3

VEn22 k 1 1

VEn12 k 5 VEn12 k

495

Solutions

d’où l’on a : d n 2 k 5 V En22 k 2 V En12 k 5 1 1 0,1 aV En22 k 1 1 2 V En12 k 1 1 b 5 1 1 0,1d n2k 1 1 Si n est assez grand : d n 2 k 5 1 1 0,1 1 0,01 1 0,001 1 c< De plus,

10 9

.

1 VEn22 k 5 0,5aVEn22 k 1 1 1 VEn32 k 1 1 b 5 0,5a2VEn22 k 1 1 1 d n 2 k 1 1 b 5 VEn22 k 1 1 1 d n 2 k 1 1, 2 Par suite : VEn22 k < 0,55 1 ( k 2 2 ) VEn32 k < 0,55 1 k # On véri­­fie que : pour k = 10 : V En32 k 5 0,55 1 V En22 k 5 0,55 1 et l’on a, pour k = 100 :

50 9

40 9

5

5

9

9

< 6,10 u.m. < 5,00 u.m.

V En32 k < 56,10 u.m.; V En22 k < 55,00 u.m. NB. On remar­­quera tou­­te­­fois que l’évo­­lu­­tion la moins bonne donne une perte de 1,1 unité monétaire par période.

496

Solu­­tions des exer­­cices du cha­­pitre 6

Solu­­tions des exer­­cices du cha­­pitre 6

6.1  1)  i ( t ) # dt 5 P 3 t , T < t 1 dt 4 5 dF( t ) où : F( t ) 5 P 3 T < t 4 . Or F( t ) 5 1 2 v ( t ) . Donc i( t ) 5 2v r ( t ) . Ici  i( t ) 5 ( a ) # e 2at 1 ( 1 1 at ) ( 2ae 2at ) 5 a 2 # t # e 2at  .

MTTF 5 t 5 3 t # i ( t ) 5 3 v ( t ) # dt ;  ici : 0 en posant x 5 at. 0 `

` 1 ` t 5 3 a2 # t2 # e2at dt 5 3 x 2 # e2x # dx, a 0 0

`

On montre aisé­­ment que : 3 x n # e2x # dx 5 n! ( pour n entier). D’où t 5 `

0

Le taux d’ava­­rie est ( t ) 5 2

v r( t )

5

v(t )

a 2t

1 1 at

2! 2 5  . a a

 . Pour t S `, ( t ) S a .

2)  p m ( t ) 5 3 p m 2 1 ( u ) # i( t 2 u ) # du , avec p 0 ( t ) 5 v ( t ) . t

0

t

On cal­­cule d’abord P1 ( t ) 5 3 p o ( u )

# i (t

2 u)

# du :

o

p 1 ( t ) 5 3 ( 1 1 au ) t

# e 2au # a 2 ( t

0

2 u)

# e 2a ( t 2 u ) # du

2 5 e 2 at 3 a ( 1 1 au ) ( t 2 u ) du 5 e 2at 3 a 2 3 2au 2 1 u ( at 2 1 ) 1 t 4 # du t

t

0

0

Soit p 1 ( t ) 5 e 2at # a 2 # B2a

t3 3

1a

t3 2

2

t2 2

1 t 2R 5 B

a 2t 2 2

1

a 3t 3 6

R # e 2at .

© Dunod – Toute reproduction non autorisée est un délit.

De même on cal­­cule : p2 ( t ) 5 B

a4t 4 24

1

a5t 5

120

R # e2at 5 B

( at ) 4 4!

1

( at ) 5 5!

R # e2at

Puis par récur­­rence, on fait l’hypo­­thèse que : pn ( t ) 5 B

( at ) 2m 2m!

1

( at ) 2m 1 1 ( 2m 1 1 ) !

R # e2at

et l’on montre que pm 1 1 ( t ) a la forme ana­­logue (obte­­nue en rem­­pla­­çant m par m + 1 dans l’expres­­sion de pm(t)) .

497

Solutions

NB. L’expres­­sion pm ( t ) 5 3 pm 2 1 ( u ) # i ( t 2 u ) # du étant un pro­­duit de convo­­lu­­tion, la 0 réso­­lu­­tion de cette récur­­rence serait faci­­li­­tée si l’on uti­­li­­sait la trans­­for­­mée de Laplace (ou celle de Carson-­­­Laplace). t

On trouve ici une loi d’Erlang-2, obte­­nue en regrou­­pant par « paquets » de deux évé­­ne­­ ments consé­­cu­­tifs, les évé­­ne­­ments se pro­­dui­­sant dans un pro­­ces­­sus de Pois­­son de taux a : ( at ) 2m # e2at est la pro­­ba­­bi­­lité d’occurence de 2m pm ( t ) 5 p2m ( t ) 1 p2m 1 1 ( t ) , où : p2m ( t ) 5 2m! évé­­ne­­ments entre 0 et t dans ce pro­­ces­­sus de Pois­­son de taux a (et paramètre at). 6.2

V (t) 5 P 3 T . t 4 5 P 3 T . t 0 TA . t 4 # P 3 TA . t 4 1 P 3 T . t 0 TA < t 4 # P 3 TA < t 4. Pour éva­­luer le pre­­mier terme de cette somme, on peut rem­­pla­­cer A par un « court­­­ circuit ». On a alors C et F en paral­­lèle, sui­­vis d’un pont simple (dont la fia­­bi­­lité a été cal­­cu­­ lée au chapitre 6, paragraphe 6.4) :

Posons pour sim­­pli­­fier v A ( t ) 5 a, v B ( t ) 5 b, c, v H ( t ) 5 h. La fia­­bi­­lité du mon­­tage en paral­­lèle de C et F vaut : c 1 f 2 cf. D’où l’expression (1) : P 3T , t 0 TA . t 4 5 ( c 1 f 2 cf ) # 3 ( de 1 g h 2 de g h ) ( 1 2 b ) 1 ( d 1 g 2 dg ) # ( e 1 h 2 e h ) b 4 (1)

498

Solu­­tions des exer­­cices du cha­­pitre 6

Pour éva­­luer le second terme de V(t), on sup­­prime A ; on retrouve alors un pont simple, en regroupant C et D qui sont en série, de même que F et G.

P3T . t 0 TA < t 4 5 3 cde 1 f g h 2 cde f g h 4( 1 2 b ) 1 3 cd 1 f g 2 cdf g 4 3e 1 h 2 e h 4 # b

# 3 cd

1 f g 2 cdf g 4

# (2)

Fina­­le­­ment V(t) est la somme des expres­­sions (1) et (2). Si v ( t ) 5 v pour cha­­cun des 8 com­­po­­sants, il vient V 5 v 3 ( 2 1 4v 2 10v 2 1 7v 3 1 12v 4 2 4v 5 ) . Si v 5 1 (fia­­bi­­lité par­­faite), on obtient V 5 1 comme attendu. Si v 5 0, évi­­dem­­ment on a V 5 0.



6.3  1) i ( t ) # dt 5 P 3 t , X < t 1 dt 0 X .  4 . Or P 3 A 0 B 4 5 P 3 A et B 4 / P 3 B 4 . Donc i ( t ) # dt 5 P 3 t , X < t 1 dt 4 / P 3 X . 4  : car on sait qu’ici : t . . Soit : i ( t ) # dt 5 i( t ) # dt / v (  ) 5 2v r ( t ) # dt / v (  ) .

r 5 E 3 X 2  0 X .  4 5 E 3 X 0 X .  4 2 

5 3 3 t # i ( t ) dt 4 2  5 3 v ( t ) # dt / v (  ) `

`



NB Si θ = 0, on retrouve r0 5 t 5 3 n ( t ) # dt



`

2)  Si v ( t ) 5 e 2t , r 5 3

`

© Dunod – Toute reproduction non autorisée est un délit.



e

0

2t

`

# dt / e 2 5 B2 e R ^ e 2 soit :  2t



r 5

  e 2 

1

^ e 2 5  .

On retrouve la prop­­riété “sans mémoire” de la loi expo­­nen­­tielle : peu importe la durée de vie écou­­lée, tout se passe comme si, à chaque ins­­tant, le maté­­riel était neuf et donc l’espé­­ rance de la durée de vie rési­­duelle est égale à l’espé­­rance de la durée de vie depuis t = 0, 1 soit : . 

499

Solutions

6.4  1)  Il est facile de com­­plé­­ter le tableau ini­­tial par le cal­­cul de n(t), et celui de la mor­­ta­­lité n(t 2 1) 2 n(t) rela­­tive : p ( t ) 5 5 P 3 t 2 1 , T # t 4 ainsi que de la pro­­ba­­bi­­lité d’ava­­rie : n(0) n(t) . 5 P3 t 2 1 , T # t 0 T . t 2 1 4 pc ( t ) 5 1 2 n(t 2 1) où T est la variable aléatoire “durée de vie” d’un pneu.

t 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14

n(t)

Nombre de pneus ayant duré moins d'un mois de 1 à 2 mois de 2 à 3 mois de 3 à 4 mois de 4 à 5 mois de 5 à 6 mois de 6 à 7 mois de 7 à 8 mois de 8 à 9 mois de 9 à 10 mois de 10 à 11 mois de 11 à 12 mois de 12 à 13 mois de 13 à 14 mois

5 10 40 80 130 250 200 120 70 50 25 15 3 2

La durée de vie moyenne :

1000 995 985 945 865 735 485 285 165 95 45 20 5 2 0

p(t)

0, 005 0, 010 0, 040 0, 080 0, 130 0, 250 0, 200 0, 120 0, 070 0, 050 0, 025 0, 015 0, 003 0, 002

pc(t)

0, 005 0, 010 0, 041 0, 085 0, 151 0, 341 0, 413 0, 422 0, 435 0, 527 0, 556 0, 750 0, 600 1

t 5 a t pt t51

vaut 6,62 mois. On pour­­rait en déduire la consom­­ma­­tion moyenne (au bout d’un temps très long) : 1 000 6,62

5 151 pneus/mois.

2)  On peut défi­­nir une chaîne de Markov homogène, de matrice M, telle que si Π(0) repré­­sente la dis­­tri­­bu­­tion des âges à la date 0 : P( 1) 5 P( 0) # M



P ( 2 ) 5 P ( 1 ) # M 5 P ( 0 ) # M2

…………………

P ( n ) 5 P ( 0 ) # Mn 500

Solu­­tions des exer­­cices du cha­­pitre 6

Voici cette matrice :

0,005 0,995 0,010 0 0,990 0,041 0 0 0,959 0 0,085 0 0 0,915 0 0,151 0 0 0 0,849 0 0 0 0,341 0 0 0,659 0,413 0 0 0 0 0 0 0,587 0,422 0 0 0 0 0 0 0 0,578 0,435 0 0 0 0 0 0 0 0 0,565 0,527 0 0 0 0 0 0 0 0 0 0,473 0,556 0 0 0 0 0 0 0 0 0 0 0,444 0,750 0 0 0 0 0 0 0 0 0 0 0 0,250 0,600 0 0 0 0 0 0 0 0 0 0 0 0 0,400 1 0 0 0 0 0 0 0 0 0 0 0 0 0

M

La matrice M étant ergodique, on aura, en régime per­­manent : avec A 5 M 2 I .

P* # A 5 0   (1)

On peut se ser­­vir des rela­­tions (1), aux­­quelles on ajoute : p *0 1 p *1 1 c1 p *n 5 1

pour cal­­cu­­ler p *0, et de là, tous les p *i. Il vient :

p *0 3 0,995 5 p *1 ; p *1 3 0,990 5 p *2 ; c ; p *12 3 0,400 5 p *13 ,

d’où :

p *0 1 0,995p *0 1 ( 0,995 3 0,990 ) p *0 1 c1 ( 0,995 3 0,990 3 c3 0,400 ) p *0 5 1

et : p *0 5

1

< 0,151. 6,62 On peut en déduire :
30 mn] 5

514

3 4

1

2

(une demi-­­­heure).

3

e

22

5

3 3 4e2


4 car m 5 3 ) . On cal­­cu­­lera pour S = 4, 5, 6, 7, et 8 : p *0 5

1

S 21

1 a n! S! ( 1 2 c /s ) 0 S

c

S

c

n

  et  tf 5

c2 S S! ( 1 2 c /S ) 2

6

# p *0

4

5

0, 0377 4, 452

0, 0466

0, 0489 0, 0496

1, 032

0, 289

Temps perdu par les clients (heures)

12, 36

2, 82

0, 79

0, 24

0

Temps perdu par les stations

8

16

24

32

40

Coût total

498, 8

448, 9

415, 6

519, 2

540

0 t f (en mn)

Le nombre optimal de stations (et aussi de serveurs) est de six.

516

7

8 0, 05

0, 0888 ordre 103

Solu­­tions des exer­­cices du cha­­pitre 7

7.3  1)  Voici le schéma de ce sys­­tème :

© Dunod – Toute reproduction non autorisée est un délit.

On le modé­­lise par le pro­­ces­­sus de Markov ci-­­­dessous (on a posé : m = m1 + m2).

p 0 ( t 1 dt ) 5 ( 1 2 ldt ) # p 0 ( t ) 1 m 1 # p 01 ( t ) 1 m 2 # p10 ( t ) 1 o ( dt ) 1 p 01 ( t 1 dt ) 5 3 1 2 ( l 1 m 1 ) dt 4 # p 01 ( t ) 1 l dt # p 0 ( t ) 1 m 2 # p 2 ( t ) 1 o ( dt ) 2 1 p 10 ( t 1 dt ) 5 3 1 2 ( l 1 m 2 ) dt 4 # p 10 ( t ) 1 l dt # p0 ( t ) 1 m 1 # p 2 ( t ) 1 o ( dt ) 2 h p 2 ( t 1 dt ) 5 3 1 2 ( l 1 m 1 1 m 2 ) dt 4 # p 2 ( t ) 1 ldt # 3 p 01 ( t ) 1 p 10 ( t ) 4 1 ( m 1 1 m 2 ) # p3 ( t ) 1 o ( dt ) . . . ... pn ( t 1 dt ) 5 3 1 2 ( l 1 m ) dt 4 # pn ( t ) 1 l dt # pn 2 1 ( t ) 1 m dt # pn 1 1 ( dt ) 1 o ( dt ) , où n > 3

D’où :

517

Solutions

pr0 ( t ) 5 2 l # p 0 ( t ) 1 m 1 # p 01 ( t ) 1 m 2 # p 10 ( t ) l # p 0 ( t ) 1 m2 # p 2 ( t ) 2 l ip 1r 0 ( t ) 5 2 ( l 1 m 2 ) # p 01 ( t ) 1 # p 0 ( t ) 1 m 1 # p 2 ( t ) 2 p 01 r ( t ) 5 2 ( l 1 m 1 ) # p 01 ( t ) 1

# p 2 ( t ) 1 l 3 p 01 ( t ) 1 p 10 ( t ) 4 1 m # p 3 ( t )

p 2r ( t ) 5 2 ( l 1 m ) . . . p nr ( t ) 5 2 ( l 1 m )

...

# p n ( t ) 1 l # p n 2 1 ( t ) 1 m # p n 1 1, où n > 3

2)  En régime per­­manent, il vient :

lp *0 5 m 1 # p *01 1 m 2 # p *10 ( l 1 m 1 ) # p *01 5

l # p *0 1 m2 # p *2 2

i ( l 1 m 2 ) # p *10 5

l # p *0 1 m1 # p *2 2

( l 1 m ) # p *2 5 l # 3 p *01 1 p *10 4 1 m # p *3 . . . ... ( l 1 m ) # p *n 5 l # p *n 2 1 1 m # p *n 1 1

En appli­­quant le théo­­rème des coupes on montre aisé­­ment que : n22

l p *n 5 a m b

# p *2 , où n > 3.

(1)

Avec la coupe {E0, E01, E10}, il vient : m # p *2 5 l # ( p *01 1 p *10 ) Avec la coupe {E0}, on retrouve :

(2)

l # p *0 5 m 1 # p *01 1 m 2 # p *10 En outre avec la coupe {E01}, on retrouve :

(3)

l

(4) # p *0 1 m 2 # p *2 2 Le sys­­tème de trois équa­­tions : (2), (3) et (4), per­­met d’expri­­mer p *0, p *01 et p *02 en fonc­­tion de p *2 soit : ( l 1 m 1 ) # p *01 5

p *0 5 a

On trouve a 5

518

2m1 m2 l

2

# p *2 ,   p *01 5 b # p *2 ,  p *10 5 g # p *2 . ; b 5

m2 l

; g 5

m1 l

Solu­­tions des exer­­cices du cha­­pitre 7

Puisque (1) per­­met d’expri­­mer p *n en fonc­­tion de p *2 on peut alors obte­­nir p *2 en écri­­ vant que la somme des pro­­ba­­bi­­li­­tés des états égale 1 :

l l2 p*2 # £ a 1 b 1 g 1 a1 1 m 1 2 1 cb § 5 1. m

l l On reconnaît dans la paren­­thèse la série géo­­mé­­trique de rai­­son q 5 m 5  ; m1 1 m2 l cette série converge pour , 1 : on retrouve ainsi la condi­­tion d’exis­­tence m1 1 m2 d’un régime per­­manent, alors : 1

1 2 l /m

¢ §.

Le nombre moyen de clients pré­­sents dans le sys­­tème est : n 5 0 # p *0 1 1 # ( p *01 1 p *10 ) 1 2 # p *2 1 3 # p *3 1 c

5 p*2 # £ b 1 g 2



p *2 5 1^ £ a 1 b 1 g 1 °

l m m l2 ° 1 1 2 # m 1 3 # 2 1 c¢ § 1 l l m

On reconnaît dans la paren­­thèse la série déri­­vée de la série géo­­mé­­trique ; convergente l 1 pour m , 1, elle a alors pour somme : . ( 1 2 l /m ) 2 Remarquons aussi que b 1 g 5 D’où : n 5 p *2 # £

m /l ( 1 2 l /m ) 2

m . l

§.

© Dunod – Toute reproduction non autorisée est un délit.

N.B. Même si m1 5 m2 5 m /2, ce système n'est pas équivalent à la file M/M/1. 7.4  l 5

1

6

h 2 1, m 5

2 l h 2 1  et m 5 . 3 4 1

Avec 2 méca­­ni­­ciens Soit Ek le nombre de machines en panne. Voici le graphe sim­­pli­­fié du pro­­ces­­sus de nais­­sance et de mort modé­­li­­sant cet ate­­lier :

519

Solutions

Ce pro­­ces­­sus étant fini et son graphe for­­te­­ment connexe, est for­­te­­ment ergodique (quelles que soient les valeurs rela­­tives de l et m). Il vient : 6l 30l 2 * 120l 3 * * p *1 5 m p *0 ; p *2 5 p ; p 5 p0 ; 3 2m 2 0 4m 3 p *4 5 Numé­­ri­­que­­ment : p *0 5

81

360l 4

p *0 ; p *5 5

8m 4

3 025

; p *1 5

324

3 025

p *5 5

720l 5 16m 5

; p *2 5

480

p *0 ; p *6 5

540

3 025

; p *6 5

720l 3 36m 6

p *0 .

; p *3 5 p *4 5

160

3 025 3 025 Le nombre moyen de machines en état de marche est :

720

3 025

;

.

m ( 2 ) 5 6 # p *0 1 5 # p *1 1 4 # p *2 1 3 # p *3 1 2 # p *4 1 1 # p *5 5 2, 759.

Avec 3 méca­­ni­­ciens :

Un cal­­cul ana­­logue four­­nit : m ( 3 ) 5 3, 381.

On remarque que le nombre moyen de machines opé­­ra­­tion­­nelles croît sen­­si­­ble­­ment (+20 %) quand on passe de deux à trois méca­­ni­­ciens : il s’amé­­liore encore (de +5 %) si l’on passe de trois à quatre méca­­ni­­ciens. Au-­­­delà, les amé­­lio­­ra­­tions sont mar­­gi­­nales. Pour opti­­mi­­ser le nombre de méca­­ni­­ciens il fau­­drait connaître le manque à gagner horaire pro­­vo­­qué par une machine en panne ainsi que le coût horaire (salaire + charges) d’un méca­­ni­­cien. 7.5  1)  l = 3 arri­­vées/h ; m = 4 consul­­ta­­tions/h. En sup­­po­­sant la salle d’attente suf­­fi­­sam­­ment vaste, on peut modé­­li­­ser ce cabi­­net médi­­cal par n 3 l l une file M/M/1. Alors tf 5 5 d’heure et p *n 5 a m b # p *0 ; d’où : 4 m (m 2 l ) p *0 5 0,25 ; p *1 5 0,19 ; p *2 5 0,14 ; p *3 5 0,11 ; p *4 5 0,08 ; p *5 5 0,06.

2) P 3 Tf . t 4 5 520

l 2 (m 2 l ) t e . mµ



Avec 4 méca­­ni­­ciens, puis 5, puis 6 : On trouve : m ( 4 ) 5 3,563 ; m ( 5 ) 5 3,597 ; m ( 6 ) 5 3,600

Solu­­tions des exer­­cices du cha­­pitre 7

Pour t = 1 heure, cette pro­­ba­­bi­­lité vaut 0,276 ; pour t = 2 heures, elle vaut 0,101 : 10 % des patients attendent en moyenne plus de deux heures : c’est énorme. Ils méritent bien d’être appelés « patients » ! 60

5 2,4 arri­­vées par heure, m étant inchangé ; trf 5 22,5 minutes  : 25 l’attente moyenne est moi­­tié moindre... mais le méde­­cin reçoit moins de patients ; d’ailleurs la pro­­ba­­bi­­lité qu’il soit inoc­­cupé passe de p *0 5 0, 25 à p 0r* 5 0,4 ; autre­­ment dit il n’est plus occupé que 36 minutes par heure (au lieu de 45) et un patient arrivant aura une attente nulle avec la probabilité 0,4. 3)  a)  Alors lr 5

lr b)  En résol­­vant m e 2 (m 2 lr)t 5 0,1, on trouve t = 68 mn. : irréaliste. 4)  a) On a alors une file M/M/2 :

n21 l * l l * * # p *1 pour n > 2. 5 m p0 ; p2 5 p 1 et p n 5 a b 2m 2m En expri­­mant toutes les pro­­ba­­bi­­li­­tés en fonc­­tion de p *1 (plu­­tôt que de p *0), il vient :

p *1

2

p*1 # £

m l

1 °1 1

l 2m

1 °

l 2m

La série géo­­mé­­trique est conver­­gente pour p *1 5 1^ £

Numé­­ri­­que­­ment :

¢ 1 ° l

2m

l 2m

¢ 1 c¢ § 5 1

, 1, ce qui est véri­­fié ici :

3

8

, 1. D’où :

m 1 §. 1 l 1 2 l /2m

5 0,45 ; p *1 5 0,34 ; p *2 5 0,13 ; p *3 5 0,05 11 trf s’obtient en fai­­sant S = 2 dans la for­­mule don­­nant l’attente moyenne pour la file M/M/S : p *0 5

© Dunod – Toute reproduction non autorisée est un délit.

5

3

Il vient : trf 5 2,28 mn a5

l trf 5 a m b

9

220

S

1

S! S m ( 1 2 l /Sm ) 2

p *0.

hb.

P 3 Tf . t 4 5 P 3 Tf . 0 4 # e 2 (mS 2 l)t où :

n ` 1 l * # P3 Tf . 0 4 5 a p n 5 a m b # p *0 5 S m # ( 1 2 l /Sm ) # tf. ( 1 2 l /Sm) S! n5S

521

Solutions

Pour S = 2 et t = 1 heure, il vient : 3 9 9 P 3 T f . 0 4 5 8 a1 2 b 5 8 220 44

et P 3 T f . 1 4 5

9

44

# e 2 5 5 0,0014 : pro­­ba­­bi­­lité négli­­geable.

b) l s 5 6 arri­­vées par heure ; p *0 5 2

m /l s cm /l s 1 1/ ( 1 2 l s/2m ) d

5

1 7

6 1 # 1 5 9 h , soit 19,29 mn . ts f 5 a b 4 16 ( 1/4 ) 2 7 28

La pro­­ba­­bi­­lité d’attendre plus d’une heure est alors : 6 9 P 3 T f . 1 4 5 P 3 T f . 0 4 # e 2 2 5 8a1 2 b # # e 2 2 5 0,087. 8 28

c) On veut réa­­li­­ser tf
2, soit :

k

# p *0 5 4 # a l b # p *0 2m

2

l 2m

1 2 c /2

1 °

¢ 1 c¢ § , car :  1  = a p *k . 2m

¢§ 5

`

l

k 50

22c

2 1 c 1 c2

.

d 5 0 # p *0 1 1 # ( p *1 1 p *2 ) 1 2 # ( p *3 1 p *4 1 p *5 1 c) 5 ( p *1 1 p *2 ) 1 2 3 1 2 ( p *0 1 p *1 1 p *2 ) 4 5 2 2 2p *0 2 p *1 2 p *2 2 ( 2 1 c 1 c 2 ) 2 ( 2 1 c 1 c 2 )( 2 2 c ) 2c 1 c 2 1 c 3 d5 5 5 c  : 2 1 c 1 c2 2 1 c 1 c2

3)  a)

résul­­tat simple, bien connu pour la file M/M/S : cf son interprétation en 3) b). b) En régime per­­manent, le taux des arri­­vées des voi­­tures à la douane (soit l) est égal au taux de départ des voi­­tures contrô­­lées ; celui-­­­ci est égal au nombre moyen de doua­­niers actifs ( d ) , mul­­ti­­plié par le taux de contrôle de chaque doua­­nier (m) : l 5 d # m ,  soit c 5 d .

Il s’agit d’une file M/M/1/5. Le pro­­ces­­sus est for­­te­­ment ergodique car il a un nombre fini d’états et son graphe est for­­te­­ment connexe. k l 0 # l 1 # l 2 # c # l k 21 l * * # 2) p k 5 p 0 5 a m b # p *0 m 1 # m 2 # m 3 # c# m k  

© Dunod – Toute reproduction non autorisée est un délit.

7.7  1)  Etat Ek : k jobs pré­­sents (un en trai­­te­­ment, k – 1 en attente si k > 1 ). Ici une nais­­ sance est l’arri­­vée d’un job et une mort, la fin de trai­­te­­ment d’un job.

La somme des pro­­ba­­bi­­li­­tés des états est égale à 1 :

p *0

l # c1 1 m

l

5

1 a m b d 5 1 , soit p *0 :

l 1 2 am b l 12 m

6

5 1 # ( s i l Z m) .

523

Solutions 6

l l 1 et p 5 ° 1 2 m ¢ ^ £ 1 2 ° m ¢ § ( si l 5 m , on aurait p *0 5 . ) 6 * 0

l 3)  A.N.  l = 24 arri­­vées/mn  ;  m = 30 trai­­te­­ments/mn  ;  m 5 0,8 .

D’où  : p *0 5 0,271 et U 5 1 2 p *0 5 0,729. Le temps moyen d’U.C. perdu par heure est 0,271 3 1 h, soit 16mn 16s par heure. Le déchet  :  r 5 1440 # p *5  (en effet il arrive 24 3 60 = 1 440 jobs par heure refu­­sés dans la pro­­por­­tion égale à p *5), soit r 5 127 jobs refu­­sés par heure, en moyenne. Notons que l ( 1 2 p *5 ) est le taux de jobs accep­­tés dans le sys­­tème ; m est le débit maximal du sys­­tème et m # U est le débit réel du sys­­tème (U étant la pro­­ba­­bi­­lité que l’U.C. soit active). En régime per­­manent le taux des entrées dans le sys­­tème, soit l ( 1 2 p *5 ) est égal au taux des sor­­ties du sys­­tème, soit U # m. On peut véri­­fier algé­­bri­­que­­ment la rela­­tion l ( 1 2 p *5 ) 5 m # U  comme suit : l Posons a 5 m , ceci revient à véri­­fier que : l 12a 12a 5# S 012 . m C1 2 a 6 12a 1 2 a6 Soit a 3 ( 1 2 a 6 ) 2 ( a 5 2 a 6 ) 4 0 3 1 2 a 6 2 ( 1 2 a ) 4   : cette éga­­lité est véri­­fiée puisque chaque membre est égal à α – α6. 4)  a) Si l’on double la mémoire de réserve, on peut modé­­li­­ser le sys­­tème par la file M/M/1/9 ; les dix états sont : Ek (k = 0, 1, c, 9), Ek étant asso­­cié à k jobs pré­­sents dans le sys­­tème. 1 2 l /m

5 0,224 ; le déchet devient  : rr1 5 1440 # p *9 5 43,3 jobs 1 2 ( l /m ) 10 refu­­sés par heure ; l’uti­­li­­sation du pro­­ces­­seur est alors Ur1 5 1 2 p *0 5 0,776. Alors p *0 5

b) On a la file M/M/2/6 : le graphe sim­­pli­­fié du pro­­ces­­sus de nais­­sance et de mort asso­­cié est le sui­­vant :

k21

p*k 5 °

524

l 2m

¢

# p *1

et  p*0 5

m l

# p*1.

Solu­­tions des exer­­cices du cha­­pitre 7 2

6

5

m l l * * # c1 ° l ¢ ¢ § 5 1. a p k 5 1 entraîne : p1 £ l 1 ° 1 1 2m 1 ° 2m ¢ 1 2m k 50 Soit

p *1

# £m l

1

1 2 ( l /2m ) 6 1 2 l /2m

§ 5 1 , d’où :

p *1 5 0,3437 , p *0 5 0,4296 et p *6 5 0,0035 .

Le déchet est rr2 5 1440 # p *6 . 5 jobs/h. L’uti­­li­­sation des pro­­ces­­seurs est : Ur2 5 0 # p *0 1 1 # p *1 1 2 ( p *2 1 c1 p *6 ) 5 p *1 1 2 ( 1 2 p *0 2 p *1 )  , soit Ur2 5 0,7971. Le déchet est net­­te­­ment plus faible avec cette seconde archi­­tec­­ture ; mais elle est plus chère que la pré­­cé­­dente. Ur2 est voi­­sin de Ur1, car la charge glo­­bale de tra­­vail est voi­­sine dans cha­­cun des deux cas. 5)  a) On a la file M/M/2/10. 1 2 ( l /2m ) 10 m m À nou­­veau : p *1 5 1^ £ l 1 § et p *0 5 l 1 2 ( l /2m )

# p *1 .

p *1 5 0,3429 , p *0 5 0,4286 et p *10 5 0,00009 ; le déchet rs est très faible : rs 5 0,13 jobs/h .

© Dunod – Toute reproduction non autorisée est un délit.

L’uti­­li­­sation des pro­­ces­­seurs est Us 5 p *1 1 2 ( 1 2 p *0 2 p *1 ) 5 0,7999  : valeur très voi­­sine de 0,8 : la valeur maximale. b) En effet, avec une mémoire illi­­mi­­tée, on a la file M/M/2 (/∞) qui admet un régime per­­ l l , 1 (véri­­fié ici, car manent si 5 0,4). Alors le déchet est nul : rt 5 0. On obtient : 2m 2m m p*1 5 1^ £ l 1

1 1 2 ( l /2m )

§ e t p *0 5

15 m * 12 p . Soit : p *1 5 e t p *0 5 . D’où : l 1 35 35

Ut 5

28

35

5 0,8.

En régime per­­manent le taux des entrées dans le sys­­tème (ici égal aux taux l des arri­­vées, car il n’y a plus de déchet) est égal au taux des sor­­ties du sys­­tème ; celui-­­­ci est égal au nombre moyen de pro­­ces­­seurs actifs, soit Ut, mul­­ti­­plié par le taux de ser­­vice de chaque pro­­ces­­seur, soit m. D’où : l l 5 Ut # m et Ut 5 m 5 0,8.

525

Solutions

Solu­­tions des exer­­cices du cha­­pitre 8 8.1  1)  On note x1 (resp. x2) le nombre de ton­­neaux de bière blonde (resp. brune) fabri­­qués par le bras­­seur : 2,5x 1 1

7,5x 2
20 4 ( 2 r ) 1 3 12y2 1 8y3 > 20 4 ( 1r ) où ( 1r ) 5 4 3 ( 1 ) ; on a donc ( 2 ) 1 ( 1 ) puisque 12y2 1 8y3 > 10y2 1 5y3 > 20. 3 3y 2 1 y 3 > 3 4 ( 3 ) 1 3 3y 2 1 12y 3 > 3 4 ( 4r ) , où ( 4r ) 5 3 3 ( 4 ) . Donc ( 3 ) 1 ( 4 ) 3 3 ( 2 )     1 3 6y2 1 3y3 > 13 4 ( 2 r ) 1 3 12y2 1 4y3 > 12 4 ( 3 r ) ; où ( 3 r ) 5 4 3 ( 3 ) . Donc ( 2 ) 1 ( 3 ) On a donc : ( 2 ) 1 ( 1 ) et, par transitivité, ( 2 ) 1 ( 3 ) et ( 2 ) 1 ( 4 ). Ainsi les contraintes (1), (3) et (4) sont redondantes. La solution ( y1 5 0 ; y2 5 2 ; y3 5 0 ) , pour minimiser : Zr 5 12y1 1 5y2 1 7y3 est alors évidente au sommet A, où Z' = 10. y3

4

B

�dual 3 Z� � 28

© Dunod – Toute reproduction non autorisée est un délit.

2,5

2 Z� � 21 (2) 1

(1)

Z� � 14

(3) 1/4 0

(4)

y2

A 1

5/3

2 Z� � 10

545

Solutions

On remarque que les contraintes dominées : (1), (3) et (4) sont représentées par des segments de droite situés au dessous de BA qui est associé à la contrainte (2) plus contraignante que les trois autres. 8.4  1) Les équa­­tions et in­­­équa­­tions expri­­mant ce pro­­blème s’écrivent :

7x1 1 5x2 1 2x3 250

2,2


1

2

x2

1

x1

>

7

2

x2

2

4 1

2 7 6

et l’on voit que ( 3 r ) entraîne ( 2 r ) , car :

x2

3

2

x3 4  3x3 4 x3 3 3 x3 20 1 x3 5

1

 7x3

( 1r ) (2 r ) (3 r ) ( 4r ) ( 5r ) ( 6r )

13 4 4 x 1 < £4 2 2x 2 2 x 3§ , £4 2 2x 2 2 x 3§ 1 a2 1 x 3 b 5 6 2 2x 2 1 3x 3 ; 3 3 3

l’in­­­équa­­tion stricte , est vraie car x 3 > 0 et donc a2 1

13

x 3 b est positif. 3 Pour éliminer x1 on écrit que chacun de ses majorants (cf 2ʹ et 3ʹ) est supérieur à chacun de ses minorants. 2)  Lorsque l’on a sup­­primé ( 2 r ) , on peut écrire que le second membre de ( 3 r ) , borne supé­­ rieure de x1 , est supé­­rieur ou égal au second membre des inéga­­li­­tés ( 1r ) , ( 4r ) , ( 5r ) et ( 6r ) . Ainsi x1 est « éliminé » : 3 3 4 x2 2 23 1 x 3 < 4 2 2x 2 2 x3 4 3 5 3 3 4 23 2 x2 1 x 3 < 4 2 2x 2 2 x3 4 20 3 g 1 1 4   x 3 < 4 2 2x 2 2 1 2 x2 1 x3 2 3 5 7 4 x 2 2 7x 3 < 4 2 2x 2 2 7 2 x3 , 3 6 ce qui four­­nit :

13

x2 1

5 5 x2 4 h 3 x2 2 5 x2 6 552

1 1 2

7

12 89

60 23 15 17 3

x3 < 7

( 1s )

x3 < 7

( 2s )

x3 < 3

( 3s )



x 3 < 23 ( 4s ) .

Solu­­tions des exer­­cices du cha­­pitre 8

On constate sans peine que ( 3s ) entraîne ( 2s )  ; car

3

5

3 d

2

5

6

x2 1 x2 2

23 15

17 3

3

x3


et

23

89

en mul­­ti­­pliant 15 60 21 39 161 21 ( 1s ) par 3 et ( 3s ) par 7, on voit que ( 3s ) entraîne aussi ( 1s ) car et . . . 2 12 15 5 3) Il reste donc : 2

.

45

.

23

2

17

1

9

45

46 5

34

x2 x 2.

L'élimination de x3 conduit à : 9

17

1

5

34

x2
23 1 x 3 ; x 1 > 1 1 x 3 ; x 1 > 7 2 x 3 . 4 3 20 5 La pre­­mière est tou­­jours véri­­fiée, ainsi que la troi­­sième, puisque l’on connaît des bornes 9 45 de x3 : x3 ≤ et x 3 > . 17 23 De la deuxième et l’avant-­­­dernière, on tire : 94

© Dunod – Toute reproduction non autorisée est un délit.

Mais, de plus, on a :

d’où :

85

< x1
1 2 x1 et x1 > 1 1 a1 2 x1 b , 7 7 5 x1 >

7

. 6 Comme on doit minimi­­ser x1, on pren­­dra la plus petite borne pos­­sible dans l’inter­­valle 7 56 5 7 B , R, soit , puis x3 5 , qui est éga­­le­­ment la plus petite valeur pos­­sible, compte tenu 6 17 6 6 de la valeur impo­­sée à x1 :

553

Solutions

Fina­­le­­ment : x *1 5

7

6

5 1 x3 > 1 2 x1 5 . 7 6 ; x *2 5 0 ; x *3 5

5

6

et min F 5 x*1 1 x*2 1 x*3 5 2 .

8.7  Dans 215 cm, on peut dis­­po­­ser : 2  deux fois la lar­­geur A, avec une chute : 215 2 2 × 95 5 25 cm ; 2  une fois A et une fois B, avec une chute : 215 2 (95 1 84) 5 36 cm ; 2  une fois A et deux fois C, avec une chute : 215 2 (95 1 2 × 60) 5 0 : pas de chute ; 2  il n’est donc pas inté­­res­­sant de consi­­dé­­rer seulement une fois A et une fois C ; 2  deux fois B, ce qui donne une chute de 215 2 2 × 84 5 47 cm ; 2  deux fois B et deux fois C, ce qui donne une chute de 215 2 (84 1 2 × 60) 5 11 cm ; 2  trois fois C, ce qui donne une chute de 215 2 (3 × 60) 5 35 cm. En résumé :

Plan

« Chute » ou perte

de coupe

j 1 2

AA AB

(en cm)

Longueur découpée selon ce plan

25 36

x1 x2 x3

3 4

ACC BB

0 47

5 6

BCC

11

x5

CCC

35

x6

x4

On a noté xj, la lon­­gueur de rou­­leau décou­­pée sui­­vant le plan de coupe j. 2x1

1

x2

1

x2 e

x1

,

x2

x3 1

,

2x3 x3

2x4

1 1

,

x4

,

x5

2x5 x5

1

,

3x6 x6

> 180 (A) > 90 (B) > 90   (C) > 0

min 25x1 1 36x2 1 0x3 1 47x4 1 11x5 1 35x6 5

z

(« coût ») ;

On peut satis­­faire (A) à coût nul, en pre­­nant x3 5 180 ; alors (C) est satis­­faite. Le « moins cher » pour satis­­faire (B) est de prendre x5 5 90, car x5 a le plus petit coût parmi les variables figu­­rant dans B. Dans la suite on retranche une variable d’écart à chacune des trois contraintes ci-dessus : x 1 dans (A), x 2 dans (B) et x 3 dans (C).

554

Solu­­tions des exer­­cices du cha­­pitre 8

Ce rai­­son­­ne­­ment reste valable si, au lieu de prendre x3 5 180, on prend x3 > 180 : cela vient du fait que les lon­­gueurs décou­­pées en excé­­dent de la com­­mande, ne sont pas consi­­dé­­ rées comme des chutes (mais uti­­li­­sées pour des com­­mandes ulté­­rieures...). La solu­­tion géné­­rale est donc : b

#

B

1 0

£0 1

0



2 2 21

xB

x5 5 90

£0 1 2 0 0 0 0 3

1

x3

5

u >0

2 1 0 0 21

£ x5 §

21

z 5 990

N

1

x3

#

dét B 5 21,  B

x3 5 180 1 u

1 dét B

21

xN x1 x2

0

#

0 21 § 0 0

1 0

0 0

#

F

x4

x6 V x1

5

b

180

5 £ 90 § . 90

x2

0

° 0 21 0 ¢ 5 ° 0 1 0¢. 22 22 1 2 2 21

Remarque.  Ici on a B 2 1 5 B, mais c’est une coïn­­ci­­dence ! (B est une matrice « involutive »). Mul­­ti­­plions à gauche par B21 ; il vient : xB 1 B 2 1 # N # xN 5 B 2 1 # b : x1

x3

2 1 0

C x5 S 1 C 0 1 2 x3

0 21 0

0

0 21 S

4 4 4 23 22 22

Pas­­sons à la fonc­­tion éco­­no­­mique :

x2

#

180 x4 F V 5 C 90 S . x6 450 x 1

x2

© Dunod – Toute reproduction non autorisée est un délit.

Z r 5 cB # xB 1 cN # xN , or xB 5 B 2 1 # b 2 B 2 1 # N # xN

Z r 5 ( cB # B 2 1 ) # b 1 ( cN 2 cB # B 2 1 # N ) xN 5 Z 1 DN # xN . 3 5 5 1 2 4 6 1 2 Ici : cB 5 ( 0, 211, 0 ) et cN 5 ( 225, 236, 247, 235, 0, 0 ) . D’où : 180

Zr 5 3 0, 211, 0 4 # C 90 S 450

1 (voir en page suivante)

555

Solutions

x1

° 3 225, 236, 247, 2350, 0, 0 4 2 3 0, 211, 0 4

2 1 0

0 21

# C0 1 2

0

x2

0

0 21 S ¢

4 4 4 23 22 22

x

# F 4V x 6

x1

x2

Z r 5 2990 1 ( 3 225, 236, 247, 235, 0, 0 4 1 3 0, 11, 22, 0, 0, 211 4) # xN , soit : Zr 5 2990 2 25x1 2 25x2 2 25x4 2 35x6 ) 1 0x1 2 11x2. Le tableau asso­­cié est le sui­­vant : ci

i

1

2

3

4

5

6

1

2

3

0

x3

2

1

1

0

0

0

1

0

0

180

11

x5

0

1

0

2

1

0

0

1

0

90

0

x

4

4

0

4

0

3

2

2

1

270

0

25

0

35

0

11

0

3

25 25

c e Puisque D1 5 0 (et x 1 hors base), en fai­­sant entrer x 1 dans la base on obtien­­drait une solu­­ tion équi­­va­­lente ; mais les coef­­fi­­cients de la colonne 1 sont tous néga­­tifs ou nuls : la solu­­tion est alors reje­­tée à l’infini : ceci est dû à la chute nulle pour le plan de coupe 3 : ACC. L’énoncé du pro­­blème est cri­­ti­­quable ; on pour­­rait le com­­plé­­ter en exi­­geant de ne pas décou­­ per plus de 20 % en excé­­dent de chaque com­­mande. L’intro­­duc­­tion de x 1 en base conduit à poser x 1 5 u > 0 ; il vient : x3 5 180 1 u

c x5

5 90

(avec u > 0) et Z 5 2Zr 5 990.

x3 5 270 1 2u On retrouve ainsi la forme géné­­rale des solu­­tions, obte­­nue par un rai­­son­­ne­­ment direct, plus haut. 8.8  1)  On vérifie d’abord que la solution proposée est “admissible” : elle vérifie bien les contraintes. La solu­­tion pro­­po­­sée com­­porte m 5 3 variables posi­­tives : x2, x3 et x5. Véri­­fions que la matrice B asso­­ciée est régu­­lière (B est for­­mée des colonnes 2, 3 et 5), donc que son déter­­mi­­nant est non nul : 1 21 0 dét B 5 † 1 7

2)  Rap­­pe­­lons que B 2 1 5 556

1

dét B

3 1† 5 1 0 2

# B matrice transposée R. des cofacteurs

Solu­­tions des exer­­cices du cha­­pitre 8

On pour­­rait aussi cal­­cu­­ler B21 en résol­­vant le sys­­tème lit­­té­­ral de 3 équa­­tions à 3 inconnues : x a x 2 y 5 a B # £ y S 5 C b S soit c x

1 3y 1

z

5 b

z c 7x 1 2z 5 c On exprime alors x, y et z en fonc­­tion de a, b, c. Or : a x Cy S 5 B21 # CbS c z Ainsi dans l’expres­­sion obte­­nue de x, y et z, les coef­­fi­­cients sur a, b et c sont ils les coef­­ fi­­cients de B 21. On trouve : B

21

6 5

5 £

2 21 2 21 § .

221 27 4 L’expres­­sion des variables de base en fonc­­tion des variables hors-­­­base s’écrit matriciellement : 1 4 1 1

xB 5 B 2 1 # b 2 B 2 1 # N # xN , où N 5 C 3 3 S ; d’où : 2 1

xB 5 B 21 # b 2 B 21 # N x2

2

C x3 S 5 C 1 S 2 C x5

3

10

11

# xN x1

6

2 21

1 1

10 S # B R car B 2 1 # N 5 C 5 2 21 S # C 3 3 S x4 221 27 4 2 1 234 238 9

x2 5 2 2 10x1 2 11x4

© Dunod – Toute reproduction non autorisée est un délit.

Soit : c x3 5 1 2

9x1

2

10x4

x5 5 3 1 34x1 1 38x4 3)  En rem­­pla­­çant dans Ζ les variables hors base par leur expres­­sion ci-­­­dessus, il vient : Ζ 5 23 1 62x1 1 70x4. Puisque D1 5 62 et D4 5 70 sont posi­­tifs, la solu­­tion de base cou­­rante n’est pas opti­­male. 4)  Voici le tableau cor­­res­­pon­­dant à cette solu­­tion de base :

557

Solutions

s

d

x1

x2

x3

x4

x5



i / ie

x2

10

1

0

11

0

2

2/11

x3

9

0

1

10

0

1

x5

34

0

0

38

1

3

1/10 * 0

62

0

0

70

0

Z  23

c e

En fai­­sant entrer x4 en base (d’après le 1er cri­­tère de Dantzig), x3 sort de la base. La nou­­ velle base ainsi obte­­nue est opti­­male : x1

x2

x3

x4

x5

x2

0,1

1

1,1

0

0

0,9

x4

0,9

0

0,1

1

0

0,1

x5

0,2

0

3,8

0

1

6,8

1

0

7

0

0

Z  30

La solu­­tion opti­­male est : x1 5 0 ,  x2 5 0,9 ,  x3 5 0 ,  x4 5 0,1 ,  x5 5 6,8 et Ζ 5 30. 8.9  1)  La solu­­tion opti­­male de PL2 est x *2 5 100 , x *1 5 0 , Z *2 5 100. Elle est obte­­nue après 3 ité­­ra­­tions (si l’on applique le pre­­mier cri­­tère de Dantzig pour déter­­mi­­ner la variable entrante). Celle de PL3 est x *3 5 1002 , x *1 5 x *2 5 0 et Z*3 5 10 000 , obte­­nue après 7 ité­­ra­­ tions. 2)  La solu­­tion opti­­male de PLn est x *n 5 100n 2 1 ; x *1 5 x *2 5 c5 x *n 2 1 5 0 , obte­­nue après 2n21 ité­­ra­­tions, avec Z*n 5 100n 2 1. 3)  En fai­­sant entrer en base ini­­tia­­le­­ment xn , c’est-­­­à-dire la variable qui a le coef­­fi­­cient Dj le plus PETIT posi­­tif (contrai­­re­­ment au 1er cri­­tère de Dantzig qui fait choi­­sir le Dj le plus GRAND posi­­tif), on obtient l’opti­­mum... en une seule ité­­ra­­tion ! et de xn. En effet la base opti­­male est for­­mée des variables x , x , c, x 1

2

L’expres­­sion de xn en fonc­­tion des variables hors base est : x n 5 100

n21

n21

n21

n21

2

a2 # a 10n 2 j # x j b j51

2 xn

Expri­­mons alors Z 5 a 10n 2 j # xj 1 xn , en fonc­­tion des variables hors base : x1, x2, c, xn 2 1 et x n . j51 n21

Il vient : Z 5 2 a 10n 2 j # x j 2 x n 1 100n 2 1 j51

Ainsi Dj 5 210n 2 j pour j 5 1, 2, c, n 2 1 et Dj 5 21 pour j 5 n. Les Dj des variables hors base étant néga­­tifs, on est bien à l’opti­­mum de PLn. 558

Solu­­tions des exer­­cices du cha­­pitre 9

Solu­­tions des exer­­cices du cha­­pitre 9 9.1  1)  Les mini­­mums en ligne sont 3, 27 et 22 ; le maximin est 3 (= a12). Les maxi­­mums en colonne sont 6, 3, 5 et 4 ; le mini­­­max est 3 (= a12). Ce jeu com­­porte un point-­­­selle : a12 = 3 (on véri­­fie que cet élé­­ment est le plus petit dans sa ligne et le plus grand dans sa colonne). La valeur du jeu est donc g = 3. A  a inté­­rêt à tou­­jours jouer la ligne du maximin, donc sa stra­­té­­gie 1. B  a inté­­rêt à tou­­jours jouer la colonne du mini­­­max, donc sa stra­­té­­gie 2. 2)  Le jeu com­­porte quatre points-­­­selle : a12 = a14 = a32 = a34 = 3. Dans le cas de points-­­­selle mul­­tiples, ceux-­­­ci sont dis­­po­­sés comme les som­­mets d’un qua­­drillage. On montre que si n lignes et m colonnes com­­portent des points-­­­selle, le tableau com­­portent m 3 n points­­selle. Le joueur A a inté­­rêt à jouer chaque ligne com­­por­­tant un point-­­­selle avec la fré­­quence 1 1 1 1  (ici :  ) et B chaque colonne com­­por­­tant un point-­­­selle avec la fré­­quence (ici : ) . m n 2 2 9.2  1) 

On s’aper­­çoit tout de suite que la troi­­ sième colonne cor­­res­­pond à une stra­­té­­gie réces­­sive ; en effet en la comparant avec la première colonne :

B

A

q1

q2

q3

p1

2

1

3

p2

2

3

1

p3

1

0

2

3 . 2 ; 21 . 22 ; 2 . 21. Par suite q3 = 0. B

© Dunod – Toute reproduction non autorisée est un délit.

Il suf­­fira donc de résoudre le jeu réduit ci contre : ­­­ Or maximin 5 21 , mini­­­max = 2 : ce jeu est sans A point-­­­selle. 2)  Le programme, pour B, est : min g 2q1 2 q2 < g

Bf

22q1

1 3q2

2q1

q1 q1

maximin

q1

q2

p1

2

21

21

p2

22

3

22

p3

21

0

21

2

3

minimax

< g < g

1

,

q2 q2

5 1 > 0

Comme : q1 + q2 = 1, on rem­­pla­­cera q2 par 1 – q1 dans les in­­­équa­­tions pré­­cé­­dentes, d’où : 2q1

Bd

2 2q1

2 1

( 1 2 q1 )

3 ( 1 2 q1 )

2 q1

0


>

3

2

1

2

4p1 1 c

24p1

> > 2

5

2

5

2

Solu­­tions des exer­­cices du cha­­pitre 9

5 5 p1 >   et  p < , 8 8

d’où : soit :

p1 5

On a alors :

p2 5 5

5

8

,

8

.

3

3 ; p2 5 ; p3 5 0 . 8 8 Le fait que p3 = 0 ne signi­­fie pas, ici, qu’il y a une domi­­nance en ligne : on ne peut pas dire que la ligne 1 ou bien la ligne 2 domine la ligne 3. Cepen­­dant si l’on fait la com­­bi­­nai­­son 1 1 linéaire : 3 ligne 1 1 3 ligne 2 , après sup­­pres­­sion de la colonne 3 (qui est une stra­­té­­gie 2 2 réces­­sive), on trouve : 0  1  . Cette nou­­velle ligne domine la ligne 3 res­­tante, soit : 21, 0  . p1 5

Ainsi :

9.3 1) Première méthode de résolution Écri­­vons le pro­­gramme rela­­tif au joueur Β : 2q1 1 3q2 2 2q3 2 q4 < g 2q1

Syst. I e 2q1 q1

1 2 1

,

q1

5q2 1 4q3 2 2q4 < g 5q2 q2

1

,

q2

q3

q3

1 3q4 1

,

q4

q4

B

5 1

> 0

A

et rem­­pla­­çons q4 par 1 – q1 – q2 – q3 . On obtient : 1

q2

1

q3

3q1

1 4q2

2

q3

2 1 < g

2 8q2

2 3q3

1 3 < g

© Dunod – Toute reproduction non autorisée est un délit.

2q1

q1

1 7q2

1 6q3

,

,

q2

q3

q2

q3

q4

p1

2

3

2

1

p2

1

5

4

2

p3

2

5

0

3

< 1 ( 3 q4 5 1 2 q1 2 q2 2 q3 > 0 )

q1 e q1

q1

< g

2 2 < g

> 0

Pour la réso­­lu­­tion, nous omet­­trons la pre­­mière contrainte, pour la véri­­fier seule­­ment a pos­­te­­riori (en relâ­­chant cette contrainte, on pour­­rait avoir à l’opti­­mum q1 1 q2 1 q3 . 1, ce qui impli­­que­­rait que q4 serait... néga­­tif ; comme nous le ver­­rons ce n’est pas le cas ici, avec le tableau du jeu ci-­­­dessus). Ajou­­tons les variables d’écart q5, q6 et q7, non-­­­négatives ; il vient : 3q1 c q1 2q1

1 4q2

1 7q2

2 8q2

2 1

q3

1

q5 2 1 5 g

6q3 1 q6 2 2 5 g

2 3q3

1 q7

1 3

5 g

d’où, en sous­­trayant la der­­nière équa­­tion des deux pre­­mières : 561

Solutions

b

4q1 1 12q2 1 2q3 1 q5 2 q7 2 4 5 0 2q1 1 15q2 1 9q3 1 q6 2 q7 2 5 5 0.

On aura donc à résoudre le pro­­gramme linéaire : 4q1 1 12q2 1 2q3 1

c

2q1 1 15q2 1 9q3 1 3 min 2q1 2 8q2 2 3q3 1

q5

2 q7

q6

2 q7

5 4 5 5

5 g23

q7 4

Il revient au même de chercher le maxi­­mum de Ζ = [q1 + 8q2 + 3q3 – q7] sous les mêmes contraintes, qui est l’opposé de g – 3. La méthode des tableaux donne (notez l’absence d’une colonne 4 : q4 a été substituée) :

"

s

1

2

3

1 5

2 6

3 7

5

4

12

2

1

0

1

4

4/12  1/3 *

6

2

15

9

0

1

1

5

5/15  1/3 *

cj

1

8

3

0

0

1

j

1

8 c e

3

0

0

1

ci

i

0 0

j

Z0

Noter l’égalité des deux rapports 4/12 et 5/15 : une dégénérescence de deuxième espèce (cf 8.3.2) va apparaître. ci

i

0

5

8

2

j

cj

1 36 15 2 15

2

1

8

1 15

0

*j 

d’où q2 5

1

3 1

0 1

3 78  15 9 15

1 5 1 0

3

0

27 15

0



2 6 12  15 1 15

3 7 3  15 1  15

0

1



8 15



et q1 = q3 = (q5 = q6 = q7) = 0 ; on voit donc que : q4 5

7 15 2

3

0 1 3

Z

8 3

(qui est bien posi­­tif !)

car Z 5 2 ( g 2 3 ) , c-à-d g 5 3 2 Z. 3 NB. On observe qu’à l’opti­­mum, la variable de base q5 est nulle : il s’agit d’une dégé­­né­­ res­­cence (de deuxième espèce). et que g 5

562

Solu­­tions des exer­­cices du cha­­pitre 9

Pour obte­­nir les valeurs de p1, p2 et p3, on pour­­rait résoudre le pro­­gramme : 2p1 2

p2 1 2p3 >

3p1 1 5p2 2 5p3 > Syst. II i22p1 1 4p2 2p1

2 2p2

p1 1 p1 ,

> 1 3p3

p2 1 p2 ,

>

p3 5 p3 >

1

3 1

3 1

3 1

3 1 0.

On pour­­rait aussi se ser­­vir du fait que q1 et q3 sont nuls, d’où la sim­­pli­­fi­­ca­­tion : 3p1 1 5p2 2 5p3 > e 2p1 2 2p2 1 3p3 > p1 1 p1 ,

p2 1 p2 ,

p3 5 p3 >

1

3 1

3 1 0.

On peut aussi, plus sim­­ple­­ment, uti­­li­­ser les prop­­rié­­tés de la dua­­lité. En reve­­nant au tableau 8 7 . ; p3 5 2D3* 5 opti­­mal, on voit que : p1 5 2D1* 5 0 ; p2 5 2D2* 5 15 15 Mais ce n’est qu’une solu­­tion de base. L’autre ap1 5

9

; p2 5

10

; p3 5

31

b serait four­­ 39 78 26 nie en fai­­sant sor­­tir de la base la variable 5 au lieu de la variable 6 lors de la 1ère itération ci-dessus. Tous les points de l’arête joignant les deux sommets associés à ces deux solutions de base sont des solu­­tions optimales.

© Dunod – Toute reproduction non autorisée est un délit.

Voici d’ailleurs le détail des deux ité­­ra­­tions (le premier tableau de la page précédente est inchangé : il suffit d’y cercler 12, le pivot cette fois, au lieu de 15) :

ci

i

8 s 0

1

2

3

5

6

7

2

1/3

1

1/6

1/12

6

3

0

13/2

5/4

0 1

1/12 1/4

cj

1

8

3

0

0

1

j

5/3

0

5/3

2/3

0

1/3

5

6

7

j



1/3 0 8 Z3

e

ci

i

8 3

1

2

3

2

16/39

1

0

3

6/13

0

1

1

8

3

0

0

j

cj j

1/39 7/78 1/26 5/26 2/13 1 0 0 3/26

1/3563 0

9/26 10/39 31/78 Z 

8

5/4

0 1

1/12 1/4

3

0

0

1

5/3

2/3

0

1/3

5

6

7

8

2

1/3

1

1/6

1/12

s 0

6

3

0

13/2

cj

1

8

j

5/3

0

Solutions



1/3 0 8 Z3

e

ci

i

8 3

1

2

3

2

16/39

1

0

3

6/13

0

1

cj

1

8

3

1/39 7/78 1/26 5/26 2/13 1 0 0

j

35/39

0

0

8 9/26 10/39 31/78 Z  3

j

1/3

3/26

0

Pour bien com­­prendre ce qui se passe, consi­­dé­­rons le tri­­angle PQR repré­­sen­­tant la par­­tie utile du plan p1 1 p2 1 p3 5 1, car c’est dans cette par­­tie du plan que se trouvent toutes les solu­­tions. 1 La trace du plan 2p1 2 p2 1 2p3 5 3 sur le plan PQR est CD. Comme il limite le demi-­­­espace fermé situé du côté opposé à l’ori­­gine par rap­­port à ce plan, la par­­tie conve­­nable de PQR est désor­­mais située à gauche de CD. La trace du plan ver­­ti­­cal 1 22p1 1 4p2 5 sur le plan PQR est 3 EF et la par­­tie utile du tri­­angle est à droite de EF.

1 1 Les traces des plans 3p1 1 5p2 2 5p3 5   et 2p1 2 2p2 1 3p3 5 sont confon­­dues et 3 3 consti­­tuées par le seg­­ment AB. Du fait que l’un des demi-­­­espaces fer­­més per­­mis serait vers le haut et l’autre vers le bas, les solu­­tions sont sur AB, dont la par­­tie à rete­­nir, compte tenu des limi­­ta­­tions appor­­tées ci-­­­dessus, est le seg­­ment AG. 8 7 Il n’y a donc que deux solu­­tions de base : l’une au point A ap1 5 0 ; p2 5 ; p3 5 b, 15 15 10 31 9 l’autre au point G ap1 5 ; p2 5 ; p3 5 b. 39 78 26

Les coor­­don­­nées de tous les points de l’arête AG (fer­­me­­ture convexe des som­­mets A et G) satis­­font aux rela­­tions du sys­­tème II. Posons u > 0, v > 0 avec u 1 v 5 1 La solution générale est : p1 5 0u 1

564

9

26

v, p2 5

8

15

u1

10

39

v, p3 5

7

15

u1

31 78

v.

Solu­­tions des exer­­cices du cha­­pitre 9

2)  Deuxième méthode de résolution On peut aussi résoudre, par la méthode de divi­­sion par la valeur du jeu (après s’être ramené à un jeu à valeur posi­­tive gr). L’avan­­tage en est que les deux pro­­grammes linéaires asso­­ciés aux joueurs A et Β sont en dua­­lité : on trans­­forme le pro­­blème en ajou­­tant 5 à tous les élé­­ments de la matrice du jeu, afin d’être cer­­tain d’avoir une valeur de jeu modi­­fié, gr, qui soit posi­­tive : gr 5 g 1 5 . 0. 1

5 qr1 1 qr2 1 qr3 1 qr4 : après avoir divisé tous les élé­­ments des gr lignes par gr, de sorte que, quel que soit i : qi qri 5 . gr On cherche alors max

7qr1 1

B

8qr2 1 3qr3 1 4qr4 < 1

4qr1 1 10qr2 1 9qr3 1 3qr4 < 1                 1 5qr3 1 8qr4 < 1 7qr1 1 3 max 4 Z r 5 qr1 1 qr2 1 qr3 1 qr4 5 gr

A

Syst. I f

7

8

3

4

4

10

9

3

7

0

5

8

jeu modifié

arij 5 aij 1 5

D’où après ajout des variables d’écart qr5, qr6 et qr7 :

s

1

2

3

4

5

6

7

0

5

7

8

3

4

1

0

0

1

0

6

4

10

9

3

0

1

0

1

0

7

7

0

5

8

0

0

1

1

1

1

1

1

0

0

0

Z 0



© Dunod – Toute reproduction non autorisée est un délit.

e

On obtient après une itération : 1

s

2

0

5

19/5

0

1

2

2/5

1

0

7

7

0

3/5

0

3

4

21/5 8/5 9/10 3/10 5

8

1/10 7/10 ↑

5

6

7

1

0

1/5

(1/5) / (8/5) = 1/8 *

0

4/5 1/10

0

1/10

(1/10) / (3/10) = 1/3

0

0

1

1

0

1/10

0

1

/

8

= 1/8 *

Z 1/10

e

565

Solutions

puis en faisant entrer la variable 4r en base, on a le choix de faire sortir 5r ou bien 7r. En choisissant 7r il vient l’optimum :

1

2

3

4

5

0

1

0

0

0

5

12/5

0

1

2

11/80

1

26/5 57/80

1

4

7/8

0

5/8

1

0

1/80

0

27/80

0

0

6

7 0

4/5 1/5 1/10 3/80 0

1/16

1/8

1/8 Z

1/10 7/80

3 16

g 163 

Comme pour la méthode uti­­li­­sée plus haut, on tombe sur une dégé­­né­­res­­cence de deuxième 7 1 espèce. Par dualité il vient : pr1 5 2D5 r 5 0 ; pr2 5 2D6 r 5 . Or : ; pr3 5 2D7 r 5 10 80 pi 16 1 # 5 8 , p3 5 16 # 7 5 7 . pri 5 , d’où : pi 5 gr # pri et : pi 5 0 , p2 5 3 10 3 80 15 15 gr En fai­­sant sortir de la base la variable 5r (au lieu de 7r) dans le tableau obtenu après une itération, il vient :

s

1

2

3

4

5 5/8

1

4

19/8

0

21/8

1

1

2

5/16

1

27/16

0

0

7

12

0

26

0

5

31/16

0

7/16

17/16 0

6

7 0

1/8

0

1/16

4

1

0

1/4

0

Z

1/2 3/16 1/4



3 16

e

et après une ité­­ra­­tion où l’on fait entrer en base 3 r et sortir 7r, il vient l’autre optimum :

1

4

1

2

1

3

1 121 104 97 208 6  13 35  208

566

2

3

4

0

0

1

1

0

0

0

1

0

0

0

0

5 6 7 25 21 5  208 52 208 1 27 57   416 104 416 2 1 5  26 13 26 

27 5 31   416 104 416

1 8 1 16 0 Z





16 3 g 3 16

Solu­­tions des exer­­cices du cha­­pitre 9

On retombe évi­­dem­­ment sur les deux solu­­tions de base optimales (déjà obtenues par la 1re méthode) : 1   q2 5

16 3

# 1 5 1 ; q4 5 16 # 1 5 2 ; q1 5 q3 5 0 ; (car qj 5 gr # qrj ). 16

p1 5 0 ; p2 5 g5 2   q2 5 p1 5

1 Zr

255

3

16 3

16 3

8

3

3

# 1 5 8 ; p3 5 16 # 7 5 7  : comme déjà vu plus haut. 10

2

15 3

3

15

5

1

80

15

.

3

16

# 1 5 1 ; q4 5 16 # 1 5 2 ; q1 5 q3 5 0 .

16

# 27 5 9 ; p2 5 16 # 5 5 10 ; p3 5 16 # 31 5 31 ;

3

3

16

3

3

8

416

26

3

104

3

39

3

416

78

car p1 5 gr # ( 2D5 ) , p2 5 gr # ( 2D6 ) et p3 5 gr # ( 2D7 ) , par dualité. On retrouve : g 5 gr 2 5 5

16 3

255

1

3

.

567

Bibliographie générale

Nous fournissons ici, outre les références bibliographiques citées tout au long de ce précis de recherche opérationnelle, une liste d’ouvrages dans lesquels le lecteur pourra approfondir les notions élémentaires de recherche opérationnelle que les auteurs se sont essayés de transmettre dans les différentes parties constituant ce document. Les références bibliographiques relatives aux chapitres 10, 11 et 12 sont situées à la fin de chacun de ces chapitres. R.K. Ahuja, T.L. Magnanti et J.B. Orlin, Networks Flows, Prentice Hall, 1993. A. Alj et R. Faure, Guide de la recherche opérationnelle, tome 1 : les fondements, 1986, tome 2 : les applications, Masson, 1997. C. Berge, Graphes, Dunod, 1983. V. Chvatal, Linear programming, Freeman, 1983. E. Cinlar, Introduction to stochastic process, Prentice Hall, 1975. T. Cormen, C. Leiserson, R. Rivest et C.  Stein, Introduction à l’algorithmique, Dunod, 2002. M.R. Garey and D.S. Johnson, Computers and intractability, a guide to the theory of NP-completeness, Freeman, 1979. M. Gondran et M. Minoux, Graphes et algorithmes, Tec et Doc, 2009. Groupe Gotha, Modèles et Algorithmes en Ordonnancement, Ellipses, 2004.

D.S. Hochbaum, Approximation algorithms for NP-hards, Problems, PWS Publishing Compagny, 1997. R. Jain, The art of computer systems performance analysis, Wiley, 1991. L. Kleinrock, Queueing systems, volume 1 : theory, volume 2 : computers applications, Wiley, 1976. M. Minoux, Programmation mathématique, théorie et algorithmes, 2 tomes, Tec et Doc, 2008. A. Pagès et M. Gondran, Fiabilité des systèmes, Eyrolles, 1980. Roseaux, Exercices et problèmes résolus de recherche opérationnelle, tome 1 : graphes, leurs usages, leurs algorithmes, 3e édition, 2005 ; tome 2 : phénomènes aléatoires en recherche opérationnelle, 2e édition, 2004 ; tome 3 : programmation linéaire et extensions, problèmes classiques, 3e édition, 2009, Dunod.

Index A absorbant 195 absorption 7, 15 accessibilité 81 actualisation 102 affectation 139 algèbre de Boole 9 algorithme(s) approché 52 de Bellman 113 de colo­­nies de four­­mis 415 de Dijkstra 111 de Ford 111 de Kruskal 146 de Prim 148 de Sollin 147 du recuit simulé 406 génétiques 412 anneau abélien 21 antisymétrique 2 apériodique 197 approvisionnements 239 arborescence 62, 73, 145 arbre 62, 145 de valeur minimale 146 arc arrière 97 associativité 7 atomes 10 avarie probabilité d’– 230, 239 taux d’– 234

B Balas-Hammer 157 base 326 Bellman 113 bin packing 169 Bland 314 Boole algèbre de 9 treillis de 9 borne

inférieure 6 supérieure 6 boucle(s) 6, 61 Busacker 136 Busacker-Gowen 137

C capacité 128 résiduelle 130 chaîne 5, 61 chaîne améliorante 130 Chapman-Kolmogorov 190, 198, 201 chemin(s) 5, 61 critique 119 de valeur minimale 105 hamiltonien 64 circuit hamiltonien 64, 163 classe(s) d’états transitoires 193 périodique 194 récurrentes 193 clauses 50 co-circuit 139 commutativité 7 complémenté 8 complet 62 complexité dans le cas moyen 46 dans le meilleur des cas 46 dans le pire des cas 46 composantes 62 connexes 62 fortement connexes 68 Concor­­dance 430 connexe 62 connexité 77 conservation 277 constituant premier 22 contraintes 297 du type cumulatif 115 du type disjonctif 115

du type potentiel 115 convexe 307 corps d’ensembles 10 coupe 132 minimale 134 coupes (théorème des –) 204 courbes « en baignoire » 234 coûts de substitution 164 Cramer 327, 340 cri­­tère 421 critère de Dantzig 315 cycle 62

D Dantzig (critère de –) 314 dégénérescence 321, 322 dépiler 86 descendants 66 Dijkstra (algorithme de –) 111 diagramme de Hasse 5 différence symétrique 10 Dis­­cor­­dance 432 disponibilité asymptotique D* 255 diversification 410 dominance 380, 383, 425 dual 334 dualité 342, 377 durée de vie moyenne 231, 232

E échantillonnage préférentiel 397 échéancier 386 Egervary 142 élément maximal 6 minimal 6 élémentaire 61

Index

empiler 86 entrée 66 entretien préventif 244 énumération implicite 33 équivalence 3 ergodicité 202 ergodique 195 Espace des déci­­sions 423 espace d’états 188 état(s) accessible 192 communicants 192 Euler-Venn 11 évaluation 170 événements 116

F Faure et Malgrange 163 méthode booléenne 31 fermeture transitive 65 fiabilité 229 de montages sérieparallèle 252 des systèmes réparables 257 d’un système en parallèle 251 d’un système en série 251 file(s) 82 d’attente 187, 270 M/M/1 272 M/M/S 278 flot 128 maximale à coût minimal 134 valeur d’un 128 flux 128 fonction caractéristique 19 d’évaluation 170 Ford (algorithme de –) 105 Ford et Fulkerson 130 Ford-Fulkerson (théorème de –) 133 forêt couvrante 73 forme canonique conjonctive 16 canonique disjonctive 17 570

normale 381 standard 307, 324 formules de Little 277 fortement ergodique 195, 203

G garantie de performance 169 générateur infinitésimal 199 génération de colonnes 355 Gomory 352 troncatures de – 355 Gowen 136 graphe d’écart 135 d’état 385 groupe abélien 21

H Hasse (diagramme de –) 5 hauteur(x) 91 heuristiques 401 heuristiques « gourmandes » 156 homogène 189 Howard (méthode de –) 261

I idempotence 7 implication 15 inclusion 16 intensification 410 intersection 12 involutive 11

J jeu à somme nulle 368

K knapsack 171, 352 König 142 Kruskal (algorithme de –) 146 Kuhn 142

L linéaire 297 Little (formules de –) 277 lognormale 248 loi de Kirchhoff 128 de Poisson 238 de Rayleigh-Maxwell 235 de survie 233 de Weibull 235 exponentielle 211 longueur 61

M majorant 7 marge libre 127 marges 116, 127 marge totale 127 matrice stochastique 189 matrice d’adjacence 62 maximin 372 maximum 6 maxterme 16 MDT (Mean Down Time) 256 métaheuristiques 55, 401 méthode(s) booléenne de Faure et Malgrange 31 de Howard 261 des deux phases 336 des potentiels 122 de voisinage 55 hongroise 141 intérieures 342 matricielle 109 PERT 117 révisée 340 minimax 372 minimum 6 minorant 7 minterme 16 monôme premier 22 Morgan 12 mortalité relative 230 MPM 122

Index

MTBF (Mean Time Between Failure) 235, 256 MTFF 234 MTTF 235 multi­­­cri­­tère à la déci­­sion 419 MUT (Mean Up Time) 256

N niveau d’aspiration 410 nombre de stabilité 102 noyau de synchronisation 386 NP-complets 50 NP-difficile 51

O ordonnancement 114 ordre 4 ordre topologique 113 ou exclusif 12

© Dunod – Toute reproduction non autorisée est un délit.

P parcours d’un graphe 70 en largeur 71, 82 en profondeur 71 partiel 5 partitionnement 353 périodicité 196 PERT 117 pièce(s) de fatigue 250 d’usure 250 pile 86 pivot 314, 316 point d’équilibre 372 selle 369 points d’aspi­­ra­­tion 438 Poisson 209 loi de – 238 polyèdre 305 convexe 305 polytope 305 postvisite 71, 79 préordre 3 prévisite 71, 79

Prim (algorithme de –) 148 Prin­­cipe de concor­­dance 430 Prin­­cipe de non dis­­cor­­dance 430 probabilité(s) d’avarie 230, 239 de consommation 237 des états 200 de transition 189 problème de décision 48 d’optimisation 48 processus D.H. (décision-hasard) 218 de mort 212 de naissance 208 de naissance et de mort 213 markovien 188 sans mémoire 188 stochastique 187, 188 produit logique 19 programmation dynamique 99 stochastique 216 programme(s) de transport 149 dual 342 primal 342 propriété « sans mémoire » 198 pseudo-aléatoires 387 pseudo-­­­critère 422 puits 128

Q quotient 3

R racine(s) 78, 145 rang 325 Rayleigh-Maxwell (loi de –) 235 récessive 380 recherche tabou 55, 408 recouvrement 352 recuit simulé 55, 404

réduction de variance 397 référentiel 11 réflexive 3 regrets 164 relation 1 binaire 1 d’exclusion 350 rela­­tion de sur­­­clas­­se­­ment 429 réseau de transport 128 Roy 136, 163

S sac à dos 170, 171 satisfiabilité 50 saturés 130 SEP 163 séparation 171 serveur 270 SES 163 simple 61 simplexe 306 simulation à événements discrets 385 analogique 385 numérique 385 Sollin (algorithme de –) 147 solution admissible 33, 328 de base 151, 327 somme disjonctive 10 logique 20 somme pon­­dé­­rée 427 sommets d’articulation 91 sortie 66 source 128 sous-chaînes 192 sous déterminé 325 sous-stratégie 218 stable 102 station 270 stepping-stone 159 stratégie(s) 367 de remplacement 259 « gourmande » 149 mixte 372, 373 pures 368 571

Index

symétrique 2 système(s) d’attente 271 réparables 254

T tâches 114 fictives 119, 120 taille de la donnée 44 taux d’avarie 234 théorème

572

de Ford-Fulkerson 130 des coupes 204 total 5 transitive 3 treillis 7 de Boole 9 troncatures de Gomory 355

V valeur du jeu 369, 376

variable(s) artificielle(s) 335, 336 de base 308, 326 d’écart 325 hors-base 308, 326 voisinage 403 voyageur de commerce 163

W Weibull (loi de) 235