Miniporjet Markov [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

Mini projet Modèle de Markov en SDF Réalisé : Soulaf BOUTADGHART Niveau: 5ISA

2011-2012

PLAN Introduction Chaînes de Markov Processus de Markov Objectifs Etapes de modélisation Exemple Simulation Résumé Conclusion Soulaf BOUTADGHART

2

Introduction La Méthode de Markov est un outil de modélisation qui permet de simplifier les systèmes les plus complexes dans l’industrie, comme les boucles de régulation et d’asservissement où interviennent des perturbations qui influencent sur le MTBF des machines ainsi que les autres outils de FMDS.

Soulaf BOUTADGHART

3

Processus stochastique Est le modèle mathématique qui permet de relier les réalisations d’une variable aléatoire X aux réalisations d’un variable aléatoire explicative T. en SDF, X représente généralement l’état du système alors que T traduira les instants de changements d’états. X est donc une variable discrète et T une variable continue. On verra le cas particulier des processus Markoviens. Ex: Suite de lancers de dé 1,3,2,5,3,6,2,4 Signal radar Écho de voix

réalisation

Soulaf BOUTADGHART

V.A.

4

Matrice stochastique 





Une matrice stochastique (aussi appelée matrice de Markov) est une matrice carrée dont chaque élément est un réel compris entre 0 et 1 et dont la somme des éléments de chaque ligne vaut 1. Cela correspond, en probabilité, à la matrice de transition d'une chaîne de Markov finie. Une matrice est dite bistochastique (ou doublement stochastique ) si la somme des éléments de chaque ligne et de chaque colonne vaut 1. Une matrice stochastique est dite régulière s'il existe un entier k tel que la matrice Pk ne contient que des réels strictement positifs Soulaf BOUTADGHART

5

Chaîne de Markov  

Processus stochastique à temps discret Les états Xn forment une suite d’indice {0,1,2,…}

Exemple: Alphabet : ={‘A’,’C’,’G’,’T’} Séquence : ACGCCTAGGCTAGCTTATCG  Propriété de Markov : P{ Xn1  j | Xn  i , Xn1  in1 ,..., X0  i0 }  P{ Xn1  j | Xn  i } 

  

Hypothèse de stationnarité : P { Xn 1  j | Xn  i }  Pij Probabilités de transition entre états : Pij  0, Matrice des probabilités de transition P= [Pij] m Probabilités initiales :  i 0 ,  i 1 Soulaf BOUTADGHART

i0



P 1 j0

ij

6

Objectifs de modèle de Markov …

Modéliser l‘évolution d'un système industriel

Objectifs

Disposer de formules analytiques pour la plupart des indicateurs de performance usuels en fiabilité Soulaf BOUTADGHART

Calcul: Fiabilité, Disp, coût de prod Nbr moyen de temps 7

Etapes de modélisation(1) On Considère un système composé de n composants, chaque composant ayant un nombre fini d’états de fonctionnement et de panne ; ce système est supposé réparable et chaque composant est réparé après constatation de la panne. Le système est donc composé :  Des états de fonctionnement : un état de bon fonctionnement où tous les composants fonctionnent, et des états où certains composants sont en panne mais le système reste fonctionnel.  Des états de pannes : où suffisamment de composants sont en panne pour affecter le système globale. Soulaf BOUTADGHART

8

Etapes de modélisation (Démarche adoptée)(2) 1

2

3

Recensement de tous les états du système. Si chaque composant a 2 états (ok ou panne) et si le système à n composants, le nombre maximal d’états est 2ᶯ . Au cours de la vie du système, des états de panne peuvent apparaître à la suite de défaillance ou disparaître à la suite de réparation

Recensement de toutes les transitions possibles entre ces différents états et l’identification de toutes les causes de ces transitions. Celles-ci ont généralement des défaillances des composants ou la réparation de composants

Calcul des probabilités de se trouver dans les différents états au cours d’une période de vie du système, calcul des temps moyens (MTTF, MTBF, MTTR ...)

Soulaf BOUTADGHART

9

Etapes de modélisation (Démarche adoptée)(3) On dessine donc un automate dont les sommets représentent les états et les arcs transitions. Pour un système à un composant qui n’a qu’un mode de défaillance panne, on obtient l’automate décrit cidessous. Initialement, on est dans l’état ok, à tout instant le composant peut tomber en panne avec le taux de défaillance instantané λ puis se faire réparer avec le taux de réparation µ.

Soulaf BOUTADGHART

10

Exemple Un professeur distrait p 1 possède deux parapluies. 1 p 0 2 1 S’il pleut et l’un d’eux est p disponible, elle le prend; 1 p  Modèle markovien sinon, elle sort sans  i est le nombre de parapluies parapluie. disponibles à l’endroit présent

Si p est la probabilité  Matrice des probabilités de transitions entre états qu’il pleuve à chaque fois 0 1 qu’elle se déplace, quelle  0 est la probabilité qu’elle P   0 1  p p  p 0  1  p prenne une douche involontaire à chaque fois ? 1 p Soulaf BOUTADGHART3  p

Se mouiller P{gets wet}  π 0 p  p

11

Simulation Méthodologie Système réel

Analyse & modélisation

Validation

Vérification

Interprétation & actions

Analyse des résultats

Expérimentation

Correction

12

Modèle conceptuel

Soulaf BOUTADGHART

Programmation

Evaluation de la simulation

Autres processus markoviens 

Chaînes de Markov généralisées (ou Semi-Markov) : 



Chaînes de Markov à temps continu : 



Cas spécial des processus semi-markoviens.

Champs de Markov 



Le prochain état dépend de l’état présent, plus la durée de temps passée dans ce dernier.

Modèle de Markov s’appliquant à une distribution spatiale de variables aléatoires

Chaînes de Markov cachées : 

Elles sont accessibles uniquement à travers des observations indirectes

Soulaf BOUTADGHART

13

Le Q.Q.O.C.P.C. QUOI ?

De la modélisation et calcul des indicateurs

QUI ?

Nous, agents de maintenance, médecins, infographiste ,……

OÙ ?

En production au plus près des opérateurs, Laboratoires, BDM, BD’étude

QUAND ?

Problèmes d’optimisation , risques, apparition de défaillances, dégradation,…………

COMMENT ? par ses propres moyens POURQUOI ? Améliorer et prévoir une politique ou stratégie ou une séquence de décisions , Critère d’optimisation COMBIEN ?

Dépend de l’ensemble des actions possibles dans un état Soulaf BOUTADGHART

14

Conclusion Le modèle de Markov est un formalisme graphique employé dans les études de sûreté, au domaine de la sécurité. Le fruit de cette adaptation est une technique de modélisation d’attaque offrant un compromis original et avantageux entre lisibilité, pouvoir de modélisation et capacités de quantification. Elle permet de capturer des aspects dynamiques tels que séquences, détections et réactions, sous une forme proche des arbres d’attaque qui ne peuvent pour leur part les prendre en compte. Leur traitement une fois paramétrés dans le cadre d’une analyse de risques, fournit des informations qualitatives et quantitatives pour hiérarchiser les menaces et contre-mesures. Soulaf BOUTADGHART

15

Soulaf BOUTADGHART

16