Etude [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

Les processus aléatoire et modélisation (M12) Chapter 7 : Les méthodes de modélisation

Master Systèmes de Télécommunications et Réseaux Informatique (STRI) Pr Said SAFI Université Sultan Moulay Slimane Faculé Polydisciplinaire Département de Maths&info Béni Mellal 16 avril 2019 Pr Said SAFI USMSFPBM

Les processus aléatoire et modélisation (M12) Chapter 716: avril Les méthodes 2019 de 1 /modél 28

Contenu

Contenu

1

Introduction

2

Types de modélisation

3

Processus AutoRégressif AR

4

Équations de Yule-Walker

5

Estimation

6

Processus à Moyenne Ajustée MA

7

Modèle AutoRégressif à Moyenne Ajusté (ARMA)

Pr Said SAFI USMSFPBM

Les processus aléatoire et modélisation (M12) Chapter 716: avril Les méthodes 2019 de 2 /modél 28

Introduction

Modélisation • La modélisation est la conception d'un modèle. Selon son objectif et les moyens utilisés, la modélisation est dite mathématique, géométrique, 3D, mécaniste ... Modèle Dans l'ingénierie, le mot "modèle" est utilisé dans des contextes diérents : • La maquette ou le plan servant au prototypage ; • Le modèle conceptuel, visant à la compréhension et au diagnostic ; • Les simulations, de nature prédictive ou diagnostique, souvent mises en oeuvre par ordinateur. On distingue entre autres : Les modèles statistiques ; Les modèles numériques (ou modèles analytiques) ; Les modèles stochastiques (ou aléatoires) et depuis quelque temps les calculateurs associés ; Les simulations interactives (avec intervention humaine), ce qui englobe les jeux et les simulations d'entraînement ; Pr Said SAFI USMSFPBM

Les processus aléatoire et modélisation (M12) Chapter 716: avril Les méthodes 2019 de 3 /modél 28

Types de modélisation

Le terme "modélisation" est employé dans plusieurs domaines : en mathématiques appliquées, et en pratique en chimie, en physique, en informatique, en météorologie ou en sciences de la vie et de la terre, le modèle mathématique permet d'analyser des phénomènes réels et de prévoir des résultats à partir de l'application d'une ou plusieurs théories à un niveau d'approximation donné ; en ingénierie, la modélisation 3D est un cas particulier du précédent qui consiste à produire des images d'objet réel ; en informatique, on parle de modélisation des données pour désigner une étape de construction d'un système d'information ; dans le domaine de l'environnement, de l'écologie, du climat et de la météorologie, des modèles de plus en plus complexes nécessitant les plus gros calculateurs se développent depuis plusieurs décennies, notamment pour l'étude du changement climatique, la protéomique et la génomique, mais divers auteurs plaident pour une généralisation de la modélisation du fonctionnement de la bio-diversité (qui est l'une des composantes majeure de la stabilisation climatique via les puits de carbone et plus généralement la base des services éco-systémiques) ; Pr Said SAFI USMSFPBM

Les processus aléatoire et modélisation (M12) Chapter 716: avril Les méthodes 2019 de 4 /modél 28

Types de modélisation

modélisation suite en pédagogie, la modélisation de la discipline consiste en une représentation simpliée des objets d'enseignement sous une forme plus ou moins abstraite que les apprenants auront à s'approprier ; en conseil, la modélisation d'entreprise consiste à modéliser les diérents concepts de l'Entreprise tout en les associant les uns aux autres pour orir une vue globale, multi-dimensionnelle et cohérente ; dans une entreprise, la modélisation de processus consiste à structurer et à représenter visuellement les activités de l'entreprise ;

Pr Said SAFI USMSFPBM

Les processus aléatoire et modélisation (M12) Chapter 716: avril Les méthodes 2019 de 5 /modél 28

Types de modélisation

modélisation suite en économie, la modélisation économique permet une représentation simpliée de la réalité économique ou d'une partie de l'économie ; en musique, la modélisation est la reproduction (ou tentative de reproduction) des sons et des eets produits originellement par un instrument diérent : les synthétiseurs de musique sont des instruments électroniques permettant notamment de créer des sons plus ou moins dèles à ceux d'instruments traditionnels, une guitare dite "à modélisation" est une guitare électrique capable de reproduire des sons de guitares d'autres marques (une Fender capable de reproduire assez dèlement les sons d'une Gibson par exemple) voire des sons d'instruments à cordes totalement diérents tels qui cithares, sitars, luths, mandolines, harpes...

Pr Said SAFI USMSFPBM

Les processus aléatoire et modélisation (M12) Chapter 716: avril Les méthodes 2019 de 6 /modél 28

Processus AutoRégressif AR

Un (Modèle) processus autorégressif est un modèle de régression pour séries temporelles dans lequel la série est expliquée par ses valeurs passées plutôt que par d'autres variables. •

Un modèle de régression linéaire est un modèle de régression qui cherche

à établir une relation linéaire entre une variable, dite expliquée, et une ou plusieurs variables, dites explicatives. On parle aussi de modèle linéaire ou de modèle de régression linéaire.

Dénition Soit Xt un processus aléatoire avec t représentant le temps. Un processus autorégressif d'ordre p, noté AR(p) est dénie par : Xt = c + a1 Xt−1 + a2 Xt−2 + ... + ap Xt − p + nt

(1)

Où a1 , ..., ap représentent les paramètres du modèle, c est une constante et nt est un bruit blanc. Pr Said SAFI USMSFPBM

Les processus aléatoire et modélisation (M12) Chapter 716: avril Les méthodes 2019 de 7 /modél 28

Processus AutoRégressif AR

Le modèle AR(p) peut être représenté en utilisant la notation de Box-Jenkins en se basant sur l'opérateur de retard B (1 − a1 B + a2 B 2 + ... + ap B P )Xt = c + nt ,

avec B i Xt = Xt−i (2)

Une autre notation plus compact utilisant la représentation mathématique des suites (séries) du modèle AR(p) Xt = c +

P X

ai Xt−i + nt

(3)

i=1

• Modèle AR(1) :

Le polynôme des retards d'un processus AR(1) Xt = a1 Xt−1 + nt s'écrit : (1 − a1 )Xt = nt . Sa résolution donne 1 − a1 x = 0 ⇒ x = a11 . La condition que la solution soit plus grande que 1 nous permet d'écrire

| a11 | > 1 ⇒ |a1 | < 1 Pr Said SAFI USMSFPBM

Les processus aléatoire et modélisation (M12) Chapter 716: avril Les méthodes 2019 de 8 /modél 28

Processus AutoRégressif AR

• Modèle AR(2) :  Le polynôme des retards d'un processus AR(2) Xt = a1 Xt−1 + a2 Xt−2 + nt s'écrit : (1 − a1 B − a2 B 2 )Xt = nt .  La résolution de l'équation du second ordre (1 − a1 x − a2 x2 ) amène aux

conditions suivantes : 1

a1 + a2 < 1

2

a2 − a1 < 1

3

|a2 | < 1

Pr Said SAFI USMSFPBM

Les processus aléatoire et modélisation (M12) Chapter 716: avril Les méthodes 2019 de 9 /modél 28

Équations de Yule-Walker

Les équations de Yule-Walker établissent une correspondance directe entre les paramètres du modèle (les ai et c) et ses autocovariances. Elles sont utiles pour déterminer la fonction d'autocorrélation ou estimer les paramètres. Elles établissent que : γj =

P X

ak γj−k ,

∀j = 1, ..., p

(4)

k=1

Lorsque l'on inclut également l'autocovariance d'ordre 0 (en fait la variance), il faut également rajouter la variance des résidus pour la première équation. Ce terme supplémentaire ne se retrouve que dans la première équation car on a fait l'hypothèse d'indépendance des résidus (et donc Cov(nt ) = 0). γj =

P X

ak γj−k + σn2 δj ,

∀j = 0, ..., p

(5)

k=1

σn est la déviation (écart-type) du bruit blanc et δj le symbole de Kronecker, qui vaut 1 si j = 0 et 0 autrement. Pr Said SAFI USMSFPBM

Les processus aléatoire et modélisation (M12) Chapter16 7 :avril Les 2019 méthodes 10 de /modél 28

Équations de Yule-Walker

Il est aussi possible d'exprimer ces équations en fonctions de l'autocorrélation : ρj =

P X

ak ρj−k +

k=1

σn2 δj , γ0

(6)

∀j = 0, ..., p

Exemples : •Exemple 1 AR(1) : Pour un processus AR(1), on a : γj = aγj−1 ∀j = 1, ..., p

On remarque que pour j = 1, nous obtenons le résultat suivant : ρ=

γ1 γ0

=a

var[Xt ] =

σ2 1−a2

qui devient alors

en prenant l'équation supplémentaire pour γ0 = aγ1 + σn2 ,

γ0 = aγ0 γ + σn2 = a2 γ0 + σn2 ⇒ (1 − a2 )γ0 = σ 2 ⇒ γ0 =

Pr Said SAFI USMSFPBM

σ2 1−a2

Les processus aléatoire et modélisation (M12) Chapter16 7 :avril Les 2019 méthodes 11 de /modél 28

Équations de Yule-Walker

•Exemple 2 AR(p) :

L'équation dénissante du processus AR est Xt =

p X

ai Xt−i + nt

(7)

i=1

En multipliant les deux membres par Xt−j et en prenant l'espérance, on obtient # " P E[Xt Xt−j ] = E

X

ai Xt Xt−j + E[nt Xt−j ]

(8)

i=1

Or, il se trouve que E[Xt Xt−j ] = γj + E[Xt ]E[Xt−j ]. Dans le cas où on considère le processus X de moyenne nulle (c = 0), E[Xt Xt−j ] se ramène à la fonction d'auto-corrélation. Les termes du bruit blancs sont indépendants les uns des autres et, de plus, Xt−j est indépendant de nt où j est plus grand que zéro. Pour j > 0 E[nt Xt−j ] = 0. Pr Said SAFI USMSFPBM

Les processus aléatoire et modélisation (M12) Chapter16 7 :avril Les 2019 méthodes 12 de /modél 28

Équations de Yule-Walker

Pour j = 0, " E[nt Xt ] = E nt

P X

!# ai Xt Xt−j + nt

i=1

=

P X

E[nt Xt−i ]+E[n2t ] = 0+σn2

i=1

(9)

Maintenant, on a pour j ≥ 0, γj = E

" P X

#

(10)

ai Xt−i Xt−j + σn2 δj

i=1

Par ailleurs, " E

P X

# ai Xt−i Xt−j =

i=1

Pr Said SAFI USMSFPBM

P X i=1

ai E[Xt Xt−j+i ] =

P X

ai γj−i

(11)

i=1

Les processus aléatoire et modélisation (M12) Chapter16 7 :avril Les 2019 méthodes 13 de /modél 28

Équations de Yule-Walker

qui donne les équations de Yule-Walker : γj =

P X

ai γj−i + σn2 σj

(12)

i=1

pour j ≥ 0. Pour j < 0, γj = γ−j =

P X

ai γ|j|−i + σn2 σj

(13)

i=1

Pr Said SAFI USMSFPBM

Les processus aléatoire et modélisation (M12) Chapter16 7 :avril Les 2019 méthodes 14 de /modél 28

Estimation

En partant du modèle AR(p) sans constante donné par : Xt =

p X

ai Xt−i + nt

(14)

i=1

Les paramètres à estimer sont les ai i = 1, ..., p et σn2 La méthode de Yule-Walker  La méthode consiste à reprendre les équations de Yule-Walker en inversant les relations : on exprime les coecients en fonction des autocovariances. On applique alors le raisonnement de la Méthode des moments : on trouve les paramètres estimés d'après les autocovariances estimées. En prenant l'équation sous sa forme matricielle :     

γ0 γ1 γ2

.. .





    =  

Pr Said SAFI USMSFPBM

  γ−1 γ−2 γ−3 · · · 1 a1   γ0 γ−1 γ−2 . . . 0    a2    . γ+1 γ0 γ−1 · · · 0   ..   .. .. .. . . . 0 . . . σn2

(15)

Les processus aléatoire et modélisation (M12) Chapter16 7 :avril Les 2019 méthodes 15 de /modél 28

Estimation



a1



.  On peut estimer les paramètres θˆ =   ..  du système d'équation (15) par diérents méthode numérique.

σn2

Maximum de vraisemblance inconditionnel L'estimation d'un modèle AR(P) par la méthode du maximum de vraisemblance est délicate car la fonction de vraisemblance est très complexe et n'a pas de dérivée analytique. Cette diculté provient de l'interdépendance des valeurs, ainsi que du fait que les observations antérieures ne sont pas toutes disponibles pour les p premières valeurs. L'estimateur du maximum de vraisemblance est un estimateur statistique utilisé pour inférer (L'inférence statistique consiste à induire les caractéristiques inconnues d'une population à partir d'un échantillon issu de cette population) les paramètres de la distribution de probabilité d'un échantillon donné. Pr Said SAFI USMSFPBM

Les processus aléatoire et modélisation (M12) Chapter16 7 :avril Les 2019 méthodes 16 de /modél 28

Estimation

Maximum de vraisemblance conditionnel Une manière de simplier la complexité de la fonction de vraisemblance est de conditionner cette fonction aux p premières observations. La fonction de log-vraisemblance devient : L(x1 , x2 , ..., xT ) = − −

(T − P ) (T − P ) log(2π) − log(σ 2 ) (16) 2 2 T X (yt − c − a1 yt−1 − a2 yt−2 − ... − ap yt−p )2 t=p+1

2σ 2

(17)

La maximisation de cette fonction par rapport aux paramètres ai correspond à la minimisation des erreurs du modèle. L'estimateur du maximum de vraisemblance conditionnel correspond ainsi à celui des moindres carrés. L'estimateur obtenu sera équivalent à l'estimateur inconditionnel dans de grands échantillons et tous deux ont la même distribution asymptotique. Pr Said SAFI USMSFPBM

Les processus aléatoire et modélisation (M12) Chapter16 7 :avril Les 2019 méthodes 17 de /modél 28

Processus à Moyenne Ajustée MA

Le modèle du processus à Moyenne Ajusté (Moving Average) est donné pa l'équation suivante y(t) =

q X

bi x(t − i) + nt

(18)

i=0

Exemple 1 M A(1) Le modèle du processus M A(1), est un processus stationnaire de la forme suivanteP: y(t) =

1 i=0 bi x(t

− i) = b0 x(t) + b1 x(t − 1) = x(t) + b1 x(t − 1)

Nous avons supposé que : la mesure est non bruitée, le b0 = 1, de plus on suppose que x(t) est un processus aléatoire 'bruit blanc' de variance σ 2 et de moyenne nulle. Donc : E(y(t)) = E(x(t) + b1 x(t − 1)) = 0

(19)

V ar(y(t)) = V ar(x(t) + b1 x(t − 1)) = (1 + b21 )σ 2

(20)

Pr Said SAFI USMSFPBM

Les processus aléatoire et modélisation (M12) Chapter16 7 :avril Les 2019 méthodes 18 de /modél 28

Processus à Moyenne Ajustée MA

La FAC du modèle M A(1) est donnée par : γ1 = Cov(y(t), y(t − 1)) = Cov(x(t) + b1 x(t − 1), x(t − 1) + b1 x(t − 2)) = b1 V ar(x(t − 1)) = b1 σ 2

Le coecient d'autocorrélation d'ordre 1 vaut donc ρ1 =

b1 σ 2 b1 γ1 = = γ2 (1 + b21 )σ 2 1 + b21

(21)

Pour tout h > 1, on a : γh = Cov(y(t), y(t−h)) = Cov(x(t)+b1 x(t−1), x(t−h)+b1 x(t−h−1)) = 0

(22) donc les coecients d'autocorrélations d'ordre supérieur à 1 sont nuls : si

h > 1 ⇒ ρh = 0 Pr Said SAFI USMSFPBM

Les processus aléatoire et modélisation (M12) Chapter16 7 :avril Les 2019 méthodes 19 de /modél 28

Processus à Moyenne Ajustée MA

A partir de l'équation (21) on aura : (1 + b21 )ρ1 = b1 ⇔ b21 ρ1 − b1 + ρ1 = 0

équation en b1 qui n'admet de solution que si ∆ = 1 − 4b21 > 0 ⇔ ρ21 < 1/4 ⇔ |ρ1 | < 1/2

Pour un processus M A(1), l'autocorrélation d'ordre 1 est inférieure à 1/2 en valeur absolue. Les corrélogrammes d'un processus M A(1) seront donc de la forme b1 = 0.9 et b1 = −0.9

Pr Said SAFI USMSFPBM

Les processus aléatoire et modélisation (M12) Chapter16 7 :avril Les 2019 méthodes 20 de /modél 28

Processus à Moyenne Ajustée MA

Fonction d'AutoCorrélation Partielle(FACP)

Le calcul du coecient d'autocorrélation partielle est plus complexe, il se résout en manipulant l'équation Yt = (I + θB)Xt



1 Yt = Xt I + θB



∞ X

! k

(−θ) B

k

Yt = Xt

k=0

(23) ce qui permet de donner une autre équation d'un processus M A(1) sous la forme ! Yt = Xt −

∞ X k=1

Pr Said SAFI USMSFPBM

(−θ)k B k

Yt = Xt +

∞ X

(−θ)k Yt−k

(24)

k=1

Les processus aléatoire et modélisation (M12) Chapter16 7 :avril Les 2019 méthodes 21 de /modél 28

Processus à Moyenne Ajustée MA

On peut ainsi montrer que τh =

(−θ)h (θ2 − 1) 1 − θ2(h+1)

(25)

qui nous donne des corrélogrammes partiels de la forme θ = 0.9 θ = 0.3 θ = −0.9 θ = −0.3

Pr Said SAFI USMSFPBM

Les processus aléatoire et modélisation (M12) Chapter16 7 :avril Les 2019 méthodes 22 de /modél 28

Processus à Moyenne Ajustée MA

Processus moyenne mobile MA(2) Un processus MA(2) est déni par une équation du type Yt = Xt + b1 Xt−1 + b2 Xt−2 = (I + b1 B + b2 B 2 )Xt

On a alors

( V ar(Xt ) + ar(Xt−1 ) + ar(Xt−2 ) = + + 1) ( Cov(Xt + b1 Xt−1 + b2 Xt−2 , Xt−1 + b1 Xt−2 + b2 Xt−3 ) ( b1 V ar(Xt−1 ) + b2 b1 V ar(Xt−2 ) = b1 (1 + b2 )σ 2 ( Cov(Xt + b1 Xt−1 + b2 Xt−2 , Xt−2 + b1 Xt−3 + b2 Xt−4 ) ( b2 V ar(Xt−2 ) = b2 σ 2 ( Cov(Xt + b1 Xt−1 + b2 Xt−2 , Xt−h + b1 Xt−h−1 + b2 Xt−h( 0 ∀ h>2 (

E(Yt ) = E(Xt ) + b1 E(Xt−1 ) + b2 E(Xt−2 ) = 0 V ar(Yt ) = Cov(Yt , Yt−1 ) = = Cov(Yt , Yt−2 ) = = Cov(Yt , Yt−h ) = = Pr Said SAFI USMSFPBM

b21 V

b22 V

(b22

b21

Les processus aléatoire et modélisation (M12) Chapter16 7 :avril Les 2019 méthodes 23 de /modél 28

Processus à Moyenne Ajustée MA

La FAC est donc ρ1 =

b1 (1 + b2 ) , (b22 + b21 + 1)

ρ2 =

(b22

b2 , + b21 + 1)

ρh = 0 pourh > 2

(34)

Enn, on peut montrer que l'autocorrélation partielle décroît de façon exponentielle : τh −→ 0 si h −→ 0

Processus moyenne ajustée M A(q) Il s'agit d'un processus vériant l'équation Yt = Xt + b1 Xt−1 + ... + bq Xt−q = Θ(B)Xt

Où Θ est le polynôme de degré q dont les coecients sont {1, b1 , ..., bq } un tel modèle est appelé à moyenne ajustée (moving average) d'ordre q

M A(q).

Pr Said SAFI USMSFPBM

Les processus aléatoire et modélisation (M12) Chapter16 7 :avril Les 2019 méthodes 24 de /modél 28

Processus à Moyenne Ajustée MA

Autocorrelation Pour un tel processus, on peut montrer que l'autocorrélation ρh est nulle pour h > q :

ρh =

bh +

Pk=q−h

1

bk bh−k k=1 Pk=h 2 + k=1 bk

sih ≤ q

(35)

= 0 sinon

Cette propriété est très importante pour l'identication du modèle et la détermination de l'ordre q d'un processus M A(q). Autocorrélation partielle Les autocorrélations partielles τh d'un processus moyenne mobile d'ordre q ont un comportement semblable à celui des autocorrélations ρh d'un processus autoregressif de même ordre : elle s'amortissent avec une décroissance exponentielle Pr Said SAFI USMSFPBM

Les processus aléatoire et modélisation (M12) Chapter16 7 :avril Les 2019 méthodes 25 de /modél 28

Processus à Moyenne Ajustée MA

Remarque : Un processus autorégressif d'ordre 1 peut s'exprimer sous forme de moyenne mobile en inversant l'équation (I − φB)Yt = Xt ⇔ yt =

∞ X 1 Xt = ( φk B k )xt (I − φB)

(36)

k=0

on obtient ainsi une moyenne mobile d'ordre q inni dont les coecients décroissent exponentiellement AR(1) ∼ M A(∞)

Pr Said SAFI USMSFPBM

Les processus aléatoire et modélisation (M12) Chapter16 7 :avril Les 2019 méthodes 26 de /modél 28

Modèle AutoRégressif à Moyenne Ajusté (ARMA)

Processus ARM A(p, q) Le modèle ARM A(p, q) est plus générale qu'un modèle AR(p) ou bien M A(q)

Le modèle ARM A(p, q) est donné par l'équation suivante : Yt =

p X j=1

aj y(t − i) +

q X

bi xt−i

(37)

i=0

Sous une forme plus compacte Φ(B)Yt = Θ(B)xt

(38)

Le traitement d'un tel processus est plus complexe que celui des 2 précédents. On peut cependant montrer que ses autocorrélations et ses autocorrélations partielles sont des fonctions amorties tendant vers 0 en valeur absolue à vitesses exponentielles. Pr Said SAFI USMSFPBM

Les processus aléatoire et modélisation (M12) Chapter16 7 :avril Les 2019 méthodes 27 de /modél 28

Modèle AutoRégressif à Moyenne Ajusté (ARMA)

FAC et FACP des processus

On peut ainsi dresser un tableau comparatif des corrélogrammes et corrélogrammes partiels des processus (modèle) AR(p) M A(q) et ARM A(p, q)

Processus

FAC FACP AR(p) amortie nulle pour h > p M A(q) nulle pour h > q amortie ARM A(p, q) amortie amortie

Pr Said SAFI USMSFPBM

Les processus aléatoire et modélisation (M12) Chapter16 7 :avril Les 2019 méthodes 28 de /modél 28