34 0 2MB
INTRODUCTION AU FILTRAGE ADAPTATIF ET A L’EGALISATION ENSICAEN ´ Sp´ecialit´e : Electronique et Physique Appliqu´ee Majeure : Signal, Automatique, T´el´ecommunications
[email protected]
1
Table des mati`eres
1 Quelques rappels et objet du cours 1.1 Notations et rappels . . . . . . . . . 1.1.1 La Transform´ee de Fourier . . 1.1.2 L’impulsion . . . . . . . . . . 1.1.3 Le filtrage num´erique lin´eaire 1.1.4 Analyse de corr´elation . . . . 1.2 Objets du cours . . . . . . . . . . . .
I
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
Techniques de filtrage adaptatif
2 Filtrage adaptatif au sens de Wiener 2.1 Principe g´en´eraux . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.1 Contexte de signaux al´eatoires et d´eterministes . . . . . . 2.1.2 Formalisme . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Solution globale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.1 Recherche des param`etres du filtre . . . . . . . . . . . . . 2.2.2 V´erification du principe d’orthogonalit´e . . . . . . . . . . 2.2.3 Mise en oeuvre . . . . . . . . . . . . . . . . . . . . . . . . 2.2.4 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Solution r´ecursive . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.1 Premi`ere approche . . . . . . . . . . . . . . . . . . . . . . 2.3.2 Algorithme du gradient d´eterministe . . . . . . . . . . . . 2.3.3 Propri´et´e de convergence . . . . . . . . . . . . . . . . . . 2.3.4 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.5 Algorithme du gradient stochastique . . . . . . . . . . . . 2.3.6 Mise en oeuvre . . . . . . . . . . . . . . . . . . . . . . . . 2.4 Exemples d’application . . . . . . . . . . . . . . . . . . . . . . . . 2.4.1 Application de la solution r´ecursive : annulation d’echo acoustique . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4.2 Application de la solution globale : d´ebruitage de la parole
2
5 5 5 6 7 8 11
13 16 16 17 17 18 18 20 20 22 23 23 24 25 27 27 29 30 30 33
3 Filtrage adaptatif au sens des moindres carr´ es 36 3.1 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 3.2 Exemples d’application . . . . . . . . . . . . . . . . . . . . . . . . 38 3.2.1 Exemple num´erique . . . . . . . . . . . . . . . . . . . . . 38 3.2.2 Identification d’un syst`eme de transmission flexible . . . . 39 3.2.3 Retour sur l’annulation d’echo acoustique . . . . . . . . . 41 3.3 Les moindres carr´es en milieu bruit´e . . . . . . . . . . . . . . . . 41 3.3.1 Le biais . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 3.3.2 Solutions dans un contexte d’identification . . . . . . . . . 44 3.3.3 Retour sur l’identification d’un syst`eme de transmission flexible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 4 Filtrage De Kalman 4.1 Principe . . . . . . . . . . . . . . . . . 4.2 Filtre et pr´edicteur de Kalman . . . . 4.2.1 Filtre de Kalman . . . . . . . . 4.2.2 Pr´edicteur de Kalman . . . . . 4.2.3 Mise en oeuvre . . . . . . . . . 4.3 Solution stationnaire . . . . . . . . . . 4.4 Exemples d’application . . . . . . . . . 4.4.1 Filtrage d’un signal d´ecroissant 4.4.2 Position d’un mobile . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
51 51 52 52 54 56 56 59 59 61
II Egalisation dans une chaˆıne de transmission de l’information 64 5 Le probl` eme d’´ egalisation 65 5.1 Mod`ele ´equivalent discret du canal . . . . . . . . . . . . . . . . . 65 5.2 Bruit et interf´erence inter symbole . . . . . . . . . . . . . . . . . 68 6 Egaliseur avec connaissance du canal ou s´ equence d’apprentissage 6.1 Egaliseur lin´eaire . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1.1 Egaliseur zero forcing . . . . . . . . . . . . . . . . . . . . 6.1.2 Egaliseur de Wiener (ou `a erreur quadratique moyenne minimale) . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1.3 Egaliseur par retour de d´ecision . . . . . . . . . . . . . . . 6.2 Egaliseur adaptatif . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2.1 Egaliseur de Wiener adaptatif . . . . . . . . . . . . . . . . 6.2.2 Egaliseur par retour de d´ecision adaptatif . . . . . . . . .
72 72 72 79 85 87 88 89
7 Egaliseurs aveugles (ou autodidactes) 92 7.1 Egaliseurs de type Bussgang . . . . . . . . . . . . . . . . . . . . . 92 7.2 Egaliseurs aveugles par identification . . . . . . . . . . . . . . . . 98 A R´ esultats divers 100 A.1 Lemme d’inversion matricielle . . . . . . . . . . . . . . . . . . . . 100 A.2 Forme quadratique incompl`ete . . . . . . . . . . . . . . . . . . . 100
3
Remerciements `a Guy Binet, Miloud Frikel, Olivier Gehan et Eric Pigeon pour les remarques et critiques.
4
CHAPITRE
1
Quelques rappels et objet du cours
1.1
Notations et rappels
Dans ce cours, seuls sont trait´es les signaux discrets c’est `a dire ´echantillonn´es. Un signal temporel x(t) sera donc d´ecrit par la valeur xk de ses ´echantillons aux instants kTe . Te d´esigne la p´eriode d’´echantillonnage. On supposera dans la suite que la p´eriode d’´echantillonnage a ´et´e judicieusement choisie de mani`ere `a satisfaire la condition du th´eor`eme de Shannon.
1.1.1
La Transform´ ee de Fourier
Rappelons que la transform´ee d’un signal ´echantillonn´e x(t) est d´efinie par : T F [x(t)] = X(f ) =
+∞ X
xk e−j2πf kTe
k=−∞
P+∞ Cette transform´ee de Fourier existe si k=−∞ |xk |. Dans la suite, lorsqu’on sera sera amen´e `a calculer une transform´ee de Fourier, la condition pr´ec´edente sera suppos´ee v´erifi´ee par d´efaut. De mˆeme, certains calculs n´ecessiteront la permutation d’int´egrales, de sommes et de limites. Par d´efaut, les conditions n´ecessaires `a la validit´e de ces permutations seront suppos´ees satisfaites (voir cours de Math´ematiques). La transform´ee de Fourier d’un signal ´echantillonn´e ´etant p´eriodique de p´eriode 1 ee de Fourier inverse s’exprime par : Te , la transform´ Z xk = Te X(f )ej2πf kTe df 1 Te
Cette propri´et´e de r´eversibilit´e est de premi`ere importance puisqu’elle signifie que x(t) et X(f ) contiennent les mˆemes informations, d´ecrivent les mˆemes comportements mais simplement de mani`ere diff´erente. Ce qui diff`ere c’est simplement la nature des informations directement accessibles. La repr´esentation 5
temporelle d´ecrit les variations au cours du temps du signal, la repr´esentation fr´equentielle d´ecrit la vitesse `a laquelle se font ces variations. Ainsi, suivant l’information recherch´ee, suivant le ph´enom`ene observ´e il peut ˆetre plus int´eressant de traiter l’une ou l’autre des repr´esentations. La repr´esentation graphique de la transform´ee de Fourier se fait la plupart du temps par l’interm´ediaire du module |X(f )| ou encore du module au carr´e. Ce dernier terme |X(f )|2 est appel´e densit´e spectrale et est not´e : Sxx (f ) = X(f )X ∗ (f ) = |X(f )|2
De la mˆeme mani`ere, la densit´e spectrale interspectre est d´efinie par Syx (f ) = Y (f )X ∗ (f )
1.1.2
L’impulsion
Tout comme l’analyse en temps continu, l’analyse en temps ´echantillonn´e utilise couramment la s´equence impulsion. Cette s´equence est not´ee δ(t) et se caract´erise par : 1 pour k = 0 δk = 0 pour k 6= 0 δ(t) 6 1 6
- t
Figure 1.1 – Repr´esentation graphique de l’impulsion δ(t) Cette impulsion permet une formulation du signal x(t) comme suit : x(t) =
+∞ X
k=−∞
xk δ(t − kTe )
La transform´ee de Fourier de l’impulsion est T F [δ(t)] =
+∞ X
δk e−j2πf kTe = 1
k=−∞
Un train d’impulsion de p´eriode T est d´efini par : δT (t) =
+∞ X
i=−∞
δ(t − iT )
La transform´ee de Fourier d’un train d’impulsion est : 1 T F [δT (t)] = δ1/T (f ) T
6
1.1.3
Le filtrage num´ erique lin´ eaire
Rappelons ici la notion de filtrage num´erique lin´eaire. On consid`ere pour cela un filtre H(q) d´efini par : H(q) =
+∞ X
hi q −i
i=0
les termes hi d´efinissent les coefficients de la r´eponse impulsionnelle du filtre et q −1 est l’op´erateur retard : q −1 x(t) = x(t − Te ). Le filtrage de x(t) par H(q) s’exprime comme suit : y(t) = H(q)x(t) y(t) =
∞ X
hi q −i x(t)
i=0
y(t) =
∞ X i=0
hi x(t − iTe )
Ainsi la valeur yk de y(t) `a l’instant t = kTe est : yk =
∞ X
hi xk−i
i=0
Le filtrage lin´eaire s’exprime de mani`ere ´equivalente par l’interm´ediaire du produit de convolution ∗. Si on d´efinit un signal h(t) `a partir des coefficients hi : h(t) =
+∞ X
k=0
hk δ(t − kTe )
le produit de convolution entre h(t) et x(t) est : z(t) = h(t) ∗ x(t) +∞ X
z(t) =
i=−∞
h(iTe )x(t − iTe )
+∞ X +∞ X
z(t) =
i=−∞ k=0
z(t) =
+∞ X
hi x(t − iTe )
+∞ X
hi
i=−∞
z(t) =
hk δ(iTe − kTe )x(t − iTe )
i=−∞
+∞ X
q=−∞
xq δ(t − iTe − qTe )
pour t = kTe z(kTe ) =
+∞ X
i=−∞
hi
+∞ X
q=−∞
xq δ(kTe − iTe − qTe ) 7
zk =
+∞ X
hi xk−i
i=−∞
et puisque les hi sont nuls pour i < 0, on a : zk =
+∞ X
hi xk−i = yk
i=0
Ainsi on retrouve bien l’expression pr´ec´edente sur yk . Remarquons que la transform´ee de Fourier de y(t) s’´ecrit : ! ∞ +∞ X X T F [y(t)] = hi xk−i e−j2πf kTe k=−∞
T F [y(t)] =
i=0
∞ X +∞ X
hi xk−i e−j2πf iTe e−j2πf (k−i)Te
k=−∞ i=0
T F [y(t)] = T F [h(t)]T F [x(t)] La transform´ee de Fourier du filtre est not´ee T F [h(t)] : T F [h(t)] =
+∞ X
hi e−j2πf iTe = H(ej2πf Te )
i=−∞
En terme d’analyse spectrale on a Syy (f ) = |H(ej2πf Te )|2 Sxx (f ) et Syx (f ) = H(ej2πf Te )Sxx (f )
1.1.4
Analyse de corr´ elation
Dans ce cours on distingue deux types de signaux : les signaux d´eterministes et les signaux al´eatoires : – Les signaux d´eterministes sont les signaux caract´eris´es par leur ´evolution temporelle, par exemple l’´echelon, la rampe, une sinuso¨ıde, etc. Ces signaux sont parfaitement connus et pourvu qu’on connaisse la loi d’´evolution et un ´echantillon `a un instant donn´e, il est possible de retrouver l’int´egralit´e du signal. Cette classe de signaux tend `a mod´eliser les signaux type excitation, entr´ee de syst`eme, point de fonctionnement, etc. – Les signaux al´eatoire correspondent aux signaux qu’on va dire ”incertain”. Ils sont caract´eris´es par une densit´e de probabilit´e et la connaissance d’un ou plusieurs ´echantillons `a un instant donn´e ne suffira jamais `a retrouver l’int´egralit´e du signal. Cette classe de signaux tend `a mod´eliser les bruits tels que les bruits de mesure ou encore les dynamiques n´egligeables d’un syst`eme.
8
Les Signaux d´ eterministes Les signaux d´eterministes se r´epartissent en deux classes : les signaux `a ´energie finie et les signaux `a puissance finie. Pour un signal x(t), l’´energie Exx et la puissance Pxx sont d´efinies par Exx =
∞ X
xk x∗k
k=−∞ N X 1 xk x∗k N →∞ 2N + 1
Pxx = lim
k=−N
Une extension de la notion d’´energie (puissance) est la fonction d’autocorr´elation not´ee Rxx . Cette fonction est d´efinie de diff´erentes mani`eres suivant qu’on consid`ere un signal `a ´energie finie ou `a puissance finie : Signaux a `´ energie finie Rxx (i) =
∞ X
xk+i x∗k
k=−∞
On a ainsi Rxx (0) = Exx . Signaux a ` puissance finie N X 1 xk+i x∗k N →∞ 2N + 1
Rxx (i) = lim
k=−N
On a ainsi Rxx (0) = Pxx . Si on consid`ere un second signal y(t) on d´efinit la fonction d’intercorr´elation comme suit : Signaux a `´ energie finie Ryx (i) =
∞ X
yk+i x∗k
k=−∞
Signaux a ` puissance finie N X 1 yk+i x∗k N →∞ 2N + 1
Ryx (i) = lim
k=−N
On peut montrer que les fonctions de corr´elation et les spectres sont li´es par les relations suivantes : T F [Rxx (t)] = Sxx (f ) T F [Ryx (t)] = Syx (f ) d’o` u les figures 1.2 et 1.3.
9
tranform´ee de Fourier -
x(t)
X(f )
autocorr´elation
module2
? Rxx (t)
? Sxx (f )
tranform´ee de Fourier -
Figure 1.2 – relations entre signal, corr´elation, transform´ee de Fourier et spectre
x(t) y(t)
tranform´ee de Fourier -
X(f ) Y (f )
intercorr´elation
produit et conjugu´e
? Ryx (t)
? Syx (f )
tranform´ee de Fourier -
Figure 1.3 – relations entre signal, corr´elation, transform´ee de Fourier et spectre Les Signaux al´ eatoires Pour les signaux al´eatoires les fonctions d’autocorr´elation et d’intercorr´elation sont d´efinies par : Γxx (t1 , t2 ) = E{x(t1 )x(t2 )} Γyx (t1 , t2 ) = E{y(t1 )x(t2 )} Un signal al´eatoire ergodique stationnaire est n´ecessairement `a puissance finie. On montre alors que les fonctions de corr´elations d´efinies ci-dessus sont telles que N X 1 xk+i x∗k N →∞ 2N + 1
Γxx (t1 , t2 ) = Rxx (i) = lim
k=−N
10
N X 1 yk+i x∗k N →∞ 2N + 1
Γyx (t1 , t2 ) = Rxx (i) = lim
k=−N
avec i = t1 − t2 . La transform´ee de Fourier d’un signal al´eatoire n’´etant pas d´efinie, les figures 1.2 et 1.3 sont remplac´ees par les figures 1.4 et 1.5. x(t)
autocorr´elation
? Γxx (t)
transform´ee de Fourier -
Sxx (f )
Figure 1.4 – relations entre signal, corr´elation et spectre
x(t) y(t)
intercorr´elation
? Γyx (t)
transform´ee de Fourier -
Syx (f )
Figure 1.5 – relations entre signal, corr´elation et spectre
1.2
Objets du cours
Le filtrage adaptatif regroupe un ensemble de techniques d´edi´ees `a la r´esolution d’un probl`eme important en sciences de l’ing´enieur, `a savoir :
11
La reconstruction d’un signal en milieu bruit´e.
Nous entendons ici par reconstruction le fait de lisser, filtrer o` u pr´edire un signal. Les techniques pr´esent´ees ici sont bas´ees sur une certaine connaissance de propri´et´es du signal et du processus le g´en´erant. Le traitement sera r´ealis´e par le biais d’un filtrage du signal lui-mˆeme ou d’un second signal. Ce document est scind´e en deux parties : Partie 1 : cette partie est d´edi´ee `a la pr´esentation de plusieurs types de m´ethodes de filtrage adaptatif : le filtrage au sens de Wiener, le filtrage au sens des moindres carr´es et le filtrage de Kalman. La mise en oeuvre de l’une ou l’autre technique d´ependra de l’objectif `a atteindre, des informations disponibles et de la mani`ere dont sera mis en oeuvre le filtre. Partie 2 : cette partie s’int´eresse plus particuli`erement au probl`eme d’´egalisation, probl`eme pos´e en t´el´ecommunication. Diff´erentes variantes, s’exprimant en terme de filtrage adaptatif, sont propos´ees et discut´ees.
12
Premi` ere partie
Techniques de filtrage adaptatif
13
Les techniques de filtrage adaptatif trouvent tout leur sens dans les probl`emes pour lesquels la composante de bruit ou le processus ont un comportement spectral inconnu. Consid´erons par exemple le cas d’un signal perturb´e par un parasite sinuso¨ıdal `a la fr´equence de 50Hz. Ce signal peut ˆetre filtr´e efficacement par un filtre classique coupe bande centr´e sur 50Hz. En revanche consid´erons le cas de la mesure sur ´electrocardiogramme du rythme cardiaque d’un b´eb´e encore dans le ventre de sa m`ere. Le signal va ˆetre parasit´e par le rythme cardiaque de la m`ere. Ce signal parasite est a priori de contenu spectral inconnu et il risque mˆeme de se superposer en partie au signal correspondant au b´eb´e. Le filtrage classique est donc ici inefficace alors que le filtrage adaptatif va se r´ev´eler performant. On distingue quatres classes d’applications : – l’identification : La figure 1.6 illustre le contexte du probl`eme d’identification. Celui-ci consiste en la d´etermination d’un filtre mod´elisant au mieux le comportement d’un processus inconnu. Seuls sont connus les signaux d’entr´ee/sortie de ce processus. Le filtre repr´esentant le mod`ele sera estim´e `a partir de l’observation de la diff´erence entre la sortie du processus et son estimation `a la sortie du filtre. sortie processus ?
-
entr´ ee
7
+
?
−
6
filtre adaptatif
Figure 1.6 – Principe de l’identification – la pr´ediction : La figure 1.7 illustre le contexte du probl`eme de pr´ediction. Ce probl`eme consiste en l’estimation de la valeur future d’un signal `a partir des informations pass´es. Ce peut ˆetre par exemple pour pr´evoir la position futur d’un objet, ou pour anticiper l’´evolution future d’un grandeur afin de prendre au plus vite une d´ecision.
signal de r´ ef´ erence ?
-
-
retard
7
+
?
−
6
filtre adaptatif pr´ ediction
Figure 1.7 – Principe de la pr´ediction – l’annulation d’interf´erence : La figure 1.8 illustre le contexte du probl`eme d’annulation d’interf´erence. Le probl`eme de l’´electrocardiogramme cit´e auparavant est un probl`eme typique d’annulation d’interf´erence. On dispose 14
d’un signal primaire (´electrocardiogramme du b´eb´e) parasit´e par un signal de r´ef´erence d´eform´e. Ce signal de r´ef´erence est l’´electrocardiogramme de la m`ere. Le filtrage adaptatif va permettre une compensation de l’influence de l’´electrocardiogramme de la m`ere sur l’´electrocardiogramme du b´eb´e. signal de r´ ef´ erence d´ eform´ e + signal primaire ?
signal de r´ ef´ erence
-
7
+
?
−
6
filtre adaptatif
Figure 1.8 – Principe de l’annulation d’interf´erence – la mod´elisation inverse : La figure 1.9 illustre le contexte du probl`eme de mod´elisation inverse. Il s’agit ici de reconstruire au mieux un signal de r´ef´erence qui a ´et´e ”d´eform´e” par un processus inconnu. Le filtre adaptatif doit permettre une compensation des d´eformations induites par le processus. En T´el´ecom ce probl`eme est d´esign´e sous le nom de probl`eme d’´egalisation.
retard
signal de r´ ef´ erence ?
-
-
processus
7
+
?
−
6
filtre adaptatif estimation
Figure 1.9 – Principe de la mod´elisation inverse
15
CHAPITRE
2
Filtrage adaptatif au sens de Wiener
2.1
Principe g´ en´ eraux
Le principe de synth`ese du filtre est pr´esent´e sur la figure 2.1. Il est suppos´e ici que le signal qu’on souhaite estimer, y(t), est corr´el´e `a un second signal u(t). Cette estimation de y(t) sera not´ee yb(t) et prendra la forme suivante : avec
yb(t) = H(q)u(t)
(2.1)
H(q) = h0 + h1 q −1 + h2 q −2 + . . . + hn q −n =
n X
hi q −i
i=0
−1
o` u q est l’op´erateur retard. H(z) est la fonction de transfert du filtre qui est suppos´e ici ˆetre un filtre FIR d’ordre n. Cette fonction de transfert s’´ecrit : H(z) = h0 + h1 z −1 + h2 z −2 + . . . + hn z −n =
n X
hi z −i
i=0
Remarque : Ce type de filtre a l’avantage d’ˆetre toujours stable. D’un point de vue mise en oeuvre, c’est une garantie appr´eciable. yb(t) s’exprime donc comme suit : yb(t) =
n X i=0
hi u(t − iTe )
o` u Te est la p´eriode d’´echantillonnage.
16
y(t)
-
u(t)
7
y(t) b
H(z)
+ -? −
y(t) e
Figure 2.1 – Principe du filtrage de Wiener
2.1.1
Contexte de signaux al´ eatoires et d´ eterministes
– Dans le cas des signaux al´eatoires, le filtrage de Wiener consiste en une d´etermination des coefficients hi du filtre via la minimisation d’une fonction de coˆ ut JW faisant intervenir l’erreur quadratique moyenne entre y(t) et son estimation : JW = E{(y(t) − yb(t))2 } (2.2) Remarquons que dans le cas des signaux al´eatoires stationnaires ergodiques, ce crit`ere peut ˆetre reformul´e de la mani`ere suivante en faisant intervenir la moyenne temporelle : t 1X JW = lim (yk − ybk )2 (2.3) t→∞ t k=1 La minimisation de l’une ou l’autre des fonctions de coˆ ut importe peu en terme de r´esultat final, n´eanmoins les ´ecritures seront plus l´eg`eres pour le crit`ere de nature probabiliste, `a savoir (2.2)
– Dans le cas des signaux d´eterministes, le crit`ere (2.2) n’a pas de sens, n’est alors consid´er´e que le crit`ere (2.3) : t 1X JW = lim (yk − ybk )2 t→∞ t k=1
Dans la suite, afin de ne pas alourdir les ´ecritures, nous d´eterminerons uniquement le vecteur des param`etres minimisant le crit`ere (2.2), on se placera par cons´equent dans un contexte al´eatoire. La r´esolution du second crit`ere ´etant analogue `a celle du premier, le r´esultat sera simplement ´enonc´e et non d´emontr´e.
2.1.2
Formalisme
Dans la suite on notera ye(t) l’erreur d’estimation : ye(t) = y(t) − yb(t) ye(t) = y(t) −
n X i=0
hi u(t − iTe )
Ceci peut aussi se r´e´ecrire sous le formalisme usuel des moindres carr´es comme suit : ye(t) = y(t) − φ(t)T θ 17
avec
φ(t) =
u(t) u(t − Te ) .. . u(t − nTe )
θ=
et
h0 h1 .. . hn
Remarque : Dans certaines situations il peut ˆetre n´ecessaire de faire de la pr´ediction de signaux (pr´esence de retard, anticipation sur une d´ecision), ceci revient alors `a r´ealiser l’estimation d’une valeur future y(t + jTe ) `a partir des donn´ees disponibles jusqu’`a l’instant t. Cette estimation prend la forme : n X yb(t + jTe ) = hi u(t − iTe ) i=0
o` u j d´esigne le pas de pr´ediction. Ceci peut se r´e´ecrire comme suit n X yb(t) = hi u(t − iTe − jTe ) = H(q)u(t) i=0
o` u H(z) est le filtre d´efini par :
H(z) = z −j (h0 + h1 z −1 + h2 z −2 + . . . + hn z −n ) = z −j
n X
hi z −i
i=0
Le crit`ere de Wiener reste le mˆeme, `a savoir (2.2) ou (2.3) suivant le type de signaux trait´es.
2.2
Solution globale
2.2.1
Recherche des param` etres du filtre
Les coefficients du filtre sont obtenus par minimisation de la fonction de coˆ ut JW , par cons´equent ils se caract´erisent par l’annulation de la d´eriv´ee de cette fonction de coˆ ut : dJW =0 dθ Dans un contexte al´eatoire, JW est de la forme : JW = E (y(t) − φ(t)T θ)2 Il vient alors
dJW = 2E φ(t)(y(t) − φ(t)T θ) = 0 dθ E {φ(t)y(t)} = E φ(t)φ(t)T θ
18
(2.4) (2.5)
D’apr`es la forme de φ(t) on a : u(t)y(t) u(t − Te )y(t) E {φ(t)y(t)} = E .. . u(t − nT e )y(t) E {u(t)y(t)} E {u(t − Te )y(t)} = .. .
nTe )y(t)} E {u(t − Γyu (0) Γyu (1) = .. . Γyu (n)
o` u Γyu (i) est la fonction de corr´elation entre y(t) et u(t − iTe ) dont l’expression est rappel´ee `a la page 10. De la mˆeme mani`ere on a : Γuu (0) Γuu (1) · · · Γuu (n) .. . Γuu (−1) Γuu (0) . . . T = E φ(t)φ(t) .. . . . . . . . . . . Γuu (−n) ··· · · · Γuu (0)
Dans le cas de signaux r´eels, la fonction d’autocorr´elation est paire, par cons´equent Γuu (−i) = Γuu (i) et il vient alors : Γuu (0) Γuu (1) · · · Γuu (n) .. . Γuu (1) Γuu (0) . . . T E φ(t)φ(t) = .. . . . . . . . . . . Γuu (n) ··· · · · Γuu (0) On notera dans la suite les matrices : E φ(t)φ(t)T = Γuu E {φ(t)y(t)} = Γyu
L’´equation (2.5), appel´ee ´equation de Wiener-Hopf, peut donc ˆetre exprim´ee de la mani`ere suivante : ´equation de Wiener-Hopf : Γyu = Γuu θ
(2.6)
Le vecteur des param`etres solutions est alors d´efini par : θ = (Γuu )−1 Γyu
(2.7)
19
Remarque : si on souhaite faire de la pr´ediction lin´eaire, c’est `a dire un filtrage de la forme yˆ(t) = H(q)y(t − 1), on constate que la solution pr´ec´edente correspond au syst`eme d’´equations de Yule-Walker vu pour la mod´elisation AR d’un signal (voir cours de traitement num´erique du signal).
2.2.2
V´ erification du principe d’orthogonalit´ e
D’apr`es (2.4), on constate que la solution de l’´equation de Wiener-Hopf v´erifie : E φ(t)(y(t) − φ(t)T θ) = 0
Ainsi l’erreur d’estimation ye(t) = y(t) − φ(t)T θ est orthogonale au vecteur des entr´ees du filtre φ(t). Ceci correspond au principe d’orthogonalit´e, principe g´en´eral `a toute estimation quadratique. L’estimation yb(t) apparaˆıt ˆetre ainsi la projection orthogonale de y(t) sur le plan engendr´e par φ(t) comme illustr´e sur la figure 2.2. 6 y(t) e
.... .... .... .... .... y(t) .. .. .. .. .. .. .. . y(t) b
6
1
-
j
plan φ(t)
Figure 2.2 – Principe d’orthogonalit´e
2.2.3
Mise en oeuvre
L’algorithme d’application de la solution globale est pr´esent´e sur la figure 2.3.
d´etermination de Γyu et Γuu ? θ = (Γuu )−1 Γyu ? Figure 2.3 – Solution de Wiener-Hopf Cet algorithme relativement simple souffre de quelques d´efauts. Tout d’abord il n´ecessite la connaissance des termes de corr´elation Γuu (i) et Γyu (i) pour i ∈ [0; n], ceci est dˆ u au fait que la solution (2.9) est obtenu par minimisation du crit`ere (2.2) de nature probabiliste. En g´en´eral on ne dispose que de r´ealisations des signaux al´eatoires u(t) et y(t) et non des termes Γuu (i) et Γyu (i).
20
Remarquons que l’hypoth`ese d’ergodicit´e ´etant v´erifi´ee il est possible de substituer au crit`ere (2.2) le crit`ere (2.3). On peut ais´ement d´emontrer que le vecteur des param`etres minimisant (2.3) est d´etermin´e par : θ = (Ruu )−1 Ryu avec
(
(2.8)
PN Ruu (i) = limN →∞ N1 k=1 uk+i uk P N Ryu (i) = limN →∞ N1 k=1 yk+i uk
Puisque les signaux sont al´eatoires stationnaires ergodiques on a Ruu (i) = Γuu (i) Ryu (i) = Γyu (i) La solution (2.8) est donc bien ´equivalente `a la solution de l’´equation de WienerHopf (2.7). D’un point de vue pratique, ne disposant des donn´ees que jusqu’`a l’instant t = N Te on notera ( PN buu/t (i) = 1 R N P k=1 uk+i uk byu/t (i) = 1 N yk+i uk R k=1 N b uu/t et En substituant respectivement Γuu (ou Ruu ) et Γyu (ou Ryu ) par R b Ryu/t dans l’´equation (2.7) on obtient : b uu/t )−1 R b yu/t θbt = (R
(2.9)
o` u θbt d´esigne une estimation de θ `a partir des donn´ees jusqu’`a l’instant t = N Te . L’algorithme de mise en oeuvre est pr´esent´e sur la figure 2.4. b yu/t et R b uu/t calcul de R ? b uu/t )−1 R b yu/t θbt = (R ?
Figure 2.4 – Algorithme de mise en oeuvre de la solution de Wiener-Hopf Ensuite, cet algorithme n´ecessite l’inversion d’une matrice Γuu (ou Ruu ), probl`eme plus d´elicat puisqu’il s’agit d’une op´eration coˆ uteuse en temps de calcul et risqu´ee en terme de fiabilit´e. Enfin, si apr`es une premi`ere estimation du vecteur des param`etres, on dispose de nouvelles donn´ees que l’on veut exploiter pour am´eliorer la premi`ere estimation, on est oblig´e de reprendre tous les calculs depuis le d´ebut. 21
Ces deux derniers probl`emes peuvent ˆetre contraignant dans le cas de l’utilisation d’un calculateur ne permettant pas l’inversion de la matrice Γuu (ou Ruu ) ou encore dans le cas d’un probl`eme n´ecessitant une application en temps r´eel pour laquelle il est n´ecessaire d’actualiser `a chaque instant la valeur des param`etres du filtre. Un algorithme r´ecursif sera propos´e dans la suite afin de permettre un contournement intuitive des deux probl`emes pr´ec´edents.
2.2.4
Exemple
Dans le cas d’un filtre d’ordre 0, l’estimation yb(t) prend la forme yb(t) = h0 u(t) et la fonction de coˆ ut devient : JW = E{(y(t) − h0 u(t))2 }
JW = Γy (0) − 2h0 Γyu (0) + h20 Γuu (0) avec
Γyy (0) = E{y(t)2 } Γuu (0) = E{u(t)2 } Γyu (0) = E{y(t)u(t)}
JW correspond `a une fonction du second degr´e en h0 . Sa d´eriv´ee par rapport `a h0 s’exprime somme suit : dJW = −2Γyu (0) + 2h0 Γuu (0) dh0 d’o` u dJW Γyu (0) = 0 ⇒ h0 = dh0 Γuu (0) Pour y(t) et u(t) tels que : Γyy (0) = 10 Γuu (0) = 1 Γyu (0) = 3
(2.10)
on a h0 = 3. Les informations sur Γuu (0) et Γyu (0) sont g´en´eralement estim´ees `a partir de s´eries de donn´ees. Afin d’illustrer ceci, nous avons utilis´e des s´eries de donn´ees correspondant aux r´ealisations de signaux al´eatoires satisfaisants les relations (2.10). L’hypoth`ese d’ergodicit´e ´etant par nature v´erifi´ee ici, Γuu (0) et Γyu (0) peuvent ˆetre estim´es, pour t ≫ 1, comme suit : buu/t (0) Γuu (0) ≃ R byu/t (0) Γyu (0) ≃ R
La figure 2.5 pr´esente l’estimation de h0 `a partir de ces r´ealisations et en fonction du nombre de donn´ees utilis´ees. Il apparaˆıt que cette estimation converge vers la valeur vraie de h0 .
22
3.04
3.03
estimation de h
0
3.02
3.01
3
2.99
2.98
2.97
2.96
2.95
0
0.5
1
1.5
2
2.5 3 nombre de points
3.5
4
4.5
5 4
x 10
Figure 2.5 – Estimation de h0
2.3
Solution r´ ecursive
2.3.1
Premi` ere approche
Consid´erons le cas envisag´e dans une des remarques pr´ec´edentes `a savoir : on suppose disposer d’une premi`ere estimation du vecteur des param`etres (not´ee θbt−Te ) et vouloir am´eliorer cette estimation en exploitant de nouvelles informations disponible `a l’instant t. Ces nouvelles informations sont y(t) et u(t). La solution r´ecursive propose une actualisation de θbt−Te sans passer par l’ensemble des calculs n´ecessaires dans la solution globale et notamment sans passer par l’inversion de la matrice Γuu .
Remarque : Signalons tout de suite que la solution sur θ propos´ee par l’algorithme r´ecursif n’est qu’une approximation de la solution propos´ee par l’´equation de WienerHopf. Il sera vu plus loin les conditions n´ecessaires pour que cette approximation ne soit pas trop grossi`ere. Intuitivement la nouvelle estimation du vecteur des param`etres va prendre la forme : θbt = θbt−Te + terme correctif
Le terme correctif va prendre en compte la d´eriv´ee de la fonction de coˆ ut par rapport `a l’ancien jeu de param`etres θbt−Te , ceci afin de se d´eplacer dans le sens d’une erreur la plus faible possible. Ceci est illustr´e sur la figure 2.6. Notons JW (t/t − Te ) la valeur de la fonction de coˆ ut `a l’instant t, connaissant les param`etres estim´es `a l’instant t − Te : JW (t/t − Te ) = E{(y(t) − φ(t)T θbt−Te )2 }
– Si la d´eriv´ee
dJW (t/t−Te ) dθbt−Te
est positive (c’est le cas sur la figure de gauche) alors
on va diminuer θbt−Te de mani`ere `a se d´eplacer vers le minimum de la fonction de coˆ ut. Le terme correctif sera donc choisi n´egatif. – Si la d´eriv´ee dJW b(t/t−Te ) est n´egative (c’est le cas sur la figure de droite) dθt−Te
alors on va augmenter θbt−Te de mani`ere `a se d´eplacer vers le minimum de la fonction de coˆ ut. Le terme correctif sera donc choisi positif. 23
JW (t/t − Te )
JW (t/t − Te )
6
6 dJW (t/t−Te ) b dθ t−Te
. .. . .. .. .. .
dJW (t/t−Te ) b dθ t−Te
-
b θ t−Te
.. .. .. w .. ..
b θ
b θ t−Te
-
b θ
Figure 2.6 – Une premi`ere version possible de l’algorithme est donc : ! µ dJW (t/t − Te ) b b θt = θt−Te − signe 2 dθbt−T e
avec µ > 0.
Le terme signe
dJW (t/t−Te ) dθbt−T e
va permettre une ´evolution des param`etres de
mani`ere `a minimiser la fonction de coˆ ut, le terme µ2 permet l’ajustement de l’amplitude du saut de l’ancienne `a la nouvelle estimation. Une difficult´e sur l’algorithme pr´ec´edent est le fait que cette amplitude est constante, d’o` u le risque de voir l’algorithme osciller au bout d’un moment autour de la solution sans parvenir `a se stabiliser.
2.3.2
Algorithme du gradient d´ eterministe
Afin de prendre en compte l’amplitude de la d´eriv´ee et ´eviter dans la mesure du possible ce ph´enom`ene d’oscillation, une autre forme possible de l’algorithme est la suivante :
On a
µ dJW (t/t − Te ) θbt = θbt−Te − 2 dθbt−Te dJW (t/t − Te ) = −2E{φ(t)(y(t) − φ(t)T θbt−Te )} dθbt−T e
dJW (t/t − Te ) = −2(Γyu − Γuu θbt−Te ) dθbt−T
(2.11)
e
Ceci permet l’expression suivante sur θbt : algorithme du gradient : θbt = θbt−Te + µ(Γyu − Γuu θbt−Te )
24
(2.12)
Cet algorithme est aussi appel´e algorithme du gradient d´eterministe puisque les quantit´es Γyu et Γuu sont parfaitement connues et d´etermin´ees. Dans le cas de signaux al´eatoires stationnaires ergodiques ou dans le cas de signaux d´eterministes, cet algorithme s’´enonce de la mani`ere suivante : algorithme du gradient : θbt = θbt−Te + µ(Ryu − Ruu θbt−Te )
2.3.3
(2.13)
Propri´ et´ e de convergence
Pour l’instant, rien ne garanti la convergence des param`etres de la solution r´ecursive θbt vers les param`etres de la solution globale. Il s’agit d’´etablir ici les conditions sur µ garantissant une telle convergence.
Notons θet = θ − θbt l’erreur entre le vecteur des param`etres de la solution globale θ (fournit par l’´equation de Wiener-Hopf) et le vecteur des param`etres de la solution r´ecursive θbt (fournit par l’algorithme du gradient). D’apr`es ce qui a ´et´e vu auparavant on a : θet = θ − θbt−Te − µ(Γyu − Γuu θbt−Te ) et Γyu = Γuu θ
Il vient :
d’o` u
θet = (1 − µΓuu )(θ − θbt−Te ) θet = (1 − µΓuu )θet−Te
ou encore
θet = (1 − µΓuu )N θe0
o` u t = N Te et θe0 d´esigne l’erreur au temps initial t = 0.
Γuu est une matrice sym´etrique d´efinie positive, on peut donc la d´ecomposer comme suit Γuu = P DP T avec D de la forme : λ1 0 · · · 0 .. . . 0 λ2 . . D= . . . .. .. .. 0 0 · · · 0 λn+1
o` u les λi d´esigne les valeurs propres de Γuu . θet peut donc ˆetre mis sous la forme suivante : θet = P (1 − µD)N P T θe0
25
avec
θet = P D′N P T θe0
D = ′
1 − µλ1
0
0 .. .
1 − µλ2 .. .
0
···
··· 0 .. .. . . .. . 0 0 1 − µλn+1
Il apparaˆıt deux cas figure suivant la nature des valeurs propres 1 − µλi : – Si elles sont toutes de valeur absolue inf´erieure `a 1 alors : lim P D′N P −1 = 0 t→∞ d’o` u lim θet = 0 t→∞ On a donc convergence du vecteur des param`etres de la solution r´ecursive vers la solution globale ; – Si au moins une valeur propre est de valeur absolue sup´erieure `a 1 alors lim P D′N P −1 = ∞ t→∞ d’o` u lim θet = ∞ t→∞
On a donc divergence du vecteur des param`etres θbt .
La condition de convergence de l’algorithme apparaˆıt donc ˆetre : −1 < 1 − µλi < 1 , ∀ i 0