Chapitre 1..inversion [PDF]

Inversion 1. DĂ©finitions Soit đ›„ un systĂšme physique donnĂ©, pour un astrophysicien đ›„ peut ĂȘtre une galaxie, pour un gĂ©oph

3 0 449KB

Report DMCA / Copyright

DOWNLOAD PDF FILE

Chapitre 1..inversion [PDF]

  • 0 0 0
  • GefĂ€llt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

Inversion 1. DĂ©finitions Soit đ›„ un systĂšme physique donnĂ©, pour un astrophysicien đ›„ peut ĂȘtre une galaxie, pour un gĂ©ophysicien đ›„ peut ĂȘtre la Terre, pour un biologiste đ›„ peut etre une cellule. L’étude du systĂšme đ›„ peut ĂȘtre effectuer comme suit : On admet une distribution des paramĂštres du systĂšme, pour laquelle on va estimer la rĂ©ponse, ces paramĂštres sont appelĂ©s paramĂštres modĂšle et leurs valeurs caractĂ©risent complĂštement le systĂšme, cette opĂ©ration est appelĂ©e paramĂ©trisation A partir des paramĂštres modĂšle caractĂ©risant le systĂšme đ›„, on va estimer une rĂ©ponse, qui est appelĂ©e observation ou expĂ©rimentation. Pour cela, on doit dĂ©terminer une relation entre les paramĂštres modĂšle et les observations, cette opĂ©ration est appelĂ©e problĂšme direct. Autrement dit, le problĂšme direct est la dĂ©couverte des lois physiques qu’a partir d’elles et pour des paramĂštres modĂšle donnĂ©es, on peut calculer la rĂ©ponse observĂ©e. La dĂ©termination des caractĂ©ristiques du systĂšme Δ Ă  partir des observations est appelĂ©e problĂšme inverse. Autrement dit, l’inversion est l’utilisation des rĂ©ponses actuelles de quelques mesures des paramĂštres observĂ©s pour estimer les paramĂštres modĂšle caractĂ©risant le systĂšme đ›„.

ProblĂšme directe

ParamĂštres dd modĂšle

Observations ModĂšle

ProblĂšme inverse Fig.1 ProblĂšme direct, ProblĂšme inverse

Données mesurées

2. ProblĂšme bien posĂ©, problĂšme mal posĂ© Le concept mathĂ©matique de problĂšme bien posĂ© provient d'une dĂ©finition de Hadamard qui pensait que les modĂšles mathĂ©matiques de phĂ©nomĂšnes physiques devraient avoir les propriĂ©tĂ©s suivantes : ‱ ‱ ‱

CritĂšre d’existence : la solution existe. CritĂšre d’unicitĂ© : la solution doit ĂȘtre unique. CritĂšre de stabilitĂ© : la solution dĂ©pend continĂ»ment des donnĂ©es, une erreur de mesure, doit avoir le mĂȘme ordre de grandeur dans l’estimation des paramĂštres du modĂšle.

Le problĂšme est mal posĂ© si l’une de ces propriĂ©tĂ©s n’est pas satisfaite. En pratique, les problĂšmes inverses ne vĂ©rifient souvent pas l’une ou l’autre de ces conditions : Un modĂšle physique Ă©tant fixĂ©, les donnĂ©es expĂ©rimentales dont on dispose sont en gĂ©nĂ©ral bruitĂ©es, et rien ne garantit que de telles donnĂ©es proviennent de ce modĂšle, mĂȘme pour un autre jeu de paramĂštres. Si une solution existe, il est parfaitement concevable que des paramĂštres diffĂ©rents conduisent aux mĂȘmes observations Le fait que la solution d’un problĂšme inverse puisse ne pas exister n’est pas une difficultĂ© sĂ©rieuse. La non-unicitĂ© est un problĂšme plus sĂ©rieux. Si un problĂšme a plusieurs solutions, il faut un moyen de choisir entre elles. Pour cela, il faut disposer d’informations supplĂ©mentaires (une information a priori). Le manque de continuitĂ© est sans doute le plus problĂ©matique, Le manque de continuitĂ© est sans doute le plus problĂ©matique, en particulier en vue d’une rĂ©solution approchĂ©e ou numĂ©rique. Cela veut dire qu’il ne sera pas possible (indĂ©pendamment de la mÂŽmĂ©thode numĂ©rique) d’approcher de façon satisfaisante la solution du problĂšme inverse, puisque les donnĂ©es disponibles seront bruitĂ©es donc proches, mais diffĂ©rentes, des donnĂ©es rĂ©elles.

➱ Exemples de problĂšmes inverses en gĂ©ophysique : a) Sismique : Le but est d’établir une cartographie des hĂ©tĂ©rogĂ©nĂ©itĂ©s du sous-sol dĂ©crites gĂ©nĂ©ralement par la vitesse de propagation des ondes sismiques. La propagation des ondes sismiques dans le sous-sol est en gĂ©nĂ©ral provoquĂ©e par des sources artificielles (gĂ©nĂ©ralement des sources explosives) activĂ©es Ă  des temps et des positions contrĂŽlĂ©es. Les ondes sismiques sont enregistrĂ©es par un dispositif de capteurs situĂ© Ă  la surface de la terre ou au fond de la mer. Les capteurs enregistrent l’arrivĂ©e des diffĂ©rentes ondes sismiques au cours du temps sous forme d’une sĂ©rie temporelle appelĂ©e sismogramme. La numĂ©risation des temps d’arrivĂ©e des ondes sismiques sur les sismogrammes fournit un ensemble d’observations reprĂ©sentant une mesure indirecte des propriĂ©tĂ©s du sous-sol (vitesse de propagation des ondes). Il s’agit donc d’un problĂšme inverse : retrouver les propriĂ©tĂ©s du sous-sol Ă  partir des sismogrammes.

b) La gravimĂ©trie : La gravimĂ©trie, technique permettant de dĂ©tecter les variations de densitĂ© (selon la composition des terrains) Ă  partir de la mesure de l'intensitĂ© du champ de gravitĂ© g comparĂ©e Ă  une valeur de rĂ©fĂ©rence, A partir de la mesure des champs gravitationnels en utilisant des appareils appelĂ©s GravimĂštres, et avec les techniques de l’inversion on modĂ©lise les variations de la densitĂ© dans le sous-sol, et par consĂ©quent on tire un modĂšle (ou plusieurs modĂšles) gĂ©ologique du sous-sol. 3. Formulation du problĂšme : La plupart des phĂ©nomĂšnes physiques peuvent ĂȘtre dĂ©crites mathĂ©matiquement, L’une des relations les plus utilisĂ©es pour nous permettre de calculer la rĂ©ponse d’un systĂšme physique Ă  partir de ses paramĂštres modĂšle est l’équation-intĂ©grale de Fredholm du premier type : 𝑎

𝑑𝑖 = ∫ 𝑘𝑖 (𝑧). 𝑝(𝑧)𝑑𝑧

(1)

0

OĂč 𝑑𝑖 : reprĂ©sente la 𝑖 𝑒𝑚𝑒 donnĂ©e mesurĂ©e ou observĂ©e ; 𝑘𝑖 (𝑧) : ReprĂ©sente la relation mathĂ©matique liant l’espace des donnĂ©es Ă  celui des paramĂštres, appelĂ© Kernel ; 𝑝(𝑧) : ReprĂ©sentation spatiale des paramĂštres du modĂšle ; Le problĂšme inverse consiste Ă  calculer les paramĂštres du modĂšle 𝑝(𝑧) Ă  partir des donnĂ©es observĂ©es ou mesurĂ©es, en se basant sur la relation liant les deux espaces. Cette relation peut ĂȘtre linĂ©aire ou non-linĂ©aire.

A. ProblÚmes inverses linéaires :

On parle d’une fonction linĂ©aire si elle respecte les conditions suivantes : 𝑓(đ‘„ + 𝑩) = 𝑓(đ‘„) + 𝑓(𝑩) (Principe de superposition)

𝑓(đœ†đ‘„) = 𝜆𝑓(đ‘„) (Principe d’homogĂ©nĂ©itĂ©) Dans le cas linĂ©aire et continu, le problĂšme inverse est formulĂ© comme suis : 𝑎

𝑑𝑖 = ∫0 𝑘𝑖 (𝑧). 𝑝(𝑧)𝑑𝑧 OĂč : 𝑑𝑖 : reprĂ©sente le vecteur des observations 𝑘𝑖 (𝑧) : le kernel ; 𝑝(𝑧) : les paramĂštres modĂšles.

Dans le cas linĂ©aire discret, le problĂšme direct se formule comme suit : 𝑑 = đș𝑚 OĂč 𝑑 : reprĂ©sente les 𝑁 donnĂ©es (mesurĂ©es) ;

𝑚 : reprĂ©sente le 𝑀 inconnus (paramĂštres modĂšle) ; đș : est appelĂ© operateur, est une matrice de dimension 𝑀 × 𝑁. Pour un problĂšme inverse bien posĂ©, la solution exacte peut ĂȘtre calculĂ©e par deux mĂ©thodes : â–Ș â–Ș

En utilisant les mĂ©thodes numĂ©riques de rĂ©solution directe des systĂšmes linĂ©aires. En calculant l’inverse de la matrice đș :

(2) 𝑚 = đș š1 . 𝑑 Ce cas est trĂšs rare en pratique Ă  cause du caractĂšre mal posĂ© du problĂšme, en gĂ©ophysique les problĂšmes inverses peuvent ĂȘtre : ‱ ‱ ‱

SurdĂ©terminĂ©s : 𝑖 > 𝑗 nombre de mesures supĂ©rieur au nombre de paramĂštres. Sous-dĂ©terminĂ©s : 𝑖 < 𝑗 nombre de mesures infĂ©rieur au nombre de paramĂštres. UniformĂ©ment dĂ©terminĂ©s : 𝑖 = 𝑗 nombre de mesure Ă©gale au nombre de paramĂštres, mais ce qui ne reprĂ©sente pas forcĂ©ment un problĂšme bien posĂ© car o La matrice đș, peut ĂȘtre singuliĂšre et donc non inversible. o Le systĂšme peut ĂȘtre mal conditionnĂ© (instable). a) RĂ©solution du problĂšme linĂ©aire mal posĂ© par la mĂ©thode des moindres carrĂ©s :

La mĂ©thode des moindres carrĂ©s permet de comparer des donnĂ©es expĂ©rimentales, gĂ©nĂ©ralement entachĂ©es d’erreurs de mesure Ă  un modĂšle mathĂ©matique censĂ© dĂ©crire ces donnĂ©es : 𝑑 − đș𝑚 = 𝑒

(3)

Ainsi, la meilleure façon d’obtenir une solution unique, qui se rapproche le mieux de la solution exacte, est de minimiser l’écart entre les donnĂ©es mesurĂ©es, et les donnĂ©es calculĂ©es Ă  partir des paramĂštres estimĂ©s, au sens des moindres carrĂ©s (norme euclidienne L2), et qui s’écrit comme suit : 2 đ›· = 𝑒 𝑇 𝑒 = ∑𝑛𝑖=1 (𝑑𝑖 − ∑𝑚 𝑗=1 đș𝑖𝑗 𝑚𝑗 )

(4)

đ›· : est appelĂ©e fonction coĂ»t ou fonction objectif, Le but de la mĂ©thode est de minimiser la fonction coĂ»t, c’est Ă  dire minimiser l’écart entre les donnĂ©es mesurĂ©es et les donnĂ©es calculĂ©es Ă  partir des paramĂštres estimĂ©s : đ›· = 𝑒 𝑇 𝑒 = (𝑑𝑖 − đș𝑖 𝑚𝑖 )𝑇 . (𝑑𝑖 − đș𝑖 𝑚𝑖 )

(5)

Pour minimiser cette fonction objectif, on doit annuler sa dĂ©rivĂ©e pour tout 𝑚 :

đ‘‘đ›· 𝑑(𝑑 𝑇 − 𝑑 𝑇 đș𝑚 − 𝑚𝑇 đș 𝑇 𝑑 + 𝑚𝑇 đș 𝑇 đș𝑚) = =0 𝑑𝑚 𝑑𝑚

(6)

−𝑑 𝑇 đș − đș 𝑇 𝑑 + đș 𝑇 đș𝑚 + 𝑚𝑇 đș 𝑇 đș = 0

(7)

đș 𝑇 đș𝑚 = đș 𝑇 𝑑

(8)

đ‘šÌ‡ = (đș 𝑇 đș)−1 đș 𝑇 𝑑

(9)

On obtient :

On obtient :

Ce qui donne :

Cette valeur représente la solution générale des problÚmes inverses linéaire par la méthode des moindres carrés.

b) RĂ©gularisation du problĂšme inverse linĂ©aire : Avant d’aborder la rĂ©gularisation du problĂšme inverse on doit introduire la notion de l’information Ă  priori. â–Ș

L’information à priori :

C’est une information connue au prĂ©alable, qui ne dĂ©pend pas des donnĂ©es observĂ©es, elle peut provenir des mesures directes des paramĂštres du modĂšle (sur des affleurements de structures, ou donnĂ©es de puits), d’expĂ©rimentations, ou de la thĂ©orie sur la physique du systĂšme. Ces informations sont souvent limitĂ©es spatialement. En gĂ©ophysique, et sciences associĂ©es, les donnĂ©es observĂ©es sont souvent bruitĂ©es, et donc contiennent des signaux non reprĂ©sentatifs de l’état du modĂšle, en inversant ces donnĂ©es, la solution rĂ©sultante peut dĂ©vier de la rĂ©alitĂ© gĂ©ologique, afin de contraindre le systĂšme Ă  converger vers la solution rĂ©elle, on peut utiliser des informations Ă  priori. L’incorporation de ses informations sert aussi Ă  contraindre le systĂšme Ă  choisir une, parmi les nombreuses solutions Ă©quivalentes du modĂšle. En problĂšmes inverses, la rĂ©gularisation consiste Ă  ajouter des informations Ă  priori afin de rĂ©soudre les problĂšmes mal posĂ©s qui sont dus Ă  la prĂ©sence de bruits, ce qui a une grande

influence sur l’opĂ©ration de l’inversion. Alors l’utilisation de l’information Ă  priori sert Ă  contraindre le systĂšme Ă  converger Ă  une solution rĂ©elle qui reflĂšte la rĂ©alitĂ© gĂ©ologique. Alors la rĂ©gularisation d’un problĂšme inverse correspond Ă  l’idĂ©e que les donnĂ©es seules ne permettent pas d’obtenir une solution acceptable et qu’il faut donc introduire une information a priori sur la rĂ©gularitĂ© de l’objet Ă  estimer. Nous entendons ici par le terme rĂ©gularitĂ© le fait que l’objet, pour des raisons physiques tenant Ă  sa nature mĂȘme, doit possĂ©der certaines propriĂ©tĂ©s, ou encore obĂ©ir Ă  certaines rĂšgles (de signe, de taille, de frĂ©quences par exemple). La solution rĂ©sulte alors d’un compromis entre l’exigence de fidĂ©litĂ© aux donnĂ©es et celle de la rĂ©gularitĂ© postulĂ©e de l’objet. On peut dĂ©finir la rĂ©gularisation comme Ă©tant une maniĂšre de forcer le systĂšme Ă  converger vers la solution rĂ©elle en se basant sur des informations Ă  priori, et ce, en ajoutant un second terme Ă  la fonction coĂ»t qu’on cherchera Ă  minimiser.

â–Ș

Formulation mathématique de la régularisation de Tikhonov :

Dans le but de privilégier une solution particuliÚre dotée de propriétés qui semblent pertinentes, un terme de régularisation est introduit dans la minimisation :

‖đș𝑚 − 𝑑‖2 − ‖Ύ𝑚‖2

(10)

Ύ Est appelĂ© matrice de Tikhonov, elle doit ĂȘtre judicieusement choisie pour le problĂšme considĂ©rĂ©. 𝑚 ̂ = 𝑎𝑟𝑔𝑚𝑖𝑛‖đș𝑚 − 𝑑‖2 − ‖Ύ𝑚‖2

(11)

Le but est d’annuler la dĂ©rivĂ©e de ‖đș𝑚 − 𝑑‖2 − ‖Ύ𝑚‖2 :

2đș 𝑇 (đș𝑚 − 𝑑) − 2Ύ𝑇 Ύ𝑚 = 0

(12)

Ce qui nous donne : (13) 𝑚 ̂ = (đș 𝑇 đș + Ύ𝑇 Ύ)−1 đș 𝑇 𝑑 L'effet de la rĂ©gularisation dĂ©pend du choix de la matrice Ύ . Lorsque Ύ est nulle, on en revient au cas de la solution, non rĂ©gularisĂ©e, des moindres carrĂ©s, pourvu que (𝐮𝑇 𝐮)−1 −1 existe.

B. ProblÚmes inverses non-linéaires : a) ProblÚmes inverses non-linéaires sans contraintes :

Dans les problĂšmes inverses non linĂ©aires la relation entre les observations et les paramĂštres du modĂšle est plus complexe. On peut Ă©crire cette relation sous la forme m = G(p) oĂč cette fois, l'opĂ©rateur G est non linĂ©aire. La rĂ©solution de ce type de problĂšme se fait comme suit :

1) CaractĂ©risation de linĂ©aritĂ© : Dans de nombreux problĂšmes physiques, la relation liant les paramĂštres modĂšles aux donnĂ©es mesurĂ©es est non linĂ©aire, pour certains cas il est trĂšs facile de rĂ©arranger le problĂšme sous forme linĂ©aire. Tenant par exemple la fameuse relation en sismique rĂ©fraction liant les donnĂ©es observĂ©es (les temps de parcours) aux paramĂštres du modĂšle (Vitesses des ondes rĂ©fractĂ©es) : 𝑡𝑛 =

𝑋𝑛 2ℎ cos đ›© + ∑𝑛−1 𝑖=1 𝑉𝑛 𝑉𝑖

(14)

Il est Ă©vident que la relation entre l’espace des donnĂ©es et l’espace des paramĂštres n’est pas linĂ©aire, pour linĂ©ariser le problĂšme on procĂ©dera l’opĂ©ration suivante : 𝑡𝑛 = 𝑋𝑛. 𝑆𝑛 + ∑𝑛−1 𝑖=1

2ℎ cos đ›© 𝑉𝑖

(15)

OĂč : 1 𝑆 = 𝑉 : est la lenteur. Afin de linĂ©ariser le problĂšme, on remplace un paramĂštre par un autre paramĂštre pour rendre la relation linĂ©aire. Mais cette opĂ©ration n’est pas toujours facile, il existe des relations complexes qui ne peuvent ĂȘtre linĂ©arisĂ©es par simple paramĂ©trisation. Alors la rĂ©solution de ce type complexe de problĂšme se fait en utilisant les moindres carrĂ©s tout en linĂ©arisant le systĂšme par le dĂ©veloppement de Taylor : Soit 𝒅 le vecteur de dimension m des valeurs observĂ©es, et ÎČ le vecteur de dimensions n des paramĂštres modĂšle, avec la fonction f qui relie l’espace des paramĂštres Ă  l’espace des donnĂ©es : 𝑑 = 𝑓(đ›œ) On souhaite trouver le vecteur de paramĂštres ÎČ qui ajuste au mieux les donnĂ©es, au sens des moindres carrĂ©s : Soit S la somme des carrĂ©s rĂ©sidus 𝑟𝑖 : 2 (16) 𝑆 = ∑𝑚 𝑖=1 𝑟𝑖 Avec 𝑟𝑖 = 𝑑𝑖 − 𝑓(đ›œ) Le but est d’atteindre le minimum, c’est-Ă -dire que le gradient s’annule : 𝜕𝑆 𝜕𝑟𝑖 = 2∑𝑚 𝑖=1 𝑟𝑖 đœ•đ›œ đœ•đ›œđ‘—

(17)

Pour converger vers la solution du problĂšme il faut fournir des approximations successives ÎČk de plus en plus proches de la vraie valeur (inconnue) des paramĂštres ÎČ, đ›œđ‘˜+1 = đ›œđ‘˜ + đ›„đ›œ À chaque itĂ©ration, le modĂšle initial est linĂ©arisĂ© par un dĂ©veloppement de Taylor autour de ÎČk comme suit :

(18)

𝑓(đ›œ) ≃ 𝑓(đ›œđ‘˜ ) +∗ ∑𝑚 𝑗=1

𝜕𝑓𝑖 (đ›œ) đ›„đ›œ ≃ 𝑓(đ›œđ‘˜ ) + ∑𝑚 𝑗=1 đœđ‘–đ‘— đ›„đ›œđ‘— đœ•đ›œđ‘—

(19)

La matrice jacobienne J dĂ©pend des donnĂ©es et de l'approximation en cours, aussi change-t-elle 𝜕𝑟

d'une itĂ©ration Ă  l'autre. Ainsi, en terme du modĂšle linĂ©arisĂ©, đœ•đ›œđ‘– = âˆ’đœđ‘–đ‘— et les rĂ©sidus sont donnĂ©s 𝑗

par : 𝑟𝑖 = đ›„đ‘Šđ‘– − ∑𝑚 𝑗=1 đœđ‘–đ‘— đ›„đ›œđ‘— ; đ›„đ‘Šđ‘– = 𝑩𝑖 − 𝑓(đ›œđ‘˜ )

(20)

𝑟𝑖 = 𝑌 − 𝐮𝑋

(21)

On pose Y= đ›„đ‘Šđ‘– A=∑𝑚 𝑗=1 đœđ‘–đ‘— X= đ›„đ›œđ‘— On obtient :

Y : représente la différence entre les données calculées à partir du modÚle initial et celles

observĂ©es. 𝐮: Matrice contenant les dĂ©rivĂ©es partielles de f, de taille (n×p), pour n donnĂ©es et p paramĂštres, appelĂ©e matrice jacobienne X : reprĂ©sente les perturbations Ă  apporter Ă  đ›œđ‘˜ pour minimiser le rĂ©sidu 𝑟𝑖 .

2) RĂ©solution du problĂšme : ‱ MĂ©thode de Gauss-Newton : On revient Ă  l’équation : 𝜕𝑆 𝜕𝑟𝑖 = 2∑𝑚 =0 𝑖=1 𝑟𝑖 đœ•đ›œ đœ•đ›œđ‘—

(22)

On obtient : 𝑛 −2∑𝑚 𝑖=1 đœđ‘–đ‘— (đ›„đ‘Šđ‘– − ∑𝑠=1 đœđ‘–đ‘  đ›„đ›œđ‘  ) = 0 (j=1,2,
..,,)

(23)

Ou encore 𝑚 𝑛 ∑𝑚 𝑖=1 ∑𝑠=1 đœđ‘–đ‘— đœđ‘–đ‘  đ›„đ›œđ‘  = ∑𝑖=1 đœđ‘–đ‘— đ›„đ‘Šđ‘–

(24)

Matriciellement, on en arrive Ă  : (đœđ‘‡ đœ)đ›„đ›œđ‘  = đœđ‘‡ đ›„đ‘Šđ‘–

(25)

La linĂ©arisation permet alors d’écrire : đ›œđ‘˜+1 = đ›œđ‘˜ + (đœđ‘‡ đœ)−1 đœđ‘‡ đ›„đ‘Š ‱

(26)

Méthode de la plus forte pente (méthode du gradient) :

La mĂ©thode de la plus forte pente est une mĂ©thode de gradient, elle consiste Ă  minimiser la fonction coĂ»t de maniĂšre itĂ©rative, tel que, Ă  chaque itĂ©ration, le modĂšle initial est corrigĂ© suivant la plus forte pente, dans la direction opposĂ©e au gradient de la fonction coĂ»t : On a: 𝑚𝑘+1 = 𝑚𝑘 + đ›Œđ‘˜ 𝑑𝑘

(27)

Avec : 𝑑: la direction de la plus forte pente đ›Œ : reprĂ©sente le pas le long de la direction de descente, tĂ©l que le nouveau itĂ©rĂ© donne Ă  la

fonction une valeur infĂ©rieure Ă  celle qu'elle a en l'itĂ©rĂ© courant. Il est clair que la direction de la plus forte descente est l’opposĂ© du gradient de la fonction cout 𝑑 = âˆ’đ›»đœ™

(28)

Alors l’algorithme de calcul se fait comme suit : On se donne un point/itĂ©rĂ© initial 𝑚0 et un seuil de tolĂ©rance 𝜀 ≫ 0. L'algorithme du gradient dĂ©finit une suite d'itĂ©rĂ©s (𝑚1 , 𝑚2
. ,) jusqu'Ă  ce qu'un test d'arrĂȘt soit satisfait. Il passe de 𝑚𝑘 Ă  𝑚𝑘+1 par les Ă©tapes suivantes : o o o o

Simulation : calcul de đ›»đœ™ . Test d'arrĂȘt : si â€–đ›»đœ™â€– < 𝜀, arrĂȘt. Calcul du pas đ›Œđ‘˜ > 0 le long de la direction Novel itĂ©rĂ©. 𝑚𝑘+1 = 𝑚𝑘 − đ›Œđ‘˜ đ›»đœ™

(29)

‱

MĂ©thode du gradient conjuguĂ© vue comme une mĂ©thode directe : L'objectif est de minimiser la fonction coĂ»t de la forme Am - b , oĂč A est une matrice carrĂ©e symĂ©trique dĂ©finie positive de taille n On rappelle que deux vecteurs non nuls u et v sont conjuguĂ©s par rapport Ă  A si : (30) 𝑱𝐮𝑣 = 0 Sachant que A est symĂ©trique dĂ©finie positive. La conjugaison est une relation symĂ©trique : si u est conjuguĂ© Ă  v pour A, alors v est conjuguĂ© Ă  u.

Supposons que {pk} est une suite de n directions conjuguĂ©es deux Ă  deux. Alors les {pk} forment une base de đ‘č𝒏 , ainsi la solution 𝑚∗ de 𝑹𝒎 = 𝑏 dans cette base : (31) 𝑚∗ = ∑𝑛𝑖=1 đ›Œđ‘– 𝑝𝑖 n

Alors 𝑛

𝑏 = 𝐮𝑚∗ = ∑𝑖=1 đ›Œđ‘– 𝐮𝑝𝑖 En multipliant par 𝑝𝑘 𝑇 𝑛 𝑝𝑘 𝑇 𝑏 = 𝑝𝑘 𝑇 𝐮𝑚∗ = ∑𝑖=1 đ›Œđ‘– 𝑝𝑘 𝑇 𝐮𝑝𝑖 = đ›Œđ‘˜ 𝑝𝑘 𝑇 𝐮𝑝𝑘

(car ∀𝑖 ≠ 𝑘 𝑝𝑖 𝑒𝑡 𝑝𝑘 sont conjuguĂ© deux Ă  deux) Alors : 𝑝𝑘 𝑇 𝑏 đ›Œđ‘˜ = 𝑇 𝑝𝑘 𝐮𝑝𝑘

(32)

(33)

(34)

On a ainsi l'idĂ©e directrice de la mĂ©thode pour rĂ©soudre le systĂšme đ‘šđ‘„ = 𝑏 : trouver une suite de n directions conjuguĂ©es, et calculer les coefficients đ›Œđ‘˜ . ‱ La mĂ©thode du gradient conjuguĂ© vue comme une mĂ©thode itĂ©rative La mĂ©thode du gradient conjuguĂ© est la mĂ©thode itĂ©rative la plus utilisĂ©e pour rĂ©soudre les problĂšmes inverses, sous sa forme la plus simple, elle est facile Ă  programmer et Ă  utiliser, tout en conservant la souplesse nĂ©cĂ©ssaire pour rĂ©soudre certains problĂšmes difficiles. ThĂ©oriquement, la mĂ©thode du radient conjugĂ© est descente de la mĂ©thode de la plus forte pente. On considĂšre ainsi un premier vecteur 𝑚0 , tel que : 𝑩 = 𝑑 − 𝐮𝑚0 (35) Ainsi, si notre fonction diminue aprĂšs une itĂ©ration, alors on s'approche de 𝑚. Soit rk le rĂ©sidu Ă  la ke itĂ©ration : 𝑟𝑘 = 𝑏 − 𝐮𝑚𝑘

(36)

Notons que 𝑟𝑘 est l'opposĂ© du gradient de f en 𝑚 = 𝑚𝑘 , ainsi, l'algorithme du gradient indique d'Ă©voluer dans la direction 𝑟𝑘 . On rappelle que les directions pk sont conjuguĂ©es deux Ă  deux. On veut aussi que la direction suivante soit construite Ă  partir du rĂ©sidu courant et des directions prĂ©cĂ©demment construites, ce qui est une hypothĂšse raisonnable en pratique. On a ainsi : (37) 𝑝𝑖 𝑇 𝐮𝑟𝑘 𝑝𝑘+1 = 𝑟𝑘 − âˆ‘đ‘–â‰€đ‘˜ 𝑇 𝑝𝑖 𝑝𝑖 𝐮𝑝𝑖 Suivant cette direction, le point suivant est donnĂ© par : 𝑚𝑘+1 = 𝑚𝑘 + đ›Œđ‘˜+1 𝑝𝑘+1 Avec :

(38)

đ›Œđ‘˜+1 =

𝑝𝑘+1 𝑇 (𝑏 − 𝐮𝑚𝑘 ) 𝑝𝑘+1 𝑇 𝑟𝑘 = 𝑝𝑘+1 𝑇 𝐮𝑝𝑘+1 𝑝𝑘+1 𝑇 𝐮𝑝𝑘+1

(39)

b) ProblĂšmes inverses non linĂ©aire avec contrainte : â–Ș MĂ©thode de Levenberg-Marquardt : La mĂ©thode de Levenberg-Marquard permet d'obtenir une solution numĂ©rique au problĂšme de minimisation d'une fonction, souvent non linĂ©aire et dĂ©pendant de plusieurs variables. L'algorithme repose sur les mĂ©thodes derriĂšre l'algorithme de Gauss-Newton et l'algorithme du gradient. Plus stable que celui de Gauss-Newton, il trouve une solution mĂȘme s'il est dĂ©marrĂ© trĂšs loin d'un minimum. Cependant, pour certaines fonctions trĂšs rĂ©guliĂšres, il peut converger lĂ©gĂšrement moins vite. L'algorithme fut dĂ©veloppĂ© par Kenneth Levenberg, puis publiĂ© par Donald Marquardt. Dans notre travail, la matrice 𝐮𝑇 𝐮 est mal conditionnĂ©es, pour remĂ©dier au problĂšme de conditionnement, Levenberg (1944) a suggĂ©rĂ© l’ajout d’un terme arbitraire constant Ă  la diagonale de la matrice 𝐮𝑇 𝐮 , Marquardt a formulĂ© le problĂšme de façon Ă  amortir (rĂ©gulariser) la perturbation du modĂšle afin d’éviter que la solution croisse de maniĂšre dĂ©mesurĂ©e Ă  chaque itĂ©ration, la mĂ©thode LM minimise alors l’écart 𝑒 = 𝑩 − đŽđ‘„et la perturbation đ‘„, la fonction coĂ»t s’écrira alors comme suit : 𝜙 = 𝑞1 + đ›œđ‘ž2 = 𝑒 𝑇 𝑒 + đ›œ(đ‘„ 𝑇 đ‘„ − 𝐿2 )

(40)

đ›œ : ReprĂ©sente le poids donnĂ© Ă  la rĂ©gularisation. 𝐿2 : ReprĂ©sente la contrainte que l’énergie de la perturbation ne doit dĂ©passer. Pour rĂ©soudre le problĂšme : 𝑑𝜙 𝑑(𝑩 − đŽđ‘„)𝑇 (𝑩 − đŽđ‘„) + đ›œ(đ‘„ 𝑇 đ‘„ − 𝐿2 ) = đ‘‘đ‘„ đ‘‘đ‘„

(40)

−2𝐮𝑇 𝑩 + 2𝐮𝑇 đŽđ‘„ + 2đœ·đ‘„ = 0

(41)

đ‘„ = (𝐮𝑇 𝐮 + đ›œđŒ)−1 𝐮𝑇 𝑩

(42)

On remarque dans le rĂ©sultat ci-dessus l’ajout d’une constante ÎČ Ă  la diagonale de la matrice jacobienne 𝐮𝑇 𝐮 , afin de remĂ©dier au problĂšme de conditionnement. On remarque que si ÎČ tend vers zĂ©ro, on se retrouve dans le cas de la mĂ©thode de Gauss-Newton. La formule de rĂ©currence s’écrit comme suit : 𝑚𝑘+1 = 𝑚𝑘 + (𝐮𝑇 𝐮 + đ›œđŒ)−1 𝐮𝑇 𝑩

(43)

La méthode Levenberg-Marquardt combine celle de Gauss-Newton et celle de la plus forte pente, tel que cette derniÚre domine lorsque le modÚle initial est loin du minima, alors que celle de Gauss-Newton domine lorsque le point de départ est proche du minima. On peut dire que cette

mĂ©thode, remĂ©die au problĂšme de stabilitĂ© de la mĂ©thode de Gauss-Newton, et au problĂšme de convergence de celle du gradient, ce qui fait d’elle la mĂ©thode la plus efficace et la plus utilisĂ©e pour rĂ©soudre les problĂšmes inverses non linĂ©aires en pratique.

Bibliographie: [1] Albert Tarantola. Inverse Problem Theory and Methods for Model Parameter Estimation.2005 [2] John A. Scales, Martin L. Smith and Sven Treitel. Introductory Geophysical Inverse Theory 2001 [3] MaĂ«lle Nodet. ProblĂšmes inverses pour l’environnement : outils, mĂ©thodes et applications. Optimisation et contrĂŽle [math. OC]. UniversitĂ© de Grenoble, 2013. [4] Michel Kern. ProblĂšmes inverses : aspects numĂ©riques. Engineering school. 1999 Ă  2002, École supĂ©rieure d’ingĂ©nieurs LĂ©onard de Vinci, 2002, pp.138. [5] Peter BĂŒhlmann, Sara van de Geer. Statistics for High-Dimensional Data. 2011 [6]Philippe Ciarlet, Introduction Ă  l’analyse numĂ©rique matricielle et Ă  l’optimisation, Masson, coll. « Math. Appl. pour la MaĂźtrise », 1985 (rĂ©impr. 2001)