2 0 449KB
Inversion 1. DĂ©finitions Soit đ„ un systĂšme physique donnĂ©, pour un astrophysicien đ„ peut ĂȘtre une galaxie, pour un gĂ©ophysicien đ„ peut ĂȘtre la Terre, pour un biologiste đ„ peut etre une cellule. LâĂ©tude du systĂšme đ„ peut ĂȘtre effectuer comme suit : On admet une distribution des paramĂštres du systĂšme, pour laquelle on va estimer la rĂ©ponse, ces paramĂštres sont appelĂ©s paramĂštres modĂšle et leurs valeurs caractĂ©risent complĂštement le systĂšme, cette opĂ©ration est appelĂ©e paramĂ©trisation A partir des paramĂštres modĂšle caractĂ©risant le systĂšme đ„, on va estimer une rĂ©ponse, qui est appelĂ©e observation ou expĂ©rimentation. Pour cela, on doit dĂ©terminer une relation entre les paramĂštres modĂšle et les observations, cette opĂ©ration est appelĂ©e problĂšme direct. Autrement dit, le problĂšme direct est la dĂ©couverte des lois physiques quâa partir dâelles et pour des paramĂštres modĂšle donnĂ©es, on peut calculer la rĂ©ponse observĂ©e. La dĂ©termination des caractĂ©ristiques du systĂšme Î Ă partir des observations est appelĂ©e problĂšme inverse. Autrement dit, lâinversion est lâutilisation des rĂ©ponses actuelles de quelques mesures des paramĂštres observĂ©s pour estimer les paramĂštres modĂšle caractĂ©risant le systĂšme đ„.
ProblĂšme directe
ParamĂštres dd modĂšle
Observations ModĂšle
ProblĂšme inverse Fig.1 ProblĂšme direct, ProblĂšme inverse
Données mesurées
2. ProblĂšme bien posĂ©, problĂšme mal posĂ© Le concept mathĂ©matique de problĂšme bien posĂ© provient d'une dĂ©finition de Hadamard qui pensait que les modĂšles mathĂ©matiques de phĂ©nomĂšnes physiques devraient avoir les propriĂ©tĂ©s suivantes : âą âą âą
CritĂšre dâexistence : la solution existe. CritĂšre dâunicitĂ© : la solution doit ĂȘtre unique. CritĂšre de stabilitĂ© : la solution dĂ©pend continĂ»ment des donnĂ©es, une erreur de mesure, doit avoir le mĂȘme ordre de grandeur dans lâestimation des paramĂštres du modĂšle.
Le problĂšme est mal posĂ© si lâune de ces propriĂ©tĂ©s nâest pas satisfaite. En pratique, les problĂšmes inverses ne vĂ©rifient souvent pas lâune ou lâautre de ces conditions : Un modĂšle physique Ă©tant fixĂ©, les donnĂ©es expĂ©rimentales dont on dispose sont en gĂ©nĂ©ral bruitĂ©es, et rien ne garantit que de telles donnĂ©es proviennent de ce modĂšle, mĂȘme pour un autre jeu de paramĂštres. Si une solution existe, il est parfaitement concevable que des paramĂštres diffĂ©rents conduisent aux mĂȘmes observations Le fait que la solution dâun problĂšme inverse puisse ne pas exister nâest pas une difficultĂ© sĂ©rieuse. La non-unicitĂ© est un problĂšme plus sĂ©rieux. Si un problĂšme a plusieurs solutions, il faut un moyen de choisir entre elles. Pour cela, il faut disposer dâinformations supplĂ©mentaires (une information a priori). Le manque de continuitĂ© est sans doute le plus problĂ©matique, Le manque de continuitĂ© est sans doute le plus problĂ©matique, en particulier en vue dâune rĂ©solution approchĂ©e ou numĂ©rique. Cela veut dire quâil ne sera pas possible (indĂ©pendamment de la mÂŽmĂ©thode numĂ©rique) dâapprocher de façon satisfaisante la solution du problĂšme inverse, puisque les donnĂ©es disponibles seront bruitĂ©es donc proches, mais diffĂ©rentes, des donnĂ©es rĂ©elles.
âą Exemples de problĂšmes inverses en gĂ©ophysique : a) Sismique : Le but est dâĂ©tablir une cartographie des hĂ©tĂ©rogĂ©nĂ©itĂ©s du sous-sol dĂ©crites gĂ©nĂ©ralement par la vitesse de propagation des ondes sismiques. La propagation des ondes sismiques dans le sous-sol est en gĂ©nĂ©ral provoquĂ©e par des sources artificielles (gĂ©nĂ©ralement des sources explosives) activĂ©es Ă des temps et des positions contrĂŽlĂ©es. Les ondes sismiques sont enregistrĂ©es par un dispositif de capteurs situĂ© Ă la surface de la terre ou au fond de la mer. Les capteurs enregistrent lâarrivĂ©e des diffĂ©rentes ondes sismiques au cours du temps sous forme dâune sĂ©rie temporelle appelĂ©e sismogramme. La numĂ©risation des temps dâarrivĂ©e des ondes sismiques sur les sismogrammes fournit un ensemble dâobservations reprĂ©sentant une mesure indirecte des propriĂ©tĂ©s du sous-sol (vitesse de propagation des ondes). Il sâagit donc dâun problĂšme inverse : retrouver les propriĂ©tĂ©s du sous-sol Ă partir des sismogrammes.
b) La gravimĂ©trie : La gravimĂ©trie, technique permettant de dĂ©tecter les variations de densitĂ© (selon la composition des terrains) Ă partir de la mesure de l'intensitĂ© du champ de gravitĂ© g comparĂ©e Ă une valeur de rĂ©fĂ©rence, A partir de la mesure des champs gravitationnels en utilisant des appareils appelĂ©s GravimĂštres, et avec les techniques de lâinversion on modĂ©lise les variations de la densitĂ© dans le sous-sol, et par consĂ©quent on tire un modĂšle (ou plusieurs modĂšles) gĂ©ologique du sous-sol. 3. Formulation du problĂšme : La plupart des phĂ©nomĂšnes physiques peuvent ĂȘtre dĂ©crites mathĂ©matiquement, Lâune des relations les plus utilisĂ©es pour nous permettre de calculer la rĂ©ponse dâun systĂšme physique Ă partir de ses paramĂštres modĂšle est lâĂ©quation-intĂ©grale de Fredholm du premier type : đ
đđ = â« đđ (đ§). đ(đ§)đđ§
(1)
0
OĂč đđ : reprĂ©sente la đ đđđ donnĂ©e mesurĂ©e ou observĂ©e ; đđ (đ§) : ReprĂ©sente la relation mathĂ©matique liant lâespace des donnĂ©es Ă celui des paramĂštres, appelĂ© Kernel ; đ(đ§) : ReprĂ©sentation spatiale des paramĂštres du modĂšle ; Le problĂšme inverse consiste Ă calculer les paramĂštres du modĂšle đ(đ§) Ă partir des donnĂ©es observĂ©es ou mesurĂ©es, en se basant sur la relation liant les deux espaces. Cette relation peut ĂȘtre linĂ©aire ou non-linĂ©aire.
A. ProblÚmes inverses linéaires :
On parle dâune fonction linĂ©aire si elle respecte les conditions suivantes : đ(đ„ + đŠ) = đ(đ„) + đ(đŠ) (Principe de superposition)
đ(đđ„) = đđ(đ„) (Principe dâhomogĂ©nĂ©itĂ©) Dans le cas linĂ©aire et continu, le problĂšme inverse est formulĂ© comme suis : đ
đđ = â«0 đđ (đ§). đ(đ§)đđ§ OĂč : đđ : reprĂ©sente le vecteur des observations đđ (đ§) : le kernel ; đ(đ§) : les paramĂštres modĂšles.
Dans le cas linĂ©aire discret, le problĂšme direct se formule comme suit : đ = đșđ OĂč đ : reprĂ©sente les đ donnĂ©es (mesurĂ©es) ;
đ : reprĂ©sente le đ inconnus (paramĂštres modĂšle) ; đș : est appelĂ© operateur, est une matrice de dimension đ Ă đ. Pour un problĂšme inverse bien posĂ©, la solution exacte peut ĂȘtre calculĂ©e par deux mĂ©thodes : âȘ âȘ
En utilisant les mĂ©thodes numĂ©riques de rĂ©solution directe des systĂšmes linĂ©aires. En calculant lâinverse de la matrice đș :
(2) đ = đș š1 . đ Ce cas est trĂšs rare en pratique Ă cause du caractĂšre mal posĂ© du problĂšme, en gĂ©ophysique les problĂšmes inverses peuvent ĂȘtre : âą âą âą
SurdĂ©terminĂ©s : đ > đ nombre de mesures supĂ©rieur au nombre de paramĂštres. Sous-dĂ©terminĂ©s : đ < đ nombre de mesures infĂ©rieur au nombre de paramĂštres. UniformĂ©ment dĂ©terminĂ©s : đ = đ nombre de mesure Ă©gale au nombre de paramĂštres, mais ce qui ne reprĂ©sente pas forcĂ©ment un problĂšme bien posĂ© car o La matrice đș, peut ĂȘtre singuliĂšre et donc non inversible. o Le systĂšme peut ĂȘtre mal conditionnĂ© (instable). a) RĂ©solution du problĂšme linĂ©aire mal posĂ© par la mĂ©thode des moindres carrĂ©s :
La mĂ©thode des moindres carrĂ©s permet de comparer des donnĂ©es expĂ©rimentales, gĂ©nĂ©ralement entachĂ©es dâerreurs de mesure Ă un modĂšle mathĂ©matique censĂ© dĂ©crire ces donnĂ©es : đ â đșđ = đ
(3)
Ainsi, la meilleure façon dâobtenir une solution unique, qui se rapproche le mieux de la solution exacte, est de minimiser lâĂ©cart entre les donnĂ©es mesurĂ©es, et les donnĂ©es calculĂ©es Ă partir des paramĂštres estimĂ©s, au sens des moindres carrĂ©s (norme euclidienne L2), et qui sâĂ©crit comme suit : 2 đ· = đ đ đ = âđđ=1 (đđ â âđ đ=1 đșđđ đđ )
(4)
đ· : est appelĂ©e fonction coĂ»t ou fonction objectif, Le but de la mĂ©thode est de minimiser la fonction coĂ»t, câest Ă dire minimiser lâĂ©cart entre les donnĂ©es mesurĂ©es et les donnĂ©es calculĂ©es Ă partir des paramĂštres estimĂ©s : đ· = đ đ đ = (đđ â đșđ đđ )đ . (đđ â đșđ đđ )
(5)
Pour minimiser cette fonction objectif, on doit annuler sa dĂ©rivĂ©e pour tout đ :
đđ· đ(đ đ â đ đ đșđ â đđ đș đ đ + đđ đș đ đșđ) = =0 đđ đđ
(6)
âđ đ đș â đș đ đ + đș đ đșđ + đđ đș đ đș = 0
(7)
đș đ đșđ = đș đ đ
(8)
đÌ = (đș đ đș)â1 đș đ đ
(9)
On obtient :
On obtient :
Ce qui donne :
Cette valeur représente la solution générale des problÚmes inverses linéaire par la méthode des moindres carrés.
b) RĂ©gularisation du problĂšme inverse linĂ©aire : Avant dâaborder la rĂ©gularisation du problĂšme inverse on doit introduire la notion de lâinformation Ă priori. âȘ
Lâinformation Ă priori :
Câest une information connue au prĂ©alable, qui ne dĂ©pend pas des donnĂ©es observĂ©es, elle peut provenir des mesures directes des paramĂštres du modĂšle (sur des affleurements de structures, ou donnĂ©es de puits), dâexpĂ©rimentations, ou de la thĂ©orie sur la physique du systĂšme. Ces informations sont souvent limitĂ©es spatialement. En gĂ©ophysique, et sciences associĂ©es, les donnĂ©es observĂ©es sont souvent bruitĂ©es, et donc contiennent des signaux non reprĂ©sentatifs de lâĂ©tat du modĂšle, en inversant ces donnĂ©es, la solution rĂ©sultante peut dĂ©vier de la rĂ©alitĂ© gĂ©ologique, afin de contraindre le systĂšme Ă converger vers la solution rĂ©elle, on peut utiliser des informations Ă priori. Lâincorporation de ses informations sert aussi Ă contraindre le systĂšme Ă choisir une, parmi les nombreuses solutions Ă©quivalentes du modĂšle. En problĂšmes inverses, la rĂ©gularisation consiste Ă ajouter des informations Ă priori afin de rĂ©soudre les problĂšmes mal posĂ©s qui sont dus Ă la prĂ©sence de bruits, ce qui a une grande
influence sur lâopĂ©ration de lâinversion. Alors lâutilisation de lâinformation Ă priori sert Ă contraindre le systĂšme Ă converger Ă une solution rĂ©elle qui reflĂšte la rĂ©alitĂ© gĂ©ologique. Alors la rĂ©gularisation dâun problĂšme inverse correspond Ă lâidĂ©e que les donnĂ©es seules ne permettent pas dâobtenir une solution acceptable et quâil faut donc introduire une information a priori sur la rĂ©gularitĂ© de lâobjet Ă estimer. Nous entendons ici par le terme rĂ©gularitĂ© le fait que lâobjet, pour des raisons physiques tenant Ă sa nature mĂȘme, doit possĂ©der certaines propriĂ©tĂ©s, ou encore obĂ©ir Ă certaines rĂšgles (de signe, de taille, de frĂ©quences par exemple). La solution rĂ©sulte alors dâun compromis entre lâexigence de fidĂ©litĂ© aux donnĂ©es et celle de la rĂ©gularitĂ© postulĂ©e de lâobjet. On peut dĂ©finir la rĂ©gularisation comme Ă©tant une maniĂšre de forcer le systĂšme Ă converger vers la solution rĂ©elle en se basant sur des informations Ă priori, et ce, en ajoutant un second terme Ă la fonction coĂ»t quâon cherchera Ă minimiser.
âȘ
Formulation mathématique de la régularisation de Tikhonov :
Dans le but de privilégier une solution particuliÚre dotée de propriétés qui semblent pertinentes, un terme de régularisation est introduit dans la minimisation :
âđșđ â đâ2 â âÎđâ2
(10)
Î Est appelĂ© matrice de Tikhonov, elle doit ĂȘtre judicieusement choisie pour le problĂšme considĂ©rĂ©. đ Ì = đđđđđđâđșđ â đâ2 â âÎđâ2
(11)
Le but est dâannuler la dĂ©rivĂ©e de âđșđ â đâ2 â âÎđâ2 :
2đș đ (đșđ â đ) â 2Îđ Îđ = 0
(12)
Ce qui nous donne : (13) đ Ì = (đș đ đș + Îđ Î)â1 đș đ đ L'effet de la rĂ©gularisation dĂ©pend du choix de la matrice Î . Lorsque Î est nulle, on en revient au cas de la solution, non rĂ©gularisĂ©e, des moindres carrĂ©s, pourvu que (đŽđ đŽ)â1 â1 existe.
B. ProblÚmes inverses non-linéaires : a) ProblÚmes inverses non-linéaires sans contraintes :
Dans les problĂšmes inverses non linĂ©aires la relation entre les observations et les paramĂštres du modĂšle est plus complexe. On peut Ă©crire cette relation sous la forme m = G(p) oĂč cette fois, l'opĂ©rateur G est non linĂ©aire. La rĂ©solution de ce type de problĂšme se fait comme suit :
1) CaractĂ©risation de linĂ©aritĂ© : Dans de nombreux problĂšmes physiques, la relation liant les paramĂštres modĂšles aux donnĂ©es mesurĂ©es est non linĂ©aire, pour certains cas il est trĂšs facile de rĂ©arranger le problĂšme sous forme linĂ©aire. Tenant par exemple la fameuse relation en sismique rĂ©fraction liant les donnĂ©es observĂ©es (les temps de parcours) aux paramĂštres du modĂšle (Vitesses des ondes rĂ©fractĂ©es) : đĄđ =
đđ 2â cos đ© + âđâ1 đ=1 đđ đđ
(14)
Il est Ă©vident que la relation entre lâespace des donnĂ©es et lâespace des paramĂštres nâest pas linĂ©aire, pour linĂ©ariser le problĂšme on procĂ©dera lâopĂ©ration suivante : đĄđ = đđ. đđ + âđâ1 đ=1
2â cos đ© đđ
(15)
OĂč : 1 đ = đ : est la lenteur. Afin de linĂ©ariser le problĂšme, on remplace un paramĂštre par un autre paramĂštre pour rendre la relation linĂ©aire. Mais cette opĂ©ration nâest pas toujours facile, il existe des relations complexes qui ne peuvent ĂȘtre linĂ©arisĂ©es par simple paramĂ©trisation. Alors la rĂ©solution de ce type complexe de problĂšme se fait en utilisant les moindres carrĂ©s tout en linĂ©arisant le systĂšme par le dĂ©veloppement de Taylor : Soit đ
le vecteur de dimension m des valeurs observĂ©es, et ÎČ le vecteur de dimensions n des paramĂštres modĂšle, avec la fonction f qui relie lâespace des paramĂštres Ă lâespace des donnĂ©es : đ = đ(đœ) On souhaite trouver le vecteur de paramĂštres ÎČ qui ajuste au mieux les donnĂ©es, au sens des moindres carrĂ©s : Soit S la somme des carrĂ©s rĂ©sidus đđ : 2 (16) đ = âđ đ=1 đđ Avec đđ = đđ â đ(đœ) Le but est dâatteindre le minimum, câest-Ă -dire que le gradient sâannule : đđ đđđ = 2âđ đ=1 đđ đđœ đđœđ
(17)
Pour converger vers la solution du problĂšme il faut fournir des approximations successives ÎČk de plus en plus proches de la vraie valeur (inconnue) des paramĂštres ÎČ, đœđ+1 = đœđ + đ„đœ Ă chaque itĂ©ration, le modĂšle initial est linĂ©arisĂ© par un dĂ©veloppement de Taylor autour de ÎČk comme suit :
(18)
đ(đœ) â đ(đœđ ) +â âđ đ=1
đđđ (đœ) đ„đœ â đ(đœđ ) + âđ đ=1 đœđđ đ„đœđ đđœđ
(19)
La matrice jacobienne J dĂ©pend des donnĂ©es et de l'approximation en cours, aussi change-t-elle đđ
d'une itĂ©ration Ă l'autre. Ainsi, en terme du modĂšle linĂ©arisĂ©, đđœđ = âđœđđ et les rĂ©sidus sont donnĂ©s đ
par : đđ = đ„đŠđ â âđ đ=1 đœđđ đ„đœđ ; đ„đŠđ = đŠđ â đ(đœđ )
(20)
đđ = đ â đŽđ
(21)
On pose Y= đ„đŠđ A=âđ đ=1 đœđđ X= đ„đœđ On obtient :
Y : représente la différence entre les données calculées à partir du modÚle initial et celles
observĂ©es. đŽ: Matrice contenant les dĂ©rivĂ©es partielles de f, de taille (nĂp), pour n donnĂ©es et p paramĂštres, appelĂ©e matrice jacobienne X : reprĂ©sente les perturbations Ă apporter Ă đœđ pour minimiser le rĂ©sidu đđ .
2) RĂ©solution du problĂšme : âą MĂ©thode de Gauss-Newton : On revient Ă lâĂ©quation : đđ đđđ = 2âđ =0 đ=1 đđ đđœ đđœđ
(22)
On obtient : đ â2âđ đ=1 đœđđ (đ„đŠđ â âđ =1 đœđđ đ„đœđ ) = 0 (j=1,2,âŠ..,,)
(23)
Ou encore đ đ âđ đ=1 âđ =1 đœđđ đœđđ đ„đœđ = âđ=1 đœđđ đ„đŠđ
(24)
Matriciellement, on en arrive Ă : (đœđ đœ)đ„đœđ = đœđ đ„đŠđ
(25)
La linĂ©arisation permet alors dâĂ©crire : đœđ+1 = đœđ + (đœđ đœ)â1 đœđ đ„đŠ âą
(26)
Méthode de la plus forte pente (méthode du gradient) :
La mĂ©thode de la plus forte pente est une mĂ©thode de gradient, elle consiste Ă minimiser la fonction coĂ»t de maniĂšre itĂ©rative, tel que, Ă chaque itĂ©ration, le modĂšle initial est corrigĂ© suivant la plus forte pente, dans la direction opposĂ©e au gradient de la fonction coĂ»t : On a: đđ+1 = đđ + đŒđ đđ
(27)
Avec : đ: la direction de la plus forte pente đŒ : reprĂ©sente le pas le long de la direction de descente, tĂ©l que le nouveau itĂ©rĂ© donne Ă la
fonction une valeur infĂ©rieure Ă celle qu'elle a en l'itĂ©rĂ© courant. Il est clair que la direction de la plus forte descente est lâopposĂ© du gradient de la fonction cout đ = âđ»đ
(28)
Alors lâalgorithme de calcul se fait comme suit : On se donne un point/itĂ©rĂ© initial đ0 et un seuil de tolĂ©rance đ â« 0. L'algorithme du gradient dĂ©finit une suite d'itĂ©rĂ©s (đ1 , đ2âŠ. ,) jusqu'Ă ce qu'un test d'arrĂȘt soit satisfait. Il passe de đđ Ă đđ+1 par les Ă©tapes suivantes : o o o o
Simulation : calcul de đ»đ . Test d'arrĂȘt : si âđ»đâ < đ, arrĂȘt. Calcul du pas đŒđ > 0 le long de la direction Novel itĂ©rĂ©. đđ+1 = đđ â đŒđ đ»đ
(29)
âą
MĂ©thode du gradient conjuguĂ© vue comme une mĂ©thode directe : L'objectif est de minimiser la fonction coĂ»t de la forme Am - b , oĂč A est une matrice carrĂ©e symĂ©trique dĂ©finie positive de taille n On rappelle que deux vecteurs non nuls u et v sont conjuguĂ©s par rapport Ă A si : (30) đąđŽđŁ = 0 Sachant que A est symĂ©trique dĂ©finie positive. La conjugaison est une relation symĂ©trique : si u est conjuguĂ© Ă v pour A, alors v est conjuguĂ© Ă u.
Supposons que {pk} est une suite de n directions conjuguĂ©es deux Ă deux. Alors les {pk} forment une base de đčđ , ainsi la solution đâ de đšđ = đ dans cette base : (31) đâ = âđđ=1 đŒđ đđ n
Alors đ
đ = đŽđâ = âđ=1 đŒđ đŽđđ En multipliant par đđ đ đ đđ đ đ = đđ đ đŽđâ = âđ=1 đŒđ đđ đ đŽđđ = đŒđ đđ đ đŽđđ
(car âđ â đ đđ đđĄ đđ sont conjuguĂ© deux Ă deux) Alors : đđ đ đ đŒđ = đ đđ đŽđđ
(32)
(33)
(34)
On a ainsi l'idĂ©e directrice de la mĂ©thode pour rĂ©soudre le systĂšme đšđ„ = đ : trouver une suite de n directions conjuguĂ©es, et calculer les coefficients đŒđ . âą La mĂ©thode du gradient conjuguĂ© vue comme une mĂ©thode itĂ©rative La mĂ©thode du gradient conjuguĂ© est la mĂ©thode itĂ©rative la plus utilisĂ©e pour rĂ©soudre les problĂšmes inverses, sous sa forme la plus simple, elle est facile Ă programmer et Ă utiliser, tout en conservant la souplesse nĂ©cĂ©ssaire pour rĂ©soudre certains problĂšmes difficiles. ThĂ©oriquement, la mĂ©thode du radient conjugĂ© est descente de la mĂ©thode de la plus forte pente. On considĂšre ainsi un premier vecteur đ0 , tel que : đŠ = đ â đŽđ0 (35) Ainsi, si notre fonction diminue aprĂšs une itĂ©ration, alors on s'approche de đ. Soit rk le rĂ©sidu Ă la ke itĂ©ration : đđ = đ â đŽđđ
(36)
Notons que đđ est l'opposĂ© du gradient de f en đ = đđ , ainsi, l'algorithme du gradient indique d'Ă©voluer dans la direction đđ . On rappelle que les directions pk sont conjuguĂ©es deux Ă deux. On veut aussi que la direction suivante soit construite Ă partir du rĂ©sidu courant et des directions prĂ©cĂ©demment construites, ce qui est une hypothĂšse raisonnable en pratique. On a ainsi : (37) đđ đ đŽđđ đđ+1 = đđ â âđâ€đ đ đđ đđ đŽđđ Suivant cette direction, le point suivant est donnĂ© par : đđ+1 = đđ + đŒđ+1 đđ+1 Avec :
(38)
đŒđ+1 =
đđ+1 đ (đ â đŽđđ ) đđ+1 đ đđ = đđ+1 đ đŽđđ+1 đđ+1 đ đŽđđ+1
(39)
b) ProblĂšmes inverses non linĂ©aire avec contrainte : âȘ MĂ©thode de Levenberg-Marquardt : La mĂ©thode de Levenberg-Marquard permet d'obtenir une solution numĂ©rique au problĂšme de minimisation d'une fonction, souvent non linĂ©aire et dĂ©pendant de plusieurs variables. L'algorithme repose sur les mĂ©thodes derriĂšre l'algorithme de Gauss-Newton et l'algorithme du gradient. Plus stable que celui de Gauss-Newton, il trouve une solution mĂȘme s'il est dĂ©marrĂ© trĂšs loin d'un minimum. Cependant, pour certaines fonctions trĂšs rĂ©guliĂšres, il peut converger lĂ©gĂšrement moins vite. L'algorithme fut dĂ©veloppĂ© par Kenneth Levenberg, puis publiĂ© par Donald Marquardt. Dans notre travail, la matrice đŽđ đŽ est mal conditionnĂ©es, pour remĂ©dier au problĂšme de conditionnement, Levenberg (1944) a suggĂ©rĂ© lâajout dâun terme arbitraire constant Ă la diagonale de la matrice đŽđ đŽ , Marquardt a formulĂ© le problĂšme de façon Ă amortir (rĂ©gulariser) la perturbation du modĂšle afin dâĂ©viter que la solution croisse de maniĂšre dĂ©mesurĂ©e Ă chaque itĂ©ration, la mĂ©thode LM minimise alors lâĂ©cart đ = đŠ â đŽđ„et la perturbation đ„, la fonction coĂ»t sâĂ©crira alors comme suit : đ = đ1 + đœđ2 = đ đ đ + đœ(đ„ đ đ„ â đż2 )
(40)
đœ : ReprĂ©sente le poids donnĂ© Ă la rĂ©gularisation. đż2 : ReprĂ©sente la contrainte que lâĂ©nergie de la perturbation ne doit dĂ©passer. Pour rĂ©soudre le problĂšme : đđ đ(đŠ â đŽđ„)đ (đŠ â đŽđ„) + đœ(đ„ đ đ„ â đż2 ) = đđ„ đđ„
(40)
â2đŽđ đŠ + 2đŽđ đŽđ„ + 2đ·đ„ = 0
(41)
đ„ = (đŽđ đŽ + đœđŒ)â1 đŽđ đŠ
(42)
On remarque dans le rĂ©sultat ci-dessus lâajout dâune constante ÎČ Ă la diagonale de la matrice jacobienne đŽđ đŽ , afin de remĂ©dier au problĂšme de conditionnement. On remarque que si ÎČ tend vers zĂ©ro, on se retrouve dans le cas de la mĂ©thode de Gauss-Newton. La formule de rĂ©currence sâĂ©crit comme suit : đđ+1 = đđ + (đŽđ đŽ + đœđŒ)â1 đŽđ đŠ
(43)
La méthode Levenberg-Marquardt combine celle de Gauss-Newton et celle de la plus forte pente, tel que cette derniÚre domine lorsque le modÚle initial est loin du minima, alors que celle de Gauss-Newton domine lorsque le point de départ est proche du minima. On peut dire que cette
mĂ©thode, remĂ©die au problĂšme de stabilitĂ© de la mĂ©thode de Gauss-Newton, et au problĂšme de convergence de celle du gradient, ce qui fait dâelle la mĂ©thode la plus efficace et la plus utilisĂ©e pour rĂ©soudre les problĂšmes inverses non linĂ©aires en pratique.
Bibliographie: [1] Albert Tarantola. Inverse Problem Theory and Methods for Model Parameter Estimation.2005 [2] John A. Scales, Martin L. Smith and Sven Treitel. Introductory Geophysical Inverse Theory 2001 [3] MaĂ«lle Nodet. ProblĂšmes inverses pour lâenvironnement : outils, mĂ©thodes et applications. Optimisation et contrĂŽle [math. OC]. UniversitĂ© de Grenoble, 2013. [4] Michel Kern. ProblĂšmes inverses : aspects numĂ©riques. Engineering school. 1999 Ă 2002, Ăcole supĂ©rieure dâingĂ©nieurs LĂ©onard de Vinci, 2002, pp.138. [5] Peter BĂŒhlmann, Sara van de Geer. Statistics for High-Dimensional Data. 2011 [6]Philippe Ciarlet, Introduction Ă lâanalyse numĂ©rique matricielle et Ă lâoptimisation, Masson, coll. « Math. Appl. pour la MaĂźtrise », 1985 (rĂ©impr. 2001)