32 0 270KB
Cours d’alge` bre line´ aire Fili`eres: SMC & SMP Prof. Mohamed Louzari 4 février 2020
Table des matières Préface 1
2
3
Espaces vectoriels
1
1.1
Définition et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1.2
Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
1.3
Intersection et Somme de sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . .
4
1.4
Sous-espace vectoriel engendré par un sous-ensemble . . . . . . . . . . . . . . . . . . . . . . . .
4
1.5
Familles libres et Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5
1.6
Espaces vectoriels de dimensions finies . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7
Applications linéaires
11
2.1
Définitions et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
2.2
Propriétés des applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12
2.3
Applications linéaires injectives et surjectives . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13
2.4
Applications linéaires des espaces vectoriels de dimensions finies . . . . . . . . . . . . . . . . . .
14
Matrices
18
3.1
Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
18
3.1.1
Définitions et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
18
3.1.2
Matrices particulières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
20
Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
21
3.2.1
Opérations ordinaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
21
3.2.2
Changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
22
Propriétés de Mm×n (K) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
24
3.3.1
Propriétés élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
24
3.3.2
Éléments inversibles de Mn (K) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
25
3.3.3
L’inverse d’une matrice et élimination de Gauss-Jordan . . . . . . . . . . . . . . . . . . .
26
Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
28
3.4.1
Définition et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
28
3.4.2
Recherche du rang d’une matrice par la méthode échelonnée réduite . . . . . . . . . . . .
28
3.2
3.3
3.4
4
iii
Déterminants
30 i
Table des matières
5
Algèbre 2 (SMC & SMP)
4.1
Formes p-linéaires alternées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
30
4.2
Déterminants d’ordres 2 et 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
30
4.3
Déterminants d’ordre n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
32
4.4
Propriétés des déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
33
4.5
Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
33
4.6
Calcul des déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
34
4.7
La matrice adjointe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
38
4.8
Règle de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
39
Valeurs propres et vecteurs propres
42
5.1
Valeurs propres et polynôme caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
42
5.2
Sous-espaces propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
44
5.3
Réduction des matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
46
5.3.1
Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
46
5.3.2
Trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
50
M. Louzari, 2020
ii
Facult´e des sciences de T´etouan
Préface Ce cours est une bonne initiation pour comprendre les outils de base de l’algèbre linéaire. La plupart des étudiants rencontreront le formalisme mathématique pour la première fois dans ce cours. En conséquence, l’objectif principal est de présenter les principaux concepts de l’algèbre linéaire de manière claire et précise. À cet égard, on a sélectionné avec soin les résultats de bases et les exemples pour donner un certain équilibre à la théorie avec les applications. Dans le long de ce cours, K désigne le corps commutatif R ou C. Le premier chapitre, porte sur les espaces vectoriels, en commençant par un bref regard menant au concept d’espace vectoriel comme une extension naturelle de ces exemples familiers. Ce matériel est souvent le plus difficile pour les étudiants, mais notre approche de l’indépendance linéaire, de la base et de la dimension est soigneusement expliquée et illustré par des exemples. Dans le deuxième chapitre, on présente les éléments essentiels des applications linéaires et particulièrement les applications linéaires des espaces vectoriels de dimensions finies. Et comme application directe des applications linéaires. Dans le troisième chapitre on trouve la notion de matrice. En dimension finie, les endomorphismes d’un espace vectoriel sont représentés par des matrices carrées. Ainsi, les endomorphismes ou les matrices carrées sont deux faces d’une même pièce de monnaie. Ici, on présente, tout le bagage nécessaire pour le calcul matriciel comme les opérations élémentaires, changement de bases, éléments inversibles, recherche de l’inverse avec la méthode de Gauss-Jordan et le calcul du rang avec la méthode échelonnée réduite. Le quatrième chapitre traite de la notion du déterminant, qui est fondamentale dans l’algèbre linéaire. On définit le déterminant d’une famille de vecteurs ou d’une matrice carrée est un scalaire (i.e., un élément de K). Le déterminant permet de savoir si une matrice carrée est inversible ou non, en plus il joue un rôle important dans la résolution des systèmes linéaires. Le problème de la réduction des matrice carrées est développé en détail au dernier chapitre. Il s’agit de déterminer les conditions pour lesquelles on peut diagonaliser ou trigonaliser une matrice carrée. À cet effet, on rencontre les notions de valeurs propres, vecteurs propres, polynôme caractéristique et les sous-espaces propres. En fin, je souhaite un bon courage pour tous les étudiants qui utilisent ce cours et en particulier, mes étudiants de SMC & SMP de la faculté des sciences de Tétouan. Un polycopié des exercises avec solutions est mis à la disposition des étudiants pour bien préparer leurs contrôles, c’est bien un recueil des exercices des travaux dirigés et les exercices des contrôles des trois dernières années, la version pdf à retrouver sur la page du groupe facebook : SMPC F. S. Tétouan (maths) et la version papier est au service de photocopie de la faculté. Prof. Mohamed Louzari Janvier 2020
iii
Chapitre 1
Espaces vectoriels Dans le long de ce chapitre, K désigne le corps commutatif R ou C.
1.1
Définition et exemples
Définition 1.1. Un K-espace vectoriel est un ensemble non vide E muni : • d’une loi de composition interne, appelée “addition” : E×E →E (x, y) 7→ x + y • d’une loi de composition externe, appelée “multiplication par scalaires” : K×E →E (λ, x) 7→ λ · x qui vérifient les propriétés suivantes : (E1 ) x + y = y + x pour tous x, y ∈ E, (E2 ) (x + y) + z = x + (y + z) pour tous x, y, z ∈ E, (E3 ) Il existe un élément 0 ∈ E, tel que x + 0 = x pour tout x ∈ E, (E4 ) Pour tout x ∈ E, il existe −x ∈ E tel que x + (−x) = 0, (E5 ) λ · (x + y) = λ · x + λ · y pour tout x ∈ E et pour tout scalaire λ ∈ K, (E6 ) (λ + µ) · x = λ · x + µ · x pour tout x ∈ E et pour tous scalaires λ, µ ∈ K, (E7 ) (λµ) · x = λ(µ · x) pour tout x ∈ E et pour tous scalaires λ, µ ∈ K, (E8 ) 1 · x = x pour tout x ∈ E. Si K = R (resp., K = C), alors E est dit espace vectoriel réel (resp., espace vectoriel complexe). L’espace vectoriel E sur le corps K est noté (E, +, ·) ou bien E K . Si aucune confusion n’est à craindre, on peut le noter E. •) Les éléments de E sont dits vecteurs, •) Les éléments de K sont dits scalaires, •) L’élément 0E est dit vecteur nul, •) Si x ∈ E, l’élément −x est dit vecteur opposé de x. •) Soient λ ∈ K et x ∈ E, on écrira λx au lieu de λ · x. Dans la suite, on donnera quelques exemples d’espaces vectoriels (on laisse au lecteur le soin de vérifier les axiomes de (E1 ) à (E8 )). 1
Chapitre 1. Espaces vectoriels
Algèbre 2 (SMC & SMP)
Exemples 1.2. (1) L’ensemble Rn = {(x1 , x2 , · · · , xn )| xi ∈ R o`u i = 1, 2, · · · , n et n ∈ N∗ } est un espace vectoriel réel sous l’addition et la multiplication par scalaires définies par : (x1 , x2 , · · · , xn ) + (y1 , y2 , · · · , yn ) = (x1 + y1 , x2 + y2 , · · · , xn + yn ), λ(x1 , x2 , · · · , xn ) = (λx1 , λx2 , · · · , λxn ). Géométriquement, R2 représente le plan cartésien, Tandis que R3 représente l’espace cartésien de dimension 3. De la même façon, On peut considérer Cn comme un R-espace vectoriel (si les scalaires sont des réels), ou comme un C-espace vectoriel (si les scalaires sont des complexes). (2) Soit F (R, R) l’ensemble de toutes les applications f : R → R. Alors, pour f, g ∈ F (R, R) et λ ∈ R, on définit : f + g: R → R λf : R → R et x 7→ f (x) + g(x) x 7→ λ f (x) On peut facilement vérifier les axiomes de (E1 ) à (E8 ). Ainsi F (R, R) est un R-espace vectoriel. (3) Soit Rn [x] l’ensemble de tous les polynômes à coefficients dans R de degrés ≤ n. Soient P, Q ∈ Rn [x] et λ ∈ R tels que P = a0 + a1 x + · · · + an xn et Q = b0 + b1 x + · · · + bn xn . On définit l’addition et la multiplication par scalaires comme suit : P + Q = (a0 + b0 ) + (a1 + b1 )x + · · · + (an + bn )xn et λP = (λa0 ) + (λa1 )x + · · · + (λan )xn . Alors Rn [x] est un R-espace vectoriel. Dans la suite, on donne quelques exemples des ensembles qui ne sont pas des espaces vectoriels. (1) L’ensemble N des entiers naturels muni des opérations ordinaires (+ et ×) n’est pas un espace 1 1 vectoriel. En effet, on a : × 1 = < N. 2 2 (2) L’ensemble P3 des polynômes à coefficients dans R de degré 3 n’est pas un espace vectoriel. Car, si on prend p = x3 et q = −x3 + x2 + 1 deux éléments de P3 , on a : p + q = x2 + 1 < P3 .
Exemples 1.3.
(3) Considérons E = R2 muni de l’addition ordinaire et la multiplication par scalaires définie par : λ (x, y) = (λx, 0) pour tout (x, y) ∈ E. On a 1 (1, 1) = (1, 0) , (1, 1). Ainsi, l’axiome (E8 ) n’est pas vérifiée et par suite, (E, +, ) n’est pas un R-espace vectoriel. Théorème 1.4. Soit E un K-espace vectoriel. Alors (1) (∀λ ∈ K) λ0E = 0E , (2) (∀x ∈ E) 0K x = 0E , (3) Si λx = 0E alors λ = 0K ou x = 0E , (4) (∀x ∈ E) (∀λ ∈ K) (−λ)x = −(λx) = λ(−x) Preuve. On utilisera librement les axiomes de la Définition 1.1. (1) λ0E = λ(0E + 0E ) = λ0E + λ0E . On ajoute −λ0E de deux cotés, alors λ0E + (−λ0E ) = (λ0E + λ0E ) + (−λ0E ) = λ0E + [λ0E + (−λ0E )] = λ0E , or λ0E + (−λ0E ) = 0E . Ainsi, λ0E = 0E . M. Louzari, 2020
2
Facult´e des sciences de T´etouan
Chapitre 1. Espaces vectoriels
Algèbre 2 (SMC & SMP)
(2) 0K x = (0K + 0K )x = 0K x + 0K x. On ajoute −0K x de deux cotés, alors 0K x + (−0K x) = (0K x + 0K x) + (−0K x) = 0K x + [0K x + (−0K x)] = 0K x, or 0K x + (−0K x) = 0E . Ainsi, 0K x = 0E . (3) Supposons que λx = 0E et λ , 0K , alors λ est inversible, et par suite x = 1K x = (λ−1 λ)x = λ−1 (λx) = λ−1 0E = 0E . (4) On a 0E = [λ + (−λ)]x = λx + (−λ)x, si on ajoute −(λx) de deux cotés, on aura 0E + [−(λx)] = λx + (−λ)x + [−(λx)], ce qui implique (−λ)x = −(λ)x. De même, on a 0E = λ[x + (−x)] = λx + λ(−x), si on ajoute −(λx) de deux cotés, on obtient −(λx) = λ(−x).
1.2
Sous-espaces vectoriels
Pour bien étudier les espaces vectoriels, on commence par l’analyse des sous structures. C’est à dire, des sous ensembles qui sont eux mêmes des sous espaces vectoriels. Définition 1.5. Soient E un K-espace vectoriel et F un sous-ensemble non vide de E. On dit que F est un sousespace vectoriel (s.e.v.) de E, si F est stable sous les opérations de E. C’est à dire (1) Si x, y ∈ F alors x + y ∈ F, (2) Si x ∈ F et λ ∈ K alors λx ∈ F. La propriété (1) signifie que la somme des éléments de F est un élément de F. Aussi, (2) signifie que la multiplication par scalaires d’un élément de F est un élément de F. Si les propriétés (1) et (2) sont vérifiées, alors toutes les propriétés d’un espace vectoriel sont vérifiées. Par exemple, en prenant λ = −1K dans (2), on voit que si x ∈ F alors −x ∈ F. En suite, si on prend y = −x dans (1), on obtient 0E ∈ F. Exemples 1.6. (1) Tout espace vectoriel E K est un sous espace vectoriel de lui même, et E K est le plus grand s.e.v. (au sens de l’inclusion) de E K . (2) D’après Théorème 1.4(1), le singleton {0E } est un s.e.v. de E, c’est bien le plus petit s.e.v. de E, car 0E est un élément de tous les s.e.v. de E. (3) R est un sous-espace vectoriel de CR (facile à vérifier). (4) Considérons dans R2 le sous-ensemble X = {(x, 0)|x ∈ R}. Soient (x1 , 0), (x2 , 0) ∈ X et λ ∈ R, alors on a (x1 , 0) + (x2 , 0) = (x1 + x2 , 0) ∈ X et λ(x1 , 0) = (λx1 , 0) ∈ X. Ainsi, X est un sous-espace vectoriel de R2 , c’est bien l’axe des abscisses dans le plan cartésien R2 . De la même façon, on peut vérifier que l’ensemble Y = {(0, y)|y ∈ R} est un sous-espace vectoriel de R2 . Pour montrer qu’un sous-ensemble F n’est pas vide, on vérifie généralement que 0E ∈ F. En plus, d’après les exemples précédents, si on veut montrer que E est un espace vectoriel, au lieu de vérifier les 8 axiomes de la définition 1.1, on peut se ramener à vérifier que E est un sous-espace vectoriel d’un espace vectoriel plus large. Exercice 1.7. Soit Fonct(R, R), l’ensemble de toutes les fonctions de R dans R. (1) Montrer que Fonct(R, R), est un R-espace vectoriel. (2) Montrer que Cont(R, R), l’ensemble de toutes les fonctions continues de R dans R est un s.e.v. de Fonct(R, R). (3) Montrer que Diff(R, R), l’ensemble de toutes les fonctions différentiables de R dans R est un s.e.v. de Cont(R, R). M. Louzari, 2020
3
Facult´e des sciences de T´etouan
Chapitre 1. Espaces vectoriels
1.3
Algèbre 2 (SMC & SMP)
Intersection et Somme de sous-espaces vectoriels
Soient F et G deux sous espaces vectoriels d’un K-espace vectoriel E. Considérons l’intersection F ∩ G. Puisque 0E ∈ F et 0E ∈ G, alors 0E ∈ F ∩ G et par suite F ∩ G , ∅. Maintenant, si x, y ∈ F ∩ G alors x, y ∈ F donc x + y ∈ F, de même on a x, y ∈ G, alors x + y ∈ G. Ainsi x + y ∈ F ∩ G. D’autre part, si x ∈ F ∩ G et λ ∈ K, on a x ∈ F alors λx ∈ F. Aussi, x ∈ G donc λx ∈ G. Par suite λx ∈ F ∩ G. Conclusion : F ∩ G est un sous-espace vectoriel de E. Dans le cas général, on a le théorème suivant : Théorème 1.8. Soit E un K-espace vectoriel. Alors, l’intersection de toute famille de sous-espaces vectoriels de E est un sous-espace vectoriel de E. Preuve. Soient F une famille de s.e.v. de E et I l’intersection des éléments de F . Alors I , ∅ car tout élément de F contient 0E , donc 0E ∈ I. Maintenant, soient x, y ∈ I, puisque x et y appartiennent à tout s.e.v. w de F , alors x + y ∈ w (w est quelconque dans F ). De même, si x ∈ I alors x ∈ w (w est quelconque dans F ), et pour tout λ ∈ K on a λx ∈ w. Par conséquent λx ∈ I. Ainsi I est bien un sous-espace vectoriel de E. La réunion de deux sous-espaces vectoriels d’un espace vectoriel E n’est pas forcément un sous-espace vectoriel de E. Cependant, il existe un plus petit sous-espace vectoriel qui contient une telle réunion. Exemple 1.9. Dans le plan cartésien R2 , l’axe des abscisses X = {(x, 0)|x ∈ R} et l’axe des ordonnées Y = {(0, y)|y ∈ R} sont des sous-espaces vectoriels de R2 , mais X ∪ Y n’est pas un sous-espace vectoriel de R2 . Par exemple, on a (1, 0) ∈ X et (0, 1) ∈ Y, mais (1, 0) + (0, 1) = (1, 1) < X ∪ Y. Alors le sous-ensemble X ∪ Y n’est pas stable sous l’addition, et par suite ne peut pas être un sous-espace vectoriel. Définition 1.10 (Somme de sous-espaces vectoriels). Soient F1 et F2 deux sous-espaces vectoriels d’un espace vectoriel E. On appelle somme de F1 et F2 l’ensemble : F1 + F2 = {x ∈ E | x = x1 + x2 o`u x1 ∈ F1 , x2 ∈ F2 }. Proposition 1.11. La somme de deux sous-espaces vectoriels de E est un sous-espace vectoriel de E. Preuve. Soient F1 et F2 deux sous-espaces vectoriels d’un espace vectoriel E. D’abord, F1 + F2 , ∅ car 0E ∈ F1 + F2 . En plus, si λ ∈ K et x = x1 +x2 , y = y1 +y2 avec x1 , y1 ∈ F1 , x2 , y2 ∈ F2 , alors x+y = (x1 +y1 )+(x2 +y2 ) ∈ F1 +F2 et λx = (λx1 ) + (λx2 ) ∈ F1 + F2 . Ainsi, F1 + F2 est un sous-espace vectoriel de E.
1.4
Sous-espace vectoriel engendré par un sous-ensemble
Soit S un sous-ensemble d’un espace vectoriel E. La famille C de tous les sous-espaces vectoriels de E contenant S n’est pas vide. D’après Théorème 1.8, l’intersection de tous les sous-espaces vectoriels de C est aussi un sous-espace vectoriel de E, et bien évidemment cet intersection contient S et c’est le plus petit sous-espace vectoriel de E qui contient S , on le note généralement par hS i. Exemple 1.12. Dans le plan cartésien R2 , considérons le sous-ensemble S = {(x0 , y0 )}. Alors hS i est bien la droite reliant le point (x0 , y0 ) par le point (0, 0). Notre but, est de bien caractériser le sous-espace vectoriel hS i. Par la suite, on suppose que S n’est pas vide. M. Louzari, 2020
4
Facult´e des sciences de T´etouan
Chapitre 1. Espaces vectoriels
Algèbre 2 (SMC & SMP)
Définition 1.13 (Combinaison linéaire). Soient E un K-espace vectoriel et S un sous-ensemble non vide de E. On dit que u ∈ E est une combinaison linéaire des éléments de S , s’il existe x1 , x2 , · · · , xn ∈ S et λ1 , λ2 , · · · , λn ∈ K tels que u = λ1 x1 + λ2 x2 + · · · + λn xn . P P Il est clair que si u = ni=1 λi xi et v = mj=1 µ j x j sont deux combinaisons linéaires des éléments de S , alors u + v est aussi une combinaison linéaire des éléments de S . En plus, λu est aussi une combinaison linéaire des éléments de S , pour tout λ ∈ K. Ainsi, l’ensemble des combinaisons linéaires des éléments de S est un sous-espace vectoriel de E. Définition 1.14 (s.e.v. engendré par un ensemble). Soient E un K-espace vectoriel et S une famille non vide d’éléments de E. L’ensemble des combinaisons linéaires des éléments de S est un sous-espace vectoriel de E appelé sous-espace vectoriel engendré par S , et est noté vect(S ). Dans ce cas, S est dite une famille génératrice (ou bien, un ensemble générateur) de E. Théorème 1.15. Soit S , ∅ un sous-ensemble d’un espace vectoriel E K . Alors hS i = vect(S ). Preuve. Pour tout x ∈ S , on a x = 1K .x ∈ Vect(S ) et par suite S ⊆ Vect(S ). D’autre part, par définition hS i est le plus petit sous-espace vectoriel de E contenant S , et puisque Vect(S ) est un s.e.v. qui contient S , on a hS i ⊆ Vect(S ). Inversement, soient x1 , x2 , · · · , xn ∈ S et λ1 , λ2 , · · · , λn ∈ K, si w est un s.e.v. de E contenant S , P alors on a x1 , x2 , · · · , xn ∈ w et par suite ni=1 λi xi ∈ w, donc Vect(S ) ⊆ w. En particulier, pour w = hS i, on a Vect(S ) ⊆ hS i. Ainsi Vect(S ) = hS i Exemples 1.16. (1) Considérons le sous-ensemble S = {(1, 0), (0, 1)} dans le plan cartésien R2 . Alors, pour tout (x, y) ∈ R2 , on a : (x, y) = (x, 0) + (0, y) = x(1, 0) + y(0, 1). Alors, tout élément de R2 est une combinaison linéaire des éléments de S . Ainsi, S est un ensemble générateur de R2 . (2) Plus généralement, dans Rn , avec n > 2. Soient e1 = (1, 0, 0, · · · , 0), e2 = (0, 1, 0, · · · , 0), · · · , en = (0, 0, 0, · · · , 1), alors pour tout élément (x1 , x2 , · · · , xn ) ∈ Rn , on a : (x1 , x2 , · · · , xn ) = x1 e1 + x2 e2 + · · · + xn en . Ainsi {e1 , e2 , · · · , en } engendre Rn . Exemple 1.17. Dans R3 on a : (1) Vect{(1, 0, 0)} = {λ(1, 0, 0) | λ ∈ R} = {(λ, 0, 0) | λ ∈ R} ; c’est à dire, le sous-espace vectoriel de R3 engendré par le singleton {(1, 0, 0)} est l’axe (ox). (2) Vect{(1, 0, 0), (0, 0, 1)} = {λ(1, 0, 0) + µ(0, 0, 1) | λ, µ ∈ R} = {(λ, 0, µ) | λ, µ ∈ R} ; donc le sous-espace vectoriel de R3 engendré par le sous-ensemble {(1, 0, 0), (0, 0, 1)} est le plan (oxz). Exercice 1.18. Soit R2 [X] l’espace vectoriel des polynômes réels de degrés ≤ 2. Considérons les deux polynômes : P = 1 + 2X + X 2 et Q = 2 + X 2 . Est ce que Vect{P, Q} = R2 [X] ?
1.5
Familles libres et Bases
Définition 1.19. Soient E un K-espace vectoriel et S = {x1 , x2 , · · · , xn } une famille non vide d’éléments de E. On dit que S est linéairement indépendante (ou libre), si pour tous λ1 , λ2 , · · · , λn ∈ K, on a : λ1 x1 + λ2 x2 + · · · + λn xn = 0 ⇒ λ1 = λ2 = · · · = λn = 0. M. Louzari, 2020
5
Facult´e des sciences de T´etouan
Chapitre 1. Espaces vectoriels
Algèbre 2 (SMC & SMP)
Exemples 1.20. (1) Dans R2 , le sous-ensemble {(1, 0), (0, 1)} est linéairement indépendant. En effet, soient λ1 , λ2 ∈ R tels que : λ1 (1, 0) + λ2 (0, 1) = (0, 0). Alors (λ1 , λ2 ) = (0, 0), donc λ1 = λ2 = 0. D’où le résultat. (2) Plus généralement, dans Rn avec n > 2. Considérons les vecteurs e1 = (1, 0, 0, · · · , 0), e2 = (0, 1, 0, · · · , 0), · · · , en = (0, 0, 0, · · · , 1). La famille {e1 , e2 , · · · , en } est linéairement indépendante (facile à vérifier). (3) Soient E un K-espace vectoriel et 0 , x ∈ E. Alors le singleton {x} est une famille linéairement indépendante, d’après Théorème 1.4(3). Théorème 1.21. Toute famille linéairement indépendante d’un e.v. E ne peut pas contenir 0E . Définition 1.22. Soient E un K-espace vectoriel et S une famille non vide de E. On dit que S est liée (ou linéairement dépendante), si S n’est pas linéairement indépendante. Pour qu’une famille S d’éléments de E, soit liée, elle doit avoir au moins 2 éléments. Théorème 1.23. Soient E un K-espace vectoriel et S une famille non vide de E ayant au moins 2 éléments. Alors les assertions suivantes sont équivalentes : (1) S est liée, (2) Au moins un élément de S est combinaison linéaire d’autres éléments de S . Exemples 1.24. (1) Dans le R-espace vectoriel R3 , la famille {(1, 0, 2), (0, 1, 0), (2, 5, 4)} est liée. Car (2, 5, 4) = 2(1, 0, 2) + 5(0, 1, 0). (2) Dans le R-espace vectoriel R2 [X], considérons les trois polynômes P(X) = 1 + X + X 2 , Q(X) = 2X + 3X 2 , R(X) = 3 + 5X − 2X 2 . Soient λ1 , λ2 , λ3 ∈ R tels que : λ1 P(X) + λ2 Q(X) + λ3 R(X) = 0. λ1 + 3λ3 =0 D’après (∗), on a le système suivant : λ1 + 2λ2 + 5λ3 = 0 λ1 + 3λ2 − 2λ3 = 0 D’où λ1 = λ2 = λ3 = 0. Ainsi, la famille {P, Q, R} est linéairement indépendante.
(∗)
Exercice 1.25. Dans le R-espace vectoriel R2 [X], on considère les trois familles suivantes : (1) F1 = {X, X + X 2 , 1 + 2X − 3X 2 }, (2) F2 = {−5 + X, 4 + X, 1 + X 2 }, (3) F3 = {1 + X + X 2 , 17 + X, 1 + X + 3X 2 }. Déterminer celles qui sont linéairement dépendantes (Justifier). Définition 1.26. Soient E un K-espace vectoriel et B une famille non vide de E. On dit que B est une base de E si et seulement si, B est linéairement indépendante et génératrice de E. Exemples 1.27. (1) Soit n ∈ N∗ , dans le R-espace vectoriel Rn , la famille {e1 , e2 , · · · , en } est une base, avec ei = (0, · · · , 0, 1, 0, · · · , 0) où 1 apparaît dans la ii`eme position pour tout 1 ≤ i ≤ n. Cette base s’appelle la base canonique (ou la base naturelle). (2) Dans le R-espace vectoriel R2 , considérons la famille B = {(1, 1), (−1, 1)}. M. Louzari, 2020
6
Facult´e des sciences de T´etouan
Chapitre 1. Espaces vectoriels
Algèbre 2 (SMC & SMP)
(a) B est-elle génératrice pour R2 ? Pour tout (x, y) ∈ R2 , existe t-il un couple (α, β) ∈ R2 tels que (x, y) = α(1, 1) + β(−1, 1) ? On a : (1) x=α−β (x, y) = α(1, 1) + β(−1, 1) ⇔ y = α+β (2) x+y y−x Alors, (1) + (2) ⇒ 2α = x + y et (2) − (1) ⇒ 2β = y − x, et par suite α = et β = . Donc 2 2 x+y y−x (x, y) = (1, 1) + (−1, 1). Ainsi, B est une famille génératrice de R2 . 2 2 (b) B est-elle libre ? Soient α, β ∈ R tels que : α(1, 1) + β(−1, 1) = 0, alors α = β et α + β = 0, donc α = β = 0. Ainsi, B est une famille libre. Conclusion : B est une famille libre et génératrice de R2 , donc c’est une base de R2 . Exercice 1.28. Soient n ∈ N∗ et Rn [X], l’ensemble des polynômes à coefficients dans R de degrés ≤ n. Montrer que la famille des monômes {1, X, X 2 , · · · , X n } forme une base (la base canonique) de Rn [X]. Théorème 1.29. Soient E un K-espace vectoriel et B une famille d’éléments de E. Alors, B est une base de E si, et seulement si tout élément de E s’exprime d’une façon unique sous forme d’une combinaison linéaire d’éléments de B. Exercice 1.30. Est ce que les familles suivantes peuvent être des bases pour R3 ? B1 = {(1, 1, 1), (1, 2, 3), (2, −1, 1)}, B2 = {(1, 1, 2), (1, 2, 5), (4, −1, 3)}, B3 = {(1, 4, 1), (−1, 7, 3), (0, −1, −6)}, B4 = {(0, 1, −1), (1, 3, −3), (−1, −1, 2)}. Exercice 1.31. Soit B = {(−1, −1, 1, 2), (1, −1, 1, 3), (0, 1, −1, −3), (1, 1, 0, 0)} une famille d’éléments de R4 . (1) Montrer que B est une base de R4 , (2) Exprimer le vecteur u = (a, b, c, d) sous forme d’une combinaison linéaire d’éléments de B.
1.6
Espaces vectoriels de dimensions finies
Par la suite, on verra que si un K-espace vectoriel E possède une base finie B, alors toute base de E est finie et ayant le même nombre d’éléments que B. C’est bien une conséquence du théorème suivant. Théorème 1.32. Soient E un K-espace vectoriel engendré par l’ensemble fini G = {v1 , v2 , · · · , vn }. Si L = {w1 , w2 , · · · , wm } est une famille libre d’éléments de E. Alors m ≤ n. Preuve. Soit w1 ∈ L, puisque G engendre E, alors il existe une combinaison linéaire λ1 , λ2 , · · · , λn ∈ K tels que : w1 = λ1 v1 + λ2 v2 + · · · + λn vn , au moins l’un des λi , 0, (car sinon, on aura 0E ∈ L, impossible d’après le Théorème 1.21). Avec un petit changement d’indice, on peut écrire : −1 −1 −1 v1 = λ−1 1 w1 − λ1 λ2 v2 − λ1 λ3 v3 − · · · − λ1 λn vn .
Alors, E = Vect(v1 , v2 , · · · , vn ) ⊆ Vect(w1 , v2 , · · · , vn ) et par suite, E = Vect(w1 , v2 , · · · , vn ). Maintenant, w2 peut s’écrire comme une combinaison linéaire de w1 , v2 , · · · , vn avec au moins l’un des coefficients de v j (où 2 ≤ j ≤ n) est non nul (car sinon w2 sera une combinaison linéaire de w1 , contradiction). On répète le même processus précédent, on obtient E = Vect(w1 , w2 , v3 , · · · , vn ). On continue de la même façon. Si on prend p = min(n, m), alors E = Vect(w1 , w2 , · · · , w p , v p+1 , · · · , vn ). Maintenant, on montre que le cas m > n est impossible. En effet, dans ce cas on a : p = n et alors E = Vect(w1 , w2 , · · · , wn ) et ceci implique que les éléments wn+1 , · · · , wm s’écrivent sous formes de combinaisons linéaires de w1 , w2 , · · · , wn . Contradiction avec le fait que L est linéairement indépendante. Ainsi, m ≤ n. M. Louzari, 2020
7
Facult´e des sciences de T´etouan
Chapitre 1. Espaces vectoriels
Algèbre 2 (SMC & SMP)
Corollaire 1.33. Soient E un K-espace vectoriel et B une base finie de E. Alors toutes les bases de E sont finies et ayant le même nombre d’éléments. Corollaire 1.34. Soit E un K-espace vectoriel qui possède une base finie, alors toute famille linéairement indépendante de E est finie. Définition 1.35 (Espace vectoriel de dimension finie). Soit E un K-espace vectoriel, on dit que E est de dimension finie s’il possède une base finie. Le nombre d’éléments d’une base de E s’appelle la dimension de E, et est notée dimK (E) ou simplement dim(E). A noter que l’espace vectoriel nul a pour dimension zéro. Exemples 1.36.
(1) Le R-espace vectoriel Rn est de dimension n. En effet, sa base canonique est {e1 , e2 , · · · , en }
(2) Le R-espace vectoriel Rn [X] des polynômes à coefficients réels de degrés ≤ n, est un espace vectoriel de dimension n + 1. En effet, sa base canonique est {1, X, X 2 , · · · , X n }. Théorème 1.37. Soient E un K-espace vectoriel de dimension finie et G une famille génératrice finie de E. Si L est une famille libre de E telle que L ⊆ G. Alors il existe une base B de E telle que L ⊆ B ⊆ G. Corollaire 1.38 (Théorème de la base incomplète). Toute famille libre L d’un espace vectoriel de dimension finie E peut être complétée en une base de E. Corollaire 1.39. Soit E un espace vectoriel de dimension finie n, alors toute famille libre constituée de n éléments est une base de E. Corollaire 1.40. Soit F une famille d’éléments de E, alors les assertions suivantes sont équivalentes : (1) F est une base de E, (2) F est une famille libre maximal, (3) F est une famille génératrice minimale. Corollaire 1.41. Soit E un espace vectoriel de dimension finie n, alors toute famille de n + 1 éléments est liée. Théorème 1.42. Soient E un K-espace vectoriel de dimension finie, alors tout sous-espace vectoriel F de E est aussi de dimension finie et dim F ≤ dim E. En plus, dim F = dim E ⇔ E = F Exemples 1.43. (1) Considérons le R-espace vectoriel E = R2 . On a dim E = 2, si F est un sous-espace vectoriel de E, d’après Théorème 1.42, il y a trois possibilités : dim F = 0, dim F = 1 ou dim F = 2. •) Si dim F = 0, F = {(0, 0)} le sous-espace vectoriel nul ; •) Si dim F = 2, Théorème 1.42 implique F = R2 ; •) Si dim F = 1, F est engendré par un élément non nul {(x, y)}. i.e., F = {λ(x, y) | λ ∈ R} = {(λx, λy) | λ ∈ R}. Ce sous-espace vectoriel n’est autre que la droite passant par les points (0, 0) et (x, y). (2) Considérons le R-espace vectoriel R3 . D’après Théorème 1.42, les sous-espaces vectoriels de R3 sont : •) Le sous-espace vectoriel {(0, 0, 0)} ; •) Toute droite passant par l’origine ; •) Tout plan passant par l’origine ; •) R3 lui même. Exercice 1.44. Soit le sous-ensemble X = {(2, 2, 1, 3), (7, 5, 5, 5), (3, 2, 2, 1), (2, 1, 2, 1)} de R4 . (1) Déterminer une base de Vect(X). (2) Compléter cette base en une base de R4 . M. Louzari, 2020
8
Facult´e des sciences de T´etouan
Chapitre 1. Espaces vectoriels
Algèbre 2 (SMC & SMP)
Exercice 1.45. Considérons le R-espace vectoriel R3 muni de sa base canonique B0 = {e1 , e2 , e3 } où e1 = (1, 0, 0), e2 = (0, 1, 0) et e3 = (0, 0, 1). Soient u1 = (1, 1, −1), u2 = (1, 0, 0), u3 = (−1, −3, 3) et u4 = (1, −1, 1) quatre éléments de R3 et F = Vect(u1 , u2 , u3 , u4 ). (1) Est ce que B0 = {u1 , u2 , u3 , u4 } peut être une base de R3 ? (2) Montrer que les deux familles B1 = {u1 , u2 , u3 } et B2 = {u1 , u2 , u4 } sont liées et en déduire une base B de F. (3) Compléter B en une base de R3 . Définition 1.46 (Rang d’une famille de vecteurs). Soient E un K-espace vectoriel et S une famille d’éléments de E. On appelle rang de S, la dimension du sous-espace vectoriel de E engendré par S et on note rang(S) = dim Vect(S). Proposition 1.47. Soit E un K-espace vectoriel. Le rang d’une famille de vecteurs de E est le nombre maximal de vecteurs libres qu’ont peut extraire de cette famille. Définition 1.48 (Somme directe d’espaces vectoriels). Soient E un K-e.v. et F, G deux s.e.v. de E. On dit que la somme F + G est directe et on la notre F ⊕ G, si tout élément de F + G s’écrit d’une manière unique sous la forme x + y où x ∈ F et y ∈ G. Proposition 1.49. Soient E un K-e.v. et F, G deux s.e.v. de E. Alors, les assertions suivantes sont équivalentes : (1) F + G est directe, (2) F ∩ G = (0), (3) x + y = 0 ⇒ x = y = 0 où x ∈ F et y ∈ G. Preuve. (1) ⇒ (2). Soit a ∈ F ∩ G, alors a = a + 0 = 0 + a, puisque la décomposition de a est unique alors a = 0, et par suite F ∩ G = (0). (2) ⇒ (3). Soient x ∈ F et y ∈ G tels que x + y = 0, alors x = −y ∈ F ∩ G = (0) donc x = y = 0. (3) ⇒ (1). Soient x, x0 ∈ F et y, y0 ∈ G tels que x + y = x0 + y0 , alors (x − x0 ) + (y − y0 ) = 0 où x − x0 ∈ F et y − y0 ∈ G. Donc x = x0 et y = y0 . Définition 1.50 (Sous-espaces supplémentaires). Soient E un K-e.v. et F, G deux s.e.v. de E. On dit que F et G sont supplémentaires, si tout élément z ∈ E s’écrit d’une manière unique sous la forme z = x + y où x ∈ F et y ∈ G. Dans ce cas, on note E = F ⊕ G. Remarque 1.51. E = F + G, E = F ⊕G ⇔ F ∩ G = (0). Théorème 1.52 (Formule de Grassmann). Soient E un K-e.v. de dimension finie et F, G deux s.e.v. de E. Alors F + G est un s.e.v. de dimension finie et on a : dim(F + G) = dim F + dim G − dim(F ∩ G). Preuve. Soit B0 = {e1 , e2 , · · · , en } une base de F ∩ G, on complète B0 en une base B1 = {e1 , e2 , · · · , en , f1 , f2 , · · · , f p } de F et B2 = {e1 , e2 , · · · , en , g1 , g2 , · · · , gq } de G. On peut vérifier facilement que {e1 , e2 , · · · , en , f1 , f2 , · · · , f p , g1 , g2 , · · · , gq } est une base de F + G. Ainsi, dim(F + G) = n + p + q = (n + p) + (n + q) − n = dim(F) + dim(G) − dim(F ∩ G). M. Louzari, 2020
9
Facult´e des sciences de T´etouan
Chapitre 1. Espaces vectoriels
Algèbre 2 (SMC & SMP)
En particulier, on a : dim(F ⊕ G) = dim(F) + dim(G). Proposition 1.53. Soient E un K-espace vectoriel de dimension n et F une famille d’éléments de E. Alors, les assertions suivantes sont équivalentes : (1) F est une base de E, (2) F est libre dans E et Card(F ) = n, (3) F est génératrice de E et Card(F ) = n.
M. Louzari, 2020
10
Facult´e des sciences de T´etouan
Chapitre 2
Applications linéaires Dans l’étude de toute structure algébrique, il y a deux façons de voir les choses. D’une part, les sous-structures (i.e., les sous-ensembles ayant la même structure) et d’autre part, les morphismes (i.e., les applications d’une structure à une autre en focalisant sur “les éléments préservés”). dans le premier chapitre, on a rencontré la notion de “sous-structure” pour un espace vectoriel ; ce sont les sous-espaces vectoriels. Dans ce chapitre, on considérera la notion d’un morphisme entre deux espaces vectoriels, i.e., une application d’un espace vectoriel dans un autre qui conserve la structure d’espaces vectoriels dans le sens suivant.
2.1
Définitions et exemples
Définition 2.1. Soient E et F deux K-espaces vectoriels. Une application linéaire (ou transformation linéaire) de E dans F qu’on note f : E → F tel que : (1) (∀x, y ∈ E), f (x + y) = f (x) + f (y), (2) (∀x ∈ E)(∀λ ∈ K), f (λx) = λ f (x). Exemple 2.2. Considérons l’application f : R2 → R3 définie par : f (a, b) = (a + b, a − b, b). L’application f est bien linéaire, car pour tous (a, b), (a0 , b0 ) ∈ R2 et λ ∈ R, on a : •) f ((a, b) + (a0 , b0 )) = f (a + a0 , b + b0 ) = (a + a0 + b + b0 , a + a0 − b − b0 , b + b0 ) = (a + b, a − b, b) + (a0 + b0 , a0 − b0 , b0 ) = f (a, b) + f (a0 , b0 ) •) f (λ(a, b))
= = = =
f (λa, λb) (λa + λb, λa − λb, λb) λ(a + b, a − b, b) λ f (a, b)
Exemple 2.3. Considérons l’application dérivation D : Rn [X] → Rn [X], donnée par : D(a0 + a1 X + · · · + an X n ) = a1 + 2a2 X + · · · + nan X n−1 . D est une application linéaire, car si on prend deux polynômes p(X), q(X) et λ ∈ R. On a : 11
Chapitre 2. Applications linéaires
Algèbre 2 (SMC & SMP)
•) D(p(X) + q(X)) = D(p(X)) + D(q(X)), •) D(λp(X)) = λD(p(X)). Exercice 2.4. Parmi les applications f : R3 → R3 suivantes, déterminer celles qui sont linéaires. (1) f (x, y, z) = (y, z, 0), (2) f (x, y, z) = (z, −y, x), (3) f (x, y, z) = (x + y, z, 0), (4) f (x, y, z) = (2x, y − z, 4y). Exercice 2.5. Parmi les applications suivantes, déterminer celles qui sont linéaires : (1) f : Rn [X] → R3 [X] p(X) 7→ p(0)X 2 + D(p(0)X 3 ) (2) g : Rn [X] → Rn+1 [X] p(X) 7→ p(0) + X p(X) (3) h : Rn [X] → Rn+1 [X] p(X) 7→ 1 + X p(X) Exercice 2.6. Soit I : Rn [X] → R l’application (dite, intégration) définie par :I(p(x)) = I est linéaire.
2.2
R1 0
p(x)dx. Montrer que
Propriétés des applications linéaires
Dans cette section, on donne quelques propriétés des applications linéaires. Théorème 2.7. Soient E et F deux K-espaces vectoriels et f : E → F une application linéaire. Alors (1) f (0E ) = 0F , (2) (∀x ∈ E) f (−x) = − f (x). Preuve. (1) On a f (0E ) = f (0K .0E ) = 0K . f (0E ) = 0F . (2) Soit x ∈ E, alors f (x)+ f (−x) = f (x+(−x)) = f (0E ) = 0F , d’après (1). Par suite ( f (x)+ f (−x))+(− f (x)) = − f (x), ainsi f (−x) = − f (x). Par la suite, on considérera quelques sous-ensembles importants qui sont associés aux applications linéaires. Dans ce sens, on introduit les notations suivantes : Définition 2.8. Soient E et F deux K-espaces vectoriels et f : E → F une application linéaire. Alors (1) Pour tout sous-ensemble ∅ , X ⊆ E, on appelle image directe de X par f , l’ensemble f (X) = { f (x) | x ∈ E} . (2) Pour tout sous-ensemble ∅ , Y ⊆ F, on appelle image inverse de Y par f , l’ensemble f −1 (Y) = {x ∈ E | f (x) ∈ Y} . Remarque 2.9. Soient f : E → F est une application linéaire et ∅ , X1 , X2 ⊆ E, ∅ , Y1 , Y2 ⊆ F. Alors, généralement on a : (a) X1 ⊆ X2 ⇒ f (X1 ) ⊆ f (X2 ). (b) Y1 ⊆ Y2 ⇒ f −1 (Y1 ) ⊆ f −1 (Y2 ). M. Louzari, 2020
12
Facult´e des sciences de T´etouan
Chapitre 2. Applications linéaires
Algèbre 2 (SMC & SMP)
De plus, les applications linéaires préservent la structure des espaces vectoriels. Théorème 2.10. Soient E et F deux K-espaces vectoriels et f : E → F une application linéaire. Alors (1) Si X est un s.e.v. de E, alors f (X) est un s.e.v. de F. (2) Si Y est un s.e.v. de F, alors f −1 (Y) est un s.e.v. de E. Preuve. (1) Soit X un s.e.v. de E, alors 0E ∈ X, et par suite 0F = f (0E ) ∈ f (X). Ainsi f (X) , ∅. Maintenant, si y1 , y2 ∈ f (X) alors il existe x1 , x2 ∈ X tels que y1 = f (x1 ) et y2 = f (x2 ). Puisque X est un s.e.v. de E, on a y1 + y2 = f (x1 + x2 ) ∈ f (X) (car x1 + x2 ∈ X). De plus, pour tout λ ∈ K, λy1 = λ f (x1 ) = f (λx1 ) ∈ f (X) (car λx1 ∈ X). Ainsi, f (X) est un sous-espace vectoriel de F. (2) Soit Y un s.e.v. de F, on a f (0E ) = 0F ∈ Y et donc 0E ∈ f −1 (Y). Ainsi f −1 (Y) , ∅. Soient x1 , x2 ∈ f −1 (Y). alors f (x1 ), f (x2 ) ∈ Y donc f (x1 ) + f (x2 ) = f (x1 + x2 ) ∈ Y ce qui implique x1 + x2 ∈ f −1 (Y). Maintenant, soit λ ∈ K on a f (λx1 ) = λ f (x1 ) ∈ Y ⇒ λx1 ∈ f −1 (Y). Ainsi, f −1 (Y) est un sous-espace vectoriel de E. En particulier, pour X = {0E } et Y = F, on a la définition suivante : Définition 2.11. Soient E et F deux K-espaces vectoriels et f : E → F une application linéaire. Alors (1) f (E) s’appelle l’image de f , et est notée Im f . (2) f −1 ({0F }) s’appelle le noyau de f , et est noté Ker f . Exemple 2.12. Considérons la ie`me -projection : Pri :
Rn → R (x1 , x2 , · · · , xn ) 7→ xi
Alors, on a Im(Pri ) = R et KerPri = {(x1 , x2 , · · · , xi−1 , 0, xi+1 , · · · , xn ) | x j ∈ R, 1 ≤ j ≤ n}. Exemple 2.13. Considérons l’application différentiation définie par : D:
Rn [X] → Rn [X] a0 + a1 X + · · · + an X n 7→ a1 + 2a2 X + · · · + nan X n−1
Alors, on a ImD = Rn−1 [X] et KerD = {p(X) ∈ Rn [X] | p0 (X) = 0} = R.
2.3
Applications linéaires injectives et surjectives
Définition 2.14. Soient E, F deux espaces vectoriels et f : E → F une application linéaire. Alors f est dit : (1) surjective, si pour tout y ∈ F, il existe x ∈ E tel que f (x) = y, (2) injective, si f (x) = f (y) ⇒ x = y, pour tous x, y ∈ E, (3) bijective, s’elle est injective et surjective. Exemples 2.15. (1) La ii`eme -projection Pri :
Rn → R (x1 , x2 , · · · , xn ) 7→ xi
f:
R3 → R4 (x, y, z) 7→ (y, z, 0, x)
est surjective mais non injective (2) L’application linéaire
M. Louzari, 2020
13
Facult´e des sciences de T´etouan
Chapitre 2. Applications linéaires
Algèbre 2 (SMC & SMP)
est injective mais non surjective. (3) L’application linéaire différentiation D:
Rn [X] → Rn [X] (a0 + a1 X + · · · + an X n 7→ a1 + 2a2 X + · · · + nan X n−1
n’est ni injective ni surjective. Notations 2.16. Soit E un K-espace vectoriel. (1) Toute application linéaire injective est dite un monomorphisme, (2) Toute application linéaire surjective est dite un épimorphisme, (3) Toute application linéaire bijective est dite un isomorphisme, (4) Toute application linéaire de E dans E est dite un endomorphisme, (5) Tout isomorphisme de E dans E est dit un automorphisme. Si f : E → F est un isomorphisme entre deux K-espaces vectoriels, on dit que E et F sont isomorphes et on note E ' F. Proposition 2.17. Soient E, F deux espaces vectoriels et f : E → F une application linéaire. Alors, les assertions suivantes sont équivalentes : (1) f est injective, (2) Ker f = (0). Preuve. (1) ⇒ (2). Soit x ∈ Ker f , alors f (x) = 0F = f (0E ) et puisque f est injective, donc x = 0E . Ainsi Ker f = (0). (2) ⇒ (1). Supposons que Ker f = (0) et soient x, y ∈ E tels que f (x) = f (y). Alors f (x − y) = f (x + (−y)) = f (x) + f (−y) = f (x) − f (y) = 0F , donc x − y ∈ Ker f = (0E ) et par suite x = y. Ainsi, f est injective. Proposition 2.18. Soient E, F deux espaces vectoriels et f : E → F une application linéaire. Alors, les assertions suivantes sont équivalentes : (1) f est surjective, (2) Im f = F. Preuve. (1) ⇒ (2). On sait que Im f ⊆ F, inversement soit y ∈ F, puisque f est surjective, alors il existe x ∈ E tel que f (x) = y, donc F ⊆ Im f . Ainsi Im f = F. (2) ⇒ (1). Soit y ∈ F, puisque Im f = F, il existe x ∈ E tel que f (x) = y. Ainsi f est surjective.
2.4
Applications linéaires des espaces vectoriels de dimensions finies
Dans le cas des espaces vectoriels de dimensions finies, il y a une liaison très forte entre les dimensions des sous-espaces vectoriels Ker f et Im f . Théorème 2.19 (Théorème des dimensions). Soient E, F deux K-espaces vectoriels de dimensions finies et f : E → F une application linéaire. Alors : dim E = dim(Ker f ) + dim(Im f ) M. Louzari, 2020
14
Facult´e des sciences de T´etouan
Chapitre 2. Applications linéaires
Algèbre 2 (SMC & SMP)
Preuve. Soient {w1 , w2 , · · · , wm } une base de Im f et {v1 , v2 , · · · , vn } une base de Ker f . Pour chaque wi ∈ Im f , il existe v∗i ∈ E tel que f (v∗i ) = wi , ∀i ∈ {1, 2, · · · , m}. Montrons que B = {v1 , v2 , · · · , vn , v∗1 , v∗2 , · · · , v∗m } est une base de E. Étape 1. Soit x ∈ E, alors f (x) ∈ Im f , donc il existe λ1 , λ2 , · · · , λn ∈ K tels que f (x) = λ1 w1 + λ2 w2 + · · · + P ∗ λm wm = λ1 f (v∗1 ) + λ2 f (v∗2 ) + · · · + λm f (v∗m ). alors, x − m i=1 λi vi ∈ Ker f = Vect(v1 , v2 , · · · , vn ). Par suite, il existe Pm P P Pn n ∗ ∗ µ1 , µ2 , · · · , µn tels que x − i=1 λi vi = j=1 µ j v j , ou encore x = m i=1 λi vi + j=1 µ j v j . Ainsi B est une famille génératrice de E. P Pn ∗ Étape 2. Montrons que B est une famille libre. En effet, supposons que m i=1 λi vi + j=1 µ j v j = 0, alors Pm P P P Pm n m m ∗ ∗ ∗ i=1 λi vi = − j=1 µ j v j ∈ Ker f ce qui implique i=1 λi vi ∈ Ker f . Par conséquent, i=1 λi f (vi ) = 0 = i=1 λi wi , P ∗ Pn or {w1 , w2 , · · · , wm } est libre car c’est une base de Im f , donc λi = 0 ∀i ∈ {1, 2, · · · , m}. Alors m λ v + i=1 i i j=1 µ j v j = Pn 0 ⇒ j=1 µ j v j = 0. Mais {v1 , v2 , · · · , vn } est libre car c’est une base de Ker f et par suite µ j = 0 ∀ j ∈ {1, 2, · · · , n}. D’où le résultat. Définition 2.20. Si f est une application linéaire, alors la dimension de Im f s’appelle le rang de f , et on note rg( f ) = dim(Im f ) Comme une application du Théorème des dimensions, on a le résultat suivant : Théorème 2.21. Soient E et F deux K-espaces vectoriels avec dim E = dim F = n. Si f est une application linéaire, alors les assertions suivantes sont équivalentes : (1) f est injective, (2) f est surjective, (3) f est bijective, (4) Si {u1 , u2 , · · · , un } est une base de E alors { f (u1 ), f (u2 ), · · · , f (un )} est une base de F. Preuve. (1) ⇒ (2). Si f est injective, alors Ker f = (0) donc dim(Ker f ) = 0, d’après le Théorème des dimensions, on a dim(Im f ) = dim E = dim F = n or Im f est un s.e.v. de F, alors Im f = F. Ainsi, f est surjective, et par suite est bijective. (2) ⇒ (3). Si f est surjective alors Im f = F, d’après le Théorème des dimensions on a dim(Ker f ) = 0, donc Ker f = (0) et par suite f est bien injective, ainsi f est bijective. (3) ⇒ (1) et (3) ⇒ (2) sont évidentes. (1) ⇒ (4). Supposons que f est injective, si {u1 , u2 , · · · , un } est une base de E, alors les éléments f (u1 ), f (u2 ), P P · · · , f (un ) sont distincts. Maintenant, si ni=1 λi f (ui ) = 0, alors f ( ni=1 λi ui ) = 0, puisque f est injective, on a Pn i=1 λi ui = 0 ce qui entraîne λi = 0 (i = 1, 2, · · · , n). Ainsi, la famille { f (u1 ), f (u2 ), · · · , f (un )} est libre, et puisque Card({ f (u1 ), f (u2 ), · · · , f (un )}) = dim F = n. Alors { f (u1 ), f (u2 ), · · · , f (un )} est une base de F. P (4) ⇒ (2). Soit y ∈ F, alors il existe λi ∈ K (i = 1, 2, · · · , n) tels que y = ni=1 λi f (ui ), car { f (u1 ), f (u2 ), · · · , f (un )} est une base de F, ce qui implique y ∈ Im f , car Im f est un s.e.v. de F et par suite il contient toute combinaison linéaire des éléments f (u1 ), f (u2 ), · · · , f (un ). Exemple 2.22. Soient P = {(x, y, 0) | x, y ∈ R} et Q = {(x, 0, z) | x, z ∈ R} deux plans dans R3 . Considérons ϕ:
M. Louzari, 2020
P → Q (x, y, 0) 7→ (x, 0, y). 15
Facult´e des sciences de T´etouan
Chapitre 2. Applications linéaires
Algèbre 2 (SMC & SMP)
On voit clairement que ϕ est linéaire et bijective, c’est à dire un isomorphisme, donc P ' Q. Ceci est un cas particulier du cas général suivant : Théorème 2.23. Soit E un K-espace vectoriel de dimension n ≥ 1. Alors E ' K n . Preuve. Soit B = {u1 , u2 , · · · , un } une base de E. Considérons l’application ϕ:
E → Kn i=1 λi ui 7→ (λ1 , λ2 , · · · , λn ). P Pour tout x ∈ E, ∃!(λ1 , λ2 , · · · , λn ) ∈ K n tels que x = ni=1 λi ui , on voit clairement que ϕ est une bijection linéaire. Ainsi E et K n sont isomorphes. Pn
Corollaire 2.24. Si E et F sont deux K-espaces vectoriels de même dimension n. Alors E ' F. n Preuve. On considère les deux isomorphismes ϕ1 : E → K n et ϕ2 : F → K n . Puisque ϕ−1 2 : K → F est aussi −1 un isomorphisme, alors ϕ2 ◦ ϕ1 : E → F est un isomorphisme (la composée de deux isomorphismes). Ainsi E ' F.
Exercice 2.25. Montrer que Rn [X] ' Rn+1 . Exercice 2.26. Soit f : R → R une application linéaire. Si ϕ une application définie par ϕ:
R2 → R2 (x, y) 7→ (x, y − f (x)).
Montrer que ϕ est un isomorphisme. Par la suite, on verra qu’une application linéaire est complètement et uniquement déterminée par son action sur une base. C’est une conséquence immédiate du résultat suivant : Théorème 2.27. Soient E, F deux K-espaces vectoriels. Si B = {u1 , u2 , · · · , un } est une base de E et F = {v1 , v2 , · · · , vn } une famille d’éléments de F (non nécessairement distincts). Alors, il existe une application linéaire unique ϕ : E → F tel que ϕ(ui ) = vi ∀i = 1, 2, · · · , n. Preuve. Soit x ∈ E, alors ∃!(λ1 , λ2 , · · · , λn ) tel que x = ϕ:
Pn i=1
λi ui . On définit, l’application
E → F Pn i=1 λi ui 7→ i=1 λi vi .
Pn
P P •) On peut vérifier facilement que ϕ est bien linéaire. En plus, ϕ(ui ) = ϕ( nj=1 δi j u j ) = nj=1 δi j v j = vi , (on a, ainsi l’image par ϕ de chaque vecteur de la base). •) Pour l’unicité, supposons que ψ : E → F est une autre application linéaire telle que ψ(ui ) = vi ∀i = 1, 2, · · · , n. P P P P Soit x ∈ E, alors x = ni=1 λi ui , donc ψ(x) = ψ( ni=1 λi ui ) = ni=1 λi ψ(ui ) = ni=1 λi vi = ϕ(x). Ainsi, ψ = ϕ. Corollaire 2.28. Une application linéaire est complètement et uniquement déterminée par son action sur une base. Preuve. Soit f : E → F une application linéaire et B = {u1 , u2 , · · · , un } une base de E et f (ui ) = vi ∀i = 1, 2, · · · , n. D’après le Théorème précédent, il existe une application linéaire qui associe ui à vi pour tout i. En plus, si on P connaît l’image de chaque élément de la base B, on peut calculer f (x) ∀x ∈ E. En effet, pour x = ni=1 λi ui =, on a Pn Pn f (x) = i=1 λi f (ui ) = i=1 λi vi . M. Louzari, 2020
16
Facult´e des sciences de T´etouan
Chapitre 2. Applications linéaires
Algèbre 2 (SMC & SMP)
Corollaire 2.29. Soient f, g deux applications linéaires de E dans F et B = {u1 , u2 , · · · , un } une base de E. Alors f = g ⇔ f (ui ) = g(ui ) ∀i = 1, 2, · · · , n.
Preuve. Évidente.
Exemple 2.30. Considérons la base B = {u1 , u2 , u3 } de R3 , où u1 = (1, 1, 0), u2 = (1, 0, 1) et u3 = (0, 1, 1). Soit f : R3 → R2 une application linéaire définie par : f (u1 ) = (1, 2), f (u2 ) = (0, 0), f (u3 ) = (2, 1). Soit {e1 , e2 , e3 } la base canonique de R3 . Alors, on a : e1 =
1 1 1 1 1 1 1 1 1 u1 + u2 − u3 , e2 = u1 + u2 + u3 , e3 = − u1 + u2 + u3 . 2 2 2 2 2 2 2 2 2
Par suite : 1 1 1 1 1 1 1 1 f (e1 ) = f (u1 ) + f (u2 ) − f (u3 ) = (1, 2) + (0, 0) − (2, 1) = (− , − ), 2 2 2 2 2 2 2 2 1 3 3 1 f (e2 ) = (1, 2) + (2, 1) = ( , ), 2 2 2 2 1 1 1 1 f (e3 ) = − (1, 2) + (2, 1) = ( , − ). Ainsi, f est déterminée complètement par : 2 2 2 2 f (x, y, z) = f (xe1 + ye2 + ze3 ) = x f (e1 ) + y f (e2 ) + z f (e3 ) 1 1 3 3 1 1 = x(− , ) + y( , ) + z( , − ) 2 2 2 2 2 2 ! 1 1 = (−x + 3y + z), (x + 3y − z) . 2 2 On note que le Théorème 2.21 n’est pas vrai pour les espaces vectoriels de dimensions infinies. Proposition 2.31. Soient E, F deux K-espaces vectoriels de dimensions finies et f : E → F une application linéaire. Alors (1) Si f est injective, alors l’image de toute famille libre de E est une famille libre de F. (2) Si f est surjective, alors l’image de toute famille génératrice de E est une famille génératrice de F. Preuve. (1) Supposons que f est injective et soit L = {u1 , u2 , · · · , un } une famille libre d’éléments de E. Montrons que f (L) = { f (u1 ), f (u2 ), · · · , f (un )} est une famille libre de F. En effet, soient λ1 , λ2 , · · · , λn ∈ K tels que λ1 f (u1 )+ λ2 f (u2 )+· · ·+λn f (un ) = 0, alors f (λ1 u1 +λ2 u2 +· · ·+λn un ) = 0, or f est injective, donc λ1 u1 +λ2 u2 +· · ·+λn un = 0, mais L est libre, alors λ1 = λ2 = · · · = λn = 0. Ainsi, f (L) est libre. (2) Supposons que f est surjective et soit G = {u1 , u2 , · · · , un } une famille génératrice d’éléments de E. Montrons que f (G) = { f (u1 ), f (u2 ), · · · , f (un )} est une famille génératrice de F. En effet, soit y ∈ F alors il existe x ∈ E tel que f (x) = y, car f est surjective. Puisque G est génératrice, alors il existe λ1 , λ2 , · · · , λn ∈ K tels que x = λ1 u1 + λ2 u2 + · · · + λn un ce qui donne y = f (x) = λ1 f (u1 ) + λ2 f (u2 ) + · · · + λn f (un ). Ainsi, f (G) est génératrice de F.
M. Louzari, 2020
17
Facult´e des sciences de T´etouan
Chapitre 3
Matrices Dans le long de ce chapitre, K désigne le corps commutatif R ou C. Par la suite, on verra qu’on peut représenter sous forme d’une matrice toute application linéaire entre deux K-espaces vectoriels de dimensions finies.
3.1
Matrice d’une application linéaire
Dans cette section, on donne la notion de matrice d’une application linéaire et quelques matrices particulières.
3.1.1
Définitions et exemples
Si on connaît une application linéaire sur une base, alors elle est complètement déterminée sur tout l’espace. Définition 3.1. Soient E et F deux K-espaces vectoriels de dimensions n et m respectivement, X = (u1 , ..., un ) une base de Y, B = (v1 , ..., vm ) une base de F et f ∈ LK (E, F). Alors, on a : f (u1 ) = a1,1 v1 + a2,1 v2 + ... + am,1 vm f (u2 ) = a1,2 v1 + a2,2 v2 + ... + am,2 vm .. .. .. .. . . . . f (u ) = a v + a v + ... + a v n
1,n 1
2,n 2
m,n m
L’action de f sur la base X est déterminée par les n × m scalaires ai, j . On peut représenter ce système sous la forme :
18
Chapitre 3. Matrices
Algèbre 2 (SMC & SMP)
f (u1 ) ↓ a1,1 a2,1 . .. (ai j ) = ai,1 . .. am,1
f (u2 ) ... f (u j ) ... f (un ) ↓ ↓ ↓ a1,2 · · · a1, j · · · a1,n a2,2 · · · a2, j · · · a2,n .. .. .. . . . . ai,2 · · · ai, j · · · ai,n .. .. .. . . . am,2 · · · am, j · · · am,n
Cet action est complètement déterminée par la connaissance de la matrice A = (ai j ), qu’on appelle matrice de f relativement aux bases X et Y. On écrit, A = Mat( f ; X, Y), c’est une matrice de la forme m × n, elle représente une application linéaire d’un e.v. de dimension n dans un e.v. de dimension m. On dit que A est une matrice de m lignes et n colonnes. Exemples 3.2. (1) Considérons l’application linéaire f : R3 → R2 donnée par : f (x, y, z) = (2x−3y+z, 3x−2y), soient B0 et B1 les bases canoniques respectives de R3 et R2 . L’action de f sur la base canonique de R3 est donnée sur la base canonique de R2 est : f (1, 0, 0) = (2, 3) = 2(1, 0) + 3(0, 1), f (0, 1, 0) = (−3, −2) = −3(1, 0) − 2(0, 1), f (0, 0, 1) = (1, 0) = 1(1, 0) + 0(0, 1). Alors la matrice de f relativement aux bases B0 et B1 est : 2 −3 1 Mat( f ; B0 , B1 ) = . 3 −2 0 (2) Le R-e.v. Rn [X] est de dimension n + 1 et sa base canonique est Bn+1 = {1, X, X 2 , · · · , X n }. L’application différentiation D : Rn [X] → Rn [X] est bien linéaire et l’image de Bn+1 par D est donnée par : D(1) = 0.1 + 0.X + 0.X 2 + · · · + 0.X n D(X) = 1.1 + 0.X + 0.X 2 + · · · + 0.X n D(X 2 ) = 0.1 + 2.X + 0.X 2 + · · · + 0.X n D(X 3 ) = 0.1 + 0.X + 3.X 2 + 0.X 4 + · · · + 0.X n ··· D(X n ) = 0.1 + 0.X + 0.X 2 + · · · + n.X n−1 + 0.X n . Ainsi, la matrice de D relativement à la base Bn+1 est : 0 1 0 0 · · · 0 0 0 2 0 · · · 0 0 0 0 3 · · · 0 Mat(D; Bn+1 ) = . . . . . . . .. .. .. .. . . .. 0 0 0 0 · · · n 0 0 0 0 ··· 0 Exercice 3.3. Supposons que l’application f : R3 → R3 est linéaire telle que : f (1, 0, 0) = (2, 1, −1), f (0, 1, 0) = (3, 1, 4), f (0, 0, 1) = (7, 5, −1). Trouver la matrice de f relativement à la base de R3 . M. Louzari, 2020
19
Facult´e des sciences de T´etouan
Chapitre 3. Matrices
Algèbre 2 (SMC & SMP)
Exercice 3.4. Considérons l’application linéaire f : R3 → R2 donnée par : f (x, y, z) = (2x − y, 2y − z). Déterminer la matrice de f relativement aux bases canoniques de R3 et R2 . Soit LK (E, F) l’ensemble de toutes les applications linéaires de E dans F. Sous l’addition usuelle et la multiplication par un scalaire, on peut vérifier facilement que LK (E, F) est un K-espace vectoriel. En plus, si dim E = n et dim F = m on a LK (E, F) ' Mm×n (K) ; En effet, soit M = (ai j ) ∈ Mm×n (K), E un K-espace vectoriel de base X = (x1 , · · · , xn ) et F un K-espace vectoriel de base Y = (y1 , · · · , ym ), alors il existe f ∈ LK (E, F) unique telle que M = (ai j ) = Mat( f ; X, Y). Il suffit de prendre f (xi ) = a1i y1 + · · · + ami ym , pour tout 1 ≤ i ≤ n et on a ∀u ∈ E, u = λ1 x1 + · · · + λn xn et par suite f (u) = λ1 f (x1 ) + · · · + λn f (xn ). Théorème 3.5. Soient E et F deux K-espaces vectoriels de dimensions respectives n et m. Alors LK (E, F) ' Mm×n (K).
3.1.2
Matrices particulières
Définition 3.6. Soit A = (ai j ) ∈ Mm×n (K). (1) Si m = n, A est dite une matrice carrée d’ordre n. On note Mn (K) l’ensemble de toutes les matrices carrées d’ordre n à coefficients dans K. (2) Si n = 1, A est dite une matrice colonne. (3) Si m = 1, A est dite une matrice ligne. Définition 3.7 (Matrice triangulaire, matrice diagonale). Soit A = (ai j ) ∈ Mm×n (K). (1) Si ai j = 0 pour tout i > j, c’est à dire A est de la forme a11 · · · a1n . . .. A = . . 0 ann On dit que A est triangulaire supérieure. (2) Si ai j = 0 pour tout i < j, c’est à dire A est de la forme a11 0 . A = .. . . . an1 · · · ann On dit que A est triangulaire inférieure. (3) Si ai j = 0 pour tout i , j, c’est à dire A est de la forme λ1 0 .. A = . 0 λn On dit que A est diagonale. M. Louzari, 2020
20
Facult´e des sciences de T´etouan
Chapitre 3. Matrices
Algèbre 2 (SMC & SMP)
Définition 3.8 (Matrice transposée, matrice symétrique, matrice antisymétrique). Soit A = (ai j ) ∈ Mm×n (K). (1) La matrice transposée de A, est la matrice At = bi j ∈ Mn×m (K) avec bi j = a ji pour tous i, j. (2) Une matrice carrée A ∈ Mn (K) est dite symétrique, si At = A. (3) Une matrice carrée A ∈ Mn (K) est dite antisymétrique, si At = −A.
3.2
Opérations sur les matrices
Dans cette section, on va voir les opérations ordinaires, comme la somme et le produit de deux matrices, ainsi que le produit d’une matrice avec un scalaire. Aussi, on traitera le changement de bases.
3.2.1
Opérations ordinaires
Il est naturel de se demander quelles sont les matrices qui représentent la somme de deux applications linéaires et le produit d’une application linéaire par un scalaire. L’ensemble des matrices de types (m, n) qu’on note Mm×n (K) forme un K-espace vectoriel avec les opérations suivantes : (αi j ) + (βi j ) = (αi j + βi j ) et λ.(αi j ) = (λαi j ) , pour tout λ ∈ K. Théorème 3.9. Soient E et F deux K-espaces vectoriels de dimensions m et n respectivement et f, g : E → F deux applications linéaires. Alors, relativement aux bases respectives X, Y de E, F et λ ∈ K on a : Mat( f + g; X, Y) = Mat( f ; X, Y) + Mat(g; X, Y) et Mat(λ. f ; X, Y) = λ.Mat( f ; X, Y). Preuve. Soient Mat( f ; X, Y) = (ai j )m×n et Mat(g; X, Y) = (bi j )m×n relativement aux bases X = {x1 , x2 , · · · , xn } et Y = {y1 , y2 , · · · , ym } de E et F respectivement. Alors, f (xi ) =
m X
a ji y j et g(xi ) =
Pm j=1
a ji y j +
Pm j=1
b ji y j =
b ji y j .
j=1
j=1
D’où, on a : ( f + g)(xi ) =
m X
Pm
j=1 (a ji
+ b ji )y j . Ainsi,
Mat( f + g; X, Y) = (ai j + bi j )m×n = (ai j )m×n + (bi j )m×n = Mat( f ; X, Y) + Mat(g; X, Y). De la même façon, on a : (λ f )(xi ) =
m X
(λa ji )y j
j=1
et par suite : Mat(λ. f ; X, Y) = λ.Mat( f ; X, Y). Définition 3.10 (Produit de deux matrices). Soient E, F et G trois K-espaces vectoriels de bases respectives X = {x1 , x2 , · · · , xn }, Y = {y1 , y2 , · · · , ym } et Z = {z1 , z2 , · · · , z p }. Posons (ai j ) = Mat( f ; X, Y) et (bi j ) = Mat(g; Y, Z) où f ∈ LK (E, F) et g ∈ LK (F, G). Calculons (ci j ) = Mat(go f ; X, Z). On a : m X (go f )(xi ) = g a ji y j j=1
M. Louzari, 2020
21
Facult´e des sciences de T´etouan
Chapitre 3. Matrices
Algèbre 2 (SMC & SMP)
=
m X
a ji g(y j )
j=1
=
m X j=1
p X a ji bk j zk k=1
m p X X bk j a ji zk . = k=1
j=1
Ainsi, cki = j=1 bk j a ji . On note alors, Mat(go f ; X, Z) = Mat(g; Y, Z) × Mat( f ; X, Y), ce qui conduit au produit suivant : Si M = (ai j ) est une matrice de type m × n et N = (bi j ) est une matrice de type n × p, le produit P M × N est la matrice de type m × p dont l’élément ci j de la position (i, j) est définit par : ci j = m k=1 aik bk j = ai1 b1 j + ai2 b2 j + · · · + aim bm j . Pm
2 −1 3 × Exemples 3.11. (1) −2 2 −1
−1 2 1 −12 9 −4 . 4 −2 3 = 12 −9 5 −2 1 −1
−1 2 1 2 −1 3 n’est pas défini. (2) 4 −2 3 × −2 2 −1 −2 1 −1 1 h i (3) 1 2 3 × 2 = [14]. 3 1 1 2 3 (4) 2 × [1, 2, 3] = 2 4 6 . 3 369 Pour calculer le produit M × N, il faut que le nombre de colonnes de M est le même que le nombre de lignes de N. 2 0 0 1 0 Exemples 3.12. (1) Considérons les deux matrices A = et B = 1 2 . 2 3 1 1 1 • Le produit AB est bien défini puisque A ∈ M 2×3 (R) et B ∈ M3×2 (R). 1 2 • En plus, AB ∈ M2×2 (R) et on a AB = . 8 7 0 2 0 • Le produit BA est bien défini, mais BA ∈ M3×3 (R) et on a BA = 4 7 2 . 2 0 1 • On en déduit que même les ABet BA sont bien définis, alors que AB et BA ne sont pas égaux. produits 0 1 et B = 1 0 , on a AB = 0 et BA = A. On en déduit que la multiplication (2) Pour les deux matrices A = 00 0 0 matricielle n’est pas commutative en général.
3.2.2
Changement de bases
Définition 3.13. Soient E un K-espace vectoriel de dimension finie et B = (e1 , e2 , · · · , en ), B0 = ( f1 , f2 , · · · , fn ) deux bases de E. On appelle matrice de passage de B à B0 , la matrice PB,B0 ∈ Mn (K), dont la je`me colonne est M. Louzari, 2020
22
Facult´e des sciences de T´etouan
Chapitre 3. Matrices
Algèbre 2 (SMC & SMP)
formée des composantes de f j dans la base B. On a f1 = a11 e1 + · · · + an1 en .. .. .. . . . fn = a1n e1 + · · · + ann en Ainsi PB,B0
a11 · · · a1n . .. = .. . an1 · · · ann
Maintenant, si on prend un élément x dans E, alors x = x1 e1 + · · · + xn en = x10 f1 + · · · + xn0 fn . Ainsi 0 x1 x1 . . PB,B0 .. = .. . xn xn0 En effet x=
n X
xi ei =
i=1
n X
x0j f j =
j=1
n X
h i x0j a1 j e1 + · · · + an j en
j=1
n n X X 0 0 = a1 j x j e1 + · · · + an j x j en j=1
j=1
Alors
a11 x10 + · · · + a1n xn0 = x1 .. .. .. . . . an1 x0 + · · · + ann xn0 = xn . 1
Par suite a11 · · · a1n x10 x1 . .. .. .. . . . . = . an1 · · · ann xn0 xn Ainsi PB,B
0 x1 x1 . . . = . . . . xn0 xn
n o Soit B = (e1 , · · · , en ) une base d’un K-espace vectoriel E de dimension n et u1 , · · · , u p une famille de vecteurs n o de E. La matrice de la famille u1 , · · · , u p dans la base B, qu’on note MB (u1 , · · · , u p ) est la matrice dont la je`me colonne est formée par les composantes de x j dans la base B. a11 · · · a1p . .. MB (u1 , ..., u p ) = .. . an1 · · · anp M. Louzari, 2020
23
Facult´e des sciences de T´etouan
Chapitre 3. Matrices
Algèbre 2 (SMC & SMP)
Remarques 3.14. (1) Si f ∈ LK (E, F), A = (a1 , · · · , an ) une base de E et B = (b1 , ..., bm ) une base de F, on a Mat( f ; A, B) = MB ( f (a1 ), · · · , f (an )). (2) Si B = (e1 , · · · , en ) et B0 = (e01 , · · · , e0n ) sont deux bases de E, on a PB,B0 = MB ( e01 , · · · , e0n ).
3.3
Propriétés de Mm×n (K)
Dans toute la suite de ce chapitre, si M ∈ Mm×n (K) et N ∈ Mn×p (K) on notera MN au lieu de M × N.
3.3.1
Propriétés élémentaires
Théorème 3.15. Soient A, B, C ∈ Mm×n (K). Alors (1) A + B = B + A (L’addition des matrices est commutative), (2) A + (B + C) = (A + B) + C (L’addition des matrices est associative). Preuve. (1) Soient A = (ai j ) ∈ Mm×n (K) et B = (bi j ) ∈ Mm×n (K). Alors A + B et B + A sont deux éléments de Mm×n (K) et on a : A + B = (ai j + bi j ) et B + A = (bi j + ai j ). Puisque l’addition dans K est commutative, alors ai j + bi j = bi j + ai j pour tous i, j. Par définition de l’égalité de deux matrices, on en déduit que A + B = B + A. (2) Soient A = (ai j ), B = (bi j ) et C = (ci j ) trois éléments de Mm×n (K). Alors le (i, j)e`me élément de A + (B + C) est ai j + (bi j + ci j ) et celui de (A + B) + C est (ai j + bi j ) + ci j . Puisque l’addition dans K est associative, alors ai j + (bi j + ci j ) = (ai j + bi j ) + ci j pour tous i, j. D’où A + (B + C) = (A + B) + C. Théorème 3.16. Soient A, B ∈ Mm×n (K) et λ, µ ∈ K. Alors (1) λ(A + B) = λA + λB, (2) (λ + µ)A = λA + µA, (3) λ(µA) = (λµ)A, (4) (−1)A = −A, (5) 0A = 0m×n . Preuve. Soient A = (ai j ) ∈ Mm×n (K) et B = (bi j ) ∈ Mm×n (K). Alors les égalités proviennent directement du fait qu’on a : (1) λ(ai j + bi j ) = λai j + λbi j , (2) (λ + µ)ai j = λai j + µai j , (3) λ(µai j ) = (λµ)ai j , (4) (−1)ai j = −ai j , (5) 0ai j = 0m×n . Théorème 3.17. Soient A ∈ Mm×n (K), B ∈ Mn×p (K) et C ∈ M p×q (K). Alors A(BC) = (AB)C. C’est à dire, la multiplication matricielle est associative, dans le cas où les produits sont définis. Preuve. Soient A = (ak` ) ∈ Mm×n (K), B = (buv ) ∈ Mn×p (K) et C = (c st ) ∈ M p×q (K). Alors les produits A(BC) et (AB)C sont définis. Calculons le (i, j)e`me élément des deux produits A(BC) et (AB)C. P P Pp P Pp • [A(BC)]i j = n`=1 ai` [BC]` j = n`=1 ai` ( v=1 b`v cv j ) = n`=1 v=1 ai` b`v cv j . Pp P p Pn P p Pn • [(AB)C]i j = v=1 [AB]iv cv j = v=1 ( `=1 ai` b`v )cv j = v=1 `=1 ai` b`v cv j . On voit clairement que [A(BC)]i, j = [(AB)C]i, j pour tous i, j et par suite, on a : A(BC) = (AB)C. M. Louzari, 2020
24
Facult´e des sciences de T´etouan
Chapitre 3. Matrices
Algèbre 2 (SMC & SMP)
D’après le Théorème 3.17, on écrit ABC au lieu de A(BC) ou (AB)C. Aussi, pour tout entier naturel non nul n, on écrira An au lieu de AA · · · A (n fois). h i 1 −1 0 0 Exercices 3.18. (1) Calculer le produit 1 2 3 0 −2 1 1 . 4 −3 1 1 0 a a2 (2) Calculer A2 et A3 où A = 0 0 a , a ∈ R 00 0 3 0 1 4 2 4 −1 . Calculer et comparer les deux (3) Considérons les trois matrices A = −1 2 , B = et C = 3 1 5 0 2 1 1 produits (AB)C et A(BC). Théorème 3.19. (1) Si A ∈ Mm×n (K), B ∈ Mn×p (K) et C ∈ Mn×p (K). Alors A(B + C) = AB + AC. (2) Si A ∈ Mn×p (K), B ∈ Mm×n (K) et C ∈ Mm×n (K). Alors (B + C)A = BA + CA. Preuve. (1) On prend A = (ai j ), B = (bk` ) et C = (ck` ). Alors : [A(B + C)]i j =
n X
aik [B + C]k j =
n X
aik (bk j + ck j )
k=1
k=1
=
n X
aik bk j +
k=1
n X
aik ck j
k=1
= [AB]i j + [AC]i j = [AB + AC]i j
De la même façon on montre (2). Théorème 3.20. Soient A ∈ Mm×n (K), B ∈ Mn×p (K) et λ ∈ K. Alors λ(AB) = (λA)B = A(λB). Preuve. Les (i, j)e`me éléments des trois produits mixtes sont λ(
n X
n n X X aik bk j ) = ( λaik )bk j = aik (λbk j ).
k=1
k=1
k=1
D’où le résultat.
3.3.2
Éléments inversibles de Mn (K)
Définition 3.21. Une matrice A ∈ Mn (K) est dite inversible, s’il existe B ∈ Mn (K) telle que AB = In = BA. La matrice B s’appelle l’inverse de A, et on la note A−1 . M. Louzari, 2020
25
Facult´e des sciences de T´etouan
Chapitre 3. Matrices
Algèbre 2 (SMC & SMP)
Proposition 3.22. Soient E et F deux K-espaces vectoriels de dimensions finies, f ∈ LK (E, F), A une base de E et B une base de F. Alors, f est bijective si et seulement si Mat( f ; A, B) est inversible. Dans ce cas, on a : Mat( f ; A, B)−1 = Mat( f −1 ; B, A). Preuve. (⇒) Si f est bijective, on a : Mat( f ; A, B) × Mat( f −1 ; B, A) = Mat( f o f −1 ; B) = Mat(idF , B) = In et Mat( f −1 ; B, A) × Mat( f ; A, B) = Mat( f −1 o f, A) = Mat(idE , A) = In Alors, Mat( f ; A, B) est inversible telle que Mat( f ; A, B)−1 = Mat( f −1 ; B, A). (⇐) Supposons que Mat( f ; A, B) est inversible et considérons l’application linéaire g : F −→ E telle que Mat(g; B, A) = Mat( f ; A, B)−1 , on a : Mat(go f, A) = Mat(g; B, A) × Mat( f ; A, B) = In = Mat(idE , A) et Mat( f og, B) = Mat( f ; A, B) × Mat(g; B, A) = In = Mat(idF , B) Alors, f og = idF et go f = idE , ainsi f est bijective.
Proposition 3.23. Soient E un K-espace vectoriel de dimension n de base B = {e1 , e2 , · · · , en } et {x1 , x2 · · · , xn } une famille d’éléments de E. Alors, {x1 , · · · , xn } est une base de E si et seulement si MB (x1 , · · · , xn ) est inversible. Preuve. On a MB (x1 , · · · , xn ) = M( f, B) où f : ei 7→ xi . Donc {x1 , · · · , xn } est une base de E si et seulement si f est un automorphisme de E si et seulement si M( f, B) est inversible. Proposition 3.24. Soient E un K-espace vectoriel de finie, B et B0 sont deux bases de E. Alors la matrice de passage PB,B0 est inversible, et son inverse est la matrice de passage PB0 ,B de B0 à B. Preuve. On a PB,B0 est la matrice de la famille B0 par rapport à B, donc PB,B0 est inversible. D’autre part, PB,B0 = 0 0 Mat(IdE ; B0 , B), donc P−1 B,B0 = Mat(IdE ; B, B ) est la matrice de passage de B à B .
3.3.3
L’inverse d’une matrice et élimination de Gauss-Jordan
Définition 3.25 (Méthode de la forme échelonnée réduite). Soit A ∈ Mm×n (K), pour tout 1 ≤ i, j ≤ m et λ ∈ K. On appelle opération élémentaire sur les lignes de A, l’une des opérations suivantes : • Li −→ λLi : Multiplication de la ligne Li par λ , 0. • Li −→ Li + λL j : L’addition de la ligne λL j à la ligne Li . • Li ←→ L j : Échange des lignes Li et L j . La méthode d’élimination de" Gauss-Jordan consiste à suivre les étapes suivantes : # .. (1) On considère la matrice A . I ∈ M (K) dont la partie gauche formée par les coefficients de A et celle de n
n×2n
droite par les coefficients de In .
# .. (2) En utilisant les opérations élémentaires ci-dessus, on essaie de transformer la matrice A . In à une matrice de "
M. Louzari, 2020
26
Facult´e des sciences de T´etouan
Chapitre 3. Matrices
Algèbre 2 (SMC & SMP)
" # . la forme In .. B ∈ Mn×2n (K). (3) La matrice B qui apparaît à droite est A−1 . −3 2 −1 Exemple 3.26. Calculer l’inverse de A = 2 0 1 . −1 2 1 .. .. 1 −2 −1 . 0 0 −1 −3 2 −1 . 1 0 0 −L3 .. .. ∼ 2 0 1 . 0 1 0 2 0 1 . 0 1 0 L2 L1 .. .. −3 2 −1 . 1 0 0 −1 2 1 . 0 0 1 . 1 −2 −1 .. 0 0 −1 L1 . ∼ 0 4 3 .. 0 1 2 L2 − 2L1 L3 + 3L1 .. 0 −4 −4 . 1 0 −3 . 1 −2 −1 .. 0 0 −1 L1 . ∼ 0 4 3 .. 0 1 2 L2 −(L3 + L2 ) .. 0 0 1 . −1 −1 1 .. 1 −2 0 . −1 −1 0 L1 + L3 . ∼ 0 4 0 .. 3 4 −1 L2 − 3L3 . L3 0 0 1 .. −1 −1 1 . 1 0 0 .. 21 1 − 12 . ∼ 0 1 0 .. 3 1 − 1 4 4 .. 0 0 1 . −1 −1 1
L1 + 1 L2 2 1 L2 4 L3
Ainsi, A−1
=
1 2 3 4
1 − 12 1 − 14 . −1 −1 1
1) En général, on ne sait pas d’avance si la matrice A est inversible ou non. 2) Si elle est non inversible, il apparaît dans la procédure précédente une ligne nulle dans la partie gauche et on conclut que A n’est pas inversible. 1 −1 0 Exercice 3.27. En utilisant la méthode d’élimination de Gauss-Jordan, montrer que la matrice A = 1 0 −1 −6 2 3 −2 −3 −1 est inversible, et son inverse est A−1 = −3 −3 −1 −2 −4 −1 M. Louzari, 2020
27
Facult´e des sciences de T´etouan
Chapitre 3. Matrices
Algèbre 2 (SMC & SMP)
3.4
Rang d’une matrice
3.4.1
Définition et propriétés
Définition 3.28. Si M ∈ Mm×n (K), on appelle rang de M qu’on note rg(M), le rang des vecteurs colonnes de M comme vecteurs de K m . n o Proposition 3.29. (1) Soient E un K-espace vectoriel de dimension finie n et X = x1 , · · · , x p une famille de vecteurs de E. Alors rg(X) = rg(MB (x1 , · · · , x p ). (2) Soient E et F deux K-espaces vectoriels de dimensions finies de bases A et B respectivement, et f ∈ L(E, F). Alors rg( f ) = rg(Mat( f ; A, B)). Preuve. (1) Si A = (e1 , · · · , en ) est une base de E, alors l’application ϕ de K n dans E où ϕ [λ1 , · · · , λn ] = λ1 e1 + · · · + λn en est un isomorphisme qui transforme la famille de vecteurs colonnes de MB (x1 , · · · , x p ) à la famille (x1 , · · · , x p ), et donc le sous-espace engendré par les vecteurs colonnes de MB (x1 , · · · , x p ), à celui des vecteurs n o x1 , · · · , x p ces deux sous-espaces sont donc de même dimension, d’où le résultat. (2) Puisque Mat( f ; A, B) = MB ( f (A)) et que rg( f ) = dim(Im( f )) = dim(Vect( f (A)) = rg( f (A)) = rg(Mat( f ; A, B)). Proposition 3.30. Si M ∈ Mm×n (K), alors rg(M) = rg(M t ). On en déduit que le rang d’une matrice est égal au rang : (1) de ses vecteurs colonnes, (2) de ses vecteurs lignes, (3) de toute application linéaire qui lui est associée.
3.4.2
Recherche du rang d’une matrice par la méthode échelonnée réduite
Si M ∈ Mn (K) alors le rang de M ne change pas si on effectue sur les lignes (ou colonnes) de M l’une des opérations élémentaires. 2 −3 −4 3 1 5 . Alors, Exemple 3.31. Soit A = −1 0 −1 0 2 4 2 −3 −4 L1 1 0 1 L1 ←→ −L3 3 1 5 L2 0 1 2 L2 ←→ 12 L4 A = ∼ −1 0 −1 L3 2 −3 −4 0 2 4 L4 3 1 5 1 0 ∼ 0 0 M. Louzari, 2020
0 1 −3 1 28
1 2 −6 2
L1 −→ L1 L2 −→ L2 L3 −→ L3 − 2L1 L4 −→ L4 − 3L1 Facult´e des sciences de T´etouan
Chapitre 3. Matrices
1 0 0 Donc A = 0 0
M. Louzari, 2020
0 1 0 0
Algèbre 2 (SMC & SMP)
1 0 ∼ 0 0
0 1 0 0
1 2 0 0
1 0 ∼ 0 0
0 1 0 0
1 C1 −→ C1 0 C2 −→ C2 0 C3 −→ C3 − 2C2 0
1 0 ∼ 0 0
0 1 0 0
0 C1 −→ C1 0 C2 −→ C2 0 C3 −→ C3 − C1 0
L1 −→ L1 L2 −→ L2 L3 −→ L3 + 3L2 L4 −→ L4 − L2
0 0 . Puisque rg(A) = rg(A0 ) = 2, alors rg(A) = 2. 0 0
29
Facult´e des sciences de T´etouan
Chapitre 4
Déterminants Dans ce chapitre, nous considérons les matrices à coefficients dans un corps commutatif K (R ou C). Le déterminant d’une famille de vecteurs ou d’une matrice carrée est un scalaire (i.e., un élément de K). Le déterminant permet de savoir si une matrice carrée est inversible ou non, en plus il joue un rôle important dans la résolution des systèmes linéaires.
4.1
Formes p-linéaires alternées
Définition 4.1. Soient E un K-espace vectoriel de dimension n et p un entier naturel non nul. On appelle forme p-linéaire sur E, une application f : E p → K, telle que pour tous ui , vi ∈ E, λ ∈ K et i = 1, 2, · · · , p, on a f (· · · , ui + vi , · · · ) = f (· · · , ui , · · · ) + f (· · · , vi , · · · ) f (· · · , λui , · · · ) = λ f (· · · , ui , · · · ). C’est à dire, f est linéaire par rapport à chaque composante. (1) Si p = 2, on dit que f est une forme bilinéaire. (2) Si p = 3, on dit que f est une forme trilinéaire. Définition 4.2. Une forme p-linéaire f sur E est dite alternée, si pour tous ui , u j ∈ E avec 1 ≤ i, j ≤ p, on a f (· · · , ui , · · · , u j , · · · ) = − f (· · · , u j , · · · , ui , · · · ). Remarque 4.3. Si f est alternée et ui = u j , alors f (u1 , · · · , u p ) = 0.
4.2
Déterminants d’ordres 2 et 3
Dans cette section, on focalise seulement sur les déterminants d’ordres 2 et 3 pour avoir une idée claire de la nation du déterminant. •) D´eterminants d’ordre 2 Soient E un K-espace vectoriel tel que dim E = 2, B = {e1 , e2 } une base de E et f est une forme bilinéaire alternée sur E. Pour tous v1 , v2 ∈ E avec v1 = α1 e1 + α2 e2 et v2 = β1 e1 + β2 e2 , on a f (v1 , v2 ) = (α1 β2 − α2 β1 ) f (e1 , e2 ). 30
Chapitre 4. Déterminants
Algèbre 2 (SMC & SMP)
Définition 4.4. Le terme α1 β2 − α2 β1 s’appelle le déterminant de v1 et v2 dans la base B et on note α1 β1 = α1 β2 − α2 β1 . de´ tB (v1 , v2 ) = α2 β2 Remarque 4.5. On a ainsi, f (v1 , v2 ) = de´ tB (v1 , v2 ) f (e1 , e2 ), donc de´ tB est une forme bilinéaire alternée sur E si f (e1 , e2 ) , 0. a c ∈ M2 (K), on appelle déterminant de A, le déterminant de ses vecteurs colonnes et Définition 4.6. Soit A = b d on note a c = ad − bc. de´ t(A) = b d Exemple 4.7. 5 1 = 35 + 2 = 37. −2 7 •) D´eterminants d’ordre 3 Soient E un K-espace vectoriel tel que dim E = 3, B = {e1 , e2 , e3 } une base de E et v1 , v2 , v3 ∈ E avec v1 = α1 e1 + α2 e2 + α3 e3 , v2 = β1 e1 + β2 e2 + β3 e3 et v3 = γ1 e1 + γ2 e2 + γ3 e3 . Soit f est une forme trilinéaire alternée sur E, alors f (v1 , v2 , v3 ) = α1 β2 γ3 − α1 β3 γ2 − α2 β1 γ3 + α2 β3 γ1 + α3 β2 γ2 − α3 β2 γ1 f (e1 , e2 , e3 ) Définition 4.8. Le terme α1 β2 γ3 + α2 β3 γ1 + α3 β1 γ2 − α1 β3 γ2 − α2 β1 γ3 − α3 β2 γ1 s’appelle le déterminant des vecteurs v1 , v2 , v3 dans la base B et on note α1 β1 γ1 de´ tB (v1 , v2 , v3 ) = α2 β2 γ2 α3 β3 γ3 = α1 β2 γ3 + α2 β3 γ1 + α3 β1 γ2 − α3 β2 γ1 − α1 β3 γ2 − α2 β1 γ3 . Remarque 4.9. On a f (v1 v2 , v3 ) = de´ tB (v1 , v2 , v3 ) f (e1 , e2 , e3 ) donc, de´ tB est une forme trilinéaire alternée, si f (e1 , e2 , e3 ) , 0. α1 β1 γ1 Définition 4.10. Soit A = α2 β2 γ2 ∈ M3 (K), on appelle déterminant de A, le déterminant de ses vecteurs α3 β3 γ3 colonnes et on note α1 β1 γ1 de´ t(A) = α2 β2 γ2 = α1 β2 γ3 + α2 β3 γ1 + α3 β1 γ2 − α3 β2 γ1 − α1 β3 γ2 − α2 β1 γ3 . α3 β3 γ3 1 2 3 Exemple 4.11. Considérons la matrice A = 4 5 6 . Alors 8 8 9 1 2 3 de´ t(A) = 4 5 6 = (1 × 5 × 9) + (4 × 8 × 3) + (2 × 6 × 8) − (8 × 5 × 3) − (1 × 8 × 6) − (4 × 2 × 9) 8 8 9 = 45 + 96 + 96 − 120 − 48 − 72 = −3. M. Louzari, 2020
31
Facult´e des sciences de T´etouan
Chapitre 4. Déterminants
Algèbre 2 (SMC & SMP)
On peut utiliser la règle de Sarrus pour calculer les déterminants d’ordres 3. Règle 4.12 (Règle de Sarrus). Cette règle est valable seulement en dimension 3. Il s’agit de recopier les deux premières lignes au dessous de la matrice, puis on additionne les produits de trois termes en les regroupant selon les diagonales descendantes, et on soustrait ensuite les produits de trois termes regroupés selon les diagonales montantes. α1 β1 γ1 α2 β2 γ2 de´ tB (v1 , v2 , v3 ) = α3 β3 γ3 α1 β1 γ1 α β γ 2 2 2 = α1 β2 γ3 + α2 β3 γ1 + α3 β1 γ2 − α3 β2 γ1 − α1 β3 γ2 − α2 β1 γ3 . Proposition 4.13 (Interprétation géométrique du déterminant). Soient E un R-espace vectoriel de dimension n > 1 et v1 , v2 , v3 ∈ E. (1) Si n = 2. Alors |de´ t(v1 , v2 )| est l’aire du parallélogramme déterminé par v1 et v2 . (2) Si n = 3. Alors |de´ t(v1 , v2 , v3 )| est le volume du parallélépipède déterminé par v1 , v2 et v3 . On prendra comme unité d’aire de R2 , l’aire du carré unité formé par e1 , e2 ; et l’unité de volume de R3 le volume du cube unité déterminé par e1 , e2 , e3 .
4.3
Déterminants d’ordre n
Dans cette section, on donnera la définition du déterminant dans le cas général, cette notion est un peu abstraite mais on va essayer de l’aborder d’une manière simple. Définition 4.14. Soient E un K-espace vectoriel de dimension n , B = {e1 , · · · , en } une base de E et {v1 , · · · , vn } une famille de vecteurs de E telle que v1 = α11 e1 + · · · + αn1 en .. .. .. . . . vn = α1n e1 + · · · + αnn en Alors, le déterminant de {v1 , · · · , vn } dans la base B est le scalaire f (v1 , · · · , vn ) sachant que f est l’unique forme n-linéaire alternée définie sur E et vérifiant f (e1 , · · · , en ) = 1. On note α11 α21 de´ tB (v1 , · · · , vn ) = . .. αn1
α12 α22 .. . αn2
· · · α1n · · · α2n . . .. . . . · · · αnn
Remarque 4.15. On a de´ tB (e1 , · · · , en ) = 1, il en résulte que si f est une forme n-linéaire alternée quelconque, on a ∀v1 , · · · , vn ∈ E : f (v1 , · · · , vn ) = de´ tB (v1 , · · · , vn ) f (e1 , · · · , en ). Définition 4.16. Soit A ∈ Mn (K), le déterminant de A c’est le déterminant de ses vecteurs colonnes dans la base canonique de K n . M. Louzari, 2020
32
Facult´e des sciences de T´etouan
Chapitre 4. Déterminants
Algèbre 2 (SMC & SMP)
Proposition 4.17 (Opérations élémentaires). (1) Si on multiplie une colonne par λ, le déterminant est multiplié par λ. (2) Si on permute deux colonnes, le déterminant change le signe. (3) Si on ajoute à une colonne une combinaison linéaire des autres colonnes, le déterminant ne change pas. Exemple 4.18. Calculons le déterminant 1 2 3 1 2 3 4 5 6 = 0 −3 −6 L2 ← L2 − 4L1 8 8 9 0 −8 −15 L ← L − 8L 3 3 1 1 2 1 2 −3 −6 = −3. = −3 = −3 = 0 1 −8 −15 −8 −15
4.4
Propriétés des déterminants
Théorème 4.19. Soient E un K-espace vectoriel de dimension n, B une base de E et {v1 , · · · , vn } une famille de vecteurs de E. Alors {v1 , · · · , vn } est libre ⇔ de´ tB (v1 , · · · , vn ) , 0. Preuve. Supposons que {v1 , · · · , vn } est liée, alors l’un de ses vecteurs est combinaison linéaire des autres, si par exemple : v1 = λ2 v2 + · · · + λn vn , on a : de´ tB (v1 , v2 , · · · , vn ) = de´ tB (λ2 v2 + · · · + λn vn , v2 , · · · , vn ) = λ2 de´ tB (v2 , v2 , · · · , vn ) + · · · + λn de´ tB (vn , v2 , · · · , vn ) D’où de´ tB (v1 , · · · , vn ) = 0. Réciproquement, supposons que {v1 , · · · , vn } est libre, donc B0 = {v1 , · · · , vn } est une base de E et on a 1 = de´ tB0 (v1 , · · · , vn ) = de´ tB (v1 , · · · , vn ).de´ tB0 (e1 , · · · , en ). Alors de´ tB (v1 , · · · , vn ) , 0. Corollaire 4.20. Soit A ∈ Mn (K), on a : (1) A est inversible ⇔ de´ tB (A) , 0. (2) Si une colonne de A est nulle le déterminant de A est nulle. (3) Si deux colonnes sont égales où proportionnelles le déterminant est nul. Théorème 4.21. Soit A ∈ Mn (K), alors de´ t(A) = de´ t(At ). Corollaire 4.22. On peut remplacer une colonne par une ligne.
4.5
Déterminant d’un endomorphisme
Définition 4.23. Soit E un K-espace vectoriel de dimension finie de base B = {e1 , · · · , en } et f ∈ LK (E). On appelle déterminant de f qu’on note de´ tB ( f ) = de´ t(Mat( f ; B)). Proposition 4.24. Pour toute famille {v1 , · · · , vn } de vecteurs d’un K-e.v. E, on a : de´ tB ( f (v1 ), · · · , f (vn )) = de´ tB ( f ).de´ tB (v1 · · · , vn ). M. Louzari, 2020
33
Facult´e des sciences de T´etouan
Chapitre 4. Déterminants
Algèbre 2 (SMC & SMP)
Preuve. L’application (u1 , · · · , un ) 7−→ de´ tB ( f (u1 ), · · · , f (un )) est n-linéaire alternée, on a : de´ tB ( f (u1 ), · · · , f (un )) = λ.de´ tB (u1 , · · · , un ). En particulier si u1 = e1 , · · · , un = en , alors de´ tB ( f ) = λ. D’où le résultat.
Proposition 4.25. Soient E un K-espace vectoriel de dimension finie et B une base de E. Alors, pour tous f, g ∈ LK (E) et λ ∈ K on a : (1) de´ tB (λ f ) = λn de´ tB ( f ). (2) de´ tB (go f ) = de´ tB (g).de´ tB ( f ). Preuve. Soit B = {e1 , · · · , en } une base de E, on a : (1) de´ tB (λ f ) = de´ tB (λ f (e1 ), · · · , λ f (en )) = λn de´ tB ( f (e1 ), · · · , f (en )) = λn de´ tB ( f ). (2) de´ tB (go f ) = de´ tB ((go f (e1 ), · · · , (go f )(en )) = de´ tB (g( f (e1 )), · · · , g( f (en ))) = de´ tB (g). de´ tB ( f (e1 ), · · · , f (en )) = de´ tB (g).de´ tB ( f ). Corollaire 4.26. Soient M, N ∈ Mn (K) et λ ∈ K, on a : (1) de´ t(λM) = λn de´ tB (M). (2) de´ t(M × N) = de´ t(M).de´ t(N). Preuve. Soit B la base canonique de Kn . On prend M = Mat( f ; B) et N = Mat(g; B), alors : (1) de´ t(λM) = de´ tB (λ f ) = λn de´ tB ( f ) = λn de´ t(M). (2) de´ t(M × N) = de´ tB ( f og) = de´ tB ( f ).de´ tB (g) = de´ t(M).de´ t(N).
Corollaire 4.27. Si A est inversible, alors de´ t(A−1 ) = (de´ t(A))−1 . Preuve. A étant inversible, donc de´ t(A) , 0. Alors 1 = de´ t(A × A−1 ) = de´ t(A).de´ t(A−1 ) ⇒ de´ t(A−1 ) = (de´ t(A))−1 .
4.6
Calcul des déterminants
Proposition 4.28. Considérons la matrice A =
0 .. A0 . ∈ M (K), n 0 × ··· × α
où A0 ∈ Mn−1 (K). Alors de´ t(A) = α.de´ t(A0 ). Corollaire 4.29. Soit A = (αi j ) ∈ Mn (K) une matrice carrée triangulaire supérieure (ou inférieure). Alors de´ t(A) =
n Y
αii .
i=1
M. Louzari, 2020
34
Facult´e des sciences de T´etouan
Chapitre 4. Déterminants
Algèbre 2 (SMC & SMP)
−1 2 3 Exemple 4.30. Si A = 2 −3 1 , on a : 1 3 −2 −1 2 3 −1 2 3 −1 2 3 de´ t(A) = 2 −3 1 = 0 1 7 = 0 1 7 = 34. 1 3 −2 0 5 1 0 0 −34 Exemple 4.31. Calculons le déterminant 1 1 2 1 1 1 2 1 3 1 4 5 = 0 −2 −2 2 L2 ← L2 − 3L1 7 6 1 2 0 −1 −13 −5 L ← L − 7L 3 1 3 1 1 3 4 0 0 1 3 L4 ← L4 − L3 1 1 2 1 2 1 0 1 1 −1 1 −1 = −2 −13 −5 0 0 −12 −6 L3 ← L3 + L2 0 0 1 3 1 3 1 1 2 1 0 1 1 −1 = (−2) × (−6) 0 0 2 1 0 0 1 3 L4 ← L4 − 21 L3 1 1 2 1 0 1 1 −1 5 = 12 × 1 × 1 × 2 × = 60. = 12 2 0 0 2 1 5 000 2 1 0 = −2 0 0
1 1 −1 0
Exercice 4.32. Soient a, b, c ∈ C, montrer que : 1 1 1 1 a 1 1 1 = (1 − a)3 , (1) (2) a a 1 1 a a a 1 b + c b c (3) c c + a a = 2a(b2 + c2 ). b a a + b
2a 2b b − c 2 2b 2a a + c = −2(a − b) (a + b), a + b a + b b
Définition 4.33. Soit A = (αi j ) ∈ Mn (K) une matrice carrée. On note Ai j la matrice obtenue en supprimant la ie`me ligne et la je`me colonne de A. (1) Le scalaire Mi j (A) = de´ t(Ai j ) est dit le (i, j)e`me -mineur de A. (2) Le scalaire Ci j (A) = (−1)i+ j Mi j (A) est dit le (i, j)e`me -cofacteur de A. Si aucune confusion n’est à craindre, on note Mi j (A) par Mi j et Ci j (A) par Ci j . Théorème 4.34. Soit A = (αi j ) ∈ Mn (K). Alors P (1) de´ t(A) = ni=1 αi jCi j (A), pour tout j = 1, 2, · · · , n (Développement suivant la je`me colonne). P (2) de´ t(A) = nj=1 αi jCi j (A), pour tout i = 1, 2, · · · , n (Développement suivant la ie`me ligne). M. Louzari, 2020
35
Facult´e des sciences de T´etouan
Chapitre 4. Déterminants
Algèbre 2 (SMC & SMP)
Preuve. (1) Désignons par B = (e1 , · · · , en ) la base canonique de K n et par C1 , · · · , Cn les colonnes de A, on a pour P tout 1 ≤ j ≤ n, C j = ni=1 αi j ei . Ce qui donne de´ t(A) = de´ tB (C1 , · · · , C j−1 ,
n X
αi j ei , C j+1 , · · · , Cn )
i=1
=
n X
αi j de´ tB (C1 , ..., C j−1 , ei , C j+1 , · · · , Cn )
i=1
Maintenant, on note Di j = de´ tB (C1 , ..., C j−1 , ei , C j+1 , ..., Cn ) α11 · · · α1, j−1 0 α1, j+1 · · · . .. .. .. .. . . . αi−1,1 · · · αi−1, j−1 0 αi−1, j+1 · · · = αi,1 · · · αi, j−1 1 αi, j+1 , · · · αi+1,1 · · · αi+1, j−1 0 αi+1, j+1 · · · . ... ... .. αn1 αn, j−1 0 αn, j+1 · · · α11 . .. αi−1,1 = (−1)(n− j)+(n−i) αi+1,1 .. . αn,1 αi,1
· · · α1, j−1 .. . · · · αi−1, j−1 · · · αi+1, j−1 .. . αn, j−1 · · · αi, j−1
α1n .. . αi−1,n αi,n αi+1,n αn,n α1, j+1 .. . αi−1, j+1 αi+1, j+1 .. . αn, j+1 αi, j+1
· · · α1n .. . · · · αi−1,n · · · αi+1,n .. . · · · αn,m · · · αi,n
0 .. . 0 0 .. . 0 1
⇒ Di j = (−1)i+ j Mi j (A) = Ci j (A).
(2) De même que (1).
Remarque 4.35. Il est clair que, pour chaque coefficient αi j le signe (−1)i+ j est donné selon sa place dans la matrice en commençant par le signe + pour α11 et en changeant le signe pour chaque changement de ligne ou de colonne. + − + .. .
− + − .. .
+ − + .. .
− + − .. .
+ − + .. .
· · · · · · · · · .. .
−1 2 3 Exemple 4.36 (Développement suivant une colonne). On considère la matrice A = 2 −3 1 . 1 3 −2 (1) Développement suivant la première colonne. On a −3 1 = 3 et C11 (A) = (−1)1+1 M11 (A) = 3, • M11 (A) = 3 −2 M. Louzari, 2020
36
Facult´e des sciences de T´etouan
Chapitre 4. Déterminants 2 • M21 (A) = 3 2 • M31 (A) = −3
Algèbre 2 (SMC & SMP)
3 = −13 et C21 (A) = (−1)2+1 M21 (A) = 13, −2 3 = 11 et C31 (A) = (−1)3+1 M31 (A) = 11. 1
Ainsi, de´ t(A) = α11C11 (A) + α21C21 (A) + α31C31 (A) = (−1 × 3) + (2 × 13) + (1 × 11) = 34. (2) Développement la deuxième colonne. On a suivant 2 1 = −5 et C12 (A) = (−1)1+2 M12 (A) = 5, • M12 (A) = 1 −2 −1 3 = −1 et C22 (A) = (−1)2+2 M22 (A) = −1, • M22 (A) = 1 −2 −1 3 = −7 et C32 (A) = (−1)3+2 M32 (A) = 7. • M32 (A) = 2 1 Ainsi, de´ t(A) = α12C12 (A) + α22C22 (A) + α32C32 (A) = (2 × 5) + (−3 × −1) + (3 × 7) = 34. 1 2 3 Exemple 4.37 (Développement suivant une ligne). On considère la matrice A = 4 5 6 . 8 8 9 (1) Développement la première ligne. On a suivant 5 6 = −3 et C11 (A) = (−1)1+1 M11 (A) = −3, • M11 (A) = 8 9 4 6 = −12 et C12 (A) = (−1)1+2 M12 (A) = 12, • M12 (A) = 8 9 4 5 = −8 et C13 (A) = (−1)1+3 M13 (A) = −8. • M13 (A) = 8 8 Ainsi, de´ t(A) = α11C11 (A) + α12C12 (A) + α13C13 (A) = (1 × −3) + (2 × 12) + (3 × −8) = −3. (2) Développement la troisième ligne. On a suivant 2 3 = −3 et C31 (A) = (−1)3+1 M31 (A) = −3, • M31 (A) = 5 6 1 3 = −6 et C32 (A) = (−1)3+2 M32 (A) = 6, • M32 (A) = 4 6 1 2 = −3 et C33 (A) = (−1)3+3 M33 (A) = −3. • M33 (A) = 4 5 Ainsi, de´ t(A) = α31C31 (A) + α32C32 (A) + α33C33 (A) = (8 × −3) + (8 × 6) + (9 × −3) = −3. M. Louzari, 2020
37
Facult´e des sciences de T´etouan
Chapitre 4. Déterminants
4.7
Algèbre 2 (SMC & SMP)
La matrice adjointe
h i Définition 4.38. Soit A = αi j ∈ Mn (K) une matrice carrée. (1) On appelle comatrice de A, noté com(A), la matrice des cofacteurs de A. (2) La transposée de la comatrice de A est dite matrice adjointe de A et on la note : C11 C21 · · · Cn1 C12 C22 · · · Cn2 ad j(A) = . .. . . .. . .. . . . C1n C2n · · · Cnn 1 2 3 Exemple 4.39. Considérons la matrice A = 4 5 6 , alors 88 9 C11 C21 C31 −3 6 −3 ad j(A) = C12 C22 C32 = 12 −15 6 . −8 8 −3 C13 C23 C33 h i Théorème 4.40. Soit A = αi j ∈ Mn (K). Alors, A.ad j(A) = ad j(A).A = de´ t(A)In . h i Preuve. Posons A.ad j(A) = γi j . Alors pour tous 1 ≤ i, k ≤ n, on a γik =
n X
αi j C k j .
j=1
(1) Si i = k on a γii = de´ t(A). (2) Si i , k, soit A0 ∈ Mn (K) telle que α11 .. . αk−1,1 0 A = αi,1 αk+1,1 .. . αn1
··· ···
··· ··· ··· ··· ··· ···
··· ···
α1n .. . αk−1,n αi,n ke`me ligne αk+1,n .. . αnn
En développant de´ t(A0 ) suivant la ke`me ligne, on a 0 = de´ t(A0 ) =
n X
αi jCk j = γik .
j=1
Alors A.ad j(A) = de´ t(A)In . De la même façon, on démontre que ad j(A).A = de´ t(A)In .
Corollaire 4.41 (Formule de l’inverse). Si de´ t(A) , 0, alors A est inversible et on a : A−1 = M. Louzari, 2020
1 .ad j(A) de´ t(A) 38
Facult´e des sciences de T´etouan
Chapitre 4. Déterminants
Algèbre 2 (SMC & SMP)
−1 2 3 Exemple 4.42. On considère la matrice A = 2 −3 1 , on a 1 3 −2 2 3 2 3 −3 1 = −3 + 26 + 11 = 34 , 0, + − 2 de´ t(A) = − 3 −2 −3 1 3 −2 donc A est inversible. Alors la matrice des cofacteurs de A est : 3 13 11 3 5 9 C11 C12 C13 Com(A) = C21 C22 C23 = 13 −1 5 . Ainsi, ad j(A) = Com(A)t = 5 −1 7 . Par suite, A−1 = 9 5 −1 11 7 −1 C31 C32 C33 3 13 11 1 5 −1 7 . 34 9 5 −1 Exercice 4.43 (déterminant de Vondermonde). Soient a, b, c ∈ C, montrer que 1 1 1 a b c = (b − a)(c − a)(c − b). a2 b2 c2
4.8
Règle de Cramer
Dans cette section, on présente une méthode très ancienne (1750) pour résoudre un système linéaire de n équations et n indéterminées, qui s’appelle règle de Cramer. Théorème 4.44. Le système linéaire de n équations et n indéterminées x1 , x2 , · · · , xn . a11 x1 + · · · + a1n xn = b1 a21 x1 + · · · + a2n xn = b2 .. . an1 x1 + · · · + ann xn = bn Possède une unique solution, si ∆ = de´ t(ai j ) , 0. Cette solution est donnée par : x1 =
∆1 ∆2 ∆n , x2 = , · · · , xn = , ∆ ∆ ∆
où ∆i est le déterminant de la matrice obtenue à partir de A = (ai j ) en remplaçant sa ie`me colonne par la matrice b1 b2 colonne . . .. bn Preuve. Soit A = (ai j ) ∈ Mn (K) et supposons que ∆ = de´ t(A) , 0. Alors A est inversible et son inverse est M. Louzari, 2020
39
Facult´e des sciences de T´etouan
Chapitre 4. Déterminants A−1 =
Algèbre 2 (SMC & SMP)
1 .ad j(A). On a ainsi, ∆ x1 x2 . = A−1 . . xn
b1 C11 C21 b2 1 C12 C22 . = .. . ∆ .. . . . bn C1n C2n
· · · Cn1 b1 · · · Cn2 b2 . . .. .. . . . bn · · · Cnn
b1C11 + b2C21 + · · · + bnCn1 1 b1C12 + b2C22 + · · · + bnCn2 = .. ∆ . b1C1n + b2C2n + · · · + bnCnn Or la ie`me composante du dernier vecteur n’est autre que le déterminant de la matrice obtenue à partir de A en b1 b2 remplaçant sa ie`me colonne par la matrice colonne . , c’est à dire ∆i . On peut ainsi, écrire .. bn x1 x2 = .. . xn
∆1 /∆ ∆2 /∆ .. . . ∆n /∆
Exemple 4.45. Utilisons la règle de Cramer pour résoudre le système suivant : −2x + 3y − z = 1 x + 2y − z = 4 −2x − y + z = −3 D’abord on a : −2 3 −1 −2 3 2 ∆ = 1 2 −1 = 1 2 1 −2 −1 1 −2 −1 0 −4 −1 0 −2L2 + L1 L1 = 1 2 1 −2 −1 0 −4 −1 = −2 , 0. = − −2 −1
C2 + C3 C3
Donc, on peut appliquer la règle de Cramer pour résoudre ce système linéaire. x= M. Louzari, 2020
∆y ∆x ∆z , y= , z= . ∆ ∆ ∆ 40
Facult´e des sciences de T´etouan
Chapitre 4. Déterminants
Algèbre 2 (SMC & SMP)
Avec, 1 3 −1 1 3 −1 ∆ x = 4 2 −1 = 4 2 −1 L + L3 L3 −3 −1 1 1 1 0 2 1 3 −1 = 3 −1 0 L − L1 L2 1 1 0 2 3 −1 = −4. = − 1 1 −2 1 −1 −2 1 −1 ∆y = 1 4 −1 = 1 4 −1 L + L3 L3 −2 −3 1 −1 1 0 2 −2 −1 −1 = 1 5 −1 C + C2 C2 −1 0 0 1 −1 −1 = −6. = − 5 −1 −2 ∆z = 1 −2 −2 = 1 −8 = −8
3 1 −2 3 1 2 4 = 1 2 4 3L1 + L3 L3 −1 −3 −8 8 0 1 1 3 4 C1 + C2 C2 0 0 1 1 = −8. 3 4
Par suite, x = 2, y = 3, z = 4.
M. Louzari, 2020
41
Facult´e des sciences de T´etouan
Chapitre 5
Valeurs propres et vecteurs propres En dimension finie, les endomorphismes d’un espace vectoriel sont représentés par des matrices carrées. Ainsi, les endomorphismes ou les matrices carrées sont deux faces d’une même pièce de monnaie. Dans la suite, on va étudier les matrices carrées à coefficients dans K = R ou C. Et tous les résultats sont automatiquement valables pour les endomorphismes. L’objet de ce chapitre est de déterminer les conditions pour lesquelles on peut diagonaliser ou trigonaliser une matrice carrée. Dans le long de ce chapitre, A désigne une matrice carrée d’ordre n à coefficients dans K.
5.1
Valeurs propres et polynôme caractéristique
On commence avec la définition suivante. Définition 5.1. Soient A, B ∈ Mn (K) deux matrices carrées. On dit que B est semblable à A, s’il existe une matrice inversible P ∈ Mn (K) telle que B = P−1 AP. Définition 5.2. Soient A ∈ Mn (K) et λ ∈ K. On dit que λ est une valeur propre de A, s’il existe une matrice colonne non nul x ∈ Mn×1 (K) telle que Ax = λx. Une telle matrice colonne x est dite vecteur propre de A associé à la valeur propre λ. Il est important de noter que les vecteurs propres sont par définition non nuls. Théorème 5.3. Soient A ∈ Mn (K) une matrice carrée et λ ∈ K. Alors, λ est une valeur propre de A si et seulement si de´ t(A − λIn ) = 0. Preuve. Soit λ une valeur propre associée à un vecteur propre x. Alors, Ax = λx ⇔ (A − λIn )x = 0. Puisque x , 0, alors (A − λIn )x = 0 est un système linéaire homogène qui possède une solution non nulle. Ainsi, (A − λIn )x = 0 ⇔ A − λIn est non inversible ⇔ de´ t(A − λIn ) = 0. Corollaire 5.4. Les matrices semblables ont les mêmes valeurs propres. Preuve. Soient A, P ∈ Mn (K) telle que P est inversible et λ ∈ K. Alors de´ t(P−1 AP − λIn ) = de´ t[P−1 (A − λIn )P] = de´ t(P−1 ).de´ t(A − λIn ).de´ t(P) 42
Chapitre 5. Valeurs propres et vecteurs propres
Algèbre 2 (SMC & SMP) = de´ t(A − λIn ).
Définition 5.5. Soient A = (ai j ) ∈ Mn (K) et λ ∈ K. On a a11 − λ a12 a21 a22 − λ de´ t(A − λIn ) = .. .. . . an1 an2
a1n a2n . .. . · · · ann − λ
··· ··· .. .
Alors de´ t(A − λIn ) est un polynôme de degré n en λ, qu’on appelle polynôme caractéristique de A. En plus, l’équation de´ t(A − λIn ) = 0 est dite équation caractéristique de A. Les valeurs propres de A sont évidement les racines du polynôme caractéristique de A. Si le corps K = C, le nombre de ces racines est égal à n. Définition 5.6. Soient λ1 , λ2 , · · · , λk les valeurs propres distinctes de A. Alors, le polynôme caractéristique de A peut être factorisé sous la forme de´ t(A − λIn ) = (−1)n (λ − λ1 )r1 (λ − λ2 )r2 · · · (λ − λk )rk . Les entiers r1 , r2 , · · · , rk sont appelés les ordres de multiplicité (ou les multiplicités algébriques) de λ1 , λ2 , · · · , λk respectivement. 0 1 Exemple 5.7. Considérons la matrice A = . On a −1 0 −λ 1 = λ2 + 1. de´ t(A − λI2 ) = −1 −λ Puisque λ2 + 1 n’a pas de racines réelles, donc A ne possède pas des valeurs propres réelles. Cependant, si on regarde A comme une matrice sur C alors elle a deux valeurs propres i et −i. −3 1 −1 Exemple 5.8. Considérons la matrice A = −7 5 −1 . Alors, le polynôme caractéristique de A est −6 6 −2 −3 − λ 1 −1 −2 − λ 1 −1 de´ t(A − λI3 ) = −7 5 − λ −1 = −2 − λ 5 − λ −1 C1 C1 + C2 −6 6 −2 − λ 0 6 −2 − λ 1 1 −1 = (−2 − λ) 1 5 − λ −1 L2 L2 − L1 0 6 −2 − λ 1 1 −1 = (−2 − λ) 0 4 − λ 0 0 6 −2 − λ 4 − λ 0 = (−2 − λ) 6 −2 − λ M. Louzari, 2020
43
Facult´e des sciences de T´etouan
Chapitre 5. Valeurs propres et vecteurs propres
Algèbre 2 (SMC & SMP)
= (2 + λ)2 (4 − λ). Donc, les valeurs propres de A sont 4 (d’ordre de multiplicité 1) et −2 (d’ordre de multiplicité 2). Exercice 5.9. Pour chacune des matrices suivantes, déterminer les valeurs propres et leurs ordres de multiplicité. 1 0 −1 1 2 1 , 22 3
0 1 0 0 0 1 , 1 −3 3
2 − i 0 i 0 1 + i 0 i 0 2−i
Exercice 5.10. Si λ est une valeur propre d’une matrice inversible A. Montrer que λ , 0 et que λ−1 est une valeur propre de A−1 .
5.2
Sous-espaces propres
Définition 5.11. Soit λ une valeur propre d’une matrice A ∈ Mn (K). Alors, l’ensemble Eλ = {x ∈ Mn×1 (K)| Ax = λx}. est un sous-espace vectoriel de Mn×1 (K), qu’on appelle sous-espace propre associé à λ. La dimension de Eλ est appelée ordre de multiplicité géométrique relatif à la valeur propre λ. Exemple 5.12. Considérons la matrice A de l’exemple précédent. Les valeurs propres sont 4 et −2. •) Pour déterminer le sous-espace propre E4 , on doit résoudre le système (A − 4I3 )u = 0, c’est à dire −7 1 −1 x 0 −7 1 −1 y = 0 , −6 6 −6 z 0
x avec u = y . z
On a ainsi le système linéaire suivant : −7x + y − z = 0 −6x + 6y − 6z = 0
(1) (2)
0 On a −6 × (1) + (2) implique x = 0, si on prend x = 0 dans l’équation (1), on aura y = z. Donc u = y y 0 Ainsi, E4 est engendré par le vecteur 1 . 1 •) De même, pour déterminer E−2 , on résout le système (A + 2I3 )v = 0. i.e., −1 1 −1 x 0 −7 7 −1 y = 0 , −6 6 0 z 0
o`u y , 0.
x avec v = y . z
On a le système linéaire suivant : −x + y − z = 0 −7x + 7y − z = 0 −6x + 6y = 0 M. Louzari, 2020
44
(1) (2) (3) Facult´e des sciences de T´etouan
Chapitre 5. Valeurs propres et vecteurs propres
Algèbre 2 (SMC & SMP)
1 x Alors, (3) ⇒ x = y et (2) ⇒ z = 0. Donc v = x . o`u x , 0. Ainsi E−2 est engendré par le vecteur 1 . 0 0 2 1 Exemple 5.13. Trouver toutes les valeurs propres et les sous-espaces propres associés de la matrice A = . 1 2 2 − λ 1 = (2 − λ)2 − 1 = (1 − λ)(3 − λ). Ainsi, de´ t(A − λI2 ) = 0 ⇔ λ = 1 ou λ = 3, donc On a de´ t(A − λI2 ) = 1 2 − λ A possède deux valeurs propres 1 et 3. Déterminant les sous-espaces propres associés à λ = 1 et λ = 3. α •) Sous-espace propre E1 : Soit u = un vecteur propre de A associé à la valeur propre λ = 1. Alors β 1 1 α (A − I2 )u = 0 ⇔ = 0 ⇔ α + β = 0. 1 1 β 1 1 α . D’où u = = α Ainsi E1 = est un vecteur propre propre associé à λ = 1. , α ∈ K , α ∈ K −1 −α −1 α •) Sous-espace propre E3 : Soit v = un vecteur propre de A associé à la valeur propre λ = 3. Alors β −1 1 α −α + β = 0 (A − 3I2 )v = 0 ⇔ ⇔ α = β. = 0 ⇔ α−β=0 1 −1 β 1 α 1 est un vecteur propre propre associé à λ = 3. , α ∈ K = α , α ∈ K . D’où v = Ainsi E3 = α 1 1
Exercice 5.14. Pour chacune des deux matrices suivantes, déterminer les valeurs propres et les sous-espaces propres associés. −2 5 7 1 0 1 A = 0 1 0 , B = 1 0 −1 . 1 0 1 −1 1 2 Exercice 5.15. Considérons la matrice suivante : −2 −3 −3 A = −1 0 −1 . 5 5 6 (1) Montrer que A possède deux valeurs propres distinctes. (2) Déterminer les deux sous-espaces propres associés. Évidement, les notions de valeurs propres et vecteurs propres sont aussi définies pour les applications linéaires. Définition 5.16. Soit f : E → E un endomorphisme d’un espace vectoriel E. Un scalaire λ est dit une valeur propre de f , s’il existe un vecteur non nul u ∈ E tel que f (u) = λu. Le vecteur u est dit vecteur propre associé à λ. Exemple 5.17. Considérons l’endomorphisme f : R3 → R3 donné par f (x, y, z) = (y + z, x + z, x + y). Relativement à la base canonique B = {e1 , e2 , e3 }, on a 0 1 1 Mat( f ; B) = 1 0 1 . 1 1 0 M. Louzari, 2020
45
Facult´e des sciences de T´etouan
Chapitre 5. Valeurs propres et vecteurs propres
Algèbre 2 (SMC & SMP)
Alors, −λ 1 1 de´ t(A − λI3 ) = 1 −λ 1 = −(λ + 1)2 (λ − 2). 1 1 −λ Ainsi, f possède deux valeurs propres −1 et 2. Exercice 5.18. Déterminer les valeurs propres et leurs ordres de multiplicité des endomorphismes suivants : (1) f (x, y, z) = (x + 2y + 2z, 2y + z, −x + 2y + 2z). (2) f (x, y, z) = (y + z, 0, x + y).
5.3 5.3.1
Réduction des matrices Diagonalisation
Théorème 5.19. Soient A ∈ Mn (K) une matrice carrée, λ1 , λ2 , · · · , λn des valeurs propres distinctes de A et u1 , · · · , un des vecteurs propres associés. Alors la famille {u1 , · · · , un } est linéairement indépendante. Preuve. Montrons le résultat par récurrence. Si A possède seulement une valeur propre unique et x , 0 le vecteur propre associé, évidement {x} est une famille linéairement indépendante. Maintenant, supposons que toute famille de n vecteurs propres associée à une famille de n valeurs propres distinctes est linéairement indépendante. Soient x1 , x2 , · · · , xn+1 une famille de vecteurs propres associée à la famille de valeurs propres distinctes λ1 , λ2 , · · · , λn+1 . Si a1 x1 + a2 x2 + · · · + an+1 xn+1 = 0
(1)
En appliquant A à l’équation (1), on aura a1 λ1 x1 + a2 λ2 x2 + · · · + an+1 λn+1 xn+1 = 0
(2)
a1 (λ1 − λn+1 )x1 + a2 (λ2 − λn+1 )x2 + · · · + an (λn − λn+1 )xn = 0
(3)
Alors, (2) − λn+1 (1) implique
D’après l’hypothèse de récurrence {x1 , x2 , · · · , xn } est une famille libre, donc ai (λi − λn+1 ) = 0 pour tout i = 1, 2, · · · , n. Mais λ1 , λ2 , · · · , λn+1 sont distincts. Ainsi ai = 0 pour tout i = 1, 2, · · · , n. Par suite, l’équation (1) implique an+1 xn+1 = 0 ce qui donne an+1 = 0 car xn+1 , 0 est un vecteur propre. D’où, la famille {x1 , x2 , · · · , xn+1 } est linéairement indépendante, ce qui achève la preuve. Corollaire 5.20. Si λ1 , · · · , λn sont les valeurs propres distinctes de f ∈ LK [E] et u1 , · · · , un des vecteurs propres associés. Alors, la famille B0 = {u1 , · · · , un } est une base de E et on a λ1 0 0 D = Mat( f ; B ) = . .. 0
0 λ2 .. . 0
0 0 −1 0 .. = P Mat( f ; B)P o`u P = P(B, B ). . · · · λn ··· ··· .. .
Dans ce cas, f est diagonalisable. M. Louzari, 2020
46
Facult´e des sciences de T´etouan
Chapitre 5. Valeurs propres et vecteurs propres
Algèbre 2 (SMC & SMP)
Pour l’inverse, on a le résultat suivant. Théorème 5.21. Si f ∈ LK [E] est diagonalisable, alors E possède une base formée de vecteurs propres de f . λ1 0 0 λ2 0 0 Preuve. Soit B = {u1 , · · · , un } une base de E telle que Mat( f ; B ) = . . .. .. 0 0 f (u1 ) = λ1 u1 , · · · , f (un ) = λn un , donc u1 , · · · , un sont des vecteurs propres de f .
0 0 .. . Par construction on a . · · · λn ··· ··· .. .
Théorème 5.22. Soit f ∈ LK [E] de valeurs propres λ1 , · · · , λ p . Alors f est diagonalisable si, et seulement si dim Eλi = ki l’ordre de multiplicité de λi , pour tout 1 ≤ i ≤ p. 0 3 2 Exemple 5.23. Soit A = −2 5 2 . 2 −3 0 •) Le polynˆome caract´eristique : ϕ(X) = (X − 2)2 (X − 1). •) D´etermination de E1 : On a −1 3 2 α 0 u = (α, β, γ) ∈ E1 ⇔ (A − I3 )u = 0 ⇔ −2 4 2 β = 0 . 2 −3 −1 γ 0 −α + 3β + 2γ = 0 ⇔ −2α + 4β + 2γ = 0 2α − 3β − γ = 0 ⇒ α = β et γ = −β, ce qui donne α = β = −γ ⇒ u = α(1, 1, −1) ⇒ dim E1 = 1. •) D´etermination de E2 : On a −2 3 2 α 0 v = (α, β, γ) ∈ E2 ⇔ (A − 2I3 )v = 0 ⇔ −2 3 2 β = 0 0 2 −3 −2 γ −2α + 3β + 2γ = 0 ⇔ −2α + 3β + 2γ = 0 2α − 3β − 2γ = 0 h i h i h i ⇒ 2α − 3β − 2γ = 0 ⇒ α = 32 β + γ. Alors, u = 23 β + γ, β, γ = 32 β, β, 0 + γ, 0, γ = β 32 , 1, 0 + γ(1, 0, 1). Ainsi dim E2 = 2 = k2 , l’ordre de multiplicité de λ = 2. On en déduit que f est diagonalisable et n o B0 = (1, 1, −1), ( 32 , 1, 0), (1, 0, 1) est une base de E telle que 1 0 0 Mat( f ; B0 ) = 0 2 0 . 0 0 2 M. Louzari, 2020
47
Facult´e des sciences de T´etouan
Chapitre 5. Valeurs propres et vecteurs propres
Algèbre 2 (SMC & SMP)
−3 1 −1 Exemple 5.24. Considérons la matrice de l’exemple 5.8, A = −7 5 −1 . Alors de´ t(A − λI3 ) = (2 + λ)2 (4 − λ) et −6 6 −2 d’après l’exemple 5.12, on a dim(E4 ) = 1 et dim(E−2 ) = 1. Donc, la matrice A n’est pas diagonalisable.
Si A est une matrice semblable à une matrice diagonale D, alors il existe une matrice inversible P telle que D = P−1 AP, où les éléments diagonaux de D sont les valeurs propres de A. Dans la suite, on va essayer de déterminer la matrice P. D’abord, si D = P−1 AP alors PD = AP. Supposons que p1 , p2 , · · · , pn sont les vecteurs colonnes de P et λ1 0 · · · 0 0 λ2 · · · 0 D = . . . . . .. .. . . .. 0 0 · · · λn Avec λ1 , λ2 , · · · , λn sont les valeurs propres de A. Ainsi, PD = AP ⇔ Api = λi pi ∀ i = 1, 2, · · · , n. Autrement dit, les pi sont exactement des vecteurs propres associés aux λi , pour tout i = 1, 2, · · · , n. 1 −3 3 Exemple 5.25. Considérons la matrice A = 3 −5 3 . Le polynôme caractéristique de A est : 6 −6 4 1 − X −3 3 de´ t(A − XI3 ) = 3 −5 − X 3 C2 C2 + C3 6 −6 4 − X 1 − X 0 3 = 3 −2 − X 3 6 −2 − X 4 − X 1 − X 0 3 = −(2 + X) 3 1 3 L3 L3 − L2 6 1 4 − X 1 − X 0 3 = −(2 + X) 3 1 3 3 0 1 − X = −(2 − X)[(1 − X)2 − 9] = (2 + X)2 (4 − X). Donc, la matrice A possède deux valeurs propres −2 et 4. •) D´etermination de E4 : On a −3 −3 3 α 0 v = (α, β, γ) ∈ E4 ⇔ (A − 4I3 )v = 0 ⇔ 3 −9 3 β = 0 2 −6 0 γ 0 M. Louzari, 2020
48
Facult´e des sciences de T´etouan
Chapitre 5. Valeurs propres et vecteurs propres
Algèbre 2 (SMC & SMP)
−3α − 3β + 3γ = 0 ⇔ 3α − 9β + 3γ = 0 6α − 6β =0
(1) (2) (3)
Alors, (3) ⇒ α = β, et (1) ⇒ γ = 2α. Par suite v = α(1, 1, 2), on prend u1 = (1, 1, 2). Alors E4 = vect{(u1 )} et dim E4 = 1. •) D´etermination de E−2 : On a w = (α, β, γ) ∈ E−2 ⇔ (A + 2I3 )w = 0 3 −3 3 α 0 ⇔ 3 −3 3 β = 0 0 6 −6 6 γ ⇔α−β+γ =0 ⇔ γ = β − α. Ainsi, w = (α, 0, −α) + (0, β, β) = α(1, 0, −1) + β(0, 1, 1), on peut facilement vérifier que u2 = (1, 0, −1) et u3 = (0, 1, 1) sont linéairement indépendants, ainsi {u2 , u3 } est une base de E−2 , donc dim E−2 = 2. Puisque l’ordre de multiplicité de chaque valeur propre coïncide avec la dimension du sous-espace propre associé, 1 1 0 alors A est diagonalisable. Soit P = 1 0 1 , alors 2 −1 1 4 0 0 P−1 AP = 0 −2 0 . 0 0 −2 Exemple 5.26 (Suite de Fibonacci). Considérons la suite récurrente (an )n≥0 définie par : an+2 = an+1 + an , n ≥ 0 a0 = 0 , a1 = 1 On peut écrire ceci sous la forme d’un système à deux équations : an+2 = an+1 + bn+1 , n ≥ 0 bn+2 = an+1 . an 1 1 . Essayons à présent de diagonaliser la matrice A. Ou encore : Xn+2 = AXn+1 avec Xn = et A = bn 1 0 •) Déterminons les valeurs propres de A : 1 − λ 1 = λ2 − λ − 1. de´ t(A − λI2 ) = 1 −λ √ √ Alors, de´ t(A − λI2 ) = 0 ⇔ λ2 − λ − 1 = 0. Ainsi, les valeurs propres de A sont λ1 = 12 (1 + 5) et λ2 = 12 (1 − 5), puisque λ1 , λ2 , alors A est diagonalisable. •) Déterminons Eλ1 : Soit u = (α, β) ∈ C2 . Alors, 0 1 − λ1 1 α 0 = u ∈ Eλ1 ⇔ (A − λ1 I2 )u = ⇔ 0 1 −λ1 β 0 M. Louzari, 2020
49
Facult´e des sciences de T´etouan
Chapitre 5. Valeurs propres et vecteurs propres
Algèbre 2 (SMC & SMP)
⇔ α = λ1 β. λ1 λ1 Donc u = α . Ainsi, Eλ1 est engendré par le vecteur 1 1 •) Déterminons Eλ2 : Soit v = (α, β) ∈ C2 . Alors, v ∈ Eλ2
0 1 − λ2 1 α 0 = ⇔ (A − λ2 I2 )v = ⇔ 1 −λ2 β 0 0
⇔ α = λ2 β. λ2 λ2 Donc v = α . Ainsi, Eλ2 est engendré par le vecteur . 1 1 λ1 λ2 , alors P est bien inversible et son inverse est Maintenant, prenons P = 1 1 −1
P
1 1 −λ2 = √ . 5 −1 λ1
Par suite, λ1 0 = D P AP = 0 λ2 −1
D’autre part, A = PD P n
n −1
1 λ1 λ2 λn1 0 1 −λ2 = √ . 0 λn2 −1 λ1 5 1 1
Sachant que λ1 λ2 = −1, on obtient λn1 − λn2 1 λn+1 − λn+1 2 An = √ 1 n . λ1 − λn2 λn−1 − λn−1 5 1 2 an+1 = An X1 = An 1 = On a : b1 = a0 = 0 et a1 = 1, alors 0 bn+1 1 1 an = √ (λn1 − λn2 ) = √ 5 5
(
√ 1 (1 + 5) 2
!n
√1 5
λn+1 − λn+1 2 1 . Ce qui donne : λn1 − λn2
! ) √ n 1 − (1 − 5) , ∀n ≥ 0. 2
Exercice 5.27. Diagonalier les matrices suivantes et déterminer la matrice de passage pour chaque cas : −2 5 7 −3 −7 19 −4 0 −3 A = 1 0 −1 , B = −2 −1 8 , C = 1 3 1 . −1 1 2 −2 −3 10 4 −2 3
5.3.2
Trigonalisation
La trigonalisation d’une matrice carrée A à coefficients dans K consiste à trouver une autre matrice carrée T triangulaire supérieure (ou inférieure) semblable à A. M. Louzari, 2020
50
Facult´e des sciences de T´etouan
Chapitre 5. Valeurs propres et vecteurs propres
Algèbre 2 (SMC & SMP)
Définition 5.28. Soit f ∈ LK [E], on dit que f est trigonalisable, si f s’exprime par une matrice triangulaire dans une base B de E. a11 a11 · · · a1n−1 a1n 0 a22 · · · a2n−1 a2n . .. . Remarque 5.29. Considérons la matrice T = Mat( f ; B) = .. 0 . . . . 0 0 . . . . . . an−1n 0 0 ··· 0 ann Alors, de´ t(T − XI) = (a11 − X) · · · (ann − X), ce qui montre que les aii sont les valeurs propres de T pour tout i = 1, · · · , n. Théorème 5.30. Tout endomorphisme est trigonalisable sur C. Preuve. Montrons le résultat par récurrence. Pour n = 1, le résultat est vrai. Maintenant, supposons qu’il est vrai pour les espaces vectoriel de dimension n − 1. Soit f ∈ LC (E), si dimC E = n, alors f possède au moins une valeur propre λ1 et un vecteur propre u1 associé. Alors f (u1 ) = λ1 u1 . Soit F = {λu1 λ ∈ C} et G son supplémentaire dans E (dimCG = n − 1). Soit g : E = F ⊕ G −→ G la projection de E sur G. Pour tout x ∈ E on a x = x1 + x2 = x1 + g(x) = αu1 + g(x) avec α ∈ C. Si u ∈ E et x = f (u) ⇒ f (u) = αu1 + (go f )(u) ⇒ h = go f |G ∈ LC (G) qui est triangulaire (par récurrence). Soit B0 = {u2 , · · · , un } une base de G où h est trigonalisable. Comme F est un supplémentaire de G dans E, on a B0 = {u1 , u2 , · · · , un } est une base de E telle que : λ1 α2 · · · αn f (u1 ) = λ1 u1 0 α22 · · · α2n f (u2 ) = α2 u1 + h(u2 ) 0 ⇒ Mat( f ; B ) = . . . .. .. .. .. .. . . . . . . . . . . . f (un ) = αn u1 + h(un ) 0 · · · 0 αnn 1 −3 4 Exemple 5.31. Soit A = 4 −7 8 . 6 −7 7 •) Le polynˆome caract´eristique : ϕ(X) = −(X + 1)2 (X − 3). •) Recherche de E3 : Soit u = (α, β, γ) ∈ E3 , on a : −2 −3 4 α 0 −2α − 3β + 4γ = 0 (1) (A − 3I3 )u = 0 ⇔ 4 −10 8 β = 0 ⇔ 4α − 10β + 8γ = 0 (2) 6α − 7β + 4γ = 0 (3) 6 −7 4 γ 0 Alors, (2) + 2(1) ⇒ −16β + 16γ = 0 ⇒ γ = β et (2) − 2(3) ⇒ −8α + 4β = 0 ⇒ β = 2α. Par suite u = α(1, 2, 2) ⇒ E3 = {α(1, 2, 2) : α ∈ C}. •) Recherche de E−1 : 2 −3 4 α 0 2α − 3β + 4γ = 0 (A + I3 )u = 0 ⇔ 4 −6 8 β = 0 ⇔ 4α − 6β + 8γ = 0 6α − 7β + 8γ = 0 6 −7 8 γ 0 M. Louzari, 2020
51
Facult´e des sciences de T´etouan
Chapitre 5. Valeurs propres et vecteurs propres
Algèbre 2 (SMC & SMP)
2α + 4γ = 3β On ainsi, le système suivant : 6α + 8γ = 7β Alors E−1 = {α(1, 2, 1)|α ∈ C} = {αu2 |α ∈ C} où u2 = (1, 2, 1). On remarque que dim E_1 = 1 < 2 (l’ordre de multiplicité de −1), donc A n’est pas diagonalisable. En prenant u3 = (α, β, γ) ∈ E tel que B0 = {u1 , u2 , u3 } soit une base de C3 , par exemple u3 = (1, 0, 0) on a : 3 0 a Mat( f ; B0 ) = 0 −1 b et pour déterminer a et b soit en utilise la relation Mat( f ; B0 ) = P−1 Mat( f ; B)P où P la 0 0 −1 matrice de passage de B à B0 ou bien à partir de l’équation : f (u3 ) = f (e1 ) c’est à dire : f (u3 ) = f (e1 ) ⇔ au1 + bu2 − u3 = e1 + 4e2 + 6e3
⇔ a(e1 + 2e2 + 2e3 ) + b(e1 + 2e2 + e3 ) − e1 = e1 + 4e2 + 6e3 a+b=2 ⇒ 2a + b = 6 3 0 a On en déduit que a = 4 et b = −2. Ainsi, Mat( f ; B0 ) = 0 −1 −2 0 0 −1
M. Louzari, 2020
52
Facult´e des sciences de T´etouan
Bibliographie [1] L. Ben Yakoub, Cours d’algèbre II pour SMPC, Fac. Sciences (Tétouan), 2016. [2] T. S. Blyth and E.F. Robertson, Basic Linear Algebra, Springer Undergraduate Mathematic Series (London), Second Edition, 2007. [3] A. Bodin et autres, Algébre, Exo.7, Université de Lille, 2016. [4] C. G. Cullen, Linear Algebra with Applications, 1988. Scott, Foresman and Company, Glenview, Illinois. [5] R. E. Larson and B.H. Edwards, Elementary Linear Algebra, 1988. D.C. Heath and Company, Lexington, Massachusetts Toronto. [6] K. R. Matthews, Elementary Linear Algebra, University Of Queensland. Second Online Version, December 1998. [7] J. A. Murtha and E.R. Willard, Linear Algebra and Geometry, 1969. Holt, Rinehart and Winston, Inc. New York [8] W. K. Nicholson, Elementary Linear Algebra, 1990. PWS-Kent, Boston. [9] N. J. Pullman, Matrix Theory and its Applications, 1976. Marcel Dekker Inc. New York. [10] G. Strang, Linear Algebra and its Applications, 1988. Harcourt Brace Jovanovich, San Diego.
53