26 1 442KB
1
Définition des vecteurs Soit V un espace vectoriel de dimension finie n sur un corps K (corps des réels R ou corps des complexes C).
Une base de V est un ensemble {e1 , e2 . . . en } = (ei )i=1...n = (ei ) de n vecteurs linérairement indépendants de V . Alors tout vecteur v ∈ V admet une décomposition unique v=
n X
a i ei ,
i=1
les scalaires ai étant les composantes du vecteur v sur la base (ei ). Preuve : on suppose qu’il y a deux décompositions et on montre qu’elles sont identiques. En notation matricielle, le vecteur v =
n X
ai ei sera représenté par un vecteur colonne
i=1
a1
a2 v= .. , . an et on désignera par t v et v ∗ les vecteurs lignes t v = a1 a2 . . . an ,
v∗ = a ¯1
a ¯2
...
a ¯n
où α ¯ désigne le complexe conjugué du nombre α. – Le vecteur ligne t v est le vecteur transposé du vecteur colonne v, – le vecteur ligne v ∗ est le vecteur adjoint du vecteur colonne v. n n X X Si v = ai ei , v = bi ei sont deux vecteurs de V et λ un scalaire de K : alors i=1
i=1
v+w
λv
b1 a1 + b1 n X a2 b2 a2 + b2 + = = (ai + bi )ei = .. .. .. . . . i=1 an bn an + bn a1 λa1 n X a2 λa2 = λai ei = λ . = . .. .. i=1 an
a1
(1)
λan
Soit V1 une partie non vide de V . On dit que V1 est un sous-espace vectoriel de V si : * ∀x, y ∈ V1 alors x + y ∈ V1 * ∀x ∈ V1 , λ ∈ K alors λx ∈ V1 En particulier, soient x1 , x2 , . . . , xn ∈ V On définit le sous-espace vectoriel engendré par x1 , x2 , . . . , xn , ou espace des combinaisons linéaires de x1 , x2 , . . . , xn , de la manière suivante : < x1 , x2 , . . . , xn > = V ect(x1 , x2 , . . . , xn ) = {x ∈ V /∃ λ1 , . . . , λn ∈ K : x = λ1 x1 + λ2 x2 + . . . + λn xn }
1
(2)
2
Définition des matrices
2.1
Définitions :
Etant donnés deux espaces vectoriels E et F sur le même corps commutatif K, on appelle application linéaire de E dans F toute application de E dans F telle que : i) ∀x, y ∈ E , f (x + y) = f (x) + f (y) ii) ∀x ∈ E , ∀α ∈ K f (αx) = αf (x) – L’ensemble des applications linéaires de E vers F est noté L(E, F ). – La somme de deux applications linéaires de L(E, F ) est une application linéaire. – La composée de deux applications linéaires de L(E, F ) est une application linéaire. – Si f est une application liéaire bijective de E vers F, la réciproque f −1 de f est une application linéaire de F vers E. Si E et F sont de dimensions finies sur K, a chaque choix d’une base (e1 , ..., en ) pour E et d’une base (f1 , ..., fm ) pour F, l’application linéaire g de E vers F est caractérisée par le tableau des coefficients (aij ) tels que : m X g(ej ) = aij fi , pour j = 1, ..., n j=1
En écrivant en colonne les composantes des g(ej ) dans la base (f1 ,. . .,fp ) g(e1 )g(e2 ) . . . .g(ej ) . . . .g(en ) f1
a11
a12
...
a1j
...
a1n
f2 ...
a 21 . . . ai1 . .. am1
a22 .. .
...
a2j .. .
...
a2n .. .
ai2 .. .
...
...
...
aij .. .
...
ain .. .
am2
...
amj
...
amn
fi .. . fp
...
...
Le tableau des aij s’appelle la matrice de f relativement aux bases (ei )i=1,...,n et (fj )j=1,...,p . On note A = (aij )1≤i≤m
, 1≤j≤n
i indice de la ième ligne et j indice de la jième colonne. Si n = m la matrice M est dite matrice carrée d’ordre n. Soit a11 a12 . . . a1j a 21 a22 . . . a2j . .. .. . . . ... . A= ai1 ai2 . . . aij . .. .. .. . ... . an1 an2 . . . anj
...
a1n
...
a2n .. .
... ... ...
ain .. .
...
ann
– A est dite la matrice de l’application linéaire g de E vers F relatives aux bases (ei ) et (fi ). – On note Mm,n (K) l’ensemble des matrices de m lignes, n colonnes à coefficient dans K. – On note alors Mn ou Mn (K) l’ensemble des matrices carrées. On dira alors d’une matrice non nécessairement carrée qu’elle est rectangulaire. – Soit A une matrice carrée. Les éléments aii sont appelés éléments diagonaux.
2
Posons X = (x1 , x2 , . . . , xn ) =
x1 .. .
y1 .. .
et Y = g(X) = (y1 , y2 , . . . , ym ) =
son image par g, les
ym
xn yi s’obtienent de la façon suivante :
a11
a12
...
a1j
...
a1n
x1
a 21 . . . Y = AX = ai1 . .. am1
a22 .. .
...
a2j .. .
...
a2n .. .
x2 .. .
ai2 .. .
...
...
...
aij .. .
...
ain .. .
=
am2
...
amj
...
amn
...
...
xj .. .
y1
yi .. . ym y2 .. .
xn
les yi sont donnés par : y1 = x1 a11 + x2 a12 + . . . + xj a1j + . . . + xn a1n = y2 = x1 a21 + x2 a22 + . . . + xj a2j + . . . + xn a2n =
n X j=1 n X
a1j xj a2j xj
j=1
... yi = x1 ai1 + x2 ai2 + . . . + xj aij + . . . + xn ain =
n X
aij xj
j=1
...
ym = x1 am1 + x2 am2 + . . . + xj amj + . . . + xn amn =
n X
amj xj
j=1
ou encore :
2.2
y1
a 21 . . . = x1 ai1 yi . .. .. . ym am1
y2 .. .
a11
a1j
a 2j . . . + ... + xj aij . .. amj
a1n
a 2n . . . + ... + xn ain . .. amn
(3)
Matrices particulières
Identité : L’application de V dans V qui a tout x ∈ V , IV (x) = x est l’application identité, sa matrice dans une base de V est :
3
1
0
...
0
...
0
I=
0 .. .
1 .. .
...
0 .. .
...
0 .. .
0 .. .
0 .. .
...
0
0
...
...
...
1 .. .
... ...
0 .. .
...
0
...
1
Matrice Diagonale Considérons l’application linéaire dRn de E dans E tel que pour tout i = 1, . . . , n : dRn (ei ) = λi ei , λi ∈ K. La matrice de dE relativement à la base de E est : λ1 0 . . . 0 . . . 0 0 λ ... 0 ... 0 2 . .. .. .. . . . ... . ... . MdE = λi δij = 0 0 . . . λi . . . 0 . .. .. .. .. . ... . ... . 0 0 . . . 0 . . . λn cette matrice est appelée matrice diagonale. Matrice Triangulaire Une matrice carrée M = (aij ) est dite triangulaire supérieure si on a aij = 0 pour i > j. a11 a12 . . . a1i . . . a1n 0 a 22 . . . a2i . . . a2n . .. . .. . . . . . . .. . . . . M = 0 0 . . . aii . . . ain . .. .. .. .. . . . . . . . . . 0 0 . . . 0 . . . ann Elle est dite triangulaire inférieure si aij = 0 pour i < j. Matrice Symétrique, antisymétrique Une matrice carrée M = (aij ) est dite symétrique si a11 a12 . . . a 12 a22 . . . . .. . . . ... M = a1i a2i . . . . .. .. . ... a1n a2n . . .
4
aij = aji pour tout i, j. a1i . . . a1n a2i . . . a2n .. .. . ... . aii . . . ain .. .. . ... . ain . . . ann
Elle est dite antisymétrique si aij = −aji pour tout 0 a12 −a 0 12 . .. . . . M = −a1i −a2i . .. .. . −a1n −a2n
i, j. ...
a1i
...
a1n
...
a2i .. .
...
a2n .. .
... ...
... ...
...
0 .. .
...
ain .. .
...
−ain
...
0
Image et noyau : Soit A la matrice d’une application linéaire g de E dans F, L’image de A est : ImA
= {y ∈ F , il , existe x ∈ E tel que y = Ax} ⊂ F = V ect(A(e1 ), ..., A(en ))
On appelle rang de A, noté rg(A) la dimension de ImA, c’est le nombre de vecteurs colonnes de A qui sont linéairement indépendants. g est surjective si et seulement si ImA = F , c’est à dire rg(A) = m. Le noyau de A est défini par : KerA = {x ∈ E , Ax = 0F } ⊂ E Le kerA est un sous espace vectoriel de E. g est surjective si et seulement si kerA = {0E }. Pour toute matrice A on a : rg(A) + dim(KerA) = dim(E)
Matrice de permutation 1. Une matrice de permutation est une matrice carrée qui vérifie les propriétés suivantes : les coefficients sont 0 ou 1 ; il y a un et un seul 1 par ligne ; il y a un et un seul 1 par colonne.
1 0 0 Par exemple : 0 0 1 est une matrice de permutation. 0 1 0 2. Une permutation σ est une bijection de {1, 2, ..., n} dans lui même : σ(i) = j pour tout i, j = 1, 2, ..., n. On définit l’application linéaire g par : g(ei ) = eσ(i)
,
n
i = 1, 2, ..., n
ou ei est une base K espace vectoriel sur K. La matrice P de g dans la base (e1 , ..., en ) est appelée une matrice de permutation. Exemple : Pour n = 4, on définit σ(1) = 1, σ(2) = 3 et σ(3) = 2 donc g(e1 ) = e1 , g(e2 ) = e3 , g(e3 ) = e4 et g(e4 ) = e2 . La matrice de g dans la base (e1 , e2 , e3 , e4 ) est 1 0 0 0 0 0 0 1 P = ; Pij = δi,σj 0 1 0 0 0 0 1 0
5
La bijection réciproque σ −1 est définie donc : 1 0 P −1 = 0 0
par : σ −1 (e1 ) = e1 , σ −1 (e2 ) = e4 , σ −1 (e3 ) = e2 et σ −1 (e4 ) = e3 ; 0 0 0 0 1 0 ; Pij−1 = δi,σ−1 j 0 0 1 1 0 0
On vérifie que P −1 =t P 3. On appelle permutation élémentaire (ou transposition) une permutation σ telle que : σ(i) = j , σ(i) = j et σ(k) = k pour k 6= i, j La matrice de cette permutation est :
P36
=
1
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
1
0
0
0
0
0
0
0
1
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0 0 0 0 0 0 1
−1 Ou on remarque que P36 =t P36 et donc P36 = P36 Les matrices de permutation permettent de permuter les lignes et les colonnes d’une matrice A. Ainsi, – AP est la matrice A en permutantles colonnesde A suivant la permutation σ ; déduite de
1 Exemple : P = 0 0
0 0 1
0
1 0
,
a A= d g
b
c
f h k a c b AP = d f e g k h e
– P A est la matrice déduite de A en permutant les lignes a b PA = g h d e
de A suivant la permutation σ −1 ; c k f
– On peut montrer que toute permutation peut s’obtenir comme compositiond’au plus n−1 permutations élémentaires. Exemple : 1 2 3 4 1 2 3 4 1 2 3 4 , p24 = , p23 = p= 1 3 4 2 1 4 3 2 1 3 2 4
6
On pourra vérifier que 1 0 0 0 0 0 P24 = 0 0 1 0 1 0
3
p = p24 op23 et 1 0 0 1 , P23 = 0 0 0 0
0
0
0
1
1
0
0
0
0
0 0 1
,
1
0 P = 0 0
0
0
0
0
1
0
0
1
0
1 = P24 P23 0 0
Opérations sur les matrices Soit Mm,n (K) l’ensemble des matrices à coefficients dans K.
Addition des matrices A, B ∈ Mm,n (K), on définit l’addition de la façon suivante : A = (aij )
et
B = (bij )
A + B = (aij + bij )
(4)
Produit par un scalaire A ∈ Mm,n (K), λ ∈ K On définit la loi externe par : ∀λ ∈ K
λA = (λaij )
où A = (aij )
(5)
Théorème : Mm,n (K) muni de ces deux lois est un K espace vectoriel. L’élément neutre pour la loi “+” est la matrice nulle θ (tous les coefficients sont nuls). L’opposé de A = (aij ) est −A = (−aij ) Pour tout A ∈ Mm,n (K) : A + θ = θ + A = A et A − A = θ. Proposition : L’espace vectoriel Mm,n (K) est de dimension mn et admet pour base la famille des matrices élémentaires Eij (1 ≤ i ≤ m,1 ≤ j ≤ n). Eij = (δij,kl )1≤k≤n
, 1≤l≤n
en d’autres termes, l’élément aij de Eij vaut 1, et tous les autres éléments sont nuls. En particulier l’espace vectoriel Mn,n (K) des matrices carrées est de dimension n2 .
Produit des matrices Définition : Le produit de la (m,p) matrice A = (aij )1≤i≤m,1≤j≤p et de la (p, n) matrice B = (bkl )1≤k≤p,1≤l≤n est la matrice (m, n) notée A.B ou AB définie par : AB = (cij )1≤i≤m,1≤j≤n
,
cij =
p X
aik bkj
(6)
k=1
Ce produit n’est défini que si le nombre de colonnes de la matrice A est égal au nombre de lignes de la matrice B.
7
Produit successif La puissance m-ième d’une matrice carrée A d’ordre n étant définie par : A0 = In , A1 = A , A2 = AA , Am = Am−1 A La matrice A est dite : – involutive si A2 = In – nilpotente s’il existe un p tel que Ap−1 6= θ et Ap = θ – idempotente s’il existe un p tel que Ap = A.
Propriétés du produit Soit A, A1 , A2 ∈ Mm,p (K) ; B, B1 , B2 ∈ Mp,n (K) ; , C ∈ Mn,q (K) ; λ ∈ K : – A(B1 + B2 ) = AB1 + AB2 – (A1 + A2 )B = A1 B + A2 B – λ(AB) = (λA)B = A(λB) – (AB)C = A(BC) – Pour toute matrice A d’ordre n : AIn = In A = A – La matrice A est inversible s’il existe une matrice (unique si elle existe) notée A−1 et appelée matrice inverse de la matrice A telle que AA−1 = A−1 A = I. Dans le cas contraire, on dit que la matrice est singulière. – Si A1 et A2 sont deux matrices carrées d’ordre n sont inversibles on a : −1 (A1 A2 )−1 = A−1 2 A1
– Si A1,2,...,n sont des matrices carrées d’ordre n inversibles on a : −1 −1 (A1 A2 ...An )−1 = A−1 n . . . A2 A1
3.1
Matrice Transposée et matrice adjointe
Définitions : 1. La transposée d’une (m, n) matrice A = (aij )1≤i≤m,1≤j≤n est la matrice (n, m), notée t A définie par : t A = (bij )1≤i≤n,1≤j≤m et bij = aji ∀ i, j. t A est donc une (n, m) matrice. 2. On appelle matrice adjointe d’une (m, n) matrice A = (aij )1≤i≤m,1≤j≤n , matrice A∗ d’ordre (n, m) définie par : a∗ij = aji , ou aji est le complexe conjugué de aji . Prendre l’adjoint d’une matrice revient a faire la transposée de la matrice suivi de la conjugaison de chaque élément de la matrice. Si la matrice est réelle : A∗ = At . 3. une matrice est dite hermitienne si A∗ = A 4. une matrice est dite symétrique si t A = A. On a les proprietés suivantes : – t (t A) = A , (A∗ )∗ = A – t (A + B) =t A +t B , (A + B)∗ = A∗ + B ∗ – t (λA) = λt A , (λA)∗ = λA∗ – t (A1 A2 ) =t At2 A1 (A1 A2 )∗ = A∗2 A∗1 – t (A1 A2 . . . An ) =t An . . .t At2 A1 – (A1 A2 . . . An )∗ = A∗n . . . A∗2 A∗1 – Si A matrice carrée inversible : t (A−1 ) = (t A)−1 – – – –
La La La La
matrice matrice matrice matrice
A A A A
,
(A−1 )∗ = (A∗ )−1
hermitienne est définie positive si, pour tout vecteur v ∈ V non nul, v ∗ Av > 0. est orthogonale si A est réelle et A t A =t AA = I. est unitaire si AA∗ = A∗ A = I. est normale si AA∗ = A∗ A.
8
Remarques : – L’adjointe d’une matrice coincide avec sa transposée si et seulement si la matrice est réelle. – Le produit de deux matrices hermetiennes n’est pas nécessairement hermetienne : En effet : (AB)∗ = B ∗ A∗ = BA 6= AB.
3.2
Nombre d’opérations pour le calcul matricielle
Produit de deux matrices 1. Pour calculer un élément cij de C on effectue : p
multiplications
,
p − 1 additions
Le coût de calcul de C est de : mnp
multiplications
,
mn(p − 1) additions
Soit au total : 2mnp − mn. En particulier, si A et B sont deux matrices carrées d’ordre n, le coût de calcul de C est : n3
multiplications
,
n2 (n − 1)additions
Produit d’une matrice par un vecteur 2. Nombre d’opérations pour calculer : y = Ax. Pour A ∈ Mm,n (K) et x ∈ E, on peut voir x comme une matrice n × 1 et y = Ax comme une matrice m × 1 avec n X yi = (Ax)i = aik xk , i = 1, ..., m k=1
Le coût de calcul de y = Ax est : Pour chaque composante yi de y : il y a n multiplications et n − 1 additions. Au total pour calculer y il faut donc mn multiplications et m(n − 1) additions. Soit au total : 2mn − m.
4
Chagement de base
0 = (f1 , f2 , . . . , fn ) Soit E un espace vectoriel de dimension n. BE = (e1 , e2 , . . . , en ) une base de E. BE une nouvelle base de E. 0 La matrice de passage de la base BE à la base BE est la matrice notée P et dont les colonnes sont les composantes des vecteurs fi dans la base BE . Les fi et les ei sont alors reliés par les ralations suivantes :
fi = P ei ei = P
−1
, fi
i = 1, ..., n ,
i = 1, ..., n
Remarques : i La matrice de passage est toujours inversible 0 ii On peut voir P −1 comme étant la matrice de passage de la base BE à la base BE , c’est à dire que P −1 0 est la matrice dont les colonnes sont les composantes des vecteurs ei dans la base BE .
4.1
Action du changement de base sur les composantes d’un vecteur
Soit x ∈ E un vecteur de E, de composantes t x = (x1 , . . . , xn ) dans la base BE et de composantes 0 x = (x01 , . . . , x0n ) dans la base BE , on a alors :
t 0
x = P x0
ou
9
x0 = P −1 x
4.2
Action du changement de base sur la matrice d’une application linéaire :
Soit g une application linéaire de E vers F (dimF = m). Soit BF = (f1 , ..., fm ) une base de F et 0 BF0 = (f10 , ..., fm ) une nouvelle base de F. Soit A la matrice de g dans les bases BE à BF et A0 la matrice de 0 g dans les bases BE à BF0 . 0 Soit P la matrice de passage de BE à BE et Q la matrice de passage de BF à BF0 . La relation entre les matrices A et A’ est : A0 = Q−1 AP
ou
A = QA0 P −1
Si g est une application linéaire (endomorphisme) de E vers E, alors : A0 = P −1 AP
ou
A = P A0 P −1
Dans ce cas A et A0 sont dites semblabes.
5
Vecteur propre, valeur propre, réduction d’une matrice
Définition : Soient E un espace vectoriel sur un corps K et A la matrice d’un endomorphisme g de E. On définit le polynôme caractéristique de A comme étant : PA (λ) = det(A − λIE )
(7)
λ est un scalaire de K. PA est un polynôme à coefficient dans K dont le degré est la dimension de E. Les valeurs propres λi = λi (A) (1 ≤ i ≤ n) d’une matrice d’ordre n sont les n racines réelles ou complexes, distinctes ou confondues, du polynôme caractéristique de la matrice A pA : λ ∈ C 7−→ pA (λ) = det(A − λI). A toute valeur propre λ d’une matrice A, on associe (au moins) un vecteur v tel que v 6= 0
Av = λv ;
et
le vecteur v est un vecteur propre de la matrice A associé à la valeur propre λ. Si λ ∈ sp(A), le sous-espace vectoriel Eλ = {v ∈ V ; Av = λv} est appelé sous-espace propre associé à la valeur propre λ. Théorème : Soient A une matrice d’un endomorphisme de E et λ1 , λ2 deux scalaires distincts (λ1 6= λ2 ) alors : i. Eλ1 ∩ Eλ2 = {0E }. ii. Si v1 et v2 sont vecteurs propres associés respectivement aux valeurs propres λ1 et λ2 (λ1 6= λ2 ) alors la famille : {v1 , v2 } est libre. Théorème Soient E un espace vectoriel de dimension finie sur un corps K et A une matrice d’un endomorphisme f de E. Soient λi , i = 1, . . . , m, m valeurs propres de A deux à deux distinctes et {vi } (i = 1, . . . , m), vi les vecteurs propres correspondants. Alors la famille {vi } (i = 1, . . . , m) est libre. Théorème de Cayley-Hamilton (admis) : Soit E un espace vectoriel sur K de dimnsion n. Pour toute matrice A d’un endomorphisme g de E, tel que le polynôme caractéristique PA ai toutes ses racines dans K on a : PA (A) = 0Mn . Remarques : – Si le polynôme caractéristique PA est de la forme PA (λ) = a0 + a1 λ + a2 λ2 + . . . + an λn , alors PA (A) s’obtient en remplacant ai λi par ai Ai et le terme constant a0 par a0 IE : PA (A) = a0 IE + a1 A + a2 A2 + . . . + an An
10
– Le théorème de Cayley-Hamilton permet de calculer l’inverse de A si il existe. En effet : si A est inversible, detA=PA (0) = a0 6= 0. Cayley-Hamilton implique : PA (A)
=
a0 IE + a1 A + a2 A2 + . . . + an M n = 0Mn ⇒
a0 IE
=
IE
=
M (−a1 − a2 M − . . . − an M n−1 ) = (−a1 − a2 M − . . . − an M n−1 )M ⇒ a1 a2 an n−1 a2 an n−1 a1 M (− − M − . . . − M M ) = (− − M − . . . − )M a0 a0 a0 a0 a0 a0
(8)
On conclut donc que M −1 est donnée par : M −1 = −
a1 a2 an n−1 − M − ... − M a0 a0 a0
spectre et rayon spectral Le spectre de la matrice A est le sous ensemble sp(A) = {λ1 (A), λ2 (A), . . . λn (A)}. Le rayon spectral de la matrice A est le nombre positif défini par ρ(A) = max{|λi (A)|, 1 ≤ i ≤ n}.
6 6.1
Produit scalaire Produit scalaire réel : Définitions et exemples
Définition : Soit E un espace vectoriel sur R. On appelle produit scalaire réel sur E toute application φ : E × E → R vérifiant : 1) φ est bilinéaire , c.a.d : 1a. ∀x, y, z ∈ E, ∀λ ∈ R : φ(λx + y, z) = λφ(x, z) + φ(y, z) 1b. ∀x, y, z ∈ E, ∀λ ∈ R : φ(x, λy + z) = λφ(x, y) + φ(x, z) ( φ est linéaire relativement à chaque argument.) 2) φ est symétrique i.e. ∀x, y ∈ E, φ(x, y) = φ(y, x) 3) φ est positive i.e. ∀x ∈ E ,φ(x, x) ≥ 0 4) φ est définie i.e. ∀x ∈ E , φ(x, x) = 0 ⇒ x = 0 On dit qu’un produit scalaire est un forme bilinéaire symétrique définie positive. Remarques : – Puisque le produit scalaire est linéaire par rapport à la première et seconde composante donc il est évident que ∀x ∈ E , (x, 0) = (0, x) = 0 – Dans la pratique, si φ est symétrique, pour que φ soit bilináire il est suffisant de montrer 1a ou 1b. – Par la suite on notera (x, y) au lieu de φ(x, y) Exemples : n A. Considèrons E = Rn . Pour tout x = (x1 , x2 , . . . , xn ) ∈ Rn , y = (yP 1 , x2 , . . . , yn ) ∈ R , on définit l’applican n n tion φ de R × R → R par : φ(x, y) = x1 y1 + x2 y2 + . . . + xn yn = k=1 xk yk . Montrons que φ est un produit scalaire sur Rn . 1. En effet, φ : Rn × Rn → R est bien définie. Pour tout λ ∈ R et P ∀x, y, z ∈ Rn , on écrit x (x1 , x2 , . .P . , xn )t ,y = (y1 , y2 , . . . , yn )t , z = (z1 , z2 , . . . , zn )t P= n n n alors φ(λx + y, z) = k=1 (λxk + yk )zk = λ k=1 xk zk + k=1 yk zk = λφ(x, z) + φ(y, z) Donc φ est linéaire en sa premième variable. 2. On a φ(y, x) =
Pn
k=1
3. ∀x ∈ Rn , φ(x, x) =
yk xk =
Pn
k=1
Pn
k=1
xk xk =
xk yk = φ(x, y) par conséquent φ est symétrique et donc bilinéaire.
Pn
k=1
x2k ≥ 0 Donc φ est positive.
11
Pn 4. ∀x ∈ Rn , si φ(x, x) = k=1 x2k = 0. La somme des termes positives est nulle si tous les termes sont nuls, par suite xk = 0 , k = 1, ..., n et donc x = 0 d’où φ est définie. En conclusion φ est un produit scalaire de Rn c ’est le produit scalaire canonique de Rn . B. Considérons E = C([a, b], R) l’ensemble des fonctions continues de [a, b] dans R, c’est un espace vectorile Z b f × g est un produit scalaire sur C([a, b], R). sur R. L’application C([a, b], R) × C([a, b], R) → R, (f, g) → a Rb Comme f et g sont continues sur [a, b], le produit scalaire de f et g définie comme a f ×g est donc bien défini. Rb
2. ∀f, g ∈ C([a, b], R) , x ∈ [a, b], on a : (f, g) = que c’est symétrique.
a
f (x) × g(x)dx =
Rb a
g(x) × f (x)dx = (g, f ), ce qui prouve
Rb Rb 1a. ∀f, g, h ∈ C([a, b], R) , λ ∈ R , x ∈ [a, b], (λf + g, h) = a (λf (x) + g(x)) × h(x)dx = λ a f (x) × h(x)dx = Rb + a g(x) × h(x)dx = λ(f, h) + (g, h). Rb Du fait que (f, g) = a f (x)g(x)dx est symétrique, on aura donc (f, λg + h) = λ(f, g) + (f, h). 3. ∀f ∈ C([a, b], R) , x ∈ [a, b], on a : (f, f ) = 4. ∀f ∈ C([a, b], R) , x ∈ [a, b], Si (f, f ) =
Rb a
RbRb a
a
f (x) × f (x)dx =
Rb a
f (x)2 dx ≥ 0.
f (x)2 dx = 0 alors f (x) = 0 pour tout x ∈ [a, b] donc f = 0. Z
On conclut donc que l’application C([a, b], R) × C([a, b], R) → R, (f, g) →
b
f × g est un produit scalaire a
sur C([a, b], R). C. On considère E = Mn,p (R). ∀A, B ∈ E on pose φ(A, B) = (A, B) = tr(t AB). Puisque t A ∈ Mp,n (R) et B ∈ Mn,p (R), le produit t AB ∈ Mpp (R) la trace tr(t AB) = est donc bien définie. φ est symétrique, en effet : ∀A, B ∈ E
,
φ(B, A) = tr(t BA) = tr(t (t AB)) = tr(t AB) = φ(A, B).
∀A, B, C ∈ E , λ ∈ R ; φ(A, λ B + C) = tr(t A(λ B + C)) = λ tr(t AB) + tr(t AC) = λ φ(A, B) + φ(A, C). Donc φ est bilinéaire. On pose A = (aij ) matrice n × p, i = 1, ..., n, j = 1, ..., p, At = (bij ) une matrice p × n, avec bij = aji ; At A est une matrice p × p P : Pp Pp Pp Pp Pp p φ(A, A) = tr(t AA) = i=1 k=1 bik aki = i=1 k=1 aki aki = i=1 k=1 a2ki ≥ 0, φ est positive. Pp Pp De plus si φ(A, A) = i=1 j=1 a2ij = 0, or la somme de quantités positives n’est nulle que si chacune des quantités est nulle et donc aij = 0 pour tout i, j et donc A = OMn,p . Finalement φ est un produit scalaire sur E, c’est le produit scalaire canonique de Mn,p (R). D. On considère E = C, espace vectoriel sur R. DimCR = 2. On considère φ une application de C × C → R tel que φ(z1 , z2 ) =