Alg-Lin 36pages PDF [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

1

Définition des vecteurs Soit V un espace vectoriel de dimension finie n sur un corps K (corps des réels R ou corps des complexes C).

Une base de V est un ensemble {e1 , e2 . . . en } = (ei )i=1...n = (ei ) de n vecteurs linérairement indépendants de V . Alors tout vecteur v ∈ V admet une décomposition unique v=

n X

a i ei ,

i=1

les scalaires ai étant les composantes du vecteur v sur la base (ei ). Preuve : on suppose qu’il y a deux décompositions et on montre qu’elles sont identiques. En notation matricielle, le vecteur v =

n X

ai ei sera représenté par un vecteur colonne

i=1



a1



     a2   v=  ..  , .   an et on désignera par t v et v ∗ les vecteurs lignes   t v = a1 a2 . . . an ,

 v∗ = a ¯1

a ¯2

...

a ¯n



où α ¯ désigne le complexe conjugué du nombre α. – Le vecteur ligne t v est le vecteur transposé du vecteur colonne v, – le vecteur ligne v ∗ est le vecteur adjoint du vecteur colonne v. n n X X Si v = ai ei , v = bi ei sont deux vecteurs de V et λ un scalaire de K : alors i=1

i=1



v+w

λv

    b1 a1 + b1             n X  a2   b2   a2 + b2  + =  = (ai + bi )ei =   ..   ..   ..  . .  .  i=1       an bn an + bn     a1 λa1         n X  a2   λa2     = λai ei = λ  .  =  .    ..   ..  i=1     an

a1



(1)

λan

Soit V1 une partie non vide de V . On dit que V1 est un sous-espace vectoriel de V si : * ∀x, y ∈ V1 alors x + y ∈ V1 * ∀x ∈ V1 , λ ∈ K alors λx ∈ V1 En particulier, soient x1 , x2 , . . . , xn ∈ V On définit le sous-espace vectoriel engendré par x1 , x2 , . . . , xn , ou espace des combinaisons linéaires de x1 , x2 , . . . , xn , de la manière suivante : < x1 , x2 , . . . , xn > = V ect(x1 , x2 , . . . , xn ) = {x ∈ V /∃ λ1 , . . . , λn ∈ K : x = λ1 x1 + λ2 x2 + . . . + λn xn }

1

(2)

2

Définition des matrices

2.1

Définitions :

Etant donnés deux espaces vectoriels E et F sur le même corps commutatif K, on appelle application linéaire de E dans F toute application de E dans F telle que : i) ∀x, y ∈ E , f (x + y) = f (x) + f (y) ii) ∀x ∈ E , ∀α ∈ K f (αx) = αf (x) – L’ensemble des applications linéaires de E vers F est noté L(E, F ). – La somme de deux applications linéaires de L(E, F ) est une application linéaire. – La composée de deux applications linéaires de L(E, F ) est une application linéaire. – Si f est une application liéaire bijective de E vers F, la réciproque f −1 de f est une application linéaire de F vers E. Si E et F sont de dimensions finies sur K, a chaque choix d’une base (e1 , ..., en ) pour E et d’une base (f1 , ..., fm ) pour F, l’application linéaire g de E vers F est caractérisée par le tableau des coefficients (aij ) tels que : m X g(ej ) = aij fi , pour j = 1, ..., n j=1

En écrivant en colonne les composantes des g(ej ) dans la base (f1 ,. . .,fp ) g(e1 )g(e2 ) . . . .g(ej ) . . . .g(en ) f1



a11

a12

...

a1j

...

a1n



f2 ...

  a  21  .  .  .    ai1   .  ..  am1

a22 .. .

...

a2j .. .

...

a2n .. .

ai2 .. .

...

...

...

aij .. .

...

ain .. .

            

am2

...

amj

...

amn

fi .. . fp

...

...

Le tableau des aij s’appelle la matrice de f relativement aux bases (ei )i=1,...,n et (fj )j=1,...,p . On note A = (aij )1≤i≤m

, 1≤j≤n

i indice de la ième ligne et j indice de la jième colonne. Si n = m la matrice M est dite matrice carrée d’ordre n. Soit  a11 a12 . . . a1j   a  21 a22 . . . a2j  . .. ..  .  . . ... . A=   ai1 ai2 . . . aij   . .. ..  .. . ... .  an1 an2 . . . anj

...

a1n



...

a2n .. .

            

... ... ...

ain .. .

...

ann

– A est dite la matrice de l’application linéaire g de E vers F relatives aux bases (ei ) et (fi ). – On note Mm,n (K) l’ensemble des matrices de m lignes, n colonnes à coefficient dans K. – On note alors Mn ou Mn (K) l’ensemble des matrices carrées. On dira alors d’une matrice non nécessairement carrée qu’elle est rectangulaire. – Soit A une matrice carrée. Les éléments aii sont appelés éléments diagonaux.

2

   Posons X = (x1 , x2 , . . . , xn ) =  

x1 .. .







y1 .. .

     et Y = g(X) = (y1 , y2 , . . . , ym ) =   

   son image par g, les 

ym

xn yi s’obtienent de la façon suivante :



a11

a12

...

a1j

...

a1n



x1



  a  21  .  .  . Y = AX =    ai1   .  ..  am1

a22 .. .

...

a2j .. .

...

a2n .. .

x2 .. .

ai2 .. .

...

...

...

aij .. .

...

ain .. .

            

            =            

am2

...

amj

...

amn



...

...

xj .. .

y1



        yi   ..  .   ym y2 .. .

xn

les yi sont donnés par : y1 = x1 a11 + x2 a12 + . . . + xj a1j + . . . + xn a1n = y2 = x1 a21 + x2 a22 + . . . + xj a2j + . . . + xn a2n =

n X j=1 n X

a1j xj a2j xj

j=1

... yi = x1 ai1 + x2 ai2 + . . . + xj aij + . . . + xn ain =

n X

aij xj

j=1

...

ym = x1 am1 + x2 am2 + . . . + xj amj + . . . + xn amn =

n X

amj xj

j=1

ou encore :

2.2



y1

            

    a   21   .   .   .  = x1     ai1 yi     . ..    .. .   ym am1





y2 .. .

a11





a1j

    a   2j   .   .   .  + ... + xj      aij     .   ..   amj





a1n



    a   2n   .   .   .  + ... + xn      ain     .   ..   amn

            

(3)

Matrices particulières

Identité : L’application de V dans V qui a tout x ∈ V , IV (x) = x est l’application identité, sa matrice dans une base de V est :

3



1

0

...

0

...

0



      I=      

0 .. .

1 .. .

...

0 .. .

...

0 .. .

0 .. .

0 .. .

...

            

0

0

...

...

...

1 .. .

... ...

0 .. .

...

0

...

1

Matrice Diagonale Considérons l’application linéaire dRn de E dans E tel que pour tout i = 1, . . . , n : dRn (ei ) = λi ei , λi ∈ K. La matrice de dE relativement à la base de E est :   λ1 0 . . . 0 . . . 0    0 λ ... 0 ... 0  2    . .. .. ..    .  . . ... . ... .    MdE = λi δij =    0 0 . . . λi . . . 0     . .. .. ..   .. . ... . ... .    0 0 . . . 0 . . . λn cette matrice est appelée matrice diagonale. Matrice Triangulaire Une matrice carrée M = (aij ) est dite triangulaire supérieure si on a aij = 0 pour i > j.   a11 a12 . . . a1i . . . a1n    0 a  22 . . . a2i . . . a2n    . .. . ..   .   . . . . . .. . . . .    M =   0 0 . . . aii . . . ain     . .. .. ..   ..  . . . . . . . . .   0 0 . . . 0 . . . ann Elle est dite triangulaire inférieure si aij = 0 pour i < j. Matrice Symétrique, antisymétrique Une matrice carrée M = (aij ) est dite symétrique si  a11 a12 . . .   a  12 a22 . . .  . ..  .  . . ...  M =  a1i a2i . . .   . ..  .. . ...  a1n a2n . . .

4

aij = aji pour tout i, j.  a1i . . . a1n  a2i . . . a2n   .. ..   . ... .    aii . . . ain   .. ..  . ... .   ain . . . ann

Elle est dite antisymétrique si aij = −aji pour tout  0 a12   −a 0 12   . ..  .  . .  M =  −a1i −a2i   . ..  .. .  −a1n −a2n

i, j. ...

a1i

...

a1n



...

a2i .. .

...

a2n .. .

            

... ...

... ...

...

0 .. .

...

ain .. .

...

−ain

...

0

Image et noyau : Soit A la matrice d’une application linéaire g de E dans F, L’image de A est : ImA

= {y ∈ F , il , existe x ∈ E tel que y = Ax} ⊂ F = V ect(A(e1 ), ..., A(en ))

On appelle rang de A, noté rg(A) la dimension de ImA, c’est le nombre de vecteurs colonnes de A qui sont linéairement indépendants. g est surjective si et seulement si ImA = F , c’est à dire rg(A) = m. Le noyau de A est défini par : KerA = {x ∈ E , Ax = 0F } ⊂ E Le kerA est un sous espace vectoriel de E. g est surjective si et seulement si kerA = {0E }. Pour toute matrice A on a : rg(A) + dim(KerA) = dim(E)

Matrice de permutation 1. Une matrice de permutation est une matrice carrée qui vérifie les propriétés suivantes : les coefficients sont 0 ou 1 ; il y a un et un seul 1 par ligne ; il y a un et un  seul 1 par colonne. 

1 0 0     Par exemple :  0 0 1  est une matrice de permutation.   0 1 0 2. Une permutation σ est une bijection de {1, 2, ..., n} dans lui même : σ(i) = j pour tout i, j = 1, 2, ..., n. On définit l’application linéaire g par : g(ei ) = eσ(i)

,

n

i = 1, 2, ..., n

ou ei est une base K espace vectoriel sur K. La matrice P de g dans la base (e1 , ..., en ) est appelée une matrice de permutation. Exemple : Pour n = 4, on définit σ(1) = 1, σ(2) = 3 et σ(3) = 2 donc g(e1 ) = e1 , g(e2 ) = e3 , g(e3 ) = e4 et g(e4 ) = e2 . La matrice de g dans la base (e1 , e2 , e3 , e4 ) est   1 0 0 0      0 0 0 1    P = ; Pij = δi,σj   0 1 0 0    0 0 1 0

5

La bijection réciproque σ −1 est définie donc :  1    0 P −1 =    0  0

par : σ −1 (e1 ) = e1 , σ −1 (e2 ) = e4 , σ −1 (e3 ) = e2 et σ −1 (e4 ) = e3 ;  0 0 0   0 1 0   ; Pij−1 = δi,σ−1 j  0 0 1   1 0 0

On vérifie que P −1 =t P 3. On appelle permutation élémentaire (ou transposition) une permutation σ telle que : σ(i) = j , σ(i) = j et σ(k) = k pour k 6= i, j La matrice de cette permutation est : 

P36

         =         

1

0

0

0

0

0

0

0

1

0

0

0

0

0

0

0

0

0

0

1

0

0

0

0

1

0

0

0

0

0

0

0

1

0

0

0

0

1

0

0

0

0

0

0

0

0

0

0

1

0

0

0

0

0

0

0

0



  0    0    0    0    0    0   1

−1 Ou on remarque que P36 =t P36 et donc P36 = P36 Les matrices de permutation permettent de permuter les lignes et les colonnes d’une matrice A. Ainsi, – AP est la matrice A en permutantles colonnesde A suivant la permutation σ ;  déduite de

1   Exemple : P =  0  0

0 0 1

0

  1   0

,

a   A= d  g 

b

c

  f   h k  a c b     AP =  d f e    g k h e

– P A est la matrice déduite de A en permutant les lignes  a b   PA =  g h  d e

de A suivant la permutation σ −1 ;  c   k   f

– On peut montrer que toute permutation peut s’obtenir comme compositiond’au plus n−1 permutations élémentaires. Exemple :       1 2 3 4 1 2 3 4 1 2 3 4  , p24 =   , p23 =   p= 1 3 4 2 1 4 3 2 1 3 2 4

6

On pourra vérifier que  1 0 0    0 0 0 P24 =    0 0 1  0 1 0

3

p = p24 op23 et   1 0      0 1   , P23 =     0 0    0 0

0

0

0

1

1

0

0

0

0





  0    0   1

,

1

   0 P =   0  0

0

0

0

0

1

0

0

1

0



  1   = P24 P23  0   0

Opérations sur les matrices Soit Mm,n (K) l’ensemble des matrices à coefficients dans K.

Addition des matrices A, B ∈ Mm,n (K), on définit l’addition de la façon suivante : A = (aij )

et

B = (bij )

A + B = (aij + bij )

(4)

Produit par un scalaire A ∈ Mm,n (K), λ ∈ K On définit la loi externe par : ∀λ ∈ K

λA = (λaij )

où A = (aij )

(5)

Théorème : Mm,n (K) muni de ces deux lois est un K espace vectoriel. L’élément neutre pour la loi “+” est la matrice nulle θ (tous les coefficients sont nuls). L’opposé de A = (aij ) est −A = (−aij ) Pour tout A ∈ Mm,n (K) : A + θ = θ + A = A et A − A = θ. Proposition : L’espace vectoriel Mm,n (K) est de dimension mn et admet pour base la famille des matrices élémentaires Eij (1 ≤ i ≤ m,1 ≤ j ≤ n). Eij = (δij,kl )1≤k≤n

, 1≤l≤n

en d’autres termes, l’élément aij de Eij vaut 1, et tous les autres éléments sont nuls. En particulier l’espace vectoriel Mn,n (K) des matrices carrées est de dimension n2 .

Produit des matrices Définition : Le produit de la (m,p) matrice A = (aij )1≤i≤m,1≤j≤p et de la (p, n) matrice B = (bkl )1≤k≤p,1≤l≤n est la matrice (m, n) notée A.B ou AB définie par : AB = (cij )1≤i≤m,1≤j≤n

,

cij =

p X

aik bkj

(6)

k=1

Ce produit n’est défini que si le nombre de colonnes de la matrice A est égal au nombre de lignes de la matrice B.

7

Produit successif La puissance m-ième d’une matrice carrée A d’ordre n étant définie par : A0 = In , A1 = A , A2 = AA , Am = Am−1 A La matrice A est dite : – involutive si A2 = In – nilpotente s’il existe un p tel que Ap−1 6= θ et Ap = θ – idempotente s’il existe un p tel que Ap = A.

Propriétés du produit Soit A, A1 , A2 ∈ Mm,p (K) ; B, B1 , B2 ∈ Mp,n (K) ; , C ∈ Mn,q (K) ; λ ∈ K : – A(B1 + B2 ) = AB1 + AB2 – (A1 + A2 )B = A1 B + A2 B – λ(AB) = (λA)B = A(λB) – (AB)C = A(BC) – Pour toute matrice A d’ordre n : AIn = In A = A – La matrice A est inversible s’il existe une matrice (unique si elle existe) notée A−1 et appelée matrice inverse de la matrice A telle que AA−1 = A−1 A = I. Dans le cas contraire, on dit que la matrice est singulière. – Si A1 et A2 sont deux matrices carrées d’ordre n sont inversibles on a : −1 (A1 A2 )−1 = A−1 2 A1

– Si A1,2,...,n sont des matrices carrées d’ordre n inversibles on a : −1 −1 (A1 A2 ...An )−1 = A−1 n . . . A2 A1

3.1

Matrice Transposée et matrice adjointe

Définitions : 1. La transposée d’une (m, n) matrice A = (aij )1≤i≤m,1≤j≤n est la matrice (n, m), notée t A définie par : t A = (bij )1≤i≤n,1≤j≤m et bij = aji ∀ i, j. t A est donc une (n, m) matrice. 2. On appelle matrice adjointe d’une (m, n) matrice A = (aij )1≤i≤m,1≤j≤n , matrice A∗ d’ordre (n, m) définie par : a∗ij = aji , ou aji est le complexe conjugué de aji . Prendre l’adjoint d’une matrice revient a faire la transposée de la matrice suivi de la conjugaison de chaque élément de la matrice. Si la matrice est réelle : A∗ = At . 3. une matrice est dite hermitienne si A∗ = A 4. une matrice est dite symétrique si t A = A. On a les proprietés suivantes : – t (t A) = A , (A∗ )∗ = A – t (A + B) =t A +t B , (A + B)∗ = A∗ + B ∗ – t (λA) = λt A , (λA)∗ = λA∗ – t (A1 A2 ) =t At2 A1 (A1 A2 )∗ = A∗2 A∗1 – t (A1 A2 . . . An ) =t An . . .t At2 A1 – (A1 A2 . . . An )∗ = A∗n . . . A∗2 A∗1 – Si A matrice carrée inversible : t (A−1 ) = (t A)−1 – – – –

La La La La

matrice matrice matrice matrice

A A A A

,

(A−1 )∗ = (A∗ )−1

hermitienne est définie positive si, pour tout vecteur v ∈ V non nul, v ∗ Av > 0. est orthogonale si A est réelle et A t A =t AA = I. est unitaire si AA∗ = A∗ A = I. est normale si AA∗ = A∗ A.

8

Remarques : – L’adjointe d’une matrice coincide avec sa transposée si et seulement si la matrice est réelle. – Le produit de deux matrices hermetiennes n’est pas nécessairement hermetienne : En effet : (AB)∗ = B ∗ A∗ = BA 6= AB.

3.2

Nombre d’opérations pour le calcul matricielle

Produit de deux matrices 1. Pour calculer un élément cij de C on effectue : p

multiplications

,

p − 1 additions

Le coût de calcul de C est de : mnp

multiplications

,

mn(p − 1) additions

Soit au total : 2mnp − mn. En particulier, si A et B sont deux matrices carrées d’ordre n, le coût de calcul de C est : n3

multiplications

,

n2 (n − 1)additions

Produit d’une matrice par un vecteur 2. Nombre d’opérations pour calculer : y = Ax. Pour A ∈ Mm,n (K) et x ∈ E, on peut voir x comme une matrice n × 1 et y = Ax comme une matrice m × 1 avec n X yi = (Ax)i = aik xk , i = 1, ..., m k=1

Le coût de calcul de y = Ax est : Pour chaque composante yi de y : il y a n multiplications et n − 1 additions. Au total pour calculer y il faut donc mn multiplications et m(n − 1) additions. Soit au total : 2mn − m.

4

Chagement de base

0 = (f1 , f2 , . . . , fn ) Soit E un espace vectoriel de dimension n. BE = (e1 , e2 , . . . , en ) une base de E. BE une nouvelle base de E. 0 La matrice de passage de la base BE à la base BE est la matrice notée P et dont les colonnes sont les composantes des vecteurs fi dans la base BE . Les fi et les ei sont alors reliés par les ralations suivantes :

fi = P ei ei = P

−1

, fi

i = 1, ..., n ,

i = 1, ..., n

Remarques : i La matrice de passage est toujours inversible 0 ii On peut voir P −1 comme étant la matrice de passage de la base BE à la base BE , c’est à dire que P −1 0 est la matrice dont les colonnes sont les composantes des vecteurs ei dans la base BE .

4.1

Action du changement de base sur les composantes d’un vecteur

Soit x ∈ E un vecteur de E, de composantes t x = (x1 , . . . , xn ) dans la base BE et de composantes 0 x = (x01 , . . . , x0n ) dans la base BE , on a alors :

t 0

x = P x0

ou

9

x0 = P −1 x

4.2

Action du changement de base sur la matrice d’une application linéaire :

Soit g une application linéaire de E vers F (dimF = m). Soit BF = (f1 , ..., fm ) une base de F et 0 BF0 = (f10 , ..., fm ) une nouvelle base de F. Soit A la matrice de g dans les bases BE à BF et A0 la matrice de 0 g dans les bases BE à BF0 . 0 Soit P la matrice de passage de BE à BE et Q la matrice de passage de BF à BF0 . La relation entre les matrices A et A’ est : A0 = Q−1 AP

ou

A = QA0 P −1

Si g est une application linéaire (endomorphisme) de E vers E, alors : A0 = P −1 AP

ou

A = P A0 P −1

Dans ce cas A et A0 sont dites semblabes.

5

Vecteur propre, valeur propre, réduction d’une matrice

Définition : Soient E un espace vectoriel sur un corps K et A la matrice d’un endomorphisme g de E. On définit le polynôme caractéristique de A comme étant : PA (λ) = det(A − λIE )

(7)

λ est un scalaire de K. PA est un polynôme à coefficient dans K dont le degré est la dimension de E. Les valeurs propres λi = λi (A) (1 ≤ i ≤ n) d’une matrice d’ordre n sont les n racines réelles ou complexes, distinctes ou confondues, du polynôme caractéristique de la matrice A pA : λ ∈ C 7−→ pA (λ) = det(A − λI). A toute valeur propre λ d’une matrice A, on associe (au moins) un vecteur v tel que v 6= 0

Av = λv ;

et

le vecteur v est un vecteur propre de la matrice A associé à la valeur propre λ. Si λ ∈ sp(A), le sous-espace vectoriel Eλ = {v ∈ V ; Av = λv} est appelé sous-espace propre associé à la valeur propre λ. Théorème : Soient A une matrice d’un endomorphisme de E et λ1 , λ2 deux scalaires distincts (λ1 6= λ2 ) alors : i. Eλ1 ∩ Eλ2 = {0E }. ii. Si v1 et v2 sont vecteurs propres associés respectivement aux valeurs propres λ1 et λ2 (λ1 6= λ2 ) alors la famille : {v1 , v2 } est libre. Théorème Soient E un espace vectoriel de dimension finie sur un corps K et A une matrice d’un endomorphisme f de E. Soient λi , i = 1, . . . , m, m valeurs propres de A deux à deux distinctes et {vi } (i = 1, . . . , m), vi les vecteurs propres correspondants. Alors la famille {vi } (i = 1, . . . , m) est libre. Théorème de Cayley-Hamilton (admis) : Soit E un espace vectoriel sur K de dimnsion n. Pour toute matrice A d’un endomorphisme g de E, tel que le polynôme caractéristique PA ai toutes ses racines dans K on a : PA (A) = 0Mn . Remarques : – Si le polynôme caractéristique PA est de la forme PA (λ) = a0 + a1 λ + a2 λ2 + . . . + an λn , alors PA (A) s’obtient en remplacant ai λi par ai Ai et le terme constant a0 par a0 IE : PA (A) = a0 IE + a1 A + a2 A2 + . . . + an An

10

– Le théorème de Cayley-Hamilton permet de calculer l’inverse de A si il existe. En effet : si A est inversible, detA=PA (0) = a0 6= 0. Cayley-Hamilton implique : PA (A)

=

a0 IE + a1 A + a2 A2 + . . . + an M n = 0Mn ⇒

a0 IE

=

IE

=

M (−a1 − a2 M − . . . − an M n−1 ) = (−a1 − a2 M − . . . − an M n−1 )M ⇒ a1 a2 an n−1 a2 an n−1 a1 M (− − M − . . . − M M ) = (− − M − . . . − )M a0 a0 a0 a0 a0 a0

(8)

On conclut donc que M −1 est donnée par : M −1 = −

a1 a2 an n−1 − M − ... − M a0 a0 a0

spectre et rayon spectral Le spectre de la matrice A est le sous ensemble sp(A) = {λ1 (A), λ2 (A), . . . λn (A)}. Le rayon spectral de la matrice A est le nombre positif défini par ρ(A) = max{|λi (A)|, 1 ≤ i ≤ n}.

6 6.1

Produit scalaire Produit scalaire réel : Définitions et exemples

Définition : Soit E un espace vectoriel sur R. On appelle produit scalaire réel sur E toute application φ : E × E → R vérifiant : 1) φ est bilinéaire , c.a.d : 1a. ∀x, y, z ∈ E, ∀λ ∈ R : φ(λx + y, z) = λφ(x, z) + φ(y, z) 1b. ∀x, y, z ∈ E, ∀λ ∈ R : φ(x, λy + z) = λφ(x, y) + φ(x, z) ( φ est linéaire relativement à chaque argument.) 2) φ est symétrique i.e. ∀x, y ∈ E, φ(x, y) = φ(y, x) 3) φ est positive i.e. ∀x ∈ E ,φ(x, x) ≥ 0 4) φ est définie i.e. ∀x ∈ E , φ(x, x) = 0 ⇒ x = 0 On dit qu’un produit scalaire est un forme bilinéaire symétrique définie positive. Remarques : – Puisque le produit scalaire est linéaire par rapport à la première et seconde composante donc il est évident que ∀x ∈ E , (x, 0) = (0, x) = 0 – Dans la pratique, si φ est symétrique, pour que φ soit bilináire il est suffisant de montrer 1a ou 1b. – Par la suite on notera (x, y) au lieu de φ(x, y) Exemples : n A. Considèrons E = Rn . Pour tout x = (x1 , x2 , . . . , xn ) ∈ Rn , y = (yP 1 , x2 , . . . , yn ) ∈ R , on définit l’applican n n tion φ de R × R → R par : φ(x, y) = x1 y1 + x2 y2 + . . . + xn yn = k=1 xk yk . Montrons que φ est un produit scalaire sur Rn . 1. En effet, φ : Rn × Rn → R est bien définie. Pour tout λ ∈ R et P ∀x, y, z ∈ Rn , on écrit x (x1 , x2 , . .P . , xn )t ,y = (y1 , y2 , . . . , yn )t , z = (z1 , z2 , . . . , zn )t P= n n n alors φ(λx + y, z) = k=1 (λxk + yk )zk = λ k=1 xk zk + k=1 yk zk = λφ(x, z) + φ(y, z) Donc φ est linéaire en sa premième variable. 2. On a φ(y, x) =

Pn

k=1

3. ∀x ∈ Rn , φ(x, x) =

yk xk =

Pn

k=1

Pn

k=1

xk xk =

xk yk = φ(x, y) par conséquent φ est symétrique et donc bilinéaire.

Pn

k=1

x2k ≥ 0 Donc φ est positive.

11

Pn 4. ∀x ∈ Rn , si φ(x, x) = k=1 x2k = 0. La somme des termes positives est nulle si tous les termes sont nuls, par suite xk = 0 , k = 1, ..., n et donc x = 0 d’où φ est définie. En conclusion φ est un produit scalaire de Rn c ’est le produit scalaire canonique de Rn . B. Considérons E = C([a, b], R) l’ensemble des fonctions continues de [a, b] dans R, c’est un espace vectorile Z b f × g est un produit scalaire sur C([a, b], R). sur R. L’application C([a, b], R) × C([a, b], R) → R, (f, g) → a Rb Comme f et g sont continues sur [a, b], le produit scalaire de f et g définie comme a f ×g est donc bien défini. Rb

2. ∀f, g ∈ C([a, b], R) , x ∈ [a, b], on a : (f, g) = que c’est symétrique.

a

f (x) × g(x)dx =

Rb a

g(x) × f (x)dx = (g, f ), ce qui prouve

Rb Rb 1a. ∀f, g, h ∈ C([a, b], R) , λ ∈ R , x ∈ [a, b], (λf + g, h) = a (λf (x) + g(x)) × h(x)dx = λ a f (x) × h(x)dx = Rb + a g(x) × h(x)dx = λ(f, h) + (g, h). Rb Du fait que (f, g) = a f (x)g(x)dx est symétrique, on aura donc (f, λg + h) = λ(f, g) + (f, h). 3. ∀f ∈ C([a, b], R) , x ∈ [a, b], on a : (f, f ) = 4. ∀f ∈ C([a, b], R) , x ∈ [a, b], Si (f, f ) =

Rb a

RbRb a

a

f (x) × f (x)dx =

Rb a

f (x)2 dx ≥ 0.

f (x)2 dx = 0 alors f (x) = 0 pour tout x ∈ [a, b] donc f = 0. Z

On conclut donc que l’application C([a, b], R) × C([a, b], R) → R, (f, g) →

b

f × g est un produit scalaire a

sur C([a, b], R). C. On considère E = Mn,p (R). ∀A, B ∈ E on pose φ(A, B) = (A, B) = tr(t AB). Puisque t A ∈ Mp,n (R) et B ∈ Mn,p (R), le produit t AB ∈ Mpp (R) la trace tr(t AB) = est donc bien définie. φ est symétrique, en effet : ∀A, B ∈ E

,

φ(B, A) = tr(t BA) = tr(t (t AB)) = tr(t AB) = φ(A, B).

∀A, B, C ∈ E , λ ∈ R ; φ(A, λ B + C) = tr(t A(λ B + C)) = λ tr(t AB) + tr(t AC) = λ φ(A, B) + φ(A, C). Donc φ est bilinéaire. On pose A = (aij ) matrice n × p, i = 1, ..., n, j = 1, ..., p, At = (bij ) une matrice p × n, avec bij = aji ; At A est une matrice p × p P : Pp Pp Pp Pp Pp p φ(A, A) = tr(t AA) = i=1 k=1 bik aki = i=1 k=1 aki aki = i=1 k=1 a2ki ≥ 0, φ est positive. Pp Pp De plus si φ(A, A) = i=1 j=1 a2ij = 0, or la somme de quantités positives n’est nulle que si chacune des quantités est nulle et donc aij = 0 pour tout i, j et donc A = OMn,p . Finalement φ est un produit scalaire sur E, c’est le produit scalaire canonique de Mn,p (R). D. On considère E = C, espace vectoriel sur R. DimCR = 2. On considère φ une application de C × C → R tel que φ(z1 , z2 ) =