Algebră liniară, Teorie şi probleme rezolvate [PDF]


148 93 16MB

Romanian Pages 159 Year 1999

Report DMCA / Copyright

DOWNLOAD PDF FILE

Algebră liniară, Teorie şi probleme rezolvate [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

TEODOR

STIHI

LINIARA TEORIE PROBL ti PE/( ;LV/ JE ŞI

/it





UN IV ERS ITARAII

ALGEBRĂ LINIARĂ

Teodor Stihi Copyright© 1996, 1999 - Editura B.I.C. ALL Toate drepturile sunt rezervate Editurii B.I.C. ALL Nici o parte din acest volum nu poate fi copiată fără permisiunea a Editurii B.I.C. ALL Drepturile de distribuţie in străinătate aparţin in exclusivitate editurii.

scrisă

Copyright© 1996, 1999 by B.J.C. ALL Ali rights reserved. The distribution of this book outside Romania, without the written permission of B.I.C. ALL is strictly prohibited. Descrierea CIP a Bibliotecii Naţionale STIH!, TEODOR Algebră liniară: teorie şi probleme rezolvate 1Teodor Stihi Bucureşti: Editura B.I.C. ALL, 1999 160p.; 24 cm- (Matematică- Fizică- Automatică) Bibliogr. ISBN 973-571-279-2 512.64(076)

Editura B.I.C. ALL

Bucureşti, Bd. Timişoara nr. 58, sector 6, cod 76548 • 402 26 00, 402 26 01 Fax: 402 26 10

Departamentul difuzare

• 4022620 Fax: 402 26 30

Redactor: Radu Slobodeanu Coperta: Stelian Stanciu

PR:!NTED IN ROMANIA

TEODOR STIHI

ALGEBRĂ LINIARĂ Teorie şi probleme rezolvate

iJ000

Colecţia Matematică

-

Fizică -Automatică a editurii ALL cuprinde:

de analiză matematică, P. Flondor, O Stănăşilă 2. Matematici speciale- teorie, exemple, aplicaţii, V. Brînzănescu, O. Stănăşilă 3. Algebră liniară, geometrie analitică şi diferenţială, C. Radu 4. Probleme de fizică, M. Penescu 5. Fizică- Voi. 1, Voi. 11, Cornelia Moţoc 6. Teoria si~temelor. Sinteza robustă. Metode numerice de calcul, V. Ionescu, A. Varga 7. Stabilizarea sistemelor lin iare, A. Halanay, V. Drăgan 8. Probleme rezolvate de fizică nucleară, colectiv Catedra de Fizică Atomică şi Nucleară, Facultatea de Fizică, Universitatea Bucureşti 9. Simularea Monte Carlo a transportului radiaţiilor, O.Sima 10. Analiză matematică- culegere de probleme- Voi. 1şi 11, N. Donciu, D. Flondor 11. Probleme de algebră liniară, geometrie analitică, diferenţială

1.

Lecţii

şi ecuaţii diferenţiale,

G. Atanasiu, Gh. Munteanu, Mihai Postolache liniară- teorie şi probleme rezolvate, Teodor Stihi 13. 1000 de probleme rezolvate şi exerciţii fundamentale, Ana Niţă, Tatiana Stănăşilă, O. Stănăşilă 14. Elemente de aritmetică, Constantin Vraciu, Mariana Vraciu 15. Subiecte de licenţă, Facultatea de Automatică şi Calculatoare, coordonatori:Nicolae Cupcea, Ion Fătu 16. Metode de calcul numeric matricea!. Algoritmi fundamentali, Bogdan Dumitrescu, Corneliu Popeea, Boris Jora

12. Algebră

Către

cititor

Cartea de faţă reprezintă o iniţiere in Algebra liniară. Alegerea temelor şi modul de tratare a lor au drept scop utilizarea acestui importantinstrument de investigaţie şi de calcul in fizică, in inginerie sau in economie, statistică etc. Schematizând ideile putem spune că primele trei capitole studiază, sub diverse aspecte, sistemul liniar Ax = b, iar ultimele două -problema Ax = l.x cu valori şi vectori proprii. Foarte multe aplicaţii se reduc la probleme de acest tip. in rezolvarea lor apar interferenţe cu alte discipline precum Analiza numerică, Geometria şi Analiza matematică. Era firesc ca in lucrare să-şi facă loc elemente din aceste domenii pentru a lămuri şi completa studiul problemelor in cauză. in ultimă instanţă, rezolvarea numerică a acestora cade în sarcina calculatorului şi a unor programe din biblioteca lui. Dar utilizarea lor fără o cunoaştere a domeniului transformă intreaga acţiune intr-un joc "de-a baba-oarba". Am orientat prezentarea şi tratarea diferitelor teme pe principii strict pragmatice, renunţând - uneori cu regret - la aspecte teoretice importante, pentru a da acces direct in miezul aplicativ al chestiunilor. Nu am renunţat insă la virtuţile unui text matematic: rigoarea definiţiilor şi a demonstraţiilor. Este drept că nu toate teoremele au fost demonstrate. Şi mai este adevărat că in cazul unora din ele am dat numai câteva idei demonstrative, dar nu sub titlu şi cu pretenţia de a se substitui unei demonstraţii - ce va putea fi găsită de cititor în alte lucrări similare. Pentru inţelegerea acestor pagini sunt necesare cunoştinţe de calcul algebric (inclusiv de calcul matricea! şi al determinanţilor) la nivelul celor din manualele de liceu. Este necesară de asemenea şi o anumită deprindere a rigorii raţionamentul ui matematic. Aflat la sfârşitul unui capitol cititorul !şi va putea testa calitatea cunoştinţelor dobândite, răspunzând la chestiunile recapitulative. Acelaşi rol il joacă şi o parte din exerciţiile ce insoţesc fiecare paragraf, cealaltă reprezentând o completare a teoriei. in plus, pentru acestea din urmă, anexa E oferă răspunsuri sau soluţii, uneori cu ample comentarii. ·Reprezentând suportul unui curs predat în anul întâi al facultăţilor cu profil tehnic, lucrarea s-a văzut confruntată cu o restricţie procustiană: numărul de ore alocat algebrei. Am redus sau am renunţat complet la unele teme tradiţionale - forma Jordan de pildă, făcând totodată loc unor subiecte netradiţionale, cum ar fi pseudoinversa. insuşi

Discutabilă tn sine, o tnvăţămtîntul tehnic şi are

asemenea alegere ţine de cerinţele prezentului tn precedente remarcabile tn literatura de specialitate. Suntem conştienţi de dificultăţile pe care cititorul le poate tnttîlni tn studiul acestei lucrări. Nu este recomandabil şi nici posibil să descifrezi totul de la prima lectură. Numai o reluare repetată · la nivele din ce tn ce mai profunde • permite depăşirea unor obstacole fireşti. Nici un eşec nu este definitiv! Perseverarea tn studiu este, nu diabolică, ci salutară şi deschide calea cunoaşterii. In lumina ei vom descoperi adevărata satisfacţie intelectuală · răsplată pe măsura unui asemenea efort. Numeroasele trimiteri ce tmptînzesc textul nu sunt necesare la o primă lectură - desigur superficială. Dar tntr-un studiu aprofundat • incluztînd parcurgerea calculelor şi a argumentelor demonstrative • urmărirea lor poate fi utilă. Autorul

Notă Regăsirea unui enunţ (teoremă, formulă etc) din această lucrare se face pe baza codului alcătuit din două numere şi plasat tn faţa sa. Primul număr este al paragrafului tn care se află enunţul, iar al doilea este numărul de ordine al enunţului tn intervalul acelui paragraf. Expresia "conform (sau vezi) 5.1" se va referi aşadar la un rezultat, purttînd acest cod şi aflat tn paragraful 5 al capitolului din care se face trimiterea. Ctînd trimiterea se face la un enunţ cu acelaşi cod, dar din alt capitol • de pildă 3 • ea va purta adresa (3).5.1. Pentru a facilita găsirea pe bază de coduri a diferitelor enunţuri, am inclus tn titlul fiecdrei pagini o indicaţie despre numărul de capitol şi cel de paragraf. De exemplu: §(3).5 tnseamnă cd vd aflaţi tn capitolul 3, paragraful5.

PRESCURTĂRI Menţionăm utilizarea unor prescurtări clasice: e.g.

=de exemplu, i.e. = adică, dar şi neclasice: d.n.d. = dacd şi numai dacă, v.p. =valori/vectori proprii, ex. =exerciţiu etc.

CUPRINS Capitolul1 METODA ELIMINĂRII SUCCESIVE A NECUNOSCUTELOR (GAUSS) . . . . . . . . . . . 1 §1. Metoda Gauss pentru rezolvarea sistemelor liniare 3x3 nesingulare . . . . . . . . 1 §2.

Notaţia şi

descrierea

matriceală

a procesului de eliminare;

descompunerea A=LU . . . . . • . . . . • . . . . . . . . . . . . . . • . . . . • . . . . . . . . . . • . . 1 §3.

11

Costul" rezolvării unui sistem liniar mcn prin metoda Gauss ............. 5

Necesitatea permutărilor !n procesul de eliminare. Efectul erorilor de rotunjire . .. .. . .. . . . . . . . . .. .. . . . .. . . . . . .. . . . . . .. 6 §5. Descompunerea PA=LU . . . . . • . . . . . . • . . . • . . . . . . • . . • • . . . • . • . . . . . . . . 9 §6. Indicaţii practice pentru aplicarea metodei Gauss . . . . . . . . . . . . . . . . . . . . . 11 6.1. Metoda Gauss aplicată mai multor sisteme. Utilizarea descompunerii LU . . .. . • . . . • . . . . . . . . . . • . . . . . . . . . . . . . 12 6.2. Varianta Gauss-Jordan a algoritmului de eliminare succesivă a §4

necunoscutelor

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . 13

14

Metoda diferenţelor finite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Simetrizarea descompunerii A=LU pentru matricole simetrice. Descompunerea A = LDLT . . . . . . . . . . • . • . . . . . . . . . . . . . . . . • . • . . . . • . . §9. Descompunerea LDU pentru matrice nesingulare şi unicitatea sa . . . . . . . . . §10. Rezolvarea sistemelor cum ecuaţii şi n necunoscute (dreptunghiulare) ..... Chestiuni recapitulative . . .. . . . . . .. .. . . .. .. .. . . . .. . . .. .. .. . . . . . . .. . ..

16 17 19 25

Capitolul 2 SPAŢII VECTORIALE ŞI APLICAŢII LINIARE ......................... .... §1. Noţiunea de spaţiu vectorial de coloane ........•................ .... §2. Independenţa liniară a vectorilor .. .. .. .. . . . . . . . .. . .. .. .. .. . .. .. . .. §3. Sistem de generatori. Bază . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . §4. Dimensiunea unul spaţiu vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . §5. Spaţiile fundamentale ale unei matrice de numere reale . , , . . . . . . . . . . . . . 5.1. Spaţiul liniilor matricei A: 3(AT) •..•••••...•••••••••••••• .••• , •. 5.2. Nucleul matricei A: N(A) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3. Spaţiul coloanelor matricei A: 3(A) . . • . . . . . . . . . . . • . . . • . . . . . . . . . . . 5.4. Nucleul stâng al matricei A: N(A') •.........•.•...•....••..• •... §6. Aplicaţii liniare. Izomorfism .. .. .. . .. .. .. .. .. .. .. .. .. .. .. . .. .. .. .. §7. Matricea ca aplicaţie liniară şi aplicaţia liniară ca matrice , .. , . , .... , .... 7. 1. Matricea ca aplicaţie liniară .. , .. , ........ , . , . . . . . . . . . . . . . . . . . . 7.2. Aplicaţia liniară ca matrice ... , . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . §8. Suma şi intersecţia de subspaţii ..................... , .......... , . 8.1. Suma de subspaţii ............... , ......................... , 8.2. Determinarea sumei şi intersecţiei a două subspaţii ....... , ... , . . . . . 8.3. Descompunerea spaţiului In sumă directă de subspaţii ........ , ...... Chestiuni recapitulativ• . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

27 27 29 30 33 34 35 36 36 38 39 42 42 43 45 45 45 49 50

§7. §8.

Capitolul 3 GEOMETRIA SPAŢIULUI 11.' ..... , .... , ..... , .................... , . . . . . §1. Produs scalar şi ortogonalitate ......... , .................. , ...... , §2. Relaţii geometrice intre subspaţii!e fundamentale ale matricei A e M,.,.(R) . . . . • . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . §3. Matricea ca aplicaţie liniară. Studiu geometric ....... , .... , . . . . . . . . . . . §4 Metoda celor mai mici pătrate şi proiecţia unui vector pe un subspaţiu . . . . .

51 51 54 57 59

Cuprins §5. Matrice de proiecţie şi matrice ortogonale . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1. Matrice de proiecţie ......................... ........... , .... 5.2. Matrice ortogonale .......................... ...... , . . . . . . . . . §6. Procedeul Gram-Schmidt de ortogonalizare. Descompunerea QR a matricelor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . §7. PseudoinversaA+ a matricei A ......................... ........... Chestiuni recapitulative -, . , . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

65 68 70

Capitolul 4 VALORI ŞI VECTORI PROPRII. FORME CANONICE DE MATRICE ............ §1. Problema VVP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . §2. Polinomul caracteristic .......................... .... , ........... §3. Spaţiile proprii . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . • . . . . . . . . . . . . . . . . §4. Geometria spaţiilor C" . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . §5. Problema VVP pentru matricele hermitice ..•........................ , §6. Teorema spectrală şi descompunerea spectrală ................... ~ . . . . §7. Triunghiularizarea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . §8. Diagonalizarea şi jordanizarea . . . . . . . . . . . . . . . . . . . . . . . • . . . . . . . . . . . . §9. Metode pentru rezolvarea problemelor liniare cu condiţii iniţiale . . . . . . . . . 9.1. Recurenţe liniare .. , .......................... .........•.... 9.2 Matricea exponenţială e"' ......•.................. ............. Chestiuni recapitulative •........ , ................ , . . . . . . . . . . . . . . . . . .

72 72 74 76 77 80 81 83 87 90 90 92 94

62 62 63

Capitolul 5 FORME PĂTRATICE. MATRICE DEFINITE ŞI SEMIDEFINITE ............... 96 §1. Schimbarea matricei asociate Ia schimbarea bazei ..................... 96 §2. Reducerea ortogonală a unei f.p. la axele principale şi aplicaţii geometrice .......... -. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 §3. Teorema inerţiei şi consecinţe ........................• .. , . . • . . . . 102 §4. Matrice simetrice definite .......................... ... , ... , . , . . . 107 §5. Matrice simetrice semidefinite .................. ,_ .... ·-· . . . . . . . . . . 109 §6. Problema VVP generalizată: Ax = iJ3x . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 §7. Descompunerea singulară . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 Chestiuni recapitulative . . . . • . . . . . . . . . . . . . . . . . • . . . . . . . . . . . . . . . • . . . . . 116

ANEXE Anexa A. Matricea schimbării de coordonate .......................... .. . Anexa B. Determinanţi ......................... ............. , ..... . Anexa C. Metode de calcul pentru pseudoînversa unei matrice .... , , ........ . Anexa D. O metodă de calcul a exponenţialei e"' ......•.................. Anexa E. Soluţiile exerciţiilor ................ -.....................•..

118 118 120 123 125 127

INDEX DE SUBIECTE ......................... ..................... . 149 BIBLIOGRAFIE ........•................ ......................... .. 151

Capitolul!

METODA ELIMINĂRII SUCCESIVE A NECUNOSCU TELOR (GAUSS) Rezumat. Metoda eliminării succesive a necunoscutelor este cea mai utilidintre metodele 11exacte11 , pentru rezolvarea sistemelor liniare. Propusă de

zată

marele matematician K.F.Gauss (1777-1855), ea îi poartă numele. Deşi generală,

se

aplică

mai ales sistemelor liniare cu n

având matricea ală şi în special compactă

ecuaţii şi

n necunoscute (nxn)

nesingulară. operaţia

a celor trei

O vom descrie în cazul n=3 (§1). Notaţia matrice· numită produsul matricelor, permit o reprezentare

paşi

ai procesului de eliminare, conducând Ia descompu-

nerea LUa matricei sistemului (§2). Pe de

altă

parte,

făcând

practice, metoda ridică probleme legate de aceasta: câte

11

obiectul activităţii

0peraţii

de

maşinăn

cheltuieşte

(§4)

Ca efect al

utilizării permutărilor, procesul Gauss conduce la o descompunere a matricii A: PA=LU (§5), iar sub raportul economisirii 0peraţiilor

modificată

şi

cum face

faţă

erorilor "de rotunjire" ce apar în calcul (§5). 11

de maşină", se pot face recomandări utile (§6). Ajungem astfel la analiza primei aplicaţii concrete: reducerea, prin discretizare, a unei probleme la limită pentru o ecuaţie diferenţială, Ia un sistem algebric (§7). Ea oferă prilejul întâlnirii cu matriCele simetrice, având o desc~mpunere LU simetrică (§8), precum şi rezolvarea primei probleme teoretice importante: unicitatea acestei descompuneri (§9). Generalizarea metodei eliminării succesive la sisteme dreptunghiulare, deschide propriu-zis problematica algebrei Iiniare (§10). §1. Metoda Gauss pentru rezolvarea sistemelor liniare 3x3 nesingulare Această metodă este cea mai utilizată din clasa metodelor numite "exacte" de rezolvare a sistemelor liniare. 1 Formularea sa în tipare precise permite transpunerea într-un algoritm - etapă necesară transpunerii într-un limbaj de programare. Vom explica, pentru a înţelege metoda, cum funcţionează ea în cazul sistemului liniar având trei ecuaţii, trei necunoscute şi pe care îl notăm

(1.1) { Numărul

Există

a 11

-

auxi +ai2x2+aiaXa""'bi' a 21 x 1 +a22 x 2 +a23 x3 :b 2 , aaiXI +aazX2+aaaXa""'ba·

presupus nenul - îl numim pivot

metode iterative ce produc un şir (convergent) de

şi notăm

"aproximărr•

ale

soluţiei.

§ (1) 1

2

câturi poartă numele de multiplicatori, deoarece urmează să înmulţim prima ecuaţie, pe rând, cu fiecare din ei, pentru a o scădea apoi din a doua şi respectiv din a treia ecuaţie. Am efectuat astfel primii doi paşi dintr-un proces de eliminare sau proces Gauss; In cazul de faţă aceşti paşi alcătuiesc prima etapă a procesului, în urma căreia sistemul 1.1 devine Aceste

două

l

a11x1

a1,.x2

+

a 1,.x3

+

= b1 ,

(a22-m21al2)x2 +

(a2a-m2laxa>xa = b2-m2lb1,

(aaz-mata12)x2

(aaa-maxaxa)xa = ba-matbl'

sau, printr-o renotare a

+

coeficienţilor

l

a 11x 1+a12 x 2 +a13 x 3 =b 1 , 1 1 x 3=bl2 , x 2 +a23 a 22 b1 1 1 aazXz +a33xa = a.

(1.2)

Pentru a trece la etapa următoare presupunem pivotul a~ 2 nenul şi 1

calculăm multiplicatorul aa•1 =m32 , apoi Inmulţim ecuaţia a doua cu m32 şi o a ..

scădem

din a treia;

rezultă

a11x1

l

(1.3)

+

a:,.x•

+

a1,.x3 = b1 ,

a22X22

+

a~3 = b~, (a~3 -m 3 ţz~3 )x 3 = b~-m 32 b~.

ultima ecuaţie se rescrie b"3. 11 aaax.= Obţinerea sistemului având matricea coeficienţilor necunoscutelor- triun·

Printr-o renotare a

coeficienţilor,

ghiulară 1 11

(1.4)

a

U=

a:• a:

3 ·]

a22 a23

[

a"33 (elementele nespecificate sunt nule) încheie procesul de eliminare (Gauss). Sistemul va fi acum rezolvat prin substituţii In ordinea regresivă: atât a necunoscutelor cât şi a ecuaţiilor. Calculând b" (presupunem a~;tO ), x3 = 3a 33l/ Se notează cu U matricele superior" triunghiulare C'upper" în limba engleză insemnând 11 superior) şi cu L matricele inferior triunghiulare (11lower =infexior).

§ (1) 1

3

îl introducem in a doua

ecuaţie,

din care extragem

X2

b.'-aL .., :lli""'

1

et c.

a••

EXERCIŢIUL 1.1

a) Rezolvaţi

prin

substituţii

regresive sistemul cu matricea

l

x 1 -x3 +

triunghiulară

x,=

2, O, x8 - x4 = 1, 4x,=-1.

2x2+Xa+2x,=

b) Aplicaţi transformările procesului de eliminare gaussiană sistemului xl+ Xz+2xa+3x• =

1,

2x1+3xz- Xa- x, = -6, x1+2x2+3xa-

x. = -4,

3xc x2- Xa-2x• = -4. pentru a-1 "triunghiulariza"; apoi calculaţi-i soluţia. c) Câte etape ale procesului de eliminare trebuie parcurse pentru a "triunghiula· riza un sistem de patru ecuaţii cu patru necunoscute ? C!ţi paşi sunt conţinuţi în aceste etape? 11

paşilor

§2. Notaţia şi descrierea matriceală a procesului de eliminare; descompunerea A=LU



reamintim cea mai importantă operaţie cu matrice: produsul matri· celor, sub forma particulară a produsului intre matricea

A = [ ::: : : : : ]

şi matricea-coloană

aal aa2 aaa

x = [ :: ] Xa

Matricea produs va fi

Ax=[::::::::::::~: l· a 31x 1 +a3,x2 +a3,x3

Aşadar,

(2.1)

Ax = b intr-o formă condensată, cele trei ecuaţii ale sistemului 1.1. Vom asemenea forme şi pentru sistemele 1.2 şi 1.3.

reprezintă, găsi

egalitatea matriceală

§ (1) 2

4

Considerăm matricea'

-~,,o o~ ~

E,, = [

1 cu care amplificăm egalitatea 2.1: E 21 (Ax)=E21 b. (2.2) Cf. asociativităţii produsului niatricelor

l

E 21(Ax)=(E 21A)x.

Pe de altă parte, matricea E 21A se obţine din A prin scăderea din linia a doua a primei linii amplificată cu m21 (verificaţi!). Am obţinut o reprezentare matriceală a primului pas din procesul de eliminare. Amplificând egalitatea 2.2 cu

Ea 1

~

=[

]

1

-m31 O 1

echivalentul matricea! al sistemului 1.2 E 31E 21Ax=E31E 21 b (2.3) parantezele.) suprimat (Cf. asociativităţii am Ultimul pas este amplificarea sistemului 2.3 cu găsim

E,,=

r~ l~

]

1

-m"

1

Ea,E31E 2,Ax=Ea,E31E 21 b.

(2.4)

Deci

Ea,E31E 2,A=

(2.5)

[""

.. ""}

a~2 a~ 3 U. 11

aaa

Amplificând 2.5, pe rând cu

E··[: 1}E+ O m 32 1

ma 1

1

o

} E;/• [:•

obţinem

Aceste matrice

elementare.

şi transformările

pe care

le produc coeficîenţilor

1

o

J

sistemului, se numesc

5

§ (1) 2

A -e-213132• E -'E-'E-'U

(2.6)

Matricea

E;,'E;{E;i=

L~,

l~"

tL,

1

m,z

J

1

care conţine multiplicatorii procesului (în ordinea utilizării), se numeşte matricea multiplicatorilor. (2.7) CONCLUZII. 1) Sistemul Ax = b este echivalent cu sistemul Ux = c obţinut din acesta prin eliminare (conf. ex. 1.2b). 2) Ca rezultat al procesului de eliminare matricea A se descompune sub forma A = LU. EXERCIŢIUL

1.2

a) Construiţi matricea multiplicatorilor (L) corespunzătoare procesului de eliminare din exerciţiul l.l.b, apoi verificaţi prin înmulţire directă egalitatea A=LU, U fiind matricea triunghiulară a sistemului obţinut în urma eliminării. b) Reprezentaţi matricea! cei şase paşi ai procesului de eliminare în cazul unui sistem 4x4.

c)

Justificaţi echivalenţa

sistemelor 2.1, 2.2, 2.3

şi

2.4

bazându-vă

pe posibi-

litatea de a inversa cei trei paşi ai eliminării. d) Regula de înmulţire a matricelor are multe consecinţe utile între care vă propunem să .o verificaţi pe următoarea: dacă A este matrice 3x3 şi x, y, z sunt

trei coloane tridimensionale alcătuind matricea 3x3: X= [xl Yl z], atunci AX=

[Ax! Ayl Ax] .

. Altfel spus, matricea produs AX are drept coloane produsele Ax,Ay,Ax.

§3. "Costul" rezolvării unui sistem liniar nxn prin metoda Gauss' În practică, maşina de calcul este cea care rezolvă problemele de calcul. Fiecare operaţie efectuată de ea are o anumită durată, deci un anumit preţ de cost. Este util să evaluăm, chiar şi aproximativ, acest preţ. Deoarece o adunare sau scădere durează mult mai puţin decât o înmulţire sau o împărţire, vom conveni să considerăm drept "operaţie de maşină" - o înmulţire sau o împărţire împreună cu o (eventuală) adunare sau scădere. Ne propunem să evaluăm numărul operaţiilor de maşină necesare aducerii unei matrice n x n la forma superior triunghiulară U, prin metoda Gauss. Spre a produce un zero sub primul pivot, trebuie să facem o împărţire (calcularea multiplicatorului) şi n-1 înmulţiri-scăderi. Prima etapă a procesului de eliminare necesită n(n-1) operaţii de maşină. Pentru a doua etapă vor fi necesare (n-1)(n~2) operaţii etc. În total, procesul de eliminare consumă

Problemele discutate în acest paragraf şi în următorul,

aparţin

Algebrei numerice.

6

§ (1) 3 n

n

k·l

k•l

n'-n

operaţii.

(n 2 -n)+ ... +(k'-k)+ ... +(1'-1)~ Ek'-'Ek ~

~

..!.n(n+..!.)(n+l)- ..!.n(n+l)

~

3 2 2 3 Deoarece, pentru valori mari ale lui n, n' este mult mai mare decât n, se poate aproxima, in practică, acest total prin 3

!!:...

operaţii de maşină. 3 Costul substituţiilor regresive este mult mai scăzut. Notăm Ux=c sistemul obţinut după eliminare. Din ultima sa ecuaţie u..x. ~ c., necunoscuta x. se obţine printr-o împărţire. Din penultima ecuaţieu •. •• ,x•. •u •. ,;c. ~ c•. 1 1 1 1 necunoscuta x•. 1 se obţine printr-o tnmulţire-scădere şi o tmpărţire etc.

Totalul va fi de .

't k ~ ..!.n(n+1), adică de aproximativ 2 k•l

2

!!:._ operaţii de maşină. 2 . EXERCIŢIUL

1.3

a) Evaluaţi numărul operaţiilor de maşină (aici, operaţie = Inmultire + adunare) necesare calculării produsului a două matrice nxn. b) Cunoscând descompunerea A=L U, determinare a soluţiei sistemului liniar Ax =b se face in două etape: calcularea soluţiei sistemului Ly=b, apoi a soluţieix a sistemului Ux=y. Evaluaţi numărul operaţiilor de maşină necesare determinării lui y, apoi lui x. c) De ce odată efectuată eliminarea gaussiană asupra matricei A • rezolvarea altui sistem cu matricea A trebuie să fie făcută ca la punctul b, nu reluând procesul de eliminare ?

§4. Necesitate a permutărilor m procesul de eliminare. Efectul erorilor de rotunjire După cum am văzut în §3, matricea A a sistemului 2.1 se putea descompune în produsul A=LU. Acest fapt se datorează anumitor ipoteze (restrictive) pe care le-am făcut, anume ca cei doi pivoţi au şi a~ .să fie nenuli.. Dar iată cazul sistemului

.

[~ ~]~J [:J

Înmulţirea primei linii cu un numifr, urmată de scăderea ei dintr-a doua linie, nu produce anularea elementului aflat in poziţia (2,1). Zeroul dorit se

poate obţine, aici, numai prin permutare a celor două ecuaţii. Forma triunghiulară căutată va fi 4x,•3x,=b,, {

2x,~b,.

§ (1) 4

7

Matricea sistemului, A descompusă

-J

0 2 ] , având elementul a 11 nul, nu poate fi

4 3

sub forma A=L (exerciţiul 1.4.a). Înmulţind-o însă cu matricea de permutare

P~ [~ ~]

găsim

PA~ [~ :] ~u~w. ~

unde L 12

-J o J 1 0

1

este matricea unitate de ordinul doi. .

gener să o servăm că, inmulţind la stânga o matrice A cu o matrice P, obţinută din matricea unitate, de ordin corespunzător, prin permutarea anumitor linii, obţinem ca rezultat permutarea aceloraşi linii in A. în lucrul cu maşina de calcul, necesitatea permutărilor de linii în procesul de eliminare survine mai des decât la apariţia unor zerouri în poziţiile pivoţi­ lor. Cauza o găsim în ''rotunjirea.. numerelor. Fiecare maşină dispune de un sistem de înregistrare a numerelor reale numit. "virgulă mobilă", sistem care reţine ordinul de mărime al numărului, precum şi primele n cifre ale sale (n depinde de maşină). De exemplu, dacă n=3, atunci numerele 12,731 12731 1273,152 sunt reţinute de maşină sub formele 0,127 X 102 0,127 X 106 0,127 X 104 • Apar în acest fel erori, numite "de rotunjire", care în unele situaţii defavorabile conduc la o alterare gravă a rezultatului calculelor. Analizăm două astfel de cazuri apărute în rezolvarea unor sisteme liniare.

în

ExEMPLUL 1: Trebuie calculată soluţia

!n condipile !n care rotunjire.

sistemului liniar

tej~1 (;1 :::te~ 1: ti~~1sL obţinut

cu erori de

2 că în locul valorii corecte 2,01 ] s-a obţinut valoarea ro· tunjită l2,02 r 2 ]. Dar !n timp ce sistemul Ax= [2,012 are soluţia (exactă) x,=x =1, 2 sistemul Ax= r ] are soluţia exactă x =0,x =2. l2,02

Vom presupune astfel

2

1

'

2

§ (1) 4

8

Erorile se evaluează prin valori absolute şi (mai semnificativ) prin valori relative; spre exemplu b2 =2,02 conţine o eroare absolută de 0,01 şi o eroare relativă de 0,5%. Considerând drept soluţie corectă a problemei NOTĂ.

vectorul x=

~}cea obţinută în urma alterării lui b

de 100%. Este o valoare precizie scăzută. Fenomenul

inacceptabilă

chiar

şi

2,

in

va

conţine erori relative

condiţiile

unui calcul cu

urmărit se datorează caracteristicilor matricei .[11

1

1,01

]. Ea

"amplifică" exagerat de mult erorile conţinute în termenul liber b şi poartă, de aceea, numele de "prost condiţionată". În principiu, va trebui evitată rezolvarea, prin oricare metodă, a unor sisteme cu o astfel de matrice. EXEMPLUL2

Sistemul liniar

fără

condt:~::. ;]_ţJe:J!L

prin metoda Gauss nu are matricea prost permutări de ecuaţii. Înmulţind prima ecuaţie cu m21 =110.0001 =10', o scădem din a doua

ecuaţie

care devine -9999x2 = -9998.

că maşina pe care o avem în vedere reţine de mărime, ecuaţia va căpăta forma

Reamintindu-ne

cifre

şi

ordinul

numai primele- 3

-9990x2 = -9990, de unde x 2 =1. Substituind în prima ecuaţie valoarea astfel obţinută, găsim 0,0001x 1 +1=1, de unde x 1 =0. Soluţia corectă a sistemului dat este cu totul alta şi anume .

X1=

Dacă permutăm ecuaţiile Ia

înmulţirea trunchiată

~ 9999 '

X = 2

9998 (!). 9999

început

x 1+X2"'2 { 0,0001x1 +x2 =1 primeia cu m21 ""10-4 şi scăderea ei dintr-a doua, ne va coriduce la 0,9999x2 =0,9998,

de

maşină

la 0,999x,=0,999'

deci x 2 =1.

Substituind în prima ecuaţie, care de data aceasta este X 1 +X2 =2, =1. x deci găsim x 1 +1=2, 1 Comparaţi această nouă "soluţie de maşină cu cea adevărată. 11

RECOMANDĂRI. Metoda Gauss poate fi utilizată cu succes tn rezolvarea unei probleme pe maşina de calcul numai în cazul când matricea sistemului nu este

9

§ (1) 4

iar în cazul când este bine condiţionată, dacă pivoţii prea mici transformări/ar efectuate în procesul de eliminare nu sunt numere deziderat ultim Acest . (în modul!) în raport cu celelalte elemente ale matricei etape a fiecărei poate fi atins prin permutări de ecuaţii premergătoare l elementu adus este eliminării, permutări prin care, pe locul pivotulu i etapei, tul dedesub şi acesta cu de modul maxim printre cele aflate pe aceeaşi coloană

prost

condiţionată,

său. EXERCIŢIUL 1.4 a) Explicaţi de ce

este

consideră

~

o descompunere de forma

~o z]

o] rau a"]

. 1 pentru matricea A= 1 43 m211o a22 sistemul liniar

A= b) Se

imposibilă

]= [

10000 ]. 1 10000 ] [ x, [ 1 0,0001 1 x, ajutorul cu Soluţia" Gauss metoda prin ati (i) Determin 11

maşinii

care

reţine

primele trei cifre semnifica tive şi ordinul de mărime al fiecărui număr. (ii) Determin ati apoi soluţia exactă şi comparaţi-o cu cea găsită anterior.

(Permuta rea celor două ecuaţii ale sistemulu i nu imbunătăţeşte soluţia la punctul (i).) (iii) Multiplic ând prima ecuaţie cu 0,0001 se oţine sistemul echivalen t [

1 ][x1 0,0001 x, 00001 1

găsită

]=[ 11 ].

Determin aţi prin metoda Gauss cu'alegerea pivotului şi utilizând maşina de la punctul (i), "soluţia noului sistem. Comparaţi-o cu cea exactă. 11

de multiplicare a primei ecuaţii face parte dintr-un procedeu numit echilibr area sistemu lui care se adaugă procedeului de alegere a pivotului, în scopul de a îmbunătăţi precizia de calcul. REMARCĂ. Operaţia

§5. Descom punere a PA=LU În cazul procesului de eliminar e cu permutări de linii, matricea sistemu lui nu admite descomp unerea A=LU. Cu toate acestea, putem obţine o astfel de descompunere pentru matricea A'=PA obţinută din A prin permutările de linii. Aici P, numită matrice de permut are, se obţine din matricea unitate de acelaşi ordin cu A prin respectivele permutări de linii efectuat e în procesul de eliminar e. Aşadar vom avea A' =LU şi combinând cele două relaţii, PA=LU. Vom explica metoda practică prin care putem găsi - în urma efectuării procesului Gauss şi fără alte calcule suplime ntare - factorii P, L şi U din această descompunere. într-un algoritm de calcul bazat pe metoda Gauss, zerourile produse sub pivoţi, ca rezultat al trasfurmărilor procesului, nu se înregistrează în memoria maşinii (ar ocupa-o inutil!}. în locul fiecăruia din ele este înregistrat multiplicatorul utilizat la producerea sa. De exemplu, după prima etapă a procesului descris în §1, memoria maşinii va conţine în locul lui A, matricea

10

§ (1) 5

a 11

a;

m21

azz a~

[

2

1

mat Usz

":"]

a,, 1

iar după a doua etapă, matricea

r::: :~ ~]· l~,, m,. a.,

Izolarea multiplicat orilor de coeficienţii sistemului nu ridică probleme, ei aflându-se permanent sub diagonala matricei. În schimb, acest mod de lucru prezintă următorul avantaj: multiplicato rii utilizaţi în procesul de eliminare corespunzător matricei sunt aceiaşi cu cei utilizaţi în cazul matricei 1 căci transformările efectuate sunt aceleaşi - în schimb ordinea utilizării lor nu mai este, în general, aceeaşi. Factorul L din descompun erea A 1=LU va conţine exact multip!icat orii lui A, dar într-o ordine care diferă de ordinea utilizării lor în procesul de reducere a lui A. Cu toate acestea, triunghiul inferior al matricei păstrate în memorie redă fidel ordinea multiplicat orilor corespunzătoare procesului de reducere a lui A 1• Motivul? Asupra matricei păstrate în memorie se efectuează nu numai transformările Gauss, ci şi permutările de linii, ceea ce asigură repoziţionarea corespunzătoare a multiplicat orilor înregistraţi în ea.

A

A=PA,

CoNCLUZIE . Pentru a obţine descompun ereaPA=LU a unei matrice date A, efectuăm transformările procesului de eliminare asupra liniilor matricei A şi aşezăm în locul fiecărui zero produs (sub diagonală) multiplica torul

utilizat la producere a lui. Permutările necesare de linii le efectuăm, simultan, in matricea astfel obţinută şi in matricea unitate de ordin

corespunzător.

În final ajungem la o matrice din care extragem: - triunghiul inferior (fără diagonală) + diagonala unitară = L; - triunghiul superior(in clusiv diagonala) = U. Notând cu P matricea permutărilor, are loc relaţia:

IPA=LUI. (5.1)

EXEMPLU

Procesul de eliminare corespunzător matricei

A=[-: este

alcătuit

din

:2 :J

următoarele transformări:

11

§(1)5

~. r~ -o ~J ~, r~ -; ~J~ l~r~ 2

A

"'

l~

l~

o 5 m. Aici m32 =0, iar matricea de permutare P=P,.=

2

6

1

: 2] 0 5

r~l~ ~ o~J. 1

Dar observiim că

[3 -2 1] t1

PA= 9 O 5 0< m" 1 m31 m32 1 -643

]t3 -26 21]

= LU .

5

Cauza? Permutarea efectuată la pasul al tre1 ea modifică ordinea în care vor trebui utilizaţi multiplicatorii m21 şi m31 , atunci când în locul matric~i A vom lucra cu A'=P2aA. Noii multiplicatori vor fi m~ 1 =m 31 şi m~ 1 =m 21 , astfel încât ma~ tricea multiplicatorilor pentruA'=PA va fi

L'=lm~,

lr~

1

m~n m~ 1

Calculul poate fi aranjat ast el:

[-~

:2

1



-2 O 1

~J~ r:. ~2 ~]~ r:.. ~2 ~]~ r:" ~2 ~]

L 9

. 9 o 5 de unde extragem L=

=

6 2

l~"

o 5

l l [_~ lşi uJl ~ ~J.

r:"l~., o o l O

l~"

o 5

3

=

Jl 1

1

2

1

2

o

5

1

ExERCI'I'JUL 1.5

Urmând metoda descrisă in paragraf şi exemplul de mai sus, efectuaţi procesul de eliminare şi extrageţi descompunereaA=LU, respectiv PA=LU, pentru urmă­ toarele matrice: 1 -2 1

1l l2 -d

a)AJo

1 -2 1] [

b) A= -2 4 ~3, 7 -15 13

c) A=

-11

3 -6 3 -2 -1 1 . [ -2 4 o 2 o 3

practice pentru aplicarea metodei Gauss Metoda eliminării succesive a necunoscutelor este practică şi eficientă, de aceea larg utilizată în aplicaţii. Prezentăm, în continuare, modul de organizare a calculului. §6.

Indicaţii

12

§ (1) 6

6.1. Metoda Gauss

aplicată mai multor sisteme cu aceeaşi matrice. Utilizarea descompunerii LU Rezolvând două sau mai multe sisteme cu aceeaşi matrice şi termeni liberi diferiţi Ax=b, Ax=c etc, procesul de eliminare trebuie realizat o singură dată, căci transformările depind numai de coeficienţii matricei A. Pentru aceasta, aşezăm într-o singură matrice, întâi coloanele lui A, apoi pe b, c etc. asfel [Ai b1 c...]. Prin transformări efectuate asupra liniilor acestei matrice, aducem pe A la forma triunghiulară U. Matricea devine

[Ui b'l

c'...],

iar sistemele corespunzătoare Ux=b', Ux=c' etc., respectiv echivalente cu sistemele iniţiale, se rezolvă prin substituţii. Inversare a unei matrice (nesingulare) conduce la aplicarea acestei scheme de calcul. EXEMPLU

Fie A matrice 3 x 3. A-l va avea aceleaşi dimensiuni, iar coloanele sale - ce urmează a fi determinate - le notăm x, y, z. Deci

A- 1 =l:xlyizl

şi

A[x/yjz]=[e 1 Je2 Je3]

(prin e1,e2 ,e3 am notat coloanele matricei unitate de ordinul trei 1 ). 3 În baza exerciţiului 1.2.d,

A [xJ yJ z) = [Ax! AyJ Az), inversarea fiind echivalentă cu rezolvarea, în acest caz, a trei sisteme liniare cu aceeaşi matrice. Schema eficientă de calcul a coloanelor x, y, z va fi cea descrisă anterior. 1

NOTĂ. În anumite cazuri, deşi avem de rezolvat mai multe sisteme liniare cu aceeaşi matrice Ax=b, Ay=c etc, nu cunoaştem la început decât primul termen liber b, iar c urmează a fi determinat pe baza soluţiei x. Schema de calcul anterior descrisă nu mai funcţionează. Stocând în memoria maşinii descompun erea LUa matricei A, precum şi permutările efectuate în procesul de eliminare, am stocat de fapt transformările procesului Gauss care, depinc zând doar de coeficienţii matricei A, sunt aceleaşi pentru fiecare din sistemele date. Sistemelor LUy=Pc şi celelalte, li se vor aplica procedeul de determinar e a soluţiei descris în exerciţiul 1.3.b. EXERCIŢIUL 1.6.1

a) Aplicând o singură dată transformările procesului de eliminare Gauss, determinati soluţiile sistemelor Ax=b, Ay=c, unde

A=

[i ~ ~], [il·

Se arată că numărul noperaţiilor de pentru o matrice de ordinul n.

b=

maşină 11 ,

c= [:].

va fi în acest caz de (aproximativ) n3 ,

13

§ (1) 6

pe rezultatul exerciţiului 1.3.a, explicaţi de ce determinarea soluţiei sistemului Ax=b prin formula x=A -tb este neconvenabilă din punct de vedere al numărului operaţiilor de maşină cheltuite. b)

Bazându-vă

Varianta Gauss-Jordan a algoritmului de eliminare succesivă a necunoscutelor

6.2.

efectuate în cadrul metodei de eliminare Gauss, au ca scop de zerouri sub diagonala matricei sistemului (sistemul triunghiular obţinut rezolvându-se prin substituţii succesive). Varianta Gauss-Jordan constă din continuarea seriei de transformări pentru obţinerea de zerouri şi deasupra diagonalei. Iată, de pildă, cum continuă acest proces în cazul matricei A din exemplul5.1; reamintim că: Transformările

obţinerea

A-[; : !]4 4[: : :]-u Înmulţind linia a treia cu 2/5, respectiv 1/5, o scădem din a doua, respectiv

prima linie; apoi inmulţind linia a doua cu -2/6, o scădem din prima. Matricea A se va transforma într-una diagonală = matricea pivoţilor:

Sistemul Ax=b, devenit Ux=c, apoi Dx=d (prin transformările corespunză­ toare), se rezolvă în final prin trei împărţiri. Această variantă de calcul, combinată cu cea descrisă în §6.1 pentru determinarea coloanelor inversei, poartă denumirea de algoritmul GaussJordan de inversare a unei matrice. Iată desfăşurarea sa completă în cazul matricei A de mai sus:

3 (A 1]=[-6: ~ 1oo]

t3 -2 1

010--t ..........

1

o

9

3-2 --> [ 6

OI

5

oo1

~ ~

o

2

-3

o

5

2 1

-23 -3131]

o] [3

OI - ~ -Ţ 1 -->

6

1

6

2~

~

. -; 51 51 2 1 0 Împărţind liniile cu 3, 6 şi respectiv 5, rezultă sisteme echivalente cu

Ax=e1 ,Ay=e2 ,Az=e3 :

14

§ (1) 6

92

lx=

-~ 30

1

--1 '

[0]

ly-- - 15 :

2

,

9 _1

9

19

Iz= _1 ·,A · 1= - 30 6

1

5

-92

o

5

"'iif 6 1

2

5

5

o

EXERCIŢIUL 1.6.2

a)

Determinaţi,

pe baza algoritmului Gauss-Jordan, inversa matricei A=

1 r~ : _ 1].

la

6 1

b) Aplicaţi algoritmul Gauss.Jordan pentru determinarea inversei matricei sin-

1 1 gulare [_ - ] 1 1

şi constataţi ''blocarea" sa.

c) Justificaţi -

pe baza algoritmului Gauss.Jordan de inversare (!liră - următoarele proprietăţi: i) Inversa unei matrice diagonale este o matrice de acelaşi tip; ii) Inversa unei matrice superior (inferior) triunghiulare avind 1 pe diagonală este o matrice de acelaşi tip. permutări)

§7. Metoda diferenţelor finite Rezolvarea sistemelor liniare este doar o verigă

intermediară

in

găsirea

soluţiei unor probleme complexe pe care le ridică practica inginerească. Între

acestea, menţionăm problemele la limită, din care alegem următorul exemplu ilustrativ: (7.1) Să se determine funcţia u(x):[O,ll ~ R de două ori derivabilă şi care: (i) pentru fiecare xe [0,11 satis{ace ecuaţia diferenţială 2

_ d u = 1\x)

rJx2

(aici /{x):[O,ll

~It

(ii) verifică u(O) =0,

numele de

condiţii

este o funcţie cunoscută); u(l) =0; aceste condiţii la capetele intervalului poartă "la

limită".

Problema are drept necunoscută funcţia u(x), ceea ce înseamnă de fapt o infinitate de necunoscute ·valorile pe care u(x) le ia in intervalul [0,1). Determinarea unei soluţii impune reducerea la un număr finit de necunos-. cute, i.e. la o problemă finit dimensională, reducere ce se numeşte discre· tizare. Pentru a face discretizarea am ales metoda, larg întrebuinţată, a diferenţelor finite. Ea constă in înlocuirea necunoscutei u(x) prin vectorul n ·dimensional u1, ... ,u. al valorilor sale in n puncte distincte x1,x2, ... ,x.e(O,l).

15

§ (1) 7

Derivata

a•u se va c;lcula aproximativ

dx2

şi anume, presupunând

1 x, - x,_,=h (const.) pentru k=1,n+1 (aici x0 =0,x., 1 =1) unde h= - -

n+1

este

"pasul", vom aproxima u -Zu ' +u ,_, (cf. exerciţiului 1. 7). d 2u --1, Ij:riiap cu prima linie, aducem elementul apq în poziţia alq. Apoi, prin înmulţirea primei Unii cu a«~la 19 şi scăderea din linia î, anulăm toate elementele aîq (nenule) aflate sub

Ă_:_,coloane,

t~iq;

'",Pasul 3: Considerăm submatricea obţinută din A prin suprimarea primei linii şi a primelor q coloane (dacă este nevidă). Renotând-o cu A revenim la pasul 1. EXERCIŢIUL 1.10 a) Construiţi o matrice în scară 3x5 având pivoţii în coloanele 2, 3 şi 5. b) Considerând sistemele liniare Ax=b având, pe rând, ca matrice A, pe fiecare din matricele exemplelor 10.7 şi 10.8, iar termenul liber b, cu număr corespunzător de componente, determinaţi condiţiile pe care acestea să le satisfacă pentru compatibilitate. (Utilizaţi 10.2). Fixaţi parametrii de care depinde soluţia generală şi apoi determinaţi această soluţie generală descompunând-o după modelul descris în exemplul 10.1. c) Determinati descompunerea PA=LU a matricelor

o o

2

5

-1 -1 3

-6

5

-4 2 2 -5 14 -7 1 3 A, = 2 4 3 şi A2 = 6 -3 -1 6 -14 14 -2 1 5 -7 18 -1 4 2 1 -2 2 -3 4 -2 -4 12 -18 15 unică. Dar acceptând între transfereste nu matrice d) Forma în scară a unei mările prin care A este redusă la o formă în scară şi împărţirea unei linii la un număr (nenul), aşa cum am făcut-o în algoritmul Gauss-Jordan (§ 6.2), putem obţine o formă în scară canonică, care verifică, în plus faţă de condi2

ţiile (i) şi (ii), următoarele condiţii: (iii) toţi pivoţii sunt 1, şi

(iv) în coloana fiecărui pivot, celelalte elemente sunt nule. Forma în scară canonică a fiecărei matrice este unică. Adaptaţi algoritmul Gauss-Jordan pentru a obţine această formă pentru fiecare matriceA din exemplele 10.1 şi 10.7.

Chestiuni recapitulative 1) Pentru ce tip de matrice

pătrată

A sistemul Ax=b se rezolvă doar prin

substituţii?

2) Ce condiţie trebuie impusă acestei matrice pentru ca soluţia sistemului dat să existe şi să fie unică ?

26

3) Reprezentaţi matricea! unicul pas al procesului de eliminare succesivă pentru sistemul 2x2 nesingular Ax=b (presupunând a 11"0 ). 4) Care este numărul maxim al permutărilor de linii, necesare rezolvării unui sistem liniar 3x3 ? 5) În cazul matricei diferenţelor finite de ordinul al doilea, sistemul liniar corespunzător poate fi rezolvat, prin metoda Gauss, cu relativ puţine "operaţii de maşină". Evaluaţi acest număr în cazul nxn. 6) Fie A matrice 3x3. Verificaţi că produsul Ae1, e1 fiind prima coloană din / 3 , reprezintă prima coloană din A ş.a.m.d. Ce va reprezenta produsule[A etc.? Dar e,TAe1 , e,TAe2 etc.? 7) Descompuneţi sub forma

nală [~o ~].

simetrică

LDL r matricea

simetrică

tridiago-

: 2 1 8) În cazul unui sistem liniar mxn Ax=b ce relaţie, între m,n şi rangul r al matricei A, asigură compatibilitatea ? 9) Construiţi un astfel de sistem incompatibil pentru care m.":,_....

şi

c 2 eQ

şi

...Cn""O.

,i-':_;,

Î',; Aici O este vectorul nul al spaţiului, iar condiţia din definiţie 'i.ste ca "sin-

!!!lra

combinaţie liniară

(cu

aceşti

vectori) având ca rezultat vectorul nul



j~r combinaţia cu toţi coeficienţii nuli". În limbaj curent vom spune că ;;~ 1 ,v 2 , ••• v.

sunt liniar independenţi". Trebuie reţinut însă că aceasta este o proprietate a totalităţii şi nu a fiecăruia în parte. 1 ,, Pentru a demonstra liniar independenţa unei mulţimi de vectori este 1 ~uficient a demonstra implicaţia "='~" (reciproca fiind mereu adevărată). Opusă condiţiei de independenţă liniară este dependenţa liniară.

;(2.2)

DEFINIŢIE.

O relaţie de dependenţă v 1 ,v2, ••• ,u. este o relaţie de forma

liniară

!:

(peste K) între vectorii

elul +CzVz+ ... +cnun eO,

în care lc 1 l+lc2 !+ ... +1c.l ;tO (i.e. nutoţic,suntnuli). Are loc echivalenţa următoare (exerciţiu!) (2.3) COROLAR. Mulţimea {v 1,v2 , ••• ,v.} este liniar dependentă peste K (i.e. nu

este liniar independentă) {o> există o relaţie de dependenţă liniară, peste K, între vectorii săi. Urmează un rezultat extrem de util, ce se referă la orice matrice în scară U. (2.4) LEMĂ. Cele r linii nenule şi cele r coloane care conţin piuoţii lui U sunt

liniar independente. nu ridică probleme de principiu, ci de notaţie. Pentru clari·. tate, vom trata- cu titlu de exemplu - cazul următoarei matrice 3x5 în scară Demonstraţia

§ (2} 2

30

O a 12 a 13 [

a,. a 15]

O O a 23 a 24 a25 , unde a 12 ,a23 ,a35>'0

(pivoţi!).

0 0 0 0 a 35 a 1 ,a2 ,a3 liniile (transpuse) şi fie c1,c2,c3eK a.î. c1a 1 +c.a 2 +c3a 3 =05 • Trecând pe componente această egalitate vectorială, obţinem ci:rici egalităţi scalare; vom scrie pe a doua, a treia şi a cincea (corespuzătoare coloanelor cu pivot): Notăm

c1a12~0 ' cla1a+C:P2s=O ' clals+C:P2s+caaas=O Rezultă (verificaţi!)

c 1 =0,c2 =0,c3 =0 •

Lăsăm ca exerciţiu demonstrarea liniar independenţei coloanelor a II-a, a

III-a

şi

a V-a (cu pivot).

(2.5) OBSERVAŢIE. Pentru a stabili dependenţa sau independenţa liniară a

coloanelor v" ...v. din Km trebuie avute în vedere toate liniare c1v1 + ... +C11Vn cu ci.eK. Dacă

AeMm,n(K) este matricea avându-i pe

combinaţiile

v, drept coloane şi dacă notăm

prin c coloana coeficienţilor, atunci combinaţia liniară anterioară va lua forma Ac. Vectorii coloană vor fi liniari dependenţi dacă sistemul Ac=O are soluţie nenulă. Existenţa unei astfel de soluţii poate fi stabilită prin aducerea lui A

la o formă în scară U. Anume: dacă U conţine exact r=n linii nenule (pivoţi), atunci nu vor exista necunoscute secundare, singura soluţie fiind c =O., iar coloanele v, - liniar independente; dacă dimpotrivă r2 generato ri ai săi să puteţi extrage o bază. b) Justificaţi principiu l de completare în spaţiul K" construin d o metodă prin care rn'ffi_

"'?~~ţ2) 5 ~' .1) V este generat de o mulţime de coloane: v

35 1

, •••

,v. din Km. Vom utiliza

;~otaţia

V -{v 1, ••• ,v.l.

.,(5.1)

Un exemplu în acest sens îl oferă spaţiul S(A), al coloanelor matricei '.A,~[a 1 ...a.l, care va fi S(A)~{a 1 , ... ,a.l. 2) V este mulţimea tuturor coloanelor - soluţii ale unui sistem liniar şi lill:logen. în primul caz vom spune că avem de-a face cu o definiţie explicită a lui !(ţjiar într-a doua - cu o definiţie implicită. Acestor două căi le corespund itpoduri specifice de determinare a dimensiunii şi a bazei spaţiului respectiv {ţhestiuni ce alcătuiesc aşa numita problemă a "determinării spaţiului"). 'l'fatarea lor unitară este subiectul paragrafului de faţă şi în care vom presu,t!f!lle că A este o matrice mxn reală. Desigur, toate rezultatele obţinute cu · privire la matricele reale rămân adevărate şi pentru cele cu numere complexe.

§5.1.

Spaţiul

liniilor matricei A: S(A 1)

:/~;.Acesta este, prin defmiţie, subspaţiullui

R" generat de liniile matricei A.

,~trucât ele sunt coloanele lui A T, vom nota subspaţiul liniilor cu S(A 1), el :[~Wld tot un spaţiu de coloane. Rezultă

(vezi ex. 2.5.1.b) S(A ')~{yeR" l3xe1Rm:y~A Tx]. (5.2) LEMĂ. Spaţiul liniilor matricei A coincide cu spaţiul liniilor oricărei f.s. a matricei A. [)emonstraţie: Vom arăta că fiecare operaţie elementară, prin care se l!junge la forma în scară, nu modifică spaţiul liniilor. Notând cu l 1, •• ,l,,.. ,li, .. ,lm liniile (transpuse) ale lui A, considerăm transformarea lor în ,l,,.. ,l;-al,, .. ,lm. Fiecare din vectorii celui de al doilea sistem este combinaţie liniară de vectorii primului şi reciproc, deoarece zi~al,+(li-al). Cf. exerciţiului 2.3.e, cele două sisteme generează acelaşi spaţiu vectorial (sunt ~cbivalente). Arătaţi că sunt echivalente şi sistemele ce se obţin, unul din l;elălalt, prin permutarea vectorilor.

z,, ..

dimS(A T)~dim S(U'). 2) r(A ')~r(UT). 3) O bază (comună) a spaţiilor S(A ') şi SCU') este alcătu­ ită din liniile nenule (transpuse) din U. 1) şi 3) rezultă direct din 2.4 şi 5.2. Notăm r(A)~dimS(A) şi îl numim rangul pe coloane al matricei A. Similar r(A TJ~dim S(A 1) se va numi rangul pe linii al matricei A. Din 1) rezultă 2). (5.3) COROLAR.

1)

§ (2) 5

36 EXERCIŢIUL

2.5.1

a) Arătaţi că sunt echivalente şi sistemele de vectori obţinute unul din celălalt prin multiplicarea unui vector cu un număr nenul. Deduceţi că spaţiul liniilor matricei A coincide cu spaţiul liniilor formei sale canonice în scară {cf. exerciţiului l.lO.d). b) Explicaţi de ce: ye::l(A ')3xelll.m:y=ATx.

§5.2. Nucleul matricei A: N(A) Nucleul matricei A se mai numeşte spaţiul nul al matricei A şi este alcă­ tuit din toate soluţiile sistemului liniar omogen cu matricea A. Se notează N(A) - alteori Ker(A) - aşa încât N(A)={x elR." !Ax=O m}. Este un subspaţiu al lui JR" (exerciţiul 2.5.2.a). Deoarece sistemele Ax=O şi Ux=O, unde U este o f.s. a lui A, sunt echivalente, rezultă N(A)=N(U).

(5.4) Această mulţime

de vectori din lR" -

numită soluţie generală omogenă

((1).10.3)- este generată de n-r vectori, r fiind numărul pivoţilor (i.e. rangul) lui U- sistemul fundamental de soluţii al sistemului omogen. Fiind un

sistem de generatori ai nucleului 2.2.c),

şi totodată

liniar

independenţi (exerciţul

(5.5) vectorii sistemului fundamental alcătuiesc o bază în N(A) (şi în N(U) ). Aşadar

dimN(A)=dimN(U)= n-r.

(5.6) EXERCIŢIUL

a)

2.5.2

Arătaţi că

b) Z(A ') şi

N(A) este un

spaţiu

vectorial.

N(A) sunt subspaţii ale lui

][!.".

Arătaţi că dimZ(A "l+dimN(A)=dim lll.".

c) Dacă produsul AB are sens, arătaţi că N(B)C:: N(AB). Arătaţi că dacă A are coloanele liniar independente, atunci N(AB)C:: N(B), deci egalitatea.

§5.3. ·Spaţiul coloa,nelor matricei A: ~(A)

Fie A=[a, 1 !a, 2 ...a.l şi ~(A)-{a 1 ,a 2 , .. ,a.). Cu privire la notaţia acestui subspaţiu precizăm că: dându-se o aplicaţie f: E - t F, se numeşte imagine a lui f şi se notează ~({) submulţimea fyeF !3xeE:y=ft:x)} . că matricea A defineşte o aplicaţie liniară spune Anticipând, vom fA: JR" - t JR.m prin

37

y~{A(x)~Ax~[a 1 fa 2 ••• a.l

x, x, ;

~x 1a 1 +x,a 2 + ... +x"a".

xn Deci '5(/A) va fi mulţimea tuturor combinaţiilor liniare ale coloanelor din A: U o formă în scară a matricei A. Spre deosebire de spaţiul liniilor, se ca '5(A);t':J(U) (exerciţiul 2.5.3.a). Vom pune în evidenţă legătura (~iciscte11tă între coloanele celor două matrice:

LEMA. O mulţime de coloane din A este liniar independentă d.n.d. mulţimea coloanelor corespunzătoare din U este liniar indepen· dentă. (Corespunzătoare fiind coloanele cu aceeaşi poziţie în cele două matrice.) .Demonstraţie:

Rescriind echivalenta sistemelor

Ax~O şi Ux~O

x 1a 1 + ... +xnan""O {::} x 1u 1 + ... +xnun""O

sub forma (1)

u1, ••• ,u. reprezintă coloanele lui U), pe baza definiţiei 2.2 putem afirma "există o relaţie de dependenţă liniară între coloanele lui A d.n.d. «aceeaşi» (i.e. cu aceeaşi coeficienţi) relaţie există între coloanele lui U''.

(2)

Făcând

în (1) anumiţi x,~o, deducem că (2) este valabilă pentru orice l!llbmulţinle a mulţimii coloanelor lui A. Cf.2.3, aceasta implică Ierna •

ii;S COROLAR.

1) dim'5(A)~dim'5(U). 2) r(A)~r(U).

3) O bază în '5(A) se obţine alegând coloanele lui A corespunzătoare coloanelor cu pivot din U. 1) este o consecinţă a lemei şi a exprimării dimensiunii unui spaţiu ca !1Utllăr maxim de vectori liniar independenţi ai spaţiului. 2) este exprimarea lui 1) cu ajutorul rangului pe coloane al celor două matrice. i , 3) ,Am remarcat în 3.8.2, că această regulă de alegere a bazei funcţionează pentru '5(U). Coloanele din A corespunzătoare acestor coloane vor fi, cf.lemei, 'liniar independente şi în număr egal cu dim':J(A), cf. 1). În virtutea lui 4.5 ele formează o bază în '5(A). • ,Revenim la forma în scară p~

["'o o.

"]

d, * '

o o o o

§ (2) 5

38

având doi pivoţi, deci două linii nenule, iar baza în spaţiul coloanelor alcă­ tuită din I-a şi a III-a coloană. Această proprietate a unei matrice în scară de a avea numărul liniilor cu pivot egal cu al coloanelor cu pivot, are drept consecinţă egalitatea: dimS(UT)=dimS(U)

(care a fost stabilită prin compararea ambelor dimensiuni cu ţilor lui U). Cf. 5.3 şi 5.8 rezultă

numărul

pivo-

dimS(A T)=dim S(UT)=dim S(U)=dim S(A), adică

1 dimS(A T)=dimS(A) 1

pentru orice A. Acest rezultat important, din algebra liniară, se exprimă de obicei sub forma: rangul pe linii = rangul pe coloane, valoarea lor comună numindu-se rang. 2.5.3. de ce, în cazul matricei A elin (1).10.1: S(A)>'S(U), deci ar fi greşit să alegem ca bază în S(A) coloanele cu pivot elin U. Alegeţi corect baza acestul

EXERCITWL

a) Explicaţi spaţiu.

b) Arătaţi că, dacă

produsul AB are sens, atunci

S(AB)C:: S(A) şi deduceţi

de

respectiv în care să se rans orme îo egalitate (a se vedea ex. 2.5.2.c). Deduceţi elin ex.2.5.2.c că are Joc şi inegalitatea 1 r(AB)Sr(B) 1·

strictă,

c)

5.4. Nucleul stâng al matricei A:I'i!(A T)

Este spaţiul tuturor soluţiilor sistemului A Ty=O deci subspaţiu al lui J(l.m. Denumirea sa provine din faptul că, transpunând relaţia de definiţie: yTA=OT; vectorul y care o satisface, va purta numele de vectornulla stânga pentru A Aplicând rezultatele din §5.2 rezultă dimN(AT)=m-r,

o bază pentru nucleul stâng fiind alcătuită din cele m-r soluţii particulare ale sistemului fundamental de soluţii pentru A T y =O. OBSERVAŢIE.

Cunoscând descompunerea PA=LU, putem determina o bază

în I'i!(A T) astfel: rescriem descompunerea sub forma (L-'PJA=U şi notând y[. ..y:; liniile matricei L -lp, egalitatea matriceală se va transforma în m egalităţi de linii; scriem doar pe ultimele m-r

y,~1 A=OT, .. .y::A =OT.

39

(Membrii drepţi sunt liniile nule din U.) Aşadar y,:, ...y!eN(A '). Ca submulţime a sistemului liuiar independent de liuii ale matricei nesinguL -•p, ei sunt liuiar independenţi (exerciţiul 2.2.b) şi în număr egal cu âin~N~A '); cf. 4.5, ei alcătuiesc o bază pentru nucleul stâng. EXERCIŢIUL

2.5.4 cele 4 subspaj:ii fundamentale corespunzătoare matricei A din exemplele (1).10.1, (1).10.7, (1).10.8. b) O matrice mxn de rang r=l are întotdeauna forma A""UV Tunde, în cazul real, uER.m şi velln. Ce dimensiuni vor avea în acest caz cele 4 subspaţii fundamentale ? Determinati-le câte o bază. a) Determinaţi

c) O matrice mxn de rang r admite intotdeauna descompunerea A=L U, undeL este mxr, iar U este rxn, ambele fiind de rang r (cf. anexei C). Cum rezultă de aici că 5(A)=5(V şi N(A)=N{Ul ? Indicaţie. Utilizaţi exerciţiile 2.5.3.b şi 2.5.2.c. d) Din incluziunile 5(AB)C::5(A) şi N(B)C::N(AB) (exerciţiile 2.5.3.b şi 2.5.2.c), cu ajutorul transpunerii, rezultă S((AB)')C:: S(B ') şi N(A ') V 1 este liniară dacă pentru \fv,we V şi ·\faeK: (1)

f(v+w)~f(v)+f(w);

(2) f(av)~af(v). Atenţie! Dacă pe V sau V' nu sunt definite structuri de spaţii vectoriale peste

acelaşi K, atunci nu se poate vorbi despre vreo aplicaţie liniard tntre V şi V'. (Ş.2) OBSERVAŢIE.

într-una

Cele

două proprietăţi

ale

liniarităţii

pot fi formulate

singură

\f a,f3 eK, \fv,weV: f(av+f3w)~af(v)+f3f(w). (6.3) PROPRIETATE Dacd V, V 1, V'' sunt spaţii vectoriale peste acelaşi corp de scalari, iar fV--> V' şig:V1 --> V 11 sunt aplicaţii liniare, atunci aplicaţia compusă gf:V --> V 11 (definită pentru vEV prin (g•{)(v)~g(f(v)) este liniară.

§ (2) 6

40 Demonstraţia: exerciţiu!

Fiecărei aplicaţii

liniare f:V -7 V' i se

ataşează două subspaţii:

nucleul

şi

imaginea. (6.4) Nucleul, notat N(fJ, este definit prin N(fJ={veVIf\v)=01 ( O'=vectorul nul din V'). notată

(6.5) Imaginea,

'J(fJ, este

(6.6) PROPRIETATE. N(fJC::V

şi

definită

prin 'J(fJ=(v 1eV'I3veV:f\v)=v1.

'J(fJC:: V'.

Pentru a demonstra o relaţie de tipul Se V trebuie arătat că 'dx,yeS, Va,f3eK:ax+f3yeS. În cazul de faţă, dacă v,weN(fJ şi a,l3eK, trebuie arătat că av+f3weN(fJ. Cf. definiţiei 6.4. aceasta revine la a arăta că f(v)=/(w)=O' şi a,f3eK implică f\av+f3w)=0 1• Pe de altă parte, datorită liniarităţii lui f, f\av + f3w)=af\v) +131\w)=aO' +130'=0'. • Demonstraţie:

Demonstraţi

'J(fJC:: V'.

o aplicaţie f:E-7F este injectivă d.n.d. 'fx,yeE:f(x) =/'(y )x=y şi este surjectivă d.n.d. \fyeF 3xeE:f(x)=y sau, cum se mai scrie, dacă 1\E)=F. Pentru o aplicaţie liniară condiţia de injectivitate devine: Reamintim



(6. 7) CRITERIU. Aplicaţia liniară f: V -7 V' este injectivă dacă şi numai dacă N(fJ={O}. Demonstraţie: Echivalenta din definiţia injectivitătii poate fi · rescrisă, datorită liniarităţii lui {, sub forma f\x-y)=O'x-y=O, sau notândx-y=z: f(z)=0 1z=0. Cf. definiţiei 6.4 aceasta înseamnă N(fJ={Ol . • Definiţia 6.5 ne permite să scriem, pentru acelaşi f, echivalenta (6.8) f este

surjectivă

'J(fJ= V'

(6.9) DEFINI'fiE. O aplicaţie

se

numeşte

(explicaţi

liniară

!).

f: V -7 V' care este injectivă şi surjectivă

izomorfism între cele

două spaţii

vectoriale.

vectoriale peste acelaşi corp de scalari se numesc izomorfe dacă între ele există un izomorfism. (6.ll)Mentionăm că dacă f este un izomorfism între V şi V', atunci au loc (6.10)DEFINIŢIE. Două spaţii

implicaţiile:

1) v,, ... ,v. sunt liniar independenţi în independenţi în V'.

V =>1\v,), ... ,{(v.) sunt liniar

41

2) v 1, ... v. sunt generatori pentru V =>f(v 1), ••• ,/(v.) sunt generatori pentru V'. 3) (v 1, ••• ,v.) este o bază pentru V =>(f(v 1), ••• ,/(v.)) este o bază pentru V'. 4) dimV~dimV'.

Putem spune, pe scurt, că un izomorfism păstrează toate proprietăţile allgE•bric•e, deci, din acest p.d.v., V şi V' trebuie considerate ca spaţii identice. a Urmează un rezultat ce explică, în lumina acestor fapte, identitate şi K, algebrică între orice spaţiu vectorial de dimensiu ne n, cu scalari din spaţiul

K".

V este un spaţiu vectorial cu scalari din K, dimV=n şi B=(v" ... ,v.) este o bază a sa, atunci aplicaţia (cf. 3.6) [•la: V_, K" este un izomorfi sm. TEOREMA DE 1:1:0MORFISM: Dacă

Demonstraţie:

Reaminti m

vin bazaB. Cf.3.4, aceasta

defineşte



prin [v la am notat coloana coordonatelor lui

o aplicaţie [•la:V-7 K".

este: liniară, injectivă, su:tjectivă. Liniariatea: Dacă [vla=x, [wla~Y. [v+wla=Z,

Arătăm că

rezultă-

cf.

definiţiei

lui [•la -

.că n

v=

i,.1

de unde

n

n

1.. 1

i.,l

E xivi,w= LYtVpV+W=L zivi'

n

n

î-l

i"'l

L (x1 +y)v,~v+w=L z,v,

şi,

cf unicităţii coordonatelor în baza B:

Xi+Yi""Zi,i=r,iî_.

x+y=z sau [vl 8 +[wl 8 ~[v+wl 8 . Similar se arată că pentru orice aEK,vEV a[vla=[avla·

Adică

n

n

Injectivitatea: Dacă [vla~O, atunci v=EOv,~Eov~Ov; aşadar N([•l 8 HOvl· iml

i..,l

n

Surjectivitatea: Dacă xEK" şi construim v=Ex,v, va rezulta că [vla ~x • j .. l

(6.13) COMENTARIU. Cf. teoremei de izomorfism, din p.d.v. algebric, putem identific a vectorii oricărui spaţiu de dimensiu ne n peste K, prin coloanel e lor de coordon ate, într-o bază fixată. Astfel, ori de câte ori se cer rezolvate probleme de natură algerică, cum ar fi: determin area unor spaţii, a unor baze, studiul liniar dependenţei sau independenţei unor sisteme de vectori, etc., le putem reduce la probleme similare referitoar e la aceste coloane. (Algoritmii corespunzători pentru K" au fost descrişi în §5).

42

§ (2) 6 EXERCIŢIUL

2.6 izomorfismul [ • ]8 dat de teorema 6.12 în cazurile V=M,_,(R) şi V=:R3 [X], bazele corespunzătoare fiind cele din exerciţiul 2.3.(b) şi (c). b) Deduceţi algoritmi corespunzători pentru a studia proprietăţile algebrice ale vectorilor matrice şi respectiv, polinoame. c) Precizaţi dacă următorul sistem de vectori a) Construiţi

[~ ~ ~l [~ ~ ~]. [~ ~ ~l [~ ~ ~]. [~ ~ ~]. [~ ~ ~]. [~ ~ ~]

este sistem de generatori pentru M 3,2(:R)

şi

in caz afirmativ,

extrageţi

bază.

d)

Aceeaşi

din el o

pentru vectorii din K3 [XJ: X 3 :+2X2 +X-1, 3X 3 +X 2 +X,2X 3 -X 2 + 1, 3X 3 +X+ 1 ,X3 +X+2 ~

§7. Matricea ca

aplicaţie liniară şi aplicaţia liniară

7.1. Matricea ca aplicaţie

ca matrice

liniară

Dacă

AeMm.(K) atunci aplicaţia fA(x)~Ax va transform a vectorii luiK" în vectori din K m • Au loc următoarele relaţii (explicaţi!): (7.1)

N(j'A)~N(A) ,

(7,2)

3(/'A)='.l(A ).

Aşezăm

pe două coloane, pentru comparaţie, vitatea, respectiv smjectivi atea, aplicaţiei fA: (7.3)

f.

este

injectivă

fA este

condiţii

echivalen te cu injecti-

smjectivă

(1) N(A)~[O.l (cf. 6.7);

(11) Z(A)~Km;

(2)

(21) r(A)~m (cf. 5.8).

r(A)~n

Aşadar

f.

(cf. 5.6);

este un

~zomorfism

atunci când n ~r(A)~m,

adică există

A -• a.î.

A·'A~I~AA·'.

De remarcat că existenţa unei inverse la stânga, respectiv la dreapta, pentru A sunt condiţii ce pot fi aşezate în coloana stângă şi respectiv dreaptă - deci echivalen te cu injectivita tea, respectiv surjectivi tatea aplicaţiei fA: (3) (3)BeM.,m(K) (31) (3)CeMn,m(K) a.î. BA~I.; Evident că în acest caz m$n şi resp.m~n (egalitate a având loc în cazul nesingnla r). Altă formă a aceloraşi proprietăţi este: VbeKm sistemul liniar Ax~b are (4) cel mult (41) cel puţin o soluţie o soluţie

43

7 ExERCIŢIUL

2.7.1

construind matricele B şi respectiv C cu respectiv AA T care, cf. (3).3.4, sunt nesingulare.

a) Demonstraţi (2)=>(3) şi (2')=>(3\

'liutorul matricelor ATA

şi

b) Demonstraţi implicaţiile (3)=>(4) şi (3')=;(4').

utilizând în primul caz matricea B, că două eventuale soluţii trebuie să coincidă şi construiţi, utilizând în al doilea caz matricea C, o astfel de soluţie. c) Demonstraţi că (4)=>(1) şi (4')=>(f). Indicaţie: Utilizaţi (1).10.3 şi respectiv (1).10.6.

Indicaţie: Arătaţi,

7.2. Am

Aplicaţia liniară

ca matrice

orice aplicaţie fA este liniară. Reciproc însă, orice aplicaţie f: V~ V' este de acest tip? Răspunsul este afirmativ, dar necesită

văzut că

liniară

anumite

precizări.

(7.4) Cazul V=K" şi V'=Km. În acest caz, dacă A este matricea mxn ale cărei coloane sunt vectorii f..e 1), ••• /(e.) - imaginile prin f ale coloanelor matricei I. - atunci pentru orice

xeK": f..x)=Ax={ix). Ceea ce rezultă din descompun erea x=x 1e1 +... +x.e., liniaritatea lui f faptul că A=fl\e,)l ... lf..e.)] (explicaţi!). (7.5) EXEMPLU Rotaţia vectorilor planului în jurul originii, în sens direct trigonometric, cu un~ ghiul 9, este o aplicaţie pe care o notăm r6 : R2 ~ ~2 • Liniaritatea sa este consecinţa unor proprietăţi geometrice simple. Justificaţi, pe baza figurii, r 6(v+w)=r6(v)+r6(w). Construiţi o figură pentru a demonstra egalitatea r,(av)=ar,(v) . Ca urmare a cc:Ior anterior discutate, există

o matrice 2x2, o vom nota R6 , a.î. pentru orice v=(vx,v)T: r 6(v)=Ra.·v; anume R,=[r9(e 1)lr,(e2)].

Coloanele sale sunt

R, = [ De unde tatea:

(priviţi

figura!)

:=: ~:~:e ].

rezultă,

între altele, proprie-

(7.6) Coordonate le u,,vY ale unui vector din plan se transformă, la rotirea acestuia cu unghiul O - in sens trigonometr ic - respectiv in v,cosO-uysinO şi v,sinO+v>cosO.

şi

44

§ (2) 7

(7. 7) EXEMPLU

În spaţiul tridimensional R' considerăm planele V şi V' şi aplicaţia p ce transformă vectorii din V în proiecţiile lor paralele cu o direcţie fixată, pe planul V' (vezi figura). Deoarece, prin proiecţie, un paralelogram se transformă într-un paralelogram, p verifică 6.1.(1), iar 6.1.(2) este consecinţa teoremei fundamentale a asemănării. Aşadar p este liniară.

Dar, deşi transformă vectori tridimensionali în vectori tridimensionali, matricea P, care o reprezintă, trebuie să fie 2x2, căci n=dim V=2 şi m=dim V 1=2. Ceea ce face imposibilă o egalitate de forma p(x)=Px (!) În acest caz semnificaţia lui P va fi mediată de alegerea a două baze B şi B', !n V şi respectiv V 1 şi exprimarea vectorilor prin coloanele lor de coordonate în

aceste baze. Dacă B=(v 1 ,v 2 ) şi B'=(v;,v;), vom construi P=fp 1 lp 2], unde p 1 =[u 1] 8 , şi p =[v ] " 2 28 Deci \tuEV a.î, [u] 8 =(x 1 ,x2Y=x, rezultă fp(u )]8 , =fp(x1v 1+x2v2 )]8 , =[x 1p(v 1 )+x,p(v 2 )]8 , = x,p 1 +x,p 2 =P[u ]8 , (7.8) CONCLUZII ( 1) In general, oricărei aplicaţii linia re f: V--> V' îi corespunde, într-o pereche de baze B şi respectiv B 1, o matrice AEMm,,/IO (m=dim V',n=dim V) ce verifică: \tvEV: [ftv)] 8 ,=A[v]8 • (2) Coloanele matricei A sunt [w 1] 8 ,, ... ,[wni8 ,, unde w 1 , ••••w reprezintă imaginile 11 vectorilor bazei B prin f:

EXERCIŢIUL

2.7.2

a) Determinaţi regula de transformare a coordonatelor ortogonale vx,vy,vz ale unui vector veR.3 la rotirea acestuia cu unghiul e în jurul axei Oz. b) Compunerea aplicaţiilor liniare şi produsnl de matrice. Se consideră aplicaţiile liniare fc :K• __, KP şi KP-'> Km" Cf. 6.3, aplicaţiaf.ofc: K" ->K" defiultă prin (f8 ofcl(x)=f.(fc(x)) este şi ea liniară, deci cf. 7.4 există A E M m,n (10 a.!. fsofc =fA. Arătaţi că A =B C, c) Legea de schimbare a matricei unei aplicaţii la schimbarea bazei. Concluzia 7,8.(2), aplicată în cazul particular al bazelor canonice pentru V=K" şi V'=Km conduce la matricea A=[fte 1) 1", 1/\e,)] (cf.7.4). Dacă în locul acestora se află bazele B şi respectiv B, matricea corespu_nzătoare, A 1, are coloanele [w)B'· Cf, anexei A, dacă S şi S' sunt matricele de trecere de la bazele canonice ale celor două spaţii, la B şi respectiv B 1, atunci \lxEK":x=Slx]8 ~i \tyEKm :y=S'(y]8 ,. (i) Justificaţi, plectnd de la aceste relaţii, legătura S'A'=AS ce există Intre cele două matrice A şi A' asociate lui f. (ii) Ce devine ea !n cazul n=m şi B=B'?

r.:

45

§ (2) 8

§8. Suma

şi intersecţia

de

subspaţii

8.1. Suma de subspaţii reprezintă o colecţie de mulţimi între care vectorial Subspaţiile unui Dar în timp ce intersecţiile de subspaţii reuniuni. şi putem efectua intersecţii nu sunt, decât în mod excepţional. reuniunile sunt, la rândul lor, subspaţii, operaţie: suma de subspaţii. nouă o locul Drept urmare, reuniunii îi va lua Vom plasa, ca de obicei, discuţia în spaţiul K •, unde V şi W vor fi subspaţii. spaţiu

(8.1) DEFINIŢIE. Mulţimea vectorilor lui K" având forma v+w cu v EV şi

wEW se

numeşte

suma subspaţiilor V

şi

W. Ea se

notează

V+ W.

(8.2) PROPRIETA TE. Dacă V,WC:K", atunci V+WCK". Demonstraţie: Dacă

x 1EV + W (i=1,2), atunci

există

x,=v1+w1 (i=1,2). Deci x 1 +x 2 =(v 1 +W 1 )+(v 2 +w 2 )=(v 1 +V 2)+(w 1 +w 2)E V+ W. Dacă xEV+W, atunci x=v+w,vEV ,wEW, iar pentru a ax=a(v+w )=av +aw E V+ W. Explicaţi neviditatea mulţimii V+ W! •

v 1EV

E

şi

w 1E W a.î.

K:

(8.3) EXEMPLE 3 1) Fie V şi W subspaţii de dimensiune 1 ale lui JR (adică drepte prin origine).

V;

·K"=VEDW. Această relaţie poartă directă

a

subspaţii!or

V

numele de "descompunere a W' şi înseamnă că:

spaţiului (K")

în suma

şi

orice vector xeK" se descompune unic sub forma x = v+w, cu ve V

şi

WEW.

(A se vedea exemplele 8.3.2 (8.13)

şi

8.3.3.)

DEFINIŢm: Jn general, dacă V,, ... ,VP cK" au proprietatea că:

pentru fiecare xeK"

există şi

sunt unici vectorii v,eV, (i=I;ji) a.î.

X""V 1+ ... +VP,

atunci vom spune că "spaţiul K" s-a descompus în suma directă a subspaţiilor V,, ... ,V;' şi vom simboliza aceasta prin K"=V, $ ...$ VP. Menţionăm că şi în acest caz are loc relaţia între dimensiuni n=dim V, +... +dimVP. (8.14) OBSERVAŢm. Am văzut că relaţia 8.12 are loc atunci cândVnW=(O} şi dim V +dim W =n. În cazul descompunerii în mai multe subspaţii, condiţiile asupra dimensiunilor acestor subspaţii, echivalente definţiei 8.13, sunt mai complicate şi nu le vom expune. EXERCIŢIUL 2.8.3.

a) Determinaţi cele trei descompuneri ale spaţiului R3 în suma directă de câte două subspaţii generate de coloaoele matricei / 3 • Câte descompuneri ale lui lt3 în sumă directă de trei subspaţii generate de aceleaşi coloane există ? b) Când A=[a 1...a"] are rangul n atunci orice xe5(A) se descompune unic (de ce?) în suma x=a 1a 1 + ... +a"a. , deci 5(A)=5(a 1)GL.E95(a"). De ce luând

§ (2) 8

50 rezultă

$(A)=V, $V,,

luând rezultă

$(A)= V1 $V,$ V3 etc ? c) Plecând de la exerciţiul precededent determina ţi toate descompunerile lui 11.4 în sume directe de subspaţii generate de coloane ale matricei I,.

Chestiuni recapitulative 1) Există spaţii vectoriale (reale) cu un număr finit de vectori ? 2) Câţi vectori conţine un spaţiu de dimensiune 1 ?

3) Figuraţi geometric doi, respectiv trei, vectori din 11!.3 liniar independenţi. Pot exista patru astfel de vectori ? 4) Determinaţi o bază în subspaţiul format din vectorii lui 11!.3 care au cele trei componente egale între ele. 5) De ce polinoame aveţi nevoie pentru a genera toate polinoamele cu coeficienţi reali? 6) Există vreo aplicaţie liniară care să transforme vectorii

(1,0)T,(0,1)T,(1,1)T, respectiv în

(0,1JT,(l,Q)T,(2,2)T ? 7) În 11!.3 , intersecţia a două subspaţii bi.dimensionale (plane) are cel puţin

dimensiunea 1. Explicaţi faptul utilizând legea modulară. 8) Cum se va generaliza proprietatea precedentă la cazul a două subspaţii din Il!." ? 9) Precizaţi care din următoarele afirmaţii sunt adevărate şi care sunt false (găsind în al doilea caz şi câte un contraexemplu): (i) Dacă u1, •• ,u.eV genereză V, atunci dimV=n. (ii) Dacă dimV=n, atunci există vectorii u1, ••• ,v.eV care generează V. (iii) Dacă AeM.(Il!.), atunci r(A)=r(A 2 ). (iv) Dacă AeM.(II!.) şi r(A)~n, atunci r(A')~n.

Capitolul3

GEOMETRIA SPAŢIULUI JR." Proprietăţile studiate !n capitolul 2 se referă la aşa numita "structură a spaţiilor vectoriale, dar nu epuizează fondul problemelor ridicate de rezolvarea sistemelor liniare. Vom dezvolta acum metode noi prin generalizarea, de la 11.2 şi 11.3 - a noţiunilor de distaoţă şi unghi - la spaţiulJR"; instrumentul aces· tei generalizări este produsul scalar, iar relaţia- cheie este cea de ortogonalitate (§1). Generalizată la subspaţii, aceasta conduce la precizarea relaţiilor geometrice existente intre subspaţiile fundamentale ale unei matrice (§2). Se creează astfel cadrul teoretic necesar descrierii geometrice a acţiunii pe care această matrice o are - prin !nmulţire - asupra vectorilor din JR" (§3). Suportul teoretic construit permite o abordare complet nouă a problemei "rezol~ vării'' sistemelor liniare printr·o metodă de esenţă geometrică - a celor mai mici pătrate (§4). În descrierea acesteia un rol important îl joacă matricele de proiecţie şi cele ortogonale (§5). Reducerea la cazul ortogonal este o metodă frecvent aplicată în calcul,anume prin procedeul Gram-Schmidt(§6). Teoretic, fonna cea mai generală de 11rezolvare", prin medoda c.m.m.p, a unui sistem liniar o constituie trecerea la pseudoinversa matricei sale (§7).

Rezumat. algebrică"

11

11

§ 1. Produs scalar şi ortogonalitate

În plan şi spaţiu noţiunile de: lungime a unui vector şi unghi între doi VE>CU)ri au conţinut geometric intuitiv. Spre a determina formule cât mai simple de calcul, raportăm vectorii la un sistem ortogonal de axe. în plan (]R2 ), x~(x 1 ,x2 )T va avea lungimea x,

lxn~Jx: +xi , iar în spaţiu (R3), x~(x 1 ,x2 ,x3)T va avea

x,

lungimea lxR~Jx;+x;+xi (vezi figura). Generalizând, în spaţiul R" raportat la axele de versori e1, ... ,e", lungimea vectorului x este

llxU~Jx;+ ... +x! Iată

prima

consecinţă,

pe cât de

simplă,

pe atât de

(1) importantă,

a acestei

formule (1.1) Uxll ~o =} x~O" (reciproca fiind evidentă). Pentru a determina o formulă pentru calculul unghiului între doi vectori necoliniari (liniar independenţi), x şi y, considerăm "planul" determinat de ei şi în acest plan "triunghiul" având drept "laturi" pe x, y şi x-y. Scriind teorema lui Pitagora generalizată

§ (3) 1

52

şi

2 lx -yll 2 ~ ixll 2 + 1lY 1 - 2ixllllYIIcosS utilizând expresia (1) pentru lungime, un calcul simplu ne va conduce la

(1.2) cos8- x,y,+ ... +X,.Y". llxlllYII Întrucât nu am demonstrat teorema lui Pitagora în 11.", ci am luat-o ca ipoteză (deducând din ea 1.2), pentru a arăta că o astfel de ipoteză este plauzibilă, trebuie arătat că expresia

1.2) este un număr cuprins între -1

şi

T

2L (i.e. membrul drept al formulei llxllllJtll

1, i.e.

txTyl5lxllllYII. Este un caz special al inegalităţii lui Schwarz (ex. 3.l.c). Ea se transformă în egalitate exact atunci când x şi y sunt coliniari (ex. 3.1.e), adică8~0 sau 8~1t. Alt caz particular important de unghi 8 este cazul ortogonal: 8~n/2 (i.e. cos8 =0) şi el conduce la următoarea (1.3)

(1.4)

Vectorii x,yell!." sunt ortogonali dacă x Ty~O. Notaţie: x.Ly. Să observăm că vectorul nul (0") este ortogonal pe toţi xell!." şi - mai important DEFINIŢIE.

(1.5) singurul vector ortogonal pe toţi xell." (deci şi pe el însuşi) este vectorul nul.

Pentru a explica aceasta, este suficient să observăm lui x este produsul său scalar cu el însuşi, deci

că pătratul

lungimii

(1.6) 11x11~JxTx şi în virtutea lui 1.1, (1.7) x.lx =}X=O". Adăugăm acestor noţiuni pe cea de proiecţie. Considerân d un vector nenul xell!." orice vector yell!." se proiectează (ortogonal) pe x înmulţindu-i lungimea prin cosinusul unghiului dintre el şi x; prin calcul găsim - xTy (1.8) pr, y - - ·

llxH

Aceasta este proiecţia "cu semn" sau "scalară", semnul fiind "+" când unghiul 8 este ascuţit şi "-" când 8 este obtuz. Proiecţia "ca vector" (o vom nota p) se obţine inmulţind pr, y cu versorullu i x: ....=__.Obţinem

lxll

.

(1,9) p =

r X

y

lxll 2

X.

p



X

53 Distanţa între (vârfurile vectorilor) x,yER" este lfx-yU. În particular, distanţa (la pătrat) între y şi proiecţia sa, p, pe dreapta-suport a lui x, se determină cu formula

IIY-PI'-IxD'IIYII'-(x Ty)Z.

lxl' Noţiunea următoare fundamentează

Produsul scalar (p.s.) este o , şi se defineşte, aici, prin

GJ>=>• • . •>>,

Are

întreaga geometrie a spaţiului R". între doi vectori x,y, ce se notează

operaţie

*•····tl=

următoarele proprietăţi

'y •

importante (pentru orice x,y,zER" , aER):

~ (comutativitatea); ~ + (distributivitatea); ~a

x>'O"

=}

(omogenitatea);

>O (pozitivitatea).

Să remarcăm că

prin p.s. am putut defini "lungimea" (cf.1.6), "unghiul" (cf. relaţia de "ortogonalitate" (cf. 1.4) şi "proiecţiile" (cf. 1.8 şi 1.9). De aceea 'O", că inegalitatea lui Schwarz devine egalitate exact atunci când y coincide cu proiecţia sa, p, pe x, i.e. când x şi y sunt coliniari. f) În cazul vectorilor polinoame p,qER[XJ (ex. 2.1.d) p.s. se defineşte prin

Indicaţie: Analizaţi

b

= Jp(x)q(x)dx a

unde a! planul este mulţimea {xER fx1 +x2 -2x3 ~0}.

Un vector v perpendicular pe doi vectori (liniar independenţi) x~(x 1 ,x,,x,)T, se poate obţine din aceştia prin operaţia numită produs vectorial se notează v~[x,y]. Produsul vectorial este distributiv şi omogen (ca şi cel scalar), dar este anticomutativ: [x,y]~- (y,x]. îh plUs [e 1,e2],;e3 , [e2 ,e;l""e 1 , [e3,e 1]=e2 •

. (i) Arătaţi - utilizând aceste proprietăţi - că

[x,y] ~(x,y 3 -x,y 2 ,x,y 1 -x,y 3 ,x,y 2 -x,y 1 )'. (ii) Determinati [x,y] atunci când

x

şi y

sunt liniar dependenţi, i.e.

d) Alternativa Fredholm. Teorema 2.10 se poate formula Pentru fiecare AeMm,nCIR)

şi

be:R.m una

şi

şi

Y1 Y2 Ya astfel:

numai una din problemele:

1) Ax~b şi

2) A ry~o.,y Tb,.o,

are

soluţie.

alternativa Fredholm descompunând b,b,+b.,b,E::l(A),b.eN (A ')şi alegând y~b •. Demonstraţi

§3. Matricea ca aplicaţie liniară. Studiu geometric Acest paragraf continuă §(2).7.1. Fie aşadar AEM",,.(l!.), iar fA: 1!." -->1!."' aplicaţia fA(x)~Ax. În prezent suntem măsură a face o descriere geometrică a modului în care matricea A prin înmulţire, vectorii lui 1!."; de a face adică, o descriere 'N ge:on1etriWII"M t.·f"'G 1:R pe spaţiul



{T0 ,T11 .. ,T) este p=LciTi şi reprezintă aproximarea lui f cu un polinom j .. Q

trigonometric de ordin n. Determinati

proiecţia funcţiei

f(x)={-1 , XE[-!t,O) 1 , XE[O,!t]

pe spaţiul {T0 ,T1,T21 •

§7. Pseudoinversa A• a matricei A

x

Fie AeMm,n(R) fixată. Pentru determinarea pseudosoluţiei a sistemului Ax=b, situaţia cea mai defavorabilă se prezintă atunci când coloanele lui A sunt liniar dependente. Nici una din formulele de calcul deja obţinute nu va putea fi folosită. Să observăm că sistemul compatibil AX=p=Pb , p fiind proiecţia lui b pe S(AJ , are în acest caz o infinitate de soluţii, deoarece r(A) Uxl . Demonstraţie: Ştim că R"=S(A T)E!)N(A), deciorice xelt" se descompune (unic) în suma proiecţiilor sale pe cele două subspaţii; în particular x=x,+x. cu x,eS(A 1) şi x.eN(A) . Înmulţind cu A, deoarece Ax=p şi

AX. =0 , rezultă AX,=p . Ceea ce Pentru alt

X:

găsim

dem~nstrează

X: =X:+X,: cu

(2).

X: E S(A 1)

şi

x/ -x, E S(A 1) şi AX(=p =AX, din care rezultă A(X/-X)=O .

X,: e N(A)

. Deci

69 Aşadar x,' -x, E SCA T)n:N(A)={O} deci

xi =x, . Ceea ce demonstrează (1). IN (A)

alăturată reprezintă situaţia

vectox şi x' , aşa cum decurge ea din 7.1.(1). consiPentru fiecare pseudosoluţie laturi triung hiul dreptu nghic de . Aplicând în fiecare caz teorem a lui

Figura

x

latură comună, rezultă

x, este

UxU'= min Ceea ce

demonstrează

~

llx.ll'= min

de lungime

Pseudosoluţia

~

llx.II'=O

~

x = x,

.

(3). • minimă

x, , a sistemului, se va numi pseud o·

!Yi§;.soluţia normală.

ormă fiecare b e Rm în Să considerăm aplicaţia

:R.

aplicaţia· (neliniară!) definită

pentru orice

xeR"" prin g(x)=xTA x. 11 În Analiza matematică se studiază problema găsirii acelor "puncte x0eitn a.î. (1) -1 XoTXo- ,

(2) VxeR.n:x TAx-x0TAx0 păstrează semnul. Dacă legături. cu sau nat Aceste puncte se numesc puncte de extrem condiţio există, ele satisfac condiţia (3) (VL)(x0)=0 unde L(x,A.)=x TAx-A.x Tx este funcţia lui Lagrang e pentru problema (1)+(2), iar V -operat orul gradient . Prin calcul VL=2(Ax-A.x), deci determin area extremel or Să remarcăm că condiţionate, în cazul funcţiei g, se reduce la o problemă VVP. din (1) rezultă condiţia x 0;t0. EXERCIŢIUL

a) Am liniară

4.1

fiecare matrice AeM,CR.) defineşte o transform are fA: R"-> Il.". Prin fA un subspaţiu de dimensiu ne 1 al lui :11." (vom spune

văzut

în §(2).7.1



='-

74

§ (4) 1 "o dreaptă" de vectori) se transformă fie in {O}, fie într-o dreaptă de vectori (de ce?). Arătaţi că problema detenninării 11dreptelor11 de vectori din. :e.n ce se transformă prin fA în ele însele este o problemă VVP. Explicaţi denumire a de "direc~ ţii proprii" ale transformării fA ce li se dă acestor drepte.

b) Plecând de la relaţia Ax=ÂX, deduceţi A 2X=A 2x etc., apoi (A -3/)x=(A- 3)x, iar - în cazul A nesingulară - deduceţi MO şi A ·'x=A- 1x. Aşadar, cunoscând o pereche (A,x) din problema VVP pentru A, putem determina asemenea perechi (numite 11perechi caracteri sticeu) pentru A 2 ,A 3, A -31, A-l, etc.

c)

valorii!e proprii ale unei matrice de {0,1/. Indicaţie: Utilizând relaţia A=A 2 , deduceţi A=A 2 • Arătaţi că

proiecţie

mulţimii

(cf. (3).5.2)

aparţin

Explicaţi

geometri c acest rezultat, determin ând direcţiile proprii ale transforce proiectează vectorii spaţiului pe un plan. d) Utilizând proprieta tea unei matrice ortogona le de a păstra lungimea vectorilor, arătaţi că orice valoare proprie a sa este un număr complex de modul 1 mării

f: lR.3 -7 R.3

(unitar).

§2. Polinom ul caracte ristic Problem a VVP poate fi rezolvată pe baza teoriei din §(1).10 a sistemel or liniare. Rescriin d relaţia AxeA.x sub forma (A-}J)xe O obţinem

un sistem liniar şi omogen n x n, cu matrice a depinzâ nd de parametrul A, pentru care se cer (cf.1.3) soluţii nenule. (2.1)

LEMĂ. Următoarele condiţii sunt echivale nte (1) există coloana x: (A - }J)x = O şi x ct O;

(2) r (A - }J) < n; (3) det (A - }J) = O. Condiţia de existenţă a unei soluţii nenule pentru (A - }J)x = O este, conform (2). 2.5, condiţiar(A- }J) < n. Ceea ce, în baza definiţiei rangulu i unei matrice ca: ordin maxim al unui minor nenul al matricei , echivalează cu: det(A- }J) =O. Notăm piA)

(2.2)

polinom ul a 11 -A

a"

aln

a"

a 22 -A

a2n

ani

an2

ann-J...

p iA)edet (A -}J)e

numindu-1 polinom caracte ristic al matricei A. În virtutea regulei de dezvolta re a unui determi nant, constatăm că termenii în A" şi respecti v A"- 1 din PiA) provin exclusiv din produsu l

75

§ (4) 2 (a 11 -A.)(a 22 -A.) ... (ann -A.),

111 element elor de pe diagona la principală. Termen ul liber fiind p iO)=det A, putem scrie

1 p iA.)=( -l)"A."+( -1)"- 1(a 11 +... +a •• )t."- +...... +detA.

(2.3)

le (;!1.4) DEFINIŢIE. Se numesc f!0101~i proprii ale matricei A toate rtidăcini ecuaţiei

,t.•. (2.5) CoNSECINŢĂ. O matrice de ordinul n are n valori proprii A.1 ,f.2 , ••• Demonstraţie:

sau nu). • Pe baza 2.3 rezultă

Cf. 2.3 PA are gradul n, deci pA(f.)=O are n

relaţiilor

între

coeficienţii

a 11 +a 22 +... +ann

(2.6)

f. 1 +A2 +.•. +A..

(2. 7)

A. 1f. 2 ••• t.. = detA. ,

=

şi rădăcinile

lui pA

(numită

rădăcini

(distincte

sale A. 1,A.2 , ••• ,t.., din

urma lui A);

~-

(2.8) Ex!lMPLiW

A=[~

-ll] are polinomul caracteri stic 1-:>. . -~ 2 =1. -21.+2 l1 1

Pil.)=

eu rădăcinile 1.1 =l+H,'A2 =1-H (complexe!).

Prin natura problemei VVP, ce

necesită

rezolvarea unei

ecuaţii,

pA(A.)=O,

rezultă:

mulţi­ (2.9) CoNCLU ZIE. Cadrul natural de rezolvare al problem ei WP este

mea numere lor complex e :O, deci ecuaţiei

1N(A -A.l);t(O) 1· (3.1) DEFINIŢm. Vectorii unei baze (oarecare) a spaţiului propriu N(A -Al) se numesc vectorii proprii ai matricei A corespunzători v.p. A..

Conform relatiilor anterioare (3.2) pentru fiecare A.eSpec(A) dispunem de n -r(A -A.!) vectori proprii pentru A. (3.3) Ji}XEMI'MJ (continuare).

dă vectorii proprii este (A-A.,nx=[~ -il ]x=O, având soluţia (nenulă) x=( -i,l)T, iar pentru =l+i: (A-A.,Ilx=[~i ~~ lx=O cu x=(i,l)T; Pentru

 1 =1-i

sistemul ce ne

Â2

ceea ce încheie rezolvarea problemei VVP.

* Am

obţinut aşadar,

pentru sistemul

*

f~»

t!Mut()

diferenţia!

3').,YJ:.S,~tt.1

''''" ;,

~~~~:~JY

*

din 1.2,

două soluţii şi

anume:

w,=e'·ti] şi w,=e4[~]. Nici una nu verifică, la momentul iniţial, condiţia w(O)=(-l,l)T. Construim, pentru aceasta, o soluţie - combinaţie liniară a celor două: Observăm,

pentru început,

diferenţia! :

= Aw;

unul complex) numit Din condiţia iniţială rezultă

w~c 1 w'/ic,w:f;)

orice asemenea w este

soluţie

a sistemului

mulţimea acestor combinaţii este un spaţiu vectorial (aici spaţiul soluţiilor.

sistem1,1lliniar

din care



77

§ (4) 3

l+i 1-i cl=--,c 2=--·

2

2

Înlocuindu-le în expresia lui w găsim w=e

,[-cost -sint] cost-sint

adică soluţia căutată.

OBSERVAŢIE. Deşi obţinută prin rezolvare a unei probleme VVP în complex, soluţia probleme i cu condiţii iniţiale a sistemulu i diferenţia! real este reală, valorile proprii complexe făcând să intervină în ea termenii "oscilatorii" în sin şi

cos. EXERCIŢIUL

4.3

a) P fiind o matrice de proiecţie, cf. ex. 4.1.c, Spec(P)c(0,1). tric" care va fi spaţiul său propriu corespunzător v.p. Â.=l? b) Verificaţi aceasta, determinâ nd spaţiile proprii pentru

P={ [-12 1 11 Cum se poate defini "geometric

spaţiul

-~ ~

Explicaţi

"geome-

l

1 -2

propriu

corespunzător

v.p. A=O ?

c) Determinaţi soluţia problemei cu condiţii iniţiale dx =-y, dy =x,x(O)=O,y(O)=l. ' dt dt

§4. Geometr ia

spaţiilor

C"

prin natura problemei VVP, să trecem din real în complex, se impun, pentru început, câteva precizări legate de această schimbar e de cadru. Algebra spaţiilor C" a fost expusă simultan cu cea a spaţiilor lR", în capitolul2. Geometri a spaţiilor R" este indisolubil legată de definiţia şi proprietăţile produsulu i scalar. Pentru a face o asemenea geometrie în C' trebuie, deci, să începem cu o definiţie a p.s. Remarcăm, chiar de la început, că definiţia =x ry este inutilizabilă în C' deoarece (printre altele) proprieta tea esenţială (3).1.1 şi-ar înceta valabilita tea. (E.g. x=(1,i)T ar avea lungimealxii=O.) Pentru a da o formă de prezentar e, a noii geometrii, cât mai apropiată de cea din cap.3, începem prin a defini Obligaţi,

(4.1) Transpu nerea complexă sau hermitică. Este operaţia prin care matricea AeMm,.(C) se transpun e şi, în acelaşi timp, toate elemente le sale se conjugă complex. NOTAŢIE: A •. Reaminti m că fiecare număr complex z se poate reprezent a sub una din formele z =x+iy =r(cosO+isinO), (r 2: O)

78

§ (4) 4

iar în planul (complex) Oxy unde: Ox = axa prin punctul (afixul) z. Conjuga tul complex al lui z, notat este numărul complex z=x-iy= r(cos(-O)+isin(-9)), şi au loc echivalenţele

reală şi

z,

Oy = axa

imaginară,

lm y

------- z

Re

z=z ~ZER;

IX

z=-z~zelm.

1

Aşadar A '=Ar.

1

-y

- - - - - - - 'i

Im

EXEMPLU

(4.2) PROPRIETĂŢILE

1

3-i

[l+i

2

transpune rii complexe sunt:

(1) (A+B)'=A '+B';

(2) (aA)'=a:A. '; (3) (A')' =A; (4) (AB)'=B' A';

(5) (A 't 1=(A -•)•, dacă A este Comparaţi cu (2).1.2.

(4.3) Produsu l scalar complex se

nesingulară.

defineşte

pentru orice x,yEIC" astfel



=x' y=E x,y,, i:l

iar norma (lungimea ) (4.4)

Hxii=M

JtG~l lx,IJ.J

OBSERVAŢIE. Aceste noţiuni ale cazului complex extind noţiunile corespun-

zătoare

din cazul real. Altfel spus, când x,yeR":x '=xT deci llxi=Vxrx

şi

=x'y=x Ty. Iată extensia complex:

proprietăţilor

PROPRIETĂŢILE

(3).1.11-15 ale produsulu i scalar la cazul

produsulu i scalar complex:

(4.5)

=;

(4.6)

=+;

(4.7)

=a; .

79

;§ (4) 4

x;tO ~ >0. Cu excepţia primei proprietăţi, ele coincid cu cele din cazul real. Geometria spaţiului c• se obţine extinzând , în sensul deja explicat,

(4.8)

noţiunile şi proprietăţile spaţiului

Il.".

(4.9) EXEMPLU Dacă

AeMm,.(C), atunci spaţiul liniilor nu mai este ortogonal pe nucleu şi

coloanelor nu mai este ortogonal pe nucleul stâng.

spaţiul

Fie A=

[1 H1o oiJ i i -1

=U.

Spaţiul liniilor este generat de vectorul (1, i)r, iar nucleul- de (-i, 1)'. Deoarece 1 (-i) + (-i)1 -2i *O, cele două spaţii nu sunt ortogonale.

=

=

Pentru a obţine rezultatele importante din §(3).2 fundamenta le ale unei matrice complexe drept

şi

§(3).3 vom redefini

spaţiile

S(A') , N(A) , S(A) şi N(A ').

extinderile noţiunilor studiate în §(2).5. Extinderi corespunză­ Ele toare se fac peiltru fiecare din noţiunile definite în capitolul 3. Iată câteva din acestea: reprezintă

(4.10) Matricea AeM"(iC) este

"simetrică

în complex", sau

hermitică, dacă

A•=A. 2 (4.11) Matricea AeM.(iC) este "de proiecţie în complex" dacă A '=A şi A =A (cf. (3).5.2).

(4.12) Matricea UeM"(iC) este

"ortogonală

în complex" sau

unitară dacă

U'U=l (cf.(3).5.4.1).

Rezultatele referitoare la noţiuni din geometria lui JR" valabile pentru extensiile lor din C'.

rămân,

în general,

EXERCIŢIUL 4.4

complex de modul 1 (numit şi unitar) are forma z=cose +isin8 =ei 0 . EXPlicaţi poziţia sa în planul complex şi proprietăţile: (i) zpz2 unitare ~z 1z 2 unitar; (ii) z unitar =~.z- 1 unitar. 0 Arătaţi că dacă z 0=ei • este fixat, atunci transformarea z -7 ZoZ reprezintă fOtaţia în sens direct, cu unghiul 9 0 , în jurul originiin. b) Ortogonalizaţi Gram-Scbmi dt şi normaţi vectorii din C': a 1 =(l,O,l)T, a 2""(i,l,l)T, a 3 =(0,l,i)T. c) Construiţi matricea de proiecţie a vectorilor lui C' pe direcţia versorului a) Un

număr

11

UEC'.

80

§ (4) 5

§5. Problema VVP pentru matricele hermitice Matricele simetrice, a căror importanţă a apărut în §(1).7 şi §(1).8, au ca extensie în complex, matricele hermitice (de la numele matematicianului francez C. Hermite).Pentru acestea problema VVP are o soluţie remarcabil de simplă, aşa cum rezultă şi din următoarele trei proprietăţi în care A=A 'EMn('0 ). •

A.,J1ESpec(A),MJ1

(5.4) EXEMPLE

i]

1) A=[ 3. este hermitică, deci Spec(A)clR. într-adevăr ;\.1 =4 şi ;\.2 =2. Va trebui -1 3 ca cei doi vectori proprii -

corespunzători

acestor valori proprii -



fie ortogonali.

~-~ i ]x=O, de unde x=x,[i1]l. 1-1 (A-;\.,I)x ~+~ i l =0, deci x=x,[-i] şi 1-1 +1.r 1

(A-Â.l)x

-1

R care pentru fiecare yeR" fixat este o formă liniară în x şi pentru fiecare xeRn fixat este o formă liniară în y, se numeşte formă biliniară. Arătaţi că

expresia sa In coordonatele vectorilor x n

fix,y)=_E i .. l

Aici AeM.(R) se

numeşte

Indicaţie. Aiegeţi

matricea

şi y

este:

n

L Oif"JIJ=x TAy. J~l

asociată

formei biliniare f.

av=fie,,e).

el Forma biliniară fix,y) este simetrică dacă pentru orice x,yeR":fix,y)=/{y,x). acesta are loc când A =A T. d) Orice f.p. q(x) este rezultatul identificării lui y cu x Intr-o formă biliniară simetrică: q(x)=/{x,x). Arătaţi că această formă biliniară este fix,y)=.;. [q(x+y} -q(x} :q(y }] Arătaţi că

2

(numită

forma

polară

a lui q ).

§2. Reducerea ortogonală a unei f•P· la axele principale şi aplicaţiile sale geometrice Metoda reducerii ortogonale este indisolubil legată de teorema spectrală şi ei (§(4).6) având, ca şi acestea, un pronunţat caracter geometric, pus, de altfel, în evidenţă şi de terminologie. consecinţele

(2.1) TEOREMĂ. Fie A =A T eM.(ll!.) şi A. 1~ ••• ~. valorile sale proprii, iar

u 1 , ••• ,u. versorii direcţiilor proprii (ortogonale) pentru orice xell!." :

corespunzătoare.

Atunci

x T Ax=A.1(u,TxJ2+ ... +A..0~ ... ~0>1.,,,~ ... ~.

valorile sale proprii. Alegînd e =min(f..,,!f..z.tll. pentru orice aE(O,e) valorile proprii ale lui A+al, i.e. A,+a (i=T,ii), vor fi nenule. Cf. dem. anterioare, S T(A +a.!JS şi A+ al au acelaşi număr de valori proprii pozitive, respectiv negative. Depinzând continuu de a, când a--> O cele pozitive devin nenegative, iar cele negative devin nepozitive. Totodată S rAs şi A au, cf. 3.3, acelaşi număr de valori proprii nenule. Deci numărul celor pozitive (negative) va fi ' acelaşi în STAS şi A. (3.5) COROLAR (inerţia formelor pătratice).

Toate formele canonice ale unei fp. q conţin acelaşi număr de coefipozitivi şi acelaşi număr de coeficienţi negativi.

cienţi

(3.6) EXEMPLU

q din 2.3 poate fi

redusă

(neortogonal!) la o formă

q =xf- 2J2x1x2 = (X 1-/2x2)2-

canonică

2x; =yi -yi,

unde y 1=x,-.f2x, ,y2 =.fix2 •

Întrucât schimbarea de coordonate y=Sx, S

=[~ :]

este nesingulară, intre cele două matrice ale lui q:

-.fi] şi DJlo -.fi

A=[

1

0

există relaţia

Deci A

şi

A =S TD S. D sunt congruente.

0 -1

],

astfel

104

§ (5) 3

şi AJlo2

DeoareceA=Qi\QT,totcongruentevorfiA

o].

-1 Se constată direct că amândouă au câte o valoare proprie negativă, ceea ce confirmă teorema inerţiei.

pozitivă şi

câte una

OBSERVAŢIE. O caracteristică importantă a procesului de eliminare (Gauss) - în care matricea A se transformă, prin înmulţiri şi scăderi de linii, în matricea superior triunghiulară U, este evidenţiată în ex. 1.9.a. Anume că, atunci când A este simetrică, transformările păstrează această simetrie. Ea se va reflecta în simetria descompunerii A =LDL T (cf.(1).8.3).

(3.7) EXE!dPW Reluăm din §(1).8 exemplul matricei Egalitatea A=LDL T devine atunci

diferenţelor

finite de ordinul doi.

2_10][-~ o ~][2 '][1o + o] [o o o o -1

2

-1

=

2

1

1

2

-.:.. 3

-1 2 ~ 1 ~ Înmulţind cu x r şi x, găsim expresia f.p. x TAx=(xTL)D(LTx) şi făcând

calculul parantezelor,

obţinem

1

x 2x

[ 1-

1

2

2

x 2 - 3 x,

1

2

2 • l[x -2cx : 3 2(x 2 x x,l 2 2 3

]

~ x ~:x =

1-

1

2

)2

'(

+2

[

x 2 - 32 x, )2 + 34

x 2 3

(1)

(3.8) OBSERVAŢII. 1) Descompunerea A =LDL r, obţinută ca rezultat al procesului de eliminare, conduce aşadar la reducerea la o formă canonică a f.p. xTAx în care coeficienţii pătratelor sunt pivoţii matricei A. 2) Un astfel de proces de reducere se putea face şi prin formarea succe·

sivă de pătrate. Astfel f.p. 2x~-2x 1x2 +2x;-2x"x3 +2xff din exemplul anterior se va reduce la forma canonică (1) în următoarele două etape: (i) grupăm toţi termenii în x1 într-o paranteză având factor comun coefi-

cientul lui x~ pe care o transformăm, într-un pătrat perfect

2(xi-x1x 2), prin eventuala adăugare de

2(x;-x,x2 +}:}2(x 1

pătrate

în x 2 ,x3 etc.,

--hJ-

(ii) Scăzând termenii adăugaţi, grupăm restul formei nu mai apare) în funcţie de x 2 etc.

pătratice

(în carex 1

105

§ (5) 3 Continuaţi până

la

obţinerea

expresiei (1).

(3.9) EXEMPLU (cazul cu permutări) Permutarea a două linii în matricea

o

transformă

simetrică

!n

A'=[~ ~]

ce are o descompunere LDU (§(1).9) nesimetrică. Pentru a recăpăta simetria, vom efectua in A1 o permutare a coloanelor cu aceiaşi indici (prin înmulţire, la dreapta, cu matricea de permutare P T). Obţinem

PAPT=[~ ~][~ ~][~ ~H~ ~}A", 11

iar matricea A are descompunerea LD U

simetrică

A"=[~ ~][2 -~I~ iJ În afara unui caz de excepţie, pe care il analizăm 1n exerciţiul 5.3.b, are loc următoarea descompunere a matricelor simetrice:

(3.10) Dacă A = A T E M. (]R) are rangul r, atunci există o matrice de permutare P, o matrice inferior triunghiulară 1-diagonală L şi o matrice diagonală conţinând r elemente nenule - pivoţii matricei A urmate de n-r zerouri, a.î. (2). PAPT = LDLT (echivalent cu A= PTLDLTP) COROLAR. Numărul valorilor proprii pozitive şi al celor negative (cu repetiţii, când sunt multiple), ale matricei simetrice A, coincide cu numărul pivoţilor pozitivi şi respectiv negativi, aflaţi pe diagonala matricei D din descompunerea (2). Deoarece, cf. (2), A şi D sunt congruente, corolarul decurge din teorema

(3.11)

inerţiei.

(3.12) OBSERVAŢIE (calculul pivoţilor unei matrice simetrice). Primele r elemente (nenule) din D: d 1,d2, ... ,d, se pot exprima cu ajutorul minorilor directori, detA;, aflaţi la intersecţia primelor i linii cu primele i coloane ale matricei A'=PAPT. Notând A 1,,L,,D,,L,T submatricele corespunzătoare din cei patru factori ai relaţiei A'=LDLT, rezultă A; =L,D,L,T şi deoarece detL,=detL,r =1, prin trecerea la determinanţi: detA,' =detL,xdetD,xdetL,T =detD, pentru i =T,i'. Adică detAi =d 1 ,detA~=d 1 d 2 , ... , detA;=d 1 d 2 ...d, şi formulele inverse:

106

§ (5) 3

detAi

1

(3.13)

detA;

d 1 = detA 1 ,d2 = - - - , ... ,d,- -:------:-;detA! detA;_,

(3.14) EXEMPLU

AJ~l~ ~ ~J

22 are minorii directori detA 1 =l,detA2 =0,detA3 =0; iar rangul r:2. Permutând liniile şi coloanele 2 şi 3, rezultă

A'=P23AP,)~ ~ a.î.

pivoţii

:] detA;=l,detA;= l,detA;=o

l2 2

4

matricei A vor fi d 1 = 1 ,d2 = 1.

(3.15) OBSERVAŢIE. Pivoţii lui A obţinuţi prin formulele 3.13 nu sunt unici, ci depind de alegerea matricei de permutare din 3.10. Unice sunt, cf. 3.10, numărul pivoţilor pozitivi şi cel al celor negativi (ex. 5.3.c). EXERCIŢIUL

5.3 procedeul formării pătratelor (cf. 3.8.2) spre a reduce la forma canonică f.p. x 1x 2 +x:. (Pentru a respecta ordinea etapelor, schimbaţi între ele variabilele x1 şi x2 , ceea ce revine la transformarea matricei A in PAP T). b) Când într-o f.p. nu apare pătratul nici unei variabile, e.g. q=2x x +2x x , 1 3 1 2 a) Aplicaţi

facem schimbarea de variabile x1'=y 1 -y2 ,x2 =-y1 +y2 ,x3 =y3 prin care se introduc pătrate. Continuaţi procedeul descris în 3.8.2 pentru a reduce acest q la o formă canonică. Comparaţi cu procedeul descompunerii matricei asociate A LDLT.

astfel de

=

c)

TransformândA ,din3.14, înA'=PAPT, unde

cu formulele 3.13

şi verificaţi

d) Utilizând semnele

valori proprii pozitive

una

l~

oo

corectitudinea afirmaţiilor făcute în 3.15.

pivoţilor săi, arătaţi că şi

PJ~ ~ ~J,determinaţipivoţii

matricea A

negativă. Determinaţi

J~ : ~J două l~

are

7 6

apoi prin aceeaşi metodă semnele valorilor proprii pentru A + 21, deduCând de aid că valoarea proprie A.3 0.

l1

~

It ~ 31: Deoarece detA=Â

1•• J."

rezultă,

cf.

demonstraţiei

anterioare,



pentru orice f.p. q =x TAx având în origine un minim strict, detA>O. (4.3)

OBSERVAŢIE. Dacă funcţia

q: lR"--'> lR are originea ca minim (strict),

atunci orice restricţie a sa la un subspaţiu al lui li!." va avea de asemenea originea ca minim (strict). Utilizând aceasta în cazul subspaţiilor V,= (xElR" 1 x1, 1 =O, ... ,x" =0} (i = 1 ,n - tl şi observând că matricea asociată lui q restricţionat la V 1 esteA1 (obţinută la intersecţia primelor i linii cu primele i coloane din A) rezultă, ca şi

în cazul lui q,

13 =>



detA1>0, pentru i=l,n-1.

4j: cf. relaţiilor 3.13.

9 (5) 4

108

14 => 51:

Notăm

·.. 1

1

1

deci D ":! D" = D. Punând R = D "L r, triunghiular superioară şi având elementele

{ci:> O pe diagonală, rezultă 1

1

1

1

R TR=(D"L T"lD"LT=LD "D"LT=LDL T =A. 15 => 11: q=xrAx =xrRrRx=(Rx JTRx=URxfi 2 ?:0 şi

Rx- o.=> x =o., deoarece R este

(4.4)

nesingulară.

şiq=O=> Rx=O. (cf.(3).1.1)

B

EXEMPLE

1) Matricea nxn a

diferenţelor

fmite de ordinul al doilea (§(1). 7) E.=[... -1 2 -1 ...] este pozitiv definită, deoarece detE 11 =n + 1 (cf. anexei B) pentru orice n. 2) Matricea eAt, unde A =A T EM11(R.), definită ca sumă a seriei de matrice simetrice 2 2 I+2.At+2A t + ... 1! 2!

va fi de asemenea simetrică. În plus, cf. ex. 4.9.2.c, valorile sale proprii sunt e".-t>O,AieSpec(A)cR., deci eAt>O. 3) Condiţia ca funcţia f(x 1 , ••• ,x.) de clasă C 2 să aibă un minim în punctul critic x 0 =(xf•... ,x~), este ca matricea hessiană H.(x 0 )

Jlaxidx o'f

(x 0 )]

1

să fie pozitiv defintă. 4) Matricea B=BreM,.(R) defineşte, prin formula B=xrBy, pentru orice x,yER71 , un produs scalar, dacă este îndeplinită condiţia: x:t-0 11 :::::} s>O (cf. (3).1.15); adică B>O. 5) Dacă a 1 ,. •• ,akelR'1 _(k'5.n), atunci matricea Gram a acestor vectori este

G(aw .. ,ak)=ArA,

unde A=[a1 ! ... !ak]. Ea este pozitiv definită d.n.d. a 1, ••• ,ak sunt liniar indepen~ denţi (r(A);k). Într-adevăr, numai în acest caz din Ax=O. rezultă x=O,. Întrucât ATA= putem utiliza exemplul precedent. Dacă pentru funcţia q =x r Ax originea este punct de maxim strict, matricea simetrică A se va numi negativ definită, cu notaţia AO => 2A>0; (iii) A>O,B>O =>A+B>O;

(iv) A>O,detS;tO =>SrAS>O; (v) A=Ar, detA;tO =>A 2 >0.

b) Explicaţi de ce elementele de P\l diagonala unei matrice pozitiv definite sunt

pozitive. c) Fie A=A TeM.(!!.). Arătaţi că Spec(A)c[a,b] ~ VaO&Vj3>b : A-f\1O, iar în rest zero, astfel încât:

diagonală

A=Q~Sr. DEFINIŢIE.

(1)

(1) se numeşte descompunerea singulară a matricei A, a 11 , ••• ,a" fiind numerele singulare ale matricei A. Demonstraţie: Construcţia matricelor ortogonale S şi Q precum şi demonstrarea relaţiei (1) le vom realiza în trei etape. (7.2)

(I) Construcţia lui S eM.(JI.):

(7.3) Matricea A TAeM.(JI.) are rangul r şi este pozitiv semidefinită. Afirmaţia rezultă

din (3).3.30 şi 5.1.5. Cf. teoremei spectrale şi cf. 7.3

(7.4) Există

S=[x1 1... 1x.]

ortogonală

a.î.

§ (5) 7

113

·..

(2)

o ··. (II) Construcţia

lui QeMm(R):

(7.5) Coloanele

.

1

1

li::

.;;::

y 1 =--Ax 1, ... ,Y,=--Ax,

alcătuiesc un sistem ortonormat de vectori proprii pentru AA T corespunzător valorilor proprii Â1 O (cf. ex. 5.5.a). Să arătăm că.

p-tA este

ortogonală. Verificaţi următoarele egalităţi:

p-1A(P''A)T =P·'AA T(p Ttl =P·1p2p-1 =1.

Concluzie. Pentru o mat~ice nesingulară A descompunerea sa polară PQ este unică, iar 1

P=(AA Tf1>0' Q=P-'A. 2)

Dacă

A=[

-1

1

-7] 7

1

, atunci P=(AA T)'t =

[5 -5] -5 5

(verificaţi!).

§ (5) 7

115

Vom determina matricea de

rotaţie

Q

Jc~se

-sine] ls1n8 cose

astfel încâtA=PQ. Prin calcul obţinem sine=~,cose=.!., deci 5 5

Pe de

altă

parte,

există şi

Q=~ iJ

o matrice de reflexie, anume

H=

~cose, sine,}[-~ -~] sine 1 -cose 1

a.î.A=PH. în acest caz, matricea

Aşadar,

A nu este

ortogonală

- 53 5'

din descompunerea polară a matricei

unică!

(7.11) Observaţii finale 1) Proprietăţile de a fi matrice definită şi semidefinită

se pot extinde la cazul matricelor hermitice A =A *eM.(C). Condiţia 4.1.1, pentru o astfel de matrice, devine\fxeC',x;=0;

c.- ' .

d)

c,=

,i=0,1,2

şi

=2rt, =rt

=1t, =0, =0, =4.

Aşadar p=~sinx. 1t

3.7. a) Transformarea lui beRm în proiecţia sa pe 3(A) se realizează, cf. 4.8, prin înmulţire cu P=A(A TAJ-'A r, fiind deci o aplicaţie liniară. Verificăm liniaritatea transformării proiecţiei p în pseudosoluţia normală a sistemului Ax=p. Dacă X(,X(' e 3(A 1) şi verifică Ax-;= p 1 şi AX/'=p li, atunci suma x =X:+ X:' e 3(A T) şi verifică Ax =p 1+p li, fiind deci pseudosoluţia·normală a acestui sistem. Aşadar p' +pli se transformă în suma pseudosoluţiilor normale corespunzătoare lui p' şi pli, ceea ce probează (2).6.1.1. Verificaţi (2).6.1.2. b) Nucleul aplicaţiei \jl este alcătuit din acei be3(A) a.î. AOn=b, i.e. N(\ji)={Oml·

Vom

arăta că

3(A 1)c3(\jl). Fie x,e3(A 1). Luând b=AX,e3(A)

rezultă

\jl(b)=x,, deci x,e3(\jl). c) Cf. def. lui \jl, pentru fiecare be3(A):\jl(b) este unica (cf. 7.1.1) soluţie

x

138

Solutii cap. 3

a sistemului Ax=b, care aparţine spaţiului .5(A 1). Dacă b=AX1=g\x;), atunci această soluţie este chiar x 1 • Aşadar IJI(g\x;J)=x,. d) Cf. (2).7.2: .5(cp)=.5(A•). Pe de altă parte, aşa cum am observat, cp transformă Rm în .5(A '), deci .5(cp)=.5(A ').Atunci au loc egalităţile r(A•)=dim.S(A•)=di m.S(A 1)=r(A). e) A • =(ArA)-I.A T în care inlocuind A=QR, după un calcul, găsim A•=R-'QT. f)

Aplicând formula de la punctul e):

[~J=! [11]. g) Această formulă nu se poate aplica matricei [1 11, care are coloanele liniar dependente. Vom calcula pseudoinversa ei plecând direct de la definţia 7.3. Soluţia generală a sistemului liniar x 1 +x2 =b este x =(b -x2 ,x2l şi ea se descompune in

..!.(b,bl +.!.(b-2x2 ,2x2 -b)T =x1+x.,

2 unde X,e.5(A '),x.eN(A).

2

1 Rezultă că cp(b)=.!.(b,b)T,sau cf. 7.3,că [11]-b=..!.(b,b)r=.!. [ ]b pentru 2 2 2 1 orice bel!.. Deci

[11]'=!

[~}

OBSERVAŢIE. În acest caz, (A ')•=(A •)T. Aceasta reprezintă o proprietate generală

a pseudoinversei. Capitolul4

4.1. b) Din Ax" A-x rezultă A(Ax)=A.Ax=A(A.x) etc. Dacă pentru x;cO,Ax=Ox=O, atunci coloanele matricei A ar fi liniar dependente (cf. (2).2.5) şi detA=!L în caz contrar, din Ax=A.x (J.#O) prin amplificare la stânga cu A -• deducem x=M-•x sau A,-•x=A-•x. c) Din Ax=A.x,x;cO deducem A 2 x=A. 2x, deci cf. ip. A=A 2 ,(A.-A.2)x=0, deci A.=A-2 de unde A.=O sau A.=l. întrucât Ax este proiecţia lui x pe subspaţiul $(A) (cf. (3).5.3) condiţia Ax=x este echivalentă condiţiei xe .S(A): fiecare vector nenul din .5(A) este un vector propriu pentru A corespunzător v.p. A-=1, deci o direcţie proprie.

139

Solutii cap. 4

d)

Notând Q o matrice

iar din IIQxHixll ((3).5.4.4)

din Qx~ÂX ,x#O IIQxi~IIĂXII~ ll.lllxll,

ortogonală,

rezultă

rezultă

ll.lllxHxll 11.1~1.

deci

4.2. a) Pii.>~C1- Al". b) pii.Ht11 - I.)... Ct""- 1.).

c)

p(l.)~t.2 -2(cose)t.+1, 1. 1 •2 ~cose±Vcos 2e-1

=cose±ilsinel deci

ll.,l=lt..l~l.

Cf. rezolvării exerciţiului 4.1.c, acest spaţiul pe care P proiectează vectorii lui IR". b)Avem

4.3.

a)

spaţiu

propriu va fi :J(P),

adică

:3(P)=((-1,H)r' (+·-1·+)r}' deci un plan de vectori. P proiectează vectorii lui IR3 pe acest plan. Atunci vectorii aşezaţi pe dreapta perpendiculară pe plan vor fi proiectaţi în O, formând spaţiul propriu al matricei P corespunzător valorii proprii 1.=0, adică N(P). Întrucât, P~P T el este şi ;J(P)'. c) Cele două soluţii w1 ,w 2 ce corespund celor două perechi caracteristice ale matricei sistemului

· , sunt lllo -1] 0 w,~e"[~] şi w,~e-•tl

iar

"soluţia generală"

Din

este

w~c 1 w 1 +c 2w 2 •

condiţiile iniţiale găsim c 1 =c 2 ~1/2

a.î.

soluţia cerută

va fi

w~(- sint,cost)T.

4.4. a) z se află la distanţa 1 de origine, deci pe cercul de cercul unitate a planului complex. (i) z,z. = cos ce, + e.) + i sin ce, + e.J (ii)

z- 1 =.!.~cos(-e)+isin(-8)=z.

rază

1, numit

z forma r(cose + i sine) = re'" rezultă Zif!~ e;o•re;o ~ re""·+O', sub Scriind z deci Zif! are acelaşi modul caz, iar argumentul decalat cu 80 • b) În cazui complex, formulele Gram-Schmidt sunt

140

Solutii cap. 4

de unde V 1=(1,0,1)T, U2

=(i,1,1)T- i;1 (1,0,1JT= ~(i-1,2,1-iJT,

u3 =(0,1,i)T- ~(1,0,1)T- 1;i · ~(i-1,2,1-iJT= !(1-2i,3-i,2i-1 JT, iar llu,l=v'2,lu2 !=v'2,llu3 11=

V:.

c) În perfectă analogie cu li!." (ex. 3.5.1.a) această matrice va fi P=uu •. 4.5. a) Din Dacă

definiţie aij=-a1,,

AeM.OR)

rezultă

deci pentru i=;j: a;;= -a" i.e., cf. 4.1, a;;elm. a;;=-a;; adică a;;=O.

b) Calculând z=z'=x'A 'x= -x'Ax= -z, deci zelm, iar A.= x'Ax. (x vector x'x propriu corespunzător) implică A.elm. c)

Pentru acest caz,

4.6. a)

demonstraţia

(i) Q=2.[1 v'z1

A=[3

J

13 16 1

2

13

16

_:J A·[l o

1

1

o

1

o

1

o o

1 1

o o

1 ,J\= -1

1

o

-1

o

Q•-'- [: 121

(iv) Q=2. v'2

5.3.

5 , A=[ _ ] 1

o

(ili)

proprietăţii

1+i

1+i (ii) U=

-j,

este Ia fel cu cea a

1

J 1 -1 -1

b) Cf. exemplelor 6.5, din rezultatele puctului a) obţinem, respectiv (i) A=3u,ut + u 2ut =3P,+P2 ;

(ii) A=5u,u; +(-1)u 2u;=5P1 +(-1)P2 ; (iii) A=(u,u,T +u 2ut)+(-1)u 3u[ =P+(-1)P3 ; (iv) A=(u,u,T +u2ut)+( -1)(u3 u[ +u4 ut)=P+( -1)P 1• c) Din P 2 =P, cf. ex. 4.1.c, Spec(P) c {0,1}.

141

Solutii cap. 4

Deci P va avea valoarea proprie A. 1 el cu multiplicitatea r (rangul lui P) şi v.p. A."eO cu multiplicitatea n-r (r=n d.n.d. P=l). Descompunerea spectrală este: PeA. 1P + A.2(1- P). P+(l-P)=l şi P(l-P)eO; Peste matricea de proiecţie pe5(P) - spaţiul propriu corespunzător lui' A." iar 1-P matricea de proiecţie peN(P) - spaţiul propriu corespunzător lui A.2 , d) Singurul pas din demonstraţie ce trebuie modificat, este cel ce probează hermiticitatea (aici antihermiticitatea) matricei T: T*e -T. Deci tkle -t,., ceea ce arată că şi elementele aflate deasupra diagonalei matricei T sunt nule. OBSERVAŢIE. Acest pas important, pe baza căruia deducem că matricea triunghiulară U'A U este de fapt diagonală, poate fi făcut nu numai în cazul matricelor hermitice sau antihermitice, ci al tuturor acelora care au proprietaOBSERVAŢIE.

tea AA•eA • A şi care se numesc normale. De exemplu, matricele unitare sunt normale, deci şi pentru ele matricea superior triunghiulară din !ema lui Schur, este diagonală. 4.7. a) Amplificând prima relaţie, la stânga, cu Q T găsim Q TAeR şi înlocuind într-a doua A 1 eQTAQeQ- 1AQ. b) Cf. ipotezei AS=SB. Dacă Bxe'J...x, atunci SBxeA.Sx, deci AyeA.y. În plus x"O implică yeSx"O (explicaţi!). OBSERVAŢIE. Fiind nesingulară, S defineşte un izomorfism al spaţiului C' (R") pe el însuşi (cf. (2).7.3). Acest izomorfism transformă vectorii proprii liniar independenţi ai matricei B, corespunzători lui A., în vectori proprii liniar independenţi ai lui A, corespunzători lui A.. · În concluzie: matricele asemenea A şi B au acelaşi număr de vectori proprii • liniar independenţi pentru fiecare u.p. A.. c) Alegând v.p. A. ei şi vectorul propriu corespunzător (i,l)T, îl completăm cu un vector liniar independent cu el, e.g. (l,OJT, ortogonalizăm, apoi normăm şi găsim

~[~ ~J OBSERVAŢIE.

Calculând U'AU

găsim

[~ ~J

o matrice nu numai triunghiulară, ci chiar diagonală. Acest fapt se datorează antisimetriei matricei A (conform ex. 4.6.d). aşadar

4.8 a) (i) A.1 eA."eA.3 e2, Întrucât r(A-2D=l matricea nu este diagonalizabilă.

142

Solutii cap. 4

În general, dacă A~SAs-• şi dacă A~Al (A are o singură valoare proprie) atunci A~ASIS-'~AI. Deci matricele cu o singură v.p. diagonalizabile, sunt cele de forma Al. (ii) 1..1 ~A"=O şi r(A)=l ne arată că A este diagonalizabilă. OBSERVATIE. Valorile proprii simple nu pot altera calitatea de a diagonaliza a unei matrice. De aceea pentru A"~S nu mai trebuie calculat r(A-1)! (iii) Este diagonalizabilă având doar valori proprii simple. (iv) Cf. ex. 4.1.b matricea Bare aceiaşi vectori proprii ca şi A, deci diagonaOBSERVA'fiE.

lizează.

Mai mult,

dacă

S este o matrice nesingulară de

acelaşi ordin, atunci s-'BS ~s-'AS +Al şi această matrice are forma diagonală, Jordan, triunghiulară, d.n.d.S-'AS are acelaşi tip de formă canonică. b) Punând A.,~ •.. ~A.._,~O, cf. 2.6 rezultă A..~au +a22 +... +a••. În consecinţă pot apărea: CAZUL 1: au +.•. +a •• ~o, deci având o singură valoare proprie (1..~0) şi n-l

vectori proprii, matricea

A diagonalizează nu

(cazul

A~[~ ~}

CAZUL 2: au+ .•• +a.. ~1..... 0 care, fiind o valoare proprie simplă, completează la o bază primii n-1 vectori proprii; A diagonalizează. c) Dacă s- 1AS~A,,S- 1BS~A,, atunci A~SA 1S-', B~SAzS-'. Întrucât A1A,=A,A1 rezultă AB~SA,AzS-'~SA,A,S-'~BA. e) (i) Forma Jordan va conţine o singură celulă Jordan, de acelaşi ordin cu A şi corespunzătoare valorii proprii A.:

JAJ~l~ ~ ~J O A.

(ii) Forma Jordan va conţine două celule având suma ordinelor 3, deci va

fi:

JAJ~ ~ ~]. f)

l~

O A. Pentru matricea de ordinul4, primul caz este perfect similar: A. 1 O O J~OA.10 A

ooA

1

O O O A.

143

Solu)ii cap. 4

În al doilea caz pot apărea două variante: o celulă de ordinul 1, cealaltă de ordinul 3, sau ambele de ordinul 2, adică A O O O A 1 O O 0A10 0A00 JA~ O O A 1 sau JA~ O O A 1 O O O A O O O A Pentru a stabili care m ele corespunde matricei în · scuţie, sunt necesare informaţii suplimentare, ce se pot obţine prin calcul (a se vedea bibliografia).

A~sliS-'~jA, l1 ""]fA, 1 l

1 1 -, unde A ,A sunt cele ][ -A']1 2 A2 -1 A1 A1 -A2 rădăcini ale ecuaţiei caracteristice A2 -A-l~O. Pentru condiţiile iniţiale date

4.9.1. a)

l

F,,,J ~u,~A 'u 0 ~SA'S- u 0 ~ lA' F, 1

de unde

1

A~ A1 -A2

două

""][A~ ][ 1] 1 1 A 1 A A ,

2

_

-_1

2

~ A1 -A2

F,~-----·

întrucât lui k,

A2 ~ 1-/5 2

F,~_!l__ A1 - A,

este

subunitară, k~~ Iim~ ~o. Aşadar pentru valori mari ale

1

a.î. F,,, ~A , la F,

1 +/5 ~ 1,618 reprezenta p~ntru 2

limită având loc egalitatea. (Acest număr

artiştii Renaşterii "secţiunea de aur").

b) Facem demonstraţia în cazul: Dacă

A diagonalizabilă. 1A" 1:S .•. :s; 1A1 1< 1, atunci Iim 1A, 1' ~O pentru i ~ 1,n, deci cf. 9.6. ·~limu, ~ c 1 (limA~)x 1 + ... + c.(limA:)x. ~O+ ... +O~ O k-te

k-t-

k-tcc

dacă

k-?oo

k-t-

u 0 : Iim u, ~O , atunci alegând ·~-rezultă că va trebui ca aceste condiţii iniţiale a.î. c 1 = 1, c2 = O, ... , c" = O, limu, ~ (limA~)x 1 ~O şi deoarecex1 ;tO (vector propriu) rezultă Iim A~~ O. Deci ReciprOC,

pentru orice

condiţii iniţiale

k-t""

IA,I