Föreläsningsanteckningar, Linjär algebra II [version 3 Aug 2016 ed.] [PDF]

  • Commentary
  • Downloaded from http://www.math.chalmers.se/~hasse/LinalgII.pdf
  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

F¨orel¨asningsanteckningar, Linj¨ar algebra II

Hasse Carlsson Version 2013

Inledning Syftet med linj¨ar algebra ¨ar att studera vektorrum och linj¨ara avbildningar mellan vektorrum. . . . (H¨ar skall det st˚ a n˚ agot KLOKT.) Kursen Linj¨ar algebra II ¨ar en forts¨attningskurs och utg˚ ar fr˚ an kunskaper i linj¨ar algebra motsvarande f¨oljande kapitel i David Lay, Linear algebra and its applications: Kapitel 1; Kapitel 2, $1-3&8-9; Kapitel 3, $1-2; Kapitel 5, $1-4; Kapitel 6 , $1 Detta kommer att refereras till som F¨ orsta kursen.

2

Inneh˚ all 1 Vektorrum 1.1 Definition av vektorrum 1.2 Delrum . . . . . . . . . . 1.3 Bas och dimension . . . 1.3.1 Baser . . . . . . . 1.3.2 Dimension . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

2 Linj¨ ara avbildningar 2.1 Definition av linj¨ar avbildning . . . . . . . . . . . 2.2 Inverterbara linj¨ara avbildningar . . . . . . . . . . 2.3 Isomorfa vektorrum . . . . . . . . . . . . . . . . . 2.4 Linj¨ara avbildningar mellan a¨ndligtdimensionella vektorrum och deras matriser . . . . . . . . . . . 2.5 Basbyten . . . . . . . . . . . . . . . . . . . . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

5 5 7 8 8 9

14 . . . . . . . 14 . . . . . . . 15 . . . . . . . 17 . . . . . . . 18 . . . . . . . 21

3 Spektralteori 26 3.1 Egenv¨arden och egenvektorer . . . . . . . . . . . . . . . . . . 26 3.2 Diagonalisering . . . . . . . . . . . . . . . . . . . . . . . . . . 31 4 Till¨ ampningar p˚ a spektralteori 4.1 N˚ agra geometriska exempel . . . . . . . . . . . . . . 4.2 Diskreta dynamiska system . . . . . . . . . . . . . . . 4.2.1 Stabilitet . . . . . . . . . . . . . . . . . . . . 4.3 Linj¨ara differentialekvationer . . . . . . . . . . . . . . 4.3.1 Inledning . . . . . . . . . . . . . . . . . . . . 4.3.2 Linj¨ara ekvationer med konstanta koefficienter 4.3.3 Matrisexponentialfunktionen . . . . . . . . . . 4.3.4 Stabilitet . . . . . . . . . . . . . . . . . . . . d2 x 4.3.5 Ekvationen 2 = Ax . . . . . . . . . . . . . dt 3

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

39 39 42 44 46 46 47 49 56

. . . . . 57

5 Skal¨ arproduktsrum 5.1 Inledning . . . . . . . . . . . . . . . . . 5.2 Skal¨arprodukt . . . . . . . . . . . . . . . 5.2.1 Normen av en vektor . . . . . . . 5.2.2 Cauchy-Schwarz olikhet . . . . . 5.2.3 Ortonormalbaser . . . . . . . . . 5.2.4 Konstruktion av ortonormalbaser 5.2.5 Ortogonal projektion . . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

62 62 63 64 65 68 69 70

6 Hilbertrum 6.1 Fullst¨andighet . . . . . . . . . . . 6.1.1 Cauchyf¨oljder . . . . . . . 6.2 Ortogonal projektion i Hilbertrum 6.3 Baser i Hilbertrum . . . . . . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

74 74 75 77 78

7 Linj¨ ara funktionaler och adjunkter 7.1 Riesz representationssats . . . . . . 7.2 Adjungerade operatorer . . . . . . 7.3 Dimensionssatsen igen . . . . . . . 7.4 Isometrier och unit¨ara operatorer .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

83 83 84 85 88

8 Spektralsatsen 93 8.1 Spektralsatsen . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 9 Jordans normalform 100 9.1 Generaliserade egenvektorer och nilpotenta operatorer . . . . . 100 9.2 Jordans normalform . . . . . . . . . . . . . . . . . . . . . . . 103 10 Diagonaliserbarhet–igen 10.1 Minimalpolynomet . . . . . . . . . . . . . . . 10.2 Cayley-Hamiltons sats . . . . . . . . . . . . . 10.3 Karakterisering av diagonaliserbara operatorer 10.4 Sturms sats . . . . . . . . . . . . . . . . . . . 10.5 Exempel . . . . . . . . . . . . . . . . . . . . . 11 Komplexifiering av vektorrum

4

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

110 . 110 . 112 . 113 . 115 . 116 118

Kapitel 1 Vektorrum 1.1

Definition av vektorrum

I F¨ orsta kursen har ni st¨ott p˚ a exempel p˚ a olika vektorrum; geometriska vektorer (i planet eller det tredimensionella rummet), Rn , delrum till Rn , och kanske ocks˚ a Cn . I alla dessa exempel kan vi addera tv˚ a vektorer u och v och f˚ a en ny vektor u + v. Vi kan ocks˚ a multiplicera en vektor u med en skal¨ar λ och f˚ a en ny vektor λu. Dessa operationer uppfyller vissa r¨akneregler (se nedan) och sammanfattas i f¨oljande definition av (ett abstrakt) vektorrum. L˚ at V vara en icketom m¨angd och K en kropp. (Om du inte vet vad en kropp ¨ar beh¨over du inte vara orolig, K ¨ar antingen R eller C i den h¨ar kursen.) En addition p˚ a V a¨r en funktion V ×V → V som till tv˚ a element u och v ordnar ett nytt element u+v ∈ V . En multiplikation med skal¨ arer p˚ a V ¨ar en funktion K × V → V som till λ ∈ K och u ∈ V ordnar ett element λu ∈ V . Definition 1.1. Ett vektorrum ¨ ar en icketom m¨ angd V med en addition och en multiplikation med skal¨ arer som uppfyller vektorrumsaxiomen 1. u + v = v + u

(kommutativitet)

2. (u + v) + w = u + (v + w)

(associativitet)

3. Det finns en vektor 0 s˚ a att

(nollvektorn)

v + 0 = v f¨ or alla v ∈ V . 4. Till varje vektor v ∈ V finns en vektor w ∈ V s˚ a att w + v = 0. 5

(additiv invers)

5. 1v = v

(multiplikativt enhetselement)

6. (αβ)v = α(βv)

(associativitet)

7. α(u + v) = αu + αv

(distributivitet)

8. (α + β)v = αv + βv

(distributivitet)

Multiplikationen i vektorrummet beror p˚ a kroppen K. N¨ar vi beh¨over precisera detta s¨ager vi att vi har ett vektorrum ¨over kroppen K. Ett vektorrum ¨over R kallas ocks˚ a f¨or ett reellt vektorrum och ett vektorrum ¨over C kallas ett komplext vektorrum. Det ¨ar l¨att att se att nollvektorn ¨ar entydigt best¨amd. F¨or om 0 och 0′ a nollvektorer s˚ a g¨aller ¨ar tv˚ 0 = 0 + 0′ = 0′ + 0 = 0′ . P˚ a liknande s¨att g¨aller att om w och w′ b˚ ada ¨ar inverser till v s˚ a ¨ar w = w + 0 = w + (w′ + v) = w + (v + w′ ) = (w + v) + w′ = 0 + w′ = w′ , s˚ a inversen ¨ar ocks˚ a entydigt best¨amd och betecknas −v. Entydigheten g¨or att vi kan definiera u − v = u + (−v). ¨ Ovning 1.1. Visa f¨ oljande: (a) 0v = 0. (b) α0 = 0. (c) (−1)v = −v.

Exempel 1.2. Gamla bekanta? 1. Geometriska vektorer 2. Rn och delrum till Rn 3. Cn och delrum till Cn 4. Mnm = {Alla n × m matriser} F¨ oljdrum 5. c = R∞ = {r = (r1 , r2 , . . .); ri ∈ R} ∞ 6. c0 = R∞ 0 = {r ∈ R ; ri → 0, i → ∞} ∈ R∞ ; ri = 0 utom f¨or ¨andligt m˚ anga i} 7. c00 = R∞ 00 = {rP ∞ 2 ∞ 2 8. ℓ = {r ∈ R ; 1 |ri | < ∞} 6

Funktionsrum 9. R2 [t] = P2 = {a + bt + ct2 ; a, b, c ∈ R} 10. C[t] = PC = {Alla polynom med komplexa koefficienter} 11. C[0, 1] = {Alla kontinuerliga funktioner p˚ a [0, 1]} 12. C ∞ (R) = {Alla o¨andligt deriverbara funktioner p˚ a R} k 13. C ([0, ∞)) = {Alla k g˚ anger kontinuerligt deriverbara funktioner a [0, ∞)} R p˚ 2 14. L (I) = {Alla integrerbara funktioner p˚ a I med I |f (x)|2 dx < ∞}

¨ Ovning 1.2. Verifiera att dessa exempel a¨r vektorrum. Vad a¨r u + v och λu?

1.2

Delrum

Definition 1.3. En icketom delm¨ angd U till ett vektorrum V kallas ett delrum till V om U ocks˚ a¨ ar ett vektorrum (med avseende p˚ a samma addition och multiplikation med skal¨ arer som p˚ a V ). F¨or att kontrollera att en m¨angd U ¨ar ett delrum skall vi visa att vektorrumsaxiomen a¨r uppfyllda. F¨or detta r¨acker det att visa att U ¨ar slutet under addition och multiplikation med skal¨arer, dvs. om u, v ∈ U och λ ∈ K s˚ a g¨aller u + v ∈ U och λu ∈ U . Axiomen 1,2 och 5-8 g¨aller f¨or alla vektorer ¨ i V och allts˚ a speciellt f¨or vektorer i U . Axiomen 3 och 4 f¨oljer fr˚ an Ovning 1 eftersom 0 = 0u ∈ U och −u = (−1)u ∈ U . Exempel 1.4. 1. M¨angden {x ∈ R3 ; x1 + 2x2 − x3 = 0} ¨ar ett delrum till R3 men inte {x ∈ R3 ; x1 + 2x2 − x3 = 5}. 2. Alla symmetriska n × n-matriser ¨ar ett delrum till Mnm . 3. c00 ¨ar ett delrum till c0 som i sin tur ¨ar ett delrum till c. 4. ℓ2 ¨ar ett delrum till c0 . 5. R2 [t] ¨ar ett delrum till R[t]. 6. C ∞ [0, ∞] ¨ar ett delrum till C 7 [0, ∞]. 7. C[0, 1] ¨ar ett delrum till L2 [0, 1]. Definition 1.5. L˚ at {v1 , . . . , vn } vara vektorer i V och λi skal¨ arer. D˚ a kallas v = λ1 v 1 + . . . + λn v n

(1.1)

f¨ or en linj¨ arkombination av {v1 , . . . , vn }. Mer allm¨ ant om W ¨ ar en o¨ andlig delm¨ angd till V s˚ a¨ ar v en linj¨ arkombination av vektorerna i W om det finns ¨ andligt m˚ anga {v1 , . . . , vn } i W s˚ a att (1.1) g¨ aller. 7

Det rum som sp¨ anns av W best˚ ar av alla linj¨ arkombinationer av vektorer i W , Span(W ) = {λ1 v1 + . . . + λn vn ; vi ∈ W, λi ∈ K} . Vi s¨ ager att W genererar eller spa ¨nner V om Span(W ) = V . ¨ Ovning 1.3. Visa att Span(W ) ¨ar ett delrum till V .

1.3 1.3.1

Bas och dimension Baser

Definition 1.6. En m¨ angd B = {bλ }λ∈Λ av vektorer i V ¨ ar en bas f¨ or V om varje vektor v ∈ V entydigt kan skrivas som en linj¨ arkombination av vektorerna i B. H¨ar kan B vara en o¨andlig m¨angd. Kom ih˚ ag att en linj¨arkombination alltid ¨ar en ¨andlig summa. Om B = {b1 , . . . , bn } ¨ar en ¨andlig bas kan varje vektor v ∈ V entydigt skrivas v = x1 b1 + . . . + xn bn . Vi l˚ ater [v]B = (x1 , . . . , xn ) ∈ Kn . Talen x1 , . . . , xn kallas f¨or koordinaterna f¨or v i basen B och [v]B f¨or koordinatvektorn. Det ¨ar l¨att att verifiera att [v + u]B = [v]B + [u]B och [λv]B = λ[v]B . H¨ar ¨ar [v]B + [u]B och λ[v]B definierade av de vanliga vektorrumsoperationerna p˚ a Kn . En bas ger oss allts˚ a m¨ojlighet att r¨akna i det konkreta vektorrummet Rn eller Cn i st¨allet f¨or i det abstrakta vektorrummet V . Exempel 1.7. 4. En bas f¨or Mn×m ges av de nm matriserna Mij d¨ar Mij ¨ar matrisen med 1 p˚ a plats ij, 0 f¨or ¨ovrigt. 7. En bas f¨or c00 ges av vektorerna ei d¨ar ei = (0, 0, . . . , 0, 1, 0, . . .) (ettan st˚ ar p˚ a plats i). 9. En bas f¨or R2 [t] ges av polynomen 1, t och t2 . 10. En bas f¨or C[t] ges av {1, t, t2 , t3 , . . .} Det ¨ar inte l¨att att ange en bas f¨or de ¨ovriga rummen 5 − 14 i Exempel 1.2. Definition 1.8. En m¨ angd A = {vλ }λ∈Λ av vektorer ¨ ar linj¨ art oberoende om alla ekvationer λ1 v 1 + . . . + λn v n = 0 , (1.2) med vi ∈ A endast har den triviala l¨ osningen λ1 = . . . = λn = 0. 8

M¨angden A kan vara o¨andlig men vi kr¨aver (1.2) bara f¨or ¨andliga delm¨angder till A. Villkoret kan ocks˚ a uttryckas som att den enda linj¨arkombinationen av 0 med vektorer i A ¨ar den triviala. Om vektorerna inte ¨ar linj¨art oberoende kallas de linj¨ art beroende. ¨ ar en bas om och endast om B ¨ar linj¨art oberoende Ovning 1.4. Visa att B = {bλ }λ∈Λ ¨ och B genererar V . ¨ Ovning 1.5. Visa att om {v1 , . . . , vn } ¨ar linj¨art oberoende i V s˚ a ¨ar {v1 − v2 , v2 − v3 . . . , vn−1 − vn , vn } det ocks˚ a. ¨ Ovning 1.6. Visa att om {v1 , . . . , vn } sp¨anner V s˚ a g¨or {v1 − v2 , v2 − v3 . . . , vn−1 − vn , vn } det ocks˚ a. ¨ Ovning 1.7. Antag att {v1 , . . . , vn } ¨ ar linj¨art oberoende i V och w ∈ V . Visa att om {v1 + w, . . . , vn + w} ¨ ar linj¨ art beroende s˚ a w ∈ Span(v1 , . . . , vn ). 5 ¨ Ovning 1.8. L˚ at U = {x ∈ R ; x1 = 3x2 och x3 = 7x4 }. Best¨am en bas f¨or U . ¨ Ovning 1.9. Finns det en bas p0 , p1 , p2 , p3 f¨or R3 [t] d¨ar inget av polynomen har grad 2? Bevis eller motexempel. ¨ Ovning 1.10. Visa att funktionerna ex , xex och e2x ¨ar linj¨art oberoende i

(a) i C(R). (b) i C(I) d¨ ar I ¨ ar intervall I ⊂ R som inneh˚ aller origo. (c) i C(I) d¨ ar I a r ett godtyckligt intervall I ⊂ R. ¨ (Del (a) f¨ oljer f¨ orst˚ as fr˚ an (b) som i sin tur f¨oljer fr˚ an (c). Men (a) ¨ar enklare att visa ¨ an (b) som i sin tur ¨ ar enklare ¨an (c).)

1.3.2

Dimension

Definition 1.9. Vektorrummet V ¨ ar ¨ andligtdimensionellt om det finns anga vektorer v1 , . . . , vn som genererar V . ¨andligt m˚ Ett rum som inte ¨ar ¨andligtdimensionellt kallas o¨ andligtdimensionellt eller s¨ags ha o¨andlig dimension. Anm¨ arkning 1.10. Vektorrummet som bara best˚ ar av nollvektorn passar inte in definitionen. Vi g¨or konventionen att {0} a¨r a¨ndligtdimensionellt och har dimensionen 0. Lemma 1.11. Om v1 , . . . , vn sp¨ anner V s˚ a finns det en delm¨ angd av dessa vk1 , vk2 . . . , vkl som a r en bas f¨ o r V . ¨ Bevis. Vi kan anta att ingen vektor vi = 0. L˚ at B1 = {v1 }. F¨or i = 2, 3, . . . , n l˚ ater vi Bi = Bi−1 ∪{vi } om vi ∈ / Span(Bi−1 ), annars s¨atter vi Bi = Bi−1 . Det ¨ar l¨att att med induktion se att Bi ¨ar linj¨art oberoende och att Span(Bi ) = Span{v1 , . . . , vi }. Med i = n ger detta att Bn ¨ar linj¨art oberoende och sp¨anner V och allts˚ a ¨ 1.4.) ¨ar Bn en bas. (J¨amf¨or Ovning 9

En omedelbar f¨oljd av detta ¨ar Korollarium 1.12. Ett ¨ andligtdimensionellt vektorrum har en bas. Fr˚ an teorin f¨or l¨osningar till linj¨ara ekvationssystem i F¨ orsta kursen f˚ ar vi f¨oljande resultat. Lemma 1.13. Om b1 , . . . , bn ¨ ar en bas f¨ or V och v1 , . . . , vm ¨ ar linj¨ art oberoende s˚ a g¨ aller m ≤ n. Bevis. L˚ at B = {b1 , . . . , bn } och [v]B vara koordinatvektorn till v i denna bas. D˚ a kan ekvationen λ1 v 1 + . . . + λm v m = 0 skrivas p˚ a matrisform   Aλ = 0 d¨ar A = [v1 ]B · · · [vm ]B . ([vi ]B och λ ¨ar kolonnvektorer.) Detta ¨ar ett l¨osbart ekvationssystem med m obekanta och n ekvationer. S˚ a om m > n finns o¨andligt m˚ anga l¨osningar, och v1 , . . . , vm ¨ar inte linj¨art oberoende. Allts˚ a g¨aller m ≤ n. Bevisen av f¨oljande konsekvenser l¨amnas som en enkel(?) ¨ovning. Korollarium 1.14. Tv˚ a baser i ett ¨ andligtdimensionellt vektorrum har lika m˚ anga element. Korollarium 1.15. Om vektorrummet V ¨ ar ¨ andligtdimensionellt s˚ a finns det inte en o¨ andlig m¨ angd av linj¨ art oberoende vektorer {vλ }λ∈Λ i V . P˚ a grund av Korollarium 1.12 och 1.14 kan vi nu g¨ora f¨oljande Definition 1.16. Dimensionen f¨ or ett ¨ andligtdimensionellt vektorrum V ar antalet element i en bas. ¨ Vi kan ocks˚ a konstruera baser ”nedifr˚ an”. Lemma 1.17. Varje linj¨art oberoende m¨ angd B = {b1 , b2 , . . . , bm } p˚ a ett andligtdimensionellt vektorrum kan utvidgas till en bas f¨ or V . ¨ Bevis. Eftersom V ¨ar ¨andligtdimensionellt sp¨anns V av ¨andligt m˚ anga vektorer v1 , v2 , . . . , vn . Om vi anv¨ander Lemma 1.11 p˚ a vektorerna b1 , b2 , . . . , bm , v1 , v2 , . . . , vn f˚ ar vi en bas f¨or V . Det ¨ar klart att, eftersom b1 , b2 , . . . , bm ¨ar linj¨art oberoende s˚ a ing˚ ar b1 , b2 , . . . , bm i denna bas. 10

Bevisen av f¨oljande konsekvenser l¨amnas som ¨ovning. Korollarium 1.18. Om U a a g¨ aller dim U ≤ dim V . ¨r ett delrum till V s˚ Korollarium 1.19. Om V ¨ ar ett vektorrum med dimensionen n och v1 , v2 , . . . , vn sp¨ anner V s˚ a¨ ar v1 , v2 , . . . , vn en bas f¨ or V . Korollarium 1.20. Om dim V = n och v1 , v2 , . . . , vn ¨ ar linj¨ art oberoende s˚ a ¨ar v1 , v2 , . . . , vn en bas f¨ or V .

Det o¨ andligtdimensionella fallet ¨ Aven o¨andligtdimensionella vektorrum har en bas, och tv˚ a baser har ”lika m˚ anga” element. F¨or att bevisa existensen av en bas kan vi resonera ungef¨ar som i beviset i det ¨andligtdimensionella fallet. Tag en vektor v1 6= 0. Om v1 sp¨anner V ¨ar vi klara. Annars tag en vektor v2 6∈ Span(v1 ). Om Span(v1 , v2 ) = V ¨ar vi klara. Annars tag en vektor. . . . . . . I det ¨andligtdimensionella fallet tar denna process slut efter ett a¨ndligt antal steg. F¨or att vi skall ”bli klara” i det o¨andligtdimensionella fallet beh¨over vi anv¨anda urvalsaxiomet. Tv˚ a (o¨andliga) m¨angder A och B har samma kardinalitet (den precisa definitionen av ”lika m˚ anga” element) om det finns en bijektion mellan A och B. Man kan bevisa att tv˚ a baser f¨or V har samma kardinalitet. L¨as g¨arna om urvalsaxiomet och kardinaltal p˚ a Wikipedia: http://en.wikipedia.org/wiki/Axiom of choice http://en.wikipedia.org/wiki/Cardinal number ¨ Ovning 1.11. Avg¨ or om f¨ oljande p˚ ast˚ aenden ¨ar sanna eller falska. (a) Varje vektorrum som genereras av en ¨andlig m¨angd har en bas; (b) Varje vektorrum har en ¨ andlig bas; (c) Ett vektorrum kan ha mer ¨ an en bas; (d) Om ett vektorrum har en ¨ andlig bas s˚ a har alla baser lika m˚ anga element; (e) Rn [t] har dimensionen n; (f) Mm×n har dimensionen m + n; (g) Om vektorerna v1 , . . . , vn genererar vektorrummet V s˚ a kan varje vektor i V skrivas som en linj¨ arkombination av v1 , . . . , vn p˚ a precis ett s¨att; (h) Varje delrum till ett ¨ andligtdimensionellt rum ¨ar ¨andligtdimensionellt; (i) Om dim(V ) = n s˚ a har V exakt ett delrum med dimension 0 och exakt ett med dimensionen n.

11

¨ Ovning 1.12. Vilka av f¨ oljande m¨angder a¨r vektorrum? F¨orklara! (a) Alla kontinuerliga funktioner p˚ a [0, 1]; (b) Alla polynom p˚ a [−1, 1] med p(0) = 0; (c) Alla polynom p˚ a [−1, 1] med p(0) = 1; (d) Alla ickenegativa funktioner p˚ a intervallet (1, ∞);

(e) Alla symmetriska n × n-matriser. ¨ Ovning 1.13. Antag att dim(V ) = n och v1 , . . . , vn ¨ar vektorer i V . Visa att d˚ a ¨ar v1 , . . . , vn linj¨ art oberoende om och endast om de genererar V . ¨ Ovning 1.14. Kan vektorerna v1 , v2 , v3 vara linj¨art oberoende men vektorerna w1 = v1 + v2 w2 = v2 + v3 och w3 = v1 + v3 linj¨art beroende? ¨ Ovning 1.15. Antag att U a ¨r ett delrum till det a¨ndligtdimensionella vektorrummet V . Visa att om dim U = dim V s˚ a a¨r U = V . ¨ a att pi (π) = 0 f¨or alla i. Visa Ovning 1.16. Antag att p0 , p1 , . . . , pm a¨r polynom i Pm s˚ r linj¨ a rt beroende. att p0 , p1 , . . . , pm a ¨ ¨ Ovning 1.17. Visa att V a ¨r o¨andligtdimensionellt om och endast om det finns en f¨oljd av vektorer v1 , v2 , v3 , . . . s˚ a att v1 , v2 , . . . , vn a¨r linj¨art oberoende f¨or varje positivt heltal n. ¨ Ovning 1.18. Visa att (a) R∞ , (b) R∞ 0 , (c) R∞ 00 (d) C[0, 1] alla ¨ ar o¨ andligtdimensionella. ¨ Ovning 1.19. (a) L˚ at U1 , . . . , Um vara delrum till vektorrummet V . D˚ a definieras summan U1 + . . . + Um som alla m¨ojliga summor av element i U1 , . . . , Um . Mer precist betyder detta att U1 + . . . + Um = {u1 + . . . + um ; u1 ∈ U1 , . . . , um ∈ Um } . Visa att U1 + . . . + Um ¨ar ett delrum till V . (b) Om framst¨ allningen av en vektor i U = U1 + . . . + Um ¨ar entydig s¨ager vi att U ¨ ar en direkt summa av U1 , . . . , Um och skriver U = U1 ⊕ . . . ⊕ Um . Visa att U = U1 ⊕ . . . ⊕ Um om och endast om (i) U = U1 + . . . + Um och (ii) om u1 + . . . + um = 0, ui ∈ Ui , s˚ a ¨ar u1 = . . . = um = 0

¨ Ovning 1.20. Visa att om V ¨ar ett n-dimensionellt vektorrum s˚ a finns endimensionella vektorrum Ui med V = U1 ⊕ . . . ⊕ Un .

12

¨ Ovning 1.21. Antag att V = U1 +U2 . Visa att V = U1 ⊕U2 om och endast om U1 ∩U2 = {0}. ¨ Ovning 1.22. Antag att U och V ¨ ar delrum till R9 med dim U = dim V = 5. Visa att U ∩ V 6= {0}. ¨ Ovning 1.23. Antag att U och V ¨ ar delrum till C8 med dim U = 3, dim V = 5 och 8 dim(U + V ) = 8. Visa att C = U ⊕ V . ¨ Ovning 1.24. (Sv˚ ar? F¨ or den teoretiskt intresserade.) Antag att V har en uppr¨aknelig bas b1 , b2 , b3 , . . .. Visa att d˚ a¨ ar varje bas f¨or V uppr¨aknelig.

F¨ orslag till svar 1.8 (3, 1, 0, 0, 0), (0, 0, 7, 1, 0) och (0, 0, 0, 0, 1) 1.9. Ja, t.ex. 1, t, t2 + t3 och t3 1.11 (a), (c), (d), (h) och (i) ¨ ar sanna, (b), (e), (f) och (g) falska 1.12 (a), (b) och (e) ¨ ar vektorrum, (c) och (d) ¨ ar det inte 1.14 Nej

13

Kapitel 2 Linj¨ ara avbildningar Fr˚ an F¨ orsta kursen b¨or du k¨anna till linj¨ara avbildningar T : Rn → Rm , deras samband med matriser och matrismultiplikation. Repetera det om du inte k¨anner dig s¨aker p˚ a hur det fungerar.

2.1

Definition av linj¨ ar avbildning

Definition 2.1. En linja a vektorrum V och W o ¨ver ¨r avbildning mellan tv˚ samma kropp K ¨ ar en funktion T : V → W som uppfyller T (αu + βv) = αT u + βT v . En linj¨ar avbildning T : V → V kallas f¨or en linja a V och ¨r operator p˚ en linj¨ar avbildning T : V → K kallas f¨or en linj¨ ar funktional p˚ a V. Exempel 2.2. 1. Nollavbildningen. O : V → W given av Ov = 0 f¨or varje v ∈ V . 2. Identitetsavbildningen p˚ a V . I = IV : V → V given av Iv = v f¨or varje v ∈V. 3. En m × n-matris A definierar en linj¨ar avbildning T = TA : Rn → Rm genom T x = Ax. 4. L˚ at B = {b1 , . . . , bn } vara en bas p˚ a V . D˚ a ¨ar v 7→ [v]B en linj¨ar avbildning. 5. P˚ a R∞ definieras fram˚ atskift F och bak˚ atskift B genom F (r1 , r2 , r3 , . . .) = (0, r1 , r2 , r3 , . . .) respektive B(r1 , r2 , r3 , . . .) = (r2 , r3 , r4 . . .). 6. Derivering i funktionsrum, t.ex. avbildningen Dp = p′ p˚ a P5 [t]R 1 6. Integrering, t.ex. avbildningen T : C[0, 1] → R given av T f = 0 f (x)dx. 14

N˚ agra enkla konsekvenser av definitionen ¨ar att om T ¨ar en linj¨ar avbildning s˚ a g¨aller T 0 = 0 och T (α1 v1 + α2 v2 + . . . + αn vn ) = α1 T v1 + α2 T v2 + . . . + αn T v n . Till en linj¨ar avbildning h¨or tv˚ a viktiga delrum. Definition 2.3. Om T : V → W s˚ a definieras k¨ arnan eller nollrummet till T genom Ker T = {v ∈ V ; T v = 0} . Bildrummet (eng. range) till T ¨ ar

Ran T = {w ∈ W ; w = T v f¨ or n˚ agot v ∈ V } . ¨ Ovning 2.1. Visa att k¨ arnan och bildrummet till T ¨ar delrum till V respektive W .

2.2

Inverterbara linj¨ ara avbildningar

Om T : V → W s˚ a g¨aller T IV = T och IW T = T d¨ar IV och IW ¨ar identitetsavbildningarna p˚ a V respektive W . S˚ a I fungerar som en etta vid sammans¨attning av linj¨ara avbildningar. Definition 2.4. 1. En linj¨ ar avbildning T : V → W har en v¨ ansterinvers om det finns en linj¨ar avbildning B : W → V s˚ a att BT = I = IV . 2. En linj¨ ar avbildning T : V → W har en h¨ ogerinvers om det finns en linj¨ar avbildning C : W → V s˚ a att T C = I = IW . 3. T ¨ar inverterbar om den har b˚ ade en h¨ oger och en v¨ ansterinvers. Om T har en v¨ansterinvers B s˚ a ¨ar T injektiv. Ty om T x = T y s˚ a x = Ix = BT x = BT y = Iy = y. Om T har en h¨ogerinvers C s˚ a ¨ar T surjektiv. Ty om y ∈ W och vi s¨atter x = Cy s˚ a g¨aller T x = T Cy = Iy = y. S˚ a en inverterbar linj¨ar avbildning T : V → W ¨ar allts˚ a b˚ ade injektiv och surjektiv. Anv¨andningen av begreppet invers i linj¨ar algebra skiljer sig n˚ agot fr˚ an hur det anv¨ands i analys. I analys s¨ager vi att en injektiv funktion f har en invers som ¨ar definierad p˚ a bilden av f . S˚ a t.ex. har funktionen ex inversen ln x som ¨ar definierad p˚ a (0, ∞). Om T ¨ar en injektiv linj¨ar avbildning T : V → W s˚ a kan vi betrakta T som en avbildning T : V → Ran T . Denna avbildning blir en bijektion T : V → Ran T som ¨ar inverterbar enligt f¨oljande sats. Sats 2.5. Antag att T : V → W ¨ ar linj¨ ar, injektiv och surjektiv. D˚ a ¨ ar T inverterbar. 15

Bevis. Eftersom T ¨ar en bijektion har ekvationen T x = y en entydig l¨osning f¨or varje y . L˚ at x = T −1 y vara denna l¨osning. D˚ a ¨ar T −1 en funktionsinvers till T . at y1 , y2 ∈ W och α1 , α2 ∈ K. D˚ a Det ˚ aterst˚ ar att visa att T −1 ¨ar linj¨ar. L˚ −1 g¨aller T ◦ T (α1 y1 + α2 y2 ) = α1 y1 + α2 y2 . Men eftersom T ¨ar linj¨ar g¨aller ocks˚ a T ◦ (α1 T −1 (y1 ) + α2 T −1 (y2 )) = α1 T ◦ T −1 (y1 ) + α2 T ◦ T −1 (y2 )) = α1 y1 + α2 y2 . S˚ a T ◦ T −1 (α1 y1 + α2 y2 ) = T ◦ (α1 T −1 (y1 ) + α2 T −1 (y2 )). Men T a T −1 (α1 y1 + α2 y2 ) = α1 T −1 (y1 ) + α2 T −1 (y2 ) och T −1 ¨ar linj¨ar. ¨ar injektiv s˚ ¨ Ovning 2.2. Visa att om 0 ¨ar den enda vektor som uppfyller T x = 0 s˚ a ¨ar T injektiv. ¨ Ovning 2.3. Antag att T : V → W ¨ar linj¨ar. Visa att en funktion b med b ◦ T = I inte beh¨ over vara linj¨ ar. ¨ Ovning 2.4. Visa att om T : V → W ¨ar injektiv s˚ a har T en v¨ansterinvers. Ledning? Avbildningen T : R → R2 given av x 7→ (x, 0) har en v¨ansterinvers B given av B(x, y) = x. Funktionen b(x, y) = x + sin y uppfyller b ◦ T = I men b ˜ y) = x + y ¨ar ocks˚ ar ingen v¨ ansterinvers eftersom den inte ¨ar linj¨ar. (B(x, a en ¨ v¨ ansterinvers.) ¨ Ovning 2.5. Antag att T : V → W ¨ar linj¨ar. Visa att en funktion c med T ◦ c = I inte beh¨ over vara linj¨ ar. ¨ Ovning 2.6. Antag att T : V → W ¨ar surjektiv. M˚ aste T ha en h¨ogerinvers?

¨ Ovning 2.7. Visa att det finns tv˚ a icke inverterbara avbildningar A och B s˚ adana att AB ¨ ar inverterbar. Kan BA ocks˚ a vara inverterbar?

Vi avslutar detta avsnitt med f¨oljande satser. Sats 2.6. Om T : V → W ¨ ar inverterbar s˚ a finns en entydigt best¨ amd linj¨ ar avbildning T −1 : W → V som uppfyller T T −1 = I = IW och T −1 T = I = IV . Avbildningen T −1 kallas f¨or inversen till T . Bevis. L˚ at B och C vara v¨anster- respektive h¨ogerinverser till T . D˚ a g¨aller B = BI = B(T C) = (BT )C = IC = C. S˚ a v¨anster- och h¨ogerinverserna ¨ar entydigt best¨amda och identiska och a¨r den s¨okta inversen. Sats 2.7. Om S och T a a g¨ aller ¨r inverterbara s˚ −1 T −1 = T och (ST )−1 = T −1 S −1 . ¨ Bevis. Ovning.

16

2.3

Isomorfa vektorrum

I det h¨ar avsnittet l˚ ater vi att alla vektorrum vara reella men allt fungerar lika bra f¨or komplexa vektorrum. Definition 2.8. En inverterbar linj¨ ar avbildning T : V → W kallas f¨ or en isomorfism. Tv˚ a vektorrum V och W ¨ ar isomorfa om det finns en isomorfism T : V → W. Om V och W ¨ ar isomorfa skriver vi V ∼ = W. Proposition 2.9. Isomorfism ¨ ar en ekvivalensrelation mellan vektorrum. Bevis. Vi skall allts˚ a visa, ∼ (a) V = V , (b) Om V ∼ aW ∼ = W s˚ = V och ∼ ∼ (c) Om U = V och V = W s˚ aU∼ = W. (a) f¨oljer eftersom IV ¨ar en isomorfism p˚ a V. Om T : V → W ¨ar en isomorfi mellan V och W , s˚ a ¨ar T −1 : W → V en isomorfi mellan W och V och (b) f¨oljer. F¨or (c) observerar vi att om S : U → V och T : V → W ¨ar isomorfier mellan U och V respektive V och W , s˚ a ¨ar T S en isomorfi mellan U och W . Korollarium 2.10. Tv˚ a¨ andligtdimensionella vektorrum V och W med samma dimension ¨ ar ismorfa. Bevis. Antag att dim V = dim W = n. L˚ at b1 , . . . , bn vara en bas f¨or V . D˚ a n n ∼ a V = R . P˚ a samma s¨att g¨aller ¨ar v 7→ [v]B en isomorfi mellan V och R s˚ n ∼ ∼ W = R och Proposition 2.9 ger V = W . Proposition 2.11. Om T : V → W a ¨r en isomorfi mellan V och W och B = {b1 , b2 , . . . , bn } ¨ ar en bas p˚ a V s˚ a a ¨r T B = {T b1 , T b2 , . . . , T bn } en bas f¨ or W . Bevis. Tag w ∈ W och l˚ at v = T −1 w. Eftersom B genererar V finns tal xi med v = x1 b1 + . . . + xn bn . Allts˚ a g¨aller w = T v = x1 T b1 + . . . + xn T bn s˚ a T B genererar W . Om x1 T b1 + . . . + xn T bn = 0 s˚ a g¨aller T (x1 b1 + . . . + xn bn ) = T 0 = 0. Men T ¨ar injektiv s˚ a x1 b1 + . . . + xn bn = 0. Detta ger x1 = . . . = xn = 0 eftersom B ¨ar linj¨art oberoende. S˚ a T B ¨ar linj¨art oberoende. Eftersom T B ¨ar linj¨art oberoende och genererar W ¨ar T B en bas. En omedelbar konsekvens av detta ¨ar 17

Korollarium 2.12. Om de ¨ andligtdimensionella vektorrummen V och W ar isomorfa s˚ a har de samma dimension. ¨ Fr˚ an detta f¨oljer att om en linj¨ar avbildning mellan tv˚ a ¨andligtdimensionella vektorrum V och W ¨ar inverterbar s˚ a har V och W samma dimension. Korollarium 2.10 och 2.12 kan sammanfattas i Sats 2.13. Tv˚ a ¨ andligtdimensionella vektorrum V och W ¨ ar isomorfa om och endast om de har samma dimensionen. Anm¨ arkning 2.14. Sats 2.13 g¨aller ocks˚ a f¨or o¨andligtdimensionella vektorrum. Exempel 2.15. 1. Geometriska vektorer i planet a¨r isomorfa med R2 . 2. P˚ a samma s¨att ¨ar geometriska vektorer i rummet isomorfa med R3 . Dessa isomorfier gjorde det m¨ojligt att ”r¨akna” med de geometriska vektorerna. 3. Mnm ¨ar isomorft med Rnm . 4. Rn [t] ¨ar isomorft med Rn+1 eftersom 1, t, t2 , . . . , tn ¨ar en bas f¨or Rn [t]. 5. R[t] = {alla reella polynom} ¨ar isomorft med c00 = {r ∈ R∞ ; ri = 0 utom f¨or ¨andligt m˚ anga i}. R[t] har den uppr¨akneliga basen 1, t, t2 , t3 , . . . och c00 den uppr¨akneliga basen e1 , e2 , e3 , . . . d¨ar ei = (0, 0, . . . , 0, 1, 0, . . .) d¨ar 1 st˚ ar p˚ a plats i. S˚ a avbildningen p(t) = a0 + a1 t + . . . + am tm 7→ a0 e1 + a1 e2 + . . . + am em ¨ar en isomorfi mellan R[t] och c00 . (Visa det!)

2.4

Linj¨ ara avbildningar mellan ¨ andligtdimensionella vektorrum och deras matriser

L˚ at T : Rn → Rm vara en linj¨ar avbildning och S = {e1 , . . . , en } standardbasen i Rn . Fr˚ an F¨ orsta kursen vet vi att T ges av matrisen [T ] = (T e1 · · · T en ); T x = T (x1 e1 + . . . + xn en ) = x1 T e1 + . . . + xn T en = [T ][x]S . Definitionen av matrismultiplikation ¨ar gjord s˚ a att om T : Rn → Rm och m d U : R → R , s˚ a har den sammansatta avbildningen U T matrisen [U T ] = [U ][T ]. 18

I det h¨ar avsnittet skall vi se hur detta kan generaliseras till godtyckliga ¨andligtdimensionella vektorrum. Vi p˚ aminner om att om b1 , . . . , bn ¨ar en bas f¨or V , v = x1 b1 + . . . + xn bn och [v]B = (x1 , . . . , xn ), s˚ a ¨ar v 7→ [v]B en isomorfi mellan V och Kn . Antag nu att T : V → W ¨ar en linj¨ar avbildning och att A = {a1 , . . . , an } a genererar T en linj¨ar ¨ar en bas f¨or V och B = {b1 , . . . , bm } en bas f¨or W . D˚ n m avbildning [T ]BA : K → K enligt f¨oljande diagram. T

VO

/W

∼ =

Kn

∼ =

∼ =

/ Km

[v]A



[T ]BA

vO

T

/ Tv 

∼ =

/ [T v]B

[T ]BA

Avbildningen fr˚ an Kn → Km a¨r sammansatt av tre linj¨ara avbildningar; Kn ∋ [v]A = (x1 , . . . , xn ) 7→ v = x1 a1 + . . . + xn an 7→ T v 7→ [T v]B . Eftersomei 7→ ai 7→ T ai 7→ [T ai ]B ges denna avbildning av m × n-matrisen [T ]BA = [T a1 ]B . . . [T an ]B . Vi sammanfattar detta i Sats 2.16. En linj¨ ar avbildning w = T v mellan tv˚ a a ¨ndligtdimensionella vektorrum V och W med baserna A respektive B inducerar en linj¨ ar avbilddim V dim W ning [w]B = [T ]BA och K med matrisen [T ]BA =   [v]A mellan K [T a1 ]B . . . [T an ]B . Eftersom w = T v ¨ar ekvivalent med [w]B = [T ]BA [v]A kan vi dra slutsatser om T fr˚ an egenskaper f¨or [T ]BA och tv¨artom. T.ex. ¨ar ekvationen T x = y l¨osbar om och endast om [T ]BA [x]B = [y]B ¨ar l¨osbar. En konsekvens av matrisframst¨allningen ¨ar f¨oljande viktiga resultat. Sats 2.17 (Dimensionssatsen). Antag att T : V → W ¨ ar en linj¨ ar avbildning mellan tv˚ a¨ andligtdimensionella rum V och W . D˚ a g¨ aller dim Ker T + dim Ran T = dim V . Vi ger tv˚ a bevis av dimensionssatsen. I det f¨orsta beviset inf¨or vi koordinater och reducerar situationen till matrisfallet. Det andra beviset ¨ar mer direkt och anv¨ander inte koordinater och matriser. 19

Bevis 1. L˚ at dim V = n och dim W = m. V¨alj baser A och B p˚ a V respektive W och l˚ at M = [T ]BA vara matrisen till T i dessa baser. Matrisen M har n kolonner och m rader. Vi observerar f¨orst att Ker T och Ker M ¨ar isomorfa. F¨or att se detta p˚ aminner vi om att v 7→ [v]A ¨ar en bijektion. Dessutom g¨aller T v = 0 om och endast om M [v]A = 0. S˚ a v 7→ [v]A ¨ar en bijektion mellan Ker T och Ker M som allts˚ a ¨ar isomorfa. Enligt Sats 2.13 g¨aller d¨arf¨or dim Ker T = dim Ker M . P˚ a liknande s¨att ¨ar Ran T och Ran M isomorfa och dim Ran T = dim Ran M . S˚ a f¨or att visa dimensionssatsen r¨acker det att visa den i matrisfallet, dim Ker M + dim Ran M = dim V . ˜ vara den reducerade trappstegsmatrisen till M och antag att anL˚ at M talet pivotelement ¨ar k. ˜ x = 0. L¨osningen har Ekvationen M x = 0 har samma l¨osningar som M en frihetsgrad f¨or varje fri variabel, dvs. n−k stycken. S˚ a dim Ker M = n−k. Vi vet ocks˚ a att de k pivotkolonnerna i matrisen M a¨r en bas f¨or kolonnrummet till M , dvs. dim Ran M = k. S˚ a dim Ker M + dim Ran M = (n − k) + k = n = dim V . I det andra beviset kommer vi att att anv¨anda direkt summa av vektor¨ rum, V = U1 ⊕ U2 , se Ovning 1.19-21. Fr˚ an definitionen f¨oljer att dim V = dim U1 + dim U2 . Vi betraktar ocks˚ a restriktionen av T till ett delrum U . Denna avbildning betecknas T |U . T |U ¨ar allts˚ a den linj¨ara avbildningen T |U : U → W d¨ar T |U u = T u, u ∈ U . Bevis 2. Antag f¨orst att Ker T = {0} och allts˚ a dim Ker T = 0. D˚ a ¨ar ∼ T : V → Ran T en bijektion. S˚ a V = Ran T och dim Ran T = dim V . Detta ger dim Ker T + dim Ran T = 0 + dim Ran T = dim V . Om Ker T 6= {0} finns ett delrum U till V s˚ a att V = Ker T ⊕ U . D˚ a g¨aller dim V = dim Ker T + dim U . F¨or avbildningen T |U g¨aller att Ran T |U = Ran T . (Varf¨or d˚ a?) Dessutom a¨r Ker T |U = {0}. (Varf¨or d˚ a?) Allts˚ a g¨aller dim Ran T = dim Ran T |U = dim U och vi f˚ ar dim Ker T + dim Ran T = dim Ker T + dim U = dim V .

20

Exempel 2.18. Best¨am alla andragradspolynom p(t) s˚ a att T p(t) = 1 + t2 ′ d¨ar T p(t) = p (t) + p(t). L¨osning. T p = p′ + p ¨ar en linj¨ar avbildning p˚ a R2 [t]. L˚ at B vara basen 2 {p0 , p1 , p2 } d¨ar p0 (t) = 1, p1 (t) = t och p2 (t) = t . D˚ a g¨aller T p0 (t) = 0+1 = p , T p (t) = 1 + t = p + p och T p (t) = 2t + t2 = 2p1 + p2 . S˚ a 1 0 1 2  0 1   [T ]BB =  0  0

1 1 0

0

  2 .  1

Ans¨att P (t) = A + Bt + Ct2 . Ekvationen T P (t) = 1 + t2

¨ar ekvivalent med [T ]BB [P (t)]B = [T P (t)]B = [1 + t2 ]B dvs.      1 1 0 A 1            0 1 2  B  =  0  .      0 0 1 C 1 Detta ekvationssystem har l¨osningen A = 3, B = −2 och C = 1 (R¨akna sj¨alv!). Allts˚ a uppfyller polynomet P (t) = 3 − 2t + t2 ekvationen.

Fr˚ an Sats 2.13, eller F¨ orsta kursen och Sats 2.16, f¨oljer att en inverterbar avbildning T m˚ aste ha en kvadratisk matris. En annan viktig f¨oljd av Sats 2.16 ¨ar att T ¨ar inverterbar om och endast om matrisen [T ]BA ¨ar inverterbar. Fr˚ an F¨ orsta kursen vet vi att [T ]BA , och d¨armed T , ¨ar inverterbar om och endast om det[T ]BA 6= 0. Vi f˚ ar ocks˚ a f¨oljande Sats 2.19. Antag att T ¨ ar en linj¨ ar avbildning p˚ a ett ¨ andligtdimensionellt rum. D˚ aa oljande p˚ ast˚ aenden ekvivalenta. ¨r f¨ (a) T ¨ ar inverterbar (b) T a ¨r injektiv (c) T ¨ ar surjektiv S˚ a f¨or att hitta en l¨osning till ekvationen T x = b r¨acker det att visa entydighet! Mer allm¨ant g¨aller Sats 2.19 f¨or en avbildning mellan tv˚ a rum med samma (¨andliga) dimension. Sats 2.19 a¨r fel f¨or o¨andligtdimensionella rum. (Mot)exempel: Vi p˚ aminner om fram och bak˚ atskift F och B p˚ a R∞ , F (x1 , x2 , x3 , . . .) = (0, x1 , x2 , x3 , . . .) och B(x1 , x2 , x3 , . . .) = (x2 , x3 , x4 , . . .). D˚ a ¨ar (eller hur?) F injektiv men inte surjektiv och B surjektiv men inte injektiv. Desssutom g¨aller BF = I men F B 6= I. Sats 2.20. Antag att T1 : U → V och T2 : V → W a ara avbildningar ¨r linj¨ och att vektorrummen U , V och W har baser A, B respektive C. D˚ a g¨ aller [T2 T1 ]CA = [T2 ]CB [T1 ]BA 21

Bevis. Det f¨oljer av diagrammet T2 T1

UA

T1

" / WC

∼ =

∼ =

Kn

T2

/ VB

[T1 ]BA

/ Km

∼ = [T2 ]CB

/ Kd =

[T2 T1 ]CA

och att vi vet att sammans¨attning av avbildningar mellan Kn -rum ges av matrismultiplikation.

2.5

Basbyten

I den h¨ar paragrafen skall vi studera hur matrisen [T ]BA ¨andras vid basbyten. Vi b¨orjar med att studera identiten p˚ a V. S˚ a l˚ at Iv = v vara identiteten p˚ a V och A ochB baser p˚ a V . Enligt Sats 2.16 s˚ a g¨aller [v]B = [I]BA [v]A d¨ar [I]BA = [Ia1 ]B . . . [Ian ]B =   [a1 ]B . . . [an ]B .

Matrisen [I]BA kallas f¨or koordinatbytesmatrisen. Enligt Sats 2.20 med U = W = V och T1 = T2 = I f˚ ar vi [I]AB [I]BA = [I]AA . Men [I]AA ¨ar enhetsmatrisen s˚ a [I]BA ¨ar en inverterbar matris med inversen [I]AB . Antag omv¨ant att A = {a1 , . . . , an } ¨ar en bas och P = (p1 · · · pn ) = (pij ) en inverterbar matris. Om vi s¨atter [bi ]A = P [ai ]A s˚ a ¨ar B = {b1 , . . . , bn } en ny bas p˚ a VP . Notera att eftersom [ai ]A = ei s˚ a g¨aller [bi ]A = pi eller n ekvivalent bi = k=1 pki ak . S˚ a P = ([b1 ]A · · · [bn ]A ) = [I]AB . S˚ a om vi byter bas med  matrisen [I]AB sker koordinatbytet med dess invers [I]BA = [a1 ]B . . . [an ]B . Nu till det h¨ar avsnittets huvudresultat. ˜ Sats 2.21. Antag att T : V → W ¨ ar en linj¨ ar avbildning och A, A˜ och B, B ar baser p˚ a V respektive W . D˚ a g¨ aller ¨ [T ]B˜ A˜ = [I]BB ˜ [T ]BA [I]AA ˜ . 22

Bevis. T

VA˜

I

∼ =

Kn

/ VA

T

/ WB

∼ = [I]AA˜

/K

I

B

∼ =

∼ = n [T ]BA /

Km

! / W˜

[I]BB ˜

/ Km >

[T ]B˜ A˜

Ett viktigt specialfall av detta a¨r d˚ a T a¨r en operator p˚ a V . Oftast anger vi matrisen f¨or T i en och samma bas och skriver ofta [T ]B i st¨allet f¨or [T ]BB . I detta fall f¨orenklas Sats 2.21 till f¨oljande Korollarium 2.22. Om T : V → V ¨ ar en linj¨ ar operator p˚ a V och A och B tv˚ a baser p˚ a V s˚ a g¨ aller [T ]B = [I]BA [T ]A [I]AB = [I]BA [T ]A [I]−1 BA . Om vi s¨atter P = [I]BA kan detta skrivas [T ]B = P [T ]A P −1 . D¨arf¨or ¨ar det naturligt med Definition 2.23. Tv˚ a kvadratiska matriser A och B ¨ ar konjugerade om det finns en inverterbar matris P med A = P BP −1 . Vi skriver A ≡ B. Terminologin ¨ar inte standard. P˚ a engelska anv¨ands similar och ibland kan man p˚ a svenska ocks˚ a se simil¨ar (fy). Vi har sett att matrisen till en operator T i olika baser ¨ar konjugerade. I n¨asta kapitel skall vi ge metoder f¨or att v¨alja bas s˚ a att denna matris blir s˚ a enkel som m¨ojligt. ¨ Ovning 2.8. Visa att konjugering ¨ ar en ekvivalensrelation, dvs. a) A ≡ A, b) om A ≡ B s˚ a B ≡ A, och c) om A ≡ B och B ≡ C, s˚ a A ≡ C. ¨ Ovning 2.9. Visa att om A ≡ B s˚ a g¨ aller det A = det B.

Den sista ¨ovningen g¨or att vi kan definiera determinanten till en operator p˚ a V. 23

Definition 2.24. Om T a ar operator p˚ a ett vektorrum V s˚ a ¨ ar ¨r en linj¨ det T = det[T ]B d¨ ar B ¨ ar en (godtycklig) bas p˚ a V.

¨ Ovning 2.10. L˚ at T : R3 → R3 vara en linj¨ar avbildning. Visa att om z ¨ar mittpunkten p˚ a str¨ ackan fr˚ an x till y s˚ a ¨ar T z mittpunkten p˚ a str¨ackan fr˚ an T x till T y. ¨ Ovning 2.11. L˚ at Rα vara rotationsmatrisen   cos α − sin α  . Rα =  sin α cos α Vad ¨ ar Rα Rβ ? Visa att Rα Rβ = Rβ Rα . H¨arled additionsformlerna f¨or sin(α + β) och cos(α + β) fr˚ an detta. ¨ Ovning 2.12. Ange en linj¨ ar avbildning T 6= 0 s˚ adan att T 2 = 0. ¨ Ovning 2.13. Ange tv˚ a linj¨ ara avbildningar A och B s˚ adana att AB = 0 men BA 6= 0. 2 ¨ Ovning 2.14. Ge exempel p˚ a en avbildning T p˚ a R som uppfyller att T (αv) = αT v men som inte ¨ ar linj¨ ar. ¨ Ovning 2.15. Antag att T ¨ ar en linj¨ar injektiv operator p˚ a V och att e1 , . . . , en ¨ar linj¨art oberoende. Visa att T e1 , . . . , T en ¨ar linj¨art oberoende. ¨ Ovning 2.16. Antag att T ¨ ar en linj¨ar surjektiv operator p˚ a V och att e1 , . . . , en sp¨anner V . Visa att T e1 , . . . , T en sp¨anner V . ¨ Ovning 2.17. Antag att T ¨ ar en linj¨ar operator fr˚ an R4 till R2 med Ker T = {x ∈ R4 ; x1 = 5x2 och x4 = 3x3 }; . Visa att d˚ a¨ ar T surjektiv. ¨ Ovning 2.18. Visa att det inte finns n˚ agon linj¨ar operator T fr˚ an C5 till C2 med Ker T = {x ∈ C5 ; x1 = 5x2 och x3 = x4 = 2x5 }; . ¨ Ovning 2.19. Antag att AB ¨ar inverterbar. Visa att A har en h¨ogerinvers och att B har en v¨ ansterinvers. Vilka ¨ ar de? ¨ Ovning 2.20. Ge exempel p˚ a tv˚ a linj¨ara avbildningar s˚ adana att: (a) A och B ¨ ar inverterbara men A + B ¨ar inte inverterbar. (b) A + B ¨ ar inverterbar men varken A eller B ¨ar inverterbara. ¨ Ovning 2.21. Antag att b˚ ade V och W ¨ar ¨andligtdimensionella. Visa att det finns en surjektiv linj¨ ar avbildning T : V → W om och endast om dim W ≤ dim V . ¨ Ovning 2.22. Antag att U och V ¨ar ¨andligtdimensionella vektorrum, och att T : U → V , S : V → W . D˚ a g¨ aller dim Ker ST ≤ dim Ker S + dim Ker T . ¨ Ovning 2.23. L˚ at T vara en linj¨ar operator p˚ a ett ¨andligtdimensionellt rum V . Antag att ST = T S f¨ or varje linj¨ar operator S p˚ a V . Visa att d˚ a ¨ar T en skal¨ar multipel av identiteten.

24

¨ Ovning 2.24. (a) Visa att vektorerna (1, 2, 1, 1), (0, 1, 3, 1) , (0, 3, 2, 0) och (0, 1, 0, 0) ¨ar en bas f¨ or R4 . (b) Best¨ am koordinatbytesmatrisen mellan koordinater i denna bas och standardkoordinaterna p˚ a R4 . (c) Vad har (1, 0, 1, 0)B f¨ or koordinater i standardbasen? (d) Vad har (1, 0, 1, 0)S f¨ or koordinater i basen i den nya basen? ¨ Ovning 2.25. Best¨ am koordinatbytesmatrisen mellan baserna p0 = 1, p1 = 1 + t och q0 = 1 − t, q1 = 1 + 2t p˚ a P2 . 2 ¨ Ovning 2.26. L˚ at T : R → R2 given av T x = (3x1 + x2 , x1 − 2x2 ). Best¨am matrisen f¨or T i standardbasen och i basen (1, 1), (1, 2).     0 2 1 3  konjugerade? Motivera  och B =  ¨ matriserna A =  ¨ Ovning 2.27. Ar 4 2 2 2 ditt svar. ¨ Ovning 2.28. Visa dimensionsatsen enligt f¨oljande recept: L˚ at b1 , . . . bk vara en bas f¨or Ker T , och utvidga den till en bas b1 , . . . , bk , bk+1 , , . . . , bn f¨or V . D˚ a ¨ar T bk+1 , , . . . , T bn en bas f¨ or Ran T . (Den uppm¨ arksamme l¨osaren uppt¨acker att det ¨ar precis detta vi gjorde i Bevis 2, men h¨ ar det meningen att visa det direkt.)

F¨ orslag till svar 2.3 2.5 2.6 2.7

¨ Se ledningen till Ovning 2.4 T.ex. T : R2 → R, T (x, y) = x och c(x) = (x, sin y) Ja Nej  cos α cos β + sin α sin β

−(sin α cos β + sin β cos α)

sin α cos β + sin β cos α   0 1  2.12 T.ex. T =  0 0

cos α cos β + sin α sin β

2.11 



2.13 T.ex. A = 

0

1

0

0





 och B = 

1

0

0

0

 

 

p p p p 2.14 T.ex. T (x, y) = (sgn(xy) |x| |y|, sgn(xy) |x| |y|) −1 −1 ar h¨ ogerinvers till A, (AB) A ¨ ar v¨ ansterinvers till 2.19 B(AB) ¨   B  1 0 0 0     2.20 (a) T.ex. A = −B = I, (b) T.ex. A = och B = 0 0 0 1   1 0 0 0    2 1 3 1    2.24 (b) [I]SB =  , (c) (1, 5, 3, 1)S , (d) 12 (2, −2, 3, −11)B  1 3 2 0    1 1 0 0   2 −1   2.25 [I]P Q = −1 2     9 13 3 1   och [T ]B =  2.26 [T ]S =  −5 −8 1 −2 2.27 Nej, de har skilda determinanter.

25

Kapitel 3 Spektralteori I det h¨ar kapitlet ¨ar T : V → V en linj¨ar avbildning p˚ a ett ¨andligtdimensionellt vektorrum V .

3.1

Egenv¨ arden och egenvektorer

Det ¨ar l¨attare att f¨orst˚ a hur en avbildning T fungerar om dimensionen p˚ a vektorrummet ¨ar litet. S˚ a vi vill ha en uppdelning V = U1 ⊕ . . . ⊕ Um d¨ar delrummen Ui ¨ar invarianta (se nedan) under T . D˚ a f¨oljer ”allt” om T fr˚ an uppf¨orande av T p˚ a Ui . Vi p˚ aminner om att V a¨r en direkt summa av delrummen Ui , V = U1 ⊕ . . . ⊕ Um , om varje vektor v ∈ V entydigt kan skrivas v = u1 + . . . + um d¨ar ui ∈ Ui , ¨ se Ovning 1.20. Definition 3.1. L˚ at T vara en linj¨ ar avbildning p˚ a V . Ett delrum U till V ar invariant med avseende p˚ a T om T (U ) ⊆ U . ¨ Om vi v¨aljer baser f¨or delrummen Ui och sl˚ ar ihop dem till en bas B f¨or 26

V s˚ a g¨aller



[T ]1

   0    0 [T ]B =    ·    ·  0

0

· ·

0 ·

[T ]2 0

·

· ·

·

· ·

·

·

0

· · 0 [T ]m

             

d¨ar [T ]i ¨ar matrisen f¨or restriktionen av T till Ui . Vi s¨ager att matrisen ¨ar blockdiagonal. Allra b¨ast ¨ar det n¨ar rummen Ui ¨ar endimensionella. D˚ a blir [T ]B en diagonalmatris. Att Ui ¨ar endimensionellt betyder att det finns en vektor u 6= 0 s˚ a att T u ∈ Span(u) dvs. att T u = λu. Vi leds allts˚ a till f¨oljande definition. Definition 3.2. Vektorn u a ardet λ om ¨r en egenvektor till T med egenv¨ u 6= 0 och T u = λu . Vi l˚ ater Eλ vara egenv¨ ardesrummet till egenv¨ardet λ, dvs. det delrum till V som best˚ ar av alla egenvektorer till egenv¨ardet λ samt 0. S˚ a Eλ = {u; T u = λu}. Studiet av egenv¨arden och egenvektorer a¨r temat f¨or detta kapitel. Spektralteori fungerar b¨attre p˚ a komplexa vektorrum ¨an reella vektorrum. Anledningen till detta ¨ar f¨oljande sats. Sats 3.3. Varje polynom P med komplexa koefficienter av grad n, n ≥ 1 har n komplexa r¨ otter λ1 , . . . , λn och P (z) = c(z − λ1 )(z − λ2 ) · · · (z − λn ) . Sats 3.3 f¨oljer av algebrans fundamentalsats, som s¨ager att varje polynom av grad minst 1 har en komplex rot, och faktorsatsen. Ett reellt polynom beh¨over d¨arimot inte ha n˚ agon reell rot. Men vi kan alltid faktorisera ett reellt polynom med reella faktorer av f¨orsta eller andra graden. Sats 3.4. Ett polynom med reella koefficienter av grad n kan skrivas P (x) = c(x − a1 ) · · · (x − ak )(x2 + α1 x + β1 ) · · · (x2 + αl x + βl ) d¨ar k + 2l = n och c, ak och αi , βi ¨ ar reella tal med 4βi > αi2 . 27

Observera att r¨otterna till x2 + αi x + βi inte ¨ar reella. Eftersom T ¨ar en operator p˚ a V ¨ar sammans¨attning av T med sig sj¨alv definierad. Vi l˚ ater Tm = T | ◦ T ◦ T{z◦ · · · ◦ T} m stycken och om P (z) = an z n + an−1 z n−1 + . . . a1 z + a0 ¨ar ett polynom, s¨atter vi P (T ) = an T n + an−1 T n−1 + . . . a1 T + a0 I. Observera att om P (z) = c(z − λ1 )(z − λ2 ) · · · (z − λn ) s˚ a har P (T ) samma faktorisering, P (T ) = c(T − λ1 I)(T − λ2 I) · · · (T − λn I) . Detta f¨oljer eftersom T och I kommuterar, och d¨arf¨or g¨aller samma r¨akneregler f¨or ber¨akning av c(z − λ1 )(z − λ2 ) · · · (z − λn ) som f¨or c(T − λ1 I)(T − λ2 I) · · · (T − λn I). F¨or komplexa vektorrum g¨aller Sats 3.5. En linj¨ ar avbildning T p˚ a ett a ¨ndligtdimensionellt komplext vektorrum V har en egenvektor. Bevis. Vi ger tv˚ a bevis. Det f¨orsta beviset ¨ar ”invariant”, dvs. det anv¨ander inte koordinater och matrisrepresentation. I det andra beviset anv¨ander vi koordinater och reducerar satsen till matrisfallet. Bevis 1. L˚ at vektorrummets dimension vara n, tag en godtycklig vektor v 6= 0 och betrakta vektorerna v, T v, T 2 v, . . . , T n v . De ¨ar n + 1 stycken, allts˚ a fler ¨an dimensionen, och d¨arf¨or linj¨art beroende. L˚ at m vara det minsta talet, 1 ≤ m ≤ n, s˚ a att v, T v, T 2 v, . . . , T m v ¨ar linj¨art beroende. Det finns allts˚ a c = (c0 , c1 , . . . , cm ) 6= 0 med cm 6= 0 och c0 v + c1 T v + c2 T 2 v + . . . + cm T m v = 0 .

L˚ at P (z) vara polynomet P (z) = c0 + c1 z + c2 z 2 + . . . + cm z m . Genom att dividera polynomet med cm kan vi anta att cm = 1. Om λ1 , λ2 , λ3 , . . . , λm ¨ar polynomets nollst¨allen har vi P (z) = (z − λm )(z − λm−1 ) . . . (z − λ2 )(z − λ1 ). S˚ a c0 v + c1 T v + c2 T 2 v + . . . + T m v = (c0 + c1 T + c2 T 2 + . . . + T m )v = (T − λm I)(T − λm−1 I) . . . (T − λ2 I)(T − λ1 I)v = 0 . 28

L˚ at u0 = v och s¨att f¨or 1 ≤ k ≤ m, uk = (T − λk I)(T − λk−1 I) . . . (T − λ2 I)(T − λ1 I)v . D˚ a g¨aller u0 6= 0 men um = 0. S˚ a det finns ett tal 0 ≤ k ≤ m − 1 s˚ a att uk 6= 0 men uk+1 = (T −λk+1 I)uk = 0. Detta betyder att uk ¨ar en egenvektor till T med egenv¨ardet λk+1 . Bevis 2. L˚ at B vara en bas p˚ a V . Att λ ¨ar ett egenv¨arde till T betyder att T − λI inte ¨ar injektiv. L˚ at p(λ) = det(T − λI) = det[T − λI]B . p(λ) ¨ar ett polynom av grad n ≥ 1 och algebrans fundamentalsats ger att p(λ) har ett komplext nollst¨alle λ0 . S˚ a det(T − λ0 I) = 0 och T − λ0 I ¨ar inte injektiv. Detta betyder att ekvationssystemet [T − λ0 I]B [u]B = 0 har en icketrivial l¨osning [u]B ∈ Cn . S˚ a [T u]B = [T ]B [u]B = λ0 [u]B och allts˚ a T u = λ0 u dvs. u ¨ar en egenvektor. H¨ar ¨ar ett citat fr˚ an Axler om dessa bevis: Compare the simple proof of this theorem given here (Bevis 1) with the standard proof using determinants (Bevis 2). With the standard proof, first the difficult concept of determinants must be defined, then an operator with 0 determinant must be shown to be not invertible, then the characteristic polynomial needs to be defined, and by the time the proof of this theorem is reached, no insight remains about why it is true. H˚ aller du med? Anm¨ arkning 3.6. Vi har i samband med Definition 2.24 sett att det[T ]B inte beror p˚ a valet av bas. D¨arf¨or beror inte heller det[T − λI]B p˚ a basen och vi kan definiera det karakteristiska polynomet till en operator p˚ aV genom p(λ) = det(T − λI) = det[T − λI]B . Dessutom g¨aller att λ ¨ar ett egenv¨arde om och endast om T − λI inte ¨ar injektiv vilket ¨ar ekvivalent med att T − λI inte ¨ar inverterbar. Men detta g¨aller om och endast om [T − λI]B inte a¨r inverterbar och fr˚ an Fo ¨rsta kursen vet vi att detta betyder att det[T − λI]B = 0. S˚ a att λ ¨ar ett egenv¨arde till T ¨ar ekvivalent med att λ ¨ar ett nollst¨alle till det karakteristiska polynomet p(λ). Korollarium 3.7. Varje linj¨ ar avbildning p˚ a ett ¨ andligtdimensionellt komplext vektorrum har ett endimensionellt invariant delrum. Bevis. Span(u) d¨ar u ¨ar en egenvektor duger. Det finns linj¨ara operatorer p˚ a reella vektorrum som inte har n˚ agon egenvektor. 29

Exempel 3.8. L˚ at T vara en rotation (skild fr˚ an 0◦ eller 180◦ ) p˚ a R2 , t.ex. T (x, y) = (−y, x). D˚ a har T ingen reell egenvektor. Att T som ¨ar en rotation inte kan ha en egenvektor ¨ar klart av geometriska sk¨al, u och T u kan inte vara parallella. Vi kan ocks˚ a se det algebraiskt. Villkoret T (x, y) = λ(x, y) betyder (−y, x) = λ(x, y) eller y = −λx, x = λy. Men detta ger x = −λ2 x och y = −λ2 y. Nu ¨ar inte b˚ ade x och y noll s˚ a vi 2 f˚ ar λ = −1 vilket ¨ar en om¨ojlighet d˚ a λ ∈ R. F¨or reella vektorrum har vi Sats 3.9. Om T a ar avbildning p˚ a ett reellt ¨ andligtdimensionellt ¨r en linj¨ vektorrum s˚ a har T ett invariant delrum av dimension ett eller tv˚ a. Bevis. Polynomet i Bevis 1 av Sats 3.5 har reella koefficienter och enligt Sats 3.4 kan det faktoriseras i reella polynom av f¨orsta eller andra graden. S˚ a antingen finns u 6= 0 med (T −aI)u = 0 eller (T 2 +aT +b)u = 0 d¨ar x2 +ax+b saknar reellt nollst¨alle. I det f¨orsta fallet ¨ar u en egenvektor och Span(u)¨ar ett endimensionellt invariant delrum. I det andra fallet l˚ ater vi U = Span(u, T u) som har dimension ett eller tv˚ a. F¨or att se att U ¨ar ett invariant delrum r¨acker det att visa att T (T u) = T 2 (u) ∈ U . Men (T 2 + aT + b)u = 0 ger T 2 u = −aT u − bu ∈ Span(u, T u) = U . Vi har ocks˚ a Sats 3.10. En linj¨ ar avbildning T p˚ a ett ¨ andligtdimensionellt reellt vektorrum av udda dimension V har en egenvektor. Bevis. Det reella karakteristiska polynomet har udda grad. Ett reellt polynom av udda grad har ett reellt nollst¨alle λ. (Varf¨or d˚ a?) S˚ a den reella ekvationen [T − λI]B x = 0 har en icketrivial l¨osning x = [u]B ∈ Rn och u ¨ar en egenvektor i V med det reella egenv¨ardet λ. Anm¨ arkning 3.11. Ett ber¨omt problem i funktionalanalys ¨ar det s˚ a kallade ”Invarianta delrumsproblemet” som handlar om existensen av ett icketrivialt invariant delrum till begr¨ansade operatorer p˚ a o¨andligtdimensionella komplexa vektorrum. En svensk matematiker, Per Enflo, visade 1975 att det finns en operator p˚ a ett Banachrum utan invariant delrum. Problemet a¨r ol¨ost f¨or Hilbertrum. Se Kapitel 6 f¨or definition av Banachrum och Hilbertrum. F¨or mer information se http://en.wikipedia.org/wiki/Invariant subspace problem 30

3.2

Diagonalisering

Det b¨asta vi kan hoppas p˚ a vid studiet av en operator T p˚ a V ¨ar allts˚ a att V kan skrivas som en direkt summa av endimensionella invarianta delrum till T . Tag en nollskild vektor ei fr˚ an vart och ett av dessa delrum. D˚ a ¨ar ei en egenvektor och B = {e1 , . . . en } ¨ar en bas f¨or V s˚ adan att [T ]B ¨ar en diagonalmatris. Definition 3.12. En linj¨ ar operator T : V → V ¨ ar diagonaliserbar om det finns en bas B p˚ a V s˚ adan att [T ]B ¨ ar en diagonalmatris. Sats 3.13. Antag att T : V → V ¨ ar en linj¨ ar operator p˚ a V och att dim V = n. D˚ a ¨ ar T diagonaliserbar om och endast om V har en bas e1 , . . . , en av egenvektorer till T . Bevis. Antag att T ¨ar diagonaliserbar  i basen B = {e1 , .  . . , en } och att [T ]B = D =diag(λ1 · · · , λn ). D˚ a g¨aller [T e1 ]B · · · [T en ]B = [T ]B = D =   λ1 [e1 ]B · · · λn [en ]B . Allts˚ a ¨ar [T ei ]B = λi [ei ]B . S˚ a T ei = λi ei , dvs. e1 , . . . , en ¨ar egenvektorer till T . Antag omv¨ant att B = {e1 , . . . , en } ¨ar en bas av egenvektorer till T , T ei = λi e1 . D˚ a g¨aller [T ]B = ([T e1 ]B , . . . , [T en ]B ) = (λ1 [e1 ]B · · · , λn [en ]B ) = diag(λ1 · · · , λn ) och allts˚ a ¨ar T diagonaliserbar. Tyv¨arr ¨ar inte alla operatorer diagonaliserbara, inte ens i komplexa vektorrum. Exempel 3.14. L˚ at T : C2 → C2 vara definierad  genomT (z1 , z2 ) = (z2 , 0). 0 1 . Det ¨ar l¨att att se I standardbasen p˚ a C2 betyder detta att [T ]S =  0 0 att T bara har egenv¨ardet 0 och att (1, 0) ¨ar en bas f¨or E0 (Kontrollera det!). S˚ a rummet av egenvektorer ¨ar endimensionellt och det finns inte tillr¨ackligt m˚ anga egenvektorer f¨or att sp¨anna det tv˚ adimensionella C2 . S˚ a T ¨ar inte diagonaliserbar. F¨oljande exempel visar p˚ a nyttan av att kunna diagonalisera operatorer. Fler exempel kommer i n¨asta kapitel. Exempel 3.15. L˚ at P2 = {a + bt + ct2 } vara rummet av alla andragradspoa P2 . Ber¨akna T N . lynom och l˚ at T vara operatorn (t + 1) dtd p˚ 31

L¨osning. L˚ at S vara standardbasen {p0 = 1, p1 = t, p2 = t2 }. Eftersom T p0 = 0, T p1 = t + 1 = p0 + p1 och T p2 = 2t2 + 2t = 2p1 + 2p2 g¨aller   0 1 0     A = [T ]S =  0 1 2  .   0 0 2 Standardkalkyler fr˚ an F¨ orsta kursen (G¨or dem!) visar att matrisen A har egenv¨ardena 0, 1 och 2 med egenvektorerna (1, 0, 0), (1, 1, 0) respektive (1, 2, 1). L˚ at [e0 ]s = (1, 0, 0), [e1 ]s = (1, 1, 0) och [e2 ]s = (1, 2, 1) dvs. e0 = p0 = 1, e1 = p0 +p1 = 1+t och e2 = p0 +2p1 +p2 = 1+2t+t2 . I basen B = {e0 , e1 , e2 } g¨aller     0 0 0 0 0 0         N N [T ]B =  0 1 0  och [T ]B = [T ]B =  0 1 0  .     N 0 0 2 0 0 2 Vi har [I]SB



1 1 1

    = [e0 ]S [e1 ]S [e2 ]S =  0 1 2  0 0 1

Genom att ber¨akna inversen f˚ ar vi  [I]BS



   . 



1 −1 1     = 0 1 −2  .   0 0 1

Enligt Korollarium 2.22 har vi [T ]S = [I]SB [T ]B [I]BS och allts˚ a [T N ]S = N [T ]N or den!) ger S = [I]SB [T ]B [I]BS . En kalkyl (G¨ 

0 1

2N − 2

  [T N ]S =  0 1 2N +1 − 2  0 0 2N 32



   . 

Med invarianta beteckningar kan detta skrivas N  d (a + bt + ct2 ) = (b + (2N − 2)c) + (b + (2N +1 − 2)c)t + c2N t2 . (t + 1) dt Det ¨ar allts˚ a ¨onskv¨art att kunna diagonalisera en operator. Ett enkelt, men viktigt resultat om n¨ar det g˚ ar ¨ar korrollariet till f¨oljande sats. Sats 3.16. Antag att e1 , e2 , . . . , en a ¨r egenvektorer till operatorn T med olika egenv¨arden. D˚ a¨ ar e1 , e2 , . . . , en linj¨ art oberoende. Bevis. L˚ at T ei = λi ei , i = 1, 2, . . . , n d¨ar λi 6= λk . Antag att α 1 e1 + α 2 e2 + . . . + α n en = 0 .

(3.1)

L˚ at Si = (T −λ1 I) · · · (T −λi−1 I)(T −λi+1 I) · · · (T −λn I), dvs. Si ¨ar produkten av alla faktorerna T − λk I utom nummer i. Nu g¨aller (T − λk I)ek = 0 och (T − λk I)ei = (λi − λk )ei . Genom att applicera Si p˚ a (3.1) f˚ ar vi αi (λi − λ1 ) · · · (λi − λi−1 )(λi − λi+1 ) · · · (λi − λn )ei = 0 . Eftersom ei 6= 0 och λi 6= λk ger detta αi = 0 och e1 , e2 , . . . , en ¨ar linj¨art oberoende. Korollarium 3.17. Antag att T a ar operator p˚ a ett vektorrum V ¨r en linj¨ med dimension n. Om T har n olika egenv¨ arden s˚ a¨ ar T diagonaliserbar. Bevis. L˚ at e1 , e2 , . . . , en vara egenvektorer till T med olika egenv¨arden. Enligt Sats 3.16 ¨ar de linj¨ar oberoende. Men enligt Korollarium 1.20 ¨ar n linj¨art oberoende vektorer i V en bas. P˚ ast˚ aendet f¨oljer nu fr˚ an Sats 3.13. Enligt Korollarium 3.17 ¨ar T diagonaliserbar om T inte har multipla egenv¨arden. Definition 3.18. L˚ at λ vara ett egenv¨ arde och p(z) det karakteristiska polynomet till T . 1. Om m ¨ ar det st¨ orsta heltal s˚ adant att (z − λ)m delar p(z) s¨ ager vi att λ har algebraisk multiplicitet m. 2. Om d = dim Eλ = dim Ker(T − λI) s¨ ager vi att T har geometrisk multiplicitet d. Algebraisk multiplicitet anv¨ands mycket oftare ¨an geometrisk multiplicitet. D¨arf¨or kommmer vi ofta att bara s¨aga multiplicitet i st¨allet f¨or algebraisk multiplicitet. 33

Sats 3.19. Den geometriska multipliciteten ¨ ar alltid mindre ¨ an eller lika med den algebraiska multipliciteten. Bevis. Antag att λ0 ¨ar ett egenv¨arde och l˚ at d = dλ0 = dim Eλ0 och m = mλ0 vara den geometriska och den algebraiska multipliciteten f¨or λ0 . V¨alj en bas e1 , . . . , ed f¨or Eλ0 och utvidga den till en bas B f¨or V . I denna bas g¨aller, som i beviset av Sats 3.13, att   λ0 Id A1  [T ]B =  0 A2 f¨or n˚ agra matriser A1 och A2 . S˚ a   (λ0 − λ)Id A1  = (λ0 − λ)d pA2 (λ) . pT (λ) = det  0 A2 − λI Den sista likheten f˚ ar vi genom att d g˚ anger utveckla determinanten efter f¨orsta kolonnen. Detta ger d ≤ m (med likhet om och endast om pA2 (λ0 ) 6= 0). Exempel 3.14 visar att den geometriska multipliciteten kan vara strikt mindre ¨an den algebraiska. Enligt n¨asta sats ¨ar det precis detta som kan hindra en operator p˚ a ett komplext vektorrum fr˚ an att vara diagonaliserbar. Om T : V → V ¨ar diagonaliserbar och dim V = n s˚ a g¨aller det(T − λI) = det(D − λI) = (−1)n (λ − λ1 ) . . . (λ − λn ) , d¨ar D =diag(λ1 , . . . , λn ). S˚ a det karakteristiska polynomet har n nollst¨allen r¨aknat med multiplicitet. Detta g¨aller alltid f¨or komplexa vektorrum men f¨or reella vektorrum ¨ar det ett villkor p˚ a T. Sats 3.20. En linj¨ ar operator p˚ a ett komplext vektorrum a ¨r diagonaliserbar om och endast om f¨ or varje egenv¨ arde λ g¨ aller att den algebraiska och den geometriska multipliciteten sammanfalller. Anm¨ arkning 3.21. Satsen g¨aller ocks˚ a f¨or en operator p˚ a ett reellt vektorrum d¨ar alla nollst¨allen till det karakteristiska polynomet ¨ar reella. Bevis. Om operatorn T kan diagonaliseras har T en bas av egenvektorer. S˚ a V = Eλ1 ⊕. . .⊕Eλk . Enligt Sats 3.19 g¨aller allts˚ a n = dim V = dλ1 +. . .+dλk ≤ mλ1 + . . . + mλk = n. Detta ger di = mi f¨or alla i. Omv¨ant, om di = mi f¨or alla i och U = Eλ1 ⊕ . . . ⊕ Eλk , s˚ a g¨aller dim U = dλ1 + . . . + dλk = mλ1 + . . . + mλk = n. Men detta betyder att U = V s˚ a V har en bas av egenvektorer och T ¨ar allts˚ a diagonaliserbar enligt Sats 3.13. 34

Tyv¨arr ¨ar inte villkoret i satsen enkelt att kontrollera. I Kapitel 7 skall vi bevisa den s˚ a kallade Spektralsatsen som s¨ager att en reell sj¨alvadjungerad operator eller en komplex normal operator kan diagonaliseras. Villkoren att vara sj¨alvadjungerad respektive normal ¨ar enkla att kontrollera. I Kapitel 8 skall vi bevisa Jordans normalform som beskriver hur man skall v¨alja bas f¨or att en operator som inte ¨ar diagonaliserbar skall f˚ a s˚ a enkel matrisrepresentation som m¨ojligt.

¨ Ovning 3.1. Vilka av f¨ oljande p˚ ast˚ aenden a¨r sanna? (a) Varje operator p˚ a ett n-dimensionellt komplext vektorrum har n olika egenv¨arden. (b) Om T har en egenvektor har den o¨andligt m˚ anga egenvektorer. (c) Det finns en operator p˚ a ett reellt vektorrum utan egenvektor. (d) Det finns en operator p˚ a ett ¨andligtdimensionellt komplext vektorrum utan egenvektor. (e) Det finns en operator p˚ a ett o¨andligtdimensionellt komplext vektorrum utan egenvektor. (f) Summan av tv˚ a egenvektorer ¨ar en egenvektor. (g) Summan av tv˚ a egenvektorer till samma egenv¨arde ¨ar en egenvektor. Bevis eller motexempel. ¨ Ovning 3.2. Best¨ am det karakteristiska polynomet, egenv¨arden och egenvektorer till       1 3 3   2 1 4 −5   och (c)   , (b)  (a)   −3 −5 −3    −1 4 2 −3 3 3 1 ¨ Ovning 3.3. Best¨ am egenv¨ arden och egenvektorer till rotationsmatrisen   cos ϕ − sin ϕ  .  sin ϕ cos ϕ ¨ Ovning 3.4. En operator T ¨ ar nilpotent om T k = 0 f¨or n˚ agot k. Visa att om T ¨ar nilpotent s˚ a har T endast egenv¨ ardet 0. ¨ Ovning 3.5. L˚ at A vara en kvadratisk matris. Visa att de fyra blocktriangul¨ara matriserna         A 0 I 0 A ∗ I ∗  ,  ,  ,   ∗ I ∗ A 0 I 0 A alla har determinanten det A. Matrisen ∗ betecknar en godtycklig matris.

35

¨ Ovning 3.6. Visa att om A och B a¨r kvadratiska matriser s˚ a g¨aller   A C  = det A det B . det  0 B 

Ledning. 

A

C

0

B





=

I

C

0

B

 

A

0

0

I



.

¨ Ovning 3.7. L˚ at A och B vara en m × n-matris respektive en n × m-matris. Visa att d˚ a g¨ aller   0 A  = det AB . det  −B I 

Ledning. H¨ ogermultiplicera med 

I

0

B

I



.

¨ Ovning 3.8. L˚ at A och B vara kvadratiska matriser. Visa  att det karakteristiska poly A ∗  ¨ar produkten av de karaktenomet till den blocktriangul¨ara matrisen  0 B ristiska polynomen till A och B. ¨ Ovning 3.9. L˚ at v1 , v2 , . . . vn vara en bas B i vektorrummet V . Visa att om v1 , v2 , . . . vk alla ¨ ar egenvektorer till operatorn T med egenv¨ardet λ s˚ a ¨ar matrisen till T i denna bas blocktriangul¨ ar,   [T ]B = 

λIk



0

A

 .

H¨ ar ¨ ar Ik enhetsmatrisen av storlek k, A ¨ar en kvadratisk och ∗ en godtycklig matris. ¨ Ovning 3.10. Visa att den geometriska multipliciteten till ett egenv¨arde inte kan vara st¨ orre ¨ an dess algebraiska multiplicitet. ¨ Ovning 3.11. Visa att en operators determinant ¨ar produkten av dess egenv¨arden (med multiplicitet). Ledning. Visa att det(A − λI) = (λ1 − λ)(λ2 − λ) · · · (λn − λ) och s¨att λ = 0. ¨ Ovning 3.12. Sp˚ aret till en matris ¨ar summan av dess diagonalelement, dvs. om A = (aij ) s˚ a¨ ar Tr A = a11 + . . . + ann . L˚ at [T ]B vara matrisen till en operator T i en bas B. Bevisa att sp˚ aret till [T ]B inte beror p˚ a valet av bas B genom att visa att sp˚ aret f¨or [T ]B ¨ar summan av egenv¨ ardena till T (med multiplicitet). (Vi kan allts˚ a definera sp˚ aret till T genom Tr T = Tr [T ]B d¨ar ¨ar en godtycklig bas.) Ledning. L˚ at A = [T ]B i n˚ agon bas B. Best¨am koefficienten till λn−1 i det(A−λI) = (λ1 − λ)(λ2 − λ) · · · (λn − λ). Visa att det(A − λI) = (a11 − λ)(a22 − λ) · · · (ann − λ) + q(λ) d¨ ar q ¨ ar ett polynom av grad (h¨ogst) n−2. Vad ¨ar h¨ogerledets λn−1 -koefficient? ¨ Ovning 3.13. Bevis eller motexempel: Om U ¨ar ett delrum till V som ¨ar invariant under varje operator p˚ a V s˚ a ¨ar U = {0} eller U = V .

36

¨ Ovning 3.14. Antag att S och T kommuterar. Visa att Ker(T − λI) ¨ar ett invariant delrum till S. ¨ Ovning 3.15. L˚ at T : P1 → P1 vara definerad av a + bt 7→ b + at. Best¨am egenv¨arden och egenvektorer till T . ¨ Ovning 3.16. Best¨ am alla egenv¨ arden och egenvektorer till fram- och bak˚ atskiften F resp. B p˚ a R∞ . (Se Exempel 2.2 f¨or definitionen av F och B.) Vad h¨ander om vi i ∞ st¨allet f¨ or R∞ l˚ ater F och B verka p˚ a R∞ 0 och R00 ? ¨ Ovning 3.17. Antag att T : V → V d¨ ar dim V = 5. Visa att om dim Ran T = 3 s˚ a har T h¨ogst 3 olika egenv¨ arden. Generalisering? ¨ Ovning 3.18. Bevisa att ST och T S har samma egenv¨arden. ¨ Ovning 3.19. Antag att V a ¨r ett komplext vektorrum och p ett polynom. Visa att a a¨r ett egenv¨ arde till operatorn p(T ) om och endast om a = p(λ) f¨or n˚ agot egenv¨arde ¨ det sant f¨ λ till T . Ar or reella vektorrum? ¨ Ovning 3.20. Antag att T har dim V olika egenv¨arden och att varje egenvektor till T ocks˚ a¨ ar en egenvektor till S (inte n¨odv¨andigtvis med samma egenv¨arden). Visa att d˚ a kommuterar T och S. Ledning. Vad ¨ ar ST u och T Su d˚ a u ¨ar en egenvektor? ¨ Ovning 3.21. L˚ at A vara en reell matris med ett komplext egenv¨arde λ (dvs.λ ∈ / R) och ¯ ocks˚ ¯. egenvektor v. Visa att d˚ a¨ ar λ a ett egenv¨arde med egenvektor v ¨ Ovning 3.22. L˚ at T vara en operator p˚ a ett femdimensionellt vektorrum med tre olika egenv¨ arden. Ett av egenrummen ¨ ar tredimensionellt. M˚ aste T vara diagonaliserbar? Bevis eller motexempel. ¨ Ovning 3.23. Ge ett exempel p˚ a en 3 × 3-matris som inte ¨ar diagonaliserbar. Kan du g¨ora exemplet ”generiskt”, dvs. s˚ a att ingen speciell struktur syns? ¨ Ovning 3.24. Antag att A 6= 0 och An = 0 f¨or n˚ agot n. Bevisa att A inte kan diagonaliseras. ¨ Ovning 3.25. (a) L˚ at M2×2 vara vektorrummet av alla 2×2-matriser. Best¨am egenv¨arden och egenvektorer till operatorn T : M2×2 → M2×2 given av T (A) = AT . (b) Kan du l¨ osa motsvarande problem f¨or n × n-matriser?

37

F¨ orslag till svar 3.1 (b), (c), (e) och (g) ¨ ar sanna, (a), (d) och (f)¨ ar falska 3.2 (a) λ2 − λ − 2, λ = 2, −1 resp. multiplar av (5, 2) och (1, 1) (b)(λ − 3)2 , λ = 3 resp. multiplar av (1, 1) (c) −(λ − 1)(λ + 2)2 , λ = 1, −2  resp. multiplar av (1, −1, 1) och Span (1, 0, −1), (1, −1, 0) 3.3 λ = cos ϕ ± i sin ϕ, resp.(i, 1) och (1, i) 3.13 Sant 3.15 λ = ±1, 1 + t och 1 − t 3.16 F saknar egenv¨ arde (i alla tre fallen). Alla λ ¨ ar egenv¨ arden till B, egenvektorer ¨ ar multiplar av (1, λ, λ2 , λ3 , . . .) P˚ a R∞ ar alla λ med |λ| < 1 egenv¨ arden, och p˚ a R∞ ar λ = 0 det enda egenv¨ ardet. 0 ¨ 00 ¨ 3.19 Falskt 3.22 Ja 3.25 (a) λ = 1, ar av alla symmetriska matriser (tredimensionellt); motsvarande  egenrum best˚ 0 1 ¨ ar en bas f¨ or E−1 . −1 0 (b) Ja. λ = 1, motsvarande egenrum best˚ ar av alla symmetriska matriser (n(n + 1)/2 dimensionellt); λ = −1, en bas f¨ or E−1 best˚ ar av matriserna Aij , j > i med aij = 1, aji = −1 och akl = 0 om (k, l) 6= (i, j) (de ¨ ar n(n − 1)/2 stycken).

λ = −1, 

38

Kapitel 4 Till¨ ampningar p˚ a spektralteori 4.1

N˚ agra geometriska exempel

Exempel 4.1. Best¨am den geometriska betydelsen av avbildningen y = Ax, d¨ar   5 −2 −1  1   A = −2 2 −2  . 6  −1 −2 5 En vektor v ¨ar egenvektor till A med egenv¨ardet λ om och endast om v ¨ar en egenvektor till 6A med egenv¨ardet 6λ. S˚ a A och 6A har samma egenvektorer. Egenv¨ardena till 6A f˚ as ur 5 − λ −2 −1 −2 2 − λ −2 = (r¨akna sj¨alv) = −λ(λ − 6)2 = 0. −1 −2 5 − λ Allts˚ a har A egenv¨ardena λ1 = 0 och λ2,3 = 1. L˚ at E0 och E1 vara motsvarande egenrum. En kalkyl (G¨or den!) visar att e1 = (1, 2, 1) ¨ar en egenvektor till egenv¨ardet 0. F¨or λ = 1 har vi     −1 −2 −1 1 2 1         6A − 6I =  −2 −4 −2  ∼  0 0 0  .     −1 −2 −1 0 0 0 39

S˚ a vi ser att e2 = (1, 0, −1) och e3 = (2, −1, 0) ¨ar tv˚ a linj¨art oberoende vektorer i egenrummet E1 . Observera att b˚ ada ¨ar vinkelr¨ata mot e1 . S˚ a E1 ¨ar det plan genom origo som ¨ar vinkelr¨at mot e1 , dvs. planet x + 2y + z = 0. Nu g¨aller V = E0 ⊕ E1 s˚ a om v = v0 + v1 g¨aller Av = Av0 + Av1 = v1 d¨ar vi ∈ Ei , i = 1, 2. Allts˚ a ¨ar A den ortogonala projektionen p˚ a planet x + 2y + z = 0. Anm¨ arkning 4.2. Att E0 och E1 ¨ar vinkelr¨ata ¨ar ingen slump. I Kapitel 6 skall vi se att det ¨ar s˚ a f¨or alla symmetriska matriser. I de f¨oljande exemplen skall vi studera den geometriska betydelsen av 2 × 2-matriser med komplexa egenv¨arden. Mer om detta hittar du i Lay, avsnitt 5.5.   a −b  vara en reell matris. Det karakteristiska Exempel 4.3. L˚ at A =  b a 2 polynomet ¨ar p(λ) = (a − λ) + b2 och A saknar allts˚ a reellt egenv¨   arde om

b 6= 0. Om r = |(a, b)| = 1 (a, b) r



a2

+

b2

kan vi skriva A = r 

a r b r

− rb

a r

. Vektorn

ligger p˚ a enhetscirkeln och det finns allts˚ a en vinkel ϕ s˚ a att 

A = r

cos ϕ − sin ϕ sin ϕ

cos ϕ



 .

S˚ a A best˚ ar av en rotation sammansatt med en skalning. Banan xn = An x0 ligger i en cirkul¨ar spiral kring origo. Om r = 1 ¨ar banan en cirkel. Matrisen A ovan ¨ar inte bara ett trevligt exempel, det ¨ar av grundl¨aggande betydelse f¨or varje reell matris med komplexa egenv¨arden.   3 4  . Exempel 4.4. Unders¨ok matrisen A =  −1 3 2 Vi har p(λ) = (3 − λ) a A har λ± = 3 ± 2i. Egenvektorn  ardena  + 4 s˚  egenv¨ som h¨or till λ+ f˚ as ur 

−2i

4

−1 −2i

∼

1 2i 0

0

. Allts˚ a ¨ar v = (2, i) en

¯ v ¨ar v = v ¯ = (2, −i) en egenvektor egenvektor. (Eftersom A¯ v = Av = λv = λ¯ till λ− .) 40

L˚ at B vara basen Rev = (2, 0), Im v = (0, 1). [A]B = [I]BS [A]S [I]SB .  Vi har 

Nu ¨ar [I]SB

=

2 0 0 1



[A]B = 

1 2

  och [I]BS = [I]−1 SB =

0

0 1

 

3 4 −1 3

 

2 0 0 1

1 2

0

0 1



. S˚ a



=

3 2 −2 3



 .

[A]B a¨r en matris av den typ som behandlades i Exempel 4.3. och i basen Re v, Im v ¨ar avbildningen en sammans¨attning av en rotation och en skalning. Anm¨ arkning 4.5. Utseendet p˚ a matrisen [A]B kan ocks˚ a f¨orklaras p˚ a f¨oljande s¨att. L˚ at v = Re v + i Im v vara en egenvektor till A med egenv¨ardet λ = a + ib och s¨att vR = Re v, vI = Im v. D˚ a g¨aller AvR = ¯ v) = Re(λv). Men λv = (a + ib)(vR + ivI ) = ¯ )) = 21 (λv + λ¯ A( 12 (v + v (avR − bvI ) + i(avI + bvR ). S˚ a AvR = avR − bvI . P˚ a liknande s¨att ser vi att AvI = bvR + avI . Allts˚ a ¨ar   Av = av − bv R R I  Av = bv + av . I

R



Men detta betyder att [A]B = 

a b −b a

I



 d¨ar B ¨ar basen B = {vR , vI }.

¨ Ovning 4.1. Visa att den linj¨ ara avbildning p˚ a R3 som i standardbasen har matrisen   1 0 1  1    0 2 0  2  1 0 1 a ett plan. Vilket plan? ¨ar ortogonal projektion p˚ ¨ Ovning ardena och en bas f¨or motsvarande egenrum till matrisen am egenv¨  4.2. Best¨ 1 5 .  −2 3   √ 3 −1 ¨ Ovning 4.3. Den linj¨ ara operator p˚ a R2 som ges av matrisen  √  ¨ar samman1 3 satt av en rotation och en skalning. Best¨am rotationsvinkeln ϕ och skalningsfaktorn r.

41

¨ Ovning a formen [A]B = am som i Exempel 4.4 en bas B och en matris [A]B p˚  4.4. Best¨ a b  d˚  a −b a     1 5 1 −2  .  och (b) A =  (a) A =  −2 3 1 3

4.2

Diskreta dynamiska system

Exempel 4.6. Ugglor ¨ater m¨oss. Eftersom ugglor ¨ater m¨oss ¨ar det bra f¨or ugglorna om det finns mycket m¨oss och d˚ aligt f¨or m¨ossen om det finns m˚ anga ugglor. L˚ at un och mn vara antalet ugglor i hundratal respektive antalet m¨oss i tiotusental efter n ˚ ar. En modell f¨or att beskriva populationsf¨or¨andringen ¨ar   u = 0, 4un + 0, 6mn n+1  m = −0, 3u + 1, 3m n+1

n

n

eller mer kompakt



xn+1 = Axn d¨ar A = 

0, 4 0, 6 −0, 3 1, 3



 .

Detta ger x1 = Ax0 , x2 = Ax1 = A2 x0 , x3 = Ax2 = A3 x0 ,. . . och xn = An x0 . F¨or att f¨orst˚ a populationsdynamiken ˚ aterst˚ ar ”bara” att ber¨akna An x0 . Vi har 0, 4 − λ 0, 6 1 − λ 0, 6 = = (1 − λ)(0, 7 − λ) . p(λ) = −0, 3 1, 3 − λ 1 − λ 1, 3 − λ

S˚ a nollst¨allena ¨ar λ1 = 1 och λ2 = 0, 7. Motsvarande egenvektorer ¨ar (R¨akna sj¨ = (2, 1). S˚ aom B ¨ar basen e1 , e2 har vi [A]B = alv!) e1 =  (1, 1) och e2  

1

0

0 0, 7

 och [An ]B = 

1

0

0 0, 7

n

. I standardbasen g¨aller d¨arf¨or An =



[A]nS = [I]SB [An ]B [I]BS d¨ar [I]SB =  42

1 2 1 1



. Nu ¨ar (Kolla det!) [I]BS =



 [I]−1 SB =

−1

2

1 −1



. S˚ a om t.ex. x0 = (3, 2) har vi

xn = An x0 = [I]SB [An ]B [I]BS x0 =     3 −1 2 1 0 1 2     2 1 −1 0 0, 7n 1 1  1 + 2 · 0, 7n = (R¨akna, r¨akna) =  1 + 0, 7n

 

 

eller un = 1 + 2 · 0, 7n och mn = 1 + 0, 7n . N¨ar n → ∞ n¨armar sig b˚ ade un och mn 1 och i det l˚ anga loppet kommer det att finnas 100 ugglor och 10 000 m¨oss i skogen. Ett n˚ agot annorlunda (och enklare) s¨att att l¨osa problemet ¨ar att f¨orst observera att x0 = e1 +e2 och att d¨arf¨or An x0 = An (e1 +e2 ) = An e1 +An e2 = e1 + 0, 7n e2 = (1 + 2 · 0, 7n , 1 + 0, 7n ).   2 1 . Exempel 4.7. Ber¨akna An d˚ aA= 0 2 A har det dubbla egenv¨ardet λ = 2. Egenrummet E2 ¨ar endimensionellt (det sp¨anns av (1, 0)) s˚ a A kan inte diagonaliseras. Men vi kan ¨a nd˚ a enkelt  ber¨akna An . Vi har A = 2I + A − 2I = 2I + N d¨ar N = A − 2I =  Eftersom N 2 = 0 ger binomialsatsen

0 1 0 0

.

    2 n n  . (2I)n−1 N = 2n I +n2n−1 N = 2n−1  An = (2I +N )n = (2I)n + 1 0 2 Rekursionsekvationer av h¨ogre ordning kan reduceras till ett system av f¨orsta ordningens rekursionsekvationer och l¨osas med ovanst˚ aende metoder. Exempel 4.8. L¨os   x n+3 = 2xn+2 + xn+1 − 2xn  x = 1, x = 0, x = 1 0

1

2

43

.

L˚ at xn = (xn , xn+1 , xn+2 ). D˚ a g¨aller xn+1 = (xn+1 , xn+2 , xn+3 ) = (xn+1 , xn+2 , 2xn+2 + xn+1 − 2xn ) .   0 1 0     P˚ a matrisform kan detta skrivas xn+1 = Axn d¨ar A =  0 0 1 .   −2 1 2 En kalkyl (G¨or den!) visar att A har egenv¨ardena −1, 1 och 2 med egenvektorer e−1 = (1, −1, 1), e1 = (1, 1, 1) och e2 = (1, 2, 4). D¨arf¨or g¨aller 1 ar x0 = (e−1 + e1 ) och vi f˚ 2 1 1 1 xn = An x0 = An ( (e−1 + e1 )) = ((−1)n e−1 + 1n e1 ) = (e1 + (−1)n e−1 ) . 2 2 2 S˚ a xn = 21 (1 + (−1)n ), dvs. xn = 1 n¨ar n ¨ar j¨amnt och xn = 0 n¨ar n ¨ar udda. Detta kan man f¨orst˚ as ocks˚ a se genom att direkt med rekursionsformeln ber¨akna ett par xn .

4.2.1

Stabilitet

Vi antar att operatorn A har en bas av egenvektorer e1 , . . . , em med egenv¨arden λ1 , λ2 , . . . , λm . D˚ a har det dynamiska systemet xn+1 = Axn l¨osningarna xn = c1 λn1 e1 + . . . + cm λnm em d¨ar ci best¨ams av startv¨ardet x0 = c1 e1 + . . . + cm em . Vi vill f¨orst˚ a hur l¨osningarna beter sig n¨ar n → ∞. Om x0 = ei s˚ a g¨aller xn = λni ei . Om |λi | < 1 har vi att xn → 0, n → ∞. Avtagandet ¨ar exponentiellt och vi s¨ager att ei ¨ar ett stabilt tillst˚ and. Om |λi | > 1 s˚ a v¨axer i st¨allet |xn | exponentiellt mot o¨andligheten. Vi s¨ager att ei ¨ar ett instabilt tillst˚ and. Slutligen om |λi | = 1 s˚ a varken v¨axer eller avtar xn . L˚ at oss nu betrakta ett godtyckligt startv¨arde x0 . Antag λi ¨ar ett dominerande egenv¨arde, dvs. att det har st¨orst absolutbelopp av egenv¨ardena. Motsvarande egenvektor ei kallas ett dominerande tillst˚ and. F¨or enkelhets skull antar vi att |λi | > |λk | d˚ a k 6= i. Om ci 6= 0 kommer termen ci λni ei att dominera ¨over de andra termerna och riktningen p˚ a xn kommer att n¨arma sig riktningen hos ei . 44

 ei xn ≈ rn d¨ar |rn | = 1. I det reella fallet n¨armar sig xn den linje Vi har |xn | |ei | genom origo som best¨ams av ei . I det komplexa fallet n¨armar sig xn den komplexa linje som best¨ams av ei , dvs. alla vektorer i Cm som kan skrivas  zei , z ∈ C.

Om alla egenv¨arden uppfyller |λk | < 1 s˚ a g¨aller limn→∞ xn = 0, f¨or alla startv¨arden x0 . Det dynamiska systemet ¨ar stabilt. Om n˚ agot egenv¨arde uppfyller |λk | > 1 s˚ a kommer |xn | → ∞, n → ∞, f¨or n¨astan alla startv¨arden, systemet a¨r instabilt. Konvergensen sker l¨angs den riktning som best¨ams av den dominerande egenvektorn ei .

    3 1 −1 1  och x0 =  . Best¨am xn = An x0 . Beskriv ¨ Ovning 4.5. L˚ at A = √  2 4 1 1 kvalitativt vad som h¨ ander f¨ or stora n.     3 1 1 3         ¨ Ovning 4.6. L˚ at A =  1 2 2  och x0 =  1 . Best¨am xn = An x0 . Beskriv     1 2 2 −1 kvalitativt vad som h¨ ander f¨ or stora n. ¨ Ovning 4.7. I den f¨ ortrollade skogen bor drakar och gripar. Deras antal ˚ ar n uppfyller   d n+1  g

n+1

= =

1, 5dn + gn

.

dn

Vad blir populationen efter 25 ˚ ar om det fr˚ an b¨orjan fanns 25 drakar och inga gripar? Hur blir det efter ett stort antal ˚ ar? Vad blir f¨orh˚ allandet mellan drakar och gripar? ¨ Ovning 4.8. I skogen finns r˚ adjur, hundra vuxna och hundra kid. Varje ˚ ar o¨verlever 50% av kiden och blir vuxna, 50% d¨ or. De vuxna r˚ adjuren f¨oder i genomsnitt 0, 6 kid (dvs. 1, 2 per par), och 70% av de vuxna r˚ adjuren o¨verlever till n¨asta ˚ ar. Hur m˚ anga kid och hur m˚ anga vuxna r˚ adjur finns det tio ˚ ar senare?   0 1 . ¨ Ovning 4.9. Unders¨ ok stabiliteten hos systemet xn+1 = Axn d˚ aA= 1 1   0 2 . ¨ Ovning 4.10. Unders¨ ok stabiliteten hos systemet xn+1 = Axn d˚ aA= 1 1   0 k . F¨ ¨ Ovning 4.11. L˚ at A =  or vilka (reella) v¨arden p˚ a k ¨ar systemet xn+1 = 1 1 Axn stabilt? N¨ ar finns det ett instabilt tillst˚ and? N¨ar finns det tv˚ a? ¨ Ovning 4.12. Vad bli xn om x0 = x1 = 0, x2 = 1 i Exempel 4.8?

45

¨ Ovning 4.13. En tr¨ adg˚ ardsm¨astare skall l¨agga en g˚ ang med cementplattor. G˚ angen skall vara en fot bred. Han har tre slags plattor. En ¨ar om¨onstrad och kvadratisk med sidan en fot, tv˚ a¨ ar rektangul¨ara med sidorna en respektive tv˚ a fot. En av dessa ¨ar om¨ onstrad, den andra m¨onstrad. Hur m˚ anga olika g˚ angar kan han l¨agga som ¨ar n fot l˚ anga? ¨ Ovning 4.14. Fibonaccif¨ oljden definieras av Fn+2 = Fn+1 + Fn , n = 1, 2, 3, . . ., F1 = F2 = 1. Best¨ am Fn . (F¨ or att f¨orenkla r¨akningarna kan det vara l¨ampligt att starta fr˚ an n = 0 genom att l¨agga till F0 = 0.)   4 −1 . Ber¨akna AN . ¨ Ovning 4.15. L˚ at A =  4 0

4.3 4.3.1

Linj¨ ara differentialekvationer Inledning

Ett system av f¨orsta ordningens ordin¨ara differentialekvationer ¨ar ett ekvationssystem av formen    x′ = F1 (t, x1 (t), . . . , xn (t))   1 .. , .     x′ = F (t, x (t), . . . , x (t)) n 1 n n

eller mer kompakt

x′ (t) = F(t, x) . H¨ar ¨ar x(t) en ok¨and och F(t, x) en k¨and vektorv¨ard funktion. Om vi dessutom har ett begynnelsevillkor x(t0 ) = x0 (d¨ar t0 ¨ar en given tidpunkt och x0 ¨ar en given vektor) s¨ager vi att vi har ett begynnelsev¨ardesproblem. En viktigt resultat i teorin f¨or ordin¨ara differentialekvationer ¨ar f¨oljande sats. Sats 4.9. Antag F(t, y) ¨ ar en kontinuerlig funktion i en ¨ oppen m¨ angd Ω och att (t0 , x0 ) ∈ Ω. Antag dessutom att f¨ or fixt t s˚ a¨ ar y 7→ F (t, y) en deriverbar funktion. D˚ a har begynnelsev¨ ardesproblemet   x′ (t) = F(t, x), (4.1)  x(t ) = x 0

0

en entydig l¨ osning x(t) som ¨ ar definierad i en omgivning av (t0 , x0 ).

Beviset av detta och mer allm¨anna satser h¨or hemma i en kurs om ordin¨ara differentialekvationer och vi bevisar den inte h¨ar. 46

4.3.2

Linj¨ ara ekvationer med konstanta koefficienter

I kursen skall vi behandla linj¨ara, homogena f¨orsta ordningens ekvationer med konstanta koefficienter, dvs. ekvationer av typen   x′ (t) = Ax(t) . (4.2)  x(0) = x 0

H¨ar ¨ar A en fix kvadratisk matris, x0 en given begynnelsevektor, och x(t) en vektorv¨ard funktion som skall best¨ammas.

Anm¨ arkning 4.10. Det ¨ar ingen inskr¨ankning att anta att t0 = 0 eftersom om x(t) l¨oser (4.2), s˚ a l¨oser y(t) = x(t − t0 ) ekvationen   y′ (t) = Ay(t) .  y(t ) = x 0

0

Vi antar f¨orst att A ¨ar diagonaliserbar. Eftersom den endimensionella ekvationen x′ = ax, x(0) = x0 , har l¨osningen eat x0 , ¨ar det naturligt att leta efter l¨osningar av formen x(t) = eλt u, d¨ar u 6= 0 ¨ar en konstant vektor och λ ett tal. Vi ser att x(t) = eλt u ¨ar en l¨osning till x′ (t) = Ax(t) om och endast om Au = λu, dvs. om och endast om λ ¨ar ett egenv¨arde till A och u en motsvarande egenvektor. Om A kan diagonaliseras s˚ a har A en bas av egenvektorer e1 , . . . , en med motsvarande egenv¨arden λ1 , . . . , λn . Eftersom e1 , . . . , en ¨ar en bas s˚ a finns entydiga c1 , . . . , cn s˚ a att x0 = c1 e1 + . . . + cn en , och c1 (t), . . . , cn (t) med x(t) = c1 (t)e1 + . . . + cn (t)en . Nu g¨aller x′ (t) = c′1 (t)e1 + . . . + c′n (t)en och Ax(t) = c1 (t)λ1 e1 + . . . + cn (t)λn en . S˚ a ekvationen x′ = Ax, x(0) = x0 ger det is¨arkopplade systemet    c′ (t) = λ1 c1 (t), c1 (0) = c1   1 .. , .     c′ (t) = λ c (t), c (0) = c n n n n n 47

med l¨osningarna ci (t) = ci eλi t. Allts˚ a ¨ar x(t) = c1 eλ1 t e1 + . . . + cn eλn t en

(4.3)

den s¨okta l¨osningen. Exempel 4.11. Antag att ett visst radioaktivt material A s¨onderfaller till materialet B med intensiteten a. Material B s¨onderfaller i sin tur till materialet C med intensiteten b. Materialet C a¨r stabilt. Hur mycket av materialen A och B finns det efter t dygn om det fr˚ an b¨orjan fanns 1 kilo av materialet A. L˚ at x1 och x2 vara m¨angden av material A respektive B. D˚ a g¨aller   x′ = −ax 1 1 eller p˚ a matrisform x′ = Ax ,  x′ = ax − bx 2

1

2

d¨ar



A=

−a

0

a −b



 .



Om a 6= b har A egenv¨ardena −a och −b med egenvektorerna e1 =  och



e2 = 

0 1



 (R¨akna sj¨alv!). Begynnelsevillkoret ¨ar 

x(0) = 

1 0



1 a e1 − e2 . b−a b−a

=

Enligt resonomanget ovan f˚ ar vi l¨osningen x(t) = eller

e−at ae−bt e1 − e2 . b−a b−a

  x (t) = e−at 1 .  x (t) = a (e−at − e−bt ) 2

b−a

48

b−a a

 

I denna l¨osning har vi antagit att a 6= b. Om a = b ¨ar A inte diagonaliserbar och vi m˚ aste resonera annorlunda. En m¨ojlighet ¨ar att st¨ora systemet en aning genom att ers¨atta b = a med b = a + ǫ. Som ovan f˚ ar vi   x (t) = e−at 1,ǫ .  x (t) = a (e−at − e−(a+ǫ)t ) 2,ǫ

ǫ

Nu l˚ ater vi ǫ → 0. F¨or fixt t g¨aller

a −at e−ǫt − 1 (e − e−(a+ǫ)t ) = ate−at → ate−at , ǫ → 0 . ǫ −ǫt ex − 1 = 1. Det g˚ ar att visa att x→0 x d˚ a ǫ → 0 konvergerar l¨osningen xǫ (t) mot l¨osningen i fallet a = b. S˚ a

H¨ar har vi anv¨ant standardgr¨ansv¨ardet lim

  x (t) = e−at 1  x (t) = ate−at

,

2

som l¨oser ekvationen d˚ a b = a. Kontrollera g¨arna detta genom att stoppa in i differentialekvationen. Anm¨ arkning 4.12. I detta Exempel ¨ar kopplingen s˚ a enkel (x′1 beror inte p˚ a x2 ) att vi med envariabelmetoder direkt kan l¨osa ut x1 , stoppa in resultatet i den andra ekvationen och best¨amma x2 . Detta fungerar oavsett om a = b eller ej. I n¨asta avsnitt skall vi studera en annan l¨osningsmetod som fungerar ¨aven om A inte ¨ar diagonaliserbar.

4.3.3

Matrisexponentialfunktionen

Differentialekvationen x′ = ax, x(0) = x0 har l¨osningen x(t) = x0 eta En dj¨arv gissning ¨ar att d¨arf¨or ¨ar l¨osningen till (4.2) ges av x(t) = etA x0 . Det f¨orsta problemet med denna gissning ¨ar att definiera etA . N¨ar x ∈ R finns det n˚ agra olika s¨att att definiera exponentialfunktionen. anger. 1. ex ¨ar talet e multiplicerat med sig sj¨alv x g˚ ∞ n X x 2. ex = . n! n=0 x′ = x, x(0) = 1. 3. ex ¨ar l¨osningen till differentialekvationen Z x dt . (Fy!) 4. ex a¨r inversen till ln x = t 1

F¨or matriser ¨ar 1. och 4. nonsens. D¨aremot fungerar b˚ ade 2. och 3. Vi definierar etA genom 2. och sen bevisar vi motsvarigheten till 3. Definition 4.13. L˚ at A vara en kvadratisk matris. D˚ a¨ ar e

tA

∞ n n X t A

=

n=0

.

n!

F¨or att detta skall fungera beh¨over vi visa att serien konvergerar. Antag att A ¨ar en matris med m rader och kolonner. L˚ at aij och anij beteckna elementet p˚ a plats ij i A respektive An . Den N -te partialsumman a¨r SN (t) =

N X 1 n n t A , n! n=0

som ¨ar en matris med element sN ij =

N X tn anij n=0

n!

.

Vi skall visa sN or all i och j. Det medf¨or att etA = lim SN ij konvergerar f¨ N →∞

existerar och etA ¨ar definierat. Vi skall allts˚ a visa att potensserierna

n=0

S¨att M = maxi,j |aij |. D˚ a g¨aller |a2ij | = |

m X

|a3ij | = |

m X

k=1

k=1

aik akj | ≤

m X

a2ik akj | ≤

m X

k=1

k=1

∞ n n X t aij

n!

konvergerar f¨or alla t ∈ R.

|aik ||akj | ≤

m X

M 2 = mM 2 ≤ m2 M 2 ,

|a2ik ||akj | ≤

m X

m2 M 3 = m3 M 3 ,

k=1

k=1

och allm¨ant |anij | ≤ (mM )n .

Uppskattningen ger oss nu ∞ ∞ n n X t aij X (|t|mM )n ≤ = e|t|mM < ∞ . n! n! n=0 n=0 Allts˚ a ¨ar potensserierna absolutkonvergenta f¨or alla t ∈ R. Nu till 3. 50

Sats 4.14. x(t) = etA x0 ¨ ar en l¨ osning till differentialekvationen   x′ (t) = Ax(t) .  x(0) = x 0

Bevis. Eftersom potensserier kan deriveras termvis har vi ∞





d X tn An X d tn An X n−1 An d tA e = = = nt dt dt n=0 n! dt n! n! n=0 n=1 =A

∞ n−1 n−1 X t A n=1

(n − 1)!

=A

∞ n n X t A n=0

n!

= AetA .

d d x(t) = etA x0 = AetA x0 = Ax(t) och x(0) = e0 x0 = Ix0 = x0 . dt dt P An a eA a¨r Anm¨ arkning 4.15. Om vi s¨atter t = 1 f˚ ar vi att eA = ∞ n=0 n! s˚ definierad f¨or varje matris A. Att vi valde att definiera etA var f¨or att beviset av Sats 4.14 skulle bli l¨att. S˚ a

L˚ at oss notera n˚ agra egenskaper hos eA . Sats 4.16. Om A och B kommuterar, dvs. AB = BA, s˚ a g¨ aller eA+B = eA eB . Bevis. Ett s¨att att bevisa formeln a¨r att anv¨anda potensserieframst¨allningen av eA+B . Observera att eftersom A och BP kommuterar s˚ a kan vi ber¨akna  n k−n k k k k ar (A + B) med binomialsatsen, (A + B) = n=0 n A B . Vi f˚ eA eB =

∞ ∞ ∞ ∞ X An X B m X X An B m = n! m=0 m! n!m! n=0 m=0 n=0

∞ k ∞ X X X An B m X An B k−n = = n!m! n!(k − n)! k=0 n+m=k k=0 n=0 k   ∞ ∞ X X 1 1 X k n k−n A B = (A + B)k = e(A+B) . = n k! k! n=0 k=0 k=0

Anm¨ arkning 4.17. Man beh¨over inte genomf¨ora r¨akningarna. Det ¨ar sant a+b att e = ea eb n¨ar a och b ¨ar reella tal. N¨ar A och B kommuterar g¨aller samma r¨aknelagar f¨or A och B som f¨or a och b s˚ a r¨akningen ”m˚ aste” st¨amma. ¨ F¨or ett alternativ bevis, se Ovning 4.22. 51

Fr˚ an Sats 4.16 f˚ ar vi e(t+s)A = etA esA , (eA )−1 = e−A och (etA )−1 = e−tA . Ett annat s¨att att bevisa det f¨orsta p˚ ast˚ aendet ¨ar med Sats 4.14. Fixera s (t+s)A tA sA och l˚ at x1 (t) = e x0 och x2 (t) = e e x0 . D˚ a uppfyller b˚ ade x1 och x2 ekvationen   x′ (t) = Ax(t) .  x(0) = esA x 0

Enligt Sats 4.9 ¨ar l¨osningen entydig, och allts˚ a ¨ar x1 (t) = x2 (t) dvs. e(t+s)A x0 = etA esA x0 och eftersom x0 kan v¨aljas godtyckligt f¨oljer e(t+s)A = etA esA . Om A kan diagonaliseras ¨ar det enkelt att ber¨akna etA . L˚ at B vara en bas av egenvektorer e1 , . . . , en med motsvarande egenv¨arden λ1 , . . . , λn . D˚ a g¨aller     λn1 0 ... 0 0 λ1 0 . . . 0 0         n    0 λ2 . . . 0 0 λ2 . . . 0 0  0 n     [A]B =  . ..  . .. ..  och [A ]B =  .. .. .. .. .  .  . .  .  . ... . . ... .     0 0 . . . 0 λnm 0 0 . . . 0 λm S˚ a tA

[e ]B = e 

t[A]B

=

∞ X tn n=0

λn1

0 ... 0

n!

[A]nB = 0

  ∞ n  0 λn . . . 0 X 0 t  2 =  .. . . . .. . . . .. n!  .. . n=0  0 0 . . . 0 λnm





      =      

etλ1

0 ... 0 tλ2

0 e ... 0 . .. .. . . . . .. . 0

0 0 .. .

0 . . . 0 etλm



    .   

Eftersom [x0 ]B = (c1 , . . . , cm ) ger detta [x(t)]B = et[T ]B [x0 ]B = (c1 etλ1 , . . . , cm etλm ) ater sett att l¨osningen ges eller x(t) = c1 etλ1 e1 + · · · + cm etλm em och vi har ˚ av (4.3). Exempel 4.18. F¨or att l¨osa differentialekvationen     x′ (t) = Ax(t) 0 −1  d¨ar   x(0) = (2, 0) −1 0 52

observerar vi f¨orst att A har egenv¨ardena 1 och −1 med egenvektorerna e1 = (1, −1) respektive e2 = (1, 1). Vi observerar ocks˚ a att x(0) = e1 + e2 och l˚ ater x(t) = a(t)e1 + b(t)e2 . D˚ a g¨aller x′ (t) = a′ (t)e1 + b′ (t)e2 och Ax(t) = a(t)e1 − b(t)e2 . S˚ a vi f˚ ar

  a′ (t) = a(t)  a(0) = 1

  b′ (t) = −b(t) och .  b(0) = 1

L¨osningarna ¨ar a(t) = et och b(t) = e−t och vi f˚ ar x(t) = et e1 + e−t e2 = (et + e−t , et − e−t ). Exempel 4.19. Skall vi i st¨allet l¨osa differentialekvationen     x′ (t) = Ax(t) 3 1  d¨ar   x(0) = (1, 1) 0 3

observerar vi f¨orst att A har det dubbla egenv¨ardet 3 men inte ¨ar diagonalitA serbar (Varf¨or d˚ a?).  Vi villd¨arf¨or ber¨akna e . Vi skriver A = 3I +(A−3I) =

3I + N d¨ar N = 

e

0 1 0 0

tN

=

. Vi har N 2 = 0 och allts˚ a N n = 0 n¨ar n ≥ 2. S˚ a

∞ n n X t A n=0

n!

=

1 X tn An n=0

n!

= I + tA .

Detta ger 

etA = e3tI+tN = e3tI etN = e3t (I + tN ) = e3t  och



x(t) = e3t 

1 t 0 1

 

1 1

1 t 0 1

 



 = e3t (1 + t, 1) .

Anm¨ arkning 4.20. Att det gick s˚ a l¨att att ber¨akna etA berodde p˚ a att A−λI var nilpotent, dvs. n˚ agon potens (i det h¨ar fallet 2) av A−λI f¨orsvinner. Man kan i allm¨anhet dela upp en operator i invarianta delrum med denna egenskap, s˚ a man beh¨over bara ber¨akna ¨andligt m˚ anga termer i serien f¨or tA e . Mer om detta i Kapitel 8. 53

Exempel 4.12. (Forts.) Vi tittar ˚ ater p˚ a exemplet med radioaktivt s¨onderfall, dvs.   x′ = Ax d¨ar A = 

−a

0

a −b

 .



Om a 6= b har A egenv¨ardena −a och −b med egenvektorerna  

respektive 

0 1

b−a



a

 

. I denna bas B g¨aller 

[etA ]B = et[A]B = 

e−at 0

0 e

−bt



 och [x(t)]B = [etA ]B [x0 ]B .

Nu ¨ar [x0 ]B = [I]BS [x0 ]S och [x0 ] = [I]SB [x0 ]B . Vi har     1 0 b−a 0  .  och en kalkyl ger [I]BS = [I]−1  b−a [I]SB =  SB = a − b−a 1 a 1

Detta ger

x(t) = [x(t)]S = [I]SB [x(t)]B = [I]SB [etA ]B [x0 ]B = [I]SB [etA ]B [I]BS [x0 ]S =      1 e−at 0 b−a 0 0 1   b−a     a 0 e−bt a 1 − b−a 1 0   e−at  = (R¨akna sj¨alv! ) =   . a −at −bt e −e b−a   −a 0  som har det dubbla egenv¨ardet −a, N¨ar b = a har vi A =  a −a men inte¨ar diagonaliserbar. Vi l˚ ater A = −aI + N d¨ar N = A + aI =  

0 0

a 0

. D˚ a ¨ar N 2 = 0 och



etA = et(−aI+N ) = e−at etN = e−at (I + tN ) = e−at  54

1 0 at 1



 .

Anm¨ arkning 4.21. En linj¨ar differentialekvation av n-te ordningen y (n) + cn−1 y (n−1) + · · · + c1 y ′ + c0 y = 0 kan skrivas om som ett f¨orsta ordningens system. Om vi inf¨or x1 = y, x2 = y ′ , . . . , xn = y (n−1) f˚ ar vi systemet (Varf¨or d˚ a?) x′ = Ax d¨ar   0 1 0 ... 0      0 0 1 ... 0    .. ..  .  A =  ..  . . .      0 0 ... 1    −c0 −c1 . . . −cn−1 S˚ a med denna omskrivning kan vi anv¨anda metoderna i detta kapitel f¨or att l¨osa differentialekvationer av h¨ogre ordning. Omskrivningen anv¨ands ocks˚ a n¨ar man l¨oser differentialekvationer i MATLAB, och den kan ocks˚ a anv¨andas f¨or att visa satser om differentialekvationer av h¨ogre ordning. Anm¨ arkning 4.22. N¨ar A ¨ar diagonaliserbar ger v˚ art f¨orsta argument b˚ ade existens och entydighet hos l¨osningarna. Om A inte ¨ar diagonaliserbar visade vi bara att etA x0 var en l¨osning, inte att det var den enda l¨osningen. F¨or den teoretiskt intresserade l¨asaren ger vi h¨ar ett bevis f¨or detta. Bevis av entydigheten av l¨ osningar till (4.2). F¨or att id´en i beviset skall bli klar b¨orjar vi med att ge ett bevis av entydigheten d˚ a n = 1 som enkelt kan generaliseras till det allm¨ anna fallet. Genom att betrakta skillnaden mellan tv˚ a l¨osningar ser vi att det r¨acker att visa att den enda l¨ osningen till   x′ (t) = ax(t)  x(0) = 0 ¨ar x(t) = 0.

1 . (Om a = 0 kan vi l˚ ata δ = 1 eller observera att fallet a = 0 ¨ar 2|a| trivialt.) L˚ at m = max{|x(t)|; |t| ≤ δ}. Ekvationen x′ (t) = ax(t) ger Z t Z t ′ ax(s)ds . x (s)ds = x(t) = L˚ at δ =

0

0

S˚ a om |t| ≤ δ har vi

1 |x(t)| ≤ m|a| |t| ≤ m|a|δ = m . 2

55

a ¨ar x(t) = 0 d˚ a |t| ≤ δ. Detta ger m = max|t|≤δ |x(t)| ≤ 21 m och m = 0. Allts˚ Vi kan nu upprepa argumentet med startpunkter t0 ± δ och f˚ ar att x(t) = 0 d˚ a |t| ≤ 2δ osv. Vi f˚ ar x(t) = 0 f¨or alla t. I vektorfallet skall vi visa att om   x′ (t) = Ax(t)  x(0) = 0

s˚ a¨ ar x(t) = 0 f¨ or alla t. L˚ at A = (aij ), M = maxij |aij |, δ = m = maxi mi . D˚ a g¨ aller xi (t) =

Z

t 0

x′i (s)ds

1 2nM ,

=

Z

mi = max{|xi (t)|; |t| ≤ δ} och

t

(Ax(s))i ds 0

a r den i-te komponenten i Ax(s). Om |s| ≤ δ g¨aller |(Ax(s))i | = d¨ ar (Ax(s))i ¨ P n Pn a om |t| ≤ δ f˚ ar vi j=1 aij xj (s) ≤ j=1 M m = nM m. S˚ 1 |xi (t)| ≤ nM mδ = m . 2

Som ovan ger detta m ≤ 12 m, dvs. m = 0. Resten av argumentet ¨ar precis som i det endimensionella fallet.

4.3.4

Stabilitet

Vi antar att matrisen A har en bas av egenvektorer e1 , . . . , en med egenv¨arden λ1 , λ2 , . . . , λn . D˚ a har ekvationen x′ = Ax l¨osningarna x n = c 1 e λ 1 t e1 + . . . + c n e λ n t em d¨ar ci best¨ams av startv¨ardet x0 . Eftersom |eλt | = eλR t d¨ar λR = Reλ beror uppf¨orandet hos eλt f¨or stora t p˚ a om λR ¨ar positivt, negativt eller noll. Om vi startar i en egenvektor vars egenv¨arde har positiv realdel kommer l¨osningen att v¨axa exponentiellt. Om egenv¨ardet har negativt realdel avtar l¨osningen exponentiellt. Om realdelen ¨ar noll ¨ar l¨osningen begr¨ansad och (om λ 6= 0) oscillerande. Precis som i det diskreta fallet kommer en allm¨an l¨osning att domineras av en term. Nu ¨ar det dominerande egenv¨ardet det egenv¨arde som har st¨orst realdel. Om n˚ agot egenv¨arde har positiv realdel kommer n¨astan alla startv¨arden ha l¨osningar som v¨axer d˚ a t → ∞, systemet ¨ar instabilt. Om alla egenv¨ardena har negativ realdel ¨ar systemet stabilt. 56

¨ Ovning 4.16. L¨ os differentialekvationen x′ (t) = Ax(t), x(0) = (3, 2) d˚ a 

(a) A = 

2

3

−1 −2





 och (b) A = 

7

−1

3

3

 

¨ systemen stabila? Hur ser banorna ut? Ar ¨ Ovning 4.17. G¨ or ett variabelbyte som kopplar is¨ar ekvationerna x′ (t) = Ax(t) till ′ ¨ y (t) = Dy(t) d¨ ar D ¨ ar en diagonalmatris f¨or matriserna i Ovning 4.16. Vad blir basen och D? ¨ Ovning 4.18. Best¨ am den allm¨ anna l¨ osningen till diferentialekvationen x′ (t) = Ax(t) d˚ a     −3 −9 −3 2   och (b) A =  (a) A =  2 3 −1 −1 Beskriv banorna. Varning. Egenv¨ ardena ¨ ar komplexa.  1 ¨ Ovning 4.19. Ber¨ akna etA d˚ aA= −1

2 4



.

¨ Ovning 4.20. Ber¨ akna etA , d˚ a



(a) A = 

0

1

−1

0



,



(b) A = 

a

b

−b

a



,



0

   0 (c) A =    0  0

1 0 0 1 0 0 0 0

0



  0  .  1   0

¨ Ovning 4.21. L˚ at A(t) och B(t) vara deriverbara matriser (av l¨amplig storlek). Visa att d˚ a g¨ aller d (A(t)B(t)) = A′ (t)B(t) + A(t)B ′ (t) . dt ¨ Ovning 4.22. F¨ ors¨ ok visa att om A och B kommuterar s˚ a g¨aller et(A+B) = etA etB genom t(A+B) tA tB att visa att e x0 och e e x0 uppfyller samma differentialekvation (Vilken?). ¨ Ovning 4.23. Antag att et(A+B) = etA etB f¨or alla t. Visa att d˚ a kommuterar A och B Ledning. Derivera et(A+B) = etA etB tv˚ a g˚ anger och s¨att t = 0

4.3.5

d2 x Ekvationen 2 = Ax dt

I det h¨ar avsnittet skall vi studera differentialekvationen d2 x = Ax . dt2 57

(4.4)

Ekvationen ¨ar viktig f¨or till¨ampningar i fysik p˚ a grund av Newtons andra lag, F = ma. H¨ar ¨ar F kraften som p˚ averkar en partikel, m ¨ar partikelns massa och a betecknar accelerationen. S˚ a om x(t) ¨ar l¨aget hos en partikel ′′ som p˚ averkas av en kraft F s˚ a g¨aller mx = ma = F. Ett s¨att att f¨ors¨oka l¨osa ekvation (4.4) ¨ar att anv¨anda metoden i Anm¨arkning 4.21. Men om A ¨ar en matris av ordning n kommer denna metod att ge ett f¨orsta ordningens ekvationssystem d¨ar matrisen i h¨ogerledet ¨ar 2n × 2n vilket leder till kr˚ angliga r¨akningar. Vi v¨aljer d¨arf¨or att anv¨anda en annan metod. Vi b¨orjar med det skal¨ara fallet, y ′′ = αy. Ni har s¨akert sett hur man l¨oser en s˚ adan differentialekvation i n˚ agon analyskurs men h¨ar ger vi en l¨osning som bygger p˚ a Anm¨arkning 4.21. L˚ at x1 = y och x2 = y ′ . D˚ a g¨aller x′1 = x2 och x′2 = y ′′ = αy = αx1 . Om x = (x1 , x2 ) kan detta skrivas   0 1  . x′ = Ax d¨ar A =  α 0 Matrisen A har det karakteristiska polynomet p(λ) = λ2 − α. Nu finns tre olika m¨ojligheter. Fall 1: α = 0. D˚ a g¨aller y(t) = At+B vilket √ f¨oljer direkt fr˚ an y ′′ = αy = 0. Fall a ¨ar egenv¨ardena λ± = ± α och egenvektorerna e± = √ 2: α > 0. D˚ (1, ± α). S˚ a om x(0) = Ae+ + Be− (d¨ar A och B best¨ams av l¨ampliga √ √ begynnelsev¨arden) s˚ a blir l¨osningen x(t) = Aet α e+ + Be−t α e− . Speciellt g¨aller √ √ y(t) = x1 (t) = Aet α + Be−t α . √ Fall 3: α < 0. L˚ at a√= −α. D˚ a ¨ar egenv¨ardena λ± = ±i a och egena om x(0) = Ae+ + Be− s˚ vektorerna √e± = (1, ±i√ a). S˚ a blir l¨osningen −it a it a e+ + Be e− . Speciellt g¨aller x(t) = Ae y(t) = x1 (t) = Aeit



a

+ Be−it



a

.

Med hj¨alp av Eulers formler kan detta skrivas om som √ √ y(t) = A1 sin t a + B1 cos t a . Med hj¨a√lp av ytterligare n˚ agra trigonometriska formler f˚ ar vi att y(t) = A0 sin(t a + ϕ0 ) d¨ar man tydligt ser att y(t) ¨ar en fasf¨orskjuten sinusv˚ ag. ′′ ′ F¨or att l¨osa x = Ax, x(0) = x0 , x (0) = x1 , antar vi att A ¨ar diagonaliserbar. D˚ a finns en bas av egenvektorer ei med egenv¨ardena λi . Om vi s¨atter x(t) = a1 (t)e1 + . . . + an (t)en , s˚ a g¨aller x′′ (t) = a′′1 (t)e1 + . . . + a′′n (t)en och Ax(t) = a1 (t)λ1 e1 + . . . + an (t)λn en . 58

S˚ a det kopplade ekvationssystemet x′′ = Ax ¨ar ekvivalent med de n stycken is¨arkopplade skal¨ara ekvationerna a′′i (t) = λi ai (t), i = 1, 2, . . . , n . Begynnelsev¨ardena x(0) = x0 , x′ (0) = x1 ger tv˚ a entydigt l¨osbara linj¨ara ′ ekvationssytem f¨or begynnelsev¨ardena ai (0) och ai (0). Vi l˚ ater ai (t) vara den entydiga l¨osningen till a′′i (t) = λi ai (t) med dessa begynnelsevillkor. D˚ a ¨ar ′′ x(t) = a1 (t)e1 + . . . + an (t)en den s¨okta l¨osningen till x = Ax, x(0) = x0 , x′ (0) = x1 . Exempel 4.23 (En fysikalisk till¨ampning.). Betrakta en partikel som h¨anger i en elastisk fj¨ader. Hookes lag s¨ager att kraften i en elastisk fj¨ader ¨ar direkt proportionell mot partikelns avvikelse fr˚ an fj¨aderns naturliga l¨angd. Om x(t) an den naturliga l¨angden vid tiden s˚ a g¨aller allts˚ a ¨ar partikelns avvikelse fr˚ F (t) = −kx(t) d¨ar k ¨ar den s˚ a kallade fj¨aderkonstanten. Tillsammans med k x(t) Newtons andra lag, F (t) = ma leder detta till ekvationen x′′ (t) = − m och partikeln utf¨or en sinussv¨angning. L˚ at oss nu betrakta ett mer intressant exempel. Vi antar att vi har tv˚ a partiklar med (f¨or enkelhets skull) massan 1, och tre fj¨adrar.Tv˚ a av fj¨adrarna ¨ar i ena ¨andan f¨asta vid var sin v¨agg. Dessa fj¨adrar har (igen f¨or enkelhets skull) b˚ ada fj¨aderkonstanten 1. Mellan partiklarna sitter den tredje fj¨adern som har fj¨aderkonstanten k. Avst˚ andet mellan v¨aggarna ¨ar lika med summan av de tre fj¨adrarnas naturliga l¨angd. (Rita figur!) Antag att vi flyttar den ena partikeln 1 cm. Vad h¨ander? L˚ at x1 (t) och ¨ar x2 (t) vara tv˚ a partiklarnas avvikelse fr˚ an j¨amviktsl¨aget. B˚ ada partiklarna p˚ averkas av tv˚ a fj¨adrar. Hookes lag ger att den f¨orsta partikeln p˚ averkas av F1 = −x1 +k(x2 −x1 ) och den andra av F1 = −x2 −k(x2 −x1 ). S˚ a vi f˚ ar ekvationssystemet   x′′ = −x + k(x − x ) = −(1 + k)x + kx 1 2 1 1 2 1 .  x′′ = −x − k(x − x ) = kx − (1 + k)x 2

2

2

1

1

2

P˚ a matrisform kan detta skrivas



x′′ = Ax d¨ar A = 

−(1 + k)

k

k

−(1 + k)



 .

Det karakteristiska polynomet till till A ¨ar p(λ) = (λ + 1 + k)2 − k 2 . S˚ a egenv¨ardena blir λ = −1 och λ = −1 − 2k. Vektorn e1 = (1, 1) ¨ar en egenvektor till egenv¨ardet −1 och e2 = (1, −1) ¨ar en egenvektor till egenv¨ardet −1 − 2k. (Kontrollera detta.) 59

Vi skriver x(t) = a1 (t)e1 + a2 (t)e2 . Begynnelsevillkoren x(0) = (1, 0), x′ (0) = 0 ger a1 (0)e1 + a2 (0)e2 = (1, 0) och a′1 (0)e1 + a′2 (0)e2 = 0 med l¨osa differentialningen a1 (0) = a2 (0) = 21 och a′1 (0) = a′2 (0) = 0. Detta ger de tv˚ ekvationerna    a′′ = −a  a′′ = −(1 + 2k)a 1 1 1 2 och .  a (0) = 1 , a′ (0) = 0  a (0) = 1 , a′ (0) = 0 1

2

2

1

2

2

Ekvationen a′′1 = −a1 har den allm¨anna l¨osningen a1 (t) = A cos t + a ¨ar a1 (t) = B sin t och begynnelsevillkoret ger A = 21 , B = 0 och allts˚ 1 ′′ cos t. Ekvationen a2 = −(1 + 2k)a2 har den allm¨anna l¨osningen a2 (t) = 2 √ √ A cos( 1 + 2k t) + B sin( 1 + 2k t). Begynnelsevillkoret ger A = 21 , B = 0 √ och a2 (t) = 12 cos( 1 + 2k t).  √ 1 Detta ger x(t) = cos t (1, 1) + cos( 1 + 2k t) (1, −1) eller 2    √  x1 (t) = 1 cos t + cos( 1 + 2k t) 2   .  x (t) = 1 cos t − cos(√1 + 2k t) 2 2

Fundera g¨arna p˚ a hur partiklarna r¨or sig f¨or olika v¨arden p˚ a k, speciellt d˚ a k a¨r liten. 

0 2



0 4

¨ Ovning 4.24. L¨ os differentialekvationen x′′ = Ax d¨ar A = 

2 0

x′ (0) = (0, 1).

¨ Ovning 4.25. L¨ os differentialekvationen x′′ = Ax d¨ar A =  x′ (0) = (0, 1).

F¨ orslag till svar 4.1 x − z = 0 4.2 2 + 3i och (1 − 3i, 2), respektive 2 − i och (1 + 3i, 2) 4.3 ϕ = π6 ,r = 2   2 −1 , 4.4 (a) (−1, 1) och (−1, 0);  1 2   2 −3  (b) (1, 2) och (3, 0);  3 2 4.5 xn = (3 cos(nθ) − 4 sin(nθ), 3 sin(nθ) + 4 cos(nθ)), θ = π4  4.6 xn = 5n + 2n+1 , 5n − 2n , 5n − 2n  1 n n 4.7 (dn , gn ) = 20 · 2 + 5(− 2 ) , 10 · 2n − 10(− 12 )n , dn /gn → 2

60

1 0



, x(0) = (1, 0) och 

, x(0) = (1, 0) och

4.8 69, 2 och 115, 4 √ 4.9 Instabilt, men xn → 0 om x0 ¨ ar parallell med (−1 − 5, 2). 4.10 Instabilt. |xn | → ∞ utom d˚ a x0 = t(−2, 1). 4.11 Stabilt om −1 < k < 0. Instabilt om k < −1 eller k > 0.  1 n+1 2 − 3 + (−1)n 4.12 6 1 n+1 (2 3

+ (−1)n ) stycken.   √ √ 4.14 Fn = n1√ (1 + 5)n − (1 − 5)n . 2 5   2N (1 + N ) −N 2N −1  4.15  4N 2N −1 2N (1 − N )

4.13

4.16 (a) − 25 (−3, 1)et + 29 (−1, 1)e−t , instabilt (b) − 12 (1, 3)e4t + 72 (1, 1)e6t , instabilt   1 0  , 4.17 (a)(3, −1), (1, −1); D = 0 −1   4 0 , (b) (1, 3), (1, 1); D =  0 6 4.18 (a) c1 (1 − i, 1)e(−2+i)t + c2 (1 + i, 1)e(−2−i)t , spiraler in mot origo (b) c1 (−3 + 3i, 2)e3it + c2 (−3 − 3i, 2)e−3it , ellipser kring origo   2e2t − e3t 2(e3t − e2t )  4.19  e2t − e3t −e2t + 2e3t 4.20     cos t sin t cos bt sin bt at    , (a) , (b) e − sin t cos t − sin bt cos bt   1 t t2 /2 t3 /6    0 1 t t2 /2    (c)  .  0 0 1 t    0 0 0 1 √ √ √ √ 4.24 x(t) = (c1 et√2 + c2 e−t√2 )(1, 1) + (c3 cos t 2 + c4 sin t 2)(−1, 1) f¨ or l¨ ampliga ci √ √ or l¨ ampliga ci 4.25 x(t) = (c1 et 2 + c2 e−t 2 )(2, 1) + (c3 cos t 2 + c4 sin t 2)(−2, 1) f¨

61

Kapitel 5 Skal¨ arproduktsrum 5.1

Inledning

I det h¨ar kapitlet skall vi inf¨ora mer struktur p˚ a v˚ ara abstrakta vektorrum som g¨or det m¨ojligt att generalisera geometriska begrepp som l¨angd och vinklar. F¨or de geometriska vektorerna i F¨ orsta kursen inf¨orde vi skal¨arprodukten mellan tv˚ a vektorer genom x·y = |x||y| cos ϕ, d¨ar |x| a¨r l¨angden av x x·y kan all och ϕ vinkeln mellan x och y. Eftersom |x|2 = x·x och cos ϕ = |x||y| information om l¨angd och vinklar uttryckas med hj¨alp av skal¨arprodukten. I en ortonormerad bas p˚ a R3 g¨aller x·y = x1 y1 +x2 y2 +x3 y3 . Detta uttryck till Rn . Vi f˚ ar den s˚ a kallade standardskal¨arpo¨ar naturligt att generalisera P n n dukten p˚ a R , x·y = i=1 xi yi . I samband med studiet av spektralteori s˚ ag vi att ¨aven f¨or operatorer p˚ a reella vektorrum ¨ar det naturligt att studera deras utvidgning till komplexa vektorrum. S˚ a vi vill inf¨ora skal¨arprodukter ocks˚ a p˚ a komplexa vektorrum. F¨or reella tal har vi den ointressanta likheten |x|2 = x · x. F¨or komplexa tal har vi den lika sj¨alvklara men mycket intressantare identiteten |z|2 = z z¯. D¨arf¨or P a Cn genom ¨ar det naturligt att definiera standardskal¨arprodukten p˚ n z·w = i=1 zi wi . Om vi l˚ ater hx, yi beteckna vilken som helst av dessa skal¨arprodukter ¨ar det l¨att att se att hx, yi uppfyller f¨oljande regler. 1. hx, yi = hy, xi 2. hαx + βy, zi = αhx, zi + βhy, zi 3. hx, xi ≥ 0 62

4. Om hx, xi = 0 s˚ a x = 0. Anm¨ aP rkning 5.1. I fysik anv¨ander man ofta skal¨arprodukten hx, yiF = z·w = ni=1 zi wi i st¨allet f¨or (den matematiska) standardskal¨arprodukten p˚ a n C .

5.2

Skal¨ arprodukt

Definition 5.2. L˚ at V vara ett reellt eller komplext vektorrum och l˚ at h , i var en funktion som till tv˚ a vektorer x och y i V ger en skal¨ ar hx, yi. D˚ a¨ ar h , i en skala rprodukt p˚ a V om hx, yi uppfyller skal¨ a rproduktsaxiomen ¨ 1. hx, yi = hy, xi

(konjugat)symmetri

2. hαx + βy, zi = αhx, zi + βhy, zi linj¨ aritet 3. hx, xi ≥ 0

positivitet

4. Om hx, xi = 0 s˚ a x = 0. Ett vektorrum med en skal¨ arprodukt kallas f¨ or ett skala ¨rproduktsrum. Ibland s¨ager man inre produkt och inre produktrum i st¨allet f¨or skal¨arprodukt och skal¨arproduktsrum. Om vektorrummet ¨ar reellt har konjugatet ingen betydelse och 1. reduceras till hx, yi = hy, xi. S˚ a en reell skal¨arprodukt ¨ar symmetrisk. Exempel 5.3. 1. Standardskal¨arprodukterna p˚ a Rn och Cn . 2. ℓ2 = {x = (xi )∞ 1 ;

P∞

i=1

|xi |2 < ∞} med skal¨arprodukten hx, yi =

3. Pn : Polynomen av grad h¨ogst n med skal¨arprodukten hp, qi =

R1

−1

P∞

i=1

xi y¯i .

p(t)q(t)dt.

4. P2 : Polynomen av grad h¨ogst 2 med skal¨arprodukten hp, qi = p(−1)q(−1)+ p(0)q(0) + p(1)q(1). a [0, 1] med skal¨arprodukten hf, gi = R5.1 C[0, 1]: De kontinuerliga funktionerna p˚ f (t)g(t)dt. −1 6. L2 (I): De integrerbara funktionerna p˚ a intervallet I som uppfyller R ∞ med skal¨arprodukten hf, gi = I f (t)g(t)dt. 63

R

I

|f (t)|2 dt
2 s˚ a g¨aller att hx1 , x2 +. . .+xn i = 0. S˚ a kx1 +x2 +. . .+xn k2 = kx1 +(x2 +. . .+xn )k2 = kx1 k2 +kx2 +. . .+xn k2 . Men induktionsantagandet ger kx2 + . . . + xn k2 = kx2 k2 + . . . + kxn k2 och p˚ ast˚ aendet f¨oljer.

68

Fr˚ an (den generaliserade) Pythagoras sats f¨oljer att kα1 x1 + α2 x2 + . . . + αn xn k2 = kα1 x1 k2 + kα2 x2 k2 + . . . + kαn xn k2 = |α1 |2 kx1 k2 + |α2 |2 kx2 k2 + . . . + |αn |2 kxn k2 om vektorerna x1 , x2 , . . . xn ¨ar ortogonala. Om de ¨ar ortonormala g¨aller kα1 x1 + α2 x2 + . . . + αn xn k2 = |α1 |2 + |α2 |2 + . . . + |αn |2 . Definition 5.20. Om vektorerna i en bas e1 , e2 , . . . en f¨ or V ¨ ar ortogonala kallas basen f¨ or en ortogonalbas. Om vektorerna ¨ ar ortonormala ¨ ar basen en ortnormalbas. Vi skriver ofta ON -bas i st¨allet f¨or ortnormalbas. F¨or att best¨amma koordinaterna till en vektor i en godtycklig bas beh¨over vi l¨osa ett ekvationssystem. I en ortogonalbas ¨ar det mycket l¨attare att best¨amma koordinaterna. Om x = α 1 e1 + α 2 e2 + . . . + α n en ger skal¨armultiplikation med ek att hx, ek i = αk hek , ek i = αk kek k2 och allts˚ a αk =

hx, ek i . kek k2

¨ basen en ortonormalbas f˚ Ar ar vi αk = hx, ek i.

5.2.4

Konstruktion av ortonormalbaser

Om vi har en bas v1 , v2 , . . . vn p˚ a ett skal¨arproduktsrum V kan vi fr˚ an denna bas konstruera en ortonormalbas p˚ a f¨oljande s¨att. v1 Steg 1. S¨att e1 = och l˚ at E1 = Span e1 . kv1 k Antag att vi har konstruerat ortonormala vektorer e1 , e2 , . . . ek s˚ adana att Ek = Span (e1 , e2 , . . . ek ) = Span (v1 , v2 , . . . vk ). Steg k + 1. Vi vill ers¨atta vektorn vk+1 med en vektor ek+1 som ¨ar ortogonal mot Ek . F¨or detta s¨atter vi ˜k+1 = vk+1 − (α1 e1 + α2 e2 + . . . + αk ek ) e och v¨aljer αi s˚ a att h˜ ek+1 , ei i = 0, i = 1, . . . , k. Eftersom h˜ ek+1 , ei i = ˜k+1 ortogonal mot Ei n¨ar αi = hvk+1 , ei i. S˚ hvk+1 , ei i − αi s˚ a blir e a  ˜k+1 = vk+1 − hvk+1 , e1 ie1 + hvk+1 , e2 ie2 + . . . + hvk , ek iek . e 69

˜k+1 e . Det ¨ar l¨att att visa (G¨or k˜ ek+1 k det!) att Span (e1 , . . . , ek ) = Span (v1 , . . . , vk ) f¨or alla k. N¨ar k = n betyder detta att e1 , e2 , . . . , en ¨ar den s¨okta basen. Denna algoritm f¨or att ortogonalisera vektorer brukar kallas f¨or Gram˜k ger teoretiskt enklare formler Schmidts metod. Att normalisera vektorerna e men vid praktisk r¨akning ¨ar det l¨attare att inte normalisera (k˜ ek k ¨ar i allm¨an˜1 , e ˜2 , . . . , e ˜n het ”besv¨arliga”) utan g¨ora detta efter att att alla vektorerna e har ber¨aknats. Slutligen normaliserar vi och s¨atter ek+1 =

Exempel 5.21. L˚ at v1 = (1, 1, 1, 1), v2 = (0, 1, 1, 1) och v3 = (0, 0, 1, 1). Best¨am en ortonormerad bas f¨or Span(v1 , v2 , v3 ). L¨osning. ˜ 1 = v1 Steg 1. S¨att e Steg 2. S¨att e′2 = v2 − αv1 och v¨alj α s˚ a att h˜ e1 , e′2 i = 0. Detta a¨r uppfyllt ˜1 i = 0. Eftersom h˜ ˜1 i = 4 e1 , v2 i − αh˜ e1 , e e1 , v2 i = 3 och h˜ e1 , e om h˜ e1 , e′2 i = h˜ 3 3 1 ′ ˜1 = 4 (−3, 1, 1, 1). ger detta α = 4 . S˚ a e2 = v 2 − 4 e ˜2 = F¨or att r¨akningarna skall bli enklare i n¨asta steg ers¨atter vi e′2 med e ′ 4e2 = (−3, 1, 1, 1). ˜3 = v3 − α˜ ˜3 i = 0 och Steg 3. S¨att e e1 − β˜ e2 d¨ar α och β v¨aljs s˚ a att h˜ e1 , e ˜3 i = 0. h˜ e2 , e ˜3 i = h˜ ˜1 i = 0. Nu ¨ar Det f¨orsta villkoret betyder att h˜ e1 , e e1 , v3 i − αh˜ e1 , e 1 ˜1 i = 4 och allts˚ h˜ e1 , v3 i = 2 och h˜ e1 , e a g¨aller α = 2 . ˜3 i = h˜ ˜2 i = 0. Nu a¨r Det andra villkoret betyder att h˜ e2 , e e2 , v3 i − βh˜ e2 , e 1 ˜2 i = 12 s˚ h˜ e2 , v3 i = 2 och h˜ e2 , e a β = 6.

˜3 = v3 − 21 e ˜1 − 16 e ˜2 = 31 (0, −2, 1, 1). Detta ger e Slutligen f¨or att f˚ a en ortonormerad bas normaliserar vi dessa vektorer och f˚ ar e1 =

5.2.5

˜2 ˜1 e 1 1 e = (1, 1, 1, 1), e2 = = √ (−3, 1, 1, 1) k˜ e1 k 2 k˜ e2 k 2 3 ˜3 e 1 och e3 = = √ (0, −2, 1, 1) . k˜ e3 k 6

Ortogonal projektion

I det h¨ar avsnittet skall vi generalisera Lemma 5.11. Definition 5.22. L˚ at E vara ett delrum till V . Den ortogonala projektionen, PE v, av en vektor v p˚ aE ¨ ar den vektor w ∈ E som uppfyller att v − w ⊥ E. 70

N¨ar E = Span (v) ger Lemma 5.11 att det finns precis en s˚ adan vektor. Existensen av den ortogonala projektionen d˚ a E ¨ar ett ¨andligtdimensionellt delrum ¨ar en f¨oljd av f¨oljande resultat. Proposition 5.23. Om e1 , e2 , . . . , en ¨ ar en ortonormalbas f¨ or E s˚ a¨ ar w=

n X hv, ek iek k=1

den ortogonala projektionen av v p˚ a E. Bevis. Vi visar f¨orst entydigheten. S˚ a antag att w ¨aP r en ortogonal projektion av v p˚ a E. Eftersom w ∈ E kan w skrivas w = nk=1 αk ek . Villkoret v − w ⊥P ek ger 0 = hv, ek i − αk hek , ek i = hv, ek i − αk . S˚ a αk = hv, ek i och n w = k=1 hv, ek iek ¨ar entydigt P best¨amd. Omv¨ant om vi s¨atter w = nk=1 hv, ekP iek f˚ ar vi hv − w, ei i = hv, ei i − n hw, ei i = hv, ei i − hv, ei i = 0 s˚ a w = ar den ortogonala k=1 hv, ek iek ¨ projektionen. Om E ¨ar ett ¨andligtdimensionellt delrum till V , s˚ a finns enligt GramSchmidts metod en ortonormalbas p˚ a E och vi har bevisat f¨oljande Sats 5.24. Om E ¨ ar ett ¨ andligtdimensionellt delrum till V s˚ a existerar den ortogonala projektionen och ¨ ar entydigt best¨ amd. Vi har nu tillr¨ackligt med verktyg f¨or att l¨osa f¨oljande approximationsproblem: Vad ¨ar avst˚ andet fr˚ an v till delrummet E? Mer precist, vilken vektor w uppfyller kv − wk = d = inf x∈E kv − xk. Svaret ges av Sats 5.25. Den ortogonal projektionen PE v minimerar avst˚ andet fr˚ an v till E, dvs. kv − PE vk = inf kv − xk . x∈E

Bevis. L˚ at x ∈ E och w = PE v. Eftersom w − x ∈ E och v − w ⊥ E ger Pythagoras sats (rita figur) kv − xk2 = kv − w + w − xk2 = kv − wk2 + kw − xk2 ≥ kv − wk2 med likhet om och endast om x = w. 71

Exempel 5.26. Best¨am det tredjegradspolynom p(t) ∈ P3 [t] som uppfyller p(0) = p′ (0) = 0 och som g¨or Z

1 −1

|3 + 5t − p(t)|2 dt

s˚ a liten som m¨ojligt. L¨osning. L˚ at E = {p(t) ∈ P3 [t]; p(0) = p′ (0) = 0}. Ett polynom ligger i E n¨ar det kan skrivas p(t) = at2 + bt3 , a, b ∈ R. S˚ a en bas f¨or E ¨ar p2 (t) = t2 och p3 (t) = t3 . Vi skall best¨amma den b¨asta approximationenRav Q(t) = 3 + 5t i den 1 norm som induceras av skal¨arprodukten hp, qi = −1 p(t)q(t)dt. Observera R 1 a E. a t2 , t3 ¨ar en ortogonalbas p˚ att ht2 , t3 i = −1 t5 dt = 0 s˚ Den b¨asta approximationen av Q ges av den ortogonala projektionen, PE Q, av Q p˚ a E. Vi har Q(t) = PE Q(t) + Q⊥ (t) = αt2 + βt3 + Q⊥ (t) d¨ar Q⊥ ¨ar ortogonal mot E. armultiplikation med t2 ger ht2 , Qi = αht2 , t2 i. Eftersom ht2 , Qi = R R 1 Skal¨ 1 ar vi α = 5. 3t2 dt = 2 och ht2 , t2 i = −1 t4 dt = 25 f˚ −1 3 3 armultiplikation med t ger ht , Qi = βht3 , t3 i . Eftersom ht3 , Qi = R R 1 Skal¨ 1 ar vi β = 7. 5t4 dt = 2 och ht3 , t3 i = −1 t6 dt = 72 , f˚ −1 Det s¨okta polynomet ¨ar allts˚ a ¨ar allts˚ a p(t) = 5t2 + 7t3 . ¨ Ovning 5.5. Antag att kuk = 2, kvk = 3 och hu, vi = 2 + i. Best¨am (a) ku + vk2 ,

(b) ku − vk2 ,

(c) hu + v, u − ivi och (d) hu + iv, 4iui.

¨ Ovning 5.6. Varf¨ or a ¨r inte f¨oljande uttryck en skal¨arprodukt? (a) hx, yi = x1 y1 − x2 y2 R1 (b) hp, qi = 0 p′ (t)q(t)dt p˚ a rummet av polynom

(c) hp, qi = p(0)q(0) + p(1)q(1) p˚ a P2 , rummet av andragradspolynom

¨ Ovning 5.7. L˚ at e1 , e2 , . . . , en vara en ortonormerad bas. Visa att om x = x1 e1 + . . . + xn en och y = y1 e1 + . . . + yn en s˚ a g¨aller hx, yi = x1 y¯1 + . . . + xn y¯n ¨ Ovning 5.8. L˚ at e1 , e2 , . . . , en vara en bas p˚ a det komplexa vektorrummet V , x = x1 e1 + . . . + xn en och y = y1 e1 + . . . + yn en . Visa att hx, yi = x1 y¯1 + . . . + xn y¯n a¨r en a V i denna komplex skal¨ arprodukt p˚ a V och att e1 , e2 , . . . , en a¨r en ortonormalbas p˚ skal¨ arprodukt. ¨ Ovning 5.9. Best¨ am den ortogonala projektionen av vektorn (1, 1, 1, 1) p˚ a det delrum som sp¨ anns av (1, 3, 1, 1) och (1, 2, 1, 1). ¨ Ovning 5.10. Best¨ am avst˚ andet fr˚ an vektorn (1, 2, 3, 4) till delrummet som sp¨anns av (1, −1, 1, 0) och (1, 2, 1, 1).

72

¨ Ovning 5.11. L˚ at PE vara den ortogonala projektionen p˚ a delrummet E i skal¨arproduktsrummet V . Antag att dim V = n och dim E = m. Best¨am egenv¨ardena och egenrummen till PE . Vad ¨ ar den algebraiska och den geometriska multipliciteten f¨or dessa egenrum? ¨ Ovning 5.12. Anv¨ and Gram-Schmidts algoritm f¨or att ortogonalisera vektorerna (1, 2, 3) och (1, 3, 1) i standardskal¨ arprodukten p˚ a Rn och best¨am matrisen f¨or den ortogonala projektionen p˚ a rummet som sp¨anns av dessa vektorer. ¨ Ovning 5.13. Best¨ am de fyra f¨ orsta Legendrepolynomen. Detta betyder att, i rummet R1 av polynom med skal¨ arprodukten hp, qi = −1 p(t)q(t)dt, skall du ortonormalisera systemet 1, t, t2 , t3 med Gram-Schmidts metod. ¨ Ovning 5.14. L˚ at PE vara matrisen till den ortogonala projektionen p˚ a delrummet E i standardskal¨ arprodukten p˚ a Rn . Visa att PE ¨ar symmetrisk och att PE2 = PE . ¨ Ovning 5.15. Antag att P ¨ ar ortogonal projektion p˚ a delrummet E och att Q ¨ar ortogonal projektion p˚ a delrummet E ⊥ . (a) Vad ¨ ar P + Q och P Q? (b) Visa att P − Q ¨ ar sin egen invers.

F¨ orslag till svar 5.5 (a) 17, (b) 9, (c) 5 + 10i, (d) 8 − 20i 5.6 (a) k(0, 1)k = 0, (b) k1k = 0, (c) kt(1 − t)k = 0 5.9 (1, 1,√1, 1) (2(1, 2, 1, 1) − (1, 3, 1, 1) = (1, 1, 1, 1)) 1 3570 ≈ 2, 85 5.10 21 5.11 λ = 0 eller 1 med egenrummen E ⊥ respektive E. Multipliciteten a ¨r n − m och m   5 14 7    1  5.12 54  14 50 −2    7 −2 53 5.13

√ √ 1 √ , √3 t, √5 (3t2 2 2 2 2

5.15

P + Q = I, P Q = 0

− 1) och

√ √7 (5t3 2

2

− 3t).

73

Kapitel 6 Hilbertrum I det h¨ar kapitlet skall vi generalisera resultaten i Kapitel 5 till o¨andligt dimensionella vektorrum. Med hj¨alp av skal¨arprodukt och den inducerade normen kan vi diskutera avst˚ and och konvergens. Vi skall inf¨ora de s˚ a kallade Hilbertrummen som ¨ar fullst¨andiga skal¨arproduktsrum. Vi b¨orjar med att diskutera begreppet fullst¨andighet.

6.1

Fullst¨ andighet

Vi b¨orjar med att p˚ aminna om fullst¨andigheten hos R. F¨oljande resultat om de reella talen a¨r fundamentala. • Varje v¨axande upp˚ at begr¨ansad f¨oljd ¨ar konvergent. • Satsen om mellanliggande v¨arden. • Varje upp˚ at begr¨ansad m¨angd av reella tal har ett supremum. • Varje reell Cauchyf¨oljd ¨ar konvergent. Dessa egenskaper uttrycker alla att R ”saknar h˚ al”. Vilket som helst av dem kan tas som axiom och sedan kan man bevisa de ¨ovriga. I Person-B¨oiers anv¨ands den f¨orsta egenskapen som axiom och sedan bevisas den andra (i ett Appendix). De tv˚ a sista n¨amns inte. S˚ a h¨ar kommer en beskrivning. Om vi har en ¨andlig m¨angd M = {a1 , . . . , an } s˚ a betecknar vi med max M det st¨orsta av talen a1 , . . . , an . Vi skall definiera sup M , en generalisering av detta till o¨andliga m¨angder. Definition 6.1. L˚ at M ⊂ R vara en upp˚ at begr¨ ansad m¨ angd. D˚ a¨ ar supremum av M , det minsta reella tal c, som uppfyller a ≤ c f¨ or alla a ∈ M . 74

Supremum av M betecknas sup M . P˚ a liknade s¨att definierar vi infimum som det st¨orsta tal som ¨ar mindre ¨an eller lika med alla tal i M . Infimum ¨ar en generalisering av minimum och betecknas inf M . F¨or en ¨andlig m¨angd g¨aller max M = sup M och min M = inf M . De rella talen uppfyller Supremumaxiomet Varje upp˚ at begr¨ ansad m¨ angd M har ett supremum, sup M . Exempel 6.2. L˚ at M = {x ∈ Q; x2 ≤ 2} D˚ a g¨aller sup M =

6.1.1



2.

Cauchyf¨ oljder

Definition 6.3. En f¨ oljd (xn )∞ ar en Cauchyf¨ oljd om f¨ or varje 1 , xn ∈ R, ¨ ǫ > 0 finns ett tal N s˚ a att |xn − xm | < ǫ f¨ or alla n, m > N . Med hj¨alp av supremumaxiomet kan man bevisa f¨oljande sats. Sats 6.4. Varje Cauchyf¨ oljd av reella tal ¨ ar konvergent. Satsen betyder att om xn ¨ar en Cauchyf¨oljd s˚ a finns ett reellt tal x s˚ a att lim xn = x. n→∞ Vi skall nu generalisera detta till skal¨arproduktsrum. L˚ at V vara ett vektorrum med skal¨arprodukt h , i och inducerad norm k k.

Definition 6.5. (a) En f¨ oljd (xn )∞ 1 , xn ∈ V , konvergerar mot x ∈ V om limn→∞ kxn − xk = 0. (b) En f¨ oljd (xn )∞ or varje ǫ > 0 finns ¨r en Cauchyfo ¨ljd om f¨ 1 , xn ∈ V , a ett tal N s˚ a att kxn − xm k < ǫ f¨ or alla n, m > N .

Sats 6.6. Om V ¨ ar ett ¨ andligtdimensionellt skal¨ arproduktsrum s˚ a¨ ar varje Cauchyf¨ oljd konvergent. Bevis. Vi antar f¨orst att V ¨ar ett reellt vektorrum. L˚ at e1 , . . . , ed vara en ortonormalbas p˚ a V och xn en Cauchyf¨oljd i V med koordinaterna xni , i = 1, . . . , d i basen e1 , . . . , ed . Enligt Pythagoras sats g¨aller 2 n m 2 n m 2 2 |xni − xm i | ≤ |x1 − x1 | + . . . + |xd − xd | = kxn − xm k .

S˚ a ¨ar xni en Cauchyf¨oljd av reella tal och enligt Sats 6.4 ¨ar den konvergent. Om xi = limn→∞ xni och x = x1 e1 + . . . + xd ed s˚ a g¨aller kxn − xk2 = |xn1 − x1 |2 + . . . + |xnd − xd |2 → 0, n → ∞ 75

och vi ¨ar klara i det reella fallet. H¨arn¨ast observerar vi att detta kan anv¨andas f¨or att visa att C ¨ar fullst¨andigt genom att betrakta C som isomorft med R2 med den ortonormerade basen 1 = (1, 0), i = (0, 1). Till sist observerar vi att beviset ovan f¨or reella vektorrum fungerar likadant f¨or komplexa vektorrum. Egenskapen i satsen ¨ar s˚ a viktig att den g¨ors till en definition. Definition 6.7. Ett rum s˚ adant att varje Cauchyf¨ oljd ¨ ar konvergent kallas f¨or ett fullst¨ andigt vektorrum. Beviset ovan fungerar inte f¨or o¨andligtdimensionella vektorrum och satsen ¨ar inte sann i allm¨anhet. Detta motiverar f¨oljande definition. Definition 6.8. Ett Hilbertrum ¨ ar ett fullst¨ andigt skal¨ arproduktsrum. Anm¨ arkning 6.9. I avsnitt 5.2.1 definierade vi normerat rum. Ett fullst¨andigt normerat rum kallas f¨or ett Banachrum. Ett Hilbertrum a¨r alltid ett Banachrum men inte omv¨ant. Exempel 6.10. Enligt Sats 6.6 ¨ar varje ¨andligtdimensionellt skal¨arproduktsrum ett Hilbertrum. Exempel 6.11. ℓ2 ¨ar ett Hilbertrum. Beviset l¨amnas som (en sv˚ ar?) ¨ovning. Exempel 6.12. C[0, 1] ¨ar inte ett Hilbertrum. L˚ at (f¨or n ≥ 3) fn definieras genom (rita figur)    0, x ≤ 21         0, x ≤ 12 fn (x) = . n(x − 21 ), 12 < x < 21 + n1 och f (x) =     1, x > 1   2    1, x ≥ 12 + n1

D˚ a ¨ar fn kontinuerliga, limn→∞ fn = f men f ¨ar inte kontinuerlig.

76

Exempel 6.13. L2 (I) ¨ar ett Hilbertrum. Beviset av detta g˚ ar l˚ angt utanf¨or denna kurs. P˚ ast˚ aendet ¨ar inte sant f¨or Riemannintegrerbara funktioner eftersom gr¨ansv¨ardet av Riemannintegrerbara funktioner inte ¨ar Riemannintegrerbara. F¨or att p˚ ast˚ aendet skall g¨alla beh¨over man utvidga integralbegreppet till Lebesgueintegrerbara funktioner. (L i L2 kommer fr˚ an Lebesgue.)

6.2

Ortogonal projektion i Hilbertrum

Definition 6.14. En m¨ angd M av vektorer i ett Hilbertrum a ¨r sluten om xn ∈ M, limn→∞ xn = x medf¨ or att x ∈ M . Nu kan vi formulera v˚ ar generalisering av Sats 5.24. Sats 6.15. L˚ at E vara ett slutet delrum av Hilbertrummet H. D˚ a kan varje vektor v ∈ H entydigt skrivas v = PE v + w d¨ar PE v ¨ ar den ortogonala projektionen av v p˚ a E, dvs. PE v ∈ E och w = v − PE v ⊥ E. F¨or att bevisa detta kan vi inte anv¨anda Sats 5.23, den ¨ar inte sann om dimE = ∞, utan vi bevisar minimeringsegenskapen i Sats 5.25 direkt. Vi b¨orjar med Proposition 6.16. L˚ at C vara en sluten konvex m¨ angd i H. D˚ a finns ett entydigt best¨ amt element i C med minimal norm. Att C ¨ar konvex betyder att om u och v ligger i C s˚ a g¨or str¨ackan mellan u och v det ocks˚ a. Mer formellt Definition 6.17. En m¨ angd C ¨ ar konvex om tu + (1 − t)v ∈ C f¨ or alla u, v ∈ C och alla 0 ≤ t ≤ 1. Bevis. Vi utg˚ ar fr˚ an parallellogramlagen (Sats 5.7) ku + vk2 + ku − vk2 = 2(kuk2 + kvk2 ) som vi skriver om som



u − v 2 1  u + v 2 2 2

=

. kuk + kvk −

2 2 2

(6.1)

L˚ at δ = inf{kxk; x ∈ C} och v¨alj en f¨oljd xn ∈ C s˚ a att kxn k → δ d˚ a n → ∞. Observera att eftersom C ¨ar konvex s˚ a g¨aller 12 (xn + xm ) ∈ C och 77

a om vi anv¨ander (6.1) allts˚ a k 21 (xn + xm )k ≥ δ och −k 12 (xn + xm )k2 ≤ −δ 2 . S˚ p˚ a xn , xm f˚ ar vi

 x n + x m 2 1 1 2 2 2

kxn − xm k = kxn k + kxm k −

4 2 2 (6.2)  1 kxn k2 + kxm k2 − δ 2 . ≤ 2

Om ǫ > 0 och vi v¨aljer N tillr¨ackligt stort ger detta kxn − xm k2 ≤ 2kxn k2 + 2kxm k2 − 4δ 2 < ǫ om n, m ≥ N . Allts˚ a a¨r xn en Cauchyf¨oljd i Hilbertrummet H. Men H ¨ar fullst¨andigt s˚ a limn→∞ xn = x f¨or n˚ agot x ∈ H. Detta ger kxk = limn→∞ kxn k = δ. (H¨ar har vi anv¨ant limn→∞ kxn k = k limn→∞ xn k. Beviset l¨amnas som ¨ovning.) Entydigheten f¨oljer ocks˚ a fr˚ a vektorer som ger

an (6.1). Om u och v ¨ar tv˚

u − v 2

minimum ger (6.1) att a u = v.

2 ≤ 0 s˚

Bevis av Sats 6.15. L˚ at C = v + E = {v + e; e ∈ E}. D˚ a ¨ar (Varf¨or d˚ a?) C en konvex sluten m¨angd. Enligt Proposition 6.16 finns ett element Qv med minimal norm i C. S¨att PE v = v−Qv. D˚ a g¨aller PE v ∈ E och v = PE v+Qv. Det ˚ aterst˚ ar att visa att Qv ⊥ E, dvs. hQv, ui = 0 f¨or alla u ∈ E. Vi kan anta att kuk = 1. Att Qv har minimal norm betyder att kQvk ≤ kQv − αuk f¨or alla α. S˚ a 0 ≤ kQv − αuk2 − kQvk2 = hQv − αu, Qv − αui − kQvk2

= |α|2 kuk2 − αhu, Qvi − α ¯ hQv, ui = |α|2 − αhu, Qvi − αhu, Qvi . Med α = hu, Qvi = hQv, ui ger detta 0 ≤ −|α|2 dvs. |hQv, ui| = 0.

6.3

Baser i Hilbertrum

Antag att H ¨ar o¨andligtdimensionellt och att e1 , e2 , e3 , . . . ¨ar linj¨art oberoende. Definition 6.18. Vektorerna e1 , e2 , e3 , . . . ¨ ar en (uppr¨ aknelig) Hilbertrumsbas f¨ or H om varje vektor v ∈ H entydigt kan skrivas v=

∞ X

c n en

n=1

d¨ ar cn ∈ K, n = 1, 2, . . .. Om vektorerna en uppfyller hen , em i = 0, n 6= m och ken k = 1 kallas basen f¨ or en ortonormalbas. 78

P H¨ar betyder v = ∞ a H, dvs. n=1 cn en konvergens i normen p˚ PN limN →∞ kv − n=1 cn en k = 0. F¨or ¨andligtdimensionella Hilbertrum ¨ar en Hilbertsrumsbas detsamma som en bas enligt Definition 1.6 men f¨or o¨andligtdimensionella Hilbertrum ¨ar en Hilbertsrumsbas och en vektorrumsbas (enligt Definition 1.6) olika saker. Man kan definiera Hilbertsrumsbaser ocks˚ a i ¨overuppr¨akneliga Hilbertrum men f¨or enkelhets skull n¨ojer vi oss med det uppr¨akneliga fallet. Gram-Schmidts metod fungerar ¨aven f¨or uppr¨akneliga rum, s˚ a om H har en bas har H ocks˚ a en ortonormalbas e1 , e2 , e3 , . . .. Precis som i det ¨andligtdimensionella fallet g¨aller att om e1 , e2 , e3 , . . . ¨ar en ortonormalbas i H s˚ a g¨aller x=

∞ X n=1

cn en d¨ar cn = hx, en i .

PN Bevis. L˚ at xN = a ¨ar cn = hxN , en i om N > n. S˚ a cn = n=1 cn en . D˚ limN →∞ hxN , en i = hx, en i. Det sista p˚ astendet f¨oljer av Cauchy-Schwarz olikhet; |hxN , en i − hx, en i| = |hxN − x, en i ≤ kxN − xkken k = kxN − xk → 0, N → ∞. Avbildningen T fr˚ an H till ℓ2 definierad av att x 7→ (cn )∞ 1 visar att ett 2 uppr¨akneligt Hilbertrum ¨ar isomorft med ℓ . Men inte nog med det, avbildallet i Parsevals ningen ¨ar en isometri, dvs. kxkH = kT xkℓ2 . Detta ¨ar inneh˚ formel, ∞ X kxk2 = |cn |2 , n=1

en generalisering av Pythagoras sats. Parsevals formel f¨oljer genom att l˚ ata P xN = N c e , anv¨ a nda Pythagoras sats p˚ a x , l˚ ata N → ∞ och anv¨ a nda N n=1 n n ¨ Ovning 6.2. Exempel 6.19. Vektorerna e1 = (1, 0, 0, 0, . . .), e2 = (0, 1, 0, 0, . . .), e3 = (0, 0, 1, 0, , . . .), . . . ¨ar en ON-bas f¨or ℓ2 . Ty om x = (xi )∞ a g¨aller x = 1 s˚ P ∞ i=1 xi ei .

Exempel 6.20. Betrakta L2 (−π, π) med den normaliserade skal¨arprodukten Z 1 π hf, gi = f (t)g(t)dt . π −π D˚ a a¨r funktionerna 1 √ , cos t, sin t, cos 2t, sin 2t, cos 3t, sin 3t, . . . 2 79

en ON-bas f¨or L2 (−π, π). Att de ¨ar ortonormala l¨amnas som ¨ovning. Att de sp¨anner L2 ¨ar ett djupt resultat. Den intresserade h¨anvisas till Rudin: Real and complex analysis, Kap. 4 f¨or ett bevis. Om vi s¨atter Z 1 π f (t) cos nt dt, n = 0, 1, 2, 3, . . . an = hf, cos nti = π −π och

1 bn = hf, sin nti = π

s˚ a g¨aller

Z

π

f (t) sin nt dt, n = 1, 2, 3, . . . −π



a0 X + (an cos nt + bn sin nt) f (t) = 2 n=1 P med konvergens i normen p˚ a L2 . Serien a20 + ∞ n=1 (an cos nt + bn sin nt) kallas f¨or Fourierserien till f (t) och an ,bn dess Fourierkoefficienter. I detta exempel har vi Sats 6.21 (Parsevals formel). Om f ∈ L2 s˚ a 1 π

Z



π

a2 X 2 |f (t)| dt = 0 + (an + b2n ) . 2 −π n=1 2

Anm¨ arkning 6.22. Punktvis konvergens av Fourieserier ¨ar mycket mer delikat. Ett ber¨omt resultat, n¨amligen att Fourierserien till en funktion i L2 konvergerar n¨astan ¨overallt, bevisades av Lennart Carleson 1966. Exempel 6.23. Best¨am Fourierkoefficienterna till funktionen y =sgn (x) och unders¨ok hur delsummor av Fourierserien approximerar sgn (x). L¨osning. Eftersom signum ¨ar en udda funktion kommer an = 0 f¨or alla n. Dessutom g¨aller Z Z 1 π 2 π 2 bn = [1 − cos nπ]π0 . sgn x sin nx dx = sin nx dx = π −π π 0 nπ N¨ar n ¨ar j¨amnt blir bn = 0 och n¨ar n ¨ar udda s˚ a ¨ar bn = S˚ a vi har att ∞ 4 X sin(2n + 1)x sgn x = π n=0 2n + 1 med konvergens i L2 . 80

4 . nπ

I nedanst˚ aende figur visas grafen av de trigonometriska polynomen N 4 X sin(2n + 1)x π n=0 2n + 1

d˚ a N = 10 (den bl˚ a kurvan), N = 20 (den r¨oda kurvan) och N = 100 (den gr¨ona kurvan). 1.5

1

0.5

0

−0.5

−1

−1.5 −0.5

−0.4

−0.3

−0.2

−0.1

0

0.1

0.2

0.3

0.4

0.5

Figuren illustrerar det s˚ a kallade Gibbs fenomen. Funktionen signum har ett spr˚ ang i origo av storleken 2. Skillnaden mellan maximum och minimum hos de approximerande trigonometriska polynom ¨ar st¨orre. Man kan visa att d˚ a N ¨ar stort s˚ a kommer ”spr˚ anget” hos det trigonometriska polynomet att vara cirka 9% st¨orre ¨an hos signum trots att de trigonometriska polynomen konvergerar i L2 . Om vi anv¨ander Parsevals formel p˚ a sgn t f˚ ar vi ∞ X n=1

och allts˚ a

b2n = ksgn tk2 =

∞ X n=0

1 2π = 2 π

1 2π 2 π2 = = . (2n + 1)2 42 8

∞ ∞ X X 1 1 1 S¨atter vi s = har vi = s. S˚ a 2 2 n (2n) 4 n=1 n=1

s=

∞ X n=1



X 1 π2 1 1 + = + s (2n + 1)2 n=1 (2n)2 8 4 81

vilket ger

π2 3 s= och 4 8

∞ X π2 1 = . 2 n 6 n=1

¨ Ovning 6.1. Best¨ am den b¨ asta approximationen av funktionen f (x) = x i L2 [−π, π] med trigonometriska polynom av grad fem, dvs. med en funktion i 1 Span( √ , cos x, sin x, . . . , cos 5x, sin 5x) . 2 Hur stort ¨ ar felet? ¨ Ovning 6.2. Antag att x = limn→∞ xn . Visa att limn→∞ kxn k = kxk. ¨ Ovning 6.3. Visa att om E ¨ar slutet delrum i ett Hilbertrum s˚ a ¨ar v + E en sluten konvex m¨ angd i H. ¨ Ovning 6.4. Visa att en Cachyf¨oljd ¨ar begr¨ansad (dvs. att kxn k ≤ C < ∞ f¨or alla n). P∞ ¨ Ovning 6.5. Visa att limN →∞ n=1 xi ei = x i Exempel 6.19. ¨ ar fullst¨andigt. Ovning 6.6. Visa att ℓ2 ¨

F¨ orslag till svar 6.1

1 2 2 S5 (x) = 2 sin x − sin 2x + sin 3x − sin 4x + sin 5x, 3 5  2 2 R P π a Fel ≈ 0, 725 Fel2 = π1 −π |f (x) − S5 (x)|2 dx = 4 π6 − 5n=1 n12 s˚

82

Kapitel 7 Linj¨ ara funktionaler och adjunkter 7.1

Riesz representationssats

Vi p˚ aminner om att en linj¨ar funktional p˚ a vektorrummet V ¨ar en linj¨ar avbildning T : V → K. Om V ¨ar ett skal¨arproduktsrum och u ∈ V s˚ a ¨ar, enligt Definition 5.2, Axiom 2., avbildningen T v = hv, ui en linj¨ar funktional p˚ a V . I sj¨alva verket a¨r alla linj¨ara funktionaler av denna typ. Sats 7.1 (Riesz representationssats). Antag att T ¨ ar en linj¨ ar funktional p˚ a det ¨andligtdimensionella skal¨ arproduktsrummet V . D˚ a finns en entydig vektor u s˚ a att T v = hv, ui . Bevis. F¨or att visa existensen l˚ ater vi e1 , . . . , en vara en ON -bas p˚ a V . D˚ a g¨aller T v = T (hv, e1 ie1 + . . . + hv, en ien ) = hv, e1 iT e1 + . . . + hv, en iT en

= hv, T e1 e1 i + . . . hv, T en en i = hv, T e1 e1 + . . . + T en en i

s˚ a u = T e1 e1 + . . . + T en en duger. ¨ ˜ i f¨or alla v s˚ Entydigheten f¨oljer av Ovning 5.3(b), om hv, ui = hv, u a ˜. u=u

Anm¨ arkning 7.2. Riesz representationssats g¨aller ocks˚ a f¨or Hilbertrum men vi bevisar inte det h¨ar. 83

7.2

Adjungerade operatorer

Antag nu att T : V → W ¨ar en linj¨ar avbildning mellan tv˚ a skal¨arproduktsrum V och W . D˚ a ¨ar f¨or varje fixt w avbildningen S : v 7→ hT v, wi en linj¨ar funktional och ges allts˚ a av ett entydigt element T ∗ w. Vi kan allts˚ a g¨ora f¨oljande definition. Definition 7.3. Adjunkten till den linj¨ ara avbildningen T : V → W a ¨r ∗ den avbildning T : W → V som definieras av hT v, wi = hv, T ∗ wi f¨ or alla v ∈ V, w ∈ W . ¨ 7.1. Det ¨ar l¨att att se att T ∗ ¨ar linj¨ar. Beviset l¨amnas som Ovning ∗ T kallas ocks˚ a f¨or den adjungerade operatorn till T . Om V = W och T ∗ = T s¨ager vi att T ¨ar sj¨ alvadjungerad. I F¨ orsta kursen definierades transponatet av en matris A. Om A = (aij ) s˚ a ¨ar transponatet av A den matris AT som uppfyller AT = (aji ). En matris med A = AT kallas symmetrisk. F¨or komplexa matriser ers¨atts detta med det Hermitska transponatet AH d¨ar AH = (¯ aji ) = AT . En matris med A = AH kallas Hermitsk. Om A ¨ar reell s˚ a g¨aller AH = AT . Sambandet mellan adjungerade operatorer och (det Hermitska) transponatet ges av Proposition 7.4. Om T : V → W och A och B ¨ ar ortonormerade baser p˚ a V respektive W s˚ a g¨ aller [T ∗ ]AB = ([T ]BA )H = ([T ]BA )T . Bevis. L˚ at [T ]BA = (αij ) och [T ∗ ]AB = (βij ). Kolonnerna i [T ]BA ¨ar [T aj ]B . S˚ a αij ¨ar den i-te koordinaten i [T aj ]B . Eftersom B ¨ar en ON-bas har vi αij = hT aj , bi i. P˚ a samma s¨att f˚ ar vi βij = hT ∗ bj , ai i. S˚ a βij = hT ∗ bj , ai i = hbj , T ai i = hT ai , bj i = αji . Speciellt f˚ ar vi, om A ¨ar en matris och A∗ ¨ar den adjungerade operatorn till A i standardskal¨arprodukten p˚ a Rn eller Cn , att A∗ = AT respektive A∗ = AH . Exempel 7.5. I kvantmekanik definierar man tillst˚ andet hos en partikel som 2 ett v˚ agpaket, dvs. som en funktion ψ ∈ L (R) med kψk = 1. Vi tolkar Z |ψ(t)|2 dt E

84

som sannolikheten att partikeln befinner sig i m¨angden E. En observerbar storhet A ¨ar en sj¨alvadjungerad operator p˚ a ett l¨ampligt delrum av L2 . Medelv¨ardet av A i tillst˚ andet ψ ¨ar Z E[A] = Aψ(t) ψ(t)dt = hAψ, ψi. R

Eftersom A ¨ar sj¨alvadjungerad ¨ar A = A∗ och allts˚ a g¨aller hAψ, ψi = hψ, A∗ ψi = hψ, Aψi = hAψ, ψi, s˚ a medelv¨ardet ¨ar reellt. Tv˚ a exempel p˚ a storheter ¨ar a) L¨age. Aψ(x) = xψ(x) b) Moment. Bψ = 2πiψ ′ . Anm¨ arkning 7.6. I kvantmekanik anv¨ands n¨astan alltid beteckningen A† i st¨allet f¨or AH .

7.3

Dimensionssatsen igen

Vi p˚ aminner om dimensionssatsen, Sats 2.17. Om T : V → W s˚ a g¨aller dim Ker T + dim Ran T = dim V . Om vi anv¨ander detta p˚ a T ∗ f˚ ar vi dim Ker T ∗ + dim Ran T ∗ = dim W .

(7.1)

Detta blir ¨annu mer anv¨andbart p˚ a grund av Sats 7.7 (Rangsatsen). dim Ran T = dim Ran T ∗ . Bevis. Genom att v¨alja ON - baser p˚ a V och W kan vi anta att avbildningen g˚ ar fr˚ an Kn till Km och ges av en matris A. L˚ at B vara en reducerad trappstegsmatris som ¨ar Gaussekvivalent med A. D˚ a har Ran A (eller kolonnrummet f¨or A) en bas som best˚ ar av pivotkolonnerna i A. F¨or att best¨amma en bas f¨or Ran A∗ (eller radrummet f¨or A) observerar vi f¨orst att pivotraderna i B ¨ar en bas f¨or Ran B ∗ . Dessutom ¨ar det l¨att att se att radrummet till en matris inte ¨andras under radoperationer. S˚ a ∗ ∗ Ran A = Ran B . S˚ a vi har visat att b˚ ade dim Ran A och dim Ran A∗ ¨ar antalet pivotelement i A och allts˚ a g¨aller dim Ran A = dim Ran A∗ . 85

dim Ran T kallas ofta f¨or operatorns rang. Rangsatsen s¨ager allts˚ a att T och T ∗ har samma rang. I matrisfallet uttrycks detta ofta som: Kolonnrangen f¨or en matris ¨ar densamma som dess radrang. Fr˚ an rangsatsen och (7.1) f˚ ar vi dim Ker T ∗ + dim Ran T = dim W . Vi sammanfattar detta i Korollarium 7.8 (Dimensionssatsen). Antag att T : V → W ¨ ar en linj¨ ar avbildning mellan tv˚ a¨ andligtdimensionella skal¨ arproduktsrum rum V och W . D˚ a g¨ aller dim Ker T + dim Ran T = dim V . och dim Ker T ∗ + dim Ran T = dim W . En viktig f¨oljd av dimensionssatsen ¨ar f¨oljande resultat som ger existens av l¨osningar till ett linj¨art ekvationssystem fr˚ an entydigheten av ett annat. Korollarium 7.9. L˚ at T : V → W . D˚ a¨ ar ekvationen Tx = b l¨ osbar f¨ or alla b ∈ W om och endast om ekvationen T ∗x = 0

endast har den triviala l¨ osningen x = 0. Bevis. Antag att T ∗ x = 0 bara har l¨osningen x = 0. Enligt dimensionssatsen g¨aller dim W = dim Ker T ∗ + dim Ran T = 0 + dim Ran T = dim Ran T . S˚ a Ran T a¨r ett delrum till W med full dimension och allts˚ a g¨aller Ran T = W . Den omv¨anda implikationen f¨oljer p˚ a liknande s¨att. Detaljerna l¨amnas som en ¨ovning f¨or l¨asaren. Eftersom den adjungerade operatorn ¨ar definierad med avseende p˚ a en skal¨arprodukt ¨ar det ingen ¨overraskning (?) att det finns ett samband mellan de fundamentala delrummen Ker T , Ran T , Ker T ∗ och Ran T ∗ , och deras ortogonala komplement. Sats 7.10. L˚ at T : V → W vara en linj¨ ar operator mellan tv˚ a skal¨ arproduktsrum V och W . D˚ a g¨aller 1. Ker T ∗

= (Ran T )⊥

2. Ker T

= (Ran T ∗ )⊥

3. Ran T

= (Ker T ∗ )⊥

4. Ran T ∗ = (Ker T )⊥ 86

¨ I beviset kommer vi att anv¨anda att (T ∗ )∗ = T , se Ovning 7.2. Dessutom beh¨over vi Lemma 7.11. Om E ¨ ar ett delrum till skal¨ arproduktsrummet V s˚ a g¨ aller ⊥ ⊥ (E ) = E. Bevis. L˚ at e1 , . . . , ek vara en ortogonalbas p˚ a E. Utvidga denna till en ortogonalbas e1 , . . . , ek , ek+1 , . . . , en p˚ a V . D˚ a g¨aller att x = x1 e1 + . . . + ⊥ xk ek + xk+1 ek+1 + . . . + xn en ∈ E om och endast om x1 = . . . = xk = 0. S˚ a E ⊥ = Span(ek+1 , . . . , en ). Med samma resonomang ser vi att (E ⊥ )⊥ = Span(e1 , . . . , ek ) = E. Bevis av Sats 7.10. Enligt Lemmat f¨oljer att 1. och 3. ¨ar ekvivalenta och att 2. och 4. ocks˚ a ¨ar det. Dessutom f¨oljer 2. fr˚ an 1. genom att anv¨anda 1. p˚ a operatorn T ∗ . S˚ a det r¨acker att bevisa 1. Att x ∈ (Ran T )⊥ betyder att hx, T yi = 0 f¨or alla y .

Eftersom hx, T yi = hT ∗ x, yi ¨ar detta ekvivalent med hT ∗ x, yi = 0 f¨or alla y .

Men detta betyder att T ∗ x = 0. Vi har allts˚ a visat att x ∈ (Ran T )⊥ om och endast om T ∗ x = 0 dvs. p˚ ast˚ aende 1. Exempel 7.12. L˚ at P2 vara de reella polynomen av h¨ogst andra graden med skal¨arprodukten hp, qi = p(−1)q(−1) + p(0)q(0) + p(1)q(1) .

Den linj¨ara operatorn T : P2 → P2 definieras av T p(t) = p(0). Best¨am den adjungerade operatorn T ∗ till T . L¨osning. Vi b¨orjar med att best¨amma Ran T ∗ . Enligt Sats 7.10 g¨aller Ran T ∗ = (Ker T )⊥ . Men Ker T = {p; p(0) = 0} = Span (t, t2 ). S˚ a dim Ker T = 2 och enligt dimensionssatsen ¨ar dim Ran T ∗ = 3−2 = 1. S˚ a Ran T ∗ = Span v d¨ar v ¨ar n˚ agon vektor i Span (t, t2 )⊥ . Vi observerar att 1 ∈ / Ker T och s¨atter 2 v = 1 − αt − βt d¨ar α och β v¨aljs s˚ a att v ⊥ Span (t, t2 ). Detta betyder att hv, ti = 0 och hv, t2 i = 0, vilket ¨ar uppfyllt d˚ a α = 0 och β = 1. S˚ a ∗ 2 Ran T = Span (1 − t ). L˚ at nu q ∈ P2 . D˚ a ¨ar T ∗ q = c(1 − t2 ) f¨or n˚ agot c ∈ R. Men   p(0) q(−1) + q(0) + q(1) = hT p, qi = hp, T ∗ qi = chp, 1 − t2 i = cp(0) .   S˚ a c = q(−1) + q(0) + q(1) och T ∗ q = q(−1) + q(0) + q(1) (1 − t2 ). 87

7.4

Isometrier och unit¨ ara operatorer

Definition 7.13. En linj¨ar avbildning mellan tv˚ a skal¨ arproduktsrum, T :U →V, ¨ ar en isometri om den bevarar normen, kT uk = kuk f¨or alla u ∈ U . H¨ar ¨ar kT uk normen i W och kuk normen i V . Eftersom kT u−T vk = kT (u−v)k = ku−vk bevarar T avst˚ andet mellan tv˚ a vektorer. Detta i sin tur medf¨or att att T ¨ar injektiv. Det ¨ar klart att en operator som bevarar skal¨arprodukten, hT u, T vi = hu, vi, ¨ar en isometri. Fr˚ an polariseringsidentiteterna, Sats 5.6, ser vi att omv¨andningen ocks˚ a g¨aller. Sats 7.14. En operator T : U → V ¨ ar en isometri om och endast om hT u, T vi = hu, vi f¨ or alla u och v. Korollarium 7.15. En operator T : U → V ¨ ar en isometri om och endast ∗ om T T = I. Bevis. Vi har hT ∗ T u, vi = hT u, T vi. Om T ∗ T = I f¨oljer att hT u, T vi = hu, vi f¨or alla u och v. S˚ a T ¨ar en isometri. Omv¨ant om T ¨ar en isometri s˚ a g¨aller enligt Sats 7.14 att hu, vi = ∗ ¨ hT u, T vi = hT T u, vi. Ovning 5.3 ger att T ∗ T u = u f¨or alla u. S˚ a T ∗ T = I. Korollariet s¨ager att om T ¨ar en isometri s˚ a ¨ar T ∗ ¨ar en v¨ansterinvers till T. Definition 7.16. En inverterbar isometri T kallas f¨ or en unit¨ ar operator. Sats 7.17. En isometri T : U → V ¨ ar unit¨ ar om och endast om dim U = dim V . Bevis. Avbildningen T : U → Ran T ¨ar bijektiv med inversen T ∗ . S˚ aT :U → V ¨ar inverterbar om och endast om Ran T = V vilket ¨ar ekvivalent med att dim Ran T = dim V . Men enligt Sats 2.13 s˚ a g¨aller dim U = dim Ran T och p˚ ast˚ aendet f¨oljer. Definition 7.18. En kvadratisk matris ¨ ar unit¨ ar om U H U = I. Om U ¨ ar T reell kallas U ortogonal och vi har U U = I. Tv˚ a matriser A och B kallas unit¨ art ekvivalenta om det finns en unit¨ ar matris U s˚ a att A = U BU ∗ . 88

Observera att villkoren U H U = I och U T U = I betyder att kolonnerna i U ¨ar ortonormala i standardskal¨arprodukten p˚ a Cn respektive Rn . Eftersom U ¨ar kvadratisk ger Sats 7.17 att en unit¨ar matris U ¨ar inverterbar och U −1 = U ∗ . Definition 7.19. En operator T : V → V a art diagonaliserbar om det ¨r unit¨ finns en ortonormalbas B p˚ a V s˚ adan att [T ]B ¨ ar en diagonalmatris. Vi har f¨oljande motsvarighet till Sats 3.13. Sats 7.20. En operator T : V → V ¨ ar unit¨ art diagonaliserbar om och endast om T har en ortonormerad bas av egenvektorer. Beviset ¨ar likadant som beviset av Sats 3.13. ¨ Ovningar ¨ Ovning 7.1. Visa att T ∗ a ar. ¨r linj¨ ¨ Ovning 7.2. Visa att hv, T wi = hT ∗ v, wi. ¨ Ovning 7.3. (a) (S + T )∗ = S ∗ + T ∗ (b) (αT )∗ = α ¯T ∗ (c) (ST )∗ = T ∗ S ∗ (d) (T ∗ )∗ = T ¨ Ovning 7.4. L˚ at A vara en reell n × m-matris. Beskriv (Ran AT )⊥ och (Ran A)⊥ . ¨ Ovning 7.5. L˚ at T vara en linj¨ ar operator p˚ a ett reellt vektorrum V . Avg¨or vilka av f¨oljande p˚ ast˚ aenden som ¨ ar sanna. (a) T ∗ har samma egenv¨ arden som T . (b) T ∗ har samma egenvektorer som T . (c) Om T a a¨ ar T ∗ det ocks˚ a. ¨r diagonaliserbar s˚ Bevis eller motexempel. ¨ Ovning 7.6. En matris med 27 rader och 39 kolonner har rangen 17. Best¨am dimensionen hos de fyra fundamentala delrummen till matrisen. ¨ Ovning 7.7. Finns det en matris T med f¨oljande egenskaper? (a) Ran T inneh˚ aller (1, 0, 0) och (0, 0, 1), och Ran T ∗ inneh˚ aller (1, 1) och (1, 2) (b) Ran T sp¨ anns av (1, 1, 1), och Ker T sp¨anns av (1, 2, 3) (c) Ran T = R4 och Ran T ∗ = R3 Ange i s˚ a fall en s˚ adan matris. Om det inte finns en s˚ adan matris f¨orklara varf¨or. Ledning. Kolla f¨ orst om dimensionerna st¨ammer. ¨ Ovning 7.8. L˚ at V vara det delrum av L2 [−π, π] som sp¨anns av funktionerna √1 , cos x, sin x, cos 2x och sin 2x. Best¨ am den adjungerade operatorn till T given 2 av T f (x) = f (x) + f ′ (x).

89

¨ Ovning 7.9. L˚ at



1 1

  A= 1 3  2 4

1



  2  .  3

Best¨ am den ortogonala projektionen p˚ a de fyra fundamentala delrummen till A. ¨ Ovning 7.10. L˚ at T vara en matris med m rader och n kolonner. Visa att Ker T = Ker (T ∗ T ). Ledning. Du skall visa tv˚ a inklusioner. F¨or den ena kan du anv¨anda att kT xk2 = hT x, T xi = hT ∗ T x, xi . ¨ Ovning 7.11. Anv¨ and f¨ orra ¨ovningen f¨or att visa att (a) dim Ran T = dim Ran T ∗ T och (b) Om T x = 0 bara har den triviala l¨osningen s˚ a har T en v¨ansterinvers. Ledning f¨ or (b). Hur m˚ anga rader och kolonner har T ∗ T ? ¨ Ovning 7.12. L˚ at T vara en sj¨alvadjungerad operator p˚ a skal¨arproduktsrummet V . Antag att T 2 = T . Visa att T ¨ar en ortogonal projektion p˚ a Ran T . ¨ Ovning 7.13. Visa att f¨ oljande matriser ¨ar unit¨art ekvivalenta med en diagonalmatris. Vilken? Och i vilken bas?       0 2 2   0 −1 1 2   (c)   (b)  (a)   2 0 2    1 0 2 1 2 2 0 ¨ Ovning 7.14. L˚ at T vara en operator p˚ a ett skal¨arproduktsrum. ¨ f¨ Ar oljande p˚ ast˚ aenden sanna? (a) Om kT xk = kxk f¨ or alla x s˚ a ¨ar T unit¨ar. aV (b) Om kT ek k = kek k f¨or k = 1, 2, . . . , n d¨ar e1 , . . . , en ¨ar en ortonormalbas p˚ s˚ aa ar. ¨r T unit¨ Bevis eller motexempel. ¨ Ovning 7.15. L˚ at A = (aij ) och B = (bij ) vara unit¨art ekvivalenta n × n matriser. (a) Visa att A∗ A och B ∗ B har samma sp˚ ar. ¨ Ledning. Ovning 3.12 (b) Visa att n n X n n X X X |bij |2 . |aij |2 = i=1 j=1

i=1 j=1

(c) Visa att

inte ¨ ar unit¨ art ekvivalenta.

 

1 2 2 i





 och 

90

i

4

1 1

 

¨ Ovning 7.16.  1 (a)  0  0 (b)  1    (c)  



  (d)   

  (e)  

Vilka av f¨ oljande matriser ¨ar unit¨art ekvivalenta?    0 1 0 .  och  1 0 1    0 1/2 1 .  och  1/2 0 0    2 0 0 0 1 0       −1 0 0  och  0 −1 0 .    0 0 0 0 0 1    1 0 0 0 1 0       −1 0 0  och  0 −i 0 .    0 0 i 0 0 1    1 1 0 1 0 0       och   0 2 2 0 2 0 .    0 0 3 0 0 3

Ledning. Unit¨ art ekvivalenta matriser ¨ar konjugerade, och konjugerade matriser har samma determinant, samma sp˚ ar och samma egenv¨arden. Dessutom kan f¨orra andbar. ¨ovningen vara anv¨

¨ Ovning 7.17. Vad h¨ ander i Exempel 7.12 om vi betraktar T som en linj¨ar funktional, dvs. som en avbildning T : P2 → R?

F¨ orslag till svar 7.4 (Ran AT )⊥ = {x; Ax = 0} och (Ran A)⊥ = {x; AT x = 0} 7.5 (a) och (c) ¨ ar sanna, (b) falsk 7.6 dim Ran T = dim Ran T ∗ = 17, dim Ker T = 22, dim Ker T ∗ 7.7   1 0 0  , (b),(c): Nej. (a) Ja, t.ex. 0 0 1 7.8 T ∗ f = f − f ′ 7.9    1 1 −2 −5 1      1  PKer A = 61  1 1 −2 , PRan A∗ = 6  1 −5    −2 −2 4 −2 −2 

= 10

−2



  −2 ,  −2

  4 −1 1      1  PKer A∗ = 31 −1 1  och PRan A = 3  −1 4 1     1 −1 1 1 4 √ √ 7.13 (a) diag(3, −1); 1/√ 2(1, 1) och 1/ √2(1, −1) (b) diag(i, −i); 1/ 2(1, √−i) och 1/ 2(1, √ i) √ (c) diag(−2, −2, 4); 1/ 2(1, 0, −1), 1/ 6(1, −2, 1) och 1/ 3(1, 1, 1) −1    −1  1

−1

1



91

(a) Sant, (b) Falskt, Motexempel: T (x, y) = (x + y, 0) p˚ a R2 , e1 = (0, 1), e2 = (0, 1) men (1, 1) och T (1, 1) = (2, 0) har olika norm. 7.16 Endast (d).

7.14

7.17

T ∗ r = r(1 − t2 ).

92

Kapitel 8 Spektralsatsen 8.1

Spektralsatsen

I det h¨ar kapitlet antar vi att vektorrummet V ¨ar ¨andligtdimensionellt och dim V = n. Vi skall ge n¨odv¨andiga och tillr¨ackliga villkor f¨or att en linj¨ar avbildning skall vara unit¨art diagonaliserbar, dvs. att det finns en ortonormalbas B s˚ adan att [T ]B ¨ar en diagonalmatris. Vi b¨orjar med f¨oljande sats. Sats 8.1 (Schur). L˚ at T : V → V vara en operator p˚ a ett komplext skal¨ arproduktsrum. D˚ a finns en ortonormerad bas B = {e1 , . . . , en } s˚ adan att [T ]B ovre triangul¨ ar matris. ¨ar en ¨ Bevis. Vi bevisar satsen med induktion o¨ver dimensionen p˚ a vektorrummet. Om n = 1 ¨ar satsen trivialt sann. S˚ a antag att dim V = n > 1 och att satsen g¨aller f¨or alla skal¨arproduktsrum V˜ med dim V˜ = n−1. L˚ at e1 vara en egenvektor till T med egenv¨ardet λ1 och ke1 k = 1. Utvidga e1 till en ortonormerad bas e1 , v2 , . . . , vn p˚ a V . S¨att ⊥ E = Span(e1 ) och l˚ at P1 och PE vara ortogonal projektion p˚ a Span (e1 ) respektive E. S˚ a om v = c1 e1 + c2 v2 + . . . + cn vn g¨aller P1 v = c1 e1 och PE v = c2 v2 + . . . + cn vn . Allts˚ a ¨ar P1 + PE = I och T = P1 T + PE T . Nu g¨aller PE T (E) ⊂ E s˚ a PE T ¨ar en operator p˚ a E. Eftersom dim E = n − 1 ger induktionsantagandet att det finns en ortonormerad bas B2 = {e2 , . . . , en } p˚ a E d¨ar [PE T ]B2 ¨ar ¨ovre triangul¨ at nu B = {e1 , e2 , . . . , en }.  ar. L˚ D˚ a ¨ar [T ]B = [T e1 ]B [T e2 ]B . . . [T en ]B ¨ovre triangul¨ar. F¨or att se det observerar vi att T e1 = λ1 e1 . Dessutom, om k ≥ 2, s˚ a har vi T ek = P1 T ek + PE T ek . Eftersom P1 T ek ∈ Span(e Pk1 ) och [PE T ]B2 ¨ar ¨ovre triangul¨ar g¨aller P1 T ek = a1k e1 och PE T ek = or n˚ agra aik . Detta ger T ek = i=2 aik ei f¨ 93

P1 T ek + PE T ek = a1k e1 +

Pk

i=2 aik ei =

Pk

i=1

aik ei s˚ a [T ]B ¨ar ¨ovre triangul¨ar.

Korollarium 8.2. Varje linj¨ ar operator p˚ a ett komplext vektorrum V har en bas B d¨ ar [T ]B ¨ ar ¨ ovre triangul¨ ar. Bevis. Tag en bas e1 , e2 , . . . , en p˚ a V och inf¨or en skal¨arprodukt p˚ a V genom ¨ kr¨ava att denna bas skall vara en ortonormalbas p˚ a V , j¨amf¨or Ovning 5.8. Schurs sats ger att det finns en (ortonormerad) bas B d¨ar matrisen [T ]B ¨ar ¨ovre triangul¨ar. Anm¨ arkning 8.3. Man kan bevisa Korollarium 8.2 utan anv¨andning av ¨ skal¨arprodukt och Schurs sats. Ett bevis skissas i Ovning 8.8. Som vanligt ¨ar situationen mer komplicerad f¨or reella vektorrum. Vi har Sats 8.4. Antag att T ¨ ar en linj¨ ar operator p˚ a ett reellt skal¨ arproduktsrum V med dimension n. Om T har n reella egenv¨ arden s˚ a finns en ortonormerad bas B s˚ adan att [T ]B ¨ ar en ¨ ovre triangul¨ ar matris. Bevis. Beviset ¨ar v¨asentligen det samma som f¨or Schurs sats. Den enda nya ingrediensen ¨ar att vi beh¨over visa att att alla egenv¨arden till PE T ¨ar reella. Men vi har         [T ]B =       

λ1 ∗ ·

·

0 0 ·

[PE T ]B2

· 0

· ∗

            

S˚ a pT (λ) = det(T − λI) = (λ1 − λ) det(PE T − λI) = (λ1 − λ)pPE T (λ) och allts˚ a ¨ar varje egenv¨arde λ 6= λ1 till PE T ett egenv¨arde till T och allts˚ a reellt. Vi har ocks˚ a 94

Sats 8.5. L˚ at T vara en linj¨ ar operator p˚ a ett reellt skal¨ arproduktsrum V . D˚ a finns en ortonormerad bas B s˚ adan att [T ]B ¨ ar en ¨ ovre blocktriangul¨ ar matris d¨ar blocken har dimension 1 eller 2;   A1 ∗ · · · ∗      0 A2 ∗ · · ·       0 0 · · · ·   [T ]B =     · · · · ∗ ∗       · · · · · ∗    0 · · · 0 Ar d¨ar Ak ¨ ar en skal¨ ar eller en 2 × 2-matris. Vi utel¨amnar beviset och p˚ apekar bara att man anv¨ander Sats 3.9 f¨or att bilda E1 och E = (E1 )⊥ . L˚ at oss nu ˚ aterg˚ a till att unders¨oka n¨ar T ¨ar unit¨art diagonaliserbar. Om T ¨ar en avbildning p˚ a ett reellt vektorrum och [T ]B = D ¨ar diagonal i n˚ agon ortonormerad bas s˚ a g¨aller [T ∗ ]B = [T ]∗B = DT = D = [T ]B s˚ a T ∗ = T och allts˚ a ¨ar T sj¨alvadjungerad. Omv¨andningen till detta g¨aller ocks˚ a. Sats 8.6. Antag att T ¨ ar sj¨ alvadjungerad. D˚ a finns en ortonormerad bas B p˚ a V d¨ ar [T ]B ¨ ar diagonal. Detta ¨ar sant b˚ ade f¨or reella och komplexa vektorrum. Men i det komplexa fallet g¨aller ett starkare resultat, se Sats (8.11) nedan. Bevis av Sats 8.6, komplexa fallet. Enligt Schurs sats finns det en ortonormerad bas B d¨ar [T ]B ¨ar ¨ovre triangul¨ar. Allts˚ a ¨ar [T ∗ ]B = [T ]H B undre ∗ triangul¨ar. Men eftersom T = T betyder det att [T ]B ¨ar diagonal. (Vi ser ocks˚ a att diagonalelementen ¨ar reella.) F¨or att bevisa satsen i det reella fallet beh¨over vi kunna anv¨anda Sats 8.4, den reella versionen av Schurs sats. F¨or det beh¨over vi visa att T har n reella egenv¨arden. Sats 8.7. Egenv¨ ardena till en sj¨ alvadjungerad operator p˚ a ett komplext skal¨ arproduktsrum ¨ ar reella. 95

Bevis. Detta f¨oljer fr˚ an den komplexa versionen av Sats 8.6. Eftersom [T ]B = D = diag(λ1 , . . . , λn ) s˚ a best˚ ar basen B av egenvektorer och λ1 , . . . , λn ¨ar ¯1, . . . , λ ¯ n ), s˚ egenv¨arden till T . Dessutom g¨aller [T ∗ ]B = DH = diag(λ a om T ¯ ar vi λk = λk . ¨ar sj¨alvadjungerad f˚ Vi ger ocks˚ a ett direkt bevis. Om T u = λu s˚ a g¨aller hT u, ui = hλu, ui = λhu, ui = λkuk2 men ocks˚ a 2 ¯ ui = λkuk ¯ hT u, ui = hu, T ∗ ui = hu, T ui = hu, λui = λhu, ,

¯ = λ. s˚ aλ Sats 8.8. Antag att T ¨ ar en sj¨ alvadjungerad operator p˚ a ett reellt skal¨ arproduktsrum med dimension n. D˚ a har T n stycken reella egenv¨ arden. Bevis. L˚ at A = [T ]B i n˚ agon ortonormerad bas B. Vi kan betrakta A som en linj¨ar avbildning p˚ a Cn . Enligt Sats 8.7 ¨ar alla n egenv¨ardena reella. S˚ a ekvationssystemet (A − λI)x = 0 ¨ar ett l¨osbart ekvationssystem med reella koefficienter och har allts˚ a en icketrivial reell l¨osning x. Om [u]B = x ger detta T u = λu s˚ a u ¨ar en egenvektor till T med egenv¨ardet λ. Bevis av Sats 8.6, reella fallet. Eftersom alla egenv¨arden a¨r reella kan vi anv¨anda den reella versionen av Schurs sats, Sats 8.4. S˚ a det finns en ortonormerad bas B d¨ar [T ]B ¨ar ¨ovre triangul¨ar. Allts˚ a ¨ar [T ∗ ]B = [T ]TB undre ∗ triangul¨ar. Men eftersom T = T betyder det att [T ]B ¨ar diagonal. Vi har allts˚ a bevisat Sats 8.9 (Den reella spektralsatsen). Antag att T ¨ ar en operator p˚ a ett reellt skal¨ arproduktsrum. D˚ a finns en ortonormerad bas B d¨ ar [T ]B ¨ ar diagonal om och endast om T ¨ ar sj¨ alvadjungerad. I det komplexa fallet finns det fler operatorer ¨an de sj¨alvadjungerade som kan diagonaliseras unit¨art. L˚ at oss anta att T a¨r unit¨art ekvivalent med en diagonalmatris, [T ]B = D = diag(λ1 , . . . , λn ) i en ortonormerad bas B. F¨or en diagonalmatris g¨aller DDH = DD = diag(|λ1 |2 , . . . , |λn |2 ) = DD = DH D. H Eftersom [T ]B = D g¨aller [T ∗ ]B = [T ]∗B = [T ]H a B = D = D. S˚ [T T ∗ ]B = [T ]B [T ∗ ]B = DD = DD = [T ∗ ]B [T ]B = [T ∗ T ]B och T T ∗ = T ∗ T . 96

Definition 8.10. En linj¨ ar avbildning N p˚ a ett skal¨ arproduktsrum V ¨ ar normal om N N ∗ = N ∗N . Vi har allts˚ a visat att om T ¨ar unit¨art diagonaliserbar s˚ a ¨ar T normal. Detta ¨ar den enkla delen av Sats 8.11 (Komplexa spektralsatsen). Antag att V ¨ ar ett komplext skal¨ arproduktsrum och T en linj¨ ar avbildning p˚ a V . D˚ a finns en ortonormerad bas B s˚ a att [T ]B ¨ ar en diagonalmatris om och endast om T ¨ ar normal. Bevis. Det ˚ aterst˚ ar att bevisa att om T ¨ar normal s˚ a finns en ortonormerad bas d¨ar T ¨ar diagonal. Enligt Schurs sats finns en ortonormerad bas B d¨ar T ¨ar ¨ovre triangul¨ar, 

   [T ]B =    

a11 a12 . . . a1n 0 .. .

A1

0



    .   

Elementet p˚ a plats 11 i [T ∗ T ]B och [T T ∗ ]B a¨r |a11 |2 respektive |a11 |2 +|a12 |2 + . . . + |a1n |2 . S˚ a |a12 |2 + . . . + |a1n |2 = 0 och allts˚ a a12 = . . . = a1n = 0. S˚ a      [T ]B =    

a11 0 . . . 0 0 .. .

0

A1

      

Vi observerar ocks˚ a att     |a11 |2 0 . . . 0 |a11 |2 0 . . . 0          0    0 ∗ ∗  och [T T ]B =   . [T T ]B =   ..    .  .    .. A∗1 A1 A1 A∗1     0 0 S˚ a A1 A∗1 = A∗1 A1 och allts˚ a ¨ar A1 normal. Genom att upprepa argumentet 97

ovan p˚ a



   A1 =    

a22 a23 . . . a2n 0 .. .

A2

0

       

f˚ ar vi a23 = . . . = a2n = 0. Ytterligare upprepning av detta argument (¨andlig induktion) ger att [T ]B = diag(a11 , . . . , ann ) ¨ar en diagonalmatris. Exempel 8.12. En sj¨alvadjungerad operator as normal men omv¨and¨ar f¨orst˚  

ningen g¨aller inte. Matrisen



i

0

0

0



¨ar normal men inte sj¨alvadjungerad.

Etn reell matris som ¨ar normal men inte sj¨alvadjungerad ¨ar

 

1

−1

1

1



.

Det ¨ar inte alldeles enkelt att avg¨ora n¨ar en operator ¨ar normal. Ett villkor som ibland kan vara anv¨andbart ges av f¨oljande resultat. Proposition 8.13. En operator ¨ ar normal om och endast om kN xk = ∗ kN xk f¨ or alla x. Bevis. Om N ¨ar normal s˚ a g¨aller kN xk2 = hN x, N xi = hx, N ∗ N xi = hx, N N ∗ xi = hN ∗ x, N ∗ xi = kN ∗ xk2 . Omv¨ant om kN xk = kN ∗ xk ger polariseringsidentiteterna (Sats 5.6) att hN x, N yi = hN ∗ x, N ∗ yi. S˚ a hN N ∗ x, yi = hN ∗ x, N ∗ yi = hN x, N yi = ∗ hN N x, yi f¨or alla x och y. S˚ a N ∗N = N N ∗. En viktig egenskap hos sj¨alvadjungerade avbildningar a¨r f¨oljande Sats 8.14. Om T ¨ ar sj¨ alvadjungerad och u och v ¨ ar egenvektorer med olika egenv¨ arde s˚ a¨ ar u och v ortogonala. Bevis. Detta f¨oljer av spektralsatsen (Hur d˚ a?) men vi ger ett direkt bevis. Om T u = λu och T v = µv d¨ar λ 6= µ s˚ a g¨aller λhu, vi = hλu, vi = hT u, vi = hu, T ∗ vi = hu, T vi = hu, µvi = µ ¯hu, vi = µhu, vi . S˚ a (λ − µ)hu, vi = 0 och hu, vi = 0. 98

¨ Ovning 8.1. Avg¨ or vilka av f¨ oljande p˚ ast˚ aenden som sanna. (a) Varje unit¨ ar operator U : V → V a¨r normal (b) En matris ¨ ar unit¨ ar om och endast om den ¨ar inverterbar (c) Om tv˚ a linj¨ ara avbildningar ¨ ar unit¨art ekvivalenta s˚ a ¨ar de konjugerade. (d) Summan av tv˚ a sj¨ alvadjungerade operatorer ¨ar sj¨alvadjungerad. (e) Adjunkten till en unit¨ ar operator a¨r unit¨ar (f) Adjunkten till en normal operator ¨ar normal (g) Om alla egenv¨ arden till en linj¨ar operator har absolutbeloppet 1 s˚ a ¨ar operatorn unit¨ ar eller ortogonal (h) Om alla egenv¨ arden till en normal operator ¨ar 1 s˚ a ¨ar operatorn identiteten (i) En linj¨ ar operator kan bevara normen men inte skal¨arprodukten   3 2  med ett ortogonalt koordinat¨ Ovning 8.2. (a) Diagonalisera matrisen A =  2 3 byte. (b) Best¨ am en kvadratrot till A dvs. en matris B med B 2 = A. ¨ Ovning 8.3. Bevisa att en normal operator vars egenv¨arden alla har absolutbeloppet 1 ar. ¨ar unit¨ ¨ Ovning 8.4. Antag att P ¨ ar en operator med P = P 2 . Visa att P ¨ar en ortogonal projektion p˚ a Ran P om och endast om P ¨ar sj¨alvadjungerad. ¨ Ovning 8.5. Bevisa att en normal operator p˚ a ett komplext skal¨arproduktsrum ¨ar sj¨alvadjungerad om och endast om alla egenv¨arden ¨ar reella. ¨ Ovning 8.6. Visa att varje normal operator p˚ a ett komplext skal¨arproduktsrum har en kvadratrot. ¨ Ovning 8.7. Bevisa Korollarium 8.2 utan att anv¨anda Sats 8.1. Ledning. Anv¨ and induktion ¨ over dimensionen p˚ a vektorrummet. L˚ at U =Ran(T − λI) d¨ ar λ ¨ ar ett egenv¨ arde. D˚ a g¨aller dimU i s˚ a ¨ar C˜i = i di −1 i di i i i {N v1 , . . . , N v1 , N v1 } = {v2 , . . . , vdi } och om di = 1 s˚ a ¨ar C˜i = ∅. Vi observerar ocks˚ a att om l ¨ar det st¨orsta index med C˜l 6= ∅, s˚ a ¨ar Span(C˜1 ∪ . . . ∪ C˜l ) = W . Eftersom slutvektorerna i C˜1 ∪ . . . ∪ C˜l ¨ar en delm¨angd till slutvektorerna i C1 ∪ . . . ∪ Ck a¨r de linj¨art oberoende. S˚ a vi kan anv¨anda in˜ duktionstagandet och dra slutsatsen att vektorerna i C1 ∪ . . . ∪ C˜l ¨ar linj¨art oberoende. Att vektorerna i C1 ∪ . . . ∪ Ck ocks˚ a ¨ar linj¨art oberoende f¨oljer nu genom att kontrollera dimensionerna. Vi har dim W = d˜1 + d˜2 + . . . + d˜l = n − k eftersom vi f¨or att bilda C˜i str¨ok en vektor i varje Ci . Dessutom g¨aller N vdi i = a ¨ar 0, i = 1, . . . , k, och eftersom slutvektorerna vdi i ¨ar linj¨art oberoende s˚ 106

dim Ker N ≥ k. Dimensionssatsen ger dim V = dim Ran N + dim Ker N = dim W + dim Ker N ≥ n − k + k = n. Men dim V = dim Span(C1 ∪ . . . ∪ Ck ) ≤ d1 + . . . + dk = n. Allts˚ a ¨ar dim V = n. S˚ a Ci ∩ Cj = ∅ och vektorerna i C1 ∪ . . . ∪ Ck sp¨anner V och ¨ar n stycken. D¨arf¨or ¨ar de en bas och allts˚ a speciellt linj¨art oberoende. Lemma 9.15. L˚ at N : V → V vara nilpotent. D˚ a har V en bas som best˚ ar av cykler av generaliserade egenvektorer till N . Bevis. Vi bevisar satsen med induktion med avseende p˚ a n = dim V . Om n = 1 ¨ar satsen sj¨alvklart sann. S˚ a antag att n ≥ 2 och att satsen ¨ar sann f¨or varje nilpotent operator p˚ a ett vektorrum med dimension strikt mindre ¨an n. L˚ at W = Ran N . D˚ a N a¨r nilpotent a¨r Ker N 6= {0} s˚ a dim Ker N ≥ 1. Dimensionssatsen ger dim W =dim Ran N 0 (fallet P ′ (ai ) < 0 ¨ar analogt). D˚ a ¨ar P (x) v¨axande n¨ara ai och allts˚ a P (x− ) < 0 ′ och P (x+ ) > 0. Vi har allts˚ a att tecknen f¨or P (x− ), P (x− ) ¨ar −, + , dvs. en teckenv¨axling. F¨or P (x+ ), P ′ (x+ ) ¨ar de +, + s˚ a vi har ingen teckenv¨axling. Allts˚ a minskar antalet teckenv¨axlingar med ett precis d˚ a vi passerar ett nollst¨alle till P och satsen f¨oljer.

10.5

Exempel

Exempel 10.13. L˚ at 

1

2 1



    A =  −2 2 1  .   1 −1 1 116

Om e1 = (1, 0, 0) s˚ a g¨aller Ae1 = (1, −2, 1), A2 e1 = (−2, −5, 4) och A3 e1 = (−8, −2, 7). Detta ger A3 e1 = 9e1 − 9Ae1 + 4A2 e1 s˚ a mT,e1 (z) = z 3 − 4z 2 + 9z − 9. Etersom vi vet att mT,e1 delar mT och att mT ¨ar h¨ogst av tredje graden s˚ a g¨aller mT = mT,e1 . Euklides algoritm p˚ a polynomen p0 = mT och p1 = m′T ger (med datorhj¨alp) p0 (z) = ( 31 x − 94 )p1 (z) − p2 (z)

27 p1 (z) = ( 22 z−

369 )p (z) 484 2

d¨ar p2 (z) = 5 −

− p3 (z)

22 z 9

d¨ar p3 = − 2511 . 484

S˚ a SGD(mT , m′T ) = SGD(p0 , p1 ) = 1 och allts˚ a har mT bara enkla nollst¨allen. S˚ a A ¨ar diagonaliserbar som en operator p˚ a Cn . F¨or att avg¨ora om A ¨ar diagonaliserbar ¨over R anv¨ander vi Sturms sats. Om x ¨ar tillr¨ackligt litet (tillr¨ackligt n¨ara −∞) s˚ a har Sturmkedjan p0 (x), p1 (x), p2 (x), p3 (x) tecknen −, +, +, − och om x ¨ar tillr¨ackligt stort (tillr¨ackligt n¨ara +∞) +, +, +, − . S˚ a antalet teckenv¨axlingar minskar fr˚ an tv˚ a till ett och enligt Sturms sats har bara mT ett reellt nollst¨alle. S˚ a tv˚ a nollst¨allen ¨ar komplexa och A kan inte diagonaliseras ¨over R. Att mT bara har ett reellt nollst¨alle kan f¨orst˚ as visas p˚ a andra s¨att. T.ex. ′ ger kvadratkomplettering att mT (x) > 0 och allts˚ a ¨ar mT (x) ¨ar str¨angt v¨axande. Exempel 10.14. L˚ at



2 1 0

  J = 0 2 1  0 0 2



   . 

Om e1 , e2 , e3 ¨ar standardbasen p˚ a C3 s˚ a g¨aller Je1 = 2(1, 0, 0) = 2e1 , s˚ a Je1 = 2e1 och mJ,e1 (z) = z − 2 , Je2 = (1, 2, 0) och J 2 e2 = (4, 4, 0) s˚ a 2 2 J e2 = 4Je2 − 8e2 och mJ,e2 (z) = z − 4z + 8 = (z − 2)2 , Je3 = (0, 1, 2), J 2 e3 = (1, 4, 4) och J 3 e3 = (6, 12, 8) s˚ a 3 2 J e3 = 6J e3 − 12Je3 + 8e3 och mJ,e3 (z) = z 3 − 6z 2 + 12z − 8 = (z − 2)3 .

S˚ a mJ (z) = mJ,e3 (z) = (z − 2)3 . Allts˚ a har mJ multipla nollst¨allen och kan inte diagonaliseras ¨over varken R eller C. Anm¨ arkning 10.15. Att mJ = mJ,e3 f¨oljer direkt fr˚ an att mJ,e3 ¨ar ett tredjegradspolynom s˚ a ber¨akningen av mJ,e1 och mJ,e2 a¨r on¨odig. Anm¨ arkning 10.16. J ¨ar ett Jordanblock s˚ a vi visste redan (eller hur?) att J inte kan diagonaliseras.

Kapitel 11 Komplexifiering av vektorrum P˚ a grund av algebrans fundamentalsats ger de komplexa talen en en m¨ojlighet att b¨attre f¨orst˚ a resultat om reella polynom, t.ex. att varje reellt polynom kan skrivas som en produkt av f¨orsta- och andragradspolynom, Sats 3.4. P˚ a liknande s¨att kan vi anv¨anda komplexa vektorrum f¨or att f˚ a information om linj¨ara avbildningar p˚ a reella vektorrum. Ett exempel p˚ a detta ¨ar beviset av den reella spektralsatsen. Genom att v¨alja en bas kunde vi anta att vektorrummet var Rn och att avbildningen gavs av en reell matris A. Men den definierar ocks˚ a genom matrismultiplikation n en avbildning p˚ a C . Genom att studera denna komplexlinj¨ara avbildning lyckades vi bevisa den reella spektralsatsen. Det finns ett mer invariant s¨att att g¨ora denna utvidgning, den s˚ a kallade komplexiferingen av vektorrumet. Till ett godtyckligt reellt vektorrum VR skall vi definiera ett komplext vektorrum VC som inneh˚ aller VR . Om VR ¨ar ett reellt skal¨arproduktsrum kan skal¨arprodukten utvidgas till en skal¨arprodukt p˚ a VC , och en linj¨ar avbildning TR : VR 7→ VR har en utvidgning till en linj¨ar avbildning TC : VC 7→ VC . Definition 11.1. Komplexifieringen VC av det reella vektorrummet VR best˚ ar av alla par v = v1 + iv2 d¨ ar v1 och v2 ¨ ar element i VR . Vektoroperationerna definieras genom v + u = (v1 + iv2 ) + (u1 + iu2 ) = (v1 + u1 ) + i (v2 + u2 ) och λv = (λ1 + iλ2 ) (v1 + iv2 ) = (λ1 v1 − λ2 v2 ) + i (λ1 v2 + λ2 v1 ) Tv˚ a vektorer v = v1 + iv2 och u = u1 + iu2 ¨ar lika om v1 = u1 och v2 = u2 . Vektorerna v1 och v2 kallas f¨or real- respektive imagin¨ardelarna 118

till v och betecknas v1 = Re v och v2 = Im v. Med konjugatet till v menas ¯ = v1 − iv2 . VR kan uppfattas som den delm¨angd till VC som vektorn v uppfyller Im v = 0. Vi skriver VC = VR ⊕ iVR . ¨ Ovning 11.1. Bevisa att komplexifieringen VC ¨ar ett komplext vektorrum.

Om e1 , e2 , . . . , en ¨ar en bas f¨or VR s˚ a ¨ar den ocks˚ a en bas f¨or VC . Vektorn u+iv f˚ ar koordinaterna (u1 +iv1 , u2 +iv2 , . . . , un +ivn ) om u = (u1 , u2 , . . . , un ) och v = (v1 , v2 , . . . , vn ). Om TR ¨ar en linj¨ar avbildning mellan tv˚ a reella vektorrum V och U s˚ a kan TR utvidgas till en komplexlinj¨ar avbildning mellan deras komplexifieringar, TC : VC → UC , genom TC (v1 + iv2 ) = TR v1 + iTR v2 . Slutligen skall vi utvidga en skal¨arprodukt p˚ a det reella vektorrummet VR till en skal¨arprodukt p˚ a VC . F¨or en komplex skal¨arprodukt g¨aller hv1 + iv2 , u1 + iu2 i = hv1 , u1 i + hv2 , u2 i + i (hv2 , u1 i − hv1 , u2 i) , s˚ a vi s¨atter hv, uiC = hv1 +iv2 , u1 +iu2 iC = hv1 , u1 iR +hv2 , u2 iR +i (hv2 , u1 iR − hv1 , u2 iR ) . ¨ ar en komplex skal¨arprodukt p˚ a VC . Ovning 11.2. Visa att h , iC ¨ ¨ Ovning 11.3. Vad ¨ ar den komplexlinj¨ara utvidgningen av Rn . ¨ Ovning 11.4. L˚ at VR = Cn betraktat som ett vektorrum ¨over R. (Dvs. λv ¨ar bara definierat d˚ a λ ∈ R, vi gl¨ ommer bort att λ kan vara komplext.) Vad ¨ar komplexifieringen av VR ?

Vi ger nu ett alternativt bevis f¨or den reella spektralsatsen och b¨orjar med f¨oljande resultat. Lemma 11.2. L˚ at TR vara en linj¨ ar avbidning p˚ a ett reellt vektorrum. Om den komplexlinj¨ ara utvidgningen TC har ett reellt egenv¨ arde λ s˚ a ¨ ar λ ett egenv¨ arde till TR . Bevis. Om TC v = λv d¨ar λ ∈ R, och v = v1 + iv2 s˚ a g¨aller TR v1 + iTR v = TC v = λv = λv1 + iλv2 . Detta ger TR v1 = λv1 och TR v2 = λv2 . Eftersom v 6= 0 kan inte b˚ ade v1 och v2 vara nollvektorn s˚ a minst en av Re v eller Im v ¨ar en reell egenvektor till TR med egenv¨ardet λ. Bevis av den reella spektralsatsen. F¨oruts¨attningen i satsen betyder att TR a ett reellt vektorrum V = VR med en skal¨arprodukt ¨ar en linj¨ar avbildning p˚ h , iR , och att TR uppfyller hTR u, viR = hu, TR viR f¨or alla u och v. Vi komplexifierar nu situationen till en skal¨arprodukt h , iC p˚ a VC . Det a g¨aller hTC u, viC = hu, TC viC f¨or alla u och v i VC . ¨ar l¨att att se att d˚ 119

¨ Ovning 11.5. Visa det.

H¨arn¨ast visar vi att alla egenv¨ardena ¨ar reella. L˚ at r vara talet r = hTC v, viC d¨ar v ∈ VC . D˚ a g¨aller r¯ = hTC v, viC = hv, TC viC = hTC v, viC = r s˚ a r ¨ar ett reellt tal. Men om TC v = λv s˚ a g¨aller r = hTC v, viC = hλv, viC = λhv, viC . Men hv, viC > 0 och allts˚ a ¨ar λ ett reellt tal. 2 Enligt diskussionen ovan f¨oljer det att det finns en (reell) egenvektor i V . F¨or att bevisa spektralsatsen skall vi visa att T = TR har n parvis ortogonala egenvektorer d¨ar n ¨ar dimensionen p˚ a V . Vi g¨or detta med induktion. Om n = 1 ¨ar f¨oljer det direkt fr˚ an existensen av en reell egenvektor. L˚ at nu n > 1. Vi vet att T har en reell egenvektor v1 med det reella egenv¨ardet λ1 . V¨alj vektorer v ˜2 , v ˜3 , . . . , v ˜n s˚ a att v1 , v ˜2 , v ˜3 , . . . , v ˜n bildar en ortonormerad bas. S˚ a V˜ = span(˜ v2 , v ˜3 , . . . , v ˜n ) ¨ar det ortogonala komplementet till v1 . L˚ at T˜ vara restriktionen av T till V˜ . D˚ a ¨ar T˜ ¨ar en linj¨ar avbildning p˚ a V˜ . F¨or att se att T˜ avbildar V˜ in i V˜ ˜ observerar vi att om v ˜ ∈ V s˚ a g¨aller hv1 , T v ˜i = hT v1 , v ˜i = hλ1 v1 , v ˜i = λ1 hv1 , v ˜i = 0 S˚ a Tv ˜ ⊥ v1 , dvs. T v ˜ ∈ V˜ . Dessutom a¨r T˜ sj¨alvadjungerad eftersom restriktionen av en sj¨alvadjungerad linj¨ar avbildning ¨ar sj¨alvadjungerad. S˚ a T˜ ¨ar en sj¨alvadjungerad linj¨ar avbildning p˚ a ett n − 1-dimensionellt vektorrum. Enligt induktionsantagandet har T˜ n−1 ortogonala egenvektorer v2 , v3 , . . . , vn . S˚ a v1 , v2 , v3 , . . . , vn ¨ar n ortogonala egenvektorer till T och satsen a¨r bevisad.

120