Repetisjonshefte i lineær algebra
 8290373589 [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

Repetisjonshefte i

LINEÆR ALGEBRA av

AUDUN HOLME

©

SIGMA FORLAG A.S, 1991 ISBN nr. 82-90373-58-9 1. utgave 1991 Døves Trykkeri A.s, Bergen 1991

Forord Denne boken er ment som en hjelp til studenter som skal ta eksamen i et innføringsemne i lineær algebra ved Universitetet i Bergen, emnet M121. Hver gang jeg har forelest dette stoffet har jeg fått henvendelser fra studenter som savner en samling med løste eksamensoppgaver. De er i villrede om hvorledes en eksamensbesvarelse skal føres, hvor utførlig en bør begrunne enkelte punkter eller hvor mye en må ta med av utregninger, osv. Samtidig føler mange et behov for en litt strammere fremstilling av de viktigste delene av pensum, særlig i forbindelse med repetisjonen før eksamen. Her har jeg tatt med det teoretiske grunnlaget for noen av de mest vanlige oppgavetypene, gitt til eksamen i emnet ved Universitetet i Bergen i løpet av de siste 10 årene. Det er ikke noen fullstendig gjen­ nomgang av pensum, og ikke alle tema som har vært berørt i eksamen­ soppgavene i dette tidsrommet er blitt tatt med her. Boken er ment som et grunnlag for repetisjon og eksamensforberedelser, med utgangspunkt i noen av de mest sentrale oppgavetyper som er gitt til eksamen. Boken er altså ikke en fullstendig innføring i lineær algebra, og kan derfor ikke leses i stedet for [1]. Enkelte viktige begreper og resultater nevnes bare svært summarisk, eller med henvisning til læreboken [1]. Dette gjelder for eksempel innføringen av determinantbegrepet, ma­ trisemultiplikasjon og matriseinvertering for å nevne noe.

5

Innhold

1

Matriser og determinanter 9 1.1 Matriser.................................................................................. 9 1.2 Determinanter............................................................................ 11

2

Lineære ligningssystemer 15 2.1 Teori om lineære ligningssystemer.......................................... 15 2.1.1 Gauss - Jordansk eliminasjon.................................... 15 2.1.2 Om generelle ligningssystem og generelle løsninger. 20 2.1.3 Cramers regel.................................................................. 21 2.1.4 Sammenligning av de to metodene .......................... 21 2.1.5 Et enkelt bevis for Cramers Teorem.......................... 24 2.1.6 Gauss - Jordansk eliminasjon og matriseligninger 25 2.2 Eksempel på oppgave om lineære ligningssystemer .... 26

3 Vektorrom, basiser og koordinater med hensyn på en basis 31 3.1 Vektorrom, lineær uavhengighet og basis................................ 31 3.2 Mer om basiser og koordinater med hensyn på en basis. . 34 3.3 Løsning av en oppgave............................................................. 39 4

Matriser og transformasjoner 47 4.1 Oppsummering av teori............................................................. 47 4.2 Løste oppgaver......................................................................... 52

5

Egenverdier, egenvektorer og diagonalisering 63 5.1 Oppsummering av teori............................................................. 63 5.2 Løst oppgave .............................................................................72 7

8

5.3 5.4 6

Kvadratiske former og kjeglesnitt............................................. 77 Løsning av en oppgave............................................................... 82

Eksamen høsten 1990 89 6.1 Oppgaveteksten......................................................................... 89 6.2 Fullstendig besvarelse................................................................ 93

Kapittel 1 Matriser og determinanter 1.1

Matriser

En (reell) m x n - matrise M er et skjema av reelle tall, ordnet i m rekker, som hver har n tall. Tilsvarende kan vi beskrive M som bestående av n søyler, hver med m tall: «1,1

«1,2

«m,l

«m,2

«l,n

M

«l,n

«1,1

.

«2,1

«2,n

«m,l

Dersom her m = 1, slik at det bare er én rekke, kaller vi matrisen for en rekkevektor. Dersom det tilsvarende bare er én søyle, kalles den for en søylevektor. Vi skriver også

M For to m x n - matriser A og B.

2

LINÆR ALGEBRA

«ijjmxn

10 definerer vi summen som A + B — [at-j 4- bjj] mXn-)

og vi definerer multiplikasjon med et reelt tall r ved \rai J mXn

rA

Vi definerer den transponerte av matrisen

M



[aM-] mxn

som nxm

Spesielt ser vi at den transponerte av en rekkevektor blir en søylevektor, og omvendt. Gitt to n - dimensjonale vektorer O_ —

(^1, • • • 5 ^n)

(^1? • • • , ®n)? —

(vi bruker runde paranteser for rekkevektorer). Da kan vi som ovenfor danne deres sum (og tilsvarende differens) og vi kan multiplisere dem med et reelt tall. Men vi har dessuten det viktige begrepet Euklidsk indre produkt’. Vi setter

< a, b > — Æl&l 4" • • • 4" Se læreboken side 113, 145 og 191 for detaljer og generelle indre produkter. Lengden (egentlig: Den Euklidske lengden), eller den abso­ lutte verdien av en vektor a er definert ved | g | = y/< g,g>. Mer om dette nedenfor, se forøvrig [1] side 191 - 220. Vi kan nå på en enkel måte definere produktet av enkelte matriser. Vi kan bare multiplisere matriser som har et kompatibelt format: La mxr

°g rXn

11

Da er produktet AB definert som matrisen

c=

h,;] mxn

der Cij er det Euklidske skalarproduktet av rekke nummer i fra A med søyle nummer j fra B. En diagonalmatrise er en nx n - matrise som bare består av nuller, unntatt muligens langs diagonalen. En slik matrise betegnes ved

D = Diag^X^^..., Xn) der vi har ført opp de n elementene Å1?..., Xn langs diagonalen. Mul­ tiplikasjon av to n x n diagonalmatriser er spesielt enkelt, vi får at

Pm^(Åi,...,Ån)Dm(/(/Zi,...,//n) = Diag(Xxpu... ,Ån/zn) og spesielt at multiplikasjon av diagonalmatriser er kommutativ. Dette gjelder ikke for generelle matriser, og leseren oppfordres på det sterkeste til å skrive opp to tilfeldig valgte 2 x 2 - matriser A og B, og regne ut AB samt BA. Enhetsmatrisen er defiert ved

In = Diagfl,... ,1)

Se læreboken side 32 for de grunnleggende regnereglene som gjelder for matriseregning.

1.2

Determinanter

Til hver n x n - matrise A kan vi tilordne et tall som vi skriver det(A), eller også ^1,1

^n,l

al,2

• • •

al,n

• • •

^n,n

For detaljene om dette meget viktige begrepet må vi vise til lærebokens Kapittel 2. Men her kan vi gi en oppsummering av de viktigste delene av denne teorien på en litt annen måte.

12

I stedenfor å fokusere på den tekniske definisjonen av determinatbegrepet, fokuserer vi her på de regnereglene som determinanten oppfyller. Den første regneregelen vi skriver opp er |Dm^(Åi,..., Ån)| =

Den andre regneregelen er at

det(A) = det(Aty) Den tredje regneregelen består av tre deler, og sier hvorledes deter­ minanten oppfører seg ved de tre elementære rekkeoperasjonene:

1. Determinanten skifter fortegn når to rekker byttes om. 2. Når en rekke multipliseres med en konstant, blir determinanten multiplisert med den samme konstanten.

3. Determinanten er uforandret når et multiplum av en rekke legges til en annen rekke. På grunn av den andre regneregelen følger det at vi kan bytte ut ordet “rekke” med ordet “søyle” i den tredje regneregelen. Det er en viktig observasjon at regnereglene ovenfor entydig fastleg­ ger determinantbegrepet: Vi kan regne ut determinanten til en hvilken som helst n x n - matrise bare ved hjelp av disse regnereglene. Før vi viser dette, skal vi bevise et teorem som utvider den første regneregelen: TEOREM. La A vaere en n x n - matrise, som har bare nuller under diagonalen:

der aij = 0 for i > j. Da er

det(A) =

• a2)2 ’ • • • * ^n,n

Bevis. Dersom aij = 0, blir den første søylen i A nullvektoren. Denne enders derfor ikke ved multiplikasjon med et hvilket som helst tall, f.eks. 0. Dermed følger det av den tredje regneregelen at det(A) = Odet(A) = 0,

13 Så resultatet er riktig dersom a1}i = 0. Vi kan derfor anta at =4 0. Ved å erstatte søyle nr. 2 - som vi betegner med s2 - med s2 — får vi en ny matrise

a\

«1,2

a'n,l

^n,2

al,n

med samme determinant som A, med samme ledd langs diagonalen, med bare nuller under diagonalen og slik at a'12 = 0. Ved å gjenta dette for søyle nr. 3 o.s.v., kan vi til slutt anta at «1,2



«1,3



...



«i,n



0.

Som ovenfor finner vi i neste omgang at dersom a22 — 0, så er determinanten lik 0, og teoremet derfor riktig i dette tilfellet. Dersom «2,2 7“ 0, så kan vi ved søyleoperasjoner anta at alle de øvrige ele­ mentene på rekke nr. 2 er null. Slik fortsetter vi, til vi ender opp med en matrise D slik at det^D} = det(A) og med samme diagonal som den opprinnelige, men der alle de andre elementene er null. Vi bruker så den første regneregelen ovenfor, og beviset er fullført.

La nå A være en vilkårlig n x n - matrise. Strategien er å erstatte den med en annen matrise Æ, der alle elementer under diagonalen er null, og slik at det (A) = det(A'). Vi antar at A ikke allerede er på den ønskede formen, og ser på den første søylen som ikke har bare nuller under diagonalen, la oss si det er søyle nr. s. Hvis det skulle falle seg slik at elementet på diagonalen i denne søylen var 0, så måtte vi bytte om rekke nr. s - der dette elementet ligger - med en rekke nedenfor slik at det kom opp et element forskjellig fra null til diagonalplassen. Ved en slik operasjon skifter determinanten fortegn, så vi endrer derfor samtidig fortegnet på alle elementene i vedkommende rekke. Vi ser på et eksempel: Matrisen 1 2 5 7' 0 0 1 10 0 8 3 -2 0 1-13

14 erstattes ved dette skrittet i utregningsalgoritmen med matrisen

’ 1 2 5 7 ' 0-8-3 2 0 0 1 10 _ 0 1 -13.

Men valget er selvsagt ikke entydig, for vi kunne like godt ha erstattet A med

C

' 1 2 5 7' 0-11-3 0 8 3 -2

.00

1

10 .

Det siste valget er bedre, fordi det leder til enklere regninger i fortset­ telsen. Etter å ha skaffet et element / 0 på diagonalen i denne søylen, kan vi ved rekkeoperasjoner sørge for at alle elementer under diagonalen i denne samme søylen blir 0, og vel å merke uten at noen av nullene under diagonalen i de tidligere søylene ødelegges. Vi går så videre til neste søyle som ikke er på den ønskede formen og gjentar prosessen. Vi ender opp med en matrise der alle elementene under diagonalen er 0, og finner determinanten ved teoremet ovenfor. Dette er nesten den samme prosessen som brukes i Gauss - Jor­ dansk eliminasjon, og viser hvor nøye determinatbegrepet er knyttet til ligningsteori. Helt tilsvarende kan vi bevise andre regneregler for determinanter ved hjelp av de tre grunnleggende regnereglene ovenfor. Leseren opp­ fordres til å repetere disse regnereglene i [1], og prøve å finne beviser for dem ved hjelp av den metoden vi har brukt her: Filosofien er å vise at en regneregel bevares ved rekke - eller søyleoperasjoner, slik at beviset kan reduseres til å verifisere regelen i et spesialtilfelle, f. eks. for matriser med nuller under diagonalen.

Kapittel 2

Lineære ligningssystemer 2.1

Teori om lineære ligningssystemer

En hyppig gitt oppgavetypen er å løse lineære ligningssystemer av for­ men (2.1)

4-

+ • • • + a»,n^n =

2 = 1, 2, . . . , 771

som vi skriver slik på matriseform:

eller skrevet med enda mer kompakt notasjon:

A•x=b Den generelle metoden for å løse et slikt ligningssystem er Gauss Jordansk eliminasjon:

2.1.1

Gauss — Jordansk eliminasjon

SAMMENFATNING av METODEN.Ved rekkeoperasjonerbringes totalma-

tnsen

15

16 over i en totalmatrise T for et ekvivalent ligningssystem på redusert trappeform , se nedenfor. Når det er oppnådd, vil vi normalt ha noen rekker nederst i matrisen som bare består av nuller. Disse rekkene kan vi se bort fra. Men følgende fenomen kan vi ikke se bort fra: Det kan tenkes at det forekommer en rekke der alle tallene foran streken er null, men det siste tallet, bak streken, er 1 (husk at matrisen er på redusert trappeform). I så fall vil systemet ikke ha noen løsning. For denne siste rekken uttrykker en selvmotsigende ligning, nemlig 0 = 1. Systemet har løsning hvis og bare hvis det ikke forekommer en slik “selvmotsigende rekke” i den endelige totalmatrisen. I så fall går vi frem slik: De ukjente inndeles i ledende ukjente (der det står en ledende ener i den tilhørende søylen) og ikke ledende ukjente. De siste kan velges som fritt varierende parametre og de ledende ukjente finnes så lett uttrykt ved desse parametrene. Antall r av ledende 1-ere foran streken i T' er lik rangen (dimensjo­ nen) til rekkerommet til A. Altså er r = dim Rekkerom A = dim Søylerom A = rang(A) (se [1], side 183) og antallet s av ikke-ledende ukjente blir s = n - r. Vi har også vist at systemet har løsning O rang(A) = rang(T). Bevis for metoden. Et Eksempel. Beviset for denne metoden består i å bemerke at ligningssystemet (2.1) kan omformes til et ekvivalent ligningssystem ved en endelig serie av operasjonene nedenfor:

(2.2)

Bytte om to ligninger.

(2.3)

Multiplisere en ligning med et tall k forskjellig fra 0.

(2.4)

Addere et multiplum av en ligning til en annen.

Det er klart at ved hvert slikt skritt omformes et gitt ligningssy­ stem til et ekvivalent ligningssystem, altså til et som har samme løsning (løsningsmengde) som det opprinnelige. Videre er det klart at ved et endelig antall skritt av denne typen kan en bringe et vilkårlig ligningssy­ stem over i et ligningssystem med den egenskap at = 0 for alle i > j. Dette gjelder også dersom det opprinnelige ligningssystemet har

17 det(M) — 0, eller om det helt generelt har m ligninger og n ukjente. Det endelige ligningssystemet er da slik at alle koeffisientene “un­ der diagonalen” er 0, eller mer presist: Det nederste venstre hjørnet av totalmatrisen til systemet

ai,i

^l,n

^m,l

består av bare nuller, og grensen for dette nullområdet er formet som en trapp med trinn av varierende lengde. Det gjør at en lett kan avgjøre om systemet har noen løsning, og i så fall finne løsningsmengden for det.

Mer presist sier vi at totalmatrisen er på trappeform dersom den har formatet beskrevet ovenfor, og dessuten følgende gjelder for alle rekker i matrisen som ikke består av bare nuller: Det første elementet forskjellig fra 0 er tallet 1. Dette er et normaliseringskrav, som vi lett realiserer ved å multiplisere en rekke der det eventuelt ikke er oppfylt med et tall 0, altså en rekkeoperasjon. For eksempel er totalmatrisen nedenfor ikke på trappeform fordi tredje rekke har første tall 0 lik 2: 0001034039 0000014130 0000000024 0000000001 0000000000 Men ved å multiplisere rekke nummer 3 med

0001034039 0000014130 0000000012 0000000001 0000000000

3

LINÆR ALGEBRA

1 0 8 1 0 får vi matrisen

1 0 4 1 0

18 som er på trappeform. Det første tallet forskjellig fra 0 i en rekke, som altså er 1 i en matrise på trappeform, kaller vi en ledende ener. Som vi ser, kan det godt finnes flere nuller ovenfor trappen, vi sier bare at under trappen er det bare nuller.

Det er klart at ved fortsatte rekkeoperasjoner kan vi bringe en slik matrise, som er på trappeform, over i en annen matrise det alle tallene som står over en ledende ener er null: Vi subtraherer bare fra rekken et passende multiplum av den rekken der den ledende eneren befinner seg. I matrisen ovenfor erstatter vi rekke nr.l med rekke nr.l - 3 x rekke nr.2: Ri Ri — 3 •

som gir 0 0 0 0 0

0 0 0 0 0

0 0 0 0 0

1 0 0 0 0

0 0 0 0 0

0 -8 -3 1 4 1 0 0 0 0 0 0 0 0 0

-6 3 1 0 0

9 1 0 0 4 1 1 0 0

Deretter erstatter vi rekke nr.2 med rekke nr.2 - 3 x rekke nr.3:

R2

R? — 3 • R%

som gir

’ 1 0 0 0 0

0 0 0 0 0

0 0 0 0 0

1 0 0 0 0

0 0 0 0 0

0 -8 -3 -6 9 1 1 4 1 0 -6 -12 1 4 0 0 0 2 0 0 0 0 1 1 0 0 0 0 0 0

så erstatter vi rekke nr.l med rekke nr.l + 6 x rekke nr.3: Ri :— Ri + 6 • 7?3

som gir

19

10 0 10 0 -8 -3 0 21 25 1 0 -6 -12 0 0 0 0 0 1 4 0 0 0 0 0 0 0 0 1 2 4 0 0 0 0 0 0 0 0 0 1 1 0 0 0 0 0 0 0 0 0 0 0

Endelig erstatter vi rekke nr.3 med rekke nr.3 - 2 x rekke nr.4, rekke nr.2 med rekke nr.2 4- 6 x rekke nr.4 og rekke nr.l med rekke nr.l - 21 x rekke nr.4 : ^3 := Rt - 2-^4 R2 ’= R% + 6 • 7?4

= Ri - 21 • R4

Ri

som gir

‘ 1 0 0 0 0

0 0 0 0 0

0 0 0 0 0

1 0 0 0 0

0 0 -8 0 14 0 0 0 0 0 0 0 0 0

-3 0 10 0 1 0 0 0 0

0 4 0 -6 0 2 1 1 0 0

Nå har matrisen den foreskrevne formen. Vi sier at en matrise på denne formen er på redusert trappeform. Element nr. 8 på rekke nr. 2 er 1, men dette er ikke en ledende ener. Elementet over denne eneren er —3, altså ikke null. Om det tilfeldigvis hadde stått 0 på denne plassen, ville selvsagt ikke dette forandret status for eneren. Merk også at element nr. 4 på rekke nr. 1 heller ikke er en ledende ener. For løsningsmetoden er det svært viktig at en ikke tar feil av hvor de ledende enerne befinner seg! De ukjente som svarer til (altså har som koeffisient) en ledende ener kalles ledende ukjente, de øvrige kalles for ikke ledende ukjente. Med den totalmatrisen vi har i eksemplet vårt ovenfor, er disse ukjente ledende: •^11

*^9 Og ^10-

Det endelige ligningssystemet har så mange ligninger som det er ledende ukjente, og vi ser at systemet bare kan bestemme de ledende

20

ukjente uttrykt ved de ikke ledende ukjente. Derfor kan de ikke ledende ukjente velges fritt. De settes derfor lik fritt varierende parametre, og de ledende ukjente finnes så uttrykt ved disse parametrene. Dette er lett dersom ligningssystemets totalmatrise er på redusert trappeform, litt mer omstendelig dersom systemet bare er på trappeform.

2.1.2

Om generelle ligningssystem og generelle løsninger.

Koeffisientene i A kan selv være avhengige av parametre, og en kan da drøfte hvilke verdier av parametrene som gir ligningssystemet forskjel­ lige egenskaper (løsbarhet, entydig løsning etc.) Generelt er systemet løsbart hvis og bare hvis

rang(yl) = rang(T) der vi minner om at rangen rang(B) til en matrise B er dimensjonen til matrisens rekkerom, som igjen er lik dimensjonen til søylerommet. Systemet har altså alltid løsning når b = 0 (som vi selvsagt lett ser direkte ved å sette inn x = 0 ). Når 6 = 0 sier vi at systemet er homogent. Ved å erstatte b med 0 fremkommer systemets tilhørende homogene ligningssystem. Løsningsmengden til et slikt ligningssystem er et vektorrom. Dersom den generelle løsningen av det tilhørende ho­ mogene ligningssystemet er

så blir den generelle løsningen av det opprinnelige systemet

der

21

^0,1

^0,n

er en spesiell (eller som en også sier partikulær) løsning av det opprin­ nelige systemet.

2.1.3

Cramers regel.

Dersom m = n kan en bruke Cramers Regel, som forutsetter utregning av determinantene det (A), det(Ai) der Ai er matrisen fremkommet av A ved å erstatte søyle nr. i med b. Cramers Teorem sier at systemet har en entydig bestemt løsning hvis og bare hvis det(4) / 0, nemlig

det(A-) . Xi~ det(A) ’ Formelen for løsningen går under navnet Cramers regel, men hvis det spørres etter denne regelen til eksamen bør en formulere det fulle teoremet. Hvis determinanten er lik 0, så kan to muligheter inntreffe: enten at systemet ikke har noen løsning i det hele tatt eller at det finnes mer enn en løsning. I det siste tilfellet finnes det faktisk uendelig mange løsninger, som en straks ser av forrige underparagraf.

2.1.4

Sammenligning av de to metodene

Vi skal så illustrere bruk av Cramers regel og bruk av Gauss - Jordansk eliminasjon ved et eksempel. Vi betrakter ligningssystemet nedenfor, og modifiserer det som angitt ved de vertikale pilene:

2x 2x 3x

+ ^y + 10^ + 5y + 13z + 6y + 16z

40 51 63

22

$ En gang (2.3) + 2y + 5z =20 + 5y + 132 = 51 + 6y + I62 = 63

x 2x 3.r

$ To ganger (2.4)

+ 2y + oz = 20 y + 32 = 11 2 = 3

x

$ To ganger (2.4) x +

2y y

=5 = 2 2 = 3

$ En gang (2.4) X

y

=1 = 2 2 = 3

Ved denne beregningen har vi måttet utføre 32 algebraiske op­ erasjoner, addisjon eller multiplikasjon av to reelle tall. Nå har dette eksemplet relativt pene tall. Noen av koeffisientene blir 1 eller faller bort ved ren “flaks”. Men i det verste tilfelle vil en likevel ikke trenge mer enn ^5 operasjoner. Vi regner så ved Cramers regel: ' 2 4 10 det(A) = det 2 5 13 3 6 16

23 = 2-5 -16+ 4-13- 3 +10- 2- 6 — 10- 5- 3 — 2-13-6 — 4-2-16 = 160 + 156 + 120 - 150 - 156 - 128 = 436 - 434 = 2

det(+i) = det

40 4 10 51 5 13 63 6 16

= 40 • 5 • 16 + 4 • 13 • 63 + 10 • 51 • 6 — 10 • 5 • 63 — 40 • 13 • 6 — 4 • 51 • 16 = 3200 + 3276 + 3060 - 3150 - 3120 - 3264 = 9536 - 9534 = 2

det(+2) — det

2 40 10 2 51 13 3 63 16

= 2 • 51 • 16 + 40 • 13 • 3 + 10 • 2 • 63 — 10 • 51 • 3 — 2 • 13 • 63 — 40 • 2 • 16 = 1632 + 1560 + 1260 - 1530 - 1638 - 1280 = 4452 - 4448 = 4

det(43) — det

2 4 40 5 51 6 63

= 2-5 -63+ 4-51- 3 +40- 2- 6- 40- 5- 3- 2-51- 6- 4- 2-63 = 630 + 612 + 480 - 600 - 612 - 504 = 1722 - 1716 = 6

En opptelling viser at vi bruker 71 operasjoner for å løse ligningssy­ stemet nå. Denne ulempen vil forsterke seg dramatisk når antall ukjente økes. En annen ulempe ved Cramers regel viser seg også tydelig i dette eksemplet: Selv om svarene vi skal frem til er små, så gir mellomreg­ ningene forholdsvis store tall. Dersom en skulle skrive et datamaskinprogram for å løse ligninger med 3 ukjente (og rimelig små koeffisienter) f.eks. i Turbo Pascal, så ville en ikke kunne regne med shortint rep­ resentasjon av hele tall, og integer ville også være farlig, selv om det går bra i dette eksemplet. Faren for overflyt i beregningene ville være tilstede, og gjøre nytten av et slikt program nokså tvilsom. Store tall i mellomregninger gir også problemer dersom en programmerer med real som representasjon av tallene en regner med: I så fall vil avrundingsfeil

24

i mellomregningene kunne gi store avvik i sluttresultatene, slik at hele beregningen blir verdiløs. Vi bør vel også nevne at ved Cramers regel får vi ikke den samme uttellingen for “flaksen” vi hadde med eksemplet ovenfor. Gauss - Jordansk eliminasjon er en raskere løsningsmetode for et ikke-singulært ligningssystem enn bruk av Cramers regel. Men dessuten er metoden bedre fordi den er mer generell: Her finner vi også den all­ menne løsningen for et singulært ligningssystem, altså også i det tilfelle der det(A) = 0. Metoden kan også brukes like godt for et generelt system med m ligninger og n ukjente.

2.1.5

Et enkelt bevis for Cramers Teorem

Cramers teorem har selvsagt teoretisk interesse, siden det sier at løsningen er entydig bestemt hvis (og bare hvis) ligningssystemet er ikke - singulært, altså det(A) 0. Men dette følger også lett av Gauss - Jor­ dansk eliminasjon! Faktisk kan en ved denne metoden få frem det aller enkleste beviset for Cramers regel. Vi skal ta dette enkle beviset med her, siden læreboken [1] beviser teoremet på en mer innviklet måte. Vi observerer først at determinantene det (A) og det(A2) forandrer fortegn ved operasjonen (2.2), blir uforandret ved (2.4), mens de begge blir multiplisert med faktoren k ved (2.3). Det er derfor nok å vise Cramers regel for et hvilket som helst ligningssystem som er fremkom­ met av det opprinnelige ved et endelig antall skritt av denne typen. Som beskrevet tidligere kan vi nå bringe systemet over i et ligningssy­ stem med totalmatrise på redusert trappeform. Vi kan altså anta at ligningssystemet har totalmatrise på redusert trappeform. Fra nå av antar vi dette. Spesielt er da alle tall under diagonalen i koeffisientmat risen til ligningssystemet lik null. Dersom det(A) 0, så vil dessuten koeffisientene på diagonalen alle være forskjellige fra null, fordi produktet av disse elementene jo er lik det (A). Men det betyr at alle elementene på diagonalen er fik 1, siden vi antar at matrisen er på redusert trappeform. Men da må også alle koeffisienter over diagonalen være lik 0. Systemets koeffisientmatrise er altså ikke noe annet enn enhetsmatnsen In. Cramers regel sier i dette tilfellet ganske enkelt at Xi = bi, som selvsagt er riktig. Med dette er da denne regelen bevist sammen med den ene implikasjonen i Cramers Teorem.

25

Hvis på den annen side det(?l) = 0, så har totalmatrisen til det trappeformete systemet minst en 0 på diagonalen, og systemet har der­ for enten ingen eller uendelig mange løsninger, avhengig av om vektoren b av konstanter ligger i koeffisientmatrisens søylerom eller ikke.

2.1.6

Gauss — Jordansk eliminasjon og matriseligninger

Beregningen av den inverse matrisen er et spesialtilfelle av å løse en matris elignmg

A-X = B

der A er en m x n - matrise, X en n x p - matrise og B en m x p matrise. Gauss - Jordansk eliminasjon lar seg gjennomføre nøyaktig som ovenfor også i dette tilfellet: Vi har bare beskrevet tilfellet p = 1. Best organiseres nå beregningene ved å betrakte systemets totalmatrise’.

T = [A\B]

Ved rekkeoperasjoner analoge til (2.2), (2.3) og (2.4) ovenfor kan denne matrisen bringes over i en matrise T', som er på redusert trappeform, og systemet kan deretter lett løses generelt. Dersom m = n og det (A) / 0, så innebærer dette at A er blitt erstattet av enhetsmatrisen In. Da står løsningen X til høyre for streken i matrisen T7', på plassen til B.

4

LINÆR ALGEBRA

26

2.2

Eksempel på oppgave om lineære lign­ ingssystemer Oppgave 1, V89.

a) Løs ligningssystemet x 4- 2y + 3z = 4 -2x 4- y z = 2 x -F y + 2z = 2 b) For hvilke verdier av parametrene 61,62,^3 er ligningssystemet x 4-2x+ x 4-

2y 4y y 4-

3z z 2z

= bi = b2 = 63

løsbart? c) For hvilke verdier av parameteren c har systemet x 4cz = 2 y + z = 2 cx 42y 4- 3cz = 8 i) en løsning, ii) mer enn en løsning, iii) ingen løsning ? d) For hvilke verdier av parameteren c har systemet i a) og c) felles løsninger? Angi løsningene. Løsning :

12 3 4 -21-12 11 2 2

$ 4 1 2 3 0 5 5 10 0 -1 -1 —2

27

1 2 3 4 0 1 1 2 0 5 5 10

1 2 3 4 0 1 1 2 0 0 0 0

1 0 1 0 0 1 1 2 0 0 0 0 Her er den siste matrisen på redusert trappeform. Der er en ikke ledende ukjent, nemlig z. Denne settes lik den fritt varierende param­ eteren u. Vi får altså

z=u

y+z=2

det vil si y = 2 — u

x+z=0

det vil si x = —u

som gir x y z

—u 2—u u



‘ -1 ‘ 0 ' 2 + u -1 1 0

Vi bør sjekke svaret ved å sette prøve:

temet da

0 2 0

er en løsning av sys­

28

0 + 2-2 + 3-0 = 4 —2 -0 + 2-0 =2 0 + 2 + 2-0 = 2

Videre er

en løsning av det tilhørende homogene ligningssy-

stemet da

—1 + 2 • (—1) + 3 • 1 = 0 —2 • (—1) + (—1) — 1 = 2 -1 + (-1) + 2 • 1 = 2 Denne prøven viser bare at den “generelle løsningen” vi har funnet virkelig er en løsning av systemet. At den også er den generelle løsningen viser denne prøven derimot ikke. Men en slik prøve er likevel verdifull, og bør derfor alltid utføres. Den kan hjelpe oss å finne feil i våre utreg­ ninger, og spare oss for merarbeid og ergrelser!

b) Her er det viktig å legge merke til at bortsett fra konstantene har vi samme ligningssystem som i a). Dette gjør at vi kan bruke de samme rekkeoperasjonene som i a). 12 3 -2 1 -1 b2 11 2 63

12 3 4 0 5 5 62+ 261 0 -1 -1 &3-&1 $

12 0 1 0 5

34 1 &i — &3 5 62 + 26!

29

1 2 3 4 0 1 1 ^1 — 63 0 0 0 62 — 3&i 4- 563

Av dette får vi at ligningssystemet har løsning (er konsistent) 62 — 3&i 4* 563 = 0 Her bør vi også sette en prøve på om svaret er rimelig, og det kan vi gjøre ved å sette inn verdiene fra a). Vi får at 62 - 36j + 563 = 2 - 3 • 4 + 5 • 2 = 0, som stemmer med at systemet i a) har løsning.

0 c 2 1 1 2 2 3c 8

10c 2 0 11 2 0 —2 c2 — 3c 2c-8

10 c 2 0 1 1 2 0 0 c2 - 3c 4- 2 2c - 4 Vi har at

c2 - 3c 4- 2 = (c - l)(c - 2), 2c - 4 = 2(c - 2) slik at vi får følgende svar på punkt c):

30 i) En løsning dersom c / 1,2. ii) Mer enn en løsning dersom c = 2. iii) Ingen løsning dersom c = 1.

d) For å finne mulige felles løsninger, setter vi den generelle løsningen fra a) inn i systemet i c): 1) 2) 3)

-u 2-u -cu 4-

4- cu = 2 + u = 2 4- 3cu = 8

2(2 - u)

2) er trivielt oppfylt, så vi får 1) 3) -u

-u 44-

cu = cu =

2 2

Vi får altså:

u(c — 1) = 2 og må derfor ha at

c/1

for at de to systemene skal kunne ha felles løsning. Dersom c / 1, så har systemene som en lett ser også virkelig en felles løsning, gitt ved

Kapittel 3 Vektorrom, basiser og koordinater med hensyn på en basis 3.1

Vektorrom, lineær uavhengighet og basis.

La V være en mengde der det er definert en operasjon + kalt addisjon mellom to vilkårlige elementer fra V, og en operasjon • kalt multip­ likasjon mellom et vilkårlig reelt tall og et element fra V: («,!>)

u + V

a•v

(a, v)

Vi skriver ofte av_ istedenfor q • v. Vi sier at V er et (reelt) vektorrom dersom egenskapene på side 150 i [1] er tilfredsstilt. Bemerkning. Når vi hele tiden her taler om reelle tall, kommer det selvfølgelig bare av at vi i dette kurset innskrenker oss til utelukkende å betrakte reelle vektorrom. Men som vi lett kan overbevise oss om, holder all teorien fra lineær algebra også for vektorrom, matriser o.s.v. over tallsystemet (eller kroppen) C av de komplekse tall (eller de ima­ ginære tall, som de også kalles). Dessuten kan vi bruke tallsystemer 31

32 som Z2 eller Z3, hvorav særlig det første er viktig for anvendelser in­ nen informatikken. Det vi trenger for å kunne utføre lineær algebra er et tallsystem der de vanlige regneoperasjonene addisjon, multiplikasjon og divisjon med tall 0 kan utføres slik at de vanlige regnereglene fremdeles holder. Men dette er ikke pensum i Ml21, så bare glem Z2 akkurat nå.

De viktigste eksemplene på vektorrom er Rn, mengden av alle n tupler av reelle tall (side 144), mengden av alle m x n - matriser (side 157 og 174) og mengden Pn av alle polynomer av grad < n med reelle koeffisienter (side 157, alle henvisningene er til [1]). Et lineært underrom er en delmengde W C V som selv er et vektor­ rom med hensyn på de opersajonene + og • som er gitt i V, side 155. En viser lett at W er et lineært underrom hvis og bare hvis u, v e W => u + v E VE og cm E W for alle

q,

side 156. Vi sier at elementene r15 ..., vr i vektorrommet V er lineært avhengige dersom det finnes tall k±,... ,kr, som ikke alle er 0, slik at + ... + krvr = 0.

Dersom ikke er lineært avhengige, sier vi at de er lineært uavhengige. Dette betyr altså at ,..., vr er lineært uavhengige dersom + . •. + krvr = 0

Se [1], side 164. Disse begrepene hører til de mest sentrale innenfor teorien for lineær algebra: Forståelsen av nesten all teori forutsetter at en kan disse def­ inisjonene, og at en kan avgjøre om gitte elementer ..., vr er lineært avhengige eller uavhengige. Begrepene er også enkle nok til at de ikke skulle representere noen uoverstigelig vanskelighet. Det er derfor nesten

33 sjokkerende å se igjen og igjen at ganske mange eksamenskandidater ikke behersker dette. Her må det bare sterkt understrekes at defin­ isjonene ovenfor må læres utenat. Grammatikk og matematikk har det til felles at pugg og øvelse er inngangsbiletten. Hvor mye den enkelte må legge i det av innsats vil variere, men alle vil se gode resultater av godt arbeid. La nå S C V være en vilkårlig delmemgde. S trenger ikke å være et lineært underrom, men hvis vi utvider S ved å ved å ta med alle mulige lineærkombinasjoner (se side 159 i [1]) av ethvert endelig antall elementer fra S, så får vi et lineært underrom som vi betegner med lin(S): u= + ... + krvr der ki, ..., kr G R * og vi, ...,vr e S

Dersom S er et lineært underrom av V, så er lin(S) = S. Generelt er /m(S) det minste lineære underrommet av V som inneholder S. Dersom S er en endelig mengde, S = {t^,..., vm}, så blir

lin{S) = {u \u = kiih + ... + kmvm der ku ..., km e R}

fordi vi kan ta noen av k - ene lik med null, og derfor like godt kan ta med alle elementene i S i lineærkombinasjonene. En basis for vektorrommet V er en mengde B =

Mn}

slik at lin(B) — V og B er lineært uavhengig (altså at elementene i B er linært uavhengige). Se side 171 i [1]. To basiser for samme vektorrom V har alltid samme antall ele­ menter, se side 175. Dette antallet kalles dimensjonen til V. En mengde av lineært uavhengige elementer i et n - dimensjonalt vektorrom V kan alltid utvides til en basis for V, side 177. Av disse to observasjonene følger det at dersom vi har funnet n lineært uavhengige elementer i et vektorrom som vi på forhånd vet at er n - dimensjonalt, så utgjør disse elementene en basis for dette vektorrommet: Hvis ikke, så kunne vi utvide mengden til en basis, som da måtte ha fler enn n elementer.

5

LINÆR ALGEBRA

34 En annen viktig observasjon er følgende: La S = {v1?...,rr} være en mengde av elementer fra et vektorrom V, og anta at ikke alle elementene i S er 0. Da kan vi alltid velge ut en basis for Zm(S) fra mengden S. Siden dette enkle og nyttige prinsippet ikke kommer helt klart frem i [1], skal vi bevise det her: La W = lin(S). Etter en omnummerering om nødvendig, kan vi anta at =4 0. Sett Si = {£i}. La Wi = lin(Si). Dersom Wi = W, er vi ferdige, siden Si er en lineært uavhengig mengde: Den består jo av ett eneste element, / 0. Dersom Wi W, så må det finnes et element fra S utenfor W]. Om nødvendig etter en omnummerering kan vi anta at dette er elementet v2. La $2 — {Li,L2} og sett W2 = lin(S2). Dersom W2 = TE, er vi ferdige, siden S2 er en lineært uavhengig mengde. (Å vise dette er en lett øvelse i bruk av definisjonen på lineær uavhengighet og lineær avhengighet, og overlates derfor til leseren. Gjennomfør denne oppgaven, nål) Dersom W2 TE, så må det finnes et element fra S utenfor W2. Om nødvendig etter en omnummerering kan vi anta at dette er elementet v^. Nå er det klart hvorledes dette fortsetter med valg av lineært uavhengige elementer fra S hver gang det andre alternativet Wi ± W inntreffer. Men siden vi bare har r elementer i S, må før eller senere det første alternativet inntreffe, og vi er ferdige.

3.2

Mer om basiser og koordinater med hensyn på en basis.

La B = {r1?..., være en basis for vektorrommet V. Et vilkårlig element v E V kan da skrives entydig som L = ^lLi + •.. +

xnvn

Vi setter da (^i ? • • •,

og

X1

B xn

xn)

35 (v)b kalles koordmatvektoren til v med hensyn på B, mens [v]B kalles koordinatmatrisen til v med hensyn på B. Et bedre navn hadde utvil­ somt vært en fordel, den ene er ikke mer matrise enn den andre. Per­ sonlig foretrekker jeg det litt mer omstendelige navnet koordinatvektoren skrevet på søyleform^ dersom det da er fare for misforståelser. Tilsvarende skulle den første vektoren kunne presiseres som koordinatvektoren skrevet på rekkeform. Se sidene 222 og 223 i [1]. Vi kan ellers merke oss den praktiske skrivemåten

altså V

= [vi,...,vn] •

der vi utfører en ^^matrisemultiplikasJon,, (se side 26 i [1]), som må forståes slik at den første “matrisen” [rx,..., v«] har elementer som ikke er tall, men vektorer. Siden de vanlige regnereglene gjelder for multiplikasjon av et reelt tall med en vektor, kan vi også utvide ma­ trisemultiplikasjon på denne måten. Strengt tatt må vi her gjøre opp­ merksom på at vi nå skriver u • a = ug for produktet av vektoren u med det reelle tallet a. Vi avgjør om B' = {z^,..., u'n} er en basis for V ved å undersøke om vektorligningen xiH-------F xnuri = b

har en og bare en løsning for alle valg av b E V. Dersom V = Rn, og

( ix Ui' = (u

så gir Cramers Regel at dette er ekvivalent med at Ul,l

W fra vektorromet V til vektorrommet W. På engelsk kaller en gjerne V for the domain of T. Dette er språkbruken i [1], på side 245. W går under forskjellige navn, men forblir udøpt i [1]. Derimot innføres det vanlige engelske navnet range på underrommet R(T) = T(V), mer om dette nedenfor. På norsk kan en vel ganske enkelt kalle V for frarommet og W for tilrommet for trans­ formasjonen T. Tilsvarende er det nå mer vanlig å kalle rommene for source space og target space på engelsk, den språklige analogien med kopiering av dataprogrammer er ikke helt tilfeldig. Dersom B er en basis for V og C er en basis for W,

B =

så definerer vi en matrise A ved ^=[[U«i)]c|[T(«2)]c|...|[T(un)]c] der

W

47

48 er koordmatmatrisen til T(wt-) med hensyn på basisen C, altså koordinatvektoren til T(ut-) med hensyn på C, skrevet på søyleform: Hvis

T(ui) -

+ ... + am V er en lineær operator med A = [T] B , og en skal finne [T]B/ for en annen basis B', så må en altså først regne ut matrisen P: p = [[«'i]b|---|[K]b1 og så bruke formelen ovenfor. Dersom en ønsker å undersøke om det finnes en basis for V slik at T er gitt ved en diagonalmatnse, må en regne ut egenverdiene til T og finne de tilhørende egenvektorene (egenrommene). Dersom det finnes n =■ dim(V) lineært uavhengige egenvektorer, så finnes det en slik basis. Se nærmere om dette under Kapittel 5. Vi skal nå repetere de sentrale definisjonene ker(T), R(T) samt berepene nullitet og rang, side 257 i [1]. Dessuten vil vi minne om den viktige relasjonen mellom nulliteten og rangen til en lineær transfor­ masjon, se side 258. La T : V —> W være en lineær transformasjon, altså en lineær avbildning fra et vektorrom V til et vektorrom W. Kjernen ker(T)

7

LINÆR ALGEBRA

50 til T er definert som mengden av alle elementer i V som avbildes til nullelementet i W, altså

ker(T) = {r

6

V| T(v) = O^ }

Det er lett å se at ker(T) er et lineært underrom av V. Prøv å vise dette! Dimensjonen til dette vektorrommet kaller vi for nulliteten til T. Rekkevidden R(T) til transformasjonen T er definert som billedmengden til T, altså

R(T) = {weW\3vE Vslik at T(v) = w} Det er igjen en lett oppgave i bruken av definisjonene å vise at dette er et lineært underrom av vektorrommet W. Dimensjonen til dette vektorrommet kaller vi for rangen til T, dette tallet betegner vi med rang(T). Tilsvarende skriver vi null(T) for nulliteten til T. Vi har nå følgende viktige relasjon mellom disse to tallene:

Teorem. La T : V —> W være en lineær transformasjon. Da er rang(T) T null(T) = dim(V).

Bevis. Her skal vi anta at V og W er vektorrom av endelig dimen­ sjon, selv om det er nokså lett å se at teoremet også er riktig uten denne antakelsen. Vi setter dini{V) = n, og dim(W) = m. Vi velger oss en basis i V og en basis i IV, og får en m x n matrise A for T med hensyn på disse basisene, «1,1

«l,n

«m,l

Det er nå klart at koordinatvektorene til elementene i underrommet ker(T) av V utgjør et underrom av Rn som består av nettopp de vek­ torene i x = (xi,..., xn) 6 Rn slik at

0 Xn

0

51

Tilsvarende utgjør koordinat vekt orene til elementene i R(T) et underrom av Rm som består av nettopp de vektorene i y = (z/i,... , ?/m) E R" som er slik at ligningssystemet

liar løsning. Disse to underrommene har dimensjon henholdsvis lik null(T) og rang^T), og er henholdsvis nullrommet og rekkevidden til den lineære transformasjonen mA : Rn —» Rm gitt som multiplikasjon med A\ «1

mA(

Vi har altså redusert vårt bevisproblem til å vise teoremet for den lineære transformasjonen mA definert som multiplikasjon med matrisen A. Vi antar derfor at V = Rn. W = Rm og at T er multiplikasjon med A, «i

«n

Men nå har vi at rekkevidden til denne transformasjonen er søylerommet til matrisen A: Søylene i matrisen er jo bildene av vektorene i standardbasisen til RT På den annen side vet vi at dimensjonen til rekkerommet for en matrise er lik dimensjonen til søylerommet, se [1] Theorem 14 på side 183. Men som vi har sett ovenfor er Nullrommet ker(T) ikke noe annet enn løsningsrommet til et ligningssystem som har totalmatrise «1,1

«m,l

«l,n

52 Som vanlig bringer vi nå denne matrisen over på redusert trappe­ form ved et endelig antall rekkeoperasjoner, og finner at den generelle løsningen er avhengig av r uvavhengig varierende parametere, der r er antall ikke - ledende ukjente i det ekvivalente ligningssystemet som svarer til den trappeformede matrisen. Dimensjonen til løsningsrommet er altså r, slik at r = null(T). Men rangen til T er etter det vi har sett lik dimensjonen til rekkerommet til matrisen A, som nettopp er antall ledende enere i den trappeformede matrisen, altså antall ledende ukjente i det tilhørende ligningssystemet. Siden vi alt i alt har n ukjente, følger

rang(T) + null(T) = n,

hvilket skulle bevises. En sørgelig feil som vi dessverre ofte ser i eksamensbesvarelser går ut på å skrive m i stedenfor n i denne formelen. Husker en på beviset trenger en ikke å være i tvil om hva som er det riktige: Det er antall ukjente i ligningssystemet med matrise A som inngår i formelen, og (selvsagt) ikke antall ligninger! Merk at vi også viste ovenfor at rang(T) = rang(^4).

4.2

Løste oppgaver

Oppgave 1, H89. a) Hvorledes definerer vi den transponerte matrisen A1 til en m x nmatrise Al

b) Nevn de fire grunnleggende regnereglene for matrisetransponering. c) Vis at mengden S2.2 av alle symmetriske 2 x 2-matriser er et underrom av det lineære rommet M2,2 av alle 2 x 2-matriser. Hvilken dimensjon har S2;2? Skriv opp en basis for det.

d) Definer en funksjon F : M2,2

^2,2 slik:

F(X) = X\ Vis at F er en lineær transformasjon.

53 e) Finn egenverdiene til F og de egenrommene som hører til dem.

Løsning: a) Hvis

sa er A — [®j,z]nxm

i) (Ay ii) (A F BY iii) (ABy iv) (kAy

= = = =

A

AfB1 BtA k^A*)

c)

A 6 5*2,2

At — A

A,B € S2j2 => A = A og Bf = B => (A +B)f = A +B

=> A + B G S2 2 A G S2,2 => A = A => (kAy = kA = kA

=> kA G S22 Herav følger at S2,2 er et lineært underrom. ^2,2 —
utgjør en basis for S2)2. (Bevis at 0 1 0 0 1 0 disse elementene er lineært uavhengige!) Så
F(A + B) = (A + B)1 = A* + Bl = F(A) + F(B) F(kA) = kF(A) følger tilsvarende av iv)

54 e) Vi setter

Ei

1 0 1 _ r 0 1 0 0 ’-2“ 0 0

0 0

T 0

Disse utgjør en basis B for 71^2,2• Vi har

a b c d

= ay_x + bv_2 + cv^ + dv4

Vi har nå

F(vi) = Hi,F(r2) = v^ F^) = v2,F(vA) = H4, slik at

f 1 0 [F]b = 0 0

0 0 1 0

0 1 0 0

0 ' 0 0 1

Egenverdiene til denne matrisen finner vi av ligningen:

' Å- 1 0 det 0 0

0 Å -1 0

0 -1 Å 0 Å

0 0 =0 0 -1 .

altså

(A-l)2

eller med andre ord

Å -1 -1 Å

=0

0 0 0 1

55

(A — 1)2(A2 — 1) = (A-1)3(A + 1) = 0

som gir egenverdiene

Egenrommet til Å = 1 : Vi må løse ligningssystemet

0 0 0 0 ' 1 -1 0 0 1 0 0 -1 0 0 0 0 .

Xi

X4

■ 0 ' 0 — 0 . 0 .

og danner totalmatrisen som så forenkles ved Gauss - Jordansk elimi­ nasjon:

0 0 0 0 1 -1 0 0 1 0 0 -1 0 0 0 0

' 0 0 0 0

0 ' 0 0 0

1 -1 0 0 ' 0 0 0 0 0 0 0 0 0 0 0 0

Her er det bare en ledende ukjent, nemlig x2. Vi setter atså #i,æ3 og lik uavhengige fritt varierende parametere:

Xx = u x^ = v x4 = w

56

og finner så x2 ved x2 - a?3 = 0

det vil si at x2 = v. Vi får altså:

{Vl, 412 +113,214}

Egenrommet til Å = —1 : Vi må løse ligningssystemet

‘ —2 0 0 ' 0 0 0 -1 -1 0 0 -1 -1 0 0 -2 . 0

Xi

.r4

' 0 ' 0 0 . 0 .

Dette systemet har totalmatrisen

’ -2 0 0 0 0 0 0 0 -1 -1 0 0 0 -1 -1 0 0 0 -2 0 som vi ved rekkeoperasjoner kan overføre til

‘ 1 0 0 0

0 1 0 0

0 1 0 0

0 0 1 0

0 0 0 0

Her har vi altså at x 3 er den eneste ikke - ledende ukjente, og vi får på samme måte som ovenfor at

57



’ £1 ■

^2

=u

^3 a?4

‘ 0 ' 0 ' 1 -1 — —u -1 1 0 . 0 .

Egenrommet til Å = — 1 har basisen {v2 — v3} Dette punktet kan løses enklere ved en metode som er ikke - stan­ dard (ved et triks): Vi ser at

1 0 1 _ 1 0 0 0 “00

0 0 0 1

0 0 ”01

det vil si at F(vx) = v4

det vil si at

= n4

0 11- 00 0 0 “10

det vil si at F(v2) = H3

°10° r “ _ r 00 °1

det vil si at F(v^) = v2

Så F(n2 + H3) =113+112

F(h2

-113) = -(1I2 -H3)

Så + H3 er alle egenvektorer, med samme egenverdi Å = 1, og H2 — H3 er en egenvektor med egenverdi Å = — 1. Nå gjenstår det bare et lite teoretisk argument som viser at disse egenvektorene utspenner de respektive egenrommene. Se forøvrig REM ARK nederst på side 315 i [1] for det generelle resultatet som kan brukes her. Det følger forholdsvis lett fra Theorem 3 på side 314. Prøv å gjennomføre dette

8

LINÆR ALGEBRA

58

beviset. Her kan en faktisk si at med en noenlunde brukbar beherskelse av teorien, burde denne oppgaven vært redusert til hoderegning. I alle fall kunne svært mye arbeid vært spart om den hurtigste metoden var blitt valgt. Og en eller to slike innsparinger kan redde en eksamenskandi­ dat fra å komme i tidsnød, slik at en fullstendig besvarelse av andre punkter og oppgaver kan gjøres ferdig. Dette er en viktig ting å ta med ved eksamenstreningen: Se etter enkle løsningsmetoder, de finnes som regel. Men en finner dem ikke uten å ha trent opp denne ferdigheten på forhånd. Enda et moment til slutt: Den siste metoden er også bedre fordi den er mindre sårbar for regnefeil enn den første. Ekstra oppgave.

Løs samme problem med F (A) = —A1. Oppgave 2, prøveeksamen V 90. Gitt matrisen '1 0 0 0 0 0' 0 112 0 0 0 2 0 0 0 0 0 0 0 0 1 1 a) Finn dimensjonen av matrisens rekkerom og matrisens søylerom.

b) La T : R4 —> R6 være gitt $1

Xl

Finn rang og nullitet til T, og avgjør om

(i,i,i,i,i,i) e b(T).

59 c)

La B = {«!, U2, «3, W4} c R4,

der «1 = (1,1,1,1),«2 = (0,1,1,1),«3 = (0,0,1,1),«4 = (0,0,0,1).

Vis at B er en basis for R4. d) La S C R6 være standardbasisen. Finn matrisen

[Ufi.SLøsning: a) Rekkerommet og søylerommet har samme dimensjon, dermed er det nok å se på rekkerommet. Vi omformer matrisen ved rekkeoper asjoner som følger: '1 0 0 .0

0 0 00 112 0 2 0 00 0 0 01

0' 0 0 1.

I

0 0 0 0 0' 1 0 00 0 0 1 20 0 0 0 01 1 Altså har vi at dimensjonen til rekkerommet er 4. Men dette er en tungvint metode for en så oversiktlig matrise. Her bør man se med en gang at om vi velger søylene nr. 1, 2,3 og 5 så får vi en 4 x 4 matrise med determinant 0. '1 0 0 0

b) Vi har pr. definisjon at rang(T) = dimR(T). Dersom rly r_2, r4 betegner rekkene i matrisen A, så er

II

f-t

0

II

éT

'1000' 0 12 0 0 10 0 0 2 0 0 0 0 0 1 .0 0 0 1.

' 1 ' 0 0 . 0 .

1 —2

' 0 ' 1 0 0

etc.

°g

60 altså er 7?(T) lik rekkerommet til A, og det er som vi har sett av dimensjon = 4. Siden vi vet at nullitet + rang = 4 (dimensjonen til frarommet) så er nulliteten til denne transformasjonen = 0. For å avgjøre om (1,1,1 1, 1,1) G R(T), må vi avgjøre om systemet ’ 1 0 0 0 0 _ o

0 1 1 2 0 o

0 2 0 0 0 0

0 ' 0 0 0 1 1 _

' 1 ' 1 1 1 1 _ 1 .

X2 ^3 X4

er konsistent: Totalmatrisen er '10 0 0 12 0 10 0 2 0 0 0 0 .0 0 0

0 0 0 0 1 1

1 ' 1 1 1 1 1 .

som ved rekkeoperasjoner overføres til matrisen 1 0 0 0 0 0

0 1 0 0 0 0

0 0 1 0 0 0

0 0 0 1 0 0

1 1 0 1 1 0

Her er rangen til totalmatrisen større enn rangen til koeffisientmatrisen, systemet er derfor inkonsistent, slik at (1,1,1,1,1,1) £ R(T). Istedenfor å resonnere med rangene, kan vi også ganske enkelt kon­ statere at ligningssystemet som svarer til den siste totalmatrisen må være selvmotsigende, fordi ligning nr. 5 sier at 0 = 1

61

Husker en sammenhengen mellom rangen til en transformasjon og rangen til dens matrise, kan en spare seg en del skrivearbeid på den første delen av dette punktet. c)

B er lineært uavhengig da 10 0 0 110 0 1110 1111

= 1 7^0

Da B består av 4 = dimR4 vektorer, er derfor B en basis for R4. d) Da S er standardbasisen er det lett å finne koordinatmatrisen med hensyn på 5. Vi får

[T]b,s = [T(uJ |T(u2)

|T(«4)]

der

' 0 ' 2

1 2 1

1 1 1

0 1 1

' 0 ' 0 0 0 1 1

Kapittel 5 Egenverdier, egenvektorer og diagonalisering 5.1

Oppsummering av teori

For analysen av n x n - matriser og de lineære operatorer som de gir opphav til, spiller begrepene egenverdi og egenvektor en viktig rolle.

La A være en n x n matrise,

«1,1

«1,2

«l,n

«2,1

«2,2

«2,n

«n,l

«n,2

Vi sier at vektoren

er en egenvektor for A, dersom

æ

63

0 og

64

A • x — Xx_

for ett eller annet reelt tall Å, altså «1,1

«1,2





«l,n

«2,1

«2,2





«2,n

«n,l

«n,2



«n,n .

Xxi Xx2

’ ^1 '



^2

xn



Xxn

Å kalles da egenverdien som svarer til egenvektoren x, og vi sier at egenvektoren x hører til egenverdien Å. Dersom

er en lineær operator, det vil si en lineær avbildning (transformasjon) fra et vektorrom V til seg selv, da sier vi at vektoren x E V (altså elementet x E V) er en egenvektor for f dersom x / 0 og /(x) = At

for et passende reelt tall Å. Vi skal så gi metoden til å regne ut egenverdiene og de tilhørende egenvekt orene for en matrise. Vektoren ^1 £2

•^n

er en egenvektor for matrisen A med tilhørende egenverdi Å dersom

A • x = Xx,

altså dersom (A-I - A)-z = 0,

65 eller med andre ord —«i,2

Å —

A — «2,2

— «2,1

®n,l

• • •

— «l,n

• • •

-«2,n

^n,2

Dette betyr at

er en egentlig løsning (det vil si en løsning forskjellig fra 0) av det homogene ligningssystemet A — «1,1 —«2,1

«n,l

~«1,2 A — «2,2

~a2,n

• ■, .

«n,2

®l,n

• •

A

«n,n

Dette ligningssystemet har en egentlig løsning hvis og bare hvis A — «i,i

— «1,2

• • •

“«l,n

~ «2,1

A — «2,2

• • •

” &2,n

®n,l

^n,2

• • •

A

(^n,n

ifølge Cramers Teorem. Utregning av denne determinanten gir en lign­ ing, og røttene i denne ligningen er egenverdiene til matrisen. La Ai i A2,..., Ar

betegne disse røttene - der vi ikke gjentar eventuelle multiple røtter. Egenrommet ^(Aj) som hører til egenverdien Ai er løsningsrommet til det homogene, lineære ligningssystemet Al — «1,1

—«1,2

• • •

~«l,n

— «2,1

Ai — «2,2

• • •

~^2,n

^n,2

9

L1NÆR ALGEBRA

• ■ •

Ai

(^n,n

66 egenrommet E’(Å2) er løsningsrommet til

— «2,1

• ■• •

^n,2

«n,l

®l,n

• • • ■ •

— «1,2 ^2 — a2,2

2 — al,l

^2,n

^n,n

^2

og så videre, egenrommet E(Xr) er løsningsrommet til r

■ •

«l,n

• ■> •

«2,n

~«1,2

@1,1

— «2,2

— «2,1

• ■> .

«n,2

^n,l

År

«n,n

Sammenhengen mellom egenverdier og egenvektorer for matriser og for lineære operatorer består i at dersom

[«ij I 1 < iJ < «]

«1,1

«1,2

• ■• •

«l,n

«2,1

«2,2

• ■• •

«2,n

«n,l

«n,2

• ■• •

«n,n

er en matrise, og vi definerer den lineære operatoren

f : Rn —> R? som multiplikasjon med A,

£(

\

/(æ) =

«1,1

«1,2





«l,n

•^1

«2,1

«2,2





«2,n

^2

. « n, 1

«n,2



«n,n _

67

^2

så blir egenverdiene og egenvekt orene til f de samme som for A. I sammenhengen mellom egenverdier og egenvektorer for matrisen A og operatoren (transformasjonen) f beskrevet ovenfor, er A standardmatnsen til /, altså matrisen til f med hensyn på standardbasisen for Rn, S —

—2’ • • • i —n}

der

ej = (1,0,..., 0), e2 = (0,1,... ,0),... ,en = (0,0,...,1)

Men den samme sammenhengen gjelder også dersom vi betrakter en generell basis for R71,

B - {ui,u2,...,un} der Ul



(^1,1 ? ^2,1, • ■ • , ^n,l),

U.2



(wl,25w2,2> •• • )wn,2),

^2,m • • • •> ^n,n)*

Dersom nå A er koordinatmatrisen til f med hensyn på basisen B, altså A = [/]#, så har vi relasjomen [/U)]b = A • [z]B

68 Det er da klart at Å er en egenverdi for f med tilhørende egenvektor x hvis og bare hvis Å er en egenverdi for A = [/]# med tilhørende egenvektor [æ]b. Et viktig problem er nå følgende: Gitt en lineær transformasjon

f : Rn —> Rn definert som multiplikasjon med matrisen «1,1

«1,2





«l,n

«2,1

«2,2





«2,n

. «n,l

«n,2



«n,n

A =

eller mer generelt, som har koordinatmatnsen A med hensyn på basisen B. Finnes det da en basis B' for Rn slik at med hensyn på denne ba­ sisen blir f gitt ved en diagonalmatnse?

Vi lar B være gitt som ovenfor, og lar tilsvarende B' = der ^1

«2

—n



(«1,1’ «2,1’ / / 1,2’ «2,2’

(«l,n

«2n’*'* ’ «n n

Som vanlig lar vi P betegne overgangsmatrisen fra koordinater med hensyn på basisen B' til koordinater med hensyn på basisen B. Se paragraf 3.2 for metoden til å finne P. Vi har da relasjonene

P ■ [x]b' = [x]b

69 og dessuten siden A er koordinatmatrisen til f med hensyn på B,

[/U)]b = A ■ [x]B Men dette gir straks

P ■ [/U)]b' = A- P ■ [x]B,

slik at vi til slutt får [/(*>' = P-1 • A ■ P ■ [z]b'

eller skrevet på en annen måte, I/]b' = P~' • [/]b ' P De utregningene vi må foreta for å få nytte av dette blir noe enklere dersom B er standardbasisen S. Hvorfor? Skriv opp hvorledes du vil finne matrisene A og P. Vi sier at A er diagonaliserbar når vi kan finne en matrise P med determinant / 0 slik at A =P 1A P = Diag(X\,..., Ån),

altså slik at A er en diagonalmatrise, "Å! 0

0 ... 0 ’ Å2 ... 0

.0

0 ... Xn _

I situasjonen ovenfor betyr dette at med hensyn på den nye basisen B' er f gitt ved en diagonalmatrise. Det er ikke alltid mulig å finne en ny basis med denne egenskapen, eller sagt med andre ord, ikke alle n x n matriser er diagonaliserbare. Vi kan lett se hvorfor. Anta at B' er en ny basis, slik at [/]b' er en diagonalmatrise som ovenfor. Vi beholder notasjonene ovenfor, og har at

70

[/(Ui)]b' = [/]b' • [«'Jb'

[/(«2)]b' = [/]b--[^]b-

[/(«n)]fl' =

lf]B'

■ [««]-B'

Dette er ekvivalent med at

' 1 ‘ 0

Ai 0

. 0 .

0

■ 0 ■ 1

■ 0 ■ A2

. 0 .

0

■ 0 i 0

■ 0 ■ 0

[/(«1)]b< = a1 ■

[/(«2)]b' = A'.

••

[/(Ob' = A! -

=

_ 1 _

Men det betyr at /(«;) =- Al w'1

/(«2) =-

f(«n) = Anw'n

De nye basisvektorene er altså alle egenvekt orer for f. Tilsvarende blir de nye basisvektorenes koordinatmatriser m.h.p. B (koordinatvektorer på søyleform) egenvektorer for matrisen A:

71

A • [111]b — ^1[Mi]b A • [ll^B — ^2[H2]B

A ‘ [Mh]b — ^n[lln]B Dette resonnementet går også omvendt vei, slik at vi har følgende viktige resultat: TEOREM En n x n matrise A er diagonaliserbar hvis og bare hvis

den har n lineært uavhengige egenvektorer. Matrisen P blir over­ gangsmatrisen fra koordinater med hensyn på den nye basisen B' som består av de lineært uavhengige egenvektorene til koordinater med hen­ syn på standardbasisen: Vi får — [[Hils I [—2)5 I • • • I [llnlsl

= [[«;] 1

1... 1 [«'n

Søylene i P er altså de lineært uavhengige egenvektorene som vi har funnet. Den nye matrisen

A' =

P^AP

blir diagonalmatrisen gitt ved egenverdiene som svarer til de respektive vektorene i den nye basisen av egenvektorer. I et viktig spesialtilfelle er det nok å bare regne ut alle egenverdi­ ene til matrisen: Dersom matrisen har n forskjellige egenverdier, og vi velger en egenvektor som svarer til hver egenverdi, så må disse egen­ vektorene være lineært uavhengige, se Theorem 3 og Theorem 4 på sidene 314, 315 i læreboken. Men dersom matrisen har færre enn n

72

egenverdier, da må vi finne alle egenrommene for å undersøke om det eksisterer n lineært uavhengige egenvektorer. Men se også REMARK nederst på side 315 i læreboken. Et annet, men beslektet begrep er en ortogonalt diagonaliserbar matrise: Vi sier at matrisen A er ortogonalt diagonaliserbar dersom den er diagonaliserbar ved hjelp av en matrise P som ovenfor, der matrisen P er en ortogonal matrise, side 232 i [1]: Det vil si at F-1 = pt som igjen betyr at søylene (eller ekvivalent, rekkene) i F er en ortonormal basis for Rn, se side 209 i læreboken. Dette er igjen ekvivalent med at søylene i F er en ortonormal basis for Rn. Matrisen A er altså ortogonalt diagonaliserbar hvis og bare hvis det finnes et ortonormalt system av n egenvektorer for A, side 319. Disse er nødvendigvis lineært uavhengige. Vi har en viktig sats som sier at en n x n matrise A er ortogonalt diagonaliserbar hvis og bare hvis den er symmetrisk, altså hvis og bare hvis A1 = A, se side 320 i læreboken [1]. Dette må en ikke forveksle med vanlig diagonaliserbarhet, der jo kriteriet bare er at det skal finnes n lineært uavhengige egenvektorer.

Løst oppgave

5.2

Oppgave 4, H. 88. a) Hvilke av matrisene

A=

’ 1 0 0 .0

2 0 7 ' ‘ 1 2 7T 1' ’ 1 2-51 2 0 3 -1 0 ? ^2 — 7T , ^3 — 0-12 3 1 2 0 0 0 —2 _ .1-12 4

-2 1 1 4 0 2

er diagonaliserbar? Er noen av matrisene ortogonalt diagonaliserbar? Svarene skal begrunnes. b) La

1 2 -2 -2 5 -2 -6 6 -3

73 Finn en invertibel matrise P slik at D = P 1 AP er en diagonalmatrise. Hva blir D? Bestem An for ethvert positivt tall n.

Løsning: a) 42 er symmetrisk, derfor er den ikke bare diagonaliserbar, men sogar ortogonalt diagonaliserbar. De andre er ikke symmetriske, og er derfor ikke ortogonalt diagonaliserbare. Vi undersøker så om de er diagonaliserbare: Ai har egenverdier gitt ved ligningen

Å-l -2 0 0 Å-2 5 0 0 Å+l 000

-7 -1 -2 Å+2

det vil si (Å — 1)(Å — 2)(Å + 1)(Å + 2) = 0

Vi finner altså n = 4 forskjellige egenverdier, og matrisen er derfor diagonaliserbar: For ved å velge en egenvektor (som pr. definisjon er / nullvektoren) for hver egenverdi, får vi et sett av lineært uavhengige vektorer. A3 har egenverdier gitt ved ligningen Å-l 2 -1 0 Å-l —4 0 0 Å-2 Denne matrisen har altså de to egenverdiene Åi = 1, Å2 = 2. Vi finner først egenrommet Æ(l), som er løsningsrommet til ligningssy­ stemet

10

LINÆR ALGEBRA

74

0 2-1 0 0-4 0 0-1

x y z

0 0 0

Ved den vanlige løsningsmetoden finner vi lett at E(l) er utspent av vektoren (1,0,0). (Her bør det taes med utregninger i en eksamens­ besvarelse, men siden vi har terpet nokså grundig på løsning av lineære ligningssystemer, utelater vi disse regningene nå.) Tilsvarende finner vi rommet E*(2) ved å løse ligningssystemet

0 0 0

1 2 -1 0 1 —4 0 0 0

og resultatet er at E(2) er utspent av vektoren ( — 7,4,1). Vi kan lett sette prøve på egenverdiproblemer: Vi regner ut de to matriseproduktene

1 —2 1 0 1 4 0 0 2

-7 4 1

-14 8 2

og

'1-21 0 1 4 0 0 2

' 1 ' 0 0

0 0

som stemmer med at vi virkelig har funnet egenvektorer som svarer til de respektive egenverdiene. Men dimensjonene til egenrommene kan vi ikke kontrollere på denne måten. Dimensjonen til begge rommene er 1, og det er altså utelukket å finne 3 lineært uavhengige egenvektorer. Vi slutter at denne matrisen ikke er diagonaliserbar. b)

Her må vi først finne den nye basisen av egenvektorer,

B' =

{«i, «2, «3},

75 P blir så overgangsmatrisen fra koordinater med hensyn på B' til ko­ ordinater med hensyn på B — S. standardbasisen:

= [[«ni i«2ii i«;]].

[[u'l]s| |«'2]s| l^]s] Egenverdiene blir gitt ved ligningen

Å-l -2 2 2 Å-5 2 6 -6 Å+ 3

eller utregnet

(Å + 3)(Å — 3)2 = 0 E(—3): Vi får å løse ligningssystemet

—4 —2 2 2-8 2 6-6 0

o o o

x y

Vi finner at E(—3) er utspent av vektoren (1,1,3). Det bør som sagt taes med mer utregninger enn dette i en eksamensbesvarelse. Prøve: 1 2 -2 5 -6 6

Tilsvarende finner vi £(3)ved å løse ligningssystemet

0 0 0

2-2 2 2-2 2 6-6 6

resultatet er at E(3) utspennes av vektorene (1,1,0) og (—1,0,1). Prøve: 1 2 —2 -2 5 -2 -6 6 -3

1 1 0

3 3 0

76

1 2 —2 -2 5 -2 -6 6 -3 Vi må nå undersøke om vektorene (1,1,3), (1,1,0) og (—1,0,1) er lineært uavhengige. Det betyr at kandidaten til overgangsmatrise.

må ha determinant forskjellig fra 0. Utregning viser at dette er til­ felle, og vi har deved funnet en matrise P som diagonaliserer A. D er diagonalmatrisen gitt ved egenverdiene, som selvsagt oppføres i den rekkefølgen som de tilsvarende egenvektorene har i matrisen P. Altså blir D = Diag(—3,3,3). Det siste spørsmålet kan virke vanskelig, og mange har sikkert gitt opp med en gang da dette ble gitt til eksamen. En måte mange reagerer på slike nøtter på, er med nervøsitet og noen ganger uro eller nesten panikk. Men isteden bør eksamenskandidaten notere seg slike - oftest ett eller høyst to i et eksamenssett - triksete spørsmål som en god mulighet for å oppnå en topp karakter. Utsett problemet til slutt, etter at de mer kurante spørsmålene er besvart. Så gjelder det å finne løsningen. I utgangspunktet kunne en - hvis ikke en bedre idé skulle melde seg - forsøke seg med å regne ut matrisene A2, A3,... et stykke på vei. Hvis en har tid og regner rett, er det mulighet for å oppdage et mønster på denne måten, og kanskje til og med finne et bevis for det generelle uttrykket en skal frem til. Men dette er egentlig ingen god angrepsmåte her. For å løse problemer i det “virkelige liv” må en nok gå frem på denne måten, eksperimentere litt og forsøke seg frem. Men til eksamen er vi i en nokså kunstig situasjon, der det ikke bare gjelder om å være kreativ og oppfinnsom, men nesten mer om å gjette hvordan oppgavestilleren har tenkt. Hvorfor kommer dette spørsmålet etter at vi har diagonalisert matrisen A? Selvsagt

77 fordi vi skal bruke denne diagonaliseringen! Vi har vist at D = P~'AP

der

-3 0 0 0 3 0 0 0 3

-10 0 0 1 0 0 0 1

Relasjonen ovenfor kan skrives A = PDP~\

og dette gir A2 = PDP~1PDP~i = PD2P-1 A3 = PDP~1PEP~1PDP~1 = PD3P~1

osv, An = PDP-1 ... PDP~1PDP~1 = PDnP~1.

Men Dn er lett å regne ut, for n > 2 finner vi at Dn = 3nE

der E er enhetsmatrisen: Generelt multipliserer vi sammen to n x n diagonalmatriser ved å danne diagonalmatrisen av produktene av samsvarende diagonalledd:

Diag(a1,...,an)Diag(bi,...,bn) = Diag^b^ ..., anbn). Nå overlates det til leseren å finne An\

5.3

Kvadratiske former og kjeglesnitt.

Et kjeglesnitt er en kurve i x, y planet som er gitt ved en ligning av formen Ax2 + Bxy -F Cy2 + Ex + Fy + G = 0

78 Alle slike kurver kan en få frem som skjæringskurven mellom et plan p og en kjegle, derav navnet. Det er praktisk å ta ut en del av den kvadratiske ligningen ovenfor, nemlig den delen som er av grad 2, altså

Ax2 + Bxy + Cy2 Et utrykk av denne formen kaller vi en kvadratisk form i de to variable x og y. Teorien gjelder også for kvadratiske former i flere variable, men her skal vi bare se på tilfellet med to variable. Den generelle teorien er utviklet i læreboken, fra side 342.

Først skriver vi om den kvadratiske ligningen til en mer praktisk form, vi skriver den som ax2 4- 2bxy + cy2 + ex + fy + g = 0 Den eneste forskjellen er at vi deler opp koeffisienten for kryssleddet xy. Dette har stor praktisk betydning, det er faktisk litt av en genistrek: For nå kan den tilhørende kvadratiske formen skrives slik:

ax2 + 2bxy + cy2 = [æ, y]

a b b c

x y

(x,y) er koordinatene til et punkt i planet i det vanlige, rettvinklede koordinatsystemet. Det betyr selvsagt at (x,y) blir koordinatvektoren til en vektor med hensyn på standardbasisen S = {e1?e2}, der eY = (1,0), e2 = (0,1), som vanlig. Anta nå at vi har gitt en annen ortonormal basis for R2, B' = {wi,w2}, der = (u'xj,iz21),e2 = (i/12, u2 2), og la x' .y' betegne koordinater med hensyn på denne nye basisen. Da har vi at x y

ui,i

Ul,2

U2,l

U2 2

eller med en mer kompakt skrivemåte

x' y'

79

der u 1,1

Wl,2

?/2,l

U2,2

er en ortogonal matrise, altså en n x n matrise slik at Pl = P~1 (her med n = 2). Når vi setter dette inn i uttrykket for den kvadratiske formen, får vi

ax2 4- 2bxy 4- cy2 — [x', y']Pl

a b b c

x' y’

som siden P er en ortogonal matrise er det samme som

ax2 4- 2bxy 4- cy2 = [#', y]P 1

a b b c

x' y'

a b er symmetrisk, så er den ortog­ b c onalt diagonaliserbar, se læreboken side 320: Det finnes en ortogonal matrise P slik at Nå vet vi at siden matrisen

Aj 0

0 Å2

Det betyr at dersom vi skifter koordinatsystem ved

p sa tar vi O

o



ax2 4- 2bxy 4- cy2 =

1

a

x' y'

= X1x,2 + X2y'2.

Her er da Aj og A2 egenverdiene til P, mens søylevektorene i Mi,i

wi,2

W2,l

W2,2

er tilsvarende lineært uavhengige egenvektorer.

80 Dette skiftet av koordinatsystem gir det opprinnelige kjeglesnittet

ax2 + 2bxy + cy2 + ex + fy + g — 0

på normalform.

a x'2 + cy'2 4- ex 4- fy 4- g' = 0, altså med en ligning der kryssleddet xy mangler. Her er dessuten a' = Aj og c' = A2. Vi har brukt den viktige setningen Theorem 5 på side 320 i læreboken. Denne setningen blir ikke bevist fullstendig der, og dessverre er det net­ topp beviset for den implikasjonen vi bruker her (og som også er den mest vesentlige delen av dette teoremet) som mangler i [1]! Dette skal vi nå bøte på ved å gi et fullstendig bevis for denne delen av Theorem 5 når n = 2. Vi betrakter altså den symmetriske 2x2 matrisen

a b

og vi skal vise at den er ortogonalt diagonaliserbar. Vi må da først finne egenverdiene til matrisen, som vi får av ligningen

eller utregnet

A2 — (a 4- c)A 4- ac — b2 = 0. Dette gir egenverdiene

A = a

±

^(a 4- cf - iac 4- 462, ___________ +

eller

A = ff ± Lt

£

Så uttrykket under rottegnet er alltid større enn eller lik null, slik at røttene (egenverdiene) alltid er reelle.

81 Vi skal først vise at matrisen er diagonaliserbar, og det vil følge dersom vi kan finne 2 ( = n) lineært uavhengige egenvektorer, [1] side 310. Dersom generelt en n x n matrise har n forskjellige egenverdier, da kjenner vi en sats som garanterer at det også finnes n lineært uavhengige egenvektorer: Se [1], side 314. La oss derfor se på det tilsynelatende vanskeligste tilfellet først, nemlig at egenverdiene er sammenfallende. Da er (a — c)2 + 462 = 0, altså er a — c = 0, b = 0. Så matrisen er allerede på diagonalform, den kvadratiske formen man­ gler kryssleddet, og det gitte kjeglesnittet er på standard form - bort­ sett fra valg av origo. (Det er faktisk en sirkel, som jo har ligning uten kryssledd uansett koordinatsystem.) Der er altså ingenting å bevise i dette tilfellet! Vi kan derfor anta at egenverdiene er forskjellige, la oss betegne dem ved Å i og Å2. De tilhørende egenrommene er løsningsrommene til de to homogene lineære ligningssystemene

henholdsvis

Vi kan anta at b 0, da ellers matrisen allerede er på diagonalform, og det derfor ikke er noe å bevise. Vi får at løsningsrommet til det første ligningssysetemet er utspent av vektoren «i = [«i,2/i] =

Ai — a],

og for det andre systemet er løsningsrommet utspent av v2 = [«2,2/2] = [&, A2 — a]. Før vi går videre, kan vi med en gang konstatere at disse vek­ torene er lineært uavhengige, slik at vi ikke trenger å bruke teorien

11

LINÆR ALGEBRA

82 fra læreboken til dette: Vi må bare vise at

b Ai — a b A2 — a

* 0.

Men denne determinanten er utregnet 6(Å2 — AJ, som er forskjellig fra null fordi vi forutsetter forskjellige egenverdier og dessuten forutsetter b± 0. For å vise Hi ± v2, beregner vi < v i, v2 >• < lii • V-2 > — fr2 + (Ai — æ)(A2 — a) — 62 + a2 — tz(Ai 4- A2) 4- AiA2

som sammen med AiA2 — ac — b , Ai 4" Å2 — a 4~ c gir < Hi, v2 > = 0. Dette er forøvrig et spesialtilfelle av Theorem 6 på side 321 i [1], og som bevises på sidene 323 og 324.

5.4

Løsning av en oppgave.

Oppgave. Gitt våren 1990, noe utvidet her. a) Finn egenverdiene og de tilhørende egenvektorene for matrisen

3 0 0 0 4 1 0 1 4 Er matrisen diagonaliserbar? Gi grunn for svaret. Angi i så fall en di­ agonalmatrise som er similær med A, samt den matrisen P som bringer A over på diagonalform. b) Et kjeglesnitt har ligningen

5(æ2 4- y2) — 6xy — 2 = 0. Finn et skifte av koordinatsystem slik at kjeglesnittet får standardposisjon i forhold til de nye koordinatene. Skissér kjeglesnittet sammen med de nye koordinataksene.

83 c) Det nye koordinatsystemet i b) svarer til koordinater med hensyn på en ortonormal basis for R2. Skriv opp basisvektorene i denne basisen. Løsning. a) Vi finner egenverdiene av ligningen

Å —3 0 0 0 Å - 4 -1 0 -1 Å-4 altså

(Å — 3)2(Å — 5) = 0, slik at egenverdiene er Å = 3, 5. Vi finner så egenrommet 12(3) som løsningsrommet til ligningssystemet 0 0 0 -1 0 -1

0 -1 -1

x y z

0 0 0

som er ekvivalent med

y -i- z — 0. Dette systemet har den ålmenne løsningen

x y z

0 -1 1

der u og v er fritt varierende parametre. 7?(5) er løsningsrommet til ligningssystemet

2 0 0 1 0 -1

0 -1 1

x y z

Dette systemet har den ålmenne løsningen

0 0 0

84

x y z

u

0 1 1

der u er en fritt varierende parameter. Matrisen er diagonaliserbar fordi den har 3 lineært uavhengige egen­ vektorer, nemlig 1 0 0

0 -1 1

°g

0 1 1

A er similær med matrisen

3 0 0 0 3 0 0 0 5 og matrisen P er

1 0 0 0 -1 1 0 1 1

Matrisen er forøvrig også ortogonalt diagonaliserbar, siden den er sym­ metrisk, men P er ikke her en ortogonal matrise: Søylene er riktignok innbyrdes ortogonale, men de to siste av dem har norm y/2. Siden opp­ gaveteksten ikke spør etter ortogonal diagonalisering, trenger vi ikke å gå videre med dette her. b) Vi må først diagonalisere matrisen til ligningens tilhørende kvadratiske form. Denne matrisen er

Egenverdiene til matrisen er gitt ved ligningen Å-5 3 3 Å-5

= (Å - 5)2 - 32 = 0,

85 altså ved ligningen

(Å — 2)(Å — 8) = 0, som gir de to egenverdiene Å = 2, Å = 8. For å finne rommet jF(2) må vi løse det lineære homogene ligningssy­ stemet

-3 3 3 -3

som er ekvivalent med x — y = 0.

Dette systemet har den ålmenne løsningen

For å finne rommet F?(8) må vi løse det lineære homogene ligningssy­ stemet

som er ekvivalent med x + y = 0.

Dette systemet har den ålmenne løsningen

x y

= u

1 -1

På dette punktet i oppgaven er det fornuftig å sjekke om de valgene vi har truffet fører til en enkel dreining av koordinatsystemet, eller om vi dessuten får en (irrelevant og forvirrende) “vrengmng” av en av koor­ dinataksene. Dette vil inntreffe dersom matrisen P som diagonaliserer A har negativ determinant. Her blir matrisen

86

1 1

1 -1



som har determinant —2. Vi kan rette opp dette på to forskjellige måter. Den første fremgangsmåten er at vi foretar en ombytting av egenverdiene, og dermed en ombytting av søylene i matrisen. Disse søylene skal dessuten normaliseres, siden vi nå skal frem til en ortogonal matrise (og vi ut fra teorien - eller ved å se etter - vet at de to søylene vi har funnet er ortogonale). Dette gir

slik at skiftet av koordinatsystem er gitt ved i /2 1 x/2

X

y

i

V2

-

1

a/2

.

x1 y’

eller x Setter vi dette inn i ligningen og regner ut, får vi

Sx,2 + 2y'2 = 2

eller

altså en ellipse med halvakser | og 1, langs x' - aksen og y1 - aksen, henholdsvis. Den andre fremgangsmåten for å få riktig orientering av det nye koordinatsystemet, er å skifte fortegn f.eks. på den siste egenvektoren i stedenfor å foreta en ombytting. Vi får da matrisen

1 1

-1 1



87 som gir følgende overgangsmatrise

slik at skiftet av koordinatsystem er gitt ved

eller

Setter vi dette inn i ligningen og regner ut, får vi denne gangen 2æ'2 + 8?/2 = 2 I det første tilfellet er de nye koordinataksene fremkommet av de gamle ved en rotasjon på—45° (= — j) om origo, mens vi i det siste tilfellet får en rotasjon på 45° (= J). Vi kunne forøvrig spart oss mye av det siste regnearbeidet, fordi ligningen ikke inneholder annet enn den kvadratiske formen og konstantleddet: førstegradsleddet er lik null. Derfor kunne vi med en gang ut fra teorien ha skrevet opp ligningen

A^'2 + X2y'2 = 2. Dette er et viktig poeng, som en stadig ser demonstrert i eksamens­ besvarelser: God fortrolighet med teorien muliggjør svært ofte raske og riktige løsninger av praktiske oppgaver, mens usikkerhet i teorien leder til omstendelige regninger med fare for regnefeil eller tidsnød. Figuren hører absolutt med til besvarelsen, men overlates her til leseren. Tegn figur, en for hvert av de to alternativene. c) Vektorene er søylene i matrisen P. Disse vektorene er enhetsvek­ torer som ligger langs de nye koordinataksene, rettet i disse aksenes positive retning.

Kapittel 6

Eksamen høsten 1990 6.1

Oppgaveteksten UNIVERSITETET I BERGEN Det matematisk-naturvitenskapelige fakultet.

Eksamen i emnet M 121 - Lineær algebra. Onsdag 28. november 1990, kl. 09-14

Tillatte hjelpemidler: Kalkulator.

NB! Kandidatene bør forsøke å løse de letteste punktene først, deretter gjøre så mye som mulig på de vanskeligere. Prøv å skrive noe på hvert punkt. Det anbefales å ta disse punktene først: la, lb, 2a, 3a, 4a. Oppgave 1

a) Løs ligningssystemet

2x — y x x + y x — y

— + —

z z + u z — tz 89

12

LINÆR ALGEBRA

— = = =

0 0 2 0

90 b) Formuler Cramers Regel (bevis kreves ikke). c) Gitt ligningssystemet

2x x x x

— y — z + z + — z +

+y — y

— — u = au =

0 0 2 b

For hvilke verdier av a og b har systemet løsning? For hvilke verdier har det en entydig løsning?

Oppgave 2 a) En lineær transformasjon T : R4 —* R5 er gitt ved

Z1 + ^2 + #3 + ^4

xi + x2+x3 Xi A x2 —.r 4

Finn standardmatrisen for T, altså finn en matrise A som oppfyller ^1

Z2

^2 ^3

X4

X4

b) La

«1 = (1,0, 0,0)

,

«3 = (1,1, 1,0)

«2 = (1, 1, 0, 0)

,

u4 = (1, 1, 1, 1)

91

Vis at B = {u17u2)^u^} er en basis for R4. La S' være standardbasisen for R5. Finn matrisen La S betegne standardbasisen for R4. Finn overgangsmatrisen fra koordinater med hensyn på S til koordinater med hensyn på B . La Pn være vektorrommet av alle polynomer av grad < n, medreg­ net nullpolynomet. La avbildningen

f : P3

n

være gitt ved

f(ao + aix + a2x2 + a^x3) = (flo + fli + &2 “F fl3) (flo + «i + fl?)^ + (flo

fli)«r2 ~F flo#3 — a3rr4

Vis at f er en lineær avbildning. Finn dimensjonen til ker (/) . Bestem mengden av polynomer i P3 som avbildes til 1 ved f . Oppgave 3

a) I planet dreies xy koordinatsystemet en vinkel 99 mot urviseren. Skriv de gamle koordinatene (x,y) til et punkt uttrykt ved de nye (^\y)b) (x\ y') blir koordinatene til vektoren xeT + ye2 med hensyn på en annen ortonormert basis u 1,1/2 f°r R2- (Som vanlig betegner her ex og e2 vektorene i standardbasisen for R2). Finn uly ogu2. c) I rommet R3 skifter vi til et nytt koordinatsystem x'y'z' der de nye koordinataksene er fremkommet av de gamle ved at en først roterer koordinataksene om z - aksen med en vinkel 3 mot urviseren (når en ser nedover langs z- aksen), og deretter roterer om y'- aksen (som er y - aksen i den nye posisjonen) med en vinkel 92 (også her mot urviseren sett fra den positive delen av y' - aksen). Se figuren nedenfor.

92

Finn matrisen P slik at

x y' z'

Oppgave 4 a) Definer egenverdi og egenvektor for en matrise A og for en lineær transformasjon T. b) Finn egenverdiene og egenvektorene til matrisen 2 0 0 0 1 0 0 1 1

93

Er matrisen A diagonaliserbar? Gi grunn for svaret.

6.2

Fullstendig besvarelse Oppgave 1

1 1 1

-1 0 0 0 -1 0 1 1 1 -1 -1 -1

0 ■ 1 0 0 2 -1 0 1 1 1 1 1 -1 -1 -1

0 ■ 0 2 0

0 ‘ 0 2 0

7?2 •— ^2 — 2/?i

' 1 0 0 -1 0 1 0 -1 $

0

0 0 ' 0 0 1 2 0

^2

’ 1 0-1 0 0 1 -2 0 1 0 1 2 0-1 0 -1

0 ' 0 2 0

94

7?3 ^3 — 7?j I— 7?4 +

'O'

■ 1 0 0 0

$

’ 1 0 0 0

0 -1 1 -2 0 0

^3

Rl 7?i

0 0 0 0

|^3

0 0 0 -1 1 -2 0 0 i i 0 1 4 2 0-2 -1 0

R\ :— /?4 4~ 27?3

'10-1 00 0 1-2 0 0 0 0 1 | I .00 0 -| 1

1?4 i—

■ 1 0 0 0

—2/?4

0 -10 0 1 -2 0 0 0 11 i4 i2 0 0 1 -2

95

^3 ~

R$

’ 1 0 0 0

$

' 1 0 0 0

0 -1 0 1 -2 0 0 1 0 0 0 1

^2 + 27?3 Ri := Ri +

0 1 0 0

0 0 1 0

1 ■ 0 0 2 0 1 1 -2 .

Dette gir altså at

PRØVE: 2-1-2 1 1 + 2+ 1 - 1-

1 1 2

+ (-2) - (—2)

= = = =

0 0 2 0

som stemmer.

Bemerkning. Vær oppmerksom på at siden enkelte kalkulatorer umid­ delbart kan gi svaret på oppgaver av denne typen, så vil det normalt

96

ikke bli gitt noen uttelling til kandidater som bare skriver opp svaret, uten å ta med utledningen. Dette gjelder også dersom kandidaten bare skriver opp svaret, og dessuten setter prøve slik at svaret er bevist å være riktig. b) Cramers Regel : Gitt ligningssystemet — b^ l

•••T

1,2,..., n

som altså har like mange ligninger som ukjente. Dette ligningssystemet har en entydig løsning hvis og bare hvis determinanten til matrisen

[«£,j I 1 < i,j < «] er er forskjellig fra 0. I så fall er løsningen gitt som følger: Xj



j . J■



i . . . , 71 1,

Her er a = det(A) determinanten til A, mens aj = det(Xj) er determinanten til den matrisen en får ved å erstatte j-te kolonne i A med kolonnen

c) Totalmatrisen til ligningssystemet er -1 0 1 -1

0 0 0 0 1 2 a b

Ved de samme rekkeoperasjonene som i spørsmål a), opp til rekkeoperasjonen R4 '.= R\ + 2J?3, får vi overført T til

97

r=

■ 1 0 0 . 0

0 -1 0 0 ■ 1 -2 0 0 1 0 1 2 0 0 a+| 6+1 .

Systemet har entydig løsning hvis og bare hvis a Dersom a = — | har systemet (uendelig mange) løsninger hvis og bare hvis b = -1. Oppgave 2

A = [T(e1)|T(e2)|T(e3)|T(e4)] 111 1 111 0 110 0 10 0 0 0 0 0 -1

=

b) Vektorene utgjør en basis da

1 0 0 0

1 1 0 0

1 1 1 0

P1b,S' — [[-^(—OJs7 I

1 1 1 1

= 1/0

I

12 3 4 12 3 3 12 2 2 111 1 0 0 0 -1

13

LINÆR ALGEBRA

I

98 Overgangsmatrisen fra koordinater med hensyn på S til koordinater med hensyn på B er

som er løsningen av matriseligningen

'1111' 0 111 0 0 11 .0001.

r 1 0 0 0 ' 0 10 0 0 0 10

A

.0001.

Løsning ved Gauss - Jordansk eliminasjon:

1 0 0 0

$

' 1 0 0 0

1 0 0 0

1 1 0 0

1 1 1 0

1 0 0 1 0 1 0 1 0 0 1 1 0 0 0

0' 0 0 1

Ri :— Ri — R2 •’= R2 — R4 Ra := Ra — R4

110 1 110 0 0 10 0 0 0 10

0 1 0 0

0 -1 ■ 0 -1 1 -1 1 0

10 0 10 -1 0 1 0 0 0 1 -1 0 1 -1 0 10 0 0 1 0 0 10 0 0

99

$ ’ 1 0 0 . 0

0 1 0 0

R1 :— Ri — R2

0 0 1 0

0 0 0 1

1-1 0 0 ■ 0 1-10 0 0 1-1 0 0 0 1.

Prøve: Ved innsetting verifiserer vi at

Ml = -Ui + u2 = e2 — u2 + M3 — 63 — U3 + u4 = £4 Mye arbeid ville her være spart dersom en eksamenskandidat hadde sett disse relasjonene direkte. For disse relasjonene gir selvsagt med en gang koordinat vektorene til e2> £3 og e4, slik °gsa den søkte overgangsmatrisen kan skrives opp direkte. Det kan ofte lønne seg å se etter en slik snarvei, fremfor å ta fatt på det nokså store regnearbeidet som løsningen av matriseligningen kan innebære. c) Vektorrommet Pn har en basis

som vi kaller standardbasisen for Pn. Med hensyn på standardbasisen S4 er f gitt ved

/(flo +

Q

+ «2^ +

flo + fli + fl2 + a% a0 + a l + flo “F fli flo -fl3

Q\

)

flo fli «2 «3

100

— A\ • aQ + (i\X + a2x 2 + a$x 3

der A er matrisen fra punkt a). Med hensyn på basisene S3 og S4 er altså f matrisemultiplikasjon med matrisen A, og er derfor en lineær avbildning. Vi har A = [/Is s JS3,S4

Rangen til matrisen å er 4, siden de første 4 rekkene gir en matrise med determinant -1^0. Rangen til f er altså 4. Da rang(/) + nullitet (/) = dim(P3) = 4 får vi at

dim(ker(/)) = nullitet (f) = 0. Alternativt kan vi finne denne dimensjonen ved å bemerke at ker(/) består av de polynomer aQ + a^x + a2x2 + a^x3 slik at koeffisientene er løsning til ligningssystemet

1 1 0 0 0 0 0 0 1 1 1 1

1 1 1

1 0 0 0

«0 Ul

«2

«3

-1

0 0 0 0 0

Dette er et homogent ligningssystem, så det har alltid nulløsningen. Der er 4 ukjente og 5 ligninger, de første 4 ligningene utgjør et lig­ ningssystem med determinant lik -1, altså har systemet ifølge Cramers regel en entydig løsning. Altså er det bare nullpolynomet som ligger i ker(/), og dimensjonen er dermed vist å være lik 0. Vi skal finne

M = {p(x) e Anta at p(x) —

f3|

/(p(z)) = 1}

+ a^x + a^x2 + a^x^ avbildes til 1 ved f. Da blir

101

1 1 1 1 0

1 1 ■ 1 0 0 0 0 0 0 -1

1 1 1 0 0



’ 1 0 0 0 0

a0 Ul «2 . a3 .

Totalmatrisen til dette ligningssystemet er 1 1 1 1 0

1 1 1 0 0

1 1 0 0

1 0 0 0

1 0 0 0

1 0 0 0 0 0 0 0

Her er det(T) = 1

1 1 1 1 1 0

1

slik at rang(T) = 5, mens på den annen side rangen til selve koeffisientmatrisen er = 4. Ligningssystemet har derfor ikke løsning, og M = 0. Alternativt kan en gå frem slik: Anta at = f(an + a\X 4«2æ2 + ^3^3) — (