Rom og lineæritet. Erik Bédos. Matematisk Institutt, UiO 2012.

Like dokumenter
6.4 Gram-Schmidt prosessen

MAT1120 Notat 2 Tillegg til avsnitt 5.4

MAT1120 Notat 2 Tillegg til avsnitt 5.4

Løsningsforslag til eksamen i MA1202/MA6202 Lineær algebra med anvendelser høsten 2009.

Kap. 7 Symmetriske matriser og kvadratiske former

Vi skal koble diagonalisering av matriser sammen med ortogonalitet. Skal bl.a. se på

Kap. 6 Ortogonalitet og minste kvadrater

UNIVERSITETET I OSLO

= 3 11 = = 6 4 = 1.

4.4 Koordinatsystemer

Til enhver m n matrise A kan vi knytte et tall, rangen til A, som gir viktig informasjon.

UNIVERSITETET I OSLO

UNIVERSITETET I OSLO

Universitet i Bergen. Eksamen i emnet MAT121 - Lineær algebra

MAT3000/ Våren 2013 Obligatorisk oppgavesett nr. 2 Løsningsskisse

MAT1120 Notat 1 Tillegg til avsnitt 4.4

Lineærtransformasjoner

Løsninger for eksamen i MAT Lineær algebra og M102 - Lineær algebra, fredag 28. mai 2004, Oppgave 1. M s = = 1 2 (cofm 2) T.

Notat2 - MAT Om matriserepresentasjoner av lineære avbildninger

Diagonalisering. Kapittel 10

5.8 Iterative estimater på egenverdier

4.1 Vektorrom og underrom

MAT1120 Notat 1 Tillegg til avsnitt 4.4

MAT Onsdag 7. april Lineær uavhengighet (forts. 1.8 Underrom av R n, nullrom, basis MAT Våren UiO. 7.

MAT1120 Repetisjon Kap. 1

UNIVERSITET I BERGEN

Til enhver m n matrise A kan vi knytte et tall, rangen til A, som gir viktig informasjon.

Generelle teoremer og definisjoner MA1201 Lineær Algebra og Geometri - NTNU

8 Vektorrom TMA4110 høsten 2018

Egenverdier og egenvektorer

Løsningsforslag til eksamen i MA1202/MA6202 Lineær algebra med anvendelser våren 2009.

UNIVERSITETET I OSLO

Egenverdier for 2 2 matriser

6.4 (og 6.7) Gram-Schmidt prosessen

Kap. 5 Egenverdier og egenvektorer

TMA4110 Eksamen høsten 2018 EKSEMPEL 1 Løsning Side 1 av 8. Løsningsforslag. Vi setter opp totalmatrisen og gausseliminerer: x 1 7x 4 = 0

4.1 Vektorrom og underrom

Vektorrom. Kapittel 7. Hva kan vi gjøre med vektorer?

4.4 Koordinatsystemer

Lineær algebra. 0.1 Vektorrom

MAT-1004 Vårsemester 2017 Prøveeksamen

4.1 Vektorrom og underrom

9 Lineærtransformasjoner TMA4110 høsten 2018

A 2 = PDP 1 PDP 1 = PD 2 P 1. og ved induksjon får vi. A k = PD k P 1. Kommentarer:

MAT1120 Repetisjon Kap. 1, 2 og 3

MA1202/MA S løsningsskisse

UNIVERSITY OF OSLO. Faculty of Mathematics and Natural Sciences. Matlab-utskrift (1 side).

TMA4110 Matematikk 3 Eksamen høsten 2018 Løsning Side 1 av 9. Løsningsforslag. Vi setter opp totalmatrisen og gausseliminerer:

4.1 Vektorrom og underrom

7.1 forts. Schur triangularisering og spektralteoremet

EKSAMEN I MA1202 LINEÆR ALGEBRA MED ANVENDELSER

15 Hovedprinsippet for vektorrom med et indre produkt

12 Diagonalisering av matriser og operatorer (Ch. 5.1, 5.2 og 8.5)

Lineær algebra-oppsummering

Løsningsforslag øving 6

7 Egenverdier og egenvektorer TMA4110 høsten 2018

7.4 Singulærverdi dekomposisjonen

Kap. 6 Ortogonalitet og minste kvadraters problemer

5.5 Komplekse egenverdier

Løsningsforslag øving 7

MAT-1004 Vårsemester 2017 Prøveeksamen

16 Ortogonal diagonalisering

4.2 Nullrom, kolonnerom og lineære transformasjoner

Rang og Vektorrom. Magnus B. Botnan NTNU. 4. august, 2015

13 Oppsummering til Ch. 5.1, 5.2 og 8.5

MA1201/MA6201 Høsten 2016

Kapittel 3. Mer om egenverdier og egenvektorer. 3.1 Komplekse n-tupler og vektorer

(a) R n defineres som mengden av kolonnevektorer. a 1 a 2. a n. (b) R n defineres som mengden av radvektorer

Repetisjon: om avsn og kap. 3 i Lay

6.5 Minste kvadraters problemer

Generelle teoremer og denisjoner MA1201 Lineær Algebra og Geometri - NTNU Lærebok: Anton, H. & Rorres, C.: Elementary Linear Algebra, 11.

6.8 Anvendelser av indreprodukter

Repetisjon: Om avsn og kap. 3 i Lay

MAT 1110: Bruk av redusert trappeform

Kap. 5 Egenverdier og egenvektorer

OBLIG 2 - MAT 1120 Høsten 2005

Lineære likningssystemer og matriser

R: 0, , = 6000 D : 0, , = 4000 La v n = angi fordelingen etter n år (dvs. a b n stemmer for R og

EKSAMEN I MA1202 OG MA6202 LINEÆR ALGEBRA MED ANVENDELSER

Eksamensoppgave MAT juni 2010 (med løsningsforslag)

MAT Prøveeksamen 29. mai - Løsningsforslag

Lineær uavhengighet og basis

Oppgave 14 til 9. desember: I polynomiringen K[x, y] i de to variable x og y over kroppen K definerer vi undermengdene:

Universitetet i Agder Fakultetet for teknologi og realfag Institutt for matematiske fag. Eksamen MA desember Lykke til!

EKSAMEN I MATEMATIKK 3 (TMA4110)

4 Matriser TMA4110 høsten 2018

MAT UiO. 10. mai Våren 2010 MAT 1012

LØSNINGSFORSLAG EKSAMEN MA1202/MA6202 VÅR 2010

Gauss-Jordan eliminasjon; redusert echelonform. Forelesning, TMA4110 Fredag 18/9. Reduserte echelonmatriser. Reduserte echelonmatriser (forts.

Matriser. Kapittel 4. Definisjoner og notasjon

Eksamensoppgave i MA1202/MA6202 Lineær algebra med anvendelser

GENERELLE VEKTORROM. Hittil har vi bare snakket om vektorrom av type

x 1 x 2 x = x n b 1 b 2 b = b m Det kan være vanskelig (beregningsmessig) og bearbeide utrykk som inneholder

Vektorligninger. Kapittel 3. Vektorregning

Komplekse tall. Kapittel 2. Den imaginære enheten. Operasjoner på komplekse tall

Emne 7. Vektorrom (Del 1)

Eksamensoppgave i TMA4115 Matematikk 3

Dagens mål. Det matematiske fundamentet til den diskrete Fourier-transformen Supplement til forelesning 8 INF Digital bildebehandling

Transkript:

Rom og lineæritet Erik Bédos Matematisk Institutt, UiO 202.

Lineær algebra er et viktig redskap i nær sagt alle grener av moderne matematikk. De fleste emnene i matematikk på masternivå bygger på en forståelse av lineær algebra som går noe utover det man lærer f.eks. i emnet MAT20 ved UiO. Dessuten kreves det ofte at man må være fortrolig med lineær algebra over de komplekse tall. En av hovedhensiktene med dette heftet er å gi utfyllende kunnskaper i lineær algebra og dermed lette overgangen til disse masteremnene. Samtidig er den videre teorien såpass utfordrende at den gir en god trening i abstrakt matematisk tankegang og matematisk stringens. Dessuten er det lagt vekt på å illustrere teorien med mange eksempler og noen anvendelser innenfor geometri og analyse. Oppgaver finnes på slutten av hvert avsnitt. Disse utgjør en viktig del av heftet og det anbefales å arbeide seg gjennom flest mulig av disse. Heftet er spesialskrevet for emnet MAT3000/MAT4000 ved UiO og tar utgangspunkt i Lays bok fra MAT20. Referanser til denne boka angies ved [L]. Inspirasjonskilder har vært følgende bøker, som anbefales for supplerende lesning: S.J. Axler: Linear algebra done right. Springer, 997. S. Friedberg, A. Insel, L. Spence: Linear algebra. Pearson, 2003 (4th edition). S. Lang: Linear algebra. Springer, 987 (3rd edition). P.J. Olver, C. Shakiban: Applied linear algebra. Prentice Hall, 2006. Heftet er inndelt slik: Kapittel Innføring i kompleks lineær algebra. Komplekse vektorer og komplekse matriser..2 Standard indreproduktet på C n. Kapittel 2 Vektorrom og lineæravbildninger 2. Basiser, billedrom og nullrom. 2.2 Eksempler. 2.3 Matriserepresentasjoner. 2.4 Direkte summer og projeksjoner. 2.5 Diagonalisering. Kapittel 3 Indreproduktrom og diagonalisering 3. Indreproduktrom. 3.2 Ortogonalt og unitæært diagonalisering. 3.3 Den diskrete Fourier transformen. (Eget vedlegg!) Kapittel 4 Utvalgte emner 4. Schur triangulering og Cayley-Hamilton teoremet. 4.2 Homogene lineære ODE er med konstante koeffiffisienter. 4.3 Jordan normal form. 2

Kapittel Innføring i kompleks lineær algebra Repetisjon I MAT20 lærer man at en n n matrise A med reelle koeffisienter trenger ikke å ha noen reelle egenverdier, og at man da kan finne matrisens komplekse egenverdier og de tilhørende komplekse egenvektorene. Denne informasjonen kan man benytte seg av til å si noe om A, i allefall når n = 2 (cf. [L; avsn. 5.5]). Vi skal her repetere noe av dette med et eksempel og betrakter matrisen A = [ ]. Det karakteristiske polynomet til A er gitt ved p A (λ) = λ λ = ( λ)2 +. Det er klart at p A (λ) har ingen reelle røtter. Derimot har p A to opplagte komplekse røtter, λ = + i og λ 2 = i. La oss se hva som skjer dersom vi prøver å bestemme egenrommene til A som svarer til λ = + i og λ 2 = i. For λ = + i må vi løse systemet A [ ] x dvs. x 2 = ( + i) [ ] x x 2, altså { x x 2 = ( + i)x x + x 2 = ( + i)x 2, { x2 = i x x = i x 2, som gir oss ligningen x = i x 2 (ved å gange likningen x = i x 2 med i får vi jo i x = i 2 x 2 = x 2 ). Hvis x og x 2 skal være reelle tall fins det ingen andre løsninger av x = i x 2 enn x = x 2 = 0. Men hvis vi tillater x og x 2 å være komplekse tall, kan vi f.eks. velge x = og x 2 = i. [ ] Vi betrakter derfor vektoren w = som en kompleks egenvektor for A i tilhørende egenverdien λ = + i. [ ] Ved å gå frem tilsvarende for λ 2 = i finner vi at w 2 = kan betraktes i som en kompleks egenvektor for A tilhørende λ 2. Denne innledningen kan hoppes over hvis leseren er noenlunde fortrolig med avsn. 5.5 i [L]. 3

Nå som vi er i gang med komplekse vektorer kan vi også prøve oss med komplekse matriser, og danne matrisen P som har w og w 2 som sine kolonnevektorer, m.a.o. [ ] P = [w w 2 ] =. i i Vi kan jo håpe på at det samme skjer som når vi betrakter reelle egenvektorer og egenverdier, nemlig at P diagonaliserer A, altså at P er invertibel og [ ] P λ 0 A P = = 0 λ 2 [ + i 0 ] 0 i Her er det naturlig å gå ut ifra at produktet av komplekse matriser er definert på samme måte som produktet av reelle matriser. La oss regne ut determinanten til P ved den vanlige formelen: det P = i i = i ( i) = i + i = 2i. Siden det P 0 kan vi prøve formelen for den inverse av en invertibel 2 2 matrise. Dette gir oss Q = [ ] i 2i ( i) Ved å gange P og Q får vi P Q = = [ ] [ 2 i i [ ] 0 = I. 0 i 2 i 2 2 = i 2 [ ] i = i [ 2. i 2 i 2 2 ] [ 2 = + i i ] 2 2 2 i + i i( i) i i 2 2 2 2 Tilsvarende finner vi at QP = I. Vi setter derfor P = Q og sjekker at P A P blir den ønskede diagonalmatrisen: P A P = = = = [ 2 [ 2 i 2 2 2 i ] [ ] [ ] i i i ] [ ] 2 + i i i i + i 2 2 [ ( + i) + i( i) ( i) + ] i( + i) 2 2 2 2 ( + i) i( i) ( i) i( + i) 2 2 2 2 ]. [ + i 0 0 i 4 ].

La oss si at vi egentlig var interessert i det dynamiske systemet gitt ved [ ] x 0 =, x 0 = A x 0, x 2 = A x, osv ; m.a.o. x n = A n x 0, n. Nå er [ ] x 0 = = [ ] + [ ] = 0 2 i 2 i 2 w + 2 w 2. Siden A w = λ w, får vi A n w = λ n w = ( + i) n w. Tilsvarende har vi at A n w 2 = ( i) n w 2. Dette gir ( x n = A n x 0 = A n 2 w + ) 2 w 2 = 2 An w + 2 An w 2 = 2 ( + i)n w + 2 ( i)n w 2 = [ 2 ( + i)n + [ i 2 ( i)n i = [ ( + i) n + ( i) n ] 2 i[( i) n ( + i) n. ] ] Nå må jo x n ha reelle koeffisienter siden x 0 og A n har det. Ved første øyekast ser det ut som formelen vi har funnet for x n inneholder komplekse uttrykk, men det kan vi lett avklare. Vi skriver + i = ( 2 2 + i ) = 2 (cos( π ) 2 4 ) + i sin(π 4 ) = 2 e i π/4, i = 2 ( 2 i ) = ( ( 2 cos π ) ( + i sin π )) = 2 e i π/4. 2 4 4 ] De Moivres formel (e iθ ) n = e inθ fra MAT00 gir at ( + i) n + ( i) n = ( 2 e iπ/4 ) n + ( 2 e iπ/4 ) n = ( 2 ) n (e inπ/4 + e inπ/4 ) = ( ( 2 ) n cos ( nπ ) ( nπ + i sin 4 4 = 2( 2 ) n cos ( nπ ), 4 ) + cos ( nπ 4 ) ( nπ ) ) + i sin 4 og tilsvarende ( i) n ( + i) n = 2i( 2 ) n sin ( nπ ). 4 Ved å sette dette inn i formelen for x n som vi fant ovenfor får vi x n = [ 2( 2 ) n cos(nπ/4) 2 i( 2i( ] 2 ) n = sin(nπ/4)) 5 [ ( 2 ) n cos(nπ/4) ( ] 2 ) n. sin(nπ/4)

Dette angir x n med reelle uttrykk. Hvis man tegner noen verdier av x n i et plan vil man se at x n følger en spiral-bevegelse. Nå er det strengt tatt ikke nødvendig å å gå veien om komplekse tall for å finne en formelen for x n. Vi kan nemlig skrive A = [ / 2 / 2 2 / 2 / ] = [ ] cos(π/4) sin(π/4) 2 = 2 R 2 sin(π/4) cos(π/4) π/4 der R π/4 er rotasjonsmatrisen med vinkelen π/4 (mot klokka). Når R ϕ betegner rotasjonsmatrisen med vinkelen ϕ (mot klokka) er det lett å vise (og opplagt geometrisk) at (R ϕ ) n = R nϕ. Dette gir A n = ( 2 R π/4 ) n = ( 2 ) n (R π/4 ) n = ( 2 ) n R nπ/4 = ( [ cos(nπ/4) sin(nπ/4) 2 ) n sin(nπ/4) cos(nπ/4) ] Derfor er x n = A n x 0 = ( [ ] cos(nπ/4) 2 ) n, som funnet ovenfor. sin(nπ/4) [ ] a b Dersom matrisen A vi betraktet i dette eksemplet er på formen A = b a der a, b R, kan vi alltid gå frem på tilsvarende måte (jf. [L; avsn. 5.5]). Hovedpoenget med dette enkle eksemplet er å illustrere hvordan komplekse vektorer og komplekse matriser kommer inn på en naturlig måte, og vise at dette kan være nyttig selv i en situasjon som i utgangspunktet er reell. Som en mere utfyllende innledning kan avsnittene 5.5, 5.6 og 5.7 i [L] gjerne leses om igjen. 6

. Komplekse vektorer og komplekse matriser Ved å bytte ut de reelle tallene med de komplekse tallene overalt der disse inngår i definisjoner og teoremer i Lays bok frem til Avsnitt 5.4, og gjøre bruk av at regnereglene for komplekse tall er helt analoge til de for reelle tall, får man en teori som kalles for lineær algebra over de komplekse tall (i stedet for over de reelle tall). Man kan altså snakke om systemer av lineære ligninger med komplekse koeffisienter (og komplekse løsninger av slike), om matriser med komplekse koeffisienter, om determinanten til slike matriser, om vektorrom over de komplekse tall, om lineære avbildninger mellom slike vektorrom, osv. Det er ikke veldig spennende å gå gjennom alt dette og sjekke at det virkelig lar seg gjøre. I dette avsnittet gir vi først for ordens skyld noen av de komplekse definisjonene 2. Videre går vi gjennom et par eksempler, for å overbevise oss selv om at det meste som vi kjenner fra [L] går omtrent som før, bortsett fra at det er mer tungvint å regne med komplekse tall. I neste avsnitt skal vi se på en liten, men viktig forskjell mellom det reelle tilfellet og det komplekse tilfellet, som inntreffer når man prøver å overføre indreprodukt strukturen. Vi lar C betegne de komplekse tallene. For hvert naturlig tall n 2 betegner vi mengden av n-tupler med komplekse koeffisienter med C n. M.a.o. { z } C n = z =. z,..., z n C. Elementene i C n kalles n-dimensjonale komplekse vektorer. Vi skriver ofte (z,..., z n ) i stedet for. z n Addisjon av vektorer i C n og multiplikasjon av en vektor i C n med et komplekst tall defineres på den opplagte måten, nemlig z. z n + w. λ = w n z. z n = z z n. z + w., z n + w n λz.. λz n og 2 Begynn gjerne rett på Eksempel på side 0. Gå eventuelt tilbake og les gjennom disse definisjonene dersom det er noe du ikke forstår i eksemplene som følger. 7

En m n kompleks matrise A er en matrise på formen a... a n A =..... a m... a mn der alle a ij C, i m, j n. Mengden av alle komplekse m n matriser betegner vi med M m n (C); dersom m = n skriver vi M n (C). Vi skriver A = [a ij ] i m, j n, eller som oftest bare A = [a ij ], for å angi en matrise av størrelse m n. Vi angir av og til A på kolonneform ved å skrive A = [ a a 2 a n ], der a, a 2,..., a n betegner kolonnevektorene til A. Addisjon av komplekse matriser av samme størrelse er gitt ved A + B = [a ij + b ij ] dersom A = [a ij ], B = [b ij ]. Hvis c C og A M m n (C), er m n matrisen ca gitt ved ca = [ca ij ]. Produktet av en m n kompleks matrise A = [ a a n ] med en vektor z = (z,..., z n ) C n er definert som vektoren A z C m gitt ved A z = z a + z n a n. Produktet av en m n kompleks matrise A med en n p kompleks matrise B = [ b b 2 b p ] er definert som den m p komplekse matrisen AB angitt på kolonneform ved AB = [ Ab Ab 2 Ab p ]. Dersom A = [a ij ] og B = [b jk ], så er da AB = [c ik ], der c ik = a i b k + a i2 b 2k + + a in b nk, i m, k p, m.a.o. c ik er lik rad nr. i i A ganget med kolonne nr. k i B. Vi lar I n (eller ofte bare I) betegne den vanlige n n identitetsmatrisen. En kvadratisk n n kompleks matrise A kalles invertibel (med invers A = B) dersom det finnes en n n kompleks matrise B slik at AB = BA = I n Invertibel matrise teoremet (IMT) i [L] gjelder også for komplekse kvadratiske matriser. 8

Vi definerer et vektorrom V over C til å være en ikketom mengde V, med elementer kalt vektorer, som er utstyrt med to operasjoner: addisjon av vektorer i V og multiplikasjon av vektorer i V med komplekse tall, som tilfredsstiller de samme 0 aksiomene som de angitt i [L; avsn. 4.], bortsett fra at vi bytter ut R med C i disse aksiomene. Det er helt trivielt å sjekke at C n, utstyrt med de operasjonene vi definerte ovenfor, blir et vektorrom over C. Med sine naturlige operasjoner blir også M m n (C) et vektorrom over C. Et underrom U av et vektorrom V over C er en ikketom delmengde U av V som er lukket under addisjon av vektorer og multiplikasjon av vektorer med skalarer: dersom u, u 2 U og c C, så er u + u 2 U og cu U. Et vektorrom V har to opplagte underrom, nemlig U = {0} og U = V. Et underrom av et vektorrom V blir selv et vektorrom når det utstyres med operasjonene det arver fra V. La S = {v,..., v n } være en endelig delmengde av V. Vi lar da Span S bestå av alle lineære kombinasjoner av v j -ene, m.a.o. Span S = {c v +... + c n v n c,..., c n C}. Dersom S er tom, dvs S =, setter vi Span = {0}. Span S blir dermed alltid et underrom av V. La V være et vektorrom V over C. Vi sier at V er endeligdimensjonalt dersom det finnes en endelig delmengde S av V som utspenner V, m.a.o. som er slik at Span S = V. I motsatt fall sier vi at V er uendeligdimensjonalt. Hvis V {0} er endeligdimensjonalt og B er en endelig delmengde av V, sier vi at B er en basis for V dersom B utspenner V og vektorene i B er lineært uavhengige. Lineær uavhengighet defineres her som i det reelle tilfellet : et endelig sett av vektorer b,..., b n V kalles lineært uavhengige dersom likningen c b +... + c n b n = 0 der c,..., c n C kun har den trivielle løsningen, nemlig c = = c n = 0. Dersom V er endeligdimensjonalt og V {0}, så har V alltid en basis: vi begynner med å velge en endelig delmengde S som utspenner V, og kaster vekk om nødvendig vektorer fra S, helt til vi står igjen med en lineært uavhengig mengde som fremdeles utspenner V. Dersom V = {0} vil vi bruke konvensjonen at den tomme mengden betraktes som en basis for {0}. 9

Antall vektorer i en basis for et endeligdimensjonalt rom V {0} er alltid det samme. Beviset for dette resultatet er nøyaktig det samme som i det reelle tilfellet. Dette antallet kalles dimensjonen til V og betegnes med dim V. Når V = {0} setter vi dim V = 0. Noe av poenget med en basis B når V {0} er at vi kan koordinatisere vektorene i V med hensyn på B, akkurat som i MAT20. Vi betrakter da vektorene i B som ordnet i en bestemt rekkefølge, og det poengterer vi ofte ved å si at B er da en ordnet basis. Med e = (, 0,..., 0), e 2 = (0,, 0,..., 0),..., e n = (0,..., 0, ), er det klart at {e,..., e n } blir en basis for C n, som kalles standardbasisen for C n. Derfor er dim C n = n. Kolonnerommet Col A til en m n kompleks matrise A = [ a a n ] defineres som underrommet av C m gitt ved Col A = Span{a,..., a n }. Rangen til A, rang A, defineres som dimensjonen til Col A. Den er også lik dimensjonen av radrommet Row A til A (som defineres tilsvarende som i det reelle tilfellet). Determinanten til en kvadratisk kompleks matrise A defineres akkurat på samme måte som før, men nå gir det oss et komplekst tall, det A. Igjen gjelder det at A er invertibel hvis og bare hvis det A 0. Etter alle disse definisjonene, er det på tide med et eksempel. Eksempel. Vi begynner med et komplekst lineært likningssystem: z + z 2 +z 3 = 0 ( i)z + z 2 = i (3 i)z + 2z 2 +z 3 = + 2i. Systemet kan skrives på matriseform A z = b : z 0 i 0 z 2 = i 3 i 2 }{{ z 3 }}{{} + 2i }{{} A z b Den utvidede matrisen til systemet blir: 0 B = i 0 i 3 i 2 + 2i 0

For å undersøke om systemet har løsninger og eventuelt finne disse, bruker vi elementære radoperasjoner på B. Ved å gange rad med i og trekke det fra rad 2, samt gange rad med 3 i og trekke det fra rad 3, får vi: Ved å gange rad 2 med i, får vi og ved å fortsette med radoperasjoner: 0 0 i + i i 0 + i 2 + i + 2i 0 0 + i, 0 + i 2 + i + 2i 0 0 0 + i 0 + i, 0 0 i 2 + i 0 0 2i som angir en trappeform for B. Vi ser da at systemet er konsistent med en entydig løsning gitt ved z 3 = 2i z 2 = ( + i)z 3 = ( + i)( 2i) = 2 + i z = z 2 z 3 = ( 2 + i) ( 2i) = + i. Utregningen viser også at matrisen A har en trappeform gitt ved 0 + i. 0 0 Vi ser at den har pivoter i alle kolonnene. Vi kan derfor konkludere med at rang A = 3 og at A er invertibel. Vi bruker da det analoge teoremet til Invertibel Matrise Teoremet (som forkortes ved IMT). Dette kan også sees ved å sjekke at det A 0: det A = i 0 = i 0 3 i 2 2 i 0 = i 2 i = ( i) (2 i) = 0.

For å finne A, kan vi bruke den vanlige prosedyren. Vi setter opp matrisen 0 0 [ A I ] = i 0 0 0, 3 i 2 0 0 og omformer den ved radoperasjoner til [ I A ]; vi får (sjekk utregningen) 0 0 0 0 i 2 i + i. 0 0 + i + i i }{{}}{{} I A Dette kan også sjekkes ved å regne ut at AA = I (= A A). Vi kan videre sjekke at løsningen av systemet vi betraktet tidligere er gitt ved Fra IMT kan vi også slutte at z 0 + i z 2 = A i = 2 + i. z 3 + 2i 2i { } B = i,, 0 3 i 2 danner en basis for C 3, siden A er matrisen som har vektorene i B som sine kolonner og rang A = 3. 0 Hvis vi ønsker å finne koordinatvektoren [b] B til f.eks. b = i med + 2i hensyn på basisen B, må vi bestemme z, z 2, z 3 C slik at z 0 i + z 2 + z 3 0 = i. 3 i 2 + 2i z På matriseform gir dette systemet A z 2 = b som vi har løst ovenfor. z 3 z + i Vi finner derfor at [b ] B = z 2 = 2 + i. z 3 2i 2

For ordens skyld tar vi med et par definisjoner til. Hvis V og W begge er vektorrom over C og T : V W er en avbildning, sier vi at T er lineær dersom T (v + v 2 ) = T (v ) + T (v 2 ) T (c v ) = c T (v ) og for alle v, v 2 V, c C. Hvis den lineære avbildningen T er en-til-en og på W, kalles T for en isomorfi fra V på W. Hvis for eksempel V {0} er endeligdimensjonalt og B = {v,..., v n } er en ordnet basis for V, så er koordinatavbildningen K B : V C n, gitt ved K B (v) = [v] B, en isomorfi fra V på C n. Dette betyr at vi kan betrakte et endeligdimensjonalt vektorrom over C som en kopi av C n, der n = dim V. Lineære avbildninger mellom endeligdimensjonale vektorrom over C kan studeres ved hjelp av matriserepresentasjoner, på samme måte som i det reelle tilfellet. Dette skal vi friske opp i neste kapittel, og vi nøyer oss her med å betrakte lineære avbildninger fra C n til C m. En lineær avbildning T : C n C m kan alltid angis på formen T (z) = A z, der A M m n (C) er standardmatrisen til T gitt ved A = [ T (e ) T (e n ) ]. Vi vil ofte angi standardmatrisen til en slik T ved [T ]. La A være en n n kompleks matrise. Diagonaliserbarhet av A, samt egenvektorer og egenverdier for A, defineres på samme måte som i det reelle tilfellet, men egenvektorene og egenverdiene tillates da selvsagt å være komplekse. Det karakteristiske polynomet til A er polynomet definert ved p A (z) = det(a zi), z C. Vi har da at λ C er en egenverdi for A hvis og bare hvis λ er en rot i p A (m.a.o. p A (λ) = 0). Ved algebraens fundamentale setning kan vi skrive p A (z) på formen p A (z) = ( ) n (z λ ) m (z λ k ) m k der k n, λ,, λ k C er de forskjellige egenverdiene til A og m j -ene er naturlige tall slik at m + m k = n. Tallet m j, som angir multiplisiteten til λ j som en rot i p A, kalles (den algebraiske) multiplisiteten til egenverdien λ j. 3

Dersom matrisen A har n forskjellige egenverdier (så k = n og m j = for alle j =,..., n), er A diagonaliserbar. Men A kan selvsagt være diagonaliserbar uten at dette er oppfylt, akkurat som i det reelle tilfellet. Det er klart at en reell kvadratisk matrise A kan betraktes som en kompleks kvadratisk matrise. Ofte vil en slik reell A ikke være diagonaliserbar når den betraktes som en reell matrise, mens den vil være diagonaliserbar når den betraktes som en kompleks matrise. Det er derfor lurt å være språklig presis her: Dersom en reell kvadratisk matrise A er diagonaliserbar når den betraktes som en kompleks matrise vil vi si at A er kompleks diagonaliserbar. Sier vi bare at A er diagonaliserbar, mener vi da at A er diagonaliserbar når den betraktes som en reell matrise. Hvis en reell kvadratisk matrise A er diagonaliserbar, så er den kompleks diagonaliserbar, mens den omvendte påstanden holder altså ikke generelt. Matrisen A som vi betraktet i repetisjonsavsnittet er et typisk eksempel på en reell 2 2 matrise som er kompleks diagonaliserbar uten å være diagonaliserbar. Vi ser til slutt på to eksempler. Eksempel 2. i 0 La A = 0 i 2i. 0 0 2 + i Siden A er triangulær, kan vi lese at egenverdiene til A er λ = i og λ 2 = 2 + i. Videre er p A (λ) = ( )(λ i) 2 (λ ( 2 + i)), så λ = i har multiplisitet 2, mens λ 2 = 2 + i har multiplisitet. Egenrommet E i til A for egenverdien λ = i er gitt ved 0 0 { z } E i = Nul(A ii) = Nul 0 0 2i = z 2 z 3 = 0, 0 0 2 z 3 { 0 } og en basis for E i er dermed gitt ved 0,. 0 0 Egenrommet E 2+i til A for egenverdien λ 2 = 2 + i er gitt ved 2 0 E 2+i = Nul(A ( 2 + i)i) = Nul 0 2 2i 0 0 0 4

{ z } { } = z 2 z 3 = 2z, z 2 = ( 2i)z = Span 2i, z 3 2 { } som har 2i som basis. 2 En basis for C 3 som består av egenvektorer for A er derfor og A er dermed diagonaliserbar. { 0 0,, 0 0 2i 2 }, 0 Setter vi nå P = 0 2i, så er P invertibel, og P diagonaliserer A: 0 0 2 i 0 0 P A P = 0 i 0, 0 0 2 + i (dette kan du gjerne sjekke ved utregning). Eksempel 3. La A = [ ] i. 0 i Igjen er A triangulær, med λ=i som eneste egenverdi. Her er Nul(A ii) = Nul [ ] 0 0 0 = { [ ] z z 2 z 2 = 0 } = Span { [ ] }. 0 Egenrommet svarende til egenverdien i er altså -dimensjonalt. Det er derfor umulig å finne en basis for C 2 som består av egenvektorer for A, og A er dermed ikke diagonaliserbar. Vi har sett i [L; avsn. 7.] at symmetriske reelle matriser alltid kan diagonaliseres (til og med ortogonalt). Hva som blir det analoge resultatet for komplekse matriser er ikke helt opplagt. Dette skal vi se nærmere på i neste avsnitt. 5

Oppgaver til Avsnitt. [ ] + 2i. La A = og B = i i [ ] i 2i. Beregn A 2 + i 0 2, AB og BA. 2. Løs følgende likningssystem og finn den inverse av koeffisientmatrisen til systemet når denne matrisen er invertibel: a) iz 2z 2 = b) iz (2 + i)z 2 = z + iz 2 = 2 z ( 2i)z 2 = i c) 2z + iz 2 ( + i)z 3 = d) z + iz 2 + ( i)z 3 = 0 z 2z 2 + iz 3 = 0 ( + 2i)z z 2 + z 3 = 0 iz + z 2 (2 i)z 3 ) = ( + i)z + 2iz 2 + (3 2i)z 3 = 0 3. Finn en basis for U når U er underrommet av C 3 gitt ved { w } a) U = z + w z, w C z iw { z } b) U = C 3 iz 3z 2 + ( i)z 3 = 0 z 2 z 3 { + i } 4. La B = i, 2i, i. 0 i i a) Vis at B er en basis for C 3. i b) La z = 2 i. Finn koordinatvektoren [z] B. + 2i 5. La T : C 2 C 2 være den lineære avbildningen bestemt ved T ( [ ] ) [ ] i = 0 + i og T ( [ ] 0 ) [ ] + i =. 2i a) Angi standardmatrisen til T og beregn T ( [ ] 3 i ). + 2i b) Begrunn at T ikke er en isomorfi. 6

6. La T : C 3 C 2 være den lineære avbildningen bestemt ved ( ) [ ] ( 0 ) [ ] + i 2i T 0 =, T = 2 i 0 0 a) Angi standardmatrisen til T og beregn T b) Begrunn at T er på C 2. og ( 2 + i ). 3 i 7. La T : C 3 C 3 være den lineære avbildningen som har 2i + i A = 3i i som sin standardmatrise. 0 + i Vis at T er en isomorfi og finn standardmatrisen til T. 8. Finn rangen til følgende matriser: + i i i a) A = + i 2 + i i + i + 4i + 3i 2 i 2 i i i + i b) A = i + i + 2i i i + 2i 3i 2 + 3i ( 0 ) [ ] + 2i T 0 =. 3 + i 9. Vis at matrisen A er diagonaliserbar og angi en egenvektor basis når: a) [ ] [ ] /2 3 8i + 7i A = b) A = i 4i 2 + 6i 0. Undersøk om følgende matriser er diagonaliserbare (over C) og angi en egenvektorbasis når det er mulig: [ ] [ ] [ ] i 2i 5 6 a) b) c) i 2 0 2 3 0 i 2 2 3 2 c) 0 2 0 d) 2 2 2 e) 0 2 i 0 3 6 6 0 i c. Bestem c C slik at matrisen 0 i 2i er diagonaliserbar. 0 0 7

.2 Standard indreproduktet på C n Når vi har arbeidet med vektorer i R n har vi hatt stor nytte av at R n kan utstyres med det såkalte Euklidske indreproduktet, m.a.o. prikkproduktet. Prikkproduktet av vektorer i C n lar seg definere uten problemer: Prikkproduktet z = z. z n og w = w. w n i C n defineres ved z w = z w + + z n w n. Dette gir spesielt at z z = z 2 + + zn 2. [ ] i Med z = C 2, får vi da at Videre, med w = z z = i 2 + = 0, samtidig som z 0. [ i 0 ], så blir w w = i 2 = < 0. Det er alstå ikke slik at z z 0 når z 0, og heller ikke slik z z 0 for alle z C n. Dette betyr at dersom vi skulle ha definert lengden av en vektor z i C n som en kvadratrot av z z, så ville det gi oss et begrep med merkelige egenskaper. Nå finnes det en naturlig måte å definere lengden (eller normen) av vektorer i C n, slik at de vanlige egenskapene for lengdebegrep er oppfylte. Vi minner først om at når z = x + i y C, der x, y R, så er dets konjugert z definert ved z = x i y. Lengden (eller modulus) til z er definert ved z = (x 2 + y 2 ) /2, og vi har da z 2 = z z = z z. Lengden (eller normen) til z = z. z n C n defineres ved z = ( z 2 + + z n 2 ) /2 Vi merker oss at dette kan omskrives som z 2 = z 2 + + z n 2 = z z + + z n z n. 8

Dette gir oss ideen til å definere standard indreproduktet av z og w i C n ved når z = z. z n, w = w. w n z, w = z w + + z n w n C n. Det gir nemlig at siden z = z, z /2 z 2 = z z + + z n z n = z, z. Eksempel. La z = Da er + i 2 og w = 3i i + 4i 0 C 3. og z, w = ( + i)( i) + 2( 4i) + 3i 0 = 9i z = ( + i 2 + 2 2 + 3i 2 ) /2 = (2 + 4 + 9) /2 = 5. Det er lett å sjekke at følgende egenskaper holder: Teorem. La z, z, w, w C n og la λ C. Da gjelder ) z + z, w = z, w + z, w 2) z, w + w = z, w + z, w 3) w, z = z, w 4) λ z, w = λ z, w 5) z, λ w = λ z, w 6) z, z 0 ; og z, z = 0 z = 0. Hovedforskjellen fra prikkproduktet i R n ligger i egenskapene 3) og 5) som man bør merke seg spesielt. Disse to egenskaper gjenspeiler at vi konjugerer koordinatene til w i definisjonen av z, w. 9

Legg merke til at vi gjorde et valg her: i definisjonen av z, w kunne vi godt ha valgt å konjugere koordinatene til z istedet for koordinatene til w, og da ville 4) og 5) blitt til henholdsvis λ z, w = λ z, w og z, λ w = λ z, w. I en del bøker, spesielt de som retter seg mot fysikk og matematisk fysikk, brukes denne varianten. Her er det snakk om smak og behag, begge valgene har notasjonsmessige fordeler og ulemper. Eksempel 2. La z C n og λ C. Da er λz = λ z. Vi har nemlig at λz 2 = λz, λz = λ z, λz = λλ z, z = λ 2 z 2 ved å bruke egenskapene 4) og 5) i Teorem. Dette gir spesielt at z z = z z = når z 0. Teorien utvikles nå videre på nesten samme måte som før: Hvis z, w C n sier vi at z og w er ortogonale dersom z, w = 0. En mengde S = {z,..., z p } i C n kalles ortogonal dersom z i og z j er ortogonale for alle i j. Hvis også alle z i -ene er enhetsvektorer, dvs. z i = for alle i, kalles S ortonormal. [ ] i Eksempel 3. La z = og w = Da er z og w ortogonale siden Videre er [ ] i. z, w = i i + = i 2 + = 0. z = ( i 2 + 2 ) /2 = 2 = w. Dermed blir mengden S = { z, z w w} = { [ ] [ ] 2 i, 2 i } ortonormal. På samme måte som i MAT20 sjekker man at en ortonormal mengde automatiskt er lineært uavhengig. Mengden S er derfor en ortonormal basis for C 2. 20

La w, z C n, z 0. Den ortogonale projeksjonen av w langs z er definert ved p = proj z (w) = w, z z, z z Poenget er at da er w = p + (w p), hvor p er et multippel av z, mens så p, z = m.a.o. w p og z er ortogonale. Eksempel 4. La z = w, z z, z z, z = w, z z, z = w, z, z, z w p, z = w, z p, z = 0, [ ] [ i, w = 0 + i p = proj z (w) = + i 2 Man kan lett sjekke at w p = 2 ]. Da er w, z = + i og z, z = 2, så [ ] i = 2 [ ] + i. + i [ ] i er ortogonal på z. + i Anta nå at vi har funnet en basis B for et underrom W av C n. Da kan vi finne en ortogonal basis for W ved å bruke Gram-Schmidt prosessen på B. Dersom B består av vektorene w,..., w p, setter vi : v = w v 2 = w 2 proj v (w 2 ). v p = w p proj v (w p ) proj vp (w p ) Mengden {v,..., v p } er da en ortogonal basis for W. En ortonormal basis for W kan vi om nødvendig få ved å normalisere hver v i til lengde (slik vi gjorde i Eksempel 2). 2

La nå v C n. Vi definerer den ortogonale projeksjonen av v på W ved Dette kan også skrives som Proj W (v) = v, v v, v v + + v, v p v p, v p v p. Proj W (v) = proj v (v) + + proj vp (v). Setter vi w = Proj W (v) og w = v Proj W (v), så er v = w + w der w W og w W = { z C n z, u = 0 for alle u W }. Denne dekomposisjonen av v som en sum av en vektor i W og en vektor i det ortogonale komplementet W er entydig, akkurat på samme måte som i det reelle tilfellet. Vektoren w = Proj W (v) er vektoren i W som har minst avstand til v, dvs at v w < v u for alle u W, u w. Vektoren w gir altså den beste approksimasjonen til v blandt vektorene i W. Eksempel 5. La w = i, w 2 = i Sett B = {w, w 2 } og W = Span B. + i 0. i Siden w og w 2 opplagt ikke er multiple av hverandre, er B lineært uavhengig, og B er dermed en basis for W. Vi bruker Gram-Schmidt prosessen på B: Vi setter v = w = i. i Nå er proj v (w 2 ) = w 2, v v, v v = i 3 v 2 = w 2 proj v (w 2 ) = Videre er v = 3 og v 2 = 2 6 3. i, slik at i + i 0 i 3 i 22 i = 3 i 3 + 2i 3i.

{ 3 + 2i } Så 3 i, i 2 er en ortonormal basis for W. 6 3i Den ortogonale projeksjonen av v = 0 på W blir derfor 0 Proj W (v) = i + 3 2i 3 + 2i = 7 + 2i. 3 24 8 i 3i i Ortogonale matriser spiller en viktig rolle i den reelle teorien; vi minner om at en n n reell matrise U kalles ortogonal dersom U er invertibel med U = U t (med U t menes den transponerte matrisen til U). Dette er som kjent ekvivalent med at kolonnevektorene til U danner en ortonormal basis for R n m.h.p. prikkproduktet. En n n kompleks matrise U kalles unitær dersom dens kolonnevektorer danner en ortonormal basis for C n m.h.p. standard indreproduktet på C n. NB! Merk at dette er ikke det samme som å si at U t U = I. For å få til en tilsvarende karakterisering av det betyr at U er unitær, må vi først introdusere det som kalles den konjugert-transponert matrisen A til en m n kompleks matrise A: A er n m matrisen som er gitt ved A = [ a ij ] t dersom A = [ a ij ] der t står for transponering og er definert som for reelle matriser. Vi får altså A ved å først konjugere hver koeffisient i A; deretter transponerer vi. Vi kan også gjøre disse to operasjonene i omvendt rekkefølge. [ ] + i 2 3i 0 Eksempel 6. A = i 4 5 + 2i Eksempel 7. z = z. z n gir z = [z z n ]. i i gir A = 2 + 3i 4. 0 5 2i Det gir oss følgende nyttige formel: z, w = z w når z, w C n. 23

Eksempel 8. La A være en reell matrise. Da er A = A t. Betrakt nå en n n kompleks matrise U = [u u n ]. Da er U U = [u i u j ] = [ u i, u j ]. Så vi får at U er unitær u i, u j = og da er U invertibel med U = U. { hvis i = j 0 hvis i j U U = I Eksempel 9. Fra Eksempel 3 får vi at matrisen U = [ i/ 2 / 2 unitær, og vi har da at U = U = i/ 2 / ]. 2 [ i/ 2 i/ 2 / 2 / ] er 2 Eksempel 0. En reell ortogonal matrise U er unitær når den betraktes som en kompleks matrise siden vi har da U U =U t U =I. De unitære matrisene spiller samme rolle i den komplekse teorien som de ortogonale i den reelle teorien. Før vi går videre, la oss nevne noen egenskaper for konjugert-transponering, som det er en lett oppgave å verifisere. Teorem 2. gjelder: La A, B være m n matriser, C en n p matrise og λ C. Da. (A + B) = A + B 2. (λa) = λa 3. (AC) = C A 4. (A ) = A Eksempel. La U være en n n unitær matrise og z, w C n. Ved å bruke Eksempel 7 og Teorem 2 får vi Uz, Uw = (Uz) (Uw) = z U U w = z I w = z w = z, w og dermed Uz 2 = Uz, Uz = z, z = z 2. Så avbildningen z U z fra C n inn i C n bevarer indreproduktet og normen. 24

La A være en n n kompleks matrise. I analogi med den reelle situasjonen sier vi at A er unitært diagonaliserbar dersom det fins en n n unitær matrise U og en n n diagonal matrise D slik at AU =UD, m.a.o. slik at U AU =D. Det er rett frem å sjekke at A er unitært diagonaliserbar hvis og bare hvis det fins en ortonormal basis for C n som består av egenvektorer for A: Hvis {z,..., z n } er en ortonormal basis for C n slik at A z = λ z,..., A z n = λ n z n for passende λ,, λ n C, kan vi sette U = [z... z n ] og D = λ 0... 0 λ n Da er U unitær og AU = UD. Den omvendte implikasjonen begrunnes tilsvarende. Et naturlig spørsmål er nå: hvilke matriser er unitært diagonaliserbar? For reelle matriser vet vi at A er ortogonalt diagonaliserbar presist når A er symmetrisk, dvs. A t = A. Det er derfor naturlig å tippe at svaret på spørsmålet ovenfor vil være: de komplekse matrisene som er slik at A = A. Som vi skal se, er ikke dette svaret fullstendig; alle slike matriser er unitært diagonaliserbare, men det fins også andre matriser som er unitært diagonaliserbare. Vi ser først på klassen av komplekse matriser som svarer til symmetriske reelle matriser: En n n kompleks matrise A kalles Hermitisk (eller selvadjungert) dersom A = A Legg merke til at koeffisientene a ii langs hoveddiagonalen til en Hermitisk matrise A = [a ij ] tilfredsstiller at a ii = a ii, m.a.o. at a ii R.. Eksempel 2. [ ] [ ] 4 2 + 3i A = er Hermitisk siden A 2 3i 7 4 2 3i t = = A. 2 + 3i 7 i 2 i 2 B = i 0 i er ikke Hermitisk siden B = i 0 i B. 2 i 2 i 25

Eksempel 3. En reell symmetrisk matrise A er Hermitisk (når den betraktes som en kompleks matrise) siden A = A t = A. Hermitiske matriser kan karakteriseres som følger. Teorem 3. En n n kompleks matrise A er Hermitisk hvis og bare hvis A z, w = z, A w for alle z, w C n. Bevis. Vi bruker her formelen fra Eksempel 7 og Teorem 2 gjentatte ganger. Anta at A er Hermitisk. For alle z, w C n er da og dermed A z, w = z, A w. Az, w = (A z) w = z A w = z A w = z, A w, Omvendt, anta at A z, w = z, A w for alle z, w C n. For alle z, w C n er da A z, w = z, A w, så (A z) w = z A w, som gir z A w = z Aw, z (A A) w = 0, z, (A A) w = 0. Ved å sette inn z = (A A) w gir dette altså m.a.o. (A A) w, (A A) w = 0, (A A) w = 0, for alle w C n. altså Dette betyr at A A = 0, m.a.o. A = A, som ønsket. Hermitiske matriser har følgende analoge egenskaper til symmetriske matriser. Teorem 4. La A være en n n Hermitisk matrise. Da gjelder: ) Egenverdiene til A er alle reelle. 2) Egenvektorer som tilhører forskjellige egenverdier er ortogonale på hverandre. 3) A er unitært diagonaliserbar. 26

Bevis. ) La λ C være en egenverdi for A med tilhørende egenvektor z C n. Vi kan anta at z =. Da er λ = λ z, z = λ z, z = A z, z = z, A z (ved Teorem 3) Dette viser at λ R. = z, λ z = λ z, z = λ. 2) Anta λ, λ 2 R er forskjellige egenverdier for A med tilhørende respektive egenvektorer z og z 2. Da er λ z, z 2 = λ z, z 2 = Az, z 2 = z, Az 2 = z, λ 2 z 2 = λ 2 z, z 2. Siden λ λ 2 må z, z 2 = 0 som ønsket. 3) Denne påstanden vil bli bevist i kapittel 3. 0 i Eksempel 4. La A = 0 2 0. Matrisen A er opplagt Hermitisk. i 0 Vi vet da at A er unitært diagonaliserbar, og at det dermed finnes en ortonormal egenvektorbasis for A. En slik basis er enkel å bestemme: Vi har at λ 0 i det(a λi) = 0 2 λ 0 = (2 λ)(( λ) 2 + i 2 ) i 0 λ = (2 λ)( 2λ + λ 2 ) = λ(2 λ) 2. Egenverdiene til A er derfor λ = 0 (med multiplisitet ), og λ 2 = 2 (med multiplisitet 2). { i } En basis for egenrommet E 0 = Nul A (svarende til λ = 0) er 0. En basis for egenrommet E 2 = Nul(A 2 I) (svarende til λ 2 = 2) finner vi ved først å finne en redusert trappeform for 0 i 0 i A 2I = 0 0 0 0 0 0. i 0 0 0 0 27

{ z } { iz 3 } Dette gir E 2 = z 2 C 3 z = iz 3 = z 2 z 2, z 3 C z 3 z 3 { 0 i } = z 2 + z 3 0 z 2, z 3 C. 0 { 0 i } Så, 0 er en basis for E 2. Faktisk er denne basisen ortogonal, så vi 0 slipper å bruke Gram-Schmidt prosessen. { i 0 i } Vi finner derfor at 0,, 0 er en ortogonal basis for C 3 som 0 består av egenvektorer for A. { i/ 2 0 i/ 2 } Etter normalisering, får vi at 0 /,, 0 2 0 / er en ortonormal 2 egenvektorbasis for A. i/ 2 0 i/ 2 Spesielt er matrisen U = 0 0 / 2 0 / unitær og slik at 2 0 0 0 U A U = 0 2 0. 0 0 2 Det er lett å finne eksempler på matriser som ikke er Hermitiske, men som er unitært diagonaliserbare. Eksempel 5. Sett A = mot klokka. Da er A = A t = [ ] 0, så A er rotasjonsmatrisen med vinkelen 0 π 2 [ ] 0 A, så A er ikke Hermitisk. 0 Men A er unitært diagonaliserbar: ved en enkel utregning finner vi at [ ] [ ] den unitære matrisen U = i i 0 2 gir U i A U =. 0 i 28

Rotasjonsmatriser er ortogonale og derfor spesielt unitære (jf. Eksempel 0). Dersom man eksperimenterer litt med unitære matriser vil man fort innse at alt tyder på at enhver unitær matrise lar seg unitært diagonalisere. Klassen av alle unitært diagonaliserbare matriser ser derfor ut til å inneholde alle Hermitiske og alle unitære matriser. Hva er fellesnevneren for disse? Vel, hvis A er Hermitisk, er A A = AA = AA, mens hvis U er unitær, så er U U = I = UU. En mulig fellesnevner er altså at matrisen er normal i henhold til følgende definisjon: En kvadratisk kompleks matrise N kalles normal dersom N N = N N. Hermitiske og unitære matriser er altså normale. Videre gjelder følgende: Teorem 5. En kvadratisk kompleks matrise N er unitært diagonaliserbar hvis og bare hvis N er normal. Bevis. Vi viser her bare at dersom N er unitært diagonaliserbar, så er N normal. Den omvendte implikasjonen vil vi vise i kapittel 3. Anta at det fins en unitær matrise U og en diagonal matrise D slik at U NU = D. Det er trivielt å sjekke at D D = DD, m.a.o. at diagonale matriser er normale. Nå er N = UDU og N = UD U, så N N = UD U UD U = UD DU = UDD U = UDU UD U = NN og N er normal. [ ] + i + i Eksempel 6. La N =. Det er enkelt å sjekke at N er + i + i hverken Hermitisk eller unitær. La oss undersøke om N er normal: [ ] [ ] [ ] i i + i + i 4 0 N N = = i i + i + i 0 4 [ ] [ ] [ ] + i + i i i 4 0 N N = = + i + i i i 0 4 Så N er normal, og vi vet derfor at N lar seg unitært diagonalisere. Man finner uten problemer [ at ] N har [ ] egenverdier 2 og 2i med tilhørende egenvektorer henholdsvis og. Matrisen U = [ / 2 / 2 / 2 / ] [ ] 2 0 er dermed unitær og slik at U 2 NU =. 0 2i 29

Eksempel 7. La A = [ ] i. Da er 0 0 [ ] [ ] [ ] i 0 i i A A = = 0 0 0 i [ ] [ ] [ ] i i 0 2 0 AA = =. 0 0 0 0 0 og Så A A AA og A er ikke normal. Vi kan derfor slutte at A ikke er unitært diagonaliserbar. Men vi legger merke til at A er diagonaliserbar siden A har to forskjellige egenverdier, nemlig i og 0. Vi bemerker til slutt at hvis N er en normal matrise, så vil egenvektorer som tilhører forskjellige egenverdier være ortogonale på hverandre (jf. Oppgave 25 dette skal vi vise senere i en mer generell sammenheng). Dette betyr at fremgangsmåten som vi har brukt for symmetriske og Hermitiske matriser kan også brukes når man skal regne ut en ortonormal egenvektorbasis for en normal matrise N. 30

Oppgaver til Avsnitt.2. Beregn z, w, w, z, z og w når: a) z = ( i, 2, i), w = (2 + i, i, ) b) z = ( + 2i, 2 4i), w = (3 i, i) c) z = (, i, 0, i), w = ( 2i,, 3 + 4i, 0) 2. Avgjør om z og w er ortogonale når: a) z = (4, 3i, 2 + i), w = (i, 2, 2 4i) b) z = (4 + 4i, 2 + i, 2i), w = ( + i, 2, 3 2i) c) z = (,, i), w = (, i, + i) 3. Vis noen av utsagnene i Teorem. 4. Finn p = proj z (w) og sjekk at w p og z er ortogonale når: [ ] [ ] i a) z =, w =. i b) z =, w =. i 2 0 2 c) z = i, w = 2i. 0 0 5. Finn en ortogonal basis for W og Proj W (v) når { } i a) W = Span i, og v =. 0 3 + 3i { i } i b) W = Span, og v = i. i 2 25 { 0 i } 2 c) W = Span i, 2i, i 0 og v = 0 0. 0 0 4 0 3

6. Finn A og avgjør om A er Hermitisk når: [ ] i a) A = i 2 [ ] c) A = 2 e) A = i i i 2 0 + i 0 3 7. Avgjør om U er unitær når: [ ] i 0 a) U = b) U = 0 [ 3 ] ( + i) 6 ( + i) c) U = 2 3 i 6 i [ ] 3 b) A = 3 2 [ ] 2 i d) A = 2 + i i 0 i i i 0 0 i 0 0 f) A = 3 [ 8. Vis noen av utsagnene i Teorem 2. ] + i + i 9. La A være en kvadratisk invertibel kompleks matrise. Vis at A er invertibel med (A ) = (A ). 0. a) Vis at det A = det A når A er en kvadratisk matrise. b) Begrunn at det A er reell når A er Hermitisk. c) Vis at det U = når U er unitær.. La {u,..., u p } være en ortonormal mengde av vektorer i C n. Sett U = [u... u p ], P = U U og W =Span{u,..., u p }. a) Sjekk at U U = I og at P er en n n Hermitisk matrise som er slik at P 2 = P. b) Definer P W : C n C n ved P W (z) = Proj W (z), z C n. Begrunn at P W er lineær og at P er standardmatrisen til P W. c) Finn standardmatrisen P til P W når W er som i Oppgave 5 a) og sjekk at P W (v) = Proj W (v) = P v når v er som i Oppgave 5 a). 32

2. Finn en ortonormal egenvektor basis for følgende Hermitiske matriser: [ ] [ ] [ ] 4 3 i 2i a) b) c) 4 2 + i 3 + i 2i 2 i 2 0 + i 0 0 i i d) 0 2 0 e) 0 + i f) i i i 0 0 0 i 2 i i 0 3. Avgjør om følgende matriser er Hermitiske, unitære eller normale: [ ] a) 2 i i [ ] 2i + i c) + i i [ ] + i b) + i i [ ] d) 2 i 2 i 30 5 [ ] 4. La V = i 2. Sjekk at V er unitær og finn en unitær matrise U slik i at U V U er diagonal. [ ] + i i 5. La A =. Vis at A er unitært diagonaliserbar og finn en i + i unitær matrise U slik at U AU er diagonal. 6. En kvadratisk matrise A kalles skjev-hermitisk dersom A = A. a) Vis at en skjev-hermitisk matrise er unitært diagonaliserbar. b) La A = [ ] i 2. Sjekk at A er skjev-hermitisk og finn en ortonormal 2 i egenvektorbasis for A. i 7. La A = i. Avgjør om A er unitært diagonaliserbar. i 8. Bestem alle z C som er slik at [ ] i z er unitært diagonaliserbar. 2 i [ ] z i 9. Bestem alle z, w C som er slik at er unitært diagonaliserbar. i w 20. La A = [ ] z der z C. Finn en ortonormal egenvektorbasis for A. z 33

[ ] a z 2. La A = der a, b R, z C, z 0. /z b a) Vis at A er diagonaliserbar. b) Finn når A er Hermitisk. c) Finn en ortonormal egenvektorbasis for A når a = 2, b = 0 og z = i. d) Finn når A er unitær. e) Vis at A er normal A er Hermitisk. [ ] a b 22. La A = der a, b R. b a Vis at A er normal og finn en ortonormal egenvektorbasis for A. 23. En n n Hermitisk matrise Q kalles positiv definitt dersom Qz, z > 0 for alle z C n, z 0. a) Vis at en Hermitisk matrise Q er positiv definitt hvis og bare hvis alle egenverdiene til Q er større enn 0. [ ] 2 + i b) Vis at Q = er positiv definitt. i 3 24. La A være en kvadratisk matrise. a) Vis at A A, AA og A + A er Hermitiske. b) Vis at A kan skrives på en entydig måte på formen A = H + ih 2 der H og H 2 er Hermitiske. 25. La N være en normal matrise. Vis at to egenvektorer for N som tilhører forskjellige egenverdier er ortogonale. 26. La H være en kvadratisk matrise. Vis at følgende påstander er ekvivalente: a) H er Hermitisk. b) H er normal og har bare reelle egenverdier. c) H er unitært diagonaliserbar og har bare reelle egenverdier. 27. La U være en kvadratisk matrise. Vis at følgende påstander er ekvivalente: a) U er unitær. b) U er normal og alle egenverdiene til U har lengde (modulus) lik. c) U er unitært diagonaliserbar og alle egenverdiene til U har lengde (modulus) lik. 34

Kapittel 2 Vektorrom og lineæravbildninger I hele dette kapitlet og i resten av heftet lar vi K betegne enten R eller C, og betrakter vektorrom over K, med mindre vi spesifikt sier noe annet. I en god del av det vi skal gjøre kunne vi latt K betegne det som kalles en kropp 3. I anvendelser er som oftest K lik R eller C, og vi skal nøye oss med det. Eksempler er viktige og vi skal gjennomgå mange i avsnitt 2.2. Vi begynner først med å innføre en del terminologi og utvikle noe teori som utfyller [L] og Kapittel. 2. Om basiser, billedrom og nullrom 2.. Om basiser La V være et vektorrom (over K). Når V er endeligdimensjonalt vet vi at V alltid har en basis, som består av endelige mange elementer. Når V er uendeligdimensjonalt kan man også snakke om basiser. Hvis V ikke har noe tilleggsstruktur, slik som her, er det basiser som er rent algebraisk definert som er aktuelle, og disse kalles ofte Hamel basiser. Definisjonen er som følger. La B være en ikketom delmengde av V. Vi setter Span B = {v V v Span S for (minst) en endelig delmengde S av B}. Uttrykt med ord betyr det at Span B består av alle endelige lineære kombinasjoner som kan dannes med vektorer fra B. Videre sier vi at B er lineært uavhengig dersom enhver endelig delmengde av B er lineært uavhengig. I analogi med det endeligdimensjonale tilfellet sier vi at B er en (Hamel) basis for V dersom Span B = V og B er lineært uavhengig. Mengden B er altså en basis for V dersom enhver vektor v i V kan skrives som en endelig lineær kombinasjon av vektorer i B og ethvert endelig utvalg av forskjellige vektorer i B er lineært uavhengig. Som nevnt i Kapittel bruker vi følgende konvensjon: Span = {0} (p. def.) og ansees som lineært uavhengig. Dermed er en basis for {0}. Som oftest vil vi angi en basis B som en indeksert mengde {b j j J} for en passende indeksmengde J, slik at det ligner den vanlige skrivemåten for basiser i det endeligdimensjonale tilfellet. 3 Begrepet kropp defineres og studeres i MAT2200. 35

Eksempel. Betrakt det reelle vektorrommet P(R) som består av alle polynomer med reelle koeffisienter i en reell variabel. Som kjent fra [L], så er P(R) uendeligdimensjonalt. Men det har en naturlig basis: For hver j Z + = {0,, 2,...} definerer vi p j P(R) ved p j (x) = x j når x R. Det er da rett frem å sjekke at B = {p j j Z + } er en basis for P(R) (Opp. ). Det kan vises at ethvert vektorrom alltid har en basis. Beviset bygger på det såkalte Zorns lemma fra mengdelæren, og er ikke-kontruktivt i den forstand at det ikke angir en prosedyre som kan brukes i praksis til å konstruere en basis. Mange uendeligdimensjonale vektorrom har heldigvis en naturlig standard basis, slik som vi så ovenfor når det gjaldt P(R), og det vil være nok for oss å ha disse konkrete eksemplene i tankene. Zorns lemma kan faktisk brukes til å vise følgende mer generell påstand: Dersom A er en lineært uavhengig delmengde av V, så kan A alltid (om nødvendig) utvides til en basis B for V. Dette resultatet kjenner vi fra før når V er endeligdimensjonalt (jf. [L], avsnitt 4.5, Teorem ). Grunnidéen er at en lineært uavhengig delmengde av V som ikke utspenner V kan alltid utvides med en vektor til en større lineært uavhengig mengde. Er V endeligdimensjonalt kan vi ikke fortsette en slik prosess i det uendelige og vi kommer da frem til en basis B. Zorns lemma sikrer at B må eksistere selv om V er uendeligdimensjonalt. (Oppgave 6 sier litt mer om dette). Følgende resultat illustrerer noe av poenget med basiser: Teorem. La B = {b j j J} være en basis for V og la W være et vektorrom. a) Anta at T : V W er lineær. Da er T bestemt av sine verdier på B. b) Anta {w j j J} er en delmengde av W. Da fins det en entydig bestemt lineæravbildning T : V W slik at T (b j ) = w j for alle j J. Bevis. a) Sett w j = T (b j ) for hver j J og la v V. Da er v = n k= λ k b jk for passende λ,... λ n K og j,..., j n J. Lineæritet av T gir at n n T (v) = λ k T (b jk ) = λ k w jk. k= k= Dette betyr at hvis vi kjenner T (b j ) for alle j J, så kan vi beregne T (v) for enhver v V. 36

b) Hvis v V kan vi skrive v = n k= λ k b jk som i a) og definere T (v) ved T (v) = n k= λ k w jk. Spesielt er da T (b j ) = w j for alle j J. Nå er det en enkel oppgave å sjekke at T er lineær (Oppgave 2), og det er da klart at T blir entydig bestemt av disse egenskapene ved å bruke a). Eksempel 2. Betrakt vektorrommet P(R) med sin standard basis {p j j Z + } og N = {, 2, 3,... } = {j + j Z + } R. Vi betrakter her R som et vektorrom. Teorem gir oss da at det fins en entydig bestemt lineæravbildning F : P(R) R som er slik at F (p j ) = j +, j Z +. Her går det fint an regne ut et uttrykk for F : vi finner at F (a 0 + a x + + a n x n ) = a 0 + 2a + + na n + (n + )a n. Når V er et vektorrom over K, kalles forøvrig en lineæravbildning F : V K for en lineær funksjonal på V. Mengden av alle lineære funksjonaler på V betegnes med V # og kalles det algebraiske dualet til V. Eksempel 3. Betrakt V = K n. For hver y K n vet vi fra egenskapene til standard indreproduktet på K n at F y : K n K gitt ved F y (x) = x, y er en lineær funksjonal på K n. Faktisk kan alle elementene i (K n ) # angies på denne formen (Oppgave 7). Vektorrom utstyres ofte med en norm eller et indreprodukt (jf. Kapittel 3). Dualet V = {F V # F er kontinuerlig}, og samspillet mellom V og V, spiller en viktig rolle i fagfeltet som kalles funksjonalanalyse 2..2 Om billedrom og nullrom til lineæravbildninger I hele dette delavsnittet lar vi T : V W være en lineæravbildning mellom to vektorrom V og W (over K). Hvis U er en ikketom delmengde av V setter vi T (U) = {T (u) u U} = {w W w = T (u) for (minst) en u U}. Vi setter ellers T ( ) =. 37

Vi minner om at underrommet av W gitt ved R(T ) = T (V ) kalles billedrommet til T. Nullrommet (eller kjernen) til T er underrommet av V gitt ved N(T ) = {v V T (v) = 0}. Mange skriver Ker(T ) istedet for N(T ). Eksempel 4. La A M m n (K) og T = L A : K n K m være lineæravbildningen som har A som sin standardmatrise. Da er R(L A ) = {A v v K n } = Col A = kolonnerommet til A N(L A ) = {v V A v = 0} = Nul A = nullrommet til A. Følgende resultat vises på samme måte som for T = L A i [L]. (Tenk selv gjennom beviset før du eventuelt slår opp i Lays bok!). Teorem 2. N(T ) = {0} hvis og bare hvis T er - Et annet nyttig resulat er følgende: Teorem 3. La B være en basis for V. Da gjelder: i) R(T ) = Span T (B). ii) Span T (B) = W T er på W. iii) T (B) er lineært uavhengig T (B) er en basis for R(T ) T er -. iv) T (B) en basis for W T er en isomorfi. Bevis. Hvis B =, dvs V = {0}, er alle påstandene i teoremet trivielle. Vi antar derfor at B = og skriver B = {b j j J} for en passende indeksmengde J Ø. i) Siden V = Span B, er R(T ) = T (V ) = T ( Span B ) = Span T (B) (ved lineæritet av T ). ii) følger direkte av i). iii) Anta først at T (B) = {T (b j ) j J} er lineært uavhengig. Siden Span T (B) = R(T ) (ved i)) er da T (B) en basis for for R(T ). Anta så at T (B) = {T (b j ) j J} er en basis for R(T ). Vi vil vise at da er N(T ) = {0}. Anta (for motsigelse) at det finnes en v N(T ), v 0. 38

Da finnes c,..., c n K, ikke alle lik null, og j,..., j n J slik at Det gir v = c b j + + c n b jn. 0 = T (v) = c T (b j ) + + c n T (b jn ). Siden T (b j ),..., T (b jn ) er lineært uavhengige, må da c = = c n = 0, noe som gir en motsigelse. Dette betyr at N(T ) = {0}, så T er - (ved Teorem 2). Anta til slutt at T er -. Da er T (B) lineært uavhengig: Betrakt nemlig et endelig utvalg T (b j ),..., T (b jn ) av forskjellige vektorer i T (B) og anta at c T (b j ) + + c n T (b jn ) = 0. Da er T (c b j + + c n b jn ) = c T (b j ) + + c n T (b jn ) = 0. Så c b j + + c n b jn = 0 (siden N(T ) = {0}). Men da er c = = c n = 0 siden b j,..., b jn er lineært uavhengige. Disse tre implikasjonene tilsammen viser at iii) holder. iv) Dersom T er en isomorfi, er T - og på W, og vi får da fra iii) at T (B) en basis for R(T ) = W. Omvendt, anta at T (B) en basis for W. Da er Span T (B) = W, så T er på W (ved ii)). Videre vet vi da at T (B) en basis for W = R(T ), og iii) gir oss at T er -. Dermed er T en isomorfi. Eksempel 5. Vi betrakter igjen P(R) med sin standard basis B = {p j } j Z + og lar S : P(R) P(R) være lineæravbildningen som er bestemt ved S(p j ) = p j+, j Z +. Da er S(B) = {p i } i N B. Siden B er lineært uavhengig, er S(B) også det. Teorem 3 iii) gir da at S er - og at {p i } i N er en basis for R(S). Merk at S ikke er på P(R): R(S) består av alle polynomene uten konstantledd (overbevis deg om det), og vi har f.eks. at R(S). Eksempel 6. Anta at V er endeligdimensjonalt. Fra Teorem 3 i) ser vi at R(T ) er da også endeligdimensjonalt, med dim R(T ) dim V. Videre, fra henholdsvis Teorem 3 ii), iii) og iv), får vi: - Hvis T er på W, så er W endeligdimensjonalt, med dim W dim V. - Hvis T er -, så er dim R(T ) = dim V. - Hvis T er en isomorfi, så er W endeligdimensjonalt, med dim W = dim V. 39

Når V er endeligdimensjonalt, er det alltid en sammenheng mellom dim N(T ), som kalles nulliteten til T, og dim R(T ), som kalles rangen til T. Teorem 4 (Dimensjonsteoremet). Anta at V er endeligdimensjonalt. Da er R(T ) endeligdimensjonalt, og vi har at dim N(T ) + dim R(T ) = dim V Bevis. Vi bemerker først at denne formelen generaliser rangteoremet for matriser (som vi får ved å velge T = L A ) og at den kan bevises ved hjelp av dette teoremet 4. Vi gir i stedet et direkte bevis. At R(T ) er endeligdimensjonalt er en umiddelbar konsekvens fra Teorem 3 i). Problemet er å bevise selve dimensjonsformelen. Hvis N(T ) = {0}, m.a.o. hvis T er -, gir Teorem 3 iii) at dim R(T ) = dim V og formelen er da opplagt sant. På den andre siden, hvis N(T ) = V, så er T = O (= nullavbildningen), R(T ) = {0}, og teoremet er da trivielt sant. Vi antar derfor at {0} = N(T ) V, og setter k = dim N(T ), n = dim V. Vi har da at k < n. Sett m = n k N. Vi skal altså vise at dim R(T ) = m. La A = {a,..., a k } være en basis for N(T ). Vi kan da utvide A til en basis B = {a,..., a k, b,..., b m } for V. Poenget er nå at C = {T (b ),..., T (b m )} er en basis for R(T ). Dette vil vise at dim R(T ) = m, slik som vi ønsker. Vi sjekker at C utspenner R(T ) og er lineært uavhengig. i) Span C = R(T ): Vi har at R(T ) = Span T (B) (ved Teorem 3 i)). Nå er T (a j ) = 0 for alle j, så T (B) = {0} C. Dermed er Span T (B) = Span C og påstanden følger. ii) C er lineært uavhengig: Anta at m j= c j T (b j ) = 0 der c,..., c m K. Da er T ( m j= c j b j ) = 0, så m j= c j b j N(T ). Vi kan da skrive m j= c j b j = k i= d i a i for passende d,..., d k K. Men da er ki= ( d i ) a i + m j= c j b j = 0. Siden B er lineært uavhengig, må c = = c m = 0 (og d = = d k = 0). 4 som antydet i Notat 2 fra MAT20 40