Generelle teoremer og denisjoner MA1201 Lineær Algebra og Geometri - NTNU Lærebok: Anton, H. & Rorres, C.: Elementary Linear Algebra, 11.

Like dokumenter
Generelle teoremer og definisjoner MA1201 Lineær Algebra og Geometri - NTNU

MAT1120 Repetisjon Kap. 1, 2 og 3

Lineær algebra-oppsummering

Lineær algebra. 0.1 Vektorrom

Diagonalisering. Kapittel 10

MAT-1004 Vårsemester 2017 Prøveeksamen

Lineær Algebra og Vektorrom. Eivind Eriksen. Høgskolen i Oslo, Avdeling for Ingeniørutdanning

Rang og Vektorrom. Magnus B. Botnan NTNU. 4. august, 2015

Repetisjon: Om avsn og kap. 3 i Lay

Gauss-Jordan eliminasjon; redusert echelonform. Forelesning, TMA4110 Fredag 18/9. Reduserte echelonmatriser. Reduserte echelonmatriser (forts.

Lineærtransformasjoner

MAT Onsdag 7. april Lineær uavhengighet (forts. 1.8 Underrom av R n, nullrom, basis MAT Våren UiO. 7.

Løsningsforslag til eksamen i MA1202/MA6202 Lineær algebra med anvendelser høsten 2009.

UNIVERSITET I BERGEN

MAT-1004 Vårsemester 2017 Prøveeksamen

8 Vektorrom TMA4110 høsten 2018

MAT1120 Repetisjon Kap. 1

Repetisjon: om avsn og kap. 3 i Lay

Mer om kvadratiske matriser

Mer om kvadratiske matriser

Kap. 6 Ortogonalitet og minste kvadrater

4.1 Vektorrom og underrom

Til enhver m n matrise A kan vi knytte et tall, rangen til A, som gir viktig informasjon.

Lineære likningssystemer og matriser

Vektorrom. Kapittel 7. Hva kan vi gjøre med vektorer?

Determinanter til 2 2 og 3 3 matriser

MA1202/MA S løsningsskisse

A 2 = PDP 1 PDP 1 = PD 2 P 1. og ved induksjon får vi. A k = PD k P 1. Kommentarer:

TMA4110 Eksamen høsten 2018 EKSEMPEL 1 Løsning Side 1 av 8. Løsningsforslag. Vi setter opp totalmatrisen og gausseliminerer: x 1 7x 4 = 0

Inverse matriser. E.Malinnikova, NTNU, Institutt for matematiske fag. September, 2009

Kapittel 3. Mer om egenverdier og egenvektorer. 3.1 Komplekse n-tupler og vektorer

Forelesning 10 Cramers regel med anvendelser

6.4 Gram-Schmidt prosessen

1 Gauss-Jordan metode

LØSNINGSFORSLAG EKSAMEN MA1202/MA6202 VÅR 2010

Egenverdier for 2 2 matriser

Universitet i Bergen. Eksamen i emnet MAT121 - Lineær algebra

TMA4110 Matematikk 3 Eksamen høsten 2018 Løsning Side 1 av 9. Løsningsforslag. Vi setter opp totalmatrisen og gausseliminerer:

Rom og lineæritet. Erik Bédos. Matematisk Institutt, UiO 2012.

9 Lineærtransformasjoner TMA4110 høsten 2018

Eksamensoppgave MAT juni 2010 (med løsningsforslag)

Lineær algebra. H. Fausk i=1 a ix i. Her har vi oppgitt hva ledd nummer i skal være og hvilke indekser i vi summerer over.

Lineær algebra. H. Fausk i=1 a ix i. Her har vi oppgitt hva ledd nummer i skal være og hvilke indekser i vi summerer over.

Vi skal koble diagonalisering av matriser sammen med ortogonalitet. Skal bl.a. se på

EKSAMEN I MA1202 LINEÆR ALGEBRA MED ANVENDELSER

Løsningsforslag øving 6

UNIVERSITETET I OSLO

Egenverdier og egenvektorer

16 Ortogonal diagonalisering

10 Radrommet, kolonnerommet og nullrommet

Løsningsforslag til eksamen i MA1202/MA6202 Lineær algebra med anvendelser våren 2009.

MAT1120 Oppgaver til plenumsregningen torsdag 25/9

Løsninger for eksamen i MAT Lineær algebra og M102 - Lineær algebra, fredag 28. mai 2004, Oppgave 1. M s = = 1 2 (cofm 2) T.

4.2 Nullrom, kolonnerom og lineære transformasjoner

Kap. 7 Symmetriske matriser og kvadratiske former

Til enhver m n matrise A kan vi knytte et tall, rangen til A, som gir viktig informasjon.

Løsningsforslag øving 7

MA1201/MA6201 Høsten 2016

UNIVERSITETET I OSLO

Emne 7. Vektorrom (Del 1)

4.1 Vektorrom og underrom

UNIVERSITETET I OSLO

Vær OBS på at svarene på mange av oppgavene kan skrives på flere ulike måter!

4.1 Vektorrom og underrom

Kap. 6 Ortogonalitet og minste kvadraters problemer

Elementær Matriseteori

13 Oppsummering til Ch. 5.1, 5.2 og 8.5

Pensum i lineæralgebra inneholder disse punktene.

Lineær algebra. H. Fausk i=1 a ix i. Her har vi oppgitt hva ledd nummer i skal være og hvilke indekser i vi summerer over.

Universitetet i Agder Fakultetet for teknologi og realfag Institutt for matematiske fag. Eksamen MA desember Lykke til!

12 Diagonalisering av matriser og operatorer (Ch. 5.1, 5.2 og 8.5)

MA1201, , Kandidatnummer:... Side 1 av 5. x =.

4 Matriser TMA4110 høsten 2018

5.8 Iterative estimater på egenverdier

Oppgave 1 (25 %) - Flervalgsoppgaver

Lineær uavhengighet og basis

R: 0, , = 6000 D : 0, , = 4000 La v n = angi fordelingen etter n år (dvs. a b n stemmer for R og

(3/2)R 2+R 3 R 1 +R 2,( 2)R 1 +R 3 ( 2)R 1 +R 4 6/5R 3 +R 4 1/5R 3

Matriser. Kapittel 4. Definisjoner og notasjon

x 1 x 2 x = x n b 1 b 2 b = b m Det kan være vanskelig (beregningsmessig) og bearbeide utrykk som inneholder

4.1 Vektorrom og underrom

Basis, koordinatsystem og dimensjon

Fasit til utvalgte oppgaver MAT1110, uka 13/4-16/4

7.4 Singulærverdi dekomposisjonen

UNIVERSITY OF OSLO. Faculty of Mathematics and Natural Sciences. Matlab-utskrift (1 side).

6 Determinanter TMA4110 høsten 2018

Minste kvadraters løsning, Symmetriske matriser

UNIVERSITETET I OSLO

12 Projeksjon TMA4110 høsten 2018

Matriseoperasjoner. E.Malinnikova, NTNU, Institutt for matematiske fag. September 22, 2009

(a) R n defineres som mengden av kolonnevektorer. a 1 a 2. a n. (b) R n defineres som mengden av radvektorer

Obligatorisk innleveringsoppgave, løsning Lineær algebra, Våren 2006

MAT1120 Notat 2 Tillegg til avsnitt 5.4

LO510D Lin.Alg. m/graf. anv. Våren 2005

4.4 Koordinatsystemer

Lineær algebra. Kurskompendium, Utøya, MAT1000. Inger Christin Borge

7 Egenverdier og egenvektorer TMA4110 høsten 2018

Mer lineær algebra. Inger Christin Borge. Matematisk institutt, UiO. Kompendium i MAT1012 Matematikk 2. Våren 2014

Innlevering BYPE2000 Matematikk 2000 HIOA Obligatorisk innlevering 3 Innleveringsfrist Torsdag 24. april 2014 før forelesningen Antall oppgaver: 9

Transkript:

Generelle teoremer og denisjoner MA1201 Lineær Algebra og Geometri - NTNU Lærebok: Anton, H. & Rorres, C.: Elementary Linear Algebra, 11. utgave Jonas Tjemsland 19. november 2014 1 Lineære likningssystemer og matriser 1.1 Introduksjon til lineære likningssystemer Homogent likningssystem: Ax = 0 Inhomogent likningssystem: Ax = b Et lineært likningssystem vil alltid ha løsningen x = 0. Dette kalles den trivielle løsningen. Eventuelle andre løsninger kalles ikke-trivielle løsninger. Alle lineære likningssystemer har enten ingen, én eller uendelig mange løsninger. Systemet kalles konsistent hvis det har minst én løsning, og inkonsistent hvis det har ingen løsninger. 1.2 Gauss-eliminering Matrise på (reduser) trappeform: 1. Hvis et rad ikke kun består av nullere, så skal det første tallet i raden som ikke er null, være en. Dette kalles ledende ener. 2. De radene som kun består av nullere samles på bunnen av matrisa. 3. I de radene som ikke kun består av nullere, skal den ledende eneren i de laveste radene være lengre til høyre enn de på de høyere radene. 4. (Redusert) De kolonnene som har en ledende ener skal ellers kun bestå av nullere. Denisjon 1: Hvis et lineært likningssystem har uendelig mange løsninger, så kalles parametriseringen av løsningene den generelle løsningen. Teorem 1.2.1 - Fri variabel-teorem for homogene likningssystemer Hvis et homogent likningssystem har n ukjente og hvis den reduserte trappeformen av den utvidede matrisa har r ikke-nullrader, har likningssystemet n r frie variabler. Teorem 1.2.2 - Et homogent lineært likningssystem med ere ukjente enn likninger har uendelig mange løsninger. Radoperasjoner - forandrer ikke løsningsmengden. 1. Multiplisere en rad med en konstant 0. 2. Bytte om to rader. 3. Legge til et multiplum av en rad til en annen. Gauss-eliminering er prosessen som bruker forskjellige radoperasjoner til å få en matrise på trappeform. Dersom man i tillegg får matrisa på redusert trappeform kalles det Gauss-Jordan-eliminering. En matrise har kun én mulig redusert trappeform. 1.3 Matriser og matriseoperasjoner 1

Denisjon 1: En matrise er et rektangulært spekter av tall på tabellform. Hvert av tallene kalles matrise-elementer. Denisjon 2: To matriser er denert til å være ekvivalente dersom matrisene har samme form og alle korresponderende matriseelementer er like. Noen denerte matriseoperasjoner: Matriseaddisjon: Vi adderer matriser av samme form ved å addere samhørende elementer. Skalarmultiplikasjon: Vi multipliserer en matrise med en skalar ved å multiplisere hvert element i matrisen med skalaren. Matrisemultiplikasjon: Dersom A er en m r matrise og B er en r n matrise, er produktet AB en m n matrise bestemt på følgende måte: (AB) ij = a i1 b 1j + a i2 b 2j +... + a ir b rj. Transformert av matrise: Dersom A er en m n matrise er den transformerte av matrisa A (angitt ved A T ) denert til å være n m matrisa som er et resultat av å bytte radene og kolonnene til A slik at A T ij = A ji. Spor av matrise: Dersom A er en kvadratisk matrise er sporet av A (angitt ved tr(a)) denert som summen av matriseelementene som utgjør diagonalen i A. Denisjon 3: Dersom A 1, A 2,..., A r er matriser med samme størrelse, og dersom c 1, c 2,..., c r er skalarer, så vil c 1 A 1 + c 2 A 2 + c r A r kalles en lineær kombinasjon av A 1, A 2,..., A r med koesienter c 1, c 2,..., c r. Teorem 1.3.1 - Dersom A er en m n matrise, og dersom x er en n 1 kolonnevektor, så kan produktet Ax bli uttrykt som en lineær kombinasjon av kolonnevektorene til A, der koesientene er elementene i x. 1.4 Invers; Algebraiske egenskaper til matriser Denisjon 1: Identitetsmatrisen, eller enhetsmatrisen, er en n n matrise med verdien 1 på hoveddiagonalen og 0 på de resterende plassene. Denisjon 2: Dersom A og B er to kvadratiske matriser og dersom AB = BA = I, så er A invertibel (ikke-singulær) og B = A 1 er den inverse av A. Dersom en slik matrise B ikke eksisterer er A ikke invertibel, eller singulær. Algebraisk aritmetikk Det antas at matrisene har gyldige størrelser for å kunne gjennomføre de gitte regneoperasjonene og at de forskjellige matriseoperasjonene er denert for de gitte matrisene. (a) A ± B = B ± A (b) A + (B + C) = (A + B) + C (c) A(BC) = (AB)C (d) A(B ± C) = AB ± AC (e) (B ± C)A = BA ± CA 2

(f) a(b ± C) = ab ± ac (g) (a ± b)c = ac ± bc (h) a(bc) = (ab)c (i) a(bc) = (ab)c = B(aC) (j) A ± 0 = 0 ± A = A (k) A A = A + ( A) = 0 (l) 0A = 0 (m) ca = 0 = c = 0 A = 0 (n) AI n = I m A = A (o) AA 1 = A 1 A = I (p) A n = AA A [n faktorer] (q) A 0 = I (r) A n = (A 1 ) n = (A n ) 1 (s) A r A s = A r+s (t) (A r ) s = A rs (u) (A 1 ) 1 = A (v) (ka) 1 = k 1 A 1 (w) (A T ) T = A (x) (A ± B) T = A T ± B T (y) (ka) T = ka T (z) (AB) T = B T A T (æ) (A T ) 1 = (A 1 ) T NB! AB er ikke nødvendigvis lik BA (A B). Teorem 1.4.1 - Dersom R er en kvadratisk matrise på redusert trappeform, vil enten R være en identitetsmatrise eller ha minst én rad bestående av kun nullere. Teorem 1.4.2 - Dersom A er invertibel, er den inverse entydig bestemt. Teorem 1.4.3 - Matrisa [ a b A = c d er invertibel hvis og bare hvis ad bc 0. Den inverse er i så fall gitt ved [ ] A 1 1 d b =. ad bc c a 1.5 Elementary Matrices and a Method for nding A 1 ], 3

Denisjon 1: Matrisene A og B er rad-ekvivalente dersom den ene er et resultat av å utføre en radoperasjon av den andre. Denisjon 2: En matrise E kalles en elementærmatrise dersom den er et resultat av én radoperasjon på en identitesmatrise. Teorem 1.5.1 - Produktet mellom elemtentærmatrisa E og m n matrisa A, gir det samme resultatet som om man hadde utført samme radoperasjonen som gir oss E fra enhetsmatrisa I m, på matrisa A. Teorem 1.5.2 - Alle elementærmatriser er invertible, og den inverse er også en elementærmatrise. Inversalgoritmen: For å nne den inverse til en invertibel matrise A, nn en sekvens av elementære radoperasjonen som reduserer A til identit, og deretter utfør disse radoperasjonene på identitesmatrisa I for å nne den inverse A 1. 1.6 Mer om lineære likningssystemer og invertible matriser Teorem 1.6.1 - Dersom A er en n n matrise vil det for hver kolonnevektor b av riktig størrelse, være slik at Ax = b kun ha én løsning, nemlig x = A 1 b. Teorem 1.6.2 - La A og B være kvadratiske matriser av samme størrelse. Dersom AB er invertibel må også A og B være invertible. 1.7 Diagonale, triangulære, og symmetriske matriser Denisjon 1: En diagonal matrise er en kvadratisk matrise som kun består av nullere utenom på diagonalen. Altså A ij = 0 når i j. Denisjon 2: En matrise A er nedre triangulær dersom matriseelementene under hoveddiagonalen kun består av nullere. Altså A ij = 0 når i > j. På samme måte er matrisa er øvre triangulær dersom matriseelementene over hoveddiagonalen kun består av nullere. Altså A ij = 0 når i < j. En diagonal matrise vil dermed både være øvre og nedre triangulær. Teorem 1.7.1 - (a) Den transponerte av en nedre triangulær matrise er øvre trianguler, og den transporterte av en øvre triangulær matrise er nedre triangulær. (b) Produktet av nedre triangulære matriser er nedre triangulære, og produktet av øvre triangulære matriser er øvre triangulære. (c) En triangulær matrise er invertibel hvis og bare dersom diagonal ikke består av noen nullere. Altså A ij 0 når i = j. (d) Den inverse av en invertibel nedre triangulær matrise er nedre triangulær, og den inverse av en øvre triangulær matrise er øvre triangulær. Denisjon 2: En kvadratisk matrise A er symmetrisk dersom A = A T Teorem 1.7.2 - Dersom A og B er to symmetriske matriser av samme størrelse, og k er hvilken som helst skalar vil (a) A T være symmetrisk. 4

(b) A ± B være symmetrisk. (c) ka være symmetrisk. (d) A 1 være symmetrisk, dersom A er invertibel. (e) AB være symmetrisk, dersom AB = BA. Teorem 1.7.3 - Dersom A er en invertibel matrise, vil også AA T og A T A være invertible. 2 Determinanter 2.1 Determinanter ved kofaktorekspansjon Denisjon 1: Determinanten til en 1 1 matrise A = [a 11 ] er denert til å være det(a) = det([a 11 ]) = a 11 Denisjon 2: Dersom A er en n n matrise, er den reduserte av oppføring a ij (angitt ved M ij ) denert til å være determinanten til undermatrisa som er igjen etter at man fjerner den i-te raden og den j-te kolonnen fra A, slik at A blir en (n 1) (n 1) matrise. Tallet ( 1) i+j M ij (angitt ved C ij ) kalles kofaktor av oppføring a ij. Teorem 2.1.1 - Dersom A er en kvadratisk matrise vil det for enhver rad eller kolonne være slik at summen av tallene man får ved å multiplisere elementene i den valgte raden eller kolonnen med korresponderende kofaktor alltid være den samme. Denisjon 3: Dersom A er en n n matrise, vil summen av tallene man får ved å multiplisere elementene i hvilken som helst rad eller kolonne til A med korresponderende kofaktor, være determinanten til A. Summen i seg selv kalles Kofaktorekspansjonen til A. Altså er og det(a) = a 1j C 1j + a 2j C 2j +... + a nj C nj, det(a) = a i1 C i1 + a i2 C i2 +... + a in C in. [kofaktorekspansjon langs j-te kolonne] [kofaktorekspansjon langs i-te rad] ([ a b Obserbasjon: det c d ]) = ad bc Teorem 2.1.2 - Dersom A er en n n matrise, og er øvre triangulær, nedre triangulær eller diagonal, er det(a) produktet av alle elementene langs diagonalen. Altså det(a) = a 11 a 22 a nn. 2.2 Evaluering av determinanter ved radoperasjoner Teorem 2.2.1 - La A være en kvadratisk matrise. Dersom A har minst én rad eller kolonnene med kun nullere, er det(a) = 0. Teorem 2.2.2 - La A være en kvadratisk matrise. Da er det(a) = det(a T ). Teorem 2.2.3 - Radoperasjonenes innvirking på determinanten La A være en n n matrise. (a) Dersom med er matrisen man får når én rad eller kolonne i A er multiplisert med skalaren k, så er det(b) = det(a). (b) Dersom B er matrisen som man får dersom to rader eller kolonner i A bytter plass, er det(b) = det(a). (c) Dersom B er matrisen man får ved å legge til et multiplum av en rad i A med en annen rad, eller ved å legge til et multiplum av en kolonne i A med en annen kolonne, vil det(b) = det(a). Observasjon 1: A en n n matrise. Da erdet(ka) = k n det(a). Observasjon 2: Dersom A er en kvadratisk matrise med minst to proporsjonale rader eller kolonner, er det(a) = 0. Teorem 2.2.4 - Determinanten av elementærmatriser La E være en n n elementærmatrise. 5

(a) Dersom E er oppnådd ved å multiplisere en rad i I n med en skalar k 0, så er det(e) = k. (b) Dersom E er oppnådd ved å bytte om to rader i I n, erdet(e) = 1. (c) Dersom E er oppnådd ved å legge til et multiplum av en rad til en annen i I n, er det(e) = 1. 2.3 Egenskaper til determinanter; Cramers Regel Regneregler for determinanter Anta at A, B og C er n n matriser og k en skalar. (a) det(ka) = k n det(a) (b) det(ab) = det(a) det(b) (c) A invertibel det(a 1 ) = (det(a)) 1 (d) Dersom A, B og C kun skiller seg i en rad eller kolonne i, og den i-te kolonnen eller raden i C oppnås ved å addere korresponderende matriseenheter i A og B, vil det(c) = det(a) + det(c). NB! det(a + B) det(a) + det(b). Denisjon 1: Dersom A er en hvilken som helst n n matrise, og C ij er kofaktoren til a ij, blir matrisa C 11 C 12 C 1n C 21 C 22 C 2n........, C n1 C n2 C nn kalt kofaktormatrisa av A. Den transponerte av denne matrisa kalles den adjungerte av A og angis ved adj(a). Teorem 2.3.1 - nne den inverse av en matrise ved å bruke den adjungerte Dersom A er en invertibel matrise, vil A 1 1 = det(a) adj(a). Teorem 2.3.2 - Cramers Regel Dersom Ax = b er et likningssystem som består av n lineære likninger med n ukjente slik at det(a) 0, så har likningssystemet en unik løsning. Denne løsningen er x 1 = det(a 1) det(a), x 2 = det(a 2) det(a),..., x n = det(a n) det(a), der A j er matrisen man får ved å bytte ut matriseenhetene i den j-te kolonna av A med b = b 1 b 2... b n. 3 Euklidsk vektorrom 3.1 Vektorer i R 2, R 3 og R n 6

Denisjon 1: v = v = (v 1, v 2 ) = v R 2 v = v = (v 1, v 2, v 3 ) = v R 3 v = v = (v 1, v 2,..., v n ) = v R n Regneregler for vektorer v, w, u R n og k, m skalarer. (a) v ± w = (v 1 ± w 1, v 2 ± w 2,..., v n ± w 3 ) (b) kv = (kv 1, kv 2,..., kv n ) (c) v ± w = w ± v (d) ( 1)v = v = ( v 1, v 2,..., v n ) (e) (u + v) + w = u + (v + w) (f) v + 0 = v (g) k(v + u) = kv + ku (h) k(mv) = (km)v (i) 1v = v (j) (k + m)v = kv + mv (k) 0v = 0 (l) k0 = 0 Denisjon 2: Dersom vektorene w og v 1, v 2,..., v r R n er slik at w = k 1 v 1, k 2 v 2,..., k r v r, der k 1, k 2,..., k r er skalarer, sier vi at w er en lineær kombinasjon av v 1, v 2,..., v r. Skalarene k 1, k 2,..., k r kalles koesientene til den lineære kombinasjonen. 3.2 Norm, prikkprodukt og avstand i R n Denisjon 1: Normen, eller lengden, til en vektor v = (v 1, v 2,..., v n ) R n er denert til å være v = v1 2 + v2 2 +... + v2 n Teorem 3.2.1 - La v R n og k skalar. (a) v 0 (b) v = 0 v = 0 (c) kv = k v Denisjon 2: Dersom vektoren u R n er slik at u = 1, kalles u for en enhetsvektor. Enhetsvektorer dannes fra en vilkårlig vektor v ved u v = 1 v v. 7

Denisjon 2: Dersom u = (u 1, u 2,..., u n ) og v = (v 1, v 2,..., v 3 ) er to punkter i R n, er avstanden mellom dem denert til å være d(u, v) = uv = u v = (u 1 v 1 ) 2 + (u 2 v 2 ) 2 +... + (u n v n ) 2. Denisjon 3: Dersom u 0 og v 0 er to vektorer i R 2 eller R 3 og θ er vinkelen mellom dem, blir prikkproduktet denert til å være u v = u v cos θ. Prikkproduktet når u = 0 v = 0 er denert til å være u v = 0. Dersom u = (u 1, u 2,..., u n ) og v = (v 1, v 2,..., v n ) er to vektorer i R n, er prikkproduktet denert til å være u v = u 1 v 1 + u 2 v 2 +... + u n v n. Observasjon: Dersom vektorene u og v er ortogonale (θ = π/2) er u v = 0. Regneregler og egenskaper til prikkproduktet Anta at u, v og w tre vektorer i R n, og k en skalar. (a) u v = v u (b) u (v ± w) = u v ± u w (c) k(u v) = (ku) v (d) v v 0 (e) v v = 0 v = 0 (f) 0 v = v 0 = 0 NB! det(a + B) det(a) + det(b). Teorem 3.2.2 - Cauchy-Schwartz-ulikheten Dersom u og v er to vektorer i R n vil u v u v. Teorem 3.2.3 - La u, v og w tre vektorer i R n, og k en skalar. Da gjelder følgende: (a) u + v u + v [trekantulikheten for vektorer] (b) d(u, v) d(u, w) + d(w, v) [trekantulikheten for avstander] Teorem 3.2.4 - parallellogramformelen for vektorer La u, v R n. Da er u + v 2 + u v 2 = 2( u 2 + v 2 ) Teorem 3.2.5 - La u, v R n være to vektorer der prikkproduktet er denert. Da vil u v = 1 4 u + v 2 1 4 u v 2 Observasjon: Prikkproduktet kan uttrykkes ved hjelp av matrisemultiplikasjon. 3.3 Ortogonalitet 8

Denisjon 1: Dersom to vektorer i R 2 eller R 3 står vinkelrett på hverandre sies de å være ortogonale (eller normale). På samme måte vil to vektorer u, v R n være ortogonale dersom u v = 0. Dette medfører at en nullvektor i R n er denert til å være ortogonal til alle vektorer i R n. Et ikke-tomt sett av vektorer i R n kalles et ortogonalt sett dersom alle vektorene er innbyrdes ortogonale. Et ortogonalt sett med enhetsvektorer kalles et ortonormalt sett. Denisjon 2: En normalvektor, n, er denert til å være en vektor som er ortogonal til en linje eller et plan, og dermed denerer planet eller linjen i rommet. Både linje og plan kan bli representert ved formelen n P 0 P = 0, der P 0 er et punkt planet eller linja går gjennom og P er et vilkårlig punkt (x, y) (linje) eller (x, y, z) (plan). Teorem 3.3.1 - (a) La a 0,b 0 og c være skalarer. Da representerer ax + by + c = 0 en linje i R 2 med normalvektor n = (a, b). (b) La a 0,b 0, c 0 og d være skalarer. Da representerer et plan i R 3 med normalvektor n = (a, b, c). ax + by + cz + d = 0 Denisjon 3: Hyperplanet i R n gjennom punktet P 0 (a 1, a 2,..., a 3 ) med normalvektor n = (x 1, x 2,..., x n ) er denert til å være H = {x R n n (x P 0 )}. Dermed får vi generelt likningen n x + k = 0, der k er en konstant skalar. I R 2 vil hyperplanet være en linje, og i R 3 vil hyperplanet være et plan. Teorem 3.3.2 - Projeksjonsteoremet Dersom u, a 0 R n, så kan u bli beskrevet på nøyaktig én måte på formen u = w 1 + w 2, der w 1 er et skalarmultiplum av a og w 2 er ortogonal til a. Denisjon 4: proj a u = u a 2 a [vektorkomponenten av u langs a] a u proj a u = u u a 2 a [vektorkomponenten av u ortogonalt til a] a Teorem 3.3.3 - Pythagoras' teorem i R n. Dersom u, v R n og ucdotv= 0 vil u + v 2 = u 2 + v 2. Teorem 3.3.4 - Avstand mellom linjer, plan og hyperplan (a) I R 2 er avstanden D mellom et punkt P 0 (x 0, y 0 ) og linja ax + by + c = 0 gitt ved D = ax 0 + by 0 + c a 2 + b 2. (b) I R 3 er avstanden D mellom et punkt P 0 (x 0, y 0, z 0 ) og planet ax + by + cz + d = 0 gitt ved D = ax 0 + by 0 + cz 0 + d a 2 + b 2 + c 2. (c) I R n er avstanden D mellom et punkt P 0 R n og hyperplanet n x + k = 0 gitt ved D = n P 0 + k. n 9

3.4 Geometrien til lineære likningssystemer Denisjon 1: Dersom x 0, v 1, v 2 R n og v 1, v 2 ikke er nullvektorer, vil formelen x = x 0 + tv 1 være denert som linjen gjennom x 0 som er parallell til v 1. På samme måte vil x = x 0 + t 1 v 1 + t 2 v 2 være denert som planet gjennom x 0 som er parallell til v 1 og v 2. Dersom x 0 = 0 sier vi at planet eller linja går gjennom origo. Vi kan denere hyperplan på samme måte. Teorem 3.4.1 - Dersom A er en m n matrise, vil løsningsmengden av det homogene lineære likningssystemet Ax = 0 bestå av alle vektorene i R n som er ortogonale til alle radvektorene i A. Teorem 3.4.2 - Den generelle løsningen til et konsistent lineært likningssystem Ax = b kan oppnås ved å addere en vilkårlig spesikk løsning av Ax = b til den generelle løsningen av Ax = 0. 3.5 Kryssproduktet Denisjon 1: Kryssproduktet mellom to vektorer u, v R 3 er denert til å være e 1 e 2 e 3 ( ) u v = u 1 u 2 u 3 v 1 v 2 v 3 = u 2 u 3 v 2 v 3, u 1 u 3 v 1 v 3, u 1 u 2 v 1 v 2 = (u 2 v 3 u 3 v 2, u 3 v 1 u 1 v 3, u 1 v 2 u 2 v 1 ). Teorem 3.5.1 - Sammenhenger involvert med prikk- og kryssprodukt La x, v, w R 3 være tre vektorer. (a) u (u v) [(u v) er ortogonal til u] (b) v (u v) [(u v) er ortogonal til v] (c) u v 2 = u 2 v 2 (u v) 2 [Lagranges identitet] (d) u (v w) = (u w)v (u v)w [trippelvektorprodukt] (e) (u v) w = (u w)v (v 2)u [trippelvektorprodukt] (f) u v = u v sin θ, der θ er vinkelen mellom u og v Regneregler for kryssproduktet La u, v, w R 3 være tre vektorer og k en skalar. Da gjelder følgende: (a) u v = (v u) (b) u (v + w) = (u v) + (u + w) (c) (u0v) w = (u w) + (v w) (d) k(u v) = (ku) v = u (kv) (e) u 0 = 0 u = 0 (f) u u = 0 Teorem 3.5.2 - Dersom u og v er vektorer i R 3, vil u v = u v sin θ være lik arealet til parallellogrammet som blir utspent av u og v. 10

Denisjon 2: Dersom u, v og w er vektorer i R 3 blir u 1 u 2 u 3 u (v w) = v 1 v 2 v 3 w 1 w 2 w 3 kalt skalar-trippelproduktet til u, v og w. Teorem 3.5.3 - Arealet til parallellogrammet i R 2 utspent av u = (u 1, u 2 ) og v = (v 1, v 2 ) er lik [ ] u1 u det 2, v 1 v 2 og volumet til parallellepipedet i R 3 utspent av u = (u 1, u 2, u 3 ), v = (v 1, v 2, v 3 ) og w = (w 1, w 2, w 3 ) er lik u 1 u 2 u 3 det v 1 v 2 v 3 = u (v w). w 1 w 2 w 3 Teorem 3.5.3 - vektorene u, v, w R 3 ligger i samme plan, hvis og bare hvis u (v w) = 0. 4 Generelle vektorrom 4.1 Ekte vektorrom Denisjon I et vektorrom er det denert to operasjoner kalt vektoraddisjon (1) og skalarmultiplikasjon (6). En mengde V er et vektorrom dersom den oppfyller følgende aksiomer: 1. Hvis u og v er vektorer i V, så er u + v i V. 2. u + v = v + u. 3. u + (v + w) = (u + v) + w. 4. 0 V og u + 0 = 0 + u = u. 5. For enhver u V, nnes det en negativ, u, slik at u + ( u) = 0. 6. Dersom k er en skalar, og u V er også ku V. 7. k(u + v) = ku + kv. 8. (k + m)u = ku + mu. 9. k(mu) = (km)(u). 10. 1u = u. (Pensum innfatter kun vektorrom i R n. Altså holder det å sjekke om (1), (4) og (6) for å nne ut om en gitt mengde av vektorer utgjør et eget vektorrom) 4.2 Underrom Denisjon 1: En undermengde (undersett) W av et vektorsett V kalles et underrom, hvis W alene utgjør et vektorrom. Teorem 4.2.1 - Hvis W 1, W 2,..., W r er underrom av V, er også skjæringspunktene av underrommene et underrom av V. 11

Denisjon 2: Underrommet av vektorrommet V som er dannet fra alle lineære kombinasjoner av vektorene i et ikke-tomt sett S, kalles utspennelsen av S (span of S). Man sier at vektorene i S utspenner underrommet. Dersom S = w 1, w 2,..., w r angir vi underrommet som span{w 1, w 2,..., w r } eller span(s) Teorem 4.2.2 - Løsningen av det homogene likningssystemet Ax = 0 med n ukjente er et underrom av R n. Teorem 4.2.3 - To underrom er like hvis og bare hvis hver av vektorene som utspenner det ene underrommet kan skrives som en lineær kombinasjon av vektorene i det andre underrommet, og omvendt. 4.3 Lineær uavhengighet Denisjon 1: Dersom S = v 1, v 2,..., v r er en ikke-tom mengde av vektorer i vektorrommet V har likningen k 1 v 1 + k 2 v 2 +... + k r v r minst én løsning, nemlig k 1 = 0, k 2 = 0,..., k r = 0. Denne løsningen kalles den trivielle løsningen. Dersom dette er den eneste løsningen sier man at S er lineær uavhengig. Dersom det er ere løsninger sier man at S er lineær avhengig. Teorem 4.3.1 - (a) Et vektorsett som inneholder 0 er lineært uavhengig. (b) Et vektorsett med én vektor er lineært uavhengig hvis og bare hvis vektoren ikke er 0. (c) Et sett med to vektorer er lineært uavhengig hvis og bare hvis ingen av vektorene er en lineær kombinasjon av den andre. Teorem 4.3.1 - La S = v 1, v 2,..., v r være et sett med vektorer i R n. Dersom r > n, er S lineær avhengig. 4.4 Koordinater og basis Denisjon 1: Hvis V er et vilkårlig vektorrom og S = v 1, v 2,..., v n er en endelig mengde av vektorer i V, er S en basis av V dersom det følgende er tilfelle: (a) S er lineær uavhengig. (b) S utspenner V. Teorem 4.4.1 - Unikhet ved basis-representasjon Dersom S = v 1, v 2,..., v n er en basis til V, kan enhver vektor v i V skrives som nøyaktig én lineær kombinasjon av S. Denisjon 2: Dersom S = v 1, v 2,..., v r er en basis til vektorrommet V, og v = c 1 v 1 + c 2 v 2 +... + c n v n er en vektor skrevet som en lineær kombinasjon av S, kalles skalarene c 1, c 2,..., c n for koordinatene til v relativt til basis S. Vektoren (c 1, c 2,..., c n ) i R n konstruert fra disse koordinatene kalles koordinatvektoren til v relativt S og angis som (v) S = (c 1, c 2,..., c n ). 4.5 Dimensjoner Teorem 4.5.1 - Alle basiser til et endelig-dimensjonalt vektorrom har samme antall vektorer. 12

Denisjon 1: Dimensjonen til et endelig-dimensjonalt vektorrom V angis ved dim(v ) og er denert som antall vektorer til en basis av V. Nullvektor-rommet er denert til å ha null dimensjoner. Teorem 4.5.2 - La V være et n-dimensjonalt vektorrom og la S være et mengde av vektorer i V med nøyaktig n-vektorer. Da er enten S en basis tol V eller lineær avhengig. Teorem 4.5.3 - La S være et endelig sett med vektorer i et endelig-dimensjonalt vektorrom V. (a) Dersom S utspenner V, men ikke er en basis til V, kan S bli redusert til en basis til V, ved å fjerne riktige vektorer fra S. (b) Dersom S er et lineær uavhengig, men ikke en basis til V, kan S bli utvidet til en basis til V ved å legge til riktige vektorer i S. Teorem 4.5.4 - Hvis W er et underrom av et endelig-dimensjonalt vektorrom V, gjelder følgende: (a) W er endelig-dimensjonal. (b) dim(w ) dim(v ). (c) W = V dim(w ) = dim(v ). 4.6 Basisbytte Problem: Dersom v er en vektor i et endelig-dimensjonalt vektorrom V, og hvis vi bytter basisen til V fra en basis B til en basis B, hvordan er koordinatvektorene [v] B = [v] B? Løsning: Dersom vi bytter basis til et vektorrom V fra den gamle basisen B = {u 1, u 2,..., u n } til en ny basis B = {u 1, u 2,..., u n}, vil det for enhver vektor v i V, være slik at den gamle koordinatvektoren [v] B er relatert til den nye koordinatvektoren [v] B ved formelen [v] B = P [v] B, der kolonnene i basisbyttematrisa P er koordinatvektorene til de nye basisvektorene relativt til den gamle basisen. Altså vil P B B = [ [u 1] B [u 2] B... [u n] B ] og P B B = [[u 1 ] B [u 2 ] B... [u n ] B ]. Teorem 4.6.1 - Dersom P er basisbyttematrisa fra basis B til basis B for et endelig-dimensjonalt vektorrom V, er P inverterbar og P 1 er basisbyttematrisa fra basis B til basis B. Altså er P B B = P 1 B B. Prosedyre for å nne basisbyttematrisa P B B 1. Lag matrisa [B B]. 2. Bruk radoperasjoner for å få matrisa i (1) på redusert trappeform. 3. Matrisa på trappeform vil være [I P B B ]. Teorem 4.6.2 - La B = {u 1, u 2,..., u n } en hvilken som helst basis for vektorrommet R n og la S = {e 1, e 2,..., e n } være standardbasisen til R n. Da vil 4.7 Radrom, kolonnerom og nullrom P B S = [[u 1 ] B [u 2 ] B... [u n ] B ]. 13

Denisjon 1: For en matrise er vektorene a 11 a 12 a 1n a 21 a 22 a 2n A =........, a m1 a m2 a mn r 1 = [a 11 a 12...a 1n ] r 2 = [a 21 a 22...a 2n ].. r m = [a m1 a m2...a mn ], i R n som er dannet fra radene til A kalt radvektorene til A, og vektorene a 11 a 12 a 1n a 21 c 1 =.., c a 22 2..,..., c a 2n n.., a m1 a m2 a mn i R m som er dannet fra kolonnene i A kalt kolonnevektorene til A. Denisjon 2: Dersom A er en m n matrise, er underrommet til R n utspent av radvektorene til A kalt radrommet til A, og underrommet til R m utspent av kolonnevektorene til A kalt kolonnerommet til A. Løsningsrommet til det homogene likningssystemet Ax = 0, som er et underrom av R n, kalles nullrommet til A. Teorem 4.7.1 - Et lineær likningssystem Ax = b er konsistent hvis og bare hvis b er i kolonnerommet til A. Teorem 4.7.2 - Hvis x 0 er en løsning til det konsistentet lineære likningssystemet Ax = b, og hvis S = {v 1, v 2,..., v k } en basis til nullrommet til A, så er alle løsningene til Ax = b uttrykkes på formen x = x 0 + c 1 v 1, c 2 v 2 +... + c k v k. Motsatt vil det for alle valg av skalarer c 1, c 2,..., c k være slik at x i uttrykke er en løsning til Ax = b. Teorem 4.7.3 - Elementære radoperasjoner endrer hverken nullrommet eller radrommet til en matrise. Teorem 4.7.4 - Dersom matrisa R er på redusert trappeform, vil radene med en ledende ener (ikke-nullradene) danne en bsis til radrommet til R, og kolonnevektorene med en ledende ener vil danne en basis for kolonnerommet av R. Teorem 4.7.5 - Dersom A og B er rad-ekvivalente matriser vil det følgende gjelde: (a) Et gitt sett av kolonnevektorer til A er lineær uavhengige hvis og bare hvis de korresponderende vektorene til B er lineær uavhengige. (b) Et gitt sett av kolonnevektorer til A danner en basis for kolonnerommet til A hvis og bare hvis de korresponderende kolonnevektorene til B danner en basis til kolonnerommet til B. Prosedyre for å nne basis til span(s), og uttrykke overødige vektorer som en lineær kombinasjon av basisvektorene 1. Lag matrisa A med kolonnevektorer lik vektorene i S = {v 1, v 2,..., v k }. 2. Gjør matrisa A til redusert trappeform R = {w 1, w 2,..., w 3 } ved hjelp av radoperasjoner. 14

3. Identiser kolonnevektorene til R som har en ledende ener. Korresponderende kolonnevektorer i A danner en basis for span(s). Dette konkluderer første del av prosedyren. 4. Dann et sett med avhengighetsuttrykk ved å uttrykke hver av kolonnevektorene til R, som ikke har en ledende ener, som en lineær kombinasjon av vektorene som inneholder en ledende ener. 5. Bytt kolonnevektorene fra R som dukker opp i avhengighetsuttrykkene med korresponderende kolonnevektorer i A. Dette konkluderer andre del av prosedyren. 4.8 Rank, nullity og fundamentalmatriser Teorem 4.8.1 - Radrommet og kolonnerommet til en matrise A har samme dimensjon. Denisjon 1: Den felles dimensjonen til radrommet og kolonnerommet til en matrise A kalles rank til A. Dimensjonen til nullrommet til A kalles for nullity til A. Teorem 4.8.2 - Dimensjonsteorem for matriser Dersom A er en matrise med n kolonner vil rank(a) + nullity(a) = n. Teorem 4.8.3 - Dersom A er en m n matrise vil det følgende gjelde: (a) rank(a) = antall ledende (ikke-frie) variabler i den generelle løsningen til Ax = b. (b) nullity(a) = antall parametere i den generelle løsningen til Ax = b. Teorem 4.8.4 - Dersom Ax = b er et konsistent lineært likningssystem med m likninger med n ukjente, og dersom A har rank r, vil den generelle løsningen av likningssystemet ha n r parametere. Teorem 4.8.5 - La A være en m n matrise. (a) (Overbestemt tilfelle). Hvis m > n, er det lineære likningssystemet Ax = b inkonsistent for minst én vektor b. (b) (Underbestemt tilfelle). Hvis m < n, er det lineære likningssystemet Ax = b enten inkonsistent eller har uendelig mange løsninger. Teorem 4.8.6 - Dersom A er en matrise vil rank(a) = rank(a T ). Videre vil rank(a) + nullity(a T ) = m. Denisjon 2: Dersom W er et underrom av R n, så kalles settet av vektorer i R n som er ortogonale til alle vektorene i W for det ortogonale komplementet av W og er angitt ved W. Teorem 4.8.7 - Hvis W er et underrom av R n, gjelder følgende: (a) W er et underrom av R n. (b) Den eneste vektoren felles mellom W og W er 0. (c) Det ortogonale komplementet til W er W. Teorem 4.8.8 - Hvis A er en m n matrise, gjelder følgende: (a) Nullrommet til A og radrommet til A er ortogonale komplementer i R n. (b) Nullrommet til A T og kolonnerommet til A er ortogonale komplementer i R n. 4.9 Matrisetransformasjoner fra R n til R m Denisjon 1: Gitt funksjonen b = f(a). Man sier ofte at b er bildet til a under f, eller at f(a) er verdien til f ved a. Dersom a og b er to vektorrom, henholdsvis A og B, sier vi at A er domene til f, og B er kodomene til f. Underrommet til kodomenet som består av alle bildene til alle punktene i domenet, kalles for utstrekningen eller området til f. 15

Denisjon 2: Dersom V og W er to vektorrom, og dersom f er en funksjon med domene V og kodomene W, sier vi at f er en transformasjon fra V til W, eller at f er en lineær mapping fra V til W, som angis ved f : V W. Når V = W, kalles transformasjonen også en operator på V. Teorem 4.9.1 - For enhver matrise A med transformasjonen T A : R n R m har de følgende egenskapene for alle vektorer u og v i R n og for alle skalarer k: (a) T A (0) = 0. (b) T A (ku) = kt A (u). (c) T A (u ± v) = T A (u) ± T A (v) Prosedyre for å nne standardmatrisa for en matrisetransformasjon 1. Finn bildet til standardbasisvektrorene e 1, e 2,..., e n for R n på kolonneform. Altså nn T A (e 1 ), T A (e 2 ),..., T A (e n ). 2. Konstruer matrisa A = [T A (e 1 ) T A (e 2 )... T A (e n )]. Denne matrisa er standardmatrisa for transformasjonen. Reeksjon [ om ] y-aksen Reeksjon [ om ] x-aksen Reeksjon [ om ] y=x Rotere [ med en vinkel ] θ 1 0 1 0 0 1 cos θ sinθ 0 1 0 1 1 0 sin θ cos θ 4.10 Egenskaper til matrisetransformasjoner Denisjon 1: Komposisjonen til T B med T A vil si at man først utfører en matrisetransformasjon med T A, og deretter med T B. Dette angis ved T B T A. Med andre ord er T B T A (x) = T B (T A (x)). Denisjon 2: En matrisetransformasjon T A : R n R m kalles en-til-en dersom T A transformerer spesi- kke vektorer og punkter i R n til spesikke vektorer eller punkter i R m. Teorem 4.10.1 - Sammenhenger (a) T B T A = T BA (b) T C T B T A = T CBA (c) [T 2 T 1 ] = [T 2 ][T 1 ] (d) [T 3 T 2 T 1 ] = [T 3 ][T 2 ][T 1 ] (e) T A 1 = T 1 A (f) [T 1 ] = [T ] 1 Teorem 4.10.2 - Hvis A er en n n matrise og T A : R n R n er den korresponderende matriseoperatoren, vil de følgende utsagnene være ekvivalente: (a) A er invertibel. (b) Området til A er R n. (c) T A er en-til-en. Teorem 4.10.3 - T : R n R m er en matrisetransformasjon hvis og bare hvis det følgende stemmer for alle vektorer u og v i R n og for alle skalarer k: (a) T (u + v) = T (u) + T (v). (b) T (ku) = kt (u). Teorem 4.10.3 i ord: Alle lineære transformasjoner fra R n til R m er en matrisetransformasjon, og alle matrisetransformasjoner fra R n til R m er lineære transformasjoner. 16

5 Egenverdier og egenvektorer 5.1 Egenverdier og egenvektorer Denisjon 1: Dersom A er en n n matrise, kalles en vektor x 0 R n for en egenvektor til A, dersom Ax er et skalarmultiplum av x. Altså dersom Ax = λx, der λ er en skalar. Skalaren λ kalles for egenverdien til A. x vil dermed være korresponderende egenvektor til λ. Teorem 5.1.1 - Dersom A er en n n matrise, så er λ en egenverdi til A hvis og bare hvis likningen det(λi A) = 0, er oppfylt. Dette kalles den karakteristiske likningen til A. Teorem 5.1.2 - Dersom A er en n n triangulær matrise, er egenverdiene til A matriseelementene langs diagonalen til A. Teorem 5.1.3 - Dersom A er en n n matrise, er de følgende utsagnene ekvivalente: (a) λ er en egenverdi til A. (b) Likningssystemet (λi A)x = 0 har ikke-trivielle løsninger. (c) Det nnes en vektor x +f0 slik at Ax = λx. (d) λ er en løsning til den karakteristiske likningen det(λi A) = 0. Teorem 5.1.4 - Dersom k er et positivt heltall, λ en egenverdi til matrisa A og x en korresponderende egenvektor, vil λ k være en egenverdi til A k med x som korresponderende egenvektor. Denisjon 2: Vektorrommet utspent av egenvektorene til en matrise A kalles egenrommet til A. 5.2 Diagonalisering Denisjon 1: Dersom A og B er to kvadratiske matriser, sier vi at B er similær til A dersom det nnes en invertibel matrise P slik at B = P 1 AP. Teorem 5.2.1 - Dersom A er en n n matrise, er de følgende utsagnene ekvivalente: (a) A er diagonaliserbar. (b) A har n lineær uavhengige vektorer. (c) A har n forskjellige egenverdier. Prosedyre for å diagonalisere en matrise 1. Sjekk at matrisa er diagonaliserbar ved å nne n lineær uavhengige egenvektorer. En måte å gjøre dette på er å nne basisen til hvert av egenrommene og slå disse sammen til et sett S med vektorer. Dersom S har mindre enn n vektorer, er ikke matrisa diagonaliserbar. 2. Dann matrisa P = [p 1 p 2... p n ], der p i er en kolonnevektor fra S. 3. Matrisa P 1 AP vil være diagonal og ha egenverdiene λ 1, λ 2,..., λ n som matriseelementer langs diagonalen. Egenverdiene har de korresponderende egenvektorene p 1, p 2,..., p 3. Teorem 5.2.2 - Dersom v 1, fv 2,..., v k er egenvektorene til en matrise A med forskjellige korresponderende egenverdier vil {v 1, fv 2,..., v k } være lineær uavhengige. 17

Denisjon 2: Dersom λ 0 er en egenverdi til en n n matrise A, vil dimensjonen til egenrommet som korresponderer til λ 0 kalles den geometriske multiplisiteten til λ 0. Antallet ganger λ λ 0 dukker opp i det karakteristiske polynomet til A kalles den algebraiske multiplisiteten til λ 0. Teorem 5.2.3 - Geometri og algebraisk multiplisitet La A være en kvadratisk matrise. (a) For enhver egenverdi av A, er den geometriske multiplisiteten mindre enn eller lik den algebraiske multiplisiteten. (b) A er diagonaliserbar hvis og bare hvis den geometriske multiplisiteten til alle egenverdiene er lik den algebraiske multiplisiteten. 5.3 Det komplekse vektorrom Denisjon 1: Dersom n er et positivt heltall, så vil et kompleks n-tuppel være en sekvens av n komplekse tall (v 1, v 2,..., v n ). Et sett med alle komplekse n-tupler kalles det komplekst n-rom og angis ved C n. Skalarer er komplekse tall, og operasjoner som multiplikasjon, addisjon, subtraksjon, konjugasjon og skalarmuliplikasjon utføres komponentvis. Teorem 5.3.1 - La u og v være to vektorer i C n, k være en skalar, A være en kompleks m r matrise, og B være en kompleks r n matrise. (a) u = u (b) ku = ku (c) u ± v = u ± v (d) A = A (e) A T = A T (f) AB = AB Denisjon 2: Dersom u = (u 1, u 2,..., u n ) og v = (v 1, v 2,..., v n ) er to vektorer i C n, er det komplekse prikkproduktet denert til å være Lengden i C n er denert til å være u v = u 1 v 1 + u 2 v 2 +... + u n v n. v = sqrtv v = v 1 2 + v 2 2 +... + v n 2. Teorem 5.3.2 - La u, v og w være tre vektorer i C n, og la k være en skalar. (a) u v = v u (b) u (v + w) = u v + u w (c) k(u w) = (ku) v (d) u kv = k(u v) (e) v v 0 (f) v v = 0 v = 0 (g) u v = u T v = v T u Teorem 5.3.3 - Dersom λ er en egenverdi til en reel n n matrise A og hvis x er en korresponderende egenvektor, vil også λ være en egenvektor til A med korresponderende egenvektor u. Teorem 5.3.6 - Dersom A er en reell symmetrisk matrise, har A reelle egenverdier. 7 Diagonalisering og kvadratisk form 7.1 Ortogonale matriser 18

Denisjon 1: En matrise A kalles ortogonal dersom A 1 = A T AA T = A T A = I. Teorem 7.1.1 - Det følgende er ekvivalent for en n n matrise A. (a) A er ortogonal. (b) Radvektorene til A danner et ortonormalt sett. (c) Kolonnevektorene til A danner et ortonormalt sett. (d) Ac = x, x R n. (e) Ax Ay = x y, x, y R n. Teorem 7.1.2 - (a) Den inverse av en ortogonal matrise er invers. (b) Et produkt av ortogonale matriser er ortogonal. (c) Dersom A er ortogonal vil det(a) = 1 det(a) = 1. Teorem 7.1.3 - La V være et endelig-dimensjonalt vektorrom. Dersom P er en transformasjonsmatrise fra en ortonormal basis til V til en annen ortonormal basis til V, er P en ortogonal matrise. 7.2 Ortogonal diagonalisering Denisjon 1: Dersom A og B er kvadratiske matriser, sier vi at A og B er ortogonalsimilære, dersom det nnes en ortogonal matrise P slik at P T AP = B. Teorem 7.2.1 - Det følgende er ekvivalent for en n n matrise A. (a) A er ortogonal diagonaliserbar. (b) A har et ortonormalt sett med egenvektorer. (c) A er symmetrisk. Teorem 7.2.2 - Dersom A er en n n matrise så vil: (a) alle egenverdiene til A være reelle. (b) egenvektorer fra forskjellige egenrom være ortogonale. Prosedyre for å ortogonal diagonalisere en symmetrisk kvadratisk matrise 1. Finn en basis for hvert av egenrommene til A. 2. Bruk Gram-Schmidt-prosessen på hver av basisene for å få en ortonormal basis for hvert av egenrommene. 3. Dann matrisa P med kolonner lik de forskjellige vektorene fra (2). Denne matrisa vil ortogonal diagonalisere A, og egenverdiene på diagonalen i D = P T AP vil være i samme rekkefølge som korresponderende vegenvektorer i P. Teorem 7.2.3 - Schurs teorem Dersom A er en n n matrise med reelle matriseenheter og reelle egenverdier, da nnes en ortogonal matrise P slik at P T AP er øvre triangulær. Diagonalen vil bestå av de forskjellige egenverdiene. 7.3 Kvadratisk form Lineær form: a 1 x 1 + a 2 x 2 +... + a n x n Kvadratisk form: a 1 x 2 1 + a 2x 2 2 +... + a nx 2 n Teorem 7.3.1 - Prinsipal akseteoremet La A være en symmetrisk n n matrise og P ortogonal diagonaliserer A. Ortogonal endring i variable gir med x = P y x T Ax = y T Ay = λ 1 y 2 1 + λ 2 y 2 2 +... + λ n y 2 n, der λ i er egenverdiene til A. 19

Denisjon 1: En kvadratisk form x T Ax er positivt denitt hvis x T Ax > 0 x 0. negativt denitt hvis x T Ax < 0 x 0. indenitt både for negative og positive verdier av x T Ax. Teorem 7.3.2 - La A være en symmetrisk matrise. (a) x T Ax er positivt denitt hvis og bare hvis alle egenverdiene til A er positive. (b) x T Ax er negativt denitt hvis og bare hvis alle egenverdiene til A er negative. (c) x T Ax er indenitt hvis og bare hvis A har minst en positiv og en negativ egenverdi. (d) A positiv denitt hvis og bare hvis alle determinantene til prinsipal undermatrisene er positive. Teorem 7.3.3 - La A være en symmetrisk 2 2 matrise. (a) x T Ax = 1 representerer en ellipse hvis A er positivt denitt. (b) x T Ax = 1 har ingen graf hvis A er negativt denitt. (c) x T Ax = 1 representerer en hyperbol hvis A er indenitt. Appendix B - Komplekse tall Denisjon 1: i = 1 Ethvert komplekst tall kan skrives på formen z = a + bi. Alle de vanlige algebraiske reglene gjelder også for komplekse tall. Videre vil de reelle tallene være et element i de komplekse tallene, R C. Denisjon 2: Gitt z = a + bi. Konjungert: z = a bi Absoluttverdi/modulus: z = zz = a 2 + b 2 Polarform: z = z (cos φ + i sin φ), der φ = arcsin b z = arccos a z (argumentet) Eksponentialform: z = z e iφ Reel del og imaginær del: Re(z) = a, Im(z) = b Teorem - La z, z 1 og z 2 være tre komplekse tall. (a) z 1 ± z 2 = z 1 ± z 2 (b) z 1 z 2 = z 1 z 2 (c) z 1 /z 2 = z 1 /z 2 (d) z = z (e) z = z (f) z 1 z 2 = z 1 z 2 20

(g) z 1 /z 2 = z 1 / z 2 (h) z 1 + z 2 z 1 + z 2 Teorem - De Moivres formel (cos φ + i sin φ) n = cos nφ + i sin nφ Teorem - En n-tegradslikning vil alltid ha nøyaktig n løsninger. Ekvivalente utsagn tilhørende alle tidligere kapitler Ekvivalente utsagn Dersom A er en n n matrise vil følgende utsagn være ekvivalente. (a) A er invertibel. (b) Ax = 0 har bare den trivielle løsningen. (c) Den reduserte trappeformen av A er I n. (d) A kan uttrykket som et produkt av elementærmatriser. (e) Ax = b er konsistent for alle n 1 matriser b. (f) Ax = b har nøyaktig én løsning for alle n 1 matriser b. (g) det(a) 0. (h) Kolonnevektorene til A er lineær uavhengige. (i) Radvektorene til A er lineær uavhengige. (j) Kolonnevektorene til A span{r n }. (k) Radvektorene til A span{r n }. (l) Kolonnevektorene til A utgjør en basis til R n. (m) Radvektorene til A utgjør en basis til R n. (n) rank(a) = n. (o) nullity(a) = 0. (p) Det ortogonale komplementet av nullrommet til A er R n. (q) Det ortogonale komplementet av radrommet til A er {0}. (r) Området til T A er R n. (s) T A er en-til-en. (t) λ = 0 er ikke en egenverdi til A. 21