Generelle teoremer og definisjoner MA1201 Lineær Algebra og Geometri - NTNU

Like dokumenter
Generelle teoremer og denisjoner MA1201 Lineær Algebra og Geometri - NTNU Lærebok: Anton, H. & Rorres, C.: Elementary Linear Algebra, 11.

Løsningsforslag til eksamen i MA1202/MA6202 Lineær algebra med anvendelser høsten 2009.

Løsningsforslag til eksamen i MA1202/MA6202 Lineær algebra med anvendelser våren 2009.

EKSAMEN I MA1202 LINEÆR ALGEBRA MED ANVENDELSER

Diagonalisering. Kapittel 10

MA1202/MA S løsningsskisse

Lineærtransformasjoner

8 Vektorrom TMA4110 høsten 2018

6.4 Gram-Schmidt prosessen

Rom og lineæritet. Erik Bédos. Matematisk Institutt, UiO 2012.

Lineær algebra. 0.1 Vektorrom

Vektorrom. Kapittel 7. Hva kan vi gjøre med vektorer?

4.1 Vektorrom og underrom

A 2 = PDP 1 PDP 1 = PD 2 P 1. og ved induksjon får vi. A k = PD k P 1. Kommentarer:

EKSAMEN I MA1202 OG MA6202 LINEÆR ALGEBRA MED ANVENDELSER

LØSNINGSFORSLAG EKSAMEN MA1202/MA6202 VÅR 2010

MAT-1004 Vårsemester 2017 Prøveeksamen

Kap. 6 Ortogonalitet og minste kvadrater

Rang og Vektorrom. Magnus B. Botnan NTNU. 4. august, 2015

Vi skal koble diagonalisering av matriser sammen med ortogonalitet. Skal bl.a. se på

Lineær algebra-oppsummering

9 Lineærtransformasjoner TMA4110 høsten 2018

Til enhver m n matrise A kan vi knytte et tall, rangen til A, som gir viktig informasjon.

= 3 11 = = 6 4 = 1.

4.2 Nullrom, kolonnerom og lineære transformasjoner

UNIVERSITET I BERGEN

Kap. 7 Symmetriske matriser og kvadratiske former

Basis, koordinatsystem og dimensjon

MAT-1004 Vårsemester 2017 Prøveeksamen

Emne 7. Vektorrom (Del 1)

UNIVERSITETET I OSLO

TMA4110 Matematikk 3 Eksamen høsten 2018 Løsning Side 1 av 9. Løsningsforslag. Vi setter opp totalmatrisen og gausseliminerer:

TMA4110 Eksamen høsten 2018 EKSEMPEL 1 Løsning Side 1 av 8. Løsningsforslag. Vi setter opp totalmatrisen og gausseliminerer: x 1 7x 4 = 0

UNIVERSITETET I OSLO

Til enhver m n matrise A kan vi knytte et tall, rangen til A, som gir viktig informasjon.

5.8 Iterative estimater på egenverdier

Løsninger for eksamen i MAT Lineær algebra og M102 - Lineær algebra, fredag 28. mai 2004, Oppgave 1. M s = = 1 2 (cofm 2) T.

Et forsøk på et oppslagsverk for TMA4145 Lineære metoder

Kap. 6 Ortogonalitet og minste kvadraters problemer

UNIVERSITY OF OSLO. Faculty of Mathematics and Natural Sciences. Matlab-utskrift (1 side).

16 Ortogonal diagonalisering

MAT Onsdag 7. april Lineær uavhengighet (forts. 1.8 Underrom av R n, nullrom, basis MAT Våren UiO. 7.

UNIVERSITETET I OSLO

MAT1120 Repetisjon Kap. 1

MAT1120 Notat 2 Tillegg til avsnitt 5.4

Kapittel 3. Mer om egenverdier og egenvektorer. 3.1 Komplekse n-tupler og vektorer

MAT1120 Notat 2 Tillegg til avsnitt 5.4

(a) R n defineres som mengden av kolonnevektorer. a 1 a 2. a n. (b) R n defineres som mengden av radvektorer

Egenverdier og egenvektorer

Løsningsforslag øving 6

MA1201/MA6201 Høsten 2016

4.1 Vektorrom og underrom

Eksamensoppgave MAT juni 2010 (med løsningsforslag)

UNIVERSITETET I OSLO

Universitetet i Agder Fakultetet for teknologi og realfag Institutt for matematiske fag. Eksamen MA desember Lykke til!

4.4 Koordinatsystemer

Kap. 5 Egenverdier og egenvektorer

4.1 Vektorrom og underrom

12 Projeksjon TMA4110 høsten 2018

12 Lineære transformasjoner

MAT1120 Repetisjon Kap. 1, 2 og 3

15 Hovedprinsippet for vektorrom med et indre produkt

4.4 Koordinatsystemer

6.8 Anvendelser av indreprodukter

Egenverdier for 2 2 matriser

10 Radrommet, kolonnerommet og nullrommet

Universitet i Bergen. Eksamen i emnet MAT121 - Lineær algebra

GENERELLE VEKTORROM. Hittil har vi bare snakket om vektorrom av type

13 Oppsummering til Ch. 5.1, 5.2 og 8.5

MAT1120 Oppgaver til plenumsregningen torsdag 25/9

Eksamensoppgave i TMA4115 Matematikk 3

Minste kvadraters løsning, Symmetriske matriser

Lineær uavhengighet og basis

Oppgave 14 til 9. desember: I polynomiringen K[x, y] i de to variable x og y over kroppen K definerer vi undermengdene:

4.1 Vektorrom og underrom

R: 0, , = 6000 D : 0, , = 4000 La v n = angi fordelingen etter n år (dvs. a b n stemmer for R og

7.1 forts. Schur triangularisering og spektralteoremet

12 Diagonalisering av matriser og operatorer (Ch. 5.1, 5.2 og 8.5)

7.4 Singulærverdi dekomposisjonen

x 1 x 2 x = x n b 1 b 2 b = b m Det kan være vanskelig (beregningsmessig) og bearbeide utrykk som inneholder

MAT Prøveeksamen 29. mai - Løsningsforslag

MAT1120 Notat 1 Tillegg til avsnitt 4.4

Løsningsforslag øving 7

Eksamensoppgave i MA1202/MA6202 Lineær algebra med anvendelser

MAT 1110: Bruk av redusert trappeform

(3/2)R 2+R 3 R 1 +R 2,( 2)R 1 +R 3 ( 2)R 1 +R 4 6/5R 3 +R 4 1/5R 3

MAT1120 Notat 1 Tillegg til avsnitt 4.4

Lineær algebra. H. Fausk i=1 a ix i. Her har vi oppgitt hva ledd nummer i skal være og hvilke indekser i vi summerer over.

EKSAMENSOPPGAVER FOR TMA4110/TMA4115 MATEMATIKK 3

Lineære likningssystemer og matriser

Oppgavesett. Kapittel Oppgavesett 1

6.4 (og 6.7) Gram-Schmidt prosessen

Oppgave 1 (25 %) - Flervalgsoppgaver

Lineær Algebra og Vektorrom. Eivind Eriksen. Høgskolen i Oslo, Avdeling for Ingeniørutdanning

Lineær algebra. H. Fausk i=1 a ix i. Her har vi oppgitt hva ledd nummer i skal være og hvilke indekser i vi summerer over.

3.9 Teori og praksis for Minste kvadraters metode.

Eksamen i ELE Matematikk valgfag Torsdag 18. mai Oppgave 1

Mer lineær algebra. Inger Christin Borge. Matematisk institutt, UiO. Kompendium i MAT1012 Matematikk 2. Våren 2014

7 Egenverdier og egenvektorer TMA4110 høsten 2018

Transkript:

Generelle teoremer og definisjoner MA1201 Lineær Algebra og Geometri - NTNU Lærebok: Anton, H & Rorres, C: Elementary Linear Algebra, 11 utgave Jonas Tjemsland 26 april 2015 4 Generelle vektorrom 41 Reelle vektorrom Veltorrom: I et vektorrom er det definert to operasjoner kalt vektoraddisjon (1) og skalarmultiplikasjon (6) En mengde V er et vektorrom dersom den oppfyller følgende aksiomer for alle vektorer u, v, w V og skalarer k, m R: 1 u, v V = u + v V 2 u + v = v + u 3 u + (v + w) = (u + v) + w 4 Det finnes en nullvektor slik at 0 V og u + 0 = 0 + u = u 5 For enhver u V, finnes det en negativ, u, slik at u + ( u) = 0 6 k R, u V = ku V 7 k(u + v) = ku + kv 8 (k + m)u = ku + mu 9 k(mu) = (km)(u) 10 1u = u Skjæringpunkt av underrom: Hvis W 1, W 2,, W r er underrom av V, er også skjæringspunktene av underrommene et underrom av V Spenn: Underrommet av vektorrommet V som er dannet fra alle lineære kombinasjoner av vektorene i et ikke-tomt sett S, kalles utspennelsen av S (span of S) Man sier at vektorene i S utspenner underrommet Dersom S = w 1, w 2,, w r angir vi underrommet som span{w 1, w 2,, w r } eller span(s) Løsningen av det homogene likningssystemet Ax = 0 med n ukjente er et underrom av R n Entydighet: To underrom er like hvis og bare hvis hver av vektorene som utspenner det ene underrommet kan skrives som en lineær kombinasjon av vektorene i det andre underrommet, og omvendt 42 Underrom Underrom: En undermengde W av et vektorsett V kalles et underrom, hvis W alene utgjør et vektorrom Sjekk av underrom: Dersom W er en delmengde av et vektorrom V, er W et underrom av V dersom W er lukket under skalarmultiplikasjon (6) og lukket under addisjon (1) 43 Lineær uavhengighet Lineær uavhenighet og avhengighet: Dersom S = v 1, v 2,, v r er en ikke-tom mengde av vektorer i vektorrommet V, har likningen k 1 v 1 + k 2 v 2 + + k r v r minst én løsning, nemlig k 1 = 0, k 2 = 0,, k r = 0 Denne løsningen kalles den trivielle løsningen Dersom dette er den eneste løsningen sier man at S er lineær uavhengig Dersom det er flere løsninger sier man at S er lineær avhengig 1

La S = v 1, v 2,, v r være et sett med vektorer i R n Dersom r > n, er S lineær avhengig Lineær uavhengighet i sett med 0: (a) Et vektorsett som inneholder 0 er lineært uavhengig (b) Et vektorsett med én vektor er lineært uavhengig hvis og bare hvis vektoren ikke er 0 (c) Et sett med to vektorer er lineært uavhengig hvis og bare hvis ingen av vektorene er en lineær kombinasjon av den andre 44 Koordinater og basis Basis: Hvis V er et vilkårlig vektorrom og S = v 1, v 2,, v n er en endelig mengde av vektorer i V, er S en basis av V dersom det følgende er tilfellet: (a) S er lineær uavhengig (b) S utspenner V Unikhet ved basis-representasjon: Dersom S = v 1, v 2,, v n er en basis til V, kan enhver vektor v i V skrives som nøyaktig én lineær kombinasjon av S Koordinater: Dersom S = v 1, v 2,, v r er en basis til vektorrommet V, og v = c 1 v 1 + c 2 v 2 + + c n v n er en vektor skrevet som en lineær kombinasjon av S, kalles skalarene c 1, c 2,, c n for koordinatene til v relativt til basis S Vektoren (c 1, c 2,, c n ) i R n konstruert fra disse koordinatene kalles koordinatvektoren til v relativt S og angis som (v) S = (c 1, c 2,, c n ) Pluss/minus teorem: La S være et endelig sett med vektorer i et endelig-dimensjonalt vektorrom V (a) Dersom S utspenner V, men ikke er en basis til V, kan S bli redusert til en basis til V, ved å fjerne riktige vektorer fra S (b) Dersom S er et lineær uavhengig, men ikke en basis til V, kan S bli utvidet til en basis til V ved å legge til riktige vektorer i S Sammenheng mellom dimensjon til vektorrom og underrom: Hvis W er et underrom av et endelig-dimensjonalt vektorrom V, gjelder følgende: (a) W er endelig-dimensjonal (b) dim(w ) dim(v ) (c) W = V dim(w ) = dim(v ) 46 Basisbytte Problem: Dersom v er en vektor i et endeligdimensjonalt vektorrom V, og hvis vi bytter basisen til V fra en basis B til en basis B, hvordan er koordinatvektorene [v] B = [v] B? Løsning: Dersom vi bytter basis til et vektorrom V fra den gamle basisen B = {u 1, u 2,, u n } til en ny basis B = {u 1, u 2,, u n}, vil det for enhver vektor v V, være slik at den gamle koordinatvektoren [v] B er relatert til den nye koordinatvektoren [v] B ved formelen [v] B = P [v] B, der kolonnene i basisbyttematrisa P er koordinatvektorene til de nye basisvektorene relativt til den gamle basisen Altså vil P B B = [ [u 1] B [u 2] B [u n] B ] og P B B = [[u 1 ] B [u 2 ] B [u n ] B ] 45 Dimensjoner Alle basiser til et og samme endelig-dimensjonalt vektorrom har samme antall vektorer Dimensjon: Dimensjonen til et endeligdimensjonalt vektorrom V angis ved dim(v ) og er definert som antall vektorer til en basis av V Nullvektor-rommet er definert til å ha dimensjon 0 Invertibiliteten til P : Dersom P er basisbyttematrisa fra basis B til basis B for et endeligdimensjonalt vektorrom V, er P inverterbar og P 1 er basisbyttematrisa fra basis B til basis B Altså er P B B = P 1 B B Prosedyre for å finne basisbyttematrisa P B B : 2

1 Lag matrisa [B B] 2 Bruk radoperasjoner for å få matrisa i (1) på redusert trappeform 3 Matrisa på trappeform vil være [I P B B ] Bytte til standarbasisen: La B = {u 1, u 2,, u n } være en hvilken som helst basis for R n og la S = {e 1, e 2,, e n } være standardbasisen til R n Da vil P B S = [u 1 u 2 u n ] 47 Radrom, kolonnerom og nullrom Radvektorer og kolonnevektorer: For en matrise a 11 a 12 a 1n a 21 a 22 a 2n A =, a m1 a m2 a mn er vektorene r 1 = [a 11, a 12,, a 1n ] r 2 = [a 21, a 22,, a 2n ] r m = [a m1, a m2,, a mn ], i R n som er dannet fra radene til A kalt radvektorene til A, og vektorene c 1 = a 11 a 21 a m1, c 2 a 12 a 22 a m2,, c n a 1n a 2n, a mn i R m som er dannet fra kolonnene i A er kalt kolonnevektorene til A Radrom, kolonnerom og nullrom: Dersom A er en m n matrise, er underrommet til R n utspent av radvektorene til A kalt radrommet til A, og underrommet til R m utspent av kolonnevektorene til A kalt kolonnerommet til A Løsningsrommet til det homogene likningssystemet Ax = 0, som er et underrom av R n, kalles nullrommet til A Et lineær likningssystem Ax = b er konsistent hvis og bare hvis b er i kolonnerommet til A Generelle og partikulære løsningsmengder: Hvis x 0 er en løsning til det konsistentet lineære likningssystemet Ax = b, og hvis S = {v 1, v 2,, v k } en basis til nullrommet til A, så kan alle løsningene til Ax = b uttrykkes på formen x = x 0 + c 1 v 1, c 2 v 2 + + c k v k Motsatt vil det for alle valg av skalarer c 1, c 2,, c k være slik at x i uttrykket er en løsning til Ax = b Radoperasjon og radrom: Elementære radoperasjoner endrer hverken nullrommet eller radrommet til en matrise Dersom matrisa R er redusert trappeform av A, vil radene i R med en ledende ener (ikke-null-radene) danne en basis til radrommet til A, og kolonnevektorene i A som korresponderer med kolonnevektorene i R med en ledende ener, vil danne en basis for kolonnerommet av A Kolonnerom til radekvivalene matriser: Dersom A og B er radekvivalente matriser vil det følgende gjelde: (a) Et gitt sett av kolonnevektorer til A er lineært uavhengige hvis og bare hvis de korresponderende vektorene til B er lineært uavhengige (b) Et gitt sett av kolonnevektorer til A danner en basis for kolonnerommet til A hvis og bare hvis de korresponderende kolonnevektorene til B danner en basis til kolonnerommet til B Prosedyre for å finne basis til span(s), og uttrykke overflødige vektorer som en lineær kombinasjon av basisvektorene: 1 Lag matrisa A med kolonnevektorer lik vektorene i S = {v 1, v 2,, v k } 2 Gjør matrisa A til redusert trappeform R = {w 1, w 2,, w 3 } ved hjelp av radoperasjoner 3 Identifiser kolonnevektorene til R som har en ledende ener Korresponderende kolonnevektorer i A danner en basis for span(s) Dette konkluderer første del av prosedyren 4 Dann et sett med avhengighetsuttrykk ved å uttrykke hver av kolonnevektorene til R, som ikke har en ledende ener, som en lineær kombinasjon av vektorene som inneholder en ledende ener 3

5 Bytt kolonnevektorene fra R som dukker opp i avhengighetsuttrykkene med korresponderende kolonnevektorer i A Dette konkluderer andre del av prosedyren 48 Rank, nullity og fundamentale matriserom Dimensjonsteorem for matriser I: Radrommet og kolonnerommet til en matrise A har samme dimensjon Rang og nullitet: Den felles dimensjonen til radrommet og kolonnerommet til en matrise A kalles rangen til A Dimensjonen til nullrommet til A kalles for nulliteten til A Ortogonalt komlement: Dersom W er et underrom av R n, så kalles settet av vektorer i R n som er ortogonale til alle vektorene i W for det ortogonale komplementet av W og er angitt ved W Videre gjelder: (a) W er et underrom av R n (b) Den eneste vektoren felles mellom W og W er 0 (c) Det ortogonale komplementet til W er W Geometrisk sammenheng mellom fundamentale rom: Hvis A er en m n matrise, gjelder følgende: (a) Nullrommet til A og radrommet til A er ortogonale komplementer i R n (b) Nullrommet til A T og kolonnerommet til A er ortogonale komplementer i R n Dimensjonsteorem for matriser II: A er en matrise med n kolonner vil Dersom rang(a) + nullitet(a) = n Dersom A er en matrise vil rang(a) = rang(a T ) Videre vil rang(a) + nullitet(a T ) = m Hvordan finne nullitet og rang: Dersom A er en m n matrise vil det følgende gjelde: (a) rang(a) = antall ledende (ikke-frie) variabler i den generelle løsningen til Ax = b (b) nullitet(a) = antall parametere i den generelle løsningen til Ax = b Dersom Ax = b er et konsistent lineært likningssystem med m likninger med n ukjente, og dersom rang(a) = r, vil den generelle løsningen av likningssystemet ha n r parametere Overbestemte og underbestemte systemer: La A være en m n matrise (a) (Overbestemt tilfelle) Hvis m > n, er det lineære likningssystemet Ax = b inkonsistent for minst én vektor b (b) (Underbestemt tilfelle) Hvis m < n, er det lineære likningssystemet Ax = b enten inkonsistent eller har uendelig mange løsninger 4

5 Egenverdier og egenvektorer 51 Egenverdier og egenvektorer Egenverdier og egenvektorer: Dersom A er en n n matrise, kalles en vektor x 0 R n for en egenvektor til A, dersom Ax er et skalarmultiplum av x Altså dersom Ax = λx, der λ er en skalar Skalaren λ kalles for egenverdien til A x vil dermed være korresponderende egenvektor til λ 52 Diagonalisering Similære matriser: Dersom A og B er to kvadratiske matriser, sier vi at B er similær til A dersom det finnes en invertibel matrise P slik at B = P 1 AP Diagonaliserbare matriser: En kvadratisk matrise A kalles diagonaliserbar dersom den er similær til en diagonal matrise Altså D = P 1 AP, der D er en diagonal matrise Man sier da at P diagonaliserer A Karakteristisk likning: Dersom A er en n n matrise, så er λ en egenverdi til A hvis og bare hvis likningen det(λi A) = 0, er oppfylt Dette kalles den karakteristiske likningen til A Diagonaliserbarhet: Dersom A er en n n matrise, er de følgende utsagnene ekvivalente: (a) A er diagonaliserbar (b) A har n lineært uavhengige egenvektorer Dersom en n n-matrise A har n forskjellige egenverdier, er A diagonaliserbar Prosedyre for å diagonalisere en matrise: Egenverdier til triangulære matriser: Dersom A er en n n triangulær matrise, er egenverdiene til A matriseelementene langs diagonalen til A Egenverdikorollar: Dersom A er en n n matrise, er de følgende utsagnene ekvivalente: (a) λ er en egenverdi til A (b) Likningssystemet (λi A)x = 0 har ikketrivielle løsninger (c) Det finnes en vektor x 0 slik at Ax = λx (d) λ er en løsning til den karakteristiske likningen det(λi A) = 0 1 Sjekk at matrisa er diagonaliserbar ved å finne n lineært uavhengige egenvektorer En må te å gjøre dette på er å finne basisen til hvert av egenrommene og slå disse sammen til et sett S med vektorer Dersom S har mindre enn n vektorer, er ikke matrisa diagonaliserbar 2 Dann matrisa P = [p 1 p 2 p n ], der p i er en kolonnevektor fra S 3 Matrisa P 1 AP vil være diagonal og ha egenverdiene λ 1, λ 2,, λ n som matriseelementer langs diagonalen Egenverdiene har de korresponderende egenvektorene p 1, p 2,, p 3 Egenverdier til eksponenter av matriser: Dersom k er et positivt heltall, λ en egenverdi til matrisa A og x en korresponderende egenvektor, vil λ k være en egenverdi til A k med x som korresponderende egenvektor Egenrom: Vektorrommet utspent av egenvektorene til en matrise A kalles egenrommet til A Dersom v 1, v 2,, v k er egenvektorene til en matrise A med forskjellige korresponderende egenverdier vil {v 1, v 2,, v k } være lineært uavhengige Geometrisk og algebraisk multiplisitet: Dersom λ 0 er en egenverdi til en n n matrise A, vil dimensjonen til egenrommet som korresponderer til λ 0 kalles den geometriske multiplisiteten til λ 0 Antallet ganger λ λ 0 dukker opp i det karakteristiske polynomet til A kalles den algebraiske multiplisiteten til λ 0 5

Geometrisk og algebraisk multiplisitet: La A være en kvadratisk matrise (a) For enhver egenverdi av A, er den geometriske multiplisiteten mindre enn eller lik den algebraiske multiplisiteten (b) A er diagonaliserbar hvis og bare hvis den geometriske multiplisiteten til alle egenverdiene er lik den algebraiske multiplisiteten 53 Det komplekse vektorrom : Dersom n er et positivt heltall, så vil et kompleks n-tuppel være en sekvens av n komplekse tall (v 1, v 2,, v n ) Et sett med alle komplekse n- tupler kalles det komplekst n-rom og angis ved C n Skalarer er komplekse tall, og operasjoner som multiplikasjon, addisjon, subtraksjon, konjugasjon og skalarmultiplikasjon utføres komponentvis Egenverdi til symmetriske matriser: Dersom A er en reell symmetrisk matrise, har A reelle egenverdier 54 Differensiallikninger Fra MA1101: y = ay y = Ce ax Prosedyre for å løse y = Ay dersom A er diagonaliserbar: 1 Finn en matrise P som diagonaliserer A 2 Gjennomfør substitusjonene y = P u og y = P u for å oppnå et nytt diagonalt system u = Du, der D = P 1 AP 3 Løs u = Du 4 Bestem y fra likningen y = P u Komplekst prikkprodukt: Dersom u = (u 1, u 2,, u n ) og v = (v 1, v 2,, v n ) er to vektorer i C n, er det komplekse prikkproduktet definert til å være u v = u 1 v 1 + u 2 v 2 + + u n v n Lengden i C n er definert til å være v = sqrtv v = v 1 2 + v 2 2 + + v n 2 Egenskaper til det komplekse prikkproduktet: La u, v og w være tre vektorer i C n, og la k være en skalar (a) u v = v u (b) u (v + w) = u v + u w (c) k(u w) = (ku) v (d) u kv = k(u v) (e) v v 0 (f) v v = 0 v = 0 (g) u v = u T v = v T u Komplekse egenverdier og egenvektorer til reelle matriser: Dersom λ er en egenverdi til en reell n n matrise A og hvis x er en korresponderende egenvektor, vil også λ være en egenvektor til A med korresponderende egenvektor u 6

6 Indreproduktrom 61 Indreprodukt Indreprodukt: Et indreprodukt tilhørende et reelt vektorrom V er en funksjon som assosierer et reelt tall u, v med ethvert par av vektorer i V på en slik måte at følgende aksiomer er oppfylt for alle vektorer u, v og w i V og alle skalarer k: (a) u, v = v, u (b) u + v, w = u, w + v, w (c) ku, v = k u, v (d) v, v 0, og v, v = 0 v = 0 Aksiom 1 endres til u, v = v, u i definisjonen til et komplekst indreproduktrom Norm: Dersom V er et indreproduktrom, så defineres normen (eller lengden) til en vektor v, angitt ved v, definert til å være v = v, v, og distansen mellom to vektorer, angitt ved d(u, v), definert til å være Ortogonalt kompliment er definert i et indreproduktrom på samme måte som tidligere De samme teoremene holder også her 63 Gram-Schmidt-Prosessen Ortogonale og ortonormale sett: Et sett bestående av to eller flere vektorer i et reelt indreproduktrom kalles et ortogonalt sett dersom ethvert par av distinkte vektorer i settet er ortogonale Et ortogonalt sett der alle vektorene i tillegg har norm 1 kalles et ortonormalt sett Koordinater relativt til en ortogonal basis: Dersom S = {v 1, v 2,, v n } er en ortogonal basis for et indreproduktrom V, og u er en vektor i V, så vil u = u, v 1 v 1 2 v 1 + u, v 2 v 2 2 v 2 + + u, v n v n 2 v n Dersom S i tillegg er ortonormal vil u = u, v 1 v 1 + u, v 2 v 2 + + u, v n v n d(u, v) = u v En vektor med norm 1 kalled en enhetsvektor 62 Vinkler og ortogonalitet i indreproduktrom Cauchy-Schwarz ulikhet: u, v = u v Vi definerer ofte vinkelen mellom to vektorer i et indreproduktrom til ( ) u, v θ cos 1 u v Trekantulikheter: Dersom u, v og w er vektorer i et indreproduktrom V og k en skalar, så vil (a) u + v u + v (b) ( u + v) d(u, w) + d(w, v) Projeksjonsteorem: Dersom W er et endeligdimensjonalt underrom av et indreproduktrom V, så han enhver vektor u V bli beskrevet entydig som u = w 1 + w 2, der w 1 = proj W u W og w 2 = proj W u W Fra de to teoremene over følger det blant annet at proj W v = u, v 1 v 1 2 v 1 + u, v 2 v 2 2 v 2 + + u, v n v n 2 v n Eksistens av en ortonormal basis: Ethvert ikke-null endeligdimensjonalt indreproduktrom har en ortonormal basis Denne oppnås gjennom Gram-Schmidt-prosessen Ortogonalitet: Two vektorer u og v i et indreproduktrom V kalles ortogonale dersom u, v = 0 Pytagoras teorem i et indreproduktrom sier u + v 2 = u 2 + v 2 Gram-Schidt-prosessen: For å omgjøre en basis {u, u 2,, u r } til en ortogonal basis {v 1, v 2,, v r }, gjør følgende: Steg 1 v 1 = u 1 Steg 2 v 2 = u 2 u 2,v 1 v 1 2 v 1 7

Steg 3 v 3 = u 3,v 1 v 1 2 v 1 u 3,v 2 v 2 2 v 2 (fortsett til steg r) Frivillig steg For å omgjøre den ortogonale basisen til en ortonormal basis, normalisert den ortogonale basisen 64 Beste tilnærming; Minste kvadraters metode Problem: Gitt et lineært system Ax = b med m likninger med n ukjente, find en vektor x som gjør b Ax minst mulig med hensyn på det Euklidske indreproduktet i R m Vi kaller en slik x for minste kvadraters løsning av systemet, b Ax kalles minste kvadraters feilvektor og b Ax kalles minste kvadraters feil Beste tilnærming teorem: Dersom W er et endeligdimensjonalt underrom til et indreproduktrom V, og hvis b er en vektor i V, så vil proj W b være den beste tilnærmingen til b fra W Altså b proj W b < b w proj W b w W Minste kvadraters løsning av et lineært system: Til ethvert lineært system Ax = b vil det assosierte normalsystemet A T Ax = A T b være konsistent Videre vil alle løsninger av normalsystemet være en minste kvadraters løsning av Ax = b Dersom W = kol(a) og x er en minste kvadraters løsning av Ax = b, så vil proj W b = Ax Dersom A er en m n matrise med lineært uavhengige kolonnevektorer, så vil det for enhver m 1 matrise b være slik at det lineære systemet Ax = b ha en unik minste kvadraters løsning Denne løsningen er gitt ved x = (A T A) 1 A T b 65 Minste kvadraters tilpasning til data Entydighet av minste kvadraters løsning: La (x 1, y 1 ), (x 2, y 2 ),, (x n, y n ) være et sett av to eller målepunkter som ikke alle ligger påen vertikal linje La videre 1 x 1 y 1 1 x 2 M = og y = y 2 1 x n y n Da eksisterer det en unik minste kvadraters rett linje tilpasning til dataene Videre vil y = a + b x v = være gitt ved formelen [ ] a b v = (M T M) 1 M T y For tilpasning av data til høyereordens polynom p(x) = a 0 + a 1 x + a 2 x 2 + + a r r vil 1 x 1 x 2 1 x r 1 a 1 x 2 x 2 2 x r 0 2 M = og a v 1 =, 1 x n x 2 n x r n slik at minste kvadraters tilpasning til p(x) blir p (x) = a 0 + a 1 x + a 2 x2 + + a rx r 66 Funksjonstilpasning; Fourier rekker Problem: La f være en funksjon som er kontinuerlig på intervallet [a, b], la videre C[a, b] ha indreprodukt f, g = b a f(x)g(x)dx, og la W være et endeligdimensjonalt underrom av C[a, b] Finn en funksjon g W som minimaliserer f g 2 = b a [f(x) g(x)] 2 dx Løsning: Løsningen på problemet over er g = proj W f a r Videre vil proj kol(a) b = Ax Denne løsningen kalles minste kvadraters tilpasning til f fra W 8

Fourierrekker: Kort fortalt går Fourierrekker ut på å finne minste kvadraters tilpasning til en kontinuerlig funksjon f(x) på intervaller [0, 2π] ved en trigonometrisk polynom av grad n eller mindre Ved å bruke Gram-Schmidt-prosessen kan man finne at der og proj W f = a 0 2 + [a 1 cos x + + a n cos nx] + [b 1 sin x + + b n sin nx], a k = 1 π b k = 1 π 2π 0 2π 0 f(x) cos kx dx f(x) sin kx dx kalles Fourierkoeffesientene til f 9

7 Diagonalisering og kvadratisk form 71 Ortogonale matriser Ortogonal matrise: En matrise A kalles ortogonal dersom A 1 = A T AA T = A T A = I 72 Ortogonal diagonalisering Ortogonal similaritet: Dersom A og B er kvadratiske matriser, sier vi at A og B er ortogonalsimilære, dersom det finnes en ortogonal matrise P slik at P T AP = B Egenskaper til en ortogonal matrise I: Det følgende er ekvivalent for en n n matrise A (a) A er ortogonal (b) Radvektorene til A danner et ortonormalt sett (c) Kolonnevektorene til A danner et ortonormalt sett (d) Ax = x, x R n (e) Ax Ay = x y, x, y R n Egenskaper til en ortogonal matrise II: (a) Den inverse av en ortogonal matrise er invers (b) Et produkt av ortogonale matriser er ortogonal (c) Dersom A er ortogonal vil det(a) = 1 det(a) = 1 Noen egenskaper til ortonormale basiser: Dersom S er en ortonormal basis for et n- dimensjonalt indreproduktrom V, og dersom (u) S = (u 1, u 2,, u n ) og (v) S = (v 1, v 2,, v n ), så vil (a) u = u 2 1 + u2 2 + + u2 n (b) d(u, v) = (u 1 v 1 ) 2 + + (u n v n ) 2 (c) u, v, u 1 v 1 + u 2 v 2 + + u n v n Forutsetninger for ortogonal diagonalisering: Det følgende er ekvivalent for en n n matrise A (a) A er ortogonal diagonaliserbar (b) A har et ortonormalt sett med egenvektorer (c) A er symmetrisk Egenskaper til symmetriske matriser: Dersom A er en n n matrise så vil: (a) alle egenverdiene til A være reelle (b) egenvektorer fra forskjellige egenrom være ortogonale Prosedyre for å ortogonal diagonalisere en symmetrisk kvadratisk matrise: Steg 1 Finn en basis for hvert av egenrommene til A Steg 2 Bruk Gram-Schmidt-prosessen på hver av basisene for å få en ortonormal basis for hvert av egenrommene Steg 3 Dann matrisa P med kolonner lik de forskjellige vektorene fra (2) Denne matrisa vil ortogonal diagonalisere A, og egenverdiene på diagonalen i D = P T AP vil være i samme rekkefølge som korresponderende vegenvektorer i P Transformasjon mellom ortonormale basiser: La V være et endelig-dimensjonalt indreproduktrom Dersom P er en transformasjonsmatrise fra en ortonormal basis til V til en annen ortonormal basis til V, er P en ortogonal matrise Dersom P = [u 1 u 2 u n ] og D = P T AP, der D er diagonal matrisen til A slik som forklart over, kan man skrive Schurs teorem: Dersom A er en n n matrise med reelle matriseenheter og reelle egenverdier, da finnes en ortogonal matrise P slik at P T AP er øvre triangulær Diagonalen vil bestå av de forskjellige egenverdiene 75 Selvadjungerte, unitære og normale matriser A = λ 1 u 1 u T 1 + + λ 1 u 1 u T 1 Dette kalles spektral dekomposisjon av A 10

Konjugert-transponert (adjungert): Dersom A er en kompleks matrise, så er den konjugerttransponerte (eller adjungerte), angitt ved A, definert til å være u v = v T u = v u A = A T Prosedyre for å unitært diagonalisere en selvadjungert matrise: Steg 1 Finn en basis for vært egenrom til A Steg 2 Bruk Gram-Schmidt-prosessen på hver av disse basisene for å få en ortonormal basis for hvert av egenrommene Steg 3 Dann matrisa P med kolonnevektorer som er alle basisvektorene funnet i steg 2 Unitær og selvadjungert matrise: En kvadratisk matrise A kalles unitær dersom A 1 = A, og kalles selvadjungert (eller Hermitisk) dersom A = A Skeiv-symmetrisk matrise: A T = A Skeiv-selvadjungert matrise: A = A Normalmatrise: AA = A A Ikke alle unitært diagonaliserbare matriser er selvadjungerte (jf ortogonal diagonaliserbar symmetrisk), men en matrise er unitært diagonaliserbar hvis og bare hvis det er en normalmatrise Normalmatriser innefatter selvadjungerte matriser, skeiv-selvadjungerte matriser og unitære matriser Egenskaper til selvadjungerte matriser: Egenverdiene til en selvadjungert matrise er reelle Videre vil egenvektorer fra forskjellige egenrom være ortogonale Ekvivalente utsagn: La A være en n n-matrise med komplekse matriseelementer Da er de følgende utsagnene ekvivalente (a) A er unitær (b) Ax = x x C n (c) Ax Ay = x y x, y C n (d) Kolonnevektorene i A danner et ortonormalt sett i C n med hensyn på det komplekse Euklidske indreproduktet (prikkproduktet) (e) Radvektorene i A danner et ortonormalt sett i C n med hensyn på det komplekse Euklidske indreproduktet (prikkproduktet) Unitær diagonalisering: En kvadratisk matrise A kalles unitær diagonaliserbar dersom det finnes en unitær matrise P slik at P AP = D er en kompleks diagonal matrise En slik matrise P sier man at unitært diagonaliserer A Unitær diagonaliserbarhet: Enhver selvadjungert n n-matrise A har et ortonormalt sett av n egenvektorer og er uniært diagonaliserbar av en unitær n n-matrise P 11

8 Lineære transformasjoner 81 Generelle lineære transformasjoner Lineær transformasjon: Dersom T : V W er en funksjon fra et vektorrom V til et vektorrom W, så kalles T en lineær transformasjon fra V til W dersom følgende betingelser er oppfylt for alle vektorer u, v V og skalarer k: (a) T (ku) = kt (u) [Homogenitet] (b) T (u + v) = T (u) + T (v) [Additivitet] Dersom V = W kalles T en lineær operator På: En lineær transformasjon T : V W mellom to endeligdimensjonale vektorrom kalles på (eller surjektiv) dersom enhver vektor i W er en transformasjon fra minst én vektor i V Sammenheng mellom injektivitet og kjerne: Dersom T : V W er en lineær transformasjon er følgende ekvivalent (a) T er en-til-en (b) ker(t ) = {0} T (0) = 0 T (v) = c 1 T (v 1 ) + c 2 T (v 2 ) + + c n T (v n ) Kjerne og rekkevidde: Dersom T : V W er en lineær transformasjon, så vil kjernen til T (ker(t )) være settet av alle vektorer som i V som T transformerer til 0 Settet av alle vektorer i W som er avbildninger av T fra minst én vektor i V kalles rekkevidden til T (R(T )) Sammenheng mellom injektivitet, surjektivitet og kjerne til en lineær operator: Dersom T : V V er en lineær operator i et endeligdimensjonalt vektorrom V er følgende ekvivalent (a) T er en-til-en (b) ker(t ) = {0} (c) T er på; dvs R(T ) = V Egenskaper til kjernen og rekkevidden: Dersom T : V W er en lineær transformasjon så vil ker(t ) V og R(T ) W Rang og nullitet: La T : V W være en lineær transformasjon Dersom rekkevidden til T er endeligdimensjonal, så kalles denne dimensjonen rangen til T ; og dersom kjernen til T er endeligdimensjonal, kalles denne dimensjonen nulliteten til T Rangen til T angis ved rang(t ) og nulliteten til T angis ved nullitet(t ) Dimensjonsteorem for lineære transformasjoner: La T : V W være en lineær transformasjon mellom to endeligdimensjonale vektorrom Da vil rang(t ) + nullitet(t ) = n Isomorfi: Dersom en lineær transformasjon T : V W både er en-til-en og på kalles den en isomorfi, og vektorrommene V og W sier man er isomorfe Isomorf med R n : Enhvert n-dimensjonalt vektorrom er isomorf med R n Dersom V og W er to indreproduktrom kalles en isomorfi T : V W en indreprodukt isomorfi dersom T (u), T (v) = u, v 83 Sammensetninger og inverse transformasjoner Sammensetning: Dersom T 1 : U V og T 2 : V W er to lineære transformasjoner, vil sammensetningen av T 2 med T 1 (eller komposisjonen), angitt ved T 2 T 1, være definert ved formelen 82 Isomorfi der u U (T 2 T 1 )(u) = T 2 (T 1 (u)), En-til-en: En lineær transformasjon T : V W mellom to endeligdimensjonale vektorrom kalles en-til-en (eller injektiv) dersom T transformerer distinkte vektorer i V til distinkte vektorer i W Dersom T 1 : U V og T 2 : V W er to lineære transformasjoner, er også (T 2 T 1 ) : U W en lineær transformasjon 12

Den inverse av en lineær transformasjon: Den inverse av en lineær transformasjon T, angitt ved T 1, er definert ved T 1 (T ) = T (T 1 ) = I, der I er identitets operatoren [I(x) = x; T I = I T = T ] T en-til-en T 1 er eksisterer Sammensetning av en-til-en lineære transformasjoner: Dersom T 1 : U V og T 2 : V W er en-til-en lineære transformasjoner så vil T 2 T 1 være en-til-en og (T 2 T 1 ) 1 = T1 1 T2 1 84 Matriserepresentasjon av generelle lineære transformasjoner Anta i dette delkapittelet at V er et n-dimensjonalt vektorrom, at W er et m-dimensjonalt vektorrom og at T : V W er en lineær transformasjon Anta videre at B = {u 1, u 2,, u n } er en basis til V, at B er en basis til W og at det for hver vektor x V er slik at koordinatmatrisene til x og T (x) er henholdsvis [x] B og [T (x)] B Sammensetning av matriserepresentasjoner: Dersom T 1 : U V og T 2 : V W er lineære transformasjoner, og B, B og B er basiser for henholdsvis U, V og W, så vil [T 2 T 1 ] B,B = [T 2 ] B,B [T 1] B,B Invertible matriserepresentasjoner: Dersom T : V V er en lineær operator, og dersom B er en basis til V, så er de følgende utsagnene ekvivalente: (a) T er en-til-en (b) [T ] B er invertibel Videre vil [T 1 ] B = [T ] 1 B betingelsene over oppfylt 85 Similaritet dersom de ekvivalente Overgangsmatriser som identitetsoperatorer: Dersom B og B er basiser for et endeligdimensjonalt vektorrom V, og dersom I : V V er identitetsoperatoren i V, så vil P B B = [I] B,B og P B B = [I] B,B Prosedyre for å finne T (x) indirekte: Steg 1 Beregn koordinatvektoren [x] B Steg 2 Multipliser [x] B på venstre med A for å finne [T (x)] B Steg 3 Rekonstruer T (x) fra koordinatvektoren [T (x)] B Problem: Dersom B og B er to basiser for et endeligdimensjonalt vektorrom V og dersom T : V V er en lineær operator, hva slags sammenheng er det mellom matrisene [T ] B og [T ] B? x T T(x) Effekten av basisbytte på lineære operatorer: La T : V V være en lineær operator på et endelig-dimensjonalt vektorrom V, og la B og B være basiser til V Da vil [x] B A [T(x)] B' Figur 1: Representasjon av å finne T (x) indirekte Matrisa A, ofte angitt ved [T ] B,B, som fra prosedyren og figuren over vil være definert ved [T ] B = P 1 [T ] B P, der P = P B B og P 1 = P B B De to matrisene [T ] B og [T ] B er similære, som er ekvivalent med at de representerer samme lineære operator A[x] B = [T (x)] B Dette medfører at vi kan skrive [T ] B,B = [ [T (u 1 )] B [T (u 2 )] B [T (u n )] B ] Vi kaller denne matrisa for T med hensyn på basis B og B 13

10 Anvendelser av lineær algebra 102 Geometrisk lineær programmering Problem: Finn verdiene til x1 og x2 som enten maksimaliserer eller minimaliserer objektfunksjonen z = c1 x1 + c2 x2, med gitte lineære begrensninger Et par (x1, x2 ) som tilfredstiller begrensningene kalles en mulig løsning Summen av alle mulige løsninger kalles et mulig område Tilstandsvektor: Tilstandsvektoren for en obeservasjon av en Markov-kjede med k-tilstander er en kolonnevektor x, der i-te komponent xi er sannsynligheten for at systemet er i i-te tilstand på den tiden Maksimum og minimumsverdier: Dersom det mulige området til et lineært programmeringsproblem er ikke-tomt og bundet, så vil objektfunksjonen oppnå både maksimal- og minimalverdi, som oppnås i kritiske punkter til objektfunksjonen Dersom det mulige områikke er bundet, så er det ikke sikkert objektfunksjonen har maksimaleller minimalverdier; men dersom den har dette, oppnås disse i kritiske punkt x2 z maksimalisert Overgang i Markov-kjeder1: Dersom P er overgangsmatrisa til en Markov-kjede og x(n) er tilstandsvektoren ved n-te observasjon, så vil x(n+1) = P x(n) Regulær matrise: En overgangsmatrise er regulær dersom en heltallseksponent av den har kun positive matriseelementer Niva kurver til z = c1 x1 + c2 x2 Sannsynlighetsvektor: En sannsynlighetsvektor q = (q1, q2,, qk ) er slik at qi 0 (i = 1, 2, k), og q1 + q2 + + qk = 1 Mulig omra de z øker Ovegangssannsynlighet og overgangsmatriser: Dersom en Markov-kjede har k mulige tilstander, som vi navngir 1, 2, 3,, k, vil sansynligheten for at systemet er i en tilstand i etter at det var i en tilstand j angis som pi,j og kalles overgangssannsynlighet fra tilstand j til tilstand i Matrisa P = [pij ] kalles overgangsmatrisa til Markovkjeden z minimaliserert Oppførselen til P når n : Dersom P er en regulær overgangsmatrise og x en sannsynlighetsvektor, så vil z minker q1 q1 q1 q2 q2 q2 n, lim P = n qk qk qk x1 Figur 2: Idéen bak at alle ekstremalpunkter må ligge i et skjæringspunkt mellom to lineære begrensninger og 105 q1 q2 lim P n x = = q, n Markov-kjeder qk Markov-kjeder: Ta for deg tilstanden til et system ikke kan forutsies med sikkerhet, men sannsynlighetsfordelingen til etterfølgende tilstander avhenger av nåværende tilstand En slik prosess kalles en Markov-kjede eller Markov-prosess der q er en sannsynlighetsvektor og kalles i dette tilfelle en stabiltilstandsvektor Videre vil P q = q 14

Ekvivalente utsagn tilhørende alle tidligere kapitler Ekvivalente utsagn Dersom A er en n n matrise vil følgende utsagn være ekvivalente (a) A er invertibel (b) Ax = 0 har bare den trivielle løsningen (c) Den reduserte trappeformen av A er I n (d) A kan uttrykket som et produkt av elementærmatriser (e) Ax = b er konsistent for alle n 1 matriser b (f) Ax = b har nøyaktig én løsning for alle n 1 matriser b (g) det(a) 0 (h) Kolonnevektorene til A er linær uavhengige (i) Radvektorene til A er lineær uavhengige (j) Kolonnevektorene til A span{r n } (k) Radvektorene til A span{r n } (l) Kolonnevektorene til A utgjør en basis til R n (m) Radvektorene til A utgjør en basis til R n (n) rank(a) = n (o) nullity(a) = 0 (p) Det ortogonale komplementet av nullrommet til A er R n (q) Det ortogonale komplementet av radrommet til A er {0} (r) Området til T A er R n (s) T A er en-til-en (t) λ = 0 er ikke en egenverdi til A (u) A T A er invertibel 15