4.4 Koordinatsystemer

Like dokumenter
4.4 Koordinatsystemer

4.9 Anvendelser: Markovkjeder

MAT1120 Notat 1 Tillegg til avsnitt 4.4

Til enhver m n matrise A kan vi knytte et tall, rangen til A, som gir viktig informasjon.

Til enhver m n matrise A kan vi knytte et tall, rangen til A, som gir viktig informasjon.

MAT1120 Notat 1 Tillegg til avsnitt 4.4

MAT1120 Notat 2 Tillegg til avsnitt 5.4

MAT1120 Notat 2 Tillegg til avsnitt 5.4

Basis, koordinatsystem og dimensjon

MAT1120 Repetisjon Kap. 1

4.1 Vektorrom og underrom

MAT Onsdag 7. april Lineær uavhengighet (forts. 1.8 Underrom av R n, nullrom, basis MAT Våren UiO. 7.

Kap. 6 Ortogonalitet og minste kvadrater

UNIVERSITETET I OSLO

Notat2 - MAT Om matriserepresentasjoner av lineære avbildninger

Lineær uavhengighet og basis

5.8 Iterative estimater på egenverdier

4.2 Nullrom, kolonnerom og lineære transformasjoner

Kap. 5 Egenverdier og egenvektorer

Lineærtransformasjoner

6.4 Gram-Schmidt prosessen

A 2 = PDP 1 PDP 1 = PD 2 P 1. og ved induksjon får vi. A k = PD k P 1. Kommentarer:

Kap. 5 Egenverdier og egenvektorer

Obligatorisk oppgave 1 MAT1120 H15

5.5 Komplekse egenverdier

UNIVERSITETET I OSLO

5.6 Diskrete dynamiske systemer

Kap. 7 Symmetriske matriser og kvadratiske former

8 Vektorrom TMA4110 høsten 2018

Lineær algebra-oppsummering

MAT1120. Obligatorisk oppgave 1 av 2. Torsdag 20. september 2018, klokken 14:30 i Devilry (devilry.ifi.uio.no).

MAT1120 Repetisjon Kap. 1, 2 og 3

6.4 (og 6.7) Gram-Schmidt prosessen

Vektorrom. Kapittel 7. Hva kan vi gjøre med vektorer?

Repetisjon: om avsn og kap. 3 i Lay

12 Lineære transformasjoner

UNIVERSITETET I OSLO

9 Lineærtransformasjoner TMA4110 høsten 2018

Obligatorisk oppgave 1 MAT1120 HØSTEN 2014

6.5 Minste kvadraters problemer

Repetisjon: Om avsn og kap. 3 i Lay

3.9 Teori og praksis for Minste kvadraters metode.

4.1 Vektorrom og underrom

UNIVERSITY OF OSLO. Faculty of Mathematics and Natural Sciences. Matlab-utskrift (1 side).

4.1 Vektorrom og underrom

Obligatorisk oppgave 1 MAT1120 HØSTEN 2008

4.1 Vektorrom og underrom

7.1 forts. Schur triangularisering og spektralteoremet

GENERELLE VEKTORROM. Hittil har vi bare snakket om vektorrom av type

MAT1120 Oppgaver til plenumsregningen torsdag 18/9

OBLIG 2 - MAT 1120 Høsten 2005

7.4 Singulærverdi dekomposisjonen

Rom og lineæritet. Erik Bédos. Matematisk Institutt, UiO 2012.

Løsningsforslag øving 6

(a) R n defineres som mengden av kolonnevektorer. a 1 a 2. a n. (b) R n defineres som mengden av radvektorer

Lineære likningssystemer og matriser

TMA4110 Eksamen høsten 2018 EKSEMPEL 1 Løsning Side 1 av 8. Løsningsforslag. Vi setter opp totalmatrisen og gausseliminerer: x 1 7x 4 = 0

MAT1120 Oppgaver til plenumsregningen torsdag 18/9

Løsningsforslag øving 7

MAT-1004 Vårsemester 2017 Prøveeksamen

Obligatorisk oppgavesett 1 MAT1120 H16

(3/2)R 2+R 3 R 1 +R 2,( 2)R 1 +R 3 ( 2)R 1 +R 4 6/5R 3 +R 4 1/5R 3

Universitet i Bergen. Eksamen i emnet MAT121 - Lineær algebra

MAT3000/ Våren 2013 Obligatorisk oppgavesett nr. 2 Løsningsskisse

Generelle teoremer og definisjoner MA1201 Lineær Algebra og Geometri - NTNU

EKSAMEN I MA1202 LINEÆR ALGEBRA MED ANVENDELSER

Rang og Vektorrom. Magnus B. Botnan NTNU. 4. august, 2015

x 1 x 2 x = x n b 1 b 2 b = b m Det kan være vanskelig (beregningsmessig) og bearbeide utrykk som inneholder

UNIVERSITETET I OSLO

6.8 Anvendelser av indreprodukter

MAT-1004 Vårsemester 2017 Prøveeksamen

Vi skal koble diagonalisering av matriser sammen med ortogonalitet. Skal bl.a. se på

10 Radrommet, kolonnerommet og nullrommet

Emne 7. Vektorrom (Del 1)

MAT-1004 Vårsemester 2017 Obligatorisk øving 3

MAT Oblig 1. Halvard Sutterud. 22. september 2016

EKSAMENSOPPGAVE. to A4 ark egne notater og Rottmanns tabeller. Kontaktperson under eksamen: Professor Andrei Prasolov. Telefon:

15 Hovedprinsippet for vektorrom med et indre produkt

OBLIG 1 - MAT 1120 Høsten 2005

EKSAME SOPPGAVE MAT-1004 (BOKMÅL)

MAT 1120: Obligatorisk oppgave 1, H-09

Kap. 6 Ortogonalitet og minste kvadraters problemer

12 Projeksjon TMA4110 høsten 2018

MAT-1004 Vårsemester 2017 Obligatorisk øving 2

= 3 11 = = 6 4 = 1.

13 Oppsummering til Ch. 5.1, 5.2 og 8.5

Løsninger for eksamen i MAT Lineær algebra og M102 - Lineær algebra, fredag 28. mai 2004, Oppgave 1. M s = = 1 2 (cofm 2) T.

Eksamensoppgave MAT juni 2010 (med løsningsforslag)

UNIVERSITET I BERGEN

Emne 10 Litt mer om matriser, noen anvendelser

Diagonalisering. Kapittel 10

MAT 1110: Bruk av redusert trappeform

Universitetet i Agder Fakultetet for teknologi og realfag Institutt for matematiske fag. Eksamen MA desember Lykke til!

Tiden går og alt forandres, selv om vi stopper klokka. Stoffet i dette kapittelet vil være en utømmelig kilde med tanke på eksamensoppgaver.

Eksamensoppgave i MA1202/MA6202 Lineær algebra med anvendelser

Løsningsforslag til eksamen i MA1202/MA6202 Lineær algebra med anvendelser høsten 2009.

Oppgavesett. Kapittel Oppgavesett 1

Emne 9. Egenverdier og egenvektorer

Mer om kvadratiske matriser

Transkript:

4.4 Koordinatsystemer Minner om at B = { b 1, b 2,..., b n } V kalles en basis for et vektorrom V dersom B er lineært uavhengig og B utspenner V. I samme vektorrom kan vi innføre ulike koordinatsystemer ; dette svarer til at vi velger ulike basiser. Det å velge riktig basis vil vi ofte kunne forenkle et problem. Nyttig senere! Fundamentet er følgende teorem, som ofte kalles teoremet om entydig representasjon. 1 / 20

Teorem 7: Anta at B = {b 1, b 2,..., b n } er en basis for vektorrommet V. For hver x V fins da entydig bestemte skalarer c 1, c 2,..., c n slik at x = c 1 b 1 + c 2 b 2 + + c n b n. Vektene c 1, c 2,..., c n kalles koordinatene til x med hensyn på B. (Noen sier: relativt til B). Vektoren [x] B = (c 1, c 2,..., c n ) i R n kalles koordinatvektoren til x m.h.p. B. Avbildningen x [x] B fra V til R n kalles koordinatavbildningen m.h.p. B. MERK: Vektorene i B betraktes som ordnet i den rekkefølgen oppgitt i teoremet og vi burde derfor si at B er en ordnet basis. Bytter vi rekkefølgen på disse vektorene vil vektene bytte plass og koordinatvektoren forandres. 2 / 20

Eksempler. 1) Anta x = (x 1, x 2,..., x n ) R n og B = {e 1,..., e n }. Da er så [x] B = (x 1, x 2,..., x n ) = x. x = x 1 e 1 + x 2 e 2 + + x n e n Dette betyr at vektorene i R n er i utgangspunktet koordinatisert m.h.p. standardbasisen! 2) Betrakt P 2 og B = {p 0, p 1, p 2 }, der p 0 (t) = 1, p 1 (t) = t, p 2 (t) = t 2 Hvis p(t) = a 0 + a 1 t + a 2 t 2, så er [p] B = (a 0, a 1, a 2 ). (for alle t R). F.eks. er [3 t + 2 t 2 ] B = (3, 1, 2). 3 / 20

Spesielt om koordinater i R n La B = {b 1, b 2,..., b n } være en basis for R n og la x R n. Anta at [x] B = (c 1, c 2,..., c n ) R n. Da er ] c 2 x = c 1 b 1 + c 2 b 2 + + c n b n = [b 1 b 2... b n. c n Så x = P B [x] B der P B = [b 1 b 2... b n ]. c 1 Matrisen P B = [ b 1 b 2... b n ] kalles koordinatskiftematrisen (eller basisskiftematrisen) fra B til standardbasisen i R n. 4 / 20

Spesielt om koordinater i R n (forts.) Gitt x R n kan vi bestemme koordinatvektoren c = [x] B ved å løse likningen P B c = x med hensyn på c. P B er invertibel siden dens kolonner utgjør en basis for R n (nemlig B). Derfor er [x] B = (P B ) 1 x for alle x R n. Dette viser at koordinatavbildningen (m.h.p. B) er lineær, at dens standardmatrise er (P B ) 1, og at den er 1 1 og på R n. 5 / 20

Teorem 8: Anta at B = {b 1, b 2,..., b n } er en (ordnet) basis for et vektorrom V. Da er x [x] B en lineær avbildning fra V til R n som er 1-1 og på. Merk: Dette har vi nettopp sett når B er en basis for R n. Definisjon: En isomorfi fra et vektorrom V til et vektorrom W er en lineær avbildning fra V til W som er 1-1 og på W. Teorem 8 sier altså at koordinatavbildningen m.h.p. en (ordnet) basis for V er en isomorfi fra V til R n. En slik isomorfi kan vi bruke til å identifisere V med R n. Et nyttig resultat som illustrerer dette finnes i Notat 1: 6 / 20

Korollar til Teorem 8 [fra Notat 1]: Anta at B = { b 1, b 2,..., b n } er en (ordnet) basis for V. Betrakt en delmengde S = {u 1, u 2,..., u p } av V. Definer S B = { [u 1 ] B, [u 2 ] B,..., [u p ] B } (som er en delmengde av R n ) og [S B ] M n p ved [ ] [S B ] = [u 1 ] B [u 2 ] B [u p ] B. Da har vi at: S utspenner V S B utspenner R n. S er lineært uavhengig i V S B er lineært uavhengig i R n. S er en basis for V S B er en basis for R n p = n og matrisen [S B ] er invertibel. 7 / 20

Noen kommentarer En viktig konsekvens av siste del av korollaret er følgende resultat: Dersom et vektorrom V har en basis med n elementer, så er antall vektorer i enhver basis for V også lik n. Tallet n kalles dimensjonen til V (jf. avsn. 4.5). Når S er en basis for V, kalles den invertible matrisen [S B ] for koordinatskiftematrisen fra S til B. Slike matriser skal vi studere nærmere i avsnitt 4.7. La R = rref([s B ]). I praksis er det verdt å huske at: S B utspenner R n R har pivoter i alle sine rader. S B er lineært uavhengig R har pivoter i alle sine kolonner. S B er en basis for R n p = n og R = I n. 8 / 20

4.5 Dimensjon Definisjon: Et vektorrom V kalles endeligdimensjonalt dersom det er utspent av en endelig mengde. Anta V {0} er endeligdimensjonalt. Da har V alltid en basis (ved Teorem 5). Antall elementer i en basis for V er alltid det samme og kalles dimensjonen til V. Det betegnes med dim V. Vi setter dim V := 0 når V = {0}. V kalles uendeligdimensjonalt når den ikke er utspent av en endelig mengde. Teorem (9 og 10 i boka). Anta at V er endeligdimensjonalt og n := dim V. La S være en endelig delmengde av V. 1. Anta S har flere enn n vektorer. Da er S lineært avhengig. 2. Anta S har færre enn n vektorer. Da er V ikke utspent av S. 9 / 20

Noen eksempler. dim R n = n. dim P n = n + 1. dim M m n = m n. P er uendeligdimensjonalt. La A være en m n matrise. Sett R = rref(a). Da gjelder: Kolonnevektorene i A som svarer til pivotene i R danner en basis for Col A. Så dim Col A = antall pivoter i R Vektorene vi får ved å separere de frie variablene når vi skal angi Nul A på parameterform danner en basis for Nul A. Så dim Nul A = antall frie variable i systemet A x = 0, m.a.o. dim Nul A = antall kolonner i R som ikke er pivotkolonner Merk: dim Col A kalles rangen til A og er tema for avsn. 4.6. 10 / 20

Teorem 11: La H være et underrom av et endeligdimensjonalt vektorrom V, og la S være et lineært uavhengig delmengde av H. Hvis S utspenner H, så er S en basis for H. Hvis ikke, kan S alltid utvides til en basis for H. Videre er H endeligdimensjonalt og dim H dim V. Det er ofte nyttig å kjenne dimensjonen til et vektorrom: Teorem 12 (Basis teoremet): La V være et endeligdimensjonalt vektorrom, V {0}. Anta at S = {v 1, v 2,..., v n } V består av n distinkte vektorer, der n = dim V. Da gjelder følgende: Hvis S er lineært uavhengig, så er S en basis for V. Hvis S utspenner V, så er S en basis for V. 11 / 20

4.9 Anvendelser: Markovkjeder Markov kjeder er en spesiell type diskret dynamisk system. Stokastisk modell: grunnleggende i sannsynlighetsregning. Brukes bl.a. i finans, fysikk, biologi, økonomi, demografiske modeller (populasjonsmodeller) Brukes i rangeringsmetoder, f.eks Google Les om Andrey Markov (1856-1922) (og Markov chains) på f.eks. Wikipedia, eller MacTutor Hist. of Mathematics http://www-history.mcs.st-andrews.ac.uk/ Lære mer om Markovkjeder: STK2130 - Modellering av stokastiske prosesser 12 / 20

En vektor x = (x 1, x 2,..., x n ) R n som er slik at og som også tilfredsstiller at kalles en stokastisk vektor (i R n ). x j 0 for alle j = 1,..., n, x 1 + x 2 + + x n = 1 En kvadratisk matrise P kalles stokastisk dersom den er komponentvis ikkenegativ og hver kolonnesum er lik 1, dvs. hver kolonne i P er en stokastisk vektor. Slike matriser kalles også Markovmatriser. [ ] 0.3 0.8 En liten Markovmatrise: P 1 = 0.7 0.2 Og en litt større Markovmatrise: 1 0.2 0 0 0 0 0.5 0.2 0 0 P 2 = 0 0.3 0.5 0.2 0 0 0 0.3 0.5 0 0 0 0 0.3 1 13 / 20

Eksempel: En populasjonsmodell. Et land er inndelt i n områder. En tilstandsvektor er en stokastisk vector x R n der komponenten x j angir andelen av populasjonen som bor i område j for hver j = 1, 2,..., n. Vi antar at hvert år vil en viss andel av populasjonen i et område flytte til andre områder. Vi lar derfor p ij angi andelen i område j som flytter til område i i løpet av ett år. Matrisen P := [p ij ] er da en stokastisk matrise, som ofte kalles overgangsmatrisen til modellen. For enkelhets skyld antar vi at andelene p ij er de samme for hvert år og at den totale populasjonen er konstant. 14 / 20

Hvis x k er tilstandsvektoren ved starten av tidsperiode k, så blir tilstandsvektoren ved neste periode k + 1 gitt ved x k+1 = P x k, der k = 0, 1, 2,... Kjenner vi initialtilstanden x 0 kan vi beregne hver tilstandsvektor x k iterativt ved å bruke likningen ovenfor. [ ] 0.4 0.8 Eks. Hvis x 0 = (0.5, 0.5) og P =, så blir 0.6 0.2 [ ] [ ] [ ] 0.4 0.8 0.5 0.6 x 1 = Px 0 = = 0.6 0.2 0.5 0.4 som gir fordelingen etter 1 år. Videre er x 2 = Px 1 = = (0.56, 0.44), osv. 15 / 20

Hva skjer langt fram i tid?! Merk at x k = Px k 1 = P(Px k 2 ) = P 2 x k 2 = = P k x 0 Så den asymptotiske fordelingen blir bestemt av matrisen P k. Koeffisienten i posisjon (i, j) i matrisen P k kan tolkes som sannsynligheten for at en person flytter fra område j til område i i løpet av k tidsperioder. Merk at P k er også en stokastisk matrise (fordi produktet av to stokastiske matriser er igjen en stokastisk matrise sjekk dette som en oppgave!). Matlab demo! I mange tilfeller vil fordelingen stabilisere seg i det lange løp. 16 / 20

Definisjon. Hvis P er en stokastisk matrise og q er en stokastisk vektor slik at q = Pq så kalles q en likevektsvektor (equilibrium, steady-state, stasjonær fordeling). Perron-Frobenius teori for ikkenegative matriser gir at Enhver stokastisk matrise har minst en likevektsvektor. Skal senere knytte dette til egenvektorer (som behandles i neste kapittel). Vi kan finne likevektsvektorene ved å løse det lineære likningssystemet. (P I )x = 0 og bruke at x skal være stokastisk. 17 / 20

Markov kjeder La P være en n n stokastisk matrise, m.a.o. en Markovmatrise. Til enhver stokastisk vektor x 0 i R n kan vi tilordne en følge { x k } av stokastiske vektorer i R n ved å sette x k+1 = P x k for alle k = 0, 1, 2,..., noe som er ekvivalent med x k = P k x 0 for alle k = 0, 1, 2,... Vi sier da at { x k } er en Markov kjede assosiert med P (og x 0 ). I mange situasjoner er vi interessert i å finne ut hva som skjer når k. Det vil ofte være slik at x k konvergerer mot [ en ] 0 1 likevektsvektor, men ikke alltid: prøv f.eks. med P =, så 1 0 vil du lett se at følgen { x k } ikke konvergerer hvis x 0 ( 1 2, 1 2 ). 18 / 20

Regulære stokastiske matriser Definisjon. En stokastisk matrise P kalles regulær dersom, for en viss k, er alle elementene i P k positive. I så fall vil alle elementene være positive også i P k+1, P k+2,.... Dette svarer til at man kan komme seg fra enhver tilstand til enhver annen tilstand ved passende mange tilstandsoverganger. F.eks. hvis p ij > 0 for alle i, j, så er P regulær. Hovedresultatet i avsnitt 4.9 er følgende: Teorem 18. Hvis P er en regulær stokastisk matrise, så har P en entydig likevektsvektor q. Videre, hvis x 0 er en vilkårlig stokastisk vektor, og x k+1 = Px k for k = 0, 1,..., så vil Markovkjeden {x k } konvergere mot q når k. 19 / 20

Numerisk (for store regulære matriser) bestemme man gjerne likevektsvektoren ved iterasjonen x=p x. Men det er da viktig å utnytte at matrisen vil ha ofte ha mange nullere. Den type beregninger ligger bak Google og PageRank algoritmen! Faktisk, hele forretningsidéen var her å tenke på weben som et stort nett (= en rettet graf) med overgangssannsynligheter fra en nettside til en annen, og basere rangering på beregning av en likevektsvektor. 20 / 20