5.8 Iterative estimater på egenverdier

Like dokumenter
Kap. 6 Ortogonalitet og minste kvadrater

UNIVERSITETET I OSLO

4.1 Vektorrom og underrom

Kap. 6 Ortogonalitet og minste kvadraters problemer

4.1 Vektorrom og underrom

6.4 Gram-Schmidt prosessen

4.1 Vektorrom og underrom

Til enhver m n matrise A kan vi knytte et tall, rangen til A, som gir viktig informasjon.

UNIVERSITETET I OSLO

4.1 Vektorrom og underrom

6.4 (og 6.7) Gram-Schmidt prosessen

UNIVERSITET I BERGEN

UNIVERSITETET I OSLO

6.8 Anvendelser av indreprodukter

9 Lineærtransformasjoner TMA4110 høsten 2018

4.4 Koordinatsystemer

Kap. 5 Egenverdier og egenvektorer

Diagonalisering. Kapittel 10

A 2 = PDP 1 PDP 1 = PD 2 P 1. og ved induksjon får vi. A k = PD k P 1. Kommentarer:

Kap. 5 Egenverdier og egenvektorer

Vi skal koble diagonalisering av matriser sammen med ortogonalitet. Skal bl.a. se på

5.5 Komplekse egenverdier

Lineærtransformasjoner

Kap. 5 og Notat 2 Oppsummering

MAT1120 Notat 2 Tillegg til avsnitt 5.4

MAT1120 Notat 2 Tillegg til avsnitt 5.4

= 3 11 = = 6 4 = 1.

Lineær algebra. 0.1 Vektorrom

4.2 Nullrom, kolonnerom og lineære transformasjoner

UNIVERSITY OF OSLO. Faculty of Mathematics and Natural Sciences. Matlab-utskrift (1 side).

Kap. 7 Symmetriske matriser og kvadratiske former

UNIVERSITETET I OSLO

7.4 Singulærverdi dekomposisjonen

GENERELLE VEKTORROM. Hittil har vi bare snakket om vektorrom av type

Eksamensoppgave MAT juni 2010 (med løsningsforslag)

Løsninger for eksamen i MAT Lineær algebra og M102 - Lineær algebra, fredag 28. mai 2004, Oppgave 1. M s = = 1 2 (cofm 2) T.

TMA4110 Eksamen høsten 2018 EKSEMPEL 1 Løsning Side 1 av 8. Løsningsforslag. Vi setter opp totalmatrisen og gausseliminerer: x 1 7x 4 = 0

3.9 Teori og praksis for Minste kvadraters metode.

Universitet i Bergen. Eksamen i emnet MAT121 - Lineær algebra

15 Hovedprinsippet for vektorrom med et indre produkt

Egenverdier og egenvektorer

Til enhver m n matrise A kan vi knytte et tall, rangen til A, som gir viktig informasjon.

Egenverdier for 2 2 matriser

Eksamensoppgave i MA1202/MA6202 Lineær algebra med anvendelser

EKSAMENSOPPGAVER FOR TMA4110/TMA4115 MATEMATIKK 3

4.4 Koordinatsystemer

OPPGAVER FOR FORUM

MAT3000/ Våren 2013 Obligatorisk oppgavesett nr. 2 Løsningsskisse

MA1201/MA6201 Høsten 2016

MAT1120 Oppgaver til plenumsregningen torsdag 25/9

8 Vektorrom TMA4110 høsten 2018

Løsningsforslag øving 6

a) Matrisen I uv T har egenverdier 1, med multiplisitet n 1 og 1 v T u, med multiplisitet 1. Derfor er matrisen inverterbar når v T u 1.

R: 0, , = 6000 D : 0, , = 4000 La v n = angi fordelingen etter n år (dvs. a b n stemmer for R og

5.6 Diskrete dynamiske systemer

6.5 Minste kvadraters problemer

MAT1120 Notat 1 Tillegg til avsnitt 4.4

(a) R n defineres som mengden av kolonnevektorer. a 1 a 2. a n. (b) R n defineres som mengden av radvektorer

Dagens mål. Det matematiske fundamentet til den diskrete Fourier-transformen Supplement til forelesning 8 INF Digital bildebehandling

Universitet i Bergen. Eksamen i emnet MAT121 - Lineær algebra

7.1 forts. Schur triangularisering og spektralteoremet

Vær OBS på at svarene på mange av oppgavene kan skrives på flere ulike måter!

Oppgave 14 til 9. desember: I polynomiringen K[x, y] i de to variable x og y over kroppen K definerer vi undermengdene:

Løsningsforslag MAT 120B, høsten 2001

Rom og lineæritet. Erik Bédos. Matematisk Institutt, UiO 2012.

Oppgavesett. Kapittel Oppgavesett 1

Løsningsforslag til eksamen i MA1202/MA6202 Lineær algebra med anvendelser høsten 2009.

Diagonalizering. En n n matrise A sies å være diagonaliserbar hvis den er similær med en diagonalmatrise D. A = PDP 1

MAT1120 Notat 1 Tillegg til avsnitt 4.4

MAT UiO. 10. mai Våren 2010 MAT 1012

Rang og Vektorrom. Magnus B. Botnan NTNU. 4. august, 2015

Vektorrom. Kapittel 7. Hva kan vi gjøre med vektorer?

TMA4110 Matematikk 3 Eksamen høsten 2018 Løsning Side 1 av 9. Løsningsforslag. Vi setter opp totalmatrisen og gausseliminerer:

EKSAMEN I NUMERISK LINEÆR ALGEBRA (TMA4205)

MAT-1004 Vårsemester 2017 Prøveeksamen

13 Oppsummering til Ch. 5.1, 5.2 og 8.5

16 Ortogonal diagonalisering

LØSNINGSFORSLAG EKSAMEN MA1202/MA6202 VÅR 2010

Generelle teoremer og definisjoner MA1201 Lineær Algebra og Geometri - NTNU

MAT-1004 Vårsemester 2017 Prøveeksamen

Eksamensoppgave i TMA4110/TMA4115 Calculus 3

MAT jan jan feb MAT Våren 2010

12 Projeksjon TMA4110 høsten 2018

Emne 10 Litt mer om matriser, noen anvendelser

MAT Onsdag 7. april Lineær uavhengighet (forts. 1.8 Underrom av R n, nullrom, basis MAT Våren UiO. 7.

12 Diagonalisering av matriser og operatorer (Ch. 5.1, 5.2 og 8.5)

Løsningsforslag øving 7

EKSAMEN I MA1202 OG MA6202 LINEÆR ALGEBRA MED ANVENDELSER

A.3.e: Ortogonale egenfunksjonssett

Løsningsforslag til eksamen i MA1202/MA6202 Lineær algebra med anvendelser våren 2009.

Lineær algebra-oppsummering

Det matematisk-naturvitenskapelige fakultet

MAT1120 Repetisjon Kap. 1, 2 og 3

EKSAME SOPPGAVE MAT-1004 (BOKMÅL)

EKSAMEN I MATEMATIKK 3 (TMA4110)

6.6 Anvendelser på lineære modeller

MAT Grublegruppen Notat 6

MAT UiO mai Våren 2010 MAT 1012

Minste kvadraters løsning, Symmetriske matriser

Transkript:

5.8 Iterative estimater på egenverdier Det finnes ingen eksplisitt formel for beregning av egenverdiene til en kvadratisk matrise. Iterative metoder som finner (ofte) en (meget god) approksimasjon til egenverdiene, og egenvektorene. Skal først se på potensmetoden, deretter på den inverse potensmetoden. Matlab benytter en variant av den såkalte QR-algoritmen (i kommandoen eig(a)). 1 / 18

Potensmetoden Den virker for mange matriser (men ikke alle); den brukes til å finne den største egenverdien (i absoluttverdi) hvis en slik finnes. Vi betrakter en n n diagonaliserbar matrise A og antar at A har en strengt dominant egenverdi λ 1 : det betyr at egenverdiene til A, gjentatt i henhold til deres multiplisitet, kan ordnes slik at λ 1 > λ 2 λ n. [Man kan her tillate komplekse egenverdier og anta at A er diagonaliserbar som en kompleks matrise]. Målet er å finne: en følge av skalarer som konvergerer mot λ 1 ; en følge av vektorer som konvergerer mot en egenvektor v 1 tilhørende egenverdien λ 1. 2 / 18

La v 1,..., v n være en basis av egenvektorer for A som respektivt tilhører egenverdiene λ 1,..., λ n. Hvis x R n er x = c 1 v 1 + c 2 v 2 + + c n v n for passende skalarer c 1,..., c n, og for k N er da A k x = c 1 λ k 1 v 1 + c 2 λ k 2 v 1 + c n λ k n v n. Fordi λ 1 er strengt dominant gir dette at 1 λ k 1 A k x c 1 v 1 når k er stor, m.a.o. at A k x c 1 λ k 1 v 1 når k er stor. Konklusjon: Hvis c 1 0 og k er stor, vil A k x være en tilnærmet egenvektor for A (tilhørende egenverdien λ 1 ). 3 / 18

Matlab-illustrasjon Vi velger en kvadratisk matrise A. Med litt flaks er A diagonaliserbar med en strengt dominant egenverdi λ 1. Vi velger en startvektor x 0. Vi beregner A k x 0 for noen verdier av k og ser hva som skjer. Merk: Dersom λ 1 1, vil vektorene A k x 0 blåse opp eller ned i lengde når k vokser. Det er derfor lurt å skalere disse vektorene. Vi er nemlig bare interessert i retningen disse angir. 4 / 18

Potensmetoden for å estimere en strengt dominant egenverdi (dersom en slik egenverdi finnes): 1. Velg en startvektor x 0 med 1 som største komponent (i absoluttverdi). 2. For k = 0, 1, 2,... a. Beregn A x k. b. Velg en komponent µ k i A x k med størst absoluttverdi. c. Beregn x k+1 = (1/µ k ) A x k. 3. For nesten alle valg av x 0 vil µ k konvergere mot den strengt dominante egenverdien, og x k vil da være en tilnærming av en tilhørende egenvektor når k er stor. Skaleringen i 2c (der vi dividerer med µ k ) bidrar til å gi bedre numerisk stabilitet. Matlab-demo. 5 / 18

Hvor fort konvergerer potensmetoden (hvis den konvergerer)? Dersom den neste egenverdien λ 2 er slik at λ 2 er mye mindre enn λ 1 så vil konvergensen være rask. Hvordan estimere andre egenverdier? Vi trenger følgende observasjon: Anta at α R ikke er en egenverdi for A. La λ R være slik at λ α og la v R n. Da har vi at A v = λ v (A αi ) 1 v = (λ α) 1 v 6 / 18

Anta nå at λ er en egenverdi for A som vi ønsker å approksimere. Anta videre at at α er nær λ og at α ikke en egenverdi for A. Da har vi at (λ α) 1 er stor ; (λ α) 1 er en egenverdi for B := (A αi ) 1 og en tilhørende egenvektor for B er da en egenvektor for A tilhørende λ. (Vi bruker her observasjonen fra forrige side). I gode tilfeller vil µ := (λ α) 1 være en strengt dominant egenverdi for B. Vi kan da bruke potensmetoden på B til å approksimere µ. Siden λ = α + 1/µ, betyr dette at vi kan approksimere λ! 7 / 18

Den inverse potensmetoden for å (prøve å) estimere en egenverdi: 1. Velg en skalar α tilstrekkelig nær en egenverdi λ til A. 2. Velg en startvektor x 0 med 1 som største komponent (i absoluttverdi). 3. For k = 0, 1, 2,... a. Bestem y k slik at (A αi ) y k = x k. b. La µ k være en komponent i y k med størst absoluttverdi. c. Beregn ν k = α + 1/µ k. d. Beregn x k+1 = (1/µ k ) y k. 4. For nesten alle valg av x 0 vil ν k konvergere mot egenverdien λ til A, og x k vil da være en tilnærming av en tilhørende egenvektor når k er stor. Merk at vi unngår å beregne (A αi ) 1 i algoritmen. Matlab-demo. 8 / 18

6.1 Indreprodukt, lengde og ortogonalitet (i R n ) Definisjon. La u = (u 1, u 2,, u n ), v = (v 1, v 2,, v n ) R n. Vi definerer da: indreproduktet (eller prikkproduktet) av u og v ved v 1 u v = u T v 2 v = [u 1 u 2 u n ]. = u 1v 1 + u 2 v 2 + + u n v n v n lengden (eller normen) til u ved u = u T u = u u = u 2 1 + u2 2 + + u2 n avstanden mellom u og v ved d(u, v) = u v = (u 1 v 1 ) 2 + (u 2 v 2 ) 2 + + (u n v n ) 2 9 / 18

Teorem 1. [Hovedegenskapene til indreproduktet i R n ] La u, v, w R n, c R. Da gjelder: a) u v = v u b) (u + v) w = u w + v w c) (c u) v = c (u v) = u (c v) d) u u 0, og u u = 0 u = 0. Kommentarer: b) og c) gir at indreproduktet er lineær i første variabel, dvs (c 1 u 1 + + c p u p ) v = c 1 (u 1 v) + + c p (u p v) når u 1,, u p, v R n og c 1,, c p R. Fra a) får vi da at det også er lineær i andre variabel. Det følger fra c) at c u = c u når c R, u R n. 10 / 18

Definisjon. v R n kalles en enhetsvektor dersom v = 1. Merk: Hvis u R n, u 0, så er v = 1 u u en enhetsvektor. Vi sier at v er enhetsvektoren vi får fra u ved normalisering. Definisjon. To vektorer u og v i R n kalles ortogonale dersom u v = 0 Motivasjon: Hvis u, v er to ikke-null vektorer i R 2 (eller R 3 ), følger det av cosinussetningen at u v = u v cos θ der θ [0, π] er vinkelen mellom u og v. Spesielt er u v = 0 cos θ = 0 θ = π/2. 11 / 18

Teorem 2 [Pythagoras teorem]. La u, v R n. Da gjelder: u, v er ortogonale u + v 2 = u 2 + v 2 Definisjon. La W være et underrom av R n, og la v R n. Vi sier at v er ortogonal på W dersom v er ortogonal på alle vektorene i W. Mengden av alle vektorene i R n som er ortogonale på W kalles det ortogonale komplementet til W og betegnes med W. Vi har altså at W = { v R n v w = 0 for alle w W } Merk: W er alltid et underrom av R n. Den eneste vektoren som ligger både i W og i W er nullvektoren. 12 / 18

Merk videre: Anta at W = Span {w 1,..., w p }. Da gjelder: v W v er ortogonal på w j for j = 1,..., p. Teorem 3 [Om de fundamentale underrommene til en matrise ]. La A være en m n matrise. Da har vi at Anvendelse: (Row A) = Nul A og (Col A) = Nul A T Hvordan bestemme en basis for W når W er et underrom av R n. Skriv først W som Col A for en passende matrise A. Bruk deretter at W = (Col A) = Nul A T, og bestem en basis for Nul A T. 13 / 18

6.7 Indreprodukt rom (første del) Definisjon. Et indreprodukt på et vektorrom V er en funksjon som til ethvert par u, v V tilordner et reellt tall u, v slik at følgende egenskaper (aksiomer) holder for alle u, v, w V og alle skalarer c R: u, v = v, u u + v, w = u, w + v, w c u, v = c u, v u, u 0, og u, u = 0 hvis og bare hvis u = 0. Et vektorrom med et indreprodukt kalles et indreprodukt rom. Vi definerer da normen (eller lengden) til v ved v = v, v, og avstanden mellom u og v ved d(u, v) = u v. Videre sier vi at u og v er ortogonale dersom u, v = 0. 14 / 18

Eksempel. La V = R n og la d 1, d 2,..., d n være positive tall. For u, v R n, sett u, v vektet := d 1 u 1 v 1 + d 2 u 2 v 2 + + d n u n v n. Det er en en enkel oppgave å vise at, vektet gir et indreprodukt på R n (som ofte kalles et vektet indreprodukt på R n ). Normen til u er da u vektet = mens avstanden mellom u og v er u v vektet = ( d 1 u 2 1 + d 2 u 2 2 + + d n u 2 n ) 1/2, ( d 1 ( u1 v 1 ) 2 +d 2 ( u2 v 2 ) 2+ +dn ( un v n ) 2 ) 1/2. 15 / 18

Eksempel. La t 0, t 1,..., t n R være n + 1 distinkte tall. For to polynomer p, q P n kan vi sette p, q := p(t 0 )q(t 0 ) + p(t 1 )q(t 1 ) + + p(t n )q(t n ). Man sjekker da uten store problemer at dette gir et indreprodukt på vektorrommet P n. Normen til p er da p = mens avstanden mellom p og q er ( p(t 0 ) 2 + p(t 1 ) 2 + + p(t n ) 2) 1/2, p q = ( (p(t0 ) q(t 0 ) ) 2 + ( p(t1 ) q(t 1 ) ) 2 + + ( p(tn ) q(t n ) ) 2 ) 1/2. 16 / 18

Eksempel. Betrakt vektorrommet C[a, b] bestående av alle kontinuerlige funksjoner f : [a, b] R, og definer når f, g C[a, b]. f, g = b a f (t)g(t) dt Dette gir et indreprodukt på C[a, b], noe som følger direkte av egenskapene til integralet. Normen til en funksjon f er da ( b 1/2, f = f (t) dt) 2 mens avstanden mellom f og g er a ( b ( ) ) 2 1/2 f g = f (t) g(t) dt. a 17 / 18

Indreprodukt og normer er viktige for å studere approksimasjon av funksjoner. Problemstillingen er ofte som følger: Gitt en funksjon f i et funksjonsrom V og et underrom W. Anta at V er utstyrt med et indreprodukt. Hvordan kan vi da finne en funksjon g i W som approksimerer f best mulig, dvs som er slik at avstanden f g mellom f og g er minst mulig? Hvis f.eks. V = C([a, b]) er som i forrige eksempel, og W = P n, skal vi senere se hvordan vi kan bestemme en slik g. For å kunne gjøre dette må vi først lære å finne funksjoner i W som utgjør en ortogonal basis for W. 18 / 18