4.6 Rang Til enhver m n matrise A kan vi knytte et tall, rangen til A, som gir viktig informasjon. Definisjon: Rangen til en m n matrise A betegnes med rank A og er definert som dimensjonen til kolonnerommet til A. Altså: rank A = dim(col A) = antall pivoter i rref(a) Så rank A minimum(m, n) og rank A er det største antall lineært uavhengige kolonner i matrisen A. rank A er det minste antall kolonner i A som er nødvendig for å utspenne Col A. 1 / 16
Hvis vi lar r 1,..., r m betegne radvektorene til A og betrakter disse som vektorer i R n, er radrommet til A definert som underrommet av R n gitt ved Row A = Span{r 1,..., r m }. Derfor er Row A = Col A T. Så en basis for Col A T gir en basis for Row A. Alternativt kan vi observere at: Radrommet til en matrise forandrer seg ikke under radoperasjoner. Dermed er Row A = Row R der R = rref(a). En basis for Row R, og dermed for Row A, består av alle radvektorene i R som inneholder en pivot. Dette gir (jf. Teorem 14): dim(row A) = antall pivoter i R = dim(col A) = rank A Videre gjelder dimensjonsformelen rank A + dim(nul A) = n (= antall kolonner i A) 2 / 16
Teorem (Tillegg til IMT): La A være en n n matrise. Da er følgende utsagn ekvivalente: a A er invertibel. m Kolonnene i A er en basis for R n. n Col A = R n. o dim(col A) = n. p rank A = n q Nul A = {0}. r dim(nul A) = 0. (Vi sier da at A har full rang). Merk: I m kan vi bytte kolonnene med radene, og i n og o kan vi bytte Col A med Row A. 3 / 16
Hvordan kan vi beregne rangen til en matrise A? Vi kan bruke Gauss eliminasjon og beregne rref(a)...... men dette vil kunne gi feil p.g.a. avrunding underveis. I stedet beregnes gjerne rangen til A ut fra den såkalte singulærverdi dekomposisjonen til A (SVD en til A). Skal gå nærmere inn på dette helt på slutten av kurset (i avsnitt 7.4). I Matlab finnes en (nokså komplisert) algoritme som beregner SVD en til A, og rank A fastsettes på grunnlag av denne. 4 / 16
4.7 Bytte av basis I noen situasjoner vil et problem bli forenklet hvis vi går over til en annen basis. Følgende teorem sier hvordan koordinatene til en vektor endrer seg når vi bytter basis: Teorem 15: Anta at B = {b 1, b 2,..., b n } og C = {c 1, c 2,..., c n } er (ordnede) basiser for et vektorrom V. Da finnes en unik n n matrise P C B som er slik at for alle v V. [v] C = P C B [v] B Kolonnene i P C B er C-koordinatvektorene til vektorene i B. Med andre ord, matrisen P C B er gitt ved: [ ] P C B = [b 1 ] C [b 2 ] C [b n ] C P C B kalles basisskiftematrisen (eller koordinatskiftematrisen) fra B til C. 5 / 16
Merk: Basisskiftematriser er alltid invertible. Dette følger av korollaret til Teorem 8 i Notat 1. Vi har også at ( P C B ) 1 = PB C Merk: Hvis B = {b 1,, b n } er en basis for R n og E er standardbasisen for R n, så er P E B = [ b 1 b n ] = PB Merk: En oppskrift for å beregne basisskiftematrisen P C B mellom to basiser B = {b 1,, b n } og C = {c 1,, c n } for R n er å sette opp matrisen [ c1 c n b 1 b n ] og radredusere denne til redusert trappeform. På venstre siden vil man da komme frem til I n, mens P C B vil stå på høyre siden: [ c1 c n b 1 b n ] [ In P C B ] 6 / 16
5.1 Egenverdier og egenvektorer En egenvektor for en n n reell matrise A er en vektor x i R n som er slik at x 0 og A x = λ x for en λ R. Skalaren λ kalles en egenverdi for A, og vi sier at x er en egenvektor tilhørende egenverdien λ. Eksempel. Hvis P er en stokastisk matrise og q er en likevektsvektor for P, er P q = q = 1 q så q er en egenvektor for P tilhørende egenverdien 1. Merk: En reell matrise A trenger ikke å ha noen egenvektor og egenverdi. Men A vil alltid ha komplekse egenverdier med tilhørende komplekse egenvektorer hvis slike tillates. (Vi kommer tilbake til dette i avsn. 5.5). 7 / 16
Anta at A er en n n reell matrise og at λ R. Vi setter Eλ A = { x R n A x = λ x }. Merk at Eλ A = Nul (A λ I ), så E λ A er et underrom av Rn. λ er en egenverdi for A Eλ A {0} Nul (A λ I ) {0} A λ I er ikke invertibel det(a λ I ) = 0. Når λ er en egenverdi for A sier vi at Eλ A assosiert med λ. er egenrommet til A 8 / 16
Litt av poenget med egenverdier og egenvektorer Betrakt A M n (R) og x 0 R n. Definer {x k } ved ( ) x k+1 = A x k, k = 0, 1, 2,... dvs. x 1 = A x 0, x 2 = A x 1 = A (A x 0 ) = A 2 x 0, x 3 = A x 2 = A A 2 x 0 = A 3 x 0, Vi ser at x k = A k x 0, k = 0, 1, 2,... osv. Anta nå at x 0 er en egenvektor for A tilhørende en egenverdi λ. Vi har da at A k x 0 = λ k x 0 for hver k, og dermed at x k = λ k x 0, k 0. Dette betyr at vi f.eks. kan finne x 500 uten å måtte beregne x 1, x 2,..., x 499 eller A 500. 9 / 16
Matlab-kommentar: Matlab-kommandoen eig(a) angir egenverdiene til en kvadratisk matrise A. I praksis bestemmes egenvektor og egenverdi samtidig. Jf. Matlab-kommandoen [V, D] = eig(a) Det finnes effektive numeriske metoder for å beregne egenverdier og egenvektorer, bl.a. den såkalte QR-algoritmen, som vi kommer såvidt innpå senere. 10 / 16
To nyttige resultater: Teorem 1: Egenverdiene til en triangulær kvadratisk matrise er dens diagonalelementer. Spesielt: egenverdiene til en diagonalmatrise er, ganske enkelt, diagonalelementene. Teorem 2: La A være en n n matrise og anta at v 1, v 2,..., v p er egenvektorer som tilhører forskjellige egenverdier λ 1, λ 2,..., λ p. Da er v 1, v 2,..., v p lineært uavhengige. 11 / 16
5.2 Den karakteristiske likningen Det karakteristiske polynomet til en n n matrise A er polynomet p A gitt ved p A (λ) = det(a λi ). Den karakteristiske likningen til A er likningen p A (λ) = 0. p A (λ) er et polynom i variabelen λ av grad n, med ledende koeff. lik ( 1) n. λ er en egenverdi for A p A (λ) = 0 Dermed kan A ha høyst n forskjellige egenverdier. Multiplisiteten av en egenverdi λ som en rot i p A kalles den (algebraiske) multiplisiteten til egenverdien λ. Det kan vises at dim (Eλ A ) multiplisiteten til λ Komplekse røtter i p A kalles komplekse egenverdier til A. 12 / 16
Litt om polynomer og eigenverdier i Matlab: Betrakt polynomet p(λ) = λ 2 6λ + 5. Sett p = [1 6 5]. Finner da røttene til p ved kommandoen Her får vi: ans = 5 1. roots(p) Hvis A er en n n matrise, vil kommandoen poly(a) regne ut koeffisientene til polynomet q A (λ) = det(λi A). Merk at q A (λ) = det( (A λi )) = ( 1) n p A (λ). 13 / 16
Eksempel. La A = 1 2 3 4 5 6 7 8 9 Kommandoen poly(a) gir :. 1.0000-15.0000-18.0000-0.0000 Det betyr at p A (λ) = ( 1) 3 q A (λ) = λ 3 + 15λ 2 + 18λ = λ (λ 2 15λ 18) Kommandoen roots([1-15 -18 0]) gir at røttene i q A (og p A ), og dermed egenverdiene til A, er tilnærmet lik 0, 16.12 og -1.12 Vi får det samme med kommandoen eig(a). De to siste egenverdiene kan beregnes eksakt: 1 2 (15 ± 297). 14 / 16
Similaritet To n n matriser A og B kalles similære hvis det fins en invertibel n n matrise P slik at P 1 AP = B (Dette er ekvivalent med at A = PBP 1 ). Avbildningen A P 1 AP kalles en similaritetstransformasjon. Legg merke til: Teorem 4: Similære matriser har samme determinant og samme karakteristiske polynom; spesielt har de samme egenverdier (med samme multiplisitet). 15 / 16
Kommentarer: For store matriser er det vanligvis ikke å anbefale å prøve å finne egenverdiene ved å beregne røttene til det karakteristiske polynomet. Det å finne røtter i polynomer av høy grad er nemlig numerisk vanskelig. Matlab gjør faktisk om problemet til det å bestemme egenverdiene til en passende matrise! Dette skal vi se nærmere på i Oblig 2. Det finnes egenverdi-algoritmer som baserer seg på gjentatte similaritetstransformasjoner; da bevares egenverdiene (ved Teorem 4). Idéen er å omforme A ved similaritet til en triangulær matrise; klarer vi det står jo egenverdiene på diagonalen! Dette er strategien bak det som kalles QR-algoritmen. 16 / 16