Forelesning 22 M0003, Mandag 5/-202 Invertible matriser Lay: 2.2 Invertible matriser og ligningssystemet x b Ligninger på formen ax b, a 0 kan løses ved å dividere med a på begge sider av ligninger, noe som gir x b a Vi skal nå se på muligheten for å generalisere denne løsningsmetoden til matriseligninger på formen x b. Problemet er at vi ikke vet hva det vil si å dividere med en matrise, og det skal også vise seg at divisjonsnotasjon ikke er spesielt hensiktsmessig for matriser. Men for reelle tall er ikke divisjon med a 0 noe annet enn multiplikasjon med et tall c /a på begge sider av ligningen, der c nå er et tall slik at ca ac, altså ax b cax cb x cb x cb b a Vi vet hvordan vi kan multiplisere to matriser sammen, og vi kjenner også til en matriseanalog til tallet, nemlig identitetsmatrisen I, så det gir iallefall mening å spørre om det, til en matrise, finnes en annen matrise C slik at C C I. Først og fremst, la oss bemerke at vi må begrense oss til kvadratiske matriser; hvis er en m n-matrise, og C er en p q-matrise som oppfyller at C C, da må først begge produktene være definert, og m n p q medfører n p og p q m n medfører også at q m. Så C er en n m-matrise. Men dersom C C, så må også produktene ha samme dimensjoner, og C er m m mens C er n n, så vi må også ha m n. Dersom det finnes en matrise C slik at C C I, så sier vi at er invertibel, og at C er s invers. En slik matrise C er entydig: dersom B er en annen matrise slik at B B I, så er C I B, og dermed er C B (C B) 0. Men vi vet at C I, så C(C B) C 0 0 I(C B) C B 0
så C B. Vi skriver gjerne C. Dersom er invertibel, kan vi løse ligningssystemet x b ved simpelthen å gange med fra venstre, altså x Ix x b Fordelen med dette er at det tillater oss å løse alle ligningssystemer på formen x b, ikke bare ett spesielt system slik vi hittil har gjort. Vi kan også merke oss at S(x) x svarer til den inverse avbildningen, eller den inverse funksjonen til T(x) x, i den forstand at og (T S)(x) T(S(x)) x Ix x (S T)(x) S(T(x)) x Ix x Tilsvarende gjaldt for f.eks funksjonene ln x og e x, og vi løste ligninger på formen a e x, a > 0 ved å evaluere den naturlige logaritmen på begge sider av ligningen, altså ln a ln e x x For 2 2-matriser, er inversen relativt enkel å regne ut: Teorem. La a b c d og definer det ad bc (dette kalles for matrisens determinant). Da er invertibel hvis og bare hvis det 0, og inversen er gitt ved d b det c a Bevis. Dette er faktisk ganske lett å se ved regning; vi ganger simpelthen sammen matrisene og sjekker at vi får identitetsmatrisen: a b d b ad bc ab + ba ad bc 0 c d c a cd dc cb + da 0 ad bc d b a b da bc db bd ad bc 0 c a c d ca + ac cb + ad 0 ad bc slik at dersom det ad bc 0, så kan vi dividere med det og få identitetsmatrisen på høyre side i begge tilfeller. Det viser at dersom det 0, så er invertibel med invers matrise gitt ved formelen over. Dersom det 0, så har vi nettopp skrevet ned en matrise D slik at D D 0, der d b D c a Dersom er invertibel, så finnes C slik at C C I, og dermed er CD (C)D ID D 0. Men da må også 0, noe som er umulig (nullmatrisen er ikke invertibel). 2
Vi tar et eksempel på bruk av dette resultatet Eksempel. La Finn og bruk denne til å løse systemet Løsning: Vi har at det det x 2 2 2 2 2 4 3 0 2 så er invertibel, og inversen er gitt ved 2 3 2 og dermed er løsningen av systemet x b gitt ved x b 2 3 2 3 /3 /3 Formelen vi har gitt over har en analog for større matriser også, men den blir fort svært komplisert og kan resultere i mye regning. Vi skal etterhvert utvikle en enklere metode basert på Gausseliminasjon. La oss begynne med å tenke litt mer på hva som kreves for at en matrise skal være invertibel. Vi har sett at dersom vi vet at en matrise er invertibel, kan vi bruke inversen til å løse et hvilket som helst ligningssystem på formen x b ved x b. Vi minner kort om et teorem vi snakket om for en tid tilbake: Teorem 2. La [ v v 2... ] v n være en m n-matrise. Følgende utsagn er ekvivalente. Hver b R m er en lineærkombinasjon av kolonnene i, alternativt span{ v, v 2,..., v n } R m. 2. har en pivotposisjon i hver rad. Så dersom er invertibel, så har altså x b en løsning for hver b R n, noe som igjen er ekvivalent med over, og dermed må ha en pivotposisjon i hver rad. Men siden er kvadratisk, så inneholder også hver kolonne en pivotposisjon. Dette svarer til at løsningene blir entydige - radreduksjon av resulterer ikke i noen frie variable. Dette kan vi alternativt konkludere fra invertibilitet: hvis det finnes to løsninger x, x 2 så er x b og x 2 b, men da er x b x 2, så løsningen er entydig. Uansett, det at er kvadratisk (n n) og har pivotposisjoner i alle kolonner, betyr at den reduserte echelonformen er identitetsmatrisen I n. Vi skal gjøre bruk av dette faktumet litt senere, men vi trenger noen enkle algebraiske resultater først. 3
Teorem 3. La og B være n n-matriser. Da er følgende oppfyllt. Dersom er invertibel med invers, så er også invertibel med invers ( ). 2. Dersom og B er invertible, så er også B invertibel med invers (B) B. Bevis. Første utsagn er opplagt: dersom er invertibel, så finnes C slik at C C I, og dette betyr per definisjon at C også er invertibel med invers. ltså er C ( ). For det andre utsagnet er det bare et spørsmål om å vise at B oppfyller den egenskapen den skal oppfylle, nemlig for å være inversen til B. Vi har (B )(B) B B B IB B B I og tilsvarende Dette viser teoremet. (B)(B ) BB I I Merknad. Man kan spørre seg hvorfor vi ikke skriver I : slik som for reelle tall. Et av problemene med dette er fort blir tvetydig; hva skal f.eks B bety? Betyr det B eller B? (Disse produktene er forskjellige dersom og B ikke kommuterer). Dette er ikke klart utifra notasjonen, og man blir nødt til å simpelthen gjøre et valg. Dette alene tilsier at brøknotasjon ikke er en god ide for matriser. Men det er også flere problemer; vi har heller ikke de samme regnereglene vi er vant med fra reelle tall. For å illustrere dette, la oss velge det første alternativet, altså å definere : B B For reelle tall a, b, c og b, c 0 har vi mens for matriser er /B C a/b c a bc, B C B C (CB) CB for B og C invertible (vi ender altså ikke opp med BC slik vi forventer). lt dette tilsier at brøknotasjon for matriser fort vil bli forvirrende, og at det er dermed lite hensiktsmessig å innføre (i denne sammenhengen iallefall). 4
2 Radoperasjoner ved matrisemultiplikasjon: elementære matriser En n n (altså kvadratisk) matrise sies å være elementær dersom den fremkommer ved å utføre en elementær radoperasjon på identitetsmatrisen I n. Noen eksempler er E 0 0 0 0, F 0 3 0 0, G 0 0 0 2 0 0 0 0 0 0 0 Her fremkommer E ved å bytte om rad 2 og 3 i I 3, F ved å addere 3 ganger rad 3 til rad i I 3 og G fremkommer ved å gange rad 2 med 2. La oss se hva som skjer om vi tar en vilkårlig matrise, f.eks 0 0 0 2 2 2 og multipliserer med matrisene over fra venstre: E 0 0 0 0 0 0 0 0 0 0 2 2 2 0 0 2 2 2 F 0 3 0 0 0 0 0 6 6 6 0 0 2 2 2 2 2 2 G 0 0 0 2 0 0 0 0 2 2 2 0 0 0 4 4 4 0 0 Vi ser at multiplikasjon med disse matrisene fra venstre utfører den korresponderende elementære radoperasjonen på matrisen, og dette gjelder også for alle andre elementære matriser. Vi har også nevnt tidligere at for enhver (elementær) radoperasjon, så finnes det en annen radoperasjon som reverserer effekten av den opprinnelige operasjonen. F.eks, dersom en operasjon legger til 2 ganger en bestemt rad til en annen, så vil vi kunne trekke fra 2 ganger den gitte raden igjen og være tilbake der vi startet. For matrisen F over, så vil altså matrisen F 0 3 0 0 0 0 reversere effekten av F. Dette svarer til at F er inversen til F, noe vi kan se lett ved regning FF 0 3 0 0 0 3 0 0 0 0 0 0 0 0 0 0 0 0 5
Tilsvarende er F F I. Vi har altså følgende Teorem 4. Enhver elementær matrise er invertibel, og inversen er en elementær matrise som svarer til operasjonen som reverserer effekten av den opprinnelige operasjonen. 3 Utregning av Vi skal nå bruke elementære matriser som et teoretisk hjelpemiddel for å finne en algoritme for å regne ut inversen til en invertibel matrise (og hvis matrisen ikke er invertibel, vil algoritmen fortelle oss det). Vi minner om at dersom er invertibel, så er radekvivalent med identitetsmatrisen I, altså I. Siden vi kan utføre elementære radoperasjoner ved å gange med elementære matriser fra venstre, kan vi skrive I E k E k E for elementære matriser E, E 2,..., E k. Siden hver faktor i produktet på høyre side er invertibelt, har vi E E 2 E k ved multiplikasjon på begge sider med E E 2 E. Dermed er (E E 2 E ) E k E k E k Vi kan også konkludere fra dette at dersom I, så er invertibel, med invers matrise gitt ved formelen over. Vi oppsummerer dette i følgende teorem Teorem 5. La være en kvadratisk matrise. Da er invertibel hvis og bare hvis er radekvivalent med identitetsmatrisen. De samme elementære radoperasjonene som transformerer til identitetsmatrisen I, transformerer identitetsmatrisen I til. Det er på tide med et eksempel, men la oss først nevne en smart måte å gjøre utregningene på i praksis: istedet for å gjøre radoperasjonene bare på, så setter vi opp en koeffisientmatrise på formen [ I], og utfører radoperasjoner på hele matrisen helt til vi har transformert venstre side til identitetsmatrisen. Da kan vi simpelthen lese ut inversen fra høyre side (hvis ikke er invertibel, vil vi ende opp med en redusert echelonform forskjellig fra I på venstre side). k Eksempel 2. La 2 0 2 3 0 vgjør om er invertibel, og finn dens invers dersom den eksisterer. 6
Løsning: Vi setter opp matrisen [ I], og utfører Gauss-Jordan eliminasjon på (men radoperasjonene utføres på hele systemet - hensikten er imidlertid å få på redusert echelonform): 2 0 0 0 2 3 0 0 0 0 0 2 0 0 0 0 2/3 /3 0 0 2 0 R 2 2R R 3 R R 3+2R 2 2 0 0 0 0 3 3 2 0 0 2 0 3 R 2 2 0 0 0 0 2/3 /3 0 0 0 /3 2/3 ( ) R 3 2 0 0 0 0 2/3 /3 0 0 0 /3 2/3 På dette punktet kan vi konkludere at matrisen er invertibel, siden vi har 3 pivotkolonner. Vi vet dermed hvordan den reduserte echelonformen ser ut, men her må vi selvfølgelig utføre de påkrevde radoperasjonene for å finne inversen. 2 0 0 0 0 2/3 /3 0 0 0 /3 2/3 R 2+R 3 2 0 0 0 0 0 /3 /3 0 0 /3 2/3 R 2R 2 0 0 /3 2/3 2 0 0 /3 /3 0 0 /3 2/3 Det betyr at /3 2/3 2 /3 /3 3 2 6 3 /3 2/3 2 3 Dette kan verifiseres ved å gange sammen og i begge rekkefølger: 3 2 6 3 2 0 2 3 2 3 0 3 2 2 + 6 2 2 + 6 0 0 + 2 3 + 6 + 2 3 2 + 3 0 0 + 3 3 + 2 2 3 2 + 2 3 0 0 + 2 3 3 3 0 0 0 3 0 0 0 0 0 I 3 0 0 3 0 0 Vi overlater det til leseren å sjekke at også I. 7