Emne 10 Litt mer om matriser, noen anvendelser (Reelle) ortogonale matriser La A være en reell, kvadratisk matrise, dvs. en (n n)-matrise hvor hvert element Da vil A være ortogonal dersom: og Med menes kolonnevektorene (eller radvektorene) i A Med andre ord: A er ortogonal hvis alle kolonnevektorene (og radvektorene) har lengde 1 og står innbyrdes vinkelrett på hverandre. Eksempel 1 Betrakter vi kolonnevektorene i A får vi: Betrakter vi radvektorene isteden får vi nøyaktig samme svar. A er derfor ortogonal. Noen nyttige egenskaper ved (reelle) ortogonale matriser: I) Den inverse av A er lik den transponerte av A, II) Skalarproduktet bevares ved transformasjon, dvs.
(Reelle) symmetriske matriser La igjen A være en (n n)-matrise hvor hvert element Matrisen er symmetrisk hvis Kun symmetriske matriser er ortogonalt diagonaliserbare, hvilket inebærer at: Hvor: (reell) egenverdimatrise til A (reell) ortogonal egenvektormatrise Med andre ord: Dersom A er symmetrisk vil det alltid være mulig å finne lineært uavhengige reelle egenvektorer som har lengde 1 og står vinkelrett på hverandre. Dette gjelder uansett om vi har sammenfallende egenverdier eller ikke. Forenkling av kvadratiske former Likningen er en 2-dimensjonal likning på kvadratisk form ( kjeglesnitt ). På matriseform kan det skrives som: Hvor: A er en symmetrisk matrise Siden matrisen A er symmetrisk er den ortogonalt diagonaliserbar. Dvs. at det finnes en basis med egenvektorer,, slik at er ortogonal og dermed Koordinattransformasjon fra basis til standardbasis gir: og dermed Innsatt i likningen Innfører vi for enkelthets skyld får vi da: får vi: Med andre ord Vha. egenvektorene får vi et nytt ortogonalt X-Y-aksekors som er vridd i forhold til de opprinnelige x-y-aksene. Sett i forhold til det nye aksekorset får den opprinnelige likningen en enklere form, som dermed er enklere å tolke og skissere. Merk også at ved å bruke enhetsvektorer som basis blir skaleringen av begge aksekorsene den samme.
Helt tilsvarende for en 3-dimensjonal kvadratisk likning: Forenkles til: Eksempel 2 Vi finner egenverdiene og egenvektorene til A på vanlig måte: Med : Med : Merk at egenvektorene er ortogonale siden De angir retningen på et nytt X-Y-aksekors som er rotert i forhold til det opprinnelige. Referert til det nye aksekorset sitter vi igjen med likningen Dette er likningen for en hyperbel med sentrum i origo og asymptoter Figur på neste side.
3 2 2 3 hyperbel asymptote Eksempel 3 Igjen må vi finne egenverdiene og egenvektorene Med : Med : F.eks. gir, mens gir Egenvektorene er ortogonale siden Kommentar: Vi kunne valgt andre verdier på slik at, men da ville det være mulig å omgjøre til ortogonale vektorer vha. projeksjoner ( Gram-Schmidt )
Eksempel 3 (forts ) Bruker vi som retning for -aksen, innebærer det et aksekors som er rotert om y-aksen i forhold til de opprinnelige aksene I forhold til de nye aksene får vi: Dette er en ellipsoide med radier Sss
Minste kvadraters metode ( Lineær regresjon ) Dette er en metode for å finne en tilnærmet løsning av et likningssett. Utledningen vil sikkert noen synes er tung, men sluttresultatet er forbausende enkelt. Gitt et lineært likningssett A er en (m n)-matrise,, med som kolonnevektorer. Da husker vi at bilderommet til A er utspent av For at likningssettet skulle ha en løsning måtte, dvs. ligge i bilderommet til A, dvs. Forsøkt illustrert: ( Obs! Her skal Im(A) forestille et m-dimensjonalt vektorrom ) Im(A) Im(A) I) er løsbart II) har ingen løsning Dersom likningssettet er satt opp på grunnlag av målinger/observasjoner, kan vi ikke forvente at det er løsbart i matematisk forstand, men vi ønsker å finne beste tilnærmede løsning.
På figuren er, men vi kan projisere vektoren vinkelrett ned på bilderommet. Det gir en ny vektor. Det igjen betyr at det må finnes en løsning slik at er nettopp den tilnærmede løsning vi søker. Im(A) For å finne et uttrykk for ser vi på vektoren. Vi kan sette Videre innser vi at står vinkelrett på hver eneste kolonnevektor,, dvs: Men siden matrisen A nettopp består av vektorene, kan vi like gjerne erstatte med. Det gir: Med andre ord: Med et likningssett som ikke er løsbart i egentlig forstand, kan vi finne en tilnærmet løsning ved å venstremultiplisere begge sider med (Lineær regresjon er et kjent begrep i statistikken. Dette er lineær regresjon angitt på matriseform )
Eksempel 4 I et laboratorieforsøk har vi i teorien en lineær sammenheng mellom pådraget og responsen, gitt ved. Vi ønsker å bestemme konstantene Gjennom en serie målinger får vi verdiene: Pådrag, 0 1 2 3 4 5 Målt, 1 2 4 4 4 5 Beregnet 1.48 2.22 2.96 3.70 4.44 5.18 *) Beregnet verdi er ut i fra sluttsvaret Hvert av målepunktene innsatt i likningen gir likningssettet y, Symbolsk:. Vi multipliserer med på begge sider og får: 0 1 2 3 4 5 x Og dermed beste tilnærmede løsning:
Eksempel 5 I et annet forsøk har vi den teoretiske sammenhengen måleserien:, og utfører Pådrag, 1 2 5 10 20 Målt, 43 41 32 18 7 Beregnet 44.7 40.4 30.0 18.2 6.7 *) Beregnet verdi er ut i fra sluttsvaret Vi kan bruke samme prinsipp som i eksempel 4, men må først linearisere funksjonen Innsatt hvert av målepunktene gir det likningssettet, Symbolsk:. Vi løser dette tilnærmet som før ved å gange med på begge sider: Eller direkte: Ved hjelp av kalkulator gir det Dvs. Tilnærmet løsning: