Emne 10 Litt mer om matriser, noen anvendelser



Like dokumenter
Emne 9. Egenverdier og egenvektorer

Emne 7. Vektorrom (Del 1)

Emne 6. Lineære transformasjoner. Del 1

Minste kvadraters løsning, Symmetriske matriser

Diagonalisering. Kapittel 10

Løsninger for eksamen i MAT Lineær algebra og M102 - Lineær algebra, fredag 28. mai 2004, Oppgave 1. M s = = 1 2 (cofm 2) T.

Lineær algebra. 0.1 Vektorrom

7.1 forts. Schur triangularisering og spektralteoremet

6.4 Gram-Schmidt prosessen

UNIVERSITETET I OSLO

Forelesningsnotater SIF8039/ Grafisk databehandling

Kap. 6 Ortogonalitet og minste kvadrater

R: 0, , = 6000 D : 0, , = 4000 La v n = angi fordelingen etter n år (dvs. a b n stemmer for R og

Lineær uavhengighet og basis

UNIVERSITETET I OSLO

MA1202/MA S løsningsskisse

Kap. 7 Symmetriske matriser og kvadratiske former

Emne 11 Differensiallikninger

Egenverdier for 2 2 matriser

UNIVERSITETET I OSLO

Universitet i Bergen. Eksamen i emnet MAT121 - Lineær algebra

UNIVERSITETET I OSLO

TMA4110 Matematikk 3 Eksamen høsten 2018 Løsning Side 1 av 9. Løsningsforslag. Vi setter opp totalmatrisen og gausseliminerer:

EKSAME SOPPGAVE MAT-1004 (BOKMÅL)

Diagonalizering. En n n matrise A sies å være diagonaliserbar hvis den er similær med en diagonalmatrise D. A = PDP 1

12 Projeksjon TMA4110 høsten 2018

5.8 Iterative estimater på egenverdier

6.5 Minste kvadraters problemer

Forelesning 14 Systemer av dierensiallikninger

NORMALFORDELINGER, KOVARIANSMATRISER OG ELLIPSOIDER

Kap. 6 Ortogonalitet og minste kvadraters problemer

Oppgavesett. Kapittel Oppgavesett 1

4.4 Koordinatsystemer

GENERELLE VEKTORROM. Hittil har vi bare snakket om vektorrom av type

Lineær algebra-oppsummering

TMA4110 Eksamen høsten 2018 EKSEMPEL 1 Løsning Side 1 av 8. Løsningsforslag. Vi setter opp totalmatrisen og gausseliminerer: x 1 7x 4 = 0

Vi skal koble diagonalisering av matriser sammen med ortogonalitet. Skal bl.a. se på

UNIVERSITY OF OSLO. Faculty of Mathematics and Natural Sciences. Matlab-utskrift (1 side).

MAT-1004 Vårsemester 2017 Prøveeksamen

MA1201 Lineær algebra og geometri Løsningsforslag for eksamen gitt 3. desember 2007

Eksamensoppgave i TMA4115 Matematikk 3

MAT-1004 Vårsemester 2017 Prøveeksamen

Oppgave 1 (25 %) - Flervalgsoppgaver

A.3.e: Ortogonale egenfunksjonssett

15 Hovedprinsippet for vektorrom med et indre produkt

= 3 11 = = 6 4 = 1.

LO510D Lin.Alg. m/graf. anv. Våren 2005

MA1102 Grunnkurs i analyse II Vår 2019

MAT1120 Notat 2 Tillegg til avsnitt 5.4

7 Egenverdier og egenvektorer TMA4110 høsten 2018

3.9 Teori og praksis for Minste kvadraters metode.

EKSAMENSOPPGAVE. to A4 ark egne notater og Rottmanns tabeller. Kontaktperson under eksamen: Professor Andrei Prasolov. Telefon:

16 Ortogonal diagonalisering

Eksamensoppgave i TMA4110/TMA4115 Calculus 3

EKSAMEN I MA1202 LINEÆR ALGEBRA MED ANVENDELSER

Universitet i Bergen. Eksamen i emnet MAT121 - Lineær algebra

Eksamen i ELE Matematikk valgfag Torsdag 18. mai Oppgave 1

MAT Onsdag 7. april Lineær uavhengighet (forts. 1.8 Underrom av R n, nullrom, basis MAT Våren UiO. 7.

Innlevering BYPE2000 Matematikk 2000 HIOA Obligatorisk innlevering 3 Innleveringsfrist Torsdag 24. april 2014 før forelesningen Antall oppgaver: 9

Løsningsforslag til eksamen i MA1202/MA6202 Lineær algebra med anvendelser høsten 2009.

MAT-1004 Vårsemester 2017 Obligatorisk øving 6

4.4 Koordinatsystemer

Universitetet i Agder Fakultetet for teknologi og realfag Institutt for matematiske fag. Eksamen MA desember Lykke til!

Lineær algebra. H. Fausk i=1 a ix i. Her har vi oppgitt hva ledd nummer i skal være og hvilke indekser i vi summerer over.

Eksamensoppgave i MA1202/MA6202 Lineær algebra med anvendelser

MAT1120 Notat 2 Tillegg til avsnitt 5.4

MAT UiO mai Våren 2010 MAT 1012

Løsningsforslag for eksamen i Matematikk 3 - TMA4115

Utkast til løsningsforslag til eksamen i emnet MAT Lineær algebra Utan ansvar for feil og mangler Mandag 31. mai 2010, kl

Norges teknisk naturvitenskapelige universitet Institutt for matematiske fag Side 1 av 7 L SNINGSFORSLAG TIL EKSAMEN I SIF5009 MATEMATIKK 3 Bokmål Man

7.4 Singulærverdi dekomposisjonen

6.6 Anvendelser på lineære modeller

EKSAMENSOPPGAVER FOR TMA4110/TMA4115 MATEMATIKK 3

UNIVERSITET I BERGEN

9 Lineærtransformasjoner TMA4110 høsten 2018

Øving 5 Diagonalisering

TMA4105 Matematikk 2 vår 2013

5.6 Diskrete dynamiske systemer

Lineærtransformasjoner

Egenverdier og egenvektorer

MA1201/MA6201 Høsten 2016

MAT1120 Notat 1 Tillegg til avsnitt 4.4

Notat2 - MAT Om matriserepresentasjoner av lineære avbildninger

5.5 Komplekse egenverdier

MAT UiO. 10. mai Våren 2010 MAT 1012

Løsningsforslag MAT 120B, høsten 2001

6.4 (og 6.7) Gram-Schmidt prosessen

MAT1120 Notat 1 Tillegg til avsnitt 4.4

(3/2)R 2+R 3 R 1 +R 2,( 2)R 1 +R 3 ( 2)R 1 +R 4 6/5R 3 +R 4 1/5R 3

(a) R n defineres som mengden av kolonnevektorer. a 1 a 2. a n. (b) R n defineres som mengden av radvektorer

Generelle teoremer og definisjoner MA1201 Lineær Algebra og Geometri - NTNU

Til enhver m n matrise A kan vi knytte et tall, rangen til A, som gir viktig informasjon.

,QQOHGQLQJ 3-1/ )DJ 67( 6W\ULQJ DY URPIDUW \ / VQLQJVIRUVODJ WLO YLQJ

I dette kapittelet skal vi studerer noen matematiske objekter som kalles matriser. Disse kan blant annet brukes for å løse lineære likningssystemer.

Løsning Eksamensrelevante oppgaver i ELE 3719 Matematikk Vektorer, matriser og lineær algebra Dato Februar Oppgave 1. (A) Vi leser av at

4.1 Vektorrom og underrom

TDT4195 Bildeteknikk

Eksamensoppgave MAT juni 2010 (med løsningsforslag)

Rang og Vektorrom. Magnus B. Botnan NTNU. 4. august, 2015

Transkript:

Emne 10 Litt mer om matriser, noen anvendelser (Reelle) ortogonale matriser La A være en reell, kvadratisk matrise, dvs. en (n n)-matrise hvor hvert element Da vil A være ortogonal dersom: og Med menes kolonnevektorene (eller radvektorene) i A Med andre ord: A er ortogonal hvis alle kolonnevektorene (og radvektorene) har lengde 1 og står innbyrdes vinkelrett på hverandre. Eksempel 1 Betrakter vi kolonnevektorene i A får vi: Betrakter vi radvektorene isteden får vi nøyaktig samme svar. A er derfor ortogonal. Noen nyttige egenskaper ved (reelle) ortogonale matriser: I) Den inverse av A er lik den transponerte av A, II) Skalarproduktet bevares ved transformasjon, dvs.

(Reelle) symmetriske matriser La igjen A være en (n n)-matrise hvor hvert element Matrisen er symmetrisk hvis Kun symmetriske matriser er ortogonalt diagonaliserbare, hvilket inebærer at: Hvor: (reell) egenverdimatrise til A (reell) ortogonal egenvektormatrise Med andre ord: Dersom A er symmetrisk vil det alltid være mulig å finne lineært uavhengige reelle egenvektorer som har lengde 1 og står vinkelrett på hverandre. Dette gjelder uansett om vi har sammenfallende egenverdier eller ikke. Forenkling av kvadratiske former Likningen er en 2-dimensjonal likning på kvadratisk form ( kjeglesnitt ). På matriseform kan det skrives som: Hvor: A er en symmetrisk matrise Siden matrisen A er symmetrisk er den ortogonalt diagonaliserbar. Dvs. at det finnes en basis med egenvektorer,, slik at er ortogonal og dermed Koordinattransformasjon fra basis til standardbasis gir: og dermed Innsatt i likningen Innfører vi for enkelthets skyld får vi da: får vi: Med andre ord Vha. egenvektorene får vi et nytt ortogonalt X-Y-aksekors som er vridd i forhold til de opprinnelige x-y-aksene. Sett i forhold til det nye aksekorset får den opprinnelige likningen en enklere form, som dermed er enklere å tolke og skissere. Merk også at ved å bruke enhetsvektorer som basis blir skaleringen av begge aksekorsene den samme.

Helt tilsvarende for en 3-dimensjonal kvadratisk likning: Forenkles til: Eksempel 2 Vi finner egenverdiene og egenvektorene til A på vanlig måte: Med : Med : Merk at egenvektorene er ortogonale siden De angir retningen på et nytt X-Y-aksekors som er rotert i forhold til det opprinnelige. Referert til det nye aksekorset sitter vi igjen med likningen Dette er likningen for en hyperbel med sentrum i origo og asymptoter Figur på neste side.

3 2 2 3 hyperbel asymptote Eksempel 3 Igjen må vi finne egenverdiene og egenvektorene Med : Med : F.eks. gir, mens gir Egenvektorene er ortogonale siden Kommentar: Vi kunne valgt andre verdier på slik at, men da ville det være mulig å omgjøre til ortogonale vektorer vha. projeksjoner ( Gram-Schmidt )

Eksempel 3 (forts ) Bruker vi som retning for -aksen, innebærer det et aksekors som er rotert om y-aksen i forhold til de opprinnelige aksene I forhold til de nye aksene får vi: Dette er en ellipsoide med radier Sss

Minste kvadraters metode ( Lineær regresjon ) Dette er en metode for å finne en tilnærmet løsning av et likningssett. Utledningen vil sikkert noen synes er tung, men sluttresultatet er forbausende enkelt. Gitt et lineært likningssett A er en (m n)-matrise,, med som kolonnevektorer. Da husker vi at bilderommet til A er utspent av For at likningssettet skulle ha en løsning måtte, dvs. ligge i bilderommet til A, dvs. Forsøkt illustrert: ( Obs! Her skal Im(A) forestille et m-dimensjonalt vektorrom ) Im(A) Im(A) I) er løsbart II) har ingen løsning Dersom likningssettet er satt opp på grunnlag av målinger/observasjoner, kan vi ikke forvente at det er løsbart i matematisk forstand, men vi ønsker å finne beste tilnærmede løsning.

På figuren er, men vi kan projisere vektoren vinkelrett ned på bilderommet. Det gir en ny vektor. Det igjen betyr at det må finnes en løsning slik at er nettopp den tilnærmede løsning vi søker. Im(A) For å finne et uttrykk for ser vi på vektoren. Vi kan sette Videre innser vi at står vinkelrett på hver eneste kolonnevektor,, dvs: Men siden matrisen A nettopp består av vektorene, kan vi like gjerne erstatte med. Det gir: Med andre ord: Med et likningssett som ikke er løsbart i egentlig forstand, kan vi finne en tilnærmet løsning ved å venstremultiplisere begge sider med (Lineær regresjon er et kjent begrep i statistikken. Dette er lineær regresjon angitt på matriseform )

Eksempel 4 I et laboratorieforsøk har vi i teorien en lineær sammenheng mellom pådraget og responsen, gitt ved. Vi ønsker å bestemme konstantene Gjennom en serie målinger får vi verdiene: Pådrag, 0 1 2 3 4 5 Målt, 1 2 4 4 4 5 Beregnet 1.48 2.22 2.96 3.70 4.44 5.18 *) Beregnet verdi er ut i fra sluttsvaret Hvert av målepunktene innsatt i likningen gir likningssettet y, Symbolsk:. Vi multipliserer med på begge sider og får: 0 1 2 3 4 5 x Og dermed beste tilnærmede løsning:

Eksempel 5 I et annet forsøk har vi den teoretiske sammenhengen måleserien:, og utfører Pådrag, 1 2 5 10 20 Målt, 43 41 32 18 7 Beregnet 44.7 40.4 30.0 18.2 6.7 *) Beregnet verdi er ut i fra sluttsvaret Vi kan bruke samme prinsipp som i eksempel 4, men må først linearisere funksjonen Innsatt hvert av målepunktene gir det likningssettet, Symbolsk:. Vi løser dette tilnærmet som før ved å gange med på begge sider: Eller direkte: Ved hjelp av kalkulator gir det Dvs. Tilnærmet løsning: