Matriser og matriseregning

Like dokumenter
Introduksjon (2) til R Matriser og matriseregning

Vær OBS på at svarene på mange av oppgavene kan skrives på flere ulike måter!

Lineær algebra-oppsummering

Gauss-Jordan eliminasjon; redusert echelonform. Forelesning, TMA4110 Fredag 18/9. Reduserte echelonmatriser. Reduserte echelonmatriser (forts.

LO510D Lin.Alg. m/graf. anv. Våren 2005

Oppgave 1 (25 %) - Flervalgsoppgaver

TMA4110 Eksamen høsten 2018 EKSEMPEL 1 Løsning Side 1 av 8. Løsningsforslag. Vi setter opp totalmatrisen og gausseliminerer: x 1 7x 4 = 0

Obligatorisk innleveringsoppgave, løsning Lineær algebra, Våren 2006

Løsninger for eksamen i MAT Lineær algebra og M102 - Lineær algebra, fredag 28. mai 2004, Oppgave 1. M s = = 1 2 (cofm 2) T.

Rang og Vektorrom. Magnus B. Botnan NTNU. 4. august, 2015

UNIVERSITET I BERGEN

Lineær Algebra og Vektorrom. Eivind Eriksen. Høgskolen i Oslo, Avdeling for Ingeniørutdanning

Egenverdier og egenvektorer

Løsningsforslag øving 6

Diagonalisering. Kapittel 10

Pensum i lineæralgebra inneholder disse punktene.

Universitet i Bergen. Eksamen i emnet MAT121 - Lineær algebra

Lineær algebra. 0.1 Vektorrom

4 Matriser TMA4110 høsten 2018

Løsning Eksamensrelevante oppgaver i ELE 3719 Matematikk Vektorer, matriser og lineær algebra Dato Februar Oppgave 1. (A) Vi leser av at

MAT1120 Repetisjon Kap. 1, 2 og 3

Lineær algebra. H. Fausk i=1 a ix i. Her har vi oppgitt hva ledd nummer i skal være og hvilke indekser i vi summerer over.

Matriser og Kvadratiske Former

UNIVERSITETET I OSLO

Lineære likningssystemer og matriser

Matriser En matrise er en rektangulær oppstilling av tall og betegnes med en stor bokstav, f.eks. A, B, C,.. Eksempler:

Mer om kvadratiske matriser

Matriser. Kapittel 4. Definisjoner og notasjon

Mer om kvadratiske matriser

TMA4110 Matematikk 3 Eksamen høsten 2018 Løsning Side 1 av 9. Løsningsforslag. Vi setter opp totalmatrisen og gausseliminerer:

1 Gauss-Jordan metode

Lineær algebra. H. Fausk i=1 a ix i. Her har vi oppgitt hva ledd nummer i skal være og hvilke indekser i vi summerer over.

MA1201/MA6201 Høsten 2016

Matriser En matrise er en rektangulær oppstilling av tall og betegnes med en stor bokstav, f.eks. A, B, C,.. Eksempler:

Løsningsforslag MAT 120B, høsten 2001

Minste kvadraters løsning, Symmetriske matriser

6.4 Gram-Schmidt prosessen

Matriseoperasjoner. E.Malinnikova, NTNU, Institutt for matematiske fag. September 22, 2009

MA1201 Lineær algebra og geometri Løsningsforslag for eksamen gitt 3. desember 2007

Emne 10 Litt mer om matriser, noen anvendelser

Innlevering BYPE2000 Matematikk 2000 HIOA Obligatorisk innlevering 3 Innleveringsfrist Torsdag 24. april 2014 før forelesningen Antall oppgaver: 9

UNIVERSITETET I OSLO

7.4 Singulærverdi dekomposisjonen

Eksamen i ELE Matematikk valgfag Torsdag 18. mai Oppgave 1

4.1 Vektorrom og underrom

MAT-1004 Vårsemester 2017 Prøveeksamen

Lineær algebra. H. Fausk i=1 a ix i. Her har vi oppgitt hva ledd nummer i skal være og hvilke indekser i vi summerer over.

Kap. 6 Ortogonalitet og minste kvadraters problemer

Generelle teoremer og denisjoner MA1201 Lineær Algebra og Geometri - NTNU Lærebok: Anton, H. & Rorres, C.: Elementary Linear Algebra, 11.

Egenverdier for 2 2 matriser

Eksamensoppgave i TMA4110/TMA4115 Calculus 3

Elementær Matriseteori

R: 0, , = 6000 D : 0, , = 4000 La v n = angi fordelingen etter n år (dvs. a b n stemmer for R og

Vektorrom. Kapittel 7. Hva kan vi gjøre med vektorer?

UNIVERSITETET I OSLO

5.8 Iterative estimater på egenverdier

Løsningsforslag til eksamen i MA1202/MA6202 Lineær algebra med anvendelser høsten 2009.

MAT UiO. 10. mai Våren 2010 MAT 1012

Øving 2 Matrisealgebra

Til enhver m n matrise A kan vi knytte et tall, rangen til A, som gir viktig informasjon.

Matriser En matrise er en rektangulær oppstilling av tall og betegnes med en stor bokstav, f.eks. A, B, C,.. Eksempler:

Forelesningsnotat i Diskret matematikk 27. september 2018

Regneregler for determinanter

Lineære likningssett.

EKSAMENSOPPGAVER FOR TMA4110/TMA4115 MATEMATIKK 3

MAT-1004 Vårsemester 2017 Prøveeksamen

Lineære ligningssystemer. Forelesning, TMA4110 Torsdag 17/9. Lineære ligningssystemer (forts.) Eksempler

Øving 3 Determinanter

7 Egenverdier og egenvektorer TMA4110 høsten 2018

Lineærtransformasjoner

Repetisjon: Om avsn og kap. 3 i Lay

A 2 = PDP 1 PDP 1 = PD 2 P 1. og ved induksjon får vi. A k = PD k P 1. Kommentarer:

Lineær uavhengighet og basis

MAT Prøveeksamen 29. mai - Løsningsforslag

I dette kapittelet skal vi studerer noen matematiske objekter som kalles matriser. Disse kan blant annet brukes for å løse lineære likningssystemer.

EKSAMEN I MA1202 LINEÆR ALGEBRA MED ANVENDELSER

MAT1120 Repetisjon Kap. 1

Homogene lineære ligningssystem, Matriseoperasjoner

Løsningsforslag for eksamen i Matematikk 3 - TMA4115

Eksamensoppgave MAT juni 2010 (med løsningsforslag)

Forelesningsnotater SIF8039/ Grafisk databehandling

13 Oppsummering til Ch. 5.1, 5.2 og 8.5

Løsningsforslag øving 7

Kap. 7 Symmetriske matriser og kvadratiske former

5.5 Komplekse egenverdier

Repetisjon: om avsn og kap. 3 i Lay

Til enhver m n matrise A kan vi knytte et tall, rangen til A, som gir viktig informasjon.

Gauss-eliminasjon og matrisemultiplikasjon

Emne 9. Egenverdier og egenvektorer

12 Diagonalisering av matriser og operatorer (Ch. 5.1, 5.2 og 8.5)

Utkast til løsningsforslag til eksamen i emnet MAT Lineær algebra Utan ansvar for feil og mangler Mandag 31. mai 2010, kl

Lineær algebra. H. Fausk

MA2501, Vårsemestre 2019, Numeriske metoder for lineære systemer

8 Vektorrom TMA4110 høsten 2018

Forelesning 14 Systemer av dierensiallikninger

Lineær algebra. H. Fausk

6 Determinanter TMA4110 høsten 2018

UNIVERSITETET I OSLO

MA1202/MA S løsningsskisse

Transkript:

og matriseregning Halvor Aarnes, UiO, 2014 Matriser Innhold Matriser... 1 Determinant... 6 Ligningsystemer... 8 Matriseaddisjon og matrisesubtraksjon... 11 Matrisemultiplisering... 11 Egenverdier og egenvektorer... 13 Basis... 13 Prinsipalkomponenter og matriseregning... 15 Klassifikasjon og diskriminantanalyse... 21 Hadamard-produkt... 23 Cholesky dekomponering... 24 Kronecker-produkt... 24 Matriser En matrise er en firkantet tabell med tall ordnet i rader og kolonner. En mxn matrise har m rader og n kolonner. Matriser med bare en kolonne eller en rad kalles en vektor En radvektor (radmatrise) er en 1xn matrise og en kolonnevektor (kolonnematrise) er en nx1 matrise. En kolonnevektor K er en n x 1 matrise med bare en kolonne. Eller kolonnevektoren: 1 En radvektor R er en 1 xn matrise med bare en rad:

Eller radvektor,,, En 1x1 matrise er bare et tall, en skalar. I Albrecht Düreres Melencolia I er det et magisk kvadrat, med innslag av alkymistenes mystikk. Tallet 34 går igjen i flere av summeringene. 2

Fra Donald Duck nr. 10/1995 - Alle hjørnene summeres til 34 - De fire tallene i midten summeres til 34-3 og 2 i første rad som vender mot 15 og 14 i fjerde rad summeres til 34-5 og 9 i første kolonne som vender mot 8 og 12 i fjerde kolonne summeres til 34 - De fire kvadratene i hvert hjørne adderes til 34 - Summeres kolonnene blir dette 34-15+9+2+8 = 34 - Summen av diagonalene blir 34 En m x n matrise A har m rader og n kolonner: Hvis det er like mange rader som kolonner (m=n) så har vi en nxn kvadratmatrise. En n x n kvadratmatrise B har n rader og n kolonner 3

Vi kan transposere matrisen A vi startet med ved å bytte rader og kolonner og får den tranposerte matrisen A T : Transposering av en radvektor gir en kolonnevektor, og transposering av en kolonnevektor gir en radvektor. Hvis vi multipliserer en radvektor med den transposerte kolonnevektoren får vi et skalart kvadratprodukt: En matrise kalles symmetrisk hvis den er lik den transposerte matrisen: En kvadratmatrise n x n kalles en diagonalmatrise hvis alle komponentene er lik 0 bortsett fra hoveddiagonalen: En diagonalmatrise D: 0 0 0 0 0 0 En diagonalmatrise hvor alle tallene på hoveddiagonalen er lik 1 og resten lik 0 (a ij = 1 når i = j og a ij =0 når i j) kalles en identitetsmatrise (enhetsmatrise) av orden n (I n ) 4

1 0 0 0 1 0 0 0 1 En matrise n xn A multiplisert med identitetsmatrisen gir den opprinnelige matrisen: 1 4 6 1 0 0 1 4 6 1 2 1 0 1 01 2 1 2 5 4 0 0 1 2 5 4 Hvis A er en nxn kvadratmatrise så kalles A inverterbar eller ikkesingulær hvis det finnes en invers matrise A -1 slik at A matrisemultiplisert med A -1 er lik identitetsmatrisen. Hvis A er en invertibel 2x2 matrise dvs. det(a) 0 så vil Hvis A = (a ij ) er en n x n kvadratmatrise så er trace A lik summen av diagonalelementene: Nullmatrisen 0 har alle tall lik 0: 0 0 0 0 0 0 0 0 0 0 Matrisen A multiplisert med nullmatrisen gir en nullmatrise. 5

I en transponert (transposert) matrise A T bytter rader og kolonner plass, men hoveddiagonalen blir lik den opprinnelige matrisen A: Transponerer en matrise med tallene 1:9 : 1 4 7 2 5 8 3 6 9 Den transponerte metrisen A T : 1 2 3 A 4 5 6 7 8 9 Vi kan utføre matrisealgebra. A og B er to mxn matriser, og summen av dem A + B = B + A (kommutativ lov) blir lik summen av enkeltelementene. Tilsvarende for matrisesubtraksjon,men da A - B. En matrise kan bli multiplisert med en skalar k ved at alle elementene i matrisen blir multiplisert med k: Determinant Determinanten til en matrise er lik en skalar. Har vi en nxn kvadratmatrise A kan vi finne determinanten til matrisen deta. For en 2x2 matrise A blir determinanten A lik en skalar 6

Determinanten til matrisen M: det Det vil si lik produktet av diagonalen øverst venstre - nederst høyre minus produktet diagonalen øversthøyre nederst venstre. Determinanten til matrisen E: 2 3 1 4 24315 For en 3x3 matrise M blir determinanten detm = M : Vi kan også regne med determinanter. De kan adderes, bli multiplisert med en skalar. Hvis vi har to n xn matriser A og B så vil: 7

En kvadratisk n x n matrise er singulær hvis determinanten til matrisen er lik 0: ilsvarende, for en kvadratmatrise hvor determinanten er forskjellig fra 0, så er matrisen ikke-singulær. For to n xn matriser A og B hvor så er B en invers matrise til A, og A er en invers matrise til B. Det er bare mulig å invertere en matrise hvis determinanten til matrisen er forskjellig fra null. Hvis vi har en inverterbar matrise A: så vil den inverse matrisen A -1 være lik: 1 Hvis den transponerte n x n matrisen A T er lik den inverse matrisen A -1, (A T =A -1 )så kalles matrisen ortogonal. En matrise kalles ortogonal hvis produktet av matrisen med dens transposerte matrise er lik identitetsmatrisen (I). Ligningsystemer Vi kan løse lineære ligninger analytisk, dvs. vi trenger ikke bruke rekkereduksjon, og Gauss-Jordan eliminasjon. Generelt kan matriser benyttes til å løse m lineære ligninger med n ukjente: 8

Som betyr at: Koeffisientmatrisen A er en m x n matrise, x er en n x1 matrise (kolonnevektor) og b er en m x1 matrise. -1 I matriseform blir løsningen x = A b A er koeffisientmatrisen. Hvis b er lik en nullvektor kalles ligningssystemet homogent. Vi bruke matriseregning for å løse de to ligningene: 6 12 20 8 4 24 6 12 8 4 20 24 Vi løser dette numerisk solve(a,b), Ax=b x=-1.733, y= 2.533 Vi kan undersøke determinanten til A. For ligningssystemer av typen Ax = b hvor A er en n x n matrise så vil det(a) 0 tilsier en løsning og hvis det(a)=0 vil det si ingen eller mange løsninger. I eksemplet ovenfor blir determinanten =10, dvs. bare en løsning. For homogene ligninger hvor Ax=0 så vil det alltid være en løsning hvor x=0. Hvis det(a)=0 er det uendelig mange løsninger. Vi skal løse følgende ligningssystem 4 6 10 25 2 5 4 3 9

1 4 6 1 2 1 2 5 4 10 5 3 A er inverterbar, determinanten forskjellig fra 0. Vi løser numerisk og finner: x = 124, y = 75, z = 31 Med matrisealgebra har vi: Hvis A er en kvadratisk n xn matrise og determinanten til A er forskjellig fra null så får vi en entydig løsning av Ax = B lik x = A -1 B. Hvis deta = 0 og B 0 så har Ax = B ingen eller uendelig mange løsninger. Vi kan også løse et ligningssystem med komplekse tall: 4 23 2 4 3 2 4 20 20 42 3 2 De numeriske løsningene (x,y) i kompleksplanet er lik (0.846-0.163i, -0.110 +0.249i) En nxn matrise M er invertibel hvis det eksisterer en invers matrise M -1 og matrisemultiplisering (%*%) av disse blir lik identitetsmatrisen: Hvis det finnes en invertibel matrise C slik at sammenhengen med to nxn matriser K og L er slik at: så er matrisene K og L formlike. Det betyr også at matrisene K og L har like egenverdier. 10

For eksempel diagonalmatrisen D til K har egenverdiene langs diagonalen, og K sies å være diagonaliserbar hvis diagonalmatrisen D er formlik med K. Hvis en slik nxn matrise er diagonaliserbar har den n egenvektorer som er lineært uavhengige. Vi kan finne determinanten, egenverdier, egenvektorer og den transposerte matrisen. Matriseaddisjon og matrisesubtraksjon Matriseaddisjon av to matriser A og B er bare mulig hvis de har samme orden mxn, de må være addisjonskonforme. Matriseaddiasjon av 3x3 matriser: C+D= D+C 2 4 3 5 2 2 1 3 4 6 4 8 CD 22 42 31 53 4 6 4 8 Matrisesubtraksjon er en summering, men hvor den andre matrisen er multiplisert med skalaren -1. Matrisene må ha samme dimensjon mxn, dvs. være subtraksjonskonforme 0 2 2 2 CD 22 31 42 53 0 2 2 2 Matrisemultiplisering Matrisemultiplisering av to matriser, pxq matrise A og mxn matrise B er bare mulig hvis de er konforme for multiplisering, det vil si at det må være samme antall kolonner i den ene matrisen som rader i den andre. 11

Det vil si at vi får et matriseprodukt AB bare hvis q=m. Det er ikke nødvendigvis slik at AB=BA, og som nevnt må matrisene være multipliseringskonforme. 1 3 2 4 8 10 5 12 14 8 Multipliseringen AB skjer slik: 1 2 3 2 1 1 3 3 1 2 3 1 10 5 8 2 2 4 2 2 1 4 3 2 2 4 1 12 14 8 Skal man matrisemultiplisere B%*%A er dette umulig, de er ikke multipliseringskonforme. Hvis vi har tre konformbare matriser A, B og C, så gjelder rotasjonsregelen for tracer: Selv om matriseproduktene blir forskjellige så blir summen av diagonalene, tracen, den samme 1 3 2 4 2 1 2 1 1 2 1 2 Matrisemultiplisering ABC blir: 12 24 18 36 Matrisemulitiplisering BCA blir: 15 33 15 33 Matrisemulitiplisering CAB blir: 32 16 32 16 12

Men tracene blir like 48 Egenverdier og egenvektorer Hvis vi har en kvadratmatrise M så vil matrisen ganger egenvektorene (ν) være lik egenverdiene (skalarverdier λ ) ganger egenvektorene: Egenverdien med størst absoluttverdi kommer først. Egenvektorer og egenverdier benyttes i stabilitetsanalyse av differensialligninger via Jacobi-matrise med partiellderiverte, i prinsipalkomponentanalyse ved multivariabel statisikk, eller i generelle likevektsstudier. I dette eksemplet blir egenverdiene og egenvektorene komplekse tall Basis Alle vektorer x i det tredimensjonale vektorrommet R 3 kan skrives i form av tre lineært uavhengige enhetsvektorer som basis, en standardbasis: 1 0 0 0 1 0 0 0 1 Vektorene u 1, u 2,,u k fra et undermengde av M vil danne en basis for M hvis alle vektorene x i M kan skrives som: Hvis man tar to basiser S = {s 1,s 2,,s n } og T = {t 1,t 2, t n } for R n, så kan vektorene i basis S skrives i form av vektorene med basis T hvor koeffisientene a nn danner en transformasjonsmatrise. 13

hvor transformasjonsmatrisen er: Man kan ha lineære transformasjoner fra et vektorrom til et annet, for eksempel fra R 3 til R 2, ved hjelp av en transformasjonsmatrise. For eksempel rotasjon av 2-D koordinatsystem rundt origo, så vil punktet P (a,b) får nye koordinater (x,y) i det nye koordinatsystemet, hvor (a,b) dreies vinkelen θ mot klokka. Se på en figur og finn at : eller: hvor transformasjonsmatrisen er: Eller omvendt: Vi har en matrise M med egenvektor ν og egenverdi λ: 0 0 hvor I 2 er enhetsmatrisen, og Iν=ν 14

Vi setter 1 0 0 1 Vi skal finne egenvektoren med de ukjente α og β: 1 0 0 1 0 0 0 0 Dette tilsvarer ligningene i følgende homogene ligningssystem, hvor α og β er ukjente: 0 0 Vi ønsker ikke-trivielle løsninger og derfor må følgende determinant være lik null. 0 Fra den karakteristiske ligningen bestemmes egenverdiene λ og deretter kan egenvektorene bestemmes. Prinsipalkomponenter og matriseregning Multivariable må reduseres i antall dimensjoner, hvor korrelerte variable erstattes med færre ukorrelerte variable. PCA (prinsipalkomponentanalyse), CA (korrespondensanalyse), DA (diskriminantanalyse) og NMDS (ikke-metrisk multidimensjonal skalering) er beregnet for data uten forklaringsvariable. CCA (kanonisk korrespondanseanalyse og RDA (redundensianalyse) er beregnet for både respons- og forklaringsvariable. Multivariable data kan reduseres i antall dimensjoner, hvor korrelerte variable erstattes med færre ukorrelerte variable. Prinsipalkomponent 1 (PC1) er en vektor gjennom datasettet og som forklarer det meste av den multivariable variasjonen. Prinsipalkomponent 2 (PC2) står ortogonalt på PC1, er ikke korrelert med denne og forklarer nest mest av variasjonen. 15

Prinsipalkomponentanalyse er å se på variasjon i variablene i et datasett X={x 1, x 2, x 3,, x n } sett i relasjon til et sett nye variable som vi lager Y={y 1, y 2, y 3,, y n }, kalt prinsipalkomponenter. Mens X er korrelert, så er Y er ukorrelert. Hver av y-verdiene er en lineær kombinasjon av x- variablene, med tilhørende koffisienter a. De første prinsipalkomponentene skal kunne forklare mest mulig av variasjonen i datasettet. Første prinsipalkompoent (y 1 )er en lineær kombinasjon av X, og som forklarer det meste av variasjonen. Den andre prinsipalkomponent (y 2 ) står normalt på den første (ortogonalt koordinatsystem) og hindrer derved at de blir korrelert. Vi har her n prinsipalkomponenter. Den andre prinsipalkomponenten skal forsøke å forklare mest mulig av den gjenværende variasjonen i datasettet, som blir igjen etter den første prinsipalkomponenten er funnet I matriseform blir løsningen hvor A er matrisen med koeffisienter. Koeffisientene må være slik at de gir maksimal varianse for y 1. Vi kan la,,,, Forutsetning for første prinsipalkomponent er at: 1 T hvor A 1 er den transformerte koeffisientmatrisen. For den andre prinsipalkompoenten y2 har vi:,,,, 16

Vi må sikre oss at første og andre prinsipalkomponent ikke blir korrelert og dette gjør vi ved: 1 0 Vi skal altså finne koeffisienter A 1 slik at variansen for første prinsipalkomponenten y 1 blir maksimal, samtidig som vi har T begrensningen A 1 A 1 =1 Lagranges multiplikatormetode kan hjelpe oss i å løse dette problemet, oppkalt etter den berømte franske matematikeren Joseph- Louis Lagrange (1736-1813). Generelt er problemet å finne ekstremalverdiene for en funksjon f(x,y,z), eller i vårt tilfelle f(x,y,a). Hvis z kan uttrykkes som en funksjon av x og y, z=h(x,y) så består problemet i å finne maksimum av en ny funksjon F(x,y)=f(x,y,h(x,y). Imidlertid er det ikke sikkert at z kan uttrykkes som funksjon av x og y. Maksimumspunktet ligger på en kurve C som kan tenkes angitt som skjæring mellom to flater g 1 (x,y,z)=0 og g 2 (x,y,z)=0. Hvis vi lar t være en parameter som beveger seg langs kurven C hvor vi skal finne maksimum blir problemet nå forenklet til F(t)=f(x,y,z), og maksimumspunktet må finnes der hvor den førstederiverte er lik 0. F (t)=0. Vi har nå tre skalarligninger som må løses hvor konstantene λ1 og λ2 kalles Lagrange multiplikatorer. Uttryket som vektorfelt (partiellderiverte),, Det viser seg at løsningen av A 1 er egenvektoren til kovariansematrisen for prøven, tilsvarende den største egenverdien. Egenvektorene til en kovariansematrise er lik prinsipalkomponentene til fordelingen. Man finner deretter de andre prinsipalkomponentene y i med tilhørende egenvektorer A. i Kovariansematrisen,K, til prøven X er en matrise med variansene plassert i diagonalen. Matrisen som blir symmetrisk omkring diagonalen kalles også varianse-kovariansematrise. Kovariansene (cov()) mellom 17

hvert par med variable står utenfor diagonalen. Her er et eksempel med fire variable (x 1,x 2,x 3,x 4 ): x 1 x 2 x 3 x 4 x 1 var(x 1 ) cov(x 1,x 2 ) cov(x 1,x 3 ) cov(x 1,x 4 ) x 2 cov(x,x ) 2 1 var(x 2 ) cov(x 2,x 3 ) cov(x 2,x 4 ) x 3 cov(x 3,x 1 ) cov(x 3,x 2 ) var(x 3 ) cov(x 3,x 4 ) x 4 cov(x 4,x 1 ) cov(x 4,x 2 ) cov(x 4,x 3 ) var(x 4 ) Generelt hvis X og Y er tilfeldige variable så vil variansen til summen være lik: 2, Kovariansen er e t forventet (E) produk t:,, Nå r x og y er ikke-korrelert e r E(xy)=E( x)e(y) og kovariansen blir lik 0. Produktet av kovariansematrisen, K, og den inverse kovariansematrise (K -1 ) blir lik identitetsmatrisen I, en matrise med bare 1 på diagonalen og 0 for resten Generelt har vi for en kvadratmatrise A en invers matrise (A -1 ) slik at Hvor I er en identitetsmatrisen. Hvis alle variablene i en kovariansematrise er i form av enhetsvarianse så blir kovariansematrisen lik korrelasjonsmatrisen. I en korrelasjonsmatrise har man korrelasjonskoeffisientene (r) i stedet for kovarians e, og tallene i diagonalen blir lik 1. Generelt er korrelasjonskoeffisienten r er lik: 18

, hvor cov(x,y) er kovariansen mellom variablene x og y, s 2 x og s 2 y er variansen til henholdsvis variablene x og y. Hvis vi har 3 variable x 1 (3,5,6), x 2 (1,3,2), x 3 (2,1,1)hver med 3 observasjoner ordnet i kolonner i en matrise A: 3 1 2 5 3 1 6 2 1 Kovarianse til matrise A ovenfor: 2.3333333 1.0 0.8333333 1.0000000 1.0 0.5000000 0.8333333 0.5 0.3333333 Variansene står i diagonalen: 2.3333333 1.0000000 0.3333333 Vi kan finne egenverdiene og egenvektoren til kovariansematrisen: De tre egenverdier til cov(a) 3.197559e+00 4.691079e-01 1.782785e-17 Og de tilsvarende tre egenvektorer: [1] [2] [3] 0.8323497 0.50163583 0.2357023 0.4518054-0.86041634 0.2357023-0.3210388 0.08969513 0.9428090 Vi kan sammenligne egenvektorene til kovariansematrisen med prinsipalkomponentene (PC) til matrise A og ser at de blir like: PC1 PC2 PC3 0.8323497 0.50163583 0.2357023 0.4518054-0.86041634 0.2357023 19

-0.3210388 0.08969513 0.9428090 Første prinsipalkomponent (PC1) viser retningen (vektoren) gjennom datasettet som forklarer det meste av variasjonen, prinsipalkomponent PC2 som står normalt på første prinsipalkomponent forklarer nest mest av variasjonen. Vi kan transformere datamatrisen, bytte rader og kolonner: 3 5 6 1 3 2 2 1 1 Vi kan lage den inverse matrisen (A -1 ), numerisk løsning i R: 0.08333333 2.500000e 01 0.4166667 0.08333333 7.500000e 01 0.5833333 0.66666667 2.367762e 16 0.3333333 Vi har at den inverse av inversmatrisen gir den opprinnelige matrisen (A -1 ) -1 =A Vi kan matrisemultiplisere A -1 A som skal gi identitetsmatrisen I. Vi kan finne determinanten til A ( A ): 12 Trace er summen av diagonalelementene i en matrise e.g. for identitetsmatrisen I 3 blir dette lik 3. Vi finner trace til kovariansematrisen for datasettet cova (se over) som er lik summen av prinsipalkomponentene 3.666667 som også er lik summen av variansene var(x1)+var(x2)+var(x3)= 3.666667 Vi har generelt for egenverdier og egenvektorer: Hvis man har en kvadratmatrise A så har vi følgende sammenheng: hvor nu(v) er egenvektoren, og lambda (λ) er en skalar kalt egenverdi v er en egenvektor med egenverdi λ. 20

Egenverdiene til kovariansematrisen, K, til datasettet blir {λ1,λ 2,λ 3,,λ n }. Vi har også A it A i = 1, hvor A i er egenvektoren til kovariansematrisen. V i i ariansen til prinsipalkomponent y er lik egenverdien λ. Den totale variasjonen for prinsipalkomponentene blir lik summen av egenverdiene, og dette blir også lik den totale variansen i datasettet. Summen av prinsipalkompoentene kan angis som trace til kovariansematrisen K Prinsipalkomponent yi forklarer andelen P i av den totale variasjonen i datasettet ved: Klassifikasjon og diskriminantanalyse Generelt kan matriser benyttes til å løse m lineære ligninger med n ukjent. I faktoranalyse er det ikke vanlige kategoriske faktorvariable vi snakker om, men underliggende observasjoner som kan være vanskelig å måle. De bestemmes ved å se på korrelasjon mellom variablene. Det er mulig å utføre maksimum likelihood faktoranalyse på datamatrisen eller kovariansematrisen. Medlemskap i klasser basert på målte egenskaper. Kan brukes til alle mulige former for gruppering av objekter og til mønstergjenkjenning. Klyngemetoder lager grupper basert på kvantitative egenskaper, mål på ulikhet og likhet, og k objekter kan gi 2 k -1 grupper, øker eksponensielt med k. I hierarkisk klyngeanalyse samles klyngene fra den minste til den største klyngen (agglomerativ). Ved divisiv klyngeanalysene samles klyngene fra den største til den minste. 21

I ikke-hierarkisk klyngeanalyse er antall klynger k bestemt på forhånd og oppgaven er på best mulig måte å fordele prøven i k klynger. k- means clustering er den mest vanlige metoden for ikke-hierarkisk klyngeanalyse. Den er datamaskineffektiv siden den ikke er avhengig av en start med store datamatriser. Skal organisere n datapunkter i k forhåndsbestemte klynger, k<n. Start med å bestemme antall k. Fordel data tilfeldig i k klynger. Beregn sentroid (gjennomsnitt, senter) i hver klynge. La hvert datapunkt høre med til klyngen hvor sentroiden er nærmest, basert på en avstandsmatrise. Hvis det trengs reorganisering lag nye klynger, beregn sentroidkoordinatene for klynger som mister eller mottar datapunkter. Gjenta til det ikke trengs flere omorganiseringer Man må ha et mål på avstand, similaritet (likhet) eller dissimilaritet (forskjell). For dissimilaritet av kontinuerlige data kan Euklidsk avstand benyttes., Euklidsk avstand er følgsom for utliggere og ekstremverdier. Andre avstandmål er Manhattan avstand og max komponentavstand En lineær klassifiksjon kan kodes som 0/1, suksess/feil, ja/nei osv. Lineær diskriminantanalyse ble utviklet av R.A.Fisher i studiet av multivariate normalfordelte data, datasettet iris, brukt sammen med varianse-kovariansematrisen. I pakken MASS som lda(). Vi har g kjente klasser, W er innen klassen kovariansematrise og B er mellom klasser kovariansematrise (Se Venables & Ripley 2003). Multivariable må reduseres i antall dimensjoner, hvor korrelerte variable erstattes med færre ukorrelerte variable. PCA (prinsipalkomponentanalyse), CA (korrespondensanalyse), DA (diskriminantanalyse) og NMDS (ikke-metrisk multidimensjonal skalering) er beregnet for data uten forklaringsvariable. CCA (kanonisk korrespondanseanalyse og RDA (redundensianalyse) er beregnet for både respons- og forklaringsvariable. 22

Hadamard-produkt Matriser Vi kan finne Hadamardproduktet for to addisjonskonforme matriser hvor tilsvarende elementer i matrisen multipliseres med hverandre. Hadamardproduktet er kommutativt, assosiativt og distributivt Brukes blant annet til lossy bildekompresjon i jpeg. Vi lar matrise A være: 3 1 2 4 Matrise B: 2 1 2 1 B<-matrix(c(2,2,1,1),nrow=2);B [,1] [,2] [1,] 2 1 [2,] 2 1 Legg merke til at her brukes ikke matrisemultipliseringstegnet 2 3 4 4 A*B [,1] [,2] [1,] 2 3 [2,] 4 4 Man kan finne Euklidsk Norm til en matrise, det er en skalar A og brukes til å finne graden av forskjell to mxn matriser med samme orden 5.477226 23

Cholesky dekomponering Matriser Cholesky dekomponering (Cholesky faktorisering, André-Louis Cholesky) kan utføres på en positivt definert matrise, Hermit matrise (Charles Hermite), og som alltid har relle egenverdier større enn 0 Hvis A er en Hermit positiv definert matrise A være lik produktet av den øvre triangulære faktor R og dens transponerte konjugat: R har reelle og positive diagonalelementer, og R* er dens konkjugerte transponerte Cholesky dekomponering kan brukes til å løse ligninger av typen Ax=b hvor A er en symmetrisk matrise Den øvre triangulære faktoren til Cholesky dekomponeringen er slik at multipliseres den med den transponerte matrisen får man tilbake den opprinnelige matrisen. Kan ikke brukes på matriser med komplekse tall. Kronecker-produkt Et Kronecker-produkt av to matriser X og Y gir en blokkmatrise som har dimensjonen dim(x)*dim(y). Kronecker-produktet angis med et gangetegn omgitt av en sirkel, kalles også direkte produkt hvor hvert element i den første matrisen blir skalarmultiplisert med elementene i den andre matrisen. For eksempel en mxn 2x2 matrise Som eksempel har vi matrise X: 1 4 2 5 3 6 Førs multiplisert med en skalar Y lik 2: 2 8 24 10 6 12 Vi har en matrise Y 24

2 3 2 3 Kroneckermultiplisering 2 3 8 12 2 3 8 12 4 6 10 4 6 10 15 6 9 12 18 6 9 12 18 Kroneckermultiplisering med en diagonalmatrise D: 1 0 0 0 1 0 0 0 1 2 3 0 0 0 0 2 3 0 0 0 0 0 0 2 3 0 0 0 0 2 3 0 0 0 0 0 0 2 3 0 0 0 0 2 3 25