Pensum i lineæralgebra inneholder disse punktene.

Like dokumenter
Egenverdier og egenvektorer

Vektorligninger. Kapittel 3. Vektorregning

4 Matriser TMA4110 høsten 2018

TMA4110 Eksamen høsten 2018 EKSEMPEL 1 Løsning Side 1 av 8. Løsningsforslag. Vi setter opp totalmatrisen og gausseliminerer: x 1 7x 4 = 0

Obligatorisk innleveringsoppgave, løsning Lineær algebra, Våren 2006

LO510D Lin.Alg. m/graf. anv. Våren 2005

Lineære likningssystemer og matriser

Lineær algebra-oppsummering

Matriser. Kapittel 4. Definisjoner og notasjon

TMA4110 Matematikk 3 Eksamen høsten 2018 Løsning Side 1 av 9. Løsningsforslag. Vi setter opp totalmatrisen og gausseliminerer:

Vær OBS på at svarene på mange av oppgavene kan skrives på flere ulike måter!

7 Egenverdier og egenvektorer TMA4110 høsten 2018

Gauss-Jordan eliminasjon; redusert echelonform. Forelesning, TMA4110 Fredag 18/9. Reduserte echelonmatriser. Reduserte echelonmatriser (forts.

UNIVERSITET I BERGEN

Lineær algebra. 0.1 Vektorrom

6 Determinanter TMA4110 høsten 2018

Løsningsforslag til eksamen i MA1202/MA6202 Lineær algebra med anvendelser høsten 2009.

Lineærtransformasjoner

Lineære likningssett.

Egenverdier for 2 2 matriser

Øving 3 Determinanter

9 Lineærtransformasjoner TMA4110 høsten 2018

Lineære ligningssystemer og gausseliminasjon

Lineære ligningssystemer og gausseliminasjon

Repetisjon: Om avsn og kap. 3 i Lay

Løsninger for eksamen i MAT Lineær algebra og M102 - Lineær algebra, fredag 28. mai 2004, Oppgave 1. M s = = 1 2 (cofm 2) T.

Diagonalisering. Kapittel 10

Oppgave 1 (25 %) - Flervalgsoppgaver

Hvorfor er lineær algebra viktig? Linear

Vektorrom. Kapittel 7. Hva kan vi gjøre med vektorer?

MAT1120 Repetisjon Kap. 1, 2 og 3

Lineær Algebra og Vektorrom. Eivind Eriksen. Høgskolen i Oslo, Avdeling for Ingeniørutdanning

12 Diagonalisering av matriser og operatorer (Ch. 5.1, 5.2 og 8.5)

Løsningsforslag øving 6

Øving 2 Matrisealgebra

Universitet i Bergen. Eksamen i emnet MAT121 - Lineær algebra

Repetisjon: om avsn og kap. 3 i Lay

R: 0, , = 6000 D : 0, , = 4000 La v n = angi fordelingen etter n år (dvs. a b n stemmer for R og

13 Oppsummering til Ch. 5.1, 5.2 og 8.5

Gauss-eliminasjon og matrisemultiplikasjon

MA1201/MA6201 Høsten 2016

MAT1120 Notat 2 Tillegg til avsnitt 5.4

MAT1120 Notat 1 Tillegg til avsnitt 4.4

MAT 1110: Bruk av redusert trappeform

Matriseoperasjoner. E.Malinnikova, NTNU, Institutt for matematiske fag. September 22, 2009

MAT1120 Notat 2 Tillegg til avsnitt 5.4

8 Vektorrom TMA4110 høsten 2018

Mer om kvadratiske matriser

Mer om kvadratiske matriser

Elementær Matriseteori

Inverse matriser. E.Malinnikova, NTNU, Institutt for matematiske fag. September, 2009

A 2 = PDP 1 PDP 1 = PD 2 P 1. og ved induksjon får vi. A k = PD k P 1. Kommentarer:

EKSAMEN I MA1202 LINEÆR ALGEBRA MED ANVENDELSER

UNIVERSITETET I OSLO

x 1 x 2 x = x n b 1 b 2 b = b m Det kan være vanskelig (beregningsmessig) og bearbeide utrykk som inneholder

tma4110 Matematikk 3 Notater høsten 2018 Øystein Skartsæterhagen Morten Andreas Nome Paul Trygsland

MAT1120 Notat 1 Tillegg til avsnitt 4.4

(a) R n defineres som mengden av kolonnevektorer. a 1 a 2. a n. (b) R n defineres som mengden av radvektorer

Tiden går og alt forandres, selv om vi stopper klokka. Stoffet i dette kapittelet vil være en utømmelig kilde med tanke på eksamensoppgaver.

Forelesning 22 MA0003, Mandag 5/ Invertible matriser Lay: 2.2

MAT1120 Repetisjon Kap. 1

MAT UiO. 10. mai Våren 2010 MAT 1012

Til enhver m n matrise A kan vi knytte et tall, rangen til A, som gir viktig informasjon.

EKSAMEN I MATEMATIKK 3 (TMA4110)

UNIVERSITETET I OSLO

GENERELLE VEKTORROM. Hittil har vi bare snakket om vektorrom av type

I dette kapittelet skal vi studerer noen matematiske objekter som kalles matriser. Disse kan blant annet brukes for å løse lineære likningssystemer.

6.4 Gram-Schmidt prosessen

Rang og Vektorrom. Magnus B. Botnan NTNU. 4. august, 2015

Lineær algebra. H. Fausk i=1 a ix i. Her har vi oppgitt hva ledd nummer i skal være og hvilke indekser i vi summerer over.

Til enhver m n matrise A kan vi knytte et tall, rangen til A, som gir viktig informasjon.

Forelesning 10 Cramers regel med anvendelser

MA1201 Lineær algebra og geometri Løsningsforslag for eksamen gitt 3. desember 2007

7.4 Singulærverdi dekomposisjonen

Løsningsforslag øving 7

1 Gauss-Jordan metode

Lineær algebra. H. Fausk i=1 a ix i. Her har vi oppgitt hva ledd nummer i skal være og hvilke indekser i vi summerer over.

MA0002 Brukerkurs i matematikk B Vår 2013

Lineære ligningssystemer. Forelesning, TMA4110 Torsdag 17/9. Lineære ligningssystemer (forts.) Eksempler

Homogene lineære ligningssystem, Matriseoperasjoner

Emne 9. Egenverdier og egenvektorer

MAT Onsdag 7. april Lineær uavhengighet (forts. 1.8 Underrom av R n, nullrom, basis MAT Våren UiO. 7.

UNIVERSITETET I OSLO

4.1 Vektorrom og underrom

MA1201, , Kandidatnummer:... Side 1 av 5. x =.

4.1 Vektorrom og underrom

UNIVERSITETET I OSLO

4.1 Vektorrom og underrom

MAT UiO mai Våren 2010 MAT 1012

Determinanter. Kapittel 6. Determinanter for 2 2-matriser. La oss beregne arealet av dette parallellogrammet. Vi tegner på noen hjelpelinjer:

Kap. 5 Egenverdier og egenvektorer

12 Projeksjon TMA4110 høsten 2018

Determinanter til 2 2 og 3 3 matriser

Eksamensoppgave i MA1201 Lineær algebra og geometri

Matriser En matrise er en rektangulær oppstilling av tall og betegnes med en stor bokstav, f.eks. A, B, C,.. Eksempler:

Eksamensoppgave i TMA4115 Matematikk 3

Lineære likningssystemer

Generelle teoremer og denisjoner MA1201 Lineær Algebra og Geometri - NTNU Lærebok: Anton, H. & Rorres, C.: Elementary Linear Algebra, 11.

Transkript:

Pensum i lineæralgebra inneholder disse punktene. 1) Løsning av lineære ligningssystem. Finne løsning hvis den fins og også avgjøre om løsning ikke fins. Entydig, flertydig løsning. 2) Overføre en matrise til trappeform ved å benytte rekkeoperasjoner. Rangen til en matrise, nulliteten til en matrise. 3) Regning med matriser. Ta muliplum, (dvs gange med et tall), addere, gange og invertere (dvs finne invers), transponere Det fins ikke noe som heter divisjon av matriser. Divisjon erstattes av invers matrise. MERK AT: når du ganger matriser med hverandre, så kan du ikke snu på rekkefølgen, unntatt i helt spesielle tilfeller. Bortsett fra denne regelen og at du ikke kan dividere, så gjelder de vanlige algebraiske regnereglene for matriseregning. Men det trengs en advarsel til: skal du kunne addere og gange to matriser, så er ikke dette alltid mulig, det avhenger av matrisenes dimensjonen. Å kunne invertere en matrise er det enda strengere regler for. Et minstekrav er da at matrisen er kvadratisk. 3a) spesielle typer matriser: symmetrisk matrise, antisymmetrisk matrise, diagonalmatrise, trappematrise, trekantmatrise, enhetsmatrise, nullmatrise 4) determinanter. En determinant er et tall knyttet til en kvadratisk matrise. Det har en spesiell geometrisk betydning. Matriser med determinant lik 0 skiller seg ut fra de som ikke har det, og de har fått et eget navn, singulære matriser. Om den geometriske betydningen. For en 2x2-matrise gir det arealet av et parallellogram, for en 3x3- matrise gir det volumet av et parallellepiped og for en 1x1-matrise gir det lengden av et intervall, men det er areal, volum og lengde slik at disse tallene er fortegnstall, dermed har ikke disse ordene (areal, volum lengde) sin vanlige betydning, for da er alltid disse tallene positive. Determinanter er av stor betydning når vi skal studere ligningssystem, både når det gjelder å undersøke om et ligningssystem har entydig løsning eller ikke, og når vi skal finne en løsning når denne er entydig. 5) Vektorrom. Et vektorrom er en mengde av elementer som vi kan regne med på samme måte som vi kan gjøre med vektorer, dvs addere og ta multiplum, og slik at de vanlige reglene vi kjenner fra vektorregning gjelder.

Elementene i et vektorrom kalles vektorer, selv om de egentlig ikke trenger å være det i den forstand som vi kjenner begrepet fra vektorregning. Men én ting til trengs å sies, et vektorrom er en lukket mengde i den forstand at når vi adderer to vektorer fra et gitt vektorrom, eller ganger en vektor med et tall, så blir de vektorene vi da får, liggende i det samme vektorrommet, de leder altså ikke til nye vektorer utenfor mengden. Eksempelvis: mengden av alle romlige vektorer som kan legges i samme plan, utgjør et vektorrom. Andre eksempler er R 2, mengden av alle par av reelle tall, (x, y). Videre også R 3. mengden av alle talltripler, (x, y, z). x Noen liker å skrive disse som søylematriser: y egentlig begge deler, men i forskjellige kapitler. for (x, y) og x y z for (x, y, z). Boken vår gjør x (Men strengt tatt er det forskjellige ting, for en søylematrise som f.eks y er en 2x1 matrise, mens et tallpar (x, y) er to tall i rekkefølge. Men de oppfører seg eksakt på samme måte regnemessig, så mange gidder ikke skille mellom dem). 6) Begreper fra vektorrom. --- lineærkombinasjon --- lineært uavhengige vektorer --- basis for et vektorrom --- dimensjonen til et vektorrom --- komponentene til en vektor relativt en basis. 7) Lineære transformasjoner. Med en lineær transformasjon T menes en funksjon som 1) har et vektorrom V som definisjonsmengde, og 2) når v er en vektor i V så er funksjonsverdien w = Tv også en vektor, i et vektorrom W. Vektorrommet W kan være det samme som V, men trenger ikke være det. 3) at T(u + v) = Tu + Tv samt at T(kv) = kt(v) hvor k er et tall. 8) Egenverdiproblemet. Er definert for en lineær transformasjon, men i vårt pensum snakker vi bare om egenverdiproblemet til en matrise, (en kvadratisk matrise).

Definisjon: Gitt en nxn-matrise A. Dersom det fins et tall λ slik at ligningen Ax = λ x har en løsning x ulik 0, så sier vi at λ er en egenverdi for matrisen A og at x er en egenvektor som hører til egenverdien λ. Her er x en nx1 matrise, dvs en søylematrise. En nx1 søylematrise kalles også en søylevektor og også ganske enkelt en vektor, siden mengden av alle nx1-matriser utgjør et vektorrom. 9) Diagonalisering av en matrise, (ikke pensum h2010) Dette gjelder kvadratiske matriser, og vi sier at matrisen M kan diagonaliseres dersom det fins en diagonalmatrise D slik at vi kan skrive M = CDC -1. for en passende matrise C. (Matrisen C er da selvsagt en matrise som har invers). Oversikt over viktige formler, ligninger, metoder og setninger. (1) Noen viktige overordnete sammenhenger for nxn-matriser (kvadratiske matriser). I punktene (a), (b), (c)... nedenfor snakker vi kun om kvadratiske matriser. (a) invers matrise. De fleste matriser har invers, og at matrisen A har invers betyr at det fins en matrise C som er slik at når vi ganger A foran med C og når vi ganger A bak med C, så får vi enhetsmatrisen, altså CA = AC = I To ting må du vite om dette: (i) CA=I AC = I. Altså, passer C i venstre ligning, så passer den også i høyre ligning og omvendt. (ii) hvis en matrise har invers, så har den bare én. Vi skriver inversmatrisen til A slik A -1. (b) Tegn på at en matrise har invers er at determinanten er ulik 0: (*) A -1 eksisterer det(a) 0. To andre kriterier på at A -1 eksisterer, er at rekkene (og også søylene) i A er lineært uavhengige og videre at når du overfører A til trappeform, så får du ingen nullrekker. (c) definisjon singulær, Ikke-singulær matrise. En matrise som ikke har invers kalles singulær, mens en matrise som har invers kalles ikke-singulær. Når noe er singulært, så skiller det seg ut fra andre ting. De fleste matriser har invers, derfor kaller vi de spesielle matrisene som ikke har invers for singulære matriser, for de skiller seg ut. I de neste punktene er x, c og 0 søylematriser (nx1) og 0 har selvsagt nuller alle steder. (d) A har invers det(a) 0 A er ikke-singulær Ax = 0 har kun null-løsningen. og tilsvarende:

(e) A har ikke invers det(a) = 0 A er singulær Ax = 0 har løsning x 0. Det siste utsagnet her er spesielt viktig å være innforstått med,nemlig at Ax = 0 har løsning ulik 0 hvis og bare hvis A er singulær, dvs det(a)=0. Om vi skal velge én ting du skal huske for alltid og aldri glemme når det gjelder lineæralgebra, så er det denne siste setningen, og videre, når Ax=0 først har en løsning ulik 0, så har den alltid uendelig mange slike. Det kan vises med et hyperenkelt regnestykke. Prøv. Merk at Ax=0 alltid har minst én løsning, nemlig 0, (null-løsningen), derimot Ax=c hvor c 0, (inhomogent tilfelle), trenger ikke å ha løsning, men vi har at: (f) Ax=c har entydig løsning for alle c A er ikke-singulær. og at A er ikke-singulær vet vi er tilfellet hvis og bare hvis det(a) 0 som videre er tilfellet hvis og bare hvis A har invers. (2) Skrive ligningssystem på matriseform. Et lineært ligningssystem, som f.eks (*) 2x 3y+ 5z = 1 x+ z u = 2 y 2z+ 5u = 1 kan omformes slik at vi får skrevet det ved hjelp av 3 matriser, koeffisientmatrisen A, og to søylematriser x og c. (*) x 2-3 5 0 1 y A = -1 0 1-1,, 2 x= c = z 0 1-2 5 1 u på denne måten: Ax = c. A består av koeffisientene i ligningssystemet, x består av de ukjente i ligningssystemet og c inneholder tallene på høyresiden. Et homogent ligningssystem er et ligningssystem med høyresiden lik 0, et inhomogent har høyreside ulik 0, (ikke alle tallene trenger vå være ulik 0, det er nok at ett er det). I ligning nr2 i eksemplet er ikke y med. Det betyr at koeffisienten knyttet til y er lik 0. I koeffisientmatrisen blir det da stående en 0 på tilsvarende sted. Ligningssystemets utvidete matrise er også en viktig matrise når vi skal studere ligningssystemet. Den utvidete matrisen er definert som A utvidet med en siste søyle som består av tallene på ligningssystemets høyre side. For eksemplet øverst er det denne matrisen:

2-3 5 0-1 [A, c] = -1 0 1-1 2 0 1-2 5 1 Denne matrisen inneholder all informasjon om ligningssystemet. (3) Å løse eller studere et ligningssystem ved hjelp av matrisene i punkt (2). Det er to spørsmål som er viktige når vi skal behandle et ligningssystem. Det ene er om det har løsning eller ikke, det andre er å finne løsningen dersom den eksisterer. Det er også viktig å vite om løsningen er entydig, (dvs at det ikke fins mer enn én løsning). (a) Dersom koeffisientmatrisen A har invers, (da er den nødvendigvis også kvadratisk), så har ligningssystemet alltid løsning, og da kan vi bruke den inverse matrisen til å løse ligningssystemet med. Vi får at x = A -1 c er løsning og det er den eneste løsningen. Hvis vi har tilgang til den inverse til A, så er dette den raskeste måten å løse på. Men vi kan da selvsagt også finne løsningen ved å omforme den utvidete matrisen til trappeform. (b) Hvis A ikke har invers, (da er A enten ikke kvadratisk, eller den er kvadratisk og har determinant lik 0, så blir ting mer kompliserte. Da må (kan eller bør) vi først overføre ligningssystemets utvidete matrise til trappeform. Da kan vi se om ligningssystemet har løsning og i så fall finne løsningen. I tilfellet det nå fins løsning, så kan det hende at løsningen ikke er entydig. Hvis løsningen ikke er entydig, det fins mer enn én løsning, så fins det alltid uendelig mange løsninger. Fortsetter i punkt (5). (4) Å overføre en matrise til trappeform. (a) Hva menes med en trappematrise? En trappematrise består av mange (etterfølgende) nuller i begynnelsen av hver rekke, og det slik at når du går fra rekke til rekke nedover i matrisen, så vil antall nuller i begynnelsen av neste rekke være større enn antallet nuller i den rekken du kommer fra, inntil eventuelt neste rekke bare består av nuller, og da vil også alle eventuelle rekker som kommer etterpå også være rekker med bare nuller. Veldig ofte vil den første rekken ikke ha noen nuller til å begynne med. Eksempler: 2 0-1 0 4 1 3 0 0 3-1 2 2 1 0 1-2 1 2 0 1 0 3-2, 0 2 4,, 0 0 2 0, 0 0 0 0 0 0 0 0 0 0 1 3 0 0 0 0 0 0-1 0 0 0 Nullene til å begynne med i en rekke, før du kommer til første tall ulik 0, kalles ofte ledende nuller.

(b) En matrise kan overføres til trappeform ved å bruke rekkeoperasjoner på matrisen. Hver gang vi bruker rekkeoperasjoner på en matrise, så sier vi at den vi hadde, er rekkeekvivalent med den vi fikk. (Ekvivalent betyr likeverdig. Vi kan da alltid komme tilbake til den vi hadde fra den vi fikk, ved også bruke en rekkeoperasjon. Så den vi hadde er også rekkeekvivalent med den vi fikk første gang.) Viktig: når en gitt matrise overføres (omformes) til trappeform, så vil ikke den trappematrisen vi får være entydig bestemt, men antall nullrekker nederst vil alltid være det samme. Dermed er også antall rekker som ikke bare består av nuller, alltid det samme. Dette antallet blir lik rangen til matrisen (vi startet med). (Derimot hvis vi overfører matrisen vår til redusert trappeform, så vil resultatet være entydig). (Når vi starter med en matrise og utfører rekkeoperasjoner på den og på alle de påfølgende vi får, så vil alle de matrisene som etter hvert fremkommer være rekkeekvivalente. Disse matrisene har flere egenskaper felles.) (5) Å bruke utvidet matrisen til å studere ligningssystem og finne løsning. Når vi har et ligningssystem og omformer den utvidete matrisen til trappeform, så vil denne trappematrisen være den utvidete matrisen til et nytt meget enklere ligningssystem som har nøyaktig de samme løsningene som det ligningssystemet vi startet med. Det er hele poenget. For å finne ut ting om det gitte ligningssystemt, så undersøker vi trappematrisen. 1) fins det løsning? Skriv opp ligningene til trappematrisen. Se om det fins en ligning som har alle koeffisientene lik 0, og i så fall om den ser slik ut: 0 = p hvor p 0. a) hvis det fins en ligning, 0 = p og p 0, så har ikke ligningssystemet løsning, for det er en umulighet at 0 kan være lik et tall som ikke er 0, dermed har heller ikke det opprinnelige ligningssystemet løsning. (I dette tilfellet har koeffisientmatrisen minst én nullrekke. Den utvidete matrisen én nullrekke mindre, eventuelt ingen). b) hvis det ikke fins en slik ligning, 0 = p og p 0, så har ligningssystemet løsning. Vi gir tre eksempler og får flere detaljer: Husk, når du har nedskrevet den utvidete matrisen til et ligningssystem, så er koeffisientmatrisen den du får når du ikke regner med den siste søylen. a) koeffisientmatrisen har én nullrekke mer enn den utvidete matrisen. I eksemplet som er vist, har den utvidete matrisen ingen nullrekker, mens koeffisientmatrisen har én nullrekke. (*) ligningene x+ 3y = 0 x y+ 4z = 1 x y 8z = 4 utvidet matrise: 1 3 0 0 1 1 4 1 1 1 8 4 trappeform: 1 3 0 0 0 2 4 1 0 0 0 2

de nye ligningene: x+ 3y = 0 2y+ 4z = 1 0= 2 Ligningssystemet har ikke løsning. b) de to matrisene har like mange nullrekker (det kan hende der er ingen, altså antallet er 0) b1) I dette eksemplet har både koeffisientmatrisen og den utvidete matrisen én nullrekke. (*) ligningene 2x+ y+ 2z = 3 2x+ y+ z = 1 2x y = 1 utvidet matrise: 2 1 2 3 2 1 1 1 2 1 0 1 trappeform: 2 1 2 3 0 0 1 2 0 0 0 0 de nye ligningene: 2x+ y+ 2z = 3 z = 2 0= 0 Ligningssystemet har løsning, i dette eksemplet uendelig mange, løsningen er ikke entydig. b2) I dette eksemplet er det ingen nullrekker hverken i koeffisientmatrisen eller den utvidete matrisen. (*) ligningene 2x+ y+ 2z = 3 2x+ y+ z = 1 2x+ 2 y = 1 utvidet matrise: 2 1 2 3 2 1 1 1 2 2 0 1 trappeform: 2 1 2 3 0 3 2 5 0 0 1 2 de nye ligningene: 2x+ y+ 2z = 3 3y+ 2 z = 5 z = 2 Ligningssystemet har løsning, i dette eksemplet bare én, løsningen er entydig. 2) Å finne løsningen. Vi benytter da ligningene for trappematrisen og starter med den nederste ligningen og jobber oss oppover. Noen av de ukjente kan velges fritt, og så blir de øvrige bestemt av dette valget. Antall ukjente som kan velges fritt kalles nulliteten. Dette antallet er lik antall ukjente minus rangen. Nøyaktig hvordan dette foregår kan beskrives eksakt hvis vi har skrevet den utvidete matrisen på redusert trappeform, men det avstår vi fra. Avansert: Tradisjonelt blir spørsmålet om løsning eller ikke formulert ved hjelp av rangen til en matrise. Et ligningssystem har løsning hvis og bare hvis rangen til koeffisientmatrisen er lik rangen til den utvidete matrisen.

Rangen til en matrise finner du altså ved å overføre den til trappeform og så telle hvor mange rekker som ikke er nullrekker. Dette antallet blir lik rangen. (6) Viktige beregninger. Foruten å overføre en matrise til trappeform ved å bruke rekkeoperasjoner, så er det to andre beregninger som er helt sentrale. Det ene er å kunne beregne en inversmatrise og det andre er å kunne regne ut en determinant. Legg først merke til at en determinant er noe helt forskjelllig fra en matrise. En matrise er et rektangulært oppsett av tall, mens determinanten til en matrise er et tall. (Bare kvadratiske matriser har determinant). a) utregning av determinant. Determinanten til en matrise A skrives det(a) eller også A, altså A med en vertikal strek på hver side, samme måten som lengden av en vektor eller en absoluttverdi skrives på, men i vårt tilfelle her har det en helt annen betydning. Når en matrise er utskrevet med alle sine elementer, så betyr altså to loddrette streker, én på hver 2 3 2 3 side, noe helt annet enn to klammeparenteser: er en determinant, 3 4 3 4 er en matrise. Vi presenterer her utregning av en determinant ved å utvikle determinanten etter en rekke eller en søyle. I den utregningen opptrer kofaktorene til vedkommende rekke (søyle). Anta vi har en 3x3 matrise A=( a ij ), i = 1, 2, 3 j = 1, 2, 3. Vi har da betegnet elementene i matrisen ved å velge et felles navn a og så bruke indekser. Utvikler vi determinanten etter første rekke, så får vi: (*) det(a)=a11a11 + a12 A12 + a13a13. Her er A 11 kofaktoren til a 11, A 12 er kofaktoren til a 12, og A 13 er kofaktoren til a 13. Eksempel: 2 3 4 Gitt A 1 0 5 0 5 1 5 1 0 =, kofaktorene til 1.rekke er da:,, 2 4 3 4 3 2 3 2 4 ut hver enkelt, så får vi : 10, ( 19), 2 altså 10, 19, 2. Da får vi for determinanten: og regner vi (*) det(a) = 2 10 + 3 19 + ( 4) 2 = 20 + 57 8 = 69 Men hvordan fikk vi kofaktorene? For hvert av elementene i 1.rekke, 2, 3 og -4, så stryker vi etter tur, den rekken og den søylen som elementet står i. Da får vi en 2x2 matrise. Kofaktoren blir da + eller determinanten til denne lille matrisen.

Vi viser her hvordan de små matrisene fremkommer og deretter fortegnet som skal brukes for de ulike elementene i matrisen. matrisene * * * * * * * * * * 0 5, 1 * 5, 1 0 * * 2 4 3 * 4 3 2 * fortegnsregelen: + + + + +. Kofaktorene til 2. rekke er: 3 4 2 4 2 3,, 2 4 3 4 3 2 som blir lik: 4, 20, ( 13) = 4, 20, 13 Merk at fortegnet foran determinantene til de små matrisene er en del av kofaktorene. Kofaktorene til 2. rekke får vi altså ved etter tur å stryke den rekken og den søylen som hvert av elementene i 2. rekke står i, og så tar vi determinanten til hver av de små matrisene som da fremkommer og ganger med +1 eller med 1, dvs samme oppskrift som for første rekke. * 3 4 2 * 4 2 3 * småmatrisene: * * *, * * *, * * * * 2 4 3 * 4 3 2 * for rekke 2 ser vi at de blir, +,. fortegnene ser du i matrisen ovenfor, Vi regner determinanten på nytt ved å utvikle etter 2, rekke: (*) det(a) = ( 1)( 4) + 0 20 + 5 13 = 69 Et praktisk råd: se etter rekker eller søyler hvor det står nuller, da blir utregningen kortere, for 0 ganget med en kofaktor blir 0, du trenger ikke da regne ut kofaktoren. b1) beregning av invers ved kofaktorene. Vi setter opp kofaktorene i en matrise og transponerer, så ganger vi med 1/det, da får vi den inverse. Den inverse matrisen eksisterer bare for kvadratiske matriser som har determinant ulik 0. Det harmonerer med det at vi skal gange med 1/det, og det går an hvis det 0, ellers ikke. For eksemplet ovenfor blir det slik: kofaktormatrisen 10 ( 19) 2 4 20 ( 13), transponert : 15 6 3 10 4 15 19 20 6 2 13 3 det=69, altså: 10 4 15 1 = 69 2 13 3 1 A 19 20 6

b2) utregning av invers ved å løse en ligning. Da bruker vi rekkeoperasjoner. Vi kan enten løse AX = I mhp X. Da blir X den inverse. Vi starter med [A,I] og omformer til [I, B] ved hjelp av rekkeoperasjoner, da blir B den inverse matrisen til A. Hvis A ikke har invers, så vil ikke denne omformingen la seg gjøre. c1 Eller vi kan løse Ax = c mhp x hvor c = c 2 og skrive løsningen slik: x = Bc. Da blir B den c 3 inverse til A. Denne metoden står ikke i boken. Den lar seg også bruke ved å løse uten å bruke rekkeoperasjoner. UTREGNINGENE MED REKKEOPERASJONER FOR EKSEMPLET VÅRT ER FOR STYGGE, IKKE PRØV. c) rekkeoperasjoner. Å kunne utføre rekkeoperasjoner på en matrise er helt sentralt og ekstremt viktig. Vi lister opp de tre grunntypene: 1) gange en rekke med et tall og addere det du da får til en annen rekke. 2) gange en rekke med et tall som er ulik 0 3) bytte om to rekker. Vi starter på en beskrivelse av fremgangsmåten, men gjør det ikke fullstendig for det blir lett for komplisert. Når vi skal overføre en matrise til trappeform så starter vi med elementet øverst i venstre hjørne, dvs element nr (1, 1). Hvis det er 0, så bytter vi om med en rekke slik at det øverste elementet i den nye matrisen blir ulik 0. (Hvis alle elementene er null, så tar vi utgangspunkt i element (1, 2) i stedet, en slik oppgave ville du ikke få til eksamen). Så skaffer vi nuller i starten av hver rekke under den første ved å gjøre rekkeoperasjoner. For å få dette til, så bruker vi hele tiden den første rekken. Så gjentar vi denne prosedyren ved å ta utgangspunkt i elementet som står som nr (2, 2).

Vektorrom og lineære transformasjoner. (0) Eksempler. Vi har gitt et par eksempler på vektorrom allerede helt til å begynne med. To typer som vi finner i pensum er disse: 1) vektorrom som består av geometriske vektorer, dvs de som vi startet med i kap.4.1 2) vektorrom som består av søylematriser. Det er disse boken jobber med i kap.11 Tenk på mengden av alle 3x1 søylematriser. Adderer vi to 3x1 søylematriser, så får vi en 3x1 søylematrise altså et element i samme mengde som de elementene vi adderte, tilhører. Det følger av regnereglene for matriser. Ganger vi en 3x1 søylematrise med et tall, så blir resultatet også en 3x1 søylematrise, igjen et element i samme mengde som det elementet som ble ganget med tallet tilhørte. Så mengden av alle 3x1 søylematriser oppfyller de to første kravene i definisjonen av hva et vektorrom er, kravene til addisjon og multiplikasjon med tall. Se bok 2x1 søylematriser utgjør (selvsagt) også et vektorrom. Eksempel på de to regneoperasjonene, se (*) like nedenfor. NB. Det fins en viktig sammenheng mellom plane (geometriske) vektorer og 2x1 søylematriser og mellom romlige vektorer og 3x1 søylematriser. Nemlig, når vi har en geometrisk vektor (plan eller romlig) så svarer denne til en søylematrise, (2x1 eller 3x1) som har komponentene til vektoren som elementer. Vi ser eksempelvis på forbindelsen mellom plane vektorer og 2x1 søylevektorer.her eret eksempel på addisjon av to søylevektorer og å ta et multiplum av en søylevektor. (*) Addére: 2 3 1 + = 4 6 2 ta multiplum: 2 32 6 3 = = 4 3 ( 4) 12 Anta at a er en plan vektor med komponenter (2, 4) og at b har komponenter ( 3, 5), Hvis u, v er basis så betyr dette at: a = 2u 4v og b = 3u + 6v. Addisjonen av de to 2x1 søylevektorene i (*) gir oss a + b uten at vi trengte å regne ut a + b i detalj, og ganging av søylevektoren i (*) med 3 gir oss 3b direkte. Tilsvarende regnestykker detaljert med u, v blir selvsagt a + b = (2u 4v) + ( 3u + 6v) = u + 2v) Likeledes får vi gratis at: 3a = 6u 12v. (1) Basis. Vi vet fra vektoralgebra at plane vektorer kan skrives ved hjelp av to basisvektorer. Basisvektorene er lineært uavhengige, som betyr at de ikke er parallelle. Tenk på u og v som sider i et parallellogram, ut fra samme punkt. Hver vektor får to komponenter. Kaller vi basisvektorene for u og v, så kan vi skrive en hvilken som helst plan vektor a slik:

(*) xu + yv = a hvor (x, y) er komponentene til a i basisen u, v. Vi kan også skrive komponentene i en 2x1 søylematrise: x y. En søylematrise kalles gjerne også for en søylevektor, eller bare en vektor. Skifte av basis. Siden vi kan bruke hvilke som helst to lineært uavhengige vektorer som basis, så er det naturlig å spørre etter hvordan vi kan gå fra bruk av én basis til en annen. Vi viser nå hvordan vi kan håndtere dette ved at vi tar et konkret eksempel. Anta at vi har en basis og velger u og v som 2 nye basisvektorer. Da har selvsagt u og v sine komponenter i den gamle basisen, anta disse er (2, 7) for u og (3, 5) for v, og at vektoren a har komponenter (α, β). Da får vi at (*) like ovenfor kan skrives på søyleform slik: (**) 2 3 α x + y = 7 5 β Men enkel matriseregning sier da at dette blir det samme som: (***) 2 3 x α = 7 5 y β eller kort slik: Ax=a, med 2 3 A = 7 5 De nye komponentene til a, (u,v-komponentene) finner vi da ved å løse (***) mhp x. 3-dim. Romlige vektorer kan skrives på tilsvarende måte ved hjelp av 3 basisvektorer. Avsatt fra samme punkt, så vil disse 3 basisvektorene danne sider i et parallellepiped. Hver romlig vektor får da tre komponenter. Tilsvarende (*) så får vi: (****) a = xu + yv + zw hvor (x, y, z) er de tre komponentene. Komponentene til en vektor for en gitt basis er entydige, (det fins ikke to sett med komponenter for samme vektor). (2) Lineærkombinasjon. Dersom vi ganger gitte vektorer med tall og adderer det vi da får, så sier vi at vi har dannet en lineærkombinasjon av disse vektorene, 3a +5b + c er en lineærkombinasjon av a, b og c. Tallene foran vektorene kalles koeffisientene, her er 3, 5, 1 koeffisientene. Også dersom vi har bare én vektor og ganger med et tall, så sier vi at vi har en lineærkombinasjon, 8a er en lineærkombinasjon av a. (3) Lineær uavhengighet. Hvis vi tar to vektorer a, b som ikke er parallelle, ganger hver av dem med et tall og summerer, altså danner en lineærkombinasjon, αu + βv, så vil vi aldri få nullvektoren så lenge ikke begge tallene α og β er lik 0. Hvis begge tallene er 0, s å blir opplagt αu + βv = 0, men ikke ellers. Vi sier at u og v er lineært uavhengige. (De kan ikke legges langs samme linje)

Men hvis de to vektorene u og v er parallelle, så kan vi få at αu + βv = 0, selv om ikke α = 0 og β = 0. Vi sier her at u og v er lineært avhengige. (De kan legges langs samme linje). Tilsvarende kaller vi et vilkårlig sett med gitte vektorer for lineært uavhengige, hvis den eneste måten vi kan danne en lineærkombinasjon av dem og få null, er at alle koeffisientene er 0. Se bok s.98 def 11.4 Hvis de ikke er lineært uavhengige, så kalles de lineært avhengige. Å undersøke om gitte vektorer er lineært uavhengige gir et homogent ligningssystem hvor koeffisientene er de ukjente. (4) Dimensjonen til et vektorrom. Med det menes antall vektorer i en basis for vektorrommet. Generelt er en basis i et gitt vektorrom et sett med vektorer slik at vi kan skrive enhver vektor i rommet som en lineærkombinasjon av disse vektorene på en entydig måte. En basis består da alltid av lineært uavhengige vektorer. (Og alle basiser for et gitt vektorrom består av det samme antall vektorer). (5) Lineær transformasjon. Vi har en 2x2 matrise, A, og en plan vektor a. La oss da gange A med søylematrisen som inneholder a sine komponenter. Hvis vi bruker samme navn på søylematrisen som for a selv, så får vi, hvis for 2-1 3 2-1 3 9 eksempel A = 1 3 og a = 3 at b = Aa gir b = = 1 3 3 6 Vi får da en ny søylematrise, b = Aa. og dermed en ny plan vektor b. Dette kan vi gjenta for alle mulige plane vektorer a. Da får vi mange nye vektorer b, og vi har i realiteten en funksjon som til hver plan vektor a gir oss en plan vektor b. Denne sammenhengen fra a til b kan vi skrive b = f(a) hvis vi kaller funksjonen for f. Når vi har en funksjon slik som dette, altså en funksjon som tar vektorer som input og vektorer som output, så kalles den gjerne en transformasjon. Og bokstaven T brukes ofte i stedet for f. Og videre, i stedet for å kalle b for funksjonsverdi, så kaller vi gjerne b for bildet av a, eller den transformerte vektoren. De lineære transformasjonene er de som vi kan regne ut de transformerte vektorene for ved å bruke matrisemultiplikasjon slik som ovenfor. Hvordan matrisen A kan forstås ut fra den lineære tranformasjonen ser vi hvis vi regner ut bildene av basisvektorene, altså vi regner ut Tu og Tv. Komponentene til u og v er henholdsvis (1, 0) og (0, 1). Med samme eksempel som i sted får vi at: Tu blir slik 2-1 1 2 A u = = 1 3 0 1 og Tv slik: 2-1 0 1 Av = = 1 3 1 3 Vi ser at søylene i A består av komponentene til de transformerte basisvektorene. Dette er ikke slik bare for vårt eksempel, det gjelder alltid.

(6) Egenverdiproblemet. Vi ser først på en 2x2-matrise for de er det raskest å regne med. Matrisen interessant egenskap som veldig mange matriser har, men ikke alle. 2 4 A = 1 1 har en Ta vektoren x = 4i + j. Sett opp komponentene i en søylematrise, det blir 2 4 4 12 4 denne søylematrisen. Da får du : = = 3 1 1 1 3 1. 4 1, og gang A med Vi fikk en ny vektor y som er lik 3 ganget med den vi startet med, y = 3x. Altså den transformerte vektoren er parallell med den vi startet med. En vektor med denne egenskapen kalles en egenvektor. Setter vi samme navn på søylene som på vektorene, så blir regnestykket slik: (*) Ax = 3x Tallet 3 kalles for en egenverdi, mens altså den tilsvarende vektoren kalles egenvektor. Men ikke bare vektoren 4i + j er slik. Ganger vi den med et vilkårlig tall, så får vi at den samme ligningen (*) gjelder. Regn ut Ax med x = t(4i + j) og se at det stemmer at du også nå får 3x. Denne situasjonen er ekstremt viktig i anvendelser, men er ikke noe man tar på strak arm hvis man aldri har sett det før, så derfor er det gjort til et eget tema. ************************************************************* Vi har følgende definisjon av det som kalles et egenverdiproblem: Gitt en (kvadratisk) matrise A. Et tall λ som er slik at det går an å finne en vektor x, (søylematrise), som ikke er 0, slik at Ax = λx, kaller vi for en egenverdi og x for en tilhørende egenvektor. ************************************************************* Definisjonsligningen for egenverdiproblemet er altså: (*) Ax = λx med x 0. En 2x2-matrise har høyst 2 egenverdier. Det som virker begrensende er at det skal gå an å finne en vektor x som ikke er 0. Hvis vi ikke krever at x skal kunne være ulik 0, så vil alle tall alltid være egenverdier for alle matriser, og da er det ikke noe spesielt ved det å være egenverdi. Vi løser egenverdiproblemet, (dvs finner egenverdiene og deres egenvektorer), ved å omforme ligningen (*) slik: (**) (i) Ax = λx, x 0 (ii) (A λi)x = 0, x 0

Vi vet at (ii) er oppfylt hvis og bare hvis det(a λi) = 0, og det er denne ligningen vi begynner med. Deretter bestemmer vi x. Og da vet vi altså at det fins uendelig mange muligheter for x. Vi bruker her den viktigste setningen i lineær algebra: Mx = 0 har løsning x 0 det(m) 0. og da har også Mx=0 uendelig mange løsninger. Ligningen det(a λi) = 0 er n- te grads ligning, siden det(a λi) er et n te grads polynom.