MA2501, Vårsemestre 2019, Numeriske metoder for lineære systemer

Like dokumenter
Sensitivitet og kondisjonering

R: 0, , = 6000 D : 0, , = 4000 La v n = angi fordelingen etter n år (dvs. a b n stemmer for R og

Diagonalizering. En n n matrise A sies å være diagonaliserbar hvis den er similær med en diagonalmatrise D. A = PDP 1

MA2501 Numeriske metoder

MA2501 Numeriske metoder

Det matematisk-naturvitenskapelige fakultet

12 Diagonalisering av matriser og operatorer (Ch. 5.1, 5.2 og 8.5)

Numerisk lineær algebra

Vær OBS på at svarene på mange av oppgavene kan skrives på flere ulike måter!

Diagonalisering. Kapittel 10

a) Matrisen I uv T har egenverdier 1, med multiplisitet n 1 og 1 v T u, med multiplisitet 1. Derfor er matrisen inverterbar når v T u 1.

13 Oppsummering til Ch. 5.1, 5.2 og 8.5

Egenverdier og egenvektorer

EKSAMEN I NUMERISK LINEÆR ALGEBRA (TMA4205)

Vi skal koble diagonalisering av matriser sammen med ortogonalitet. Skal bl.a. se på

7 Egenverdier og egenvektorer TMA4110 høsten 2018

MA1201/MA6201 Høsten 2016

MA0002 Brukerkurs i matematikk B Vår 2016

A 2 = PDP 1 PDP 1 = PD 2 P 1. og ved induksjon får vi. A k = PD k P 1. Kommentarer:

MAT UiO. 10. mai Våren 2010 MAT 1012

6.4 Gram-Schmidt prosessen

Løsningsforslag MAT 120B, høsten 2001

Minste kvadraters løsning, Symmetriske matriser

LP. Kap. 17: indrepunktsmetoder

Til enhver m n matrise A kan vi knytte et tall, rangen til A, som gir viktig informasjon.

Universitet i Bergen. Eksamen i emnet MAT121 - Lineær algebra

Egenverdier for 2 2 matriser

EKSAMEN I NUMERISK LINEÆR ALGEBRA (TMA4205)

5.8 Iterative estimater på egenverdier

Obligatorisk innleveringsoppgave, løsning Lineær algebra, Våren 2006

Kap. 7 Symmetriske matriser og kvadratiske former

7.4 Singulærverdi dekomposisjonen

UNIVERSITETET I OSLO

16 Ortogonal diagonalisering

MA2501 Numeriske metoder

MAT-1004 Vårsemester 2017 Prøveeksamen

MAT1120 Oppgaver til plenumsregningen torsdag 25/9

MA0002 Brukerkurs i matematikk B Vår 2014

Løsningsforslag til eksamen i MA1202/MA6202 Lineær algebra med anvendelser høsten 2009.

MAT-1004 Vårsemester 2017 Prøveeksamen

Løsning Eksamensrelevante oppgaver i ELE 3719 Matematikk Vektorer, matriser og lineær algebra Dato Februar Oppgave 1. (A) Vi leser av at

5.5 Komplekse egenverdier

Løsningsforslag til eksamen i MA1202/MA6202 Lineær algebra med anvendelser våren 2009.

TMA4110 Eksamen høsten 2018 EKSEMPEL 1 Løsning Side 1 av 8. Løsningsforslag. Vi setter opp totalmatrisen og gausseliminerer: x 1 7x 4 = 0

UNIVERSITETET I OSLO

TMA4122/TMA4130 Matematikk 4M/4N Høsten 2010

7.1 forts. Schur triangularisering og spektralteoremet

Ikke lineære likninger

MAT Prøveeksamen 29. mai - Løsningsforslag

Løsningsforslag øving 6

TMA4110 Matematikk 3 Haust 2011

LO510D Lin.Alg. m/graf. anv. Våren 2005

Kap. 6 Ortogonalitet og minste kvadraters problemer

Forelesning 14 Systemer av dierensiallikninger

Kap. 5 Egenverdier og egenvektorer

UNIVERSITET I BERGEN

6 Determinanter TMA4110 høsten 2018

MA0002 Brukerkurs i matematikk B Vår 2013

Lineær algebra. 0.1 Vektorrom

Homogene lineære ligningssystem, Matriseoperasjoner

1 Gauss-Jordan metode

EKSAMEN. 1 Om eksamen. EMNE: MA2610 FAGLÆRER: Svein Olav Nyberg, Trond Stølen Gustavsen. Klasser: (div) Dato: 24. mai 2004 Eksamenstid:

MAT Oblig 1. Halvard Sutterud. 22. september 2016

Fasit til utvalgte oppgaver MAT1110, uka 13/4-16/4

MAT UiO mai Våren 2010 MAT 1012

Løsningsforslag til eksamen i MA0002, Brukerkurs i matematikk B

LØSNINGSSKISSE TIL EKSAMEN I FAG SIF august 2001

EKSAMEN I MA1202 LINEÆR ALGEBRA MED ANVENDELSER

Matriser. Kapittel 4. Definisjoner og notasjon

6.8 Anvendelser av indreprodukter

Finne løsninger på ligninger numerisk: Newton-Raphson metoden og Fikspunktiterasjon MAT111, høsten 2017

MAT1120 Notat 2 Tillegg til avsnitt 5.4

Pensum i lineæralgebra inneholder disse punktene.

LP. Leksjon 8: Kapittel 13: Nettverk strøm problemer, forts.1

Lineære likningssystemer

Eksamensoppgave i TMA4115 Matematikk 3

MAT 1110: Bruk av redusert trappeform

Lineære diffligning(ssystem)er i ECON 4140 V2017: Hva er pensum, hva er forelest, og hva er vesentlig.

MAT1120 Notat 2 Tillegg til avsnitt 5.4

3.9 Teori og praksis for Minste kvadraters metode.

UNIVERSITETET I OSLO

6.5 Minste kvadraters problemer

Potensrekker Forelesning i Matematikk 1 TMA4100

4.1 Vektorrom og underrom

Et forsøk på et oppslagsverk for TMA4145 Lineære metoder

Gauss-Jordan eliminasjon; redusert echelonform. Forelesning, TMA4110 Fredag 18/9. Reduserte echelonmatriser. Reduserte echelonmatriser (forts.

UNIVERSITETET I OSLO

Korteste vei problemet (seksjon 15.3)

4.4 Koordinatsystemer

Eksamen i TMA4122 Matematikk 4M

Løsning ved iterasjon

Biseksjonsmetoden. biseksjonsmetode. Den første og enkleste iterativ metode for ikke lineære likninger er den så kalt

Fasit til utvalgte oppgaver MAT1110, uka 28/4-2/5

Eksamensoppgave MAT juni 2010 (med løsningsforslag)

Vektorligninger. Kapittel 3. Vektorregning

Løsningsforslag til eksamen i MAT1110, 13/6-07

Eksamensoppgave i TMA4135 Matematikk 4D

Kap. 5 Egenverdier og egenvektorer

UNIVERSITETET I OSLO

Repetisjon: Om avsn og kap. 3 i Lay

Transkript:

MA5 Vårsemestre 9 Numeriske metoder for lineære systemer Introduksjon Vi vil approksimere løsningen av lineære systemet av n ligningene og n ukjente: a x + a x + + a n x n b a x + a x + + a n x n b () a n x + a n x + + a nn x n b n hvor (x x n ) er de ukjente Gitt (a ij ) ij n og b i i n Vi kan skrive () i matrise form ved å definere: a a a n x b a a a n x b A : x : a n a n a nn så skriver vi () i følgende måte: x n b : b n A x b () Lineære systemer kan løses veldig enkelt når A har en spesiell form for eksempel når A er en diagonal matrise eller en triangulærmatrise og a ii for i n:

A diagonalmatrise a a A a nn a x b a x b a nn x n b n x b a x b a x n bn a nn A triangulærmatrise a a a n a a 3 a n A an n a n n a nn a x + a x + + + a n x n b a x + + + a n x n b a n n x n + a n n x n b n a nn x n b n x b n j a jx j a x b n j3 a jx j a (3) x n b n a n n x n a n n x n b n a nn Formlene (3) kalles innsettingsalgoritmen

Løsning av lineære systemer ved iterasjon For å approksimere x løsningen til Ax b gitt x () vil vi konstruere en følge av vektorer x () x (n) som konvergerer mot x En måte å gjøre det på er å bruke fikspunkt iterasjon Vi vil forsøke å finne ekvivalente formuleringer av Ax b som fiks-punkt ligning For eksempel: Ax b x (I A)x + b hvor I er n n identitets matrise Gitt x () fører dette til iterasjonen: x (n+) (I A)x (n) + b Generelt kan man lage en iterasjon som følge: skriv A som en summe av to ledd: A M N velg M inverterbar; fra (M N)x b man får Mx Nx + b og så gitt x () får man: x M Nx + M b; x (n+) M Nx (n) + M b Vanligvis M er valgt slik at M er lett å beregne for eksempel kan M være diagonal eller triangulær Eksempel Vi skal løse ved fikspunktiterasjon systemet x x x + x A : (4) og starte med x () 3

Vi tar Løsningen er M : x N M A Vi har Mx Nx + b og x M Nx + M b dvs x x Ved å bruke verdier av x () beregner vi x () x () x x + x () M Nx () + M b Vi fortsetter x () M Nx () + M b: x () x () x () x () og videre x (3) x (3) 5 x (6) x (6) x (4) x (4) 875 75 x (8) x (8) + x (5) x (5) 5 Eksempel I systemet (4) tar vi nå M : N M A 4

og med den samme x () beregner vi x () M Nx () + M b: x () x () og får vi eksakt løsningen i den iterasjonen Generelt tar vi M lik diagonalen til A dvs m ii a ii i n m ij i j (hvor m ij er elementene til M og a ij er elementene til A) så har vi en iterasjon metode som heter Jacobi metode Når tar vi M lik den lavere triangulære delen av A dvs m ij a ij i n j i m ij i n j i+ n så får vi en iterasjon metode som heter Gauss-Seidel metode Se på de generelle formlene til Jacobi s og Gauss-Seidel s metoder i bok Finite difference schemes and partial differential equations av John C Strikwerda ch 3 3 Konvergens For å se hvor nær x (n) er til x må vi bruke et norm: x x (n) Hvis u er en vektor med n komponenter eksempler av normer av u er: u : u + + u n norm-; u : max i n u i max-norm; u : ( u + + u n ) ( u T u ) norm- I konvergensanalyse bruker vi også matrise-norm Eksempler av matrisenorm til en matrise U (med elementer u ij ) er: U F n i n j u ij Frobenius norm; U : max n i j u ij max-norm; U : max n j i u ij norm- 5

For eksemper kan vi beregne norm av 3 U : vi har U F 3 + + ( ) 4 37465738677394 U max{ 3 + + } 5 U max{ 3 + + } 4 Se bok av Süli og Mayers (kap matrisenormer 7) for mer informasjon om normer og For å analysere konvergens skriver vi iterasjonsmetoden som følge x (n+) M Nx (n) + M b og ved å definere C : M N og g : M b kan vi skrive: x (n+) Cx (n) + g (5) C er iterasjonsmatrisa til metoden og man kan bevise følgende teroem Theorem Hvis det fins et norm slik at C < da konvergerer iterasjonen (5) for alle x () 4 Eksempel:(andvendelsen av Teorem ) La oss ta da har vi at B 3 5 3 M 5 C J M N N 3333 4 og C J F 57 C J C J 4 dermed gitt f konvergerer Jacobi metode for Bx f for hver x () For Gauss-Seidel metode har vi 3 3333 C GS 5 333 og C GS F 359 C GS 4667 og C GS 3333 dermed konvergerer Gauss-Seidel metode for Bx f for hver x () 6

5 Eksempel (tilfellet hvor Teorem ikke kan brukes) La oss ta matrisen fra eksempel (4): A : vi har verifisert at både Jacobi og Gauss-Seidel konvergerer metode har vi: C J For Jacobi med normer C J F C J max C J For Gauss-Seidel har vi C GS og C GS F C GS C GS Her hypotesene av forrige teorem er ikke oppfylt selv om vi vet fra numeriske beregninger at iterasjonene konvergerer Vi må bruke en annen teknikk hvis vi vil analysere konvergens Husk at et tall reell eller kompleks λ slik at det fins u vektoren slik at Cu λu kalles egenverdi av C og u kalles egenvektor La σ(c) være mengden av alle egenverdier av C (det fins ikke mer enn n distinkte egenverdier for en n n matrise) så kan man definere ρ(c) : max λ σ(c) λ ρ(c) heter spektral radius av C og det er en positivt tall som brukes mye for å estimere konvergens av iterasjonsmetoder i lineære systemer Hvis vi tegner en sirkel av radius ρ(c) i det komplekse planet sirkelen innholder alle egenverdier til C Man kan bevise: Theorem Iterasjonsmetode (5) konvergerer uansett valg av x () hvis og bare vis ρ(c) < 7

I eksemplet våre skal vi finne egenverdier til C J og C GS Merk at Cu λu (C λi)u det(c λi) hvor I er identitetmatrisen og ( u u det(u) det u u ) u u u u Så har vi at ( det(c J λi) det og vi har λ J ± For C GS har vi det(c J λi) det λ λ ) ( λ det λ ) λ ±77 Så ρ(c) 77 og dermed ρ(c) < ( λ λ ) ( ) λ λ og vi har λ GS og λ GS og ρ(c GS) Grunnen til at Gauss-Seidel metode konvergerer raskere enn Jacobi metode er at ρ(c GS ) < ρ(c J ) 8