Ortogonale polynom og Gauss kvadratur

Størrelse: px
Begynne med side:

Download "Ortogonale polynom og Gauss kvadratur"

Transkript

1 Ortogonale polynom og Gauss kvadratur Hans Munthe-Kaas 1. jaunar 2002 Sammendrag Dette notatet tar for seg minste kvadrat approksimasjoner, ortogonale polynom og Gauss kvadratur. Notatet er ment som et tillegg til læreboken i I162, og forsøker å framstille dette stoffet klarere og tildels mer utfyllende enn i læreboken. 1 Lineære minste kvadrat problemer (LMK) LMK er behandlet i detalj i lærebokens kapittel 3. I dette kapittelet oppsummerer vi de viktigste egenskapene ved LMK, med vekt på hva vi senere har bruk for i forbinnelse med ortogonale polynom. Gitt et sett datapunkt {(t i, y i )} m i=1. Disse kan f.eks. være målepunkt i et eksperiment. Vi antar her at t i er kjent eksakt, mens ved abcisse verdiene y i hefter målefeil. La f(t, x) være en modell, en funksjon som skal approksimere y(t) i de gitte datapunktene. Her er x er en n-vektor som inneholder parametre for modellen. Minste kvadrat tilpasning er basert på at vi måler approksimasjonsfeilen som summen av kvadratiske avvik i målepunktene, E 2 = n (y i f(t i, x)) 2. (1) Vi søker parameterne x som minimaliserer feilen. I lineær MK teori antar at f avhenger lineært av parametrene x. Da kan vi alltid finne funksjoner φ 1 (t),..., φ n (t) slik at og (1) kan skrives som f(t, x) = φ 1 (t)x 1 + φ 2 (t)x φ n (t)x n, (2) E 2 = b Ax 2 2, (3) der x 2 2 = x T x, A i,j = φ j (t i ) og b = (y 1,..., y m ) T. Algoritmer for løsning av (3) avhenger av egenskapene til matrisen A. Vi vil her anta at A er en m n matrise, der m > n og kolonnene i A er lineært uavhengige, dvs. Rank(A) = n. Dette kalles full rank minste kvadrat problemer. 1.1 Løsning via normallikningene La R(A) betegne rekkevidden til A, R(A) = { z R m z = Ax for en x R m }. Lemma 1.1 La x opt være vektoren som minimaliserer feilen i (3). Da står residualet r = b Ax opt (4) ortogonalt på R(A), dvs. r T Az = 0 for alle z. (5) 1

2 Proof.Anta at det optimale residualet ikke er ortogonalt på R(A). Da kan man finne en z slik at r T Az = α > 0. Lag så en ny parametervektor x = x opt + ɛz, der ɛ > 0. Vi finner nytt residual r = r ɛaz med feil E 2 = (r ɛaz) T (r ɛaz) = r T r 2ɛr T Az + ɛ 2 z T A T Az < r T r, for ɛ < 2α z T A T Az. Vi har vist at dersom residualet ikke er ortogonalt på R(A), så kan vi finne en bedre løsning. Fra dette følger normal likningene. Theorem 1.2 Vektoren x opt som minimaliserer feilen (3) i full rank LMK problemet er entydig bestemt fra normallikningene A T Ax opt = A T b. Proof. Fra Lemma 1.1 følger at 0 = (Az) T (b Ax opt ) = z T A T (b Ax opt ) for alle z. Dette gir A T b A T Ax opt = 0. Matrisen A T A er ikke-singulær dersom A har full kolonne rank. I så fall har likningssystemet entydig løsning. Vi kan altså løse full rank LMK problemet ved å løse normallikningene ved Gauss eliminasjon. Merk at A T A er en symmetrisk positiv definitt matrise, og vi kan derfor benytte den symmetriske varianten av Gauss eliminasjon som kalles Cholesky faktorisering. Den er basert på at vi faktoriserer A T A = LL T der L er nedre triangulær. Løsningen av LMK blir dermed: 1. Regn ut Cholesky faktoriseringen A T A = LL T. 2. Løs Ly = A T b ved forover substitusjon. 3. Løs L T x opt = y ved tilbake substitusjon. Denne metoden er ofte ikke anbefalt som numerisk løsningsteknikk for LMK problemet. Årsaken til dette er numerisk ustabilitet. Husk at kondisjonstallet er et mål for i hvilken grad unøyaktigheter i inngangsdata forplanter seg til løsningen av et problem. Det kan vises at cond(a T A) = cond(a) 2. Dette medfører at dersom A er dårlig kondisjonert, så vil man miste mye nøyaktighet i dannelsen av normallikningene. En ofte bedre teknikk for løsning av LMK problemet er basert på at man ortogonaliserer kolonnene i A før man forsøker å løse problemet. 1.2 Projeksjons matriser, Gram-Schmidt og QR faktorisering Forståelsen av LMK problemer henger nært sammen med ortogonale projeksjoner. Definition 1.3 En m m matrise P kalles en ortogonal projeksjon dersom P 2 = P P T = P. Matrisen sender vektorer fra R m ned på underrommet R(P ) R m. Den første betingelsen sier at om man først har projisert en vektor, så skjer det ikke noe mer om man projiserer svaret på nytt. Den andre betingelsen medfører at residualet av projeksjonen r = b P b står vinkelrett på R(P ). 2

3 Lemma 1.4 Dersom P er en ortogonal projeksjon, så er også I P en ortogonal projeksjon, og (I P )z P y for alle y og z. Proof. Hvis P er en projeksjonsmatrise har vi (I P ) T = I P T = I P (I P ) 2 = I 2P + P 2 = I P (I P ) T P = P P T P = P P 2 = P P = 0. Hvordan kan vi finne projeksjonen på et gitt n-dimensjonalt underrom W R m? Det enkleste tilfellet er om man kjenner en ortogonal basis for W. Gitt en m n matrise Q = (q 1, q 2,..., q n ) der m n og q i er kolonnene. Vi sier at matrisen er ortogonal om kolonnene har lengde 1 og står ortogonalt på hverandre, { q T 1 hvis i = j i q j = δ i,j = 0 ellers Lemma 1.5 Hvis Q er ortogonal m n matrise, så er projeksjon på R(Q) gitt ved P = QQ T, (6) eller n P b = q T j b. (7) Gram-Schmidt prosessen er en systematisk prosess som transformerer en vilkårlig basis {a 1,..., a n } for et underrom til en ortogonal basis {q 1,..., q n } for samme underrom. Prosessen er basert på at man suksessivt ortogonaliserer hver vektor a i med hensyn på de foregående: Algorithm 1.6 (Gram-Schmidt) Gitt en basis (a 1,..., a n ) for for et n-dimensjonalt underrom. Algoritmen finner en ortogonal basis (q 1,..., q n ) for det samme underrom. for i = 1,..., n q i := a i i 1 q j(q T j a i) q i := q i / q i 2 end Hvordan kan man rekonstruere den originale basisen {a 1,..., a n } fra {q 1,..., q n }? Vi ser fra formlene over at dersom vi setter r j,i = q T j a i r i,i = q i 2, så kan a i finnes ved dermed har vi vist: a i = q 1 r 1,i + q 2 r 2,i + + q i r i,i. Lemma 1.7 Gitt en m n matrise A = (a 1,..., a n ) med full kolonne rank. Gram-Schmidt prosessen produserer en ortogonal m n matrise Q = (q 1,..., q n ) og en n n matrise R = (r i,j ) som er øvre triangulær med positiv diagonal, slik at A = QR. (8) 3

4 Dette kalles QR-faktoriseringen av matrisen A. Numerisk finnes flere måter å finne denne faktoriseringen. Populære metoder involverer elementære ortogonale transformasjoner som heter Householder refleksjoner og Givens rotasjoner. Disse vil ikke bli diskutert her. Gram-Schmidt prosessen er idemessig den enkleste av disse metodene, men er ikke anbefalt som numerisk prosess, da den har en uheldig akumulasjon av avrundings feil. En enkel omorganisering av rekkefølgen på beregningene gir algoritmen Modifisert Gram-Schmidt, som har langt bedre stabilitets egenskaper. Algorithm 1.8 (Modifisert Gram-Schmidt (MGS)) Gitt en m n matrise A med full kolonne rank. Algoritmen beregner A = QR, der Q er ortogonal m n matrise og R er øvretriangulær n n matrise med positiv diagonal. for k = 1,..., n r k,k = a k ]] 2 q k = a k /r k,k for j = k + 1,..., n r k,j = q T k a j a j = a j r k,j q k end end Nå har vi alle byggeklossene vi behøver for å løse full rank LMK problemet på en numerisk god måte. Vi vet at løsningen er gitt ved Ax = P b = QQ T b, der Q kommer fra QR faktoriseringen av A. Dermed følger: Ax = QRx = QQ T b Rx = Q T b, og vi finner algoritmen for løsning av full rank LMK problem: 1. Regn ut A = QR f.eks. med MGS eller Householder algoritme. 2. Løs Rx = Q T b med bakover substitusjon. Denne algoritmen fungerer godt sålenge kondisjonstallet til A ikke er alt for stort. Hvis kolonnene i A er lineært avhengige eller nesten lineært avhengige, må man benytte andre metoder. En vanlig metode er i så fall QR faktorisering med kolonne ombytter, mens den numerisk sett mest stabile metoden er basert på singulærverdi dekomposisjonen og pseudo-invers. Dette vil ikke bli diskutert her. 1.3 Generelle vektorrom og indreprodukt Vi skal se at teorien og algoritmene fra de foregående avsnittene lett generaliserer til generelle vektorrom V utstyrt med et indreprodukt,. Definition 1.9 Gitt et R-vektorrom V. Et indreprodukt på V er en funksjon, : V, V R som tilfredstiller for alle x, y, z V, r R. x, y = y, x x, y + z = x, y + x, z x, ry = r x, y x, x 0 x, x = 0 x = 0 4

5 Ethvert indreprodukt induserer en norm 1 på følgende måte: x = x, x 1 2. (9) LMK teorien generaliserer til vilkårlige normer indusert fra et indreprodukt. Optimalisering i normer som ikke er indusert fra et indreprodukt, er en helt annen historie som krever helt andre metoder! Leseren kan selv verifisere at alle tidligere resultater holder dersom man gjør substitusjonene x T y x, y A T A der A betegner den adjungerte operatoren. La U og V være vektorrom med indreprodukt, U og, V. Hvis A : U V er en lineær avbildning, så er den adjugerte A en lineær avbildning A : V U definert ved y, Ax V = A y, x U for alle x U, y V. (10) På R m er indreprodukt ofte gitt som vektede summer, x, y w = m x j y j w j, der vektene w j er positive. I anvendelser kan vekter brukes til å angi at man ønsker å ha bedre approksimasjon i noen punkter enn i andre. Mer generelt kan alle indreprodukt på R n skrives på formen x, y W = x T W y, der W er en m m matrise som er symmetrisk og positiv definitt. For komplekse vektorrom som C m forlanger man at indreproduktet, : V, V C tilfredstiller x, y = y, x heller enn x, y = y, x. Her betegner x komplekskonjugering av hver vektorkomponent. Et veiet indreprodukt på C m framkommer ved x, y w = m x j y j w j., w j R +. Foruten de diskrete vektorrommene R m og det komplekse C m, så er funksjonsrom viktige i mange anvendelser. Et funksjonsrom består av vektorer som er funksjoner definert på et område, f.eks. et intervall [a, b] R, eller periodiske funksjoner på [0, 2π]. Hvis f og g er to funksjoner så er f + g funksjonen (f + g)(x) = f(x) + g(x) for alle x [a, b], mens skalarprodukt er definert på tilsvarende måte. Vi ser at funksjonsrom likner på R m ved at en diskret indeks j {1,... m} erstattes med en kontinuerlig indeks x [a, b] R. På funksjonsrom er indreprodukt ofte gitt ved integraler i stedet for summer. En vektfunksjon w(x) > 0 gir opphav til et vektet indreprodukt f, g w = b a f(x)g(x)w(x)dx. Dersom funksjonene er kompleks valuerte, definerer vi i stedet det komplekse indreproduktet f, g w = 1 Men ikke alle normer kommer fra indreprodukt! b a f(x)g(x)w(x)dx. 5

6 2 Ortogonale polynom Vi skal se spesielt på tilfellet der V er et vektorrom bestående av polynomer. La P n betegne vektorrommet bestående av n-te grads polynomer definert på intervallet [a, b] R. Vi lar indreproduktet være gitt som p, q = b a p(x)q(x)w(x)dx, hvor w(x) er en positiv vekt funksjon. Som eksempel kan vi la [a, b] = [ 1, 1] og w(x) = 1. Leseren inviteres til å finne de ortogonale polynomene ved å benytte Gram-Schmidt prosessen på basisen 1, x, x 2,..., x p. De første av disse polynomene er gitt som p 0 (x) = 1 p 1 (x) = x p 2 (x) = 1 2 (3x2 1) p 3 (x) = 1 2 (5x3 3x) p 4 (x) = 1 8 (35x4 30x p 5 (x) = 1 8 (63x5 70x x) Disse kalles Legendre polynomene. Merk at de er normalisert slik at p k (1) = 1, og ikke slik at p k = 1. En viktig egenskap for ortogonale polynom er at de tilfredstiller en såkalt 3-ledds rekurrens formel, dvs. p k+1 kan alltid skrives som en lineærkombinasjon av xp k (x), p k (x) og p k 1 (x). Legendre polynomene tilfredstiller f.eks. (k + 1)p k+1 (x) = (2k + 1)xp k (x) kp k 1 (x). (11) La oss nå se på det generelle tilfellet med polynomer p k (x) ortogonale med hensyn på et vilkårlig indreprodukt. For å se hvorfor vi alltid har en 3-ledd rekurrens formel, gjør vi Gram-Schmidt prosessen, men i stedet for å danne p k+1 (x) ved å ortogonalisere x k+1 med hensyn på tidligere polynom, så tar vi utgangspunkt i xp k (x) og ortogonaliserer denne med hensyn på p k,..., p 1. Dette gir v k+1 = xp k p k p k, xp k p k 1 p k 1, xp k p k 2 p k 2, xp k... (12) β k = v k+1 (13) p k+1 = v k+1 /β k. (14) Følgende resultat viser at vi kun behøver å ta med de første tre leddene på høyre side av (12). Lemma 2.1 Dersom j < k 1 så er p j, xp k = 0. Proof. Alle polynomer av grad j + 1 kan skrives som en lineærkombinasjon av de ortogonale polynomene p 0,..., p j+1, spesielt kan vi skrive xp j = j+1 l=0 a j,lp l. Dermed siden polynomene er ortogonale. j+1 p j, xp k = xp j, p k = a j,l p l, p k = 0, l=0 En ytterligere forenkling av formlene oppnås ved utregningen β 2 k = v k+1, v k+1 = β k p k+1, xp k p k p k, xp k p k 1 p k 1, xp k = β k p k+1, xp k, 6

7 der vi har benyttet ortogonaliteten. Dette gir β k = p k+1, xp k. Dermed kan vi spare utregningen av p k 1, xp k i (12) ved å gjenbruke β k 1 fra forrige iterasjon. Dermed har vi vist følgende algoritme for å generere ortogonale polynom: Algorithm 2.2 Gitt et indreprodukt,. Følgende iterasjon genererer ortogonale polynom, normalisert til p i, p i = 1. β 1 = 0 p 0 (x) = 1, for k = 0, 1,... α k = p k (x), xp k (x) v(x) = (x α k )p k (x) β k 1 p k 1 (x) β k = v(x) p k+1 = v(x)/β k end Både fra et praktisk og et teoretisk synspunkt er følgende sammenheng mellom ortogonale polynom og tridiagonale matriser svært viktig. Theorem 2.3 Nullpunktene til polynomet p k+1 (x) er egenverdiene til matrisen α 0 β 0 β 0 α 1 β 1 T k+1 =. β 1 α.. 2. (15) βk 1 β k 1 α k Proof.Betrakt det karakteristiske polynom q k+1 (x) = det(ix T k+1 ). Ved å utvikle determinanten q k+1 (x) = x α 0 β 0 β 0 x α 1 β 1 β 1 x α βk 1 β k 1 x α k i siste kolonne finner vi rekurrensen Startbetingelsene er gitt ved Se nå på iterasjonen i Algorithm 2.2, q k+1 (x) = (x α k )q k (x) β 2 k 1q k 1 (x). q 0 (x) = 1 q 1 (x) = x α 0. β k p k+1 (x) = (x α k )p k (x) β k 1 p k 1 (x). (16) Tilsynelatede er disse iterasjonene forskjellige. Vi skal imidlertid se at forskjellen kun består i at p k+1 (x) er normalisert til p k+1 (x), p k+1 (x) = 1, mens q k+1 (x) er monisk, dvs. konstanten foran høyeste potens x k+1 er 1. La oss skrive p k+1 (x) = c k+1 q k+1 (x) 7

8 der q k+1 (x) er monisk. Innsatt i (16) gir dette β k c k+1 q k+1 (x) = (x α k )c k q k (x) β k 1 c k 1 q k 1 (x). Ved å sammenlikne x k+1 på begge sider, finner vi β k c k+1 = c k. Dividerer vi med c k får vi q k+1 (x) = (x α k )cq k (x) βk 1q 2 k 1 (x), med startbetingelsene q 0 (x) = 1 og q 1 (x) = x α 0. Dette viser at q k (x) = q k (x). Det symmetriske tridiagonale egenverdi problemet er et svært godt studert problem i numerisk analyse, og gode raske algoritmer eksisterer. Det er faktisk anbefalt å finne nullpunktene til ortogonale polynom ved å regne ut egenverdiene til T k. Vi oppsummerer uten bevis noen viktige egenskaper om disse nullpunktene. p k (x) har k reelle og distinkte nullpunkt som ligger i intervallet (a, b). Polynomet p k (x) har nøyaktig ett nullpunkt mellom hvert par av nabo-nullpunkt for p k+1 (x). Dette kalles interlacing property for nullpunktene og er viktig for nyere raske algoritmer for utregning av nullpunktene. Antallet fortegnsskift i sekvensen {p 0 (x), p 1 (x),..., p n (x)} teller antallet nullpunkt i p n (x) som er større enn x. Dette kalles Sturm-sekvens egenskapen, og kan brukes til å søke etter et bestemt nullpunkt, f.eks. 3 dje største nullpunkt i p 6 (x). 2.1 Chebycheff polynom En familie ortogonale polynom som har en spesiell rolle i approksimasjonsteori er Chebycheff polynom, definert ved t k (x) = cos(k arccos(x)) for 1 x 1. (17) La θ = arccos(x). Ved cos setningen får vi som gir rekurrens formelen t k+1 (x) = cos(θ) cos(kθ) sin(θ) sin(kθ) t k 1 (x) = cos(θ) cos(kθ) + sin(θ) sin(kθ), t k+1 (x) = 2xt k (x) t k 1 (x). (18) Vi ser direkte at t 0 (x) = 1 og t 1 (x) = x. Ved rekursjonen finner vi lett videre t 2 (x) = 2x 2 1 t 3 (x) = 4x 3 3x t 4 (x) = 8x 4 8x t 5 (x) = 16x 5 20x 3 + 5x. Vi har tidligere sett at ortogonale polynom alltid har en 3-ledd rekurrens formel. Det motsatte holder faktisk også, hvis vi har en slik rekursjonsformel for polynom, så må de også være ortogonale med hensyn på et indreprodukt. Det er ikke alltid så lett å finne en analytisk formel for dette indreproduktet, men vi skal senere se at Gauss kvadratur er en numerisk utregning av dette som er forholdsvis lett å finne fra rekursjonsformelen. For Chebycheff polynom er indreproduktet velkjent: Lemma 2.4 Chebycheff polynom tilfredstiller følgende ortogonalitetsrelasjon: 1 1 π for k = l = 0 t k (x), t l (x) = t k (x)t l (x) dx = π/2 for k = l x 2 0 for k l. (19) 8

9 Nå skal vi se på nullpunkt og ekstremalvertier for t k (x). Siden cos(θ) oscillerer mellom -1 og 1, har vi det samme for t k (x). Spesielt har vi: ( ) 2l t k (x) = +1 for x = cos k π, l = 0, 1,..., k/2 (20) ( ) 2l + 1 t k (x) = 1 for x = cos π, l = 0, 1,..., (k 1)/2 (21) k ( l + 1 ) 2 t k (x) = 0 for x = cos k π, l = 0, 1,..., k 1. (22) Merk at t k (x) = 2 k 1 x k +, så t k (x)/2 k 1 er monisk (dvs. har koeffisienten 1 foran høyeste x-ledd). Theorem 2.5 Av alle moniske k-te grads polynom q(x) så er minimalisert for q(x) = t k (x)/2 k 1. q(x) = max q(x) x [ 1,1] Proof. Anta det finnes et monisk k-te grads polynom r(x) som er mindre enn q(x) på hele intervallet. Fra (20)- (21) ser vi at q(x) oscillerer mellom ±2 1 k, og ekstremverdiene nås nøyaktig k + 1 ganger på [ 1, 1]. Dermed må r(x) krysse q(x) minst k ganger om det skal være mindre på hele intervallet. Vi konkluderer at r(x) q(x) har minst k nullpunkt. Men siden både q(x) og r(x) er moniske, så er r(x) q(x) av grad høyst k 1, og kan derfor ikke ha k nullpunkt. Vi har vist at en slik r(x) ikke eksisterer. Dette resultatet viser at Chebycheff polynom har en sentral plass i -norm approksimasjoner, og dette er også grunnen til at disse f.eks. er viktige i iterative teknikker for løsning av lineære likninger. Vi nøyer oss her med å se på feilen i polynomisk interpolasjon. Anta at vi skal interpolere en funksjon f(x) i n punkter mellom -1 og 1, der n er stor, f.eks. 6, 7 eller mye høyere. Hvordan bør vi velge disse punktene? Vi vet at interpolasjonsfeilen kan skrives som e(x) = f(x) p(x) = (x x 1 )(x x 2 ) (x x n )f[x 1, x 2,..., x n, x], der f[x 1, x 2,..., x n, x] betegner dividerte differanser. Dersom f er n ganger deriverbar så finnes det alltid et punkt ξ (x 1,..., x n, x) slik at f[x 1,..., x n, x] = 1 d n f(ξ) n! dx n. (23) Interpolasjonsfeilen er dominert av det moniske polynomet q(x) = (x x 1 )(x x 2 ) (x x n ), som oscillerer med voldsomme utslag på endene dersom x i er fordelt med jevn avstand på intervallet. Theorem 2.5 viser at det beste vi kan gjøre med q(x) er å velge x i som nullpunktene til Chebycheff polynomet t n (x). Vi konkluderer med følgende resultat: Theorem 2.6 Gitt en funksjonen f(x) som er n ganger kontinuerlig deriverbar på [ 1, 1]. La p(x) være n 1 grads polynomet som interpolerer f(x) i interpolasjonspunktene valgt som nullpunkt til Chebycheff polynomet t n (x), ( l + 1 ) 2 x l = cos n π, l {0, 1,..., n 1}. Da blir -norm interpolasjonsfeilen f(x) p(x) = 21 n max f(x) p(x) x [ 1,1] n! f(ξ) max ξ [ 1,1] dn dx n = 21 n f (n). (24) n! 9

10 Teoremet generaliserer til vilkårlige intervall [a, b] ved å benytte et lineært skifte av variable, φ(x) = a(1 x) + b(1 + x), 2 som sender 1 a og 1 b. På [a, b] skal vi altså benytte interpolasjonspunktnene x l = φ(x l ). For funksjoner f(x) der alle deriverte er begrenset, ser vi at polynomisk interpolasjon konvergerer i -norm dersom interpolasjonspunktene kommer fra nullpunkt til Chebycheff polynomer. Dette er svært forskjellig fra ekvidistant interpolasjon, der interpolanten hurtig divergerer når antall punkter øker. Ikke bare konvergerer Chebycheff interpolasjon, men den konvergerer også svært fort, raskere enn (1/n) p for alle heltallige p. Denne flotte egenskapen kalles spektral konvergens. Spektralmetoder for løsning av differensiallikninger er et eksempel på et anvendelsesområde der Chebycheff interpolasjon er viktig. Man benytter høy ordens Chebycheff polynom til å representere den numeriske løsningen av likningen. Den nære sammenhengen mellom Chebycheff polynomer og Fourier cosinus rekker gir raske algoritmer, kompleksitet O(n log(n)), for denne typen interpolasjonsproblemer 2. 3 Gauss kvadratur I dette avsnittet skal vi se på numeriske integrasjonsregler med spesielt pene egenskaper. Som motiverende eksempel, se på problemet minste kvadrat approksimasjoner med polynomer: Gitt et indreprodukt f, g = b a f(x)g(x)w(x)dx, og la f = f, f 1 2. Gitt en funksjon f(x). Finn g(x) P n som minimaliserer feilen f(x) g(x). Fra den generelle teorien om minste kvadrat approksimasjoner vet vi at svaret er gitt ved at g(x) er den ortogonale projeksjonen av f(x) ned på P n. Dermed er algoritmen: 1. Finn de ortogonale polynomene p 0 (x), p 1 (x),..., p n (x) ved Algorithm Regn ut g(x) ved n g(x) = p j (x), f(x) p j (x). (25) j=0 I praksis står vi fortsatt overfor et problem, hvordan skal vi regne ut integralene? Når det gjelder integralene i Algorithm 2.2, så antar vi at disse kan regnes ut analytisk, dvs. vi har analytiske uttrykk for b a x k w(x)dw for alle k 0. Dette er vel kjent for mange familier av ortogonale polynomer. Verre er det med p j (x), f(x) = b a p j(x)f(x)w(x)dx. Her må vi i praksis som oftest ty til numeriske utregninger av integralet. Spørsmålet er da hvilken betydning har en numerisk approksimasjon for optimalitets egenskapene til polynomet g(x)? Vi skal se at Gauss kvadratur gir gode svar på disse spørsmålene. For en vilkårlig funksjon f(x), la oss definere det analytiske vektete integral I(f) og en s-punkt numerisk kvadraturformel Q s (f) som i I162 I(f) = Q s (f) = b a f(x)w(x)dx (26) s f(x j )w j, (27) 2 Hurtige Fourier transformasjoner (FFT) er et facinerende emne som vi dessverre ikke har hatt tid til å diskutere 10

11 der {x j } er distinkte nodepunkter og w j er tilsvarende vekter. Vi ønsker å bestemme {x j, w j } s slik at I(xk ) = Q s (x k ) for k = 0, 1,... så høyt opp som mulig. Siden vi har 2s parametre, kan vi håpe på å finne en formel eksakt opp til k = 2s 1. Dersom nodepunktene er kjente distinkte punkter, finner vi vektene w j ved å forlange at det numeriske integralet skal være eksakt for k = 0, 1,..., s 1. Dette gir et lineært likningssystem av Vandermonde type: x 1 x 2 x s x 2 1 x 2 2 x 2 s... x s 1 1 x s 1 2 x s 1 s w 1 w 2.. w s = I 0 I 1.. I s 1, (28) der I k = I(x k ) = b a xk w(x)dx antas analytisk kjent. Bestemmelse av nodepunktene x j gir oss imidlertid et ikke-lineært likningssystem. Gauss fant løsningen på dette: Theorem 3.1 La p 0 (x),..., p s (x) være ortogonale polynom med hensyn på f, g = I(f(x)g(x)). La nodepunktene x j være nullpunktene til p s (x), og la vektene w j være bestemt fra (28). Da er I(x k ) = Q s (x k ) for k = 0, 1,..., 2s 1. Proof. La g(x) P 2s 1 være et vilkårlig polynom. Ved polynomisk divisjon av g(x) med p s (x) finner vi kvotienten q(x) og restleddet r(x) slik at Nå regner vi ut g(x) = p s (x)q(x) + r(x) der q(x), r(x) P s 1. I(g(x)) = I(p s (x)q(x)) + I(r(x)) = p s (x), q(x) + I(r(x)) = I(r(x)), der vi har benyttet at p s (x) er ortogonal på alle laveregrads polynomer. For det numeriske integralet har vi Q s (g(x)) = Q s (p s (x)q(x)) + Q s (r(x)) = s p s (x j )q(x j )w j + Q s (r(x)) = I(r(x)), der vi har benyttet at x j er nullpunkt for p s (x) og at kvadraturformelen i allefall er korrekt for polynomer av grad k s 1. Vi har vist at I(g(x)) = Q s (g(x)) for alle polynomer g(x) av grad 2s 1. Det kan vises at vi må velge nullpunktene til p s (x) som nodepunkt for å oppnå eksakthet til den maksimale grad k = 2s 1, så teoremet gir oss den eneste løsningen. Denne løsningen kalles for en Gauss kvadratur formel. Man henger ofte på navnet på de ortogonale polynomene som er involvert (avhenger av vekt funksjonen), dermed har vi f.eks. Gauss-Legendre kvadratur for tilfellet w(x) = 1 og Gauss-Chebycheff kvadratur for w(x) = (1 x 2 ) 1 2. La oss returnere til problemet med polynomiske minste kvadrat approksimasjoner. Fra en s- punkt Gauss formel Q s ( ) finner vi et diskret indreprodukt f, g s = Q s (f(x)g(x)) = s f(x j )g(x j )w j. (29) Merk at hvis p k (x) og p l (x) er to ortogonale polynom av grad høyst s 1, så er p k (x), p l (x) s = p k (x), p l (x), 11

12 så polynomene er også ortogonale med hensyn på det diskrete indreproduktet. I det polynomiske minste kvadrat problemet kan vi dermed erstatte det kontinuerlige indreproduktet med en diskret s-punkt Gauss formel for en s > n, og vi vet fra den generelle teorien at feilen blir minimal med hensyn på vårt diskrete indreprodukt. Algorithm 3.2 Gitt et indreprodukt f, h = b f(x)h(x)w(x)dx. Gitt en funksjon f(x). Vi ønsker å finne et n-te grads polynom g(x) som minimaliserer feilen f g, f a g. 1. Finn de ortogonale polynomene p 0 (x), p 1 (x),..., p s (x) ved Algorithm 2.2, der s > n. 2. Finn nullpunktene x j til p s (x) ved å regne ut egenverdiene til matrisen T s i (15). 3. Finn vektene w j ved å løse Vandermonde systemet (28). 4. Definer det diskrete indreprodukt f, h s = s f(x j )h(x j )w j. 5. Regn ut g(x) ved n g(x) = p j (x), f(x) s p j (x). (30) j=0 Algoritmen finner polynomet g(x) av grad n som minimaliserer feilen s f(x) g(x) s = f g, f g 1 2 s = f(x j )g(x j )w j målt i den diskrete normen indusert av Gauss kvadratur formelen. Alternativt til å løse et Vandermonde system for å finne vektene w j, så kan vi finne disse direkte fra egenvektorene til den tridiagonale matrisen T s. Vi refererer uten bevis: 1 2, Theorem 3.3 La den 3-diagonale matrisen T s i (15) ha egenverdier x j og egenvektorer y j der y j er normalisert til 2-norm lengde 1, dvs. T s y j = x j y j for j = 1, 2,..., s, y T j y j = s y j (k) 2 = 1. k=1 Da er Gauss nodene egenverdiene til T s og Gauss vektene finnes fra første komponent av egenvektorene som: w j = 2 (y j (1)) 2 for j = 1, 2,..., s. (31) 4 Konklusjoner Jeg håper du gjennom dette notatet har fått et innblikk i det vakre og nyttige i teorien for ortogonale polynom! Det er et facinerende emne som har forgreninger mot en rekke ulike emner i beregningsvitenskap, eksempler er: Minste kvadraters metode. Approksimasjons teori. 12

13 Digital filter teori. Spektralmetoder i løsning av differensiallikninger. Iterative teknikker for løsning av lineære likninger (eks. konjugerte gradienters metode). Iterative teknikker for løsning av store lineære egenverdiproblemer (Lanczos prosessen). Noen av disse temaene vil bli tatt opp i I260, Numerisk lineær algebra, og i andre videregående kurs. 13

Polynomisk interpolasjon

Polynomisk interpolasjon Polynomisk interpolasjon Hans Munthe-Kaas 1. jaunar 2002 Abstract Dette notatet tar for seg interpolasjon med polynomer. Notatet er ment som et tillegg til læreboken i I162, og forsøker å framstille dette

Detaljer

6.4 Gram-Schmidt prosessen

6.4 Gram-Schmidt prosessen 6.4 Gram-Schmidt prosessen La W {0} være et endeligdimensjonalt underrom av R n. (Senere skal vi mer generelt betrakte indreprodukt rom; se seksjon 6.7). Vi skal se hvordan vi kan starte med en vanlig

Detaljer

5.8 Iterative estimater på egenverdier

5.8 Iterative estimater på egenverdier 5.8 Iterative estimater på egenverdier Det finnes ingen eksplisitt formel for beregning av egenverdiene til en kvadratisk matrise. Iterative metoder som finner (ofte) en (meget god) approksimasjon til

Detaljer

Kap. 6 Ortogonalitet og minste kvadraters problemer

Kap. 6 Ortogonalitet og minste kvadraters problemer Kap. 6 Ortogonalitet og minste kvadraters problemer vanlig indreprodukt (prikkprod.) i IR n, egenskaper. ortogonalitet i IR n Pythagoras teorem: u og v i IR n er ortogonale hvis og bare hvis u + v 2 =

Detaljer

6.8 Anvendelser av indreprodukter

6.8 Anvendelser av indreprodukter 6.8 Anvendelser av indreprodukter Vektede minste kvadraters problemer Anta at vi approksimerer en vektor y = (y 1,..., y m ) R m med ŷ = (ŷ 1,..., ŷ m ) R m. Et mål for feilen vi da gjør er y ŷ, der betegner

Detaljer

UNIVERSITETET I OSLO

UNIVERSITETET I OSLO UNIVERSITETET I OSLO Det matematisk-naturvitenskapelige fakultet Eksamen i: MAT 0 Lineær algebra Eksamensdag: Mandag 0. desember 0 Tid for eksamen: 4.30 8.30. Oppgavesettet er på 7 sider. Vedlegg: Tillatte

Detaljer

Newtons interpolasjon og dividerte differanser

Newtons interpolasjon og dividerte differanser Newtons interpolasjon og dividerte differanser Gitt (x i, y i ), for i = 0, 1,..., n, Newtons basis funksjoner er definert som 1/16 j 1 π j (x) = (x x 0 )(x x 1 ) (x x j 1 ) = (x x k ) for j = 1,..., n

Detaljer

UNIVERSITETET I OSLO

UNIVERSITETET I OSLO UNIVERSITETET I OSLO Det matematisk-naturvitenskapelige fakultet Eksamen i: MAT 1120 Lineær algebra Eksamensdag: Mandag 5 desember 2016 Tid for eksamen: 09.00 13.00 Oppgavesettet er på 6 sider. Vedlegg:

Detaljer

MAT1120 Notat 2 Tillegg til avsnitt 5.4

MAT1120 Notat 2 Tillegg til avsnitt 5.4 MAT1120 Notat 2 Tillegg til avsnitt 54 Dette notatet utfyller bokas avsnitt 54 om matriserepresentasjonen (også kalt koordinatmatrisen) til en lineær avbildning mellom to endeligdimensjonale vektorrom

Detaljer

UNIVERSITET I BERGEN

UNIVERSITET I BERGEN UNIVERSITET I BERGEN Det matematisk-naturvitenskapelige fakultet BOKMÅL Løsningsforslag eksamen MAT - Lineær algebra H Med forbehold om skrivefeil. Oppgave. Betrakt A = 6 5, b = 6 b (a) (b) Finn den reduserte

Detaljer

Kap. 6 Ortogonalitet og minste kvadrater

Kap. 6 Ortogonalitet og minste kvadrater Kap. 6 Ortogonalitet og minste kvadrater IR n er mer enn bare et vektorrom: den har et naturlig indreprodukt, nemlig prikkproduktet av vektorer. Dette indreproduktet gjør det mulig å tenke geometrisk og

Detaljer

UNIVERSITETET I OSLO

UNIVERSITETET I OSLO UNIVERSITETET I OSLO Det matematisk-naturvitenskapelige fakultet Eksamen i: MAT Lineær algebra Eksamensdag: Mandag,. desember 7. Tid for eksamen: 4. 8.. Oppgavesettet er på 8 sider. Vedlegg: Tillatte hjelpemidler:

Detaljer

6.4 (og 6.7) Gram-Schmidt prosessen

6.4 (og 6.7) Gram-Schmidt prosessen 6.4 (og 6.7) Gram-Schmidt prosessen La W {0} være et endeligdimensjonalt underrom av et indreprodukt rom V. Man kan starte med en vanlig basis for W og konstruere en ortogonal basis for W. Ønskes det en

Detaljer

MAT1120 Notat 2 Tillegg til avsnitt 5.4

MAT1120 Notat 2 Tillegg til avsnitt 5.4 MAT1120 Notat 2 Tillegg til avsnitt 54 Dette notatet utfyller bokas avsnitt 54 om matriserepresentasjoner (også kalt koordinatmatriser) av lineære avbildninger mellom endeligdimensjonale vektorrom En slik

Detaljer

UNIVERSITY OF OSLO. Faculty of Mathematics and Natural Sciences. Matlab-utskrift (1 side).

UNIVERSITY OF OSLO. Faculty of Mathematics and Natural Sciences. Matlab-utskrift (1 side). UNIVERSITY OF OSLO Faculty of Mathematics and Natural Sciences Examination in: MAT 2 Lineær algebra Day of examination: 9. desember 2. Examination hours: 4.3 8.3. This problem set consists of 6 pages.

Detaljer

TMA4110 Matematikk 3 Eksamen høsten 2018 Løsning Side 1 av 9. Løsningsforslag. Vi setter opp totalmatrisen og gausseliminerer:

TMA4110 Matematikk 3 Eksamen høsten 2018 Løsning Side 1 av 9. Løsningsforslag. Vi setter opp totalmatrisen og gausseliminerer: TMA4 Matematikk 3 Eksamen høsten 8 Løsning Side av 9 Løsningsforslag Oppgave Vi setter opp totalmatrisen og gausseliminerer: 8 5 4 8 3 36 8 4 8 8 8 Den siste matrisen her er på redusert trappeform, og

Detaljer

6.5 Minste kvadraters problemer

6.5 Minste kvadraters problemer 6.5 Minste kvadraters problemer I mange anvendte situasjoner møter man lineære likningssystemer som er inkonsistente, dvs. uten løsninger, samtidig som man gjerne skulle ha funnet en løsning. Hva gjør

Detaljer

Et forsøk på et oppslagsverk for TMA4145 Lineære metoder

Et forsøk på et oppslagsverk for TMA4145 Lineære metoder Et forsøk på et oppslagsverk for TMA4145 Lineære metoder Ruben Spaans May 21, 2009 1 Oppslagsverk Adjungert Ball, la (X, d) være et metrisk rom og la ɛ > 0. Da er for x 0 X: 1. B(x 0 ; ɛ) = {x x X d(x,

Detaljer

8 Interpolasjon TMA4125 våren 2019

8 Interpolasjon TMA4125 våren 2019 8 Interpolasjon TMA4 våren 9 Fra M husker du at dersom x i er n + forskjellige punkter på x-aksen med korresponderende y-verdier y i, finnes det et entydig polynom av maksimal grad n som interpolerer punktene

Detaljer

3.9 Teori og praksis for Minste kvadraters metode.

3.9 Teori og praksis for Minste kvadraters metode. 3.9 Teori og praksis for Minste kvadraters metode. Vi fortsetter med minste kvadraters problem. Nå skal vi se nærmere på noen teoretiske spørsmål, bl.a. hvordan normallikningene utledes. Minner om MK problemstillingen:

Detaljer

EKSAMEN I MA1202 LINEÆR ALGEBRA MED ANVENDELSER

EKSAMEN I MA1202 LINEÆR ALGEBRA MED ANVENDELSER Norges teknisk naturvitenskapelige universitet Institutt for matematiske fag Side 1 av 10 Faglig kontakt under eksamen: Truls Fretland (73 55 89 87) EKSAMEN I MA1202 LINEÆR ALGEBRA MED ANVENDELSER LØSNINGSFORSLAG

Detaljer

Elementære eliminasjonsmatriser

Elementære eliminasjonsmatriser Elementære eliminasjonsmatriser Gitt en vektor a = [a 1,..., a n ] T, en matrise 1 0 0 0.......... M k = 0 1 0 0 0 a k+1 a k 1 0, a k 0,.......... 0 an a k 0 1 kalles elementære eliminasjonsmatriser eller

Detaljer

Vi skal koble diagonalisering av matriser sammen med ortogonalitet. Skal bl.a. se på

Vi skal koble diagonalisering av matriser sammen med ortogonalitet. Skal bl.a. se på Kap. 7 Innledning Vi skal koble diagonalisering av matriser sammen med ortogonalitet. Skal bl.a. se på Symmetriske matriser. Disse matrisene har uvanlig pene egenskaper mht. diagonalisering. Kvadratiske

Detaljer

Lineære likningssystemer

Lineære likningssystemer Lineære likningssystemer Mange fysiske problemer kan formuleres som lineære likningssystemer i vektorrommet, 1/19 Lu = f Lineær: betyr at virkningen av L på u + v er L(u + v) = Lu + Lv, og skaleres som

Detaljer

12 Projeksjon TMA4110 høsten 2018

12 Projeksjon TMA4110 høsten 2018 Projeksjon TMA0 høsten 08 En projeksjon er en lineærtransformasjon P som tilfredsstiller P x = P x for alle x Denne ligningen sier at intet nytt skjer om du benytter lineærtransformasjonen for andre gang,

Detaljer

Kap. 7 Symmetriske matriser og kvadratiske former

Kap. 7 Symmetriske matriser og kvadratiske former Kap. 7 Symmetriske matriser og kvadratiske former Vi skal koble diagonalisering av matriser sammen med ortogonalitet. Skal bl.a. se på symmetriske matriser som har uvanlig pene egenskaper mht. diagonalisering.

Detaljer

EKSAMEN I NUMERISK LINEÆR ALGEBRA (TMA4205)

EKSAMEN I NUMERISK LINEÆR ALGEBRA (TMA4205) Norges teknisk naturvitenskapelige universitet Institutt for matematiske fag Side av 6 Kontakt under eksamen Navn: Bawfeh Kingsley Kometa kontor: 7359975, mobil: 936 24 483) Sensur: 06.0.20 EKSAMEN I NUMERISK

Detaljer

7.4 Singulærverdi dekomposisjonen

7.4 Singulærverdi dekomposisjonen 7.4 Singulærverdi dekomposisjonen Singulærverdi dekomposisjon til en matrise A er en av de viktigste faktoriseringene av A (dvs. A skrives som et produkt av matriser). Den inneholder nyttig informasjon

Detaljer

UNIVERSITETET I OSLO

UNIVERSITETET I OSLO UNIVERSITETET I OSLO Det matematisk-naturvitenskapelige fakultet Eksamen i: MAT 1120 Lineær algebra Eksamensdag: 9. desember 2014. Tid for eksamen: 14.30 18.30. Oppgavesettet er på 6 sider. Vedlegg: Tillatte

Detaljer

Løsningsforslag MAT 120B, høsten 2001

Løsningsforslag MAT 120B, høsten 2001 Løsningsforslag MAT B, høsten Sett A = ( ) (a) Finn egenverdiene og egenvektorene til A ( ) λ =, e = ( λ =, e = ) (b) Finn matrisen e ta og den generelle løsningen på initialverdiproblemet Ẋ = AX, X()

Detaljer

16 Ortogonal diagonalisering

16 Ortogonal diagonalisering Ortogonal diagonalisering Ortogonale matriser Definisjon (Def 7) En n n matrise A kalles ortogonal dersom den er invertibel og A A T Denne betingelsen er ekvivalent til at der I n er n n identitesmatrisen

Detaljer

Oppgave 14 til 9. desember: I polynomiringen K[x, y] i de to variable x og y over kroppen K definerer vi undermengdene:

Oppgave 14 til 9. desember: I polynomiringen K[x, y] i de to variable x og y over kroppen K definerer vi undermengdene: HJEMMEOPPGAVER utgave av 8-12-2002): Oppgave 15 til 16 desember: La H være mengden av alle matriser på formen A = a 1 a 12 a 13 a 1n 0 a 2 0 0 0 0 a 3 0 0 0 a n der a 1 a 2 a n 0 Videre la SH være matrisene

Detaljer

A.3.e: Ortogonale egenfunksjonssett

A.3.e: Ortogonale egenfunksjonssett TFY4250/FY2045 Tillegg 2 1 Tillegg 2: A.3.e: Ortogonale egenfunksjonssett Ikke-degenererte egenverdier La oss først anta at en operator ˆF har et diskret og ikke-degeneret spektrum. Det siste betyr at

Detaljer

EKSAMEN I EMNET Løsning: Mat Grunnkurs i Matematikk I Mandag 14. desember 2015 Tid: 09:00 14:00

EKSAMEN I EMNET Løsning: Mat Grunnkurs i Matematikk I Mandag 14. desember 2015 Tid: 09:00 14:00 Universitetet i Bergen Det matematisk naturvitenskapelige fakultet Matematisk institutt Side 1 av 7 BOKMÅL EKSAMEN I EMNET Mat 111 - Grunnkurs i Matematikk I Mandag 14. desember 15 Tid: 9: 14: Tillatte

Detaljer

Løsningsforslag øving 6

Løsningsforslag øving 6 Løsningsforslag øving 6 7 Husk Teorem 79 i notatet: En delmengde U av et vektorrom V er et underrom hvis ) nullvektoren er i U, ) summen av to vektorer i U er i U igjen, og 3) et skalarmultiplum av en

Detaljer

Løsningsforslag til eksamen i MA1202/MA6202 Lineær algebra med anvendelser høsten 2009.

Løsningsforslag til eksamen i MA1202/MA6202 Lineær algebra med anvendelser høsten 2009. Norges teknisk naturvitenskapelige universitet Institutt for matematiske fag Side av 9 Løsningsforslag til eksamen i MA/MA6 Lineær algebra med anvendelser høsten 9 Oppgave a) Rangen til A er lik antallet

Detaljer

5.5 Komplekse egenverdier

5.5 Komplekse egenverdier 5.5 Komplekse egenverdier Mange reelle n n matriser har komplekse egenverdier. Vi skal tolke slike matriser når n = 2. Ved å bytte ut R med C kan man snakke om komplekse vektorrom, komplekse matriser,

Detaljer

Repetisjon: Om avsn og kap. 3 i Lay

Repetisjon: Om avsn og kap. 3 i Lay Repetisjon: Om avsn. 2.1-2.4 og kap. 3 i Lay Matrisemultiplikasjon. La A = [a ij ] være en m n matrise og B = [b kl ] være en n p matrise. ] Skriv B = [b 1 b 2 b p. Produktet AB er m p matrisen definert

Detaljer

MA2501, Vårsemestre 2019, Numeriske metoder for lineære systemer

MA2501, Vårsemestre 2019, Numeriske metoder for lineære systemer MA5 Vårsemestre 9 Numeriske metoder for lineære systemer Introduksjon Vi vil approksimere løsningen av lineære systemet av n ligningene og n ukjente: a x + a x + + a n x n b a x + a x + + a n x n b ()

Detaljer

Løsning Eksamensrelevante oppgaver i ELE 3719 Matematikk Vektorer, matriser og lineær algebra Dato Februar Oppgave 1. (A) Vi leser av at

Løsning Eksamensrelevante oppgaver i ELE 3719 Matematikk Vektorer, matriser og lineær algebra Dato Februar Oppgave 1. (A) Vi leser av at Løsning Eksamensrelevante oppgaver i ELE 379 Matematikk Vektorer, matriser og lineær algebra Dato Februar 05 Oppgave. (A) Vi leser av at A = 3 5, B = ( 0 5 ), C = 0 5 9 og har dermed at π x = Ax + BT =

Detaljer

MAT-1004 Vårsemester 2017 Prøveeksamen

MAT-1004 Vårsemester 2017 Prøveeksamen MAT-4 Vårsemester 7 Prøveeksamen Contents. Forord................................. OPPGAVE OPPGAVE OPPGAVE 7 4 OPPGAVE 8 OPPGAVE 6 OPPGAVE 7 OPPGAVE 8 OPPGAVE 9 Formatering av svarene 4 9. Rasjonale tall.............................

Detaljer

TMA4110 Eksamen høsten 2018 EKSEMPEL 1 Løsning Side 1 av 8. Løsningsforslag. Vi setter opp totalmatrisen og gausseliminerer: x 1 7x 4 = 0

TMA4110 Eksamen høsten 2018 EKSEMPEL 1 Løsning Side 1 av 8. Løsningsforslag. Vi setter opp totalmatrisen og gausseliminerer: x 1 7x 4 = 0 TMA4 Eksamen høsten 28 EKSEMPEL Løsning Side av 8 Løsningsforslag Oppgave Vi setter opp totalmatrisen og gausseliminerer: 2 2 2 4 2 6 2 4 2 6 2 2 Dette gir likningene og 2 2 4 2 6 7 2. x 7x 4 = x 2 + 2x

Detaljer

Opp til nå har problemstilling vart: Gitt en funksjon f, finn for hvilket verdier av de variabler f tar en bestemt verdi. Ax = b, f(x) = 0.

Opp til nå har problemstilling vart: Gitt en funksjon f, finn for hvilket verdier av de variabler f tar en bestemt verdi. Ax = b, f(x) = 0. Interpolasjon Opp til nå har problemstilling vart: Gitt en funksjon f, finn for hvilket verdier av de variabler f tar en bestemt verdi. 1/9 Ax = b, f(x) = 0. Ved interpolasjon, er problemet det motsatte:

Detaljer

Dagens mål. Det matematiske fundamentet til den diskrete Fourier-transformen Supplement til forelesning 8 INF Digital bildebehandling

Dagens mål. Det matematiske fundamentet til den diskrete Fourier-transformen Supplement til forelesning 8 INF Digital bildebehandling Dagens mål Det matematiske fundamentet til den diskrete Fourier-transformen Supplement til forelesning 8 IF2310 - Digital bildebehandling Ole Marius Hoel Rindal, slides av Andreas Kleppe Dagens mål Forstå

Detaljer

Eksamensoppgave i TMA4115 Matematikk 3

Eksamensoppgave i TMA4115 Matematikk 3 Institutt for matematiske fag Eksamensoppgave i TMA45 Matematikk 3 Faglig kontakt under eksamen: Aslak Bakke Buan a, Morten Andreas Nome b, Tjerand Silde c Tlf: a mobil Aslak, b mobil Morten, c mobil Tjerand

Detaljer

Eksamen i TMA4123/TMA4125 Matematikk 4M/N

Eksamen i TMA4123/TMA4125 Matematikk 4M/N Norges teknisk naturvitenskapelige universitet Institutt for matematiske fag Side av 7 Faglig kontakt under eksamen: Anne Kværnø: mobil 92663824 Eksamen i TMA423/TMA425 Matematikk 4M/N Bokmål Mandag 2.

Detaljer

Til enhver m n matrise A kan vi knytte et tall, rangen til A, som gir viktig informasjon.

Til enhver m n matrise A kan vi knytte et tall, rangen til A, som gir viktig informasjon. 4.6 Rang Til enhver m n matrise A kan vi knytte et tall, rangen til A, som gir viktig informasjon. Definisjon: Rangen til en m n matrise A betegnes med rank A og er definert som dimensjonen til kolonnerommet

Detaljer

UNIVERSITETET I OSLO

UNIVERSITETET I OSLO UNIVERSITETET I OSLO Det matematisk-naturvitenskapelige fakultet Ny/utsatt eksamen i Eksamensdag: 9. august 2. Tid for eksamen: 9 2. Oppgavesettet er på 8 sider. Vedlegg: Tillatte hjelpemidler: MAT Kalkulus

Detaljer

Diagonalisering. Kapittel 10

Diagonalisering. Kapittel 10 Kapittel Diagonalisering I te kapitlet skal vi anvende vår kunnskap om egenverdier og egenvektorer til å analysere matriser og deres tilsvarende lineærtransformasjoner Eksempel Vi begynner med et eksempel

Detaljer

6.6 Anvendelser på lineære modeller

6.6 Anvendelser på lineære modeller 6.6 Anvendelser på lineære modeller Skal først se på lineær regresjon for gitte punkter i planet: det kan formuleres og løses som et minste kvadraters problem! I mere generelle lineære modeller er man

Detaljer

Newtons metode. Gitt f(x) slik at f(a)f(b) < 0, Newtons metode genererer en følge {x k }, hvor. (Newton Raphson) x k+1 = x k f(x k) f (x k )

Newtons metode. Gitt f(x) slik at f(a)f(b) < 0, Newtons metode genererer en følge {x k }, hvor. (Newton Raphson) x k+1 = x k f(x k) f (x k ) Newtons metode 1/15 Gitt f(x) slik at f(a)f(b) < 0, Newtons metode genererer en følge {x k }, hvor x k+1 = x k f(x k) f (x k ) x 0 [a, b] gitt. (Newton Raphson) y=f(x) x k+1 x k Konvergens: Iterasjons

Detaljer

UNIVERSITETET I OSLO

UNIVERSITETET I OSLO UNIVERSITETET I OSLO Det matematisk-naturvitenskapelige fakultet Eksamen i MAT-INF 1100 Modellering og beregninger. Eksamensdag: Fredag 7. januar 2005. Tid for eksamen: 14:30 17:30. Oppgavesettet er på

Detaljer

Løsningsforslag til eksamen i MA1202/MA6202 Lineær algebra med anvendelser våren 2009.

Løsningsforslag til eksamen i MA1202/MA6202 Lineær algebra med anvendelser våren 2009. Norges teknisk naturvitenskapelige universitet Institutt for matematiske fag Side av Løsningsforslag til eksamen i MA22/MA622 Lineær algebra med anvendelser våren 29 Oppgave a) Rangen til A er lik antallet

Detaljer

Løsninger for eksamen i MAT Lineær algebra og M102 - Lineær algebra, fredag 28. mai 2004, Oppgave 1. M s = = 1 2 (cofm 2) T.

Løsninger for eksamen i MAT Lineær algebra og M102 - Lineær algebra, fredag 28. mai 2004, Oppgave 1. M s = = 1 2 (cofm 2) T. Løsninger for eksamen i MAT - Lineær algebra og M - Lineær algebra, fredag 8. mai 4, (a) Finn determinanten til matrisen M s = Oppgave s uttrykt ved s, og bruk dette til å avgjøre for hvilke s matrisen

Detaljer

9 Lineærtransformasjoner TMA4110 høsten 2018

9 Lineærtransformasjoner TMA4110 høsten 2018 9 Lineærtransformasjoner MA4 høsten 8 I forrige kapittel begynte vi å formulere lineær algebra på en generell måte, ved å gi en abstrakt definisjon av vektorrom For å beskrive sammenhenger mellom forskjellige

Detaljer

MA2501 Numeriske metoder

MA2501 Numeriske metoder MA2501 Numeriske metoder Løsningsforslag, øving 7 Oppgave 1 a) Vi vet at r = Ae e = A 1 r. La være en vektornorm på R n med en tilhørende avledet (subordinat) matrisenorm på R n n. Siden blir Ax A = sup

Detaljer

MA2501 Numeriske metoder

MA2501 Numeriske metoder MA250 Numeriske metoder Oppgave Løsningsforslag, øving 7 a) Vi vet at r = Ae e = A r. La være en vektornorm på R n med en tilhørende avledet (subordinat) matrisenorm på R n n. Siden blir Ax A = sup Ax

Detaljer

15 Hovedprinsippet for vektorrom med et indre produkt

15 Hovedprinsippet for vektorrom med et indre produkt Hovedprinsippet for vektorrom med et indre produkt La oss minne Hovedprinsippet (Seksjon 8.): Alle (endelig dimensjonale dvs. de som har en endelig basis) vektorrom kan beskrives som R n der n dim V. Alle

Detaljer

Computers in Technology Education

Computers in Technology Education Computers in Technology Education Beregningsorientert matematikk ved Høgskolen i Oslo Skisse til samlet innhold i MAT1 og MAT2 JOHN HAUGAN Både NTNU og UiO har en god del repetisjon av videregående skoles

Detaljer

MA1202/MA S løsningsskisse

MA1202/MA S løsningsskisse Norges teknisk naturvitenskapelige universitet Institutt for matematiske fag MA0/MA0 0S løsningsskisse Rettet. august 0 Oppgave a) Vi finner det karakteristiske polynomet, λ 0 λ λ λ λ detλi A) λ 0 λ λ

Detaljer

Lineærtransformasjoner

Lineærtransformasjoner Kapittel 8 Lineærtransformasjoner I forrige kapittel begynte vi å formulere lineær algebra på en generell måte, ved å gi en abstrakt definisjon av vektorrom For å beskrive sammenhenger mellom forskjellige

Detaljer

4.1 Vektorrom og underrom

4.1 Vektorrom og underrom 4.1 Vektorrom og underrom Vektorrom er en abstraksjon av R n. De kan brukes til å utlede egenskaper, resultater og metoder for tilsynelatende svært ulike klasser av objekter : n-tupler, følger, funksjoner,

Detaljer

Litt om numerisk integrasjon og derivasjon og løsningsforslag til noen ekstraoppgaver MAT-INF 1100 uke 48 (22/11-26/11)

Litt om numerisk integrasjon og derivasjon og løsningsforslag til noen ekstraoppgaver MAT-INF 1100 uke 48 (22/11-26/11) Litt om numerisk integrasjon og derivasjon og løsningsforslag til noen ekstraoppgaver MAT-INF 1100 uke 48 (22/11-26/11) Knut Mørken 22. november 2004 Vi har tidligere i kurset sett litt på numerisk derivasjon

Detaljer

Sensitivitet og kondisjonering

Sensitivitet og kondisjonering Sensitivitet og kondisjonering Gitt en lineær likningssystem Ax = b vi skal studere effekten av perturbasjoner av input data: 1/19 på output data: Man kan A, b x perturbere bare b perturbere b og A samtidig.

Detaljer

Egenverdier for 2 2 matriser

Egenverdier for 2 2 matriser Egenverdier for matriser (Bearbeidet versjon av tidligere notat på nett-sidene til MA101 - Lineær algebra og geometri Versjon oppdatert med referanser til 10utg av læreboken) Egenvektorer og egenverdier

Detaljer

Eksamensoppgave i TMA4110/TMA4115 Calculus 3

Eksamensoppgave i TMA4110/TMA4115 Calculus 3 Institutt for matematiske fag Eksamensoppgave i TMA4110/TMA4115 Calculus 3 Faglig kontakt under eksamen: Markus Szymik Tlf: 411 16 793 Eksamensdato: August 2018 Eksamenstid (fra til): 09:00 13:00 Hjelpemiddelkode/Tillatte

Detaljer

Løsningsforslag. Oppgave 1 Gitt matrisene ] [ og C = A = 4 1 B = 2 1 3

Løsningsforslag. Oppgave 1 Gitt matrisene ] [ og C = A = 4 1 B = 2 1 3 Prøve i Matematikk BYFE DAFE Dato: 27. mai 26 Hjelpemiddel: Kalkulator og formelark Alle svar skal grunngis. Alle deloppgaver har lik vekt. Løsningsforslag Oppgave Gitt matrisene [ 2 A 4 B [ 2 og C [ 2

Detaljer

Lineær algebra. 0.1 Vektorrom

Lineær algebra. 0.1 Vektorrom Lineær algebra Siden dette temaet er alt for stort til å kunne gjennomgås på en halvtime, med alle de teoremene og denisjonene som skal til, har jeg laget dette notatet. Det bygger hovedsakelig på notatene

Detaljer

Emne 10 Litt mer om matriser, noen anvendelser

Emne 10 Litt mer om matriser, noen anvendelser Emne 10 Litt mer om matriser, noen anvendelser (Reelle) ortogonale matriser La A være en reell, kvadratisk matrise, dvs. en (n n)-matrise hvor hvert element Da vil A være ortogonal dersom: og Med menes

Detaljer

MAT1120 Repetisjon Kap. 1, 2 og 3

MAT1120 Repetisjon Kap. 1, 2 og 3 MAT1120 Repetisjon Kap. 1, 2 og 3 Kap. 1, avsn. 2.1-2.3 og kap. 3 i Lays bok er for det meste kjent fra MAT1100 og MAT1110. Fra kap. 1 repeterer vi: Matriser Vektorer og lineære kombinasjoner Lineæravbildninger

Detaljer

Løsningsforslag øving 7

Løsningsforslag øving 7 Løsningsforslag øving 7 8 Husk at en funksjon er injektiv dersom x y gir f(x) f(y), men her ser vi at f(3) 9 f( 3), eller generelt at f(z) z f( z) for alle z C, som betyr at f ikke er injektiv Vi ser også

Detaljer

Lineær algebra-oppsummering

Lineær algebra-oppsummering Kapittel 9 Lineær algebra-oppsummering Matriser 1 Matriser er et rektangulært sett av elementer ordnet i rekker og kolonner: a 11 a 12 a 1n a 21 a 22 a 2n A = = [a ij m n a m1 a n2 a mn 2 Kvadratisk matrise:

Detaljer

7.1 forts. Schur triangularisering og spektralteoremet

7.1 forts. Schur triangularisering og spektralteoremet 7.1 forts. Schur triangularisering og spektralteoremet Vi skal vise to svært sentrale resultat i lineær algebra. Spektralteoremet (Teorem 3 i Lay): dette sier bl.a. at reelle symmetriske matriser er ortogonalt

Detaljer

MAT-1004 Vårsemester 2017 Prøveeksamen

MAT-1004 Vårsemester 2017 Prøveeksamen MAT-1004 Vårsemester 017 Prøveeksamen Contents 0.1 Forord................................. 1 1 OPPGAVE OPPGAVE OPPGAVE 6 4 OPPGAVE 7 5 OPPGAVE 10 6 OPPGAVE 11 7 OPPGAVE 11 8 OPPGAVE 1 9 Formatering av

Detaljer

Sammendrag R2. www.kalkulus.no. 31. mai 2009

Sammendrag R2. www.kalkulus.no. 31. mai 2009 Sammendrag R2 www.kalkulus.no 31. mai 2009 1 1 Trigonometri Definisjon av sinus og cosinus Sirkelen med sentrum i origo og radius 1 kalles enhetssirkelen. La v være en vinkel i grunnstilling, og la P være

Detaljer

4.4 Koordinatsystemer

4.4 Koordinatsystemer 4.4 Koordinatsystemer Minner om at B = { b 1, b 2,..., b n } V kalles en basis for et vektorrom V dersom B er lineært uavhengig og B utspenner V. I samme vektorrom kan vi innføre ulike koordinatsystemer

Detaljer

4.1 Vektorrom og underrom

4.1 Vektorrom og underrom 4.1 Vektorrom og underrom Vektorrom er en abstraksjon av R n. Kan brukes til å utlede egenskaper, resultater og metoder for tilsynelatende svært ulike klasser av objekter : n-tupler, følger, funksjoner,

Detaljer

Det matematisk-naturvitenskapelige fakultet

Det matematisk-naturvitenskapelige fakultet UNIVERSITETET I OSLO Det matematisk-naturvitenskapelige fakultet Eksamen i IN 227 Numerisk lineær algebra Eksamensdag: 5. desember 2001 Tid for eksamen: 9.00 15.00 Oppgavesettet er på 5 sider. Vedlegg:

Detaljer

EKSAMENSOPPGAVER FOR TMA4110/TMA4115 MATEMATIKK 3

EKSAMENSOPPGAVER FOR TMA4110/TMA4115 MATEMATIKK 3 Norges teknisk naturvitenskapelige universitet Institutt for matematiske fag Side av 25 2. januar 25 EKSAMENSOPPGAVER FOR TMA4/TMA45 MATEMATIKK 3 Oppgave A- a) Finn kvadratrøttene til det komplekse tallet

Detaljer

LP. Leksjon 8: Kapittel 13: Nettverk strøm problemer, forts.1

LP. Leksjon 8: Kapittel 13: Nettverk strøm problemer, forts.1 LP. Leksjon 8: Kapittel 13: Nettverk strøm problemer, forts.1 Vi fortsetter studiet av (MKS): minimum kost nettverk strøm problemet. Har nå en algoritme for beregning av x for gitt spenntre T Skal forklare

Detaljer

MAT Grublegruppen Notat 6

MAT Grublegruppen Notat 6 MAT00 - Grublegruppen Notat 6 Jørgen O. Lye Vektorrom og indreprodukt Vektorrom Vi trenger å si litt om vektorrom og indreprodukt for å formulere Fourierrekker. Denisjonen av vektorrom kan man tenke på

Detaljer

4.2 Nullrom, kolonnerom og lineære transformasjoner

4.2 Nullrom, kolonnerom og lineære transformasjoner 4.2 Nullrom, kolonnerom og lineære transformasjoner Utover Span {v 1, v 2,..., v p } er det en annen måte vi får lineære underrom på! Ser nå på V = R n. Skal se at det er visse underrom knyttet til en

Detaljer

TMA4120 Matematikk 4K Høst 2015

TMA4120 Matematikk 4K Høst 2015 Norges teknisk naturvitenskapelige universitet Institutt for matematiske fag TMA41 Matematikk 4K Høst 15 Chapter 6.7 Systemer av ODE. Vi bruker L t} 1 s, L e at f(t } F (s a 6.7:9 Løs IVP. y 1 y 1 + y,

Detaljer

Minste kvadraters løsning, Symmetriske matriser

Minste kvadraters løsning, Symmetriske matriser Minste kvadraters løsning, Symmetriske matriser NTNU, Institutt for matematiske fag 19. november 2013 Inkonsistent ligningsystem Anta at Ax = b er et inkonsistent ligningsystem, da er b ikke i Col(A).

Detaljer

Eksamensoppgave MAT juni 2010 (med løsningsforslag)

Eksamensoppgave MAT juni 2010 (med løsningsforslag) Eksamensoppgave MAT-4 juni (med løsningsforslag) Contents OPPGAVE OPPGAVE 4 OPPGAVE 5 4 OPPGAVE 6 5 Fasit 7 5 Oppgave 7 5 Oppgave 7 5 Oppgave 8 54 Oppgave 8 6 Løsningsforslag 9 6 Oppgave 9 6 Oppgave 6

Detaljer

UNIVERSITETET I OSLO

UNIVERSITETET I OSLO UNIVERSITETET I OSLO Det matematisk-naturvitenskapelige fakultet Eksamen i: MAT Kalkulus og lineær algebra Eksamensdag: Onsdag 9 mai 9 Tid for eksamen: 4:3 8:3 Oppgavesettet er på 7 sider Vedlegg: Tillatte

Detaljer

MAT jan jan feb MAT Våren 2010

MAT jan jan feb MAT Våren 2010 MAT 1012 Våren 2010 Mandag 25. januar 2010 Forelesning Vi fortsetter med å se på det bestemte integralet, bl.a. på hvordan vi kan bruke numeriske beregninger til å bestemme verdien når vi ikke nødvendigvis

Detaljer

Eksamensoppgave i TMA4320 Introduksjon til vitenskapelige beregninger

Eksamensoppgave i TMA4320 Introduksjon til vitenskapelige beregninger Institutt for matematiske fag Eksamensoppgave i TMA4320 Introduksjon til vitenskapelige beregninger Faglig kontakt under eksamen: Anton Evgrafov Tlf: 4503 0163 Eksamensdato: 06. juni 2016 Eksamenstid (fra

Detaljer

Eksamen i TMA4122 Matematikk 4M

Eksamen i TMA4122 Matematikk 4M Norges teknisk naturvitenskapelige universitet Institutt for matematiske fag Side av 6 Faglig kontakt under eksamen: Yura Lyubarskii: mobil 9647362 Anne Kværnø: mobil 92663824 Eksamen i TMA422 Matematikk

Detaljer

MAT Prøveeksamen 29. mai - Løsningsforslag

MAT Prøveeksamen 29. mai - Løsningsforslag MAT0 - Prøveeksamen 9 mai - Løsningsforslag Oppgave Sett A = 4 4 0 x 0, x = x, b =, x 0 og la v, v, v betegne kolonnevektorene til A a) Skriv A x = y som en vektorlikning x Svar : Siden A x = [v v v ]

Detaljer

Løsningsforslag for eksamen i Matematikk 3 - TMA4115

Løsningsforslag for eksamen i Matematikk 3 - TMA4115 Norges teknisk naturvitenskapelige universitet Institutt for matematiske fag Løsningsforslag for eksamen i Matematikk 3 - TMA4115 Vår 1 1 a) La z = x iy. Da er Re z = x og z = x y. Siden y er et reelt

Detaljer

= 3 11 = = 6 4 = 1.

= 3 11 = = 6 4 = 1. MAT3000/4000 Eksamen V3 Løsningsforslag Oppgave [0 poeng] Sjekk at 3 er en kvadratisk rest i Z/(3) og finn løsningene av likningen x = 3 i Z/(3) (uten å lage en tabell for x ) Du får lov til å bruke at

Detaljer

Løsningsforslag, Ma-2610, 18. februar 2004

Løsningsforslag, Ma-2610, 18. februar 2004 Løsningsforslag, Ma-60, 8. februar 004 For sensor og kandidater.. Lineær uavhengighet Avgjør hvorvidt de følgende funksjonene er lineært uavhengige på den reelle tallinja: f(x) x g(x) 3x h(x) 5x 8x Svaralternativ

Detaljer

EKSAMEN I NUMERISK LØSNING AV DIFFERENSIALLIGNINGER MED DIFFERANSEMETODER (TMA4212)

EKSAMEN I NUMERISK LØSNING AV DIFFERENSIALLIGNINGER MED DIFFERANSEMETODER (TMA4212) Norges teknisk naturvitenskapelige universitet Institutt for matematiske fag Side av 6 Faglig kontakt under eksamen: Navn: Brynjulf Owren (964) EKSAMEN I NUMERISK LØSNING AV DIFFERENSIALLIGNINGER MED DIFFERANSEMETODER

Detaljer

A 2 = PDP 1 PDP 1 = PD 2 P 1. og ved induksjon får vi. A k = PD k P 1. Kommentarer:

A 2 = PDP 1 PDP 1 = PD 2 P 1. og ved induksjon får vi. A k = PD k P 1. Kommentarer: 5.3 Diagonalisering Det ville være fint om en matrise A var similær med en diagonalmatrise D: da har vi funnet egenverdiene, og kan f.eks. lett beregne A k. Når er dette tilfelle? Det er tema i denne seksjonen.

Detaljer

Sammendrag R1. Sandnes VGS 19. august 2009

Sammendrag R1. Sandnes VGS 19. august 2009 Sammendrag R1 Sandnes VGS 19. august 2009 1 1 Notasjon Implikasjon Vi skriver A B hvis påstanden A impliserer B. Det vil si at hvis påstand A er riktig, så er påstand B riktig. Ekvivalens Vi skriver A

Detaljer

9. mai 2019 MAT Oblig 2 - Løsningsforslag

9. mai 2019 MAT Oblig 2 - Løsningsforslag 9. mai 219 MAT 24 Oblig 2 - Løsningsforslag Oppgave 1. La X være vektorrommet X = C([ 1, 1], R utstyrt med sup-norm, og la G : X X være definert ved G(f(x = f(s m ds, for en m N. Vis at G er deriverbar

Detaljer

a) Matrisen I uv T har egenverdier 1, med multiplisitet n 1 og 1 v T u, med multiplisitet 1. Derfor er matrisen inverterbar når v T u 1.

a) Matrisen I uv T har egenverdier 1, med multiplisitet n 1 og 1 v T u, med multiplisitet 1. Derfor er matrisen inverterbar når v T u 1. Norges teknisknaturvitenskapelige universitet Institutt for matematiske fag Side 1 av 5 Oppgave 1 a) Matrisen I uv T har egenverdier 1, med multiplisitet n 1 og 1 v T u, med multiplisitet 1. Derfor er

Detaljer

Universitet i Bergen. Eksamen i emnet MAT121 - Lineær algebra

Universitet i Bergen. Eksamen i emnet MAT121 - Lineær algebra Universitet i Bergen Det matematisk-naturvitenskapelige fakultet Bokmål Eksamen i emnet MAT2 - Lineær algebra Onsdag 29 mai, 20, kl. 09.00-4.00 Tillatte hjelpemidler. kalkulator, i samsvar med fakultetets

Detaljer

MAT UiO mai Våren 2010 MAT 1012

MAT UiO mai Våren 2010 MAT 1012 200 MAT 02 Våren 200 UiO 0-2. 200 / 48 200 Betrakt et system x = A x der A M n (R) er diagonaliserbar. Vi har sett at systemet kan løses ved frakoblingsmetoden: Vi finner da P = [v v n ] (inverterbar)

Detaljer