Norges teknisknaturvitenskapelige universitet Institutt for matematiske fag Side 1 av 5 Oppgave 1 a) Matrisen I uv T har egenverdier 1, med multiplisitet n 1 og 1 v T u, med multiplisitet 1. Derfor er matrisen inverterbar når v T u 1. Vi ser at (I + γuv T )(I uv T ) = I + (γ 1 γv T u) uv T. Derfor er (I + γuv T )(I uv T ) = I, γ = 1 1 v T u. b) For å nne en skranke til kondisjonstallet K (I uv T ) vi nner en øvreskranke for -normen av I uv T og (I uv T ) 1. Vi bruker denisjonen av naturlige normen og Cauchy-Swartz ulikheten, vi får I uv T = max x =1 x uvt x ( x + v T x u ) (1+ v u ). På samme måten nner vi at og siden vi får og til slutt I + γuv T (1 + v u γ ), γ 1 1 v T u I + γuv T (1 + v u 1 v T u ) 1 + v u 1 v T, u K (I uv T ) (1 + v u )(1 + v u ) 1 v T. u c) Matrisen B 1 A = (I zz T ), er symmetrisk, for å ha garantert konvergensen av konjugerte-gradientersmetoden må B 1 A være symmetrisk positivt denitt. Dette betyr at 1 z T z, som er den eneste egenverdien foskjellig fra 1, skal være positiv. Dermed må vi kreve at z < 1.
TMA405 Numerisk lineær algebra Side av 5 Konvergensestimaten til konjugerte-gradientersalgoritme gir x x m B 1 A x x 0 B 1 A ( K 1 K + 1. (1) I vårt problem bruker vi K = K (B 1 A) og estimaten fra punkt b). Siden z 0.5, vi har at K (B 1 A) og dermed vi får at (1 + 0.5 0.5)(1 + 0.5 0.5) 1 0.5 =.5, ( K 1 K + 1 (.5 1.5 + 1 10 3, er tilfredstilt når 5.0979 = log(10 3 /) log(.5 1.5+1 ) < m, d.v.s. m 6. Merknad. Antall iterasjoner ovenfor avhenger av skranken gitt for kondisjonstallet i punkt b). Ved bruk av andre skarnker kan man bevise at den gitte feilbeskreankning er tilfredstilt i ferre enn 6 iterasjoner. Man kan også velge å bruke estimatet gitt i Teorem 6.9 i Saads bok istedet for den mer vanlige konvergensestimatet (1). d) Vi ser på tilfellet der w = Bz. Dette kan lett generaliseres til tilfellet med vilkårlige w og z, tatt slik at A er inverterbar. Vi nner x ved å løse B 1 Ax = B 1 b. Siden B 1 A = I wz T, når z T w 1, har vi at (I wz T ) 1 = I γwz T og dermed x = B 1 b γwz T B 1 b. Vi har føgende algoritme: Algoritme 1 beregn v = B 1 b beregn β = z T v 3 beregn γ = 1 1 z T w 4 beregn x = v + (γ β) w e) Siden og Ω = P ΩP T vi får B = Ω H Λ Ω, ΩH Ω = I, B = P BP T.
TMA405 Numerisk lineær algebra Side 3 av 5 Siden P er en permutasjonsmatirse, har vi at for i J := {1,..., n}, P e i = e i, for e i og e i kanoniske vektorer og i J. Dermed får vi e T i Be i = e T i Be i, d.v.s. diagonalelementene til B er gitt ved en permutasjon av diagonalelementene til B, og av samme grunn, diagonalelementene til Λ er gitt av en permutasjon av diagonalelementene til Λ = P T ΛP. Anta g = n Ω H b e T 1 b = 1 n e T 1 Ωg der b T er første rad i B. Siden første rad i Ω har elementer alle lik 1/ n, og komponentene til g er egenverdiene til B, får vi e T 1 b = 1 n λ l = n l=1 n/ 1 (α + l ), l=1 ved bruk av den oppgitte formlen får vi e T 1 b = 1 1 (n 3n + + 4 α n ). siden B er syklisk er diagonalelementer alle lik e T 1 b. f) Vektet Jacobi iterasjonen for å løse By = c er y m+1 = (1 ω)y m + ωd 1 (E + F )y m + ωd 1 c, B = D E F der D er diagonal og E er nedre triangulær og F øvre triangulær, og 0 < ω 1 er relaksasjonsparameteren. Med G ω = I ωi + ωd 1 (D B) = I ωd 1 B, får vi at iterasjoneen kan skrives som y m+1 = G ω y m + ωd 1 c. Egenverdiene til G ω = I ωd 1 B er 1 λ j µ j = 1 ω n 3n + + 4α/n, j = 1,..., n der λ j er egenverdiene til B, d.v.s. λ j = { α + ( j 1), hvis j er partall, α + ( j+1 1), hvis j er oddetall.
TMA405 Numerisk lineær algebra Side 4 av 5 g) Vi ser på glattingsegenskapene til vektet Jacobi. Den initiale feilen er e 0 = y y 0 og kan uttrykkes ved bruk av basisen gitt av kolonnene til den unitære matrisen Ω, w j, j = 1,..., n, d.v.s. Siden e m = y y m har vi at e 0 = f j w j. j=1 e m = G ω y + ωd 1 c G ω y m ωd 1 c = G ω e m 1 = G m ω e 0. Derfor ved bruk av formelen for e 0 får vi e m = f j µ m j w j. Ved å kreve at µ n/ = µ n, har vi j=1 1 λ n/ 1 + ω n 3n + + 4α/n = 1 ω 1 λ n n 3n + + 4α/n, ved å sette inn λ n/ = { α + ( n 4 1), hvis n/ er partall, α + ( n/+1 1), hvis n/ er oddetall, og λ n = α + (n/ 1) får vi resultatet. Oppgave Vi skal se på sensitivitet med hensyn til avrundingsfeil i systemet AXC = B der A er en reell n n inverterbar matrise, X er en reell n p matrise, C er en reell p p inverterbar matrise og B er n p matrise, med n p. Vi betrakter den perturberte systemet (A + ε A)X(ε)(C + ε C) = B + ε B. Siden elementene i A + ε A og C + ε C avhenger kontinuerlig av ε for ε lite nok er begge matrisene inverterbar og vi har X(ε) = (A + ε A) 1 (B + ε B)(C + ε C) 1. Skranken til den absolute feilen X(ε) X nnes via Taylor utvikling av X(ε) rundt ε = 0. Man må nne en formel for Ẋ(ε). ε=0 Man bruker at d dε (G + ε G) = (G + ε G) 1 G(G + ε G) 1,
TMA405 Numerisk lineær algebra Side 5 av 5 dette brukes også i den vanlige analyse av sensitivitet for lineære systemer. Man får Ẋ(0) = A 1 AA 1 BC 1 + A 1 BC 1 A 1 BC 1 CC 1. For den relative feilen har man X(ε) X X ε Ẋ(0) X + O(ε ), og ved bruk av uttrykken for Ẋ(0) og at som direkte konsekvens av ligningen har man at X 1, B A C får man til slutt X(ε) X X ε ( K (A) A + K (C) C + K (A)K (C) B ) +O(ε ). A C B Oppgave 3 Betrakt Arnoldis algoritme for å beregne en ortonormal basis til Krylov rommet K m (A, u 0 ) = span{u 0, Au 0,..., A m 1 u 0 }, der A er en n n matrise og u 0 R n. Egenverdiene til Arnoldis Hessenberg matrisen, V T m AV m = H m, kan beregnes eektivt for eksempel ved bruk av en skiftet QR iterasjonsalgoritme, dette er fordi for Hessenberg m m matriser QR-iterasjonen koster bare O(m ) operasjoner per iterasjon istedet for O(m 3 ). Grunnen er at å QR-faktorisere en Hessenberg matrise koster bare O(m ) operasjoner hvis vi bruker m Givens rotasjoner til formålet. I tilleg i iterasjon k av QR-iterasjonen, hvis Q R = H k er H k+1 = R Q også en Hessenberg matrise, m.a.o. er Hessenberg strukturen bevart gjennom iterasjonen. Vi antar at ν k er en egenverdi til H m og y k R m er den tilsvarende normerte egenvektoren. Vi betrakter ν k som approksimasjon til en egenverdi til A og V m y k som approximasjon av den tilhørende egenvektoren. For å nne en feilsrkanke for AV m y k ν k V m y k, bruker vi følgende resultatet om Arnoldis algoritme AV m = V m H m + h m+1,m v m+1 e T m, der e m R m er den kanoniske vektoren. Vi får AV m y k ν k V m y k, h m+1,m e T my k.