FORMELSAMLING TIL STK1100 OG STK1110

Like dokumenter
FORMELSAMLING TIL STK1100 OG STK1110

Kapittel 2: Hendelser

Forelesning 13. mars, 2017

Høgskolen i Telemark. Institutt for økonomi og informatikk FORMELSAMLING Statistikk I. Til bruk ved eksamen. Per Chr. Hagen

To-dimensjonale kontinuerlige fordelinger

3.4: Simultanfordelinger (siste rest) 4.1,4.2,4.3: Multivariat del (ferdig med kapittel 3 og 4 etter denne forelesningen)

TMA4240 Statistikk Høst 2008

Tyngdepunkt. Togforsinkelsen (Eksamen Des2003.1a) I denne oppgaven kan du bruke uten å vise det at. Kapittel 4

Bernoulli forsøksrekke og binomisk fordeling

HØGSKOLEN I STAVANGER

Oppfriskning av blokk 1 i TMA4240

STK Oppsummering

Kapittel 4: Matematisk forventning

Kap. 6, Kontinuerlege Sannsynsfordelingar

Observatorer. STK Observatorer - Kap 6. Utgangspunkt. Eksempel høyde Oxford studenter

Regneøvelse 22/5, 2017

Kap. 6, Kontinuerlege Sannsynsfordelingar

1.1.1 Rekke med konstante ledd. En rekke med konstante ledd er gitt som. a n (1) n=m

Formelsamling V-2014 MAT110. Statistikk 1. Per Kristian Rekdal

A) B) 400 C) 120 D) 60 E) 10. Rett svar: C. Fasit: ( 5 6 = 60. Hvis A, B, C er en partisjon av utfallsrommet S, så er P (A B) lik.

Kontinuerlige sannsynlighetsfordelinger.

Formelsamling V MAT110 Statistikk 1. Per Kristian Rekdal

Foreleses onsdag 8. september 2010

6.5 Normalapproksimasjon til. binomisk fordeling

Togforsinkelsen (Eksamen Des2003.1a) I denne oppgaven kan du bruke uten å vise det at

STK juni 2018

Gammafordelingen og χ 2 -fordelingen

DEL 1 GRUNNLEGGENDE STATISTIKK

ÅMA110 Sannsynlighetsregning med statistikk, våren

Forelesing 27 Oppsummering. Torstein Fjeldstad Institutt for matematiske fag, NTNU

Kap. 6, Kontinuerlege Sannsynsfordelingar

Forventning og varians.

UNIVERSITETET I OSLO

6 x P (X = x) = x=1 = P (X 2 = 6)P (X 2 = 6)P (X 3 = 6) =

6.1 Kontinuerlig uniform fordeling

TMA4240 Statistikk Eksamen desember 2015

Løsningsforslag til eksamen i TMA4245 Statistikk 7. juni 2007

Stokastisk variabel. Eksempel augefarge

Forventning og varians.

ÅMA110 Sannsynlighetsregning med statistikk, våren 2010 Oppsummering

FORMELSAMLING STATISTIKK, HiG Versjon per 10. januar 2002, ved Hornæs

TMA4240 Statistikk H2010

Om fordelingen tilx +Y

Notasjon. Løsninger. Problem. Kapittel 7

Kapittel 3: Stokastiske variable og sannsynlighetsfordelinger

Formelsamling i medisinsk statistikk

TMA4240 Statistikk Høst 2009

Statistikk 1 kapittel 4

TMA4245 Statistikk Eksamen desember 2016

Funksjoner av stokastiske variable.

TMA4240 Statistikk Høst 2016

Funksjoner av stokastiske variable.

Fasit for tilleggsoppgaver

Forelesning 7. mars, 2017

Høgskoleni østfold EKSAMEN

Siden vi her har brukt første momentet i fordelingen (EX = EX 1 ) til å konstruere estimatoren kalles denne metoden for momentmetoden.

FORMELSAMLING STATISTIKK, HiG

Eksempel: kast med to terninger

TMA4240 Statistikk. Øving nummer 7. Norges teknisk-naturvitenskapelige universitet Institutt for matematiske fag

EKSAMEN. TILLATTE HJELPEMIDLER: Kalkulator. Hornæs: Formelsamling statistikk HiG. John Haugan: Formler og tabeller.

La U og V være uavhengige standard normalfordelte variable og definer

Høgskoleni Øs fold EKSAMEN. Om noe er uklart eller mangelfullt i oppgaven inngår det som en del av oppgaven å ta de nødvendige forutsetninger.

Emnenavn: Eksamenstid: 4 timer. Faglærer: Hans Kristian Bekkevard

HØGSKOLEN I STAVANGER

Om eksamen. Never, never, never give up!

ØVINGER 2017 Løsninger til oppgaver. Lineærkombinasjonen Z = 5X + 8Y har forventningsverdi

TMA4240 Statistikk Høst 2015

Hogskoleni Østfold EKSAMEN. Eksamenstid: kl til k

TMA4245 Statistikk Vår 2007

Tema 2: Stokastiske variabler og sannsynlighetsfordelinger Kapittel 3 ST :44 (Gunnar Taraldsen)

TMA4240 Statistikk Høst 2015

Om eksamen. Never, never, never give up!

statistikk, våren 2011

for x 0 F X (x) = 0 ellers Figur 1: Parallellsystem med to komponenter Figur 2: Seriesystem med n komponenter

Løsningsforslag, eksamen statistikk, juni 2015

Forelesning 5: Kontinuerlige fordelinger, normalfordelingen. Jo Thori Lind

FORMELSAMLING STATISTIKK, HiG

STK1100 våren Kontinuerlige stokastiske variabler Forventning og varians Momentgenererende funksjoner

Løsningsforslag ECON 2130 Obligatorisk semesteroppgave 2017 vår

j=1 (Y ij Ȳ ) 2 kan skrives som SST = i=1 (J i 1) frihetsgrader.

Midtveiseksamen i STK1100 våren 2017

Eksamensoppgave i TMA4240 Statistikk

STK1100 våren Normalfordelingen. Normalfordelingen er den viktigste av alle sannsynlighetsfordelinger

Denne veka. Kap 7: Funksjonar av stokastiske variable Transformasjon av variable Moment Momentgenererande funksjon

TMA4240 Statistikk Eksamen desember 2015

SFB LØSNING PÅ EKSAMEN HØSTEN 2018

ÅMA 110 (TE 199) Sannsylighetsregning og statistikk Løsningsforslag til eksamen vår 2005, s. 1. Oppgave 1

Løsning eksamen desember 2016

TMA4240 Statistikk Høst 2015

TMA4240 Statistikk H2015

Løsningsforslag Eksamen i Statistikk SIF5060 Aug 2002

TMA4240 Statistikk Høst 2015

x λe λt dt = 1 e λx for x > 0 uavh = P (X 1 v)p (X 2 v) = F X (v) 2 = (1 e λv ) 2 = 1 2e λv + e 2λv = 2 1 λ 1 2λ = 3

Emnenavn: Eksamenstid: Faglærer: Hans Kristian Bekkevard

TMA4240/TMA4245 Statistikk Oppsummering diskrete sannsynlighetsfordelinger

Eksamensoppgave i ST1201/ST6201 Statistiske metoder

Løsningsforslag til andre sett med obligatoriske oppgaver i STK1110 høsten 2010

Kapittel 8: Tilfeldige utvalg, databeskrivelse og fordeling til observatorar, Kapittel 9: Estimering

Forelesning 27. mars, 2017

TMA4240 Statistikk Høst 2007

Transkript:

FORMELSAMLING TIL STK1100 OG STK1110 (Versjon av 16. november 2009) 1. Sannsynlighet La A, B, A 1, A 2,...,B 1, B 2,... være begivenheter, dvs. delmengder av et utfallsrom Ω. a) Aksiomene: Et sannsynlighetsmål P er en funksjon fra delmengder av utfallsrommet Ω til de reelle tall som tilfredsstiller b) P(A c ) = 1 P(A) c) P( ) = 0 P(Ω) = 1 P(A) 0 P(A 1 A 2 ) = P(A 1 ) + P(A 2 ) hvis A 1 A 2 = ( ) P A i = P(A i ) hvis A i A j = for i j d) A B P(A) P(B) e) Addisjonsetningen: f) Betinget sannsynlighet: P(A B) = P(A) + P(B) P(A B) P(A B) = P(A B) P(B) hvis P(B) > 0 g) Total sannsynlighet: P(A) = P(A B i )P(B i ) hvis n B i = Ω og B i B j = for i j h) Bayes setning: P(B j A) = P(A B j)p(b j ) n P(A B i)p(b i ) under samme betingelser som i g) i) A og B er uavhengige begivenheter hvis P(A B) = P(A)P(B) 1

j) A 1,...,A n er uavhengige begivenheter dersom P(A i1 A im ) = P(A i1 )P(A i2 ) P(A im ) for alle delmengder av indekser i 1, i 2,...,i m k) Produktsetningen: P(A 1 A n ) = P(A 1 )P(A 2 A 1 )P(A 3 A 1 A 2 ) P(A n A 1 A 2 A n 1 ) 2. Kombinatorikk a) To operasjoner som kan gjøres på henholdsvis n og m måter kan kombineres på n m måter. b) Antall ordnete utvalg med tilbakelegging av r elementer fra en mengde med n elementer er n r c) Antall ordnete utvalg uten tilbakelegging av r elementer fra en mengde med n elementer er n(n 1) (n r + 1) d) Antall måter n elementer kan ordnes i rekkefølge på (permuteres) er n! = 1 2 3 (n 1) n e) Antall ikke-ordete utvalg av r elementer fra en mengde med n elementer er ( ) n n(n 1) (n r + 1) n! = = r r! r! (n r)! f) Antall måter en mengde med n elementer kan deles inn i r delmengder med n i elementer i den i-te delmengden er ( ) n n! = n 1 n 2 n r n 1! n 2! n r! 2

3. Sannsynlighetsfordelinger a) For en stokastisk variabel X (diskret eller kontinuerlig) er den kumulative fordelingsfunksjonen F(x) = P(X x) b) For en diskret stokastisk variabel X som kan anta verdiene x 1, x 2, x 3,... har vi p(x j ) = P(X = x j ) F(x) = x j xp(x j ) Betingelsene for at p(x j ) skal være en punktsannsynlighet er p(x j ) 0 for alle j p(x j ) = 1 c) For en kontinuerlig stokastisk variabel X har vi j P(a < X < b) = F(x) = x f(x) = F (x) b a f(u)du f(x)dx Betingelsene for at f(x) skal være en sannsynlighetstetthet er f(x) 0 f(x)dx = 1 d) For to stokastiske variabler X og Y (diskrete eller kontinuerlige) er den simultane kumulative fordelingsfunksjonen F(x, y) = P(X x, Y y) e) For diskrete stokastiske variabler X og Y som kan anta henholdsvis verdiene x 1, x 2,... og y 1, y 2,... har vi p(x i, y j ) = P(X = x i, Y = y j ) F(x, y) = p(x i, y j ) x i x y j y Betingelsene for at p(x i, y j ) skal være en simultan punktsannsynlighet er analoge til betingelsene i b) 3

f) For kontinuerlige stokastiske variabler X og Y har vi P ( (X, Y ) A ) = f(u, v)dvdu F(x, y) = x y f(x, y) = 2 F(x, y) x y A f(u, v)dvdu Betingelsene for at f(x, y) skal være en simultan sannsynlighetstetthet er analoge til betingelsene i c) g) Marginale punktsannsynligheter: p X (x i ) = j p Y (y j ) = i p(x i, y j ) (for X) p(x i, y j ) (for Y ) h) Marginale sannsynlighetstettheter: f X (x) = f(x, y)dy (for X) f Y (y) = f(x, y)dx (for Y ) i) Uavhengighet: De stokastiske variablene X og Y er uavhengige dersom p(x i, y j ) = p X (x i )p Y (y j ) f(x, y) = f X (x)f Y (y) (diskret) (kontinuerlig) j) Betingete punktsannsynligheter: p X Y (x i y j ) = p(x i, y j ) p Y (y j ) p Y X (y j x i ) = p(x i, y j ) p X (x i ) (for X gitt Y = y j ) (for Y gitt X = x i ) Det forutsettes at p Y (y j ) > 0 og p X (x i ) > 0, henholdsvis. De betingete punktsannsynlighetene kan behandles som vanlige punktsannsynligheter. 4

k) Betingete sannsynlighetstettheter: f X Y (x y) = f Y X (y x) = f(x, y) f Y (y) f(x, y) f X (x) (for X gitt Y = y) (for Y gitt X = x) Det forutsettes at f Y (y) > 0 og f X (x) > 0, henholdsvis. De betingete sannsynlighetstetthetene kan behandles som vanlige synlighetstettheter. 4. Forventning a) Forventningsverdien til en stokastisk variabel X er definert ved E(X) = j x j p(x j ) (diskret) E(X) = xf(x)dx (kontinuerlig) b) For en reell funksjon g(x) av en stokastisk variabel X er E[g(X)] = j g(x j )p(x j ) (diskret) E[g(X)] = g(x)f(x)dx (kontinuerlig) c) E(a + bx) = a + be(x) d) For en reell funksjon g(x, Y ) av to stokastiske variabler X og Y er E [ g(x, Y ) ] = g(x i, y j )f(x i, y j ) (diskret) i j E [ g(x, Y ) ] = g(x, y)f(x, y)dydx (kontinuerlig) e) Hvis X og Y er uavhengige er E [ g(x)h(y ) ] = E [ g(x) ] E [ h(y ) ] f) Hvis X og Y er uavhengige er E(XY ) = E(X) E(Y ) ( ) g) E a + n b i X i = a + n b i E(X i ) 5

h) Betinget forventning: E(Y X = x i ) = j y j p Y X (y j x i ) (diskret) E(Y X = x) = yf Y X (y x)dy (kontinuerlig) 5. Varians og standardavvik a) Variansen og standardavviket til en stokastisk variabel X er definert ved Var(X) = E[(X µ) 2 ] sd(x) = Var(X) b) Var(X) = E(X 2 ) ( E(X) ) 2 c) Var(a + bx) = b 2 Var(X) d) Hvis X 1,...,X n er uavhengige har vi ( ) Var a + b i X i = b 2 i Var(X i ) e) Var ( a + ) b i X i = b 2 i Var(X i ) + b i b j Cov(X i, X j ) j i f) Chebyshev s ulikhet: La X være en stokastisk variabel med µ = E(X) og σ 2 = Var(X). For alle t > 0 har vi P( X µ > t) σ2 t 2 6. Kovarians og korrelasjon a) La X og Y være stokastiske variabler med µ X = E(X), σx 2 = Var(X), µ Y = E(Y ) og σy 2 = Var(Y ). Da er kovariansen og korrelasjonen til X og Y definert ved Cov(X, Y ) = E [ (X µ X )(Y µ Y ) ] ρ = Corr(X, Y ) = Cov(X, Y ) σ X σ Y 6

b) Cov(X, X) = Var(X) c) Cov(X, Y ) = E(XY ) E(X)E(Y ) d) X, Y uavhengige Cov(X, Y ) = 0 e) Cov ( a + ) m b i X i, c + d j Y j = j=1 m b i d j Cov(X i, Y j ) j=1 f) 1 Corr(X, Y ) 1 og Corr(X, Y ) = ±1 hvis og bare hvis det finnes to tall a, b slik at Y = a + bx (bortsett, eventuelt, på et område med sannsynlighet 0) 7. Momentgenererende funksjoner a) For en stokastisk variabel X (diskret eller kontinuerlig) er den momentgenererende funksjonen M X (t) = E(e tx ) b) Hvis den momentgenererende funksjonen M X (t) eksisterer for t i et åpent intervall som inneholder null, så bestemmer den entydig fordelingen til X c) Hvis den momentgenererende funksjonen M X (t) eksisterer for t i et åpent intervall som inneholder null, så eksisterer alle momenter til X, og vi kan finne det r-te momentet ved E(X r ) = M (r) X (0) d) M a+bx (t) = e at M X (bt) e) Hvis X og Y er uavhengige er M X+Y (t) = M X (t)m Y (t) 8. Noen diskrete sannsynlighetsfordelinger a) Binomisk fordeling: Punktsannsynlighet: P(X = k) = ( n k) p k (1 p) n k k = 0, 1,..., n Momentgenererende funksjon : M X (t) = (1 p + pe t ) n E(X) = np Varians : Var(X) = np(1 p) Tilnærmelse 1: Z = X np np(1 p) er tilnærmet standard normalfordelt når np og n(1 p) begge er tilstrekkelig store (minst 10) Tilnærmelse 2: X er tilnærmet Poisson fordelt med parameter λ = np når n er stor og p er liten 7

Addisjonsregel: X binomisk (n, p), Y binomisk (m, p) b) Geometrisk fordeling: og X, Y uavhengige X + Y binomisk (n + m, p) Punktsannsynlighet: P(X = k) = (1 p) k 1 p k = 1, 2,... Momentgenererende funksjon : M X (t) = e t p/[1 (1 p)e t ] E(X) = 1/p Varians: Var(x) = (1 p)/p 2 Addisjonsregel: Summen av r uavhengige geometriske fordelte variabler er negativt binomisk fordelt c) Negativ binomisk fordeling: Punktsannsynlighet: P(X = k) = ( ) k+r 1 r 1 p r (1 p) k k = 0, 1, 2,... Momentgenererende funksjon : M X (t) = {p/[1 (1 p)e t ]} r E(X) = r(1 p)/p Varians: Var(X) = r(1 p)/p 2 Addisjonsregel: d) Hypergeometrisk fordeling: Punktsannsynlighet: Varians: Tilnærmelse: e) Poisson fordelingen: Punktsannsynlighet: E(X) = m r n P(X = k) = k)( m k) (r n r ( m) n Var(X) = m r n (1 r n )n m n 1 X negativ binomisk (r 1, p), Y negativt binomisk (r 2, p) og X, Y uavhengige X + Y negativt binomisk (r 1 + r 2, p) X er tilnærmet binomisk (m, r ) når m er mye mindre enn n n P(X = k) = λk k! e λ k = 0, 1,... Momentgenererende funksjon : M X (t) = e λ(et 1) Varians: Tilnærmelse: E(X) = λ Var(X) = λ Z = X λ er tilnærmet standard normalfordelt λ når λ er tilstrekkelig stor (minst 10) 8

Addisjonsregel: X Poisson (λ 1 ), Y Poisson (λ 2 ) e) Multinomisk fordeling: og X, Y uavhengige X + Y Poisson (λ 1 + λ 2 ) Punktsannsynlighet: P(N 1 = n 1,...,N r = n r ) = n! n 1! n pn 1 r! 1 pnr r Her er r p i = 1 og r n i = n Marginalfordeling: N i binomisk (n, p i ) 9. Noen kontinuerlige sannsynlighetsfordelinger a) Normalfordelingen: Tetthet: f(x) = 1 2πσ e (x µ)2 /2σ 2 < x < Momentgenererende funksjon : M X (t) = e µt e σ2 t 2 /2 E(X) = µ Varians: Var(X) = σ 2 Transformasjon: X N(µ, σ 2 ) a + bx N(a + bµ, b 2 σ 2 ) X N(µ, σ 2 ) Z = X µ N(0, 1) σ Addisjonsregel: X N(µ X, σx 2 ), Y N(µ Y, σy 2 ), X, Y uavhengige X + Y N(µ X + µ Y, σx 2 + σ2 Y ) b) Eksponentialfordelingen: Tetthet: f(x) = λe λx x > 0 Momentgenererende funksjon : E(X) = 1/λ Varians: Var(X) = 1/λ 2 M X (t) = λ/(λ t) for t < λ Addisjonsregel: X exp(λ), Y exp(λ), X og Y uavhengige X + Y gamma(2, 1/λ) c) Gammafordelingen: Tetthet: f(x) = 1 β α Γ(α) xα 1 e x/β x > 0 Gammafunksjonen: Momentgenererende funksjon : E(X) = αβ Γ(α) = 0 u α 1 e u du Γ(α + 1) = αγ(α) Γ(n) = (n 1)! når n er et helt tall Γ(1/2) = π, Γ(1) = 1 M X (t) = [1/(1 βt)] α 9

Varians: Var(X) = αβ 2 Addisjonsregel: X gamma(α, β), Y gamma(δ, β), X og Y uavhengige X + Y gamma(α + δ, β) d) Kji-kvadratfordelingen: Tetthet: f(v) = 1 2 n/2 Γ(n/2) v(n/2) 1 e v/2 v > 0 n er antall frihetsgrader Varians: Addisjonsregel: E(V ) = n Var(V ) = 2n U χ 2 n, V χ2 m, U og V uavhengige U + V χ 2 n+m Resultat: Z N(0, 1) Z 2 χ 2 1 e) Students t-fordeling: Tetthet: f(t) = Γ[(n+1)/2] nπγ(n/2) (1 + t2 n ) (n+1)/2 n er antall frihetsgrader E(T) = 0 (n 2) Varians: Var(T) = n/(n 2) (n 3) < t < Resultat: Z N(0, 1), U χ 2 n, Z, U uavhengige Z/ U/n t n f) Binormal fordeling: Tetthet: f(x, y) = { 1 exp 1 2πσ X σ Y 1 ρ 2 2(1 ρ 2 ) [ (x µx ) 2 σ 2 X + (y µ Y ) 2 σ 2 Y 2ρ (x µ X)(y µ Y ] } ) σ X σ Y Marginalfordeling: X N(µ X, σ 2 X ), Y N(µ Y, σ 2 Y ) Korrelasjon: Betinget fordeling: Corr(X, Y ) = ρ Gitt X = x er Y normalfordelt med forventning E(Y X = x) = µ Y + ρ σ Y σ X (x µ X ) og varians Var(Y X = x) = σy 2 (1 ρ2 ) 10. Ett normalfordelt utvalg Hvis X 1, X 2,...,X n er uavhengige og N(µ, σ 2 )-fordelte så har vi at: a) X = 1 n b) X N(µ, σ 2 /n) X i og S 2 = 1 n 1 (X i X) 2 er uavhengige 10

c) (n 1)S 2 /σ 2 χ 2 n 1 d) X µ S/ n t n 1 11. To normalfordelte utvalg La X 1, X 2,...,X n være uavhengige og N(µ X, σ 2 )-fordelte, og Y 1, Y 2,...,Y m uavhengige og N(µ Y, σ 2 )-fordelte. De to utvalgene er uavhengige av hverandre. La X, Y, SX 2 og SY 2 være definert i henhold til 10a). Da har vi at: a) Sp 2 = [(n 1)S2 X + (m 1)S2 Y ]/(m + n 2) er en vektet estimator for σ2 b) X Y N ( µ X µ Y, σ 2 ( 1 n + 1 m )) c) (n + m 2)S 2 p /σ2 χ 2 m+n 2 d) X Y (µ X µ Y ) S p 1 n + 1 m t m+n 2 12. Regresjonsanalyse Anta at Y i = β 0 + β 1 x i + ǫ i ; i = 1, 2,...,n; hvor x i -ene er kjente tall og ǫ i -ene er uavhengige og N(0, σ 2 )-fordelte. Da har vi at: a) Minste kvadraters estimatorer for β 0 og β 1 er ˆβ 0 = Y ˆβ 1 x og ˆβ1 = n (x i x)(y i Y ) n (x i x) 2 b) Estimatorene i a) er normalfordelte og forventningsrette, og Var(ˆβ 0 ) = σ2 n x2 i n n (x i x) 2 og Var(ˆβ 1 ) = σ 2 n (x i x) 2 c) La SSE= n (Y i ˆβ 0 ˆβ 1 x i ) 2. Da er S 2 = SSE/(n 2) en forventningsrett estimator for σ 2, og (n 2)S 2 /σ 2 χ 2 n 2 11