Norges teknisk-naturvitenskapelige universitet Institutt for matematiske fag Øving nummer 9, blokk II Løsningsskisse Oppgave X er kontinuerlig fordelt med sannsynlighetstetthet f X (x) = { x exp( x ) x ellers Formel for transformasjon av variabler finnes i det blå heftet. a) Vi har slik at U = X = g(x); x X = U + = h(u) med h (u) =. Funksjonen g(x) = x er strengt monoton og deriverbar for alle x. Vi har dermed f U ( u) = f X ( h(u)) h (u) = (u + ) exp( (u + ) ) = (u + ) exp( (u + ) ); u. Alternativt kan vi ta utgangspunt i kumulativ fordeling. Vi skriver F U (u) = P(U u) = P(X u) = P(X u + ), u. Dette gir F U (u) = F X (u + ) = exp{ (u + ) }, u. Derivasjon mhp u gir riktig tetthetsfunksjon. ov9-lsf-b 4. oktober 5 Side
b) Vi har her der med V = X = g(x); x X = V = h(v ) h (v) =. Funksjonen g(x) = x er strengt monoton og deriverbar for alle x. Dette gir f V ( v) = f X ( h(v)) h ( v) = ( v) exp( ( v) ) = v exp( ( v) ); v. Alternativt kan vi ta utgangspunt i kumulativ fordeling. Vi skriver F V (v) = P(V v) = P( X v) = P(X v ) = P(X v ), v. Dette gir ( F V (v) = F X v ) ( v ) }, = exp{ v. Derivasjon mhp v gir riktig tetthetsfunksjon. c) Vi har W = X = g(x); x som gir X = W = h(w ) med h (w) = w. Funksjonen g(x) = x er strengt monoton og deriverbar for alle x. f W ( w) = f X ( h( w)) h ( w) = w exp( w) w = exp( w); w. ov9-lsf-b 4. oktober 5 Side
Alternativt kan vi ta utgangspunt i kumulativ fordeling. Vi skriver Dette gir F W (w) = P(W w) = P(X w) = P( X w) = P( w X w) = P(X w) P(X w) = P(X w), w. F W (w) = F X ( w ) = exp{ w}, w. Derivasjon mhp w gir riktig tetthetsfunksjon. Oppgave Atle, du lyver! a) For å regne ut P (L A ) benytter vi regelen for sannsynlighet for komplementære hendelser: P (L A ) + P (L A ) = P (L A ) = = P (L A ) =. =.8 For å regne ut P (L) bruker vi setningen om total sannsynlighet. Vi vet at A, A, A 3 er en partisjon av utfallsrommet (det ser vi lett av venndiagrammet). P (L) = P (L A ) + P (L A ) + P (L A 3 ) = P (L A ) P (A ) + P (L A ) P (A ) + P (L A 3 ) P (A 3 ) =.5. +..4 +.6.5 =.385 b) Betingelser for at X er binomisk fordelt: Vi spør n personer. For hver person registerer vi om personen lyver eller ikke lyver (to komplmentære hendelser). Sannsynligheten for at en tilfeldig valgt person lyver er p, og denne er den samme for alle de n personene vi spør. De n personene vi spør svarer uavhengig av hverandre (n uavhengige forsøk). Under disse 4 betingelsene er X= antall personer som lyver binomisk fordelt med parametere n og p. Dermed er sannsynlighetsfordelingen til X gitt ved punktsannsynligheten f(x), ( ) n f(x) = p x ( p) n x, x =,,..., n x Vi vet at da er forventningen til X E(X) = np og variansen Var(X) = np( p). ov9-lsf-b 4. oktober 5 Side 3
Videre: vi har at p =., og n =. P (X = 4) finner vi ved å sette inn X = 4 i punktsannsynligheten f(x) over. ( ) P (X = 4) = f(4) =. 4 (.) 4 =.8 4 Det er også mulig å finne P (X = 4) ved tabelloppslag (s 7 i formelsamlingen), P (X = 4) = P (X 4) P (X 3) =.63.4 =.9 Sannsynligheten P [(X ) (X > 5)] finner vi enklest ved tabelloppslag (s 7 i formelsamlingen), P [(X ) (X > 5) = P (X ) + P (X > 5) = (X ) P (X 5) c) Nå er p ukjent. Først forventning: E(ˆp) = E( X n ) = n E(X) = n np = p E(p X ) = E( n ) = n E(X) = n np = =.6.84 =.4 n n p Vi ser videre på varians: Var(ˆp) = Var( X n ) = n Var(X) = p( p) np( p) = n n Var(p X ) = Var( n ) = (n ) Var(X) = np( p) np( p) = (n ) (n ) En god estimator ˆp er en estimator som er forventningsrett, dvs. E(ˆp) = p, og har liten varians, dvs. Var(ˆp) er liten. Vi liker veldig godt hvis variansen minker når antall observasjoner som estimatoren er basert på øker. Sammenligner vi to estimatorer som begge er forventningsrette velger vi estimatoren med minst varians. Sammenlinger vi to estimatorer der kun den ene er forventningsrett, velger vi gjerne den estimatoren som er forventningsrett (ofte sjekker vi også at det ikke er veldig stor forskjell på variansene). For å velge mellom ˆp og p ser vi på uttrykkene for forventning og varians til begge estimatorene. Vi ser at ˆp er forventningsrett, men det er ikke p. I prinsippet kan vi stoppe her og konkluere med at vi foretrekker den forventningsrette estimatoren ˆp. Men, det kan være ov9-lsf-b 4. oktober 5 Side 4
fint å sjekke at det ikke er stor forskjell på variansen til de to estimatorene (hva hvis den ene hadde hatt to ganger så stor varians?). Vi ser at Var(ˆp) = ( (n ) n ) Var(p ), dvs. Var(ˆp) < Var(p ) med en faktor ( n n ) i forskjell. For n = er denne faktoren ( 9 ) =.95 =.9, dvs. Var(ˆp) =.9 Var(p ). Dermed har estimatoren Var( ˆp) både minst varians og er forventningsrett. Vi velger derfor estimatoren ˆp. Kommentarer: Asymptotisk (når n ) vil de to estimatorene være like gode. Vi har i vårt pensum ikke snakket om begrepet konsistente estimatorer, men begge disse estimatorene er konsistente. Oppgave 3 Vi har at X er antall ulykker på byggeplass, X er antall ulykker på byggeplass, etc. Hver X i er Poissonfordelt med paramater λ. Da tidsintervallet vi ser på er ett år vil vi ha t =. Vi har observert x, x,..., x n, og vi skal bruke disse observasjonene til å regne ut sannsynlighetsmaksimeringsestimatet til λ. Setter opp rimelighetsfunksjonen; L(x,..., x n ; λ) = n λ x i x i! exp( λ) Vi skal finne λ som maksimerer rimelighetsfunksjonen. For å gjøre utregninger lettere, kan vi se på den naturlige logaritmen av rimelighetsfunksjonen; l(x,..., x n ; λ) = (x i ln(λ) ln(x i!) λ) Maksimumspunktet finner vi ved å derivere med hensyn på λ og sette den deriverte lik null. Dette gir l(x,..., x n ; λ) λ = λ = λ = (x i ) () (x i ) n Vi løser mhp λ og får λ = n x i. Da kan vi sette opp uttrykket for sannsynlighetsmaksimeringsestimatoren, ˆλ = n X i. ov9-lsf-b 4. oktober 5 Side 5
Videre har vi E(ˆλ) = n = n = λ, E(X i ) λ og Var(ˆλ) = n Var(X i ) = n λ = n λ. Vi ser at estimatoren er forventningsrett og at variansen minker når n øker, som er gode egenskaper for en estimator. Med de gitte data har vi at n x i = 5+ 8+3 = 44, mens n = 34. Dette gir ˆλ =.3. Oppgave 4 a) P (X > ) = P (X ) = F () = ( e ) =.6 P (X > X > ) = P (X > X > ) = P (X > ) = F () F () = e e =.59 P (X > ) P (X > ) E(X) = xf(x)dx = = 3 Γ(3) = b) U = min(x A, X B ), og X A og X B er uavhengige. xe x formel dx = + Γ( + ) F U (u) = P (U u) = P (U > u) = P (min(x A, X B ) > u) = P (X A > u X B > u) uavh. = P (X A > u)p (X B > u) = ( F XA (u))( F XB (u)) = e u e u = e u( ) ov9-lsf-b 4. oktober 5 Side 6
f U (u) = F U(u) = u ( )e u( ) = ( ) u e u( ), u > Gjenkjenner dette som same fordelinga som X og Y kjem frå, men med = ( Følgjer då frå a) at: E(U) = ( ) = ( + ) c) Finn sannsynsmaksimeringsestimatoren (SME): ). L() = f(x,..., x n ; ) n = f(x i ; ) = n e xi Θ xi = ( n )n ( )e n xi xi l() = ln L() = n ln() l() ln x = n xi xi = n = xi D.v.s. SME blir: ˆ = n n Xi E( X) = xf(x)dx = e x formel dx = Γ() = D.v.s. E(ˆ) = n E( X) = n = Altså er estimatoren forventningsrett. ov9-lsf-b 4. oktober 5 Side 7
d) Skal finne fordelinga til Z i = X i. Finn først X i uttrykt ved Z i : X i = ( Z i ) = h(z i ). Får då at h (Z i ) = ( ) Z i = Z i. Vi finn nå tettleiken til Z i ved transformasjonsformelen: f Zi (z) = f Xi (h(z)) h (z) = e ( z ) = z e z z = e z som er tettleiken til ein χ -fordelt variabel. ( z ) z nˆ = Xi = X i Der X i er χ -fordelt med fridomsgrader. Har at summen av uavhengige χ -fordelte variable er χ -fordelt. Talet på fridomsgrader er lik summen av fridomsgradene til variablane. Dette gjev at: nˆ χ n som skulle visast. Oppgave 5 a) T eksp( z ) E(T ) = z =, z =. P (T ) = z z e x dx = P (T ) =.5 e z =.5 e z =.5 z = ln.5 =.69 z =., z =. P (T T ) =? Finner simultanfordelingen til T og T : x 5 e 5 dx = [ e x 5 ] = e =.86 f(t, t ) = z e z t z e z t siden T og T er uavhengige. ov9-lsf-b 4. oktober 5 Side 8
b) SME for : P (T T ) = = z z t f(t, t )dt dt = z z [ z e z t z t ] t dt = z z t z = z [ z +z e ( z +z )t ] = z z +z =..+. = 3 f(t,..., t n ;, z,..., z n ) = n z i e t i L(; t,..., t n, z,..., z n ) = n z i e t i l() = ln L() = n ln n ln n t i l = n + n t i = n = n t i = n n t i Dermed er SME = n n T i. e z t e z t dt dt e z t z t dt E( ) = E( n T i ) = n E(T i ) = n = n = Dvs. estimatoren er forventningsrett. Var(ˆ) = Var( n = n T i ) = n z i z i = n Var( T i ) = n = n zi Var(T i ) c) MGF for T i : M Ti (t) = V = n = n T i M zi (t) = T i = n t (Funnet i tabell.) T i t = ( t) (Bruker at M ax (t) = M X (at)) M V (t) = n ( t) = ( t) n (Bruker at M n X (t) = n i M X i (t)) ( t) n er MGF for kji-kvadratfordelingen med n frihetsgrader. V har samme MGF som kji-kvadratfordelingen med n frihetsgrader, derfor er V χ n. ov9-lsf-b 4. oktober 5 Side 9