Bayesisk estimering. Tettheten i punkt x er her gitt ved: der p(q X ) er áposterioriparameterfordelinggitt ved: p(q X )=

Like dokumenter
Suffisient observator

Diskrete egenskaper. Egenskapsvektoren x antar kun diskrete verdier: v 1,v 2,...,v m. Endringer fra det kontinuerlige tilfellet er at:

Unik4590/Unik9590/TTK Mønstergjenkjenning

Normalfordelingen. Univariat normalfordeling (Gaussfordelingen): der µ er forventningsverdien og σ 2 variansen. Multivariat normalfordeling:

Dimensjonalitetsproblemer (3)

Innledning Beslutningsteori Parametriske metoder Ikke-parametriske metoder Diskriminantfunksjoner Evaluering Ikke-ledet læring Klyngeanalyse Oversikt

Unik4590/Unik9590/TTK Mønstergjenkjenning

Generalisering til mange klasser - feilrettingsmetodene

Forelesning 4 STK3100

Likningssystem for maksimum likelihood løsning

TMA4240 Statistikk Høst 2015

Kap. 8: Utvalsfordelingar og databeskrivelse

TMA4240 Statistikk 2014

Forslag til endringar

Kapittel 8: Tilfeldige utvalg, databeskrivelse og fordeling til observatorar, Kapittel 9: Estimering

Forelesning 7: Store talls lov, sentralgrenseteoremet. Jo Thori Lind

Oppgave 1: Feil på mobiltelefoner

ST0202 Statistikk for samfunnsvitere

STK1100 våren Normalfordelingen. Normalfordelingen er den viktigste av alle sannsynlighetsfordelinger

Da vil summen og gjennomsnittet være tilnærmet normalfordelte : Summen: X 1 +X X n ~N(nµ,nσ 2 ) Gjennomsnittet: X 1 +X

ST0202 Statistikk for samfunnsvitere

ST1101/ST6101 Sannsynlighetsregning og statistikk Vår 2019

EKSAMEN I TMA4300 BEREGNINGSKREVENDE STATISTIKK Torsdag 16 Mai, 2013

UNIVERSITETET I OSLO

Hypotesetesting (kp. 6) ÅMA110 Sannsynlighetsregning med statistikk, våren Tre deler av faget/kurset: 1. Beskrivende statistikk

TMA4240 Statistikk Høst 2016

ÅMA110 Sannsynlighetsregning med statistikk, våren Hypotesetesting (kp. 6) Hypotesetesting, innledning. Kp.

EKSAMENSOPPGAVE Georg Elvebakk NB! Det er ikke tillatt å levere inn kladd sammen med besvarelsen

Oppgave 1: Terningsutfall På en kubisk terning er det 1/6 sannsynlighet for hver type utfall fra 1 til 6. Ved to terninger, er utfallene antatt

TMA4240 Statistikk Høst 2015

Econ 2130 uke 16 (HG)

Modellrisiko i porteføljeforvaltning

Forelesning 5: Kontinuerlige fordelinger, normalfordelingen. Jo Thori Lind

TMA4240 Statistikk Eksamen desember 2015

Inferens. STK Repetisjon av relevant stoff fra STK1100. Eksempler. Punktestimering - "Fornuftig verdi"

Kap. 6, Kontinuerlege Sannsynsfordelingar

Observatorer. STK Observatorer - Kap 6. Utgangspunkt. Eksempel høyde Oxford studenter

FORMELSAMLING TIL STK1100 OG STK1110

Tyngdepunkt. Togforsinkelsen (Eksamen Des2003.1a) I denne oppgaven kan du bruke uten å vise det at. Kapittel 4

Foreleses onsdag 8. september 2010

Observatorar og utvalsfordeling. Torstein Fjeldstad Institutt for matematiske fag, NTNU

Fasit for tilleggsoppgaver

Siden vi her har brukt første momentet i fordelingen (EX = EX 1 ) til å konstruere estimatoren kalles denne metoden for momentmetoden.

Utvalgsfordelinger. Utvalg er en tilfeldig mekanisme. Sannsynlighetsregning dreier seg om tilfeldige mekanismer.

Binomisk sannsynlighetsfunksjon

TMA4245 Statistikk Eksamen august 2014

Ikke-separable problemer

ÅMA110 Sannsynlighetsregning med statistikk, våren 2006 Kp. 6, del 3

UNIVERSITETET I OSLO

Ekstraoppgaver for STK2120

Kap. 6, Kontinuerlege Sannsynsfordelingar

Fra første forelesning:

Utvalgsfordelinger (Kapittel 5)

Ekstreme bølger. Geir Storvik Matematisk institutt, Universitetet i Oslo. 5. mars 2014

TMA4240 Statistikk H2010 (20)

Løsningsforslag oblig 1 STK1110 høsten 2014

ÅMA110 Sannsynlighetsregning med statistikk, våren Hypotesetesting (kp. 6) Hypotesetesting. Kp. 6 Hypotesetesting ...

TMA4240 Statistikk H2015

Løsningsforslag Eksamen i Statistikk SIF5060 Aug 2002

Et lite notat om og rundt normalfordelingen.

Om eksamen. Never, never, never give up!

(a) For regresjon brukes vanligvis kvadratisk tap: L(y, ŷ) = (y ŷ) 2. Den optimale prediktor basert på input variable x er da Ŷ = E[Y x].

TMA4240 Statistikk H2010

Emnenavn: Eksamenstid: 4 timer. Faglærer: Hans Kristian Bekkevard

Norske hoppdommere og Janne Ahonen

TMA4240 Statistikk H2010

STK 1110 høsten 2016 Oblig II

Kap. 6, Kontinuerlege Sannsynsfordelingar

Foreleses onsdag 13.oktober, 2010

MØNSTERGJENKJENNING. Forelesningsnotater til kurset Unik4590/Unik9590/TTK4205

Om eksamen. Never, never, never give up!

Forelesning 3. april, 2017

Stokastisk variabel. Eksempel augefarge

Mer om Markov modeller

TMA4245 Statistikk Eksamen august 2014

(a) For regresjon brukes vanligvis kvadratisk tap: L(y, ŷ) = (y ŷ) 2. Den optimale prediktor basert på input variable x er da Ŷ = E[Y x].

STK Oppsummering

Kapittel 6: Kontinuerlige sannsynlighetsfordelinger

TEK5020/TEK Mønstergjenkjenning

Bioberegninger - notat 4: Mer om sannsynlighetsmaksimering

Hypotesetesting. Formulere en hypotesetest: Når vi skal test om en parameter θ kan påstås å være større enn en verdi θ 0 skriver vi dette som:

Innledning Beslutningsteori Parametriske metoder Ikke-parametriske metoder Diskriminantfunksjoner Evaluering Ikke-ledet læring Klyngeanalyse Oversikt

Løsningskisse seminaroppgaver uke 11 ( mars)

Et lite notat om og rundt normalfordelingen.

STK1000 Uke 36, Studentene forventes å lese Ch 1.4 ( ) i læreboka (MMC). Tetthetskurver. Eksempel: Drivstofforbruk hos 32 biler

UNIVERSITETET I OSLO Matematisk Institutt

Forelesning 6: Punktestimering, usikkerhet i estimering. Jo Thori Lind

TMA4240 Statistikk Høst 2012

TMA4240 Statistikk H2010

TMA4240 Statistikk Eksamen desember 2015

Et lite notat om og rundt normalfordelingen. Anta at vi har kontinuerlige data. Hva er likt og ulikt for histogrammer og fordelingskurver?

EKSAMENSOPPGAVE. B154 «Tabeller og formler i statistikk» av Kvaløy og Tjelmeland. To A4-ark (4 sider) med egne notater. Godkjent kalkulator.

1.1.1 Rekke med konstante ledd. En rekke med konstante ledd er gitt som. a n (1) n=m

TMA4240 Statistikk H2015

Statistisk inferens: 9.14: Sannsynlighetsmaksimeringsestimatoren 8.5: Fordeling til gjennomsnittet 9.4: Konfidensintervall for µ (σ kjent)

TMA4240 Statistikk H2010

Kapittel 4.4: Forventning og varians til stokastiske variable

x λe λt dt = 1 e λx for x > 0 uavh = P (X 1 v)p (X 2 v) = F X (v) 2 = (1 e λv ) 2 = 1 2e λv + e 2λv = 2 1 λ 1 2λ = 3

Simulering med Applet fra boken, av z og t basert på en rekke utvalg av en gitt størrelse n fra N(μ,σ). Illustrerer hvordan estimering av variansen

Ferdig før tiden 4 7 Ferdig til avtalt tid 12 7 Forsinket 1 måned 2 6 Forsinket 2 måneder 4 4 Forsinket 3 måneder 6 2 Forsinket 4 måneder 0 2

Transkript:

Bayesisk estimering Bayesisk estimering Tettheten i punkt x er her gitt ved: Z p(x X )= p(x q)p(q X )dq der p(q X ) er áposterioriparameterfordelinggitt ved: p(q X )= p(x q)p(q) R p(x q)p(q)dq og p(x q) er likelihoodfunksjonen som kan beregnes fra treningssettet ved: p(x q)= n k=1 p(x k q). Her er p(q) (á prioriparameterfordeling)ogp(x q) kjente funksjoner av q.

Bayesisk estimering Rekursiv Bayesisk estimering Bayesisk estimering kan beskrives rekursivt ved p(q X n )= p(x n q)p(q X n 1 ) R p(xn q)p(q X n 1 )dq, der x n er sample nummer n itreningssettet X n = {x 1,x 2,...,x n }. Ved å definere p(q X 0 )=p(q) der X 0 er et tomt treningssett, gir dette en følge av fordelinger som funksjon av antall sampler i treningssettet: p(q),p(q x 1 ),p(q x 1,x 2 ),...,p(q X n ),... Typisk vil á posteriorifordelingen bli skarpere og skarpere når antall sampler øker, dvs. Bayesisk læring, der p(q X n )! d(q q 0 ) når n! (konvergens mot Diracs deltafunksjon om parametervektor q 0 ).

Eksempel - Bayesisk estimering (1) Á priori parameterfordeling (for samme datasett som i foregående eksempel). Her er det valgt en fordeling N(µ 0,s 2 0 ) med µ 0 = 2,0 ogs 0 = 5,0.

Eksempel - Bayesisk estimering (2) Áposterioriparameterfordelingp(q X 1 ) (blå kurve) og á priori fordeling (svart kurve), maksimalpunkt 0, 9470.

Eksempel - Bayesisk estimering (3) Áposterioriparameterfordelingp(q X 10 ) (blå kurve) og á priori fordeling (svart kurve), maksimalpunkt 0, 8660.

Eksempel - Bayesisk estimering (4) Áposterioriparameterfordelingp(q X 50 ) (blå kurve) og á priori fordeling (svart kurve), maksimalpunkt 0, 8340.

Eksempel - Bayesisk estimering (5) Áposterioriparameterfordelingp(q X 100 ) (blå kurve) og á priori fordeling (svart kurve), maksimalpunkt 0, 7100.

Eksempel - Bayesisk estimering (6) Áposterioriparameterfordelingp(q X 200 ) (blå kurve) og á priori fordeling (svart kurve), maksimalpunkt 0, 8960.

Eksempel - Bayesisk estimering av forventning til univariat normalfordeling I dette eksempelet er: p(x µ)=n(µ,s 2 ) der s antas kjent og µ er ukjent, og p(µ)=n(µ 0,s 2 0 ) der µ 0 og s 0 er kjente. Det kan vises at á posteriori parameterfordeling blir: p(µ X )=N(µ n,s 2 n ), dvs. en normalfordeling med forventning og varians: µ n = ns 0 2 ns0 2 + s 2 m s 2 n + ns0 2 + s 2 µ 0 og sn 2 = s 2 s0 2 ns0 2 + s 2, der µ 0, s 0 og s er kjente, og m n = 1 n Ân k=1 x k er sampelmiddelet over X. Tettheten i punktet x blir derved (kan vises): Z p(x X )= p(x µ)p(µ X )dµ = N(µ n,s 2 + sn 2 ).

Eksempel - læring av forventning til univariat normalfordeling (1)

Eksempel - læring av forventning til univariat normalfordeling (2)

Eksempel - læring av forventning til univariat normalfordeling (3)

Eksempel - læring av forventning til univariat normalfordeling (4)

Eksempel - læring av forventning til univariat normalfordeling (5)

Eksempel - estimering av forventning i multivariat normalfordeling Antar følgende: p(x µ)=n(µ, ), p(µ)=n(µ 0, 0 ), X = {x 1,x 2,...,x n }, µ = ukjent, = kjent, µ 0 = kjent, 0 = kjent, treningssett med n sampler fra én og samme klasse. Likelihoodfunksjonen blir da p(x µ)= n k=1 p(x k µ)= og á posteriori parameterfordeling kan vises å bli p(µ X )= n apple 1 1 (2p) nd/2 n/2 exp k=1 2 (x k µ) t 1 (x k µ) p(x µ)p(µ) R = N(µ p(x µ)p(µ)dµ n, n ).

Eksempel - estimering av forventning i multivariat normalfordeling (2) Her er parameterestimatene µ n = 0 ( 1 n + 0) 1 m n + 1 n ( 1 n + 0) 1 µ 0 (veiet middel av m n og µ 0 ) og n = 1 n ( 1 n + 0) 1 0 eller n = 1 n 0( 1 n + 0) 1. Tettheten i punktet x kan nå beregnes: Z p(x X )= p(x µ)p(µ X )dµ = N(µ n, + n ) (kan vises). Igrensenn! (det asymptotiske tilfellet) får man µ n! m n og n! 0 slik at p(x X )! N(m n, ) når n! (maksimum likelihood løsningen).