MIK 200 Anvendt signalbehandling, 2012.

Størrelse: px
Begynne med side:

Download "MIK 200 Anvendt signalbehandling, 2012."

Transkript

1 Stavanger, 1. november 2011 Det teknisknaturvitenskapelige fakultet MIK 200 Anvendt signalbehandling, Prosjekt 1, Tapsfri komprimering. Vi skal i dette miniprosjektet se litt på hvordan en kan gjøre tapsfri komprimering av bilder. De siste delene i dette dokumentet inneholder litt relevant teori, gjerne ganske kort i tildels i stikkordspreg, som vil være nyttig når oppgavene løses. Det kan også være nødvendig for dere selv å finne fram til mer utfyllende informasjon om disse emnene. Siste side i oppgaven her er et skjema for egenevaluering av arbeidet. Den siste sida her skal være første side i deres innlevering. 1 Selve oppgaven. Generelt for prosjektene er at oppgavene ikke er gitt som steg for steg prosedyrer for hva dere skal gjøre, men formulert mye kortere slik at dere selv må finne ut hvordan ting skal gjøres. Derfor skal også rapporten være litt annerledes enn lab-rapportene. Her må en også få med hva og hvordan (og hvorfor) ting er gjort for å komme fram til resultatet, i tillegg til at resultatet også presenteres. I dette første prosjektet er målet å få til tapsfri koding av et bilde, som eksempelbilde brukes lena. Mange hint, inkludert datafiler og nyttige Matlab-filer er på IC-tools nettsida. 1. Grunnleggende bildebehandling. Dere skal laste inn bildet lena i Matlab og se på det. Rapporten skal inneholde (a) En utskrift (figur) med hele bildet (gråtoner). (b) Et utsnitt av området omkring øynene. (c) Dimensjon for bildet, antall pixler i høyde og bredde retning. (d) Minimum og maksimum verdi for pixlene. Karl Skretting, Institutt for data- og elektroteknikk (IDE), Universitetet i Stavanger (UiS), 4036 Stavanger. Sentralbord Direkte E-post: karl.skretting@uis.no.

2 (e) En figur med et histogram for pixelverdiene i bildet. (f) Førsteordens entropi for bildet. 2. Omdann bildet til en sekvens av pixel (heltall) linje for linje kolonne for kolonne linje for linje og DPCM kolonne for kolonne og DPCM For hver av disse fire sekvensene skal dere (a) finne førsteordens entropi for sekvensen (b) estimere hvor mange bit sekvensen kan kodes med (c) kode sekvensen med Huff Omdann bildet til flere sekvenser med en prediksjon eller CALIC-lignende metode. Her kan nyttige tips finnes på IC-tools nettsida og på JPEG-LS og andre sider i Wikipedia. Dere skal forklare metoden som brukes, og hvorfor dette er hensiktsmessig. Metoden vil da typisk omforme bilde til flere sekvenser av heltall, for hver av disse sekvensene skal dere (a) finne førsteordens entropi for hver sekvensene (b) estimere hvor mange bit sekvensene kan kodes med (c) kode sekvensene med Huff06. 2

3 2 Sannsynlighetsregning, en kort oppsummering. Stoffet som presenteres her er ei kort oppsummering av det som ofte presenteres i de aller første kapitlene i ei lærebok om sannsynlighetsregning, eller i et eget tilleggskapittel (appendix) i lærebøker om emner (signalbehandling, datakomprmering,...) der sannsynlighetsregning brukes. Det kan godt være at dere bør se deres favorittbok om sannsynlighetsregning i stedet for denne oppsummeringa. I Wikipedia står det mye om sannsynlighetsregning, hvis en ønsker å se der kan en gjerne starte med sannsynlighets teori eller ei liste med aktuelle delemner. 2.1 Introduksjon, hendelser Et stokastisk eksperiment, eller bare et eksperiment, er en prosess der resultatet, her gjerne kalla utfallet (eng. outcome), er avhengig av tilfeldigheter (det vil si effekter vi ikke har noen kjennskap til). Eksempler: kaste terning, trekke kort, måle været, antall telefoner inn til et kontor, antall trafikkulykker, og mye mer. Eksperiment i denne sammenheng er altså videre enn fag som kjemi og fysikk. Utfallet ses på som et punkt (element) i et sett (med alle muligheter) S, det kalles utfallsrommet (eng. sample space). Ulike deler av dette rommet (subsett) kalles hendelser (eng. events). For hendelsen E definerer vi sannsynligheten, P (E). En har 0 P (E) 1. (1) For utfallsrommet S har en P (S) = 1. Hendelsen ikke E kalles komplementet til E og skrives E C, en har P (E C ) = 1 P (E). (2) For to hendelser, A og B, har en at unionen av disse hendelsene, (A B), betyr at en av hendelsene skjer eller at begge hendelser skjer. For sannsynligheten har en alltid P (A B) = P (A) + P (B) P (A B) (3) Her er hendelsen P (A B) snittet av de to hendelser A og B. Det betyr at begge hendelsene inntreffer. I noen bøker skrives dette uten og da har en AB = A B. Merk at det må komme tydelig fram av sammenhengen at A og B da representerer hendelser, ikke konstanter eller (stokastiske) variabler. Hendelsene A og B er gjensidig utelukket, det er det samme som disjunkte, hvis snittet av disse to settene er den tomme mengden, AB = A B =. (4) 3

4 Da har en P (A B) = P (A) + P (B). (5) Betinget sannsynlighet for en hendelse B gitt hendelse A (at hendelse A har inntruffet eller hvis/forutsatt at hendelse A inntreffer) skrives P (B A) og en har P (A B) P (B A) =. (6) P (A) og formelen som gjerne kalles Bayes formel P (AB) = P (A B) = P (B A)P (A) = P (A B)P (B). (7) Hendelsene A og B kalles uavhengige hvis P (AB) = P (A B) = P (A)P (B). (8) da har en P (B A) = P (B) og P (A B) = P (A). (9) 2.2 Stokastiske variabler Til et eksperiment kan vi knytte en stokastisk variabel (eng. random variable) X. Dette er en funksjon som er definert over S. Vi antar nå at verdiene i S er reelle tall (i teorien og praksis kan de gjerne være mye mer, typisk et sett av logiske, heltalls og reelle verdier). Den stokastiske variabelen X kan da også ta et reelt tall som verdi. Vi skriver da: Sannsynligheten for at X tar (har) verdien a som P (X = a). Sannsynligheten for at X er i intervallet mellom a og b skrives P (a < X < b). Sannsynlighetsfordelingen til X er da bestemt av sannsynlighetsfordelingsfunksjonen, på engelsk kalles denne cumulative distribution function som forkortes cdf. F (x) = P ( < X x). (10) 2.3 Diskrete stokastiske variabler For en diskret stokastisk variabel X har en at den må ta en verdi fra et tellbart utfallsrom S = {x 1, x 2,...}. En diskret stokastisk variabel har definert en sannsynlighetstetthetsfordelingsfunksjon, p(x) = P (X = x), på engelsk kalles denne probability mass function eller også med navnet som helst brukes for kontinuerlige stokastiske variabler probability density function, som forkortes pdf og ofte skrives som f(x). En skriver ofte også f(x) (i stedet for p(x)) 4

5 for diskrete variabler. En har da at p(x i ) er positiv, p(x) = 0 for x / S, og at sannsynlighetene summeres opp til 1 p(x i ) = 1, i=1 f(x) dx = 1. (11) Sannsynlighetsfordelingen til X, F (x), er da bestemt av sannsynlighetstetthetsfordelingsfunksjon, p(x), F (x) = P ( < X x) = p(x i ) = x all x i x f(u) du. (12) Gjennomsnittet eller forventningsverdien (eng. mean), µ, er definert som µ = E[X] = j x j p(x j ). (13) Variansen, σ 2, er definert som σ 2 = Var(X) = E[(X E[X]) 2 ] = j (x j µ) 2 p(x j ). (14) For begge har en at x j er de verdier av X der sannsynligheten er positiv (det vil si ulik 0). Noen viktige diskrete stokastiske variabler er binomialfordeling, Poissonfordeling, og hypergeometriskfordeling. 2.4 Kontinuerlige stokastiske variabler Kontinuerlige stokastiske variabler har en tetthet, den kan finnes ved å derivere sannsynlighetsfordelingsfunksjonen F (x) og da får en sannsynlighetstetthetsfordelingsfunksjonen f(x) = F (x). Gjennomsnitt og varians er definert som µ = E[X] = σ 2 = Var(X) = E[(X µ) 2 ] = xf(x) dx. (15) (x µ) 2 f(x) dx. (16) Normalfordelingen (Gaussisk fordeling) er den viktigste kontinuerlige fordelingen, der har en sannsynlighetstetthetsfordelingsfunksjonen definert som f(x) = 1 σ 1 2π e Denne funksjonen er plottet i figur 1. 2 ( x µ σ )2. (17) 5

6 1 σ = π σ µ 2σ µ σ µ µ + σ µ + 2σ Figur 1: Sannsynlighetstetthetsfordelingsfunksjonen for normalfordelingen. 2.5 Avhengige og uavhengige stokastiske variabler Når vi samtidig observerer to stokastiske variabler (for eksempel høyde X og vekt Y for personer) kan en danne en todimensjonal stokastisk variable (X, Y ). Den felles sannsynlighetsfordelingsfunksjonen (cdf) er F (x, y) = F XY (x, y) = P (X x, Y y). (18) X og Y har også sine egne sannsynlighetsfordelingsfunksjoner og F X (x) = F XY (x, ) = P (X x, Y hva som helst) (19) F Y (y) = F XY (, y) = P (X hva som helst, Y y), (20) disse kalles marginale fordelinger. Tilsvarende har en også sannsynlighetstetthetsfordelingsfunksjonene (pdf), f XY (x, y), f(x, y) = f XY (x, y) = P (X = x, Y = y) (diskret) (21) F XY (a, b) = b a For kontinuerlige stokastiske variabler kan en skrive f XY (x, y)dxdy (kontinuerlig) (22) og f X (x) = f Y (y) = f XY (x, y)dy (23) f XY (x, y)dx (24) Hvis en har at F XY (x, y) = F X (x)f Y (y) eller like gjerne f XY (x, y) = f X (x)f Y (y) sier en at X og Y statistisk uavhengige. Kovarians for to vilkårlige stokastiske 6

7 variabler X og Y er definert av Cov(X, Y ) = E[(X E[X])(Y E[Y ])] Cov(X, Y ) = E[XY ] E[X]E[Y ] (25) Hvis E(XY ) = E(X)E(Y ) sies X og Y å være ukorrelerte, da har en Cov(X, Y ) = 0. Merk at statistisk uavhengighet impliserer ukorrelerthet, det motsatte er ikke nødvendigvis tilfelle. 2.6 Bruk i datakomprimering I datakomprimering er sannsynlighetsregning viktig, eller kanskje mer presist estimering av sannsynlighet er viktig. Det en skal kode (komprimere) antas gjerne å være en sekvens av symboler (tall). Koding (og dekoding) skjer gjerne ved at en tar et og et symbol i rekkefølge og gjør om til en bitsekvens. Hvis en vet sannsynligheten for et symbol, eller kan estimere denne ganske nøyaktig, så kan en (med aritmetisk koding) kode dette symbolet med så få bit som teoretisk mulig, altså på en optimal måte. Ved aritmetisk koding trenger en ikke nødvendigvis ha et heltall antall bit for koding av et symbol, en kan for eksempel ha 0.42 bit for symbolet. En enkel måte å estimere sannsynligheten for et symbol er å telle hvor mange ganger symbolet forekommer i sekvensen. Anta at symbolet s i forekommer n i ganger i en sekvens med N symboler totalt. Estimert sannsynlighet for s i i en tilfeldig posisjon i denne sekvensen er da P (s i ) = n i /N. I en gitt posisjon kan sannsynligheten være en annen, for eksempel hvis en vet at sekvensen er sortert, hvis en vet foregående symbol, eller kanskje alle de foregående symboler. Poenget er at en ikke trenger å kode den informasjonen som er kjent eller som en kan beregne (ved dekoding!). Er data dekorrellerte så er sannsynligheten for et symbol ikke avhengig av foregående (eller etterfølgende) symboler, det er da mye enklere å estimere sannsynligheten riktig for de ulike symboler og dermed få bedre komprimering. En modell som gir riktig sannsynlighet, riktig sannsynlighetsfordeling, er svært nyttig. Er data ikke helt dekorrelerte kan en hensiktsmessig modell være et godt hjelpemiddel for koding. Ex. SPIHT for bildekomprimering. 7

8 3 Informasjonsteori Også dette er et fagfelt i seg selv. Dette blir fort ganske komplisert, med de grunnleggende begrepene informasjon og entropi er enklere og nyttige i forbindelse med datakomprimering. Også for dette emne kan en se i Wikipedia under Information theory. I forbindelse med datakomprimering er spesielt (sann) entropi viktig. Dette er nemlig minste mulige antall bit per symbol en kan forvente å få ved tapsfri komprimering. 3.1 Informasjon Vi ønsker et mål, en enhet, for informasjon knyttet til en hendelse A, i(a). For dette målet er det naturlig at en ønsker følgende egenskaper Informasjon er avhengig av sannsynligheten: i(a) = f(p (A)). Til mer sannsynlig A er til mindre informasjon. Altså er i(a) en minkende funksjon av sannsynligheten. Informasjon til to uavhengige hendelser skal være summen av informasjonen for hver enkelt hendelse. Altså hvis P (AB) = P (A)P (B) så i(ab) = i(a) + i(b). Ut fra dette kan en vise, som Shannon gjorde i 1948, at den logiske (faktisk eneste mulige) definisjone for (selv-)informasjon er i(a) = log b 1 P (A) = log b P (A). (26) Hvis b = 2 så er enhet for informasjonen bits. Prefikset selv for informasjonen er med for å presisere at det er hele informasjonen knyttet til hendelsen A, men ingenting mer. 3.2 Entropi Entropi som begrep er knyttet til (kilden for) en sekvens av hendelser, hvert element er hendelsens utfall. Gitt en datakilde som genererer en sekvens av element der hvert element er fra settet {A 1, A 2,... A m }. I første omgang antar en at hvert element som genereres er uavhengig av alle andre element og at P (A i ) er sannsynligheten for A i i alle posisjoner. Gjennomsnitts informasjon for hvert symbol kalles da entropi og er nå m m H = P (A i )i(a i ) = P (A i ) log 2 P (A i ). (27) i=1 i=1 8

9 Merk at vi her har b = 2 så enhet er bits. Hvis elementene ikke er uavhengige av hverandre, eller symbolene har sannsynlighet som varierer med posisjon så kan en se på en sekvens med n symboler som et enkelt element, et enkelt symbol som vi her kaller A n A n = [A k(1), A k(2),... A k(n) ], k(i) {1, 2,... m}. (28) Det er da totalt m n mulige symboler, og hver har sin spesielle sannsynlighet. Entropi med hensyn til symbolene A n er da m n H n = P (A n i ) log 2 P (A n i ) (29) i=1 Ofte vil en ha det slik at hvert enkelt symbol (A i ) er kun avhengig av omkringliggende symboler og uavhengig av symboler langt vekke. For eksempel så er maksimum temperatur (for å ha det riktig bør en heller si avvik fra middelverdien for aktuell dato/årstid) hvert døgn gjerne avhengig av tilsvarende verdier døgnene like før (eller etter for den saks skyld), men uavhengig av maksimum temperatur for lenger siden. Dermed vil en ha at avhengiheten mellom lange symbol avtar etter hvert som lengde av symbolene øker, fordi det avhengige området relativt sett blir kortere og kortere. Dermed kan en definere entropi for disse lange sekvensene som for uavhengige symbol. Altså, under forutsetning av at de lange symbolene er uavhengige av hverandre (og av posisjonene sine), en kan anta at de lange symbolene blir uavhengige av hverandre (og av posisjonene sine) at når n, da defineres entropi med hensyn til de enkelte symbolene A i fra kilden S som 1 H(S) = lim n n Hn. (30) Ofte brukes bare førsteordens entropi, som er den entropien en får for symbolene når en antar at de er uanhengige av hverandre (selv om de faktisk ikke er uavhengige av hverandre) H = i P (A i ) log 2 P (A i ). (31) P (A i ) er da gjerne estimert ut fra en realisering av prosessen (kilden S). Hvis symbolene fra kilden er uavhengige og likt fordelt (iid) så er førsteordens entropi og (sann) entropi den samme. For de fleste virkelige signaler er det imidlertid ikke slik. Eksempel med iid. Alfabet er {a, b, c, d}. Sannsynligheter er henholdsvis { 1 2, 1 4, 1 8, 1 8 }. 9

10 Vi får da: 4 H = P (A i ) log 2 (1/P (A i )) i=1 = 1 2 log 2(2) log 2(4) log 2(8) log 2(8) = = 7 4. (32) 3.3 Modeller Utgangspunktet for beregning av entropi er gjerne en datamodell. Dette er ofte en iid-modell eller en Markov-modell. Nedenfor er en enkel figur som illustrerer en generell modell. Kilde Symbol Det er ofte hensiktsmessig å lage en modell for kilden som genererer sekvensen av symboler. En kan da beregne noen egenskaper for modellen, for eksempel entropi, og så overføre disse til kilden. Virkeligheten eller kilden er for eksempel: lyd, bilde, video, tekst, eller datafil. Merk at her forenkler vi og kaller også 2D-data som et bilde for en sekvens, noe det jo ikke er. Modellene kan være av varierende kompleksitetsgrad. De kan være enkle, og dermed ganske greie å beregne egenskaper ut fra men de passer da kanskje ikke så godt til virkeligheten. Modellene kan også være ganske store og komplekse, og da gjerne passe ganske bra med virkeligheten. I denne sammenheng har en at en modell passer til en kilde hvis de genererer symbolsekvenser med samme statistiske egenskaper. Det er ofte vanskelig å finne gode enkle modeller som passer bra til virkelige kilder. iid-modell Den enkleste modellen er en iid-modell, da er symbolene fra kilden er uavhengige og likt fordelt. Det er gjerne utgangspunktet, den modellen en prøver først, hvis en ikke vet noe om kilden, men bare har en resulterende sekvens. iid-modell x 3, x 2, x 1 10

11 I figuren over er x i symboler fra et alfabet A, x i A = {a 1, a 2,..., a M }, og hver x i har samme sannsynlighetsfordeling P (x i = a j ) = P (a j ), for j = 1, 2,..., M. (33) og j P (a j) = 1. For iid-modell er entropi lik førsteordens entropi. En utvidelse er at hvis en har noe forhåndskunnskap, eller gjør prediksjon for neste symbol, så kan en bruke en iid-modell for systemet som består av både kilden og prediktoren. Det vil si at en antar et prediksjonsfeilene passer til en iid-modell. Generell Markov-modell Ved tidspunkt n er kilden i en bestemt tilstand, som en kaller s n (state). For en Markovkilde er denne tilstanden gitt av de k siste utverdiene. For hver mulig tilstand, s i, antar en så en iid-modell. Disse modellen er ulike hverandre. En k-te ordens Markov-modell er P (x n = a j s n ) = P (a j s n ) (34) = P (x n x n 1, x n 2,..., x n k ) (35) Merk at de her skriver kun x n der det fullstendig burde stått x n = a j. Uansett, merk at tilstandene kun er definert ut fra tidligere utgangsverdier og ikke noen mer inngående kunnskap om kilden. Markov-modellen for kilden ar da gitt av orden og alle (estimerte) sannsynligheter P (a j s i ). Hvis alfabetet har M symbol og orden er k så har en M k ulike tilstander. Alle sannsynlighetene kan samles i ei stor matrise P med størrelse M M k. Denne kalles transisjonsmatrisa for modellen. P (a j s i ) = P j,i = P (j, i). (36) Merk at en i P har indeks j først for å angi linje og indeks i sist for å angi kolonne. En kar også at sum av sannsynligheter for hver tilstand skal være 1, det er sum av hver kolonne i matrisa P, M j=1 P (j, i) = 1 for alle i. Entropi for Markov-modellen er da veid gjennomsnitt av entropi for hver av tilstandene M k H = P (s i )H(s i ) (37) i=1 H(s i ) = M P (a j s i ) log 2 P (a j s i ) (38) j=1 Sannsynlighet for hver av tilstandene, P (s i ), kan en finne ut fra matrisa P, generelt er det komplisert men for en førsteordens Markov-modell er det ganske greitt. 11

12 Førsteordens Markov-modell Tilstanden er kun avhengig av forrige utsymbol, s n = x n 1. Merk s n er tilstand i steg n, mens s i er tilstand nummer i (av de M k mulige). For førsteordens Markov-modell har en altså k = 1. Eksempel: linje i et binært bilde (telefaks) kan gjerne modelleres med en førsteordens Markov-modell. Alfabetet er da A = {b, w}, M = 2. Modellen har da to tilstander s w og s b kun avhengig av om forrige symbol er henholdsvis w eller b. En har for eksempel estimert P (s w ) = 30/31 og P (s b ) = 1/31, vi mener her det samme med P (s w ) som P (x = w) og P (w). Videre har vi de betingde sannsynlighetene P (w s w ) = 0.99 P (w s b ) = 0.3 P (b s w ) = 0.01 P (b s b ) = 0.7 Med iid-modell vil en da finne (førsteordens) entropi som H = P (w) log 2 P (w) P (b) log 2 P (b) (39) = 30/31 log 2 30/31 1/31 log 2 1/31 = (40) Med førsteordens Markov-modell får en da for hver av de ulike tilstandene H(s w ) = P (b s w ) log 2 P (b s w ) P (w s w ) log 2 P (w s w ) (41) = 0.01 log log = (42) H(s b ) = P (b s b ) log 2 P (b s b ) P (w s b ) log 2 P (w s b ) (43) = 0.7 log log = (44) Og med å vekte disse to entropiene med sannsynlighetene for hver tilstand får vi entropi for førsteordens Markov-kilde som H = P (s b )H(s b ) + P (s w )H(s w ) (45) = 1/ / = (46) En kan merke seg at den riktigere modellen, førsteordens Markov-kilde, gir lavere entropi enn en iid-modell. Her hadde vi gitt P (s w ) og P (s b ). De kan også finnes ut fra transisjonsmatrisa [ ] P =. (47) La Vi har v n = [ P (xn = w) P (x n = b) ] [ P (xn+1 = w), og v n+1 = P (x n+1 = b) ]. (48) v n+1 = Pv n og v n+k = P k v n (49) 12

13 Uansett hva v n er vil dette ofte konvergerer (det kan også være at en kommer inn i en fast syklus) [ ] P lim v (sw ) n+k =. (50) k P (s b ) Det vil si at hver kolonne i P k da er v n+k, (k ). Altså [ ] P (sw ) P (s lim k Pk = w ). (51) P (s b ) P (s b ) Dere kan gjerne teste om P som gitt i ligning mot de oppgitte verdiene. 47 konvergerer og om det er 3.4 Oppsummering Her kommer en kort oppsummering om estimering av førsteordens entropi, og estimering av antall bit for en sekvens ut fra estimert første-ordens entropi. N ulike symboler i alfabetet A = {s 1, s 2,..., s N }. En har en sekvens med L symbol F = {s i1, s i2,..., s il }, der i j [1,..., N]. Antall forekomster av hvert symbol er n 1, n 2,..., n N, og en har rimeligvis at N i=1 n i = L. Sannsynlighet for hvert symbol estimeres da som p i = n i /L. Første-ordens entropi er H = N i=1 p i log 2 p i som også kan skrives som H = log 2 L 1 L N i=1 n i log 2 n i. og estimert antall bit for (å kode) en sekvens er da HL. 13

14 MIK 200 Anvendt signalbehandling. Prosjekt 1, Tapsfri komprimering. Student 1 Student 2 Resultat: (fylles ut av faglærer) godkjent / ikke godkjent Egenvurdering: Mål for læringsutbytte er: En skal kunne bruke de grunnleggende Matlabkommandoer for bildebehandling. En skal kunne noen grunnleggende begreper, slik som informasjon, entropy og sammenhengen med datakomprimering. En skal forstå og bruke noen metoder for tapsfri komprimering. En skal også kunne implementere disse i Matlab, og presentere og tolke resultatene på en god og riktig måte. Dere skal også selv vurdere resultatet av det arbeidet dere har gjort i denne øvinga, ved selv å gi karakter på deres besvarelse. Karakterskala er den vanlige fra A (best) til E (dårligst) og F (stryk). Egenvurderingstabell Student 1 Student 2 Læringsutbytte for oppgave 1. Læringsutbytte for oppgave 2. Læringsutbytte for oppgave 3. Rapport, oppgave 1. Rapport, oppgave 2. Rapport, oppgave 3. Kommentarer:

Eksempel: kast med to terninger

Eksempel: kast med to terninger Kapittel 3 TMA4245 V2007: Eirik Mo 2 Eksempel: kast med to terninger I et eksperiment kaster vi to terninger og registerer antall øyne på hver terning. Utfallsrom S={(,),(,2),(,3),...,(,), (2,),...,(2,),...,(,)}

Detaljer

To-dimensjonale kontinuerlige fordelinger

To-dimensjonale kontinuerlige fordelinger To-dimensjonale kontinuerlige fordelinger Noen resultater for diskrete fordelinger Vi har tidligere definert punktsannsynligheten p(x, y) for en todimensjonal variabel (X, Y ) som p(x, y) = P ({X = x}

Detaljer

TMA4240 Statistikk Høst 2008

TMA4240 Statistikk Høst 2008 TMA4240 Statistikk Høst 2008 Norges teknisk-naturvitenskapelige universitet Institutt for matematiske fag Øving nummer 7 Oppgave 1 Tippekonkurranse Denne oppgaven er ment som en kjapp test på hva du har

Detaljer

Diskrete sannsynlighetsfordelinger som histogram. Varians. Histogram og kumulativ sannsynlighet. Forventning (gjennomsnitt) (X=antall mynt i tre kast)

Diskrete sannsynlighetsfordelinger som histogram. Varians. Histogram og kumulativ sannsynlighet. Forventning (gjennomsnitt) (X=antall mynt i tre kast) Diskret sannsynlighetsfordeling (kap 1.1-1.6) Oversikt Utfallsrom (sample space) Sannsynlighetsfordeling Forventning (expectation), E(X), populasjonsgjennomsnitt Bruk av figurer og histogram Binomialfordelingen

Detaljer

MIK 200 Anvendt signalbehandling, Prosjekt 3, Wavelet-transformasjon.

MIK 200 Anvendt signalbehandling, Prosjekt 3, Wavelet-transformasjon. Stavanger, 28. februar 2012 Det teknisknaturvitenskapelige fakultet MIK 200 Anvendt signalbehandling, 2012. Prosjekt 3, Wavelet-transformasjon. Vi skal i dette miniprosjektet se litt på bruk av wavelet

Detaljer

Diskrete sannsynlighetsfordelinger som histogram. Varians. Histogram og kumulativ sannsynlighet. Binomial-fordelingen

Diskrete sannsynlighetsfordelinger som histogram. Varians. Histogram og kumulativ sannsynlighet. Binomial-fordelingen Diskret sannsynlighetsfordeling (kap 1.1-1.6) Oversikt Utfallsrom (sample space) Sannsynlighetsfordeling Forventning (expectation), E(, populasjonsgjennomsnitt Bruk av figurer og histogram Binomialfordelingen

Detaljer

Kapittel 2: Hendelser

Kapittel 2: Hendelser Kapittel 2: Hendelser FENOMEN Eksperiment Utfall Utfallsrom Eksperiment. Utfall. Eksperiment Utfall Hendelse Sannsynlighet: egenskaper, gunstige vs. mulige, relativ frekvens Sannsynlighet for mer enn en

Detaljer

Foreleses onsdag 8. september 2010

Foreleses onsdag 8. september 2010 TMA4240 Statistikk H200 4.2: Varians (univariat del) 4.4: Chebyshevs teorem 3.4: Simultanfordelinger Mette Langaas Foreleses onsdag 8. september 200 Mette.Langaas@math.ntnu.no, TMA4240H200 2 4.2 Varians

Detaljer

Kapittel 3: Stokastiske variable og sannsynlighetsfordelinger

Kapittel 3: Stokastiske variable og sannsynlighetsfordelinger Kapittel 3: Stokastiske variable og sannsynlighetsfordelinger TMA4245 Statistikk (B, K1, I) 3.1, 3.2, 3.3 foreleses torsdag 15.januar 0.00 0.02 0.04 0.06 0.08 160 170 180 190 hoyde i cm Mette.Langaas@math.ntnu.no

Detaljer

Kapittel 3: Stokastiske variable og sannsynlighetsfordelinger

Kapittel 3: Stokastiske variable og sannsynlighetsfordelinger f(x,y) NTNU Kapittel 3: Stokastiske variable og sannsynlighetsfordelinger TMA4240 Statistikk (F2 og E7) 3.4: Foreleses mandag 30.august y=hoyde x=vekt Ole.Petter.Lodoen@math.ntnu.no p.1/18 Oppsummering

Detaljer

Generell informasjon om faget er tilgjengelig fra fagets nettside, og for øvinger brukes It s learning. 1 Stokastiske system og prosesser 2

Generell informasjon om faget er tilgjengelig fra fagets nettside, og for øvinger brukes It s learning. 1 Stokastiske system og prosesser 2 Stavanger, 4. august 016 Det teknisknaturvitenskapelige fakultet ELE60 Systemidentifikasjon, 016. Generell informasjon om faget er tilgjengelig fra fagets nettside, og for øvinger brukes It s learning.

Detaljer

Terningkast. Utfallsrommet S for et terningskast med en vanlig spillterning med 6 sider er veldefinert 1, 2, 3, 4, 5, 6

Terningkast. Utfallsrommet S for et terningskast med en vanlig spillterning med 6 sider er veldefinert 1, 2, 3, 4, 5, 6 Terningkast Halvor Aarnes, UiO, 2014 Innhold Ett terningkast og utfallsrom... 1 Union og snitt... 4 Betinget sannsynlighet... 5 Forventningsverdi E(X) og varianse Var(X)... 5 Konfidensintervall for proporsjoner...

Detaljer

TMA4240 Statistikk H2010

TMA4240 Statistikk H2010 TMA4240 Statistikk H2010 3.3: Kontinuerlige sannsynlighetsfordelinger 4.1: Matematisk forventing (univariat del) Mette Langaas Foreleses mandag 6. september 2010 2 3.1 Stokastisk variabel (repetisjon)

Detaljer

3.1 Stokastisk variabel (repetisjon)

3.1 Stokastisk variabel (repetisjon) TMA4240 Statistikk H2010 3.3: Kontinuerlige sannsynlighetsfordelinger 4.1: Matematisk forventing (univariat del) Mette Langaas Foreleses mandag 6. september 2010 2 3.1 Stokastisk variabel (repetisjon)

Detaljer

MIK 200 Anvendt signalbehandling, 2012. Prosjekt 2, Diskret kosinus-transformasjon.

MIK 200 Anvendt signalbehandling, 2012. Prosjekt 2, Diskret kosinus-transformasjon. Stavanger, 25. januar 2012 Det teknisknaturvitenskapelige fakultet MIK 200 Anvendt signalbehandling, 2012. Prosjekt 2, Diskret kosinus-transformasjon. Vi skal i dette miniprosjektet se litt på bruk av

Detaljer

Sum to terninger forts. Eksempel: kast med to terninger. Sum to terninger forts. Kapittel 3. TMA4240 H2006: Eirik Mo

Sum to terninger forts. Eksempel: kast med to terninger. Sum to terninger forts. Kapittel 3. TMA4240 H2006: Eirik Mo 3 Sum to terninger forts. Kapittel 3 TMA4240 H200: Eirik Mo 2 3 4 5,,2,3,4,5, 2 2, 2,2 2,3 2,4 2,5 2, Andre 3 3, 3,2 3,3 3,4 3,5 3, terning 4 4, 4,2 4,3 4,4 4,5 4, 5 5, 5,2 5,3 5,4 5,5 5,,,2,3,4,5, Med

Detaljer

Generell informasjon om faget er tilgjengelig fra It s learning. 1 En kort oppsummering Adaptiv filtrering 2. 3 Prediksjon 4

Generell informasjon om faget er tilgjengelig fra It s learning. 1 En kort oppsummering Adaptiv filtrering 2. 3 Prediksjon 4 Stavanger, 13. august 2013 Det teknisknaturvitenskapelige fakultet ELE500 Signalbehandling, 2013. Generell informasjon om faget er tilgjengelig fra It s learning. Innhold 1 En kort oppsummering. 1 2 Adaptiv

Detaljer

Oppfriskning av blokk 1 i TMA4240

Oppfriskning av blokk 1 i TMA4240 Oppfriskning av blokk 1 i TMA4240 Geir-Arne Fuglstad November 21, 2016 2 Hva har vi gjort i dette kurset? Vi har studert to sterkt relaterte grener av matematikk Sannsynlighetsteori: matematisk teori for

Detaljer

3.4: Simultanfordelinger (siste rest) 4.1,4.2,4.3: Multivariat del (ferdig med kapittel 3 og 4 etter denne forelesningen)

3.4: Simultanfordelinger (siste rest) 4.1,4.2,4.3: Multivariat del (ferdig med kapittel 3 og 4 etter denne forelesningen) TMA4240 Statistikk H200 3.4: Simultanfordelinger (siste rest) 4.,4.2,4.3: Multivariat del (ferdig med kapittel 3 og 4 etter denne forelesningen) Mette Langaas Foreleses mandag 3. september 200 2 f (x,

Detaljer

Generell informasjon om faget er tilgjengelig fra It s learning. 7.1 Stokastisk prosess Lineær prediktor AR-3 prosess...

Generell informasjon om faget er tilgjengelig fra It s learning. 7.1 Stokastisk prosess Lineær prediktor AR-3 prosess... Stavanger, 1. september 013 Det teknisknaturvitenskapelige fakultet ELE500 Signalbehandling, 013. Generell informasjon om faget er tilgjengelig fra It s learning. Innhold 7.1 Stokastisk prosess..........................

Detaljer

Løsningsforslag ECON 2130 Obligatorisk semesteroppgave 2017 vår

Løsningsforslag ECON 2130 Obligatorisk semesteroppgave 2017 vår Løsningsforslag ECON 130 Obligatorisk semesteroppgave 017 vår Andreas Myhre Oppgave 1 1. (i) Siden X og Z er uavhengige, vil den simultane fordelingen mellom X og Z kunne skrives som: f(x, z) = P(X = x

Detaljer

TMA4240 Statistikk H2010

TMA4240 Statistikk H2010 TMA4240 Statistikk H2010 2.8: Bayes regel 3.1: Stokastisk variabel 3.2: Diskrete sannsynlighetsfordelinger 3.3: Kontinuerlige sannsynlighetsfordelinger Mette Langaas Foreleses onsdag 1. september 2010

Detaljer

Betinget sannsynlighet

Betinget sannsynlighet Betinget sannsynlighet Multiplikasjonsloven for sannsynligheter (s. 49 i bok): P( AB ) = P( A B ) P(B) Veldig viktig verktøy for å finne sannsynligheter for snitt. (Bevises ved rett fram manipulering av

Detaljer

Forelening 1, kapittel 4 Stokastiske variable

Forelening 1, kapittel 4 Stokastiske variable Forelening 1, kapittel 4 Stokastiske variable Eksempel X = "antall kron på kast med to mynter (før de er kastet)" Uniformt utfallsrom {MM, MK, KM, KK}. X = x beskriver hendelsen "antall kron på kast med

Detaljer

ÅMA110 Sannsynlighetsregning med statistikk, våren 2008

ÅMA110 Sannsynlighetsregning med statistikk, våren 2008 ÅMA0 Sannsynlighetsregning med statistikk, våren 008 Kp. Sannsynlighetsregning (sannsynlighetsteori).5 Betinget sannsynlighet Betinget sannsynlighet (kp..5) - innledning Eks.: Et terningkast; {,, 3, 4,

Detaljer

Forelesning 13. mars, 2017

Forelesning 13. mars, 2017 Forelesning 13. mars, 217 AVSNITT 5.2 Kovariansen mellom to variable Korrelasjon mellom to variable AVSNITT 5.3 Betingede fordelinger Kovariansen mellom to stokastiske variable Kovariansen mellom to stokastiske

Detaljer

Stokastisk variabel. Eksempel augefarge

Stokastisk variabel. Eksempel augefarge Dagens tekst Kap 3: Stokastiske variable og sannsynsfordelingar Stokastisk variabel: Diskret sannsynsfordeling: Kontinuerleg sannsynsfordeling: Kummulativ sannsynsfordeling: Diskret simultanfordeling Kontinuerleg

Detaljer

1 Section 4-1: Introduksjon til sannsynlighet. 2 Section 4-2: Enkel sannsynlighetsregning. 3 Section 5-1: Introduksjon til sannsynlighetsfordelinger

1 Section 4-1: Introduksjon til sannsynlighet. 2 Section 4-2: Enkel sannsynlighetsregning. 3 Section 5-1: Introduksjon til sannsynlighetsfordelinger 1 Section 4-1: Introduksjon til sannsynlighet 2 Section 4-2: Enkel sannsynlighetsregning 3 Section 5-1: Introduksjon til sannsynlighetsfordelinger 4 Section 5-2: Tilfeldige variable 5 Section 5-3: Binomisk

Detaljer

Forelesning 5: Kontinuerlige fordelinger, normalfordelingen. Jo Thori Lind

Forelesning 5: Kontinuerlige fordelinger, normalfordelingen. Jo Thori Lind Forelesning 5: Kontinuerlige fordelinger, normalfordelingen Jo Thori Lind j.t.lind@econ.uio.no Oversikt 1. Kontinuerlige fordelinger 2. Uniform fordeling 3. Normal-fordelingen 1. Kontinuerlige fordelinger

Detaljer

MIK 200 Anvendt signalbehandling, 2012. Lab. 5, brytere, lysdioder og logikk.

MIK 200 Anvendt signalbehandling, 2012. Lab. 5, brytere, lysdioder og logikk. Stavanger, 25. januar 2012 Det teknisknaturvitenskapelige fakultet MIK 200 Anvendt signalbehandling, 2012. Lab. 5, brytere, lysdioder og logikk. Vi skal i denne øvinga se litt på brytere, lysdioder og

Detaljer

Høgskolen i Telemark. Institutt for økonomi og informatikk FORMELSAMLING Statistikk I. Til bruk ved eksamen. Per Chr. Hagen

Høgskolen i Telemark. Institutt for økonomi og informatikk FORMELSAMLING Statistikk I. Til bruk ved eksamen. Per Chr. Hagen Høgskolen i Telemark Institutt for økonomi og informatikk FORMELSAMLING 6005 Statistikk I Til bruk ved eksamen Per Chr. Hagen . Sannsynlighetsregning. Regneregler Komplementsetningen: Addisjonssetningen:

Detaljer

Tyngdepunkt. Togforsinkelsen (Eksamen Des2003.1a) I denne oppgaven kan du bruke uten å vise det at. Kapittel 4

Tyngdepunkt. Togforsinkelsen (Eksamen Des2003.1a) I denne oppgaven kan du bruke uten å vise det at. Kapittel 4 3 Tyngdepunkt Kapittel 4 Forventningsverdi, varians, kovarians for én stokastisk variabel og funksjoner av stokastiske variabler TMA4240 H2006: Eirik Mo 2 4.1 Forventing til en stokastisk variabel DEF

Detaljer

1.1.1 Rekke med konstante ledd. En rekke med konstante ledd er gitt som. a n (1) n=m

1.1.1 Rekke med konstante ledd. En rekke med konstante ledd er gitt som. a n (1) n=m Formelsamling og tabeller FO020E Matte 2000 for elektroprogrammet 1 Matematikk 1.1 Denisjoner av ulike typer polynomer og rekker 1.1.1 Rekke med konstante ledd En rekke med konstante ledd er gitt som a

Detaljer

ST1101/ST6101 Sannsynlighetsregning og statistikk Vår 2019

ST1101/ST6101 Sannsynlighetsregning og statistikk Vår 2019 Norges teknisk naturvitenskapelige universitet Institutt for matematiske fag ST/ST Sannsynlighetsregning og statistikk Vår 9 Oppgaver fra boka 3..9 Ved et terningkast anses utfallet antall øyne lik for

Detaljer

FORMELSAMLING TIL STK1100 OG STK1110

FORMELSAMLING TIL STK1100 OG STK1110 FORMELSAMLING TIL STK1100 OG STK1110 (Versjon av 16. november 2009) 1. Sannsynlighet La A, B, A 1, A 2,...,B 1, B 2,... være begivenheter, dvs. delmengder av et utfallsrom Ω. a) Aksiomene: Et sannsynlighetsmål

Detaljer

6 x P (X = x) = x=1 = P (X 2 = 6)P (X 2 = 6)P (X 3 = 6) =

6 x P (X = x) = x=1 = P (X 2 = 6)P (X 2 = 6)P (X 3 = 6) = Norges teknisk-naturvitenskapelige universitet Institutt for matematiske fag Anbefalte oppgaver 4, blokk I Løsningsskisse Oppgave 1 a) Utfallsrommet til X 1 er {1, 2,, 4, 5, }. Sannsynlighetsfordelingen

Detaljer

ÅMA110 Sannsynlighetsregning med statistikk, våren

ÅMA110 Sannsynlighetsregning med statistikk, våren ÅMA110 Sannsynlighetsregning med statistikk, våren 2006 Oppsummering Bjørn H. Auestad Institutt for matematikk og naturvitenskap Universitetet i Stavanger 24. april Bjørn H. Auestad Oppsummering våren

Detaljer

Løsningsforslag, eksamen statistikk, juni 2015

Løsningsforslag, eksamen statistikk, juni 2015 Løsningsforslag, eksamen statistikk, juni 0 Oppgave 1 Siden det spørres om tall fra et intervall, som oppgaven viser kan være et reelle, er det tydelig at tallene er tatt fra en kontinuerlig fordeling.

Detaljer

Bernoulli forsøksrekke og binomisk fordeling

Bernoulli forsøksrekke og binomisk fordeling Bernoulli forsøksrekke og binomisk fordeling Bernoulli forsøksrekke i) gjentar et forsøk n ganger ii) hvert forsøk gir enten suksess eller fiasko iii) sannsynligheten for suksess er p i alle forsøkene

Detaljer

ÅMA110 Sannsynlighetsregning med statistikk, våren Kp. 3 Diskrete tilfeldige variable. Diskrete tilfeldige variable, varians (kp. 3.

ÅMA110 Sannsynlighetsregning med statistikk, våren Kp. 3 Diskrete tilfeldige variable. Diskrete tilfeldige variable, varians (kp. 3. ÅMA Sannsynlighetsregning med statistikk, våren 8 Kp. Diskrete tilfeldige variable Kp. Diskrete tilfeldige variable Har sett på (tidligere: begrep/definisjoner; tilfeldig (stokastisk variabel sannsynlighetsfordeling

Detaljer

TMA4240/TMA4245 Statistikk Oppsummering diskrete sannsynlighetsfordelinger

TMA4240/TMA4245 Statistikk Oppsummering diskrete sannsynlighetsfordelinger TMA4240/TMA4245 Statistikk Oppsummering diskrete sannsynlighetsfordelinger Binomisk fordeling* ( ) n b(x; n, p) = p x (1 p) n x = x ( ) n p x q n x, x x = 0, 1, 2,..., n Fenomén: i) n forsøk. ii) Suksess/fiasko

Detaljer

UNIVERSITETET I OSLO Matematisk Institutt

UNIVERSITETET I OSLO Matematisk Institutt UNIVERSITETET I OSLO Matematisk Institutt Midtveiseksamen i: STK 1000: Innføring i anvendt statistikk Tid for eksamen: Onsdag 9. oktober 2013, 11:00 13:00 Hjelpemidler: Lærebok, ordliste for STK1000, godkjent

Detaljer

Forelesning 7. mars, 2017

Forelesning 7. mars, 2017 Forelesning 7. mars, 2017 AVSNITT 5.1 Eksempel: Miljøkonturer AVSNITT 5.2 Forventningen til en funksjon av flere variable Kovariansen mellom to variable Eksempel: Miljøkonturer Miljøvariable som karakteriserer

Detaljer

ECON Statistikk 1 Forelesning 4: Stokastiske variable, fordelinger. Jo Thori Lind

ECON Statistikk 1 Forelesning 4: Stokastiske variable, fordelinger. Jo Thori Lind ECON2130 - Statistikk 1 Forelesning 4: Stokastiske variable, fordelinger Jo Thori Lind j.t.lind@econ.uio.no Oversikt 1. Betinget sannsynlighet 2. Stokastiske variable 3. Forventning og varians 4. Regneregler

Detaljer

statistikk, våren 2011

statistikk, våren 2011 ÅMA110 Sannsynlighetsregning med statistikk, våren 011 Kp. 3 Diskrete tilfeldige variable 1 Diskrete tilfeldige variable, innledning Hva er en tilfeldig variabel (stokastisk variabel)? Diskret tilfeldig

Detaljer

TMA4240 Statistikk H2015

TMA4240 Statistikk H2015 TMA4240 Statistikk H2015 Kapittel 5: Noen diskrete sannsynlighetsfordelinger 5.4 Geometrisk og negativ binomisk fordeling 5.5 Poisson-prosess og -fordeling Mette Langaas Institutt for matematiske fag,

Detaljer

Tilfeldige variabler. MAT0100V Sannsynlighetsregning og kombinatorikk

Tilfeldige variabler. MAT0100V Sannsynlighetsregning og kombinatorikk MAT0100V Sannsynlighetsregning og kombinatorikk Forventning, varians og standardavvik Tilnærming av binomiske sannsynligheter Konfidensintervall Ørnulf Borgan Matematisk institutt Universitetet i Oslo

Detaljer

Dato: Tirsdag 28. november 2006 Lengde på eksamen: 4 timer Tillatte hjelpemidler: Kun standard enkel kalkulator, HP 30S

Dato: Tirsdag 28. november 2006 Lengde på eksamen: 4 timer Tillatte hjelpemidler: Kun standard enkel kalkulator, HP 30S DET TEKNISK - NATURVITENSKAPELIGE FAKULTET Institutt for data- og elektroteknikk Eksamen i MIK130, Systemidentifikasjon Dato: Tirsdag 28. november 2006 Lengde på eksamen: 4 timer Tillatte hjelpemidler:

Detaljer

TMA4240 Statistikk Høst 2016

TMA4240 Statistikk Høst 2016 Norges teknisk-naturvitenskapelige universitet Institutt for matematiske fag Anbefalt øving 9 Løsningsskisse Oppgave 1 a) Vi lar her Y være antall fugler som kolliderer med vindmølla i løpet av den gitte

Detaljer

TMA4245 Statistikk Høst 2016

TMA4245 Statistikk Høst 2016 TMA5 Statistikk Høst 6 Norges teknisk-naturvitenskapelige universitet Institutt for matematiske fag Anbefalt øving Løsningsskisse Oppgave a) Den tilfeldige variabelen X er kontinuerlig fordelt med sannsynlighetstetthet

Detaljer

TMA4240 Statistikk Eksamen desember 2015

TMA4240 Statistikk Eksamen desember 2015 Norges teknisk-naturvitenskapelige universitet Institutt for matematiske fag TMA4240 Statistikk Eksamen desember 15 Oppgave 1 La den kontinuerlige stokastiske variabelen X ha fordelingsfunksjon (sannsynlighetstetthet

Detaljer

TMA4245 Statistikk Eksamen desember 2016

TMA4245 Statistikk Eksamen desember 2016 Norges teknisk-naturvitenskapelige universitet Institutt for matematiske fag TMA4245 Statistikk Eksamen desember 2016 Oppgave 1 En bedrift produserer elektriske komponenter. Komponentene kan ha to typer

Detaljer

ÅMA110 Sannsynlighetsregning med statistikk, våren 2010. ÅMA110 Sannsynlighetsregning med statistikk, våren 2010

ÅMA110 Sannsynlighetsregning med statistikk, våren 2010. ÅMA110 Sannsynlighetsregning med statistikk, våren 2010 ÅMA Sannsynlighetsregning med statistikk, våren Kp. Diskrete tilfeldige variable ÅMA Sannsynlighetsregning med statistikk, våren Kp. Diskrete tilfeldige variable Diskrete tilfeldige variable, innledning

Detaljer

Togforsinkelsen (Eksamen Des2003.1a) I denne oppgaven kan du bruke uten å vise det at

Togforsinkelsen (Eksamen Des2003.1a) I denne oppgaven kan du bruke uten å vise det at Kapittel 4 Forventningsverdi, varians, kovarians for én stokastisk variabel og funksjoner av stokastiske variabler TMA4245 V2007: Eirik Mo 2 4.1 Forventing til en stokastisk variabel DEF 4.1: La X være

Detaljer

Generell informasjon om faget er tilgjengelig fra It s learning.

Generell informasjon om faget er tilgjengelig fra It s learning. Stavanger, 6. august 013 Det teknisknaturvitenskapelige fakultet ELE500 Signalbehandling, 013. Generell informasjon om faget er tilgjengelig fra It s learning. Innhold 5.1 Implementering av IIR filter....................

Detaljer

STK1100 våren Kontinuerlige stokastiske variabler Forventning og varians Momentgenererende funksjoner

STK1100 våren Kontinuerlige stokastiske variabler Forventning og varians Momentgenererende funksjoner STK1100 våren 2017 Kontinuerlige stokastiske variabler Forventning og varians Momentgenererende funksjoner Svarer til avsnittene 4.1 og 4.2 i læreboka Ørnulf Borgan Matematisk institutt Universitetet i

Detaljer

µ = E(X) = Ʃ P(X = x) x

µ = E(X) = Ʃ P(X = x) x Redigerte høydepunkt fra forrige episode 3.2: Punktsannsynlighet og kumulativ sannsynlighet punktsannsynlighet: sanns. for at en stok. var. X har en viss verdi x; P(X = x) kumulativ sannsynlighet: sanns.

Detaljer

Eksamensoppgave i Løsningsskisse TMA4240 Statistikk

Eksamensoppgave i Løsningsskisse TMA4240 Statistikk Institutt for matematiske fag Eksamensoppgave i Løsningsskisse TMA440 Statistikk Faglig kontakt under eksamen: Håkon Tjelmeland a, Sara Martino b Tlf: a 48 18 96, b 99 40 33 30 Eksamensdato: 30. november

Detaljer

ST0103 Brukerkurs i statistikk Høst 2014

ST0103 Brukerkurs i statistikk Høst 2014 Norges teknisk naturvitenskapelige universitet Institutt for matematiske fag ST0103 Brukerkurs i statistikk Høst 2014 Løsningsforslag Øving 1 2.1 Frekvenstabell For å lage en frekvenstabell må vi telle

Detaljer

Forventning og varians.

Forventning og varians. Forventning og varians. Dekkes av kapittel 4 i læreboka. Forventning (4.1) Forventningsverdi = gjennomsnitt i det lange løp. Defininsjon: Forventningsverdien til en stokastisk variabel X er: x xf(x),x

Detaljer

Utvalgsfordelinger. Utvalg er en tilfeldig mekanisme. Sannsynlighetsregning dreier seg om tilfeldige mekanismer.

Utvalgsfordelinger. Utvalg er en tilfeldig mekanisme. Sannsynlighetsregning dreier seg om tilfeldige mekanismer. Utvalgsfordelinger Vi har sett at utvalgsfordelinger til en statistikk (observator) er fordelingen av verdiene statistikken tar ved mange gjenttatte utvalg av samme størrelse fra samme populasjon. Utvalg

Detaljer

Eksamensoppgave i TMA4240 Statistikk

Eksamensoppgave i TMA4240 Statistikk Institutt for matematiske fag Eksamensoppgave i TMA4240 Statistikk Faglig kontakt under eksamen: Mette Langaas a, Ingelin Steinsland b, Geir-Arne Fuglstad c Tlf: a 988 47 649, b 926 63 096, c 452 70 806

Detaljer

Litt om forventet nytte og risikoaversjon. Eksempler på økonomisk anvendelse av forventning og varians.

Litt om forventet nytte og risikoaversjon. Eksempler på økonomisk anvendelse av forventning og varians. H. Goldstein Revidert januar 2008 Litt om forventet nytte og risikoaversjon. Eksempler på økonomisk anvendelse av forventning og varians. Dette notatet er ment å illustrere noen begreper fra Løvås, kapittel

Detaljer

Forventning og varians.

Forventning og varians. Forventning og varians. Dekkes av kapittel 4 i læreboka. Forventning (4.) Forventningsverdi gjennomsnitt i det lange løp. Defininsjon: Forventningsverdien til en stokastisk variabel X er: E(X) f(),x diskret

Detaljer

STK1100 våren Forventningsverdi. Forventning, varians og standardavvik

STK1100 våren Forventningsverdi. Forventning, varians og standardavvik STK00 våren 0 Forventning, varians og standardavvik Svarer til avsnitt 3.3 i læreboka Geir Storvik (Ørnulf Borgan) Matematisk institutt Universitetet i Oslo Forventningsverdi Punktsannsynligheten px (

Detaljer

Histogramprosessering

Histogramprosessering Histogramprosessering Lars Vidar Magnusson January 22, 2018 Delkapittel 3.3 Histogram Processing Histogram i Bildeanalyse Et histogram av et digitalt bilde med intensitet i intervallet [0, L) er en diskret

Detaljer

Binomisk sannsynlighetsfunksjon

Binomisk sannsynlighetsfunksjon ST0202 Statistikk for samfunnsvitere Bo Lindqvist Institutt for matematiske fag 2 Binomisk sannsynlighetsfunksjon La det være n forsøk, sannsynlighet p for suksess og sannsynlighet q for fiasko. Den tilfeldige

Detaljer

ØVINGER 2017 Løsninger til oppgaver. Lineærkombinasjonen Z = 5X + 8Y har forventningsverdi

ØVINGER 2017 Løsninger til oppgaver. Lineærkombinasjonen Z = 5X + 8Y har forventningsverdi ØVINGER 27 Løsninger til oppgaver Øving 6 4. (7). Fra oppgave 4.5 (øving 4) har vi forventningsverdien variansen til X, E[X] =.92, V ar[x] =.3. Lineærkombinasjonen Z = 5X + 8Y har forventningsverdi E[Z]

Detaljer

ECON240 Vår 2018 Oppgaveseminar 1 (uke 6)

ECON240 Vår 2018 Oppgaveseminar 1 (uke 6) ECON240 Vår 2018 Oppgaveseminar 1 (uke 6) Oppgaver til prerequisites og kapittel 1 fra læreboken Example P.1, P.5, P.6, P.7, P.8, P.9, P.11, P.12, P.13, og P.14 Example 1.1, 1.2, 1.3, 1.4, 1.6, 1.7, 1.9,

Detaljer

ST0202 Statistikk for samfunnsvitere

ST0202 Statistikk for samfunnsvitere ST0202 Statistikk for samfunnsvitere Bo Lindqvist Institutt for matematiske fag 2 Tilfeldige variable (5.2) Dersom vi til hvert utfall av eksperimentet tilordner et tall, har vi laget en tilfeldig variabel.

Detaljer

Løsningskisse for oppgaver til undervisningsfri uke 8 ( februar 2012)

Løsningskisse for oppgaver til undervisningsfri uke 8 ( februar 2012) 1 ECON 130 HG - februar 01 Løsningskisse for oppgaver til undervisningsfri uke 8 (0.-. februar 01) Oppg..1. Variabel: x = antall kundehenvendelser pr. dag 1. Antall observasjoner: n = 100 dager. I Excel

Detaljer

A) B) 400 C) 120 D) 60 E) 10. Rett svar: C. Fasit: ( 5 6 = 60. Hvis A, B, C er en partisjon av utfallsrommet S, så er P (A B) lik.

A) B) 400 C) 120 D) 60 E) 10. Rett svar: C. Fasit: ( 5 6 = 60. Hvis A, B, C er en partisjon av utfallsrommet S, så er P (A B) lik. Oppgave 1 Det skal velges en komité bestående av 2 menn og 1 kvinne. Komitéen skal velges fra totalt 5 menn og 6 kvinner. Hvor mange ulike komitéer kan dannes? A) 86400 B) 400 C) 120 D) 60 E) 10 Rett svar:

Detaljer

Kapittel 4: Matematisk forventning

Kapittel 4: Matematisk forventning Kapittel 4: Matematisk forventning TMA4240 Statistikk (F2 og E7) Multivariate tilfeller foreleses mandag 6.september, 2004 Ole.Petter.Lodoen@math.ntnu.no p.1/16 Forventing til funksjon av flere stokastiske

Detaljer

ST1101/ST6101 Sannsynlighetsregning og statistikk Vår 2019

ST1101/ST6101 Sannsynlighetsregning og statistikk Vår 2019 Norges teknisk naturvitenskapelige universitet Institutt for matematiske fag ST1101/ST6101 Sannsynlighetsregning og statistikk Vår 201 Oppgaver fra boka 2.6.1 En kjemiker vil observere effekten av 2 ulike

Detaljer

La U og V være uavhengige standard normalfordelte variable og definer

La U og V være uavhengige standard normalfordelte variable og definer Binormalfordelingen Definisjon Noe av hensikten med å innføre begrepet betinget sannsynlighet er at kompliserte modeller ofte kan bygges ut fra enkle betingede modeller. Når man spesifiserer betingelser

Detaljer

Diskrete sannsynlighetsfordelinger.

Diskrete sannsynlighetsfordelinger. Diskrete sannsynlighetsfordelinger. Dekkes av kapittel 5 i læreboka. Husk: f(x) er punktsannsynligheten til en diskret X dersom: 1. f(x) 0 2. x f(x) =1 3. f(x) =P (X = x) Vi skal nå sepå situasjoner der

Detaljer

Statistikk 1 kapittel 4

Statistikk 1 kapittel 4 Statistikk 1 kapittel 4 Nico Keilman ECON 2130 Vår 2017 Kapittel 4 Stokastiske (tilfeldige) variabler Anta 1) Vi kjenner sannsynligheter for ulike utfall knyttet til et forsøk 2) Hvert utfall har en (meningsfull)

Detaljer

Fasit for tilleggsoppgaver

Fasit for tilleggsoppgaver Fasit for tilleggsoppgaver Uke 5 Oppgave: Gitt en rekke med observasjoner x i (i = 1,, 3,, n), definerer vi variansen til x i som gjennomsnittlig kvadratavvik fra gjennomsnittet, m.a.o. Var(x i ) = (x

Detaljer

ST0202 Statistikk for samfunnsvitere

ST0202 Statistikk for samfunnsvitere ST0202 Statistikk for samfunnsvitere Bo Lindqvist Institutt for matematiske fag 2 Fra første forelesning: Populasjon Den mengden av individer/objekter som vi ønsker å analysere. Utvalg En delmengde av

Detaljer

Kapittel 4.4: Forventning og varians til stokastiske variable

Kapittel 4.4: Forventning og varians til stokastiske variable Kapittel 4.4: Forventning og varians til stokastiske variable Forventning og varians til stokastiske variable Histogrammer for observerte data: Sannsynlighets-histogrammer og tetthetskurver for stokastiske

Detaljer

Forelesing 27 Oppsummering. Torstein Fjeldstad Institutt for matematiske fag, NTNU

Forelesing 27 Oppsummering. Torstein Fjeldstad Institutt for matematiske fag, NTNU Forelesing 27 Oppsummering Torstein Fjeldstad Institutt for matematiske fag, NTNU 18.04.2018 I dag Lineær regresjon (sjekk av modellantagelser) Praktisk informasjon Andre statistikk-kurs Oversikt over

Detaljer

TMA4240 Statistikk H2010

TMA4240 Statistikk H2010 TMA4240 Statistikk H2010 Kapittel 5: Diskrete sannsynlighetsfordelinger 5.5-5.6: Negativ binomisk, geometrisk, Poisson Mette Langaas Foreleses mandag 20. september 2010 2 Kabel En kabel består av mange

Detaljer

Kap. 7 - Sannsynlighetsfordelinger

Kap. 7 - Sannsynlighetsfordelinger Oppgaver: Kap. 7 - Sannsynlighetsfordelinger Oppgaver fra kapitlet Lærebok: 7.0-0-0-,7.--7, 7.-, 7., 7., 7.7 Oppgavesamling: 7.00, 7.0, 7.09, 7., 7.9, 7., 7.0, 7.0, 7.0 7.0-0-0-0- Stokastisk variabel:

Detaljer

UNIVERSITETET I OSLO ØKONOMISK INSTITUTT

UNIVERSITETET I OSLO ØKONOMISK INSTITUTT UNIVERSITETET I OSLO ØKONOMISK INSTITUTT Øvelsesoppgave i: ECON30- Statistikk Dato for utlevering: 5.03.06 Dato for innlevering: 05.04.06 innen kl. 5:00 Innleveringssted: Ekspedisjonen i. etasje ES hus

Detaljer

Løsningsforslag til obligatorisk oppgave i ECON 2130

Løsningsforslag til obligatorisk oppgave i ECON 2130 Andreas Mhre April 15 Løsningsforslag til obligatorisk oppgave i ECON 13 Oppgave 1: E(XY) = E(X(Z X)) Setter inn Y = Z - X E(XY) = E(XZ X ) E(XY) = E(XZ) E(X ) E(XY) = - E(X ) X og Z er uavhengige, så

Detaljer

Kapittel 4.3: Tilfeldige/stokastiske variable

Kapittel 4.3: Tilfeldige/stokastiske variable Kapittel 4.3: Tilfeldige/stokastiske variable Litt repetisjon: Sannsynlighetsteori Stokastisk forsøk og sannsynlighet Tilfeldig fenomen Individuelle utfall er usikre, men likevel et regulært mønster for

Detaljer

Formelsamling V-2014 MAT110. Statistikk 1. Per Kristian Rekdal

Formelsamling V-2014 MAT110. Statistikk 1. Per Kristian Rekdal Formelsamling V-2014 MAT110 Statistikk 1 Per Kristian Rekdal 2 Forord Dette er formelsamlingen i emnet MAT110 Statistikk 1 ved høgskolen i Molde. Formlene i denne formelsamlingen er stort sett de formlene

Detaljer

Kapittel 5: Mengdelære

Kapittel 5: Mengdelære MAT1030 Diskret Matematikk Forelesning 9: Mengdelære Roger Antonsen Institutt for informatikk, Universitetet i Oslo Kapittel 5: Mengdelære 17. februar 2009 (Sist oppdatert: 2009-02-17 15:56) MAT1030 Diskret

Detaljer

Øvingsforelesning i Matlab TDT4105

Øvingsforelesning i Matlab TDT4105 Øvingsforelesning i Matlab TDT4105 Øving 6. Tema: funksjoner med vektorer, plotting, while Benjamin A. Bjørnseth 12. oktober 2015 2 Oversikt Funksjoner av vektorer Gjennomgang av øving 5 Plotting Preallokering

Detaljer

Øving 1 TMA4245 - Grunnleggende dataanalyse i Matlab

Øving 1 TMA4245 - Grunnleggende dataanalyse i Matlab Øving 1 TMA4245 - Grunnleggende dataanalyse i Matlab For grunnleggende bruk av Matlab vises til slides fra basisintroduksjon til Matlab som finnes på kursets hjemmeside. I denne øvingen skal vi analysere

Detaljer

Formelsamling i medisinsk statistikk

Formelsamling i medisinsk statistikk Formelsamling i medisinsk statistikk Versjon av 6. mai 208 Dette er en formelsamling til O. O. Aalen (red.): Statistiske metoder i medisin og helsefag, Gyldendal, 208. Gjennomsnitt x = n (x + x 2 + x 3

Detaljer

Tilfeldige variable (5.2)

Tilfeldige variable (5.2) Tilfeldige variable (5.) Dersom vi til hvert utfall av eksperimentet tilordner et tall, har vi laget en tilfeldig variabel. Tilfeldig variabel: En variabel som har en numerisk verdi for hvert utfall i

Detaljer

ST0202 Statistikk for samfunnsvitere

ST0202 Statistikk for samfunnsvitere ST0202 Statistikk for samfunnsvitere Kapittel 5: Sannsynlighetsfordelinger for diskrete variabler Bo Lindqvist Institutt for matematiske fag 2 Tilfeldige variabler (5.1) Dersom vi til hvert utfall av eksperimentet

Detaljer

Kapittel 5: Tilfeldige variable, forventning og varians.

Kapittel 5: Tilfeldige variable, forventning og varians. Kapittel 5: Tilfeldige variable, forventning og varians. Tilfeldige variable Tilfeldige variable kalles også stokastiske variable. En tilfeldig variabel er en variabel som får sin numeriske verdi bestemt

Detaljer

MAT1120. Obligatorisk oppgave 1 av 2. Torsdag 20. september 2018, klokken 14:30 i Devilry (devilry.ifi.uio.no).

MAT1120. Obligatorisk oppgave 1 av 2. Torsdag 20. september 2018, klokken 14:30 i Devilry (devilry.ifi.uio.no). Innleveringsfrist MAT20 Obligatorisk oppgave av 2 Torsdag 20. september 208, klokken 4:30 i Devilry (devilry.ifi.uio.no). Instruksjoner Du velger selv om du skriver besvarelsen for hånd og scanner besvarelsen

Detaljer

UNIVERSITETET I OSLO ØKONOMISK INSTITUTT

UNIVERSITETET I OSLO ØKONOMISK INSTITUTT Øvelsesoppgave i: ECON2130 Statistikk 1 Dato for utlevering: Mandag 22. mars 2010 Dato for innlevering: Fredag 9. april 2010 UNIVERSITETET I OSLO ØKONOMISK INSTITUTT Innleveringssted: Ved siden av SV-info-senter

Detaljer

MAT Grublegruppen Uke 37

MAT Grublegruppen Uke 37 MAT00 - Grublegruppen Uke 37 Jørgen O. Lye Bemerkning: Mye av stoffet i dette notatet er å finne i Kalkulus, kapittel. Dette kapittelet er leselig etter man vet hva følger er, men er ikke pensum før i

Detaljer

UNIVERSITETET I OSLO ØKONOMISK INSTITUTT

UNIVERSITETET I OSLO ØKONOMISK INSTITUTT Øvelsesoppgave i: ECON30 Dato for utlevering: 7.03.04 Dato for innlevering: 07.04.04 UNIVERSITETET I OSLO ØKONOMISK INSTITUTT Innleveringssted: Ekspedisjonen, etasje innen kl 5:00 Øvrig informasjon: Denne

Detaljer

EKSAMEN. TILLATTE HJELPEMIDLER: Kalkulator. Hornæs: Formelsamling statistikk HiG. John Haugan: Formler og tabeller.

EKSAMEN. TILLATTE HJELPEMIDLER: Kalkulator. Hornæs: Formelsamling statistikk HiG. John Haugan: Formler og tabeller. KANDIDATNUMMER: EKSAMEN FAGNAVN: FAGNUMMER: Statistikk. REA1081 EKSAMENSDATO: 11. juni 2007. KLASSE: Ingeniørklasser. TID: kl. 9.00 13.00. FAGLÆRER: Hans Petter Hornæs ANTALL SIDER UTLEVERT: 4 (innkl.

Detaljer

Observatorar og utvalsfordeling. Torstein Fjeldstad Institutt for matematiske fag, NTNU

Observatorar og utvalsfordeling. Torstein Fjeldstad Institutt for matematiske fag, NTNU Observatorar og utvalsfordeling Torstein Fjeldstad Institutt for matematiske fag, NTNU 08.10.2018 I dag Til no i emnet Observatorar Utvalsfordelingar Sentralgrenseteoremet 2 Til no i emnet definisjon av

Detaljer