Eksamen - INF 283 Maskinlæring

Like dokumenter
Eksamen i TDT Oppgaver. Ruben Spaans. December 6, 2012

Introduksjon til Algoritmeanalyse

Oppgaven består av 9 delspørsmål som anbefales å veie like mye. Kommentarer og tallsvar er skrevet inn mellom << >>. Oppgave 1

EKSAMEN I FAG TMA4315 GENERALISERTE LINEÆRE MODELLER Torsdag 14. desember 2006 Tid: 09:0013:00

ST0202 Statistikk for samfunnsvitere

LP. Leksjon 9: Kapittel 13: Nettverk strøm problemer, forts.2

TMA4240 Statistikk H2010

Statistisk inferens (kap. 8) Hovedtyper av statistisk inferens. ST0202 Statistikk for samfunnsvitere

UNIVERSITETET I OSLO

Prøveeksamen STK2100 (fasit) - vår 2018

EKSAMENSOPPGAVE. INF-1101 Datastrukturer og algoritmer. Adm.bygget, rom K1.04 og B154 Ingen

4.4 Koordinatsystemer

LØSNINGSFORSLAG TIL EKSAMEN I FAG TMA4240 STATISTIKK Mandag 12. desember 2011

Løsning eksamen desember 2017

ST0202 Statistikk for samfunnsvitere

TMA4240 Statistikk Høst 2015

Korteste vei problemet (seksjon 15.3)

Sum to terninger forts. Eksempel: kast med to terninger. Sum to terninger forts. Kapittel 3. TMA4240 H2006: Eirik Mo

Bootstrapping og simulering Tilleggslitteratur for STK1100

Modellering av Customer Lifetime Value og hvordan bruke det Øystein Sørensen Data Scientist

Statistisk inferens (kap. 8) Hovedtyper av statistisk inferens. ST0202 Statistikk for samfunnsvitere

KJ1042 Øving 5: Entalpi og entropi

TDT4171 Metoder i kunstig intelligens

Kapittel 1 og 2: eksempel og simpleksmetoden

UNIVERSITETET I OSLO ØKONOMISK INSTITUTT

SIF8010 ALGORITMER OG DATASTRUKTURER

betyr begivenheten at det blir trukket en rød kule i første trekning og en hvit i andre, mens B1 B2

Eksempel: kast med to terninger

Notat 4 - ST februar 2005

L12-Dataanalyse. Introduksjon. Nelson Aalen plott. Page 76 of Introduksjon til dataanalyse. Levetider og sensurerte tider

OPPGAVESETTET BESTÅR AV 3 OPPGAVER PÅ 6 SIDER MERKNADER: Alle deloppgaver vektlegges likt.

EKSAMEN I TMA4300 BEREGNINGSKREVENDE STATISTIKK Torsdag 16 Mai, 2013

Kurs i automatisk skog kartlegging 5-7 september 2018

UNIVERSITETET I OSLO

Klassisering. Insitutt for matematiske fag, NTNU 21. august Klassiseringsproblemet. Notat for TMA4240/TMA4245 Statistikk

LP. Leksjon 1. Kapittel 1 og 2: eksempel og simpleksmetoden

dg = ( g P0 u)ds = ( ) = 0

Norges Informasjonsteknologiske Høgskole

ST0202 Statistikk for samfunnsvitere

Forelesning 1 mandag den 18. august

LP. Leksjon 8: Kapittel 13: Nettverk strøm problemer, forts.1

Oppgave 1. Det oppgis at dersom y ij er observasjon nummer j fra laboratorium i så er SSA = (y ij ȳ i ) 2 =

Forelesning 2 torsdag den 21. august

Løsningsforslag ECON 2130 Obligatorisk semesteroppgave 2017 vår

MAT1030 Diskret Matematikk

EKSAMEN I FAG TMA4255 ANVENDT STATISTIKK

Utvalgsfordelinger. Utvalg er en tilfeldig mekanisme. Sannsynlighetsregning dreier seg om tilfeldige mekanismer.

BESLUTNINGER UNDER USIKKERHET

Avsluttende eksamen i TDT4120 Algoritmer og datastrukturer

UNIVERSITETET I OSLO

4.1 Vektorrom og underrom

Generell informasjon om faget er tilgjengelig fra It s learning. 1 En kort oppsummering Adaptiv filtrering 2. 3 Prediksjon 4

(a) For regresjon brukes vanligvis kvadratisk tap: L(y, ŷ) = (y ŷ) 2. Den optimale prediktor basert på input variable x er da Ŷ = E[Y x].

EKSAMEN I NUMERISK LINEÆR ALGEBRA (TMA4205)

NITH PG4200 Algoritmer og datastrukturer Løsningsforslag Eksamen 4.juni 2013

Prøveeksamen STK vår 2017

TMA4140 Diskret Matematikk Høst 2016

i x i

Eksamensoppgave i TMA4275 Levetidsanalyse

LO118D Forelesning 2 (DM)

Matematikk Øvingsoppgaver i numerikk leksjon 5 for-løkker

ST0202 Statistikk for samfunnsvitere

IN2110 Obligatorisk innlevering 1a

Kapittel 4.4: Forventning og varians til stokastiske variable

LØSNINGSFORSLAG EKSAMEN HØST 2012 I TIØ4120 OPERASJONSANALYSE, GRUNNKURS

Forskningsmetoder i menneske-maskin interaksjon

Diskrete sannsynlighetsfordelinger som histogram. Varians. Histogram og kumulativ sannsynlighet. Forventning (gjennomsnitt) (X=antall mynt i tre kast)

Unik4590/Unik9590/TTK Mønstergjenkjenning

UNIVERSITETET I OSLO

Mer om Markov modeller

Eksamensoppgave i TMA4295 Statistisk inferens

Øvingsforelesning 7. Resten av kombinatorikk, litt modulusregning, rekurrenser og induksjon og MP13 eller MP18. TMA4140 Diskret Matematikk

TMA4245 Statistikk Eksamen desember 2016

UNIVERSITETET I OSLO

EKSAMEN I FAG TMA4275 LEVETIDSANALYSE Lørdag 4. juni 2005 Tid: 09:00 13:00

Sensitivitet og kondisjonering

Transkript:

Eksamen - INF 283 Maskinlæring 23 feb. 2016 Tid: 3 timer Eksamen inneholder 15 oppgaver, som vil bli vektet likt ved evaluering. 1

Table 1 attributt antall personer forsørget av låntaker månedlig inntekt annen gjeld lånebeløp termineringsgrunn datatype heltall reelt tall reelt tall reelt tall kategorisk: misligholdt eller innfridd Figure 1: Histogram over attributtverdier 1. En bank ønsker å benytte maskinlæring til å klassifisere lånetakere som høyrisiko lånetakere (stor sannsynlighet for mislighold) eller lavrisiko lånetakere (liten sannsynlighet for mislighold). Banken har en database over terminerte lån med informasjon om lånetaker for søknadstidspunkt, samt termineringsgrunn. Se tabell 1. Banken vurderer metoder som antar uavhengighet mellom variable, men er bekymret for at målattributten er betinget avhengig av de tre attributtene: inntekt, annen gjeld og lånebeløp, ettersom man kan forvente at en lånetaker med høy inntekt kan betjene en større total gjeld. (a) Foreslå en variabel som kan benyttes i stedet for inntekt, annen gjeld og lånebeløp, som er en funksjon av disse tre. Variabelen kan være kontinuerlig, du vil håndtere diskretisering i neste oppgave. (b) Anta at variabelen du har definert er kontinuerlig og fordelt som vist i Figur 1. Ut i fra dette, foreslå en kategorisk attributt som kan representere denne variabelen. (c) En naiv Bayes klassifikator beregner mest sannsynlig verdi for målattributt v NB, for tupler av attributtverdier a 1, a 2...a n, ved hjelp av uttrykket: v NB = argmax v V P (v) n P (a i v) hvor V er alle mulige verdier for målattributt, og alle sannsynligheter er estimert fra treningsdata. Anta at noen av de misligholdte lånene ikke har verdien 5 for attributten antall personer forsørget av låntaker, mens noen av de innfridde lånene har denne verdien for denne attributten. Forklar hvorfor dette er problematisk når de betingede sannsynlighetene estimeres, og foreslå en løsning. i=1 Page 2

2. En maskinlærer skal trenes til å klassifisere numeriske vektorer i to klasser. Den skal lære en vektor w og en skalar b, og klassifisere nye tilfeller, for eksempel x, til en av disse klassene basert på fortegnet til w x b. Anta at dette er implementert som en støttevektormaskin (support vector machine, SVM). Du kan anta den enklere formuleringen av SVM, uten slingringsmonn (slack variables), slik at en løsning minimerer 1 2 w 2, begrenset av y i ( w x i b) 1, hvor x i og y i er treningseksempler. y i betegner klassifikasjonen til x i som enten 1 eller 1. Husk også at induktive antagelser for en maskinlærer (inductive bias) kan være både hypoteseromsrestriksjoner (restriction bias), som definerer hvilke hypoteser som tillates av maskinlæreren, og hypotesepreferanser (preference bias) som definerer hvilke tillatte hypoteser som foretrekkes. (a) Formulér hypoteseromsrestriksjonenene for denne maskinlæreren. definert i to dimensjoner ( w og x har nøyaktig to komponenter). Du kan anta at problemet er (b) Formulér hypotesepreferansene for denne maskinlæreren. Du kan anta at problemet er definert i to dimensjoner. (c) Trenigseksempler x, som tilfredsstiller y i ( w x i b) = 1 kalles støttevektorer (support vectors). Hvor sensitive er verdiene w og b til at treningseksempler som ikke er støttevektorer legges til eller taes bort fra treningssettet? Page 3

Figure 2 3. Problemet beskrevet i oppgave 2 kan også løses gjennom avviksminimering (error minimisation). For enkelhets skyld, anta en endimensjonal problemformulering. I det tilfeller kan w og x betraktes som skalare verdier, med w konstant. Da må kun b bestemmes. Anta at gradientminimering (gradient descent) skal benyttes. Vi vil da starte med et tilfeldig valg av verdi for b. For hver iterasjon vil b så tilegnes en ny verdi i henhold til: ( N ) b b + η b E( x i) i=1 hvor η er læringsraten (learning rate), x i er et treningseksempel, N er antall treningseksempler og E er avviksfunksjonen (error function). (a) Foreslå en definisjon for avviksfunksjonen E. Du kan la y i betegne korrekt klassifisering (1 eller 1) som før, og p i kan betegne klassifiseringen beregnet av maskinlæreren. (b) Anta at avviksgrafen (error surface) for dette endimensjonale klassifikasjonsproblemet er som vist i Figur 2. Forklar hvordan den tilfeldige verdien valgt for b før minimering, påvirker den endelige verdien bestemt av maskinlæreren. (c) Forklar hvorfor løsningen som ville blitt bestemt av en SVM (oppgave 2) kan forventes å generalisere bedre enn den bestemt av gradientminimering, for tilfellet illustrert i Figur 2. Page 4

Figure 3 A B 4. (a) Figur 3 illustrerer et avgjørelsestre (decision tree). For hver node estimeres informativitet (information gain) for attributten assosiert til noden. Forklar hvorfor et slikt estimat har høyere usikkerhet for node B enn for node A. (b) Når avviksbeskjæring (reduced error pruning) benyttes for å unngå overtrening (overfitting) av et avgjørelsestre, blir noder iterativt tatt vekk fra treet dersom dette øker nøyaktigheten målt over et valideringssett. Dette gjentas inntil et stoppkriterie inntreffer. Hva er dette stoppkriteriet? (c) Forklar hvorvidt nøyaktigheten estimert fra valideringssettet som ble brukt til avviksbeskjæring er et forventningsrett (unbiased) estimat på nøyaktigheten til treet over usette tilfeller. Page 5

5. I belønningslæring (reinforcement learning) benyttes ofte en teknikk kalt Q-læring. Målfunksjonen, Q(s, a) relaterer en tilstand (state) s, og en handling (action) a, til maksimal kumulativ belønning som kan oppnås fra s, om man utfører a som første handling. For enhver tilstand kan Q derfor brukes til å velge en optimal handling med hensyn på en kumulativ belønningsfunksjon. En slik funksjon er forsinkelsesjustert kumulativ belønning (discounted cumulative reward) V : V (s t ) γ i r i+1 i=0 hvor s t er tilstanden hvor første handling er utført, r 1 er belønning gitt for første handling, r 2 er belønningen for andre handling, og så videre. γ er en faktor mellom 0 og 1. Algoritmen for Q-læring estimerer Q for hver mulige kombinasjon av tilstand og handling. Dette estimatet kaller vi ˆQ(s, a). For hver iterasjon av algoritmen blir følgende steg utført: I Velg en handling a, og utfør denne. II Motta belønning r. III Observér ny tilstand s IV Oppdatér ˆQ(s, a). (a) Gi regelen for å bestemme oppdatert verdi av ˆQ(s, a) i steg IV i algoritmen over, når forsinkelsesjustert kumulativ belønning benyttes. (b) Funksjonen for forsinkelsesjustert kumulativ belønning definerer en agent som foretrekker en serie handlinger som gir tidlig belønning (belønning etter få handlinger). Definér en alternativ kumulativ belønningsfunksjon som vekter alle de neste h handlingene likt og ignorerer senere handlinger. (c) I steg I i algoritmen kan en handling velges tilfeldig med ulik sannsynlighet for forskjellige handlinger i henhold til: P (a i s) = k ˆQ(s,a i) j k ˆQ(s,a j) hvor P (a i s) er sannsynligheten for å velge handling a i i tilstand s og k > 0 er en konstant. Forklar hensikten med parameteren k. Page 6