(Først litt mer om konneksjonisme, og så) maskinlæring. ITSLP /04/2008 Erik Velldal
|
|
- Sigve Borgen
- 7 år siden
- Visninger:
Transkript
1 (Først litt mer om konneksjonisme, og så) maskinlæring ITSLP /04/2008 Erik Velldal
2 En liten oppsummering fra forrige gang.. Vi så litt på forskjellen mellom datamaskiner (von Neumann-arkitektur) og biologiske hjerner. Distribuert minne og parallell prosessering. Konneksjonisme / PDP McCullochs-Pitts-nevroner Perceptron Trening av kunstige nevrale nettverk
3 Kunstige vs biologiske nevrale nettverk Mange likheter: Liknende nevron-enheter, parallell aktivitet, distribuert lagring av kunnskap, læring via forsterkning av nevrale forbindelser.. Men enda flere forskjeller: Bilogiske nevroner av mange ulike typer, med ulik fasong, muligens med ulike spesialiseringer. Uvisst hvorvidt geometrisk organisering i hjernen er viktig. Overføringen av elektriske signaler i hjernen skjer vha mange ulike typer kjemiske nevrotransmittere. Ulike typer nevroner har ulikt antall forbindelser. Pulsrate kan være av betydning. Læring hos mennesker bærer ikke preg av samme tabula rasa-tilnærming. Grad av kompleksitet
4 Computationalism vs. Connectionism Mental aktivitet realiseres av manipulering av strukturerte symboler i henhold til syntaktiske regler. Fokus på struktur og symboler. Fokus på modularitet. Mental aktivitet realiseres av parallell aktivitet i et distribuert nettverk av sammenkoblede noder. Forbindelsene er det viktige. Sub-symbolsk. Fokus på generelle læringsmekanismer. Men, man kan også se på disse to paradigmene som komplimentære, altså uten å være i konflikt. Kanskje ulike mentale kapasiteter må implementeres vha ulike strategier.
5 Computationalism vs. Connectionism PDP og konneksjonistiske modeller settes ofte opp som en motpart til symbolmanipulering og SSH-paradigmet....men vi har sett hvordan nettverk kan implementere logiske operasjoner og fungere som symbolmanipulatorer....og viktigere, nettverksmodellene kjøres som regel på vanlige datamaskiner (altså symbolmanipulatorer). Man kan argumentere for at selv dersom hjernen vår fungerer som et PDP-nettverk så kan det likevel være et symbolsystem. Siden et ANN kan beskrives som et algoritmisk system kan det også simuleres av et universelt symbolsystem. Dette følger av den såkalte Church-Turing-tesen..
6 Church-Turing-tesen (1:2) Uttrykt uavhengig av Alonzo Church og Alan Turing (1936) Basert på henholdsvis lambdakalkyle og turingmaskiner. Ethvert algoritmisk beregnbart system kan simuleres av et universelt symbolsystem. Sagt på en annen måte: Enhver algoritme kan ekvivalent uttrykkes som en turingmaskin eller λ-funksjon. Et ANN er også et algoritmisk beregnbart system.. Selv om ideen er tilnærmet universelt godtatt har den likevel status som en hypotese. Formulert på bakgrunn av vage og intuisjons-baserte konsepeter. Tesen sier noe om utrykkskraften til datamaskiner.
7 Church-Turing-tesen (2:2) Gitt at Church-Turing-tesen er sann....og gitt at våre mentale prosesser er algoritmisk beregnbare....så følger det at våre mentale prosesser i prinisippet kan utføres av en turingmaskin. Men vi vet ikke hvorvidt det andre premisset er sant. Det er mulig det finnes mentale prosesser som er såkalt ikke-beregnbare. Og om premissene skulle vise seg å være sanne er det likevel viktig å huske at teoretisk ekvivalens ikke alltid er det samme som praktisk ekvivalens.
8 Maskinlæring (ML) Vi har til nå beskrevet nevrale nettverk som en del av det konneksjonistiske paradigmet innen kognitiv vitenskap. Men innen anvendt AI inngår disse metodene som én blant mange i en verktøykasse vi kaller maskinlæring. Tom Mitchell (1997): Machine Learning is the study of computer algorithms that improve automatically through experience. A computer program is said to learn from experience E with respect to some class of tasks T and performance measure P, if its performance at tasks in T, as measured by P, improves with experience E. ML dreier seg om bruk av data-drevne metoder for tilegning av kunnskap. Istedet for å eksplisitt kode inn kunnskap så lar vi programmet selv lære det fra empiri.
9 ML er et tverrfaglig prosjekt ML sees gjerne som en underdisiplin av AI Teorier om læring og hukommelse fra psykologi og biologi Informatikk Nytt designfokus: fra «hvordan kode kunnskap i maskiner» til «hvordan la maskiner tilegne seg kunnskap selv» Statistisk analyse Nærmeste faglige slektning ML er ofte bare statistisk analyse med et nytt fokus: I ML vil vi ikke kun ha en modell for å beskrive data og å forstå fenomenet som har generert dataene, men vi vil bruke modellen for å løse oppgaver i møte med nye data. Teoriene som etterhvert har vokst frem rundt ML utgjør feltet statistisk læringsteori.
10 Eksempler på anvendelser av ML Ulike former for klassifikasjon Disambiguering Ordsemantikk, talegjenkjenning (hva sies?), osv.. Mønstergjenkjenning Stemmegjenkjenning (hvem snakker?), OCR (f.eks tyding av håndskrift), ansikt / andre former for identifikasjon.. Filtrering spam, kategorisering av dokumenter, informasjonssøk, identifisere juks, produktanbefalinger.. Robotkontroll På ROBIN (UiO) lærer robotkyllingen Henriette å gå vha ML. Dataanalyse innen empiriske vitenskaper som biologi, meteorologi, lingvistikk, osv..
11 Når brukes ML? For problemer som er for komplekse til å la seg beskrive ved eksplisitte regler. Vi kan lett identifisere stemmen eller ansiktet til en bekjent, men vanskelig å formulere eksakte regler for hvordan. For spørsmål og valg der det ikke finnes et eksakt svar: Hvor mye bedre er setning X enn setning Y for å utrykke mening Z? For problemer som er dynamiske i forhold til domene, brukerkontekst, eller tid. Et godt spam-filter må tilpasses brukeren, samt kunne oppdateres og lære over tid.
12 To hovedtyper av ML Veiledet læring (supervised learning) F.eks klassifikasjon og regresjon Trening basert på annoterte eksempler. Annoteringen kan sees som merkelapper (labels) som indikerer hva vi ønsker å lære. Ikke-veiledet læring (unsupervised learning) F.eks klyngenanalyse (clustering) Forsøker å finne en struktur i data, uten forhåndsgitt mål. Vi skal se eksempler på de ulike læringsproblemene. Data er en samling dokumenter X = {x 1,x 2,...,x n } Hvilke dokumenter handler om sport? (klassifikasjon) Gitt et søk z i, hvor relevant er dokument x i? (regresjon) Finnes den noen struktur i X? (klyngeanalyse)
13 Klassifikasjon Vi skal lære en funksjon F: X Y Målet er å skille ut dokumenter som handler som sport. X = {x 1,...,x n } er samlingen med (n antall) dokumenter. La y i Y tilsvare merkelappene sport (1) eller annet (-1). Treningsdata: {(x 1,y 1 ),...,(x n,y n )} Målet er å få færrest mulig antall feilklassifiseringer: Falske negativer (sportsartikkel feilklassifisert som noe annet). Falske positiver (noe annet feilklassifisert som sport). Et annet viktig mål er å oppnå generalitet. En nøyaktig modell må ha få feilklassifiseringer også på nye data (ikke bare treningsdataene som vi lærer fra). Dette kan vi måle på et separat sett med testdata.
14 Representasjon Mange metoder representerer data som attributt-vektorer. Hvert vektorelement har en numerisk verdi som koder en egenskap eller et trekk ved et gitt dataeksempel. I vårt eksempel kan disse trekkene f.eks tilsvare hvor ofte ulike ord forekommer i et gitt dokument. Målet for treningsalgoritmen er da å estimere en tilsvarende vekt- eller parametervektor w som gir færrest mulig feilklassifiseringer. Klassifikasjon kan da skje f.eks ved følgende regel Hvis x i w >= 0 så er y i = sport Hvis x i w < 0 så er y i = annet (husk at x i w = j x ij w j = (x i1 +w 1 )*(x i2 +w 2 )...(x in +w n )) (Vi så et eksempel på en slik klassifikator i forrige forelesning: perceptron.)
15 Representasjon
16 Vektorrom I perceptron-eksemplet tolket vi vektorene i en nevral metafor. Mange læringsteknikker basert på en geometrisk metafor. Vi kan tenke oss at hvert element i attributtvektorene tilsvarer en akse i et koordinatsystem. Verdien til de ulike trekkene posisjonerer dataeksemplene som punkter i et høydimensjonalt rom. Ved å tenke oss dokumentene våre i et slikt vektorrom kan vi måle likhet i innhold på bakgrunn av geometrisk avstand.
17 Klassifikasjon
18 Regresjon
19 Klyngeanalyse (clustering)
20 Klyngeanalyse (clustering) Eksempel på ikke-veiledet (unsupervised) læring. Ingen annotering (labels) i treningsdataene. Prøver å oppdage strukturer og mønstre i dataene. For dokument-eksempelet kan vi f.eks automatisk oppdage kategorier eller grupper av like dokumenter i vektorrommet (uten at vi på forhånd sier noe om hva slags kategorier vi leter etter!). Brukes ofte for visualisering eller for såkalt eksplorativ dataanalyse (EDA). Ikke-veiledet læring kan også brukes som utgangspunkt for data-komprimering, automatisk fullføring og utfylling av informasjon (f.eks T9), informasjonssøk, oppdage unormale hendelser (outliers) f.eks i forbindelse med kredittkort-svindling, og mye annet...
21 Avveining mellom tre viktige faktorer Modellen av treningsdataene bør være generell nok til å gi gode resultater på nye data. Modellen generaliserer typisk bedre jo mer treningsdata vi har. Men, modellens evne til å generalisere er også avhengig av dens grad av sensitivitet og fleksibilitet. Reguleres av graden av kompleksitet. Mengde treningsdata Modellens generalitet Handler om antall parametere i modellen og dermed modellens uttrykkskraft. For mye: tilpasser seg treningsdataene for mye (high variance) Modellens kompleksitet For lite: klarer ikke tilpasse seg treningsdataene (high bias) Kjent som bias-variance tradeoff.
22 (om generalitet, -eksempel til forrige slide.) Vi har en robot som skal lære seg konseptet SPORT. Effekten av treningsdata La oss si vi trener på noen få dokumenter om curling. Fotballstoff vil fort ende opp som falske negativer. Lav kompleksitet (high bias, low variance) Eneste trekk er om ordet «kamp» forekommer eller ikke. Lite tilpasning: Uansett hvilke dokumenter vi trener på får vi ca samme klassifikator (såkalt underfitting). Mange nyhetssaker vil ende opp som falske positiver, mange sportssaker blir falske negativer. Høy kompleksitet (low bias, high variance) Vi har svært mange trekk som perfekt beskriver hvert enkelt dokument i treningsdataene ned til minste detalj. For mye tilpasning, for lite generalitet (såkalt overfitting).
23 (om generalitet, -eksempel til forrige slide.) Vi har en robot som skal lære seg konseptet GENSER. Effekten av treningsdata. La oss si treningsdata er noen få sorte høyhalsede poloer. Roboten vil slite med å identifisere en grønn v-genser. Lav kompleksitet (high bias, low variance) Eneste trekk i modellen er om armene er lange eller ikke. Lite tilpasning: Uansett hvilke, og hvor mange, gensere vi trener på ender vi med ca samme klassifikator. Sannsynlig at jakker ender opp som falske positiver. Høy kompleksitet (low bias, high variance) Modellen har en mengde trekk som klarer å fange detaljert informasjon om tekstiltype i kombinasjon med merke, farge, antall tagger i glidelåsen, vinkel på krage, antall masker... Tilpasser seg dataene for mye til å identifisere nye gensere.
24 Kunnskapsproblemet i en ny form Vi har tidligere sett hvordan GOFAI (good old fashioned AI) ofte har blitt kritisert for at intelligensen ligger hos programmereren og ikke i programmet. Noe av det viktigste er å finne en god representasjon av problemet. Innenfor PDP og ML legger man vekt på at programmene lærer selv. Programmereren håndkoder ikke reglene. Men, gode representasjoner er minst like viktig innen PDP og ML. Og det er programmereren som må definere hvilke trekk som skal brukes for å representere input-dataene for nettverket eller modellen. Læringsalgoritmen er på mange måter bare et skall: Vi trenger ekspertise innen det relvante fagområdet for å definere attributter og representasjoner.
Litt mer om maskinlæring. Oppsummering. Prognoser for ikke så fjern fremtid. ITSLP /04/2008 Erik Velldal
Litt mer om maskinlæring. Oppsummering. Prognoser for ikke så fjern fremtid. ITSLP1100-22/04/2008 Erik Velldal Avveining mellom tre viktige faktorer Modellen av treningsdataene bør være generell nok til
Detaljer)RUVNQLQJVPHWRGLNNLQQHQ.XQVWLJLQWHOOLJHQV
.XQVWLJLQWHOOLJHQV01),7 )RUHOHVQLQJ Emner: )RUVNQLQJVPHWRGLNNLQQHQ.XQVWLJLQWHOOLJHQV - Revidert definisjon - AI som empirisk vitenskap - Kognitiv vitenskap som metodisk tilnærming - Epistemologiske problemer
DetaljerKUNSTIG INTELLIGENS I PRAKSIS NOKIOS 2018 KURS 1.
KUNSTIG INTELLIGENS I PRAKSIS NOKIOS 2018 KURS 1. HVEM ER VI Fabian Sødal Dietrichson Accenture Technology Martin Kowalik Gran Accenture Technology Runar Gunnerud Accenture Consulting XKCD.COM AGENDA 1.
DetaljerTekstmining: En kort innføring
www.nr.no Tekstmining: En kort innføring Pierre Lison Seniorforsker, NR Norsk evalueringsforening 30.08.2018 Litt om NR Et forskningsinstitutt (privat stiftelse) Utfører oppdragsforskning for både næringsliv
DetaljerINF 4130. 8. oktober 2009. Dagens tema: Uavgjørbarhet. Neste uke: NP-kompletthet
INF 4130 8. oktober 2009 Stein Krogdahl Dagens tema: Uavgjørbarhet Dette har blitt framstilt litt annerledes tidligere år Se Dinos forelesninger fra i fjor. I år: Vi tenker mer i programmer enn i Turing-maskiner
DetaljerPraktisk bruk av maskinlæring i vedlikehold
Praktisk bruk av maskinlæring i vedlikehold MainTech konferansen 2018 Andreas Marhaug. Trondheim 04.04.2018 Alpinlandslaget https://www.dagbladet.no/sport/osterrike-og-sveits-fortviler-etter-norskalpinrevolusjon---hva-i-all-verden-driver-norge-med/67657591/amp
DetaljerTuringtesten, symbolsystemhypotesen og kunnskapsproblemet. ITSLP /01/2008 Erik Velldal
Turingtesten, symbolsystemhypotesen og kunnskapsproblemet ITSLP1100-22/01/2008 Erik Velldal Kan maskiner tenke? Hva slags type spørsmål er dette? Empirisk / teknologisk? Filosofisk? (Copeland) Siden maskiner
DetaljerINF2810: Funksjonell Programmering. Lister og høyereordens prosedyrer
INF2810: Funksjonell Programmering Lister og høyereordens prosedyrer Erik Velldal Universitetet i Oslo 2. februar 2017 Agenda 2 Forrige uke Substitusjonsmodellen og evalueringsstrategier. Blokkstruktur
DetaljerIN2110 Obligatorisk innlevering 1a
IN2110 Obligatorisk innlevering 1a Oppsett Leveres innen fredag 15. februar kl. 23.59 i Devilry. For IN2110 har vi laget et utviklingsmiljø for Python som inneholder programvare og data for de obligatoriske
DetaljerINF2810: Funksjonell Programmering. Lister og høyereordens prosedyrer
INF2810: Funksjonell programmering INF2810: Funksjonell Programmering Lister og høyereordens prosedyrer Erik Velldal Universitetet i Oslo 5. februar 2015 Agenda Forrige uke Substitusjonsmodellen og evalueringsstrategier.
DetaljerTEK5020/TEK Mønstergjenkjenning
Sammendrag og eksempler Innledning UiO : Institutt for teknologisystemer Høsten 2018 (18. august 2018) Hva er mønstergjenkjenning? Formålet med mønstergjenkjenning Gjenkjenne objekter - tilordne objekter
DetaljerLæreplan i Programmering og modellering - programfag i studiespesialiserende utdanningsprogram
2.12.2016 Læreplan i - programfag i studiespesialiserende utdanningsprogram Formål Programmering er et emne som stadig blir viktigere i vår moderne tid. Det er en stor fordel å kunne forstå og bruke programmering
DetaljerEksamen - INF 283 Maskinlæring
Eksamen - INF 283 Maskinlæring 23 feb. 2016 Tid: 3 timer Eksamen inneholder 15 oppgaver, som vil bli vektet likt ved evaluering. 1 Table 1 attributt antall personer forsørget av låntaker månedlig inntekt
DetaljerMNFIT-272 Kunstig intelligens Forelesning 4.
MNFIT-272 Kunstig intelligens Forelesning 4. Emner: Søkesystemer - styring og kontroll av søk - søkesystemer i praksis Produksjonssystemer - regelbasert søking - som generell problemløsningsmodell - praktiske
DetaljerTuringmaskiner en kortfattet introduksjon. Christian F Heide
13. november 2014 Turingmaskiner en kortfattet introduksjon Christian F Heide En turingmaskin er ikke en fysisk datamaskin, men et konsept eller en tankekonstruksjon laget for å kunne resonnere omkring
DetaljerUnik4590/Unik9590/TTK Mønstergjenkjenning
Sammendrag og eksempler UiO : Institutt for teknologisystemer Høsten 2017 (14. august 2017) Hva er mønstergjenkjenning? Formålet med mønstergjenkjenning ˆ Gjenkjenne objekter - tilordne objekter til én
DetaljerTuringmaskiner en kortfattet introduksjon. Christian F Heide
7. november 016 Turingmaskiner en kortfattet introduksjon Christian F Heide En turingmaskin er ikke en fysisk datamaskin, men et konsept eller en tankekonstruksjon laget for å kunne resonnere omkring blant
DetaljerHøyere-ordens prosedyrer
INF2810: Funksjonell programmering Høyere-ordens prosedyrer Stephan Oepen & Erik Velldal Universitetet i Oslo 8. februar, 2013 Tema 2 Forrige uke Lister og listerekursjon Høyere-ordens prosedyrer Prosedyrer
DetaljerGenerelt om operativsystemer
Generelt om operativsystemer Operativsystemet: Hva og hvorfor Styring av prosessorer (CPU), elektronikk, nettverk og andre ressurser i en datamaskin er komplisert, detaljert og vanskelig. Maskinvare og
DetaljerCHAPTER 11 - JORUN BØRSTING, ANALYZING QUALITATIVE DATA
CHAPTER 11 - JORUN BØRSTING, 2017. ANALYZING QUALITATIVE DATA I en solid kvalitativ analyse er man avhengig av presist definerte konsepter som kan brukes som kategorier for å utforske og sortere dataene
DetaljerINF2810: Funksjonell Programmering. Dataabstraksjon og Trerekursjon
INF2810: Funksjonell Programmering Dataabstraksjon og Trerekursjon Stephan Oepen & Erik Velldal Universitetet i Oslo 15. februar, 2013 Tema 2 Forrige uke Høyere-ordens prosedyrer: Prosedyrer som argumenter
DetaljerINF2220: Time 8 og 9 - Kompleksitet, beregnbarhet og kombinatorisk søk
INF0: Time 8 og 9 - Kompleksitet, beregnbarhet og kombinatorisk søk Mathias Lohne mathialo Rekursjonseksempel Eksempel Finn kjøretid for følgende program: (Ex11 b) 1 float foo(a) { n = Alength; 3 4 if
DetaljerMAT1030 Diskret Matematikk
MAT1030 Diskret Matematikk Forelesning 29: Kompleksitetsteori Roger Antonsen Institutt for informatikk, Universitetet i Oslo 13. mai 2009 (Sist oppdatert: 2009-05-17 22:38) Forelesning 29: Kompleksitetsteori
DetaljerMAT1030 Diskret matematikk
MAT1030 Diskret matematikk Forelesning 27: Trær Dag Normann Matematisk Institutt, Universitetet i Oslo 30. april 2008 Oppsummering Mandag så vi på hvordan vi kan finne uttrykk og termer på infiks form,
DetaljerForelesning 29: Kompleksitetsteori
MAT1030 Diskret Matematikk Forelesning 29: Kompleksitetsteori Roger Antonsen Institutt for informatikk, Universitetet i Oslo Forelesning 29: Kompleksitetsteori 13. mai 2009 (Sist oppdatert: 2009-05-17
DetaljerVelkommen! I dag. Viktige beskjeder. Studieadministrasjonen. IN Høst Siri Moe Jensen Geir Kjetil Sandve Henrik Hillestad
IN1000 - Høst 2019 Siri Moe Jensen Geir Kjetil Sandve Henrik Hillestad Velkommen! I dag Første innføring i Python Hva fikk dere med dere og hvem er dere? (mentimeter)
DetaljerInnhold uke 7. Objektorientert programmering i Python: Introduksjon. Lite tilbakeblikk: Programflyt og skop. Lite tilbakeblikk: Funksjoner er uttrykk
Innhold uke 7 Objektorientert programmering i Python: Introduksjon IN1000 Høst 2017 uke 7 Siri Moe Jensen Lite tilbakeblikk: Prosedyrer og funksjoner Objektorientert programmering Introduksjon: Hvorfor,
DetaljerMAT1030 Diskret Matematikk
MAT1030 Diskret Matematikk Forelesning 27: Trær Dag Normann Matematisk Institutt, Universitetet i Oslo 4. mai 2010 (Sist oppdatert: 2010-05-04 14:11) Forelesning 27 MAT1030 Diskret Matematikk 4. mai 2010
DetaljerIN1140: Introduksjon til språkteknologi. Forelesning #1
IN1140: Introduksjon til språkteknologi Forelesning #1 Erik Velldal Universitetet i Oslo 22. august 2017 Tema for i dag 2 Introduksjon Hva er språkteknologi? Hva er IN1140? Praktiske detaljer Grupper Obliger
DetaljerForelesning 27. MAT1030 Diskret Matematikk. Bevistrær. Bevistrær. Forelesning 27: Trær. Roger Antonsen. 6. mai 2009 (Sist oppdatert: :28)
MAT1030 Diskret Matematikk Forelesning 27: Trær Roger Antonsen Institutt for informatikk, Universitetet i Oslo Forelesning 27 6. mai 2009 (Sist oppdatert: 2009-05-06 22:28) MAT1030 Diskret Matematikk 6.
DetaljerMAT1030 Forelesning 22
MAT1030 Forelesning 22 Grafteori Roger Antonsen - 21. april 2009 (Sist oppdatert: 2009-04-21 15:13) Introduksjon Introduksjon Vi skal nå over til kapittel 10 & grafteori. Grafer fins overalt rundt oss!
DetaljerGeneralisering til mange klasser - feilrettingsmetodene
Mange klasser Generalisering til mange klasser - feilrettingsmetodene Kesslers konstruksjon - omskriving av c-klasseproblemet til et toklasseproblem. Her innføres en sammensatt vektvektor a og et sett
DetaljerForskningsmetoder i menneske-maskin interaksjon (MMI)
Forskningsmetoder i menneske-maskin interaksjon (MMI) Kapittel 1- Introduksjon Forskningshistorie innenfor MMI Den første konferansen ble holdt i 1982 Annet arbeid i feltet fant sted før 1982 Konferanser
DetaljerIntroduksjon. MAT1030 Diskret Matematikk. Introduksjon. En graf. Forelesning 22: Grafteori. Roger Antonsen
MAT1030 Diskret Matematikk Forelesning 22: Grafteori Roger Antonsen Institutt for informatikk, Universitetet i Oslo Introduksjon 21. april 2009 (Sist oppdatert: 2009-04-21 15:13) MAT1030 Diskret Matematikk
DetaljerIntroduksjon. MAT1030 Diskret matematikk. Søkealgoritmer for grafer. En graf
Introduksjon MAT13 Diskret matematikk Forelesning 21: Grafteori Roger Antonsen Matematisk Institutt, Universitetet i Oslo 9. april 28 Vi skal nå over til kapittel 1 & grafteori. Grafer fins overalt rundt
DetaljerMAT1030 Diskret matematikk
MAT1030 Diskret matematikk Forelesning 21: Grafteori Roger Antonsen Matematisk Institutt, Universitetet i Oslo 9. april 2008 Introduksjon Vi skal nå over til kapittel 10 & grafteori. Grafer fins overalt
DetaljerForelesning 33. Repetisjon. Dag Normann mai Innledning. Kapittel 11
Forelesning 33 Repetisjon Dag Normann - 26. mai 2008 Innledning Onsdag 21/5 gjorde vi oss ferdige med det meste av den systematiske repetisjonen av MAT1030. Det som gjensto var kapitlene 11 om trær og
DetaljerKort repetisjon fra 3. forelesning. Hva er identitetsteori? Type identitet og tokenidentitet Identitetsteori og reduksjonisme
Kort repetisjon fra 3. forelesning Hva er identitetsteori? Type identitet og tokenidentitet Identitetsteori og reduksjonisme Hva taler for typeidentitetsteori? Oppløser problemet med mental-fysisk interaksjon
DetaljerMAT1030 Diskret matematikk
MAT1030 Diskret matematikk Forelesning 33: Repetisjon Dag Normann Matematisk Institutt, Universitetet i Oslo 26. mai 2008 Innledning Onsdag 21/5 gjorde vi oss ferdige med det meste av den systematiske
DetaljerInnledning. MAT1030 Diskret matematikk. Kapittel 11. Kapittel 11. Forelesning 33: Repetisjon
Innledning MAT1030 Diskret matematikk Forelesning 33: Repetisjon Dag Normann Matematisk Institutt, Universitetet i Oslo 26. mai 2008 Onsdag 21/5 gjorde vi oss ferdige med det meste av den systematiske
Detaljer4/5 store parallelle maskiner /4 felles hukommelse in 147, våren 1999 parallelle datamaskiner 1. når tema pensum.
Parallellitet når tema pensum 27/4 felles hukommelse 9.2 9.3 4/5 store parallelle maskiner 9.4 9.6 in 147, våren 1999 parallelle datamaskiner 1 Tema for denne forelesningen: kraftigere enn én prosessor
DetaljerKapittel 5. Trær og nettverk. 5.1 Trær og Fibonacci-følgen
Kapittel 5 Trær og nettverk Vi har sett at anvendelser av differenslikninger studerer fenomener som skjer i adskilte tidsrom, dvs. vi ser på diskrete anvendelser (jfr. Seksjon 1.3). I dette kapittelet
DetaljerSist forelesning snakket vi i hovedsak om trær med rot, og om praktisk bruk av slike. rot. barn
Forelesning 26 Trær Dag Normann - 28. april 2008 Oppsummering Sist forelesning snakket vi i hovedsak om trær med rot, og om praktisk bruk av slike. rot barn barn barnebarn barnebarn barn blad Her er noen
DetaljerMAT1030 Diskret matematikk
MAT1030 Diskret matematikk Forelesning 26: Trær Dag Normann Matematisk Institutt, Universitetet i Oslo 28. april 2008 Oppsummering Sist forelesning snakket vi i hovedsak om trær med rot, og om praktisk
DetaljerPsychodynamic treatment of addiction. Psykodynamisk rusbehandling
Psychodynamic treatment of addiction 1 Psykodynamisk = dynamisk samspill biologi, psykologi, sosiale faktorer Egenskaper ved rusmidlet Egenskaper ved personen Egenskaper ved miljøet 2 Elektriske impulser
DetaljerMAT1030 Diskret Matematikk
MAT1030 Diskret Matematikk Forelesning 4: Logikk Dag Normann Matematisk Institutt, Universitetet i Oslo 27. januar 2010 (Sist oppdatert: 2010-01-27 12:47) Kapittel 4: Logikk (fortsettelse) MAT1030 Diskret
DetaljerOppsummering. MAT1030 Diskret matematikk. Oppsummering. Oppsummering. Eksempel
MAT1030 Diskret matematikk Forelesning 26: Trær Sist forelesning snakket vi i hovedsak om trær med rot, og om praktisk bruk av slike. rot Dag Normann Matematisk Institutt, Universitetet i Oslo barn barn
DetaljerUnik4590/Unik9590/TTK Mønstergjenkjenning
Sammendrag og eksempler Universitetssenteret på Kjeller Høsten 2016 (17. august 2016) Hva er mønstergjenkjenning? Formålet med mønstergjenkjenning Gjenkjenne objekter - tilordne objekter til én av flere
DetaljerMAT1030 Diskret matematikk
MAT1030 Diskret matematikk Forelesning 14: Rekursjon og induksjon Dag Normann Matematisk Institutt, Universitetet i Oslo 27. februar 2008 Oppsummering Mandag repeterte vi en del om relasjoner, da spesielt
DetaljerDyp læring. Sigmund Rolfsjord
Dyp læring Sigmund Rolfsjord Oversikt 1. Grunnleggende om dyp læring og nevrale nett 2. Konvolusjonsnett 3. Synsfelt med konvolusjonsnett Lær mer: Kurs fra Stanford: http://cs231n.stanford.edu/ Mer inngående
DetaljerForelesning 14. Rekursjon og induksjon. Dag Normann februar Oppsummering. Oppsummering. Beregnbare funksjoner
Forelesning 14 og induksjon Dag Normann - 27. februar 2008 Oppsummering Mandag repeterte vi en del om relasjoner, da spesielt om ekvivalensrelasjoner og partielle ordninger. Vi snakket videre om funksjoner.
DetaljerHCI, Interaksjon, grensesnitt og kontekst. Intervju, spørsmålstyper og observasjon
VELKOMMEN REPETISJON HCI, Interaksjon, grensesnitt og kontekst UCD og livssyklusmodell Kognisjon og mentale modeller Intervju, spørsmålstyper og observasjon Behov, krav, personas og scenario DEL 1 HCI,
DetaljerLæringsmål uke 7. Objektorientert programmering i Python: Introduksjon. Innhold uke 7. Lite tilbakeblikk: Programflyt og skop
Læringsmål uke 7 Objektorientert programmering i Python: Introduksjon IN1000 Høst 2018 uke 7 Siri Moe Jensen Kjenne til motivasjon og bakgrunn for objektorientert programmering Kunne definere en klasse,
DetaljerINF2810: Funksjonell Programmering
INF2810: Funksjonell Programmering Høyereordens prosedyrer, lambda og lokale variabler Erik Velldal Universitetet i Oslo 9. februar 2017 Tema 2 Forrige uke Lister og listerekursjon quote Høyereordens prosedyrer
DetaljerINF2810: Funksjonell Programmering. En Scheme-evaluator i Scheme
INF2810: Funksjonell Programmering En Scheme-evaluator i Scheme Erik Velldal Universitetet i Oslo 19. april 2016 Tema 2 Forrige uke Strømmer og utsatt evaluering Kort om makroer I dag Kap. 4 Metasirkulær
DetaljerProgrambeskrivelse for revidert versjon av bachelorprogrammet Matematikk, informatikk
Programbeskrivelse for revidert versjon av bachelorprogrammet Matematikk, informatikk og teknologi (MIT) Tabell 1 Revidert versjon av Matematikk, informatikk og teknologi Programnavn: Vertsinstitutt: Navn
DetaljerKunstig intelligens og telesektoren: hva blir det neste? Dr. Mohammed Sourouri Seniorkonsulent, Acando Mai, 2018
Kunstig intelligens og telesektoren: hva blir det neste? Dr. Seniorkonsulent, Acando Mai, 2018 Agenda Introduksjon til AI Muligheter for telesektoren Tips på veien Agenda Introduksjon til AI Muligheter
DetaljerI et Java-program må programmøren lage og starte hver tråd som programmet bruker. Er dette korrekt? Velg ett alternativ
INF2440-V18 Information INF2440 Vår 2018 eksamen Dato og tid: 11. juni 2018 09:00. Varighet: 4 timer Hjelpemidler: Alt skriftlig materiale er tillatt. Ingen elektroniske hjelpemidler er tillatt. Powerpoint
DetaljerMAT-INF 1100: Obligatorisk oppgave 1
13. september, 2018 MAT-INF 1100: Obligatorisk oppgave 1 Innleveringsfrist: 27/9-2018, kl. 14:30 i Devilry Obligatoriske oppgaver («obliger») er en sentral del av MAT-INF1100 og er utmerket trening i å
DetaljerInnhold. Forord Kapittel 1 Dybdelæring i naturfag Kapittel 2 Kjennetegn på undervisning som gir dyp forståelse... 38
Forord... 13 Kapittel 1 Dybdelæring i naturfag... 17 Liv Oddrun Voll og Anne Holt Den lærende hjernen... 18 Mentale modeller som hierarkiske strukturer... 18 Hjernens organisering i nettverk............................
DetaljerAnalysedrypp I: Bevis, mengder og funksjoner
Analysedrypp I: Bevis, mengder og funksjoner Hensikten med Analysedrypp er å bygge en bro mellom MAT1100 og MAT1110 på den ene siden og MAT2400 på den andre. Egentlig burde det være unødvendig med en slik
DetaljerDagens plan. INF3170 Logikk. Semantikk for sekventer. Definisjon (Motmodell/falsifiserbar sekvent) Definisjon (Gyldig sekvent) Eksempel.
INF3170 Logikk Dagens plan Forelesning 3: Utsagnslogikk sekventkalkyle, sunnhet og kompletthet 1 Sekventkalkyle Christian Mahesh Hansen 2 Institutt for informatikk, Universitetet i Oslo 3 5. februar 2007
DetaljerCopyright 2010, SAS Institute Inc. All rights reserved.
Analyse. Oppdatering og stresstesting av eksisterende modeller og deling av risk scenarier. Cathrine Pihl Næss Senior Advisor - Analytical Intelligence SAS Institute Agenda Oppdatering på utvalgte områder
DetaljerINF2810: Funksjonell Programmering. En Scheme-evaluator i Scheme
INF2810: Funksjonell Programmering En Scheme-evaluator i Scheme Erik Velldal Universitetet i Oslo 27. april 2017 Tema 2 Forrige forelesning Strømmer og utsatt evaluering Kort om makroer I dag Kap. 4 Metasirkulær
DetaljerMøt Freddie! GeoForum GeoLett Håvard Watland
Møt Freddie! GeoForum 2019 - GeoLett 04.04.2019 Håvard Watland 1 Ambita er ledende aktør på eiendomsdata - Ambita tilbyr produkter og tjenester til alle ledd i en eiendomstransaksjon fra start til slutt,
DetaljerINF2810: Funksjonell Programmering
INF2810: Funksjonell Programmering Høyereordens prosedyrer, lambda og lokale variabler Erik Velldal Universitetet i Oslo 9. februar 2017 Tema 2 Forrige uke Lister og listerekursjon quote Høyereordens prosedyrer
DetaljerKompleksitetsanalyse Helge Hafting 25.1.2005 Opphavsrett: Forfatter og Stiftelsen TISIP Lærestoffet er utviklet for faget LO117D Algoritmiske metoder
Helge Hafting 25.1.2005 Opphavsrett: Forfatter og Stiftelsen TISIP Lærestoffet er utviklet for faget LO117D Algoritmiske metoder Innhold 1 1 1.1 Hva er en algoritme?............................... 1 1.2
DetaljerMaskin læring et praktisk eksempel
Maskin læring et praktisk eksempel Introduksjon og erfaringer fra forprosjekt Alcoa Gunnar Andreas Aarvold Mo I Rana Olje & Gassklynge Helgeland 14.02.2018 Mål for møtet: Hva er prediktivt vedlikehold?
DetaljerINF2820 Datalingvistikk V Gang, del Jan Tore Lønning
INF2820 Datalingvistikk V2018 10. Gang, del 2 19.3 Jan Tore Lønning TEKSTKLASSIFISERING 2 I dag: tekstklassifisering Tekstklassifisering og maskinlæring Eksempel: NLTK "Names" Ekseperimentelt oppsett 1
DetaljerInterAct Hvor er vi nå? Hvor skal vi? Knut STUA 11. februar 2015
InterAct Hvor er vi nå? Hvor skal vi? Knut STUA 11. februar 2015 Grunnleggende prinsipper 1. Baklengsdesign Innsatsfaktorer Læringsmiljø Lykkes faglig og profesjonelt På fakultetet, instituttene, programmene,
Detaljer5.8 Iterative estimater på egenverdier
5.8 Iterative estimater på egenverdier Det finnes ingen eksplisitt formel for beregning av egenverdiene til en kvadratisk matrise. Iterative metoder som finner (ofte) en (meget god) approksimasjon til
DetaljerDet matematisk-naturvitenskapelige fakultet Økt forståelse for matematikk ved bruk av programmering Sinusseminar 2019
Det matematisk-naturvitenskapelige fakultet Økt forståelse for matematikk ved bruk av programmering Sinusseminar 2019 Henrik Hillestad Løvold Institutt for Informatikk, UiO Program 1. Hva er programmering?
DetaljerINF Algoritmer og datastrukturer
INF2220 - Algoritmer og datastrukturer HØSTEN 2016 Ingrid Chieh Yu Institutt for informatikk, Universitetet i Oslo Forelesning 4: Prioritetskø og Heap Ingrid Chieh Yu (Ifi, UiO) INF2220 H2016, forelesning
DetaljerEksamensoppgave i PSY2018/PSYPRO Kvalitative forskningsmetoder
Psykologisk institutt Eksamensoppgave i PSY2018/PSYPRO4318 - Kvalitative forskningsmetoder Faglig kontakt under eksamen: Eva Langvik Tlf.:97727666 Eksamensdato: 9. desember 2015 Eksamenstid: 09:00 13:00
DetaljerUKE 2 Forstå bruk/ datainnsamling. Plenum IN1050 Julie og Maria
UKE 2 Forstå bruk/ datainnsamling Plenum IN1050 Julie og Maria Hva skjer i dag? FORSTÅ BRUKER - Kognisjon - Mentale modeller DATAINNSAMLING - 5 key issues - Utvalg og populasjon - Typer data - Metoder
DetaljerHvorfor objektorientert programmering? Objektorientert programmering i Python: Introduksjon. Læringsmål uke 7. Undervisning og pensum IN1000
Objektorientert programmering i Python: Introduksjon IN1000 Høst 2019 uke 7 Siri Moe Jensen Læringsmål uke 7 Kjenne til motivasjon og bakgrunn for objektorientert programmering Kunne definere en klasse,
DetaljerMAT1030 Forelesning 28
MAT1030 Forelesning 28 Kompleksitetsteori Roger Antonsen - 12. mai 2009 (Sist oppdatert: 2009-05-13 08:12) Forelesning 28: Kompleksitetsteori Introduksjon Da er vi klare (?) for siste kapittel, om kompleksitetsteori!
DetaljerINF2810: Funksjonell Programmering. En metasirkulær evaluator
INF2810: Funksjonell Programmering En metasirkulær evaluator Stephan Oepen & Erik Velldal Universitetet i Oslo 26. april 2013 Tema 2 Forrige uke Strømmer og utsatt evaluering Memoisering Kort om makroer
DetaljerHvorfor objektorientert programmering?
Objektorientert programmering i Python: Introduksjon IN1000 Høst 2019 uke 7 Siri Moe Jensen Læringsmål uke 7 Kjenne til motivasjon og bakgrunn for objektorientert programmering Kunne definere en klasse,
DetaljerA study of different matching heuristics. Hovedfagspresentasjon Jan Kasper Martinsen
A study of different matching heuristics Hovedfagspresentasjon Jan Kasper Martinsen (janma@ifi.uio.no) Terminologi: Graf teori En graf består av et sett med noder Nodene er tilknyttet hverandre ved hjelp
DetaljerKapittel 6 - modell seleksjon og regularisering
Kapittel 6 - modell seleksjon og regularisering Geir Storvik 21. februar 2017 1/22 Lineær regresjon med mange forklaringsvariable Lineær modell: Y = β 0 + β 1 x 1 + + β p x p + ε Data: {(x 1, y 1 ),...,
DetaljerINF1800 LOGIKK OG BEREGNBARHET
INF1800 LOGIKK OG BEREGNBARHET FORELESNING 4: UTSAGNSLOGIKK Roger Antonsen Institutt for informatikk Universitetet i Oslo 27. august 2008 (Sist oppdatert: 2008-09-03 12:39) Før vi begynner Praktiske opplysninger
DetaljerKapittel 4: Logikk (fortsettelse)
MAT1030 Diskret Matematikk Forelesning 4: Logikk Roger Antonsen Institutt for informatikk, Universitetet i Oslo Kapittel 4: Logikk (fortsettelse) 21. januar 2009 (Sist oppdatert: 2009-01-22 13:03) MAT1030
DetaljerMAT1030 Diskret Matematikk
MAT1030 Diskret Matematikk Forelesning 4: Logikk Roger Antonsen Institutt for informatikk, Universitetet i Oslo 21. januar 2009 (Sist oppdatert: 2009-01-22 13:02) Kapittel 4: Logikk (fortsettelse) MAT1030
DetaljerMAT1030 Forelesning 4
MAT1030 Forelesning 4 Logikk Roger Antonsen - 21. januar 2009 (Sist oppdatert: 2009-01-22 13:02) Kapittel 4: Logikk (fortsettelse) Enda et eksempel (a) Jeg liker ikke Bamsemums. (b) Du liker alt jeg liker.
DetaljerSemantisk Analyse del I
Semantisk Analyse del I Attributtgrammatikker Kapittel 6.1-6.2 26.02.2013 1 Statisk semantisk analyse kapittel 6: Innhold Generelt om statisk semantisk analyse Attributt-grammatikker (kapittel 6.1-6.2)
DetaljerINF Algoritmer og datastrukturer
INF2220 - Algoritmer og datastrukturer HØSTEN 2017 Ingrid Chieh Yu Institutt for informatikk, Universitetet i Oslo Forelesning 4: Prioritetskø og Heap Ingrid Chieh Yu (Ifi, UiO) INF2220 H2017, forelesning
DetaljerINF Algoritmer og datastrukturer
INF2220 - Algoritmer og datastrukturer Institutt for informatikk, Universitetet i Oslo INF2220, forelesning 13: Dynamisk programmering (Ifi, UiO) INF2220 H2017, forelesning 13 1 / 30 Dagens plan Dynamisk
DetaljerLinjen for Datateknikk Valg av emner i vårsemesteret - 3. årskurs. Bård Kjos Institutt for datateknikk og informasjonsvitenskap
Linjen for Datateknikk alg av emner i vårsemesteret 3. årskurs Bård Kjos Institutt for datateknikk og informasjonsvitenskap 1 Studiestruktur 3., 4. og 5. årskurs Semester Emner 10 Hovedoppgave 9 Ikketekn.
DetaljerMAT503 Samling Notodden uke Dagen: Dagens LUB-er:
MAT503 Samling Notodden uke 3 2017 Dagen: 09.15-1200 Forelesning og aktiviteter knyttet til hvordan elever forstår funksjonsbegrepet 12.00-13.00 Lunsj 13.00-15.00 Vi lager et undervisningsopplegg knyttet
DetaljerMNFIT 272. Kunstig intelligens (AI) 2002
MNFIT 272 Kunstig intelligens (AI) 2002 Fagansvarlig: Professor Agnar Aamodt Institutt for datateknikk og informasjonsvitenskap, IT Vest, Rom 322, Email agnar.aamodt@idi.ntnu.no Kunstig intelligens (MNFIT-272)
DetaljerINF2810: Funksjonell Programmering. Lokale variabler. Og trær.
INF2810: Funksjonell Programmering Lokale variabler. Og trær. Erik Velldal Universitetet i Oslo 11. september 2019 Tema forrige uke 2 Lister som datastruktur quote Rekursjon på lister Høyereordens prosedyrer
DetaljerLitt om Javas class-filer og byte-kode
Litt om Javas class-filer og byte-kode INF 5110, 11/5-2010, Stein Krogdahl (Dessverre litt få figurer) Disse formatene ble planlagt fra start som en del av hele Java-ideen Bt Byte-koden gir portabilitet
DetaljerVektorligninger. Kapittel 3. Vektorregning
Kapittel Vektorligninger I denne uken skal vi bruke enkel vektorregning til å analysere lineære ligningssystemer. Vi skal ha et spesielt fokus på R, for det går an å visualisere; klarer man det, går det
DetaljerKonstruktivistisk Veiledning
Konstruktivistisk Veiledning innhold innhold 09.15 Introduksjon til konstruktivistisk veiledning 10.15 Visualisering som redskap i konstruktivistisk veiledning. Videoopptak visualisering. 11.30 Lunsj 12.30
DetaljerINF2810: Funksjonell Programmering. Lokale variabler. Og trær.
INF2810: Funksjonell Programmering Lokale variabler. Og trær. Erik Velldal Universitetet i Oslo 11. september 2019 Tema forrige uke 2 Lister som datastruktur quote Rekursjon på lister Høyereordens prosedyrer
DetaljerEn enkel modell. Hvorfor?
Interaksjonsdesign Hvorfor? Hva er interaksjonsdesign i forhold til menneske-maskin interaksjon og participatory design? Hva er elementene i interaksjonsdesign? En enkel modell Bruker Interaksjonsdesign
DetaljerForsøkslæreplan i valgfag programmering
Forsøkslæreplan i valgfag programmering Gjelder bare for skoler som har fått innvilget forsøk med programmering valgfag fra 1.8.2016 Formål Valgfagene skal bidra til at elevene, hver for seg og i fellesskap,
DetaljerDemokratiske ferdigheter - fra synsing gjennom analyse til resonnement og vurdering. NOFA 2 Fredag 15.5.2009
Demokratiske ferdigheter - fra synsing gjennom analyse til resonnement og vurdering NOFA 2 Fredag 15.5.2009 Innhold i presentasjonen-artikkelen Målet for artikkelen Demokratisk kompetanse Om, med og til-perspektiver
DetaljerINF Algoritmer: Design og effektivitet
INF 4130 Algoritmer: Design og effektivitet Velkommen Forelesere: Stein Krogdahl, steinkr at ifi.uio.no Petter Kristiansen pettkr at ifi.uio.no Lærebok: Algorithms: Sequential, Parallel, and Distributed,
Detaljer