INF1050 dagsorden 31. mars Evaluering, 23. april (Uke 17) Hypotetisk-deduktiv metode. Informasjonssystemet gjenspeiler «virkeligheten

Like dokumenter
Hvorfor (og når)? INF1050 dagsorden 19. april Evaluering, 22. april (Uke 16) Informasjonssystemet gjenspeiler «virkeligheten»

Evaluering av informasjonssystemer. Brukbarhet er sammensatt. 5. Evaluering, 25. april (Uke 17)

Brukergrensesnittdesign

Evaluering av informasjonsystemer

Evaluering av informasjonsystemer

INF1050 Systemutvikling

Evaluering av brukskvalitet for et Web-grensesnitt

Prosjektoppgave våren 2007

INF1050 Systemutvikling

Evaluering av grensesnitt. Slik vi ofte oppfatter systemet

Innhold. Login. Påvirkningskraft som kvalitetskriterium Forskjeller mellom evalueringsmetoder? En til? Kanskje litt vanskeligere denne

INF Introduksjon til design, bruk, interaksjon Evaluering, del 2

Diskusjonsoppgaver Hvilke fordeler oppnår man ved analytisk evaluering sammenliknet med andre tilnærminger?

Brukersentert design Kapittel 3 i Shneiderman

Evaluering vol. 1. Plenum IN1050 Uke 11 Maria og Helle

INF1500 Høst 2015 Magnus Li Martine Rolid Leonardsen. Evaluering

Hva er nytten av brukersentrerte metoder og aktiviteter? En litteraturgjennomgang

Læringsmål. INF1050 dagsorden 14. jan Formålet med prosjektet. Den obligatoriske prosjektoppgaven

Hvilken BitBot går raskest gjennom labyrinten?

Usability testing Brukertester

Krav. Beskriver tjenestene produktet skal håndtere Kravene kan testes

INF Introduksjon til design, bruk, interaksjon Evaluering del 2

Forskningsmetoder i informatikk

Løsningsforslag til Case. (Analysen)

Evaluering vol. 2. Plenum IN1050 Uke 12 Maria og Helle

Evaluering. INF 1500; introduksjon 9l design, bruk og interaksjon 24 oktober 2011

Evaluering og analyse. Før start

Forskningsmetoder i informatikk

STUDIEÅRET 2012/2013. Utsatt individuell skriftlig eksamen. VTM 200- Vitenskapsteori og metode. Tirsdag 27. august 2013 kl

OOA&D starter med systemvalg

Hovedprosjekt 2014, Høgskolen i Oslo og Akershus

Forelesning i INF våren 2014 Hvordan jobber vi med evaluering? Tomm Eriksen Interaksjonsdesigner - Universitetet I Oslo

INF1500 Høst 2016 Magnus Li Martine Rolid Leonardsen EVALUERING / DECIDE

Forskningsmetoder i informatikk

Brukskvalitet. Bruk og nytte av systemet

En enkel modell. Hvorfor?

UKE 2 Forstå bruk/ datainnsamling. Plenum IN1050 Julie og Maria

Grunnleggende om Evaluering av It-systemer

Testrapport. Studentevalueringssystem

GJENNOMGANG UKESOPPGAVER 9 TESTING

UKE 3 Krav og behov. Plenum IN1050 Julie og Maria

Kort om evaluering og testing av It-systemer. Hvordan vurdere, verdsette, velge og teste?

Mål. Pensum. TDT4110 Informasjonsteknologi grunnkurs: Tema: Et større case. Terje Rydland - IDI/NTNU. Lære å lage større og sammensatte programmer

inf 1510: bruksorientert design intro våren 2012

HCI, Interaksjon, grensesnitt og kontekst. Intervju, spørsmålstyper og observasjon

Forskningsmetoder. INF1050: Gjennomgang, uke 13

Kundesamtale teste hypoteser

MMI-sammendrag fra eksamener

Løsningsforslag: Oblig 1. INF1050: Gjennomgang, uke 12

DRI 2001 Systemutviklingsarbeidet et overblikk Forelesning

DRI 2001 Systemutviklingsarbeidet et overblikk Forelesning

Introduksjon til evaluering av It-systemer. Hvordan vurdere og verdsette?

Notater: INF1510. Veronika Heimsbakk 20. mai 2015

KVANTITATIV METODE. Marit Schmid Psykologspesialist, PhD HVL

SENSORVEILEDNING FOR EKSAMENSOPPGAVEN I SOS1002 HØSTEN 2007

GRUPPE 5, UKE 11 EVALUERING IN1050

Oppgavetype: Individuell Gruppe

Samfunnsvitenskapelig metode. SOS1120 Kvantitativ metode. Teori data - virkelighet. Forelesningsnotater 1. forelesning høsten 2005

CHAPTER 11 - JORUN BØRSTING, ANALYZING QUALITATIVE DATA

Ressurs Aktivitet Resultat Effekt

Produktdokumentasjon. Madison Møbler Administrasjonsside og Nettbutikk

Grunnleggende testteori

DRI2001 Offentlige nettsteder. Litt om systemutvikling Torsdag 24 aug Arild Jansen, AFIN, UiO

INF Introduksjon til design, bruk, interaksjon Evaluering del 2

Kvalitativ metode. Karin Torvik. Rådgiver Senter for omsorgsforskning, Midt Norge Høgskolen i Nord Trøndelag

TDT4110 Informasjonsteknologi, grunnkurs Uke 35 Introduksjon til programmering i Python

inf 1510: bruksorientert design

Psykososiale målemetoder og psykometri.

EKSAMEN I FAG SIF MMI OG GRAFIKK Lørdag 16. august 2003 Tid: kl

Akseptansetesten. Siste sjanse for godkjenning Etter Hans Schaefer

Eli Toftøy-Andersen og Jon Gunnar. brukertesting

GJENNOMGANG OBLIGATORISK OPPGAVE 1

Grunnlaget for kvalitative metoder I

3. Innsamling av kvantitative data. I dag. Kvalitative og kvantitative opplegg 1/27/11. MEVIT februar 2011 Tanja Storsul

Oblig2 - obligatorisk oppgave nr. 2 (av 4) i INF1000

STUDIEÅRET 2013/2014. Individuell skriftlig eksamen. VTM 200- Vitenskapsteori og metode. Fredag 25. april 2014 kl

INF1000 Eksamensforberedelser og -tips. Høst 2014 Siri Moe Jensen

Studentdrevet innovasjon

Oblig2 - obligatorisk oppgave nr. 2 (av 4) i INF1000 v2008

Prosjektbeskrivelsen består av

Vedlegg Brukertester INNHOLDFORTEGNELSE

Kravhåndtering. INF1050: Gjennomgang, uke 03

Tirsdag 21/11. Onsdag 24/11. Tirsdag 12/12. TDT4110 Informasjonsteknologi grunnkurs: Tema: Et større case

Hva, Hvorfor og litt om Hvordan

Hjernetrim. Hva er det?

GJENNOMGANG UKESOPPGAVER 7 REPETISJON

Sist oppdatert: 18.november Øvelsesoppgaver til INF1500

Kapittel 5 - Advanced Hypertext Model Kapittel 6 - Overview of the WebML Development Process

TDT4110 Informasjonsteknologi grunnkurs: Programmering: En større case. Professor Alf Inge Wang

Læringsmål og pensum. En større case. Mål Lære å lage større og sammensatte programmer Pensum Kapitlene 1-9 og 12.

Ti egenskaper for å evaluere nettsteders brukskvalitet. Den opplevde kvaliteten til nettstedet

Use case modellen. Use case modellering i analysefasen. Hva er en Aktør? Hva er et Use case?

Design, bruk, interaksjon

Forskningsopplegg og metoder. Pensum: Dag Ingvar Jacobsen (2005): Hvordan gjennomføre undersøkelser?, s

Kvalitetskrav til løsninger

MÅL OG MÅLINGER AGENDA. Hvorfor måle? Hva skal måles? Hvordan måle? Læringsnettverk i pasient- og brukersikkerhet

Use case modellen. Use case modellering i analysefasen. Hva er en Aktør? Hva er et Use case? Use case modellering. Eksempel

Forskningsopplegg. Pensum: Dag Ingvar Jacobsen (2005): Hvordan gjennomføre undersøkelser?, s

Kapittel 1 Vitenskap: grunnleggende antakelser

- På Farten - Midttermsrapport

Transkript:

INF1050 dagsorden 31. mars 2004 Tema: Evaluering av informasjonssystemer Hvordan kan vi vite om systemet er riktig? Hvordan kan vi vite om systemet er godt? Hva vil det si at systemet er godt? Hvordan kan vi vite noe om verden? hva hvordan hvorfor 5. Evaluering, 23. april (Uke 17) Evaluering av innlevering 4 for et av de andre prosjektene. Evalueringen skal overleveres den andre prosjektgruppen dere evaluerer, slik at den kan ta hensyn til kommentarene. Evalueringen skal bestå av 2 deler: o Undersøkelse av konsistens mellom de ulike beskrivelsene av systemet (UML-modeller, SQL-setningene som spesifiserer databasen, og prosjektbeskrivelsen (jfr. innlevering 1) ). o En test av det kjørende systemet. På bakgrunn av prosjektdokumentet lager evaluatørene minst 3 oppgaver som dekker den funksjonaliteten som informasjonssystemet skal kunne håndtere. Informasjonssystemet testes deretter med disse oppgavene. Manglende kommandoer i systemet, feil resultat, problemer med å velge eller finne kommandoer, tungvint interaksjon, muligheter for uforutsett ødeleggelse av data og opplevd usikkerhet i forhold til hva datasystemet gjør skal bemerkes. Innleveringen skal bestå av evalueringsrapporten (delrapport 2). INF1050-evaluering, lysark 1 INF1050-evaluering, lysark 2 Informasjonssystemet gjenspeiler «virkeligheten virkeligheten» Virkeligheten (interesseområdet) Hypotetisk-deduktiv metode Framgangsmåte for å vite noe om verden Hver delaktivitet må følge vitenskapelige kriterier registrering påvirkning Verden som vi vil vite noe om Informasjonssystem Oppfatninger av virkeligheten Konsekvenser Konklusjon Tolkning Resultat Sammenstilling av teorier Hypotese Design av undersøkelse Organisasjonen Brukere etter GS fig 1-1 Gjennomføring av undersøkelse Undersøkelsesopplegg INF1050-evaluering, lysark 3 INF1050-evaluering, lysark 4

Evalueringer i forhold til kravspesifikasjonen Syntaktisk test for å vise om vi har laget systemet riktig Å evaluere i hht. kravspesifikasjon: å verifisere systemet Programutførelse, test og evalueringer Informasjonssystem Analyse Hva består interesseområdet av? Hva skal informasjonssystemet gjøre? Implementering Innføring av systemet Kravspesifikasjon Design Hvordan skal informasjonssystemet fungere? Tabeller og spørringer Realisering Hvordan skal programmene utføres? Datamaskinkode INF1050-evaluering, lysark 5 Hypotese: Programmet er syntaktisk korrekt Undersøkelse: Kompilering Konklusjon av vellykket resultat: Vet at vi har et syntaktisk korrekt program INF1050-evaluering, lysark 6 Funksjonell, empirisk test Funksjonell, teoretisk test Hypotese: Programmet behandler data korrekt i henhold til kravspesifikasjon o Use case Undersøkelse: o Velger data som er representative i forhold til de mulige data o Kjører programmet med utvalgte testdata og korrigerer det til det håndterer disse i henhold til kravspesifikasjonen (inf3120) Konklusjon av vellykket resultat: Vet at programmet håndterer disse data Hypotese: Programmet behandler data korrekt i forhold til kravspesifikasjonen Undersøkelse: o Tar utgangspunkt i utsagn om programmet, gjerne en invariant o Beviser matematisk at programmet opprettholder invarianten (inf3230) Konklusjon av vellykket resultat: Vet at programmet er korrekt i forhold til invarianten INF1050-evaluering, lysark 7 INF1050-evaluering, lysark 8

Empirisk inspeksjon Hypotese: Programmet oppfyller kravspesifikasjonen Undersøkelse: Andre programutviklere leser programmet og stiller systematisk spørsmål ved alle setninger om hva setningen gjør og hvorfor den er programmert slik (inf3120) Konklusjon av positivt resultat Vet at programmet tilfredsstiller andres kritiske vurdering Heuristisk evaluering av brukbarhet 2-3 brukbarhetsspesialister Gjennomgår hver detalj i prototypen Vurderer i forhold til kjente retningslinjer for hensiktsmessig design o Retningslinjer for brukergrensenittdesign For hver retningslinje som brytes noteres et mulig bruksproblem Enkel, billig første-evaluering INF1050-evaluering, lysark 9 INF1050-evaluering, lysark 10 Brukbarhet er sammensatt 12 krav til gode brukergrensesnitt Gerhard Skagestein kap. 9.3 system-akseptanse sosialt akseptabelt praktisk akseptabelt osv. reliabilitet nytte kostnader kompatibilitet tilgjengelighet lett å lære brukbarhet effektivt i bruk lett å huske få feil estetisk tilfredsstillende 1. Brukergrensesnittet må følge etablerte standarder 2. Brukergrensesnittene må være mest mulig innbyrdes konsistente 3. Brukeren skal hele tiden ha kontrollen 4. Systemet må gi (informative) tilbakemeldinger 5. Systemet må oppfattes som trygt 6. Brukergrensesnittet må vise hvilke handlinger som står åpne for brukeren 7. Brukergrensesnittet skal ikke være basert på at brukeren må huske noe 8. Brukergrensesnittet må ikke gi brukeren for mye å velge mellom på en gang 9. Unngå en total utveksling av hva brukeren ser på skjermen 10. Brukergrensesnittet må tilby snarveier 11. Brukergrensesnittet må gi et intuitivt bilde av systemet 12. Brukergrensesnittet må være vakkert etter Jakob Nielsen: Usability Engineering (1993), s 25 INF1050-evaluering, lysark 11 INF1050-evaluering, lysark 12

8 gyldne regler for grensesnittdesign etter Shneiderman 1. søk konsistens (terminologi, prompts, menyer, hjelp, farger, form, fonter) 2. lag snarveier for hyppige bruker (forkortelser, spesielle taster, gjemte kommandoer, makroer) 3. gi informativ tilbakemelding 4. design dialoger som lukkes (gruppèr handlingssekvenser, sekvens: begynnelse, midt, avslutning) 5. forebygg feil og tilby enkel feilhåndtering 6. tillat enkel omgjøring av en operasjon 7. støtt brukerens grunnlag for kontroll 8. reduser belastning av korttids-hukommelsen Heuristisk evaluering (forts.) Gjennomføring og resultater Prototyper, skisser og papiretterlikninger (mock-ups) Evaluatørene må være noen andre enn dem som har medvirket i designet Evaluatørene bør ha erfaring i menneske-maskin interaksjon og i grensesnittdesign Én evaluator finner 1/3 av brukbarhetsproblemene Tre evaluatører finner 2/3 INF1050-evaluering, lysark 13 INF1050-evaluering, lysark 14 Gjennomganger (walkthroughs) Utgangspunkt i vanlige oppgaver systemet skal utføre Brukbarhets-spesialister går detaljert gjennom designet Noterer mulige feil Vurderer måloppnåelse Tester målbare størrelser o Antall sider som må blas gjennom for å finne det man ønsker o Antall tastetrykk på som trengs for å finne det man ønsker Tenke-høyt test, evt. med intervju Et lite antall test-personer, stoppe når intet nytt Riktig utvalg? (målgruppe) Utforme oppgaver de skal løse Be dem si høyt alt de tenker o Minn forsøkspersonene om å snakke når de blir tause Feilkilder o De sier det de tror vi vil høre o Det vi sier får oss til å tenke Video-opptak, tidtaking og notater Eventuelt intervju før og etter sesjonen Analysere brukernes forståelse, misforståelser og feil Mer tidkrevende enn heuristisk evaluering For systemer som skal benyttes mye og eksternt INF1050-evaluering, lysark 15 INF1050-evaluering, lysark 16

Bruksevaluering for å få vite om vi har laget det riktige systemet Å evaluere i hht. behov og forventninger: validere systemet registrering Informasjonssystem Virkeligheten (interesseområdet) påvirkning Oppfatninger av virkeligheten Brukere bruks-evaluering ift. oppgaver interesser Passer systemet? INF1050-evaluering, lysark 17 Empiriske brukertester Hypotese: Vi har laget det riktige programmet Undersøkelse La framtidige brukere anvende programmet til sine oppgaver 1. Observasjon Observér hvilke problemer de har og hvilke feil de gjør Observerbare problemer 2. Måling Mål hvor lang tid de trenger for å lære programmet eller løse en oppgave Tell antall feil, antall tastetrykk,... Tall 3. Intervju Spør om det var dette de trengte eller ville ha Brukernes subjektive oppfatninger INF1050-evaluering, lysark 18 Observasjon Der datasystemet blir brukt Arbeidsplass o Samspill med andre datasystemer Hjemme o Gamle browsere o Langsomme linjer Offentlig sted o Lys o Skriftstørrelse Håndholdt hvorsomhelst o Hendene ledige? Notater Video-opptak Typiske problemer som kan oppdages Navigasjonsproblemer o Veksling mellom skjermbilder o Hvor er jeg? Feil inndata Musbevegelser eller snarveier o Tabulator mellom felter Fyller inn noe annet enn tiltenkte data i felter INF1050-evaluering, lysark 19 INF1050-evaluering, lysark 20

Intervju Spørre brukere om hva de bruker systemet til hvor mye de bruker det deres personlige oppfatning eller opplevelse av systemet Ikke nødvendigvis noen sammenheng med hvilke resultater som oppnås ved hjelp av systemet Brukere synes endringer er brysomme Brukere vil ha eksisterende funksjonalitet pluss litt til Logging Hele eller deler av populasjonen Billig for web- og databasesystemer Vanskelig å tolke Hva betyr det at en side er aksessert 68 592 ganger i forhold til formål som? o Profilere butikken o Holde på kundene o Selge mer Identifisere hver bruker Når de oppgir identitet ved for eksempel betaling Logg med oppfølgende intervju Kan gi svar på hvorfor brukerne navigerte som de gjorde INF1050-evaluering, lysark 21 INF1050-evaluering, lysark 22 Utforming inkonsistent med vanlig oppfatning av knapper Målsetting formål og midler En målemetode En verdi som skal oppnås med metoden (target value) Basert på personers oppfatning o Mål som skal oppnås: 95% av publikum skal synes at det nye systemet er bedre enn det gamle. o Målemetode: Å svare på et spørreskjema der hvert av systemene rangeres på en skala fra god til dårlig. Basert på observerbar bruk. Mål som skal oppnås: o 2/3 av kundene skal komme igjen. Telling av hvor mange kunder som kommer mer enn 1 gang. o Wap-systemet skal gi trafikkinformasjon i løpet av 30 sekunder for øvede brukere. Tidtaking i reell bruk. o Nytt system skal gi en statistisk signifikant forkortelse av tiden for å finne trafikkinformasjon. Tidtaking i lab.forsøk. o Gjennomsnittlig antall brukerfeil 2. Feiltelling under reell bruk. 416 % økning i bruken av knappene over 2 måneder 48 % økning i bruk av web-tjenesten INF1050-evaluering, lysark 23 INF1050-evaluering, lysark 24

Middel - Formål Oppgaver i samsvar med systemets formål eller midler Middel til middel Blinkende firmalogo på hver side Sende kundene e- post Produktgruppeorganisering Færrest mulig tastetrykk Middel Visuell presentasjon av butikkens image Gi kunden regelmessig informasjon Bruke kundeprofil i webtjenesten Enkel tilgang til informasjon om produktene Formål Profilere butikken Holde på kunden Selge mer Enkel tilgang til informasjon om produktene o med formål å selge mer o Besøk web-butikken, og bestill og betal følgende varer: o Enkelte av produktene gitt i oppgaven tilbys ikke av butikken o Måten å oppgi kvanta i oppgaven (for eksempel 10 stk.) stemmer ikke alltid overens med butikkens (for eksempel 6-pakning eller kg). Å profilere butikken o Intervju etter høyttenkningssesjonen o Hvilket bilde av butikken synes du web-tjenesten gir? o Hva skiller denne butikken fra andre? o Hvordan vil du karakterisere dens vareutvalg? o Hvordan var servicen? o Hvilken stil har den? INF1050-evaluering, lysark 25 INF1050-evaluering, lysark 26 Laboratorietest av måloppnåelse Sammenliknende laboratorietest Evaluering av et middel som vi tror leder til et mål Sett et mål (target) for middelet o 80% av testpersonene kan gjengi et hovedaspekt ved butikkens image o Gjennomsnittlig tid for å finne ønsket trafikkinformasjon er 30 sekunder Lag et eksperimentoppsett o Gi et antall forsøkspersoner oppgaver o Telling / måling av hva de gjør Lag to design og utfør samme test på begge Del inn forsøkspersonene i grupper Halvparten av forsøkspersonene tester det ene designet først Den andre halvparten tester det andre først INF1050-evaluering, lysark 27 INF1050-evaluering, lysark 28

Valg av evalueringsmetoder Tidlige evalueringer Sparer store kostnader knyttet til senere endringer Tvilsom validitet o Kan evaluere noen midler som vi ikke vet om er relevante for tjenestens formål o Under betingelser som ikke forekommer i virkeligheten Feltevalueringer Større mulighet for å evaluere om formålene oppfylles Mer data å håndtere Ukontrollerbare sammenlikninger Kostbare endringer Informatikkens vitenskapelige metoder Alle de nevnte evalueringsmetodene inngår Informatikk bruker dermed både matematiske, naturvitenskapelige, samfunnsvitenskapelige og humanistiske metoder Informatikk skiller seg fra disse fagene ved at vi også konstruerer det vi skaffer oss viten om, vi o analyserer o designer o koder Informatikk er dermed mer et teknologifag enn matematikk, naturvitenskap, samfunnsfag eller humaniora INF1050-evaluering, lysark 29 INF1050-evaluering, lysark 30 Noen linker om brukbarhetstesting & tips http://sigchi.org/ http://sigchi.org/chi2004/ http://www.uie.com/ http://usableweb.com/ http://usability.gov/guidelines/ http://www.usabilityfirst.com/ http://www.dialogdesign.dk/ http://www.nngroup.com/ http://www.useit.com/jakob/index.html el. http://www.useit.com/ http://www.jnd.org/ http://www.asktog.com/tog.html http://www.upassoc.org/ http://jthom.best.vwh.net/usability/ og mange flere. INF1050-evaluering, lysark 31