Innhold. Login. Påvirkningskraft som kvalitetskriterium Forskjeller mellom evalueringsmetoder? En til? Kanskje litt vanskeligere denne



Like dokumenter
Evaluering vol. 1. Plenum IN1050 Uke 11 Maria og Helle

Brukergrensesnitt på mobile enheter

INF1500 Høst 2015 Magnus Li Martine Rolid Leonardsen. Evaluering

FORFATTER(E) Asbjørn Følstad OPPDRAGSGIVER(E) GRADER. DENNE SIDE ISBN PROSJEKTNR. ANTALL SIDER OG BILAG. Åpen

Hva er nytten av brukersentrerte metoder og aktiviteter? En litteraturgjennomgang

INF1500 Høst 2016 Magnus Li Martine Rolid Leonardsen EVALUERING / DECIDE

UMBRA utvikling av mobile brukergrensesnitt

Metodisk arbeid. Strukturert arbeidsmåte for å nå et bestemt mål

Forelesning i INF våren 2014 Hvordan jobber vi med evaluering? Tomm Eriksen Interaksjonsdesigner - Universitetet I Oslo

Forskningsmetoder i informatikk

GRUPPE 5, UKE 11 EVALUERING IN1050

Ulike metoder for bruketesting

Hjernetrim. Hva er det?

Brukerinvolvering i offentlige IT-prosjekter: Metoder for brukersentrert utvikling. Asbjørn Følstad, SINTEF IKT Oslo, 13.

Forskningsopplegg og metoder. Pensum: Dag Ingvar Jacobsen (2005): Hvordan gjennomføre undersøkelser?, s

INF Introduksjon til design, bruk, interaksjon Evaluering del 2

INF Introduksjon til design, bruk, interaksjon Evaluering, del 2

Forskningsmetoder i informatikk

DIGITAL DØMMEKRAFT. Personvern, kildekritikk/ kritisk refleksjon og opphavsrett

UNIVERSITETET I OSLO

Evaluering vol. 2. Plenum IN1050 Uke 12 Maria og Helle

Metodisk arbeid. Strukturert arbeidsmåte for å nå et bestemt mål

Mestringsforventninger i matematikk. Learning Regions Karin Sørlie, Ingrid Syse & Göran Söderlund

Bruker- dokumentasjon. for. Norsk Kompetanseregister

Datainnsamling. Gruppetime 15. Februar Lone Lægreid

Metodisk arbeid. Strukturert arbeidsmåte for å nå målet

Nettredaktørskolen, Høst Google Analytics Brukertesting Brukerundersøkelser

Sjekkliste for vurdering av en kvalitativ studie

Hva får vi igjen for å involvere brukerne og hvordan måler vi det? IKT

Eli Toftøy-Andersen og Jon Gunnar. brukertesting

Nysgjerrigper. Forskningsrådets tilbud til barneskolen. Annette Iversen Aarflot Forskningsrådet, 13.november 2015 Nysgjerrigperkonferansen 2015.

Brukermanual. Studentevalueringssystem

Ved pålogging til KursAdmin Om du har roller i KursAdmin for flere kursarrangører må du velge organisasjonsledd når du logger på. Versjon

Forskningsmetoder. INF1050: Gjennomgang, uke 13

IKT-BASERT EKSAMEN BRUKERVEILEDNING FOR KANDIDAT

Brukerveiledning Webline Portal for E-post Bedrift/E-post Basis

WEBaccess. Nettbasert løsning for administrering av kommunens brukere

Diskusjonsoppgaver Hvilke fordeler oppnår man ved analytisk evaluering sammenliknet med andre tilnærminger?

Forskningsmetoder i informatikk

Ved pålogging til KursAdmin Om du har roller i KursAdmin for flere kursarrangører må du velge organisasjonsledd når du logger på.

INF1050 dagsorden 31. mars Evaluering, 23. april (Uke 17) Hypotetisk-deduktiv metode. Informasjonssystemet gjenspeiler «virkeligheten

Universitetet i Oslo. Oppgaver kurs i bestillingssystemet for rollen Rekvirent

Evaluering av brukskvalitet for et Web-grensesnitt

INF Introduksjon til design, bruk, interaksjon Evaluering, del 1

Design, bruk, interaksjon

Ved å ta 4 tester mener vi det er liten sannsynlighet for å over se kritiske eller alvorlige problemer.

Brukerveiledning. Madison Møbler Nettbutikk

Nettredaktørskolen, Sommer juni Brukertesting Brukerundersøkelser Google Analytics

Repetisjon. Plenum IN1050 Uke 14 Maria og Helle

HR analysen. Ny versjon Brukermal. Ledere

HCI, Interaksjon, grensesnitt og kontekst. Intervju, spørsmålstyper og observasjon

Metoder for evaluering. Flere generelle RRISC

- Velkommen til klart.no -

Brukermanual for Gå til Paris (GTP) 2012

Læreren som forskende i egen praksis FoU- kompetanse (May Britt Postholm) Hvordan samle inn informasjon/data

Brukeradministrasjon Infoland - veiledning 2012

Hvorfor (og når)? INF1050 dagsorden 19. april Evaluering, 22. april (Uke 16) Informasjonssystemet gjenspeiler «virkeligheten»

Evaluering av informasjonssystemer. Brukbarhet er sammensatt. 5. Evaluering, 25. april (Uke 17)

Inf1510: Oppsummering. Rune Rosseland

Evaluering. INF 1500; introduksjon 9l design, bruk og interaksjon 24 oktober 2011

Bakgrunn Innlogging Brukere med tilgang Registrere infeksjoner Registrere antibiotika Registreringer...

Et verktøy for bedre risikoanalyse i krisesituasjoner

Kvalitative intervjuer og observasjon. Pensum: Dag Ingvar Jacobsen (2005): Hvordan gjennomføre undersøkelser, s

«UTVIKLENDE LEDELSE»

Invitasjon til metode- og instruktørsamling søk og redning i krevende lende april 2013

Inf 1510: Bruksorientert design

W i n T i d. Nyheter versjon og Dashboard versjon Logica Norge AS

INF Introduksjon til design, bruk, interaksjon Evaluering del 2

kvalifikasjonsrammeverket UHR Program for kunstnerisk utviklingsarbeid

Veiledning for kursarrangører om avslutning av kurs vårsemesteret 2013

Erfaringslæring Haga-seminar. Kontor for erfaringslæring

UKE 2 Forstå bruk/ datainnsamling. Plenum IN1050 Julie og Maria

Bruk av it s learning

Skjema for egenvurdering

Et samarbeid mellom SAFO Sør-Øst, FFO-samarbeidet i Sør-Øst og Kreftforeningen BRUKERMANUAL FOR REGISTRERING AV PERSONINFO

Reflektere Refleksjonen innebærer at vi tenker over hvordan vi gjør ting, og hvorfor vi gjør det sånn.

Småteknisk Cantor Controller installasjon

F A G B O K F O R L A G E T S E - P O R T A L

Evaluering av Frya kurs for klassetillitsvalgte studenter ved HiL, torsdag 4. september fredag 5. september.

HMS-MØTE Planlegging, gjennomføring og oppfølging. HMS-opplæring, 29. oktober 2009 rådgiver Runa Jakhelln, HMS-seksjonen

DEL 2: ELEVENS LÆREPLAN FOR PROSJEKT TIL FORDYPNING Elevens navn:

Hjelp til MV-Login Administrasjon MikroVerkstedet A/S

Forskningsopplegg. Pensum: Dag Ingvar Jacobsen (2005): Hvordan gjennomføre undersøkelser?, s

Tillit og troverdighet på nett. Tillit. troverdighet. på nett. Cato Haukeland, 2007

Learning Online. DataPower. Administrasjon. Veiledning for administratorer. Versjon 2.x

Veiledning. Bedriftenes forberedelser til bruk av Avfallsdeklarering.no

Forflytning. oblig 2 : INF h oktober 2012

Kommunikasjon Bedriftsløsninger Portaler/Apps

Kvalitative intervju og observasjon. I dag. Hva er kvalitative intervju? MEVIT november Tanja Storsul. Kvalitative intervjuer

Gjennom brukermedvirkning, respekt og mindre tvang

Hjemmeeksamen Gruppe. Formelle krav. Vedlegg 1: Tabell beskrivelse for del 2-4. Side 1 av 5

ARBEIDSBOK FOR BOLIGPRATEN. - vendepunkt gjennom målrettet samarbeid

VELKOMMEN TIL PROSJEKTLEDERSKOLEN 2011

Refleksjon som metode i barnehagers arbeid. Beret Bråten, forsker Fafo Tønsberg 30.november 2016

Hvordan evaluerer man kvaliteten på et IT-system?

F A G B O K F O R L A G E T S E - P O R T A L

1. Innlogging. 1.1 Beskrivelse. 1.2 Aksjoner

Introduksjon til evaluering av It-systemer. Hvordan vurdere og verdsette?

Praksisplan for Sørbø skole, master spesped

Brukertesting i et nøtteskall

Transkript:

Innhold Login - og en til Påvirkningskraft som kvalitetskriterium Forskjeller mellom evalueringsmetoder? Asbjørn Følstad EFFIN fagseminar SINTEF 6. juni 2007 Brukerproblemenes livsløp Expert walkthrough Når har vi rett? Når får vi rett? Login En til? Kanskje litt vanskeligere denne Brukerproblemenes livsløp Validitet og grundighet 8 et 12 oversett Påvirkning Expert walkthrough - alternativet for en IKT-moden befolkning? Redusert nytte av usability-eksperter som ekspertevaluator? særlig for domenespesifikke applikasjoner? Tilstrekkelig strukturert evalueringsprosess -> mulig å bruke domene-eksperter? I.h.t. John og Marks, 1997 1

Expert walkthrough grunnlag og prosess Gruppe: Testleder Sekretær Evaluatorer Observatører Bakgrunnsinfo: Kontekst Løsningen Oppgaver (scenarier): Oppgavekontekst Sekvensiell presentasjon av skritt Noteringsmal: Til individuell notering For alle skritt pr. oppgave Bakgrunn Prosessavklaring Oppgave 1 Oppgave n Designdiskusjon For hvert skritt i oppgaven: Utgangspunkt vises Hva er neste riktige handling? Noen sekunders pause for refleksjon Korrekt interaksjon vises Individuell notering av bruker/endringsforslag Gjentas for alle skrittene i oppgaven Ingen diskusjon under rask gjennomgang Reflektere Notere Ny gjennomgang av skrittene For hvert skritt Evaluatorene spiller inn noterte /forslag Innspillene diskuteres fortløpende Hvert vesentlig problem/forslag klassifiseres Kritisk Alvorlig Kosmetisk Spørsmål etter gjennomgang av hele oppgaven Hva er bra? Tror dere brukerne har lyst til å bruke dette? Diskutere Klassifisere Expert walkthrough - resultat Umiddelbar feedback (ved observasjon i gruppen) Rapport Usability- Endringsforslag (Gode løsninger) Pr. skjermbilde og overordnet I snitt ~80 pr. løsning evaluert på SINTEF (7 stk.) Når har vi rett? Validitet og grundighet 8 reelle 12 skjulte DES - database of empirical studies - implementert på www.simula.no Case studie: 1 spesifikasjon - 4 løsninger En viktig brukergruppe: Stipendiater og forskere ved Simula Formål: Legge inn, vedlikeholde og tilgjengeliggjøre informasjon om studier i en database Evalueringsformer Brukertester 18 deltagere Expert walkthroughs Usabilityeksperter 13 deltagere Domeneeksperter 16 deltagere Scenarier Logge på Legge inn studie Åpne studie for editering 2

DES - metode DES overordnede resultater Expert walkthrough kun med individuell notering Expert walkthrough lik brukertest identiske oppgaver domene-eksperter matcher testdeltagere Brukertest fasit for vurdering av expert walkthrough Undersøkt: % reelle % identifiserte % falske Evaluatorforskjeller Reflektere Notere Klassifisere DES-versjon Totalt Brukertest 56 Ekspert walkthrough Usabilityeksperter Domeneeksperter 87 (243) 106 (282) Tall i parantes: Alle predikerte, inkl. de som ikke ble validert i brukertest Tall foran parantes: Predikerte validert i brukertest DES usability- vs. domene-eksperter (1) Typisk rett og typisk falsk alarm Her har vi rett Vanskelig å se/forstå trinn i mindre vanlig arbeidsflyt Her slår vi falsk alarm Vanskelig å se/forstå trinn i vanlig arbeidsflyt % et % falske Domene-eksperter 25 44 Usability-eksperter 38 45 Skjermelement/arbeidsflyt i motstrid med allmenn konvensjon Manglende merking av obligatorisk felt Skjermelement/arbeidsflyt i motstrid med konvensjon for de innviede Uvant datoformat Vanskelig å se/forstå trinn i mindre vanlig arbeidsflyt (PROBLEM) Vanskelig å se/forstå trinn i vanlig arbeidsflyt (FALSK ALARM) 3

Skjermelement/arbeidsflyt i motstrid med allmenn konvensjon (PROBLEM) Skjermelement/arbeidsflyt i motstrid med konvensjon for de innviede (FALSK ALARM) Hvordan ha mer rett i fremtiden? - Læringspunkter Husk Usability-eksperter er ikke uten videre bedre enn andre til å skille mellom og falske de er bare mer effektive til å produsere problemlister To uavhengige eksperter er bedre enn en og tre er bedre enn to Sammen er vi sterke Ikke gjør ekspertevalueringer alene! Godfot-modellen : Styrk det du er god på: Prosessen og metoden Den harde veien Mulig å styrke det du er dårlig på: Å se om noe er falsk alarm Systematisk trening med brukertestresultater som fasit? Når får vi rett? Påvirkning 8 reelle 12 skjulte UMBRA evaluering av mobile løsninger - implementert som kjørende prototyper 3*2 expert walkthroughs Tre løsninger Evalueringer i gruppe domene-eksperter (5+4+3) usability-eksperter (4+4+4) Analyser og datainnsamlinger etter evalueringene Analyse av rapportene Datainnsamling med bedriftsrepresentanter Prioritering av Halvstrukturerte intervjuer UMBRA total oversikt over Evaluatorenes klassifisering Kritisk Alvorlig Kosmetisk Ikke klassifisert Usability-eksperters Antall 28 45 39 53 165 % 17 % 27 % 24 % 32 % Domene-eksperters 25 27 % 33 36 % 12 13 % 22 24 % 92 Kun 12 % av ene (28 av 229) gjort av begge grupper 4

Bedriftenes prioritering av Fra intervjuer med utviklingsbedriftene Bedriftens prioritering Høy Middels Lav Feil Usabilityeksperters 44 27 % 34 60 27 165 21 % 36 % 16 % Domeneeksperters 50 54 % 10 15 17 92 11 % 16 % 18 % Domene-ekspertenes innspill nyttigst Domene-ekspertenes innspill ble opplevd som mer relevante Domene-ekspertene har kunnskap om et område utviklerne selv mangler innsikt i Usability-ekspertene kjenner ikke mobile plattformer i tilstrekkelig grad Usability-ekspertene ble opplevd å være for opphengt i webdesign Utviklerne opplever seg selv som mer kompetente i forhold til UI-spørsmål enn spørsmål tilknyttet domene og arbeidsprosess. Tar imidlertid ingen resultater for god fisk uten videre 1. Egenvurdering av et s rimelighet 2. Eventuell påfølgende prioritering med utgangspunkt i gruppe Typisk høy og lav påvirkning? Høy påvirkning (>2 tilfeller) Scrolling/scrollemekanismer Layout (dårlig utnyttelse av plass/rotete) Innlogging, bruker, passord, påloggingsstatus Fjerne uviktige skjermelementer Konsistens i UI Tvetydig begrep i menyvalg/skjermelementer Lav påvirkning (>2 tilfeller) Ikoner Ang. arbeidsflyt i skjermbildet Feil fonter (for små, bold ikke nødvendig, kontrast etc.) Manglende/forvirrende ledetekster Innlogging, bruker, passord, påloggingsstatus Data uegnet for generalisering bør kun brukes for å starte diskusjon Hvordan få mer rett i fremtiden? Læringspunkter Husk Uten sluttbruker, ingen påvirkning Ingen vits i å lage lange problemlister uten at de brukes Kosmetiske blir lett liggende ubehandlet Involver sluttbrukere! Gjennom dialog, expert walkthrough eller empirisk evaluering Begrensningens kunst Nøy deg med det viktigste Ikke kast bort din tid og andres oppmerksomhet på detaljer Kjenn din plattform Manglende kunnskap om teknisk plattform underminerer troverdighet Kjenn kostnader knyttet til avvik fra platformspesifikke standarder Kjenn din utvikler Problemer som skyldes gjennomtenkte designvalg er vanskelige å endre takk for oppmerksomheten! 5