Evaluering av informasjonsystemer



Like dokumenter
INF1050 dagsorden 31. mars Evaluering, 23. april (Uke 17) Hypotetisk-deduktiv metode. Informasjonssystemet gjenspeiler «virkeligheten

Hvorfor (og når)? INF1050 dagsorden 19. april Evaluering, 22. april (Uke 16) Informasjonssystemet gjenspeiler «virkeligheten»

Evaluering av informasjonsystemer

Evaluering av informasjonssystemer. Brukbarhet er sammensatt. 5. Evaluering, 25. april (Uke 17)

Brukergrensesnittdesign

Brukskvalitet. Lett å bruke og samtidig nyttig

Beat the Competition. Forelesning 17. januar, Utvikling av interaktive nettsteder

INF1500 Høst 2016 Magnus Li Martine Rolid Leonardsen EVALUERING / DECIDE

INF Introduksjon til design, bruk, interaksjon Evaluering, del 2

Evaluering vol. 2. Plenum IN1050 Uke 12 Maria og Helle

Interaksjonsdesign Utvikling for og med brukere

Unit Relational Algebra 1 1. Relational Algebra 1. Unit 3.3

Midler til innovativ utdanning

INF Introduksjon til design, bruk, interaksjon Evaluering del 2

Information search for the research protocol in IIC/IID

INTERAKSJONSDESIGN. Hva er det? Designprinsipper og begreper Alma Culén

Evaluering. INF 1500; introduksjon 9l design, bruk og interaksjon 24 oktober 2011

Slope-Intercept Formula

Brukersentert design Kapittel 3 i Shneiderman

Jacob Nielsens 10 heuristikker. Dansk Guru med 10 Tommelfingerregler en_(usability_consultant)

Multimedia in Teacher Training (and Education)

Web Accessibility Toolbar. Struktur. Funksjonene. Headinger. Mer om tilgjengelighet og Flash.

Heuristisk evaluering Ekspertevaluering

Kundetilfredshetsundersøkelse FHI/SMAP

Neural Network. Sensors Sorter

INF1500 Høst 2015 Magnus Li Martine Rolid Leonardsen. Evaluering

Endelig ikke-røyker for Kvinner! (Norwegian Edition)

Den europeiske byggenæringen blir digital. hva skjer i Europa? Steen Sunesen Oslo,

E-Learning Design. Speaker Duy Hai Nguyen, HUE Online Lecture

Enkel og effektiv brukertesting. Ida Aalen LOAD september 2017

Kurskategori 2: Læring og undervisning i et IKT-miljø. vår

Dean Zollman, Kansas State University Mojgan Matloob-Haghanikar, Winona State University Sytil Murphy, Shepherd University

F.I.F.F.I.G. Fleksibelt og Innovativt system For FakultetsInformasjon og andre Greier

Issues and challenges in compilation of activity accounts

En praktisk anvendelse av ITIL rammeverket

Dybdelæring i læreplanfornyelsen

Improving Customer Relationships

Climate change and adaptation: Linking. stakeholder engagement- a case study from

Amela Karahasanović Research Scientist, SINTEF IKT Adjunct Associate Professor, DESIGN

Innovasjonsvennlig anskaffelse

System integration testing. Forelesning Systems Testing UiB Høst 2011, Ina M. Espås,

Internationalization in Praxis INTERPRAX

INF Introduksjon til design, bruk, interaksjon Evaluering del 2

Brukertesting i et nøtteskall

case forts. Alternativ 1 Alternativer Sammensetning Objekt-interaktor med valg

The CRM Accelerator. USUS February 2017

Risikofokus - også på de områdene du er ekspert

EN Skriving for kommunikasjon og tenkning

AMS-case forts. Eksemplifisering av modellbasert. tilnærming til design av brukergrensesnitt

ISO 41001:2018 «Den nye læreboka for FM» Pro-FM. Norsk tittel: Fasilitetsstyring (FM) - Ledelsessystemer - Krav og brukerveiledning

Emneevaluering GEOV272 V17

Brukerkrav og use case diagrammer og -tekst 19. januar Agenda. Brukerkrav og use case. Diagrammer Tekst.

Øystein Haugen, Professor, Computer Science MASTER THESES Professor Øystein Haugen, room D

5 E Lesson: Solving Monohybrid Punnett Squares with Coding

PATIENCE TÅLMODIGHET. Is the ability to wait for something. Det trenger vi når vi må vente på noe

Han Ola of Han Per: A Norwegian-American Comic Strip/En Norsk-amerikansk tegneserie (Skrifter. Serie B, LXIX)

Tema. Informasjonsarkitektur Brukervennlighet/Usability Kommunikasjon som treffer målrettet kommunikasjon

Utvikling av skills for å møte fremtidens behov. Janicke Rasmussen, PhD Dean Master Tel

Public roadmap for information management, governance and exchange SINTEF

Metodisk kvalitetsvurdering av systematisk oversikt. Rigmor C Berg Kurs H, mars 2019

Dialogkveld 03. mars Mobbing i barnehagen

Fakultet for informasjonsteknologi, Institutt for datateknikk og informasjonsvitenskap AVSLUTTENDE EKSAMEN I. TDT42378 Programvaresikkerhet

Human Factors relevant ved subsea operasjoner?

Capturing the value of new technology How technology Qualification supports innovation

Diskusjonsoppgaver Hvilke fordeler oppnår man ved analytisk evaluering sammenliknet med andre tilnærminger?

GIS - BASED STORMWATER MASTER PLANNING: SIMPLIFYING STORMWATER PROGRAM MANAGEMENT. Gregory V. Murphy, PE, ARCSA AP Jonathan A. Villines, EIT, CFM

Kjønnsperspektiv I MNT utdanning og forskning

Social Media Insight

Forbruk & Finansiering

Evaluering vol. 1. Plenum IN1050 Uke 11 Maria og Helle

Den som gjør godt, er av Gud (Multilingual Edition)

Forskningsrådets rolle som rådgivende aktør - innspill til EUs neste rammeprogram, FP9 og ERA

Bostøttesamling

EXAM TTM4128 SERVICE AND RESOURCE MANAGEMENT EKSAM I TTM4128 TJENESTE- OG RESSURSADMINISTRASJON

Independent Inspection

HONSEL process monitoring

Produksjon av beslutningsstøtteverktøy fra kunnskapsoppsummeringer til bruk i det kliniske møtet - SHARE-IT

Assignment. Consequences. assignment 2. Consequences fabulous fantasy. Kunnskapsløftets Mål Eleven skal kunne

FIRST LEGO League. Härnösand 2012

What's in IT for me? Sted CAMPUS HELGELAND, MO I RANA Tid

Examination paper for (BI 2015) (Molekylærbiologi, laboratoriekurs)

Dagens tema: Eksempel Klisjéer (mønstre) Tommelfingerregler

En praktisk innføring i team-basert læring

FASMED. Tirsdag 21.april 2015

Examination paper for BI2034 Community Ecology and Ecosystems

Sist oppdatert: 18.november Øvelsesoppgaver til INF1500

UNIVERSITY OF OSLO DEPARTMENT OF ECONOMICS

Fellesprosjekt: gruppe 214

Utvikling av voksnes ferdigheter for optimal realisering av arbeidskraft (SkillsREAL)

GEO231 Teorier om migrasjon og utvikling

Administrasjon av postnummersystemet i Norge Post code administration in Norway. Frode Wold, Norway Post Nordic Address Forum, Iceland 5-6.

ROS analyse for samfunnskritiske IKT systemer. Utfordringer og muligheter 24/11-05

Finishing up the report

Ti egenskaper for å evaluere nettsteders brukskvalitet. Den opplevde kvaliteten til nettstedet

Grunnlag: 11 år med erfaring og tilbakemeldinger

Status for IMOs e-navigasjon prosess. John Erik Hagen, Regiondirektør Kystverket

GEOV219. Hvilket semester er du på? Hva er ditt kjønn? Er du...? Er du...? - Annet postbachelor phd

Elektronisk innlevering/electronic solution for submission:

Moving Objects. We need to move our objects in 3D space.

Transkript:

Kapittel 14 HCI and related fields Evaluering av informasjonsystemer human factors / ergonomics psychology sociolog y HCI artificial intelligence information science visualization design Design process Four basic activities in the design process 1. Identify needs and establish requirements 2. Design potential solutions ((re)-design) 3. Choose between alternatives (evaluate) 4. Build the artefact A simple interaction design model - exemplifies a user-centered design approach Identify needs/ establish requirements These are permeated with three principles 1. Involve users early in the design and evaluation of the artefact 2. Define quantifiable & measurable usability criteria 3. Iteration is inevitable Lifecycle models show how these are related: we present just a few (Re)Design Build an interactive version Evaluate Final product

Traditional waterfall lifecycle A Lifecycle for RAD (Rapid Applications Development) Requirements analysis Project set-up Design JAD workshops Code Iterative design and build Test Engineer and test final prototype Maintenance Implementation review Spiral Lifecycle model From cctr.umkc.edu/~kennethjuwng/spiral.htm The Star lifecycle model Suggested by Hartson and Hix (1989) Important features: Evaluation at the center of activities No particular ordering of activities. Development may start in any one Derived from empirical studies of interface designers

The Star Model Hvordan fungerer dette for informasjonssystemer Implementation Prototyping Evaluation task/functional analysis Requirements specification 1. Hvordan kan vi vite om systemet er riktig? 2. Hvordan kan vi vite om systemet er godt? 3. Hva vil det si at systemet er godt? 4. Hvordan kan vi vite noe om verden? Hvorfor og når skal systemet evalueres? Conceptual/ formal design Hvorfor (og når)? Informasjonssystemet gjenspeiler «virkeligheten» 1. Ved overlevering Er kontrakten oppfylt? Kan prosjektet erklæres avsluttet? 2. Underveis Fossefallsmodell Kan en fase erklæres fullført? Iterativ/inkrementell modell Er prototypen/versjonen/leveransen OK? Hva kan vi lære av hvordan denne versjonen virker i praksis med tanke utvikling av neste versjon? 3. Ved hver milepæl Hva kan vi lære mer generelt (med tanke på senere virksomhet av alle slag)? registrering Informasjonssystem Virkeligheten påvirkning Oppfatninger av virkeligheten Organisasjonen Brukere

Hypotetisk-deduktiv metode Evalueringer i forhold til kravspesifikasjonen Framgangsmåte for å vite noe om verden Hver del-aktivitet må følge vitenskapelige kriterier for å vise om vi har laget systemet riktig Å evaluere i hht. kravspesifikasjon: å verifisere systemet Verden som vi vil vite noe om Konsekvenser Konklusjon Tolkning Resultat Gjennomføring av undersøkelse Sammenstilling av teorier Hypotese Design av undersøkelse Undersøkelsesopplegg Analyse Hva består interesseområdet av? Hva skal informasjonssystemet gjøre? Programutførelse, test og evalueringer Informasjonssystem Implementering Kravspesifikasjon Design Hvordan skal informasjonssystemet fungere? Tabeller og spørringer Realisering Hvordan skal programmene utføres? Datamaskinkode Syntaktisk test Funksjonell, empirisk test Hypotese: Programmet er syntaktisk korrekt Undersøkelse: Kompilering Konklusjon av vellykket resultat: Vet at vi har et syntaktisk korrekt program Hypotese: Programmet behandler data korrekt i henhold til kravspesifikasjon Use case Undersøkelse: Velger data som er representative i forhold til de mulige data Kjører programmet med utvalgte testdata og korrigerer det til det håndterer disse i henhold til kravspesifikasjonen (inf3120) Konklusjon av vellykket resultat: Vet at programmet håndterer disse data

Funksjonell, teoretisk test Empirisk inspeksjon Hypotese: Programmet behandler data korrekt i forhold til kravspesifikasjonen Undersøkelse: Tar utgangspunkt i utsagn om programmet, gjerne en invariant Beviser matematisk at programmet opprettholder invarianten (inf3230) Konklusjon av vellykket resultat: Vet at programmet er korrekt i forhold til invarianten Hypotese: Programmet oppfyller kravspesifikasjonen Undersøkelse: Andre programutviklere leser programmet og stiller systematisk spørsmål ved alle setninger om hva setningen gjør og hvorfor den er programmert slik (inf3120) Konklusjon av positivt resultat Vet at programmet tilfredsstiller andres kritiske vurdering Key points Inspections There are many issues to consider before conducting an evaluation study. These include the goals of the study, the approaches and methods to use, practical issues, ethical issues, and how the data will be collected, analyzed and presented. The DECIDE framework provides a useful checklist for planning an evaluation study. Several kinds. Experts use their knowledge of users & technology to review software usability. Expert critiques (crits) can be formal or informal reports. Heuristic evaluation is a review guided by a set of heuristics. Walkthroughs involve stepping through a pre-planned scenario noting potential problems.

Heuristic evaluation Nielsen s heuristics Developed Jacob Nielsen in the early 1990s. Based on heuristics distilled from an empirical analysis of 249 usability problems. These heuristics have been revised for current technology. Heuristics being developed for mobile devices, wearables, virtual worlds, etc. Design guidelines form a basis for developing heuristics. Visibility of system status. Match between system and real world. User control and freedom. Consistency and standards. Error prevention. Recognition rather than recall. Flexibility and efficiency of use. Aesthetic and minimalist design. Help users recognize, diagnose, recover from errors. Help and documentation. Discount evaluation No. of evaluators & problems Heuristic evaluation is referred to as discount evaluation when 5 evaluators are used. Empirical evidence suggests that on average 5 evaluators identify 75-80% of usability problems.

3 stages for doing heuristic evaluation Briefing session to tell experts what to do. Evaluation period of 1-2 hours in which: Each expert works separately; Take one pass to get a feel for the product; Take a second pass to focus on specific features. Debriefing session in which experts work together to prioritize problems. Advantages and problems Few ethical & practical issues to consider because users not involved. Can be difficult & expensive to find experts. Best experts have knowledge of application domain & users. Biggest problems: Important problems may get missed; Many trivial problems are often identified; Experts have biases. Cognitive walkthroughs The 3 questions Focus on ease of learning. Designer presents an aspect of the design & usage scenarios. Expert is told the assumptions about user population, context of use, task details. One of more experts walk through the design prototype with the scenario. Experts are guided by 3 questions. Will the correct action be sufficiently evident to the user? Will the user notice that the correct action is available? Will the user associate and interpret the response from the action correctly? As the experts work through the scenario they note problems.

Pluralistic walkthrough HCI perspektive Variation on the cognitive walkthrough theme. Performed by a carefully managed team. The panel of experts begins by working separately. Then there is managed discussion that leads to agreed decisions. The approach lends itself well to participatory design. Verifikasjon av systemet mot kravspesifikasjoner er ikke garanti at systemet skal ha de forventede ytre virkninger. Man trenger å få tak i andre metoder og undersøkelser som validerer systemet HCI metoder og tekniker som for eksempel DECIDE, empiriske brukertester, evaluering av brukbarhet, tenke-høyt-test, intervju etc. DECIDE rammeverk er introdusert med 6-7 foiler på engelsk DECIDE: a framework to guide evaluation Determine the goals Determine the goals. Explore the questions. Choose the evaluation approach and methods. Identify the practical issues. Decide how to deal with the ethical issues. Evaluate, analyze, interpret and present the data. What are the high-level goals of the evaluation? Who wants it and why? The goals influence the approach used for the study. Some examples of goals: Identify the best metaphor on which to base the design. Check to ensure that the final interface is consistent. Investigate how technology affects working practices. Improve the usability of an existing product.

Explore the questions Choose the evaluation approach & methods All evaluations need goals & questions to guide them. E.g., the goal of finding out why many customers prefer to purchase paper airline tickets rather than e-tickets can be broken down into sub-questions: What are customers attitudes to these new tickets? Are they concerned about security? Is the interface for obtaining them poor? What questions might you ask about the design of a cell phone? The evaluation approach influences the methods used, and in turn, how data is collected,analyzed and presented. E.g. field studies typically: Involve observation and interviews. Do not involve controlled tests in a laboratory. Produce qualitative data. Identify practical issues Decide about ethical issues For example, how to: Select users Stay on budget Stay on schedule Find evaluators Select equipment Develop an informed consent form Participants have a right to: - Know the goals of the study; - Know what will happen to the findings; - Privacy of personal information; - Leave when they wish; - Be treated politely.

Evaluate, interpret & present data Andre valideringsmetoder The approach and methods used influence how data is evaluated, interpreted and presented. The following need to be considered: - Reliability: can the study be replicated? - Validity: is it measuring what you expected? - Biases: is the process creating biases? - Scope: can the findings be generalized? - Ecological validity: is the environment influencing the findings? - i.e. Hawthorn effect. Empiriske brukertester Observajoner interviju Heuristisk evaluering av brukbarhet Brukbarhet er sammensatt 2-3 brukbarhetsspesialister Gjennomgår hver detalj i prototypen Vurderer i forhold til kjente retningslinjer for hensiktsmessig design Retningslinjer for brukergrensesnittdesign For hver retningslinje som brytes noteres et mulig bruksproblem Enkel, billig første-evaluering system-akseptanse sosialt akseptabelt praktisk akseptabelt nytte kostnader tilgjengelighet brukbarhet lett å lære effektivt i bruk lett å huske kompatibilitet reliabilitet osv. etter Jakob Nielsen: Usability Engineering (1993), s 25 få feil estetisk tilfredsstillende

12 krav til gode brukergrensesnitt (Gerhard Skagestein kap. 9.3) 1. Brukergrensesnittet må følge etablerte standarder 2. Brukergrensesnittene må være mest mulig innbyrdes konsistente 3. Brukeren skal hele tiden ha kontrollen 4. Systemet må gi (informative) tilbakemeldinger 5. Systemet må oppfattes som trygt 6. Brukergrensesnittet må vise hvilke handlinger som står åpne for brukeren 7. Brukergrensesnittet skal ikke være basert på at brukeren må huske noe 8. Brukergrensesnittet må ikke gi brukeren for mye å velge mellom på en gang 9. Unngå en total utveksling av hva brukeren ser på skjermen 10. Brukergrensesnittet må tilby snarveier 11. Brukergrensesnittet må gi et intuitivt bilde av systemet 12. Brukergrensesnittet må være vakkert 8 gyllne regler for grensesnittdesign (Ben Shneiderman) 1. søk konsistens (terminologi, prompts, menyer, hjelp, farger, form, fonter) 2. lag snarveier for hyppige bruker (forkortelser, spesielle taster, gjemte kommandoer, makroer) 3. gi informativ tilbakemelding 4. design dialoger som lukkes (gruppèr handlingssekvenser, sekvens: begynnelse, midt, avslutning) 5. forebygg feil og tilby enkel feilhåndtering 6. tillat enkel omgjøring av en operasjon 7. støtt brukerens grunnlag for kontroll 8. reduser belastning av korttids-hukommelsen Heuristisk evaluering (forts.) Gjennomføring og resultater Gjennomganger (walkthroughs) Prototyper, skisser og papiretterlikninger (mock-ups) Evaluatørene må være noen andre enn dem som har medvirket i designet Evaluatørene bør ha erfaring i menneske-maskin interaksjon og i grensesnittdesign Én evaluator finner 1/3 av brukbarhetsproblemene Tre evaluatører finner 2/3 Utgangspunkt i vanlige oppgaver systemet skal utføre Brukbarhets-spesialister går detaljert gjennom designet Noterer mulige feil Vurderer måloppnåelse Tester målbare størrelser Antall sider som må blas gjennom for å finne det man ønsker Antall tastetrykk på som trengs for å finne det man ønsker

Tenke-høyt test, evt. med intervju Et lite antall test-personer, stoppe når intet nytt Riktig utvalg? (målgruppe) Utforme oppgaver de skal løse Be dem si høyt alt de tenker Minn forsøkspersonene om å snakke når de blir tause Feilkilder De sier det de tror vi vil høre Det vi sier får oss til å tenke Video-opptak, tidtaking og notater Eventuelt intervju før og etter sesjonen Analysere brukernes forståelse, misforståelser og feil Mer tidkrevende enn heuristisk evaluering For systemer som skal benyttes mye og eksternt Bruksevaluering for å få vite om vi har laget det riktige systemet Å evaluere i hht. behov og forventninger: validere systemet Virkeligheten (interesseområdet) registrering Informasjonssystem påvirkning Oppfatninger av virkeligheten bruks-evaluering ift. oppgaver interesser Passer systemet? Brukere Empiriske brukertester Observasjon Hypotese: Vi har laget det riktige programmet Undersøkelse La framtidige brukere anvende programmet til sine oppgaver 1. Observasjon Observér hvilke problemer de har og hvilke feil de gjør Observerbare problemer 2. Måling Mål hvor lang tid de trenger for å lære programmet eller løse en oppgave Tell antall feil, antall tastetrykk,... Tall 3. Intervju Spør om det var dette de trengte eller ville ha Brukernes subjektive oppfatninger Der datasystemet blir brukt Arbeidsplass o Samspill med andre datasystemer Hjemme o Gamle browsere o Langsomme linjer Offentlig sted o Lys o Skriftstørrelse Håndholdt hvorsomhelst o Hendene ledige? Notater Video-opptak

Typiske problemer som kan oppdages Intervju Navigasjonsproblemer Veksling mellom skjermbilder Hvor er jeg? Feil inndata Musbevegelser eller snarveier Tabulator mellom felter Fyller inn noe annet enn tiltenkte data i felter Spørre brukere om hva de bruker systemet til hvor mye de bruker det deres personlige oppfatning eller opplevelse av systemet Ikke nødvendigvis noen sammenheng med hvilke resultater som oppnås ved hjelp av systemet Brukere synes endringer er brysomme Brukere vil ha eksisterende funksjonalitet pluss litt til Logging Utforming inkonsistent med vanlig oppfatning av knapper Hele eller deler av populasjonen Billig for web- og databasesystemer Vanskelig å tolke Hva betyr det at en side er aksessert 68 592 ganger i forhold til formål som? Profilere butikken Holde på kundene Selge mer Identifisere hver bruker Når de oppgir identitet ved for eksempel betaling Logg med oppfølgende intervju Kan gi svar på hvorfor brukerne navigerte som de gjorde 416 % økning i bruken av knappene over 2 måneder, 48 % økning i bruk av web-tjenesten

Målsetting formål og midler En målemetode En verdi som skal oppnås med metoden (target value) Basert på personers oppfatning Mål som skal oppnås: 95% av publikum skal synes at det nye systemet er bedre enn det gamle. Målemetode: Å svare på et spørreskjema der hvert av systemene rangeres på en skala fra god til dårlig. Basert på observerbar bruk. Mål som skal oppnås: 2/3 av kundene skal komme igjen. Telling av hvor mange kunder som kommer mer enn 1 gang. Wap-systemet skal gi trafikkinformasjon i løpet av 30 sekunder for øvede brukere. Tidtaking i reell bruk. Nytt system skal gi en statistisk signifikant forkortelse av tiden for å finne trafikkinformasjon. Tidtaking i lab.forsøk. Gjennomsnittlig antall brukerfeil 2. Feiltelling under reell bruk. Oppgaver i samsvar med systemets formål eller midler Enkel tilgang til informasjon om produktene med formål å selge mer Besøk web-butikken, og bestill og betal følgende varer: Enkelte av produktene gitt i oppgaven tilbys ikke av butikken Måten å oppgi kvanta i oppgaven (for eksempel 10 stk.) stemmer ikke alltid overens med butikkens (for eksempel 6-pakning eller kg). Å profilere butikken Intervju etter høyttenkningssesjonen Hvilket bilde av butikken synes du web-tjenesten gir? Hva skiller denne butikken fra andre? Hvordan vil du karakterisere dens vareutvalg? Hvordan var servicen? Hvilken stil har den? Laboratorietest av måloppnåelse Sammenliknende laboratorietest Evaluering av et middel som vi tror leder til et mål Sett et mål (target) for middelet 80% av testpersonene kan gjengi et hovedaspekt ved butikkens image Gjennomsnittlig tid for å finne ønsket trafikkinformasjon er 30 sekunder Lag et eksperimentoppsett Gi et antall forsøkspersoner oppgaver Telling / måling av hva de gjør Lag to design og utfør samme test på begge Del inn forsøkspersonene i grupper Halvparten av forsøkspersonene tester det ene designet først Den andre halvparten tester det andre først 56

Valg av evalueringsmetoder Avsluttende kommentarer Tidlige evalueringer Sparer store kostnader knyttet til senere endringer Tvilsom validitet Kan evaluere noen midler som vi ikke vet om er relevante for tjenestens formål Under betingelser som ikke forekommer i virkeligheten Feltevalueringer Større mulighet for å evaluere om formålene oppfylles Mer data å håndtere Ukontrollerbare sammenlikninger Kostbare endringer Evaluering gjøres altfor lite For sterk tro på rasjonelle metoder i stedet for å lære av konkrete prosjekter Evaluering er ofte politisk Skal leverandør få betalt nå eller gjøre mer for egen regning? Hvem har skylda? (..bør ikke få forfremmelse, lønnsøkning, nytt oppdrag,...) Etterpåklokskap! Har ikke tide Det gjelder å se framover! Vi må konsentrere oss om dagens utfordringer. Verden er helt annerledes nå Informatikkens vitenskapelige metoder Alle de nevnte evalueringsmetodene inngår Informatikk bruker dermed både matematiske, naturvitenskapelige, samfunnsvitenskapelige og humanistiske metoder Informatikk skiller seg fra disse fagene ved at vi også konstruerer det vi skaffer oss viten om, vi analyserer designer koder Informatikk er dermed mer et teknologifag enn matematikk, naturvitenskap, samfunnsfag eller humaniora Noen linker om brukbarhetstesting & tips http://sigchi.org/ http://sigchi.org/chi2004/ http://www.uie.com/ http://usableweb.com/ http://usability.gov/guidelines/ http://www.usabilityfirst.com/ http://www.dialogdesign.dk/ http://www.nngroup.com/ http://www.useit.com/jakob/index.html el. http://www.useit.com/ http://www.jnd.org/ http://www.asktog.com/tog.html http://www.upassoc.org/ http://jthom.best.vwh.net/usability/ og mange flere. 59