Evaluering av informasjonsystemer

Like dokumenter
INF1050 dagsorden 31. mars Evaluering, 23. april (Uke 17) Hypotetisk-deduktiv metode. Informasjonssystemet gjenspeiler «virkeligheten

Hvorfor (og når)? INF1050 dagsorden 19. april Evaluering, 22. april (Uke 16) Informasjonssystemet gjenspeiler «virkeligheten»

Evaluering av informasjonssystemer. Brukbarhet er sammensatt. 5. Evaluering, 25. april (Uke 17)

Evaluering av informasjonsystemer

Brukergrensesnittdesign

Brukskvalitet. Lett å bruke og samtidig nyttig

Beat the Competition. Forelesning 17. januar, Utvikling av interaktive nettsteder

INF Introduksjon til design, bruk, interaksjon Evaluering, del 2

Interaksjonsdesign Utvikling for og med brukere

INF1500 Høst 2016 Magnus Li Martine Rolid Leonardsen EVALUERING / DECIDE

Evaluering vol. 2. Plenum IN1050 Uke 12 Maria og Helle

Unit Relational Algebra 1 1. Relational Algebra 1. Unit 3.3

Midler til innovativ utdanning

INF Introduksjon til design, bruk, interaksjon Evaluering del 2

Evaluering. INF 1500; introduksjon 9l design, bruk og interaksjon 24 oktober 2011

Information search for the research protocol in IIC/IID

Brukersentert design Kapittel 3 i Shneiderman

Slope-Intercept Formula

INTERAKSJONSDESIGN. Hva er det? Designprinsipper og begreper Alma Culén

Kundetilfredshetsundersøkelse FHI/SMAP

Den europeiske byggenæringen blir digital. hva skjer i Europa? Steen Sunesen Oslo,

Heuristisk evaluering Ekspertevaluering

Multimedia in Teacher Training (and Education)

Dean Zollman, Kansas State University Mojgan Matloob-Haghanikar, Winona State University Sytil Murphy, Shepherd University

Kurskategori 2: Læring og undervisning i et IKT-miljø. vår

Jacob Nielsens 10 heuristikker. Dansk Guru med 10 Tommelfingerregler en_(usability_consultant)

Neural Network. Sensors Sorter

INF1500 Høst 2015 Magnus Li Martine Rolid Leonardsen. Evaluering

Endelig ikke-røyker for Kvinner! (Norwegian Edition)

Web Accessibility Toolbar. Struktur. Funksjonene. Headinger. Mer om tilgjengelighet og Flash.

Issues and challenges in compilation of activity accounts

En praktisk anvendelse av ITIL rammeverket

E-Learning Design. Speaker Duy Hai Nguyen, HUE Online Lecture

Enkel og effektiv brukertesting. Ida Aalen LOAD september 2017

F.I.F.F.I.G. Fleksibelt og Innovativt system For FakultetsInformasjon og andre Greier

Brukertesting i et nøtteskall

Innovasjonsvennlig anskaffelse

Internationalization in Praxis INTERPRAX

Dybdelæring i læreplanfornyelsen

Improving Customer Relationships

case forts. Alternativ 1 Alternativer Sammensetning Objekt-interaktor med valg

INF Introduksjon til design, bruk, interaksjon Evaluering del 2

Risikofokus - også på de områdene du er ekspert

The CRM Accelerator. USUS February 2017

Climate change and adaptation: Linking. stakeholder engagement- a case study from

Amela Karahasanović Research Scientist, SINTEF IKT Adjunct Associate Professor, DESIGN

System integration testing. Forelesning Systems Testing UiB Høst 2011, Ina M. Espås,

Capturing the value of new technology How technology Qualification supports innovation

Human Factors relevant ved subsea operasjoner?

Dialogkveld 03. mars Mobbing i barnehagen

AMS-case forts. Eksemplifisering av modellbasert. tilnærming til design av brukergrensesnitt

Sist oppdatert: 18.november Øvelsesoppgaver til INF1500

EN Skriving for kommunikasjon og tenkning

5 E Lesson: Solving Monohybrid Punnett Squares with Coding

PATIENCE TÅLMODIGHET. Is the ability to wait for something. Det trenger vi når vi må vente på noe

GIS - BASED STORMWATER MASTER PLANNING: SIMPLIFYING STORMWATER PROGRAM MANAGEMENT. Gregory V. Murphy, PE, ARCSA AP Jonathan A. Villines, EIT, CFM

Han Ola of Han Per: A Norwegian-American Comic Strip/En Norsk-amerikansk tegneserie (Skrifter. Serie B, LXIX)

Tema. Informasjonsarkitektur Brukervennlighet/Usability Kommunikasjon som treffer målrettet kommunikasjon

ISO 41001:2018 «Den nye læreboka for FM» Pro-FM. Norsk tittel: Fasilitetsstyring (FM) - Ledelsessystemer - Krav og brukerveiledning

Emneevaluering GEOV272 V17

Utvikling av skills for å møte fremtidens behov. Janicke Rasmussen, PhD Dean Master Tel

Brukerkrav og use case diagrammer og -tekst 19. januar Agenda. Brukerkrav og use case. Diagrammer Tekst.

Public roadmap for information management, governance and exchange SINTEF

Metodisk kvalitetsvurdering av systematisk oversikt. Rigmor C Berg Kurs H, mars 2019

Bostøttesamling

HONSEL process monitoring

Øystein Haugen, Professor, Computer Science MASTER THESES Professor Øystein Haugen, room D

Kjønnsperspektiv I MNT utdanning og forskning

Fellesprosjekt: gruppe 214

EXAM TTM4128 SERVICE AND RESOURCE MANAGEMENT EKSAM I TTM4128 TJENESTE- OG RESSURSADMINISTRASJON

«Transferable skills», and what s in it for me?

Fakultet for informasjonsteknologi, Institutt for datateknikk og informasjonsvitenskap AVSLUTTENDE EKSAMEN I. TDT42378 Programvaresikkerhet

FIRST LEGO League. Härnösand 2012

Diskusjonsoppgaver Hvilke fordeler oppnår man ved analytisk evaluering sammenliknet med andre tilnærminger?

Dagens tema: Eksempel Klisjéer (mønstre) Tommelfingerregler

FASMED. Tirsdag 21.april 2015

Examination paper for BI2034 Community Ecology and Ecosystems

Uke 5. Magnus Li INF /

Administrasjon av postnummersystemet i Norge Post code administration in Norway. Frode Wold, Norway Post Nordic Address Forum, Iceland 5-6.

Social Media Insight

Forbruk & Finansiering

NKS-programmet Status i B-delen

Evaluering vol. 1. Plenum IN1050 Uke 11 Maria og Helle

Den som gjør godt, er av Gud (Multilingual Edition)

Forskningsrådets rolle som rådgivende aktør - innspill til EUs neste rammeprogram, FP9 og ERA

Finishing up the report

Independent Inspection

GEO231 Teorier om migrasjon og utvikling

Grunnlag: 11 år med erfaring og tilbakemeldinger

Produksjon av beslutningsstøtteverktøy fra kunnskapsoppsummeringer til bruk i det kliniske møtet - SHARE-IT

Moving Objects. We need to move our objects in 3D space.

Assignment. Consequences. assignment 2. Consequences fabulous fantasy. Kunnskapsløftets Mål Eleven skal kunne

What's in IT for me? Sted CAMPUS HELGELAND, MO I RANA Tid

Examination paper for (BI 2015) (Molekylærbiologi, laboratoriekurs)

En praktisk innføring i team-basert læring

GEOV219. Hvilket semester er du på? Hva er ditt kjønn? Er du...? Er du...? - Annet postbachelor phd

Elektronisk innlevering/electronic solution for submission:

Hvor mye teoretisk kunnskap har du tilegnet deg på dette emnet? (1 = ingen, 5 = mye)

UNIVERSITY OF OSLO DEPARTMENT OF ECONOMICS

Transkript:

Kapittel 14 Evaluering av informasjonsystemer

HCI and related fields human factors / ergonomics artificial intelligence psychology sociolog y HCI information science visualization design

Design process Four basic activities in the design process 1. Identify needs and establish requirements 2. Design potential solutions ((re)-design) 3. Choose between alternatives (evaluate) 4. Build the artefact These are permeated with three principles 1. Involve users early in the design and evaluation of the artefact 2. Define quantifiable & measurable usability criteria 3. Iteration is inevitable Lifecycle models show how these are related: we present just a few

A simple interaction design model - exemplifies a user-centered design approach Identify needs/ establish requirements (Re)Design Evaluate Build an interactive version Final product

Traditional waterfall lifecycle Requirements analysis Design Code Test Maintenance

A Lifecycle for RAD (Rapid Applications Development) Project set-up JAD workshops Iterative design and build Engineer and test final prototype Implementation review

Spiral Lifecycle model From cctr.umkc.edu/~kennethjuwng/spiral.htm

The Star lifecycle model Suggested by Hartson and Hix (1989) Important features: Evaluation at the center of activities No particular ordering of activities. Development may start in any one Derived from empirical studies of interface designers

The Star Model Implementation task/functional analysis Prototyping Evaluation Requirements specification Conceptual/ formal design

Hvordan fungerer dette for informasjonssystemer 1. Hvordan kan vi vite om systemet er riktig? 2. Hvordan kan vi vite om systemet er godt? 3. Hva vil det si at systemet er godt? 4. Hvordan kan vi vite noe om verden? Hvorfor og når skal systemet evalueres?

Hvorfor (og når)? 1. Ved overlevering Er kontrakten oppfylt? Kan prosjektet erklæres avsluttet? 2. Underveis Fossefallsmodell Kan en fase erklæres fullført? Iterativ/inkrementell modell Er prototypen/versjonen/leveransen OK? Hva kan vi lære av hvordan denne versjonen virker i praksis med tanke utvikling av neste versjon? 3. Ved hver milepæl Hva kan vi lære mer generelt (med tanke på senere virksomhet av alle slag)?

Informasjonssystemet gjenspeiler «virkeligheten» registrering Virkeligheten påvirkning Oppfatninger av virkeligheten Informasjonssystem Organisasjonen Brukere

Hypotetisk-deduktiv metode Framgangsmåte for å vite noe om verden Hver del-aktivitet må følge vitenskapelige kriterier Verden som vi vil vite noe om Konsekvenser Konklusjon Tolkning Resultat Gjennomføring av undersøkelse Sammenstilling av teorier Hypotese Design av undersøkelse Undersøkelsesopplegg

Evalueringer i forhold til kravspesifikasjonen for å vise om vi har laget systemet riktig Å evaluere i hht. kravspesifikasjon: å verifisere systemet Analyse Hva består interesseområdet av? Hva skal informasjonssystemet gjøre? Programutførelse, test og evalueringer Kravspesifikasjon Design Hvordan skal informasjonssystemet fungere? Tabeller og spørringer Informasjonssystem Implementering Realisering Hvordan skal programmene utføres? Datamaskinkode

Syntaktisk test Hypotese: Programmet er syntaktisk korrekt Undersøkelse: Kompilering Konklusjon av vellykket resultat: Vet at vi har et syntaktisk korrekt program

Funksjonell, empirisk test Hypotese: Programmet behandler data korrekt i henhold til kravspesifikasjon Use case Undersøkelse: Velger data som er representative i forhold til de mulige data Kjører programmet med utvalgte testdata og korrigerer det til det håndterer disse i henhold til kravspesifikasjonen (inf3120) Konklusjon av vellykket resultat: Vet at programmet håndterer disse data

Funksjonell, teoretisk test Hypotese: Programmet behandler data korrekt i forhold til kravspesifikasjonen Undersøkelse: Tar utgangspunkt i utsagn om programmet, gjerne en invariant Beviser matematisk at programmet opprettholder invarianten (inf3230) Konklusjon av vellykket resultat: Vet at programmet er korrekt i forhold til invarianten

Empirisk inspeksjon Hypotese: Programmet oppfyller kravspesifikasjonen Undersøkelse: Andre programutviklere leser programmet og stiller systematisk spørsmål ved alle setninger om hva setningen gjør og hvorfor den er programmert slik (inf3120) Konklusjon av positivt resultat Vet at programmet tilfredsstiller andres kritiske vurdering

Key points There are many issues to consider before conducting an evaluation study. These include the goals of the study, the approaches and methods to use, practical issues, ethical issues, and how the data will be collected, analyzed and presented. The DECIDE framework provides a useful checklist for planning an evaluation study.

Inspections Several kinds. Experts use their knowledge of users & technology to review software usability. Expert critiques (crits) can be formal or informal reports. Heuristic evaluation is a review guided by a set of heuristics. Walkthroughs involve stepping through a pre-planned scenario noting potential problems.

Heuristic evaluation Developed Jacob Nielsen in the early 1990s. Based on heuristics distilled from an empirical analysis of 249 usability problems. These heuristics have been revised for current technology. Heuristics being developed for mobile devices, wearables, virtual worlds, etc. Design guidelines form a basis for developing heuristics.

Nielsen s heuristics Visibility of system status. Match between system and real world. User control and freedom. Consistency and standards. Error prevention. Recognition rather than recall. Flexibility and efficiency of use. Aesthetic and minimalist design. Help users recognize, diagnose, recover from errors. Help and documentation.

Discount evaluation Heuristic evaluation is referred to as discount evaluation when 5 evaluators are used. Empirical evidence suggests that on average 5 evaluators identify 75-80% of usability problems.

No. of evaluators & problems

3 stages for doing heuristic evaluation Briefing session to tell experts what to do. Evaluation period of 1-2 hours in which: Each expert works separately; Take one pass to get a feel for the product; Take a second pass to focus on specific features. Debriefing session in which experts work together to prioritize problems.

Advantages and problems Few ethical & practical issues to consider because users not involved. Can be difficult & expensive to find experts. Best experts have knowledge of application domain & users. Biggest problems: Important problems may get missed; Many trivial problems are often identified; Experts have biases.

Cognitive walkthroughs Focus on ease of learning. Designer presents an aspect of the design & usage scenarios. Expert is told the assumptions about user population, context of use, task details. One of more experts walk through the design prototype with the scenario. Experts are guided by 3 questions.

The 3 questions Will the correct action be sufficiently evident to the user? Will the user notice that the correct action is available? Will the user associate and interpret the response from the action correctly? As the experts work through the scenario they note problems.

Pluralistic walkthrough Variation on the cognitive walkthrough theme. Performed by a carefully managed team. The panel of experts begins by working separately. Then there is managed discussion that leads to agreed decisions. The approach lends itself well to participatory design.

HCI perspektive Verifikasjon av systemet mot kravspesifikasjoner er ikke garanti at systemet skal ha de forventede ytre virkninger. Man trenger å få tak i andre metoder og undersøkelser som validerer systemet HCI metoder og tekniker som for eksempel DECIDE, empiriske brukertester, evaluering av brukbarhet, tenke-høyt-test, intervju etc. DECIDE rammeverk er introdusert med 6-7 foiler på engelsk

DECIDE: a framework to guide evaluation Determine the goals. Explore the questions. Choose the evaluation approach and methods. Identify the practical issues. Decide how to deal with the ethical issues. Evaluate, analyze, interpret and present the data.

Determine the goals What are the high-level goals of the evaluation? Who wants it and why? The goals influence the approach used for the study. Some examples of goals: Identify the best metaphor on which to base the design. Check to ensure that the final interface is consistent. Investigate how technology affects working practices. Improve the usability of an existing product.

Explore the questions All evaluations need goals & questions to guide them. E.g., the goal of finding out why many customers prefer to purchase paper airline tickets rather than e-tickets can be broken down into sub-questions: What are customers attitudes to these new tickets? Are they concerned about security? Is the interface for obtaining them poor? What questions might you ask about the design of a cell phone?

Choose the evaluation approach & methods The evaluation approach influences the methods used, and in turn, how data is collected,analyzed and presented. E.g. field studies typically: Involve observation and interviews. Do not involve controlled tests in a laboratory. Produce qualitative data.

Identify practical issues For example, how to: Select users Stay on budget Stay on schedule Find evaluators Select equipment

Decide about ethical issues Develop an informed consent form Participants have a right to: - Know the goals of the study; - Know what will happen to the findings; - Privacy of personal information; - Leave when they wish; - Be treated politely.

Evaluate, interpret & present data The approach and methods used influence how data is evaluated, interpreted and presented. The following need to be considered: - Reliability: can the study be replicated? - Validity: is it measuring what you expected? - Biases: is the process creating biases? - Scope: can the findings be generalized? - Ecological validity: is the environment influencing the findings? - i.e. Hawthorn effect.

Andre valideringsmetoder Empiriske brukertester Observajoner interviju

Heuristisk evaluering av brukbarhet 2-3 brukbarhetsspesialister Gjennomgår hver detalj i prototypen Vurderer i forhold til kjente retningslinjer for hensiktsmessig design Retningslinjer for brukergrensesnittdesign For hver retningslinje som brytes noteres et mulig bruksproblem Enkel, billig første-evaluering

Brukbarhet er sammensatt sosialt akseptabelt tilgjengelighet system-akseptanse praktisk akseptabelt nytte kostnader brukbarhet lett å lære effektivt i bruk lett å huske kompatibilitet reliabilitet osv. etter Jakob Nielsen: Usability Engineering (1993), s 25 estetisk få feil tilfredsstillende

12 krav til gode brukergrensesnitt (Gerhard Skagestein kap. 9.3) 1. Brukergrensesnittet må følge etablerte standarder 2. Brukergrensesnittene må være mest mulig innbyrdes konsistente 3. Brukeren skal hele tiden ha kontrollen 4. Systemet må gi (informative) tilbakemeldinger 5. Systemet må oppfattes som trygt 6. Brukergrensesnittet må vise hvilke handlinger som står åpne for brukeren 7. Brukergrensesnittet skal ikke være basert på at brukeren må huske noe 8. Brukergrensesnittet må ikke gi brukeren for mye å velge mellom på en gang 9. Unngå en total utveksling av hva brukeren ser på skjermen 10. Brukergrensesnittet må tilby snarveier 11. Brukergrensesnittet må gi et intuitivt bilde av systemet 12. Brukergrensesnittet må være vakkert

8 gyllne regler for grensesnittdesign (Ben Shneiderman) 1. søk konsistens (terminologi, prompts, menyer, hjelp, farger, form, fonter) 2. lag snarveier for hyppige bruker (forkortelser, spesielle taster, gjemte kommandoer, makroer) 3. gi informativ tilbakemelding 4. design dialoger som lukkes (gruppèr handlingssekvenser, sekvens: begynnelse, midt, avslutning) 5. forebygg feil og tilby enkel feilhåndtering 6. tillat enkel omgjøring av en operasjon 7. støtt brukerens grunnlag for kontroll 8. reduser belastning av korttids-hukommelsen

Heuristisk evaluering (forts.) Gjennomføring og resultater Prototyper, skisser og papiretterlikninger (mock-ups) Evaluatørene må være noen andre enn dem som har medvirket i designet Evaluatørene bør ha erfaring i menneske-maskin interaksjon og i grensesnittdesign Én evaluator finner 1/3 av brukbarhetsproblemene Tre evaluatører finner 2/3

Gjennomganger (walkthroughs) Utgangspunkt i vanlige oppgaver systemet skal utføre Brukbarhets-spesialister går detaljert gjennom designet Noterer mulige feil Vurderer måloppnåelse Tester målbare størrelser Antall sider som må blas gjennom for å finne det man ønsker Antall tastetrykk på som trengs for å finne det man ønsker

Tenke-høyt test, evt. med intervju Et lite antall test-personer, stoppe når intet nytt Riktig utvalg? (målgruppe) Utforme oppgaver de skal løse Be dem si høyt alt de tenker Minn forsøkspersonene om å snakke når de blir tause Feilkilder De sier det de tror vi vil høre Det vi sier får oss til å tenke Video-opptak, tidtaking og notater Eventuelt intervju før og etter sesjonen Analysere brukernes forståelse, misforståelser og feil Mer tidkrevende enn heuristisk evaluering For systemer som skal benyttes mye og eksternt

Bruksevaluering for å få vite om vi har laget det riktige systemet Å evaluere i hht. behov og forventninger: validere systemet Virkeligheten (interesseområdet) registrering Oppfatninger av virkeligheten påvirkning bruks-evaluering ift. oppgaver interesser Passer systemet? Informasjonssystem Brukere

Empiriske brukertester Hypotese: Vi har laget det riktige programmet Undersøkelse La framtidige brukere anvende programmet til sine oppgaver 1. Observasjon Observér hvilke problemer de har og hvilke feil de gjør Observerbare problemer 2. Måling Mål hvor lang tid de trenger for å lære programmet eller løse en oppgave Tell antall feil, antall tastetrykk,... Tall 3. Intervju Spør om det var dette de trengte eller ville ha Brukernes subjektive oppfatninger

Observasjon Der datasystemet blir brukt Arbeidsplass o Hjemme o o Samspill med andre datasystemer Gamle browsere Langsomme linjer Offentlig sted o o Lys Skriftstørrelse Håndholdt hvorsomhelst o Notater Hendene ledige? Video-opptak

Typiske problemer som kan oppdages Navigasjonsproblemer Veksling mellom skjermbilder Hvor er jeg? Feil inndata Musbevegelser eller snarveier Tabulator mellom felter Fyller inn noe annet enn tiltenkte data i felter

Intervju Spørre brukere om hva de bruker systemet til hvor mye de bruker det deres personlige oppfatning eller opplevelse av systemet Ikke nødvendigvis noen sammenheng med hvilke resultater som oppnås ved hjelp av systemet Brukere synes endringer er brysomme Brukere vil ha eksisterende funksjonalitet pluss litt til

Logging Hele eller deler av populasjonen Billig for web- og databasesystemer Vanskelig å tolke Hva betyr det at en side er aksessert 68 592 ganger i forhold til formål som? Profilere butikken Holde på kundene Selge mer Identifisere hver bruker Når de oppgir identitet ved for eksempel betaling Logg med oppfølgende intervju Kan gi svar på hvorfor brukerne navigerte som de gjorde

Utforming inkonsistent med vanlig oppfatning av knapper 416 % økning i bruken av knappene over 2 måneder, 48 % økning i bruk av web-tjenesten

Målsetting formål og midler En målemetode En verdi som skal oppnås med metoden (target value) Basert på personers oppfatning Mål som skal oppnås: 95% av publikum skal synes at det nye systemet er bedre enn det gamle. Målemetode: Å svare på et spørreskjema der hvert av systemene rangeres på en skala fra god til dårlig. Basert på observerbar bruk. Mål som skal oppnås: 2/3 av kundene skal komme igjen. Telling av hvor mange kunder som kommer mer enn 1 gang. Wap-systemet skal gi trafikkinformasjon i løpet av 30 sekunder for øvede brukere. Tidtaking i reell bruk. Nytt system skal gi en statistisk signifikant forkortelse av tiden for å finne trafikkinformasjon. Tidtaking i lab.forsøk. Gjennomsnittlig antall brukerfeil 2. Feiltelling under reell bruk.

Oppgaver i samsvar med systemets formål eller midler Enkel tilgang til informasjon om produktene med formål å selge mer Besøk web-butikken, og bestill og betal følgende varer: Enkelte av produktene gitt i oppgaven tilbys ikke av butikken Måten å oppgi kvanta i oppgaven (for eksempel 10 stk.) stemmer ikke alltid overens med butikkens (for eksempel 6-pakning eller kg). Å profilere butikken Intervju etter høyttenkningssesjonen Hvilket bilde av butikken synes du web-tjenesten gir? Hva skiller denne butikken fra andre? Hvordan vil du karakterisere dens vareutvalg? Hvordan var servicen? Hvilken stil har den?

Laboratorietest av måloppnåelse Evaluering av et middel som vi tror leder til et mål Sett et mål (target) for middelet 80% av testpersonene kan gjengi et hovedaspekt ved butikkens image Gjennomsnittlig tid for å finne ønsket trafikkinformasjon er 30 sekunder Lag et eksperimentoppsett Gi et antall forsøkspersoner oppgaver Telling / måling av hva de gjør

Sammenliknende laboratorietest Lag to design og utfør samme test på begge Del inn forsøkspersonene i grupper Halvparten av forsøkspersonene tester det ene designet først Den andre halvparten tester det andre først 56

Valg av evalueringsmetoder Tidlige evalueringer Sparer store kostnader knyttet til senere endringer Tvilsom validitet Kan evaluere noen midler som vi ikke vet om er relevante for tjenestens formål Under betingelser som ikke forekommer i virkeligheten Feltevalueringer Større mulighet for å evaluere om formålene oppfylles Mer data å håndtere Ukontrollerbare sammenlikninger Kostbare endringer

Avsluttende kommentarer Evaluering gjøres altfor lite For sterk tro på rasjonelle metoder i stedet for å lære av konkrete prosjekter Evaluering er ofte politisk Skal leverandør få betalt nå eller gjøre mer for egen regning? Hvem har skylda? (..bør ikke få forfremmelse, lønnsøkning, nytt oppdrag,...) Etterpåklokskap! Har ikke tide Det gjelder å se framover! Vi må konsentrere oss om dagens utfordringer. Verden er helt annerledes nå

Informatikkens vitenskapelige metoder Alle de nevnte evalueringsmetodene inngår Informatikk bruker dermed både matematiske, naturvitenskapelige, samfunnsvitenskapelige og humanistiske metoder Informatikk skiller seg fra disse fagene ved at vi også konstruerer det vi skaffer oss viten om, vi analyserer designer koder Informatikk er dermed mer et teknologifag enn matematikk, naturvitenskap, samfunnsfag eller humaniora 59

Noen linker om brukbarhetstesting & tips http://sigchi.org/ http://sigchi.org/chi2004/ http://www.uie.com/ http://usableweb.com/ http://usability.gov/guidelines/ http://www.usabilityfirst.com/ http://www.dialogdesign.dk/ http://www.nngroup.com/ http://www.useit.com/jakob/index.html el. http://www.useit.com/ http://www.jnd.org/ http://www.asktog.com/tog.html http://www.upassoc.org/ http://jthom.best.vwh.net/usability/ og mange flere.