Pasientsikkerhetskonferansen 08 Oppfølging av problemer med pasientsikkerhet Aleidis Skard Brandrud
Min bakgrunn vedr. dette tema 15 års praksis som anestesisykepleier 10 års praksis som sekretær for Kvalitetsutvalget ved Ullevål universitetssykehus Ringerike sykehus Statistikkført uønskede hendelser i 12 år Studert forbedringsvitenskap..hos John Øvretveit ved Universitetet i Bergen (1999-2000)..hos Paul Batalden ved The Dartmouth Institute, USA (2007-2008) Gjort en undersøkelse av åpne versus anonyme meldesystemer ved ulike intensivavdelinger Arbeidet med kvalitetsforbedring siden 1996 Forsket på forbedringsarbeid i helsetjenesten siden 2005
Oppfølging av problemer med pasientsikkerheten 1. Når det skjer en uønsket hendelse som har/kunne ha ført til skade på pasient skal a) Tiltak iverksettes for å begrense skaden b) Hendelsen meldes via meldesystemet av den som oppdager hendelsen c) Medmenneskelig støtte og saklig informasjon skal gis til pasient og pårørende, d) inklusive info og hjelp til å søke pasientskadeerstatning når det er aktuelt e) Involverte personell og nærmeste leder skal redegjøre skriftlig for saken til f).kvalitetsutvalget som utreder og behandler saken og melder den til Helsetilsynet 2. Oppfølging a) Følge opp pasient og pårørende så lenge behovet er der b) Sikre at involvert personell får debrifing og individuelle oppfølging etter behov c) Forebygge at lignende hendelser skjer igjen d) Håndtere saken på en slik måte at de ansatte får lyst til å melde en hendelse neste gang de oppdager en 3. Denne presentasjonen avgrenses til de to siste punktene (2c og d)
To veier til forbedring Årsaksbehandling Hvorfor? Rekonstruksjon Hva skjedde? Hva er de aktuelle problemene ved systemet? Hendelse Nyskaping Hvordan? Kreativitet Hvordan skal det se ut når problemet er løst? Hvordan vet vi om problemet er løst? Brandrud 2008
8 % Nyskaping (grunnleggende endring av hele systemet) u Chart fall rate a month # of patient falls per # of patient days 7 % UCL=6,6% UCL=6,3% 6 % 5 % 4 % 3 % CEN=4,5% CEN=4,5% LCL=2,5% UCL=3,6% CEN=2,2% 2 % LCL=2,5% 1 % LCL=0,8% 0 % Jul-01 Sep-01 Nov-01 Jan-02 Mar-02 May-02 Jul-02 Sep-02 Nov-02 Jan-03 Mar-03 May-03 Jul-03 Sep-03 Nov-03 Jan-04 Mar-04 May-04 Jul-04 Sep-04 Nov-04 Baseline (2001-2002) Intervention 1 (2003) Intervention 2 (2004) Brandrud 2008
Eksempel på risikovurdering Denne listen har 105 punkter
Årsaksbehandling En risikovurdering erstatter ikke en årsaksbehandling Årsaksbehandlingen krever: en rekonstruksjon av det som faktisk skjedde i det enkelte tilfellet der noe gikk galt og en behandling av årsaken for å hindre at det skjer igjen Hvordan får man til det?
Tegn en prosess over den faktiske hendelsen En prosess er den kjeden av aktiviteter og beslutninger som i samspill med hverandre fører til det endelige resultatet En prosess er ingen linje, men fordi den har en tidsorden, kan den tegnes som en lineær prosess. Start Aktivitet Beslutning ja Aktivitet Slutt nei 1 Brandrud 2008 etter Willoch & Brandrud 1998
Rekonstruksjon av forløpet til en pasient med fallskade Infection 1 risk faktor? yes Falling Hospitalization 2 risk faktors? yes Transport (Stretcher) 3 risk faktors? may be Private bathroom may 3. risk be faktors? Alone, in an unfamiliar environment 4 risk faktors? yes Side rails 5 Risk faktors? yes Alone, tied to a oxygen tube may 7 risk be faktors? Climbing side rails 8 risk faktors? yes Almost falling yes 9 risk faktors? Alone at night in an unfamiliar environment 10 risk faktors? yes Climbing side rails Falling Brandrud 2008
Poenget med en rekonstruksjon The point of an investigation is not to find where people went wrong, - it is to understand why their assessments and actions made sense at the time. Sidney Dekker 2007 (Poenget med undersøkelsen er ikke å finne ut hvor folk begikk feil, men å forstå hvorfor deres vurderinger og handlinger virket fornuftige i det øyeblikket).
Menneskelig svikt Det er for primitivt å forklare skader og uhell med menneskelig svikt. Det er den menneskelig svikten som må forklares ved å se nærmere på de faktorene i omgivelsene / systemet som kan være årsaken til den menneskelige svikten. Fristelsen til å tro at systemet vil bli sikrere bare man identifiserer og kvitter seg med bad apples er stor og destruktiv. Dekker 2002, p. 372 Ulykker kan vanligvis ikke relateres til en enkelt årsak, eller en enkelt person. Shappel & Wiegmann, 2001, p. 60.
Årsaksbehandlingen begynner med en rekonstruksjon Rekonstruere hva som skjedde i hvilke rekkefølge Endringer i atferd Aktiviteter utført og beslutninger tatt for å påvirke prosessen Endringer i prosessen Dele perioden før og under hendelsen opp i faser Finne ut hvordan situasjonen endret seg i hver fase Identifisere folks hensikter, fokus, oppmerksomhet og kunnskap som var i aktivitet i hver fase De verdier og holdninger som preger ledere som har ansvar for en slik rekonstruksjon har stor betydning for resultatet og lysten til å melde fra neste gang noe skjer Etter Sidney Dekker 2002
Tillit er sikkerhetskulturens bærebjelke Troen på de ansattes evne og vilje til å gjøre de riktige tingene riktig, og å utvikle seg, er en grunnleggende forutsetning for å oppnå kvalitet. Kauro Ischicawa
Usikkerhetskultur Sikkerhetskultur De fleste feil og avvik skyldes menneskelig svikt Menneskelig svikt er et symptom på grunnleggende problemer i systemet Systemet skal være grunnleggende sikkert. Den største sikkerhetstrusselen ligger i menneskers iboende upålitelighet. Systemer er ikke grunnleggende sikre. Systemer består av motstridende mål som folk skal strebe etter simultant. Menneskene må skape sikkerheten. Fremgang i sikkerheten kan oppnås ved å beskytte systemene mot upålitelige mennesker via seleksjon, forpliktende prosedyrer, automatisering, øvelse og disiplin. Menneskelige feil er systematisk forbundet med særtrekk ved folks arbeidsform, redskapene de har til rådighet, og hvordan de strever med å få tingene til i de omgivelsene som er. Fremgang i sikkerheten kan oppnås gjennom å forstå og influere på disse sammenhengene. Sidney Dekker 2002
Er systemene preget av en sikkerhetskultur? Enkle sikkerhetssystem Ja/Nei -Personfokusert - Overvåker alle ansatte -Alle føler seg mistenkeliggjort, særlig de mest samvittighetsfulle, som ser etter pekefingeren og våger knapt å stole på egne erfaringer og vurderinger. Etterpåklokskapen har gode kår... mens bad apples trives godt, og vet nøyaktig hvordan de kan manipulere systemet så de selv går fri. Kompliserte sikkerhetssystem Hvis.så Identifiserer og overvåker bad apples Passer der det er mye bad apples, det vil si der det behøves politi for å øke sikkerheten Komplekse systemer er vanskelig å manipulere. Bad apples trives dårlig. Komplekse sikkerhetssystem Kanskje - Systemfokusert -Basert på respekt/tillit Fremgang i sikkerheten oppnås gjennom relasjoner. Man prøver å forstå det som skjedde da noe gikk galt, og hvorfor det folk tenkte og gjorde da virket fornuftig i den situasjonen som førte opp mot hendelsen og hvordan systemene kan forbedres for å unngå at det samme skjer igjen. Brandrud 2008, basert på kompleksitetsforskning (Glouberman & Zimmerman 2004)
Årsaksbehandling Cause is not something you find. Cause is something you construct. Sidney Dekker, The Field Guid to Human Error Investigations Ashgate 2002. P. 33 Vi kan aldri være sikre på at vi kjenner årsaken. Derfor må vi prøve oss frem til vi finner den rette løsningen. Endringen må følges opp med målinger (monitorering) for å finne ut om problemet er løst.
Monitorering av sjeldne hendelser (< 1 ggr pr måned) Problem: Tallene er svært små Tar alt for lang tid før man kan lese noe ut av diagrammet Løsning: Beregne antall hendelser per år etter vedlagte formel hver gang det skjer en hendelse Plotte resultatet inn i et XmR-diagram Både hvert tall og variasjonene over tid gir informasjon G-diagram er aktuelt med hendelser > 1 ggr pr. måned. Plotte antall suksesser mellom hver hendelse
Monitorering av sjeldne hendelser / påregnelige komplikasjoner XmR-chart on the # of very rare events (like major injuries from falls) per year 18 16 14 12 10 8 6 4 2 0 UCL=17 CEN=6,8 (antall betydelige fallskader per år) 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Moving R Chart 14 12 10 8 6 4 2 0 UCL=12 CEN=3,9 Sporadisk avvik som må årsaksbehandles 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Brandrud 2008
For spesielt interesserte (se handout) Formel for monitorering av sjeldne hendelser (<1 pr måned) 1. Antall dager siden siste hendelse = (dato for hendelse 2) - (dato for hendelse 1) 2. Antall hendelser per dag = 1/antall dager siden siste hendelse 3. Antall hendelser per år = Antall hendelser per dag x 365 Etter Mark E Splaine 2008
Event date Event number Days between events Events per day Event per year 01.03.2002 1 05.05.2002 2 65 0,01538 5,62 12.06.2002 3 38 0,02632 9,61 05.08.2002 4 54 0,01852 6,76 14.10.2002 5 70 0,01429 5,21 16.11.2002 6 33 0,03030 11,06 02.01.2003 7 47 0,02128 7,77 02.03.2003 8 59 0,01695 6,19 17.11.2003 9 260 0,00385 1,40 12.12.2003 10 25 0,04000 14,60 10.03.2004 11 89 0,01124 4,10 08.06.2004 12 90 0,01111 4,06 19.07.2004 13 41 0,02439 8,90 15.09.2004 14 58 0,01724 6,29 19.10.2004 15 34 0,02941 10,74 05.01.2005 16 78 0,01282 4,68 27.03.2005 17 81 0,01235 4,51 09.05.2005 18 43 0,02326 8,49 04.07.2005 19 56 0,01786 6,52 21.09.2005 20 79 0,01266 4,62 20.12.2005 21 90 0,01111 4,06
Fra rekonstruksjon til systematisk forbedringsarbeid Når hendelsen er rekonstruert er det tid for å 1. Tolke det som skjedde 2. Finne løsninger (fokuser på systemforbedring) 3. Finn ut hvilke målinger som kan synliggjøre problemet 4. Analysere ved hjelp av Statistisk prosesskontroll/spc 5. Planlegge endringer 6. Prøve ut endringer 7. Studere resultatet 8. Evt. justere eller forkaste og starte på nytt Act 9. Standardisere når endringen er dokumentert vellykket Study 10.Følge opp med målinger (samt lytte til klinikernes refleksjoner) helt til prosessen er stabil og forutsigbar på et ønsket nivå Plan Do
Every system is perfectly designed to get exactly the results it gets Paul Batalden
Referanser Sidney W.A. Dekker (2002), Reconstructing human contributions to accidents: the new view on error and performance. Journal of Safety research 33, 371 385 Sidney W.A. Dekker (2002), The Field Guid to Human Error Investigations, Ashgate Shappel S.A., Wiegmann D.A. (2001), Applying reason: the human factors analysis and classification system (HFCACS). Human Factors and Aerospace Safety, 1(1), 59-86