EN LITEN INNFØRING I USIKKERHETSANALYSE 1. Forskjellige typer feil: a) Definisjonsusikkerhet Eksempel: Tenk deg at du skal måle lengden av et noe ullent legeme, f.eks. en sau. Botemiddel: Legg vekt på klare og spesifiserte definisjoner. b) Grove feil Eksempel: Teller feil antall meter når måler lengde med meterstokk. Botemiddel: Gjør dem ikke. c) Systematiske feil Se nedenfor. d) Statistiske feil Se nedenfor. KONKLUSJON: Bruk sunn fornuft. Ikke bruk formler for statistisk usikkerhet ukritisk. 2. Systematiske feil: Forårsakes av blant annet: a) Feil kalibrert måleinstrument b) Metning av måleinstrument c) Menneskelig egenskap d) Andre forsøksbetingelser enn antatt 1
Eksempel: Meterstokk er ikke eksakt 1 m, men 0,9998 m. Botemidler: a) Tenk kritisk på utføring av måling. b) Sjekk nøyaktighet og område for måleinstrument. c) Kalibrer måleutstyr. d) Anslå fornuftig grense for ukorrigerbare systematiske feil. 3. Statistisk usikkerhet: Gjentatte målinger av én og samme størrelse under samme forsøksbetingelser gir forskjellige verdier. Eksempel: Dersom en flere ganger måler lengden på et bord (f.eks. 5 m) med meterstokk med lengde 1 m og fin gradering, vil en få ulike verdier. Botemiddel: Mål mange ganger og beregn middelverdien. Variasjonen i målingene gir mål for usikkerhet som benevnes f.eks. x. Eksperimentelt viser det seg at målingene blir tilnærmet normalfordelt 1 i mange tilfeller: f(x) = 1 e (x µ)2 2σ 2 (1) 2πσ der f(x) = sannsynlighet for å måle verdien x µ = middelverdi σ = standardavvik Teoretisk [2] kan det vises at en får normalfordeling når det totale feilbidraget er sammensatt av uendelig mange feilbidrag som adderes uavhengig av hverandre. Ca. 68% av målingene ligger i [µ σ, µ + σ] Ca. 95% av målingene ligger i [µ 2σ, µ + 2σ] Ca. 99,7% av målingene ligger i [µ 3σ, µ + 3σ] (En snakker om 1σ, 2σ eller 3σ grenser.) 1 Normalfordeling vil bli nærmere behandlet i læreboka [1] i statistikkfaget TMA4240 eller TMA4245 som de fleste først får i tredje årskurs. 2
f(x) µ σ µ µ + σ x Figur 1: Normalfordeling Estimater for µ og σ: (NB! Forutsetter tilnærmet normalfordeling.) Estimat for middelverdi [3] µ: x = 1 n n x i (2) i=1 Estimat for standardavvik [3] σ = usikkerhet i enkeltmåling (1σ-grense): x = 1 n (x i x) n 1 2 (3) i=1 Estimat for usikkerhet i middelverdi [3]: x = x n (4) Merknader: 1) x 0 for n. (Husk at dette gjelder statistisk usikkerhet, ikke systematisk.) 2) Det ovenfor gjelder når alle målinger er like sikre. Ellers må vektfaktor nyttes. 3) Husk å skille mellom systematisk og statistisk usikkerhet, og statistisk usikkerhet i enkeltmåling og middelverdi! 3
Eksempel: Vi undersøker måleverdier fra starten av en måleserie. Måleserien er tatt av posisjonen til en masse som ikke beveger seg. Små bevegelser som kommer av usikkerhet i bestemmelse av posisjon er synlig (ca 0.05 mm). Dersom vi plotter det tilhørende histogrammet ser vi noe som ligner på en normalfordeling, med standardavvik på 1.8 10 5. Dette stemmer godt overens med at omtrent 68% av målingene ligger innenfor denne grensen. Dette gir et godt bilde av sammenheng mellom data, normalfordeling og usikkerhet. Figur 2: Data for en masse som står stille. Til venstre: rådata, til høyre: tilsvarende fordeling av verdier. 4. Feilforplantning: Vi betrakter en fysisk størrelse f(x, y, z,... ) som beregnes ut fra målinger av de fysiske størrelser x, y, z,.... Anta at x, y, z osv. er uavhengige. Da gjelder [4]: ( ( f ) 2 ( ) ) 1 f 2 2 f = x x + y y +... (5) for tilstrekkelig små x, y, z osv. I mangel av noe bedre nyttes lign.(5) også ofte for systematiske feil og for kombinasjon av systematiske og statistiske feil. For systematiske feil representerer x, y osv. anslått usikkerhet. Det verste tilfellet (alle feil virker i samme retning) ville for små feil være: f = f x x + f y y +... (6) 4
Dersom en har målt middelverdier for x, y, z osv. nytter en: f = f(x, y, z,... ) (7) og ( ( f ) 2 ( ) ) 1 f 2 2 f = x x + y y +... (8) Merk at målet ikke er å bruke mest mulig formler, men å komme fram til et så forstandig anslag på usikkerhet som mulig. Eksempel: f(x, y, z) = konstant x y2 z 3 gir: f f = ( ( x x ) 2 ( + 2 y ) 2 ( + 3 z ) ) 1 2 2 y z Merk at det ofte letter regningen å nytte relative feil som f. eks. x x. 5
5. Tilpassing av modeller til data: Ofte er det et problem å tilpasse en funksjon til data og sammenligne resultatene med andre feil. Vi tenker oss at vi har en fysisk modell som sier at tilsvarende målinger av x og y kan beskrives med en modell f(x). En bruker da ofte en rutine i matlab eller python som kan bestemme beste tilpasning av data til funksjonen. De fleste algoritmer bruker minste kvadraters metode (mean square, S). Algoritmen minimerer da: S = 1 n n (f(x i ) y i ) 2. (9) i=1 Feilen f(x i ) y i kalles residual. Ofte får man en indikasjon i analyseprogrammet på om tilpasningen er god i form av en RMS verdi. RMS = sqrt( 1 n n (f(x i ) y i ) 2 ). (10) i=1 Dette er veldig likt uttrykket for standardavviket, og når modellen er en god beskrivelse av data blir også RMS identisk med standardavviket og residualene blir minimale. Vi kan se på dette gjennom å undersøke en annen del av samme dataserie som vi analyserte tidligere. Vi gjør en lineær og en kvadratisk tilpasning og ser hvilken RMS verdi vi ender opp med (figur 3).. Figur 3: Venstre: tilpasning med minimering av S for en lineær og kvadratisk fit av data. Høyre: residualene til tilpasningene. Korresponderende verdier for RMS er 0.15 for den lineære tilpasningen og 0.0036 for den kvadratiske, hvilket er langt større enn standardavviket for den stillestående massen. 6
Figur 4: Residualene til den kvadratiske tilpasningen i figur 3. Det er ingen åpenbare systematiske feil i residuaene. Trolig ligger den største feilen (ettersom den er mye større enn standardavviket) i usikkerhet fra programvaren Tracker. Denne usikkerheten er et resultat av at Tracker ikke finner eksakt samme punkt på massen som måles gjennom hele analysen. 7
Merknader: 1) Dersom målepunktene har ulik usikkerhet må vektfaktorer nyttes. Referanser [1] R.E. Walpole, R.H. Myers, S.L. Myers and K. Ye: Probability and Statistics for Engineers and Scientists, Eight Edition, Pearson, London 2007, kapittel 6. [2] N.C. Barford, Experimental Measurements: Precision, Error and Truth, Second Edition, Wiley, New York 1985, kapittel 5. [3] R.E. Walpole et.al., op.cit. 2, kapittel 9.3. [4] N.C. Barford, op.cit., kapittel 2.3. [5] N.C. Barford, op.cit., kapittel 3.3. Knut Arne Strand, 2004 Revidert 16.11.2005 KAS Revidert 13.08.2006 LEW/KAS Revidert 29.01.2014 EW 2 Op.cit. betyr sitert ovenfor. 8