Energieffektivitet i datasentre White paper



Like dokumenter
Total Cost of Ownership White Paper

Ved bedre separering av varme og kalde soner kan man tilføre kald luft med temperatur på 20 C og avtrekkstemperaturen kan økes til 30 C

Datasenter karakteristika og forretningsmodeller

Produktsjef: Jan Helge Rød. Datasenter kostnadseffektiv fysisk IT sikring

Skybaserte løsninger i praksis

Luft til luft varmepumpe. Uten utedel - enkel installasjon.

Fremtiden er lys - fremtiden er fiber!

BROSJYRE. Datasenter for alle behov

Energioptimalisering. - en enkel måte å spare både penger og miljø

BEVISER AT FUKT IKKE ER ET PROBLEM VED BRUK AV FRIKJØLING I BASESTASJONER FOR TELEKOMMUNIKASJONSUTSTYR

UTNYTTELSE AV ENERGI OG UTSLIPP AV KARBONDIOKSID

FITS Tilgjengelighets- og kapasitetsstyring

Hvordan velge en leverandør for cloud backup

Toll- og avgiftsdirektoratet Særavgiftsavdelingen

En filserver på Internett tilgjengelig når som helst, hvor som helst. Enkelt, trygt og rimelig

R I N G V I R K N I N G E R A V K S B E D R I F T E N E R G I O G F I R E T R E N D E R S O M K A N P Å V I R K E U T V I K L I N G E N P Å M E L L O

Rask bevegelse Smart funksjon

Energibesparende takket være turtallsregulerte motorer med frekvensomformere. Energibesparelse på grunn av frekvensomformer/ turtallsregulering

Begynn å spare, velg eco!

GETINGE ONLINE FÅ TILGANG TIL INFORMASJON UANSETT HVOR DU ER. Always with you

Visma.net. Redefining business solutions

Vår nyansatte kvalitetssjef har gode referanser når det gjelder isolering. -noen har det faktisk i kroppen...

MULTILIFT XR18SL - PRO FUTURE ENESTÅENDE EFFEKTIVITET

NYHET LUFT/VANN-VARMEPUMPER

Sweepmaster 900 / 980 R/RH

Underlagsmateriale til strategi for klima og miljø for Troms

BROSJYRE. Coromatic Operations. Vi sikrer drift av virksomhetskritiske anlegg

Hei! I vår digitale tidsalder representerer antallet informasjonskilder og store informasjonsmengder både utfordringer og muligheter for bedrifter.

SCENARIOER FOR FRAMTIDENS STRØMFORBRUK VIL VI FORTSATT VÆRE KOBLET TIL STRØMNETTET?

Energiøkonomiseringsperspektivet i ny pbl

Ekte versus hybride skyløsninger. IT-puls Trondheim 12.mai 2016 Helge Strømme

Tilgangen til sjø som muliggjorde frakt av råvarer til og ferdigvarer fra verket. Tilgangen til store mengder vannkraft/elektrisk energi.

NetNordic 365. Dine nettverks- og samhandlingsløsninger i trygge hender C L O U D D R I F T SUPPORT KONSULENT

Skriveradministrasjonsløsninger Skriveradministrasjonsløsninger

- Vi har enda ikke greid å oppfinne en evighetsmaskin, som konstant genererer like mye energi som den bruker.

Bergvall Marine OPPGAVE 3. Jon Vegard Heimlie, s Vijitharan Mehanathan, s Thore Christian Skrøvseth, s171679

10 punkter for grønnere kjøring

Humanware. Trekker Breeze versjon

TEKNISK DATABLAD FIRETEX FX (5)

System. Vann vann isvannsaggregat

Framtiden er elektrisk

Opprinnelsesgarantier for fornybar energi

Opplæringsmodul I. Grunnleggende EPC. Prosjekt Transparense.

EGEN ENERGI. DEN BESTE ENERGIEN. GEOENERGI: GUIDE FOR STORE EIENDOMMER

Faktahefte. Make the most of your energy!

NATURLIG KRAFT FRA PANASONIC Luftvarmepumper for bedre miljø og økonomi

Total ytelse enklere og raskere enn noensinne Vi lanserer Linergy Evolution samleskinner opptil 4000 A

UFS-oppdateringer ute på høring

NiSec Network Integrator & Security AS ALT UNDER KONTROLL

Sammen for verden. En fremtid sammen. Presse Informasjon

Blockbatterien Industri Batterier / / Motive Power TENSOR.»Det nye høy-energi batteriet for høye ytelses krav og maksimal effektivitet«

Comendo Norge AS. I samarbeid med Office Center Hønefoss AS. Anette Storeide Comendo Norge AS Tlf

Mangelen på Internett adresser.

Norske erfaringer med glasskontorbygg

Presentasjon av Masteroppgave

Side 1 av 5. post@infolink.no. Infolink Datatjenester AS Ensjøveien 14, 0655 Oslo. Telefon Telefax

HØY EFFEKTIVITET PÅ HVAC-SYSTEMER

Krav til IKT bruk / leveranse

VANNSKADER // ADSORPSJONSAVFUKTER

Solceller i arkitekturen

Hype eller hope 2: Biodrivstoff 2.generasjon. Andreas Bratland,

Hva er bærekraftig utvikling?

Lean Six Sigma. Lean Six Sigma tilpasset norske forhold. Fonn Software AS

The new electricity age

Kursdagene 2010 Sesjon 1, Klima, Energi og Miljø Nye krav tekniske installasjoner og energiforsyning

Noen nøkkeltall fra Ringerike kommune:

Ta spranget mot en enkel og trygg IT-hverdag

The Battery Replacement Programme

Dropbox' reise til GDPRsamsvar

LUNOS boligventilasjon med varmegjenvinning. Innovativt system for nybygg og rehabilitering. e² + e go

PRESSEMELDING Kategori: Griller

Om varmepumper. Hvorfor velge varmepumpe til oppvarming? Varmepumper gir bedre inneklima

EGA Svar på spørsmål, oppdatert pr

1. Systemsikkerhet Innledning. Innhold

KJØP AV VARMEPUMPE Luft/luftvarmepumpe

Faggruppen Stormaskin DATAFORENINGEN OPPSUMMERING AV SPØRREUNDERSØKELSEN FAGGRUPPEN STORMASKIN

VELLYKKET IMPLEMENTERING AV FRIKJØLING I ØRKENEN /EKSEMPELBESKRIVELSE OG YTELSESRESULTATER

ECODAN NEXT GENERATION. Importør i Norge:

Ethernet aksess til fremtiden //BROADNET.NO //

Biogenetisk varme - en ny energiteknologi

5 Tips til flytting av IT-systemer.

Volvo fh med i-save SPAR DRIVSTOFF OG BEHOLD DEN GODE FØLELSEN.

Batteriløsninger for alle kjørebehov

Ecodan varme Ecodan Next Generation Luft-vann varmepumpe.

Styr unna disse varmepumpetabbene

Hold tempoet oppe.

Globale utslipp av klimagasser

VURDERING AV CO2 KLIPPFISKTØRKER

Midtpunkttemperatur ( C/ F) Digitalt bilde for kontekst Se tydelig at bryter 20 er overbelastet, og kommuniser funnene dine.

SESJON: NY FJERNVARME TIL NYE BYGG TERMISK SMARTNETT HVA SKJER PÅ FELTET?

lindab vi forenkler byggingen Lindab Pascal

Den nye vannkraften. Ragnar Strandbakke og Einar Vøllestad, begge er postdoktor ved UiO, Senter for Materialvitenskap og Nanoteknologi

Lumia med Windows Phone

Nordens råeste varmepumpe-serie!

Energieffektivitet med åpent soveromsvindu i passivhus. Vegard Heide, Husbanken region Midt-Norge vegard.heide@husbanken.no

Atlas Copco Kompressorteknikk AS. Eyde nettverket Thor Arne Hallesen

Løsninger for komfort og energibesparelser. Innganger. luftporter varmestrålere varmluftsvifter

CloudWindow digital skjermløsning

SMARTE FASADER MULIGHETER NÅ OG MULIGHETER I FREMTIDA

Transkript:

Energieffektivitet i datasentre White paper Energi representerer en av de mest betydningsfulle driftskostnadene i et datasenter. Videre vil den grunnleggende prisen på energi, basert på nåværende og forutsigbare trender, fortsette å stige over tid og kan bli begrenset etter hvert som den globale etterspørselen stiger, noe som gjør energibruk og -effektivitet en langsiktig prioritet i virksomheten. Det er viktig å differensiere prisene på strøm fra samlet energibruk og effektivitet siden. Direkte priser kan variere mye etter markedsforholdene, geografisk plassering og de underliggende energikildene (kull, naturgass, kjernekraft, vannkraft, samt vind- og solenergi osv.). Videre så er det generelle karbonavtrykk, som har blitt et høyt synlig og globalt anerkjent problem, basert på den totale mengde energi som forbrukes, så vel som dens kilde og ikke prisen på energi. Karbonutslipp og klimagasser blir i større grad også gjenstand for statlige reguleringer og avgifter. Selv om det ikke er fullt ut implementert i USA for øyeblikket så er det nå ca. 30 typer energipolitiske tiltak som påvirker datasentre i 12 EMEA-land, ifølge en 2012 rapport utgitt av The Green Grid. I rapporten står det: "På grunn av den fortsatte spredningen av datasentre med energiintensive krav er vår bransje spesielt påvirket av lovgivning som pådriver for effektivitet på design, bygging og drift: Dette gir videre konsekvenser for virksomheten, med økte kostnader rundt energi og karbon." Definering av et datasenters energieffektivitet Energieffektivitet er påvirket av mange faktorer i et datasenter, men før vi går inn i dybden på detaljene er det viktig å definere hvordan energieffektivitet defineres og beregnes. Vanlige og generelle definisjoner på «effektivitet»: - Forholdet mellom den effektive eller nyttige utgående effekten til den totale inngående effekten i ethvert system. - Forholdet mellom det nyttige arbeidet levert av et system til energien som tilføres den. Når vi ser nøye på energieffektiviteten i et datasenter så kan vi enkelt måle energien som datasenteret bruker og sammenligner den til sin "output" (behandlet data), som dessverre ikke er så lett å definere eller måle. 1

Fra et overordnet nivå kan et datasenters energiforbruk generelt deles i to primære kategorier: ITsystemer (maskinvare og programvare) og den nødvendige støtteinfrastruktur (strøm og kjøleanlegg) i datasenteranlegget i seg selv. IT-systemenes effektivitet Det å definere en universell og akseptert beregning av "nyttig arbeid" for "computing" vært et svært omdiskutert tema i mange år. Selv om mange mennesker og organisasjoner har lagt mye arbeid i å prøve å kvantifisere dette, så har det vist seg å være svært komplekst og vanskelig å få til en konsensus om en metode eller allment akseptert beregning for det samlede IT-systemets "nyttig arbeid" og med dette dens energieffektivitet. Selv innenfor hver av de store subsystemkategorier, for eksempel maskinvare (servere, lagring og nettverk), samt programvaren (operativsystemer og virtaalisering, samt utallige av standardiserte og tilpassede applikasjoner), er det ofte forskjellige meninger hos leverandører og brukere. Spesielt er maskinvare- og programvareprestasjoner avhengige av hverandre og derfor vil hver unike kombinasjon av lag av programvare (operativsystem og programmer) som kjører på de ulike underliggende maskinvareplattformer være annerledes i sin faktiske, gjennomsnittlige gjennomstrømming og energibruk. Før var produsenter av IT-utstyr og deres kunder fokusert mer på maksimal ytelse og ikke på energieffektivitet. Selv om de nyeste generasjonene av maskinvare har fortsatt å øke i ytelse har det også blitt fokusert mye på energieffektivitet. Faktisk har det vist seg at i mange tilfeller at kostnadene for energi for en eldre servere er høyere over en periode på tre år enn kostnaden for selve serveren. Dette gjelder spesielt i eldre datasentre der energikostnadene for støttende strøm- og kjølingsinfrastruktur er lagt til den totale energikostnaden. Ifølge US EPA: «Servere som fortjener en ENERGY STAR-utmerkelse vil i gjennomsnitt være 30 prosent mer energieffektive enn standardservere». Imidlertid bør det bemerkes at i noen tilfeller kan energikrav for ENERGY STAR-rangerte servere, slik som den utbredte "1U" volumserveren (med en enkelt CPU, en harddisk og en strømforsyning), være vesentlig bedre enn den gjennomsnittlige statistikken på 30 %. I mange tilfeller kan den bruke så mye som 80 % mindre energi sammenlignet med en 2-3 år gammel vanlig «server». Som sådan kan en IT-maskinvare-utbytting redusere den totale energien som kreves i datasenteret og faktisk medføre en svært kort ROI-tidsramme. Videre i henhold til US EPA: «Hvis alle servere som selges i USA oppfyller Energy Star-spesifikasjonene vil kostnadsbesparelser for energi være nærmer $ 800 millioner per år og hindre klimagassutslipp tilsvarende over en million biler.» En liste over Energy Star-relaterte utstyr og børsnotert utstyr kan bli funnet på www.energystar.gov. EU har også et Energy Star-program, som ikke er fullt så fokusert datasenterutstyr men som generelt følger forskriftene til US EPA-programmet. Dette er utvidede forholdet er knyttet til etableringen av 2

Global Data Center Energy Efficiency Task Force og Global Harmonization Agreement i 2010, hvorav US EPA, US DOE, The Green Grid og EU er sentrale medlemmer. Til syvende og sist er målet å kontinuerlig redusere den energien som kreves (og det tilhørende totale karbonutslippet) for å levere en bedre utnyttelse av databehandling, lagring og nettverket.. Som nevnt er maskinvaren alene bare en del av IT-energieffektivitetsfaktoren. Programvaren (operativsystem og virtualisering, samt en mengde av standardiserte og tilpassede applikasjoner) er også en kritisk faktor i å bestemme og forbedre den generelle databehandlingsprestasjonen og dermed effektiviteten, samt det totale energiforbruket. Før var det høye antallet individuelle applikasjoner som kjørte på de individuelle serverne verken konstante eller særlig utnyttet. Likevel så brukte disse serverne vanligvis 60-70 % av full belastningseffekt mens de ikke var i aktivitet. Innføringen av programvare for virtualisering og serverkonsolidering har bidratt til å bedre raten til servere på tomgang, som trekker betydelig mengder strøm med lite produktivitet. Videre så er en av de viktigste funksjonene til Energy Star-serverne å ha en aktiv strømstyring, noe som i betydelig grad reduserer strømmen serverne trekker mens de er inaktive. I tillegg kommer innføringen av såkalte "bladeservere", som er et sentralt chassis med redundante delte strømforsyninger (som forbedrer energieffektivitet). Disse kan holde mange individuelle servere, «blades», noe som tillater pakking av mer datakraft som tar mindre plass. Bladservere har også hjulpet med å drive serverkonsolidering og virtualiseringsprosjekter for mange organisasjoner. Hele IT-bransjen er nå drevet til å forbedre energieffektiviteten. Produsenter av IT-maskinvare har erkjent at ikke bare trenger de å forbedre den iboende energieffektiviteten i sine produkter, men de har blitt klar over at den største bruken av energi i selve datasenteranleggene brukes av kjølesystemer. De har jobbet for å gjøre deres maskinvarer mer robuste slik at de kan operere ved høyere temperaturer, noe som i sin tur reduserer kjølesystemenes energibehov. (Ref. ASHRAE 2011 standarden for temperatur og fuktighet i IT driftsarealer ) Tidligere var det et betydelig problem for kjølesystemer at varmetettheten fra maskinvarer stadig økte og i mange tilfeller begrenset dette installasjonen av IT-utstyr. Maskinvareprodusenter innså at ved å forbedre den iboende energieffektiviteten og samtidig begrense energien som trengte for å kjøle ned utstyret, ved å være i stand til å operere i et varmere miljø, at mer strøm ville bli tilgjengelig til å støtte mer IT-utstyr. Dette hjalp til å drive salget av mer maskinvare. For å nå dette målet jobbet de sammen med ASHRAE for å hjelpe med å standardisere utstyrskategorier basert på de miljømessige driftsområdene inn i fire klasser, definert som A1-A4. I hovedsak kan hver høyere kategori operere tryggere ved høyere temperaturer og større rekkevidde innenfor luftfuktighetsspekteret. Praktisk sett så er klasse A1 og A2-utstyr vanlig i dag og har vært tilgjengelig de siste 5 årene. Nytt A3 og A4 utstyr tilbys av enkelte produsenter. Videre har nyere teknologier, slik som Solid State Drives (SSD), drevet utviklingen i å erstatte den tradisjonelle harddisken. Den utvidede bruken av SSD hjelper også å redusere energiforbruket siden 3

den bruker mindre energi enn tradisjonelle harddisker. I tillegg kan de også operere på mye bredere spekter av miljøkrav enn harddisker med de mer temperaturfølsomme, mekaniske roterende disk og som dermed krever mindre kjøling. Så hva betyr dette for designet og driften til datasenteret og IT-kjølesystemene? Historisk sett har datasentre holdt en svært stram miljøstandard i senteret for å sikre påliteligheten til IT-utstyret. Dette ble opprinnelig drevet forover av det eldre utstyrets følsomhet ovenfor endringer i temperatur og luftfuktighet, samt et svært smalt spekter av "anbefalte" verdier for miljøforhold fra selve utstyrsprodusentene. Selv om det er klart at IT-utstyret har blitt mer robust så er datasenterbransjen, som helhet, mer konservativ og har ennå ikke fullt utnyttet energisparings-mulighetene det nye utstyret kan tilby når det kommer til kjøling. Enda en kommentar om IT og energiforbruk: basert på alle disse forbedringene så ville man vanligvis anta at siden hver generasjon av IT-utstyr gir større effektivitet, så vil det samlede energiforbruket for IT-systemene begynne å avta. På en annen side vil den umettelige etterspørsel etter flere funksjoner, programmer og mer data som skal bli generert, lest og sett av både forbrukere og bedrifter av IT-systemet, vokse og til slutt øke behovet for mer strøm til IT-utstyr. Anleggets energieffektivitet I motsetning til vanskelighetene ved å prøve på å kvantifisere energieffektivitet av IT-systemer, så er målingen av effektiviteten i datasenteranleggenes infrastruktur nå en veldefinert beregningsmåte. Det er som kjent at «Power Usage Effectiveness» (PUE, eller «strømforbrukseffektivitet» på norsk), som ble introdusert av The Green Grid i 2008. The Green Grid er et globalt konsortium av selskaper, offentlige etater og utdanningsinstitusjoner innviet til å fremme energieffektivitet i datasentre og økosystemer for databehandling av økonomi. PUE ble en internasjonalt avtalt beregningsstandard i 2011, da det amerikanske Dept. of Energy, EPA, EU og Japan ble enige om dette som en gjensidig og tilfredsstillende beregningsstandard. Hvordan forstå PUE-målestandarden: strømbrukseffektivitet Grunnlaget for PUE-beregning er relativt enkel: det er forholdet mellom den totale energien som brukes på anlegget (inkludert IT-Energi) dividert med Energy brukes av IT-utstyr. Dette er målt på årsbasis. Spekteret til PUE-standarden er fra 1,0 (teoretisk sett perfekt: 100 % effektiv) og oppover, med ingen øvre grense (dårlig effektivitet). Som en kan se i dette eksempel, her med en PUE på 2, har anleggets strøm og kjølesystemer brukt like mye energi som IT-utstyret. PUE & DCiE er de mest allment akseptert og vedtatt standarder for effektivitet i datasentre. Dette betyr ikke at de er perfekte målparametere, men de er relativt lette å beregne og, hvis målinger blir gjort konsekvent og ofte, gir de en enkel måte å overvåke framdriften og effektiviteten av innsatsen man gjør. De tilbyr en ukomplisert beregning som er lett å forstå, måle og diskutere mellom IT, fasiliteter, og ledelse. Denne kalkulatoren bekrefter at bedre PUE/DCiE har en bestemt innvirkning på bunnlinjen (totalen). Uansett, om du har et 5 megawatts- eller 100 kilowattsanlegg, så vil 4

besparelsene være betydelige. Produktivitetsmålmerkene, inkludert Green Grids energiproduktivitet for datasenter (DCeP) og Uptime Institutes bedriftsgjennomsnittlig datasentereffektivitet (CADE), tillater datasenterfagfolk til å bore seg ned i hvor produktivt IT-utstyret i deres datasentermiljø er. Typisk energibruk for å få en PUE på 2 I forhold til det fysiske datasenteranlegget og den tilhørende strøm- og kjølingsinfrastrukturen har det stadig økende strømbehovet lagt et press på mange eldre datasentre. Dette har gjort at de enten er ute av stand til å kunne fullt ut støtte den høyere strømterskelen og den høyere tetthet på kjølingslasten til nyere IT-maskinvare eller så klarer de bare marginalt å støtte lastene (load), men gjør dette veldig ineffektivt. Kjøling representerer vanligvis hoveddelen av et anleggs energiforbruk og har størst mulighet for forbedring. Tidligere ble det primært fokusert på pålitelighet, ikke på energieffektivitet, i datasentre. I virkeligheten brukte et gjennomsnittlig eldre datasenteret dobbelt så mye energi som det som ble levert til datautstyret (dette representerer en PUE på 2,0 eller en driftseffektivitet på 50 prosent). I noen tilfeller er PUE en på noen av de eldre områdene mye verre, med en PUE på 2,5-3,0. Dette betydde at de brukte mye mer energi på strøm og kjølingssystemer som ble brukt til å støtte datautstyret enn den energien faktisk ble brukt av IT-utstyr. Nye mainstream-datasentre som blir designet og bygget for tiden har vanligvis mye bedre driftseffektivitet, med en PUE på 1.1 til 1.4. Effektivitet til strømsystem Strømsystemet regnes som det mest kritiske elementet i et datasenter. Praktisk sett er det en kjede av viktige elektriske subsystemer og komponenter, som er de grunnleggende elementene for å levere uavbrutt kondisjonert strøm til IT-utstyret. Den typiske strømkjeden består av: transformator (Utility Transformer), automatisk overføringsbryter (Automatic Transfer Switch), back-up generator, fordelingsbryterutstyr (Distribution Switch Gear), uavbrutt strømforsyning (UPS) og nedstrøms strømdistribusjonssystem (Power Distribution System) som går til kabinettene for IT-utstyret. Elementene nevnt ovenfor er en forenklet liste. Som et brudd i et ledd i en lenke så kan en svikt i en komponent i strømkjeden føre til tap av strøm til IT-utstyr. For å tillate kontinuerlig tilgjengelighet må 5

det være redundante komponenter i strømsystemet, samt strømføringer, for å hindre nedetid i tilfelle noe av utstyret skulle svikte. Videre er det også «system bypass»-systemer for å muliggjøre riktig vedlikehold av utstyr. Praktisk sett så betyr denne redundansen at det vanligvis er dobbelt så mange strømkomponenter i et Tier 3- eller 4-datasenter. (Uptime Institute standard for datasentre) Mens hver av komponentene i strømkjeden påføres et relativt lite tap er den totale virkningsgraden i strømsystemet primært påvirket av effektiviteten til et avbruddsfritt strømsystem, "UPS", så vel som generelt mindre nedstrøms distribusjonstap av strøm. Når det gjelder redundant strøm er den største innvirkning på energieffektiviteten hos UPS-system. Nesten all typer UPS, spesielt "dobbel konvertering" online UPS-systemer (som er den mest brukte typen av UPS er som brukes i et datasenter), vil være mindre effektive når de kjøres på svært lave belastningsnivåer (dvs. under 30 % av nominell lastkapasitet). Uansett, dette er den normale og vanlige operasjonelle rekkevidden for de fleste 2N eller 2 (N +1) strømsystemer som er hjertet til datasentre i de øvre Tier-nivåene (nivå 3 og 4). Det er ikke uvanlig å se eldre UPS-enheter i en redundant konfigurasjon som opererer med en energieffektivitet på bare 65 75 %. Dette påvirker sterkt eldre datasentre, spesielt UPS-systemene med eldre teknologi. Det er ikke uvanlig å se eldre UPS-enheter i et svært redundant oppsett opererer på bare 15-25 % av kapasiteten. Effektiviteten på disse lavere lastene kan være så lav som 65 til 75 %. Dessuten, siden 25-35 % av den tapte energi omdannes direkte til varme, krever dette en ytterligere mengde av kjølesystemets energi må brukes for å kjøle ned varmen fra UPS en. US EPA har nå også et «Energy Star»-program for UPS-systemer. Dette ble gjort ferdig for ikke så lenge siden og trådde i kraft i august 2012. Nye UPS-enheter er mer effektiv samlet (vanligvis 92-95 % ved full belastning), men enda viktigere, er langt mer effektiv ved lavere belastning områder. Til sammenligning kan en ny UPS fortsatt operere på 85-90 % virkningsgrad, selv når den bruker bare 15-25 % av sin angitte kapasitet. I tillegg er en av funksjon hos den nyeste generasjonen av UPS-systemer den såkalte "hybrid" eller "eco"-virkemåten. Dette gjør industristandarden "dobbel konvertering" UPS i stand til å operere i en intern «by-pass»-modus som gjør at den kan operere med en 98-99 % effektivitet, selv ved svært lave laster. UPS vil fortsatt automatisk gå tilbake nesten med en gang (vanligvis mindre enn 4 ms) til full "dobbel konvertering"-modus hvis det er noen uregelmessigheter i strømmen, for å sikre at datautstyr ikke vil bli påvirket. Ikke alle i datasentersamfunnet er helt komfortable med denne driftsformen. Imidlertid bør det bemerkes at selv om denne funksjonen vil bli sett på de fleste av de nyeste enhetene så betyr det ikke at den trenger å bli operert i denne modusen. UPS en kan konfigureres til å operere i en mer konservativ full "dobbel konvertering"-modus. Nye UPS-enheter tilbys nå også uten transformatorer (som var nødvendig for UPS-systemer med eldre teknologi) for å forbedre effektiviteten. Foruten at de eliminerer transformatorer fra UPS, kan 6

bruken av nye transformatorer med høyere effektivitet i nedstrøms distribusjon også forbedre den generelle effektiviteten i strømkjeden. Det bør bemerkes at den største risikoen for strømbrudd i et datasenter er først og fremst fra feil i strømsystemet. I motsetning til bredere miljøforhold, som kan eller ikke kan påvirke den langsiktige påliteligheten av IT-utstyr, vil eventuelle problemer som kan forstyrre strømmen føre til et umiddelbart strømbrudd i et datasenter. For å forhindre dette må hele strømsystemet alltid være utformet med fokus på maksimal tilgjengelighet og høye nivåer for feiltoleranse. Mens energieffektivisering er et ønsket mål, bør det ikke gjøres på bekostning av den generelle påliteligheten. Kjølingssystemenes effektivitet Av alle faktorer som kan påvirke energieffektiviteten representerer kjøling mesteparten av det anleggsrelaterte energiforbruket i datasenteret, utenfor selve IT-lasten inn seg selv. Selv om det er flere varianter av kjølesystemer faller de vanligvis inn under to kategorier: "CRAC" (Computer Room Air Conditioner), hvor hver enhet har sin egen interne kompressor, og "CRAH" (Computer Room Air Handler), som først og fremst er en spole og en vifte som trenger isvann levert fra en ekstern kilde. Fra et energieffektivt synspunkt er CRAH, som vanligvis blir støttet av et vannavkjølt og sentralt isvannsanlegg, mer effektivt enn luftkjølte CRAC-enheter. Imidlertid har de luftkjølte CRAC-enhetene én fordel over et sentralisert kjølesystem: de er alle autonome og tilbyr dermed en iboende redundans og feiltoleranse ved at det ikke er kun ett enkelt punkt som kan feile (annet enn ved strømbrudd). Uansett hvilken type kjølesystem så kan mengden kjøling som trengs, og dermed også energi som kreves, reduseres hvis temperaturen i datasenteret økes. Videre så er kontrollering av luftfuktigheten et annet område hvor mye av energien som brukes er (i mange tilfeller) ganske unødvendig. Så hva betyr dette for designet og driften til datasenteretanleggene og IT-kjølesystemene? Historisk sett har datasentre holdt en svært stram miljøstandard i sentrene for å sikre påliteligheten til ITutstyret. Dette ble opprinnelig drevet forover av det eldre utstyrets følsomhet ovenfor endringer i temperatur og luftfuktighet, samt et svært smalt spekter av "anbefalte" nivå for miljøforhold fra selve utstyrsprodusentene. ( ASHRAE standard for server produsenter) I 2011 håpet ASHRAE, i forbindelse med en konsensus fra større IT-utstyrsprodusenter, radikalt på å endre på datasenterbransjens syn på kjølingskrav ved å åpent si at: "Et veikart har blitt skissert for å legge til rette for en betydelig økning i operative timer, der økonomiserende systemer er i stand til å bli brukt og for å øke muligheten for datasentre å bli "chillerless"(kjølingsfri) slik at mekaniske kjølesystemer elimineres helt for å realisere en forbedret strømforbrukseffektivitet (PUE). " 2011-versjonen av ASHRAEs retningslinjer vedtok åpent «fri kjøling» («free cooling»). Dette ville ha vært ansett som uakseptabelt av mange for bare noen få år siden. Noen er fortsatt i sjokk over dette 7

og har problemer med å godta de nye utsiktene mot mer flesibilitet rundt kontrollerte miljøforhold i datasentre. Muligheten til å spare betydelige mengder strøm til kjøling ved å moderere kjølebehovet og utvidede bruken av "fri kjøling" er enorm. Imidlertid, på grunn av den svært konservative og risikosky holdningen i bransjen, så vil dette ta en stund for å få en stor utbredelse og bli vanlig praksis. Noen har klart begynt å sakte men sikkert utforske ved å heve temperaturen noen grader for å samle litt erfaring og for å se om de opplever noen operative problemer på IT-utstyret. Til syvende og sist er det et spørsmål om spart energi (og pris) er verdt risikoen (oppfattet eller reell) av potensielle utstyrsfeil som følge av høyere temperaturer (og, kanskje, mer fuktighet). Det er helt klart noen gyldige grunner til å holde lavere temperaturer. Den første er bekymringen for tap av termisk gjennomkjøringstid i tilfelle et kort tap av kjølingstid. Dette gjelder særlig for rack med høyere tetthet, hvor en hendelse på bare noen få minutter ville føre til et uakseptabel høyt nivå for IT-driftstemperaturen. Dette kan skje i løpet av et brudd i strømnettet og den påfølgende overføringen fra back-up generatoren(e). Selv om denne overføringen vanligvis bare tar 30 sekund eller mindre, vil dette føre til at de fleste kompressorer i kjølerne eller CRAC-enhetene til å resirkulere og forbli avslått i 5-10 minutter eller mer. Selv om det finnes noen måter å minimere eller redusere denne risikoen på så er det et område å være oppmerksom på. Den andre bekymringen er også et vanlig problem: de store variasjonene i IT-utstyrets inntakstemperaturer som oppstår i de fleste datasentre på grunn av at luftstrømmer blandes og forbipasserende luft fra mindre ideelle håndtering av luftstrømmer. De fleste benytter overkjøling av den inngående luften, slik at de mest utsatte arealene (vanligvis «end-of-aisles» og toppen av racks) med høyere tetthet ikke overopphetes fra resirkulert varm luft fra varm side. På en annen side, hvis bedre håndtering av luftstrømmene blir iverksatt for å minimere hotspots, ville det tillate inntakstemperaturene til å sakte bli hevet utover det konservative 20-21 C. Dette kan oppnås ved en rekke forskjellige midler, slik som: å spre ut og balansere varmebelastning på racknivåene og justere luftstrømmene til å matche varmebelastningen, samt bedre isolasjon av varm og kald luft via blindplater i rackene og bruk av isoleringssystemer. Hvis det gjøres riktig er det mer sannsynlig at innen ett til to år så vil ikke 24-27 C i den kalde midtgangen lenger være en grunn til bekymring hos IT-brukere. Nøkkelen til dette er å forbedre kommunikasjon og utdanne både IT personell og driftere om viktigheten av lufthåndtering og muligheten for energisparing, uten å redusere utstyrets pålitelighet. Men før utgivelsen av «ASHRAE 2011 Expanded Thermal Guidelines» var konseptet med å føre inn luft fra utsiden uakseptabelt i datasentre. Vanligvis er et datasenteret designet for å være et lukket system der svært lite av luften utenfor tillates inn. Dette er for å holde miljøforholdene stabile (temperatur og fuktighet) og for å unngå at forurensning og støv fra å påvirke IT-utstyret. Spørsmålet om forurensninger og støv kan begrenses ved å filtrere luften før den slippes inn og det moderne IT-utstyr nå har en bredere miljø toleranse. Dette gjør direkte "frisk luft" til en veldig 8

interessant mulighet for å redusere den energien som kreves for å "kjøle ned" et nytt datasenter. Så er det virkelig mulig å bruke luft utenifra for "fri kjøling", med større svingninger i temperatur og luftfuktighet, og likevel ha de "trygge" og pålitelig driftsforholdene som det et "tradisjonelt" lukket kjølesystem med luftstrøms loop tilbyr? Det enkle svaret er ja, men det kreves at datasenteret er designet spesielt med den evnen i tankene. Imidlertid kan det ikke være lett å ettermontere dette i en eksisterende bygning. Uansett så er fortjenestene ved energieffektivisering ganske attraktive. For referanser: The Green Grid publiserte et 2012-oppdatert sett med kart, basert på «ASHRAE 2011 Expanded Thermal Guidelines», som viste at selv når man holder seg på A2, «Tillatt», i miljøparametere (10-35 C, 20-80 % RH. Nesten alt moderne IT-utstyr, bortsett tape, er rangert som A2), at 75 % av amerikanske datasentre kan operere på luftekonomisere (economizers) 97 % av året. Videre så vil 99 % av europeiske datasenter-områder kunne operere på "fri kjøling" hele året. Merk at det ikke er nødvendig å gå til de ekstreme endene av «tillatte»-området. Det er mulig å holde seg innenfor «anbefalt»-spekteret og likevel få betydelige energibesparelser. I mange moderat klimaer er det mulig å spare betydelige energikostnader på kjølesystem årlig og samtidig opprettholde den konservative plasseringen i miljøspekteret. Som nevnt tidligere, mens IT-utstyr klart har blitt mer robuste, er datasenterbransjen som helhet mer konservativ og har ikke fullt ut tatt nytte av energisparingsmuligheter på kjøling som det nye utstyret tilbyr. Den potensielle påvirkningen på energieffektiviteten fra «New 2011 ASHRAE Expanded Thermal Guidelines» American Society of Heating, Refrigeration and Air Conditioning Engineers (ASHRAE) regnes som den refererte standarden. Spesielt er det en komite innen ASHRAE kjent som Technical Committee 9.9 (TC9.9), som fokuserer kun på datasentre. TC 9,9 etablerte den første utgaven av sin nå allment akseptert «Thermal Guidelines for Data Centers» (termiske retningslinjer for datasentre) i 2004. Den definerte den anbefalte og akseptable temperaturen og fuktigheten for datautstyr som opererer i datasentre. I mange år før den første av TC 9,9s termiske retningslinjer spesifiserte de store ITutstyrsprodusentene miljøforholdene og i de fleste tilfeller var de veldig konservative (typisk var 20-21 C og 45-55 % relativ luftfuktighet, «RH»), siden noen datautstyret var svært sensitive til miljøforholdene. Noen av disse stramme kravene kan spores tilbake til de dager med de opprinnelige stormaskinene og det faktum at det var papir overalt i datasenteret, inkludert hullkort og papirbånd som ble brukt til å legge inn data i datamaskinen, samt som store pakker papir som ble matet med høy hastighet inn i mekaniske skrivere. Selv små endringer i temperatur, og spesielt fuktighet, kunne føre til papirstopp: en mindre katastrofe på den tiden. Den opprinnelige 2004-retningslinjen ble skrevet for å fortsatt stå for de eldre eksisterende systemer. Selv om det ikke har vært brukt hullkort på over 20 år så var fortsatt mange av datasystemene noe 9

følsom ovenfor temperaturer og fuktighet. Selv i 2004 ble datasentre fortsatt utviklet og driftet på eller nær 20 C og 50 % RH. I 2008 lanserte ASHRAE TC 9,9 den andre utgaven, som utvidet og hevet de anbefalte miljøkravene opp til 26 C og 60 % RH. Selv om dette var et skritt frem til å forbedre kjølesystemenes energieffektivitet så var den fortsatt relativt konservativ i forhold til nyere datautstyrs toleranse for høyere temperaturer og bredere spenn i fuktigheten. I virkeligheten, til tross for nye retningslinjer, fortsetter de fleste datasentredesignere og -operatører med å opprettholde nøye kontrollerte temperatur- og fuktighetsforhold som en bransjenorm. I 2011 jekket ASHRAE praktisk talt datasenterbransjen oppover med utgivelsen av 3.utgaven «Thermal Guidelines - Expanded Data Center Classes and Usage Guidance» (Termiske retningslinjer: Utvidede datasenterklasser). Denne utgaven erklærte åpent at hvis mulig så burde datasentre vurdere å bruke «fri kjøling» for å spare energi. Såkalt «fri kjøling» refererer til at en unngår eller minimerer bruken av mekaniske kjølesystemer for å kjøle datasenteret. Dette gjøres ved å utnytte forholdene i omgivelses når det er mulig. 2011-utgaven var et resultat av kollektivt arbeid av praktisk talt alle de store PC-utstyrsprodusentene. «Energieffektivitet i datasentre» og «fri kjøling» ble det underliggende tema og dette gjenspeilte seg i miljørobusthet hos nyere IT-utstyr. Det tillot drift av datasentre på mye høyere temperaturer enn tidligere foreslått, med støtte fra IT-utstyrsprodusentene. Ved å anbefale «fri kjøling» via de utvidede miljøkravene ble datasenterdesignere og operatører tilbudt en viktig mulighet til å spare energi på kjøling. Spesielt det klima vi har i Norden er godt tilpasset denne standarden. Hva er «fri kjøling»? I løpet av de siste årene har vi både brukt og hørt begrepet «fri kjøling» med økende frekvens. Imidlertid er den korrekte betegnelsen et ekonomiseringssystem. Formålet til fordeleren er å redusere mengden av driftstid og energien som brukes på «mekanisk» kjøling (vanligvis et kompressorbasert system). Disse ekonomiseringssystemene kan være en del av et vannavkjølt fordampersystem eller et luftkjøltsystem eller til og med en kombinasjon av begge. Nå nylig har det vært en økende interesse for såkalte «frisk luft» eller «luftside» ekonomiseringssystemer. Tidligere, hvis et datasenter hadde et ekonomiseringssystem var det mest sannsynlig et "vannbasert" ekonomiseringssystemet som ble brukt sammen med et isvannsystem. Konseptet med en direkte "luftside" ekonomiserer er enkel: bare få inn frisk luft utenifra og inn i datasenteret når temperaturen utenfor er innenfor temperaturene som trengs til IT-utstyret for «å kjøle ned» datasenteret og deretter føre ut den varme luften fra IT-utstyret ut av bygningen. Bare når uteluften er for varm er mekanisk kjøling nødvendig. 10

Faktorer som påvirker energieffektivitet Områdelokasjon Selvfølgelig er det å plukke ut et datasenterets plassering, som er fysisk sikret og har pålitelig tilgang til strøm, vann og kommunikasjon, et viktig første skritt. Videre, med økende bevissthet om «fri kjøling», så vil den gjennomsnittlige og høyeste temperaturen (samt fuktigheten) direkte påvirke energieffektiviteten til kjølesystemene. Selvfølgelig, selv om det ikke er direkte relatert anleggets energieffektivitet i seg selv, så bør ikke oppmerksomhet til kostnadene rundt strøm og drivstoffkilder overses. Energikostnader er svært plasseringsavhengige og er basert på lokale eller kjøpt strømproduksjonskostnader (knyttet til typer drivstoff eller bærekraftig kilder slik som vann-, vind- eller solenergi), samt eventuelle statlige og lokale skatter. Det kan også være skatteincentiver som kan gi lavere kostnader, energieffektivitetsrabatter eller skattefordeler. Besatt anleggskapasitet og strømlastpris - Design kontra det faktiske Energieffektiviteten til hvilket som helst datasenteret vil bli direkte berørt av den faktiske andelen av den designlasten som blir brukt. Jo lavere lastutnyttelse i forhold til sitt designs maksimum, jo lavere virkningsgrad. Dette er direkte relatert til belastningsgraden av den totale kapasiteten. Hvis området ikke kommer til å være særlig belastet de første årene bør et modulær design vurderes for å dempe utslagene fra underforbruket. I tillegg opererer de fleste datasentre aldri på 100 % av sin designede kapasitet, hovedsakelig for å sikre utstyrets pålitelighet og oppetid ved vedlikehold. Avhengig av organisasjonskultur så vil et typisk system operere på ikke mer enn 80-85 % av sin teoretiske kapasitet (noen kan presse den til 90 %) før det anses som "fult". Dette er et nødvendig, men forsvarlig, kompromiss mellom pålitelighet kontra energieffektivitet. Overdimensjonert designkapasitet påvirker effektivitet Når man bestemmer seg for designkapasiteten til et datasenter er det mange konkurrerende faktor som påvirker beslutningene. Frykten for å gjøre det for lite og gå tom for plass eller strøm etter bare noen få år er et svært realistisk scenario og en godt begrunnet frykt. I de senere årene har veksten i krav om datakraft og effekttetthet gjort mange datasentre som ble bygget for mindre enn 10 år siden funksjonelt foreldet, en reell risiko som deretter kommer når en leter etter ekstra plass eller strøm som ikke kan lett løses med kun ett dedikert enkeltområde. Motsatt vil overdimensjonering redusere denne risikoen, men også redusere energieffektiviteten. Modulært design En metode for å redusere potensielle over- eller underdimensjonerte datasentre er modulært design. Kapasitetsplanlegging og modulært kapasitetsdesign kan bidra til å redusere risikoen for kapasitet eller funksjonsforeldelse. I noen modeller er den totale plassen og nyttekapasiteten designet og bygget på forhånd, men bare enkelte deler er fullt utstyrt med UPS, generatorer og kjøleutstyr. Dette sparer på forhånd både kapitalkostnad og tilbakevendende utgifter fra vedlikeholdsprogrammer. 11

Videre så bidrar det også til å forbedre energieffektiviteten på hvert trinn, siden mindre seksjoner er mer fullt besatt og opererer ved en høyere effektivitet. Dette modulære designet tillater fortsatt planlagte utvidelser, uten at energieffektiviteten blir straffet for underbruk. Ordentlig og kontinuerlig vedlikehold Selvfølgelig, uansett hvor godt designet og bygget er, skal utstyret vedlikeholdes for forsvarlig drift. Før ble dette stort sett drevet av behovet for å sikre pålitelighet, slik at man unngikk systemfeil. Nå, selv om dette fortsatt er nøkkelkravet, er det å sikre optimal energieffektivitet også en del av vedlikeholdsmålene. Dette gjelder særlig for kjøleanlegg, hvor effektiviteten faller av raskt hvis filtrene blir tilstoppet og kjølingstårnene ikke blir renset nøye. Dette gjelder også annet nødvendig vedlikehold og systemoptimalisering for å endre interne varmebelastninger og eksterne ambiente værforhold. Strømtetthet Strømtettheten er som en refleksjon av hvor mye datautstyr som kan plasseres i hvert rack. Et datasenter med en lavere effekttetthet vil bety at du må kanskje bruke flere racks (og whitespace) for å huse den samme mengden datautstyr enn på et høyere tetthetsområde. Strømtetthet blir vanligvis uttrykt på to måter; watt per kvadratmeter eller kilowatt (kw) per rack (eller noen ganger begge deler). Dette er først og fremst basert på design og type kjølesystem i datasenteret. Mange eldre datasentre kan ikke effektivt nok kjøle ned mer enn 5 kw per rack (hos noen enda mindre) og i noen tilfeller går deres energieffektivitet ned utover 3 kw per rack. Selv i dag kan ikke alle nyere datasentre få plass til medium (5-10kW per rack) eller "høytetthets" racks, som krever 10 kw eller mer per rack. Energiovervåkning og håndtering Etter hvert som behovet for å forbedre energieffektiviteten ble åpenbart, så ble det også klart at ikke alle datasentrene hadde de grunnleggende systemene på plass for å overvåke eller måle den faktiske energieffektiviteten. I mange tilfeller var tidlig innsats rett og slett "snapshots" basert på engangs strømavlesninger, som så ble brukt til å beregne PUE. I mange tilfeller ble målingene tatt under uvanlige eller kunstig lave energiforhold (som de kaldeste dagene om vinteren, når kjølesystemer bare opererer minimalt). Dette skapte mange falske eller svært unøyaktig PUE-hevdelser som noen ganger ble brukt av markedsføringsavdelingene til noen organisasjoner, påskudd til den oppfattete effektiviteten hos sitt datasenter. I dag er den gjeldende versjonen av PUE-beregningen basert på målinger av den årlige energien som brukes i et datasenter og representerer derfor et sant og realistisk bilde av anleggets energieffektivitet. Nesten alle de store datasentrenes maskinvare- og programvareleverandører tilbyr nå en rekke verktøy for å overvåke og administrere datasentres energiforbruk og effektivitet. Dette har blitt en stor kategori i bransjen kjent som «Data Center Infrastructure Management» (DCIM). Økende etterspørsel og engasjement for disse verktøyene fra både leverandører og kunder understreker viktigheten og nytten med å overvåke og forbedre energieffektiviteten. På en annen side så får det 12

en til å spørre seg: Hvem bør overvåke og administrere energieffektiviteten? IT eller anlegg? Det langsiktige svaret er at begge gruppene arbeider sammen. Andre målemetoder for effektivitet Energieffektivitet og bruk: de relaterte spørsmål om bærekraft har fått en økende bevissthet hos forbruker-, forretnings- og offentlige sektorer og fortsetter å bli mer viktig ettersom økt offentlig oppmerksomhet på datasentre og deres voksende energibehov spres globalt. Utenom PUE så har The Green Grid også utgitt flere andre beregninger, tre av dem har særlig langsiktig betydning for datasenterbransjen: Carbon Usage Effectiveness "CUE" Som navnet tilsier, er karbonbrukseffektivitet basert på den årlige mengden CO² som genereres fra energien som brukes på datasenteret. Den er basert på summen av CO²-utslippet fra det lokale kraftverket (og type drivstoff som brukes) for å generere strøm, samt eventuelt rutenettet som tilfører energi og blandingen av brensel eller bærekraftige kilder (vind, sol, vann, etc.) som brukes til å generere energi gjenbrukt i datasenteret. Water Usage Effectiveness "WUE" Vann brukes som en del av kjøleprosessen i mange datasentre. Store vannavkjølt datasentre kan forbruke millioner av liter per måned. Inntil nylig har dette aldri vært ansett som en del av "effektivitet", men det kreves energi for å behandle og pumpe vannet til datasenteret. Ferskvann er raskt blitt en begrenset ressurs i mange områder, noe som kan påvirke datasentre som er avhengige av vann i fremtiden. Energy Reuse Effectiveness "ERE" Dette er det ultimate effektivitetsproblemet. Uansett hvor mye vi forbedrer anleggets PUE så vil praktisk sett all energien som brukes av datautstyret bli omgjort til spillvarme. Dette vil selvfølgelig påvirke global oppvarming. Det er muligheter for å gjøre effektivitetssgjenbruk av spillvarmen fra datasentre om til andre formål, som for eksempel oppvarming av fjerntliggende eller nærliggende bygninger. Dette kan selvsagt ha svært positive miljøfordeler, samt potensielle økonomiske fordeler fra reduserte energikostnader til oppvarming i andre bygninger. Til slutt For å maksimere muligheten til å spare energi i datasentre må man ta en helhetlig tilnærming av at både organisasjonens IT- og anleggsavdelinger arbeider sammen. Bare ved å utveksle kunnskap og gjensidig samarbeid vil de nyeste og mest effektive teknologier bli tatt i bruk på en effektiv måte. Drivkraften for dette må komme fra toppledelsen og bli drevet fra toppen og ned. Det er ingen tvil om at energibruken øker i datasenteret, og vil trolig fortsette å vokse i nærmeste fremtid. Videre så er prisen på energi en betydelig og økende kostnad ved drift av et datasenter og 13

det bør være en seriøs vurdering når du velger en lokasjon og design på dine infrastruktursystemer. Videre er den voksende bekymring for bærekraftige energikilder også en faktor som kan påvirke et datasenter. Det er viktig å merke seg at vi har diskutert bruk av industristandard IT-utstyr, som vanligvis brukes av de fleste bedriftsorganisasjoner og som drives i høy-tier-nivås datasentre. Videre er det en tendens til å ha lavere strøm- og kjølingssystemsredundans på anleggsnivå (som i noen tilfeller kan sammenlignes med Tier 1 eller 2) i datasentre som støtter skybaserte løsninger og hvor redundansen og robustheten ligger i applikasjonslaget. I motsetning til typiske bedriftsorganisasjoner, som kan bli alvorlig påvirket av en kritisk IT-systemfeil. Deres IT-arkitektur er også radikalt annerledes ved at de er mer tolerante for utstyr- og systemfeil og kan omdirigere internettbrukeres forespørsler til andre nettsteder, i tilfelle en svikt. Dette gir dem frihet til å ha en meget lav PUE. Så når du vurderer energibruken kontra risiko for datasenterets anleggsdesign, utstyr og drift, utred nøye og vei den forventede energibruken og kostnadsbesparelse kontra din egen organisasjons toleranse for eksponering av potensiell nedetid. Bruk nok ressurser i planleggingsfasen og vær nøye på målbare referanser i forhold til gjennomføring, test og effektivitetsmål. DCM kan bidra effektiv i planprosess og støtte gjennomføring av modernisering eller etablering av nye, effektive driftsarealer. 14