I årevis har historien omdatacenterenergiforbruget fulgte en forudsigelig bue. Digitaliseringen voksede, selvfølgelig, men effektivitetsgevinster fra bedre servere, virtualisering og cloud-konsolidering holdt det samlede elforbrug overraskende fladt. Den globale efterspørgsel efter datacenters strøm svævede omkring 1 procent af det samlede elforbrug - omkring 200 terawatt-timer årligt - i den bedste del af et årti.
Den æra er ved at være slut.
Konvergensen af generativ AI, cryptocurrency-mining, edge computing og den eksponentielle vækst af tilsluttede enheder har brudt den gamle effektivitetskurve. Industriestimater viser nu, at efterspørgslen efter datacenterkraft vokser med årlige rater, der ikke er set siden begyndelsen af 2000'erne. I nogle regioner - Irland, det nordlige Virginia, Singapore - står datacentre allerede for 15 til 25 procent af det samlede elforbrug, hvilket tvinger regulatorer til at indføre moratorier for nybyggeri.
På denne baggrund er infrastrukturvalg, der engang virkede som tekniske detaljer - kølearkitektur, strømfordelingstopologi, rack-tæthedsplanlægning - blevet bestyrelseslokale beslutninger. Energiomkostninger er ikke længere en linjepost. Det er en begrænsning for vækst.
Power Usage Effectiveness, eller PUE, har været datacenterindustriens standardeffektivitetsmåling i næsten to årtier. Det er et simpelt forhold: den samlede facilitetseffekt divideret med IT-udstyrets strøm.
En PUE på 2,0 betyder, at for hver watt, der forsyner servere og lager, går endnu en watt til køling, belysning, strømkonverteringstab og andre overhead. En PUE på 1,2 betyder, at overhead kun bruger 0,2 watt pr. IT-watt.
Industrien har bredt accepteret niveauer baseret på PUE:
| Niveau | PUE | DCiE | Hvad det betyder |
|---|---|---|---|
| Platin | <1,25 | >0,80 | Effektivitet i verdensklasse, kræver typisk frikøling eller væskekøling |
| Guld | 1,25 – 1,43 | 0,70 – 0,80 | Meget effektiv, opnåelig med moderne design i moderate klimaer |
| Sølv | 1,43 – 1,67 | 0,60 – 0,70 | Acceptabel til ældre faciliteter eller varmere klimaer |
| Bronze | 1,67 – 2,00 | 0,50 – 0,60 | Typisk for ældre datacentre uden større ombygninger |
| Retfærdig | 2.00 – 2.50 | 0,40 – 0,50 | Dårlig effektivitet, høje driftsomkostninger |
| Dårlig | >2,50 | <0,40 | Kritisk ineffektivitet, kræver sandsynligvis øjeblikkelig opmærksomhed |
Problemet er, at mange organisationer faktisk ikke kender deres PUE. De vurderer. De gætter. Eller de måler kun på hovedforbrugsmåleren og overtager resten.
En brancheundersøgelse fra 2023 viste, at næsten 40 procent af datacenteroperatørerne aldrig havde målt PUE på rack-niveau. Blandt dem, der gjorde det, var spredningen mellem rapporteret og faktisk PUE i gennemsnit 0,3 point - nok til at flytte en facilitet fra guld til sølv uden at nogen bemærkede det.
At forstå, hvorfor PUE varierer så meget, starter med at se på, hvor strøm forlader et datacenter.
I et typisk luftkølet anlæg med en PUE omkring 1,8 ser nedbrydningen nogenlunde sådan ud:
Kølebelastningen er den største variabel. Et anlæg i et tempereret klima, der bruger udendørsluft til fri afkøling, bruger måske kun 15 procent af sin ikke-IT-strøm på køling. Det samme anlæg i et tropisk klima med mekanisk køling året rundt kan bruge 40 pct.
Dette er grunden til, at samlokaliseringsudbydere annoncerer for PUE på facilitetsniveau, men leverer PUE på kundemåleren – forskellige tal, forskellige implikationer. Kunden betaler for det hele.
Traditionel datacenterstyring forudsatte et relativt statisk miljø. Reoler blev fyldt over måneder eller år. Køling kunne justeres langsomt. Strømfordelingen var overdimensioneret fra dag ét.
Sky-æraen ændrede antagelserne. Reoler fylder nu dage. Arbejdsbelastninger skifter automatisk på tværs af servere. AI-klynger med høj densitet kan trække tre gange så meget som tilstødende computerracks til generelle formål.
Disse ændringer har tvunget til en nytænkning af infrastrukturforvaltningen. Tre tendenser skiller sig ud.
For det første stiger tætheden ujævnt.Et standard serverrack for ti år siden trak 5-8 kilowatt. I dag trækker stativer til generelle formål 10-15 kilowatt. Højtydende computer- og AI-træningsstativer overstiger rutinemæssigt 30 kilowatt pr. rack. Nogle overstiger 50 kilowatt.
Dette skaber varmestyringsudfordringer, som luftkøling har svært ved at løse. Ved 20 kilowatt pr. stativ forbliver luftkøling effektiv med korrekt indeslutning. Ved 30 kilowatt bliver det marginalt. Ved 40 kilowatt og derover går væskekøling fra valgfri til nødvendig.
For det andet er kapacitetsplanlægning blevet prædiktiv.Den gamle metode - køb mere kapacitet end nødvendigt, og lad den sidde inaktiv - fungerer ikke længere i skala. Tomgangskapacitet har både kapitalomkostninger og løbende vedligeholdelsesomkostninger.
Moderne infrastrukturstyringssystemer bruger historiske data og arbejdsbelastningsprognoser til at forudsige, hvornår strøm, køling eller rackplads løber tør. De bedste systemer kan anbefale, om de skal omkonfigurere eksisterende kapacitet eller bestille ny hardware, dage eller uger før en begrænsning bliver kritisk.
For det tredje har krav til synlighed expanded.Et traditionelt datacenter kan spore strøm på PDU-niveau. En moderne facilitet har brug for synlighed på rackniveau, nogle gange på serverniveau og i stigende grad på arbejdsbelastningsniveau - ved at vide, hvilken virtuel maskine eller container, der driver hvilket strømforbrug.
DatacenterinfrastrukturManagement (DCIM) software har eksisteret i over et årti, men adoptionen er stadig ujævn. Mindre end halvdelen af virksomhedens datacentre har implementeret et komplet DCIM-system. Mange, der kun brugte en brøkdel af dens muligheder.
Et korrekt implementeret DCIM-system gør fire ting:
Asset management.Hver server, switch, PDU og køleenhed spores i en konfigurationsstyringsdatabase (CMDB). Placering, strømklassificering, netværksforbindelser, vedligeholdelseshistorik - alt sammen. Dette lyder grundlæggende, men mange organisationer sporer stadig aktiver i regneark, der går måneder mellem opdateringer.
Overvågning i realtid.Strømforbrug på PDU- eller rackniveau, temperatur og fugtighed ved forsynings- og returpunkter, kølesystemstatus, UPS-batteritilstand. Alarmer udløses, når parametre afviger fra sætpunkter. Målet er at opdage problemer, før de forårsager nedetid.
Kapacitetsplanlægning.Systemet ved, hvor meget strøm og kølekapacitet der er tilgængelig, hvor meget der er i brug, og hvor meget der er reserveret til fremtidig implementering. Det kan modellere virkningen af at tilføje et nyt højdensitetsrack eller trække et sæt ældre servere tilbage.
Visualisering.En digital tvilling af datacentret - stativ for stativ, flise for flise - viser aktuelle forhold og giver operatørerne mulighed for at simulere ændringer. Tilføjelse af 10 kilowatt belastning til række tre, kolonne fire: overstiger det kølekapaciteten? Systemet svarer, før nogen flytter udstyr.
At reducere datacentrets energiforbrug er ikke mystisk. Metoderne er godt forstået. Udfordringen er implementeringsdisciplin.
Hæv indblæsningstemperaturen.De fleste datacentre kører koldt - 18 til 20 grader Celsius ved køleenhedens retur - fordi det er, hvad operatører altid har gjort. ASHRAE retningslinjer anbefaler nu 24 til 27 grader. Hver gradsstigning reducerer køleenergien med cirka 4 procent. At køre ved 26 grader i stedet for 20 grader sparer 20-25 procent af kølekraften.
Eliminer varm og kold luftblanding.Indeslutning af varm gang, indeslutning af kold gang eller lodrette udstødningskanaler tvinger køleluft til at gå, hvor det er nødvendigt, i stedet for at cykle kort gennem forsiden af stativer. Alene indeslutning reducerer typisk køleenergien med 15-25 procent.
Brug drev med variabel hastighed.Ventilatorer og pumper med konstant hastighed spilder energi ved delvis belastning. Drev med variabel hastighed matcher luftstrøm og vandstrøm til det faktiske behov. Retrofit tilbagebetalingsperioder er typisk 1-3 år.
Optimer UPS-driften.De fleste UPS-systemer kører kontinuerligt i dobbeltkonverteringstilstand - konverterer AC til DC og tilbage til AC, selv når strømforsyningen er ren. Moderne UPS-systemer kan skifte til øko-tilstand, når strømkvaliteten tillader det, og opnå 99 procent effektivitet i stedet for 94-96 procent. Afvejningen er en kort overførselstid til batteriet, hvis strømforsyningen svigter. For IT-belastninger med strømforsyninger designet til sådanne overførsler er risikoen minimal.
Vedtag højere spændingsfordeling.Fordeling af strøm ved 415V i stedet for 208V reducerer distributionstab med cirka 25 procent. Dette kræver kompatible PDU'er og serverstrømforsyninger, men mange moderne enheder understøtter det.
Shangyu CPSY Company, en højteknologisk virksomhed med fokus på datacenterinfrastruktur, rapporterer en PUE på 1,3 for sine modulære datacenterløsninger. Dette placerer virksomheden i guldniveauet, der bevæger sig mod platin.
De påståede 25 procent energibesparelser sammenlignet med konventionelle designs kommer fra flere faktorer. Modulære UPS-systemer med 97,4 procent effektivitet på systemniveau reducerer distributionstab, der ellers løber 15-20 procent. Præcisionsklimaanlæg med kompressorer med variabel hastighed og EC-ventilatorer justerer køleeffekten til at matche den faktiske varmebelastning i stedet for at køre med fast kapacitet. Og det fysiske layout - indeslutning af varme gange, optimal reolafstand, hævet gulv med korrekt dimensionerede perforerede fliser - adresserer luftstrømsstyringen, der underminerer mange ellers effektive faciliteter.
Virksomhedens certificeringsportefølje omfatter ISO 9001 (kvalitetsstyring) og ISO 27001 (informationssikkerhedsstyring). Dets kundeimplementeringer inkluderer partnerskaber med Huawei, ZTE og Inspur, med eksportinstallationer i USA, Storbritannien, Tyskland, Frankrig og Australien.
I årevis var væskekøling en nicheteknologi til supercomputercentre. Det ændrer sig hurtigt.
AI-træningsklynger, der bruger NVIDIA H100 eller kommende B200 GPU'er, genererer 30-50 kilowatt pr. rack i rent luftkølede konfigurationer. Ved disse tætheder kræver luftkøling høje luftstrømshastigheder - høje blæsere, dybe stativer og stadig marginal termisk kontrol.
Direkte-til-chip væskekøling fjerner 60-80 procent af varmen ved kilden. Chipsene kører køligere. Ventilatorerne kører langsommere. Rumklimaanlægget håndterer kun den resterende varme fra strømforsyninger, hukommelse og andre komponenter.
Effektivitetsgevinsten er betydelig. Faciliteter med direkte-til-chip-køling rapporterer PUE-værdier på 1,1 til 1,2. Afvejningerne er højere kapitalomkostninger, mere kompleks lækagehåndtering og behovet for vandbehandling i anlægskvalitet.
Fuld nedsænkningskøling - nedsænkning af hele servere i dielektrisk væske - skubber PUE under 1,1, men forbliver specialiseret. De fleste kommercielle datacentre vil først anvende direkte-til-chip-køling, nedsænkning senere for specifikke højdensitetszoner.
SHANGYU-datacenterplatformen indeholder bestemmelser til både luft- og væskekølingsarkitekturer, idet den anerkender, at fremtidige højdensitetsimplementeringer vil kræve væskebaseret termisk styring uanset facilitetsdesign.
De fleste datacenterdriftsteams arbejder stadig reaktivt. En alarm lyder. Nogen efterforsker. En rettelse anvendes. Cyklusen gentages.
Overgangen til prædiktiv ledelse kræver tre kapaciteter, som mange organisationer mangler.
Komplet konfigurationsdata.At vide, hvad der er i datacentret - hver server, hver switch, hver PDU, hver køleenhed - er grundlaget. Uden nøjagtige CMDB-data er kapacitetsplanlægning gætteri.
Granulær telemetri.Effektmåling på stativniveau er minimum. Per-server strømmåling er bedre. Effekttilskrivning på arbejdsbelastningsniveau er bedst, men sværest at opnå.
Analyse, der skelner signal fra støj.En temperaturstigning på et stativ kan betyde en defekt blæser. En temperaturstigning på tværs af halvdelen af datacentret kan betyde en chillerfejl. Systemet skal differentiere og anbefale svar i overensstemmelse hermed.
DCIM-platformen fra SHANGYU giver SNMP- og Modbus-enhedssupport, webbaserede og Windows-applikationsgrænseflader og integration med netværkskameraer til hændelsesudløst billeddannelse. De erklærede mål er ligetil: reducere kostbar nedetid, reducere daglige driftsomkostninger gennem komplet miljøkontrol og forbedre ledelsens synlighed og sporbarhed.
Datacentres energiforbrug tegner sig for omkring 1 procent af den globale efterspørgsel efter elektricitet. Det tal lyder lille, indtil det sættes i sammenhæng. Det svarer nogenlunde til det samlede elforbrug i Det Forenede Kongerige.
Endnu vigtigere er vækstraten accelererende. Branchefremskrivninger viser, at efterspørgslen efter datacentre stiger med 10-15 procent årligt frem til 2030, drevet af kunstig intelligens, cloud-adoption og den fortsatte udvidelse af tilsluttede enheder. Med den hastighed ville datacentre forbruge 3-4 procent af den globale elektricitet ved udgangen af årtiet.
Effektivitetsgevinsterne, der holdt strømforbruget fladt i det foregående årti, kom fra servervirtualisering (reducering af fysisk serverantal), forbedret dreveffektivitet (flytning fra roterende diske til SSD'er) og bred udbredelse af frikøling (ved brug af udendørs luft i stedet for mekanisk køling). De lavthængende frugter er stort set blevet plukket.
Den næste bølge af effektivitet vil komme fra væskekøling, højere spændingsdistribution, AI-optimeret kølingsstyring og - måske vigtigst - bedre tilpasning mellem infrastrukturkapacitet og faktisk IT-belastning. Det sidste stykke kræver den slags synlighed i realtid og forudsigelig analyse, som DCIM-systemer giver, men få faciliteter bruger fuldt ud.
Kender du din faktiske PUE, ikke nummeret på specifikationsarket?Hvis du ikke har målt på UPS-udgangen og på it-udstyrets input, ved du det ikke. Forskellen er din reelle overhead.
Kæmper jeres kølesystemer mod hinanden?I mange datacentre er CRAC-enheder indstillet med overlappende temperatur- og fugtighedsbånd. En enhed affugter, mens en anden befugter. En køler, mens en anden genopvarmer. Dette er ikke usædvanligt. Det er heller ikke effektivt.
Hvad er det inaktive strømforbrug på dine servere?Branchedata viser, at typiske virksomhedsservere trækker 30-40 procent af deres maksimale strøm, når de ikke gør noget. Nedlukning eller indstilling af ubrugte servere er den højeste ROI-effektivitet, der findes. Det er også det mest oversete.
Kunne du hæve din indblæsningslufttemperatur med to grader uden at overtræde udstyrsspecifikationerne?Sandsynligvis ja. Det meste udstyr er normeret til 25-27 graders indtagstemperaturer. De fleste datacentre kører ved 20-22 grader. Det seks graders hul repræsenterer år med unødvendig køleenergi.
Hvornår var sidste gang du validerede din UPS-effektivitet?Navneskiltets effektivitet måles ved fuld belastning med perfekt effektfaktor. Virkelighedens effektivitet ved delvis belastning med den virkelige effektfaktor kan være 5-10 point lavere.