Jarenlang is het verhaal vandatacentrumHet energieverbruik volgde een voorspelbare boog. De digitalisering groeide zeker, maar de efficiëntiewinsten door betere servers, virtualisatie en cloudconsolidatie zorgden ervoor dat het totale elektriciteitsverbruik verrassend vlak bleef. De mondiale stroomvraag van datacenters schommelde gedurende het grootste deel van een decennium rond de 1 procent van het totale elektriciteitsverbruik – grofweg 200 terawattuur per jaar.
Dat tijdperk loopt ten einde.
De convergentie van generatieve AI, cryptocurrency mining, edge computing en de exponentiële groei van verbonden apparaten heeft de oude efficiëntiecurve doorbroken. Uit schattingen van de sector blijkt nu dat de vraag naar stroom in datacenters groeit met een jaarlijks tempo dat sinds het begin van de jaren 2000 niet meer is voorgekomen. In sommige regio's – Ierland, Noord-Virginia, Singapore – zijn datacenters al verantwoordelijk voor 15 tot 25 procent van het totale elektriciteitsverbruik, waardoor toezichthouders gedwongen worden moratoria op te leggen aan nieuwbouw.
Tegen deze achtergrond zijn infrastructuurkeuzes die ooit technische details leken – koelingsarchitectuur, topologie van de stroomdistributie, planning van rackdichtheid – beslissingen in de bestuurskamer geworden. Energiekosten zijn niet langer een regelitem. Het is een rem op de groei.
Power Usage Effectiveness, of PUE, is al bijna twintig jaar de standaard efficiëntiemaatstaf in de datacenterindustrie. Het is een eenvoudige verhouding: het totale vermogen van de faciliteit gedeeld door het vermogen van de IT-apparatuur.
Een PUE van 2,0 betekent dat voor elke watt die servers en opslag van stroom voorziet, er nog een watt naar koeling, verlichting, energieconversieverliezen en andere overheadkosten gaat. Een PUE van 1,2 betekent dat overhead slechts 0,2 watt per IT-watt verbruikt.
De industrie heeft algemeen geaccepteerde niveaus gebaseerd op PUE:
| Niveau | PUE | DCiE | Wat het betekent |
|---|---|---|---|
| Platina | <1,25 | >0,80 | Efficiëntie van wereldklasse, vereist doorgaans vrije koeling of vloeistofkoeling |
| Goud | 1,25 – 1,43 | 0,70 – 0,80 | Zeer efficiënt, haalbaar met moderne ontwerpen in gematigde klimaten |
| Zilver | 1,43 – 1,67 | 0,60 – 0,70 | Acceptabel voor oudere faciliteiten of warmere klimaten |
| Bronzen | 1.67 – 2.00 uur | 0,50 – 0,60 | Typisch voor oudere datacenters zonder grote retrofits |
| Eerlijk | 2.00 – 2.50 | 0,40 – 0,50 | Slechte efficiëntie, hoge bedrijfskosten |
| Arm | >2,50 | <0,40 | Kritieke inefficiëntie vereist waarschijnlijk onmiddellijke aandacht |
Het probleem is dat veel organisaties hun PUE niet echt kennen. Ze schatten. Ze raden het. Of ze meten alleen op de hoofdmeter en nemen de rest over.
Uit een brancheonderzoek uit 2023 bleek dat bijna 40 procent van de datacenterexploitanten de PUE nog nooit op rackniveau had gemeten. Onder degenen die dat wel deden, bedroeg de spreiding tussen de gerapporteerde en de werkelijke PUE gemiddeld 0,3 punten – genoeg om een faciliteit van goud naar zilver te verplaatsen zonder dat iemand het merkt.
Begrijpen waarom de PUE zo sterk varieert, begint met kijken naar waar de stroom een datacenter verlaat.
In een typische luchtgekoelde faciliteit met een PUE van ongeveer 1,8 ziet de verdeling er ongeveer als volgt uit:
De koellast is de grootste variabele. Een faciliteit in een gematigd klimaat die buitenlucht gebruikt voor vrije koeling, besteedt mogelijk slechts 15 procent van zijn niet-IT-energie aan koeling. Dezelfde faciliteit in een tropisch klimaat met mechanische koeling het hele jaar door zou 40 procent kunnen uitgeven.
Dit is de reden waarom colocatieproviders PUE adverteren op faciliteitsniveau, maar PUE leveren op de meter van de klant: verschillende cijfers, verschillende implicaties. De klant betaalt alles.
Traditioneel datacenterbeheer ging uit van een relatief statische omgeving. Rekken werden in de loop van maanden of jaren gevuld. De koeling kon langzaam worden aangepast. De stroomverdeling was vanaf dag één te groot.
Het cloudtijdperk veranderde de aannames. Rekken vullen nu dagen in. Werklasten worden automatisch over de servers heen verschoven. AI-clusters met een hoge dichtheid kunnen drie keer zoveel kracht verbruiken als aangrenzende rekenrekken voor algemeen gebruik.
Deze veranderingen hebben geleid tot een heroverweging van het infrastructuurbeheer. Drie trends vallen op.
Ten eerste stijgt de dichtheid ongelijkmatig.Een standaard serverrack trok tien jaar geleden 5-8 kilowatt. Tegenwoordig verbruiken racks voor algemeen gebruik 10-15 kilowatt. High-performance computing- en AI-trainingsracks overschrijden routinematig de 30 kilowatt per rack. Sommige overschrijden de 50 kilowatt.
Dit creëert uitdagingen op het gebied van thermisch beheer die luchtkoeling moeilijk kan oplossen. Met een vermogen van 20 kilowatt per rack blijft luchtkoeling effectief met de juiste insluiting. Bij 30 kilowatt wordt het marginaal. Bij 40 kilowatt en meer gaat vloeistofkoeling van optioneel naar noodzakelijk.
Ten tweede is capaciteitsplanning voorspellend geworden.De oude methode – meer capaciteit kopen dan nodig is en deze stil laten staan – werkt niet meer op grote schaal. Ongebruikte capaciteit brengt zowel kapitaalkosten als doorlopende onderhoudskosten met zich mee.
Moderne infrastructuurbeheersystemen maken gebruik van historische gegevens en werklastvoorspellingen om te voorspellen wanneer de stroom, koeling of rackruimte opraakt. De beste systemen kunnen dagen of weken voordat een beperking kritiek wordt, adviseren of de bestaande capaciteit opnieuw moet worden geconfigureerd of nieuwe hardware moet worden besteld.
Ten derde hebben zichtbaarheidsvereisten bijvpandeelde.Een traditioneel datacenter kan het stroomverbruik op PDU-niveau volgen. Een moderne faciliteit heeft inzicht nodig op rackniveau, soms op serverniveau, en steeds vaker op werklastniveau – wetende welke virtuele machine of container welke stroom aanstuurt.
DatacenterinfrastructuurManagementsoftware (DCIM) bestaat al meer dan tien jaar, maar de acceptatie blijft ongelijkmatig. Minder dan de helft van de bedrijfsdatacenters heeft een volledig DCIM-systeem geïmplementeerd. Velen die slechts een fractie van de mogelijkheden ervan gebruikten.
Een goed geïmplementeerd DCIM-systeem doet vier dingen:
Vermogensbeheer.Elke server, switch, PDU en koelunit wordt bijgehouden in een configuratiebeheerdatabase (CMDB). Locatie, vermogen, netwerkverbindingen, onderhoudsgeschiedenis: alles. Dit klinkt eenvoudig, maar veel organisaties houden nog steeds assets bij in spreadsheets waar maanden tussen updates zitten.
Realtime monitoring.Stroomverbruik op PDU- of rackniveau, temperatuur en vochtigheid op aanvoer- en retourpunten, status van het koelsysteem, status van de UPS-batterij. Alarmen worden geactiveerd wanneer parameters afwijken van de instelpunten. Het doel is om problemen op te sporen voordat ze downtime veroorzaken.
Capaciteitsplanning.Het systeem weet hoeveel stroom- en koelcapaciteit beschikbaar is, hoeveel er in gebruik is en hoeveel gereserveerd is voor toekomstige inzet. Het kan de impact modelleren van het toevoegen van een nieuw rack met hoge dichtheid of het buiten gebruik stellen van een reeks oudere servers.
Visualisatie.Een digitale tweeling van het datacenter – rack voor rack, tegel voor tegel – toont de huidige omstandigheden en stelt operators in staat veranderingen te simuleren. 10 kilowatt aan belasting toevoegen aan rij drie, kolom vier: overschrijdt dat de koelcapaciteit? Het systeem antwoordt voordat iemand apparatuur verplaatst.
Het terugdringen van het energieverbruik van datacenters is niet mysterieus. De methoden zijn goed begrepen. De uitdaging is implementatiediscipline.
Verhoog de temperatuur van de toevoerlucht.De meeste datacenters worden koud – 18 tot 20 graden Celsius bij de retour van de koelunit – omdat operators dat altijd hebben gedaan. ASHRAE-richtlijnen bevelen nu 24 tot 27 graden aan. Elke graad stijging vermindert de koelenergie met ongeveer 4 procent. Door op 26 graden te draaien in plaats van 20 graden, wordt 20-25 procent aan koelvermogen bespaard.
Elimineer het mengen van warme en koude lucht.Door middel van hot-aisle containment, cold-aisle containment of verticale uitlaatkanalen wordt de koellucht gedwongen daarheen te gaan waar deze nodig is, in plaats van een korte cyclus langs de voorkant van rekken. Alleen al door insluiting wordt de koelenergie doorgaans met 15-25 procent verminderd.
Gebruik frequentieregelaars.Ventilatoren en pompen met constant toerental verspillen energie bij deellast. Aandrijvingen met variabele snelheid stemmen de luchtstroom en waterstroom af op de werkelijke vraag. De terugverdientijden voor retrofits zijn doorgaans 1-3 jaar.
Optimaliseer de werking van de UPS.De meeste UPS-systemen werken continu in de dubbele-conversiemodus, waarbij wisselstroom wordt omgezet in gelijkstroom en weer terug naar wisselstroom, zelfs als de netstroom schoon is. Moderne UPS-systemen kunnen overschakelen naar de ecomodus wanneer de stroomkwaliteit dit toelaat, waardoor een efficiëntie van 99 procent wordt bereikt in plaats van 94-96 procent. Het nadeel is een korte overdrachtstijd naar de batterij als de netstroom uitvalt. Voor IT-belastingen met voedingen die voor dergelijke overdrachten zijn ontworpen, is het risico minimaal.
Gebruik distributie met een hogere spanning.Het distribueren van stroom op 415 V in plaats van 208 V vermindert de distributieverliezen met ongeveer 25 procent. Hiervoor zijn compatibele PDU's en servervoedingen nodig, maar veel moderne apparaten ondersteunen dit.
Shangyu CPSY-bedrijf, een hightech onderneming met een focus op datacenterinfrastructuur, rapporteert een PUE van 1,3 voor zijn modulaire datacenteroplossingen. Dit plaatst het bedrijf in de Gold-laag en gaat richting platina.
De geclaimde energiebesparing van 25 procent in vergelijking met conventionele ontwerpen is het gevolg van meerdere factoren. Modulaire UPS-systemen met een efficiëntie van 97,4 procent op systeemniveau verminderen distributieverliezen die anders 15-20 procent zouden bedragen. Precisie-airconditioners met compressoren met variabele snelheid en EC-ventilatoren passen de koelcapaciteit aan de werkelijke warmtebelasting aan, in plaats van op een vaste capaciteit te draaien. En de fysieke indeling (hot-aisle containment, optimale rack-afstand, verhoogde vloer met geperforeerde tegels van de juiste grootte) richt zich op het beheer van de luchtstroom dat veel anderszins efficiënte faciliteiten ondermijnt.
De certificeringsportfolio van het bedrijf omvat ISO 9001 (kwaliteitsmanagement) en ISO 27001 (informatiebeveiligingsmanagement). De klantimplementaties omvatten partnerschappen met Huawei, ZTE en Inspur, met exportinstallaties in de Verenigde Staten, het Verenigd Koninkrijk, Duitsland, Frankrijk en Australië.
Vloeistofkoeling was jarenlang een nichetechnologie voor supercomputercentra. Dat verandert snel.
AI-trainingsclusters die NVIDIA H100 of aankomende B200 GPU's gebruiken, genereren 30-50 kilowatt per rack in puur luchtgekoelde configuraties. Bij deze dichtheden vereist luchtkoeling hoge luchtstroomsnelheden: luide ventilatoren, diepe racks en nog steeds marginale thermische controle.
Direct-to-chip vloeistofkoeling verwijdert 60-80 procent van de warmte bij de bron. De chips worden koeler. De ventilatoren draaien langzamer. De kamerairconditioner verwerkt alleen de resterende warmte van de voedingen, het geheugen en andere componenten.
De efficiëntiewinst is substantieel. Faciliteiten met direct-to-chip koeling rapporteren PUE-waarden van 1,1 tot 1,2. De afwegingen zijn hogere kapitaalkosten, complexer lekbeheer en de behoefte aan waterbehandeling op faciliteitsniveau.
Volledige onderdompelingskoeling – waarbij hele servers in diëlektrische vloeistof worden ondergedompeld – duwt de PUE onder de 1,1, maar blijft gespecialiseerd. De meeste commerciële datacenters zullen eerst direct-to-chip-koeling toepassen en later onderdompeling voor specifieke zones met hoge dichtheid.
Het SHANGYU datacenterplatform omvat voorzieningen voor zowel lucht- als vloeistofkoelingarchitecturen, waarbij wordt onderkend dat toekomstige implementaties met hoge dichtheid vloeistofgebaseerd thermisch beheer zullen vereisen, ongeacht het ontwerp van de faciliteit.
De meeste datacenteroperatieteams werken nog steeds reactief. Er klinkt een alarm. Iemand doet onderzoek. Er wordt een oplossing toegepast. De cyclus herhaalt zich.
De transitie naar voorspellend management vereist drie mogelijkheden die veel organisaties missen.
Volledige configuratiegegevens.Weten wat zich in het datacenter bevindt – elke server, elke switch, elke PDU, elke koelunit – vormt de basis. Zonder nauwkeurige CMDB-gegevens is capaciteitsplanning giswerk.
Granulaire telemetrie.Vermogensmeting op rackniveau is het minimum. Meting van het vermogen per server is beter. Machtstoewijzing op werklastniveau is het beste, maar het moeilijkst te bereiken.
Analyses die signaal van ruis onderscheiden.Een temperatuurpiek in één rack kan een defecte ventilator betekenen. Een temperatuurpiek in de helft van het datacenter kan een defect aan de koelmachine betekenen. Het systeem moet de reacties dienovereenkomstig differentiëren en aanbevelen.
Het DCIM-platform van SHANGYU biedt ondersteuning voor SNMP- en Modbus-apparaten, webgebaseerde en Windows-applicatie-interfaces en integratie met netwerkcamera's voor door gebeurtenissen geactiveerde beeldvorming. De gestelde doelen zijn eenvoudig: kostbare stilstandtijd verminderen, de dagelijkse bedrijfskosten verlagen door middel van volledige milieucontrole, en de zichtbaarheid en traceerbaarheid van het management verbeteren.
Het energieverbruik van datacenters is goed voor ongeveer 1 procent van de mondiale elektriciteitsvraag. Dat aantal klinkt klein totdat het in de juiste context wordt geplaatst. Het komt ongeveer overeen met het totale elektriciteitsverbruik van Groot-Brittannië.
Belangrijker nog is dat de groei versnelt. Projecties uit de sector laten zien dat de vraag naar stroom in datacenters tot 2030 jaarlijks met 10 tot 15 procent zal toenemen, gedreven door AI, de adoptie van de cloud en de voortdurende uitbreiding van verbonden apparaten. In dat tempo zouden datacenters tegen het einde van het decennium 3 tot 4 procent van de mondiale elektriciteit verbruiken.
De efficiëntiewinst die het energieverbruik de afgelopen tien jaar stabiel heeft gehouden, kwam voort uit servervirtualisatie (vermindering van het aantal fysieke servers), verbeterde schijfefficiëntie (de overstap van draaiende schijven naar SSD's) en de brede toepassing van vrije koeling (met behulp van buitenlucht in plaats van mechanische koeling). Het laaghangende fruit is grotendeels geplukt.
De volgende golf van efficiëntie zal komen van vloeistofkoeling, distributie met hogere spanning, AI-geoptimaliseerde koelregelingen en – misschien wel het allerbelangrijkste – een betere afstemming tussen infrastructuurcapaciteit en daadwerkelijke IT-belasting. Dat laatste stuk vereist het soort real-time zichtbaarheid en voorspellende analyses die DCIM-systemen bieden, maar waar maar weinig faciliteiten volledig gebruik van maken.
Kent u uw werkelijke PUE, niet het nummer op het specificatieblad?Als je niet hebt gemeten aan de UPS-uitgang en aan de ingang van de IT-apparatuur, weet je het niet. Het verschil is uw werkelijke overhead.
Zijn uw koelsystemen met elkaar in gevecht?In veel datacenters zijn CRAC-units ingesteld met overlappende temperatuur- en vochtigheidsbanden. De ene unit ontvochtigt, de andere bevochtigt. De een koelt af, de ander verwarmt. Dit is niet ongebruikelijk. Het is ook niet efficiënt.
Wat is het inactieve stroomverbruik van uw servers?Uit branchegegevens blijkt dat typische bedrijfsservers 30 tot 40 procent van hun piekvermogen verbruiken als ze niets doen. Het afsluiten of in de sluimerstand zetten van ongebruikte servers is de hoogste ROI-efficiëntiemaatregel die beschikbaar is. Het wordt ook het meest over het hoofd gezien.
Kunt u de temperatuur van de toevoerlucht met twee graden verhogen zonder de specificaties van de apparatuur te schenden?Waarschijnlijk wel. De meeste apparatuur is geschikt voor inlaattemperaturen van 25-27 graden. De meeste datacenters draaien op 20-22 graden. Dat verschil van zes graden vertegenwoordigt jaren van onnodige koelenergie.
Wanneer heeft u voor het laatst de efficiëntie van uw UPS gevalideerd?De efficiëntie op het naamplaatje wordt gemeten bij volledige belasting met een perfecte arbeidsfactor. De werkelijke efficiëntie bij gedeeltelijke belasting met de werkelijke arbeidsfactor kan 5-10 punten lager zijn.