Danmarks energiregning for AI: Datacentre, kunstig intelligens og det nye energiregnskab

AI er blevet hvermandseje. Svar på sekunder, billeder på kommando og beslutningsstøtte døgnet rundt. Men bag de glatte interfaces gemmer sig en fysisk infrastruktur, der æder strøm, bruger vand og udleder varme.

Vi ved stadig ikke præcist, hvor meget energi der går til kunstig intelligens i Danmark. Der findes ingen officiel statistik, der skelner mellem almindelig databehandling og AI-træning eller -drift. Men alt tyder på, at AI er ved at blive en af de største forbrugere i den digitale sektor.

Kunstig intelligens er ikke bare software. Det er en ny industriel teknologi – og ligesom fabrikker kræver den strøm til maskiner, køling til udstyr og plads til udvidelse. Når vi taler om AI som arbejdskraft, glemmer vi ofte, at den er baseret på tung infrastruktur, der har sine helt egne aftryk i energiregnskabet.

Hvor havner energien? – Datacentre i Danmark

Datacentre er de fysiske kraftværker bag den digitale infrastruktur. De huser de servere, der håndterer alt fra e-mail og streaming til kunstig intelligens og offentlige systemer. Et datacenter er i sin kerne en kæmpemæssig bygning fyldt med tusindvis af højtydende computere – forbundet med fiberkabler og afkølet med energiintensive systemer, så de ikke overopheder.

Der er grundlæggende tre tryper datacentre i Danmark:

  1. Hyperscale-datacentre – ejet af techgiganter som Google, Meta, Microsoft og Apple. Disse centre er enorme, globalt integrerede og ofte designet til at håndtere AI-træning og drift i stor skala.
  2. Colocation-centre – hvor mindre virksomheder og organisationer lejer serverplads.
  3. Lokale og virksomhedsejede datacentre – ofte mindre anlæg med specifikke funktioner, fx til offentlige data eller forskning.

Disse centre bruges bl.a. til:

  • Sociale medier (f.eks. Facebook via Meta i Odense)
  • Streaming (YouTube, Netflix)
  • Cloud-løsninger (Google Cloud, Microsoft Azure)
  • Kunstig intelligens (træning og drift af modeller som GPT)

Siden 2015 har Danmark tiltrukket en række hyperscale-aktører. Apple driver et center i Foulum, Google i Fredericia og Meta i Odense, hvor overskudsvarmen nu leveres til fjernvarmenettet og opvarmer op mod 12.000 husstande.

Det at køre datacenter, det kommer mange til gavn, for det betyder, at vi alle sammen kan fx søge på Google, eller se YouTube-videoer, eller bruge Google Maps, når vi kører bil. Men vi har også et ansvar for at gøre det så energieffektivt og så bæredygtigt som overhovedet muligt,” siger kommunikationschef i Danmark, Jesper Vangkilde.

Men selv om centrene er danske af placering, er deres energiforbrug ofte mørkelagt. Strømmen tælles i brede kategorier som “cloud” og “beregning”, og der findes ingen krav om at oplyse, hvor stor en andel der går til AI. Offentlige databaser som Energistyrelsens energistatistik kan opgøre forbruget for sektoren – men ikke formålet.

Danmark er blevet en vigtig knudepunkt i den globale digitale infrastruktur – men vi ved endnu ikke, hvor meget strøm, vand og varme AI kræver i denne sammenhæng.

Google har valgt at lægge nogle af tallene omkring deres datacentre i deres årlige bæredygtighedsrapport.“Det er vigtigt for os, at der er en høj grad af gennemsigtighed. […] Det her er et oplæg til, at andre i branchen også har en høj grad af åbenhed omkring energiforbruget i kunstig intelligens,” forklarer Jesper Vangkilde.

Universiteterne som AI Laboratorier

Danmarks universiteter driver i dag nogle af landets mest avancerede AI-infrastrukturer gennem nationale supercomputere, organiseret af DeiC (Danish e-Infrastructure Cooperation). Disse systemer muliggør AI-træning og dataanalyse på et niveau, der ellers kun findes i de store tech-virksomheder – og spiller dermed en central rolle i både forskning og udvikling.

Tre centrale systemer har de seneste år været omdrejningspunkt for dansk AI-forskning:

  • Computerome 2.0 – drives i fællesskab af DTU og Københavns Universitet, med særligt fokus på sundhedsdata, neurale netværk og billedanalyse. Systemet bruges bl.a. til træning af AI i medicinsk diagnostik og biologi, og regnes for et af de mest sikre og kraftfulde i Europa, når det gælder personfølsomme data.
  • Gefion – tilknyttet Syddansk Universitet, er den nyeste af supercomputerne og designet til at understøtte moderne machine learning og large language models (LLM’er). Gefion bruges til både generativ AI, sprogmodeller og klassisk datadrevet analyse.
  • ABACUS 2.0 – tidligere tilknyttet Aarhus Universitet, blev brugt frem til 2021 og spillede en vigtig rolle i eksperimenter med generativ AI, sprogmodeller og neurale netværk. Systemet blev lukket som del af DeiC’s overgang til den nationale HPC-strategi.

Disse systemer er ikke kun kraftfulde – de er også energikrævende. Ifølge DeiC udgør supercomputere en voksende del af universiteters samlede elforbrug. For eksempel bruger Computerome flere hundrede tusinde kilowatt-timer om året, afhængigt af aktivitet og datatryk.

Selvom tallene ikke er offentligt opgjort på AI-specifikt niveau, indgår både GPU-forbrug, varmeafgivelse og vandkøling som elementer i driften. Nogle centre – som DTU Risø Campus – arbejder med varmegenvinding, hvor overskudsvarme fra AI-regning bruges til lokal opvarmning af bygninger eller fjernvarmenet.

“Det er vores ambition, at databehandling og grøn teknologi skal gå hånd i hånd. Vi ser det som en nødvendighed, ikke bare en mulighed,” lyder det fra en intern projektbeskrivelse fra SDU Gefion.

Flere forskere har advaret om, at AI-forskning i fremtiden skal måles på mere end modelpræcision. Også klimaaftryk og energiforbrug bør tælle, hvis universiteter skal leve op til deres bæredygtighedsstrategier. Men der findes endnu ikke et samlet regnskab over AI’s el-, vand- og varmeforbrug på universitetsniveau.

Selvom universiteterne råder over nogle af landets mest kraftfulde AI-infrastrukturer, er der i dag ingen samlet opgørelse over deres energiforbrug. Og selv DeiC, der koordinerer den nationale supercomputeradgang, har ikke adgang til data, der dækker hele anlæggene.

“Vi råder ikke over oplysninger, der gælder for hele anlægget eller for anlæg, der ikke er en del af vores portefølje,” oplyser Marie Charlotte Søbye fra DeiC i et skriftligt svar til AI Portalen.

DeiC køber i dag adgang til regnekraft fra anlæg på universiteterne – blandt andet Computerome (DTU), Sophia (DTU), GenomeDK (AU) og UCloud (SDU) – men havde ikke indflydelse på opsætning, placering eller energiforbrug. Derfor findes der heller ikke én samlet energimåling for den forskningsdrevne AI-infrastruktur i Danmark.

Som kontrast peger DeiC på LUMI-supercomputeren i Finland, som Danmark er partner i. LUMI er kendt som en af de mest energieffektive supercomputere i verden og drives udelukkende på 100 % vedvarende energi, mens overskudsvarmen indgår i det lokale fjernvarmesystem.

Hvor meget går egentlig til AI?

For at kommet lidt tættere på at isolere strømforbruget kan man prøve at kigge på internationale studier af området. Et af de mest citerede studier er publiceret i ScienceDirect og peger på, at træningen af GPT-3 omkring 1,287 GWh (gigawatt timer). I det store regnskab kan det virke som mindre betydningsfuldt. Til sammenligning udgør Danmarks samlede elforbrug ifølge Energistyrelsen ca. 36.000-38.000 GWh/år. En mellemstor by som Kolding bruger ca. 200-300 GWh/år. 1.3 GWh (GPT-3 forbruget rundet op) svarer altså til et døgns forbrug i Kolding. Ifølge flere Pexapark-rapporter vurderes Googles datacenter i Fredericia at bruge omkring 700 GWh/år. 1,3 GWh er mindre end én dags drift i sådan et center. Ifølge AI-forsker Kasper Groes Albin Ludvigsen vurderer, på basis af OpenAI’s energiforbrugstal, at en GPT-4 prompt (altså dit spørgsmål til ChatGPT) 0,5 Wh. Det svarer til at brygge en kop kaffe.

Jeg sad og så et afsnit af Gift ved første blik forleden dag. Det tager cirka en time. For den samme mængde energi kunne jeg have promptet 400 gange i Gemini,” forklarer Jesper Vangkilde.

Noget af det, der gør det svært at udskille energiforbruget, der er relateret til AI er, at træningen af modellerne foregår globalt på kæmpe GPU-klynger i fx USA (GPU: grafikprocessorer) , men at brugen – det man kalder inference – sker lokalt. Det betyder at driften af chatbotter, søgefunktioner og billedredigering (altså inference) typisk foregår i lokale og regionale datacentre. Derfor er det heller ikke træningen, men driften, der lægger pres på Danmarks energisystem.

I Danmark eksisterer der ikke officielle opgørelser over AI’s elforbrug. Datacentrene rapporterer om totalforbrug, men kategoriserer ikke efter brugstyper, som AI, cloud-lagring eller video. Det kan fremgå som ”Cloud”, ”Compute” eller ”Storage”. 

Google ser dog tegn på i deres tal, at energieffektiviteten er på vej op. “Alene det seneste år er energieffektiviteten i en prompt blevet 33 gange bedre. Det vil sige, at man bruger 33 gange mindre strøm på en prompt, end man gjorde bare for et år siden,” siger Jesper Vangkilde.

El, vand og varme – de tre sider af forbruget

Datacentrene og supercomputere rundt om i landet forbruger ikke kun størm. Bag hver chatbot, billedgenerator og sprogmodel ligger en kompleks infrastruktur, der forbruger el og vand og som genererer varme. Strøm er den motor, der ligger bag AI. Den bruges til at drive servere, GPU’ere og netværksudstyr i datacentre og supercomputere. Særligt ved træning, kræver AI-modellerne store mængder regnekraft, men også under inference. Store AI-modeller bruger tusindvis af GPU’er parralelt og det kræver strøm. 

Supercomputere som Gefion, ABACUS og Computerome bruger AI til sundhed, billedanalyse og sprogmodeller. AI står ifølge DEIC for 50-70% af deres GPU-forbrug. Det samme gælder for datacentre som Googles i Fredericia og Meta’s i Odense.

Og arbejdet med AI i supercomputere og på datacentre skaber høje driftstemperaturer, ligesom din computer bliver varm, når du bruger den, men i modsætning til din laptop, så er en lille vifte ikke nok til at køle dem ned. Derfor bruger datacentrene i USA årligt milliarder af liter vand. I Danmark er det tal noget mindre, men stigende. En enkelt GPT-prompt kan indirekte koste op til 500ml vand, afhængig af lokal køleteknologi og infrastruktur. Vandforbruget er lavere i lukkede væskekølede supercomputere som Computerome. 

Ifølge Google overser mange beregninger den samlede miljøpåvirkning ved AI. Ofte regnes kun aktiv regnetid i GPU’er, men det dækker kun en brøkdel af den faktiske ressourceanvendelse. Googles metode inddrager:

  • Strøm til idle maskiner (reservekapacitet og failover)
  • CPU og RAM, som også forbruger energi ved AI-serving
  • Datacentrenes el-infrastruktur og køling (målt med PUE)
  • Vandforbrug til køling – især i varme egne

Ved at medregne hele systemets el- og vandforbrug, lander Google på følgende gennemsnitstal for en AI-prompt (Gemini, maj 2025):

BeregningstypeEnergi (Wh)CO₂ (g)Vand (ml)
Kun aktiv GPU-tid0,100,020,12
Googles komplette metode0,240,030,26

Mange lavere skøn – herunder OpenAI’s og DeepSeek’s – bruger alene regnetiden på modellen. Ifølge Google er det en optimistisk undergrænse, som ikke afspejler den reelle miljøbelastning.

Overskudsvarmen, der opstår af AI og HPC-systmer kan genanvendes, hvis man forbinder datecentrene til fjernvarmenettet. Meta’s datacenter i Odense leverer over 100.000 MWh varme om året til Fyns Fjernvarme. Computerome II på DTU genbruger varmen lokalt. 

Ifølge Google er det afgørende at måle hele systemets energiforbrug – ikke kun strømmen, der bruges til selve beregningen i en GPU eller TPU. Den samlede miljøpåvirkning inkluderer nemlig også:

  • Kapacitet der står tændt, men ikke i brug (idle machines)
  • CPU og RAM, der understøtter AI-modellen
  • Køling og strømforsyning i selve datacentret (målt som PUE)
  • Vandforbrug til køling – især i varme egne

Det betyder, at den faktiske miljøpåvirkning per prompt kan være 2–3 gange højere end tidligere antaget.

Vi opvejer vores strømforbrug en til en med tilsvarende vedvarende energi. Det er klart, at den kæmpe omstilling, vi er i gang med indenfor kunstig intelligens, kræver mere strøm samlet set. Og det gør det sværere for os at nå til det ultimative mål, vi har i 2030, at at hver eneste datacenter skal køre på udelukkende ren energi. Det gør vejen lidt sværere, men det får os ikke til at ændre på målet,” siger Jesper Vangkilde.

Hvor stort er forbruget egentlig?

Selvom der endnu ikke findes officielle opgørelser over AI’s strømforbrug i Danmark, giver den samlede kortlægning fra AI Portalen et kvalificeret bud på omfanget. Ved at sammenholde scenarier for kommuner, regioner, staten og slutbrugere, kan vi anslå, at AI i Danmark i dag kræver mellem 37 og 85 GWh strøm årligt – afhængigt af om man følger et lavt, middel eller højt udviklingsscenarie. Det svarer til strømforbruget i op mod 18.000 husstande. Midtpunktet – 60–61 GWh – udgør et realistisk billede af det samlede strømforbrug fra AI-systemer på tværs af offentlige og private aktører i 2025. Sammenlignet med Danmarks samlede elforbrug (ca. 36.000–38.000 GWh/år) svarer AI’s estimerede forbrug til ca. 0,15 %. Det er omtrent det samme som hele Odenses samlede gadebelysning i 30 år, elforbruget i en mellemstor dansk kommune, eller hvad et Google-datacenter som det i Fredericia kan bruge på få dage under fuld drift.

Så AI er endnu ikke den største forbruger i elnettet – men det er en ny kategori, der vokser hurtigt og ikke reguleres særskilt.

Kan vi styre AI’s energiforbrug?

Som det ser ud lige nu så stiger energiforbruget forbundet med AI bare, så hvad kan vi gøre for at holde styr på det? Et af svarende er, at bruge mindre og mere energieffektive modeller. Store sprogmodeller som GPT-5 kræver store mængder energi til både træning og drift. Forskning i mindre modeller som fx TinyML og Distilled Models viser, at specialiserede og mindre modeller kan løse mange opgaver med et markant lavere strømforbrug. DeepMinds RETRO og Meta’s DistilBERT bruger 60-90 % mindre energi end fulde modeller. 

Inspireret af energimærkning på hårde hvidevarer, foreslår forskere energideklarationer for AI-modeller. På den måde kan energiforbruget bruges som et konkurrenceparameter producenterne imellem. En energideklaration skal indeholde oplysninger om elforbrug pr. prompt, vandforbrug og CO2-aftryk. 

AI Portalen har gennem sin kortlægning af kommunernes brug af AI i AI Portalen #1 september 2025 dokumenteret, at offentlige AI-udbud og projekter sjældent indeholder energimæssige specifikationer. Men energikrav bør indgå på linje med krav om datasikkerhed, DPIA (risikovurderinger) og klageadgang. Tænketanken CONCITO anbefalede i 2024 større transparens omkring datacentre og digitale tjenesters klimaaftryk.

Et konkret eksempel på kommunale forsøg på at reducere deres klimaaftryk som en konsekvens af brug af AI er OS2ai, som vi beskrev i sidste nummer af AI Portalen. OS2ai er en open source-baseret AI-platform, udviklet i et kommunalt samarbejde (OS2). Systemet kan køre lokalt og dokumentere energi- og databehandling mere præcist end cloud-løsninger. Modellen gør det muligt for kommuner at kontrollere energiforbruget i egne AI-løsninger.

Store tech-virksomheder som Google, Microsoft og Meta arbejder aktivt på at reducere AI’s klimaaftryk. Ifølge Googles Environmental Report 2025 anvendes i stigende grad energieffektive Tensor Processing Units (TPU’er), strømstyring og prioritering af grøn strøm og AI til optimering af egne datacentre (fx til køling og serverbelastning). 

Google estimerer i deres Environmental Report, at optimeringer har reduceret energiforbruget pr. operation med over 80 % i visse systemer siden 2019. 

Datacenteret i Fredericia kører på grøn strøm i 92 % af tiden. De sidste procent er det sværeste,” siger Jesper Vangkilde.

Et nyt punkt i energiregnskabet

Kunstig intelligens er ved at blive en fast bestanddel af vores digitale infrastruktur – fra chatbotten i kommunen til de store sprogmodeller, der driver fremtidens serviceydelser. Men selvom AI for alvor er rykket ind i hverdagen, har vi stadig ikke et klart billede af, hvor meget energi det kræver.

Der findes ingen officiel opgørelse over, hvor stor en del af Danmarks el, vand og varme der i dag bruges på at træne, drifte og understøtte AI-systemer. Og ingen politisk målsætning om, hvor stor regningen bør være – eller hvem der skal betale den.

Samtidig bevæger AI sig hurtigt: Nye systemer bliver større, tungere og mere udbredte. De kobles til sundhedsdata, borgerforløb, transport og klima – og bliver dermed en infrastrukturel teknologi på linje med internet, elnet og varmeforsyning.

Derfor er spørgsmålet ikke bare, om vi har strøm nok til AI – men om vi bruger den klogt.

Skal AI være en grøn teknologi, kræver det politisk handling, teknisk gennemsigtighed og en vilje til at lade energiforbruget følge med udviklingen.

Du kan tilgå kortlægningen som excel-ark her.

Seneste nummer

Køb bogen før din nabo!

Bliv medlem

Vi er i gang med at bygge Danmarks første medlemsdrevne medie om AI. Det handler ikke om at få mere indhold. Det handler om at få bedre viden.

Vil du være med? Klik her – og vælg selv, hvordan du vil støtte:

Meld dig til her.

Follow Me