Vi rådgiver dig

AI’s energiforbrug – her er hvad du bør vide

AI fylder mere i hverdagen, men hvad betyder det for klimaet? Her får du et enkelt overblik over energiforbruget bag teknologien, og hvorfor AI også kan være en del af den grønne løsning.

Cirka læsetid: 5 minutter. Opdateret: d.08.04.26

Hvorfor bruger AI energi?

Når vi interagerer med en AI‑model, aktiveres en digital infrastruktur, der ligesom alle andre digitale teknologier, kræver energi for at fungere.
 
Energiforbruget er fordelt på flere led i værdikæden: træning af modellen, de beregninger der sker, når modellen bruges, og driften af datacentrene.
 
Tilsammen forklarer de, hvorfor AI har et energibehov, og hvordan teknologien i høj grad formes af de systemer og løsninger, der ligger bag.

 

 

Træning af AI-modellen

Før en AI‑model kan svare fornuftigt, skal den trænes. Det betyder, at den gennemgår enorme mængder data og lærer mønstre i sprog og viden.

Træning af modellen indebærer et energiforbrug, da processen består i at analysere store datamængder og opbygge de strukturer, modellen senere bruger til at løse opgaver. 

Hvis du vil lære mere om, hvad der faktisk foregår, når du interagerer med en AI,  hvad modellen gør i baggrunden, og hvorfor det har betydning, kan du læse mere her: Hvad sker der egentlig, når du skriver til en AI og hvorfor er det vigtigt?

Brug af modellen

Når du interagerer med en AI‑model, begynder den at arbejde med det samme. Den gennemgår din forespørgsel, vurderer betydningen og beregner, hvilket svar der er mest relevant. Denne proces kaldes inference; kort fortalt er det beregninger, der finder sted, når modellen “tænker”.

Energiforbruget i denne fase afhænger især af, hvor meget modellen skal regne på. Det styres blandt andet af tokens, som er de små tekststykker, modellen arbejder med. Jo flere tokens, der indgår i dit spørgsmål og dens svar, desto flere beregninger skal der til, og dermed et højere energiforbrug.

Det er her, du som bruger har den tydeligste mulighed for at påvirke, hvordan AI bruges: korte prompts og præcise svar kræver færre beregninger og bruger derfor mindre energi.

Vil du lære mere om, hvad generativ AI er? Hvad er generativ AI? | Et overblik for virksomheder

Datacentrene

AI-modeller kører på servere i store datacentre. Her går der strøm til at holde tusindvis af servere i gang, flytte data hurtigt, sikre stabil drift og køle udstyret ned. Nogle datacentre bruger luftkøling, andre vand, og nogle genanvender overskudsvarme.

Hvordan et datacenter drives, og hvilke energikilder det bruger, betyder meget for det samlede klimaaftryk. 

Branchen bevæger sig samtidig mod et mere transparent energiforbrug: Flere cloud‑udbydere offentliggør løbende CO₂‑data, effektiviseringsmål og realtidsdata for elforbrug, hvilket gør det lettere at følge udviklingen på tværs af værdikæden.

Det er helt naturligt at overveje, hvilken betydning ens AI‑forbrug har for klimaet. Det handler især om at forstå, hvad der egentlig driver energiforbruget, og hvordan små justeringer i måden, vi bruger AI på, kan gøre teknologien både mere effektiv og mindre belastende.
 
Måden AI bruges på, udvikler sig hurtigt. Mens generativ AI for få år siden primært blev brugt til simple spørgsmål og tekstbesvarelser, består nutidens anvendelser af langt mere avancerede arbejdsgange som automatiseret dataanalyse, generering af musik og video, simuleringer, opsummering af store datamængder og styring af komplekse processer.
 
Derfor kommer AI ikke til at fylde mindre, og måden vi integrerer teknologien i vores arbejde, bliver stadig mere moden og mere omfattende.
 
Hvis du vil have konkrete, enkle råd til, hvordan du bruger AI så energieffektivt som muligt, kan du læse vores guide Sådan bruger du AI mere energieffektivt. Her får du praktiske tips, du kan tage i brug med det samme.

Hvor meget energi bruger AI?

Det simple svar er, at det ikke kan siges præcist.

Energiforbruget afhænger af mange faktorer, hvilken model du bruger, hvor stor den er, hvor komplekst dit prompt er, hvilket hardware den kører på, hvor i verden datacentret ligger, og hvordan strømmen i netop det område er produceret. Derfor findes der ikke ét tal for “AI’s energiforbrug”.

Alligevel begynder vi at få langt bedre værktøjer til at forstå udviklingen. Hos fransk-stiftede Hugging Face, som er den førende platform, hvor udviklere, forskere og virksomheder opbevarer og samarbejder om open-source AI-modeller, datasæt og værktøjer, måler man løbende CO₂‑udledningen fra tusindvis af åbne modeller via deres Open LLM Leaderboard.

Her bliver alle modeller evalueret på den samme hardware, og deres estimerede energiforbrug og klimaaftryk bliver gjort offentligt tilgængelige, så man kan sammenligne modeller på en ensartet måde. 

Platformen giver også udviklere og brugere adgang til værktøjer, der kan beregne CO₂‑udledning baseret på modelstørrelse, beregningstid og regionale emissionsfaktorer. Det gør det muligt at få et mere nuanceret billede af, hvordan forskellige modeller performer, og hvilken belastning de skaber under standardiserede forhold. 

Du kan udforske data, modeller og emissionsberegninger her:
CO₂ Emissions and Models Performance: Insights from the Open LLM Leaderboard

AI driver efterspørgslen på grøn energi

AI er en grundlæggende del af den digitale infrastruktur. I takt med at teknologien tages i brug på tværs af brancher, stiger behovet for stabil, billig og klimavenlig strøm markant. Det mærkes særligt omkring datacentre, hvor kapacitetsgrænser flere steder er nået, og hvor nye projekter må vente på nettilslutning.

Energi bliver dermed ikke bare en driftsomkostning, men en strategisk rammebetingelse: Tempoet for AI’s udbredelse afhænger i stigende grad af, om energisystemet kan levere tilstrækkelig grøn kapacitet dér, hvor efterspørgslen opstår.

Den situation skaber et dobbelt pres. På den ene side kan manglende kapacitet bremse nye tjenester og gøre skaleringsplaner dyrere og langsommere. På den anden side forstærker presset investeringslysten i vedvarende energi, fordi store indkøbere efterspørger dokumenterbart grøn strøm tæt på forbruget.

Det gør det mere attraktivt at opstille vindmøller, udbygge solparker og etablere lagringsløsninger, som kan levere fleksibilitet, når produktionen svinger. Resultatet er, at AI ikke kun trækker på systemet – teknologien er samtidig med til at trække udbygningen af grøn kapacitet frem i tid.

Et eksempel på, hvordan AI driver udviklingen af mere bæredygtig infrastruktur, finder man i Norge, hvor OpenAI, i samarbejde med norske Aker og engelske Nscale, opfører datacentret Stargate Norway i Kvandal nær Narvik.

Placeringen er valgt på grund af områdets adgang til vedvarende vandkraft, lave energipriser og et naturligt køligt klima, som gør kølingen mere energieffektiv.

 Anlægget bygges med avanceret væskekøling og skal køre på 100 % vedvarende energi, mens overskudsvarmen fra GPU‑systemerne genanvendes lokalt.

Kilde: OpenAI åbner stort bæredygtigt AI-datacenter i Norge - Dagens AI

Et andet aktuelt eksempel finder man hos Vestas, som har modtaget en ny ordre på 270 MW til et amerikansk projekt. Det er endnu et tegn på, at efterspørgslen efter vedvarende energi accelererer i takt med, at digitale teknologier som AI driver elforbruget fremad.

Store udviklingsprojekter i USA, hvor datacentre og energitung AI‑infrastruktur vokser hurtigt, skaber et markant behov for nye vindmølleparker og stabil grøn kapacitet i nærheden af forbruget.

Kilde: Vestas får ordre på 270 MW i USA

Et klogere og mere fleksibelt energisystem

AI benyttes også til at gøre selve energisystemet bedre til at håndtere en høj andel af vind og sol. Med mere præcise prognoser kan produktionen planlægges tættere på virkeligheden, mens løbende balancering mellem forbrug og produktion reducerer spild og flaskehalse.

Det bliver lettere at udnytte lagring, både på nettet og lokalt, og at opdage afvigelser i driften, før de udvikler sig til problemer. Tilsammen øger det robustheden, så en større del af vores energiforsyning kan være grøn uden at gå ud over forsyningssikkerheden.

Presset forplanter sig også uden for selve elproduktionen. Datacentre udvikler og tager mere energieffektive køleløsninger i brug, udnytter overskudsvarme i lokale fjernvarmenet og placerer kapacitet, hvor elmixet er grønnest. Samtidig skubber behovet til udviklingen af mere effektive chips og AI‑modeller, der kan levere samme kvalitet med færre beregninger.

På den måde rækker effekten fra produktion over infrastruktur til hardware og software og bevæger systemet i retning af en mere effektiv og bæredygtig helhed.

AI øger altså energiefterspørgslen, men netop det pres bliver omsat til konkrete investeringer, smartere drift og teknologiske forbedringer. Derfor er AI ikke blot en belastning for energisystemet – den er også en accelerator for den grønne omstilling.

Vil du vide mere om hvordan AI kan være accelerator for den grønne omstilling?

Læs artiklen: AI som accelerator for den grønne omstilling

AI, ESG og Bæredygtighed

For mange virksomheder er AI ikke kun et spørgsmål om produktivitet og effektivisering. Det er også blevet en del af arbejdet med ESG, altså de miljømæssige, sociale og ledelsesmæssige faktorer, som flere og flere organisationer skal rapportere på.

AI kan hjælpe med alt fra at strukturere store datamængder til at identificere mønstre i klimaaftryk, ressourcer eller sociale indikatorer. Det gør det lettere for virksomheder at få overblik, dokumentere deres indsatser og træffe bedre beslutninger.

Samtidig er der et voksende behov for værktøjer, der kan gøre ESG‑arbejdet både mere præcist og mindre ressourcekrævende. Her spiller AI allerede en rolle, og udviklingen går stærkt.

Vil du læse mere om AI's rolle i ESG arbejde? Sådan styrker AI dit ESG- og bæredygtighedsarbejde.

 

AI‑modellerne bliver også mere energieffektive

Det er ikke kun vores egne valg, der gør en forskel for energiforbruget. AI‑modellerne bliver nemlig løbende mere effektive i den måde, de arbejder på. Nye modelgenerationer er bygget til at løse de samme opgaver med færre beregninger, hurtigere behandling og mindre spild. Det betyder, at den mængde energi, der skal bruges for at producere et enkelt svar, gradvist falder over tid.

Modellerne bedre til at forstå prompts med færre tokens, og de er generelt mere præcise i deres output, så de ikke behøver at “gætte” sig frem med lange, tunge svar. Hele udviklingen går i retning af smartere, lettere og mere energieffektive systemer.

Samtidig bruger vi modellerne langt mere end tidligere, og til væsentligt større og mere komplekse opgaver. Det betyder, at vores samlede forbrug stadig stiger, selvom hver enkelt forespørgsel er blevet billigere i energi. 
 
Kort sagt: Modellerne bliver mere effektive, men vores brug vokser hurtigere, og derfor fortsætter det samlede forbrug med at øges.
 

Vil du lære mere om AI og bæredygtighed?

Artiklen skal gerne give dig en introduktion til, hvornår AI bruger energi og hvordan AI påvirker innovationen inden for bl.a. mere grøn energi på grund af den enorme efterspørgsel.

Hvis du vil vide mere, kan du gå på opdagelse via bannerne herunder eller via de artikler, der linkes til i denne.

 

 

Josefine Hjort Spindler

Josefine Hjort Spindler

Chef for Bæredygtighed, Samfundsansvar & Kommunikation

Relateret indhold