Hur mycket energi använder AI?

Jag får ofta frågor om energianvändningen av att använda AI. Hur mycket energi går det åt för att träna spjutspetsmodeller som GPT 4o, och borde jag skämmas om jag genererar en kul meme-bild som jag delar i jobbets gruppchat en fredagseftermiddag?

Låt oss göra en djupdykning!

Energiåtgången för AI kan delas upp i två kategorier:

  • energin som krävs för att ställa frågor till modeller (att “prompta”)

  • energin som krävs för att träna modeller

Energi per prompt

Energin som krävs för att ställa en fråga till ChatGPTs enklare modeller, så som GPT 4o, är ungefär 0.4 Wh. Det motsvarar energin som krävs för att strömma några sekunders video över YouTube eller Netflix. Mer avancerade modeller använder mer energi. En längre “deep research”-fråga kan behöva över 33 Wh för att leverera ett svar - mer än 80 gånger så mycket energi1. Att generera video drar ännu mer energi - nästan 1 kWh för en film på fem sekunder! Detta är lika mycket energi som behövs för att köra en elbil en hel hela fem kilometer.2

Hur mycket man promtar är såklart väldigt olika för person till person. Jag har skrivit 364 promptar de senaste sju dagarna, vilket innebär en energiåtgång på ungefär en kWh.3

Energi för att träna modeller

En modell är en digital artefakt som innehåller den kondenserade informationen av datan som används för att träna en modell - vilket kan vara stora delar av den text som finns på Internet. De största modellerna idag innehåller upp till en biljon parametrar, och tar upp ungefär en TB lagringsutrymme.

Att kondensera en stor mängd träningsdata till en mindre modell kallas att “träna” modellen. Att destillera ut den “användbara intelligensen” från träningsdatan kräver mycket beräkningskraft, och därmed mycket energi.

Den totala energiåtgången för att träna GPT3 beräknas till ungefär 1.3 GWh. Det är ungefär lika mycket energi som 76 medelstora svenska hushåll i villa använder på ett år.

GPT3 är numera en uråldrig modell (den släpptes i juni 2020) och modellerna har sedan dess blivit större och mer energikrävande. Exakt hur mycket energi de bästa tillgängliga modellerna idag, så som GPT 4o, Claude 4, Gemini 2.5 eller Grok 3, behövde för att tränas är svårt att säga, då bolagen inte publicerar data om energiåtgång. Uppskattningar ligger omkring 50 - 100 GWh per modell, vilket är upp till 77 gånger så mycket energi som krävdes för GPT34, eller mer än årsförbrukningen för mer än 5800 svenska hushåll i villa.

AI-bolagen behöver allt mer beräkningskraft för att träna sina modeller, vilket driver upp det beräknade energibehovet för datacenter. Ökningen beräknas till närmare 550 TWh från 2024 till 2030 - ungefär lika mycket energi som Sverige förbrukar på ett år. Just elproduktion för datacenter ses som en strategiskt viktig fråga för USA och Kina. Vissa amerikaner har uttryckt farhågor för skillnaden i utökad energiproduktion i USA jämfört med i Kina. AI-teknologi betraktas som en strategisk resurs, och om det inte finns tillräckligt med tillgänglig energi för att träna nya AI-modeller riskerar USA att hamna på efterkälken.

Hur mycket energi drar AI?

Så, för att svara på de inledande frågorna.

Att träna stora modeller kräver enormt mycket energi, ett behov som dessutom förespås öka de närmsta åren.

Att köra enstaka promptar drar inte så mycket energi. Du behöver troligen skämmas mer över köttfärsen till fredagstsacon än över meme-bilden i jobbchatten.