Debatten om AI:s klimatpåverkan växer – men när människor börjar skämmas för att använda verktyg som ChatGPT blir frågan: har vi tappat proportionerna?
Skammande av AI-användare ökar: "För miljöns skull"


Mest läst i kategorin
Debatten om artificiell intelligens har fått ett nytt inslag: ”gen AI-shaming” – skammande av dem som använder generativ AI som ChatGPT, ofta med klimatargument som bakgrund.
Frågan väcker inte bara funderingar om teknikens miljöpåverkan, utan också om hur vi värderar olika typer av energianvändning.
Missa inte: Oroväckande upptäckten om trogna AI-användare. Realtid
I ett viralt inlägg på Linkedin berättas om en person som avstod från att använda ChatGPT ”för miljöns skull”.
Uttalandet kan i praktiken tolkas som ett sätt att markera moralisk överlägsenhet – en ny typ av ”skam” likt den kring flygresor eller köttkonsumtion.
Motsvarar 26 000 frågor
Inlägget är skrivet av Oscar Berg, Strategic AI & Collaboration Expert i Malmö, som har myntat begreppet själv. Han ifrågasätter hur hållbart det är att skuldbelägga AI-användning utan att sätta det i kontext.
”Jag arbetar med att utforska och införa AI i verksamheter och delar en hel del tankar och idéer kring detta på Linkedin. Det är ganska ofta att de som är skeptiska mot AI för fram just energiförbrukningsargumentet”, säger Berg till Realtid.

AI – droppen som får bägaren att rinna över
I fjolårets hållbarhetsrapport kunde Microsoft rapportera att deras globala vattenförbrukning ökat med 34 procent mellan 2021 och 2022.
I diskussionerna har han velat ställa AI mot andra saker och argumenterat för att AI kommer hjälpa oss att arbeta smartare och bli effektivare i vår resursanvändning.
Enligt Bergs egna beräkningar, gjorda med hjälp av AI-verktygen ChatGPT och Claude, kostar en arbetsdag på kontoret cirka 8 kWh i energianvändning – motsvarande 26 700 frågor till ChatGPT.
Senaste nytt
Hemmajobbande att föredra
Om man dessutom räknar in pendling, särskilt bilpendling som förbrukar uppemot 30–40 kWh per dag, ökar siffran drastiskt.
Totalt sett kan en kontorsdag, inklusive resa, kosta omkring 110 000 ChatGPT-frågor i energianvändning. Att arbeta hemifrån däremot förbrukar bara omkring 2 kWh, motsvarande knappt 7 000 frågor.
”Så om du ställer 10, 20 eller till och med 100 frågor på en dag så är du fortfarande lååååångt ifrån energikostnaden av att pendla in till jobbet”, skriver Berg i sitt inlägg.
Läs även: Får du investeringsråd av ChatGPT? Då bör du läsa det här. Realtid
Han betonar att om AI-användning kopplas till skam eller skuld, finns en risk att både individer och organisationer håller tillbaka sin nyfikenhet – eller använder tekniken i smyg, utan stöd, utbildning eller strategi.
”Vi har sett det förut – med flyg, kött, konsumtion – när något plötsligt får en moralisk dimension som påverkar inte bara vad vi gör, utan vad vi vågar prata om”, säger han.

AI kan äta upp Googles klimatmål
Googles mål om att pressa sina utsläpp till noll 2030 blir mycket svårt att nå – utvecklingen av AI slukar allt mer energi vilket ökar utsläppen.
En av de största utsläppskällorna
Forskning stödjer denna bild.
Enligt tidigare uppskattningar slukar ChatGPT ungefär 3 wattimmar per besvarad fråga – men de nya beräkningarna säger att den korrekta summan numera snarare är 0,3 wattimmar, enligt forskare på Epoch AI.
Missa inte: AI-experten: ”Lika viktigt som AI är de mänskliga kvaliteterna”. Dagens PS TV
”Energiförbrukningen är inte hög om man jämför med att använda vanliga apparater, värma eller kyla ditt hem, samt köra bil”, säger Joshua You från Epoch AI i en kommentar till Techcrunch.
Samtidigt konstaterar Internationella energirådet (IEA) att transportsektorn är en av de största utsläppskällorna globalt, medan datacenter står för cirka 1–1,5 procent av världens elförbrukning.

AI slukar planetens resurser – el, vatten och råvaror i fara
Bakom AI:s framgångar döljer sig en enorm resursförbrukning.

Journalist med fokus på näringsliv, ekonomi och internationella marknader.

Journalist med fokus på näringsliv, ekonomi och internationella marknader.