Máris trükköznek az AI-óriások, csak több áramuk legyen

Mennyit fogyaszt ma egy adatközpont? Miért fordultak az IT-óriások az atomenergia felé? Mennyivel drágul az áram, és mi a tétje annak, hogy ki lesz az AI-szuperhatalom? – csak néhány kérdés, amely eddig kimaradt az utóbbi időszak nagy gigatechcéges bejelentéseiből. Megpróbáljuk ezeket is, a válaszokat is pótolni.

Az utóbbi hónapokban több IT-technológiai óriáscég bejelentette, hogy atomerőművek segítségével kívánják kezelni mesterségesintelligencia- (AI) fejlesztéseik egyre növekvő áramfogyasztását. Legutóbb a Google megállapodása került a hírekbe, amely hasonlóan nagy feltűnést keltett, mint egy hónappal ezelőtt a Microsofté. A kommentárok jelentős része el is könyvelte, hogy a nukleáris ipar, új és régi atomerőművek oldják majd meg a ChatGPT és társai mind szélesebb körű használatát, noha ezzel a két szerződéssel kapcsolatban (ahogyan az Amazon tavaszi bevásárlásával kapcsolatban is) fontos részletek maradtak homályban.

A részletes magyarázatok előtt érdemes rögzíteni a globális képben, hogy az adatközpontok (data centerek) áramfogyasztási igényei AI- és nem AI-célúak lehetnek (van, aki külön számolja a kriptovaluták igényét; ez 2022-ben Hollandia áramfogyasztásával – 110 TWh– volt azonos szintű). Ám az AI olyan mértékben mászik majd bele a mindennapokba, hogy a data centerek áramigény-növekedésének zömét a prognózisok szerint szinte a mesterséges intelligencia zabálja fel. Az adatközpontok pillanatnyi teljesítményigénye az alig 40 TW-ról 2026-ra úgy ugrik majd fel 96 TW-ra (2028-ra pedig 140-re), hogy e növekmény mögött szinte csak az AI-áramfogyasztás növekedése áll.

Az adatközpontok már most is a világ legnagyobb energiafogyasztói; egy ilyen épület képes akár ötvenszer annyi energiát elfogyasztani, mint egy ugyanolyan alapterületű irodaház. Ami most következik, az a Data Center Knowledge szerint a digitális forradalom egyik, ha nem a legfontosabb alapkövetelménye: működésben kell tartani az egyre nagyobb méretű és egyre többet fogyasztó adatközpontokat.

Mennyit fogyaszt egy adatközpont? És holnap?

A data centerek energiafogyasztása a létesítmény méretétől és a telepített berendezések hatékonyságától függ. Egy öt–húszezer négyzetméteres, kis adatközpontban általában ötszáz–kétezer szerver dolgozik, ami 1–5 MW villamosenergia-betáplálást kíván, a több tízezer szerverrel üzemelő, hiperméretű adatközpontok viszont akár 100 MW áramot is fogyaszthatnak. A világban ma mintegy tizenegyezer data center van, ennek több mint 45 százaléka az Egyesült Államokban, 15 százaléka Európában található.

A brutális áramigény másik oldala, hogy a digitális játékok, berendezések, eszközök és rendszerek, amelyek csatlakoznak az internethez, hatalmas mennyiségű kezelendő adatot hoznak létre: már több mint kétszázmilliárd a csatlakoztatott eszközök száma. A Danfoss mérnöki számításai szerint 2025-re a fejlett világban minden ember 18 másodpercenként legalább egyszer kölcsönhatásba lép egy adatközponttal. Ezt bírni kell energiával – úgy, hogy az egyre terjedő AI-alkalmazások nemcsak a korábbinál több adatot generálnak, de több adattárolási kapacitást, több áramot is igényelnek. A Nemzetközi Energiaügynökségnél (IAE) kiszámolták, hogy egy ChatGPT-lekérdezés feldolgozásához átlagosan 2,9 Wh szükséges, ami nagyjából tízszerese egy klasszikus Google-keresési igénynek. Ebből az IAE-nél azt valószínűsítik, hogy a 2022-ben 460 TWh villamos energiát fogyasztó adatközpontok 2026-ban akár 1000 TWh feletti árammennyiségre is szomjazhatnak. (Csak a miheztartás végett: ekkor Magyarország teljes éves áramtermelése 33,5 TWh, fogyasztása pedig 46-47 TWh lesz. Az Egyesült Államok villamosenergia-termelése 2022-ben 4065 TWh , Kínáé pedig 8400 TWh volt.)

Data center
A definíció szerint az adatközpont egy olyan központi fizikai létesítmény, amely tárolja az egyének, vállalkozások, szervezetek kritikus alkalmazásait és adatait, az a hely, ahol számítástechnikai és hálózati berendezéseket (nagy teljesítményű számítógépeket, óriási memóriamennyiséget, nagy tömegben szervereket, nagy sávszélességű hálózati kapacitást stb.) használnak adatok gyűjtésére, feldolgozására és tárolására, illetve erőforrás-elosztására. Mivel a világ digitalizálódik, a data centerek szinte minden üzleti és személyes interakcióhoz szükségessé váltak – egy egyszerű telefonáláshoz éppúgy, mint kriptobányászathoz vagy a ChatGPT és társai publikus vagy nem publikus használatához. Egyre több adat és információ kapcsolódik privát, céges és szervezeti életünkhöz, amelyeket olyan, akár több ezer szervernek helyet adó adatközpontokban tárolnak, amelyek a legkülönbözőbb kommunikációs hálózatokhoz csatlakoznak. Az IDC Data Age 2025 dokumentuma szerint 2018 és 2025 között megtízszereződik a használt adatmennyiségünk. Ha valaki megpróbálná letölteni a 175 – más prognózisok szerint akár 180 – zetabájtnyi adatot átlagos internetkapcsolaton keresztül, 1,8 milliárd évig tartana. Ezt az adatmennyiséget képesek pontosan kezelni a data centerek.

Mit ígér és mire hajt valójában a Google?

Sok hír megjelent a hónap közepén bejelentett Google–Kairos Power-megállapodásról. A pontosság miatt azonban érdemes jelezni: nem mini-atomerőművet épít a keresőóriás. Amit a felek aláírtak, az egy úgynevezett Master Plan Development, vagyis fejlesztési-támogatási főterv, amely alapján a Google 2030-ig támogatja a Kairost abban, hogy a következő évtizedre megépítse az első működő, termelni képes SMR-jét. Ha sikerül, akkor a felek 2035-ig egy 500 MW összteljesítményű atomerőműviáram-vásárlási megállapodással folytatják a közös munkát úgy, hogy a Kairos Power egy sor SMR-telepet létesít, és az áramszolgáltatáson túl „kiegészítő szolgáltatásokat és környezetvédelmi attribútumokat ad el” a Google-nak.

Az 500 MW teljesítményméret nem túl sok (lényegében egy paksi blokk tudása) ahhoz képest, hogy Google 2010 óta több mint száz, hasonlóan szén-dioxid-kibocsátás-mentességről szóló szerződést írt alá, amelyek 14 GW teljesítményszintig értek fel. A 2030-as dátum viszont azt is jelenti, hogy a keresőóriásnak – ha korábban bejelentett terveit betartva 2030-ra el akar jutni a nettó zéró kibocsátásig – ezt a Kairos Power nélkül kell megtennie.

Egyelőre biztos, hogy a Kairos Power bemutató (demó) reaktorának, a Hermesnek otthont adó tennesseei épületet idén nyár végén kezdték el építeni, miután a projektnek tavaly decemberben zöld utat adott az amerikai szövetségi regulátor (NRC). Bár a Kairos Power SMR-projektje nem olyan ismert, mint Bill Gates TerraPowerje, de megtalálható a két éve megjelent, a világ összes fontos moduláris miniatomerőmű-beruházását listázó és elemző Energiaklub-tanulmányban is. Igaz, akkor még 2026-ra ígérték az üzembe állását.

A Kairosról a Technology Review nemrég azt írta: a cég megpróbálja újra feltalálni az atomenergiát. (A 2016 óta táplált vízió az Ukrajna elleni orosz háború farvizén azzal szembesült, hogy speciálisan dúsított üzemanyagát már nem tudja beszerezni Oroszországból, ezért a meglévő feladatok mellett az alternatív uránbányászati és -dúsítási ellátási láncok kiépítését is meg kell oldania. Jelenleg úgy áll, hogy az új-mexikói Albuquerque-ben építhető meg a sógyártó létesítmény.) Ráadásul a Hermes termelési csúcsa (35 MW) hőben értendő, villamos energiát majd csak a Hermes 2-vel termelnek, a tervek szerint 28 MW-ot. Ebből a méretből a Google által bejelentett 500 MW – amit hat-hét reaktorból vásárolnának – egyelőre nem jön ki. A projekt ígéretességét azonban így is jelzi két tétel: egyrészt a szövetségi energetikai minisztérium (DOE) beszállt az aktuálisan 629 millió dolláros büdzsébe, másrészt a Kairos Power projektjét idén beválogatták az MIT tizenöt legígéretesebb klímatechnológiai elképzelései közé. Ez azt jelenti, hogy a Hermes egy polcra került a LanzaJet nem fosszilis üzemanyagának fejlesztésével, a Solugen dextrózcukor-alapú vegyipar-dekarbonizációs missziójával és a Rumin8 tehenek metánkibocsátását csökkentő étrendkiegészítő-fejlesztéseivel. A forradalminak is nevezhető projekteknek közös nevezőjük, hogy egyelőre mind ígéretek, amelyek 2026-ra, 2030-ra vagy későbbre lesznek piacképesek – feltéve, hogy minden a menetrend szerint halad. Így is ott a legfontosabb kérdés: megváltják-e majd a világot e termékek?

Suszter a kaptafánál
Szakmai körítéssel magyarázta a napokban Aszódi Attila a Google SMR-projektes beruházásának hírét. Az egykori szakpolitikus (paksi bővítési kormánymegbízott, majd helyettes államtitkár) alapos és kimerítő leírást adott a sóolvadékos reaktor (MSR) elvi működéséről és az új típusú üzemanyag összetételéről is, ám a Portfolióban közölt írásban néhány pontosítandó állítás is van. Az talán véletlen, hogy az amerikai történetet a kínai mini-atomerőmű (Linglong One) építésének egyik promóciós képével illusztrálták, az már nem, hogy Aszódi írása elején feltette azt a régi lemezt, hogy a rendszernek (értsd: a techóriások adatközpontjaihoz is) azért kell az atomerőmű, mert a nap- és szélenergiával ellátott szerverfarmok számára amúgy nem lehetséges a zsinórtermelés (vagyis télen-nyáron 0–24 órában, heti hét napon át nyújtott egyenletes villamosenergia-teljesítmény biztosítása). Eltekintve attól, hogy ezt sosem állították az időjárásfüggő, zöldenergiás energiatermelők, a pontossághoz tartozik, hogy az „erős technológiai korlátba ütközik” kitétel az atomerőművek esetében is igaz.

Erre a Paksi Atomerőmű szolgáltat egészen friss példát: az Aszódi cikkének megjelenése előtti napokban le kellett állítani a Paks 3. blokkot, pedig szeptember végén fejeződött csak be az egység nagyjavítása, karbantartása és üzemanyag-feltöltése, ami után tizennyolc hónapon át folyamatosan termelnie kellett volna. Elvileg. A három másik reaktor teljesítési maximuma közelében termel, így az is láthatóvá vált, hogy a Paks 3. tizenöt hónapra szóló zsinórtermeléséből első nekifutásra csak huszonöt nap lett. Október 22-én a Paks 1. reaktor is aláhúzta a fenti állítást – gépészeti hiba miatt feleződött a hálózatra jutó teljesítménye. Ez a blokk tavaly év végén kapta meg a szükséges nagykarbantartást és javítást, és ezt követően rá is 18 hónap állandó robotolás várt. A Paks 1. azonban nem most, az újraindítás után tíz hónappal botlott először – márciusban egyszer már fejre állt.

A Google vagy más áramfüggő AI-rendszerek biztosan nem tudják tolerálni az ilyen kockázatokat. Marad a tartalék-, illetve túlbiztosítás – az, hogy az atomerőmű mögé is éppúgy oda kell tenni azokat az energiatároló rendszereket (akkumulátorok, zöldhidrogén, lendkerék, betonhő stb.), amelyeket a szél- és a naperőművek is igényelnek, s amelyekről az olcsó zsinóráram ígérete miatt az IT-óriások kevesebbet beszélnek mostanában.

Mesterséges Microsoft-, Amazon-intelligencia

A Microsoft szerződése ennél lényegesen egyszerűbbnek látszik elsőre. Az öt éve leállított nagyreaktoros atomerőmű újraindításának ötletével találta meg a redmondi központú techóriás a híres-hírhedt Three Mile Island aktuális tulajdonosát. A Constellation Energyvel aláírt tervről és szerződésről korábban részletesen megírtuk, hogy mennyi probléma forrása, és hogy az újraengedélyezés és visszaalakítás-fejlesztés költségei mellett az is központi kérdéssé válik majd, hogy az erőmű és az adatközpont között elképzelt, állandó 815 MW-os áramteljesítmény szállítása és garantálása milyen hálózatfejlesztési, szabályozási és biztonsági feladatokat jelent – és ezt adott esetben kinek kell majd finanszíroznia.

Az Amazon Web Service (AWS) bevásárlásának híre még márciusban szivárgott ki, igaz, az ügyletből akkor nem lett probléma. E megállapodás szerint az Amazon felhőszolgáltatója Pennsylvaniában felvásárolja a Talen Energy adatközpontját, amely a 2042-ig (illetve a másik blokk 2044-ig) működési engedéllyel rendelkező Susquehanna atomerőműből kapja a működéséhez szükséges villamos energiát. A 650 millió dolláros üzlet egyik sarokpontja volt, hogy az AWS 300 MW termelési kapacitást vásárol a Salem Townshipben üzemelő nukleáris erőműben. Ügy akkor lett a szerződésből, amikor az Amazon 300-ról 480 MW-ra akarta növelni a teljesítményméretét. Az Exelon és AEP, a két közüzemi óriáscég tiltakozott a szövetségi energiaszabályozási hatóságnál (FERC) amiatt, hogy az AWS jelentősen megdrágítja Pennsylvania, New Jersey és más államok lakosainak áramszámláját. A FERC egy korábbi biztosa, Tony Clark úgy magyarázta el az IEEE Spectrumnak a problémát, hogy az atomerőművel közvetlenül összekapcsolt adatközpontok így nem fizetnek bizonyos energiaszolgáltatási tételeket, de az erőmű termeléséből lecsípnek – lám: egyre nagyobb – tételeket. „Bemennek a mérőműszer mögé, és kivonnak olyan kapacitásokat a hálózatból, amelyeknek amúgy a fogyasztókat, minden ügyfelet kellene kiszolgálnia” – mondta. A helyzetet tovább bonyolítja, hogy az AWS célja valójában egy legalább 960 MW-os adatközpont kiépítése, így a jelenleg is vizsgálat alatt álló ügyben születő regulátori döntés precedensértékű lesz.

Az energiaéhség állandósul

Az informatikai és technológiai óriáscégek atomerőműves áramvásárlási szerződéseivel kapcsolatban azonban Paksnál és az SMR-eknél is tágabb összefüggéseket kell meglátni. A félvezető- és mesterségesintelligencia-iparra szakosodott SemiAnalysis elemzése az AI, az adatközpontok és az energetikai függés dilemmájáról szól. A független kutató-elemző cég prognózisa részletes műszaki és energetikai rendszerismertetést és levezetést is tartalmaz, de végeredményben arra keresi a választ, hogy az AI térhódítása tönkreteszi-e a környezetet.

Az AI-technológiák iránt megugró érdeklődés gyorsan az adatközpontok kapacitáshiányához és rendkívüli leterheltségéhez vezet, ami pedig állandósuló energiaéhséget generál. A kutatók keresték azokat a pontokat, ahol az AI keltette energetikai láncreakcióban kialakulhat valamilyen szűk keresztmetszet (például földrajzi és regionális értelemben, a rendszerben használt hardvereket illetően, illetve a nem csak az AI-fejlesztések tempóját meghatározó GPU-k [grafikai processzor, gyorsítócsip] mennyiségét és minőségét, plusz az áramhálózati generátorok, transzformátorok stb. függvényét), és azt is, hogy mivel lennének kezelhetők ezek a helyzetek.

A SemiAnalysis AI-dilemma-elemzése szerint abból, hogy öt-hat havonta megtízszereződik a mesterséges intelligencia számítási mérete, igen gyorsan az elegendő árammennyiség beszerezhetősége válik a legfontosabb fejlődési korláttá. A cikk szerint már jövőre sor kerül az első ilyen helyzetre, vagyis arra, hogy valahol a világban nem találnak majd elegendő áramot az adatközpontok összes csipjének működtetéséhez. Az csupán részletkérdés, hogy az első áramhiányos helyzetre Szaúd-Arábiában, Dél-Afrikában, az Egyesült Államokban, Európában vagy Tajvanon kerül sor, mivel a jelenség mindenhol, ahol a fizikai infrastruktúra eléri a határait, gyakorivá válhat. Az IEA jelentése év elején még azt közölte, hogy 2026-ban az AI éves áramtöbbletigénye átlépi a 10 TWh-t, októberben a SemiAnalysisnél viszont a piaci adatokból és bejelentésekből az tűnt valószínűbbnek, hogy már 2025 elején átlépjük ezt a szintet.

Megint más összefüggések és számok szerepelnek az iparági sajtóban szintén gyakran hivatkozott harmadik tanulmányban, amelyet a Huawei svédországi fejlesztőközpontjában írtak, és még 2015-ben jelent meg. A modellezés szerint 2030-ra az adatközpontok összesen 7933 TWh áramot fogyaszthatnak majd, elszívva a globális villamosenergia-termelés majdnem negyedét. A SemiAnalysis modellezése szerint ez az Armageddon-prognózis durván túlzó; az egyes adatszerveregységek áramfogyasztásáig aprólékosan újraszámolt előrejelzésük alapján a következő évtized elejére az AI nem az árammix 24 százalékát fogja felzabálni, csupán a 4,5 százalékát.

A következő évek AI-áramfogyasztása a három modellszámítás szerint így néz majd ki:

Teljesen más dimenzióban számolt a Goldman Sachs, ahol az jött ki, hogy a következő tíz évben Európa energiaigénye akár ötven százalékkal is növekedhet – jellemzően amiatt, hogy a világ adatközpontjainak mintegy tizenöt százaléka itt található; ezeket bővíteni kell, és ellátni árammal.

Kockázatok nélkül lenne rá szükség

A gyakorlatban az e növekmények teljesítéséhez szükséges pluszkapacitások kiépítése egyáltalán nem egyszerű. A valóságban a termelési pluszok kiépítése szinte soha nem zökkenőmentes; a jelenlegi, egy százalék körüli árammixarányról 2030-ra 4,5-re ugrás azt jelenti, hogy a következő öt évben brutális növekedési igényt kellene kielégíteni.

A közelgő villamosenergiaigény-vákuumot így érdemes azon a prizmán keresztül vizsgálni, hogy a Microsoft, a Google és az Amazon atomerőművekkel kapcsolatos bejelentései mind 2030-hoz, illetve az ezt követő évekhez kapcsolódnak, ami azt is jelenthetné, hogy e technológiai óriások az évtized végéig kikövezték maguk előtt az utat, de azt is, hogy a 2030-as évekre már nem látnak más lehetőséget hiperugró rendszereik ellátásának biztosítására, mint a nukleáris energia beemelését. Utóbbi esetében azonban biztosra kell menniük – és épp ez jelenti a legnagyobb kockázatot. Lehet-e ezekre az atomerőművekre támaszkodni a kijelölt időpontokban? Az áramigény-növekmény biztosan jelentkezik, és ennél csak az biztosabb, hogy a nevezett cégek (plusz a Meta, illetve mellette a kínai, szingapúri, ausztrál stb. data centerek tulajdonosai és üzemeltetői) éppen az energiaellátást illetően nem vállalhatnak kockázatot. Szó sem lehet késésről vagy várakoztatott megfelelésről – márpedig éppen ez az, amit a nukleáris ipar eddig sosem tudott biztosítani. További kockázatot jelent, hogy pótolni kell az atomerőművek hirtelen leállását, termeléskiesését, ergo oda kell tenni a data centerek mögé az akkumulátorpakkot, a hidrogénfarmot (vagy más, akár konvencionális erőművi kapacitást), mivel akár egyetlen perces leállás is jelentős, akár vagyonméretű veszteséget eredményezhet.

További problémát okozhat, ha nagyobb távolságról, nem privát hálózaton kell eljuttatni a villamos energiát a data centerekhez. Ez ügyben Dél-Afrikában került először terítékre a kérdés, hogy a közüzemi hálózaton lehet-e fontosabb az AI etetése más fogyasztókénál. A National Data and Cloud Policy szerint nem; a Kommunikációs és Digitális Technológiák Minisztériumának irányelve ugyanis rögzíti, hogy az ilyen energiaigényeket függetleníteni kell a hálózatoktól, és az adatközpontoknak át kell állniuk az energetikai önellátásra. Magyarázatul két indokot adtak meg.

Az egyik, hogy az eddig ismert hálózatfejlesztési tervek lakossági, közüzemi és ipari igényekre készültek, s mint ilyenek, nem igazán alkalmasak arra, hogy mind nagyobb sávszélességben 0–24 órában data centereket szolgáljanak ki fennakadás nélkül. A másik ok az, hogy az energiaellátáshoz szükséges szállítóvezetékek hosszával bizonyosan nő az egyre fontosabbá váló adatközpontok sebezhetősége, és ezt így lehet kezelni a megfelelő szinten. „Tekintettel arra, hogy az adatközpontok a nap 24 órájában működnek, és hatalmas mennyiségű áramot fogyasztanak, előfordulhat, hogy nem elegendő a nemzeti hálózatra támaszkodni. Ezért kulcsfontosságú, hogy az adatközpontok tulajdonosai és üzemeltetői további alternatív energiaforrásokat alkalmazzanak az üzemzavarok megelőzése érdekében” – olvasható a jelentésben. A megoldási javaslat az, hogy az adatközpontok fejlesztési tervébe eleve kerüljön bele, hogy ezen infrastruktúrák az országos hálózatoktól mindinkább függetlenedve érhessék el a működésükhöz szükséges áram- és vízellátást.

Az EU-ból nem lesz AI-szuperhatalom

A tét ugyanis az, hogy kiből válik majd igazi AI-szuperhatalom. Ehhez ugyanis az AI-datacenter-iparban a következő feltételeket kell biztosítania az adott régiónak, országnak és/vagy vállalatnak:

  • olcsó, bőséges villamos energia, alacsony áramköltségek;
  • robosztus és stabil villamosenergia-ellátási lánc, amely kezeli a geopolitikai és időjárási zavarokat is;
  • gyorsan felpörgethető üzemanyag-termelési képesség a gyorsan növekvő igények biztosítására (hiperskálázás);
  • alacsony szén-dioxid-kibocsátású, hatalmas megújuló energiás termelőket befogadni képes árammix biztosítása.

A SemiAnalysis ez irányú összehasonlításaiból (csipigény, áramár, szén-dioxid-mennyiség, tőkebevonás nagysága stb.) két fontos megállapítás tehető. Egyrészt az a kép rajzolódik ki, hogy az eddig is toronymagasan vezető amerikai cégek – mint a Google, a Microsoft, a Meta, az Amazon Web Service és az Apple – rendelkeznek a legmeredekebb bővítési elképzelésekkel és tervekkel (ezek összességében a kritikus IT-kapacitások 2023-as szintjének triplázódását ígérik 2027-re), és ehhez képest a Huawei, a Baidu vagy az Oracle alig látszódik.

A másik levonható következtetés viszont az, hogy az energiaellátásra és karbonszennyezés-mentes (vagy legfeljebb alacsony karbonlábnyomú) plusz-termelőkapacitásokra, olcsó üzemanyagforrások felskálázhatóságára vetített költségeket illetően a jövőkép az Egyesült Államok több régiójában (Texas, Észak-Dakota stb.), de Kínában, Katarban és Szaúd-Arábiában is lényegesen kedvezőbb, mint Európában. Az Egyesült Államok a palagáznak köszönhetően önellátó földgázból, drasztikusan csökkentette az áramtermelési célú szénfelhasználást, és a helyébe – legalábbis eddig – szinte kizárólag megújuló energiát tudott becsatornázni. Az amerikai energetikai ellátási lánc robusztusságát az is aláhúzza, hogy további húsz évre elegendő tartalék van a rendszerben.

Mindez a szénfüggésről épp csak lejönni kezdő, de a földgáz felé fordulni csak korlátozottan tudó, a zöldenergia részarányának növelését erőltető Kínával szemben óriási előny, a globális adatközpont-állomány tizenöt százalékát üzemeltető Japán, Tajvan, Szingapúr, Dél-Korea kilencven százalék feletti szinten importált földgáz- és szénszükségleteihez képest pedig egy másik dimenzió. Az ez ügyben Nyugat-Európát jelentő EU-t ezzel szemben kötik a strukturális és a környezetvédelmi szabályok, és bár a régió szintén leszokóban van a szénről, a földgázt illetően óriási a kitettsége. Az EU az eddig számára kedvező paraméterben, a hatékonyabb energiafelhasználásban sem reménykedhet, mivel az adatközpontok – és általában véve az IT-ipar – energiafelhasználásának hatékonyságnövelése az utóbbi években eljutott a határig. (Az úgynevezett PUE-érték annál jobb, minél közelebb van az 1-hez. A data centerek PUE-értéke bő egy évtizede még jellemzően 2,2 körül volt, jelenleg már 1,55 alatt van, a legtöbb hiperskálájú adatközpont 1,4 PUE alá került, és eddig ez segített elkerülni az adatközpontok energiafogyasztásának drasztikus növekedését.)

Vannak lokális kivételek, de az írországi vagy az aktuális franciaországi helyzet nem általánosítható. Előbbi a tengeri szélenergiára, utóbbi az árammixben túlsúlyos atomenergiára támaszkodva tud olcsó áramot kínálni, de e lehetőségek a jövőt és főként a bővíthetőséget illetően korlátozottak.

Itt a következő fázis

Pedig most kezdődik versenyfutás korszaka az AI-fejlesztésekkel. Az Amazon október közepén bejelentette a következő fázist: három új szerződést kötött „nukleárisenergia-projektek fejlesztésének támogatására”; ezalatt több új kis moduláris reaktor (SMR) építését is értik. A konkrétumok kicsit elmaszatoltak maradtak ugyan, de annyi bizonyos, hogy a washingtoni Energy Northwest négy SMR kifejlesztését célzó projektjébe, az itt használni tervezett üzemanyagot fejlesztő X-energybe, illetve a virginiai Dominion Energy flottájába tartozó Nerth Anna atomerőmű mellett építhető, „legalább 300 MW teljesítményt” nyújtani képes SMR-építési tervekbe biztosan beszáll az AWS. A bejelentés a magasztos célt is megadta: a következő tizenöt évben 5 GW villamos energiát biztosítani képes atomenergiás termelőkapacitást fejlesszenek és telepítsenek „az ország energiaszükségleteinek kielégítésére”.