TL;DR
W Davos najważniejsi uczestnicy wprost mówią, że AI jest kapitałochłonna, energochłonna i danychłonna. To nie jest zabawka modeli językowych, tylko projekt infrastrukturalny na poziomie całych gospodarek.
Prawdziwy wyścig nie toczy się między OpenAI, Anthropic i kolejnymi startupami, ale między krajami i korporacjami o to, kto ma tanią, stabilną energię, dostęp do unikalnych danych i zdolność finansowania gigantycznego CAPEX‑u.
Najważniejsze informacje
- Christine Lagarde (EBC) określiła AI jako capital‑intensive, energy‑intensive, data‑intensive i wskazała, że stworzenie modelu „frontier class” to koszt rzędu miliarda USD – i to tylko początek rachunku.
- Larry Fink (BlackRock) ostrzega, że jeśli Zachód nie zbuduje odpowiedniej skali w zakresie energii i danych, Chiny mogą wygrać wyścig AI dzięki większej populacji i luźniejszym regulacjom prywatności.
- Według IEA centra danych już dziś pochłaniają kilka procent globalnego zużycia energii elektrycznej, a ich zapotrzebowanie może się nawet podwoić do 2030 r., m.in. przez generatywną AI.
- Dane (transakcyjne, medyczne, przemysłowe, logistyczne) stają się ropą XXI wieku, ale o jeszcze wyższej wrażliwości regulacyjnej i geopolitycznej.
- Dla inwestora kluczowe jest przeniesienie uwagi z „czyj model ma więcej parametrów” na pytania: kto kontroluje energię, dane i kapitał, czyli faktyczne źródła trwałej przewagi w AI.
AI W OCZACH LAGARDE: PROJEKT, KTÓRY POŻERA KAPITAŁ, ENERGIĘ I DANE
Christine Lagarde, prezes Europejskiego Banku Centralnego, w Davos nie mówi o AI jak o inspirującym gadżecie, ale jak o mega‑projekcie infrastrukturalnym. W kilku zdaniach podsumowuje naturę współczesnej sztucznej inteligencji:
- po pierwsze – jest kapitałochłonna: wymaga olbrzymich nakładów inwestycyjnych, zarówno na hardware, jak i na infrastrukturę centrów danych,
- po drugie – jest energochłonna: każdy trening i inferencja dużych modeli to znaczące zużycie energii,
- po trzecie – jest danychłonna: bez ogromnych, często wrażliwych zbiorów danych, nie da się budować modeli mających realną przewagę.
Lagarde wspomina, że stworzenie jednego modelu klasy „frontier” (czyli absolutnie czołowego) to koszt rzędu miliarda USD.
Szacunki niezależnych zespołów badawczych, takich jak Epoch AI czy SemiAnalysis, dla modeli pokroju GPT‑4 wskazują koszty treningu liczone w setkach milionów USD przy obecnych cenach GPU i energii, a przy kolejnych generacjach mówimy z dużym prawdopodobieństwem właśnie o skali 1 mld USD i więcej [raport techniczny nt. kosztów treningu LLM].
To jednak dopiero bilet wstępu:
- do tego dochodzą koszty zakupu i utrzymania tysięcy lub dziesiątek tysięcy GPU/TPU,
- koszty budowy i chłodzenia centrów danych,
- wynagrodzenia całych zespołów inżynierskich, data scientistów,
- specjalistów ds. bezpieczeństwa, compliance,
- koszty ciągłego utrzymania modeli, retreningów, monitoringu i rozwoju.
AI – w wersji, o której mówi się w Davos – to zatem nie jest „software za darmo w chmurze”, ale wieloletni, ciężki projekt kapitałowy, który musi konkurować o zasoby z innymi wyzwaniami (transformacja energetyczna, infrastruktura, obrona, zdrowie).
PEŁNY RACHUNEK: 1 MLD USD ZA MODEL TO TYLKO POCZĄTEK
Publiczna debata często zatrzymuje się na nagłówkach typu: „model X kosztował miliard dolarów”. Tymczasem: koszt treningu modelu to jednorazowy, choć duży wydatek, infrastruktura i operacja to koszty trwałe.
Według danych branżowych:
- cena pojedynczego układu GPU klasy NVIDIA H100 czy jego następcy B100 to dziesiątki tysięcy USD za sztukę [raporty SemiAnalysis / firmowych prezentacji NVIDII],
- średniej wielkości farma GPU do treningu dużych modeli to tysiące takich układów – czyli setki milionów USD w samym hardware,
- duże centra danych to inwestycje liczona w setkach milionów do ponad miliarda USD na obiekt (dane operatorów jak Equinix, Digital Realty, raporty Synergy Research Group).
Do tego dochodzą koszty energii:
- Międzynarodowa Agencja Energetyczna (IEA) szacowała, że centra danych już w 2022 r. zużywały ok. 1–1,3% globalnej energii elektrycznej, a niektóre szacunki wliczające infrastrukturę sieciową mówiły o kilku procentach [IEA „Data Centres and Data Transmission Networks”],
- z powodu rosnącej popularności generatywnej AI IEA prognozuje, że zapotrzebowanie na energię ze strony centrów danych może się podwoić do 2030 r., przy braku zmian technologicznych i regulacyjnych.
Rachunek, który rysuje się w tle, brzmi następująco:
Każda fala nowych modeli AI to nowy cykl gigantycznego CAPEX‑u,który musi zostać sfinansowany przez czyjś bilans:korporacji, inwestorów, państwa – albo wszystkich jednocześnie.
FINK: „JEŚLI ZACHÓD SIĘ NIE ZESKALUJE, CHINY WYGRAJĄ”
Larry Fink wnosi do tej układanki wymiar geopolityczny. W jego narracji, Zachód (USA, Europa) ma: bardziej rozbudowane regulacje ochrony danych, silne naciski społeczne na prywatność, rozproszoną architekturę prawną (UE, USA, poszczególne kraje),
Chiny mają: ogromną populację, mniejszą wrażliwość polityczną na prywatność indywidualną, centralnie sterowaną strategię rozwoju AI i cyfrowej gospodarki.
Jeśli Zachód: nie zbuduje wystarczającej skali w infrastrukturze danych, energii i AI, a każdy kraj będzie próbował „robić swoje”, ograniczając przepływy danych nadmiernymi i niespójnymi regulacjami, to – jak sugeruje Fink – istnieje realne ryzyko, że Chiny wygrają wyścig AI właśnie dzięki przewadze: w wolumenie danych, w możliwości ich wykorzystania, w budowie zcentralizowanej infrastruktury.
To stawia AI nie tylko jako projekt biznesowy, ale jako asset strategiczny.
Kto dominuje w AI, ten ma większą władzę nad:
- łańcuchami wartości w gospodarce,
- infrastrukturą cyfrową,
- narzędziami nadzoru i kontroli.
DANE JAKO ROPA XXI WIEKU – ALE Z WIĘKSZĄ WRAŻLIWOŚCIĄ
W Davos pojawia się też wątek danych jako kluczowego zasobu. Lagarde podkreśla, że AI jest data‑intensive i że nadmierne bariery w przepływie danych mogą utrudnić rozwój modeli i rozprzestrzenianie się korzyści.
Można to ująć tak: dane transakcyjne (płatnicze, konsumenckie), dane medyczne, dane przemysłowe (IoT, sensory), dane logistyczne i geolokalizacyjne, są nową ropą, ale o cechach, które czynią ją jeszcze bardziej wrażliwą: są ściśle powiązane z prywatnością i prawami człowieka, są strategiczne dla bezpieczeństwa narodowego, mają wartość zarówno gospodarczą, jak i polityczno‑wywiadowczą.
Instytucje takie jak IDC prognozują, że globalna ilość generowanych danych (tzw. datasphere) sięgnie kilkuset zettabajtów do 2025–2030 r. [raport „Data Age 2025”], co pokazuje, że: potencjał AI nie zależy od „dostępności danych w ogóle”, tylko od tego, kto ma prawo, zasoby i infrastrukturę, by te dane efektywnie wykorzystać.
Tu rodzi się napięcie: zbyt restrykcyjne prawo (RODO++, lokalne siloizowanie danych) – hamuje rozwój modeli, zbyt luźne podejście – tworzy ryzyko nadużyć i utraty zaufania społecznego.
W praktyce wygrywają ci, którzy: mają własne, legalne, unikalne zbiory danych, potrafią zbudować z nich przewagę, i są w stanie utrzymać zaufanie regulatorów i użytkowników.
ENERGIA: AI JAKO NOWY „KRAJ PRZEMYSŁOWY” NA MAPIE ZUŻYCIA PRĄDU
Energia jest drugim, często niedocenianym filarem tej układanki. Przy obecnym stanie technologii:
- trening dużych modeli to setki megawatogodzin energii,
- obsługa użytkowników (inferencja) to ciągłe zużycie energii w centrach danych,
- chłodzenie (systemy HVAC, liquid cooling) to kolejne gigawatogodziny.
IEA w raportach o centrach danych i sieciach transmisyjnych wskazuje, że:
- centra danych w 2022 r. zużywały ok. 220–320 TWh energii elektrycznej rocznie,
- co odpowiada kilku procentom globalnego zużycia energii elektrycznej,
- przy uwzględnieniu szybkiego wzrostu AI to zużycie może sięgnąć znacznie wyższego udziału do 2030 r., jeśli nie nastąpią przełomy technologiczne i regulacyjne [IEA, „Electricity 2024” i „Data Centres and Data Transmission Networks”].
Dla państw i firm to rodzi konkretne konsekwencje:
- budowa dużych kampusów AI wymaga dostępu do stabilnych, dużych mocy energetycznych – często rzędu setek megawatów,
- to z kolei wymaga:inwestycji w sieci przesyłowe i dystrybucyjne,często nowych elektrowni lub modernizacji istniejących,rozwiązań niskoemisyjnych, by zmieścić się w celach klimatycznych.
W tym sensie: przewagę w AI będą miały te kraje i firmy, które łączą tanią, stabilną energię z przyjaznym, ale stabilnym otoczeniem regulacyjnym.
To podnosi atrakcyjność: energetyki jądrowej (w tym SMR), regionów z nadwyżkami „czystej” energii, spółek infrastrukturalnych nastawionych na zasilanie centrów danych.
DLACZEGO SKUPIENIE SIĘ NA „BITWIE MODELI” JEST MYLĄCE DLA INWESTORA
Jeśli śledzisz media, większość uwagi skupia się na pytaniach:
- „czyj model ma więcej parametrów?”,
- „kto ma lepsze benchmarki?”,
- „czy OpenAI wygra z Anthropic, czy może z Big Tech?”.
Z punktu widzenia długoterminowego inwestora to jest niemal wyłącznie warstwa szumu:
- modele podlegają szybkim iteracjom i zmianom,
- to, co jest „najlepsze” dziś, może zostać przeskoczone w ciągu roku lub dwóch,
- same benchmarki nie mówią wiele o trwałości przewag ekonomicznych.
Znaczenie mają inne pytania:
- kto ma najniższy długoterminowy koszt kapitału (dostęp do finansowania),
- kto ma najtańszą i najpewniejszą energię,
- kto ma najbardziej „klejące się” i unikalne dane (np. z systemów płatniczych, służby zdrowia, przemysłu),
- kto ma własny biznes, tworzący “platformę bazową” dla implementacji AI
- kto potrafi z AI zrobić narzędzie do poprawy marż, a nie tylko marketing.
W długim horyzoncie: zwycięzcami nie będą ci, którzy mają „ładniejsze demo modelu”,tylko ci, którzy panują nad infrastrukturą: energią, danymi, kapitałem i regulacją.
CO Z TEGO WYNIKA DLA BUDOWY PORTFELA W STYLU MPB?
Zamiast koncentrować się na pytaniu „która spółka AI‑pure‑play urośnie 50x”, warto przenieść uwagę na kilka bardziej podstawowych wektorów.
Wyścig AI zwiększa popyt na: energię elektryczną, modernizację sieci przesyłowych, nowe moce wytwórcze.
- spółki energetyczne z niskimi kosztami produkcji i planami rozbudowy mocy,
- firmy infrastrukturalne (linie przesyłowe, operatorzy sieci, magazyny energii),
- gracze rozwijający energetykę jądrową i stabilne OZE, które rzeczywiście są w stanie dostarczyć bazową moc.
Właściciele unikalnych danych
Trwałą przewagę w AI będą miały podmioty, które dysponują:
- danymi transakcyjnymi (sieci kart płatniczych, banki, fintechy),
- danymi medycznymi (szpitale, laboratoria diagnostyczne, firmy biotechnologiczne),
- danymi przemysłowymi (operatorzy platform IoT, producenci maszyn, firmy logistyczne),
- danymi infrastrukturalnymi (telekomy, operatorzy chmur, platformy komunikacyjne).
Inwestycyjnie oznacza to, szukanie spółek, które: nie tylko „korzystają z AI”, ale mają niezastąpione zbiory danych i prawo do ich użycia, oraz zrozumienie, gdzie dane są naprawdę „kluczem do zamka”, a gdzie tylko hasłem marketingowym.
Dostęp do kapitału i koszt finansowania
Wreszcie, skala i długotrwałość inwestycji AI sprawia, że wygrywać będą także ci, którzy:
- mają tani dostęp do finansowania (wysoka wiarygodność kredytowa, duża kapitalizacja),
- są w stanie dźwignąć miliardowe programy CAPEX bez ryzyka utraty płynności.
- duzi gracze (Big Tech, globalni zarządcy aktywów, wielkie instytucje finansowe) mają strukturalną przewagę nad mniejszymi startupami – te ostatnie mogą być atrakcyjnymi opcjami, ale są bardziej zależne od cyklu kapitałowego.
- cashflow będzie miał o niebo większe znaczenie niż większość innych metryk!