AI a ceny pamięci RAM – dlaczego RAM drożeje?

ai-a-ceny-pamieci-ram-dlaczego-ram-drozeje

Przez ostatnie dwa lata ceny pamięci RAM zachowują się inaczej niż wskazywałyby historyczne cykle rynkowe. Producenci chipów regularnie ogłaszają rekordowe zamówienia, a analitycy rynku półprzewodników wskazują na jeden wspólny mianownik: gwałtowną ekspansję infrastruktury sztucznej inteligencji. To nie przypadek, że ceny modułów DDR5 rosną w momencie, gdy każdy duży koncern technologiczny ściga się o moc obliczeniową do trenowania modeli językowych. Warto przyjrzeć się temu mechanizmowi bliżej.

Dlaczego serwery AI pochłaniają tyle pamięci RAM

Szkolenie dużego modelu językowego to operacja, która pod względem zapotrzebowania na pamięć nie przypomina niczego z poprzednich dekad informatyki. Model GPT-4 klasy wymaga dziesiątek terabajtów pamięci w czasie treningu — i to nie pamięci masowej, ale szybkiej pamięci operacyjnej dostępnej z minimalnym opóźnieniem. Każdy węzeł obliczeniowy w klastrze AI musi jednocześnie obsługiwać miliardy parametrów, a przepustowość pamięci staje się wąskim gardłem, które decyduje o tempie uczenia się sieci.

Standardowy serwer przeznaczony do wnioskowania (inference) dla modeli AI instaluje dziś od 1 do 4 TB pamięci RAM w architekturze NUMA. Dla porównania, wysokiej klasy serwer bazodanowy sprzed pięciu lat zadowalał się 256–512 GB. Wzrost jest sześcio- do ośmiokrotny, a liczba instalowanych serwerów AI rośnie co kwartał.

Jak HBM i DDR5 napędzają popyt w segmencie profesjonalnym

Procesory graficzne używane do trenowania modeli AI, takie jak NVIDIA H100 czy AMD MI300X, zawierają pamięć HBM (High Bandwidth Memory) bezpośrednio na pakiecie. Jednak same GPU nie działają w próżni — każdy akcelerator musi współpracować z CPU wyposażonym w pojemną pamięć systemową DDR5. W klastrze z tysiącem GPU oznacza to tysiące serwerów, każdy z konfiguracją przekraczającą 1 TB RAM.

Popyt na HBM jest tak duży, że SK Hynix, Samsung i Micron przeznaczają coraz większe moce produkcyjne właśnie na ten segment. Produkcja HBM wymaga innych linii litograficznych niż standardowe moduły DIMM, co bezpośrednio ogranicza dostępność i zwykłej pamięci DDR5 dla rynku konsumenckiego.

Efekt wypierania na rynku konsumenckim

Zakłady produkcyjne dysponują ograniczoną przepustowością litograficzną i możliwościami pakietowania chipów. Kiedy hyperscalerzy — Amazon Web Services, Microsoft Azure, Google Cloud i Meta — składają zamówienia na setki tysięcy zestawów serwerowych miesięcznie, priorytetyzacja tych zleceń przez producentów jest ekonomicznie oczywista. Marże na komponentach serwerowych klasy HBM4 są kilkukrotnie wyższe niż na modułach konsumenckich DDR5. Sprawdź również: Zdolność kredytowa – czym jest i od czego zależy?.

Efekt jest następujący: moce produkcyjne wędrują tam, gdzie marże są wyższe, co zmniejsza dostępność tańszych modułów konsumenckich i winduje ich ceny. Nie jest to zmowa cenowa — to zwykła ekonomia alokacji zasobów.

Cykl cenowy pamięci RAM a infrastruktura centrum danych

Rynek pamięci RAM tradycyjnie poruszał się w wyraźnych cyklach trwających 3–5 lat: faza oversupply (nadprodukcji) obniżała ceny do poziomów bliskich kosztom wytwarzania, po czym konsolidacja i ograniczenie inwestycji prowadziły do niedoborów i skokowego wzrostu cen. Ten mechanizm działał przewidywalnie przez całe lata 90. i pierwsze dwie dekady XXI wieku.

Sztuczna inteligencja zaburzyła ten rytm. Popyt ze strony centrów danych przestał reagować elastycznie na zmiany cen — dla firmy budującej klaster AI za miliard dolarów koszt pamięci RAM jest pozycją stosunkowo małą w porównaniu z ceną akceleratorów. Innymi słowy, kupujący z segmentu enterprise są znacznie mniej wrażliwi na ceny niż konsumenci indywidualni czy małe firmy.

Analitycy IDC szacowali w 2024 roku, że segment pamięci przeznaczonej dla infrastruktury AI rósł w tempie 35–40% rok do roku. To tempo wzrostu nie ma precedensu w historii branży półprzewodników.

  • Hyperscalerzy rezerwują moce produkcyjne z wyprzedzeniem 12–18 miesięcy, co utrudnia dystrybutorom sprzętu konsumenckiego zdobycie towaru.
  • Kontrakty długoterminowe między AWS, Google czy Meta a producentami chipów gwarantują priorytetową realizację, niezależnie od sytuacji rynkowej.
  • Wyższe marże na HBM powodują, że nawet Micron czy SK Hynix ograniczają ekspansję mocy w segmencie DRAM konsumenckiego.
  • Geopolityka — restrykcje eksportowe wobec Chin zmniejszają pulę dostępnych chipów na rynkach alternatywnych i wymuszają przekierowanie wolumenów.

Efektem jest trwała presja cenowa, która nie ustąpi po jednym kwartale dobrej sprzedaży. Producenci nie mają dziś motywacji, by budować nadmiarowe moce produkcyjne dla segmentu o niższych marżach.

Jakie typy pamięci drożeją najbardziej i dlaczego

Nie cały rynek pamięci drożeje równomiernie. Różnica między segmentami jest znaczna i wynika bezpośrednio z architektury systemów AI.

HBM — pamięć o najszybszym wzroście cen

HBM3e, stosowany w akceleratorach AI najnowszej generacji, kosztuje za gigabajt pojemności kilkanaście razy więcej niż standardowe moduły DDR5. Przy tym ceny HBM rosły szybciej niż jakiegokolwiek innego segmentu pamięci w ostatnich 18 miesiącach. Produkcja jednego stosu HBM wymaga od 6 do 12 tygodni i wieloetapowych operacji zaawansowanego pakietowania 3D. Przepustowość rzędu 1,2 TB/s w HBM3e jest fizycznie nieosiągalna dla klasycznych modułów DIMM — to fundamentalna różnica architektoniczna, a nie kwestia taktowania. Więcej na ten temat przeczytasz w artykule Jaki towar trzeba wysyłać na paletach drewnianych?.

Popyt na HBM4, który ma trafić do seryjnej produkcji w 2025–2026, jest rezerwowany przez producentów akceleratorów z wielomiesięcznym wyprzedzeniem. SK Hynix otwarcie przyznał w raportach finansowych, że jego linie HBM są zakontraktowane w całości przynajmniej do końca 2025 roku.

DDR5 — segment pośredni pod presją

Standardowe moduły DDR5 stosowane zarówno w serwerach AI, jak i w komputerach konsumenckich znalazły się w osobliwej sytuacji. Popyt serwerowy rośnie szybciej niż zdolności produkcyjne, a jednocześnie przejście z DDR4 na DDR5 w segmencie konsumenckim wciąż trwa.

Przeciętna cena modułu 32 GB DDR5-6000 wzrosła między początkiem 2023 a końcem 2024 roku o 25–35%, w zależności od producenta i specyfikacji. To wzrost realny — nie wynikający z inflacji ani z kursów walut, ale z relacji popytu do podaży.

DDR4 po drugiej stronie paradoksalnie tanieje w niektórych segmentach, bo producenci ograniczają inwestycje w starszą technologię, a na rynku pojawia się więcej chipów z demontażu. Zakup pamięci DDR4 do systemu legacy może być dziś bardziej opłacalny niż rok temu.

Co to oznacza dla użytkownika planującego rozbudowę komputera

Jeśli rozważasz zakup lub wymianę pamięci RAM, kilka rzeczy wynikających z powyższego kontekstu ma bezpośrednie przełożenie na decyzję zakupową. Polecamy także lekturę: Emerytura pomostowa i praca w warunkach szczególnych – komu przysługuje i jak udowodnić staż.

Ceny modułów DDR5 w ciągu najbliższych 12–24 miesięcy prawdopodobnie nie wrócą do poziomu z przełomu 2022 i 2023 roku, kiedy rynek przeżywał nadprodukcję. Producenci nauczyli się, że mają lepszego klienta niż konsument indywidualny — i nie ma racjonalnego powodu, by odwrócili alokację mocy bez wyraźnej zmiany sytuacji rynkowej.

Przy zakupie warto zwrócić uwagę na kilka aspektów praktycznych:

  • Kompatybilność z płytą główną: moduły DDR5 z XMP 3.0 i taktowaniem powyżej 5600 MHz wymagają potwierdzenia obsługi QVL przez producenta płyty — nie każdy zestaw chipsetowy radzi sobie z najwyższymi częstotliwościami stabilnie.
  • Różnica między 5600 MHz a 7200 MHz w zastosowaniach codziennych jest mniejsza niż sugerują numery marketingowe — przy typowym użytkowaniu różnica w wydajności wynosi 3–8%, przy różnicy cen sięgającej 40–60%.
  • Zakup z zapasem ma sens: dokupienie tego samego modułu za 18 miesięcy może być trudniejsze i droższe, bo producenci rotują kości.
  • Opcja DDR4 dla starszych platform: jeśli twój procesor obsługuje DDR4, wymiana modułów na DDR4 4000 MHz lub 4400 MHz jest często tańsza i wystarczająca dla 95% zastosowań.
  • Moduły serwerowe (ECC UDIMM/RDIMM) są dziś dostępne w przyzwoitych cenach na rynku wtórnym — mogą być atrakcyjne dla stacji roboczych na platformach Xeon lub EPYC.

Uzupełnieniem tej perspektywy jest obserwacja, że rynek pamięci operacyjnej rzadko oferuje okna cenowe sygnalizowane z wyprzedzeniem. Jeśli widzisz, że cena interesującego modułu jest niższa niż średnia z ostatnich trzech miesięcy — to zwykle dobry moment, a nie chwilowy błąd w arkuszu.

Perspektywy rynku pamięci RAM w kontekście dalszego rozwoju AI

Kolejna generacja modeli AI nie zapowiada się skromniej pod względem wymagań sprzętowych. Modele multimodalne, obsługujące jednocześnie tekst, obraz i dźwięk, mają zapotrzebowanie na pamięć wyższe o rząd wielkości względem modeli tylko tekstowych. Firmy planujące budowę klastrów AI nowej generacji zakładają konfiguracje z 4–8 TB pamięci systemowej na węzeł obliczeniowy.

Równocześnie pojawiają się sygnały, że część producentów chipów rozważa budowę nowych zakładów z dedykowanymi liniami dla HBM i serwerowego DDR5. Samsung zapowiedział inwestycje w tym kierunku, a TSMC rozbudowuje moce CoWoS potrzebne do zaawansowanego pakietowania. Te decyzje inwestycyjne przełożą się na dostępność rynkową najwcześniej w perspektywie 2026–2027 roku.

Do tego czasu rynek pamięci RAM pozostanie pod wpływem popytu ze strony AI — i warto to uwzględnić zarówno przy planowaniu zakupów konsumenckich, jak i przy budżetowaniu infrastruktury IT dla małych i średnich firm. Czas, gdy 16 GB DDR4 wystarczało na każdą okazję, należy do przeszłości — i nie chodzi wyłącznie o wzrost wymagań aplikacji, ale o strukturalną zmianę w tym, kto dyktuje warunki na rynku pamięci operacyjnej.