Micron i Nvidia wprowadzają moduł SOCAMM 128 GB: nowa era pamięci LPDDR5X dla AI
Micron Technology zaprezentował nowatorski moduł SOCAMM (Small Outline Compression Attached Memory Module) o pojemności 128 GB, zaprojektowany wspólnie z firmą Nvidia. Rozwiązanie to, bazujące na energooszczędnej pamięci LPDDR5X, odpowiada na potrzeby współczesnych centrów danych i aplikacji sztucznej inteligencji, gdzie priorytetem staje się wysoka przepustowość oraz niska konsumpcja energii.

Firma Micron zaprezentowała 128-gigabajtową kartę graficzną SOCAMM opracowaną we współpracy z firmą Nvidia, która wykorzystuje pamięć LPDDR5X. Źródło: Micron Technology
Czym jest SOCAMM i dlaczego to przełom w projektowaniu pamięci?
SOCAMM to kompaktowy, modułowy format pamięci, który redefiniuje możliwości wykorzystania LPDDR5X poza elektroniką konsumencką.
— SOCAMM to w zasadzie wersja modułowa. To najwyższej pojemności modułowa pamięć, jaką zbudowaliśmy dla centrów danych. — podkreśla Praveen Vaidyanathan, wiceprezes ds. integracji procesów DRAM w Micron(Praveen Vaidyanathan, EE Times)
Moduł ten zużywa jedynie jedną trzecią energii w porównaniu do klasycznych DDR5 RDIMM, a jego niewielkie rozmiary (14 x 90 mm) pozwalają na umieszczenie czterech układów na jednej płycie PCB, co przekłada się na łączną pojemność 128 GB.
LPDDR5X nie tylko dla smartfonów
Choć LPDDR tradycyjnie kojarzony jest z telefonami, SOCAMM otwiera nowe możliwości w serwerach i infrastrukturze AI.
— W smartfonach jest więcej tolerancji, gdy używa się LPDDR, w porównaniu do rodzaju obciążeń w centrum danych. Oznacza to, że technologia musi sprostać wyższym wymaganiom niezawodnościowym oraz umożliwiać skalowalność. Jednym z kluczowych wymagań tego projektu było to, że chcieliśmy, aby zajmował mniej miejsca — zaznacza Praveen Vaidyanathan.
Wydajność i skalowalność na pierwszym planie
SOCAMM umożliwia umieszczenie 32 GB pamięci DRAM LPDDR5X w jednym pakiecie, a cztery takie pakiety na jednej płytce dają łącznie 128 GB. Taka konfiguracja pozwala projektantom systemów serwerowych na tworzenie bardziej kompaktowych i energooszczędnych platform.
Współpraca Micron z Nvidią nie jest przypadkowa — SOCAMM będzie kompatybilny z nadchodzącym superchipem GB300 Grace Blackwell.
— GPU wymagają bardzo wysokiej przepustowości, którą zapewnia HBM. Ale dla akceleratora AI potrzebna jest również bardzo duża pojemność, którą, jak sądzimy, zapewnia pamięć DRAM o niskim poborze mocy — wyjaśnia Vaidyanathan.

Źródło: Micron Technology, Inc.
LPDDR5X jako wsparcie dla AI i HBM
Micron postrzega LPDDR5X jako integralną część infrastruktury AI, działającą komplementarnie do HBM, DDR i GDDR. Każda z tych technologii odpowiada na inne potrzeby: przepustowość, pojemność lub energochłonność.
Jim Handy, główny analityk w Objective Analysis, zwraca uwagę na strategiczne znaczenie współpracy Micron z Nvidią:
— Nvidia koordynuje wysiłki z wszystkimi. To coś, co Micron zaczął traktować bardzo poważnie. Wdrożenie LPDDR do serwerów przypomina rewolucję SSD z końca lat 90., kiedy to celem było ograniczenie poboru mocy bez kompromisów w wydajności — dodaje Jim Handy.
Nowa generacja DDR5 już na horyzoncie
Micron nie ogranicza się tylko do SOCAMM. Firma niedawno zaprezentowała próbki pamięci DDR5 zbudowanej w technologii 1γ (1-gamma). Układ o pojemności 16 Gb oferuje prędkość do 9200 MT/s, co stanowi wzrost o 15% wobec poprzednich rozwiązań. Jednocześnie, dzięki zastosowaniu technologii CMOS z bramką metalową wysokiego K, zużycie energii spada o 20%.
Dlaczego SOCAMM może zmienić architekturę serwerów?
Format LPDDR, pierwotnie przeznaczony do montowania bezpośrednio przy procesorze w urządzeniach mobilnych, był ograniczony pod względem rozbudowy. SOCAMM zmienia ten paradygmat:
- oferuje modułowość znaną z DDR,
- umożliwia rozszerzalność pamięci LPDDR w centrach danych,
- zachowuje energooszczędność i wydajność.
To przełomowe podejście, które może trafić do wielu zastosowań AI, edge computing i HPC.
SOCAMM zwiastuje nową erę dla pamięci w AI
Micron SOCAMM to nie tylko innowacyjny format pamięci — to odpowiedź na rosnące potrzeby sztucznej inteligencji. Współpraca z Nvidią, kompatybilność z Grace Blackwell i wysoka gęstość upakowania danych czynisz z SOCAMM fundament nowoczesnej infrastruktury.
Źródło: EE Times