LinkedIn YouTube Facebook
Szukaj

Newsletter

Proszę czekać.

Dziękujemy za zgłoszenie!

Wstecz
Aktualności

Micron i Nvidia wprowadzają moduł SOCAMM 128 GB: nowa era pamięci LPDDR5X dla AI

Micron Technology zaprezentował nowatorski moduł SOCAMM (Small Outline Compression Attached Memory Module) o pojemności 128 GB, zaprojektowany wspólnie z firmą Nvidia. Rozwiązanie to, bazujące na energooszczędnej pamięci LPDDR5X, odpowiada na potrzeby współczesnych centrów danych i aplikacji sztucznej inteligencji, gdzie priorytetem staje się wysoka przepustowość oraz niska konsumpcja energii.

Firma Micron zaprezentowała 128-gigabajtową kartę graficzną SOCAMM opracowaną we współpracy z firmą Nvidia, która wykorzystuje pamięć LPDDR5X. Źródło: Micron Technology

Czym jest SOCAMM i dlaczego to przełom w projektowaniu pamięci?

SOCAMM to kompaktowy, modułowy format pamięci, który redefiniuje możliwości wykorzystania LPDDR5X poza elektroniką konsumencką.

— SOCAMM to w zasadzie wersja modułowa. To najwyższej pojemności modułowa pamięć, jaką zbudowaliśmy dla centrów danych. — podkreśla Praveen Vaidyanathan, wiceprezes ds. integracji procesów DRAM w Micron(Praveen Vaidyanathan, EE Times)

Moduł ten zużywa jedynie jedną trzecią energii w porównaniu do klasycznych DDR5 RDIMM, a jego niewielkie rozmiary (14 x 90 mm) pozwalają na umieszczenie czterech układów na jednej płycie PCB, co przekłada się na łączną pojemność 128 GB.

LPDDR5X nie tylko dla smartfonów

Choć LPDDR tradycyjnie kojarzony jest z telefonami, SOCAMM otwiera nowe możliwości w serwerach i infrastrukturze AI.

— W smartfonach jest więcej tolerancji, gdy używa się LPDDR, w porównaniu do rodzaju obciążeń w centrum danych. Oznacza to, że technologia musi sprostać wyższym wymaganiom niezawodnościowym oraz umożliwiać skalowalność. Jednym z kluczowych wymagań tego projektu było to, że chcieliśmy, aby zajmował mniej miejsca — zaznacza Praveen Vaidyanathan.

Wydajność i skalowalność na pierwszym planie

SOCAMM umożliwia umieszczenie 32 GB pamięci DRAM LPDDR5X w jednym pakiecie, a cztery takie pakiety na jednej płytce dają łącznie 128 GB. Taka konfiguracja pozwala projektantom systemów serwerowych na tworzenie bardziej kompaktowych i energooszczędnych platform.

Współpraca Micron z Nvidią nie jest przypadkowa — SOCAMM będzie kompatybilny z nadchodzącym superchipem GB300 Grace Blackwell.

— GPU wymagają bardzo wysokiej przepustowości, którą zapewnia HBM. Ale dla akceleratora AI potrzebna jest również bardzo duża pojemność, którą, jak sądzimy, zapewnia pamięć DRAM o niskim poborze mocy — wyjaśnia Vaidyanathan.

Źródło: Micron Technology, Inc.​

LPDDR5X jako wsparcie dla AI i HBM

Micron postrzega LPDDR5X jako integralną część infrastruktury AI, działającą komplementarnie do HBM, DDR i GDDR. Każda z tych technologii odpowiada na inne potrzeby: przepustowość, pojemność lub energochłonność.

Jim Handy, główny analityk w Objective Analysis, zwraca uwagę na strategiczne znaczenie współpracy Micron z Nvidią:

— Nvidia koordynuje wysiłki z wszystkimi.  To coś, co Micron zaczął traktować bardzo poważnie. Wdrożenie LPDDR do serwerów przypomina rewolucję SSD z końca lat 90., kiedy to celem było ograniczenie poboru mocy bez kompromisów w wydajności —  dodaje Jim Handy.

Nowa generacja DDR5 już na horyzoncie

Micron nie ogranicza się tylko do SOCAMM. Firma niedawno zaprezentowała próbki pamięci DDR5 zbudowanej w technologii 1γ (1-gamma). Układ o pojemności 16 Gb oferuje prędkość do 9200 MT/s, co stanowi wzrost o 15% wobec poprzednich rozwiązań. Jednocześnie, dzięki zastosowaniu technologii CMOS z bramką metalową wysokiego K, zużycie energii spada o 20%.

Dlaczego SOCAMM może zmienić architekturę serwerów?

Format LPDDR, pierwotnie przeznaczony do montowania bezpośrednio przy procesorze w urządzeniach mobilnych, był ograniczony pod względem rozbudowy. SOCAMM zmienia ten paradygmat:

  • oferuje modułowość znaną z DDR,
  • umożliwia rozszerzalność pamięci LPDDR w centrach danych,
  • zachowuje energooszczędność i wydajność.

To przełomowe podejście, które może trafić do wielu zastosowań AI, edge computing i HPC.

SOCAMM zwiastuje nową erę dla pamięci w AI

Micron SOCAMM to nie tylko innowacyjny format pamięci — to odpowiedź na rosnące potrzeby sztucznej inteligencji. Współpraca z Nvidią, kompatybilność z Grace Blackwell i wysoka gęstość upakowania danych czynisz z SOCAMM fundament nowoczesnej infrastruktury.

Źródło: EE Times

Redaktor działu Aktualności Polska i Świat.