Intel i Google zacieśniają współpracę w celu rozwoju infrastruktury AI
Intel Corporation i Google ogłosiły wieloletnią współpracę mającą na celu rozwój infrastruktury sztucznej inteligencji i chmury nowej generacji, poprzez wzmocnienie kluczowej roli procesorów (CPU) oraz specjalistycznych jednostek przetwarzających (IPU) w skalowaniu nowoczesnych, heterogenicznych systemów AI.

Źródło: Intel
Wraz z przyspieszeniem wdrażania sztucznej inteligencji infrastruktura staje się coraz bardziej złożona i heterogeniczna, co powoduje wzrost zależności od procesorów w zakresie koordynacji, przetwarzania danych i wydajności na poziomie systemu. Dzięki tej współpracy firmy Intel i Google zharmonizują wiele generacji procesorów Intel® Xeon® w celu poprawy wydajności, efektywności energetycznej i całkowitego kosztu posiadania w całej globalnej infrastrukturze Google.
AI nie działa wyłącznie na akceleratorach
Sztuczna inteligencja działa na systemach, a procesory stanowią rdzeń tych systemów. Google Cloud nadal wdraża procesory Intel Xeon w swoich instancjach zoptymalizowanych pod kątem obciążenia, w tym najnowsze procesory Intel Xeon 6 zasilające instancje C4 i N4. Platformy te obsługują szeroki zakres obciążeń — od koordynacji szkolenia sztucznej inteligencji na dużą skalę po wnioskowanie wrażliwe na opóźnienia i obliczenia ogólnego przeznaczenia.
Równolegle firmy Intel i Google rozszerzają wspólny program rozwoju niestandardowych procesorów IPU opartych na układach ASIC. Te programowalne akceleratory przejmują funkcje sieciowe, pamięci masowej i bezpieczeństwa od procesorów hosta, poprawiając wykorzystanie zasobów, zwiększając wydajność i zapewniając bardziej przewidywalną wydajność w hiperskalowych środowiskach sztucznej inteligencji.
IPU są kluczowym elementem nowoczesnych architektur centrów danych. Przejmując zadania infrastrukturalne tradycyjnie zarządzane przez procesory, uwalniają one większą efektywną moc obliczeniową i pozwalają dostawcom chmury na bardziej wydajne skalowanie bez zwiększania ogólnej złożoności systemu. Razem procesory Xeon i IPU tworzą ściśle zintegrowaną platformę, równoważącą obliczenia ogólnego przeznaczenia z dedykowanym przyspieszeniem infrastruktury, aby zapewnić bardziej wydajne, elastyczne i skalowalne systemy AI.
Skalowanie efektywności i fundamenty pod kolejną falę AI
– Sztuczna inteligencja zmienia sposób budowania i skalowania infrastruktury. Skalowanie sztucznej inteligencji wymaga czegoś więcej niż tylko akceleratorów — wymaga zrównoważonych systemów. Procesory i jednostki IPU mają kluczowe znaczenie dla zapewnienia wydajności, efektywności i elastyczności wymaganych przez nowoczesne obciążenia związane ze sztuczną inteligencją — powiedział Lip-Bu Tan, dyrektor generalny firmy Intel.
– Procesory i akceleracja infrastruktury pozostają fundamentem systemów AI – od koordynacji uczenia się po wnioskowanie i wdrażanie. Intel jest naszym zaufanym partnerem od prawie dwóch dekad, a ich plan rozwoju procesorów Xeon daje nam pewność, że będziemy w stanie nadal sprostać rosnącym wymaganiom naszych obciążeń w zakresie wydajności i efektywności – powiedział Amin Vahdat, wiceprezes i główny technolog ds. infrastruktury AI w Google.
Rozszerzona współpraca odzwierciedla wspólne zaangażowanie w rozwój otwartej, skalowalnej infrastruktury na miarę ery sztucznej inteligencji. Łącząc obliczenia ogólnego przeznaczenia z dedykowaną akceleracją infrastruktury, firmy Intel i Google umożliwiają bardziej zrównoważone podejście do projektowania systemów sztucznej inteligencji – takie, które poprawia wykorzystanie zasobów, zmniejsza złożoność i pozwala na bardziej wydajną skalowalność.

Intel Xeon 6 jako procesor hosta w systemach NVIDIA DGX Rubin NVL8
Intel i SambaNova planują wieloletnią współpracę w zakresie wnioskowania AI opartego na procesorach Xeon
Intel przenosi produkcję 3 nm do Europy w 2025 roku 




