Intel umożliwia działanie AI w czasie rzeczywistym na nowej platformie Microsoftu

Sztuczna inteligencja (AI) oraz uczenie za pomocą wielowarstwowych sieci neuronowych (Deep Learning, DL) ma odmienić życie ludzi oraz zasady działania biznesu poprzez wspomaganie podejmowania lepszych decyzji. Technologia opracowana przez Intela może w tym pomóc – jest wykorzystywana przez jednych z największych dostawców usług chmurowych, pozwalając wykorzystać złożone modele DL. Dostępność AI w chmurze umożliwi realizację systemów rozpoznawania twarzy i głosu w smartfonach czy też autonomiczne kierowanie pojazdem.

Firma Microsoft wybrała układy FPGA z rodziny Intel Stratix jako podstawowy akcelerator sprzętowy swej nowej platformy deep learning. Projekt nosi nazwę Brainwave. Platforma ta oferuje „AI w czasie rzeczywistym”, co oznacza, że infrastruktura chmury będzie w stanie przetworzyć i odesłać dane tak szybko, jak będą one napływać – z niezwykle niskim opóźnieniem. Dostarczenie AI pracującego w czasie rzeczywistym w chmurze staje się konieczne, ponieważ powstające systemy muszą przetwarzać strumienie danych transmitowanych na żywo – w tym wideo, dane z czujników czy zapytania wyszukiwarek – a następnie szybko dostarczyć wyniki do klientów.

W swoim wpisie na blogu Microsoft podał szczegóły na temat projektu Brainwave, który dzięki układom FPGA Intela będzie w stanie obsłużyć bardzo wymagające modele deep learning z niezrównaną szybkością i elastycznością. Microsoft zademonstrował swą platformę DL podczas sympozjum Hot Chips 2017, które jest poświęcone najnowszym osiągnięciom w technologii układów półprzewodnikowych.

Firma Microsoft jako pierwszy duży dostawca usług chmurowych wprowadziła FPGA do swej infrastruktury. Postęp technologiczny dokonany w tej dziedzinie pozwala stosować układy FGA Intel Stratix 10 do przyspieszenia obliczeń w wielowarstwowych sieciach neuronowych (DNN), które naśladują pod względem koncepcyjnym zachowanie ludzkiego mózgu.

AI jest gwałtownie ewoluującą dziedziną, która wykorzystuje wiele technologii do efektywnej obsługi zadań o zróżnicowanych wymaganiach. Intel oferuje bogaty zestaw technologii, które mają wpływ na rozwój tego rynku – należą do nich procesory Xeon, układy FPGA i układy dedykowane Nervana. W porównaniu do akceleratorów sprzętowych, których nauka obsługi jest trudna, FPGA są znacznie bardziej elastyczne i umożliwiają modyfikacje w celu spełnienie konkretnych wymagań danego zadania. Ponadto możliwa jest szybka rekonfiguracja sprzętu w miarę, jak zadania DL i stosowane modele ulegają zmianom. Układy FPGA z rodziny Intel Stratix 10 zawierają udoskonalone bloki przetwarzania zapewniające wysoką wydajność i sprawność, które użytkownicy mogą wykorzystać poprzez programowanie połączeń między nimi.

Wiele obecnie dostępnych akceleratorów sprzętowych wymaga grupowania wielu zadań jednocześnie (tzw. batching – przetwarzanie wsadowe), aby uzyskać wysoką wydajność. Projekt Brainwave oparty na technologii Intel Stratix 10 uzyskał wydajność ponad 39 teraflopów dla jednego zadania, co ustanawia nowy standard dla chmurowych rozwiązań AI działających w czasie rzeczywistym. Jest to rekord pod względem wydajności oraz niskiego opóźnienia podczas wykonywania pojedynczych zadań związanych z AI.

Microsoft prowadzi prace nad implementacją projektu Brainwave w chmurze Azure, aby użytkownicy mieli dostęp do rekordowo szybkiej analizy deep learning w skomplikowanych zadaniach.

Na potrzeby AI Intel oferuje również skalowalne procesory z rodziny Xeon oraz programowalne układy FPGA. Te ostatnie zapewniają niskie opóźnienia i zmienną precyzję, a także większą wydajność w przeliczeniu na wat w porównaniu do samych procesorów Xeon. Szczegóły oferty są dostępne na stronie www.intel.com/ai.

O autorze