DAJ CYNK

Co wspólnego mają WhatsApp i PS5? Odpowiedź jest fascynująca

Lech Okoń

Sprzęt

Co wspólnego mają WhatsApp i Uber? Odpowiedź jest fascynująca

Stało się. AMD już nie goni konkurencji, a zamiast tego będzie dyktować tempo jeśli chodzi o rozwój na rynku AI. Mowa nie tylko o akceleratorach, ale i procesorach. Dzisiaj pochylamy się nad najnowszymi układami z serii Instinct oraz EPYC.

Dalsza część tekstu pod wideo
 

AMD w WhatsAppie? Czym w ogóle jest AMD?

Advanced Micro Devices większości z nas kojarzy się procesorami i kartami graficznymi dla komputerów stacjonarnych i laptopów, a do tego z układami zasilającymi konsole do gier takie jak Sony PlayStation 5, Microsoft Xbox Series X/S czy Valve Steam Deck. Są to rzeczywiście przestrzenie, w których Amerykanie mają największe doświadczenie i cieszą się cały czas rosnącą popularnością.

Jednak niespodziewanie do tej gromadki dołączyła zupełnie nowa grupa produktów. AMD ma swój udział również w branży serwerowej - zarówno infrastrukturalnej, jak i typowo obliczeniowej. A olbrzymie wzrosty w dziedzinie uczenia maszynowego pozwoliły AMD zająć pozycję lidera (no dobrze, ko-lidera) w kolejnej kategorii.

Co chyba jednak najważniejsze, o ile inne segmenty nie są aktualnie przesadnie stabilne, o tyle z układów AI płynie rzeka pieniędzy. W tej kategorii Czerwoni ścigają się przede wszystkim z NVIDIĄ, producentem niegdyś kojarzonym głównie z akceleratorami 3D, a teraz jedną z najwyżej wycenianych firm na świecie (nie tylko w kategorii IT) za sprawą technologii dostarczanych pod rozwój niezwykle chłonnego rynku sztucznej inteligencji.

Bezpośrednim konkurentem dla akceleratorów od Zielonych są układy AMD Instinct MI300X, które kwartalnie przynoszą firmie już ponad 1 mld dolarów i AMD liczy na zamknięcie roku finansowego z wynikiem 4,5 mld dolarów przychodu tylko z tego ramienia. Deklaracje nie są przy tym jedynie pustymi obietnicami, bo AMD właśnie uchyliło rąbka tajemnicy w kwestii nowej oferty - pokazano układ Instinct MI325X i dostaliśmy garść informacji o nadchodzącym, jeszcze mocniejszym modelu Instinct MI355X.

WhatsApp postawił na AMD

GPT4, Meta, Microsoft - oni wszyscy dopieszczają cię „Instynktownie”

Mówi się, że aktualnie dostępne akceleratory AMD Instinct MI300X oferują do 30% wyższą wydajność w różnych zadaniach AI, w porównaniu do konkurencyjnych układów NVIDIA H100. Dzięki pracy nad pakietem ROCm, udało się z czasem wydobyć niewykorzystana do tej pory moc obliczeniową. Czerwoni stwierdzili jednak, że pora zbudować jeszcze lepszy sprzęt z równie dobrym wsparciem.

AMD Instinct MI325X to zupełnie nowa propozycja na bazie architektury CDNA 3, będąca odświeżeniem aktualnej oferty. Dostajemy tutaj do 256 GB pamięci typu HBM3e, zbudowanej ze stosów 16-warstwowych o przepustowości do 6 TB/s. Wydajność dla obliczeń FP8 sięga zawrotnych 2,6 PFLOPs, a w przypadku FP16 mowa o 1,3 PFLOPs. Przewidywana dostępność to pierwszy kwartał 2025 roku.

WhatsApp postawił na AMD

Serwery AI Instinct będą wyposażone zestaw do ośmiu AMD Instinct MI325X z maksymalnie 2 TB pamięci HBM3e o łącznej przepustowości do 48 TB/s. Oznacza to 20,8 PFLOPs wydajności FP8 i 10,4 PFLOPs wydajności FP16. Jeśli chodzi o pobór mocy to mówi się o 1000 W per akcelerator, co jest znacznym skokiem względem około 700 - 750 W dla AMD Instinct MI300X.

Jak to przełoży się na pracę z AI? AMD twierdzi, że Instinct MI325X powinien być o 40% szybszy niż NVIDIA H200. Przynajmniej w przypadku modelu Mixtral 8x7B. Patrząc na Meta Llama 3.1 70B oczekiwana jest przewaga rzędu 20%. Również pod względem szkolenia LLM mamy liczyć na podobną lub o 10% lepszą wydajność niż u Zielonych.

WhatsApp postawił na AMD

AMD oferuje to, co najnowsze i najlepsze

Zdecydowanie ciekawiej prezentuje się akcelerator AMD Instinct MI355X, który będzie już korzystał z CDNA 4 oraz litografii 3 nm od TSMC. Kolejny raz doczekamy się zwiększenia pamięci, tym razem do 288 GB HBM3e. Nowa litografia i większa przepustowość VRAM ma się przełożyć na 7-krotny wzrost wydajności obliczeń AI. W twardych liczbach oznacza to do 2,3 PFLOPs dla FP16 i do 4,6 PFLOPs dla FP8. Nowością będą obliczenia FP6 i FP4, tutaj mowa o osiągach na poziomie 9,2 PFLOPs.

Pierwsze platformy wyposażone w osiem układów AMD Instinct MI355X będą dostępne w drugiej połowie 2025 roku i mają oferować łącznie do 2,3 TB pamięci HBM3E z przepustowością 64 TB/s, 18,5 PFLOPs obliczeń FP16, 37 PFLOPs obliczeń FP8 i 74 PFLOPs obliczeń FP6/FP4.

WhatsApp postawił na AMD

Warto podkreślić, że AMD będzie oferować równocześnie wszystkie trzy modele - dotychczasowe MI300X i nowe MI325X oraz MI355X. Ma to pozwolić na dostosowanie się do potrzeb każdego z zainteresowanych. Zwłaszcza, że centra danych przyszłości nie będą jednolite.

A co z dostępnością i cenami? Tutaj niestety Amerykanie odpowiedzieli nam dość wymijająco. Aktualny łańcuch dostaw ma pozwolić na zaopatrzenie wszystkich chętnych klientów w USA. A tych jest sporo. Wśród partnerów wymienia się m.in. firmy jak WhatsApp, Microsoft, Meta (Facebook i Instagram), Uber, Zoom, SAP, Oracle, Salesforce, Dropbox, Adobe czy MasterCard. Suchych liczb w przypadku cen nie podano. AMD obiecuje jednak, że będzie to lepszy stosunek niż u NVIDII.

WhatsApp postawił na AMD

Akceleratory AI to nie wszystko, AMD ma coś jeszcze

Oprócz tego w USA zaprezentowano dzisiaj oficjalnie serwerowe procesory AMD EPYC 5. generacji o nazwie kodowej Turin. Mogą się one pochwalić nową, wydajniejszą architekturą Zen5. Partnerzy będą mieli do wyboru dwa rozwiązania - wariant "Scale-Up" oraz "Scale-Out".

W pierwszym przypadku jest to litografia 4 nm od TSMC i 16 układów CCD na bazie Zen5, oferujących łącznie do 128 rdzeni i 256 wątków oraz do 384 MB pamięci L3. W drugim mowa o nowym procesie produkcji, czyli 3 nm, z maksymalnie 12 CCD opartymi na Zen5c, a więc oznaczjącymi do 192 rdzeni i 384 wątków oraz do 512 MB Cache L3. Opisywane procesory będą wyposażone w pełną obsługę AVX-512, zapewniając przy tym taktowanie do 5 GHz. Nowe CPU mogą pracować w zarówno w serwerach typu 1P, jak i 2P.

WhatsApp postawił na AMD

Zdaniem AMD mamy tutaj do czynienia z "wyjątkowym wzrostem wydajności w porównaniu do poprzedniej generacji". Dla platform chmurowych i biznesowy wzrost IPC ma sięgać do 17%, zaś w scenariuszach HPC i AI wynosić nawet do 37%.

W ofercie znalazło się całe zatrzęsienie modeli. Od procesorów 8-, aż po 192-rdzeniowe i z TDP od 155 do 500 W. Co ważne zdecydowano się na wykorzystanie dotychczasowego gniazda AMD SP5, a więc aktualizacja serwerów z poprzednich generacji (AMD Genoa i Bergamo na bazie Zen4) ma być wyjątkowo prosta i szybka.

WhatsApp postawił na AMD

W przypadku pamięci RAM nadal dostajemy 12-kanałowe rozwiązanie, ale wzrosły jego możliwości. Mowa maksymalnie o modułach DDR5-6400 typu EEC o maksymalnej pojemności do 6 TB. Jeśli chodzi o interfejs PCIe 5.0 / CXL 2.0 wszystko pozostaje bez zmian i do naszej dyspozycji jest do 128 linii.

Chcesz być na bieżąco? Obserwuj nas na Google News

Źródło zdjęć: Lech Okoń / Telepolis, AMD