NVIDIA szykuje dwa nowe układy H100. Mowa o rynku AI
Zarówno AMD, jak i NVIDIA widzą potencjał w rosnącym rynku związanym ze sztuczną inteligencją. Zieloni przygotowali nowe warianty akceleratora z rodziny Hopper.

Z miesiąca na miesiąc sztuczna inteligencja staje się coraz lepsza i coraz popularniejsza. AI przyciąga uwagę zarówno dużych firm, jak i zwykłych śmiertelników. Wiele osób widzi w tym przyszłość, ale również okazje dla siebie. Od opracowywania własnych modeli, przez sprzęt, aż po aplikacje i rozwiązania dla klienta końcowego.
NVIDIA zaoferuje wersje H100 z 64 i 94 GB pamięci VRAM
Jak na razie prym w dostawie akceleratorów dla sztucznej inteligencji wiodą dwie firmy - NVIDIA oraz AMD. I wygląda na to, że pierwsza z wymienionych szykuje dwa nowe układy H100 z rodziny Hopper.



Jak zauważyła redakcja VideoCardz w bazie PCI-ID pojawiły się niedawno wpisy sugerujące istnienie nowych układów NVIDIA H100 w konfiguracji z 64 i 94 GB pamięci VRAM. Mowa o wersji z interfejsem SXM5, a nie PCI Express, co sugeruje zastosowanie kości w technologii HBM3.
94 GB to nie jest literówka - dostępny jest już przecież akcelerator NVIDIA H100 NVL z taką pamięcią VRAM. Jak jednak osiągnięto taką wartość zamiast klasycznych 96 GB? Chodzi zapewne o uzysk HBM3. Łatwiej jest wyłączyć w stosie kilka wadliwych warstw, aniżeli pozbywać się całej kości pamięci.
Warto pamiętać, że pod koniec ubiegłego roku pojawiła się również plotka o NVIDIA H100 120 GB. Jednak do tej pory taki akcelerator nie pojawił się na rynku, nieznane jest nawet jego PCI ID. Mógł to być tylko prototyp.