Z miesiąca na miesiąc sztuczna inteligencja staje się coraz lepsza i coraz popularniejsza. AI przyciąga uwagę zarówno dużych firm, jak i zwykłych śmiertelników. Wiele osób widzi w tym przyszłość, ale również okazje dla siebie. Od opracowywania własnych modeli, przez sprzęt, aż po aplikacje i rozwiązania dla klienta końcowego.
Jak na razie prym w dostawie akceleratorów dla sztucznej inteligencji wiodą dwie firmy - NVIDIA oraz AMD. I wygląda na to, że pierwsza z wymienionych szykuje dwa nowe układy H100 z rodziny Hopper.
Jak zauważyła redakcja VideoCardz w bazie PCI-ID pojawiły się niedawno wpisy sugerujące istnienie nowych układów NVIDIA H100 w konfiguracji z 64 i 94 GB pamięci VRAM. Mowa o wersji z interfejsem SXM5, a nie PCI Express, co sugeruje zastosowanie kości w technologii HBM3.
94 GB to nie jest literówka - dostępny jest już przecież akcelerator NVIDIA H100 NVL z taką pamięcią VRAM. Jak jednak osiągnięto taką wartość zamiast klasycznych 96 GB? Chodzi zapewne o uzysk HBM3. Łatwiej jest wyłączyć w stosie kilka wadliwych warstw, aniżeli pozbywać się całej kości pamięci.
Warto pamiętać, że pod koniec ubiegłego roku pojawiła się również plotka o NVIDIA H100 120 GB. Jednak do tej pory taki akcelerator nie pojawił się na rynku, nieznane jest nawet jego PCI ID. Mógł to być tylko prototyp.
Zobacz: HyperX prezentuje nowe pchełki dla graczy mobilnych
Zobacz: AMD oszalało? Nadciąga nowy procesor dla gniazda AMD AM4
Źródło zdjęć: Telepolis / Przemysław Banasiak
Źródło tekstu: VideoCardz, oprac. własne