DAJ CYNK

Nvidia rezygnuje z kart graficznych, jakie do tej pory znaliśmy

Jakub Krawczyński

Sprzęt

Nvidia kończy z GPU, a przynajmniej w formie do tej pory znanej

Świat kart graficznych zacznie się zmieniać nie do poznania - taki przekaz dał ostatnio CEO firmy Nvidia. Huang Jensen w swoim ostatnim wystąpieniu mówił o tym, jak nie da się zrobić już żadnego postępu w temacie układów graficznych bez sztucznej inteligencji.

Wystarczy przeliczyć 1 piksel, a AI dołoży kolejne 32

Na minionej konferencji Goldman Sachs Communacopia + Technology w San Francisco, szef giganta technologicznego podzielił się informacjami na temat ekscytujących trendów związanych ze sztuczną inteligencją.

Nie da się już zajmować grafiką komputerową bez sztucznej inteligencji. Możemy przeliczać [sprzętowo] zaledwie jeden piksel, a [sztuczna inteligencja] wyliczy i dopasuje 32 kolejne — to niesamowite

 - powiedział Jensen.

Nvidia jest obecnie liderem w technologii rekonstrukcji obrazu, a ich autorskie rozwiązanie DLSS bryluje w kwestii odciążania kart graficznych, aby uzyskać wyższą wydajność i więcej FPS-ów przy akceptowalnej jakości obrazu. 

Szef Nvidii podkreślił, że generowanie nawet 32 dodatkowych pikseli na bazie AI potrzebuje minimalnej ilości energii w porównaniu do natywnych obliczeń, aby wygenerować zaledwie 1 piksel. Ponadto to rozwiązanie jest jego zdaniem niezwykle szybkie.  Słowa Jensena mogą być sygnałem i zwiastunem dalszych działań firmy w temacie udoskonalania sztucznej inteligencji używanej w ich kartach GeForce. 

Spekuluje się, że rywale z AMD, przy okazji architektury RDNA4 mają zapewnić swój własny model AI, który ma stawić wyzwanie technologiom Nvidii i Intela. Do tej pory AMD korzystało nie z modeli sztucznej inteligencji, lecz z algorytmów upscalingu (które także potrzebują mocy obliczeniowej). W przyszłości należy spodziewać się więc jeszcze większej roli sztucznej inteligencji — nawet PS5 Pro ma oferować autorskie rozwiązanie w temacie rekonstrukcji obrazu poprzez AI.

Zobacz: Nowy GeForce RTX 4070 przetestowany. Znamy wpływ pamięci GDDR6

Chcesz być na bieżąco? Obserwuj nas na Google News

Źródło zdjęć: Jamesonwu1972 / Shutterstock.com

Źródło tekstu: PC Gamer, opr. wł.