TEST: GeForce GTX480 - pierwsze DX11 od NVIDII

Długo przyszło nam czekać na nową kartę graficzną NVIDII, która jako pierwszy produkt tej firmy obsługuje funkcje DX11. Premiera GeForce GTX480 wnosi kilka świeżych pomysłów, choć przyznajemy, że po tak długo przygotowywanym produkcie ( w końcu ATI przez cały rok nie miało żadnej konkurencji ) oczekiwaliśmy więcej - zarówno pod względem wydajności jak i budowy samej karty.

TEST: GeForce GTX480 - pierwsze DX11 od NVIDII

29.03.2010 | aktual.: 29.03.2010 10:19

Długo przyszło nam czekać na nową kartę graficzną NVIDII, która jako pierwszy produkt tej firmy obsługuje funkcje DX11. Premiera GeForce GTX480 wnosi kilka świeżych pomysłów, choć przyznajemy, że po tak długo przygotowywanym produkcie (w końcu ATI przez cały rok nie miało żadnej konkurencji) oczekiwaliśmy więcej - zarówno pod względem wydajności jak i budowy samej karty.

Fermi bo taka jest nazwa kodowa GeForce GTX480/47. rodził się w bólach. Premierę przekładano wielokrotnie, NVIDIA nie mogła zdecydować się jaka będzie jej finalna specyfikacja (częstotliwość pracy procesora, układów cieniowania oraz pamięci) jeszcze na kilka dni przed premierą produktu. To wskazuje, jakie napięcie panowało w szeregach NVIDII i jak ważny jest to dla tej firmy produkt. Wcale się nie dziwimy, w końcu ostatni rok to bezapelacyjna dominacja produktów ATI w każdym segmencie (w układach do laptopów NVIDII szło naszym zdaniem zdecydowanie najlepiej). Były po prostu szybsze, nowocześniejsze, korzystniejsze cenowo. Prezentowany przez nas test GeForce GTX480 oznacza, że producent tradycyjnie postanowił wprowadzić linię produktów nowej generacji poprzez przetarcie szlaku najwydajniejszym modelem. Kolejne, tańsze, będą jak zwykle powstawały przez kawałkowanie Fermi, wycinanie jednostek obliczeniowych, zwężanie interfejsu pamięci i redukcję zegarów/ilości modułów RAM.

Kluczowe cechy konstrukcyjne

Obraz
© Procesor Fermi jest gigantyczny. Zbudowano go z 3 mld tranzystorów (fot. IDG)

Fermi jest gigantycznym układem. Składa się aż z 3 mld tranzystorów, co niestety znalazło swoje odzwierciedlenie w cechach samej karty. Jest ona duża pod względem gabarytów (ale nie większa niż Radeony HD 5870 o HD 5970 nie mówiąc) i niestety pożera sporo energii. Podczas testów cała redakcyjna platforma testowa pobierała 119 W (wyświetlanie pulpitu Windows) natomiast pod obciążeniem pobór energii rósł do 364 W. To o ok 18 W więcej niż wyraźnie szybszy, wyposażony w 2! procesory Cypress model Radeon HD 5970 i aż 111 W więcej niż nieco wolniejszy od GeForce?a pojedynczy Radeon HD 5870. Nie będzie to więc produkt dla osób zwracających uwagę zarówno na pobór energii jak i tych oczekujących od karty cichej pracy związanej z niewielkim nagrzewaniem się układu. Nowy GeForce jest gorący i to bardzo.

Pod względem budowy GeForce GTX480/47. różni się od poprzedników. Wykonany jest w procesie technologicznym 40 nm (GeForce GTX 285 - 55 nm) i zawiera w sobie 16 bloków grupujących po 32 procesory strumieniowe. W wersji topowej GeForce GTX480 tych procesorów oznaczonych jako Cc (CUDA cores) jest 480, choć specyfikacja NVIDII mówi o możliwości aktywowania w kartach Fermi 512 rdzeni Cc. Oznacza to, że w GTX480 jeden blok SM z 32 procesorami strumieniowymi jest nie wykorzystany. To pozwala nam przypuszczać, że istnieje szansa na wprowadzenie do oferty jeszcze wydajniejszej karty wykorzystującej pełnię potencjału tego układu. Pozostałe cechy mikroarchitektury to 48 jednostek renderingu (o 16 więcej niż w najmocniejszym do tej pory jednoukładowym modelu NVIDII GeForce GTX 285) i wykorzystanie pamięci GDDR5, która w topowym modelu występuje w ilości 1536 MB. Pracuje ona z interfejsem 384-bitowym (GTX 285 512-bit) gwarantując przepustowość danych na poziomie 173,2 GB/s. To także nieco lepszy rezultat niż w GeForce
285 GTX, który mógł się pochwalić 155,2 GB/s.

Obraz
© Ray-Tracing, dzięki zwiększonej wydajności karty teraz ma być częściej wykorzystywany do tworzenia fotorealistycznych obrazów (fot. IDG)

Ray-Tracing - podkreślana przez NVIDIĘ zdolność do Ray-Tracingu ( technika generowania fotorealistycznych obrazów 3D opierająca się na analizowaniu jedynie tych promieni światła, które bezpośrednio trafiają do obserwatora ), dzięki istotnemu zwiększeniu (ponad 2x) wydajności jednostek obliczeń zmiennoprzecinkowych będzie mogła być wykorzystana w praktyce. Karta powinna też istotnie zyskać we wszystkich zadaniach gdzie pierwsze skrzypce gra CUDA, a więc zadaniach GPGPU w których procesor graficzny zajmuje sie zadaniami obliczeniowymi nie związanymi z przetwarzaniem grafiki ( np. kodowanie/dekodowanie wideo, itp ).
GigaThread - istotną zmianą w stosunku do kart poprzedniej generacji jest przebudowa i zwiększenie wydajności elementu zajmującego się dystrybucją wątków - GigaThread. Zwiększono prędkość zarządzania wątkami, co jak podkreśla NVIDIA powinno przynieść 10-krotne przyspieszenie w stosunku do rozwiązania stosowanego w produktach starszej generacji. Co to oznacza? Np. możliwość sprawniejszego, szybszego decydowania o przełączeniu zadań obliczeniowych procesor z przetwarzania grafiki, np. na zadania związane z obliczeniami fizycznymi, itp. Może mieć to istotny wpływ na wydajność w sytuacji gdy w gry zaczynają już korzystać z GPU do obliczeń tego typu ( dobrym przykładem jest nowa gra Metro 203. ).

Obraz
© Parametry techniczne kart graficznych (kliknij, aby powiększyć) (fot. IDG)

Jednostki renderingu - zwiększono ich wydajność mniej więcej 1,5-do 2,5. w stosunku do układów GT200. Wzrost jest tym wyższy im bardziej zaawansowany tryb wygładzania krawędzi (AA) zostanie wykorzystany. Jednocześnie wprowadzono nowy tryb wygładzania zwany 32x CSAA. Ma on dawać lepszą skuteczność wygładzania niż tryb MSAA 8x, przy zbliżonym zapotrzebowaniu na moc obliczeniową ze strony GPU. Jak wskazuje sama nazwa algorytm 32x CSAA podczas wygładzania krawędzi bierze pod uwagę aż 32 próbki, co w rezultacie daje wyraźnie lepszą jakość finalnego obrazu.

Obraz
© Przykład działania nowego algorytmu wygładzania krawędzi 32x CSAA (po prawej). Po lewej wygładzanie MSAA 8x (fot. IDG)

Tesselacja - mechanizm dokonujący podziału trójkątów na mniejsze elementy i w ten sposób zwiększający szczegółowość obrazu - technologia ta stosowana jest zarówno kartach graficznych z serii Radeon czy GeForce. Jest to swego rodzaju rozwinięcie funkcji Truform. Rozwiązanie to szczególnie dobrze sprawdza się w generowaniu dużych obszarów (góry, drogi, równiny itp.) oraz zwiększaniu szczegółowości postaci (możliwe jest skorzystanie z trybów obejmujących jedynie określony obszar obiektu, czyli tzw. tesselacji adaptacyjnej). W GTX48. NVIDIA dokonała optymalizacji mikroarchitektury układu tak aby obciążenia wynikające z zastosowania tesselacji były jak najmniejsze. NVIDIA twierdzi jednocześnie, że tesselacja w GTX480/470 wpływa w znacznie mniejszym stopniu na spadek wydajności niż w Radeonach AMD. Czy tak jest odpowiedź znajdziecie w wynikach testów.

Obraz
© Zalety tesselacji, jednej z głównych funkcji DX11 (fot. IDG)

Specyfikacja
_ GeForce GTX480 _ cechuje się następującymi parametrami: rdzeń graficzny pracuje z taktowaniem 70. MHz, jednostki cieniowania 1401 MHz, natomiast pamięć 3696 MHz. Do zasilania karty niezbędne jest podłączenie złączy 6- i 8-pinowego.
_ GeForce GTX470 _ ma następujące parametry: rdzeń - 60. MHz, jednostki cieniowania 1215 MHz oraz pamięć 3348 MHz. W przypadku tej karty szyna pamięci jest 32-bitowa, liczba jednostek renderowania zmniejszona do 40, a procesorów strumieniowych do 448. Zredukowano też - do 56 liczbę jednostek odpowiedzialnych za teksturowanie. Karta ma 1280 MB pamięci. Do zasilania karty niezbędne są dwa złącza 6-pinowe PCI Express.

Gniazda

Nietypowo prezentuje się panel gniazd - oprócz 2 złączy DVI mamy miniaturowe wyjście HDMI. To rozwiązanie nie jest naszym zdaniem najlepsze, zmusza użytkownika do korzystania z dodatkowych przejściówek. Mamy nadzieje, że producenci modyfikujący produkt wzorcowy NVIDII znajdą sposób na instalację standardowego wyjścia HDMI.

Obraz
© Zestaw gniazd dość skromny. Oprócz 2 DVI, mini HDMI (fot. IDG)

3D Vision, teraz na 3 monitorach

Technologia wyświetlania trójwymiarowego obrazu jest w natarciu, a naszym zdaniem największe nadzieje na jej upowszechnienie dają właśnie gry. Tu NVIDIA jest na czele mając już teraz do zaoferowania graczom możliwość gry w środowisku 3. aż w ponad 400 tytułach ( przy użyciu aktywnych okularów migawkowych i odpowiednich monitorów zdolnych do wyświetlania obrazu z częstotliwością odświeżania 120 Hz - np. testowany przez nas ostatnio monitor Full HD Acer GD245HQ. Teraz 3D Vision zostało rozbudowane o możliwość prezentacji obrazu trójwymiarowego na 3 monitorach jednocześnie. Technologię nazwano 3D Vision Surround, lecz niestety aby z niej skorzystać niezbędne będzie posiadanie aż 2 kart Fermi lub GT200 pracujących w trybie SLI. Obraz może być wyświetlany z maksymalną rozdzielczością 1920x1080 pikseli (w trybie 3D) lub 2560x1600 w trybie standardowym 2D.

Obraz
© Obraz w 3D można teraz wyświetlać na 3 monitorach (fot. IDG)

Wydajność

Zabierając się do testów nowego GeForce?a zmieniliśmy jednocześnie całą procedurę testową jakiej poddawane są karty graficzne w redakcyjnym labie. Zaczęliśmy używać 64-bitowej wersji Windows 7. wprowadziliśmy też nowe gry i benchmarki, jednocześnie rezygnując z szeregu starszych tytułów. Z dobrze znanych naszym czytelnikom benchmarków, których używaliśmy dotychczas pozostał syntetyczny 3DMark Vantage oraz gra Crysis, która pomimo upływu czasu od premiery wciąż prezentuje się imponująco i stanowi nie lada wyzwanie dla kart graficznych. Postawiliśmy jednak na nowe gry obsługujące funkcje DX11 - Colina McRae Dirt2, S.T.A.L.K.E.R-a Call of Pripyat, a także Metro 2033 i ciekawy benchmark Heaven 2.0, który świetnie nadaje się do testów tesselacji i innych funkcji DX11.

Obraz
© Wyniki testów kart graficznych (kliknij, aby powiększyć) (fot. IDG)

Jak w tym środowisku testowym zaprezentował się nowy GeForce? Mamy mieszane uczucia. W benchmarkach takich jak Heaven doskonale widać przemyślaną architekturę układu nastawioną na duże obciążenia i wysokie rozdzielczości, którym karta ma sprostać w tytułach DX11. Potwierdzają to testy Metra 2033 w którym GeForce GTX480 gwarantuje płynność rozgrywki do rozdzielczości 1680x1050. Gra jest piekielnie wymagająca, co widać po rezultatach wszystkich testowanych kart.
Z kolei w środowisku starszych benchmarków - np. Crysis, 3DMark Vantage, widać, że GeForce już tak nie błyszczy, radzi sobie gorzej, lub równie dobrze co o wiele tańszy Radeon HD 5870. NVIDIA prezentując nowy model za cel nie postawiła sobie (jak przedstawiciele firmy sami twierdzą) stworzenia karty najszybszej lecz o najlepszym stosunku wydajności do ceny. Naszym zdaniem nie do końca się to udało. W chwili obecnej rozsądniejszym wydaje się być zakup Radeona HD 5870, karty o wiele tańszej, niewiele wolniejszej i o wiele bardziej energooszczędnej. W kategoriach bezwzględnych niepodzielnie dominuje Radeon HD 5970 - dwuprocesorowy gigant, rozkłada GeForce GTX480 na łopatki. Jest co prawda droższy, lecz dla klientów poszukujących karty z tego przedziału cenowego te 10% różnicy w cenie nie powinno mieć żadnego znaczenia.

Obraz
© Metro 2033 to nowa gra obsługująca wszystkie najnowsze funkcje DX11. Wyciska z kart ostatnie poty. (fot. IDG)

Czekamy na tańsze karty z nowymi układami NVIDII. Nie ma się co oszukiwać, GeForce GTX480 nie znajdzie wielu nabywców ze względu na cenę. Najciekawsza rozgrywka dotyczyła będzie segmentu kart podstawowych w cenach 500-1000 zł. Tu ATI ma doskonałe produkty, tym bardziej ciekawi jesteśmy jak na ich tle wypadną produkty NVIDII i na jakie cięcia w Fermi zdecyduje sie NVIDIA szykując modele dla masowego odbiorcy.

Źródło artykułu:PC World Komputer
Komentarze (63)