Gtx 280 počet shader procesorů. Počítačový zdroj U SM

Nejprve však o technických vlastnostech. Jako logický vývoj řad GeForce 8 a GeForce 9, které představovaly první generaci jednotné vizuální výpočetní architektury NVIDIA, je nová rodina GeForce GTX 200 založena na druhé generaci této architektury.

GPU NVIDIA GeForce GTX 280 a 260 jsou nejmasivnější a nejkomplexnější grafické čipy, jaké kdy byly známy – žádná legrace, každý má 1,4 miliardy tranzistorů! Nejproduktivnějším řešením je GeForce GTX 280, která má 240 shader procesorů, 80 texturových procesorů a podporuje až 1 GB video paměti. Podrobné charakteristiky čipů GeForce GTX 280 a GeForce GTX 260 jsou uvedeny v tabulce níže.

Specifikace NVIDIA GeForce GTX 280 a GTX 260

Grafické jádro
Procesní standardy
Počet tranzistorů
Rychlost grafického taktu (včetně dispečera, texturových modulů a ROP)
Taktovací frekvence procesorových modulů
Počet modulů procesoru
Rychlost hodin paměti (frekvence/data)

1107 MHz / 2214 MHz

999 MHz / 1998 MHz

Šířka rozhraní paměti
Šířka pásma paměťové sběrnice
Paměť
Počet modulů ROP
Počet modulů pro filtrování textur
Výkon modulů pro filtrování textur

48,2 Gigatexels/s

36,9 Gigatexels/s

podpora HDCP
podpora HDMI

Ano (adaptér DVI-HDMI)

Rozhraní

2x Dual-Link DVI-I
1x 7pinový HDTV

RAMDAC, MHz
Pneumatika
Tvarový faktor

Dva sloty

Konfigurace napájecího konektoru

1 x 8 pinů
1 x 6 pinů

2 x 6-pin

Maximální spotřeba energie
Teplotní limit GPU

Ve skutečnosti lze moderní grafické jádro rodiny GeForce GTX 200 považovat za univerzální čip, který podporuje dva různé režimy – grafický a výpočetní. Architektura čipů rodiny GeForce 8 a 9 je obvykle reprezentována poli škálovatelných procesorů (Scalable Processor Array, SPA). Architektura čipů rodiny GeForce GTX 200 je založena na upravené a vylepšené architektuře SPA, skládající se z řady takzvaných „klastrů pro zpracování textur“ (TPC, Texture Processing Clusters) v grafickém režimu nebo „klastrů pro zpracování vláken“ v paralelní výpočetní režim. Kromě toho se každý modul TPC skládá z řady streamovacích multiprocesorů (SM, Streaming Multiprocessors) a každý SM obsahuje osm procesorových jader, nazývaných také stream procesory (SP, Streaming Processor) nebo vláknové procesory (TP, Thread Processor). Každý modul SM také obsahuje procesory pro filtrování textur pro grafický režim, které se také používají pro různé operace filtrování ve výpočetním režimu. Níže je blokové schéma GeForce 280 GTX v tradičním grafickém režimu.

Po přepnutí do výpočetního režimu spravuje hardwarový správce vláken (výše) vlákna TPC.

Bližší pohled na cluster TPC: distribuovaná paměť pro každý SM; Každé jádro procesoru SM může distribuovat data mezi ostatní jádra SM prostřednictvím distribuované paměti, aniž by bylo nutné přistupovat k externímu paměťovému subsystému.

Jednotný shader a architektura počítače NVIDIA tedy využívá dva zcela odlišné výpočetní modely: pro provoz TPC se používá MIMD (více instrukcí, více dat), pro výpočty SM - SIMT (jedna instrukce, více vláken), pokročilá verze SIMD (jedna instrukce , více údajů). Pokud jde o obecné vlastnosti, ve srovnání s předchozími generacemi čipů má rodina GeForce GTX 200 následující výhody:

  • Schopnost zpracovat třikrát více datových toků za jednotku času
  • Nový design plánovače příkazů s 20% zvýšenou účinností zpracování textur
  • 512bitové paměťové rozhraní (384bitové u předchozí generace)
  • Optimalizovaný proces z-vzorkování a komprese pro dosažení lepších výsledků při vysokém rozlišení obrazovky
  • Architektonická vylepšení pro zlepšení výkonu zpracování stínů
  • Plná rychlost prolínání vyrovnávací paměti snímků (oproti poloviční rychlosti u 8800 GTX)
  • Zdvojnásobte vyrovnávací paměť příkazů pro lepší výpočetní výkon
  • Zdvojnásobte počet registrů pro rychlejší zpracování dlouhých a složitých shaderů
  • Dvojitá přesnost dat s pohyblivou řádovou čárkou podle standardu verze IEEE 754R
  • Hardwarová podpora pro 10bitový barevný prostor (pouze DisplayPort)
Toto je seznam hlavních charakteristik nových čipů:
  • Podpora NVIDIA PhysX
  • Podpora Microsoft DirectX 10, Shader Model 4.0
  • Podpora technologie NVIDIA CUDA
  • Podpora sběrnice PCI Express 2.0
  • Podpora technologie GigaThread
  • Motor NVIDIA Lumenex
  • 128bitová pohyblivá řádová čárka (HDR)
  • Podpora OpenGL 2.1
  • Podpora Dual Dual-link DVI
  • Podporuje technologii NVIDIA PureVideo HD
  • Podpora technologie NVIDIA HybridPower
Samostatně je třeba poznamenat, že DirectX 10.1 není podporováno rodinou GeForce GTX 200. Jako důvod byl uveden fakt, že při vývoji nové rodiny čipů bylo po konzultaci s partnery rozhodnuto zaměřit se nikoli na podporu DirectX 10.1, které je zatím málo žádané, ale na zlepšení architektury a výkonu čipů. Technologie NVIDIA PhysX, založená na sadě fyzikálních algoritmů, je výkonný fyzikální engine pro výpočty v reálném čase. V současné době je podpora PhysX implementována ve více než 150 hrách. V kombinaci s výkonným GPU poskytuje engine PhysX výrazné zvýšení fyzického výpočetního výkonu, zejména v takových okamžicích, jako je vytváření výbuchů s poletujícím prachem a šrapnely, postavy se složitým výrazem obličeje, nové typy zbraní s fantastickými efekty, realisticky opotřebované nebo roztrhané látky. , mlha a kouř s dynamickým prouděním kolem objektů. Další důležitou inovací jsou nové režimy úspory energie. Díky použití přesných 65 nm procesních technologií a nových obvodových řešení bylo možné dosáhnout flexibilnějšího a dynamičtějšího řízení spotřeby energie. Spotřeba grafických čipů rodiny GeForce GTX 200 je tedy v pohotovostním režimu nebo ve 2D režimu asi 25 W; při přehrávání Blu-ray DVD filmu - asi 35 W; při plném 3D zatížení nepřesahuje TDP 236 W. Grafický čip GeForce GTX 200 lze zcela deaktivovat díky podpoře technologie HybridPower se základními deskami na čipsetech nForce HybridPower s integrovanou grafikou (například nForce 780a nebo 790i), přičemž grafický tok nízké intenzity je jednoduše vypočítán integrovaným GPU. do základní desky. Kromě toho mají GPU z rodiny GeForce GTX 200 také speciální moduly pro řízení napájení určené k vypnutí jednotek GPU, které se aktuálně nepoužívají.

Uživatel může nakonfigurovat systém založený na dvou nebo třech grafických kartách rodiny GeForce GTX 200 v režimu SLI při použití základních desek založených na odpovídajících čipových sadách nForce. V tradičním standardním režimu SLI (se dvěma grafickými kartami) je deklarováno přibližně 60-90% zvýšení herního výkonu; v režimu 3-way SLI – maximální počet snímků za sekundu při maximálním rozlišení obrazovky.

Další novinkou je podpora nového rozhraní DisplayPort s rozlišením vyšším než 2560 x 1600, s 10bitovým barevným prostorem (předchozí generace grafik GeForce měly interní podporu pro 10bitové zpracování dat, ale pouze 8bitové barvy komponent RGB byly výstup). V rámci oznámení nové řady grafických procesorů rodiny GeForce GTX 200 nabízí NVIDIA zcela nový pohled na roli centrálního a grafického procesoru v moderním vyváženém desktopovém systému. Takový optimalizované PC na základě konceptu heterogenní výpočetní technika (tedy počítání proudu heterogenních úloh různých typů) má podle expertů NVIDIA mnohem vyváženější architekturu a výrazně větší výpočetní potenciál. Jedná se o kombinaci centrálního procesoru s relativně umírněným výkonem s nejvýkonnější grafikou nebo dokonce systémem SLI, který umožňuje dosáhnout špičkového výkonu v nejnáročnějších hrách, 3D a mediálních aplikacích. Jinými slovy, koncept lze stručně formulovat takto: centrální procesor v moderním systému přebírá servisní funkce, zatímco břímě náročných výpočtů leží na grafickém systému. Přibližně stejné závěry (byť složitější a numericky podložené) pozorujeme v sérii našich článků věnovaných výzkumu závislosti výkonu na klíčových prvcích systému, viz články Procesorová závislost videosystému. Část I - Analýza; Procesorová závislost videosystému. Část II – Vliv velikosti mezipaměti CPU a rychlosti RAM; Závislost na botech aneb proč 3D hry potřebují výkonný CPU; Procesorová závislost videosystému. Přechodová oblast. "Kritický" bod frekvence CPU. Intenzivní výpočetní technika pomocí moderních grafických karet však není novinkou, ale s příchodem řady grafických procesorů GeForce GTX 200 NVIDIA očekává výrazný nárůst zájmu o technologii CUDA. CUDA (Compute Unified Device Architecture) je výpočetní architektura zaměřená na řešení složitých problémů ve spotřebitelské, obchodní a technické sféře – v jakýchkoliv datově náročných aplikacích využívajících GPU NVIDIA. Z pohledu technologie CUDA není nový grafický čip GeForce GTX 280 ničím jiným než výkonným vícejádrovým (stovky jader!) procesorem pro paralelní výpočty. Jak již bylo řečeno výše, grafické jádro rodiny GeForce GTX 200 lze považovat za čip podporující grafické a výpočetní režimy. V jednom z těchto režimů – „výpočetním“ se stejná GeForce GTX 280 promění v programovatelný multiprocesor s 240 jádry a 1 GB vyhrazené paměti – jakýsi dedikovaný superpočítač s výkonem teraflop, který výrazně zvyšuje efektivitu práce s aplikacemi, které se paralelizují. data well, například kódování videa, vědecké výpočty atd. GPU rodiny GeForce 8 a 9 byly prvními na trhu, které podporovaly technologii CUDA, nyní se jich prodalo více než 70 milionů a zájem o projekt CUDA je neustále roste. Můžete se dozvědět více o projektu a stáhnout si soubory potřebné k zahájení. Jako příklad níže uvedené snímky obrazovky ukazují příklady nárůstu výpočetního výkonu získaného nezávislými uživateli technologie CUDA.

Abychom shrnuli naše stručné zkoumání architektonických a technologických vylepšení implementovaných v nové generaci GPU NVIDIA, zvýrazníme hlavní body. Druhá generace jednotné vizuální výpočetní architektury, implementovaná v rodině GeForce GTX 200, je významným vylepšením oproti předchozím generacím GeForce 8 a 9.

Ve srovnání s předchozím lídrem GeForce 8800 GTX má nový vlajkový procesor GeForce GTX 280 1,88krát více procesorových jader; schopný zpracovat přibližně o 2,5 více vláken na čip; má dvojnásobnou velikost registrů souborů a podporu pro výpočty s plovoucí desetinnou čárkou s dvojitou přesností; podporuje 1 GB paměti s 512bitovým rozhraním; vybaven účinnějším správcem příkazů a zlepšenými komunikačními schopnostmi mezi prvky čipu; vylepšený Z-buffer a kompresní modul, podpora 10bitové palety barev atd. Poprvé je nová generace čipů GeForce GTX 200 zpočátku umístěna nejen jako výkonný 3D grafický akcelerátor, ale také jako seriózní počítačové řešení pro paralelní výpočty. Očekává se, že grafické karty GeForce GTX 280 s 1 GB paměti se objeví v maloobchodě za cenu asi 649 dolarů, nové produkty založené na GeForce GTX 260 s 896 MB paměti budou stát asi 449 dolarů (nebo dokonce 399 dolarů). Do jaké míry se doporučené ceny shodují v reálném maloobchodě, bude možné ověřit velmi brzy, jelikož podle všech údajů není oznámení rodiny GeForce GTX 200 v žádném případě „papírové“ řešení na těchto čipech partneři NVIDIA a ve velmi blízké budoucnosti se na pultech objeví nové produkty. Nyní přejděme k popisu první grafické karty GeForce GTX 280, která se dostala do naší laboratoře, a k výsledkům jejího testování.

Předchozí obrázek Další obrázek

Grafická karta s poměrně vysokým výkonem založená na osmé generaci grafického jádra NVIDIA s podporou většiny moderních technologií. Vhodné pro domácí počítače a herní stanice.

GPU poskytuje vysoký výkon pro většinu moderních počítačových her a podpora PhysX vám umožňuje získat další speciální efekty ve hrách bez znatelných ztrát výkonu.

Dobrá podpora pro univerzální výpočetní CUDA / OpenCL / DirectX může výrazně zvýšit produktivitu v úlohách kódování videa a úprav videa.

Výhody

Dobrý výkon pro hry Grafická karta vám umožňuje hrát všechny moderní počítačové hry s dobrou kvalitou obrazu. Podpora SLI Možnost seskupení s jednou nebo dvěma stejnými kartami (při použití základní desky kompatibilní s SLI) pro další zlepšení herního výkonu. Připraveno pro 3D Vision Stereo Karta má dostatečnou „bezpečnostní rezervu“ pro plný stereo režim ve hrách při použití sady NVIDIA 3D Vision (vyžaduje kompatibilní monitor). Podpora akcelerace PhysX GPU má dostatek výkonu k současnému výpočtu 3D grafiky a dalších speciálních efektů ve hrách s podporou PhysX.

Nedostatky

Neúplná akcelerace videa VC-1 Přehrávání některých disků Blu-ray a internetových videí bude záviset na výkonu CPU vašeho počítače. Konektor HDMI je volitelný U většiny grafických karet tohoto modelu je k digitálnímu připojení TV/video zařízení nutné použít samostatný adaptér a připojit grafickou kartu ke zvukovému adaptéru kabelem. Hluk a spotřeba energie Grafická karta vyžaduje výkonné a kvalitní napájení počítače. Hlučnost chladicího systému při zatížení může překročit to, co je pohodlné. Nedostatek podpory DirectX 11 Nejnovější speciální efekty v počítačových hrách nebudou dostupné, výkon ve Windows 7 je omezený.
Čipová sada GeForce GTX 280

Architektura GPU

Kódový název pro mikroarchitekturu GPU

Úvod

Uplynul rok a půl – tak dlouho se GeForce 8800 GTX udržela v pozici, kterou nVidia označila za high-end GPU. Samozřejmě, šest měsíců po oznámení a (jaká náhoda!) před vydáním R600 jsme dostali 8800 Ultra s mírně vyššími takty, ale žádné převratné změny v něm nebyly. Poté, před dvěma a půl měsíci, uvedení 9800 GTX vyvolalo naděje na výrazné zvýšení výkonu, ale jak se ukázalo, karta nabízela velmi omezené zisky oproti staré dobré GTX a byla horší než verze Ultra. Nvidia měla velmi obtížné přesvědčit majitele nových grafických karet o významných výhodách dalších megahertzů nebo dokonce instalaci dvou GPU na jednu grafickou kartu.


Konečně nVidia sestoupila a vyslyšela naše modlitby: GTX 280 je první grafická karta založená na skutečně upravené architektuře G8x. Nyní již známe princip práce společnosti: prezentovat novou architekturu pomocí osvědčeného technického postupu. Kvůli velmi velkému počtu tranzistorů je výroba čipu drahá, karty jsou také velmi drahé, ale trh je stále zachycen. V následujících letech pak Nvidia vylepšuje svou architekturu ve všech segmentech trhu pomocí tenčí procesní technologie, ale méně optimalizované pro vysoké takty. A konečně, když je nový technický proces zvládnut, nVidia jej přenáší na high-end, který se v té době stává dostupnější. Podobný přístup jsme viděli u G70/G71 a G80/G92 a nyní se historie opakuje s GT200 – skutečným „monstrem“ s 1,4 miliardami tranzistorů, vyrobenými 65nm technologií.


Nová generace, nové jméno. Zdá se, že výrobcům se přechod za číslo „10 000“ v řadě nelíbí. Zatímco ATI tento problém vyřešila zavedením římských číslic, nVidia se rozhodla zcela změnit nomenklaturu karet. Nyní máme GeForce 200 GTX. Nabízí se ale zajímavá otázka: co se stalo s kartou GeForce 100 GTX?

GTX 260 GTX 280
Frekvence GPU 576 MHz 602 MHz
Frekvence paměti 999 MHz 1107 MHz
Frekvence streamovacího procesoru 1242 MHz 1296 MHz
Počet stream procesorů 192 240
Počet jednotek textury 64 80
Počet jednotek operace rastru (ROP) 28 32
Paměťový ovladač 448 bitů (7 kanálů po 64 bitech) 512 bitů (8 kanálů po 64 bitech)
Typ paměti GDDR3 GDDR3

Jak vidíme, nVidia představuje novou architekturu, kterou ale nelze nazvat úplně „od nuly“. G80 začínal z prázdné stránky, ale pak architektura prokázala svou vysokou efektivitu. Cílem GT200 bylo opravit všechny „chyby mládí“ architektury a připravit ji na budoucí hry. To, co máme, je do značné míry to, čím byl G70 pro NV40, se spoustou malých vylepšení a také se zvýšením výpočetního výkonu. Stalo se tak v případě 8800 GTX s výkonem v plovoucí řádové čárce 518 GFlops a GTX 280 se již blíží teraflopu – s působivými 933 GFlops. Ve skutečnosti je mezera ještě větší, protože 518 GFlops G80 je navrženo tak, aby provádělo dvě operace s plovoucí desetinnou čárkou na takt (jedna MAD a jedna MUL) - což bylo kvůli omezením G80 v praxi nemožné. S uvedením GT200 nVidia garantuje prostřednictvím testování, že problémy byly vyřešeny. Aby nVidia téměř zdvojnásobila výpočetní výkon předchozího GPU, výrazně zvýšila počet multiprocesorů – z 16 na 30.

Nvidia a AMD se shodují na tom, že budoucí hry budou vyžadovat výrazně vyšší výpočetní výkon než texturování, takže není divu, že se počet texturových jednotek zvýšil mírněji. Z 64 na 9800 GTX dostaneme GTX 280 až 80 (a když tentokrát porovnáme 8800 GTX s GTX 280, přešli jsme od teoretické aritmetické instrukce k filtrovanému poměru texelů 14,1:1 až 19,4:1 ). Co to v praxi znamená?

K vyhodnocení aritmetického výkonu můžete použít syntetické testy s procedurálními texturami (vyžadují mnoho výpočtů). Nvidia má samozřejmě ráda 3DMark Vantage a jeho test Perlin Noise, kde jsme naměřili 129% nárůst výkonu při přechodu z 9800 GTX na GTX 280. Ale vzhledem k důležitosti, kterou Nvidia tomuto testu připisuje, a snadnosti, s jakou nové ovladače lze pro něj optimalizovat (mimochodem jinak pro GTX 280 a 9800 GTX), aby test dělal, co po něm výrobce chce (viz k tomuto tématu), pojďme si rozebrat výsledky zapomenuté verze RightMark 3D s Pixel Shader 2.0 (Direct3D 9.0). Protože se výsledky různých testů výrazně liší v absolutních hodnotách, vyjádřili jsme výsledky v procentech a jako základ jsme použili 9800 GTX.

Jak vidíte, vylepšení jsou mnohem skromnější, i když jsou přítomna – méně pro procedurální shadery a více pro komplexní světelné efekty, kde vidíme nárůst až o 78 %. Nyní přejděme k verzi 2 balíčku RightMark a jeho shaderů 4.0 (Direct3D 10.0).

Nárůst je zde viditelný, ale je blíže ke zvýšení výše uvedeného poměru aritmetiky s plovoucí desetinnou čárkou k filtrování texelu než k číslům, která uvádí 3DMark Vantage.

ROP

Příjemné překvapení nás čekalo u rastrových operačních jednotek (ROP) - jejich počet vzrostl z 24 u G80 (16 u G92) na 32. K zajištění jejich načítání použila nVidia 512bitovou sběrnici, která vzhledem k vlastnostem GPU, zde bude jednoznačně užitečnější než na R600.

U GTX 280 vidíme 78% nárůst výkonu oproti 9800 GTX, což se blíží teoretickým hodnotám, protože zvýšení ROP bylo doprovázeno poklesem frekvence (675 MHz u 9800 GTX).

A protože jsme začali mluvit o AMD, je třeba poznamenat, že tato společnost potřebuje rychle přepracovat svá špičková GPU, která byla od oznámení X800 v roce 2004 omezena na 16 texturových jednotek a 16 ROP! Zatímco GPU AMD zůstávají konkurenceschopné, pokud jde o výpočetní výkon, z jiného pohledu je vážně překonává Nvidia, která s každou novou generací vylepšuje. Doufejme, že nová architektura AMD, která bude velmi brzy představena, tuto mezeru zacelí.

Mimochodem, výsledky HD 3870 X2 ukazují, že i když je ATI co do počtu bloků na čip horší, nezapomínejte, že novou strategií výrobce je použít karty se dvěma GPU proti kartám s jedním GPU od nVidie. ! Z tohoto důvodu a také kvůli mírně vyšší (825 MHz) frekvenci vede v tomto testu 3870 X2, který je sice syntetický, ale relevantní.

A co Direct3D 10.1?

Po kampani nVidie o její zbytečnosti už nějakou dobu nepřekvapuje absence podpory nového API od Microsoftu v 200 GTX. To nás nepřekvapilo, ale naštvalo. Podle nVidie byla podpora API původně plánována, ale dotazovaní vývojáři byli přesvědčeni, že to „není důležité“. Direct3D 10.1 samozřejmě nepřináší nic převratného – jak jsme poznamenali v recenze karet Radeon HD 38x0, nicméně opravuje nedostatky přítomné ve specifikacích Direct3D 10 a existuje několik nových zajímavých funkcí, které mohou být užitečné pro vykreslovací moduly, jako je odložené stínování, které je stále populárnější, a také algoritmy pro vykreslování průhledných povrchů bez řazení.

Ano, to se může v této situaci, kdy Direct3D 10 v deváté verzi ještě neukázalo svou převahu, zdát poněkud nadbytečné, ale vysvětlení nVidie se zdají vágní. Myšlenku, že Direct3D 10.1 je v tuto chvíli k ničemu, nelze označit za falešnou (ač Assassin's Creed dokazuje opak), nicméně se ocitáme v začarovaném kruhu – bez podpory ze strany nVidie je zcela zřejmé, že vývojáři nebudou brát ATI vážně. Podobnou situaci jsme již viděli, ale bylo to naopak: kteří vývojáři použili Shader Model 3, když vyšel NV40, zejména na první GeForce 6, kde byly špatně implementovány základní funkce jako Vertex Texture Fetch a dynamické větvení v shaderech. Nvidia se ale samozřejmě v té době považovala za předvoj 3D API.

Náš názor se tedy oproti předchozímu článku nezměnil. I když DirectX 10.1 momentálně není použitelné, líbí se nám, když nové 3D procesory přicházejí s nejnovějšími technologiemi, se kterými se mohou vývojáři seznámit. V té době jsme kritizovali ATI a nyní naši kritiku obdržela nVidia.

Architektura v detailu

Architektura SIMT?

Pravděpodobně znáte pojmy SIMD (jedna instrukce, mnoho dat) a MIMD (mnoho instrukcí, mnoho dat), ale v GT200 Nvidia popisuje shaderové multiprocesory jako „jednotky SIMT“. Co přesně jsou? Zkratka znamená Single Instruction Multiple Threads (jedna instrukce, mnoho vláken) a hlavní rozdíl oproti režimu SIMD spočívá v tom, že zpracovávané vektory nemají jasně definovanou šířku. Při dostatečném počtu vláken pracuje procesor jako skalární procesor. Pro pochopení si připomeňme, jak jednotky pixel shader fungovaly v předchozích architekturách.

Rasterizer generuje quads - 2x2 čtverce pixelů, kde každý pixel je specifikován vektorem čtyř s jednoduchou přesností hodnot s plovoucí desetinnou čárkou (R, G, B, A) nebo (X, Y, Z, W) - nejpoužívanější formát ve 3D výpočtech. Čtveřice pak přejdou do stream procesorů (ALU), které pracují v 16kanálovém režimu SIMD, což znamená, že stejná instrukce je aplikována na všech 16 čísel s pohyblivou řádovou čárkou. Samozřejmě jsme vše poněkud zjednodušili, ale princip lze pochopit; ve skutečnosti mají GeForce 6 a 7 režim společného vydávání pro provádění dvou instrukcí na vektor.

Po G80 byl tento provozní režim změněn - rasterizér stále generoval kvadráty, které se zapisovaly do vyrovnávací paměti. Když se ve vyrovnávací paměti nashromáždilo 8 čtveřic (32 pixelů, "warp" v terminologii CUDA), mohly být vykonány multiprocesorem v režimu SIMD. Jaký je rozdíl? Způsob, jakým jsou nyní data organizována: místo práce se čtyřmi vektory čtyř operací s plovoucí desetinnou čárkou, které mohou vypadat takto (R, G, B, A, R, G, B, A, R, G, B, A , R, G, B, A), multiprocesor pracuje s vektory 32 čísel s pohyblivou řádovou čárkou, z nichž každý představuje stejnou složku 32 vláken: například (R, R, R, R, R, R, R, R, R, R R, R, R, R, R, R, R, R, R, R, R, R, R, R, R, R, R, R, R, R, R), potom (G, G, G, G, G, G, G, G, G, G, G, G, G, G, G, G, G, G, G, G, G, G, G, G, G, G, G, G, G, G, G, G, G) atd.

V programování SIMD se první zarovnání dat nazývá AoS (Array Of Structures) a druhé se nazývá SoA (Structure of Arrays). Druhá organizace poskytuje vyšší produktivitu. Pokud je dostatek dat k vyplnění vektoru, vypadá procesor z pohledu programátora jako skalární blok, protože SIMD bloky jsou vždy 100% využity bez ohledu na šířku zpracovávaných dat. Proto AoS dosahuje špičkového výkonu pouze tehdy, když je stejná instrukce uložena na všechny čtyři složky každého vektoru.


Pro zvětšení klikněte na obrázek.

Každý z osmi TPC (Texture Processor Clusters) je vybaven texturovací jednotkou a dvěma Streaming Multiprocessors (SM). Pro GT200 zvýšila nVidia počet TPC jednotek na 10, každá je stále vybavena texturovací jednotkou, ale se třemi multiprocesory.



Pro zvětšení klikněte na obrázek.

Tato změna představuje posun v orientaci moderních shaderů s důrazem na aritmetické instrukce. Texturní jednotky každého clusteru TPC používají stejný model jako G84 a G92 – výkon adresy je stejný jako výkon filtrování, na rozdíl od G80, kde byl výkon filtrování dvojnásobkem výkonu adresy. V jednoduchém režimu filtrování textur RGBA8 jsou tedy texturovací jednotky G84/G92/GT200 dvakrát tak produktivní než G80. U pokročilejších režimů filtrování nebo textur RGBA16 změna neovlivní výsledek.

Je tu další vylepšení specifické pro GT200: Nvidia říká, že nyní používá efektivnější systém odesílání pro operace s texturami, což by mělo výsledek přiblížit špičkovému výkonu ve srovnání s G92. Podívejme se na výsledky Fillrate Testeru.

Přechod z 64 na 80 texturových jednotek s přihlédnutím k rozdílu v taktech GPU by měl GTX 280 poskytnout výhodu pouze 11 % oproti 9800 GTX. Ale naměřili jsme 43 % při použití čtyř textur a 118 % při použití dvou! Je nepravděpodobné, že by rozdíl vysvětlovalo zlepšení systému expedice. Svou roli však sehrál i nárůst počtu ROP (zdvojnásobení). Ať tak či onak, je celkem jasné, že GTX 280 je mnohem blíže teoretickým mírám plnění s jednou nebo dvěma texturami (97 %) než 9800 GTX (mezi 80 a 91 %), což znamená, že vylepšení od Nvidie se v praxi vyplatila. Jak jsme vysvětlili výše, AMD deska se dvěma GPU, která také běží na vyšších taktech ve srovnání s Nvidií, je pouze o 32 % horší než GTX 280 se čtyřmi texturami.

Nyní se podívejme na výsledky texturovacího testu RightMark3D 2.0 PS 4.0.

Výsledek prvního shader testu (Fur) je překvapivý: 14% nárůst, což není moc vzhledem k optimalizaci prolnutí, geometrii shaderů a fill rate, i když vše závisí na implementaci shaderů. Na druhou stranu 59% nárůst v testu Strmé mapování paralaxy působivější, srovnatelné s našimi očekáváními.

Kromě zvýšení počtu prošel každý multiprocesor několika optimalizacemi. Prvním je zvýšení počtu aktivních vláken na multiprocesor – ze 768 na 1 024 (z 24 32vláknových „warpů“ na 32). Vyšší počet vláken je užitečný zejména pro kompenzaci latence při operacích s texturami. V měřítku GPU získáme nárůst počtu aktivních vláken z 12 288 na 30 720.

Počet registrů na multiprocesor se zdvojnásobil z 8 192 na 16 384 S doprovodným nárůstem počtu vláken se počet registrů, které může vlákno současně používat, zvýšil z 10 na 16. U G8x/G9x byl použit náš testovací algoritmus. 67 % výpočetních jednotek; na GT200 by toto číslo mělo být 100 %. Vzhledem ke dvěma texturovým jednotkám by měl být výkon výrazně vyšší než u G80, který jsme také vzali k testování. Bohužel CUDA 2.0 vyžaduje ovladač, který je stále v beta verzi a neuznává GeForce 200 GTX. Když se v hlavní větvi ovladače objeví podpora, test zopakujeme.


Pro zvětšení klikněte na obrázek.

Toto není jediné vylepšení, které nVidia se svými multiprocesory provedla: společnost oznámila optimalizaci režimu duálního vydání. Jak si možná pamatujete z G80, multiprocesory údajně umožňují provedení dvou instrukcí za hodinový cyklus: jednu MAD a jednu MUL s pohyblivou řádovou čárkou. Zmiňujeme "prý" proto, že jsme v té době nemohli toto chování ověřit v našich syntetických testech - nevíme, zda toto omezení bylo způsobeno podporou hardwaru nebo ovladačů. O několik měsíců později, po několika verzích ovladačů, víme, že MUL není vždy snadné oddělit na G80, takže problém je pravděpodobně hardwarový.

Jak ale režim duálního vydání funguje? V době G80 Nvidia neuváděla podrobnosti, ale pak jsme se studiem patentu dozvěděli trochu více o způsobu provádění instrukcí na multiprocesorech. Nejprve patent jasně zdůrazňuje, že multiprocesory mohou spustit pouze jednu instrukci za cyklus hodin GPU. Kde je tedy slavný režim duálního vydání? Ve skutečnosti jde o hardwarovou specializaci: jedna instrukce používá dva takty GPU (čtyři takty stream procesoru/ALU), lze ji aplikovat na „warp“ (provádění 32 vláken na 8kanálových blocích SIMD), ale začátek multiprocesorová pipeline může spustit provádění pouze jedné instrukce v každém hodinovém cyklu, pokud patří k různým typům: MAD v jednom případě, SFU v jiném.

Kromě transcendentálních operací a interpolace hodnot každého vrcholu jsou SFU schopny provádět násobení s plovoucí desetinnou čárkou. Střídáním provádění instrukcí MAD a MUL můžete dosáhnout „překrytí“ doby provádění instrukce. Každý takt GPU tedy vytváří výsledek MAD nebo MUL ve "warp" - tedy 32 skalárních hodnot. Na základě popisu nVidia můžete očekávat, že dostanete MAD A MUL každé dva cykly hodin GPU. Ve skutečnosti je výsledek stejný, ale z hardwarového hlediska je začátek pipeline výrazně zjednodušený, podporuje přísun instrukcí pro provedení jedné v každém taktu.



Pro zvětšení klikněte na obrázek.

Co omezovalo tuto funkci na G8x/G9x bylo opraveno na GT200? nVidia bohužel neuvádí. Zástupci společnosti jednoduše říkají, že zlepšili bloky, jako je alokace registrů, plánování a spouštění pokynů pro provádění. Ale udělali jsme předpoklad blízký realitě. Nyní se podívejme, jak moc změny nVidie ovlivnily praxi – syntetický test GPUBench.

Pro účely srovnání jsme zahrnuli výsledky 9800 GTX. Tentokrát je vše jasné: můžete vidět vyšší rychlost provádění instrukcí MUL ve srovnání s instrukcemi MAD. Stále jsme ale daleko od zdvojnásobení hodnot, přibližně 32 % oproti MAD. Ale to je taky dobře. Je třeba poznamenat, že výsledky pro instrukce DP3 nebo DP4 by neměly být brány v úvahu, protože čísla nebyla konstantní. Totéž platí pro instrukce POW, což je pravděpodobně problém ovladače.

Poslední změnou provedenou u streamovacích multiprocesorů je podpora dvojité přesnosti (64bitové s pohyblivou řádovou čárkou místo 32bitů). Abych byl upřímný, extra přesnost se v grafických algoritmech používá jen zřídka. Jak ale víme, GPGPU (používání GPU pro výpočty) je pro nVidia stále důležitější a v některých vědeckých aplikacích je nezbytná dvojnásobná přesnost.

Nvidia není první společností, která si toho všimla. IBM nedávno upgradovala své procesory Cell, aby zlepšila výkon SPU u tohoto typu dat. Pokud jde o výkon, implementace GT200 samozřejmě ponechává mnoho přání – výpočty s plovoucí desetinnou čárkou s dvojitou přesností jsou implementovány na samostatném bloku streamovacího multiprocesoru. Blok umožňuje jeden výpočet MAD s dvojnásobnou přesností na takt, což poskytuje špičkový výkon 1 296 x 10 (TPC) x 3 (SM) x 2 (Multiply+Add) = 77,78 Gflops, neboli někde mezi 1/8 a 1/12 na výkon s jedinou přesností. AMD přidalo stejnou podporu pomocí stejných výpočetních jednotek v několika hodinových cyklech, což poskytlo výrazně lepší výsledky – pouze dvakrát až čtyřikrát pomaleji než výpočty s jednou přesností.

ROP

Jak jsme již řekli, počet rastrových operačních jednotek (ROP) se zvýšil, ale nové funkce jsme se nedočkali. Nicméně stojí za to uznat, že ROP G8x jsou již zcela kompletní, s podporou 16bitových a 32bitových vyrovnávacích pamětí snímků s pohyblivou řádovou čárkou s mícháním a vyhlazováním; Anti-aliasing až 8x nebo 16x v režimu CSAA; Z-vykreslování je osmkrát rychlejší atd. Není potřeba skoro nic dodávat. nVidia proto začala s optimalizací výkonu. Pro prolínání ve vyrovnávací paměti snímků RGBA8 jsme získali poloviční výkon u G8x/G9x s 12 pixely na takt. GT200 toto omezení odstranil a přidáním 512bitové sběrnice, s propustností více než 140 GB/s, mohou nové ROPy udělat z karet GeForce nepřekonatelné z hlediska propustnosti. Níže jsou uvedeny výsledky pro pixel Z-fill.

Pokud jde o čistý výkon, výsledky nezklamou, vytvořili jsme nový rekord: 75 537 megapixelů za sekundu! Hodnotu však lze stále považovat za zklamání v tom smyslu, že jsme obdrželi čtyřnásobné, nikoli osminásobné zvýšení základní míry plnění. U 9800 GTX jsme dostali nárůst o 5,2 – o něco lepší, ale opět pod teoretickou hodnotou.

Výsledky Fillrate Testeru

Výkon geometry shaderu předchozích procesorů nVidia Direct3D 10 nebyl příliš působivý kvůli nesprávně vyhodnoceným a příliš malým vnitřním vyrovnávací paměti. Pamatujte, že podle specifikací Direct3D 10 je geometry shader schopen produkovat až 1 024 hodnot s plovoucí desetinnou čárkou s jednoduchou přesností na vstupní vrchol. Proto se při značném zatížení geometrie vyrovnávací paměti rychle zaplnily a zabránily dalším výpočtům geometrie. GT200 zvýšil velikost vyrovnávací paměti šestkrát, což v některých případech výrazně zlepšuje výkon, jak uvidíme. Aby Nvidia vytěžila maximum z velikosti vyrovnávací paměti, musela zapracovat na odesílání vláken geometrie shaderu.

Na prvním shaderu Galaxy je nárůst velmi mírný - 4%. Na druhou stranu na Hyperlight to bylo 158% - důkaz zlepšení v práci s podobnými typy shaderů, i když vše závisí na implementaci a na síle (počet bodů/čísla s pohyblivou řádovou čárkou vygenerovaných na příchozí vertex). Celkově GTX 280 uzavřela mezeru a porazila 3870 X2 na stejném shaderu.

Nyní se podívejme na výsledky testu Rightmark 3D Point Sprites (Vertex Shading 2.0).

Proč o tomto testu mluvíme v části o geometry shaderech? Jednoduše proto, že od Direct3D 10 jsou geometry shadery zodpovědné za zpracování bodových spriteů, což vysvětluje zdvojnásobení výkonu mezi 9800 GTX a GTX 280!

Různá vylepšení

Nvidia optimalizovala několik aspektů architektury. Post-transformační mezipaměť byla zvětšena. Úlohou této mezipaměti je vyhnout se nutnosti opakované transformace jednoho vrcholu vícekrát pomocí indexovaných primitiv nebo trojúhelníkových pásů tím, že zaznamenáte výsledek vertex shaderů. Díky nárůstu počtu ROP se výrazně zlepšila výkonnost Early-Z prořezávání. GT200 je schopen oříznout až 32 pixelů na masku za cyklus před použitím pixel shaderu. nVidia navíc tvrdí, že optimalizuje přenos dat a příkazů mezi ovladačem a začátkem GPU pipeline.

Vzhledem k tomu, že prakticky zdvojnásobení počtu stream procesorů (ALU) může vést k určitým vylepšením, podívejme se nejprve na to, jak si karty vedou v testu Rightmark Vertex Shaders.

Překvapivě i přes různé úpravy a opakované testovací provozy GTX 280 nejen vykazovala menší výkon než 9800 GTX, ale navíc klesla o 12 %! Nvidia získala stejné výsledky a my jsme je mohli změnit pouze zapnutím 4x vyhlazování - překvapivý krok pro test geometrie. Je však třeba poznamenat, že navzdory zvýšenému výpočetnímu výkonu (a zvýšenému výkonu transformace) se modul nastavení nezměnil. Stejně jako u 9800 GTX je karta schopna generovat pouze jeden trojúhelník na takt. A výhoda taktu 9800 GTX (675 MHz vs. 600 MHz) vysvětluje rozdíl.

Jak je obvykle v případě RightMark 2.0, první test shaderu neukázal žádné zlepšení na nové grafické kartě, ale druhý přinesl 25% nárůst.

O vylepšeních pokročilých pixel shaderů jsme již mluvili dlouho (zejména v sekci aritmetických testů), ale pojďme se podívat na jednodušší shadery, konkrétně Fillrate Tester, test stínování na pixel, který jsme používali. už čtyři roky.

Uběhlo už pěkných pár let, takže u GTX 280 bychom mohli očekávat nárůst výkonu o více než 40 %. Nebudeme ukazovat všechny výsledky ze ShaderMarku (který používá Pixel Shader 3.0), ale i tam se zlepšení pohybovalo od 20 do 26 % u posledních šesti shaderů a maximální nárůst nebyl větší než 43 %.

Všechny výsledky byly překvapivé a ukázaly rozdíl mezi teoretickým nárůstem výkonu (který by měl ovlivnit vertexové a pixel shadery, i starší) a skutečným ziskem v aplikacích. Ovladače samozřejmě ještě nejsou plně optimalizovány a neměli bychom zapomínat, že při spuštění i toho nejspecifičtějšího testu je velmi obtížné izolovat jakoukoli část potrubí tak, aby nebyla ovlivněna zbytkem, zejména v moderních architekturách .

Specifikace: ještě vyšší!

Jak se často stává, nVidia pro oznámení připravila dvě grafické karty: extrémní high-end verzi GeForce GTX 280 a o něco dostupnější, ale stále špičkovou grafickou kartu GeForce GTX 260 Podívejme se na vlastnosti těchto videí karty ve srovnání s jejich konkurenty.

Specifikace hlavních grafických karet
GPU HD 3870 X2 9800 GX2 8800 Ultra GTX 260 GTX 280
Frekvence GPU 825 MHz 600 MHz 612 MHz 576 MHz 602 MHz
ALU frekvence 825 MHz 1 500 MHz 1 512 MHz 1242 MHz 1296 MHz
Frekvence paměti 900 MHz 1000 MHz 1 080 MHz 999 MHz 1107 MHz
Šířka paměťové sběrnice 2x256 bitů 2x256 bitů 384 bitů 448 bitů 512 bitů
Typ paměti GDDR3 GDDR3 GDDR3 GDDR3 GDDR3
Paměť 2 x 512 MB 2x512 MB 768 MB 896 MB 1 024 MB
Počet ALU (stream procesorů) 640 256 128 192 240
Počet jednotek textury 32 128 32 64 80
číslo ROP 32 32 24 28 32
Výkon shaderů 1 TFlops (1152) GFlops (581) GFlops 715 GFlops 933 GFlops
Šířka pásma paměti 115,2 GB/s 128 GB/s 103,7 GB/s 111,9 GB/s 141,7 GB/s
Počet tranzistorů 1 334 milionů 1 010 milionů 754 milionů 1 400 milionů 1 400 milionů
Technický proces 55 nm 65 nm 80 nm 65 nm 65 nm
Krystalová oblast 2 x 196 mm² 2 x 324 mm² 484 mm² 576 mm² 576 mm²
Generace 2008 2008 2007 2008 2008
Podporovaný model shaderu 4.1 4.0 4.0 4.0 4.0

S 1 400 miliony tranzistorů a plochou matrice 576 mm² vytvořila Nvidia další monstrum – největší GPU, jaký kdy byl vyroben, který překonává již tak působivý rekord G80 (je o 16 % menší). V zásadě se plocha krystalu v průběhu generací mění jen málo (i když u „masových“ procesorů se zmenšuje). Je zřejmé, že výroba GT200 je pro nVidii velmi drahá, a to i na dobře propracovaném, ale ne nejsofistikovanějším technickém procesu, což vysvětluje existenci tak velkého čipu.

Další zajímavý bod: pokračováním v používání GDDR3 nVidia již není o jednu, ale o dvě generace pozadu za svým konkurentem, protože GDDR5 se objeví v Radeonu HD 4870, který vyjde v blízké budoucnosti. Nutno však podotknout, že díky 512bitové paměťové sběrnici je nárůst šířky pásma stále o 64 % oproti 86,4 GB/s u 8800 GTX. Konečně jsme se dočkali vzhledu špičkové grafické karty s více než 512 MB paměti (nepočítáme-li relativně starou a ne nejběžnější 8800 Ultra)! S 1 GB (a 896 MB u GTX 260, což je také dobré) by měl být výkon při rozlišení 2 560 x 1 600 velmi slušný.

Nakonec se frekvence ukázaly jako velmi konzervativní, zejména u stream procesorů (ALU), které jsou mimo jiné pomalejší než ty na 8800 Ultra.

GTX 280 nebo GTX 260?

S o 30 % vyšším výkonem s pohyblivou řádovou čárkou a o 27 % vyšší šířkou pásma paměti je teoretická propast mezi dvěma novými grafickými kartami Nvidia docela patrná. V praxi jsou si karty navzájem velmi podobné a také nejnovějším high-endovým modelům GeForce 9 – nešťastný důsledek generických „black box“ pouzder, které Nvidia používá na nejnovějších grafických kartách. Venku je odkryt pouze velký 8cm radiální ventilátor, mírně nakloněný pro odvětrávání základny a další již nepotřebné napájecí konektory. Pro napájení slouží dva šestipinové PCI Express konektory nebo jeden šesti- a jeden osmipinový: s tímto napájením bude muset zdroj pracovat, pokud budete chtít osadit GeForce GTX 280 nebo GTX 260. To ale není žádná novinka ATI si na takové požadavky v minulém roce zvykla a vydala 2900 XT.



Pro zvětšení klikněte na obrázek.

Přítomné SLI konektory a HDMI audio vstup jsou ukryty za odnímatelnými kryty. Jediný skutečný rozdíl oproti GeForce 9800 GTX je v tom, že ačkoli druhý kryt slotu má otvor pro odvod horkého vzduchu, část vzduchu z karty uniká druhou mřížkou a jde nahoru, takže zůstává uvnitř skříně - to není dobrá zpráva . Karty jsou stále 26,7 cm (10,5") dlouhé - což je standard pro špičkové modely za poslední dva roky - a hmotnost je těsně pod kilo na 915 g, což je o něco lehčí než 940 g HD 3870 X2.



Pro zvětšení klikněte na obrázek.

K testování jsme obdrželi grafické karty Leadtek, které tradičně u high-endových modelů při uvedení na trh používají referenční design a výrobce se pozná pouze podle pár nálepek na obalu. Sada GTX 280 obsahuje hru NeverWinter Nights 2 (ne poslední verze, která by ukazovala výkon grafické karty), adaptér DVI-VGA, kabel HDTV (YUV a S-Video), dva adaptéry od Molexu na šestku -kolíková zástrčka PCI Express a adaptér od Molex na osmikolíkovou zástrčku PCI Express.

Pro tento test jsme použili referenční konfiguraci a také jsme testovali hry výhradně pomocí Fraps v reálných podmínkách. Většina her, které nám v minulosti pomohly, je zahrnuta v recenzi, tradičně jsme je aktualizovali (posledními patchi), ale přidali jsme dvě nové hry: Mass Effect, vesmírné ságové RPG od Bioware, které navzdory jeho kořeny na Xbox 360, byl úspěšně přenesen. Je to hra, bez které bychom se nemohli obejít (zvláště proto, že překlenuje propast poté, co jsme se vzdali Fable). Druhou hrou je Race Driver: GRID, která je i přes rozhraní pro testery noční můrou (podobně jako předchozí Colin McRae Dirt od stejného vydavatele Codemasters). Tato hra je vizuálně velmi atraktivní a využívá nejnovější verzi Ego Engine.

Všechny syntetické testy DirectX 9 byly spuštěny pod Windows XP kvůli jejich nestabilitě pod Vista (Fillrate Tester, RightMark 1050, ShaderMark 2.1 a SPECviewperf 10). RightMark 3D 2.0 (DirectX 10) byl celkem pochopitelně spuštěn pod Windows Vista (bez SP1, protože test s ním byl také nestabilní) a pro všechny hry jsme použili Vista SP1, stejně jako pro CUDA testy, měření hluku a teploty , stejně jako pro přetaktování. Zakázali jsme UAC, Aero, SuperFetch a indexování, abychom získali opakovatelné výsledky.

Pro test jsme použili pouze dvě rozlišení: 1 920 x 1 200 (24/26") a samozřejmě 2 560 x 1 600 podporované 30" monitory (v našem případě Samsung 305T). Důvodem je, že si myslíme, že špičkové grafické karty, jako je tato, budou použity pouze pro tato rozlišení. Pokud má váš monitor nižší rozlišení (až 22"), pak byste pravděpodobně neměli utrácet peníze za podobné modely, abyste získali plynulý a krásný obraz, jako již máme my.


Testovací konfigurace
Základní deska Asus P5E3 Deluxe (Intel X38)
procesor Intel Core 2 Quad QX6850 (3 GHz)
Paměť Crucial 2 x 1 GB DDR3 1333 MHz 7-7-7-20
HDD Western Digital WD5000AAKS
Optická mechanika Asus 12x DVD
pohonná jednotka Cooler Master RealPower Pro 850W
Software
OS Windows XP, Vista, Vista SP1
Ovladače nVidia ForceWare 177.34 beta (GTX 260 a GTX 280 pod Vista)
ForceWare 177.26 beta (GTX 280 pod XP)
ForceWare 175.16 WHQL (9800 GTX, 9800 GX2, 8800 Ultra)
Ovladače AMD Katalyzátor 8,5 WHQL (HD 3870 X2)


Pro zvětšení klikněte na obrázek.

Proč testovat nejnovější špičkové grafické karty na hře, o které je známo, že je náročná na CPU? Důvod je jednoduchý: musíte se ujistit, že se nové grafické karty chovají alespoň tak dobře jako předchozí generace, a také zkontrolovat, zda je ovladač dobře vyvinutý. Jak jsme již mnohokrát viděli, Flight Simulator X možná skrývá některá překvapení.


Jak je vidět, nová GeForce GT200 není nijak povzbudivá. Žádná z nich nedokázala vyprodukovat více než 23 fps, což je ostudné, i když jde o Flight Simulator X. Ale 9800 GX2 a 8800 Ultra se přiblížily hranici 30 fps, což je mnohem lepší. Jsme si jisti, že v příští verzi ovladačů by se situace měla zlepšit, protože je poněkud paradoxní kupovat nejnovější generaci grafických karet nVidia pouze kvůli poklesu výkonu. I ve hře, kde hraje důležitou roli výkon CPU.



Pro zvětšení klikněte na obrázek.


Zatímco GTX 280 si v Call of Duty 4 vedla dobře a porazila 9800 GTX o 41 % (1 920 x 1 200) a 91 % (2 560 x 1 600 + filtry), 9800 GX2 se ukázala jako těžký soupeř. Dokonce překonal 280 s rozlišením 1 920 x 1 200 (o solidních 17 %), pravděpodobně kvůli vyššímu počtu texturových jednotek – jedinému teoretickému měřítku, kterým nejnovější dual-GPU karty Nvidie překonávají. Při 30" šířce pásma paměti a dvojnásobném množství paměti získala GTX 280 prvenství, ale až po zapnutí 4x anti-aliasing (stále hratelné). Začali jsme mít podezření, že na těchto grafických kartách můžeme získat výsledky velmi blízko sebe. Všimněte si, že GTX 260 zaostává o 21–26 % za starším modelem, což se vzhledem ke specifikacím celkem očekává, grafická karta je jasně lepší než 8800 Ultra, ale v tomto testu je znatelně horší než 9800 GX2.



Pro zvětšení klikněte na obrázek.


Ve hře Test Drive Unlimited není pochyb o převaze nových špičkových grafických karet nVidia, i když 9800 GX2 byla velmi blízko (zpoždění je méně než 8 % v prvních třech režimech a 17 % v maximum). Další dobrou zprávou pro výrobce je, že převaha GTX 280 je patrná od rozlišení 1920 x 1200, kde je výkon dvojnásobný než u GTX 9800 (s filtrováním a vyhlazováním). Přechod na 30" ale náskok neposílil, ale naopak snížil, ale náskok je stále 50% bez filtrů a 76% s nimi. Co se týče GTX 260, její náskok před 8800 Ultra na stejné rozlišení se také snížilo na průměr 11 %.



Pro zvětšení klikněte na obrázek.

Crysis si i nadále získává překvapivou pozornost. Níže jsou naše testy (testovali jsme hru na nové scéně, která není tak náročná na GPU jako ta předchozí).


Vzhledem k vysoké náročnosti hry (tentokrát jsme ji testovali ve stejných rozlišeních jako ostatní hry) odpovídá hierarchie v grafu výsledkům bez filtrů, protože jsou k ničemu. Můžete hrát Crysis v rozlišení 1920 x 1200 na nové GTX 280? Ano, ale ne tak plynule jako 9800 GX2 na naší testovací scéně. Pouze zapnutí vyhlazování umožnilo 280 vyjít dopředu, ale snímková frekvence je příliš nízká na to, aby se dala hrát v režimu detailů „Very High“. A problém je v tom, že ačkoli ve třech ze čtyř testovacích běhů GTX 280 překonala 9800 GX2 v Crysis, je nepravděpodobné, že bude hratelné. Stalo se tak navzdory více než dvojnásobnému výkonu při 2 560 x 1 600 a skutečnosti, že nové karty byly jediné kromě 8800 Ultra, které dokázaly spustit hru s aktivním anti-aliasingem. Celkově jsme byli zklamaní.



Pro zvětšení klikněte na obrázek.


Před námi je další „těžká“ hra, ale v každém případě si můžete zahrát v rozlišení 2 560 x 1 600 bez filtrů. Grafická karta ve World in Conflict však ustoupila „temnému koni“ v rozlišení 1 920 x 1 200: Radeon HD 3870 X2! Opět po povolení filtrů poskytla lepší výkon dual-GPU AMD karta, která je pro tuto hru skvělá, mírně porazila GTX 280. Na 30" displeji si AMD karta udržela výhodu a kapacita paměti GTX 280 na posledně jmenovaný režim si opět vedl dobře, i když si na něm stěží zahrajete A to není vše: při stejném rozlišení vyšla navrch karta nVidia, ale 9800 GX2, ne tedy GT200 v Conflict and Crysis pak GTX 280. Pravděpodobně ji nebudete potřebovat...



Pro zvětšení klikněte na obrázek.


Postupem času se tato hra stala méně žravou, zejména ve srovnání s některými nedávnými hrami. Supreme Commander je však stále aktuální, zejména pro online hry. Na bojišti, ale s ne příliš velkým počtem jednotek (aby výkon nebyl omezen CPU), GTX 280 nikdy nedokázala porazit 9800 GX2, která vede o 39 % při 2 560 x 1 600 Ano, výsledky GTX 280 jsou. není to nic hrozného, ​​protože jsou o 45 % rychlejší než 9800 GTX a 8800 Ultra, i když jsme čekali víc.



Pro zvětšení klikněte na obrázek.


Dva nové produkty jsou zajímavé k analýze v Unreal Tournament 3. Pokud výsledky 1 920 x 1 200 nepřekvapí, pak se s 2 560 x 1 600 opět ujal vedení „temný kůň“ 9800 GX2. Bohužel omezená paměť na této grafické kartě nám zabránila otestovat ji pomocí filtrů, ačkoli GTX 280 se s tím popasovala a zajistila plynulé hraní. Průměrný rozdíl oproti předchozí generaci grafické karty 9800 GTX byl 59 %. GTX 260 si vedla dobře, při třech ze čtyř rozlišení podala zhruba 83 % výkonu GTX 280, což této kartě dává dobrý poměr cena/výkon, jak uvidíme dále.



Pro zvětšení klikněte na obrázek.


Mass Effect je přenesen z Xboxu 360 a běží velmi dobře na Radeonu HD 3870 X2, kromě toho, že se potýká s vyhlazováním. Je to však docela dobré s 1 920 x 1 200 a 2 560 x 1 600, ale to nezabránilo GTX 280 v tom, aby se ujala vedení, protože 9800 GX2 si v této hře nevede příliš dobře a je znatelně horší (34 % na 1920 x). 1200 + filtry a 62 % při 2560 x 1600). Mezera mezi GTX 280 a 9800 GTX byla 220 % při rozlišení 1 920 x 1 200 + filtry a GeForce GTX 260 mírně zaostává za „starším“ modelem.



Pro zvětšení klikněte na obrázek.


Hra je příliš nová na to, aby měla profil SLI (je vyžadován pro karty s dvěma GPU, jako je 9800 GX2), takže 9800 GX2 je smolař. To jen pomáhá GTX 280 dostat se dopředu. Výkon grafické karty je velmi dobrý: pokud porazí GTX 260 jen o cca 20 %, náskok před 9800 GTX se zvýší na 50 % (kromě 1920 x 1200 a 2560 x 1600 + filtry). Ještě důležitější je, že dvě nové grafické karty jsou jediné, které umožňují hraní v rozlišení 2 560 x 1 600 + 4X anti-aliasing, což je režim, který je velmi příjemný pro oči.

BadaBOOM Media Converter, Folding@Home

BadaBOOM Media Converter je program pro překódování videa vyvinutý společností Elemental Technologies, který převádí Video DVD (pouze MPEG2) do formátu H.264 pro většinu přenosných přehrávačů médií, včetně iPhone, iPod a PSP (pouze s přednastavenými profily). Program je optimalizován pro CUDA (prostřednictvím videoplatformy RapiHD společnosti ETI), takže vám umožňuje pohodlně porovnávat výkon kompatibilních GeForce (všechny modely GeForce 8 a 9), které tento náročný úkol urychlují – kdysi AMD oznámilo prostřednictvím AVIVO. Elemental kodér však není tak zabugovaný a poskytuje vyšší rychlost komprese.



Pro zvětšení klikněte na obrázek.

Na předchozí verzi, která byla kompatibilní pouze s GT 200, jsme byli schopni zkomprimovat testovací video (400 MB) do formátu iPhone (640 x 365) v maximální kvalitě za 56,5 sekundy na GTX 260 a 49 sekund na GTX. 280 (snížení o 15 %). Pro účely srovnání, kodér iTunes H.264 běží osm minut s využitím zdrojů CPU (celkově spotřebovává více energie, ale výrazně méně ve špičkách). Je však třeba připomenout, že se zdaleka nejedná o nejoptimalizovanější kompresor H.264 a BadaBOOM zjevně postrádá flexibilitu provozu, i když výsledek je velmi dobrý.

Folding@Home

Na CUDA jsme měli možnost otestovat pre-beta klienta Folding@Home, jehož finální verze by se měla objevit v nejbližších dnech. Bohužel to také funguje pouze na GeForce 200.



Pro zvětšení klikněte na obrázek.

Zde má nVidia opět více než roční zpoždění oproti ATI, jejíž grafické karty Radeon jsou v projektu, ale GeForce 200 (protože jsme nemohli otestovat jiné grafické karty nVidia) podává lepší výkon. Na naší testovací konfiguraci jsme dostali 560 ns za den na GTX 280 a 480 ns za den na GTX 260. Pro srovnání, PS3 dává výkon asi 150-200 ns za den, oproti méně než 10 u procesoru a 200 za jednoduchý Radeon HD 3870.

Je však důležité pochopit, že výkon se může snadno lišit v závislosti na klientovi na dané architektuře (optimalizace kódu není pro klienty ATI a nVidia zdaleka dokončena). Mike H věří, že stejný HD 3870 může dát 300 ns za den, ale ne méně než 250. Dalším problémem je, že při změně proteinu potřebného pro klienta GeForce se změní i výkon. Obecně bychom pro dnešek rádi zdůraznili náhodnou povahu a dočasnost výše uvedených výsledků. Jsme přesvědčeni, že s klientem, který podporuje grafické karty GeForce kompatibilní s CUDA (vše od GeForce 8, včetně základních modelů), budou zajímavé příležitosti pro projekt s instalovanou základnou přibližně 7 000 TFlops.



Pro zvětšení klikněte na obrázek.

1 400 milionů tranzistorů na 65nm procesní technologii vede k očekávané vysoké spotřebě energie grafické karty. Podívejme se na příkon systému včetně ztrát napájení (příkon celého systému a 20% ztráty v napájení).

První věc, která stojí za zmínku: ve hrách je spotřeba energie nových grafických karet velmi vysoká, ale ne rekordní. GTX 280 zobrazuje spotřebu energie srovnatelnou s 8800 Ultra, ale nižší než 9800 GX2. A to, že grafická karta 3870 X2 spotřebovává méně energie, je dáno nedostatečnou zátěží v testované hře. Ve stejném Fillrate Testeru jsme zaznamenali vyšší vrcholy spotřeby energie: 404 W pro 3870X2 oproti pouhých 340 W pro GTX 280 a 279 W pro GTX 9800. Spotřeba GTX 260 je jen o málo vyšší než 9800 GTX, což je dobrá zpráva. Pokud jde o maximální spotřebu samotných karet, nVidia udává 236 W pro GTX 280 a 182 W pro GTX 260.

Na druhou stranu inženýři nVidie odvedli dobrou práci se spotřebou v klidovém režimu. Grafické karty mají čip, který neustále měří procento využití GPU a v souladu s těmito informacemi ovladač automaticky upravuje frekvence, napětí a aktivitu každé části čipu. Je třeba přiznat, že výsledky GT 200 jsou skutečně působivé, eliminují historickou propast mezi čipy nVidia a GPU AMD a dokonce překonávají ty druhé z hlediska minimální spotřeby. GTX 260 dostane 20W pokles příkonu zdroje oproti 9800 GTX a GTX 280 spotřebuje výrazně méně energie - asi 25 W ve 2D (takty klesnou na 300 MHz pro GPU a 100 MHz pro paměti) a asi 35 W během Přehrávání disků Blu-ray. Výsledek je skutečně úžasný a víceméně neguje výhodu technologie HybridPower, která vyžaduje výměnu základní desky pro úplné vyřazení externí 3D karty a tím ztrátu 3D herního výkonu!

S nízkou spotřebou při nečinnosti a vysokou, ale nikoli nadměrnou spotřebou při zátěži, jsme si byli jisti, že Nvidia GT200 dostojí pověsti relativně tichých špičkových grafických karet od GeForce 7800 GTX. Mýlili jsme se.

Po spuštění Windows byl ventilátor GT200 tichý (516 ot./min nebo 30 % maximální rychlosti). Poté po spuštění hry proměnila počítač ve vysavač a dosáhla hlučnosti, kterou lze jen stěží nazvat snesitelnou – zvláště u GTX 280. GTX 260 si vedla o něco lépe, ale byla také velmi hlučná při 1 250 otáčkách (a proudění vzduchu bylo hlučné, ne samotný ventilátor). Naše hodnoty hluku při nečinnosti však byly naměřeny po dokončení všech testů, po pouhých několika minutách nečinnosti. Problém je v tom, že GTX 280 nikdy neklesne na minimum a ventilátor GTX 260, který je méně hlučný, se stále točí na 700 otáček za minutu - poměrně hlasitě.

Výsledky jsou těžko pochopitelné vzhledem k nízké spotřebě energie GT200 v klidovém režimu, mohly by být způsobeny chybou v BIOSu (ačkoli se v té době objevila na obou grafických kartách) nebo v ovladačích, což dává naději na opravit. Na druhou stranu, ventilátor lze vždy zaznamenat ručně pomocí speciálního softwaru, pokud sledujete teplotu (viz další strana). Obecně jsme byli fanoušky těchto grafických karet velmi zklamáni, zejména s ohledem na to, že část horkého vzduchu se vrací zpět do skříně a zahřívá další komponenty, včetně samotného GPU.

Nakonec jsme si všimli, že podobně jako v testech spotřeby energie jsou výsledky 3870 X2 při zátěži příliš dobré. Má to svůj důvod: Test Drive Unlimited je jedna z mála her, ve kterých tato grafická karta běží pouze na jednom GPU, což snižuje zahřívání.

Nyní se podíváme na teplotu GPU, kterou jsme zaznamenali (u Radeonu HD 3870 X2 je to pro aktivní GPU, druhá teplota nikdy nepřesáhne 56°C v zátěži).

Není překvapením, že 260 GTX a 280 GTX chladí velmi dobře – nejchladnější teploty jsme dostali při volnoběhu a jedny z nejchladnějších při zátěži. Není divu, protože tyto grafické karty nespotřebovávají nejvyšší úroveň energie a jak jsme již uvedli, používají agresivní chladicí systém. Nikdy jsme nedosáhli úrovně 105 °C, kdy se frekvence automaticky snižují, aby byla chráněna grafická karta. To znamená, že jak jsme očekávali, nVidia má dobrou rezervu pro snížení hladiny hluku grafické karty jak v klidovém režimu, tak při zatížení.

Přetaktování

V testech přetaktování jsme dokázali GeForce GTX 260 přetaktovat z 576/1242/999 MHz (GPU/ALU/paměť) na 648/1397/1184 MHz, tedy o 12 %, respektive 18 %. Výsledek není špatný, umožnil nám vymáčknout dalších 16 % neboli 8,4 snímků za sekundu v testech 2 560 x 1 600 v Test Drive Unlimited – pouze o 6 % pomaleji než GTX 280!

Je zcela jasné, že jsme přetaktovali i GTX 280: z frekvencí 602/1296/1107 MHz na 655/1410/1290 při zachování velmi dobré stability s nárůstem o 9 % a 16 %. Test Drive Unlimited opět těžil z posílení a zvýšil snímkovou frekvenci o 13 % – celkem dobré ve srovnání s 16 %, které jsme získali z 9800 GTX. Obecně jsou výsledky příjemné, zejména u přetaktování, které někdy určuje spíše štěstí.

Závěr

Jaký bude náš závěr ohledně nových grafických karet? Začněme tím, že paralela s GeForce 7800 GTX je až příliš zřejmá. Karty jsou postaveny na již osvědčené architektuře, s opravenými slabinami, které inženýři nVidie objevili, a s výrazným zvýšením výpočetního výkonu. S architekturou jsme tedy nenašli žádná ošklivá překvapení, snad s výjimkou chybějící podpory Direct3D 10.1 nebo mírně zklamaného výkonu s dvojitou přesností s plovoucí desetinnou čárkou.

Na druhou stranu, na rozdíl od současného stavu, v době 7800 GTX neměla nVidia tak výkonnou dual-GPU grafickou kartu jako 9800 GX2. To lze považovat za nevýhodu při oznamování nových produktů. GTX 280 téměř zdvojnásobila svůj čistě teoretický výkon oproti předchozí generaci (a dokonce i praktický výkon díky zlepšení účinnosti, ačkoli některé naše syntetické testy neprokázaly takové zlepšení rychlosti, v jaké jsme doufali). GTX 280 si ale nevede tak dobře ve srovnání s 9800 GX2, která často překonává novou kartu v herních benchmarcích. Těžko má samozřejmě smysl doporučovat kartu předchozí generace, která má v klidovém režimu poloviční použitelnou paměť a mnohem vyšší spotřebu energie (kromě jiných nedostatků), její výsledky benchmarku přece jen ubraly část slávy nové extrémně vysoké -ukončit grafické karty. Těžko z toho vinit nVidii, protože na už tak gigantickém jádru je těžké navýšit počet stream procesorů (ALU). Ano a porovnejte s výkonem konkurence.

Je tu ještě pár zklamání. A nejdůležitější z nich je velmi vysoká hladina hluku, kterou je pro GTX 280 a 260 obtížné vysvětlit, protože jejich spotřeba energie je nižší než spotřeba grafických karet se dvěma GPU pod zatížením a velmi zanedbatelná v klidovém režimu. Nezapomínejte ani na chybějící podporu DirectX 10.1, kterou lze označit za vyloženě politickou volbu, která zpomalí či dokonce zabrání šíření tohoto standardu mezi vývojáře, a to je ve světle hry Assassin's Creed And poněkud urážlivé cena GTX 280 (650 $ na světovém trhu), díky které se karta řadí do nejextrémnějšího high-endu, je také velmi problematická ve světle velmi agresivní ceny „mladší“ GTX 260 - a výkon druhého je pouze o 18% nižší než u „staršího“ modelu. Cena za GTX je v důsledku toho na začátku prodeje (26. června). se stane velmi atraktivním řešením, zejména proto, že používá stejný GPU GT200.

Na závěr nemůžeme nezmínit velmi vzrušující vyhlídky aplikací CUDA. Sice za poslední rok a půl skoro nikdo nezmiňuje CUDA jako pozitivní vlastnost GeForce 8, ale dnes se situace změnila, první tři zajímavé aplikace jsou již hotové nebo téměř hotové. Mluvíme o video kodéru BadaBOOM a beta klientovi Folding@Home GeForce, které nechávají CPU a konkurenční Radeony daleko za sebou, a také o podpoře GeForce PhysX, která by vývojářům hodně prospěla. Mohli by oznámit podporu této technologie v budoucích hrách, i když ještě uvidíme, jak velký rozdíl přinese implementace v praxi. To vše výrazně rozšiřuje možnosti použití GPU GeForce kompatibilních s CUDA (počínaje GeForce 8), pokud bude pokračovat vydávání optimalizovaného softwaru pro různé výpočty a pokud se AMD nebude snažit „přetáhnout deku přes sebe“.

nVidia GeForce GTX 280

Závěr pro GTX 280 bude následující. Nová extrémní high-endová GTX 280 od Nvidie (650 $) je mírným nedostatkem ve srovnání s 9800 GX2, která pravidelně překonává herní benchmarky navzdory nedostatkům karet s dvěma GPU. Ale ve skutečnosti je skutečnou hrozbou low-endová GTX 260, zvláště vezmeme-li v úvahu, že za cenu GTX 280 si můžete téměř koupit dvě GTX 260 ve SLI!

Výhody.

  • celkově vysoký výkon;

Nedostatky.

  • Žádná podpora pro DirectX 10.1;
  • slabý výkon ve srovnání s 9800 GX2;
  • vysoká hladina hluku;
  • vysoká cena GTX 280 ve srovnání s konkurencí nVidia.

nVidia GeForce GTX 260

Karta je mnohem atraktivnější díky velmi příznivé ceně. GTX 260 si vede dobře v herních testech a má většinu výhod GTX 280 bez vysoké cenovky. Karta se začne prodávat příští týden na globálním trhu za 400 dolarů.

Jsme nuceni upozornit, že zastoupení nVidie v Rusku funguje neuspokojivě: stále jsme neobdrželi žádné informace o cenách nebo dostupnosti karet u nás. Doufejme, že v Rusku nezdraží.

Výhody.

  • Vylepšená architektura GeForce 8;
  • výkon je pouze o 18 % nižší než u GTX 280;
  • velmi nízká spotřeba energie v klidovém režimu;
  • akcelerace programů kompatibilních s CUDA.

Nedostatky.

  • Žádná podpora pro DirectX 10.1;
  • vysoká hladina hluku.




Dnešní článek bude hovořit o nejmodernějším a nejvýkonnějším grafickém čipu od společnosti NVIDIA s kódovým označením GT200 a grafickém adaptéru na něm založeném, GeForce GTX 280. Pokusíme se zvážit všechny jeho nejzajímavější vlastnosti, inovace a odlišnosti od předchozích čipů , stejně jako otestovat výkon za stejných podmínek a porovnat s konkurencí.

Pozadí

Ale ne najednou, vraťme se trochu v čase a vydejme se do historie vývoje grafických čipů. Není žádným tajemstvím, že na trhu grafických karet si již řadu let konkurují dvě společnosti: ATI (aktuálně koupená AMD a mající značku AMD Radeon) a NVIDIA. Samozřejmě existují i ​​malí výrobci, jako je VIA se svými čipy S3 Chrome nebo Intel s integrovanými grafickými adaptéry, ale konfrontace ATI (AMD) a NVIDIA vždy diktovala módu. A co je pozoruhodné, že čím silnější byla tato konfrontace, nebo se ani tohoto slova „studená válka“ nebojme, tím více pokročil vědecký a technologický pokrok a tím větší výhody získali koncoví uživatelé – tedy vy a já . Koneckonců, jedním z mechanismů boje o peněženky uživatelů je technická převaha produktů jednoho z výrobců a dalším je cenová politika a poměr cena/výkon. Mimochodem, často se druhý mechanismus ukazuje jako mnohem účinnější než první.

Když jedna strana znatelně převyšuje konkurenci z technického hlediska, druhá nemá jinou možnost, než navrhnout ještě pokročilejší technologii nebo si „hrát s cenami“ u stávajících produktů. Jasným příkladem „hry o ceny“ je konkurence mezi Intelem a AMD na poli centrálních procesorů. AMD po oznámení architektury Core 2 nedokázalo nabídnout něco pokročilejšího a proto, aby neztratilo podíl na trhu, bylo nuceno snížit ceny svých procesorů.

Existují ale i příklady jiné povahy. Najednou ATI vydala velmi úspěšnou řadu produktů rodiny X1000, která se objevila ve správný čas a byla velmi oblíbená u mnoha uživatelů a mnozí stále mají grafické karty jako Radeon X1950. NVIDIA v té době neměla k dispozici důstojnou odpověď a ATI dokázala NVIDIA na zhruba půl roku jednoduše vyřadit ze hry. Musíme ale vzdát hold kalifornským inženýrům, kteří po krátké době přišli se zásadně novým technologickým řešením – čipem G80 využívajícím univerzální procesory. Tento čip se na dlouhou dobu stal skutečnou vlajkovou lodí, kalifornské společnosti vrátil palmu a běžným uživatelům přinesl nepřekonatelný herní výkon. Co se stalo pak? A pak se nic nedělo - ATI (nyní pod značkou AMD) nedokázala vytvořit něco výkonnějšího. Jeho čip R600 v mnoha ohledech selhal, což kanadskou společnost přinutilo neustále snižovat ceny. Nedostatek konkurence v kategorii produktivních řešení umožnil NVIDII uvolnit se – ostatně stejně neexistují žádní odpůrci.

Vydání nové vlajkové lodi

Všichni zájemci o 3D grafiku dlouho čekali na skutečný update architektury G80. O příští generaci čipů se vždy šuškalo v nejrůznějších zvěstech, některé z nich byly později potvrzeny, ale v roce 2007 jsme se dočkali pouze drobné architektonické aktualizace v podobě řešení založených na čipech G92. Všechny grafické karty vydané na jejich základě jsou pro své tržní sektory docela dobré; tyto čipy umožnily snížit náklady na výkonná řešení, čímž byly méně náročné na napájení a chlazení, ale nadšenci čekali na plnou aktualizaci. Mezitím AMD vydala aktualizované produkty založené na RV670, které jí přinesly určitý úspěch.

Ale rozvoj herního průmyslu, nové výkonné hry jako Crysis, donutil obě společnosti vyvinout nové grafické čipy. Pouze jejich cíle byly odlišné: hlavním cílem AMD bylo bojovat o ztracený podíl na trhu, minimalizovat výrobní náklady a poskytovat produktivní řešení za rozumné ceny, zatímco NVIDIA měla za cíl udržet technologické prvenství a prokázat fantastický výkon svých čipů.

Dnes budeme mít možnost podrobně prozkoumat výsledky práce jedné ze společností – nejproduktivnějšího, nejmodernějšího čipu GT200 z produkce společnosti NVIDIA, který společnost představila 17. června 2008.

Technické údaje

Architektonicky má GT200 mnoho podobností s G8x/G9x, nový čip si z nich vzal to nejlepší a byl doplněn o četná vylepšení. A nyní přejdeme ke zvážení vlastností nových řešení.

Grafický akcelerátor GeForce GTX 280

  • kódové označení čipu GT200;
  • 65 nm technologie;
  • 1,4 miliardy (!) tranzistorů;
  • jednotná architektura s řadou běžných procesorů pro streamové zpracování vrcholů a pixelů, ale i dalších typů dat;
  • hardwarová podpora DirectX 10.0 včetně shader modelu – Shader Model 4.0, generování geometrie a záznam mezilehlých dat ze shaderů (streamový výstup);
  • 512bitová paměťová sběrnice, osm nezávislých řadičů šíře 64bitů;
  • frekvence jádra 602 MHz (GeForce GTX 280);
  • ALU pracují na více než dvojnásobné frekvenci 1,296 GHz (GeForce GTX 280);
  • 240 skalárních ALU s plovoucí desetinnou čárkou (celé a plovoucí formáty, podpora 32bitového a 64bitového přesného FP v rámci standardu IEEE 754(R), dvě operace MAD+MUL na takt);
  • 80 jednotek pro adresování a filtrování textur (jako u G84/G86 a G92) s podporou komponent FP16 a FP32 v texturách;
  • možnost dynamických větví v pixelových a vertexových shaderech;
  • 8 širokých bloků ROP (32 pixelů) s podporou režimů vyhlazování až 16 vzorků na pixel, včetně formátu vyrovnávací paměti snímků FP16 nebo FP32. Každý blok se skládá z řady flexibilně konfigurovatelných ALU a je zodpovědný za generování a porovnávání Z, MSAA a míchání. Špičkový výkon celého subsystému je až 128 vzorků MSAA (+ 128 Z) na takt, v režimu bez barvy (pouze Z) – 256 vzorků na cyklus;
  • záznam výsledků až z 8 vyrovnávací paměti snímků současně (MRT);
  • všechna rozhraní (dva RAMDAC, Dual DVI, HDMI, DisplayPort, HDTV) jsou integrována na samostatném čipu.

Referenční specifikace grafické kartyNVIDIA GeForce GTX 280

  • frekvence jádra 602 MHz;
  • univerzální frekvence procesoru 1296 MHz;
  • počet univerzálních procesorů 240;
  • počet bloků textur – 80, bloky prolnutí – 32;
  • efektivní frekvence paměti 2,2 GHz (2*1100 MHz);
  • typ paměti GDDR3;
  • kapacita paměti 1024 MB;
  • šířka pásma paměti 141,7 GB/s;
  • teoretická maximální rychlost plnění 19,3 gigapixelů/s;
  • teoretická rychlost vzorkování textury až 48,2 gigaxels/s;
  • dva konektory DVI-I Dual Link, podporováno výstupní rozlišení až 2560x1600;
  • duální SLI konektor;
  • sběrnice PCI Express 2.0;
  • TV-Out, HDTV-Out, DisplayPort (volitelně);
  • příkon až 236 W;
  • dvouslotové provedení;
  • původní doporučená cena 649 $.

Samostatně poznamenáváme, že DirectX 10.1 není podporováno rodinou GeForce GTX 200. Jako důvod byl uveden fakt, že při vývoji nové rodiny čipů bylo po konzultaci s partnery rozhodnuto zaměřit se nikoli na podporu DirectX 10.1, které je zatím málo žádané, ale na zlepšení architektury a výkonu čipů.

Architektura GeForce GTX 280 prošla ve srovnání s grafickými kartami GeForce 8800 GTX a Ultra mnoha změnami:

  • Počet výpočetních jader se zvýšil 1,88krát (ze 128 na 240).
  • Počet současně spuštěných vláken se zvýšil 2,5krát.
  • Maximální délka komplexního kódu shaderu byla zdvojnásobena.
  • Přesnost výpočtů s pohyblivou řádovou čárkou byla zdvojnásobena.
  • Geometrické výpočty se provádějí mnohem rychleji.
  • Kapacita paměti se zvýšila na 1 GB a sběrnice se zvýšila z 384 na 512 bitů.
  • Zvýšená rychlost přístupu k vyrovnávací paměti.
  • Vylepšené vnitřní spojení čipů mezi různými bloky.
  • Vylepšené optimalizace Z-cull a komprese zajišťující menší zásah do výkonu při vysokých rozlišeních.
  • Podporuje 10bitovou barevnou hloubku.

Zde je hlavní schéma čipu GT200:

Klíčové architektonické prvky CUDA

Od oznámení architektury Core 2 a jejího triumfálního pochodu se mezi vývojáři stalo módou inzerovat kromě názvů produktů i názvy architektury, na které jsou vyrobeny. Výjimkou není ani NVIDIA, která aktivně propaguje svou architekturu CUDA (Compute Unified Device Architecture) – výpočetní architekturu zaměřenou na řešení složitých problémů ve spotřebitelské, obchodní a technické sféře – v jakýchkoli datově náročných aplikacích využívajících GPU NVIDIA. Výhodou tohoto přístupu je výrazná řádově nebo dokonce o dva převahy grafických čipů nad moderními centrálními procesory. Okamžitě se však objeví nevýhoda - k tomu je nutné vyvinout speciální software. Mimochodem, NVIDIA pořádá soutěž mezi softwarovými vývojáři o architekturu CUDA.

Video čip GT200 byl vyvinut s ohledem na jeho aktivní využití ve výpočetních úlohách využívajících technologii CUDA. V takzvaném výpočetním režimu si lze nový videočip představit jako programovatelný multiprocesor s 240 výpočetními jádry, vestavěnou pamětí, možností náhodného zápisu a čtení a gigabajtem vyhrazené paměti s velkou šířkou pásma. Jak říká NVIDIA, v tomto režimu GeForce GTX 280 promění běžný počítač na malý superpočítač, který poskytuje rychlost téměř teraflop, což je užitečné pro řadu vědeckých a aplikovaných úkolů.

Poměrně velké množství nejnáročnějších úloh lze přenést z CPU na GPU pomocí CUDA a zároveň bude možné získat znatelný nárůst výkonu. Obrázek ukazuje příklady použití CUDA v reálných úlohách a poskytuje čísla ukazující mnohonásobnost nárůstu výkonu GPU ve srovnání s CPU.

Jak vidíte, úkoly jsou velmi rozmanité: překódování video dat, molekulární dynamika, astrofyzikální simulace, finanční simulace, zpracování obrazu v medicíně atd. Navíc se zisky z přenosu výpočtů na video čip ukázaly být asi 20-140násobné. Nový video čip tedy pomůže urychlit mnoho různých algoritmů, pokud budou přeneseny do CUDA.

Za jednu z každodenních aplikací výpočtů GPU lze považovat překódování videí z jednoho formátu do druhého a také kódování video dat v odpovídajících editačních aplikacích. Elemental dokončil úkol přesunout kódování na GPU ve své aplikaci RapidHD, což přineslo následující čísla:

Nejvýkonnější GPU GeForce GTX 280 si v tomto úkolu vede na výbornou, nárůst rychlosti oproti nejrychlejšímu centrálnímu procesoru je více než 10násobný. Kódování dvouminutového videa trvalo na CPU 231 sekund a na GT200 pouhých 21 sekund. Je důležité, že použití GPU umožnilo dosáhnout tohoto úkolu nejen v reálném čase, ale ještě rychleji!

Intenzivní výpočetní technika pomocí moderních grafických karet však není novinkou, ale s příchodem řady grafických procesorů GeForce GTX 200 NVIDIA očekává výrazný nárůst zájmu o technologii CUDA.

Z pohledu technologie CUDA není nový grafický čip GeForce GTX 280 ničím jiným než výkonným vícejádrovým (stovky jader!) procesorem pro paralelní výpočty.

NVIDIA PhysX

To je možná nejzajímavější aspekt nových grafických adaptérů NVIDIA pro běžné uživatele. I když to platí nejen pro nová řešení založená na GT200, ale také pro všechny grafické karty rodiny GeForce 8 a GeForce 9.

V moderních hrách hrají důležitou roli dobře implementované fyzické interakce, díky nimž jsou hry zajímavější. Téměř všechny fyzikální výpočty jsou náročné na výkon a související algoritmy jsou výpočetně náročné. Do určité doby se tyto výpočty prováděly pouze na centrálních procesorech, poté se objevily fyzické akcelerátory od firmy Ageia, které, ač málo používané, výrazně oživily činnost na tomto trhu. Takové boostery si mohlo pořídit jen pár nadšených hráčů.

Vše se ale změnilo, když NVIDIA koupila Ageiu a s ní získala všechny potřebné informace o PhysX. Totiž informace, protože samotná hardwarová zařízení ji nezajímala. Musíme vzdát hold společnosti NVIDIA – nabrala správný kurz a přizpůsobila fyzikální engine PhysX své architektuře CUDA a nyní každý majitel grafické karty s touto architekturou získává hardwarovou akceleraci fyzických procesů ve hrách pouhou aktualizací ovladačů.

Při práci s výkonným video čipem může PhysX nabídnout mnoho nových efektů, jako jsou dynamické efekty kouře a prachu, simulace tkání, simulace kapalin a plynů, povětrnostní efekty atd. Podle samotné NVIDIA jsou nové grafické karty GeForce GTX 280 schopny pracovat 10krát nebo více rychleji než 4jádrové procesory při práci s PhysX. V současné době je podpora PhysX implementována ve více než 150 hrách.

Vylepšená technologie správy napájení

Nový video čip využívá vylepšené řízení spotřeby ve srovnání s předchozí generací čipů NVIDIA. Dynamicky mění frekvence a napětí bloků GPU na základě jejich zatížení a je schopen některé bloky částečně deaktivovat. Výsledkem je, že GT200 výrazně snižuje spotřebu energie při nečinnosti, spotřebuje asi 25 wattů, což je na GPU této úrovně velmi málo. Řešení podporuje čtyři provozní režimy:

  • Režim nečinnosti nebo 2D (asi 25 wattů);
  • Režim sledování HD/DVD videa (asi 35 wattů);
  • plný 3D režim (až 236 wattů);
  • Režim HybridPower (asi 0 wattů);

K určení zátěže používá GT200 speciální bloky, které analyzují datové toky uvnitř GPU. Řidič na základě dat z nich dynamicky nastavuje vhodný režim výkonu, volí frekvenci a napětí. Tím se optimalizuje spotřeba energie a odvod tepla z karty.

Seznámili jsme se s novinkami a funkcemi – v tomto ohledu dosáhla NVIDIA svého cíle představením zcela nového grafického čipu. Ale zbývá druhý cíl – prokázat převahu z hlediska výkonu. Za tímto účelem se podíváme na čip GT200 již implementovaný ve formě hotové grafické karty, otestujeme jej a porovnáme veškerý výkon v něm zabudovaný s vlajkovými loděmi předchozí generace a řešeními konkurentů.

Grafická kartanaNVIDIA GeForce GTX 280

Když jsme vzbudili zájem o grafický akcelerátor, přejděme přímo k jeho recenzi, testování, srovnání a samozřejmě přetaktování. Nejprve ale ještě jednou specifikace, nyní již hotového sériového akcelerátoru.

Výrobce

název

ENGTX280/HTDP/1G/A

Grafické jádro

NVIDIA GeForce GTX 280 (G200-300-A2)

Dopravník

240 jednotného streamování

Podporovaná rozhraní API

DirectX 10.0 (Shader Model 4.0)
OpenGL 2.1

Frekvence jádra (domény shaderu), MHz

Objem paměti (typ), MB

Frekvence paměti (efektivní), MHz

Paměťová sběrnice

512-bit

Standardní autobus

PCI Express 2.0 x16

Maximální rozlišení

Až 2560 x 1600 v režimu Dual-Link DVI
Až 2048 x 1536 při 85 Hz přes analogové VGA
Až 1080i přes HDTV-Out

2x DVI-I (2x VGA přes adaptéry)
TV výstup (HDTV, S-Video a kompozitní)

podpora HDCP
HD video dekódování

Jíst
H.264, VC-1, MPEG2 a WMV9

Řidiči

Nové ovladače lze stáhnout z:
- stránka podpory;
- Web výrobce GPU.

Webová stránka produktů

Grafická karta je dodávána v poměrně velké dvojité kartonové krabici. Ale na rozdíl od balení předchozích špičkových akcelerátorů je tento o něco menší a postrádá plastovou rukojeť zřejmě ASUS začal šetřit karton.

Jedna ze stran balíčku se však stále otevírá ve formě knihy, která kupujícímu vypráví o extrémních schopnostech grafického akcelerátoru a proprietárních technologií.

Na zadní straně balení jsou kromě seznamu obecných možností grafické karty a proprietárního softwaru pečlivě uvedeny informace o minimálních požadavcích na systém, do kterého bude ASUS ENGTX280/HTDP/1G/A nainstalován. Nejzajímavější a nejkritičtější částí je doporučení použít zdroj minimálně 550 W, který je schopen dodat až 40 A po 12V lince. Napájecí zdroj musí také poskytovat požadovaný počet napájecích výstupů, ke kterým budou napájecí adaptéry připojeny.

Poblíž je také zobrazeno správné schéma napájení grafické karty. Upozorňujeme, že pro 8pinový konektor je použit adaptér ze dvou 6pinových PCI Express, nikoli z dvojice periferních, jak bylo vidět dříve při instalaci akcelerátorů AMD/ATI. S ohledem na spotřebu GeForce GTX 280 budete muset k napájení přistupovat opatrněji.

Uvnitř barevné a informativní obálky, tzn. vnější krabice je zcela černá vnitřní, která je zase rozdělena na několik dalších samostatných krabic a výklenků, do kterých se vejde celá sestava.

Balení je více než dostatečné pro plné využití akcelerátoru a kromě samotného grafického adaptéru obsahuje:

    dva disky s ovladači, utilitami a elektronickou verzí uživatelské příručky;

    papírový průvodce pro rychlou instalaci grafické karty;

    značková „kožená“ podložka pod myš;

    značková složka pro disky;

    adaptér z 2-x Molex (napájení periferních zařízení) na 6-pinový zdroj PCI-Express;

    adaptér ze 2 6pinových PCI Express na 8pinový napájecí konektor;

    8kolíkové prodloužení napájecího konektoru;

    8pinový na 6pinový adaptér PCI Express;

    adaptér z S-Video TV-Out na komponentní HDTV-Out;

  • adaptér z DVI na VGA.

Grafická karta na GeForce GTX 280 má stejné rozměry jako akcelerátory na NVIDIA GeForce 9800 GX2 a dokonce je vzhledově podobná NVIDIA GeForce 9800 GTX, při pohledu na přední část, která je zcela skryta pod „ známý“ chladicí systém. Obecně se na vývoji všech těchto urychlovačů a jejich chladičů podíleli přibližně stejní inženýři, takže vnější podobnost není překvapivá.

Hned poznamenejme, že vůbec nezáleží na tom, kdo je konečným prodejcem akcelerátoru, špičkové grafické karty vyrábí přímo NVIDIA ve výrobních závodech svých partnerů. Finální distributoři se podílejí pouze na balení hotových akcelerátorů a mohou počítat pouze s možností flashnout svůj proprietární BIOS, mírně přetaktovat grafickou kartu nebo vyměnit chladič za alternativní.

Zadní strana grafické karty je nyní skryta za kovovou deskou, která, jak se ukázalo při demontáži, plní roli chladiče pro paměťové čipy, které jsou nyní umístěny na obou stranách desky plošných spojů.

Na horní straně grafické karty, téměř na samém okraji, jsou konektory pro připojení dalšího napájení. S příkonem až 236 W vyžaduje akcelerátor spolehlivé napájení, které zajišťuje jeden 6pinový PCI Express konektor a jeden 8pinový konektor jako na dvoučipové GeForce 9800 GX2.

Pod gumovou záslepkou vedle napájecích konektorů je ukrytý digitální audio vstup SPDIF, který by měl zajistit mixování audio streamu s video daty při použití HDMI výstupu.

Na druhé straně, také pod zástrčkou, je dvojitý SLI konektor, který poskytuje podporu pro 3-Way SLI a umožňuje postavit počítač s neuvěřitelně výkonným videosystémem.

Obrazový výstup mají na starosti dva DVI, které lze pomocí adaptérů převést na VGA nebo HDMI, a také TV-Out s podporou HDTV. Vedle výstupního konektoru TV, poblíž výstupů ohřívaného vzduchu, se nachází indikátor napájení grafické karty, který zobrazuje její aktuální stav.

Pod systémem chlazení se nachází plošný spoj, který v mnohém připomíná předchozí špičková řešení na G80 (například GeForce 8800 Ultra), teprve nyní jsou čipy kvůli navýšení video paměti na 1 GB umístěné na obou stranách desky plošných spojů a nejsou tak husté. Navíc byl posílen napájecí systém, aby zajistil provoz tak výkonného urychlovače.

Hlavním spotřebitelem elektřiny je čip NVIDIA G200-300 druhé revize, který se nazývá GeForce GTX 280. Obsahuje 240 unifikovaných stream procesorů, které pracují na taktovací frekvenci 1296 MHz, zatímco zbytek jádra pracuje na 602 MHz. . Výměna dat s videopamětí probíhá přes 512bitovou sběrnici. Tento GPU je schopen poskytovat neuvěřitelný grafický výkon, ale nemá možnosti front-endového zpracování.

Samostatný čip NVIO2 je zodpovědný za všechny vstupy a výstupy a jeho umístění „daleko“ od hlavního procesoru nám umožňuje mluvit o absenci různých rušení a rušení, což by mělo poskytovat vynikající obraz i na analogových monitorech.

Produkty Hynix se používají jako paměťové čipy. Mikroobvody s provozním napětím 2,05 V mají dobu odezvy 0,8 ms, tzn. zajišťují provoz videopaměti na efektivní frekvenci až 2200 MHz. Paměťové čipy pracují na stejné frekvenci hodin.

Pojďme mluvit samostatně o chladiči. Chladicí systém má design známý společnosti NVIDIA a zabírá rozšiřující slot vedle grafické karty, což zajišťuje odvod ohřátého vzduchu mimo skříň.

Zajímavostí je, že nejen hliníkové desky chladiče, ale i celé tělo chladiče mají na starosti odvod tepla, což je dobře patrné z napojení tepelných trubic k němu. Větrání grafické karty jakýmkoli pohodlným způsobem proto může poskytnout znatelné zlepšení její teploty. A jen málo majitelů tohoto „žhavého monstra“ se bude moci vyhnout myšlenkám na zlepšení chlazení. I krátké vážné zatížení grafické karty způsobí, že se turbína roztočí až na maximálně 1500 otáček za minutu, což znatelně narušuje akustický komfort. Ani to ale nezbavuje akcelerátor výrazného zahřívání.

V uzavřeném dobře větraném pouzdře přesáhla teplota GPU 100 °C a vzduch vyfukovaný chladicím systémem naznačoval, že NVIDIA neměla tento GPU uvádět do léta – mělo to být do zimy, takže uživatel, který si koupil velmi drahý urychlovač, mohl ušetřit na vytápění.

Aby se grafická karta nepřehřívala, musel jsem otevřít pouzdro a nasměrovat do něj domácí ventilátor - to zajistilo snížení teploty GPU o 14 stupňů a o 9 stupňů celé grafické karty. V této poloze byly provedeny všechny testy a následné přetaktování. Ale s otevřenou skříní se zdálo, že základní chladič je trochu hlasitější.

Ale při absenci 3D zátěže se teplota grafické karty výrazně snižuje, čehož je také dosaženo dodatečným snížením provozních frekvencí a snížením napětí - v režimu 2D grafická karta spotřebuje o 200 W méně. Stejný fakt umožňuje, aby se chladnější turbína otáčela pomaleji, díky čemuž je téměř tichá.

Při testování jsme použili Video Card Test Stand č. 1
Vyberte si, s čím chcete GeForce GTX280 1GB ASUS porovnat


Mezi jednočipovými akcelerátory řešení založené na NVIDIA GeForce GTX 280 nepochybně zaujímá přední místo, ale ASUS ENGTX280/HTDP/1G/A ne vždy překonává dvoučipové akcelerátory a multi-GPU konfigurace z karet předchozí generace, zvláště když pomocí procesoru, který není nejproduktivnější.

2jádrový procesor vs 4jádrový

Jaké výhody přinese použití výkonnějšího procesoru, například čtyřjádrového? Právě tyto procesory jsou nyní často doporučovány majitelům vysoce výkonných grafických karet.

Abychom ověřili, zda by byl výhodnější čtyřjádrový procesor, nahradili jsme Intel Core 2 Duo E6300 @2800 procesorem Intel Core 2 Quad Q9450 @2800.

Testovací balíček

Intel Core 2 Duo E6300 @2800

Intel Core 2 Quad Q9450 @2800

Zvýšení produktivity, %

Jak vidíte, na čtyřjádrovém procesoru skutečně dochází k nárůstu výkonu a někdy i dost, ale právě ve vysokých rozlišeních, pro která se kupují drahé grafické karty, je zrychlení nejmenší.

IntelJádro 2 ČtyřkolkaprotiAMD Phenom X4

Dalším často skloňovaným doporučením ohledně konfigurace vysoce výkonného herního systému je preferování procesorů Intel, protože jsou rychlejší. Nuže, zkusme si v praxi ověřit, o kolik pomalejší bude herní systém založený na procesoru AMD Phenom X4, pokud taková skutečnost nastane.

Abychom „běželi“ za rovných podmínek, přetaktovali jsme procesor AMD Phenom X4 9850 Black Edition na frekvenci 2,8 GHz, což je docela snadné provést pouze změnou násobiče, a provedli jsme řadu testů na novém ASUS M3A32-MVP. Platforma DELUXE/WIFI-AP. Paměť RAM přitom pracovala v režimu DDR2-800 se stejnými časováními jako na systému s procesorem Intel Core 2 Quad Q9450.

Testovací balíček

AMD Phenom X4 9850 @2800

Intel Core 2 Quad Q9450 @2800

Rozdíl ve výkonu, %

Serious Sam 2, maximální kvalita, AA4x/AF16x, fps

Call Of Juarez, maximální kvalita, BEZ AA/AF, fps

Call Of Juarez, maximální kvalita, AA4x/AF16x, fps

Kořist, maximální kvalita, AA4x/AF16x, fps

Crysis, Maximální kvalita, BEZ AA/AF, fps

Crysis, maximální kvalita, AA4x/AF16x, fps

Takže když běží na stejných taktech, systém s procesorem Intel Core 2 Quad se ve skutečnosti ukáže být o něco rychlejší než systém s procesorem AMD Phenom X4. Přitom čím vyšší rozlišení a větší požadavky na kvalitu obrazu, tím menší převaha procesorů Intel. Samozřejmě při použití nejdražší a nejproduktivnější grafické karty je nepravděpodobné, že kupující ušetří na procesoru a základní desce, ale za jiných podmínek bychom nedoporučovali „rozhodně Intel Core 2 Quad“, ale navrhli bychom pečlivě zvážit možnosti pro systémy s procesory AMD a Intel .

Přetaktování

K přetaktování grafické karty jsme použili nástroj RivaTuner, zatímco, jak je uvedeno výše, pouzdro bylo otevřené a další proudění čerstvého vzduchu na grafickou kartu zajišťoval domácí ventilátor.

V důsledku přetaktování vzrostla frekvence rastrové domény na 670 MHz, což je o 70 MHz (+11,67 %) vyšší než výchozí hodnota. Přetaktování shader domény dopadlo o něco lépe a frekvenční ukazatele se oproti výchozím hodnotám zvýšily o 162 MHz (+12,5 %). Přetaktování pamětí ale předčilo všechna očekávání. Stabilní provoz byl zaznamenán na efektivní frekvenci téměř 2650 MHz, což je o 430 MHz (+19,5 %) vyšší než nominální. Zaznamenáváme vynikající potenciál pro přetaktování testovaného akcelerátoru, zejména videopaměti.

Nyní se podívejme, jak přetaktování jedné grafické karty ovlivňuje výkon:

Testovací balíček

Standardní frekvence

Přetaktovaná grafická karta

Zvýšení produktivity, %

Serious Sam 2, maximální kvalita, AA4x/AF16x, fps

Call Of Juarez, maximální kvalita, AA4x/AF16x, fps

Kořist, maximální kvalita, AA4x/AF16x, fps

Crysis, maximální kvalita, AA4x/AF16x, fps

Pouze v nejobtížnějších režimech videa budete moci vidět nárůst výkonu z přetaktování. Tento výsledek byl docela předvídatelný. Přitom je celkem rozumné poznamenat, že procesor se stal limitujícím faktorem téměř ve všech testech. Majitelům akcelerátorů NVIDIA GeForce GTX 280 ale důrazně doporučovat nebudeme jen ty nejrychlejší procesory, protože I s dvoujádrovým procesorem, který pracuje na frekvenci 2,8 GHz, nebo možná méně, si na nejvyšší nastavení ve vysokých rozlišeních zahrajete téměř jakoukoli hru celkem pohodlně. V takových podmínkách můžete dokonce vidět nárůst z přetaktování. Ale samozřejmě, pokud je to možné, neměli byste šetřit na procesoru, pokud jste nešetřili na grafické kartě a napájení.

závěry

Jsme nuceni přiznat, že všechny grafické karty založené na GeForce GTX 280 jsou dnes nejvýkonnějšími jednočipovými grafickými akcelerátory, které mohou poskytnout dostatečný výkon v každé moderní hře. Ale na druhou stranu se jedná o nejdražší moderní grafické karty a nejnáročnější z hlediska napájení a obecně o nejžhavější a nejžhavější. Čili GeForce GTX 280 dopadla nejlépe ve všech ohledech, jak špatně, tak dobře.

Mluvíme obecně o akcelerátorech na GeForce GTX 280, ačkoli hrdinou recenze je ASUS ENGTX280/HTDP/1G/A, protože většina z nich jsou přesně stejné referenční vzorky, které se od sebe liší pouze nálepkami, součástmi a balením . Při výběru GeForce GTX 280 od ASUS tedy kupující obdrží rozšířený balíček s několika značkovými bonusy a širokou sítí servisních center, ale jinak neexistuje žádná převaha nad nabídkami konkurence.

výhody:

  • velmi vysoký výkon v herních aplikacích;
  • podpora DirectX 10.0 (Shader Model 4.0) a OpenGL 2.1;
  • podpora technologií NVIDIA CUDA a NVIDIA PhysX;
  • podpora technologie 3-Way SLI;
  • dobrý potenciál pro přetaktování.

nedostatky:

  • chladicí systém zabírá 2 sloty, není vysoce účinný a v tichém provozu není pohodlný;
  • poměrně vysoká cena grafického akcelerátoru.

Společnosti vyjadřujeme poděkováníSlužba LLC PF (Dnepropetrovsk) pro grafickou kartu poskytnutou k testování.

Při psaní tohoto článku byly použity materiály z webu http://www.ixbt.com/.

Článek přečten 19856 krát

Přihlaste se k odběru našich kanálů

Zažijte světy s vysokým rozlišením, realistické postavy a přírodní síly tak mocné, že se vám potí dlaně a srdce se vám rozbuší při každém snímku. Kromě her sledujte filmy na Blu-ray a překódujte video až 7x rychleji než tradiční procesory 1 .

GPU GEFORCE GTX 200 HRANÍ DÁLE MIMO HRY
Představujeme NVIDIA GeForce GTX 280 a GeForce GTX 260

NVIDIA mluví s vývojáři o výkonu GeForce GTX 200 pro jejich hry

Grafické procesory NVIDIA GeForce GTX 200 posouvají hraní a efekty nad úroveň dříve vídanou

Demo Medusa od NVIDIA a NVIDIA® PhysX™ Technology a NaturalMotion.

Více než jen hry – GPU NVIDIA GeForce GTX 200 urychlují nejnovější spotřebitelské aplikace
  • Sjednocená architektura NVIDIA 2. generace: Architektura druhé generace poskytuje až o 50 % vyšší herní výkon oproti první generaci díky 240 vylepšeným procesorovým jádrům, která poskytují neuvěřitelný stínící výkon.
  • Připraveno pro NVIDIA PhysX™ 1: Podpora GPU GeForce pro technologii NVIDIA PhysX, která umožňuje zcela novou třídu fyzické herní interakce pro dynamičtější a realističtější zážitek s GeForce.
  • 3cestná technologie NVIDIA SLI® 2:Špičková 3cestná technologie NVIDIA SLI nabízí úžasné škálování výkonu implementací 3cestného AFR (Alternate Frame Rendering) pro nejrychlejší herní řešení na světě pod Windows Vista se spolehlivými, nejmodernějšími ovladači.
  • Technologie NVIDIA CUDA™ 3: Technologie CUDA odemyká výkon procesorových jader GPU pro urychlení nejnáročnějších systémových úloh – jako je kódování videa – a poskytuje až 7x výkon oproti tradičním CPU.
  • Technologie NVIDIA PureVideo® HD 4 Kombinace akcelerace dekódování videa ve vysokém rozlišení a následného zpracování, která přináší nebývalou čistotu obrazu, plynulé video, přesné barvy a přesné měřítko obrazu pro filmy a video.
  • Technologie NVIDIA HybridPower™ 5 Umožňuje přepnout z grafické karty GeForce GTX 280 na základní desku GeForce GPU při spouštění graficky nenáročných aplikací pro tichý počítač s nízkou spotřebou.

1 GPU GeForce GTX 280 se dodává s hardwarovou podporou technologie NVIDIA PhysX. Pro akceleraci GPU PhysX ve hře jsou vyžadovány ovladače NVIDIA PhysX. Další informace viz.
2 Pouze verze GPU GeForce PCI Express s certifikací NVIDIA SLI. GPU GeForce GTX 280 je nutné spárovat s jiným GPU GeForce GTX 280 (výrobce grafické karty se může lišit). SLI vyžaduje dostatečné chlazení systému a kompatibilní napájecí zdroj. Navštivte www.slizone.com pro více informací a seznam komponent certifikovaných SLI.
3 Vyžaduje aplikační podporu pro technologii CUDA.
4 Funkce vyžaduje podporovaný video software. Funkce se mohou lišit podle produktu.
5 Vyžaduje základní desku s podporou NVIDIA HybridPower™.

Poznámka: Níže uvedené specifikace představují tento GPU tak, jak je začleněn do návrhu referenční grafické karty NVIDIA. Specifikace grafické karty se mohou lišit podle výrobce přídavné karty. Aktuální dodací specifikace najdete na webu výrobce přídavných karet.

Specifikace GPU Engine:

CUDA jádra240
Grafické hodiny (MHz)602 MHz
Takt procesoru (MHz)1296 MHz
Míra vyplnění textury (miliardy/s)48.2

Specifikace paměti:

Hodiny paměti (MHz)1107
Standardní konfigurace paměti1 GB
Šířka rozhraní paměti512-bit
Šířka pásma paměti (GB/s)141.7

Podpora funkcí:

Připraveno pro NVIDIA SLI®*2-cestný/3-cestný
Připraveno pro NVIDIA 3D Vision
Technologie NVIDIA PureVideo®**HD
Připraveno pro NVIDIA PhysX™
Technologie NVIDIA CUDA™
Technologie HybridPower™
GeForce Boost
Microsoft DirectX10
OpenGL2.1
Certifikováno pro Windows 7

Podpora displeje:

Maximální digitální rozlišení2560x1600
Maximální rozlišení VGA2048x1536
Standardní konektory displejeHDTV
Dual Link DVI
Více monitorů
HDCP
HDMIPřes adaptér
Audio vstup pro HDMISPDIF

Standardní rozměry grafické karty:

Výška4,376 palce (111 mm)
Délka10,5 palce (267 mm)
ŠířkaDvouslotový

Tepelné a výkonové specifikace:

Maximální teplota GPU (v C)105 C
Maximální výkon grafické karty (W)236 W
Minimální doporučený výkon systému (W)550 W
Doplňkové napájecí konektory6-pin a 8-pin

Počet jader procesoru se může lišit podle modelu.
- Funkce vyžaduje podporovaný video software. Funkce se mohou lišit podle produktu.
- Přehrávání obsahu chráněného HDCP vyžaduje další komponenty kompatibilní s HDCP.
- Některé GPU GeForce se dodávají s hardwarovou podporou technologie NVIDIA PhysX. Pro akceleraci GPU PhysX ve hře jsou vyžadovány ovladače NVIDIA PhysX. Viz www..
- Pouze verze GPU GeForce PCI Express s certifikací NVIDIA SLI. GPU GeForce musí být spárováno s identickým GPU bez ohledu na výrobce grafické karty. SLI vyžaduje dostatečné chlazení systému a kompatibilní napájecí zdroj. Navštivte www.slizone.com pro více informací a seznam komponent certifikovaných SLI.
- Vyžaduje externí vysílač DisplayPort. 10bitové skenování komponent vyžaduje budoucí podporu ovladače GeForce.
- Šířka rozhraní paměti se může lišit podle modelu.
- Vyžaduje základní desku s podporou NVIDIA HybridPower™.