Titan x térkép. NVIDIA TITAN X Super grafikus kártya áttekintése és tesztelése: A felsőbbrendűség bemutatása
A tavasz nem csak a természet ébredésének ideje, hanem a Titan sorozat egychipes videokártya zászlóshajójának hagyományos bejelentésének is az ideje. És bár az NVIDIA GeForce GTX Titan X első bemutatója váratlan volt, ezt a bejelentést számos pletyka övezte. Pár napja volt ennek a videokártyának a hivatalos bemutatója, napokon át volt lehetőségünk részletesen tanulmányozni. Mivel büszkélkedhet, nézzük tovább.
Az NVIDIA GeForce GTX Titan X lett a negyedik a sorban és a harmadik "titán" egy chipes rendszeren. Hadd emlékeztesselek arra, hogy a GeForce GTX Titan Z két GPU-val eltér egymástól. Természetesen megértjük, hogy az ilyen rendszereket nem lehet "népszerűnek" nevezni, de ez az áttekintés még 1000-1300 dollár hiányában is érdekes lehet megismerkedni a Maxwell architektúrával a mai maximális megvalósításban. Amint az várható volt, a GM200 magon, az architektúra második generációján alapul. A PolyMorph Engine 3.0 támogatja a Direct3D 12 funkciószintet és a hardveresen gyorsított globális megvilágítási technológiát. Talán ez lesz az az áttörés a realizmusban és a grafikában, amire a játékipar oly régóta vár?
A GM200 8 milliárd tranzisztort, 256 ROP-t, 3072 CUDA-t és egy 384 bites memóriabuszt tartalmaz. Mindezen fegyverek célja a 4K felbontás támogatása és a 3D teljesítmény javítása. Az alap magfrekvencia: 1000 MHz, Boost Clock - 1076 MHz. A memória 7012 MHz-es frekvencián működik. A fedélzeten 12 GB grafikus memória található, ami a Titan X megjelenése előtt nem volt elérhető a játékosoknak szánt grafikus kártyáknál.
Videó áttekintése NVIDIA GeForce GTX Titan X
Megjelenés
Az NVIDIA GeForce GTX Titan X nem vált forradalmat a csúcskategóriás videokártyák tervezésében, a megjelenés keveset változott. Léghűtő rendszert használnak, amely külsőleg megismétli a korábban látottakat.
A szerkesztések itt kicsik, a hajótest színének megváltoztatására korlátozódnak. Mára szinte teljesen feketére van festve.
A videokártyán nincs erősítőkártya a nyomtatott áramköri lap hátoldalán. Hadd emlékeztesselek arra, hogy a GeForce GTX 980 referenciakialakításában szerepelt.
A hátlapon három DisplayPort, HDMI és DVI látható. Három csatlakozó működhet megosztott munkaterület módban, de egyszerre csatlakoztathatja mind az 5 csatlakozót. Ugyanezt a megközelítést alkalmazzák az egész 900-as vonalon.
Világító NVIDIA GeForce GTX logó az oldalán. Sajnos az izzó legyező látványos képei csak fényképek.
Hűtés
A beépített hűtőrendszer kialakítása megismétli a GeForce GTX 780 Ti esetében használtat.
Az elpárologtató kamrát használják, amely erős oldalnak bizonyult a nagy mennyiségű hő elvezetésénél a radiátorba.
A rendszer összecsukható, így a hődiffúzor teljesen eltávolítható, jól jöhet vízhűtő rendszer beépítésénél.
Töltő
Az áramellátó rendszer is migrált, a változás említése ellenére, ellenőrzéskor ugyanazok a kondenzátorok és fojtótekercsek. Még a PWM vezérlő is ismerős számunkra - NCP4206.De nem dramatizálok, mi magunk sem találtuk meg azt a zajt és nyikorgást, ami jónéhány videókártya kommentjében elhangzott, még hosszú távú terheléseknél sem.
A feszültség növelésére szolgáló rúd is megmaradt. Az NVIDIA GeForce GTX Titan X-ben akár 25W-ig is növelhető (TDP 250W/275W).
12 GB 1750 MHz frekvenciájú SKhynix memóriachip van forrasztva, összesen 24 db van belőle.
Az NVIDIA GeForce GTX Titan X tesztelése
Próbaállványt használtak.
Modell | Adat |
---|---|
Keret | Aerocool Strike-X Air |
Alaplap | Biostar Hi-Fi Z87X 3D |
processzor | Intel Core i5-4670K Haswell |
CPU hűtő | Deep Cool Ice Blade Pro v2.0 |
videokártya | Inno3D iChill GeForce GTX 780Ti HerculeZ X3 Ultra |
RAM | Corsair CMX16GX3M2A1600C11 DDR3-1600 16GB Kit CL11 |
HDD | ADATA XPG SX900 256 GB |
Merevlemez 2 | WD piros WD20EFRX |
Tápegység | Aerocool Templarius 750W |
wifi adapter | TP-LINK TL-WDN4800 |
Hang | Creative Sound Blaster EVO vezeték nélküli |
Monitor | iiyama ProLite E2773HDS |
Monitor 2 | Philips 242G5DJEB |
egér | ROCCAT Kone XTD |
Billentyűzet | Razer BlackWidow Chroma |
Stabilizátor | Sven AVR PRO LCD 10000 |
Operációs rendszer | Microsoft Windows Ultimate 8 64 bites |
Az alábbi táblázatokban az adatok gyári beállításokkal vannak megadva, a gyártók saját szoftverei nincsenek telepítve. A memória és a magfrekvenciákat szintén nem érinti, hogy kizárjuk a külső tényezők hatását.
1. A videokártya hőmérsékleti beállítása
- NVIDIA GeForce GTX Titan X - 31/83
- Inno3D iChill GeForce GTX 960 Ultra - 29/44
- GeForce GTX 980 - 34/79
- GeForce GTX 770 - 35/80
- GeForce GTX 780 - 35/77
- GeForce GTX 760 - 35/84
2. Zaj
- NVIDIA GeForce GTX Titan X - 36/42
- GeForce GTX 980 - 34/79
3. Energiafogyasztás
- NVIDIA GeForce GTX Titan X-405
- Inno3D iChill GeForce GTX 960 Ultra - 260
- GeForce GTX 980-295
- Inno3D iChill GeForce GTX 780Ti HerculeZ X3 Ultra - 340
- NVIDIA GeForce GTX Titan X - 7133
- Inno3D iChill GeForce GTX 960 Ultra - 3522
- GeForce GTX 980-6050
- Inno3D iChill GeForce GTX 780Ti HerculeZ X3 Ultra - 6190
Itt az ideje a leglátványosabb teszteknek, az FPS méréseknek az erőforrásigényes játékokban. Számos asztalt kísérünk vizuális videókkal a játék során. Az adatok rögzítése Full HD felbontásban történik Ultra beállítások mellett. Érdemes megfontolni, hogy a videók egyes pontjain a valós FPS-adatok alacsonyabbak, mint a tesztfutások során nyert adatok, ennek oka a videórögzítéshez szükséges erőforrások költsége. Ennél a videokártyánál külön teszteltük a munkát 3840x2160-as felbontásban Ultra beállításokon.
6. Crysis 3
Crysis 3 - 3840x2160 - Nagyon magas 4xAA - 22.
- Inno3D iChill GeForce GTX 960 Ultra - 45
- GeForce GTX 980-69
- Inno3D iChill GeForce GTX 780Ti HerculeZ X3 Ultra - 61
- GeForce GTX 770-43
- GeForce GTX 780-47
7. Battlefield 4
Battlefield 4 - 3840x2160 - Ultra - 39
- NVIDIA GeForce GTX Titan X-75
- Inno3D iChill GeForce GTX 960 Ultra - 52
- GeForce GTX 980-91
- Inno3D iChill GeForce GTX 780Ti HerculeZ X3 Ultra - 82
8. Hitman: Feloldozás
Nagyon igényes játék a Glacier 2 motorra épülve.A játék étvágyát az év többi újdonsága is irigyeli.
Hitman: Absolution - 3840x2160 - Magas, 2x MSAA, 16x AF - 46
- NVIDIA GeForce GTX Titan X-95
- Inno3D iChill GeForce GTX 960 Ultra - 44/li>
- GeForce GTX 980-70
- Inno3D iChill GeForce GTX 780Ti HerculeZ X3 Ultra - 62
- GeForce GTX 770-43
- GeForce GTX 780-55
- GeForce GTX 760-41
9. Metro Last Light
Egy másik hardverigényes játék, amely DirectX 11-et és tessellációt használ.
Metro Last Light - 3840x2160 - Nagyon magas - 35
10Középföld: Árnyék Mordor
- Inno3D iChill GeForce GTX 960 Ultra - 51
- GeForce GTX 980-111
11. Tomb Raider
- NVIDIA GeForce GTX Titan X - 156
- Palit GeForce GTX 960 Super JetStream - 64
- Inno3D iChill GeForce GTX 960 Ultra - 68
- GeForce GTX 980-100
12. Watch Dogs Ultra 4x AA
- NVIDIA GeForce GTX Titan X-80
- Inno3D iChill GeForce GTX 960 Ultra - 49
- GeForce GTX 980-62
13. Total War: Rome II Extreme
- NVIDIA GeForce GTX Titan X-79
- Inno3D iChill GeForce GTX 960 Ultra - 41
- GeForce GTX 980-70
14. GRID Autosport Ultra 4x MSAA
- NVIDIA GeForce GTX Titan X - 154
- Inno3D iChill GeForce GTX 960 Ultra - 80
- GeForce GTX 980-128
15. Tankok világa
- NVIDIA GeForce GTX Titan X - 124
- Palit GeForce GTX 960 Super JetStream - 71
- Inno3D iChill GeForce GTX 960 Ultra - 75
- GeForce GTX 980-116
16. Hadihajók világa
Ez egy új rész tesztjeink között, míg a tesztelt videokártyák száma korlátozott, március végéig átfogó anyag kerül bemutatásra. A World of Warships grafikai hatékonyságát nehéz értékelni, de általában ezek az adatok hasznosak lehetnek egy kifejezetten Wargaming játékokhoz való rendszer építésénél.
- NVIDIA GeForce GTX Titan X-72
- Inno3D iChill GeForce GTX 780Ti - 72
- Palit GeForce GTX 960 Super JetStream – 59
- Radeon R9 280x-70
- Radeon R9 280x-70
Túlhúzás
A hagyomány szerint nem korlátozódunk a szabványos frekvenciákon végzett tesztelésre. A túlhajtáshoz az MSI Afterburner a legújabb verzió a tesztelés idején. Az NVIDIA GeForce GTX Titan X esetében a következő eredményeket tudtuk elérni a magfeszültség növelése nélkül:A teljesítménynövekedés összehasonlításához szintetikus 3D Mark FireStrike tesztet használnak:
A maximális feszültségnövekedés mellett további túlhúzás lehetséges. A magfrekvencia memória segítségével 1202 MHz-re és 7806 MHz-re emelhető. Itt a maximális hőmérsékleti sáv 88 fokra emelkedik.
NVIDIA GeForce GTX Titan X eredmények
Az NVIDIA GeForce GTX Titan X teljesítménynövekedést mutatott az alacsonyabb energiafogyasztás hátterében. A jelenlegi erőkiegyenlítés mellett ez a maximális teljesítmény egy chipes rendszeren. Az AMD Radeon megfelelő válaszait még nem jelentették be. Alternatívaként szóba jöhet a GTX 780 Ti, a GTX 980 SLI módban, a Radeon R9 290X, ami továbbra is aktuális. Érdekes lesz a videó renderelésére is.Az NVIDIA GeForce GTX Titan X jól megérdemelt aranyat nyer.
Nvidia Geforce GTX Titan X
A legerősebb egyprocesszoros gyorsító
- 2. rész - Gyakorlati ismerkedés
Az új gyorsító (és a hozzá tartozó szoftver) tesztmintájának késői kézhezvétele, valamint szerzőnk, Alexei Berillo GTC munkájában való részvétele miatt az áttekintés egyes részei az új Nvidia architektúrájának szentelték. termék és a szintetikus tesztek elemzése később (kb. egy hét múlva) fog megjelenni. Most pedig egy olyan anyagot mutatunk be, amely megismerteti az olvasókkal a videokártya jellemzőivel, valamint a játéktesztek eredményeivel.
Eszköz(ek)
Nvidia Geforce GTX Titan X 12288MB 384 bites GDDR5 PCI-E | ||
---|---|---|
Paraméter | Jelentése | Névleges érték (referencia) |
GPU | Geforce GTX Titan X (GM200) | |
Felület | PCI Express x16 | |
GPU működési frekvencia (ROP), MHz | 1000—1075 | 1000—1075 |
Memória frekvencia (fizikai (effektív)), MHz | 1750 (7000) | 1750 (7000) |
Memóriacsere busz szélessége, bit | 384 | |
A számítási egységek száma a GPU-ban / a blokkok frekvenciája, MHz | 24/1000—1075 | 24/1000—1075 |
Műveletek száma (ALU) blokkonként | 128 | |
Összes művelet (ALU) | 3072 | |
Textúra egységek száma (BLF/TLF/ANIS) | 192 | |
Raszterezési blokkok száma (ROP) | 96 | |
Méretek, mm | 270×100×35 | 270×100×35 |
A videokártya által elfoglalt nyílások száma a rendszeregységben | 2 | 2 |
Textolit szín | fekete | fekete |
Energiafogyasztás (csúcs 3D-ben/2D módban/alvó üzemmódban), W | 257/98/14 | 257/98/14 |
Zajszint (2D módban / 2D módban (videolejátszás) / maximum 3D módban), dBA | 20/21/29,5 | — |
Kimeneti csatlakozók | 1×DVI (Dual-Link/HDMI), 1×HDMI 2.0, 3×DisplayPort 1.2 | |
Többfeldolgozás támogatása | SLI | |
A vevők/monitorok maximális száma az egyidejű képkimenethez | 4 | 4 |
Segédteljesítmény: 8 tűs csatlakozók száma | 1 | 1 |
Segédteljesítmény: 6 tűs csatlakozók száma | 1 | 1 |
Maximális 2D felbontás: DP/HDMI/Dual-Link DVI/Single-Link DVI | ||
Maximális 3D felbontás: DP/HDMI/Dual-Link DVI/Single-Link DVI | 3840×2400/3840×2400/2560×1600/1920×1200 |
Helyi memóriával együtt | ||
---|---|---|
A kártya 12288 MB GDDR5 SDRAM-mal rendelkezik 24 db 4 Gb-os lapkában (12 db a PCB mindkét oldalán). A DirectX 11 szintetikus tesztjeként a Microsoft és az AMD SDK-kból, valamint az Nvidia demóprogramjából származó példákat használtunk. Az első a HDRToneMappingCS11.exe és az NBodyGravityCS11.exe a DirectX SDK-ból (2010. február). Mindkét videochip-gyártótól is vettünk pályázatokat: az Nvidiától és az AMD-től. A DetailTessellation11 és a PNTtriangles11 az ATI Radeon SDK-ból származnak (ezek a DirectX SDK-ban is megtalálhatók). Ezenkívül az Nvidia Realistic Water Terrain, más néven Island11 demóprogramját használták. Szintetikus teszteket a következő videokártyákon végeztek:
A Geforce GTX Titan X videokártya új modelljének teljesítményének elemzéséhez a következő okok miatt választották ezeket a megoldásokat. A Geforce GTX 980 ugyanolyan Maxwell architektúrájú, de alacsonyabb szintű - GM204 - grafikus processzorra épül, és nagyon érdekes lesz számunkra, hogy értékeljük, mit adott a chip bonyolultsága a GM200 számára. Nos, a Geforce GTX Titan Z kétchipes videokártyát csak referenciaként vettük – mint a legproduktívabb Nvidia videokártyát, amely a korábbi Kepler architektúra GK110-es lapkáján alapul. A rivális AMD cégtől két grafikus kártyát is választottunk összehasonlításunkhoz. Elvileg nagyon különböznek egymástól, bár ugyanazokra a Hawaii GPU-kra épülnek – csak más a GPU-k száma a kártyákon, és eltér egymástól a pozicionálás és az ár. A Geforce GTX Titan X-nek nincs árversenytársa, ezért a legerősebb Radeon R9 295X2 kétchipes videokártyát választottuk, bár egy ilyen összehasonlítás technikailag nem lenne túl érdekes. Utóbbihoz a versenytárs leggyorsabb egychipes videokártyáját, a Radeon R9 290X-et vették, bár túl régen adták ki, és egyértelműen kisebb bonyolultságú GPU-ra épül. De egyszerűen nincs más választás az AMD megoldások közül. Direct3D 10: PS 4.0 pixel shader tesztek (textúrázás, loopolás)Elhagytuk az elavult DirectX 9 benchmarkokat, mivel az olyan szupererős megoldások, mint a Geforce GTX Titan X nem mutatnak túl jó eredményeket bennük, mivel mindig korlátozza a memória sávszélessége, a kitöltési sebesség vagy a textúra. Arról nem is beszélve, hogy a kétchipes videokártyák nem mindig működnek megfelelően az ilyen alkalmazásokban, nálunk kettő is van. A RightMark3D második verziója két már ismert PS 3.0 tesztet tartalmaz Direct3D 9 alatt, amelyeket átírtak DirectX 10-re, valamint további két új tesztet. Az első pár hozzáadta az önárnyékolás és a shader szupermintavételezés lehetőségét, ami ráadásul növeli a videochipek terhelését. Ezek a tesztek a hurkolt pixel-shaderek teljesítményét mérik nagyszámú textúramintával (akár több száz mintával képpontonként a legnehezebb módban) és viszonylag kis ALU-terheléssel. Más szóval, mérik a textúra lekérésének sebességét és az elágazás hatékonyságát a pixel shaderben. Az első pixel shader teszt a Fur lesz. A legalacsonyabb beállításoknál 15-30 textúramintát használ a magasságtérképből és két mintát a fő textúrából. Az Effect detail - "High" mód 40-80-ra növeli a minták számát, a "shader" szuperminta beépítése - akár 60-120 mintára, a "High" módot pedig az SSAA-val együtt a maximális "súlyosság" jellemzi. - 160-320 minta a magassági térképről. Először nézzük meg azokat a módokat, amelyekben nincs engedélyezve a szupermintavétel, ezek viszonylag egyszerűek, és az „Alacsony” és „Magas” módban elért eredmények arányának megközelítőleg azonosnak kell lennie. Ebben a tesztben a teljesítmény a TMU-k számától és hatékonyságától függ, és az összetett programok végrehajtásának hatékonysága is befolyásolja. A szupermintavételezés nélküli változatban pedig a tényleges kitöltési sebesség és a memória sávszélessége is további hatással van a teljesítményre. A „Magas” szint részletezésekor az eredmények akár másfélszer alacsonyabbak, mint az „alacsony” értéknél. A nagyszámú textúramintával végzett procedurális szőrmegjelenítés feladataiban, a GCN architektúrára épülő videochipek kiadásával az AMD már régen magához ragadta a vezetést. Ezekben az összehasonlításokban a mai napig a Radeon kártyák a legjobbak, ami azt jelzi, hogy hatékonyabban hajtják végre ezeket a programokat. Ezt a következtetést a mai összehasonlítás is megerősíti – az általunk vélt Nvidia videokártya még az elavult egylapkás Radeon R9 290X-hez képest is elveszett, nem is beszélve az AMD legközelebbi árversenytársáról. Az első Direct3D 10 tesztben a Geforce GTX Titan X modell új videokártyája valamivel gyorsabbnak bizonyult, mint a GTX 980 formájában azonos architektúrájú chipen lévő húga, de ez utóbbi sem marad el tőle. - 9-12%. Ez az eredmény a GTX 980 érezhetően alacsonyabb textúrázási sebességével magyarázható, más paraméterekben pedig elmarad, bár a lényeg egyértelműen nem az ALU egységek teljesítményében van. A kétchipes Titan Z gyorsabb, de nem olyan gyors, mint a Radeon R9 295X2. Nézzük ugyanennek a tesztnek az eredményét, de bekapcsolt "shader" szupermintavétel mellett, ami megnégyszerezi a munkát: ilyen helyzetben valaminek változnia kell, és a memória sávszélessége kitöltési sebességgel kisebb hatással lesz: Nehéz körülmények között a Geforce GTX Titan X modell új videokártyája már észrevehetően megelőzi az azonos generáció fiatalabb modelljét - a GTX 980-at, tisztességes 33-39%-kal gyorsabb, ami sokkal közelebb áll az elméleti különbséghez. közöttük. A versenytársak lemaradása pedig a Radeon R9 295X2 és R9 290X formájában csökkent – az Nvidia új terméke majdnem utolérte az egychipes Radeont. A kétlapkás azonban jóval előrébb tart, mert az AMD chipek jobban kedvelik a pixelenkénti számításokat, és nagyon erősek az ilyen számításokban. A következő DX10-teszt az összetett hurkos pixel-shaderek végrehajtásának teljesítményét méri nagyszámú textúra lekéréssel, és az úgynevezett Meredek Parallax Mapping. Alacsony beállításoknál 10-50 textúramintát használ a magasságtérképből és három mintát a fő textúrákból. Ha bekapcsolja a nehéz módot önárnyékolással, a minták száma megduplázódik, a szupermintavétel pedig megnégyszerezi ezt a számot. A legbonyolultabb tesztmód szupermintavételezéssel és önárnyékolással 80-400 textúraértéket választ ki, vagyis nyolcszor többet, mint az egyszerű mód. Először ellenőrizzük az egyszerű opciókat szupermintavétel nélkül: A második Direct3D 10 pixeles shader teszt gyakorlati szempontból érdekesebb, mivel a parallaxis leképezési változatokat széles körben használják a játékokban, és a nehéz változatokat, például a meredek parallaxis leképezést, régóta használják számos projektben, például a játékokban. a Crysis, a Lost Planet és sok más sorozat. Ráadásul tesztünkben a szupermintavétel mellett bekapcsolható az önárnyékolás, ami körülbelül kétszeresére növeli a videochip terhelését - ezt a módot "High"-nek hívják. A diagram általánosságban hasonló az előzőhöz, szintén szupermintavétel nélkül, és ezúttal az új Geforce GTX Titan X egy kicsit közelebb áll a GTX Titan Z-hez, nem annyira veszítve a két chipes alaplappal szemben. egy pár Kepler család GPU-n. Különböző körülmények között az új termék 14-19%-kal előzi meg az Nvidia jelenlegi generációjának korábbi csúcsmodelljét, és még ha az AMD videokártyákkal is összehasonlítjuk, itt valami megváltozott - jelen esetben az új GTX Titan. Az X valamivel gyengébb a Radeon R9 290X-nél. A kétchipes R9 295X2 azonban messze mindenki előtt jár. Lássuk, mi változtatja meg a szupermintavételezést: A szupermintavétel és az önárnyékolás engedélyezése esetén a feladat nehezedik, két lehetőség együttes beépítése egyszerre csaknem nyolcszorosára növeli a kártyák terhelését, komoly teljesítménycsökkenést okozva. A tesztelt videokártyák sebességjelzői között némileg változott a különbség, bár a szupermintavétel beépítése kisebb hatást fejt ki, mint az előző esetben. Az AMD Radeon grafikus megoldások hatékonyabban teljesítenek ebben a D3D10 pixel shader tesztben, mint a versenytárs Geforce kártyák, de az új GM200 chip jobbra változtatja a helyzetet – a Maxwell architektúrára épülő Geforce GTX Titan X kártya már megelőzi a Radeon R9 290X-et minden körülmények között (azonban észrevehetően kevésbé bonyolult GPU alapján). A Hawaii párosra épülő kétchipes megoldás továbbra is a vezető, de a többi Nvidia megoldáshoz képest nem rossz az új termék. Szinte a kétlapkás Geforce GTX Titan Z szintjén mutatott sebességet, és 28-33%-kal felülmúlta a Geforce GTX 980-at. Direct3D 10: PS 4.0 Pixel Shader összehasonlítási alapjai (számítástechnika)A következő néhány pixel shader teszt tartalmazza a minimális számú textúra lekérést, hogy csökkentse a TMU teljesítményének hatását. Nagyszámú aritmetikai műveletet alkalmaznak, és pontosan mérik a videochipek matematikai teljesítményét, az aritmetikai utasítások végrehajtási sebességét a pixel shaderben. Az első matematikai teszt ásványi anyag. Ez egy összetett eljárási textúrázási teszt, amely csak két textúra adatmintát és 65 sin és cos utasítást használ. A limitáló matematikai tesztek eredményei leggyakrabban megfelelnek a frekvenciák és a számítási egységek számának különbségének, de csak hozzávetőlegesen, hiszen az eredményeket befolyásolja az egyes feladatokban való felhasználásuk eltérő hatékonysága, illetve a meghajtók optimalizálása, illetve a legfrissebb gyakoriság ill. energiagazdálkodási rendszerek, és még a memória sávszélességének hangsúlyozása is. A Mineral teszt esetében az új Geforce GTX Titan X modell mindössze 10%-kal gyorsabb, mint az azonos generációból származó GM204 chipre épülő GTX 980 kártya, és a kétchipes GTX Titan Z sem volt olyan gyors ebben a tesztben. - Valami egyértelműen gátolja az Nvidia kártyák megnyitását. A Geforce GTX Titan X és az AMD versengő alaplapjainak összehasonlítása nem lenne olyan szomorú, ha az R9 290X és a Titan X GPU-i bonyolultságukat tekintve közel állnak egymáshoz. De a GM200 sokkal nagyobb, mint a Hawaii, és a kis győzelme teljesen természetes. Az Nvidia Keplerről Maxwellre való architektúra-frissítése révén az új lapkák közelebb kerültek a konkurens AMD-megoldásokhoz az ilyen tesztekben. De még az olcsóbb, kétchipes megoldású Radeon R9 295X2 is érezhetően gyorsabb. Nézzük a shader számítások második tesztjét, amelyet Fire-nek hívnak. Az ALU-hoz nehezebb, és csak egy texture fetch van benne, a sin és cos utasítások száma pedig megduplázódott, 130-ra. Lássuk, mi változott a terhelés növekedésével: A RigthMark második matematikai tesztjében már különböző eredményeket látunk a videokártyákra egymáshoz képest. Tehát az új Geforce GTX Titan X már erősebb (20%-kal) megelőzi a GTX 980-at egy ugyanolyan grafikus architektúrájú chipen, és a kétlapkás Geforce nagyon közel áll az új termékhez - Maxwell sokkal megbirkózik a számítási feladatokkal. jobb, mint Kepler. Lemaradt a Radeon R9 290X, de ahogy már írtuk, a Hawaii GPU érezhetően egyszerűbb, mint a GM200, és ez a különbség logikus. Ám bár a kétchipes Radeon R9 295X2 továbbra is vezető szerepet tölt be a matematikai tesztekben, általánosságban elmondható, hogy az új Nvidia videochip jól teljesített az ilyen feladatokban, bár nem érte el az elméleti különbséget a GM204-hez képest. Direct3D 10: Geometry Shader tesztekA RightMark3D 2.0-ban két geometriai árnyékoló sebességteszt létezik, az első opció neve "Galaxy", a technika hasonló a Direct3D korábbi verzióinak "pont spritejéhez". Egy részecskerendszert animál a GPU-n, minden pontból egy geometriai árnyékoló négy csúcsot hoz létre, amelyek részecskéket alkotnak. Hasonló algoritmusokat széles körben kell használni a jövőbeni DirectX 10 játékokban. A geometria shader teszteknél az egyensúly megváltoztatása nem befolyásolja a végeredményt, a végső kép mindig pontosan ugyanaz, csak a jelenetfeldolgozási módok változnak. A "GS load" paraméter határozza meg, hogy melyik shaderben történjen a számítás – csúcsban vagy geometriában. A számítások száma mindig azonos. Tekintsük a „Galaxy” teszt első verzióját a vertex shaderben végzett számításokkal a geometriai összetettség három szintjére: A jelenetek különböző geometriai bonyolultságú sebességeinek aránya minden megoldásnál megközelítőleg azonos, a teljesítmény a pontok számának felel meg, minden lépésnél közel kétszeres az FPS-esés. Ez a feladat nagyon egyszerű a nagy teljesítményű modern videokártyák esetében, és a teljesítményt ebben korlátozza a geometriai feldolgozás sebessége, és néha a memória sávszélessége és/vagy kitöltési sebessége. Az Nvidia és AMD chipekre épülő videokártyák eredményei közötti különbség általában a kaliforniai cég megoldásainak kedvez, ennek oka pedig az, hogy ezen cégek chipjeinek geometriai csővezetékei eltérőek. A legjobb Nvidia videochipek ebben az esetben is sok geometriai feldolgozó egységgel rendelkeznek, így a nyereség nyilvánvaló. A geometriai tesztek során a Geforce kártyák mindig versenyképesebbek, mint a Radeon. Az új Geforce GTX Titan X modell némileg lemarad az előző generációs GPU-k kétchipes GTX Titan Z kártyájától, de 12-25%-kal felülmúlja a GTX 980-at. A Radeon grafikus kártyák markánsan eltérő eredményeket mutatnak, az R9 295X2 ugyanis egy pár GPU-ra épül, és ebben a tesztben csak ez tudja felvenni a versenyt az újdonsággal, míg a Radeon R9 290X kívülálló volt. Nézzük meg, hogyan változik a helyzet, amikor a számítások egy részét átvisszük a geometria árnyékolóba: Amikor a terhelés megváltozott ebben a tesztben, a számok kissé megváltoztak az AMD kártyák és az Nvidia megoldások esetében. És ez nem igazán változtat semmin. A geometriai árnyékolók ezen tesztjében szereplő videokártyák rosszul reagálnak a GS terhelési paraméterének változásaira, amely a számítások egy részének átviteléért felelős a geometria árnyékolóba, így a következtetések ugyanazok maradnak. Sajnos a "Hyperlight" a geometria árnyékolók második tesztje, amely egyszerre több technika használatát mutatja be: példányosítás, adatfolyam kimenet, pufferterhelés, amely dinamikus geometria létrehozását használja két pufferre rajzolással, valamint egy új Direct3D 10 funkció. - stream kimenet, a Minden modern AMD grafikus kártya egyszerűen nem működik. Valamikor a Catalyst illesztőprogramok újabb frissítése miatt ez a teszt leállt a cég tábláin, és ezt már évek óta nem javították. Direct3D 10: textúra lekérési sebesség a vertex shaderekbőlA "Vertex Texture Fetch" tesztek nagyszámú textúra lekérésének sebességét mérik egy vertex shaderből. A tesztek lényegét tekintve hasonlóak, tehát a „Föld” és a „Hullámok” tesztben a kártyák eredményei közötti aránynak megközelítőleg azonosnak kell lennie. Mindkét teszt textúra mintavételi adatokon alapuló eltolásleképezést használ, az egyetlen lényeges különbség, hogy a "Waves" teszt feltételes ugrásokat használ, míg a "Föld" teszt nem. Tekintsük az első „Föld” tesztet, először „Effect Detail Low” módban: Korábbi vizsgálataink kimutatták, hogy a kitöltési sebesség és a memória sávszélessége is befolyásolhatja ennek a tesztnek az eredményét, ami jól látható az Nvidia kártyák eredményein, különösen egyszerű módokban. Az Nvidia új videokártyája ebben a tesztben egyértelműen alacsonyabb sebességet mutat, mint kellene - az összes Geforce kártya megközelítőleg azonos szintűnek bizonyult, ami egyértelműen nem felel meg az elméletnek. Minden módban egyértelműen olyan dolgokba futnak bele, mint a memória sávszélessége. A Radeon R9 295X2 azonban közel sem kétszer olyan gyors, mint az R9 290X. Az AMD egylapkás kártyája egyébként ezúttal erősebbnek bizonyult, mint az összes Nvidia kártyája light módban, és hozzávetőlegesen a saját szintjén kemény módban. Nos, összehasonlításunk éllovasa ismét a kétchipes Radeon R9 295X2 lett. Nézzük meg a teljesítményt ugyanabban a tesztben, megnövekedett számú textúralekéréssel: A diagramon látható helyzet némileg változott, az AMD egylapkás megoldása nehéz módokban lényegesen több Geforce kártyát veszített. Az új Geforce GTX Titan X akár 14%-kal gyorsabb sebességet mutatott, mint a Geforce GTX 980, és a legkönnyebb mód kivételével minden módban felülmúlta az egylapkás Radeont – valamire ugyanaz a hangsúly miatt. Ha az újdonságot az AMD kétchipes megoldásával hasonlítjuk össze, akkor a Titan X szoros teljesítményt felmutató, de light módban lemaradva, nehéz módban tudott küzdeni. Tekintsük a vertex shaderekből származó textúra lekérések második tesztjének eredményeit. A Waves teszt kevesebb mintát tartalmaz, de feltételes ugrásokat használ. A bilineáris textúra minták száma ebben az esetben csúcsonként legfeljebb 14 ("Effect detail Low") vagy 24 ("Effect detail High") lehet. A geometria összetettsége az előző teszthez hasonlóan változik. A második "Waves" vertex textúrázási teszt eredményei semmiben sem hasonlítanak az előző diagramokon látottakhoz. Az összes Geforce sebességi teljesítménye ebben a tesztben súlyosan leromlott, és az új Nvidia Geforce GTX Titan X modell csak valamivel gyorsabb sebességet mutat, mint a GTX 980, lemaradva a kétchipes Titan Z mögött. A versenytársakhoz képest mindkét Radeon kártya képes volt hogy minden üzemmódban a legjobb teljesítményt mutassák ebben a tesztben. Tekintsük ugyanezen probléma második változatát: A feladat összetettségével a második textúra-mintavételi tesztben minden megoldás sebessége csökkent, de az Nvidia videokártyák jobban szenvedtek, így a vizsgált modell is. Szinte semmi sem változik a következtetésekben, az új Geforce GTX Titan X modell akár 10-30%-kal gyorsabb, mint a GTX 980, lemaradva mind a kétchipes Titan Z, mind a Radeon kártyák mögött. A Radeon R9 295X2 messze előrébb jár ezekben a tesztekben, és elméleti szempontból ez egyszerűen megmagyarázhatatlan, kivéve az Nvidia elégtelen optimalizálását. 3DMark Vantage: FunkciótesztekA 3DMark Vantage csomagból származó szintetikus tesztek megmutatják, miről maradtunk le korábban. Az ebből a tesztcsomagból származó szolgáltatástesztek DirectX 10 támogatással rendelkeznek, továbbra is relevánsak és érdekesek, mert eltérnek a miénktől. A csomagban található legújabb Geforce GTX Titan X videokártya eredményeit elemezve néhány olyan új és hasznos következtetést vonunk le, amelyek a RightMark család csomagjaiból származó tesztek során elkerültek bennünket. 1. jellemző teszt: Textúra kitöltésAz első teszt a textúra lekérő egységek teljesítményét méri. Egy téglalapot egy kis textúrából kiolvasott értékekkel tölti ki több textúrakoordinátával, amelyek minden képkockát megváltoztatnak. Az AMD és Nvidia videokártyák hatékonysága a Futuremark textúra tesztjében meglehetősen magas, a különböző modellek végső számai pedig közel állnak a megfelelő elméleti paraméterekhez. A GTX Titan X és a GTX 980 közötti sebességkülönbség tehát 38%-os volt a GM200-ra épülő megoldás javára, ami közel áll az elmélethez, ugyanis az új termék másfélszer több TMU-t tartalmaz. , de alacsonyabb frekvencián működnek. Természetesen megmarad a lemaradás a dual-GTX Titan Z mögött, hiszen a két GPU gyorsabb textúrájú. Ami az új csúcs Nvidia videokártya textúrázási sebességének összehasonlítását illeti a versenytárs hasonló árú megoldásaival, itt az újdonság alulmúlja a kétchipes riválist, amely ugyan feltételes szomszéd az árrésben, de megelőzi a Radeon R9 290X, bár nem túl jelentős mértékben. Ennek ellenére az AMD grafikus kártyák még mindig jobban teljesítenek a textúrázás terén. 2. szolgáltatásteszt: SzínkitöltésA második feladat a kitöltési arány teszt. Nagyon egyszerű pixel shader-t használ, amely nem korlátozza a teljesítményt. Az interpolált színértéket a rendszer egy képernyőn kívüli pufferbe (renderelési cél) írja alfa keveréssel. 16 bites FP16 képernyőn kívüli puffert használ, ami a leggyakrabban használt HDR-megjelenítést használó játékokban, így ez a teszt meglehetősen időszerű. A második 3DMark Vantage alteszt számai a ROP egységek teljesítményét mutatják, a videomemória sávszélességének (ún. "effektív kitöltési arány") figyelembevétele nélkül, a teszt pedig pontosan a ROP teljesítményét méri. A ma áttekintett Geforce GTX Titan X kártya észrevehetően megelőzi mindkét Nvidia kártyát, a GTX 980-at és még a GTX Titan Z-t is, és akár 45%-kal is felülmúlja a GM204 alapú egylapkás kártyát – a ROP-ok számát és azok számát tekintve. A Maxwell architektúra csúcs GPU-jának hatékonysága kiváló! És ha összehasonlítjuk az új Geforce GTX Titan X videokártya jelenetkitöltési sebességét az AMD videokártyákkal, akkor a tesztben vizsgált Nvidia kártya mutatja a legjobb jelenetkitöltési sebességet még a legerősebb kétchipes Radeon R9-hez képest is. 295X2, nem beszélve a jelentősen lemaradt Radeon R9 290X-ről. A nagyszámú ROP blokk és a framebuffer adattömörítés hatékonyságát szolgáló optimalizálás elvégezte a feladatát. 3. jellemző teszt: Parallax okklúziós leképezésAz egyik legérdekesebb funkcióteszt, mivel ezt a technikát már használják a játékokban. Egy négyszöget (pontosabban két háromszöget) rajzol a speciális, összetett geometriát utánzó Parallax Occlusion Mapping technikával. Meglehetősen erőforrás-igényes sugárkövetési műveleteket és nagy felbontású mélységtérképet használnak. Ezt a felületet is árnyékolják a nehéz Strauss-algoritmus segítségével. Ez egy nagyon összetett és nehéz pixel shader tesztje egy videochiphez, amely számos textúra lekérést tartalmaz sugárkövetés, dinamikus elágazás és összetett Strauss-világítási számítások során. Ez a 3DMark Vantage csomagból származó teszt annyiban különbözik a korábbiaktól, hogy a benne lévő eredmények nem csak a matematikai számítások sebességétől, az elágazás-végrehajtás hatékonyságától, vagy a textúrák lekérésének sebességétől függenek, hanem egyszerre több paramétertől is. A feladat nagy sebességének eléréséhez fontos a GPU megfelelő egyensúlya, valamint az összetett shaderek végrehajtásának hatékonysága. Ebben az esetben mind a matematikai, mind a textúra teljesítménye fontos, és a 3DMark Vantage "szintetikájában" az új Geforce GTX Titan X kártya több mint harmadával gyorsabbnak bizonyult, mint az azonos Maxwell architektúrájú GPU-n alapuló modell. . És még a kétchipes Kepler is a GTX Titan Z képében kevesebb mint 10%-kal felülmúlta az újdonságot. Az Nvidia egylapkás felső kategóriás kártyája egyértelműen felülmúlta az egychipes Radeon R9 290X-et ebben a tesztben, de mindkettőt komolyan felülmúlja a kétchipes Radeon R9 295X2. Az AMD GPU-i ebben a feladatban valamivel hatékonyabbak, mint az Nvidia chipek, és az R9 295X2-ben kettő van belőlük. 4. szolgáltatásteszt: GPU-szövetA negyedik teszt azért érdekes, mert egy videochip segítségével számítja ki a fizikai kölcsönhatásokat (szövetimitáció). Csúcsszimulációt alkalmazunk, a vertex és a geometria shader kombinált működésével, több lépéssel. Használja a stream out-ot a csúcsok egyik szimulációs lépésből a másikba való átviteléhez. Így teszteljük a csúcs- és geometria-shaderek végrehajtásának teljesítményét és a kiáramlási sebességet. A renderelési sebesség ebben a tesztben is több paramétertől függ egyszerre, és a fő befolyásoló tényező a geometria-feldolgozás teljesítménye és a geometria árnyékolók hatékonysága. Azaz az Nvidia chipek erősségei meg kellene, hogy látszódjanak, de sajnos - nagyon furcsa eredményt láttunk (újraellenőrzve), az új Nvidia videokártya finoman szólva sem mutatott túl nagy sebességet. A Geforce GTX Titan X ebben a résztesztben az összes megoldás közül a legrosszabb eredményt mutatta, még a GTX 980-tól is csaknem 20%-kal lemaradva! Nos, a Radeon lapokkal való összehasonlítás ebben a tesztben ugyanolyan csúnya egy új termék esetében. Annak ellenére, hogy elméletileg kisebb számban vannak geometriai végrehajtó egységek, és az AMD chipek geometriai teljesítménybeli lemaradása a konkurens megoldásokhoz képest, mindkét Radeon kártya nagyon hatékonyan működik ebben a tesztben, és összehasonlításban felülmúlja mindhárom bemutatott Geforce kártyát. Ismét úgy tűnik, hogy az Nvidia illesztőprogramjaiban nincs optimalizálva egy adott feladathoz. 5. szolgáltatásteszt: GPU részecskékTeszt az effektusok fizikai szimulálására videochip segítségével kiszámított részecskerendszereken. Csúcsszimulációt is alkalmaznak, minden csúcs egyetlen részecskét képvisel. A Stream out ugyanarra a célra használható, mint az előző tesztben. Több százezer részecskét számítanak ki, mindegyiket külön animálják, és a magassági térképpel való ütközésüket is kiszámítják. Hasonlóan az egyik RightMark3D 2.0 tesztünkhöz, a részecskéket egy geometria árnyékolóval rajzoljuk meg, amely minden pontból négy csúcsot hoz létre a részecske kialakításához. De a teszt leginkább a shader blokkokat tölti be vertex számításokkal, a stream out is tesztelésre kerül. A 3DMark Vantage második "geometrikus" tesztjén a helyzet alaposan megváltozott, ezúttal már minden Geforce többé-kevésbé normális eredményt mutat, bár a kétchipes Radeon továbbra is az élen marad. Az új GTX Titan X modell 24%-kal gyorsabb, mint testvére, a GTX 980, és nagyjából ugyanennyivel elmarad az előző generációs GPU-n lévő, kettős GPU-s Titan Z-től. Az Nvidia újdonságának összehasonlítása az AMD versengő videokártyáival ezúttal pozitívabb – a rivális cég két kártyája között mutatta meg az eredményt, és kiderült, hogy közelebb áll a két GPU-s Radeon R9 295X2-höz. Az újdonság messze megelőzi a Radeon R9 290X-et, és ez jól mutatja, hogy mennyire különbözik egymástól a két látszólag hasonló teszt: a szövetszimuláció és a részecskerendszer szimuláció. 6. szolgáltatásteszt: Perlin-zajA Vantage csomag utolsó funkciótesztje a videochip matematikailag intenzív tesztje, a Perlin zajalgoritmus több oktávját számolja ki a pixel shaderben. Mindegyik színcsatorna saját zajfunkciót használ a videochip terhelésének növelésére. A Perlin zaj egy szabványos algoritmus, amelyet gyakran használnak a procedurális textúrában, sok matematikai számítást használ. Ebben az esetben a megoldások teljesítménye nem egészen egyezik az elmélettel, bár közel áll ahhoz, amit a hasonló teszteknél láttunk. A Futuremark csomagból származó matematikai tesztben, amely a videochipek csúcsteljesítményét mutatja limitfeladatokban, az eredmények eltérő eloszlását látjuk a tesztcsomagunk hasonló tesztjeihez képest. Régóta tudjuk, hogy a GCN architektúrájú AMD videochipek még mindig jobban megbirkóznak az ilyen feladatokkal, mint a versenytársak megoldásai, különösen azokban az esetekben, amikor intenzív "matematika" történik. De az Nvidia új csúcsmodellje a nagy GM200 chipre épül, így a Geforce GTX Titan X észrevehetően jobban teljesített, mint a Radeon R9 290X ebben a tesztben. Ha összehasonlítjuk az új terméket a Geforce GTX 900 család legjobb modelljével, akkor ebben a tesztben közel 40%-os volt a különbség köztük - természetesen a ma mérlegelendő videókártya javára. Ez is közel áll az elméleti különbséghez. Nem rossz eredmény a Titan X-től, csak a kétchipes Radeon R9 295X2 volt előrébb, és messze is. Direct3D 11: Shaderek számításaAz Nvidia nemrégiben kiadott csúcsminőségű megoldásának teszteléséhez a DirectX 11 szolgáltatásait, például a tessellációt és a számítási árnyékolókat használó feladatokhoz a Microsoft, az Nvidia és az AMD SDK-példáit és demóit használtuk. Először is megvizsgáljuk a Compute shadereket használó benchmarkokat. Megjelenésük az egyik legfontosabb újítás a DX API legújabb verzióiban, már a modern játékokban is alkalmazzák különféle feladatok elvégzésére: utófeldolgozás, szimuláció, stb. a DirectX SDK-ból, utófeldolgozással, amely pixel- és számítási árnyékolókat használ. A számítások sebessége a számítási és pixel shaderekben az összes AMD és Nvidia kártya esetében megközelítőleg azonos, eltérést csak a korábbi architektúrák GPU-jain alapuló videokártyáknál figyeltek meg. Korábbi tesztjeink alapján egy probléma eredménye gyakran nem annyira a matematikai teljesítménytől és a számítási hatékonyságtól függ, hanem más tényezőktől, például a memória sávszélességétől. Ebben az esetben az új csúcskategóriás videokártya gyorsabb, mint az egylapkás Geforce GTX 980 és Radeon R9 290X, de mögötte a kétchipes R9 295X2, ami érthető, mert egy pár R9 290X teljesítményével rendelkezik. . Ha az új terméket a Geforce GTX 980-hoz hasonlítjuk, akkor a ma számításba vett kaliforniai cég alaplapja 34-36%-kal gyorsabb - pontosan az elmélet szerint. A második számítási árnyékoló teszt szintén a Microsoft DirectX SDK-ból származik, és egy N-test (N-test) gravitációs számítási problémát mutat be, egy dinamikus részecskerendszer szimulációját, amely fizikai erőknek, például gravitációnak van kitéve. Ebben a tesztben leggyakrabban az összetett matematikai számítások végrehajtásának gyorsaságán, a geometriai feldolgozáson és az elágazásos kódvégrehajtás hatékonyságán van a hangsúly. Ebben a DX11-es tesztben pedig teljesen eltérőnek bizonyult az erőkiosztás két különböző cég megoldása között - egyértelműen a Geforce videokártyák javára. A különböző lapkákra épülő Nvidia-megoldások párjának eredményei azonban szintén furcsaak - a Geforce GTX Titan X és a GTX 980 szinte megegyezik, mindössze 5%-os teljesítménykülönbség választja el őket egymástól. A kétchipes renderelés nem működik ebben a feladatban, így a riválisok (egylapkás és kétlapkás Radeon modellek) nagyjából azonos sebességűek. Nos, a GTX Titan X háromszor is megelőzi őket. Úgy tűnik, hogy ezt a feladatot sokkal hatékonyabban lehet kiszámítani a Maxwell architektúrájú GPU-kon, amit korábban megjegyeztünk. Direct3D 11: Tesselációs teljesítményA számítási árnyékolók nagyon fontosak, de a Direct3D 11 másik jelentős újdonsága a hardveres tesszelláció. Az Nvidia GF100-ról szóló elméleti cikkünkben részletesen megvizsgáltuk. A Tessellationt régóta használják DX11 játékokban, mint például a STALKER: Call of Pripyat, DiRT 2, Aliens vs Predator, Metro Last Light, Civilization V, Crysis 3, Battlefield 3 és mások. Némelyikük tesszellációt használ karaktermodellekhez, mások valósághű vízfelületet vagy tájat szimulálnak. Számos különböző séma létezik a grafikus primitívek particionálására (tesselláció). Például phong tesselláció, PN háromszögek, Catmull-Clark felosztás. Tehát a PN-háromszögek csempézési sémáját a STALKER: Call of Pripyat és a Metro 2033 - Phong tessellációban használják. Ezek a módszerek viszonylag gyorsan és egyszerűen beépíthetők a játékfejlesztési folyamatba és a meglévő motorokba, ezért váltak népszerűvé. Az első tessellációs teszt az ATI Radeon SDK-ból származó Detail Tessellation példa lesz. Nemcsak tesszellációt valósít meg, hanem két különböző pixelenkénti feldolgozási technikát is: a normál térképek egyszerű átfedését és a parallaxis okklúziós leképezést. Nos, hasonlítsuk össze az AMD és az Nvidia DX11 megoldásait különböző körülmények között: Az egyszerű bumpmapping tesztnél a táblák sebessége nem nagyon fontos, mivel ez a feladat már régóta túl könnyűvé vált, és a teljesítmény a memória sávszélességétől vagy kitöltési sebességétől függ. A felülvizsgálat mai hőse 23%-kal megelőzi a GM204 chipre épülő Geforce GTX 980 korábbi csúcsmodelljét, és némileg alulmúlja versenytársát a Radeon R9 290X formájában. A kétchipes változat még egy kicsit gyorsabb is. A bonyolultabb pixel-pixel számításokkal végzett második résztesztben az új termék már 34%-kal gyorsabb a Geforce GTX 980-nál, ami közelebb áll a köztük lévő elméleti különbséghez. De a Titan X ezúttal már egy kicsivel gyorsabb, mint egy egyetlen Hawaiira épülő, egychipes feltételes versenytárs. Mivel a Radeon R9 295X2 két chipje tökéletesen működik, ez a feladat még gyorsabban teljesít rajta. Bár a matematikai számítások teljesítménye pixel shaderben magasabb a GCN architektúra chipeknél, a Maxwell architektúra megoldások megjelenése javította az Nvidia megoldások pozícióit. A könnyű tesszellációs résztesztben a nemrég bejelentett Nvidia kártya ismét csak egynegyedével gyorsabb a Geforce GTX 980-nál – a sebességnek talán a memória sávszélessége szab határt, hiszen a textúrának ebben a tesztben szinte nincs hatása. Ha az új terméket az AMD lapokkal hasonlítjuk össze ebben a résztesztben, akkor az Nvidia kártya ismét alulmúlja mindkét Radeont, mivel ebben a tesszellációs tesztben a háromszög hasítása nagyon mérsékelt, és a geometriai teljesítmény nem korlátozza az általános renderelési sebességet. A második tesszellációs teljesítményteszt egy újabb példa az ATI Radeon SDK - PN Triangles 3D fejlesztői számára. Valójában mindkét példa benne van a DX SDK-ban is, így biztosak vagyunk benne, hogy a játékfejlesztők ezek alapján készítik el saját kódjukat. Ezt a példát egy másik tessellációs tényezővel teszteltük, hogy megtudjuk, mennyire befolyásolja az általános teljesítményt. Ebben a tesztben összetettebb geometriát alkalmazunk, ezért a különböző megoldások geometriai erejének összehasonlítása eltérő következtetéseket von le. Az anyagban bemutatott modern megoldások meglehetősen jól bírják a könnyű és közepes geometriai terheléseket, nagy sebességet mutatva. De míg a Hawaii egy és két GPU-ja a Radeon R9 290X-ben és R9 295X2-ben jól teljesít fényviszonyok között is, az Nvidia lapjai nagy igénybevétel esetén a legjobbak. A ma bemutatott Geforce GTX Titan X tehát a legnehezebb módokban már érezhetően jobban mutatja a sebességet, mint a kétlapkás Radeon. Ami a GM200 és GM204 chipekre épülő Nvidia kártyák összehasonlítását illeti, a ma vizsgált Geforce GTX Titan X modell a geometriai terhelés növekedésével növeli az előnyét, mivel világos módban minden a memória sávszélességétől függ. Ennek köszönhetően az új termék a mód összetettségétől függően akár 31%-kal is megelőzi a Geforce GTX 980 kártyát. Nézzük meg egy másik teszt, az Nvidia Realistic Water Terrain demóprogram, más néven Sziget eredményeit. Ez a demó tesszellációt és eltolásleképezést használ, hogy valósághű megjelenésű óceánfelszínt és terepet jelenítsen meg. Az Island teszt nem pusztán szintetikus teszt a tisztán geometriai GPU teljesítmény mérésére, mivel összetett pixel- és számítási shadereket is tartalmaz, és egy ilyen terhelés közelebb áll azokhoz a valódi játékokhoz, amelyek minden GPU egységet használnak, és nem csak geometrikusakat, mint az előzőekben. geometriai tesztek. Bár a geometria feldolgozó egységek terhelése továbbra is a fő terhelés marad, például ugyanaz a memória sávszélessége is befolyásolhatja. Az összes videokártyát négy különböző tessellációs tényezővel teszteljük – ebben az esetben a beállítást Dynamic Tessellation LOD-nak hívják. Az első háromszög hasítási tényezőnél a sebességnek nem szab határt a geometriai blokkok teljesítménye, és a Radeon videokártyák is meglehetősen magas eredményt mutatnak, különösen a kétchipes R9 295X2, amely még a bejelentett Geforce GTX Titan X kártya eredményét is felülmúlja. , de már a következő geometriai terhelési szinteken csökken a Radeon kártyák teljesítménye, és az Nvidia megoldások vezetnek. A GM200 videochipre épülő új Nvidia kártya előnye riválisaival szemben az ilyen tesztekben már elég tisztességes, sőt többszörös. Ha összehasonlítjuk a Geforce GTX Titan X-et a GTX 980-al, akkor a teljesítményük közötti különbség eléri a 37-42%-ot, amit az elmélet tökéletesen magyaráz, és pontosan megfelel annak. A Maxwell GPU-k észrevehetően hatékonyabbak vegyes terhelés esetén, gyorsan váltanak a grafikáról a számítástechnikára, majd vissza, és a Titan X sokkal gyorsabb, mint a kétchipes Radeon R9 295X2 ebben a tesztben. Az új, csúcskategóriás GM200 GPU-n alapuló új Nvidia Geforce GTX Titan X videokártya szintetikus tesztjei eredményeinek elemzése, valamint a két különálló videochip gyártó más videokártya-modelljei eredményeinek elemzése után arra a következtetésre juthatunk, hogy a ma fontolóra vett videokártya legyen a leggyorsabb a piacon, versenyezve az AMD legerősebb kétchipes grafikus kártyájával. Általánosságban elmondható, hogy ez egy jó követője a Geforce GTX Titan Blacknek - egy erős egylapkás. Az Nvidia új grafikus kártyája elég erős eredményeket mutat a "szintetika" terén - sok tesztben, bár nem mindenben. A Radeon és a Geforce hagyományosan eltérő erősséggel bír. Számos teszt során a Radeon R9 295X2 modell két GPU-ja gyorsabb volt, többek között a nagyobb általános memória sávszélesség és textúrázási sebesség miatt, valamint a számítási feladatok nagyon hatékony végrehajtása miatt. Más esetekben azonban a Maxwell architektúra legjobb grafikus processzora nyer vissza, különösen a geometriai tesztekben és a tesszellációs példákban. A valódi játékalkalmazásokban azonban minden egy kicsit más lesz, mint a "szintetika" és a Geforce GTX Titan X-nek érezhetően nagyobb sebességet kell mutatnia, mint az egychipes Geforce GTX 980, és még inkább a Radeon R9 290X. . Az újdonságot pedig nehéz összehasonlítani a kétchipes Radeon R9 295X2-vel - a két vagy több GPU-ra épülő rendszereknek megvannak a maguk kellemetlen tulajdonságai, bár megfelelő optimalizálás mellett az átlagos képkockasebesség növekedését biztosítják. De az építészeti jellemzők és a funkcionalitás egyértelműen az Nvidia prémium megoldása mellett szól. A Geforce GTX Titan X sokkal kevesebb energiát fogyaszt, mint ugyanaz a Radeon R9 295X2, az Nvidia új modellje pedig nagyon erős energiahatékonyság terén – ez a Maxwell architektúra jellegzetessége. Ne feledkezzünk meg az Nvidia új termékének nagyobb funkcionalitásáról: támogatja a DirectX 12 12.1-es funkciószintjét, a VXGI hardveres gyorsítást, az új MFAA élsimítási módszert és más technológiákat. A piaci nézőpontról már az első részben beszéltünk - az elit szegmensben már nem sok múlik az áron. A lényeg az, hogy a megoldás a lehető legfunkcionálisabb és produktívabb legyen a játékalkalmazásokban. Egyszerűen fogalmazva, mindenben ez volt a legjobb. Csak annak érdekében, hogy értékeljük az újdonság sebességét a játékokban, anyagunk következő részében meghatározzuk a Geforce GTX Titan X teljesítményét a játékprojekteinkben, és összehasonlítjuk a versenytársak teljesítményével, beleértve az indoklást is. az újdonság kiskereskedelmi árából a rajongók szemszögéből, és azt is megtudja, mennyivel gyorsabb a Geforce GTX 980 már a játékokban. |
Asus ProArt PA249Q monitor munkahelyi számítógéphez a cég által biztosított Asustek | A cég által biztosított Cougar 700K billentyűzet munkahelyi számítógéphez Puma |
A TITAN X grafikus kártyát a leginkább erőforrásigényes játékok rajongóinak tervezték. A csúcstechnológiát az új NVIDIA Maxwell™ architektúra extrém teljesítményével ötvözi, hogy a bolygó leggyorsabb és legfejlettebb grafikus kártyáját nyújtsa.
NÖVELT TELJESÍTMÉNY
A TITAN X folytatja a TITAN grafikus kártyák családjának örökségét, és a világ legnagyobb teljesítményű játék GPU-ját szállítja. Az erőteljes Maxwell architektúrát használja, hogy a legújabb technológiát nyújtsa az eredeti GTX TITAN grafikus kártya teljesítményének és energiahatékonyságának kétszeresével.
KIVÁLÓ TERVEZÉS
A TITAN X-et kiváló minőségű alkatrészekkel tervezték és szakértelemmel építették, hogy jelentős teljesítménynövekedést érjenek el, miközben megőrzik a felülmúlhatatlan akusztikai és hőteljesítményt.
Ez a fejlett GPU támogatja a hiperrealisztikus, valós idejű globális megvilágítást az NVIDIA VXGI technológiával, valamint az NVIDIA G-SYNC™ technológiával, amely sima, szakadásmentes játékot garantál. Ezenkívül megtapasztalhatja a DSR technológiát, amely még 1080p felbontású kijelzőkön is 4K élményt nyújt.
EXTRÉM JÁTÉKOK
A TITAN X az egyetlen egyetlen GPU-s grafikus kártya, amely könnyedén tud 4K játékokat játszani magas beállítások mellett. Zökkenőmentesen fut a GeForce® Experience™ alkalmazással, amely hozzáférést biztosít a legújabb illesztőprogramokhoz, és egyetlen kattintással optimalizálja a játék beállításait. Az NVIDIA® ShadowPlay™ technológia segítségével még a játék legjobb pillanatait is rögzítheti, és megoszthatja azokat barátaival.
Az NVIDIA első Pascal architektúrája, amely piacra került, a GP104 processzoron alapuló GeForce GTX 1080 volt. Az új 16 nm-es FinFET folyamattechnológiának, valamint a chip architektúrájának és áramköreinek optimalizálásának köszönhetően a GTX 1080 olyan szintű teljesítményt tudott elérni a játékokban, amely körülbelül 30%-kal magasabb, mint az NVIDIA előző generációs zászlóshajója grafikus kártyájának teljesítménye. GeForce GTX TITAN X. Ugyanakkor a GTX 1080 fejlesztőinek sikerült 70 W-tal csökkenteni a gyorsító energiaköltségvetését az előd TDP-jéhez képest - 250-ről 180 W-ra. Mindeközben a 250 W-os hőcsomag az NVIDIA legutóbbi generációk legjobb játékvideókártyáinak alapcélja, így a GTX 1080 után egy még termelékenyebb termék megjelenése, amely a Pascal termékcsaládban ezt a rést fogja elfoglalni, már csak kérdés volt. idő.
A Kepler architektúrától kezdve az NVIDIA a következő stratégiát alkalmazta a GPU-k kiadására különböző teljesítménykategóriákban. Először a második szintű chip debütál: GK104 a Kepler családban, GM204 a Maxwell 2-es verziójában, és most a GP104 Pascalban. Ezt követően az NVIDIA kitölt egy-két szintet lejjebb, és jelentős hiányosság után megjelenik egy csúcskategóriás GPU, amely az NVIDIA által előállított legerősebb gyorsító alapját képezi, miközben a jelenlegi munkafolyamat mellett 250 W-on belül tartja az energiafogyasztást.
A Pascal architektúra jelenleg a csúcson van a GP100 processzorral, amely példátlan számú shader ALU-t (3840 CUDA magot) és 16 GB HBM2 memóriát és egy GPU-val kombinálva szilícium hordozón tartalmaz. A GP100-at a Tesla P100 gyorsító részeként használják, amelynek használata a speciális formai tényező miatt NVLINK busszal és 300 W-os TDP-vel a szuperszámítógépek területére korlátozódik. A Tesla P100 szabványos PCI Express bővítőkártya formátumban is várhatóan az év végén jelenik meg.
Az ipar szerelmeseinek álmában a GP100 chipnek kellett volna megkoronáznia a jövőben a GeForce 10 játékadapterek sorát, és előtte az NVIDIA kiadhat egy új TITAN-t – csak egy köztes megállással ezen a helyen, a korábbi nagy Megérkeztek a GPU-k a játék PC-kbe (a GK110 a TITAN részeként és a GM200 - a TITAN X-ben).
Ezúttal azonban a jelek szerint igazuk lett a szakértőknek, akik megjósolták az NVIDIA GPU-vonal végső felosztását két, egymással nem átfedő csoportra - egyrészt a játékra szánt chipek és a prosumer (a producer és fogyasztó szavakból) irányokra. , és chipek a számítástechnikához - a másikon. A megkülönböztető tényező ebben az esetben a GPU sebessége a dupla pontosságú lebegőpontos számokon (FP64) végzett műveleteknél. A Kepler sorozatban a fejlesztők már minden chipre feláldozták ezt a tulajdonságot (az FP32 1/24-e), kivéve a régebbi - GK110/GK210-et (1/3 az FP32-ből), hogy csökkentsék a GPU energiafogyasztását. A következő generációban ez a tendencia tovább romlott: minden Maxwell processzor az FP64-et 1/32-es sebességgel futtatja az FP32-höz képest.
A Pascal helyzete azt mutatta, hogy az FP64 teljesítményének megtakarítása nem maradt átmeneti intézkedés a 28 nm-es folyamattechnológia késése miatt. Az NVIDIA-nak továbbra is szüksége van egy GPU-ra a szerverekhez, szuperszámítógépekhez és munkaállomásokhoz, amelyek képesek az FP64 magas szintű kezelésére. A játékhoz készült videoadapterek esetében azonban ez a tranzisztor költségvetését és a GPU-fogyasztást megnövelő funkció csak teher.
Így ahelyett, hogy a GP100-at (a terület és az integrált HBM2-memória miatt nyilvánvalóan drága chipet gyártani) játék videokártyákra portolták volna, az NVIDIA kiadott egy további terméket - a GP102-t, amely az FP32-vel való műveletekre összpontosított - ez a fő számformátum. 3D grafikai renderelés és számos számítási feladat. A GP102 egyetlen funkcionális tulajdonsága az int8 formátumú egész műveletek támogatása. Ez egy fontos szempont az NVIDIA számára, hiszen az int8-at széles körben használják a gépi tanulási feladatokban, amit a cég kiemelt magának (pontosabban az ilyen feladatok egyik osztálya a mély tanulás). A közeljövőben tervezünk egy külön cikket kiadni ennek a témának szentelve.
Az új TITAN X, az első GP102 processzoron alapuló eszköz, elsősorban professzionális gyorsítóként pozicionálható, amelyet a mély tanuláshoz kapcsolódó kutatási és kereskedelmi alkalmazásokhoz terveztek. Ezt igazolja, hogy a kártya nevében nem szerepel a GeForce márka. Az újdonság széleskörű játéklehetőségeihez azonban nem fér kétség. Az összes korábban kiadott Titan a számítási funkciói mellett prémium játékra készült grafikus kártyának számított, amely képes olyan grafikai minőséget és teljesítményt nyújtani, amely a fő GeForce sorozat jelenlegi modelljeinél nem volt elérhető.
⇡ NVIDIA GP102
Ezt a GPU-t a GP100 szuperszámítógép alternatívájaként tervezték, amely nem marad el az utóbbitól a 3D-s grafika és az FP32 számítási funkcióiban. A GP102 készítői ugyanakkor csökkentették az összes olyan alkatrészt, amely nem felel meg a termék céljának.
Például a GP100 egyetlen SM (Streaming Multiprocessor – egy blokk, amely a CUDA magokat textúra leképező egységekkel, ütemezőkkel, diszpécserekkel és helyi memóriaszegmensekkel kombinálja) a GP100-ban 64 CUDA magot tartalmaz az FP32 műveletekhez, míg a GP102 SM-je ebből a szempontból örökölt konfigurációt tartalmaz. Maxwelltől: 128 CUDA mag. A CUDA magok finomabb elosztása a GP100-ban lehetővé teszi a processzor számára, hogy egyidejűleg több utasításfolyamot (és szálcsoportokat – vetemítéseket – és vetemítési blokkokat), valamint az SM-en belüli tárolótípusok teljes mennyiségét, például megosztott memóriát (megosztott memória) hajtson végre. A teljes GPU-t tekintve nőtt a Maxwell architektúrához képest.
NVIDIA GP102 blokkdiagram
Továbbá a GP100-ban az FP32 műveletekhez minden 64 CUDA maghoz 32 mag jut az FP64-hez, míg a GP102 SM-jének konfigurációja Maxwelltől örökölt ebből a szempontból: 128 CUDA mag az FP32-hez és 4 az FP64-hez. Innen ered a GP102 csonka dupla pontosságú teljesítménye.
Végül a GP100 nagyobb L2 gyorsítótárat hordoz: 4096 KB, szemben a GP102 3072 KB-jával. És természetesen a GP102-ből hiányzik az NVLINK buszvezérlő, és a HBM2 memóriavezérlőket (4096 bites teljes buszszélességgel) GDDR5X SDRAM vezérlők váltják fel. A 32 bites vezérlők közül 12 közös 384 bites memória-hozzáférési buszt biztosít.
Egyéb számunkra érdekes szempontok szerint a GP100 és a GP102 chipek megegyeznek. Mindkét szerszám 3840 FP32 kompatibilis CUDA magot és 240 textúra leképezőt, valamint 96 ROP-t tartalmaz. Így általános szempontból a GP102 számítási egységek szerkezete megismétli a GP104 chipét, mennyiségi változásokhoz igazítva. Bár még mindig nem ismerünk néhány paramétert (L1 cache, megosztott memória és regiszterfájlok mérete), ezek valószínűleg megegyeznek ebben a két GPU-ban.
A TSMC 16 nm-es FinFET technológiájával gyártott GP102 chip 12 milliárd tranzisztort tartalmaz 471 mm 2 -es területen. Összehasonlításképpen: a GP100 jellemzői 15,3 milliárd tranzisztor és 610 mm 2. Ez egy nagyon jelentős különbség. Ezen túlmenően, ha a TSMC nem növelte meg a 16 nm-es eljáráshoz használt fotómaszk méretét a 28 nm-hez képest, akkor a GP100 majdnem kimerült, míg a GP102 könnyű architektúrája lehetővé teszi az NVIDIA számára, hogy nagyobb magot hozzon létre a széles fogyasztói piac számára a (Ami azonban valószínűleg nem fog megtörténni, hacsak a fejlesztők nem gondolják át a csúcsmodellekre vonatkozó TDP-szabványaikat).
A Pascal architektúra és a Maxwell közötti különbségekkel kapcsolatban javasoljuk, hogy tekintse át GeForce GTX 1080 áttekintésünket. Ebben az iterációban a fejlesztők kifejlesztették az előző generáció előnyeit, és kompenzálták a benne rejlő hiányosságokat.
Röviden megjegyezzük a következő pontokat:
- továbbfejlesztett színtömörítés akár 8:1 arányban;
- a PolyMorph Engine Simultaneous Multi-Projection funkciója, amely lehetővé teszi akár 16 jelenetgeometria vetítésének létrehozását egyetlen lépésben (VR-hez és több kijelzős rendszerekhez NVIDIA Surround konfigurációban);
- megszakítási (preemption) képesség húzáshívás (renderelés közben) és parancsfolyam (számítások közben) végrehajtása során, amely a GPU számítási erőforrásainak dinamikus allokációjával együtt teljes mértékben támogatja az aszinkron számítást (Async Compute) - további teljesítményforrás a DirectX 12 API alatti játékokban és csökkentett késleltetés a VR-ben;
- DisplayPort 1.3/1.4 és HDMI 2.b interfésszel kompatibilis kijelzővezérlő. Nagy dinamikatartomány (HDR) támogatása;
- SLI busz megnövelt sávszélességgel.
⇡ Műszaki adatok, ár
A TITAN X nem a GP102 GPU teljesen működőképes verzióját használja: 30 SM-ből kettő itt le van tiltva. Így a CUDA magok és textúra egységek számát tekintve a Titan megegyezik a Tesla P100-al, ahol a GP100 chip is részben „le van vágva” (3584 CUDA mag és 224 textúraegység).
Az újdonság grafikus processzora magasabb frekvenciákon (1417/1531 MHz) működik, mint a Tesla P100-ban (szuperszámítógépes verzióban 1328/1480 MHz-ig, a PCI-Express lap alaktényezőjében pedig 1300 MHz-ig). Ennek ellenére a "Titan" frekvenciái meglehetősen konzervatívak a GeForce GTX 1080 (1607/1733 MHz) jellemzőihez képest. Ahogy a túlhajtási kísérleteknél látni fogjuk, a korlátozó tényező az eszköz fogyasztása volt, amit az NVIDIA a megszokott 250 W-ra állított be.
A TITAN X 12 GB GDDR5X SDRAM-mal van felszerelve, 10 Gb/s sávszélességgel tűnként. A 384 bites busz 480 GB / s sebességű adatátvitelt biztosít: ebben a mutatóban a TITAN X csak kis mértékben marad el a jelenlegi rekordertől - a Radeon R9 Fury X-től, valamint más GPU-n alapuló AMD-termékektől. 512 GB/s).
Gyártó | NVIDIA | |||||
Modell | GeForce GTX TITAN | GeForce GTX TITAN fekete | GeForce GTX TITAN Z | GeForce GTX TITAN X | GeForce GTX 1080 | TITAN X |
GPU | ||||||
Név | GK110 | GK110 | 2 × GK110 | GM200 | GP104 | GP102 |
mikroarchitektúra | Kepler | Kepler | Kepler | Maxwell | Pascal | Pascal |
Folyamat technológia, nm | 28 nm | 28 nm | 28 nm | 28 nm | 16 nm-es FinFET | 16 nm-es FinFET |
Tranzisztorok száma, millió | 7 080 | 7 080 | 2×7080 | 8 000 | 7 200 | 12 000 |
Órajel frekvencia, MHz: Alap órajel / Boost Clock | 837/876 | 889/980 | 705/876 | 1 000 / 1 089 | 1 607 / 1 733 | 1 417 / 1531 |
Shader ALU-k száma | 2 688 | 2 880 | 2×2880 | 3 072 | 2 560 | 3 584 |
A textúrafedések száma | 224 | 240 | 2×240 | 192 | 160 | 224 |
ROP-ok száma | 48 | 48 | 2×48 | 96 | 64 | 96 |
RAM | ||||||
Buszszélesség, bit | 384 | 384 | 2×384 | 384 | 256 | 384 |
Chip típusa | GDDR5 SDRAM | GDDR5 SDRAM | GDDR5 SDRAM | GDDR5 SDRAM | GDDR5X SDRAM | GDDR5X SDRAM |
Órajel frekvencia, MHz (érintkezőnkénti sávszélesség, Mbps) | 1 502 (6 008) | 1 750 (7 000) | 1 750 (7 000) | 1 753 (7 012) | 1 250 (10 000) | 1 250 (10 000) |
Kötet, MB | 6 144 | 6 144 | 2×6144 | 12 288 | 8 192 | 12 288 |
I/O busz | PCI Express 3.0 x16 | PCI Express 3.0 x16 | PCI Express 3.0 x16 | PCI Express 3.0 x16 | PCI Express 3.0 x16 | PCI Express 3.0 x16 |
Teljesítmény | ||||||
Csúcsteljesítmény FP32, GFLOPS (a megadott maximális frekvencia alapján) | 4 709 | 5 645 | 10 092 | 6 691 | 8 873 | 10 974 |
Teljesítmény FP32/FP64 | 1/3 | 1/3 | 1/3 | 1/32 | 1/32 | 1/32 |
RAM sávszélesség, GB/s | 288 | 336 | 2×336 | 336 | 320 | 480 |
Képkimenet | ||||||
Képkimeneti interfészek | DL DVI-I, DisplayPort 1.2, HDMI 1.4a | DL DVI-D, DL DVI-I, DisplayPort 1.2, HDMI 1.4a | DL DVI-I, DisplayPort 1.2, HDMI 1.4a | DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b | ||
TDP, W | 250 | 250 | 375 | 250 | 180 | 250 |
Javasolt kiskereskedelmi ár a kiadáskor (USA, adó nélkül), $ | 999 | 999 | 2 999 | 999 | 599/699 | 1 200 |
Ajánlott kiskereskedelmi ár a kiadás időpontjában (Oroszország), dörzsölje. | 34 990 | 35 990 | 114 990 | 74 900 | — / 54 990 | — |
Ami az elméleti teljesítményt illeti, a TITAN X az első egy GPU-s grafikus kártya, amely meghaladja a 10 TFLOPS-t az FP32 teljesítményében. A korábbi NVIDIA-termékek közül egyedül a pár GK110-es chipre épített TITAN Z volt képes erre. Másrészt a Tesla P100-tól (és a GeForce GTX 1060/1070/1080-hoz hasonlóan) a TITAN X-et nagyon szerény teljesítmény jellemzi dupla (FP32 1/32) és fél pontosság (FP32 1/64) terén. számításokat, de képes int8 számokkal műveleteket végrehajtani 4-szer gyorsabb sebességgel, mint az FP32-vel. A Pascal család többi GPU-ja – a GP104 (GeForce GTX 1070 /1080, Tesla P4) és a GP106 (GTX 1060) és a GP100 (Tesla P100) szintén támogatja az int8-at 4:1-es teljesítményaránnyal az FP32-höz képest, azonban jelenleg nem tudjuk ha ez korlátozott funkcionalitás a GeForce gaming grafikus kártyákban.
A TITAN X egy nagyon-nagyon drága vásárlás, ami mellett csak az dönt, aki igazán szeretne egy ilyen tökéletes videokártyát. Az NVIDIA 200 dollárral 1200 dollárra emelte az árat a márka korábbi egyfoglalatos modelljeihez képest.Az eszközt ezúttal nem partnereken keresztül terjesztik, és bizonyos országokban kizárólag az NVIDIA webhelyén árusítják. Oroszország még nincs köztük.
⇡ Tervezés
A videokártya háza a GeForce 10 vonal Founders Edition márkájú termékeivel megegyező stílusban készült, a radiális ventilátoros (turbinás) hűtőrendszert fém burkolat borítja, a nyomtatott áramkör hátlapját a táblát vastag lemez védi. Ez utóbbi egy része eltávolítható annak érdekében, hogy akadálytalan levegő hozzáférést biztosítson a szomszédos videokártya hűtőjéhez SLI módban. Vicces, hogy bár a TITAN X formálisan már nem a GeForce családhoz tartozik, mégis ez a zöld LED-ekkel megvilágított felirat pompázik a videokártya oldalán.
A hűtő kialakítása megegyezik a GTX 1070/1080-éval: a GPU párologtató kamrával adja le a hőt a hűtőbordának, míg a RAM chipeket és a feszültségátalakító tranzisztorokat masszív alumínium keret borítja, amely külön blokkot hordoz. a kis uszonyok.
Egyébként, ahogy a TITAN X egyik tulajdonosa megtudta, az NVIDIA lehetővé teszi a felhasználók számára, hogy a videokártya hűtőrendszerét valami hatékonyabbra (például LSS-re) cseréljék a garancia elvesztése nélkül.
⇡ Fizetés
A GTX 1060/1070/1080 referenciaverzióihoz hasonlóan a TITAN X kártya három DisplayPort csatlakozóval és egy-egy DVI- és HDMI-csatlakozóval rendelkezik.
Az energiarendszer a 6 + 1 séma szerint épül fel (a GPU és a memóriachipek fázisainak száma). Két további tápcsatlakozót használnak - hat és nyolc tűs, amelyek a PCI-Express csatlakozóban lévő tápvezetékekkel együtt 300 watt teljesítménytartalékot biztosítanak a videokártya számára.
A GDDR5X SDRAM memória a GeForce GTX 1080-hoz hasonlóan Micron D9TXS mikroáramkörökből áll, amelyek szabványos effektív frekvenciája 10 GHz.
⇡ Tesztállvány, vizsgálati módszertan
Tesztállvány konfiguráció | |
---|---|
processzor | Intel Core i7-5960X @ 4GHz (100×40) |
Alaplap | ASUS RAMPAGE V EXTREME |
RAM | Corsair Vengeance LPX, 2133 MHz, 4 × 4 GB |
ROM | Intel SSD 520 240 GB + Crucial M550 512 GB |
Tápegység | Corsair AX1200i 1200W |
CPU hűtőrendszer | Thermalright Archon |
Keret | CoolerMaster tesztpad V1.0 |
Monitor | NEC EA244UHD |
Operációs rendszer | Windows 10 Pro x64 |
AMD GPU szoftver | |
Összes | Radeon Software Crimson Edition 16.8.2, nem WHQL |
NVIDIA GPU szoftver | |
Összes | GeForce Game Ready Driver 372.54 WHQL |
A CPU állandó frekvencián működik. Az NVIDIA illesztőprogram beállításaiban a CPU van kiválasztva processzorként a PhysX számításhoz. Az AMD illesztőprogram beállításaiban a Tesselation beállítás átkerült az AMD Optimized beállításról az Alkalmazásbeállítások használata beállításra.
Benchmark: játékok | ||||
---|---|---|---|---|
Játék (a megjelenési dátum sorrendjében) | API | Beállítások | Teljes képernyős élsimítás | |
1920×1080 / 2560×1440 | 3840×2160 | |||
Crysis 3 + FRAPS | DirectX 11 | Max. minőség. A Mocsári küldetés kezdete | MSAA 4x | Ki |
Battlefield 4 + FRAPS | Max. minőség. A tashgari küldetés kezdete | MSAA 4x + FXAA magas | ||
Metro: Last Light Redux, beépített benchmark | Max. minőség | SSAA 4x | ||
GTA V, beépített benchmark | Max. minőség | MSAA 4x + FXAA | ||
DiRT Rally | Max. minőség | MSAA 4x | ||
Rise of the Tomb Raider, beépített benchmark | DirectX 12 | Max. minőség, VXAO kikapcsolva | SSAA 4x | |
Tom Clancy's The Division, beépített benchmark | DirectX 11 | Max. minőség, HFTS kikapcsolva | SMAA 1x Ultra | |
HITMAN, beépített benchmark | DirectX 12 | Max. minőség | SSAA 4x | |
Ashes of the Singularity, beépített benchmark | DirectX 12 | Max. minőség | MSAA 4x + Időbeli AA 4x | |
VÉGZET | Vulkan | Max. minőség. Öntöde küldetése | TSSAA 8TX | |
Total War: WARHAMMER, beépített benchmark | DirectX 12 | Max. minőség | MSAA 4x |
Benchmark: videó dekódolás, számítástechnika | |
---|---|
Program | Beállítások |
DXVA Checker, Decode Benchmark, H.264 | Fájlok 1920 × 1080p (High Profile, L4.1), 3840 × 2160p (High Profile, L5.1). Microsoft H264 videó dekóder |
DXVA Checker, Decode Benchmark, H.265 | Fájlok 1920 × 1080p (fő profil, L4.0), 3840 × 2160p (fő profil, L5.0). Microsoft H265 videó dekóder |
LuxMark 3.1x64 | Hotel Lobby Stage (komplex referencia) |
Sony Vegas Pro 13 | Sony benchmark Vegas Pro 11-hez, 65 s időtartam, XDCAM EX-ben renderelve, 1920×1080p 24Hz |
SiSoftware Sandra 2016 SP1, GPGPU tudományos elemzés | OpenCL, FP32/FP64 |
CompuBench CL Desktop Edition X64, Ocean Surface Simulation | — |
CompuBench CL Desktop Edition X64, részecskeszimuláció – 64K | — |
⇡ Teszt résztvevői
A következő videokártyák vettek részt a teljesítményteszten:
- NVIDIA TITAN X (1417/10000 MHz, 12 GB);
⇡ Teljesítmény: 3DMark
A szintetikus tesztek azt mutatják, hogy a TITAN X átlagosan 25%-kal jobb előnyt jelent a GeForce GTX 1080-hoz képest. A TITAN márka előző generációjához, valamint a Radeon R9 Fury X-hez képest az új zászlóshajó 61-63%-kal nagyobb teljesítményt és több mint kétszeres teljesítményt kínál a Kepler architektúrára épülő TITAN első verziójához képest. Az NVIDIA-gyorsítóhoz képest meglehetősen magas pozíciót a Radeon R9 295X2 birtokol - az új termék csak 18%-kal gyorsabb a 3DMarkban.
3DMark (grafikai pontszám) | |||||||
---|---|---|---|---|---|---|---|
Engedély | |||||||
tűzcsapás | 1920×1080 | 26 341 | 10 449 | 17 074 | 21 648 | 23 962 | 16 279 |
Fire Strike Extreme | 2560×1440 | 13 025 | 4 766 | 7 945 | 10 207 | 10 527 | 7 745 |
Fire Strike Ultra | 3840×2160 | 6 488 | 2 299 | 4 011 | 4 994 | 5 399 | 3 942 |
időkém | 2560×1440 | 8 295 | 2 614 | 4 935 | 6 955 | 7 186 | 5 084 |
Max. | −60% | −35% | −16% | −9% | −38% | ||
Átlagos | −64% | −38% | −20% | −15% | −39% | ||
Min. | −68% | −41% | −23% | −19% | −41% |
⇡ Teljesítmény: játék (1920×1080, 2560 × 1440)
Az ilyen erős GPU-hoz képest viszonylag alacsony felbontású tesztekben az új TITAN X átlagos eredményekben 15-20%-kal felülmúlja a GeForce GTX 1080-at (1080p-ről 1440p-re). Az új zászlóshajó a 28 nm-es periódus legjobb gyorsítóihoz képest még lenyűgözőbbnek tűnik: 47-56%-kal gyorsabb, mint a GM200-on alapuló GeForce GTX TITAN X, és 67-72%-kal megelőzi a Radeon R9 Fury X-et.
Ha a Kepler generáció legelső TITAN-ját vesszük, akkor több mint kétszeres teljesítménynövekedésről beszélünk.
1920×1080 | |||||||
---|---|---|---|---|---|---|---|
Teljes képernyős élsimítás | NVIDIA TITAN X (1417/10000 MHz, 12 GB) | NVIDIA GeForce GTX TITAN (837/6008MHz, 6 GB) | NVIDIA GeForce GTX TITAN X (1000/7012MHz, 12GB) | NVIDIA GeForce GTX 1080 (1607/10008 MHz, 8 GB) | AMD Radeon R9 295X2 (1018/5000 MHz, 8 GB) | AMD Radeon R9 Fury X (1050/1000 MHz, 4 GB) | |
A szingularitás hamvai | MSAA 4x | 47 | 20 | 31 | 42 | 34 | 26 |
Battlefield 4 | MSAA 4x + FXAA magas | 162 | 71 | 118 | 149 | 134 | 94 |
Crysis 3 | MSAA 4x | 99 | 45 | 65 | 79 | 90 | 60 |
DiRT Rally | MSAA 4x | 126 | 57 | 83 | 101 | 97 | 65 |
VÉGZET | TSSAA 8TX | 200 | 69 | 151 | 185 | 122 | 156 |
GTA V | MSAA 4x + FXAA | 85 | 44 | 68 | 84 | 76 | 52 |
BÉRGYILKOS | SSAA 4x | 68 | 21 | 39 | 52 | 24 | 33 |
Metro: Last Light Redux | SSAA 4x | 124 | 47 | 73 | 92 | 94 | 70 |
A Tomb Raider felemelkedése | SSAA 4x | 70 | 28 | 47 | 62 | 55 | 41 |
Tom Clancy's The Division | SMAA 1x Ultra | 87 | 35 | 59 | 80 | 57 | 58 |
Total War: WARHAMMER | MSAA 4x | 76 | 38 | 56 | 73 | 37 | 49 |
Max. | −48% | −20% | −0% | −9% | −22% | ||
Átlagos | −58% | −32% | −13% | −29% | −40% | ||
Min. | −69% | −43% | −26% | −65% | −51% |
2560×1440 | |||||||
---|---|---|---|---|---|---|---|
Teljes képernyős élsimítás | NVIDIA TITAN X (1417/10000 MHz, 12 GB) | NVIDIA GeForce GTX TITAN (837/6008MHz, 6 GB) | NVIDIA GeForce GTX TITAN X (1000/7012MHz, 12GB) | NVIDIA GeForce GTX 1080 (1607/10008 MHz, 8 GB) | AMD Radeon R9 295X2 (1018/5000 MHz, 8 GB) | AMD Radeon R9 Fury X (1050/1000 MHz, 4 GB) | |
A szingularitás hamvai | MSAA 4x | 39 | 16 | 24 | 33 | 27 | 21 |
Battlefield 4 | MSAA 4x + FXAA magas | 109 | 47 | 75 | 98 | 95 | 65 |
Crysis 3 | MSAA 4x | 63 | 27 | 40 | 53 | 59 | 39 |
DiRT Rally | MSAA 4x | 93 | 40 | 60 | 74 | 71 | 48 |
VÉGZET | TSSAA 8TX | 166 | 45 | 95 | 126 | 82 | 107 |
GTA V | SMAA | 67 | 31 | 48 | 63 | 61 | 39 |
BÉRGYILKOS | MSAA 4x + FXAA | 43 | 13 | 24 | 33 | 12 | 17 |
Metro: Last Light Redux | SSAA 4x | 71 | 26 | 43 | 52 | 54 | 43 |
A Tomb Raider felemelkedése | Nem támogatott | 44 | 16 | 28 | 38 | 23 | 27 |
Tom Clancy's The Division | SSAA 4x | 63 | 24 | 43 | 58 | 45 | 44 |
Total War: WARHAMMER | SMAA 1x magas | 57 | 26 | 39 | 50 | 25 | 34 |
Max. | −53% | −29% | −6% | −6% | −30% | ||
Átlagos | −61% | −36% | −16% | −33% | −42% | ||
Min. | −73% | −44% | −27% | −72% | −60% |
Jegyzet:
⇡ Teljesítmény: játék (3840×2160)
Ha 1440p-ről 4K-ra váltunk, az NVIDIA grafikus kártyák közötti arány változatlan marad. A TITAN X 20%-kal gyorsabb, mint a GeForce GTX 1080, és 56%-kal gyorsabb, mint a Maxwell alapú TITAN X.
Az erre a modellre jellemző Radeon R9 Fury X hatékonyabban birkózik meg a 4K tesztekkel, ami végül 56%-ra csökkentette a "Titan" előnyét.
3840×2160 | |||||||
---|---|---|---|---|---|---|---|
Teljes képernyős élsimítás | NVIDIA TITAN X (1417/10000 MHz, 12 GB) | NVIDIA GeForce GTX TITAN (837/6008MHz, 6 GB) | NVIDIA GeForce GTX TITAN X (1000/7012MHz, 12GB) | NVIDIA GeForce GTX 1080 (1607/10008 MHz, 8 GB) | AMD Radeon R9 295X2 (1018/5000 MHz, 8 GB) | AMD Radeon R9 Fury X (1050/1000 MHz, 4 GB) | |
A szingularitás hamvai | Ki | 45 | 20 | 29 | 41 | 38 | 37 |
Battlefield 4 | 84 | 35 | 57 | 74 | 72 | 52 | |
Crysis 3 | 42 | 18 | 28 | 36 | 40 | 29 | |
DiRT Rally | 65 | 26 | 41 | 50 | 48 | 33 | |
VÉGZET | 92 | 24 | 51 | 68 | 45 | 57 | |
GTA V | 55 | 25 | 39 | 51 | 49 | 34 | |
BÉRGYILKOS | 67 | 21 | 38 | 53 | 24 | 33 | |
Metro: Last Light Redux | 64 | 23 | 38 | 47 | 47 | 38 | |
A Tomb Raider felemelkedése | 50 | 19 | 33 | 44 | 37 | 31 | |
Tom Clancy's The Division | 38 | 15 | 25 | 33 | 26 | 28 | |
Total War: WARHAMMER | 43 | 20 | 30 | 38 | 20 | 32 | |
Max. | −53% | −29% | −7% | −5% | −18% | ||
Átlagos | −61% | −36% | −16% | −29% | −36% | ||
Min. | −74% | −45% | −27% | −64% | −51% |
Jegyzet: Total War: A WARHAMMER nem támogatja a DirectX 12-t a GeForce GTX TITAN-hoz.
⇡ Teljesítmény: videó dekódolás
A GP102 ugyanazt a hardveres kodeket integrálja, mint a Pascal család két junior GPU-ja, így a TITAN X a H.264 és a HEVC szabványok dekódolási sebességét mutatja a GeForce GTX 1080-al egyenrangú, alacsonyabb GPU órajelekhez igazítva. Pascal teljesítménye ebben a feladatban felülmúlhatatlan, mind a Maxwell chipekben lévő NVIDIA kodekekhez, mind az AMD Polarishoz képest.
Jegyzet: mivel a dekóderek általában nem különböznek ugyanazon a GPU-vonalon belül, a diagramok minden családból egy-egy eszközt mutatnak (vagy többet, ha ezt a szabályt megsértik).
Jegyzet. 2: GeForce GTXTITÁN x, mint más Maxwell GPU architektúrán alapuló eszközök, a GM204 (GeForce GTX 950/960) kivételével részleges H.265 hardveres dekódolást hajt végre, a CPU erőforrásaival alátámasztva.
⇡ Teljesítmény: számítástechnika
A GPGPU feladatokban a különböző architektúrák közötti kapcsolat az egyes alkalmazások sajátosságaitól függ. A TITAN X többnyire kiszámítható teljesítménynövekedést biztosít a GeForce GTX 1080-hoz képest, de vannak kivételes esetek, amikor a feladat a GPU frekvenciáján múlik (például a részecskefizikai teszt a CompuBench CL-ben és a renderelés a Sony Vegasban): itt a Ellenkezőleg, az új TITAN X bosszút állt abban a helyzetben, amikor a GeForce GTX 1080 gyengébb a Maxwell-alapú TITAN X-nél és a Radeon R9 Fury X-nél (sugárkövetés a LuxMarkban).
A SiSoftware Sandra mátrixszorzási és gyors Fourier-transzformációs tesztjében a TITAN X remekel FP32 módban. Ami az FP64-et illeti, egyszerűen a nyers erő (nagyszámú CUDA mag és nagy órajel) miatt a gyorsító nagyobb teljesítményt ért el, mint a Kepler generáció eredeti TITAN és a Radeon R9 Fury X - előnyösebb arányú videokártyák. teljesítménye az FP32 és FP64 segítségével. Ez végső soron nem zárja le teljesen a TITAN X-et, mint dupla precíziós feladatgyorsítót. Erre a célra azonban a Radeon R9 295X2 a legalkalmasabb. Az AMD videokártyák erős pozíciókat foglalnak el néhány más tesztben is: a CompuBench CL vízfelület-számításában és a Sony Vegasban.
⇡ Órajelek, energiafogyasztás, hőmérséklet, túlhajtás
Játékterhelés alatt a TITAN X GPU időnként ugyanazt a magas órajelet éri el, mint a GP104 a GTX 1080-ban (1848 vs. 1860 MHz), de legtöbbször lényegesen alacsonyabb tartományban marad (1557-1671 MHz). Ugyanakkor a GPU maximális tápfeszültsége 1,062 V (1,05 V a GTX 1080-ban).
A CO-ventilátor akár 2472 ford./perc sebességgel is forog. A kártya erősebb hűtést igényel, mint a GTX 1080, és mivel a hűtő kialakítása változatlan maradt, több zajt kelt. Ennek a tényezőnek a kompenzálására a TITAN X 3°C-kal magasabb GPU célhőmérsékletet állított be.
Bár a Pascal alapú TITAN X technikailag ugyanazt a TDP-t tartalmazza, mint az előző generációs TITAN X, a gyakorlatban egy új videokártyával ellátott rendszer lényegesen nagyobb teljesítményt (49 W-tal) fejleszt. Itt azonban szerepet játszhat a hatékonyabb grafikus processzort kiszolgáló CPU megnövekedett terhelése. A FurMarkban viszont minden 250 W-os TDP-vel rendelkező gyorsító (valamint a 275 W-os Fury X) egy szinten van.
A Titan túlhajtására kihasználtuk a készlet képességét, hogy 20-kal növeljük a grafikus kártya teljesítménykorlátját, teljes fordulatszámon (4837 ford./perc) hajtottuk a CO-turbinát, és 1,093 V-ra növeltük a maximális GPU feszültséget (ugyanaz az érték, mint a GTX 1080-on). Ennek eredményeként a GPU alapfrekvenciáját 200 MHz-cel 1617 MHz-re, az effektív memóriafrekvenciát 11100 MHz-re tudtuk emelni.
Ez önmagában nem rossz egy ekkora chipnél, de a megnövelt teljesítménykorlát sem kevésbé fontos. A túlhúzott GPU az 1974-1987 MHz-es tartományban támogatja a frekvenciákat, 2063 MHz-en tetőzik, ami nem kevesebb, mint elképesztő teljesítmény. Összehasonlításképpen: a GTX 1080 példányunkban a GPU csúcsfrekvenciája túlhajtáskor 2126 MHz volt.
A túlhúzott TITAN X-szel rendelkező rendszer 46 W-tal több teljesítményt termel, mint a grafikus kártya normál működése esetén. A maximális sebességre felpörgetett ventilátor 17-20°C-kal csökkentette a GPU hőmérsékletét, ami lehetővé teszi a felhasználók számára, hogy alacsonyabb sebességeknél is ugyanolyan hatékony túlhajtásra számítsanak, viszonylag kényelmes zajszintet biztosítva.
⇡ Teljesítmény: túlhajtás
A TITAN X túlhajtása jelentősen növeli a teljesítményt – 14%-kal a 3DMark-ban és 18-23%-kal a játékban mért mérőszámokban 1080p és 1440p felbontás mellett. A 4K felbontású játékokban a bónusz eléri a 26%-ot.
A túlhúzott TITAN X és a referenciafrekvencián futó GeForce GTX 1080 közötti különbség döbbenetes 36%, 47% és 50%-os értéket ér el az általunk használt három felbontásban. Természetesen magát a GTX 1080-at is túlhajtják, de mint a referencia videokártya áttekintéséből emlékszünk, ez csak 9, 13 és 12%-ot tesz hozzá az eredményekhez. Így ha összehasonlítjuk a GeForce 10 vonal túlhúzott zászlóshajóját és a túlhúzott TITAN X-et, akkor utóbbi előnye 25, 30 és 34% lesz.
A GM200 chipen lévő GeForce GTX TITAN X régi teljesítményadatait felhasználva a túlhajtásnál hasonló számításokat fogunk végezni a Titanok két generációjának összehasonlítására. A Pascalon túlhúzott TITAN X 75, 93 és 97%-kal megelőzi elődjét. Ha mindkét gyorsítót túlhajtják, az újdonság 74 és 70%-os előnyt tart fenn 1440p és 2160p felbontás mellett. Mi (amint az olvasók, akik kritizálták ezt a döntést, emlékezni fogunk) nem voltunk hajlandóak 1080p módban tesztelni a GeForce GTX TITAN X felülvizsgálatában.
3DMark (grafikai pontszám) | ||||||
---|---|---|---|---|---|---|
Engedély | NVIDIA GeForce GTX 1080 (1607/10008 MHz, 8 GB) | NVIDIA TITAN X (1417/10000 MHz, 12 GB) | ||||
tűzcsapás | 1920×1080 | 21 648 | 26 341 | 31 038 | ||
Fire Strike Extreme | 2560×1440 | 10 207 | 13 025 | 15 191 | ||
Fire Strike Ultra | 3840×2160 | 4 994 | 6 488 | 7 552 | ||
időkém | 2560×1440 | 6 955 | 8 295 | 8 644 | ||
Max. | +30% | +51% | ||||
Átlagos | +25% | +42% | ||||
Min. | +19% | 101 | 126 | 126 | ||
VÉGZET | TSSAA 8TX | 185 | 200 | 200 | ||
GTA V | MSAA 4x + FXAA | 84 | 85 | 96 | ||
BÉRGYILKOS | SSAA 4x | 52 | 68 | 77 | ||
Metro: Last Light Redux | SSAA 4x | 92 | 124 | 140 | ||
A Tomb Raider felemelkedése | SSAA 4x | 62 | 70 | 94 | ||
Tom Clancy's The Division | SMAA 1x Ultra | 80 | 87 | 117 | ||
Total War: WARHAMMER | MSAA 4x | 73 | 76 | 88 | ||
Max. | +35% | +57% | ||||
Átlagos | +16% | +36% | ||||
Min. | +0% | +8% |
2560×1440 | ||||
---|---|---|---|---|
Teljes képernyős élsimítás | NVIDIA GeForce GTX 1080 (1607/10008 MHz, 8 GB) | NVIDIA TITAN X (1417/10000 MHz, 12 GB) | NVIDIA TITAN X (1617/11110MHz, 12GB) | |
A szingularitás hamvai | MSAA 4x | 33 | 39 | 48 |
Battlefield 4 | MSAA 4x + FXAA magas | 98 | 109 | 146 |
Crysis 3 | MSAA 4x | 53 | 63 | 81 |
DiRT Rally | MSAA 4x | 74 | 93 | 93 |
VÉGZET | TSSAA 8TX | 126 | 166 | 183 |
GTA V | SMAA | 63 | 67 | 86 |
BÉRGYILKOS | MSAA 4x + FXAA | 33 | 43 | 49 |
Metro: Last Light Redux | SSAA 4x | 52 | 71 | 82 |
A Tomb Raider felemelkedése | Nem támogatott | 38 | 44 | 59 |
Tom Clancy's The Division | SSAA 4x | 58 | 63 | 86 |
Total War: WARHAMMER | SMAA 1x magas | 50 | 57 | 74 |
Max. | +36% | +58% | ||
Átlagos | +20% | +47% | ||
Min. | ||||
VÉGZET | 68 | 92 | 104 | |
GTA V | 51 | 55 | 75 | |
BÉRGYILKOS | 53 | 67 | 77 | |
Metro: Last Light Redux | 47 | 64 | 74 | |
A Tomb Raider felemelkedése | 44 | 50 | 69 | |
Tom Clancy's The Division | 33 | 38 | 52 | |
Total War: WARHAMMER | 38 | 43 | 58 | |
Max. | +37% | +59% | ||
Átlagos |
Név- ing | Radeon R9 290X | Radeon R9 295X2 | GeForce GTX 780 Ti | GeForce GTX Titan | GeForce GTX Titan Fekete | GeForce GTX Titan Fekete Z | GeForce GTX 980 | GeForce GTX Titán X |
kód név | Hawaii XT | Hawaii XT | GK110 | GK110 | GK110 | GK110 | GM204 | GM200 |
Változat | GCN 1.1 | GCN 1.1 | Kepler | Kepler | Kepler | Kepler | Maxwell 2.x | Maxwell 2.x |
Folyamat technológia, nm | 28 | 28 | 28 | 28 | 28 | 28 | 28 | 28 |
Magméret/magok, mm 2 | 438 | 438x2 | 521 | 521 | 521 | 521x2 | 398 | – |
Tranzisztorok száma, millió | 6200 | 6200x2 | 7100 | 7100 | 7100 | 7100x2 | 5200 | 8000 |
Magfrekvencia, MHz | – | – | 880 | 840 | 890 | 700 | 1126 | 1000 |
Magfrekvencia (Turbo), MHz | 1000 | 1018 | 930 | 880 | 980 | 880 | 1216 | 1075 |
Shaderek száma (PS), db. | 2816 | 5632 | 2880 | 2688 | 2880 | 5760 | 2048 | 3072 |
Textúra egységek száma (TMU), db. | 176 | 352 | 240 | 224 | 240 | 480 | 128 | 192 |
Raszterezési blokkok száma (ROP), db. | 64 | 128 | 48 | 48 | 48 | 96 | 64 | 96 |
Maximális kitöltési sebesség, Gpix/s | 64 | 130 | 42 | 40.2 | 42.7 | 84.6 | 72 | – |
Maximális textúra lekérési sebesség, Gtex/s | 176 | 358 | 210.2 | 187.5 | 213.4 | 338 | 144.1 | 192 |
Memória típusa | GDDR5 | GDDR5 | GDDR5 | GDDR5 | GDDR5 | GDDR5 | GDDR5 | GDDR5 |
Effektív memóriafrekvencia, MHz | 5000 | 5000 | 7000 | 6000 | 7000 | 7000 | 7000 | 7000 |
Memória mérete, GB | 4 | 4 + 4 | 3 | 6 | 6 | 6 + 6 | 4 | 12 |
Memóriabusz, bit | 512 | 512 + 512 | 384 | 384 | 384 | 384 + 384 | 256 | 384 |
Memória sávszélesség, GB/s | 320 | 320 + 320 | 336 | 288.4 | 336 | 336 + 336 | 224.3 | 336.5 |
Tápellátás, tűs csatlakozók | 6 + 8 | 8 + 8 | 6 + 8 | 6 + 8 | 6 + 8 | 8 + 8 | 6 + 6 | 6 + 8 |
Energiafogyasztás (2D / 3D), Watt | -/290 | -/500 | -/250 | -/250 | -/250 | -/375 | -/165 | -/250 |
CrossFire/Sli | V | V | V | V | V | V | V | V |
Hirdetési ár, $ | 550 | 1500 | 700 | 1000 | 1000 | 3000 | 550 | 999 |
Cserélendő modell | – | HD 7990 | GTX 780 | – | GTX Titan | GTX 690 | GTX 780 Ti | Titan Black |
És most beszéljünk az árról és az orosz valóságról, mivel a táblázat a videokártya becsült költségét mutatja. Hiszen a bejelentés ellenére a cikk írásakor az Nvidia még nem véglegesítette az árcédulát, így a bírálók csak találgathatnak. Ilyen információk nélkül nehéz következtetéseket levonni.
Feltehetően az új cikkek célköltsége 1000-1300 dollár között lesz. Tegyük fel, hogy pontosan ezer dollárba kerül. Az üzletekben egy ilyen árcédulát legalább 65 000 rubelre alakítanak át, ami automatikusan havi egy-két főre szűkíti a potenciális fogyasztók körét. A magas dollárárfolyam ugyanakkor kiütötte mind a GeForce GTX 970, mind a GeForce GTX 980 vásárlására jelentkezőket – ezek mára már egy hétköznapi játékos számára is elérhetetlenek. És igen, a GeForce GTX Titan X gyors lesz.
Ezen események fényében sok felhasználó vagy egyáltalán nem frissít, vagy pénzt takarít meg és vesz egy használt modellt, ami teljesen logikus és indokolt. Ez azt jelenti, hogy a legtöbb rajongó nagy számok halmazaként fogja fel a GeForce GTX Titan X áttekintését.
Új 3D technológiák
A VXGI-támogatás, a különféle élsimítási módszerek, a megszokott GPU Boost és még sok minden mellett a GeForce GTX Titan X, mint minden korábbi Nvidia grafikus kártya, fokozatosan kezdi felkészülni a 3D-s virtuális valóság szemüvegére. A meglévő 3D-s eszközök fő problémája a magas válaszidő. Összefoglalva, ezen a fogalom alatt a mátrix válaszidejét, a giroszkópok válaszidejét, a grafikus információnak a gyorsítóról a szemüvegre való átvitelének idejét értjük. Az Oculus idén sokat fejlődött, ehhez nem kis részben a DirectX 12 bejelentése is hozzájárult, de nem kevesebb munka várható a grafikus fejlesztőktől sem.
Az Nvidia pontosan ezt tette, optimalizálva a szoftvert. Bár nem vagyok benne biztos, hogy ez a teljes modellpalettát érinti, valószínűleg az újítások, bár szoftveresek, csak az utolsó generációt érintik. És tulajdonképpen mi a probléma? Az Oculus technológia egyetlen kijelzőforrás, amely két látható zónára van osztva. A dolgok jelenlegi állása a sisakban lévő kép magas megjelenítési késleltetése miatt szédülést és gyakran hányingert okoz az emberben. Képzeld el magad "kábultan", pontosan így fogod érezni magad 10-30 perc múlva, miután bármilyen dinamikus játékot játszottál Oculus szemüvegben.
- VR SLI - két videokártya külön működik, mindkét szem szemüvegben. Az általános sebesség növekszik, ami csökkenti a szédülést.
- Aszinkron mód egy videokártyához. A giroszkópok adatai a grafikus gyorsítóba kerülnek, és a következő képkocka csak részben kerül újraszámításra, megtakarítva a rendszer erőforrásait.
Nehéz megválaszolni, hogy az újítások mennyivel javítják az érzéseket, legalábbis addig, amíg ezt nem saját maga ellenőrzi. Sajnos a bejelentéskor még nem volt sisak a sajtónak, így csak szót fogadhatunk.