Titan x kort. NVIDIA TITAN X Super grafikkort gennemgang og test: Demonstrerer overlegenhed
Foråret er ikke kun tidspunktet for opvågnen af naturen, men også tiden for den traditionelle annoncering af flagskibet single-chip videokort fra Titan-linjen. Og selvom den første demonstration af NVIDIA GeForce GTX Titan X var uventet, var denne meddelelse omgivet af en række rygter. For et par dage siden var der en officiel præsentation af dette videokort, i flere dage havde vi mulighed for at studere det i detaljer. Hvad kan hun prale af, lad os se nærmere.
NVIDIA GeForce GTX Titan X blev den fjerde i rækken og den tredje "titan" på et enkelt-chip system. Lad mig minde dig om, at GeForce GTX Titan Z med to GPU'er adskiller sig. Selvfølgelig forstår vi, at sådanne systemer ikke kan kaldes "populære", men selv i fravær af 1000-1300 dollars, kan denne anmeldelse være interessant at stifte bekendtskab med Maxwell-arkitekturen i dens maksimale implementering i dag. Som forventet er den baseret på GM200-kernen, anden generation af denne arkitektur. Den leveres med PolyMorph Engine 3.0 med understøttelse af funktionsniveau Direct3D 12 og hardwareaccelereret global belysningsteknologi. Måske bliver dette det gennembrud inden for realisme og grafik, som spilindustrien har ventet på så længe?
GM200 indeholder 8 milliarder transistorer, 256 ROP'er, 3072 CUDA'er og en 384-bit hukommelsesbus. Alle disse våben er rettet mod at understøtte 4K-opløsning og forbedre 3D-ydeevnen. Basiskernefrekvensen er: 1000 MHz, Boost Clock - 1076 MHz. Hukommelsen fungerer ved en frekvens på 7012 MHz. Der er 12 GB grafikhukommelse ombord, hvilket ikke var tilgængeligt for grafikkort rettet mod spillere før udgivelsen af Titan X.
Videoanmeldelse NVIDIA GeForce GTX Titan X
Udseende
NVIDIA GeForce GTX Titan X blev ikke en revolution i designet af top-end videokort, udseendet har ændret sig lidt. Der bruges et luftkølesystem, som udvendigt gentager, hvad vi så tidligere.
Ændringerne her er små, de er begrænset til en ændring i farven på skroget. Nu er den næsten helt sortmalet.
Videokortet er blottet for et forstærkerkort på bagsiden af printkortet. Lad mig minde dig om, at det var i referencedesignet i GeForce GTX 980.
På bagpanelet vises: tre DisplayPort, HDMI og DVI. Tre stik kan fungere i tilstanden delt arbejdsområde, men du kan tilslutte alle 5 stik på samme tid. Den samme tilgang anvendes på hele 900-linjen.
Lysende NVIDIA GeForce GTX-logo på siden. Desværre er de spektakulære billeder af den glødende vifte kun fotografier.
Køling
Designet af det installerede kølesystem gentager det, der blev brugt i GeForce GTX 780 Ti.
Fordampningskammeret bruges, hvilket viste sig at være en stærk side, når der skal fjernes en stor mængde varme til radiatoren.
Systemet er sammenklappeligt, så du kan helt fjerne varmesprederen, det kan være praktisk til installation af et vandkølingssystem.
Fyldning
Strømsystemet migrerede også, på trods af omtalen af ændringen, ved inspektion er det alle de samme kondensatorer og choker. Selv PWM-controlleren er kendt for os - NCP4206.Men jeg skal ikke dramatisere, vi kunne ikke selv finde støjen og knirken, som blev nævnt i kommentarerne til en række videokort, heller ikke i langvarig belastning.
Baren for at øge spændingen er også bevaret. I NVIDIA GeForce GTX Titan X kan den øges op til 25W (TDP 250W/275W).
12 GB SKhynix hukommelseschips med en frekvens på 1750 MHz er loddet, der er 24 af dem i alt.
Test af NVIDIA GeForce GTX Titan X
Der blev brugt en teststand.
Model | Data |
---|---|
Ramme | Aerocool Strike-X Air |
Bundkort | Biostar Hi-Fi Z87X 3D |
CPU | Intel Core i5-4670K Haswell |
CPU køler | Deep Cool Ice Blade Pro v2.0 |
video kort | Inno3D iChill GeForce GTX 780Ti HerculeZ X3 Ultra |
vædder | Corsair CMX16GX3M2A1600C11 DDR3-1600 16GB sæt CL11 |
HDD | ADATA XPG SX900 256 GB |
Harddisk 2 | WD Rød WD20EFRX |
Strømforsyning | Aerocool Templarius 750W |
wifi adapter | TP-LINK TL-WDN4800 |
Lyd | Creative Sound Blaster EVO Wireless |
Overvåge | iiyama ProLite E2773HDS |
Monitor 2 | Philips 242G5DJEB |
mus | ROCCAT Kone XTD |
Tastatur | Razer BlackWidow Chroma |
Stabilisator | Sven AVR PRO LCD 10000 |
Operativ system | Microsoft Windows Ultimate 8 64-bit |
I alle tabeller nedenfor er dataene angivet ved hjælp af fabriksindstillinger, proprietær software fra producenter er ikke installeret. Hukommelsen og kernefrekvenserne påvirkes heller ikke for at udelukke påvirkning af uvedkommende faktorer.
1. Videokortets temperaturregime
- NVIDIA GeForce GTX Titan X - 31/83
- Inno3D iChill GeForce GTX 960 Ultra - 29/44
- GeForce GTX 980 - 34/79
- GeForce GTX 770 - 35/80
- GeForce GTX 780 - 35/77
- GeForce GTX 760 - 35/84
2. Støj
- NVIDIA GeForce GTX Titan X - 36/42
- GeForce GTX 980 - 34/79
3. Strømforbrug
- NVIDIA GeForce GTX Titan X-405
- Inno3D iChill GeForce GTX 960 Ultra - 260
- GeForce GTX 980 - 295
- Inno3D iChill GeForce GTX 780Ti HerculeZ X3 Ultra - 340
- NVIDIA GeForce GTX Titan X - 7133
- Inno3D iChill GeForce GTX 960 Ultra - 3522
- GeForce GTX 980 - 6050
- Inno3D iChill GeForce GTX 780Ti HerculeZ X3 Ultra - 6190
Det er tid til de mest spektakulære tests, FPS-målinger i ressourcekrævende spil. Vi ledsager en række borde med visuelle videoer med optegnelser under spillet. Data optages i Full HD-opløsning ved Ultra-indstillinger. Det er værd at overveje, at i et antal øjeblikke i videoerne er de reelle FPS-data lavere end dem, der opnås under testkørslerne, dette skyldes omkostningerne ved ressourcer til videooptagelse. For dette videokort testede vi separat arbejdet med en opløsning på 3840x2160 på Ultra-indstillinger.
6. Crysis 3
Crysis 3 - 3840x2160 - Meget høj 4xAA - 22.
- Inno3D iChill GeForce GTX 960 Ultra - 45
- GeForce GTX 980-69
- Inno3D iChill GeForce GTX 780Ti HerculeZ X3 Ultra - 61
- GeForce GTX 770-43
- GeForce GTX 780-47
7. Battlefield 4
Battlefield 4 - 3840x2160 - Ultra - 39
- NVIDIA GeForce GTX Titan X-75
- Inno3D iChill GeForce GTX 960 Ultra - 52
- GeForce GTX 980-91
- Inno3D iChill GeForce GTX 780Ti HerculeZ X3 Ultra - 82
8. Hitman: Absolution
Et meget krævende spil, baseret på Glacier 2-motoren. Spillets appetit er misundelig på andre nye udgivelser af året.
Hitman: Absolution - 3840x2160 - Høj, 2x MSAA, 16x AF - 46
- NVIDIA GeForce GTX Titan X-95
- Inno3D iChill GeForce GTX 960 Ultra - 44/li>
- GeForce GTX 980-70
- Inno3D iChill GeForce GTX 780Ti HerculeZ X3 Ultra - 62
- GeForce GTX 770-43
- GeForce GTX 780-55
- GeForce GTX 760-41
9. Metro Last Light
Endnu et hardwarekrævende spil, der bruger DirectX 11 og tessellation.
Metro Last Light - 3840x2160 - Meget høj - 35
10Middle Earth: Shadow Mordor
- Inno3D iChill GeForce GTX 960 Ultra - 51
- GeForce GTX 980-111
11. Tomb Raider
- NVIDIA GeForce GTX Titan X - 156
- Palit GeForce GTX 960 Super JetStream - 64
- Inno3D iChill GeForce GTX 960 Ultra - 68
- GeForce GTX 980-100
12. Watch Dogs Ultra 4x AA
- NVIDIA GeForce GTX Titan X-80
- Inno3D iChill GeForce GTX 960 Ultra - 49
- GeForce GTX 980-62
13. Total War: Rome II Extreme
- NVIDIA GeForce GTX Titan X-79
- Inno3D iChill GeForce GTX 960 Ultra - 41
- GeForce GTX 980-70
14. GRID Autosport Ultra 4x MSAA
- NVIDIA GeForce GTX Titan X - 154
- Inno3D iChill GeForce GTX 960 Ultra - 80
- GeForce GTX 980-128
15. World of Tanks
- NVIDIA GeForce GTX Titan X - 124
- Palit GeForce GTX 960 Super JetStream - 71
- Inno3D iChill GeForce GTX 960 Ultra - 75
- GeForce GTX 980-116
16. World of Warships
Dette er en ny del af vores test, mens antallet af testede videokort er begrænset, vil omfattende materiale blive præsenteret i slutningen af marts. Det er svært at evaluere World of Warships med hensyn til grafikeffektivitet, men generelt kan disse data være nyttige, når man bygger et system specifikt til Wargaming-spil.
- NVIDIA GeForce GTX Titan X-72
- Inno3D iChill GeForce GTX 780Ti - 72
- Palit GeForce GTX 960 Super JetStream - 59
- Radeon R9 280x - 70
- Radeon R9 280x - 70
Overclocking
Traditionelt er vi ikke begrænset til at teste ved standardfrekvenser. Til overclocking er MSI Afterburner den seneste version på testtidspunktet. For NVIDIA GeForce GTX Titan X var vi i stand til at opnå følgende resultater uden at hæve kernespændingen:For at sammenligne stigningen i ydeevne, bruges en syntetisk test 3D Mark FireStrike:
Der er potentiale for yderligere overclocking ved den maksimale spændingsstigning. Kernefrekvensen kan hæves til 1202 MHz og 7806 MHz med hukommelse. Her stiger den maksimale temperaturbjælke til 88 grader.
NVIDIA GeForce GTX Titan X resultater
NVIDIA GeForce GTX Titan X viste en stigning i ydeevnen på baggrund af lavere strømforbrug. Med den nuværende justering af kræfter er dette den maksimale ydeevne på et enkelt-chip system. Der er endnu ikke offentliggjort tilstrækkelige svar fra AMD Radeon. Som et alternativ kan vi overveje GTX 780 Ti, GTX 980 i SLI-tilstand, Radeon R9 290X, som fortsat er relevant. Det vil også være interessant til videogengivelse.NVIDIA GeForce GTX Titan X vinder et velfortjent guld..
Nvidia Geforce GTX Titan X
Den mest kraftfulde single-processor accelerator
- Del 2 - Praktisk bekendtskab
På grund af den sene modtagelse af en testprøve af den nye accelerator (og software til den), såvel som på grund af vores forfatter Alexei Berillos deltagelse i GTC's arbejde, er dele af denne anmeldelse afsat til arkitekturen i den nye Nvidia produkt og analysen af syntetiske tests vil blive frigivet senere (om ca. en uge). Og nu præsenterer vi et materiale, der gør læserne bekendt med grafikkortets funktioner såvel som med resultaterne af spiltests.
Enheder)
Nvidia Geforce GTX Titan X 12288MB 384-bit GDDR5 PCI-E | ||
---|---|---|
Parameter | Betyder | Nominel værdi (reference) |
GPU | Geforce GTX Titan X (GM200) | |
Interface | PCI Express x16 | |
GPU-driftsfrekvens (ROP'er), MHz | 1000—1075 | 1000—1075 |
Hukommelsesfrekvens (fysisk (effektiv)), MHz | 1750 (7000) | 1750 (7000) |
Memory exchange bus bredde, bit | 384 | |
Antallet af computerenheder i GPU'en / frekvensen af blokkene, MHz | 24/1000—1075 | 24/1000—1075 |
Antal operationer (ALU) pr. blok | 128 | |
Total Operations (ALU) | 3072 | |
Antal tekstureringsenheder (BLF/TLF/ANIS) | 192 | |
Antal rasteriseringsblokke (ROP) | 96 | |
Mål, mm | 270×100×35 | 270×100×35 |
Antallet af pladser i systemenheden, der er optaget af videokortet | 2 | 2 |
Tekstolit farve | sort | sort |
Strømforbrug (peak i 3D/i 2D-tilstand/i "sleep"-tilstand), W | 257/98/14 | 257/98/14 |
Støjniveau (i 2D-tilstand / i 2D-tilstand (videoafspilning) / i maksimal 3D-tilstand), dBA | 20/21/29,5 | — |
Udgangsstik | 1×DVI (Dual-Link/HDMI), 1×HDMI 2.0, 3×DisplayPort 1.2 | |
Support til multiprocessing | SLI | |
Maksimalt antal modtagere/monitorer til samtidig billedoutput | 4 | 4 |
Hjælpestrøm: antal 8-bens stik | 1 | 1 |
Hjælpestrøm: antal 6-bens stik | 1 | 1 |
Maksimal 2D-opløsning: DP/HDMI/Dual-Link DVI/Single-Link DVI | ||
Maksimal 3D-opløsning: DP/HDMI/Dual-Link DVI/Single-Link DVI | 3840×2400/3840×2400/2560×1600/1920×1200 |
Bundet med lokal hukommelse | ||
---|---|---|
Kortet har 12288 MB GDDR5 SDRAM placeret i 24 4 Gb chips (12 på hver side af printkortet). Som syntetiske tests til DirectX 11 brugte vi eksempler fra Microsoft og AMD SDK'erne samt Nvidia demoprogrammet. Den første er HDRToneMappingCS11.exe og NBodyGravityCS11.exe fra DirectX SDK (februar 2010) . Vi tog også applikationer fra begge videochipproducenter: Nvidia og AMD. DetailTessellation11 og PNTriangles11 blev taget fra ATI Radeon SDK (de er også i DirectX SDK). Derudover blev Nvidias Realistic Water Terrain demo-program, også kendt som Island11, brugt. Syntetiske test blev udført på følgende videokort:
For at analysere ydeevnen af den nye model af Geforce GTX Titan X-videokortet blev disse løsninger valgt af følgende årsager. Geforce GTX 980 er baseret på en grafikprocessor af samme Maxwell-arkitektur, men på et lavere niveau - GM204, og det vil være meget interessant for os at vurdere, hvad komplikationen af chippen til GM200 gav. Nå, Geforce GTX Titan Z dual-chip-videokortet blev taget kun til reference - som det mest produktive Nvidia-videokort baseret på et par GK110-chips af den tidligere Kepler-arkitektur. Fra rivaliserende selskab AMD valgte vi også to grafikkort til vores sammenligning. De er meget forskellige i princippet, selvom de er baseret på de samme Hawaii GPU'er - de har bare et andet antal GPU'er på kortene, og de er forskellige i placering og pris. Geforce GTX Titan X har ingen priskonkurrenter, så vi tog det kraftigste dual-chip videokort Radeon R9 295X2, selvom en sådan sammenligning ikke ville være særlig interessant teknisk. Til sidstnævnte blev konkurrentens hurtigste single-chip videokort, Radeon R9 290X, taget, selvom det blev udgivet for længe siden og er baseret på en GPU med klart mindre kompleksitet. Men der er simpelthen ikke noget andet valg fra AMD-løsninger. Direct3D 10: PS 4.0 pixel shader tests (teksturering, looping)Vi forlod de forældede DirectX 9-benchmarks, da superkraftige løsninger som Geforce GTX Titan X ikke viser særlig gode resultater i dem, idet de altid er begrænset af hukommelsesbåndbredde, fyldhastighed eller teksturering. For ikke at nævne det faktum, at dual-chip videokort ikke altid fungerer korrekt i sådanne applikationer, og vi har to af dem. Den anden version af RightMark3D inkluderer to allerede velkendte PS 3.0-tests under Direct3D 9, som blev omskrevet til DirectX 10, samt yderligere to nye tests. Det første par tilføjede muligheden for at aktivere selvskygge og shader supersampling, hvilket yderligere øger belastningen på videochips. Disse tests måler ydeevnen af looping pixel shaders med et stort antal teksturprøver (op til flere hundrede prøver pr. pixel i den tungeste tilstand) og en relativt lille ALU-belastning. Med andre ord måler de hastigheden af teksturhentninger og effektiviteten af forgrening i pixelskyggeren. Den første pixel shader-test bliver Fur. Ved de laveste indstillinger bruger den 15 til 30 teksturprøver fra højdekortet og to prøver fra hovedteksturen. Effektdetaljen - "Høj"-tilstand øger antallet af prøver til 40-80, inklusion af "shader" supersampling - op til 60-120 prøver, og "Høj"-tilstanden sammen med SSAA er karakteriseret ved den maksimale "alvorlighed" - fra 160 til 320 prøver fra højdekortet. Lad os først tjekke tilstandene uden supersampling aktiveret, de er relativt enkle, og forholdet mellem resultater i "Lav" og "Høj" tilstande bør være omtrent det samme. Ydeevnen i denne test afhænger af antallet og effektiviteten af TMU'er, og effektiviteten af at udføre komplekse programmer påvirker også. Og i versionen uden supersampling har den effektive fyldhastighed og hukommelsesbåndbredde også en ekstra indflydelse på ydeevnen. Resultaterne ved detaljering af "Høj"-niveauet er op til halvanden gang lavere end ved "Lav". I opgaverne med proceduremæssig pelsgengivelse med et stort antal teksturvalg, med udgivelsen af videochips baseret på GCN-arkitekturen, har AMD for længst taget føringen. Det er Radeon boards, der stadig er de bedste i disse sammenligninger den dag i dag, hvilket indikerer, at de er mere effektive til at udføre disse programmer. Denne konklusion bekræftes af dagens sammenligning - Nvidia-skærmkortet, som vi betragter som tabt selv til den forældede single-chip Radeon R9 290X, for ikke at nævne den nærmeste priskonkurrent fra AMD. I den første Direct3D 10-test viste det nye grafikkort af Geforce GTX Titan X-modellen sig at være lidt hurtigere end sin yngre søster baseret på en chip af samme arkitektur i form af GTX 980, men sidstnævnte er ikke langt bagud - 9-12%. Dette resultat kan forklares med den mærkbart lavere teksturhastighed på GTX 980, og det halter bagud i andre parametre, selvom pointen tydeligvis ikke er i ydeevnen af ALU-enheder. Dual-chip Titan Z er hurtigere, men ikke så hurtig som Radeon R9 295X2. Lad os se på resultatet af den samme test, men med "shader" supersampling slået til, hvilket firdobler arbejdet: I en sådan situation skulle noget ændre sig, og hukommelsesbåndbredde med fillrate vil have mindre effekt: Under vanskelige forhold er det nye grafikkort i Geforce GTX Titan X-modellen allerede mere mærkbart foran den yngre model fra samme generation - GTX 980, der er hurtigere med anstændige 33-39%, hvilket er meget tættere på den teoretiske forskel mellem dem. Og efterslæbet fra konkurrenterne i form af Radeon R9 295X2 og R9 290X er faldet – det nye produkt fra Nvidia har næsten indhentet single-chip Radeon. Den ene med to chip er dog langt foran, fordi AMD-chips foretrækker pixel-for-pixel-beregninger og er meget stærke i sådanne beregninger. Den næste DX10-test måler ydeevnen ved at udføre komplekse looping pixel shaders med et stort antal teksturhentninger og kaldes Steep Parallax Mapping. Ved lave indstillinger bruger den 10 til 50 teksturprøver fra højdekortet og tre prøver fra hovedteksturerne. Når du slår tung tilstand til med selvskygge, fordobles antallet af samples, og supersampling firdobler dette tal. Den mest komplekse testtilstand med supersampling og selvskygge vælger fra 80 til 400 teksturværdier, det vil sige otte gange mere end den simple tilstand. Vi tjekker først simple muligheder uden supersampling: Den anden Direct3D 10 pixel shader-test er mere interessant ud fra et praktisk synspunkt, da parallax mapping-varianter er meget brugt i spil, og tunge varianter, som stejl parallax-mapping, længe har været brugt i mange projekter, for eksempel i spil fra the Crysis, Lost Planet og mange andre serier. Derudover kan du i vores test, udover supersampling, slå selvskygge til, hvilket øger belastningen på videochippen med cirka to gange - denne tilstand kaldes "Høj". Diagrammet ligner generelt det forrige, også uden inklusion af supersampling, og denne gang viste den nye Geforce GTX Titan X sig at være lidt tættere på GTX Titan Z, og tabte ikke så meget til et to-chip-kort baseret på et par Kepler-familiens GPU'er. Under andre forhold er det nye produkt 14-19% foran den hidtidige topmodel af den nuværende generation fra Nvidia, og selvom vi tager en sammenligning med AMD-skærmkort, er der noget, der har ændret sig her - i dette tilfælde den nye GTX Titan X er lidt ringere end Radeon R9 290X en del. Dual-chip R9 295X2 er dog langt foran alle. Lad os se, hvad der vil ændre medtagelsen af supersampling: Når supersampling og selvskygge er aktiveret, bliver opgaven sværere, den kombinerede medtagelse af to muligheder på én gang øger belastningen på kortene med næsten otte gange, hvilket forårsager et alvorligt fald i ydeevnen. Forskellen mellem hastighedsindikatorerne på de testede videokort har ændret sig en smule, selvom medtagelsen af supersampling har mindre effekt end i det tidligere tilfælde. AMD Radeon-grafikløsninger yder mere effektivt i denne D3D10 pixel shader-test end konkurrerende Geforce-kort, men den nye GM200-chip ændrer situationen til det bedre - Geforce GTX Titan X-kortet baseret på Maxwell-arkitekturchippen er allerede foran Radeon R9 290X under alle forhold (dog baseret på en mærkbart mindre kompleks GPU). Dual-chip-løsningen baseret på Hawaii-parret er fortsat førende, men sammenlignet med andre Nvidia-løsninger er det nye produkt ikke dårligt. Den viste hastighed næsten på niveau med dual-chip Geforce GTX Titan Z og overgik Geforce GTX 980 med 28-33%. Direct3D 10: PS 4.0 Pixel Shader Benchmarks (Computing)De næste par pixel shader-tests indeholder det mindste antal teksturhentninger for at reducere virkningen af TMU-ydeevnen. De bruger et stort antal aritmetiske operationer, og de måler præcist den matematiske ydeevne af videochips, hastigheden af udførelsen af aritmetiske instruktioner i pixel shader. Den første matematikprøve er Mineral. Dette er en kompleks proceduremæssig tekstureringstest, der kun bruger to teksturdataeksempler og 65 sin- og cos-instruktioner. Resultaterne af begrænsende matematiske test svarer oftest til forskellen i frekvenser og antallet af computerenheder, men kun tilnærmelsesvis, da resultaterne er påvirket af den forskellige effektivitet af deres brug i specifikke opgaver, og driveroptimering, og den seneste frekvens og strømstyringssystemer, og endda en vægt på hukommelsesbåndbredde. I tilfældet med Mineral-testen er den nye Geforce GTX Titan X-model kun 10 % hurtigere end GTX 980-kortet baseret på GM204-chippen fra samme generation, og dual-chip GTX Titan Z var ikke så hurtig i denne test - noget forhindrer helt klart Nvidia-kort i at åbne op. At sammenligne Geforce GTX Titan X med konkurrerende bundkort fra AMD ville ikke være så trist, hvis GPU'erne i R9 290X og Titan X var tæt på i kompleksitet. Men GM200 er meget større end Hawaii, og dens lille gevinst er kun naturlig. Nvidias arkitekturopgradering fra Kepler til Maxwell har bragt de nye chips tættere på konkurrerende AMD-løsninger i sådanne tests. Men selv den billigere dual-chip-løsning Radeon R9 295X2 er mærkbart hurtigere. Lad os overveje den anden test af shader-beregninger, som kaldes Fire. Den er tungere for ALU, og der er kun én teksturhentning i den, og antallet af sin- og cos-instruktioner er blevet fordoblet, op til 130. Lad os se, hvad der har ændret sig med stigende belastning: I den anden matematiske test fra RigthMark ser vi allerede forskellige resultater for videokort i forhold til hinanden. Så den nye Geforce GTX Titan X er allerede stærkere (med 20 %) foran GTX 980 på en chip med samme grafikarkitektur, og dual-chip Geforce er meget tæt på det nye produkt - Maxwell klarer meget beregningsopgaver bedre end Kepler. Radeon R9 290X er efterladt, men som vi allerede skrev, er Hawaii GPU'en mærkbart enklere end GM200, og denne forskel er logisk. Men selvom dual-chip Radeon R9 295X2 fortsætter med at være førende i matematikprøver, klarede den nye Nvidia videochip sig generelt godt i sådanne opgaver, selvom den ikke nåede den teoretiske forskel med GM204. Direct3D 10: Geometry Shader TestsDer er to geometri shader hastighedstest i RightMark3D 2.0, den første mulighed hedder "Galaxy", teknikken ligner "point sprites" fra tidligere versioner af Direct3D. Den animerer et partikelsystem på GPU'en, en geometriskygger fra hvert punkt skaber fire hjørner, der danner en partikel. Lignende algoritmer bør bruges i vid udstrækning i fremtidige DirectX 10-spil. Ændring af balancen i geometri-shader-testene påvirker ikke det endelige gengivelsesresultat, det endelige billede er altid nøjagtigt det samme, kun scenebehandlingsmetoderne ændres. Parameteren "GS load" bestemmer, i hvilken shader beregningerne udføres - i toppunkt eller geometri. Antallet af beregninger er altid det samme. Lad os overveje den første version af "Galaxy" -testen med beregninger i vertex shader for tre niveauer af geometrisk kompleksitet: Forholdet mellem hastigheder med forskellig geometrisk kompleksitet af scenerne er omtrent det samme for alle løsninger, ydeevnen svarer til antallet af point, for hvert trin er FPS-faldet tæt på det dobbelte. Denne opgave er meget enkel for kraftfulde moderne videokort, og ydeevnen i den er begrænset af hastigheden af geometribehandling og nogle gange af hukommelsesbåndbredde og/eller fyldhastighed. Forskellen mellem resultaterne af videokort baseret på Nvidia- og AMD-chips er normalt til fordel for det californiske firmas løsninger, og det skyldes forskelle i de geometriske rørledninger af disse virksomheders chips. Også i dette tilfælde har de øverste Nvidia-videochips mange geometribehandlingsenheder, så gevinsten er indlysende. I geometritests er Geforce boards altid mere konkurrencedygtige end Radeon. Den nye Geforce GTX Titan X-model halter lidt efter dual-chip GTX Titan Z-kortet på tidligere generations GPU'er, men den overgår GTX 980 med 12-25%. Radeon-grafikkort viser markant forskellige resultater, da R9 295X2 er baseret på et par GPU'er, og kun den kan konkurrere med nyheden i denne test, og Radeon R9 290X var en outsider. Lad os se, hvordan situationen ændrer sig, når en del af beregningerne overføres til geometriskyggeren: Da belastningen ændrede sig i denne test, ændrede tallene sig lidt, for AMD-kort og for Nvidia-løsninger. Og det ændrer ikke rigtig noget. Videokort i denne test af geometriskygger reagerer dårligt på ændringer i GS-belastningsparameteren, som er ansvarlig for at overføre en del af beregningerne til geometriskyggeren, så konklusionerne forbliver de samme. Desværre er "Hyperlight" den anden test af geometri shaders, som demonstrerer brugen af flere teknikker på én gang: instansering, stream output, buffer load, som bruger dynamisk geometri skabelse ved at trække til to buffere, samt en ny Direct3D 10 funktion - stream output, på Alle moderne AMD-grafikkort virker bare ikke. På et tidspunkt fik en anden Catalyst-driveropdatering denne test til at stoppe med at køre på Catalyst-kort, og dette er ikke blevet rettet i flere år nu. Direct3D 10: teksturhentningshastighed fra vertex shaders"Vertex Texture Fetch"-testene måler hastigheden af et stort antal teksturhentninger fra en vertex shader. Testene er i det væsentlige ens, så forholdet mellem resultaterne af kortene i "Earth" og "Waves" testene bør være omtrent det samme. Begge tests bruger forskydningskortlægning baseret på tekstursamplingsdata, den eneste signifikante forskel er, at "Waves"-testen bruger betingede spring, mens "Earth"-testen ikke gør det. Overvej den første test "Earth", først i "Effect detail Low"-tilstand: Vores tidligere undersøgelser har vist, at både fyldhastighed og hukommelsesbåndbredde kan påvirke resultaterne af denne test, hvilket er tydeligt synligt på resultaterne af Nvidia-kort, især i simple tilstande. Det nye videokort fra Nvidia i denne test viser en hastighed, der er klart lavere end den burde være – alle Geforce boards viste sig at være nogenlunde på samme niveau, hvilket tydeligvis ikke svarer til teorien. I alle tilstande løber de tydeligvis ind i noget som en hukommelsesbåndbredde. Radeon R9 295X2 er dog heller ikke nær dobbelt så hurtig som R9 290X. Denne gang viste AMD's single-chip board sig i øvrigt at være stærkere end alle Nvidias boards i light mode og omtrent på deres niveau i hard mode. Nå, dual-chip Radeon R9 295X2 blev igen lederen af vores sammenligning. Lad os se på ydeevnen i den samme test med et øget antal teksturhentninger: Situationen på diagrammet er lidt ændret, AMD's single-chip løsning i tunge tilstande har mistet væsentligt flere Geforce boards. Den nye model Geforce GTX Titan X viste hastigheder op til 14 % hurtigere end Geforce GTX 980, og overgik single-chip Radeon i alle tilstande undtagen den letteste – på grund af det samme fokus på noget. Hvis vi sammenligner det nye produkt med AMD's dual-chip-løsning, så var Titan X i stand til at kæmpe i tung tilstand, der viste tæt ydeevne, men sakker bagud i lette tilstande. Lad os overveje resultaterne af den anden test af teksturhentninger fra vertex shaders. Waves-testen har færre prøver, men den bruger betingede spring. Antallet af bilineære teksturprøver er i dette tilfælde op til 14 ("Effect detail Low") eller op til 24 ("Effect Detail High") pr. toppunkt. Kompleksiteten af geometrien ændrer sig på samme måde som den foregående test. Resultaterne i den anden "Waves" vertex-tekstureringstest er intet som det, vi så i de foregående diagrammer. Hastighedsydelsen for alle Geforces i denne test er alvorligt forringet, og den nye Nvidia Geforce GTX Titan X-model viser kun hastighed en smule hurtigere end GTX 980, og halter bagefter dual-chip Titan Z. Sammenlignet med konkurrenterne var begge Radeon-kort i stand til for at vise den bedste ydeevne i denne test under alle tilstande. Overvej den anden version af det samme problem: Med kompleksiteten af opgaven i den anden teksturprøvetagningstest blev hastigheden af alle løsninger lavere, men Nvidia-videokort led mere, inklusive den model, der overvejes. Næsten intet ændrer sig i konklusionerne, den nye Geforce GTX Titan X-model er op til 10-30% hurtigere end GTX 980, og halter bagefter både dual-chip Titan Z og begge Radeon-kort. Radeon R9 295X2 var langt foran i disse tests, og fra et teoretisk synspunkt er dette simpelthen uforklarligt bortset fra utilstrækkelig optimering fra Nvidia. 3DMark Vantage: FunktionstestSyntetiske tests fra 3DMark Vantage-pakken vil vise os, hvad vi tidligere gik glip af. Funktionstests fra denne testpakke har DirectX 10-understøttelse, er stadig relevante og interessante, fordi de adskiller sig fra vores. Når vi analyserer resultaterne af det seneste videokort Geforce GTX Titan X i denne pakke, vil vi drage nogle nye og nyttige konklusioner, som har unddraget os i test fra RightMark-familiepakker. Funktionstest 1: TeksturfyldDen første test måler ydeevnen af teksturhentningsenheder. Den bruger at udfylde et rektangel med værdier læst fra en lille tekstur ved hjælp af flere teksturkoordinater, der ændrer hver ramme. Effektiviteten af AMD- og Nvidia-videokort i Futuremarks teksturtest er ret høj, og de endelige tal for forskellige modeller er tæt på de tilsvarende teoretiske parametre. Så hastighedsforskellen mellem GTX Titan X og GTX 980 viste sig at være 38% til fordel for en løsning baseret på GM200, hvilket er tæt på teorien, fordi det nye produkt har halvanden gange flere TMU-enheder , men de opererer ved en lavere frekvens. Naturligvis forbliver forsinkelsen bag dual-GTX Titan Z, da de to GPU'er har hurtigere tekstureringshastigheder. Hvad angår sammenligningen af tekstureringshastigheden af det nye top Nvidia-videokort med lignende prissatte løsninger fra konkurrenten, her er nyheden ringere end to-chip-konkurrenten, som er en betinget nabo i prisnichen, men den er foran Radeon R9 290X, selvom det ikke er for markant. Alligevel klarer AMD-grafikkort sig stadig lidt bedre med teksturering. Funktionstest 2: FarvefyldDen anden opgave er fyldningsgradstesten. Den bruger en meget simpel pixel shader, der ikke begrænser ydeevnen. Den interpolerede farveværdi skrives til en offscreen-buffer (gengivelsesmål) ved hjælp af alfa-blanding. Den bruger en 16-bit FP16 off-screen buffer, den mest almindeligt anvendte i spil, der bruger HDR-gengivelse, så denne test er ret betimelig. Tallene fra den anden 3DMark Vantage-deltest viser ydeevnen af ROP-enheder uden at tage højde for mængden af videohukommelsesbåndbredde (den såkaldte "effektive fyldningshastighed"), og testen måler nøjagtigt ROP's ydeevne. Geforce GTX Titan X-kortet, vi gennemgår i dag, er mærkbart foran både Nvidia-kort, GTX 980 og endda GTX Titan Z, og overgår enkelt-chip-kortet baseret på GM204 med hele 45 % - antallet af ROP'er og deres effektiviteten i den øverste GPU i Maxwell-arkitekturen er fremragende! Og hvis vi sammenligner sceneudfyldningshastigheden for det nye Geforce GTX Titan X-videokort med AMD-videokort, så viser det Nvidia-kort, vi overvejer i denne test, den bedste sceneudfyldningshastighed selv i sammenligning med den mest kraftfulde dual-chip Radeon R9 295X2, for ikke at nævne den betydeligt bagud Radeon R9 290X. Et stort antal ROP-blokke og optimeringer til effektiviteten af framebuffer-datakomprimering gjorde deres arbejde. Funktionstest 3: Parallax-okklusionskortlægningEn af de mest interessante funktionstests, da denne teknik allerede bruges i spil. Den tegner en firkant (mere præcist to trekanter) ved hjælp af den specielle Parallax Occlusion Mapping-teknik, som efterligner kompleks geometri. Der bruges snarere ressourcekrævende strålesporingsoperationer og et dybdekort i høj opløsning. Denne overflade er også skraveret ved hjælp af den tunge Strauss-algoritme. Dette er en test af en meget kompleks og tung pixel shader til en videochip, som indeholder adskillige teksturhentninger under ray tracing, dynamisk forgrening og komplekse Strauss-lysberegninger. Denne test fra 3DMark Vantage-pakken adskiller sig fra de foregående ved, at resultaterne i den ikke kun afhænger af hastigheden af matematiske beregninger, effektiviteten af grenudførelse eller hastigheden af teksturhentninger, men af flere parametre samtidigt. For at opnå høj hastighed i denne opgave er den korrekte balance mellem GPU'en vigtig, såvel som effektiviteten af at udføre komplekse shaders. I dette tilfælde er både matematisk ydeevne og teksturydelse vigtige, og i denne "syntetik" fra 3DMark Vantage viste det nye Geforce GTX Titan X-kort at være mere end en tredjedel hurtigere end modellen baseret på GPU'en af samme Maxwell-arkitektur . Og selv dual-chip Kepler i form af GTX Titan Z overgik nyheden med mindre end 10%. Nvidias single-chip top-end board klarede sig klart bedre end single-chip Radeon R9 290X i denne test, men begge er seriøst bedre end dual-chip Radeon R9 295X2. GPU'er fra AMD er noget mere effektive end Nvidia-chips i denne opgave, og R9 295X2 har to af dem. Funktionstest 4: GPU-kludDen fjerde test er interessant, fordi den beregner fysiske interaktioner (kludimitation) ved hjælp af en videochip. Vertex-simulering bruges ved at bruge den kombinerede drift af top- og geometriskyggerne med flere passager. Brug stream out til at overføre hjørner fra et simuleringspas til et andet. Således testes ydeevnen af udførelsen af vertex og geometri shaders og udstrømningshastigheden. Gengivelseshastigheden i denne test afhænger også af flere parametre på én gang, og de vigtigste indflydelsesfaktorer bør være ydeevnen af geometribehandling og effektiviteten af geometriskyggere. Det vil sige, at styrkerne ved Nvidia-chips skulle vise sig, men ak – vi så et meget mærkeligt resultat (genkontrolleret), det nye Nvidia-skærmkort viste mildt sagt ikke for høj hastighed. Geforce GTX Titan X i denne deltest viste det værste resultat af alle løsninger, og haltede bagud selv GTX 980 med næsten 20%! Tja, sammenligningen med Radeon boards i denne test er lige så uskøn for et nyt produkt. På trods af det teoretisk mindre antal geometriske udførelsesenheder og den geometriske ydeevnelag for AMD-chips sammenlignet med konkurrerende løsninger, fungerer begge Radeon-kort meget effektivt i denne test og overgår alle tre Geforce-kort præsenteret i sammenligning. Igen ligner det manglende optimering i Nvidia-drivere til en specifik opgave. Funktionstest 5: GPU-partiklerEn test til fysisk simulering af effekter baseret på partikelsystemer beregnet ved hjælp af en videochip. Vertex-simulering bruges også, hvert toppunkt repræsenterer en enkelt partikel. Stream out bruges til samme formål som i den foregående test. Flere hundrede tusinde partikler er beregnet, alle er animeret separat, deres kollisioner med højdekortet er også beregnet. I lighed med en af vores RightMark3D 2.0-tests tegnes partiklerne ved hjælp af en geometriskygge, der skaber fire hjørner fra hvert punkt for at danne partiklen. Men testen indlæser shaderblokke med toppunktsberegninger mest af alt, stream out testes også. I den anden "geometriske" test fra 3DMark Vantage har situationen for alvor ændret sig, denne gang viser alle Geforces allerede et mere eller mindre normalt resultat, selvom dual-chip Radeon stadig er i spidsen. Den nye GTX Titan X-model er 24 % hurtigere end sin søster GTX 980 og omtrent på samme tid bag dual-GPU Titan Z på den forrige generations GPU. Sammenligningen af Nvidias nyhed med konkurrerende videokort fra AMD denne gang er mere positiv - den viste resultatet mellem to boards fra det rivaliserende firma, og viste sig at være tættere på Radeon R9 295X2, som har to GPU'er. Nyheden er langt foran Radeon R9 290X, og dette viser os tydeligt, hvor forskellige to tilsyneladende ens tests kan være: kludsimulering og partikelsystemsimulering. Feature Test 6: Perlin NoiseDen sidste funktionstest af Vantage-pakken er en matematisk intensiv test af videochippen, den beregner flere oktaver af Perlin-støjalgoritmen i pixel-shaderen. Hver farvekanal bruger sin egen støjfunktion til at øge belastningen på videochippen. Perlin-støj er en standardalgoritme, der ofte bruges i proceduremæssig teksturering, den bruger en masse matematiske beregninger. I dette tilfælde stemmer løsningernes ydeevne ikke helt overens med teorien, selvom den er tæt på, hvad vi så i lignende tests. I den matematiske test fra Futuremark-pakken, som viser videochips' topydelse i limit-opgaver, ser vi en anderledes fordeling af resultater sammenlignet med lignende test fra vores testpakke. Vi har længe vidst, at AMD-videochips med GCN-arkitektur stadig klarer sådanne opgaver bedre end konkurrenternes løsninger, især i tilfælde hvor der udføres intensiv "matematik". Men Nvidias nye topmodel er baseret på den store GM200-chip, og så klarede Geforce GTX Titan X sig mærkbart bedre end Radeon R9 290X i denne test. Hvis vi sammenligner det nye produkt med den bedste model af Geforce GTX 900-familien, så var forskellen mellem dem i denne test næsten 40% - til fordel for det videokort, vi overvejer i dag, naturligvis. Dette er også tæt på den teoretiske forskel. Ikke et dårligt resultat for Titan X, kun dual-chip Radeon R9 295X2 var foran og langt foran. Direct3D 11: Compute ShadersFor at teste Nvidias nyligt udgivne top-of-the-line løsning til opgaver, der bruger DirectX 11-funktioner såsom tessellation og compute shaders, brugte vi SDK-eksempler og demoer fra Microsoft, Nvidia og AMD. Først vil vi se på benchmarks, der bruger Compute shaders. Deres udseende er en af de vigtigste nyskabelser i de nyeste versioner af DX API, de bruges allerede i moderne spil til at udføre forskellige opgaver: efterbehandling, simuleringer osv. Den første test viser et eksempel på HDR-gengivelse med tonemapping fra DirectX SDK, med efterbehandling , som bruger pixel og compute shaders. Beregningshastigheden i beregnings- og pixelskyggerne for alle AMD- og Nvidia-kort er omtrent den samme, forskelle blev kun observeret for videokort baseret på GPU'er fra tidligere arkitekturer. At dømme efter vores tidligere test afhænger resultaterne af et problem ofte ikke så meget af matematisk kraft og beregningseffektivitet, men af andre faktorer, såsom hukommelsesbåndbredde. I dette tilfælde er det nye top-end grafikkort hurtigere end single-chip versionerne Geforce GTX 980 og Radeon R9 290X, men bag dual-chip R9 295X2, hvilket er forståeligt, fordi det har kraften fra et par R9 290X. Hvis vi sammenligner det nye produkt med Geforce GTX 980, så er bundkortet i det californiske firma, der betragtes i dag, 34-36% hurtigere - præcis ifølge teorien. Den anden compute shader-test er også taget fra Microsoft DirectX SDK og viser et N-body (N-body) gravitationsproblem, en simulering af et dynamisk partikelsystem, der er underlagt fysiske kræfter såsom tyngdekraften. I denne test er der oftest lagt vægt på udførelseshastigheden af komplekse matematiske beregninger, geometribehandling og effektiviteten af kodeudførelse med forgrening. Og i denne DX11-test viste justeringen af kræfter mellem løsningerne fra to forskellige firmaer sig at være helt anderledes - klart til fordel for Geforce-videokort. Resultaterne af et par Nvidia-løsninger baseret på forskellige chips er dog også mærkelige - Geforce GTX Titan X og GTX 980 er næsten lige store, de er kun adskilt af 5% forskel i ydeevne. Dual-chip-gengivelse virker ikke i denne opgave, så rivalerne (single-chip og dual-chip Radeon-modeller) har omtrent samme hastighed. Nå, GTX Titan X er tre gange foran dem. Det ser ud til, at denne opgave beregnes meget mere effektivt på GPU'er i Maxwell-arkitekturen, som vi bemærkede tidligere. Direct3D 11: Tessellation ydeevneCompute shaders er meget vigtige, men en anden stor ny funktion i Direct3D 11 er hardware-tesselation. Vi overvejede det meget detaljeret i vores teoretiske artikel om Nvidia GF100. Tessellation har været brugt i DX11-spil i lang tid, såsom STALKER: Call of Pripyat, DiRT 2, Aliens vs Predator, Metro Last Light, Civilization V, Crysis 3, Battlefield 3 og andre. Nogle af dem bruger tessellering til karaktermodeller, andre til at simulere en realistisk vandoverflade eller landskab. Der er flere forskellige skemaer til opdeling af grafiske primitiver (tesselation). For eksempel phong tessellation, PN trekanter, Catmull-Clark underinddeling. Så PN Triangles fliseskemaet bruges i STALKER: Call of Pripyat og i Metro 2033 - Phong tessellation. Disse metoder er relativt hurtige og nemme at implementere i spiludviklingsprocessen og eksisterende motorer, hvorfor de er blevet populære. Den første tessellation-test vil være Detail Tessellation-eksemplet fra ATI Radeon SDK. Den implementerer ikke kun tessellering, men også to forskellige pixel-for-pixel-behandlingsteknikker: en simpel overlejring af normale kort og parallaksokklusionskortlægning. Nå, lad os sammenligne DX11-løsninger fra AMD og Nvidia under forskellige forhold: I den simple bumpmapping-test er hastigheden af boards ikke særlig vigtig, da denne opgave er blevet for nem i lang tid, og ydeevnen i den afhænger af hukommelsesbåndbredden eller fillrate. Dagens anmelderhelt er 23 % foran den tidligere topmodel Geforce GTX 980 baseret på GM204-chippen og en anelse ringere end sin konkurrent i form af Radeon R9 290X. Dual-chip-versionen er endnu lidt hurtigere. I den anden deltest med mere komplekse pixel-for-pixel-beregninger er det nye produkt allerede 34 % hurtigere end Geforce GTX 980, hvilket er tættere på den teoretiske forskel mellem dem. Men Titan X er denne gang allerede lidt hurtigere end en enkelt-chip betinget konkurrent baseret på en enkelt Hawaii. Da de to chips i Radeon R9 295X2 fungerer perfekt, udføres denne opgave endnu hurtigere på den. Selvom ydeevnen af matematiske beregninger i pixel shaders er højere for GCN-arkitekturchips, forbedrede udgivelsen af Maxwell-arkitekturløsninger positionerne for Nvidia-løsninger. I den lette tessellation-deltest er det nyligt annoncerede Nvidia-kort igen kun en fjerdedel hurtigere end Geforce GTX 980 - måske er hastigheden begrænset af hukommelsesbåndbredden, da teksturering i denne test næsten ikke har nogen effekt. Hvis vi sammenligner det nye produkt med AMD boards i denne deltest, så er Nvidia boardet igen ringere end begge Radeons, da i denne tessellation test er trekantopdelingen meget moderat og den geometriske ydeevne ikke begrænser den samlede gengivelseshastighed. Den anden tessellation-ydeevnetest vil være endnu et eksempel for 3D-udviklere fra ATI Radeon SDK - PN Triangles. Faktisk er begge eksempler også inkluderet i DX SDK, så vi er sikre på, at spiludviklere laver deres egen kode baseret på dem. Vi testede dette eksempel med en anden tessellationsfaktor for at se, hvor meget det påvirker den overordnede ydeevne. I denne test bruges mere kompleks geometri, derfor giver en sammenligning af den geometriske kraft af forskellige løsninger forskellige konklusioner. De moderne løsninger, der præsenteres i materialet, klarer lette og mellemstore geometriske belastninger ret godt, der viser høj hastighed. Men mens Hawaiis en og to GPU'er i Radeon R9 290X og R9 295X2 klarer sig godt under lette forhold, kommer Nvidias boards ud på toppen i tungt arbejde. Så i de sværeste tilstande viser Geforce GTX Titan X, der præsenteres i dag, hastigheden allerede mærkbart bedre end dual-chip Radeon. Hvad angår sammenligningen af Nvidia-kort baseret på GM200- og GM204-chips, øger Geforce GTX Titan X-modellen, der overvejes i dag, sin fordel med en stigning i den geometriske belastning, da alt i lystilstanden afhænger af hukommelsesbåndbredden. Som et resultat er det nye produkt foran Geforce GTX 980-kortet, afhængigt af kompleksiteten af tilstanden, med op til 31%. Lad os tage et kig på resultaterne af en anden test, Nvidia Realistic Water Terrain demo-programmet, også kendt som Island. Denne demo bruger tessellering og forskydningskortlægning for at give en realistisk udseende havoverflade og terræn. Island-testen er ikke en rent syntetisk test til måling af rent geometrisk GPU-ydeevne, da den indeholder både komplekse pixel- og compute shaders, og en sådan belastning er tættere på rigtige spil, der bruger alle GPU-enheder, og ikke kun geometriske, som i tidligere geometri test. Selvom belastningen på geometribehandlingsenhederne stadig er den vigtigste, kan den samme hukommelsesbåndbredde f.eks. også påvirke. Vi tester alle videokort ved fire forskellige tessellationsfaktorer – i dette tilfælde hedder indstillingen Dynamic Tessellation LOD. Med den første trekantopdelingsfaktor er hastigheden ikke begrænset af ydeevnen af geometriske blokke, og Radeon-videokort viser et ret højt resultat, især to-chip R9 295X2, som endda overgår resultatet af det annoncerede Geforce GTX Titan X-kort , men allerede ved de næste geometriske belastningsniveauer falder ydeevnen af Radeon-kort, og løsninger Nvidia tager føringen. Fordelen ved det nye Nvidia-kort baseret på GM200-videochippen i forhold til dets rivaler i sådanne test er allerede ganske anstændigt, og endda flere. Hvis vi sammenligner Geforce GTX Titan X med GTX 980, så når forskellen mellem deres ydeevne 37-42%, hvilket er perfekt forklaret af teori og nøjagtigt svarer til det. Maxwell GPU'er er mærkbart mere effektive i blandede arbejdsbelastninger og skifter hurtigt fra grafik til computer og tilbage igen, og Titan X er meget hurtigere end selv dual-chip Radeon R9 295X2 i denne test. Efter at have analyseret resultaterne af syntetiske test af det nye Nvidia Geforce GTX Titan X-videokort baseret på den nye top-end GM200 GPU, samt overvejet resultaterne af andre grafikkortmodeller fra begge producenter af diskrete videochips, kan vi konkludere, at det videokort, vi overvejer i dag, skulle være det hurtigste på markedet, konkurrere med det stærkeste dual-chip grafikkort fra AMD. Generelt er dette en god tilhænger af Geforce GTX Titan Black - en kraftfuld single-chip. Det nye grafikkort fra Nvidia viser ret stærke resultater inden for syntetisk - i mange test, dog ikke i alle. Radeon og Geforce har traditionelt forskellige styrker. I en lang række tests var de to GPU'er i Radeon R9 295X2-modellen hurtigere, blandt andet på grund af den højere samlede hukommelsesbåndbredde og tekstureringshastighed med meget effektiv udførelse af beregningsopgaver. Men i andre tilfælde vinder den øverste grafikprocessor i Maxwell-arkitekturen tilbage, især i geometriske tests og tessellationseksempler. Men i rigtige spilapplikationer vil alt være noget anderledes, sammenlignet med "syntetik", og Geforce GTX Titan X skulle vise en hastighed betydeligt højere end niveauet for single-chip Geforce GTX 980, og endnu mere Radeon R9 290X. Og det er svært at sammenligne nyheden med dual-chip Radeon R9 295X2 - systemer baseret på to eller flere GPU'er har deres egne ubehagelige funktioner, selvom de giver en stigning i den gennemsnitlige billedhastighed med korrekt optimering. Men de arkitektoniske funktioner og funktionalitet er klart til fordel for Nvidias premium-løsning. Geforce GTX Titan X bruger meget mindre energi end den samme Radeon R9 295X2, og med hensyn til energieffektivitet er den nye Nvidia-model meget stærk – dette er et særkende ved Maxwell-arkitekturen. Vi bør ikke glemme den større funktionalitet af Nvidias nye produkt: der er understøttelse af Feature Level 12.1 i DirectX 12, VXGI hardwareacceleration, en ny MFAA anti-aliasing-metode og andre teknologier. Vi talte allerede om markedssynspunktet i den første del - i elitesegmentet afhænger ikke så meget af prisen. Det vigtigste er, at løsningen skal være så funktionel og produktiv som muligt i spilapplikationer. Kort sagt, det var det bedste i alt. Bare for at evaluere hastigheden af nyheden i spil, vil vi i den næste del af vores materiale bestemme ydeevnen af Geforce GTX Titan X i vores sæt af spilprojekter og sammenligne den med konkurrenternes ydeevne, herunder at evaluere begrundelsen af udsalgsprisen på nyheden fra entusiasternes synspunkt, og find også ud af, hvor meget hurtigere det er Geforce GTX 980 allerede i spil. |
Asus ProArt PA249Q skærm til arbejdscomputer leveret af firmaet Asustek | Cougar 700K tastatur til arbejdscomputer leveret af firmaet Puma |
TITAN X grafikkort er designet til fans af de mest ressourcekrævende spil. Det kombinerer den nyeste teknologi med den ekstreme ydeevne fra den nye NVIDIA Maxwell™-arkitektur for at levere det hurtigste, mest avancerede grafikkort på planeten.
ØGET YDELSE
TITAN X fortsætter arven fra TITAN-familien af grafikkort og leverer verdens højeste ydeevne gaming GPU. Den bruger den kraftfulde Maxwell-arkitektur til at levere den nyeste teknologi med dobbelt ydeevne og strømeffektivitet i forhold til det originale GTX TITAN-grafikkort.
ENESTÅENDE DESIGN
TITAN X er konstrueret og ekspertbygget med komponenter af høj kvalitet til at levere betydelige præstationsgevinster og samtidig bevare uovertruffen akustisk og termisk ydeevne.
Denne avancerede GPU understøtter hyperrealistisk global belysning i realtid med NVIDIA VXGI-teknologi samt NVIDIA G-SYNC™-teknologi, som sikrer jævn, rivefri gaming. Derudover vil du være i stand til at opleve DSR-teknologi, som giver en 4K-oplevelse selv på 1080p-skærme.
EKSTREME SPIL
TITAN X er det eneste enkelt GPU-grafikkort, der nemt kan spille 4K-spil ved høje indstillinger. Det kører problemfrit takket være applikationen GeForce® Experience™, som giver adgang til de nyeste drivere og optimerer spilindstillinger med et enkelt klik. Du kan endda optage dine bedste spiløjeblikke og dele dem med dine venner ved hjælp af NVIDIA® ShadowPlay™-teknologi.
NVIDIAs første Pascal-arkitektur, der kom på markedet, var GeForce GTX 1080 baseret på GP104-processoren. Takket være den nye 16nm FinFET-procesteknologi, samt optimeringer af chippens arkitektur og kredsløb, tillod GTX 1080 at opnå et ydelsesniveau i spil, der er cirka 30 % højere end NVIDIAs forrige generations flagskibsgrafikkort - GeForce GTX TITAN X. Samtidig lykkedes det udviklerne af GTX 1080 at reducere acceleratorens effektbudget med 70 W i forhold til TDP for sin forgænger - fra 250 til 180 W. I mellemtiden er en termisk pakke på 250 W et standardmål for NVIDIAs bedste gaming-videokort fra de sidste generationer, så udseendet efter GTX 1080 af et endnu mere produktivt produkt, der vil indtage denne niche i Pascal-linjen, var kun et spørgsmål af tid.
Startende med Kepler-arkitekturen har NVIDIA vedtaget følgende strategi til frigivelse af GPU'er i forskellige ydeevnekategorier. Først debuterer second-tier-chippen: GK104 i Kepler-familien, GM204 i Maxwell version 2 og nu GP104 i Pascal. Efterfølgende udfylder NVIDIA et eller to niveauer under, og efter et markant hul dukker en top-tier GPU op, som danner grundlaget for den kraftigste accelerator, som NVIDIA kan producere, samtidig med at strømforbruget holdes inden for 250 W med den nuværende workflow.
Det nuværende højdepunkt i Pascal-arkitekturen er GP100-processoren, som har et hidtil uset antal shader-ALU'er (3840 CUDA-kerner) og 16 GB HBM2-hukommelse kombineret med en GPU på et siliciumsubstrat. GP100 bruges som en del af Tesla P100-acceleratoren, hvis brug er begrænset til supercomputere på grund af en speciel formfaktor med en NVLINK-bus og en TDP på 300 W. Tesla P100 forventes også at blive frigivet i standard PCI Express-udvidelseskortformat i slutningen af året.
Det var GP100-chippen, i industriens entusiasters drømme, der skulle krone rækken af GeForce 10-gaming-adaptere i fremtiden, og på forhånd kunne NVIDIA frigive en ny TITAN - blot med et mellemstop ved denne position, den tidligere store GPU'er ankom til gaming-pc'er (GK110 som en del af TITAN og GM200 - i TITAN X).
Men denne gang viste eksperterne sig tilsyneladende at have ret, idet de forudsagde den endelige opdeling af NVIDIA GPU-linjen i to ikke-overlappende grupper - chips til spil og prosumer (fra ordene producent og forbruger) retninger på den ene side , og chips til computing - på den anden side. Den differentierende faktor i dette tilfælde er hastigheden af GPU'en i operationer på dobbelt præcision flydende kommatal (FP64). I Kepler-linjen har udviklere allerede ofret denne egenskab for alle chips (1/24 fra FP32), foruden den ældre - GK110 / GK210 (1/3 fra FP32), for at reducere GPU-strømforbruget. I den næste generation forværredes denne tendens: alle Maxwell-processorer kører FP64 med en hastighed på 1/32 fra FP32.
Situationen med Pascal viste, at besparelser på FP64-ydelsen ikke forblev en midlertidig foranstaltning på grund af en forsinkelse i 28 nm procesteknologien. NVIDIA har stadig brug for en GPU til servere, supercomputere og arbejdsstationer, der kan håndtere FP64 på et højt niveau af ydeevne. Men for gaming-videoadaptere er denne funktionalitet, som puster transistorbudgettet og GPU-strømforbruget, kun en byrde.
I stedet for at portere GP100 (en åbenlyst dyr chip at fremstille både på grund af området og den integrerede HBM2-hukommelse) til gaming-videokort, udgav NVIDIA således et ekstra produkt - GP102, fokuseret på operationer med FP32 - det vigtigste talformat, der bruges i 3D-grafikgengivelse og i en række beregningsopgaver. Den eneste funktionelle egenskab ved GP102 er understøttelse af heltalsoperationer i int8-formatet. Dette er en vigtig pointe for NVIDIA, da int8 er meget udbredt i maskinlæringsopgaver, som virksomheden selv har gjort til et af de prioriterede områder (mere specifikt er en af klasserne med sådanne opgaver deep learning). I den nærmeste fremtid planlægger vi at udgive en separat artikel dedikeret til dette emne.
Den nye TITAN X, som er den første enhed baseret på GP102-processoren, er primært placeret som en accelerator af professionel kvalitet, der er designet til forskning og kommercielle applikationer relateret til deep learning. Dette bekræftes af fraværet af GeForce-mærket i kortets navn. Nyhedens brede spilmuligheder er dog også hævet over enhver tvivl. Alle Titans udgivet tidligere, ud over deres computerfunktioner, blev betragtet som premium gaming grafikkort, der var i stand til at levere grafikkvalitet og ydeevne, som ikke var tilgængelige for deres nuværende modeller i GeForce-hovedlinjen.
⇡ NVIDIA GP102
Denne GPU er udtænkt som et alternativ til supercomputeren GP100, som ikke er ringere end sidstnævnte i funktionerne til gengivelse af 3D-grafik og FP32-beregninger. Samtidig har skaberne af GP102 reduceret alle komponenter, der ikke svarer til produktets formål.
For eksempel indeholder en enkelt SM (Streaming Multiprocessor - en blok, der kombinerer CUDA-kerner sammen med teksturmapping-enheder, skemalæggere, dispatchere og lokale hukommelsessegmenter) i GP100 64 CUDA-kerner til FP32-operationer, mens SM i GP102 i denne henseende har arvet konfigurationen fra Maxwell: 128 CUDA-kerner. Den finere fordeling af CUDA-kerner i GP100 gør det muligt for processoren samtidigt at udføre flere instruktionsstrømme (og også trådgrupper - warps - og warp-blokke) og den samlede mængde lagertyper inde i SM'en, såsom delt hukommelse (delt hukommelse) og registerfil, i forhold til hele GPU er steget sammenlignet med Maxwell-arkitekturen.
NVIDIA GP102 blokdiagram
Yderligere, i GP100, for hver 64 CUDA-kerner til FP32-operationer, er der 32 kerner til FP64, mens SM i GP102 har en konfiguration, der er arvet fra Maxwell i denne henseende: 128 CUDA-kerner til FP32 og 4 til FP64. Derfor den afkortede dobbelte præcisionsydelse af GP102.
Endelig har GP100 en større L2-cache: 4096 KB mod 3072 KB i GP102. Og selvfølgelig mangler GP102 en NVLINK-buscontroller, og HBM2-hukommelsescontrollere (med en samlet busbredde på 4096 bit) er erstattet af GDDR5X SDRAM-controllere. 12 af disse 32-bit controllere giver en fælles 384-bit hukommelsesadgangsbus.
I andre aspekter af interesse for os er GP100- og GP102-chippene identiske. Begge dyser indeholder 3840 FP32-kompatible CUDA-kerner og 240 teksturmappere samt 96 ROP'er. Fra et generelt synspunkt gentager strukturen af GP102-computerenhederne strukturen for GP104-chippen, justeret for kvantitative ændringer. Selvom vi stadig ikke kender nogle parametre (L1-cache, delt hukommelse og registerfilstørrelser), er de sandsynligvis de samme i disse to GPU'er.
GP102-chippen, der er fremstillet ved hjælp af 16 nm FinFET-procesteknologien hos TSMC, indeholder 12 milliarder transistorer i et område på 471 mm 2 . Til sammenligning: egenskaberne for GP100 er 15,3 milliarder transistorer og 610 mm 2. Dette er en meget væsentlig forskel. Derudover, hvis TSMC ikke har øget størrelsen af fotomasken til 16nm-processen sammenlignet med 28nm, så er GP100 næsten opbrugt, mens den lette arkitektur i GP102 vil give NVIDIA mulighed for at skabe en større kerne til det brede forbrugermarked i fremtid, ved at bruge den samme produktionslinje.(Hvilket dog næppe sker, medmindre udviklerne genovervejer deres TDP-standarder for topmodeller).
Med hensyn til forskellene mellem Pascal-arkitekturen og Maxwell, anbefaler vi, at du henviser til vores GeForce GTX 1080 anmeldelse. I denne iteration har udviklerne udviklet fordelene ved den tidligere generation og kompenseret for dens iboende mangler.
Vi bemærker kort følgende punkter:
- forbedret farvekomprimering med forhold op til 8:1;
- PolyMorph Engines Simultaneous Multi-Projection-funktion, som giver dig mulighed for at skabe op til 16 projektioner af scenegeometrien i én omgang (for VR og systemer med flere skærme i NVIDIA Surround-konfigurationen);
- evnen til at afbryde (preemption) i processen med at udføre et draw call (under rendering) og en kommandostrøm (under beregninger), som sammen med den dynamiske allokering af GPU computing ressourcer giver fuld understøttelse af asynkron computing (Async Compute) - en ekstra kilde til ydeevne i spil under DirectX 12 API og reduceret latenstid i VR;
- skærmcontroller kompatibel med DisplayPort 1.3/1.4 og HDMI 2.b interfaces. Understøttelse af højt dynamisk område (HDR);
- SLI-bus med øget båndbredde.
⇡ Specifikationer, pris
TITAN X bruger ikke en fuldt funktionel version af GP102 GPU: ud af 30 SM'er er to deaktiveret her. Med hensyn til antallet af CUDA-kerner og teksturenheder matcher Titan således Tesla P100, hvor GP100-chippen også er delvist "cut" (3584 CUDA-kerner og 224 tekstur-enheder).
Nyhedens grafikprocessor fungerer ved højere frekvenser (1417/1531 MHz) end i Tesla P100 (op til 1328/1480 MHz i supercomputerversionen og op til 1300 MHz i formfaktoren af PCI-Express-kortet). Alligevel er frekvenserne af "Titan" ret konservative sammenlignet med egenskaberne for GeForce GTX 1080 (1607/1733 MHz). Som vi vil se i overclocking-eksperimenterne, var den begrænsende faktor enhedens strømforbrug, som NVIDIA satte til sine velkendte 250W.
TITAN X er udstyret med 12 GB GDDR5X SDRAM med en båndbredde på 10 Gbps pr. pin. 384-bit bussen giver dataoverførsel med en hastighed på 480 GB / s: i denne indikator er TITAN X kun lidt ringere end den nuværende rekordholder - Radeon R9 Fury X, såvel som andre AMD-produkter baseret på Fiji GPU'er (512 GB/s).
Fabrikant | NVIDIA | |||||
Model | GeForce GTX TITAN | GeForce GTX TITAN Sort | GeForce GTX TITAN Z | GeForce GTX TITAN X | GeForce GTX 1080 | TITAN X |
GPU | ||||||
Navn | GK110 | GK110 | 2 × GK110 | GM200 | GP104 | GP102 |
mikroarkitektur | Kepler | Kepler | Kepler | Maxwell | Pascal | Pascal |
Procesteknologi, nm | 28 nm | 28 nm | 28 nm | 28 nm | 16nm FinFET | 16nm FinFET |
Antal transistorer, mio | 7 080 | 7 080 | 2×7080 | 8 000 | 7 200 | 12 000 |
Urfrekvens, MHz: Basisur / Boost Clock | 837/876 | 889/980 | 705/876 | 1 000 / 1 089 | 1 607 / 1 733 | 1 417 / 1531 |
Antal shader ALU'er | 2 688 | 2 880 | 2×2880 | 3 072 | 2 560 | 3 584 |
Antal teksturoverlejringer | 224 | 240 | 2×240 | 192 | 160 | 224 |
Antal ROP'er | 48 | 48 | 2×48 | 96 | 64 | 96 |
vædder | ||||||
Busbredde, bit | 384 | 384 | 2×384 | 384 | 256 | 384 |
Chip type | GDDR5 SDRAM | GDDR5 SDRAM | GDDR5 SDRAM | GDDR5 SDRAM | GDDR5X SDRAM | GDDR5X SDRAM |
Urfrekvens, MHz (båndbredde pr. kontakt, Mbps) | 1 502 (6 008) | 1 750 (7 000) | 1 750 (7 000) | 1 753 (7 012) | 1 250 (10 000) | 1 250 (10 000) |
Volumen, MB | 6 144 | 6 144 | 2×6144 | 12 288 | 8 192 | 12 288 |
I/O bus | PCI Express 3.0 x16 | PCI Express 3.0 x16 | PCI Express 3.0 x16 | PCI Express 3.0 x16 | PCI Express 3.0 x16 | PCI Express 3.0 x16 |
Ydeevne | ||||||
Maksimal ydeevne FP32, GFLOPS (baseret på maksimal specificeret frekvens) | 4 709 | 5 645 | 10 092 | 6 691 | 8 873 | 10 974 |
Ydelse FP32/FP64 | 1/3 | 1/3 | 1/3 | 1/32 | 1/32 | 1/32 |
RAM-båndbredde, GB/s | 288 | 336 | 2×336 | 336 | 320 | 480 |
Billedudgang | ||||||
Billedudgangsgrænseflader | DL DVI-I, DisplayPort 1.2, HDMI 1.4a | DL DVI-D, DL DVI-I, DisplayPort 1.2, HDMI 1.4a | DL DVI-I, DisplayPort 1.2, HDMI 1.4a | DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b | ||
TDP, W | 250 | 250 | 375 | 250 | 180 | 250 |
Vejledende udsalgspris på udgivelsestidspunktet (USA, uden afgift), $ | 999 | 999 | 2 999 | 999 | 599/699 | 1 200 |
Anbefalet udsalgspris på udgivelsestidspunktet (Rusland), gnid. | 34 990 | 35 990 | 114 990 | 74 900 | — / 54 990 | — |
Med hensyn til teoretisk ydeevne er TITAN X det første single-GPU-grafikkort, der overstiger 10 TFLOPS i FP32-ydeevne. Af tidligere NVIDIA-produkter var det kun TITAN Z, bygget på et par GK110-chips, der var i stand til dette. På den anden side, i modsætning til Tesla P100 (og på samme måde som GeForce GTX 1060/1070/1080), er TITAN X karakteriseret ved meget beskeden ydeevne i dobbelt (1/32 af FP32) og halv præcision (1/64 af FP32) beregninger, men er i stand til at udføre operationer med int8-tal med en hastighed 4 gange hurtigere end med FP32. Andre GPU'er fra Pascal-familien - GP104 (GeForce GTX 1070 /1080, Tesla P4) og GP106 (GTX 1060) og GP100 (Tesla P100) understøtter også int8 med et ydeevneforhold på 4:1 i forhold til FP32, men vi ved det i øjeblikket ikke hvis dette er begrænset funktionalitet i GeForce gaming grafikkort.
TITAN X er et meget, meget dyrt køb, som kun dem, der virkelig vil have et så perfekt videokort, vil tage stilling til. NVIDIA har hævet prisen med $200 i forhold til tidligere single-socket-modeller under mærket til $1.200. Denne gang distribueres enheden ikke gennem partnere og sælges udelukkende på NVIDIAs hjemmeside i udvalgte lande. Rusland er endnu ikke blandt dem.
⇡ Design
Etuiet til videokortet er lavet i samme stil som produkter under Founders Edition-mærket af GeForce 10-linjen. Kølesystemet med en radial blæser (turbine) er dækket af et metalhus og bagsiden af det trykte kredsløb pladen er beskyttet af en tyk plade. En del af sidstnævnte kan fjernes for at give uhindret luftadgang til køleren på et tilstødende videokort i SLI-tilstand. Det er sjovt, at selvom TITAN X formelt ikke længere tilhører GeForce-familien, er det denne inskription, oplyst af grønne lysdioder, der stadig praler på siden af videokortet.
Kølerens design er det samme som GTX 1070/1080: GPU'en afgiver varme til en heatsink med et fordampningskammer, mens RAM-chips og spændingsomformertransistorer er dækket af en massiv aluminiumsramme, der bærer en separat blok af små finner.
Forresten, som en af ejerne af TITAN X fandt ud af, giver NVIDIA brugere mulighed for at ændre kølesystemet på videokortet til noget mere effektivt (for eksempel LSS) uden at miste garantien.
⇡ Betale
Ligesom referenceversionerne af GTX 1060/1070/1080 har TITAN X-kortet tre DisplayPort-stik og et hver af DVI og HDMI.
Strømsystemet er bygget i henhold til 6 + 1-skemaet (antallet af faser for GPU'en og hukommelseschips). Der bruges to ekstra strømstik - seks- og ottebenet, som sammen med strømledningerne i PCI-Express-stikket giver videokortet en strømreserve på 300 watt.
GDDR5X SDRAM-hukommelsen, som på GeForce GTX 1080, består af Micron D9TXS mikrokredsløb med en standard effektiv frekvens på 10 GHz.
⇡ Teststand, testmetode
Teststandskonfiguration | |
---|---|
CPU | Intel Core i7-5960X @ 4GHz (100×40) |
Bundkort | ASUS RAMPAGE V EXTREME |
vædder | Corsair Vengeance LPX, 2133 MHz, 4 × 4 GB |
Rom | Intel SSD 520 240 GB + Crucial M550 512 GB |
Strømforsyning | Corsair AX1200i 1200W |
CPU kølesystem | Thermalright Archon |
Ramme | CoolerMaster testbænk V1.0 |
Overvåge | NEC EA244UHD |
Operativ system | Windows 10 Pro x64 |
AMD GPU-software | |
Alle | Radeon Software Crimson Edition 16.8.2 Ikke-WHQL |
NVIDIA GPU-software | |
Alle | GeForce Game Ready Driver 372.54 WHQL |
CPU'en kører med en konstant frekvens. I NVIDIA-driverindstillingerne er CPU'en valgt som processor til PhysX-beregning. I AMD-driverindstillingerne er Tesselation-indstillingen blevet flyttet fra AMD Optimized til Use application settings.
Benchmarks: spil | ||||
---|---|---|---|---|
Spil (i rækkefølge efter udgivelsesdato) | API | Indstillinger | Fuldskærms anti-aliasing | |
1920×1080 / 2560×1440 | 3840×2160 | |||
Crysis 3 + FRAPS | DirectX 11 | Maks. kvalitet. Starten på Swamp-missionen | MSAA 4x | Af |
Battlefield 4 + FRAPS | Maks. kvalitet. Starten på Tashgar-missionen | MSAA 4x + FXAA Høj | ||
Metro: Last Light Redux, indbygget benchmark | Maks. kvalitet | SSAA 4x | ||
GTA V, indbygget benchmark | Maks. kvalitet | MSAA 4x + FXAA | ||
DiRT Rally | Maks. kvalitet | MSAA 4x | ||
Rise of the Tomb Raider, indbygget benchmark | DirectX 12 | Maks. kvalitet, VXAO fra | SSAA 4x | |
Tom Clancy's The Division, indbygget benchmark | DirectX 11 | Maks. kvalitet, HFTS fra | SMAA 1x Ultra | |
HITMAN, indbygget benchmark | DirectX 12 | Maks. kvalitet | SSAA 4x | |
Ashes of the Singularity, indbygget benchmark | DirectX 12 | Maks. kvalitet | MSAA 4x + Temporal AA 4x | |
DOM | Vulkan | Maks. kvalitet. Mission Støberi | TSSAA 8TX | |
Total War: WARHAMMER, indbygget benchmark | DirectX 12 | Maks. kvalitet | MSAA 4x |
Benchmarks: videoafkodning, databehandling | |
---|---|
Program | Indstillinger |
DXVA Checker, Decode Benchmark, H.264 | Filer 1920 × 1080p (Høj profil, L4.1), 3840 × 2160p (Høj profil, L5.1). Microsoft H264 videodekoder |
DXVA Checker, Decode Benchmark, H.265 | Filer 1920 × 1080p (Hovedprofil, L4.0), 3840 × 2160p (Hovedprofil, L5.0). Microsoft H265 videodekoder |
LuxMark 3.1x64 | Hotellobbyscenen (kompleks benchmark) |
Sony Vegas Pro 13 | Sony benchmark for Vegas Pro 11, 65s varighed, gengivet i XDCAM EX, 1920×1080p 24Hz |
SiSoftware Sandra 2016 SP1, GPGPU Scientific Analysis | OpenCL, FP32/FP64 |
CompuBench CL Desktop Edition X64, Ocean Surface Simulation | — |
CompuBench CL Desktop Edition X64, partikelsimulering—64K | — |
⇡ Test deltagere
Følgende videokort deltog i ydeevnetest:
- NVIDIA TITAN X (1417/10000 MHz, 12 GB);
⇡ Ydeevne: 3DMark
Syntetiske test viser en gennemsnitlig fordel ved TITAN X i forhold til GeForce GTX 1080 med 25 %. Sammenlignet med den tidligere generation af TITAN-mærket, samt Radeon R9 Fury X, tilbyder det nye flagskib 61-63 % højere ydeevne og mere end det dobbelte af ydeevnen sammenlignet med den første version af TITAN baseret på Kepler-arkitekturen. En ret høj position sammenlignet med NVIDIA-acceleratoren har Radeon R9 295X2 - det nye produkt er kun 18% hurtigere i 3DMark.
3DMark (Graphics Score) | |||||||
---|---|---|---|---|---|---|---|
Tilladelse | |||||||
brandangreb | 1920×1080 | 26 341 | 10 449 | 17 074 | 21 648 | 23 962 | 16 279 |
Fire Strike Extreme | 2560×1440 | 13 025 | 4 766 | 7 945 | 10 207 | 10 527 | 7 745 |
Fire Strike Ultra | 3840×2160 | 6 488 | 2 299 | 4 011 | 4 994 | 5 399 | 3 942 |
tidsspion | 2560×1440 | 8 295 | 2 614 | 4 935 | 6 955 | 7 186 | 5 084 |
Maks. | −60% | −35% | −16% | −9% | −38% | ||
Gennemsnit | −64% | −38% | −20% | −15% | −39% | ||
Min. | −68% | −41% | −23% | −19% | −41% |
⇡ Ydeevne: spil (1920×1080, 2560 × 1440)
I test med en relativt lav opløsning for en så kraftig GPU overgår den nye TITAN X GeForce GTX 1080 med 15-20 % (fra henholdsvis 1080p til 1440p) i gennemsnitlige resultater. Det nye flagskib ser endnu mere imponerende ud i sammenligning med de bedste acceleratorer i 28 nm-perioden: det er 47-56 % hurtigere end GeForce GTX TITAN X baseret på GM200 og 67-72 % foran Radeon R9 Fury X.
Hvis vi tager den allerførste TITAN af Kepler-generationen, så taler vi om en mere end fordobling af ydeevnen.
1920×1080 | |||||||
---|---|---|---|---|---|---|---|
Fuldskærms anti-aliasing | NVIDIA TITAN X (1417/10000MHz, 12GB) | NVIDIA GeForce GTX TITAN (837/6008MHz, 6GB) | NVIDIA GeForce GTX TITAN X (1000/7012MHz, 12GB) | NVIDIA GeForce GTX 1080 (1607/10008 MHz, 8 GB) | AMD Radeon R9 295X2 (1018/5000MHz, 8GB) | AMD Radeon R9 Fury X (1050/1000MHz, 4GB) | |
Singularitetens aske | MSAA 4x | 47 | 20 | 31 | 42 | 34 | 26 |
Battlefield 4 | MSAA 4x + FXAA Høj | 162 | 71 | 118 | 149 | 134 | 94 |
Crysis 3 | MSAA 4x | 99 | 45 | 65 | 79 | 90 | 60 |
DiRT Rally | MSAA 4x | 126 | 57 | 83 | 101 | 97 | 65 |
DOM | TSSAA 8TX | 200 | 69 | 151 | 185 | 122 | 156 |
gta v | MSAA 4x + FXAA | 85 | 44 | 68 | 84 | 76 | 52 |
LEJEMORDER | SSAA 4x | 68 | 21 | 39 | 52 | 24 | 33 |
Metro: Last Light Redux | SSAA 4x | 124 | 47 | 73 | 92 | 94 | 70 |
Rise of the Tomb Raider | SSAA 4x | 70 | 28 | 47 | 62 | 55 | 41 |
Tom Clancy's The Division | SMAA 1x Ultra | 87 | 35 | 59 | 80 | 57 | 58 |
Total krig: WARHAMMER | MSAA 4x | 76 | 38 | 56 | 73 | 37 | 49 |
Maks. | −48% | −20% | −0% | −9% | −22% | ||
Gennemsnit | −58% | −32% | −13% | −29% | −40% | ||
Min. | −69% | −43% | −26% | −65% | −51% |
2560×1440 | |||||||
---|---|---|---|---|---|---|---|
Fuldskærms anti-aliasing | NVIDIA TITAN X (1417/10000MHz, 12GB) | NVIDIA GeForce GTX TITAN (837/6008MHz, 6GB) | NVIDIA GeForce GTX TITAN X (1000/7012MHz, 12GB) | NVIDIA GeForce GTX 1080 (1607/10008 MHz, 8 GB) | AMD Radeon R9 295X2 (1018/5000MHz, 8GB) | AMD Radeon R9 Fury X (1050/1000MHz, 4GB) | |
Singularitetens aske | MSAA 4x | 39 | 16 | 24 | 33 | 27 | 21 |
Battlefield 4 | MSAA 4x + FXAA Høj | 109 | 47 | 75 | 98 | 95 | 65 |
Crysis 3 | MSAA 4x | 63 | 27 | 40 | 53 | 59 | 39 |
DiRT Rally | MSAA 4x | 93 | 40 | 60 | 74 | 71 | 48 |
DOM | TSSAA 8TX | 166 | 45 | 95 | 126 | 82 | 107 |
gta v | SMAA | 67 | 31 | 48 | 63 | 61 | 39 |
LEJEMORDER | MSAA 4x + FXAA | 43 | 13 | 24 | 33 | 12 | 17 |
Metro: Last Light Redux | SSAA 4x | 71 | 26 | 43 | 52 | 54 | 43 |
Rise of the Tomb Raider | Ikke understøttet | 44 | 16 | 28 | 38 | 23 | 27 |
Tom Clancy's The Division | SSAA 4x | 63 | 24 | 43 | 58 | 45 | 44 |
Total krig: WARHAMMER | SMAA 1x høj | 57 | 26 | 39 | 50 | 25 | 34 |
Maks. | −53% | −29% | −6% | −6% | −30% | ||
Gennemsnit | −61% | −36% | −16% | −33% | −42% | ||
Min. | −73% | −44% | −27% | −72% | −60% |
Bemærk:
⇡ Ydeevne: spil (3840×2160)
Når du flytter fra 1440p til 4K, forbliver forholdet mellem NVIDIA-grafikkort det samme. TITAN X er 20 % hurtigere end GeForce GTX 1080 og 56 % hurtigere end Maxwell-baserede TITAN X.
Radeon R9 Fury X, som er typisk for denne model, klarer mere effektivt tests i 4K, hvilket i sidste ende reducerede fordelen ved "Titan" til 56%.
3840×2160 | |||||||
---|---|---|---|---|---|---|---|
Fuldskærms anti-aliasing | NVIDIA TITAN X (1417/10000MHz, 12GB) | NVIDIA GeForce GTX TITAN (837/6008MHz, 6GB) | NVIDIA GeForce GTX TITAN X (1000/7012MHz, 12GB) | NVIDIA GeForce GTX 1080 (1607/10008 MHz, 8 GB) | AMD Radeon R9 295X2 (1018/5000MHz, 8GB) | AMD Radeon R9 Fury X (1050/1000MHz, 4GB) | |
Singularitetens aske | Af | 45 | 20 | 29 | 41 | 38 | 37 |
Battlefield 4 | 84 | 35 | 57 | 74 | 72 | 52 | |
Crysis 3 | 42 | 18 | 28 | 36 | 40 | 29 | |
DiRT Rally | 65 | 26 | 41 | 50 | 48 | 33 | |
DOM | 92 | 24 | 51 | 68 | 45 | 57 | |
gta v | 55 | 25 | 39 | 51 | 49 | 34 | |
LEJEMORDER | 67 | 21 | 38 | 53 | 24 | 33 | |
Metro: Last Light Redux | 64 | 23 | 38 | 47 | 47 | 38 | |
Rise of the Tomb Raider | 50 | 19 | 33 | 44 | 37 | 31 | |
Tom Clancy's The Division | 38 | 15 | 25 | 33 | 26 | 28 | |
Total krig: WARHAMMER | 43 | 20 | 30 | 38 | 20 | 32 | |
Maks. | −53% | −29% | −7% | −5% | −18% | ||
Gennemsnit | −61% | −36% | −16% | −29% | −36% | ||
Min. | −74% | −45% | −27% | −64% | −51% |
Bemærk: Total War: WARHAMMER understøtter ikke DirectX 12 til GeForce GTX TITAN.
⇡ Ydeevne: videoafkodning
GP102 integrerer den samme hardware-codec som de to junior-GPU'er i Pascal-familien, så TITAN X demonstrerer afkodningshastigheden for H.264- og HEVC-standarderne på niveau med GeForce GTX 1080, justeret til lavere GPU-clockhastigheder. Pascals ydeevne i denne opgave er uovertruffen, både sammenlignet med NVIDIA-codecs i Maxwell-chips og dem i AMD Polaris.
Bemærk: da dekodere normalt ikke adskiller sig inden for den samme GPU-linje, viser diagrammerne én enhed fra hver familie (eller flere, hvis denne regel overtrædes).
Bemærk. 2: GeForce GTXTITAN x, ligesom andre enheder baseret på Maxwell GPU-arkitekturen, med undtagelse af GM204 (GeForce GTX 950/960), udfører delvis H.265-hardwareafkodning sikkerhedskopieret af CPU-ressourcer.
⇡ Ydelse: Computing
Forholdet mellem forskellige arkitekturer i GPGPU-opgaver afhænger af hver enkelt applikations specifikationer. TITAN X giver forudsigelige præstationsgevinster i forhold til GeForce GTX 1080 for det meste, men der er ekstraordinære tilfælde, hvor opgaven hviler på frekvensen af GPU'en (som partikelfysiktesten i CompuBench CL og gengivelse i Sony Vegas): her fordel er på siden af GTX 1080. Tværtimod tog den nye TITAN X hævn i en situation, hvor GeForce GTX 1080 er ringere end den Maxwell-baserede TITAN X og Radeon R9 Fury X (ray-tracing i LuxMark).
I SiSoftware Sandras Matrix Multiplication og Fast Fourier Transform test udmærker TITAN X sig i FP32-tilstand. Med hensyn til FP64, simpelthen på grund af brute force (et stort antal CUDA-kerner og høje clock-hastigheder), opnåede acceleratoren højere ydeevne end den originale TITAN fra Kepler-generationen og Radeon R9 Fury X - videokort, der har et mere fordelagtigt forhold ydeevne med FP32 og FP64. Dette udelukker i sidste ende ikke helt TITAN X som en opgaveaccelerator med dobbelt præcision. Radeon R9 295X2 er dog bedst egnet til dette formål. AMD-skærmkort har også stærke positioner i nogle andre test: vandoverfladeberegning i CompuBench CL og Sony Vegas.
⇡ Urhastigheder, strømforbrug, temperatur, overclocking
Under spilbelastning når TITAN X GPU'en periodisk de samme høje clockhastigheder som GP104 i GTX 1080 (1848 vs. 1860 MHz), men det meste af tiden forbliver den i et væsentligt lavere område (1557-1671 MHz). Samtidig er den maksimale GPU-forsyningsspænding 1,062 V (1,05 V i GTX 1080).
CO-blæseren roterer med hastigheder op til 2472 rpm. Kortet kræver stærkere køling end GTX 1080, og da kølerdesignet er forblevet uændret, skaber det mere støj. For at kompensere for denne faktor er TITAN X blevet indstillet til en 3°C højere mål-GPU-temperatur.
Selvom Pascal-baserede TITAN X teknisk set har samme TDP som den forrige generation TITAN X, udvikler et system med et nyt grafikkort i praksis markant mere effekt (med 49 W). Den øgede belastning af CPU'en, som betjener en mere effektiv grafikprocessor, kan dog spille en rolle her. I FurMark er alle acceleratorer med en TDP på 250W (samt 275W Fury X) derimod på samme niveau.
For at overclocke Titan udnyttede vi lagerevnen til at øge grafikkortets effektgrænse med 20 %, køre CO-turbinen ved fuld hastighed (4837 rpm) og øge den maksimale GPU-spænding til 1.093 V (samme værdi som på GTX 1080). Som et resultat var vi i stand til at hæve basis-GPU-frekvensen med 200 MHz til 1617 MHz og den effektive hukommelsesfrekvens til 11100 MHz.
Dette alene er ikke dårligt for så stor en chip, men den øgede effektgrænse er ikke mindre vigtig. Den overclockede GPU understøtter frekvenser i intervallet 1974-1987 MHz, der topper på 2063 MHz, hvilket er intet mindre end en fantastisk præstation. Til sammenligning: spidsfrekvensen af GPU'en i vores GTX 1080-instans under overclocking var 2126 MHz.
Et system med en overclocket TITAN X leverer 46W mere strøm end det almindelige grafikkort. Blæseren skruet op til maksimal hastighed sænkede GPU-temperaturen med 17-20°C, hvilket giver brugerne mulighed for at forvente lige så effektiv overclocking ved lavere hastigheder, hvilket giver et relativt behageligt støjniveau.
⇡ Ydelse: Overclocking
Overclocking af TITAN X giver mulighed for en meget betydelig stigning i ydeevnen - med 14% i 3DMark og med 18-23% i gaming benchmarks ved 1080p og 1440p opløsninger. I spil med 4K-opløsning når bonussen op på 26%.
Forskellen mellem en overclocket TITAN X og en GeForce GTX 1080, der kører på referencefrekvenser, når chokerende værdier - 36, 47 og 50% i de tre opløsninger, vi brugte. Selve GTX 1080 er selvfølgelig også underlagt overclocking, men som vi husker fra vores gennemgang af referenceskærmkortet, tilføjer dette kun 9, 13 og 12 % til resultaterne. Hvis vi således sammenligner det overclockede flagskib i GeForce 10-linjen og den overclockede TITAN X, vil fordelen ved sidstnævnte være 25, 30 og 34%.
Ved at bruge vores gamle ydeevnedata for GeForce GTX TITAN X på GM200-chippen i overclocking vil vi lave lignende beregninger for at sammenligne to generationer af Titans. Den overclockede TITAN X på Pascal er foran sin forgænger med 75, 93 og 97%. Når begge acceleratorer er overclocket, bevarer nyheden et forspring på 74 og 70 % ved 1440p og 2160p opløsninger. Vi (som læsere, der kritiserede denne beslutning, vil huske) nægtede at teste i 1080p-tilstand i GeForce GTX TITAN X-anmeldelsen.
3DMark (Graphics Score) | ||||||
---|---|---|---|---|---|---|
Tilladelse | NVIDIA GeForce GTX 1080 (1607/10008 MHz, 8 GB) | NVIDIA TITAN X (1417/10000MHz, 12GB) | ||||
brandangreb | 1920×1080 | 21 648 | 26 341 | 31 038 | ||
Fire Strike Extreme | 2560×1440 | 10 207 | 13 025 | 15 191 | ||
Fire Strike Ultra | 3840×2160 | 4 994 | 6 488 | 7 552 | ||
tidsspion | 2560×1440 | 6 955 | 8 295 | 8 644 | ||
Maks. | +30% | +51% | ||||
Gennemsnit | +25% | +42% | ||||
Min. | +19% | 101 | 126 | 126 | ||
DOM | TSSAA 8TX | 185 | 200 | 200 | ||
gta v | MSAA 4x + FXAA | 84 | 85 | 96 | ||
LEJEMORDER | SSAA 4x | 52 | 68 | 77 | ||
Metro: Last Light Redux | SSAA 4x | 92 | 124 | 140 | ||
Rise of the Tomb Raider | SSAA 4x | 62 | 70 | 94 | ||
Tom Clancy's The Division | SMAA 1x Ultra | 80 | 87 | 117 | ||
Total krig: WARHAMMER | MSAA 4x | 73 | 76 | 88 | ||
Maks. | +35% | +57% | ||||
Gennemsnit | +16% | +36% | ||||
Min. | +0% | +8% |
2560×1440 | ||||
---|---|---|---|---|
Fuldskærms anti-aliasing | NVIDIA GeForce GTX 1080 (1607/10008 MHz, 8 GB) | NVIDIA TITAN X (1417/10000MHz, 12GB) | NVIDIA TITAN X (1617/11110MHz, 12GB) | |
Singularitetens aske | MSAA 4x | 33 | 39 | 48 |
Battlefield 4 | MSAA 4x + FXAA Høj | 98 | 109 | 146 |
Crysis 3 | MSAA 4x | 53 | 63 | 81 |
DiRT Rally | MSAA 4x | 74 | 93 | 93 |
DOM | TSSAA 8TX | 126 | 166 | 183 |
gta v | SMAA | 63 | 67 | 86 |
LEJEMORDER | MSAA 4x + FXAA | 33 | 43 | 49 |
Metro: Last Light Redux | SSAA 4x | 52 | 71 | 82 |
Rise of the Tomb Raider | Ikke understøttet | 38 | 44 | 59 |
Tom Clancy's The Division | SSAA 4x | 58 | 63 | 86 |
Total krig: WARHAMMER | SMAA 1x høj | 50 | 57 | 74 |
Maks. | +36% | +58% | ||
Gennemsnit | +20% | +47% | ||
Min. | ||||
DOM | 68 | 92 | 104 | |
gta v | 51 | 55 | 75 | |
LEJEMORDER | 53 | 67 | 77 | |
Metro: Last Light Redux | 47 | 64 | 74 | |
Rise of the Tomb Raider | 44 | 50 | 69 | |
Tom Clancy's The Division | 33 | 38 | 52 | |
Total krig: WARHAMMER | 38 | 43 | 58 | |
Maks. | +37% | +59% | ||
Gennemsnit |
Navn- ing | Radeon R9 290X | Radeon R9 295X2 | GeForce GTX 780 Ti | GeForce GTX Titan | GeForce GTX Titan Sort | GeForce GTX Titan Sort Z | GeForce GTX 980 | GeForce GTX Titan X |
kodenavn | Hawaii XT | Hawaii XT | GK110 | GK110 | GK110 | GK110 | GM204 | GM200 |
Version | GCN 1.1 | GCN 1.1 | Kepler | Kepler | Kepler | Kepler | Maxwell 2.x | Maxwell 2.x |
Procesteknologi, nm | 28 | 28 | 28 | 28 | 28 | 28 | 28 | 28 |
Kernestørrelse/kerner, mm 2 | 438 | 438x2 | 521 | 521 | 521 | 521x2 | 398 | – |
Antal transistorer, mio | 6200 | 6200x2 | 7100 | 7100 | 7100 | 7100x2 | 5200 | 8000 |
Kernefrekvens, MHz | – | – | 880 | 840 | 890 | 700 | 1126 | 1000 |
Kernefrekvens (Turbo), MHz | 1000 | 1018 | 930 | 880 | 980 | 880 | 1216 | 1075 |
Antal shaders (PS), stk. | 2816 | 5632 | 2880 | 2688 | 2880 | 5760 | 2048 | 3072 |
Antal teksturenheder (TMU), stk. | 176 | 352 | 240 | 224 | 240 | 480 | 128 | 192 |
Antal rasteriseringsblokke (ROP), stk. | 64 | 128 | 48 | 48 | 48 | 96 | 64 | 96 |
Maksimal fyldehastighed, Gpix/s | 64 | 130 | 42 | 40.2 | 42.7 | 84.6 | 72 | – |
Maksimal teksturhentningshastighed, Gtex/s | 176 | 358 | 210.2 | 187.5 | 213.4 | 338 | 144.1 | 192 |
Hukommelsestype | GDDR5 | GDDR5 | GDDR5 | GDDR5 | GDDR5 | GDDR5 | GDDR5 | GDDR5 |
Effektiv hukommelsesfrekvens, MHz | 5000 | 5000 | 7000 | 6000 | 7000 | 7000 | 7000 | 7000 |
Hukommelsesstørrelse, GB | 4 | 4 + 4 | 3 | 6 | 6 | 6 + 6 | 4 | 12 |
Hukommelsesbus, bit | 512 | 512 + 512 | 384 | 384 | 384 | 384 + 384 | 256 | 384 |
Hukommelsesbåndbredde, GB/s | 320 | 320 + 320 | 336 | 288.4 | 336 | 336 + 336 | 224.3 | 336.5 |
Strøm, benstik | 6 + 8 | 8 + 8 | 6 + 8 | 6 + 8 | 6 + 8 | 8 + 8 | 6 + 6 | 6 + 8 |
Strømforbrug (2D / 3D), Watt | -/290 | -/500 | -/250 | -/250 | -/250 | -/375 | -/165 | -/250 |
CrossFire/Sli | V | V | V | V | V | V | V | V |
Annoncepris, $ | 550 | 1500 | 700 | 1000 | 1000 | 3000 | 550 | 999 |
Model til udskiftning | – | HD 7990 | GTX 780 | – | GTX Titan | GTX 690 | GTX 780 Ti | Titan Black |
Og lad os nu tale om prisen og den russiske virkelighed, da tabellen viser de anslåede omkostninger ved videokortet. Trods meddelelsen havde Nvidia i skrivende stund endnu ikke færdiggjort prisskiltet, så anmelderne kan kun gætte. Det er svært at drage konklusioner uden sådanne oplysninger.
Formentlig vil målprisen for nye varer være i intervallet $1000-1300. Lad os sige, at det koster præcis tusind dollars. I butikker omdannes et sådant prismærke til mindst 65.000 rubler, hvilket automatisk indsnævrer kredsen af potentielle forbrugere til en eller to personer om måneden. Samtidig slog den høje dollarkurs ud af ansøgerne til køb af både GeForce GTX 970 og GeForce GTX 980 - alle er de nu simpelthen uden for rækkevidde af en almindelig gamer. Og ja, GeForce GTX Titan X vil være hurtig.
I lyset af disse begivenheder vil mange brugere enten foretrække slet ikke at opgradere eller spare penge og købe en brugt model, hvilket er ret logisk og berettiget. Det betyder, at de fleste entusiaster vil opfatte anmeldelsen af GeForce GTX Titan X som et sæt af store tal.
Nye 3D-teknologier
Udover VXGI-understøttelse, forskellige anti-aliasing-metoder, den sædvanlige GPU Boost og meget mere, begynder GeForce GTX Titan X, ligesom alle tidligere Nvidia-grafikkort, så småt at forberede sig til 3D virtual reality-briller. Hovedproblemet med eksisterende 3D-enheder er den høje responstid. Sammenfattende mener vi med dette koncept responstiden for matricen, responstiden for gyroskoper, tidspunktet for transmission af grafisk information fra acceleratoren til brillerne. Oculus har gjort store fremskridt i år, ikke mindst hjulpet af annonceringen af DirectX 12, men der forventes ikke mindre arbejde fra grafikudviklere.
Det er præcis, hvad Nvidia har gjort ved at optimere softwaren. Selvom jeg ikke er sikker på, at dette vil påvirke hele modeludvalget, vil innovationerne højst sandsynligt kun påvirke den sidste generation. Og hvad er problemet egentlig? Oculus-teknologien er en enkelt displaykilde opdelt i to synlige zoner. Den aktuelle situation, på grund af den høje gengivelsesforsinkelse af billedet i hjelmen, gør en person svimmel og ofte kvalme. Forestil dig, at du er "forvirret", det er præcis sådan, du vil føle dig om 10-30 minutter efter at have spillet et dynamisk spil i Oculus-briller.
- VR SLI - to videokort fungerer separat med hvert øje i briller. Den samlede hastighed øges, hvilket reducerer svimmelhed.
- Asynkron tilstand til ét videokort. Data fra gyroskoperne overføres til grafikacceleratoren, og det næste billede genberegnes kun delvist, hvilket sparer systemressourcer.
Hvor meget innovationer forbedrer fornemmelserne er svært at svare på, i hvert fald indtil du selv tjekker det. Ak, på tidspunktet for annonceringen var der ingen hjelme til pressen, så vi kan kun tage vores ord for det.