Carte Titan X. Examen et test de la carte graphique NVIDIA TITAN X Super : supériorité démontrée
Le printemps n'est pas seulement le moment du réveil de la nature, mais aussi le moment de l'annonce traditionnelle de la carte vidéo phare à puce unique de la gamme Titan. Et même si la première démonstration de la NVIDIA GeForce GTX Titan X était inattendue, cette annonce était entourée de nombreuses rumeurs. Il y a quelques jours, il y a eu une présentation officielle de cette carte vidéo, pendant plusieurs jours nous avons eu l'occasion de l'étudier en détail. De quoi peut-elle se vanter, voyons plus loin.
NVIDIA GeForce GTX Titan X est devenu le quatrième de la gamme et le troisième "titan" sur un système à puce unique. Je vous rappelle que la GeForce GTX Titan Z à deux GPU se démarque. Bien sûr, nous comprenons que de tels systèmes ne peuvent pas être qualifiés de "populaires", mais même en l'absence de dollars 1000-1300, cette revue peut être intéressante pour se familiariser avec l'architecture Maxwell dans sa mise en œuvre maximale aujourd'hui. Comme prévu, il est basé sur le cœur GM200, la deuxième génération de cette architecture. Il est livré avec PolyMorph Engine 3.0 avec prise en charge du niveau de fonctionnalité Direct3D 12 et de la technologie d'éclairage global accélérée par le matériel. Peut-être que ce sera la percée dans le réalisme et les graphismes que l'industrie du jeu attend depuis si longtemps ?
Le GM200 contient 8 milliards de transistors, 256 ROP, 3072 CUDA et un bus mémoire 384 bits. Toutes ces armes visent à prendre en charge la résolution 4K et à améliorer les performances 3D. La fréquence centrale de base est : 1000 MHz, Boost Clock - 1076 MHz. La mémoire fonctionne à une fréquence de 7012 MHz. Il y a 12 Go de mémoire graphique à bord, ce qui n'était pas disponible pour les cartes graphiques destinées aux joueurs avant la sortie du Titan X.
Revue vidéo NVIDIA GeForce GTX Titan X
Apparence
NVIDIA GeForce GTX Titan X n'est pas devenu une révolution dans la conception des cartes vidéo haut de gamme, l'apparence a peu changé. Un système de refroidissement par air est utilisé, qui répète extérieurement ce que nous avons vu précédemment.
Les modifications ici sont petites, elles se limitent à un changement de couleur de la coque. Maintenant, il est presque entièrement peint en noir.
La carte vidéo est dépourvue de carte d'amplification au dos de la carte de circuit imprimé. Je vous rappelle que c'était dans le design de référence de la GeForce GTX 980.
Sur le panneau arrière sont affichés : trois DisplayPort, HDMI et DVI. Trois connecteurs peuvent fonctionner en mode espace de travail partagé, mais vous pouvez connecter les 5 connecteurs en même temps. La même approche est appliquée sur toute la ligne 900.
Logo NVIDIA GeForce GTX lumineux sur le côté. Malheureusement, les images spectaculaires du ventilateur rougeoyant ne sont que des photographies.
Refroidissement
La conception du système de refroidissement installé reprend celui utilisé dans la GeForce GTX 780 Ti.
La chambre d'évaporation est utilisée, ce qui s'est avéré être un côté solide lors de l'évacuation d'une grande quantité de chaleur vers le radiateur.
Le système est pliable, vous pouvez donc retirer complètement le diffuseur de chaleur, il peut être utile pour installer un système de refroidissement par eau.
Remplissage
Le système d'alimentation a également migré, malgré la mention du changement, lors de l'inspection, il s'agit toujours des mêmes condensateurs et selfs. Même le contrôleur PWM nous est familier - NCP4206.Mais je ne vais pas dramatiser, nous n'avons pas pu trouver nous-mêmes le bruit et le grincement, qui ont été mentionnés dans les commentaires d'un certain nombre de cartes vidéo, même lors de charges à long terme.
La barre d'augmentation de la tension a également été conservée. Dans NVIDIA GeForce GTX Titan X, il peut être augmenté jusqu'à 25 W (TDP 250 W/275 W).
12 Go de puces mémoire SKhynix avec une fréquence de 1750 MHz sont soudées, il y en a 24 au total.
Test de NVIDIA GeForce GTX Titan X
Un banc d'essai a été utilisé.
Modèle | Données |
---|---|
Cadre | Aerocool Strike-X Air |
Carte mère | Biostar Hi-Fi Z87X 3D |
CPU | Intel Core i5-4670K Haswell |
Refroidisseur de processeur | Deep Cool Ice Lame Pro v2.0 |
carte vidéo | Inno3D iChill GeForce GTX 780Ti HerculeZ X3 Ultra |
RAM | Corsair CMX16GX3M2A1600C11 Kit DDR3-1600 16 Go CL11 |
Disque dur | ADATA XPG SX900 256 Go |
Disque dur 2 | WD Rouge WD20EFRX |
Unité de puissance | Aérocool Templarius 750W |
adaptateur Wi-Fi | TP-LINK TL-WDN4800 |
l'audio | Creative Sound Blaster EVO sans fil |
Moniteur | iiyama ProLite E2773HDS |
Moniteur 2 | Philips 242G5DJEB |
souris | ROCCAT Kone XTD |
Clavier | Razer Black Widow Chroma |
Stabilisateur | Sven AVR PRO LCD 10000 |
système opérateur | Microsoft Windows Édition Intégrale 8 64 bits |
Dans tous les tableaux ci-dessous, les données sont données en utilisant les paramètres d'usine, les logiciels propriétaires des fabricants ne sont pas installés. La mémoire et les fréquences centrales ne sont pas non plus affectées afin d'exclure l'influence de facteurs étrangers.
1. Régime de température de la carte vidéo
- NVIDIA GeForce GTX Titan X - 31/83
- Inno3D iChill GeForce GTX 960 Ultra - 29/44
- GeForce GTX 980 - 34/79
- GeForce GTX 770 - 35/80
- GeForce GTX 780 - 35/77
- GeForce GTX 760 - 35/84
2. Bruit
- NVIDIA GeForce GTX Titan X - 36/42
- GeForce GTX 980 - 34/79
3. Consommation électrique
- NVIDIA GeForce GTX Titan X-405
- Inno3D iChill GeForce GTX 960 Ultra - 260
- GeForce GTX 980 - 295
- Inno3D iChill GeForce GTX 780Ti HerculeZ X3 Ultra - 340
- NVIDIA GeForce GTX Titan X - 7133
- Inno3D iChill GeForce GTX 960 Ultra - 3522
- GeForce GTX 980 - 6050
- Inno3D iChill GeForce GTX 780Ti HerculeZ X3 Ultra - 6190
C'est l'heure des tests les plus spectaculaires, les mesures FPS dans les jeux gourmands en ressources. Nous accompagnons un certain nombre de tables avec des vidéos visuelles avec des enregistrements pendant le match. Les données sont capturées en résolution Full HD avec les paramètres Ultra. Il convient de noter qu'à un certain nombre de moments dans les vidéos, les données FPS réelles sont inférieures à celles obtenues lors des tests, cela est dû au coût des ressources pour l'enregistrement vidéo. Pour cette carte vidéo, nous avons testé séparément le travail à une résolution de 3840x2160 sur les paramètres Ultra.
6. Crysis 3
Crysis 3 - 3840x2160 - Très élevé 4xAA - 22.
- Inno3D iChill GeForce GTX 960 Ultra - 45
- GeForce GTX 980-69
- Inno3D iChill GeForce GTX 780Ti HerculeZ X3 Ultra - 61
- GeForce GTX 770-43
- GeForce GTX 780-47
7. Champ de bataille 4
Champ de bataille 4 - 3840x2160 - Ultra - 39
- NVIDIA GeForce GTX Titan X-75
- Inno3D iChill GeForce GTX 960 Ultra - 52
- GeForce GTX 980-91
- Inno3D iChill GeForce GTX 780Ti HerculeZ X3 Ultra - 82
8. Tueur à gages : Absolution
Un jeu très exigeant, basé sur le moteur Glacier 2. L'appétit du jeu fait l'envie des autres nouveautés de l'année.
Hitman: Absolution - 3840x2160 - Haut, 2x MSAA, 16x AF - 46
- NVIDIA GeForce GTX Titan X-95
- Inno3D iChill GeForce GTX 960 Ultra - 44/li>
- GeForce GTX 980-70
- Inno3D iChill GeForce GTX 780Ti HerculeZ X3 Ultra - 62
- GeForce GTX 770-43
- GeForce GTX 780-55
- GeForce GTX 760-41
9. La dernière lumière du métro
Un autre jeu exigeant en matériel qui utilise DirectX 11 et la tessellation.
Metro Last Light - 3840x2160 - Très haut - 35
10Terre du Milieu : Mordor de l'Ombre
- Inno3D iChill GeForce GTX 960 Ultra - 51
- GeForce GTX 980-111
11. Tomb Raider
- NVIDIA GeForce GTX Titan X - 156
- Palit GeForce GTX 960 Super JetStream - 64
- Inno3D iChill GeForce GTX 960 Ultra - 68
- GeForce GTX 980-100
12. Chiens de garde Ultra 4x AA
- NVIDIA GeForce GTX Titan X-80
- Inno3D iChill GeForce GTX 960 Ultra - 49
- GeForce GTX 980-62
13. Total War : Rome II Extrême
- NVIDIA GeForce GTX Titan X-79
- Inno3D iChill GeForce GTX 960 Ultra - 41
- GeForce GTX 980-70
14. GRID Autosport Ultra 4x MSAA
- NVIDIA GeForce GTX Titan X - 154
- Inno3D iChill GeForce GTX 960 Ultra - 80
- GeForce GTX 980-128
15. Le monde des chars
- NVIDIA GeForce GTX Titan X - 124
- Palit GeForce GTX 960 Super JetStream - 71
- Inno3D iChill GeForce GTX 960 Ultra - 75
- GeForce GTX 980-116
16. Monde des navires de guerre
Il s'agit d'une nouvelle section de nos tests, alors que le nombre de cartes vidéo testées est limité, un matériel complet sera présenté d'ici la fin du mois de mars. Il est difficile d'évaluer World of Warships en termes d'efficacité graphique, mais en général, ces données peuvent être utiles lors de la construction d'un système spécifiquement pour les jeux Wargaming.
- NVIDIA GeForce GTX Titan X-72
- Inno3D iChill GeForce GTX 780Ti - 72
- Palit GeForce GTX 960 Super JetStream - 59
- Radeon R9 280x - 70
- Radeon R9 280x - 70
Overclocking
Par tradition, nous ne sommes pas limités aux tests à des fréquences standard. Pour l'overclocking, MSI Afterburner est la dernière version au moment des tests. Pour la NVIDIA GeForce GTX Titan X, nous avons pu obtenir les résultats suivants sans augmenter la tension du cœur :Pour comparer l'augmentation des performances, un test synthétique 3D Mark FireStrike est utilisé :
Il existe un potentiel d'overclocking supplémentaire à l'augmentation de tension maximale. La fréquence centrale peut être portée à 1202 MHz et 7806 MHz par mémoire. Ici, la barre de température maximale monte à 88 degrés.
Résultats NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X a montré une augmentation des performances dans un contexte de faible consommation d'énergie. Avec l'alignement actuel des forces, c'est la performance maximale sur un système monopuce. Les réponses adéquates d'AMD Radeon n'ont pas encore été annoncées. En alternative, on peut envisager les GTX 780 Ti, GTX 980 en mode SLI, Radeon R9 290X, qui reste d'actualité. Il sera également intéressant pour le rendu vidéo.NVIDIA GeForce GTX Titan X remporte une médaille d'or bien méritée.
Nvidia Geforce GTX Titan X
L'accélérateur monoprocesseur le plus puissant
- Partie 2 - Connaissance pratique
En raison de la réception tardive d'un échantillon de test du nouvel accélérateur (et du logiciel correspondant), ainsi que de la participation de notre auteur Alexei Berillo aux travaux de GTC, des parties de cette revue sont consacrées à l'architecture du nouveau Nvidia produit et l'analyse des tests synthétiques seront publiés plus tard (dans environ une semaine). Et maintenant, nous présentons un matériel qui informe les lecteurs des fonctionnalités de la carte vidéo, ainsi que des résultats des tests de jeu.
Dispositifs)
Nvidia Geforce GTX Titan X 12288 Mo 384 bits GDDR5 PCI-E | ||
---|---|---|
Paramètre | Signification | Valeur nominale (référence) |
GPU | Geforce GTX Titan X (GM200) | |
Interface | PCI Express x16 | |
Fréquence de fonctionnement du GPU (ROP), MHz | 1000—1075 | 1000—1075 |
Fréquence mémoire (physique (effective)), MHz | 1750 (7000) | 1750 (7000) |
Largeur du bus d'échange de mémoire, bit | 384 | |
Le nombre d'unités de calcul dans le GPU / la fréquence des blocs, MHz | 24/1000—1075 | 24/1000—1075 |
Nombre d'opérations (ALU) par bloc | 128 | |
Total des opérations (ALU) | 3072 | |
Nombre d'unités de texturation (BLF/TLF/ANIS) | 192 | |
Nombre de blocs de rastérisation (ROP) | 96 | |
Dimensions, mm | 270×100×35 | 270×100×35 |
Le nombre d'emplacements de l'unité centrale occupés par la carte vidéo | 2 | 2 |
Couleur textolite | noir | noir |
Consommation électrique (pic en mode 3D/en mode 2D/en mode "veille"), W | 257/98/14 | 257/98/14 |
Niveau de bruit (en mode 2D / en mode 2D (lecture vidéo) / en mode 3D maximum), dBA | 20/21/29,5 | — |
Prises de sortie | 1×DVI (Dual-Link/HDMI), 1×HDMI 2.0, 3×DisplayPort 1.2 | |
Prise en charge du multitraitement | SLI | |
Nombre maximal de récepteurs/moniteurs pour une sortie d'image simultanée | 4 | 4 |
Alimentation auxiliaire : nombre de connecteurs 8 broches | 1 | 1 |
Alimentation auxiliaire : nombre de connecteurs 6 broches | 1 | 1 |
Résolution 2D maximale : DP/HDMI/DVI à liaison double/DVI à liaison unique | ||
Résolution 3D maximale : DP/HDMI/DVI à liaison double/DVI à liaison unique | 3840×2400/3840×2400/2560×1600/1920×1200 |
Livré avec mémoire locale | ||
---|---|---|
La carte dispose de 12288 Mo de SDRAM GDDR5 placés dans 24 puces de 4 Go (12 de chaque côté du PCB). Comme tests synthétiques pour DirectX 11, nous avons utilisé des exemples des SDK Microsoft et AMD, ainsi que le programme de démonstration Nvidia. Le premier est HDRToneMappingCS11.exe et NBodyGravityCS11.exe du SDK DirectX (février 2010). Nous avons également accepté les candidatures des deux fabricants de puces vidéo : Nvidia et AMD. DetailTessellation11 et PNTriangles11 ont été extraits du SDK ATI Radeon (ils sont également dans le SDK DirectX). De plus, le programme de démonstration Real Water Terrain de Nvidia, également connu sous le nom d'Island11, a été utilisé. Des tests synthétiques ont été effectués sur les cartes vidéo suivantes :
Pour analyser les performances du nouveau modèle de la carte vidéo Geforce GTX Titan X, ces solutions ont été choisies pour les raisons suivantes. La Geforce GTX 980 est basée sur un processeur graphique de la même architecture Maxwell, mais d'un niveau inférieur - GM204, et il sera très intéressant pour nous d'évaluer ce que la complication de la puce à GM200 a donné. Eh bien, la carte vidéo à double puce Geforce GTX Titan Z a été prise juste pour référence - comme la carte vidéo Nvidia la plus productive basée sur une paire de puces GK110 de l'architecture Kepler précédente. De la société rivale AMD, nous avons également choisi deux cartes graphiques pour notre comparaison. Ils sont très différents en principe, bien qu'ils soient basés sur les mêmes GPU hawaïens - ils ont juste un nombre différent de GPU sur les cartes et ils diffèrent par leur positionnement et leur prix. Geforce GTX Titan X n'a pas de concurrents de prix, nous avons donc pris la carte vidéo à double puce la plus puissante Radeon R9 295X2, bien qu'une telle comparaison ne soit pas très intéressante techniquement. Pour ce dernier, la carte vidéo monopuce la plus rapide du concurrent, la Radeon R9 290X, a été prise, bien qu'elle soit sortie il y a trop longtemps et repose sur un GPU nettement moins complexe. Mais il n'y a tout simplement pas d'autre choix parmi les solutions AMD. Direct3D 10 : Tests du pixel shader PS 4.0 (texturing, bouclage)Nous avons abandonné les benchmarks DirectX 9 obsolètes, car les solutions super puissantes comme la Geforce GTX Titan X n'y donnent pas de très bons résultats, étant toujours limitées par la bande passante mémoire, le taux de remplissage ou la texturation. Sans parler du fait que les cartes vidéo à double puce ne fonctionnent pas toujours correctement dans de telles applications, et nous en avons deux. La deuxième version de RightMark3D comprend deux tests PS 3.0 déjà familiers sous Direct3D 9, qui ont été réécrits pour DirectX 10, ainsi que deux autres nouveaux tests. La première paire a ajouté la possibilité d'activer l'auto-ombrage et le suréchantillonnage de shader, ce qui augmente en outre la charge sur les puces vidéo. Ces tests mesurent les performances des pixel shaders en boucle avec un grand nombre d'échantillons de texture (jusqu'à plusieurs centaines d'échantillons par pixel dans le mode le plus lourd) et une charge ALU relativement faible. En d'autres termes, ils mesurent la vitesse de récupération des textures et l'efficacité de la ramification dans le pixel shader. Le premier test de pixel shader sera Fur. Aux réglages les plus bas, il utilise 15 à 30 échantillons de texture de la carte de hauteur et deux échantillons de la texture principale. Le détail de l'effet - le mode "High" augmente le nombre d'échantillons à 40-80, l'inclusion du suréchantillonnage "shader" - jusqu'à 60-120 échantillons, et le mode "High" avec SSAA se caractérise par la "sévérité" maximale - de 160 à 320 échantillons de la carte des hauteurs. Vérifions d'abord les modes sans suréchantillonnage activé, ils sont relativement simples, et le rapport des résultats dans les modes "Low" et "High" devrait être approximativement le même. Les performances de ce test dépendent du nombre et de l'efficacité des TMU, et l'efficacité de l'exécution de programmes complexes affecte également. Et dans la version sans suréchantillonnage, le taux de remplissage effectif et la bande passante mémoire ont également un impact supplémentaire sur les performances. Les résultats lors du détail du niveau "Haut" sont jusqu'à une fois et demie inférieurs à ceux du niveau "Bas". Dans les tâches de rendu de fourrure procédural avec un grand nombre de sélections de textures, avec la sortie de puces vidéo basées sur l'architecture GCN, AMD a depuis longtemps pris les devants. Ce sont les cartes Radeon qui sont encore les meilleures dans ces comparatifs à ce jour, ce qui indique qu'elles sont les plus performantes pour mener à bien ces programmes. Cette conclusion est confirmée par la comparaison d'aujourd'hui - la carte vidéo Nvidia que nous envisageons de perdre même face à la Radeon R9 290X à puce unique obsolète, sans parler du concurrent de prix le plus proche d'AMD. Lors du premier test Direct3D 10, la nouvelle carte vidéo du modèle Geforce GTX Titan X s'est avérée légèrement plus rapide que sa sœur cadette basée sur une puce de la même architecture sous la forme de la GTX 980, mais cette dernière n'est pas loin derrière - 9-12%. Ce résultat peut s'expliquer par la vitesse de texturation sensiblement plus faible de la GTX 980, et elle est en retard sur d'autres paramètres, bien que le point ne soit clairement pas dans les performances des unités ALU. Le Titan Z à double puce est plus rapide, mais pas aussi rapide que la Radeon R9 295X2. Regardons le résultat du même test, mais avec le suréchantillonnage "shader" activé, ce qui quadruple le travail : dans une telle situation, quelque chose devrait changer, et la bande passante mémoire avec fillrate aura moins d'effet : Dans des conditions difficiles, la nouvelle carte vidéo du modèle Geforce GTX Titan X est déjà plus nettement en avance sur le modèle plus jeune de la même génération - GTX 980, étant plus rapide de 33 à 39% décent, ce qui est beaucoup plus proche de la différence théorique entre eux. Et l'arriéré des concurrents sous la forme des Radeon R9 295X2 et R9 290X a diminué - le nouveau produit de Nvidia a presque rattrapé la Radeon monopuce. Cependant, celui à deux puces est loin devant, car les puces AMD préfèrent les calculs pixel par pixel et sont très fortes dans de tels calculs. Le prochain test DX10 mesure les performances d'exécution de shaders de pixels en boucle complexes avec un grand nombre de récupérations de texture et s'appelle Steep Parallax Mapping. Avec des réglages bas, il utilise 10 à 50 échantillons de texture de la carte de hauteur et trois échantillons des textures principales. Lorsque vous activez le mode intensif avec auto-ombrage, le nombre d'échantillons est doublé et le suréchantillonnage quadruple ce nombre. Le mode de test le plus complexe avec suréchantillonnage et auto-ombrage sélectionne de 80 à 400 valeurs de texture, soit huit fois plus que le mode simple. Nous vérifions d'abord des options simples sans suréchantillonnage : Le deuxième test de shader Direct3D 10 pixels est plus intéressant d'un point de vue pratique, car les variétés de mappage de parallaxe sont largement utilisées dans les jeux, et des variantes lourdes, comme le mappage de parallaxe raide, ont longtemps été utilisées dans de nombreux projets, par exemple dans Crysis, Lost Planet et bien d'autres jeux. De plus, dans notre test, en plus du suréchantillonnage, vous pouvez activer l'auto-ombrage, ce qui augmente la charge sur la puce vidéo d'environ deux fois - ce mode s'appelle "High". Le diagramme est généralement similaire au précédent, également sans l'inclusion du suréchantillonnage, et cette fois, la nouvelle Geforce GTX Titan X s'est avérée un peu plus proche de la GTX Titan Z, ne perdant pas tant au profit d'une carte à deux puces basée sur une paire de GPU de la famille Kepler. Dans des conditions différentes, le nouveau produit est en avance de 14 à 19% sur le précédent modèle haut de gamme de la génération actuelle de Nvidia, et même si nous prenons une comparaison avec les cartes vidéo AMD, quelque chose a changé ici - dans ce cas, le nouveau GTX Titan X est légèrement inférieur à la Radeon R9 290X. Le R9 295X2 à double puce, cependant, est loin devant tout le monde. Voyons ce qui va changer l'inclusion du suréchantillonnage : Lorsque le suréchantillonnage et l'auto-ombrage sont activés, la tâche devient plus difficile, l'inclusion combinée de deux options à la fois augmente la charge sur les cartes de près de huit fois, entraînant une baisse importante des performances. La différence entre les indicateurs de vitesse des cartes vidéo testées a légèrement changé, bien que l'inclusion du suréchantillonnage ait moins d'effet que dans le cas précédent. Les solutions graphiques AMD Radeon fonctionnent plus efficacement dans ce test de pixel shader D3D10 que les cartes Geforce concurrentes, mais la nouvelle puce GM200 change la situation pour le mieux - la carte Geforce GTX Titan X basée sur la puce d'architecture Maxwell est déjà en avance sur la Radeon R9 290X dans toutes les conditions ( cependant, basé sur un GPU sensiblement moins complexe). La solution à double puce basée sur la paire Hawaii reste le leader, mais par rapport aux autres solutions Nvidia, le nouveau produit n'est pas mauvais. Il a montré une vitesse presque au niveau de la Geforce GTX Titan Z à double puce et a surpassé la Geforce GTX 980 de 28 à 33 %. Direct3D 10 : Benchmarks PS 4.0 Pixel Shader (informatique)Les deux prochains tests de pixel shader contiennent le nombre minimum de récupérations de texture pour réduire l'impact des performances de TMU. Ils utilisent un grand nombre d'opérations arithmétiques, et ils mesurent précisément les performances mathématiques des puces vidéo, la vitesse d'exécution des instructions arithmétiques dans le pixel shader. Le premier test de maths est Minéral. Il s'agit d'un test de texturation procédural complexe qui utilise seulement deux échantillons de données de texture et 65 instructions sin et cos. Les résultats des tests mathématiques extrêmes correspondent le plus souvent à la différence de fréquences et au nombre d'unités de calcul, mais seulement approximativement, car les résultats sont affectés par l'efficacité différente de leur utilisation dans des tâches spécifiques, et l'optimisation du pilote, et la dernière fréquence et systèmes de gestion de l'alimentation, et même un accent sur la bande passante mémoire . Dans le cas du test Mineral, le nouveau modèle Geforce GTX Titan X n'est que 10% plus rapide que la carte GTX 980 basée sur la puce GM204 de la même génération, et la GTX Titan Z à double puce n'était pas si rapide dans ce test. - quelque chose empêche clairement les cartes Nvidia de s'ouvrir. Comparer la Geforce GTX Titan X aux cartes mères concurrentes d'AMD ne serait pas si triste si les GPU des R9 290X et Titan X étaient d'une complexité proche. Mais le GM200 est beaucoup plus gros que le Hawaii, et sa petite victoire n'est que naturelle. La mise à niveau de l'architecture de Nvidia de Kepler à Maxwell a rapproché les nouvelles puces des solutions AMD concurrentes dans de tels tests. Mais même la solution à double puce moins chère Radeon R9 295X2 est nettement plus rapide. Considérons le deuxième test des calculs de shader, qui s'appelle Fire. C'est plus lourd pour ALU, et il n'y a qu'une seule extraction de texture, et le nombre d'instructions sin et cos a été doublé, jusqu'à 130. Voyons ce qui a changé avec l'augmentation de la charge : Dans le deuxième test mathématique de RigthMark, nous voyons déjà des résultats différents pour les cartes vidéo les unes par rapport aux autres. Ainsi, la nouvelle Geforce GTX Titan X est déjà plus puissante (de 20%) devant la GTX 980 sur une puce de la même architecture graphique, et la Geforce à double puce est très proche du nouveau produit - Maxwell fait beaucoup face aux tâches de calcul mieux que Kepler. La Radeon R9 290X est laissée pour compte, mais comme nous l'avons déjà écrit, le GPU d'Hawaï est nettement plus simple que le GM200, et cette différence est logique. Mais bien que la Radeon R9 295X2 à double puce continue d'être le leader des tests mathématiques, en général, la nouvelle puce vidéo Nvidia s'est bien comportée dans de telles tâches, même si elle n'a pas atteint la différence théorique avec le GM204. Direct3D 10 : Tests de nuanceur de géométrieIl existe deux tests de vitesse de shader de géométrie dans RightMark3D 2.0, la première option s'appelle "Galaxy", la technique est similaire aux "point sprites" des versions précédentes de Direct3D. Il anime un système de particules sur le GPU, un shader de géométrie à partir de chaque point crée quatre sommets qui forment une particule. Des algorithmes similaires devraient être largement utilisés dans les futurs jeux DirectX 10. Changer l'équilibre dans les tests de shader de géométrie n'affecte pas le résultat final du rendu, l'image finale est toujours exactement la même, seules les méthodes de traitement de la scène changent. Le paramètre "GS load" détermine dans quel shader les calculs sont effectués - en vertex ou en géométrie. Le nombre de calculs est toujours le même. Considérons la première version du test "Galaxy", avec des calculs dans le vertex shader, pour trois niveaux de complexité géométrique : Le rapport des vitesses avec différentes complexités géométriques des scènes est approximativement le même pour toutes les solutions, la performance correspond au nombre de points, à chaque étape la chute de FPS est proche du double. Cette tâche est très simple pour les puissantes cartes vidéo modernes, et ses performances sont limitées par la vitesse de traitement de la géométrie, et parfois par la bande passante mémoire et/ou le taux de remplissage. La différence entre les résultats des cartes vidéo basées sur les puces Nvidia et AMD est généralement en faveur des solutions de la société californienne, et elle est due aux différences dans les pipelines géométriques des puces de ces sociétés. Dans ce cas aussi, les meilleures puces vidéo Nvidia ont de nombreuses unités de traitement de la géométrie, donc le gain est évident. Dans les tests de géométrie, les cartes Geforce sont toujours plus compétitives que les Radeon. Le nouveau modèle Geforce GTX Titan X est légèrement en retard par rapport à la carte GTX Titan Z à double puce sur les GPU de la génération précédente, mais il surpasse la GTX 980 de 12 à 25 %. Les cartes graphiques Radeon affichent des résultats nettement différents, car la R9 295X2 est basée sur une paire de GPU, et elle seule peut rivaliser avec la nouveauté dans ce test, et la Radeon R9 290X était un outsider. Voyons comment la situation change lors du transfert d'une partie des calculs vers le shader de géométrie : Lorsque la charge a changé dans ce test, les chiffres ont légèrement changé, pour les cartes AMD et pour les solutions Nvidia. Et ça ne change vraiment rien. Les cartes vidéo de ce test de shaders de géométrie réagissent mal aux modifications du paramètre de charge GS, qui est responsable du transfert d'une partie des calculs vers le shader de géométrie, de sorte que les conclusions restent les mêmes. Malheureusement, "Hyperlight" est le deuxième test des shaders de géométrie, qui démontre l'utilisation de plusieurs techniques à la fois : l'instanciation, la sortie de flux, le chargement de tampon, qui utilise la création dynamique de géométrie en dessinant sur deux tampons, ainsi qu'une nouvelle fonctionnalité Direct3D 10 - sortie de flux, sur toutes les cartes graphiques AMD modernes ne fonctionnent tout simplement pas. À un moment donné, une autre mise à jour du pilote Catalyst a entraîné l'arrêt de ce test sur les cartes Catalyst, et cela n'a pas été corrigé depuis plusieurs années maintenant. Direct3D 10 : taux de récupération des textures à partir des vertex shadersLes tests "Vertex Texture Fetch" mesurent la vitesse d'un grand nombre de récupérations de texture à partir d'un vertex shader. Les tests sont essentiellement similaires, de sorte que le rapport entre les résultats des cartes dans les tests "Terre" et "Vagues" devrait être approximativement le même. Les deux tests utilisent une cartographie de déplacement basée sur des données d'échantillonnage de texture, la seule différence significative est que le test "Waves" utilise des sauts conditionnels, contrairement au test "Earth". Considérons le premier test "Earth", d'abord en mode "Effect detail Low" : Nos études précédentes ont montré que le taux de remplissage et la bande passante mémoire peuvent affecter les résultats de ce test, ce qui est clairement visible sur les résultats des cartes Nvidia, en particulier dans les modes simples. La nouvelle carte vidéo de Nvidia dans ce test montre une vitesse nettement inférieure à ce qu'elle devrait être - toutes les cartes Geforce se sont avérées approximativement au même niveau, ce qui ne correspond clairement pas à la théorie. Dans tous les modes, ils se heurtent clairement à quelque chose comme une bande passante mémoire. Cependant, la Radeon R9 295X2 est loin d'être deux fois plus rapide que la R9 290X. Soit dit en passant, cette fois, la carte monopuce d'AMD s'est avérée plus solide que toutes les cartes Nvidia en mode léger et à peu près à leur niveau en mode difficile. Eh bien, la Radeon R9 295X2 à double puce est redevenue le leader de notre comparaison. Regardons les performances dans le même test avec un nombre accru de récupérations de texture : La situation sur le diagramme a légèrement changé, la solution monopuce d'AMD en modes lourds a perdu beaucoup plus de cartes Geforce. Le nouveau modèle Geforce GTX Titan X a montré des vitesses jusqu'à 14 % plus rapides que la Geforce GTX 980 et a surpassé la Radeon monopuce dans tous les modes sauf le plus léger - en raison de la même concentration sur quelque chose. Si nous comparons le nouveau produit avec la solution à double puce d'AMD, alors Titan X a pu se battre en mode lourd, affichant des performances proches, mais à la traîne dans les modes légers. Considérons les résultats du deuxième test de récupération de texture à partir des vertex shaders. Le test Waves comporte moins d'échantillons, mais il utilise des sauts conditionnels. Le nombre d'échantillons de texture bilinéaire dans ce cas va jusqu'à 14 ("Effect detail Low") ou jusqu'à 24 ("Effect detail High") par sommet. La complexité de la géométrie change de manière similaire au test précédent. Les résultats du deuxième test de texture de vertex "Waves" ne ressemblent en rien à ce que nous avons vu dans les diagrammes précédents. Les performances de vitesse de toutes les Geforces de ce test se sont sérieusement détériorées, et le nouveau modèle Nvidia Geforce GTX Titan X ne montre une vitesse que légèrement plus rapide que la GTX 980, en retard sur la double puce Titan Z. Par rapport aux concurrents, les deux cartes Radeon ont pu pour montrer les meilleures performances dans ce test dans tous les modes. Considérez la deuxième version du même problème : Avec la complexité de la tâche dans le deuxième test d'échantillonnage de texture, la vitesse de toutes les solutions est devenue plus faible, mais les cartes vidéo Nvidia ont davantage souffert, y compris le modèle considéré. Presque rien ne change dans les conclusions, le nouveau modèle Geforce GTX Titan X est jusqu'à 10 à 30 % plus rapide que la GTX 980, en retard sur la double puce Titan Z et les deux cartes Radeon. La Radeon R9 295X2 était loin devant dans ces tests, et d'un point de vue théorique, c'est tout simplement inexplicable hormis une optimisation insuffisante de la part de Nvidia. 3DMark Vantage : tests de fonctionnalitésLes tests synthétiques du package 3DMark Vantage nous montreront ce que nous avons manqué auparavant. Les tests de fonctionnalités de ce package de test prennent en charge DirectX 10, sont toujours pertinents et intéressants car ils diffèrent des nôtres. Lors de l'analyse des résultats de la dernière carte vidéo Geforce GTX Titan X dans ce package, nous tirerons de nouvelles conclusions utiles qui nous ont échappé lors des tests des packages de la famille RightMark. Test de fonctionnalité 1 : Remplissage de textureLe premier test mesure les performances des unités de recherche de texture. Utilisé pour remplir un rectangle avec des valeurs lues à partir d'une petite texture en utilisant plusieurs coordonnées de texture qui changent à chaque image. L'efficacité des cartes vidéo AMD et Nvidia dans le test de texture de Futuremark est assez élevée et les chiffres finaux des différents modèles sont proches des paramètres théoriques correspondants. Ainsi, la différence de vitesse entre la GTX Titan X et la GTX 980 s'est avérée être de 38% en faveur d'une solution basée sur le GM200, ce qui est proche de la théorie, car le nouveau produit a une fois et demie plus d'unités TMU , mais ils fonctionnent à une fréquence inférieure. Naturellement, le retard derrière le double GTX Titan Z demeure, car les deux GPU ont des vitesses de texturation plus rapides. En ce qui concerne la comparaison de la vitesse de texturation de la nouvelle carte vidéo Nvidia haut de gamme avec des solutions concurrentes à prix similaire, ici la nouveauté est inférieure au rival à deux puces, qui est un voisin relatif dans la niche de prix, mais il est en avance sur la Radeon R9 290X, mais pas trop. Pourtant, les cartes graphiques AMD s'en sortent encore un peu mieux avec la texturation. Test de fonctionnalité 2 : Remplissage de couleurLa deuxième tâche est le test du taux de remplissage. Il utilise un pixel shader très simple qui ne limite pas les performances. La valeur de couleur interpolée est écrite dans un tampon hors écran (cible de rendu) à l'aide de la fusion alpha. Il utilise un tampon hors écran FP16 16 bits, le plus couramment utilisé dans les jeux qui utilisent le rendu HDR, ce test est donc assez opportun. Les chiffres du deuxième sous-test 3DMark Vantage montrent les performances des unités ROP, sans tenir compte de la quantité de bande passante de la mémoire vidéo (ce que l'on appelle le "taux de remplissage effectif"), et le test mesure exactement les performances du ROP. La carte Geforce GTX Titan X que nous examinons aujourd'hui est nettement en avance sur les deux cartes Nvidia, la GTX 980 et même la GTX Titan Z, surpassant la carte monopuce basée sur GM204 jusqu'à 45% - le nombre de ROP et leur l'efficacité dans le top GPU de l'architecture Maxwell est excellente ! Et si nous comparons la vitesse de remplissage de scène de la nouvelle carte vidéo Geforce GTX Titan X avec les cartes vidéo AMD, la carte Nvidia que nous envisageons dans ce test affiche la meilleure vitesse de remplissage de scène, même en comparaison avec la Radeon R9 à double puce la plus puissante. 295X2, sans parler de la Radeon R9 290X considérablement en retard. Un grand nombre de blocs ROP et d'optimisations pour l'efficacité de la compression des données du framebuffer ont fait leur travail. Test de fonctionnalité 3 : Mappage d'occlusion de parallaxeL'un des tests de fonctionnalités les plus intéressants, puisque cette technique est déjà utilisée dans les jeux. Il dessine un quadrilatère (plus précisément, deux triangles) en utilisant la technique spéciale Parallax Occlusion Mapping, qui imite une géométrie complexe. Des opérations de traçage de rayons plutôt gourmandes en ressources et une carte de profondeur haute résolution sont utilisées. Cette surface est également ombrée à l'aide de l'algorithme de Strauss lourd. Il s'agit d'un test d'un pixel shader très complexe et lourd pour une puce vidéo, qui contient de nombreuses extractions de texture pendant le lancer de rayons, la ramification dynamique et les calculs d'éclairage Strauss complexes. Ce test du package 3DMark Vantage diffère des précédents en ce que les résultats qu'il contient ne dépendent pas seulement de la vitesse des calculs mathématiques, de l'efficacité d'exécution des branches ou de la vitesse de récupération des textures, mais de plusieurs paramètres simultanément. Pour atteindre une vitesse élevée dans cette tâche, le bon équilibre du GPU est important, ainsi que l'efficacité de l'exécution de shaders complexes. Dans ce cas, les performances mathématiques et de texture sont importantes, et dans ce "synthétique" de 3DMark Vantage, la nouvelle carte Geforce GTX Titan X s'est avérée plus d'un tiers plus rapide que le modèle basé sur le GPU de la même architecture Maxwell . Et même le Kepler à double puce sous la forme du GTX Titan Z a surpassé la nouveauté de moins de 10 %. La carte haut de gamme à puce unique de Nvidia a clairement surpassé la Radeon R9 290X à puce unique dans ce test, mais les deux sont largement dépassées par la Radeon R9 295X2 à double puce. Les GPU d'AMD sont un peu plus efficaces que les puces Nvidia dans cette tâche, et le R9 295X2 en a deux. Test de fonctionnalité 4 : Tissu GPULe quatrième test est intéressant car il calcule des interactions physiques (imitation de tissu) à l'aide d'une puce vidéo. La simulation de vertex est utilisée, en utilisant le fonctionnement combiné des shaders de vertex et de géométrie, avec plusieurs passes. Utilisez stream out pour transférer des sommets d'une passe de simulation à une autre. Ainsi, les performances d'exécution des vertex et geometry shaders et la vitesse de sortie sont testées. La vitesse de rendu dans ce test dépend également de plusieurs paramètres à la fois, et les principaux facteurs d'influence devraient être les performances du traitement de la géométrie et l'efficacité des shaders de géométrie. Autrement dit, les points forts des puces Nvidia devraient apparaître, mais hélas - nous avons vu un résultat très étrange (revérifié), la nouvelle carte vidéo Nvidia n'a pas montré une vitesse trop élevée, pour le moins. Geforce GTX Titan X dans ce sous-test a montré le pire résultat de toutes les solutions, en retard même sur la GTX 980 de près de 20 % ! Eh bien, la comparaison avec les cartes Radeon dans ce test est tout aussi disgracieuse pour un nouveau produit. Malgré le nombre théoriquement plus petit d'unités d'exécution géométriques et le retard de performances géométriques des puces AMD par rapport aux solutions concurrentes, les deux cartes Radeon fonctionnent très efficacement dans ce test et surpassent les trois cartes Geforce présentées en comparaison. Encore une fois, cela ressemble à un manque d'optimisation des pilotes Nvidia pour une tâche spécifique. Test de fonctionnalité 5 : Particules GPUUn test de simulation physique d'effets basé sur des systèmes de particules calculés à l'aide d'une puce vidéo. La simulation de vertex est également utilisée, chaque vertex représente une seule particule. Le flux sortant est utilisé dans le même but que dans le test précédent. Plusieurs centaines de milliers de particules sont calculées, toutes sont animées séparément, leurs collisions avec la carte de hauteur sont également calculées. Semblable à l'un de nos tests RightMark3D 2.0, les particules sont dessinées à l'aide d'un shader de géométrie qui crée quatre sommets à partir de chaque point pour former la particule. Mais le test charge surtout les blocs de shader avec des calculs de vertex, le flux sortant est également testé. Dans le deuxième test "géométrique" de 3DMark Vantage, la situation a sérieusement changé, cette fois toutes les Geforce affichent déjà un résultat plus ou moins normal, même si la Radeon bi-puce reste toujours en tête. Le nouveau modèle GTX Titan X est 24% plus rapide que sa sœur GTX 980 et à peu près le même temps derrière le Titan Z à double GPU sur le GPU de la génération précédente. La comparaison de la nouveauté de Nvidia avec les cartes vidéo concurrentes d'AMD est cette fois plus positive - elle a montré le résultat entre deux cartes de la société rivale et s'est avérée plus proche de la Radeon R9 295X2, qui dispose de deux GPU. La nouveauté est loin devant la Radeon R9 290X et cela nous montre clairement à quel point deux tests apparemment similaires peuvent être différents : la simulation de tissu et la simulation de système de particules. Test de fonctionnalité 6 : bruit de PerlinLe dernier test de fonctionnalité du package Vantage est un test mathématique intensif de la puce vidéo, il calcule plusieurs octaves de l'algorithme de bruit Perlin dans le pixel shader. Chaque canal de couleur utilise sa propre fonction de bruit pour augmenter la charge sur la puce vidéo. Le bruit de Perlin est un algorithme standard souvent utilisé dans la texturation procédurale, il utilise beaucoup de calculs mathématiques. Dans ce cas, les performances des solutions ne correspondent pas tout à fait à la théorie, bien qu'elles soient proches de ce que nous avons vu dans des tests similaires. Dans le test mathématique du package Futuremark, qui montre les performances maximales des puces vidéo dans les tâches limites, nous constatons une distribution différente des résultats par rapport aux tests similaires de notre package de test. Nous savons depuis longtemps que les puces vidéo AMD à architecture GCN s'acquittent toujours mieux de ces tâches que les solutions concurrentes, en particulier dans les cas où des "mathématiques" intensives sont effectuées. Mais le nouveau modèle haut de gamme de Nvidia est basé sur la grande puce GM200, et la Geforce GTX Titan X a donc nettement mieux performé que la Radeon R9 290X dans ce test. Si nous comparons le nouveau produit avec le meilleur modèle de la famille Geforce GTX 900, alors dans ce test, la différence entre eux était de près de 40% - en faveur de la carte vidéo que nous envisageons aujourd'hui, bien sûr. Ceci est également proche de la différence théorique. Pas un mauvais résultat pour le Titan X, seule la Radeon R9 295X2 bi-puce était devant, et loin devant. Direct3D 11 : shaders de calculPour tester la solution haut de gamme récemment publiée par Nvidia pour les tâches qui utilisent les fonctionnalités de DirectX 11 telles que la tessellation et les shaders de calcul, nous avons utilisé des exemples de SDK et des démos de Microsoft, Nvidia et AMD. Tout d'abord, nous examinerons les benchmarks qui utilisent des shaders Compute. Leur apparence est l'une des innovations les plus importantes des dernières versions de l'API DX, elles sont déjà utilisées dans les jeux modernes pour effectuer diverses tâches : post-traitement, simulations, etc. Le premier test montre un exemple de rendu HDR avec tone mapping du SDK DirectX, avec post-traitement , qui utilise des shaders de pixels et de calcul. La vitesse de calcul dans les shaders de calcul et de pixel pour toutes les cartes AMD et Nvidia est approximativement la même, des différences n'ont été observées que pour les cartes vidéo basées sur les GPU des architectures précédentes. À en juger par nos tests précédents, les résultats d'un problème ne dépendent souvent pas tant de la puissance mathématique et de l'efficacité de calcul, mais d'autres facteurs, tels que la bande passante mémoire. Dans ce cas, la nouvelle carte vidéo haut de gamme est plus rapide que la Geforce GTX 980 et la Radeon R9 290X à puce unique, mais derrière la R9 295X2 à double puce, ce qui est compréhensible, car elle a la puissance d'une paire de R9 290X . Si nous comparons le nouveau produit avec la Geforce GTX 980, la carte mère de la société californienne considérée aujourd'hui est 34 à 36% plus rapide - exactement selon la théorie. Le deuxième test de shader de calcul est également tiré du SDK Microsoft DirectX et montre un problème de calcul de gravité à N corps (N corps), une simulation d'un système de particules dynamique soumis à des forces physiques telles que la gravité. Dans ce test, l'accent est le plus souvent mis sur la rapidité d'exécution des calculs mathématiques complexes, le traitement de la géométrie et l'efficacité de l'exécution du code avec branchement. Et dans ce test DX11, l'alignement des forces entre les solutions de deux sociétés différentes s'est avéré complètement différent - clairement en faveur des cartes vidéo Geforce. Cependant, les résultats d'une paire de solutions Nvidia basées sur différentes puces sont également étranges - Geforce GTX Titan X et GTX 980 sont presque égaux, ils ne sont séparés que par une différence de performances de 5%. Le rendu à double puce ne fonctionne pas dans cette tâche, de sorte que les rivaux (modèles Radeon à puce unique et à double puce) sont à peu près égaux en vitesse. Eh bien, la GTX Titan X les devance trois fois. Il semble que cette tâche soit calculée beaucoup plus efficacement sur les GPU de l'architecture Maxwell, ce que nous avons noté précédemment. Direct3D 11 : performances de tessellationLes shaders de calcul sont très importants, mais une autre nouveauté majeure de Direct3D 11 est la tessellation matérielle. Nous l'avons examiné en détail dans notre article théorique sur Nvidia GF100. La tessellation est utilisée depuis longtemps dans les jeux DX11, tels que STALKER: Call of Pripyat, DiRT 2, Aliens vs Predator, Metro Last Light, Civilization V, Crysis 3, Battlefield 3 et autres. Certains d'entre eux utilisent la tessellation pour les modèles de personnages, d'autres pour simuler une surface d'eau ou un paysage réaliste. Il existe plusieurs schémas différents pour partitionner les primitives graphiques (tessellation). Par exemple, phong tessellation, triangles PN, subdivision Catmull-Clark. Ainsi, le schéma de mosaïque PN Triangles est utilisé dans STALKER: Call of Pripyat et dans Metro 2033 - Phong tessellation. Ces méthodes sont relativement rapides et faciles à mettre en œuvre dans le processus de développement de jeux et les moteurs existants, c'est pourquoi elles sont devenues populaires. Le premier test de tessellation sera l'exemple Detail Tessellation du SDK ATI Radeon. Il implémente non seulement la tessellation, mais également deux techniques de traitement pixel par pixel différentes : une simple superposition de cartes normales et une cartographie d'occlusion de parallaxe. Eh bien, comparons les solutions DX11 d'AMD et de Nvidia dans différentes conditions : Dans le test de bumpmapping simple, la vitesse des cartes n'est pas très importante, car cette tâche est devenue trop facile depuis longtemps, et ses performances dépendent de la bande passante mémoire ou du taux de remplissage. Le héros de la revue d'aujourd'hui a 23% d'avance sur le précédent modèle haut de gamme Geforce GTX 980 basé sur la puce GM204 et légèrement inférieur à son concurrent sous la forme de la Radeon R9 290X. La version à double puce est même un peu plus rapide. Dans le deuxième sous-test avec des calculs pixel par pixel plus complexes, le nouveau produit est déjà 34 % plus rapide que la Geforce GTX 980, ce qui est plus proche de la différence théorique entre elles. Mais cette fois, Titan X est déjà un peu plus rapide qu'un concurrent conditionnel monopuce basé sur un seul Hawaï. Étant donné que les deux puces de la Radeon R9 295X2 fonctionnent parfaitement, cette tâche est accomplie encore plus rapidement sur celle-ci. Bien que les performances des calculs mathématiques dans les pixel shaders soient plus élevées pour les puces d'architecture GCN, la sortie des solutions d'architecture Maxwell a amélioré les positions des solutions Nvidia. Dans le sous-test de tessellation léger, la carte Nvidia récemment annoncée n'est à nouveau qu'un quart plus rapide que la Geforce GTX 980 - peut-être que la vitesse est limitée par la bande passante mémoire, car la texturation dans ce test n'a presque aucun effet. Si nous comparons le nouveau produit avec les cartes AMD dans ce sous-test, la carte Nvidia est à nouveau inférieure aux deux Radeon, car dans ce test de tessellation, la séparation en triangle est très modérée et les performances géométriques ne limitent pas la vitesse de rendu globale. Le deuxième test de performance de tessellation sera un autre exemple pour les développeurs 3D du SDK ATI Radeon - PN Triangles. En fait, les deux exemples sont également inclus dans le SDK DX, nous sommes donc sûrs que les développeurs de jeux créent leur propre code basé sur eux. Nous avons testé cet exemple avec un facteur de tessellation différent pour voir dans quelle mesure il affecte les performances globales. Dans ce test, une géométrie plus complexe est utilisée, par conséquent, une comparaison de la puissance géométrique de différentes solutions apporte des conclusions différentes. Les solutions modernes présentées dans le matériau résistent assez bien aux charges géométriques légères et moyennes, montrant une vitesse élevée. Mais alors que les un et deux GPU d'Hawaï dans les Radeon R9 290X et R9 295X2 fonctionnent bien dans des conditions légères, les cartes de Nvidia arrivent en tête dans les conditions difficiles. Ainsi, dans les modes les plus difficiles, la Geforce GTX Titan X présentée aujourd'hui affiche une vitesse déjà sensiblement meilleure que la Radeon bi-puce. Quant à la comparaison des cartes Nvidia basées sur les puces GM200 et GM204, le modèle Geforce GTX Titan X envisagé aujourd'hui augmente son avantage avec une augmentation de la charge géométrique, car en mode léger, tout dépend de la bande passante mémoire. En conséquence, le nouveau produit devance la carte Geforce GTX 980, selon la complexité du mode, jusqu'à 31 %. Jetons un coup d'œil aux résultats d'un autre test, le programme de démonstration Nvidia Realistic Water Terrain, également connu sous le nom d'Island. Cette démo utilise la tessellation et la cartographie de déplacement pour rendre une surface et un terrain océaniques réalistes. Le test Island n'est pas un test purement synthétique pour mesurer les performances GPU purement géométriques, car il contient à la fois des pixel shaders complexes et des shaders de calcul, et une telle charge est plus proche des vrais jeux qui utilisent toutes les unités GPU, et pas seulement les géométriques, comme dans les précédents. essais de géométrie. Bien que la charge sur les unités de traitement de la géométrie reste la principale, la même bande passante mémoire, par exemple, peut également affecter. Nous testons toutes les cartes vidéo à quatre facteurs de tessellation différents - dans ce cas, le paramètre s'appelle Dynamic Tessellation LOD. Avec le premier facteur de division en triangle, la vitesse n'est pas limitée par les performances des blocs géométriques, et les cartes vidéo Radeon affichent un résultat plutôt élevé, en particulier la R9 295X2 à double puce, qui dépasse même le résultat de la carte Geforce GTX Titan X annoncée. , mais déjà aux niveaux de charge géométriques suivants, les performances des cartes Radeon diminuent, et les solutions Nvidia prennent les devants. L'avantage de la nouvelle carte Nvidia basée sur la puce vidéo GM200 sur ses rivales dans de tels tests est déjà assez décent, voire multiple. Si nous comparons Geforce GTX Titan X avec GTX 980, alors la différence entre leurs performances atteint 37-42%, ce qui s'explique parfaitement par la théorie et lui correspond exactement. Les GPU Maxwell sont nettement plus efficaces dans les charges de travail mixtes, passant rapidement des graphiques à l'informatique et inversement, et le Titan X est beaucoup plus rapide que même la Radeon R9 295X2 à double puce dans ce test. Après avoir analysé les résultats des tests synthétiques de la nouvelle carte vidéo Nvidia Geforce GTX Titan X basée sur le nouveau GPU GM200 haut de gamme, ainsi que les résultats d'autres modèles de cartes vidéo des deux fabricants de puces vidéo discrètes, nous pouvons conclure que la carte vidéo que nous envisageons aujourd'hui devrait être la plus rapide du marché, en concurrence avec la carte graphique à double puce la plus puissante d'AMD. En général, c'est un bon suiveur de la Geforce GTX Titan Black - une puissante monopuce. La nouvelle carte graphique de Nvidia affiche des résultats assez solides dans les synthétiques - dans de nombreux tests, mais pas dans tous. Radeon et Geforce ont traditionnellement des atouts différents. Dans un grand nombre de tests, les deux GPU du modèle Radeon R9 295X2 étaient plus rapides, notamment en raison de la bande passante mémoire globale plus élevée et de la vitesse de texturation avec une exécution très efficace des tâches de calcul. Mais dans d'autres cas, le meilleur processeur graphique de l'architecture Maxwell reprend le dessus, notamment dans les tests géométriques et les exemples de tessellation. Cependant, dans de vraies applications de jeu, tout sera quelque peu différent, par rapport aux "synthétiques" et la Geforce GTX Titan X devrait afficher une vitesse nettement supérieure au niveau de la Geforce GTX 980 à puce unique, et plus encore la Radeon R9 290X. Et il est difficile de comparer la nouveauté avec la Radeon R9 295X2 à double puce - les systèmes basés sur deux GPU ou plus ont leurs propres caractéristiques désagréables, bien qu'ils offrent une augmentation de la fréquence d'images moyenne avec une optimisation appropriée. Mais les caractéristiques architecturales et les fonctionnalités sont clairement en faveur de la solution premium de Nvidia. Geforce GTX Titan X consomme beaucoup moins d'énergie que la même Radeon R9 295X2, et en termes d'efficacité énergétique, le nouveau modèle Nvidia est très puissant - c'est une caractéristique distinctive de l'architecture Maxwell. Nous ne devons pas oublier la plus grande fonctionnalité du nouveau produit de Nvidia : il existe un support pour le niveau de fonctionnalité 12.1 dans DirectX 12, l'accélération matérielle VXGI, une nouvelle méthode d'anti-aliasing MFAA et d'autres technologies. Nous avons déjà parlé du point de vue du marché dans la première partie - dans le segment élite, cela ne dépend pas tellement du prix. L'essentiel est que la solution soit aussi fonctionnelle et productive que possible dans les applications de jeu. Autrement dit, c'était le meilleur de tout. Juste pour évaluer la vitesse de la nouveauté dans les jeux, dans la prochaine partie de notre matériel, nous déterminerons les performances de la Geforce GTX Titan X dans notre ensemble de projets de jeu et les comparerons aux performances des concurrents, y compris en évaluant la justification du prix de détail de la nouveauté du point de vue des passionnés, et découvrez également à quel point la Geforce GTX 980 est déjà plus rapide dans les jeux. |
Moniteur Asus ProArt PA249Q pour ordinateur de travail fourni par l'entreprise Asustek | Clavier Cougar 700K pour ordinateur de travail fourni par l'entreprise Puma |
La carte graphique TITAN X est conçue pour les fans des jeux les plus gourmands en ressources. Elle combine les dernières technologies avec les performances extrêmes de la nouvelle architecture NVIDIA Maxwell™ pour offrir la carte graphique la plus rapide et la plus avancée de la planète.
PERFORMANCES ACCRUES
TITAN X perpétue l'héritage de la famille de cartes graphiques TITAN, offrant le GPU de jeu le plus performant au monde. Il utilise la puissante architecture Maxwell pour offrir la dernière technologie avec le double des performances et de l'efficacité énergétique de la carte graphique GTX TITAN d'origine.
CONCEPTION EXCEPTIONNELLE
TITAN X est conçu et construit de manière experte avec des composants de haute qualité pour offrir des gains de performances significatifs tout en maintenant des performances acoustiques et thermiques inégalées.
Ce GPU avancé prend en charge l'éclairage global en temps réel hyperréaliste avec la technologie NVIDIA VXGI, ainsi que la technologie NVIDIA G-SYNC™, qui garantit un jeu fluide et sans déchirure. De plus, vous pourrez découvrir la technologie DSR, qui offre une expérience 4K même sur des écrans 1080p.
JEUX EXTREMES
TITAN X est la seule carte graphique à GPU unique capable de jouer facilement à des jeux 4K avec des réglages élevés. Il fonctionne sans problème grâce à l'application GeForce® Experience™, qui donne accès aux derniers pilotes et optimise les paramètres de jeu en un clic. Vous pouvez même enregistrer vos meilleurs moments de jeu et les partager avec vos amis grâce à la technologie NVIDIA® ShadowPlay™.
La première architecture Pascal de NVIDIA à arriver sur le marché était la GeForce GTX 1080 basée sur le processeur GP104. Grâce à la nouvelle technologie de processus FinFET 16 nm, ainsi qu'aux optimisations de l'architecture et des circuits de la puce, la GTX 1080 atteint un niveau de performances de jeu environ 30 % supérieur à celui de la carte graphique phare de la génération précédente de NVIDIA, la GeForce GTX. TITAN X. Dans le même temps, les développeurs de la GTX 1080 ont réussi à réduire le budget de puissance de l'accélérateur de 70 W par rapport au TDP de son prédécesseur - de 250 à 180 W. Pendant ce temps, un ensemble thermique de 250 W est un objectif standard pour les meilleures cartes vidéo de jeu de NVIDIA des dernières générations, donc l'apparition après la GTX 1080 d'un produit encore plus productif qui occupera ce créneau dans la gamme Pascal n'était qu'une question de temps.
En commençant par l'architecture Kepler, NVIDIA a adopté la stratégie suivante pour lancer des GPU dans différentes catégories de performances. Tout d'abord, la puce de deuxième niveau fait ses débuts : GK104 dans la famille Kepler, GM204 dans Maxwell version 2, et maintenant GP104 dans Pascal. Par la suite, NVIDIA remplit un ou deux niveaux en dessous, et après un écart important, un GPU de niveau supérieur apparaît, qui constitue la base de l'accélérateur le plus puissant que NVIDIA puisse produire, tout en maintenant une consommation d'énergie inférieure à 250 W avec le flux de travail actuel.
Le sommet actuel du développement de l'architecture Pascal est le processeur GP100, qui comprend un nombre sans précédent d'ALU de shader (3840 cœurs CUDA) et 16 Go de mémoire HBM2 combinés à un GPU sur un substrat de silicium. Le GP100 est utilisé dans le cadre de l'accélérateur Tesla P100, dont l'utilisation est limitée au domaine des supercalculateurs en raison d'un facteur de forme spécial avec un bus NVLINK et un TDP de 300 W. La Tesla P100 devrait également être commercialisée au format standard de carte d'extension PCI Express à la fin de l'année.
C'était la puce GP100, dans les rêves des passionnés de l'industrie, qui était censée couronner la gamme d'adaptateurs de jeu GeForce 10 à l'avenir, et auparavant NVIDIA pouvait sortir un nouveau TITAN - juste avec un arrêt intermédiaire à cette position, le grand précédent Les GPU sont arrivés dans les PC de jeu (GK110 dans le cadre de TITAN et GM200 - dans TITAN X).
Cependant, cette fois, apparemment, les experts se sont avérés avoir raison, prédisant la division finale de la gamme de GPU NVIDIA en deux groupes qui ne se chevauchent pas - les puces pour les jeux et les prosommateurs (des mots producteur et consommateur), d'une part , et puces pour l'informatique - d'autre part. Le facteur de différenciation dans ce cas est la vitesse du GPU dans les opérations sur les nombres à virgule flottante double précision (FP64). Dans la gamme Kepler, les développeurs ont déjà sacrifié cette caractéristique pour toutes les puces (1/24 de FP32), en plus de l'ancienne - GK110 / GK210 (1/3 de FP32), afin de réduire la consommation d'énergie du GPU. Dans la génération suivante, cette tendance s'est aggravée : tous les processeurs Maxwell exécutent FP64 à une vitesse de 1/32 à partir de FP32.
La situation avec Pascal a montré que les économies sur les performances du FP64 ne restaient pas une mesure temporaire en raison d'un retard dans la technologie de traitement 28 nm. NVIDIA a toujours besoin d'un GPU pour les serveurs, les supercalculateurs et les stations de travail capables de gérer le FP64 à un niveau de performances élevé. Cependant, pour les adaptateurs vidéo de jeu, cette fonctionnalité, qui gonfle le budget des transistors et la consommation d'énergie du GPU, n'est qu'un fardeau.
Ainsi, au lieu de porter le GP100 (une puce évidemment coûteuse à fabriquer à la fois en raison de la surface et de la mémoire HBM2 intégrée) sur des cartes vidéo de jeu, NVIDIA a lancé un produit supplémentaire - GP102, axé sur les opérations avec FP32 - le principal format de nombre utilisé dans Rendu graphique 3D et dans un certain nombre de tâches de calcul. La seule caractéristique fonctionnelle du GP102 est la prise en charge des opérations sur les nombres entiers du format int8. C'est un point important pour NVIDIA, car int8 est largement utilisé dans les tâches d'apprentissage automatique, dont l'entreprise s'est fait l'un des domaines prioritaires (plus précisément, l'une des classes de ces tâches est l'apprentissage en profondeur). Dans un avenir proche, nous prévoyons de publier un article séparé consacré à ce sujet.
Le nouveau TITAN X, qui est le premier appareil basé sur le processeur GP102, se positionne principalement comme un accélérateur de qualité professionnelle conçu pour la recherche et les applications commerciales liées à l'apprentissage en profondeur. Ceci est confirmé par l'absence de la marque GeForce dans le nom de la carte. Cependant, les larges capacités de jeu de la nouveauté ne font aucun doute. Tous les Titans sortis plus tôt, en plus de leurs fonctions informatiques, étaient considérés comme des cartes graphiques de jeu haut de gamme, capables de fournir une qualité et des performances graphiques qui n'étaient pas disponibles sur leurs modèles actuels de la gamme principale GeForce.
⇡ NVIDIA GP102
Ce GPU est conçu comme une alternative au supercalculateur GP100, qui n'est pas inférieur à ce dernier dans les fonctions de rendu graphique 3D et de calculs FP32. Dans le même temps, les créateurs du GP102 ont réduit tous les composants qui ne correspondent pas à l'objectif du produit.
Par exemple, un seul SM (Streaming Multiprocessor - un bloc qui combine des cœurs CUDA avec des unités de mappage de texture, des planificateurs, des répartiteurs et des segments de mémoire locale) dans GP100 contient 64 cœurs CUDA pour les opérations FP32, tandis que SM dans GP102 a à cet égard la configuration héritée de Maxwell : 128 cœurs CUDA. La répartition plus fine des cœurs CUDA dans le GP100 permet au processeur d'exécuter simultanément plus de flux d'instructions (et également des groupes de threads - warps - et des blocs warp), et la quantité totale de types de stockage à l'intérieur du SM, comme la mémoire partagée (mémoire partagée) et le fichier de registre, en termes de l'ensemble du GPU a augmenté par rapport à l'architecture Maxwell.
Schéma fonctionnel NVIDIA GP102
De plus, dans GP100, pour 64 cœurs CUDA pour les opérations FP32, il y a 32 cœurs pour FP64, tandis que le SM dans GP102 a une configuration héritée de Maxwell à cet égard : 128 cœurs CUDA pour FP32 et 4 pour FP64. D'où les performances tronquées en double précision du GP102.
Enfin, le GP100 embarque un cache L2 plus important : 4096 Ko contre 3072 Ko dans le GP102. Et bien sûr, le GP102 n'a pas de contrôleur de bus NVLINK, et les contrôleurs de mémoire HBM2 (avec une largeur de bus totale de 4096 bits) sont remplacés par des contrôleurs SDRAM GDDR5X. 12 de ces contrôleurs 32 bits fournissent un bus d'accès mémoire 384 bits commun.
Dans d'autres aspects qui nous intéressent, les puces GP100 et GP102 sont identiques. Les deux matrices contiennent 3840 cœurs CUDA compatibles FP32 et 240 mappeurs de texture, ainsi que 96 ROP. Ainsi, d'un point de vue général, la structure des unités de calcul GP102 reprend celle de la puce GP104, ajustée aux changements quantitatifs. Bien que nous ne connaissions pas encore certains paramètres (cache L1, mémoire partagée et tailles des fichiers de registre), ils sont probablement les mêmes dans ces deux GPU.
La puce GP102, fabriquée à l'aide de la technologie de processus FinFET 16 nm de TSMC, contient 12 milliards de transistors dans une zone de 471 mm 2 . A titre de comparaison : les caractéristiques du GP100 sont de 15,3 milliards de transistors et 610 mm2. C'est une différence très importante. De plus, si TSMC n'a pas augmenté la taille du photomasque pour le processus 16 nm par rapport à 28 nm, alors le GP100 est presque épuisé, tandis que l'architecture légère du GP102 permettra à NVIDIA de créer un noyau plus grand pour le large marché de consommation dans le futur, en utilisant la même chaîne de production (ce qui, cependant, est peu probable à moins que les développeurs ne repensent leurs normes TDP pour les modèles haut de gamme).
Concernant les différences entre l'architecture Pascal et Maxwell, nous vous recommandons de vous référer à notre test GeForce GTX 1080. Dans cette itération, les développeurs ont développé les avantages de la génération précédente et compensé ses défauts inhérents.
Notons brièvement les points suivants :
- compression des couleurs améliorée avec des rapports allant jusqu'à 8:1 ;
- la fonction de multi-projection simultanée du moteur PolyMorph, qui vous permet de créer jusqu'à 16 projections de la géométrie de la scène en une seule passe (pour la réalité virtuelle et les systèmes à plusieurs écrans dans la configuration NVIDIA Surround) ;
- la possibilité d'interrompre (préemption) lors de l'exécution d'un appel de dessin (lors du rendu) et d'un flux de commandes (lors des calculs), ce qui, associé à la distribution dynamique des ressources de calcul GPU, offre un support complet pour le calcul asynchrone (Async Compute) - une source supplémentaire de performances dans les jeux sous l'API DirectX 12 et une latence réduite en VR ;
- contrôleur d'affichage compatible avec les interfaces DisplayPort 1.3/1.4 et HDMI 2.b. Prise en charge de la plage dynamique élevée (HDR) ;
- Bus SLI avec une bande passante accrue.
⇡ Spécifications, prix
Le TITAN X n'utilise pas une version entièrement fonctionnelle du GPU GP102 : sur 30 SM, deux sont ici désactivés. Ainsi, en termes de nombre de cœurs CUDA et d'unités de texture, le Titan correspond au Tesla P100, où la puce GP100 est également partiellement "coupée" (3584 cœurs CUDA et 224 unités de texture).
Le processeur graphique de la nouveauté fonctionne à des fréquences plus élevées (1417/1531 MHz) que dans le Tesla P100 (jusqu'à 1328/1480 MHz dans la version supercalculateur et jusqu'à 1300 MHz dans le facteur de forme de la carte PCI-Express). Reste que les fréquences du "Titan" sont assez conservatrices par rapport aux caractéristiques de la GeForce GTX 1080 (1607/1733 MHz). Comme nous le verrons dans les expériences d'overclocking, le facteur limitant était la consommation d'énergie de l'appareil, que NVIDIA a fixée à ses 250 W habituels.
Le TITAN X est équipé d'une mémoire SDRAM GDDR5X de 12 Go avec une bande passante de 10 Gbit/s par broche. Le bus 384 bits permet un transfert de données à une vitesse de 480 Go / s: dans cet indicateur, TITAN X n'est que légèrement inférieur au détenteur actuel du record - Radeon R9 Fury X, ainsi qu'à d'autres produits AMD basés sur des GPU Fidji (512 Go/s).
Fabricant | Nvidia | |||||
Modèle | GeForce GTX TITAN | GeForce GTX TITAN Noir | GeForce GTX TITAN Z | GeForce GTX TITAN X | GeForce GTX 1080 | TITAN X |
GPU | ||||||
Nom | GK110 | GK110 | 2 × GK110 | GM200 | GP104 | GP102 |
microarchitecture | Kepler | Kepler | Kepler | Maxwell | Pascal | Pascal |
Technologie de processus, nm | 28 nm | 28 nm | 28 nm | 28 nm | FinFET 16 nm | FinFET 16 nm |
Nombre de transistors, millions | 7 080 | 7 080 | 2×7080 | 8 000 | 7 200 | 12 000 |
Fréquence d'horloge, MHz : horloge de base / horloge de suralimentation | 837/876 | 889/980 | 705/876 | 1 000 / 1 089 | 1 607 / 1 733 | 1 417 / 1531 |
Nombre d'ALU de shader | 2 688 | 2 880 | 2×2880 | 3 072 | 2 560 | 3 584 |
Nombre de superpositions de texture | 224 | 240 | 2×240 | 192 | 160 | 224 |
Nombre de ROP | 48 | 48 | 2×48 | 96 | 64 | 96 |
RAM | ||||||
Largeur de bus, bit | 384 | 384 | 2×384 | 384 | 256 | 384 |
Type de puce | SDRAM GDDR5 | SDRAM GDDR5 | SDRAM GDDR5 | SDRAM GDDR5 | SDRAM GDDR5X | SDRAM GDDR5X |
Fréquence d'horloge, MHz (bande passante par contact, Mbps) | 1 502 (6 008) | 1 750 (7 000) | 1 750 (7 000) | 1 753 (7 012) | 1 250 (10 000) | 1 250 (10 000) |
Volume, Mo | 6 144 | 6 144 | 2×6144 | 12 288 | 8 192 | 12 288 |
Bus E/S | PCI Express 3.0 x16 | PCI Express 3.0 x16 | PCI Express 3.0 x16 | PCI Express 3.0 x16 | PCI Express 3.0 x16 | PCI Express 3.0 x16 |
Performance | ||||||
Performances de pointe FP32, GFLOPS (basées sur la fréquence maximale spécifiée) | 4 709 | 5 645 | 10 092 | 6 691 | 8 873 | 10 974 |
Performances FP32/FP64 | 1/3 | 1/3 | 1/3 | 1/32 | 1/32 | 1/32 |
Bande passante RAM, Go/s | 288 | 336 | 2×336 | 336 | 320 | 480 |
Sortie d'image | ||||||
Interfaces de sortie d'images | DL DVI-I, DisplayPort 1.2, HDMI 1.4a | DL DVI-D, DL DVI-I, DisplayPort 1.2, HDMI 1.4a | DL DVI-I, DisplayPort 1.2, HDMI 1.4a | DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b | ||
PDT, W | 250 | 250 | 375 | 250 | 180 | 250 |
Prix de détail suggéré au moment de la sortie (États-Unis, hors taxes), $ | 999 | 999 | 2 999 | 999 | 599/699 | 1 200 |
Prix de vente conseillé au moment de la sortie (Russie), frotter. | 34 990 | 35 990 | 114 990 | 74 900 | — / 54 990 | — |
En termes de performances théoriques, TITAN X est la première carte graphique mono-GPU à dépasser 10 TFLOPS en performances FP32. Parmi les produits NVIDIA précédents, seul TITAN Z, construit sur une paire de puces GK110, était capable de cela. En revanche, contrairement à la Tesla P100 (et de manière similaire aux GeForce GTX 1060/1070/1080), TITAN X se caractérise par des performances très modestes en double (1/32 de FP32) et demi précision (1/64 de FP32) calculs, mais est capable d'effectuer des opérations avec des nombres int8 à une vitesse 4 fois plus rapide qu'avec FP32. D'autres GPU de la famille Pascal - GP104 (GeForce GTX 1070/1080, Tesla P4) et GP106 (GTX 1060) et GP100 (Tesla P100) prennent également en charge int8 avec un rapport de performance de 4:1 par rapport au FP32, cependant, nous ne savons pas actuellement s'il s'agit d'une fonctionnalité limitée dans les cartes graphiques de jeu GeForce.
TITAN X est un achat très, très cher, que seuls ceux qui veulent vraiment avoir une carte vidéo aussi parfaite décideront. NVIDIA a augmenté le prix de 200 $ par rapport aux modèles à processeur unique précédents de cette marque à 1 200 $. Cette fois, l'appareil n'est pas distribué par l'intermédiaire de partenaires et est vendu exclusivement sur le site Web de NVIDIA dans un certain nombre de pays sélectionnés. La Russie n'en fait pas encore partie.
⇡ Conception
Le boîtier de la carte vidéo est fabriqué dans le même style que les produits de la marque Founders Edition de la gamme GeForce 10. Le système de refroidissement avec un ventilateur radial (turbine) est recouvert d'un boîtier en métal et la surface arrière du circuit imprimé carte est protégée par une plaque épaisse. Une partie de ce dernier peut être retirée afin de fournir un accès aérien sans entrave au refroidisseur d'une carte vidéo adjacente en mode SLI. C'est drôle que bien que TITAN X n'appartienne plus officiellement à la famille GeForce, c'est cette inscription, éclairée par des LED vertes, qui s'affiche toujours sur le côté de la carte vidéo.
La conception du refroidisseur est la même que celle de la GTX 1070/1080 : le GPU dégage de la chaleur vers un dissipateur thermique avec une chambre d'évaporation, tandis que les puces RAM et les transistors convertisseurs de tension sont recouverts d'un cadre en aluminium massif qui porte un bloc séparé de petites nageoires.
Soit dit en passant, comme l'a découvert l'un des propriétaires de TITAN X, NVIDIA permet aux utilisateurs de remplacer le système de refroidissement de la carte vidéo par quelque chose de plus efficace (par exemple, LSS) sans perdre la garantie.
⇡ Payer
Comme les versions de référence des GTX 1060/1070/1080, la carte TITAN X dispose de trois connecteurs DisplayPort et d'un DVI et d'un HDMI.
Le système d'alimentation est construit selon le schéma 6 + 1 (le nombre de phases pour le GPU et les puces mémoire). Deux connecteurs d'alimentation supplémentaires sont utilisés - à six et huit broches, qui, avec les lignes électriques du connecteur PCI-Express, fournissent à la carte vidéo une réserve de puissance de 300 watts.
La mémoire SDRAM GDDR5X, comme sur la GeForce GTX 1080, est composée de microcircuits Micron D9TXS avec une fréquence effective standard de 10 GHz.
⇡ Banc d'essai, méthodologie d'essai
Configuration du banc d'essai | |
---|---|
CPU | Intel Core i7-5960X à 4 GHz (100 × 40) |
Carte mère | ASUS RAMPAGE V EXTRÊME |
RAM | Corsair Vengeance LPX, 2133 MHz, 4 × 4 Go |
ROM | Intel SSD 520 240 Go + Crucial M550 512 Go |
Unité de puissance | Corsaire AX1200i 1200W |
Système de refroidissement du processeur | Archonte Thermalright |
Cadre | Banc d'essai CoolerMaster V1.0 |
Moniteur | NEC EA244UHD |
système opérateur | Windows 10 Professionnel x64 |
Logiciel GPU AMD | |
Tous | Radeon Software Crimson Edition 16.8.2 Non-WHQL |
Logiciel GPU NVIDIA | |
Tous | Pilote GeForce Game Ready 372.54 WHQL |
Le CPU fonctionne à une fréquence constante. Dans les paramètres du pilote NVIDIA, le CPU est sélectionné comme processeur pour le calcul PhysX. Dans les paramètres du pilote AMD, le paramètre Tesselation a été déplacé d'AMD optimisé vers Utiliser les paramètres d'application.
Benchmarks : jeux | ||||
---|---|---|---|---|
Jeu (par ordre de date de sortie) | API | Paramètres | Anticrénelage plein écran | |
1920×1080 / 2560×1440 | 3840×2160 | |||
Crysis 3 + FRAPS | DirectX 11 | Max. qualité. Le début de la mission Swamp | MSAA 4x | Désactivé |
Champ de bataille 4 + FRAPS | Max. qualité. Le début de la mission Tashgar | MSAA 4x + FXAA élevé | ||
Metro : Last Light Redux, benchmark intégré | Max. qualité | SSAA 4x | ||
GTA V, benchmark intégré | Max. qualité | MSAA 4x + FXAA | ||
Rallye DiRT | Max. qualité | MSAA 4x | ||
Rise of the Tomb Raider, référence intégrée | DirectX 12 | Max. qualité, VXAO désactivé | SSAA 4x | |
Tom Clancy's The Division, référence intégrée | DirectX 11 | Max. qualité, HFTS désactivé | SMAA 1x Ultra | |
HITMAN, benchmark intégré | DirectX 12 | Max. qualité | SSAA 4x | |
Ashes of the Singularity, référence intégrée | DirectX 12 | Max. qualité | MSAA 4x + AA temporelle 4x | |
PERTE | Vulcain | Max. qualité. Fonderie Mission | TSSAA 8TX | |
Total War: WARHAMMER, benchmark intégré | DirectX 12 | Max. qualité | MSAA 4x |
Benchmarks : décodage vidéo, informatique | |
---|---|
Programme | Paramètres |
Vérificateur DXVA, repère de décodage, H.264 | Fichiers 1920 × 1080p (profil élevé, L4.1), 3840 × 2160p (profil élevé, L5.1). Décodeur vidéo Microsoft H264 |
Vérificateur DXVA, repère de décodage, H.265 | Fichiers 1920 × 1080p (profil principal, L4.0), 3840 × 2160p (profil principal, L5.0). Décodeur vidéo Microsoft H265 |
Marque Lux 3.1x64 | Stade du hall de l'hôtel (référence complexe) |
Sony Vegas Pro 13 | Benchmark Sony pour Vegas Pro 11, durée 65s, rendu en XDCAM EX, 1920×1080p 24Hz |
SiSoftware Sandra 2016 SP1, Analyse Scientifique GPGPU | OpenCL, FP32/FP64 |
CompuBench CL Desktop Edition X64, simulation de surface océanique | — |
CompuBench CL Desktop Edition X64, simulation de particules—64K | — |
⇡ Participants aux tests
Les cartes vidéo suivantes ont participé aux tests de performances :
- NVIDIA TITAN X (1 417/10 000 MHz, 12 Go) ;
⇡ Performance: 3DMark
Les tests synthétiques montrent un avantage moyen de TITAN X sur GeForce GTX 1080 de 25 %. Par rapport à la génération précédente de la marque TITAN, ainsi qu'à la Radeon R9 Fury X, le nouveau produit phare offre des performances supérieures de 61 à 63 % et plus du double des performances par rapport à la première version de TITAN basée sur l'architecture Kepler. Une position plutôt élevée par rapport à l'accélérateur NVIDIA est détenue par la Radeon R9 295X2 - le nouveau produit n'est que 18% plus rapide dans 3DMark.
3DMark (score graphique) | |||||||
---|---|---|---|---|---|---|---|
Autorisation | |||||||
coup de feu | 1920×1080 | 26 341 | 10 449 | 17 074 | 21 648 | 23 962 | 16 279 |
Frappe de feu extrême | 2560×1440 | 13 025 | 4 766 | 7 945 | 10 207 | 10 527 | 7 745 |
Frappe de feu ultra | 3840×2160 | 6 488 | 2 299 | 4 011 | 4 994 | 5 399 | 3 942 |
espion du temps | 2560×1440 | 8 295 | 2 614 | 4 935 | 6 955 | 7 186 | 5 084 |
Max. | −60% | −35% | −16% | −9% | −38% | ||
Moyenne | −64% | −38% | −20% | −15% | −39% | ||
Min. | −68% | −41% | −23% | −19% | −41% |
⇡ Performances : jeux (1920×1080, 2560 × 1440)
Lors de tests à une résolution relativement faible pour un GPU aussi puissant, le nouveau TITAN X surpasse la GeForce GTX 1080 de 15 à 20 % (de 1080p à 1440p, respectivement) dans les résultats moyens. Le nouveau produit phare semble encore plus impressionnant par rapport aux meilleurs accélérateurs de la période 28 nm : il est 47 à 56 % plus rapide que la GeForce GTX TITAN X basée sur le GM200 et 67 à 72 % devant la Radeon R9 Fury X.
Si nous prenons le tout premier TITAN de la génération Kepler, nous parlons alors d'une augmentation des performances plus que doublée.
1920×1080 | |||||||
---|---|---|---|---|---|---|---|
Anticrénelage plein écran | NVIDIA TITAN X (1417/10000 MHz, 12 Go) | NVIDIA GeForce GTX TITAN (837/6008 MHz, 6 Go) | NVIDIA GeForce GTX TITAN X (1000/7012 MHz, 12 Go) | NVIDIA GeForce GTX 1080 (1607/10008 MHz, 8 Go) | AMD Radeon R9 295X2 (1018/5000 MHz, 8 Go) | AMD Radeon R9 Fury X (1050/1000 MHz, 4 Go) | |
Cendres de la Singularité | MSAA 4x | 47 | 20 | 31 | 42 | 34 | 26 |
Battlefield 4 | MSAA 4x + FXAA élevé | 162 | 71 | 118 | 149 | 134 | 94 |
Crysis 3 | MSAA 4x | 99 | 45 | 65 | 79 | 90 | 60 |
Rallye DiRT | MSAA 4x | 126 | 57 | 83 | 101 | 97 | 65 |
PERTE | TSSAA 8TX | 200 | 69 | 151 | 185 | 122 | 156 |
gta v | MSAA 4x + FXAA | 85 | 44 | 68 | 84 | 76 | 52 |
TUEUR À GAGES | SSAA 4x | 68 | 21 | 39 | 52 | 24 | 33 |
Métro : Last Light Redux | SSAA 4x | 124 | 47 | 73 | 92 | 94 | 70 |
L'Ascension du Tomb Raider | SSAA 4x | 70 | 28 | 47 | 62 | 55 | 41 |
La Division de Tom Clancy | SMAA 1x Ultra | 87 | 35 | 59 | 80 | 57 | 58 |
Guerre Totale: WARHAMMER | MSAA 4x | 76 | 38 | 56 | 73 | 37 | 49 |
Max. | −48% | −20% | −0% | −9% | −22% | ||
Moyenne | −58% | −32% | −13% | −29% | −40% | ||
Min. | −69% | −43% | −26% | −65% | −51% |
2560×1440 | |||||||
---|---|---|---|---|---|---|---|
Anticrénelage plein écran | NVIDIA TITAN X (1417/10000 MHz, 12 Go) | NVIDIA GeForce GTX TITAN (837/6008 MHz, 6 Go) | NVIDIA GeForce GTX TITAN X (1000/7012 MHz, 12 Go) | NVIDIA GeForce GTX 1080 (1607/10008 MHz, 8 Go) | AMD Radeon R9 295X2 (1018/5000 MHz, 8 Go) | AMD Radeon R9 Fury X (1050/1000 MHz, 4 Go) | |
Cendres de la Singularité | MSAA 4x | 39 | 16 | 24 | 33 | 27 | 21 |
Battlefield 4 | MSAA 4x + FXAA élevé | 109 | 47 | 75 | 98 | 95 | 65 |
Crysis 3 | MSAA 4x | 63 | 27 | 40 | 53 | 59 | 39 |
Rallye DiRT | MSAA 4x | 93 | 40 | 60 | 74 | 71 | 48 |
PERTE | TSSAA 8TX | 166 | 45 | 95 | 126 | 82 | 107 |
gta v | SMAA | 67 | 31 | 48 | 63 | 61 | 39 |
TUEUR À GAGES | MSAA 4x + FXAA | 43 | 13 | 24 | 33 | 12 | 17 |
Métro : Last Light Redux | SSAA 4x | 71 | 26 | 43 | 52 | 54 | 43 |
L'Ascension du Tomb Raider | Non supporté | 44 | 16 | 28 | 38 | 23 | 27 |
La Division de Tom Clancy | SSAA 4x | 63 | 24 | 43 | 58 | 45 | 44 |
Guerre Totale: WARHAMMER | SMAA 1x élevé | 57 | 26 | 39 | 50 | 25 | 34 |
Max. | −53% | −29% | −6% | −6% | −30% | ||
Moyenne | −61% | −36% | −16% | −33% | −42% | ||
Min. | −73% | −44% | −27% | −72% | −60% |
Note:
⇡ Performances : jeux (3840×2160)
Lors du passage de 1440p à 4K, le rapport entre les cartes graphiques NVIDIA reste le même. TITAN X est 20 % plus rapide que GeForce GTX 1080 et 56 % plus rapide que TITAN X basé sur Maxwell.
La Radeon R9 Fury X, typique de ce modèle, supporte plus efficacement les tests en 4K, ce qui a finalement réduit l'avantage du "Titan" à 56%.
3840×2160 | |||||||
---|---|---|---|---|---|---|---|
Anticrénelage plein écran | NVIDIA TITAN X (1417/10000 MHz, 12 Go) | NVIDIA GeForce GTX TITAN (837/6008 MHz, 6 Go) | NVIDIA GeForce GTX TITAN X (1000/7012 MHz, 12 Go) | NVIDIA GeForce GTX 1080 (1607/10008 MHz, 8 Go) | AMD Radeon R9 295X2 (1018/5000 MHz, 8 Go) | AMD Radeon R9 Fury X (1050/1000 MHz, 4 Go) | |
Cendres de la Singularité | Désactivé | 45 | 20 | 29 | 41 | 38 | 37 |
Battlefield 4 | 84 | 35 | 57 | 74 | 72 | 52 | |
Crysis 3 | 42 | 18 | 28 | 36 | 40 | 29 | |
Rallye DiRT | 65 | 26 | 41 | 50 | 48 | 33 | |
PERTE | 92 | 24 | 51 | 68 | 45 | 57 | |
gta v | 55 | 25 | 39 | 51 | 49 | 34 | |
TUEUR À GAGES | 67 | 21 | 38 | 53 | 24 | 33 | |
Métro : Last Light Redux | 64 | 23 | 38 | 47 | 47 | 38 | |
L'Ascension du Tomb Raider | 50 | 19 | 33 | 44 | 37 | 31 | |
La Division de Tom Clancy | 38 | 15 | 25 | 33 | 26 | 28 | |
Guerre Totale: WARHAMMER | 43 | 20 | 30 | 38 | 20 | 32 | |
Max. | −53% | −29% | −7% | −5% | −18% | ||
Moyenne | −61% | −36% | −16% | −29% | −36% | ||
Min. | −74% | −45% | −27% | −64% | −51% |
Note: Total War : WARHAMMER ne prend pas en charge DirectX 12 pour GeForce GTX TITAN.
⇡ Performances : décodage vidéo
Le GP102 intègre le même codec matériel que les deux GPU juniors de la famille Pascal, de sorte que TITAN X démontre la vitesse de décodage des normes H.264 et HEVC à égalité avec la GeForce GTX 1080, ajustée pour des vitesses d'horloge GPU inférieures. Les performances de Pascal dans cette tâche sont inégalées, à la fois par rapport aux codecs NVIDIA des puces Maxwell et à ceux d'AMD Polaris.
Note: étant donné que les décodeurs ne diffèrent généralement pas au sein d'une même gamme de GPU, les schémas montrent un appareil de chaque famille (ou plus si cette règle n'est pas respectée).
Note. 2 : GeForce GTXTITAN X, comme d'autres appareils basés sur l'architecture GPU Maxwell, à l'exception du GM204 (GeForce GTX 950/960), effectue un décodage matériel partiel H.265 sauvegardé par les ressources CPU.
⇡ Performances : informatique
La relation entre les différentes architectures dans les tâches GPGPU dépend des spécificités de chaque application. Le TITAN X offre des gains de performances prévisibles par rapport à la GeForce GTX 1080 pour la plupart, mais il existe des cas exceptionnels où la tâche repose sur la fréquence du GPU (comme le test de physique des particules dans CompuBench CL et le rendu dans Sony Vegas) : ici le L'avantage est du côté de la GTX 1080. Au contraire, la nouvelle TITAN X a pris sa revanche dans une situation où la GeForce GTX 1080 est inférieure à la TITAN X basée sur Maxwell et à la Radeon R9 Fury X (ray tracing en LuxMark).
Dans le test de multiplication matricielle et de transformation de Fourier rapide de SiSoftware Sandra, le TITAN X excelle en mode FP32. Quant au FP64, simplement en raison de la force brute (un grand nombre de cœurs CUDA et des vitesses d'horloge élevées), l'accélérateur a atteint des performances supérieures à celles du TITAN d'origine de la génération Kepler et des cartes vidéo Radeon R9 Fury X qui ont un rapport plus favorable. de performances avec FP32 et FP64. Cela n'exclut finalement pas complètement TITAN X en tant qu'accélérateur de tâches à double précision. Cependant, la Radeon R9 295X2 est la mieux adaptée à cet usage. Les cartes vidéo AMD occupent également des positions fortes dans certains autres tests : calcul de la surface de l'eau dans CompuBench CL et Sony Vegas.
⇡ Vitesses d'horloge, consommation d'énergie, température, overclocking
Sous une charge de jeu, le GPU TITAN X atteint périodiquement les mêmes vitesses d'horloge élevées que le GP104 dans la GTX 1080 (1848 contre 1860 MHz), mais la plupart du temps, il reste dans une plage nettement inférieure (1557-1671 MHz). Dans le même temps, la tension d'alimentation maximale du GPU est de 1,062 V (1,05 V dans la GTX 1080).
Le ventilateur CO tourne à des vitesses allant jusqu'à 2472 tr/min. La carte nécessite un refroidissement plus puissant que la GTX 1080, et comme la conception du refroidisseur est restée inchangée, elle crée plus de bruit. Pour compenser ce facteur, TITAN X a été fixé à une température GPU cible supérieure de 3 °C.
Bien que le TITAN X basé sur Pascal ait techniquement le même TDP que le TITAN X de génération précédente, en pratique, un système avec une nouvelle carte vidéo développe beaucoup plus de puissance (de 49 W). Cependant, la charge accrue sur le CPU, qui sert un processeur graphique plus efficace, peut jouer un rôle ici. Dans FurMark, en revanche, tous les accélérateurs avec un TDP de 250W (ainsi que le Fury X de 275W) sont au même niveau.
Pour overclocker le Titan, nous avons profité de la capacité de stock d'augmenter la limite de puissance de la carte graphique de 20%, de faire tourner la turbine CO à pleine vitesse (4837 tr/min) et d'augmenter la tension maximale du GPU à 1,093 V (la même valeur que sur la GTX 1080). En conséquence, nous avons pu augmenter la fréquence de base du GPU de 200 MHz à 1617 MHz et la fréquence effective de la mémoire à 11100 MHz.
Cela seul n'est pas mauvais pour une si grande puce, mais la limite de puissance accrue n'est pas moins importante. Le GPU overclocké prend en charge les fréquences dans la gamme 1974-1987 MHz, culminant à 2063 MHz, ce qui n'est rien de moins qu'une réalisation étonnante. A titre de comparaison : la fréquence de pointe du GPU dans notre instance GTX 1080 lors de l'overclocking était de 2126 MHz.
Un système avec un TITAN X overclocké fournit 46 W de puissance en plus que la carte graphique standard. Le ventilateur monté à sa vitesse maximale a fait baisser la température du GPU de 17 à 20 ° C, ce qui permet aux utilisateurs de s'attendre à un overclocking tout aussi efficace à des régimes inférieurs, offrant un niveau de bruit relativement confortable.
⇡ Performances : overclocking
L'overclocking TITAN X permet une augmentation très significative des performances - de 14% dans 3DMark et de 18-23% dans les benchmarks de jeu à des résolutions 1080p et 1440p. Dans les jeux à résolution 4K, le bonus atteint 26 %.
La différence entre un TITAN X overclocké et une GeForce GTX 1080 fonctionnant à des fréquences de référence atteint des valeurs choquantes de 36 %, 47 % et 50 % dans les trois résolutions que nous avons utilisées. Bien sûr, la GTX 1080 elle-même est également sujette à l'overclocking, mais comme nous nous en souvenons de notre examen de la carte vidéo de référence, cela n'ajoute que 9, 13 et 12 % aux résultats. Ainsi, si l'on compare le fleuron overclocké de la gamme GeForce 10 et le TITAN X overclocké, l'avantage de ce dernier sera de 25, 30 et 34%.
En utilisant nos anciennes données de performances de puce GeForce GTX TITAN X GM200 overclockées, nous ferons des calculs similaires pour comparer deux générations de Titans. Le TITAN X overclocké sur Pascal est en avance sur son prédécesseur de 75, 93 et 97 %. Lorsque les deux accélérateurs sont overclockés, la nouveauté conserve une avance de 74 et 70% aux résolutions 1440p et 2160p. Nous (en tant que lecteurs qui ont critiqué cette décision s'en souviendront) avons refusé de tester en mode 1080p dans la revue GeForce GTX TITAN X.
3DMark (score graphique) | ||||||
---|---|---|---|---|---|---|
Autorisation | NVIDIA GeForce GTX 1080 (1607/10008 MHz, 8 Go) | NVIDIA TITAN X (1417/10000 MHz, 12 Go) | ||||
coup de feu | 1920×1080 | 21 648 | 26 341 | 31 038 | ||
Frappe de feu extrême | 2560×1440 | 10 207 | 13 025 | 15 191 | ||
Frappe de feu ultra | 3840×2160 | 4 994 | 6 488 | 7 552 | ||
espion du temps | 2560×1440 | 6 955 | 8 295 | 8 644 | ||
Max. | +30% | +51% | ||||
Moyenne | +25% | +42% | ||||
Min. | +19% | 101 | 126 | 126 | ||
PERTE | TSSAA 8TX | 185 | 200 | 200 | ||
gta v | MSAA 4x + FXAA | 84 | 85 | 96 | ||
TUEUR À GAGES | SSAA 4x | 52 | 68 | 77 | ||
Métro : Last Light Redux | SSAA 4x | 92 | 124 | 140 | ||
L'Ascension du Tomb Raider | SSAA 4x | 62 | 70 | 94 | ||
La Division de Tom Clancy | SMAA 1x Ultra | 80 | 87 | 117 | ||
Guerre Totale: WARHAMMER | MSAA 4x | 73 | 76 | 88 | ||
Max. | +35% | +57% | ||||
Moyenne | +16% | +36% | ||||
Min. | +0% | +8% |
2560×1440 | ||||
---|---|---|---|---|
Anticrénelage plein écran | NVIDIA GeForce GTX 1080 (1607/10008 MHz, 8 Go) | NVIDIA TITAN X (1417/10000 MHz, 12 Go) | NVIDIA TITAN X (1617/11110 MHz, 12 Go) | |
Cendres de la Singularité | MSAA 4x | 33 | 39 | 48 |
Battlefield 4 | MSAA 4x + FXAA élevé | 98 | 109 | 146 |
Crysis 3 | MSAA 4x | 53 | 63 | 81 |
Rallye DiRT | MSAA 4x | 74 | 93 | 93 |
PERTE | TSSAA 8TX | 126 | 166 | 183 |
gta v | SMAA | 63 | 67 | 86 |
TUEUR À GAGES | MSAA 4x + FXAA | 33 | 43 | 49 |
Métro : Last Light Redux | SSAA 4x | 52 | 71 | 82 |
L'Ascension du Tomb Raider | Non supporté | 38 | 44 | 59 |
La Division de Tom Clancy | SSAA 4x | 58 | 63 | 86 |
Guerre Totale: WARHAMMER | SMAA 1x élevé | 50 | 57 | 74 |
Max. | +36% | +58% | ||
Moyenne | +20% | +47% | ||
Min. | ||||
PERTE | 68 | 92 | 104 | |
gta v | 51 | 55 | 75 | |
TUEUR À GAGES | 53 | 67 | 77 | |
Métro : Last Light Redux | 47 | 64 | 74 | |
L'Ascension du Tomb Raider | 44 | 50 | 69 | |
La Division de Tom Clancy | 33 | 38 | 52 | |
Guerre Totale: WARHAMMER | 38 | 43 | 58 | |
Max. | +37% | +59% | ||
Moyenne |
Nom- ing | Radéon R9 290X | Radéon R9 295X2 | GeForce GTX 780Ti | GeForce Titan GTX | GeForce Titan GTX Noir | GeForce Titan GTX Z noir | GeForce GTX 980 | GeForce GTX Titan X |
nom de code | Hawaï XT | Hawaï XT | GK110 | GK110 | GK110 | GK110 | GM204 | GM200 |
Version | GCN 1.1 | GCN 1.1 | Kepler | Kepler | Kepler | Kepler | Maxwell 2.x | Maxwell 2.x |
Technologie de processus, nm | 28 | 28 | 28 | 28 | 28 | 28 | 28 | 28 |
Taille de noyau/noyaux, mm 2 | 438 | 438x2 | 521 | 521 | 521 | 521x2 | 398 | – |
Nombre de transistors, millions | 6200 | 6200x2 | 7100 | 7100 | 7100 | 7100x2 | 5200 | 8000 |
Fréquence centrale, MHz | – | – | 880 | 840 | 890 | 700 | 1126 | 1000 |
Fréquence centrale (Turbo), MHz | 1000 | 1018 | 930 | 880 | 980 | 880 | 1216 | 1075 |
Nombre de shaders (PS), pcs. | 2816 | 5632 | 2880 | 2688 | 2880 | 5760 | 2048 | 3072 |
Nombre d'unités de texture (TMU), pcs. | 176 | 352 | 240 | 224 | 240 | 480 | 128 | 192 |
Nombre de blocs de rastérisation (ROP), pcs. | 64 | 128 | 48 | 48 | 48 | 96 | 64 | 96 |
Vitesse de remplissage maximale, Gpix/s | 64 | 130 | 42 | 40.2 | 42.7 | 84.6 | 72 | – |
Taux de récupération de texture maximal, Gtex/s | 176 | 358 | 210.2 | 187.5 | 213.4 | 338 | 144.1 | 192 |
Type de mémoire | GDDR5 | GDDR5 | GDDR5 | GDDR5 | GDDR5 | GDDR5 | GDDR5 | GDDR5 |
Fréquence mémoire effective, MHz | 5000 | 5000 | 7000 | 6000 | 7000 | 7000 | 7000 | 7000 |
Taille de la mémoire, Go | 4 | 4 + 4 | 3 | 6 | 6 | 6 + 6 | 4 | 12 |
Bus mémoire, peu | 512 | 512 + 512 | 384 | 384 | 384 | 384 + 384 | 256 | 384 |
Bande passante mémoire, Go/s | 320 | 320 + 320 | 336 | 288.4 | 336 | 336 + 336 | 224.3 | 336.5 |
Alimentation, connecteurs à broches | 6 + 8 | 8 + 8 | 6 + 8 | 6 + 8 | 6 + 8 | 8 + 8 | 6 + 6 | 6 + 8 |
Consommation électrique (2D / 3D), Watt | -/290 | -/500 | -/250 | -/250 | -/250 | -/375 | -/165 | -/250 |
CrossFire/Sli | V | V | V | V | V | V | V | V |
Prix annoncé, $ | 550 | 1500 | 700 | 1000 | 1000 | 3000 | 550 | 999 |
Modèle à remplacer | – | HD 7990 | GTX 780 | – | Titan GTX | GTX 690 | GTX 780Ti | Titan Noir |
Et maintenant parlons du prix et de la réalité russe, puisque le tableau montre le coût estimé de la carte vidéo. Après tout, malgré l'annonce, au moment de la rédaction, Nvidia n'avait pas encore finalisé le prix, donc les critiques ne peuvent que deviner. Il est difficile de tirer des conclusions sans ces informations.
Vraisemblablement, le coût cible des nouveaux articles sera de l'ordre de 1 000 à 1 300 $. Disons que cela coûte exactement mille dollars. Dans les magasins, un tel prix est transformé en au moins 65 000 roubles, ce qui réduit automatiquement le cercle des consommateurs potentiels à une ou deux personnes par mois. Dans le même temps, le taux de change élevé du dollar a éliminé les candidats à l'achat de la GeForce GTX 970 et de la GeForce GTX 980 - toutes sont désormais tout simplement hors de portée d'un joueur ordinaire. Et oui, la GeForce GTX Titan X sera rapide.
À la lumière de ces événements, de nombreux utilisateurs préféreront soit ne pas mettre à niveau du tout, soit économiser de l'argent et acheter un modèle d'occasion, ce qui est tout à fait logique et justifié. Cela signifie que la plupart des passionnés percevront l'examen de la GeForce GTX Titan X comme un ensemble de grands chiffres.
Nouvelles technologies 3D
En plus du support VXGI, de diverses méthodes d'anti-aliasing, de l'habituel GPU Boost et bien plus encore, la GeForce GTX Titan X, comme toutes les précédentes cartes graphiques Nvidia, commence progressivement à se préparer aux lunettes de réalité virtuelle 3D. Le principal problème des appareils 3D existants est le temps de réponse élevé. En résumé, par ce concept, nous entendons le temps de réponse de la matrice, le temps de réponse des gyroscopes, le temps de transmission des informations graphiques de l'accélérateur aux lunettes. Oculus a beaucoup accompli au cours de l'année, aidé en grande partie par l'annonce de DirectX 12, mais on n'attend pas moins de travail des développeurs graphiques.
C'est exactement ce que Nvidia a fait, en optimisant le logiciel. Bien que je ne sois pas sûr que cela affectera l'ensemble de la gamme de modèles, il est fort probable que les innovations, bien que logicielles, n'affecteront que la dernière génération. Et en fait, quel est le problème ? La technologie Oculus est une source d'affichage unique divisée en deux zones visibles. L'état actuel des choses, en raison de la forte latence de rendu de l'image dans le casque, rend une personne étourdie et souvent nauséeuse. Imaginez-vous «étourdi», c'est exactement ce que vous ressentirez dans 10 à 30 minutes après avoir joué à un jeu dynamique dans des lunettes Oculus.
- VR SLI - deux cartes vidéo fonctionnent séparément avec chaque œil dans les lunettes. La vitesse globale augmente, ce qui réduit les vertiges.
- Mode asynchrone pour une carte vidéo. Les données des gyroscopes sont transmises à l'accélérateur graphique et la trame suivante n'est que partiellement recalculée, ce qui permet d'économiser les ressources système.
Il est difficile de répondre à quel point les innovations améliorent les sensations, du moins jusqu'à ce que vous le vérifiiez vous-même. Hélas, au moment de l'annonce, il n'y avait pas de casques pour la presse, nous ne pouvons donc que nous croire sur parole.