Nach dem Mainstream/Performance-Chip GM206 [2] sowie dem HighEnd-Chip GM204 [3] bringt nVidia mit dem GM200-Chip nun auch noch seinen Enthusiasten-Chip der Maxwell-Generation in Form der GeForce GTX Titan X Grafikkarte in den Markt. Dabei soll wieder kompromißlose Leistung am oberen Ende der Leistungsskala und natürlich auch die schnellste derzeitige SingleChip-Lösung geboten werden – was angesichts der fehlenden Konkurrenz natürlich gelingt, dies ist auch nicht die Frage. Die eigentlichen Fragen zur GeForce GTX Titan X sind eher, wie deren Eignung speziell für für die 4K-Auflösung ist, was für reale Taktraten, Stromverbrauch und Geräuschentwicklung die Karte hat, und was man vor allem unter Entfesselung aller Möglichkeiten noch aus der Karte herausholen kann – Fragen, denen wir uns nachfolgend in Auswertung der vorliegenden Testberichte zur GeForce GTX Titan X widmen wollen.
Für die GeForce GTX Titan X benutzt nVidia den GM200-Chip im Vollausbau, welcher 6 Raster-Engines, 24 Shader-Cluster mit 3072 Shader-Einheiten und 192 Textureneinheiten an einem 384 Bit DDR Speicherinterface mit 96 Raster Operation Unit aufweist. Aufgrund der leicht höheren Anzahl an Shader-Einheiten zum vorherigen Enthusiasten-Chips GK110 (2880 -> 3072 Shader-Einheiten) sowie des etwas größeren Platzbedarfs von Maxwell-basierten Shader-Einheiten steigt die Transistoren-Menge zwischen GK110- und GM200-Chip von 7,1 auf 8 Milliarden Transistoren, der Platzbedarf des Grafikchips geht von 551mm² auf stolze 601mm² hinauf. Gefertigt wird der GM200-Chip wie üblich in der 28nm-Fertigung von TSMC, da andere Fertigungsverfahren derzeit wohl noch keine so großen Chips backen können – die 20nm-Fertigung ist hierfür grundsätzlich schlecht geeignet, die 14/16nm-Fertigung noch (lange) nicht spruchreif für so große Chips.
Technologisch ist der GM200-Chips den vorhergehenden GM206- und GM204-Chips sehr nahe: Alle diese Grafikchips der Maxwell-2-Architektur benutzen denselben Aufbau der Shader-Cluster (mit jeweils 128 Shader- und 8 Texturen-Einheiten) und haben dasselbe Feature-Set sowie DirectX-Level. Was die Maxwell-2-Architektur an neuen Features mitbringt, wurde bereits beim Launch von GeForce GTX 970 & 980 [3] notiert – einzig abweichend davon ist das DirectX-Level, welches gemäß neueren Informationen [6] nunmehr auf "DirectX 12.1" bei allen Grafikkarten der Maxwell-2-Architektur – und damit auch bei der GeForce GTX Titan X – lautet. Irgendwelche abweichenden Features zu GeForce GTX 970 & 980 hat die GeForce GTX Titan X also nicht – sie ist schlicht wie eine GeForce GTX 980 mit durchgehend um 50% stärkerer Hardware.
![]() nVidia GeForce GTX Titan X Block-Diagramm [8] |
![]() nVidia GM200-Chip Shader-Cluster (SMM) [10] |
Ebenfalls gleichlautend zu den bisherigen Maxwell-basierten Grafikchips, aber abweichend von den früheren Enthusiasten-Grafikchips von nVidia (wie dem GK110) verfügt der GM200-Chip allerdings nicht über besondere DoublePrecision-Fähigkeiten, sondern muß eine schwache DP-Rate von nur 1/32 hinnehmen (GK110: 1/3). Diese Funktionalität hat wohl schlicht nicht mehr in die zur Verfügung stehende Chipfläche gepasst (oberhalb von 600mm² wird es schnell unwirtschaftlich), dies wäre nur bei einer neuen Fertigungsstufe möglich gewesen. Da selbige noch nicht verfügbar ist, musste nVidia gewisse Abstriche hinnehmen – welche aus Gamer-Sicht aber eher glücklich sind, denn die DoublePrecision-Fähigkeiten werden im Spiele-Einsatz überhaupt nicht benötigt, haben aber bei früheren Enthusiasten-Lösungen nutzlos Chipfläche belegt und sogar hier und da teilweise an eventuell möglichem Chiptakt gekostet.
Radeon R9 290X | GeForce GTX 780 Ti | GeForce GTX 980 | GeForce GTX Titan X | |
---|---|---|---|---|
Chipbasis | AMD Hawaii, 6,2 Mrd. Transistoren in 28nm auf 438mm² Chipfläche | nVidia GK110, 7,1 Mrd. Transistoren in 28nm auf 551mm² Chipfläche | nVidia GM204, 5,2 Mrd. Transistoren in 28nm auf 398mm² Chipfläche | nVidia GM200, 8 Mrd. Transistoren in 28nm auf 601mm² Chipfläche |
Architektur | GCN-Architektur 1.1, DirectX 12.0, Mantle & TrueAudio | Kepler-Architektur, DirectX 11.0 & PhysX | Maxwell-Architektur 2.0, DirectX 12.1 & PhysX | |
Technik | 4 Raster-Engines, 2816 Shader-Einheiten, 176 TMUs, 64 ROPs, 512 Bit DDR Interface, 1 MB Level2-Cache | 5 Raster-Engines, 2880 Shader-Einheiten, 240 TMUs, 48 ROPs, 384 Bit DDR Interface, 1,5 MB Level2-Cache | 4 Raster-Engines (mit verdoppelter Raster-Power), 2048 Shader-Einheiten, 128 TMUs, 64 ROPs, 256 Bit DDR Interface, 2 MB Level2-Cache | 6 Raster-Engines (mit verdoppelter Raster-Power), 3072 Shader-Einheiten, 192 TMUs, 96 ROPs, 384 Bit DDR Interface, 3 MB Level2-Cache |
Taktraten | ≤1000/2500 MHz (Ø-Chiptakt: 851/1000 MHz *) |
875/928/3500 MHz (Ø-Chiptakt: 952 MHz) |
1126/1216/3500 MHz (Ø-Chiptakt: 1144 MHz) |
1002/1075/3500 MHz (Ø-Chiptakt: 1067 MHz) |
Speicherausbau | 4 GB GDDR5 (8 GB gegen Aufpreis) |
3 GB GDDR5 | 4 GB GDDR5 | 12 GB GDDR5 |
Layout | DualSlot | DualSlot | DualSlot | DualSlot |
Kartenlänge | 27,5cm | 27,0cm | 27,0cm | 27,0cm |
Stromstecker | 1x 6pol. + 1x 8pol. | 1x 6pol. + 1x 8pol. | 2x 6pol. | 1x 6pol. + 1x 8pol. |
TDP | 250W | 250W | 165W | 250W |
Idle-Verbrauch [11] | 20W | 14W | 12W | 14W |
Spiele-Verbrauch [11] | 239/279W * | 251W | 174W | 242W |
Ausgänge | 2x DualLink DVD-D, HDMI 1.4a, DisplayPort 1.2 | DualLink DVD-D, DualLink DVI-I, HDMI 1.4a, DisplayPort 1.2 | DualLink DVI-I, HDMI 2.0 (kein HDCP 2.2), 3x DisplayPort 1.2 | DualLink DVI-I, HDMI 2.0 (kein HDCP 2.2), 3x DisplayPort 1.2 |
Perf.Index | 480/520% * | 530% | 570% | 750% |
Listenpreis | 549$ | 699$ | 549$ | 999$ |
Straßenpreis [12] | 320-360€ | ausgelaufen | 500-540€ | erwartet für ~1100€ |
Release | 24. Oktober 2013 [13] | 7. November 2013 [14] | 19. September 2014 [3] | 17. März 2015 |
* Die zwei differierenden Angaben beziehen sich auf den Quiet/Uber-Modus der Radeon R9 290X. Zu beachten wäre hierbei, das gutklassige Herstellerdesigns dieser Karte die Performance & Leistungsaufnahme des Uber-Modus' auch schon per default erreichen. |
Die GM200-basierte GeForce GTX Titan X kommt hingegen mit 1002 MHz nominellem Chiptakt, 1075 MHz nominellem Boost-Takt und bei der ComputerBase [15] ermittelten 1067 MHz real anliegendem Chiptakt auf recht hohen Chip-Taktraten für einen derart großen Chip daher, auch wenn das Niveau anderer Maxwell-basierter Grafiklösungen damit noch nicht ganz erreicht wird. Hier spielen auch die von nVidia gesetzten Limits für die Chip-Temperatur von 83°C sowie für den Stromverbrauch von 250 Watt mit hinein, welche die Karte doch etwas ausbremsen. Leider sind diese Limits per Treiber nicht großartig weiter beeinflußbar: Bei der Temperatur kann man maximal 91°C erreichen, beim Stromverbrauch maximal 275 Watt (jeweils +10%). Mittels BIOS-Mods oder freigeschalteten Hersteller-Karten sollte hier noch mehr möglich sein – was sich lohnen dürfte, die GeForce GTX Titan X erscheint jetzt schon als recht taktfreudig in Richtung von 1300 MHz real anliegendem Takt.
Dabei scheint in aller Regel nicht zuerst das Power-Limit, sondern zuerst das Temperatur-Limit erreicht zu werden – und selbst im Overclocking-Betrieb keine exorbitanten Stromverbrauchswerte herauszukommen. Dafür aber liegt die GeForce GTX Titan X in der Praxis mit einem realen Spiele-Stromverbrauch von 242 Watt knapp an der Grenze zu ihrer TDP von 250 Watt – aber immer noch besser als GeForce GTX 970 & 980, deren realer Stromverbrauch ihre jeweiligen TDP-Werte klar überbietet (was so eigentlich nicht sein darf, weil sich nVidia somit ungerechtfertigte Vorteile auf dem Papier holt). Geringfügig ist der Stromverbrauch der GeForce GTX Titan X natürlich trotzdem nicht – es werden halt nur keine neuen Stromverbrauchs-Rekorde aufgestellt:
Hardware.fr | Heise | HT4U | PCGH | TechPowerUp | Tom's HW | Ø | Perf./TDP | |
---|---|---|---|---|---|---|---|---|
GeForce GTX Titan X | 15W 255W [16] |
18W 242W [17] |
11W 223W [18] |
9W 224W [19] |
14W 242W |
750% 250W |
||
GeForce GTX 980 [3] | 12W 155W [20] |
? 173W [21] |
11,2W 180,0W [22] |
11,5W 160W [23] |
8W 156W [24] |
15W 185W [25] |
12W 174W |
570% 165W |
GeForce GTX 780 Ti [14] | 15W 220W [26] |
? 243W [27] |
12,9W 260,0W [28] |
16W 248W [29] |
10W 229W [30] |
10W 244W [25] |
13W 245W |
530% 250W |
GeForce GTX Titan Black [31] | 13,3W 243,0W [32] |
11W 226W [25] |
~13W ~230W |
500% 250W |
||||
GeForce GTX Titan [33] | 13W 180W [34] |
11,9W 198,1W [35] |
13W 214W [36] |
10W 208W [37] |
11W 233W [25] |
12W 206W |
480% 250W |
|
Radeon R9 290X (Quiet) [13] | 21W 219W [38] |
? 266W [39] |
20,0W 231,1W [40] |
21W 249W [41] |
16W 236W [42] |
16W 248W [25] |
19W 241W |
480% 250W |
Radeon R9 290X (Uber) [13] | 22W 278W [38] |
20,0W 306,9W [40] |
21W 269W [41] |
17W 246W [42] |
16W 242W [25] |
19W 276W |
520% 250W |
|
Der obere Wert einer Zelle ist immer der Idle-Stromverbrauch, der untere Wert einer Zelle immer der Spiele-Stromverbrauch. In der Durchschnitts-Spalte ("Ø") fettgedruckte Werte basieren auf Berechnungen, die nicht fettgedruckte Werte sind Schätzungen. Die letzte Spalte enthält Angaben zum 3DCenter Performance-Index (oben) sowie zur offiziellen TDP (unten). |
Eben weil die GeForce GTX Titan X in der Praxis eher an ihr Temperatur- als ihr Power-Limit stößt, ist die Kühlung der Karte eines ihrer Problemfelder: Trotz daß nVidia schon im Referenzdesign eine vollständige VaporChamber-Kühlung wie bei der ersten GeForce GTX Titan verbaut (und nicht die abgespeckte Variante wie bei der GeForce GTX 980), kann die Karte aufgrund der gebrachten Performance natürlich kein Leisetreter sein. Für eine klare Enthusiasten-Grafikkarte liegen die gemessenen Werte und das subjektive Gefühl der Hardware-Tester zur Frage der Geräuschentwicklung aber immer noch in einem vernünftigen Rahmen. Vor allem aber konnte nVidias versprochene Arbeit gegenüber Spulenfiepen überzeugen, welches laut den verschiedenen Hardware-Testern auf der GeForce GTX Titan X kaum noch feststellbar ist:
Idle | Spiele-Last | |
---|---|---|
ComputerBase [45] | Man merkt sofort, dass Nvidia bei der GeForce GTX Titan X dasselbe Kühlsystem wie bei vielen anderen GeForce-Grafikkarten verbaut. Auch dieser 3D-Beschleuniger ist unter Windows genau 30 Dezibel laut. Im Gegensatz zu vielen Partnerkarten auf Basis von Maxwell schaltet der Lüfter unter Windows aber nicht ab und bleibt hörbar. | Unter Last kommt die GeForce GTX Titan X auf eine Lautstärke von 47,5 Dezibel. Das ist deutlich lauter als eine GeForce GTX 980 und ein wenig lauter als die GeForce GTX 780 Ti. Bei maximierten Einstellungen erreicht die Grafikkarte dann 50,5 Dezibel und ist störend laut. Spulenfiepen auf der GeForce GTX Titan X sind in der Tat auf niedrigem Niveau. Im Spielealltag sind die Störgeräusche kein Problem. |
Hardwareluxx [46] | Die Referenzkühlung der GeForce GTX Titan X unterscheidet sich nicht großartig vom dem, was wir bereits auf früheren Titan-Modellen oder der GeForce GTX 980 etc. pp. gesehen haben. Insofern überraschen uns die 37,3 dB(A) nicht sonderlich, wenngleich der Wert gut und gerne etwas niedriger hätte sein dürfen. Zum einen wäre ein semipassiver Betrieb zumindest als Option für den Nutzer sicherlich nicht schlecht gewesen. Zum anderen aber könnten die Lüfter im Idle-Betrieb auch etwas langsamer drehen, was sicherlich keine besonders negativen Auswirkungen auf die Idle-Temperatur gehabt hätte. | Ihre Stärken scheint die Referenzkühlung ohnehin eher im Last-Betrieb zu haben, denn hier liegt sie im Vergleich zu den übrigen Kühlungen mit 48,5 dB(A) sehr gut. Auch an dieser Stelle kann uns dies aber nicht überraschen, da die Kühlung in dieser Form bereits in der Vergangenheit zu überzeugen wusste. Sicherlich erreicht die ein oder andere Drittanbieter-Kühllösung hier potenziell bessere Ergebnisse, für eine Referenzkühlung dieser Leistungsklasse setzt NVIDIA aber zurecht wieder auf das altbekannte Design. |
PC Games Hardware [17] | Der Lüfter ist überdies auch potenter (angesteuert) und erreicht seine 0,3 Sone Idle-Lauftheit bereits bei 22 Prozent PWM-Signal. | Während sich die 3D-Lastansteuerung wie bei vielen anderen Geforce-Referenzmodellen im Bereich von 52 bis 55 Prozent bewegt, ist der Lüfter der GTX Titan X dabei allerdings merklich lauter. Wir messen Werte zwischen 4,3 und 4,7 Sone – bei 52 respektive 54 Prozent. |
Tom's Hardware [47] | - | Wir können kein tieferfrequentes Motorgeräusch messen, wie es bei den meisten Board-Partner-Lüftern leider oft genug der Fall ist. Was wir hören, ist ein angenehmes und relativ breitbandiges Rauschen, das über den zwei etwas ausgeprägteren Bereichen bei 1,2 und 1,9 KHz einsetzt. Spannungswandlergeräusche ("Spulenfiepen"), die meist bei etwa sechs bis sieben Kilohertz nachweisbar wären, sind hier Fehlanzeige. Der Rest ab etwa 10 KHz ist dann nur noch reine Luftbewegung. |
Bei der Performance-Ermittlung zur GeForce GTX Titan X ist es natürlich insbesondere relevant, auf das einzugehen, wo die Nutzer die Karte sehen – seelenlose FullHD-Benchmarks gehören da sicherlich nicht dazu. Denn laut den derzeitigen Zwischenergebnissen unserer aktuellen Umfrage [48] wird das Hauptanwendungsgebiet der GeForce GTX Titan X klar (mit 58% der Stimmen) bei Auflösungen mit 8 MPixel Bildpunkten gesehen, dies ist über FullHD mit 4x Downsampling, WQHD mit ~2x Downsampling oder 4K ohne Downsampling erreichbar. Selbst Auflösungen mit mehr als 8 MPixel Bildpunkten erhalten noch den gleich großen Zuspruch (21% der Stimmen) wie Auflösungen mit weniger als 8 MPixel Bildpunkte (ebenfalls 21% der Stimmen), wobei sich für reines FullHD ohne jedes Downsampling auf der GeForce GTX Titan X gerade einmal 6% der Umfrage-Teilnehmer interessieren. Damit dürfte klar sein, auf welche Werte es ankommt bei den nachfolgend zusammengesuchten Performance-Werten der verschiedenen Hardware-Tests:
1920x1080 4xMSAA/FXAA | 290X (U) | 780Ti | 980 | Titan X |
---|---|---|---|---|
ComputerBase [49] (16 Tests) | 64,6% | 73,8% | 80,0% | 100% |
PC Games Hardware [17] (9 Tests) | 66,2% | 66,3% | 82,0% | 100% |
TechPowerUp [50] (20 Tests) | 69% | 72% | 80% | 100% |
1920x1080 4xSSAA | 290X (U) | 780Ti | 980 | Titan X |
---|---|---|---|---|
ComputerBase [49] (11 Tests) | 59,9% | 69,6% | 74,2% | 100% |
2560x1440 4xMSAA/FXAA | 290X (U) | 780Ti | 980 | Titan X |
---|---|---|---|---|
ComputerBase [49] (16 Tests) | 63,4% | 69,0% | 73,9% | 100% |
PC Games Hardware [17] (9 Tests) | 67,3% | 64,8% | 80,0% | 100% |
Tom's Hardware [51] (6 Tests) | 74,0% | 71,7% | 80,0% | 100% |
AnandTech [52] (9 Tests) | 68,3% | 68,5% | 76,4% | 100% |
Hardware Canucks [53] (8 Tests) | 68,5% | - | 75,3% | 100% |
Hot Hardware [54] (5 Tests) | 80,2% | - | 77,4% | 100% |
TechPowerUp [50] (20 Tests) | 70% | 69% | 77% | 100% |
TechSpot [55] (12 Tests) | 68,9% | 66,1% | 73,7% | 100% |
Hardware.fr [56] (12 Tests) | 71,1% | 66,7% | 74,1% | 100% |
2560x1440 4xSSAA | 290X (U) | 780Ti | 980 | Titan X |
---|---|---|---|---|
ComputerBase [49] (11 Tests) | 62,2% | 68,7% | 72,6% | 100% |
3840x2160 MSAA/FXAA | 290X (U) | 780Ti | 980 | Titan X |
---|---|---|---|---|
ComputerBase [49] (16 Tests) | 63,5% | 62,3% | 69,6% | 100% |
PC Games Hardware [17] (9 Tests) | 67,1% | 61,6% | 77,8% | 100% |
Tom's Hardware [51] (6 Tests) | 73,8% | 67,9% | 77,7% | 100% |
AnandTech [52] (9 Tests) | 69,7% | 66,6% | 74,4% | 100% |
Hardware Canucks [53] (8 Tests) | 68,9% | - | 72,4% | 100% |
Hot Hardware [54] (5 Tests) | 76,0% | - | 72,8% | 100% |
TechPowerUp [50] (20 Tests) | 70% | 69% | 76% | 100% |
TechSpot [55] (12 Tests) | 73,2% | 64,6% | 74,3% | 100% |
The Tech Report [57] (7 Tests) | 73,8% | 66,7% | 80,7% | 100% |
Die Benchmark-Werte gehen einzeln betrachtet einmal mehr kunterbunt durcheinander: Wenn die eine Webseite die GeForce GTX 780 Ti um 8,8% vor der Radeon R9 290X ausmißt und die andere Webseite hingegen die AMD-Karte um 3,9% vor der nVidia-Karte (unter derselben Auflösung) sieht, dann ergeben sich schon erhebliche Deutungsunterschiede, wenn man alleinig die Tests einzelner Webseiten liest. Damit kommt wieder einmal erst in der Zusammenrechnung vieler Ergebnisse belastbares Zahlenmaterial für eine halbwegs solide Performance-Betrachtung heraus.
Der auffälligste Punkt an der Performance der GeForce GTX Titan X ist die Bewegung anhand der jeweils genutzten Auflösung – gerade gegenüber den anderen nVidia-Grafikkarte. So liegt die GeForce GTX Titan X gegenüber der GeForce GTX 780 Ti unter 1920x1080 um 42% vorn, unter 2560x1440 schon um 48% und unter 3840x2160 sogar um 55%. Auch gegenüber der GeForce GTX 980 ist dieser Effekt des ansteigenden Performance-Unterschieds bei höher werdenden Auflösungen deutlich zu sehen: Unter 1920x1080 sind es nur 24% Mehrperformance, unter 2560x1440 dann 31% und unter 3840x2160 dann schon 34%. Einzig allein gegenüber der Radeon R9 290X funktioniert diese Rechnung nicht, die AMD-Karte robbt sich unter steigenden Auflösungen vielmehr etwas näher an die GeForce GTX Titan X heran: Unter 1920x1080 liegt die neue nVidia-Karte noch um 50% vorn, unter 2560x1440 sind es noch 45% mehr und unter 3840x2160 geht der Unterschied dann auf 43% zurück.
Daß die GeForce GTX Titan X damit alles dominiert, ist natürlich auch klar – allein die Höhe des Unterschieds ist eine Frage dessen, was man und gegen welche Vergleichs-Hardware man mißt. Die Performance-Bandbreite ist bei der GeForce GTX Titan X ungewöhnlich groß, demzufolge ist es auch recht schwer, der Karte einen Performance-Index zuzuweisen, wird dieser schließlich immer nur einen unperfekten Mittelwert anzeigen. Nichtsdestotrotz: Bei Konzentration auf die Performance unter 2560x1440 und 3840x2160 erscheint ein Performance-Index von 750% für die GeForce GTX Titan X als angemessen. Unter FullHD wird dieser Performance-Index zwar nicht erreicht, aber dies ist für die neue nVidia-Karte wirklich nicht relevant.
290X (U) | 780Ti | 980 | Titan X | |
---|---|---|---|---|
1920x1080 4xMSAA/FXAA | 66,6% | 70,6% | 80,7% | 100% |
2560x1440 4xMSAA/FXAA | 69,0% | 67,7% | 76,2% | 100% |
3840x2160 MSAA/FXAA | 69,7% | 64,6% | 74,6% | 100% |
3DCenter Performance-Index | 520% | 530% | 570% | 750% |
Spiele-Stromverbrauch [11] | 279W | 251W | 174W | 242W |
Straßenpreis [12] | 320-360€ | ausgelaufen | 500-540€ | erwartet für ~1100€ |
Dies sieht auf den ersten Blick ganz gut aus für die GeForce GTX Titan X – zumindest wenn man einrechnet, daß für die Karte keine neue Fertigungstechnologie zur Verfügung stand und damit solche eine Performance-Offenbarung wie mit der seinerzeitigen ersten GeForce GTX Titan (+71% gegenüber der besten SingleChip-Lösung der vorherigen Generation) einfach nicht realisierbar ist. Allerdings wird mit der erzielten Performance unter 3840x2160 nicht das erreicht, für was nVidia die GeForce GTX Titan X eigentlich anpreist: Die Karte ist zwar klar die schnellste 4K-Lösung, aber die gebotenen Frameraten sind noch nicht hoch genug für problemlosen 4K-Genuß auf höchstmöglicher Bildqualität. Sicher kann man immer irgendeinen Bildqualitäts-Kompromiß für spielbare 4K-Frameraten erreichen – aber für Kompromisse kauft man sich eigentlich keine 1000-Euro-Grafikkarte.
Daß dieses Ziel der 4K-Problemlosigkeit nicht erreicht werden konnte, ist aber kein Fehler der Karte, sondern ein Fehler des nVidia-Marketings, welches die Karte einfach nicht besser zu positionieren wusste. Um 4K-Problemlosigkeit zu erreichen, reichen aber vom vorherigen Stand aus keine 30-50% Mehrperformance (wie mit der GeForce GTX Titan X geboten), dafür müsste man Richtung 100% Mehrperformance hinlegen – was auf Basis der bestehenden Technik einfach nicht möglich ist. Eventuell macht es AMD mit der kommenden Radeon R9 390X [58] mit ihrer riesigen Speicherbandbreite (+90% zur GeForce GTX Titan X) besser, eventuell muß dies eine Aufgabe für die nächstes Jahr zu erwartenden 14/16nm-Grafikchips bleiben. Die GeForce GTX Titan X ist somit als 4K-Grafikkarte schlicht falsch positioniert – sie ist hingegen eine exzellente Karte für die Auflösung von 2560x1440 geworden.
Ebenfalls (noch) nicht gänzlich befriedigend ist die Overclocking-Eignung, welche maßgeblich durch nVidias harte Limits bei Temperatur und Stromverbrauch begrenzt wird. Der GM200-Chip scheint über exzellente Taktreserven zu verfügen, teilweise sind bis zu 1400 MHz Chiptakt zu sehen – welche jedoch je nach Spiel und Benchmark schnell durch die Temperatur- und Power-Limits heruntergeregelt werden. Die tolle Situation der originalen GeForce GTX Titan, welcher man durch Overclocking und Limit-Erhöhungen durchaus bis zu 35% Mehrperformance entlocken konnte, ist bei der GeForce GTX Titan X noch lange nicht erreicht. Dies kann aber noch kommen: Hersteller-Designs mit Wasserkühlung und höheren Power-Limits vorausgesetzt, sollte selbiges eigentlich auch bei der GeForce GTX Titan X möglich sein. Derzeit sind die Overclocking-Gewinne zwar schon gutklassig, aber nicht überragend: Die ComputerBase [59] erreichte +17% unter 3840x2160, die PC Games Hardware [60] immerhin +23% unter 4096x2160.
In der Summe der Dinge ist die GeForce GTX Titan X eine gute Enthusiasten-Grafikkarte – welche jedoch zu wenig wirklich herausragendes bietet für ihren satten Preispunkt von 999 Dollar, was zu aktuellen Dollar/Euro-Kursen einen Straßenpreis von über 1100 Euro ergeben sollte. Gegenüber der nur ~25% langsameren GeForce GTX 980 ist dies eine Preisverdopplung, gegenüber der ~30% langsameren Radeon R9 290X sogar eine Preis-Verdreifachung. Dafür hätte nVidia etwas mehr bieten müssen als einfach nur platt 12 GB Speicher, was zwar für SLI-Systeme nett ist, aber ansonsten derzeit vollkommen nutzlos erscheint. Gerade bessere Overclocking-Features wären etwas gewesen, woran sich Enthusiasten hätten abarbeiten können und was den extremen Preispunkt besser gerechtfertigt hätte. So ist die GeForce GTX Titan X aber einfach nur überteuert und dennoch für die 4K-Auflösung zu kurz gesprungen. Angesichts des kommenden AMD-Konters empfiehlt es sich eher abzuwarten, ob die Radeon R9 390X [58] es nicht besser machen kann.
|
Nachtrag vom 18. März 2015
Die PC Games Hardware [64] zeigt eine erste ab Werk wassergekühlte GeForce GTX Titan X in Form der "EVGA Titan X Hydro Copper", welche mit einem (auch frei verkauften) Wasserkühler von EK Water Blocks ausgerüstet antreten wird. Taktraten, Preis und Termin sind leider noch nicht bekannt, gerechnet wird mit einem Aufpreis von 200 Euro. Dies macht bei der GeForce GTX Titan X das Kraut dann wohl auch nicht mehr fett – die Karte hat laut HT4U [65] nunmehr einen deutschen Listenpreis von 1149 Euro bekommen und genauso finden sich laut der PC Games Hardware [66] auch schon erste (noch nicht lieferbare) Angebote in den Preisvergleichen ein. Die Karte ist in den USA dagegen schon lieferbar, soll in Europa jedoch erst zum Monatsende in den Handel gelangen.
Nachtrag vom 20. März 2015
Die PC Games Hardware [67] hat ein erstes, im 3DCenter-Forum [68] zur Verfügung gestelltes, Mod-BIOS für die GeForce GTX Titan X ausprobiert. Hiervon gibt es zwei Versionen: Eines mit einem modifiziertem Power-Limit von 350 Watt regulär und bis zu 425 Watt maximal – sowie ein zusätzliches Mod-BIOS mit zudem einer GPU-Spannungserhöhung auf 1.281 Volt. Bei der PCGH konnten mittels dieses BIOS dann Taktraten von 1550/4000 MHz erreicht werden, die Grafikkarte wurde dabei allerdings mit einem Arctic Accelero Xtreme IV gekühlt. Dies funktioniert (bislang) stabil durch alle Benchmarks – genaues zu den real wirkenden Taktraten und der damit erzielbaren Performance wird die PCGH noch nachliefern. Aber bislang sieht es mit 40-50% höheren Frameraten als bei der regulären GeForce GTX Titan X schon einmal sehr gut aus – der GM200-Chip scheint dann doch noch seine Bestimmung im (extremen) Overclocking-Einsatz zu finden.
Nachtrag vom 25. März 2015
Die PC Games Hardware [67] hat noch einmal nachgemessen, was der Mod-BIOS [68] zur GeForce GTX Titan X, mittels welchem Taktraten von 1550/4000 MHz stabil erreicht werden konnten, an Performance abwirft. Unter leider nur einem einzelnen Test (Crysis 3) zog die Performance unter 4K gegenüber der default-Taktung von nVidias neuem Flaggschiff um 29,5% davon – was jetzt leider nicht so eindrucksvoll erscheint, im initialen Overclocking-Test der GeForce GTX Titan X ohne Mod-BIOS auf 1300/4000 MHz erreichte die PCGH schon ein Performanceplus von 21,4% im selben Einzeltest bzw. 23% über ein größeres Benchmark-Feld. Augenscheinlich bremst hier die Speichertakt-Erhöhung von nur 14% den gesamten Übertaktungserfolg aus, denn beim Chiptakt geht es (ausgehend von 1000/1075 MHz) nun wirklich sattsam nach oben. Eventuell würde ein Benchmark unter 2560x1440 einen größeren Übertaktungsgewinn zeigen können, da dort der Einfluß der Speicherbandbreite nicht ganz so groß sein sollte wie unter 4K. Zudem bliebe abzuwarten, was Wasserkühlung noch an dieser Tendenz ändern kann.
Nachtrag vom 26. März 2015
Die ComputerBase [69] berichtet über neue Taktrekorde auf der GeForce GTX Titan X: Der bekannte Übertakter "K|NGP|N" erreichte unter Zuhilfenahme von flüssigem Stickstoff als Kühllösung satte 2020 MHz Chiptakt – was dann auch (und trotz nur 4100 MHz Speichertakt) für deutliche Bestwerte im 3DMark13 reichte. Straff übertaktete GeForce GTX 980 Karten kommen allerdings auch schon auf bis zu 90% an die dabei erzielten 3DMarks heran – sehr verwunderlich, dann immerhin liegt bei der GeForce GTX Titan X rein technisch eine um 50% leistungsfähigere Hardware gegenüber der GeForce GTX 980 vor. Zudem ist die Skalierung der GeForce GTX Titan X unter extremen Overclocking zumindest unter dem 3DMark13 auch hervorragend: Die Karte schafft unter FireStrik Extreme unübertaktet ~6200 3DMarks [70], daher sind die 11612 3DMarks [71] auf 2020/4100 MHz ein exzellentes Ergebnis, die Skalierung unter realen Spielen dürfte (wegen des nur maßvoll höheren Speichertakts) weit niedriger ausfallen. Gegenüber der nur leicht überbotenen GeForce GTX 980 kommen vielleicht in Zukunft noch bessere Ergebnisse für die GeForce GTX Titan X hinzu, letztere Karte ist schließlich erst seit ein paar Tagen erhältlich.
Nachtrag vom 5. April 2015
Gemäß Bits & Chips [72] (maschinelle Übersetzung ins Deutsche [73]) soll nVidia an einer (offiziellen) wassergekühlten GeForce GTX Titan X arbeiten, welche mit einem Taktsprung von immerhin 250 MHz und einer TDP in der Nähe von 300 Watt operieren soll. Prinzipiell gesehen erscheint dies als vollkommen logische Lösung der Frage, wie nVidia dem Fiji-Chip [58] begegnen sollte, wenn jener tatsächlich etwas schneller als der GM200-Chip herauskommt – und da AMD am oberen Ende ebenfalls eine wassergekühlte Lösung ansetzt, kann dies nVida natürlich genauso tun und damit dem Kampf um die absolute Leistungskrone erneut aufnehmen. Der Taktratensprung sieht dafür in jedem Fall potent aus, die Steigerung des Stromverbrauchs ist dagegen etwas niedrig, da gut übertaktete GeForce GTX Titan X Karten schon jetzt eher 350 Watt ziehen. Einziges Problem für nVidia wäre wohl der Preispunkt, denn eine wassergekühlte GeForce GTX Titan X müsste dann noch teurer werden als das Original, welches immerhin 1150 Euro kostet. Mal schauen, ob sich dieses Gerücht bewahrheitet – aber sinnvoll erscheint diese Idee durchaus, die Karte könnte tatsächlich in dieser oder ähnlicher Form erscheinen.
Nachtrag vom 9. April 2015
Mittels des neuen Testberichts zur GeForce GTX Titan X seitens HT4U [74] können die Stromverbrauchs-Werte der Karte vervollständigt werden, zudem ergeben sich natürlich auch (leicht) abweichende Durchschnittswerte – welche nunmehr auf 13 Watt Idle-Verbrauch bzw. 244 Watt Spiele-Verbrauch bei der GeForce GTX Titan X lauten. Die von HT4U ermittelten 1092 MHz durchschnittlich real anliegender Boost-Takt (gemessen im offenen Gehäuse) entsprechen zudem grob der bisherigen Messung der ComputerBase, welche 1067 MHz durchschnittlich real anliegenden Boost-Takt nach einer Vorwärmphase von 20 Minuten ausgemessen haben.
Hardware.fr | Heise | HT4U | PCGH | TechPowerUp | Tom's HW | Ø | Perf./TDP | |
---|---|---|---|---|---|---|---|---|
GeForce GTX Titan X | 15W 255W [16] |
11,8W 250,0W [75] |
18W 242W [17] |
11W 223W [18] |
9W 224W [19] |
13W 244W |
720% 250W |
|
GeForce GTX 980 [3] | 12W 155W [20] |
? 173W [21] |
11,2W 180,0W [22] |
11,5W 160W [23] |
8W 156W [24] |
15W 185W [25] |
12W 174W |
570% 165W |
GeForce GTX 780 Ti [14] | 15W 220W [26] |
? 243W [27] |
12,9W 260,0W [28] |
16W 248W [29] |
10W 229W [30] |
10W 244W [25] |
13W 245W |
530% 250W |
GeForce GTX Titan Black [31] | 13,3W 243,0W [32] |
11W 226W [25] |
~13W ~230W |
500% 250W |
||||
GeForce GTX Titan [33] | 13W 180W [34] |
11,9W 198,1W [35] |
13W 214W [36] |
10W 208W [37] |
11W 233W [25] |
12W 206W |
480% 250W |
|
Radeon R9 290X (Quiet) [13] | 21W 219W [38] |
? 266W [39] |
20,0W 231,1W [40] |
21W 249W [41] |
16W 236W [42] |
16W 248W [25] |
19W 241W |
480% 250W |
Radeon R9 290X (Uber) [13] | 22W 278W [38] |
20,0W 306,9W [40] |
21W 269W [41] |
17W 246W [42] |
16W 242W [25] |
19W 276W |
520% 250W |
|
Der obere Wert einer Zelle ist immer der Idle-Stromverbrauch, der untere Wert einer Zelle immer der Spiele-Stromverbrauch. In der Durchschnitts-Spalte ("Ø") fettgedruckte Werte basieren auf Berechnungen, die nicht fettgedruckte Werte sind Schätzungen. Die letzte Spalte enthält Angaben zum 3DCenter Performance-Index (oben) sowie zur offiziellen TDP (unten). |
Eine nochmals veränderte Darstellungsform zur Performance der GeForce GTX Titan X unter einzelnen Auflösungen im Vergleich zu den anderen HighEnd-Grafikkarten ergab sich nach der Diskussion [76] zu einer entsprechenden Meldung [77]. Die unten zu sehende Darstellungsform konzentriert sich auf die relativen Unterschiede der Karten zueinander, insbesondere im Vergleich zwischen den einzelnen Auflösungen. Richtig gut ist hierbei die steigenden Performance-Tendenz der Radeon R9 290X unter höheren Auflösungen zu sehen, genauso auch wie die fallende Performance-Tendenz von GeForce GTX 780 Ti und 980 unter höheren Auflösungen:
Und letztlich ergab sich aus der Diskussion über eine bessere Darstellung zur Performance dieser extrem schnellen und nur noch für sehr hochauflösende Monitore gedachten Grafikkarten wie eben der GeForce GTX Titan X die Idee [79], zukünftig mit einem weiteren Performance-Index allein für 4K-Bedürfnisse zu arbeiten und dafür den regulären 3DCenter Performance-Index auch für die GeForce GTX Titan X bei der Auflösung von 1920x1080 (FullHD) zu belassen. Sicherlich gäbe es auch andere Möglichkeiten, aber mit diesem zweiten Performance-Index bleibt die grundlegende Zielsetzung des 3DCenter Performance-Index noch am besten erhalten – nämlich in einer Zahl einen gewissen generellen Anhaltswert abzuliefern, ohne deswegen den (unrealistischen) Anspruch auf eine vollständige Performance-Aussage zu haben.
Wer werden zukünftig diesen Weg gehen und alle Grafikkarten mit Eignung für 4K-Gaming mit einem zweiten, auf die 4K-Auflösung ausgerichteten Performance-Index ausstatten. Der reguläre Performance-Index wird sich hingegen wie bisher primär auf die Performance unter FullHD konzentrieren – was dann aber auch bedeutet, daß jener reguläre Performance-Index für die GeForce GTX Titan nunmehr korrigiert werden muß. In der ursprünglichen Launch-Analyse [44] wurde die GeForce GTX Titan X mit einem Performance-Index von "750%" bedacht, was aber einem Mix der Ergebnisse unter 1920x1080, 2560x1440 und 3840x2160 geschuldet war. Nunmehr mit der Konzentration des regulären Performance-Index auf die Resultate unter 1920x1080 muß dieser Wert für die GeForce GTX Titan X auf 720% korrigiert werden.
290X (U) | 780Ti | 980 | Titan X | |
---|---|---|---|---|
1920x1080 4xMSAA/FXAA | 66,6% | 70,6% | 80,7% | 100% |
2560x1440 4xMSAA/FXAA | 69,0% | 67,7% | 76,2% | 100% |
3840x2160 MSAA/FXAA | 69,7% | 64,6% | 74,6% | 100% |
3DCenter Performance-Index (FullHD) | 520% | 530% | 570% | 720% |
3DCenter 4K Performance-Index | 70% | 65% | 75% | 100% |
Spiele-Stromverbrauch [11] | 279W | 251W | 174W | 244W |
Straßenpreis [12] | 330-370€ | ausgelaufen | 510-550€ | 1110-1150€ |
Gänzlich neu ist dagegen der "3DCenter 4K Performance-Index", welchen wir für die GeForce GTX Titan X einfach einmal auf 100% festgesetzt haben. Dies hat den Vorteil, daß der optische Unterschied in der Höhe gegenüber dem regulären 3DCenter Performance-Index ausreichend hoch ist, um keinerlei Mißverständnisse zu provozieren. Zudem ermöglicht die niedrige Zahl von 100% für die GeForce GTX Titan X, daß dieser Performance-Index noch lange Zeit benutzt werden kann, ohne in utopisch hohen Zahlen zu enden. Davon abgesehen ist die Spielbarkeit der GeForce GTX Titan X unter der 4K-Auflösung wie bekannt als "grenzwertig" zu betrachten, insofern ist die Karte mit 100% im 4K Performance-Index regelrecht wohlwollend eingeordnet.
Verweise:
[1] http://www.3dcenter.org/users/leonidas
[2] http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-960
[3] http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-970-980
[4] http://www.3dcenter.org/dateien/abbildungen/nVidia-GeForce-GTX-Titan-X-Referenzdesign.png
[5] http://www.3dcenter.org/abbildung/nvidia-geforce-gtx-titan-x-referenzdesign
[6] http://www.3dcenter.org/news/welche-grafikkarten-beherrschen-directx-120-und-121-hardware
[7] http://www.3dcenter.org/dateien/abbildungen/nVidia-GeForce-GTX-Titan-X-Block-Diagramm.png
[8] http://www.3dcenter.org/abbildung/nvidia-geforce-gtx-titan-x-block-diagramm
[9] http://www.3dcenter.org/dateien/abbildungen/nVidia-GM200-Chip-Shader-Cluster-SMM.png
[10] http://www.3dcenter.org/abbildung/nvidia-gm200-chip-shader-cluster-smm
[11] http://www.3dcenter.org/artikel/stromverbrauch-aktueller-und-vergangener-grafikkarten
[12] http://www.3dcenter.org/artikel/grafikkarten-marktueberblick-februar-2015
[13] http://www.3dcenter.org/artikel/launch-analyse-amd-radeon-r9-290x
[14] http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-780-ti
[15] http://www.computerbase.de/2015-03/nvidia-geforce-gtx-titan-x-im-test/2/
[16] http://www.hardware.fr/articles/933-7/consommation-efficacite-energetique.html
[17] http://www.pcgameshardware.de/Geforce-GTX-Titan-Grafikkarte-256920/Specials/Geforce-GTX-Titan-X-Test-Benchmark-1153643/
[18] http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_Titan_X/27.html
[19] http://www.tomshardware.com/reviews/nvidia-geforce-gtx-titan-x-gm200-maxwell,4091-5.html
[20] http://www.hardware.fr/articles/928-7/consommation-efficacite-energetique.html
[21] http://www.heise.de/newsticker/meldung/Effizienzwunder-Maxwell-2-0-auf-GeForce-GTX-970-und-980-2398821.html
[22] http://ht4u.net/reviews/2014/nvidia_maxwell_next-gen_geforce_gtx_970_und_gtx_980_im_test/index24.php
[23] http://www.pcgameshardware.de/Geforce-GTX-980-Grafikkarte-259282/Tests/Test-Geforce-GTX-980-970-GM204-Maxwell-1136157/
[24] http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_980/24.html
[25] http://www.tomshardware.de/geforce-gtx-980-gtx-970-maxwell-gpu,testberichte-241646-13.html
[26] http://www.hardware.fr/articles/912-3/consommation.html
[27] http://www.heise.de/newsticker/meldung/Kampf-um-die-Leistungsspitze-GeForce-GTX-780-Ti-2041900.html
[28] http://ht4u.net/reviews/2013/nvidia_geforce_gtx_780_ti_gk110_complete_review/index17.php
[29] http://www.pcgameshardware.de/Geforce-GTX-780-Grafikkarte-257241/Tests/Geforce-GTX-780-Ti-Test-1096105/2/
[30] http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_780_Ti/25.html
[31] http://www.3dcenter.org/artikel/eine-performance-einordnung-der-geforce-gtx-titan-black
[32] http://ht4u.net/reviews/2014/nvidia_geforce_gtx_titan_black_6gb_review/index15.php
[33] http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-titan
[34] http://www.hardware.fr/articles/887-6/consommation-efficacite-energetique.html
[35] http://ht4u.net/reviews/2013/nvidia_geforce_gtx_titan_asus_gigabyte_test/index19.php
[36] http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Test-Geforce-GTX-Titan-1056659/3/
[37] http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_Titan/25.html
[38] http://www.hardware.fr/articles/910-9/consommation.html
[39] http://www.heise.de/newsticker/meldung/AMD-Radeon-R9-290X-Titan-Killer-zum-halben-Preis-1984374.html
[40] http://ht4u.net/reviews/2013/amd_radeon_r9_290x_hawaii_review/index21.php
[41] http://www.pcgameshardware.de/Geforce-GTX-780-Grafikkarte-257241/Tests/Radeon-R9-290X-im-Test-1093796/3/
[42] http://www.techpowerup.com/reviews/AMD/R9_290X/25.html
[43] http://www.forum-3dcenter.org/vbulletin/showthread.php?t=562113
[44] http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-titan-x
[45] http://www.computerbase.de/2015-03/nvidia-geforce-gtx-titan-x-im-test/7/
[46] http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/34550-nvidia-geforce-gtx-titan-x-im-test.html?start=5
[47] http://www.tomshardware.de/nvidia-geforce-gtx-titan-x-gm200-maxwell,testberichte-241762-6.html
[48] http://www.3dcenter.org/umfrage/fuer-welche-aufloesungen-sind-gm200-fiji-interessant
[49] http://www.computerbase.de/2015-03/nvidia-geforce-gtx-titan-x-im-test/
[50] http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_Titan_X/
[51] http://www.tomshardware.de/nvidia-geforce-gtx-titan-x-gm200-maxwell,testberichte-241762.html
[52] http://www.anandtech.com/show/9059/the-nvidia-geforce-gtx-titan-x-review/5
[53] http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/68992-nvidia-titan-x-performance-review.html
[54] http://hothardware.com/reviews/nvidia-geforce-gtx-titan-x-review-efficient-powerful
[55] http://www.techspot.com/review/977-nvidia-geforce-gtx-titan-x/
[56] http://www.hardware.fr/articles/933-1/nvidia-geforce-gtx-titan-x-12-go-gm200-test-retour-carte-1000.html
[57] http://techreport.com/review/27969/nvidia-geforce-gtx-titan-x-graphics-card-reviewed
[58] http://www.3dcenter.org/news/amd-praesentation-zur-radeon-r9-390x-geleakt
[59] http://www.computerbase.de/2015-03/nvidia-geforce-gtx-titan-x-im-test/8/
[60] http://www.pcgameshardware.de/Geforce-GTX-Titan-Grafikkarte-256920/Specials/Geforce-GTX-Titan-X-Test-Benchmark-1153643/2/
[61] http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/34550-nvidia-geforce-gtx-titan-x-im-test.html
[62] http://www.anandtech.com/show/9059/the-nvidia-geforce-gtx-titan-x-review
[63] http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-titan-x/launch-analyse-nvidia-geforce-gtx-titan-x-seite-2
[64] http://www.pcgameshardware.de/Geforce-GTX-Titan-X-Grafikkarte-260203/News/EVGA-Hydro-Copper-Wasserkuehlung-1153846/
[65] http://ht4u.net/news/30820_geforce_titan_x_uvp_liegt_bei_stolzen_1149_euro/
[66] http://www.pcgameshardware.de/Geforce-GTX-Titan-X-Grafikkarte-260203/News/Preisvergleich-Euro-1153924/
[67] http://www.pcgameshardware.de/Geforce-GTX-Titan-X-Grafikkarte-260203/News/Arctic-Xtreme-IV-Mod-BIOS-1154063/
[68] http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10558579#post10558579
[69] http://www.computerbase.de/2015-03/geforce-gtx-titan-x-erreicht-mit-2-ghz-neue-rekorde/
[70] http://hothardware.com/reviews/nvidia-geforce-gtx-titan-x-review-efficient-powerful?page=4
[71] http://hwbot.org/submission/2803527_kingpin_3dmark___fire_strike_extreme_geforce_gtx_titan_x_11612_marks
[72] http://www.bitsandchips.it/9-hardware/5419-evga-gtx-980-hybrid-prove-tecniche-di-liquid-aio-prima-di-titan-ultra
[73] http://translate.google.de/translate?hl=de&ie=UTF8&prev=_t&sl=it&tl=de&u=http://www.bitsandchips.it/9-hardware/5419-evga-gtx-980-hybrid-prove-tecniche-di-liquid-aio-prima-di-titan-ultra
[74] http://ht4u.net/reviews/2015/nvidia_geforce_gtx_titan_x_im_test_-_gm200_im_vollausbau/
[75] http://ht4u.net/reviews/2015/nvidia_geforce_gtx_titan_x_im_test_-_gm200_im_vollausbau/index18.php
[76] http://www.forum-3dcenter.org/vbulletin/showthread.php?t=562486&page=2
[77] http://www.3dcenter.org/news/eine-andere-darstellungsform-zur-performance-der-aktuellen-highend-grafikkarten
[78] http://www.3dcenter.org/abbildung/performance-vergleich-aus-sicht-der-geforce-gtx-titan-x-relativ
[79] http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10576443#post10576443
[80] http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-titan-x/launch-analyse-nvidia-geforce-gtx-titan-x-nachtrae