Eine sehr lange Zeit musste gewartet werden – nun ist sie endlich da, nVidias eigentliche HighEnd-Lösung der Kepler-Generation. Denn entgegen dem bisherigen Release-Verlauf (mit dem GK104-Chip der GeForce GTX 680 [2] zuerst) und auch des nVidia-Marketings handelt es sich bei der "GeForce GTX Titan" auf Basis des GK110-Chips nicht um eine "Profi-Lösung heruntergeschraubt für den Gamer-Markt", sondern eigentlich nichts anderes als das, was nVidia mit den früheren Chips G80 (484mm² Chipfläche), GT200 (576mm²), GF100 (529mm²) & GF110 (520mm²) bereits in den letzten Grafikchip-Generationen durchgehend anbot: Konsequentes HighEnd am oberen Ende der technischen Machbarkeit.
Daraus resultiert auch sofort, daß der GK110-Chip wieder in seiner komplett eigenen Liga spielt – kein anderer Grafikchip der 28nm-Generation kommt auch nur in die Nähe seiner Chipfläche von gleich 561mm² bzw. der Transistoren-Anzahl von 7,1 Milliarden. Ein direkter Vergleich mit den schnellsten AMD-Lösungen verbietet sich demzufolge (eigentlich), denn AMDs schnellster Chip in Form des R1000/Tahiti geht weit sparsamer mit der Chipfläche (365mm²) als auch der Transistoren-Anzahl (4,3 Mrd.) um. Der GK110-Chip steht in dieser Frage allein auf weiter Flur und wird aufgrund dieser hohen Hardware-Ansetzung natürlich keine Schwierigkeiten haben, den absoluten Performance-Thron im SingleChip-Segment zu erringen.
Technologisch gesehen basiert der GK110-Chip allerdings immer noch auf der originalen Kepler-Generation (sofern nVidia überhaupt jemals vorhaben sollte, der Kepler-Refreshgeneration irgendwelche Architektur-Änderungen zu verpassen). So gibt es weiterhin nur das Featurelevel DirectX 11.0 – was im Sinne des Absolutheits-Anspruchs von GeForce GTX Titan dann doch etwas schmerzen könnte – sowie keinerlei weiteren Architektur-Änderungen gegenüber den bisherigen Kepler-Chips abseits der aber sowieso nur dem GK110-Chip zustehenden extra Transistoren für GPGPU-Belange. Hierzu zählt die deutlich höhere DoublePrecision-Leistung des GK110-Chips sowie ein größerer Level2-Cache und die Erhöhung der Register-Zugriffe, wobei nur die beiden letzteren Features auch im Spieleinsatz eine Zweitverwendung finden können.
nVidia GK104 | nVidia GK110 | |
---|---|---|
grundlegende Technik (im Vollausbau) | DirectX 11.0, 4 Raster-Engines, 1536 Shader-Einheiten, 128 TMUs, 32 ROPs, 256 Bit DDR Speicherinterface | DirectX 11.0, 5 Raster-Engines, 2880 Shader-Einheiten, 240 TMUs, 48 ROPs, 384 Bit DDR Speicherinterface |
SP/DP-Verhältnis | 1:24 | 1:3 |
Level1-Cache pro SMX | 64 kB | 64 kB |
Daten-Cache pro SMX | 48 kB | 48 kB |
Level2-Cache insgesamt | 512 kB | 1536 kB |
Register pro SMX | 65536 | 65536 |
Register-Zugriffe pro Thread | 63 | 255 |
Davon abgesehen handelt es sich beim GK110-Chip schlicht um einen hochgepumpten GK104-Chip: Basierend auf denselben Shader-Clustern (SMX) wie in der kompletten Kepler-Generation mit jeweils 192 (1D) Shader-Einheiten und 16 Textureneneinheiten (TMUs) gibt es schlicht anstatt 8 SMX nunmehr deren 15 SMX (nur 14 davon aktiv bei GeForce GTX Titan), anstatt 4 Raster-Engines deren 5, anstatt 4 ROP-Partitionen deren 6 und anstatt eines 256 Bit DDR breiten Speicherinterfaces ein 384 Bit DDR breites. Irgendwelche Effizenzverbesserungen oder echte Architektur-Änderungen sind hingegen nicht bekannt, die speziellen Profi-Features des GK110-Chips sind zumeist nur bei Programmierung über Cuda ansprechbar und damit für den Gaming-Einsatz fast ausschließlich uninteressant. Ernsthaft Performance-wirksam könnte allerhöchstens der schon genannte größere Level2-Cache sein.
![]() nVidia GK110 Block-Diagramm [6] |
![]() nVidia GK110 Shader-Cluster (SMX) [8] |
Die GeForce GTX Titan ist dann nochmals eine leicht andere Geschichte, da nVidia zuerst einen der 15 Shader-Cluster deaktivierte – und danach auch noch die DoublePrecision-Performance mittels eines deutlich niedrigeren Takts beschnitten hat. So laufen bei der GeForce GTX Titan die DoublePrecision-Einheiten per default nur mit 1/8 des Chiptakts, womit die Karte (in diesem Zustand) eine DoublePrecision-Leistung nur wenig mehr als bei einer (diesbezüglich sehr schwachen) GeForce GTX 680 aufbietet. Den Takt der DoublePrecision-Einheiten kann man zwar im Controlpanel der nVidia-Treiber verändern und auf den vollen Chiptakt bringen – mit allerdings dem Nachteil, daß der Chip somit klar wärmer wird und daher sowohl seinen Boost-Takt generell nicht mehr ausspielen kann als auch sich eventuell sogar unterhalb der nominellen Chip-Taktfrequenz heruntertaktet.
Gleichzeitig tritt die GeForce GTX Titan aber auch mit deutlich höheren Taktraten gegenüber den Profi-Varianten des GK110-Chips an: Während eine Tesla K20X [9] nur 735 MHz Chiptakt sowie 2600 MHz Speichertakt aufweist, kommt die GeForce GTX Titan mit 837 MHz nominellem Takt, 876 MHz durchschnittlichem Boost-Takt und einem Speichertakt von gleich 3000 MHz daher. Gleichzeitig steigt die TDP der Karte nur unwesentlich von 235 Watt bei der Tesla K20X auf nunmehr 250 Watt bei der GeForce GTX Titan an.
AMD Radeon HD 7990 | GeForce GTX 690 | GeForce GTX Titan | |
---|---|---|---|
Chipbasis | 2x AMD R1000/Tahiti, 2x 4,3 Mrd Transistoren in 28nm auf 2x 365mm² Chipfläche | 2x nVidia GK104, 2x 3,54 Mrd. Transistoren in 28mn auf 2x 294mm² Chipfläche | nVidia GK110, 7,1 Mrd. Transistoren in 28nm auf 561mm² Chipfläche |
DirectX-Level | DirectX 11.1 | DirectX 11.0 | DirectX 11.0 |
Technik | GCN-Architektur, 4 Raster Engines, 4096 (1D) Shader-Einheiten, 256 TMUs, 64 ROPs, 2x 384 Bit DDR Speicherinterface | Kepler-Architektur, 8 Raster Engines, 3072 (1D) Shader-Einheiten, 256 TMUs, 64 ROPs, 2x 256 Bit DDR Speicherinterface | Kepler-Architektur, 5 Raster Engines, 2688 (1D) Shader-Einheiten, 224 TMUs, 48 ROPs, 384 Bit DDR Speicherinterface |
Taktraten | 925/2750 MHz | 915/1019/3000 MHz | 837/876/3000 MHz |
Speicherausbau | 2x 3 GB GDDR5 (logisch nutzbar nur 3 GB) |
2x 2 GB GDDR5 (logisch nutzbar nur 2 GB) |
6 GB GDDR5 |
PCI Express | 1.x/2.0/3.0 | 1.x/2.0/3.0 | 1.x/2.0/3.0 |
Layout | TripleSlot | DualSlot | DualSlot |
Kartenlänge | 31,5cm | 28cm | 26,5cm |
Stromanschlüsse | 2x 8pol. | 2x 8pol. | 1x 6pol. + 1x 8pol. |
TDP | 375W | 300W | 250W |
Idle-Verbrauch [10] | ca. 30W | 24W | 12W |
Spieleverbrauch [10] | ca. 320W | 270W | 206W |
3DC Perf.Index (1920x1080 4xAA) |
~580% | 580% | 480% |
Listenpreis | kein offizielles AMD-Produkt | 999$ | 999$ |
Straßenpreis | 830-860€ | 850-880€ | 940-950€ (lieferbar ab 26. Februar) |
Diese durchaus beeindruckende Hardware-Daten der GeForce GTX Titan relativieren sich etwas, wenn man einrechnet, mit welchen Kontrahenten es die Karte aufgrund ihres Preispunkts von über 900 Euro auf dem aktuellen Grafikkarten-Markt zu tun haben wird: Sicherlich nicht den bisher schnellsten SingleChip-Grafikkarten Radeon HD 7970 "GHz Edition" [13] (derzeit 370-400€ Straßenpreis) und GeForce GTX 680 [2] (400-430€), sondern zuerst deren DualChip-Abwandlungen Radeon HD 7990 (830-860€) und GeForce GTX 690 [14] (850-880€). Jene haben letztlich einen ungefähr der GeForce GTX Titan entsprechenden Preispunkt und sind damit die natürlichen Kontrahenten von nVidias SingleChip-Monster.
Obwohl auf deutlich kleineren Chips basierend, liegen Radeon HD 7990 und GeForce GTX 690 dabei bezüglich ihrer Rohleistungen teilweise deutlich vor der GeForce GTX Titan – begünstigt maßgeblich durch die bei diesen kleineren Chips möglichen höheren Taktraten. Hier zeigen sich die Limitationen immer größerer Chips: Bei jenem wird dann immer weniger Taktrate möglich – noch größere Chips könnten zwar noch mehr Hardware-Einheiten beherbergen, wären jedoch durch immer niedrigere Taktraten effektiv nicht schneller. Selbst eingerechnet der üblichen Effizienznachteile von MultiChip-Konstruktionen erscheint es aufgrund dieses Rohleistungs-Unterschieds als unwahrscheinlich, daß sich die GeForce GTX Titan wirklich mit Radeon HD 7990 und GeForce GTX 690 messen kann.
Andererseits ist der Rohleistungs-Vorteil gegenüber den anderen SingleChip-Grafikkarten auch nicht wirklich überragend: Eine Radeon HD 7970 "GHz Edition" kommt den Rohleistungen der GeForce GTX Titan schon ziemlich nahe, liegt allein bei der Rasterizer-Leistung deutlich zurück. Gegenüber der GeForce GTX 680 besteht wenigstens ein durchgehender Rohleistungs-Unterschied von 45 Prozent mehr Rechen- und Texturierleistung bei gleichzeitig 50 Prozent mehr Speicherbandbreite. Dies sollte – rein die Rohleistungen betrachtend – in einem ungefähren Performance-Unterschied von 35 bis 40 Prozent zwischen GeForce GTX 680 und Titan münden.
Eine der beiden Neuerungen von GeForce GTX Titan gegenüber den bisherigen Kepler-Grafikkarten liegt im Boost-Modus: nVidia setzt hier erstmals auf "GPU Boost 2.0", welches sich nicht nur an der Leistungsaufnahme des Grafikchips ausrichtet, sondern auch an dessen aktueller Temperatur. Dabei wird grundsätzlich versucht, die Grafikkarte bei bis zu 80 Grad Chiptemperatur zu halten – gleichzeitig darf natürlich auch das Power Target von 250 Watt TDP nicht überschritten werden. Mittels externer Tools kann hierauf wieder Einfluß genommen werden: Das Power Target (von 250W auf 265W), die Ziel-Temperatur (von 80°C auf maximal 95°C) und die maximale Chipspannung (von 1.162V auf 1.2V) können mittels EVGAs Precision X [16] (schon Titan-tauglich) als auch MSIs Afterburner [17] (aktuell noch nicht Titan-tauglich) verändern werden, alle drei Optionen können dann aus der GeForce GTX Titan noch entsprechend mehr an Performance herauskitzeln.
In der Praxis zeigte sich GPU Boost 2.0 jedoch als recht zweischneidiges Schwert, da die Temperatur-Schwelle insbesondere bei speziell "vorgeheizten" Systemen ziemlich fix erreicht wurde. Hierbei setzen mitdenkende Hardware-Tester auf Systeme, welche vor dem eigentlichen Benchmark-Durchlauf erst einmal ein Spiel für ein paar Minuten in Demo-Schleife abspielen, um die Hardware auf Temperatur zu bringen und damit besser die eigentliche Gaming-Praxis zu simulieren. In diesem Modus griff GPU Boost 2.0 nachweislich stärker in die erreichte Boost-Taktrate ein, als wenn man im "ausgekühlten" Zustand einen Benchmark versuchte – Hardware-Tester, welche nicht auf "vorgeheizte" Systeme setzen, messen also bei GeForce GTX Titan eine etwas zu hohe Performance (dazu später noch mehr). Gleichzeitig kann man durch das Hochsetzen der Temperatur- und Leistungsverbrauch-Schwellen von GPU Boost 2.0 den erreichten Boost-Takt sehr deutlich auf nahezu durchgehend 993 MHz steigern, wie die ComputerBase [18] hervorragend nachgewiesen hat:
Boost-Takt | prozentual | |
---|---|---|
default | 876 MHz | 100% |
real erreicht in 16 Titeln | Ø 854 MHz | -2,5% |
PowerTarget @ 265W + Chiptemperatur @ max. 95°C | Ø 984 MHz | +12,3% |
Die zweite Neuerung von GeForce GTX Titan ist erneut ein Software-Feature: Mittels "Display Overclocking" kann man die Refreshrate des eigenen Monitors übertakten und damit auch real mehr fps auf dem Display sehen. Dabei macht sich nVidia den Umstand zunutze, daß die Elektronik der meisten heutigen Displays mehr kann als die offiziellen 60 Hertz Bildwiederholrate – und steuert den Monitor dann einfach mit einer höheren Hertz-Zahl an. Da damit auch das Vsync-Limit steigt, können letztlich auch höhere Frameraten auf dem Monitor abgebildet werden – natürlich nur dann, wenn das jeweilige Spiel überhaupt Frameraten über 60 fps abwirft und GeForce GTX Titan diese dann auch zu berechnen in der Lage ist. Zum Monitor-Übertakten wird mittels der bekannten externen Tools (derzeit funktioniert wie gesagt nur EVGAs Precision X [16] mit GeForce GTX Titan zusammen) sich schrittweise an das herangetastet, was der jeweilige Monitor maximal leisten kann.
Dies kann je nach Monitor zu gänzlich unterschiedlichen Ergebnissen führen – bei einem Modell geht es in der Praxis nicht über 60 Hz hinaus, andere Modelle schaffen sogar 75 Hz. nVidia will hierzu noch eine Kompatibilitätsliste mit getesteten Monitoren und deren maximal möglichen Hertz-Zahlen veröffentlichen. Laut nVidia soll dieses Monitor-Übertakten zu keinen Schäden am Monitor führen, da ja nur die Spezifikation der verbauten Elektronik ausgenutzt wird – die Monitorhersteller dürften dies jedoch anders sehen und bei etwaigen Schäden durch das Monitor-Übertakten eventuell die Garantie verweigern. Damit – und weil der Praxiseffekt auch ziemlich begrenzt ist – ist das Monitor-Übertakten nicht wirklich das Feature, welches jetzt die großen Käuferströme zur GeForce GTX Titan ziehen sollte, trotz daß es "Display Overclocking" exklusiv nur bei dieser Karte geben wird. Richtiggehend neu ist das Feature zudem auch nicht, man kann denselben Effekt über modifizierte Monitor-Treiber auch bei früheren und aktuellen Grafikkarten erzwingen – nVidia bringt es nunmehr nur halt offiziell.
Ihre TDP von 250 Watt hält die GeForce GTX Titan – welche es nach Willen von nVidia nur im Referenzdesign geben soll, maximal mit abgewandelten Kühlern – über alle Maßen gut ein: Die bisherigen Testberichte mit exakter Messungen nur der reinen Grafikkarte bescheinigen GeForce GTX Titan einen Idle-Verbrauch von nur 12 Watt und einen Spiele-Verbrauch von nur 206 Watt, was angesichts der gebotenen Hardware hervorragend ist. Die Karte verbraucht somit klar weniger als eine eine Radeon HD 7970 "GHz Edition" (235 Watt unter Spielen) und nur runde 40 Watt mehr als eine GeForce GTX 680 (169 Watt), aber immer noch deutlich weniger als die DualChip-Karten Radeon HD 7990 (ca. 320 Watt) und GeForce GTX 690 (270 Watt). Auch beim Idle-, beim BluRay- sowie beim MultiMonitoring-Verbrauch liegt die Karte sehr niedrig und stellt hierbei sogar einige Spitzenwerte für HighEnd-Grafikkarten auf. Leider fehlt uns hierbei noch der exakte Vergleich mit allen bisherigen Grafikkarten basierend auf den Messungen von HT4U [19] – welche nVidia (unverständlicherweise) nicht mit einem Testsample belieferte.
Hardware.fr | Heise | HT4U | PCGH | TechPowerUp | Ø | |
---|---|---|---|---|---|---|
Radeon HD 7970 "GHz Edition" | 13W 225W [20] |
13W 206W [21] |
13,0W 254,3W [22] |
15W 247W [23] |
14W 209W [24] |
14W 235W |
GeForce GTX 680 | 16W 169W [25] |
14W 164W [26] |
14,5W 170W [27] |
15W 174W [28] |
14W 166W [29] |
15W 169W |
GeForce GTX 690 | 25W 277W [30] |
25,6W 277,5W [31] |
25W 274W [32] |
22W 229W [33] |
24W 270W |
|
GeForce GTX Titan | 13W 180W [30] |
13W 214W [34] |
10W 208W [35] |
12W 206W |
Ebenfalls viel Anklang bei allen Testern fand das von GeForce GTX Titan abgegebene Geräusch-Niveau, welches für eine so klare HighEnd-Grafikkarte doch ziemlich gut ausfällt. Ein echter Leisetreter ist die Karte im Referenzdesign zwar auch nicht, aber man gewinnt gegenüber den Referenz-Lösungen zur GeForce GTX 680 & 690 jeweils mit gewissem Vorsprung sowie gegenüber den Referenz-Lösungen zur Radeon HD 7970 und deren "GHz Edition" dann mit fliegenden Fahnen. Auch in dieser Diziplin kann sich die GeForce GTX Titan mehr in Richtung der Grafikkarten des Performance-Segments statt des HighEnd-Segments einordnen – in einer Disziplin, wo weniger mehr ist, natürlich nur von Vorteil für GeForce GTX Titan.
Nach so viel Vorrede geht es endlich zum spannenden Punkt – der Kompilierung der zu GeForce GTX Titan derzeit vorliegenden Benchmarks und damit zur Auswertung von deren Spiele-Performance. Es gab zwar diesesmal nicht so viele verschiedene Testberichte, dafür waren jene inhaltlich stärker, vor allem in der Benchmark-Sektion – wo manche Webseiten auch erstmalig TripleMonitoring-Benchmarks aufstellten. Demzufolge ist das Benchmark-Feld zu GeForce GTX Titan insbesondere beim von Standard-Setting "1920x1080 4xAA" abweichenden Settings diesesmal recht reichhaltig – was man natürlich nur begrüßen kann.
Als großer Haken gibt es allerdings den Punkt "GPU Boost 2.0" zu beachten, welcher je nach anliegenden Temperaturen massiv in die Boost-Taktraten und damit die Benchmark-Werte eingreift. War es bisher noch so, daß die Boost-Unterschiede einzelner Kepler-Grafikkarte irgendwo bei ein bis zwei Prozent Performance-Differenz herauskamen und damit ihm Rahmen der Meßungenauigkeit negierbar waren, ist dies bei der GeForce GTX Titan aufgrund deren Temperatur-geregeltem Boost deutlich anders. Die PC Games Hardware [37] hat beispielsweise alle ihre Standard-Benchmarks auf einer der üblicherweise offenen Teststation zweimal vorgenommen: Einmal normal mit den idealen Umluftverhältnissen einer offenen Teststation – und einmal simuliert unter Bedingungen wie mit 28 Grad warmer Ansauglauft, sprich sommerlichen Bedingungen.
Laborbedingungen | Praxisbedingungen | größte Abweichung | |
---|---|---|---|
1920x1080 4xAA | 100% | -7,4% | -11,7% (Skyrim) |
2560x1600 4xAA | 100% | -7,4% | -16,0% (Skyrim) |
Dabei zeigten sich sehr erhebliche Performance-Unterschiede von gemittelt immerhin 7,4 Prozent weniger Performance unter Praxisbedingungen gegenüber der Performance unter Laborbedingungen (in umgedrehter Lesart sind es 8,0 Prozent mehr, welche unter Laborbedingungen erreicht werden). Damit ist dieser Punkt mittlerweile nicht mehr negierbar und sind alle Hardware-Tester dringend dazu angehalten, Karte wie die GeForce GTX Titan mit temperaturabhängigem Boost-Takt nur noch unter praxisnahen Bedingungen zu testen.
Gern hätten wir nachfolgend auch nur noch jene Benchmarks beachtet, welche unter diesen praxisnahen Bedingungen aufgenommen wurden – dies war aber nicht möglich, da nur die ComputerBase und die PC Games Hardware sich dieser Frage überhaupt gestellt haben. Bei den anderen Testberichte fand diese Problematik erstaunlicherweise teilweise überhaupt keinerlei Erwähnung, was jene anderen Testberichte in unseren Augen deutlich abwertet. Da wir allerdings für eine solide Performance-Abschätzung doch mehr als nur zwei Benchmark-Reihen benötigen, sind nachfolgend dann auch die Werte der anderen Hardware-Tests notiert – mit jeweils der Notiz, ob "praxisnah" oder unter "idealen Bedingungen" getestet wurde.
1920x1080 4xAA | 7970GE | 7990 | 680 | 690 | Titan |
---|---|---|---|---|---|
PC Games Hardware [38] (praxisnah) | 105,2% | - | 100% | - | 134,6% |
ComputerBase [39] (praxisnah) | 103,5% | - | 100% | 160,8% | 129,2% |
AnandTech [40] (idealisiert) | 109,1% | 166,3% | 100% | 162,0% | 139,1% |
Guru3D [41] (idealisiert) | 110,9% | - | 100% | 157,3% | 146,5% |
Hot Hardware [42] (idealisiert) | 111,1% | - | 100% | 161,2% | 137,3% |
PC Perspective [43] (idealisiert) | 103,2% | - | 100% | 148,0% | 131,4% |
TechPowerUp [44] (idealisiert) | 104,0% | - | 100% | 149,3% | 133,3% |
1920x1080 8xAA | 7970GE | 7990 | 680 | 690 | Titan |
---|---|---|---|---|---|
ComputerBase [39] (praxisnah) | 101,6% | - | 100% | 156,0% | 138,8% |
1920x1080 4xSSAA | 7970GE | 7990 | 680 | 690 | Titan |
---|---|---|---|---|---|
ComputerBase [39] (praxisnah) | 101,3% | - | 100% | 160,7% | 127,8% |
2560x1600 4xAA | 7970GE | 7990 | 680 | 690 | Titan |
---|---|---|---|---|---|
PC Games Hardware [38] (praxisnah) | 107,7% | - | 100% | - | 137,3% |
ComputerBase [39] (praxisnah) | 110,8% | - | 100% | 169,4% | 134,9% |
AnandTech [40] (idealisiert) | 112,1% | 180,4% | 100% | 172,2% | 147,1% |
Guru3D [41] (idealisiert) | 112,7% | - | 100% | 178,4% | 157,2% |
Hardware Canucks [45] (idealisiert) | 106,6% | - | 100% | 169,5% | 142,0% |
Hot Hardware [42] (idealisiert) | 115,6% | - | 100% | 178,0% | 148,3% |
PC Perspective [43] (idealisiert) | 113,9% | - | 100% | 171,6% | 139,8% |
TechPowerUp [44] (idealisiert) | 108,6% | - | 100% | 168,6% | 142,9% |
2560x1600 8xAA | 7970GE | 7990 | 680 | 690 | Titan |
---|---|---|---|---|---|
ComputerBase [39] (praxisnah) | 110,5% | - | 100% | 157,4% | 142,8% |
2560x1600 4xSSAA | 7970GE | 7990 | 680 | 690 | Titan |
---|---|---|---|---|---|
ComputerBase [39] (praxisnah) | 108,0% | - | 100% | 162,9% | 132,4% |
5760x1080 4xAA | 7970GE | 7990 | 680 | 690 | Titan |
---|---|---|---|---|---|
ComputerBase [39] (praxisnah) | 113,0% | - | 100% | 154,3% | 140,8% |
AnandTech [40] (idealisiert) | 113,7% | 184,2% | 100% | 171,1% | 147,1% |
Hardware Canucks [45] (idealisiert) | 113,5% | - | 100% | 169,7% | 142,9% |
TechPowerUp [44] (idealisiert) | 108,9% | - | 100% | 162,2% | 143,3% |
5760x1080 8xAA | 7970GE | 7990 | 680 | 690 | Titan |
---|---|---|---|---|---|
ComputerBase [39] (praxisnah) | 124,9% | - | 100% | 99,2% (?) | 169,9% |
Aufgrund dessen, das leider viel zu wenige Testberichte unter praxisnahen Bedindungen vorliegen, lassen sich die vorhandenen Benchmarks unmöglich so einfach mitteln und daraus eine durchschnittlich gemessene Performance ableiten. Vielmehr müssen in diesem Fall die Werte mit Augenmaß einzeln betrachtet werden – auffallend ist nämlich sofort, daß alle Tests unter idealen Bedingungen im Schnitt merkbar höhere Ergebnisse speziell bei der GeForce GTX Titan aufweisen als jene zwei Tests unter praxisnahen Bedingungen. Sofern man (speziell bei der GeForce GTX Titan) jene beiden praxisnahen Tests als grundsätzliche Richtschnur und die anderen Tests nur zur eventuellen Korrektur benutzt, ergibt sich das folgende Ergebnis:
7970GE | 7990 | 680 | 690 | Titan | |
---|---|---|---|---|---|
1920x1080 4xAA | 106,7% | - | 100% | 156,4% | ~131% |
2560x1600 4xAA | 111,0% | - | 100% | 172,3% | ~136% |
5760x1080 4xAA | 111,2% | - | 100% | 164,3% | ~141% |
3DC Perf.Index (1920x1080 4xAA) |
390% | ~580% | 360% | 580% | 480% |
Davon ausgehend läßt sich die eigentliche Frage zur GeForce GTX Titan nunmehr endlich solide beantworten: Die Karte ist zwischen 30 und 40 Prozent schneller gegenüber der GeForce GTX 680, genauso wie sie auch um zwischen 20 und 25 Prozent schneller gegenüber der Radeon HD 7970 "GHz Edition" ist. Die DualChip-Lösungen Radeon HD 7990 und GeForce GTX 690 werden von der GeForce GTX Titan jedoch bei weitem nicht erreicht, grob liegt die nunmehr schnellste SingleChip-Grafikkarte bei 80 bis 85 Prozent des Niveaus dieser beiden DualChip-Grafikkarten – bräuchte also noch zwischen 20 und 25 Prozent mehr an Performance, um diese letztlich doch zu erreichen.
Betrachtet rein die gebotene Performance und den dafür aufgerufenen Preispunkt von über 900 Euro kann sich daraus natürlich niemals ein rundherum gutes Urteil zur GeForce GTX Titan ergeben – denn trotz aller guten bis sehr guten Nebenpunkte bei den Themen Verbrauch und Lautstärke ist die Karte in erster Linie maßlos zu teuer für die gebotene Mehrperformance. Gegenüber einer GeForce GTX 680 bei einem Faktor 1,3 bei der Performance einen Faktor 2,3 beim Preis aufzurufen, muß nVidia (im Grafikkarten-Bereich) erst einmal einer nachmachen – dieser geradezu extreme Preis überwiegt auch fast alle Vorteile dieser neuen HighEnd-Grafikkarte.
Sicherlich hat die Karte den einen großen Punkt für sich, daß sie eine Performance nahe der DualChip-Lösungen Radeon HD 7990 & GeForce GTX 690 abliefert, ohne deren Nachteile bezüglich des Einsatzes von mehreren GPUs zu haben. Wenn es sowieso eine Performance in dieser Richtung sein soll, ist der Griff zur GeForce GTX Titan die bessere Wahl – wegen der fehlenden Mikroruckler und des größeren Speichers. So gesehen ist GeForce GTX Titan ein schlichter Ersatz für eben jene DualChip-Lösungen Radeon HD 7990 & GeForce GTX 690 – mit allerdings auch dem (arg) begrenzten Marktpotential eines 900-Euro-Boliden.
AMD | Perf.Index | Straßenpreis | Spieleverbr. | nVidia |
---|---|---|---|---|
480% | 940-950€ | 206W | GeForce GTX Titan | |
580% | 850-880€ | 270W | GeForce GTX 690 | |
Radeon HD 7990 | ~580% | 830-860€ | ~320W | |
360% | 400-430€ | 169W | GeForce GTX 680 | |
Radeon HD 7970 "GHz Edition" | 390% | 370-400€ | 235W |
Davon abgesehen ist jedoch nicht ersichtlich, wieso irgendein HighEnd-Käufer jetzt zur GeForce GTX Titan greifen sollte: Gerade mit den aktuellen AMD-Angeboten verglichen ist der Preispunkt schmerzhaft überzogen, gegenüber einer Radeon HD 7970 "GHz Edition" wird zudem auch nur eine Mehrperformance von 20 bis 25 Prozent geboten, welche nahe der (realen) Wahrnehmungsschwelle liegt. Einer der großen Vorteile der GeForce GTX Titan in Form des relativ passablen Stromverbrauchs zählt zudem ausgerechnet im HighEnd-Segment viel weniger als anderswo, bringt die neue nVidia-Karte also auch nicht wesentlich voran.
Was bleibt, ist vornehmlich die Erkenntnis, daß der Grafikkarten-Käufer mit der Preisentwicklung der kompletten 28nm-Generation sowie der GeForce GTX Titan im speziellen reichlich abgezogen werden soll. Kamen früher einmal neue Grafikkarten mit mehr Performance in den Markt und nahmen dort die preisliche Position der älteren Modelle ein, welche entweder im Preis sanken oder ganz aus dem Markt gingen – so läuft seit der 28nm-Generation das Spiel, daß man für jedes Quentchen Mehrperformance auch entsprechend löhnen soll, so als würde es keinerlei technologische Entwicklung bzw. den Fortschritt der 28nm-Fertigung geben.
Als gute Referenz mag hier die GeForce GTX 480 [47] gelten, welche vor knapp drei Jahren als erste HighEnd-Lösung der 40nm-Generation von nVidia vorgestellt wurde: Der GF100-Chip der GeForce GTX 480 war seinerzeit auch schon seine 529mm² Chipfläche groß – und die Karte ging ganz regulär für ca. 500 Euro in den Handel, ganz ähnlich wie jeweils zuvor die GeForce GTX 280 (GT200, 576mm²) und die GeForce 8800 GTX (G80, 484mm²). Mit der 28nm-Generation haben wir zum ersten Mal mit der GeForce GTX 680 für einen (viel kleineren) 300mm²-Chip einen Karten-Launchpreis von um die 500 Euro gehabt – und bekommen nun die Rechnung präsentiert in Form dessen, daß der eigentliche HighEnd-Chip mit 551mm² Chipfläche einen Karten-Launchpreis von mehr als 900 Euro haben soll.
Wieder zurückblickend zur GeForce GTX 480 läßt sich zudem noch etwas anderes feststellen: Diese Karte wurde seinerzeit von uns auf einen Performance-Index von 240% festgesetzt. Die GeForce GTX Titan verdoppelt diesen Wert heuer mit ihrem Performance-Index von 480% exakt, will aber auch ungefähr den doppelten Preis dafür sehen. Betrachtet rein GeForce GTX 480 und GeForce GTX Titan kann man also trefflich feststellen, daß die 28nm-Fertigung dem Grafikkarten-Käufer nichts gebracht hat, weil zwar absolut mehr Performance geboten wird, dafür aber auch absolut höhere Preispunkte in gleichem Maße eingefordert werden (diese Milchmädchenrechnung funktioniert natürlich nur zwischen diesen beiden Karten, in den meisten anderen Fällen hat die 28nm-Fertigung mit der Zeit durchaus ihre Vorteile gezeigt).
Dies ist in jedem Fall eine sehr unerfreuliche Entwicklung – welche sich schon mit den Launchpreisen der Radeon HD 7970 [48] ankündigte, aber seinerzeit wollte man diese Kritik noch nicht so richtig hören. Zurückkommend zur Situation der GeForce GTX Titan disqualifiziert sich diese Karte natürlich mit diesem Preispunkt aus den meisten Überlegungen – sinnvoll ist GeForce GTX Titan wie gesagt nur in Ersatz der DualChip-Lösungen Radeon HD 7990 und GeForce GTX 690. Ansonsten ist GeForce GTX Titan reines Showobjekt für Sammler oder Grafikkarten-Käufer, welche mit ihrem Budget für Hardware-Anschaffungen nicht haushalten müssen. Ein sehr erheblicher Wertverfall beim Erscheinen der ersten 20nm-basierten Grafikkarten sollte aber eingeplant werden – gerade Grafikkarten mit einem so ungünstigen Performance/Preis-Verhältnis wie die GeForce GTX Titan wird diese absehbare Entwicklung um so härter treffen.
Mit etwas Abstand (und ein wenig aus dem Blickwinkel von nVidia) betrachtet, ist GeForce GTX Titan natürlich nicht wirklich falsch: nVidia erfüllt damit den Wunsch nach einer Gamer-Variante des GK110-Chips, läßt sich diesen aber sehr gut bezahlen – vertrauend darauf, daß der Karte bei den Single-Chip-Lösungen niemand etwas vormacht, und darauf, daß ein Mißerfolg trotz des extremen Preispunkts aufgrund der recht geringen aufgelegten Stückzahl unwahrscheinlich ist. Zudem wird der allgemeine Grafikkarten-Käufer mittels GeForce GTX Titan gut darauf konditioniert, auch zukünftig 400-Euro-Preislagen für Grafikkarten basierend auf nur 300mm² großen Grafikchips zu akzeptieren – wenn nVidia dies gelingt, dann gewinnt man mehr als durch die paar zehntausend verkauften GeForce GTX Titan.
Nachtrag vom 22. Februar 2013
Die noch nachträglich eingeflogenen weiteren Testberichte zur GeForce GTX Titan zeigen leider weiterhin kein erbauliches Bild in der Frage, welcher der Tester nun die Seiteneffekte von "GPU Boost 2.0" begriffen haben – und welche einfach Dienst nach Vorschrift gemacht haben. Die GeForce GTX Titan kann man aufgrund der Temperatur-Limitierung von GPU Boost 2.0 eben nicht einfach mit anderen Grafikkarten auf einer offenen Teststation und damit unter idealen Umluftbedingungen vergleichen. Wie in unserer Launch-Analyse [46] nachdrücklich dargelegt, gewinnt GeForce GTX Titan durch diese Benchmarks unter (praxisfernen) Laborbedingungen ungerechtfertigte 8,0 Prozent an Performance hinzu – womit es auch kein Wunder ist, wenn viele Tester von mehr als 40 Prozent Mehrperformance gegenüber der GeForce GTX 680 fabulieren. Real sind es zwischen 30 und 40 Prozent, wobei die 30 Prozent unter 1920x1080 4xAA erreicht werden und es dann unter höheren Auflösungen und Settings (langsam) mehr wird.
Bisher haben aber leider nur 2 von 17 Testberichten diesem Umstand Rechnung getragen und ihre Testmethodik entsprechend angepasst: Lobend zu erwähnen sind hierbei die ComputerBase [39] sowie die PC Games Hardware [38] – von HT4U [53] wären auch entsprechende Benchmark zu erwarten gewesen, aber jene hat nVidia leider nicht mit Titan-Hardware beliefert. Somit ist zum donnerstäglichen NDA-Fall wirklich viel Arbeit seitens der Hardware-Tester gemacht worden, welche aber nur höchst partiell verwertbare Informationen erbracht hat. Dies ist sehr schade, denn eigentlich sollte schon die Beschreibung von GPU Boost 2.0 in Form der Abregelung der Hardware anhand einer Grenztemperatur ausreichend sein, um diesem Punkt auch in der Praxis (und nicht nur beim Wiederkäuen der Titan-Features) seine Aufmerksamkeit zu widmen.
Nachtrag von 24. Februar 2013
HT4U [54] berichten über eine Galaxy-Ausführung der GeForce GTX Titan ohne Boost-Funktion, welche dann einfach per default auf 876 MHz taktet. Was auf den ersten Blick wie ein Nachteil aussieht, umgeht schlicht und ergreifend das grundsätzliche Risiko von GPU Boost 2.0 bei der GeForce GTX Titan – nämlich daß der Boost-Takt wegen (angeblich) zu hoher Chip-Temperaturen gar nicht richtig ausgespielt werden kann. In der Praxis könnte diese Galaxy-Karte dann insbesondere im Sommer sogar etwas schneller als eine default-Titan-Karte sein. Letztere erreicht bei der ComputerBase [18] beispielsweise nur einen durchschnittlichen Boost-Takt von 854 MHz – gemessen unter Beachtung einer ausreichenden "Hardware-Aufheizung" vor den eigentlichen Benchmarks, also sehr praxisnah ermittelt. Andere Webseiten sprechen hier gern von teilweise erreichten Boost-Taktraten von bis zu 1100 MHz, vergessen dabei aber gern, daß diese Taktrate – unter idealen Umluftverhältnissen – nur am Benchmark-Anfang für ein paar Sekunden anliegt.
Für die Gamer-Praxis haben diese Best-Case-Werte jedoch keine echte Relevanz – da interessiert zum einen immer nur ein erreichter Takraten-Mittelwert und zum anderen natürlich nur rein praxisnahe Messungen nach längerem Gaming-Betrieb, wo sich also Hardware und Gehäuse-Inneres entsprechend aufheizen konnten und in der Folge die System-Kühlleistung nicht mehr bestmöglich ist. In dieser Situation dürften die von der ComputerBase ermittelten 854 MHz Boost-Takt weit realistischer sein als die herumgereichten Rekordwerte von 1100 MHz Boost-Takt. Natürlich müsste man es genau ausmessen, aber es würde uns nicht überraschen, wenn eine GeForce GTX Titan mit festem Chip-Takt von 876 MHz und ohne Boost-Modus unter den praxisnahen Benchmark-Bedingungen der ComputerBase, von HT4U und der PC Games Hardware mindestens genauso schnell wäre wie eine default-Titan-Karte.
Ganz generell gesprochen ist GPU Boost 2.0 bei der GeForce GTX Titan wohl doch etwas mißglückt – die Karte wird damit unter den von nVidia gewählten Settings von 250 Watt TDP und bis zu 80°C Chiptemperatur viel zu stark von ihrer maximal möglichen 3D-Performance heruntergedrückt. Eine Karte in diesem Preisbereich kauft man sich allerdings nicht, um damit dann Strom zu sparen oder besonders niedrige Chiptemperaturen anzustreben – ergo hätte nVidia hier die Karten-Spezifikationen besser etwas mehr ausreizen können, dann wären die real erreichten Boost-Taktraten der GeForce GTX Titan auch merkbar höher ausgefallen. Insbesondere bei der Chiptemperatur hätte man sich doch mehr Spielraum nach oben geben sollen – schließlich existiert eine Sicherheitsschaltung, welche vor Hardware-Schäden durch zu hohe Chiptemperaturen schützen soll, auch noch ganz seperat von GPU Boost 2.0. So aber hat nVidia die GeForce GTX Titan durch GPU Boost 2.0 faktisch selber limitiert – nicht gerade das, was man sich von teuersten Produkt am Markt erwartet.
Verweise:
[1] http://www.3dcenter.org/users/leonidas
[2] http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-680
[3] http://www.3dcenter.org/dateien/abbildungen/nVidia-GeForce-GTX-Titan-Card_1.jpg
[4] http://www.3dcenter.org/abbildung/nvidia-geforce-gtx-titan-referenzdesign-0
[5] http://www.3dcenter.org/dateien/abbildungen/nVidia-GK110-Block-Diagram.png
[6] http://www.3dcenter.org/abbildung/nvidia-gk110-block-diagramm
[7] http://www.3dcenter.org/dateien/abbildungen/nVidia-GK110-SMX.png
[8] http://www.3dcenter.org/abbildung/nvidia-gk110-shader-cluster-smx
[9] http://www.3dcenter.org/news/gpgpu-beschleuniger-amd-firepro-s10000-und-nvidia-tesla-k20k20x-vorgestellt
[10] http://www.3dcenter.org/artikel/eine-neubetrachtung-des-grafikkarten-stromverbrauchs
[11] http://www.forum-3dcenter.org/vbulletin/showthread.php?t=539143
[12] http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-titan
[13] http://www.3dcenter.org/artikel/launch-analyse-amd-radeon-hd-7970-ghz-edition
[14] http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-690
[15] http://www.3dcenter.org/abbildung/rohleistungs-vergleich-radeon-hd-7970-ghz-edition-7990-geforce-gtx-680-690-titan-aktualisi
[16] http://www.computerbase.de/downloads/system/grafikkarten/evga-precision-x/
[17] http://www.msi-afterburner.de/
[18] http://www.computerbase.de/artikel/grafikkarten/2013/test-nvidia-geforce-gtx-titan/19/
[19] http://www.ht4u.net/
[20] http://www.hardware.fr/articles/869-3/consommation-performances-watt.html
[21] http://www.heise.de/newsticker/meldung/GHz-Edition-AMD-bringt-aufgebohrte-Radeon-HD-7970-1623518.html
[22] http://ht4u.net/reviews/2012/amd_radeon_hd_7970_ghz_edition_tahiti_xt2_test/index15.php
[23] http://www.pcgameshardware.de/aid,907095/Test-der-Radeon-HD-7970-GHz-Edition/Grafikkarte/Test/
[24] http://www.techpowerup.com/reviews/AMD/HD_7970_GHz_Edition/26.html
[25] http://www.hardware.fr/articles/857-8/consommation-performances-watt.html
[26] http://www.heise.de/newsticker/meldung/GeForce-GTX-680-Sparsame-Turbo-Karte-fuer-500-Euro-1478089.html
[27] http://ht4u.net/reviews/2012/nvidia_geforce_gtx_680_kepler_sli_evga_zotac_test/index26.php
[28] http://www.pcgameshardware.de/aid,873907/Test-Geforce-GTX-680-Kepler-GK104/Grafikkarte/Test/?page=3
[29] http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_680/25.html
[30] http://www.hardware.fr/articles/887-6/consommation-efficacite-energetique.html
[31] http://ht4u.net/reviews/2012/nvidia_geforce_gtx_690_im_test/index15.php
[32] http://www.pcgameshardware.de/aid,881163/Test-Geforce-GTX-690-Die-schnellste-Grafikkarte-der-Welt/Grafikkarte/Test/?page=4
[33] http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_690/26.html
[34] http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Test-Geforce-GTX-Titan-1056659/3/
[35] http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_Titan/25.html
[36] http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-titan/launch-analyse-nvidia-geforce-gtx-titan-seite-2
[37] http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Test-Geforce-GTX-Titan-1056659/4/
[38] http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Test-Geforce-GTX-Titan-1056659/
[39] http://www.computerbase.de/artikel/grafikkarten/2013/test-nvidia-geforce-gtx-titan/
[40] http://www.anandtech.com/show/6774/nvidias-geforce-gtx-titan-part-2-titans-performance-unveiled
[41] http://www.guru3d.com/articles_pages/geforce_gtx_titan_review,1.html
[42] http://hothardware.com/Reviews/GeForce-GTX-Titan-Performance-Yes-It-CAN-Play-Crysis-3/
[43] http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-GeForce-GTX-TITAN-Performance-Review-and-Frame-Rating-Update
[44] http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_Titan/1.html
[45] http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/59785-nvidia-geforce-gtx-titan-6gb-performance-review.html
[46] http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-titan/launch-analyse-nvidia-geforce-gtx-titan-seite-3
[47] http://www.3dcenter.org/artikel/zum-launch-von-geforce-gtx-470-480
[48] http://www.3dcenter.org/artikel/launch-analyse-amd-radeon-hd-7970
[49] http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/25462-test-nvidia-geforce-gtx-titan-im-3-way-sli.html
[50] http://www.tomshardware.de/geforce-gtx-titan-performance-review,testberichte-241213.html
[51] http://www.hardocp.com/article/2013/02/21/nvidia_geforce_gtx_titan_video_card_review/
[52] http://www.hardware.fr/articles/887-1/nvidia-geforce-gtx-titan-big-kepler-debarque-enfin.html
[53] http://ht4u.net/
[54] http://ht4u.net/news/27193_geforce_gtx_titan_-_manche_angebote_auch_ohne_boost-funktion/
[55] http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-titan/launch-analyse-nvidia-geforce-gtx-titan-seite-4