Aufgrund dessen, das leider viel zu wenige Testberichte unter praxisnahen Bedindungen vorliegen, lassen sich die vorhandenen Benchmarks unmöglich so einfach mitteln und daraus eine durchschnittlich gemessene Performance ableiten. Vielmehr müssen in diesem Fall die Werte mit Augenmaß einzeln betrachtet werden – auffallend ist nämlich sofort, daß alle Tests unter idealen Bedingungen im Schnitt merkbar höhere Ergebnisse speziell bei der GeForce GTX Titan aufweisen als jene zwei Tests unter praxisnahen Bedingungen. Sofern man (speziell bei der GeForce GTX Titan) jene beiden praxisnahen Tests als grundsätzliche Richtschnur und die anderen Tests nur zur eventuellen Korrektur benutzt, ergibt sich das folgende Ergebnis:
7970GE | 7990 | 680 | 690 | Titan | |
---|---|---|---|---|---|
1920x1080 4xAA | 106,7% | - | 100% | 156,4% | ~131% |
2560x1600 4xAA | 111,0% | - | 100% | 172,3% | ~136% |
5760x1080 4xAA | 111,2% | - | 100% | 164,3% | ~141% |
3DC Perf.Index (1920x1080 4xAA) |
390% | ~580% | 360% | 580% | 480% |
Davon ausgehend läßt sich die eigentliche Frage zur GeForce GTX Titan nunmehr endlich solide beantworten: Die Karte ist zwischen 30 und 40 Prozent schneller gegenüber der GeForce GTX 680, genauso wie sie auch um zwischen 20 und 25 Prozent schneller gegenüber der Radeon HD 7970 "GHz Edition" ist. Die DualChip-Lösungen Radeon HD 7990 und GeForce GTX 690 werden von der GeForce GTX Titan jedoch bei weitem nicht erreicht, grob liegt die nunmehr schnellste SingleChip-Grafikkarte bei 80 bis 85 Prozent des Niveaus dieser beiden DualChip-Grafikkarten – bräuchte also noch zwischen 20 und 25 Prozent mehr an Performance, um diese letztlich doch zu erreichen.
Betrachtet rein die gebotene Performance und den dafür aufgerufenen Preispunkt von über 900 Euro kann sich daraus natürlich niemals ein rundherum gutes Urteil zur GeForce GTX Titan ergeben – denn trotz aller guten bis sehr guten Nebenpunkte bei den Themen Verbrauch und Lautstärke ist die Karte in erster Linie maßlos zu teuer für die gebotene Mehrperformance. Gegenüber einer GeForce GTX 680 bei einem Faktor 1,3 bei der Performance einen Faktor 2,3 beim Preis aufzurufen, muß nVidia (im Grafikkarten-Bereich) erst einmal einer nachmachen – dieser geradezu extreme Preis überwiegt auch fast alle Vorteile dieser neuen HighEnd-Grafikkarte.
Sicherlich hat die Karte den einen großen Punkt für sich, daß sie eine Performance nahe der DualChip-Lösungen Radeon HD 7990 & GeForce GTX 690 abliefert, ohne deren Nachteile bezüglich des Einsatzes von mehreren GPUs zu haben. Wenn es sowieso eine Performance in dieser Richtung sein soll, ist der Griff zur GeForce GTX Titan die bessere Wahl – wegen der fehlenden Mikroruckler und des größeren Speichers. So gesehen ist GeForce GTX Titan ein schlichter Ersatz für eben jene DualChip-Lösungen Radeon HD 7990 & GeForce GTX 690 – mit allerdings auch dem (arg) begrenzten Marktpotential eines 900-Euro-Boliden.
AMD | Perf.Index | Straßenpreis | Spieleverbr. | nVidia |
---|---|---|---|---|
480% | 940-950€ | 206W | GeForce GTX Titan | |
580% | 850-880€ | 270W | GeForce GTX 690 | |
Radeon HD 7990 | ~580% | 830-860€ | ~320W | |
360% | 400-430€ | 169W | GeForce GTX 680 | |
Radeon HD 7970 "GHz Edition" | 390% | 370-400€ | 235W |
Davon abgesehen ist jedoch nicht ersichtlich, wieso irgendein HighEnd-Käufer jetzt zur GeForce GTX Titan greifen sollte: Gerade mit den aktuellen AMD-Angeboten verglichen ist der Preispunkt schmerzhaft überzogen, gegenüber einer Radeon HD 7970 "GHz Edition" wird zudem auch nur eine Mehrperformance von 20 bis 25 Prozent geboten, welche nahe der (realen) Wahrnehmungsschwelle liegt. Einer der großen Vorteile der GeForce GTX Titan in Form des relativ passablen Stromverbrauchs zählt zudem ausgerechnet im HighEnd-Segment viel weniger als anderswo, bringt die neue nVidia-Karte also auch nicht wesentlich voran.
Was bleibt, ist vornehmlich die Erkenntnis, daß der Grafikkarten-Käufer mit der Preisentwicklung der kompletten 28nm-Generation sowie der GeForce GTX Titan im speziellen reichlich abgezogen werden soll. Kamen früher einmal neue Grafikkarten mit mehr Performance in den Markt und nahmen dort die preisliche Position der älteren Modelle ein, welche entweder im Preis sanken oder ganz aus dem Markt gingen – so läuft seit der 28nm-Generation das Spiel, daß man für jedes Quentchen Mehrperformance auch entsprechend löhnen soll, so als würde es keinerlei technologische Entwicklung bzw. den Fortschritt der 28nm-Fertigung geben.
Als gute Referenz mag hier die GeForce GTX 480 gelten, welche vor knapp drei Jahren als erste HighEnd-Lösung der 40nm-Generation von nVidia vorgestellt wurde: Der GF100-Chip der GeForce GTX 480 war seinerzeit auch schon seine 529mm² Chipfläche groß – und die Karte ging ganz regulär für ca. 500 Euro in den Handel, ganz ähnlich wie jeweils zuvor die GeForce GTX 280 (GT200, 576mm²) und die GeForce 8800 GTX (G80, 484mm²). Mit der 28nm-Generation haben wir zum ersten Mal mit der GeForce GTX 680 für einen (viel kleineren) 300mm²-Chip einen Karten-Launchpreis von um die 500 Euro gehabt – und bekommen nun die Rechnung präsentiert in Form dessen, daß der eigentliche HighEnd-Chip mit 551mm² Chipfläche einen Karten-Launchpreis von mehr als 900 Euro haben soll.
Wieder zurückblickend zur GeForce GTX 480 läßt sich zudem noch etwas anderes feststellen: Diese Karte wurde seinerzeit von uns auf einen Performance-Index von 240% festgesetzt. Die GeForce GTX Titan verdoppelt diesen Wert heuer mit ihrem Performance-Index von 480% exakt, will aber auch ungefähr den doppelten Preis dafür sehen. Betrachtet rein GeForce GTX 480 und GeForce GTX Titan kann man also trefflich feststellen, daß die 28nm-Fertigung dem Grafikkarten-Käufer nichts gebracht hat, weil zwar absolut mehr Performance geboten wird, dafür aber auch absolut höhere Preispunkte in gleichem Maße eingefordert werden (diese Milchmädchenrechnung funktioniert natürlich nur zwischen diesen beiden Karten, in den meisten anderen Fällen hat die 28nm-Fertigung mit der Zeit durchaus ihre Vorteile gezeigt).
Dies ist in jedem Fall eine sehr unerfreuliche Entwicklung – welche sich schon mit den Launchpreisen der Radeon HD 7970 ankündigte, aber seinerzeit wollte man diese Kritik noch nicht so richtig hören. Zurückkommend zur Situation der GeForce GTX Titan disqualifiziert sich diese Karte natürlich mit diesem Preispunkt aus den meisten Überlegungen – sinnvoll ist GeForce GTX Titan wie gesagt nur in Ersatz der DualChip-Lösungen Radeon HD 7990 und GeForce GTX 690. Ansonsten ist GeForce GTX Titan reines Showobjekt für Sammler oder Grafikkarten-Käufer, welche mit ihrem Budget für Hardware-Anschaffungen nicht haushalten müssen. Ein sehr erheblicher Wertverfall beim Erscheinen der ersten 20nm-basierten Grafikkarten sollte aber eingeplant werden – gerade Grafikkarten mit einem so ungünstigen Performance/Preis-Verhältnis wie die GeForce GTX Titan wird diese absehbare Entwicklung um so härter treffen.
Mit etwas Abstand (und ein wenig aus dem Blickwinkel von nVidia) betrachtet, ist GeForce GTX Titan natürlich nicht wirklich falsch: nVidia erfüllt damit den Wunsch nach einer Gamer-Variante des GK110-Chips, läßt sich diesen aber sehr gut bezahlen – vertrauend darauf, daß der Karte bei den Single-Chip-Lösungen niemand etwas vormacht, und darauf, daß ein Mißerfolg trotz des extremen Preispunkts aufgrund der recht geringen aufgelegten Stückzahl unwahrscheinlich ist. Zudem wird der allgemeine Grafikkarten-Käufer mittels GeForce GTX Titan gut darauf konditioniert, auch zukünftig 400-Euro-Preislagen für Grafikkarten basierend auf nur 300mm² großen Grafikchips zu akzeptieren – wenn nVidia dies gelingt, dann gewinnt man mehr als durch die paar zehntausend verkauften GeForce GTX Titan.
Nachtrag vom 22. Februar 2013
Die noch nachträglich eingeflogenen weiteren Testberichte zur GeForce GTX Titan zeigen leider weiterhin kein erbauliches Bild in der Frage, welcher der Tester nun die Seiteneffekte von "GPU Boost 2.0" begriffen haben – und welche einfach Dienst nach Vorschrift gemacht haben. Die GeForce GTX Titan kann man aufgrund der Temperatur-Limitierung von GPU Boost 2.0 eben nicht einfach mit anderen Grafikkarten auf einer offenen Teststation und damit unter idealen Umluftbedingungen vergleichen. Wie in unserer Launch-Analyse nachdrücklich dargelegt, gewinnt GeForce GTX Titan durch diese Benchmarks unter (praxisfernen) Laborbedingungen ungerechtfertigte 8,0 Prozent an Performance hinzu – womit es auch kein Wunder ist, wenn viele Tester von mehr als 40 Prozent Mehrperformance gegenüber der GeForce GTX 680 fabulieren. Real sind es zwischen 30 und 40 Prozent, wobei die 30 Prozent unter 1920x1080 4xAA erreicht werden und es dann unter höheren Auflösungen und Settings (langsam) mehr wird.
Bisher haben aber leider nur 2 von 17 Testberichten diesem Umstand Rechnung getragen und ihre Testmethodik entsprechend angepasst: Lobend zu erwähnen sind hierbei die ComputerBase sowie die PC Games Hardware – von HT4U wären auch entsprechende Benchmark zu erwarten gewesen, aber jene hat nVidia leider nicht mit Titan-Hardware beliefert. Somit ist zum donnerstäglichen NDA-Fall wirklich viel Arbeit seitens der Hardware-Tester gemacht worden, welche aber nur höchst partiell verwertbare Informationen erbracht hat. Dies ist sehr schade, denn eigentlich sollte schon die Beschreibung von GPU Boost 2.0 in Form der Abregelung der Hardware anhand einer Grenztemperatur ausreichend sein, um diesem Punkt auch in der Praxis (und nicht nur beim Wiederkäuen der Titan-Features) seine Aufmerksamkeit zu widmen.
Nachtrag von 24. Februar 2013
HT4U berichten über eine Galaxy-Ausführung der GeForce GTX Titan ohne Boost-Funktion, welche dann einfach per default auf 876 MHz taktet. Was auf den ersten Blick wie ein Nachteil aussieht, umgeht schlicht und ergreifend das grundsätzliche Risiko von GPU Boost 2.0 bei der GeForce GTX Titan – nämlich daß der Boost-Takt wegen (angeblich) zu hoher Chip-Temperaturen gar nicht richtig ausgespielt werden kann. In der Praxis könnte diese Galaxy-Karte dann insbesondere im Sommer sogar etwas schneller als eine default-Titan-Karte sein. Letztere erreicht bei der ComputerBase beispielsweise nur einen durchschnittlichen Boost-Takt von 854 MHz – gemessen unter Beachtung einer ausreichenden "Hardware-Aufheizung" vor den eigentlichen Benchmarks, also sehr praxisnah ermittelt. Andere Webseiten sprechen hier gern von teilweise erreichten Boost-Taktraten von bis zu 1100 MHz, vergessen dabei aber gern, daß diese Taktrate – unter idealen Umluftverhältnissen – nur am Benchmark-Anfang für ein paar Sekunden anliegt.
Für die Gamer-Praxis haben diese Best-Case-Werte jedoch keine echte Relevanz – da interessiert zum einen immer nur ein erreichter Takraten-Mittelwert und zum anderen natürlich nur rein praxisnahe Messungen nach längerem Gaming-Betrieb, wo sich also Hardware und Gehäuse-Inneres entsprechend aufheizen konnten und in der Folge die System-Kühlleistung nicht mehr bestmöglich ist. In dieser Situation dürften die von der ComputerBase ermittelten 854 MHz Boost-Takt weit realistischer sein als die herumgereichten Rekordwerte von 1100 MHz Boost-Takt. Natürlich müsste man es genau ausmessen, aber es würde uns nicht überraschen, wenn eine GeForce GTX Titan mit festem Chip-Takt von 876 MHz und ohne Boost-Modus unter den praxisnahen Benchmark-Bedingungen der ComputerBase, von HT4U und der PC Games Hardware mindestens genauso schnell wäre wie eine default-Titan-Karte.
Ganz generell gesprochen ist GPU Boost 2.0 bei der GeForce GTX Titan wohl doch etwas mißglückt – die Karte wird damit unter den von nVidia gewählten Settings von 250 Watt TDP und bis zu 80°C Chiptemperatur viel zu stark von ihrer maximal möglichen 3D-Performance heruntergedrückt. Eine Karte in diesem Preisbereich kauft man sich allerdings nicht, um damit dann Strom zu sparen oder besonders niedrige Chiptemperaturen anzustreben – ergo hätte nVidia hier die Karten-Spezifikationen besser etwas mehr ausreizen können, dann wären die real erreichten Boost-Taktraten der GeForce GTX Titan auch merkbar höher ausgefallen. Insbesondere bei der Chiptemperatur hätte man sich doch mehr Spielraum nach oben geben sollen – schließlich existiert eine Sicherheitsschaltung, welche vor Hardware-Schäden durch zu hohe Chiptemperaturen schützen soll, auch noch ganz seperat von GPU Boost 2.0. So aber hat nVidia die GeForce GTX Titan durch GPU Boost 2.0 faktisch selber limitiert – nicht gerade das, was man sich von teuersten Produkt am Markt erwartet.