Lange wurde auf den zweiten Teil der Maxwell-Generation von nVidia gewartet – und nun ist das Warten endlich vorbei und nVidia präsentiert die GeForce GTX 970 und 980. Beide Grafikkarten kommen auf Basis des GM204-Chips daher, welcher "nur" den zweithöchsten Grafikchip innerhalb der Maxwell-Generation darstellt (der höhere GM200-Chip folgt zum Jahreswechsel), sich aber dennoch mit dem schnellsten Grafikchip der Kepler-Generation in Form des GK110-Chips von GeForce GTX 780, 780 Ti und Titan Black anlegen will (und kann).
Hierfür fährt nVidia mittels des GM204-Chips mit einer Chipfläche von immerhin 398mm² ein ziemlich dickes Stück Silizium für den "nur" zweithöchsten Chip auf – wohl auch geschuldet der weiterhin benutzten 28nm-Fertigung von TSMC, welche laut nVidia immer noch insgesamt wirtschaftlicher (kleinere Chipfläche vs. höhere Waferkosten) als die ebenfalls zur Verfügung stehende 20nm-Fertigung sein soll. Vorteilhafterweise musste nVidia in den GM204-Chip nicht die für die professionellen Zwecke benötigten Transistoren des GK110-Chips packen, so daß beispielsweise die DoublePrecision-Performance nur bei 1/32 der SinglePrecision-Performance liegt (GK104: 1/24, GK110: 1/3 bei den professionellen Grafikkarten). Gleichfalls kam die höhere Effizienz der Maxwell-Architektur zum tragen, welche sich schon beim GM107-Chip der GeForce GTX 750 Serie [3] zeigte (und dort auch ausführlich beschrieben wurde).
So baut sich der GM204-Chip grundsätzlich wie der GM107-Chip auf: Die Shader-Cluster (SMM) enthalten wiederum 128 Shader- und 8 Textureneinheiten, allein erhöht wurden der Level1-Cache pro SMM von 64 kByte auf 96 kByte sowie der Texturen-Cache pro SMM von 24 kByte auf 48 kByte – ansonsten ist das SMM-Block-Diagramm gleich zum GM107-Chip [4]. Dafür wurde erstaunlicherweise der Level2-Cache für den gesamten Chip nicht erhöht, der kleine GM107 und der große GM204 tragen also beide jeweils 2 MB Level2-Cache insgesamt – bedeutsam mehr Level2-Cache wird es dann wohl erst beim GM200-Chip geben. Im Gegensatz zum GM107-Chip, welcher 5 Shader-Cluster an einer Raster-Engine trägt, benutzt der GM204-Chip ein Modell von jeweils 4 Shader-Clustern an einer von 4 Raster-Engines – ergo gibt es insgesamt 16 Shader-Cluster beim GM204-Chip.
![]() nVidia GM204-Chip Block-Diagramm [6] |
![]() nVidia GM204-Chip Shader-Cluster (SMM) Block-Diagramm [8] |
Leider noch keine Bestätigung gibt es derzeit dafür, ob man hierbei wirklich die Raster-Engines des GM107-Chips mit verdoppelter Rasterizer-Leistung verwendet hat – sollte dies so sein, wäre der GM204-Chip bei der Rasterizer-Leistung allen anderen derzeitigen Grafikchips mit mehr als dem Faktor 2 überlegen. nVidia ist sicherlich bekannt dafür, eher mit mehr als weniger Rastizer-Leistung anzutreten, trotzdem ist dieser Punkt zum jetzigen Stand mangels klarer Aussagen in den Launch-Artikeln noch vakant.
GK104 | GK110 | GM107 | GM204 | |
---|---|---|---|---|
Architektur | Kepler | Kepler | Maxwell | Maxwell 2.0 (inoffizielle Bezeichnung) |
DirectX-Level | 11.0 | 11.0 | 11.0 | 11.2b |
Raster-Engines | 4 | 5 | 1 | 4 |
Durchsatz pro Raster-Eng. | 8 Pixel/Takt | 8 Pixel/Takt | 16 Pixel/Takt | 16 Pixel/Takt (noch nicht bestätigt) |
Aufbau der Shader-Cluster | SMX: 192 Shader-Einheiten, 16 Textureneinheiten, 32 Load/Store-Einheiten, 32 SFUs, 8 FP64-Einheiten, 1x Kontrolllogik, 65536 x 32-bit Register File, 64 kByte Level1-Cache, 48 kByte Texturen-Cache | wie GK104, außer: 64 anstatt 8 FP64-Einheiten | SMM: 128 Shader-Einheiten, 8 Textureneinheiten, 32 Load/Store-Einheiten, 32 SFUs, 4 FP64-Einheiten, 4x Kontrolllogik, 65536 x 32-bit Register File, 64 kByte Level1-Cache, 24 kByte Texturen-Cache | wie GM107, außer: 96 anstatt 64 kByte Level1-Cache sowie 48 anstatt 24 kByte Texturen-Cache |
TMUs zu Shader-Einheit. | 1:12 | 1:12 | 1:16 | 1:16 |
DP/SP-Verhältnis | 1/24 | 1/3 | 1/32 | 1/32 |
Shader-Cluster Perf. | 100% | ~100% | 90% | ~90% |
Shader-Einheiten Perf. | 100% | 100% | 135% | ~135% |
Shader-Cluster | 8 | 15 | 5 | 16 |
Shader-Einheiten | 1536 | 2880 | 640 | 2048 |
Textureneinheiten | 128 | 240 | 40 | 128 |
Raster Operation Units | 32 | 48 | 16 | 64 |
Speicherinterface | 256 Bit DDR | 384 Bit DDR | 128 Bit DDR | 256 Bit DDR |
Level2-Cache | 0,5 MB | 1,5 MB | 2 MB | 2 MB |
Bemerkenswerter Punkt beim GM204-Chip sind dann noch die gleich 64 Raster Operation Units (ROPs), welche sogar den GK110-Chip (48 ROPs) übertreffen und das Niveau von AMDs Hawaii-Chip (ebenfalls 64 ROPs) erreichen. Dank der höheren Taktraten des GM204-Chips erzielt jener auch hier einen Vorteil von grob Faktor 2 gegenüber früheren nVidia-Lösungen, allerdings natürlich nur einen vergleichsweise maßvollen (und nur durch die höheren Taktraten bedingten) Vorteil gegenüber AMDs Hawaii-Chip.
Ansonsten erscheint das GM204-Design in dem Sinne wie ein hochgepumpter GM107-Chip: Die Technik ist nahezu dieselbe, hinzu gibt es die 4fache Anzahl an Raster-Engines, die 3,2fache Anzahl an Shader-Einheiten, die 4fache Anzahl an ROPs und ein doppelt so breites Speicherinterface – allerdings wie gesagt nur die exakt selbe Menge an Level2-Cache. Trotzdem kann man beim GM204-Design letztlich doch von einer "Maxwell 2.0 Architektur" sprechen, auch wenn nVidia den Begriff nicht in dieser Form verwendet – denn es gibt mit dem GM204-Chip einen guten Strauß an Features, welche der GM107-Chip noch nicht führt:
|
Genauere Ausführungen zu den neuen Features überlassen wir gern den vielfältigen Launch-Artikeln, obige Liste soll nur einen Anriß darstellen. Nichtsdestotrotz muß jetzt schon lobend erwähnt werden – und die ersten Kritiken aus den Foren gehen da konform – daß nVidia gerade mit dem Downsampling-Feature "Dynamic Super Resolution" (DSR) ziemlich ins Schwarze getroffen hat. So etwas ist lange gefordert worden und eigentlich war es offensichtlich, daß die Enthusiasten-Gemeinde regelrecht darauf wartet – nVidia hat es nun geliefert, obwohl es sich letztlich um eine reine Software-Angelegenheit handelt und es damit auch jeder andere vorher schon tun können. Allenfalls hätte nVidia es früher liefern können – Downsampling ist nun nicht erst ein Thema des Jahres 2014.
Aus dem GM204-Chip entspringen derzeit zwei Grafikkarten: Die GeForce GTX 970 und die GeForce GTX 980, letztere als Vollausbau des GM204-Chips. Bei der GeForce GTX 970 handelt es sich dagegen um eine deutliche Abspeckung, anstatt 16 gibt es nur noch 13 Shader-Cluster sowie etwas niedrigere Taktraten. Der Rest ist jedoch augenscheinlich gleich: 64 ROPs, das 256 Bit DDR Speicherinterface und 4 GB default-Speicherbestückung sind auch hier an Bord. Noch etwas offen – mangels entsprechender Angaben in den Launchartikeln – ist der Punkt, ob nVidia hier die vollen 4 Raster-Engines des GM204-Chips benutzt, oder eine davon bei der GeForce GTX 970 deaktiviert. Möglich wäre es sogar, daß sich im Markt Varianten der GeForce GTX 970 mit 3 oder mit 4 Raster-Engines einfinden – dies gab es bei der GeForce GTX 780 schon einmal, welche man mit 4 oder 5 Raster-Engines antrifft.
Radeon R9 290 | Radeon R9 290X | GeForce GTX 770 | GeForce GTX 780 | GeForce GTX 970 | |
---|---|---|---|---|---|
Chipbasis | AMD Hawaii, 6,2 Mrd. Transistoren in 28nm auf 438mm² Chipfläche | nVidia GK104, 3,54 Mrd. Transistoren in 28nm auf 294mm² Chipfläche | nVidia GK110, 7,1 Mrd. Transistoren in 28nm auf 551mm² Chipfläche | nVidia GM204, 5,2 Mrd. Transistoren in 28nm auf 398mm² Chipfläche | |
Architektur | GCN-Architektur 1.1, DirectX 11.2b, Mantle & TrueAudio | Kepler-Architektur, DirectX 11.0 & PhysX | Maxwell-Architektur 2.0, DirectX 11.2b & PhysX | ||
Technik | 4 Raster-Engines, 2560 Shader-Einheiten, 160 TMUs, 64 ROPs, 512 Bit DDR Interface, 1 MB Level2-Cache | 4 Raster-Engines, 2816 Shader-Einheiten, 176 TMUs, 64 ROPs, 512 Bit DDR Interface, 1 MB Level2-Cache | 4 Raster-Engines, 1536 Shader-Einheiten, 128 TMUs, 32 ROPs, 256 Bit DDR Interface, 0,5 MB Level2-Cache | 4-5 Raster-Engines, 2304 Shader-Einheiten, 192 TMUs, 48 ROPs, 384 Bit DDR Interface, 1,5 MB Level2-Cache | 4 Raster-Engines (mit verdoppelter Raster-Power), 1664 Shader-Einheiten, 104 TMUs, 64 ROPs, 256 Bit DDR Interface, 2 MB Level2-Cache |
Taktraten | ≤947/2500 MHz (Ø-Chiptakt: 826 MHz) |
≤1000/2500 MHz (Ø-Chiptakt: 851/1000 MHz *) |
1046/1085/3500 MHz (Ø-Chiptakt: 1070 MHz) |
863/902/3000 MHz (Ø-Chiptakt: 888 MHz) |
1050/1178/3500 MHz (Ø-Chiptakt: ~1100 MHz) |
Speicherausbau | 4 GB GDDR5 | 4 GB GDDR5 (8 GB gegen Aufpreis) |
2 GB GDDR5 (4 GB gegen Aufpreis) |
3 GB GDDR5 (6 GB gegen Aufpreis) |
4 GB GDDR5 |
Layout | DualSlot | DualSlot | DualSlot | DualSlot | DualSlot |
Kartenlänge | 27,5cm | 27,5cm | 27,0cm | 27,0cm | 27,0cm |
Stromstecker | 1x 6pol. + 1x 8pol. | 1x 6pol. + 1x 8pol. | 1x 6pol. + 1x 8pol. | 1x 6pol. + 1x 8pol. | 2x 6pol. |
TDP | 250W | 250W | 230W | 250W | 145W |
Idle-Verbrauch [12] | 19W | 20W | 10W | 12W | ~11W |
Spiele-Verbrauch [12] | 253W | 239/279W * | 180W | 199W | ~140W |
Ausgänge | 2x DualLink DVD-D, HDMI 1.4a, DisplayPort 1.2 | DualLink DVD-D, DualLink DVI-I, HDMI 1.4a, DisplayPort 1.2 | DualLink DVI-I, HDMI 2.0 (kein HDCP 2.2), 3x DisplayPort 1.2 | ||
Perf.Index | 460% | 480/520% * | 380% | 440% | 490% |
Listenpreis | 399$ | 549$ | 399$ | 499$ | 329$ |
Straßenpreis | 280-330€ | 380-420€ | 255-280€ | 350-420€ | 310-350€ |
Release | 5. November 2013 [13] | 24. Oktober 2013 [14] | 30. Mai 2013 [15] | 23. Mai 2013 [16] | 19. September 2014 |
* Die zwei differierenden Angaben beziehen sich auf den Quiet/Uber-Modus der Radeon R9 290X. Zu beachten wäre hierbei, das gutklassige Herstellerdesigns dieser Karte die Performance & Leistungsaufnahme des Uber-Modus' auch schon per default erreichen. |
Radeon R9 290X | GeForce GTX Titan | GeForce GTX Titan Black | GeForce GTX 780 Ti | GeForce GTX 980 | |
---|---|---|---|---|---|
Chipbasis | AMD Hawaii, 6,2 Mrd. Transistoren in 28nm auf 438mm² Chipfläche | nVidia GK110, 7,1 Mrd. Transistoren in 28nm auf 551mm² Chipfläche | nVidia GM204, 5,2 Mrd. Transistoren in 28nm auf 398mm² Chipfläche | ||
Architektur | GCN-Architektur 1.1, DirectX 11.2b, Mantle & TrueAudio | Kepler-Architektur, DirectX 11.0 & PhysX | Maxwell-Architektur 2.0, DirectX 11.2b & PhysX | ||
Technik | 4 Raster-Engines, 2816 Shader-Einheiten, 176 TMUs, 64 ROPs, 512 Bit DDR Interface, 1 MB Level2-Cache | 5 Raster-Engines, 2688 Shader-Einheiten, 224 TMUs, 48 ROPs, 384 Bit DDR Interface, 1,5 MB Level2-Cache | 5 Raster-Engines, 2880 Shader-Einheiten, 240 TMUs, 48 ROPs, 384 Bit DDR Interface, 1,5 MB Level2-Cache | 4 Raster-Engines (mit verdoppelter Raster-Power), 2048 Shader-Einheiten, 128 TMUs, 64 ROPs, 256 Bit DDR Interface, 2 MB Level2-Cache | |
Taktraten | ≤1000/2500 MHz (Ø-Chiptakt: 851/1000 MHz *) |
837/876/3000 MHz (Ø-Chiptakt: 854 MHz) |
890/980/3500 MHz (Ø-Chiptakt: 891 MHz) |
875/928/3500 MHz (Ø-Chiptakt: 952 MHz) |
1126/1216/3500 MHz (Ø-Chiptakt: 1144 MHz) |
Speicherausbau | 4 GB GDDR5 (8 GB gegen Aufpreis) |
6 GB GDDR5 | 6 GB GDDR5 | 3 GB GDDR5 | 4 GB GDDR5 |
Layout | DualSlot | DualSlot | DualSlot | DualSlot | DualSlot |
Kartenlänge | 27,5cm | 27,0cm | 27,0cm | 27,0cm | 27,0cm |
Stromstecker | 1x 6pol. + 1x 8pol. | 1x 6pol. + 1x 8pol. | 1x 6pol. + 1x 8pol. | 1x 6pol. + 1x 8pol. | 2x 6pol. |
TDP | 250W | 250W | 250W | 250W | 165W |
Idle-Verbrauch [12] | 20W | 12W | ~14W | 14W | 11W |
Spiele-Verbrauch [12] | 239/279W * | 203W | ~240W | 251W | 159W |
Ausgänge | 2x DualLink DVD-D, HDMI 1.4a, DisplayPort 1.2 | DualLink DVD-D, DualLink DVI-I, HDMI 1.4a, DisplayPort 1.2 | DualLink DVI-I, HDMI 2.0 (kein HDCP 2.2), 3x DisplayPort 1.2 | ||
Perf.Index | 480/520% * | 480% | 500% | 530% | 570% |
Listenpreis | 549$ | 999$ | 999$ | 699$ | 549$ |
Straßenpreis | 380-420€ | ausgelaufen | 850-900€ | 430-570€ | 520-570€ |
Release | 24. Oktober 2013 [14] | 21. Februar 2013 [17] | 18. Februar 2014 [18] | 7. November 2013 [19] | 19. September 2014 |
* Die zwei differierenden Angaben beziehen sich auf den Quiet/Uber-Modus der Radeon R9 290X. Zu beachten wäre hierbei, das gutklassige Herstellerdesigns dieser Karte die Performance & Leistungsaufnahme des Uber-Modus' auch schon per default erreichen. |
Wie üblich bedingen Karten, welche ihren Boost über Temperatur- und Stromverbrauchs-Limits abregeln, eine Überprüfung der real anliegenden Boost-Taktraten. Hierbei ist es besonders wichtig, unter realen Bedingungen zu testen, sprich im geschlossenen Gehäuse und erst nach einiger Spielzeit, damit sich die Grafikkarte ähnlich wie beim realen Gaming-Einsatz aufheizen kann. Zudem sollte man das ganze eigentlich nur mit Referenzdesigns austesten, da Herstellerdesigns über ihre besseren Kühllösungen und teilweise BIOS-seitig andere Temperatur- und Stromverbrauchs-Limits ein völlig anderes Ergebnis liefern werden.
GeForce GTX 970 | GeForce GTX 980 | |
---|---|---|
Referenz-Takt | 1050/1178/3500 MHz | 1126/1216/3500 MHz |
realer Boost laut ComputerBase [20] (geschlossenes Gehäuse, Takt nach 20 Minuten, Schnitt aus 16 Spielen) |
- | Ø 1144 MHz (Referenzdesign) |
realer Boost laut Hardwareluxx [21] (Schnitt aus 8 Spielen) |
- | Ø 1186 MHz (Referenzdesign) |
Leider gibt es solche Daten derzeit nur zur GeForce GTX 980 – welche zumindest laut den vorliegenden Messungen ihren von nVidia angegeben durchschnittlichen Boost mit einigem Abstand verfehlt: 1216 MHz nVidia-Vorgabe und 1144 MHz Realität sind dann schon ein dicker Abstand – welcher aber anzeigt, wozu die Boost-Geschichte alleinig gut ist: Um tolle Benchmarks abzustauben bei denjenigen Hardware-Testern, welche diesen Punkt nicht einplanen. Zur GeForce GTX 970 liegen derzeit wie gesagt keine entsprechenden Werte vor, wir schätzen aufgrund der Werte zur GeForce GTX 980 den real anliegenden Boost-Takt der GeForce GTX 970 derzeit auf grob ~1100 MHz ein.
Eine völlig andere Geschichte sind dann allerdings die Herstellerdesigns, welche es insbesondere von der GeForce GTX 970 derzeit schon zahlreich gibt: Jene schaffen es augenscheinlich problemlos, selbst höhere Boost-Taktraten von um die 1350 MHz zu halten. Damit kann eine ab Werk nominell nur um 5% übertaktete Karte letztlich schnell einmal bei +20% Rechenleistung respektive +10% Performance landen, weil die Boost-Taktraten der Herstellerdesigns in der Praxis deutlich höher ausfallen (dafür aber auch deren Stromverbrauch).
Beim Rohleistungs-Vergleich (ermittelt auf den tatsächlichen durchschnittlichen Boost-Taktraten) der derzeitigen HighEnd-Karten fallen sofort die maßgeblichen Veränderungen des GM204-Chips auf: Die Rasterizer-Leistung ist überragend gegenüber allem bisherigen, die ROP-Leistung überragend gegenüber wenigstens allen früheren nVidia-Chips. Bei der Speicherbandbreite liegen dagegen andere Chip-Designs vorn – allerdings arbeitet hier die verbesserte Farbkompression des GM204-Chips dagegen und dürfte in der Praxis diesen Unterschied gut kaschieren können.
Die reine Rechenleistung ist aufgrund der Effizienzverbesserungen der Maxwell Shader-Cluster nicht wirklich gut vergleichbar – wenn man dies unbedingt tun wollte, müsste man auf die Werte der Maxwell-Grafikkarten +15% (realistisch) bis +35% (idealerweise) draufrechnen. So gesehen ist die Rechenleistung der zwei GM204-Grafikkarten dann doch überzeugend – nur bei der Texturierleistung liegt man deutlich zurück. Dies ist aber im Sinne dessen, daß neuere Grafikchips auf immer mehr Rechenleistung zu (im Verhältnis) immer weniger Texturierleistung setzen, ziemlich normal.
Die nominellen Unterschiede zwischen GeForce GTX 970 & 980 sind schnell skizziert: Bei ROP- und Rasterizer-Leistung gibt es eine kleine 4%ige Differenz, während Speicherbandbreite und Speichermenge identisch sind. Der große Unterschied lauert bei der Rechen- und damit der Texturierleistung: Hier liegt die GeForce GTX 980 starke 28% vor der GeForce GTX 970. Dies wird sich angesichts der identischen Speicherbandbreite nicht vollständig in Mehrperformance umwandeln lassen, dennoch sollte damit eine recht große Performance-Differenz zwischen GeForce GTX 970 und 980 herauskommen.
Bei der Leistungsaufnahme zeigt sich der erste große, meßbare Pluspunkt der neuen Maxwell-Grafikkarten: Jene verrichten ihre Arbeit zu einem Leistungsaufnahme-Niveau, welches eher zum (niedrigeren) Performance-Segment passt als denn zum HighEnd-Segment. Insbesondere der Unterschied zu den bisher führenden Spitzen-Grafikkarten ist somit frappierend: Die GeForce GTX 780 Ti zieht unter Spielen ihre 250 Watt, die GeForce GTX 980 kommt für eine grob gleichwertige Performance mit 159 Watt aus – dies ist mehr als ein Drittel weniger. Angesichts der identischen Fertigung von 28nm bei TSMC ist dies ein überaus stolzer Fortschritt.
Hardware.fr | Heise | HT4U | PCGH | TechPowerUp | Ø | TDP/Perf. | |
---|---|---|---|---|---|---|---|
Radeon R9 290 [13] | 20W 246W [24] |
20W ? [25] |
18,6W 289,4W [26] |
21W 241W [27] |
16W 214W [28] |
19W 253W |
460% 250W |
Radeon R9 290X (Quiet) [14] | 21W 219W [24] |
? 266W [29] |
20,0W 231,1W [30] |
21W 249W [31] |
16W 236W [32] |
20W 239W |
480% 250W |
Radeon R9 290X (Uber) [14] | 22W 278W [24] |
20,0W 306,9W [30] |
21W 269W [31] |
17W 246W [32] |
20W 279W |
520% 250W |
|
GeForce GTX 770 [15] | 11W 155W [33] |
9,8W 195,1W [34] |
10W 179W [35] |
8W 162W [36] |
10W 180W |
380% 230W |
|
GeForce GTX 780 [16] | 13W 171W [37] |
12W 173W [38] |
12,0W 198,9W [39] |
14W 222W [40] |
10W 199W [41] |
12W 199W |
440% 250W |
GeForce GTX Titan [17] | 13W 180W [42] |
11,9W 198,1W [43] |
13W 214W [44] |
10W 208W [45] |
12W 203W |
480% 250W |
|
GeForce GTX Titan Black [18] | 13,3W 243,0W [46] |
~14W ~240W |
500% 250W |
||||
GeForce GTX 780 Ti [19] | 15W 220W [47] |
? 243W [48] |
12,9W 260,0W [49] |
16W 248W [50] |
10W 229W [51] |
14W 250W |
530% 250W |
GeForce GTX 970 | 18W 151W [52] |
~11W ~140W |
490% 145W |
||||
GeForce GTX 980 | 12W 155W [52] |
? 173W [53] |
11,5W 160W [54] |
8W 156W [55] |
11W 159W |
570% 165W |
|
Der obere Wert einer Zelle ist immer der Idle-Stromverbrauch, der untere Wert einer Zelle immer der Spiele-Stromverbrauch. In der Durchschnitts-Spalte ("Ø") fettgedruckte Werte basieren auf Berechnungen, die nicht fettgedruckte Werte sind Schätzungen. Die letzte Spalte enthält Angaben zur offiziellen TDP (unten) sowie zum 3DCenter Performance-Index (oben). |
Leider gab es kaum verwertbare Verbrauchsmessungen zur GeForce GTX 970, da fast ausschließlich ab Werk übertaktete (und auch in ihren Power-Limits veränderte) Herstellerdesigns getestet wurden – und nirgendwo eine Karte im Referenzdesign, welche aber natürlich genauso auch im Markt erscheinen werden. Da die GeForce GTX 980 ihre TDP jedoch knapp unterbietet, gehen wir einmal von einem ähnlichen Verhalten auch beim Referenzdesign der GeForce GTX 970 aus und setzen deren Spiele-Stromverbrauch vorerst grob auf ~140 Watt fest.
Auffällig ist daneben, daß die Herstellerdesigns teilweise klar mehr Saft aus der Steckdose ziehen – allerdings ohne dabei über die Stränge zu schlagen. Grob kann man damit rechnen, daß eine normale Herstellervariante mit etwas ab-Werk-Übertaktung sowie ebenfalls ab Werk erhöhtem Power-Limit ca. 15-20 Watt mehr benötigt. Die vielen getesteten Herstellerdesigns der GeForce GTX 970 deuten dies jedenfalls schon an, deren Stromverbrauch liegt oft in der Nähe des Stromverbrauchs der GeForce GTX 980 im Referenzdesign.
Bei der Geräuschentwicklung kommen GeForce GTX 970 & 980 auf vernünftige Werte, welche ähnlich liegen wie auch bei früheren diesbezüglich gutklassig eingestupften HighEnd-Grafikkarten von nVidia. Wirklich radikal leise ist es natürlich nicht, dies passt auch wenig zur gebotenen Performance. Allenfalls aus Sicht der Leistungsaufnahme könnte es eine etwas geringe Geräuschentwicklung sein: Karten, die 140 bis 160 Watt verbrauchen, sind üblicherweise noch etwas leiser. Hier spielt mit hinein, daß gerade die ganzen Herstellerdesigns zu GeForce GTX 970 & 980 zugunsten einer höheren Performance dann eine bessere Kühlung gegenüber einem niedrigeren Geräuschpegel vorziehen. Dies kann der Nutzer natürlich ändern, verliert dann aber auch etwas an Performance – leider eine typische Begleiterscheinung von streng an Temperatur- und Power-Limits gekoppelten Taktraten.
Windows-Desktop | Spiele-Betrieb | |
---|---|---|
GeForce GTX 980 Referenzdesign @ ComputerBase [56] | Unter Windows erreicht das Referenzdesign der GeForce GTX 980 eine Lautstärke von 30 Dezibel und ist gleich laut wie die GeForce GTX 780 Ti. Die Karte ist damit aus einem geschlossenen Gehäuse herauszuhören, stört aber auch beim Arbeiten nicht. | Unter Last kommt die Nvidia GeForce GTX 980 im Referenzdesign auf 42 Dezibel, dasselbe Niveau wie die langsamere GeForce GTX 780. Ein guter Wert für eine High-End-Grafikkarte im Referenzdesign, unter Berücksichtigung der deutlich gesunken Leistungsaufnahme allerdings überraschend – hier zeigt sich der Wechsel auf ein weniger leistungsfähiges Kühlsystem. Werden das Power und das Temperature Target maximiert, wird auch die Maxwell-Grafikkarte mit 49,5 Dezibel laut. |
Gigabyte GeForce GTX 980 G1 Gaming @ ComputerBase [56] | Die Gigabyte GeForce GTX 980 G1 Gaming zeigt wie es besser geht. Mit 28,5 Dezibel ist sie nahezu unhörbar. | Die Gigabyte GeForce GTX 980 G1 Gaming schneidet interessanterweise nicht besser ab. Trotz des mächtigen Kühlers wird die Karte 50 Dezibel laut. Dadurch bleibt zwar die GPU sehr kühl, doch der Geräuschpegel ist unangenehm, zumal es sich um ein helles Surren handelt. Alle drei Partnerkarten haben gemein, dass die Lüftersteuerungen auf niedrige Temperaturen auf Kosten der Lautstärke getrimmt sind. Hier kann der Kunde, falls gewünscht, mit einer manuellen Lüftersteuerung nachhelfen. |
Asus GeForce GTX 970 Strix @ ComputerBase [56] | Der Sieger in dieser Disziplin ist jedoch die Asus GeForce GTX 970 Strix mit stillstehenden Lüftern. | Die Asus GeForce GTX 970 Strix erreicht das Niveau mit 42 Dezibel nicht ganz, doch immerhin erzeugen die Lüfter ein nur wenig störendes Brummen. Alle drei Partnerkarten haben gemein, dass die Lüftersteuerungen auf niedrige Temperaturen auf Kosten der Lautstärke getrimmt sind. Hier kann der Kunde, falls gewünscht, mit einer manuellen Lüftersteuerung nachhelfen. |
Gigabyte GeForce GTX 970 G1 Gaming @ ComputerBase [56] | Dagegen hat die GeForce GTX 970 G1 Gaming mit 31 Dezibel keine Chance. Die Karte lässt die Lüfter auch unter Windows mit unnötigen 1.550 Umdrehungen drehen. | Die Gigabyte GeForce GTX 970 G1 Gaming erledigt den Job dagegen ordentlich. 38,5 Dezibel sind zwar hörbar, aber durchaus auch in leisen Spielszenen ruhig. Alle drei Partnerkarten haben gemein, dass die Lüftersteuerungen auf niedrige Temperaturen auf Kosten der Lautstärke getrimmt sind. Hier kann der Kunde, falls gewünscht, mit einer manuellen Lüftersteuerung nachhelfen. |
GeForce GTX 980 Referenzdesign @ Hardwareluxx [57] | Aufgrund des Kühlers findet sich die GeForce GTX 980 mit 37,5 dB(A) irgendwo zwischen GeForce GTX 780 und GTX 780 Ti wieder. | Schon deutlich interessanter wird es unter Last und hier kann die Referenzversion der GeForce GTX 980 auch punkten, denn mit 48,2 dB(A) liegt sie im oberen Bereich des Testfeldes. Hier befindet sie sich auch in guter Gesellschaft, denn die mit gleicher Kühlung ausgestatteten Modelle der GTX-700-Serie sowie die Titan-Varianten sind ebenfalls in diesem Bereich zu finden. Allerdings war bei unserer Karte auch ein leichtes Spulenfiepen zu hören. |
EVGA GeForce GTX 970 SuperClocked @ Hardwareluxx [57] | Daher verwundern uns auch die niedrigen 34,6 bzw. 34,7 dB(A) der GeForce GTX 970 nicht, die im Vergleich zu den Referenzkarten natürlich deutlich leiser ist. | Kein Spulenfiepen zu vernehmen war bei der EVGA GeForce GTX 970 Superclocked, mit der wir auch die Referenzversion der GeForce GTX 970 simulierten. Aufgrund der modifizierten Kühlung kann dies für die dazugehörigen Messungen natürlich nicht gelingen. Dennoch wollen wir die 42,2 bzw. 42,4 dB(A) unter Last einmal festhalten. |
Asus GeForce GTX 970 Strix @ PC Games Hardware [54] | Hinzu kommt die großartige Geräuschcharakteristik der Strix: Im Leerlauf stets geräuschlos, erzeugt sie unter Volllast höchstens 0,7 Sone. Wir können an dieser Stelle schon verraten, dass diese die leiseste GTX 970 am Markt ist. |
In der Frage der Übertaktung ist bei GeForce GTX 970 & 980 einiges möglich. Erst einmal kann man wohl nahezu jede Karte auf 1300 bis 1350 MHz Referenz-Takt bringen, ab 1400 MHz wird es dann schwierig – aber einzelne Exemplare schaffen auch schon einmal Richtung 1500 MHz. Für eine neue Spielwiese für Extrem-Overclocker ist also in jedem Fall gesorgt, gleichzeitig verschiebt der GM204-Chip damit die bei Grafikkarten üblichen Taktraten endlich mal wieder deutlich nach oben – nachdem wir nahezu jahrelang bei Grafikchip-Taktraten zwischen grob 900 bis 1100 MHz festhingen.
Während die Übertaktung bei Referenzdesigns in jedem Fall lohnt (natürlich nur erreichbar unter Maximierung des Power-Limits), ist dies bei den Herstellerdesigns dann durchaus überdenkenswert. Jene Herstellerdesigns laufen letztlich oftmals auf realen Boost-Taktraten von um die 1350 MHz – und viel mehr wird es dann auch mit Übertaktung nicht mehr, einzeln besonders gut übertaktbare Karten einmal ausgenommen. Hier würde es sich eher lohnen, allein nur das Power-Limit aufs Maximum zu setzen, den realen Boost-Takt damit noch etwas näher an die Marke von 1400 MHz heranzubringen – und somit trotz nochmaligem Taktgewinn weiterhin innerhalb der Garantie zu bleiben.
Der Performancegewinn durch Übertaktung auf grob 1400 MHz real anliegendem Boost-Takt liegt bei ca. 15% (gegenüber dem Referenzdesign), einzelne besonders gut übertaktbare Karten mit Boost-Taktraten höher als 1400 MHz erreichen dann irgendwo zwischen +16-20%. Hierzu trägt natürlich auch die Erhöhung der Speicherbandbreite um ca. +11-14% zu, wenn man diese Karte auf im Schnitt 3900-4000 MHz Speichertakt bringt. GeForce GTX 970 & 980 sind damit gutklassige Übertakter, aber keinesfalls so herausragende Übertakter, wie dies in vielen Testberichten dargestellt wird: Denn +15% Leistungsgewinn bei guter Übertaktung sind nicht das, was das Kraut jetzt wirklich fett machen würde. Aber wahrscheinlich interessieren sich die wenigsten eingefleischten Übertakter für diesen relativen Performancegewinn, wenn die Augen glänzen ob der erreichten absoluten Taktraten von im Glücksfall 1400 MHz und mehr.
Bei der Frage der Performance der neuen Grafikkarten wird es einfacher: Zu ermitteln wäre schlicht, wie sich die Modelle mit Referenz-Taktraten gegenüber GeForce GTX 780 & 780 Ti ebenfalls auf Referenz-Taktraten schlagen. Danach dürfte eine solide Einordnung ins Performance-Bild respektive gegenüber den AMD-Angeboten möglich sein. Etwas problematisch ist diese Performance-Ermittlung allerdings bei der GeForce GTX 970, zu welcher nVidia keine Referenz-Samples herausgab und welche deswegen fast ausschließlich als ab Werk übertaktete Herstellerdesigns antrat. Sicherlich haben die meisten Hardware-Tester versucht, trotzdem die Performance des Referenzmodells mittels niedrigerer Taktraten zu simulieren. Ob man allerdings immer auch das Power-Limit entsprechend reduziert hat, darf jedoch bezweifelt werden – und selbst dann wirken die besseren Kühllösungen der Herstellerdesigns immer noch etwas anders auf die Chiptemperatur und damit die Boost-Taktraten als das Referenzdesign. Die GeForce GTX 970 dürfte daher heute wohl minimal zu gut ausgemessen worden sein – leider läßt sich dies kaum quantifizieren, um entsprechend gegenzuwirken.
1920x1080 4xMSAA/FXAA | 290X (Q) | 780 | 780Ti | 970 | 980 |
---|---|---|---|---|---|
ComputerBase [59] (16 Tests) | 80,5% | 80,5% | 91,9% | 89,3% | 100% |
Hardwareluxx [60] (6 Tests) | 82,6% | 72,4% | 85,2% | 82,9% | 100% |
Tom's Hardware [61] (5 Tests) | 82,8% | - | 94,5% | 90,4% | 100% |
AnandTech [62] (9 Tests) | 83,7% | 76,2% | 92,0% | - | 100% |
Hot Hardware [63] (5 Tests) | - | - | 96,7% | 88,6% | 100% |
Techgage [64] (7 Tests) | 80,1% | 72,3% | 84,6% | - | 100% |
TechPowerUp [65] (17 Tests) | 81% | 77% | 93% | 88% | 100% |
1920x1080 4xSSAA | 290X (Q) | 780 | 780Ti | 970 | 980 |
---|---|---|---|---|---|
ComputerBase [59] (11 Tests) | 80,4% | 78,5% | 93,6% | 89,9% | 100% |
2560x1600 4xMSAA/FXAA | 290X (Q) | 780 | 780Ti | 970 | 980 |
---|---|---|---|---|---|
ComputerBase [59] (16 Tests) | 86,1% | 81,1% | 93,3% | 88,0% | 100% |
Hardwareluxx [60] (6 Tests) | 87,2% | 73,6% | 88,5% | 82,6% | 100% |
PC Games Hardware [54] (6 Tests) | - | 75,2% | 85,8% | 83,8% | 100% |
AnandTech [62] (9 Tests) | 85,2% | 76,8% | 92,9% | - | 100% |
Hot Hardware [63] (5 Tests) | - | - | 96,0% | 86,8% | 100% |
Techgage [64] (7 Tests) | 85,7% | 74,9% | 90,5% | - | 100% |
TechPowerUp [65] (17 Tests) | 87% | 77% | 95% | 87% | 100% |
Hardware.fr [66] (10 Tests) | 92% | 84% | 100% | 94% | 109% |
2560x1600 4xSSAA | 290X (Q) | 780 | 780Ti | 970 | 980 |
---|---|---|---|---|---|
ComputerBase [59] (11 Tests) | 85,8% | 81,3% | 94,7% | 89,4% | 100% |
5760x1080 4xMSAA/FXAA | 290X (Q) | 780 | 780Ti | 970 | 980 |
---|---|---|---|---|---|
Techgage [64] (8 Tests) | 88,0% | 75,8% | 90,9% | - | 100% |
TechPowerUp [65] (15 Tests) | 90% | 77% | 94% | 88% | 100% |
3840x2140 4xMSAA/FXAA | 290X (Q) | 780 | 780Ti | 970 | 980 |
---|---|---|---|---|---|
ComputerBase [59] (16 Tests) | 90,1% | 79,3% | 92,8% | 90,9% | 100% |
Hardwareluxx [60] (6 Tests) | 87,3% | - | 89,9% | 83,0% | 100% |
PC Games Hardware [54] (6 Tests) | - | 75,1% | 86,9% | 81,9% | 100% |
Tom's Hardware [61] (6 Tests) | 84,8% | - | 91,2% | 84,9% | 100% |
AnandTech [62] (9 Tests) | 90,2% | 73,2% | 90,4% | - | 100% |
Hot Hardware [63] (5 Tests) | - | - | 93,1% | 84,5% | 100% |
TechPowerUp [65] (16 Tests) | 90% | 76% | 93% | 87% | 100% |
Unter der Zusammenfassung der Zahlen der vorgenannten Testberichte lassen sich dann solide Durchschnittswerte bilden, welche das Performance-Bild der neuen HighEnd-Grafikkarten von nVidia erhellen: Die GeForce GTX 980 liefert eine absolut überzeugende Performance ab und gewinnt nahezu jeden einzelnen Benchmark. Im Schnitt liegt die GeForce GTX 980 um recht konstant ca. 9-10% vor der GeForce GTX 780 Ti. Auffallend ist, daß die GeForce GTX 980 keinerlei Schwäche unter höheren Auflösungen – bis auch hinauf auf 3840x2160 – gegenüber den bisher führenden nVidia-Karten zeigt.
Gegenüber der Radeon R9 290X im Quiet-Modus ist die Beurteilung etwas schwieriger, da die AMD-Karte mit steigender Auflösung immer stärker wird: Unter 1920x1080 liegt die GeForce GTX 980 um 22% vorn, unter 2560x1600 um 16% und unter 3840x2160 dann nur noch um 12%. Eingedenk der aktuellen Bedeutungszunahme der Auflösungen oberhalb von FullHD setzen wir daher die GeForce GTX 980 auf einen Performance-Index von 570% fest. Dies liegt am oberen Ende der Vorab-Erwartungen und ergibt natürlich auch die schnellste derzeit verfügbare SingleChip-Grafikkarte.
Die GeForce GTX 970 kommt wie schon erwähnt mit dem Handicap daher, daß jene vermutlich in einigen Testberichten zu gut wegkommt, weil die verwendeten Herstellerdesigns selbst unter Anpassung der Taktraten nicht ganz exakt die Performance eines Referenzdesigns aufzeigen können. Nominell ist die GeForce GTX 970 je nach Auflösung zwischen 12-14% langsamer als die GeForce GTX 980, überflügelt aber spielend die GeForce GTX 780 um 11-13% und landet zwischen 4-7% Prozentpunkten hinter der GeForce GTX 780 Ti.
Gegenüber der Radeon R9 290X im Quiet-Modus ergibt sich wegen der Stärke der AMD-Karte bei superhohen Auflösungen unter normal hohen Auflösungen (FullHD) ein kleiner Vorteil der GeForce GTX 970, welcher sich mit weiter steigenden Auflösungen jedoch zu einem kleinen Vorteil für AMD umdreht. Je nachdem, wie man die Rechnung ansetzt, könnte somit ein Performance-Index zwischen 490% und 510% für die GeForce GTX 970 errechnet werden. Wegen des erwähnten Benchmark-Handicaps haben wir uns vorerst dafür entschieden, die Karte eher defensiv auf einen Performance-Index von 490% festzusetzen. Dies liegt immer noch leicht oberhalb der Vorab-Erwartungen, die GeForce GTX 970 liegt somit grob im selben Performance-Feld wie Radeon R9 290X, GeForce GTX Titan und GeForce GTX Titan Black.
Radeon R9 290X (Q) |
GeForce GTX 780 |
GeForce GTX 780 Ti |
GeForce GTX 970 |
GeForce GTX 980 |
|
---|---|---|---|---|---|
1920x1080 4xMSAA/FXAA | 81,7% | 77,4% | 91,6% | 88,2% | 100% |
2560x1600 4xMSAA/FXAA | 85,9% | 77,3% | 92,0% | 86,2% | 100% |
3840x2160 4xMSAA/FXAA | 89,3% | 76,0% | 91,1% | 86,3% | 100% |
3DC Performance-Index | 480/520% | 440% | 530% | 490% | 570% |
Straßenpreis | 380-420€ | 350-420€ | 430-570€ | 310-350€ | 520-570€ |
Preislich nimmt die GeForce GTX 980 bei etwas über 500 Euro ungefähr den früheren Platz der GeForce GTX 780 Ti ein, welche dafür aus dem Markt verschwinden wird und daher derzeit teilweise zu klaren Abverkaufspreisen angeboten wird. Sofern man die GeForce GTX 780 Ti wirklich für die teilweise angebotenen 430 Euro bekommt, ist jene nunmehr ältere Karte natürlich gewisse Überlegungen wert: Die Performance ist kaum schlechter als bei der GeForce GTX 980 – was allerdings fehlt, ist das höhere Feature-Set der neuen Karte. Wer dafür keinen Bedarf sieht, der kann mit der GeForce GTX 780 Ti für 430 Euro nahezu ein Schnäppchen – wäre da allerdings nicht die zweite neue nVidia-Grafikkarte.
Die GeForce GTX 970 geht nämlich mit einem vorsätzlich aggressiven Preispunkt von knapp über 300 Euro in den Markt und verdrängt damit die GeForce GTX 780 umgehend aus dem Geschäft, auch diese Grafikkarte wird auslaufen. Ironischerweise reichen die Abverkaufspreise zur GeForce GTX 780 derzeit nicht aus, um jene nunmehr ältere Karte irgendwie attraktiv zu machen – die GeForce GTX 970 ist in allen Disziplinen besser. Ähnliche Probleme hat die Radeon R9 290X: Zwar sind beide Karten grob gleich schnell, aber die GeForce GTX 970 kommt mit neuen Features zu einem klar besseren Preispunkt daher – AMD wird zu deutlichen Preisreduktionen gezwungen sein, ansonsten läßt sich die Radeon R9 290X kaum noch verkaufen.
Bemerkenswert ist der große Preisunterschied zwischen GeForce GTX 970 & 980 angesichts des nur maßvollen Performance-Unterschieds: Für grob 15% Mehrperformance zahlt man derzeit ~68% mehr, dies sind über 200 Euro. Dies lohnt sich angesichts von Gleichheit bei den Features, beim Speicherinterface und bei der Speichermenge eigentlich überhaupt nicht. nVidia hat mit der GeForce GTX 970 einen neuen Gold-Standard im HighEnd-Segment geschaffen – oberhalb dieser Karte braucht man kaum kaufen, es sei denn, die Mehrperformance rechtfertigt auch wirklich den Mehrpreis.
In der Summe der Dinge hat nVidia einen sehr gelungenen Launch von GeForce GTX 970 & 980 hingelegt – gerade wenn man einrechnet, das für diese Generation keine neue Fertigungstechnologie zur Verfügung stand. Die Erwartungen wurden erfüllt oder übertroffen: Die Performance ist sehr gut angesichts der angesetzten Chipgröße, die dafür aufzubringende (relativ geringe) Verlustleistung regelrecht preiswürdig. Hinzu kommt endlich auch bei nVidia eine passende Speicherbestückung und ein modernes Feature-Set, zuzüglich neuer Features im Anti-Aliasing-Bereich, welche die Enthusiastengemeinde dankbar annehmen dürfte. Der Preis der GeForce GTX 980 mag nVidia-typisch abgehoben sein, aber mit der Preislage der GeForce GTX 970 bietet nVidia letztendlich sogar mehr Performance zum kleineren Preis – viel besser hätte man diesen Launch nicht hinbekommen können, dies muß man dann auch als AMD-User neidvoll anerkennen.
Nachtrag vom 3. Oktober 2014
Es hat etwas gedauert, aber das Warten lohnt sich immer auf den HT4U [69] Testbericht zu den neuen Maxwell-Grafikkarten GeForce GTX 970 & 980. Verschiedene Messungen und Vorgehensweisen findet man (leider) nur bei HT4U, gerade was die Beurteilung von realer Leistungsaufnahme, realen Taktraten sowie BIOS-Limits für Temperatur und Stromverbrauch angeht. Als erstes konnten so die bisherigen Aussagen zur real anliegenden Taktrate bei der GeForce GTX 980 im Referenzdesign bestätigt werden: Die ComputerBase kam hierbei auf Ø 1144 MHz im geschlossenen Gehäuse nach Aufwärmphase, Hardwareluxx ohne solche Maßnahmen auf Ø 1186 MHz – und HT4U nunmehr auf Ø 1130 MHz, ebenfalls im geschlossenen Gehäuse nach Aufwärmphase.
GeForce GTX 980 | ||
---|---|---|
Referenz-Takt | 1126/1216/3500 MHz | |
realer Takt laut ComputerBase [20] | Ø 1144 MHz | geschlossenes Gehäuse, Takt nach 20 Minuten, Schnitt aus 16 Spielen |
realer Takt laut Hardwareluxx [21] | Ø 1186 MHz | Schnitt aus 8 Spielen |
realer Takt laut HT4U [70] | Ø 1130 MHz | geschlossenes Gehäuse, Takt nach 5 Minuten, Schnitt aus 11 Spielen |
Diesbezügliche Angaben zur GeForce GTX 970 sind nach wie vor Mangelware, da es faktisch kein frei verkäufliches Referenzdesign dieser Karte gibt und die Hersteller-Varianten in aller Regel ab Werk mit anderen Stromverbrauchs-Limits antreten. Allerdings scheint es fast so, als würden die "halbwegs normalen" Herstellervarianten zur GeForce GTX 970 irgendwo den von nVidia angegebenen Boost-Takt (von 1178 MHz) erreichen – dies wäre dann sogar etwas mehr als bei der GeForce GTX 980. Die vielen gut übertakteten Hersteller-Varianten zur GeForce GTX 970 erreichen dagegen bekannterweise spielend reale Taktraten von 1200 MHz und mehr.
Die zweite wichtige Information aus dem HT4U-Testbericht bezieht sich auf die realen Power-Limits der beiden neuen nVidia-Karten – ein Punkt, der extrem interessant ist zur Beurteilung von ab Werk übertakteten Varianten (höheres Power-Limit bedeutet in den Zeiten von Boost-Taktraten bessere Übertaktungsfähigkeiten), von den meisten Testberichten jedoch unverständlicherweise nicht beantwortet wird. Die GeForce GTX 980 im Referenzdesign riegelt dabei bei 180 Watt ab und besitzt ein Erhöhungspotential von +25%, die GeForce GTX 970 im (wie gesagt recht zahmen) Inno3D-Design riegelt bei 160 Watt ab und besitzt ein Erhöhungspotential von nur +6%. Ganz nebenbei gesagt liegen diese Abriegelungspunkte im übrigen klar oberhalb der TDP-Angaben von 165W bzw. 145W, an dieser Stelle versucht nVidia (unverständlicherweise) zu schummeln. Dies erscheint angesichts der trotzdem hervorragenden Energieeffizienz von GeForce GTX 970 & 980 als vollkommen unnötig.
GeForce GTX 970 | GeForce GTX 980 | |||
---|---|---|---|---|
Referenz | Hersteller | Referenz | Hersteller | |
Taktraten | 1050/1178/3500 MHz | je nach Modell 1088/1228/3500 bis 1216/1367/3500 MHz [71] | 1126/1216/3500 MHz | je nach Modell 1178/1279/3500 bis 1291/1393/3600 MHz [71] |
realer Takt | ~1178 MHz | die Hersteller-Karten halten in aller Regel ihren Boost-Takt | ~1144 MHz | die Hersteller-Karten halten in aller Regel ihren Boost-Takt |
Power-Limit | 150W | je nach Modell bis zu ~250W | 180W | je nach Modell bis zu ~300W |
Power-Erhöhung | +6% | je nach Modell bis zu +20% | +25% | ? |
Spiele-Stromverbrauch | ~150W | je nach Modell bis zu ~185 Watt | ~180W | je nach Modell bis zu ~200 Watt |
TDP | 145 Watt | 165 Watt |
Wenn irgendwo Stromverbrauchsmessungen von Hersteller-Varianten einen deutlich höheren Stromverbrauch aufzeigen, so dürften bei den dort gemessenen Karten dann das Power-Limit seitens des Herstellers entsprechend erhöht worden sein. Darüber erklären sich auch die teilweise monströs hohen Stromverbrauchs-Messungen bei Tom's Hardware [72], wo eine GeForce GTX 980 im Gigabyte-Design in einem GPGPU-Test auch mal bei satten 280 Watt Leistungsaufnahme herauskam. Die Karte dürfte schlicht ab Werk über ein deutlich nach oben gesetztes Power-Limit verfügen – im konkreten Fall ein Power-Limit Richtung 300 Watt, was erneut wenig zur von nVidia angegebenen TDP passt. In jedem Fall ergeben sich zwischen Referenz- und Herstellerdesigns erhebliche Differenzen beim Stromverbrauch und auch den Power-Limits. Gerade für echte Übertakter sind die Hersteller-Karten somit sehr sinnvoll – weniger wegen der höheren Taktraten ab Werk, sondern wegen des automatisch höheren Power-Limits sowie des sich damit auftuenden größeren Stromverbrauchs-Spielraums. Eine gut übertaktete GeForce GTX 980 wird dann aber natürlich kaum noch unter 200 Watt laufen, der ganz große Energieeffizienz-Vorteil geht da schnell flöten.
Nachtrag vom 13. Oktober 2014
Tom's Hardware [73] haben sich mit der Auswirkung verschiedener, weit voneinander entfernter Power Targets auf Performance und Stromverbrauch der neuen Maxwell-Grafikkarten am Beispiel einer GeForce GTX 970 beschäftigt. Jene Karten bieten wie bekannt weitreichende Möglichkeiten zur Beeinflußung der Performance und damit des Stromverbrauchs über das gesetzte Power Target. Selbiges liegt bei einem Referenzdesign bei nur 150 Watt mit eigentlich nur +6% Spielraum, verschiedene Herstellerdesigns haben jedoch völlig andere Power Targets bis hin zu 250 Watt bei der benutzten Gigabyte-Grafikkarte. Damit könnten folgende Performance-Werte und damit Stromverbräuche erzielt werden:
Power Target | eingestellter Chip-Takt | höchster Boost-Takt | durchschnittlicher Boost-Takt | Performance (Thief) | Stromverbrauch |
---|---|---|---|---|---|
145W | 1300 MHz | 1291 MHz | 1266 MHz | 43,5 fps | 131,4W |
175W | 1300 MHz | 1481 MHz | 1461 MHz | 48,0 fps | 160,5W |
200W | 1300 MHz | 1531 MHz | 1519 MHz | 49,5 fps | 183,3W |
225W | 1350 MHz | 1544 MHz | 1531 MHz | 50,1 fps | 205,3W |
250W | 1375 MHz | 1564 MHz | 1552 MHz | 51,0 fps | 229,1W |
Leider liegen nur die Performance-Messungen eines einzelnen Spiels (Thief) vor, was etwas mager für eine abschließende Aussage ist. Dennoch läßt sich die Beobachtung einer klaren Tendenz mitnehmen: Zwar lassen sich die neuen Maxwell-Grafikkarten auf extreme Power-Target-Werte setzen und verbrauchen dann auch entsprechend viel Strom, der Performance-Gewinn sinkt jedoch ab einem gewissem Maß in völlig uninteressante Bereiche ab. Im Fall der benutzten GeForce GTX 970 lohnt kaum mehr als ein Power Target von 175 Watt – für ein Power Target von 200 Watt bekommt man nur 3,1% mehr Performance für einen gleich um 14,2% höheren Stromverbrauch. Für den Sprung von 200W auf 225W Power Target sieht es noch drastischer aus: Für 12,0% mehr Stromverbrauch bekommt man nur 1,2% mehr Performance.
Im Fall der GeForce GTX 970 & 980 bringt das Setzen extremer Power Target also relativ wenig bis gar nichts – dies sind Reserven für Extrem-Übertakter mit entsprechenden Kühlmaßnahmen, aber im Hausgebrauch nicht sinnvoll nutzbar. Viel mehr als 20% bis maximal 35% über das jeweilige TDP-Limit muß man GeForce GTX 970 & 980 nicht setzen. Danach fängt der Bereich an, wo die Grafikkarte mehr Watt nicht in mehr Pixel, sondern nur noch in mehr Abwärme umwandelt, wo die die Grenzen der Maxwell-Effizienz dann deutlich erreicht sind.
Nachtrag vom 13. Oktober 2014
HT4U [74] bieten eine Auflistung von GeForce GTX 970 Modellen samt deren Besonderheiten an, welche auch Angaben zum jeweils angesetztem Power Target sowie zur maximalen Erhöhbarkeit desselben umfasst. Leider sind letztere Angaben wegen der mangelhaften Informationspolitik der Hersteller unvollständig, gerade von den stark ab Werk übertakteten Karten fehlen oftmals die entsprechenden Angaben. Erkennen läßt sich jedoch, daß entgegen der nVidia-Vorgabe eines Power Targets von 150 Watt auch die gar nicht oder niedrig ab Werk übertakteten Modelle generell mindestens ein Power Target von 160 Watt tragen – und hieraus natürlich auch eine gewisse Mehrperformance beziehen, wie kürzlich erst dargelegt [75]. Faktisch kann man die Performance dieser Modelle mit Power Target von 160 Watt jedoch als die Referenz zur GeForce GTX 970 betrachten, in Ermanglung dessen, daß es wirkliche Referenzmodelle zu dieser Karte am Markt zu kaufen gibt. Wenn man also mit einem Herstellerdesign die Performance der regulären GeForce GTX 970 zu simulieren versucht, sollte man nicht nur die Referenz-Taktraten einstellen, sondern eben auch das Power Target der Karte auf 160 Watt herabsetzen.
Nachtrag vom 30. Oktober 2014
Bei PC Perspective [76] hat man sich eingehend mit dem Performancegewinnen unter Mehrfach-SLI bei einer GeForce GTX 980 beschäftigt. Einzurechnen ist dabei vorab, daß bei einer Grafikkarte am obersten Ende des Leistungsspektrums der SLI-Gewinn gerade bei mehr als zwei Grafikkarten oftmals unterdurchschnittlich ausfallen kann – einfach, weil die Rohpower unter Paarung von drei oder vier der derzeit schnellsten SingelChip-Grafikkarten derart hoch ausfällt, das viele Spiele damit nichts mehr anfangen können bzw. daß man oftmals platt in CPU-Limits hineinläuft. Aus diesem Grunde hat man bei PC Perspective auch gleich nur noch unter 2560x1440 und 3840x2160 gemessen – zumindest unter letzterer Auflösungen sollte es eigentlich weniger das Problem geben, auch mit vielen Grafikkarte noch Leistungsgewinne zu erzielen.
eine GTX 980 | zwei GTX 980 | drei GTX 980 | vier GTX 980 | |
---|---|---|---|---|
theoretische Leistungsfähigkeit | 100% | 200% (+100%) | 300% (+50%) | 400% (+33%) |
reale Performance unter 2560x1440 | 100% | 161,3% (+61,3%) | 192,9% (+19,6%) | 204,3% (+5,9%) |
reale Performance unter 3840x2160 | 100% | 178,8% (+78,8%) | 224,3% (+25,4%) | 241,2% (+7,5%) |
SLI-Effizienz unter 2560x1440 | - | 61,3% | 64,3% | 51,1% |
SLI-Effizienz unter 3840x2160 | - | 78,8% | 74,8% | 60,3% |
Unter 2560x1440 zeigt sich jedoch das befürchtete Problem deutlich: Zwischen drei und vier Grafikkarten bewegt sich recht wenig, eine Reihe von Spielen zeigt nur die nahezu identische Performance, ein einzelnes läuft sogar deutlich langsamer. Ausnahmen wie Crysis, welches wie aus dem Lehrbuch skaliert, können dies nicht mehr retten – die vierte Grafikkarte ist hier übertrieben, sie bringt schließlich auch nur 5,9% Performancegewinn gegenüber der dritten Grafikkarte. Die SLI-Effizienz ist zudem allgemein schlecht, bei zwei Grafikkarte gewinnt man 61,3% vom theoretischen Maximum, bei drei Grafikkarten auch nur 64,3%. Dies dürfte aber darauf zurückzuführen sein, daß 2560x1440 einfach keine Anforderung für eine GeForce GTX 980 unter SLI darstellt.
Unter 3840x2160 ändert sich dies dann schnell: Insbesondere die SLI-Effizienz geht auf 78,8% mit zwei Grafikkarten und 74,8% mit drei Grafikkarten hinauf, dies sind gangbare Werte – im Normalfall sind 80% SLI/CrossFire-Effizienz über eine größere Anzahl von Spielen erreichbar, mehr ist aufgrund einzelner Problemtitel kaum realistisch. Nach wie vor macht die vierte Karte aber Probleme, deren SLI-Effizienz liegt wieder nur bei 60,3%, der Performancegewinn gegenüber der dritten Karte bei unrentablen 7,5%. Es sieht fast so aus, als hätte nVidia die SLI-Treiber speziell auf die Anforderungen von drei Grafikkarten hin optimiert – wohl wissend, daß mit den meisten Mainboards und Gehäusen sowieso keine vier DualSlot-Grafikkarten verbaubar sind.
In der Summe der Dinge zeigt sich, daß SLI (und bei CrossFire wird es ähnlich sein) derzeit eine Spielwiese für 4K ist – unter regulären Auflösungen jedoch kaum benötigt wird bzw. nur unterdurchschnittliche Performancegewinne abwirft, zumindest mit einer GeForce GTX 980. Unter 4K kommt jede Grafikkarte jedoch schnell auf eine SLI-Effizienz von nahezu 80%, was in der Nähe des normalerweise erreichbaren liegt. Allerdings sind nur maximal drei GeForce GTX 980 im SLI-Verbund sinnvoll, die vierte Karte muckt bei einigen Spielen und bringt insgesamt nur noch einen minimalen Leistungsgewinn, ist daher vollkommen verzichtbar.
Verweise:
[1] http://www.3dcenter.org/users/leonidas
[2] http://www.3dcenter.org/abbildung/nvidia-geforce-gtx-980-referenzdesign
[3] http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-750-750-ti
[4] http://www.3dcenter.org/abbildung/nvidia-maxwell-shader-cluster-gm107
[5] http://www.3dcenter.org/dateien/abbildungen/nVidia-GeForce-GM204-Chip-Block-Diagramm.png
[6] http://www.3dcenter.org/abbildung/nvidia-gm204-chip-block-diagramm
[7] http://www.3dcenter.org/dateien/abbildungen/nVidia-GeForce-GM204-Chip-Shader-Cluster-SMM-Block-Diagramm.png
[8] http://www.3dcenter.org/abbildung/nvidia-gm204-chip-shader-cluster-smm-block-diagramm
[9] http://www.3dcenter.org/news/directx-113-und-directx-12-bringen-neue-hardware-features
[10] http://www.forum-3dcenter.org/vbulletin/showthread.php?t=556987
[11] http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-970-980
[12] http://www.3dcenter.org/artikel/stromverbrauch-aktueller-und-vergangener-grafikkarten
[13] http://www.3dcenter.org/artikel/launch-analyse-amd-radeon-r9-290
[14] http://www.3dcenter.org/artikel/launch-analyse-amd-radeon-r9-290x
[15] http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-770
[16] http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-780
[17] http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-titan
[18] http://www.3dcenter.org/artikel/eine-performance-einordnung-der-geforce-gtx-titan-black
[19] http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-780-ti
[20] http://www.computerbase.de/2014-09/geforce-gtx-980-970-test-sli-nvidia/5/
[21] http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/32697-nvidia-geforce-gtx-980-und-970-mit-maxwell-architektur-im-xxl-test.html?start=10
[22] http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-970-980/launch-analyse-nvidia-geforce-gtx-970-980-seite-2
[23] http://www.3dcenter.org/abbildung/rohleistungs-vergleich-radeon-r9-290-290x-geforce-gtx-770-780-titan-titan-black-780-ti-970
[24] http://www.hardware.fr/articles/910-9/consommation.html
[25] http://www.heise.de/newsticker/meldung/AMD-Radeon-R9-290-Spieler-Grafikkarte-mit-Drossel-Problem-2039464.html
[26] http://ht4u.net/reviews/2013/amd_radeon_r9_290_-_hawaii_pro_im_test/index16.php
[27] http://www.pcgameshardware.de/Geforce-GTX-780-Grafikkarte-257241/Tests/Radeon-R9-290-im-Test-1095627/2/
[28] http://www.techpowerup.com/reviews/AMD/R9_290/24.html
[29] http://www.heise.de/newsticker/meldung/AMD-Radeon-R9-290X-Titan-Killer-zum-halben-Preis-1984374.html
[30] http://ht4u.net/reviews/2013/amd_radeon_r9_290x_hawaii_review/index21.php
[31] http://www.pcgameshardware.de/Geforce-GTX-780-Grafikkarte-257241/Tests/Radeon-R9-290X-im-Test-1093796/3/
[32] http://www.techpowerup.com/reviews/AMD/R9_290X/25.html
[33] http://www.hardware.fr/articles/896-4/consommation-efficacite-energetique.html
[34] http://ht4u.net/reviews/2013/nvidia_geforce_gtx_770_grafikkarte_test/index17.php
[35] http://www.pcgameshardware.de/Geforce-GTX-770-Grafikkarte-257329/Tests/Geforce-GTX-770-Test-Review-1071496/2/
[36] http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_770/25.html
[37] http://www.hardware.fr/articles/894-3/consommation-efficacite-energetique.html
[38] http://www.heise.de/newsticker/meldung/GeForce-GTX-780-Spieler-Grafikkarte-mit-2304-Kernen-1867480.html
[39] http://ht4u.net/reviews/2013/nvidia_geforce_gtx_780_review/index18.php
[40] http://www.pcgameshardware.de/Geforce-GTX-780-Hardware-257241/Tests/Geforce-GTX-780-Test-Review-1070700/3/
[41] http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_780/24.html
[42] http://www.hardware.fr/articles/887-6/consommation-efficacite-energetique.html
[43] http://ht4u.net/reviews/2013/nvidia_geforce_gtx_titan_asus_gigabyte_test/index19.php
[44] http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Test-Geforce-GTX-Titan-1056659/3/
[45] http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_Titan/25.html
[46] http://ht4u.net/reviews/2014/nvidia_geforce_gtx_titan_black_6gb_review/index15.php
[47] http://www.hardware.fr/articles/912-3/consommation.html
[48] http://www.heise.de/newsticker/meldung/Kampf-um-die-Leistungsspitze-GeForce-GTX-780-Ti-2041900.html
[49] http://ht4u.net/reviews/2013/nvidia_geforce_gtx_780_ti_gk110_complete_review/index17.php
[50] http://www.pcgameshardware.de/Geforce-GTX-780-Grafikkarte-257241/Tests/Geforce-GTX-780-Ti-Test-1096105/2/
[51] http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_780_Ti/25.html
[52] http://www.hardware.fr/articles/928-7/consommation-efficacite-energetique.html
[53] http://www.heise.de/newsticker/meldung/Effizienzwunder-Maxwell-2-0-auf-GeForce-GTX-970-und-980-2398821.html
[54] http://www.pcgameshardware.de/Geforce-GTX-980-Grafikkarte-259282/Tests/Test-Geforce-GTX-980-970-GM204-Maxwell-1136157/
[55] http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_980/24.html
[56] http://www.computerbase.de/2014-09/geforce-gtx-980-970-test-sli-nvidia/11/
[57] http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/32697-nvidia-geforce-gtx-980-und-970-mit-maxwell-architektur-im-xxl-test.html?start=14
[58] http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-970-980/launch-analyse-nvidia-geforce-gtx-970-980-seite-3
[59] http://www.computerbase.de/2014-09/geforce-gtx-980-970-test-sli-nvidia/
[60] http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/32697-nvidia-geforce-gtx-980-und-970-mit-maxwell-architektur-im-xxl-test.html
[61] http://www.tomshardware.de/geforce-gtx-980-gtx-970-maxwell-gpu,testberichte-241646.html
[62] http://anandtech.com/show/8526/nvidia-geforce-gtx-980-review
[63] http://hothardware.com/Reviews/NVIDIA-GeForce-GTX-980--970-Maxwell-GPU-Reviews/
[64] http://techgage.com/article/nvidia-geforce-gtx-980-review-does-maxwell-bring-maximum-gameplay/
[65] http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_980/
[66] http://www.hardware.fr/articles/928-20/recapitulatif-performances.html
[67] http://www.hardware.fr/articles/928-1/nvidia-geforce-gtx-980-gtx-970-gm204-maxwell-gigabyte-g1-gaming-test.html
[68] http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-970-980/launch-analyse-nvidia-geforce-gtx-970-980-seite-4
[69] http://ht4u.net/reviews/2014/nvidia_maxwell_next-gen_geforce_gtx_970_und_gtx_980_im_test/
[70] http://ht4u.net/reviews/2014/nvidia_maxwell_next-gen_geforce_gtx_970_und_gtx_980_im_test/index23.php
[71] http://www.computerbase.de/2014-09/geforce-gtx-970-980-partnerkarten-im-ueberblick/
[72] http://www.tomshardware.de/geforce-gtx-980-gtx-970-maxwell-gpu,testberichte-241646-13.html
[73] http://www.tomshardware.de/geforce-gtx-970-power-target-boost-analysis,testberichte-241652.html
[74] http://ht4u.net/news/30101_geforce_gtx_970_grafikkarten_-_ein_derzeitiger_marktueberblick_mit_details/
[75] http://www.3dcenter.org/news/nvidia-maxwell-auswirkungen-verschiedener-power-targets-auf-performance-und-stromverbrauch
[76] http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-GTX-980-3-Way-and-4-Way-SLI-Performance
[77] http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-970-980/launch-analyse-nvidia-geforce-gtx-970-980-nachtrae