Aus dem GM204-Chip entspringen derzeit zwei Grafikkarten: Die GeForce GTX 970 und die GeForce GTX 980, letztere als Vollausbau des GM204-Chips. Bei der GeForce GTX 970 handelt es sich dagegen um eine deutliche Abspeckung, anstatt 16 gibt es nur noch 13 Shader-Cluster sowie etwas niedrigere Taktraten. Der Rest ist jedoch augenscheinlich gleich: 64 ROPs, das 256 Bit DDR Speicherinterface und 4 GB default-Speicherbestückung sind auch hier an Bord. Noch etwas offen – mangels entsprechender Angaben in den Launchartikeln – ist der Punkt, ob nVidia hier die vollen 4 Raster-Engines des GM204-Chips benutzt, oder eine davon bei der GeForce GTX 970 deaktiviert. Möglich wäre es sogar, daß sich im Markt Varianten der GeForce GTX 970 mit 3 oder mit 4 Raster-Engines einfinden – dies gab es bei der GeForce GTX 780 schon einmal, welche man mit 4 oder 5 Raster-Engines antrifft.
Radeon R9 290 | Radeon R9 290X | GeForce GTX 770 | GeForce GTX 780 | GeForce GTX 970 | |
---|---|---|---|---|---|
Chipbasis | AMD Hawaii, 6,2 Mrd. Transistoren in 28nm auf 438mm² Chipfläche | nVidia GK104, 3,54 Mrd. Transistoren in 28nm auf 294mm² Chipfläche | nVidia GK110, 7,1 Mrd. Transistoren in 28nm auf 551mm² Chipfläche | nVidia GM204, 5,2 Mrd. Transistoren in 28nm auf 398mm² Chipfläche | |
Architektur | GCN-Architektur 1.1, DirectX 11.2b, Mantle & TrueAudio | Kepler-Architektur, DirectX 11.0 & PhysX | Maxwell-Architektur 2.0, DirectX 11.2b & PhysX | ||
Technik | 4 Raster-Engines, 2560 Shader-Einheiten, 160 TMUs, 64 ROPs, 512 Bit DDR Interface, 1 MB Level2-Cache | 4 Raster-Engines, 2816 Shader-Einheiten, 176 TMUs, 64 ROPs, 512 Bit DDR Interface, 1 MB Level2-Cache | 4 Raster-Engines, 1536 Shader-Einheiten, 128 TMUs, 32 ROPs, 256 Bit DDR Interface, 0,5 MB Level2-Cache | 4-5 Raster-Engines, 2304 Shader-Einheiten, 192 TMUs, 48 ROPs, 384 Bit DDR Interface, 1,5 MB Level2-Cache | 4 Raster-Engines (mit verdoppelter Raster-Power), 1664 Shader-Einheiten, 104 TMUs, 64 ROPs, 256 Bit DDR Interface, 2 MB Level2-Cache |
Taktraten | ≤947/2500 MHz (Ø-Chiptakt: 826 MHz) |
≤1000/2500 MHz (Ø-Chiptakt: 851/1000 MHz *) |
1046/1085/3500 MHz (Ø-Chiptakt: 1070 MHz) |
863/902/3000 MHz (Ø-Chiptakt: 888 MHz) |
1050/1178/3500 MHz (Ø-Chiptakt: ~1100 MHz) |
Speicherausbau | 4 GB GDDR5 | 4 GB GDDR5 (8 GB gegen Aufpreis) |
2 GB GDDR5 (4 GB gegen Aufpreis) |
3 GB GDDR5 (6 GB gegen Aufpreis) |
4 GB GDDR5 |
Layout | DualSlot | DualSlot | DualSlot | DualSlot | DualSlot |
Kartenlänge | 27,5cm | 27,5cm | 27,0cm | 27,0cm | 27,0cm |
Stromstecker | 1x 6pol. + 1x 8pol. | 1x 6pol. + 1x 8pol. | 1x 6pol. + 1x 8pol. | 1x 6pol. + 1x 8pol. | 2x 6pol. |
TDP | 250W | 250W | 230W | 250W | 145W |
Idle-Verbrauch | 19W | 20W | 10W | 12W | ~11W |
Spiele-Verbrauch | 253W | 239/279W * | 180W | 199W | ~140W |
Ausgänge | 2x DualLink DVD-D, HDMI 1.4a, DisplayPort 1.2 | DualLink DVD-D, DualLink DVI-I, HDMI 1.4a, DisplayPort 1.2 | DualLink DVI-I, HDMI 2.0 (kein HDCP 2.2), 3x DisplayPort 1.2 | ||
Perf.Index | 460% | 480/520% * | 380% | 440% | 490% |
Listenpreis | 399$ | 549$ | 399$ | 499$ | 329$ |
Straßenpreis | 280-330€ | 380-420€ | 255-280€ | 350-420€ | 310-350€ |
Release | 5. November 2013 | 24. Oktober 2013 | 30. Mai 2013 | 23. Mai 2013 | 19. September 2014 |
* Die zwei differierenden Angaben beziehen sich auf den Quiet/Uber-Modus der Radeon R9 290X. Zu beachten wäre hierbei, das gutklassige Herstellerdesigns dieser Karte die Performance & Leistungsaufnahme des Uber-Modus' auch schon per default erreichen. |
Radeon R9 290X | GeForce GTX Titan | GeForce GTX Titan Black | GeForce GTX 780 Ti | GeForce GTX 980 | |
---|---|---|---|---|---|
Chipbasis | AMD Hawaii, 6,2 Mrd. Transistoren in 28nm auf 438mm² Chipfläche | nVidia GK110, 7,1 Mrd. Transistoren in 28nm auf 551mm² Chipfläche | nVidia GM204, 5,2 Mrd. Transistoren in 28nm auf 398mm² Chipfläche | ||
Architektur | GCN-Architektur 1.1, DirectX 11.2b, Mantle & TrueAudio | Kepler-Architektur, DirectX 11.0 & PhysX | Maxwell-Architektur 2.0, DirectX 11.2b & PhysX | ||
Technik | 4 Raster-Engines, 2816 Shader-Einheiten, 176 TMUs, 64 ROPs, 512 Bit DDR Interface, 1 MB Level2-Cache | 5 Raster-Engines, 2688 Shader-Einheiten, 224 TMUs, 48 ROPs, 384 Bit DDR Interface, 1,5 MB Level2-Cache | 5 Raster-Engines, 2880 Shader-Einheiten, 240 TMUs, 48 ROPs, 384 Bit DDR Interface, 1,5 MB Level2-Cache | 4 Raster-Engines (mit verdoppelter Raster-Power), 2048 Shader-Einheiten, 128 TMUs, 64 ROPs, 256 Bit DDR Interface, 2 MB Level2-Cache | |
Taktraten | ≤1000/2500 MHz (Ø-Chiptakt: 851/1000 MHz *) |
837/876/3000 MHz (Ø-Chiptakt: 854 MHz) |
890/980/3500 MHz (Ø-Chiptakt: 891 MHz) |
875/928/3500 MHz (Ø-Chiptakt: 952 MHz) |
1126/1216/3500 MHz (Ø-Chiptakt: 1144 MHz) |
Speicherausbau | 4 GB GDDR5 (8 GB gegen Aufpreis) |
6 GB GDDR5 | 6 GB GDDR5 | 3 GB GDDR5 | 4 GB GDDR5 |
Layout | DualSlot | DualSlot | DualSlot | DualSlot | DualSlot |
Kartenlänge | 27,5cm | 27,0cm | 27,0cm | 27,0cm | 27,0cm |
Stromstecker | 1x 6pol. + 1x 8pol. | 1x 6pol. + 1x 8pol. | 1x 6pol. + 1x 8pol. | 1x 6pol. + 1x 8pol. | 2x 6pol. |
TDP | 250W | 250W | 250W | 250W | 165W |
Idle-Verbrauch | 20W | 12W | ~14W | 14W | 11W |
Spiele-Verbrauch | 239/279W * | 203W | ~240W | 251W | 159W |
Ausgänge | 2x DualLink DVD-D, HDMI 1.4a, DisplayPort 1.2 | DualLink DVD-D, DualLink DVI-I, HDMI 1.4a, DisplayPort 1.2 | DualLink DVI-I, HDMI 2.0 (kein HDCP 2.2), 3x DisplayPort 1.2 | ||
Perf.Index | 480/520% * | 480% | 500% | 530% | 570% |
Listenpreis | 549$ | 999$ | 999$ | 699$ | 549$ |
Straßenpreis | 380-420€ | ausgelaufen | 850-900€ | 430-570€ | 520-570€ |
Release | 24. Oktober 2013 | 21. Februar 2013 | 18. Februar 2014 | 7. November 2013 | 19. September 2014 |
* Die zwei differierenden Angaben beziehen sich auf den Quiet/Uber-Modus der Radeon R9 290X. Zu beachten wäre hierbei, das gutklassige Herstellerdesigns dieser Karte die Performance & Leistungsaufnahme des Uber-Modus' auch schon per default erreichen. |
Wie üblich bedingen Karten, welche ihren Boost über Temperatur- und Stromverbrauchs-Limits abregeln, eine Überprüfung der real anliegenden Boost-Taktraten. Hierbei ist es besonders wichtig, unter realen Bedingungen zu testen, sprich im geschlossenen Gehäuse und erst nach einiger Spielzeit, damit sich die Grafikkarte ähnlich wie beim realen Gaming-Einsatz aufheizen kann. Zudem sollte man das ganze eigentlich nur mit Referenzdesigns austesten, da Herstellerdesigns über ihre besseren Kühllösungen und teilweise BIOS-seitig andere Temperatur- und Stromverbrauchs-Limits ein völlig anderes Ergebnis liefern werden.
GeForce GTX 970 | GeForce GTX 980 | |
---|---|---|
Referenz-Takt | 1050/1178/3500 MHz | 1126/1216/3500 MHz |
realer Boost laut ComputerBase (geschlossenes Gehäuse, Takt nach 20 Minuten, Schnitt aus 16 Spielen) |
- | Ø 1144 MHz (Referenzdesign) |
realer Boost laut Hardwareluxx (Schnitt aus 8 Spielen) |
- | Ø 1186 MHz (Referenzdesign) |
Leider gibt es solche Daten derzeit nur zur GeForce GTX 980 – welche zumindest laut den vorliegenden Messungen ihren von nVidia angegeben durchschnittlichen Boost mit einigem Abstand verfehlt: 1216 MHz nVidia-Vorgabe und 1144 MHz Realität sind dann schon ein dicker Abstand – welcher aber anzeigt, wozu die Boost-Geschichte alleinig gut ist: Um tolle Benchmarks abzustauben bei denjenigen Hardware-Testern, welche diesen Punkt nicht einplanen. Zur GeForce GTX 970 liegen derzeit wie gesagt keine entsprechenden Werte vor, wir schätzen aufgrund der Werte zur GeForce GTX 980 den real anliegenden Boost-Takt der GeForce GTX 970 derzeit auf grob ~1100 MHz ein.
Eine völlig andere Geschichte sind dann allerdings die Herstellerdesigns, welche es insbesondere von der GeForce GTX 970 derzeit schon zahlreich gibt: Jene schaffen es augenscheinlich problemlos, selbst höhere Boost-Taktraten von um die 1350 MHz zu halten. Damit kann eine ab Werk nominell nur um 5% übertaktete Karte letztlich schnell einmal bei +20% Rechenleistung respektive +10% Performance landen, weil die Boost-Taktraten der Herstellerdesigns in der Praxis deutlich höher ausfallen (dafür aber auch deren Stromverbrauch).