Mit der GeForce RTX 4070 Ti bringt nVidia die dritte RTX40-Grafiklösung, basierend auf dem dritten Ada-Lovelace-Grafikchip und erstmals bei nVidias neuer Grafikkarten-Generation in den dreistelligen Preisbereich herabreichend. Prinzipiell handelt es sich hierbei um eine umbenannten "GeForce RTX 4080 12GB" zum leicht abgesenkten Preis. Letzteres war wohl auch notwendig, um wenigstens einen gewissen Performance/Preis-Vorteil gegenüber der von den Grafikkarten-Käufern weitgehend verschmähten GeForce RTX 4080 (16GB) zu erreichen. Ob dies ausreichend ist bzw. wo sich die GeForce RTX 4070 Ti im Performance-Gesamtbild einordnen kann, soll nachfolgend auf Basis der Performance-Werte der Launch-Reviews ermittelt werden.
Wie bekannt, hatte nVidia bei der initialen Vorstellung der Ada-Lovelace-Generation bereits eine "GeForce RTX 4080 12GB" für November 2022 sowie Listenpreise von 899 Dollar bzw. 1099 Euro bekanntgegeben. Schon seinerzeit wurden Preispunkt und Namensgebung in Frage gestellt, worauf nVidia tatsächlich ein Einsehen hatte und noch Mitte Oktober diese Karte wieder aus dem Aufgebot strich. Schnell wurde allerdings klar, dass damit die einstmals angedachte Hardware keineswegs aus dem Spiel war, sondern schlicht nur unter neuem Namen herauskommen sollte. Nach einer gewissen Zeitspanne kristallisierte sich dann die neue Namensgebung "GeForce RTX 4070 Ti" heraus. Preislich gab es lange Zeit keine Bewegung, ehe nVidia kurz vor Launch den Listenpreis doch noch um 100 Dollar bzw. 200 Euro kürzte (letzteres auch ermöglicht durch den inzwischen besseren Wechselkurs).
Die neue Namensgebung passt in jedem Fall besser zu dem Punkt, dass für die GeForce RTX 4070 Ti der AD104-Chip Verwendung findet, im Gegensatz zum AD103-Chip bei der GeForce RTX 4080. Der neue, nunmehr dritte Ada-Lovelace-Grafikchip kommt in einer für nVidia typischen Midrange-Größe von 294,5mm² Chipfläche daher, das 192-Bit-Speicherinterface (für 6 Stück Speicherchips à 2 GByte) samt der (aus heutiger Sicht) mittleren TDP sollte die Kostenlage eigentlich überschaubar halten. Trotzdem ist die Preislage der GeForce RTX 4070 Ti mit Listenpreisen von 799 Dollar bzw. 899 Euro weiterhin hoch für ein Modell der 70er Klasse, die vorherige GeForce RTX 3070 Ti startete mal für 599 Dollar – was zudem gegenüber den 499 Dollar der regulären GeForce RTX 3070 ebenfalls schon als zu hoch angesehen wurde.
|
Chip-technisch ist der AD104-Chip unspektakulär, da einfach 1:1 von den vorherigen Ada-Lovelace-Chips herunterskaliert. Dies betrifft dann auch das Speicherinterface, wo es den einzigen Rückschritt gegenüber der vorherigen Ampere-Generation gibt: Während der GA104-Chip von GeForce RTX 3060 Ti, 3070 & 3070 Ti mit einem 256-Bit-Interface antrat, kommt der AD104-Chip eben nur mit einem 192-Bit-Interface daher. Bandbreiten-seitig wird dies ausgeglichen durch die Verwendung von GDDR6X und durch den großen Level2-Cache der Ada-Lovelace-Generation. Als großen Vorteil kann nVidia dafür andere Speichermengen als nur 8 oder 16 GB bieten – so dass die GeForce RTX 4070 Ti eben mit 12 GB Grafikkartenspeicher antritt. Gegenüber den bisherigen 70er Modellen von nVidia ist dies ein deutlicher Fortschritt, welcher zudem angesichts der erreichten Leistungsklasse auch dringend benötigt war.
Natürlich hätte nVidia der GeForce RTX 4070 Ti gut und gerne auch noch etwas mehr Speicher mitgeben können, die ganz große Zukunftssicherheit ist mit dieser Speicherbestückung nicht gegeben. Aber dieser Blick in die Glaskugel wird zunehmend schwerer, die Spiele-Entwickler ziehen die Anforderungen derzeit nicht mehr ganz so rasant an wie früher. Insofern dürfte die GeForce RTX 4070 Ti mit ihrer Speicherbestückung wohl zumindest für ein paar Jahre keine Probleme haben. Im Vergleich mit der GeForce RTX 4080 ergeben sich dann durchgehend beachtbar große Hardware-Unterschiede, welche in jedem Fall den tatsächlich eigenständigen Namen der GeForce RTX 4070 Ti rechtfertigen. Die Hardware-Differenzen sind zwar nicht so hoch wie zwischen GeForce RTX 4080 & 4090, allerdings erleiden diese größeren Karten auch höhere Skalierungs-Verluste durch den Einfluß der CPU-Performance, benötigen ihren größeren Hardware-Unterschied somit regelrecht.
GeForce RTX 4070 Ti | GeForce RTX 4080 | Differenz | |
---|---|---|---|
Raster-Engines (GPC) | 5 | 7 | +40% bzw. –29% |
Shader-Cluster (SM) | 60 | 76 | +27% bzw. –21% |
FP32-Einheiten | 7680 | 9728 | +27% bzw. –21% |
ROPs | 80 | 112 | +40% bzw. –29% |
Level2-Cache | 48 MB | 64 MB | +33% bzw. –25% |
Speicherinterface | 192 Bit GDDR6X | 256 Bit GDDR6X | +33% bzw. –25% |
nVidias dritte RTX40-Karte kommt erstaunlicherweise nicht in einem Referenz-Design aka einer "Founders Edition" daher, es sind allein die Hersteller-Designs verfügbar. Jene gibt es in allen Formen und Farben, darunter Karten auf Referenz-Takt sowie mit allen möglichen Werksübertaktungen. Trotz Eigendesigns ist nVidias neuer 16poliger 12VHPWR-Stromstecker üblicherweise auch für die Hersteller-Modelle Pflicht, zuletzt gab es allerdings auch keinerlei Störungs-Meldungen mehr zu diesem neuen Adapter. Regulär soll die GeForce RTX 4070 Ti in einem DualSlot-Design antreten, bei den Grafikkarten-Herstellern hat man die freie Auswahl zwischen DualSlot-, TripleSlot- und QuadSlot-Designs mit (derzeit) Kartenlängen von 25,4 bis 34,9cm.
Radeon RX 7900 XT | GeForce RTX 4070 Ti | GeForce RTX 4080 | GeForce RTX 4090 | |
---|---|---|---|---|
Chipbasis | AMD Navi 31 | nVidia AD104-400 | nVidia AD103-300 | nVidia AD102-300 |
Fertigung | ? Mrd. Transistoren auf 485mm² Chipfäche in der 5/6nm-Fertigung von TSMC | 35,8 Mrd. Transistoren auf 295mm² Chipfäche in der 4nm-Fertigung von TSMC | 45,9 Mrd. Transistoren auf 379mm² Chipfäche in der 4nm-Fertigung von TSMC | 76,3 Mrd. Transistoren auf 609mm² Chipfäche in der 4nm-Fertigung von TSMC |
Architektur | AMD RDNA3, DirectX 12 Feature-Level 12_2 | nVidia Ada Lovelace, DirectX 12 Feature-Level 12_2 | ||
Features | DirectX 12, OpenGL, Vulkan, RayTracing, VSR, FSR 1/2/3, FreeSync, TrueAudio Next, XConnect, rBAR | DirectX 12, OpenGL, Vulkan, RayTracing, DSR, DLDSR, DLSS 2/3, PhysX, G-Sync, FreeSync, rBAR | ||
Technik | 6 Raster-Engines, 84 Shader-Cluster, 10'752 FP32-Einheiten, 336 TMUs, 84 RA-Einheiten v2, 168 KI-Kerne, 192 ROPs, 6 MB Level2-Cache, 80 MB Infinity Cache v2, 320 Bit GDDR6-Interface (Salvage) | 5 Raster-Engines, 60 Shader-Cluster, 7680 FP32-Einheiten, 240 TMUs, 60 RT-Cores v3, 240 Tensor-Cores v4, 80 ROPs, 48 MB Level2-Cache, 192 Bit GDDR6X-Interface (Vollausbau) | 7 Raster-Engines, 76 Shader-Cluster, 9728 FP32-Einheiten, 304 TMUs, 76 RT-Cores v3, 304 Tensor-Cores v4, 112 ROPs, 64 MB Level2-Cache, 256 Bit GDDR6X-Interface (Salvage) | 11 Raster-Engines, 128 Shader-Cluster, 16'384 FP32-Einheiten, 512 TMUs, 128 RT-Cores v3, 512 Tensor-Cores v4, 176 ROPs, 72 MB Level2-Cache, 384 Bit GDDR6X-Interface (Salvage) |
Taktraten | 1500/2000/2400 MHz & 20 Gbps | 2310/2610 MHz & 21 Gbps | 2205/2505 MHz & 22,4 Gbps | 2235/2520 MHz & 21 Gbps |
Rohleistungen | 51,6 TFlops & 800 GB/sec | 40,1 TFlops & 504 GB/sec | 48,7 TFlops & 717 GB/sec | 82,6 TFlops & 1008 GB/sec |
Speicherausbau | 20 GB GDDR6 | 12 GB GDDR6X | 16 GB GDDR6X | 24 GB GDDR6X |
Anbindung | PCI Express 4.0 x16 | PCI Express 4.0 x16 | PCI Express 4.0 x16 | PCI Express 4.0 x16 |
Ref/AIBs/OC | ✓ / ✓ / ✓ | ✗ / ✓ / ✓ | ✓ / ✓ / ✓ | ✓ / ✓ / ✓ |
Layout | Triple- & QuadSlot | Dual-, Triple- & QuadSlot | Dual-, Triple- & QuadSlot | Dual-, Triple- & QuadSlot |
Kartenlänge | Ref: 27,6cm AIBs: 31,3-35,3cm |
AIBs: 25,4-34,9cm | FE: 30,5cm AIBs: 20,0-36,7cm |
FE: 30,5cm AIBs: 20,0-36,7cm |
Stromstecker | 2x 8pol. | 1x 16pol. | 1x 16pol. | 1x 16pol. |
off. Verbrauch | 315W | 285W | 320W | 450W |
Real-Verbrauch | 309W | 267W | 297W | 418W |
Ausgänge | HDMI 2.1a, USB Type-C, 2x DisplayPort 2.1 | HDMI 2.1a, 3x DisplayPort 1.4a | HDMI 2.1a, 3x DisplayPort 1.4a | HDMI 2.1a, 3x DisplayPort 1.4a |
FHD Perf.Index | 2530% | 2370% | 2690% | 3000% |
4K Perf.Index | 434% | 392% | 496% | 655% |
Listenpreis | $899 / 1049€ | $799 / 899€ | $1199 / 1469€ | $1599 / 1949€ |
Straßenpreis | 980-1100 Euro | 900-1000 Euro | 1320-1450 Euro | 1920-2200 Euro |
Release | 13. Dezember 2022 | 5. Januar 2023 | 16. November 2022 | 12. Oktober 2022 |
Mit 2610 MHz Boost-Takt handelt es sich bei der GeForce RTX 4070 Ti um die (nominell) bislang am höchsten taktende nVidia-Karte – folgend der bekannten Tendenz, dass die kleineren Grafikchips einer Serie immer etwas höher takten können als die jeweiligen Spitzen-Chips. Dieser Eindruck wird auch teilweise über die Messungen zur real anliegenden Taktrate bestätigt, welche zumindest in einem Fall ein Ergebnis von sogar 2802 MHz erbrachte. Die Meßwerte sind nicht ganz einheitlich wie vollständig, aber generell kann man die GeForce RTX 4070 Ti bei Taktraten von 2.7-2.8 GHz für eine auf Referenz-Einstellungen laufende Karte einbuchen. Die Werksübertaktungen schaffen etwas mehr – wobei deren Realtakt-Unterschiede deutlich geringer ausfallen als die Unterschiede beim offiziellen Boost-Takt (laut TechPowerUp 2828-2880 MHz Realtakt bei 2640-2760 MHz Boost-Takt).
Basis | Durchschnitt | Max | gemessener Realtakt | ||||
---|---|---|---|---|---|---|---|
AMD-Bezeichnung: | "Base Clock" | "Game Clock" | "Boost Clock" | "Max Clock" | CB | TPU | PCGH |
Radeon RX 7900 XTX | 1900 MHz | 2300 MHz | 2500 MHz | ? | 2556 MHz | 2612 MHz | 2.60 GHz |
Radeon RX 7900 XT | 1500 MHz | 2000 MHz | 2400 MHz | ? | 2566 MHz | 2687 MHz | 2.40 GHz |
Radeon RX 6950 XT | 1890 MHz | 2100 MHz | 2310 MHz | ? | 2392 MHz | 2405 MHz | 2.42 GHz |
Radeon RX 6900 XT | 1825 MHz | 2015 MHz | 2250 MHz | ? | 2265 MHz | 2233 MHz | 2.30 GHz |
Radeon RX 6800 XT | 1825 MHz | 2015 MHz | 2250 MHz | ? | 2216 MHz | 2257 MHz | 2.34 GHz |
Radeon RX 6800 | 1700 MHz | 1815 MHz | 2105 MHz | ? | 2177 MHz | 2205 MHz | 2.20 GHz |
Radeon RX 6750 XT | 2150 MHz | 2495 MHz | 2600 MHz | ? | 2683 MHz | - | 2.63 GHz |
Radeon RX 6700 XT | 2321 MHz | 2424 MHz | 2581 MHz | ? | 2531 MHz | 2491 MHz | 2.54 GHz |
Radeon RX 6650 XT | 2055 MHz | 2410 MHz | 2635 MHz | ? | 2601 MHz | - | 2.68 GHz |
Radeon RX 6600 XT | 1968 MHz | 2359 MHz | 2589 MHz | ? | 2562 MHz | - | 2.58 GHz |
Radeon RX 6600 | 1626 MHz | 2044 MHz | 2491 MHz | ? | 2509 MHz | 2444 MHz | 2.51 GHz |
Radeon RX 6500 XT | 2310 MHz | 2610 MHz | 2815 MHz | ? | 2753 MHz | - | 2.82 GHz |
nVidia-Bezeichnung: | "Base Clock" | "Boost Clock" | "Max Clock" | CB | TPU | PCGH | |
GeForce RTX 4090 | 2235 MHz | 2520 MHz | ? | 2744 MHz | 2701 MHz | 2.74 GHz | |
GeForce RTX 4080 | 2205 MHz | 2505 MHz | ? | 2725 MHz | 2737 MHz | 2.78 GHz | |
GeForce RTX 4070 Ti | 2310 MHz | 2610 MHz | ? | 2802 MHz | - | 2.74 GHz | |
GeForce RTX 3090 Ti | 1560 MHz | 1860 MHz | ? | 1936 MHz | 1979 MHz | 2.00 GHz | |
GeForce RTX 3090 | 1400 MHz | 1700 MHz | ? | 1754 MHz | - | 1.88 GHz | |
GeForce RTX 3080 Ti | 1365 MHz | 1665 MHz | ? | 1784 MHz | 1780 MHz | 1.80 GHz | |
GeForce RTX 3080 12GB | 1260 MHz | 1710 MHz | ? | - | - | 1.80 GHz | |
GeForce RTX 3080 10GB | 1450 MHz | 1710 MHz | ? | 1827 MHz | 1931 MHz | 1.90 GHz | |
GeForce RTX 3070 Ti | 1575 MHz | 1770 MHz | ? | 1878 MHz | 1861 MHz | 1.88 GHz | |
GeForce RTX 3070 | 1500 MHz | 1725 MHz | ? | 1920 MHz | 1882 MHz | 1.86 GHz | |
GeForce RTX 3060 Ti | 1410 MHz | 1665 MHz | ? | 1900 MHz | 1877 MHz | 1.83 GHz | |
GeForce RTX 3060 | 1320 MHz | 1777 MHz | ? | - | - | 1.87 GHz | |
GeForce RTX 3050 | 1552 MHz | 1777 MHz | ? | 1891 MHz | 1906 MHz | 1.89 GHz | |
Intel-Bezeichnung: | - | "Graphics Clock" | "Max Clock" | CB | TPU | PCGH | |
Arc A770 "LE" | - | 2100 MHz | 2400 MHz | - | 2386 MHz | 2.33 GHz | |
Arc A750 | - | 2050 MHz | 2400 MHz | - | 2394 MHz | 2.39 GHz | |
Realtakt-Angaben gemäß den Ausarbeitungen der ComputerBase (Ø 17-20 Spiele) und von TechPowerUp (Ø 22-25 Spiele) sowie den Praxis-Angaben der PC Games Hardware von jeweils Referenz-Varianten (oder auf Referenz-Taktung/TDP laufend) |