Mit der GeForce RTX 4090 läutet nVidia eine neue Grafikchip- und damit Grafikkarten-Generation ein: Architektur-seitig kommt hierbei erstmals die "Ada Lovelace" Architektur in Form des "AD102"-Grafikchips zum Einsatz, welche im Verkauf dann in der "GeForce RTX 40" Serie mit der GeForce RTX 4090 als erster Grafikkarte hieraus resultiert. Versprochen wurde seitens nVidia ein erheblicher bis drastischer Performance-Sprung, letzterer allerdings nur zu erzielen unter Einsatz von "Hilfsmitteln" wie dem neuen Upscaler DLSS3. Nach den Launchreviews zur Founders Edition am 11. Oktober [2] sowie den Launchreviews zu den Herstellerdesign samt dem gemeinsamen Marktstart am 12. Oktober [3] soll die nachfolgende Launch-Analyse die (massig) angefallenen Benchmark-Werte zur neuen nVidia-Karte sammeln und in Form bringen, so dass sich ein belastbares Performance-Bild über die neue Situation im Enthusiasten-Segment ergibt.
Die zugrundeliegende "Ada Lovelace [6]" Architektur kann man generell als "Ampere auf Stereoiden" beschreiben: Alles wurde größer und schneller gemacht, während sich die Anzahl der reinen Architektur-Veränderungen im Rahmen hält. Dies zeigt sich am deutlichsten im Vergleich von alter gegen neuer Top-Chip: Der GA102-Chip der GeForce RTX 3080/3090 Serien tritt mit 84 Shader-Clustern an, der AD102-Chip gleich mit 144 Shader-Clustern (+71%). Zuzüglich wechselt die komplette Chip-Familie von der 8nm-Fertigung seitens Samsung auf die "4N"-Fertigung seitens TSMC ("4N" ist eine nVidia-Anpassung der 5nm-Fertigung). Dies bringt satt mehr Taktraten-Möglichkeiten mit sich – und ermöglicht nebenbei auch den Hardware-Sprung selber, denn der AD102-Chip ist mit 609mm² Chipfläche sogar etwas kleiner ausgefallen als der bisherige GA102-Chip mit 628mm².
Ein interessanter Punkt am Chip-Design ist der stark angewachsene Level2-Cache: Gab es vorher nur maximal 6 MB bei den nVidia-Chips, geht der AD102 hier gleich auf 96 MB nach oben. Faktisch handelt es sich um den gleichen Ansatz wie bei AMDs "Infinity Cache" – nur dass dies nVidia nicht so recht zugeben will und kaum etwas zu dieser eigentlich wichtigen Innovation zu sagen hatte. Dabei verhindert der große Level2-Cache von AD102 effektiv, dass der Grafikchip bei der Breite des Speicherinterfaces wachsen muß – was ansonsten auf Basis der viel dickeren Hardware nahezu obligatorisch wäre. Doch große Speicherinterface erfordern umso teurere Platinen und sind zudem als gewichtige Stromverbraucher bekannt, ergo sucht man hierbei gern nach anderen Wegen – und hat jenen bei AMD wie nun auch nVidia in Form großer Caches gefunden.
|
Als technologische Innovationen hat nVidia mit der "Ada Lovelace" Architektur maßgeblich nur zwei neue Features zu bieten: Mittels "Shader Execution Reordering" (SER) will man die Grafikchip-Pipeline unter RayTracing besser auslasten. Dies kann laut nVidia zu starken Performance-Gewinnen führen, in einem konkreten Test mit Cyberpunk 2077 ergab sich eine Performance-Steigerung von +44%. Allerdings erfordert das Feature die Einbindung durch den Spiele-Entwickler, augenscheinlich direkt bei der Spiele-Programmierung. Dies bedeutet, dass es seine Zeit brauchen wird, ehe man dessen Effekt über ein breites Benchmark-Feld hinweg sehen kann. Für den Augenblick bringt "SER" somit noch gar nichts, dies trägt "nur" zur langfristig wirksamen Performance-Steigerungen der "Ada Lovelace" Generation (wie gesagt rein im RayTracing-Feld) bei.
Das andere, deutlich in den Vordergrund gestellte Feature ist "DLSS3" als eine Erweiterung des bisherig bekannten Upscalers "DLSS2". Bei der dritten Version von DLSS kommt nunmehr – exklusiv für Ada-Lovelace-Hardware – eine Zwischenbild-Berechnung hinzu, welche ergo die Framerate gegenüber nativem Rendering verdoppeln kann. Das technische Verfahren hierzu ist wesentlich ausgeklügelter als von derselben Technik auf Fernsehern bekannt, geht damit allerdings auch das Risiko von Fehldarstellungen ein. DLSS3 muß wie DLSS2 vom Spiele-Entwickler eingebunden werden, was jedoch vergleichsweise einfach funktioniert und somit einen recht breitflächigen Support seitens der Spiele-Entwickler erwarten läßt. Als ganz großen Vorteil von DLSS3 kann man ansehen, dass alle Zwischenbilder unabhängig der CPU berechnet werden – man somit also die Möglichkeit an der Hand bekommt, eine Frameraten-Verdopplung auch unter CPU-limitierte Sequenzen und -Spieletiteln zu erreichen.
Aus jenem Vorteil ergibt sich allerdings auch der Prinzip-bedingte Nachteil von DLSS3: Da die Zwischenbilder rein in der Grafikkarte entstehen, existieren jene für die Spiele-Engine nicht. Damit gibt es für die Zwischenbilder auch keinerlei Effekte von Spiel-Physik, Spiele-Engine und durch Eingaben, unter DLSS3 reagiert nur jedes zweite auf dem Monitor zu sehende Bild auf Benutzer-Eingaben. Die Latenz des Spiels wird durch die höhere Framerate somit auch nicht verbessert, sondern bleibt gegenüber der Variante ohne DLSS3 gleich (in der Praxis sogar leicht höher). Unabhängig der sehr unterschiedlichen Nutzer-Meinungen zu DLSS3 darf zudem der Punkt gelten, dass ein Upscaler zur Frameraten-Verbesserung eher etwas für kleinere Grafikkarten des Portfolios ist. Gerade bei einer GeForce RTX 4090 sollte DLSS3 keine große Relevanz entwickeln können, dafür ist die Performance der neuen nVidia-Grafikkarte unter nativem Rendering einfach viel zu hoch.
Die GeForce RTX 4090 stellt dann eine klare Abspeckung des AD102-Grafikchips dar, nVidia hat sich hierbei mit 128 freigeschalteten Shader-Clustern gegenüber 144 physikalisch im Vollausbau vorhandenen Shader-Clustern einiges an Reserven gelassen. Während man bei der seinerzeitigen GeForce RTX 3090 [7] (82 von 84 Shader-Clustern) die später nachfolgende GeForce RTX 3090 Ti [8] nicht zwingend vorhersagen konnte, kann man eine selbige Vorhersage zur GeForce RTX 4090 sehr wohl treffen: Hier kommt wohl noch eine "GeForce RTX 4090 Ti" oder "Ada Titan" nach, ob direkt im Vollausbau des AD102-Chips oder minimal darunter gelegen. Und jener Nachfolger könnte sogar recht bald erscheinen: Je nachdem wie gut AMDs Navi-31-Chip ausfällt, könnte sich nVidia zu einem schnellen Konter schon Anfang 2023 gemüßigt fühlen. Dies ändert nichts an der jetzigen GeForce RTX 4090, aber es nimmt der Karte etwas von ihrem "Topdog"-Effekt, wenn jener womöglich nur recht kurz anhält.
GeForce RTX 4090 | AD102-Vollausbau | Differenz | |
---|---|---|---|
Raster-Engines (GPC) | 11 | 12 | +9% |
Shader-Cluster (SM) | 128 | 144 | +12% |
FP32-Einheiten | 16'384 | 18'432 | +12% |
ROPs | 176 | 192 | +9% |
Level2-Cache | 72 MB | 96 MB | +33% |
Speicherinterface | 384 Bit GDDR6X | 384 Bit GDDR6X | ±0 |
Preislich ist die GeForce RTX 4090 mit 1599 Dollar bzw. 1949 Euro bereits ausreichend weit oben angesetzt – selbst wenn auch hier (im nVidia-Maßstab) noch die Reserve für ein später nachfolgendes eigentliches Top-Modell zu sehen ist. Nominell sind dies "nur" 100 Dollar Preissteigerung gegenüber der GeForce RTX 3090, allerdings werden alle Kontrahenten der GeForce RTX 4090 derzeit zu Abverkaufspreisen weit unterhalb Listenpreis angeboten. Hinzukommend den Punkt, dass die GeForce RTX 4090 derzeit von den Einzelhändlern klar oberhalb Listenpreis angeboten wird, ergibt sich insgesamt die Situation eines extremen Preis-Unterschieds gegenüber der Alt-Generation: Zu Straßenpreisen kostet die GeForce RTX 4090 derzeit immerhin grob das Doppelte gegenüber einer GeForce RTX 3090.
Radeon RX 6950 XT | GeForce RTX 3090 | GeForce RTX 3090 Ti | GeForce RTX 4090 | |
---|---|---|---|---|
Chipbasis | AMD Navi 21 KXTX | nVidia GA102-300 | nVidia GA102-350 | nVidia AD102-300 |
Fertigung | 26,8 Mrd. Transistoren auf 519mm² Chipfäche in der 7nm-Fertigung von TSMC | 28,3 Mrd. Transistoren auf 628mm² Chipfäche in der 8nm-Fertigung von Samsung | 76,3 Mrd. Transistoren auf 609mm² Chipfäche in der 4nm-Fertigung von TSMC | |
Architektur | AMD RDNA2, DirectX 12 Feature-Level 12_2 | nVidia Ampere, DirectX 12 Feature-Level 12_2 | nVidia Ada Lovelace, DirectX 12 Feature-Level 12_2 | |
Features | DirectX 12, OpenGL, Vulkan, RayTracing, VSR, FSR 1/2, RSR, FreeSync, TrueAudio Next, XConnect, rBAR | DirectX 12, OpenGL, Vulkan, RayTracing, DSR, DLDSR, DLSS 2, PhysX, G-Sync, FreeSync, rBAR | DirectX 12, OpenGL, Vulkan, RayTracing, DSR, DLDSR, DLSS 2/3, PhysX, G-Sync, FreeSync, rBAR | |
Technik | 4 Raster-Engines, 80 Shader-Cluster, 5120 FP32-Einheiten, 320 TMUs, 80 RA-Einheiten, 128 ROPs, 4 MB Level2-Cache, 128 MB "Infinity Cache", 256 Bit GDDR6-Interface (Vollausbau) | 7 Raster-Engines, 82 Shader-Cluster, 10'496 FP32-Einheiten, 328 TMUs, 82 RT-Cores v2, 328 Tensor-Cores v3, 112 ROPs, 6 MB Level2-Cache, 384 Bit GDDR6X-Interface (Salvage) | 7 Raster-Engines, 84 Shader-Cluster, 10'752 FP32-Einheiten, 336 TMUs, 84 RT-Cores v2, 336 Tensor-Cores v3, 112 ROPs, 6 MB Level2-Cache, 384 Bit GDDR6X-Interface (Vollausbau) | 11 Raster-Engines, 128 Shader-Cluster, 16'384 FP32-Einheiten, 512 TMUs, 128 RT-Cores v3, 512 Tensor-Cores v4, 176 ROPs, 72 MB Level2-Cache, 384 Bit GDDR6X-Interface (Salvage) |
Taktraten | 1890/2100/2310 MHz @ 18 Gbps | 1400/1700 MHz & 19,5 Gbps | 1560/1860 MHz & 21 Gbps | 2235/2520 MHz & 21 Gbps |
Rohleistungen | 21,5 TFlops & 576 GB/sec | 35,7 TFlops & 936 GB/sec | 40,0 TFlops & 1008 GB/sec | 82,6 TFlops & 1008 GB/sec |
Speicherausbau | 16 GB GDDR6 | 24 GB GDDR6X | 24 GB GDDR6X | 24 GB GDDR6X |
Anbindung | PCI Express 4.0 | PCI Express 4.0 | PCI Express 4.0 | PCI Express 4.0 |
Ref/AIBs/OC | ✓ / ✓ / ✓ | ✓ / ✓ / ✓ | ✓ / ✓ / ✓ | ✓ / ✓ / ✓ |
Layout | Dual-, Triple- & QuadSlot | Single-, Dual- & TripleSlot | Dual-, Triple- & QuadSlot | Dual-, Triple- & QuadSlot |
Kartenlänge | Ref: 27,0cm AIBs: 26,6-34,5cm |
FE: 31,3cm AIBs: 21,6-33,9cm |
FE: 31,3cm AIBs: 22,0-35,6cm |
FE: 30,5cm AIBs: 20,0-36,7cm |
Stromstecker | 2x 8pol. | 1x 12pol. | 1x 16pol. | 1x 16pol. |
off. Verbrauch | 335W (ASIC: 284W) | 350W | 450W | 450W |
Real-Verbrauch | 348W | 359W | 462W | 418W |
Ausgänge | HDMI 2.1, 2x DisplayPort 1.4a, USB Type-C | HDMI 2.1, 3x DisplayPort 1.4a | HDMI 2.1, 3x DisplayPort 1.4a | HDMI 2.1, 3x DisplayPort 1.4a |
FHD Perf.Index [9] | 2230% | 2100% | 2200% | 2760% |
4K Perf.Index [10] | 368% | 376% | 410% | 640% |
Listenpreis | $1099 / 1239€ | $1499 / 1649€ | $1999 / 2249€ | $1599 / 1949€ |
Straßenpreis | 900-1000 Euro | 1080-1200 Euro | 1200-1300 Euro | 2300-2650 Euro |
Release | 10. Mai 2022 [11] | 24. September 2020 [7] | 29. März 2022 [8] | 12. Oktober 2022 |
Die neue TSMC-Fertigung sieht man deutlich an den nominellen wie real erzielten Taktraten: 2.52 GHz Boost-Takt und gemittelt 2.73 GHz Real-Takt sind hohe Hausnummern für einen Grafikbeschleuniger basierend auf einem derart großen Chip. Teilweise erzielen RDNA2-Grafiklösung auf Basis der nunmehr zurückhängenden 7nm-Fertigung zwar ähnlich hohe Taktraten, dies aber regelmäßig erst bei den kleineren Grafikchips des Portfolios. Die hohe Taktrate der GeForce RTX 4090 ist damit bezüglich des erzielten Rohleistungs-Vorteil ähnlich wichtig wie der reine Hardware-Sprung: Von GeForce RTX 3090 zu 4090 gibt es +56% mehr Shader-Cluster, zuzüglich +52% Taktraten-Vorteil. In der Praxis dürfte der Taktraten-Vorteil sogar wirkmächtiger sein, denn der Effekt von mehr Hardware-Einheiten reduziert sich üblicherweise durch die gleichfalls ansteigende Schwierigkeit einer vernünftigen Hardware-Auslastung.
Basis | Durchschnitt | Max | gemessener Realtakt | ||||
---|---|---|---|---|---|---|---|
AMD-Bezeichnung: | "Base Clock" | "Game Clock" | "Boost Clock" | "Max Clock" | CB | TPU | PCGH |
Radeon RX 6950 XT | 1890 MHz | 2100 MHz | 2310 MHz | ? | 2392 MHz | 2405 MHz | 2.42 GHz |
Radeon RX 6900 XT | 1825 MHz | 2015 MHz | 2250 MHz | ? | 2265 MHz | 2233 MHz | 2.30 GHz |
Radeon RX 6800 XT | 1825 MHz | 2015 MHz | 2250 MHz | ? | 2216 MHz | 2257 MHz | 2.34 GHz |
Radeon RX 6800 | 1700 MHz | 1815 MHz | 2105 MHz | ? | 2177 MHz | 2205 MHz | 2.20 GHz |
Radeon RX 6750 XT | 2150 MHz | 2495 MHz | 2600 MHz | ? | 2683 MHz | - | 2.63 GHz |
Radeon RX 6700 XT | 2321 MHz | 2424 MHz | 2581 MHz | ? | 2531 MHz | 2491 MHz | 2.54 GHz |
Radeon RX 6650 XT | 2055 MHz | 2410 MHz | 2635 MHz | ? | 2601 MHz | - | 2.68 GHz |
Radeon RX 6600 XT | 1968 MHz | 2359 MHz | 2589 MHz | ? | 2562 MHz | - | 2.58 GHz |
Radeon RX 6600 | 1626 MHz | 2044 MHz | 2491 MHz | ? | 2509 MHz | 2444 MHz | 2.51 GHz |
Radeon RX 6500 XT | 2310 MHz | 2610 MHz | 2815 MHz | ? | 2753 MHz | - | 2.82 GHz |
nVidia-Bezeichnung: | "Base Clock" | "Boost Clock" | "Max Clock" | CB | TPU | PCGH | |
GeForce RTX 4090 | 2235 MHz | 2520 MHz | ? | 2744 MHz | 2701 MHz | 2.74 GHz | |
GeForce RTX 3090 Ti | 1560 MHz | 1860 MHz | ? | 1936 MHz | 1979 MHz | 2.00 GHz | |
GeForce RTX 3090 | 1400 MHz | 1700 MHz | ? | 1754 MHz | - | 1.88 GHz | |
GeForce RTX 3080 Ti | 1365 MHz | 1665 MHz | ? | 1784 MHz | 1780 MHz | 1.80 GHz | |
GeForce RTX 3080 12GB | 1260 MHz | 1710 MHz | ? | - | - | 1.80 GHz | |
GeForce RTX 3080 10GB | 1450 MHz | 1710 MHz | ? | 1827 MHz | 1931 MHz | 1.90 GHz | |
GeForce RTX 3070 Ti | 1575 MHz | 1770 MHz | ? | 1878 MHz | 1861 MHz | 1.88 GHz | |
GeForce RTX 3070 | 1500 MHz | 1725 MHz | ? | 1920 MHz | 1882 MHz | 1.86 GHz | |
GeForce RTX 3060 Ti | 1410 MHz | 1665 MHz | ? | 1900 MHz | 1877 MHz | 1.83 GHz | |
GeForce RTX 3060 | 1320 MHz | 1777 MHz | ? | - | - | 1.87 GHz | |
GeForce RTX 3050 | 1552 MHz | 1777 MHz | ? | 1891 MHz | 1906 MHz | 1.89 GHz | |
Intel-Bezeichnung: | - | "Graphics Clock" | "Max Clock" | CB | TPU | PCGH | |
Arc A770 "LE" | - | 2100 MHz | 2400 MHz | - | 2386 MHz | 2.33 GHz | |
Arc A750 | - | 2050 MHz | 2400 MHz | - | 2394 MHz | 2.39 GHz | |
Realtakt-Angaben gemäß den Ausarbeitungen der ComputerBase [12] (Ø 17-20 Spiele) und von TechPowerUp [13] (Ø 22-25 Spiele) sowie den Praxis-Angaben der PC Games Hardware [14] von jeweils Referenz-Varianten (oder auf Referenz-Taktung/TDP laufend) |
Zur Performance-Auswertung standen eine (überaus) stattliche Anzahl an Launchreviews zur Verfügung (Liste #1 [2] & Liste #2 [17]), aus welchen somit eine gewisse Auswahl zugunsten jener Testberichte mit vielen Benchmark-Spielen und ausreichender Vergleichs-Hardware getroffen werden konnte. Keine guten Chancen zur Aufnahme in die nachfolgenden Benchmark-Auswertungen hatten dabei Testberichte, welche mit der Übernahme von teils uralten Benchmark-Werten (aus früheren Reviews) operieren oder auch Testberichte, welche keine klare Benennung der benutzten werksübertakteten Karten anführen. Einfach nur den jeweiligen Review-Gegenstand mit dem (für diesen) benutzten Treiber anzugeben, reicht an dieser Stelle nicht aus, denn: In einem vergleichenden Test sollten natürlich auch alle anderen in den Benchmark-Charts geführten Karten genauso exakt benannt und mit jeweils benutzter Treiber-Nummer ausgewiesen werden.
Stichwort Treiber-Gleichheit: Nur die wenigsten Testberichte haben den Presse-Treiber 521.90, welcher inhaltlich dem jetzt offiziellen nVidia-Treiber 522.25 entspricht, für alle im Test befindlichen Grafikkarten angesetzt – und somit auch für die RTX30-Modelle. Dies wäre natürlich sinnvoller gewesen, aber man muß schlicht mit diesen Benchmarks leben, welche man bekommt. Allerdings scheint der neue Treiber über komplette Benchmark-Felder hinweg gesehen auch keinen ganz so großen Einfluß auf die Performance der RTX30-Grafikkarten zu haben, wie man es angesichts der von nVidia genannten hohen Zuwächse erwarten könnte: Die Testberichte mit neuem RTX30-Treiber erzielen gemittelt eine um +1,0% bessere RTX30-Performance gegenüber den Testberichten mit älteren RTX30-Treibern. Dies liegt sogar noch im Einzugsbereich von "Gevatter Zufall", zeigt also zumindest keine gravierend bessere RTX30-Performance durch dem neuen Treiber an.
Tests | benutzte CPU | benutzte Treiber | |
---|---|---|---|
ComputerBase [18] ![]() |
17 / 11 | Core i9-12900K | 4090: 521.90, andere: 517.48 & 22.9.1 |
Cowcotland [19] ![]() |
11 / 5 | Core i7-12700KF | 4090: 521.90, andere: 516.94 & 22.8.2 |
Eurogamer [20] ![]() |
9 / 7 | keine Angabe | keine Angabe |
Hardware Upgrade [21] ![]() |
10 / 5 | Ryzen 9 7950X | 4090: 521.90, andere: 516.94 & 22.9.2 |
Igor's Lab [22] ![]() |
10 / – | Ryzen 9 7950X | alle nVidia: 512.90 |
KitGuru [23] ![]() |
12 / 4 | Core i9-12900K | 4090: 521.90, andere: 516.94 & 22.9.1 |
Le Comptoir du Hardware [24] ![]() |
20 / 15 | Core i9-12900KS (HT off) | 521.90 & 22.10.1 |
Les Numeriques [25] ![]() |
10 / 9 | keine Angabe | keine Angabe |
Paul's Hardware [26] ![]() |
9 / – | Ryzen 9 7950X | 521.90 & 22.10.1 |
PC Games Hardware [27] ![]() |
20 / 10 | Core i9-12900K @ 5.2 GHz | keine Angabe |
PurePC [28] ![]() |
11 / 3 | Ryzen 7 5800X3D | keine Angabe |
Quasarzone [29] ![]() |
15 / 5 | Ryzen 9 7900X | 521.90 & 22.10.1 |
SweClockers [30] ![]() |
12 / 4 | Core i9-12900KS | 4090: 521.90, andere: 512.95 & 22.5.2 |
TechPowerUp [31] ![]() |
25 / 8 | Ryzen 7 5800X @ PBO Max | 4090: 521.90, andere: 516.94 & 22.8.1 |
TechSpot [32] ![]() |
13 / – | Ryzen 7 5800X3D | keine Angabe |
Tom's Hardware [33] ![]() |
8 / 6 | Core i9-12900K | keine Angabe |
Tweakers [34] ![]() |
10 / – | Ryzen 9 5950X @ 4.65 GHz | 4090: 521.90, andere: 517.48 & 22.9.2 |
Tests: Anzahl der jeweiligen Benchmark-Spiele unter gewöhnlichem Rasterizer-Rendering bzw. RayTracing |
Das Haupt-Augenmerk der Performance-Ermittlung bei einer Grafikkarte wie der GeForce RTX 4090 liegt sicherlich auf den höchsten Auflösungen – womit nachfolgend das übliche Schema umgedreht werden soll, es von der größten zur kleinsten Auflösung geht. Denn so ein Kracher wie die GeForce RTX 4090 kommt selbst unter der 4K-Auflösung inzwischen auf nahezu überall überragende Frameraten: Im Testbericht der PC Games Hardware, wo üblicherweise besonders Hardware-fordernde Testszenarien herausgearbeitet werden, erzielt die neue nVidia-Karte in den 20 Test-Spielen unter 4K immerhin 12x dreistellige Frameraten. Die restlichen 8 Spiele-Titel teilen sich dann auf in 4x über 90 fps, 3x über 70 fps und nur in einem einzigen Test mit 57,5 fps knapp unter 60 fps. Im geometrischen Mittel liegt die GeForce RTX 4090 in diesem Review bei satten 115 fps – unter 4K mit maximaler Bildqualität (ohne RayTracing) wohlgemerkt.
4K /2160p | 6800XT | 6900XT | 6950XT | 3080-10G | 3080Ti | 3090 | 3090Ti | 4090 |
---|---|---|---|---|---|---|---|---|
RDNA2, 16GB | RDNA2, 16GB | RDNA2, 16GB | Ampere, 10GB | Ampere, 12GB | Ampere, 24GB | Ampere, 24GB | Ada, 24GB | |
ComputerBase [18] (17 Tests) | 47,1% | 51,9% | - | 49,1% | 54,3% | 57,7% | 60,5% | 100% |
Cowcotland [19] (11 Tests) | 55,8% | 61,9% | 63,0% | 55,2% | 61,3% | 63,5% | 68,5% | 100% |
Eurogamer [20] (9 Tests) | - | 54,7% | - | - | - | 58,4% | 63,7% | 100% |
Hardware Upgrade [21] (10 Tests) | 49,1% | 53,5% | 57,9% | 49,1% | 54,7% | 56,6% | 62,9% | 100% |
Igor's Lab [22] (10 Tests) | 48,4% | 51,4% | 57,6% | 47,8% | 59,6% | 61,1% | 66,8% | 100% |
KitGuru [23] (12 Tests) | 49,0% | - | 57,3% | 49,9% | - | 55,7% | 62,7% | 100% |
Le Comptoir d.H. [24] (20 Tests) | 47,3% | 51,1% | 56,5% | 51,1% | 57,3% | 59,6% | 65,4% | 100% |
Les Numeriques [25] (10 Tests) | 51,9% | 54,5% | - | 52,9% | 58,2% | 60,8% | - | 100% |
Paul's Hardware [26] (9 Tests) | - | 53,5% | 56,2% | - | 57,7% | 58,9% | 66,5% | 100% |
PC Games Hardware [27] (20 Tests) | 49,9% | 53,1% | 56,2% | 50,3% | 55,2% | 57,9% | 62,4% | 100% |
PurePC [28] (11 Tests) | - | 52,6% | 56,8% | 52,1% | 57,3% | 58,9% | 64,6% | 100% |
Quasarzone [29] (15 Tests) | 48,2% | 52,8% | - | 51,9% | 57,7% | 58,4% | 64,1% | 100% |
SweClockers [35] (12 Tests) | 48,9% | 53,4% | 59,0% | 49,6% | - | 55,3% | 60,9% | 100% |
TechPowerUp [31] (25 Tests) | 54% | 57% | 61% | 53% | 61% | 61% | 69% | 100% |
TechSpot [32] (13 Tests) | 49,3% | 53,5% | 59,0% | 50,7% | 56,3% | 58,3% | 63,2% | 100% |
Tom's Hardware [33] (8 Tests) | 51,4% | 55,0% | 61,0% | 51,8% | 56,7% | 58,6% | 64,7% | 100% |
Tweakers [34] (10 Tests) | - | - | 60,6% | 53,8% | 59,2% | 60,6% | 67,9% | 100% |
gemittelte 4K-Performance | 49,8% | 53,8% | 57,1% | 51,2% | 57,0% | 58,7% | 64,0% | 100% |
offizielle TDP | 300W | 300W | 335W | 320W | 350W | 350W | 450W | 450W |
Listenpreis | $649 | $699 | $1099 | $699 | $1199 | $1499 | $1999 | $1599 |
Straßenpreis (ab) | 650€ | 740€ | 900€ | 800€ | 1000€ | 1080€ | 1200€ | 2300€ |
Performance-Durchschnitt gemäß geometrischem Mittel, maßvoll gewichtet zugunsten jener Hardwaretests mit höherer Benchmark-Anzahl; werksübertaktete Karten sind kursiv notiert (angegeben ist jeweils die werksübertaktete Performance, was für den Performance-Durchschnitt jedoch auf Referenz-Takt normalisiert wurde); gesamte ausgewertete Benchmark-Anzahl: ~1600 |
Im Schnitt der 17 Testberichte reicht es für die GeForce RTX 4090 zu einem Performance-Plus unter der 4K-Auflösung von +56% zur GeForce RTX 3090 Ti sowie +70% zur GeForce RTX 3090. Dies ist im Generations-Vergleich (3090→4090) ein stattliches Ergebnis, andere nVidia-Generationen sind da mit deutlich geringeren Generations-Gewinnen angetreten. Allerdings reicht dieser hohe Performance-Gewinn nicht aus, um ein besseres Preis/Leistungs-Verhältnis gegenüber den Alt-Beschleunigern zu erzielen: Denn wegen deren niedriger Abverkaufspreise und den derzeit hohen Straßenpreisen zur GeForce RTX 4090 fällt deren Preis/Leistungs-Verhältnis gegenüber GeForce RTX 3090 & 3090 Ti momentan sogar beachtbar schlechter aus. Der einzige klare Vorteil der GeForce RTX 4090 liegt also derzeit darin, tatsächlich eine ganz neue Performance-Klasse aufzumachen.
Die gezeigte 4K-Performance resultiert in einer Festsetzung der GeForce RTX 4090 im 3DCenter UltraHD/4K Performance-Index [10] mit einem Index-Wert von 640%. Zugleich wird der Index-Wert der GeForce RTX 3090 Ti bei dieser Gelegenheit leicht von bisher 408% auf nunmehr 410% angehoben, entsprechend den hiermit vorliegenden Benchmarks. Bezüglich der anderen Grafikkarten ergibt sich derzeit noch kein Zwang zu weiteren Index-Änderungen, im Rahmen der Meßungenauigkeit passen die hiermit ausgewerteten Testberichte sehr gut zu den aufgestellten Index-Werten. Über die kommenden weiteren Hardware-Launches im Grafikkarten-Feld ergibt sich allerdings sicherlich die Gelegenheit, all dies erneut auf den Prüfstand zu stellen. Eventuell zeigt sich mit diesen späteren Grafikkarten-Launches dann auch ein klarer erkennbarer Effekt des neuen nVidia-Treibers auf die RTX30-Grafikkarten.
WQHD /1440p | 6800XT | 6900XT | 6950XT | 3080-10G | 3080Ti | 3090 | 3090Ti | 4090 |
---|---|---|---|---|---|---|---|---|
RDNA2, 16GB | RDNA2, 16GB | RDNA2, 16GB | Ampere, 10GB | Ampere, 12GB | Ampere, 24GB | Ampere, 24GB | Ada, 24GB | |
ComputerBase [18] (17 Tests) | 56,4% | 61,9% | - | 56,8% | 62,4% | 65,7% | 67,9% | 100% |
Cowcotland [19] (11 Tests) | 69,3% | 76,5% | 79,7% | 65,4% | 71,9% | 73,2% | 78,4% | 100% |
Eurogamer [20] (9 Tests) | - | 67,0% | - | - | - | 67,3% | 73,0% | 100% |
Igor's Lab [22] (10 Tests) | 57,0% | 60,4% | 66,8% | 59,1% | 65,1% | 66,4% | 70,8% | 100% |
KitGuru [23] (12 Tests) | 57,3% | - | 66,7% | 55,6% | - | 61,3% | 67,8% | 100% |
Paul's Hardware [26] (9 Tests) | - | 67,9% | 70,9% | - | 68,6% | 69,4% | 76,3% | 100% |
PC Games Hardware [27] (20 Tests) | 57,7% | 60,9% | 64,2% | 55,3% | 60,0% | 62,7% | 66,5% | 100% |
PurePC [28] (11 Tests) | - | 58,4% | 62,9% | 56,2% | 61,2% | 62,9% | 67,4% | 100% |
Quasarzone [29] (15 Tests) | 60,5% | 66,0% | - | 63,0% | 68,6% | 69,4% | 73,6% | 100% |
SweClockers [35] (12 Tests) | 60,1% | 65,1% | 71,6% | 58,7% | - | 64,2% | 69,7% | 100% |
TechPowerUp [31] (25 Tests) | 69% | 73% | 77% | 66% | 73% | 74% | 79% | 100% |
TechSpot [32] (13 Tests) | 60,7% | 65,4% | 71,0% | 58,4% | 64,0% | 65,4% | 70,6% | 100% |
Tom's Hardware [33] (8 Tests) | 69,3% | 73,3% | 80,1% | 65,0% | 70,6% | 72,7% | 78,0% | 100% |
Tweakers [34] (10 Tests) | - | - | 71,8% | 61,6% | 66,9% | 66,5% | 73,2% | 100% |
gemittelte WQHD-Performance | 61,2% | 65,8% | 69,4% | 60,1% | 65,6% | 67,0% | 71,5% | 100% |
offizielle TDP | 300W | 300W | 335W | 320W | 350W | 350W | 450W | 450W |
Listenpreis | $649 | $699 | $1099 | $699 | $1199 | $1499 | $1999 | $1599 |
Straßenpreis (ab) | 650€ | 740€ | 900€ | 800€ | 1000€ | 1080€ | 1200€ | 2300€ |
Performance-Durchschnitt gemäß geometrischem Mittel, maßvoll gewichtet zugunsten jener Hardwaretests mit höherer Benchmark-Anzahl; werksübertaktete Karten sind kursiv notiert (angegeben ist jeweils die werksübertaktete Performance, was für den Performance-Durchschnitt jedoch auf Referenz-Takt normalisiert wurde); gesamte ausgewertete Benchmark-Anzahl: ~1300 |
FullHD /1080p | 6800XT | 6900XT | 6950XT | 3080-10G | 3080Ti | 3090 | 3090Ti | 4090 |
---|---|---|---|---|---|---|---|---|
RDNA2, 16GB | RDNA2, 16GB | RDNA2, 16GB | Ampere, 10GB | Ampere, 12GB | Ampere, 24GB | Ampere, 24GB | Ada, 24GB | |
Eurogamer [20] (9 Tests) | - | 80,7% | - | - | - | 80,3% | 85,0% | 100% |
KitGuru [23] (12 Tests) | 68,6% | - | 77,9% | 65,0% | - | 71,1% | 76,5% | 100% |
Paul's Hardware [26] (9 Tests) | - | 81,2% | 84,6% | - | 79,1% | 79,2% | 85,3% | 100% |
PC Games Hardware [27] (20 Tests) | 66,2% | 69,3% | 72,6% | 62,2% | 66,9% | 69,3% | 72,3% | 100% |
PurePC [28] (11 Tests) | - | 63,3% | 68,1% | 60,2% | 65,1% | 66,9% | 71,7% | 100% |
Quasarzone [29] (15 Tests) | 71,7% | 76,5% | - | 73,1% | 77,4% | 78,5% | 81,7% | 100% |
SweClockers [35] (12 Tests) | 72,7% | 76,7% | 81,8% | 69,9% | - | 76,7% | 78,4% | 100% |
TechPowerUp [31] (25 Tests) | 81% | 84% | 88% | 77% | 82% | 83% | 87% | 100% |
TechSpot [32] (13 Tests) | 71,7% | 75,8% | 80,4% | 68,3% | 73,3% | 75,0% | 78,3% | 100% |
Tom's Hardware [33] (8 Tests) | 81,2% | 85,5% | 90,8% | 75,4% | 80,3% | 82,3% | 86,7% | 100% |
Tweakers [34] (10 Tests) | - | - | 85,3% | 72,2% | 76,7% | 72,2% | 82,2% | 100% |
gemittelte FullHD-Performance | 72,8% | 76,6% | 80,2% | 70,0% | 74,7% | 76,2% | 79,8% | 100% |
offizielle TDP | 300W | 300W | 335W | 320W | 350W | 350W | 450W | 450W |
Listenpreis | $649 | $699 | $1099 | $699 | $1199 | $1499 | $1999 | $1599 |
Straßenpreis (ab) | 650€ | 740€ | 900€ | 800€ | 1000€ | 1080€ | 1200€ | 2300€ |
Performance-Durchschnitt gemäß geometrischem Mittel, maßvoll gewichtet zugunsten jener Hardwaretests mit höherer Benchmark-Anzahl; werksübertaktete Karten sind kursiv notiert (angegeben ist jeweils die werksübertaktete Performance, was für den Performance-Durchschnitt jedoch auf Referenz-Takt normalisiert wurde); gesamte ausgewertete Benchmark-Anzahl: ~1010 |
Unter den kleineren Auflösungen WQHD und FullHD gehen die Beteilung der Testberichte und logischerweise auch die Performance-Differenzen zurück: Wo es im Vergleich GeForce RTX 3090 zu 4090 unter der 4K-Auflösung noch einen gemittelten Performance-Sprung von +70% gegeben hatte, fällt dieser Wert unter WQHD auf +49% und unter FullHD sogar auf nur noch +31%. Beide kleineren Auflösungen werden also gerade mit der GeForce RTX 4090 ganz schwer von CPU-Limitierungen gebeutelt. Wer unter der FullHD-Auflösung von einer Radeon RX 6950 XT oder eine GeForce RTX 3090 Ti auf eine GeForce RTX 4090 wechseln wollte, erhält somit gerade einmal +25% Mehrperformance. Über Preis/Leistungs-Verhältnisse muß man dann an dieser Stelle nicht mehr reden, es kristallisiert sich nur heraus, dass die GeForce RTX 4090 keineswegs eine Grafikkarte für die WQHD- und FullHD-Auflösungen ist.
Die gezeigte FullHD-Performance resultiert in einer Festsetzung der GeForce RTX 4090 im 3DCenter FullHD Performance-Index [36] mit einem Index-Wert von 2760%. Gleichfalls wird wieder der Index-Wert der GeForce RTX 3090 Ti leicht angeboten, von bisher ~2180% auf nunmehr 2200%. Zu dieser Karte lagen bislang sowieso zu wenige FullHD-Benchmarks vor, dies konnte hiermit ausgebessert werden. Bezüglich der anderen Grafikkarten ergibt sich mit diesen vorliegenden Testberichten durchaus der Ansatz zu einer minimalen Index-Verschiebung unter der FullHD-Auflösung: Alle nVidia-Modelle könnten wohl noch jeweils 10 Index-Punkte oben drauf vertragen. Aber da diese Differenz klein ist und gewisse Differenzen in der Betrachtung von AMD- zu nVidia-Grafikkarten zwischen verschiedenen Testberichten und Launch-Analysen vollkommen normal sind, soll dies besser auf die nachfolgenden Grafikkarten-Launches vertagt werden, wenn dann eventuell nochmals mehr FullHD-Benchmarks vorliegen.
Langsam erwachsen werden inzwischen die RayTracing-Benchmarks, wo sich mehr Hardware-Tester mit breiteren Benchmark-Feldern engagieren. Gänzlich zufriedenstellend ist allerdings insbesondere letzterer Punkt noch nicht: Denn da gerade die RayTracing-Performance sehr schwankend sein kann – je nachdem wie stark oder übertrieben die RayTracing-Effekte ausfallen – sind hierbei eher breitere Benchmark-Felder zu empfehlen, um Ausreißer nach beiden Seiten hin besser auszugleichen. Rein die absoluten Frameraten betrachtend, liefert die GeForce RTX 4090 dabei wiederum eine extrem überzeugende Vorstellung ab: Bei den entsprechenden Benchmarks der PC Games Hardware wurden unter der 4K-Auflösung mit RayTracing in 6 von 10 Fällen gleich dreistelligen Frameraten erzielt. Der niedrigste Einzelwert lag bei immerhin 67,0 fps, der geometrische Schnitt hingegen bei satten 106 fps.
RayTracing @4K | 6800XT | 6900XT | 6950XT | 3080-10G | 3080Ti | 3090 | 3090Ti | 4090 |
---|---|---|---|---|---|---|---|---|
RDNA2, 16GB | RDNA2, 16GB | RDNA2, 16GB | Ampere, 10GB | Ampere, 12GB | Ampere, 24GB | Ampere, 24GB | Ada, 24GB | |
ComputerBase [18] (11 Tests) | 33,2% | 36,6% | - | 43,3% | 52,4% | 55,8% | 59,1% | 100% |
Cowcotland [19] (5 Tests) | 40,3% | 45,1% | 48,1% | 48,5% | 56,8% | 57,8% | 64,6% | 100% |
Eurogamer [20] (7 Tests) | - | 33,0% | - | - | - | 52,2% | 58,3% | 100% |
Hardware Upgrade [21] (5 Tests) | - | - | 36,6% | - | - | 51,4% | 57,1% | 100% |
KitGuru [23] (4 Tests) | 32,1% | - | 37,6% | 39,6% | - | 50,9% | 58,3% | 100% |
Le Comptoir d.H. [24] (15 Tests) | 31,8% | 34,6% | 38,0% | 46,1% | 52,2% | 54,4% | 59,9% | 100% |
Les Numeriques [25] (9 Tests) | 31,1% (?) | 31,1% | - | 42,6% | 49,4% | 49,8% | - | 100% |
PC Games Hardware [27] (10 Tests) | 34,2% | 36,4% | 38,3% | 42,1% | 52,4% | 54,9% | 59,2% | 100% |
PurePC [28] (3 Tests) | - | 33,5% | 36,7% | 46,5% | 53,5% | 55,3% | 60,9% | 100% |
Quasarzone [29] (5 Tests) | 35,7% | 39,0% | - | 44,3% | 53,5% | 56,6% | 63,3% | 100% |
SweClockers [35] (4 Tests) | 27,4% | 30,1% | 32,7% | 44,1% | - | 53,1% | 58,7% | 100% |
TechPowerUp [31] (8 Tests) | 37,3% | 39,9% | 43,0% | 46,5% | 53,1% | 53,5% | 61,3% | 100% |
Tom's Hardware [33] (6 Tests) | 28,0% | 30,0% | 34,5% | 41,3% | 47,9% | 49,3% | 56,3% | 100% |
gemittelte RT@4K-Perf. | 32,7% | 35,4% | 37,8% | 44,2% | 51,7% | 53,5% | 59,0% | 100% |
offizielle TDP | 300W | 300W | 335W | 320W | 350W | 350W | 450W | 450W |
Listenpreis | $649 | $699 | $1099 | $699 | $1199 | $1499 | $1999 | $1599 |
Straßenpreis (ab) | 650€ | 740€ | 900€ | 800€ | 1000€ | 1080€ | 1200€ | 2300€ |
Performance-Durchschnitt gemäß geometrischem Mittel, maßvoll gewichtet zugunsten jener Hardwaretests mit höherer Benchmark-Anzahl; werksübertaktete Karten sind kursiv notiert (angegeben ist jeweils die werksübertaktete Performance, was für den Performance-Durchschnitt jedoch auf Referenz-Takt normalisiert wurde); gesamte ausgewertete Benchmark-Anzahl: ~630 |
Über alle ausgewerteten Benchmarks hinweg erzielt die GeForce RTX 4090 unter der 4K-Auflösung mit RayTracing einen Performance-Gewinn von +69% zur GeForce RTX 3090 Ti sowie +87% zur GeForce RTX 3090. Die Performance-Skalierung liegt ergo nochmals beachtbar besser gegenüber den Performance-Gewinnen unter der 4K-Auflösung ohne RayTracing (+56% bzw. +70%). 4K mit RayTracing ist somit zweifelslos die derzeitige Königsdiziplin – und wie vorstehend bereits angedeutet, ist die GeForce RTX 4090 auch die einzige Karte, welche diese Disziplin durchgehend mit flüssig spielbaren Frameraten absolviert. Die GeForce RTX 3090 beispielsweise liegt im selben Test der PCGH in immerhin 3 von 10 Fällen unterhalb der 40-fps-Marke. In diesem Fall führt der hohe relative Performance-Gewinn der GeForce RTX 4090 also auch zu einem klar zählbaren Gewinn an Spielbarkeit.
RayTracing @WQHD | 6800XT | 6900XT | 6950XT | 3080-10G | 3080Ti | 3090 | 3090Ti | 4090 |
---|---|---|---|---|---|---|---|---|
RDNA2, 16GB | RDNA2, 16GB | RDNA2, 16GB | Ampere, 10GB | Ampere, 12GB | Ampere, 24GB | Ampere, 24GB | Ada, 24GB | |
ComputerBase [18] (11 Tests) | 41,6% | 45,5% | - | 55,3% | 60,5% | 63,9% | 66,3% | 100% |
Cowcotland [19] (5 Tests) | 47,7% | 52,3% | 55,2% | 57,5% | 63,2% | 64,4% | 70,1% | 100% |
Eurogamer [20] (7 Tests) | - | 38,0% | - | - | - | 56,7% | 61,9% | 100% |
KitGuru [23] (4 Tests) | 37,8% | - | 44,3% | 52,3% | - | 58,1% | 65,5% | 100% |
PC Games Hardware [27] (10 Tests) | 39,4% | 41,9% | 43,7% | 52,2% | 57,1% | 59,7% | 63,6% | 100% |
PurePC [28] (3 Tests) | - | 37,7% | 40,7% | 50,3% | 55,3% | 56,8% | 62,8% | 100% |
Quasarzone [29] (5 Tests) | 44,1% | 47,5% | - | 59,8% | 66,0% | 66,5% | 72,2% | 100% |
SweClockers [35] (4 Tests) | 31,1% | 33,7% | 36,9% | 50,5% | - | 56,9% | 61,2% | 100% |
TechPowerUp [31] (8 Tests) | 46,1% | 48,6% | 51,2% | 54,5% | 62,3% | 62,8% | 70,0% | 100% |
Tom's Hardware [33] (6 Tests) | 31,3% | 33,8% | 38,5% | 45,6% | 51,2% | 52,7% | 59,3% | 100% |
gemittelte RT@WQHD-Perf. | 39,4% | 42,4% | 44,8% | 53,0% | 58,5% | 60,0% | 64,9% | 100% |
offizielle TDP | 300W | 300W | 335W | 320W | 350W | 350W | 450W | 450W |
Listenpreis | $649 | $699 | $1099 | $699 | $1199 | $1499 | $1999 | $1599 |
Straßenpreis (ab) | 650€ | 740€ | 900€ | 800€ | 1000€ | 1080€ | 1200€ | 2300€ |
Performance-Durchschnitt gemäß geometrischem Mittel, maßvoll gewichtet zugunsten jener Hardwaretests mit höherer Benchmark-Anzahl; werksübertaktete Karten sind kursiv notiert (angegeben ist jeweils die werksübertaktete Performance, was für den Performance-Durchschnitt jedoch auf Referenz-Takt normalisiert wurde); gesamte ausgewertete Benchmark-Anzahl: ~440 |
RayTracing @FullHD | 6800XT | 6900XT | 6950XT | 3080-10G | 3080Ti | 3090 | 3090Ti | 4090 |
---|---|---|---|---|---|---|---|---|
RDNA2, 16GB | RDNA2, 16GB | RDNA2, 16GB | Ampere, 10GB | Ampere, 12GB | Ampere, 24GB | Ampere, 24GB | Ada, 24GB | |
Eurogamer [20] (7 Tests) | - | 47,5% | - | - | - | 67,2% | 71,9% | 100% |
KitGuru [23] (4 Tests) | 45,5% | - | 51,8% | 61,2% | - | 67,2% | 74,1% | 100% |
PC Games Hardware [27] (10 Tests) | 48,4% | 51,4% | 53,7% | 62,2% | 67,7% | 70,5% | 73,9% | 100% |
PurePC [28] (3 Tests) | - | 39,5% | 42,6% | 51,3% | 56,9% | 58,5% | 63,1% | 100% |
SweClockers [35] (4 Tests) | 37,6% | 40,6% | 44,2% | 58,8% | - | 65,4% | 69,6% | 100% |
TechPowerUp [31] (8 Tests) | 57,8% | 60,6% | 63,6% | 67,5% | 75,1% | 75,3% | 81,5% | 100% |
Tom's Hardware [33] (6 Tests) | 35,1% | 38,0% | 42,9% | 49,5% | 55,3% | 56,7% | 63,0% | 100% |
gemittelte RT@FullHD-Perf. | 45,2% | 48,0% | 50,7% | 59,9% | 65,5% | 67,1% | 71,6% | 100% |
offizielle TDP | 300W | 300W | 335W | 320W | 350W | 350W | 450W | 450W |
Listenpreis | $649 | $699 | $1099 | $699 | $1199 | $1499 | $1999 | $1599 |
Straßenpreis (ab) | 650€ | 740€ | 900€ | 800€ | 1000€ | 1080€ | 1200€ | 2300€ |
Performance-Durchschnitt gemäß geometrischem Mittel, maßvoll gewichtet zugunsten jener Hardwaretests mit höherer Benchmark-Anzahl; werksübertaktete Karten sind kursiv notiert (angegeben ist jeweils die werksübertaktete Performance, was für den Performance-Durchschnitt jedoch auf Referenz-Takt normalisiert wurde); gesamte ausgewertete Benchmark-Anzahl: ~290 |
Unter den beiden kleineren Auflösungen gehen erneut die Performance-Gewinne der größeren Grafikkarten erheblich zurück. Dennoch bleibt der Generations-Gewinn zwischen GeForce RTX 3090 und 4090 mit +67% unter WQHD mit RayTracing sowie +49% unter FullHD mit RayTracing in einem anständigen Feld. Selbst gegenüber der GeForce RTX 3090 Ti erzielt die GeForce RTX 4090 unter FullHD mit RayTracing noch einen Performance-Zugewinn von +40%, gegenüber nur +25% ohne RayTracing auf selber Auflösung. RayTracing erscheint somit als exzellente Option, die Performance-Skalierung der GeForce RTX 4090 unter niedrigeren Auflösungen als 4K trotzdem (halbwegs) oben zu halten. Dummerweise ist RayTracing noch nicht in jedem Spiele-Titel verfügbar, zudem reizt man die Performance-Möglichkeiten der Karte damit (unter niedrigeren Auflösungen) trotzdem nirgendwo wirklich aus.
Beim Stromverbrauch der GeForce RTX 4090 zeigt sich eine markante Änderung gegenüber den bisherigen nVidia-Grafikkarten, welche unter (echter) Last ihr jeweiliges Power-Limit faktisch durchgängig erreicht haben. Damit reichte es zur Stromverbrauchs-Ermittlung bei der RTX30-Serie üblicherweise aus, nur einen guten Last-Test zu finden, musste man nicht gerade mehrere Spiele diesbezüglich durchtesten. Bei der GeForce RTX 4090 läuft dies grundsätzlich anders, die Karte verbraucht kaum einmal auf der Höhe ihres Power-Limits (450W) und liegt in einigen Spiele-Titeln auch schon einmal deutlich darunter. Damit wird das Zusammensuchen vieler Stromverbrauchs-Testwerte wieder interessanter (wie nachfolgend geschehen), denn irgendwelche Einzelwerte stellen somit keine solide Aussage zum Spiele-Stromverbrauch der GeForce RTX 4090 dar.
Dies wird inbesondere klar beim Blick auf die ausführlichen Stromverbrauchs-Meßreihen einiger Hardwaretester: So haben Le Comptoir du Hardware [38] im Test von 25 Spielen Schwankungen von immerhin 311 bis 443 Watt ermittelt. Im Mittel der vorhandenen Werte ergeben sich 418 Watt (durchschnittlicher) Spiele-Stromverbrauch für die GeForce RTX 4090, was aber wie vorstehend zu sehen keineswegs ein konstanter Wert ist. Dies ist beachtbar unterhalb von TDP und Power-Limit – allerdings auch wieder nicht so viel weiter drunter, wie einige Tests auf Basis von Einzelwerten zum Stromverbrauch suggerieren. Doch in jedem Fall verbucht die GeForce RTX 4090 damit einen zusätzlichen Vorteil gegenüber der GeForce RTX 3090 Ti, welche ihre Performance auf einem Stromverbrauch (462W) leicht oberhalb des gleichlautenden Power-Limits (450W) erbringt.
Stromverbrauch | TDP | Power-Limit | Idle | Gaming | Gaming-Meßwerte (rein GPU) | Perf/Verbr. 4K |
---|---|---|---|---|---|---|
Radeon RX 6800 XT | 300W | ASIC: 255W | 7W | 298W | siehe News des 2. November 2021 [39] | 70% Perf/W |
Radeon RX 6900 XT | 300W | ASIC: 255W | 8W | 303W | siehe News des 2. November 2021 [39] | 74% Perf/W |
Radeon RX 6950 XT | 335W | ASIC: 284W | 9W | 348W | siehe Launch-Analyse 6x50-Refresh [40] | 69% Perf/W |
GeForce RTX 3080 10GB | 320W | Karte: 320W | 10W | 325W | siehe News des 2. November 2021 [39] | 66% Perf/W |
GeForce RTX 3080 Ti | 350W | Karte: 350W | 14W | 350W | siehe News des 2. November 2021 [39] | 68% Perf/W |
GeForce RTX 3090 | 350W | Karte: 350W | 16W | 359W | siehe News des 2. November 2021 [39] | 68% Perf/W |
GeForce RTX 3090 Ti | 450W | Karte: 450W | 23W | 462W | siehe Launch-Analyse 3090Ti [41] | 58% Perf/W |
GeForce RTX 4090 | 450W | Karte: 450W | 21W | 418W | Einzelwerte: 346W [42], 412W [43], 432W [44], 434W [45], 436W [46], 438W [47], 469W [48] Meßreihen: Ø372W [49], Ø412W [38], Ø415W [50], Ø431W [25] |
100% Perf/W |
Daten-Quelle für alle älteren Karten: Stromverbrauchs-Überblick für DirectX 11/12 Grafikkarten [51] |
Der niedriger als TDP liegende reale Spiele-Stromverbrauch der GeForce RTX 4090 führt dann auch zum höchsten Abstand gegenüber der GeForce RTX 3090 Ti im gesamten Testfeld: Um immerhin +73% liegt die Verbrauchs-Effizienz des neuen Top-Modells besser gegenüber dem bisherigen Top-Modell von nVidia. Auch gegenüber den anderen früheren Spitzen-Grafikkarten wird der Generations- und Fertigungs-Unterschied deutlich: Durch die Bank weg ist die GeForce RTX 4090 mit einer 35-50%ig besseren Stromverbrauchs-Effizienz unterwegs. Dies ist für Spitzen-Grafikkarten mitnichten üblich, jene haben insbesondere im Vergleich mit den Modellen etwas unterhalb der (früheren) Spitze kaum jemals eine bessere Stromverbrauchs-Effizienz vorzuweisen. An dieser Stelle zeigt sich dann also sehr deutlich der Generations-Vorteil durch "Ada Lovelace".
In den Nebendiszplinen von Geräuschentwicklung, Temperatur und Übertaktung erzielt die GeForce RTX 4090 üblicherweise mittelprächtige Wertungen. Bemerkbar sind die vergleichsweise niedrigen Chip-Temperaturen, vor allem angesichts der schließlich nach wie vor sehr hohen Leistungsaufnahme. Mittels Übertaktung lassen sich eher mehr optisch gut aussehende Resultate erzielen, als denn dabei groß etwas an Performance-Gewinn herauskommt. So gibt es zwar oftmals Taktraten von um die 3 GHz zu sehen, der reale Performance-Gewinn der Aktion liegt aber zumeist nur bei +5-7%. Interessanterweise kommen auch die werksübertakteten Modelle, welche TechPowerUp in reicher Zahl getestet haben, unter manueller Übertaktung nicht viel weiter: Die erzielten Übertaktungs-Gewinne differieren nur eher schwach [52] – genauso aber auch wie die werksübertakteten Karten sich selbst unter Stock-Bedingungen kaum beachtbar von nVidias eigener "Founders Edition" abheben können:
FE vs AIB-Modelle | Boost-Takt | Real-Takt | PL/max. | Verbr. | Hotspot | Lautst. | 4K-Perf. |
---|---|---|---|---|---|---|---|
nVidia Founders Edition [31] | 2520 MHz | 2701 MHz | 450/600W | 346W | 74°C | 35,1 dBA | 100% |
Asus ROG Strix OC [53] | 2610 MHz | 2807 MHz | 500/600W | 360W | 70°C | 32,6 dBA | +3% |
Colorful Vulcan OC-V [54] | 2520 MHz | 2705 MHz | 450/480W | 353W | 70°C | 36,2 dBA | +1% |
Gigabyte Gaming OC [55] | 2535 MHz | 2702 MHz | 450/600W | 353W | 67°C | 37,4 dBA | +1% |
MSI Suprim X [56] | 2625 MHz | 2795 MHz | 450/520W | 362W | 70°C | 32,6 dBA | +3% |
MSI Suprim Liquid X [57] | 2625 MHz | 2778 MHz | 480/530W | 357W | 67°C | 32,2 dBA | +3% |
Palit GameRock OC [58] | 2610 MHz | 2760 MHz | 450/500W | 378W | 73°C | 35,0 dBA | +2% |
Zotac Amp Extreme Airo [59] | 2580 MHz | 2805 MHz | 450/495W | 373W | 75°C | 37,1 dBA | +2% |
PL/max. = Power-Limit sowie maximal einstellbares Power-Limit ..... HotSpot = Hotspot-Temperaturen am Grafikchip alle Angaben entstammend Hardwaretests allein seitens TechPowerUp [13] – und sind somit auch nur direkt untereinander vergleichbar |
Nach Aufstellung aller Zahlen läßt sich klar sagen, dass die große Stärke der GeForce RTX 4090 klar im Feld ihrer vollens überzeugenden Performance liegt. Die an dieser Stelle üblicherweise auf die GeForce RTX 4090 normiert angegebenen Performance-Werte geben dies nicht so schön wieder, deswegen liefert der nachfolgende Performance-Überblick zusätzlich eine extra Umrechnung in den direkten Performance-Zugewinn von jeder einzelnen Grafikkarte zur GeForce RTX 4090. Hiermit wird offensichtlicher, wie stark der Performance-Gewinn zur GeForce RTX 4090 jeweils ausfällt – und in welch komplett eigener Performance-Klasse die neue nVidia-Karte damit rangiert. Der erzielte Performance-Gewinn der GeForce RTX 4090 ist ausreichend hoch, dass nVidia problemlos noch eine zweite Ada-Lovelace-Karte zwischen GeForce RTX 4090 und der Alt-Generation bringen kann, was sich mittels der GeForce RTX 4080 [3] bereits ankündigt.
Performance-Überblick | 6800XT | 6900XT | 6950XT | 3080-10G | 3080Ti | 3090 | 3090Ti | 4090 |
---|---|---|---|---|---|---|---|---|
RDNA2, 16GB | RDNA2, 16GB | RDNA2, 16GB | Ampere, 10GB | Ampere, 12GB | Ampere, 24GB | Ampere, 24GB | Ada, 24GB | |
gemittelte 4K-Performance | 49,8% | 53,8% | 57,1% | 51,2% | 57,0% | 58,7% | 64,0% | 100% |
gemittelte WQHD-Performance | 61,2% | 65,8% | 69,4% | 60,1% | 65,6% | 67,0% | 71,5% | 100% |
gemittelte FullHD-Performance | 72,8% | 76,6% | 80,2% | 70,0% | 74,7% | 76,2% | 79,8% | 100% |
gemittelte RT@4K-Perf. | 32,7% | 35,4% | 37,8% | 44,2% | 51,7% | 53,5% | 59,0% | 100% |
gemittelte RT@WQHD-Perf. | 39,4% | 42,4% | 44,8% | 53,0% | 58,5% | 60,0% | 64,9% | 100% |
gemittelte RT@FullHD-Perf. | 45,2% | 48,0% | 50,7% | 59,9% | 65,5% | 67,1% | 71,6% | 100% |
Zugewinn der 4090: 4K | +101% | +86% | +75% | +95% | +75% | +70% | +56% | - |
Zugewinn der 4090: WQHD | +63% | +52% | +44% | +67% | +52% | +49% | +40% | - |
Zugewinn der 4090: FullHD | +37% | +30% | +25% | +43% | +34% | +31% | +25% | - |
Zugewinn der 4090: RT@4K | +206% | +182% | +165% | +126% | +93% | +87% | +69% | - |
Zugewinn der 4090: RT@WQHD | +154% | +136% | +123% | +89% | +71% | +67% | +54% | - |
Zugewinn der 4090: RT@FullHD | +121% | +108% | +97% | +67% | +53% | +49% | +40% | - |
offizielle TDP | 300W | 300W | 335W | 320W | 350W | 350W | 450W | 450W |
Real-Verbrauch | 298W | 303W | 348W | 325W | 350W | 359W | 462W | 418W |
Listenpreis | $649 | $699 | $1099 | $699 | $1199 | $1499 | $1999 | $1599 |
Straßenpreis (ab) | 650€ | 740€ | 900€ | 800€ | 1000€ | 1080€ | 1200€ | 2300€ |
Gleichfalls muß klar sein, dass die GeForce RTX 4090 nur gut ist, wenn man jene unter höchstmöglichen Auflösungen und Settings betreibt. Die dabei auftretenden Skalierungs-Effekte sind enorm: Gegenüber der nun ja ebenfalls als "Spitzen-Grafikkarte" zu bezeichnenden GeForce RTX 3090 Ti gewinnt die GeForce RTX 4090 unter 4K mit RayTracing immerhin +69% hinzu – unter FullHD ohne RayTracing hingegen nur +25%. Hier geht es also nicht nur um gewisse Differenzen in der Auflösungs-Skalierung – sondern vielmehr um die Frage, ab welcher Auflösung die GeForce RTX 4090 erst wirklich Sinn ergibt. Nebenbei ein interessantes Ergebnis dieser Skalierungs-Auswertung: RayTracing skaliert oftmals sehr gleichlautend wie der Test ohne RayTracing in der jeweils nächsthöheren Auflösung. Die Performance-Skalierung von WQHD mit RayTracing gegenüber 4K ohne RayTracing sowie von FullHD mit RayTracing gegenüber WQHD ohne RayTracing ist also im groben Maßstab identisch verlaufend.
Ebenfalls bemerkenswert – und in dieser Form wohl noch nie vorgekommen – ist die CPU-Abhängigkeit der GeForce RTX 4090 selbst unter der 4K-Auflösung. Wenn man die Testberichte aufteilt in jene mit "(super)schnellen" CPUs (Core i9-12900K/S, Ryzen 7 5800X3D und alle Ryzen 7000) gegenüber jenen mit (verhältnismäßig!) "langsamen" CPUs (alle kleineren Prozessoren), dann ergibt sich ein kleiner bis mittlerer, aber in jedem Fall klar nachweisbarer sowie auch durchgehender Unterschied. Verglichen mit der GeForce RTX 3090 Ti, verliert die GeForce RTX 4090 unter der 4K-Auflösung immerhin 6% Performance, wenn man jene "nur" mit einem Core i7-12700K betreibt – anstatt eines Ryzen 7 5800X3D. Die hierfür zur Verfügung stehende Datenmenge (12 Testberichte mit schneller CPU gegen nur 3 Testberichte mit "langsamer" CPU) ist nicht wirklich hoch, doch die ermittelte 6%ige Differenz erscheint als zu stark für ein Zufallsprodukt. Und somit läßt sich sagen, dass die GeForce RTX 4090 selbst unter der 4K-Auflösung eine aktuelle Spitzen-CPU voraussetzt, um auf Touren zu kommen – ansonsten verschenkt man beachtbar an Performance.
CPU-Skalierung 4K | 6800XT | 6900XT | 6950XT | 3080-10G | 3080Ti | 3090 | 3090Ti | 4090 |
---|---|---|---|---|---|---|---|---|
RDNA2, 16GB | RDNA2, 16GB | RDNA2, 16GB | Ampere, 10GB | Ampere, 12GB | Ampere, 24GB | Ampere, 24GB | Ada, 24GB | |
gemittelte 4K-Performance | 49,8% | 53,8% | 57,1% | 51,2% | 57,0% | 58,7% | 64,0% | 100% |
4K-Perf.: "schnelle" CPUs | 48,9% | 52,9% | 56,2% | 50,4% | 56,2% | 57,9% | 63,3% | 100% |
4K-Perf.: "langsame" CPUs | 54,3% | 58,7% | 61,5% | 54,0% | 60,4% | 61,8% | 66,9% | 100% |
Zugewinn der 4090: gemittelt | +101% | +86% | +75% | +95% | +75% | +70% | +56% | - |
Zugewinn der 4090: "schnelle" CPUs | +105% | +89% | +78% | +98% | +78% | +73% | +58% | - |
Zugewinn der 4090: "langsame" CPUs | +84% | +70% | +63% | +85% | +66% | +62% | +49% | - |
benutzte "langsame" CPUs: Ryzen 7 5800X bei TechPowerUp, Ryzen 9 5950X bei Tweakers, Core i7-12700KF bei Cowcotland ..... benutzte "schnelle" CPUs: Ryzen 7 5800X3D bei PurePC & TechSpot, Ryzen 9 7900X bei Quasarzone, Ryzen 9 7950X bei Hardware Upgrade, Igor's Lab & Paul's Hardware, Core i9-12900K bei ComputerBase, KitGuru, PC Games Hardware & Tom's Hardware, Core i9-12900KS bei Le Comptoir du Hardware & SweClockers |
Für eine Grafikkarte mit "Topmodell"-Preiszuschlag meistens das schwierigste Feld ist das der Preis/Leistungs-Betrachtung – was auch bei der GeForce RXT 4090 trotz der hohen erzielten Performance-Gewinne durchgängig nicht gut ausfällt. Auf dem derzeit aktuellen Straßenpreis der neuen nVidia-Karte von (lieferbar) ab 2300 Euro liegt jede der vorhergehenden Spitzenmodelle auf einer klar besseren Preis/Leistungs-Wertung, selbst zutreffend auf die in dieser Disziplin traditionell schlechten GeForce RTX 3090 & 3090 Ti. Gegenüber einer GeForce RTX 3090 Ti erzielt die GeForce RTX 4090 zwar eine um +56% bessere 4K-Performance, dafür muß man aber eben auch gleich +92% mehr auf den Tisch legen. Dies ist eigentlich ein schlechter Deal, welchen die GeForce RTX 4090 nur unter Berücksichtigung ihrer gänzlich anderen Performance-Klasse leicht entschärfen kann.
Preis/Leistung | 6800XT | 6900XT | 6950XT | 3080-10G | 3080Ti | 3090 | 3090Ti | 4090 |
---|---|---|---|---|---|---|---|---|
RDNA2, 16GB | RDNA2, 16GB | RDNA2, 16GB | Ampere, 10GB | Ampere, 12GB | Ampere, 24GB | Ampere, 24GB | Ada, 24GB | |
Listenpreis | $649 | $699 | $1099 | $699 | $1199 | $1499 | $1999 | $1599 |
Straßenpreis (ab) | 650€ | 740€ | 900€ | 800€ | 1000€ | 1080€ | 1200€ | 2300€ |
gemittelte 4K-Performance | 49,8% | 53,8% | 57,1% | 51,2% | 57,0% | 58,7% | 64,0% | 100% |
Preis/Perf gegenüber 4090 @ 2300€ | +76% | +67% | +46% | +47% | +31% | +25% | +23% | - |
Preis/Perf gegenüber 4090 @ 1949€ | +49% | +42% | +24% | +25% | +11% | +6% | +4% | - |
Preis/Leistungs-Verhältnisse errechnet mit dem jeweiligen Bestpreis, Preisstand: 16. Oktober 2022 |
Dabei ist das schlechte Preis/Leistungs-Verhältnis der neuen nVidia-Karte keine Frage von deren aktuell übertriebenen Straßenpreisen – und teilweise nicht einmal eine Frage der aktuellen Abverkaufspreise von GeForce RTX 3080 Ti aufwärts. Denn auch gerechnet auf einer UVP von 1949 Euro erzielt die GeForce RTX 4090 gegenüber den aktuellen Preislagen der Alt-Beschleuniger nirgendwo ein besseres oder wenigstens gleiches Preis/Leistungs-Verhältnis. Und wenn man die Abverkaufspreise aus dem Spiel nehmen will, dann vergleicht man gegenüber der GeForce RTX 3080 10GB, welche derzeit gerade einmal zum umgerechneten Listenpreis angeboten wird: Jene würde allerdings selbst gegenüber einer GeForce RTX 4090 auf UVP weiterhin das um ein Viertel (!) bessere Preis/Leistungs-Verhältnis bieten. Eine neue Grafikkarten-Generation, wo wirklich mehr fürs Geld geboten wird, ist hieran zweifelsfrei noch nicht zu erkennen.
Ob sich dies im weiteren Verlauf der nun startenden RTX40-Generation noch ändert, bleibt abzuwarten, spielt für die GeForce RTX 4090 allerdings auch erst einmal keine Rolle. Dies natürlich auch deswegen, weil man jener Grafikkarte durchaus den typischen "Topmodell"-Zuschlag zugestehen kann. Somit steht ein solches Produkt immer etwas außerhalb der üblichen Preis/Leistungs-Diskussionen bzw. kaufen Anwender, welche Wert auf ein sinnvolles Preis/Leistungs-Verhältnis legen, einfach nicht derartige Boliden am oberen Ende des Produkt-Angebots. Allein die nachfolgende GeForce RTX 4090 Ti könnte daran etwas ändern – muß sie aber auch nicht nicht zwingend, beispielsweise blieb auch nach dem Launch der GeForce RTX 3090 Ti die vorherige GeForce RTX 3090 (in ihrem Rahmen) attraktiv. Die GeForce RTX 4090 wegen ihres Preises oder des schlechten Preis/Leistungs-Verhältnisses niederzumachen, lohnt also in Bezug auf deren potentielle Käufer wenig. Jene "Ehre" wird dann voraussichtlich den kleineren Karten des RTX40-Portfolios zuteil werden, insofern nVidia die bislang zu erkennende RTX40-Preisstrategie tatsächlich durchzieht.
Eher Ansatzpunkte entgegen der GeForce RTX 4090 liegen in zwei absoluten Werten: So liegt der absolute Kaufbetrag für diese Grafikkarte bei grob 2000 Euro – was eine Höhe darstellt, wo auch Grafikkarten-Enthusiasten ins Überlegen kommen (sollten). Technisch läßt sich der preisliche Aufschlag gegenüber den bisherigen Spitzenmodellen mittels der extrem klaren Performance-Führerschaft der GeForce RTX 4090 sowie deren Neuheitswert und "Topmodell"-Aufschlag begründen, aber dennoch dürfte diese absolute Preislage für einige Geschmäcker schlicht jenseits von Gut & Böse liegen. Der zweite Contra-Punkt gegenüber der GeForce RTX 4090 liegt in den erreichten absoluten fps-Werte: Die Mehrheit davon ist selbst unter 4K mit/ohne RayTracing bereits dreistellig. Sicherlich gibt es auch dafür Interessenten, doch üblicherweise sollte eine flüssige Spielbarkeit ab ~50 fps ausreichend sein – und selbige gibt es zumeist auch schon bei GeForce RTX 3090 & 3090 Ti. Selbst jene Fälle, wo es mit diesen Alt-Boliden nicht ausreicht, ändern nichts an der grundsätzlichen Aussage: Denn dafür, dass eine geringe Anzahl an Spiele-Titel nicht ganz perfekt läuft, lohnt sich die Anschaffung einer 2000-Euro-Grafikkarte nicht.
Gen. & Speicher | FHD-Index | 4K-Index | Real-Verbr. | Listenpreis | Straßenpreis | |
---|---|---|---|---|---|---|
GeForce RTX 4090 | Ada, 24GB | 2760% | 640% | 418W | $1599 / 1949€ | 2300-2650 Euro |
GeForce RTX 3090 Ti | Ampere, 24GB | 2200% | 410% | 462W | $1999 / 2249€ | 1200-1300 Euro |
GeForce RTX 3090 | Ampere, 24GB | 2100% | 376% | 359W | $1499 / 1649€ | 1080-1200 Euro |
Radeon RX 6950 XT | RDNA2, 16GB | 2230% | 368% | 348W | $1099 / 1239€ | 900-1000 Euro |
GeForce RTX 3080 Ti | Ampere, 12GB | 2060% | 366% | 350W | $1199 / 1269€ | 1000-1100 Euro |
Radeon RX 6900 XT | RDNA2, 16GB | 2140% | 348% | 303W | $999 / 999€ | 740-800 Euro |
GeForce RTX 3080 12GB | Ampere, 12GB | ~2000% | ~344% | ~345W | unbekannt | 850-960 Euro |
GeForce RTX 3080 10GB | Ampere, 10GB | 1940% | 330% | 325W | $699 / 759€ | 800-850 Euro |
Radeon RX 6800 XT | RDNA2, 16GB | 2030% | 322% | 298W | $649 / 649€ | 650-700 Euro |
Radeon RX 6800 | RDNA2, 16GB | 1780% | 278% | 231W | $579 / 579€ | 540-600 Euro |
GeForce RTX 3070 Ti | Ampere, 8GB | 1720% | 271% | 292W | $599 / 649€ | 680-730 Euro |
Quellen: FullHD & 4K Performance-Überblick [36], Stromverbrauchs-Überblick [51], Geizhals-Preisvergleich (Preisstand: 16. Oktober 2022) [61] |
Unter realistischer Betrachtungsweise sollte sich die Schar der 4090er Interessenten damit auf jene Anwender reduzieren, welche auf Teufel komm Raus das Beste wollen – was sie mit der GeForce RTX 4090 dann auch zweifelsfrei geboten bekommen. In ihrer eigentlichen Funktionalität läßt die Karte mit einer sehr überzeugenden Performance-Vorstellung nichts anbrennen, nicht einmal der Stromhunger fällt letztlich so groß aus wie vorab befürchtet wurde. Der erzielte Generations-Sprung bei der Performance ist ausreichend hoch, dass dies auch gute Vorzeichen für die weiteren kommenden RTX40-Beschleuniger mit Ada-Lovelace-Abstammung ergibt. Selbst das speziell bei der GeForce RTX 4090 eigentlich unnötige DLSS3-Feature könnte sich später noch einmal als nützlich erweisen: Nicht zur Beschleunigung von sowieso schon auf 200 fps laufenden Spielen, sondern vielmehr zur Beschleunigung von klar CPU-limitierten Titeln, wo ansonsten auch die beste Hardware nicht weiterhelfen kann.
Die Frage der Sinnhaftigkeit ist bei einer GeForce RTX 4090 hingegen wohl nur individuell zu klären: Die einen sehen die überbordende Performance, die anderen den ebenso überbordenden Preispunkt. Hierzu läßt sich kaum ein objektiver Standpunkt einnehmen, wie nicht unüblich bei nVidia-Topmodellen in sinngemäßer Nachfolge der legendären Titan-Beschleuniger. Und letztlich ist natürlich niemand gezwungen, eine GeForce RTX 4090 zu kaufen – was gerade jetzt zutrifft, wo es die vorherige Grafikkarten-Generation oftmals zu heruntergesetzten Abverkaufspreisen gibt. Die GeForce RTX 4090 sieht gegenüber diesen Top-Modellen der Alt-Generation ein wenig seltsam entrückt aus, wie auf einer ganz anderen Wolke schwebend: Dies gilt sicherlich bei Performance und Preislage – und wohl auch der Frage nach der Notwendigkeit von derart viel Performance zu einem derartig hohen Preispunkt.
Performance-Faktor der GeForce RTX 4090 gegenüber früheren Grafikkarten unter UltraHD/4K | ||||||
---|---|---|---|---|---|---|
AMD Midrange | AMD HighEnd | AMD Enthusiast | NV Enthusiast | NV HighEnd | NV Midrange | |
✕2,7 6750 XT | ✕1,7 6950 XT | 2022 | ✕1,6 RTX 3090 Ti | |||
✕2,9 6700 XT | 2021 | |||||
✕2,0 6800 XT | ✕1,8 6900 XT | 2020 | ✕1,7 RTX 3090 | ✕1,9 RTX 3080-10G | ✕2,6 RTX 3070 | |
✕3,8 5700 XT | ✕3,6 Radeon VII | 2019 | ✕3,1 RTX 2080S | ✕4,3 RTX 2060S | ||
2018 | ✕2,6 RTX 2080 Ti | ✕3,3 RTX 2080 | ✕5,2 RTX 2060-6G | |||
✕5,5 RX Vega 56 | ✕4,8 RX Vega 64 | 2017 | ||||
2016 | ✕3,7 GTX 1080 Ti | ✕4,8 GTX 1080 | ✕6,0 GTX 1070 | |||
✕8,4 R9 390 | ✕7,0 R9 Fury | ✕6,4 R9 Fury X | 2015 | ✕6,4 GTX 980 Ti | ||
2014 | ✕8,3 GTX 980 | ✕10,2 GTX 970 | ||||
✕9,4 R9 290 | ✕8,6 R9 290X | 2013 | ✕9,4 GTX 780 Ti | ✕11,6 GTX 780 | ||
✕11,6 HD 7970 "GHz" | 2012 | |||||
✕12,8 HD 7970 | 2011 | |||||
Performance-Multiplikator der GeForce RTX 4090 gegenüber älteren Grafikkarten gemäß dem 3DCenter UltraHD/4K Performance-Index [10] |
Verweise:
[1] http://www.3dcenter.org/users/leonidas
[2] http://www.3dcenter.org/news/nvidia-geforce-rtx-4090-die-launch-reviews-gehen-online
[3] http://www.3dcenter.org/news/news-des-12-oktober-2022-0
[4] http://www.3dcenter.org/dateien/abbildungen/nVidia-GeForce-RTX-4090-Founders-Edition.png
[5] http://www.3dcenter.org/abbildung/nvidia-geforce-rtx-4090-founders-edition
[6] http://www.3dcenter.org/news/nvidia-ada-lovelace
[7] http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-3090
[8] http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-3090-ti
[9] http://www.3dcenter.org/artikel/fullhd-ultrahd-performance-ueberblick-2012-bis-2022
[10] http://www.3dcenter.org/artikel/fullhd-ultrahd-performance-ueberblick-2012-bis-2022#4k
[11] http://www.3dcenter.org/artikel/launch-analyse-amd-radeon-rx-6x50-refresh
[12] https://www.computerbase.de/
[13] https://www.techpowerup.com/
[14] https://www.pcgameshardware.de/
[15] https://www.forum-3dcenter.org/vbulletin/showthread.php?t=612738
[16] http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-4090
[17] http://www.3dcenter.org/news/news-des-1314-oktober-2022
[18] https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-review-test/
[19] https://www.cowcotland.com/articles/3639/test-nvidia-geforce-rtx-4090-fe-le-monstre-vert-debarque.html
[20] https://www.eurogamer.net/digitalfoundry-2022-nvidia-geforce-rtx-4090-review-extreme-performance
[21] https://www.hwupgrade.it/articoli/skvideo/6391/geforce-rtx-4090-recensione-la-nuova-scheda-video-nvidia-fa-impallidire-persino-la-rtx-3090-ti_index.html
[22] https://www.igorslab.de/nvidia-geforce-rtx-4090-founders-edition-24gb-im-test-der-kraftstrotzende-monolith-der-aus-der-kaelte-kam/
[23] https://www.kitguru.net/components/graphic-cards/dominic-moass/nvidia-rtx-4090-founders-edition-review/
[24] https://www.comptoir-hardware.com/articles/cartes-graphiques/46732-test-nvidia-geforce-rtx-4090.html
[25] https://www.lesnumeriques.com/carte-graphique/nvidia-geforce-rtx-4090-p71079/test.html
[26] https://www.youtube.com/watch?v=F1YAT9AK_HY
[27] https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/Geforce-4090-Test-Benchmarks-RTX-4090-vorbestellen-1404846/
[28] https://www.purepc.pl/test-karty-graficznej-nvidia-geforce-rtx-4090-kosmiczna-wydajnosc-w-kosmicznej-cenie-mocna-premiera
[29] https://quasarzone.com/bbs/qc_bench/views/82215
[30] https://www.sweclockers.com/test/34980-nvidia-geforce-rtx-4090-ada-lovelace-inflation-i-pris-och-prestanda
[31] https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-founders-edition/
[32] https://www.techspot.com/review/2544-nvidia-geforce-rtx-4090/
[33] https://www.tomshardware.com/reviews/nvidia-geforce-rtx-4090-review
[34] https://tweakers.net/reviews/10532/nvidia-geforce-rtx-4090-olifant-in-de-porseleinkast.html
[35] https://www.sweclockers.com/artikel/34980-nvidia-geforce-rtx-4090-ada-lovelace-inflation-i-pris-och-prestanda
[36] https://www.3dcenter.org/artikel/fullhd-ultrahd-performance-ueberblick-2012-bis-2022
[37] http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-4090/launch-analyse-nvidia-geforce-rtx-4090-seite-2
[38] https://www.comptoir-hardware.com/articles/cartes-graphiques/46732-test-nvidia-geforce-rtx-4090.html?start=14
[39] http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-2-november-2021
[40] http://www.3dcenter.org/artikel/launch-analyse-amd-radeon-rx-6x50-refresh/launch-analyse-amd-radeon-rx-6x50-refresh-seite-2
[41] http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-3090-ti/launch-analyse-nvidia-geforce-rtx-3090-ti-seite-2
[42] https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-founders-edition/39.html
[43] https://www.guru3d.com/articles_pages/geforce_rtx_4090_founder_edition_review,7.html
[44] https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-review-test/3/#abschnitt_leistungsaufnahme_im_detail
[45] https://www.pcgamer.com/nvidia-geforce-rtx-4090-founders-edition-review-performance-benchmarks/
[46] https://www.tomshardware.com/reviews/nvidia-geforce-rtx-4090-review/7
[47] https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/59631-geforce-rtx-4090-in-der-founders-edition-im-test.html?start=8
[48] https://tweakers.net/reviews/10532/19/nvidia-geforce-rtx-4090-olifant-in-de-porseleinkast-stroomverbruik.html
[49] https://www.igorslab.de/nvidia-geforce-rtx-4090-founders-edition-24gb-im-test-der-kraftstrotzende-monolith-der-aus-der-kaelte-kam/10/
[50] https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/Geforce-4090-Test-Benchmarks-RTX-4090-vorbestellen-1404846/5/
[51] http://www.3dcenter.org/artikel/stromverbrauchs-ueberblick-fuer-directx-1112-grafikkarten
[52] https://www.techpowerup.com/review/asus-geforce-rtx-4090-strix-oc/41.html
[53] https://www.techpowerup.com/review/asus-geforce-rtx-4090-strix-oc/
[54] https://www.techpowerup.com/review/colorful-geforce-rtx-4090-vulcan-oc-v/
[55] https://www.techpowerup.com/review/gigabyte-geforce-rtx-4090-gaming-oc/
[56] https://www.techpowerup.com/review/msi-geforce-rtx-4090-suprim-x/
[57] https://www.techpowerup.com/review/msi-geforce-rtx-4090-suprim-liquid-x/
[58] https://www.techpowerup.com/review/palit-geforce-rtx-4090-gamerock-oc/
[59] https://www.techpowerup.com/review/zotac-geforce-rtx-4090-amp-extreme-airo/
[60] http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-4090/launch-analyse-nvidia-geforce-rtx-4090-seite-3
[61] https://geizhals.de/?cat=gra16_512
[62] http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-4090/launch-analyse-nvidia-geforce-rtx-4090-seite-4