Launch-Analyse nVidia GeForce RTX 5090

Montag, 27. Januar 2025
 / von Leonidas
 

Nach mehr als zwei Jahren Wartezeit (die GeForce RTX 4090 kam bereits im Oktober 2022) tritt nunmehr mittels "Blackwell", dem GB202-Chip und der darauf basierenden GeForce RTX 5090 wieder eine neue nVidia-Architektur und -Generation an. Hierfür hatte nVidia nur den eher geringen Sprung von der 5nm- auf die 4nm-Fertigung zur Verfügung, dennoch ist zumindest der GB202-Chip gegenüber dem vorhergehenden AD102-Chip deutlich größer und mit einigermaßen mehr Hardware-Einheiten ausgerüstet ausgefallen. Wie natürlich schon bekannt, hat es dennoch nur zu einem mittelmäßigen Performance-Sprung gereicht, den Effekt des neuen "Multi Frame Generation" nicht (bzw. gesondert) betrachtend. Mittels der nachfolgenden Launch-Analyse sollen die vielen Zahlen und Daten zur GeForce RTX 5090 zusammengefasst sowie die Performance-Werte von 17 Launch-Reviews und 6260 Einzel-Benchmarks ausgewertet werden, auf dass sich ein solider Wert zum gemittelten Performance-Zuwachs des neuen Spitzenmodells ergibt.

Nach der "Ada Lovelace" Generation, welche den Sprung von der 8nm- auf die 5nm-Fertigung mit sich brachte, dachte man eigentlich, dass nVidia mit der nachfolgenden "Blackwell"-Generation demzufolge auf die 3nm-Fertigung geht. Dem war nicht so, nicht einmal die HPC/AI-Ausführungen von Blackwell verwendet dieses neuere Fertigungsverfahren, welches bei Chipfertiger TSMC derzeit allerdings primär nur für Apple-SoCs benutzt wird. Vielmehr basiert die komplette Blackwell-Generation gerade einmal auf der 4nm-Fertigung von TSMC, eine gewisse Verbesserung der 5nm-Fertigung – und damit keine guten Bedingungen für eine neue Hardware-Generation. Denn selbst wenn man bedenkenlos mehr Hardware-Einheiten verbaut, treibt dies den Stromverbrauch nach oben – eben weil die (deutlich) besseren elektrischen Eigenschaften eines Fullnode-Sprungs fehlen.

Und somit verwundert es auch wenig, wenn sich nVidia bei der Hardware-Gestaltung der Blackwell-Generation (im Consumer-Bereich) nicht verausgabt hat: Die meisten Blackwell-Chips sehen von den Grunddaten her ihren Ada-Lovelace-Vorgängern sehr ähnlich. Die einzige positive Ausnahme ist der Spitzen-Chip "GB202", welcher gegenüber dem vorherigen Spitzen-Chip "AD102" immerhin +33% mehr Shader-Cluster sowie ein um +33% breiteres Speicherinterface aufbietet. Allerdings wechselt das Speicherinterface von der Signalübertragung "PAM4" (4 Bits pro Takt und Pin) auf das nominell weniger leistungsfähige "PAM3" (3 Bits pro Takt und Pin). Dafür ist der damit nutzbare GDDR7-Speicher aber auch taktfreudiger als der bisherige GDDR6X-Speicher, was einen faktischen Ausgleich darstellt und zukünftig noch deutlich höhere Speicher-Taktraten ermöglichen soll.

    nVidia GB202

  • nVidia "Blackwell" Architektur (in einer Consumer-Version, nur indirekt verwandt mit "HPC/AI-Blackwell")
  • 92,2 Mrd. Transistoren auf 750mm² Chipfäche in der 4nm-Fertigung von TSMC
  • 192 Shader-Cluster mit insgesamt 24'576 FP32-Enheiten, 768 TMUs, 192 RT-Cores v4, 768 Tensor-Cores v5 und 192 ROPs
  • die (wie vorher) 128 Recheneinheiten eines Shader-Clusters sind nunmehr fähig zu komplett Dual-Use FP32/INT32
  • 128 MB Level2-Cache
  • 512 Bit GDDR7-Speicherinterface
  • PCI Express 5.0 x16 Anbindung
  • zusätzlich zu den bekannten nVidia-Features: DLSS4 mit neuem "Transformer" Berechnungsmodell sowie Multi Frame Generation (MFG) und Reflex 2
  • Display-Ausgänge nunmehr nach den Standards DisplayPort 2.1b und HDMI 2.1b
  • resultierende Grafikkarten: GeForce RTX 5090D (China-only) und GeForce RTX 5090

Selbstverständlich ist der Hardware-Sprung des GB202-Chips nicht überwältigend, zugleich sind wegen der kaum verbesserten Fertigung auch keine Taktraten-Offensiven zu erwarten. Architektur-technisch ist zudem kaum etwas passiert: Sicherlich haben die RayTracing- und Tensor-Kerne jeweils eine neue Versionsnummer erhalten und beherrschen die Rechenkerne in den Shader-Clustern nun durchgehend auch INT32 (neben dem standardmäßigen FP32). Aber wirkliche IPC-Gewinne durch Blackwell wurden bislang nicht vermeldet worden, dafür sind auch alle Änderungen dieser Hardware-Generation wohl zu gering. Hinzukommend des Punkts, dass die kleineren Blackwell-Chips noch geringere oder gar keine Hardware-Sprünge aufbieten, brauchte nVidia augenscheinlich einen anderen Performance-Treiber für diese neue Generation.

Jenen hofft man mittels "Multi Frame Generation" (MFG) gefunden zu haben, eines Features im Rahmen von DLSS4, mittels welchem nun nicht mehr ein "erfundener" Frame (zwischen zwei tatsächlich gerenderten Frames) zwischengeschoben wird, sondern eben auch zwei oder drei "erfundene" Frames. Hiermit wäre im Idealfall eine Näherung an eine dreifache Frameraten erreichbar bzw. gegenüber der GeForce RTX 40 Serie mit einfachem Frame Generation die Näherung an eine Frameraten-Verdopplung. Dies war und ist nVidias großes Marketing-Instrument zur GeForce RTX 50 Serie, was insbesondere bei den kleineren RTX50-Modellen wegen des wie gesagt dort beschränkten Hardware-Sprungs auch als (aus Vermarktungs-Sicht) dringend notwendig erscheint. Allerdings geht (Multi) Frame Generation mit zwei markanten Einschränkungen daher: Erstens verbessern die "erfundenen" Frames die Eingabelatenz nicht durch sich selber (abgesehen von Hilfstools wie Reflex 1/2, die aber auch unabhängig davon funktionieren).

Deswegen gilt üblicherweise die Faustregel, dass Frame-Generierung nur dann sinnvoll angesetzt werden kann, wenn bereits eine anständige "native" Framerate vorliegt (respektive damit eine gutklassige Eingabelatenz bereits erreicht ist). Beispielsweise kann man somit aus nativ 60 fps mittels MFGx4 (mit 3 generierten Frames) dann vielleicht 200 fps machen – oder aus nativ 120 fps dann um die 400 fps. Dies schränkt gleichzeitig die Zielgruppe des Features ein: MFG ist sehr gut, wenn es darum geht, einen sehr Hertz-starken Monitor auszunutzen (und wenn man persönlich tatsächlich den Unterschied zwischen 120 und 400 unterschiedlichen Frames wahrnehmen kann). Aber ob dies so schnell für die Masse der Gamer etwas ist, darf etwas bezweifelt werden – eben gerade wegen des Punkts, dass man hiermit keine tatsächlich zu langsam laufenden Spiele "retten" kann. Rein technisch kann MFG zwar aus nativ 15 fps mittels MFGx4 dann eben ca. 50 fps machen – jene werden sich aber dennoch weiterhin ähnlich wie 15 fps anfühlen.

In dieser Frage bleibt noch etwas abzuwarten, was nVidia mittels der Verbesserungen von Reflex 2 erreichen kann. Speziell dessen Funktion "Frame Warp" erscheint hierbei interessant, da es die aktuellen Eingaben des Spielers nachträglich noch auf ein gerade fertiggestelltes Frame zu applizieren versucht. Hierbei werden wohl Bildteile gemäß der (minimal) geänderten Blickrichtung entsprechend nachkorrigiert bzw. dabei entstehende (minimale) Lücken mittels DLSS-Einsatz geschlossen. Dies erscheint auf den ersten Blick wie eine Möglichkeit, selbst generierte Frames mit einer sehr aktuellen Eingabe zu verbinden, sprich die Eingabelatenz mittels der vervielfachten Framerate ebenfalls stark abzusenken. Dies könnte potentiell dann auch in Fällen mit nur 15 fps nativer Bildrate zu einer klaren Verbesserung der erlebten Framerate führen Bislang gibt es hierzu allerdings noch keine praktischen Beispiele bzw. einen klaren Nachweis exakt dieser Funktionalität.

Und dies führt direkt zur zweiten markanten Einschränkung von (Multi) Frame Generation: All diese Features und Elemente sind Teil von DLSS4 – und müssen von den Spiele-Entwicklern erst einmal adaptiert werden. Und dabei bedeutet eine durch den Spiele-Entwickler verkündete DLSS4-Implentierung keineswegs, dass dann auch zwingend (Multi) Frame Generation, Reflex 2 oder/und Frame Warp mit unterstützt werden. Dies setzt den Wert der 75 von nVidia verkündeten DLSS4-Titel (zugunsten von MFG) doch einigermaßen herab. Es wird also erst einmal Zeit benötigen, ehe diese Features halbwegs breit adaptiert werden – und wichtig wird dann vor allem sein, dass es zu Frame Generation immer auch Reflex 2 und Frame Warp mit dazu gibt. Man kann somit Frame Generation mitnichten als generell wirkende Performance-Verbesserung einordnen. Es ist vielmehr ein Bonus oben drauf, welcher derzeit nur vereinzelt und erst mit der Zeit in gewisser Breite verfügbar sein wird.

Aus der Vorgabe des GB202-Chips hat nVidia dann als erstes Consumer-Produkt der Blackwell-Generation die "GeForce RTX 5090" geschnitzt, welche wie schon ihre Ada-Lovelace-basierte Vorgängerin deutlich unterhalb des Vollausbaus des Grafikchips bleibt. Hier ergibt sich somit sicherlich noch der Platz für eine (derzeit hypothetische) "GeForce RTX 5090 Ti/Super" oder gar eine "Blackwell Titan". Gleichfalls läßt sich anhand des übergroßen Hardware-Unterschied zwischen GB203 (84 SM @ 256-bit) und GB202 (192 SM @ 512-bit) sowie angesichts der Stellung der GeForce RTX 5090 dazwischen (170 SM @ 512-bit) sehr wohl annehmen, dass später noch einmal eine weiter abgespeckte GB202-Ausführung folgen wird. Eine (derzeit hypothetische) "GeForce RTX 5080 Ti" könnte irgendetwas bei 110-130 Shader-Cluster tragen und denkbarerweise ein 384-Bit-Speicherinterface für dann 24 GB Grafikkartenspeicher ins Feld führen – und somit auch etwas vom hohen Preispunkt wie hoher TDP der GeForce RTX 5090 herunterkommen.

GeForce RTX 5090 GB202 Vollausbau Differenz
Raster-Engines 11 12 –8%
Shader-Cluster 170 SM 192 SM –11%
FP32-Einheiten 21'590 24'576 –11%
Level2-Cache 96 MB 128 MB –25%
ROPs 176 192 –8%
Speicherinterface 512 Bit 512 Bit ±0

Denn nVidia ist mit der GeForce RTX 5090 tatsächlich noch einmal über die sowieso schon hohen TDP-Werte von GeForce RTX 3090 Ti & 4090 (beiderseits 450W) hinausgegangen und setzt die GeForce RTX 5090 auf eine TDP von 575 Watt fest. Dabei erstaunt insbesondere der Punkt, dass man dafür die Founders Edition zur GeForce RTX 5090 gegenüber der Vorgänger-Lösung stark verkleinerte: Länge und Höhe sind jeweils identisch, aber die GeForce RTX 4090 FE war etwas mehr als 3 Slots tief, die GeForce RTX 5090 FE ist hingegen nur exakt 2 Slots tief. Damit muß die GeForce RTX 5090 FE eine klar höhere Abwärme auf nochmals deutlich kleinerem Raum abtragen – was üblicherweise zu Lasten der Lautstärke-Entwicklung gehen sollte. Die Hersteller-Designs lösen dies zumeist anders und bieten wiederum die gewohnten TripleSlot- und QuadSlot-Designs zu zudem teilweise auch beachtbar längeren Grafikkarten.

    nVidia GeForce RTX 5090

  • nVidia "Blackwell" Architektur
  • 170 Shader-Cluster mit insgesamt 21'760 FP32-Enheiten, 680 TMUs, 176 RT-Cores v4, 680 Tensor-Cores v5 und 176 ROPs
  • 512 Bit GDDR7-Speicherinterface für 32 GB GDDR7-Speicher
  • Taktraten: 2017/2407 GHz & 28 Gbps
  • Founders Edition: DualSlot, 30,5cm
  • Hersteller-Varianten: Triple- & QuadSlot, 20,8-36,0cm
  • TDP bzw. Powerlimit: 575 Watt
  • Listenpreis/UVP: $1999 / 2329€
  • Marktstart: 30. Januar 2025

Beim Preispunkt der GeForce RTX 5090 setzt nVidia wie bekannt eine gewisse Preissteigerung gegenüber der GeForce RTX 4090 an, womit das neue Spitzen-Modell dann auch genau doppelt so viel kostet wie das zweitschnellste Blackwell-Modell: 999 Dollar bei der GeForce RTX 5080 sowie gleich 1999 Dollar bei der GeForce RTX 5090. Jene schiebt somit den Preis bzw. den Preis-Aufschlag von Enthusiasten-Grafikkarten nochmals weiter nach oben. Zwar trat die GeForce RTX 3090 Ti auch schon mit demselben Listenpreis an, aber dies war ein wegen Chip-Krise und Cryptomining-Hype aufgeblähter Preis. Bei der GeForce RTX 5090 wird es hingegen eminent, wie stark die Preise von HighEnd- und Enthusiasten-Modellen inzwischen auseinanderdriften. Dies ist dann leider auch eine Folge der Entwicklung, dass AMD im Enthusiasten-Segment nicht mehr mithalten kann bzw. für die kommende AMD-Generation gleich gar keine Enthusiasten-Modelle mehr anbieten wird.

Als wäre dies preislich nicht genug, ist die GeForce RTX 5090 zudem kaum zu nVidias Listenpreis im Einzelhandel zu erwarten. Zum einen soll die anfängliche Lieferbarkeit (Marktstart ist der 30. Januar, zusammen mit der GeForce RTX 5080) gerade bei der GeForce RTX 5090 sehr schwach sein, zum anderen begehen die Grafikkarten-Hersteller den Marktstart wohl vornehmlich mit ihren werksübertakteten und demzufolge teureren Karten-Ausführungen. Von nVidias eigener "Founders Edition" ist diesbezüglich kaum eine Entlastung bzw. preisliche Korrektur zu erwarten, da nVidia hiervon üblicherweise viel zu wenige herstellen läßt. Gemäß allen Vorzeichen ist demzufolge ein anfänglicher Marktpreis der GeForce RTX 5090 von kaum unterhalb 2500 Euro bzw. 2200 Dollar zu erwarten – was sogar noch deutlich zu niedrig gegriffen sein könnte, je nachdem ob die Lieferkontingente zum Marktstart wirklich derart schwach ausfallen. Eine Verfügbarkeit der GeForce RTX 5090 zum Listenpreis dürfte hingegen einige Zeit benötigen – dies könnte einige Monate, im schlimmsten Fall aber auch einige Quartale dauern.

Radeon RX 7900 XTX GeForce RTX 4080 Super GeForce RTX 4090 GeForce RTX 5090
Chipbasis AMD Navi 31 nVidia AD103-400 nVidia AD102-300 nVidia GB202-300
Fertigung 58 Mrd. Transistoren auf 522mm² Chipfäche in der 5/6nm-Fertigung von TSMC 45,9 Mrd. Transistoren auf 379mm² Chipfäche in der 5nm-Fertigung von TSMC 76,3 Mrd. Transistoren auf 609mm² Chipfäche in der 5nm-Fertigung von TSMC 92,2 Mrd. Transistoren auf 750mm² Chipfäche in der 4nm-Fertigung von TSMC
Architektur AMD RDNA3, DirectX 12 Feature-Level 12_2 nVidia Ada Lovelace, DirectX 12 Feature-Level 12_2 nVidia Blackwell, DirectX 12 Feature-Level 12_2
Features DirectX 12, OpenGL, Vulkan, RayTracing, VSR, FSR 1/2/3, FreeSync, TrueAudio Next, XConnect, rBAR DirectX 12, OpenGL, Vulkan, RayTracing, DSR, DLDSR, DLSS 2/3/4, FG, PhysX, G-Sync, FreeSync, rBAR DirectX 12, OpenGL, Vulkan, RayTracing, DSR, DLDSR, DLSS 2/3/4, MFG, PhysX, G-Sync, FreeSync, rBA
Technik 6 Raster-Engines, 96 Shader-Cluster, 12'288 FP32-Einheiten, 384 TMUs, 96 RA-Einheiten v2, 192 KI-Kerne, 192 ROPs, 6 MB Level2-Cache, 96 MB Infinity Cache v2, 384 Bit GDDR6-Interface (Vollausbau) 7 Raster-Engines, 80 Shader-Cluster, 10'240 FP32-Einheiten, 320 TMUs, 80 RT-Cores v3, 320 Tensor-Cores v4, 112 ROPs, 64 MB Level2-Cache, 256 Bit GDDR6X-Interface (Vollausbau) 11 Raster-Engines, 128 Shader-Cluster, 16'384 FP32-Einheiten, 512 TMUs, 128 RT-Cores v3, 512 Tensor-Cores v4, 176 ROPs, 72 MB Level2-Cache, 384 Bit GDDR6X-Interface (Salvage) 11 Raster-Engines, 170 Shader-Cluster, 21'760 FP32-Einheiten, 680 TMUs, 170 RT-Cores v4, 680 Tensor-Cores v5, 176 ROPs, 96 MB Level2-Cache, 512 Bit GDDR7-Interface (Salvage)
Taktraten 1900/2300/2500 MHz & 20 Gbps 2295/2550 MHz & 23 Gbps 2235/2520 MHz & 21 Gbps 2017/2407 GHz & 28 Gbps
Rohleistungen 61,4 TFlops & 960 GB/sec 52,2 TFlops & 736 GB/sec 82,6 TFlops & 1008 GB/sec 104,8 TFlops & 1792 GB/sec
Speicherausbau 24 GB GDDR6 16 GB GDDR6X 24 GB GDDR6X 32 GB GDDR7
Anbindung PCI Express 4.0 x16 PCI Express 4.0 x16 PCI Express 4.0 x16 PCI Express 5.0 x16
Ref/AIBs/OC / / / / / / / /
Layout Dual-, Triple- & QuadSlot Dual-, Triple- & QuadSlot Dual-, Triple- & QuadSlot Dual-, Triple- & QuadSlot
Kartenlänge Ref: 28,7cm
AIBs: 26,1-35,3cm
FE: 31,0cm
AIBs: 20,0-35,8cm
FE: 30,5cm
AIBs: 20,0-36,7cm
FE: 30,5cm
AIBs: 20,8-36,0cm
Stromstecker 2x 8pol. 1x 16pol. 1x 16pol. 1x 16pol.
TDP 355W 320W 450W 575W
Ausgänge HDMI 2.1a, USB Type-C, 2x DisplayPort 2.1 HDMI 2.1a, 3x DisplayPort 1.4a HDMI 2.1a, 3x DisplayPort 1.4a HDMI 2.1b, 3x DisplayPort 2.1b
Listenpreis $999 / 1149€ $999 / 1109€ $1599 / 1949€ $1999 / 2329€
Straßenpreis Euro Euro Euro zu erwarten für ~2500-2900 Euro
Release 13. Dezember 2022 31. Januar 2024 12. Oktober 2022 30. Januar 2025

nVidia hat der GeForce RTX 5090 erstaunlicherweise etwas niedrigere nominelle Taktraten gegenüber der GeForce RTX 4090 mitgegeben – welche sich jedoch in der Praxis der Taktraten-Messungen sehr wohl bestätigen. Sicherlich kommt die GeForce RTX 5090 mit in der Praxis ca. 2.67 GHz Real-Takt immer noch klar oberhalb des offiziellen Boost-Takts von 2407 MHz heraus. Die GeForce RTX 4090 war hierbei mit 2520 MHz offiziellem Boost-Takt und ca. 2.73 GHz Real-Takt allerdings schon etwas weiter. Hier zeigt sich letztlich, dass das Zusammenwirken von kaum verbesserter Chipfertigung mit einem (sinngemäß) um ein Drittel größeren Grafikchip keine gute Ausgangslage für steigende Taktraten ist – und dies obwohl nVidia die GeForce RTX 5090 mit einer offiziellen TDP von gleich 575 Watt bestmöglich unterstützt, um ihre (größere) Hardware-Power auszufahren. Zu beachten zu den Real-Taktraten ist noch der Punkt, dass sich jene Auflösungs-bezogen deutlich unterscheiden können: Tom's Hardware ermittelten im Schnitt von 19 Spielen unter FullHD gemittelt 2732 MHz, unter WQHD dann 2734 MHz und unter der 4K-Auflösung aber nur noch 2654 MHz.

Basis Durchschnitt Max gemessener Realtakt
AMD-Bezeichnung: "Base Clock" "Game Clock" "Boost Clock" "Max Clock" CB PCGH TPU Tom's
Radeon RX 7900 XTX 1900 MHz 2300 MHz 2500 MHz ? 2556 MHz 2.60 GHz 2612 MHz 2507 MHz
Radeon RX 7900 XT 1500 MHz 2000 MHz 2400 MHz ? 2566 MHz 2.40 GHz 2687 MHz 2515 MHz
Radeon RX 7900 GRE 1287 MHz 1880 MHz 2245 MHz ? 2151 MHz 2.23 GHz - -
Radeon RX 7800 XT 1295 MHz 2124 MHz 2430 MHz ? 2386 MHz 2.35 GHz 2425 MHz 2334 MHz
Radeon RX 7700 XT 1700 MHz 2171 MHz 2544 MHz ? 2507 MHz 2.56 GHz 2560 MHz 2535 MHz
Radeon RX 7600 XT 1980 MHz 2470 MHz 2755 MHz ? 2716 MHz 2.79 GHz 2790 MHz 2707 MHz
Radeon RX 7600 1720 MHz 2250 MHz 2625 MHz ? 2645 MHz 2.61 GHz 2613 MHz 2631 MHz
nVidia-Bezeichnung: "Base Clock" "Boost Clock" "Max Clock" CB PCGH TPU Tom's
GeForce RTX 5090 2017 MHz 2407 MHz ? 2645 MHz 2722 MHz 2684 MHz 2654 MHz
GeForce RTX 4090 2235 MHz 2520 MHz ? 2744 MHz 2.74 GHz 2701 MHz 2752 MHz
GeForce RTX 4080 Super 2295 MHz 2550 MHz ? 2729 MHz 2.73 GHz 2715 MHz 2787 MHz
GeForce RTX 4080 2205 MHz 2505 MHz ? 2725 MHz 2.78 GHz 2737 MHz 2783 MHz
GeForce RTX 4070 Ti Super 2340 MHz 2610 MHz ? 2785 MHz 2.67 GHz 2708 MHz 2745 MHz
GeForce RTX 4070 Ti 2310 MHz 2610 MHz ? 2802 MHz 2737 MHz - -
GeForce RTX 4070 Super 1980 MHz 2475 MHz ? 2735 MHz 2.72 GHz 2715 MHz 2718 MHz
GeForce RTX 4070 1920 MHz 2475 MHz ? 2758 MHz 2769 MHz 2762 MHz 2722 MHz
GeForce RTX 4060 Ti 2310 MHz 2535 MHz ? 2714 MHz 2.74 GHz 2767 MHz 2783 MHz
GeForce RTX 4060 1830 MHz 2460 MHz ? 2738 MHz 2.69 GHz 2640 MHz 2726 MHz
Intel-Bezeichnung: - "Graphics Clock" "Max Clock" CB PCGH TPU Tom's
Arc B580 - 2670 MHz 2850 MHz 2850 MHz 2.85 GHz 2801 MHz 2848 MHz
Arc B570 (AIBs) - ≥2600 MHz 2750 MHz - 2.75 GHz 2684 MHz 2747 MHz
Arc A770 16GB - 2100 MHz 2400 MHz - 2.33 GHz 2386 MHz 2311 MHz
Arc A750 - 2050 MHz 2400 MHz - 2.39 GHz 2394 MHz 2379 MHz
Arc A580 (AIBs) - 2000 MHz 2400 MHz 2396 MHz 2.33 GHz 2354 MHz 2325 MHz
Realtakt-Angaben gemäß den Ausarbeitungen der ComputerBase (Ø 11-23 Spiele), PC Games Hardware (üblicherweise Praxis-Angaben, zuzüglich teilweise MHz-genaue Werte aus Ø 20 Spiele), TechPowerUp (Ø 22-25 Spiele) und Tom's Hardware (Ø 15-19 Spiele) von jeweils Referenz-Varianten (oder auf Referenz-Takt/TDP laufend); letzte Tabelle mit allen Radeon RX 6000 & GeForce RTX 30 Modellen siehe hier