7

News des 7. April 2025

VideoCardz haben in einer Ladeliste eine Bestätigung für das 128-Bit-Speicherinterface des GB206-Chips und damit der darauf basierenden "GeForce RTX 5060 Ti" gefunden. Selbiges wurde bereits letzteren Juni von Twitterer 'Kopite7kimi' derart vorhergesagt, zudem mit den kürzlichen Grund-Spezifikationen zur GeForce RTX 5060 Serie bestätigt. Inzwischen kann somit keinerlei Zweifel mehr daran bestehen, dass es nVidia im Mainstream-Bereich erneut mit einem 128-Bit-Interface versucht – was zumindest vorerst zu Speichermengen von 8 oder 16 GB Speicher zwingt, so wie auch die GeForce RTX 5060 Ti gemäß allen Vorhersagen & Indizien angeboten wird. Für die Zwischen-Speichermenge von 12 GB kommt die Karte wohl noch zu früh, die Produktionsmengen des ziemlich neuen 24-GBit-Speichers von GDDR7 (ermöglicht "krumme" Speicherbestückungen von 12 GByte Speicher an einem 128-Bit-Interface) sind wohl noch zu klein bzw. gehen derzeit alleinig in Richtung von GeForce RTX 5090 Laptop sowie der neuen Profi-Beschleuniger von nVidia ("RTX Pro").

Chip Hardware Taktraten VRAM TDP Listenpreis Release
GeForce RTX 5090 GB202 170 SM @ 512-bit 2017/2407 MHz & 28 Gbps 32 GB GDDR7 575W $1999 / 2329€ 30. Januar 2025
GeForce RTX 5090D GB202 170 SM @ 512-bit 2017/2407 MHz & 28 Gbps 32 GB GDDR7 575W China only 30. Januar 2025
GeForce RTX 5080 GB203 84 SM @ 256-bit 2295/2617 MHz & 30 Gbps 16 GB GDDR7 360W $999 / 1169€ 30. Januar 2025
GeForce RTX 5070 Ti GB203 70 SM @ 256-bit 2300/2452 MHz & 28 Gbps 16 GB GDDR7 300W $749 / 879€ 20. Febr. 2025
GeForce RTX 5070 GB205 48 SM @ 192-bit 2325/2512 MHz & 28 Gbps 12 GB GDDR7 250W $549 / 649€ 5. März 2025
GeForce RTX 5060 Ti 16GB GB206 36 SM @ 128-bit 2407/2572 MHz & 28 Gbps 16 GB GDDR7 180W ? angbl. 16. April 2025
GeForce RTX 5060 Ti 8GB GB206 36 SM @ 128-bit 2407/2572 MHz & 28 Gbps 8 GB GDDR7 180W ? angbl. 16. April 2025
GeForce RTX 5060 GB206 30 SM @ 128-bit ? 8 GB GDDR7 150W ? angbl. Mitte Mai 2025
GeForce RTX 5050 GB207 20 SM @ 128-bit ? 8 GB GDDR6 130W ? unsicher
Hinweis: Angaben zu noch nicht offiziell vorgestellter Hardware basieren auf Gerüchten & Annahmen

Davon abgesehen war die vor Monatsfrist gezeigte Aufstellung der Technik-Unterschiede zwischen RTX40- und RTX50-Modellen noch nicht ausreichend genau – und wird hiermit verbessert neu aufgelegt. Denn neben den zumeist geringen Unterschieden bei der Anzahl der Shader-Cluster sowie den gewissen TDP-Aufschlägen zugunsten der RTX50-Serie funken bei einigen Modell-Vergleichen (Grundlage für diese war eine möglichst ähnliche Anzahl an Shader-Clustern) auch noch die Daten zu Raster-Engines (RE) und ROPs sowie die Menge an Level2-Cache mit hinein. Gerade diese Werte verhelfen der GeForce RTX 5070 zu ihrem vergleichsweise besseren Generations-Sprung im Vergleich zu GeForce RTX 5070 Ti & 5080 (bei der GeForce RTX 5090 ist dies über die klar höhere Anzahl an Shader-Clustern hingegen obligatorisch). Was das für GeForce RTX 5060 & 5060 Ti bedeutet, ist noch nicht gänzlich sicher – aber vermutlich wird zumindest die GeForce RTX 5060 Ti nicht mit Verbesserungen bei diesen "Nebenpunkten" aufwarten können.

Shader-Cluster Speicherinterface Raster-Engines, ROPs L2-Cache TDP 4K-Perf.
GeForce RTX 4090 → 5090 128 → 170 SM 384-bit → 512-bit gleich (11 RE, 196 ROPs) 72 → 96 MB 450W → 575W +29%
GeForce RTX 4080 Super → 5080 80 → 84 SM gleich (256-bit) gleich (7 RE, 112 ROPs) gleich (64 MB) 320W → 360W +13%
GeForce RTX 4070 Ti Super → 5070 Ti 66 → 70 SM gleich (256-bit) gleich (6 RE, 96 ROPs) gleich (48 MB) 285W → 300W +14%
GeForce RTX 4070 → 5070 46 → 48 SM gleich (192-bit) 4 RE, 64 ROPs → 5 RE, 80 ROPs 36 → 48 MB 200W → 250W +24%
GeForce RTX 4060 Ti → 5060 Ti 34 → 36 SM gleich (128-bit) gleich (3 RE, 48 ROPs) ? 160/165W → 180W ?
GeForce RTX 4060 → 5060 24 → 30 SM gleich (128-bit) gleich (3 RE, 48 ROPs) ? 115W → 150W ?

Die 3 Raster-Engines und damit 48 ROPs sind der GeForce RTX 5060 Ti schon sicher, hier gibt es keine Änderung gegenüber der GeForce RTX 4060 Ti (gilt genauso zwischen GeForce RTX 4060 und 5060). Somit könnte allein die Menge an Level2-Cache steigen, wobei es eher unwahrscheinlich ist, dass der zugrundeliegende GB206-Chip mehr als 32 MB davon trägt (allerdings gab es hierzu noch gar keine Informationen oder Leaks). Angenommen 32 MB wären das dann wieder das Niveau der GeForce RTX 4060 Ti, womit die GeForce RTX 5060 Ti keinerlei Vorteil bei all diesen Nebenpunkten hätte und somit ein (magerer) Performance-Gewinn ähnlich wie bei GeForce RTX 5070 Ti & 5080 anzunehmen wäre. Allein zur GeForce RTX 5060 kann man diesbezüglich noch Hoffnung auf "mehr" hegen, zum einen wegen des beachtbaren Sprungs bei der Anzahl der Shader-Cluster, zum anderen weil nVidia sich hier bezüglich des Level2-Caches frei entscheiden kann: Von 24 MB wie bei der GeForce RTX 4060 bis hin zu den (vermutlich) vollen 32 MB des GB206-Chips.

Igor's Lab thematisieren die teilweise hohen Speicher-Temperaturen bei einigen Radeon RX 9070 XT Modellen – was insbesondere deswegen verwundert, da hier nicht die gewöhnlich hitzköpfigen GDDR6X- oder GDDR7-Speicher verbaut sind, sondern gewöhnliche GDDR6-Speicher. Allerdings treffen diese hohen Speichertemperaturen auch nicht auf alle Karten-Modelle zu, die Hersteller fahren hierzu ziemlich unterschiedliche Werte. Bei Igor's Lab modifizierte man die vorliegende Sapphire Radeon RX 9070 XT Nitro+ mittels neuer Wärmeleitpaste auf den Speicherchips und konnte so eine Temperature-Reduzierung um ca. 10°C erreichen. Allerdings ergab sich nach Rückmeldung zu Sapphire auch der Punkt, dass Sapphire diese Karte zukünftig wohl mit leicht abgesenkter Speicher-Maximaltemperatur ausliefern wird sowie zusätzlich überlegt, bisherigen Benutzern ein BIOS-Update mit diesen (leicht) reduzierten Werten anzubieten. Letztlich zwingt diese niedrigere Maximaltemperatur den Lüfter nur zu einer minimal höheren Umdrehungszahl, sieht nachfolgend aber eben freundlicher bei der Speicher-Temperatur aus.

Gestern schon verlinkt, wäre noch auf das Video von Gamers Nexus zu verweisen, welches sich der aktuellen Treiber-Problematik bei nVidia annimmt, welche augenscheinlich durch den RTX50-Launch hervorgerufen wurde. Die nVidia-Treiber seit dem RTX50-Launch produzieren nun auch für frühere nVidia-Grafikkarten einiges an zusätzlichen Fehlern – sprich, Fehler, welche vorher nicht da waren und zumeist auch wieder verschwinden, wenn man auf eine ältere Treiber-Version (vor dem RTX50-Launch, bis Version 566.36) zurückwechselt. Die hierzu von VideoCardz aufgestellte Liste der Treiber-Probleme ist zwar nicht wirklich lang, für nVidia ist es allerdings ungewöhnlich, dass man speziell ältere, bislang funktionierende Grafikkarten mit neuen Treiber-Versionen derart im Mitleidenschaft zieht – während hingegen gewisse Treiber-Fehler bei neuen Produkten vergleichsweise "normal" sind und üblicherweise mit der Zeit gelöst werden. Für nVidia kommen diese Probleme natürlich zur Unzeit bzw. verschlechtern jene den Blick auf den RTX50-Launch zusätzlich.

Google-Softwareingenieur Osvaldo Doederlein @ Medium unterzieht die GeForce RTX 5080 eine Reihe von eigenen Benchmarks und beschäftigt sich dabei besonders mit Upscaling und Frame Generation. Bemerkenswert hierbei sind die Aussagen zur Mindestframerate für Framegenerierung, welche eine kleine Abwandlung bzw. Korrektur der sich derzeit herausbildenden Faustregel "FG erst ab 60 fps" beinhalten. Danach sollte hierzu der kleine fps-Verlust durch Framegenerierung selber mit beachtet werden. 60 fps ohne (M)FG bedeuten somit nicht, dass im (M)FG-Modus der Anteil der nativen Frames wieder 60 fps erreicht. Vielmehr ist es immer leicht weniger, in einem Beispiel waren es ohne (M)FG 64 fps und mit (M)FG dann ein Anteil der nativen Frames von 54 fps (109 fps nach 2xFG). Die korrekte Rechnung muß also immer von der Framerate unter (M)FG ausgehen, von dort aus muß der Anteil der nativen Frames gebildet werden – und jener steht dann auf dem Prüfstand, ob es aus Latenzsicht in Ordnung geht.

If you know the Golden Rule of >60fps before any FG, considering what we discussed about the added frame-time of upscaling & FG we should rewrite that rule: >120fps after FG (2X). That accounts for FG’s own frame-time. And >180fps after MFG 3X, >240fps after MFG 4X, etc.
 
Check for example Talos P2 that barely gets 120fps with DLSS3/Quality+FG, despite Quality upscaling alone giving me 82fps which looks like a large margin — but that’s just the necessary safety margin. AC:Shadows does 64fps with DLSS3/Performance but the margin far from sufficient: adding FG delivers only 109fps, showing that pre-FG performance fell to 54fps and that’s what determines input lag.
Quelle:  Osvaldo Doederlein @ Medium am 4. April 2025

Natürlich sind die von der Faustregel formulierten 60 fps auch nur eine Verallgemeinerung, ein angenommener Wert ohne wirkliche Gewähr, dass dies unter jedem Spiele-Titel wirklich zu einer guten Eingabelatenz führt (oder auch, ob nicht im konkreten Spieletitel dazu auch weniger reichen würde). Zumindest zeigt der Hinweis zur korrekten Berechnungsmethode darauf hin, warum es in dem einen oder anderen Fall nicht reichen könnte – dann, wenn die (M)FG-Berechnung die native Framerate zu sehr drückt sowie unterhalb 60 fps die praktische Eingabelatenz im konkreten Spieletitel nicht gut genug ist. Aber wahrscheinlich dürfte dies immer der kleinere Teil des "Fehlers" sein und die vorgenannte Faustregel ist eher unter Druck durch Spieletiteln, welche auch nativ klar mehr als 60 fps benötigen, um bezüglich der Eingabelatenz wirklich flüssig zu wirken (und natürlich den Gegenbeispielen, wo auch deutlich geringere fps-Zahlen reichen würden). Generell falsch ist jene Faustregel aber auch nicht, jene weist weniger bewanderte Anwender vergleichsweise deutlich auf die zu beachtende Latenz-Problematik bei Framegenerierung hin.