1

News des 1. Dezember 2024

Twitterer Harukaze5719 hat ein paar Anmerkungen aus einem Artikel seitens BenchLife zu den kommenden B570- & B580-Grafikkarten übersetzt, welche Auskunft über die weiteren Battlemage-Chips BMG-G10 & BMG-G31 geben: Danach soll der größere BMG-G31-Chip nunmehr erst im dritten Quartal 2025 (!) anstehen, somit mit sehr hohem Zeitversatz gegenüber dem jetzt kommenden kleineren BMG-G21-Chip von Arc B570 & B580. Augenscheinlich hat Intel hier viel Zeit verloren wegen der Streichung des BMG-G10-Chips – wobei interessanterweise laut den Ausführungen von BenchLife beide größeren Grafikchips ursprünglich gemeinsam geplant waren (und somit nicht G31 nur anstatt des gestrichenen G10). Dies würde bedeuten, dass BMG-G10 ursprünglich mal für höhere Performance-Regionen gedacht war als nunmehr der BMG-G31, welcher seinerseits bestenfalls ins untere Midrange-Segment geht (beste Performance-Zielsetzung: GeForce RTX 4070 Super).

The original plans for the BMG dGPU was included G10, G21 and G31. However, G10 has been cancelled, and this time G21 should be targeting RTX 4060
As for the high-end G31, you may have to wait until the
Q3 of 2025 for a chance to see it.

Quelle:  Harukaze5719 @ X am 1. Dezember 2024, in Übersetzung der Anmerkungen eines Artikels von BenchLife

Anders formuliert könnten somit die früheren hochfliegenden Gerüchte über höhere Einheiten-Anzahl oder/und einen fetten Zusatz-Cache durchaus korrekt gewesen sein – nur eben bezogen auf den BMG-G10-Chip, welcher dann aber gestrichen wurde. Denkbarerweise könnte jener eine Einheiten-Anzahl aufgewiesen haben, welche eine zu hohe TDP erfordert hätte. Dies ergibt sich aus dem Punkt, das Arc B580 eine TDP augenscheinlich von um die 200 Watt haben muß, wenn werksübertaktete Modelle gleich mit zwei 8poligen Stromsteckern antreten. Eine Mainstream-Lösung mit 20 Shader-Clustern auf 200W TDP bedeutet wohl, dass BMG-G31 mit 32 Shader-Clustern locker die 300-Watt-Marke erreichen sollte und ein entsprechend nochmals größerer BMG-G10-Chip dann sicherlich in Richtung 400 Watt gegangen wäre. Möglicherweise hat Intel (richtigerweise) kalkuliert, dass kaum jemand derart stromfressende Grafikkarten von einem geschäftlichen Neueinsteiger kaufen dürfte. Dies ist natürlich nur eine denkbarer Auflösung zur Frage, wieso Intel den BMG-G10-Chip gestrichen hat – ein Punkt, zu welchem sich die Hersteller üblicherweise nie oder wenn, dann oftmals nur mit ausweichenden Antworten äußern.

Im Zuge der Neubetrachtung der Ryzen 9000 Performance ergibt sich natürlich automatisch die Frage, ob Intel bei "Arrow Lake" ähnliches gelingen könnte – was dann einen ähnlichen Neubetrachtungs-Artikel auslösen sollte. Die Anzeichen hierfür sind allerdings als eher verhalten einzuschätzen, denn bis auf das Wort Intels, sich diesbezüglich bis zum Ende des Novembers bzw. Anfang des Dezembers zu äußern, gibt es da nichts konkretes. Dies sah bei Ryzen 9000 deutlich anders aus, wo schon in den Tagen nach dem Launch konkrete Ansätze zur Performance-Verbesserung innerhalb der Enthusiasten-Gemeinde besprochen wurden und einem Monat nach Launch schon einige neue Benchmarks existierten, welche klare Performance-Verbesserungen aufzeigen konnten. Wenn hierzu bei Arrow Lake noch etwas passieren sollte, dann ist hierfür wohl mehr Zeit als bei Ryzen 9000 notwendig. Aus all diesen kleinen Hinweisen heraus ist dabei durchaus die Erwartung entnehmbar, dass sich bei Arrow Lake Performance-mäßig nicht mehr viel bewegen dürfte – mit einiger Sicherheit nicht so viel wie bei Ryzen 9000.

Als taktischer Nachteil für Intel existiert zudem der Punkt, dass etwaige Performance-Verbesserungen immer nur von einem kleinen Teil der potentiellen Käuferschaft wahrgenommen werden, keineswegs medial so gewichtig sind wie die Ergebnisse der Launch-Reviews. Bei AMD war die nachträgliche Verbesserung wenigstens so stark, dass man dies klar bei den Ergebnissen von Ryzen 9000 zu den Launches von Arrow Lake sowie dem Ryzen 7 9800X3D sehen konnte. Dennoch ist die Performance-Verbesserung von Ryzen 9000 natürlich nicht das Thema dieser Launches gewesen und verdient eigentlich einer extra Betrachtung – wie soeben von uns geliefert. Ein Hersteller in derselben Situation wie "seinerzeit" AMD und nunmehr Intel sollte sich überlegen, ob man nicht eventuell einen "Relaunch-Tag" ansetzt, wo mehrere Hardwaretester gezielt mit neuen Performance-Resultaten anrücken. Nur eine solch konzentrierte Aktion sichert wohl genügend mediale Aufmerksamkeit, wenn man ernsthafte Performance-Verbesserungen zu verkünden hat. Natürlich lohnt dies nur, wenn es diesbezüglich auch wirklich etwas zu berichten gibt, Verbesserungen im niedrigen einstelligen Prozentbereich gehören weniger dazu.

Die PC Games Hardware hat einen Artikel aufgelegt, welcher die Wichtigkeit der CPU auch unter UltraHD zu belegen versucht. In dieser Frage existiert ja durchaus die These, dass speziell unter der 4K-Auflösung die Prozessoren-Leistung eher unrelevant ist, es dort nur noch auf die Grafikkarten-Performance ankommt. Dies ist allerdings primär eine Frage der passenden Benchmarks: Manches Spiel mag tatsächlich derart reagieren – und andere zeigen dann selbst unter der 4K-Auflösung noch große Performance-Differenzen mit Prozessoren aus verschiedenen Generationen. So erreicht im Schnitt der Benchmarks unter Baldur's Gate 3, Dragon Age: The Veilguard, Planet Coaster 2, Starfield, Anno 1800 & Flight Simulator 24 ein Ryzen 7 9800X3D gegenüber einem Ryzen 7 3700X immerhin eine Mehrperformance von +86% – und dies allein schon bei der rein durchschnittlichen Framerate. Die Minimum-fps reagieren dabei teilweise noch stärker, aber zur Demonstration der Wichtigkeit der CPU auch unter UltraHD ist das Ergebnis unter durchschnittlichen Frameraten argumentativ sogar wirkungsvoller.

Hardware avg fps P1 (1% low fps) P0.2 (0,2% low fps)
Ryzen 7 9800X3D Zen 5, 8C/16T, X3D 186% 183% 193%
Ryzen 7 7800X3D Zen 4, 8C/16T, X3D 168% 164% 167%
Ryzen 9 7950X Zen 4, 16C/32T 147% 147% 151%
Ryzen 5 7500F Zen 4, 6C/12T 131% 126% 131%
Ryzen 7 5700X3D Zen 3, 8C/16T, X3D 136% 127% 122%
Ryzen 9 5950X Zen 3, 16C/32T 125% 119% 116%
Ryzen 7 3700X Zen 2, 8C/16T 100% 100% 100%
Core i9-14900KS RPL-R, 8P+16E/32T 178% 182% 191%
Core i5-13600K RPL, 6P+8E/20T 166% 170% 179%
Core i7-8700K CFL, 6C/12T 85% 72% 72%
gemäß der Benchmarks der PC Games Hardware unter 6 Spiele-Titeln (ohne Final Fantasy 16)

Logischerweise ist die Performance-Skalierung nicht ganz so prall wie im Grafikkarten-Bereich. Zwischen Ryzen 7 3700X und 9800X3D stehen drei neue Zen-Generationen, dafür sind +86% jetzt auch nicht übermäßig viel. Bei Grafikkarten konnte nVidia beispielsweise innerhalb von drei weiteren Generationen ein Performance-Plus von +548% erreichen (Vergleich von Titan X vs GeForce RTX 5090 unter UltraHD). Nichtsdestotrotz ist die nahezu doppelte CPU-Performance deutlich entgegensprechend allen Thesen, CPU-Performance würde unter der UltraHD-Auflösung bedeutungslos sein. Wie gesagt kommt es hier immer auf die Wahl der korrekten Benchmarks an: Final Fantasy 16 beispielsweise lief im Test der PCGH in eine Performance-Mauer, fast alle CPUs erreichten den maximalen Wert von ~56 fps. An dieser Stelle könnten einige Hardwaretester sicherlich noch besser sein, dass man sich für CPU-Tests eher eigene Benchmarks-Parcours schafft und nicht stur den Benchmarks-Parcour für Grafikkarten abarbeitet. Ein Spiel, welches konstant auf allen Grafikkarten angenommen 153 fps abliefert, würde schließlich im Grafikkarten-Parcour auch ziemlich schnell ersetzt werden. Ganz generell könnten viele Benchmark-Parcours im CPU-Bereich eine Auffrischung durch Simulations-Titel gebrauchen, welche in eben diesem Simulations-Modus nicht nur sehr CPU-lastig sind, sondern sich genauso auch als (unnötige) Zeitfresser zeigen.