4

News des 4. November 2024

Laut einem Hinweis aus unserem Forum ergibt sich beim PCGH-Launchreview zu "Arrow Lake" eine Besonderheit: Die Arrow-Lake-Prozessoren wurden dort laut einer auf Seite 2 des Artikels zu sehenden Testsystem-Tabelle mit PL1=125W und Tau=56sec getestet, also mitnichten auf einem durchgehenden Powerlimit von PL2=250W. Auf Nachfrage bestätigte die PCGH diese Vorgehensweise und verwies dazu auf einen Erklärungs-Artikel, welcher genauso auch für neuere Tests von Raptor Lake gilt. Somit hat die PCGH für ihr Arrow-Lake-Launchreview die Core i-14000 und Core Ultra 200 Modelle allesamt etwas härter an der Leine geführt als andere Hardwaretester. Dies dürfte keinerlei Auswirkungen im Spiele-Bereich haben, wo der durchschnittliche Verbrauch weit unter PL1 liegt (bei der PCGH ergeben sich im Mittel der Spiele-Tests 83W Stromverbrauch mit einem Core Ultra 9 285K). Bei der Anwendungs-Performance könnte es hierdurch allerdings eine gewisse Verfälschung ergeben, gerade da die PCGH hierfür sehr Multithreading-lastige Benchmarks einsetzt.

Anwendungen 7800X3D 9700X 9900X 9950X 14600K 14700K 14900K 245K 265K 285K
8C Zen4 8C Zen5 12C Zen5 16C Zen5 6P+8E RPL 8P+12E RPL 8P+16E RPL 6P+8E ARL 8P+12E ARL 8P+16E ARL
PC Games Hardware 66,1% 75,8% 99,4% 116,1% - 90,6% 100% 75,5% 90,5% 99,9%
Ø 16 Reviews — mit PCGH 65,7% 73,6% 95,4% 110,3% 73,3% 91,5% 100% 76,2% 95,7% 106,9%
Ø 15 Reviews — ohne PCGH 65,6% 73,5% 95,2% 110,0% 73,2% 91,6% 100% 76,2% 96,0% 107,3%
Differenz –0,1PP –0,1PP –0,2PP –0,3PP –0,1PP +0,1PP ±0PP ±0PP +0,3PP +0,4PP

Eine Neukalkulation des mit der Launch-Analyse zu Arrow Lake aufgestellten Index zur Anwendungs-Performance der dort getesteten Prozessoren führt allerdings zur Erkenntnis, dass der Effekt dieser PCGH-Testreihe zu gering ist bzw. deren Abweichung von den durchschnittlichen Ergebnissen nicht hoch genug ist, um zu wirklich anderen Insgesamt-Ergebnissen zu kommen. Sicherlich verliert Ryzen 9 9950X etwas in einem neu kalkulierten Index (ohne PCGH-Werte) und Core Ultra 285K gewinnt etwas, die Differenz liegt aber bei weit weniger als einem Prozentpunkt und wird in diesem Fall sogar von der Rundung aufgefressen, wenn man auf volle Prozentpunkte rundet. Dies kann man als Glück im Unglück betrachten – oder auch als Ausdruck dessen, dass genügend andere Hardwaretests für diesen Index verarbeitet wurden, um vergleichsweise stabil selbst gegenüber dieserart kleinerer Fehler zu sein. Interessanterweise ändert sich mit dieser Eigenart der PCGH-Tests wohl nichts an deren sehr schwachen Arrow-Lake-Ergebnissen, da Raptor Lake wie gesagt mit denselben Bedingungen vermessen wurde.

Dabei kann man auch darüber diskutieren, ob diese Testbedingungen der PCGH überhaupt regulär sind: Denn Intel hat mit seinen (seitens der PCGH dargebrachten) Dokumentationen der neuen "Intel Default Settings" nichts zum "Tau" gesagt – womit man eigentlich davon ausgehen sollte, dass dies auch weiterhin im Spielfeld der Entscheidungen der Mainboard-Hersteller liegt. Und jene lassen sich natürlich ungern solcherart "Optimierungs-Möglichkeiten" nehmen, gerade wenn andere Möglichkeiten von Intel nun weggebogen wurden. Diplomatischerweise kann man es als offene Frage bezeichnen, ob Tau=56sec wirklich der Modus ist, unter welchem man die Intel-Prozessoren testen sollte. Aber möglicherweise erübrigt sich diese Frage von ganz alleine, denn die PCGH benutzt laut eigener Aussage letztlich den Mainboard-default, sofern damit die "Intel Default Settings" garantiert werden. Dies läßt die einfache Möglichkeit offen, dass die benutzten Mainboards an dieser Stelle schlicht und ergreifend bereits mit "Tau=unlimitiert" operieren – und somit in der Praxis von der PCGH gar nicht mit PL1-limitierter Stromzufuhr getestet wurde.

Eine andere interessante Frage zu den Arrow-Lake-Testergebnissen ist, ob man anhand der Speichertaktung von Arrow Lake auf das Testresultat zur Spiele-Performance schließen kann – sprich, ob sich hier eine eindeutige Korrelation ergibt, welche von allen ausgewerteten Hardwaretests bestätigt werden kann. Sicherlich finden sich für diese These einige Ansatzpunkte, in grob der Hälfte der Testberichte ist aus dem Testergebnis auf die Situation bei der Speichertaktung dieses jeweiligen Testberichts zu schließen. In der anderen Hälfte der Testberichte geht dieser Ansatz aber schief, manchmal nicht so deutlich, manchmal sehr deutlich wie bei Hardwareluxx, wo der Core Ultra 285K auf DDR5/6400 ein richtig schwaches Ergebnis einfährt, während die Vergleichsprozessoren auf DDR5/5600 vergleichsweise gut wegkommen. Auch kommen Hardware Unboxed mit dem Core Ultra 285K nur auf ein durchschnittlich gutes Ergebnis, obwohl hierfür gleich DDR5/8200 zur Verfügung stand und die Vergleichsprozessoren auf beachtbar schwächeren Speichertaktungen liefen.

Spiele-Performance 9950X 14900K 285K Zen5 RPL ARL
16C Zen5 8P+16E RPL 8P+16E ARL
ComputerBase 99,1% 100% 95,3% DDR5/5600 DDR5/5600 DDR5/5600
Eurogamer 102,4% 100% 90,9% DDR5/6000 DDR5/6000 DDR5/6000
Gamers Nexus 92,1% 100% 95,1% DDR5/6000 DDR5/6000 DDR5/6000
Hardware Canucks 109,7% 100% 100,0% DDR5/6000 DDR5/6000 DDR5/6400
Hardware & Co. 103,1% 100% 91,0% DDR5/6000 DDR5/6000 DDR5/6000
Hardwareluxx 99,3% 100% 93,2% DDR5/5600 DDR5/5600 DDR5/6400
Hardware Unboxed 96,9% 100% 96,9% DDR5/6000 DDR5/7200 DDR5/8200
Igor's Lab 95,2% 100% 92,1% DDR5/6000 DDR5/6000 DDR5/6400
Linus Tech Tips 100,6% 100% 98,6% DDR5/6000 DDR5/6800 DDR5/6400
PC Games Hardware 91,1% 100% 89,6% DDR5/5600 DDR5/5600 DDR5/5600
Quasarzone 103,7% 100% 98,7% DDR5/6000 DDR5/6000 DDR5/6000
TechPowerUp 95,6% 100% 93,7% DDR5/6000 DDR5/6000 DDR5/6000
Tom's Hardware 101,0% 100% 101,0% DDR5/6000 DDR5/7200 DDR5/8200

In der Summe ist diese Korrelation uneindeutig oder aber man muß zumindest mit einem erheblichen Prozentsatz an nicht dazu passenden oder gar widersprechenden Testresultaten rechnen. Natürlich macht der Speichertakt etwas aus, dies soll gar nicht in Frage gestellt werden. Aber aus rein mathematischer Sicht ist dessen Einfluß auf die Insgesamtergebnissen von vielen zusammengefassten Hardwaretests nicht ausreichend hoch, um zur bestimmenden Größe zu werden. Die anderen angesetzten Testsettings der jeweiligen Hardwaretester, deren Test- und Meßprozedere und sicherlich als wichtigstes deren getroffenen Spiele-Auswahl spielen hier auch noch mit hinein und ergeben allesamt einen Einfluß auf das letztendliche Testresultat bzw. den daraus erstellten Performance-Index. Nur mittels besonders hohen Speichertaktungen ist die Spiele-Performance von Arrow Lake somit nicht zu retten, dafür ist das default-mäßig gebotene Performance-Level zu niedrig und bringt allein die Methode der Speichertaktung zu wenig.

Die ComputerBase berichtet über einen "Turbo Game Mode" von Asus für Ryzen-Prozessoren, welcher wohl deren Äquivalent zu Gigabytes "X3D Turbo Mode" darstellt. Bei Asus werden mit diesem Modus ein eventuelles zweites CCD sowie HyperThreading deaktiviert, die Speichertaktung rührt der Asus-Modus hingegen nicht an. Da es sich um BIOS-Einstellungen handelt, bedeutet dies, man muß zu einer Änderung dessen immer neu starten – oder man läßt dies sein und deaktiviert diese Hardware-Teile dann einfach dauerhaft. Letzteres ist allerdings arg suboptimal, denn dann hätte man sich gleich eine entsprechend beschnittene CPU kaufen können. Wirklich ideal wären diese Tuning-Modi erst dann, wenn jene im laufenden Windows-Betrieb ein- und ausgeschaltet werden könnten. Wie es sich zuvor schon andeutete, ist das ganze kein Alleingang von Gigabyte, sondern AMD stellt augenscheinlich die Grundlage hierfür her, die Mainboard-Hersteller dürfen es dann aber unter jeweils eigenem Namen vermarkten.

Twitterer 'Dan Nystedt' berichtet in zwei Meldungen – Tweet #1 & Tweet #2 – über die CoWoS-Kapazitäten von TSMC und den (großen) Anteil nVidias an deren Absatz. Jenes "Advanced Packacking" benötigt man für alle Chips im MultiChip-Verbund sowie mit schnellem Speicher auf dem Package – wobei AMDs Ryzen-Prozessoren hiervon die Ausnahme darstellen, jene kommen auch ohne Advanced Packacking aus. Benutzt wird dies derzeit primär für HPC/AI-Beschleuniger und auch bei einigen Server-Prozessoren – und übertragenerweise auch für die Chiplet-Prozessoren von Intel, für welche Intel allerdings selber das Packaging übernimmt. Das, was TSMC hierbei an CoWoS-Kapazitäten aufbieten kann, ist das eine Nadelöhr der aktuellen Fertigung von HPC/AI-Beschleunigern (das andere ist der nötige HBM-Speicher). TSMC liegt derzeit bei 32'000 Wafern pro Monat für CoWoS und will dies nächstes Jahr auf satte 80-100'000 Wafer pro Monat steigern. Hiervon nimmt nVidia jeweils die Hälfte ab, womit auch nVidia von einem weiterhin kräftigen Zuwachs des HPC/AI-Geschäfts ausgeht.

Investment bank analysts estimate TSMC’s monthly capacity of CoWoS will exceed 32,000 wafers per month (wpm) this year, and 40,000wpm if ASE and Amkor are included. Nvidia will account for 50% of capacity this year, while Broadcom and AMD account for 27.7%. Next year TSMC’s CoWoS capacity is seen reaching 80,000 to 100,000 wpm.
Quelle:  Dan Nystedt @ X am 4. November 2024
 
Nvidia has already reserved half of TSMC’s CoWoS advanced packaging next year, while Microsoft, Amazon, Google and others fight over the rest as CoWoS demand continues to rise, media report, noting TSMC’s chairman said it has made every effort to meet client needs, but despite more than doubling CoWoS capacity this year, demand continues to outpace supply. Next year, TSMC will again double capacity. TSMC is also working with packaging giants Amkor and ASE to further boost CoWoS capacity.
Quelle:  Dan Nystedt @ X am 4. November 2024

Gleichfalls könnte es mit diesen Steigerungsraten der CoWoS-Fertigung nächstes Jahr durchaus passieren, dass nVidia im HPC/AI-Segment erstmals genügend liefern kann selbst für die dickste Auftragsschwemme. Dies sollte in erster Linie die ständig hochziehenden Preise etwas herunterdimmen, gibt zudem anderen Anbietern eine Chance auf Fertigungskapazitäten. Im Hintergrund wird währenddessen für die Abnehmer von nVidia die Frage immer drängender, wann sich diese Abermilliarden an Investitionen in KI-Hardware irgendwann einmal in geschäftlichen Erfolg umwandeln lassen. Denn bisher ist das ganze ein klares Reinbutter-Modell verbunden mit der Hoffnung, irgendwie beim nächsten großen Wirtschaftszyklus dabei zu sein. Dass diese Blase bislang noch nicht geplatzt ist und wohl noch eine Weile durchhalten wird, dürfte in erster Linie daran hängen, dass die meisten der Abnehmer von KI-Hardware wegen vorheriger geschäftlicher Erfolge massiv in Geld schwimmen (Amazon, Google, Meta, Microsoft) – und es sich somit leisten können, hier Abermilliarden zu investieren und notfalls auch in den Wind zu schießen.