7

News des 6./7. Januar 2025

Die CES-Präsentationen von AMD, Intel und nVidia brachten halbwegs eine Klärung zu den Launchterminen für die nächste Zeit (nachfolgend angegeben der Termin der Launch-Reviews): Intels Arc B570 macht am 16. Januar den Anfang, nVidias GeForce RTX 5080 & 5090 folgen wohl am 29. Januar (da der Verkaufsstart offiziell auf dem 30. Januar liegt). Der Februar sieht zu noch zu klärenden Terminen sowohl nVidias GeForce RTX 5070 & 5070 Ti als (wahrscheinlich) auch AMDs Radeon RX 9070 & 9070 XT, während im März dann Ryzen 9 9900X3D & 9950X3D sowie denkbarerweise die Radeon RX 9040, 9050 & 9060 Serien sowie GeForce RTX 5060 & 5060 Ti anstehen, letzteres Projekte könnte sich aber auch in den April hinein ausdehnen. Als allererstes wurde der Ryzen 5 9600 non-XT nominell bereits releast bzw. auf AMDs Webseite gelistet – ein Marktstart dieses Prozessors ist zwar noch nicht zu sehen, sollte jedoch in Bälde erfolgen.

Vorstellung Launch-Reviews Marktstart
Ryzen 9 9900X3D & 9950X3D 6. Januar (CES) März
Ryzen 5 9600 7. Januar (CES) - Januar (?)
Radeon RX 9070 XT angebl. 24. Jan. vermtl. Februar
Radeon RX 9070 angebl. 24. Jan. vermtl. Februar
Radeon RX 9060, 9050 & 9040 Serien möglw. 24. Jan. möglw. Februar/März
Arc B570 3. Dezember 16. Januar 16. oder 17. Januar
GeForce RTX 5090 6. Januar (CES) möglw. 29. Jan. 30. Januar
GeForce RTX 5080 6. Januar (CES) möglw. 29. Jan. 30. Januar
GeForce RTX 5070 Ti 6. Januar (CES) Februar
GeForce RTX 5070 6. Januar (CES) Februar
GeForce RTX 5060 Ti ? vermtl. März/April
GeForce RTX 5060 ? vermtl. März/April

Bei den CES-Vorstellungen seitens nVidia wurde bislang das "Project Digits" noch nicht erwähnt, hinter welchem sich eine KI-Maschine für den Hausgebrauch in Form eines Mini-PCs verbirgt. Hierbei verbaut nVidia wohl eine abgespeckte Form eines "Grace Blackwell" Superchips, welche ansonsten in ausgewachsenen KI-Beschleunigern zum Einsatz kommt. Denkbarerweise verklappt nVidia hierbei schlicht Chips, welche zu viele Fertigungsfehler aufweisen oder sonstwie die Prüfungen für nVidias eigentliche KI-Produkte nicht bestanden haben. Dies dürfte sich dann ergeben, wenn klarer wird, was nVidia da verbaut hat bzw. wie stark der augenscheinlich zugrundeliegende GB100-Chip hierfür abgespeckt wurde. Als regulärer Mini-PC eignet sich das "Project Digits" wohl weniger, da die verbaute ARM-CPU wohl nicht von Windows unterstützt wird. Das ganze ist eher explizit für KI-Aufgaben gedacht, hierzu passend gibt es auch gleich 128 GB (unified) Hauptspeicher mit bzw. eignet sich das ganze bei einem Listenpreis von 3000 Dollar wohl auch nur bei einem ernsthaften (produktiven) Einsatz.

Bei Eurogamer hat man sich mit DLSS4 auf der GeForce RTX 5080 beschäftigt bzw. zeigt erste reale Eindrücke hiervon in einem YouTube-Video. Dabei konnten vor allem die nicht-MFG-bezogenen Verbesserungen von DLSS4 gefallen, resultierend in einer besseren Bildqualität mit weniger Artefakten sowohl unter regulärem DLSS als auch unter Frame Generation. Abseits dessen war man beeindruckt von der hohen erzielbaren Framerate von "Multi Frame Generation" (MFG) im 4x-Modus, trotz dass die Eingabelatenz nur eher geringfügig zunahm. Klar muß natürlich sein, dass das ganze Prinzip von Frame Generation wegen des Problems der Eingabelatenz eher nur dann zweckmäßig ist, um aus einer akzeptablen Framerate eine besonders hohe Framerate zu machen, beispielsweise von 50 fps auf 150 fps. Bei Spielen, die generell zu langsam laufen, ist Frame Generation eher weniger sinnvoll einsetzbar, da dort die zu niedrige Eingabelatenz (wegen der zu niedrigen nativen fps) zuerst spürbar ist. Generell wird man abwarten müssen, was mehrere andere Hardware-Tester zum Thema DLSS4 sagen, ehe man sich hier ein Urteil bilden kann. Die Bildqualitäts-Verbesserungen klingen jedoch vielversprechend, weil jene auch unterhalb der RTX50-Serie zur Verfügung stehen werden (nur MFG ist RTX50-exklusiv).

VideoCardz berichten über die technischen Daten der GeForce RTX 5090D, der China-exklusiven Sonderausführung der GeForce RTX 5090, da letztere wegen der US-Sanktionen dort nicht verkauft werden darf. Wie erwartet hat nVidia bei der GeForce RTX 5090D einen intelligenteren Weg der Sanktions-Umgehung gefunden: Anstatt (wie bei der GeForce RTX 4090D) die Karte generell niedriger zu takten, tritt die GeForce RTX 5090D mit nominell denselben Daten wie die reguläre GeForce RTX 5090 an: Hardware-Ausbau, Taktraten & TDP sind jeweils identisch, auch der (umgerechnete chinesische) Preis soll derselbe sein. Die gemachte Differenz zugunsten der US-Sanktionen findet sich bei der Rechenkraft der Tensor-Kerne, welche um –29% gegenüber der regulären GeForce RTX 5090 reduziert wird. Dies wird dann also doch eine gewisse Differenz bei der Spiele-Performance ergeben, dies allerdings nur bei heftigem DLSS-Einsatz. Bei reiner Raster-Grafikkarte ohne DLSS-Einsatz sollte die GeForce RTX 5090D hingegen exakt die Performance der GeForce RTX 5090 aufweisen.

RTX50 Desktop Chip Hardware Takt VRAM TDP Listenpreis Release
GeForce RTX 5090 GB202 170 SM @ 512-bit 2.01/2.41 GHz 32 GB GDDR7 575W $1999 / 2329€ 30. Januar 2025
GeForce RTX 5090D GB202 170 SM @ 512-bit 2.01/2.41 GHz 32 GB GDDR7 575W China only 30. Januar 2025
GeForce RTX 5080 GB203 84 SM @ 256-bit 2.30/2.62 GHz 16 GB GDDR7 360W $999 / 1169€ 30. Januar 2025
GeForce RTX 5070 Ti GB203 70 SM @ 256-bit 2.30/2.45 GHz 16 GB GDDR7 300W $749 / 879€ Februar 2025
GeForce RTX 5070 GB205 48 SM @ 192-bit 2.16/2.51 GHz 12 GB GDDR7 250W $549 / 649€ Februar 2025
GeForce RTX 5060 Ti GB206 (?) ≤36 SM @ 128-bit (?) ? 8/16 GB GDDR7 ? ? März/April 2025
GeForce RTX 5060 GB206 (?) ? SM @ 128-bit ? 8 GB GDDR7 ? ? März/April 2025
Hinweis: Angaben zu noch nicht offiziell vorgestellter Hardware basieren auf Gerüchten & Annahmen

Die ComputerBase berichtet von der Vorstellung des "Snapdragon X X1-26-100" als bislang kleinstem Qualcomm-Prozessor für Windows, welcher für 600-Dollar-Notebooks vorgesehen ist. Mit nur 8 CPU-Kernen und auf 3.0 GHz begrenztem Takt dürfte die Performance dieses SoCs deutlich unterhalb der Qualcomm-Spitzenmodelle liegen – wobei dies natürlich bei den gleichwertigen Mobile-Modellen von AMD & Intel auch nicht viel anders ist. Zudem hat Qualcomm nun doch seine Snapdragon-X-Modelle auch für Desktop-Zwecke freigegeben, was auch gleich seitens Geekom und Lenovo für erste Mini-PCs auf Qualcomm-Basis verwendet wurde. Leider scheinen jene Mini-PCs das Preis-Problem der bisherigen Qualcomm-Gerätschaften zu erben, denn Lenovo stellt seine Qualcomm-basierten Mini-PCs erst für ab 799 Euro in Aussicht (was für Mini-PCs generell ein stolzer Preis ist), von Geekom gibt es noch keine Preisfestsetzung.

Kerne Takt Cache iGPU TDP
Snapdragon X Elite X1E-00-1DE 12C/12T ≤3.8/4.3 GHz 42 MB Adreno X1-85, 4.6 TFlops ?
Snapdragon X Elite X1E-84-100 12C/12T ≤3.8/4.2 GHz 42 MB Adreno X1-85, 4.6 TFlops 23-80W
Snapdragon X Elite X1E-80-100 12C/12T ≤3.4/4.0 GHz 42 MB Adreno X1-85, 3.8 TFlops 23-80W
Snapdragon X Elite X1E-78-100 12C/12T ≤3.4 GHz 42 MB Adreno X1-85, 3.8 TFlops 23-80W
Snapdragon X Plus X1P-66-100 10C/10T ≤3.4/4.0 GHz 42 MB Adreno X1-85, 3.8 TFlops 10-20W
Snapdragon X Plus X1P-64-100 10C/10T ≤3.4 GHz 42 MB Adreno X1-85, 3.8 TFlops 10-20W
Snapdragon X Plus X1P-46-100 8C/8T ≤3.4/4.0 GHz 30 MB Adreno X1-45, 2.1 TFlops 10-20W
Snapdragon X Plus X1P-42-100 8C/8T ≤3.2/3.4 GHz 30 MB Adreno X1-45, 1.7 TFlops 10-20W
Snapdragon X X1-26-100 8C/8T ≤3.0 GHz 30 MB Adreno X1-45, 1.7 TFlops ?
allen Snapdragon X Modellen gemeinsam ist ein 128-Bit-Speicherinterface bis LPDDR5X/8448 sowie eine NPU mit 45 TOPs

Shortcuts: Die ComputerBase berichtet über die Vorstellung von Intels "Bartlett Lake" – welche allerdings erstaunlicherweise überhaupt nicht den vorherigen Erwartungen entspricht. Denn die vorgestellten Prozessoren-Modelle basieren klar auf Alder/Raptor-Lake-Dies mit also Performance- und Effizienz-Kernen, nicht aber dem erwarteten extra Die mit reinen (bis zu 12) Performance-Kernen. Ob selbiges später noch folgt oder ob Intel schlicht den einfacheren Weg bei diesen sowieso nur im Embedded/NEX-Segment eingesetzten Prozessoren geht, muß abgewartet werden. Nochmals die ComputerBase zeigt auf der CES zu sehende erste lauffähige "Panther Lake" Systeme hin, den guten Entwicklungsstand dieser für den Herbst angesetzten neuen Mobile-Prozessoren dokumentierend. Bei Prozessoren sind die Validierungs-Zeiten üblicherweise lang und zugleich arbeitet Intel mit festen Releaseplänen, wo die Prozessoren in jedem Fall vorher fertig werden müssen, um noch vor dem Marktstart eine entsprechende Massenfertigung anwerfen zu können.

Twitterer Dylan Patel weist passend hierzu auf die langen Fertigungszeiten in der Halbleiter-Branche hin: Ein 2nm-Wafer von TSMC benötigt satte 14 Wochen, ehe jenes die Fabrik durchlaufen hat. Das ist ein ganzes Quartal und da kommen dann auch noch Packaging und andere kleinere Arbeitsschritt oben drauf. Auch wenn dies bei älteren Fertigungsverfahren schneller geht, zeigt dies doch deutlich auf den hohen Vorlauf hin, welchen die Chipfertigung heutzutage zwischen Bestellung und Auslieferung benötigt. WCCF Tech dokumentieren Intels Aussagen zur Durchschlagskraft des kommenden finalen Microcode-Updates für "Arrow Lake" mit gemittelt +17,5% Zugewinn an Spiele-Performance. Dies dürfte gemäß aller bisherigen Ermittlungen unabhängiger Tester (siehe News #1 & News #2) eine ziemlich unrealistische Aussage sein, aber muß natürlich dann trotzdem nachgeprüft werden. Und letztlich versucht man sich auf Reddit an einer Performance-Prognose zur GeForce RTX 50 Serie auf Basis der wenigen nVidia-Benchmarks ohne Frame Generation. Generell führt dies zu einem Generations-Gewinn eher im Rahmen von grob +35% – wobei selbst dies hochgegriffen sein könnte, die kleineren Modelle unterhalb der GeForce RTX 5090 könnten (gemäß der technischen Ansetzung) locker auch bei nur +2X% herauskommen.