19

News des 19. November 2024

Die ComputerBase weist auf anziehende Straßenpreise bei Ryzen 9 7900X3D & 7950X3D hin, nachdem bekannterweise schon der Ryzen 7 7800X3D diesen Weg gegangen und in der Folge dessen (preislich) weitgehend unattraktiv geworden ist. Insbesondere für AMD-Prozessoren ist dies eine erstaunliche Entwicklung, denen jene kennen im DIY-Markt eigentlich immer nur den Weg fallender Preise. Dies gilt für alle non-X3D-Modelle auch weiterhin, aber wie zu sehen nicht mehr für die X3D-Modelle. Dies weist natürlich auch darauf hin, dass der Hersteller hier immer noch den größten Hebel an den Straßenpreisen hat. Das bedeutet mitnichten, dass AMD die Einzelhandelspreise direkt diktieren würde (Konflikt mit den Wettbewerbshütern vorprogrammiert), aber man macht höchstwahrscheinlich die Ware gegenüber den Distributoren schlicht teurer – und jene geben die höheren Preise schließlich nur weiter.

UVP Bestpreis '24 aktueller Preis Differenz
Ryzen 9 7950X3D 789€ ab 515€ ab 633€ +23%
Ryzen 9 7900X3D 679€ ab 355€ ab 488€ +37%
Ryzen 7 7800X3D 499€ ab 299€ ab 468€ +56%
Preislagen gemäß Geizhals-Preisvergleich

Wie schon beim Ryzen 7 7800X3D dürfte es AMD auch bei Ryzen 9 7900X3D & 7950X3D darum gehen, den Boden für den Launch von deren Nachfolgern zu bereiten – für welchen die zukünftigen Alt-Modelle zu den Preislagen vom Sommer 2024 ein preislich zu starker Kontrahent wären. Gleichfalls scheint wohl die generelle Tendenz dahinterzustehen, nicht mehrere Generationen an X3D-Prozessoren gleichzeitig im Markt stehen zu haben, sondern immer nur eine X3D-Generation pro Plattform (womit die X3D-Modelle für den Sockel AM4 keine Konkurrenz darstellen). Denkbarerweise dürften somit Ryzen 7 7800X3D sowie Ryzen 9 7900X3D & 7950X3D den Markt irgendwann nach dem Jahreswechsel 2024/25 verlassen, danach gibt es nur noch deren Zen5-basierte Nachfolger zu kaufen. Der Ryzen 5 7600X3D dürfte dann nachfolgen, wenn es auch für dieses Sechskern-Modell einen X3D-Nachfolger von Zen 5 gibt – was dann irgendwann später im Jahr 2025 passieren sollte.

WCCF Tech geben Gerüchte wieder, AMD würde an einem AMD Smartphone-SoC arbeiten – und sich somit in einem Markt versuchen, welcher bislang von Apple, MediaTek und Qualcomm dominiert wird. Hierzu soll sich AMD in Gesprächen mit den Smartphone-Herstellern befinden – was darauf hinweist, dass es hierbei nicht um Gaming-Handhelds geht (ein Markt, wo AMD schon aktiv ist und was daher kein solches Aufsehen wert wäre). Ob "Gespräche" auch zu irgendetwas Handfestem führen bzw. ob AMD hierfür überhaupt die passende Technik hat, bleibt natürlich offen. Generell ist derzeit kein bekannter AMD-Prozessor für den Einsatz in regulären Smartphones geeignet, da üblicherweise in einer ganz anderen Watt-Klasse unterwegs. AMD hat sicherlich die Technik, so etwas zu bauen – aber das macht man eben auch nur, wenn man dafür gesichert Aufträge bekommt, denn Chip-Entwicklung, TapeOut und Validierung sind nun einmal teuer. Ob hier also etwas herauskommt, läßt sich derzeit nicht sagen und bleibt die weitere Entwicklung abzuwarten.

Ein indirekter Hinweis darauf, wieso nVidia die CES 2025 nicht allein dem Thema "AI" widmet und die Aufmerksamkeit mit der GeForce RTX 50 Serie teilen will, ergibt sich aus nVidias neuem AI PC Channel bei Twitter/X bzw. dem dort zu sehenden Promotion-Video. Denn augenscheinlich ist die GeForce-Serie an Desktop-Grafikkarten nunmehr Teil von nVidias KI-Anstregungen. Denkbarerweise werden der GeForce RTX 50 Serie diesbezüglich neue KI-Funktionen spendiert bzw. wird alles, was mit DLSS oder "Ray Reconstruction" zusammenhängt, großzügigerweise diesem Thema zugeschlagen. Demzufolge kann dann nVidias CEO Jensen Huang bei seiner CES-Keynote auch bei der damit erwarteten Vorstellung der GeForce RTX 50 Serie bei seinem aktuellen Lieblingsthema bleiben. Zugleich dürfte dies für nVidia auch ein Teil des Spannungsbogens darstellen, welcher dann zum eigenen "nVidia AI PC" führt, selbst wenn jener wohl erst Anfang 2026 wirklich kaufbar sein wird.

Immer noch interessant ist dabei, wie stark in Industriekreisen auf das Thema "AI" gesetzt wird, was derzeit vor allem viel Geld frisst und bislang keinerlei beachtbare Erträge eingespielt hat. Dass man bestehende Trends mitreitet, egal wie man zu jenen steht, ist klar – aber spätestens dann, wenn es um hohe Kosten oder auch Entwicklungsausrichtungen für mehrere Jahre im voraus geht, sollte dann doch eigentlich der Verstand einsetzen. Eine simple Marktbeobachtung zeigt, dass es faktisch keinen beachtbaren Markt für AI-PCs gibt, dieses Thema geht am Massenmarkt derzeit vollkommen vorbei. Irgendwelche berichteten Verkaufserfolge basieren meistens darauf, dass die Konsumenten schlicht einen PC/Notebook kaufen wollten, nicht explizit einen AI-PC. Sicherlich gibt es in Kreisen von Kontentkreatoren einige, welche KI-Funktionalitäten teilweise sogar schon breit nutzen. Aber jene stellen weder die ausreichende Masse für den AI-PC dar noch wäre für diesen Zielkreis die KI-Beschleunigung der heutigen AI-PCs überhaupt ausreichend – da nutzt man längst viel bessere Hardware.

Das Problem am AI-PC ist primär die Kombination aus schwacher KI-Leistung mit gleichzeitig der Ausrichtung auf den Massenmarkt – der einfach nur einen PC/Laptop kaufen will und mit "AI" ansonsten nichts am Hut hat. Daraus ergibt sich eben auch, dass selbst als reines Verkaufsargument der AI-PC eigentlich Nonsens ist, denn so etwas wird im Massenmarkt schlicht nicht nachgefragt. Wenn der PC-Verkäufer Pech hat, dann kommt jener sogar an einen Verbraucher, welcher beim Stichwort "AI" eher denn skeptisch bis das Weite suchend reagiert. Noch denkt man wohl in den Firmenzentralen, dies über Werbung & Marketing hinbiegen zu können. Und dummerweise dürften über das Supportende von Windows 10 im Jahr 2025 den Händlern nächstes Jahr wohl alle PCs & Notebooks aus den Händen gerissen werden, womit der AI-PC rein statistisch ein Erfolg werden wird. Aber als Nutzungsrealität existiert jener derzeit noch überhaupt nicht – womit clevere Hersteller dies weiterhin als Marketing benutzen können, aber aufpassen sollten, nicht zu viel Geld in Entwicklungskosten und Chipfläche zugunsten dieser Funktionalität zu stecken.