20

Gerüchteküche: AMDs UDNA-Grafikarchitektur soll bereits 2026 in Ersatz von RDNA5 antreten

Gemäß von VideoCardz ausgegrabenen Aussagen aus dem chinesischen Chiphell-Forum soll AMD seine UDNA-Architektur bereits nach CDNA4 und RDNA4 ansetzen – sprich, alle Arbeit an RDNA5 wird überführt zu UDNA1, RDNA4 soll somit die letzte RDNA-Architektur sein. Für UDNA1 hat AMD einen aggressiven Zeitplan, welcher die Massenfertigung von UDNA1-basierten Gaming-Grafikchips für das zweite Quartal 2026 vorsieht. Da sich dieses Datum aber eben nur auf die Chipfertigung bezieht, wäre für einen Marktstart von Endverbraucher-Produkten sicherlich noch ein Quartal dazuzurechnen. Ergo scheint AMD mal wieder den Herbst des Jahres anzupeilen – was eigentlich immer so bei AMDs Plänen war und in der Praxis eher selten (termingemäß) funktioniert hat. Ehrlicherweise muß man bei einem solch technisch großen Sprung – Ausbesserung der Fehler von RDNA 3/4, möglicheres MultiChip-Design und großer Architektur-Wechsel – eher von einer längeren als einer kürzeren Entwicklungszeit ausgehen.

    AMD UDNA1

  • Codename "Sirius"
  • Zusammenführung der Architekturen von CDNA und RNDA
  • Nachfolger von CDNA4 und RDNA4 (kein RDNA5 mehr)
  • ALU-Design angeblich ähnlich wie GCN
  • erste Gaming-Grafikchips sollen im Q2/2026 in die Massenfertigung gehen (Marktstart somit vielleicht Q3/2026)
  • Sonys PlayStation 6 soll UDNA1 nutzen (zusammen mit Zen 4 oder Zen 5)
  • Verkaufsnamen: Radeon RX 9000 Serie (Gaming) und Instinct MI400 (HPC/AI)
  • Quelle: Chiphell, wiedergegeben von VideoCardz; Quelle des Codenamens: Everest @ X bzw. nachfolgender Tweet

Eventuell mag es überraschen, dass AMD diesen Weg zu UDNA – welchen man erst diesen September angekündigt hatte – derart rasch geht. Andererseits ist RDNA3 nicht wirklich gut gelungen und RDNA4 wird nunmehr eine Mager-Generation, da ist ein gewisser Push nach vorn sicherlich vonnöten. Eine total neue Technik birgt natürlich immer auch das Risiko, das gerade in der ersten Generation noch nicht alles so funktioniert wie gedacht. Zudem ist nach wie vor unklar, ob das Zusammenbringen von CDNA und RDNA selbst auf Ebene der reinen Recheneinheiten (ALUs) wirklich von Vorteil zugunsten der Leistungsfähigkeit ist (zugunsten der Entwicklungskosten ist es sicherlich). Denn die Bedürfnisse von Grafik-Berechnung und HPC-Computing haben sich durchaus auseinanderentwickelt, auch wenn man beides grundsätzlich unter die Gruppe der Parallel-Beschleuniger einordnen kann. Dass es AMDs Gaming-Grafikkarten wirklich zum Vorteil gelangt, wieder dieselben ALUs wie die HPC/AI-Beschleuniger zu verwenden, muß AMD somit erst einmal beweisen.

Dabei darf man durchaus den Verdacht äußern, dass AMD dies auch deswegen zusammenbringt, um für Consumer-Grafikkarten eine größere KI-Beschleunigung zu ermöglichen – genau dafür wären auf Computing-Leistung ausgelegten Rechenwerke nämlich gut verwendbar. Nun mag sich in Firmenetagen derzeit alles um "AI" drehen, aber noch ist keineswegs klar, ob und wie der Konsument hierfür zur Kasse gebeten werden kann. Ob man sich hierzu nicht eventuell maßgeblich vergaloppiert, ist noch nicht heraus, aber zumindest als Risiko anzusehen. Zudem besteht die Fragestellung, ob es AMD gelingen kann, UDNA-Grafikchips mit richtig viel Gaming-Leistung hinzustellen, wenn selbige Zusatzfunktionalität immer noch mit dabei sein muß – oder ob die Ausrichtung auf Compute-starke Rechenwerke nicht am Ende wieder der Gaming-Leistung schadet (wie zuletzt bei Vega wegen des stark hochgehenden Stromverbrauch).

Sicherlich ist die Zusammenführung der CDNA- und RDNA-Entwicklungszweige für AMD auch ein Weg, um Entwicklungskosten zu sparen bzw. ist damit gesichert, dass es auch langfristig weiter Desktop-Grafikkarten von AMD gibt. Schließlich wird somit die Architektur-Entwicklung sowieso allein wegen der (lukrativen) HPC/AI-Sparte getätigt, entsprechende Desktop-Grafikkarten wären somit jederzeit ein (einfach zu erstellendes) "Abfallprodukt" dieser Entwicklung. Aber vermutlich müssen Architektur-seitig bei UDNA vorrangig die Consumer-Produkte "Kompromisse" eingehen, eher weniger die HPC/AI-Produkte. Sprich, UDNA könnte doch stark auf HPC/AI-Anwendungen ausgelegt sein, womit erneut die Schlagkraft im Consumer- bzw. Gaming-Bereich zu bezweifeln wäre. Aber vermutlich kann AMD die nötigen Entwicklungskosten anders gar nicht mehr rechtfertigen, man denke nur an die für RDNA4 angedachten und letztlich doch nicht realisierten (echten) MultiChip-Konstruktionen.

Da CDNA derzeit schon (echte) MultiChip-Designs nutzt, dürfte in dieser Frage der Weg von UDNA vorgezeichnet sein – auch wenn derzeit noch jeder Plan fehlt, wie UDNA-Chips technisch aussehen werden. Vielleicht schafft es AMD damit dann, irgendwann den heiligen Gral der Chip-Skalierung zu erreichen – wo man nur einen Compute-Grundchip auflegt und jener in multipler Form dann bis zur Leistungsspitze hochskaliert wird. Andererseits ist dies für HPC/KI-Aufgaben derzeit noch der falsche Ansatz, da geht es allein um Spitzenleistungen und werden keine kleineren Chips benötigt. Auch hier ergibt sich wiederum ein klarer Konflikt bei der Zusammenlegung von Consumer- und HPC-Architekturen. Es wird interessant werden zu sehen, wie es AMD bei UDNA schaffen kann, diese Hürden zu nehmen bzw. mit welchen Kompromissen dies dann jeweils verbunden sein wird.