5

News des 5. Dezember 2024

Von PC Games Hardware und ComputerBase kommen erste Benchmarks zu "Indiana Jones und der Große Kreis" – welche fps-technisch sehr anständig aussehen, trotz bereits hervorragender Grafikqualität noch ohne das volle RayTracing. Das Spiel zwingt zwar auch im Standard-Modus bereits zu RayTracing-Hardware, das "volle RayTracing" (aka Path-Tracing) wird allerdings erst zum 9. Dezember nachgereicht – und dürfte dann heftig Performance fressen. Der Normalmodus sieht hingegen bezüglich der erreichten Frameraten ziemlich gut aus – wenn man die notwendige VRAM-Menge mitbringt. Ohne dies wird es schnell Essig, halbieren sich die Frameraten oder schlimmer. Drastisch ist insbesondere, wie tief man mit dem Texturensettung heruntergehen muß, um die Performance von 8-GB-Grafikkarten zu retten: Auf das "Medium"-Texturensetting.

Indiana Jones und der Große Kreis FullHD/1080p WQHD/1440p 4K/2160p
Grafikkarte mit 8/10 GB VRAM @ "Hyper"-Preset grobe fps-Halbierung mehr als fps-Halbierung
Texturen-Empfehlung für 8-GB-Grafikkarten "Medium" fps generell zu niedrig
VRAM-Empfehlung für "Hyper"-Texturen 12 GB 12 GB 16 GB
gemäß der Ausführungen der ComputerBase

Und dies ist beim neuen Indiana-Jones-Spiel nur noch das fünfthöchste Setting (Low, Medium, High, Ultra, Giga, Hyper), wobei an dieser Stelle (noch) ein wenig der praktische Beweise mittels Screenshot-Vergleich fehlt, was man hierdurch verliert. Mittels 12 GB ist man wohl bis WQHD perfekt dabei, oberhalb dessen sind zugunsten der maximalen Performance besser 16 GB zu empfehlen, selbst wenn es auch mit 12 GB VRAM unter der 4K-Auflösung keine schlechten Frametimes mehr gibt. Indiana Jones und der Große Kreis ist damit das perfekte Beispiel eines neumodischen Spiels mit hohen VRAM-Anforderungen, die aber eben nicht aus einer generell schlechten Spiel-Performance resultieren, sondern sich eher natürlich im Zuge der Weiterentwicklung der Spiele ergeben haben. Bei 85 fps für eine GeForce RTX 4070 unter WQHD mit Max-Bildqualität kann man (angesichts der gebotenen Bildqualität) schließlich nicht sagen, dass dies schlecht programmiert oder optimiert wäre. Die kommenden Spiele werden einfach viel mehr diese schlechten Resultate für 8-GB-Grafikkarten abliefern, dies ist dann einfach das Lauf der Dinge.

Mittels der neuen nVidia-Treiber in der Version 566.36 hat nVidia auch den Abschied von "GeForce Experience" zugunsten der "nVidia App" praktisch vollzogen – der neue Treiber enthält nur nur noch zweiteres anstelle ersterem. Damit sollte die nVidia-App dann somit auch alle Funktionalitäten von GeForce Experience übernommen haben und kann jenes alte Programm komplett ersetzen, ohne Login oder/und Registrierung im übrigen. Wirklich zwingend notwendig ist die nVidia-App (wie GeForce Experience) allerdings weiterhin nicht, weder forciert nVidia dies noch wurde bislang das alte Control Panel im eigentlichen nVidia-Treiber angetastet. Weiterhin ist also alles bisher an zwei Orten einstellbar, wobei GeForce Experience bzw. die nVidia-App im Detail natürlich mehr Möglichkeiten bietet als das althergebrachte Control Panel. Wie lange jenes noch mitgeschleppt wird, ist unklar. Womöglich plant nVidia sogar einen fliegenden Übergang, womit das Control Panel für alte nVidia-Generationen bleibt, für neue nVidia-Generationen hingegen nicht mehr funktioniert – und sich somit irgendwann automatisch auswächst.

Breit berichtet wird derzeit über eine angeblich sagenhaft schlechte Ausbeute der 18A-Fertigung bei Intel – man redet von nur 10%, wie u.a. bei WCCF Tech nachzulesen. Dies wäre dann wirklich schlecht und nicht tauglich zur Massenfertigung, sprich würde in jedem Fall eine Verzögerung ergeben. Andererseits muß klar sein, dass jede neue Halbleiterfertigung üblicherweise sehr klein anfängt und man je nachdem zu welchem Zeitpunkt man schaut, bei jeder dieser neuen Nodes irgendwann auch wirklich niedrige Ausbeuten als Zwischenstand hat. Allerdings gibt es auch deutliche Widerworte gegenüber dieser Meldung – beispielsweise von Technologie-Analyst Ben Bajarin oder auch als Hinweis von Twitterer WrenIndian, dass sich jene 10% auf ein Riesen-Die von 800mm² beziehen und somit natürlich nicht für die gesamte 18A-Fertigung repräsentativ sind. Wer hier Recht hat, soll damit nicht gesagt werden – aber der Fall ist halt eher in der Schwebe, als dass man diesem Gerücht einfach so glauben sollte.

Zur jüngst angesprochenen Intel-Grafikkartengeneration "Celestial" gab es im Forum die Fragestellung, wie ein faktisches Designende jetzt schon und ein Tape-Out erst Mitte 2025 zusammenpassen kann. Hierzu muß man erst einmal einbeachten, dass der Releasetermin von 2026 eine Schätzung gemäß indirekten Intel-Hinweisen sowie der Tape-Out-Termin von (nicht vor) Sommer 2025 eine daraus abgeleitete Annahme darstellt, beides aber keine direkten Intel-Aussagen sind. Aber selbst wenn dies alles stimmt, dann hat der Intel-Vertreter interessanterweise bei seinen Celestial-bezogenen Aussagen nicht mehr von Produkten gesprochen, sondern nur noch von einer "IP", sprich der Architektur selber. Jene Xe3-Architektur wird aber nicht nur für Desktop-Grafikkarten entwickelt, sondern auch für integrierte Grafiklösungen – "Panther Lake" wird beispielsweise die erste Xe3-Grafiklösung tragen. Auch in diesem Fall wird Intel dann mit einer neuen Grafik-Architektur den iGPU-Bereich früher beliefern als den dGPU-Bereich.

Denn nach der reinen Architektur-Entwicklung muß man daraus noch konkrete Produkte, in diesem Fall Grafikchips machen. Augenscheinlich passiert dies getrennt, sprich das Architektur-Team kann seine Arbeit bereits beendet haben (und schaut demzufolge schon zur nächsten Architektur-Stufe), aber das Produkt-Team legt dann erst richtig los und entwickelt aus den Vorgaben der fertigen Architektur somit konkrete Grafikchips. Auch dies benötigt noch Zeit und geht auch durch viele Simulationen, ehe man denn zum Tape-Out schreitet – ein Zeitpunkt, wo danach so gut wie nichts mehr änderbar ist, wo man sich also dementsprechend seiner Sache sicher sein muß. Hieraus erklärt sich aller Vermutung nach diese Zeitdifferenz, dass "Celestial" bzw. Xe3 als Architektur nunmehr so gut wie fertig sein soll und entsprechende Desktop-Grafikkarten dennoch (voraussichtlich) erst im Jahr 2026 zu erwarten sind.