Neue Beiträge im Forum Technologie

Inhalt abgleichen 3DCenter Forum - Technologie
Aktualisiert: vor 5 Stunden 32 Minuten

nVidias Deep Learning Super Sampling - DLSS 2.x, DLSS 3.x, DLSS 4

Di, 21.01.2025 22:40
Und hier das ganze nochmal mit den Display Times.

Und schon sieht man, was ich meine. Reflex off ist smooth.
Reflex on ist deutlich unsauberer, was sich dann leider auch auf Frame Generation überträgt.


Das Problem für unsauberes Framepacing in manchen Spielen ist nicht Frame Generation, sondern Reflex.



Reflex off



Reflex on



Reflex on + FG

Miniaturansicht angehängter Grafiken      

Bessere Monitore?

Di, 21.01.2025 21:20
Zitat: Zitat von Relex (Beitrag 13689774) Ich verstehe das Problem nicht ganz. Zitat: Und ich muss auch sagen, dass mir das Verhalten entgegen kommt. HDR sollte nicht für hohe APL genutzt werden. Hohe APL ist mMn. nicht der Sinn von HDR. Ich will kein vollflächig helles Bild. Ich will ein Bild mit angehemer Helligkeit bei dem sich nur die Highlights abheben. Natürlich würde ich akkurates EOTF Tracking generell bevorzugen. Aber wenn ich schon einen Trade off aufgrund OLED Dimming machen muss, dann begrenze ich lieber im Voraus die APL, wenn nötig, um dann schöne Highlights haben zu können die nicht dafür sorgen, dass das Panel sichtbar nachdimmen muss. Wenn du eines der größten Probleme von OLED-Monitoren zu einer Stärke machst, gibt es da wohl nichts zu verstehen :uponder:

Das klingt jetzt bei dir, als wäre das absichtliches Design, während es in der Realität schlichtweg an den Paneleigenschaften bzw. der Stromverbrauchsregelungen liegt, dass sich OLED-Monitore im Gegensatz zu OLED-TVs so verhalten :confused:

Frame Generation für jede GPU

Di, 21.01.2025 01:31
Zitat: Zitat von 00-Schneider (Beitrag 13688204) Hmm?

Habs mit Prey(2006) getestet, funktioniert einwandfrei. Game geht originär nicht über 62fps, mit LS konnte ich es mit der doppelten Framerate spielen. Sichtbar höhere Bewegtschärfe und Artefakte habe ich keine gesehen. Zusätzlichen Lag habe ich jetzt auch nicht wirklich wahrgenommen. Wenn dir die Artefakte nicht auffallen, dann sei glücklich. Wenn man jedoch hohe Ansprüche hat, ist sowas halt nichts.

Real-time Raytracing

So, 19.01.2025 11:28


Ray Reconstruction von AMD!?

AMDs FidelityFX Super Resolution 2.0 und 3.0 (FSR 2.0, FSR 3.0)

So, 19.01.2025 10:07
Die kommt wann es geplant war NV Midrange kommt nicht im Januar also sind alles Tests gegen Lovelace.

Wer ist der beste Wrapper im ganzen Land (2024)?

Fr, 17.01.2025 23:33
Ich habe nur bei Remember Me Wrapper getestet. Mit dgVoodoo 2 DX9 -> DX11 hatte ich eine bessere Performance als mit DXVK

OLED macht Fortschritte

Di, 14.01.2025 00:01
Zitat: Zitat von robbitop (Beitrag 13683894) Ich könnte mir vorstellen, dass die Lichtquellen unterschiedliche Tiefen haben ist für Dinge wie zB den Brennpunkt einer Linse nicht ideal.
Unwahrscheinlich, der Emitter-Layer ist schon vorher nicht Punktförmig sondern besteht aus mehreren Layern die eine Tiefe haben, da kommt jetzt "nur" 1 Layer mehr dazu.

CryEngine 5

Mo, 13.01.2025 12:35
Yep, Raytracing ist selbst in Hunt Showdown 1896 nicht enthalten: https://www.pcgameshardware.de/Hunt-...tings-1453699/

KCD2 nutzt aber einen Fork der Cryengine, so weit ich weiß - da können Sachen aus deren eigener Feder enthalten sein, wie beispielsweise bei Indy.

MfG
Raff

Gaming auf 8k

So, 12.01.2025 16:50
Zitat: Zitat von Gouvernator (Beitrag 13682239) 48GB will ich eigentlich für 16K. Mit 8K meine ich das ich mit 5090 "nur" spielbare 8k60FPS kaufe. Für das Geld hätte ich aber 16K/48Gb mit im Paket. Es ist ja auch abzusehen das 48GB kommen... Wieso zweimal Geld ausgeben, wenn eine 3090 den Dienst in 8K auch noch tut. Ich bekomme für 2500€ quasi nur durchgehend 30Fps-->60Fps Steigerung. Zu wenig Neues für mein Geschmack. Bei 16K/48Gb kann man seine ganze Spielbibliothek neu entdecken. Das ist die 2500€ schon eher wert + LLM Zeug = winwinwin.

PS.
Ich vermute man wird auf eine 48GB Version noch so lange warten, bis NV ihre RTX A6000 48GB abverkauft hat. Scheinen einige auf Lager zu sein. Nach eigener 8K-Nutzung sage ich: 8K macht ab 77 Zoll wirklich Sinn. 16K wird vermutlich in 10 Jahren kommen, und schon jetzt eine 16K-Grafikkarte auf den Markt zu bringen, finde ich wirklich nicht sinnvoll. Die 8K-Ära beginnt mit der 6090 und Monitoren mit 8K/120Hz/VRR.

Ich teste aktuell FG in CP2077 und HZD (8K). Der Eindruck ist zweigeteilt.

Zum Glück steht für mich die Frage „5090 kaufen oder nicht“ nicht zur Debatte. Ich hoffe, dass in 8K etwa 50 % mehr Leistung möglich sein werden, auch ohne MFG.

DirectX12 Ultimate und DirectStorage - NextGen-Gaming auf dem PC

Sa, 11.01.2025 14:06
Neural Rendering in the DirectX API.
Cooperative Vector Support coming soon.

https://devblogs.microsoft.com/direc...t-coming-soon/

Neuer HDMI-Standard kommt

Sa, 11.01.2025 13:09
Das wird ja auch langsam nötig...

Nur dumm, dass (wie immer) HDMI schon beim herauskommen schon wieder veraltet ist: https://www.heise.de/news/HDMI-2-2-9...-10225837.html

Schon beim Herauskommen ist kein 8k 120Hz ohne Kompression möglich. 4k 240Hz zwar, aber kein 8k 120Hz. Für 100" Gaming-TVs brauchts nunmal 8k und 120Hz. Aber hoffentlich gibts trotzdem welche, dann eben mit Kompression. Sieht man eh nicht bei so einer niedrigen Kompression dann.

Monitore/TVs mit HDMI 2.2 wirds vermutlich aber auch frühestens 2026 geben. Auch wenn hier von "Geräten" mit HDMI 2.2 in Q3 2025 die Rede ist. Ich denke, TVs werden da frühestens 2026 aufgleisen und Monitore vlt. sogar noch später. (https://futurezone.at/produkte/hdmi-...ocol/402996180)

Intel Xe Super Sampling (XeSS)

Fr, 10.01.2025 23:50
Ich packe das mal hier rein, es tut sich was an der Frame Extrapolation Front:
- Originales Intel Paper (Dezember 2023, ExtraSS): https://dl.acm.org/doi/pdf/10.1145/3610548.3618224 -> G-Buffer guided warping
- Neues Intel Paper (Mai/Dezember 2024, GFFE): https://arxiv.org/pdf/2406.18551 -> G-Buffer free frame extrapolation

Hier GFFE noch mit Video (ExtraSS wird auch verglichen):
https://poiw.github.io/publication/gffe/

Fazit:
- GFFE zeigt deutliche Verbesserungen gegenüber ExtraSS
- Qualität der generierten Frames an sich ist "im guten ExtraSS Fall" nicht wirklich besser als bei ExtraSS (also nicht ein Qualitäts- und Bildschärfe Anstieg wie DLSS4 vs. DLSS3), aber viel weniger Artefakte, nur noch relativ wenige
- Qualität kann mit einigen Interpolations-Verfahren mithalten
- 1080p/30fps ist die Ground Truth. Dass es mit 30fps bereits so gut funktioniert ist noch erstaunlich

PC vs. Konsole: Nur Politik oder tatsächlich technische Gründe

Do, 09.01.2025 10:07
Ego-Shooter wären für mich ja so garnichts auf ner Konsole oder auch Third-Person. Da brauch ich M&T :smile:

Wer mit so Controllern gut ist und auch gut genug ist vom Empfinden na denn is doch alles gut.

Ich hab es aber lieber so das es gut wartbar ist und gut instandzusetzen geht und da kann man bei so einer Konsole einfach quasi nichts machen im Vergleich, das System ist so "geschlossen", da ist einfach 0 Modularität.

Ich hab in der Tat allerdings einen PS4 Controller hier und die Tage beispielsweise Giana Sister 2D gespielt, für sowas is son Controller schonn echt klasse :smile:

Viele Games sind darüber hinaus, auch am PC echt für Controller ausgelegt, SOTTR geht noch so eingermaßen, geübt am Controller würd ich das aber auch besser spielen denk ich.
So ein "Detroit: Become Human", "Heavy Rain" ist teilweise aber denk ich echt grausam umgesetzt, die werden save auch auf Controller ausgelegt sein.

Es sind denke ich viel mehr auch die Entwickler an denen es liegt, dürfte sich dann aber auch vielleicht mal bald ändern, die Hardware ist ohnehin dieselbe, da steckt ja nun schon ne Weile PC-Hardware drin in den Kisten.

Ich hab ehrlich gesagt nicht so richtig Lust dadrauf immer irgendwas wieder rauskramen zu müssen und anschliessen zu müssen.
So ne Tastatur und ne Maus, die haben ihren festen Platz, da gibt es auch keine Kontaktprobleme...
Ich musste mein PS4 Controller erst Reparieren, hab mir die passende Platine mit neuer USB-Buchse bestellt gehabt samt Flachbandkabel, die Buchse hatte nen üblen Wackler.
Bestimmt weil das so doof auf dem Stecker aufliegt wenn es angeschlossen ist..., benutz das Ding am PC halt mit USB-Kabel, hatte das einige Tage dauerhaft angeschlossen, das Thema halt "keine Lust an/ab -zu stöpseln...

Meine Rennwagensteuerungen die haben solche Verschleisserscheinungen jedenfalls nicht in solchem Ausmaß und das wird ja relative oft, abgestöpselt, losegeschraubt um dann den Platz zu Wechseln am Schreibtisch damit Maus und Tastatur wieder richtig frei sind zum Arbeiten.


mfG

AMD Anti-Lag 2.0

Sa, 04.01.2025 12:12
Wenn man ein Singleplayed Gamer ist kann man es aber aktuell ja per Mods nutzen oder? :)
Aber ja out of the box ist es bescheuert. Da hat Nvidia auch einfach den Vorteil der installierten Basis an GPUs. 90% der verkauften GPUs sind Nvidia. Da steckt man in einer Teufelsspirale die man nur durch Marktanteilgewinne wieder brechen könnte. Dazu müssten Radeons aber auch konsistent besser werden und eine Weile dies mit deutlich niedrigeren Preisen erkaufen.

Unreal Engine 5

Fr, 27.12.2024 11:54
Die verlinkte UE5 Demo hat Ray Reconstruction eingebaut.

Aber ich kann bei mir weder RR noch FG aktivieren, weil die Demo meint, ich hätte keine kompatible Grafikkarte. Aber DLSS geht komischerweise trotzdem (dann sollte auch mindestens RR gehen).

Die Demo ist da leider verbuggt. Evtl. kann man es aber in der Engine ini erzwingen.

AI/Machine Learning in Gaming

Do, 19.12.2024 08:42
Zitat: Zitat von Ben Carter (Beitrag 13317501) Ich denke, dass das recht gut und auch halbwegs einfach funktionieren kann.
Der NPC benötigt natürlich einen Hintergrund. Dieser kann auch über eine AI erzeugt werden, der gewisse Rahmenparameter übergeben werden (Allgemeines Setting, Charakter des NPCs, Job, Geschlecht, Intelligenz, etc. pp.).
Anhand dieser Parameter und der dann erzeugten (und ggf. überarbeiteten) Hintergrundgeschichte wird dann das eigentliche Charakter-Modell für die AI erzeugt. Dieses kann dann natürlich auch um die Ereignisse, die im Verlauf rund um den NPC geschehen erweitert werden. Somit reagiert der NPC auch immer aktuell. Das heißt, wenn sein Kumpel ermordet wurde, weiß er das auch und erzählt nicht, dass er von diesem zur Grillerei eingeladen wurde.

Kombiniert muss das Ganze natürlich noch mit gewissen Grenzen bzw. Bedingungen werden. Sodass ein NPC, der als Questgeber dient, auch tatsächlich die Quest anbietet und nicht nur anderes Zeug von sich gibt.

Das ganze Konstrukt einmal aufzubauen wird nicht leicht, aber ich kann mir gut vorstellen, dass das größtenteils in eine Engine, wie der UE, wandert und dann von den Entwicklern "nur noch" benutzt werden muss. Am Ende des Tages kann es, sofern auch die Sprachsynthese gut klappt, eine ganze Menge Arbeit sparen bei zugleich deutlich besseren NPCs.

Ich denke, alles in allem ist so etwas mit einem Model wie GPT-4 schon gut möglich. Schwieriger wird es sein, das ganze Model soweit runter zu brechen, dass idealerweise keine Cloud benötigt wird, um das Ganze zu berechnen, sondern es lokal basieren kann.

lg Ben Selbst wenn man einen relativ engen Gesprächsrahmen (Thema / Fakten / Antwortoptionen) vorgibt, könnte man die exakten gesagten Sätze generieren lassen. Schluss damit, sich 1000x die gleiche Geschichte über den Pfeil im Knie anzuhören.

Und noch besser: Damit könnte man auch Wissen glaubhaft in der Welt verteilen - auf der abstrakten Ebene lässt sich das ja gut modellieren.

NPCs lernen über ein Topic indem sie sich mit anderen NPCs darüber austauschen - was a) durch den Spieler beobachtet werden kann und viel wichtiger b) dann hinterher auch mit dem NPC zu dem Thema interagiert werden kann - ganz ohne, dass es wieder dutzendfach der Standardsatz ist.
Oder schlimmer - der NPC der eben noch über das Thema geschwätzt hat vom Spieler gar nicht darauf angesprochen werden kann/nichts davon wissen will, weil kein Dialog dafür existiert.

Es können sogar Charakter/Stimmung/Sitation einbezogen werden.

Geforce Now: Nvidia holt auf

Mo, 02.12.2024 14:00
Zitat: Zitat von r-or (Beitrag 13660200) Das wirft auch ein anderes Licht auf DLSS und frame interpolation. Da koennen sie sicher extrem an GPU power sparen, und den meisten Leuten faellt es eh nicht auf, zumindest denen, fuer die streaming lag akzeptabel ist. GeforceNow startet ganz einfach die Windows-Version der jeweiligen Spiele, du kannst die Grafikeinstellungen ganz gleich wie auch bei einer lokalen Version selbst konfigurieren.

Diamantkühlung

Mi, 20.11.2024 22:31
Zitat: Zitat von Sweepi (Beitrag 13653816) Ich verstehe leider immer noch nicht.
Afaik hat Wasser im Vergleich zu Metallen etc einen sehr schlechten Wärmeleitung (Faktor 500-1000*). Im Vergleich zu Luft einen sehr guten (Faktor 25).

Als Konsequenz kühlt man Systeme, bei denen viel Energie über eine kleine Fläche abgeben wird, dass auf die Hitzequelle ein Metallkörper gesetzt wird, der die Oberfläche stark vergroessert. Diese Oberfläche wird dann wiederum von Wasser gekühlt.
Wo liegt der postulierte Vorteil, den Die direkt mir Wasser zu kühlen?
ich würde mal behaupten, gute wärmeleitpaste wird dort gebraucht wo die temperaturdifferenz besonders groß ist. das ist bei wasserkühlungen meist der fall, denn wasserkühlungen setzt man nicht bei einfach zu kühlenden flächen ein. soviel erstmal zu der ausgangsbasis.


als nächstes versuchst du herauszufinden was die optimale wärme abfuhr von den hitzequelle zum wasser sicherstellt. dazu verwendet man möglichst wärmeleitende materialien. aber genau hier setzt die Direct Water on Die methode an.


denn, statt nur den kupferboden eines wasserkühlers zu kühlen, ist es besser den Die selbst mit dem wasser in kontakt zu bringen. statt durch wärmeleitpaste durch zu müssen geht die wärme direkt ins wasser, und die pumpe kann dann das wasser sogar ohne zusätzliche durchflussminderung durch den kühler noch schneller wegbringen von der hitzequelle.


das kann man dann nachträglich noch weiter optimieren durch lasergravur auf dem Die, um eine höhere oberfläche zu erzeugen, so wie basix das mit den bildern gepostet hat.

EL-QD- oder QDEL-Displays, Nachfolger von OLED?

Fr, 15.11.2024 17:28
EL-QD und QDEL gelten als potenzielle Nachfolger der OLED-Displays, da sie eine verbesserte Helligkeit und Effizienz bieten.

x86 Advisory Group

Fr, 08.11.2024 11:51
Zitat: Zitat von Gast (Beitrag 13632395) Bleibt es eben nicht.

ARM hat große Vorteile in typischen Alltagsszenarien mit kurzen Bursts und dazwischen geringen Lasten. Das Verhältnis in der Akkulaufzeit bleibt! :|