Neue Beiträge im Forum Technologie

Inhalt abgleichen 3DCenter Forum - Technologie
Aktualisiert: vor 8 Stunden 53 Minuten

Bessere Monitore?

Fr, 21.02.2025 22:21
Natürlich nicht. Ist völlig sinnlos bei WOLEDs.

nVidias Deep Learning Super Sampling - DLSS 2.x, DLSS 3.x, DLSS 4

Fr, 21.02.2025 18:43
Hab mal DLSS4 Ray Reconstruction in Indy ausprobiert.

https://www.forum-3dcenter.org/vbull...4#post13711384

Kleiner Teaser:

Unreal Engine 5

Fr, 21.02.2025 10:42
Beeindruckend ranziger Bahnhof

Sind Quantencomputer in 3 Jahren das Maß aller Dinge?

Do, 20.02.2025 21:01
Verballhornung als Kunstform

:redface:

Frame Generation für jede GPU (Lossless Scaling)

Do, 20.02.2025 12:47
Ich meine mit merken dass ich es auch nicht mehr mag. Aber wie du sagst, da hat jeder andere Ansprüche.

Real-time Raytracing

Do, 20.02.2025 10:59
Zitat: Zitat von DrFreaK666 (Beitrag 13710152) Oder abwarten wie RDNA4 wird.
Bei den wahscheinlich viel zu hohen Preisen der 5070er-Karten, keine schlechte Idee.
Wenn es NV sein muss, dann hoffen, dass man heute eine 5070Ti für weniger als 1000€ bekommt. Laut PCGH wäre die Karte auch für 1000 noch die beste was Preis-Leistung angeht Jo, etwa auf rtx 4080 Niveau. Der Preis hat sich halt die letzten Jahre nicht nach unten bewegt. Die Performance in so ziemlich jedem Preissegment stagniert seit Jahren. Hoffentlich traut sich Intel noch ein wenig mehr als die b580. Das wäre zumindest eine Möglichkeit wie die Preise wieder runter gehen könnten.

AMD Anti-Lag 2.0

Do, 20.02.2025 06:24
Anti Lag 2 Support für Marvel Rivals


https://www.marvelrivals.com/m/gameu...8_1212474.html

Gaming auf 8k

Di, 18.02.2025 06:24
Und Helligkeitsverlust bei OLEDs - und dort ist Helligkeit leider ein knappes Gut). (und wenn man einmal den pixelgenauen sehr hohen Kontrast von OLED gesehen hat und die perfekte Helligkeitshomigenität und hohen Blickwinkel will man auf LCD (für Gaming und Filme) idR nicht zurück).
Und ohne VRR ist für die Kontinuität der Flüssigkeit auch nicht ideal. Und Inputlag ist mit fixen 60 Hz auch nur so mittelmäßig. Aber ja Geschmackssache je nach dem welche Vorlieben man hat und in was das Auge gut oder schlecht ist.

CryEngine 5

Do, 13.02.2025 19:43
Ja. Sieht aber trotzdem gut aus. :)

MfG
Rooter

Wie lange noch bis zum puren RT ohne Textur?

Mo, 10.02.2025 15:13
Orko:

Ich verstehe jetzt.
Deine Ausführungen waren sehr hilfreich - Danke :up:

MicroLED Displays

So, 09.02.2025 17:27
Hauptsächlich muss die EQE und Lebensdauer von blauen OLEDs gesteigert werden, dann werden microLEDs überflüssig. Und so weit weg ist man da aktuell in der Forschung/ Industrialisierung nicht. Mit PHOLED / TADF OLEDs scheint man schon fast so weit zu sein.

Wer ist der beste Wrapper im ganzen Land (2024)?

Fr, 17.01.2025 23:33
Ich habe nur bei Remember Me Wrapper getestet. Mit dgVoodoo 2 DX9 -> DX11 hatte ich eine bessere Performance als mit DXVK

OLED macht Fortschritte

Di, 14.01.2025 00:01
Zitat: Zitat von robbitop (Beitrag 13683894) Ich könnte mir vorstellen, dass die Lichtquellen unterschiedliche Tiefen haben ist für Dinge wie zB den Brennpunkt einer Linse nicht ideal.
Unwahrscheinlich, der Emitter-Layer ist schon vorher nicht Punktförmig sondern besteht aus mehreren Layern die eine Tiefe haben, da kommt jetzt "nur" 1 Layer mehr dazu.

DirectX12 Ultimate und DirectStorage - NextGen-Gaming auf dem PC

Sa, 11.01.2025 14:06
Neural Rendering in the DirectX API.
Cooperative Vector Support coming soon.

https://devblogs.microsoft.com/direc...t-coming-soon/

Neuer HDMI-Standard kommt

Sa, 11.01.2025 13:09
Das wird ja auch langsam nötig...

Nur dumm, dass (wie immer) HDMI schon beim herauskommen schon wieder veraltet ist: https://www.heise.de/news/HDMI-2-2-9...-10225837.html

Schon beim Herauskommen ist kein 8k 120Hz ohne Kompression möglich. 4k 240Hz zwar, aber kein 8k 120Hz. Für 100" Gaming-TVs brauchts nunmal 8k und 120Hz. Aber hoffentlich gibts trotzdem welche, dann eben mit Kompression. Sieht man eh nicht bei so einer niedrigen Kompression dann.

Monitore/TVs mit HDMI 2.2 wirds vermutlich aber auch frühestens 2026 geben. Auch wenn hier von "Geräten" mit HDMI 2.2 in Q3 2025 die Rede ist. Ich denke, TVs werden da frühestens 2026 aufgleisen und Monitore vlt. sogar noch später. (https://futurezone.at/produkte/hdmi-...ocol/402996180)

Intel Xe Super Sampling (XeSS)

Fr, 10.01.2025 23:50
Ich packe das mal hier rein, es tut sich was an der Frame Extrapolation Front:
- Originales Intel Paper (Dezember 2023, ExtraSS): https://dl.acm.org/doi/pdf/10.1145/3610548.3618224 -> G-Buffer guided warping
- Neues Intel Paper (Mai/Dezember 2024, GFFE): https://arxiv.org/pdf/2406.18551 -> G-Buffer free frame extrapolation

Hier GFFE noch mit Video (ExtraSS wird auch verglichen):
https://poiw.github.io/publication/gffe/

Fazit:
- GFFE zeigt deutliche Verbesserungen gegenüber ExtraSS
- Qualität der generierten Frames an sich ist "im guten ExtraSS Fall" nicht wirklich besser als bei ExtraSS (also nicht ein Qualitäts- und Bildschärfe Anstieg wie DLSS4 vs. DLSS3), aber viel weniger Artefakte, nur noch relativ wenige
- Qualität kann mit einigen Interpolations-Verfahren mithalten
- 1080p/30fps ist die Ground Truth. Dass es mit 30fps bereits so gut funktioniert ist noch erstaunlich

PC vs. Konsole: Nur Politik oder tatsächlich technische Gründe

Do, 09.01.2025 10:07
Ego-Shooter wären für mich ja so garnichts auf ner Konsole oder auch Third-Person. Da brauch ich M&T :smile:

Wer mit so Controllern gut ist und auch gut genug ist vom Empfinden na denn is doch alles gut.

Ich hab es aber lieber so das es gut wartbar ist und gut instandzusetzen geht und da kann man bei so einer Konsole einfach quasi nichts machen im Vergleich, das System ist so "geschlossen", da ist einfach 0 Modularität.

Ich hab in der Tat allerdings einen PS4 Controller hier und die Tage beispielsweise Giana Sister 2D gespielt, für sowas is son Controller schonn echt klasse :smile:

Viele Games sind darüber hinaus, auch am PC echt für Controller ausgelegt, SOTTR geht noch so eingermaßen, geübt am Controller würd ich das aber auch besser spielen denk ich.
So ein "Detroit: Become Human", "Heavy Rain" ist teilweise aber denk ich echt grausam umgesetzt, die werden save auch auf Controller ausgelegt sein.

Es sind denke ich viel mehr auch die Entwickler an denen es liegt, dürfte sich dann aber auch vielleicht mal bald ändern, die Hardware ist ohnehin dieselbe, da steckt ja nun schon ne Weile PC-Hardware drin in den Kisten.

Ich hab ehrlich gesagt nicht so richtig Lust dadrauf immer irgendwas wieder rauskramen zu müssen und anschliessen zu müssen.
So ne Tastatur und ne Maus, die haben ihren festen Platz, da gibt es auch keine Kontaktprobleme...
Ich musste mein PS4 Controller erst Reparieren, hab mir die passende Platine mit neuer USB-Buchse bestellt gehabt samt Flachbandkabel, die Buchse hatte nen üblen Wackler.
Bestimmt weil das so doof auf dem Stecker aufliegt wenn es angeschlossen ist..., benutz das Ding am PC halt mit USB-Kabel, hatte das einige Tage dauerhaft angeschlossen, das Thema halt "keine Lust an/ab -zu stöpseln...

Meine Rennwagensteuerungen die haben solche Verschleisserscheinungen jedenfalls nicht in solchem Ausmaß und das wird ja relative oft, abgestöpselt, losegeschraubt um dann den Platz zu Wechseln am Schreibtisch damit Maus und Tastatur wieder richtig frei sind zum Arbeiten.


mfG

AI/Machine Learning in Gaming

Do, 19.12.2024 08:42
Zitat: Zitat von Ben Carter (Beitrag 13317501) Ich denke, dass das recht gut und auch halbwegs einfach funktionieren kann.
Der NPC benötigt natürlich einen Hintergrund. Dieser kann auch über eine AI erzeugt werden, der gewisse Rahmenparameter übergeben werden (Allgemeines Setting, Charakter des NPCs, Job, Geschlecht, Intelligenz, etc. pp.).
Anhand dieser Parameter und der dann erzeugten (und ggf. überarbeiteten) Hintergrundgeschichte wird dann das eigentliche Charakter-Modell für die AI erzeugt. Dieses kann dann natürlich auch um die Ereignisse, die im Verlauf rund um den NPC geschehen erweitert werden. Somit reagiert der NPC auch immer aktuell. Das heißt, wenn sein Kumpel ermordet wurde, weiß er das auch und erzählt nicht, dass er von diesem zur Grillerei eingeladen wurde.

Kombiniert muss das Ganze natürlich noch mit gewissen Grenzen bzw. Bedingungen werden. Sodass ein NPC, der als Questgeber dient, auch tatsächlich die Quest anbietet und nicht nur anderes Zeug von sich gibt.

Das ganze Konstrukt einmal aufzubauen wird nicht leicht, aber ich kann mir gut vorstellen, dass das größtenteils in eine Engine, wie der UE, wandert und dann von den Entwicklern "nur noch" benutzt werden muss. Am Ende des Tages kann es, sofern auch die Sprachsynthese gut klappt, eine ganze Menge Arbeit sparen bei zugleich deutlich besseren NPCs.

Ich denke, alles in allem ist so etwas mit einem Model wie GPT-4 schon gut möglich. Schwieriger wird es sein, das ganze Model soweit runter zu brechen, dass idealerweise keine Cloud benötigt wird, um das Ganze zu berechnen, sondern es lokal basieren kann.

lg Ben Selbst wenn man einen relativ engen Gesprächsrahmen (Thema / Fakten / Antwortoptionen) vorgibt, könnte man die exakten gesagten Sätze generieren lassen. Schluss damit, sich 1000x die gleiche Geschichte über den Pfeil im Knie anzuhören.

Und noch besser: Damit könnte man auch Wissen glaubhaft in der Welt verteilen - auf der abstrakten Ebene lässt sich das ja gut modellieren.

NPCs lernen über ein Topic indem sie sich mit anderen NPCs darüber austauschen - was a) durch den Spieler beobachtet werden kann und viel wichtiger b) dann hinterher auch mit dem NPC zu dem Thema interagiert werden kann - ganz ohne, dass es wieder dutzendfach der Standardsatz ist.
Oder schlimmer - der NPC der eben noch über das Thema geschwätzt hat vom Spieler gar nicht darauf angesprochen werden kann/nichts davon wissen will, weil kein Dialog dafür existiert.

Es können sogar Charakter/Stimmung/Sitation einbezogen werden.

Geforce Now: Nvidia holt auf

Mo, 02.12.2024 14:00
Zitat: Zitat von r-or (Beitrag 13660200) Das wirft auch ein anderes Licht auf DLSS und frame interpolation. Da koennen sie sicher extrem an GPU power sparen, und den meisten Leuten faellt es eh nicht auf, zumindest denen, fuer die streaming lag akzeptabel ist. GeforceNow startet ganz einfach die Windows-Version der jeweiligen Spiele, du kannst die Grafikeinstellungen ganz gleich wie auch bei einer lokalen Version selbst konfigurieren.