3DCenter Diskussionsforen

Intel - Arrow Lake Review-Thread

Prozessoren und Chipsätze - vor 10 Minuten 3 Sekunden
Computerbase hat schon das Januar BIOS genutzt Performance hängt stark vom Spiel ab.
Schnitt bleibt unter 14900k.

https://www.computerbase.de/artikel/...sts_in_spielen

OLED macht Fortschritte

Neue Beiträge im Forum Technologie - vor 1 Stunde 1 Minute
Zitat: Zitat von aufkrawall (Beitrag 13669676) Ja, und da lockst du in Shootern i.d.R. ein Ziel in Bildmitte oder flickst auf einen bestimmten Punkt.
Natürlich ist mehr = besser und das auch wahrnehmbar. Aber imho nicht so viel, dass es einen großartig erwähnenswerten Unterschied macht, wenn man es nicht künstlich provoziert. Bei Spielen wie Overwatch oder Marvel Rivals gibt es sehr viel Rumgehopse, viel Nahkampf oder Target Switching (z.B. als Heiler, der fünf Leute gleichzeitig im Blick behalten muss). Ein Counterstrike-Pro hat afaik im Schnitt eine Sense von 60cm/360°, ein Overwatch-Tank-Spieler 16cm. Da ist die Bewegtschärte schon hilfreich, um a)den Überblick zu behalten und b) nicht gaming-sick zu werden. Beides ist mir wichtiger als die letzten 10ms Latenz.

AMD - 800er-Chipsätze und PCIe M.2

Prozessoren und Chipsätze - vor 1 Stunde 55 Minuten
Zitat: Zitat von Lawmachine79 (Beitrag 13649952) Ah macht Sinn. Wobei ich mich frage, wo die 8x 3.0er-Lanes meist landen. 4x davon sind schon mal SATA, 2 LAN/WLAN, 2 3.0 frei.

AMD - Ryzen 9000 Review-Thread

Prozessoren und Chipsätze - vor 10 Stunden 14 Minuten
ah OK cool es gibt es also auch bei Spielen das man ohne smt besser da steht als mit. Bei arbeits Software gibt es auch so ein Fall. Wobei das hat sich gewandelt. Aber dennoch ab einer gewissen Anzahl kann man smt bzw ht abschalten und die Leistung steigt dennoch nach oben. Genau das wissen intel und AMD auch und genau darum werden die kerne auch nicht massiv mend nach kurzer Zeit.

Bessere Monitore?

So sieht das bei meinem Polaris aus wenn der zu stark undervolted ist und im Dual Monitor Betrieb läuft und auf dem Hauptschirm 3D Last läuft.

Intel - Arc B580 Review-Thread

Grafikchips - Fr, 20.12.2024 12:35
Zitat: Zitat von ryan (Beitrag 13669298) Der Test ist nicht schlecht: https://ascii.jp/elem/000/004/241/4241164/

3 Auflösungen mit jeweiligem Verbrauch.

Indiana Jones gibt es dort auch: https://ascii.jp/elem/000/004/134/4134483/img.html

Ein weiteres Extrembeispiel wäre Stalker 2 1440p: https://ascii.jp/elem/000/004/134/4134496/img.html


12GB können schon sehr nützlich sein. Sind Sie auch, merke ich jedes mal bei meiner 7600XT 16GB, egal ob nativ WHQD oder FHD hochskaliert. Da macht dann auch das kleine Speicher Interface nichts, wenn der der VRAM nicht überläuft.

nVidia - GeForce RTX 4090 Review-Thread

Grafikchips - Fr, 20.12.2024 12:25
Mutmaßlich binned GPU plus ~40 °C unter Volllast, baby! :naughty:

MfG
Raff

Intel - Sammelthread: ARC Alchemist Infos , Reviews etc.

Grafikchips - Do, 19.12.2024 22:14
Könntest du mal testen, ob Fortnite mit dem DirectX 11 Performance-Modus (Texturen und Meshes @low) läuft?
Dass es eine längere Zeit zig Shader Compile-Ruckler gibt, wäre normal. Dann sollte es sich aber bei sehr hohen fps eingelaufen haben.

VRAM-Auslastung aktueller Spieletitel

Grafikchips - Do, 19.12.2024 12:55
Zitat: Zitat von The_Invisible (Beitrag 13668714) Das mit "mehr VRAM" bringt doch nichts, das hat AMD schon seit 4 Jahren mit der 6800 mit 16gb zum kleinen Preis. Die Mehrheit ist VRAM egal, einfach mal nach Asien sehen, dort verkauft sich die 4060 wie blöde.

@Indy
Gestern mal mit DLAA versucht, komme dann auf knapp 22,5GB. Allerdings würde ich das Spiel nicht als Faktor sehen da der Texturpool einfach statisch ist. Die UE5 würde da gerade mal die Hälfte verlangen. Wahrscheinlich hast Du Recht. Doch wenigstens im AI Bereich würde es einiges ändern und das könnte ein Anfang sein. AMD ist in meinen Augen in den letzten Jahren hier eher einen Schritt zurück gegangen und hat Nvidias Pfad beschritten. Wahrscheinlich weil sie gesehen haben, dass es ihnen nichts bringt und Nvidia damit durchkommt.

AI/Machine Learning in Gaming

Zitat: Zitat von Ben Carter (Beitrag 13317501) Ich denke, dass das recht gut und auch halbwegs einfach funktionieren kann.
Der NPC benötigt natürlich einen Hintergrund. Dieser kann auch über eine AI erzeugt werden, der gewisse Rahmenparameter übergeben werden (Allgemeines Setting, Charakter des NPCs, Job, Geschlecht, Intelligenz, etc. pp.).
Anhand dieser Parameter und der dann erzeugten (und ggf. überarbeiteten) Hintergrundgeschichte wird dann das eigentliche Charakter-Modell für die AI erzeugt. Dieses kann dann natürlich auch um die Ereignisse, die im Verlauf rund um den NPC geschehen erweitert werden. Somit reagiert der NPC auch immer aktuell. Das heißt, wenn sein Kumpel ermordet wurde, weiß er das auch und erzählt nicht, dass er von diesem zur Grillerei eingeladen wurde.

Kombiniert muss das Ganze natürlich noch mit gewissen Grenzen bzw. Bedingungen werden. Sodass ein NPC, der als Questgeber dient, auch tatsächlich die Quest anbietet und nicht nur anderes Zeug von sich gibt.

Das ganze Konstrukt einmal aufzubauen wird nicht leicht, aber ich kann mir gut vorstellen, dass das größtenteils in eine Engine, wie der UE, wandert und dann von den Entwicklern "nur noch" benutzt werden muss. Am Ende des Tages kann es, sofern auch die Sprachsynthese gut klappt, eine ganze Menge Arbeit sparen bei zugleich deutlich besseren NPCs.

Ich denke, alles in allem ist so etwas mit einem Model wie GPT-4 schon gut möglich. Schwieriger wird es sein, das ganze Model soweit runter zu brechen, dass idealerweise keine Cloud benötigt wird, um das Ganze zu berechnen, sondern es lokal basieren kann.

lg Ben Selbst wenn man einen relativ engen Gesprächsrahmen (Thema / Fakten / Antwortoptionen) vorgibt, könnte man die exakten gesagten Sätze generieren lassen. Schluss damit, sich 1000x die gleiche Geschichte über den Pfeil im Knie anzuhören.

Und noch besser: Damit könnte man auch Wissen glaubhaft in der Welt verteilen - auf der abstrakten Ebene lässt sich das ja gut modellieren.

NPCs lernen über ein Topic indem sie sich mit anderen NPCs darüber austauschen - was a) durch den Spieler beobachtet werden kann und viel wichtiger b) dann hinterher auch mit dem NPC zu dem Thema interagiert werden kann - ganz ohne, dass es wieder dutzendfach der Standardsatz ist.
Oder schlimmer - der NPC der eben noch über das Thema geschwätzt hat vom Spieler gar nicht darauf angesprochen werden kann/nichts davon wissen will, weil kein Dialog dafür existiert.

Es können sogar Charakter/Stimmung/Sitation einbezogen werden.

AMDs FidelityFX Super Resolution 2.0 und 3.0 (FSR 2.0, FSR 3.0)

Das ganze gleich mal mit space Marine 2 als drop in versucht.

dlls ausgetauscht und sofortiger crash, da Easy Anti-Cheat eingreift.
Alles nach Plan 😁

Zitat: Zitat von DrFreaK666 (Beitrag 13666582) FSR 3.1.3 ist draußen, aber die Änderungen sind wohl mit der Lupe zu suchen
https://gpuopen.com/fidelityfx-super-resolution-3/

https://youtu.be/DVrIr7L7zps
Das Video hat nichts mit der Meldung zu tun ^^

Neuer HDMI-Standard kommt

HDMI 2.2 oder HDMI 3.0? Neuer Standard wird auf der CES 2025 vorgestellt!

Zitat:
  • HDMI 2.2 wird auf der CES 2025 vorgestellt.
  • Höhere Bandbreite für höhere Auflösungen und Bildwiederholungsraten.
  • Neue HDMI-Kabel sind erforderlich.
  • Fokus auf moderne Displays und Inhalte.
Zitat: Parallel steht auch die Ankündigung der neuen Nvidia Grafikkarten der RTX 50er-Serie, sowie der AMD-Grafikkarten der RX 8000-Reihe auf der CES 2025 an. Diese sollen Gerüchten zufolge die neueste DisplayPort 2.1-Schnittstelle mit bis zu 80 Gbit/s Bandbreite (UHBR20) unterstützen. Einige Publikationen spekulieren, dass die neue HDMI-Version „HDMI 2.2“ bzw. „HDMI 3.0“ auch in den neuen Grafikkarten Platz finden könnte. Da die Einführung von HDMI 2.0 und HDMI 2.1 seitens der HDMI Licensing dann doch eher katastrophal verlaufen ist (und immer noch für großes Chaos sorgt), würden wir nicht allzu viel darauf verwetten. https://www.4kfilme.de/hdmi-2-2-oder...5-vorgestellt/

Intel Xe Super Sampling (XeSS)

Sehe keinen Unterschied, geht bei 4k 50% immer noch hoffnungslos unter gegen DLSS Preset E bez. Stabilität und Bildschärfe.

AMD/ATI - Radeon RX 7000 Serie: Verfügbarkeit und Preise

Grafikchips - Fr, 13.12.2024 19:16
Ist es nicht öfter so das sich die GRE nicht absetzen kann?
Indiana Jones das neue Beispiel.

https://www.computerbase.de/artikel/...d_und_ultra_hd

nVidias Deep Learning Super Sampling - DLSS 2.x und DLSS 3

Manche Effekte wie volumetrische Wolken in UE können auch eine Art Aliasing mit Objekten davor verursachen. Allerdings sieht das in Indy nicht danach aus, eher nach billigster 2D-Bild-Skybox wie aus Serious Sam 1. ;D

DLSS versagt allerdings auch im Lego-Modus von Fortnite unschön, die feinen Linien zwischen den Steinen flimmern sich extrem einen ab. Das sieht mit TSR besser aus.
Etwas ähnliches gibts bei CP77 auch mit den Rillen zwischen Betonplatten zu sehen, was RR deutlich besser handhabt als das reguläre DLSS.

Gaming auf 8k

Crysis Original in 8K


Die Details sind schon geil, da kommen 95% der heutigen Spiele immer noch nicht ran.

Crysis lief mal auf meiner Radeon X1950 XTX 512 MB ziemlich gut. Heute ist 8K spielbar und möglich, immerhin 👍

AMD/ATI - Radeon RX 7600 Review-Thread

Grafikchips - Di, 10.12.2024 11:22
7600XT schlägt sich mit der 3060 rum, dennoch massiv besser vs 8 GB Karten.

https://www.pcgameshardware.de/India...lease-1461366/

AMD/ATI - Radeon RX 6XXX Verfügbarkeitsthread

Grafikchips - Mo, 09.12.2024 10:14
309€ für die 6750XT ist ein sehr guter Deal.

Für die schnellere RX6800 habe ich vor vier Jahren deutlich mehr gezahlt. Die RDNA2 uArch ist dann halt auch schon 4-5 Jahre alt, aber immer noch gut.

How do graphics cards work? Exploring GPU architecture

Grafikchips - Fr, 06.12.2024 18:02
Wow danke für den Link. Sehr gut. Werde mir auch die anderen Videos des Kanals ansehen.
Inhalt abgleichen