Forenneuigkeiten

Freesync geht nicht mehr in Games

Grafikkarten - Mi, 08.01.2025 02:37
Ich denke mal am Besten macht man es so wie in meinem Screenshot

Limit entsprechend gesetzt, ich hab nen 165Hz 2560x1440er Monitor von AOC
Lasse den bei 120 laufen und enstprechend FPS-Limit auf 120, fertig.

Wobei ich auch gegenteiliges zu Anti-Lag gelesen habe, das soll wohl auch gerne mal schlechter laufen wenn es aktiviert ist.

Mir schein das so quasi das Equivalent bei NVIdia zu sein zu Pre-Renderes Frames, also "Reflex" mit der angeblichen Latency-Optimierung.
"Ein" heisst soviel wie "1 Bild" und wenn das hier genauso ist, von der Bedeutung her dann macht da einzuschalten natürlich Sinn.

Mehr Pre-Rendered Frames treiben halt eher in's CPU-Limit und 0 wird teils nicht möglich sein, also "Ultra" was zu richtig fiesen Stotteren führt bei Nvidia.
"Aus" wäre bei Nvidia an der Stelle ja soviel wie, die Anwendung klabastert sich das selber aus mit dem Treiber und dann steht es oft wohl auf 3 oder 2.

Im Prinzip will man eigentlich immer die "1" haben, so wenig CPU-Limit wie möglich, heisst gleich soviel Ressourcen der CPU frei für auch Eingabenverarbeitung durch so wenig CPU-Limits wie irgendmöglich.

So oder so bringt das garnichts, wenn das FPS Limit nicht ausreichend ist sodass die Graka nicht gedrosselt ist, weil se Takt und Spannung immer auf Vollgas hat.
Im GPU-Limit soweit möglich kann an der CPU nunmal nichts optimiert werden, die muss nunmal liefern und mit mehr Pre-Renderes Frames die last Erhöhen mit mehr CPU-Limits is nunmal käse und im Gegenteil eher schlechter

Enhanced Sync soll ja nicht nur Tearing minimieren laut beschreibung sondern auch Latenz, was aber auch mal wieder keinen Sinn ergibt, denn FPS und darum geht es dabei ja, mehr FPS sind eben nicht gleich kürzere Reaktionszeit der Eingabenverarbeitung.
Das geht ja nunmal nicht, mehr FPS macht die Kette länger bis zur Umsetzung und nicht kürzer zumal die CPU ja in mehr Limits läuft und das dadurch zusätzlich noch erst Recht Lags verursacht.
Daher hab ich das aus, ist also das Equivalent zu VSync "schnell" bei NVidia bzw "fast", da hat man mit nem FreeSync Monitor sogar Probleme mit G-Sync compatible obwohl man die FPS entsprechend limitiert xD

Edit:
Radeon Boost, scheint mir ein Equivalent zu sein von "Multi Res Shading", Shadow Warrior 2 unterstützte das mit NVidia beispielsweise
25~30 Prozent sollte man eigentlich machen können, das fiel in SW2 mit ner GTX 1060 auch nicht weiter auf, hat aber mit gescheitem FPS-Limit gut die Leistungsaufnahme etwas gesenkt oder eben die Leistung ohne Limit etwas verbessert.

mfG
Miniaturansicht angehängter Grafiken  

Undervolting

Grafikkarten - Mi, 08.01.2025 02:18
Also ich nehm ja lieber den MSI Afterburner für sowas, Screenshot mal im Anhang mit meiner PowerColor im Referenzdesign der RX 5700.

Der AMD Treiber, da kann man keine Einstellungswerte "richtig sehen" find ich im Vergleich.
Beim AB kann man das Quadrat anklicken und kann sich Notizen machen.

Stresstest hab ich Time Spy mit 20 Loops genommen also 3Dmark advanced über Steam.
Mir schein auch im AMD-Treiber das des dort auch nur auf das eine Game angewendet ist, also richtig stable ist es ja wenn es global so geht stabil ohne Abstürze und Bildfehler.

Afaik kann man wohl tatsächlich so eine 5700 zu einer 5700 XT umflashen, macht nur bei meiner Karte wohl keinen Sinn, vermute ich mal.
Mehr UV geht nicht wirklich und der Kühler schein mir auch am Ende zu sein, denn mehr als 83°C unter Vollast sollten es eher ja nicht werden, wobei die andererseits unter Teillast mit FPS-Limit vielleicht durchaus mehr packt und so noch effizienter sein könnte.
Temp und PowerLimit dürften das dann regeln, das die ansonsten weniger Takt anlegt und weniger Spannung ?

Vielleicht hat ja jemand ne Idee dazu, welches Bios passen könnte und ob sich das Risiko lohnt ?

Sieht aus wie das Kärtchen hier
https://www.techpowerup.com/gpu-spec...-rx-5700.b7149

mfG
Miniaturansicht angehängter Grafiken    

Wie sieht Eure PC-"CPU-Plattform-Laufbahn" aus?

Neue Forenbeiträge - Mi, 08.01.2025 02:00
Inspiriert gerade vom Thread von "THUNDERDOMER"
https://www.forum-3dcenter.org/vbull...ad.php?t=43813

Aaalso fang ich mal an, was ich noch zammkriege

- Intel Sockel "5?" 486 DX2 66 mHz
- Intel Sockel 7 Pentium 133 mHz oder 166 mHz hatte ich auf jeden Fall mal, nicht unbedingt chronologisch, aus Retrozwecken, zeitgenössischen Retro
- Intel Slot 1 Pentium 2 233 mHz (vermute ich)
- Intel Slot 1 Pentium 3 600e 600mHz
- Intel Slot 1 Pentium 3 750 mHz
ABit BE6, davor weiss ich nicht, welche Hersteller und Modelle
- AMD Sockel A Athlon XP 2600+ (thunderbird?)
- AMD Sockel A Athlon XP 3200+ (barton)
Hauptsächlich Asrock Boards gehabt, irgendwas KMV2 oder KVM ? :-)
- AMD AM2/AM2+ Athlon x64 X2 6000+
Gigabyteboard
- AMD AM2/AM2+ Phenom I Quadcore, damit hab ich ein Board "versägt" beim Undervolting, weil die TDP problematisch war, müsste danach dann nen Asusbaord geworden sein später auf jeden Fall :freak:
- AMD AM2/AM2+/AM3 Phenom II X4 940BE
- AMD AM3+ Phenom II X6 1055T
- AMD AM3+ FX 8120
- AMD AM3+ FX 8300
- Intel 1155 "?" i7 2600 (Gigabyteboard)
- AMD AM4 Ryzen 5 2600X (seither MSI Board)
- AMD AM4 Ryzen 7 2700X, parallel 3400g dazubekommen (Asusboard bei letzterem)
- AMD AM4 Ryzen 7 5800X, parallel 3400g aufgerüstet auf 5600X

Falls sowas doch schon existiert, kann es ja verschoben werden :-)

mfG
Kategorien: 3DCenter Forum

AMD - Liefert ein A320M-K eine ausreichende Stromversorgung für den Ryzen 5600X?

Prozessoren und Chipsätze - Di, 07.01.2025 22:56
Zitat: Zitat von T86 (Beitrag 13675991) falls das 3000er Kit über ist und du das veräußern willst bekunde ich schon mal Interesse.
Den 3400g bekommt man auch gut los da er Windows 11 fähig ist
Im Gegensatz zum 2400g der eig identisch ist. Hast PN
Der ist in der Tat flott weggegangen über eBay :-)

@Lehdro:
Danke für die Mühen, aber da besorge ich mir dann doch lieber einfach ein kleines B450er Board mit eventuellem Windows-Lizenzärger :smile:

mfG

Nvidia App in Kombination mit manuellem Overclocking möglich?

Neue Forenbeiträge - Di, 07.01.2025 20:56
Hey Leute, ich würde gerne die Nvidia App nutzen um die bald kommende DLSS-replacement Funktion zu nutzen. Leider streitet sich die App in meiner Erfahrung aber mit dem Afterburner in dem ich meine manuellen OC-offsets eingetragen habe :frown:. In der Nvidia App selbst gibt es leider nur das sehr dürftige "automatische OC". Gibt es eine Möglichkeit die Nvidia App gleichzeitig mit manuellem offset-OC zu verwenden?

Ich bedanke mich bereits im Vorraus für jede Hilfe :)
Kategorien: 3DCenter Forum

Suche gutes Ladegerät für 18650-Akkus

Neue Forenbeiträge - Di, 07.01.2025 18:35
Kann einer ein gutes Ladegerät für 18650er Akkus empfehlen?
Bei Amazon gibt es zig 20€ Geräte die alle nach Billiger China Ware aussehen.
Will mir beim Laden keine sorgen machen müssen das mir ein Akku wegen Überladung hoch geht.
Kategorien: 3DCenter Forum

SMS-App für Android gesucht

Neue Forenbeiträge - Di, 07.01.2025 18:06
Hey Forum,
Fahre schon Jahre ein oneplus 8 pro, und habe keine SMS App.

Habe aktuell next SMS, wie nicht zu ende programmiert.

Ich will was ausgereiftes, wie whatsapp, das funzt.


Grüße Dich Forum




Daniel
Kategorien: 3DCenter Forum

PC vs. Konsole: Nur Politik oder tatsächlich technische Gründe

Neue Forenbeiträge - Di, 07.01.2025 09:38
Kurze Einleitung: Ich bin PC-Spieler von 1992 weg. Seit dem hatte ich bis 2015 durchgehend Gaming-PC's. Danach Umstieg auf PS4/PS4 Pro und PS5, da ich am PC auf Linux gesetzt habe. Spieletechnisch hab' ich auf der Konsole typischerweise die Spiele gespielt, die es auch für den PC gibt.

Das größte Problem für mich: Der notorische Zwang zum Controller auf der Konsole, inklusive sehr beschränkter Konfigurationsmöglichkeiten, was für mich als Linkshänder besonders schwer wiegt.

Nicht falsch verstehen, ich mag Controller durchaus. Es gibt genug Spiele, die ich lieber mit Controller zocke, als mit M&T (Witcher 3, verschiedene Arcade-Racer, oder Jump 'n' Runs). Daher hab' ich mir auch für den PC wieder einen Dualsense-Controller zugelegt (wird von Sony voll unterstützt und sogar mit Software versorgt).

Ein Aha-Erlebnis war für mich Everspace 2. Kennengelernt hab' ich's auf der PS5. Dort konnte ich zwischen 4 Controller-Layouts wählen und ein bischen an den Achs-Empfindlichkeiten rumspielen. Es ging, aber eher schlecht als recht. Mir gefiel ES2 aber trotzdem dermaßen gut, dass ich's mir auch für den PC zugelegt habe (auch in Hinblick besser mit M&T zocken zu können).

Und jetzt der Knaller: Dasselbe Spiel, mit demselben Controller lässt es am PC zu, den Controller vollkommen frei zu konfigurieren. Noch mehr, es erkennt ihn auch als PS5-Controller und nutzt den adaptiven Trigger (ziemlich sonyeigen). So, für mich nun richtig konfiguriert, kommt richtig Spaß auf. Zielen ist kein Krampf mehr, sondern schnell und präzise. Derzeit gibt's für mich keinen Grund mit M&T zu spielen.

Wieso sind Konsolen da so restriktiv? Die Software gibt's ja offensichtlich. Die werden das ja nicht zusätzlich am PC eingebaut haben.

Nächster Punkt: PS5 unterstützt keine Soundausgabe während Spielen über BT. Am PC kein Problem.

Ebenso die PS5 erkennte Maus & Tastatur. Für's internetbrowsen kann man das sogar verwenden. Nicht aber in Spielen. Warum? Auch hier gibt's die Software-Routinen dahinter.

Ist das bloße Politik? Oder gibt's hinter diesen Einschränkungen wirklich technische Gründe?

Grüße,
Zeph
Kategorien: 3DCenter Forum

nVidia - RTX 5000 Verfügbarkeitsthread

Neue Forenbeiträge - Di, 07.01.2025 07:55


  • Geforce RTX 5090 startet ab 2.329 Euro am 30. Januar 2025
  • Geforce RTX 5080 startet ab 1.169 Euro am 30. Januar 2025
  • Geforce RTX 5070 Ti startet ab 879 Euro im Februar 2025
  • Geforce RTX 5070 startet ab 649 Euro im Februar 2025


Alles zum Thema Vorbestellungen(FE und Customs) und Verfügbarkeit gerne hier rein.

edit: Preorder der FE hier: https://www.nvidia.com/de-de/geforce...rds/50-series/
Kategorien: 3DCenter Forum

Sparsames µATX- oder nano-ITX-System für Office und Multimedia bis 1000 €

Neue Forenbeiträge - Mo, 06.01.2025 18:32
Vorzugweise mit einer sparsamen aber potenten iGPU / onboard-GPU. Bis 1000€. USB 4 wäre ein Nice-To-Have, aber 200€ Aufpreis möchte ich dafür nicht zahlen. Kühl und leise soll der PC sein und wenig Strom verbrauchen. Gibt es eigentlich mittlerweile solche Lösungen, dass man eine dedizierte GPU verbaut und dann zwischen iGPU und dedizierter GPU hin- und herschalten kann, also die dedizierte GPU bei Bedarf "ausschalten" kann? Kompakt soll das System sein. Einen Blu-Ray Brenner würde ich trotzdem gerne verbauen können. Einsatzgebiete? Das übliche: Multimedia, Office, Matlab, Python, einige "MINT"-Tools (unter anderem einiges von Autodesk).
Kategorien: 3DCenter Forum

Frame Generation mit AFMF und FSR3 Mods (Fokus auf AMD)

Grafikkarten - Mo, 06.01.2025 18:11
Zitat: Zitat von Colin MacLaren (Beitrag 13677341) Aktuell bin ich wieder mit Ati unterwegs, daher wollte ich den Thread hochholen und fragen, ob dieser Guide noch aktuell und das NonplusUltra ist oder nur Uniscaler mittlerweile genügt. Und was ist eigentlich der Unterschied zwischen den Lösungen von LukeFZ und DLSSEnabler? Und kann man irgendiwe NVIDIa Reflex auf AMD Anti Lag 2 mappen? Es sollte mit älteren Umsetzungen von DLSS in Spielen gehen, bei neueren gibt es wohl wieder neue tiefere GPU checks die bisher nicht umgangen werden konnten, siehe z.B. hier: https://github.com/cdozdil/OptiScale...ent-2561691377

Gibt leider keine Updates von den verschiedenen Mods bis auf https://github.com/FakeMichau/fakenvapi

Multifunktionsdrucker für meine Eltern

Neue Forenbeiträge - Mo, 06.01.2025 15:05
Hallo, der alte Canon MP560 macht es leider nicht mehr bei meinen Eltern. Der hatte schon vor etwa 1-2 Jahren Probleme gemacht wo ich den Druckkopf gereinigt hatte und es wieder zum laufen gebracht hatte. Jetzt will es wieder nicht und auch Druckkopf reinigen hat nicht geholfen, daher ein neuer muß her.

Was wichtig sein sollte:

- Scannen und Drucken
- Farbe unwichtig, zu 99+% wird Schwarz gedruckt (Farbpatronnen waren seit Jahren leer
- Möglichst günstige Patronen.
- Wlan.

Der Drucker wird eher selten genutzt, meine Eltern drucken mal so 1x in 2-3 Wochen Dokumente aus. oder Kopieren was über den Scanner.


alles andere nicht so wichtig. Irgendwelche Empfehlungen?
Kategorien: 3DCenter Forum

8 GB oder 16 GB für Office-Rechner?

Neue Forenbeiträge - Mo, 06.01.2025 12:39
Grüße in die Runde,

das Support-Ende von W10 lässt mich nun aktiv werden, mal zwei PC-Systeme zu aktualisieren:

- Sys 1: NB von 2012, i3, 8GB Ram, 240GB SSD
- Sys 2: Fest-PC von Schwiegermutter mit Linux (hat noch Win7 Aufkleber drauf)

Generell weiß ich ja was ich will, bin mir nur in Sachen Ram unschlüssig. Müssen es 16GB sein, oder reichen auch weiterhin 8GB?

Auf den Kisten wird quasi nix gemacht, außer office, Steuererklärung, Datenverwaltung vom NAS.

Kann man heute noch guten Gewissens zu Intel i5-6xxx oder 7xxx CPUs greifen, auch was die Aussicht in die Zukunft angeht? Wäre schon ganz cool, wenn die Systeme wieder eine Laufzeit von ca 5-10 Jahren abdecken.

Danke für etwas input :)
Kategorien: 3DCenter Forum

VIA - Zhaoxin x86-Prozessoren

Prozessoren und Chipsätze - Mo, 06.01.2025 02:14
This BIOS (KunlunTech) reports 3.2 GHz CPU while on the youtube review, the "ASUS" BIOS reported 3.6GHz.

However under Windows 11, I get the exact same clocks as the youtube review: CPUZ reports only 3GHhz, then Task Manager reports 3.6GHz as "Base clock" with a maximum real case clock when overloaded of exactly 3.45GHz.
So it seems the CPU is the same.

According to Zhaoxin website specs, there are only 3.6 and 3.7 models for the desktop (plus 3.5 for SODIMM).
And then on taobao there is the chart below that specifies the standard (base?) and peak values for each model, stating the 3.6 is peak clock with base of 3.0 and the 3.7 is also peak but with base of 3.2.

So, it seems to me the "ASUS" board chooses to report the peak clock and KunlunTech board chooses to report the standard clock. On software side, it seems CPUZ chooses to report the standard clock and Task Manager the Peak clock.
Miniaturansicht angehängter Grafiken    

PCIe Controller NVMe mit Switch

Neue Forenbeiträge - So, 05.01.2025 21:07
Hallo Community,

inzwischen sammelt sich die eine oder andere NMVe SSD. Da die Plätze auf dem Mainboard beschränkt sind, habe ich mich mal nach einem Controller für M.2 SSD umgeschaut.

Leider gibt es nur Controller welche für jede NMVe 4 PCIe Lanes benötigen. Mir ist auf meiner Sucher nichts über den Weg gelaufen wo es anders ist. Mir ist klar, dass ich für volle Leistung natürlich alle 4 Lanes benötige.

Gibt es keine Controller die einen Switch integriert haben. Sprich, je nachdem worauf man zugreift werden die PCIe Lanes gelegt. Sollte doch möglich sein. Gibt es sowas?
Kategorien: 3DCenter Forum

Verkleinern – Eindruck Z50 II

Neue Forenbeiträge - So, 05.01.2025 14:20
Gekauft als kleinere, leichtere Alternative wenn ich keine Spiegelreflex mitnehmen möchte. Verarbeitung fühlt sich in an wie bei der gehobenen Nikon-Einsteigerklasse: Alles schön klein und leicht, natürlich nicht auf Profi-Niveau aber robust genug. Die Kamera wirkt mir auf Anhieb sympathisch und trotz der fast schon zierlichen Bauweise liegt die Z50 II noch gut in meiner Hand. Schön auch, dass die wichtigen Knöpfe da liegen wo ich es von meinen Spiegelreflex-Kameras gewohnt bin. Das Trageband anzubringen ist für mich immer etwas fummelig, hat hier aber recht gut geklappt. Eine Verbindung mit der Snapbridge-App aufzubauen war weniger umständlich als ich es von älteren Nikon-Kameras gewohnt bin. Die Menüstruktur der Z50 II ist etwas anders als bei meinen Spiegelreflex-Modellen, finde mich aber schnell zurecht. Es gibt auch Features die ich so nicht in der Klasse erwartet hätte, neben einem Staubfilter (den ich allerdings noch bei keiner Kamera probiert habe) auch ein Pixelmapping um tote Sensor-Pixel wegzurechnen, und Videofeatures bis hin zu 10 Bit, wobei ich die Z50 II nur für normale Fotos und nicht zum Filmen gekauft habe.

Angesichts der Größe und des Preises der Z50 II gibt es nur einen Karten-Slot und keine Sensor-Stabilisierung, auch keine Sensor-Reinigung mit Ultraschall-Vibration. Hier hoffe ich dass der Sensor von vornherein staubabweisend ist. Leider liegt der Sensor offen wenn man das Objektiv abnimmt, warum wird nicht der Verschluss vorgehängt? Natürlich ist es ein Crop-Sensor. Vorteil sind die kleinen Objektive die sich damit nutzen lassen. Die sind so leicht, man denkt Nikon hat vergessen in die Objektive das Glas einzubauen.

Das 16-50 ist so klein, dass die Z50 II damit fast noch wie eine Kompaktkamera wirkt. Im Zoombereich etwas weitwinkliger als das typische 18-55-er aus der Spiegelreflexzeit, freue mich aber über den weiteren Winkel.

Das 50-250 klackert wenn man es schüttelt und machte mir erst Sorgen, es klingt als sei innen was lose. Handelt sich um die interne Aufhängung zur optischen Stabilisierung. Sofern das Objektiv an der Kamera aktiv ist, klackert es auch nicht mehr. Den Brennweitenbereich von 50 bis 250 finde ich praktischer als traditionelle 70-300-er Zooms.

Beim Weitwinkelzoom 12-28 sind die Brennweiten nicht markiert, es gibt Zoom-by-Wire. Das kann schon nerven weil sich somit die Brennweite nicht voreinstellen lässt bevor man die Kamera zum Auge hebt. Dann wieder ist das Objektiv so kompakt dass sich kaum Platz für die Brennweiten-Zahlen gefunden hätte. Zoom und Fokus sind rein intern gelöst, damit sollte es im Freien gut einsetzbar sein ohne dass man eindringenden Staub befürchten müsste. Allezu große Untersuchungen habe ich bisher nicht gemacht, im ersten Eindruck scheint es Nikon gelungen, die Z-Mount-Objektive so zu berechnen dass sie selbst am Bildrand noch ziemlich scharf sind. Vielleicht ist die Auflösung auf 20 Megapixel ausgelegt und würde bei denkbaren späteren DX-Kamera Schwächen zeigen. Die Bildwirkung erscheint mir weitgehend neutral.

Habe auch ein Vollformat-Objektiv gekauft, das 40 mm f/2. In der Spezialausführung mit silbernem Ring und altertürmliche Riffelung auf dem Fokusring. Wie erwartet ist das Objektiv ab Blende 2,8 knackscharf, wobei ich im Nahfokus noch etwas weiter abblende. Der Nahfokus ist ziemlich geil, knapp 30 Zentimeter! Hätte vielleicht doch die Standard-Ausführung kaufen sollten denn die Spezialausführung erzeugt auf der Z50 II einen Stilbruch und wäre wohl eher für Zf oder Zfc gedacht.

Bei den Objektiven bleibt gewohnt nervig, dass Nikon sich nicht auf eine überschaubare Anzahl von Standard-Objektivdeckel-Durchmessern einigen kann und man praktisch für jedes Objektiv den genau passenden Deckel braucht. Seltsam ist das Fehlen von Streulichtblenden. Man könnte eine Drittanbieter-Blende in das Filtergewinde schrauben.

Autofokus: Sehr viele Modi. Taste mich da langsam voran. Bisher funktioniert die automatische Motiverkennung recht gut. Genauere Analysen gibts später in einem Erfahrungsbericht.

Bildqualität: Anscheinend hat Nikon den Dreh raus! 20-Megapixel-Crop-Sensor, das kenne ich von der D7500. Ein offenbar ziemlich ähnlichet Sensor, erweitert mit Phasendetektoren für den spiegellosen Autofokus, wird in der Z50 II eingesetzt. Im Vergleich zur D7500 wird 4K-Video nun auch mit 60 statt nur 30 fps geboten, aber 4K erzwingt weiterhin einen Center-Crop. Offenbar ein Limit der Sensor-Auslese-Geschwindigkeit.

Standbilder: Raw-Ausgabe scheint noch mal mehr Dynamik zu bieten als ich von der D7500 gewohnt bin. Das Rauschverhalten scheint ebenfalls ein wenig besser, vor allem die Rausch-Qualität: Es gibt kaum noch grobe Flecken. Es gibt auch beim extremen Aufdrehen der Helligkeit in Lightroom kaum grobe Streifigkeit und während im Schatten sich manchmal noch eine grüne oder violette Verfärbung zeigt, ist das wirklich nur bei absurdem Pushen zu merken. Irgendwie rechnet die Kamera wohl aus dem Raw die bekannten groben Farbflecken so gut wie es geht heraus.

Jpegs sind richtig gut. Die Z50-II-Rauschreduktion vermatscht weniger als bei den Nikons die ich sonst nutze, die Belichtungsmessung arbeitet allgemein so gut dass ich mich schon darauf freue, Jpegs direkt aus der Kamera zu nutzen. Natürlich muss man hier und da schon mal nachregeln, dennoch bekomme ich hier die besten Nikon-Jpegs die ich kenne. Auch die guten Weißabgleich-Modi, welche Nikon in der Spiegelreflex-Ära den Hobby-Modellen noch verwehrte, werden hier geboten: Auto Keep White nehme ich für Innen-, und Auto Natural Light für Außen-Aufnahmen. Man kann statt Jpeg auch HEIF nehmen, habe mich damit aber bisher kaum beschäftigt. Vielleicht ist ein HEIF im Flat-Modus ja eine Speicherplatz-sparende Raw-Alternative.

Mit Jpeg-Profilen wird man jetzt von Nikon zugeschissen. Es gibt 11 Standard-Profile, 20 weitere, man könnte über die App noch weitere auf die Kamera laden. Trotz der für meine Begriffe erstaunlichen Raw-Qualität scheint die Z50 II den Fokus auch auf Jpeg-Fotografen zu richten.

Ist die Z50 II noch eine gehobene Einsteigerkamera oder bereits eine Klasse höher anzusiedeln? Der Monitor ist als Vari-Angle ausgeführt, wie bei den gehobenen Nikon-Einsteigerkameras üblich. Das Moduswahlrad ist rechts, auch typisch für Nikon-Einsteigergeräte – es bietet aber gleich drei U-Modi. Hier kann man eigene Konfigurationen ablegen, vielleicht erstelle ich eine für Porträts, eine weitere für Tiere.

Leider werden nicht die Akkus der großen Modelle genutzt, sondern kleinere, so dass ich jetzt mit unterschiedlichen Akkus rumhampeln darf. Und die Leistung pro Akku ist dünn. Ein Ersatzakku wird mir nicht reichen, wohl zwei brauchen. Die Batteriestand-Anzeige in der Kamera ist nur ein ungenauer Drei-Segment-Indikator. Sehr nervig, da bei roter Anzeige nicht klar ist ob man wirklich kurz vor dem Ende steht oder noch bisschen Saft drin ist. Ein Ladegerät wird nicht mitgeliefert, geladen wird über ein USB-C-Kabel. Ich hätte gerne noch eine extern Ladeschale, leider ist diese aktuell nirgends lieferbar.

Der Sucher ist bei der Z50 II okay, ich sehe schon mal Aliasing weil die Auflösung an einen optischen DSLR-Sucher natürlich nicht rankommt, ebenfalls ist der Dynamikumfang nicht mit einem optischen Sucherbild vergleichbar. Obwohl das Sucherbild der Z50 II ziemlich hell werden kann, es mangelt dann eben manchmal an Details im Schatten. Die Kamera bietet Verschlusszeiten nur bis zu 1/4000, das kann selbst die D7500 besser. Das eigebaute Blitzlichtgerät der D7500 ist stärker als bei der Z50 II, wenigstens hat die spiegellose Kamera überhaupt noch einen Blitz integriert. Um bei sengender Sonne Schatten aufzuhellen zum Beispiel, besser als nichts. Profi-Geräte lassen den Blitz ganz weg, ich kann aber nicht die ganze Zeit mein Speedlight mit mir rumtragen. Was die Z50 II hinbekommt ist eine Freude an der Fotografie, wie sie zuvor die D5600 brachte: Keine Notwendigkeit, anzugeben. Einfach nutzen. Und die Fotos haben.
Kategorien: 3DCenter Forum

Glasfaseranschluss, schwankende Download-/Uploadraten an einem PC

Neue Forenbeiträge - Sa, 04.01.2025 22:28
Werteste 3DC-Community,

ich wende mich an euch mit einem Netzwerkproblem, was mir zunehmend Kopfscherzen bereitet. Mein Hauptrechner (Win 10, MSI B550-A Pro, Ryzen 5800X3D mit 32GB Ram und einer Radeon 7900XT) hat extreme Schwankungen bei der Downloadrate, teilweise auch beim Upload. Ich habe Glasfaser mit 400 Mbit Download und 100 Upload, komme teilweise aber nur auf 20 Mbit. Schwankt während einer Sitzung am Rechner enorm. Mal ist alles normal, dann wieder Einbrüche.

Was ich versucht habe:

- alle Treiber updaten (Chipsatz und natürlich Ethernet)
- Port am Switch zu wechseln
- Neues RJ45-Kabel
- USB-C Dockingstation mit RJ45 als Netzwerkkarte zu nuzen
- Win10 Backup von Juni einspielen
- Neue 2,5 Gbit Netzwerkkarte

Nichts von alldem bringt dauerhaft was. Irgendwann kommen wieder diese Einbrüche. Mein alter PC hängt hier in meinem Büro am selben Switch (Rechner für meine Frau, ebenfalls Win10), keinerlei Probleme. 400Mbit werden teilweise übertroffen.

Was zur Hölle kann das sein?

Danke & Gruß
Tombstone
Kategorien: 3DCenter Forum

Foto-Reise-Rucksack gesucht

Neue Forenbeiträge - Sa, 04.01.2025 15:19
Ich plane diesen Frühling für 4 Tage in die Berge zu fahren. Natürlich möchte ich meine Fotoausrüstung mitnehmen. In den Rucksack sollte rein: Eine Kamera, 5 Objektive (darunter ein 150-600mm) und sonstiger Kleinkram, etwas Wäsche zum Wechseln, Zahnbürste etc. Was man eben minimal für 4 Tage braucht um nicht komplett zu verwahrlosen. :D Der Rucksack darf also ruhig etwas größer sein. Da ich mit dem Zug reise möchte ich nur diesen einen Rucksack mitnehmen. Preis ist relativ gleich. Gibt es da etwas?
Kategorien: 3DCenter Forum

AMD Anti-Lag 2.0

Wenn man ein Singleplayed Gamer ist kann man es aber aktuell ja per Mods nutzen oder? :)
Aber ja out of the box ist es bescheuert. Da hat Nvidia auch einfach den Vorteil der installierten Basis an GPUs. 90% der verkauften GPUs sind Nvidia. Da steckt man in einer Teufelsspirale die man nur durch Marktanteilgewinne wieder brechen könnte. Dazu müssten Radeons aber auch konsistent besser werden und eine Weile dies mit deutlich niedrigeren Preisen erkaufen.

Kann VSync nicht deaktivieren

Grafikkarten - Sa, 04.01.2025 11:24
Zitat: Zitat von DraconiX (Beitrag 13675872)
Jemand einen Tipp?
dx12 in den spielen aktiv? dann limitiert die desktop herzzahl die fps.
Inhalt abgleichen