Frage von klusterdegenerierung:Vielleicht für Resolve 16 Nutzer interessant.
Applications
Provides the optimal experience for the latest releases of top creative apps, including Maxon Cinema 4D, Adobe Lightroom, Adobe Substance Designer, DaVinci Resolve Studio 16, and Unreal Engine 4.
Antwort von cantsin:
Ist damit jetzt eine 10bit-Vorschau in Resolve via Grafikkarte möglich?
Antwort von klusterdegenerierung:
Zumindestens kannst Du es aktivieren und Windows scheint damit zu arbeiten, ob man den Unterschied dann auch irgendwo zu Gesicht bekommt, kann ich nicht sagen.
Vielleicht klärt Resolve das auch nur für sich selbst, Premiere ist ja zb. nicht angegeben.
Zumindest habe ich hier an jeder Ecke 10Bit stehen, obs auch da ist? ;-)
Vielleicht sollte ich mir mal ein 10Bit Bild in Lightroom mit (bit und 10Bit ansehen, wenn der Himmel bei 10Bit keine Säume zeigt, würde es ja funzen, oder?
Antwort von klusterdegenerierung:
Was ich zb. nicht wußte und weswegen viele vielleicht nicht in den Genuß von 10Bit kommen ist, es ist von der Wiederholrate abhängig!
Wenn ich zb. meinen 10Bit Moni von 60Hz auf 50Hz stellen würde, ist Schluß mit 10Bit und so kann es bei manch einem vielleicht sein, das jener ihn irgendwann mal unterhalb 60Hz getaktet hat und sich wundert, warum sein 10Bit Moni trotz DP Kabel kein 10Bit anbietet!!
Antwort von cantsin:
Ich kriege in Resolve 16 auch mit dem Studio-Treiber keine 10bit-Darstellung.
Getestet habe ich es mit diesen Testcharts, mit denen man deutlich sehen kann, ob man 10bit angezeigt bekommt oder nicht:
https://github.com/jursonovicst/gradien ... /1920x1080
Im Cinema-Viewer haben die 10bit-Gradients dieselbe Treppchen-Bildung/dasselbe Banding wie die 8bit-Gradients, daher scheint die Kombination nicht zu funktionieren. (Mit einem via DisplayPort an eine GTX1080Ti angeschlossenen Benq PD2700Q.)
Antwort von klusterdegenerierung:
Manchmal habe ich das Gefühl das man das so auch nicht in einem echten 10Bit Workflow zu sehen bekommt.