Die aktuellste 17er Version?Schwermetall hat geschrieben: ↑So 07 Nov, 2021 20:41 Als Programm habe ich ReSolve Studio 17 verwendet.
Cuda ist doch Nvidia. Wenn dann Metal-M1. Auch Resolve beim Wechsel neu gestartet? ich weiß, blöde frage, kann aber sein dass Du das nicht gemacht hast...Als GPU war Metal-M1 bzw. Cuda gewählt. Timeline Proxymode war bei beiden auf off.
Ich würde bei einem Apple-Computer von der Stange gar nichts "wählen", sondern die Einstellung auf AUTO lassen:Schwermetall hat geschrieben: ↑So 07 Nov, 2021 20:41Als Programm habe ich ReSolve Studio 17 verwendet.
Als GPU war Metal-M1 bzw. Cuda gewählt.
Bei einer 25p Timeline mit zwei Nodes vorher (HDR-Wheels und Colorwarper) habe ich bei XAVC-I-10-bit-422 sogar nur *7* fps Wiedergabe, während ohne die Sharpen-Node Echtzeit bleibt.Schwermetall hat geschrieben: ↑So 07 Nov, 2021 20:41Als ich bei den Sequenzen "Sharpen" auf die Node (je 1x auf eine h264 und 1x auf eine h265) gelegt hatte, wurde es übel.
Beim Desktop waren es nur noch 28 fps und beim Apple nur noch 8 fps!
... das neue Halation.Farbkanal hat geschrieben:Sobald ich aber den Kontrast in den Farben zu stark erhöhe, erhalte ich Halos. Das wollen wir nicht!
Ich finde es sensationell, dass Resolve überhaupt auf einem 1000-Euro-Notebook läuft, und umgekehrt, dass dieses Notebook mit seiner Hardware (vor allem dem Bildschirm qua Auflösung und Farbreproduktion) das auch praxistauglich unterstützt.
natürlich ist es fein, dass man heute auch bereits auf sehr günstiger hardware ganz erstaunliches erledigen kann, trotzdem ist das natürlich längst nichts ungewöhnliches mehr.
Nein, aber Google Chrome/Chromium ist nicht weit davon entfernt...
Alles, was man sagen kann ist, dass die Specs sich nicht mit der Diversified Architektur (ähhm, im Gegensatz zum Unified Memory) vergleichen lassen. Selbst mit 40 x Chrome-Seiten, 50 x 48 MP-Lightroom-Raws, Windows 11 auf Parallels und einem 500 GB FCP-Projekt nur aus hunderten Long-Gop-Fitzeln und das alles gleichzeitig auf konnten 32 GB Ram auf einem M1 Max nicht angesprochen werden. Für alles reine Video können 16 GB nicht getoppt werden.rush hat geschrieben: ↑Mo 08 Nov, 2021 14:51 Back zur M1 Ausgangssituation... Handelt es sich um die 8/8 Core Variante oder die 8/7 Core Base? Keine Ahnung ob das relevante Unterschiede macht - vermutlich eher nicht aber es gibt da ja zumindest beim Air beide Varianten wo das eine Modell einem Grafikkern mehr vorweisen kann. Vermutlich eher Messetoleranz? :+)
Aber das ist doch bei Unified Memory letztlich dieselbe Geschichte, oder übersehe ich da etwas? Denn der RAM, der mit Chrome-Seiten, Lightroom-Raws, Windows auf Parallels etc. vollsitzt, ist dann nicht mehr als GPU-RAM verfügbar und führt zum Einbruch der GPU-Performance.Axel hat geschrieben: ↑Mo 08 Nov, 2021 21:11 Alles, was man sagen kann ist, dass die Specs sich nicht mit der Diversified Architektur (ähhm, im Gegensatz zum Unified Memory) vergleichen lassen. Selbst mit 40 x Chrome-Seiten, 50 x 48 MP-Lightroom-Raws, Windows 11 auf Parallels und einem 500 GB FCP-Projekt nur aus hunderten Long-Gop-Fitzeln und das alles gleichzeitig auf konnten 32 GB Ram auf einem M1 Max nicht angesprochen werden. Für alles reine Video können 16 GB nicht getoppt werden.
Trotzdem gibt es einen Grafik-Flaschenhals, und das je nach Aktion relativ früh und dann mit steilem Leistungsabfall.
Ich vermute du hast es auf den Punkt gebracht.cantsin hat geschrieben: ↑Mo 08 Nov, 2021 13:06 Ich finde es sensationell, dass Resolve überhaupt auf einem 1000-Euro-Notebook läuft, und umgekehrt, dass dieses Notebook mit seiner Hardware (vor allem dem Bildschirm qua Auflösung und Farbreproduktion) das auch praxistauglich unterstützt.
Dass man von einem Macbook Air keine Color Grading-Workstation-Performance erwarten kann - und dafür noch einen leistungsstarken stationären Rechner einsetzt -, liegt doch auf der Hand. Es ist höchstens die Schuld der üblichen YouTube-Influencer und Foren-Fanboys, wenn die die o.g. Tatsachen aufbauschen und überzogene Erwartungen wecken.
Wieso ist dann einerseits der Großteil des Arbeitsspeichers unbenutzt, während andererseits die Echtzeit verloren geht? Wie gesagt bekommt man auch mit Resolve kaum mehr als 16 GB benutzt und kann mit 64 GB ebenfalls keine temporale Entrauschung in Echtzeit abspielen (das nicht optimierte Premiere fraß sofort allen Ram und war trotzdem lahm und instabil). Das ist doch nur logisch damit vereinbar, dass es gar keine Korrelation zwischen Größe des Speichers und Performanz gibt (bitte nehmen Sie das zur Kenntnis, würde Alex Jordan sagen, please note). Und, wie gesagt, nur um Performanz geht's hier. Aber selbst wenn man Exportzeiten für entscheidend hält, sind die Unterschiede, wenn nicht marginal, so zumindest nicht proportional zur fetteren Ausstattung und Preis.cantsin hat geschrieben: ↑Mo 08 Nov, 2021 21:49Aber das ist doch bei Unified Memory letztlich dieselbe Geschichte, oder übersehe ich da etwas? Denn der RAM, der mit Chrome-Seiten, Lightroom-Raws, Windows auf Parallels etc. vollsitzt, ist dann nicht mehr als GPU-RAM verfügbar und führt zum Einbruch der GPU-Performance.Axel hat geschrieben:Für alles reine Video können 16 GB nicht getoppt werden. Trotzdem gibt es einen Grafik-Flaschenhals, und das je nach Aktion relativ früh und dann mit steilem Leistungsabfall.
Das könnte kein Problem der RAM-Kapazität, sondern der RAM-Bandbreite bzw. Bus-Geschwindigkeit sein. Alle die laufenden Anwendungen/Prozesse nagen an dieser Bandbreite, so dass da nicht mehr genügend GPU-Speicher-Durchsatz bleibt. Dieses Problem hat man dann eben nicht mit einer dezidierten GPU mit ihrem eigenem GPU-RAM und Speicherinterface.Axel hat geschrieben: ↑Di 09 Nov, 2021 07:58Wieso ist dann einerseits der Großteil des Arbeitsspeichers unbenutzt, während andererseits die Echtzeit verloren geht?cantsin hat geschrieben: ↑Mo 08 Nov, 2021 21:49
Aber das ist doch bei Unified Memory letztlich dieselbe Geschichte, oder übersehe ich da etwas? Denn der RAM, der mit Chrome-Seiten, Lightroom-Raws, Windows auf Parallels etc. vollsitzt, ist dann nicht mehr als GPU-RAM verfügbar und führt zum Einbruch der GPU-Performance.
Dieser Punkt beschreibt es doch sehr schön, die Steigerung von Performance basiert seit einigen Jahren eher auf maßgeschneiderten Hardwarelösungen inside Computer - also vor allem Hardwaredecoder für hochkomprimiertes Material - , als auf Rechenpower im Allgemeinen. Das funktioniert sehr gut, solange man sich im Bereich der von den Hardwareherstellern vorgeplanten Szenarien bewegt, kommt dann mal was grundsätzlich anderes oder neues daher, dann wirds schnell eng. Zumindest für Laptops schein mir das aber ein ziemlich sinnvoller Weg zu sein. Darüber hinaus kann man streiten.Axel hat geschrieben:> früher gab es die Möglichkeit, Medien zu optimieren (ProRes, DNxHD). Mit M1 wird dann das Playback u.U. schlechter als mit H.264/H.265.
die vergleiche mit den h.264/h.265 machen nur dann ernsthaft sinn, wenn man sicherstellt, dass in beiden fällen auch tatsächlich die selbe qualität erzielt wird.koeniglois hat geschrieben: ↑Mo 29 Nov, 2021 07:51 Hier noch ein Screenshots meiner Export-Benchmarks vor einiger Zeit (damals habe ich den 8700k sogar auf 4,9GhZ allcore eingestellt):
https://ibb.co/4NM2qjg
Da hast du natürlich Recht.mash_gh4 hat geschrieben: ↑Mo 29 Nov, 2021 09:16die vergleiche mit den h.264/h.265 machen nur dann ernsthaft sinn, wenn man sicherstellt, dass in beiden fällen auch tatsächlich die selbe qualität erzielt wird.koeniglois hat geschrieben: ↑Mo 29 Nov, 2021 07:51 Hier noch ein Screenshots meiner Export-Benchmarks vor einiger Zeit (damals habe ich den 8700k sogar auf 4,9GhZ allcore eingestellt):
https://ibb.co/4NM2qjg
mit praktisch allen hier verwendeten encodinglösungen kann man nämlich das encodieren in ganz unterschiedlichen qualitätsstufen abwickeln, die jeweils auch völlig unterschiedliche rechenlast bzw. ausführungszeiten mit sich bringen.
Mein MBA tut sich mit 10bit HEVC aus der Fuji deutlich leichter als mit 4k h.264 von meinem Google Pixel. Zumindest beim Rendern ist ein deutlicher Unterschied. Allerdings rendere ich alles in HEVC. Vermutlich hat das Ausgangsmaterial, welches ebenfalls HEVC ist, hier einen Vorteil?!rush hat geschrieben: ↑Mo 29 Nov, 2021 09:15 Welches Footage bevorzugt der M1 eigentlich?
Bei einigen 10bit h.264 Codes aus der A7S III meckert der integrierte (QuickTime? Player) das es sich um ein nicht unterstützes Format handelt - er spielt das Material dennoch fehlerfrei ab.
Nutze ich dagegen h.265 mit zusätzlich eher krummen 4Kanal 24bit Audio gibt es keine solche Meldung.
Kann ich also davon ausgehen das h.265 10 Bit generell besser unterstützt wird als h.264 10bit?
Als Software nutze ich Resolve... Im Playback und der Timeline alles bestens - aber der Export des 10bit h.264 Materials war jetzt nicht übermäßig flott... Also ungefähr in Echtzeit was total okay ist, aber auch komplett ohne Filter.
Werde die Tage nochmal eine längere Sequenz mit h.265 probieren - daraufhin scheint der M1 ja optimiert zu sein?
Manchmal bleibt aber ein Mischmasch an Material nicht aus, etwa aus der Drohne oder Actioncam... Daher habe ich bisher versucht eher in einem Codec zu bleiben. Wie seht ihr das?
Hallo Tom,koeniglois hat geschrieben: ↑Mo 29 Nov, 2021 07:51 Hier noch ein Screenshots meiner Export-Benchmarks vor einiger Zeit (damals habe ich den 8700k sogar auf 4,9GhZ allcore eingestellt):
https://ibb.co/4NM2qjg