Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Sony A7/A7s/A7R I/II/III/IV - RX10 - RX100-Forum

Infoseite // Sony A7iii: Videobild-Probleme



Frage von cantsin:


Frage an die A7 iii-Erfahreneren hier im Forum: Seit kurzem habe ich eine Sony A7iii als Haupt-Fotokamera, die ich auch als Neben-Videokamera nutzen will.

Direkt bei den ersten Testaufnahmen stoße ich auf unerwartete Bildprobleme. Das Motiv ist zugegebenermaßem ungnädig mit Gegenlicht und Bilddetails im Schatten:
slog_1.1.2.jpg Aufgenommen wurde es in UHD 100Mbit/s 24p bei 800 ISO & 1/50 Shutter im Slog2-Profil, und so belichtet, dass die 100%+-Zebras beim hellsten Fenster im Hintergrund Überbelichtung anzeigen.

Nach der Farbkorrektur in Resolve mittels "Color Space Transform" bei aktiviertem Luminance Mapping kommt dies heraus:
rec709_1.1.1.jpg Was mir negativ auffällt, sind extreme Makroblocking-Artefakte in den Schatten bzw. auf dem Sofa. Die sieht man im rausgerenderten Video als tanzende Artefakte, auch hier in dieser GIF-Animation bei 800x450 Pixeln:
animation.gif Die Texturen des Sofa-Stoffs werden vom Codec auch völlig glattgebügelt, trotz 4K-Auflösung und eines hochauflösenden Objektivs (Sony FE 85mm/1.8).

Überfordere ich hier einfach die Kamera und ihren internen Codec? Bzw.: bräuchte man für solche Motive entweder externe Aufzeichnung, oder müsste man bei der internen Aufzeichnung stärker belichten, um die Schatten vorm Codec und seinem Makroblocking zu retten? (Ich komme von der Blackmagic Pocket und habe hier vielleicht zu einfach meine RAW-/ProRes Log-Gewohnheiten übertragen.)

Oder lieber ein anderes Bildprofil (Cine4 ?) nutzen?

Hier noch die Original-Kameradatei (48 MB):
http://data.pleintekst.nl/C0001.MP4

Space


Antwort von sanftmut:

Bin bzgl Post eher Laie

Aber wie kommst Du drauf dass das eher an der Cam liegt als an Deinem (in diesem Fall dann inadäquaten) Post Workflow?

Ich würde Zweiteres unterstellen.

Die Cam sollte das mMn problemlos machen.

Space


Antwort von cantsin:

sanftmut hat geschrieben:
Aber wie kommst Du drauf dass das eher an der Cam liegt als an Deinem (in diesem Fall dann inadäquaten) Post Workflow?
Die Makroblocking-Artefakte (und fehlenden Texturdetails) sind bereits im Kameramaterial; diese Unzulänglichkeiten werden durch die Nachbearbeitung/Farbraumumwandlung nur deutlicher sichtbar.

(Ich spare mir mal die Diskussion, ob der Workflow gut ist oder nicht - normalerweise ist der Gang via Resolve und dessen Farbraumumwandlung der beste.)

Space


Antwort von rdcl:

Warum eigentlich Slog 2 und nicht Slog 3?

Space


Antwort von cantsin:

rdcl hat geschrieben:
Warum eigentlich Slog 2 und nicht Slog 3?
Slog3 ist noch flacher als Slog2, weshalb man bei 8bit-Aufzeichnung lieber bei Slog2 bleibt, um Banding zu vermeiden.

(Siehe u.a. hier.)

Space


Antwort von rdcl:

cantsin hat geschrieben:
rdcl hat geschrieben:
Warum eigentlich Slog 2 und nicht Slog 3?
Slog3 ist noch flacher als Slog2, weshalb man bei 8bit-Aufzeichnung lieber bei Slog2 bleibt, um Banding zu vermeiden.
Danke für die Antwort. Kenne Slog 3 nur von der FS7. Ich dachte die A7iii zeichnet intern auch 10bit auf.

Space


Antwort von cantsin:

rdcl hat geschrieben:
Danke für die Antwort. Kenne Slog 3 nur von der FS7. Ich dachte die A7iii zeichnet intern auch 10bit auf.
Die gesamte A7/A9-Serie ist bislang auf 8bit intern und extern beschränkt. Intern wird 8bit 4:2:0 in maximal 100 MBit-h264 aufgezeichnet, extern an HDMI 8bit 4:2:2 ausgegeben.

Das Makroblocking hat aber eigentlich nichts mit der Bittiefe und dem Bildprofil zu tun, sondern nur mit Schwächen des internen Codecs. Ich bin ehrlich gesagt ein bisschen geschockt, dass das (zumal bei einem 100% statischen Motiv) so massiv auftritt, und auch dass die Bild-/Texturdetails so verschmiert werden.

Space


Antwort von sanftmut:

Ok - schon wieder was gelernt.
Ich hätte dann in zweiter Runde Slog als Schuldigen identifiziert 😉
Zumal das ja vor allem in den Tiefen auftritt...

Space


Antwort von cantsin:

sanftmut hat geschrieben:
Ich hätte dann in zweiter Runde Slog als Schuldigen identifiziert 😉
Naja, durchaus möglich ist das folgende: Da Slog mehr Dynamik konserviert als konventionelle Rec709-Profile, wird in Slog effektiv mehr Bildinformation aufgezeichnet - und die wiederum könnte den Codec überfordern. Aber doch nicht bei einem statischen Motiv?!?

EDIT: Oder das Problem ist hier, dass die Schatten rauschen (was normal ist) und der Codec zu wenig Bandbreite oder Rechentiefe hat, um dieses Rauschen ohne Makroblocking-Artefakte aufzuzeichnen.

Das hieße aber auch, dass bei interner Aufzeichnung der effektiv nutzbare Dynamikumfang erheblich geringer ist, als das, was der Sensor liefert/kann. Und dann kann man sich SLog gleich ganz sparen.

Space



Space


Antwort von Jott:

Nimm mal ein „normales“ flaches Profil zum Vergleich.

Space


Antwort von cantsin:

Jott hat geschrieben:
Nimm mal ein „normales“ flaches Profil zum Vergleich.
Hast Du da einen Tipp? Cine4?

Space


Antwort von rush:

@ canstin: Slog @8bit hat in meinen Augen noch nie wirklich Sinn gemacht bei den Sony Kameras... Selbst extern ist der "Mehrwert" aufgrund der 8bit Beschränkung eher gering.

Die kleinen Sonys fährt man nach meiner Erfahrung intern ohne slog besser - ich hatte mir an meiner A7rII auch verschiedene Profile gebastelt - mit entsprechenden Cine-Kurven aber eben ohne Slog weil mir das auch zuviel rauschte im Schwarz bzw man nicht entsprechend gut kultiviert bekommt. Cine4 ist durchaus ein guter Startpunkt.

Space


Antwort von cantsin:

rush hat geschrieben:
Die kleinen Sonys fährt man nach meiner Erfahrung intern ohne slog besser - ich hatte mir an meiner A7rII auch verschiedene Profile gebastelt - mit entsprechenden Cine-Kurven aber eben ohne Slog weil mir das auch zuviel rauschte im Schwarz bzw man nicht entsprechend gut kultiviert bekommt. Cine4 ist durchaus ein guter Startpunkt.
Gut zu wissen. Der Nachteil ist dann nur, dass man dann in einem nichtstandardisierten Farbprofil landet, für das es keine Transformationen oder LUTs
in Resolve & Co. gibt, so dass das Mischen mit Material aus anderen Kameras zum großen Gefummel wird...

Space


Antwort von pillepalle:

Das Mischen verschiedener Kamerabilder wird aber auch mit LUTs zum Gefummel. Jeder Hersteller sieht die Farben etwas anders.

VG

Space


Antwort von klusterdegenerierung:

cantsin hat geschrieben:
Nach der Farbkorrektur in Resolve mittels "Color Space Transform" bei aktiviertem Luminance Mapping kommt dies heraus:
Moin cantsin, ist nicht böse gemeint, aber hört auf mit diesem transform blödsinn, das braucht man nicht und zerstört nur das footage.

Du mußt in clip attributen den Clip auf "full" stellen und dann kannst Du einfach via Gradationskurve die RGB Parade in ihre entsprechenden Grenzbereiche fahren und schauen wo noch was gemacht werden muß, in der Regel reicht dies.

Gerne kannst Du mir einen Schnipsel senden. Ich hatte noch keine derartigen Probleme, es sei denn man belichtet zu stark unter.

Sorry, Datei ist ja schon online, probiere es direkt aus und lade es hoch.
Was ist denn Dein Anliegen bei diesem Clip, die einfache rückführung zu Rec oder RGB?

Space


Antwort von klusterdegenerierung:

cantsin, das Material ist um min 1,5 Blenden unterbelichtet.
Du hättest die Zebra nicht auf die Spitzlichter sondern auf helle Stellen anwenden müßen.

Im Grunde mußt Du bei den Sony bei Slog mit min einer Blende drüber gehen, besser 1,5.
Dies lässt sich noch zurückführen und die tiefen sind nicht belastet.

In diesem Fall ist es kaum noch zu gebrauchen, da die Tiefen einfach viel zu dunkel sind, die Höhen hätten noch einiges vertragen. Es muß also in der Aufnahme nicht so aussehen als wären die Fenster korrekt belichtet, sondern als wären sie überbelichtet.

Hier mein Versuch, der aber auch nicht so viel besser ausschaut, auch wenn er nicht soo viel Rauschen enthält.

Space


Antwort von cantsin:

Dann übertrage ich hier in der Tat zu einfach Gewohnheiten von der Blackmagic-Kamera auf die A7. (Bei RAW geht es durchaus noch, bei so einem Motiv die Spitzlichter nicht ausbrennen zu lassen, sondern die volle Dynamik des Motivs abzubilden, weil der Codec weniger Probleme mit den rauschenden Schatten hat.) Danke!

Werde heute noch mal Cine4 ausprobieren.

Space


Antwort von klusterdegenerierung:

Habe auch mal die anderen Gammas etc ausprobiert und lande doch immer wieder bei Slog, nicht weil mir dann nichts mehr wegbrechen würde, das wäre ja utopisch, aber weil wenn etwas ausfrannst, es wesentlich homogener ausschaut und es nicht so fiese gelbe koronas um einen Lichtkegel gibt.

Ich bin im übrigen der Meinung das es ruhig mal ein bisschen clippen kann, denn es gibt ja auch noch einen ästhetischen Anspruch und wenn jedes Chrom clippingkonform strahlt, ist das doch auch nicht sonderlich schön. ;-)

Probiere das doch ruhig mal mit dem Slog ETTR und vergesse nicht auf full zu stellen, da kommt noch mal ein bisschen.
Kannst gerne Deine Erfahrung posten. :-)

Space



Space


Antwort von rdcl:

klusterdegenerierung hat geschrieben:
cantsin hat geschrieben:
Nach der Farbkorrektur in Resolve mittels "Color Space Transform" bei aktiviertem Luminance Mapping kommt dies heraus:
Moin cantsin, ist nicht böse gemeint, aber hört auf mit diesem transform blödsinn, das braucht man nicht und zerstört nur das footage.
Fandest du den Transform Blödsinn hier nicht noch super?
viewtopic.php?f=63&t=145595&p=993775&hilit=rcm#p993775

Space


Antwort von klusterdegenerierung:

Ne eben nicht, da geht es ja darum in Resolve standartmässig ein "passendes" Profil zu intergrieren damit man eben genau den ganzen Lut und Transform kram umgehen kann.

Ich weiß natürlich was Du mir damit sagen willst und Du hast damit ja auch nicht unrecht, aber die Gefahr über das Transform sich ungewolltes Rauschen bzw Verschlechterungen einzufangen ist sicherlich höher, als wenn man das Material erstmal als das behandelt was es ist und darin die Reserven abcheckt, ein transform oder lut kann einem das Material auch schnell mal verschauen. ;-)

Space


Antwort von klusterdegenerierung:

Hallo cantsin,
ich habe uns mal einen kleinen SLog2 Test gefahren, damit wir in Resolve in Waveform sehen, wie viel wann noch geht.

Zum testen habe ich die Blende bei +2 auf 5.6 gestellt, dann bin ich bei f3.5, also dann +4 gestartet, dann gehe ich in 1 Blenden Schritten auf 5.6 und ab da drehe ich einen Vari ND anhand der Belichtungsanzeige weiter rauf bis +0. (Mit Ton als Hilfe)

Bei diesem Test kann man schön sehen (vorher in clip attributen data level auf full stellen), wann es oben und unten clipt.
Schön wie man es auch im Waveform ablesen kann. Dabei sieht man schön das sich wohl die Grenze bei +2,5 befindet, danach clipt es unwiederbringlich.

Bei +2 (dies ist aber nicht einfach einzustellen, da ab +2 die Darstellung nicht weitergeht, sondern nur ein aufblinken der Angabe erfolgt) ist nach meinem dafürhalten die beste Ausbeute zu erzielen, da sowohl nach oben als auch nach unten etwas Fleisch für korrekturen vorhanden ist, natürlich und vorallem unter Berücksichtung des Rauschpotentials von Slog.

Footage: 4K 100MBit 23,97fps A7III
https://we.tl/t-wC4KzqfJlQ

Space


Antwort von cantsin:

Hallo Kluster,

Ganz lieben, herzlichen Dank für Deine Mühen!

Ich hab' Dein Experiment gerade mit meinem alten Motiv wiederholt und komme in der Tat ebenfalls auf +2 EV, um SLog2 maximal zu belichten, ohne die Spitzlichter zu clippen.

Allerdings bleibt es auch bei meiner alten Beobachtung: Auch bei +2 EV treten in den Schatten Macroblocking/Banding-Artefakte auf, wenn auch nicht so extrem wie bei meinem ersten Versuch. Man sollte in der Nachbearbeitung daher möglichst nichts in den Schatten hochziehen, weil der Codec der A7iii dafür einfach zu dünn ist.

Ich habe das mal mit einer Belichtungsreihe von +2 EV bis zu +3.3 EV durchgespielt. Eigentlich verschwinden die Artefakte erst richtig bei +3.0/3.3. Man sieht das im Bewegtbild natürlich besser als in Stills, daher hier ein Link zum in Resolve bearbeiteten und in DNxHR rausgerenderten und dann nach 150Mbit/s-h265 umgewandelten Videos (in dieser Qualitätsstufe werden die Artefakte nicht glattgebügelt oder ggü. DNxHR sichtbar verändert):

http://data.pleintekst.nl/a7iii_slog2_test.m4v

Mein Referenzbild kam von der Pocket 4K: a7iii_slog2_test_1.1.1.jpg Hier die Belichtungsreihe aus der A7iii mit SLog2: a7iii_slog2_test_1.2.1.jpg a7iii_slog2_test_1.3.1.jpg a7iii_slog2_test_1.4.1.jpg a7iii_slog2_test_1.5.1.jpg a7iii_slog2_test_1.6.1.jpg ...wobei ich in Resolve mein bestes getan habe, um Farben und Helligkeit jeweils aneinander bzw. an das Referenzbild anzugleichen.

Fazit: Wenn man die Schatten so anheben will wie in meinem Testbild, belichtet man das SLog2 der A7iii am besten 3 Blenden über und nimmt dafür Clipping in den Spitzlichtern in Kauf (wie man in der Bildreihe gut am Fenster rechts im Hintergrund sehen kann).

(Ist auch ein ganz interessantes Lehrstück darüber, wie der effektiv nutzbare Dynamikumfang einer Kamera nicht nur von Sensor und Bildprofil, sondern auch vom Codec abhängt.)

EDIT -
Hier sieht man das Banding in den Schatten noch bei +3EV: banding.png

Space


Antwort von klusterdegenerierung:

Hallo cantsin, ich weiß das Du sicherlich nicht ganz Unrecht hast, aaaber, Du hast Dir da auch ein extrem ungünstiges Beispiel ausgesucht, das würde ein Profi mit Alexa ja ohne zusätliches Licht ablehnen! ;-)

Dieser mega dunkele Teppich und alles andere auch, man das ich aber auch ne schummelbude! ;-))
Da muß ich Dir sagen, da erwartest Du aber auch echt ein bisschen viel von der Cam, ich glaube nicht das die Pocket das ohne Rauschen großartig besser hinbekommt.

Also die Cam kann schon einiges, aber ich denke in diesem Motiv gehört definitiv etwas licht, oder Du verzichest auf die Fenster und lässt sie etwas ausbrennen, sähe ja auch gut aus. ;-)

Space


Antwort von Jott:

Gegen Blocking/Banding bei extremen Bedingungen wie hier: im Schnittprogramm um Himmels Willen nicht in einer 8 Bit-Timeline arbeiten. Und falls trotzdem Blocking/Banding kommt: etwas blaues Rauschen dazu und gut ist.

Space


Antwort von klusterdegenerierung:

Bei Resolve gibt es keine 8Bit Timeline, zumindest ist diese nicht von Hause aus eingestellt, wüßte auch nicht das es das überhaubt gibt.

Space


Antwort von cantsin:

klusterdegenerierung hat geschrieben:
Bei Resolve gibt es keine 8Bit Timeline, zumindest ist diese nicht von Hause aus eingestellt, wüßte auch nicht das es das überhaubt gibt.
Nein, gibt es in der Tat nicht. Klingt für mich auch völlig vorsinflutlich... Welcher NLE hat sowas noch? (Und rechnet zumindest beim Rendern nicht in höheren Bittiefen bzw. Flieskommawerten auf der Basis des Originalmaterials?)

EDIT: jott meinte wohl das Verwenden von Proxies bzw. Schnittcodecs und Rendern auf Basis dieser zwischenberechneten Medien. Sowas geht auch in Resolve, und wenn man z.B. 8bit-DNxHR als Proxy-/Schnittcodec wählt und dann beim Rendern "Use optimized media" ankreuzt, ist man tatsächlich mit einer 8bit-Timeline unterwegs.

Space


Antwort von Jott:

Adobe hatte jahrelang gepredigt, dass man im Originalcodec schneiden soll. Also gerne 8Bit 4:2:0 aus entsprechenden Kameras, immer schön nativ. Heute nicht mehr, aber das sitzt noch immer fest in den Hirnen.

Die Bemerkung war allgemein. Wenn Resolve so einen Fehler von Haus aus verhindert, wie es auch fcp x tut, umso besser.

Space



Space


Antwort von cantsin:

Jott hat geschrieben:
Adobe hatte jahrelang gepredigt, dass man im Originalcodec schneiden soll. Also gerne 8Bit 4:2:0 aus entsprechenden Kameras, immer schön nativ. Heute nicht mehr, aber das sitzt noch immer fest in den Hirnen.
Wann war das? Ich kenne Premiere zwar als Programm, das als Prinzip hatte, den Originalcodec ohne Zwischendateien à la ProRes oder DNxHD/R zu verwenden, das aber intern immer mit 32bit-Float Farbgenauigkeit gerechnet hat.

Space


Antwort von Axel:

cantsin hat geschrieben:
EDIT: Oder das Problem ist hier, dass die Schatten rauschen (was normal ist) und der Codec zu wenig Bandbreite oder Rechentiefe hat, um dieses Rauschen ohne Makroblocking-Artefakte aufzuzeichnen.

Das hieße aber auch, dass bei interner Aufzeichnung der effektiv nutzbare Dynamikumfang erheblich geringer ist, als das, was der Sensor liefert/kann. Und dann kann man sich SLog gleich ganz sparen.
Mit ETTR kommt man normalerweise klar, wichtiger ist aber Blendenkompensation plus 2 Blenden. Das erreicht man bei Sony Kameras im manuellen Belichtungsmodus dadurch, dass man Auto ISO wählt und dann den Minimalwert und den Maximalwert beide auf die native ISO des Sensors einstellt (BTW: bist du sicher, dass das bei der A7iii 800 ist und nicht 400?). Im Display (wenn man die EXP COMP - Anzeige dort gewählt hat) erscheint dann eine Skala, auf der man ablesen kann, wie viele Blenden man nach Meinung der Messung (hierfür bitte METERING MODE: ENTIRE SCREEN AVERAGE) über- oder unterbelichtet hat, sie ändert sich nach eingestellter Blende. Nach ein paar Stunden merkt man, dass "+2" ziemlich genau augenrichtig sind, da "0" bei Slog2 unterbelichtet wirkt, - zumindest bei ausgeschaltetem DISP GAMMA ASSIST - und man benötigt die Skala eigentlich nicht mehr.

Der Hintergrund ist, wie du richtig vermutest, dass durch die massive Kompression Rauschen zu diesen hässlichen Makroblöcken verklumpt. Die hast du dann ohne Belichtungskorrektur in fast jedem nur etwas kontrastreicheren Bild, und deswegen verbietet sich das.
cantsin hat geschrieben:
Auch bei +2 EV treten in den Schatten Macroblocking/Banding-Artefakte auf, wenn auch nicht so extrem wie bei meinem ersten Versuch. Man sollte in der Nachbearbeitung daher möglichst nichts in den Schatten hochziehen, weil der Codec der A7iii dafür einfach zu dünn ist.
Wenn du mit dünnem Codec zu starke Kompression (bei dieser kleinen Datenrate) meinst, dann passt es. Du kannst Slog2 nicht mit Slog2-Profil transformieren, wenn du es überbelichtet hast. Probier mal spaßeshalber folgendes:
Gamma: S-Log2
Black Gamma 
- Range: Middle
- Level: 0
Knee: Manual
- point: 77.5%
- slope: +3
Color Mode: Pro
Saturation: +3
(und etwas weiter unten Detail -7)
... und dann korrigiere es zunächst händisch, mit den Scopes und den Wheels.

Space


Antwort von klusterdegenerierung:

@Axel
Ja 800 ist nativ, sobald man Slog wählt kann man eh nix anderes als Anfangs Iso einstellen.
400 Iso gibt es hier nicht, ist auch keine dual Iso Cam.

Das mit dem Transformieren ist auch nicht so gesund, sind doch eh nur 3 Regler, Tonwertkurve, Kontrast & Farbe, da ist man mit einer halben Min. durch, da muß man nix trasnformieren oder zerluten mit verschlimmbessern quatsch. ;-)

Space


Antwort von cantsin:

Danke für die Tips, Axel!
Axel hat geschrieben:
Mit ETTR kommt man normalerweise klar, wichtiger ist aber Blendenkompensation plus 2 Blenden. Das erreicht man bei Sony Kameras im manuellen Belichtungsmodus dadurch, dass man Auto ISO wählt und dann den Minimalwert und den Maximalwert beide auf die native ISO des Sensors einstellt (BTW: bist du sicher, dass das bei der A7iii 800 ist und nicht 400?).
Eben noch mal nachgesehen: Bei SLog2/PP7 ist 800 der niedrigste wählbare ISO-Wert. - Was hat man davon, die Kamera auf Auto-ISO mit dann Minimal- und Maximalwert 800 zu stellen, statt gleich fest auf 800?

Im Display (wenn man die EXP COMP - Anzeige dort gewählt hat) erscheint dann eine Skala, auf der man ablesen kann, wie viele Blenden man nach Meinung der Messung (hierfür bitte METERING MODE: ENTIRE SCREEN AVERAGE) über- oder unterbelichtet hat, sie ändert sich nach eingestellter Blende. So bin ich auch verfahren, wobei die Messung nur bis maximal +2 geht (wie Kluster bereits schrieb), man also auf die kleinste Blende gehen muss, bei der +2 angezeigt wurde. In meinem Testvideo war das f4.5, die Belichtungsreihe habe ich dann mit f4, f3.5, f3.2 und f2.8 gemacht, um testweise bis zu +3.3 zu gehen und zu sehen, wie sich das auf die Codec-Artefakte in den Schatten auswirkt.
Der Hintergrund ist, wie du richtig vermutest, dass durch die massive Kompression Rauschen zu diesen hässlichen Makroblöcken verklumpt. Jepp. Wobei "massive Kompression" eigentlich ein Witz ist - es müsste eher schwachbrüstiger und veralteter Codec lauten... Denn das 12bit BRAW Q5 der Blackmagic Pocket hat bei gleicher Auflösung und Framerate (UHD 24p) gerade mal 150% der Datenrate des UHD-Materials aus der A7iii und verpackt auch das Rauschen in den niedrigen Blendenstufe ohne Artefakte.

Ich hoffe, dass Sony bei der A7s III in dieser Hinsicht mal etwas neues und grundsätzlich besseres bringen wird. Die Codecs der A7iii sind bis auf die interne 4K-Aufzeichnung keinen Deut besser/weiter als die Codecs meiner alten A7s, Baujahr 2013.
Wenn du mit dünnem Codec zu starke Kompression (bei dieser kleinen Datenrate) meinst, dann passt es. Ja, das meinte ich, s.o.
Du kannst Slog2 nicht mit Slog2-Profil transformieren, wenn du es überbelichtet hast. Ich habe mit Color Charts gearbeitet und die Slog2-Transformation (bzw. Blackmagic Design Film-Transformation) von Resolves Color Chart-Halbautomatik verwendet. Das hat zu guten Ergebnissen geführt. Ich musste das Sony-Material nur noch minimal mit Lift und Gamma korrigieren, um es an das Blackmagic-Material anzugleichen.

Probier mal spaßeshalber folgendes: Werde ich tun, danke fürs Teilen!

Space


Antwort von Axel:

klusterdegenerierung hat geschrieben:
@Axel
Ja 800 ist nativ, sobald man Slog wählt kann man eh nix anderes als Anfangs Iso einstellen.
Äh, ja, ist bei der A6500 genauso. Stimmt übrigens nicht mit dem ISO MINI & MAXI. Nur wenn ich ISO 800 manuell einstelle (also nicht Auto ISO) zeigt EXP COMP an.

Space


Antwort von klusterdegenerierung:

cantsin hat geschrieben:
Ich hoffe, dass Sony bei der A7s III in dieser Hinsicht mal etwas neues und grundsätzlich besseres bringen wird.
Da würde uns doch für die 3er ein Firmwareupdate schon reichen, gehen würds allemale.

Space


Antwort von Axel:

Denn das 12bit BRAW Q5 der Blackmagic Pocket hat bei gleicher Auflösung und Framerate (UHD 24p) gerade mal 150% der Datenrate des UHD-Materials aus der A7iii ... Habe mich mit Braw ehrlich gesagt nicht eingehend befasst, aber wenn das stimmt, was du schreibst und du nicht bits und Bytes verwechselst, dann sollte eine Aufzeichnung auf eine 95MB/s-fähige SDHC doch eigentlich kein Problem sein.

Space


Antwort von cantsin:

Axel hat geschrieben:
Denn das 12bit BRAW Q5 der Blackmagic Pocket hat bei gleicher Auflösung und Framerate (UHD 24p) gerade mal 150% der Datenrate des UHD-Materials aus der A7iii ...
Habe mich mit Braw ehrlich gesagt nicht eingehend befasst, aber wenn das stimmt, was du schreibst und du nicht bits und Bytes verwechselst, dann sollte eine Aufzeichnung auf eine 95MB/s-fähige SDHC doch eigentlich kein Problem sein. Das ist auch in der Tat kein Problem, und ich verwende genau solche Karten. BRAW Q5 geht bis 30fps bei DCI 4K auf der alten Sandisk Extreme Pro 95Mb/s (=der Karte, die in der ersten Generation der Pocket 1080p 30fps CinemaDNG aufzeichnete) und bis zu 60fps auf der neueren Sandisk Extreme Pro 170Mb/s. - Ist ein typischer Lernprozess bei der Pocket 4K, dass man erst denkt, die externe USB-Aufzeichnung zu brauchen und dann sieht, dass BRAW Q5 und SD-Karten locker ausreichen und viel praktikabler sind.

Anbei als Referenz noch die Dateigrößen und Bitrates meiner Testvideos (alle UHD 24p), gemessen mit ffprobe:

Sony A7iii UHD 24p
C0002.MP4
Duration: 00:00:06.51, bitrate: 103092 kb/s
81M

C0003.MP4
Duration: 00:00:03.51, bitrate: 105316 kb/s
45M

C0004.MP4
Duration: 00:00:08.51, bitrate: 102521 kb/s
105M

C0005.MP4
Duration: 00:00:09.51, bitrate: 102326 kb/s
117M


Blackmagic Pocket 4K UHD 24p BRAW Q5

A017_06060750_C009.braw
Duration: 00:00:06.13, bitrate: 148814 kb/s
109M

A017_06060750_C010.braw
Duration: 00:00:04.92, bitrate: 145491 kb/s
86M

A017_06060750_C011.braw
Duration: 00:00:03.33, bitrate: 141539 kb/s
57M

Space


Antwort von rush:

Ich habe vom Start weg direkt billo Samsung Evo Plus 128GB microSD Karten in Verwendung mit braw... Auch 5:1 Komprimierung bei konstanter Bitrate funzt damit:
Die schreiben 5:1 @ 25p 4k weg...
Bei 8:1 gehen sogar 50p @ 25p 4k.

Hab mir dieses externe Gefrickel komplett geknickt - war auch nie eine Option für mich da ich externe Aufzeichnung allgemein eher nervig finde. An manchen Kamera geht es ja nicht anders - aber sofern möglich würde ich intern immer bevorzugen.

Hat jetzt wenig mit der Sony zu tun - aber meine A7rII kann ich mit denselben Karten füttern - mit dem bekannt dünnen und schwachbrüstigen Codec - das ist schon enorm was braw da leistet.

Space



Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Sony A7/A7s/A7R I/II/III/IV - RX10 - RX100-Forum

Antworten zu ähnlichen Fragen //


Sony DXC M7 zeigt weißes Bild
Sony zeigt neuartige Stacked CMOS-Bildsensor-Technologie mit besserer Dynamik
Sony warnt offiziell vor dauerhaftem Bildsensorschaden durch Laser
Sony FX9 Bild anschärfen
Sony Camcorder mit guter Bildstabilisierung gesucht
Bildstabilisierung bei Sony
Sony FS700 Bild ohne Mount Deckel
Nach Erdbeben in Japan: Sonys Bildsensor Fabrik steht noch immer still
Baveyes HB-S/E: Hasselbald MIttelformat auf Sony A7 Kleinbild-Vollformat
besserer Bildstabilisator(Sony) VS bessere Lichtempfindlichkeit(Panasonic)?
Ausprobiert: 4K- Bildstabilisation im Vergleich Sony BOSS vs. Panasonic Hyb
Sony Alpha 7 Mark II Firmwareupdate 1.10 bringt verbesserte Bildstabilisier
Würde ein Curved-Monitor das Videobild verzerren?
Videobild am TV zu klein
Unschönes TV und Videobild
Sony A7iii Workflow
Northern Norway - How You've Never Seen it | Sony a7III | Mavic Pro 2
"Der Sony A7III Thread"
Sony a7III - Sensor ruckeln - Steadyshot kaputt?
Cage an Sony a7iii zu locker : Tips?
Sony A7III neue Firmware
DJI Ronin SC + Sony A7iii 24mm 1.4 GM & Iphone 11 Plus
Sony A7III S-Log • Farbproblem lösen
DJI RS2 und Sony A7III mit Rig und Batteriegriff
Das Kompakteste Gimbal für Sony A7iii




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash