Sie sind nicht angemeldet.

1

Donnerstag, 13. September 2012, 17:48

Wozu braucht man 16-bit-Farben?

Bilder mit 16 Bit Farbtiefe werden in vielen ernst zu nehmenden Foren als Bearbeitungs-Standard genannt.
Mich interessiert, wieviel Bit der normale Betrachter denn eigentlich unterscheiden kann? Ein normaler Monitor kann, so wie ich gelesen habe, sowieso nur 8 Bit Farbtiefe darstellen.
Als Experiment habe ich mir eine Farbe ähnlich dem Himmelsblau ausgewählt, und in mehrere Felder nebeneinander aufgeteilt.
Ich habe die Felder stufenweise mit ähnlichen Farben gefüllt. In einem Streifen habe ich eine der RGB-Farben um 1 Bit verändert. Im anderen Streifen habe ich die selbe Farbe um 2 Bit verändert, so dass die Unterscheidung dieses Kanals einer 7-Bit-Abstufung entspricht.

Bevor ihr jetzt zur Pipette greift und die Farben messt, würde ich gerne nach eurem Augenmaß wissen, welche Reihe die 1-Bit Änderungen und welche die 2-Bit-Änderungen zeigt.
Ganz ehrlich, für mich ist es fast unmöglich, die beiden Reihen überhaupt optisch voneinander zu unterscheiden.

Wenn die Farbunterschiede bei 8 Bit schon dermaßen gering sind, dass ich sie eigentlich gar nicht wahrnehmen kann, welchen Grund gibt es dann dafür, in 16 Bit zu arbeiten, wo die Farben nochmal um ein Vielfaches feiner unterteilt werden?

Mir ist schon klar, dass man 16-Bit-Farben viel weiter spreizen kann, ohne dass es sichtbare Tonwertabrisse gibt. Daher lasse ich dieses Argument für Extrembelichtungen gelten, bei denen man aus Dunkelschwarz und Hellweiß noch Details rauskitzeln könnte. Jedoch bei einer ausgewogenen Belichtung reichen mir die 8 Bit vollkommen. Sogar 7 Bit erscheinen mir für die allermeisten Bilder ausreichend.



Wie viele Felder seht ihr hier nebeneinander?
Gruß vom pano-toffel

Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »pano-toffel« (13. September 2012, 18:10)


2

Donnerstag, 13. September 2012, 18:02

Hallo pano-toffel,
im Moment sehe ich hier leider nichts.
Datei nicht korrekt hochgeladen?

Lieben Gruss -André
Nikon D300, Nikkor 10,5mm, MK Panohead III, LR 4.3, PS 06, PTGui, Pano2VR

3

Donnerstag, 13. September 2012, 18:12

Danke André,

das hängt mal wieder mit der Forentechnik zusammen.
Ich hab's jetzt extern verlinkt.
Gruß vom pano-toffel

marijonas

Mega-User

Beiträge: 2 820

Wohnort: Kaufbeuren

Beruf: Wasserträger

  • Nachricht senden

4

Donnerstag, 13. September 2012, 18:12

Hallo pano-toffel,

ich habe mich zusammen gerissen und die Pipette stecken lassen ;-) . Ich sehe auch keinen Unterschied.

Ich gebe Dir ebenso Recht, dass in der Regel 8-bit ausreichen.

Allerdings hat man es bei Panoramen meist mit einem großen Dynamikumfang zu tun. Und in den Schatten liegt das eigentliche Problem, denn bei 14-bit RAW Aufzeichnung hat die dunkelste EV-stufe nur 2 Tonwerte falls sie nicht verstärkt wird. Die Nikon Kameras haben ja mittlerweile einen Dynamikumfang laut www.dxomark.com von 14 Blendenstufen und mehr. Also ist sogar die 16-bit RAW Abspeicherung nicht weit entfernt. Oder man kodiert die Helligkeitsstufen intelligent und rechnet das nachher im RAW-Konwerter zurück, wie das Nikon im komprimierten RAW Format bereits macht. Da werden die hellen EV-Werte mit einer niedrigeren Auflösung abgespeichert, denn wer braucht schon 8192 (2 hoch 13) Abstufungen vom hellsten EV-Wert, bei einer 14-bit Kodierung.

16-bit Verarbeitung ist für die Schattenwerte wichtig, in den hellen Partien in der Regel völlig überdimensioniert, aber für den Rechner einfacher, wenn alles in der Exponentialkurve herauf und herunter gerechnet und verändert werden kann.

Deswegen ist mir das nach dem Stitchen, da ich dann in der Regel nicht mehr groß nachbearbeite, nicht mehr sooo wichtig.
Da reichen mir die 100%igen jpg-Files, weil es dann keine Artefakte gibt. Beim Würfelflächen projizieren und interpolieren wird aus den Pixeln eh "Matsche" gemacht, da machen denke ich 16-bit TIFFs keinen Unterschied. Oder hat das jemand ausprobiert und kann mir ein Beispiel zeigen.

Gruß
Richard

5

Donnerstag, 13. September 2012, 18:12

Bilder mit 16 Bit Farbtiefe werden in vielen ernst zu nehmenden Foren als Bearbeitungs-Standard genannt.
Mich interessiert, wieviel Bit der normale Betrachter denn eigentlich unterscheiden kann? Ein normaler Monitor kann, so wie ich gelesen habe, sowieso nur 8 Bit Farbtiefe darstellen.
?


ja auf dem normalen monitor kann man höstens 8 bit /kanal darstellen also eine farbe mit 256 heliggkeitsstuffen

16 bit bei der bearbeitung doch ein sinn ergibt da berechnungen werdne auf binaren zahlen gemacht.
bei 8 bit bildern ergebniss der umrechnung ist 16 bitzahl , aber das muss bis zu 8 bit weggeschnitten werden ( also wie bei dezimalen zahlen nach dem komma die stelle weggeschnitten werden müssen ( zb wenn wir sagen die zahl kann nur aus 8 ziffern bestehen) , also die zahl wird geroundet , ein teil von der informationen geht verloren.

wenn wir bearbeitzung auf 16 bit zahlen durchführen , ergebnnis wird auch gerundet aber immer bis auf eine 16 bit zahl .
schliesslich wenn bild fertig wird man kann sowieso nur auf dem monitor 8 bit -bild sehen , also qualitätsverlust durch die rundung ist nicht sehtbar.

Also 16 bit bild hat dein sinn wenn wir weitere bearbeitung schliessen nicht aus , oder wird auf einem gerät dargestelt das mehr als 8 bit/kanal zeigen kann.

6

Donnerstag, 13. September 2012, 18:18

Der Grund einen 16-Bit-Workflow zu fahren ist nicht dem Betrachter später das fertige Pano mit möglichst vielen Farben zu präsentieren, denn dazu reichen 8 Bit pro Kanal (also insg. 24 Bit = ca. 16 Mio Farben) durchaus aus, sondern einen größeren Daten-Spielraum mit mehr Möglichkeiten für die Nachbearbeitung des Bildmaterials zu haben. Die meisten DSLRs nehmen heutzutage in 14 Bit pro Kanal auf. Nur wenn man in RAW fotografiert, erhält man sich diese Informationsmenge. Bei JPEG hat man nur 8 Bit pro Kanal, sprich man wirft einfach mal so knapp die Hälfte an Bildinformationen weg. Mit mehr Bildinformationen pro Pixel (42 vs 24 Bit) hat man viel mehr Möglichkeiten zur Bildretusche. Man kann Schatten stärker aufhellen und Lichter weit stärker reparieren. Man kann Tonwertkorrekturen viel stärker anwenden, ohne dass sich das Histogramm nennenswert aufspreizt und es zu sog. Tonwertabrissen kommt, die sich in hässlichen Farbkanten manifestieren (auch Banding genannt). Das passiert z. B. dann, wenn bei einer Kontrasterhöhung zwei Farbwerte gespreizt werden sollen, aber zwischen diesen nicht genug Zwischenwerte existieren, die man zur Interpolation heranziehen könnte. Bei 14 Bit gibt es viel mehr solcher Zwischenwerte!

Warum man nun mit 16 Bit arbeitet, ist ganz einfach. Nach der RAW-Konvertierung müssen die Bilder in einem neuen Format abgelegt werden, das auch alle Bildinformationen (die 14 Bit pro Farbkanal) aufnehmen kann. JPEG ist dafür ungeeignet, 14-Bit-Bildformate gibt es nicht. Also nimmt man 16-Bit-Formate her (meist TIFF), in denen alle Bildinformationen hineinpassen. Das Pano-Programm, z. B. PTGui, kann diese TIFFs problemlos lesen und verarbeiten. Mit mehr Bildinformationen arbeitet die Featureerkennung genauer und man hat die Möglichkeit das gestitchte Pano ebenfalls als 16-Bit-TIFF auszugeben, was dann wie gesagt sehr einfach bearbeitet werden kann.

7

Donnerstag, 13. September 2012, 18:43

Was der Rechner intern mit diesen Bits rechnet, ist mir eigentlich egal. Und wofür es Monitore gibt, die mehr als 8 Bit darstellen können, bleibt mir ein Rätsel, solange niemand (?) diese Farben unterscheiden kann. Meine oben gezeigte Abstufung von 1 Bit wird noch 256 mal feiner unterteilt. Das sind pro Farbkanal 65536 Farben, und damit lassen sich insgsamt 281.474.976.710.656 Farben darstellen. Das ist eine Zahl, die man sich ohne Vergleich nicht vorstellen kann. Auf einem Ausdruck, der von hier bis zur Sonne reicht, wäre jede Farbe einen halben Millimeter breit.
Das hat sich vielleicht kaum jemand klar gemacht, der mit 16-Bit-Farben wie selbstverständlich umgeht.

Und dennoch gehen die Forderungen der Bildbearbeiter so weit.
Ich hätte gerne eine plausible und sichtbar gemachte Darstellung, warum man tatsächlich in solchen Dimensionen arbeiten muss, oder wie im Vergleich dazu ein 8-Bit-Workflow als sichtbar schlechter erscheint. Wo liegen die Grenzen?

Ich möchte auch keinen Link auf Internetseiten, die begründete Theorien enthalten, sondern ich will den Unterschied tatsächlich sehen.
Erst wenn ich diese Klarheit habe, kann ich für mich beurteilen, ob oder wann mehr als 8 Bit sinnvoll sind.
Gruß vom pano-toffel

8

Donnerstag, 13. September 2012, 19:00

Was der Rechner intern mit diesen Bits rechnet, ist mir eigentlich egal


ist nicht egal

sagen wir , wir gaben zur verfügung max 4 ställige zahlen ( inkl koma)
2,31 und 4,51

ergebnis multipizieren ist 10,481

weil die zahl darf nur 4 ställig sein muss so schreiben 10,5 - rest wird abgeschnitten , teil der information geht verloren.

jetzt multipliziert durch 3,33
ergebnis nach rundung 35,0


genau bei diesen bildberechnungen passiert es.
hättest 8 ställige zahl zur verfügung hättest als ergebnis 10,481.

10,481*3,33 =34,902

nach der rundung 34,9

je mehr berechnungen desto endergebniss wird unterschiedlicher.



also geht eignetlich um informationverlust bei aufwändigen rechnungen durch die rundungen

9

Donnerstag, 13. September 2012, 19:17

Okay, die Rechengenauigkeit ist damit geklärt. Aber es gibt mir keinen Anhaltspunkt, ab wann dieser Unterschied im Bild sichtbar wird.
Gruß vom pano-toffel

10

Donnerstag, 13. September 2012, 19:24

Monitore, die mehr als 8 Bit anzeigen können, sind mehr theoretischer Natur. Da geht es vor allem darum, das Rohmaterial so unverfälscht wie möglich darzustellen. Irgendwann erkennt das Auge tatsächlich keine Unterschiede mehr, da wäre ein besonders farbtiefes Bild natürlich die reine Platzverschwendung.

Ab wann dieser Unterschied im Bild sichtbar wird, hat man dir oben gesagt, nämlich dann, wenn es an die Nachbearbeitung geht oder wenn besonders hochdynamische Szenen widergegeben werden sollen.

Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »Nikpan« (13. September 2012, 19:31)


11

Donnerstag, 13. September 2012, 20:03

Hallo liebe Kollegen,

auf die Frage, wofür man 16 Bit Farbe braucht, gebe ich eine pragmatische Antwort:

Weil' s besser ist.

Besser heisst für mich in Verbindung mit dem unkomprimierten Tiff-Format und dem Adobe RGB Farbraum das Bild verlustfrei auch nach mehreren Bearbeitungsschritten speichern zu können und die Arbeit später fortzusetzen. Dazu gehört in meinem neueren Workflow nach den Erkenntnissen aus diesem Thread auch die Option, Kontrastanpassungen erst im gestitchten Equi mittels S-Kurve bzw. Anpassungen der Gesamthelligkeit des Bildes ohne Farbverschiebungen bei 16 Bit durchzuführen (für CNX2-Spezialisten: Mittels LCH-Editor). Erst ganz zum Schluss konvertiere ich in sRBG 8 Bit Tiff unkomprimiert, wenn es "nur" noch um die Umsetzung des Panoramas fürs Internet geht.

Selbst dann, wenn dieser Prozess nicht "besser" wäre, stört's mich auch nicht, so lange ich genug Speicher habe.
Herzliche Grüsse

Visual.Tom

Eine Auswahl meiner Panoramen

| Nikon D850 | 16mm Fisheye-Nikkor | Nodalpunktadapter aus Bauteilen von Novoflex, Manfrotto, RRS & Sunwayfoto | Capture One Pro + DxOPhoto Lab | Nikon Capture NX2 | PTGui Pro | Panorama Studio 3 Pro |

12

Donnerstag, 13. September 2012, 20:05

Deine erste Frage war ja wozu man 16-bit-Farbtiefe braucht, eine ganz andere Frage ist die, die du unten gestellt hast, nämlich ab wann man den Unterschied sieht.
Ja, du zwingst ein 16- oder 32-bit Produkt nach Bearbeitung sowieso in einen kleineren 8-bit-Farbraum (Monitor, Drucker, etc).
Den Workflow so lange wie möglich in einem großen Farbraum zu halten lohnt sich aber genau für die auch von dir angesprochenen Bildbearbeitungen wie z.B. Tonwertkorrektur.
Um dir ein sichtbares Beispiel zu geben, welches nicht nur theoretisiert, kann ich dir analog einmal den Vergleich von 32-bit-Bilddateien und 16-bit-Bilddateien in der Bearbeitung durch lightroom 4.1 anbieten.
Wenn du zeit und Lust hast, schau dir dieses Video doch einmal an: http://kwerfeldein.de/2012/07/16/hdr-mit-lightroom-4-1/
Ab. ca.7:30 betätigt der Autor gewisse Einstellungsregler an einer 32-bit-Datei, bei ca. 7:56 macht er dies an einer 16-bit-Datei, er erzeugt mehr Rauschen bei weniger Lichterzeichnung.
Das genau macht den Vorteil einer größeren Farbtiefe aus.
(dies einfach mal als plumpes optisches Beispiel ohne weiter auf irgendwelche Berechnungen einzugehen).

Ab wann kann man das sehen?
Du siehst den Unterschied zwischen beiden workflows sofort, auch wenn beide Bilder anschliessend als 8-bit-jpeg gespeichert würden.
Ob ein wie auch immer VORHER ausgearbeitetes 8-bit Bild nicht auch an einem Monitor als 7-bit-Variante genauso gut aussieht, kann ich nicht pauschal für alle Motive beurteilen,
die Spreu vom Weizen trennt sich warscheinlich aber doch bei einem guten Bilderdruck in kritischen Bereichen wie z.B. Hauttönen bei grossflächigen Portraits.

Ich hoffe, dich nicht gelangweilt zu haben und schicke dir beste Grüße!

André
Nikon D300, Nikkor 10,5mm, MK Panohead III, LR 4.3, PS 06, PTGui, Pano2VR

13

Donnerstag, 13. September 2012, 20:30

Okay, die Rechengenauigkeit ist damit geklärt. Aber es gibt mir keinen Anhaltspunkt, ab wann dieser Unterschied im Bild sichtbar wird.


weitgamut monitore also die die man kaufen kann , können 10 bit zeigen. ich habe so einen , unterchhied ist kaum sehtbar , nicht wirklich gross , man kann sagen der unterschied ist zum vernachlasen.

also die eigenschaften des monitors sind so - das mehr als 8 bit kann man nicht sehen.
praktisch ohne bedeutung ob endbild 8 oder 16 bit hat - sehst das gleiche - hat sinn nur als zwischenstuffe wegen berechnungen und
beim drucken - nicht mit dem tintenstr. drucker sondern in der echter druckerei.

14

Donnerstag, 13. September 2012, 20:32

Bilder mit 16 Bit Farbtiefe werden in vielen ernst zu nehmenden Foren als Bearbeitungs-Standard genannt.
Mich interessiert, wieviel Bit der normale Betrachter denn eigentlich unterscheiden kann? Ein normaler Monitor kann, so wie ich gelesen habe, sowieso nur 8 Bit Farbtiefe darstellen.




Wie viele Felder seht ihr hier nebeneinander?


egal - wenn ein bild 16 bitt das andere 8 bit ist kannst nur 8 bitt sehen , aber durch bearbeitung kann man aus dem 16 bild was herausholen , was in 8 bit bild steckt nicht mehr.

15

Donnerstag, 13. September 2012, 21:31

Ich hatte hier schonmal so ähnlich gefragt. http://www.panorama-community.de/wbb/ind…6893&highlight=

Vielleicht hilfts weiter.

Gruß Arno

marijonas

Mega-User

Beiträge: 2 820

Wohnort: Kaufbeuren

Beruf: Wasserträger

  • Nachricht senden

16

Donnerstag, 13. September 2012, 22:14


Ich hätte gerne eine plausible und sichtbar gemachte Darstellung, warum man tatsächlich in solchen Dimensionen arbeiten muss, oder wie im Vergleich dazu ein 8-Bit-Workflow als sichtbar schlechter erscheint. Wo liegen die Grenzen?


Hier Mal sichtbar gemacht, siehe Anhang. Ihr solltet Euch die 100% Darstellung anschauen, deswegen habe ich das Bild nicht in den Text eingebunden.

Ich habe die Bilder direkt aus dem RAW in 16-bit TIFF und 8-bit-TIFF konvertiert.
Anschließend in CNX die Lichterkomplett heruntergezogen und die Gradationskurve wie dargestellt heruntergezogen.

Kurzum, wenn die Bearbeitungen extrem sind, sieht man die Unterschiede.
»marijonas« hat folgendes Bild angehängt:
  • beispiel.jpg

17

Donnerstag, 13. September 2012, 22:46

Für mich sehen beide Bilder identisch aus, auch wenn sie sich minimal unterscheiden mögen...


18

Donnerstag, 13. September 2012, 22:47

Vielen Dank für eure aussagekräftigen Antworten und Links. André, das Video habe ich mir angesehen, und muss sagen, das überzeugt wirklich, und die Grundlagen sind dort gut erklärt!
Arno, Deinen Thread habe ich auch gelesen, und so langsam werden mir die Zusammenhänge klar.
Gruß vom pano-toffel

19

Donnerstag, 13. September 2012, 22:55

Für mich sehen beide Bilder identisch aus, auch wenn sie sich minimal unterscheiden mögen...
Oh nein! Wenn ich mir die beiden Bilder anschaue, dann sehe ich vor allem im blauen Bereich, dass das 8-bit-Bild überdeutliche Kanten zeigt, wogegen das 16-bit-Bild einen nahezu homogenen Verlauf darstellt.
Danke an Richard für dieses Vergleichsbild!
Gruß vom pano-toffel

20

Freitag, 14. September 2012, 01:33

Und dennoch gehen die Forderungen der Bildbearbeiter so weit.
Ich hätte gerne eine plausible und sichtbar gemachte Darstellung, warum man tatsächlich in solchen Dimensionen arbeiten muss, oder wie im Vergleich dazu ein 8-Bit-Workflow als sichtbar schlechter erscheint. Wo liegen die Grenzen?

Ich möchte auch keinen Link auf Internetseiten, die begründete Theorien enthalten, sondern ich will den Unterschied tatsächlich sehen.
Erst wenn ich diese Klarheit habe, kann ich für mich beurteilen, ob oder wann mehr als 8 Bit sinnvoll sind.

Also, das war mal ne klare Arbeitsanweisung.
;-)
Ich habe das mal visualisiert.



Die Forumsansicht zeigt es aber noch nicht so deutlich. Darum habe ich hier eine feinere Ansicht abgelegt.


Bild 1) und 2) zeigen zunächst die Originale in 8bit und in 16bit und verleiten einen spontan, an Verschwörungen zu glauben, denn das 16bit-Bild sieht zunächst grausiger aus, als das 8bit-Bild (zumindest an meinem Monitor).
Bild 3) und 4) zeigen beide Probanden nach freiheitlich enthemmten Zubbeln an den Reglern (beide gleich fies) und siehe da: 16bit rules und siegt mit gelassener Überlegenheit.
Die Farbabstufungen sind einfach feiner (vor allem in den Tiefen und den 3/4-Tönen, bis hin zu den Mitten), das Banding (die Farbstufen) geben nach Zugabe von Korn schnell auf und auch das Korn selbst wirkt feiner.
Dat iss wie Porsche fahren mit 100kmh: Der Fahrer weiß, er kann schneller fahren ... muss er aber nicht!

Bei Motiven am Tage KANN man sich auch überlegen, im 8bit-Modus zu arbeiten. Eine Herausforderung hingegen sind Aufnahmen in der Blauen Stunde, weil das Motiv naturgemäß viele dunkle Töne beinhaltet.
In dem IR-Forum, in dem ich bin, läuft ein User Keule schwingend durch die Gegend und schlägt jeden, der keinen RAW- und 16bit-Workflow glaubhaft nachweisen kann.
In meinen Augen hat der einen an der Murmel – aber sowas von! Was soll ich denn mit 16bit bei IR, das im Grunde eh nur aus drei Farben (bei mir 212° und 40° und Weiß) besteht und in den allermeisten Fällen auch fröhlich leuchtend hell daher kommt?!?!?
Also, ich würde 16bit und RAWs genau die Bedeutung zukommen lassen, die ihnen zusteht: Sie sind Kandidaten für besondere Fälle, aber keinesfalls Galeerentrommler für den Alltag.

Guuute Nacht und Ahoi
Claudia

Ahoi
Claudia