Sie sind nicht angemeldet.

Tom58

Mega-User

  • »Tom58« ist der Autor dieses Themas

Beiträge: 434

Wohnort: Südliches Rhein-Main-Gebiet

  • Nachricht senden

1

Mittwoch, 23. Januar 2019, 18:11

Belichtungsreihen RAW vs. JPG

Hallo zusammen,

jetzt habe ich mich selbst vom JPG zum RAW Jünger bekehrt und werde doch glatt wieder schwach.

Heute habe ich eine Anzahl Belichtungsreihen in RAW (nicht für Panos) geschossen und der Im- und Export in LR dauert wirklich ewig! Da ich die Belichtungsreihen über 5 Blendenstufen gemacht habe dachte ich mir, versuchst es einfach mal in JPG. Und siehe da - viel schnellerer Im- und Export und die Ergebnisse in Aurora und Oloneo waren MINDESTENS so gut wie die Ergebnisse aus den RAW Dateien, wenn nicht besser! Die RAW-Ergebnisse schienen mir - nach dem Vergleich mit den JPG-Ergebnissen - ziemlich flach und blutleer, trotz ordentlicher Nachbearbeitung in LR.

Stellt sich mir jetzt ernsthaft die Frage: Wieso bei 5 Blendenstufen überhaupt RAW-Monster erzeugen? Ist ja vom Dynamikumfang selbst bei den jpg-Dateien alles da!

Bin jetzt echt mal auf die Kommentare gespannt!

Gruß

Tom

2

Mittwoch, 23. Januar 2019, 20:02

Die Aufnahme selbst erfolgt IMMER als RAW, das kannst du nicht beeinflussen. Allerdings kannst du auf die Ausgabe Einfluss nehmen – entweder als Original ohne irgendwelche Vorgaben, oder als JPG mit den Vorgaben eines Ingenieurs, die der vor zehn Jahren ohne Kenntnis der jetzigen Gegebenheiten festgelegt hat.

Für durchschnittliche Aufnahmebedingungen mögen die Vorgaben für die JPG-Entwicklung in der Kamera ausreichend sein, für extreme Bedingungen hat die RAW einfach mehr Reserven. Und eventuell ändern sich Tage oder Wochen nach der Aufnahme die ursprüngliche Bildidee, wofür jetzt die flexibleren RAW die bessere Ausgangslage ist. Heißt, ins Archiv dürfen nur RAW.

RAW sind schneller und einfacher als JPG, tatsächlich. Denn vor Ort im Moment der Aufnahme fällt der Weißabgleich vollkommen weg, und selbst bei der Belichtungseinstellung muss man weniger penibel sein.

So wie es Vorgaben für die Entwicklung der JPG in der Kamera selbst gibt, so kannst du dir gleiche/ähnliche Bedingungen definieren, nach denen eine Automatik während(!) des Überspielens auf den Rechner aus den RAW auf dem Desktop JPG entwickelt – mit dem smarten Vorteil, die RAW als Archivdaten immer noch im Hintergrund zu haben.

3

Mittwoch, 23. Januar 2019, 20:35

Stellt sich mir jetzt ernsthaft die Frage: Wieso bei 5 Blendenstufen überhaupt RAW-Monster erzeugen? Ist ja vom Dynamikumfang selbst bei den jpg-Dateien alles da!


Nicht weit genug gedacht: Weil Du die grundlegenden Arbeiten welche mit dem RAW erst möglich sind (Weißabgleich, CAs, Purple Fringes, Schärfe, Rauschen, ...) nur mit RAW vollumfänglich und verlustfrei ausnutzen kannst.

4

Mittwoch, 23. Januar 2019, 23:30

Das heist für mich der Abstand zwischen den einzelnen Belichtungen ist nicht.optimal gewählt. Den du hast den Dynamikumfang deiner RAW Dateien nicht ausgenutzt. Wie groß war der EV. Abstand? Versuche doch einmal mit der hellsten der mittleren und der dunkelsten Belichtungsreihe zu arbeiten. Damit hast du weniger Bilder zum fotografieren und bearbeiten.

5

Donnerstag, 24. Januar 2019, 06:27

Weiterer Faktor ist das jede Speicherung des JPGs dieses neu komprimiert und JPG-Komprimierung ist verlustbehaftet, jedes Mal beim Speichern geht also ein wenig Bildinfo verloren.

6

Donnerstag, 24. Januar 2019, 12:39

Weiterer Faktor ist das jede Speicherung des JPGs dieses neu komprimiert und JPG-Komprimierung ist verlustbehaftet, jedes Mal beim Speichern geht also ein wenig Bildinfo verloren.

Nein, das ist ein seit Jahrzehnten wiederholter Mythos, der so – wie oben formuliert – noch nie belegt werden konnte. Denn dazu wäre es nötig, erstens die Datei selbst und zweitens jedes mal den Komprimierungsfaktor zu ändern.
Wird hingegen eine Datei nur mit einem anderen Namen mit der gleichen Einstellung der Komprimierung (weshalb beispielsweise Photoshop die vorherige Komprimierung im Speichern-Dialog voreinstellt) neu gespeichert, wird auch nach tausenden neuen Abspeicherungen keinerlei Qualitätsverlust nachweisbar sein (wer es nicht glaubt, kann sich in PS eine Aktion schreiben und die Festplatte voll schreiben …).
An dieser Stelle lässt sich also kein Vorteil von RAW zu JPG ausmachen.

Tom58

Mega-User

  • »Tom58« ist der Autor dieses Themas

Beiträge: 434

Wohnort: Südliches Rhein-Main-Gebiet

  • Nachricht senden

7

Donnerstag, 24. Januar 2019, 14:27

Ruder zurück!

Heute habe ich sowohl in RAW als auch in JPG die gleichen Bilder geknipst und der Dynamikumfang ist bei den RAW Bildern doch noch eine ganze Ecke größer. Gerade bei dunklen Räumen mit hellen Fenstern ist bei den JPG irgendwann mal Schluss mit einer Zeichnung, während die RAW Bilder noch deutlich was zeigen. Allerdings bin ich sehr unentschlossen, ob ich mir tatsächlich die Mühe mit 5 Belichtungsstufen (= 6 Bilder) mache. Man kann den Unterschied zwar sehen - aber dafür funktioniert die Stapelverarbeitung bei Aurora HDR nicht mehr (die kann nur 3er Reihen bearbeiten).

Außerdem müsste ich bei jedem Shooting an der Belichtung rumfummeln und das könnte schnell mal Verwacklungen geben. Ich mache den Kompromiss mit der 3er RAW-Reihe und mache einen Haken an das JPG Thema.

Trotzdem danke für die Kommentare!

Tom

8

Freitag, 25. Januar 2019, 16:27

Allerdings bin ich sehr unentschlossen, ob ich mir tatsächlich die Mühe mit 5 Belichtungsstufen (= 6 Bilder) mache. Man kann den Unterschied zwar sehen - aber dafür funktioniert die Stapelverarbeitung bei Aurora HDR nicht mehr (die kann nur 3er Reihen bearbeiten).


Meiner Erfahrung nach sind HDRs mit 6 Bildern absolut überzogen in 95% der Fälle. Drei Bilder haben bei mir meistens absolut ausgereicht, vorausgesetzt die Belichtung wird optimal gesetzt (also drei Bilder welche das ganze Histogramm ausfüllen).
Bei Sonnenschein zum Beispiel ist damit oft das hellste Bild der Reihe ein Bild wie es auch ein Belichtungsmesser liefern würde. Blind das mittlere Bild normal belichten und dann eben 2/3/4 Bilder dunkler und heller war ein zeitraubender Fehler, welchen ich bei meinen ersten HDR-Bildern gemacht habe.

PS: Aurora HDR ist abgesehen vom guten Marketing auch recht kritisch diskutiert hinsichtlich der Qualität der erstellten HDRs... ;-) Das nur so am Rande.

9

Freitag, 25. Januar 2019, 16:30

Ach und eines noch zur ursprünglichen Frage:
Ich habe die Erfahrung gemacht, dass unabhängig von den Belichtungsreihen die Raw-Dateien (bzw besser fertig entwickelte 16bit-TIFFs) deutlich besser zur automatischen Kontrollpunktgenerierung taugen als JPGs.

Das ist somit schon Grund genug in der Panofotografie, IMMER jene Dateien mit dem größtmöglichen Dynamikumfang zu verwenden, finde ich.

10

Freitag, 25. Januar 2019, 19:55

RE: Belichtungsreihen RAW vs. JPG

Hallo zusammen,

jetzt habe ich mich selbst vom JPG zum RAW Jünger bekehrt und werde doch glatt wieder schwach.



Stellt sich mir jetzt ernsthaft die Frage: Wieso bei 5 Blendenstufen überhaupt RAW-Monster erzeugen? Ist ja vom Dynamikumfang selbst bei den jpg-Dateien alles da!

Bin jetzt echt mal auf die Kommentare gespannt!

Gruß

Tom


Hallo Tom

habe auch bemerkt , das die HDR bilder aus jpg- bilder fusioniert waren besser als erwartet , tatsächlich vielleicht besser als aus tiff Dateien.

wenn das RAW material direkt in das HDR Programm liest , hast kein einfluss auf Entwicklung von einzelnen bilder.
das mache ich nicht , zuerst raw zum tiff , und dann tiff fusionieren.
Jedes tiff-bild kann je nach dem, entsprechend vearbeitet werden.

Was mich gewundert hat , dass mal irrtümlich habe jpg statt wie üblich tiff-bilder in das hdr-programm geschickt und Ergebnis war vielleicht besser !

Mehr habe das nicht erforscht , vermute dass grosse rolle spielen kann das faktum , das die jpg- Kompression deutlich auf angenehme weise rauschen reduziert. Rauschen bei hdr-fusion grosse rolle spielt.

11

Samstag, 26. Januar 2019, 13:37

Nein, das ist ein seit Jahrzehnten wiederholter Mythos, der so – wie oben formuliert – noch nie belegt werden konnte. Denn dazu wäre es nötig, erstens die Datei selbst und zweitens jedes mal den Komprimierungsfaktor zu ändern.



Hallo Zille.

Das stimmt , wenn das Bild nicht bearabeitet wird.

Aber wenn das jpg Bild verändert wird , bei speichern mit jpg Kompression kann passieren, dass die neue Berechnung ( Parameter für sinusoiden nach der FFT) nicht ident. wird.
In dem fall der Unterschied zu sehen ist.

Habe schnell einen Versuch gemacht.
JPG Kompression 68% - das Bild 1 wurde um 90 grad umgedreht und gespeichert. Produkt wieder aufgemacht und das gleiche nochmals - Insgesamt 8 mal wiederholt. Der Unterschied doch zu sehen ist .
100 % ausschnitt in der Analge.

Grüsse
»Panpan« hat folgende Dateien angehängt:
  • 1.jpg (81,44 kB - 117 mal heruntergeladen - zuletzt: 23. Juni 2025, 03:15)
  • 9.jpg (84,17 kB - 111 mal heruntergeladen - zuletzt: 23. Juni 2025, 02:40)

Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »Panpan« (26. Januar 2019, 16:14)


12

Samstag, 26. Januar 2019, 20:19

Lieber Panpan,
du scheinst zu glauben, das mit dem Drehen eines Bildes selbiges nicht geändert würde. Da aber irrst du, denn es ändern sich die Informationen, wo welches Pixel angeordnet werden soll. Das heißt, jedes Pixel wird verändert; viel mehr Änderungen mit einem Schritt kann man kaum erzielen. Wird das nun auch noch jedes mal gespeichert, so wäre es im höchsten Maße verwunderlich, wenn sich am Ende keine Qualitätsverschlechterung ergeben würde. Insofern ist dein Versuch gelungen.

Hast du möglicherweise bei obiger Aussage den Hinweis überlesen, dass die Datei unverändert (mit beispielsweise anderem Namen) neu gespeichert wird?

13

Samstag, 26. Januar 2019, 21:41

Die aussage vom fjs600 nicht falsch ist.

Tatsächlich jedes mal beim speichern, Komprimmierung nochmals gerechnet wird.
Wenn das Bild nicht berührt wurde , Komprimmierung wird theoretisch gleich , also keine Änderung.
In der Wirklichkeit die Dateien werden immer etwas grösser . Der Grund ist der Bearbeitungsrauschen. Rauschen verursacht , dass die Fourierreihungen ( in jpg - Komprimierung) länger sein müssen , damit auch Bilddatei ( jpg) grösser wird. ( Rauschen entsteht auch bei unkomprimmierten tif Bilder -in beiden Fällen ist zu vernachlässigen .)


Wenn das jpg komprimmiertes Bild auf irgendwelche Weise bearbeitet wird , die neue Komprimmierung wird nicht ident mit der vorherige. Mit Verlusten kann man rechnen ( auch nur Stellenweise) .
Da in den Panoramen die Bilder mehrfach bearbeiten und gespeichert sein müssen ( gibt es ein Paar unabhängigen Stuffen ) , dann tatsächlich mit irgenwelchem Verlust , wenn wir mehfach die Bilder als jpg speichern , zu rechnen ist.


Zur anfängliche Frage - habe gleiche Beobachtung wie Tom vor Jahren gemacht.
Habe vom LT jpg bilder exportiert und die weiters eingelesen , aber in weiteren stuffen ohne komprimmierung gespeichert ( als tiff) .
Ergebniss war für mich überraschend gut , besser als ich gewohnt war. Habe oloneo verwendet. Das liegt vielleicht an algorithmen in hdr programmen , die vielleicht nicht undbedingt tonal " zu breiten " bilder brauchen. Wahrscheinlich gewisse Separation vorteilhaft sein könnte. Aber habe das nicht weiter erforscht. Kann ich lediglich die Beobachtung vom Tom bestätigen , aber nicht wirklich erklären , weil habe es nicht mehr untersucht.

Panorama welches so gemacht wurde habe noch . Damals war ich sehr positiv durch sehr weiche Übergänge in den Lichtern überrascht. So weiches Laternenlicht habe sonnst nie bekommen.
Rauschen waren auch deutlich niedriger als erwartet .


(Flash)
HIER

kbaerwald

Super-User

Beiträge: 313

Wohnort: Ettlingen bei Karlsruhe

  • Nachricht senden

14

Samstag, 26. Januar 2019, 22:59

ad 1: Welcher Bildbearbeiter öffnet schon eine JPG Datei um sie kurz drauf und ohne Änderung wieder abzuspeichern? Ein ziemlich sinnfreier Vorgang - um das mal vorsichtig auszudrücken.

ad 2: Panpan, du hast vollkommen Recht - und das lässt sich auch mathematisch nachweisen. Wer keine Ahnung hat und Genaueres wissen möchte, sollte mal hier schauen. Insbesondere die Kapitel über Codierung und Decodierung sind interessant.

Klaus

15

Sonntag, 27. Januar 2019, 14:54

@Panpan:
Du hast nicht richtig oder vollständig gelesen/verstanden, auf was ich geantwortet habe. Dabei habe ich in #6 bereits explizit hervorgehoben: WIE OBEN FORMULIERT (wie in #5 geschrieben). Es geht also darum, dass keineswegs bei JEDEM Speichern die Qualität durch Verminderung der Infos beeinflusst wird. Wird mit der gleichen Kompressionsstufe erneut gespeichert, wird NICHT zwangsläufig eine weitere, zusätzliche Kompression angewendet. Auch wenn deine anderen Hinweise im allgemeinen zutreffend sein mögen – in diesem Zusammenhang sind sie unnötig, verwirrend und falsch, weil du dein Lichtlein an der falschen Stelle angezündet und aufgehängt hast.

@kbaerwald
Es ist erstaunlich, dass dir eine solch simple, ständig vorkommende Anforderung entfallen ist. Von sinnfrei kann keinerlei Rede sein, wenn eine Datei beispielsweise zur Sicherung oder besseren Auffindbarkeit und Kategorisierung unter einem anderen Namen erneut gespeichert wird. Nur sollte man selbst bei diesem Alltagsproblem wissen, wie Qualitätsverluste vermieden werden – heißt, nicht versehentlich die vorherigen Einstellungen wechseln.

Aus deinem Link geht wunderbar hervor, dass eine Speicherung nie willkürlich, sondern – wie in der Mathematik üblich – immer nach FESTEN REGELN erfolgt. Wurde nach dem Öffnen kein Pixel geändert, und geschieht die anschließende Speicherung nach gleicher Kompressionsstufe, so wird eben die Codierung nach gleicher Regel wie zuvor angewendet. Was nichts anders heißt, als dass sich die Qualität dadurch nicht ändern kann. Dein Hinweis auf die Mathematik zerstört die Legende, dass mit jedem Speichern eine zusätzliche Komprimierung angewendet wird und widerlegt die Anschauung von fjs600 und Panpan.

Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »Zille« (27. Januar 2019, 15:33)


Tom58

Mega-User

  • »Tom58« ist der Autor dieses Themas

Beiträge: 434

Wohnort: Südliches Rhein-Main-Gebiet

  • Nachricht senden

16

Sonntag, 27. Januar 2019, 15:45

Allerdings bin ich sehr unentschlossen, ob ich mir tatsächlich die Mühe mit 5 Belichtungsstufen (= 6 Bilder) mache. Man kann den Unterschied zwar sehen - aber dafür funktioniert die Stapelverarbeitung bei Aurora HDR nicht mehr (die kann nur 3er Reihen bearbeiten).


Meiner Erfahrung nach sind HDRs mit 6 Bildern absolut überzogen in 95% der Fälle. Drei Bilder haben bei mir meistens absolut ausgereicht, vorausgesetzt die Belichtung wird optimal gesetzt (also drei Bilder welche das ganze Histogramm ausfüllen).
Bei Sonnenschein zum Beispiel ist damit oft das hellste Bild der Reihe ein Bild wie es auch ein Belichtungsmesser liefern würde. Blind das mittlere Bild normal belichten und dann eben 2/3/4 Bilder dunkler und heller war ein zeitraubender Fehler, welchen ich bei meinen ersten HDR-Bildern gemacht habe.

PS: Aurora HDR ist abgesehen vom guten Marketing auch recht kritisch diskutiert hinsichtlich der Qualität der erstellten HDRs... ;-) Das nur so am Rande.


Hallo Ecotuner,

Aurora HDR ist nur (und auch nicht immer) in Innenräumen etwas besser als Oloneo oder Lightroom. Tatsächlich ist die HDR-Engine der Software weit von der Werbeaussage des besten HDR-Programms aller Zeiten entfernt.

Zu den Belichtungsreihen noch eine Frage. Du startetest mit dem hellsten Bereich des Bildes? Ich suche mir immer eine möglichst mittlere Belichtungssituation und nehme die als Startpunkt. In Innenräumen also niemals die Fenster, sonst wird der Rest zu dunkel. Oder habe ich das falsch verstanden?

Gruß

Tom

kbaerwald

Super-User

Beiträge: 313

Wohnort: Ettlingen bei Karlsruhe

  • Nachricht senden

17

Sonntag, 27. Januar 2019, 15:55

Hast du überhaupt verstanden, was du gelesen hast? Jede Dekompression verändert den Informationsgehalt der Datei. Bei erneuter Kompression wird also keine exakte Kopie der vorhergehenden Datei erzeugt.

Sorry, falls du das nicht verstehst - dann gehe doch bitte dein "Lichtlein an der richtigen Stelle anzünden und aufstellen". Danke.

18

Sonntag, 27. Januar 2019, 17:50

@Panpan:
Es geht also darum, dass keineswegs bei JEDEM Speichern die Qualität durch Verminderung der Infos beeinflusst wird.



1.wenn vor JEDEM Speichern das Bild NICHT verarbeitet wird , kommt NICHT zur Qualitätverminderung. ( Komprimmierungsstufe gleich)

2. wenn vor JEDEM Speichern das Bild verarbeitet wird , kann zur Qualitätverminderung kommen. ( das ist der Fall mit welchem wir konfrontiert sind).

ad1. Kurze Ergänzung.

A) bei aufmachen des jpg bildes , wird das bild zum RGB bild umgerechnet ( "dechiffriert" ) - wir sehen auf dem Bildschirm wieder ein RGB bild.
B) wenn nochmals RGB bild als jpg gespeichert wird , es wird nochmals Fourier transfrmate gerechnet. Die ausgerechnete koeffzienten theoretisch werden identisch wie beim ersten Durchgang , also nach dem speichern Ergebnis wird gleich , abwohl kommprimierung zum zweiten mal ausgerechne wurde . In dem Fall die kommprimierungen sich nicht addieren , oder nicht multiplizieren. ( natürlich bei Millionen koeffizienten die sind nicht wirklich absolut 1:1 gleich , aber die Unterschiede sind zum vernachlässigen)

Ich weiss nicht wie gut mit Fouriertransformate vertraut bist .

Also ob zum qualitätsverminderung kommt ( bei gleicher Kommpressionstufe) , ist abhängig von dem , ob das bild verändert wurde oder nicht.
Wenn das Bild verändert wurde , werden neue ( andere) koeffiziente ausgerechnet , rest des Bildes kann auch betroffen werden - Qualität sinkt, kommt zur Artefaktebildung - was ich im Beispiel gezeigt habe.

Die Aussage vom fjs600 ist nicht falsch ( Oder nur bedingt) , ich habe auch nicht geschrieben , das Deine falsch ist.
lediglich habe ergänzt.

Grüsse und schönen Abend noch.

19

Montag, 28. Januar 2019, 07:22

Ein kleiner Versuch , ergebniss finde ich interessant

habe Auflösung von einem objektiv+sensor wie üblich vermessen.
Das gleiche bild unterschiedlich gespeichert , sonnst keine Bearbeitung , alles ident.

Ergebnisse:

bild vom raw zu tiff - 3863 linienpaar ( in der anlage )
bild vom raw zu jpg - 3848 lp
bild vom jpg zu jpg - 3866 lp

die Ergebnisse schwanken um 0,4% also ohne Bedeutung , in der Praxis nicht zum unterscheiden , aber die zweite jpg Kompression ( 100 %wie die erste) ist nicht wirklich absolut ident. und nicht absolutg neutral.
Auch Datei etwas grösser ist , jpg 1- 12 mB , jpg2 - 12,8 mB, Wahrscheinlich nach vielen vorgängen irgendwelche Artefakten auftretten könnten.

Ergänzung
Tatsächchlich , die tretten auf

fot B jpg - 1 durchang
fot C jpg - 20 mal eingelesen und gespeichert , keine Bearbeitung.
Beide Bilder 100% jpg kompression - ausschnit 100%


fot 1 , 2 - B,C vergrössert - screen.

doch artefakten zu finden sind , bestimmt qualität nicht gleich ist.
»Panpan« hat folgendes Bild angehängt:
  • 1.png
»Panpan« hat folgende Dateien angehängt:
  • B.JPG (70,09 kB - 106 mal heruntergeladen - zuletzt: 23. Juni 2025, 03:38)
  • C.JPG (55,1 kB - 114 mal heruntergeladen - zuletzt: 23. Juni 2025, 01:25)
  • 1.jpg (486,95 kB - 69 mal heruntergeladen - zuletzt: 23. Juni 2025, 03:50)
  • 2.jpg (492,87 kB - 73 mal heruntergeladen - zuletzt: 23. Juni 2025, 01:09)

Dieser Beitrag wurde bereits 10 mal editiert, zuletzt von »Panpan« (28. Januar 2019, 12:48)


20

Montag, 28. Januar 2019, 16:01

Hast du überhaupt verstanden, was du gelesen hast? … Sorry, falls du das nicht verstehst …

Würde ich schon das Problem nicht verstehen, wie könnte ich dann deine Frage beantworten?! Das ist an sich schon ausreichend skurril, aber dann entschuldigst du dich auch noch für mein vermeintliches Unverständnis. :rolleyes:

Jede Dekompression verändert den Informationsgehalt der Datei. Bei erneuter Kompression wird also keine exakte Kopie der vorhergehenden Datei erzeugt.

Jede JPG-Datei liegt gepackt vor, und beim Öffnen wird die Kompression rückgängig gemacht. Würde nun bereits beim Öffnen (Dekompression) die Informationen verändern werden, so hieße das nichts anderes, als das bei jeder JPG-Datei einen Verfall eingebaut wäre. Selbst wenn nach dem Öffnen nullkommanüscht an der Datei verändert würde, müsste sie nach deiner Aussage mit jedem Öffnen schlechter werden, und folglich irgendwann nicht mehr lesbar sein. Puh …

Na ja, so ist das mit dem Glashaus. Denn die Autoren haben nicht geschrieben, was du verstanden und zitiert hast. Vielmehr haben sie sehr richtig darauf hingewiesen, dass eine gepackte Datei beim Dekomprimieren nicht mehr den Umfang der ursprünglichen, nicht-gepackten Datei hat. Es ist absolut keine Rede davon, das jedes mal eine erneute, zusätzliche Komprimierung vorgenommen würde und eine komprimierte Datei mit jedem weiteren Speichern immer schlechter wird.

Und so trägt dein dazwischen grätschen nicht das Geringste zur Klärung der ursprünglichen Frage bei.