Sie sind nicht angemeldet.

Lieber Besucher, herzlich willkommen bei: Panorama Community. Falls dies Ihr erster Besuch auf dieser Seite ist, lesen Sie sich bitte die Hilfe durch. Dort wird Ihnen die Bedienung dieser Seite näher erläutert. Darüber hinaus sollten Sie sich registrieren, um alle Funktionen dieser Seite nutzen zu können. Benutzen Sie das Registrierungsformular, um sich zu registrieren oder informieren Sie sich ausführlich über den Registrierungsvorgang. Falls Sie sich bereits zu einem früheren Zeitpunkt registriert haben, können Sie sich hier anmelden.

141

Donnerstag, 7. März 2024, 20:32

Hallo Panox,

wunderbar, extrem plastisch, klasse Qualität.
Die Equi-Verzerrung scheint nicht optimal zu sein, Astronaut und das Tierchen biegen sich irgendwie noch. ist der Horizont vielleicht noch zu tief?

Du arbeitest jetzt mit auch Fooocus? Taugt das was? Was sind die Vorteile?

142

Donnerstag, 7. März 2024, 22:21

Ja, mit dem Horizont kämpfe ich noch. Mit neuen Layer-Bearbeitungen habe ich eine Variation ohne schlechte Retusche beim Hintergrund probiert:



Ja, Fooocus ist sehr schnell, hat aber keine freie Bildgrößenwahl. Die einzige 2:1 Vorgabe ist mit 1408x704 beträchtlich kleiner als bei A1111. Die Installation ist sehr einfach.

Hier habe ich mal die 26 vorggegebenen Bild-Proportionen anhand eines "Drei Raben auf einer Burgzinne" -Motivs zur Übersicht aneinandergereiht:

Bildproportionen in Fooocus

Mit Inpaint von Fooocus und anschließendem Upscaling mit Upscayl ist dieses Panorama entstanden, bei dem die Unterschiede bei den Darstellern (A1111 zu Fooocus) deutlich werden.



Das Inpainting ist bei der Platzierung der Figuren hilfreich.

Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »panox« (8. März 2024, 14:05)


143

Samstag, 9. März 2024, 15:44

Qualitätsgewinn durch doppeltes Upscalen

Super Astronaut und Tierchen - jetzt stimmt auch die Equi-Verzerrung perfekt.

Durch Zufall bin ich auf einen eigentlich naheliegenden Trick beim Upscalen gekommen.
Das Upscalen in Automatic1111 mit Ultimate SD upscale und Faktor 2 bringt ja immer einen richtigen Qualtitätsschub. Von 4096 auf 8192 mit 32x 1024-Kacheln ist das gut zu handeln.
Das weitere Upscalen auf 16384 mit 128 Kacheln ist leider eine andere Nummer. Das ist bei mir gestern nach 1,5 Std abgebrochen aus unerfindlichen Gründen, hatte schon oft funktioniert.

Upscalen, verkleinern und erneut upscalen
Quasi das selbe Ergebnis oder sogar besser bekommt man, wenn man das 8192 px Resultat in PSD verkleinert auf 4096 px und dann erneut upscaled.
Das kann man sogar mehrere Male durchführen.

http://www.panorama-community.de/wbb/ind…97083#post97083
Die alte Biblothek ist so noch mal überarbeitet. Da sind jetzt Bildteile drin, die von Schärfe und Inhalt m.E. nicht mehr von einem echten Foto zu unterscheiden sind.
Denoising war 0,3 bei 20 Steps.

Einfaches Upscalen (Ausschnitt):


Doppeltes Upscalen (Ausschnitt):


144

Sonntag, 10. März 2024, 23:21

Interessante Entdeckung! Die Bilddetails sind sehr verbessert. Das teste ich mal aus.

Hier mal ein Mix aus A1111 und Fooocus. Der rechte Alien aus Fooocus, das Panorama aus A1111.


145

Freitag, 15. März 2024, 10:44

Hohe Step-Werte können Equi-Biegungen stören

Bei diesem Sternen-Observatorium war es sehr schwierig, ein "gerades" Teleskop hinzukriegen in der interaktiven Version.
Dabei hat sich ein Effekt ganz stark gezeigt, den ich auch schon früher bemerkt hatte:

Begradigung von Equi-Biegung bei höheren Step-Werten
In equirectangularen Bildern sind ja alle geraden Kanten außer senkrechten Linien gebogen. Leider begradigt Stable Diffusion manche krumme Linien bei höheren Step-Werten. 20 Steps können schon zu viel sein.

Bei dem Teleskop im Bild war das extrem: Alles über 15 Steps führte zu einem geknickten, verbogenen Teleskop, mit allen getesteten Checkpoints. Das 3D Modell ist dabei so optimiert, dass das leres++ Dept-Bild die Biegung optimal erfassen konnte.
Die entstandene Variante ist auch nicht perfekt gerade, obwohl die beste Version von 64 Durchgängen.

Das Bild ist ansonsten wieder eine Montage aus mehreren Durchgängen und viel Retusche. Die Kuppel war nur bei wenigen Durchgängen vorhanden bzw. undurchsichtig, das Teleskop meist notorisch verbogen.

Es sind jetzt viele Fehler im Bild verblieben. das Resultat ist m.E. interessanter als eine perfekte, cleane Version, die es auch hätte geben können.
Ich hatte auch mit Blockade Labs Skybox probiert - kein auch nur annähernd ähnliches Bild bekommen. Keine Teleskop-Kuppeln in den Trainingsdaten.

photo from elevated position, huge telescope in a observatory with a white dome,, night sky outside the white dome with white covering, large run down sky observatory, corroded dome, control desks, several walks, some people, highly detailed, 360 degrees realistic equirectangular panoramic photo, 8k, high resolution, photo realistic, rich colors.Steps: 12, Sampler: DPM++ 2M Karras, CFG scale: 3, Seed: 495964492, Size: 2048x1024, Model hash: c1adaf9d0c, Model: newrealityxlAllInOne_20, Tile X: True, Tile Y: False, Start Tiling From Step: 0, Stop Tiling After Step: -1, ControlNet 0: "Module: none, Model: controlnetxlCNXL_saiDepth [9fe0fd3b], Weight: 1, Resize Mode: Just Resize, Low Vram: False, Guidance Start: 0, Guidance End: 1, Pixel Perfect: True, Control Mode: Balanced, Hr Option: Both, Save Detected Map: True", Version: v1.7.0


Depth-3D-Vorlage:


Montage Sternen-Observatorium:



146

Mittwoch, 20. März 2024, 22:15

Hier ein weiteres Problemkind, "Circus".
Höhere Step-Werte führten zu einer quasi leeren Szenerie mit geraden Kanten. Das 3D Modell optimal aufzubereiten für ein prall gefülltes geometrisch korrektes Bild war sehr aufwändig.

Das Panorama ist jetzt mit niedrigen Step-Werten in ca. 8 Durchgängen upgescaled, dabei 3x wieder verkleinert, einmal sogar 4-fach verkleinert. Erst am Ende konnte ich dann einen Step-Wert von 20 zum Upscalen ansetzen, um eine halbwegs saubere Szenerie zu erzeugen.
Das Panorams ist wieder eine Montage aus diesmal 4 Varianten mit sogar verschiedenen Checkpoints. Es gab dabei tatsächlich eine Variante, die eine Farbgebung des Zeltes fast der Vorlage entsprechend erzeugte. De Depth Map gibt ja keine Farbinformationen weiter.

two carousels with many painted wooden horses, lost place, inside rotten circus tent with red and yellow pattern, broken merry go rounds, old corroded circus waggons, highly detailed, 360 degrees realistic equirectangular panoramic photo, 8k, high resolution, photo realistic, rich colors..
Steps: 20, Sampler: DPM++ 2M Karras, CFG scale: 3, Seed: 2233495440, Size: 2048x1024, Model hash: 440a7f226b, Model: protovisionXLHighFidelity3D_releaseV660Bakedvae, Tile X: True, Tile Y: False, Start Tiling From Step: 0, Stop Tiling After Step: -1, ControlNet 0: "Module: none, Model: controlnetxlCNXL_saiDepth [9fe0fd3b], Weight: 1, Resize Mode: Just Resize, Low Vram: False, Guidance Start: 0, Guidance End: 1, Pixel Perfect: True, Control Mode: Balanced, Hr Option: Both, Save Detected Map: True", Version: v1.7.0



Depth-Map 3D Vorlage:


Circus-Panorama:



147

Donnerstag, 21. März 2024, 16:15

Toll, wieder mal sehr detailreich und mit Tiefe. Interessant, wie Du mit der Vorlage die Panorama-Erzeugung gelenkt hast. Ein Mix aus Checkpoints ist also auch dabei - Montagestellen kann ich nicht erkennen. Bei den Rundungen, die unten immer abgeflacht sind, habe ich schon mal mit dem Verformen-Werkzeug verzerrt.

Bei meinem Beispiel habe ich Deinen Tipp probiert, ein hochskaliertes Panorama in PS zu verkleinern, und dieses dann noch einmal hochzuskalieren. Die Schärfe hat tatsächlich zugenommen. So Traumthemen wie ein aus einer Zeitmaschine ausgebüxtes Alien erscheinen ja ohne viel Aufwand schnell auf dem Bildschirm.


148

Freitag, 22. März 2024, 09:58

Der Cable-Guy auf dem Boden ist super. Klasse Szenario.
Dieses Verkleinern und dann wieder Upscalen ist eben sehr nützlich, wenn man die Bilder dreckig und detailreich halten will.
Das hattest Du ja auch schon mal erwähnt, dass mit hohen Step-Werten alles geglättet wird. Mit vielen Upscale-Durchgängen und moderaten Denoising.Werten kriegt man die Bilder geglättet, ohne dass die ganzen Details verschwinden. Ist nur deutlich mehr Arbeit.

149

Freitag, 22. März 2024, 13:20

Diese Abfolge zeigt die Bildverbesserung durch Deine Entdeckung:

1. Original aus Fooocus: 1408x704 px

2. Hochskaliert mit Upscayle auf: 5632x2816 px

3. Mit PS Bildgröße auf 2800x1400 px verringert

4. Mit Upscayle dann auf 11200x5600 hochskaliert


150

Freitag, 22. März 2024, 13:28

Teils finde ich die Automatic-Einstellung beim Verkleinern in PSD zu hart. Das ist in der Automatic-Einstellung glaub ich Bicubic Sharper. Diese Härte sieht man dann auch beim Upscalen in Automatic1111.

Ich nehme teils zum Verkleinern "Bicubic smoother", was keine Schärfung vornimmt. Das gibt ein organischeres Ergebnis beim Verkleinern, wenn die Schärfe eigentlich schon ausreicht.
Upscalen schärft je eigentlich nicht, sondern erhöht die Details. Da werden beim weiteren Upscalen vielleicht sogar Schärfungsartefakte mit verstärkt.

Bei dritten Deiner Testbilder meine ich diesen Effekt leicht sehen zu können.

151

Freitag, 22. März 2024, 14:29

In meiner Testreihe kann ich leichte Unterschiede erkennen beim Verkleinern von einem Ausschnitt von 1381x829 px auf 690x414 px. Vielleicht ist Pano2VR hier nicht so aussagekräftig.

Testreihe Bildverkleinerung mit Photoshop

152

Freitag, 22. März 2024, 14:52

Hier ein Vergleich, den ich gerade in PSD gemacht habe. Da sieht man den Effekt deutlich. Das mit Automatic verkleinerte Bild sieht überschärft aus.

Vor allem scheint diese Schärfung beim Upscalen eben nicht immer zu verschwinden, wie auch manche starke Unschärfen im Bild komischerweise beim Upscalen erhalten bleiben.


153

Dienstag, 2. April 2024, 20:05

Regional Prompter fürs Opernhaus

Stable Diffusion ist ja nicht gut darin, wenn mehrere Objekte in einem Bild beschrieben werden - 1 Hauptobjekt und der Hintergrund, mehr funktioniert eigentlich nicht.

Opernhaus:
Die Vorlage für das Projekt Opernhaus ist ein Panorama der leeren Staatsoper mit eingesetztem 3D-Publikum und 3D-Orchester. Daraus hat SD per leres++ eine Depth Map generiert. Gescheitert ist dann, in einem Prompt zu beschreiben, was Publikum ist, was Orchester und was Bühne - und in welche Richtungen die Leute jeweils schauen. Keine Chance.

Regional Prompter
Ich habe dann versucht, mit einer Automatic1111-Erweiterung das Problem zu lösen: sd-webui-regional-prompter
https://github.com/hako-mikan/sd-webui-regional-prompter

Diese txt2img-Erweiterung hat mehrere Modi, ich habe mit der Maskenfunktion gearbeitet. Man malt Bereiche in eine Vorlage, für die jeweils ein unabhängiger Prompt gilt.
Im Text-Feld werden die Prompts durch das Wort "BREAK" getrennt.
Im Prinzip hat das funktioniert - mit 3 Regionen - auch wenn das (etwas unbefriedigende) Endresultat auf anderem Weg zustande gekommen ist - Durchgänge mit 180° Verschiebung und Montage von vielen Durchgängen.

Der "Regional Prompter" bleibt jedenfalls im KI-Werkzeugkasten als Problemlöser.

audience area of a sold-out opera house full of visitors, all seats are occupied by visitors, mixed gender audience in elegant black clothing, red seats, audience faces are directed towards the camera, highly detailed, 360 degrees realistic equirectangular panoramic photo, 8k, high resolution, photo realistic, rich colors BREAK.
orchestra pit of a baroque opera house, orchestra pit with black seats and dimmed light, large symphony orchestra in a orchestra pit with black seats and dimmed lights, conductor, violinist, cellists, Wind players, double bass players, highly detailed, 360 degrees realistic equirectangular panoramic photo, 8k, high resolution, photo realistic, rich colors BREAK.
stage of a baroque opera house, singers and actors on the stage, highly detailed, 360 degrees realistic equirectangular panoramic photo, 8k, high resolution, photo realistic, rich colors.
Steps: 15, Sampler: DPM++ 2M Karras, CFG scale: 3, Seed: 4161892144, Size: 2048x1024, Model hash: 440a7f226b, Model: protovisionXLHighFidelity3D_releaseV660Bakedvae, Tile X: True, Tile Y: False, Start Tiling From Step: 0, Stop Tiling After Step: -1, ControlNet 0: "Module: none, Model: controlnetxlCNXL_saiDepth [9fe0fd3b], Weight: 1, Resize Mode: Just Resize, Low Vram: False, Guidance Start: 0, Guidance End: 1, Pixel Perfect: True, Control Mode: Balanced, Hr Option: Both, Save Detected Map: True", RP Active: True, RP Divide mode: Matrix, RP Matrix submode: Columns, RP Mask submode: Mask, RP Prompt submode: Prompt, RP Calc Mode: Attention, RP Ratios: "538,970,540", RP Base Ratios: 0.5, RP Use Base: False, RP Use Common: False, RP Use Ncommon: False, RP Options: ["[", "\"", "[", "\""], RP LoRA Neg Te Ratios: 0, RP LoRA Neg U Ratios: 0, RP threshold: 1, RP LoRA Stop Step: 0, RP LoRA Hires Stop Step: 0, RP Flip: False, Version: v1.7.0

Vorlage und Regional Prompter Screenshot:


Resultat Opernhaus, letztlich ohne Regional Prompter aus vielen Versionen zusammenmontiert:

154

Mittwoch, 3. April 2024, 18:22

Schöne Fleißarbeit mit all den bekannten Problemzonen! Das Panorama sieht auf den ersten Blick imposant aus, in den Details wirds dann oft schaurig. Bis zur Unkenntlichkeit verbogene Gesichter habe ich oft auch mit anderen KI-Anwendungen ausgegeben bekommen.
Der virtuelle KI-Fotograf hat ja trotz unsichbarer Panorama-Technik eine Menge Aufmerksamkeit auf sich gelenkt. Fast alle Augen sind auf ihn gerichtet. Ob sowas je per Prompt zu steuern sein wird? Der Regional Prompter eröffnet jedenfalls neue Möglichkeiten, die über das Inpainting hinausgehen.

155

Mittwoch, 3. April 2024, 18:49

Ja, um die kleinen Details alle zu korrigieren, wären noch ein Haufen Durchgänge nötig gewesen. Das ist ja mehr ein Experiment, wie weit man mit Menschen und einer derartigen Szenerie kommt.

Die Blicke der Zuschauer ließen sich nicht zur Bühne lenken. da die KI einfach nicht weiß, wo die Bühne ist, und die 360° Geometrie des Ganzen nicht versteht. Die Menschen in der Mitte nahe der Kamera müssten ja unter der Kamera durchschauen und weiter entfernt zur Seite hin wegen equi-Verzerrung - oder alle schauen einfach "nach vorne" oder "geradeaus". Das ließ sich nur der KI nicht beibringen.
Die Leute haben dann in alle wirr in alle möglichen Richtungen gesehen und vor allem auch gesessen. Nur die Kamera als Fixpunkt hat funktioniert.
Es wird noch Lost-Places Panorama draus entstehen ohne Leute.

Hier noch ein Panorama der Skybox mit demselben Prompt, natürlich ohne Depth-Vorlage. Barock scheint dort unbekannt zu sein. Weiter habe ich nichts versucht - zu absurd schlecht. Da sind die Menschen alle Pfannkuchen, von der krassen Umgebung ganz abgesehen.

156

Mittwoch, 3. April 2024, 23:35

Ausstellung von kinetischen Objekten mit Videos von genmo

Eine eher schlichte Idee, diesesmal ohne Menschen, hatte ich, als ich die Seite genmo entdeckte. Sehr kurze Video-Sequenzen kann man da mit einem Prompt erzeugen, und das alles kostenlos.
Diese kleinen Maschinen im Stil von Jean Tinguely hatte ich Lust, in einem schlichtweißen Ausstellungsraum zu präsentieren.

Zwei dieser kinetischen Kunstobjekte habe ich auf Sockel gestellt und die Videos mit Davinci Resolve so bearbeitet, dass keine Ruckler mehr zu sehen sind. Die kommen in den Videos an den Wänden noch vor.

Die Videos der auf den Sockeln stehenden Objekte habe ich als sogenannte gepinnte Videos mit Patches in Pano2VR eingesetzt, nachdem ich die Patches in der Photoshop-Zeitleiste mit dem Video verbunden habe. Mit Masken habe ich die Ränder der Videos unsichtbar gemacht.
Ganz leichte Farbunterschiede vom Hintergrund der Objekte zur Wand des Panoramas fallen mir noch auf. Die könnte man aber in PS versuchen anzupassen.

Für A1111 Stable Diffusion habe ich eine Erweiterung entdeckt, mit der man sogar im Batch-Modus den Hintergrund von Objekten entfernen kann. Mit dem Programm "Free Video to JPG Converter" kann man also aus den mp4-Videos die Frames extrahieren und anschließend mit rembg die Hintergründe entfernen. Dann die Bilder in Camtasia Studio einladen und als Video exportieren.

Ausstellung von kinetischen Objekten

Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von »panox« (4. April 2024, 12:25)


157

Donnerstag, 4. April 2024, 10:08

Wow - Spitzenklasse. Da bekomme ich direkt Lust, mal hübsche sinnlose kleine Maschinen in 3D als Video zu produzieren.

158

Freitag, 5. April 2024, 09:26

Ja, das wäre toll, mit durchgehend weißem Hintergrund könnten die Videos wahrscheinlich auch noch besser an den Panorama-Hintergrund angepasst werden. Genmo-Prompts wie "total white background", "no cropping" oder "full body" wurden nicht immer umgesetzt. Die Ergebnisse waren sehr unterschiedlich.

Mit der rembg-Extension bekam ich zwar schwarze Untergründe der PNG-Bilder (nach Umwandlung zu jpg weiß), doch die Maskierung bei bewegten Objekten ist auch da schwierig. Maskiert man das Umfeld des gesamten Objekts, wird der Panorama-Hintergrund an den Stellen sichtbar, von denen sich das sich drehende Objekt entfernt hat. Das fällt als dunklerer Bereich dann auf.

Auch Helligkeits- und Farbwerte können nicht hundertprozentig angepasst werden.

Die fehlenden Schatten der Objekte und der sehr künstlich wirkende kleine Raum zeigen, dass ich mit meinen Mitteln keine realistisch anmutende Darstellung erzeugen kann. Das gelingt mit echten Panoramen und Videos schon etwas besser. Auch die Bewegungen der Objekte sind ja nur Scheinbewegungen ohne Realitätsananspruch.

--------------------------------

Und ich dachte, einen ähnlich schlichten Raum wie mein KI-erzeugter gäbe es gar nicht:

360°x180°-Panorama – Raum der Stille im Landtag NRW Düsseldorf von Gotthard Graubner | 05.2013

Dieser Beitrag wurde bereits 3 mal editiert, zuletzt von »panox« (5. April 2024, 11:26)


159

Samstag, 3. August 2024, 11:42

FLUX 1 dev

Als Vergleich mal das Bild, das FLUX 1 dev zum selben Prompt ausgegeben hat:

Zitat

Dense jungle with a green canopy of leaves, a leopard lies on a tree branch in the middle of the picture, 360 degrees realistic equirectangular panoramic photo, 8k, high resolution, photo realistic, rich colors ,highly detailed




https://replicate.delivery/yhqm/0DDqfOY5…w6OTA/out-0.png

2:1-Proportionen sind nicht verfügbar.

https://replicate.com/black-forest-labs/flux-dev

160

Samstag, 3. August 2024, 14:35

Hallo Panox,

das sieht allerdings sehr nach reiner Grafik aus. Gibt es da auch die Möglichkeit, verschiedene Checkpoints zu benutzen, irdendwas eher fotografisches?

Ich bin momentan nur RL unterwegs in den Brandenburger Wüsten und Heiden. Im Winter, wenn es draußen wieder häßlich wird werde ich die KI Panoramen wieder aufnehmen.
Leider scheint Stable Diffusion #3 ja ein völliger Rohrkrepierer zu sein. Bin aber nicht wirklich auf dem Laufenden.