Sie sind nicht angemeldet.

61

Samstag, 20. Januar 2024, 17:45

Ich habe gerade noch mal verschiedenes probiert in Controlnet wegen Equi-Prägung, MLSD und Canny, aber am besten funktioniert Depth Map.
Mit Deinem Prompt und den "wulkow-kasernen-festraum" als Depth Map, per depth_leres++ eingebunden, gibt es einen viereckigen Raum.
Die Tische bleiben allerdings rund.

Vorlage wulkow-kasernen-festraum:


Unbearbeitetes Resultat, auf 4096 hochskaliert:



62

Samstag, 20. Januar 2024, 18:26

Sehr interessant, man müsste einen in Blender konstruierten Raum als Vorlage verwenden können, wobei dann alle Tische und Regale rechtwinklig im angezeigten Panorama erscheinen würden. So sieht das Ergebnis auch sehr seltsam aus. Es sind eben immer noch Traumwelten, in denen das Auge äsen kann.

63

Samstag, 20. Januar 2024, 18:51

Ich hab das mit einem künstlichen Raum nicht hingekriegt. Vermutlich braucht die KI diese ganzen kleinen Unregelmäßigkeiten in Wänden, Decke und Boden, um die Perstekltive zu bestimmen.
Mit perfekten 3D Elementen geht es nicht. Sowohl mit der Depth Map aus dem 3D Programm als auch mit einer Depth Map des 3D Raums, die in per leres++ erzeugt wurde, funktioniert es nicht.
Vielleicht muss man mit Texturen arbeiten, das hatte ich nicht probiert.

Man kann per 3D Gegenstände in das reale Panorama einbringen, das hab ich schon mit 3D Humans gemacht. Das funktioniert.

64

Samstag, 20. Januar 2024, 23:44

Bei diesem Vergleich ist sehr schön zu sehen, wie StD die rechteckigen Objekte verkrümmt. Einen Verzerrungsfilter dagegen habe ich noch nicht gefunden. Beiträge, wie rectilineare Bilder nach equirectangular verzerrt werden können, gibt es im Web.

Vergleich Vorlage und Umformung in Stable Diffusion

Zitat


Old museum in an attic, agricultural equipment, shelves, showcases, boxes, baskets, buckets, old radios, tables filled with odds and ends, ceiling lights, skylights, dusty atmosphere, 360 degree panorama, equirectangular,<lora:Cloudify-SDXL:1.5> <lora:View360:0.7>

Negative prompt: many ceiling lights

Steps: 10, Sampler: DPM++ 2M Karras, CFG scale: 5, Seed: 1614116842, Size: 4096x2048, Model hash: a928fee35b, Model: albedobaseXL_v20, Denoising strength: 0.4, Tiling: True, Ultimate SD upscale upscaler: 4x-UltraSharp, Ultimate SD upscale tile_width: 1024, Ultimate SD upscale tile_height: 1024, Ultimate SD upscale mask_blur: 16, Ultimate SD upscale padding: 64, Lora hashes: "Cloudify-SDXL: af954341de9b, View360: 27d5212dafef", Version: v1.7.0

Time taken: 11 min. 57.9 sec.

A: 9.68 GB, R: 11.66 GB, Sys: 10.0/10 GB (100.0%)


Nicht nur die gebogenen Kanten, die besonders bei den nahen Objekten auftreten, fallen mir auf, die KI kann hier die im Prompt aufgezählten Objekte nicht immer so genau darstellen. Räder sind verbogen oder nur halb zu sehen, aus einem Kasten wird ein Bilderrahmen, ungewöhnliche Objekte wie die mit Formaldehyd gefüllten Schaugläser für Tierpräparate werden zu einer obskuren Maschine umgedeutet. Der Raum wird nach einer Seite verkürzt, zur anderen etwas länger gemacht. Gibt es Einstellungen, bei denen die KI nicht so Undefinierbares ausgibt? Wenn in den Trainingsdateien zum Beispiel "old radios" enthalten sind, sollte man meinen, dass in den Panoramen dann auch solche erscheinen.

Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von »panox« (21. Januar 2024, 10:26)


65

Sonntag, 21. Januar 2024, 13:46

3D Räume als equirectangulare Depth Map Vorlage

Durch Rendern in 3D Programmen mit einer virtuellen sphärischen Kamera können equirectangulare Depth-Map Vorlagen für Automatic1111 erzeugt werden.
Bei Räumen gibt es deutliche Einschränkungen.

Was nicht funktioniert hatte (bzw. unbrauchbare Ergebnisse produziert hatte):
a. Rendering als Depth Map aus dem 3D Programm und direkte Verwendung (invertiert) in Automatic1111
b. Rendering mit Standard-Texturen ohne Struktur, Depth Map per leres++ in Automatic1111 erzeugt
3. Rendering mit prozeduralen Strukturen, Depth Map per leres++ in Automatic1111 erzeugt

Es kann natürlich sein, dass jemand mit irgendeinem Super Duper Renderer zu anderen Resultaten kommt.
Aber die KI scheint zickig zu sein bei der Identifikation von Gegenständen und vor allem Perspektiven. Künstliche Strukturen funktionieren dabei offensichtlich schlechter.

Was am besten funktioniert hat:
Die 4 Wände + Boden und Decke von einem realen Raum-Panorama in voller Größe als Texturen erzeugen und diese Texturen ungekachelt auf die entsprechenden Wände im 3D Modell legen.
(Erzeugt durch extremes Auszoomen des Panoramas in einem 3D-Viewer und dann Screenshots von allen Wänden machen)

Die Raumdimension kann dabei deutlich verändert werden gegenüber der Vorlage, die Kameraposition frei gewählt werden.
Möbel und anderes können dann per 3D im Raum positioniert werden und equirectangular verzerrt ausgegeben werden.



Hier ein unbearbeitetes Ergebnis (1x Upscalen) mit dem phantastischen Prompt von Panox und einem 3D Raum, worauf die Wände vom Panorama wulkow-kasernen-festraum gemappt sind. 6 Tische wurden als 3D Modelle dazugebaut und biegen sich entsprechend in der Depth Map, so dass die Tische im Panorama-Viewer viereckig sind. Beim Upscalen (Denoise 0,5) hat sich die Flamme in einen der Tische gefressen - interessant, außerdem ist eine kräftige Naht entstanden.

Vorlage 3D Rendering:


Rendering Alchemisten-Keller, Prompt von Panox, unbearbeitet inkl. Upscale:



66

Sonntag, 21. Januar 2024, 15:13

Was die Konvertierung rectliniear zu equirectangular angeht: Hast Du da mal einen direkten Link von einer Technik, die Dich überzeugt hat? Das ist ja eine unmögliche Umformung, da ein "normales" Photo weder 360° Breite noch 180° Höhe aufweist.
Mit KI wäre es denkbar, die fehlenden Bereiche entsprechend aufzufüllen, wenn jemand sich die Mühe machen würde, so was zu programmieren. Leider kennt Stable Diffusion das Format equirectangular einfach nicht.

67

Sonntag, 21. Januar 2024, 18:41

Sieht schon sehr ansprechend aus! Die Biegungen der Regale heben sich zwar etwas von den schön rechteckigen Tischen ab, aber das macht das Ganze auch altertümlich und mysteriös.
Die Seiten im Web kann ich nicht wiederfinden, mein Verlauf reicht nicht so weit. Ich habe mal nach "Konvertierung von rectilinear zu sphärisch" gesucht. Da gab es dann einige Python-Codes.

Mit Deinem Vorgabepanorama, das ich etwas abgewandelt habe, hat StD etwas anfangen können:



Halle mit Maschinen


Etwas nachgeholfen habe ich dann bei der Hallendecke und verbogenen Fenstern. Dein Ansatz gefällt mir gut! Danke für Deine Vorarbeit!



Zitat

many big shiny metal machines lying all over the tables, books, papers with instructions and (((engine-parts laying on the tables))), boxes, tubes, empty floor, 360 degree panorama, equirectangular, one door, <lora:View360:0.7>

Negative prompt: parts on the ground, parts behind the tables,

Steps: 10, Sampler: DPM++ SDE Karras, CFG scale: 10, Seed: 2038986033, Size: 18432x9216, Model hash: a928fee35b, Model: albedobaseXL_v20, Denoising strength: 0.4, Tiling: True, Ultimate SD upscale upscaler: 4x-UltraSharp, Ultimate SD upscale tile_width: 1024, Ultimate SD upscale tile_height: 1024, Ultimate SD upscale mask_blur: 16, Ultimate SD upscale padding: 64, ControlNet 0: "Module: depth_leres++, Model: controlnetxlCNXL_saiDepth [df51c1c8], Weight: 1.1, Resize Mode: Crop and Resize, Low Vram: False, Processor Res: 512, Threshold A: 0, Threshold B: 0, Guidance Start: 0, Guidance End: 1, Pixel Perfect: False, Control Mode: Balanced, Hr Option: Both, Save Detected Map: True", Lora hashes: "View360: 27d5212dafef", Version: v1.7.0

Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »panox« (21. Januar 2024, 22:19)


68

Sonntag, 21. Januar 2024, 20:25

Klasse Panorama, sieht schon sehr echt aus. Die Entzerrung ist dazu schon sehr wichtig.

Was recctlineare Bilder angeht: Es sind ja keine rectlinearen Bilder, die da rauskommen, die sind eher zylindrisch.

Ich habe 3 Programme, die zylindrisch zu equirectangular wandeln können, das PS-Plugin Flexify, ein altes Pano2VR und PTGui. Leider ist keines der entstehenden Resultate zufriedenstellend, die Versionen unterscheiden sich auch völlig. Einstellen kann man leider in keinem der Programme irgendetwas dazu, z.B. Gradzahl/Höhe des Zylinders. Das wird offensichtlich nur noch halbherzig als Feature mitgeliefert.

Deshalb hatte ich verschiedene Arten der Stauchung in PS entwickelt, wie hier beschrieben:
http://www.panorama-community.de/wbb/ind…96963#post96963
Das wäre noch besser, wenn es die Möglichkeit einer nichtlinearen Verzerrung in PS gäbe, um die Kanten zu vermeiden. Insofern bin ich immer noch auf der Suche. Aber gefunden hab ich eben auch nur kryptische Herangehensweisen mit Formeln.

69

Sonntag, 21. Januar 2024, 23:05

Ja, das Panorama habe ich auch schon gestaucht, um oben und unten mehr Platz für Zenit und Nadir zu bekommen. Leider fehlen dann aber rechts und links Bildbereiche, wenn es wieder auf 2:1-Bildgröße aufgezogen werden muss. Alles wird ja sonst breiter.

Hier mal ein ganz schnelles, unbearbeitetes Panorama, das in den letzten 17 Minuten mit Deiner Vorlage entstanden ist:



Zitat

exhibition of old books, empty floor, 360 degree panorama, equirectangular, one door, <lora:View360:0.7>
Steps: 10, Sampler: DPM++ 2M Karras, CFG scale: 10, Seed: 1913213536, Size: 2048x1024, Model hash: a928fee35b, Model: albedobaseXL_v20, Tiling: True, Tile X: True, Tile Y: False, Start Tiling From Step: 0, Stop Tiling After Step: -1, ControlNet 0: "Module: depth_leres++, Model: controlnetxlCNXL_saiDepth [df51c1c8], Weight: 1, Resize Mode: Just Resize, Low Vram: False, Processor Res: 512, Threshold A: 0, Threshold B: 0, Guidance Start: 0, Guidance End: 1, Pixel Perfect: False, Control Mode: Balanced, Hr Option: Both, Save Detected Map: True", Lora hashes: "View360: 27d5212dafef", Version: v1.7.0

Time taken: 17 min. 9.2 sec.

A: 11.81 GB, R: 18.36 GB, Sys: 10.0/10 GB (100.0%)

70

Montag, 22. Januar 2024, 09:51

Super Ergebnisse die Du da hast.
Aber warum "fehlen dann rechts und links Bildbereiche", wenn Du in der Höhe stauchst? Die Breite bleibt doch gleich.

Ich hab gestern abend die Verzerrung von UV-Koordinaten in 3D noch mal verfeinert. Der Vorteil ist, dass man eine gleichmäßige nichtlineare Verzerrung erzeugen kann, in PS ja leider nicht zu erreichen. Die mehrstufige Stauchung in PS hat ja den Nachteil, dass Kanten entstehen können an den Übergängen, z.B. bei runden Elementen an der Stelle.
Das ist ein etwas mühseligeres Verfahren, mal sehen wie sich das schlägt in der Praxis. Damit keine Unschärfen entstehen, sollte man das Bild für die Textur vorher in PS hochskalieren, und die Ausgabe dann in einer kleineren Größe erzeugen.
Als Vergleich die untaugliche Wandlung in PTgui, wo sich leider nichts zu cylindrischen Panoramen einstellen lässst. Pano2VR und Flexify sind noch viel schlechter.

Im 3D Programm:


Nadir-Resultat:

71

Montag, 22. Januar 2024, 18:11

Mit der Proportion war ein Denkfehler, in diesem Panorama habe ich es wie Du beschrieben hast, gemacht:

Verwachsener Gastraum

Die Idee war, herauszufinden, ob eine starke Vorgabe wie Dein Raum eine zu starke Lenkung der KI bedeutet. Die img2img-Versionen kamen mir nicht so interessant vor wie die Ergebnisse von txt2img.



Der Kellner ist mit PS und generativer Füllung einmontiert.

72

Dienstag, 23. Januar 2024, 09:47

Zitat

Die Idee war, herauszufinden, ob eine starke Vorgabe wie Dein Raum eine zu starke Lenkung der KI bedeutet. Die img2img-Versionen kamen mir nicht so interessant vor wie die Ergebnisse von txt2img.

Bist Du denn zu weiteren Ergebnissen gekommen?

Alle Depth-Map, Canny oder img2img Vorlagen und auch Loras beeinflussen das Ergebnis, oft nicht zum Guten, völlig klar. Schlimm sind vor allem die 360 Grad Loras.

Ein Weg kann sein, erst einmal frei ohne Vorlage oder Lora nur per Prompt zu versuchen ein interressantes Resultat zu bekommen, z.b. per 8er Durchlauf.
Dann die Seed-Nummer von der besten Version verwenden und dann erst z.b. die gewünschte Depth-Map in Controlnet draufpappen, um die Geometrie zu optimieren.
Mit dem aufkappbaren Extra-Variations-Feld kann man sogar zwei Seed-Nummern prozentual mischen.
Auch die anderen Elemente, Loras usw. erst dann einsetzen, wenn man eine gute Seed-Nummer hat.
Diese Vorgehensweise wird sicher oft auch Murks erzeugen wie so viele Ergebnisse mit KI.

Hier noch ein Feuer-Panorama. Das Aether_Fire Lora erzeugt eher kleinteilige Strukturen und verhindert großes Feuer, lasst die Strukturen aber schön glühen. (Richtig große Flammen waren nicht zu bekommen)
Die Seed-Nummer vom Resultat ist deshalb erst einmal ohne das Aether_Fire Lora eruiert, dann per Variation mit der Seed-Nummer von einem halbwegs brauchbaren Aether_Fire Resultat gemischt worden.

Hier die Vorlage für die Depth Map für korrekte equirectangulare Krümmungen:


Ergebnis:



73

Donnerstag, 25. Januar 2024, 11:35

Die im2img - Panoramen wurden zu gleichförmig, ich habe sie nicht mehr. txt2img ergab immer wieder neue interessante Räume mit verschiedenen Ausstattungen.

Dein Flammenpano finde ich sehr gelungen. Die Flammen wirken echter als bei Deinem vorigen Beispiel mit der Brücke. Etwas realitätsfremd erscheinen mir die gebogenen Bretter, die aus dem gebogenen Stahlgerüst entstanden sind.

74

Freitag, 26. Januar 2024, 11:37

Ja, die img2img Variante folgt meist zu sehr dem Original. Ob man da mit Loras u.ä. und hohen Denoising-Werten abhelfen kann? Oder aber mit den Variationen unter dem Extra-Feld?
Ich hab damit noch nicht so viel probiert, es wohl gibt User, die grundsätzlich allles mit img2img machen. Man kann z.B. ein komplett schwarzes Bild als Vorlage nehmen, um eine dunklere Belichtung zu erzeugen u.ä.

In dem Feuer-Panorama ist alles Holz. Und es biegt sich eben nicht, wie man in der interaktiven Version sieht - alles gerade, so wie in der Vorlage. Das kriegt man m.E. nur mit einer Depth-Map Vorlage hin.
Oder ist mir was entgangen? Feuer ist ansonsten noch schwierig realistisch in SDXL hinzukriegen. Es fehlen für viele Spezials in SDXL noch die guten Loras, die genau z.B. mit Feuer trainiert sind.

Hier noch ein Panorama mit einem Treppenhaus als Vorlage, wo grob 3D Elemente reinmontiert sind - und dann als Depth-Map eingesetzt.
Ich hab dabei gemerkt, dass das Element Klang der Bild-KI unbekannt ist. "Laut, lärmig, kreischend" usw. wird ignoriert. Eigentlich logisch. Das Projekt " Tinnitus Maschine" ist deshalb noch nicht richtig abgearbeitet.

Vorlage: grabowsee-hans-boehm-gebaeude-foyer+3D


Tinnitus Maschine:



75

Freitag, 26. Januar 2024, 13:02

Ich hatte einen Beitrag geschrieben, auf Absenden geklickt und war auf einmal nicht mehr eingelogt. Danach war der Text verschwunden. Kurz: K.A, wie ich auf Stahlgerüst gekommen bin. Klasse Komposition! Gib's bald einen Kunstband davon? Kann KI nicht gut mit abstrakten Begriffen umgehen?

Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »panox« (26. Januar 2024, 13:44)


76

Freitag, 26. Januar 2024, 16:34

Das ist ja blöd mit dem verschwundenen Beitrag, ist auch nicht in der Datenbank gelandet. Das Forum ist definitiv wackelig geworden in den Jahren. Ich kopiere einen geschriebenen Text vorsichtshalber immer noch mal vor dem Klicken auf "Abschicken".

Abstrakte Begriffe spielen durchaus eine Rolle. In der Erweiterung "StylePile" gibt es die "Moods":
Random, Fearful, Happy, Cosy, Depressing, Surprising, Sad, Hopeless, Lustful, Guilty, Proud, Energetic, Relieving, Frightening, Angry, Lonely, Shameful, Satisfying, Hopeful, Evil, Grim, Romantic, Embarrassing, Amusing, Disgusting, Peaceful
Das sind eher menschliche Stimmungen als Bildbeschreibungen.

Aber das Konzept, dass Bildinhalte Geräusche erzeugen können, ist einfach nicht eingebaut bzw. es müsste beim Taggen von BIldern mit erfasst werden.
So läuft der Prompt "a very loud machine" komplett ins Leere. Ich hatte versucht, Maschinen zu erzeugen, die schon laut aussehen, Hammerwerke, Stichel die auf Metallplatten kratzen usw. Nix zu wollen.

77

Samstag, 27. Januar 2024, 17:31

Die glorreichen 7 in der Nacht - sieben Checkpoints im Vergleich

Das ist kein echter Test, da die Bedingungen sehr speziell sind.

Diese 7 SDXL Checkpoints kommen mit dem Panorama-Bildformat 2 zu 1, der Rendergröße von 2048x1024 Pixel und Depth Map Vorlagen gut zurecht:
70f9YmirsLight_V51YmirsLightFixed.safetensors
albedobaseXL_V20.safetensors
devlishphotorealism_sdxl15.safetensors
MOHAWK v20BackedVAE.safetensors
newrealityx|AllInOne_20.safetensors
nightvisionXLPhotorealisticPortrait_V0791Bakedvae.safetensors
protovisionXLHighFidelity3D_releaseV660Bakedvae.safetensors

Raus sind u.a. Hephaistos XL, Juggernaut XL, Dreamshaper XL und Realistic Stock Photo, die sich für Panoramen nicht so gut eignen.

Stable Diffusion hat leider ein Problem mit Dunkelheit, resultierend aus der Art wie die Bilder entstehen. Für SDXL gibt es immerhin mittlerweile das Lora "Into Darkness", was dieses Problem vermindert.
Die anstehende Nachtszene auf dem Schiffsfriedhof mit den sehr speziellen Einstellungen DPM++ 2M Karras Sampler, 12 Steps bei CFG Scale 3 ist kein allgemein gültiger Maßstab. Bei einem neuen Projekt lohnt es also sich immer, diverse Checkpoints durch zu testen.

Eindeutiger Sieger hier ist Mohawk, eine Neuentdeckung. Super Licht und Spiegelungen, es entsteht eine echte dramatische Nachtszene.
Albedo Base und New Reality folgen dahinter, immer noch sehr gut.
7 of 9, Devlish Photo, Nightvision und Protovsion setzen die Dunkelheit nicht gut um. Die Depth Map wird falsch interpretiert, die Objekte falsch gesetzt, der Boden unter der Kamera wird zur Wand, unbrauchbare Resultate.

Mich hat wirklich überrascht, wie weit Mohawk alle anderen Checkpoints hinter sich lässt. Das ist auch kein Ausrutsch-Bild, ich hatte komplette Serien durchlaufen lassen zur Bestätigung.

Der Prompt:
dark photo of a rusted corroded huge ship wreck with paint remains outside on upper deck, wet scene with reflective puddles, nigth shot, dense fog, rusted and corroded remains of chimneys and fan heads and machinery and lifeboats and remains of paint, 360 degrees realistic equirectangular panoramic photo, 8k, high resolution, photo realistic, rich colors ,highly detailed,, <lora:Into_Darkness:0.7> <lora:Cloudify-SDXL:1>
Steps: 12, Sampler: DPM++ 2M Karras, CFG scale: 3, Seed: 4218946732, Size: 2048x1024, Model [diverse Checkpoints], Tile X: True, Tile Y: False, Start Tiling From Step: 0, Stop Tiling After Step: -1, ControlNet 0: "Module: none, Model: controlnetxlCNXL_saiDepth [9fe0fd3b], Weight: 0.8, Resize Mode: Just Resize, Low Vram: False, Guidance Start: 0, Guidance End: 0.7, Pixel Perfect: True, Control Mode: Balanced, Hr Option: Both, Save Detected Map: True", Lora hashes: "Into_Darkness: a19db05b8920, Cloudify-SDXL: af954341de9b", Version: v1.7.0

Die 3D Depth Map Vorlage (leres++):


Die Ergebnisse unbearbeitet, 2048x1024 Pixel direkt aus txt2img.

Mohawk: super Licht, super Spiegelungen, Objekte präzise positioniert, klasse Dunkelheit, dramatischer Himmel, enorme Tiefe des Bildes


Albedo Base: Gute Umsetzung, dunkel, Objekte präzise positioniert, aber Licht und Spiegelungen nicht so schön, langweiliger Himmel


New Reality all in one: Gute Umsetzung, dunkel, Objekte etwas unpräzise positioniert, etwas flaches Bild


7 of 0 Ymirs Light: Guter Himmel, falscher Boden, zu hell, keine Tiefe, viele Elemente fehlen


Die Bilder von Devlish Photo, Nightvision und Protovision waren ähnlich unbrauchbar.
Devlish Photo: falscher Boden, sehr viel zu hell, wie schlecht geblitzt
Nightvision: falscher Boden, keine Trennung der Objekte, sehr viel zu hell, wie schlecht geblitzt
Protovision: falscher Boden, keine Trennung der Objekte, sehr viel zu hell, wie schlecht geblitzt

78

Samstag, 27. Januar 2024, 19:21

WOW! Toller Vergleich! Welchen Denoising Strength-Wert hast du mit MOHAWK eingegeben?

Hast Du eine URL von lora:Into_Darkness:0.7? Ist es diese:

https://civitai.com/models/275057/into-darkness

Ohne die Lora bekomme ich wieder die Meldung:

Zitat

NansException: A tensor with all NaNs was produced in Unet. This could be either because there's not enough precision to represent the picture, or because your video card does not support half type. Try setting the "Upcast cross attention layer to float32" option in Settings > Stable Diffusion or using the --no-half commandline argument to fix this. Use --disable-nan-check commandline argument to disable this check.

79

Samstag, 27. Januar 2024, 19:35

"Into Darkness" Lora:
https://civitai.com/models/275057
Das ist txt2img, da gibt es kein Denoise.

Google mal wegen dieser Fehlermeldung. Vielleicht musst Du --no-half oder --lowvram oder beides als Startparameter einsetzen.
https://generativeai.pub/how-to-solve-st…ed-fb1fb1a03ad6

80

Sonntag, 28. Januar 2024, 13:46

Danke, jetzt läuft es, allerdings seeeeeehr langsam, bis zu 50 Minuten.

Ein etwa gleiches Panorama habe ich mit deinen Vorgaben nicht herausbekommen. Was für den Gartenfreund der "grüne Daumen" ist, bleibt dir wohl vorbehalten. Woran mag das liegen, dass das Schiff im Vordergrund bei meinen Panoramen eher einer Stahlwand gleicht?



Hier ein bearbeitetes Beispiel für eine img2img-Umwandlung. Zwei zu klein geratene Mitarbeiter habe ich mit generativer Füllung verschwinden lassen.

Artist At Work

Das 2048x1024 Pix große Panorama habe ich mit Upscayle 4x vergrößert.

Zitat

dark workshop with many tools, shelves, materials, many tools hanging on the wall and on the ceiling, iron working, welding, light reflections, artist at work, 360 degrees realistic equirectangular panoramic photo, 8k, high resolution, photo realistic, rich colors ,highly detailed,, <lora:Into_Darkness:0.7> <lora:Cloudify-SDXL:1>
Steps: 20, Sampler: DPM++ 2M Karras, CFG scale: 3, Seed: 590219013, Size: 2048x1024, Model hash: 3d1ff0f061, Model: MOHAWK_v20, Tiling: True, Tile X: True, Tile Y: False, Start Tiling From Step: 0, Stop Tiling After Step: -1, ControlNet 0: "Module: depth_leres++, Model: controlnetxlCNXL_saiDepth [df51c1c8], Weight: 1, Resize Mode: Just Resize, Low Vram: False, Processor Res: 512, Threshold A: 0, Threshold B: 0, Guidance Start: 0, Guidance End: 1, Pixel Perfect: False, Control Mode: Balanced, Hr Option: Both, Save Detected Map: True", Lora hashes: "Into_Darkness: a19db05b8920, Cloudify-SDXL: af954341de9b", Version: v1.7.0

Time taken: 50 min. 38.8 sec.

A: 15.89 GB, R: 19.06 GB, Sys: 10.0/10 GB (100.0%)