Du bist nicht angemeldet.

121

Donnerstag, 22. Februar 2024, 11:52

Die Upscaling-Naht betrifft nur die Nähte zwischen den Kacheln. In sehr seltenen Fällen können die sichtbar werden. Die Naht zwischen rechter und linker Seite kriegt man beim Upscalen nicht verhindert, no way.

Ansonsten: Was für Werte des Preprozessors meinst Du? Werte gibts da m.E. nicht.
Die verschiedenen Depth-Modelle erzeugen verschiedene Resultate, klar. Bei größeren Umgebungen lande ich immer bei leres++, nur damit werden weiter entfernte Elemente erfasst. Ist etwas schmutziger als die anderen, das stimmt.

Mich wundert, dass Du mit einem SD 1.5 Checkpoint arbeitet - einen SDXL Checkpoint realisian_v60 hab ich nicht gefunden. Aber wenns funktioniert...

122

Donnerstag, 22. Februar 2024, 18:53

Aha, wieder dazugelernt! Mit dem Wert meinte ich den Wert der Preprocessor-Resolution, der auf 512 eingestellt ist.

Hier ein img2img-Ergebnis, bei der die KI die Bilder einer echten Kunstausstellung so umgewandelt hat, dass eine Veröffentlichung keine Urheberrechte verletzt. Den Raum habe ich zusätzlich verändert.
Ich muss wohl nicht erwähnen, dass die echten Bilder eine wunderbar eigenständige, ideenreich und humorvolle Handschrift des Künstlers zeigten, während, wie ich finde, die Bilder der KI eben austauschbar nach KI aussehen.
Ich habe mal für ein kleines Testbild eine sehr genaue Bescheibung eines der Originalkunstwerke als Prompt eingegeben, aber da kam nichts Gescheites dabei heraus. Siehe Anhang.




123

Donnerstag, 22. Februar 2024, 22:00

Depth Preprocessor Vergleich

Klar - Künstler machen das besser. Wenn Du im Prompt einen bekannten Künster nennst, erstellt die KI Bilder in diesem Stil - falls Du das nicht so gemacht hast.
Kannst Du auch googeln, sehr viele Künstler sind mit im Portfolio als Stil.

Was die Depth-Preprocessoren angeht:
Inkonsequenterweise heißt 512 = 1024x512 Pixel und 1024 = 2048x1024 Pixel. Es lohnt, die der Bildausgabe entsprechende Auflösung 1024 einzustellen. Muss man blöderweise immer wieder dran denken, wenn man nicht Pixel Perfect benutzt.

Ich versuche mich gerade an einem Vogelnest, wird aber erst einmal nichts.
Interessant sind vielleicht die Depth-Preprocassor Ergebnisse.

In dem Fall werden die Vögel am besten mit depth_anything, da ist am meisten Auflösung im vorderen Bereich.
depth_leres++ ist vorne zu indifferent, dafür löst es als einziges Modell den Hintergrund gut auf und enthält insgesamt mit Abstand am meisten Details.


124

Sonntag, 25. Februar 2024, 16:37

Nach Bastelei in 3D und der Depth Map hier das Vogelpanorama. Erstaunlich, dass aus einer fast comicartigen Vorlage ein fast reales Bild wird, mit super feinen Details.
Letzlich ist das wieder eine leres++ Depth Map geworden, die allerdings an einigen Stellen modifiziert ist.

young hungry yellow birds with wide open yellow beaks, eggs, mother with spreadout wings above with a fat worm in its beak, highly detailed, Bird cave inside a tree trunk, 360 degrees realistic equirectangular panoramic photo, 8k, high resolution, photo realistic, rich colors..Steps: 15, Sampler: DPM++ 2M Karras, CFG scale: 4, Seed: 3701130255, Size: 2048x1024, Model hash: db51618546, Model: nightvisionXLPhotorealisticPortrait_v0791Bakedvae, Tile X: True, Tile Y: False, Start Tiling From Step: 0, Stop Tiling After Step: -1, ControlNet 0: "Module: none, Model: controlnetxlCNXL_saiDepth [9fe0fd3b], Weight: 1, Resize Mode: Just Resize, Low Vram: False, Guidance Start: 0, Guidance End: 1, Pixel Perfect: True, Control Mode: Balanced, Hr Option: Both, Save Detected Map: True", Version: v1.7.0




125

Sonntag, 25. Februar 2024, 16:47

Holla! Wieder mal ein Meisterwerk von dir! Meine Vogelfotos von der Futterstelle sind nicht so gut gelungen. Mit welcher Belichtungszeit hast du das rendern lassen? :-) Eine Frage bleibt aber: Woher ist der Papa/ die Mama gekommen und wie kommen sie da wieder raus?

126

Sonntag, 25. Februar 2024, 16:53

Belichtungszeit? Ganz schnell damit alles scharf wird! ;-)

Das Loch im Baumstamm ist tatsächlich hinter dem Vogel. War irgendwie nicht gut unterzubringen woanders in der Szenerie. Stimmt, müsste man eigenlich noch irgendwo hinbugsieren.

127

Sonntag, 25. Februar 2024, 20:15

Lustig, was meine Versuche ergaben, mit Deinen Angaben ein ähnliches Panorama zu erzeugen. Keine Chance! Auch mit vorsichtig veränderten CFG Werten kamen nur Bilder heraus, die kaum die Vorgaben des Prompts widerspiegeln.
Kannst Du Dein Panorama eigentich selbst reproduzieren? Oder ist das von vielen das beste? Ich würde gern wissen, ob es mit denselben Einstellungen auch fast gleich aussehende Panoramen geben kann.

Witzig fand ich die aufgeschnittenen, gekochten Eier in einem Panorama. :-)


128

Sonntag, 25. Februar 2024, 20:32

Ja, am Anfang hatte ich genau solche Bilder. Du musst auf jeden Fall das Nightvision-Model verwenden. Dort scheinen gute Vögel eintrainiert zu sein.
Der Wurm ist zwar KI, aber vor dem Upscalen einmontiert in PS. Den Kopf des Vogels hab ich nachträglich noch angepasst/breiter gezogen, da er weit oben im Equi ist.
So einen breiten Kopf hat die KI natürlich nicht erzeugen wollen.

Angehängt die editierte Depth-Datei. Mit genau den Einstellungen, dem Depth-Bild und Nightvision kriegt man sofort das Resultat (Seed Nummer verwenden). Das war am Ende (nach unzähligen Anpassungen von 3D und Depth-Files) die erste Version. Dabei sind Teile der 3D-Depthdatei einmontiert in das leres++ File.

Es ist danach noch Einiges an Details retuschiert, aber eher Kleinigkeiten, u.a. an Schnäbeln und dritte Vogelbeine eliminieren.
»Malum« hat folgendes Bild angehängt:
  • LERES++ edit.png

129

Montag, 26. Februar 2024, 11:34

Schön, dass du noch mal aufgezeigt hast, dass deine sehr guten Ergebnisse nicht mit wenigen Klicks automatisch entstehen! Bisher sind solche KI-erzeugten Bilder nicht urheberrechtlich geschützt. Die Frage der Schöpfungshöhe stellt sich gerade bei solchen Bildern, bei denen ein sehr gutes Ergebnis nur durch aufwendige und mit viel Knowhow verbundene Eingriffe möglich geworden ist.

Ist "nightvisionxl_v0811.safetensors" der richtige Checkpoint? Unter "nightvision" habe ich diesen bei Civitai gefunden.

Und: Hast Du deine Depthmap als Bild in Controlnet eingeladen und noch mal mit leres++ verarbeitet? Die dann erzeugte Depthmap ist dann ja wieder schlechter.

Mit deiner Depthmap, dem Seed und allen weiteren gleichen Einstellungen bleiben meine Ergebnisse weit hinter deinem zurück.

Ich breche das Rendern hier ab:



Ein anderes Nightvision Model ist dieses: https://civitai.com/models/128607?modelVersionId=151901

Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »panox« (26. Februar 2024, 12:23)


130

Montag, 26. Februar 2024, 12:12

Es gibt irgendwie noch das Problem "VAE". Hab ich mich noch nicht mit beschäftigt, aber vielleicht fehlt die bei Dir. Frag mich nicht was die macht.

Ich nehme immer Checkpoints mit "Baked VAE", d.h. die VAE ist enthalten
https://civitai.com/models/128607?modelVersionId=247444
ist die Nightvision Version mit eingebackener VAE.

Wenn Du eine Depth Map direkt verwendest, immer den Preprocessor abschalten!!!

Was den Preprocessor angeht, drei Möglichkeiten:
1. Man lädt ein "normales" Bild dort rein (am besten 2048x1024), schaltet einen Preprocessor ein (z.B. leres++ / 1024) und lässt bei jedem Durchgang die Depth Map neu erzeugen. Die wird gecached, dauert also nicht unbedingt länger, nur der erste Durchgang.
2. Man lädt ein "normales" Bild dort rein, stellt 1024 ein, klickt auf das Flash-Zeichen, lässt sich per "Preview" das Resultat anzeigen und speichert das. Das Resultat lädt man wieder rein und schaltet dann den Preprocessor aus(!). So mache ich das meist.
3. Man verwendet eine externe Depth-Map, z.B. aus einem 3D Programm, oder kombiniert verschiedene Depth Maps in PSD, oder ändert/bearbeitet Depth Maps nach Bedürfnis. Größe 2048x1024. Dabei immer den Preprocessor ausgeschaltet haben!

Wenn Du die Einstellungen sorfältig (!) übernimmst, Nightvision 7.9.1 mit VAE verwendest, Controlnet einschaltest, dort den Preprocessor abschaltest, dort controlnetxlCNXL_saiDepth [9fe0fd3b] verwendest, meine Depth Map einsetzt, solltest Du dasselbe Resultat bekommen.

131

Montag, 26. Februar 2024, 14:08

Super! Danke für deine genaue Anleitung! Mit diesen Vorgaben bekam ich nun dieses schöne Ergebnis. Den Vogelkopf habe ich auch etwas breitgezogen und einige Retuschen an den Füßen und einem Ei gemacht. Den Wurm habe ich hinzugefügt.



Eine gute Idee für ein außergewöhnliches Motiv mit einem KI-verständlichen Prompt! Eigentlich hätte ja mit demselben Seed-Wert exakt das gleiche Panorama herauskommen sollen, wenn man die Beschreibung dieses Parameters zugrundelegt, die ich hier gefunden habe:

Definition des Seeds

Der Kopf des einfliegenden Vogels sieht jedoch völlig anders aus und auch bei den Jungvögeln gibt es Unterschiede. Als ich mein eigenes Ergebnis mit demselben Seed-Wert noch einmal rendern ließ, kam jedoch exakt dasselbe Panorama heraus.

So sieht ein nicht nachträglich bearbeites Ergebnis mit dem Seed -1 aus, der intern einen Zufallswert erzeugt:


Und hier ein Vergleich von 10 Variationen des Motivs, wie sie mit dem Seed-Wert von -1 ausgegeben wurden. Interessant, dass auch Panoramen dabei sind, die das Einflugloch darstellen. Bei einigen hat die KI etwas dazuphantasiert. Mit Retusche kann das meiste davon aber überpinseln. Zählen fällt der KI oft schwer. Es gibt zwei Schnäbel oder vier Beine, oder es fehlen Teile oder es werden Teile falsch miteinander verbunden.

Vergleich von 10 Panoramen

Dieser Beitrag wurde bereits 4 mal editiert, zuletzt von »panox« (26. Februar 2024, 20:08)


132

Dienstag, 27. Februar 2024, 15:23

Leopard im Urwald

Hier habe ich versucht, mit separat gerenderten quadratischen Bildern von Zenit und Nadir die immer noch deutlich sichtbaren sternförmigen Verzerrungen in diesen Bereichen zu überdecken. Bei diesem Motiv mit unruhigen Strukturen habe ich den Eindruck, dass das eine ganz brauchbare Methode sein könnte.



Zitat

Dense jungle with a green canopy of leaves, a leopard lies on a tree branch in the middle of the picture, 360 degrees realistic equirectangular panoramic photo, 8k, high resolution, photo realistic, rich colors ,highly detailed,<lora:Into_Darkness:0.7> <lora:Cloudify-SDXL:1>

Steps: 20, Sampler: DPM++ 2M Karras, CFG scale: 10, Seed: 960358223, Size: 2048x1024, Model hash: aeb7e9e689, Model: juggernautXL_v8Rundiffusion, Tiling: True, Tile X: True, Tile Y: False, Start Tiling From Step: 0, Stop Tiling After Step: -1, Lora hashes: "Into_Darkness: a19db05b8920, Cloudify-SDXL: af954341de9b", Version: v1.7.0

133

Dienstag, 27. Februar 2024, 17:20

Wow - klasse. Ohne 3D Vorlage kriege ich eigentlich nie die Komposition hin, die ich will als Panorama. Die Basis-Geometrie stimmt dann auch fast nie, Horizont nicht in der Mitte, Bäume abgeschnitten usw.

Mit dem Seed hab ich nicht verstanden was Du meinst bzw. was Du da gemacht hast.
Selbst wenn bei mir alles völlig gleich ist, kan es bei festgelegter Seednummer durchaus Unterschiede geben. Manchmal scheint es aber auch pixelidentisch zu sein.
Sobald man am Promt was ändert oder an der Depth-Vorlage gibt es sowieso Unterschiede. txt2img behält eigentlich immer einen Faktor Unberechenbarkeit.

134

Dienstag, 27. Februar 2024, 20:43

Das Leopard-Thema brauchte einige Anläufe, bis mir dieses am besten gefiel. Bei den ersten lief das Tier am Boden und das war wegen der Verzerrung nicht so schön. Den Horizont habe ich auch bei dem hier gezeigten ein ganzes Stück höher gesetzt , auch um mehr Raum für den Nadirpatch zu bekommen. Einen weiteren, kleineren Leopard, der oben im Geäst lag, habe ich wegretuschiert.

Ich habe schon mehrere Beschreibungen der Funktion des Seeds gelesen und da wird beschrieben, dass man stets ein gleiches Ergebnis mit demselben Seed-Wert bekommt. Da hat es mich gewundert, dass mit deinen Werten der anfliegende Vogel bei meinem Versuch doch anders aussieht.

Zitat

Seed-Wert
Der Seed-Wert ist eine Zahl, die als Startpunkt für den Zufallsgenerator dient, der den Bildgenerierungsprozess steuert. Wenn der Seed-Wert auf -1 gesetzt ist, wird für jede Bildgenerierung ein zufälliger Startpunkt gewählt, was zu unterschiedlichen Bildern führt. Um reproduzierbare Ergebnisse zu erzielen, kann der Seed-Wert auf eine feste Zahl gesetzt werden. So wird bei jedem Durchlauf des Modells das gleiche Bild generiert.


https://urban-base.net/2023/03/stable-di…fuer-anfaenger/

Dann ist es wohl so, dass der Bildaufbau gleich ist, aber es trotzdem Unterschiede geben kann?

Ich beantworte diese Frage mal selbst. Gerade getestet: Bei exakt denselben Einstellungen mit demselben Seed-Wert kam ein anderes Ergebnis dabei heraus.
Wobei hier die vier Beine des Leoparden etwas durcheinander geraten sind.

Dieser Beitrag wurde bereits 3 mal editiert, zuletzt von »panox« (28. Februar 2024, 10:49)


135

Mittwoch, 28. Februar 2024, 12:16

Leopard im Dschungel

Ein neuer Anlauf mit den Zenit- und Nadir-Patches. Der Nadirpatch ist mit generativer Füllung besser gelungen. Der von StD separat erzeugte Zenitpatch ist nur schwer in die langgezogenen Baumwipfel einzumontieren. Aber man darf das ja nicht mit unseren Foto-Panoramen gleichsetzen. Es sind ja mehr Traumbilder, die die KI erzeugt.

Leopard im Dschungel

Zum Vergleich habe ich das von StD ausgegebene und unbearbeitete Panorama als zweiten Node mit angefügt.

Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »panox« (28. Februar 2024, 13:08)


136

Donnerstag, 29. Februar 2024, 11:59

Klasse. Die Seed-Nummern verstehe ich auch nicht wirklich. Wenn man eine Depth-Map Vorlage verwendet und wirklich alles gleich eingestellt ist ist das Ergebnis meist pixelidentisch - aber nicht immer.

Hier ein weiteres Panorama aus der Feuer-Serie - die Stadt brennt.
Das ist eine PSD-Montage von 10 txt2img 2048px Versionen, um maximal viel Feuer zu erzeugen. Die Wasserstrahlen waren teils auch als Schläuche gerendert, so dass vieles zu retuschieren war. Beim Upscalen sind die durch die Montage entstandenen Unregelmäßigkeien verschwunden.
Nicht perfekt, vor allem die Schläuche, aber muss reichen.

nightshot, wet ground full of hoses, major blaze, fire engines with flashing emergency lights , many Fireworker with fire hose and fire hose nozzle and firefighting water stream, fire ladder, all street houses are ablaze with fire and are burning brightly, highly detailed, 360 degrees realistic equirectangular panoramic photo, 8k, high resolution, photo realistic, rich colors..Steps: 20, Sampler: DPM++ 2M Karras, CFG scale: 4.5, Seed: 3543203492, Size: 2048x1024, Model hash: 366e5bfcc8, Model: MOHAWK_v20BackedVAE, Tile X: True, Tile Y: False, Start Tiling From Step: 0, Stop Tiling After Step: -1, ControlNet 0: "Module: none, Model: controlnetxlCNXL_saiDepth [9fe0fd3b], Weight: 1, Resize Mode: Just Resize, Low Vram: False, Guidance Start: 0, Guidance End: 1, Pixel Perfect: False, Control Mode: Balanced, Hr Option: Both, Save Detected Map: True", Version: v1.7.0

3D Vorlage:


Die Stadt brennt (Montage aus 10 Versionen):



137

Donnerstag, 29. Februar 2024, 17:56

Klasse! Die Flammen und der Rauch sehen sehr gut aus. Schöne Spiegelungen in den Wasserlachen. Gesichter auch fehlerlos. Die musste ich oft extra erzeugen. Tolle Action! Aber auch viel Handarbeit, so wie du das beschreibst.

138

Donnerstag, 29. Februar 2024, 22:12

Die Entwicklung des 3D Models ist bei weitem das Aufwändigste. Viele Versionen und Versuche.
Beim Zusammenmontieren in PSD kann man dagegen grob vorgehen, Fehler werden beim Upscalen behoben. Das ist der große Vorteil beim Arbeiten mit Depth-Vorlagen: Die Dinge behalten ihren Platz, so dass man recht leicht Versionen kombinieren kann.

139

Donnerstag, 7. März 2024, 16:29

Genaue Steps einstellen

Hier ein weiteres Lost Place Panorama, eine Bücherei.

ich hatte Automatic1111 erst einmal frei Schnauze eine verlassene Bücherei generieren lassen, und das dann ähnlich in 3D nachgebaut. Die Idee der KI war klasse, aber ohne Vorlage waren Perspektive und Geometrie unbrauchbar.
Durch die 3D Depth Map stimmt jetzt die Geometrie, u.a. ist es ein viereckiger Raum.

Interessant waren Versuche mit der Anzahl der Steps. Per XYZ Plot hatte ich Versuche gemacht. Nur genau mit 14 Steps wurden einige Details genau nach Wunsch erzeugt.
Mit höheren Step-Werten verschwanden u.a. die Wände. Es lohnt also, neben der Auswahl des Checkpoints auch die Step-Zahl genau auszutesten.
Bei diesem Bild sollten die Farben satt und kräftig sein, das gelang mit Protovsion XL am besten. Das Mohawk-Modell ist eigentlich mein Favorit für Lost Places, generiert aber eher blasse, kalte Farben mit wenig Kontrast.

Wieder sind nach der ersten Stufe (2048x1024 px) viele Versionen per PSD kombiniert, und das dann mit vielen Retuschen 3x upgescaled. Ein langer Prozess.

(((nighttime photo))), lost place, dark rotten overgrown magnificently decorated baroque style library with millions of books, broken overgrown concert grand piano, lower and upper floor walls with book shelfs, ceiling with exfoliated paintings , broken glass domes, lush carvings, few dim lights, wet ground full of rotten books, broken shelves, heavily damaged, overgrown, rusted, corroded, highly detailed, 360 degrees realistic equirectangular panoramic photo, 8k, high resolution, photo realistic, rich colors
Steps: 14, Sampler: DPM++ 2M Karras, CFG scale: 3, Seed: 3041350503, Size: 2048x1024, Model hash: 440a7f226b, Model: protovisionXLHighFidelity3D_releaseV660Bakedvae, Tile X: True, Tile Y: False, Start Tiling From Step: 0, Stop Tiling After Step: -1, ControlNet 0: "Module: none, Model: controlnetxlCNXL_saiDepth [9fe0fd3b], Weight: 1, Resize Mode: Just Resize, Low Vram: False, Guidance Start: 0, Guidance End: 0.8, Pixel Perfect: True, Control Mode: Balanced, Hr Option: Both, Save Detected Map: True", Version: v1.7.0

Die 3D Vorlage:


Die verlassene Bibliothek:



140

Donnerstag, 7. März 2024, 18:40

Eine eindrucksvolle Arbeit! Allein die Vorlage ist ja ein Kunstwerk. Schön, dass man bei dieser KI-Erzeugung seiner Fantasie freien Raum lassen kann. Mit deinen präzise konstruierten Vorlagen bereitest du dann der KI ihre Spielwiese vor.
Sehr schön!

Mein Thema "Astronaut begegnet Monster auf dem Mars" hat auch einige Anläufe mit Fooocus, A1111 StD, Upscayl, PS, Pano2VR gebraucht, bis ich mit der Komposition zufrieden war. Die mit generativer Füllung erweiterten Flächen sind dabei leider etwas unscharf geraten.
Ich musste das Motiv erst noch verkleinern, damit die Verzerrung nicht so störend hervortritt.