Community Forum Dicussioni generali, News, Presentazioni Off Topic Installazione Stable Diffusion

Stai visualizzando 30 post - dal 1 a 30 (di 30 totali)
  • Autore
    Post
  • #879984
    hunter81 (IlBlenderistascarso)
    Partecipante
    @hunter81

    Domanda sull’installazione di Stable Diffusion

    Ora: seguivo questo tutorial

    Stable Diffusion richiederebbe 8 GB di Ram video dedicata (io ne ho 6) tuttavia ho visto che anche con 6 gb di ram video DOVREBBE partire

    https://stablediffusionxl.com/sdxl-system-requirements/

    Ho installato python 3.11.5 ma funge con la 3.10.6 (che ho installato e ho sistemato il path per posizionarla sopra le altre installazioni)

    tuttavia mi da questo errore

    si riesce a capire l’inghippo?
    Grazie

    #879987
    andcamp
    Moderatore
    @andcampAssociato

    hai installato pip prima di procedere?

    #879988
    Harvester
    Moderatore
    @harvesterAssociato

    Il problema che stai riscontrando potrebbe essere dovuto al fatto che stai installando nella tua cartella utente, con tutti i controlli di accesso al sistema che Windows effettua e che possono creare problemi. Non saprei dirti perchè non riesce ad installare la libreria Torch; tieni aperta la finestra di gestione risorse per vedere se vengono esaurite RAM o VRAM durante il processo di installazione.

    Ti consiglio di installare SD Web UI di Automatic1111 (ma vale anche per altri strumenti simili) in una cartella a sè stante, per esempio in C:\sd-webui (ma puoi nominare la cartella come preferisci). Il requisito primario, come hai potuto scoprire è la versione di Python raccomandata, la 3.10.6, e poi GIT for Windows.

    SD Web UI di Automatic1111 è sicuramente interessante per la quantità di Estensioni e Script disponibili, il che ne fa una piattaforma interessante per la sperimentazione delle ultime novità e di funzionalità complesse. Per quanto riguarda la “quotidianità” dell’uso di un IA Generativa, non trascurare di valutare altri strumenti come, per esempio, InvokeAI (node based), ComfyUI (node based), AInodes (node based), Stable Studio. Esistono inoltre alcuni add-on per Blender come: DreamTextures, AI Render, Stability AI for Blender add-on, per citarne alcuni.

    Se non si dispone delle risorse hardware necessarie e si desidera addestrare modelli di inferenza o effettuare la messa a punto di modelli di linguaggio LLM, che richiedono risorse non indifferenti, si possono usare dei servizi esterni di computing in cloud (a pagamento), tra i quali RunPod e Paperspace sono quelli maggiormente utilizzati.

    #879996
    hunter81 (IlBlenderistascarso)
    Partecipante
    @hunter81

    Allora, riprocediamo con ordine
    1) ho disinstallato TUTTE le versioni di Python, reinstallando SOLO la 3.10.6
    2) ho installato il PIP col Python
    3) GIT scaricato e installato correttamente
    4) l’avvio del file di Automatic1111 non conclude l’installazione e non ci sono stati picchi di Ram / Vram tranne che per la parte conclusiva dell’installazione di Python

    #879999
    Harvester
    Moderatore
    @harvesterAssociato

    L’errore è relativo all’installazione di Python che Windows non riesce a trovare. Hai seguito attentamente le istruzioni nel video tutorial che hai segnalato sopra? Una cosa che va fatta durante le primissime fasi di installazione di Python è mettere la spunta su una casella realtiva all’inclusione di Python nelle variabili d’ambiente di Windows (PATH).

    Hai i diritti di amministratore per l’account utente che usi in Windows 10? Se non li hai devi eseguire certi comandi da una console di Windows con diritti amministrativi (è una delle opzioni di avvio di CMD).

    #880016
    hunter81 (IlBlenderistascarso)
    Partecipante
    @hunter81

    Si, infatti l’ultima installazione l’ho fatta “due volte”: dopo la disinstallazione di massa
    la prima “nuova” installazione della 3.10.6 NON AVEVA il Path spuntato.
    Rifatto tutto da zero.
    La seconda è corretta

    E ci sono i permessi di amministratore (ma per scrupolo, dove li controllo?)

    #880053
    hunter81 (IlBlenderistascarso)
    Partecipante
    @hunter81

    vediamo se inizio a capirci qualcosa:
    1) Installazione di Pytorch

    Ora: seguendo queste istruzioni

    https://saturncloud.io/blog/how-to-install-pytorch-in-windows/

    Ho scaricato e installato Pytorch. Dal prompt di comandi che ho dato, esce questo

    Inoltre appena mi ci rimetto, mi hanno consigliato questo video per usare Stable Diffusion con poca memoria Vram

     

    #880082
    Harvester
    Moderatore
    @harvesterAssociato

    In realtà, le dipendenze come Torch vengono scaricate durante il processo di installazione e creazione dell’ambiente virtuale Python, specifico per la tua installazione, quindi non capisco perché lo stai facendo manualmente. Inoltre, stai installando Torch nella versione di sistema di Python, mentre queste dipendenze vanno installate dopo aver attivato l’ambiente virtuale Python dedicato (solitamente è una cartella nominata .venv all’interno della cartella di installazione del programma). Le istruzioni nel repository di Automatic1111 SD Web UI:

    1. Install Python 3.10.6 (Newer version of Python does not support torch), checking “Add Python to PATH”.
    2. Install git.
    3. Download the stable-diffusion-webui repository, for example by running git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git.
    4. Run webui-user.bat from Windows Explorer as normal, non-administrator, user.

    A titolo di esempio, ho due installazioni di SD Web UI di A1111, in C:\sd-web-ui (v1.52) ed in C:\sd-webui (v1.6.0) per sfruttare il disco SSD di sistema, mentre i modelli, VAE e quant’altro sono creati usando collegamenti simbolici ai relativi file salvati su un secondo disco fisso, per risparmiare spazio sul disco C: visto che ho anche altri programmi di IA che usano gli stessi file/modelli. Può accadere che qualcosa vada storto durante un aggiornamento o l’installazione di uno script o una estensione per SDWebUI tale da non riuscire più ad avviare il programma, nel qual caso (dopo aver esaurito altre opzioni) la soluzione più drastica è quella di cancellare la cartella dell’ambiente virtuale (.venv) e riavviare il programma webui-user.bat che ricostruirà l’ambiente virtuale scaricando le varie dipendenze.

     

     

    #880110
    hunter81 (IlBlenderistascarso)
    Partecipante
    @hunter81

    Domanda Off-topic: qualcuno conosce dei tool che da un’immagine AI riesca a risalire al prompt che l’ha generata?
    tipo questo per capirci (ci sto ancora smanettando)

    https://huggingface.co/spaces/pharmapsychotic/CLIP-Interrogator

    Se non ho capito male, si può lasciare all’ AI la “libertà creativa” di completare l’immagine (luci, background etc..) che NON ESSENDO NEL PROMPT, NON VIENE RILEVATO DAL TOOL (infatti i prompt che crea, sono abbastanza striminziti rispetto alla complessità dell’immagine)

    #883579
    hunter81 (IlBlenderistascarso)
    Partecipante
    @hunter81

    Stavo studiando le AI generatrici di immagini e mi sono imbattuto in Fooocus

    https://github.com/lllyasviel/Fooocus

    Ho provato la funzione COLLAB invece del Download e mi compare questa scritta. Lo avete provato?
    Qualcuno sa cosa è andato storto? Grazie

    #883593
    fenix
    Partecipante
    @fenix64Associato

    ciao io lo uso da terminal Mac e mi trovo bene

     

    #883606
    hunter81 (IlBlenderistascarso)
    Partecipante
    @hunter81

    io non ho Mac e non ho una gran scheda video, per quello mi appoggiavo alla versione “collab” che però non è stata eseguita correttamente e non ne capivo il motivo
    più avanti provo a installarla su pc per vedere se funzia

    #883607
    Harvester
    Moderatore
    @harvesterAssociato

    Dal messaggio sembra un problema di connettività al repository di Huggingface. Riprova, magari c’era un problema sulla rete o sui server. Personalmente, utilizzo prevalentemente Invoke AI come strumento di generazione e modifica immagini, lo trovo molto più “artist friendly” e l’interfaccia è anche in Italiano.

    Non ho mai utilizzato Fooocus nè tantomeno in Google Colab, quindi non so quanto potrei esserti d’aiuto.

    Quale versione Colab stai provando, quella di Illiasviel o quella di Camenduru?

    #883611
    Harvester
    Moderatore
    @harvesterAssociato

    Ho appena provato a lanciare il Google Colab di Illyasviel e tutto funziona correttamente, ha installato Fooocus e scaricato i modelli necessari (Juggernaut XL) e l’interfaccia Gradio è accessibile online.

    Riprova a lanciare il programma dal sito di Illyasviel:

    🙂

     

    #883644
    hunter81 (IlBlenderistascarso)
    Partecipante
    @hunter81

    guarda io per il COLLAB seguivo questo tutorial

    @elvi5belvi5

    🤩FUNZIONAAA🤩 ✅Ecco come possiamo creare un influencer, presente su tutti i social media, con l’intelligenza artificiale . 🤖Grazie all’intelligenza artificiale infatti saremo in grado, in pochissimi clic, di creare un intero volto che non assomiglia a nessuno che abbia le caratteristiche richieste da noi. Quello che faremo infatti è sfruttare l’intelligenza artificiale per creare una nuova influencer così da poter aprire un nuovo profilo e poter attirare interessi e follower in pochissimi clic . 🟡Tutto ciò infatti lo possiamo fare in maniera totalmente gratuita e facendo veramente pochissimi clic in quanto a tutto il resto ci pensa l’intelligenza artificiale. In questo caso infatti sfrutteremo la potenza di calcolo di Google collab così da poter creare un nuovo volto e successivamente utilizzare lo stesso volto per la creazione delle immagini successive, così che la nostra influencer sia sempre identica da foto in foto. ✅quello che infatti saremo in grado di fare è quello di mantenere le proporzioni del volto, lo sguardo, il viso, il colore degli occhi e i capelli in tutte le foto, in quanto l’intelligenza artificiale sarà in grado di ricordarsi perfettamente tutte quelle che sono le caratteristiche create da noi, così da poter avere un profilo veritiero e che rappresenti la stessa persona. facendo tutto ciò infatti saremo in grado di creare un influencer da zero, senza alcun costo, e sfruttando anche la potenza di calcolo di Google, ovviamente come sempre l’intelligenza artificiale farà la maggior parte del lavoro per noi, in quanto in pochissimi clic saremo in grado di creare un volto in pochissimi istanti . 🆗L’esperimento che abbiamo condotto ci ha portato a confermare la possibilità della creazione di un’influencer in pochissimi grazie all’intelligenza artificiale, così da poter emulare i più famosi profili che adesso stanno prendendo la scena social in quanto stanno diventando veramente tanto grossi come profili. 🤩Provare per credere! #ai #openai #aiinfluencer #influencerai #imgcreatorai #aiimages #faceai #influencerartificiale #artificialinfluencer #aitanalopez #emilypellegrini #aiemily #artificialintelligence #intelligenzaartificiale #deepfake #elvistusha #googlecollab #collab #cloneai #aihuman #humanai #chatgpt #chatgpt4 #chatgpt3 #chatgpthack #gptsrocks🤟🏻

    ♬ Storytelling – Adriel

    e sono finito con quel problema. Ora l’ho avviato nuovamente SENZA CAMBIARE NULLA di ciò che facevo prima ED E’ PARTITO TUTTO,

    #883646
    Harvester
    Moderatore
    @harvesterAssociato

    Mi fa piacere sapere che hai in qualche modo risolto. Tieni presente che una volta disattivato il Colab perdi tutti i dati, incluse le immagini generate, a meno che tu non le scarichi prima su una tua risorsa locale o nel cloud.

    #883659
    hunter81 (IlBlenderistascarso)
    Partecipante
    @hunter81

    visto, grazie. Ogni volta che smanetto sulle AI mi segno fisso il prompt, le varie modifiche che l’ai genera automaticamente, Seed, Negative Prompt, etc…
    è uno sbattimento, ma catalogare sia il prompt che i risultati ottenuti, mi aiuta a capire come viene interpretato il prompt (so che è una scemenza, ma mi capita di provare uno stesso prompt su più AI, )

    per l’installazione resta un mistero, ho solo rifatto tutto da capo…

    #883660
    Harvester
    Moderatore
    @harvesterAssociato

    Ogni modello di inferenza produce risultati diversi con lo stesso prompt, variabili di generazione e risoluzione dell’immagine, quindi testare sia diversi modelli con lo stesso prompt aiuta a comprenderne meglio i limiti e quali modelli producono il risultato che ti interessa ottenere.

     

    In Automatic1111 SD Web UI (ma forse anche in ComfyUI) è possibile generare dei lotti di immagini in base a diversi parametri variabili (modello, CFG, Steps ecc) mostrandone i risultati in un formato a griglia XY, per una più facile lettura.

    #883695
    hunter81 (IlBlenderistascarso)
    Partecipante
    @hunter81

    ovviamente notavo anche che la sintassi di certe AI è diversa, anche se per generare un’immagine “basta descriverla in forma discorsiva”, per SEAART
    c’è una sorta di “gerarchia” sui soggetti o sugli elementi dell’immagine a cui l’AI deve prestare più cura

    e infatti stavo cercando qualcuno che mi aiutasse a capirla

    #883698
    Harvester
    Moderatore
    @harvesterAssociato

    La sintassi del prompt dipende da come viene interpretato e da che tipo di modello e sistema di generazione stai usando.  L’attenzione del modello è a scalare dall’inizio del prompt e dipende dalla sequenza dei termini che vengono prima convertiti in vettori tramite tokenizer e CLIP e successivamente dati in pasto al modello per la generazione. Certe sintassi per aumentare o ridurre l’attenzione del modello verso una parola o gruppo di parole nel prompt, possono differire da un sistema all’altro, o essere presenti o meno a secondo di come e se sono implementate dagli sviluppatori. Bisogna leggere la documentazione del sistema che usi per generare immagini per capire come utilizzarlo al meglio.

    #883711
    hunter81 (IlBlenderistascarso)
    Partecipante
    @hunter81

    lo supponevo, infatti per SEAART usano molto la sintasi che reca

    (masterpiece)

    per eempio e ho notato che ciò che è racchiuso in quella parola, viene creato con maggiore attenzione, però vado in palla quando devo creare persone, spesso usano
    (body 1:1)
    per evitare che alcune parti del corpo escano sproporzionate creando un funkopop

    #883714
    Harvester
    Moderatore
    @harvesterAssociato

    Questi modelli hanno appreso da una moltitudine di immagini e relative etichette descrittive o tag, dove per la maggior parte si tratta di descrittori in lingua inglese (trovi anche immagini descritte in altre lingue ma sono una minoranza e non producono spesso buoni risultati quando usate in un prompt), pertanto la conoscenza della lingua inglese aiuta e non poco, ma abbiamo ora dei traduttori che possono aiutarci in questo.

    Se, come immagino, hai già esplorato siti come Civitai.com e Lexica.art avrai potuto notare la diversità dei prompt e la loro più o meno complessità. Questo è un buon punto di partenza per esplorare come si comporta il modello in base ai prompt che gli sottoponi. Ricorda che tutti i modelli che trovi in circolazione si fondano su un paio di modelli base, cioè Stable Diffusion v1.5 e SDXL, il resto viene costruito sopra di essi.

    L’enfasi nel prompt aiuta, ma non sempre è la soluzione o l’unica soluzione, specialmente se vuoi esercitare un certo controllo sui risultati della generazione. In questi casi si tratta di trovare una buona combinazione di modello (non usi un modello specializzato in fotografie se stai generando immagini non foto realistiche), prompt, in aggiunta ad altri strumenti come Controlnet, IP Adapter e T2i Adapter, per citare quelli più noti.

    Esistono molte risorse online sul Prompt Engineering e tecniche di prompting, pertanto se non l’hai già fatto ti suggerisco di cercare informazioni su questo argomento e poi sperimentare.

     

    A titolo puramente orientativo, questa può essere una sintassi utile per creare un prompt:

    per SD 1.5: [STYLE] of a [SUBJECT], [IMPORTANT FEATURE], [MORE DETAILS], [POSE OR ACTION], [FRAMING], [SETTING/BACKGROUND], [LIGHTING], [CAMERA ANGLE], [CAMERA OR STYLE PROPERTIES]

    per SDXL: usa il linguaggio naturale (inglese) o lo schema precedente.

     

    #883727
    hunter81 (IlBlenderistascarso)
    Partecipante
    @hunter81

    guarda nella mia immensa ignoranza ho provato la combo PROMPT AI+ CHAT GPT, semplicemente ho chiesto all’AI di spiegarmi la sintassi del prompt generatore di immagini. appena riesco mi leggo anche il resto della documentazione

    #883934
    hunter81 (IlBlenderistascarso)
    Partecipante
    @hunter81

    La mia immensa ignoranza si sta arricchendo di nuovi elementi. Per ora sto smantellando prompt altrui come se non ci fosse un domani per provare a capirli.
    Ora, partiamo dall’IDEA DELL’IMMAGINE DI PARTENZA (non ho usato l’immagine in sè come reference, ma ho smantellato il prompt per capirne la sintassi
    Sto iniziando con SeaArt.ai e sto cercando di seguire le basi peri i tutorial e la LoRA (ma devo ancora trovare un “metodo” per studiarlo come si deve senza smanettare troppo a casaccio)

    – la prima cosa che ho notato è l’abuso di parentesi tonde e grafe (che da quanto ho capito permettono all’AI di concentrarsi meglio sulla creazione del soggetto)

    1_0_Prompt_Reference_Female_cyborg

    la cosa strana è che nonostante nel Negative prompt abbia specificato di NON VOLERE DUE SOGGETTI, in un tentativo me lo ha creato cmq (questi i risultati)

    #883939
    fenix
    Partecipante
    @fenix64Associato

    se prendi un immagine e la inserisci in immagini e poi analizzi l’immagine ti produce il prompt

     

    #883950
    Harvester
    Moderatore
    @harvesterAssociato

    Fai attenzione ed evitare incongruenze o termini conflittuali nel prompt positivo. I modelli di diffusione generativi non sono efficienti nel valutare elementi quantitativi come due persone, ma questo verrà corretto in modelli futuri (come Stable Diffusion 3), inoltre dipende dal modello stesso e da come è stato addestrato o affinato. Tutta quella roba nel prompt negativo non è strettamente necessaria e non è detto che serva o funzioni, inoltre un termine può risultare associato a diversi concetti, pertanto rimuoverlo come prompt negativo influenzerà il risultato anche in modi imprevisti.

    Una possibile causa del problema “doppioni” nelle immagini generate è la risoluzione a cui stai generando l’immagine che se è troppo distante dalla risoluzione di addestramento del modello può generare immagini doppie, come due persone, due teste, cose del genere. Per evitare questo problema puoi generare alla risoluzione del modello (per esempio 512×512 per i modelli basati su SD 1.5, oppure 1024×1024 o altre risoluzioni compatibili con i modelli basati su SDXL) e successivamente ampliare l’immagine (upscale) ad una risoluzione maggiore, oppure utilizzare (se presente nel programma) l’opzione High Resolution Fix (o correzione alta risoluzione) che genera l’immagine in due tempi, prima ad una risoluzione minore di quella finale e compatibile con il modello e poi questa viene ampliata alla risoluzione finale.

    Circa l’uso o abuso di parentesi o meglio di enfatizzazioni nel prompt, queste sono utili certamente e andrebbero utilizzate con cognizione di causa, in quanto un loro utilizzo eccessivo nel prompt ne può alla fine ridurre o vanificare l’efficacia.

    #883964
    hunter81 (IlBlenderistascarso)
    Partecipante
    @hunter81

    quindi se ho capito qualcosa è che la risoluzione (o l’ampiezza) dell’immagine che voglio generare, rischia di essere “riempita arbitrariamente) dall’AI (ecco perchè uscivano capigliature foltissime, sovramuscolatura etc..che rendevano il soggetto affascinante quanto lo erano gli Sgorbions trent’anni fa)

    per le parentesi, spesso ho visto qualcosa di simile

    – (masterpiece) + descrizione soggetto
    – (masterpiece + descrizione soggetto)

    quindi tutto ciò che E’ DENTRO LE PARENTESI TONDE verrà generato con più attenzione dall’IA

    – (Super detailed CG: 1.2) – indica la qualità dei dettagli (oltre ai vari UHD, photorealistic, etc..) perchè non tutte le AI riconoscono gli stessi input
    – (body 1:1) – credo indichi le proporzioni di un corpo umano, perchè cambiandole mi sono saltati fuori degli abomini assurdi

    Infine sulle LoRA e sui Modelli, ho visto che quelli preconfezionati rischiano di entrare in conflitto: cioè uso un Modello REALISTICO ma la LoRA la scelgo con le sembianze di un cartone animato
    e mi crea l’ennesima poltiglia di carne non meglio identificata.
    Ci smanetterò sopra, grazie

    #883965
    Harvester
    Moderatore
    @harvesterAssociato

    Fai attenzione quando esegui un copia incolla da Word o altri programmi perché ti sei portato dietro una valanga di testo non necessario, che mi sono permesso di rimuovere per rendere il testo più leggibile.

    #883970
    hunter81 (IlBlenderistascarso)
    Partecipante
    @hunter81

    ma in realtà avevo scritto la frase sulle parentesi tonde METTENDO SOLO DUE PARENTESI TONDE alla fine
    non ho copiato nulla da nessuna parte. poi durante il caricamento si era bloccato firefox, ma ho dato per scontato che il post
    fosse stato inserito come al solito e non hi più ricontrollato
    Chiedo Scusa

    #884878
    hunter81 (IlBlenderistascarso)
    Partecipante
    @hunter81

    Riprendo in mano le AI studiandomi I NEGATIVE PROMPT.
    Ho notato che non tutte le AI rispondono agli stessi negative prompt. Escludendo quelli “scritti normalmente” per evitare la “bad anatomy” – occhi storti, corpi deformi, etc..
    Me li stavo riassumendo, però volevo capire se ce ne sono di specifici

    Questa mi è uscita usando LA PRIMA PARTE del Neg Prompt

    Questa invece è stata creata con la SECONDA PARTE del Neg Prompt (lasciando invariate le altre voci)

    – per le mani e le dita in sovrannumero o che “non si fondano col corpo”
    – evitare che due o più soggetti si fondano (e non so se devo scrivere DUE MASTERPIECE DISTINTI o un SINGOLO in cui descriverli entrambi)
    – evitare che i colori dei vestiti macchino la pelle

    1_0_Prompt_Portrait CIVITAI

    6_0_Altri Negative Prompt

    Per quanto riguarda il workflow, sto partendo dai portrait 512×512,
    correggendo i difetti  con Inpainting per poi fare l’upscale con luci e sfondi più articolati

    cmq dove si trovano i negative prompt più comunemente usati?

     

Stai visualizzando 30 post - dal 1 a 30 (di 30 totali)
  • Devi essere connesso per rispondere a questo topic.