Community › Forum › Dicussioni generali, News, Presentazioni › Off Topic › Installazione Stable Diffusion Ricerca per: Taggato: stable diffusion python AI LoRA Seaart prompt Questo topic ha 31 risposte, 4 partecipanti ed è stato aggiornato l'ultima volta 4 mesi, 1 settimana fa da Harvester. Stai visualizzando 32 post - dal 1 a 32 (di 32 totali) Autore Post 19 Settembre 2023 alle 8:52 #879984 hunter81 (IlBlenderistascarso)Partecipante @hunter81 Domanda sull’installazione di Stable Diffusion Ora: seguivo questo tutorial Stable Diffusion richiederebbe 8 GB di Ram video dedicata (io ne ho 6) tuttavia ho visto che anche con 6 gb di ram video DOVREBBE partire https://stablediffusionxl.com/sdxl-system-requirements/ Ho installato python 3.11.5 ma funge con la 3.10.6 (che ho installato e ho sistemato il path per posizionarla sopra le altre installazioni) tuttavia mi da questo errore si riesce a capire l’inghippo? Grazie Effettuare il login per mettere i like 19 Settembre 2023 alle 12:51 #879987 andcampPartecipante @andcamp hai installato pip prima di procedere? Effettuare il login per mettere i like 19 Settembre 2023 alle 13:11 #879988 HarvesterModeratore @harvester Il problema che stai riscontrando potrebbe essere dovuto al fatto che stai installando nella tua cartella utente, con tutti i controlli di accesso al sistema che Windows effettua e che possono creare problemi. Non saprei dirti perchè non riesce ad installare la libreria Torch; tieni aperta la finestra di gestione risorse per vedere se vengono esaurite RAM o VRAM durante il processo di installazione. Ti consiglio di installare SD Web UI di Automatic1111 (ma vale anche per altri strumenti simili) in una cartella a sè stante, per esempio in C:\sd-webui (ma puoi nominare la cartella come preferisci). Il requisito primario, come hai potuto scoprire è la versione di Python raccomandata, la 3.10.6, e poi GIT for Windows. SD Web UI di Automatic1111 è sicuramente interessante per la quantità di Estensioni e Script disponibili, il che ne fa una piattaforma interessante per la sperimentazione delle ultime novità e di funzionalità complesse. Per quanto riguarda la “quotidianità” dell’uso di un IA Generativa, non trascurare di valutare altri strumenti come, per esempio, InvokeAI (node based), ComfyUI (node based), AInodes (node based), Stable Studio. Esistono inoltre alcuni add-on per Blender come: DreamTextures, AI Render, Stability AI for Blender add-on, per citarne alcuni. Se non si dispone delle risorse hardware necessarie e si desidera addestrare modelli di inferenza o effettuare la messa a punto di modelli di linguaggio LLM, che richiedono risorse non indifferenti, si possono usare dei servizi esterni di computing in cloud (a pagamento), tra i quali RunPod e Paperspace sono quelli maggiormente utilizzati. Effettuare il login per mettere i like 19 Settembre 2023 alle 21:49 #879996 hunter81 (IlBlenderistascarso)Partecipante @hunter81 Allora, riprocediamo con ordine 1) ho disinstallato TUTTE le versioni di Python, reinstallando SOLO la 3.10.6 2) ho installato il PIP col Python 3) GIT scaricato e installato correttamente 4) l’avvio del file di Automatic1111 non conclude l’installazione e non ci sono stati picchi di Ram / Vram tranne che per la parte conclusiva dell’installazione di Python Effettuare il login per mettere i like 20 Settembre 2023 alle 11:51 #879999 HarvesterModeratore @harvester L’errore è relativo all’installazione di Python che Windows non riesce a trovare. Hai seguito attentamente le istruzioni nel video tutorial che hai segnalato sopra? Una cosa che va fatta durante le primissime fasi di installazione di Python è mettere la spunta su una casella realtiva all’inclusione di Python nelle variabili d’ambiente di Windows (PATH). Hai i diritti di amministratore per l’account utente che usi in Windows 10? Se non li hai devi eseguire certi comandi da una console di Windows con diritti amministrativi (è una delle opzioni di avvio di CMD). Effettuare il login per mettere i like 21 Settembre 2023 alle 21:05 #880016 hunter81 (IlBlenderistascarso)Partecipante @hunter81 Si, infatti l’ultima installazione l’ho fatta “due volte”: dopo la disinstallazione di massa la prima “nuova” installazione della 3.10.6 NON AVEVA il Path spuntato. Rifatto tutto da zero. La seconda è corretta E ci sono i permessi di amministratore (ma per scrupolo, dove li controllo?) Effettuare il login per mettere i like 23 Settembre 2023 alle 17:31 #880053 hunter81 (IlBlenderistascarso)Partecipante @hunter81 vediamo se inizio a capirci qualcosa: 1) Installazione di Pytorch Ora: seguendo queste istruzioni https://saturncloud.io/blog/how-to-install-pytorch-in-windows/ Ho scaricato e installato Pytorch. Dal prompt di comandi che ho dato, esce questo Inoltre appena mi ci rimetto, mi hanno consigliato questo video per usare Stable Diffusion con poca memoria Vram Effettuare il login per mettere i like 24 Settembre 2023 alle 18:58 #880082 HarvesterModeratore @harvester In realtà, le dipendenze come Torch vengono scaricate durante il processo di installazione e creazione dell’ambiente virtuale Python, specifico per la tua installazione, quindi non capisco perché lo stai facendo manualmente. Inoltre, stai installando Torch nella versione di sistema di Python, mentre queste dipendenze vanno installate dopo aver attivato l’ambiente virtuale Python dedicato (solitamente è una cartella nominata .venv all’interno della cartella di installazione del programma). Le istruzioni nel repository di Automatic1111 SD Web UI: Install Python 3.10.6 (Newer version of Python does not support torch), checking “Add Python to PATH”. Install git. Download the stable-diffusion-webui repository, for example by running git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git. Run webui-user.bat from Windows Explorer as normal, non-administrator, user. A titolo di esempio, ho due installazioni di SD Web UI di A1111, in C:\sd-web-ui (v1.52) ed in C:\sd-webui (v1.6.0) per sfruttare il disco SSD di sistema, mentre i modelli, VAE e quant’altro sono creati usando collegamenti simbolici ai relativi file salvati su un secondo disco fisso, per risparmiare spazio sul disco C: visto che ho anche altri programmi di IA che usano gli stessi file/modelli. Può accadere che qualcosa vada storto durante un aggiornamento o l’installazione di uno script o una estensione per SDWebUI tale da non riuscire più ad avviare il programma, nel qual caso (dopo aver esaurito altre opzioni) la soluzione più drastica è quella di cancellare la cartella dell’ambiente virtuale (.venv) e riavviare il programma webui-user.bat che ricostruirà l’ambiente virtuale scaricando le varie dipendenze. Effettuare il login per mettere i like 26 Settembre 2023 alle 18:36 #880110 hunter81 (IlBlenderistascarso)Partecipante @hunter81 Domanda Off-topic: qualcuno conosce dei tool che da un’immagine AI riesca a risalire al prompt che l’ha generata? tipo questo per capirci (ci sto ancora smanettando) https://huggingface.co/spaces/pharmapsychotic/CLIP-Interrogator Se non ho capito male, si può lasciare all’ AI la “libertà creativa” di completare l’immagine (luci, background etc..) che NON ESSENDO NEL PROMPT, NON VIENE RILEVATO DAL TOOL (infatti i prompt che crea, sono abbastanza striminziti rispetto alla complessità dell’immagine) Effettuare il login per mettere i like 10 Febbraio 2024 alle 20:53 #883579 hunter81 (IlBlenderistascarso)Partecipante @hunter81 Stavo studiando le AI generatrici di immagini e mi sono imbattuto in Fooocus https://github.com/lllyasviel/Fooocus Ho provato la funzione COLLAB invece del Download e mi compare questa scritta. Lo avete provato? Qualcuno sa cosa è andato storto? Grazie Effettuare il login per mettere i like 11 Febbraio 2024 alle 11:10 #883593 fenixPartecipante @fenix64 ciao io lo uso da terminal Mac e mi trovo bene Effettuare il login per mettere i like 11 Febbraio 2024 alle 16:44 #883606 hunter81 (IlBlenderistascarso)Partecipante @hunter81 io non ho Mac e non ho una gran scheda video, per quello mi appoggiavo alla versione “collab” che però non è stata eseguita correttamente e non ne capivo il motivo più avanti provo a installarla su pc per vedere se funzia Effettuare il login per mettere i like 11 Febbraio 2024 alle 17:42 #883607 HarvesterModeratore @harvester Dal messaggio sembra un problema di connettività al repository di Huggingface. Riprova, magari c’era un problema sulla rete o sui server. Personalmente, utilizzo prevalentemente Invoke AI come strumento di generazione e modifica immagini, lo trovo molto più “artist friendly” e l’interfaccia è anche in Italiano. Non ho mai utilizzato Fooocus nè tantomeno in Google Colab, quindi non so quanto potrei esserti d’aiuto. Quale versione Colab stai provando, quella di Illiasviel o quella di Camenduru? Effettuare il login per mettere i like 11 Febbraio 2024 alle 18:15 #883611 HarvesterModeratore @harvester Ho appena provato a lanciare il Google Colab di Illyasviel e tutto funziona correttamente, ha installato Fooocus e scaricato i modelli necessari (Juggernaut XL) e l’interfaccia Gradio è accessibile online. Riprova a lanciare il programma dal sito di Illyasviel: 🙂 Effettuare il login per mettere i like 12 Febbraio 2024 alle 22:52 #883644 hunter81 (IlBlenderistascarso)Partecipante @hunter81 guarda io per il COLLAB seguivo questo tutorial @elvi5belvi5 🤩FUNZIONAAA🤩 ✅Ecco come possiamo creare un influencer, presente su tutti i social media, con l’intelligenza artificiale . 🤖Grazie all’intelligenza artificiale infatti saremo in grado, in pochissimi clic, di creare un intero volto che non assomiglia a nessuno che abbia le caratteristiche richieste da noi. Quello che faremo infatti è sfruttare l’intelligenza artificiale per creare una nuova influencer così da poter aprire un nuovo profilo e poter attirare interessi e follower in pochissimi clic . 🟡Tutto ciò infatti lo possiamo fare in maniera totalmente gratuita e facendo veramente pochissimi clic in quanto a tutto il resto ci pensa l’intelligenza artificiale. In questo caso infatti sfrutteremo la potenza di calcolo di Google collab così da poter creare un nuovo volto e successivamente utilizzare lo stesso volto per la creazione delle immagini successive, così che la nostra influencer sia sempre identica da foto in foto. ✅quello che infatti saremo in grado di fare è quello di mantenere le proporzioni del volto, lo sguardo, il viso, il colore degli occhi e i capelli in tutte le foto, in quanto l’intelligenza artificiale sarà in grado di ricordarsi perfettamente tutte quelle che sono le caratteristiche create da noi, così da poter avere un profilo veritiero e che rappresenti la stessa persona. facendo tutto ciò infatti saremo in grado di creare un influencer da zero, senza alcun costo, e sfruttando anche la potenza di calcolo di Google, ovviamente come sempre l’intelligenza artificiale farà la maggior parte del lavoro per noi, in quanto in pochissimi clic saremo in grado di creare un volto in pochissimi istanti . 🆗L’esperimento che abbiamo condotto ci ha portato a confermare la possibilità della creazione di un’influencer in pochissimi grazie all’intelligenza artificiale, così da poter emulare i più famosi profili che adesso stanno prendendo la scena social in quanto stanno diventando veramente tanto grossi come profili. 🤩Provare per credere! #ai #openai #aiinfluencer #influencerai #imgcreatorai #aiimages #faceai #influencerartificiale #artificialinfluencer #aitanalopez #emilypellegrini #aiemily #artificialintelligence #intelligenzaartificiale #deepfake #elvistusha #googlecollab #collab #cloneai #aihuman #humanai #chatgpt #chatgpt4 #chatgpt3 #chatgpthack #gptsrocks🤟🏻 ♬ Storytelling – Adriel e sono finito con quel problema. Ora l’ho avviato nuovamente SENZA CAMBIARE NULLA di ciò che facevo prima ED E’ PARTITO TUTTO, Effettuare il login per mettere i like 13 Febbraio 2024 alle 10:11 #883646 HarvesterModeratore @harvester Mi fa piacere sapere che hai in qualche modo risolto. Tieni presente che una volta disattivato il Colab perdi tutti i dati, incluse le immagini generate, a meno che tu non le scarichi prima su una tua risorsa locale o nel cloud. Effettuare il login per mettere i like 13 Febbraio 2024 alle 19:01 #883659 hunter81 (IlBlenderistascarso)Partecipante @hunter81 visto, grazie. Ogni volta che smanetto sulle AI mi segno fisso il prompt, le varie modifiche che l’ai genera automaticamente, Seed, Negative Prompt, etc… è uno sbattimento, ma catalogare sia il prompt che i risultati ottenuti, mi aiuta a capire come viene interpretato il prompt (so che è una scemenza, ma mi capita di provare uno stesso prompt su più AI, ) per l’installazione resta un mistero, ho solo rifatto tutto da capo… Effettuare il login per mettere i like 13 Febbraio 2024 alle 19:20 #883660 HarvesterModeratore @harvester Ogni modello di inferenza produce risultati diversi con lo stesso prompt, variabili di generazione e risoluzione dell’immagine, quindi testare sia diversi modelli con lo stesso prompt aiuta a comprenderne meglio i limiti e quali modelli producono il risultato che ti interessa ottenere. In Automatic1111 SD Web UI (ma forse anche in ComfyUI) è possibile generare dei lotti di immagini in base a diversi parametri variabili (modello, CFG, Steps ecc) mostrandone i risultati in un formato a griglia XY, per una più facile lettura. Effettuare il login per mettere i like 14 Febbraio 2024 alle 14:36 #883695 hunter81 (IlBlenderistascarso)Partecipante @hunter81 ovviamente notavo anche che la sintassi di certe AI è diversa, anche se per generare un’immagine “basta descriverla in forma discorsiva”, per SEAART c’è una sorta di “gerarchia” sui soggetti o sugli elementi dell’immagine a cui l’AI deve prestare più cura e infatti stavo cercando qualcuno che mi aiutasse a capirla Effettuare il login per mettere i like 14 Febbraio 2024 alle 15:28 #883698 HarvesterModeratore @harvester La sintassi del prompt dipende da come viene interpretato e da che tipo di modello e sistema di generazione stai usando. L’attenzione del modello è a scalare dall’inizio del prompt e dipende dalla sequenza dei termini che vengono prima convertiti in vettori tramite tokenizer e CLIP e successivamente dati in pasto al modello per la generazione. Certe sintassi per aumentare o ridurre l’attenzione del modello verso una parola o gruppo di parole nel prompt, possono differire da un sistema all’altro, o essere presenti o meno a secondo di come e se sono implementate dagli sviluppatori. Bisogna leggere la documentazione del sistema che usi per generare immagini per capire come utilizzarlo al meglio. Effettuare il login per mettere i like 14 Febbraio 2024 alle 21:17 #883711 hunter81 (IlBlenderistascarso)Partecipante @hunter81 lo supponevo, infatti per SEAART usano molto la sintasi che reca (masterpiece) per eempio e ho notato che ciò che è racchiuso in quella parola, viene creato con maggiore attenzione, però vado in palla quando devo creare persone, spesso usano (body 1:1) per evitare che alcune parti del corpo escano sproporzionate creando un funkopop Effettuare il login per mettere i like 15 Febbraio 2024 alle 9:55 #883714 HarvesterModeratore @harvester Questi modelli hanno appreso da una moltitudine di immagini e relative etichette descrittive o tag, dove per la maggior parte si tratta di descrittori in lingua inglese (trovi anche immagini descritte in altre lingue ma sono una minoranza e non producono spesso buoni risultati quando usate in un prompt), pertanto la conoscenza della lingua inglese aiuta e non poco, ma abbiamo ora dei traduttori che possono aiutarci in questo. Se, come immagino, hai già esplorato siti come Civitai.com e Lexica.art avrai potuto notare la diversità dei prompt e la loro più o meno complessità. Questo è un buon punto di partenza per esplorare come si comporta il modello in base ai prompt che gli sottoponi. Ricorda che tutti i modelli che trovi in circolazione si fondano su un paio di modelli base, cioè Stable Diffusion v1.5 e SDXL, il resto viene costruito sopra di essi. L’enfasi nel prompt aiuta, ma non sempre è la soluzione o l’unica soluzione, specialmente se vuoi esercitare un certo controllo sui risultati della generazione. In questi casi si tratta di trovare una buona combinazione di modello (non usi un modello specializzato in fotografie se stai generando immagini non foto realistiche), prompt, in aggiunta ad altri strumenti come Controlnet, IP Adapter e T2i Adapter, per citare quelli più noti. Esistono molte risorse online sul Prompt Engineering e tecniche di prompting, pertanto se non l’hai già fatto ti suggerisco di cercare informazioni su questo argomento e poi sperimentare. A titolo puramente orientativo, questa può essere una sintassi utile per creare un prompt: per SD 1.5: [STYLE] of a [SUBJECT], [IMPORTANT FEATURE], [MORE DETAILS], [POSE OR ACTION], [FRAMING], [SETTING/BACKGROUND], [LIGHTING], [CAMERA ANGLE], [CAMERA OR STYLE PROPERTIES] per SDXL: usa il linguaggio naturale (inglese) o lo schema precedente. Effettuare il login per mettere i like 15 Febbraio 2024 alle 16:30 #883727 hunter81 (IlBlenderistascarso)Partecipante @hunter81 guarda nella mia immensa ignoranza ho provato la combo PROMPT AI+ CHAT GPT, semplicemente ho chiesto all’AI di spiegarmi la sintassi del prompt generatore di immagini. appena riesco mi leggo anche il resto della documentazione Effettuare il login per mettere i like 25 Febbraio 2024 alle 21:02 #883934 hunter81 (IlBlenderistascarso)Partecipante @hunter81 La mia immensa ignoranza si sta arricchendo di nuovi elementi. Per ora sto smantellando prompt altrui come se non ci fosse un domani per provare a capirli. Ora, partiamo dall’IDEA DELL’IMMAGINE DI PARTENZA (non ho usato l’immagine in sè come reference, ma ho smantellato il prompt per capirne la sintassi Sto iniziando con SeaArt.ai e sto cercando di seguire le basi peri i tutorial e la LoRA (ma devo ancora trovare un “metodo” per studiarlo come si deve senza smanettare troppo a casaccio) – la prima cosa che ho notato è l’abuso di parentesi tonde e grafe (che da quanto ho capito permettono all’AI di concentrarsi meglio sulla creazione del soggetto) 1_0_Prompt_Reference_Female_cyborg la cosa strana è che nonostante nel Negative prompt abbia specificato di NON VOLERE DUE SOGGETTI, in un tentativo me lo ha creato cmq (questi i risultati) Effettuare il login per mettere i like 26 Febbraio 2024 alle 0:03 #883939 fenixPartecipante @fenix64 se prendi un immagine e la inserisci in immagini e poi analizzi l’immagine ti produce il prompt Effettuare il login per mettere i like 26 Febbraio 2024 alle 9:44 #883950 HarvesterModeratore @harvester Fai attenzione ed evitare incongruenze o termini conflittuali nel prompt positivo. I modelli di diffusione generativi non sono efficienti nel valutare elementi quantitativi come due persone, ma questo verrà corretto in modelli futuri (come Stable Diffusion 3), inoltre dipende dal modello stesso e da come è stato addestrato o affinato. Tutta quella roba nel prompt negativo non è strettamente necessaria e non è detto che serva o funzioni, inoltre un termine può risultare associato a diversi concetti, pertanto rimuoverlo come prompt negativo influenzerà il risultato anche in modi imprevisti. Una possibile causa del problema “doppioni” nelle immagini generate è la risoluzione a cui stai generando l’immagine che se è troppo distante dalla risoluzione di addestramento del modello può generare immagini doppie, come due persone, due teste, cose del genere. Per evitare questo problema puoi generare alla risoluzione del modello (per esempio 512×512 per i modelli basati su SD 1.5, oppure 1024×1024 o altre risoluzioni compatibili con i modelli basati su SDXL) e successivamente ampliare l’immagine (upscale) ad una risoluzione maggiore, oppure utilizzare (se presente nel programma) l’opzione High Resolution Fix (o correzione alta risoluzione) che genera l’immagine in due tempi, prima ad una risoluzione minore di quella finale e compatibile con il modello e poi questa viene ampliata alla risoluzione finale. Circa l’uso o abuso di parentesi o meglio di enfatizzazioni nel prompt, queste sono utili certamente e andrebbero utilizzate con cognizione di causa, in quanto un loro utilizzo eccessivo nel prompt ne può alla fine ridurre o vanificare l’efficacia. Effettuare il login per mettere i like 26 Febbraio 2024 alle 20:07 #883964 hunter81 (IlBlenderistascarso)Partecipante @hunter81 quindi se ho capito qualcosa è che la risoluzione (o l’ampiezza) dell’immagine che voglio generare, rischia di essere “riempita arbitrariamente) dall’AI (ecco perchè uscivano capigliature foltissime, sovramuscolatura etc..che rendevano il soggetto affascinante quanto lo erano gli Sgorbions trent’anni fa) per le parentesi, spesso ho visto qualcosa di simile – (masterpiece) + descrizione soggetto – (masterpiece + descrizione soggetto) quindi tutto ciò che E’ DENTRO LE PARENTESI TONDE verrà generato con più attenzione dall’IA – (Super detailed CG: 1.2) – indica la qualità dei dettagli (oltre ai vari UHD, photorealistic, etc..) perchè non tutte le AI riconoscono gli stessi input – (body 1:1) – credo indichi le proporzioni di un corpo umano, perchè cambiandole mi sono saltati fuori degli abomini assurdi Infine sulle LoRA e sui Modelli, ho visto che quelli preconfezionati rischiano di entrare in conflitto: cioè uso un Modello REALISTICO ma la LoRA la scelgo con le sembianze di un cartone animato e mi crea l’ennesima poltiglia di carne non meglio identificata. Ci smanetterò sopra, grazie Effettuare il login per mettere i like 27 Febbraio 2024 alle 10:44 #883965 HarvesterModeratore @harvester Fai attenzione quando esegui un copia incolla da Word o altri programmi perché ti sei portato dietro una valanga di testo non necessario, che mi sono permesso di rimuovere per rendere il testo più leggibile. Effettuare il login per mettere i like 27 Febbraio 2024 alle 14:10 #883970 hunter81 (IlBlenderistascarso)Partecipante @hunter81 ma in realtà avevo scritto la frase sulle parentesi tonde METTENDO SOLO DUE PARENTESI TONDE alla fine non ho copiato nulla da nessuna parte. poi durante il caricamento si era bloccato firefox, ma ho dato per scontato che il post fosse stato inserito come al solito e non hi più ricontrollato Chiedo Scusa Effettuare il login per mettere i like 1 Maggio 2024 alle 21:45 #884878 hunter81 (IlBlenderistascarso)Partecipante @hunter81 Riprendo in mano le AI studiandomi I NEGATIVE PROMPT. Ho notato che non tutte le AI rispondono agli stessi negative prompt. Escludendo quelli “scritti normalmente” per evitare la “bad anatomy” – occhi storti, corpi deformi, etc.. Me li stavo riassumendo, però volevo capire se ce ne sono di specifici Questa mi è uscita usando LA PRIMA PARTE del Neg Prompt Questa invece è stata creata con la SECONDA PARTE del Neg Prompt (lasciando invariate le altre voci) – per le mani e le dita in sovrannumero o che “non si fondano col corpo” – evitare che due o più soggetti si fondano (e non so se devo scrivere DUE MASTERPIECE DISTINTI o un SINGOLO in cui descriverli entrambi) – evitare che i colori dei vestiti macchino la pelle 1_0_Prompt_Portrait CIVITAI 6_0_Altri Negative Prompt Per quanto riguarda il workflow, sto partendo dai portrait 512×512, correggendo i difetti con Inpainting per poi fare l’upscale con luci e sfondi più articolati cmq dove si trovano i negative prompt più comunemente usati? Effettuare il login per mettere i like 25 Luglio 2024 alle 20:57 #887138 hunter81 (IlBlenderistascarso)Partecipante @hunter81 riesumo questo topic per chiedere se qualcuno usa FOOCUS.AI nelle precedenti versioni mi funzionava, ultimamente però non si avvia e non ne capisco il motivo, non avendo modificato nulla nè di hardware e SW. ecco dove scaricarlo https://github.com/lllyasviel/Fooocus Effettuare il login per mettere i like 29 Luglio 2024 alle 17:36 #887155 HarvesterModeratore @harvester Il mio consiglio spassionato è quello di chiedere nel canale Discord dell’autore, che dovresti trovare nel repository GH. Effettuare il login per mettere i like Autore Post Stai visualizzando 32 post - dal 1 a 32 (di 32 totali) Devi essere connesso per rispondere a questo topic. Accesso Nome utente: Password: Mantienimi connesso Accesso