Community › Forum › Supporto Utenti › Supporto Animazione e rigging › Rigging armature tramite kinect Ricerca per: Questo topic ha 25 risposte, 6 partecipanti ed è stato aggiornato l'ultima volta 6 anni, 6 mesi fa da jhskfaaaf. Stai visualizzando 26 post - dal 1 a 26 (di 26 totali) Autore Post 15 Febbraio 2018 alle 21:55 #541676 Trinciatore92Membro @giuliocavalloro Ebbene si, sono uno dei tanti sperimentatori del suddetto metodo di mocap (l’ho trovato in offerta a 19€ ed ero troppo curioso), vorrei spiegare bene il problema ma non so quanto mi riuscirà bene, quindi cercherò di essere piuttosto schematico. Dunque l’addon mi crea nella viewport una serie di empty object correlati ai vari punti tracciati dal sensore, tipo spalla, braccio, avambraccio, mano ecc. Fin qui nessun problema, provando la il file di prova fornito con l’addon si vedono le suddette empty agganciate ad un armatura Come vedete ci sono due armature, una stick selezionata e poi dei bones più classici, quello che però non capisco è come sia agganciato il tutto, in modo da poterlo replicare su altri modelli. Nel file è riportato questo “The “Capture armature” is only used for transforming the raw joint location data into usable joint angle data and should not be saved directly.” quindi a occhio e croce quella Stick è fittizia atta a tramutare le empty in qualcosa di usabile, mentre la seconda è quella vera e proprio da abbinare alla mesh. Questo è il file blend fornito con l’addon, magari smanettandoci dentro capite il criterio meglio di quanto non riesca a fare io XD https://ni-mate.com/release/plugins/blender/Delicode_NI_mate_Mocap.blend Effettuare il login per mettere i like 16 Febbraio 2018 alle 10:46 #541716 ^erik^Partecipante @erik Cerca tutorial su Mocap (motion Capture) in blender (re target) ci sono degli add-on per usare anche mocap già fatti i file sono di solito in .BVH mi sto interessando anch’io al motion capture . Ti piacerebbe condividere le tue esperienze ? Effettuare il login per mettere i like 16 Febbraio 2018 alle 15:40 #541734 Trinciatore92Membro @giuliocavalloro Grazie mille per la dritta, cercherò di informarmi quanto prima. Per quel che ho potuto testare sul momento col kinect (versione 360 non quello V2 xone), devo dire che non è male in quanto a tracciamento, purtroppo però ha pochi punti, specie lungo la schiena, tuttavia l’idea di muovere i singoli bones manualmente dando un’aspetto realistico porterebbe via tantissimo tempo. La mia idea sarebbe quella di imparentare due armatura, una grezza da gestire col kinect ed ottenere facilmente un’animazione grossolana ma credibile, e poi una seconda per andare a gestire le animazioni più di secondo piano, come la torsione della spalla, le dita il punto del torace. Ho notato che a volte se ci si mette un po’ di lato, tende a perdere, com’è naturale che avvenga, il match con la figura quindi finisci per vedere un piede distorcersi XD Tuttavia anche lì si può ovviare gestendo i keyframe manualmente dal graph editor. Effettuare il login per mettere i like 16 Febbraio 2018 alle 17:13 #541737 andcampModeratore @andcamp | purtroppo però ha pochi punti, specie lungo la schiena potresti andare in edit mode e suddividere la bone, solo che dopo dovresti imparentare ed adattare opportunamente Effettuare il login per mettere i like 16 Febbraio 2018 alle 17:27 #541738 Dante9474Partecipante @dante9474 Ah, seguo interessato, dato che anche io avrei il desiderio di provare (un giorno XD)…Quindi nelle mie assidue ricerche, trovai questo video anche abbastanza recente che ti condivido, in modo da fartelo provare (così potresti fare da cavia XD): Effettuare il login per mettere i like 16 Febbraio 2018 alle 17:46 #541739 Trinciatore92Membro @giuliocavalloro andcamp i pochi punti erano riferiti a quelli tracciati dal sensore del kinect e non a quelli dell’armatura vera e propria. Dante9474 Grazie mille per il video, mi ha illuminato non poco, corro subito a fare qualche prova 😛 Effettuare il login per mettere i like 17 Febbraio 2018 alle 1:35 #541776 andcampModeratore @andcamp |andcamp i pochi punti erano riferiti a quelli tracciati dal sensore del kinect e non a quelli dell’armatura vera e propria. lo so ma supplivi manualmente alle mancanze di quello che era stato generato Effettuare il login per mettere i like 17 Febbraio 2018 alle 9:21 #541779 ^erik^Partecipante @erik Ciao Trinciatore come vanno i tuoi esperimenti ? ci sono novità? Effettuare il login per mettere i like 17 Febbraio 2018 alle 10:22 #541780 Dante9474Partecipante @dante9474 Ottimo, attendiamo i risultati allora :D…eh si, appena ho visto l’upload di quel video, l’ho messo da parte, sapendo che sarebbe potuto essere utile un giorno Effettuare il login per mettere i like 18 Febbraio 2018 alle 20:22 #541862 Trinciatore92Membro @giuliocavalloro Purtroppo in questo week end sono stato un po’ indaffarato, il video è stato di grande aiuto ma c’è qualcosa che mi sfugge, infatti per il busto/braccia funziona tutto perfettamente, per le gambe o qualche problema con la rotazione delle ginocchia (presumibilmente ho sbagliato qualche asse). Inoltre dovrò creare una qualche personaggio da riggare, ho provato a sostituire l’armatura ad uno di quelli generati con l’addon di manuelLab ma fallisce nel generare automaticamente l’influenza dei bone sulla mesh, non so bene da cosa dipenda quindi vista anche la semplicità del rig farò un pg un po’ più sempliciotto in stile Chibi e farò qualche prova con quello; almeno evito di accumulare problemi non legati tra loro così da sciogliere un nodo alla volta. Effettuare il login per mettere i like 21 Febbraio 2018 alle 4:03 #541948 Trinciatore92Membro @giuliocavalloro Ok, dopo qualche ora di indagine sul file demo, ho notato che il tronco non era un singolo bone ma un doppio, collo-torso e torso-collo, replicando tale struttura sono riuscito a fare funzionare il tutto, in modo molto grezzo ma va XD Come è possibile vedere dal video, i prossimi obiettivi da curare sono: giunture delle ginocchia, credo che metterò un vincolo di rotazione) collegare meglio tronco e gambe per proporzioni più umane XD vedere se posso modificare i bone del tronco per renderlo meno rigido Effettuare il login per mettere i like 21 Febbraio 2018 alle 9:32 #541952 jhskfaaafMembro @nn81 mamma mia che figata.. costa molto sto kinect? ^_^ Effettuare il login per mettere i like 21 Febbraio 2018 alle 10:24 #541953 ^erik^Partecipante @erik Bel Lavoro complimenti , Ti andrebbe di scrivere un tutorial? non sarebbe una cattiva idea 🙂 Effettuare il login per mettere i like 21 Febbraio 2018 alle 14:33 #541966 Trinciatore92Membro @giuliocavalloro N4v4rr0 Io sono stato fortunato, passavo alla coop per caso e l’ho visto in promozione a 19€ (dentro c’era pure un gioco, spero di riuscire a rivenderlo), ho visto comunque che è possibile sfruttare varie cam tipo asus xtion, il kinect per windows o quello V2 per xone. Chiaramente quello per la 360 che ho comprato io è forse il più scarso, infatti quello per pc pare faccia il tracciamento anche delle mani però chiaramente cambiano molto i prezzi. ^erik^ Si sicuramente, alcuni passaggi come l’istallazione hardware e questo inghippo sulle armature, richiedono sicuramente una guida a supporto e io di materiale online ne ho trovato veramente poco. Effettuare il login per mettere i like 22 Febbraio 2018 alle 18:09 #542063 ^erik^Partecipante @erik ciao ho trovato questi passaggi forse ti possono essere utili, sono stati tratti da un toolkit opensurce per mokap in blender ecco riassunti i passaggi Utilizzare il toolkit per generare il file BVH. Importa il file BVH nel Blender. Lega il personaggio all’armatura. Se stai utilizzando il metabone di Rigify, devi solo regolare leggermente l’armatura, ecco i passaggi: Seleziona l’armatura, entra in modalità ‘Modifica’, seleziona tutte le ossa, premi ‘Ctrl’ + ‘N’, fai clic su ‘Ricalcola Roll-> con asse Globale -Y’. Selezionare l’armatura, inserire la modalità ‘Pose’, rinominare alcune ossa, farle corrispondere ai nomi delle ossa dell’armatura BVH e cambiare la modalità di rotazione da ‘Quaternion (WXYX)’ a ‘ZYX Euler’. Lega il personaggio all’armatura. Utilizzare il toolkit per generare il file BVH. (oppure usare i tuoi già fatti) Importa il file BVH nel Blender. Elimina l’armatura BVH. Seleziona l’armatura, passa all’interfaccia ‘Dope Sheet-> Action Editor’, collega il filmato. mi puoi confermare che i passaggi sono questi ? 🙂 attendo con interesse il tuo Tutorial 🙂 Effettuare il login per mettere i like 22 Febbraio 2018 alle 18:15 #542064 Alessandro PassarielloPartecipante @alessandro-passariello ho pulito il post…. No HTML please… 😀 Effettuare il login per mettere i like 22 Febbraio 2018 alle 18:19 #542065 ^erik^Partecipante @erik mi dimenticavo le informazioni le ho trovate qui Open source Kinect motion capture toolkit Effettuare il login per mettere i like 22 Febbraio 2018 alle 19:37 #542070 Trinciatore92Membro @giuliocavalloro I passaggi sono diversi ma credo dipenda dal software che usa per sfruttare il kinect, i punti che cattura il sfotware hanno appunto i loro assi ecc. e poi in blender bisogna solo correggerli affinché siano coerenti con la scena. Nel mio caso ad esempio ho dovuto scalare l’armatura sull’asse Y a -1 così che armatura e “tracciamento” fossero orientati nella stessa direzione. Effettuare il login per mettere i like 22 Febbraio 2018 alle 22:01 #542084 ^erik^Partecipante @erik capito errore mio nel copia/incollare Effettuare il login per mettere i like 23 Febbraio 2018 alle 3:06 #542161 Trinciatore92Membro @giuliocavalloro Comunque abbozzo una sorta di guida. Partiamo dall’hardware, nel mio caso ho comprato un kinect v1 per xbox 360, rispetto al kinect v1 for windows differisce essenzialmente nel non tracciare alcuni punti per le mani e nel fatto che non ha driver ufficiali, quindi bisogna istallare dei driver non ufficiali da sviluppo (quelli che avrebbe usato chi provava a sviluppare giochi per kinect/x360 a suo tempo). Affinché sia possibile collegarlo al pc è necessario un adattatore usb specifico, si trova su amazon ad una decina di euro ma nelle versioni più recenti del prodotto è stato aggiunto nella confezione (infatti ho dovuto ritrattare l’ordine una volta aperto la scatola). L’istallazione prevede che scarichiate un software ufficiale microsoft chiamato “Developer ToolKit” che trovate sul sito MS a questo link https://www.microsoft.com/en-us/download/details.aspx?id=40276 Successivamente è necessario istallare l’SDK con i driver che trovate sempre sul sito ufficiale a questo link https://www.microsoft.com/en-us/download/details.aspx?id=44561 Nota Bene: questo SDK farà l’istallazione dei driver “Kinect for windows” quindi la versione per pc, se avete quella x360 ovviamente non funzionerà a dovere, verrà riconosciuta sempre come kinect for windows quindi non stupitevi se alcuni programmi non ve la riconosceranno dando una qualche forma di errore. Per utilizzarla in blender, è possibile scegliere tra vari software io ad esempio mi sono appoggiato a Delicode NiMate ma forse uno dei più curati è iPi motion capture, sono entrambi a pagamento ma offrono entrambi una versione gratuita limitata. Durante l’istallazione di NiMate potrete scegliere quali driver istallare (kinect per windows, kinect per xbox 360, kinect v2 per xbox one, asus xtion e un’altra camera mi pare), chiaramente scegliete quella che fa al caso vostro, nel mio caso kinect per x360. Durante l’avvio viene spiegata una procedura qualora vi fossero errori di compatibilità, che permettere di sbloccare su Windows 10 la possibilità di istallare driver non firmati digitalmente, così potrete scegliere di upgradare i driver della periferica con quelli per così dire “tarocchi”. Ammetto che tale procedura è alquanto difficoltosa ma viene descritta passo passo all’avvio di NiMate, quindi preferirei non dilungarmi troppo su questi passaggi. Al limite ne parlo in un altro post successivo. Ovviamente sul sito del software trovate il plug-in/addon per blender da scaricare e istallare Fatti tutti i passaggi e avviato il programma NiMate avrete una serie di macro-voci a sinistra tra cui scegliere, vi aiuto ad analizzarle. In questa prima schermata potrete vedere, il sensore che viene riconosciuto (OpenNI 1 ovvero il kinect) e lo stato di lavoro (use per attivarlo e stop per fermarlo). Inoltre vedrete la porta di indirizzamento dei dati (Port: 7000) è importante che sia la medesima indicata nell’addon di blender affinché vengano trasferiti i dati dal software a blender. N.B. come notate è possibile aggiungere anche ulteriori sensori In questa seconda voce, potete vedere la schermata con una animazione di prova già registrata e l’elenco di quelle ulteriormente create da voi, in basso è presente il tasto “Export as .bvh” per esportare l’animazione ma è disponibile solo nella versione a pagamento, ma siccome io sono tirchio mi voglio fare del male XD In questa schermata avete accesso a ciò che vede il sensore, potrete scegliere tra vari outputs come la visione RGB della camera, quella di profondità, quella 3D come in foto e altre varianti, con la possibilità di cambiare alcuni parametri di riconoscimento come lo smooth ed eventuali delay. Cliccando sulla freccetta affianco al sensore “OpenNI” vi si aprirà un menù a tendina, spuntate la voce skeleton così da inviare a blender i dati relativi al tracciamento dello scheletro fatto dal kinect. Come vedete già di default sono nominati i vari punti che ritroverete anche in blender sotto varie forme (potrete scegliere tramite l’addon se creare degli empty object, delle sfere o dei cubi, verranno nominato tali e quali, se gli cambiate nome però non verranno più mossi da NiMate). Tornando alla schermata di NiMate, vi consiglio di togliere la spunta da “Hands” poiché vi genererà dei punti anche per le mani ma come detto all’inzio, il kinect per 360 non è in grado di captarli quindi sarebbero inutili da dover poi cancellare. Infine è presente anche una barra coordinate, che io stesso ho notato ora facendo questa guida, di fatto è possibile già da qui, determinare gli assi di riferimento così da ritrovarsi poi con meno problemi. Per ora qua mi fermo, poiché lato blender andrei a spiegare come correggere gli assi e se è fattibile già di NiMate preferisco indagare e andare poi a descrivervi la soluzione più pratica. Effettuare il login per mettere i like 23 Febbraio 2018 alle 20:00 #542268 Trinciatore92Membro @giuliocavalloro Ok, confermo il mio sospetto Andando ad estendere la voce “coordinates” è possibile correggere in origine la posizione dei punti tracciati, settando infatti -1.000 sull’asse Z del programma, potrete far si che i punti creati in blender siano orientati nello stesso senso con cui viene posizionata l’armatura/meta-rig una volta aggiunta nella scena. Passiamo ora all’addon, che trovate nella toolshelf a sinistra. Come noterete è composta in due blocchi, quello sotto ha funzioni simpatiche ma praticamente inutili (tipo creare un’anteprima in trasparenza di quel che vede il kinect all’interno di blender), quello che ci interessa realmente è il primo blocco dove troviamo: la porta 7000 come sul programma di capture, così che si instauri un dialogo tra i due. quattro tasti per scegliere sotto che forma generare i punti tracciati dal kinect all’interno di Blender. due spunte la prima “add rotation” premette di trasferire anche dati relativi alle rotazioni mentre la seconda “reset” permette di rigenerare come ex-novo i punti quando fate prove successive. un tasto start/stop che permette di avviare o interrompere lo stream di dati live dal kinect a blender. A questo punto se volete fare un test rapidamente per capire se è tutto ok, vi basta spuntare il tab “sphere” così che siano ben visibili, poi il tasto “start” e cominciare a sbracciare davanti al kinect, per vedere fin da subito se tutto funziona e dove vengono generati i punti del kinect; considerate che vanno spesso oltre il grid che fa da pavimento quindi zoomate un po’ indietro. Una volta constatato che è tutto ok, cancellate le sfere generate in precedenza, aumentate la time line di un bel po’ (tipo a 1000 o più), spuntate il tasto “rec” sulla timeline spuntante invece il tab “Empty”, quello “add rotation” nel caso in cui vi interessino i dati relativi e infine di nuovo “start”. Adesso c’è un piccolo distinguo di circostanza XD Se siete in due, basterà che una persona si metta al kinect per registrare le movenze mentre l’altro avvia con “play” la timeline per registrare i keyframe; se invece siete tristi e soli come me, dovete premere play, correre a fare l’animazione e tornare poi a stoppare il tutto XD Attenzione, fate sempre in modo di stoppare la time line prima che ricominci il giro dal frame 1, oppure comincerete a registrare nuovi keyframe sovrapponendoli a quelli già salvati facendo un pastrocchio. Complimenti avete appena ottenuto una registrazione dell’animazione. Ora sul come abbinare i punti all’armatura credo che ci farò un video perché da spiegare testualmente è molto lungo e temo crei più che altro confusione, della serie “un immagine che vale più di mille parole”. XD Effettuare il login per mettere i like 25 Febbraio 2018 alle 3:30 #542346 ^erik^Partecipante @erik Bella guida complimenti , appena risolvo alcuni problemi di compatibilità software (uso una distribuzione Linux) la provo di sicuro 🙂 intanto mi è appena arrivata la Camera ps3 eye e vedo se il mio investimento serve a qualcosa 🙂 Effettuare il login per mettere i like 25 Febbraio 2018 alle 4:34 #542348 Trinciatore92Membro @giuliocavalloro Ne ho una anche io ma con NiMate non posso usarla in combo, dovrei provare qualche altro software. Effettuare il login per mettere i like 30 Marzo 2018 alle 16:13 #546020 jhskfaaafMembro @nn81 @Trinciatore92 ehilà, qualche novità? mi interessava molto questo argomento Effettuare il login per mettere i like 31 Marzo 2018 alle 21:57 #546102 Trinciatore92Membro @giuliocavalloro Sfortunatamente non molto, questo mese ho avuto un po’ di impicci familiari e per di più mi si è rotto il vecchio monitor :/ Finalmente mi è arrivato il nuovo (Dell S2419HM), cercherò di rimetterci mano. Effettuare il login per mettere i like 31 Marzo 2018 alle 22:27 #546104 jhskfaaafMembro @nn81 ah ecco, tutto bene quel che finisce bene dai, spero che riuscirai a tornare a fare qualche esperimento ^^ Effettuare il login per mettere i like Autore Post Stai visualizzando 26 post - dal 1 a 26 (di 26 totali) Devi essere connesso per rispondere a questo topic. Accesso Nome utente: Password: Mantienimi connesso Accesso