Stai visualizzando 2 post - dal 1 a 2 (di 2 totali)
  • Autore
    Post
  • #521926
    wildlux
    Membro
    @wildlux

    Buona sera Blenderiani 🙂
    Sto cercando di trovare un compromesso tra espressioni facciali (driver – shapekey) e armatura facciale.
    Inizialmente volevo fare qualcosa che assomigliasse ad un pannello di controllo che tramite ossa faccia determinate espressioni.
    Il mio dubbio è essenzialmente questo se io volessi far parlare il mio personaggio e fargli fare una smorfia dopo 2 secondi avrei dei problemi.
    Quindi ho pensato di fare due pannelli uno per le espressioni facciali e l’altro per le espressioni fonetiche.
    Ho trovato questo file online e ho ricopiato le espressioni facciali con le shapekey.
    Dopo aver creato ho preso le shape e le ho collegate a delle ossa tramite driver.
    Fino a qui nulla di problematico.
    Quando voglio inserire questo tipologia di espressioni felice – triste – sorpreso etc… ( Alcuni esempi https://en.wikipedia.org/wiki/File:Duchenne-FacialExpressions.jpg)
    Qui mi sorge il dubbio.

    Secondo voi come dovrei procedere?

    #521942
    Anfeo
    Membro
    @anfeo

    In generale si tende ad avere più controlli possibili per singoli movimenti (naso corrugato, bocca aperta ecc…)

    Se tu vai a creare delle shape aggiuntive sulle fonetiche, quando andrai ad usarla funziona, ma se poi insieme usi le shape dei movimenti singoli che spostano gli stessi vertici della shape delle fonetiche, andrai ad avere un ADD della posizione, cioè il vertice in corrispondenza, si muove di tot per la fonetica + tot per l’espressione in più che vai a fare. Risultato: hai delle deformazioni eccessive.

    Siccome hai creato un armatura di ossa che controlla le shape, potresti creare le fonetiche usando la combinazione di movimento di ossa e registrare queste pose nella Pose Library.

    Attualmente è il workflow più corretto per questo campo.

Stai visualizzando 2 post - dal 1 a 2 (di 2 totali)
  • Devi essere connesso per rispondere a questo topic.