Stai visualizzando 1 post (di 1 totali)
  • Autore
    Post
  • LeleDaRevine
    Membro
    @lell
    #22310

    Ho appena finito di eseguire un test con l’add-on netrender di Blender, cercando di trovare un modo per sfruttare la nostra renderfarm per dei render con Blender nel caso di immagini singole.

     

     

    Ho trovato varie indicazioni in giro che mi han permesso di raggiungere l’obbiettivo (anche se ancora devo provare sulla renderfarm vera, ma ho provato sul mio computer di casa, inviando l’animazione su se stesso).

     

    Prima cosa ci vuole un sistema per far renderizzare l’immagine statica suddivisa in molti render, ciascuno con un seed diverso. Per ottenere questo in automatico basta mettere un driver che imposta il seed in base al frame. In questo modo renderizzando un’animazione di una scena statica si ottiene un serie di frame della stessa immagine con seed diversi.

     

     

    L’altro ostacolo era poi unire i vari render in un’unica immagine per ottenere il render finale. E per fare questo ho trovato questo add-on che usa il compositor per questo scopo, e confrontando i render combinati con un render singolo con gli stessi samples ho trovato che quello fatto da più render è migliore, non tanto come noise ma come uniformità . Vi posterò un esempio.

     

     

    Per il resto l’add-on net render funziona meglio di quanto pensavo, perchè permette anche di gestire i vari lavori, e mostra la lista, l’avanzamento e anche l’uso della CPU o GPU in un’interfaccia web. E’ ancora un po’ acerbo, ma funzionante. Spero che la foundation prenda in mano la situazione e sviluppi uno strumento completo e ben integrato.

     

    E come dicevo, questo metodo permette di sfruttare anche le GPU, non solo le CPU (però o una o l’altra).

     

     

    Devo ancora provare a vedere se questo metodo permette di fondere anche i render passes.

     

Stai visualizzando 1 post (di 1 totali)
  • Devi essere connesso per rispondere a questo topic.