Stai visualizzando 50 post - dal 1 a 50 (di 77 totali)
  • Autore
    Post
  • #467760
    Alessandro Passariello
    Partecipante
    @alessandro-passarielloBIACTAssociatoLP Instructor

    Questo è un benchmark molto conosciuto che vi permetterà di ricavare tempi di rendering da postare e confrontare a livello comunitario.

    Caricate il file, lanciate il rendering e postate i tempi così da creare un quadro dei tempi di renderizzazione delle varie schede video in vostro possesso.

    il file lo potete trovare qui:

    Download

    Lasciate e vostri tempi cosi da creare un confronto

     

    #468659
    Trinciatore92
    Membro
    @giuliocavalloro

    Idea simpatica, riprendo spunto dal file di testo incluso nel progetto

    CPU: Intel i5 3570k 3.8Ghz
    GPU: Nvidia GTX 660TI driectCU II asus 2GB
    OS: Windows 10 64bit
    Time: 2 min 04 seconds (GPU – CUDA)
    Time: 7 min 29 sec (CPU)

    #472303
    Alessandro Passariello
    Partecipante
    @alessandro-passarielloBIACTAssociatoLP Instructor

    Si, è una idea nata su blenderartist ed è diventato un bench standard ormai.

    Nel mio bench c’è da notare che al contrario di quanto pensano in molti la differenza tra si SLI e no SLI penalizza il no SLI, infatti, si possono notare 2 secondi in più su no SLI.

    Ribadisco che non ho constatato problemi con blender, due schede Nvidia in SLI, e sono convinto che se vi sono problemi sono solo da imputare all’hardware.

    CPU: Dual xeon 1,6Ghz (16 core totali)
    GPU: Dual Nvidia GTX 690 (8GB totali 6144 Cuda totali)
    OS: Xubuntu 64bit
    Time: 0 min 35 seconds (GPU – CUDA – SLI)
    Time: 0 min 37 seconds (GPU – CUDA – NoSLI)
    Time: 4 min 37 sec (CPU)

    Cosa ne pensate?

    #474332
    perepepe77
    Partecipante
    @perepepe77

    Lo sli non penalizza le prestazioni…sostanzialmente penso che cycles non gli importi del ponte tra le schede (sopratutto della somma della Vram), dove invece con i videogiochi la differenza si fa sentire.

    Una curiosità: con lo sli riesci a renderizzare con una scheda sola delle 2 collegate?

    Adesso rifaccio il test pure io con il mio sistema e aggiorno.

    #474529
    Alessandro Passariello
    Partecipante
    @alessandro-passarielloBIACTAssociatoLP Instructor

    Ho renderizzato con 4 gpu anche senza SLI (gtx 690 monta 2 gpu)

     

    #481256
    Eris
    Membro
    @bryan-fury

    CPU: Intel I7 4970
    GPU: GTX 660TI
    OS: Ubuntu Mate 15.10 64bit
    Time: 2 min 09 seconds (GPU CUDA)
    Time: 3 min 20 sec (CPU)

    #481258
    andcamp
    Moderatore
    @andcampAssociato

    CPU: Intel I5 750 2.67Ghz
    RAM: 6GB
    Scheda Grafica: 660 ti 2 GB RAM

    GPU: 4:17:23 (però a 256×256 mi dà 2:02:23 eh! ^_^ )
    CPU: 11:42:74

    #481278
    Eris
    Membro
    @bryan-fury

    La mia gpu è la meno performante, i parametri della mia sono quelli di default, anche i vostri o avete alzato le frequenze?

     

    #481279
    Alessandro Passariello
    Partecipante
    @alessandro-passarielloBIACTAssociatoLP Instructor

    Ciao Eris,

    No, il benchmark deve essere lanciato così com’è.

    Il fatto che la gpu sia più performante è proprio alla base dell’implementazione delle stesse. Le gpu sono nate per eseguire determinati processi diversamente dalle cpu.

    Alcune cose non possono essere ancora calcolate dalla sola gpu in Blender, esempio il bake dei fluidi, ma per il resto le gpu hanno aperto nuove prospettive soprattutto per il game, che ha raggiunto grazie alle gpu realtà ingredibili, e realtà virtuale. Soprattutto le gpu hanno fatto si che i tempi di attesa nei rendering si è ridotto e non poco.

    Chiaramente ad oggi non può esistere gpu senza cpu che ha compiti importantissimi.

    Uno dei difetti delle gpu è l’alta temperatura di esercizio che va sempre tenuta in considerazione anche per il fatto che spesso le temperature vanno associate a velocità e quindi consumi.

    #481282
    andcamp
    Moderatore
    @andcampAssociato

    xEris: l’unica variazione l’ho messa tra parentesi, per il resto erano i parametri presenti ^_^ . Penso che i risultati della tua scheda siano in linea con gli altri hardware

    #481285
    Eris
    Membro
    @bryan-fury

    Rispondo e chiudo perchè sto andando OT, vedevo che la mia scheda era più lenta uno dei motivi che potrebbero produrre questo gap è che su windows si apre appena acceso il pannello di gputweak che permette di alzare la frequenza della gpu e della ram della scheda grafica. Quando uso linux non ho il gputweak e le frequenze della scheda rimangono quelle di default.

    P.S. devo modificare i risultati perchè avevo modificato il tileset

    CPU: Intel I7 4970
    GPU: GTX 660TI
    OS: Ubuntu Mate 15.10 64bit
    Time: 2 min 16 seconds (GPU CUDA)
    Time: 3 min 55 sec (CPU)

     

    #481289
    Eris
    Membro
    @bryan-fury

    Ho provato con windows

    CPU: Intel I7 4970
    GPU: GTX 660TI
    OS: Windows 7 64bit
    Time: 2 min 29 seconds (GPU CUDA)
    Time: 4 min 55 sec (CPU)

    CPU: Intel I7 4970
    GPU: GTX 660TI
    OS: Ubuntu Mate 15.10 64bit
    Time: 2 min 16 seconds (GPU CUDA)
    Time: 3 min 55 sec (CPU)

     

    CPU: Intel I7 4970
    GPU: GTX 660TI
    OS: Windows 7 64bit
    Time: 2 min 09 seconds (GPU CUDA) (overclock gpu + 400MHz, memory +450 MHz)

    #481298
    Trinciatore92
    Membro
    @giuliocavalloro

    Eris, in parte è probabile che influisca gputweak ma tieni comunque presente che per quanto un modello rimanga lo stesso (660TI) ogni produttore ne varia le spec, ad esempio alcune riducono i voltaggi per farle essere più silenziose, nel mio caso la versione asus ha addirittura un overclock di fabbrica (tra l’altro c’erano due versioni, la mia è la DC2O con +66MHz rispetto al modello base ma c’è anche la DC2T con +157MHz rispetto al modello base, parlando sempre di overclock di fabbrica, al quale poi si può aggiungere gputweak) rispetto alle spec native del modello nvidia, questo fa si che ci sia comunque una leggera differenza tra un modello e un altro.

    Per come ho fatto il test ho usato la modalità overclock di gpu tweak che da solo un +20MHz (gpu e memory) rispetto alle spec base però come vedi c’ho messo comunque parecchio meno di te con +400/+450MHz, usando il clock “my profile” che uso per i giochi (gpu +70MHz, memory + 120MHz) finisco i 2 min e 1 secondo, poi ti dirò non sono un maniaco dei tune e ho anche un po’ paura di fare danni, quindi non escluderei la possibilità di poter ottenere anche qualcosina in più dalla mia scheda, d’altronde è per quel motivo che nelle spec ho segnalato in maniera specifica la scheda che possiedo .

    #481299
    Eris
    Membro
    @bryan-fury

    Trinciatore92 Ho una Asus GTX 660 TI DirectCU II 2GB, come la tua, ma dei tre modelli di questa scheda io ho la DC2 che è il modello meno performante e piu diffuso. Gli altri erano la Over Clock OC (Asus GTX 660 TI DC2O) e la Top(Asus GTX 660 TI DC2T). La mia era una curiosità partendo dal presupposto che anche tu abbia una DC2 ;-). Il tipo di scheda viene specificato tra i codici a barre della scatola 😉

    Io non modifico mai i clock ne CPU ne GPU, lascio quelli base, ho fatto solo questa prova, sono un maniaco della silenziosità.

     

    #481300
    perepepe77
    Partecipante
    @perepepe77

    Test fatto pure io, con blender 2.76b ufficiale, aprendo il file mi ritrovo i tile a 32×32 con la cpu, ma avete l’autotile attivo ? Riportate anche i tile nel caso…vedo troppi risultati discordanti.

    Win 7 x64

    gpu gtx 560 = 3,06 min driver 327.23

    cpu I7 2600k @default = 7,29 min

    Lo rifarò anche su ubuntu 14.04 per confronto.

    #481301
    Alessandro Passariello
    Partecipante
    @alessandro-passarielloBIACTAssociatoLP Instructor

    Il test deve essere effettuato cosi com’è.

    Aprite il file e premete F12 null’altro

    #481303
    andcamp
    Moderatore
    @andcampAssociato

    io ho usato quelli di apertura, che a me risultavano 240×136

    #481312
    Eris
    Membro
    @bryan-fury

    Anche io ho usato il 240×136 sia con gpu che cpu negli ultimi risultati che ho postato.

     

     

    #481318
    Trinciatore92
    Membro
    @giuliocavalloro

    A me con la gpu l’ha fatto a 240×136 ma con la cpu me l’ha fatto a tile da 32×32, di conseguenza mi sa che avere l’addon autosize attivo tra le preferenze di blender, va a modificare lo stesso quelle impostazioni in modo passivo, anche se uno apre un file con dei tile specifici.

    #481319
    perepepe77
    Partecipante
    @perepepe77

    Boh a me lo mette a 240×180 con la gpu. Adesso disattivo autotile dalle user preferences e vediamo che succede. Provando a 240×136 ci mette 3,11 min. mi sembra molto strano che impiego un secondo in più di una 660 con la 560…però è il dato che esce. Ho notato che aggiornando i driver il tempo non cambia, neppure cambiando slot alla scheda…quindi che sia attaccata al monitor oppure no ho il medesimo tempo.

     

    #481398
    perepepe77
    Partecipante
    @perepepe77

    Rifatto il test in ubuntu:

    gpu gtx 560= 3,05 min

    cpu I7 2600k @default= 5,05 min

    Da notare che con la cpu impiega 1,20 min circa in meno su linux.

    #481400
    Alessandro Passariello
    Partecipante
    @alessandro-passarielloBIACTAssociatoLP Instructor

    Da notare che con la cpu impiega 1,20 min circa in meno su linux.

    Questa è un’ottima segnalazione….. Da esempio Blender con le GTX lo uso sotto Xubuntu, sarei curioso di vedere con 7 …… na …. mi tengo Linux!

    #481401
    Eris
    Membro
    @bryan-fury

    Da notare che con la cpu impiega 1,20 min circa in meno su linux.

    Nel mio caso la cpu su linux ci mette un minuto in meno che su windows

     

    #481402
    Trinciatore92
    Membro
    @giuliocavalloro

    Beh windows ha molti più processi attivi in background e anche a parità di numero hanno meno gradi di astrazione e codifica, quindi la CPU risoluta più sfruttata, io per i lavori in cui serve la CPU (praticamente quando c’è di mezzo subsurface scattering) avvio sempre linux, tant’è che ho fatto un dual boot sullo stesso pc proprio a tale scopo 😀

    #481407
    AndreaMod
    Membro
    @zork

    Ecco il mio fatto su MAC PRO (2008)

    My time with Blender 2.76
    CPU: 2 x 2,8 GHz Quad-Core Intel Xeon
    MEMORY: 10 GB DDR2 FB-DIMM a 800 MHz
    GPU: NVIDIA Quadro 4000 2048 MB
    OS: IOS El CApitan 10.11.3 64bit
    Time: 4 min 40 seconds (GPU – CUDA)
    Time: 6 min 41 sec (CPU)

    Peccato per la poca memoria video della mia scheda grafica…

    #481433
    Alessandro Passariello
    Partecipante
    @alessandro-passarielloBIACTAssociatoLP Instructor

    Ancora non mi ha battuto nessuno! :))

    CPU: 2 x 2,8 GHz Quad-Core Intel Xeon
    MEMORY: 10 GB DDR2 FB-DIMM a 800 MHz
    GPU: NVIDIA Quadro 4000 2048 MB
    OS: IOS El CApitan 10.11.3 64bit
    Time: 4 min 40 seconds (GPU – CUDA)
    Time: 6 min 41 sec (CPU)

    QUanti cuda ha questa scheda?

    #481728
    Francesco Zappasodi
    Partecipante
    @francesco_z

    Test eseguito con blender 2.76, visto che chi ha prodotto questo test ha suddiviso i lati per 4 dividendo per intero il rendering e che sebrerebbe una cosa ovvia, ma io ritengo che mantenendo il tiles quadrato sia piu veloce, dunque ho svolto anche un test con il tiles a 64×64 per la CPU e 256×256 per la GPU, io di solito renderizzo in questa maniera.

    W10 64 Bit

    Ram di sistema 8GB DDR3- 1600

    Intel I7 2600 3.4 Ghz

    GPU GTX 970 DCM 4GB RAM

    Time: 1 min 28 seconds (GPU)
    Time: 6 min 58 sec (CPU)

    Time: 1 min 23 seconds (GPU) a 264×264 tiles
    Time: 6 min 00 sec (CPU) a 64×64 tiles

     

    #481741
    Pietro
    Partecipante
    @pietro-marchetta

    Blender 2.76b

    debian stretch 64bit

    Intel I7 2600 3ghz

    8Gb di ram dd3 1600

    GPU GTX 670 AMP edition

    SSD 250GB

    CPU TIME 5 min 6 secondi

    GPU TIME 2 minuti e 8 secondi

    #534296
    Ulderico
    Membro
    @uldericoPRO

    Salve ragazzi, ma secondo voi è normale che con una gtx 1080 8gb i tempi di rendering in gpu sono di ben 3 minuti? Inoltre mi dite a quanti sample lo avete renderizzato? Ho l’impressione che il file sia stato aggiornato ultimamente. Grazie

    La configurazione è la seguente:

    Dual xeon E5-2650 2,00 GHz

    32 Gb RAM

    GTX 1080 8Gb

    #534301
    andcamp
    Moderatore
    @andcampAssociato

    @Ulderico : quanto grandi hai settato i tiles?

    #534309
    Alessandro Passariello
    Partecipante
    @alessandro-passarielloBIACTAssociatoLP Instructor

    Non va settato nulla… non barate…. il test va fatto cosi com’è altrimenti falsate tutto

    #534310
    Harvester
    Moderatore
    @harvesterAssociato

    Qui trovi tutti i file di test, incluso questo: https://www.blender.org/download/demo-files/

    i7-6820HK 2.7GHz (4C/8T), 32GB RAM, Nvidia GeForce 1070 8GB VRAM, Windows 10 Pro 64bit, Blender 2.79 official 64bit

    CPU = 17′ 54″

    GPU = 2′ 45″

     

    Blender 2.79.1 (Hash: 8a72be7)

    CPU = 16′ 44″

    GPU =  2′ 04″

    CPU+GPU (16×16) = 1′ 59″ (circa 160 tiles renderizzate dalla CPU su 2040, l’8% circa)

     

     

    #534311
    Trinciatore92
    Membro
    @giuliocavalloro

    Ovviamente ai fini del benchmark i tile devono restare quelli, tuttavia è ovvio che ogni GPU/CPU ha i suoi tile di lavoro ideali, quindi forse quelli pre-settati dal benchmark risultano una strozzatura per la 1080 che magari performa meglio lavorando con tile più grandi (tanto per fare un esempio pare che i tile ideali per le schede vega siano 512×512 o addirittura 1024×1024) XD

    Se sei preoccupato che qualcosa non funzioni prova a ingrandirli (tipo 256×256) e vedi se i tempi ti sembrano più normali ma esula dal riportarli ai fini del benchmark 😉

    #534312
    Alessandro Passariello
    Partecipante
    @alessandro-passarielloBIACTAssociatoLP Instructor

    Qui trovi la versione “ufficiale” del file di test: https://www.blender.org/download/demo-files/

    E’ la stessa depositata sul download del post primario di questa discussione.

    #534313
    Alessandro Passariello
    Partecipante
    @alessandro-passarielloBIACTAssociatoLP Instructor

    No no… non cambiate nulla… il test deve essere fatto cosi come il file si presenta.

    questa discussione non è sul come cambiare i paramentri ma sui tempi che danno questi specifici parametri…..

    se cambiate le impostazioni è inutile confrontare e il banchmark non serve.

     

    #534314
    Harvester
    Moderatore
    @harvesterAssociato

    Grazie per la precisazione Alessandro, ho corretto il testo del mio commento. 🙂

    #534318
    Harvester
    Moderatore
    @harvesterAssociato

    Sebbene si tratti di un’altra scena di prova, nel caso siate curiosi, questi sono i risultati di una serie di test che ho effettuato con CPU, GPU e CPU+GPU e per diverse dimensioni delle tiles.

    I risultati varieranno ovviamente in base alla scena utilizzata ma penso possano essere comunque un buon indicatore di come sia stata in minimizzata l’influenza delle dimensioni delle tile sui tempi di rendering della GPU (non è da escludere che gli sviluppatori possano decidere di rimuovere questa impostazione dal pannello di rendering se non è più determinante). Questo permette di renderizzare con CPU e GPU contemporaneamente e di sfruttare al massimo la CPU. Con tiles impostate su 16×16 si sfrutta al meglio la CPU poichè riesce a massimizzare il numero di tiles renderizzate riducendo effettivamente il carico di lavoro della GPU. All’aumentare delle dimensioni delle tiles quelle renderizzate dalla CPU saranno sempre di meno e con tempi di rendering crescenti rendendone inefficace se non inutile l’utilizzo in congiunzione con la GPU. My two cents!

     

    #534319
    Ulderico
    Membro
    @uldericoPRO

    Sono daccordo con Alessandro, infatti non ho cambiato nulla, le tiles se non erro sono 256×256. Con la scena della bmw impiega 3 min. Con la scena classroom le cose vanno molto meglio (confrontato con altri risultati della 1080) impiegando 6 min e 39 sec

    #534322
    Alberto8833
    Partecipante
    @alberto8833

     

    • CPU: Intel Core i7 (7th Gen) 7820HK / 2.9 GHz      9:06 minuti
    • GPU: NVIDIA GeForce GTX 1070M – 8 GB GDDR5        2:52 minuti
    #535934
    Trinciatore92
    Membro
    @giuliocavalloro

     

    Ho cambiato GPU

    CPU: Intel i5 3570k 3.8Ghz
    GPU: RX Vega 64 (air) 8GB
    OS: Windows 10 64bit
    Time: 2 min 16 sec (GPU – OpenCL)
    Time: 7 min 29 sec (CPU)

    #535939
    jhskfaaaf
    Membro
    @nn81

    OMG!!!

    dal mio nuovo notebook credo, anzi non ho dubbi, di aver totalizzato il punteggio più scarso da quando è stato aperto il topic ^^

    quasi 17 minuti con la CPU (un i5 6300HQ – quadcore), e quasi 10 minuti con la GPU (una Nvidia GTX960M con 2 GB di VideoRAM dedicati).

    mi sembrano proprio tempi assurdi, non ho toccato nulla, aperto i files e via di F12..

    mi togliete solo una curiosità (parlo da profano come sempre XD)? visto che nessuno ha chiamato in causa il disco rigido del Computer, può essere rilevante ai fini del benchmark un SSD performante piuttosto che il mio disco magnetico a 5400giri??

    #535940
    Trinciatore92
    Membro
    @giuliocavalloro

    Direi di no, nei render real time magari un minimo influisce ma in questi casi lo escluderei, può influire giusto se è stracolmo e quindi va a rallentare il pc in senso generale.

    #536134
    waaf
    Partecipante
    @waaf

    ma…io sto fuori di parecchio…come è possibile?

    CPU: AMD Ryzen 7 1700 Eight-Core Processor × 16

    GPU: GTX 1050Ti

    OS: Linux Mint 18.2 64bit

    Time: 5 min 57 seconds (GPU CUDA)
    Time: 5 min 18 sec (CPU)

    #536136
    jhskfaaaf
    Membro
    @nn81

    waaf c’è puzza di bruciato, la gente non ha ancora capito che non si vince NIENTE, e taroccando fanno solo confusione, mentre il senso del benchmark dovrebbe essere quello di fornire indicativamente dei riferimenti di potenza dei vari assetti hardware.

     

    #536138
    waaf
    Partecipante
    @waaf

    però sto proprio fuori fuori!!!! boh…

    #536142
    R.Stranges
    Partecipante
    @r-stranges

    Test effettuato su iMac (27-inch, Late 2013) CPU 3,4 GHz Intel Core i5 RAM 16 GB 1600 MHz DDR3 GPU NVIDIA GeForce GTX 775M 2048 MB

    OS Sierra 10.2.6 – Renderizzato con GPU.

    Durata minuti 8:50.18 come da screenshoot, Il tempo stimato era di circa 9:18,x. Ci ha messo un po meno.

    Parametri del file lasciati invariati ovviamente.

    #536145
    Massimo Caggese
    Membro
    @masmo

    La mia configurazione:

    Intel Core i7-4930K 3.40 GHz

    16 GB RAM

    GPU Nvidia GeForce 1080Ti – 11 GB (Gigabyte Extreme Edition)

    OS: Windows 8.1 64 bit

    Rendering times:

    GPU-CUDA: 01.38.39

    CPU: 06.20.06

    ora tutto ha più senso 😀

    #536153
    CyberJabba
    Partecipante
    @cyberjabba

    Fatta una prova con il NUC 6i5SYH casalingo.

    CPU: i5-6260U@1.80GHz (Skylike, 2C/4T, TDP 15W)
    GPU: Iris 540
    OS: Win10 RS3 64bit
    Time: — min — sec (GPU)
    Time: 25 min 22 sec (CPU)

     

    CJ

    #536154
    jhskfaaaf
    Membro
    @nn81

    vi dico solo che per puro scrupolo personale ho ri-fatto il test usando il file  di BLENCHMARK (non questo del nostro thread) ed ho ottenuto sia sul versante CPU che su quello GPU risultati perfettamente concordi a quelli stillati nelle relative pagine statistiche del sito.


    @waaf
    in caso ti consiglio di seguire il mio esempio e “toglierti il tarlo”

    qua, onestamente, vedo solo confusione.. forse è il caso di rifare il topic da zero, perchè chi entra cercando “conferme” o per orientarsi non ne esca più confuso che altro XD

    #536166
    Alessandro Passariello
    Partecipante
    @alessandro-passarielloBIACTAssociatoLP Instructor

    Raccomando l’uso del Benck così com’è…. non un dato variato…. scericate e avviate il render, poi postate il risultato

     

Stai visualizzando 50 post - dal 1 a 50 (di 77 totali)
  • Devi essere connesso per rispondere a questo topic.