Community › Forum › Dicussioni generali, News, Presentazioni › Hardware e tecnologia › 2.7x Cycles benchmark (BMW) Ricerca per: Taggato: benchmark, bmw, tempi di rendering, Test Questo topic ha 76 risposte, 20 partecipanti ed è stato aggiornato l'ultima volta 4 anni fa da dgcreations. Stai visualizzando 50 post - dal 1 a 50 (di 77 totali) 1 2 → Autore Post 19 Febbraio 2016 alle 21:57 #467760 Alessandro PassarielloPartecipante @alessandro-passariello Questo è un benchmark molto conosciuto che vi permetterà di ricavare tempi di rendering da postare e confrontare a livello comunitario. Caricate il file, lanciate il rendering e postate i tempi così da creare un quadro dei tempi di renderizzazione delle varie schede video in vostro possesso. il file lo potete trovare qui: Download Lasciate e vostri tempi cosi da creare un confronto Effettuare il login per mettere i like 20 Febbraio 2016 alle 1:42 #468659 Trinciatore92Membro @giuliocavalloro Idea simpatica, riprendo spunto dal file di testo incluso nel progetto CPU: Intel i5 3570k 3.8Ghz GPU: Nvidia GTX 660TI driectCU II asus 2GB OS: Windows 10 64bit Time: 2 min 04 seconds (GPU – CUDA) Time: 7 min 29 sec (CPU) Effettuare il login per mettere i like 20 Febbraio 2016 alle 8:22 #472303 Alessandro PassarielloPartecipante @alessandro-passariello Si, è una idea nata su blenderartist ed è diventato un bench standard ormai. Nel mio bench c’è da notare che al contrario di quanto pensano in molti la differenza tra si SLI e no SLI penalizza il no SLI, infatti, si possono notare 2 secondi in più su no SLI. Ribadisco che non ho constatato problemi con blender, due schede Nvidia in SLI, e sono convinto che se vi sono problemi sono solo da imputare all’hardware. CPU: Dual xeon 1,6Ghz (16 core totali) GPU: Dual Nvidia GTX 690 (8GB totali 6144 Cuda totali) OS: Xubuntu 64bit Time: 0 min 35 seconds (GPU – CUDA – SLI) Time: 0 min 37 seconds (GPU – CUDA – NoSLI) Time: 4 min 37 sec (CPU) Cosa ne pensate? Effettuare il login per mettere i like 20 Febbraio 2016 alle 8:38 #474332 perepepe77Partecipante @perepepe77 Lo sli non penalizza le prestazioni…sostanzialmente penso che cycles non gli importi del ponte tra le schede (sopratutto della somma della Vram), dove invece con i videogiochi la differenza si fa sentire. Una curiosità: con lo sli riesci a renderizzare con una scheda sola delle 2 collegate? Adesso rifaccio il test pure io con il mio sistema e aggiorno. Effettuare il login per mettere i like 20 Febbraio 2016 alle 8:40 #474529 Alessandro PassarielloPartecipante @alessandro-passariello Ho renderizzato con 4 gpu anche senza SLI (gtx 690 monta 2 gpu) Effettuare il login per mettere i like 20 Febbraio 2016 alle 14:35 #481256 ErisMembro @bryan-fury CPU: Intel I7 4970 GPU: GTX 660TI OS: Ubuntu Mate 15.10 64bit Time: 2 min 09 seconds (GPU CUDA) Time: 3 min 20 sec (CPU) Effettuare il login per mettere i like 20 Febbraio 2016 alle 16:23 #481258 andcampPartecipante @andcamp CPU: Intel I5 750 2.67Ghz RAM: 6GB Scheda Grafica: 660 ti 2 GB RAM GPU: 4:17:23 (però a 256×256 mi dà 2:02:23 eh! ^_^ ) CPU: 11:42:74 Effettuare il login per mettere i like 21 Febbraio 2016 alle 10:46 #481278 ErisMembro @bryan-fury La mia gpu è la meno performante, i parametri della mia sono quelli di default, anche i vostri o avete alzato le frequenze? Effettuare il login per mettere i like 21 Febbraio 2016 alle 11:23 #481279 Alessandro PassarielloPartecipante @alessandro-passariello Ciao Eris, No, il benchmark deve essere lanciato così com’è. Il fatto che la gpu sia più performante è proprio alla base dell’implementazione delle stesse. Le gpu sono nate per eseguire determinati processi diversamente dalle cpu. Alcune cose non possono essere ancora calcolate dalla sola gpu in Blender, esempio il bake dei fluidi, ma per il resto le gpu hanno aperto nuove prospettive soprattutto per il game, che ha raggiunto grazie alle gpu realtà ingredibili, e realtà virtuale. Soprattutto le gpu hanno fatto si che i tempi di attesa nei rendering si è ridotto e non poco. Chiaramente ad oggi non può esistere gpu senza cpu che ha compiti importantissimi. Uno dei difetti delle gpu è l’alta temperatura di esercizio che va sempre tenuta in considerazione anche per il fatto che spesso le temperature vanno associate a velocità e quindi consumi. Effettuare il login per mettere i like 21 Febbraio 2016 alle 12:02 #481282 andcampPartecipante @andcamp xEris: l’unica variazione l’ho messa tra parentesi, per il resto erano i parametri presenti ^_^ . Penso che i risultati della tua scheda siano in linea con gli altri hardware Effettuare il login per mettere i like 21 Febbraio 2016 alle 12:32 #481285 ErisMembro @bryan-fury Rispondo e chiudo perchè sto andando OT, vedevo che la mia scheda era più lenta uno dei motivi che potrebbero produrre questo gap è che su windows si apre appena acceso il pannello di gputweak che permette di alzare la frequenza della gpu e della ram della scheda grafica. Quando uso linux non ho il gputweak e le frequenze della scheda rimangono quelle di default. P.S. devo modificare i risultati perchè avevo modificato il tileset CPU: Intel I7 4970 GPU: GTX 660TI OS: Ubuntu Mate 15.10 64bit Time: 2 min 16 seconds (GPU CUDA) Time: 3 min 55 sec (CPU) Effettuare il login per mettere i like 21 Febbraio 2016 alle 14:09 #481289 ErisMembro @bryan-fury Ho provato con windows CPU: Intel I7 4970 GPU: GTX 660TI OS: Windows 7 64bit Time: 2 min 29 seconds (GPU CUDA) Time: 4 min 55 sec (CPU) CPU: Intel I7 4970 GPU: GTX 660TI OS: Ubuntu Mate 15.10 64bit Time: 2 min 16 seconds (GPU CUDA) Time: 3 min 55 sec (CPU) CPU: Intel I7 4970 GPU: GTX 660TI OS: Windows 7 64bit Time: 2 min 09 seconds (GPU CUDA) (overclock gpu + 400MHz, memory +450 MHz) Effettuare il login per mettere i like 21 Febbraio 2016 alle 15:44 #481298 Trinciatore92Membro @giuliocavalloro Eris, in parte è probabile che influisca gputweak ma tieni comunque presente che per quanto un modello rimanga lo stesso (660TI) ogni produttore ne varia le spec, ad esempio alcune riducono i voltaggi per farle essere più silenziose, nel mio caso la versione asus ha addirittura un overclock di fabbrica (tra l’altro c’erano due versioni, la mia è la DC2O con +66MHz rispetto al modello base ma c’è anche la DC2T con +157MHz rispetto al modello base, parlando sempre di overclock di fabbrica, al quale poi si può aggiungere gputweak) rispetto alle spec native del modello nvidia, questo fa si che ci sia comunque una leggera differenza tra un modello e un altro. Per come ho fatto il test ho usato la modalità overclock di gpu tweak che da solo un +20MHz (gpu e memory) rispetto alle spec base però come vedi c’ho messo comunque parecchio meno di te con +400/+450MHz, usando il clock “my profile” che uso per i giochi (gpu +70MHz, memory + 120MHz) finisco i 2 min e 1 secondo, poi ti dirò non sono un maniaco dei tune e ho anche un po’ paura di fare danni, quindi non escluderei la possibilità di poter ottenere anche qualcosina in più dalla mia scheda, d’altronde è per quel motivo che nelle spec ho segnalato in maniera specifica la scheda che possiedo . Effettuare il login per mettere i like 21 Febbraio 2016 alle 16:20 #481299 ErisMembro @bryan-fury Trinciatore92 Ho una Asus GTX 660 TI DirectCU II 2GB, come la tua, ma dei tre modelli di questa scheda io ho la DC2 che è il modello meno performante e piu diffuso. Gli altri erano la Over Clock OC (Asus GTX 660 TI DC2O) e la Top(Asus GTX 660 TI DC2T). La mia era una curiosità partendo dal presupposto che anche tu abbia una DC2 ;-). Il tipo di scheda viene specificato tra i codici a barre della scatola 😉 Io non modifico mai i clock ne CPU ne GPU, lascio quelli base, ho fatto solo questa prova, sono un maniaco della silenziosità. Effettuare il login per mettere i like 21 Febbraio 2016 alle 16:36 #481300 perepepe77Partecipante @perepepe77 Test fatto pure io, con blender 2.76b ufficiale, aprendo il file mi ritrovo i tile a 32×32 con la cpu, ma avete l’autotile attivo ? Riportate anche i tile nel caso…vedo troppi risultati discordanti. Win 7 x64 gpu gtx 560 = 3,06 min driver 327.23 cpu I7 2600k @default = 7,29 min Lo rifarò anche su ubuntu 14.04 per confronto. Effettuare il login per mettere i like 21 Febbraio 2016 alle 17:18 #481301 Alessandro PassarielloPartecipante @alessandro-passariello Il test deve essere effettuato cosi com’è. Aprite il file e premete F12 null’altro Effettuare il login per mettere i like 21 Febbraio 2016 alle 18:01 #481303 andcampPartecipante @andcamp io ho usato quelli di apertura, che a me risultavano 240×136 Effettuare il login per mettere i like 21 Febbraio 2016 alle 23:25 #481312 ErisMembro @bryan-fury Anche io ho usato il 240×136 sia con gpu che cpu negli ultimi risultati che ho postato. Effettuare il login per mettere i like 22 Febbraio 2016 alle 0:24 #481318 Trinciatore92Membro @giuliocavalloro A me con la gpu l’ha fatto a 240×136 ma con la cpu me l’ha fatto a tile da 32×32, di conseguenza mi sa che avere l’addon autosize attivo tra le preferenze di blender, va a modificare lo stesso quelle impostazioni in modo passivo, anche se uno apre un file con dei tile specifici. Effettuare il login per mettere i like 22 Febbraio 2016 alle 9:02 #481319 perepepe77Partecipante @perepepe77 Boh a me lo mette a 240×180 con la gpu. Adesso disattivo autotile dalle user preferences e vediamo che succede. Provando a 240×136 ci mette 3,11 min. mi sembra molto strano che impiego un secondo in più di una 660 con la 560…però è il dato che esce. Ho notato che aggiornando i driver il tempo non cambia, neppure cambiando slot alla scheda…quindi che sia attaccata al monitor oppure no ho il medesimo tempo. Effettuare il login per mettere i like 24 Febbraio 2016 alle 20:53 #481398 perepepe77Partecipante @perepepe77 Rifatto il test in ubuntu: gpu gtx 560= 3,05 min cpu I7 2600k @default= 5,05 min Da notare che con la cpu impiega 1,20 min circa in meno su linux. Effettuare il login per mettere i like 24 Febbraio 2016 alle 21:05 #481400 Alessandro PassarielloPartecipante @alessandro-passariello Da notare che con la cpu impiega 1,20 min circa in meno su linux. Questa è un’ottima segnalazione….. Da esempio Blender con le GTX lo uso sotto Xubuntu, sarei curioso di vedere con 7 …… na …. mi tengo Linux! Effettuare il login per mettere i like 24 Febbraio 2016 alle 21:39 #481401 ErisMembro @bryan-fury Da notare che con la cpu impiega 1,20 min circa in meno su linux. Nel mio caso la cpu su linux ci mette un minuto in meno che su windows Effettuare il login per mettere i like 24 Febbraio 2016 alle 22:22 #481402 Trinciatore92Membro @giuliocavalloro Beh windows ha molti più processi attivi in background e anche a parità di numero hanno meno gradi di astrazione e codifica, quindi la CPU risoluta più sfruttata, io per i lavori in cui serve la CPU (praticamente quando c’è di mezzo subsurface scattering) avvio sempre linux, tant’è che ho fatto un dual boot sullo stesso pc proprio a tale scopo 😀 Effettuare il login per mettere i like 25 Febbraio 2016 alle 8:17 #481407 AndreaModMembro @zork Ecco il mio fatto su MAC PRO (2008) My time with Blender 2.76 CPU: 2 x 2,8 GHz Quad-Core Intel Xeon MEMORY: 10 GB DDR2 FB-DIMM a 800 MHz GPU: NVIDIA Quadro 4000 2048 MB OS: IOS El CApitan 10.11.3 64bit Time: 4 min 40 seconds (GPU – CUDA) Time: 6 min 41 sec (CPU) Peccato per la poca memoria video della mia scheda grafica… Effettuare il login per mettere i like 25 Febbraio 2016 alle 22:02 #481433 Alessandro PassarielloPartecipante @alessandro-passariello Ancora non mi ha battuto nessuno! :)) CPU: 2 x 2,8 GHz Quad-Core Intel Xeon MEMORY: 10 GB DDR2 FB-DIMM a 800 MHz GPU: NVIDIA Quadro 4000 2048 MB OS: IOS El CApitan 10.11.3 64bit Time: 4 min 40 seconds (GPU – CUDA) Time: 6 min 41 sec (CPU) QUanti cuda ha questa scheda? Effettuare il login per mettere i like 1 Marzo 2016 alle 1:36 #481728 Francesco ZappasodiPartecipante @francesco_z Test eseguito con blender 2.76, visto che chi ha prodotto questo test ha suddiviso i lati per 4 dividendo per intero il rendering e che sebrerebbe una cosa ovvia, ma io ritengo che mantenendo il tiles quadrato sia piu veloce, dunque ho svolto anche un test con il tiles a 64×64 per la CPU e 256×256 per la GPU, io di solito renderizzo in questa maniera. W10 64 Bit Ram di sistema 8GB DDR3- 1600 Intel I7 2600 3.4 Ghz GPU GTX 970 DCM 4GB RAM Time: 1 min 28 seconds (GPU) Time: 6 min 58 sec (CPU) Time: 1 min 23 seconds (GPU) a 264×264 tiles Time: 6 min 00 sec (CPU) a 64×64 tiles Effettuare il login per mettere i like 1 Marzo 2016 alle 21:21 #481741 PietroPartecipante @pietro-marchetta Blender 2.76b debian stretch 64bit Intel I7 2600 3ghz 8Gb di ram dd3 1600 GPU GTX 670 AMP edition SSD 250GB CPU TIME 5 min 6 secondi GPU TIME 2 minuti e 8 secondi Effettuare il login per mettere i like 6 Novembre 2017 alle 16:43 #534296 UldericoMembro @ulderico Salve ragazzi, ma secondo voi è normale che con una gtx 1080 8gb i tempi di rendering in gpu sono di ben 3 minuti? Inoltre mi dite a quanti sample lo avete renderizzato? Ho l’impressione che il file sia stato aggiornato ultimamente. Grazie La configurazione è la seguente: Dual xeon E5-2650 2,00 GHz 32 Gb RAM GTX 1080 8Gb Effettuare il login per mettere i like 6 Novembre 2017 alle 18:18 #534301 andcampPartecipante @andcamp @Ulderico : quanto grandi hai settato i tiles? Effettuare il login per mettere i like 6 Novembre 2017 alle 21:12 #534309 Alessandro PassarielloPartecipante @alessandro-passariello Non va settato nulla… non barate…. il test va fatto cosi com’è altrimenti falsate tutto Effettuare il login per mettere i like 6 Novembre 2017 alle 21:26 #534310 HarvesterPartecipante @harvester Qui trovi tutti i file di test, incluso questo: https://www.blender.org/download/demo-files/ i7-6820HK 2.7GHz (4C/8T), 32GB RAM, Nvidia GeForce 1070 8GB VRAM, Windows 10 Pro 64bit, Blender 2.79 official 64bit CPU = 17′ 54″ GPU = 2′ 45″ Blender 2.79.1 (Hash: 8a72be7) CPU = 16′ 44″ GPU = 2′ 04″ CPU+GPU (16×16) = 1′ 59″ (circa 160 tiles renderizzate dalla CPU su 2040, l’8% circa) Effettuare il login per mettere i like 6 Novembre 2017 alle 21:26 #534311 Trinciatore92Membro @giuliocavalloro Ovviamente ai fini del benchmark i tile devono restare quelli, tuttavia è ovvio che ogni GPU/CPU ha i suoi tile di lavoro ideali, quindi forse quelli pre-settati dal benchmark risultano una strozzatura per la 1080 che magari performa meglio lavorando con tile più grandi (tanto per fare un esempio pare che i tile ideali per le schede vega siano 512×512 o addirittura 1024×1024) XD Se sei preoccupato che qualcosa non funzioni prova a ingrandirli (tipo 256×256) e vedi se i tempi ti sembrano più normali ma esula dal riportarli ai fini del benchmark 😉 Effettuare il login per mettere i like 6 Novembre 2017 alle 21:32 #534312 Alessandro PassarielloPartecipante @alessandro-passariello Qui trovi la versione “ufficiale” del file di test: https://www.blender.org/download/demo-files/ E’ la stessa depositata sul download del post primario di questa discussione. Effettuare il login per mettere i like 6 Novembre 2017 alle 21:35 #534313 Alessandro PassarielloPartecipante @alessandro-passariello No no… non cambiate nulla… il test deve essere fatto cosi come il file si presenta. questa discussione non è sul come cambiare i paramentri ma sui tempi che danno questi specifici parametri….. se cambiate le impostazioni è inutile confrontare e il banchmark non serve. Effettuare il login per mettere i like 6 Novembre 2017 alle 21:41 #534314 HarvesterPartecipante @harvester Grazie per la precisazione Alessandro, ho corretto il testo del mio commento. 🙂 Effettuare il login per mettere i like 6 Novembre 2017 alle 22:18 #534318 HarvesterPartecipante @harvester Sebbene si tratti di un’altra scena di prova, nel caso siate curiosi, questi sono i risultati di una serie di test che ho effettuato con CPU, GPU e CPU+GPU e per diverse dimensioni delle tiles. I risultati varieranno ovviamente in base alla scena utilizzata ma penso possano essere comunque un buon indicatore di come sia stata in minimizzata l’influenza delle dimensioni delle tile sui tempi di rendering della GPU (non è da escludere che gli sviluppatori possano decidere di rimuovere questa impostazione dal pannello di rendering se non è più determinante). Questo permette di renderizzare con CPU e GPU contemporaneamente e di sfruttare al massimo la CPU. Con tiles impostate su 16×16 si sfrutta al meglio la CPU poichè riesce a massimizzare il numero di tiles renderizzate riducendo effettivamente il carico di lavoro della GPU. All’aumentare delle dimensioni delle tiles quelle renderizzate dalla CPU saranno sempre di meno e con tempi di rendering crescenti rendendone inefficace se non inutile l’utilizzo in congiunzione con la GPU. My two cents! Effettuare il login per mettere i like 6 Novembre 2017 alle 22:51 #534319 UldericoMembro @ulderico Sono daccordo con Alessandro, infatti non ho cambiato nulla, le tiles se non erro sono 256×256. Con la scena della bmw impiega 3 min. Con la scena classroom le cose vanno molto meglio (confrontato con altri risultati della 1080) impiegando 6 min e 39 sec Effettuare il login per mettere i like 7 Novembre 2017 alle 9:31 #534322 Alberto8833Partecipante @alberto8833 CPU: Intel Core i7 (7th Gen) 7820HK / 2.9 GHz 9:06 minuti GPU: NVIDIA GeForce GTX 1070M – 8 GB GDDR5 2:52 minuti Effettuare il login per mettere i like 28 Novembre 2017 alle 17:37 #535934 Trinciatore92Membro @giuliocavalloro Ho cambiato GPU CPU: Intel i5 3570k 3.8Ghz GPU: RX Vega 64 (air) 8GB OS: Windows 10 64bit Time: 2 min 16 sec (GPU – OpenCL) Time: 7 min 29 sec (CPU) Effettuare il login per mettere i like 28 Novembre 2017 alle 20:53 #535939 jhskfaaafMembro @nn81 OMG!!! dal mio nuovo notebook credo, anzi non ho dubbi, di aver totalizzato il punteggio più scarso da quando è stato aperto il topic ^^ quasi 17 minuti con la CPU (un i5 6300HQ – quadcore), e quasi 10 minuti con la GPU (una Nvidia GTX960M con 2 GB di VideoRAM dedicati). mi sembrano proprio tempi assurdi, non ho toccato nulla, aperto i files e via di F12.. mi togliete solo una curiosità (parlo da profano come sempre XD)? visto che nessuno ha chiamato in causa il disco rigido del Computer, può essere rilevante ai fini del benchmark un SSD performante piuttosto che il mio disco magnetico a 5400giri?? Effettuare il login per mettere i like 28 Novembre 2017 alle 21:19 #535940 Trinciatore92Membro @giuliocavalloro Direi di no, nei render real time magari un minimo influisce ma in questi casi lo escluderei, può influire giusto se è stracolmo e quindi va a rallentare il pc in senso generale. Effettuare il login per mettere i like 2 Dicembre 2017 alle 15:28 #536134 waafPartecipante @waaf ma…io sto fuori di parecchio…come è possibile? CPU: AMD Ryzen 7 1700 Eight-Core Processor × 16 GPU: GTX 1050Ti OS: Linux Mint 18.2 64bit Time: 5 min 57 seconds (GPU CUDA) Time: 5 min 18 sec (CPU) Effettuare il login per mettere i like 2 Dicembre 2017 alle 16:29 #536136 jhskfaaafMembro @nn81 waaf c’è puzza di bruciato, la gente non ha ancora capito che non si vince NIENTE, e taroccando fanno solo confusione, mentre il senso del benchmark dovrebbe essere quello di fornire indicativamente dei riferimenti di potenza dei vari assetti hardware. Effettuare il login per mettere i like 2 Dicembre 2017 alle 16:47 #536138 waafPartecipante @waaf però sto proprio fuori fuori!!!! boh… Effettuare il login per mettere i like 2 Dicembre 2017 alle 17:20 #536142 R.StrangesPartecipante @r-stranges Test effettuato su iMac (27-inch, Late 2013) CPU 3,4 GHz Intel Core i5 RAM 16 GB 1600 MHz DDR3 GPU NVIDIA GeForce GTX 775M 2048 MB OS Sierra 10.2.6 – Renderizzato con GPU. Durata minuti 8:50.18 come da screenshoot, Il tempo stimato era di circa 9:18,x. Ci ha messo un po meno. Parametri del file lasciati invariati ovviamente. Effettuare il login per mettere i like 2 Dicembre 2017 alle 17:34 #536145 Massimo CaggeseMembro @masmo La mia configurazione: Intel Core i7-4930K 3.40 GHz 16 GB RAM GPU Nvidia GeForce 1080Ti – 11 GB (Gigabyte Extreme Edition) OS: Windows 8.1 64 bit Rendering times: GPU-CUDA: 01.38.39 CPU: 06.20.06 ora tutto ha più senso 😀 Effettuare il login per mettere i like 2 Dicembre 2017 alle 18:14 #536153 CyberJabbaPartecipante @cyberjabba Fatta una prova con il NUC 6i5SYH casalingo. CPU: i5-6260U@1.80GHz (Skylike, 2C/4T, TDP 15W) GPU: Iris 540 OS: Win10 RS3 64bit Time: — min — sec (GPU) Time: 25 min 22 sec (CPU) CJ Effettuare il login per mettere i like 2 Dicembre 2017 alle 18:14 #536154 jhskfaaafMembro @nn81 vi dico solo che per puro scrupolo personale ho ri-fatto il test usando il file di BLENCHMARK (non questo del nostro thread) ed ho ottenuto sia sul versante CPU che su quello GPU risultati perfettamente concordi a quelli stillati nelle relative pagine statistiche del sito. @waaf in caso ti consiglio di seguire il mio esempio e “toglierti il tarlo” qua, onestamente, vedo solo confusione.. forse è il caso di rifare il topic da zero, perchè chi entra cercando “conferme” o per orientarsi non ne esca più confuso che altro XD Effettuare il login per mettere i like 2 Dicembre 2017 alle 19:20 #536166 Alessandro PassarielloPartecipante @alessandro-passariello Raccomando l’uso del Benck così com’è…. non un dato variato…. scericate e avviate il render, poi postate il risultato Effettuare il login per mettere i like Autore Post Stai visualizzando 50 post - dal 1 a 50 (di 77 totali) 1 2 → Devi essere connesso per rispondere a questo topic. Accesso Nome utente: Password: Mantienimi connesso Accesso