Šta je novo?

Truth on GTX580 Furmark Temps and Consumption

Status
Zatvorena za pisanje odgovora.

pixell

Slavan
Učlanjen(a)
01.02.2006
Poruke
2,436
Poena
380
Prilikom inicijalnog predstavljanja GTX580 kartice nVidija je, pored performansi, najveći akcenat stavila na kvalitet coolera i potrošnju, upoređivaći GTX580 sa prethodnim modelima iz svoje ne tako davne prošlosti.
Iako smo imali prilike da se uverimo u odličan kvalitet vapor - chamber coolera, mnogima je ostalo nejasno smanjenje potrošnje u odnosu na GTX480 i pored povećanja broja Cuda cores-a i frekvencija za gotovo 10%.

Izgleda da je dinamičko podešavanje performansi zaduženo za to:
slide-2.png


Naime, nakon W1zzard-ovog uputstva za uklanjanje ove "zaštite" dolazi se do zaključka da GTX580 (aka GF110) ipak više troši od GTX480 (GF100) u intenzivnim stress test aplikacijama:

limit2_small.jpg


W1zzard
In order to stay within the 300 W power limit, NVIDIA has added a power draw limitation system to their card. When either Furmark or OCCT are detected running by the driver, three sensors measure the inrush current and voltage on all 12 V lines (PCI-E slot, 6-pin, 8-pin) to calculate power. As soon as the power draw exceeds a predefined limit, the card will automatically clock down and restore clocks as soon as the overcurrent situation has gone away. NVIDIA emphasizes this is to avoid damage to cards or motherboards from these stress testing applications and claims that in normal games and applications such an overload will not happen. At this time the limiter is only engaged when the driver detects Furmark / OCCT, it is not enabled during normal gaming. NVIDIA also explained that this is just a work in progress with more changes to come. From my own testing I can confirm that the limiter only engaged in Furmark and OCCT and not in other games I tested. I am still concerned that with heavy overclocking, especially on water and LN2 the limiter might engage, and reduce clocks which results in reduced performance. Real-time clock monitoring does not show the changed clocks, so besides the loss in performance it could be difficult to detect that state without additional testing equipment or software support.

I did some testing of this feature in Furmark and recorded card only power consumption over time. As you can see the blue line fluctuates heavily over time which also affects clocks and performance accordingly. Even though we see spikes over 300 W in the graph, the average (represented by the purple line) is clearly below 300 W. It also shows that the system is not flexible enough to adjust power consumption to hit exactly 300 W.

Protection enabled:
furMark.jpg


Protection disabled:
power2.jpg


Na optimizaciji potrošnje se neminovno radilo ali nije sve tako ružičasto kao što se predstavlja.

Iako će se ovaj ili sličan vid eksploatacije kartica verovatno retko koristiti (HPC? CUDA programming?) ipak je dobro videti kako nVidia PR ume da ubedi narod da je "usual power consumption" isto što i TDP ;)
 
Bilo bi fino videti sta bi se desilo sa 5xxx i 6xxx serijom kad bi se odradio neki hack takodje;)

Samo me cudi zbog cega niko nije obracao paznju kad je driver-level "anti-furmark" zastita upotrebljena jos onomad na 4xxx radeonima, a zatim i hardverski od serije 5xxx. Sad je to odjednom vest dana:D Nv je makar iskreno okacila slajd na kome se prikazuje taj "feature", a ne skriva ga ko zmija noge:D
 
Poslednja izmena:
Ah, Starac, ofkors :D

U svakom slucaju, sad je situacija najzad apples-to-apples, i AMD i nV sad imaju zastitu od power virusa, pa kome su bitne temperature i potrosnja kad se doticni vrte, imaju komparabilne rezultate.
Sad, verovatno necemo nikad saznati sta bi bilo kad bi se ta zastita uklonila sa ovih novih radeon karti, ali ***...
 
Zar nije bitnija situacija u igrama?
 
Mislim da je vreme da testeri prestanu biti lenji i okrenu se realnim aplikacijama a sintetiku polako počnu izbacivati uključujući taj Furmark. Nikada sintetičke programa nisam smatrao pouzdanim pokazateljem bilo čega i zaista me čudi toliko frka oko tih programa, konkretno u ovom slučaju Furmarka.
 
Ja cak ne verujem ni game benchmarcima :D
Nego lepo instaliram, pa kad vidim da mi nesto secka onda znam da mi treba jaca grafa :)
Nista kao sopstvene oci...
 
Game benchmark je manje zlo od sintetičkog programa ali svakako nije idealan pokazatelj. Ni merenje frapsom nije sjajno rešenje ali je najbliže realnoj situaciji.
 
A relevantnost tih Power Virus testova je ista kao i ranije... potpuno su nevazni.

Poenta W1izzardovog "testa" je da NV nije popravila perf/watt sa GF110 u odnosu na GF100, vec su jos jednom bili kreativni ;) Ne da je to ikome vazno, te karte ionako ne idu u OEM masine.
 
Pa bili su kreativni, kao i konkurencija;) uz tu razliku da su stavili "karte na sto" ...

U svakom slucaju, valjda se neko od svih tih silnih sajtova, setio da proveri potrosnju karti u nekoj video igri??
 
Poslednja izmena:
Pa sta me napadate, i sam rekoh da ovi testovi nemaju nikakve veze, i to pricam jos od onih postova od pre dve godine :D

Poenta je da se i dalje tvrdoglavo drze 244-250W, a GF100/GF110 karte i u igrama mogu da povuku vise od toga. Opet kazem, ciljnoj publici je to potpuno nevazno... niko nece odustati od kupovine zato sto karta moze da povuce 280 a ne 240W.
 
33853.png


33856.png


30W manje uz 15C manje, ako to nije napredak ne znam sta jeste. :)
 
A gde sam napisao da ne trosi manje i da cip nije poprilicno tweakovan u odnosu na GF100? Napisao sam da karta i u igrama moze da povuce od onoga na koliko je deklarisana ;)
 
A gde sam napisao da ne trosi manje i da cip nije poprilicno tweakovan u odnosu na GF100? Napisao sam da karta i u igrama moze da povuce od onoga na koliko je deklarisana ;)
Ja malopre ovo videh.
Poenta W1izzardovog "testa" je da NV nije popravila perf/watt sa GF110 u odnosu na GF100, vec su jos jednom bili kreativni
Dakle, 15-20% brza krta, 30W manje trosi i 15C hladnija a nije popravila perf/watt?:whip:
 
heheh zanimljivo je kako ovi NVIDIA moderatori jednostavno ne mogu da potisnu poriv da u temi koja je povezana iskljucivo sa omiljenom im kompanijom, potegnu AMD/ATI bez ikakvog povoda, dokaza i osnova! Bitno je samo da se posadi jedan flame-seed, pa ko se upeca upeca!
Strasno je sta radite od ovog foruma!
 
Ja malopre ovo videh.

Dakle, 15-20% brza krta, 30W manje trosi i 15C hladnija a nije popravila perf/watt?:whip:

A od kada su GF110 i GTX580 jedno te isto ;) Karta trosi manje, cip bi mogao da potrosi vise da nije "sprecen".
 
Sta ga to "sprecava" u Crysis-u?
 
Sta ga to "sprecava" u Crysis-u?

U Crysisu po ovoj tabeli potrosi vise od tih 244W, ako kao referencu uzmes ostale karte kojima je poznata potrosnja (5870, GTX460 SLI). GTX460 SLI povuce vise od 300W prema njihovoj specifikaciji, a 580 je 40W manje od nje. 5870 je 189W, a ovo je 80W vise. Odnosi su identicni, GTX580 je tu negde oko 270W. I da, opet je poprilicno bolja od GTX480, to nije sporno.
 
A od kada su GF110 i GTX580 jedno te isto ;) Karta trosi manje, cip bi mogao da potrosi vise da nije "sprecen".
GTX580 je za sada jedina karta sa GF110, tako da ako pricamo o GF110 jedino sto mozemo da pominjemo je GTX580. :)
Sve je to moglo bi, mozda je, ja nisam video igde da je neko merio potrosnju samog cipa. A i da ima, kome je to bitno kada koristimo celu karticu.;)
heheh zanimljivo je kako ovi NVIDIA moderatori jednostavno ne mogu da potisnu poriv da u temi koja je povezana iskljucivo sa omiljenom im kompanijom, potegnu AMD/ATI bez ikakvog povoda, dokaza i osnova! Bitno je samo da se posadi jedan flame-seed, pa ko se upeca upeca!
Strasno je sta radite od ovog foruma!
Temu je koliko vidim otvorio jedan od ovde poznatih ATI fanova, tako da ako je neko sadio flame-seed to je on.;)
 
Poslednja izmena:
U Crysisu po ovoj tabeli potrosi vise od tih 244W, ako kao referencu uzmes ostale karte kojima je poznata potrosnja (5870, GTX460 SLI). GTX460 SLI povuce vise od 300W prema njihovoj specifikaciji, a 580 je 40W manje od nje. 5870 je 189W, a ovo je 80W vise. Odnosi su identicni, GTX580 je tu negde oko 270W. I da, opet je poprilicno bolja od GTX480, to nije sporno.

Samo mi daj prost odgovor - da li cip/kartu/stagod nesto "sprecava" da trosi vise u Crysisu, ili ne? :)
 
U svim testovima koji su izasli GTX 580 ima od 10-25% vece performance od GTX 480,u nekim igrama i manje od 10%, ali nikada nije sporiji. Zakljucak je da se nVidia-ino dinamicko regulisanje voltaze i klokova ne ukljucuje ni u jednoj igri. U istim tim igrama, u 95% testova GTX 580 pokazuje 20-30W manju potrosnju, u ostalih 5% testova pokazuje istu ili za par vati vecu potrosnju.
Dakle, GTX 580 daje performace boost u odnosu na GTX 480 onoliki koliki je ocekivan zbog povisenih klokova i CC-ova a za to vreme vuce manje struje. I sta sad tu ima da se doda?

Sta kaze W1zzard:
I am still concerned that with heavy overclocking, especially on water and LN2 the limiter might engage, and reduce clocks which results in reduced performance.

Jel se desilo na nekom testu da overclockovani GTX 580 ima znatan par performansi? Ja sam samo video lepo skaliranje na gore sa clockom i nista vise ;)

Naime, nakon W1zzard-ovog uputstva za uklanjanje ove "zaštite" dolazi se do zaključka da GTX580 (aka GF110) ipak više troši od GTX480 (GF100) u intenzivnim stress test aplikacijama:

Gde je to W1zzard pokazao da GTX 580 pod Furmarkom(kad se iskljuci dinamicko regulisanje kloka) trosi vise od GTX-a 480??
Prvo si poceo sa W1zzard-ovim citatima i onda vesto ubacio grafikone sa Fudzille...nice..;)

Evo recimo sta kaze Anand:

33854.png


As for FurMark, due to NVIDIA’s power throttling we’ve had to get a bit creative. FurMark is throttled to the point where the GTX 580 registers 360W, thanks to a roughly 40% reduction in performance under FurMark. As a result for the GTX 580 we’ve swapped out FurMark for another program that generates a comparable load, Program X. At this point we’re going to decline to name the program, as should NVIDIA throttle it we may be hard pressed to determine if and when this happened.

In any case, under FurMark & X we can see that once again NVIDIA’s power consumption has dropped versus the GTX 480, this time by 27W or around 6%.
NVIDIA’s worst case scenario has notably improved, and in the process the GTX 580 is back under the Radeon HD 5970 in terms of power consumption. Thus it goes without saying that while NVIDIA has definitely improved power consumption, the GTX 580 is still a large, power hungry GPU.

Pa onda Vr-Zone:

image.php


The GeForce GTX 580 has real-time monitoring for current and voltage for the PCI Express power and edge connectors. NVIDIA suggests that the hardware monitoring dynamically adjusts performance 'in certain stress applications to keep power within specs'. We were definitely not very amused to discover that the driver was the culprit in throttling FurMark - there are pretty demanding games out there, but all of them perform fine. The workaround we had, was to fire up an older version of FurMark.
 
Kakva tema, kakva tema!

U svim testovima koji su izasli GTX 580 ima od 10-25% vece performance od GTX 480,u nekim igrama i manje od 10%, ali nikada nije sporiji. Zakljucak je da se nVidia-ino dinamicko regulisanje voltaze i klokova ne ukljucuje ni u jednoj igri. U istim tim igrama, u 95% testova GTX 580 pokazuje 20-30W manju potrosnju, u ostalih 5% testova pokazuje istu ili za par vati vecu potrosnju.
Dakle, GTX 580 daje performace boost u odnosu na GTX 480 onoliki koliki je ocekivan zbog povisenih klokova i CC-ova a za to vreme vuce manje struje. I sta sad tu ima da se doda?

Aman!

I za ovo se zna od kako su karte izisle na trziste.
 
heheh zanimljivo je kako ovi NVIDIA moderatori jednostavno ne mogu da potisnu poriv da u temi koja je povezana iskljucivo sa omiljenom im kompanijom, potegnu AMD/ATI bez ikakvog povoda, dokaza i osnova! Bitno je samo da se posadi jedan flame-seed, pa ko se upeca upeca!
Strasno je sta radite od ovog foruma!

Iliti cim nesto nije na ruku ATI strani odmah krene kuknjava kako moderatori ugnjetavaju ATI i sire lazi :) Cccc....
 
Iliti cim nesto nije na ruku ATI strani odmah krene kuknjava kako moderatori ugnjetavaju ATI i sire lazi :) Cccc....
pa kako tema o megalomanskoj potrosnji GTX580-ke nije na ruku ATI-ja? ;)

Ti si malo pobrkao, poenta je da su tvoje koelege Nex i garson, bez ama bas ikakvog povoda postovale varnice za flamewar ;)

A garsonovo "opravdanje" je legendarno: "temu je zapoceo dokazani ATI fanboy"! Priceless! :D

Ista situacija kao kad sam ja onomad postovao link za clanak o NVIDIA-inoj "de-optimizaciji" PhysX-a! Pa kad sam pitao za sto zeleni moderatori uvlace ATI u falmewar, usledio je "slap" sa kaznenim poenima!
 
Ista situacija kao kad sam ja onomad postovao link za clanak o NVIDIA-inoj "de-optimizaciji" PhysX-a! Pa kad sam pitao za sto zeleni moderatori uvlace ATI u falmewar, usledio je "slap" sa kaznenim poenima!

Nece da moze, vec si se naljutio sto sam ja izmenio naslov teme toliko da si isprozivao moderatore i ponasao se kao malo dete sa sve plakanjem Peci na ramenu. Za takvo ponasanje si dobio kazneni poen, sve ti je objasnjeno u toj temi i nema razloga da se ponavljas.


Samo ovog puta necu da napravim istu gresku, vec cu da uzmem kokice i uzivam u fanboyevskom (profesionalnom) podmetanju nogu, varnica i ko zna cega...

:party:
 
Poslednja izmena:
A mozda je bolje da otvorite temu za pljuvanje, nesto tipa ATi / nV Fight!!!

:(
 
Status
Zatvorena za pisanje odgovora.
Nazad
Vrh Dno