Šta je novo?

Truth on GTX580 Furmark Temps and Consumption

Status
Zatvorena za pisanje odgovora.
...Temu je koliko vidim otvorio jedan od ovde poznatih ATI fanova, tako da ako je neko sadio flame-seed to je on.;)

Hvala što si me nazvao ATI fan-om a ne fanboy-em ;)
I da, naginjem na AMD stranu trenutno, baš kao što sam u vreme nVidijinih serija 6000 i 8000 naginjao na nV stranu. Jednostavno ću podržavati onu stranu koja radi više za mene, kao krajnjeg korisnika.

U svim testovima koji su izasli GTX 580 ima od 10-25% vece performance od GTX 480,u nekim igrama i manje od 10%, ali nikada nije sporiji. Zakljucak je da se nVidia-ino dinamicko regulisanje voltaze i klokova ne ukljucuje ni u jednoj igri. U istim tim igrama, u 95% testova GTX 580 pokazuje 20-30W manju potrosnju, u ostalih 5% testova pokazuje istu ili za par vati vecu potrosnju.
Dakle, GTX 580 daje performace boost u odnosu na GTX 480 onoliki koliki je ocekivan zbog povisenih klokova i CC-ova a za to vreme vuce manje struje. I sta sad tu ima da se doda?

To sam i ja rekao u prvom postu. Nema sumnje da je GF110 daleko bolja kartica od GF100.

Jel se desilo na nekom testu da overclockovani GTX 580 ima znatan par performansi? Ja sam samo video lepo skaliranje na gore sa clockom i nista vise ;)

Gde je to W1zzard pokazao da GTX 580 pod Furmarkom(kad se iskljuci dinamicko regulisanje kloka) trosi vise od GTX-a 480??
Prvo si poceo sa W1zzard-ovim citatima i onda vesto ubacio grafikone sa Fudzille...nice..;)

Nisi ni pogledao TechPowerUp forum.


Evo recimo sta kaze Anand:

33854.png




Pa onda Vr-Zone:

image.php

EDIT: I Anandov i VRZone review su stariji dva odnosno četiri dana od ovog "fiksa"

Slažem se ja sa time, ali pogledaj naziv teme. Jasno sam u prvom postu stavio u intenzivnim stress test aplikacijama da neko ne bi pomislio da se odnosi i na igre...
 
Poslednja izmena:
pa kako tema o megalomanskoj potrosnji GTX580-ke nije na ruku ATI-ja? ;)
Pa nije na ruku da je radjena slicna stvar u OCCTu cini mi se.;)
Ti si malo pobrkao, poenta je da su tvoje koelege Nex i garson, bez ama bas ikakvog povoda postovale varnice za flamewar ;)
Molim !? Sta je garson postovao? :trust: Nisam pominjao ATI/AMD ni u jednom svom postu u ovoj temi.
Kacio sam grafikone sa anandtecha koji pobijaju tvrdnje iz naslova teme.

A garsonovo "opravdanje" je legendarno: "temu je zapoceo dokazani ATI fanboy"! Priceless! :D
Opravdanje? Pa za sta ja da se pravdam? :D Sama tema je flame seed kako kazes, otvorena od clana "obojenog" u crveno. ;)
Ista situacija kao kad sam ja onomad postovao link za clanak o NVIDIA-inoj "de-optimizaciji" PhysX-a! Pa kad sam pitao za sto zeleni moderatori uvlace ATI u falmewar, usledio je "slap" sa kaznenim poenima!
Ja ni tada nista nisam uvlacio, niti sam te kaznio. ;)
I ta tema, svako iole normalan to moze da vidi, je bila flame seed. ;)
 
Ovde (na forumu) ravnoteza i balans nV-ATi moze da se postigne samo promovisanjem jos nekog membera-ATi fan-a/fanboi-ja u status moda...ja ne vidim nikog od modova osim Chinaskog da "navija" za Ati...

nVidiji stranu drze barem cetiri moderatora kadgod je neka "prepucavachka" tema u tredovima o grafama, znaci u startu je 4-1 kada se tice price o grafickim kartama, ostali modovi i nisu toliko aktivni u GPU diskusijama

Avaj, ka'ce vec vise treci/cetvrti igrac u GPU utakmicu...lullaby, ovaj, larabee, S3, XGI, whatever... daj nam industrijo barem jos nekog bitnog i relevantnog, svezeg i novog, da se topi silicijum i prshti na sve strane ;)
 
Ovde (na forumu) ravnoteza i balans nV-ATi moze da se postigne samo promovisanjem jos nekog membera-ATi fan-a/fanboi-ja u status moda...ja ne vidim nikog od modova osim Chinaskog da "navija" za Ati...

nVidiji stranu drze barem cetiri moderatora kadgod je neka "prepucavachka" tema u tredovima o grafama, znaci u startu je 4-1 kada se tice price o grafickim kartama, ostali modovi i nisu toliko aktivni u GPU diskusijama

Opet pitam, kakve veze ima sto smo moderatori? Ja ucestvujem u diskusijama kao obican clan.
Evo, Nedja se onomad zalio da je popio warn od nekog od nas kako kazes nV moderatora, pa se ispostavilo da je pogresio. :D
 
Ovde (na forumu) ravnoteza i balans nV-ATi moze da se postigne samo promovisanjem jos nekog membera-ATi fan-a/fanboi-ja u status moda...ja ne vidim nikog od modova osim Chinaskog da "navija" za Ati...

nVidiji stranu drze barem cetiri moderatora kadgod je neka "prepucavachka" tema u tredovima o grafama, znaci u startu je 4-1 kada se tice price o grafickim kartama, ostali modovi i nisu toliko aktivni u GPU diskusijama

Avaj, ka'ce vec vise treci/cetvrti igrac u GPU utakmicu...lullaby, ovaj, larabee, S3, XGI, whatever... daj nam industrijo barem jos nekog bitnog i relevantnog, svezeg i novog, da se topi silicijum i prshti na sve strane ;)

Znaci ako sam moderator ne smem da navijam za neku stranu? A ti mora da si se jako ugrozeno osetio zbog toga :)
Nije Nedja bas tako naivan kao sto se predstavlja :)
 
Nece da moze, vec si se naljutio sto sam ja izmenio naslov teme toliko da si isprozivao moderatore i ponasao se kao malo dete sa sve plakanjem Peci na ramenu. Za takvo ponasanje si dobio kazneni poen, sve ti je objasnjeno u toj temi i nema razloga da se ponavljas.


Samo ovog puta necu da napravim istu gresku, vec cu da uzmem kokice i uzivam u fanboyevskom (profesionalnom) podmetanju nogu, varnica i ko zna cega...

:party:
koje tebe prozvao da se osecas prozvanim da postujes ovde?

uzivaj u tim kokicama! :)
 
Samo mi daj prost odgovor - da li cip/kartu/stagod nesto "sprecava" da trosi vise u Crysisu, ili ne? :)

Generalno sam rekao 4 stvari...

1. GTX580 u igrama trosi manje od GTX480
2. GTX580 u igrama trosi vise od onoga na sta je deklarisan
3. Kada se ugasi kontrola, GTX580 moze povuci vise od GTX480
4. U ovoj klasi je sve to nevazno, niko nece odustati od kupovine jer zbog vece potrosnje

Sta od ovoga je pogresno?

Inace, izgleda da je NV implementirala dvostruku "power virus" zastitu... hardversku, ali i kroz drajvere. Da se dodje do 350W koje je W1zzard pomenuo treba zaobici obe.
 
1.Tacno
2.Ako gledamo sta pise na kutiji (i verujemo u to)
3.carlama*
4.slazem se

*Kao i dosad u ovoj temi, zavuces poneku sumnjivu "cinjenicu" zavucenu u oblandu:D, pa krenes da izbegavas odgovor na konkretno pitanje (koje bi i za ovo postavio, al sad vise ne mogu, jer je uzaludno lol)...

Inace, izgleda da je NV implementirala dvostruku "power virus" zastitu... hardversku, ali i kroz drajvere. Da se dodje do 350W koje je W1zzard pomenuo treba zaobici obe.

Hehe, cacnuti profil za FurMark i OCCT (tj izbaciti ih), ili preko GPU-Z...big fuckin deal...makar moze da se uradi, pa ko oce - nek izvoli, uzivace u megalomanskoj potrosnji karte iz visoke klase:)
 
Poslednja izmena:
3. Kada se ugasi kontrola, GTX580 moze povuci vise od GTX480
VW Polo dizel sa deklarisanom potrosnjom od 3,4L/100km mogu da nateram u odredjenim uslovima da trosi 12L/100km:D:d:D
BTW tema je do j. Ne mogu da verujem koliko se neki primaju na sve ovo. Ko da imaju akcije nV ili AMD:)
 
Poslednja izmena:
2.Ako gledamo sta pise na kutiji (i verujemo u to)

Da li ovo treba protumaciti kao "NV ne treba verovati" ;) Ovaj drugi deo je bio pre svega ka onome sto je DAS linkovao, sa korisnikom koji je verovatno zaboravio da iskljuci kontrolu kroz drajvere.

Kao sto rekoh, ne mislim da je uopste vazno da li GTX580 trosi 244, 280 ili 350W... jedan krug korisnika ce ih kupovati i dalje, nadajuci se da ih bez ove kontrole mogu jos dodatno overklokovati. ;)
 
Pogledao. I dalje ne vidim gde on kartu poredi sa GTX 480.

Da je u pitanju AMD kartica prevrnuo bi pola interneta i sve poznate i nepoznate review-ove a za ovo te "mrzi" da baciš pogled na isti sajt i uporediš potrošnju dve kartice.

User sa tog foruma je lepo uporedio u Furmarku sa W1zzard-ovim tweak-om dve kartice, i GTX 580 trosi manje:

http://forums.techpowerup.com/showpost.php?p=2089407&postcount=64

W1zzard je samo pokazao koliko skace TDP u Furmarku kada ne radi voltage control.

Opet nisi uradio domaći.
Taj user je rekao da prati tu temu i postovao rezultate sa svog (odličnog) review-a koji je uradio pre četiri dana i u kome kaže da je samo uključio GPU-z i pustio da se vrti FurMark.

Kao otadžbinu da branite, čoveče...
 
Poslednja izmena:
Jedan od quote-ova sa legitreviews-a.
Furmark showed the NVIDIA GeForce GTX 580 performing poorly as the GTX580's new power monitoring hardware kicked on and slowed the card's performance down. NVIDIA said the GTX580 dynamically adjusts performance in certain applications (Furmark and OCCT) in order to keep the power within their specifications. Here we see an example of where the new hardware monitoring management system hurts the card's performance. We have concerns about this, but NVIDIA said they can make changes in the driver, so if a game comes out down the road a simple driver update is all that is needed to change the power level.

Znači, nVidia kaže da ukoliko i izađe igra koja bi koristila pun potencijal GF110 čipa i samim time aktivirala ovu dinamičku kontrolu može izbaciti drajvere koji bi za željenu igru uklanjali ovu blokadu...
 
Pa tako nesto...u tome je i poenta softversko-hw implementacije o kojoj je rec ovde. Moze da se kontrolise po potrebi. Mada sumnjam da bilo koja igra moze da se ponasa kao ova dva programcica, ali eto, mogucnost postoji...pa da vidimo.
Mozda ovo bude sprecavalo i one slucajeve kada igra dok je u meniju pregreva cip / naponsku (bese u SC2 ako dobro pamtim), pa je resenje bilo da se ukljucuje FPS cap.

Edit- Treba dodati i da tog throttlovanja ne bi trebalo da bude uopste ako profil za aplikaciju ne postoji u drajverima. Posto se to ogranicenje da lako ukloniti preko GPU-Z, ili "rucno".
 
Poslednja izmena:
@Pixell: Ja tebe nista ne razumem?! Sta poredis sa cime?? Zasto mi linkujes test GTX 480? I to Zotac koji trosi manje??
Pokazi mi test istog coveka kod koga GTX 580 ima vecu potronju od GTX 480. Ja sam tebi pokazao nekoliko stress testova gde GTX 580 trosi manje a nije trotlovan.

Evo ga W1zzard:

.
Please note that two entries are present in the "Maximum" graph. As mentioned earlier, the card comes with a current limiter system which reduces clocks and performance in case the card senses it is overloaded. Exactly that is happening in our Furmark test, the second bar is the power draw as we see it momentarily before the current limiter has time to kick in. I am extremely confident that this represents power draw as it would appear without the current limiter in place.


power_maximum.gif


http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_580/25.html
 
@DAS
Ne razumeš zato što brzopleto letiš preko linkova koje sam postovao.

Na linku koji sam postavio je review Zotac GTX480 kojeg je odradio W1zzard lično i u kojem pored potrošnje tog Zotac-a postoji i standardna GTX480 koja radi na maksimumu, a čiji je review, pogađaš, opet uradio W1zzard lično pre devet meseci:

power_maximum.gif


http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_480_Fermi/30.html

Grafikon koju si linkovao je iz prvog W1zzardovog review-a od 09.11.2010. a vest o konačnom otključavanju zaštite je osvanula četiri dana kasnije.

Još navodiš tačno ono o čemu se priča. Obrati pažnju na:

the second bar is the power draw as we see it momentarily before the current limiter has time to kick in

Znači tih 304W je momenat pre nego što je limiter proradio što navodi na zaključak da nije bilo limitera i da je test trajao duže potrošnja bi verovatno bila ovakva:

Capture1359.jpg
 
Poslednja izmena:
Realno gledano, chovek koji kupuje GTX580, ima trenutno ili GTX480 ili neshto ala GTX460 SLi shto vuche dosta vishe od 304W. Prvo shto sam uradio kada sam uzimao GTX470 (znachi ne dve, nego jednu kartu) je bila kupovina napajanja od 850W. Dve GTX470 troshe u loadu preko 400W sigurno, tako da je za mene, naprimer, GTX580 shtedljiva karta.

A sa ovim tredom je sve jasno chim se prochita naziv teme...
 
Sad je jasno ono što već jeedno vreme pričam, a to da je W1zzard obojen u crveno...
 
Znaci sada je bitno ko je i sta je radio ranije, a ne da li je istina to sto pise...
 
Ja mislim da je dobar procenat ucesnika u ovim temama nesvestan onoga sto pise i deli sa nama, najiskrenije, bez da vredjam ikoga.
 
Ja mislim da ste gori od baba na pijaci.
 
Status
Zatvorena za pisanje odgovora.
Vrh Dno