Šta je novo?

GeForce GTX 680 Thread

Mislim da on pravi distinkciju izmedju dinamickog kloka i turbo boost-a, ako sam dobro razumeo. (zapravo i postoji, ali jasno je da u diskusiji svi mislimo na turbo boost)

Turbo boost mora doneti razliku u performansama, isto kao i odgovarajuca tehnologija kod CPU-ova.
 
Ujedno dinamicki klok regulise i stuttering u kombinaciji sa vSync-om . Sto je po meni najbitnije ! Npr. u BF3 se desava stuttering a ima preko 60 fps.
 
Ovaj Toorbo bust je teski promasaj! Stojim iza toga, a zivi bili pa videli da ga vec sledeca generacija GPU-a nece imati. Bruka jedna kako to nema veze sa mozgom!
 
Opasno skaliranje!

21kjeiu.png
 
@sinda
Hvala na pitanju ;) Dobro je :)
Kepler ni meni nije lepotan ali mi nije ni ruzan,solidna karta bar sa dizajnom ali veruj meni kad ti kazem,uzecu ga
i pada mod koji sam okacio sa slike.Bice mnogo mocnije ;)
U svakom slucaju kao i uvek od nVidia vidis jednostavno po karti da je kvalitetna.
Taj osecaj je neprocenjiv:eyebrows:
 
Ovaj Toorbo bust je teski promasaj! Stojim iza toga, a zivi bili pa videli da ga vec sledeca generacija GPU-a nece imati. Bruka jedna kako to nema veze sa mozgom!

+1

Nevidjena glupost. Iskreno se nadam da ce se pojaviti neko resenje da se onemoguci Toorbo bust.
 
Poslednja izmena:
Poslednja izmena:
Duhovit si poput "kursadžija".
Ipak većina kupaca drži grafe u zatvorenom kućištu i igra igrice duže od 10 minuta pa može doći do nagomilavanja toplote u kućištu. Tebe možda ne zanima ali ja sam za poređenje u realnim uslovima pa bi me zanimalo.

Ipak vecinu ljudi zanima test sa jednakim setupom a ne da se steluje kako je kojoj babi milo.

Ne donosi prednost u brzini a uvećava clock GPU-a???
Da ovaj feature ne donosi prednost u brzini već samo u potrošnji onda bi se zvao dinamički downclock.

Kod GTX680 niža temperatura donosi veći dinamički overclock što naravno utiče na performanse.


Ne bas

Smanjenjem temperature se samo povecava vreme u kom gpu radi u "propisanom kloku" + boost kloku... tj manje puta ce da obara frekvenciju i/ili voltazu. Pa ce FPS biti veci, ali ne i frekvencija GPU-a (preko osnovne+boost klok).

Boost klok ce da doda tih 50-100MHz na 1006 ali ce da se i dalje ostane u propisanim vrednostima. Nece da ide preko boost clock vrednosti.

OC se moze podesiti na razne nacine, i to je OC i sta je tu sporno...Podesis ga na koliko zelis i kako zelis, jedino sto GPU "zadrzava pravo" da seta frekvenciju gore dole, ali ne i preko podesene granice.

Sad, sto su oni nazvali osnovni klok + boost klok dinamickim overklokovanjem, to je marketing i feature jelte ... meni je ok da kartica ne ide preko osnovnog kloka kad za to nema potrebe ... i da da "gas" kad joj zatreba ...
 
Poslednja izmena:
Ne znam samo zasto koriste Metro u testovima, kad je ta igra sto se tice performansi neoptimizovano djubre.
 
Ne znam samo zasto koriste Metro u testovima, kad je ta igra sto se tice performansi neoptimizovano djubre.

Slazem se da je neoptimizovana, ali kada pogledas bas iz tog razloga je jedna od najzahtevnijih igra.
 
Imate na istom sajtu test HD7970 u crossfire-u pa uporedite...

Uporedio. Pa tu su negde, tj. negde brza nVidia, negde AMD.
Generalno, AMD bolje skalira, medjutim tako je bilo i sa 6990 protiv GTX 590, pa je kasnije GTX sustigao, nakon sto su malo sredili SLI.
Samo, tada je nVidia morala opasno da obori klokove kako bi karta sa 2 x 530mm GPU-a bila moguca. Sad AMD vise nema tu prednost, naprotiv, sad je to prednost nVidia-e.
Koliko ja vidim, nVidia ce moci da napravi dual GF104 kartu: 1) sa oborenim klokovima, 6+8 pin, 2) sa 'celim' klokovima 8+8 pin, dok ce AMD gotovo izvesno oboriti klokove.

@Slaninica: Metro 2033 mora biti ukljucen u testovima, isto kao i Crysis 1 & 2.
 
Poslednja izmena:
Super je boost u smislu smanjenja potrosnje struje ali generalno mi se ne svidja uopste ta ide. Danima citam o tome i nisam hteo da komentarisem ali generalno mi se ne svidja previse. Performanse jesu odlicne i karta je super ali to je lov u mutnom.
Od neiskoriscenosti GPU-a oni prave boost time sto ce karta automatski dici clock. Karta je odlicna ali marketing je daleko jaci.
 
Ova karta i nije toliko brza OD HD7970 ako se gleda najvisa rezolucija i najveci detalji, a sigurno ko ima da izdvoji 500 eura za karticu vjerovatno igra u rezoluciji 1600p a na toj rezoluciji recimo da je u prosjeku 10% bolja od HD7970.
Kad se ove dvije kartice naklokaju rezultati su i manji od 10% ( govorim sve o najvecoj rezoluciji i max detaljima).
Cinjenica je da igre tipa F1 2011, AvP, Deux, Metro bolje radi na HD7970 dok igre tipa Bf3,dirt3, batman, lost planet i neke druge bolje radi na ovoj GTX680....Kad se sve sabere i oduzme u konacnici Gtx 680 jeste bolji od HD7970 al po meni nista revolucionarno.
Koliko para toliko muzike sad je samo ocekivat da se HD7970 cjenovno pozicionira ispod Gtx 680 i to je to ;)

Ono sto je uzbudljivo kod ove karte, nije to sto ima malu prednost u performansama u odnosu na 7970, vec cinjenica da to ostvaruje uz solidno manju povrsinu GPU tj. manjeg broja tranzistora.
Pa onda cinjenica da su nagurali 1536 shadera na 294mm2. Ovaj GPU je pre svega vazan za nVidia-u a ne toliko za kupce. Jeste, brzi je, manje trosi i kosta 50$ manje, ali do juce je nVidia karte sa GPU-ovima ovih karakteristika prodavala za 250-300$.

Sto se tice GF110, mislim da ga nece biti, barem ne skoro i barem ne u 600 seriji. Zasto bi ga izbacivali sada? Imaju mali GPU koji moze da se racuna kao high end u narednih godinu dana. A Maxwell i 22nn nece barem do pocetka 2014, sta nuditi u sledece 2 godine? Posto imaju high-end od 294mm2, mislim da im nece biti tesko da za godinu dana izbace 'GK110' sa 50% vise jedinica uz povrsinu od ~450mm2 i s njim izdrze do sledeceg proizvodnog procesa. Obzirom da su pravili dual GPU kartu sa dva Fermija, moci ce i sa ovakva dva GPU-a. S druge strane AMD je u tezoj poziciji. OK ,izbacice dupli Tahiti za mesec dana, ali sta da rade sledece dve godine? Njihova strategija je da ne idu preko 400mm2 a nemaju bas mnogo lufta obzirom da je Tahiti 365mm2. Mogu da izbace naklokovani Tahiti (verovatno i hoce), ali to nije dugorocno resenje.
 
Super je boost u smislu smanjenja potrosnje struje ali generalno mi se ne svidja uopste ta ide. Danima citam o tome i nisam hteo da komentarisem ali generalno mi se ne svidja previse. Performanse jesu odlicne i karta je super ali to je lov u mutnom.
Od neiskoriscenosti GPU-a oni prave boost time sto ce karta automatski dici clock. Karta je odlicna ali marketing je daleko jaci.

Pazi...marketing ili ne, ovako se ponasa sa stock kulerom i na 1300+MHz:

oS67Q.jpg


(VRZone)

Sto je za svaku pohvalu.
 
A posbno treba obratiti pažnju i a potrošnju pri OC-u, gde uopte nema drastičnih skokova.
 
Ipak vecinu ljudi zanima test sa jednakim setupom a ne da se steluje kako je kojoj babi milo.
E pa ova baba misli da bi test na benchu sa par ovakvih poređenja bio zanimljiv i činilo ga donekle drugačijim od par stotin GTX680 testova na netu.

Ne bas
Smanjenjem temperature se samo povecava vreme u kom gpu radi u "propisanom kloku" + boost kloku... tj manje puta ce da obara frekvenciju i/ili voltazu. Pa ce FPS biti veci, ali ne i frekvencija GPU-a (preko osnovne+boost klok).
Boost klok ce da doda tih 50-100MHz na 1006 ali ce da se i dalje ostane u propisanim vrednostima. Nece da ide preko boost clock vrednosti.

OC se moze podesiti na razne nacine, i to je OC i sta je tu sporno...Podesis ga na koliko zelis i kako zelis, jedino sto GPU "zadrzava pravo" da seta frekvenciju gore dole, ali ne i preko podesene granice.

Sad, sto su oni nazvali osnovni klok + boost klok dinamickim overklokovanjem, to je marketing i feature jelte ... meni je ok da kartica ne ide preko osnovnog kloka kad za to nema potrebe ... i da da "gas" kad joj zatreba ...
Ništa nije sporno i ne mislim da je ovo glup feature, ali ne znam u šta hoćeš da me ubediš ovim semantičko/tehnološkim objašnjenjem? ... da je nVidia implementirala ovaj feature da bih meni uštedela struju a ne da bi imala bolje skorove u testovima/igricama???
 
Pa sigurno nije implementirala overclock u beskonacnost, meni izgleda da tako kapiras sve ovo, nemam drugo objasnjenje zaista.
 
Sto se tice GF110, mislim da ga nece biti, barem ne skoro i barem ne u 600 seriji. Zasto bi ga izbacivali sada? Imaju mali GPU koji moze da se racuna kao high end u narednih godinu dana. A Maxwell i 22nn nece barem do pocetka 2014, sta nuditi u sledece 2 godine? Posto imaju high-end od 294mm2, mislim da im nece biti tesko da za godinu dana izbace 'GK110' sa 50% vise jedinica uz povrsinu od ~450mm2 i s njim izdrze do sledeceg proizvodnog procesa. Obzirom da su pravili dual GPU kartu sa dva Fermija, moci ce i sa ovakva dva GPU-a. S druge strane AMD je u tezoj poziciji. OK ,izbacice dupli Tahiti za mesec dana, ali sta da rade sledece dve godine? Njihova strategija je da ne idu preko 400mm2 a nemaju bas mnogo lufta obzirom da je Tahiti 365mm2. Mogu da izbace naklokovani Tahiti (verovatno i hoce), ali to nije dugorocno resenje.
Pa i prvi full Fermi je bio katastrofa da bi GTX580 potpuno preokrenuo stvari.
AMD je u lošoj situaciji u high endu, ali ukupno stvari za AMD ne stoje tako loše. HD7870 ima površinu čipa gotovo duplo manju od Tahitija, a sporiji je za manje od 20%. Pitcarin je za trećinu manju od GK104, a sporiji je za manje od 25%. Kad se tome doda da je to više nego dovoljno za sve osim za najzahtevnije fanatike, AMD će sigurno prodati više Pitcairina nego nVidia GK104 derivata.

Pa sigurno nije implementirala overclock u beskonacnost, meni izgleda da tako kapiras sve ovo, nemam drugo objasnjenje zaista.
Ne nego da bi nako sat ili dva rada u zatvorenom kućištu, došlo do akumulacije toplote u i oko kartice što bi uvećalo temperaturu GPUa-a i dovelo do toga da provodi više vremena na def, a manje na def+boost clocku. Time bi bench rezultati nakon dva sata bili niži nego na početku testiranja.
Mislim da bi ovi rezultati bili bliži realnim uslovima igranja.
 
Poslednja izmena od urednika:
Zotac Prepares 2GHz GeForce GTX 680 !

According to a QQ report, Zotac has decided to develop a Kepler-based video adapter whose graphics processing unit runs at 2 GHz.

That's right, even though the GeForce GTX 680 already operates at the gargantuan clock speed of 1,006 MHz, Zotac is not satisfied.

In fact, all the specifications of the Kepler product are high, as expected of the so-called strongest single-GPU video controller in the world, but the OEM wants to go above and beyond them anyway.

The company intends to complete the “Godly” GeForce GTX 680 by the middle of next month (April, 2012).

Vise o tome :
http://news.softpedia.com/news/Zotac-Prepares-2GHz-GeForce-GTX-680-Yes-Really-260485.shtml

Zvuci neverovatno da bi bilo istina ali videcemo..
 
@ nex999

Šta misliš o odluci Nvidie da za X79 ploče uskrati PCI-Express 3.0 podršku ? Nije mi jasno o čemu se tu radi, kad AMD kartice bez problema rade u PCI-E 3.0 modu na X79 pločama.
 
@Bogda:
Precenjujes uticaj temperature (koja jeste jedan od faktora) ali nije TOLIKO presudan na performanse - sa 100% brzine venta, karta "dobija" 0.8% u performansama.

Karta pri najvecem stresu (default klokovi + boost clock) tesko da moze dostici momenat da brzinom ventilatora ne uspe da se ohladi toliko da krene da obara klokove (tek preko 70C pocinje obaranje klokova prema TPU testu i to za po 10MHz - a i to se moze podesiti po zelji). Uostalom, dati 500 evra na kartu i zatvoriti je u neprovetreno cheap-o kuciste...hm po meni nema nikakvog smisla i verujem da u takvim uslovima gde 680 pocne da throttluje, da bi throttlovala i fabricka 7970 ili zvucala kao usisivac.

@kosta10:

U tom linku sa tom vescu kaze:

GeForce GTX 680 supports PCI Express 3.0. The Intel X79/SNB-E PCI Express 2.0 platform is only currently supported up to 5GT/s (PCIE 2.0) bus speeds even though some motherboard manufacturers have enabled higher 8GT/s speeds,” says the specifications page of GeForce GTX 680

Koliko sam ja ovo razumeo, ploce koje imaju taj cipset i PCIE 2.0 ne mogu da rade na PCIE 3.0 iako su neki proizvodjaci ploca to pokusali nekako da zaobidju. Ili je bug u drajverima oko koga se povela prica ... otkud znam. A koja je razlika u performansama kad karta radi u PCI-E2.0 vs PCI-E3.0 pitanje je sad:)
 
Poslednja izmena:
najbolje bi bilo testirati obe na npr 1250mhz ili na 1300mhz i nece niko onda polemisati da li taj "boost clock" pomaze ili ne nvidia grafickoj da ima bolje rezultate...
ps nadam se da ce tako testirati bench kada dobije karticu
 
Poslednja izmena:
Ja u ovom boost kloku aka turbo modu u odnosu na Intel procesore vidim prednost,neko vidi mane.
Pre bih rekao da se misljenja grade na osnovu neiskustva,nerazumevanja ove tehnologije i njenog rada u realnom okruzenju.
Najbolje ce biti da neko prenese utiske ko ovu kartu kupi pa je detaljno analizira i istestira kroz odredjeni vremenski period jer hardver ne mozes bas da upoznas
za kratko vreme,detalji promaknu.
 
matrixxsu je napisao(la):
najbolje bi bilo testirati obe na npr 1250mhz ili na 1300mhz i nece niko onda polemisati da li taj "boost clock" pomaze ili ne nvidia grafickoj da ima bolje rezultate...
ps nadam se da ce tako testirati bench kada dobije karticu

Znaci da jednu overklokuju za 375MHz a drugu za 150 Mhz? Ne zvuci bas kao fer poredjenje.
 
Ova dva posta su ti kontradiktorna ;).

Od svega pomalo...karta dobije na performansama cak i kad se postavi fan na 100%, bez diranja bilo cega.

Kad se overklokuje, tj kad se recimo gornji limit postavi na 1200MHz, karta obara i povecava klokove u zavisnosti od svih faktora (otuda i ta razlika u skaliranju). Temperatura, potrosnja, framerate ...

ali zato:

ssZIO.jpg


Fin tekst o dinamickom overkloku: http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_680/30.html

Pazi...marketing ili ne, ovako se ponasa sa stock kulerom i na 1300+MHz:

oS67Q.jpg


(VRZone)

Sto je za svaku pohvalu.
 
Moze li pojasnjenje da ne pisem bez beze...?
 
Nazad
Vrh Dno