Šta je novo?

GeForce GTX 280

Status
Zatvorena za pisanje odgovora.
@ yooyo - nije nikoga briga, u pravu si, ali, svejedno osvrnite se malo i prisjetite... Sjecate se kakva je marketinska kampanja bila za FX5000 seriju karica a tek 5900?:trust: Uzdizali su je na kule i vrhove, da ce biti nesto sasvim novo, i da ce omoguciti maksimalno realnu grafiku i izdici sve na jedan novi nivo.... Cak se sjeam onih silnih demoa, na fazon 3dMarka, sa onom vilom, itd... I bi li sta od toga, - jok!:smash:

Mogu cak i jednu paralelu povuci: sve me to podjeca na predizborne kampanje nasih politicara, obecanja, obcenja i samo obecanja, sve sama teorija, malo sta zazivi u praksi, tako je i sa ovim marketinskim napucavanjem...

Ja molim Boga, ali stvarno, da ne bude tako, da ova nova serija bude nesto revolucionarno, nesto sto ce stvarno pravdati svoju cjenu i ime, ali sam pomalo skeptican...:S: Nadam se da grijesim...
 
Audio,moram da ti kazem da nisam zadovoljan sa tvojim odgovorima :)

Onda je problem do tebe jer ne razumes, a ne do mene jer sam ja lepo objasnio.

Opet te pitam,kako ti to znas,kad jos uvek ne znamo kako se GTX 280 ponasa u igrama?

Za igre je koliko ja znam najbitniji parametar Texel Fill Rate. Ako se zna koliko je bolji fill rate u odnosu na 8800GTX onda se zna i koliko bolji ce biti cip u igrama.

Ja se ne secam da se desilo bilo kakvo poboljsanje u SP-ovima prelaskom na G92.

Da se razumemo, ne znamo ni za GTX 280 da li ima poboljsanja u SP ili su to ista ta koja su se desila u G92.

Yield nije 100% od starta to je sigurno,ali za poboljsanje yielda ne gase se delovi GPU-a vec se koristi circuit redundancy o kome je DeanXP pisao.

Yield nikad nije 100%. Redundantna kola bi samo jos vise povecala ionako veliki cip.

Pa ako je kod Ati-ja razradjen 55nm proces pre vise od pola godine zasto ne bi i nVidia sad(ili za pola godine kad i ako izbace jacu varijantu) mogla slicno.

Nije dovoljno razraditi sam tehnoloski proces nego i proizvodnju konkretnog cipa.

Ali ovo je recimo realno ocekivati sa 55nm: podignu frekvencije(i sami tim i performanse) za nekih 15% a TDP ostane tu negde ili se cak malo i smanji,i eto ti ULTRA kartice.

Pa to uopste nije realno ocekivanje.

Na pocetku mozda jesu ciljali na 1 TFLOPS,ali ocigledno da nisu mogli da postignu zeljene frekvencije za GPU od 1,4 milijardi tranzistora.

I ti mislis da ce im to omoguciti shrink sa 65 na 55 nm? E pa ja sumnjam.

Po glasinama koje kruze, GTX280 ce imati 240SP, 512bit bus, 64TMU, ?? ROPova...

Pa cekaj, to je samo budzenje bre. Nista nije novo smisljeno.

verovatno double precision.

Ovo nikog nisam cuo da pominje, a bilo je u najavi za Q4 2007.

Prvo, G80 je imao iskljucenu MUL jedinicu u shaderu, koja se izgleda pojavila u G92. Odatle dodatna snaga serije bazirane na G92. Iako ima znacajnije manju magistralu ima vece clockove i postize snagu 8800GTX.

Ja bih pre rekao da je u pitanju 56 texela po clocku kod G92 naspram 32 kod G80, a ne neki tamo mul koji je satro postojao pa iskljucen pa sad proradio.

ATI nikada vise nece izbaciti konkurentan GPU (po snazi).

Ja ne bih imao m00da da se kladim u to, no dobro, ti si u tom poslu pa valjda bolje znas sta radis.

Vrlo je moguce da danasnje glasine o GT200 takodje deo PR spin-a i da nas u stvari ocekuje brutalno mocan GPU, sa mnogo novih stvari.

I onda je mrmot zavio cokoladu u foliju... :d

Poenta je da dosta ljudi stice utisak da ce GTX 280 biti promasaj,a ja ne znam na osnovu cega.Jasno je da ce da GT200 da sabija,mislim oseca se vec...:)

Sabijace KWh kroz brojilo, to je neosporno, a jedino sto se vec oseca je miris nagorele prasine i laka. :D:D:D

Sto se tice grafikona ja mu ne verujem. Uostalom, sta vredi recimo 2.4x vece performanse u Crysis-u ako je baza <10 FPS?
 
Poslednja izmena:
@Audio: Ne vredi,jednostavno se ne slazem sa gotovo ni jednim odgovorom koji si dao/prokomentarisao,tako da bismo se samo vrteli u krug.
Nego lepo da sacekamo kad izadje pa cemo videti kako se ponasa u igrama. :wave:
 
Poslednja izmena:
EDIT:

gtx200-series-performance.jpg


Sta sam rekao! :D
DAS, od nekog pacera sam očekivao da postuje ovakav dijagram ali ne od tebe. Prvo, y osa počinje od 0,8 takoda GT200 izgleda deset puta brži od 3870x2. Zaista jadno.

E Nedjo,od nekog drugog sam mozda i ocekivao da padne na ove brojke,ali od tebe ne! :)
Pa upravo su one pokazatelj koliko je Ati losh - sa vise FLOPS-a bice skoro duplo sporiji. Pa evo ti i 3870X2 ima vise FLOPS-a od GTX 280 pa pogledaj tabelu sta kaze.
Ma pravo pitanje je kako će GT200 kao više nego duplo veći čip, biti samo 30-ak % brži od RV770.
 
Poslednja izmena:
@DAS:

Ma ne sporim ja da ce se ponasati bolje u igrama! Pitanje je samo po koju cenu? Pritom ne mislim na novac.

GTX 280 nije nista radikalno novo vec vise budzenje (da ne kazem silovanje) G80.

Uostalom uz malo permutacije matematika je jasna ;)

GTX 280 = 2XG80, a ono T je od TFLOPS samo su malo podbacili u racunu jer 2X128 SP nije 240 nego 256 :d
 
zivi bili pa videli :)
 
Ma dajte ljudi, tako je bilo i sa FX5000 serijom kartica, kao u teoriji ovo-ono, razni demoi, gigaflopsovi, tera itd., a na kraju kada je izasla-:smash:prsla ko dinja!!!

Ne lupaj gluposti. GTX 280 nece moci da omane toliko kao FX. Ipak ce imati Horsepower!

Ja mislim samo da je sve to pretjerivanje sto se tice perfomansi-kao fol, 60% unapredjenje, stalno tako nabacuju u javnost kojekakve informacije da bi navikali svoj proivod; kada taj isti izadje u praksu, pokaze se skroz suprotno, ista stvar i sa 9800GTX, skoro pa iste perfomanse kao i 8800GTX.

Ne kazem ja, moguce je da sve to bude tacno,daj Boze, ali tesko, vrlo tesko!

To sa nabacivanjem informacija, svi rade...

Inace uporedi malo side by side 9800GTX i 8800GTX...

@ yooyo - nije nikoga briga, u pravu si, ali, svejedno osvrnite se malo i prisjetite... Sjecate se kakva je marketinska kampanja bila za FX5000 seriju karica a tek 5900?:trust: Uzdizali su je na kule i vrhove, da ce biti nesto sasvim novo, i da ce omoguciti maksimalno realnu grafiku i izdici sve na jedan novi nivo.... Cak se sjeam onih silnih demoa, na fazon 3dMarka, sa onom vilom, itd... I bi li sta od toga, - jok!:smash:

Mogu cak i jednu paralelu povuci: sve me to podjeca na predizborne kampanje nasih politicara, obecanja, obcenja i samo obecanja, sve sama teorija, malo sta zazivi u praksi, tako je i sa ovim marketinskim napucavanjem...

Ja molim Boga, ali stvarno, da ne bude tako, da ova nova serija bude nesto revolucionarno, nesto sto ce stvarno pravdati svoju cjenu i ime, ali sam pomalo skeptican...:S: Nadam se da grijesim...

Opet ti sa FX serijom.... Sta ti je bre covece... GTX 280 ce u svakom slucaju doneti poboljsanje performansi... Nece biti debakl kao FX Serija... Dziziz

P.S Bog nema veze s GTX280!
 
Poslednja izmena:
E Nedjo,od nekog drugog sam mozda i ocekivao da padne na ove brojke,ali od tebe ne! :)
Pa upravo su one pokazatelj koliko je Ati losh - sa vise FLOPS-a bice skoro duplo sporiji. Pa evo ti i 3870X2 ima vise FLOPS-a od GTX 280 pa pogledaj tabelu sta kaze.
hehe, pa poenta te recenice je koliko je besmisleno generalizovanje kojim se i ti i Yooyo bavite.

Sta je snaga? U odnosu na sta je ATI konkurentan? Po kojim merilima je drugorazredni proizvodjac? Koji to svi tvrde da ce GT200 biti los? Mnogooo, ali mnogooo mu ga dajete po generalizovanju i bespotrebno idete u fanboyovanje...
 
I dalje mislim da je G80 imao ubedljivo najupecatljiviji launch.Secam se 2006 se samo pricalo kako ce G80 biti baziran na G71 i samo malo unapredjen,kako je vec poznato da ce ga R600 sahraniti,samo je pitanje koliko jako i kad. I onda se desio G80,a R600 nije ni izasao...dobro jeste,ali bolje da nije :D



To sam onako rekao,nisam mislio bukvalno svi.Poenta je da dosta ljudi stice utisak da ce GTX 280 biti promasaj,a ja ne znam na osnovu cega.Jasno je da ce da GT200 da sabija,mislim oseca se vec...:)

EDIT:

gtx200-series-performance.jpg


Sta sam rekao! :D

ova slika može da se nosi sa najboljim vicevima. da nije smešno bilo bi jadno. ko god je pravio ovo on je ******.
 
Evo jedna banalna stvar... Imam jedan chip sa 100 jezgara.. I imam jedan program kojim upravljam jezgarima na nivou mikrokoda ala vliw. Svako "jezgro" je jedna jedinica koja ima svoje resurse. Ako svi ti resursi rade onda imam 10TFlops-a... Ako program ima puno zavisnosti pa kompajler ne moze da upregne sva jezgra i njihove resurse onda sa 10TFlopsa mogu da spadnem na 0.5... Sto je program komplikovaniji to teraflopsi odose u gigaflopse tako da dzabe ti resursi kad ne mozes da ih koristis.... Jos kad imas programere koji prave uzasne sejdere onda si tek nagrabusio..

p.s.
Sta nije jasno sa slikom, lepo je naznaceno koja je skala na y tako da ne vidim problem.. To sto neko ne cita skalu njegov je problem.. sta da je logaritamska ( da su recimo ubacili intelov gpu :) )
 
Poslednja izmena:
Jos kad imas programere koji prave uzasne sejdere onda si tek nagrabusio..
Jos kada imas programera oji radi za studio pod okriljem TWIMTBP programa, pa mu big boss kaze da malcice prepravi svoj kod kako bi pasovao odredjenoj arhitekturi... ;)
 
ovo moram u drugi post.

ja lično predviđam propast ovoj novoj nvidiinoj seriji jedino zbog cene. koliko je u dolarima toliko će biti u eurima. i baš mi je drago što su cene toliko visoke, jer bih voleo da nvidia propadne kao firma. nemam ništa protiv njihovih kartica ali imam protiv njihove bahatosti, i nisam ati fan boy iako imam atijevu karticu. uzeo sam je samo zato što je u vreme njenog izlaska/moje kupovine bila oko 70e jeftinija od 8600gts a nudila samo malo slabije performanse.
nvidia sve više liči na intel. intel isto ima najjače procesore extreme edition, ali ko to kupuje, oni koštaju 1000+e. prava lova je u kategoriji do 150e jer takvih je 90% procesora u svetu.
 
Ne vidim sta je tu lose...Programeri igara saradjuju sa dizajnerima hardwera da bi napravili nesto sto radi bolje... uvek mozes da uradis


inicijalno
CShaderFactory * shaderFactory = new CATIShaderFactory();
u kodu
CShader *shader = shaderFactory->generateMyShader();


sa strane
class CShaderFactory
{
virtual CShader * generateMyShader() =0;
};

class CATIShaderFactory: public CShaderFactory ()
{
CShader * generateMyShader() {
bla bla;
}
}

class CNVShaderFactory: public CShaderFactory ()
{
CShader * generateMyShader() {
bla bla ali mnogo bolje nego ati;
}
}
 
scheilinkine nemoj uzalud da se nadas.. bolje zaradi pa kupi, 70 evra je nista.. :)
 
DAS, od nekog pacera sam očekivao da postuje ovakav dijagram ali ne od tebe. Prvo, y osa počinje od 0,8 takoda GT200 izgleda deset puta brži od 3870x2. Zaista jadno.

Pa nisam dzaba stavio zeleni smesak na kraju.Ne boj se nisam jedan od onih koji slepo veruju u neciji marketing.A dijagram sam postovao jer ima veze sa temom.Da nisam ja stavio bi ga neko drugi.

Ma pravo pitanje je kako će GT200 kao više nego duplo veći čip, biti samo 30-ak % brži od RV770.

Prvo,po broju tranzistora nece biti ni 50% veci chip,a drugo bice brzi za vise od 50%.

@DAS:

Ma ne sporim ja da ce se ponasati bolje u igrama! Pitanje je samo po koju cenu? Pritom ne mislim na novac.

Nego na potrosnju.Pa koji je problem trosice tu negde kao 2900XT,a donece novi nivo performansi.

hehe, pa poenta te recenice je koliko je besmisleno generalizovanje kojim se i ti i Yooyo bavite.

Sta je snaga? U odnosu na sta je ATI konkurentan? Po kojim merilima je drugorazredni proizvodjac? Koji to svi tvrde da ce GT200 biti los? Mnogooo, ali mnogooo mu ga dajete po generalizovanju i bespotrebno idete u fanboyovanje...

Navedi mi,molim te,gde sam ja toliko generalizovao stvari i otisao u fanboyovanje. Uvek se trudim da iznesem cinjenice,relane zakljucke..Sta je fanboyovanje? To bi recimo bilo da GTX 280 ispadne sran*e(sto je tesko da ce se desiti) i onda ga ja branim po svaku cenu.A veruj mi,da se to desi,popljuvao bih ga prvi.Takodje,da se desi da Ati izbaci extra karticu odmah bih je pohvalio.Ja sam i rekao da smatram da ce Ati biti konkurentan u klasi kartica koje ce sad izbaciti. Ali sam takodje rekao da je Ati napustio high-end sto je jako lose po meni.
 
ovo moram u drugi post.

ja lično predviđam propast ovoj novoj nvidiinoj seriji jedino zbog cene. koliko je u dolarima toliko će biti u eurima. i baš mi je drago što su cene toliko visoke, jer bih voleo da nvidia propadne kao firma. nemam ništa protiv njihovih kartica ali imam protiv njihove bahatosti, i nisam ati fan boy iako imam atijevu karticu. uzeo sam je samo zato što je u vreme njenog izlaska/moje kupovine bila oko 70e jeftinija od 8600gts a nudila samo malo slabije performanse.
nvidia sve više liči na intel. intel isto ima najjače procesore extreme edition, ali ko to kupuje, oni koštaju 1000+e. prava lova je u kategoriji do 150e jer takvih je 90% procesora u svetu.

Uh ako jedan proizvodjac propadne onda cemo imati monopol drugog proizvodjaca koji ce moci da nas :whip: cenama.

Po meni cena od 650dolara koliko se najavljuje za GTX280 je napredak. Setimo se koliko je kostala 8800GTX kada se pojavila, cini mi se preko 700dolara i to kada je dolar bio jaci nego danas.

Rat izmedju nV i Amd ce dovesti do trenutka kada ce najaca kartica (single) kostati ispod 600dolara. ,)
 
Poslednja izmena:
Nvidia propada iz dana u dan, ubiše ih 2900, 3850, 3870, sada će ih ubiti 4850. Jedino ne znam kako Nvidia zarađuje stotine miliona iz kvartala u kvartal, a grafičko odeljenje AMDa sa tolikim ubicama postade gubitaš. Ne kapiram vam uopšte te teze o tome kako će propasti neko ko nema šansi da propadne, kako niko neće kupovati njegove karte zbog visoke cene (koje su na nivou 8800 GTX-a kada se pojavio i koji je razgrabljivan) i tome slične stvari.

intel isto ima najjače procesore extreme edition, ali ko to kupuje, oni koštaju 1000+e. prava lova je u kategoriji do 150e jer takvih je 90% procesora u svetu.
Da, a troškovi proizvodnje 100 evra. Onda se proda 1 Extreme Edition i uzme 900 evra zarade, a ti prodaj 15-20 da bi ga dostigao. Potpuno je nebitno što je 90% procesora, a i GPU-ova - što je mnogo bitnije za ovu priču - tako zastupljeno i što ih ima toliko, kada se radi o proizvodima za gejming tržište i igrače, koji imaju daleko drugačiju koncepciju kupovine hardvera i kreiranja sistema. Sigurno se GT200 ili Radeon 4850 ne izbacuje za tih 90% ljudi sa socijala konfama i procesorima.
 
Nvidia propada iz dana u dan, ubiše ih 2900, 3850, 3870, sada će ih ubiti 4850. Jedino ne znam kako Nvidia zarađuje stotine miliona iz kvartala u kvartal, a grafičko odeljenje AMDa sa tolikim ubicama postade gubitaš. Ne kapiram vam uopšte te teze o tome kako će propasti neko ko nema šansi da propadne, kako niko neće kupovati njegove karte zbog visoke cene (koje su na nivou 8800 GTX-a kada se pojavio i koji je razgrabljivan) i tome slične stvari.


Da, a troškovi proizvodnje 100 evra. Onda se proda 1 Extreme Edition i uzme 900 evra zarade, a ti prodaj 15-20 da bi ga dostigao. Potpuno je nebitno što je 90% procesora, a i GPU-ova - što je mnogo bitnije za ovu priču - tako zastupljeno i što ih ima toliko, kada se radi o proizvodima za gejming tržište i igrače, koji imaju daleko drugačiju koncepciju kupovine hardvera i kreiranja sistema. Sigurno se GT200 ili Radeon 4850 ne izbacuje za tih 90% ljudi sa socijala konfama i procesorima.
Nekada davno tako su isto mislili za 3dfx.
Inace AMD je kupio ATI ne tako davno i trebalo mu je vremena da se uhoda. Ja inace ne zelim da propadne ni Ati ni nV jer to ce momentalno znaciti monopol i kraj igranja na PC.
 
Kao što je i monopol 3dfx-a bio kraj igranja na PCju. Neće ni tada propasti igranje na PCju, samo će se prilagoditi.
Ono što je problematično u celoj priči jeste što AMD-u nije trebalo uhodavanje u prvim kvartalima, kada je grafičko odeljenje bilo stotine miliona dolara u plusu, a onda sve slabije i slabije. Ne kažem da će propasti, samo ilustrujem besmislenost tih odsečnih, decidnih stavova koji se nikada ne obistine.
 
Evo jedna banalna stvar... Imam jedan chip sa 100 jezgara.. I imam jedan program kojim upravljam jezgarima na nivou mikrokoda ala vliw. Svako "jezgro" je jedna jedinica koja ima svoje resurse. Ako svi ti resursi rade onda imam 10TFlops-a... Ako program ima puno zavisnosti pa kompajler ne moze da upregne sva jezgra i njihove resurse onda sa 10TFlopsa mogu da spadnem na 0.5... Sto je program komplikovaniji to teraflopsi odose u gigaflopse tako da dzabe ti resursi kad ne mozes da ih koristis.... Jos kad imas programere koji prave uzasne sejdere onda si tek nagrabusio..

Onda ja sa razlogom postavljam pitanje zasto se insistira na sirovoj snazi po svaku cenu ako nece biti iskoriscena?

Nego na potrosnju.Pa koji je problem trosice tu negde kao 2900XT,a donece novi nivo performansi.

Upravo to!

Ja sam svojevremeno i ATI kritikovao zbog 2900XT potrosnje, a sad kritikujem i NVIDIJU zbog GTX280 potrosnje. Ako potrosnja nije razumna performanse me ne zanimaju.

Ako vama >150W TDP ne smeta za graficku onda zasto ne bi sada recimo Intel i AMD na silu natrpali jezgra (njima je to jos lakse da urade) i napravili osmojezgarne procesore sa 260W TDP-om?!?

I to bi donelo ubrzanje od 50% u odnosu na quad-core u nekim situacijama ali da li bi kupovali takve procesore za 650e?

Dakle, sto se mene tice -- performanse da, ali ne po svaku cenu. Narocito ne sa ovako skupom (i u buducnosti jos skupljom) strujom, jer u troskove koje generise racunar treba uracunati i troskove klimatizacije kad vam racunar emituje termalne energije poput omanje ringle.

Sve u svemu, drago mi je da ATI vodi racuna o smanjenju potrosnje svojih GPU-ova, a NVIDIJA me po tom pitanju bas razocarala. Mislio sam da ce 8800GTX biti maksimum na kome ce se zaustaviti u svojoj pohlepi i nadam se da ce ih trziste kazniti zbog toga sto nemaju mere.
 
Dakle, sto se mene tice -- performanse da, ali ne po svaku cenu. Narocito ne sa ovako skupom (i u buducnosti jos skupljom) strujom, jer u troskove koje generise racunar treba uracunati i troskove klimatizacije kad vam racunar emituje termalne energije poput omanje ringle.

Sto se mene tice, da trosi 1000W a da ima snagu bar duplo puta jacu od 9800GTX ja bih pristao i kupio graficku!;) Meni to ne smeta, a i za racun za struje me zabole, to je nesto sto se zove "moranje"(struja=must have), 20-30 gore dole isti mi dodje!:)
 
Poslednja izmena:
Sto se mene tice, da trosi 1000W a da ima snagu bar duplo puta jacu od 9800GTX ja bih pristao i kupio graficku!;) Meni to ne smeta, a i za racun za struje me zabole, to je nesto sto se zove "moranje"(struja=must have), 20-30 gore dole isti mi dodje!:)

Izraz "duplo puta" ne postoji u srpskom jeziku.

20-30 gore dole cega? Evra? Hiljada dinara? Mesecno?

Ako imas graficku koja trosi 1KW/h, dodaj jos 1KW/h za klimu.

Sve u svemu, lepo je sto ti imas para za bacanje, i niko ti ne brani da ih trosis kako ti hoces.

Ono sto ja ne zelim je da tako nesto postane standard i da proizvodjace "zabole" da li ce ubuduce praviti karte i procesore sa malom ili sa tako velikom potrosnjom. Neko mora da misli i na buducnost, a ne samo na sebe kao ti.
 
Kao što je i monopol 3dfx-a bio kraj igranja na PCju. Neće ni tada propasti igranje na PCju, samo će se prilagoditi.
Ono što je problematično u celoj priči jeste što AMD-u nije trebalo uhodavanje u prvim kvartalima, kada je grafičko odeljenje bilo stotine miliona dolara u plusu, a onda sve slabije i slabije. Ne kažem da će propasti, samo ilustrujem besmislenost tih odsečnih, decidnih stavova koji se nikada ne obistine.
Babe i žabe.

3dfx nije mogao imati monopol jer je stvorio tehnologiju 3D akceleracije. Inače ako bi sada postojao samo jedan proizvođač cene bi bile sigurno veće.
 
Poslednja izmena:
Ja sam svojevremeno i ATI kritikovao zbog 2900XT potrosnje, a sad kritikujem i NVIDIJU zbog GTX280 potrosnje. Ako potrosnja nije razumna performanse me ne zanimaju.

Ako vama >150W TDP ne smeta za graficku onda zasto ne bi sada recimo Intel i AMD na silu natrpali jezgra (njima je to jos lakse da urade) i napravili osmojezgarne procesore sa 260W TDP-om?!?

I to bi donelo ubrzanje od 50% u odnosu na quad-core u nekim situacijama ali da li bi kupovali takve procesore za 650e?

Dakle, sto se mene tice -- performanse da, ali ne po svaku cenu. Narocito ne sa ovako skupom (i u buducnosti jos skupljom) strujom, jer u troskove koje generise racunar treba uracunati i troskove klimatizacije kad vam racunar emituje termalne energije poput omanje ringle.

Sve u svemu, drago mi je da ATI vodi racuna o smanjenju potrosnje svojih GPU-ova, a NVIDIJA me po tom pitanju bas razocarala. Mislio sam da ce 8800GTX biti maksimum na kome ce se zaustaviti u svojoj pohlepi i nadam se da ce ih trziste kazniti zbog toga sto nemaju mere.
2900 je puno trošio samo da bi isporučio performanse na nivou ili gore od 8800 GTX-a. Druga je stvar ako nešto troši puno, ali istovremeno isporučuje ubedljivo najviše (naravno, videćemo i šta AMD ovaj put sprema). Opet, stvari treba posmatrati iz ugla onih kojima je ovaj proizvod namenjen. On je namenjen igračima, a ne firmama i serverskim farmama, gde je bitno da li neki čip troši 40 ili 100 W u proseku pošto ih ima par hiljada. I to beskompromisnim igračima, koji neće voditi računa da li je račun za struju malo veći ili manji. To su ljudi koji hoće da uživaju u Crysisu, Stalkeru i Far Cry-u 2 u 1920 x 1200 i to je to. To naravno ne znači da ne bi bilo bolje da je potrošnja manja, ali eto...

I Intel i AMD bi koliko sutra poizbacivali 8-jezgarne, 12-jezgarne, 16-jezgarne i ostale kombinacije za gejmere - kada bi to lepo radilo u praksi. Uostalom, zar Intel ionako nema Skulltrail? Samo kome to prodati, kad nema efekta? Nikoga ne zanimaju teoretske performanse, niti performanse koje se papreno plaćaju, a nisu podjednako primetno iznad onih koje se dobijaju za višestruko manje novca.
 
Ja sam svojevremeno i ATI kritikovao zbog 2900XT potrosnje, a sad kritikujem i NVIDIJU zbog GTX280 potrosnje. Ako potrosnja nije razumna performanse me ne zanimaju.

Bez uvrede audio, ali ti stvarno znas bubnuti. Kritikovati 2900XT zbog potrosnje ima smisla, jer je ta karta sporija od 8800GTX-a, radjena je u sitnijem p. procesu, i trosi vise struje! A pojavile su se u isto vrijeme.
I praviti bilo kakvo poredjenje 2900XT i GTX 280 u bilo kom kontekstu takodje nema smisla. Jos nismo niti vidjeli sta ta karta moze, i koliko je bolja u odnosu na GTX 260 i konkurenciju.
 
Poslednja izmena:
2900 je puno trošio samo da bi isporučio performanse na nivou ili gore od 8800 GTX-a. Druga je stvar ako nešto troši puno, ali istovremeno isporučuje ubedljivo najviše (naravno, videćemo i šta AMD ovaj put sprema).

Ono sto ja pricam je da velika potrosnja nikad nije opravdana bez obzira na performanse jer je to onda cisto silovanje tehnologije i rasipanje resursa. Vi to jednostavno ne razumete i zato vam kazem da se drzite Games sobe jer se ovde prica o tehnologiji.

Opet, stvari treba posmatrati iz ugla onih kojima je ovaj proizvod namenjen. On je namenjen igračima, a ne firmama i serverskim farmama, gde je bitno da li neki čip troši 40 ili 100 W u proseku pošto ih ima par hiljada. I to beskompromisnim igračima, koji neće voditi računa da li je račun za struju malo veći ili manji. To su ljudi koji hoće da uživaju u Crysisu, Stalkeru i Far Cry-u 2 u 1920 x 1200 i to je to. To naravno ne znači da ne bi bilo bolje da je potrošnja manja, ali eto...

Daj filipenko odluci se vec jednom da li je HD grafika presudna za kvalitet igranja ili nije?!?

Ja sebe smatram dovoljno beskompromisnim igracem da kupim 8800 GTX, ali ne i budalom da recimo stavim 2x 8800 GTX Ultra u SLI.
 
Poslednja izmena:
Potrosnja mora da bude velika kada imas ogroman broj jezgara koja sva rade. Kod CPU-a to ne pali posto pola cpu-a je kes koji ne trosi. Da ubace jos 4 jezgara opet bi pola tranzistora bilo neaktivno. GPU je druga tehnologija.. kod gpu-a nema tranzistora koji sede i cute jer je to cisto trosenje resursa. Uzmi broj tranzistora cpu-a bez kesa pa skaliraj na velicinu gpu-a pa vidi kolika bi bila potrosnja cpu-a i koliko bi presla gpu.. tj...

eto neka cpu trosi 100W i ima 300M tranzistora.. odbaci pola posto oni jedva da rade i imas 90W na 150M tranzistora pa skaliraj to na 1+ milijardu tranzistora pa vidi potrosnju
 
Poslednja izmena:
Kada kažem "beskompromisan igrač", naravno da imam u vidu neke realne okvire i ograničenja. Niko normalan neće stavljati SLI ili Crossfire konfiguraciju za igranje, ako ni zbog čega drugog, a ono zbog cimanja sa drajverima. To je ionako samo za 3D Mark. Ali svaka single-card i single-GPU karta je interesantno rešenje svima, zbog efikasnosti i lake upotrebe.

Inače, ne shvatam tvoju burnu reakciju i slanje "nazad u Games sobu jer se ovde priča o tehnologiji". Pa priča se o tehnologiji koja svoju primenu nalazi u igrama i koju kupuju igrači. Imputiraš kao da neko ovde misli da je 150 W bolje od 65 W, što nikome nije na kraj pameti da tvrdi. Imaš kompleks više vrednosti, poradi na tome, sutra ćeš nekome mnogo ozbiljnijem reći nešto slično, a taj će se takvim glupim poređenjem uvrediti...:d Ne priča se ovde o Čebiševljevim integralima i upotrebi istih u raketnim jednačinama, već o nekim rudimentarnim stvarima.

O potrošnji...šta znam, branio si Prescotta, a pričaš o "velikoj potrošnji koja nikad nije opravdana". Nije tačno. Opravdana je ako isporučuje ekvivalentne performanse i naći će kupca. Neopravdana je ako ima nešto što ispunjava potrebe određene grupe ljudi, a troši manje. Barem u ovim okvirima o kojima govorimo (grafičke karte)
 
Status
Zatvorena za pisanje odgovora.
Vrh Dno