Šta je novo?

GeForce GTX 280

Status
Zatvorena za pisanje odgovora.
Prvo, G80 je imao iskljucenu MUL jedinicu u shaderu, koja se izgleda pojavila u G92. Odatle dodatna snaga serije bazirane na G92. Iako ima znacajnije manju magistralu ima vece clockove i postize snagu 8800GTX.

Nema ni G92 dostupan dodatni MUL. Prednost koju G92 ima u odnosu na G80 je udvostrucen broj texture address jedinica.
Sporni MUL je zapravo deo special function jedinica i nVidia nije uspela da ga uposli za generalni shader kod, iako ima posrednu ulogu. S druge strane citirana GFLOPS brojka za CUDA ne racuna doticni MUL, jer on ovde nema nikakvu ulogu.

GT200 verovatno ima vise koristi od tog MUL-a - bar tako sugerise slajdu sa nV prezenatacije koji kaze: "Improved Dual Issue".
Jos neke za sad poznate G80->GT200 izmene ukljucuju: povecana brzina za ROP Blending, udvostrucen broj registara i lokalne SM memorije.
Zanimljivo je videti trend povecanja interne memorije GPU-a. G80 je imao 16KB lokalne memorije za svaki od 16 SM-ova, sto ukupno daje 256KB. GT200 ce imati 32KB memorije za svaki od 30 SM-ova - ukupno 960KB, sto je skoro 4 puta vise.
G80 posedune i L1 i L2 Texture cache, koji su za GT200 najverovatnije povecani.


NVidia ima izuzetno slozen princip razvoja GPU-a koji im omogucava da dobiju finalni proizvod iz svega par pokusaja. Retko koji NV GPU ima reviziju vecu od 4.

Rekao bih da su sa GT200 ipak probili rokove za nekih 6+ meseci.
Nemam nista 100% konkretno da ovo potvrdim, samo sumnje, mada zasnovane na par cinjenicama:
nVidia je prosle godine najavila da ce izbaciti double precision hardware do kraja godine (2007). Obzirom da DP podrska dolazi sa GT200, sasvim je verovatno da se to odnosilo na njega. To je bio inicijalni plan, a kasnije je nesto poremeceno.
Naravno, mogao bi se napraviti argument da nVidia nije izbacila GT200 tad, jer pored RV670 nije bilo potrebe i da je G92 vise nego "good enough". Medjutim, dve stvari idu protiv ovoga. Prvo, RV670 je doneo DP podrsku sto je ozbiljna pretnja na GPGPU frontu. Drugo, izbacili su 9800GX2 kao flagship ciji je zivot na trzistu svega tri meseca (mart-jun). Ne bi morali ulagati u razvoj ove kartice da je GT200 bio izbacen ranije.
GT200 je izradjen na 65nm procesu, a 55nm verzija sledi po kratkon postupku - ako je bilo kasnjenja sa 65nm verzijom to su verovatno morali isterati do kraja, a rad na 55nm poceli paralelno.
Jos par stvari koje u manjoj meri idu u korist ove teorije:
-GT200 koristi GDDR3 (krajem prosle godine nije bio dostupan GDDR5).
-Konfuzija oko GeForce serija - G92 je prvobitno plasiran kao GF8, pa zatim kao GF9 - moguce da je GF9 serija prvobitno bila rezervisana za GT200, da bi se kasnije predomislili.
 
Poslednja izmena:
Deane svaka cast na analizi i zapazanju. Imam samo jedno pitanje - mozes li dati neki izvor ka argumentu da GT200 ima DP podrsku?
 
Izvor: http://we.pcinlife.com/thread-940503-1-1.html#zoom
Bablefish prevod: http://babelfish.yahoo.com/translat...ad-940503-1-1.htm&lp=zh_en&btnTrUrl=Translate

Za nijansu bolji prevod i slike: http://forum.beyond3d.com/showpost.php?p=1167355&postcount=1659

Kaze: "Double-precision floating-point hardware support"
Patece slike su sa nV prezentacije. Na slici se vidi i die shot - iako je minijaturna slika podudara se sa CJ-evim, s tim da su oni postovali dan ranije sto iskljucuje kopiranje, pa smatram da je informacija pouzdana.
 
mnogo je dobar
 
@DeanXP:
Ja sam skeptican u vezi tog DP dok ne vidim test negde da to radi i da nije emulacija.
 
Rekao bih da su sa GT200 ipak probili rokove za nekih 6+ meseci.
Nemam nista 100% konkretno da ovo potvrdim, samo sumnje, mada zasnovane na par cinjenicama:
nVidia je prosle godine najavila da ce izbaciti double precision hardware do kraja godine (2007). Obzirom da DP podrska dolazi sa GT200, sasvim je verovatno da se to odnosilo na njega. To je bio inicijalni plan, a kasnije je nesto poremeceno.
Naravno, mogao bi se napraviti argument da nVidia nije izbacila GT200 tad, jer pored RV670 nije bilo potrebe i da je G92 vise nego "good enough". Medjutim, dve stvari idu protiv ovoga. Prvo, RV670 je doneo DP podrsku sto je ozbiljna pretnja na GPGPU frontu. Drugo, izbacili su 9800GX2 kao flagship ciji je zivot na trzistu svega tri meseca (mart-jun). Ne bi morali ulagati u razvoj ove kartice da je GT200 bio izbacen ranije.
GT200 je izradjen na 65nm procesu, a 55nm verzija sledi po kratkon postupku - ako je bilo kasnjenja sa 65nm verzijom to su verovatno morali isterati do kraja, a rad na 55nm poceli paralelno.
Jos par stvari koje u manjoj meri idu u korist ove teorije:
-GT200 koristi GDDR3 (krajem prosle godine nije bio dostupan GDDR5).
-Konfuzija oko GeForce serija - G92 je prvobitno plasiran kao GF8, pa zatim kao GF9 - moguce da je GF9 serija prvobitno bila rezervisana za GT200, da bi se kasnije predomislili.
Svaka ti je na mestu, ja bih samo dodao da je nVidia do sada uglavnom uspevala da joj mid segment kartica bude bolja od top kartice prethodne generacije (naravno osim GF serije 8). Verovatno je plan bio da G92 i GT200 izađu sinhronizovano gde bi GT200 bio za high end tržište, a G92 kartice srednji segment!
 
@DeanXP: Odlicne analize i zakljucci!

http://www.computerbase.de/news/hardware/grafikkarten/2008/juni/die-plot_nvidia_gt200_ueberblick/
Ako su ove cifre tačne, GT200 ima 75% veći broj tranzistora, a po površini je veći za 125%.
Ne očekujem da GTX 280 bude brži ni 50% od Radeta 4870, a o 75% ili ne daj Bože 125% nema ni govora!
Kartica sa GT200 čipom pravljenim u 55nm možda i bude toliko brža, ali je ja ne očekujem makar još 6 meseci!

Svaka cast ako bude imao 'samo' 800 m.tranzistora,ja sam po onim specifikacijama ocekivao blizu milijardu.
Ne ocekujem da bude 2x brzi od 4870,moja pretpostavka je negde oko 60% u proseku brze ali videcemo.
GTX 280 ce verovatno prodavati i ugradjeni Physics procesor,kao i jos neke stvari.


Ovaj lik kaze da je to sto drzi GTX 280,ali kako kada ima dva 6-pinska konektora za napajanje?
 
Poslednja izmena:
^
Eh da ! dobro je zapazanje, posle sam procitao da je na videu 260GTX a ovaj je pricao kao da je to 280GTX, nije mi tacno jasno, ali ispada da je to ustvari 260GTX.
 
280gtxcd3we5.jpg
 
Interesantno kako Bioshock uopste nema nikakvog dobitka!
u principu ispade da su ona nagadjanja koja sam iznosio negde pri pocetku treda manje-vise u pravu - GT200 mu zaista dodje kao 2xG92 + bonus za gubitke na SLi-u i veca propusna moc mem. magistrale!
 
Gresis Nedjo,jer vidi: GTX 280 ima 240 shadera na 1300Mhz,a 9800GX2 2x128 na 1500Mhz,pa ti izracunaj kolika je to teoretska razlika u korist 9800GX2. Koliki god da je gubitak za SLI,stice se utisak da su shaderi znacajno unapredjeni u odnosu na one u G80/G92,tako da ta tvoja i Audiova teorija da je GT200 u stvari G80 sa dodatim shadrima/sirom magistralom ne pije vodu.

Interesantno kako Bioshock uopste nema nikakvog dobitka!

Sta ce ti dobitak u Bioshocku kad igra i ovako leti na jeftinim karticama.Bitno je da je dobitak u krizi vidljiv(ako je ovo uopste tacno).
 
Poslednja izmena:
Pa i to je pokazatelj kako se performanse skaliraju zar ne?

Bioshock je zesce nabudzen Unreal 2.5 engine ako se dobro secam i ne koristi previse teksture nego se mnogo vise oslanja na shadere za sve zive i nezive efekte. Nacin na koji se (ne) skalira na novoj karti je malcice zabrinjavajuci pod uslovom da test nije pogresno uradjen.
 
Znaci od svih onih igara ti se bas uhvatio za Bioshock i to zato sto je prednost minimalna.Vidi se da hoces da nadjes i najmanju manu kartici ;)

Jednostavno,u nekim igrama SLI skalira bolje a u nekima losije.Ocigledno da u Bioshocku SLI radi perfektno:
http://www.firingsquad.com/hardware/nvidia_geforce_9800_gx2_performance_preview/page13.asp
pa otuda i slican rezultat sa GTX 280. Kad malo razmislis ovaj Bioshock rezultat je zapravo jos jedna potvrda snage GTX280 kartice jer,pazi 9800GX2 teroetski ima 256 shader procesora koji rade na 1500Mhz,i ako GTX 280 sa svoja 240 SP-a na 1300Mhz uspe da bude cak i malo brzi, onda je to za svaku pohvalu,i jos jedan dokaz da GT200 nije samo G80 na steroidima.
Naravno,opet kazem,ovo sve pod uslovom da ona slika koju je Starac postovao ima i imalo istine.

EDIT:Opet kazem,najvaznije je da Crysis ima najveci boost u odnosu na proslu generaciju,i nadam se da je ono tacno jer tamo se vidi poprilicna razlika u odnosu na GX2.
 
Poslednja izmena:
Jednostavno,u nekim igrama SLI skalira bolje a u nekima losije.Ocigledno da u Bioshocku SLI radi perfektno
A cenis da ovo...
EDIT:Opet kazem,najvaznije je da Crysis ima najveci boost u odnosu na proslu generaciju,i nadam se da je ono tacno jer tamo se vidi poprilicna razlika u odnosu na GX2.
...moze biti posledica delom zbog toga sto Kriza bas i nema neku preterano optimizovanu SLi podrsku?
 
Kriza je kompleksna igra i prava koska za SLI/CF driver.
 
Poslednja izmena:
@DAS:
Pogledaj u tabeli koju si ti dao koliko je mala razlika u FPS izmedju recimo 8800GT i 8800 GTX Ultra, a pogledaj kolika je bila razlika u ceni. Da li je sad jasno o cemu pricam?
 
Poslednja izmena:
pa zar shaderi u 9600GT (g94) nisu "dosta" bolje optimizovani od 8800GT (g92), neznam zasto se cudite da ce u G200 biti jos pomaka.....
 
Ne znam i ne znam.Videcemo za 10 dana. Mada sam siguran da ce vredeti extra para,pogotovo sto je GX2 dual-GPU kartica.
 
Nove informacije ( a mozda i "informacije") u vezi performasi GT200 baziranih kartica:

20080607_52b9dabecf4ee472b1c9sCHFvBdoLGz9.jpg
 
Odvali ga po ovom testu 3870X2 sem u 1920x1200 Vantage 3dmark.
 
@audio
Koliko je bolji neki quad core intela u extreme izdanju od najjeftinijeg 9300?
A koliko je skuplji?
I nemoj reci da te dve stvari nemaju veze, posto si govorio u ovom tredu o napredku tehnologije, i pricas kao da neznas da je neki novi vrhunski proizvod uvek guranje tehnoloskih limita do maksimuma, po cenu vece potrosnje, zagrevanja itd. Kasnije kad se ovlada tehnologijom ti vrhunski proizvodi se spustaju u mase.
Malo te razljutila nVidia od kako su bacili rukavicu u lice intel-u?:)
 
Status
Zatvorena za pisanje odgovora.
Nazad
Vrh Dno