Šta je novo?

GeForce 9800GX2 - gola, dvoglava azdaja!

Eto, odgovorio covek :) Hvala yooyo, kao i uvek, odlican i konkretan odgovor.

@Bogda:

Scan line interleave je najbolji zato sto svaka karta renderuje jedan red i tako naizmenicno po svakom frejmu. E sad, sto yooyo rece, ne moze da radi bas tako pa radi scissor mode, tj jedna karta renderuje jedan deo frejma, druga drugi, delova moze biti nekoliko (ako sam dobro shvatio) ali se svi renderuju u istom frejmu, ne mora da se predvidja unapred da li ce igrac biti napred, nazad levo ili desno.
 
AFR mode je ******.. Vec sam 10 puta pisao o tome. Verovao ili ne AFR se skalira u zavisnosti od kompleksnosti igre i popularnosti iste. Ako je engine igre kompleksan a igra nije popularna driver developeri nece optimizovati driver za tu igru. A to je kljucna stvar za AFR.. optimizovani driver!

CF nikako nemoze biti zreliji jer u pojedinim naslovima CF je sporiji od single card resenja.

Scan Line Itereave bi bio idealan mod za multigpu ali ga je nemoguce implementirati na danasnjim kartama zbog nacina na koji danasnje kartice rade (nisu samo glupi rasterizeri kao 3dfx, vec imaju T&L, R2VB, off screen rendering, ...). Najblizi originalnom SLI modu je Scissor mode jer oba GPU-a rade na istoj slici.

SLI/CF ce imati smisla tek kada se objavi API kojim programeri mogu da uticu na rad vise GPU-ova i mogu da u startu optimizuju igru za CF/SLI. DX10 api to ne podrzava, a kolko znam ni DX10.1. Do tada, kupovina x2 ili gx2 kartica je besmislena.

Edit: Kroz OpenGL na NVidiji je moguce kontrolisati SLI.
http://developer.download.nvidia.com/opengl/specs/WGL_nv_gpu_affinity.txt

Kad je nejasno: yooyo cheers
 
AFR mode je ******.. Vec sam 10 puta pisao o tome. Verovao ili ne AFR se skalira u zavisnosti od kompleksnosti igre i popularnosti iste. Ako je engine igre kompleksan a igra nije popularna driver developeri nece optimizovati driver za tu igru. A to je kljucna stvar za AFR.. optimizovani driver!

CF nikako nemoze biti zreliji jer u pojedinim naslovima CF je sporiji od single card resenja.

Scan Line Itereave bi bio idealan mod za multigpu ali ga je nemoguce implementirati na danasnjim kartama zbog nacina na koji danasnje kartice rade (nisu samo glupi rasterizeri kao 3dfx, vec imaju T&L, R2VB, off screen rendering, ...). Najblizi originalnom SLI modu je Scissor mode jer oba GPU-a rade na istoj slici.

SLI/CF ce imati smisla tek kada se objavi API kojim programeri mogu da uticu na rad vise GPU-ova i mogu da u startu optimizuju igru za CF/SLI. DX10 api to ne podrzava, a kolko znam ni DX10.1. Do tada, kupovina x2 ili gx2 kartica je besmislena.

Edit: Kroz OpenGL na NVidiji je moguce kontrolisati SLI.
http://developer.download.nvidia.com/opengl/specs/WGL_nv_gpu_affinity.txt

Diskusija nije da li su Multi GPU rešenja dobra ili loša, šta treba da se dogodi da bi SLI/CF imalo smisla već šta je zrelije CF ili SLI. Ne menjajte temu kao političari kad im ponestanu argumenti.

AFR je praktično jedini mod koji se danas koristi. Da je scissor mod bolji od AFR-a valjda bi on bio u većoj upotrebi.
Kod Scissor moda geometrijski proračuni se ne ubrzavaju i kao takav praktično je neupotrebljiv u konfiguracija sa više od 2 GPU-a jer računanje geometrije postaje usko grlo.
Dalje, veoma je teško optimalno podeliti frame kao bi se račun ravnomerno podelio na više GPU-ova. Scissor se lošije skalira od AFR-a!!!

Optimizacija drajvera je normalna stvar, drajveri se stalno optimizuju prema igricama i kod Single GPU rešenja.
Potpuno je nebitno kako AFR radi sa starim igricama zato što one rade sasvim dobro i sa jednom grafuljom. Neoptimizovana nova sr*njca ne vredi ni paliti.

SLI je u početku imao ogromnu prednost u odnosi na CF. ATi je uložio mnogo rada i u poslednje vreme sustigao i prestigao SLI sa perfomansama. Na internetu postoji dosta dokaza da se u popularnim igricama CF trenutno bolje skalira od SLI-a. Ne značajno ali ipak bolje. CF ima momentum i tendenciju da uveća ovu razliku.
 
Poslednja izmena:
Eto, odgovorio covek :) Hvala yooyo, kao i uvek, odlican i konkretan odgovor.

@Bogda:

Scan line interleave je najbolji zato sto svaka karta renderuje jedan red i tako naizmenicno po svakom frejmu. E sad, sto yooyo rece, ne moze da radi bas tako pa radi scissor mode, tj jedna karta renderuje jedan deo frejma, druga drugi, delova moze biti nekoliko (ako sam dobro shvatio) ali se svi renderuju u istom frejmu, ne mora da se predvidja unapred da li ce igrac biti napred, nazad levo ili desno.

Odogor najviše dokazuje da si lupetao. Scan Line interleave, za koje si tvrdio da je najbolji mod, se ne koristi već godinama. Za ostatak odgovora pogledaj gore!
 
Za ostatak odgovora treba da procitam (kao sto jesam) to sto ATI koristi AFR kao bolji mod ? ! :trust: ATI to koristi posto ni jedan drugi nije razvio do mere upotrebljivosti. SLI o kome sam ja pricao je sada u vidu scissor moda, podrazumeva da se JEDAN FREJM (ne svaki drugi, treci, peti isl) renederuje koristeci oba GPU-a, sto ATI ne radi. ATIjevo resenje samo sprema naredni frejm drugom kartom, ukoliko dodje do izmene u onome sto karta treba da radi, ode mast u propast. Ne vidim sta je tu zrelo. U 4 part scissor modu, oba GPU-a rade istu sliku, svaka po dve particije doticne. U pocetku je bilo jedna radi gornji deo, druga donji pa je ispalo da ona sto renda nebo ima 15% posla naspram donje koja se i dalje mucila, pa je to napredovalo itd. Sta mislis da je nVidia radila 5 godina ? Sedela i pravila ovaj novi pravougaoni TWIMTBP logo ? (NHF ali tako zvucis)
 
Za ostatak odgovora treba da procitam (kao sto jesam) to sto ATI koristi AFR kao bolji mod ? ! :trust: ATI to koristi posto ni jedan drugi nije razvio do mere upotrebljivosti.
pfff... pa ATI je prilikom predstavljanja promovisao i "makaze" i "chess board" mod... e sad druga je tema koja implementacija najbolje odgovara DX9 API-ju ( zapravo zna se - AFR). Prema tome probaj da barem jednom ne pricas o necemu u sta se zaista ne razumes...
SLI o kome sam ja pricao je sada u vidu scissor moda, podrazumeva da se JEDAN FREJM (ne svaki drugi, treci, peti isl) renederuje koristeci oba GPU-a, sto ATI ne radi.
Apsolutno netacno! SLI se takodje oslanja na AFR i tek u izuzecima SLR.
ATIjevo resenje samo sprema naredni frejm drugom kartom, ukoliko dodje do izmene u onome sto karta treba da radi, ode mast u propast. Ne vidim sta je tu zrelo. U 4 part scissor modu, oba GPU-a rade istu sliku, svaka po dve particije doticne. U pocetku je bilo jedna radi gornji deo, druga donji pa je ispalo da ona sto renda nebo ima 15% posla naspram donje koja se i dalje mucila, pa je to napredovalo itd. Sta mislis da je nVidia radila 5 godina ? Sedela i pravila ovaj novi pravougaoni TWIMTBP logo ? (NHF ali tako zvucis)
trla baba lan...

cinjenica ostaje da je CrossFire efikasnije resenje:

http://www.anandtech.com/video/showdoc.aspx?i=3232&p=3

http://en.expreview.com/?p=53&page=5
 
Arhitektura da... Ali u sustini, SLi je u vecini slucajeva brzi!
 
Poslednja izmena:
kako brzi ako CF bolje skalira?
 
Bolje se skalira jedino u 3D Markovima, koliko sam uspeo da ispratim... :)
 
Poslednja izmena:
Tajming im je malo blesav, šta je je. Jer, kad će onda predstaviti G100/GT200 .... na jesen, ili krajem godine? Ova priča da odlažu zato jer im ne treba novi High-end je svaki dan sve besmislenija. G80 je EOL, G92 je nedostojna zamjena. AMD definitivno ide sa novim proizvodom u Q2/Q3 i to dosta široko, neće biti samo jedan čip/model.

Mislim da je iz njihove perspektive ove sve logicno. jedan 8800GT sve sem krize tera kako oces. 9800gx2 ce biti taman za predstojece naslove i kupice im jos dosta vremena da na miru razvijaju dalje. Da ATI nije izbacio 3870x2 ne bi oni ni pravili ovo dvoglavo resenje...Nastavice oni da muzu G9x dokle god budu mogli.

Iskreno, ne brine me uopste da li ce nekog g100 biti ili ne, bice ga sigurno, pitanje je vremena (i kako ce se zapravo zvati)

@Nedjo:

Pa nisam ni postavio nikakvo pitanje ;) :type: Rekao sam da potenciras nekad jedno, nekad drugo, kako ti kad odgovara. Nekad je sve u dx10 i novim tehnologijama, a nekad je "sta je primerenije dx9" , a kad se pricalo zasto to tako, zasto ne podrzavati bolje dx9 bilo je "a zasto bi, dx 10 je buducnost". Sad je odjednom AFR tu zato to je primeren dx9. Nemam ja nista protiv toga, naprotiv, samo komentarisem diskusije...
 
Tajming im je malo blesav, šta je je. Jer, kad će onda predstaviti G100/GT200 .... na jesen, ili krajem godine? Ova priča da odlažu zato jer im ne treba novi High-end je svaki dan sve besmislenija. G80 je EOL, G92 je nedostojna zamjena. AMD definitivno ide sa novim proizvodom u Q2/Q3 i to dosta široko, neće biti samo jedan čip/model.

Samo mi ovo reci-kako ti znas da ce Ati izbaciti GPU nove generacije pre nVidia-e?
 
haha...
Smesna provokacija...:D Sta sam ja to rekao a da nije istina...ako stvarno mislite da je uspeh nakalemiti 2 bajata chipa na jedan PCB, onda ste redom prsli.Uostalom ovo i nije tema o toj ubertech kartici, zar ne?
Eno imade tema onjoj pa joj pevajte hvalospeve, ali glupo je da se pljuje necije misljenje bez pravog pokrica.

Trenutno najjaca kartica kosta 340€, to je cinjenica, to je jedna kartica, ima dva gpu, ali je kartica jedna, cipovi su povezani CF-om, ima 1GB GDDR-a, i to sve funkcionise, ne razumem zasto onoliko padas u vatru, sav se rasplines u svojim komentarima, da li je to dobro sto je ranije najaca kartica kostala 650-700€ kada se pojavila, znaci sada se prvo smiri, otvori prozor, udahni svez vazduh, pa onda kreni da obrazlazes to sto mislis i da odgovaras sa manje galame, a vise argumenata(jer ih do sada nisi imao). PS/Bajati cip koji ti pominjes je izasao pre par meseci, a inace podrzava 10.1 i 4.1, nek je i marketing fora, ali jos ne videsmo iz Nvidie da su izbacili karticu koja podrzava 10.1 i 4.1.

Ako je ta kartica najjaca i kosta 340€, bas briga svakog normalnog i realnog kupca, da li ona ima 1, 2, 3...8 ili pola GPU-a? Kakve to veze ima? Pogotovu sto trenutno nvidia pakuje jedan isti cip u 10 verzija i samo mu menja ime, jel' sada treba da kazu ljudi 'ej batalite vise sa tom istom bajatom robom da je prepakujete kao svercovane cigare.
To je malo smesno, pocece u Nvidia fabrikama, da se zbunjuju radnici pa da mesaju nalepnice na karticama.
 
Ko zna sta se Maxu desava u njegovom "process-free" OS-u!?!
Nisam znao da je za CF potrebno imati sve procese uključene. Mislio sam da je dovoljno imati .NET Framework za CCC i zadržati sve ono što instaliraju drajveri. Mislim, Alerter i Scheduller mu sigurno ne trebaju, zar ne?
Drugo, ja sam se potrudio da sve igre koje mogu, vide CF, baš sam se iscimao, tako da je glupo da vidim takav komentar. Uglavnom imam bolje performanse u nekim igrama od kolega, kod kojih CF očigledno nije radio. To sam tek nedavno proverio, gledam zaključke i ne verujem na šta se žale, niko, nijedan tester nije pogledao nijedan specific game forum...
 
Samo mi ovo reci-kako ti znas da ce Ati izbaciti GPU nove generacije pre nVidia-e?

Sve ide u top pravcu ;). 666 mil. tranzistora u 55nm na ranoj, A11 reviziji chipa 11/2007. na tržištu. Proces ostaje isti za R700 generaciju, s time da arhitektura nije iz temelja nova. Navodno će poduplati broj TMUova, još koje unapređenje tu i tamo i to je to ... nema tople vode.
 
Opet te pitam - kako znas da ce Ati prvi izbaciti sledeci GPU? :D
 
Poslednja izmena:
Trenutno najjaca kartica kosta 340€, to je cinjenica, to je jedna kartica, ima dva gpu, ali je kartica jedna, cipovi su povezani CF-om, ima 1GB GDDR-a, i to sve funkcionise, ne razumem zasto onoliko padas u vatru, sav se rasplines u svojim komentarima, da li je to dobro sto je ranije najaca kartica kostala 650-700€ kada se pojavila, znaci sada se prvo smiri, otvori prozor, udahni svez vazduh, pa onda kreni da obrazlazes to sto mislis i da odgovaras sa manje galame, a vise argumenata(jer ih do sada nisi imao). PS/Bajati cip koji ti pominjes je izasao pre par meseci, a inace podrzava 10.1 i 4.1, nek je i marketing fora, ali jos ne videsmo iz Nvidie da su izbacili karticu koja podrzava 10.1 i 4.1.

Ako je ta kartica najjaca i kosta 340€, bas briga svakog normalnog i realnog kupca, da li ona ima 1, 2, 3...8 ili pola GPU-a? Kakve to veze ima? Pogotovu sto trenutno nvidia pakuje jedan isti cip u 10 verzija i samo mu menja ime, jel' sada treba da kazu ljudi 'ej batalite vise sa tom istom bajatom robom da je prepakujete kao svercovane cigare.
To je malo smesno, pocece u Nvidia fabrikama, da se zbunjuju radnici pa da mesaju nalepnice na karticama.

Ja pravim galamu :d

Sto lepo ne poceras ovog misterioznog Nedju da objavi podatke o zaveri Cryteka i nVidie.Ko da citam kurir :p

Sam kazes:
Ako je ta kartica najjaca i kosta 340€, bas briga svakog normalnog i realnog kupca, da li ona ima 1, 2, 3...8 ili pola GPU-a? Kakve to veze ima?

A ja bih dodao da koga je briga sta je i kako nvidia nazvala ako to kosta 180$...kupim dve takve i opet prodjem jeftinije a izgleda bolje i radi...ako mi je d*pe zinulo za multi GPU smaranje...a nije :D

Sad ako ovaj GX2 bude kostao koliko se suska, koga je briga?...Vide ljudi racunicu u tome i furaju po svome...ti ne moras kupovati ako neces.Ja sigurno necu.Crysis mi sasvim pristojno radi na kartici od 200 evra, a sve ostale igre da ne pominjem...
Ipak, meni je super zezanje kad naletim na likove koji hvataju druge za gusu urlajuci "EJJJ COVECE!!!KARTICA OD 340 EVRA!!!KUPUJ, OD TOGA BOLJE NEMA!!!"
:wave:
 
Ja pravim galamu :d

Sto lepo ne poceras ovog misterioznog Nedju da objavi podatke o zaveri Cryteka i nVidie.Ko da citam kurir :p

Sam kazes:


A ja bih dodao da koga je briga sta je i kako nvidia nazvala ako to kosta 180$...kupim dve takve i opet prodjem jeftinije a izgleda bolje i radi...ako mi je d*pe zinulo za multi GPU smaranje...a nije :D

Sad ako ovaj GX2 bude kostao koliko se suska, koga je briga?...Vide ljudi racunicu u tome i furaju po svome...ti ne moras kupovati ako neces.Ja sigurno necu.Crysis mi sasvim pristojno radi na kartici od 200 evra, a sve ostale igre da ne pominjem...
Ipak, meni je super zezanje kad naletim na likove koji hvataju druge za gusu urlajuci "EJJJ COVECE!!!KARTICA OD 340 EVRA!!!KUPUJ, OD TOGA BOLJE NEMA!!!"
:wave:

Hehehe, necu ni ja da kupujem, a Krajsis ne igram :D
Moram da priznam da te sada u potpunosti razumem, iz tog ugla gledano imas pravo, znaci dve 8800GT u SLI to stoji, samo naravno nema svako SLI plocu, a nekome je lakse jednu X2 da ubaci. No videcemo sta ce biti sa ovom 9800X2, ako su tacna ona pisanja, bice jedno "duplo golo" sto rece nas ministar :D Salim se, ali ako je tacno to sto pisu onda ce definitivno bolja kombinacija 8800GT SLI ili 8800GTS512 SLI, nego ovu golu azdaju 9800X2, ako izuzmemo HD3870X2, koja je po meni i dalje solidno resenje.
 
Poslednja izmena:
Atijev X2 jeste solidno resenje, i ima bolju cenu u odnosu na nv AoL kartice.Ali jedino sto ja tu vidim jeste jurnjava za markovima.Dakle, napraviti quad-crossfire i prziti 3d markove.
Jedan X2 se kolje sa 8800GTX-om.A tu je negde i ovaj 8800GT u nekim situacijama i rezolucijama.U realnom radu. (a GTS zna da bude i bolji).I tu vidim da taj X2 ne bi smeo da kosta vise...i ovo je skupo za performanse koje pruza.Mislim, bolje je porediti X2 sa trenutno aktuelnom ponudom- 8800GT i GTS.I tu izgleda nije neka epohalna razlika u performansama.
***, neko moje razmisljanje...
A ovaj GX2 je cisto tu da bude kanta za jurenje markova... ko da im je bilo dosadno.Ako pritom i zarade nekog kesa, tim bolje...glavni adut im je trenutno 9600GT, a ovo ko kupi nek mu je alal. :p
 
Poslednja izmena:
Ma, vise nego dovoljna je 8800GTS 512, stvarno dobra kartica nema sta, ovo preko toga je za Zapadnjake, jer dosta njih je naviklo da ima bar dve graficke, pa su jedva docekali ovog Radeona X2, jer ce sada imati 2x2 :D Pa ce tako i da kupuju i 9800X2, ne brini.
 
Poslednja izmena:
Ma, vise nego dovoljna je 8800GTS 512, stvarno dobra kartica nema sta, ovo preko toga je za Zapadnjake, jer dosta njih je naviklo da ima bar dve graficke, pa su jedva docekali ovog Radeona X2, jer ce sada imati 2x2 :D Pa ce tako i da kupuju i 9800X2, ne brini.

Konacno i ti nesto pametno da kazes ! :) Ipak su ti jasne neke stvari nego se malo pravis...
 
Poslednja izmena:
Nisam znao da je za CF potrebno imati sve procese uključene. Mislio sam da je dovoljno imati .NET Framework za CCC i zadržati sve ono što instaliraju drajveri. Mislim, Alerter i Scheduller mu sigurno ne trebaju, zar ne?
Drugo, ja sam se potrudio da sve igre koje mogu, vide CF, baš sam se iscimao, tako da je glupo da vidim takav komentar.

Maxe komentar u opste nije bio licne prirode. Ti si rekao da imas nekih problema po pitanju softvera zbog kojih ti Crysis radi brze na 8800GTS-u nego li na 3870 X2... ja sam ti lepo i argumentovano pokazao da jedini problem koji mozes imati jeste na nivou tvog OS-a, jer u "krizi" je X2 sigurno brza od GTS-a, sto sam i argumentovao odgovarajucim linkovima. Prema tome nista tu nema glupo, a da ti treba da napravis referentnu test platformu, koja ce ti umesto tvoje masine sluziti za testiranja, treba.
 
@Nedjo:

Pa nisam ni postavio nikakvo pitanje ;) :type: Rekao sam da potenciras nekad jedno, nekad drugo, kako ti kad odgovara. Nekad je sve u dx10 i novim tehnologijama, a nekad je "sta je primerenije dx9" , a kad se pricalo zasto to tako, zasto ne podrzavati bolje dx9 bilo je "a zasto bi, dx 10 je buducnost". Sad je odjednom AFR tu zato to je primeren dx9. Nemam ja nista protiv toga, naprotiv, samo komentarisem diskusije...

Pa za razliku od tebe ja se drzim teme! Ako pricamo o multi GPU sistemima u okvirima postojeceg softverskog ekosistema, onda je AFR optimalno resenje za siroku DX9 bazu igara.

Ako pricamo DX9 vs. DX10, ona naravno da tvrdim da je DX10 buducnost koja donosi gomilu tehnologija koje su daleeeko ispred DX9.

Naravno, ti kao dokazani "kontras" i Yooyo kao okoreli GLO-ovac se ne slazete sa tim, ali to je vase pravo i misljenje sa kojim se neki developeri, koji imaju konkretno iskustvo sa razvojem u DX10, prirodno ne slazu!

Prema tome, u zavisnosti od teme, ja koristim odgovarajuce argumente i ne pravim papazjaniju od svake rasprave!
:wave:
 
Nedjo je napisao(la):
Naravno, ti kao dokazani "kontras" i Yooyo kao okoreli GLO-ovac se ne slazete sa tim, ali to je vase pravo i misljenje sa kojim se neki developeri, koji imaju konkretno iskustvo sa razvojem u DX10, prirodno ne slazu!
Nema to veze sa GL-om. Jednostavno AFR koncept je laksi za implementaciju ali daleko od idealnog.

Ova tvoja tvrdnja u vezi DX10 developera je nonsens. Cak ni DX10.1 API nema podrsku za CF/SLI. Sve je to budzenje u driveru i kao takvo nikad nece zavrediti moju paznju.

Sve te price kako je AFR odlican padaju u vodu jer sa povecanjem GPU-ova u sistemu povecava se lag, sto automatski ubija gameplay. Dakle, potrosi gomilu eura za 2x X2 setup pa pogledaj lag u igrama. Lag niko ne benchmarkuje.
 
Poslednja izmena:
Maxe komentar u opste nije bio licne prirode. Ti si rekao da imas nekih problema po pitanju softvera zbog kojih ti Crysis radi brze na 8800GTS-u nego li na 3870 X2... ja sam ti lepo i argumentovano pokazao da jedini problem koji mozes imati jeste na nivou tvog OS-a, jer u "krizi" je X2 sigurno brza od GTS-a, sto sam i argumentovao odgovarajucim linkovima. Prema tome nista tu nema glupo, a da ti treba da napravis referentnu test platformu, koja ce ti umesto tvoje masine sluziti za testiranja, treba.

Pa to i jeste referentna platforma, potpuno drugi hard i ghost se koristi za testiranje u odnosu na onaj koji se inače koristi (i to jako jako malo, pošto sada radim na laptopu). A to da je X2 brži, brži je pod Vistom, pogledaj malo i neke druge testove, pa ćeš videti. Ultra tj. GTS 512, pogotovo ako je malo klokovan, tuče X2 pod XP-om, to je sigurno.
 
koja nemaju veze sa cinjenicama!

Ok, evo malo drugacije;
X2 kosta 350 evra
GTS kosta 270 evra
Razlika u performansama nije tolika da vredi skoro 100 evra razlike u ceni.A tu dolazi i stalno cekanje na drajver.A drajver redovno kasni mesec dana u odnosu na naslov.
Opet kazem ono sto su i drugi rekli- bolje jaci chip na kartici nego dva chipa na jednom pcb/dva chipa na dva pcb/dva chipa na dve kartice...
Ali zato je tu 3DMark koji bukvalno genericki rezultat pomnozi sa brojem jezgara procesora ili broju grafickih.Jos ako je intel u masini, jos i bolje... :p
 
Vrh Dno