Šta je novo?

Nvidia ili Radeon?

asacchi011

Slavan
Učlanjen(a)
02.07.2006
Poruke
43
Poena
304
Bavim se dizajnom, bitan mi je kvalitetan prikaz slike, sad sta je prava stvar?
 
Za kvalitetan prikaz slike (2D) nije potrebna nikakva high-end karta. Mozes kupiti bilo koju low-end ATI jer one vaze za bolje od nVidie sto se kvaliteta prikaza slike tice. Sve u svemu, najjeftinija ATI ce ti odraditi posao.
 
radeon

Medju novijim karticama nema neke razlike, pogotovo ako koristis TFT sa DVI konektorom, medjutim pretpostavljam da ima CRT i tacno je da je najbolje da uzmes neku stariju karticu (preporuka, asus 9550). Ja izmedju asus 9600xt i leadtek 7600gs ne vidim razliku ni u 1600x1200 na mom CRT-u, tj. obe imaju super prikaz.
pozdrav
 
nvidia kvalitetnije odradjuje stvari od ati-a.. posebno opengl... ako ti trebaju zahtevne stvari onda bolje nvidia....

dizajn cega?


ja inace imam doticni asus 9600xt ...
 
Poslednja izmena:
PeraNS je napisao(la):
Za kvalitetan prikaz slike (2D) nije potrebna nikakva high-end karta. Mozes kupiti bilo koju low-end ATI jer one vaze za bolje od nVidie sto se kvaliteta prikaza slike tice. Sve u svemu, najjeftinija ATI ce ti odraditi posao.

Ovo važi ako kupiš karticu koju je u potpunosti napravio ATI (ne samo čipset), a takve je teže naći.

edit:
Naravno, za kvalitet slike ti je MNOOOOGO važniji monitor
 
Poslednja izmena:
genuine je napisao(la):
nvidia kvalitetnije odradjuje stvari od ati-a.. posebno opengl... ako ti trebaju zahtevne stvari onda bolje nvidia....

dizajn cega?


ja inace imam doticni asus 9600xt ...
ne bi se reklo...

dakle, ako je za neki ozbiljan 3d dizajn, zaboravi na nvidia kartice, a ako je u pitanju 2d i flash itd, onda se ati podrazumeva ;)
 
Poslednja izmena:
bile su one tipa G400 i sta vec.. to je valjda prva komercijalna dual karta...

ako ikada budes upalio neki program koji radi sa openGl-om... onda od starijih varijanti je u prednosti Nvidia... a za 2d ne brini.... nemozes primetiti nikakvu razliku sa svim danasnjim kartama od 'brend' proizvodjaca
 
LowRadiation je napisao(la):
ne bi se reklo...

dakle, ako je za neki ozbiljan 3d dizajn, zaboravi na nvidia kartice

Znaci, vecu glupost nisi mogao da izvalish... A eno ti u tom threadu ti je objasnio neke stvari chovek koji se bavi 3d Dizajnom i programiranjem...
 
LowRadiation je napisao(la):
ne bi se reklo...

dakle, ako je za neki ozbiljan 3d dizajn, zaboravi na nvidia kartice, a ako je u pitanju 2d i flash itd, onda se ati podrazumeva ;)

ti imas ozbiljnih problema sa tumacenjem tekstova...reci mi, koliko si kartica u zivotu testirao, promenuo, imao, ugradio ? posto mislim, za 3D dizajn je ATI pokusao, ali samo pokusao da napravi fireGL koji se istopio sam u sebi od silne vrucine neuspeha koje su quadro boardovi jos samo pogorsali. kako mozes da kazes za karte koje je poznato da su bolje za OGL i da imaju kompletnije setove instrukcija, i da to i vrpaci vec pevaju, da je losija za 3D "dizajn" kako ti to nazivas, od ATI-ja ? :wall: :trust:

asacchi011

Prava stvar je KALIBRACIJA monitora, visok refresh rate na monitoru u koji gledas, na bar rezoluciji visoljoj od one koju ces koristiti u radu. I ATI i nVidija ce ti zavrsiti posao, samo nemoj uzimati Eagle marku jer bas one hoce da zakinu na kvalitetu prikaza. Sto se boja tice - tacnost prikaza zavisi od ? Pogadjas, kalibracije. Imas mnogo progrmaa i nacina kalibracije, cak i skupih alatki i usluga, ali praksa i oko su nezamenljivi faktor. Ako oces jeftino, probaj ti4200 ili radeon 9000 PRO, AKO uspes da pronadjes uzmi 3dfx voodoo 3 2000/3000 svjedno_Od novijih, neces pogresiti ni sa jednom (kalibracija !!!!! ) samo da nije neka najgora i najsakatija varijanta. MONITOR je EKSTRA bitan i zapravo je NAJBITNIJI u celoj prici.
 
Poslednja izmena:
Typhoon.X je napisao(la):
Znaci, vecu glupost nisi mogao da izvalish... A eno ti u tom threadu ti je objasnio neke stvari chovek koji se bavi 3d Dizajnom i programiranjem...
znaci, to tek treba pokazati. sa jedne strane rec faruda, sa druge strane rec nekoga sa foruma, pri cemu je ovaj drugi objasnio manje od prvog, a ja treba da mu verujem?
 
gx-x je napisao(la):
ti imas ozbiljnih problema sa tumacenjem tekstova...reci mi, koliko si kartica u zivotu testirao, promenuo, imao, ugradio ? posto mislim, za 3D dizajn je ATI pokusao, ali samo pokusao da napravi fireGL koji se istopio sam u sebi od silne vrucine neuspeha koje su quadro boardovi jos samo pogorsali. kako mozes da kazes za karte koje je poznato da su bolje za OGL i da imaju kompletnije setove instrukcija, i da to i vrpaci vec pevaju, da je losija za 3D "dizajn" kako ti to nazivas, od ATI-ja ? :wall: :trust:
testirao sam 0 (nula) kartica u zivotu. a zasto bih, kada postoje placeni za to.

pa kazi mi, kome bi trebalo da verujem - tebi koji si testirao tri ili trideset kartica, ili fuadu koji je testirao ipak 'malo vise' od tebe, kada smo vec kod broja test voznji? ja i ne kazem da tvrdim iz sopstvenog iskustva, ali ako je fuadova prica istinita, tvrdim da se radi o teskom bezobrazluku. ko dizajnira bilo sta - razumece.

sta si uopste hteo da postignes firegl-pricom: posto se firegl pokazao kao kanta, takav glas ga i prati. problem je to sto se nvidia izdaje za nesto sto nije, a ne to sto firegl nije uspeo da postigne ono sto je zeleo. dakle, ako nvidia interno svodi 32-bitni spektar na 16 bita u sejderima da bi se pokazala kao brza, to treba i reci jer, npr. asacchiju bi moglo predstavljati problem da 32bitne teksture prilikom dizajniranja vidi kao 16bitne, a da toga nije ni svestan, jer ne ocekuje da ga proizvodjac graficke karte laze u specifikacijama.
 
Poslednja izmena:
gx-x je u pravu kada kaze da je monitor najbitnija stavka u celoj prici o kvalitetu prikaza slike. Ja sam imao prilike da promenim mnogo kartica do sada (od diamond stealtha neke '97 pa do 7600GS) i moram priznati da su sve manje-vise imale isti kvalitet prikaza. Medjutim, mnogo puta sam procitao u nasim casopisima kako su ATI kartice najbolje po pitanju kvaliteta samog prikaza. Imao sam 9800LE i X800 ali priznajem da nisam primetio razliku u kvaitetu izmedju te dve i nVidia kartica.
 
LowRadiation je napisao(la):
znaci, to tek treba pokazati. sa jedne strane rec faruda, sa druge strane rec nekoga sa foruma, pri cemu je ovaj drugi objasnio manje od prvog, a ja treba da mu verujem?

Kakav si ti lik :D Pa doticni clan ovog foruma nema nishta od toga shto ce braniti nVidiu i hvaliti ATI-a ili obrnuto, a Fuad (s obzirom da je poznati novinar) ima itekako shta da dobije od toga shto ce pljuvati nekoga... I kao drugo, yoyoo ti je lepo rekao da koristi efekte na nVidiji koji prakticno ne bi bili moguci bez 32bit Shader precision ;)

Source Beyond3D :

If you want to do normal mapping, parallax mapping and water reflection/refraction, your Shader requires 32 bit precision.

Samo iz ovog boldovanog dela se moze videti da je fuad lupio gloopost...

P.S. : A i ja iskreno u ovakvim dilemema vishe verujem choveku koji programira GPU-ove nego novinaru :p
 
Poslednja izmena:
LowRadiation je napisao(la):
testirao sam 0 (nula) kartica u zivotu. a zasto bih, kada postoje placeni za to.

pa kazi mi, kome bi trebalo da verujem - tebi koji si testirao tri ili trideset kartica, ili fuadu koji je testirao ipak 'malo vise' od tebe, kada smo vec kod broja test voznji? ja i ne kazem da tvrdim iz sopstvenog iskustva, ali ako je fuadova prica istinita, tvrdim da se radi o teskom bezobrazluku. ko dizajnira bilo sta - razumece.

sta si uopste hteo da postignes firegl-pricom: posto se firegl pokazao kao kanta, takav glas ga i prati. problem je to sto se nvidia izdaje za nesto sto nije, a ne to sto firegl nije uspeo da postigne ono sto je zeleo. dakle, ako nvidia interno svodi 32-bitni spektar na 16 bita u sejderima da bi se pokazala kao brza, to treba i reci jer, npr. asacchiju bi moglo predstavljati problem da 32bitne teksture prilikom dizajniranja vidi kao 16bitne, a da toga nije ni svestan, jer ne ocekuje da ga proizvodjac graficke karte laze u specifikacijama.

ti si nevorovatan :)

PRVO: vec sam ti rekao u onom drugom postu : u pitanju je floatin point precission koji je bio forsovan na 16-bit (ne boja, vec 16-bit FPP) i to samo u nekim segmentima gde su smatrali da je nepotrebno imati 24bit, kolko je ATI tada imao

DRUGO: To vazi ISKLJUCIVO za 3D IGRE, nema veze sa desktop aplikacijama, photoshopom, corel draw-om, ilistratorom, LightWave-om, 3DS MAX-om itd itd.

TRECE: 3D RENDER output radi PROCESOR, a ne graficka karta (pricamo o kliktanju na dugme render u lightwave-u ili 3dsmax-u)

cetvrto: veruj kome oces, kako oces. Ali da je cela stvar prepumpana od strane nekih ljudi koji favorizuju ATI i iz samog ATI-ja pokazuje cinjenica da nVidija nije ostala praznih dzepova, i veliki broj slika sa poredjenjem kvaaliteta gde je nvidia sa FPP 16 imala istu ili za nijansu losiji prikaz od ATI-ja, a beneficiju veceg framerate-a, sto je na kraju gamerima bilo i najbitnije. Oni koji nisu hteli 16bit FPP mogli su lako u recimo rivatuneru da forsuju 24bit i mirna Backa, dakle to je bilo na nivou DRAJVERA, a ne samog hardwera, zato ti je yoyo i rekao da se manis raznoraznih naklapanja.
 
gx-x je napisao(la):
ti si nevorovatan :)

PRVO: vec sam ti rekao u onom drugom postu : u pitanju je floatin point precission koji je bio forsovan na 16-bit (ne boja, vec 16-bit FPP) i to samo u nekim segmentima gde su smatrali da je nepotrebno imati 24bit, kolko je ATI tada imao
prvo cu da shvatim kao kompliment :p

fuad (recimo, Typhoon.X ga naziva poznatim novinarem) implicitno tvrdi da se ne radi o povremenom forsiranom svodjenju na 16bitnu paletu, vec da nvidia uopste ne moze da koristi 24/32-bit spektar kod px-shadinga, pa inpute automatski svodi na 16bita kako bi mogla da ih obradi. to ne treba brkati sa atijevom varijabilnom 24/32 bit paletom, jer to ne odskace iz directx9 specifikacije, zar ne, niti ati igde tvrdi da ne pribegava svodjenju. uostalom, dovoljno je videti podesavanja za drajvere pa da ti bude jasno da ati ne laze oko toga; nije da bas reklamira, ali nije bas ni da krije.

DRUGO: To vazi ISKLJUCIVO za 3D IGRE, nema veze sa desktop aplikacijama, photoshopom, corel draw-om, ilistratorom, LightWave-om, 3DS MAX-om itd itd.
to vazi za sve gde se pixel shading primenjuje, pa i za aplikacije iz 'domace radinosti'. ne osporavam da su igre najveci rabioci p-shadera, medjutim, ako je fuad u pravu, to ne menja sustinu, tj. da je nvidia svesno lagala (potencijalne) kupce.

TRECE: 3D RENDER output radi PROCESOR, a ne graficka karta (pricamo o kliktanju na dugme render u lightwave-u ili 3dsmax-u)
ali ga vizuelno reprodukuje graficka kartica, a to je ono sto dizajnera jedino i zanima.

cetvrto: veruj kome oces, kako oces. Ali da je cela stvar prepumpana od strane nekih ljudi koji favorizuju ATI i iz samog ATI-ja pokazuje cinjenica da nVidija nije ostala praznih dzepova, i veliki broj slika sa poredjenjem kvaaliteta gde je nvidia sa FPP 16 imala istu ili za nijansu losiji prikaz od ATI-ja, a beneficiju veceg framerate-a, sto je na kraju gamerima bilo i najbitnije. Oni koji nisu hteli 16bit FPP mogli su lako u recimo rivatuneru da forsuju 24bit i mirna Backa, dakle to je bilo na nivou DRAJVERA, a ne samog hardwera, zato ti je yoyo i rekao da se manis raznoraznih naklapanja.
znas sta, ovo je verovatno najtvrdji dokaz protiv fauda, tj. zar je trebalo toliko dugo da se otkrije ova prevara (ako je uopste prica o tome istina). sa druge strane, vizuelno primetiti razliku izmedju 16 i 32 bitne palete uopste nije lako, narocito ne u igricama. uopste, nije u tome problem, nego je problem u tome sto nvidia prodaje muda za bubrege -> sve pod uslovom da je fuadova prica istinita.

posto je spomenuti fuad rekao da ce uskoro okaciti razlike, ostaje nam da sacekamo, sve dok neko drugi ne iznese druge dokaze, mozda i sa ovog foruma...

edit: a sto se tice koga placa koji tabor -- to nije protivurecno: npr. moze mene ati da placa da navijam za njih, ali me isto tako to ne moze spreciti da nesto otkrijem ako otkrijem. npr., fuad rizikuje gadno ako se ispostavi da je lagao, jer nvidia moze da ga razbuca na sudu i veze u lance sledecih 500 godina, u najmanju ruku.
 
Poslednja izmena:
aman za aman :D NIJE PALETA VEC PRECIZNOST !!! majku mu... :p Zivim i radim i skolovan sam za dizajn i DTP, godinama se bavim time i lepo ti kazem - 32bit je 32bit u programima za "dizajn" na obe kartice FPP tu nema ama bas nikakve veze, samo unosis konfuziju u ovaj topik.
 
da vidim da li se razumemo: dakle, nije u pitanju boja, vec dinamicka preciznost -- ali, kako se ona izmedju ostalog izrazava nego nijansiranjem piksela u odnosu na izvor svetla!? prevedeno: fuad kaze da je na nvidiji nemoguce dobiti pixel-shader izlaz koji se sastoji od punog 32-bitnog spektra nijansi, te da se to [potpuno logicno] odrazava na izgled teksture koju shader obrazuje (od toga pocinje tekst). naravno da, ako ne postoji 24/32bitna preciznost floating pointa, da se on ne moze 24/32 bitno nijansirati. gde gresim?
 
A sta reci da je ceo taj Rydermark benchmark "buducnosti" cista izmisljotina (dok se ne dokaze suprotno) uradjen od strane "anonimnih" developera i da je citava ona slika obicna montaza koja prikazuje razlike izmedju nV i ATI GPU-a, sastavljena od nekoliko 2D isecaka i spojena u jednu celinu kroz fotosop i opet naknadno doradjena sa sharp/bloor alatom kroz fotosop, nimalo se ne bih iznenadio da Fuad laze. ,)
Ako je vec hteo nesto da dokaze i nama prosvetli put, trebao je da svoju pricu potkrepi validnijim dokazima.
Ovako ostajem mi da budem :sceptic: u njegovu pricu ili poentu na koju je hteo da skrene paznju, sta vise, da ne verujem ni u jednu rec.
 
Nazad
Vrh Dno