Šta je novo?

NV30 ima 4 Pipelinea????????????????????

byMaX

Znamenit
VIP član
Učlanjen(a)
10.01.2001
Poruke
12,148
Poena
1,019
http://www.theinquirer.net/?article=7920

Geforce FX is 4 Pipelines and 2 TMUs

Exclusive Not 8x 1 as previously suggested

By Fuad Abazovic: Friday 21 February 2003, 19:07


IN A MARATHON INVESTIGATION that The Inquirer launched a couple of days ago, we have some solid stuff to present to you. From the time when Nvidia first questioned the validity of 3DMark03 and its single texturing as a method of rendering that is rarely used in games we knew that somthing was rotten in Denmark, sorry, Santa Clara.
An Nvidia technical marketing manager confirmed to us that Geforce FX has 4 Pipelines and 2 Texture Memory Units that can results with 8 textures per clock but only in multitexturing.

However, Nvidia did say that there were some cases where its chip can turn out 8 pixels per clock. Here is a quote:

"GeForce FX 5800 and 5800 Ultra run at 8 pixels per clock for all of the following:
a) z-rendering
b) stencil operations
c) texture operations
d) shader operations"

and

"Only color+Z rendering is done at 4 pixels per clock"

We talked with many developers and they said me that all games these days use Color + Z rendering. So all this Nvidia talk about the possibility of rendering 8 pixels in special cases becomes irrelevant.

The bottom line is that when it comes to Color + Z rendering, the GeForce FX is only half as powerful as the older Radeon 9700.

After further investigation, we learned that many games including Unreal Tournament 2003 use both single and multitexturing. In any cases where you don't need multitexturing and can make your scene with single texturing you want to do that as every bit of bandwidth you can save really counts. You don't want to lose your bandwidth just to make one graphics company happy.

We can assure you that this is just the start. We have more to present to you in the next few days. µ
 
Izgleda mnogo toga Nvidia krije...GFX je nezavrseni produkt, na brzaka sastavljen.
 
Da, ja prosto nemam komentara na ovo... :( mada su sada stvari dosta jasnije...
 
Sada je jasna relativna nemoc koju je FX pokazala, drugim recima dobro se nosi sa slabijom arhitekturom!
 
Da, njega bi ustvari trebalo porediti sa Radeonom 9500, mada opet, nV30 ima dve TMU jedinice po pipeline-u...

Ma.... :rocket:


:( :( :( :(
 
Ma ne bih se ja zalio da mi daju jednog takvog krsa kao sto je FX:D
 
E ja jeste da preferiram ATi i sve to ali bre meni taj FX koliko vidim jedino sto dobro radi jeste da glumi glavnu ulogu u filmu "Ismevanje do 101 i nazad" a rezira ga CITAV SVET!

Kako su ga reklamirali mislilo se da ce taj FX da bude strah i trepet, kad ono "tresla se gora, rodio se mis" Svi ti njegovi pipeline-ovi i mtu-ovi i cuda su na papiru strava, a realno su kao NLO, svi znaju da postoje, a niko ih nikad video nije! E tako!

Sto se tice Nvidia-e po meni su oni odsvirali svoje..

Pozdrav..
 
3 marta ce biti preorder za Radeon 9800Pro (r350). Posto zivim u USA, obavjestavacu vas detaljnije, pa ako se domognem r350 preko jednog prijatelja koji mi je nabavio radeon 9700Pro na pola mjeseca prije no sto je izasao u store, saljem slike...
 
Freak_Power je napisao(la):
3 marta ce biti preorder za Radeon 9800Pro (r350). Posto zivim u USA, obavjestavacu vas detaljnije, pa ako se domognem r350 preko jednog prijatelja koji mi je nabavio radeon 9700Pro na pola mjeseca prije no sto je izasao u store, saljem slike...
Da te pitam nesto, slucajno sam primetio neki od tvoih ranijih postova i moram da te pitam , da li tebe Placa ATI-jev "odsek" za propagandu ili samo patoloski nepodnosis Nvidi-u? Mislim zasto u Thread-u u kome se ne pominje r350 postujes ovaj pamflet o preorder-u i sl.
 
Z L I je napisao(la):
Da te pitam nesto, slucajno sam primetio neki od tvoih ranijih postova i moram da te pitam , da li tebe Placa ATI-jev "odsek" za propagandu ili samo patoloski nepodnosis Nvidi-u? Mislim zasto u Thread-u u kome se ne pominje r350 postujes ovaj pamflet o preorder-u i sl.


Da te pitam nesto, slucajno sam primetio neki od tvojih ranijih postova i moram da te pitam , da li tebe placa N'Vidia "odsek" za propagandu ili samo patoloski ne podnosis ATI-ja? Mislim zasto u Thread-u u kome se pominje prevara N'Vidia-e postujes ovaj pamflet i sl.

:D
 
Ja sam dao svoje misljenje o Nvidiji i bilo bi previse ako bi ponavljao vec receno.....
Nisam ja patoloski vezan ni za sta, nego govorim onako kako jeste, cinjenice.
 
byMaX je napisao(la):
Da, ja prosto nemam komentara na ovo... :( mada su sada stvari dosta jasnije...
Jedinoi sto je jeasno, moj prijatelju, jeste da je sve relativno!
FX moz' da ima 8X1, a moz da ima i 4X2 arhitekturu! Sto je fenomenalna stvar, koja je moguca zahvaljujuci netradicionalnom pristupu u dizajniranju pipelinea koji se zapravo sastoji od 32 programabilne jedinice!
Kada se ova stvar optimizuje i kroz drajvere 'otkrije' kako treba, imacemo jedan veoma mocan i visenamenski GPU!!!
Sve u svemu, ako se stvari posmatraju iz odredjenog ugla GFFX jeste 8X1 cip, ali je i 4X2 cip, zavisi kako kad!
 
Nedjo je napisao(la):
Jedinoi sto je jeasno, moj prijatelju, jeste da je sve relativno!
FX moz' da ima 8X1, a moz da ima i 4X2 arhitekturu! Sto je fenomenalna stvar, koja je moguca zahvaljujuci netradicionalnom pristupu u dizajniranju pipelinea koji se zapravo sastoji od 32 programabilne jedinice!
Kada se ova stvar optimizuje i kroz drajvere 'otkrije' kako treba, imacemo jedan veoma mocan i visenamenski GPU!!!
Sve u svemu, ako se stvari posmatraju iz odredjenog ugla GFFX jeste 8X1 cip, ali je i 4X2 cip, zavisi kako kad!

Ne mozes tako relativizovati sve :) Oni su rekli 8pipes x 1TMU, a ako je u pitanju 4pipes x 2TMU's - to je laz. Da li treba sada menjati kod vecine igara u razvoju zbog nV30 ili ih pustiti da bolje rade na Radeon 9700. Ok, mnoge igre imaju dosta scena sa visestrukim teksturama, i tu ce nv30 biti u blagoj prednosti . Ono sto me je iznenadilo - jeste cinjenica da su prvo, jednom davno rekli da ce nv30 imati 4 pipelinea, potpuno programabilna, bez pominjanja TMU jedinica po pipe-u, a onda , kada je R300 izasao, odjednom su i oni imali 8 pipelinea...! To nije u redu. Zbog cega je nV30, po tebi, visenamenski u vecoj meri od R300? Zar ATI nije furao (ranije) manji broj pipeline-a sa vise TMU jedinica (prvi radeon, ako se ne varam). I R200 je bio takav, a onda su shvatili da je bolje ici na 8x1. Sada je nVidia uradila suprotnu stvar.... ???? Ja ustvari mislim da je 30% tranzistora u nV30 otislo zbog dodatnih slojeva da bi se postigle visoke ucestanosti. Nije on nista slozeniji od R300! Vise tranzistora odlazi na jedan pipeline, nego na dodatnu TMU jedinicu, pa je onda pitanje gde je utroseno toliko tranzistora kod nV30!? Zapravo, da li ih toliko i ima? Sada sam postao skeptik... BTW, ovo su misljenja i mnogih sa beyond3d foruma! Rage3D forum bolje i ne citajte :)
 
byMaX je napisao(la):
Ne mozes tako relativizovati sve :) Oni su rekli 8pipes x 1TMU, a ako je u pitanju 4pipes x 2TMU's - to je laz. Da li treba sada menjati kod vecine igara u razvoju zbog nV30 ili ih pustiti da bolje rade na Radeon 9700. Ok, mnoge igre imaju dosta scena sa visestrukim teksturama, i tu ce nv30 biti u blagoj prednosti . Ono sto me je iznenadilo - jeste cinjenica da su prvo, jednom davno rekli da ce nv30 imati 4 pipelinea, potpuno programabilna, bez pominjanja TMU jedinica po pipe-u, a onda , kada je R300 izasao, odjednom su i oni imali 8 pipelinea...! To nije u redu. Zbog cega je nV30, po tebi, visenamenski u vecoj meri od R300? Zar ATI nije furao (ranije) manji broj pipeline-a sa vise TMU jedinica (prvi radeon, ako se ne varam). I R200 je bio takav, a onda su shvatili da je bolje ici na 8x1. Sada je nVidia uradila suprotnu stvar.... ???? Ja ustvari mislim da je 30% tranzistora u nV30 otislo zbog dodatnih slojeva da bi se postigle visoke ucestanosti. Nije on nista slozeniji od R300! Vise tranzistora odlazi na jedan pipeline, nego na dodatnu TMU jedinicu, pa je onda pitanje gde je utroseno toliko tranzistora kod nV30!? Zapravo, da li ih toliko i ima? Sada sam postao skeptik... BTW, ovo su misljenja i mnogih sa beyond3d foruma! Rage3D forum bolje i ne citajte :)

Nisu oni rekli nista!
Upravo iz razloga marketinske promocije cipa, trudili su se da na pitanja o pipeline arhitekturi, daju najblaze receno diplomatske odgovore. Zamisli samo da su izasli u javnost sa specifikacijama 4X2, pa to bi u startu pokopalo GFFX- koji se ionako rodio u inkubatoru. A s druge strane, edukacija trzista da je FX istovremeno i 8x1 i 4x2 akcelerator u zavisnosti od konkretne primene, bi samo dodatno zakomplikovala promociju cipa (nVidija je ionako sve svoje cipove promovisala kroz kampanje u kojima su dominirale gomile suprlativa koje su na najkraci mogu cinac i cesto uz preterivanje isticali najznacajnije karakteristike GPU-ova.
Niko nikakav kod u igrama nece menjati tako da se prilagodjava bilo cemu. GFFX je dizajniran na taj nacin da se prilagodi igrama. Jedini problem je u tome sto optimizacija nije odradjena kako treba. nVidiaj je precenila raspolozenost programera da stave tezise na multiteksturiranje. Cak i UT2K3 gde god moze koristi SingleTexturing, sto i ne ide na ruku FX-u koji u slucaju "Color+Z renderinga" ne ide na ruku nVidijing akcelratora.
Citava poenta je u drajveru, za koji je i JC rekao da je veoma sofisticiran i zahteva pazljiv prilaz u programiranju i optimizaciji, ukoliko nVidija napravi dobro optimizovane Detonatore za NV30, imacemo mnogo brzi GPU.
Max, niko nije spominjao R300. Ocigledno nisi pazljivo citao moj post. NV30 nema klasicne pipelineove!!! On nema ni klasicen VertexShader jedinice. Cip je daleko programabilniji nego sto to sadasnji drajveri otkrivaju, po stepenu programabilnosti mnogo je blizi 3DLabsovom P10 VPU-u nego li R300-tki. Ovo je uradjeno s razlogom (pa nisu mutavi likovi koji rade u nVidiji). osnovni razlog je primena u filmskoj industriji. Pa da li si/te znali da je ILM prilagodio programski jezik u kom rade svoje FX-ove (derivat Rendermana) i svoj 3D API (derivat OGL-a) za rad na GFFX-u!
Max, 30% vise tranzistora za dodatne slojeve! Brzo edituj ovo i izbrisi!!!
Sve u svemu iza arhitekture GFFX-a stoji odlicna ideja, ali ocajna realizacija. Mislim da je nVidija zbrzala finalizaciju cipa i aktuelne drajvere koji ga podrzavaju! Mislim da su skontali da sad ne vredi mnogo plakati za promasajima vec se zestoko skoncentrisati na NV40. Dobro je da je nVidija platila cenu svoje, rekao bih, uobrazenosti i oholosti, no daleko od toga da su rekli poslednju rec.
Poz
:wave;
 
Nedjo je napisao(la):
Niko nikakav kod u igrama nece menjati tako da se prilagodjava bilo cemu. GFFX je dizajniran na taj nacin da se prilagodi igrama. Jedini problem je u tome sto optimizacija nije odradjena kako treba. nVidiaj je precenila raspolozenost programera da stave tezise na multiteksturiranje. Cak i UT2K3 gde god moze koristi SingleTexturing, sto i ne ide na ruku FX-u koji u slucaju "Color+Z renderinga" ne ide na ruku nVidijing akcelratora.
Citava poenta je u drajveru, za koji je i JC rekao da je veoma sofisticiran i zahteva pazljiv prilaz u programiranju i optimizaciji, ukoliko nVidija napravi dobro optimizovane Detonatore za NV30, imacemo mnogo brzi GPU.
Max, niko nije spominjao R300. Ocigledno nisi pazljivo citao moj post. NV30 nema klasicne pipelineove!!! On nema ni klasicen VertexShader jedinice. Cip je daleko programabilniji nego sto to sadasnji drajveri otkrivaju, po stepenu programabilnosti mnogo je blizi 3DLabsovom P10 VPU-u nego li R300-tki. Ovo je uradjeno s razlogom (pa nisu mutavi likovi koji rade u nVidiji). osnovni razlog je primena u filmskoj industriji. Pa da li si/te znali da je ILM prilagodio programski jezik u kom rade svoje FX-ove (derivat Rendermana) i svoj 3D API (derivat OGL-a) za rad na GFFX-u!
Max, 30% vise tranzistora za dodatne slojeve! Brzo edituj ovo i izbrisi!!!
Sve u svemu iza arhitekture GFFX-a stoji odlicna ideja, ali ocajna realizacija. Mislim da je nVidija zbrzala finalizaciju cipa i aktuelne drajvere koji ga podrzavaju! Mislim da su skontali da sad ne vredi mnogo plakati za promasajima vec se zestoko skoncentrisati na NV40. Dobro je da je nVidija platila cenu svoje, rekao bih, uobrazenosti i oholosti, no daleko od toga da su rekli poslednju rec.
Poz
:wave;

Cekaj cekaj, jel ti ovo pricas napamet ili sta? Odakle ti sad informacije da ce se GFFX upotrebljavati u filmskoj industriji? To sto neko na nekom sajtu napise, vecinu puta nema mnogo veze sa stvarnoscu... vec je vise tipa rekla-kazala. Ako nV30 i hoce, onda ce to biti na nekoj QuadroGL kartici, koja vec dere ATI-jeva X1/FireGL resenja... Ne znam otkud ti sada da branis nVidiu kada je apsolutno svi, pa i (nas bog) JC, pljuju, manje ili vise...? Apsolutno nigde nije naveo da ce GFFX biti bolji u Doom-u negoli R300 ili R350... Optimizacija drajvera ne moze da nadoknadi hardverski nedostatak. Oni jednostavno nisu mogli na vreme da izmene cip i stave 8x1, vec su se zadrzali na 4x2, a doradjivali cip upravo zato da bi podneo visoke frekvencije i to nisu najbolje odradili. Citas li ti strane forume ? (ne kazem da su likovi i tamo stalno u pravu, ali) Upravo tamo se na mnogo mesta moze videti da nv18 ima oko 45000 tranzistora vise od nv17! Da li se secas koliko se nV18 bolje klokuje od nV17! I T-Bred B ima par desetina hiljada (ako se ne varam) tranzistora vise od T-Breda A, i samo zato se bolje klokuje! Tako da, ono sto sam rekao za dodavanje tranzistora, ima tezinu *mozda sam preterao sa procentom*
Sa ostalim delom, vidjenjem se slazem...! Odlicna namera a losa realizacija... I ovo oko drajvera... Video si, mozda, tekst na TomsHardware-u, o 3DMarku, buni nVidije i ostalim stvarima... tamo ima jedna tabela. GFFX sa 42.28 drajverima je dao oko 3200 poena, a sa 42.68 - 5400, i presisao Radeon 9700Pro. Dakle, radi se bas o optimizaciji, odnosno to je pokazatelj da je GPU mnogo programabilniji i fleksibilniji, te se i preko drajvera moze promeniti mnogo toga... Ipak, porast performansi za 60-70% nije mali!

pozdrav
 
byMaX je napisao(la):
Cekaj cekaj, jel ti ovo pricas napamet ili sta? Odakle ti sad informacije da ce se GFFX upotrebljavati u filmskoj industriji? To sto neko na nekom sajtu napise, vecinu puta nema mnogo veze sa stvarnoscu... vec je vise tipa rekla-kazala. Ako nV30 i hoce, onda ce to biti na nekoj QuadroGL kartici, koja vec dere ATI-jeva X1/FireGL resenja... Ne znam otkud ti sada da branis nVidiu kada je apsolutno svi, pa i (nas bog) JC, pljuju, manje ili vise...? Apsolutno nigde nije naveo da ce GFFX biti bolji u Doom-u negoli R300 ili R350... Optimizacija drajvera ne moze da nadoknadi hardverski nedostatak. Oni jednostavno nisu mogli na vreme da izmene cip i stave 8x1, vec su se zadrzali na 4x2, a doradjivali cip upravo zato da bi podneo visoke frekvencije i to nisu najbolje odradili.pozdrav
Naravno da ne pricam napamet! Vest o saradnji ILM-a i "vidije" je stara oko mesec dana:
"A cornerstone of NVIDIA's effort in film production is to work with industry leaders such as Industrial Light & Magic to develop effective standards that will ensure continued innovation in the field. One of our most recent initiatives has been to collaborate with ILM on the OpenEXR specification (which was recently released to the open-source community) to ensure that it would be compatible with NVIDIA's Quadro FX and GeForce FX GPUs. OpenEXR is a high-precision, 16-bit, floating-point file format currently used in production on many high-profile films such as Harry Potter and the Sorcerer's Stone, Men in Black II, Gangs of New York, and Signs.
ili:
Andrew Hendrickson, senior technical officer at ILM, said Cg gives more flexibility in coding the tools needed to make these movies than OpenGL. "Having something like Cg would be useful to us in that it would allow us to make things of much higher complexity in hardware. Cg may take the place for us of what a lot of OpenGL does."
Ima toga jos, samo me mrzi sad sve da navodim...
Elem, Max nebranim ja nikoga, niti navijam za nekoga (to bi trebao da radi svaki objektivni hardverski zurnalista, zar ne?)
QuadroFX i GeForceFX su konceptualno identicne kartice na hardverskom nivou te ne pravim razliku izmedju njih kada kazem da ce se NV30-35 koristiti u filmskoj industriji (nVidija je odavno vlasnik jedne programeske kuce koja je usko saradjivala sa Pixarom na izradi svih njihovih crtaca, cisto da dodam sa strane).
GFFX ce biti bolja ili bolje receno brza u dumu kada se koristi NV30 optimizacija, koju je JC ubacio u D3 engine! Covek je to eksplicitno naveo. NV30 ce bti sporiji od R300 jedino u ARB2 (OpenGL 2.0) modu kada Radeon9700 koristi 24bitnu pixel preciznost, a GFFX 32bitnu (doterivanjem OpenGL 2.0 drajvera, nVidija ce naterati FX da radi sa 16bitnom preciznoscu, sto ce rezultovati nesto losijim kvalitetom prikaza, doduse jako tesko uocljivim (obratiti paznju da ovde nije rec o 16bitnim i 32bitnim paletama), a dosta vecim performansama.
na kraju, nikako ne uspevas da uhvatis poentu koju pokusavam da istakne! Ne mozes na GFFX arhitekturu da gledas kroz vec ustaljene sablone i da pises nesto poput: "Oni jednostavno nisu mogli na vreme da izmene cip i stave 8x1, vec su se zadrzali na 4x2, a doradjivali cip upravo zato da bi podneo visoke frekvencije i to nisu najbolje odradili." To je max, spekulacija i to veoma netacna! Oni od pocetka nisu projektovali FX kao tradicionalni GPU sa unapred poznatim rasporedom pipelineova. Jos jednom ponavljam FX poseduje 32 programabilne jedinice koje u zavisnosti od potrebe i zahteva koje im uputi aplikacija, odnosno drajver, mogu da "glume" 8X1, odnosno 4X2 pajplajn strukturu! E, sad to sto ti "zahtevi" moraju da postuju odredjena pravila i ogranice ni su na odredjen nacin je sasvim druga prica! FX poseduje enorman potencijal, koji ce biti iskazan tek sa NV35. I da ne bude opet nekakvih nedoumica: ne navijam ja za nikoga i veoma sam svestan na cega sad lici GFFX (pogotovo u svetlu najnovijih suskanja da je Ultra u potpunosti otpala kao solucija za masovno trziste, a da je "obican" 5800 odlozen za mesec-dva zbog revizije PCB-a). ovde je rec o tehnologiji, a tehnologija ugradjena u FX je definitivno nesto novo, ali na zalost veoma lose realizovano.
 
Nedjo dobri si se zeznuo u racunici....NV30 nema nista veci potencijal nego sto ima r300. Kao drugo rendanje pixel shadera na NV30 je jadno u poredjenju sa Ati chipom. Ati ima daleko bolju da kazem arhitekturu za takve stvari. Druga losa stvar je 128bit magistrala sto ce reci, nema tih drivera itd koji ce da nadoknade 16gb/s mem/s. Prica o kompresiji je b.s opet Ati ima i bolju kompresiju.

Spusti core samo core clock speed na 325Mhz kao sto je na Ati karticu.
Vidjeces koliko je nv30 chip smece.....u poredjenju sa Ati.
 
Freak_Power je napisao(la):
Nedjo dobri si se zeznuo u racunici....NV30 nema nista veci potencijal nego sto ima r300. Kao drugo rendanje pixel shadera na NV30 je jadno u poredjenju sa Ati chipom. Ati ima daleko bolju da kazem arhitekturu za takve stvari. Druga losa stvar je 128bit magistrala sto ce reci, nema tih drivera itd koji ce da nadoknade 16gb/s mem/s. Prica o kompresiji je b.s opet Ati ima i bolju kompresiju.

Spusti core samo core clock speed na 325Mhz kao sto je na Ati karticu.
Vidjeces koliko je nv30 chip smece.....u poredjenju sa Ati.

Ti si totalno promasio temu... ctp;
 
Elem, Nedjo, da te ne kvotujem. Ne kazem ja da nisam procitao sve te price oko arhitekture nV30 i nV35... ali ti si u sve to poverovao. Moras malo kriticki gledati na stvari. Pricalo se da ce R300 u stilu vec prikazanog RenderMonkey-a dobiti drajvere za popularne 3D aplikacije *3DS, Lightwave i sl. a od toga se nista nije desilo!
nV25 je programabilan, R300 je revolucionarno programabilniji, a nV30 jos vise? Procitao sam cak i tvrdnje da je nV30 arhitektura i DX10 kompatibilna! Oni nekad ne znaju sta da pricaju... JC je rekao bas to, da ce ATI-jev OpenGL ICD biti lepsi, a u slucaju da oba rade sa 16-bitnom pixel preciznoscu, ATI je brzi, iako on i dalje smatra da je nVidia-in OGL2.0 drajver (koji je on verovatno dobio u nekoj beta fazi) daleko bolji od ATI-jevog. Sta da radimo sa D3D-om...? Jedan je DOOMIII, a gde su Unreal 2 (i nadogradnje), gde su Codecreatures i 3DMark engine-i? (ili oni iz one igre na koju se svi lozimo, koja ima onu nenadjebivu travu i sve ono)? Kazes da je spekulacija to sto ja pricam. I sada da radim na nekom sajtu tipa X-Bit, i napisem tu spekulaciju u vestima, prenesu je na 16 sajtova - i Nedjo bi imao drugacije misljenje! Nemoj tako, malo daj info o onome kako ti gledas na stvari, a ne rezime onoga sto si citao. NVidiji sigurno ne bi smetalo osam pipelinea... ! A sve ovo sto sada citas je, bar je tako moje misljenje, marketing i samo marketing. Koliko dugo vec pricaju o Cg-u ? Gde je konkretan rezultat toga? Sve je ostalo na PDF-u! Ipak, u svemu sto pricas vidim mnogo toga sto je realno, makar trenutno i gledano kroz prizmu skepse. nV30 je odlicna osnova za nadogradnju, kao sto je GF256 bio za GTS. Setimo se, za T&L se u pocetku pricalo svasta, posebno od strane 3DFx-a... kako nije potreban i slicno, pa je nVidia isterala svoje, i sada je taj T&L izrastao u Vertex Shadere, a rendering podsistem u Pixel Shadere. U svakom slucaju, misljenja nam se u dosta toga poklapaju, a u nekim stvarima ne... videcemo sta ce od svega toga dalje biti...
 
byMaX je napisao(la):
U svakom slucaju, misljenja nam se u dosta toga poklapaju, a u nekim stvarima ne... videcemo sta ce od svega toga dalje biti...
Dobro je da ljudi imaju zajednicku osnovu sa koje mogu da se raspravljaju na kulturan i civilizovan nacin. Tada je sasvim ne bitno ko je u pravu jer ni jednom ni drugom nista ne ide u dzep!
Poz
Nedjo:wave;
BTW Frik! uopste nisam poredio R300 i NV30. Ako cemo konkretno: kada bih sad imao puno para u dzepu i kada bih kupovao graficku, uzeo bih R9700Pro, licno iskreno se divim inzenjerima koji su dizajnirali ovaj cip i mislim da je generalno bolji od NV30, ali u okviru ovog trida rec je o nVidijinoj pixel pajplan arhitekturi, koja je definitivno buducnost (iako to sad tako ne izgleda)! Vreme ce pokazati da li sam bio u pravu!
cheers
 
Fala Bogu te ima ljudi koji su malo vise "open-minded"... Nedjo svaka ti cast na izlaganju infoa! Inace firma koju je nV kupila je Exluna ciji su ljudi iz glavnog vizulenog ogranka Pixara. koja je napisala render masinu Entropy (koriscena u Hollow Man-u i gomilom drugih filmova).
Ja sam lepo govorio da su nV graficke mnogo vise od igrackica.

Mada mi je zao sto ce nv30 baciti u vodu... sad moram da cekam nv40 jer ce na njega biti (nadam se) bacen akcenat. Drajveri ce se jos malo dopisati za nv30 i to je to... bas steta.

E Freek aj iskuliraj vise majke ti ... idi i uzivaj u R300 i svim njegovim carima sjebavanja sistema i prokleto glupih drajvera.
 
Nedjo je napisao(la):
Dobro je da ljudi imaju zajednicku osnovu sa koje mogu da se raspravljaju na kulturan i civilizovan nacin. Tada je sasvim ne bitno ko je u pravu jer ni jednom ni drugom nista ne ide u dzep!
Poz

Pa samo smo novinari.... zamisli kada bi potpuno isto razmisljali. Ti si definitivno vise citao, i verovatno i doneo bolje zakljucke... Kapiram da ce se vise od toga sto ti sada kazes ispostaviti kao tacno, mada sam ja sada mnogo skeptican... :) A mazi naravno, nVidia i samo nVidia. Ja ocekujem bas mnogo od nv35 - do tada ce i 0.13 mikronski proces sazreti!
 
Bymax, ja mnogo vise ocekujem od r400 :) i budi siguran da ce biti bolja nego nv35...

r350 izlazi kroz 30 dana, posljednja izjava od Ati...i po toj izjavi r350 ce biti najbolja kartica do kraja kalendarske godine. Izgleda Ati mnogo bolje zna sto Nvidia sprema, nego iko drugi.
 
Nisam ja sisao sa topica. Ocigleno NV30 koristi 4x2 engine i radice 8 cycle per clocku samo u onim igrama gdje bude interni dogovor sa doticnom firmom, da specijalno kodiraju igru tj. da se koristi multitexturing. Medjutim gap izmedju Ati i Nvidie je sve veci, i da dodam jos ovo Ati driveri su daleko od losih (vjerovali ili ne bolje rade nego danasnji Nvidia). Tako isto J.C. kodira Doom 3 kako bi radio na najbolji moguci nacin na NV30, ali to ne govori uopste da je NV30 dobro konstruisan chip!?! Za primjer UT bolje radi na voodoo 3 kartici nego na Geforce 2Ultra. Kad uporedis te dvije kartice i ptice na grani znaju da je GF2Ultra bolja, ali!!! Optimization i kodiranje da max dobro radi na nekoj kartici znaci mnogo. I Ati je uspjela da tjera igre bolje na svom hardweru nego sto rade Nvidia kartice, pogotovo one igre sa logom 'This is way meant to play'.
r350 ce da pojede sve danas na trazistu. Ati je uvijek izbacivala kartice dosta brze od prethodnih, sa novim rijesenjima, inovacijama itd.
NV30 je dead case, poslije izlaska r350. r350 ce imati standarnu pocetnu retail cijenu 350-399$ vjerovano, i ja mislim da nece biti te budale koja ce da uzme GFX.
Nvidia ima jos jednu sansu sa NV35 ako bude sporije od Ati, Nvidia kao kompanija je dead case. Mozda pronadju alternativu nforce 2 to rade odlicno, isto kao sto danas GM pravi najbolje Trucks, i fabrika samo to i radi :)
 
OK, sve je to lepo u igricama, ali izgleda da je nVidia ipak napravila i cip za nesto drugo sem za igrice, a i koji je i dosta programabilan, i verovatno kao bazu za nesto sledece. Ali izgleda da im je realizacija toga bila slabija, sto sbog porelaska na 13mikrona, sto da izbace cip na vreme. Moguce je da samo pripremaju teren za nesto bolje, recimo kao intel sa prvim P4 da bi kasnije prikazali i HT kao logicnu evoluciju i sledeci korak. Meni se bar cini da, ako je sve ovo sto pise tacno (ili baar nesto od toga), odlicno i da ima perspektivu, cip koji bi mogao da se menja, da se tako izrazim, kada je singletexturing da radi kao 8x1, a kada je multitexturing kao 4x2, mislim bi se time programabilnost cipa podigla na neki sledeci nivo, verovatno ce i ATi da uradi ovako nesto u nekom od sledecih cipova.
I nedja je rekao nesto slicno. A i na kraju krajeva, sacekajmo i videcemo.
 
Freak_Power je napisao(la):
Nisam ja sisao sa topica. Ocigleno NV30 koristi 4x2 engine i radice 8 cycle per clocku samo u onim igrama gdje bude interni dogovor sa doticnom firmom, da specijalno kodiraju igru tj. da se koristi multitexturing. Medjutim gap izmedju Ati i Nvidie je sve veci, i da dodam jos ovo Ati driveri su daleko od losih (vjerovali ili ne bolje rade nego danasnji Nvidia). Tako isto J.C. kodira Doom 3 kako bi radio na najbolji moguci nacin na NV30, ali to ne govori uopste da je NV30 dobro konstruisan chip!?! Za primjer UT bolje radi na voodoo 3 kartici nego na Geforce 2Ultra. Kad uporedis te dvije kartice i ptice na grani znaju da je GF2Ultra bolja, ali!!! Optimization i kodiranje da max dobro radi na nekoj kartici znaci mnogo. I Ati je uspjela da tjera igre bolje na svom hardweru nego sto rade Nvidia kartice, pogotovo one igre sa logom 'This is way meant to play'.
r350 ce da pojede sve danas na trazistu. Ati je uvijek izbacivala kartice dosta brze od prethodnih, sa novim rijesenjima, inovacijama itd.
NV30 je dead case, poslije izlaska r350. r350 ce imati standarnu pocetnu retail cijenu 350-399$ vjerovano, i ja mislim da nece biti te budale koja ce da uzme GFX.
Nvidia ima jos jednu sansu sa NV35 ako bude sporije od Ati, Nvidia kao kompanija je dead case. Mozda pronadju alternativu nforce 2 to rade odlicno, isto kao sto danas GM pravi najbolje Trucks, i fabrika samo to i radi :)

"E super, ti si nas idol... aj sad idi radimo"

Karta jos nije (na zalost) dosla, ali bre oladi dok se konacno nepojavi.
Za drivere si odvalio, onako junacki. Catalisti ima jos da se peglaju onoliko.
 
Nije Muzzy, imam prilike da uporedno testiram i jedne i druge drivere i pravo da ti kazem, Catalist 3.0 su jos i imali par tripova, ali u 3.1 jos nisam nasao nijedan, dok kod Detonatora ima nekih sitnih problema, pre sa windowsom nego sa igrama. Sto se performansi tice, tu i jedni i drugi lepo odradjuju posao.
 
Rece Freek:
"Nisam ja sisao sa topica. Ocigleno NV30 koristi 4x2 engine i radice 8 cycle per clocku..."
U ovom topicu se prica o tome da li je ili nije nVidija "slagala" u vezi pipeline arhitekture svog GPU-a i kakve to ima implikacije na buducnost 3D grafike u celini!
Ovaj topic nije posvecen jos jednoj raspravi tipa "Jaci je ATi od nVidije", stoga je tvoj post potpun promasaj.
O tome koliko ne razumes samu sustinu govori i recenica koju sam kvotovao i izrazi tipa: "engine", "cycle per clocku"...
Po poslednji put ponavljam, trenutno je R300 u prednosti u odnosu na NV30 i oko toga se niko ni ne raspravlja. No, cinjenica je da nVidija po prvi put nakon dugo vremena p[ocinje da uvodi konkretne tehnoloske inovacije u svoje proizvode i uzimajuci u obzir finansijsku moc kompanije, to ce sigurno dati jake rezultate u buducnosti, bez obzira na momentalna posrtanja.
Citava prica se moze posmatrati kroz anlogiju sa AMD-om i Intelom. Jeste da ovaj prvi, bas kao i ATi, nudi bolji proizvod za moje i vase pare, ali daleko od toga da je ono sto nudi onaj drugi neupotrebljivo, naprotiv, to ce se u buducnosti pokazati kao veoma, veoma mocno u tehnoloskom smislu.
Sve u svemu, ovo je topic cija sustina treba da bude tehnicka rasprava, a ne nekakvo subjektivno, navijacko, postovanje!
Poz:wave;
Nedjo
 
Nazad
Vrh Dno