Šta je novo?

Fermi is Nvidia's DirectX 11

Status
Zatvorena za pisanje odgovora.
Pazi, ne kazes samo to ;) Inace bih se slozio s tobom. Ti tvrdis da su oni spremni. Ja ne vidim nijedan razlog zasto nvidia ne bi izbacila derivate na trziste ako moze da ih proizvodi i ako su isplativi. Upravo bi im to kupilo vrijeme da na miru zavrsavaju punokrvni fermi. To da bi ugrozili 'glavnu' kartu, ne pije vode.
Ako imaju 20% slabiji derivat recimo, onda bi imali i punokrvnog fermija jer je to jako blizu. A o derivatima koju su slabiji 40 i vise % i o tome kako prolaze na trzistu, svakako odredjuje cena proizvoda. Obicno se prvo radi na punokrvnom cipu jer kada njega 'dovedes u red' onda mozes praviti derivate. A od derivata ne mozes napraviti glavni cip. Ako tom derivatu nesto fali, to moze da bude do yield-a i to je izvlacenje bilo kakve koristi, ali je cinjenica da iza toga stoji 'kompletan' cip.


pa vidi na punokrvnom cipu se radi jer je zarada na njemu najveca i on se prvo predstavlja... a sa time sto odlazu derivate namecu ljudima top resenje i vade im maksimalno kesa iz djepa.. isto rade i ATI, NV, Intel i AMD... intel kaze evo vam i7 pa posle spomene i5 i kaze da cekama skoro godinu dana zasto??
Meni bi mozda bilo logicno da NV plasira derivate ako je pritisne ATI, ali oni sigurno misle da im je logicno da cekaju topdog-a

PS: DDR sam spomenuo jer je to najveci skandal sa odlaganjem jeftinijeg i tada veoma boljeg resenja... (jer koliko se secam tada je rambus kostao ko suvo zlato)
 
@Zeljko
Bogme, nekoliko tvojih postova unazad su pravo čudo.
"Reality tunnel", nedovoljno poznavanje činjenica...
Nažalost mrzi me sve da ih prokomentarišem, zato ću se fokusirati na ovaj poslednji. Dovoljno je.
pa vidi na punokrvnom cipu se radi jer je zarada na njemu najveca i on se prvo predstavlja...
Jednostavno netačno. Da, na flagship čipu su margine najveće, ali ne i zarada. Kajmak se ubira u srednjoj i niskoj klasi. Broj prodatih čipova u tim klasama je za par redova veličine veći.

a sa time sto odlazu derivate namecu ljudima top resenje i vade im maksimalno kesa iz djepa..
Pa da, kada bi svi imali 200+ evra za najbolju/najbržu karticu. Stvarnost je, ipak, mnogo surovija.

sto rade i ATI, NV, Intel i AMD... intel kaze evo vam i7 pa posle spomene i5 i kaze da cekama skoro godinu dana zasto??
Šta ti mislilš? Da je dizajn procesora isto što i dizajn bicikle?
Razvojni ciklus procesora je MNOGO duži od grafičkih čipova, naročito ako tu uračunamo i validaciju. Ona traje oko 12 meseci pa nagore. Koliko je to ******* proces nam govori činjenica, da se i pored svog tog testiranja provuku "manji" bugovi u krajnji proizvod.
I da, procesor je nemoguće relativno lako "iseći" poput GPU-a. Mnogo malo delova unutar CPU-a se ponavlja često (ALU, AGU, FPU sve x2 ili x3 npr. simplifikovano), tako da uprkos manjim dimenzijama i broju tranzistora troše mnogo više inženjerskih sati prilikom razvoja. Umnožavanje jezgara je kudikamo promenilo sve to, ali ponovo... validacija...kod procesora ne sme biti "vidljivih" grešaka.
Pored svega toga, nisu imali potrebe da izbace i5. Core2 se sasvim lepo nosio sa PII u "nižoj" klasi.

Meni bi mozda bilo logicno da NV plasira derivate ako je pritisne ATI, ali oni sigurno misle da im je logicno da cekaju topdog-a
Evo, upravo pokušavam da se setim kada se desilo da se pojave prvo derivati, pa potom glavni čip. Nikad.
Ima razloga, zašto je tako.
Prvi razlog je takozvani "halo" efekat. Percepcija najbržeg čipa je strašan marketinški zamajac i itekako utiče na poboljšanje prodaje u nižim segmentim tržišta.
Drugi, još bitniji razlog je inženjerske prirode. Razvoj nosioca nove arhitekture i derivata je, relativno, paralelan. Kada je razvojna faza top čipa završena, rešenja primenjena u njemu (dizajn ALU, ROP-RBE, TMU..) se odgovarajuće skaliraju na slabije čipove. To je ovde lakše zbog repetativne prirode GPU-a. Da ne pominjemo to, da ako nešto krene naopako...krenuće na kompleksnijem projektu.
Tu je i pitanje broja inženjera i broja R&D timova... Najviše inženjera i najbolji među njima su na glavnom projektu. Tek kada je gro posla završeno dolazi do njihove disperzije u druge timove.

PS: DDR sam spomenuo jer je to najveci skandal sa odlaganjem jeftinijeg i tada veoma boljeg resenja... (jer koliko se secam tada je rambus kostao ko suvo zlato)
Intel mnogo loš primer u tom vremenskom periodu. Tada se Intel nalazio u totalnom razvojnom haosu. Pokušali su tržištu da utrljaju RDRAM, koji nije donosio bitno poboljšanje performansi, a pri tom bio dosta skuplji.
Tranzicija RDRAM-> DDR je bila inženjerski problem. Čipsetovi 820(RDRAM), 845(DDR) i 865(DC DDR) su izašli sa razmakom od po 1,5 godinu. I to u periodu ozbiljne konkurencije iz AMD-a, sigurno nije bilo iz marketinških razloga.
Ponovo, nepoznavanje činjenica sa tvoje strane.
 
Poslednja izmena:
@Shikazu

Izvini ali ti ako verujes svakoj korporaciji slepo, svaka cast...
neke tvoje opaske stoje, neke jednostavno su bazirane na slepom verovanju RD&M

inace ja ne osporavam cilj maksimalne zarade, samo napominjem da to nije jedini put dolaska do trzista

sto se tice intela prvi DDR chipset (845) je visio na polici bar godinu dana sto zbog licence sto sbog jako bahatog ponasanja samig intel-a

za GPU gresis desilo se bar jednom kad se pojavio 8600GT koji je derivat 8800GT (g92) ali verovatno samo zbog toga jer su tada imali 8800 Ultu u top segmentu pa ni sa jednom ih nisu direktno ugrozavali

sto se tice i5 nevidim razlog negovog odlaganja u tehnickom smislu vec odluku intela da ne parira AMD-u jer nije imao potrebe a i zeleo je da sa i7 pokaze vecu nadmoc
 
Poslednja izmena:
za GPU gresis desilo se bar jednom kad se pojavio 8600GT koji je derivat 8800GT (g92) ali verovatno samo zbog toga jer su tada imali 8800 Ultu u top segmentu pa ni sa jednom ih nisu direktno ugrozavali

Grešiš ti. 8600GT ima G84 čip koji je derivat prvih 8800GTS kartica (G80 čip, 320bit, 96SP). Kao derivate 8800GT(S) (G92, 256bit, 112-128SP) možeš jedino da gledaš 9600GT (G94, 256bit, 64SP) i novi 9600GSO (G94, 256bit, 48SP).

Ali te ne krivim. nVidija se potrudila da iskomlikuje stvari sa nazivima.
 
3D Vision... i osudjen si na ukupno dva 22" monitora na svetu i prilicno skup setup koji ti ne dozvoljava da se igras duze od pola sata bez da osecas posledice po oci... a i zeludac...

Hm, da ne bude da nešto branim Nvidiju, ni meni se ne sviđa šta rade i čime se bave u poslednje vreme, ali 3D Vision je izvanredna tehnologija, već naširoko podržana. Nisi osuđen na dva 22" monitora, već možeš da turiš bilo šta sa osvežavanjem od 100 Hz i više, što će reći gomila televizora nove generacije podržava to.

Može biti da postoji veliki broj ljudi kojima neće prijati da gledaju to duže od pola sata, ali krajnji rezultat je totalno fascinantan. Svaki videofil će ceniti tu razliku, koju vidi apsolutno svako. Pravi 3D, totalno fascinantno, pred tim bledi svaka priča o teksturama, performansama, efektima...naravno, nije tehnologija za svakoga i nije svako potencijalni korisnik te tehnologije, ali nikako je ne bih "spuštao"...
 
Hm, da ne bude da nešto branim Nvidiju, ni meni se ne sviđa šta rade i čime se bave u poslednje vreme, ali 3D Vision je izvanredna tehnologija, već naširoko podržana. Nisi osuđen na dva 22" monitora, već možeš da turiš bilo šta sa osvežavanjem od 100 Hz i više, što će reći gomila televizora nove generacije podržava to.

Može biti da postoji veliki broj ljudi kojima neće prijati da gledaju to duže od pola sata, ali krajnji rezultat je totalno fascinantan. Svaki videofil će ceniti tu razliku, koju vidi apsolutno svako. Pravi 3D, totalno fascinantno, pred tim bledi svaka priča o teksturama, performansama, efektima...naravno, nije tehnologija za svakoga i nije svako potencijalni korisnik te tehnologije, ali nikako je ne bih "spuštao"...

Ponavljam se ali ocigledno da nekima nije dovoljno. 3D Vision je unapredjenje tehnologije koja je bila u komercijalnoj upotrebi pre 10 i vise godina i tada je kostala mnogo manje nego sto kosta sada. 3D monitori su brand new, shutter glasses nisu i to su cinjenice.
 
Poslednja izmena:
^Ko ovde tvrdi i GDE, da je to nova tehnologija?
Wireless polarizovane naocare i 120Hz LCD kakve imamo sada jeste unapredjenje u odnosu na ono sto je Asus nudio uz svoje kartice nekada davno, i to je to. Koliko su te kartice kostale tada, znamo, i CRT monitor sa 120Hz osvezavanjem (a to je 60Hz ubistvo u stereo 3D) takodje ;) ...Ovo sad mu dodje i jeftinije??
Pogotovo sto to sada radi na maltene svakoj nV (koja god moze da izvuce pristojan fps u gomili multiplatform igara), a ne na GTS ili Ti seriji iskljucivo.

No, danas u eri DX11 teseliranih zastavica tvrditi da je 3D vision OK stvar, kao i physx za koji znalci tvrde da je plast i papirici, je ocigledno postalo rizicno - lokalni eksperti vrlo lako mogu da ti "objasne" ... :D
 
Poslednja izmena:
Ponavljam se ali ocigledno da nekima nije dovoljno. 3D Vision je unapredjenje tehnologije koja je bila u komercijalnoj upotrebi pre 10 i vise godina i tada je kostala mnogo manje nego sto kosta sada. 3D monitori su brand new, shutter glasses nisu i to su cinjenice.

Ponavljash, ali nisam siguran da si probao 3D vision. Da se razumemo, bavim se 3D stereo montorima sa naocharima i bez vec 6 godina i znam kakav je efekat bio sa starim nvidija 3D naocharima (koje su se dobijale uz Asus kartice). 3D vision je na danashnji dan najkvalitetniji produkt u sferi stereo 3D za razumne pare, ko moze ovo da opovrgne neka se javi.

I josh jedna stvar - kao shto reche Filipenko, u Americi, a i u dobrom delu drugog sveta odavno postoje DLP televizori Samsung i Mitsubishi od 50 i vishe incha sa kojima 3D vision naochare rade idealno!

E sad, shto je nama frka dati 550 evra da bi se igrali u 3D na 22" monitorima sa PhysX-om je sasvim druga stvar...
 
http://www.tweaktown.com/articles/2...ionnaire_a_response_to_amd_s_views/index.html

1) What are your thoughts on Direct X 11? Is its uptake going to be greater than DX 10 or is it going to be graphics enhancements that gamers aren't really going to get use from any time soon?

DX11 is a very good thing. Anything that makes the PC gaming experience better is great. This is also why we focus on adding things like PhysX and 3D Vision to PC games. Our next generation Fermi-based GeForce will support DX11, PhysX and 3D Vision so gamers don't have to compromise. With GeForce, you can have it all.

Kao sto sam rekao, nVidia nikad nije rekla da je DX11 los i da nije bitan. To sto su Nedjo i ostali novinari tako preveli, to je druga prica. ;)
 
Poslednja izmena:
Ista stvar k'o i sa betmenovim plastom ;) Opasne stvari...

S moje strane izvinjenje za permutaciju, shutter ili polarised vec je bilo reci o tome...
 
Poslednja izmena:
Grešiš ti. 8600GT ima G84 čip koji je derivat prvih 8800GTS kartica (G80 čip, 320bit, 96SP). Kao derivate 8800GT(S) (G92, 256bit, 112-128SP) možeš jedino da gledaš 9600GT (G94, 256bit, 64SP) i novi 9600GSO (G94, 256bit, 48SP).

Ali te ne krivim. nVidija se potrudila da iskomlikuje stvari sa nazivima.

uporedi specifikacije pa zakljuci (optimizacija shadera, puno ubrzanje HDTV materijala, itd..) a ne na osnovu NV imenovanja...
 
^Ko ovde tvrdi i GDE, da je to nova tehnologija?
Wireless polarizovane naocare i 120Hz LCD kakve imamo sada jeste unapredjenje u odnosu na ono sto je Asus nudio uz svoje kartice nekada davno, i to je to. Koliko su te kartice kostale tada, znamo, i CRT monitor sa 120Hz osvezavanjem (a to je 60Hz ubistvo u stereo 3D) takodje ;) ...Ovo sad mu dodje i jeftinije??
Pogotovo sto to sada radi na maltene svakoj nV (koja god moze da izvuce pristojan fps u gomili multiplatform igara), a ne na GTS ili Ti seriji iskljucivo.

Pa filipenkov post odise takvim entuzijazmom da mi jedino ostaje da zakljucim da je za njega to nova tehnologija aka nije probao shutter cvike ranije. Mada doduse nisam ni ja Vision (jos uvek) ali ne verujem da su napravili toliko pomak da posle koriscenja starih cvikera (koje je moguce naterati da rade sa danasnjim kartama) kad stavim 3D Vision vicem WOW.

Inace nisam imao te ASUSovke ali jeste moj drug i bile su krsh. Uzasno neudobne za nosenje i kao i 3D Vision zahtevale su minimum 120Hz. Ja sam imao Revelatore (byElsa) koji su trazili 100Hz i bile ok za nosenje. Bio je jos jedan model koji nije zahtevao prisustvo nVidija kartice, zvale su se eye3d mislim.

To je sto se tice cvikera. Naravno mogao bih da otvorim pitanje cene tih cvikera na nasem trzistu ali necu posto verovatno BenchHouse ima udela u promociji istih.

No, danas u eri DX11 teseliranih zastavica tvrditi da je 3D vision OK stvar, kao i physx za koji znalci tvrde da je plast i papirici, je ocigledno postalo rizicno - lokalni eksperti vrlo lako mogu da ti "objasne" ... :D

Spinujes ;)

Poenta cele moje price jeste da navodjenje 3D Visiona ili Eyefinitija kao korisnog featurea i izjednacavanje tih tehnologija sa DX11 nema nikakvog smisla. I pored toga sto DX10 nije nikada zaziveo kako treba DirectX podrska je i dalje najbitniji feature neke graficke kartice dopadalo se to nama ili ne.
 
To je sto se tice cvikera. Naravno mogao bih da otvorim pitanje cene tih cvikera na nasem trzistu ali necu posto verovatno BenchHouse ima udela u promociji istih.

Nisam probao pre ovih te ASUS, ali ono sto sam video jeste VAU. Posle sam uzeo film sa crveno-plavim i naprezanje ociju ne neverovatno naspram Nvidijinih. Najduze sto sam na promociji probao je bilo nekih 20 min (bilo je i drugih ljudi ipak), ali za to vreme nikakvu glavobolju nisam osetio, dok sa crevno-plavim vec posle 2 min su me oci bolele zbog mnogo veceg naprezanja. Sada naravno da nisu iste kao te ASUS, ali ove Nvidijine su daleko od krsha.

A jedan clan je u drugoj temi rekao da ima za 30k (na amazon.de doduse za 130 evra), ali nemoj ih povezivati samo za BH. Dok sam bio tamo dosao je momak iz Samsunga, i rekao je jos nekoliko radnji gde ce biti promocija, zato su i dali monitor i cvidze samo na dan. Tako da je poenta bila da u nekoliko radnji predstave monitor, a naravno pokazivanje 3D naocara je bilo za to da se vidi prednost zasto bi neko uzeo taj monitor umesto nekog drugog.

PS. I ove Nvidijine jesu udobnije za nosenje, pogotovo sto su projektovane tako da ljudi koji nose naocare zbog vida ne moraju da ih skidaju, vec samo stave ove preko njih.

OFF
PS2: Imas danas i sutra u Balkansoj 7 promociju, pa posto si imao ranije iskustvo sa 3D naocarima, najbolje ces sam moci da se uveris da li su napredak u odnosu na stare. Sve ovo ostalo je rekla-kazala.
 
Poslednja izmena:
Ista stvar k'o i sa betmenovim plastom ;) Opasne stvari...

S moje strane izvinjenje za permutaciju, shutter ili polarised vec je bilo reci o tome...

Da, ako pogledate ovaj link, mozete videti da sam pljuvao po 3D Vision naocharima kada se pojavila vest da ce izaci (zbog losheg iskustva sa drugim shutter naocharima - starim koje su ishle uz Asus kartice, X3D naocharima itd). Pa ako sam ja kao chovek koji se profesionalno bavi 3D stereo efektima rekao da sam pogreshio kada sam video kako to izgleda, onda mislim da to govori mnogo o kvalitetu proizvoda.
 
Dobro Zerbah, ostavi se toga ja se profesionalno bavim 3D stereo efektima. Imaš li ti ili bilo ko od prisuthih na forumu kod svoje kuće te 3D nVidia đozluke?
Verujem da su znatno bolje od prethodnog đubreta, ali ni ta iskustva "pikao sam na prezentaciji i ne boli me glava" me neće ubediti. Ja igrice ne igram po 15 minuta već u komadima od makar 2 sata.
 
Poslednja izmena:
Dobro Zerbah, ostavi se toga ja se profesionalno bavim 3D stereo efektima. Imaš li ti ili bilo ko od prisuthih na forumu kod svoje kuće te 3D nVidia đozluke?
Verujem da su znatno bolje od prethodnog đubreta, ali ni ta iskustva "pikao sam na prezentaciji i ne boli me glava" me neće ubediti. Ja igrice ne igram po 15 minuta već u komadima od makar 2 sata.

Bih ja probao i 2 sata ali mi nisu dali :p, hteli i drugi da se igraju. I zasto mislis da ja hocu da te ubedjujem u bilo sta, poenta posta je samo efekat u igrama koji jeste vau (mada i tu ima par stvari npr. FPS je meh, ali za trece lice je fantastican ocecaj).
Ako si u BG-u probaj ujutru pa mozda i uglavis duze vremena, posto je covek iz Samsunga rekao da kada je bila promocija u Gigatronu da ljudi nisu zeleli ni da probaju vec su samo odmahivali rukom.
BTW Ja igre kada uhvatim pikam 5> sati.
 
Poslednja izmena:
Dobro Zerbah, ostavi se toga ja se profesionalno bavim 3D stereo efektima. Imaš li ti ili bilo ko od prisuthih na forumu kod svoje kuće te 3D nVidia đozluke?
Verujem da su znatno bolje od prethodnog đubreta, ali ni ta iskustva "pikao sam na prezentaciji i ne boli me glava" me neće ubediti. Ja igrice ne igram po 15 minuta već u komadima od makar 2 sata.

Josh uvek nemam iste kuci, ali planiram da ih kupim poshto su mnogo bolje za ochi od ovog X3D monitora (bez naochara) koji sada imam na stolu. Tako da cu ih imati sigurno u toku nedelju-dve dana.

Shto se tiche umora, igrali smo juche sa kolegama na poslu Batman AA u 3D sa PhysX-om i doshli do momenta kada je reshio onaj problem sa knjigom i dokumentima - znachi mnogo vishe od 2 sata igranja.

Ne verujem da bi nvidija dozvolila sebi da je ljudi tuze za to shto imaju problema sa ochima posle igranja na 3D vision.
 
Josh uvek nemam iste kuci, ali planiram da ih kupim poshto su mnogo bolje za ochi od ovog X3D monitora (bez naochara) koji sada imam na stolu. Tako da cu ih imati sigurno u toku nedelju-dve dana.
Kad stignu, obavezno napravi kuci jedan event za forumase. :)
Dolazim sa par bombi piva i nekim igrama na hardu. :D

edit: i neke gricke nosim ako treba.:d
 
Poslednja izmena:
Pa filipenkov post odise takvim entuzijazmom da mi jedino ostaje da zakljucim da je za njega to nova tehnologija aka nije probao shutter cvike ranije. Mada doduse nisam ni ja Vision (jos uvek) ali ne verujem da su napravili toliko pomak da posle koriscenja starih cvikera (koje je moguce naterati da rade sa danasnjim kartama) kad stavim 3D Vision vicem WOW.

Inace nisam imao te ASUSovke ali jeste moj drug i bile su krsh. Uzasno neudobne za nosenje i kao i 3D Vision zahtevale su minimum 120Hz. Ja sam imao Revelatore (byElsa) koji su trazili 100Hz i bile ok za nosenje. Bio je jos jedan model koji nije zahtevao prisustvo nVidija kartice, zvale su se eye3d mislim.

To je sto se tice cvikera. Naravno mogao bih da otvorim pitanje cene tih cvikera na nasem trzistu ali necu posto verovatno BenchHouse ima udela u promociji istih.

Au, ***, isti si audiofrik :)

Kakve veze ima što je otprilike slična tehnologija postojala pre mnogo godina kada se mnoštvo uslova za korišćenje te tehnologije drastično promenilo? Nego uporno ponavljaš da to mora da je isto kao nekada. Nije isto. I to na toliko nivoa. Ko je pre 7-8 godina mogao da razmišlja o 3D LCD monitoru ili televizoru? Danas je to daleko pristupačnije. Efekat nije bio dovoljno ubedljiv na CRTovima, sada je sasvim drugačije. Cvidže su bolje. Nisu na principu brze izmene boja, već zatamnjivanja, pa ne zamaraju (makar mene). Wireless su, pa nema žice. Udobnije su za nošenje, velike su i imaju izmenjive maskice za onaj deo koji ti ide na nos, nekoliko različitih vrsta, pa možeš da se prilagodiš. Mogu da idu preko običnih naočara sa dioptrijom. Monitori su jeftini. Mislim, skuplji su od non-3D monitora, ali nisu toliko skupi. Tu su i veliki televizori sa velikim ekranima. Softver radi odlično. Zaista ne znam šta još treba. U stvari, znam, da to bude besplatno i da se deli džabe. Onda bi se "mogao meriti sa DX11" kao efekat :D

Jedina mana svega toga jeste što je neprirodno naletanje na okvir monitora/televizora. Da se preciznije izrazim, čudno mi je kada idem pogledom po ekranu, pa se prostorna slika zagubi tamo negde na ivici. Za razliku od 2D monitora i 2D prikaza gde je to, kako bih rekao, očekivano, ovde je drugačije kada gledaš neki objekat prostorno pa onda on neprirodno bude presečen ivicom monitora, pa ti je čudno. Ali je efekat generalno za padanje vilice. Ne može bolje, makar za sada, to se ne može opisati.

Koliko košta? Pa, ovako. Treba ti karta od GeForce 8 pa naviše, što valjda svi imamo (svi koji imaju Nvidia kartu). Treba ti monitor/TV sa osvežavanjem od 100 Hz pa naviše. Konačno, trebaju ti 3D cvidže. Poslednje 2 stavke (ako uzimaš monitor, a ne TV) su ti po 300 evra (što se bre ustežete da pominjete cene zato što toga ima u benč hausu, pa niko neće brisati zbog toga, niti će da se ljuti ako je negde jeftinije, ako je to normalna diskusija...jedino ako neko sada krene da zakera ili da pravi neke probleme kako to da ovde nema najjeftinije i pljuje po šopu bez razloga). A onaj ko je videofil (zato i govorim da je prava stvar za videofile) i ima TV od 100-120 Hz već ionako, njemu je izdatak samo za cvidže.

Ali ono što je najbitnije jeste krajnji efekat, koji je neverovatan. Ne može se uporediti sa bilo čime. Kada smo gledali u redakciji PC Press-a, nismo verovali. Tj. ja sam verovao jer sam i svojevremeno to probavao, pa sam se toplo nadao da će ovaj put sve biti OK i na mestu. Onda dolaze direktorka, marketing menadžerka, urednici, momci koji rade prelom, svi redom probavaju i svima vilica na podu, ne veruju da tako nešto može da postoji. Svako jasno vidi razliku. Ja ih onda rasteram i uzmem da prelazim Pritajeno Zlo 5, drndajući se sa zombijima u 3D-u :d I mislim se, ovo je prava stvar, koliko je ovo iznad preganjanja oko lošijih tekstura, ili rupa na zidovima.


Drugim rečima, sazrelo je :) Makar po pitanju upotrebljivosti i zrelosti tehnologije. Još samo kada bi bilo jeftinije...ali to je već druga priča.

Poenta cele moje price jeste da navodjenje 3D Visiona ili Eyefinitija kao korisnog featurea i izjednacavanje tih tehnologija sa DX11 nema nikakvog smisla. I pored toga sto DX10 nije nikada zaziveo kako treba DirectX podrska je i dalje najbitniji feature neke graficke kartice dopadalo se to nama ili ne.
Poenta moje priče jeste da sve te tehnologije, Ajfiniti, Dajrektiks, Munjogrom, itd. apsolutno nisu ni do kolena efektu koji proizvodi 3D Vision u praksi i da onaj ko ima para i želi da ga da od 3D Visiona nema ništa bolje. Nema, ne postoji. To mora da se vidi u praksi. Pravi 3D, kao da gledaš prostor. Nikakvi efekti, teseliranja DirectCompute i ostale zezancije ne mogu to da ti nadoknade :) Razlika je nebo i zemlja. Naravno da će, posmatrano sa određenog nivoa, DX11 biti "rasprostranjenija i korišćenija" tehnologija od 3D Vision-a. Ali to nema veze jedno sa drugim, niti je za poređenje.
 
Au, ***, isti si audiofrik :)

Iskreno, posle ovoga stvarno ne znam sta da kazem a da mi se to ne obije o glavu. :)

Ali moram da kazem zasto sam rekao da je cena problem. Neki ce ovu moju zamerku pravdati stanjem u nasoj zemlji, isuvise malom trzistu za ovako specijalizovane gedzete ali nista od toga ne moze da opovrgne cinjenicu da se radi o sisanju srpskih potrosaca.

3D Vision naocare na zapadu kostaju 200$ a u Nemackoj kostaju ovoliko (najskuplje su 170EUR). Nesto mi govori da bi me cak i uvoz istih iz Nemacke izasao manje od 300 evra.

Nadam se da necu trpeti posledice ako neko zakljuci da sam mu pokvario biznis.

Umalo da zaboravim, hvala ti na jako iscpnom postu/opisu nVidia 3D Visiona. :)
 
Poslednja izmena:
U nekoj drugoj temi moze se diskutovati o tome da li nasi distributeri deru kupce, ali to nema veze sa onim o cemu ovde pricamo. E sad kad vec uporedjujemo ati i nv adute, 3d vision i eyefinity, da li mi neko moze reci ili baciti link ka nekom tekstu gde mogu procitati koliki je frame rate u nekim igrama, recimo dirt2, crysis, nfs, i sl. kada se koristi eyefiniti setup, npr. sa 3 monitora? Mozda nisam pazljivo citao i pratio ali cini mi se da nisam nigde to procitao.
 
bas su ispali skroz smesni sa ovakvim predstavljanjem fermi-a.
 
Ovaj white paper sam procitao odavno, ja sam mislio da je to vec bilo okaceno :)

Sta fali, bas je sve fino sroceno :)
 
Poslednja izmena:
Status
Zatvorena za pisanje odgovora.
Nazad
Vrh Dno