Šta je novo?

Fermi is Nvidia's DirectX 11

Status
Zatvorena za pisanje odgovora.
Ono sto Prostreet nesvata ili nece da svati je to da se NV trudi da unese vece inovacije na polju GPU-a a takva politika je uvek bila veoma rizicna (ulaze se u Cuda, Physix, 3D vision, novi koncept GPUa koji forsira ne maximalan FPS vec maksimalan GPU okrenut programerima kako bi oni izvukli max iz njega), takva politika za sobom definitivno vuce dosta vece ulaganje u R&D i veooooma velik rizik neprilagodjenja proizvoda kupcu, tako i da je Fermi "velik debakl" u jednom smisli u drugom je pobednik... ono sta ATI-ju ne pada na pamet da ispegla (od opengl, optimizacije drivera u konceptom i kompatibilnom smislu, o boljoj podrsci za GPGPU, u alatima za programere).....

Po meni ima kompanija koje guraju progres i koje budje performanse, sami zakljucite koje su koje :)

A sta je bio Geforce Fx ako ne budzenje performansi na racun postovanja standarda. (Mladji clanovi clanovi foruma se verovatno ne secaju) Kad procitam neke postove dodje mi da nominujem Nvidiu za nobelovu nagradu.
 
Pa logicno je da ako se pojavi high end segment mora onda i mid i low.;) Verovatno u toku godine, kakve performanse i kakve ce izrade da bude tek ostaje da se vidi.

Pazi, jeste logicno ali ne i za NV izgleda, prethodna generacija nije se proslavila po pitanju derivata.
Fermi derivati se ne pominju gotovo nigde, ako i nadjes nesto to su matore vesti od prosle godine! Uz to veliki vodja je izjavio kako su korisnici zadovoljni trenutnom ponudom itd.
Nemoj pogresno da me shvatis, i ja se nadam derivatima, ali nesto slaba vajda:(

nisam rekao direktno da se bez 3d vision-a ne moze ziveti, vec je bila metafora u poredjenuju sa eyefinity-jem.

Ja se samo nadam da se salis, ako ne stvarno nemam reci za tvoju "objektivnost".
Za 3d vision moras da imas pod jedan sli, drugo nakrpljena je opcija u drajverima cisto da ne bi ATI imao nesto sto oni nemaju.
Sto se ATI-ja tice od 10.3 drajvera koji izlaze ovog meseca imaces i podrsku u drajverima za 3D tako da se otvaraju vrata za laksu implementaciju istog.

Istina. Mada sam ja "uhvatio" vise puta ATi drajvere kako mi onemogucuju da uopste igram igru :) Prosto ne znam sta je gore, hm... (poslednji slucaj Borderlands i neiscrtavanje tekstura tako da pojma nemas gde ides...)

Verujem ti, meni se to nije desavalo ni kad se igrao mnogo vise ali ne kazem da drugima nije. Meni je konkretno smetalo dok sam imao radeon 9600pro sto sam sest meseci cekao OpenGL drajvere koji ce raditi pod SUSE-om.
Jos jedna stvar mi realno smeta, nepostojanje mobility drajvera(mada to i nije ATI krivica)! Rekli su da ce poceti da ih izbacuju mesecno od ovog meseca pa cemo videti kako ce to ici.

E sada, meni je ipak gore ono sto Nv zna da uradi, prosto zato sto je to podvaljivanje, greska je jedno, a kad neko ide na to da te zahebe je nesto sasvim drugo.
 
A sta je bio Geforce Fx ako ne budzenje performansi na racun postovanja standarda. (Mladji clanovi clanovi foruma se verovatno ne secaju) Kad procitam neke postove dodje mi da nominujem Nvidiu za nobelovu nagradu.

Procitaj ovo


Ne branim NV, nisam fanboj, ali 80% krivice za lose perfomanse NV30 snosi TSMC, zbog kojeg je NV morala u startu da odustane od 256-bitnog memorijskog kontrolera, a 20% je kriva NV, jer NV30 nije imao dovoljno registara.
 
U doba kad su nastajali FX i R300, Nvidia iz političkih razloga nije sudjelovala u DX9 standardu od samih početaka. Kao razlog se navodi spor s Microsoftom oko cijene čipova za prvi XBox. Kao drugo, razlog kašnjenja FX-a na tržište je bio što su za novu arhitekturu forsirali netestirani TSMC-ov 130nm Low-K proces koji je davao katastrofalni yield.

Od tada pa sve do Fermi-a, NV nikad nije novu arhitekturu radila na novom (zadnjem dostupnom) procesu :).

Neko je bio spomenuo u thredu da se R300 nije baš previše nagledao DX9 naslova, što je totalno krivo. Ja se sjećam da sam igrao HL2 i FarCry što su i danas fenomenalni naslovi. Pola HL2 sam prošao na GF3Ti, a pola na 9700Pro ... razlika nebo i zemlja, prvi put da je voda izgledala kao voda, a ne jogurt :).
 
Poslednja izmena:

Procitaj ovo


Ne branim NV, nisam fanboj, ali 80% krivice za lose perfomanse NV30 snosi TSMC, zbog kojeg je NV morala u startu da odustane od 256-bitnog memorijskog kontrolera, a 20% je kriva NV, jer NV30 nije imao dovoljno registara.

Ja sam mislio na cuvene drajvere koji su smanjivali kvalitet prikaza da bi se dobio veci skor u 3dmarku, pa onaj cuveni patch koji je pokazivao realne rezultate. To je sve bilo jako smrdljivo u najmanju ruku od strane Nvidie, ali vidim da su neki bili zadovoljni jer nisu ni znali da slika moze da izgleda lepse.
 
@Lammasu
haha, pominjes moju objektivnost. Aj procitaj tvoj post pa razmisli malo. Za 3d vision treba imati sli. Ok i naocare i odgovarajuci monitor. Pa za eyefiniti (u punoj meri) uopste ne mozes trenutno da kupis odgovarajuci monitor. A i ako ga nadjes imaces odvratne 4-5 cm glossy trake po ekranu. FUJ i BLJAK. Eyefinity bih koristio samo kad bi me placali po vremenu provedenom uz eyefinity. I mislis da za ugodno igranje na eyefinityju ne treba crossfire. A sto se tice tih drivera za 3d kod ATI-ja, to nije tesko i sljakace to kod native 3d sadrzaja. Medjutim u drugim slucajevima nV je u ogromnoj prednosti koju ATI nece tako lako stici. Svi su i za crossfire mislili, evo sad ce i ATI, a oni ni danas ne mogu da dostignu efikasnost sli-ja.
 
Ako nisi probao vise monitora onda cuti, placao bi ti "njima" da se igras na tome, i ne okviri ne smetaju, jer sa tri monitora potpuno zaboravis na njih, to kad gledas ovako na slikama deluje kao mana ali uopste nije toliko sttrasno...

90% igara eyefinity gura bez problema na 5850/70, naravno na tri monitora, mozda negde moras malko da ustopujes detalje ali nista bitno.Dalje- u buducnosti mozes da ne prodajes monitor nego da ga koristis i dalje, sa jos dva pridodata u medjuvremenu...
Sve u svemu i eyefinity je buducnost, i veruj mi naredna generacija nv ce to imati sigurno, naravno ako nadju mesta za to u cipu.
I jos jedna stvar eyefinity mozes upotrebiti u svakoj igri, za razliku od phyzx-a ili nam novog dx11.


edit: koji off ***... neke stvari su jos uvek na pocetku i kod ati-a i kod nv, a mi se trudimo da ih sahranimo a jos se nisu ni rodile :smackbum:.
 
Poslednja izmena:
@pixell
reci mi samo jednu stvar: u tom racunaru od pre 3 godine sa lc napajanjem od 550w, u koje koces da stavis karticu iz najvise klase, i gde ne zelis dodatna ulaganja, koji procesor se nalazi. Koji monitor se koristi. Koliko memorije? U toj konfiguraciji od pre 3 godine u kojoj ti je 550w lc napajanje, nisam bas siguran da bi doplata za bolje napajanje bilo bas znacajno trosenje u poredjenju sa ostalim doplatama, za koje bi morao da se ispruzis da bi izvuko taj famozni perf/$/wat. I moje poredjenje sa automobilima je na mestu, ako ga razumes uopste. Ne znam da li te karte kupuju oni koji su zadovoljni sa g92, ali sigurno ih ne kupuju onik koji u kucistu imaju lc od 550w

Uzeo sam kartice iz najviše klase kao poređenje (ako će GTX480 trošiti kao HD5970) ali je u potpunosti primenljivo i na niže TDP klase (ako će GTX480 trošiti kao HD5870). Možda nisam dobro objasnio poentu a to je da onaj ko kupuje nov računar će sigurno uzimati skladne komponente pogotovo ukoliko nema ograničene resurse dok onaj koji je nadograđuje i mora da balansira sa budžetom će i te kako gledati ove odnose.

Eto, baš je pre dva dana stigao jedan komp u servis koji sam lično sklapao početkom 2007. godine. Inače, jedan od razloga zašto sam se i upustio u ovu perf/wat/money diskusiju. U pitanju je MSI P965 Neo-F (Intel 965), E6600 (O/C na 3.4GHz), 2GB RAM-a, LC Power 550W, HDD od 320GB, optika i 8800GTX koja je počela da baca artefakte čim pređe u 3D. Nakon detaljne dijagnoze vidi se da je grafika otišla u večna lovišta. Kupac je spreman da izdvoji do 30.000,00 dinara za servis (od 250 do 300 eura - njegove reči). Šta da mu predložim? Kupcu računar služi za rad u CAD programima tokom dana (ima projektantsku firmu) a uveče i vikendom sa igranje igara. Koja grafika bi mogla da dostojno zameni postojeću?
Jeste specifičan primer ali i čist dokaz koliko bi baš taj perf/wat/$ mogao da presudi.

Isto tako ću bez bojazni staviti HD5770 na Chieftec-a od 400W, dok bih ipak tri puta razmislio da to isto uradim sa GTS250.

Da ne govorim koliko sam HD4670 ubacio u Markator / Tempo / Maxi konfiguracije sa raznim KME i ostalim shit napajanjima.
 
Koji, ako me sećanje ne vara, troši kao taj 5770 a opet daleko manje od GTS250 ;)

Zagadismo temu ovim prepucavanjem. :(

Modovi, jedan predlog, napravite novu temu sa nazivom Performance / Watt / Feature / Money ratio pa da postavljamo rezultate tamo i eventualno biramo best bang for bucks komponente.
I ovaj deo cut -> paste tamo :)
 
Poslednja izmena:
Sve te dodatne pogodnosti kada je prosecan kucni korisnik u pitanju vise ili nisu unikatne, ili su sve manje vazne.

3D ce biti zvanicno podrzan od narednih Catalyst drajvera (Beta je vec odavno dostupna). Naocare ce biti 3rd Party, ali ce koliko videh kostati isto koliko i ove koje NVidia prodaje, ~200 dolara. Ako imas monitor koji podrzava 120Hz, to je to.

3 monitora - kada je standardan Eyefinity u pitanju, takodje od 10.3 ces imati Bezel Compensation - iseci ces onoliko piksela koliko ti zauzimaju ivice monitora, i slika nece biti izlomljena, vec ce se prirodno nastavljati. To nije dobro resenje za neke vrste igara, ali ce u nekima dosta doprineti realnosti - simulacije voznje i letenja, na primer. Znaci, resenje je u teoriji bolje od onoga sto nudi NVidia, i ne trebaju ti dve karte da bi radilo.

Ostaje PhysX... nesumnjivo lepa stvar, ali je pitanje koliko ce vajde imati od toga. To je feature koji je prakticno direktno povezan sa trzisnim udelom, makar kada su AAA naslovi u pitanju. Radeona ima previse, a kako stoje stvari, procenat ce samo narasti u narednom periodu.

Sa druge strane, neko svako malo linkuje vest da AMD nije hteo da izadje u susret korisnicima i implementira PhysX za svoje karte kada im je NVidia nudila. Pa ako je NVidia htela da izadje korisnicima u susret, zasto ne omoguce da GeForce legalno radi u sistemu kao dedicated karta za fiziku? To bi bilo daleko najbrze, najjednostavnije i najelegantnije resenje, oni bi ako su pametni jos i imali vajde od toga jer bi prodali vise karti (dosta igraca bi kupilo neku njihovu slabiju kartu samo za fiziku), a i tehnologija bi verovatno zazivela. Zasto to ne urade? Jednostavno, treba im zbog marketinga... mi imamo fiziku, konkurencija nema, a nisu hteli ni da je prihvate. Nebitno da li smo je stvarno i ponudili.

Vrednost GPGPU-a za workstation trziste je ogromna i tu ce NVidia zaradjivati velike pare, ali to opet nema previse veze sa kucnim korisnicima - oni od toga i dan-danas nemaju previse koristi.
 
Poslednja izmena:
Modovi, jedan predlog, napravite novu temu sa nazivom Performance / Watt / Feature / Money ratio pa da postavljamo rezultate tamo i eventualno biramo best bang for bucks komponente.
I ovaj deo cut -> paste tamo :)

Previse posla za temu koja ce ionako za 10 dana pod lock, kada se otvori zvanicna tema :)
 
A onda "ferka" :d...
 
@Lammasu
haha, pominjes moju objektivnost. Aj procitaj tvoj post pa razmisli malo. Za 3d vision treba imati sli. Ok i naocare i odgovarajuci monitor. Pa za eyefiniti (u punoj meri) uopste ne mozes trenutno da kupis odgovarajuci monitor. A i ako ga nadjes imaces odvratne 4-5 cm glossy trake po ekranu. FUJ i BLJAK. Eyefinity bih koristio samo kad bi me placali po vremenu provedenom uz eyefinity. I mislis da za ugodno igranje na eyefinityju ne treba crossfire. A sto se tice tih drivera za 3d kod ATI-ja, to nije tesko i sljakace to kod native 3d sadrzaja. Medjutim u drugim slucajevima nV je u ogromnoj prednosti koju ATI nece tako lako stici. Svi su i za crossfire mislili, evo sad ce i ATI, a oni ni danas ne mogu da dostignu efikasnost sli-ja.

Ok, dugujem ti izvinjenje, ucinilo mi se da si napisao 3D Vision Surround i odgovorio sam ti u donosu na to, za 3D Vision ti ne treba sli i to je ok tehnologija, ne bas jeftina ali rezultati su dobri.

Sto se ostalog tice, sapphire uskoro izbacuje 5970 4gb kartu sa sest dporta, ona bi trebala da gura korektno barem tri monitora, a ako ti smetaju glossy trake, ti uzmi ekrane sa mat okvirom;)
 
Poslednja izmena:
ma za tako nesto cu uzeti lcd full hd projektor, i cao. Ovde se lomimo kako graficke karte ne zadovoljavaju svacije prohteve u rezolucijama 1920x1200(1080), i sad ce taj neki zahtevni igrac koji je kupio najbrzu kartu da bi se igrao u pomenutim rezolucijama sto fluidnije, da predje na eyefinity i igra u 3 ili 6 puta vecim rezolucijama, i proporcionalno (+/-) manjim frejmrejtom. Drugo, ne znam kako to funkcionise sa eyefinity sistemom sa 3 monitora, ali za onaj sa 6 monitora koliko se secam potrebni su monitori sa display portom, i zato sam rekao da je tesko naci monitore.
@pixell
1. pa zar odosmo u ovoliki off zbog jednog slucaja u servisu, koji se javlja toliko cesto da se cudim kako nV i ATI nisu spremili pakete psu+vga za 200evra. Daj bre, nasao si brutalno specifican slucaj, i na njemu si bazirao celu ovu tvoju besedu.
2. ne znam koliko mislis da mu uzmes za ruke, ali ako je u pitanju 300 evra, tu moze da se uzme solidno napajanje, gtx260(ili ati 4870) i da ti ostane za ruke 50-tak evra+ staro napajanje:D
 
Poslednja izmena:
1. Naveo sam više slučajeva :)

2. :D Nisam toliki derikoža. Zar ne bi lepo legla HD5850 + ruke za manje od 300e?
 
Poslednja izmena:
Posto je zadnjih x strana opsta svadja jel neko zna kada cemo imati prve prave testove Fermi-ja?

Meni se ne svidja toliko buke oko dodatnih mogucnosti fermija. To me podseca na cuveni crtac sa Patkom Dackom i Prasetom. To je onaj crtac kada je Patak Daca agent za glumce :D
 
Poslednja izmena:
Ja sam mislio na cuvene drajvere koji su smanjivali kvalitet prikaza da bi se dobio veci skor u 3dmarku, pa onaj cuveni patch koji je pokazivao realne rezultate. To je sve bilo jako smrdljivo u najmanju ruku od strane Nvidie, ali vidim da su neki bili zadovoljni jer nisu ni znali da slika moze da izgleda lepse.

Pa morali su nekako da ostanu konkurentni, pa makar i tvikovanjem drajvera (tacnije, skidanjem preciznosti tekstura sa FP24/32 na FP12/16). Da je NV u startu izbacila "optimalni" drajver, tesko da bi iko i primetio tako nesto (nego su ljudi provalili da je sa novim drajverom NV znatno poboljsao 3D Mark rezultat).

Jednostavno, NV30 se pojavio prerano, ali je u startu bio dobro zamisljen. NV30 je imao cak tri retape-a pre nego sto je pusten u divljinu, zbog felericnog proizvodnog procesa. Realno, da nije bilo problema sa TSMC, i da se NV30 pojavio onakav kakav je i bio zamisljen, ATi ne bi bio ono sto je danas. Ipak, to je srecna okolnost za nas, jer je stvorila konkurentni poredak :).
 
Jednostavno, NV30 se pojavio prerano, ali je u startu bio dobro zamisljen.
Pojavio se prekasno. Kasnio je. ŠTo se tiče standarda, Nv je pokušala biti pametnija od Microsofta koji je ipak referentna točka za svoju platformu.

NV30 je imao cak tri retape-a pre nego sto je pusten u divljinu, zbog felericnog proizvodnog procesa. Realno, da nije bilo problema sa TSMC, i da se NV30 pojavio onakav kakav je i bio zamisljen, ATi ne bi bio ono sto je danas.

Na kraju krajeva, imali su 5900FX Ultra sa 256-bita i 256Mb DDR2 koji u usporedbi s 9800Pro i XT nije bio ništa bolji. Razlog je bio taj što nisu poštovali standard i trpile su pixel shader 2.0 performanse. Naknadno su pokušali uticati na promjenu standarda i izvodili egzibicije s driverom, no nije pomoglo.
I žašto bi TSMC bio kriv što je NV forsirala novi proces? Isto kao što im nije kriv ni sada kad su zapeli na 40nm.
 
Poslednja izmena:
Ne, ja samo rezoniram na temelju onog šta je bilo do sada :D

R300 -> 150nm TSMC
NV30 -> 130nm Low-K TSMC (Flop)

R420 -> 130nm Low-K TSMC
NV40 -> 130nm IBM, mnogo škarta

R520 -> 90nm TSMC Low-K (Flop)
G70 -> 110nm TSMC

R600 -> 80nm TSMC (Flop)
G80 -> 90nm TSMC

RV670, RV770 -> 55nm TSMC
G92, GT200 -> 65nm TSMC

RV8xx -> 40nm
Fermi -> 40nm (svima jasno da je Flop)

Znači, ako gledaš flag-ship čipove počevši nakon NV30, Nvidia igra veoma konzervativno što se tiče procesa proizvodnje sve do Fermi-ja, dok ATI više riskira. Zeznuli su stvar sa R520 i R600, ali im se zato posrećilo sa RV670 i RV770. Jedan od razloga je definitivno to što su odustali od "big chip" paradigme. NV, s druge strane ne odustaje od velikih čipova nego čak ide i korak dalje. Tako su se sa Fermijem doveli u situciju da više ne mogu birati stariji "pouzdan" proces.
 
Poslednja izmena:
Stvari stoje otprilike ovako:
- ATI tabor nema nista osim golog hw & budjavih drivera i pljuje po svemu sto izadje iz NVidie.
Što je i dalje jedino bitno za više od 99% korisnika. Pardon them for not wanting to plaćaju nešto što neće koristiti ili će možda nekad nekom prilikom u dogledno vreme koristiti pomalo. Njih ne interesuje što...

- NV tabor ima hw i Physx, CUDA, 3D naocare (cak i bez GF100),...

...a pri tome, prošlo je vreme hardverskih ograničenja. Danas možeš u bilo koju ploču sa dva grafička slota pored primarne Radeon karte ubaciti neki G92 polovnjak i dobiti sve to - i PhysX i CUDA (mada realno ne vidim kome znači ovo potonje osim vrlo, vrlo malom broju profesionalnih programera), jedino 3D neće biti baš upotrebljiv za igre zbog pada performansi i nedovoljne snage G92 danas u igrama, a opet će biti upotrebljiv za 3D filmove. Da ne spominjem stvari kao što su Lucid Hydra koji već sada omogućava sinhrone performanse i odlično skaliranje performansi. Pride, 3D ide u narednim Catalyst drajverima kao standard.


Inače, najbitniji faktor je zaboravljen. Kakve performanse po vatu ili milimetru kvadratnom, nego performanse po kšz-u (količina šuškavih zelembaća). Svi vole, čak i na ovom forumu, da pričaju i diskutuju o raznoraznim Fermijima i Radeon 5800 kartama, ali ubedljiva većina fura neki 5750/5770. Takvo je realno stanje stvari. U praksi, koliko god da Nvidia bude tražila za GF100, AMD će da obori cene Radeona dovoljno da ih učini vrlo, vrlo slabom kupovinom kada se govori o odnosu cene i performansi. To ne bi moralo biti dobro, kada bi GF100 bio osetnije brži od 5850/5870 karti, ali kako stvari stoje, biće tu negde sa njima, a 5850/5870 već neko vreme nude sumanuto dobre performanse za današnje igre.





BTW za tu diskusiju o GF 5900FX kartama - aman, ATI je tada razbijao sa 9700/9800 Pro/XT varijantama, no contest at all...i još imao bolji prikaz zbog FP32 naspram FP16, koliko su u Nvidiji smuljali. To me, naravno, nije sprečilo da zamenim svoj Radeon 9700 Pro, kartu koju sam verovatno najduže imao u mašini, za GeForce 6800 GT pa 7900 GT, ali 5900FX je bio smejurija. Ovaj Fermi će makar biti tu negde sa performansama u poređenju sa AMD kartama, onaj čak ni to nije bio u stanju :)
 
Poslednja izmena:
Pojavio se prekasno. Kasnio je. ŠTo se tiče standarda, Nv je pokušala biti pametnija od Microsofta koji je ipak referentna točka za svoju platformu.

Jeste kasnio, i jeste se pojavio kasnije u odnosu na R300, ali je definitivno bio cip koji je doneo neke novine u 3D svetu (i zbog te nedoradjenosti se pojavio prerano. NV je zagrizao vise od onoga sto je mogao da proguta).

Na kraju krajeva, imali su 5900FX Ultra sa 256-bita i 256Mb DDR2 koji u usporedbi s 9800Pro i XT nije bio ništa bolji. Razlog je bio taj što nisu poštovali standard i trpile su pixel shader 2.0 performanse. Naknadno su pokušali uticati na promjenu standarda i izvodili egzibicije s driverom, no nije pomoglo.
I žašto bi TSMC bio kriv što je NV forsirala novi proces? Isto kao što im nije kriv ni sada kad su zapeli na 40nm.

Pa ni GF 6 nije postovao standard (shader model 3.0), pa je jeo malu decu.


BTW za tu diskusiju o GF 5900FX kartama - aman, ATI je tada razbijao sa 9700/9800 Pro/XT varijantama, no contest at all...i još imao bolji prikaz zbog FP32 naspram FP16, koliko su u Nvidiji smuljali. To me, naravno, nije sprečilo da zamenim svoj Radeon 9700 Pro, kartu koju sam verovatno najduže imao u mašini, za GeForce 6800 GT pa 7900 GT, ali 5900FX je bio smejurija. Ovaj Fermi će makar biti tu negde sa performansama u poređenju sa AMD kartama, onaj čak ni to nije bio u stanju :)

Vec sam rekao da je NV30 hardverski podrzavao FP32, a koja je skinuta kroz drajver. R300 nije podrzavala FP32 preciznost, vec FP24.

Nije da branim NVidiju, NV30 je definitivno kaskao sa perfomansama, ali je bio osnova jedne mnogo mocnije arhitekture.
 
I sta je poenta ovog prepucavanja?
 
Pa morali su nekako da ostanu konkurentni, pa makar i tvikovanjem drajvera (tacnije, skidanjem preciznosti tekstura sa FP24/32 na FP12/16). Da je NV u startu izbacila "optimalni" drajver, tesko da bi iko i primetio tako nesto (nego su ljudi provalili da je sa novim drajverom NV znatno poboljsao 3D Mark rezultat).

Izvini da li ti to njih opravdavas:zgran: Pa to je podvaljivanje svojim kupcima, ja stvarno ne mogu da razumem kako nekome to moze da bude ok.
Ja mogu da shvatim greske u drajverima, mogu cak i da razumem i ovu brljotinu sa spaljivanjem grafickih, ko radi taj i gresi, s tim sto bi bilo ok da nadoknade stetu i onima koji nemaju garanciju, ako to urade ja im skidam kapu. Ovo je sa druge strane 100% prljava igra, po svaku cenu imati performanse. Pateticno!

Ono sto mi je stvarno smesno jeste da se sa jedne strane napominje kako ATI nema Physx, koji je realno samo dodatna sminka, a sa druge strane je ok da NV sasece kvalitet prikaza i detalje da bi bili konkurentni:wall:
 
Nemojta sada o varanjima u driveru. Informisite se koje prvi poceo: http://techreport.com/articles.x/3089/1

Bez Physx-a igra izgleda drugacije. Da li to nekome fali ili ne, nije moj problem. Zasto NVidia ne dopusta da se geforce koristi kao sekundarna karta za proracun fizike? Jednostavno jer bi postali talac ATI-a. Zamislite da vam prodaju proizvod koji racuna fiziku, a ATI napravi neku zvrcku u driverima i sekundarna karta ne radi fiziku. To moze da uradi slucajno ili namerno. A ko ce biti kriv sto ne radi? Pa NVidia.

Dakle ako hocete da vidite igru onako kako su je tvorci zamislili:
- Kupite odgovarajuci geforce i sve radi out-of-box
- Kupite ATI u ubudzite neki geforce i nadate se da ce to da radi.
 
. Zasto NVidia ne dopusta da se geforce koristi kao sekundarna karta za proracun fizike? Jednostavno jer bi postali talac ATI-a. Zamislite da vam prodaju proizvod koji racuna fiziku, a ATI napravi neku zvrcku u driverima i sekundarna karta ne radi fiziku. To moze da uradi slucajno ili namerno. A ko ce biti kriv sto ne radi? Pa NVidia.

Da,da,mora da je zato...:D
 
Ono sto mi je stvarno smesno jeste da se sa jedne strane napominje kako ATI nema Physx, koji je realno samo dodatna sminka, a sa druge strane je ok da NV sasece kvalitet prikaza i detalje da bi bili konkurentni:wall:

Pa zar kod grafike i nije sve u lickanju? Ako volis neusminkano, onda ce ti i najslabije karte biti dovoljne, koji ce ti djavo Fermi ili Cypress?
 
Status
Zatvorena za pisanje odgovora.
Vrh Dno