Šta je novo?

Fermi is Nvidia's DirectX 11

Status
Zatvorena za pisanje odgovora.
Meni je zanimljiv ona demo rocket sledges. Kada se kucica raspadne lepo izgleda ali im malo "secka" Tacno se vidi da kada odredjeni broj krhotina padne na zemlju sve postane znatno glace. To je taj physics ali mu ocigledno treba dosta procesorske snage (ko je rekao 2 GPU-a?) jer dzaba svi kvaliteti i efekti ako to stalno nema 40+ fps, onda se jednostavno izgubi fluidnost koja je najbitnija da bi stvorila WOW efekat kod igraca, jer stvaran svet oko nas ne secka, zar ne, a jos manje radi sa 25 fps. :-devil-:
U svakom slucaju sa geometrijom i sa fizikom su NA PRAVOM PUTU, samo da u obicnim aplikacijama to postigne fps koji ima ATI sa novom 5850/5870, a da ne kosta k'o polovan bubreg, da im se ne bi dogodila sudbina 3DFX-a koji je imao u ono vreme i AA i motion blur koji je za to vreme bio revolucionaran, ali dzaba kad tu nije bilo brzine bez tih efekata koje tada programeri nisu koristili (mislim na 95% igara), a jos je i kostala samo tako. U svakom slucaju sa DDR5 memorijom, 384bit magistralom i 512SP tesko da ce napraviti gresku, samo cena... videcemo.

8x geometrijska procesorska moc, pa to obecava. Ocigledno ej da su sencenja dostigla i vise nego odlican nivo i da je sada vreme da se malo popravi geometrija, da kamenje i s stene budu stene, drvece drvece, trava trava, a kosa kosa, zar ne? Za nas korisnike je nekako physics najveci kamen spoticanja, to ej NVidia tehnologija, cuvaj je za tebe i ATI ne moze to koristiti. AKo se fizika pokaze jako bitnom u igrama onda ce ATI ili morati da "izmislja" nesto svoje ili da plati licencu (pod uslovom da NVidia zeli da je proda), jer tesko mi je zamisliti da ako za 2-3 godine to postigne glatkocu animacije i bude prisutno u 90% naslova da ce neko i razmatrati grafiku koja ne ume da radi fiziku. Zasto bi tada neko gubio 20 ili 30% igrackog dozivljaja a dao je 400e za grafiku? Pa dace jos 100 ako treba samo da to bude to. Burna vremena su pred nama, burna.


Dati 500$ za graficku, koja ce nakon jedne godine da padne na 350$, a pri tome mozda se odigraju jedna ili dve vredne igre, moze dati samo pravi entuzijasta, da ne napisem nesto drugo. Odigracu je bez fizike, osim ako nvidia na svojim igrama ne odradi cuvenu foru, da je samu igru nemoguce pokrenuti bez njihove karte. I to za slucaj da odluce da ne prodaju licencu za physx.
 
Meni je zanimljiv ona demo rocket sledges. Kada se kucica raspadne lepo izgleda ali im malo "secka" Tacno se vidi da kada odredjeni broj krhotina padne na zemlju sve postane znatno glace. To je taj physics ali mu ocigledno treba dosta procesorske snage (ko je rekao 2 GPU-a?) jer dzaba svi kvaliteti i efekti ako to stalno nema 40+ fps, onda se jednostavno izgubi fluidnost koja je najbitnija da bi stvorila WOW efekat kod igraca, jer stvaran svet oko nas ne secka, zar ne, a jos manje radi sa 25 fps. :-devil-:
Zasto mislis da su to rendali na jednom GPU-u?

NVIDIA has taken a big risk on GF100, first with its compute abilities for GPGPU use, then on its geometry abilities for gaming, and now the risk is time.
U cemu je rizik ako je DX11 specifikacija vrlo striktna? Za compute koriste graficke sejdere. Teselacija, koja je ocigledni hajlajt ne samo ove generacije, se izvodi pomocu displacement mapa, te nije previse komplikovan posao za game razvojne timove. Samo sto mnogo kasne. Eto zasto je ova zima najhladnija poslednjih godina... :-devil-:
 
@yoyo: Ako si primetio na slici za Uniengine grafikon, teselacija je vec ukljucena ;) tako da nije sve toliko crno...

Mene zanima kako ce se nositi 5970 sa GT100...
 
Poslednja izmena:
Da li se neko u ATi-u brine zbog toga sto pojedini ATi korisnici kupuju dodatnu NVidiu i budze drivere samo zbog fizike za koju uporno tvrdite da je bezveze feature?

Koliko ja znam mnogo cesci je bio slucaj da korisnici ostavljaju svoju staru NV kartu za fiziku, a kupovali su nove ATI-jeve 5000 karte kao primarne. Pa ako se NV nije sekirala zbog toga sigurno nece ni ATI.

Mnogo je velika razlika izmedju "bwaaahahaaa 'moja' kompanija ima najbrzu kartu na svetu" i "super, mogu da kupim kartu bas kakva mi treba po razumnoj ceni".

Odmaknite se jedan korak unazad ljudi i pogledajte kako svet zaista izgleda.
 
+1

Al je mnogo lakše podmetati klipove konkurenciji kroz razne programe i limite u driverima te igrati na kartu vendor lockin-a.
 
Da li se neko u ATi-u brine zbog toga sto pojedini ATi korisnici kupuju dodatnu NVidiu i budze drivere samo zbog fizike za koju uporno tvrdite da je bezveze feature?

Koliko sam ja video clockova ima samo jedan... i to je shader clock. Neki delovi (tex uniti) rade na pola shader clocka dok drugi rade na full shader clocku. Ostaje samo zagonetka koliki je shader clock? Neka nagadjanja (na osnovu Tesla double precision performansi) su ~1.2GHz.

plz.. mani me sa tim "problemima u proizvodnju", "die size" i "potrosnja". Koga je to zaista briga?

Klasično razmišljanje kao entuzijasta, koji ne gleda šta pokreće industriju. Kartice koštaju toliko koliko koštaju upravo zbog prebrze smene generacija, tj. činjenice da se jedan čip proda u suviše malo primeraka, tj. na njima su realno mali profiti, bio on veliki ili mali. Ko će da kupi Fermi u većoj količini i zbog čega? Zbog RT demoa ili onog sjajnog rocket sled demoa? Igre se i dalje portuju sa konzola, najveća razlika između tih verzija i PC verzija je bila u Betmenu koji je imao nešto malo bogatiji enviroinment zbog magle i plašta. Na Mirror's Edge PhysX se čekalo pola godine samo da bi imali nekoliko zastava i realno razbijenih prozora. I u koliko primeraka može da se proda najjača GF100 kartica, kada je broj prodatih igara, ako ne računamo onih par hitova koji se obavezno igraju u MP-u i obično imaju u najboljem slučaju prosečnu grafiku, obično 10 do 15 puta manji u odnosu na verzije sa konzola? Šta bih ja sutra pokrenuo na GF100 kartici, kada i sa HD5870 imam i previše veliki fps u svemu osim u nabudženom Crysis-u. Pa ja sam za igru iz 2007. čekao dve godine da bih je igrao kako bi trebalo da se igra. O Crysisu 2 se već priča 2 godine, nema oficijelnih shotova, ko zna kad će izaći, a i kad izađe, ni GF100 ga neće voziti sa apsolutnim maksimumom detalja u 19x12. Zar je postalo bitno da kartice napravljene za gaming impresioniraju u demoima i samo u demoima?

Ako se uskoro čitava GPGPU priča ne spusti na taj nivo da skoro svaka aplikacija koju koristimo (a koja radi nenormalan broj kalkulacija i zakucava CPU na 100% kad god je pustiš da završava posao), radi uz svesrdnu pomoć GPU-a više niko neće kupovati high end akceleratore osim overklokera i nekolicine testera i ljudi koji su od juče na PC sceni, imaju para za bacanje pa misle da će imati bolje igračko iskustvo sa najbržom grafičkom kartom. Ali takav broj ljudi je sve manji, jer sada i kartice koje koštaju 100 evra rade odličan posao, a retko kome treba išta bolje od one koja košta 300-ak evra. Ako nvidia misli da napravi čudo sa čipom koji je toliko kompleksan, malo su se zeznuli, pogotovo ako jako brzo ne izađe neki 2x manji čip koji radi na većoj frekvenciji i kartica sa njim ne bude u rangu sa HD5850 po performansama i ceni. A do tada će HD5870 ili jači model koštati oko 250 evra. Taman sam mislio da su nešto naučili sa GT200, ali izgleda da nisu... Ili... je njihova procena za rast tržišta jeftinih super kompjutera prilično optimistična, pa polažu sve nade u Teslu...
 
Da li vi stvarno mislite da su die size, perf/mm2, potrosnja i perf/wat nevazni podaci? Po meni su dva poslednja, pored cene, i najvazniji za korisnike, a za samu NVidiju su i ostali veoma bitni, jer im direktno odredjuju zaradu po svakom prodatom komadu.
Kao da ce Fermi trositi 300W vise od 5870.:p Trosice 50ak W vise, sto je danas u eri napajanja od 600-700W smesna cifra.
Jel se ovo perf/wat odnosi striktno na FPS u igrama?:)
 
Kao da ce Fermi trositi 300W vise od 5870.:p Trosice 50ak W vise, sto je danas u eri napajanja od 600-700W smesna cifra.
Jel se ovo perf/wat odnosi striktno na FPS u igrama?:)

Pa ne znamo koliko ce trositi, to je i poenta, to nisu rekli. To zavisi od brzine koja ce im trebati da postignu potrebne performanse, a ona je direktno uvezana sa naponom na kojem ce cip onda morati da radi. Dok ne saznamo tacne specifikacije, sve je "educated guess".

A perf/wat se ne odnosi iskljucivo na FPS, ali moze i na to :) Sve zavisi za sta koristis graficku kartu ;)
 
Ako se ne odnosi samo na FPS, onda mislim da ce perf/watt biti odlican.:)
 
Ako se ne odnosi samo na FPS, onda mislim da ce perf/watt biti odlican.:)

To ne sporim, ko intenzivno koristi CUDA, bice veoma zadovoljan. Drugo pitanje je kolikio je to ljudi ;)

Ajde da uzvratim jednim kontrapitanjem... da li mislis da ce se NVidia ustezati da predstavi GeForce GTX 380 sa potrosnjom od ~300W ako im toliko bude potrebno da imaju najbrzi GPU? (ne da mislim da ce trositi 300W, pitanje je retoricko ;))
 
Ajde da uzvratim jednim kontrapitanjem... da li mislis da ce se NVidia ustezati da predstavi GeForce GTX 380 sa potrosnjom od ~300W ako im toliko bude potrebno da imaju najbrzi GPU? (ne da mislim da ce trositi 300W, pitanje je retoricko ;))
Mislim da nece, napravili su to sto su napravili, sad nema nazad. Ali takodje mislim da im ne treba 300W za najbrzi GPU.:)
 
...Ali takodje mislim da im ne treba 300W za najbrzi GPU.:)

Pa slazemo se, ne mislim ni ja ;), ali je i dalje sve to "u magli" i niko van uskog kruga ljudi u samoj kompaniji nema pouzdane informacije (ili makar ne sme da ih otkrije :p).

Kao sto rekoh, saznali smo kako bi to trebalo da radi, ali ne i kako ce stvarno raditi. To cemo manje/vise znati kada objave tacne specifikacije, a posebno kada neko dobije kartu i testira je u realnim uslovima.
 
Mislim da ce FERMI sa svim svojim novim mogucnostima doneti pravi pomak u konzolama a ne u PC, jer je najavljeno da ce se 2011 godine izbaciti nove verzije XBOX i PLAYSTATION konzola od koje ce jedna morati da ima FERMI, a to znaci gomilu novih mogucnosti za programere koji tacno znaju kakav hardwer imaju na raspolaganju pa mogu da prave cuda kao sto je GEARS OF WAR.
Dok na PC programeri moraju da optimizuju za razlicite jacine hardwera plus sto imaju raskol izmedju ATI i NVIDIJE pa moraju da posebno optimizuju za ove dve kartice, sto programerskim kucama stvara dodatan trosak vremena i novca a pitanje je kako ce se igra prodavati.
 
Kao da ce Fermi trositi 300W vise od 5870.:p Trosice 50ak W vise, sto je danas u eri napajanja od 600-700W smesna cifra.
Jel se ovo perf/wat odnosi striktno na FPS u igrama?:)

Meni se čini da taj tvoj Corsair neće moći da tera i7+FERMI kombinaciju. To jest pokrenuće se mašina ali ima da bude poof posle dva sata Crysisa. Moram da priznam da mi se ideja kilovatnog napajanja, gde pri igranju cela mašina vuče ~800W nimalo ne dopada. Karta je zver ali je stvarno pravljena za industrijsku primenu a ne za kućno igranje. Ako misliš da lupam i da će stvarno trošiti samo 50W više od 5870 pogledaj još jednom one konektore za napajanje ;)
 
a ovo si video gde?

Microsoft je najavio novu verziju XBOX-a.

Jedan od zvanicnika koji radi na FARCRY 2 je izjavio da se nista posebno nece desiti pre 2011 na PC-u kada sledi nova verzija konzola (mislim da se lik zove Cervat ili tako nesto)
 
^To nije tacno, mnoge stvari si malko pobrkao, i - vratite se na temu. A tema NIJE datum izlaska sledece generacije konzola.
 
Mislim da ce FERMI sa svim svojim novim mogucnostima doneti pravi pomak u konzolama a ne u PC,
:trust:
jer je najavljeno da ce se 2011 godine izbaciti nove verzije XBOX i PLAYSTATION konzola od koje ce jedna morati da ima FERMI,

Najavljeno? Morati??
a to znaci gomilu novih mogucnosti za programere koji tacno znaju kakav hardwer imaju na raspolaganju pa mogu da prave cuda kao sto je GEARS OF WAR.

to "cudo" radi na XBOX-ovom GPU-u koji je uporediv sa Radeonom X1900Pro!

Dok na PC programeri moraju da optimizuju za razlicite jacine hardwera
:type:
plus sto imaju raskol izmedju ATI i NVIDIJE pa moraju da posebno optimizuju za ove dve kartice,
"raskol"?! :p
ko kaze da moraju? Samo treba da koriste standardne API-je: DirectX i OpenGL...
sto programerskim kucama stvara dodatan trosak vremena i novca a pitanje je kako ce se igra prodavati.

ovo je za sada post godine, kako u sadrzajnom smislu, tako i u lingvistickoj formi!

Napisan od strane clana koji ima DEVETOGODISNJI staz na ovom forumu!

Stvarno da se covek zamisli...
 
Hoce li ijedna najavljena dx11 igra za 2010 godinu izgledati značajno bolje i kvalitetnije, i biti isto zahtevna ili zahtevnija od Crysis-a, odnosno da li ce se pojaviti igra koja ce nas ''naterati'' da promenimo graficke koje imamo ?

Pitam samo hocemo li imati objektivan i realan razlog za zamenom grafike nakon prezentacije igračkog hardware i software u 2010.godini i svega sto smo do sada videli ?
 
CITAT>
ovo je za sada post godine, kako u sadrzajnom smislu, tako i u lingvistickoj formi!

Napisan od strane clana koji ima DEVETOGODISNJI staz na ovom forumu!

Stvarno da se covek zamisli...

- Nedjo, idi lozi nekog drugog, okani me se.:smash:

Kao sto sam napisao, dzabe fermiju sve te prednosti i mogucnosti u odnosu na ati kad nijedna programerska kuca nece praviti igre samo za nvidiju a ati da izostavi. Proslo je vreme 3DFX-a kada su igre bile 3DFX only pa smo videli kako je prosao. NEk mi neko kaze ko sad moze da igra igrice od pre 10 godina koje su 3dfx only a da nema voodoo karticu ?
Dok directx igrice mozes i one se i dalje prodaju.
Tako i ovde, niko nece da pravi igricu samo za nvidiju ili ati, morace da se pravi kompromis.
Dok kod konzola imas tacno odredjen hardwer i mozes da iskoristis do maksimuma nvidijine mogucnosti.
Pitanje je koje godine ce izaci igrica koja ce da iskoristi sve mogucnosti fermija, najverovatnije ce fermi da dobije u medjuvremenu naslednika dok se to ne desi
 
Poslednja izmena od urednika:
CITAT>

- Nedjo, idi lozi nekog drugog, okani me se.:smash:
Ma opusti se bre ;)
Kao sto sam napisao, dzabe fermiju sve te prednosti i mogucnosti u odnosu na ati kad nijedna programerska kuca nece praviti igre samo za nvidiju a ati da izostavi.
pa nisi to napisao!
Proslo je vreme 3DFX-a kada su igre bile 3DFX only pa smo videli kako je prosao. NEk mi neko kaze ko sad moze da igra igrice od pre 10 godina koje su 3dfx only a da nema voodoo karticu ?
I taman kad pomislim da razumem sta si napisao, kad ono sledeca recenica:
Dok directx igrice mozes i one se i dalje prodaju.
Znaci ubijas me sa jezickim konstrukcijama! :trust:
Tako i ovde, niko nece da pravi igricu samo za nvidiju ili ati, morace da se pravi kompromis.
Kanda ce morati da se pravi kompromis... a opet nista se ne mora, samo se trebaju pisati igrie u standardizovanim API-jima: DirectX i OpenGL ;)
Dok kod konzola imas tacno odredjen hardwer i mozes da iskoristis do maksimuma nvidijine mogucnosti.
...ili ATI-jeve mogucnosti?!
'ajd posto si zapeo toliko oko konzola i fiksiranog hardvera, interesujeme kako ti zamisljas da se programira Modern Warfare 2 koji radi i na XBOX360 i na PS3, a u XBOX-u je "rodjak" Radeona X1900, a u PS3, rodjaka "GF7800"??
Pitanje je koje godine ce izaci igrica koja ce da iskoristi sve mogucnosti fermija,
tacka -> pa veliko slovo
najverovatnije ce fermi da dobije u medjuvremenu naslednika dok se to ne desi

Iako su ti zadnje dve recenice prosirene u jednu kobasicu, ono sto si napisao ima poentu i predstavlja vecitu temu mnogobrojnih rasprava na ovom i njemu slicnim forumima.

U svakom slucaju Fermi na belom papiru izgleda inovativno, kompleksno i komplikovano. E sad, kako ce to u praksi da radi i da li ce se ta kompleksnost materijalizovati u dovoljnoj kolicini , dovoljno hladnih, a opet brzih cipova, ostaje da vidimo... kroz dva meseca kad ce poceti prodaja!

:wave:
 
Nedjo ajde sad zamisli da si nešto drugo pa reci šta bi stvarno rekao pre nekoliko godina posle ovoga što si saznao o gf100 čipu.

Previše tražim, te da se vratiš kroz vreme, te da se staviš u poziciju u kojoj nisi i još da kažeš nešto što ne želiš ... ali osećaš. Nego indikativno je kako svi manje sumnjaju u performanse sada ali ostaje još da se sumnja u potrošnju i zagrevanje. Ne osuđujem ljude što tako razmišljaju samo konstatujem :d

Igre se naravno ne pišu za ATi ili nVIDIA harver već se koriste odgovarajući API koji su invarijantni na hardver. To što će ATI ili nVIDIA u drajverima morati da naprave mala remek dela to nije problem programera igara. Stvar je još gora jer mnogi ne pišu čak ni engine već licenciraju npr. UT3 mašinu pa onda "programiraju"
 
Uh, ja se najiskrenije nadam da ce chika Fermi da bude sve sto su ispricali,pa i bolji. Nanishanio sam onaj 5870 al' mi neshto skupo... :D
 
Poslednja izmena od urednika:
Ma opusti se bre ;)

tacka -> pa veliko slovo

Iako su ti zadnje dve recenice prosirene u jednu kobasicu, ono sto si napisao ima poentu i predstavlja vecitu temu mnogobrojnih rasprava na ovom i njemu slicnim forumima.

:wave:

Sto se tice recenica i teksta, tu si u pravu.
Em sto sam nepismen, em sto sve ovo pisem na trust bezicnoj tastaturi koju sam dobio na poklon koja vredi 1200dinzi. Tako da kada napisem dve reci moram par sekundi da sacekam da mi se ispise tekst na ekranu.Tako da dok mi cekam da mi se ispise tekst ja vec par recenica sam smislio i zaboravio u svojoj glavi. Rezultat je vidljiv.
Vec sam je sto puta bacio u kantu i vadio je iz nje jer sam se navikao na komfor kuckanja iz kreveta, a ne zelim da investiram u novi komplet.
 
Nedjo ajde sad zamisli da si nešto drugo pa reci šta bi stvarno rekao pre nekoliko godina posle ovoga što si saznao o gf100 čipu.

Previše tražim, te da se vratiš kroz vreme, te da se staviš u poziciju u kojoj nisi i još da kažeš nešto što ne želiš ... ali osećaš. Nego indikativno je kako svi manje sumnjaju u performanse sada ali ostaje još da se sumnja u potrošnju i zagrevanje. Ne osuđujem ljude što tako razmišljaju samo konstatujem :d

Igre se naravno ne pišu za ATi ili nVIDIA harver već se koriste odgovarajući API koji su invarijantni na hardver. To što će ATI ili nVIDIA u drajverima morati da naprave mala remek dela to nije problem programera igara. Stvar je još gora jer mnogi ne pišu čak ni engine već licenciraju npr. UT3 mašinu pa onda "programiraju"

Fermi je pushka ili truba nesto od ta dva.
 
Ovo me podseti na onu izreku: "Od pune puške se plaši jedan a od prazne dvojca". :)

sorry za off.

Neće Fermi biti truba. Ono što smo do sada videli obećava.
E sad, kakav će se kompromis morati da se napravi, videćemo.
 
Ovo me podseti na onu izreku: "Od pune puške se plaši jedan a od prazne dvojca". :)

sorry za off.

Neće Fermi biti truba. Ono što smo do sada videli obećava.
E sad, kakav će se kompromis morati da se napravi, videćemo.

Pa ako si spreman da das Nvidiji 300-500(verovatno i preko 600) evra, onda ok, u svakom drugom pogledu bice apsolutna truba, ko iz Guce! Dzaba je nesto najbolje kada ti treba 200 evra za napajanje i minimum 300 za graficku, a pre ce biti bar 500 evra.

Stvarno mi nije jasno kako to moze da bude fantasticno u takvim uslovima???
 
Status
Zatvorena za pisanje odgovora.
Vrh Dno