Šta je novo?

Fermi is Nvidia's DirectX 11

Status
Zatvorena za pisanje odgovora.
Meni je ovde jedna stvar interesantna. Kada se pojavio Rade 5870 glavna zamerka mu je bila što ne postoje igrice koje će da koriste njegovu snagu, 5870 je bio overkill, šta će to kome tolika računska snaga, nove igrice će biti portovi sa konzola, DX11 je sr**e...
Sada odjednom karta koja će da se greje 50% više od dotičnog radeta, košta 50% više i ima performanse više za 50% (best case scenario) nije overkill???

Eh, ko da si juce kupio PC :)
Proslo je nekoliko meseci od te price :) sasvim dovoljno da je vec potrebno nesto novo i brze :D
 
Kako je sad cinicna ona nv izjava da "dx11 is not important":D.Pre bi se reklo da ati-u u stvari nije toliko bitan, finansijski gledano napravili su pametniji potez, manje vise duplirali prethodnu generaciju, i to je to.A tehnoloski ce se valjda malo vise dokazati sa 6800 serijom.

U eri portova sa konzola i nije bitan.
 
Eh, ko da si juce kupio PC :)
Proslo je nekoliko meseci od te price :) sasvim dovoljno da je vec potrebno nesto novo i brze :D

Naravno da je potrebno. Teselirane zastavice i voda srozavaju FPS na pola:d Treba nam nesto jace, i eto...dolazi nam nesto sto moze da teselira scenu u full-u...:p*






*makar to bio samo neki demo, posto takvih igara verovatno videti necemo, lol
 
Poslednja izmena:
@Starac Generalno da, ali izgleda da ce biti dosta bolji u tome od 5800.
 
Naravno da je potrebno. Teselirane zastavice i voda srozavaju FPS na pola:d Treba nam nesto jace, i eto...dolazi nam nesto sto moze da teselira scenu u full-u...:p*






*makar to bio samo neki demo, posto takvih igara verovatno videti necemo, lol

Jel' to FPS linearno pada sa brojem zastsavica ili kako? :D

@ Starac: Pa neka su portovi, kroz DX11 neke stvari rade brze neki efekti se mogu izmeniti, poboljsati... a tu je i teselacija :D
 
Ako nishta drugo, igre ce izgledati lepshe nego na konzolama.
 
Ako stvari budu jednostavne kao sto procitah u nekom od tekstova, da teselacija za objekte na sceni moze da se primeni pravljenjem obicne displace mape (znaci prostije i bolje nije moglo, znaci cupkam od srece zbog toga:D ), a ne samo kroz neke formule i programerski mambo-dzambo, onda je sky iz da' limit:)

Sve ce zavisiti od mogucnosti hw-a i nV uostalom...da kroz svoj zli TWIMTBP program navodi developere da to masivno koriste u igrama...a ne za neke gluposti na koje niko ne obraca paznju.
 
"To resolve the hazards of OoO, GF100 has a private communication channel just for the PolyMorph Engines that allows them to stay together on a task in spite of being spread apart. The fact of the matter is that all of the work that goes in to making a design like this work correctly is an immense amount of effort, and NVIDIA’s engineers are quite proud of this effort. They have taken the monolithic design of prior GPUs’ geometry units, and made it parallel. We can’t overstate how much of an engineering challenge this is.

However all of this work came at a cost, and not just the significant engineering resources NVIDIA threw at GF100. The other cost was time – we believe that the PolyMorph Engine is the single biggest reason that GF100 didn’t make it out last year. It’s the single biggest redesign of any component in GF100, and is something that NVIDIA had to start virtually from scratch on. When NVIDIA told us that designing a big GPU is hard, this is what they had in mind.

Now why did NVIDIA put themselves through all of this? Because in their eyes, they had to. The use of a fixed-function pipeline in their eyes was a poor choice given the geometric complexity that a tessellator would create, and hence the entire pipeline needed to be rebalanced. By moving to the parallel design of the PolyMorph Engine, NVIDIA’s geometry hardware is no longer bound by any limits of the pipelined fixed-function design (such as bottlenecks in one stage of the pipeline), and for better or for worse, they can scale their geometry and raster abilities with the size of the chip. A smaller GF100 derivative will not have as many PolyMorph or Raster units as GF100, and as a result won’t have the same level of performance; G92 derivatives and AMD’s designs both maintain the same fixed function pipeline through all chips, always offering the same level of performance."

"That leaves us on a final note: clocks. The core clock has been virtually done away with on GF100, as almost every unit now operates at or on a fraction of the shader clock. Only the ROPs and L2 cache operate on a different clock, which is best described as what’s left of the core clock. The shader clock now drives the majority of the chip, including the shaders, the texture units, and the new PolyMorph and Raster Engines. Specifically, the texture units, PolyMorph Engine, and Raster Engine all run at 1/2 shader clock (which NVIDIA is tentatively calling the "GPC Clock"), while the L1 cache and the shaders themselves run at the full shader clock. Don’t be surprised if GF100 overclocking is different from GT200 overclocking as a result."

"To differentiate themselves from AMD, NVIDIA is taking the tessellator and driving it for all its worth. While AMD merely has a tessellator, NVIDIA is counting on the tessellator in their PolyMorph Engine to give them a noticeable graphical advantage over AMD.

To put things in perspective, between NV30 (GeForce FX 5800) and GT200 (GeForce GTX 280), the geometry performance of NVIDIA’s hardware only increases roughly 3x in performance. Meanwhile the shader performance of their cards increased by over 150x. Compared just to GT200, GF100 has 8x the geometry performance of GT200, and NVIDIA tells us this is something they have measured in their labs.

So why does NVIDIA want so much geometry performance? Because with tessellation, it allows them to take the same assets from the same games as AMD and generate something that will look better. With more geometry power, NVIDIA can use tessellation and displacement mapping to generate more complex characters, objects, and scenery than AMD can at the same level of performance. And this is why NVIDIA has 16 PolyMorph Engines and 4 Raster Engines, because they need a lot of hardware to generate and process that much geometry."

"At this point tessellation is a message that’s much more for developers than it is consumers. As DX11 is required to take advantage of tessellation, only a few games exist while plenty more are on the way. NVIDIA needs to convince developers to ship their art with detailed enough displacement maps to match GF100’s capabilities, and while that isn’t too hard, it’s also not a walk in the park. To that extent they’re also extolling the other virtues of tessellation, such as the ability to do higher quality animations by only needing to animate the control points of a model, and letting tessellation take care of the rest. A lot of the success of the GF100 architecture is going to ride on how developers respond to this, so it’s going to be something worth keeping an eye on."
 
@Starac
A da ostavis i link mozda? Vise volim da citam u originalu, a sem toga hocu da znam ko je autor teksta;)
 
Ako stvari budu jednostavne kao sto procitah u nekom od tekstova, da teselacija za objekte na sceni moze da se primeni pravljenjem obicne displace mape (znaci prostije i bolje nije moglo, znaci cupkam od srece zbog toga:D ), a ne samo kroz neke formule i programerski mambo-dzambo, onda je sky iz da' limit:)

Sve ce zavisiti od mogucnosti hw-a i nV uostalom...da kroz svoj zli TWIMTBP program navodi developere da to masivno koriste u igrama...a ne za neke gluposti na koje niko ne obraca paznju.

To je po meni izuzetna primena teselacije. Cudilo me je da je dosta ljudi bilo u fazonu koji ce nam to and stuff:)
 
@Lammasu: www.anandtech.com je autor.

Ovoliko poboljsanja i povecanja u broju izvrsnih jedinica bi moralo da donese 2x performanse GTX 285, ali tesko da ce tako biti, barem sa postojecim igrama. Mozda u najvisim rezolucijama i 8xAA u ponekom naslovu.
 
Poslednja izmena:
http://en.expreview.com/2010/01/18/gf100-official-benchmarks-unearthed/6475.html

GF100_performance_02.gif
 
Obzirom da je nestao core clock i da je ostao samo shader clock (koji je u G200 seriji ~1.5GHz) moguce je da je malo smanjen.. Svasta je moguce.. mozda NVidia izbaci monstera koji radi na preko 1GHz sa 3 milijarde tranzistora.
GF100 prakticno nema fixed function pipeline.. jedina fixed stvar je giga thread manager.
Sto se derivata tice... building blokovi GF100 su GPC (graphics processor cluster), SM (shader multiprocesori), RasterEngine i PolyMorph Engine.
Jedan GPC se sastoji od:
-1x Raster Engine
-4x (SM + PolyMorph Engine + 4xTMU + L1 Cache + 32 CUDA core-a)

GF100.png

GF100 ima 4 GPC-a. Moja pretpostavka je da direktni derivati (skartovi u proizvodnji) mogu da imaju 2 ili 3 GPC-a. Medjutim.. naknadni derivati mogu da imaju rekonfigurisan GPC sa smanjenim broj CUDA core-a po SM-u na 16 ili 24, 2 ili 3 PolyMorph engine-a, a Raster Engine bi uvek ostao u GPC-u.
 
Poslednja izmena od urednika:
za "Starca"

nije mi samo jasno sto je na tom sajtu npr kod "GEOMETRY SHADER PERFORMANCE i na TESSELLATION PERFORMANCE" nema nikakvog odstupanja u tabeli i stoji uvek isto za amd dok ima odstupanja u preformansama kod nvidia-e?

na ovo mislim
91e103.gif
10yhxfn.gif
 
Poslednja izmena:
To je relativna brzina u odnosu na ATI..
Znaci ako ATI generise cubemap za neko vreme V, nvidia ce to uraditi X puta brze. Ovo se ne odnosi na fps vec samo na brzinu tesselacije.
 
da ali kako je moguce da je kod ati-ja uvek isti odnos nema odstupanja ni malo?
 
@matrix: ATI vrednosti su referentne - to znaci da je ovim graficima prikazano koliko je GF100 brzi od ATI-a.
 
Objasnio ti je yooyo. ATI je zakucan za 100% dok zeleni bar pokazuje koliko puta je brža nVidia.

Još kad bi od ovoga napravili GT duplo manji a sa 90% performansi mojoj sreći ne bi bilo kraja. Naravno i da počnu praviti igre koje će iskoristiti sve prednosti FERMIja. Ne uzmite ovo kao zamerku, samo razmišljam naglas. U svakom slučaju impresivno i svaka čast nVidiji na napretku koji će doneti. Taman da pritisne i ove druge da ubrzaju malo.

Edit: pretekošte me :)
 
znaci u "directed test(high detail)" je nvidia brza vise od 6x puta od ati-ja i u direcx x aplikacijama 6x?
 
za "Starca"

nije mi samo jasno sto je na tom sajtu npr kod "GEOMETRY SHADER PERFORMANCE i na TESSELLATION PERFORMANCE" nema nikakvog odstupanja u tabeli i stoji uvek isto za amd dok ima odstupanja u preformansama kod nvidia-e?

na ovo mislim
91e103.gif
10yhxfn.gif

Jelte, ovi demoi su, nvidi-ni ili moze da se skinu?:)
 
"That leaves us on a final note: clocks.

The core clock has been virtually done away with on GF100, as almost every unit now operates at or on a fraction of the shader clock.

Only the ROPs and L2 cache operate on a different clock, which is best described as what’s left of the core clock.

The shader clock now drives the majority of the chip, including

the shaders,
the texture units, and
the new PolyMorph and
Raster Engines.

Specifically, the texture units, PolyMorph Engine, and Raster Engine all run at 1/2 shader clock (which NVIDIA is tentatively calling the "GPC Clock"),

while the L1 cache and the shaders themselves run at the full shader clock.

Evo pokusao sam da razluim i samo mo je jedna stvar potpuno jasna: klokova ima na sve strane!! Cip je enormno kompleksan (Čarli bi rek'o prekomplikovan i lose dizajniran :D ) pa nije ni cudo sto ima toliko problema u proizvodnji!

Jednostavno u pitanju je potpuno novi pristup i novi dizajn, koji dolazi na novi proizvodni proces i slikovito pada na njega k'o klavir sa desetog spreata!

Prakticno preslikana agonija koju je ATI prosao sa svojim novim dizajnom u vidu R600 na 80nm proizvodnom procesu!

Mislim da ce se sa sledecom konstatacijom sloziti i najzagrizeniji NVIDIAshi: dok se ne prebaci u 28nm, malo* ce se Fermija nashtancati!

* - naravno "malo" je relativna stvar, ali neka reper bude prethodna nova arhitektura - G80
 
Mislim da ce se sa sledecom konstatacijom sloziti i najzagrizeniji NVIDIAshi: dok se ne prebaci u 28nm, malo* ce se Fermija nashtancati!

* - naravno "malo" je relativna stvar, ali neka reper bude prethodna nova arhitektura - G80

Nemojmo preterivati, sa novijim revizijama yeald se dosta povecava to sigurno znas jer je takav slucaj i kod AMD-a :p
A i derivata Fermija ce sigurno za 6 meseca biti na kile naravno u nekoj novoj reviziji ;)
 
Uh, pa nije teselacija toliko brza kao sto je pisalo:trust:.

Pa ne mozes da ocekujes 3-5x (lupam) veci FPS koliko je brza teselacija. U sceni ima i drugih stvari osim teselacije, a poenta je da ukoliko se obilato koristi teselacija to ce nVidia imati vecu prednost nego da se ne koristi.

Imate na HardOcp-u sve slajdove:

http://www.hardocp.com/article/2010/01/17/nvidias_fermi_gf100_facts_opinions

i white papers:

http://www.hardocp.com/article/2010/01/17/nvidias_fermi_gf100_facts_opinions/2
 
Poslednja izmena:
Nemojmo preterivati, sa novijim revizijama yeald se dosta povecava to sigurno znas jer je takav slucaj i kod AMD-a :p
A i derivata Fermija ce sigurno za 6 meseca biti na kile naravno u nekoj novoj reviziji ;)
povecanje yielda je neosporno, ali ono nece imati uticaj na smanjenje, a samim tim i cenu cipa.

Seti se da je tek sa G200b shrinkom, doslo do povecanja ponude i pada cene GTX-ova,.
 
znaci u "directed test(high detail)" je nvidia brza vise od 6x puta od ati-ja i u direcx x aplikacijama 6x?

Ne.. nego je NV tesselator toliko puta brzi od ATi tesselatora. To ne znaci direktno toliko puta veci fps, jer na fps utice mnogo drugih stvari..
Poenta je da ako ATI napunis sa velikom kolicinom trouglova koje jos i mora da tesseluje pocece da umire pod tetretom posla, dok ce Fermi to da odradi bez muke.
Ako malo pogledate Uniengine grafikon, videcete da je Fermi min fps blizak ATI 5870 max fps. Verujem da bi se ATI jos vise srozao ako bi ga dodatno opteretili sa teselacijom.

@nedjo:
Fermi bar moze da izracuna kako ce se taj klavir raspasti kada tresne o zemlju. :)
Da li se neko u ATi-u brine zbog toga sto pojedini ATi korisnici kupuju dodatnu NVidiu i budze drivere samo zbog fizike za koju uporno tvrdite da je bezveze feature?

Koliko sam ja video clockova ima samo jedan... i to je shader clock. Neki delovi (tex uniti) rade na pola shader clocka dok drugi rade na full shader clocku. Ostaje samo zagonetka koliki je shader clock? Neka nagadjanja (na osnovu Tesla double precision performansi) su ~1.2GHz.

plz.. mani me sa tim "problemima u proizvodnju", "die size" i "potrosnja". Koga je to zaista briga?
 
Poslednja izmena:
Konacno smo saznali kako bi sve to trebalo da radi, a sada treba da cekamo jos mesec i po dana da bi videli i kako ce stvarno raditi.

Najava koja je preksinoc linkovana je realno najmanje kriticna prema citavoj stvari - svi ostali sajtovi su stavili prst na celo. Karta ce vrlo tesko u realnom radu biti brza 100% od prethodne generacije (GT200b) kao sto je tu najavljeno.

Da li vi stvarno mislite da su die size, perf/mm2, potrosnja i perf/wat nevazni podaci? Po meni su dva poslednja, pored cene, i najvazniji za korisnike, a za samu NVidiju su i ostali veoma bitni, jer im direktno odredjuju zaradu po svakom prodatom komadu. Negde procitah da je trenutni yield 20-25% - ako je AMD trenutno na 50% (sto je prilicno verovatno), jeftinije mu je kada podvuce crtu da proizvede dva Cypressa nego NVidiji jedan Fermi. Ako su tacni poslednji podaci o povrsini cipa, broj je cak blizi tri. To sto neko ovo ne shvata, ili ne zeli da shvati, ili ga jednostavno nije briga (sto je potpuno logicno sa stanovista krajnjeg korisnika, da se razumemo), ne menja cinjenicu da jeste tako, ali sam siguran da neko ko u NVidiji pravi biznis model veoma mnogo razmislja o svemu ovome.

Po meni ce veoma interesantno videti kako ce "seci" cipove koji nisu u potpunosti ispravni. Ako bi se iskljucio jedan GPC (sto bi bilo najlogicnije), dobili bi cip sa 384CC i 25% losijim performansama u teselaciji (zbog 4 PM engina manje). Opet, Tesla je najavljena sa 448SP, pa ako nije u pitanju potpuno nezavisan dizajn, to znaci da imaju mogucnost da iskljucuju i Cuda Cores nezavisno od ostalih delova Graphic clustera. U tom slucaju bi, kao sto napisah pre par meseci, mozda na samom predstavljanju imali vise od dve karte - GTX 380 bi bio full cip, GTX 375 bi imao 64 CC manje, uz ostali deo nedirnut, a GTX 360 bi imao ta 384 CC i 12 PM engina. Ukoliko bude jos "derivata", idu na dusu TSMC-a ;), koji ce, ako ovako nastavi, jos morati da im placa kako bi ostali kod njih.

Kada su realne performanse u pitanju, postoje samo dva razloga da ih sada ne objave... ili nemaju pojma sta ce im realno stici iz fabrike (tj. koje ce frekvencije moci da dostignu) ili znaju, ali svesno precutkuju taj podatak. Ni jedan razlog nije bas sjajan u najavi. Po meni, da znaju da imaju nesto sto ce da pomete konkurenciju, ne bi sedeli na toj informaciji u ovom trenutku.
 
Meni je zanimljiv ona demo rocket sledges. Kada se kucica raspadne lepo izgleda ali im malo "secka" Tacno se vidi da kada odredjeni broj krhotina padne na zemlju sve postane znatno glace. To je taj physics ali mu ocigledno treba dosta procesorske snage (ko je rekao 2 GPU-a?) jer dzaba svi kvaliteti i efekti ako to stalno nema 40+ fps, onda se jednostavno izgubi fluidnost koja je najbitnija da bi stvorila WOW efekat kod igraca, jer stvaran svet oko nas ne secka, zar ne, a jos manje radi sa 25 fps. :-devil-:
U svakom slucaju sa geometrijom i sa fizikom su NA PRAVOM PUTU, samo da u obicnim aplikacijama to postigne fps koji ima ATI sa novom 5850/5870, a da ne kosta k'o polovan bubreg, da im se ne bi dogodila sudbina 3DFX-a koji je imao u ono vreme i AA i motion blur koji je za to vreme bio revolucionaran, ali dzaba kad tu nije bilo brzine bez tih efekata koje tada programeri nisu koristili (mislim na 95% igara), a jos je i kostala samo tako. U svakom slucaju sa DDR5 memorijom, 384bit magistralom i 512SP tesko da ce napraviti gresku, samo cena... videcemo.

8x geometrijska procesorska moc, pa to obecava. Ocigledno ej da su sencenja dostigla i vise nego odlican nivo i da je sada vreme da se malo popravi geometrija, da kamenje i s stene budu stene, drvece drvece, trava trava, a kosa kosa, zar ne? Za nas korisnike je nekako physics najveci kamen spoticanja, to ej NVidia tehnologija, cuvaj je za tebe i ATI ne moze to koristiti. AKo se fizika pokaze jako bitnom u igrama onda ce ATI ili morati da "izmislja" nesto svoje ili da plati licencu (pod uslovom da NVidia zeli da je proda), jer tesko mi je zamisliti da ako za 2-3 godine to postigne glatkocu animacije i bude prisutno u 90% naslova da ce neko i razmatrati grafiku koja ne ume da radi fiziku. Zasto bi tada neko gubio 20 ili 30% igrackog dozivljaja a dao je 400e za grafiku? Pa dace jos 100 ako treba samo da to bude to. Burna vremena su pred nama, burna.
 
Poslednja izmena:
Status
Zatvorena za pisanje odgovora.
Vrh Dno