Šta je novo?

The DirectX 12 Performance Preview: AMD, NVIDIA, & Star Swarm

^ Znači opet hipi reddit dečurlija :)
 
Isto kao sto su ljudi iz nVidije videli da ce Doom u Vulkanu davati daleko bolje rezultate na AMD kartama iako su oni prvi promovisali taj patch :)

Edit: Samo da znas, programeri Ashes i dalje tvrde da nemaju nikakve veze sa AMDom :):) To sto je neko programer, ne znaci da mu je ugradjen switch "ne lagati".

^ Znači opet hipi reddit dečurlija :)

Ma reddit, cs:go pro turniri, jure pokemone kad izadju napolje. Sta ce jadni, ne znaju za bolje.
 
Poslednja izmena:
Koliko znam u projektu 3D Mark Time Spy ucestvovali su AMD, nVidia, Intel, Microsoft, valjda bi ostali igraci videli ako se kod pise da ide na ruku nVidia-e.

Taj "projekat" je parce softvera koje je nastalo da bi programer leba zaradio, nije to od javnog znacaja. Nikad mi nisu bili simpaticni, ali im je kul bio onaj Max Pejn reel i demo sa kamioncicima iz prvog Marka (mogli su da se voze u paid verziji). Ceo legacy te firme je sto je stvorila armiju likova koji kupuju skupe graficke da bi skidali kulere, trpali tecni azot u pot iznad chipa i vreli benchmark u nedogled. Umesto da taj akcelerator koriste za osnovnu namenu, ubrzavanja renderinga u full 3D igricama. Eh da, napravili su onaj online shooter u 0g koji je bio mnogo dobar nego igru niko nije "skapirao" :)
 
Pa cak i taj 3DMark developer je u drugom svom postu izjavio da njihov async u stvari samo pokusava da iskoristi sve idle shadere, a ne da ih paralelno uposli sto je poenta za async koji koriste igre.

Yes it is. But Engine cannot dictate what the hardware has available or not.

Async compute is about utilizing "idle" shader units. Slower the card, less idle ones you have. Less capable hardware may also be hard pressed to utilize all of them even if the engine asks nicely. Also there may be limitations as to what workloads in the engine *can* run in parallel. Yes, Time Spy is very graphics-heavy, since, well, its a graphics benchmark. But even there many of the rendering passes have compute tasks that can use this.

Ultimately some AMD cards gain quite a bit (ie. they have a lot of shader units idling while rendering and they are very good at using them for the available paraller loads). Some AMD cards gain less or not at all (either less capable at paralleriziing, less idle shader units or no idle shader units at all - for example a HD 7970 is hard pressed to have any to "spare")

Some NVIDIA cards cannot do this at all. The driver simply says "hold your horses, we'll do this nicely in order". Some NVIDIA cards can do some of it. They might use another way than AMD (more driver/software based), but the end result is the same - the card hardware is capable of doing more through some intelligent juggling of the work.

One koje mogu maksimalno da iskoriste paralelnost to i čine, one koje ne mogu se ne forsiraju i ne zagušuju, već rasterećuju na drugi način ako je to moguće. Očekujem i da svi ostali implementiraju tu mogućnost. ;)
 
Poslednja izmena:
On sigurno zna sta rade igre na kojima nije radio. Jos jedan sveznajuci strucnjak koji zna sve o softveru koji nije pisao a kada ga pitas za softver koji je pisao zasto ne radi to i to ne ume da odgovori :)

E a sto ce biti shock! kada PS4 Neo u 4K izbaci grafiku o kojoj PC moze da sanja, doduse u neigrivih 30 fps, jos plus sinematicni tresic za decicu koja nisu dostojni kompetitivnog zanosa. Sigurno ce neki nV certified programer da nam objasni da oni tamo nesto petljaju i da ono sto vidimo na televizoru zapravo ne postoji nego su nas hipnotisali.
 
Poslednja izmena:
Gde dolazimo do toga da je dx12 (kao i vulkan) low-level i da razvojni timovi moraju sami znati da iskoriste sve low-level mogućnosti različitih hw arhitektura, a ne da prate šablon naučen na jednoj arhitekturi, i ostanu na tome :)

Edit 2: Ili je od jednom loše to što je pronađen način koji će dati kakav takav boost i nV kartama u odnosu na dx11, što dovodi do toga da bi igre mogle primenjivati oba sistema, tj. sistem koji bolje leži karti koja je u tom trenutnku ubodena ako je to potrebno...? Po meni to je i poenta low-level api-a.
 
Poslednja izmena:
Problem je sto je async dizajniran da radi parelelno kako bi smanjili latenciju i tako dobili fps. To sto je 3DMark uspeo da uradi je ustvari ono sto nV driver tim ne zna da uradi.
Developer nije duzan da pise specijalan kod za odredjenu karticu jer je to za njih dodatno vreme/ulaganje, pogotovo kad znaju da mogu da ugase i da nemaju glavobolju zbog toga.
 
Lose je sto se obecavaju kule i gradovi, i to od lidera PC copora u koji se kunu master rejs ekipa, a dobija se kikiriki. Aj bas da vidim sto ces se naigrati u 4K na 1070. Na onoj drugoj platformi 30 fps nije sramota tolika da se covek proglasi neuracunljivim (ima toga po netu kol'ko hoces) a igre ce da izgledaju fabulozno u "fejk" 4K. Za to vreme cast low level next gen Windows 10 gejminga ce da brani EA sa Battlefieldfrontima, dok i njih to ne smori. Dok ne stigne mocni Skorpion, ako gosn. Nadela ne povuce kabl iz uticnice do tada citavoj gejming sekciji.

Nije ni AMD napravio bog zna kakav pomak, ovo ih jedva ostavlja u trci. Ove druge treba da bude sramota sto kao lider nisu u stanju da to prisvoje a proslo je toliko godina.

Razvojni timovi nikada nece iskoristiti nista sto ne moraju na platformi gde se grafike prodaju za 500+ evra i niko nema problem sa tim. Sklepace neki multi adapter koji ce raditi marginalno bolje od trenutnih SLI/CF resenja i reci ce ti nesto u fazonu, oces da se igras na max u max rezi, dodaj cet'ri grafike od 800 evra uz Intel od 1500 evra i teraj 4K u 144 fps u next gen Source^2 Counter Strike.
 
Problem je sto je async dizajniran da radi parelelno kako bi smanjili latenciju i tako dobili fps. To sto je 3DMark uspeo da uradi je ustvari ono sto nV driver tim ne zna da uradi.

Problem je to što se ovih 5-6% dobitaka u odnosu na dx11 kod Pascal-a u ovom benchu prikazuje kao varanje, a ne kao dobro iskorišćavanja dostupnog hw-a. Pa čak i da nisu maksimalno iskoristili AMD kartu u bench-u, možda jesu, ne mora da znači da nisu, ovaj prvi podatak je itekako vredan pažnje, a ne nešto što treba u startu ispljuvati i satrti.


Developer nije duzan da pise specijalan kod za odredjenu karticu jer je to za njih dodatno vreme/ulaganje, pogotovo kad znaju da mogu da ugase i da nemaju glavobolju zbog toga.
Upravo su mnogobrojni developeri kukali kako nemaju pristup hw-u, te da moraju da nagađaju kako driveri odrađuju posao, jer tobože nemaju pristup otvorenom kodu, a sve kako bi zamaskirali sopstvenu nesposobnost. Sada kada su konačno dobili otvoren pristup do hw level-a svi su se razbežali u mišje rupe ili rade copy/paste i sve se svodi na implementaciju AS on/off. Još dugo će sve zavisiti od toga koliko hw kompanije mogu kroz softversku podršku da isprate svoje proizvode i oni koji budu imali bolju saradnju sa AAA razvojnim timovima bolje će i prolaziti.
 
Poslednja izmena:
Kolko' sam cito', NV je tu 'paralelizaciju' koju koristi AS, nesto drugacije postavlia da sljaka u Pascal kartama, u odnosu na Maxvell chip, ( koliko sam onako laicki razumeo ), pa zato se pokazuje odredjeni boost sa koriscenjem tih Asinhronih Shadera :mad: :d
 
Poslednja izmena:
Kolko' sam cito', NV je tu 'paralelizaciju' koju koristi AS, nesto drugacije postavlia da sljaka u Pascal kartama, u odnosu na Maxvell chip, ( koliko sam onako laicki razumeo ), pa zato se pokazuje odredjeni boost sa koriscenjem tih Asinhronih Shadera :mad: :d

Bitno je da bolje radi, a sad kako i zasto bolje radi, nije me briga :D
 
@rAMA, to definitivno nije prevara, ali kao sto je onaj sa oc.net objasnio, nije isti princip. Mozda je prevara taj nacin rada nazivati async. Sto se gcn kartica tice, verovatno se vidi manji dobitak jer kartica i dalje radi prakticno serijski i ne koristi ono sto joj pravi async ustvari omogucava. Cak i za async treba optimizacija (nije bas sve samo on/off). Kada je bila ona prepirka izmedju nv i AotS developera, bila je izjava da developeri koji rade na konzolama imaju mnogo veci dobitak od async (30% ako se ne varam). Kada 30% dobitka od async postane standard za PC, tada ce nV imati problem ako u medjuvremenu ne izbace karticu koja moze nativno da radi async jer pretpostavljam da ce softverski morati da pisu zasebni kod za svaku igru koja koristi async da bi izvukli 5-6% kao sto to radi time spy...
 
Bitno je da bolje radi, a sad kako i zasto bolje radi, nije me briga :D

Jako je bitno da bolje radi u Nvidamarku, manje bitno/nebitno što ne radi u igrama, pardon lošim portovima:d

Vidim da ce Pascal ekipa već dogodine opet u kupovinu:d
 
Još prvo da izbace nešto što će prići 1070/1080, pa čak i u tim lošim po nV naslovima :d

index.php
 
Poslednja izmena:
Jako je bitno da bolje radi u Nvidamarku, manje bitno/nebitno što ne radi u igrama, pardon lošim portovima:d

Vidim da ce Pascal ekipa već dogodine opet u kupovinu:d
Pa tada ce izaci 1080Ti, neki ce i to uzimati umesto 1080. Kupci skupih modela to menjaju sezonski, irelevantno je kako ce karta raditi za 3-4 godine.
 
a videcemo sta ce biti, osim tih par fps-a vise dx12 nije neka bitna tema...bar je tako za sada
 
Nebitno je to što 290 ima iste/bolje performanse od 1070 u doom:d sada, bit će još igara sutra.
 
Poslednja izmena:
Jedino fury x tuče gtx 1070 u doom-u, naravno ne računajući gtx 1080 koja nema konkurenciju. Treba dodati i to da još ne postoje driveri sa zvaničnom vulkan podrškom u doom-u za nv karte :)

http://www.eurogamer.net/articles/d...n-patch-shows-game-changing-performance-gains
okl9zKD.jpg


9SMdpS8.jpg



Btw, nemoj očekivati da se bilo ko osim id-a i fanatika iz croatema uhvati u koštac sa vulkanom i pri tome odradi posao na nivou poput njih.
 
Poslednja izmena:
zeleni si tek najavili drajvere za DOOM tako da ovo jos nisu pravi rezovi...
 
Tja, samo malo kloknuti 980Ti i nema sta tu da trazi Furisa i u tim vulkancicima....:D
 
980Ti gazi sve, to već znamo :p
 
Ako dx12 vise nije bitan, zasto ljudi kupuju nove graficke?
 
S obzirom da na svom steam accauntu koliko vidim ima RoftTR i Hitman-a, mislim da je to dovoljno :d

BTW u RoftTR za sada nvidia VXAO ne može da se upali u dx12 modu, te u dx11 igra zaista izgleda vizuelno lepše. :p
 
Poslednja izmena:
pa ok ako preko 2 igre iznosimo zakljucke sta i koliko donosi ... onda sve u redu ;)
 
Pa ni nema ih više od toga :)
 
Nazad
Vrh Dno