Šta je novo?

The DirectX 12 Performance Preview: AMD, NVIDIA, & Star Swarm

Vi i dalje raspravljate o nečemu što je odavno objašnjeno i ne obazirete se na to.

Zašto AS nije korišćen ranije? Zato što nije ni moguće u DX11 API-u. Nije bezveze AMD gurao Mantle, koji sada živi kroz Vulkan i DX12. Pre godinu dana je bilo 4 igre koje su koristile tu mogućnost (Mantle i GNM) http://www.anandtech.com/show/9124/amd-dives-deep-on-asynchronous-shading
Zašto nema više DX12 igara? To je API koji je objavljen letos, a razvoj igre ozbiljne traje 2-3 godine. Može nešto da se zbudži na brzinu (GoW), ali to nije to. Zato je npr. Deus Ex odložen. Ono što imamo za sada i što ćemo imati do kraja godine, sasvim je dovoljno/očekivano.

Zašto Maxwell sa manje trazistora radi bolje nego GCN ili Kepler? Pa ima manje tranzistora jer su izbačene/neimplementirane stvari koje neće koristiti. I zato u DX11 igrama, ACE blokovi stoje prazni, a trebalo je potrošiti silikon na njih. Međutim, kada postoji mogućnost za bolje iskorišćenje hardvera, tj. low-level API (Mantle, DX12, Vulkan, GNM...), onda vidimo malo drugačije rezultate
http://www.computerbase.de/2016-03/hitman-benchmarks-directx-12/2/
http://www.anandtech.com/show/10067/ashes-of-the-singularity-revisited-beta/3
(da znam da je beta, ali već je rečeno 100 puta da je ovo poslednja optimizacija performansi i da se do finalne verzije samo ispravljaju bagovi. Ko ne veruje neka pogleda za 10 dana ponovo)

Prebacivanje dela posla sa hardver na softver je ono što je omogućilo Maxwellu veće taktove i niži TDP u odnosu na Kepler i GCN i tome je pisano mnogo puta. Evo da obećam, ako GP104 karte dođu sa AS, u 16nm procesu i budu imale isti max. klok kao GM204, kupujem gajbu piva za društvo sa ove teme.

Što se tiče filipenkovog izbora igara, na stranu što je takav izbor skroz subjektivan, u nekim od tih igara GCN izjednačen sa Maxwell-om. Ja npr nisam igrao nijedan AAA naslov od prošle godine (a većina su TWIMTBP), dok planiram 4-5 ovogodišnjih. Ovde imamo, mnogi će se složiti, lep pregled jačine karata. Mada verujem da je nekima trn u oku to što su 970 i 960 iza konkurencije :) Ali na primer, ovde je 280X za 10% brža od 380X, a ja nikad ne bih uzeo Tahiti pored Tonge :)
http://www.pcgameshardware.de/Grafi...s/Rangliste-GPU-Grafikchip-Benchmark-1174201/
Ili npr. ova tabela
http://www.techpowerup.com/reviews/Sapphire/R9_390_Nitro/23.html
Ali svi ovi grafici su glupost, jer razlika od 2-3 frejma u proseku ne znači ama baš ništa, i mogu da se kladim sa bilo kim od vas da ne biste primetili razliku golim okom ako bi ista igra išla na 2 karte (iz iste klase), tj na dva PC-a paralelno

Na kraju, priče o day1 drajverima i patchevima nemaju veze sa arhitekturom već sa neozbiljnošću developera i izdavača. Pri tom neko stalno provlači priču da AMD kasni mesecima sa drajverima, a u proseku kasne 3 dana za nVidia-om, koja mesec dana kasnije izbacuje drajver za svoju igru (release notes za poslednje drajvere kaže između ostalog - This driver ensures you will have an optimal experience with... Rise of the Tomb Raider). Za RotTR AMD je izbacio drajver 3 dana kasnije, a ja koji sam uzeo igru odmah po izlasku, mesec dana kasnije sam stigao do 50%. U međuvremenu i jedni i drugi su ispravljali bagove sa tom igrom. A to je prevara, jer neću poluproizvod da platim 50€ (tj. 13€ kod braće Rusa :D ). I to je ono o čemu npr. Oxide priča. Njihova beta je u boljem stanju od neki igara nakon 2-3 patch-a. I rekli su da neće raditi nikakve optimizacije po izlasku. Evo primera jedne Gameworks igre koja je nekoliko meseci čekala na optimizaciju, čak i na Maxwell arhitekturi.
http://www.maximumpc.com/fallout-4-graphics-revisited-patch-13/
Nadam se da su vlasnici GTX-a srećni što su imali day1 drajver za Fallout 4. Posebno oni koji su do izlaska 1.3 patch-a prešli 90% igre.

Ponovo se vraćam na to da low-level API (DX12, Vulkan) prebacuje odgovornost sa IHV-a na developere i izdavače, tako da priče o drajverima više ne piju vodu. I ako dobijemo novog Betman-a, moći ćemo da ih oteramo u 3 lepe, iako ih to neće mnogo potresti
 
Poslednja izmena:
Vi i dalje raspravljate o nečemu što je odavno objašnjeno i ne obazirete se na to.

Zašto AS nije korišćen ranije? Zato što nije ni moguće u DX11 API-u. Nije bezveze AMD gurao Mantle, koji sada živi kroz Vulkan i DX12. Pre godinu dana je bilo 4 igre koje su koristile tu mogućnost (Mantle i GNM) http://www.anandtech.com/show/9124/amd-dives-deep-on-asynchronous-shading
Zašto nema više DX12 igara? To je API koji je objavljen letos, a razvoj igre ozbiljne traje 2-3 godine. Može nešto da se zbudži na brzinu (GoW), ali to nije to. Zato je npr. Deus Ex odložen. Ono što imamo za sada i što ćemo imati do kraja godine, sasvim je dovoljno/očekivano.

Pojam paralelizma tj. asinhronog izvrsavanja operacija kod GPU-ova postoji od davnina.
Iz tvog linka sa Ananda:
"Meanwhile Maxwell 2 has 32 queues, composed of 1 graphics queue and 31 compute queues (or 32 compute queues total in pure compute mode)."

Ovde je covek napravio jednostavan program koji po svemu sudeci dokazuje da Maxwell ima AS:

https://www.reddit.com/r/nvidia/comments/3j5e9b/analysis_async_compute_is_it_true_nvidia_cant_do/

E sad kako su implementirani, to je vec za dublju diskusiju.

Zašto Maxwell sa manje trazistora radi bolje nego GCN ili Kepler? Pa ima manje tranzistora jer su izbačene/neimplementirane stvari koje neće koristiti. I zato u DX11 igrama, ACE blokovi stoje prazni, a trebalo je potrošiti silikon na njih.

Ako bi ovo bilo tacno, a sta je onda sa logikom koja je zaduzena za teselaciju? Maxwell radi ekstremnu teselaciju daleko bolje od GCN karti iako se u igrama ne primenjuje u tolikoj meri:

75485.png


b3d-poly-throughput.gif


tessmark.gif


I tu su otisli tranzistori koji u tim situacijama stoje prazni.

Prebacivanje dela posla sa hardver na softver je ono što je omogućilo Maxwellu veće taktove i niži TDP u odnosu na Kepler i GCN i tome je pisano mnogo puta.

Bez ljutnje, ali ovo nema veze sa mozgom :) Sta znaci sa hardvera na softver ? Svaki kod (softver) izvrsava se na nekom hardveru, jedino je pitanje na kojem. Verovatno si hteo reci da je deo posla sa GPU hardvera prebacen na CPU hardver. Ne pije vodu nikako, onda bi performanse otisle u pm. I za vece taktove, kao i za pomenutu teselaciju, takodje odlaze dodatni tranzistori i potrebna je optimizacija hardvera.

Što se tiče filipenkovog izbora igara, na stranu što je takav izbor skroz subjektivan, u nekim od tih igara GCN izjednačen sa Maxwell-om. Ja npr nisam igrao nijedan AAA naslov od prošle godine (a većina su TWIMTBP), dok planiram 4-5 ovogodišnjih. Ovde imamo, mnogi će se složiti, lep pregled jačine karata. Mada verujem da je nekima trn u oku to što su 970 i 960 iza konkurencije :) Ali na primer, ovde je 280X za 10% brža od 380X, a ja nikad ne bih uzeo Tahiti pored Tonge :)
http://www.pcgameshardware.de/Grafi...s/Rangliste-GPU-Grafikchip-Benchmark-1174201/
Ili npr. ova tabela
http://www.techpowerup.com/reviews/Sapphire/R9_390_Nitro/23.html
Ali svi ovi grafici su glupost, jer razlika od 2-3 frejma u proseku ne znači ama baš ništa, i mogu da se kladim sa bilo kim od vas da ne biste primetili razliku golim okom ako bi ista igra išla na 2 karte (iz iste klase), tj na dva PC-a paralelno

Ja i dalje nisam zazalio sto sam presao sa R9 290X na GTX 970 (bez doplate):
perfrel_1920_1080.png


U HD rezoluciji u kojoj igram, karte su tu negde, medjutim ovaj G1 radi na ~15% vecem kloku a ko zeli ima jos mnogo mesta za overklok.

Na kraju, priče o day1 drajverima i patchevima nemaju veze sa arhitekturom već sa neozbiljnošću developera i izdavača. Pri tom neko stalno provlači priču da AMD kasni mesecima sa drajverima, a u proseku kasne 3 dana za nVidia-om, koja mesec dana kasnije izbacuje drajver za svoju igru (release notes za poslednje drajvere kaže između ostalog - This driver ensures you will have an optimal experience with... Rise of the Tomb Raider). Za RotTR AMD je izbacio drajver 3 dana kasnije, a ja koji sam uzeo igru odmah po izlasku, mesec dana kasnije sam stigao do 50%. U međuvremenu i jedni i drugi su ispravljali bagove sa tom igrom. A to je prevara, jer neću poluproizvod da platim 50€ (tj. 13€ kod braće Rusa :D ). I to je ono o čemu npr. Oxide priča. Njihova beta je u boljem stanju od neki igara nakon 2-3 patch-a. I rekli su da neće raditi nikakve optimizacije po izlasku. Evo primera jedne Gameworks igre koja je nekoliko meseci čekala na optimizaciju, čak i na Maxwell arhitekturi.
http://www.maximumpc.com/fallout-4-graphics-revisited-patch-13/
Nadam se da su vlasnici GTX-a srećni što su imali day1 drajver za Fallout 4. Posebno oni koji su do izlaska 1.3 patch-a prešli 90% igre.

Ne znam sta je ovde sporno..1.3 patch je doneo poboljsanja performansi i kod jednih i kod drugih. Razlika je u tome sto je kod nVidia-e od day 1 igra radila kako treba a AMD je izbacio patch nedelju dana kasnije koji je dao ogroman boost, tj. doveli su igru do stanja kakvo treba da bude. Mnogi su za nedelju dana zavrsili igru. I kako to nije do drajver tima ? I ovo je primer igre koja je uspesno sredjena od strane AMD drajver tima, a sta cemo sa drugim igrama (Project CARS, Anno..) koje nisu bile te srece ?

Evo da obećam, ako GP104 karte dođu sa AS, u 16nm procesu i budu imale isti max. klok kao GM204, kupujem gajbu piva za društvo sa ove teme.
Word! Ne mora da bude svemirsko moze domace :)
 
Poslednja izmena:
Ali svi ovi grafici su glupost, jer razlika od 2-3 frejma u proseku ne znači ama baš ništa, i mogu da se kladim sa bilo kim od vas da ne biste primetili razliku golim okom ako bi ista igra išla na 2 karte (iz iste klase), tj na dva PC-a paralelno

Možda ne bi video golim oko razliku u 2-3 frejma, ali bi videli razliku u prikazu da stavimo jednu sliku kraj drugog u "adekvatno probranoj" igri. Krzno se njiše, plašt leluja, zveri dišu, vetar puše, raznorazne čestice i materijali lete okolo, eksplozije i physx efekti na sve strane...i na drugoj strani ništa od toga.


Na kraju, priče o day1 drajverima i patchevima nemaju veze sa arhitekturom već sa neozbiljnošću developera i izdavača. Pri tom neko stalno provlači priču da AMD kasni mesecima sa drajverima, a u proseku kasne 3 dana za nVidia-om, koja mesec dana kasnije izbacuje drajver za svoju igru (release notes za poslednje drajvere kaže između ostalog - This driver ensures you will have an optimal experience with... Rise of the Tomb Raider). Za RotTR AMD je izbacio drajver 3 dana kasnije, a ja koji sam uzeo igru odmah po izlasku, mesec dana kasnije sam stigao do 50%. U međuvremenu i jedni i drugi su ispravljali bagove sa tom igrom. A to je prevara, jer neću poluproizvod da platim 50€ (tj. 13€ kod braće Rusa :D ). I to je ono o čemu npr. Oxide priča. Njihova beta je u boljem stanju od neki igara nakon 2-3 patch-a. I rekli su da neće raditi nikakve optimizacije po izlasku. Evo primera jedne Gameworks igre koja je nekoliko meseci čekala na optimizaciju, čak i na Maxwell arhitekturi.
http://www.maximumpc.com/fallout-4-graphics-revisited-patch-13/

Nvidia je izbacila drajver za Rise of the Tomb Raider istog dana kada je dotični izašao. To što su sada u ovoj verziji dodatno doradili je verovatno posledica toga što je developer, jelte, naknadno ubacio DX12 podršku (koju bolje da nije). Dakle, čitav pasus koji ti se oslanja na premisu da je Nvidia tek sada izbacila optimizovani drajver za RoTR ti je netačan. Drajver je izašao bukvalno istog dana sa igrom.

Što se tiče (ne)ozbiljnosti developera i izdavača, kako je moguće da Nvidia u 95% slučajeva ima Day 1 drajvere za najbolje igre, ako su developeri i izdavači neozbiljni? Kako je moguće da npr. Project CARS izađe u javnost sa nepobitnim dokazima da im AMD nije ni odgovorio na njihove upite? ***, to ne ide jedno sa drugim. Ili možda Nvidia finansira industriju igara od 950 milijardi dolara?

AMD-ova kašnjenja u optimizovanju drajvera su veća i bilo kakva karikiranja su jednostavno suvišna i neistinita. Neka bude 3 dana, 7 dana, 20 dana, to je više od Nvidia drajvera. Zato sam ja, isto kao i DAS, nepokajnik zbog prelaska na Nvidia grafiku.


Ponovo se vraćam na to da low-level API (DX12, Vulkan) prebacuje odgovornost sa IHV-a na developere i izdavače, tako da priče o drajverima više ne piju vodu. I ako dobijemo novog Betman-a, moći ćemo da ih oteramo u 3 lepe, iako ih to neće mnogo potresti

Vidiš, ja recimo ne delim to stanovište. To je upravo taj snobizam/elitizam koji AMD-a košta podrške, a na kraju balade i tržišnog udela. Ne možeš ti da napraviš bilo šta i da kažeš "OK, mene to više ne zanima, sada neka se snalazi svako za sebe." Hello? Ne ide tako. Moje viđenje idealne situacije jeste da postoji aktivna saradnja kroz development proces, gde će developeri dobijati podršku od proizvođača (grafike, endžina, assets-a koje koriste) i da je to u praksi najbolji scenario za nas korisnike, jer dobijemo najbolje iskustvo i najbolje optimizovane naslove. To je nespojivo sa pristupom "mi smo svoje uradili, a vi se snađite." U krajnjoj liniji, biće i novih tehnologija, implementiraće se još nešto, razvoj neće stati.

Treba sve to popularizovati, promovisati, omogućiti tutorijale, treninge, davati aktivnu podršku. Ne zna, niti ume svaki tim to da implementira i ubaci, tim pre što se radi o novom pristupu i novoj tehnologiji. To će možda važiti za 5 godina kada će izlaziti igre čiji je proizvodni ciklus od starta predviđao da su rađene sa low-level API-jem na umu. Danas to nije slučaj. I kada pogledaš koje su igre najigranije, ispada da je low-level API totalno nebitan. Evo ti recimo spisak najigranijih igara na Steamu trenutno (računam da će The Division rapidno opasti, sada je pri vrhu zbog toga što je nova igra):

935,742 1,088,968 Dota 2
543,093 702,728 Counter-Strike: Global Offensive
78,652 98,986 Tom Clancy's The Division
67,007 82,051 Team Fortress 2
54,980 61,532 Football Manager 2016
53,626 61,196 Grand Theft Auto V
46,293 57,651 ARK: Survival Evolved
43,210 60,611 Sid Meier's Civilization V
39,996 50,231 Warframe
38,174 57,780 Garry's Mod

Od top 10 najigranijih igara, 8 su multiplejer orijentisane. Nadam se da je sada jasnije zbog čega imam tezu da je svaki dan delay-a u izbacivanju drajvera koji su optimizovani za igru tako značajan? :)
 
Poslednja izmena:
Maxwell ne moze da izvrsava compute i graficke operacije istovremeno, s toga nema async compute. Maxwell moze da ponudi samo preemtion schedule.
 
Vidiš, ja recimo ne delim to stanovište. To je upravo taj snobizam/elitizam koji AMD-a košta podrške, a na kraju balade i tržišnog udela. Ne možeš ti da napraviš bilo šta i da kažeš "OK, mene to više ne zanima, sada neka se snalazi svako za sebe."
Upravo zato developeri odradjuju traljav posao, jer moraju da se hvataju sa time table-om. Pa ce to pokrpiti AMD i nVidia momci.
 
Ja ne sumnjam da će developeri vrlo brzo naučiti da koriste AS, pogotovo ako i konzole imaju mogućnost da iskoriste te prednosti. DX12 je tu, AS njegov sastavni deo, donosi bolje performanse i samim tim mogućnost da se napravi kvalitetniji proizvod tj. igra... Problem mogu da imaju oni koji ne budu uspeli da ga savladaju i iskoriste jer teško će bez toga uspeti da ostanu konkurentni.

Mada ostaje pitanje šta su do sada čekali, DX12?
 
Poslednja izmena:
Mada ostaje pitanje šta su do sada čekali, DX12?

Naravno da su čekali DX12 jer niko nije lud da se time petlja u samostalnoj izvedbi. Plus, pitanje je čemu su uopšte imali pristup donedavno, dok se nisu pojavili Vulkan, Mantle, DX12.
 
Znači ispada da sve ove godine, još od 7970 AMD čeka DX12? ...i za to vreme gubi deo tržišta grafičkih kartica pošto u arhitekturu ubacuje nešto što se ne koristi u igrama...Ako je to razlog onda ih je neko dobro zeznuo jer čekaju već 5 god. Ne verujem da je to razlog.
Da li se zna kako ili u kojoj meri konzole koriste AS?
 
Poslednja izmena:
Ja mislim da je u konzolama Gpu kao HD 7870 a on je siromasan sa AS jedna mislim jedinica se nalazi unutra dok recimo tonga ima 8 tako da su konzole tu "zakinute"
Nisam bas siguran u ovo sto sam napisao nadam se da ce me neko ispraviti ako nije tacno ;)
 
Nije tacno.
 
zar nije u konzolama bio 7950 ? cip tj njegov pandan ? ili bar je tako bilo za PS4 ako se dobro secam ?
 
Ja mislim da je u konzolama Gpu kao HD 7870 a on je siromasan sa AS jedna mislim jedinica se nalazi unutra dok recimo tonga ima 8 tako da su konzole tu "zakinute"
Nisam bas siguran u ovo sto sam napisao nadam se da ce me neko ispraviti ako nije tacno ;)


Evo, ja ću rado ispraviti...

Konzole koriste specijalne čipove sa posebnom arhitekturom, to što neko ekvivalentira da je to "otprilike kao HD 7870 po snazi" ne znači da imaju hardverske karakteristike tog čipa sa PC platforme. Obaška što je glupo to uopšte reći budući da je u konzolama APU, a ne grafička karta. Koliko APU-i imaju asinhronih šejdera? Baš tako.

Sve u svemu, Xbox One ima 2 jedinice asinhronih šejdera, PS4 ima 8. Koliko mi je poznato, R9 290(X) takođe ima 8 jedinica asinhronih šejdera. Xbox se opet pokazuje inferiornim kočničarem i po ovom pitanju. Više o tome može da se nađe na donjem linku, ali to je i dalje sve po tvrdnjama AMD-a. Kako konzole nemaju nikakav DX12 kao takav, programeri bi morali da ovladaju nekim tehnikama iskorišćenja toga, jer se ne koristi po automatizmu, a AMD ne verujem da pruža išta veću podršku nego na PC tržištu, te stoga sumnjam da se to nešto specijalno koristi. AMD tvrdi da postoje igre koje već koriste asinhrone šejdere (ukupno tri, ima spisak u članku, mada je to bilo pre godinu dana) ali je recimo indikativno da igra koja na PC-u koristi Mantle (Thief) ne koristi asinhrone šejdere na konzoli.

http://www.redgamingtech.com/asynch...eir-role-on-ps4-xbox-one-pc-according-to-amd/



zar nije u konzolama bio 7950 ? cip tj njegov pandan ? ili bar je tako bilo za PS4 ako se dobro secam ?

Ama nije. Čim nije zaseban GPU čip, sve i da jeste pandan (a suštinski nije) znači da ne može tek tako da se ekvivalentira. Tu postoji problem što se zarad jednostavnijeg objašnjavanja u svakoj generaciji konzola izlazi sa pričom koliko je jaka u odnosu na PC arhitekturu, pa ljudi misle da je to to i novinari koji samo ovlaš razumeju šta se tu dešava lupetaju naveliko.

U konzolama je APU, dakle procesor sa integrisanom grafikom, prilagođenog dizajna za konzolu. Pa je recimo u XBOne taj APU uparen sa DDR3 memorijom, a u PS4 nešto jači APU sa GDDR5 memorijom, koja se usput šeruje između sistema i grafike, za razliku od XBOne. I onda neko dođe i odvali da je to sve negde otprilike u nivou 7830 i 7870 (lupam) i ljudi se istripuju "da je ta i ta grafička u konzoli."
 
Poslednja izmena:
Xbox One has a GPU that’s similar to the entry-level Bonaire GPU in the older Radeon HD 7790, while the PS4 is outfitted with the midrange Pitcairn that can be found in the HD 7870

Kao sto sam i rekao najblizi je HD7870, a na stranu to sto Gpu dio unutar samog apu-a ne radi na istom taktu kao HD7870, naravno na Xbox-u je jos slabiji gpu, o tome je brujio net kad su izbacili konzole.

Odakle samo podatak da PS4 ima 8 ACE? Tahiti ima samo dvije, gpu unutar APU koji se ugradjuje u PS4 nema ni toliko mada ne mogu da naletim na taj podatak.

Bas citam na tome linku ako je tacno PS4 ima 8ACE zanimljivo iako je po specifikacijama to ustvari pitcairn chip koji radi na 800mhz, naravno kao takav je daleko slabiji od istog chipa u HD7870 kartici, ipak sam bio upravu kad sam rekao da je u PS4 gpu slican onom na HD7870, ali za ove ACE jedinice nisam bio siguran kao da su unaprjed znali da ce to biti znacajno u buducnosti pa su ih u APu koji se ubacuje u PS4 stavili 8 komada.
 
Poslednja izmena:
Covjek ljepo i kulturno diskutuje a ne kao ti samo pises glupe i bespotrebne postove :)
 
A sto AMD gura i dalje mantle api u crimsonu? Da bi ljudi i dalje uzivali u BF4 i jos nekoj igri ili ga mozda jos uvek razvijaju?
 
Ne razvijaju ga sigurno nego ne mogu ga tek tako izbaciti.
 
Evo, ja ću rado ispraviti...

Konzole koriste specijalne čipove sa posebnom arhitekturom, to što neko ekvivalentira da je to "otprilike kao HD 7870 po snazi" ne znači da imaju hardverske karakteristike tog čipa sa PC platforme. Obaška što je glupo to uopšte reći budući da je u konzolama APU, a ne grafička karta. Koliko APU-i imaju asinhronih šejdera? Baš tako.

Sve u svemu, Xbox One ima 2 jedinice asinhronih šejdera, PS4 ima 8. Koliko mi je poznato, R9 290(X) takođe ima 8 jedinica asinhronih šejdera. Xbox se opet pokazuje inferiornim kočničarem i po ovom pitanju. Više o tome može da se nađe na donjem linku, ali to je i dalje sve po tvrdnjama AMD-a. Kako konzole nemaju nikakav DX12 kao takav, programeri bi morali da ovladaju nekim tehnikama iskorišćenja toga, jer se ne koristi po automatizmu, a AMD ne verujem da pruža išta veću podršku nego na PC tržištu, te stoga sumnjam da se to nešto specijalno koristi. AMD tvrdi da postoje igre koje već koriste asinhrone šejdere (ukupno tri, ima spisak u članku, mada je to bilo pre godinu dana) ali je recimo indikativno da igra koja na PC-u koristi Mantle (Thief) ne koristi asinhrone šejdere na konzoli.

http://www.redgamingtech.com/asynch...eir-role-on-ps4-xbox-one-pc-according-to-amd/





Ama nije. Čim nije zaseban GPU čip, sve i da jeste pandan (a suštinski nije) znači da ne može tek tako da se ekvivalentira. Tu postoji problem što se zarad jednostavnijeg objašnjavanja u svakoj generaciji konzola izlazi sa pričom koliko je jaka u odnosu na PC arhitekturu, pa ljudi misle da je to to i novinari koji samo ovlaš razumeju šta se tu dešava lupetaju naveliko.

U konzolama je APU, dakle procesor sa integrisanom grafikom, prilagođenog dizajna za konzolu. Pa je recimo u XBOne taj APU uparen sa DDR3 memorijom, a u PS4 nešto jači APU sa GDDR5 memorijom, koja se usput šeruje između sistema i grafike, za razliku od XBOne. I onda neko dođe i odvali da je to sve negde otprilike u nivou 7830 i 7870 (lupam) i ljudi se istripuju "da je ta i ta grafička u konzoli."



da to sam mislio ali sam se lose izrazio...

Moje poredjenje je bilo po principu broja shading unitsa u tom APUu i na 7950 cipu (mislim da sam i ovde omasio :) ), ali iskreno se ne secam, pa sam samo hteo da uporedim po tom principu, koj, u pravu si, nije ispravan.
 
E sad kako su implementirani, to je vec za dublju diskusiju.
Submitted by Nvidia Product Engineer :) Dobro, ajde, i Maxwell ima AS, samo ne služi ničemu u igrama. Je l' sad bolje :d

Ako bi ovo bilo tacno, a sta je onda sa logikom koja je zaduzena za teselaciju? Maxwell radi ekstremnu teselaciju daleko bolje od GCN karti iako se u igrama ne primenjuje u tolikoj meri.

Gameworks efekti su pretežno bazirani na teselaciji i to je jedan od razloga zašto Hairworks toliko sakati GCN karte, a PureHair (compute based) ima podjednak uticaj i na Maxwell i na GCN. I to je glavna prednost Maxwell-a u odnosu na GCN, što niko i ne krije. Isto kao što GCN ima veći boost u AotS.

Bez ljutnje, ali ovo nema veze sa mozgom :) Sta znaci sa hardvera na softver ? Svaki kod (softver) izvrsava se na nekom hardveru, jedino je pitanje na kojem. Verovatno si hteo reci da je deo posla sa GPU hardvera prebacen na CPU hardver. Ne pije vodu nikako, onda bi performanse otisle u pm. I za vece taktove, kao i za pomenutu teselaciju, takodje odlaze dodatni tranzistori i potrebna je optimizacija hardvera.

Nisam na to mislio. Ta priča je stara, pisano je već o razlikama između Fermi, Kepler i Maxwell arhitekture. Između ostalog, i za taj paralelizam koji kod Maxwell-a ima funkciju kod CUDA aplikacija, dok se u igrama očigledno ne vidi.

Ne znam sta je ovde sporno..1.3 patch je doneo poboljsanja performansi i kod jednih i kod drugih. Razlika je u tome sto je kod nVidia-e od day 1 igra radila kako treba a AMD je izbacio patch nedelju dana kasnije koji je dao ogroman boost, tj. doveli su igru do stanja kakvo treba da bude. Mnogi su za nedelju dana zavrsili igru. I kako to nije do drajver tima ? I ovo je primer igre koja je uspesno sredjena od strane AMD drajver tima, a sta cemo sa drugim igrama (Project CARS, Anno..) koje nisu bile te srece ?

Kako je radila kako treba kad je GTX 980 na izlasku imala performanse kao GTX 970 sa patchom 1.3? Neko ko je platio kartu 500$ ima iste performasne kao neko ko je platio 350$ i kupio igru 3 meseca nakon izlaska. Kako je to u redu?

Možda ne bi video golim oko razliku u 2-3 frejma, ali bi videli razliku u prikazu da stavimo jednu sliku kraj drugog u "adekvatno probranoj" igri. Krzno se njiše, plašt leluja, zveri dišu, vetar puše, raznorazne čestice i materijali lete okolo, eksplozije i physx efekti na sve strane...i na drugoj strani ništa od toga.

Pri čemu sve to vidimo u slajd-šou verziji (Batman) :d I baš me zanima koliko vlasnika GX 960, pa i 970 je izabralo da odvrne Gamewroks efekte do kraja, a koliko njih juri famoznih 60FPS i nauštrb toga smanjuje kvalitet? Ja bih lično pre išao na 40FPS sa svim tim efektima (Hair, Fur, VXAO...), ali nisam siguran da je to uobičajeno među današnjom "must have 60FPS" populacijom

Nvidia je izbacila drajver za Rise of the Tomb Raider istog dana kada je dotični izašao. To što su sada u ovoj verziji dodatno doradili je verovatno posledica toga što je developer, jelte, naknadno ubacio DX12 podršku (koju bolje da nije). Dakle, čitav pasus koji ti se oslanja na premisu da je Nvidia tek sada izbacila optimizovani drajver za RoTR ti je netačan. Drajver je izašao bukvalno istog dana sa igrom.

Jasno je to za DX12, ali koliko vidim u release notes-u za poslednja 3-4 drajvera se pominje RotTR. Zašto npr. SLI profili nisu u famoznom day1 drajveru? Više brinemo o korisnicima koji kupe jedan naš proizvod nego o onima koji kupuju 2 ili više. Pri tom, često smo viđali da se Kepler preskoči na izlasku, već kasnije stižu poboljšanja za te karte.

Što se tiče (ne)ozbiljnosti developera i izdavača, kako je moguće da Nvidia u 95% slučajeva ima Day 1 drajvere za najbolje igre, ako su developeri i izdavači neozbiljni? Kako je moguće da npr. Project CARS izađe u javnost sa nepobitnim dokazima da im AMD nije ni odgovorio na njihove upite? ***, to ne ide jedno sa drugim. Ili možda Nvidia finansira industriju igara od 950 milijardi dolara? AMD-ova kašnjenja u optimizovanju drajvera su veća i bilo kakva karikiranja su jednostavno suvišna i neistinita. Neka bude 3 dana, 7 dana, 20 dana, to je više od Nvidia drajvera. Zato sam ja, isto kao i DAS, nepokajnik zbog prelaska na Nvidia grafiku.

Jesi li i ti srećan što si imao day1 drajver za Fallout 4, a 2 i po meseca kasnije igra radi 15-20% brže na istoj karti? Savšena podrška i promocija Gameworks-a :) Kako smo uopšte došli do toga da svaka igra traži novi drajver, i da ljudi zapravo to odobravaju? Sećam se i da je Batman imao odličan day1 driver :D


Vidiš, ja recimo ne delim to stanovište. To je upravo taj snobizam/elitizam koji AMD-a košta podrške, a na kraju balade i tržišnog udela. Ne možeš ti da napraviš bilo šta i da kažeš "OK, mene to više ne zanima, sada neka se snalazi svako za sebe." Hello? Ne ide tako. Moje viđenje idealne situacije jeste da postoji aktivna saradnja kroz development proces, gde će developeri dobijati podršku od proizvođača (grafike, endžina, assets-a koje koriste) i da je to u praksi najbolji scenario za nas korisnike, jer dobijemo najbolje iskustvo i najbolje optimizovane naslove. To je nespojivo sa pristupom "mi smo svoje uradili, a vi se snađite." U krajnjoj liniji, biće i novih tehnologija, implementiraće se još nešto, razvoj neće stati.

Treba sve to popularizovati, promovisati, omogućiti tutorijale, treninge, davati aktivnu podršku. Ne zna, niti ume svaki tim to da implementira i ubaci, tim pre što se radi o novom pristupu i novoj tehnologiji. To će možda važiti za 5 godina kada će izlaziti igre čiji je proizvodni ciklus od starta predviđao da su rađene sa low-level API-jem na umu. Danas to nije slučaj. I kada pogledaš koje su igre najigranije, ispada da je low-level API totalno nebitan

To i nije baš tačno. Tačno je da je AMD podrška nešto lošija, posebno imajuću u vidu stanje kompanije, ali da samo puste nešto i okrenu leđa, to nema veze sa životom. Pogledaj developer forume. Gomila rešenih problema, ali i gomila neodgovorenih pitanja, i kod jednih i kod drugih. Uostalom gurali su Mantle (ne znam kako misliš da bi Theif, BF, SE 3... dobili Mantle bez podrške AMD-a), sad aktivno guraju DX12, VR, rade sa gomilom timova itd. Naravno da su na izlasku uvek krš sa Gameworks naslovima, što i ima smisla, jer nemaju pojma šta se nalazi u kodu koji treba da optimizuju kroz drajvere. Dva su rešenja da Gameworks igre na izlasku rade iole pristojno na AMD kartama - ili da nVidia otvori kod, ili da nVidia radi optimizaciju za AMD :d

Naravno da se ne može bez podrške, posebno kada je nova tehnologija u pitanju. Ali ko hoće, može da radi sa svima. Oxide je dobar primer. Ljudi su rekli da je DX12 u ovom trenutku tolika nepoznanica da bez MS-a ne bi mogli ništa (posebno neke složene stvari kao explicit multiadapter). Takođe sarađuju i sa zelenima i sa crvenima, i planiraju da izbace završen proizvod na tržište :)

Evo ti recimo spisak najigranijih igara na Steamu trenutno..
Od top 10 najigranijih igara, 8 su multiplejer orijentisane. Nadam se da je sada jasnije zbog čega imam tezu da je svaki dan delay-a u izbacivanju drajvera koji su optimizovani za igru tako značajan? :)

Ne razumem :) Valjda je poenta da sa single-player igre, koje završavaš za 2 dana imaš optimizovane na izlasku. Ovi MP naslovi se igraju godinama, da li se iko seća kakva je podrška bila prve nedelje???
 
Poslednja izmena:
Frostibite i compute (GCN)

Ukratko:

In summary, small and inefficient draws are a problem. DirectX 12 gives us an API to submits tons of draws at great performance from the CPU, but the GPU can still choke on these.
Compute and rasterization are friends, treat your draws as data, and have both compute and graphics help each other out.
Use idle GPU resources to remove fixed function botlenecks.
Asynchronous compute is extremely powerful - be sure to schedule compute wavefronts alongside the rest of your frame, but don’t forget that you can overlap compute and graphics work on the same pipe, many developers do not realize this.
Remember that there are lots of cool GCN intrinsics available to optimize with. Grab a coffee, sit on a comfortable couch with your laptop, and read through the entire GCN instruction set documentation. You’ll find all sorts of crazy things you can exploit. Also be on the lookout for AMD GPUOpen. Many of the intrinsics I covered today will be exposed soon on PC for you to utilize!
Lastly, if you are interested in implementing something similar to this tech, be sure to check out GPUOpen GeometryFX; which is much easier than reverse engineering Frostbite to get at our custom solution
 
Poslednja izmena:
 
HM Nvidia karta je u benchu - GTX 780 TI , izgleda DX11 je i dalje zakon za zelene.
 
Nista cekamo DX14 verovatno ce preskociti 13 :D

Daj boze samo da taj Cry Engine nije optimizovan dobro za DX12 i da taj TOmb vuce istu pricu...

Series-54-A6.png Svakako da Nvidia ima jak uticaj os samog pocetka.
 
Cek, zar nije bilo dobicete 2x bolje rezultate na DX12, kakvi su ovo rezultati :d ?
 
Nemoj da te buni pisalo je lepo "up to 40% ili 50%" kao kod MTS-a internet protok do 10MB itd :D
Ali ne vidim kako ce se razbiti ona prica AMD exclusive ili Nvidia exclusive , naslovi koji super rade na odredjenim markama.
Zar nije glavni cilj DX12 da to razbije, igre da rade podjednako odbro i na AMD i Nvidia kartama, bila je i prica oko Nvidia/AMD crossfire udruzenim snagama...kako vec.
 
Poslednja izmena:
Ne znam zasto se cudite. Ne mozemo da ocekujemo da programeri koji ne znaju da napisu sejdere, da pocnu da rade low level optimizaciju.
 
Poslednja izmena:
Ja ne znam na osnovu cega ste vi vec presudili DX12 APi-u? na osnovu skrpljeni par naslova pa to ne ide ljudi tako, sacekajte prave DX12 naslove pa da mu onda presudite.
 
Nazad
Vrh Dno