Šta je novo?

The DirectX 12 Performance Preview: AMD, NVIDIA, & Star Swarm

1080pi7.png

Steta sto nema nekog jaceg keplera na testu ali obicna HD7970 gazi GTX680 za oko 10% nekad je bilo obrnuto pa se HD7970 morala natezat u Ghz da se sustigne konkurent.

R9 285 dominira nad GTX960 iako su u dx 11 naslovima podjednake isto tako R9290X nad GTX970 iako su u dx11 tu negdje egal, jedino se stice utisak da Fury X ne pokaziva snagu i dalje zaostaje za GTX980ti, ocito da je kresanje ROPsa pokazalo se kao veliki nedostatak. U dosta testova cak R9 290X/390X puse za vratom furisi.
 
Poslednja izmena:
Najavljivivano je ranije da procesor neće biti usko grlo sa DX12 igrama, izgleda da je stvarno tako :D Ostaje da vidimo i siutaciju sa "Buldožerima" :d

Pa, nista,
idem iz ovih stopa, da prodam ovaj I7, djaba sto radi na 4.9 ghz, i odma cu kupim jedan I3, :p,
Onako usput, bila i prica, za 970 i 980 grafe, dovoljan je i neki I5 2500 ili I5 3570K, ali ipak, postoji razlika u iskoriscenosti grafe gtx 980, izmedju ovih proceva i I7 4790K proca, za I5 4690K, ne znam, ipak su ista arhiktetura.
Tako da, uvek ce biti ta neka razlika medju procevima....

EDIT: By The Way, @Goldi,
zar ti nije nesto cudan rezultat za tu 290X u odnosu na Fury X,
razlika samo 8 frejmova,
a, izmedju imas jos jace grafe od 290X i to: 390X i Fury i Nano,
pa, po tom grafikonu, bi ove grafe i prestigle ovog Furisu, ma kakvi, prestigli bi i 980Ti,:beat:
mozda zato i nisu i postavljeni njihovi rezulati. ;)
i gde je gtx 980, po ovome bi bila blizu Furise :D
 
Poslednja izmena:
Ma kakva GTX980 to je u egalu sa R9 290X iza 390X, vec postaje karta iz srednje klase.
 
Okey,
onda mi nista drugo ne preostaje,
nego da, prodam i gtx 980 i ovaj I7, pre nego sto im padne cena, jer, jelte, izgubice vrlo brzo, na performansama u igrama, :(
i da, uzmem neki I3 i neku polovnu sa garancijom 290X, jer ce uskoro, drasticno da im skoce cene, jer, jelte,:D,
prelaze ovaj proc. i ova grafa u visu "High end high" klasu komponenti. cheers
To je neko tumacenje ovih rezultata. :rtfm: ;)
Dobro si mi otvorio oci na vreme....,)
 
Poslednja izmena:
fable4k-fps.gif


Po ovome grafikonu u 4K GTX 980 i R9 390X su izjednacene sto odgovara performansama i u dosadasnjim igrama:

perfrel_3840.gif


sto znaci da svaki nereferentni GTX 980 (a takvih je 90%+) odnosi pobedu za 10-ak %.
 
Pa, jace su od Titana, :trust:
ali sa TitanX se "kolju". :test: :beat:
Pa, bre, jel receno sto puta, u 4K AMD ima prednost jer koristi siru magistralu i zbog toga ima manji udar na performanse.
U full HD je situacija potpuno drugacija, http://www.techpowerup.com/reviews/AMD/R9_Nano/30.html,
i, te karte su, realno, za neku HD rezu, sa nekim maximalnim garfickim postavkama.
Inace, kad se dodje na teren overkloka, zna se, ;) tu AMD nema sta da trazi.....itd. :)
 
@DAS, opet moram da te ispravljam.
U testu TechReport-a je koriscen Gigabyte 980 (1228 base / 1329 boost clock) sto je vec nereferentna karta. Prema tome tvrdnja da bi svaka nereferentna 980 odnela pobedu za 10-ak % ne stoji. Naprotiv, ovo zapravo znaci da su u DX12 (bar u ovom testu) nereferentna 980 i nereferentna 390X izjednacene u average FPS dok u Frame time 390X ima malu prednost. To potvrdjuje tvrdnje da Radeon-i ipak vise dobijaju sa DX12 (opet kazem, bar u ovom testu).
 
Opet taj Frame Time. :smoke:
Pa, da li znas, da sa povecanjem kloka grafikce kartice se i poboljsava frime time,
e, sad, zbog cega, tacno ne znam...
Vidis ovo,
111.png
Kada se pomnozi levi milisecond i desni fps, dobije se, za svaku kolonu isti broj (blizu hiljadu) u nekom testu od 60 sekundi.
Ali, ovaj prvi od 120 fps, ima najbolji i najmanji frame time, od 8.3 milisecond, dok onaj od 14 fps, ima, cak 70 miliseconds.
E, sad, sta je tu najveca fora ?
Djabe sve to, ako imas spajkove u frame time za neki frejm ili jos gore, za grupu frejmova.
Tako, djabe dobar farme time, i ako imas 120f. i 8.3 ms., ako ti nisu konzistentni frejmovi, jer imas tearing.
Ali, zato je taj G-Sync i monitor od 144Hz, prava stvar,
jer, eliminisu taj efekat loseg frame time i input laga( bolje latencije) i onda imas,
konstantnih 120Fps. i taj neki frame time od 8.3ms.
Pandan je, V-Sync, sa 60f. i frime time od oko 16ms, ali i nesto losiji Input lag.
Samo, jos da imas kartice koje mogu da izvuku u svakoj igri 120fps. :type:
I, recimo, NV kartice,
imaju nesto bolji minimalni fps, koji takodje, moze uticati na taj frame time.....itd.
 
Poslednja izmena:
@DAS, opet moram da te ispravljam.
U testu TechReport-a je koriscen Gigabyte 980 (1228 base / 1329 boost clock) sto je vec nereferentna karta. Prema tome tvrdnja da bi svaka nereferentna 980 odnela pobedu za 10-ak % ne stoji. Naprotiv, ovo zapravo znaci da su u DX12 (bar u ovom testu) nereferentna 980 i nereferentna 390X izjednacene u average FPS dok u Frame time 390X ima malu prednost. To potvrdjuje tvrdnje da Radeon-i ipak vise dobijaju sa DX12 (opet kazem, bar u ovom testu).

Uzmi u obzir da envidija jos uvek nije izbacila drajver sa potpunom podrskom za asinhrone sejdere. Tek tada ce stanje biti uporedivo i realnije.
Takodje ovo su samo preliminarni rezultati iz sintetickog testa. Kad igre zazive i DX12 bude u siroj primeni do tad ce Paskal i nova ostrva biti uveliko kod igraca.
Tada treba uporedjivati mada se vec sad moze naslutiti kakve ce biti razlike. Sto se tice fluidnog igranja, jedno je papir a drugo uzivo.
 
Opet taj Frame Time. :smoke:
Pa, da li znas, da sa povecanjem kloka grafikce kartice se i poboljsava frime time,
e, sad, zbog cega, tacno ne znam...
Vidis ovo,
Pogledajte prilog 180175
Kada se pomnozi levi milisecond i desni fps, dobije se, za svaku kolonu isti broj (blizu hiljadu) u nekom testu od 60 sekundi.
Ali, ovaj prvi od 120 fps, ima najbolji i najmanji frame time, od 8.3 milisecond, dok onaj od 14 fps, ima, cak 70 miliseconds.
E, sad, sta je tu najveca fora ?
Djabe sve to, ako imas spajkove u frame time za neki frejm ili jos gore, za grupu frejmova.
Tako, djabe dobar farme time, i ako imas 120f. i 8.3 ms., ako ti nisu konzistentni frejmovi, jer imas tearing.
Ali, zato je taj G-Sync i monitor od 144Hz, prava stvar,
jer, eliminisu taj efekat loseg frame time i input laga( bolje latencije) i onda imas,
konstantnih 120Fps. i taj neki frame time od 8.3ms.
Pandan je, V-Sync, sa 60f. i frime time od oko 16ms, ali i nesto losiji Input lag.
Samo, jos da imas kartice koje mogu da izvuku u svakoj igri 120fps. :type:
I, recimo, NV kartice,
imaju nesto bolji minimalni fps, koji takodje, moze uticati na taj frame time.....itd.

Ti izgleda, u stvari, i ne znas sta pokazuje frame time, ali svejedno pokusavas da das neki zakljucak.
Necu ni da pokusavam da bilo sta objasnjavam jer je na milion sajtova to vec uradjeno (probaj recmo na TechReport posto su oni prvi uveli taj parametar).

I jedna ispravka mog prethodnog posta: DAS-a prvi put ispravljam, prethodnog puta sam ispravljao Dark_Messiah ali za istu stvar.
 
Juu, pa sta nije logicno u vezi ovoga sto sam rekao, :trust:
pa, to sam procitao sa tih sajtova. :rtfm:
Ja se bavim i analiziram taj Frame Time vec jedno dve godine.
I, igram igrice na tih zakjlucanih 60 fps. i zakljucanim fps i odlicnim frame time.
I, ima ono merenje frame time za proceve, http://techreport.com/review/28751/intel-core-i7-6700k-skylake-processor-reviewed/7,
http://techreport.com/review/23750/amd-fx-8350-processor-reviewed/8,
gde neki procevi, sa istom karticom, daju bolje frame time sa tom karticom, za odredjenu igru...od nekog drugog proca sa istom karticom.
Ako ti znas, ajde onda protumaci te neke rezultate sa tih sajtova...:rtfm:
 
Poslednja izmena:
Samo sam napisao ono sto si i sam rekao:

Opet taj Frame Time. :smoke:
Pa, da li znas, da sa povecanjem kloka grafikce kartice se i poboljsava frime time,
e, sad, zbog cega, tacno ne znam...

I to sto se "bavis i analiziras taj Frame Time vec jedno dve godine" ne znaci da si to savladao (ocigledno da nisi jer sam kazes da nisi).
Rekao sam vec da na netu ima milion objasnjenja, samo jos fali da i ja pocnem da ih ojasnjavam. Osim toga, nisam neki ekspert za oblast, jednostavno su mi zasmetale pogresne informacije na koje sam reagovao i tu je kraj mom ucescu u raspravi (osim ako me opet necija pogresna informacija ili namera ne natera da reagujem).
 
Nv driveri za asinhrone sedere zavrsice kao i oni driveri za alokaciju memorije na GTX970 :d
 
Samo (drajveri), da ne "spale" karticu, :exploder:
sve ostalo ce se srediti...:smash:
Naravno da ne znam i ja bas sve te detalje i sitnice sto se tice frame time,
ali, bre, ti se uvati za dve reci u recenici, a ostatak posta ko i da ne postoji...:trust:
Pozivam te jos jednom,
ako mislis da sam nesto lose objasnio, ili sto kazes, da si "morao da odreagujes na pogresnu informaciju",
ti, lepo, objasni i pokazi sta je sustina tog Frame Time.
Nema ljutnje, samo pricamo i dajemo neku argumentaciju...:rtfm:, nece rep da nam odpadne zbog nekog tamo Frame Time merenja...:D
 
Ocigledno da je ovaj Fable Legends jos jedan benchmark koji ne koristi prednosti novog API-ja (mada se to vidi po onome sto prikazuje tj. ne prikazuje). Mozda je i sam API prevara (posto stize od Microsofta, uopste me ne bi cudilo).
 
Pogledajte prilog 180158

Steta sto nema nekog jaceg keplera na testu ali obicna HD7970 gazi GTX680 za oko 10% nekad je bilo obrnuto pa se HD7970 morala natezat u Ghz da se sustigne konkurent.

R9 285 dominira nad GTX960 iako su u dx 11 naslovima podjednake isto tako R9290X nad GTX970 iako su u dx11 tu negdje egal, jedino se stice utisak da Fury X ne pokaziva snagu i dalje zaostaje za GTX980ti, ocito da je kresanje ROPsa pokazalo se kao veliki nedostatak. U dosta testova cak R9 290X/390X puse za vratom furisi.

Kakve veze ima to šta danas postižu 7970 i GTX 680 kada danas nisu dovoljne za opušteno igranje bez razmišljanja u 1080p, pogotovo to neće biti u dx12 naslovima? To je bilo bitno dok su karte bile akutelne i to je još jedan pokazatelj sposobnosti AMD-ovog tima da na vreme napišu valjane drajvere i iskoriste arhitekturu, sad je već prošao voz :)

A proći će i za 290x i GTX 970 kada dx12 postane standard.
 
Poslednja izmena:
Bitno da raspravljate u prazno, zajedno sa odbranom nVidia nebuloza, koje ako budu tako prilagođene igre njihovim grafičkim kartama, će efektivno da poništi beneficije DX 12 i imaćemo isto ****** kao i sada.
 
objasni i pokazi sta je sustina tog Frame Time

Da krenemo prvo od fps (na engleskom frames per second). To je broj staticnih slika koje se izmene u sekundi i tako formiraju animaciju. 60 fps znaci da u sekundi imamo 60 promena slike tj. da svaka promena idealno se iscrta za 16.67 milisekundi (1 sekunda = 1000 milisekundi, to podelimo sa 60).

Stvar je u tome sto se ne isrtavaju iste stvari sve vreme, nekada gledamo u nebo koje je manje zahtevno a nekada se desavaju kompleksne simulacije i eksplozije na ekranu ili jednostavno se ucitava neki jako kompleksan model i veci broj modela. U takvim slucajevima jednom frejmu treba vise vremena da se iscrta sto dovodi do pada fps u tom momentu (sa stabilnih 60 na recimo 20 sto se manifestuje kao seckanje ili lag, zavisno od nacina kako engine pegla padove fps).

Frame time pokazuje koliko tih "losih" tj sporih frejmova ima tj. koliko opada fps tokom nekog vremenskog perioda. Moze se meriti u procentima, kada merimo koliko frejmova od ukupnog broja iscrtanih frejmova u recimo 60 sekudni merenja je idealno tj. 16.67 ms iliti zakovanih 60 fps. Moze da se prikaze i kroz broj tih sporih frejmova tj. koliko puta padne fps ispod magicnih 60 fps iliti 16.67 ms.

Edit: Zaboravio sam da napomenem. Moze da se meri kako sajtovi obicno mere kao prosecan frame time tj. koliko prosecno traju frejmovi ali to je isto kao fps. Nebitno da li pise 50 fps ili prosecno 20 ms po frejmu, ista stvar je u pitanju. Tako da to bas i nije frame time merenje. Vecinom sajtovi, da ne bi doslo do zabune, predstavljaju frame time grafikom gde je lako uociti spajkove.
 
Poslednja izmena:
@rama
I danas su te karte dosta zastupljene pogotovo sto su R9 280X i GTX770 u sustini iste karte tj. rebrand pomenuti, da li su dovoljne za opusteno igranje u 108op? sve zavisi sta se podrazumjeva pod tim da li max detalji u 60 fps ili neki high-ultra detalji pri recimo 40-50fps, nemaju bas svi fury-x ili GTX980Ti i ne traze 60fps na 1080p tj vecina ljudi se igra bas na ovim kartama i kartam koje daju slicne perfomanse (gTX 960, R9 380 i sl ljudi ih uzimaju i koriste za 1080p i to sigurno u vecim kolicinama nego sto se recimo proda GTX980/ti ili Fury/x)
 
Da krenemo prvo od fps (na engleskom frames per second). To je broj staticnih slika koje se izmene u sekundi i tako formiraju animaciju. 60 fps znaci da u sekundi imamo 60 promena slike tj. da svaka promena idealno se iscrta za 16.67 milisekundi (1 sekunda = 1000 milisekundi, to podelimo sa 60).

Stvar je u tome sto se ne isrtavaju iste stvari sve vreme, nekada gledamo u nebo koje je manje zahtevno a nekada se desavaju kompleksne simulacije i eksplozije na ekranu ili jednostavno se ucitava neki jako kompleksan model i veci broj modela. U takvim slucajevima jednom frejmu treba vise vremena da se iscrta sto dovodi do pada fps u tom momentu (sa stabilnih 60 na recimo 20 sto se manifestuje kao seckanje ili lag, zavisno od nacina kako engine pegla padove fps).

Frame time pokazuje koliko tih "losih" tj sporih frejmova ima tj. koliko opada fps tokom nekog vremenskog perioda. Moze se meriti u procentima, kada merimo koliko frejmova od ukupnog broja iscrtanih frejmova u recimo 60 sekudni merenja je idealno tj. 16.67 ms iliti zakovanih 60 fps. Moze da se prikaze i kroz broj tih sporih frejmova tj. koliko puta padne fps ispod magicnih 60 fps iliti 16.67 ms.

Edit: Zaboravio sam da napomenem. Moze da se meri kako sajtovi obicno mere kao prosecan frame time tj. koliko prosecno traju frejmovi ali to je isto kao fps. Nebitno da li pise 50 fps ili prosecno 20 ms po frejmu, ista stvar je u pitanju. Tako da to bas i nije frame time merenje. Vecinom sajtovi, da ne bi doslo do zabune, predstavljaju frame time grafikom gde je lako uociti spajkove.

E.hvala,
super objasnjeno.
Necu vise da potenciram ovu stvar, iako je, meni licno, vrlo zanimljiva.:guitar:
Ono, glavna stvar je, u celoj prici, po meni,
ako je los i nekvalitetan frame time, imamo i pojavu loseg stutteringa i tearinga, tj. gaming nije fluidan i slika je loseg kvaliteta...
Eh, kad imas G-Sync, onda ne moras i da raspravljas na ovu temu, bas te briga za tamo neke frejmove, koji hoce da luduju i teraju neku svoju pricu...u vezi frame time merenja :D
Dobro, bar imamo ovaj V-Sync koji je za nas, sirotinju......:bottle:
 
Poslednja izmena:
@DAS, opet moram da te ispravljam.
U testu TechReport-a je koriscen Gigabyte 980 (1228 base / 1329 boost clock) sto je vec nereferentna karta. Prema tome tvrdnja da bi svaka nereferentna 980 odnela pobedu za 10-ak % ne stoji. Naprotiv, ovo zapravo znaci da su u DX12 (bar u ovom testu) nereferentna 980 i nereferentna 390X izjednacene u average FPS dok u Frame time 390X ima malu prednost. To potvrdjuje tvrdnje da Radeon-i ipak vise dobijaju sa DX12 (opet kazem, bar u ovom testu).

OK, da ispravim i ja tebe - i taj R9 390X je Asus Strix koji je takodje overklokovan (blago, ali u skladu sa mogucnostima Hawai GPU-a). Druga stvar, za GTX 980 pise Gigabyte GTX 980 a klokovi su od Gigabyte GTX 980 G1 karte, pa je pitanje sta su stvarno koristili.
Sa druge strane GTX 980-Ti ima malu prednost u 4K rezoluciji u odnosu na Fury X a u dosadasnjim igrama su u ovoj rezoluciji te karte bile izjednacene, znaci po ovome najnovije od nVidia-e dobija vise u DX12 u odnosu na najnovije od AMD-a (Fiji).
Ali ja ne bih izvukao tako brzo ovakav zakljucak, prvo ovo je tek prvi DX12 benchmark (Star Swarm i Ashes of Singularity ne racunam zada), a drugo mozda nema veze sa DX12 vec jednostavno engine vise odgovara jednoj ili drugoj strani.
 
Da, to je Benchmark, ( sama rec kaze),
pitanje kako ce se pokazati rezultati u samoj igri.
Jer, evo, primera.
Metro 2033 Redux benchmark,
ovaj benchmark pokazuju i neko pravo, realno stanje koje vlada u samoj igri, pucnjava, eksplozije, mnogo vojnika, akcija, dugacak vremenski testa, ... itd,
i, onda ne cudi sto, recimo, procesor I7 4790K izvlaci vise frejmova, od nekog I5 3570K proca, pri gtx 980 grafici.
Razlika je 12%, sto nije bas zanemarljivo.
Dok, recimo Tomb Raider 2013 Benchmark, koji je dosta lineran i "ne-zahtevan" i kratak vremenski, osim onog TressFX Hair, ne odrazava pravo stanje gaminga u samoj igrici,i zbog toga nema nikakve razlike u broju frejmova izmedju ova dva proca,
dok je na nekim drugim testovima, kada se radi test u samoj igrici, ima razlike u perfomansama izmedju razlicitih proceva.
I ovo je isto bitno, sto je receno,
zavisi dosta framerate i od toga, koji Engine odgovara vise, kojoj arhikteturi.
Videcemo, kome ce vise da prija DX 12,
ovo je tek pocetak tih testiranja, sve opcije su igri.....:eyebrows:
 
Poslednja izmena:
Bitno da raspravljate u prazno, zajedno sa odbranom nVidia nebuloza, koje ako budu tako prilagođene igre njihovim grafičkim kartama, će efektivno da poništi beneficije DX 12 i imaćemo isto ****** kao i sada.

Pravo pitanje je koje su beneficije? Posto je DX12 blackbox o kojem samo znamo da je efikasniji na osnovu tvrdnji Microsofta. Za sada testovi pokazuju ono cega su svi plasili a to je opet vestacko dizanje zahtevnosti koje dolazi sa novim MS API-jem koje nije pradjeno adekvatnim skokom u kvalitetu i kompleksnosti grafickog prikaza.

Realno, Ashes of Singularity je jedini pravi bench za novi API jer prikazuje njegove snazne strane. Igre poput ARK (totalni krs od igre u svakom smislu) i ovaj Fable Legends benchmark ne prikazuju nista sto bi zahtevalo koriscenje low level API-ja.
 
Zanimljiva konstatacija i zapazanje, :shock:
nije da nema osnove za tako razmisljanje.
Pravi boost sto se tice tog DX12 cuda, ocekujem tek sa novim Paskalom i Ostrvima, jer neku ludu grafiku mogu da pokrenu tek neke mnogo jace grafe od ovih sada.
Inace, DX 12 , koliko sam citao moze doneti neka graficka poboljsanja, ali zar nije ono sto donosi pobosljanje grafike,
taj neki Engine po kome se prave igre.
Tako taj neki UE 4 Engine izgleda zaista impresivno kad se potera u fullu na tim nekim Tech Demo predstavljanjima.
Treba samo zamisliti, kako bi izgledale igrice u nekom full grafickom setovanju UE 4 Engina i koliko bi trebalo "horse power" za neku graficku karticu da bi to pokrenulo u normalnom fps.
Dakle, moze biti "NV GameWorks DX12 Games By UE 4 Engine", :party: samo kad bi sve igre mogle da se prave u tom enginenu.:D
 
Poslednja izmena:
Pravo pitanje je koje su beneficije? Posto je DX12 blackbox o kojem samo znamo da je efikasniji na osnovu tvrdnji Microsofta. Za sada testovi pokazuju ono cega su svi plasili a to je opet vestacko dizanje zahtevnosti koje dolazi sa novim MS API-jem koje nije pradjeno adekvatnim skokom u kvalitetu i kompleksnosti grafickog prikaza.

Realno, Ashes of Singularity je jedini pravi bench za novi API jer prikazuje njegove snazne strane. Igre poput ARK (totalni krs od igre u svakom smislu) i ovaj Fable Legends benchmark ne prikazuju nista sto bi zahtevalo koriscenje low level API-ja.

To nećeš videti u ovoj generaciji multiplatformi, osim u po kojoj PC ekskluzivi, jer za poptuno iskorišćenje mogućnosti api-a mora igra da se pravi isključivo za njega, odnosna dx12 ili vulkan, tako da će pomaci biti na onom nivou koji je recimo doneo Mantle...
 
Poslednja izmena:
Izašao je steam-ov za survey septembar. Win 10 x64 je već prihvatilo 24% njihovih korisnika, što je rast od 7.60% u odnosu na prethodni mesec, win 7 x64 je pao na 37.48%.

22.6% korisnika ima i win 10 i dx12 ready karticu, što će reći da je skoro četvrtina gaming korisničke baze spremno za DX12, možda standard zaživi i brže nego što sam očekivao.

http://store.steampowered.com/hwsurvey
 
Poslednja izmena:
ja nisam spreman za kortanu, ali jesam za vulkan.
 
Vrh Dno