Šta je novo?

The DirectX 12 Performance Preview: AMD, NVIDIA, & Star Swarm

Ne razumem šta ti znači "otplatim je za 2 meseca". Čime, rudarenjem? To onda nema nikakve veze sa objektivnim sagledavanjem upotrebe kartice u domenu korišćenja kako je koristi 99.X % kupaca.

Što se tiče igara - obrnuo si uzrok i posledicu. Nije tačno da meni ne valja nijedna igra u kojoj AMD karte imaju prednost, već se jednostavno radi o tome da su te igre ili opskurne ili iz žanrova koji su u velikom padu ili jednostavno irelevantne. Važnije je kako će se karte ponašati u naslovima kao što su Witcher, Fallout, Doom, Far Cry, Project Cars, Division, Dying Light, Just Cause, Deus Ex i slični, pa potom u moru free-to-play naslova nego kako će se ponašati u malom (relativno posmatrano) broju usko orijentisanih igara koje nikada neće steći veću publiku. Dakle, ne radi se o tome šta se meni lično dopada, već koja kompanija ima prednost tamo gde se obrću zilioni.

Oko optimizacija za konzole i logike da će AMD biti optimizovaniji zbog njih - ja mogu da odem korak dalje od tebe, pa da ustvrdim da mi nećemo videti poštenu DX12 igru dok ne dođe na red naredna generacija konzola (što zapravo ne bi bilo ništa čudno) jer developeri ne žele da "donose drugačije iskustvo na PC i konzole" (tj. neće da se cimaju), pa je samim tim cela tvoja logika kupovine AMD kartice koja će ti biti "dugotrajnije" potpuno obesmišljena. Uostalom, ako "otplatiš" 390 za 2 meseca, što ne uzmeš Fury X pa je "otplatiš" za 4 meseca i "ostane ti džabe". :d
Nisi upucen Fury- X zbog HBM-a ima ocajne performanse treba mu mislim oko 4 mjeseca kad bi ovakva isplativost ostalo sto je jako velik period. Nisam bezveze spomenuo R9 390.
O ukusima necu raspravljati rekao sam ti i ranije tebi se nesto svidja neka igra meni ne, ali to je ok postujem stvar ukusa ;)
Nvidia ima bolju saradnju sa razvojnim timovima to sve stoje, ali vremenom zapostavljaju starije kartice tipa kepler, dok kod AMD starije kartice dobivaju optimizaciju, u tome je poenta sto sam se uopste ukljucio u ovu raspravu... naravno dosao je reviewsrb sad ce on to testovima da dokaze :p
Nemaju svi novca i uopste ne mjenjaju svi grafike cim nesto novo izadje, a ti koji ne mjenjaju grafike ko carape njima je svakako u interesu da im u buducnosti grafika bolje radi da dobiva optimizacije a ne da gubi na performansama ili ti nakon sto je kupi sazna da mu je od radnje do kucnog praga negdje iscurilo pola gigabajta RAMA :D :D :D
 
Kod mene je situacija otprilike ovakva...:D

DX11 Ashes of the Singularity 03.13.2016 - 11.13.51.02.jpg Ashes of the Singularity 03.13.2016 - 12.15.08.40.jpg

DX12 Ashes of the Singularity 03.13.2016 - 11.17.51.03.jpg
 
pixell i goldi:

Ljudi, ne tvrdim ja da treba menjati grafike ili da ne treba raditi na optimizacijama za ranije generacije grafičkih. Samo govorim iz perspektive koja ne podrazumeva lično gledanje na stvari. Ja prvi sačekam bar 2 generacije pre nego što zamenim grafiku. Ali tako ne radi većina onih koji generišu potražnju i koji kupuju robu. Objasnite vi zapadnjaku da mu je bezveze što je uzeo GTX 980 / Fury na otplatu u iznosu dva big meka mesečno.
 
Nije problem u kupcima nego u prodavcima, recezentima i testerima. Retko gde se može pročitati dobra analiza Kepler, Maxwell i GCN arhitekture, razlike između njih i gde su prednosti jedne u odnosu na drugu. Samo se frljaju FPS-om i pišu gluposti. I zato se sad ljudi čude kako je u novim (DX12) igrama Radeon ispred GTX-a iz iste cenovne kategorije, a bilo je obrnuto.
 
Poslednja izmena:
Ti bi, pretpostavljam, hteo da revieweri gledaju u pasulj i maštaju šta bi se sve moglo desiti, kako u domenu hardvera, tako u domenu softverskih (ne)optimizacija, umesto da mere performanse u onome što im je u datom trenutku dostupno?
 
Ima li negde test dx12 ali da rade i frametime?
 
Znaci kad zazivi dx12 videcemo samo 50gb + igre koje zahtevaju monstrum konfe... Hm DX12 vs Vulcan? Ima li sanse za Vulcan na win platformi?
 
Ima šanse ali najmanje zavisi od samog API.
 
Znaci kad zazivi dx12 videcemo samo 50gb + igre koje zahtevaju monstrum konfe... Hm DX12 vs Vulcan? Ima li sanse za Vulcan na win platformi?

Covek iz Oxide (Ashes of Singularity) kaze da us API jako slicni i da ne vidi problem da se uradi podrska za oba API, jer to po njemu i nije neki ekstra posao. Ali kao sto @Kimins kaze, to najmanje zavisi od tehnickog aspekta. Neke druge stvari su u igri.
 
Ali kao sto @Kimins kaze, to najmanje zavisi od tehnickog aspekta. Neke druge stvari su u igri.

Ah, taj Microsoft...

in-the-2000s-bill-gates-and-steve-ballmer-often-appeared-in-silly-motivational-videos-for-microsoft-employees-like-this-austin-powers-parody.jpg


(ne, nije montaža, ovo je iz motivacionog videa za zaposlene :d )
 
Evo jednog testa DX11 vs DX12 na mojoj masini, cpu i gpu AMD-ovi.

DX 11
DX11.jpg

DX12
DX12.jpg

CPU & GPU usage
DX11 vs DX12.jpg
 
Koji je to benchmark :D ?? Covece koliko je efikasan dx12 <3
 
@Newmultifail
Mozda zahvaljujuci i7 koji ima bolji ipc bih i dobio, ali bi ga opet klali AMD drajveri u dx11.

@dejan87dex
U pitanju je ashes of singularity beta. :)

@-cox
Na tvojoj konfiguraciji bi sigurno bilo pomaka ali ne ovolikog jer r9 280x ima samo 2 ACE jedinice, dok r9 290 pa navise imaju po 8 ACE jedinica, pa se cpu maksimalno reasterecuje, tako da tesko je reci koliki bi pomak bio. U principu ako ti phenom sada davi r9 280x, na dx12 bi r9 280x mogla da pokaze svoj pun potencijal. Evo ovde http://www.pcgameshardware.de/Hitman-Spiel-6333/Specials/DirectX-12-Benchmark-Test-1188758/ imas test u dx12 gde se vidi pomak od karte do karte.
 
Ја данас скинуо АоС чисто да бих пробао како ради DX11 vs. DX12 код мене и резултати тј. разлике су очигледне:
directx11 AoS.jpg
directx12 AoS.jpg
 
Neka fala, trosi kao pegla :-D cekam ja zen tdp 95w ;-)
 
a ti inace zivis u danskoj i religija ti ne dopusta nista sem da je zakucan napon na OC-ovanom procesoru?
 
Tako nekako, gledam sto manje da placam struju, ama svaki potrosac mora biti zelen.
 
vise puknes na tom napajanju koje nije bas "zeleno",ali ima se-moze se u danskoj...
 
Ti bi, pretpostavljam, hteo da revieweri gledaju u pasulj i maštaju šta bi se sve moglo desiti, kako u domenu hardvera, tako u domenu softverskih (ne)optimizacija, umesto da mere performanse u onome što im je u datom trenutku dostupno?
Nemoj me zezati, znaš o čemu govorim. Npr. Anand je pre godinu dana pisao o tome, kada je ova tema i otvorena. Mantle je još stariji, zapravo bilo je testova igara (BF4) i pre nego što su Maxwell karte izašle. Oxide je pre 2 godine na GDC-u pričao o mogućnostima GCN-a (tada za Mantle, kasnije za DX12 API) i iskorišćenju ACE-a.

Imamo sasvim lep primer Hairworks vs TressFX/PureHair (tj. Tessellation vs Compute), gde su kompanije odabrale različit pristup za istu stvar, ne bi li što bolje iskoristili svoj hardver. I niko da lepo objasni zašto kosa u Witcheru 3 znatno više sakati GCN (pa čak i Kepler) nego Maxwell karte, a u RoTTR-u ima isti uticaj na sve, a obe igre su nVidia naslovi. Samo vidimo naslove tipa "Project CARS radi užasno na AMD kartama" ili "AMD karte dominiraju u novom Hitmanu". I onda ako ja ne želim da igram ni jednu od tih igara, meni njihovi testovi ne znače ništa. Došli smo čak do toga da neki sajtovi objavljuju rezultate i pre nego što testiraju sve karte, samo da bi bili prvi. Na stranu što svaki test pokazuje drugačije rezultate, ne znam da li ti ljudi znaju osnovne principe metrologije

Ja i dalje stojim iza mišljenja da je potpuno svejedeno da li će neko kupiti npr. R9 390 ili GTX 970 ako mu je FPS jedino merilo. Razliku može da pravi verovatnoća da ćeš igrati TWIMTBP ili GE naslov, tj. za koji će hardver biti bolje prilagođena. Ili neke druge karakteristike. Mada sigurno neću gledati u pasulj ko će podržati igru koja izlazi za godinu, dve i neću bežati od nje samo zato što npr. ima ili nema Gameworks ili iskorišen AC, bez obzira koju kartu imam.

Kad smo kod novih tehnologija trenutnih karti, samo je trebalo reći da Maxwell podržava delove API-ja koji npr. omogućavaju bolji kvalitet slike, da GCN možda može doneti više frejmova u istom kvalitetu, dok zapravo Skylake ima najbolju podršku :) Pa nek svako vidi šta mu više odgovara. Naravno da je sve to malo složenije, ali sad nema potrebe za detaljima.

Za sada imamo 4 DX12 igre od koje su 2 donele znatan skok na GCN-u, dok druge dve nisu donele nikakav skok na Maxwell-u (VXAO je omogućen na DX11 u RotTR-u, GoW je kupus koji npr. bolje radi na staroj verziji GCN-a nego na novoj, ili bolje na GTX 960 2GB nego 4GB ). Šta će biti dalje, možemo da nagađamo :D
 
To napajanje je hranilo jedno vreme phenom 2 x4 955 i ati4850 oc, pa nije otislo, ne vidim sta je tebi zanimljivo toliko? Mozda sto je LC, pa? Evo radi lepo i posle 7god, ne boli me glava.

Kada rikne LC prelazim na Solarnu energiju, dosta sam odlutao sa ne zelenom tehnoogijom. :-D
 
Poslednja izmena:
ne shvatas poentu,vise struje gubis zato sto ti je napajanje ne-efikasno nego sto bi gubio sve i da otpanjujes fx83xx na 1,5v.u sustini,pricu oko struje sudis po standardnom fanboj hajpu,i ne zanimaju te cinjenice.a ako si u pancevu,razlika na godisnjem nivou izmedju best i worst case scenarija za struju izmedju spominjanog je par stotina dinara godisnje,i to ako je konfa pod konstannim load-om i ako su naponi na procesorima zakucani (dakle pogaseni power states i cpu stalno trosi maksimalno koliko moze).

napajanje je medju najbitnijim stavkama kod green computing-a zato sto manje-vise najvise radi.nema to veze sa brendom,jer sve i da nisu slagali (a najverovatnije jesu) to nije preterano efikasno napajanje i sva prica o green computingu kod tebe pada u vodu.
 
Negde sam odavno video test od 80 Plus do Platinum napajanja i koliko to otprilike košta na godišnjem nivou (za USA čini mi se). I u suštini, za potrošnju oko 500W, mala je razlika, ali za velike potrošače, za 700W i više se itekako isplati ići na Gold, Platinum i Titanium
 
vise puknes na tom napajanju koje nije bas "zeleno",ali ima se-moze se u danskoj...

verujem da koristi sijalice 100w po kuci i drzi upaljene non stop kao velika vecina nasih gradjana... ali zato da ustedi 20w na 3 sata koriscenja racunara je bitno! tako je rekao linus :)
Ili kao mnogi nasi ljudi kupi atom procesor u tabletu ili najjaci snapdragon overklokovan procesor u galaksiju i zali se sto su im baterije slabe ... ali je vazno da radi na 2 ghz i da ima 8 jezgara !!!11



ljudi, prioriteti ...
energetska efikasnost je bitna stavka za prenosne uredjaje i servere ne ako koristis jedan racunar pet sati svaki dan
 
Poslednja izmena:
Nazad
Vrh Dno