Šta je novo?

The DirectX 12 Performance Preview: AMD, NVIDIA, & Star Swarm

Već je odavno objašnjeno na drugoj temi :)
 
Fora je samo da Gsync ispod 37 FPS duplira frejmove, sto se moze rijesiti kroz drajver. Tj. ne treba nikakav modul u monitoru.
 
Evo ti ga prvi rezultat sa gugla :p

http://www.rockpapershotgun.com/2015/04/09/g-sync-or-freesync-amd-nvidia/

Inače, to se otprilike poklapa sa onim što sam ja imao priliku da isprobam. Freesync jednostavno ne radi uvek i ne radi kako treba u odnosu na ono šta obećava da radi; Gsync radi. Nemam prostije objašnjenje. Stavim monitor ispred sebe, pokrenem AMD-ov demo i umesto tri mesta na kojima postoji tearing kada je isključen, sa uključenim Freesyncom ostane jedno mesto. Ali dobro, bitno je da svi znamo da nikakav modu nije potreban.
 
Tearing se ne može vidjeti, sem ako FPS ne prelazi refresh monitora.
 
To se odnosi generalno na nVidia-inu implementaciju Async Compute-a, jer još uvek nisu zvanično objavili da li i kakvu podršku ima Maxwell. Možda je ovo maximum, možda nije, to niko ne zna.

Takođe, Oxide je još ranije potvrdio da će maksimalno optimizovati igru pre izlaska, jer po njima nema poente izbacivati polu-proizvod na tržište :) (šteta što ih i drugi ne prate). Sve što kasnije bude dolazilo biće uglavnom ispravljanje bagova.

To ce se desiti kao oni drajveri koji su pominjani kao odgovor za mantle. Ako taj drajver ne izadje pre paskala, nece nikada ni izaci :D

Mogu da nadomeste nedostatak async shadera softverski ali zato ne mogu da naprave freesync da radi kao gsync... sve se moze kad se hoce, problem je sto nekada nema volje, neretko namerno teraju u suprotnom smeru (kao kada kroz drajvere obogalje stare modele grafickih).


Oni ne osakacuju svoje stare kartice namerno, jednostavno ih izbace iz liste za optimizaciju i zato to tako deluje. AMD se malo bavio optimizacijama drajvera, pa se zato i ne vide neke bitnije razlike.
 
Oni ne osakacuju svoje stare kartice namerno, jednostavno ih izbace iz liste za optimizaciju i zato to tako deluje. AMD se malo bavio optimizacijama drajvera, pa se zato i ne vide neke bitnije razlike.
U mom slucaju bilo je zakidanja performansi u igrama. Crysis 3 gtx 660, kupio nov procesor oktobra 2013., igra poletela, gpu usage 99%. Pola godine kasnije sa novim drajverom gledam performanse i ne verujem ocima (sigurno 20% slabije), gpu usage 99%. Mozda je naleteo los drajver, mada ko bi ga znao sa njima, pogotovo od afere sa gtx 970 i laganjem za asinhrone sejdere pa ubedjivanjem developera da ukinu podrsku za iste. Iskreno ja sa njima samo oprezno u zadnje vreme.
 
Poslednja izmena:
U mom slucaju bilo je zakidanja performansi u igrama. Crysis 3 gtx 660, kupio nov procesor oktobra 2013., igra poletela, gpu usage 99%. Pola godine kasnije sa novim drajverom gledam performanse i ne verujem ocima (sigurno 20% slabije), gpu usage 99%. Mozda je naleteo los drajver, mada ko bi ga znao sa njima, pogotovo od afere sa gtx 970 i laganjem za asinhrone sejdere pa ubedjivanjem developera da ukinu podrsku za iste. Iskreno ja sa njima samo oprezno u zadnje vreme.

Pitanje je sta sve oni tweakuju da bi dobili performanse i da li cackaju i po starom kodu koji je davao performanse starim karticama. Ja sam odlucio jos 2010. da nikad vise necu uzeti nV karticu za sebe, ipak ne bi da mi se ponovi jos jedan kobni whql driver :D
 
Pitanje je sta sve oni tweakuju da bi dobili performanse i da li cackaju i po starom kodu koji je davao performanse starim karticama. Ja sam odlucio jos 2010. da nikad vise necu uzeti nV karticu za sebe, ipak ne bi da mi se ponovi jos jedan kobni whql driver :D

Cackaju i to previse. Jos kad je izbila afera za gtx 970, ja pustim test na mojoj gtx 660 i vidim rupe u bandwidth-u na 1.6gb i preko 1.7gb. Mislio sam da je greska medjutim u testovima i igrama se pokazalo da karta ide do 1.5gb pa preskoci na 1.7gb i posle toga krece stuttering. Doduse karta je radila u okvirima u kojima je bio system requirements predvidjen za nju. Jedino u ac unity je vukla svih 2gb vrama. Prodao kartu i kupio r9 280x, ona riknila i sad pazljivo biram sledecu kartu, ali da me je gtx 660 lepo sluzila, jeste, ne zalim se.
Citao sam i za te drajvere koji kartu pretvore u oblak dima, a ja u to vreme imao nvidia-u. :D

@Smooth

Za sad samo infiltrator unreal engine 4 demo, mada neces da se odusevis. Za par dana izlazi ashes of singularity early access, pa ce tek tu da se vide rezultati, ali neki besplatan demo koji zestoko demonstrira razliku izmedju dx11 i dx12 ne postoji u ovom trenutku, mozda tek za mesec-dva.
 
Poslednja izmena:
Očito je da nisi poterao nai's benchmark u potrebnim uslovima da bi valjano pokazao bandwith te je udarilo u deo koji je rezervisan za sistem koji se ne oslobodi zato što algoritam koristi cuda-u.
 
Poslednja izmena:
Evo ti ga prvi rezultat sa gugla :p

http://www.rockpapershotgun.com/2015/04/09/g-sync-or-freesync-amd-nvidia/

Inače, to se otprilike poklapa sa onim što sam ja imao priliku da isprobam. Freesync jednostavno ne radi uvek i ne radi kako treba u odnosu na ono šta obećava da radi; Gsync radi. Nemam prostije objašnjenje. Stavim monitor ispred sebe, pokrenem AMD-ov demo i umesto tri mesta na kojima postoji tearing kada je isključen, sa uključenim Freesyncom ostane jedno mesto. Ali dobro, bitno je da svi znamo da nikakav modu nije potreban.

Šališ se, zar ne?

Ovo je test koje pokazuje da je jedan standard superiorniji?

Komentar iz malo ozbiljnijeg testa koji se tiče procene koju su na tom testu koji si okačio uočili:

Other sites are reporting ghosting on FreeSync displays, but that's not inherent to the technology. Rather, it's a display specific problem (just as the amount of ghosting on normal LCDs is display specific). Using higher quality panels and hardware designed to reduce/eliminate ghosting is the solution. The FreeSync displays so far appear to not have the same level of anti-ghosting as the currently available G-SYNC panels, which is unfortunate if true. (Note that we've only looked at the LG 34UM67, so we can't report on all the FreeSync displays.) Again, ghosting shouldn't be a FreeSync issue so much as a panel/scaler/firmware problem, so we'll hold off on further commentary until we get to the monitor reviews.

http://www.anandtech.com/show/9097/the-amd-freesync-review


Još neko da pokaže superiornost jednog standarda u odnosu na drugi ili sve ostaje na rekla-kazala?

Ili me terate me da kupujem monitore i da pravim test?
 
Bio je jedan ozbiljan profesionalan test gde su izvučene čiste cifre u diagramima i tabelama, pogotovo u situacijama kada fps padne na niže vrednosti, na one tik iznad 30fps-a gde se stuttering i desinhronizacija daleko ranije pojavljuju na freesync-u nego na gsync, okačen je još pre par meseci u nekoj od dogovarajućih tema, koga zanima nek potraži, ja sigurno neću raditi posao za druge :)
 
Poslednja izmena:
Znači "muko moja pređi na drugoga"... Nije ti to baš drugarski.
 
Cackaju i to previse. Jos kad je izbila afera za gtx 970, ja pustim test na mojoj gtx 660 i vidim rupe u bandwidth-u na 1.6gb i preko 1.7gb. Mislio sam da je greska medjutim u testovima i igrama se pokazalo da karta ide do 1.5gb pa preskoci na 1.7gb i posle toga krece stuttering. Doduse karta je radila u okvirima u kojima je bio system requirements predvidjen za nju. Jedino u ac unity je vukla svih 2gb vrama. Prodao kartu i kupio r9 280x, ona riknila i sad pazljivo biram sledecu kartu, ali da me je gtx 660 lepo sluzila, jeste, ne zalim se.
Citao sam i za te drajvere koji kartu pretvore u oblak dima, a ja u to vreme imao nvidia-u. :D

@Smooth

Za sad samo infiltrator unreal engine 4 demo, mada neces da se odusevis. Za par dana izlazi ashes of singularity early access, pa ce tek tu da se vide rezultati, ali neki besplatan demo koji zestoko demonstrira razliku izmedju dx11 i dx12 ne postoji u ovom trenutku, mozda tek za mesec-dva.
GTX 660 takodje ima asimetricnu arhitekturu kao 970, i karta ne koristi svih 2 GB, vec ~ 1.8. Zato i postoje 660/660-Ti modeli sa 3 GB.
 
Asimetricna arhitektura? Mislim da si malo pobrkao neke stvari. Te karte imaju asimetricni memorijski kontroler i to se ne desava tako cesto, samo u odredjenim slucajevima.
Jednostavno za taj rang, u to vreme, 2GB je bilo neophodno a zbog sirine memorijske magistrale od 192 bita koja bi po pravilu ispratila 1.5 Gb memorije, ili 3 Gb, morali su da stave drugi memorijski kontroler.
Karta ima svih raspolozivih 2 Gb, ne znam odakle ti takve informacije da koristi 1.8 Gb?!
 
Baš kao što 970 ima "raspoloživih" na nivou neke karte od par desetina evra. Plus, ćutali o tome kao poslednje pi*de.
 
A sta da dokazuje? zna se da su lazirali specifikacije, zna se da su im driveri przili karte, zna se da su sposobni da natjeraju razvojne timove da se prave igrice prema njihovoj arhitekturi, slagali su da ce driverima donjeti podrsku za asinhrone shedere, sta treba jos da urade da pojedinci ovde na forumu prestanu da brane njima omiljenu zelenu boju?
 
Pricas iz iskustva? Ako ne onda kupi kartu pa dokazi to sto tvrdis.

Bežao si iz osnovne? Matematika?

Da se samocitiram:
Moći će da radi svih 4 GB kako dolikuje, ali samo ako napraviš novu kartu. Nikakav tu softver ne pomaže.

Koliko je teško shvatiti sledeće:

7000 * 32 / 8 = 28 GB/s

Čak i moja integrisana ima veći bandwith:

2133 * 128 / 8 = 34,128 GB/s

Da li su ljudi platili za 28 GB/s?

Naravno da nisu.

Platili su za svih 4 GB:

7000 * 256 / 8 = 224 GB/s

Ako to nije feler, onda ne znam šta je.
 
Što se opet napominjem ne primeti u realnom gejmingu u rezolucijama za koje je namenjena GTX 970, a drajveri zaista jesu sređeni jer u taj sporiji deo trpaju stvari koje ne zahtevaju taj bandwith...

Ja sam se naigrao sa njome za ovih već godinu dana, a da ništa nije ni štucnulo zbog memorije, naigraću se i uživati i do Pascal-a, a ostalo može biti jedino hrana za internet fanbojeve kompanije čiji su jedini argumenti ovog tipa, a ne performanse u realnom svetu i softverska podrška za svoje proizvoda, što je i najbitnije. Da li su usput žigosali ljude tokom holokausta kao IBM, to me ne zanima, zanima me isključivo proizvod, ne na papiru, već u realnoj upotrebi. Ako neko napravi bolje lako ćemo preći na njega... uostalom ati 9800 pro je jedna od najboljih karti koje sam posedovao, ako postanu lideri na tim poljima kao što su bili u tom periodu, lako će se pazariti neki AMD :)
 
Poslednja izmena:
Ja recimo na 3.8-3.9 gb nisam osetio nikakvo usporenje ni pad performansi.. Ocigledno znaju bolje oni koji karte ne poseduju.
 
attachment.php
 
Nije sve u brojevima (FPS-u), ima nešto i u principima i odnosu prema kupcima. Nisam ni ja ništa izgubio na performansama kad mi je prodavac prodao korišćenu/testiranu memoriju, jer znam da joj ništa ne fali. Ali se osećam prevareno i zato sledeću neću uzeti kod njih, nego kod nekog ozbiljnijeg, po višoj ceni :)
 
Ja kao odnos prema kupcima gledam kao odnos prema softveru, drajverskoj podršci, linux podršci, saradnjom i pomaganjem razvojnih timova da bi se izvuklo što više iz njihovog hw-a i tehnologija. Papirnate priče i obećavanje čuda za svaku sledeću generaciju, marketing kroz blaćanje konkurencije i igranjem na kartu siromaha jedne kapitalističke korporacije kojoj je kao i svakoj jedini cilj profit i uzimanja dela kolača, ne smatram kao odnos prema kupcu, niti gajim takve ili bilo kakve emocije bilo kojoj korporaciji, osim onoga što će meni doneti u realnoj upotrebi u svakodnevnom životu, tj. onaj ko da više... :)

Evo čujem ljudi prodaju počeli da bojkotuju BMW zbog izduvnih gasova i masovno prelaze na Škodu, to je neki taj nivo logike :d
 
Poslednja izmena:
Ima smisla, ali činjenica je da su krili/lažirali specifikacije svojih proizvoda sve dok nisu doterali cara do duvara. Ne kažem da su drugi (AMD, Intel, Qualcomm...) mnogo bolji, samo me mnogo nerviraju te stvari.
 
Nvidia je Zakon makar i varala na specifikacijama, sta je to bitno kako te oni namame bitno je da pozelenis od zadovoljstva. :-D ja se ne secam da je to Amd (ATI) radio :)
 
Ima smisla, ali činjenica je da su krili/lažirali specifikacije svojih proizvoda sve dok nisu doterali cara do duvara. Ne kažem da su drugi (AMD, Intel, Qualcomm...) mnogo bolji, samo me mnogo nerviraju te stvari.

Ako se tako gleda onda je i AMD je lažirao, tj. prikrivao specifikacije, prvo se gurala priča da je Fury full dx12 karta, a onda skoro dva meseca po izlasku Fury-a izađe Robert Hallock i izjavi: “There’s no such thing as “full support” for DX12 today” i nabroji DX12 featurse koje fury ne poseduje i to u idealnom trenutku kada mnogi neće obratiti pažnju na to jer se već naduvala priča o async-u. :)

Nisu baš tokom kampanje spominjali da nemaju recimo Raster Ordered Views i Conservative Raster, niti su skrenuli pažnju na to recezentima i kupcima. A ni priča o tome da sada karte na testiranje dobijaju isključivo recezenti koji prihvate njihove baze testova ili koji iz njihovog ugla afirmativno pišu o njihovim proizvodima, a pri tome izbegnu neke od najvećih i najvalidnijih recezenata, baš i ne pije priču o nekoj super consumer orijentisanoj korporaciji.

Znaš šta je recimo primer dobrog odnosa prema kupcima? To je recimo primer Intela koji sam pronađe i prizna bug na celoj svojoj seriji chipseta i svima zameni matične ploče o svom trošku,a ne pr priče...
 
Poslednja izmena:
Nisu baš tokom kampanje spominjali da nemaju recimo Raster Ordered Views i Conservative Raster, niti su skrenuli pažnju na to recezentima i kupcima.

Kakve to veze ima sa hardverom?
 
Nazad
Vrh Dno