Ja bih volio da neko ovdje objasni kako je Freesync inferiorniji u odnosu na Gsync, sa tehnicke strane.
Već je odavno objašnjeno na drugoj temi![]()
To se odnosi generalno na nVidia-inu implementaciju Async Compute-a, jer još uvek nisu zvanično objavili da li i kakvu podršku ima Maxwell. Možda je ovo maximum, možda nije, to niko ne zna.
Takođe, Oxide je još ranije potvrdio da će maksimalno optimizovati igru pre izlaska, jer po njima nema poente izbacivati polu-proizvod na tržište(šteta što ih i drugi ne prate). Sve što kasnije bude dolazilo biće uglavnom ispravljanje bagova.
Mogu da nadomeste nedostatak async shadera softverski ali zato ne mogu da naprave freesync da radi kao gsync... sve se moze kad se hoce, problem je sto nekada nema volje, neretko namerno teraju u suprotnom smeru (kao kada kroz drajvere obogalje stare modele grafickih).
U mom slucaju bilo je zakidanja performansi u igrama. Crysis 3 gtx 660, kupio nov procesor oktobra 2013., igra poletela, gpu usage 99%. Pola godine kasnije sa novim drajverom gledam performanse i ne verujem ocima (sigurno 20% slabije), gpu usage 99%. Mozda je naleteo los drajver, mada ko bi ga znao sa njima, pogotovo od afere sa gtx 970 i laganjem za asinhrone sejdere pa ubedjivanjem developera da ukinu podrsku za iste. Iskreno ja sa njima samo oprezno u zadnje vreme.Oni ne osakacuju svoje stare kartice namerno, jednostavno ih izbace iz liste za optimizaciju i zato to tako deluje. AMD se malo bavio optimizacijama drajvera, pa se zato i ne vide neke bitnije razlike.
U mom slucaju bilo je zakidanja performansi u igrama. Crysis 3 gtx 660, kupio nov procesor oktobra 2013., igra poletela, gpu usage 99%. Pola godine kasnije sa novim drajverom gledam performanse i ne verujem ocima (sigurno 20% slabije), gpu usage 99%. Mozda je naleteo los drajver, mada ko bi ga znao sa njima, pogotovo od afere sa gtx 970 i laganjem za asinhrone sejdere pa ubedjivanjem developera da ukinu podrsku za iste. Iskreno ja sa njima samo oprezno u zadnje vreme.
Pitanje je sta sve oni tweakuju da bi dobili performanse i da li cackaju i po starom kodu koji je davao performanse starim karticama. Ja sam odlucio jos 2010. da nikad vise necu uzeti nV karticu za sebe, ipak ne bi da mi se ponovi jos jedan kobni whql driver![]()
Evo ti ga prvi rezultat sa gugla
http://www.rockpapershotgun.com/2015/04/09/g-sync-or-freesync-amd-nvidia/
Inače, to se otprilike poklapa sa onim što sam ja imao priliku da isprobam. Freesync jednostavno ne radi uvek i ne radi kako treba u odnosu na ono šta obećava da radi; Gsync radi. Nemam prostije objašnjenje. Stavim monitor ispred sebe, pokrenem AMD-ov demo i umesto tri mesta na kojima postoji tearing kada je isključen, sa uključenim Freesyncom ostane jedno mesto. Ali dobro, bitno je da svi znamo da nikakav modu nije potreban.
Other sites are reporting ghosting on FreeSync displays, but that's not inherent to the technology. Rather, it's a display specific problem (just as the amount of ghosting on normal LCDs is display specific). Using higher quality panels and hardware designed to reduce/eliminate ghosting is the solution. The FreeSync displays so far appear to not have the same level of anti-ghosting as the currently available G-SYNC panels, which is unfortunate if true. (Note that we've only looked at the LG 34UM67, so we can't report on all the FreeSync displays.) Again, ghosting shouldn't be a FreeSync issue so much as a panel/scaler/firmware problem, so we'll hold off on further commentary until we get to the monitor reviews.
GTX 660 takodje ima asimetricnu arhitekturu kao 970, i karta ne koristi svih 2 GB, vec ~ 1.8. Zato i postoje 660/660-Ti modeli sa 3 GB.Cackaju i to previse. Jos kad je izbila afera za gtx 970, ja pustim test na mojoj gtx 660 i vidim rupe u bandwidth-u na 1.6gb i preko 1.7gb. Mislio sam da je greska medjutim u testovima i igrama se pokazalo da karta ide do 1.5gb pa preskoci na 1.7gb i posle toga krece stuttering. Doduse karta je radila u okvirima u kojima je bio system requirements predvidjen za nju. Jedino u ac unity je vukla svih 2gb vrama. Prodao kartu i kupio r9 280x, ona riknila i sad pazljivo biram sledecu kartu, ali da me je gtx 660 lepo sluzila, jeste, ne zalim se.
Citao sam i za te drajvere koji kartu pretvore u oblak dima, a ja u to vreme imao nvidia-u.
@Smooth
Za sad samo infiltrator unreal engine 4 demo, mada neces da se odusevis. Za par dana izlazi ashes of singularity early access, pa ce tek tu da se vide rezultati, ali neki besplatan demo koji zestoko demonstrira razliku izmedju dx11 i dx12 ne postoji u ovom trenutku, mozda tek za mesec-dva.
Pricas iz iskustva? Ako ne onda kupi kartu pa dokazi to sto tvrdis.
Moći će da radi svih 4 GB kako dolikuje, ali samo ako napraviš novu kartu. Nikakav tu softver ne pomaže.
Koliko je teško shvatiti sledeće:
7000 * 32 / 8 = 28 GB/s
Čak i moja integrisana ima veći bandwith:
2133 * 128 / 8 = 34,128 GB/s
Da li su ljudi platili za 28 GB/s?
Naravno da nisu.
Platili su za svih 4 GB:
7000 * 256 / 8 = 224 GB/s
Ako to nije feler, onda ne znam šta je.
Ima smisla, ali činjenica je da su krili/lažirali specifikacije svojih proizvoda sve dok nisu doterali cara do duvara. Ne kažem da su drugi (AMD, Intel, Qualcomm...) mnogo bolji, samo me mnogo nerviraju te stvari.
Nisu baš tokom kampanje spominjali da nemaju recimo Raster Ordered Views i Conservative Raster, niti su skrenuli pažnju na to recezentima i kupcima.
Follow along with the video below to see how to install our site as a web app on your home screen.
Napomena: this_feature_currently_requires_accessing_site_using_safari