Šta je novo?

AMD Radeon Rx serija

Unreal engine 4 igra Hatred aj sto je igra ocajno optimizovana aj sto je AMD opet desetkovan!

Pogledajte prilog 171897

Necu ovo uzeti za ozbiljno obzirom da ova igra ne moze da bude toliko zahtevna.
Takodje nemoguce da u full hd ni titan ne moze da je gura preko 62fps-a, ko da je bio ukljucen neki frame lock.
Nego zapalo mi za ono test konf, 32 GB DDR4 rama... cemu?
 
Ok taj frame lock, neoptimizovanost itd, ali generalno verovatno opet pokazatelj da ce UE 4 takodje stucat na AMD-u, 32GB ima se moze se :)
 
Meni uopste nije pokazatelj da ce UE 4 stucati na AMD-u, Epic je uvek pravio savrseno optimizovane engine.
Ovo je pre do tima koji je pravio igru.
 
Meni uopste nije pokazatelj da ce UE 4 stucati na AMD-u, Epic je uvek pravio savrseno optimizovane engine.
Ovo je pre do tima koji je pravio igru.

A kako nije pokazatelj... zar hatred ne koristi UE4?

To sto se nekima igra ne svidja ne znaci da je treba zanemarivat
 
Mislim da nije samo do kodova u igri i optimizaciji, komlikovanije je to sve sa tom Next-gen graphics i igrama.
I evo malo realniji GTA V test;), https://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_980_Ti/20.html.

jel ti stvarno nazivas test u kom Titan X gubi od 980Ti u 1080p realnim ? kako ja sad tebi da odgovorim na to ? 295x2 ... 60FPS ... jel ti stvarno mislis da je to realno ???

Oni ko da su imali 60FPS lock na AMD kartama .... izgleda u najmanju ruku smesno ...

koj glup test ko njih uzima za ozbiljno ?
 
Pa, majku mu, za GameWorks se moglo ocekivati da ce losije raditi na AMD, pa Physx koji ide na CPU u Project Cars, takodje isto problematicno za AMD, UE 4 direktno implementiran Physx Flex tehnologija, koji efekti postoje i u Project Cars i Witcheru itd..
Logicno je ocekivati da i u UE 4, AMD ima nesto losije performanse. Zbog cega je to tako, sigurno ima vise razloga, i videcemo kako ce se to sve pokazati u novom Win 10 i implementaciji tog DX12 u full podrsci.
 
@reviewsrb
Physx moze biti na GPU i CPU, ja koliko znam na svim novijim naslovima je on na CPU-u tako da isti ne opterecuje GPU nimalo
Kako DX12 moze pomoci AMD GPU?? moze pomoci samo onoj nakazi od AMD CPU-a
 
ajde zeljko sad si ljubomoran jer nemas predobri FX procesor ... nabavi pa oseti cari 8 jezgara ;)

Poenta i jeste da se ljudi fokusiraju na GPU a iskuliraju CPU malo jer mi je malo muka od onih prica .... preslab ti CPU :) kad ono medjutim .... to nije radilo kako treba.

Za 90% korisnika i onaj Pentium anniversary edition je extra :)
 
Uff, koliko sam ja skontao to sa Physx na CPU, nije ceo paket physx-a prebacen na CPU, nego samo neki delovi kao sto su PhysX Particles, Turbulence, Destruction i Clothing.
Recimo, u Project Cars je physx prebacen na CPU, ali kada se postavi dedicated karta, physx se prebacuje na tu kartu. To je zato sto je physx ugradjen direktno u igru.
Dok kod Witchera physx ide samo na CPU, ali u toj igri je physx samo deo tog nekog grafickog sistema.
 
jel ti stvarno nazivas test u kom Titan X gubi od 980Ti u 1080p realnim ? kako ja sad tebi da odgovorim na to ? 295x2 ... 60FPS ... jel ti stvarno mislis da je to realno ???

Oni ko da su imali 60FPS lock na AMD kartama .... izgleda u najmanju ruku smesno ...

koj glup test ko njih uzima za ozbiljno ?

Sve sam čuo, ali da W1zzard-ovi testovi nisu verodostojni to još nisam čuo...
 
Nisu to nedoslednosti u testovima... vec u igri koja je testirana, a taj koji je okacio SS je isti izvadio iz konteksta (a znamo i zasto), ne potrudivsi se da ili okaci zakljucak (koji je na ruskom) ili bar da pronadje englesku verziju istog. Da ne duzim, evo sta kaze zakljucak:

Whether PhysX runs on the GPU for NV and CPU on AMD I can't confirm or find info on. Either way, the end result is one of the most unoptimized games vs. its level of graphics I've ever seen.
It is alarming though to see what would happen to PC gaming if many more UE4 games with PhysX would start coming out - a completely biased game that favours just 1 AIB - in this case NV.

It's also alarming just how poorly optimized some of the many newer PC games are. Even on NV hardware, this game puts a stress on a card like a Titan X at 1600P. WOW! Are they purposely trying to make games run this bad so we upgrade faster?

This is why I always question when software developers and hardware manufacturers work closely on games for the sole purpose of co-marketing the games and at the same time promoting new GPU hardware at the expense of competing solutions OR what seems to be in this case the developer not having enough $ to develop its own physics engine so they decided to use NV's biased PhysX engine. Talk about a cop-out for a software development company! In many cases, especially when NV is involved, the end result is a game that is horrendously optimized. That's not how PC games were made in the past where the focus was to provide a great gaming experience for as many gamers as possible (think Blizzard), while allowing great scaling with better hardware from either manufacturer (think Crytek's Crysis 1 or 3). / rant
 
Poslednja izmena:
Nisu to nedoslednosti u testovima... vec u igri koja je testirana, a taj koji je okacio SS je isti izvadio iz konteksta (a znamo i zasto), ne potrudivsi se da ili okaci zakljucak (koji je na ruskom) ili bar da pronadje englesku verziju istog. Da ne duzim, evo sta kaze zakljucak:

A ja lepo pricam retardirani developeri pojma nemaju da naprave kod....
970 je po sveukupno za dlaku slabija od 290x... Ali neke igre to ne prikazuju, cak naprotiv, prikazuju 970 kao jacu kartu sto je nemoguce.
290x trosi vise... Greje se vise... Sve to stoji ... Ali nije slabija, lepo je vidi snaga u 4k testovima na guru3d
 
ova sprdnja od igre nikako nemere biti reper za endzin.
 
Ne znam... Imao sam i nvidije i atije (sada imam 7770) i uvek sam gledo da uzimam bang 4 the $ komponentu. Tako da nisam brand ostrascen, i s toga bih kada bih dobio izbor pre uzeo 970 nego 290x.
Nego me nervira bezrazlozno trovanje tema u kojim se prica o amd proizvodima od strane pojedinih clanova... znamo svi ko su, i konstantno vadjenje nekih stvari iz konteksta. Ja ne znam kako neko moze da mrzi neki brend ili proizvod toliko? AMD ima daleko manji budzet od oba svoja konkurenta, a opet se drze kako tako i umesto da se radujemo jacim brzim i jeftinijim proizvodima, ovde se jedva ceka fail...
 
A ja lepo pricam retardirani developeri pojma nemaju da naprave kod....
970 je po sveukupno za dlaku slabija od 290x... Ali neke igre to ne prikazuju, cak naprotiv, prikazuju 970 kao jacu kartu sto je nemoguce.
290x trosi vise... Greje se vise... Sve to stoji ... Ali nije slabija, lepo je vidi snaga u 4k testovima na guru3d

Snaga grafickog cipa nema veze sa 4K vec memorijski opseg.
Da GTX 970 ima 384 bita R9 290X bi bila u prasini u svakom testu a da napomenem da je cak i u 4k u testovima jaca, zavisno od igre.

Posto potenciras kako je R9290X jaca evo ti par skrinova, cisto da vidis da su testovi jedno a uzivo drugo.
 

Prilozi

  • Crysis 3.jpg
    Crysis 3.jpg
    138.2 KB · Pregleda: 259
  • Battlefield 4.jpg
    Battlefield 4.jpg
    142.3 KB · Pregleda: 99
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_980_Ti/31.html

Sve zavisi od rezolucije. Dok je u 1080p brza 970-ka, u 1440p su izjednacene, a u 4k vodi 290x priblizno isto onoliko koliko 970 vodi u 1080p. Logicno je da sto vise raste rezolucija to vise 290x dolazi do izrazaja zbog 384-bita. Nije nikakva nauka, samo zdrava logika. Konacno da li je 290x "superiorna" u odnosu na GTX970? Odgovor je da nije, po svemu sudeci ove dve grafike su izuzetno slicnih performansi, a 4-5% prednosti jedne ili druge u zavisnosti da li se koristi 2K li 4K su u granicama statistickog odstupanja. 290x je 350eur (sapphire Tri-X), GTX970 je 360eur (Gigabyte WF3), tako da i to potvrdjuje cinjenicu da su karte prakticno identicne. Ostaje samo da se svako odluci sta mu vise odgovara. meni licno a i mnogima vise odgovara IZUZETAN OC potencijal GTX970 karti i dosta hladnija situacija u kucistu uz primetno manju buku.
 
Poslednja izmena:
Jeste, overklok potencijal 970 je mnogo veci od 290X i tu se dobija jos na nekoj razlici u jacini izmedju dve karte, plus ove novije igre koje vise odgovaraju Nvidia karticama, tako da je u principu 970 nesto bolja kupovina.
 
Gorane evo obratio samo malo paznju na 4k. Ja bih rekao da su poprilicno jednake.
Smatram da je za 2k ipak bolja GTX 970 a i to sto reviewsrb pominje, kada se karte maksimalno overklokuju
tu R9290X gubi svakako bitku, tu ni 4K vise ne pomaze generalno zbog ogromnog potencijala karte pri overkloku.

P.S. R9290X je 512 bita i tim je gore po tu kartu. To je ono sto sam napomenuo. Da GTX 970 ima 384 bita R9290X bi bila u prasini, 512 bita necu ni da uzimam u obzir kao poredjenje, tu nas envidija kolje odavno.

 
Poslednja izmena:
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_980_Ti/31.html

Sve zavisi od rezolucije. Dok je u 1080p brza 970-ka, u 1440p su izjednacene, a u 4k vodi 290x priblizno isto onoliko koliko 970 vodi u 1080p. Logicno je da sto vise raste rezolucija to vise 290x dolazi do izrazaja zbog 384-bita. Nije nikakva nauka, samo zdrava logika. Konacno da li je 290x "superiorna" u odnosu na GTX970? Odgovor je da nije, po svemu sudeci ove dve grafike su izuzetno slicnih performansi, a 4-5% prednosti jedne ili druge u zavisnosti da li se koristi 2K li 4K su u granicama statistickog odstupanja. 290x je 350eur (sapphire Tri-X), GTX970 je 360eur (Gigabyte WF3), tako da i to potvrdjuje cinjenicu da su karte prakticno identicne. Ostaje samo da se svako odluci sta mu vise odgovara. meni licno a i mnogima vise odgovara IZUZETAN OC potencijal GTX970 karti i dosta hladnija situacija u kucistu uz primetno manju buku.

ja kao na arapskom da pisem .... lepo sam napisao ... da je 290x za dlaku jaca karta ... e sad negde je i 970 jaca to ne sporim .... sveukupno gledano na stocku 290x jaca za par % .... 970 dobija cim krene OC jer od OCa 290x nema nista ...

Ali ono sto mi je zanimljivo je da sam te brate 3 puta ispravio da 290x nema 384 bita nego 512 bita ... ali ti i dalje forsiras tu pricu :) sto mi govori da selektivno citas moje postove ... *** ...

i da u prodavnici je 970 daleko bolja kupovina .... to stoji

Snaga grafickog cipa nema veze sa 4K vec memorijski opseg.
Da GTX 970 ima 384 bita R9 290X bi bila u prasini u svakom testu a da napomenem da je cak i u 4k u testovima jaca, zavisno od igre.

Posto potenciras kako je R9290X jaca evo ti par skrinova, cisto da vidis da su testovi jedno a uzivo drugo.

Pa memorijski opseg je direktno vezan za sam cip .... kapiras to ?
 
Poslednja izmena:
Na rezoluciji za koju su ove karte namenjene, tj. na 1080p (za udobno ~60 fps igranje). 970 je svakako jača.

To potvrđuje i ovaj test od 20+ igara:

perfrel_1920.gif
 
tu ispade i 780ti jaca .... a zar je stvarno ?

mozda su koristili referentnu 290x koja se pregrevala i obarala taktove ?
 
Normalno da je jaca, GTX980 ti je blizu do titan X sto za mene titan je opet ispala karta za budale :D
 
Normalno da je jaca, GTX980 ti je blizu do titan X sto za mene titan je opet ispala karta za budale :D

isto ko sto je gtx480 bila poluproizvod koj se pregreva, a nasledjena sa gtx580 koja je zapamcena kao karta sa najvecom potrosnjom, to tad nije bio problem nego feature .... e serija 6xx je prva normalna koju priznajem :) stvano je bila ok samo preskupa za moj ukus ... voli nvidia da udara samare kupcima a ovi se vracaju po jos :)
 
Ali ono sto mi je zanimljivo je da sam te brate 3 puta ispravio da 290x nema 384 bita nego 512 bita ... ali ti i dalje forsiras tu pricu :) sto mi govori da selektivno citas moje postove ... *** ..
Moze li neko da napravi lapsus? Izvini oooo veliki vodjo AMD odbrane, nece se vise omaci da "selektivno izvestavam" o 290x kartama :)
 
Moze li neko da napravi lapsus? Izvini oooo veliki vodjo AMD odbrane, nece se vise omaci da "selektivno izvestavam" o 290x kartama :)

eto ga sad je uvredjen ko kalimero :)

kazem ti zanimljivo mi je da sam ti pre toga 2 puta ukazao na gresku ... tako da nije lapsus ... nego ne citas odgovore i ne uvazavas tudje misljenje :)

Daleko od toga da branim AMD, samo nikako mi nece odgovarati da propadnu ....
 
Pa memorijski opseg je direktno vezan za sam cip .... kapiras to ?

Mi smo navodili hipoteticke primere. Sta bi se desilo kada bi GTX 970 imala 384 bita ili 512 bita.
U svakom slucaju nevezano za cip moze da ima i jednu i drugu memoriju.

R9290X ima blagu prednost u 4K upravo zbog 512 bita, nista vise.

P.S. 780 Ti je takodje jaca karta, uvek bila.
 
Nazad
Vrh Dno