Šta je novo?

Saphire 6850 Toxic - Low 3D Mark Score

Opet ovaj lik koji tvrdi da je sve ispod i serije [i to klokovane] preslabo za bilo koju noviju karticu..:trust: :d
Covece, pricas ljudima sa quadovima na 3,4Ghz da im je preslab cpu za 5850 ?
Ja tebe razumem da si sa e3XXX presao na i5 2500k koji zdere sve pred sobom ali nemoj preterivati.
U sustini, za kartice jacine 6870/5850 moze da ''prodje'' svaki noviji c2d ali na klokovima 3,5Ghz. A cesljao sam forume danima, cak i gtx560 moze da radi na c2d sa vise kesa, isto je uslov min 3,5Ghz a e8400/500/600 ocovani na 4Ghz sasvim solidno ''saradjuju'' sa gtx560 i to bi bio neki kraj za c2d kombinacije sa novim grafickim karticama.
Razumem ja tebe ako hoces da kazes da je bolje imati i5 u kombinaciji sa ddr3 i tako dobrom gpu kao 5850/6870/gtx560 ali pretera covece.

A phenom II x4 955 npr na 3,5Ghz nikako ne moze da bude ''preslab'' za novije graficke.Do 300e recimo.

Jel ti razumes pokretaca teme?, jel uopste razumes sta se oni bune?
Ja samo kazem da bez OVERKILL CPU-a nemozes "UVEK" imati 99% GPU usage (ako znas kako je optimizacija traljava odradjena, windows, api, driver....) i to danas za je i7 SB, sutra ce biti potreban ko zna koji procesor za 28nm graficke... ili ce se desiti nemoguce to je da nece postojati api, driver niti directx i programirace se direkt na hardweru sto je pa nemoguce

Jednostavno 90% vas ne razume 1. sta je API, directx, driver, os a tek na kraju slag na tortu losa optimizacija..... te sve stvari vuku sigurno vise od 50% resursa i zato CPU postaje slaba stvaka...

Ko zeli da razume sve ce svatiti iz ovog linka!
http://www.bit-tech.net/hardware/graphics/2011/03/16/farewell-to-directx/1

"On consoles, you can draw maybe 10,000 or 20,000 chunks of geometry in a frame, and you can do that at 30-60fps. On a PC, you can't typically draw more than 2-3,000 without getting into trouble with performance, and that's quite surprising - the PC can actually show you only a tenth of the performance if you need a separate batch for each draw call. "

ja licno se slazem sa problemom ali ne i sa solucijom jer je po meni programiranje direkt na HW-u nemoguce jer je vecina programera lenjo i glupo
 
Poslednja izmena:
Koje verzije Win7 imate, ja imam win7 Ultimate x64 Orbit :d (genuine :) )
Mislim nemam nikakvih problema sa Krizisom 1 npr u rezoluciji 1440 X 900 8x AA sve Very High imam konstantno 40fps.
Metro 2033 je tu negde sve maxed 1680x1050 Very High DX11 oko 30fps ali igrivo, ista rezolucija DX9 sve zakucano na 60fps ( Vsync mi je ukljucen na svima igarama)
Ovo pisem iz secanja i ne pada mi na pamet da opet trazim-instaliram navedena igre kad za neki dan izlazi Krizis 2 ***. (e njega cu da testiram :) )
 
Poslednja izmena:
@Hasenfefer Posto imamo skoro pa iste masine ,a povucen tvojom pricom, instalirah Warhead i pustih malo bencha.

03.18.2011 22:07:05 - Microsoft Windows 7 Home Premium Service Pack 1

DirectX 10 ENTHUSIAST 3X @ Map: frost @ 0 1920 x 1080 AA 4xx
==> Framerate [ Min: 21.39 Max: 33.20 Avg: 28.32 ]

DirectX 10 GAMER 3X @ Map: frost @ 0 1920 x 1080 AA 4xx
==> Framerate [ Min: 28.23 Max: 50.25 Avg: 40.89 ]

DirectX 10 GAMER 3X @ Map: frost @ 0 1920 x 1080 AA 0xx
==> Framerate [ Min: 24.80 Max: 53.50 Avg: 44.73 ]

DirectX 10 GAMER 3X @ Map: frost @ 0 1280 x 1024 AA 0xx
==> Framerate [ Min: 28.97 Max: 70.03 Avg: 51.88 ]

Za sve vreme testa u Afterburneru gpu usage od 95-99% osim u 1280x1024 gde je oko 80%.
Probaj i ti pa uporedi rezultate.
 
Ma dzabe to vidis da su male rezolucije i bench programi problem, provrti ti 3d MArk 06 u 1280x1024 i dokazi mu da je i kod tebe isto, da se covek bar ne brine .
 
Ma dzabe to vidis da su male rezolucije i bench programi problem, provrti ti 3d MArk 06 u 1280x1024 i dokazi mu da je i kod tebe isto, da se covek bar ne brine .

Znaci napisao sam vec negde gore za Warhead, da kada stavim sve na Enthusiast i max AA itd.6850 vrti igru na oko 20-25 fps, ali niko od nas nece igrati na tako visokim podesavanjima i na 20 fps osim ako nije neki mazohista, nego ce naravno malo to sve spustiti na neki razuman nivo u korist veceg fps i bolje igrivosti,-e tu smo,tu nastaje zez,jer kada ja spustim sve na Gamer i iskljucim skroz AA i te gluposti,ja dobijem poboljsanje u vidu +5 fps.Zasto?
...mozda nije u redu nesto sa karticom.
@atti je dao dobar predlog. Tako se moze lepo proveriti rad same kartice.
 
Poslednja izmena:
Da nije neki problem sa Vsync ili je mozda cak i CPU neispravan (lupam). U svakom slucaju te situacije kad ima dosta botova i jak je fight zavise od CPUa i normalno je da GPU tu hvata ler. Lepo bi bilo kad bi testirao i neku drugu igru pored Krize jer je taj Đavo i dan danas jedno neoptimizovano prenabudzeno smece koje davi i najnovije grafike (*** znam da je lepa grafika ali engine je smrt, a dokaz za to je i mali broj modova za igru )
 
Warhead na 1680 ili 1980 rezoluciji na GAMER podesavanjima bi trebao DOSTA bolje da radi sa tom grafikom,(da nekazem da bi trebao da leti)tu nema price,a ne da sed vuce tako jadno.....mozda mu CPU nije pravilno kloknut (bez uvrede) pa mozda "throtluje" prilikom opterecenja i nemoze valjano da isprati grafiku.Ja bih to sve lepo u bios-u na "optimized default" pa onda videti sta se desava.Druga takodje dobra solucija-probati grafu na drugoj masini.i ako se ispostavi da je grafika defektna-pa pod garancijom je,menjati za novu i gotova stvar!Evo,ja sam takodje blizu NS-a,pa ako je kolega zainteresovan,mozemo tu 6850 probati i na mojoj matoroj 775 masini,koja dosta dobro gura SAPHIRE 6870.
 
I meni ovo liči na vertikalnu sinhronizaciju . Framerate mu je zakucan na 25 a smanjuje se load gpu-a . Pokušaj u catalistu da isključiš vertikalnu sinhronizaciju , ista opcija i za igru . Nedavno sam nešto čitao da je bilo problema sa Win 7 i v sinc na amd-u , moguće da i ti imaš tih problema .
 
Ajd da i ja kazem nesto, mozda pomalo banalna stvar, jesi u biosu iskuljucio c1e i ona ostala sra*a za stednju energije? Drugo, ja u nvidia panelu imam opciju Power management mode, gde isto stavljam na max performance, catalist bi trebao da ima nesto slicno.
A da, da slucajno nisi instalirao onaj Energy Saver sto dolazi na disku sa driverima uz Gigabyte maticne ploce? Taj je ubica za performanse.
ja na Phe @3.4GHZ i GTX275 sa samo 2GB rama imam 15990 marka, kad malo poteram clockove na grafici izvucem 17300. Tih 16k za ati 6850 je po meni premalo.
 
Evo interesantnog objasnjenja citave papazjanije i frtutme o low GPU usage-u i potrebi za "zverskim" CPU-ima i za "jadne" midrange i nV i AMD karte od lika koji je (navodno) game developer...citat je iz grupe komentara onog linka ka intervjuu http://www.bit-tech.net/hardware/graphics/2011/03/16/farewell-to-directx/1 koji je zeleni zeljko ;-) postavio:


I'm just going to make a small point here; multi-threaded rendering via DX11 is, currently, fundamentally broken. NV and AMD are blaming MS, MS is blaming NV and AMD. Frankly, it's a mess.

AMD are no where when it comes to supporting this, nor do we expect them to be for another 12+ months, as they are too hung up on their APUs.

NV have got somewhere but their solution is pretty much broken as far as games are concerned (they use one thread to do alot of work basically breaking parallalism and causing problems for game developers trying to use CPU cores).

DICE covered this in their recent GDC presentations.


A ovo je o ideji lika koji je intervjuisan da se bezi od DirectX-a ka nekom thinner-layer API-ju (direct-to-metal programiranju, uslovno receno)

As for devs... well, yes, we'd like a thinner layer, however we don't want to be recoding thing for every new hardware arch which turns up every 18 to 24 months; heck even the change from the HD5 to HD6 series of card would have broken existing code if we had coded 'to the metal' because they changed internal arch from VLIW5 to VLIW4 changing the ISA and removing things such as co-issue ability and a complete hardware pipe!

If they want such a thing then they are going to have to slow down hardware development; it takes time for people to get the best from the hardware (see PS3 and the SPUs) and changing up that hardware constantly is not going to help performance and, frankly, unless they are willing to give out a significant amount of hardware and information MONTHS before release when your new shiny card is released its going to be months before it'll see optimised support... if ever.


Sustina je da vozimo sportske aute na krshevitom putu...nikad nece pokazati svoje pune performanse pri trenutnom stanju stvari, nazalost
 
Nazalost danas je tako a recimo 2002 godine se znalo "ko vozi traktor a ko otvara kapiju" odes u prodavnicu, kupis GF 4200TI i cepas sa njim sve na max do 2006god. Ovo je sad sve glupo, izgleda da naivni korisnici moraju da pune kase velikih firmi i tako nadoknadjuju njihove lose poslovne poteze. (ok ovde se izdvaja 8800GT grafika koja je jos uvek za rezolucije manje od 1680 Bog i batina :smoke: pod uslovom da ste kupili 512mb ili 1024mb model, ne onoj entry od 256)
 
Evo interesantnog objasnjenja citave papazjanije i frtutme o low GPU usage-u i potrebi za "zverskim" CPU-ima i za "jadne" midrange i nV i AMD karte od lika koji je (navodno) game developer...citat je iz grupe komentara onog linka ka intervjuu http://www.bit-tech.net/hardware/graphics/2011/03/16/farewell-to-directx/1 koji je zeleni zeljko ;-) postavio:


I'm just going to make a small point here; multi-threaded rendering via DX11 is, currently, fundamentally broken. NV and AMD are blaming MS, MS is blaming NV and AMD. Frankly, it's a mess.

AMD are no where when it comes to supporting this, nor do we expect them to be for another 12+ months, as they are too hung up on their APUs.

NV have got somewhere but their solution is pretty much broken as far as games are concerned (they use one thread to do alot of work basically breaking parallalism and causing problems for game developers trying to use CPU cores).

DICE covered this in their recent GDC presentations.


A ovo je o ideji lika koji je intervjuisan da se bezi od DirectX-a ka nekom thinner-layer API-ju (direct-to-metal programiranju, uslovno receno)

As for devs... well, yes, we'd like a thinner layer, however we don't want to be recoding thing for every new hardware arch which turns up every 18 to 24 months; heck even the change from the HD5 to HD6 series of card would have broken existing code if we had coded 'to the metal' because they changed internal arch from VLIW5 to VLIW4 changing the ISA and removing things such as co-issue ability and a complete hardware pipe!

If they want such a thing then they are going to have to slow down hardware development; it takes time for people to get the best from the hardware (see PS3 and the SPUs) and changing up that hardware constantly is not going to help performance and, frankly, unless they are willing to give out a significant amount of hardware and information MONTHS before release when your new shiny card is released its going to be months before it'll see optimised support... if ever.


Sustina je da vozimo sportske aute na krshevitom putu...nikad nece pokazati svoje pune performanse pri trenutnom stanju stvari, nazalost


Nazalost, to je opet "pametovanje", directx tu ne moze da bude kriv koliko developeri jer oni prave te krs portove bukvalno terajuci da api bude kriv jer su oni programirali direct to metal za konzolu i sad ih mrzi da to odrade posteno za pc, vec bukvalno sto brze i prostije odrade taj port. Ovo jeste interesantno koliko je directx ogranicen, ali je tesko prikrivanje cinjenica, jer pc igraci su ovde ograniceni prilagodjavanju konzolama, a ne directx-u.
 
Ne da lose portuju nego kao da rade nogama. Vec 2 godine postoji Unigine Heaven i DX11 trabunjanje a ni jedna jedina igra (osim STALKER-a ) nema opipljive tesselation efekte.
Sve je jasno podpaljuju nas sa par bench zezalica, a prodaju stimulisu vestacki nabudzenim portovima (koji bi trebali da klize)
Evo igrao sam Cod: Black Ops i mislim da je ono krsina od igre (meni je radila savrseno, ali zato drustvo sa Athlonima 3000+, 5000+ i ostatkom moze samo da kuka)
(da ne pominjem da je igra krs i da ne kapiram kako neko moze sa COD:MW da predje i igra ono sra..nje a i single kampanju bolje da nisu ni radili )
 
Ko ce ga znati na kraju sta je sve "krivo" sto su igre sve grdje i sve bangavije rade na nekad sweet-spot grafuljama od 150-200 evrica....jurnjava za profitom, nozno programiranje, korporativno ubijanje ideja i originalnosti, neposvecenost programera, kupovina "proverenih" endzina, trka sa hardverom i API-jima...ali ispada da ko sad zbog gejminga na W7 da tu paru za poluproizvod, ispada lood

Samo jurcaju za kintom i izbacuju poluproizvode...a koliko je i da li je DX11 API realno bloatware-ovan, stvarno ne znam, ali po stanju stvari izgleda da ipak poprilicno jeste iz perspektive laika

Neki lik je npr. izrekao meni potpuno fascinantan podatak (ne znam da li je i tacan)-da bloody ForceWare danas ima vise linija u izvornom kodu nego Windows 2000...pa kolika tu armija programera treba da radi ? ;-)....bolje da su napravili onda nVidia OS :)

Evo opet jedan zanimljiv citat isto DICE-ovca-programera koji radi na BC3:

I've been pushing for this for years in discussions with all the IHVs; to get lower and lower level control over the GPU resources, to get rid of the serial & intrinsic driver bottleneck, enable the GPU to setup work for itself as well as tear down both the logic CPU/GPU latency barrier in WDDM and the physical PCI-E latency barrier to enable true heterogeneous low-latency computing. This needs to be done through both proprietary and standard means over many years going forward.

I'm glad Huddy goes out and in public talks about it as well, he get's it! And about time that an IHV talks about this.

This is the inevitable, and not too far, future and it will be the true paradigm shift on the PC that will see entire new SW ecosystems being built up with tools, middleware, engines and games themselves differentiating in a way not possible at all now.

- Will benefit consumers with more interesting experiences & cheaper hardware (more performance/buck).

- Will benefit developers by empowering unique creative & technical visions and with higher performance (more of everything).

- Will benefit hardware vendors with being able to focus on good core hardware instead of differentiating through software as well as finally releasing them and us from the shackles of the Microsoft 3 year OS release schedule where new driver/SW/HW functionality "may" get in.

This is something I've been thinking about and discussing with all parties (& some fellow gamedevs) on different levels & aspects of over a long period of time, should really write together a more proper blog post going into details soon. This is just a quick half-rant reply (sorry)

The best graphics driver is no graphics driver


* IHV=AMD,nVidia,Intel i ko vec jos pravi graficke cipove ( independent hardware vendor)

Ovu donju izjavu sam uzeo za potpis, neodoljiva mi je bila uzevsi u obzir kakve drajvere danas pisu
 
Poslednja izmena:
Pa zato Sony nije jos uvek izbacio drajvere za PS3 (tj nikad i nece) Ostavio programere da biju glavom po Cell-u i ubogom Nvidia GF 7800 derivatu ( u PS3-i ) al zato sta izadje na PS3 to mora i da radi lepo + dobra grafika.
Sve je industrija, ali ne mogu da se otmem osecaju da je recimo GF 7000 i X1000 serija grafika izasla cisto jer je trebala da izadje a nije bilo pravih igara koje su trebale da opravdaju ulaganje od 200e (za 7600GT-1600XT) Naravno izaslo je nekoliko igara koje su mogle lepo da se igraju tek na sledecoj generaciji ( ista situacija je i danas, izlaze grafike a igara nigde, nema hita koji bi opravdao kupovinu trenutne generacije, Krizis 1 je izasao kad i 8800GT, Metro je bio in kad i 5850-GTX470, Krizis 2 je OK ali nista novo, da ne pominjem sto sve igre lice ko jaje jajetu i sve su prilagodjenje za sub 18 years tu je naravno kastracija Far Cry i ono malo horor elemenata da bi od njega napravili Krizis sa gomilom ugly i neinteresantnih vanzemaljaca)
 
...mozda nije u redu nesto sa karticom.
.
To sam i ja mislio,ali posle kad razmislim...nemoguce da s njom nesto nije u redu kad ona izgleda sasvim radi na visokim rezolucijam i visokim setovanjima.Istina daje mali fps ali mislim da je taj fps i prilicnno normalan za tako high setovanja.
Problem pravi pri nizim rez. i medium setovanjima gde iz nekog razloga ne radi punom parom i zato je i fps nizak.Da s njom nesto nije u redu,pretpostavljam da bi i pravila problem non-stop.

I meni ovo liči na vertikalnu sinhronizaciju . Framerate mu je zakucan na 25 a smanjuje se load gpu-a . Pokušaj u catalistu da isključiš vertikalnu sinhronizaciju , ista opcija i za igru . Nedavno sam nešto čitao da je bilo problema sa Win 7 i v sinc na amd-u , moguće da i ti imaš tih problema .
Probao i to...nije u tome problem.

Ajd da i ja kazem nesto, mozda pomalo banalna stvar, jesi u biosu iskuljucio c1e i ona ostala sra*a za stednju energije? Drugo, ja u nvidia panelu imam opciju Power management mode, gde isto stavljam na max performance, catalist bi trebao da ima nesto slicno.
A da, da slucajno nisi instalirao onaj Energy Saver sto dolazi na disku sa driverima uz Gigabyte maticne ploce? Taj je ubica za performanse.
ja na Phe @3.4GHZ i GTX275 sa samo 2GB rama imam 15990 marka, kad malo poteram clockove na grafici izvucem 17300. Tih 16k za ati 6850 je po meni premalo.
Sto se tice biosa,sve sam pogasio sto ima veze s tim kao i onaj cool & quiet.E sad sto se tice Catalysta,-,nisan nigde primetio nista slicno gde kontrolisem power menagement
Mada sam primetio,OVO JE MOZDA BITNO,Kada upalim Afterburner,a gpu bas nista ne radi,onako samo desktop,-,onda vidim da gpu clock padne sa 820 na 100Mhz,a memory sa 1100 na 150Mhz,al bas kad totalno miruje.
Dovoljno je dapustim neki klip ili sl. i parametri odmah skoce na one koje treba.I to je pretpostavljam neki energy saver jer vidim da na Saphire kutiji od karte pise da to radi,,neki Digital Power Menagment,i to je izgleda neka Saphire fora,ali ne mogu uopste da skontam koji komad softvera to kontrolise pa da ugasim.Mada iskreno mislim da to nema puno veze jer dok god radi igra ili bench,clockovi stoje kako treba.

Da nije neki problem sa Vsync ili je mozda cak i CPU neispravan (lupam).
Pomislio sam i na CPU,ali vec sam negde napisao da sam CPU kupio dok sam imao zabodenu 9600gso i 3d mark 06 mi je sa 8500 poena koje sam imao sa 9600gso i Athlon 5000+,skocio na 11500 (9600gso + Phenom X4 840).Tako da CPU radi posao-nije i7 ali radi.

@Hasenfefer Posto imamo skoro pa iste masine ,a povucen tvojom pricom, instalirah Warhead i pustih malo bencha.

03.18.2011 22:07:05 - Microsoft Windows 7 Home Premium Service Pack 1

DirectX 10 ENTHUSIAST 3X @ Map: frost @ 0 1920 x 1080 AA 4xx
==> Framerate [ Min: 21.39 Max: 33.20 Avg: 28.32 ]

DirectX 10 GAMER 3X @ Map: frost @ 0 1920 x 1080 AA 4xx
==> Framerate [ Min: 28.23 Max: 50.25 Avg: 40.89 ]

DirectX 10 GAMER 3X @ Map: frost @ 0 1920 x 1080 AA 0xx
==> Framerate [ Min: 24.80 Max: 53.50 Avg: 44.73 ]

DirectX 10 GAMER 3X @ Map: frost @ 0 1280 x 1024 AA 0xx
==> Framerate [ Min: 28.97 Max: 70.03 Avg: 51.88 ]

Za sve vreme testa u Afterburneru gpu usage od 95-99% osim u 1280x1024 gde je oko 80%.
Probaj i ti pa uporedi rezultate.
Ma dzabe to vidis da su male rezolucije i bench programi problem, provrti ti 3d MArk 06 u 1280x1024 i dokazi mu da je i kod tebe isto, da se covek bar ne brine .
Slazem se sa Karketom,mada bi probao to sto si predlozio ali ja sam iizgleda ili glupav ili nisam bas up to date sto se tice Warheada.Ja imam neku instalaciju koja mi je data i tu nema nikakav bench u igri nego ja merim sa frapsom,to je sad kontam neki patch s kojim nisam u toku ,-nije me interesovalo,a nisam informisan.
 
Poslednja izmena:
Druga takodje dobra solucija-probati grafu na drugoj masini.i ako se ispostavi da je grafika defektna-pa pod garancijom je,menjati za novu i gotova stvar!Evo,ja sam takodje blizu NS-a,pa ako je kolega zainteresovan,mozemo tu 6850 probati i na mojoj matoroj 775 masini,koja dosta dobro gura SAPHIRE 6870.
E ovo je definitivno predlog koji ima sanse razresiti dilemu.Baci mi na pm kako da te iskontaktiram (ako si jos u fazonu).Imam trenutno i neki problem sa kolima ,al ce to biti reseno za dva tri dana,pa da napravimo akciju i resimo dilemu pa ako je neispravna da je sutnem nazad,a ako je ispravna....onda ***a..to mi je sto mi je.
 
Vrh Dno