Šta je novo?

Nije mi jasno - visoki rezultati u testovima

notax

Čuven
VIP član
Učlanjen(a)
01.07.2000
Poruke
3,675
Poena
710
Nije mi jasno.
Nije da se bunim, ali imam mnogo vece rezultate u testovima graficke nego sto bi trebalo.
Graficka je Connect3D 9000, na default, nije klokovana.
Drajveri su Catalyst 3.2, Win98SE, DirectX9.
Ploca Abit KT7E, procesor XP 1600+@1704 Mhz, 512 Mb SDRAM-a,
na 142 Mhz FSB CAS2.
Rezultati su :

- 3D Mark 2001SE - 6700 (to je OK)
- 3D Mark 2003 - 1049 (toliko bi trebalo da ima 9000Pro)
- UT2003 FlyBay Antalus 1024x768 highest setings - 76.6 fps (trebalo bi oko 52, ovaj rezultat po testu casopisa Digital! ima 9500)
 
3D mark 2003 koristi suvi graficki sistem, pa nije ni cudno sto je skor skoro jednak onom od 9000 pro. Radeon 8500LE je po defaultu, 275/250 MHz izvlacio 1350, pa me ne bi cudilo da R9000 izuje oko 1100 ili 1200 skor, tako da je razlika u skoru opravdana.
Za UT2003 ne znam, nisam probao...
 
Il si omashio fsb il proc il mhz, 1600+ ne moze da ide na 1704 pri fsb-u od 142.
 
Darko je napisao(la):
3D mark 2003 koristi suvi graficki sistem, pa nije ni cudno sto je skor skoro jednak onom od 9000 pro. Radeon 8500LE je po defaultu, 275/250 MHz izvlacio 1350, pa me ne bi cudilo da R9000 izuje oko 1100 ili 1200 skor, tako da je razlika u skoru opravdana.
Za UT2003 ne znam, nisam probao...

Ima i dodatak. Q3 1024x768 max. quality - 137 fps.
U Digital!-u je 146 za 9000Pro na NForce ploci i 2100 Mhz proc. i 166 Mhz FSB.
U igrama su bolji rezultati nego u 3D Markovima.
_________________
 
Mislim da je kvaka u tome sto Max koristi neki spec. ini fajl za iznadstandardni kvalitet prikaza.

Pozdrav!
 
Arahne je napisao(la):
Il si omashio fsb il proc il mhz, 1600+ ne moze da ide na 1704 pri fsb-u od 142.

Hajde, nije to tako tesko. Dovoljno je da podelis 2 broja i sve ce ti se samo kasti. A onda se vratis sa samokritikom. :D
 
notax je napisao(la):
...



Hajde, nije to tako tesko. Dovoljno je da podelis 2 broja i sve ce ti se samo kasti. A onda se vratis sa samokritikom. :D
Predpostavljam da tvoja kartica ima 128MB, a onaj 9500 u Digitalu 64MB, otuda je i razlika u UT2003 koji jako voli 128MB( ja sam imao GF4Ti4200 sa 64 MB 100fps u Face3, a prijatelj 143fps, ali je on imao 128MB, moja je bila na 310/620 a njegova 330/590)
Ja sam sa 9000pro imao
3DMark2001................................................8350(ovo je otprilike ne secam se tacno)
3DMark03....................................................1337(ovo je tacno)
 
GoranM je napisao(la):
...


Predpostavljam da tvoja kartica ima 128MB, a onaj 9500 u Digitalu 64MB, otuda je i razlika u UT2003 koji jako voli 128MB( ja sam imao GF4Ti4200 sa 64 MB 100fps u Face3, a prijatelj 143fps, ali je on imao 128MB, moja je bila na 310/620 a njegova 330/590)
Ja sam sa 9000pro imao
3DMark2001................................................8350(ovo je otprilike ne secam se tacno)
3DMark03....................................................1337(ovo je tacno)

Prvi put chujem da za 1024 rezoluciju u danashnjim igrama ili benchmark programima treba 128 Mb za sve texture, ali hajde kada ti kazes. Mogao bi Max ili neko drugi ko se dobro razume u ovo da prokomentarise ovo sa memorijom. Meni izgleda malo verovatno.
 
notax je napisao(la):
...



Prvi put chujem da za 1024 rezoluciju u danashnjim igrama ili benchmark programima treba 128 Mb za sve texture, ali hajde kada ti kazes. Mogao bi Max ili neko drugi ko se dobro razume u ovo da prokomentarise ovo sa memorijom. Meni izgleda malo verovatno.
Interesantno da to nisi sam zapazio, ja bogami jesam u UT2003 1024x768x32bit sve na max dok ne kaze "holy shit", a potvrdu da nisam samo ja ovo uocio sam nasao u BUG-u (majski broj) gde se ova pojava isto uocava od strane autora teksta (testirali su oko 60 grafickih kartica) a razlika postoji izmedju "istih" modela nekog proizvodjaca koji se razlikuju samo po kolicini memorije.
Pozdrav!
 
GA MAYA 9000 PRO 64 MB -> 310/310 (2.16 Ghz Tbread B).

3d mark 2001 se -> 9621 (win xp)
3d mark 2003 -> 1540 (w2k)

Catalyst 3.4...
 
Sasa je napisao(la):
Mislim da je kvaka u tome sto Max koristi neki spec. ini fajl za iznadstandardni kvalitet prikaza.

Pozdrav!
S obzirom da pominje nForce plocu, mislim da je to moj test.
Sto se tice Q3 i uopste OGL-a ja postavljam klizac za kvalitet tekstura na 4/4 (OpenGL TAB u Cat CP-u), a default je 3/4 (na cemu si ti, predpostavljam merio).
Takodje Q3 test se setuje na Highest, pa se poveca geometrija na High, a teksture se stave na 4/4 (klizac do kraja).
U UT2K3 moras da cujes HolyShit i tek onda si postavio na najjaca setovanja!
U tom testu u 18. Digitalu imas dve Ti4200-8X kartice, jedna ima 64MB, a jedna 128, pogledaj razliku u rezultatima - zanemarljiva je!
Poz
Nedjo
 
Nedjo je napisao(la):
...


S obzirom da pominje nForce plocu, mislim da je to moj test.
Sto se tice Q3 i uopste OGL-a ja postavljam klizac za kvalitet tekstura na 4/4 (OpenGL TAB u Cat CP-u), a default je 3/4 (na cemu si ti, predpostavljam merio).
Takodje Q3 test se setuje na Highest, pa se poveca geometrija na High, a teksture se stave na 4/4 (klizac do kraja).
U UT2K3 moras da cujes HolyShit i tek onda si postavio na najjaca setovanja!
U tom testu u 18. Digitalu imas dve Ti4200-8X kartice, jedna ima 64MB, a jedna 128, pogledaj razliku u rezultatima - zanemarljiva je!
Poz
Nedjo

Pretpostavka je majka svih zaj***.
Sve je bilo na max. 4/4.
Priznajem za UT2K3 da nisam obracao paznju na HS.
Videcu da to namestim, pa cu javnem.
 
Mislim, stvarno.
Namestio sam sve na max. u UT2K3, chuo Holly Shit. Divno. Inventivno.
Meni je i pre bilo SVE namesteno na max. osim opcije "Decal Stay", koja je od 3 nivoa, bila na srednjem (normal).
E sad, ono glavno. Moze li neko da mi objasni koja je to debilna funkocija i chemu sluzi? Mora da je mnogo znachajna i da NAJVISE na svetu utice na kvalitet slike, kada sam sa "Decal Stay" na normal imao 76,6 fps, a sa "Decal Stay" na high imao 51 fps. Ovo je bilo ironicno.
Glavno pitanje u celoj ovoj prici je neka mera i objektivnost kod testiranja grafickih. Zasto bih ja tu opciju stavio na max. da mi obori brzinu CHAK za 1/3, kada mi uopste ne utice na bitne parametre u igri, ili ja bar nisam primetio????
Da li oni koji testiraju nemaju vremena da ispitaju koja funkcija koliko utice na kvalitet slike, fiziku i igrivost, pa da na max. ukljucuju one koje najvise uticu na te parametre, a one koje MNOGO obaraju performanse, a ne uticu na pomenute parametre, stave na normal?? Da li nemaju vremena da se bave sa tim, ili je problem sto bi onda razlike izmedju novijih i starijih grafickih u testovima bile mnogo manje, pa bi se ljudi teze odlucivali za zamenu graficke nekom novom i mnogom skupljom, sa kojom realno i nemaju toliko vece performanse, koliko ih predstavljaju proizvodjachi kartica i oni koji ih testiraju????
 
Ima na HardOCPu http://www.hardocp.com/article.html?art=NDgy i Rage3Du http://www.rage3d.net/#1054683984 par zanimljivih komentara vezanih za neka pitanja kao sto su verovanje sintetickim testovima, nakon celog ovog 3DMark2003 posla, ili koriscenje nekih efekata u igricama gde se oni ili ne primecuju ili ih igraci ionako ugase da bi dobili sto tecniji gameplay, a opet i ne testiranju nekih igrica gde neki od tih efekata bas dolaze do izrazaja i doprinose realnosti i gameplayu.
 
Ne lupaj glavu oko toga, glavno je da smo utvrdili da je sa rezultatima testova sve u redu :mrgreen:
 
notax je napisao(la):
Mislim, stvarno.
Namestio sam sve na max. u UT2K3, chuo Holly Shit. Divno. Inventivno.
Meni je i pre bilo SVE namesteno na max. osim opcije "Decal Stay", koja je od 3 nivoa, bila na srednjem (normal).
E sad, ono glavno. Moze li neko da mi objasni koja je to debilna funkocija i chemu sluzi? Mora da je mnogo znachajna i da NAJVISE na svetu utice na kvalitet slike, kada sam sa "Decal Stay" na normal imao 76,6 fps, a sa "Decal Stay" na high imao 51 fps. Ovo je bilo ironicno.
Glavno pitanje u celoj ovoj prici je neka mera i objektivnost kod testiranja grafickih. Zasto bih ja tu opciju stavio na max. da mi obori brzinu CHAK za 1/3, kada mi uopste ne utice na bitne parametre u igri, ili ja bar nisam primetio????
Da li oni koji testiraju nemaju vremena da ispitaju koja funkcija koliko utice na kvalitet slike, fiziku i igrivost, pa da na max. ukljucuju one koje najvise uticu na te parametre, a one koje MNOGO obaraju performanse, a ne uticu na pomenute parametre, stave na normal?? Da li nemaju vremena da se bave sa tim, ili je problem sto bi onda razlike izmedju novijih i starijih grafickih u testovima bile mnogo manje, pa bi se ljudi teze odlucivali za zamenu graficke nekom novom i mnogom skupljom, sa kojom realno i nemaju toliko vece performanse, koliko ih predstavljaju proizvodjachi kartica i oni koji ih testiraju????

Svaka cast na istrazivanju.
Testiranje grafickih kartica nije ni malo jednostavan posao, a pronalazenje svih caka je maltene uzaludan. Problem je sto je kombinacija igrica-drajver-GPu izuzetno kompleksna i ispitivanje svake karike po na osob i u sitne detalje je najblaze receno predugo. Video si koliko opcija UT2K3 ima u svojim setinzima. Ima ih i previse, sto se mene tice! Zamisli sad testiranje svih mogucih kombinacija zarad dobijanja rezultata na temu "najoptimalnija podesavanja na Radeonu9000". Takve testove niko ne radi. Kada se testira trudis se da pronadjes najreprezentativniju situaciju koju mozes da primenis na vecinu akceleratora. Slazem se da je to poprilicno uopsteno, ali alternativa je nesrazmerno dug proces testiranja samo jedne kkartice (zamislite kakva bi bila prica kada su u pitanju roundapi).
Ono sto je dobro jeste kada od strane ljudi koji citaju testove postoji kvalitetan fidbek!
Elem, u pauzi pisanja ovog posta pustio sam UT2K3 (poslednji build) na FX5200 Ultri (Leadtekovoj) i dobio rezultat od 84,49fps (HolyShit, FlayBy Antalus) isti rezultat sam dobio i sa Norma za Decal Stay!!!
Promena nije bilo ni u Botmachu gde se zbilja i pojavljuju decali (posledice eksplozija oruzja, krv gibsovi...)
Ne bih dalje da elaboriram ovu temu vec cu navesti jos jedan primer iz prakse, a vezan je za Radeon 9700 (Club3D).
U Q3A na 2100+ CPU-u (166MHz fsb) u MaxHiQ setovanjima 10x7/trilinear 4/4 tex. Qualiti i HiGeometry, pova kartica "baca" 261fps!
kada se ukljuce stencil senke (cg_shadows 2) rezultat pada na 205 fps!
Nakon vracanja na cg_Shadows 1 rezultat je bio 244.5 fps, a ne kao sto bi se ocekivalo 261! Da bi stvar bila cudnija nakon nekoliko petlji DEMOA 001 rezultat se ustalio na 249 fps.

ovakvo ponasanje se ponovilo i na jednom radeon9100(nisam proveravao na svakom ATi GPU-u), tada je bio aktuela Catalyst 3.1
Na GF3 ovakvih "gremlina" nije bilo.
O razlozima mozemo samo da nagadjamo posto niko sem dizajnera drajvera ne zna sta u njima ima.
E sad, "glavno pitanje"! Glavno pitanje, kolega moderatoru, nije objektivnost ljudi koji testiraju (mada se ono uvek moze, a i treba, postavljati). Glavno pitanje jeste sta tebi treba i st, u ostalom bilo kome treba. Mozda vecini ljudi treba samo rezolucija 640x480 i teksture velicine 64x64! IF THEN GOTO HalfLife OR Unreal OR Quake1 ELSE buy your self faster graphics card;
END
Ili drugacije receno po tebi bi ljudi koji testiraju trebali biti subjektivni, bas kao sto ti u ovom slucaju jesi, jer tebe licno muci pitanje performansi tvoje kartice i optimizacije za nju! Ne ;ini li to onda tvoj vapaj za objektivnim benchmarkovanjem, malcice kontradiktornim, da ne upotrebim snazniju rec!
Iskren pozdrav
Nedjo
P.S
Svako dodatno zapazanje o ponasanju popularnih benchmark "sredstava" je dobro doslo i bice provereno u praksi i eventualno objavljeno u casopisu Digital!, a verujem i na sajtu www.benchmark.co.yu
 
Notaxe, slozismo se i mi jednom :)
Slicnu sam pricu ispricao u komentaru FX5200 testa, stvarno ne vidim razlog zasto se sve kartice testiraju na max. max. kvalitetu.
Pogotovo sporije, tipa ta FX5200, aj kad se poredi 9800Pro i 5800/5900 Ultra, jos i da razumem.
Ali, ostalo, default je nekako najrazumnije.
Cisto da pomenem, ja upravo tako testiram, stavim drajver, stavim igru i odmah "Bench".
Ok je prodzarati opcije i videti sta kako utice, ali kada je test, sve je "standardno".
Mnogo manje zbunjuje, a i pojednostavljuje i proces testiranja.

Pozdrav!
 
Posto se test programi koriste po oko 2 godine, po meni, trebalo bi uraditi test svih test programa, sa velikim brojem varijanti podeshavanja, a u zakljucku navesti sta utice mnogo na kvalitet, a malo na performanse, i obratno. Zatim usvojiti 3-4 varijante podeshavanja koje su relevantne, i sa tim varijantama ubuduce testirati sa tom baterijom testova, u svim testovima kartica. Problem je sto su ljudi kod nas generalno povrshni, chitaoci chak vishe nego testeri, pa ce reci, sta ce to nama, ili hajde ne gnjavi ga toliko. Meni licno to smeta, ne samo kada je ovo u pitanju, nego generalno kada je SVAKA oblast zivota u pitanju u ovoj zemlji. Ljudi su povrshni, a svoj posao odradjuju traljavo i brljavo.
 
Sasa je napisao(la):
Notaxe, slozismo se i mi jednom :)
Slicnu sam pricu ispricao u komentaru FX5200 testa, stvarno ne vidim razlog zasto se sve kartice testiraju na max. max. kvalitetu.
Pogotovo sporije, tipa ta FX5200, aj kad se poredi 9800Pro i 5800/5900 Ultra, jos i da razumem.
Ali, ostalo, default je nekako najrazumnije.
Cisto da pomenem, ja upravo tako testiram, stavim drajver, stavim igru i odmah "Bench".
Ok je prodzarati opcije i videti sta kako utice, ali kada je test, sve je "standardno".
Mnogo manje zbunjuje, a i pojednostavljuje i proces testiranja.

Pozdrav!
Ja sam razmisljao isto o tome da se LowEnd kartice testiraju sa "labavijim setovanjime". To tima svojih prednosti, ali i svojih nedostataka. U realnom radu tesko da ce vecina korisnika maksimizovati sva setovanja sa LowEnd i MidRange karticama i s tim na umu definitivno stoji da tzv. aproksimativno testiranje ne odslikava realno "zivotno" stanje.
S druge strane, kada kupujete novu karticu zelite da iz nje izvucete maksimu. Benchmarkovanje moze da pruzi uvid u performanse kartice, sad da li je rec o limitima njenih mogucnosti na max. setovanjima, ili ona i dalje "dise" kada se sve nabudzi na high, je sasvim drugo pitanje.
Standardna setovanja omogucavaju referentno poredjenje izmedju svih kartica.
Saletov metod jeste veoma jednostavan, ali ne garantuje 100% pouzdanost (no, to ne garantuje ni "klin instal")
Primera radi cesto sam se susretao sa problemima koji su se resavali iskljucivo reinstalacijom i sistemskih i video drajvera, ili cak kompletnog OS-a (5800nonUltra nije htela da se benchmarkuje kako treba dok nisam odradio "klin instal" (bez obzira sto je pre nje u masini bila "vidija" kartica)
Druga epizoda je vezana za Q3A kome od tada svaki put brisem .cfg kad benchujem kartice, bez obzira sto su sve bazirane na istom GPU-u.
Jedan simpatican primer je vezan za UT2K3 koji mi je dao jaca "self-dettect" podesavanja za Medion 9600TX nego za GFFX5800 (zamisli kako bi bilo neadekvatno da sam mu zveknuo flyby Antalus na konto "samo-setovanja"?
U svakom slucaju najrealnija i najpouzdanija metoda, po meni, je max. setovanje za sve moderne GPU-ove. Prostora za eventualno razmatranje ima u domenu setovanja za FSAA i Aniso. Tu sam razmisljao da LowEnd karte testiram na 2XFSAA i 2X Aniso, a highend na 4X. No prevagnulo je da i 5200 teram sa 4X, opet iz razloga lakseg poredjenja sirove snage GPU-a iz razlicitih trzisnih segmenata. Posebno poglavlje su fizicka ogranicenja samih medija u ili (na) kojima se testovi objavljuju. i dok je net donekle tolerantan ka ulrea detaljnom testiranju, u casopis je jako tesko nabudziti rezultate svakog mnoguceg setovanja.
BTW
Famozno setovanje decalla u UT2K3 znaci da na High posledice granate ostaju 10sec, a na normal 5 sec. Takodje i fragovani modeli ostaju nesto duze na high setovanjima.
:wave;
 
Nazad
Vrh Dno