Šta je novo?

Brutalno - Crysis

Status
Zatvorena za pisanje odgovora.
Mislim da preterujete...;) ,a Nedjo je mozda hteo reci da se nekom ko ima vec jednu GTS
verovato više isplati kupiti još jednu za SLI nego da je menja za ULTRu...
btw GTS sa 320mb je u većini slučaja bolja od 640mb. I odlično tera i visoke rezolucije,
izuzev ako je ona veća od 4800:1200 :):):)
 
@GX-X: Pa i ja pricam o 2x8800GTS ali verziju sa 640MB(cim je Nedjo spomenuo 8800GTS zajedno sa 2900XT-om sigurno da je mislio na varijantu sa 640MB)koja kosta oko 310~320,a 2x2900XT su nesto vise,tako da SLI/Crossfire je negde oko 640-680,a ULTRA oko 550.

@Chinaski:ja se vodim evropskim cenama :) i tu uglavnom ovim sajtom:
http://www.grafikkartenpower.com

Tu ima 8800GTX za 437evra.

ah, sto volim kada se neko gadja stranim cenama. od njih mi imamo koristi koliko i od cmara na laktu ;)
 
@Chinaski:pazi,cene na zapadu jesu nize,ali ovde je poenta u odnosu cene dve karice-ako je na zapadu taj odnos,onda takav otprilike treba da bude i kod nas.Konkretno-kod nas postoji Saphire 2900XT koji spada u najjeftinije,ali zato verovatno nema Sparkle ili Zotac 8800GTX-ovi koji su najjeftiniji za nVidia-u,sto znaci da kod nas nije realno porediti.Ako je kod nas najjeftiniji 2900XT 350evra onda najjeftiniji 8800GTX treba da kosta 460~470.
Ma nije ni bitno,prica je bila oko SLI/Crossfire GTS/XT vs. ULTRA i jasno je da je ULTRA dosta jeftinija.
 
Ultra je kod nas oko 650eu, znači da su cene ....tu negde ,e sad pitanje je
da li su jače dve GTS/XT ili jedna ULTRA, možda bi maxa znao odgovor...:)
 
Ja cekam da cena jednog 2900xt padne na nekih 250+ evrica, do tada ce lepo da ispeglaju drivere, a i vec sada vidim da 2900xt rastura u U3 (nextgen) aplikacijama, mada onaj Diamond 2900xt sa 1gb rama izgleda tako masno i mocno :)
 
U3 (nextgen) aplikacijama,

Ali... WTF? Jos jedna zrtva marketinga... :( Nextgen je marketisnka uzrecica stvorena da se ljudima "uvali" X360. Na PC smo oduvek imali visoke rezolucije (plati pa klati za 21'' CRT i konfu za sve to). Tako da HD deo pada u blato. A na PC imamo "next gen" svake godine kad izadje nova tura grafickih i eventualno se moze reci na godinu-dve kad stvarno novi engini izadju na trziste (Quake-Quake2-Quake3-Doom3-ID5.0) (UE1.0 % UE2.0)

Ocigledno je da je UE3 pisan prvenstveno za Xenos chip X360tke i da lepo radi na AMD grafickom hardveru. Da X360 ima NVidia chip slusali bi smo istu prichu iz drugog ugla. Bioshock eto pa koristi jednu od rektih optimizovanih portova, i relativno slicno radi i na G80 i R600 po objektivnim testovima. (testiraju vise od jedne sobe i nivoa, i instaliraju preporucene drajvere...)
 
Poslednja izmena:
Ali... WTF? Jos jedna zrtva marketinga... :( Nextgen je marketisnka uzrecica stvorena da se ljudima "uvali" X360. Na PC smo oduvek imali visoke rezolucije (plati pa klati za 21'' CRT i konfu za sve to). Tako da HD deo pada u blato. A na PC imamo "next gen" svake godine kad izadje nova tura grafickih i eventualno se moze reci na godinu-dve kad stvarno novi engini izadju na trziste (Quake-Quake2-Quake3-Doom3-ID5.0) (UE1.0 % UE2.0)

Ocigledno je da je UE3 pisan prvenstveno za Xenos chip X360tke i da lepo radi na AMD grafickom hardveru. Da X360 ima NVidia chip slusali bi smo istu prichu iz drugog ugla. Bioshock eto pa koristi jednu od rektih optimizovanih portova, i relativno slicno radi i na G80 i R600 po objektivnim testovima. (testiraju vise od jedne sobe i nivoa, i instaliraju preporucene drajvere...)

Ako smem da pitam kakve veze ima rezolucija sa nextgen-om ? Znaci U3 engine nije nextgen , jer jelte na pc-iju postoji HD jos od pantiveka...
 
@Chinaski:pazi,cene na zapadu jesu nize,ali ovde je poenta u odnosu cene dve karice-ako je na zapadu taj odnos,onda takav otprilike treba da bude i kod nas.Konkretno-kod nas postoji Saphire 2900XT koji spada u najjeftinije,ali zato verovatno nema Sparkle ili Zotac 8800GTX-ovi koji su najjeftiniji za nVidia-u,sto znaci da kod nas nije realno porediti.Ako je kod nas najjeftiniji 2900XT 350evra onda najjeftiniji 8800GTX treba da kosta 460~470.
Ma nije ni bitno,prica je bila oko SLI/Crossfire GTS/XT vs. ULTRA i jasno je da je ULTRA dosta jeftinija.
znam ja u cemu je poenta. poenta je da mene bas briga koje su cene napolju, jer ja od toga nemam nista. iskreno, cak i da sam u mogucnosti da mi neko donese u gacama 2900XT, opet to ne bih uradio jer nemam validnu garanciju u ovoj zemlji.
i jasno je da dve 2900XT istresaju iz gaca Ultru, tamo gde radi CF kako treba. 8800Ultra je demonstracija sile i svakako je neisplativa za kupovinu, poredio je sa 8800GTX, 8800GTS SLI, 2900XT CF, blablabla.
sve je ovo veliki offtopic.
uostalom, igra izlazi za 2 meseca, pa cemo videti koliko je zahtevna. ne vidim cemu ovo gledanje u pasulj? ljudima je izgleda zanimljivo da se igraju vidovite Violete...
:wave:
 
Zašto za 2 meseca? Videćemo već kroz 15-tak dana kad izađe demo:)
 
znam ja u cemu je poenta. poenta je da mene bas briga koje su cene napolju, jer ja od toga nemam nista. iskreno, cak i da sam u mogucnosti da mi neko donese u gacama 2900XT, opet to ne bih uradio jer nemam validnu garanciju u ovoj zemlji.
i jasno je da dve 2900XT istresaju iz gaca Ultru, tamo gde radi CF kako treba. 8800Ultra je demonstracija sile i svakako je neisplativa za kupovinu, poredio je sa 8800GTX, 8800GTS SLI, 2900XT CF, blablabla.
sve je ovo veliki offtopic.
uostalom, igra izlazi za 2 meseca, pa cemo videti koliko je zahtevna. ne vidim cemu ovo gledanje u pasulj? ljudima je izgleda zanimljivo da se igraju vidovite Violete...
:wave:

Ali zato imas garanciju tamo gde si kupio ;) neko i ovde ima od toga koristi.
Slazem se ja da je ULTRA neisplativa,ali ovde se preteruje kad se kaze da kosta vise od one dve kartice-to sto kod nas postoji jedna ULTRA u zemlji pa su joj nabili ceni nije uopste realno pomenuti.

Necu vise u OFF :wave:


a i vec sada vidim da 2900xt rastura u U3 (nextgen) aplikacijama,

Ali samo u DX-9. U DX-10 je bulja!
 
Poslednja izmena:
koga danas briga za DX10? dok DX10 postane bitan ATI ce napisati odlicne drajvere, ali tada svakako nece biti aktuelna ova serija, nego ko zna koja. ultra je svida neisplativa jer je brza 10% od GTX-a, a mnogo je vise skuplja od tih 10%, no dobro...
sto se tice garancije, pa sta neko ima od garancije u Nemackoj npr.?
:)
 
Ste vi videli uopste razliku izmedju dx9 i dx10 u bioshock-u, razlike nema...
 
Chinaski je napisao(la):
koga danas briga za DX10? dok DX10 postane bitan ATI ce napisati odlicne drajvere, ali tada svakako nece biti aktuelna ova serija, nego ko zna koja.

Respekt za ovo sto si rekao :d
Definitivno ce biti aktuelna neka druga serija dok Ati bude napisao dobre drivere! A mozda ni tada :p
 
Ste vi videli uopste razliku izmedju dx9 i dx10 u bioshock-u, razlike nema...

ima, samo zli novinari namerno prikazuju poredjenja na mestima gde ih nema. Voda je vidno bolja, senke su vidno ostrije, svi shaderi su sa mekim ivicama, nema onih odsecenih prelaza od magle i tako nekih stvari...ima onaj prikaz na gamespot-u, moze lepo da se uporedi ividi gde ima, a gde nema razlike...Ne kazem da je to neki "a must have" feature ali nije da nema razlike :type:
 
ima, samo zli novinari namerno prikazuju poredjenja na mestima gde ih nema. Voda je vidno bolja, senke su vidno ostrije, svi shaderi su sa mekim ivicama, nema onih odsecenih prelaza od magle i tako nekih stvari...ima onaj prikaz na gamespot-u, moze lepo da se uporedi ividi gde ima, a gde nema razlike...Ne kazem da je to neki "a must have" feature ali nije da nema razlike :type:

Meni bas gledajuci te GS screens-e ucino kako skoro uopste nema razlike, verujem da jeste tako kako ti kazes, ali mislim da je to skoro nemoguce primeti igrajuci igru...
 
Ali... WTF? Jos jedna zrtva marketinga... :( Nextgen je marketisnka uzrecica stvorena da se ljudima "uvali" X360. Na PC smo oduvek imali visoke rezolucije (plati pa klati za 21'' CRT i konfu za sve to). Tako da HD deo pada u blato. A na PC imamo "next gen" svake godine kad izadje nova tura grafickih i eventualno se moze reci na godinu-dve kad stvarno novi engini izadju na trziste (Quake-Quake2-Quake3-Doom3-ID5.0) (UE1.0 % UE2.0)

Ocigledno je da je UE3 pisan prvenstveno za Xenos chip X360tke i da lepo radi na AMD grafickom hardveru. Da X360 ima NVidia chip slusali bi smo istu prichu iz drugog ugla. Bioshock eto pa koristi jednu od rektih optimizovanih portova, i relativno slicno radi i na G80 i R600 po objektivnim testovima. (testiraju vise od jedne sobe i nivoa, i instaliraju preporucene drajvere...)

Uvodni screen Bioshocka izbacuje samo NVidia logo. ATI ima dobre kartice, ali drajveri zezaju stvar. Cela fora u PC gaming industriji je u dobroj optimizaciji. Jednostavno, danas jako mali broj razvojnih timova zna da dobro optimizuje igru na kojoj radi. Izuzetak je Bioshock, koji jako lepo radi i na NVidia i na ATI karticama. Nema veze da li je kartica GTS ili ULTRA karta.
Ja imam NVIdia 7950GT i Bioshock u rez. 1280x1024 sa svim podesavanjima na max leti.
Znaci samo dobra optimizacija.
 
Da preteknem zloduhe, da Bioshock ima siromasnije teksture nego sto se ocekuje od UT3.0 enginea, ali mislim da svi efekti nadoknadjuju to u zahtevnosti.

Kad smo videli zadnji optimizovani engine za PC? Far Cry? (Source je dobro optimizovan, ali je grafciki klasa ispod onoga sto ovde diskutujemo)
 
A šta je to optimizovani engine? Onaj koji prikazuje indoor prevashodno, a nalepi neke bede od 16x16 tekstura za outdoor, u koji se naravno ne može izaći već se to vidi kada se primakneš prozoru? Ili je to onaj koji će da renderuje ogromna otvorena prostranstva? Ili je to onaj koji radi fantastično na high end konfiguracijama sa nenormalnim nivoom detalja, dok na mid i low endu ne može da radi tako, već se nivo detalja eksponencijalno spušta? Ili onaj koji radi na svakom kršu, ali ne izgleda ništa specijalno?

Prvo to moramo da razjasnimo :)
 
A šta je to optimizovani engine? Onaj koji prikazuje indoor prevashodno, a nalepi neke bede od 16x16 tekstura za outdoor, u koji se naravno ne može izaći već se to vidi kada se primakneš prozoru? Ili je to onaj koji će da renderuje ogromna otvorena prostranstva? Ili je to onaj koji radi fantastično na high end konfiguracijama sa nenormalnim nivoom detalja, dok na mid i low endu ne može da radi tako, već se nivo detalja eksponencijalno spušta? Ili onaj koji radi na svakom kršu, ali ne izgleda ništa specijalno?

Prvo to moramo da razjasnimo :)

Onaj engine koji linerano trazi povecanje snage a ne eksponencijalno. Gde ce na hardveru prosle generacije pruziti kvalitetnu grafiku prosle generacije. A neoptimizovain 5fps sa grafikom starom 5 godina na hardveru starom 2 godine, dok na high end hardveru daje 25 fps u prosecnoj grafici
 
@filipenko:
ne ne, prvo moramo da utvrdimo da li pricamo o optimizaciji engine-a ili igre, tj. njenog sadrzaja. Ako pricamo o optimizaciji sadrzaja - bioshock je optimizovan ;) (16x16 teksture koje vidis kroz prozor nisu toliko bitne, i kako se kaze, strpnes malo tu, malo tamo, odredis prioritete u sadrzaju/dizajnu, nadjes neki balans i eto optimizacije).

Sa druge strane imamo UE3 masinu koja mislim da nije nista posebno optimizovana u bioshock-u, vec je samo koriscena po "PS-u" i to je to.
 
Sa druge strane imamo UE3 masinu koja mislim da nije nista posebno optimizovana u bioshock-u, vec je samo koriscena po "PS-u" i to je to.

Hm, ali onda se dolazi do zakljucka da su GRAW:2, R6:LV i SC:DA (znam da je drugi engine) pisani nogama (sa nesecenim noktima).
 
koga danas briga za DX10? dok DX10 postane bitan ATI ce napisati odlicne drajvere, ali tada svakako nece biti aktuelna ova serija, nego ko zna koja. ultra je svida neisplativa jer je brza 10% od GTX-a, a mnogo je vise skuplja od tih 10%, no dobro...
sto se tice garancije, pa sta neko ima od garancije u Nemackoj npr.?
:)

Sto se tice garancije:neko ima i od toga koristi,no to je specifican primer,da ne objasnjavam. :)
Kako koga je briga,pa naravno da nas je briga. Bioshock je blago lepsi na DX-10 kao sto je GX-X naveo.Sto ga neko ko poseduje DX-10 hardware ne bi isprobao u punom svetlu? Na 8800 seriji izgleda lepse a radi isto,sta tu ima lose? Posle Company of Heroes i Lost Planet-a ovo je pocelo da se krece u dobrom pravcu.Za G80 se pricalo kako nema DX-10 drajver kada nije postojalo nista od DX-10,sada kada ima po nesto sve radi kako treba ali zato 2900XT,koji ima arhitekturu 'projektovanu za DX-10',nema i dalje zavrsen drajver.Otkud znamo da je to do drajvera uopste,tako se i za performanse i AA govorilo da ce drajveri resiti pa se nista konkretno nije desilo.No ovo nije jos jedna G80 vs. R600 prica.

A neoptimizovain 5fps sa grafikom starom 5 godina na hardveru starom 2 godine, dok na high end hardveru daje 25 fps u prosecnoj grafici

Takav engine ne postoji,to su preterivanja.Ako i postoji priblizno takav onda ta igra definitivno nije vredna pomena.
 
Poslednja izmena:
Takav engine ne postoji,to su preterivanja.Ako i postoji priblizno takav onda ta igra definitivno nije vredna pomena.

Ma jelte. Npr. Freespace 2 na starom kompu (K6-2 300MHz), Freespace 1 je radio sa svim detaljima na max, dvojka je na ultra low jedva seckala, kada je izgledala gore nego TIE Fighter iz '93.

Na drugom kompu (P4 2.6GHz, R9600XT) je Quake 4 imao misticne pauze i FPS manji od 15 i u 640x480 sa svime na low. Takodje na istom kompu, Oblivion, kad zasece sve jedno mu, pa da stavim 640x480 i sve na minimum, on decko nece preko 5 fps u pojedinim situacijama.

Ono o cemu pricam je da licno znak neoptimizovanosti uzimam kad npr. prvi deo igre radi na max max max u pristojnoj rezoluciji, a da bi iz nastavka izvukao bilo kakav prihvatljiv fps u bilo kojoj rezuluciji, trebam da ga tweakujem da izgleda 10x gore od prethodnika. Zar je toliko nemoguce da novi engine zadrzi elemente starog za ljude sa starim kompovima. Znam koliki je posao, treba imati nekoliko setova tekstura i razlicitim rezolucijama, modele u razlicitom broju poligona, kontrolu osvetljenja...
 
Poslednja izmena:
Hm, ali onda se dolazi do zakljucka da su GRAW:2, R6:LV i SC:DA (znam da je drugi engine) pisani nogama (sa nesecenim noktima).

Hmmm...pa znas kako, ja sam do tog zakljucka odavno dosao :d

PS. Od igara koje si naveo jedino je R6:LV na UE3, a i on je blago receno samo portovan sa konzole. GRAW necu da komentarisem da ne navucem gnev GoRaNStEiN-a na sebe :d GRAW1 mi djene-djene radi 30-40 fps u proseku...S'obzirom kako izgleda ocekivao bih ~60fps prosek ali...noge, ne seceni nokti...grin :p

Ono o cemu pricam je da licno znak neoptimizovanosti uzimam kad npr. prvi deo igre radi na max max max u pristojnoj rezoluciji, a da bi iz nastavka izvukao bilo kakav prihvatljiv fps u bilo kojoj rezuluciji, trebam da ga tweakujem da izgleda 10x gore od prethodnika. Zar je toliko nemoguce da novi engine zadrzi elemente starog za ljude sa starim kompovima.

problem je nesto drugo. Problem je opsiran ali je u sustini - implementacija novih tehnologija i tehnika na brzinu. Uzmi za primer stalker (sad ce da me pljuju, ali neka, briga me bas). Igra je razvijana prvo na jednom engin-u, pa onda na drugom (to vec mozes da gledas kao da je drugi deo igre u pitanju, tj. nastavak) zato sto je tehnologija odmakla. Imas primer recimo stalker prva verzija, nema realnih senki, nema paralax mapinga itd. Medjutim dok oni prave igru, izadje 5 igara sa tim tehnikama koje developerima bacaju senku na njihovu grafiku. Igra kasni. Sta da rade ? Menjaj sto bezbolnije na frku engine, ubaci to sto fali i daj da izbacimo i zavrsimo jer cemo morati opet da menjamo engine. Rezultat ? Neoptimizacija naravno. Kako god da gledas na to, da li je pad FPS-a na nekim "cudnim" mestima, da li je ogroman pad FPS-a na mestima gde ima paralax mapinga ili nesto trece, sve je rezultat zurbe... Bioshock se razvijao skoro pa odvojeno za PC i za konzolu, dva tima rade dve stvari (dva tima u istoj firmi) i nema neoptimizacije vec je sve po "Pravilu Sluzbe" (PS-u). Da dodam jos jedan primer:
Imas igru, recimo XXXY koja koristi teksture i specular map, izgleda solidno, super igra. Izadje nastavak, modifikuju engine da moze da radi novi vid mapinga, recimo paralax i noram mape. Na prethodne teksture i specular navace jos i ove dve nove tehnike i to ti pojede fillrate karte, optereti procesor itd. Jos ako je to na silu ubaceno u engine, preko ko zna kakvih metoda, pa je sam kod duzi i zahteva mnogo vise CPU-a da bi odradio isto to naspram engine-a koji to nativno radi - eto ti losijeg framerate-a. Cist primer je recimo bas stalker i GRAW2. GRAW2 za onu djubrad od tekstura zahteva kartu sa 512mb rama. Mozes ti u .ini fajlu da forsiras teksture na high sa 256mb kartom ali to ocajno radi, a teksture udri me do zore...Poredjenja radi imas Dark M of MM koji ma 10x lepse teksture, efekte i sve ostalo i radi odlicno na istom sistemu na kome GRAW 2 oce da kolabrira sa FPS-om. GRAW koristi preradjeni engine i nabudzen da koristi vece teksture (posto je mutant za PC i konzole) i neke nove efekte...

Slag na celu ovu tortu ce biti recimo Unreal T. 3 koji ce raditi na PC-u bolje nego Gears of War i izgledati bolje (gledajuci sa tehnickog, a ne dizajnerskog aspekta)...Zasto ? Pa zato sto ga razvijaju isto kao i bioshock, posebno za PC , posebno za konzole i EPIC koji ga razvija je smislio ceo hebeni engine i pokazace svima na kraju sta taj engine zapravo moze...
 
Poslednja izmena:
to bi tako izgledalo kad bi se proizvodjaci igara i grafickih karti mrzeli... realnost je surova, ut2007 je odavno gotov, da radi lepo na sadasnjem hardveru izaso bi pre dve godine... epic je ulozio kakav takav trud oko igre i to zeli da naplati... rs:vegas je primer tog "mocnog" engin-a (10 poligona + 3 shader-a = nvidia A class graf...), umesto rs:vegas stavi bioshock ako hoces, to je isti engine i koliko sam video iste performanse...
2007 ce biti jos zahtevniji budi siguran...
u3 je nesto najgore sto je moglo da nas zadesi! engine je izgradjen sa ciljem da unapredi renderovanje likova, ne okruzenja za razliku od Crysis-a...
 
Poslednja izmena:
Bioshock NE RADI ISTO kao i R6 Vegas!Odakle sad to?
A da ne pominjem koliko bolje Bioshock izgleda...
A i ovaj Airborne takodje!!UE3 engine i NAJZAD scena kad puca pogled na ceo grad i horizont sa rekom...brutalno izgleda, a FPS je bar duplo bolji od onog shuntavog poslednjeg nivoa na brani u R6 Vegas!!Ne moze da se poredi.UE3 i te kako MOZE da radi kako treba ako programeri znaju svoj posao.
 
O cemu ti to ? Na HD2000 i X1900 seriji radi samo tako. 2900XT ima fps skoro ko 8800GTX !
 
Status
Zatvorena za pisanje odgovora.
Vrh Dno