Šta je novo?

DX11 vs. DX10.1 vs. DX10 - kvantifikovano

@byMaX
Naravno da je tako, ovo je cito zezanje na njegov racun, tek da ima sta da pise kada se bude vratio. Precesto mu se desava da iznosi nekakve rezultate bez argumentacije, ipak se od njega vise ocekuje ili bi bar trebalo da bude malo temljniji od obicnih korisnika, zar ne? narocito kada znamo da je naklonjen AMD-u, radi za njih sigurno nece da bude naklonjen Intelu ili Nvidiji.
@Bogda
Opusti se malo nije smak sveta, ja volim da se ponasam kao dete uzivam u tome, ali ipak sta god da napisem to je tacno, zato sto sam pre toga proverio xxxxx puta, ono sto ne znam pitam kao i svako dete a ti bi mogao nesto da naucis od deteta, koristi ce ti;) kao sto bi ja recimo ja mogao od tebe da naucim drugaciji stil pisanja itd.
O sadržini postova ne diskutujem, mada i tu ima nebuloza, ali sada mislim isključivo na stil pisanja.
A sad kad smo konstatovali da i od dece moze po nesto da se nauci da cujem sta su nebuloze? Kada nekome kazes da pise nebuloze znaci da znas nesto sto taj neko kome se obracas ne zna, pa da cujem? Mozda sam ja dete ali nikome nikada nisam rekao da pise nebuloze ili se obracao na taj nacin, barem ne ozbiljno kao ti meni, pritom me ne znas a kada nekog ne poznajes kultra nalaze da mu se malo uctivije obracas, cak i ako je dete u pitanju:)
@mcrazy
Ovo nisam znao, nikada nisma probao, hvala za info:)
@Rapture
Lepo receno;)
 
Poslednja izmena:
...

Na staroj Amigi postojao je matematicki koprocesor koji se naknadno mogao dokupiti i dobiti veci uzitak u nekim igricama itd. Mislim da bi bilo dobro da tako nesto bude i sa grafickim kartama NVIDIA/ATI pa ko bi zeleo mogao bi ubosti dodatni (ko)procesor na grafickoj za fiziku.

Sto se same fizike tice moguce je povecanje zahtevnosti same fizike pa prema tome mislim da ce uvek biti potrebne dve graficke ili pak jedna ali vecini nedostupno cenovno.

Pozdrav.
 
@ za**bani
Eto vidiš kako kritika pozitivno utiče na tebe. Odgovorio si oštro na kritike ali pristojno. Keep up good work.:)
Što se nebuloza tiče, ne moram duboka da kopam:
... verujem da ce ta podrska za fiziku u daljem periodu dosta opredeljivati kupce ka Nvidia kartama narocito kada su skuplji modeli u pitanju.

Namece se prosto pitanje: zasto bih kupio ATI kartu istih performansi kada mogu za isti novac ili 20e vise da pazarim kartu koja ce mi omoguciti da vidim sve sto su autori hteli da prikazu igrom koju igram...

Nema nikakve šanse da karticu nVidie istih performansi kao ATi, pogotovu kad su skuplji modeli u pitanju, možeš da kupiš za istu cenu ili za 20e više. Znaš i sam da u ovom trenutku nVidia nema nikakav odgovor ni na jednu od novih ATi kartica iz serije 5xx0.
Kad Fermi jednom stigne, ne očekuješ valjda da će Fermi iste brzine koštati kao Radeon HD5870?!
 
Ja sam u vek pristojan, sem aka se zezam, a to je propraceno gomilom smaijlija:)

Pa ovo sto si navo je nagadjenje kao sto je nagadjanje da ce biti 20e skuplja, ali ja sam rekao MISLIM sto znaci da nagadjam, a to je velik razlika izmedju reci nebuloza i reci misljenje, tako da ako si recenicu u kojo sam rekao MISLINjE proglasio nebulozome, ok, imas pravo da moje mosljenje ospravas ali konstruktivnom kritikom a ne i ti da prosipas nebuloze, to je jes misljenj, shvatas, ako je moje misljenje nebuloza onda je i tvoje, tako da mo govorimo nebulozne stvrai:p ma decuija posla:D
 
@ za**bani
Eto vidiš kako kritika pozitivno utiče na tebe. Odgovorio si oštro na kritike ali pristojno. Keep up good work.:)
Što se nebuloza tiče, ne moram duboka da kopam:

Nema nikakve šanse da karticu nVidie istih performansi kao ATi, pogotovu kad su skuplji modeli u pitanju, možeš da kupiš za istu cenu ili za 20e više. Znaš i sam da u ovom trenutku nVidia nema nikakav odgovor ni na jednu od novih ATi kartica iz serije 5xx0.
Kad Fermi jednom stigne, ne očekuješ valjda da će Fermi iste brzine koštati kao Radeon HD5870?!

Zasto je to toliko tesko ocekivati?! Zar je tesko ocekivati da neki slabiji Fermi (kao sto je bio 8800GTS 640 u odnosu na 8800GTX) koji bi se eventualno nosio sa 5870 kosta oko 400 $, a da top varijanta bude ~500+ $.
 
Zasto je to toliko tesko ocekivati?! Zar je tesko ocekivati da neki slabiji Fermi (kao sto je bio 8800GTS 640 u odnosu na 8800GTX) koji bi se eventualno nosio sa 5870 kosta oko 400 $, a da top varijanta bude ~500+ $.
Pa neće moći jer će G(T)300 biti znatno veći od RV870, u njegov razvoj je uloženo mnogo više zbog potpuno nove arhitekture, imaće skuplji PCB zbog šireg memorijske magistrale... Jedino ako bi se ispostavilo da neki cropovani Fermi bude drastično brži od najbržeg radeta. Sa obrzirom da je dobar deo razvoja išao u GPGPU smeru, da se te mogućnosti najviše promovišu, ne očekujem da se to desi.
 
Po svemu sudeci, bice ~50% veci sto je skroz ok po nVidia-u. Seti se, prosle godine je GT200 bio ~125% (to je 2,25x) veci od RV770 pa je GTX 260 bio tek nesto skuplji od 4870 sa kojim se tukao. Tako da, ponavljam, ova runda bi trebalo da bude mnogo povoljnija po nVidia-u nego prosla.
A to sto je u Fermi ulozeno mnogo vise nVidia planira da povrati time sto ce isti taj chip prodavati u razlicite segmente HPC trzista(zapravo, to je radila i sa G80 i GT200, ali sada namerava da to znatno prosiri).
Meni je potpuno jasno sta radi nVidia - razvija jednu tehnologiju, debelo ulaze u nju, ali pokusava da je proda na vise frontova. To je gledanje u buducnost, prezivljavanje, kako hocete.
A mislim da, uprkos tome sto se na nVidia-oj white paper prezentaciji Fermija nisu spominjale graficke karakteristike GPU-a, da to kod Fermija ne manjka, tj da nVIdia ne planira tek tako da napusti graficke kartice, jer bio to bio pucanj u nogu (ako ne i nesto vise :)).
 
Vrlo verovatno da ce uskoro biti mnogo vise "ozbiljnih" naslova koji su DX11 nego onih koji su PhysX. Trendovi su cudo, a do Q2 2010 godine market share ce verovatno biti zestoko pomeren na stranu AMD/ATI-ja. NVidia ne moze bas nista da uradi da taj trend sada preokrene, a da ne dodje na rub bankrotstva (ili se makar utera u ogromne gubitke).

Uz to, kako se u USA tuze oko svega i svacega, ne bih iskljucio neku Class Action Suit protiv NVidije, jer su svojevremeno, kada su poceli da promovisu PhysX, govorili da cete uvek moci da stavite dodatnu GeForce kartu samo da racuna fiziku. Naravno, tada nisu racunali da ce ih AMD/ATI stici i prestici. Ovo verovatno moze da se podvede pod prevaru potrosaca, jer su sada ogranicili tu mogucnost u Win7 na nacin o kome tada nije bilo govora. Ionako ih vec ceka jedna, povodom onih defektnih cipova u laptopovima.

I tek treba da vidimo performanse Fermija u igrama ;) Dok to ne vidimo, mozemo da nagadjamo do sutra. Moje licno misljenje je da nece biti dovoljno dobre, jer su odmah najavili i Dual-GPU kartu. Takodje, siguran sam da bi vec leakovali pozitivne rezultate (Fermi vs. Cypress) da ih imaju, jer bi to daleko vise umanjilo prodaju novih Radeona od White-Paper prezentacije. Nesto slicno onome sto je Intel uradio sa Core2 arhitekturom, kada su 4 meseca ranije "bliski" testeri dobili inzenjerski primerak da se igraju.
 
Po svemu sudeci, bice ~50% veci sto je skroz ok po nVidia-u. Seti se, prosle godine je GT200 bio ~125% (to je 2,25x) veci od RV770 pa je GTX 260 bio tek nesto skuplji od 4870 sa kojim se tukao. Tako da, ponavljam, ova runda bi trebalo da bude mnogo povoljnija po nVidia-u nego prosla.
Tukao se silom prilika, toliko dobro da su ga prodavali praktično bez zarade, samim time unazađujući prodaju svojih top modela, a sada su ga gotovo ukinuli. Naravno sve to uz pomoć moćnog GeForce brenda koji je već poprilično potamneo i a pogotovu će potamneti u narednim mesecima.
Drugo ako neki Fermi ala 260GTX bude koštao 400$, AMD bez problema može da spusti 5870 na 300$ i da i dalje lepo zarađuje. Ako bude potrebe razlika će sigurno biti mnogo veća od maksimalnih 20e koliko je Zaj**ani prognozirao.
 
Poslednja izmena:
Eh, to da su ga prodavali bez zarade ne bih rekao. A koliko su zaradjivali je besmisleno raspravljati jer to ne mozemo znati.
Opet kazem, ako su onda mogli da spuste cene, sada ce im to biti jos lakse.
Uostalom, ovo je sve nagadjanje, sacekajmo da izadje taj Fermi pa cemo videti :)
 
I tek treba da vidimo performanse Fermija u igrama ;) Dok to ne vidimo, mozemo da nagadjamo do sutra. Moje licno misljenje je da nece biti dovoljno dobre, jer su odmah najavili i Dual-GPU kartu. Takodje, siguran sam da bi vec leakovali pozitivne rezultate (Fermi vs. Cypress) da ih imaju, jer bi to daleko vise umanjilo prodaju novih Radeona od White-Paper prezentacije. Nesto slicno onome sto je Intel uradio sa Core2 arhitekturom, kada su 4 meseca ranije "bliski" testeri dobili inzenjerski primerak da se igraju.

Razumno razmisljanje:) uvek je bilo tako i ja mislim da bi se vec pojavili neki ne zvanicni rezultati bas iz tog razloga da umanje prodaju 5xxx serije, sem ako mozda nemaju gotov proizvod. Meni licno se jako svidja kombinacija 5870 i 8600gt u jednoj masin, imam i fiziku i DX11, ako uzmemo u obzir da nista jace trenutno ne treba od 4890 ili 275GTX ovo bi bilo i previse. Mada prilicno je skupa ova 5870 karta 350e kod nas:(

@Bogda
Dobro nece biti 20e boce 70e, ho boze:D:p
 
Opet kazem, ako su onda mogli da spuste cene, sada ce im to biti jos lakse.


Ne razumem kako moze da im bude lakse da spuste cene kada im je chip iste velichine kao i u prosloj generaciji, jedino sto je ati-u mozda za nijansu teze da spuste cene jer je rv870 malo veci od 770, plus sto su pretpostavljam ulozena mnogo veca sredstva u gt300 neko u gt200 sto je jos jedna otezavajuca okolnost po cenu, ali sve u svemu, 5870 je taj koji jasno diktira cenu buduce nvidie.
 
Lakse nego prosle godine, to sam mislio. Mada ako Fermi ispadne kako treba, mozda nece biti ni potrebe da se cena spusta.

Razlika u velicini izmedju nVidia i Ati GPU-ova ove i prosle godine ce biti ogromna, gore sam pisao o tome, ne zelim da se ponavljam :)
 
Ono o cemu jos treba voditi racuna je i kvalitet igara i njihova zahtevnost - od toga ce dosta zavisiti. Dzaba i neka velika procentualna prednost za NVidiju ako i ATI bude davao dobre performanse. Mislim, nema mnogo ljudi koji bi dali 500+ evra, ako i karta od 300 evra daje dovoljan broj frejmova u potrebnoj rezoluciji. Stavise, od tih koji su spremni da tako nesto urade, kompanije ne mogu da (pre)zive :)

I naravno da situacija nece biti toliko losa kao u prethodnoj generaciji, ali ako neki (teoretski) GTX360 ne bude mogao da parira 5870, NVidija ce se ponovo naci u istoj situaciji. ATI ima najmanje 30% manji cip i sveukupno jeftiniju karticu u proizvodnji, i prednost od citavog kvartala, a mozda i malo vise.
 
Radi uz tvikovanje jer je nvidia iskljucila tu mogucnost u svojim drajverima. Solucija je da se odradi tvik ili koristi stariji nvidia drajver (trenutno jednostavnije resenje jer nema novih igara sa fizikom tako da odradjuje posao).
 
Danas sam dobio insajdersku informaciju iz Nvidije da su oni reshili polako da prelaze na druga trzishta (tj. da se koncentrishu uglavnom na GPGPU) i da im PC grafika nece biti vishe glavni cilj razvoja. Ovo se josh podkrepljuje chinjenicom da ce u sledecih nekoliko godina vecina naslova biti multiplatformska i da nece biti preterane potrebe u mocnijim grafichkim chipovima...

Konzole ce nam ipak doci glave...
 
^
Mislim da nam nece doci glave ali logicno je da sve krene u jednom pravcu, da se igre preve za recimo konzole a portuju na PC ali da taj proces bude malo jednostavniji nego sada. Nisu distributeri gadljivi na PC trziste tako da je mala sansa da ce PC kao igracka platforma oticu u zaborav, prosto svaka kuca ima racunar a to je dovoljan razlog de se korisnicima ponudi nesto sa cime bi se zanimali:)
Ako je ovo tacno a sumnjam da mogu da napuste ili manje paznje posvecuju PC grafici mislim da ce samo nama kao korisnicima biti bolje, konzole ce postavljati standard tako da ce jedana high end karta imati duzi upotrebni vek trajanja, nesto tipa 2-3 godine kako se konzole budu smenjivale.
 
Nekako sumnjam da će napustiti PC grafiku (iako su odustali od čipseta, a i Ion platforma nema sigurnu budućnost). GPGPU im još ne osigurava egzistenciju, da bi se tako kockali.
 
Poslednja izmena:
Sve zavisi od dinamike kojom nameravaju to da urade. Jos je rano za GPGPU pricu sirih razmera, a ako izgube korak u gamingu, pitanje je koliko dugo ce finansijski moci da izdrze. Dovoljna je samo jedna katastrofalna odluka i jedna losa generacija da te neko kupi za saku kikirikija (kao sto smo videli iz primera 3DFX-a).
 
Naravno da nece odustati od pc grafike. Mislim da to nigde nije receno. Odustati ce od ovakvog pristupa i brzinske trke kao sto je to ati uradio. Napravice dovoljno brzu kartu ali ce da kosta vise zbog 'dodataka' i ulozice u gpgpu...
 
Kad GPGPU zazivi kroz par generacija, neminovno ce doci i do promene/nestanka 3D API-ja koji su danas u upotrebi. Nije nerealno za ocekivati da ce GPGPU hardware u bliskoj buducnosti biti sposoban i upotrebljiv za real time ray tracing i "softverski" endzini ce se vratiti medju igrace. Nekako se oseca "wind of change" :), larabee, AMD fusion, pa mi onda ovaj NV potez da se koncentrise na GPGPU deluje logicno.

Just my two cents... :)

Poz
 
Poslednja izmena:
Taj real time raytracing neće zaživeti u igricama u skoroj budućnosti. Za to postoje i tehnički i tržišni razlozi.
O tehničkim imaš bezbroj tekstova na netu koji pokazuju da i najnovijim karticama fali poprilično snage da bi gurale real time RT U zadoovoljavajućem kvalitetu.
Tržišni su još ubedljiviji. Gotovo sve igrice sada a i u doglednoj budućnosti praviće se da budu mutliplatformske (konzole + PC). Konzole naravno imaju mnogo manje procesorske snage pa je na njima real time RT nije ni u najavama. Znači neko bi trebao da posebno razvija igricu za PC potpuno novim pristupom koji tek treba da nauči, a da rezultati u najboljem sličaju budu nešto bolji nego tradicionalnim načinom.:trust:
 
Chinjenice su sledece:
- za 99% poslova koji se rade na PC-ju danashnji CPU i GPU su vishe nego dovoljni (u mnogim sluchajevima su overkill).
- prodaja GPU i CPU polako ide nadole (ili se kupuju low/mid range chipovi uglavnom)
- konzole su vec prevazidjene po brzini, a one moraju da se prodaju poshto i Ati i Nvidija imaju svoje chipove u njima
- Intel je krenuo na druga trzishta - Larabee, Intel Media procesor (procesor za obradu signala u LCD/plazma televizorima) govore o tome da je Intel skapirao da na CPU i chipsetovima nece moci da se shiri dalje.

Niko nije rekao da ce Nvidija da prestane da pravi vrhunske GPU procesore, vec da ti procesori u buducnosti nece biti orjentisani samo na grafiku (shto je vec i u ovoj generaciji postalo jasno).
 
Nedjo, odakle su ti testovi?
Pitam jer su na Anandu totalno drugaciji rezultati:

20448.png


Gledam GTX 285 i 5770, na Anandu je razlika velika: 43,3 vs. 28,7 u korist 285-ice. OK, kad se ukljuci DX-11, 5770 bi dobio tih ~15% ali opet ne bi bio brzi kao u tvom postu. :)

Zato sto je GTX285 brzi u DX11:d
 
Ufff. Odicno izgleda dirt. Simulacija fluida izgleda fino:)

Nice:)
 
Poslednja izmena:
Nazad
Vrh Dno