odlicno, onda ti ne bi bio problem da napravis programce i provuces ga kroz nvidijin 6xxx/7xxx gpu: ako 32-bitni sejderi bivaju interno daungrejdovani u kartici, nedostatak nijansi ce biti lako pokazati, vice versa, bilo u brojevima, bilo na slici.yooyo je napisao(la):@LowRadiation:
Nemoj da se lozis na Fuadov tekst i da siris flame po forumu. To je netacna informacija. Ja programiram graficke karte i tako nesto bih odavno primetio.
ali se ne moze od 16 bitnog ulaza napraviti 32-bitni prikaz (tj. ne moze se popuniti paleta bez obzira na sam 32bitni prikaz), o tome se radi. dakle, kada kartica dobije 32 bitni set boja za px-shader a isporuci max. 16-bitni u 32bitnom rezimu, ona naprosto nije directx9 compilant. skraceno, tvrdi se da nvidia ne moze da prikaze 24 ili 32bitnu sliku rendera, bez obzira na to sto je ulaz 32-bitni. to se tvrdi a ne obrnuto.yooyo je napisao(la):Paleta i preciznost nemaju nikakve veze. Mozes da interno koristis 32, 24 ili 16bit preciznost, a da ti izlaz bude 8, 16 ili 32 bit po komponenti. Cinjenice su sledece, a ti ih prihvati ili ne:
1. ATI serija 9550+ i x800 imaju interno 24bit preciznost. Nema podrska za 16 ili 32.
da, to znamo iz reklame, ali fuad bas to i osporava.2. NVidia FX, 6x00 i 7x00 imaju interno 16bit i 32bit preciznost.
ovo jos niko cak nije ni osporio.3. ATI serija 1800+ imaju 32bit preciznost.
pri cemu, fuad kaze da da float na izlazu kod nvidije ne moze biti 32-bitni, niti 24bitni.Ako se u shaderu navede da je promenljiva ili podatak float tipa onda se koristi 32bit preiznost, a ako je half tipa onda se korisri 16bit preciznost.
ne secam se da li sam se ogradio na ovom threadu, pa da bude jasno: ja bih ovaj test odradio da umem da ga napravim. ali, to sto ne umem da ga napravim ne znaci da ne razumem sta fuad prica. osim toga, ako je do nepristrasnog merenja, ne vredi onda da uzimamo nvidijine rezultate ili test-aplikacije (treba li ponovo da spominjem varanje na 3dmarku itd).Test necu da pisem jer svakodnevno pisem shadere i takav bug ja nisam primetio. Uostalom.. nemoras ni ti da pises shadere da bi proverio Fuadove navode. Idi na www.nvidia.com i skini FX Composer, otvori neki primer i razgledaj.. ili jos bolje... napisi test shaderAko te mrzi da skidas FX composer.. pokusaj sa ATI/3dLabs Rendermonkey.
pa, nije konfuzan, zapravo, prilicno je konzistentan, medjutim, istina je da mu se moze prigovoriti na nedostatku detalja. takodje, ocito se radi o najavi rezultata pa se u njoj iznose samo udarne tvrdnje. videcemo na sta ce da lici ceo test kada ga okaci.Sam Fuadov komentar je prilicno konfuzan jer je prvo poceo sa 16bit i 32bit texturama da bi potom otisao na pricu o preciznosti. Neka napise sta je tacno covek rekao pa cemo to da proverimo. Iz mog ugla, Fuadov clanak je glupost jer je samo zbunio publiku a da nista konkretno nije rekao.
dobar zakljucak, zaista favorizujem ati. nakon loseg iskustva sa nvidijom od pre tri godine, zaljubio sam se u radeona 9500 kojeg imam; taman kada sam hteo da ga zamenim ispostavilo se da je moddabilan, pa je na moju radost otpala nova kupovina. medjutim, hajde da vidimo sta je istina, a to nema veze ni sa fuadovom, ni sa mojom pristrasnoscu, niti ce dokazivanje ove ili one tvrdnje bilo sta promeniti u mom zivotu.Posto vidim da si fanATIk sta kazes na probleme i greske u rasterizaciji tankih trouglova, tj. ATI chip ce neke pixele obraditi 2x, a treba samo 1x. Naravno, o tome nista neznas jer Fuad to nije napisao.
Ajde sad objasni sta si ovim hteo da kazes? Mislis da je korpuskularna priroda fotona ogranicena brojem bitova kojem se njegova talasna duzina modulira sa pomakom u vremenu? Ne bih se kladio...pix-shader koji nema dubinu od 24/32 bit medjufaza ne moze da promeni 24/32 bit nijansi, jer se tacka boji u odnosu na izvor svetla.
Follow along with the video below to see how to install our site as a web app on your home screen.
Napomena: this_feature_currently_requires_accessing_site_using_safari