Šta je novo?

Ati баг...

@LowRadiation:
Nemoj da se lozis na Fuadov tekst i da siris flame po forumu. To je netacna informacija. Ja programiram graficke karte i tako nesto bih odavno primetio.
 
bilo je da se zamenjivao 24bit floating point precission za 16bit float p. p. jer se nije najbolje snalzio a i kao nije bilo ni bitno ni tolko vidljivo kad je nesto u pokretu, ali to ni je bilo ISKLJUCIVO tj i dalje se mogao koristiti FP24 po potrebi...ako me secanje dobro sluzi bese tako nekako...davno bese pa nije ni bitno.
 
yooyo je napisao(la):
@LowRadiation:
Nemoj da se lozis na Fuadov tekst i da siris flame po forumu. To je netacna informacija. Ja programiram graficke karte i tako nesto bih odavno primetio.
odlicno, onda ti ne bi bio problem da napravis programce i provuces ga kroz nvidijin 6xxx/7xxx gpu: ako 32-bitni sejderi bivaju interno daungrejdovani u kartici, nedostatak nijansi ce biti lako pokazati, vice versa, bilo u brojevima, bilo na slici.

tvrdi se da je problematican autput a ne input, tj. da nvidia vara u internom hendlovanju.
 
postajes polako HIGHRadiation....

sporan je floating point PRECISSION rendering koji je 24-bit , to nema veze sa kolicinom prikazanih boja
 
pa, sa cime ima veze, ako ne sa nijansiranjem piksela!?

evo ti ideja za research: koncentricni krugovi pribliznih boja iz plutajucih tackaka; ako je po tvome, nvidija ce tacke senciti u jednako nivoa kao i (recimo) ati. medjutim, ako su tvrdnje iz clanka tacne, ati ce nijansirati tacke i u 24/32 bit spektru za razliku od nvidia 7xxx kartica, koje ce to ciniti u 16-binoj paleti max.

ja jos uvek ocekujem da se neko oglasi sa konkretnim eksperimentom; posto ti programiras kartice, verujem da ti nece bit problem da sastavis takav test. ja bih rado to ucinio, avaj, ne umem. i veruj mi, uopste mi nece biti problem ako se ispostavi da je clanak lazan.
 
@LowRadiation:
Ne pada mi na pamet da pravim takav test jer imam pametnija posla da radim umesto da dokazujem tvrdnje jednog novinara koji pise clanke za web verziju kurir-a ili press-a. A ti ako imas vremena.. samo napred.

A ideja za research ti je losa jer na ekranu nemozes videti posledice 16bitnog color bandinga. To se moze primetiti npr, prilikom racunanja specular highlighting-a.

Nego.. neka nama taj lik kaze koju je NV karticu testirao i koje drivere je koristio!
 
meni licno je sve jedno ko ce da dokaze svoju verziju price. mene samo cudi otkuda onda ideja da se apriori odbaci tudja prica, a da se ne proveri cak ni svoja.

u tom smislu je i bila moja molba da napravis onaj test, cisto da vise niko ne nagadja, ukljucujuci tu i mene. a sto se tice razlike u prikazu, veruj mi, postoji i uocljiva je kada se poredi 16bitna i 32 paleta, tj. render sacinjen u jednoj i u drugoj; recimo, kod koncentricnih krugova bi u prvoj verziji prelazi bili nesto, ali vidljivo, grublji. drugo je vezano za greske koje se javljaju prilikom prikaza nijansi iz 32bitnog spektra u 16bitnom, usled zaokruzivanja brojnih vrednosti boja/nijansi.

ali, nije samo to poenta ovog eventualnog testa: ako se prica iz clanka ispostavi kao tacna, sasvim je legitimno zakljuciti da je nvidia radila na tome da svesno obmane kupce, umesto da radi na svojim grafickim procesorima, sto je jedna veoma gadna odluka.
 
Paleta i preciznost nemaju nikakve veze. Mozes da interno koristis 32, 24 ili 16bit preciznost, a da ti izlaz bude 8, 16 ili 32 bit po komponenti. Cinjenice su sledece, a ti ih prihvati ili ne:
1. ATI serija 9550+ i x800 imaju interno 24bit preciznost. Nema podrska za 16 ili 32.
2. NVidia FX, 6x00 i 7x00 imaju interno 16bit i 32bit preciznost.
3. ATI serija 1800+ imaju 32bit preciznost.

Ako se u shaderu navede da je promenljiva ili podatak float tipa onda se koristi 32bit preiznost, a ako je half tipa onda se korisri 16bit preciznost.

Test necu da pisem jer svakodnevno pisem shadere i takav bug ja nisam primetio. Uostalom.. nemoras ni ti da pises shadere da bi proverio Fuadove navode. Idi na www.nvidia.com i skini FX Composer, otvori neki primer i razgledaj.. ili jos bolje... napisi test shader :) Ako te mrzi da skidas FX composer.. pokusaj sa ATI/3dLabs Rendermonkey.

Sam Fuadov komentar je prilicno konfuzan jer je prvo poceo sa 16bit i 32bit texturama da bi potom otisao na pricu o preciznosti. Neka napise sta je tacno covek rekao pa cemo to da proverimo. Iz mog ugla, Fuadov clanak je glupost jer je samo zbunio publiku a da nista konkretno nije rekao.

Posto vidim da si fanATIk sta kazes na probleme i greske u rasterizaciji tankih trouglova, tj. ATI chip ce neke pixele obraditi 2x, a treba samo 1x. Naravno, o tome nista neznas jer Fuad to nije napisao.
 
yooyo je napisao(la):
Paleta i preciznost nemaju nikakve veze. Mozes da interno koristis 32, 24 ili 16bit preciznost, a da ti izlaz bude 8, 16 ili 32 bit po komponenti. Cinjenice su sledece, a ti ih prihvati ili ne:
1. ATI serija 9550+ i x800 imaju interno 24bit preciznost. Nema podrska za 16 ili 32.
ali se ne moze od 16 bitnog ulaza napraviti 32-bitni prikaz (tj. ne moze se popuniti paleta bez obzira na sam 32bitni prikaz), o tome se radi. dakle, kada kartica dobije 32 bitni set boja za px-shader a isporuci max. 16-bitni u 32bitnom rezimu, ona naprosto nije directx9 compilant. skraceno, tvrdi se da nvidia ne moze da prikaze 24 ili 32bitnu sliku rendera, bez obzira na to sto je ulaz 32-bitni. to se tvrdi a ne obrnuto.

2. NVidia FX, 6x00 i 7x00 imaju interno 16bit i 32bit preciznost.
da, to znamo iz reklame, ali fuad bas to i osporava.
3. ATI serija 1800+ imaju 32bit preciznost.
ovo jos niko cak nije ni osporio.

Ako se u shaderu navede da je promenljiva ili podatak float tipa onda se koristi 32bit preiznost, a ako je half tipa onda se korisri 16bit preciznost.
pri cemu, fuad kaze da da float na izlazu kod nvidije ne moze biti 32-bitni, niti 24bitni.

Test necu da pisem jer svakodnevno pisem shadere i takav bug ja nisam primetio. Uostalom.. nemoras ni ti da pises shadere da bi proverio Fuadove navode. Idi na www.nvidia.com i skini FX Composer, otvori neki primer i razgledaj.. ili jos bolje... napisi test shader :) Ako te mrzi da skidas FX composer.. pokusaj sa ATI/3dLabs Rendermonkey.
ne secam se da li sam se ogradio na ovom threadu, pa da bude jasno: ja bih ovaj test odradio da umem da ga napravim. ali, to sto ne umem da ga napravim ne znaci da ne razumem sta fuad prica. osim toga, ako je do nepristrasnog merenja, ne vredi onda da uzimamo nvidijine rezultate ili test-aplikacije (treba li ponovo da spominjem varanje na 3dmarku itd).

Sam Fuadov komentar je prilicno konfuzan jer je prvo poceo sa 16bit i 32bit texturama da bi potom otisao na pricu o preciznosti. Neka napise sta je tacno covek rekao pa cemo to da proverimo. Iz mog ugla, Fuadov clanak je glupost jer je samo zbunio publiku a da nista konkretno nije rekao.
pa, nije konfuzan, zapravo, prilicno je konzistentan, medjutim, istina je da mu se moze prigovoriti na nedostatku detalja. takodje, ocito se radi o najavi rezultata pa se u njoj iznose samo udarne tvrdnje. videcemo na sta ce da lici ceo test kada ga okaci.

Posto vidim da si fanATIk sta kazes na probleme i greske u rasterizaciji tankih trouglova, tj. ATI chip ce neke pixele obraditi 2x, a treba samo 1x. Naravno, o tome nista neznas jer Fuad to nije napisao.
dobar zakljucak, zaista favorizujem ati. nakon loseg iskustva sa nvidijom od pre tri godine, zaljubio sam se u radeona 9500 kojeg imam; taman kada sam hteo da ga zamenim ispostavilo se da je moddabilan, pa je na moju radost otpala nova kupovina. medjutim, hajde da vidimo sta je istina, a to nema veze ni sa fuadovom, ni sa mojom pristrasnoscu, niti ce dokazivanje ove ili one tvrdnje bilo sta promeniti u mom zivotu.
 
ti ne kontas i dalje razlike izmedju palete i preciznosti. Vidi jednostavno je: 64-bitni procesor ne prikazuje 64 bita boja, isto kao sto ni FPP 32 ne prikazuje 32bita boja. Broj prikazanih boja nema veze sa preciznoscu shadera. Jel sad kapiras ?

i naravno da ono sa ulaznim bitovima sto si rekao nema veze sa zivotom, u karticu ulaze 101010101010100100110001010100 a izlaze boje..... :wall:
 
ma ajde, to za proc stvarno nisam znao :p

ja pricam o trecem: pix-shader koji nema dubinu od 24/32 bit medjufaza ne moze da promeni 24/32 bit nijansi, jer se tacka boji u odnosu na izvor svetla. dakle, kao sto ni px-shader ne sluzi tome da smara gpu vec da prikaze promenu koordinata piksela u odnosu na svetlo, tako mi i nase oci jedino i mozemo da registujemo promenu svetla / koordinata tacke u odnosu na izvor - promenom nijanse/boje tog piksela. pa zato su shaderi i izmisljeni, majku mu.

zato sam i uzeo najbanalniju mogucu aproksimaciju, koja bi morala biti svakome apsolutno jasna, cast izuzecima ;) naravno da tacka ne mora da promeni tih svih 32-bit-nivoa, ali kod nvidije, tvrdi se, ona to ne moze, sve i da hoce, i to se direktno vidi kod bojenja tacke, tj. losa tekstura.
 
Poslednja izmena:
Covece, kako si naporan... Evo kod mene u programu koristim rgba32f texturu kao ulaz za pixel shadere, i zaista je fp32.

pix-shader koji nema dubinu od 24/32 bit medjufaza ne moze da promeni 24/32 bit nijansi, jer se tacka boji u odnosu na izvor svetla.
Ajde sad objasni sta si ovim hteo da kazes? Mislis da je korpuskularna priroda fotona ogranicena brojem bitova kojem se njegova talasna duzina modulira sa pomakom u vremenu? Ne bih se kladio...
 
Vrh Dno