Evo da i ja dam svoje misljenje o ovom zanimljivom tredu...Naime, posetio sam i ja odredjene URL lokacije i dva foruma na kojima sam nasao jos informacija koje tek treba da citam. Neke sam procitao i vec sada mogu da zakljucim da ce Matrox ipak malo zakasniti na trziste... Ovaj cip ce videti svetlo dana tek za oko 6 meseci, a do tada ce DX9 kompatibilni akceleratori od ATI-ja i nVidia-e vec biti u produkcionim pogonima. Iskreno sam uzbudjen zbog novih vesti o Perhelia chip-u; neki pominju i G1000, a neki G800 (iG1000), pri cemu ce G800 pokretati "gaming" kartice (nista o konfiguraciji samih modela nije receno), dok ce G1000 biti zaduzen za "pro" modele (nesto kao GeForce i Quadro). E sada, kao najvaznije prednosti novog chip-a, izdvojio bih svakako rad sa 40-bit paletom (nije to, ko sto kaze Magick) 40-bitni <prikaz>, vec samo interni engine radi sa 40-bitnim RGBA vrednostima. To je i dalje dosta daleko od profi rendering kartica - moderne rendering (softver) masine rade sa jos vecim pixel vrednostima - greske kod njih su vrlo male ili nikakve... Ovo mozete grubo uporediti sa prikazom geometrije u danasnjim game engine-ima... Secate se komandi r_subdivisions ili r_LODcurveError ? Cak i sa zamisljenom vrednoscu od 5000, igrac vidi savrsenu krivu, jer bi sa vrednosti od 1, igra radila daleeeeko sporije (Carmack je cak ogranicio skalu greske, te i sa vrednoscu od 0, greska ipak postoji i velika je, pa sa, zato ceo raspon i definisanje nazvao "zamisljenim"), a i Q3 engine je daleeeko od ozbiljne rendering masine... Upravo tako je i sa bojama i njihovim prikazom, dihtering-om i ostalim sitnicama vezanim za "masovne" gaming i semi-pro masine i upotrebe...
Druga bitna stvar je displacement mapping... Ona, pored onoga sto je Magick na jednostavan nacin objasnio (ili pokusao da objasni), karakteristicna po tome sto moze da primeni i rendering materijala i predstavlja prosirenje slicne nVidia-ine tehnike vidjene u GF3 (koja jos nije primenjena u igrama (mozda u nekoj X-BoX igri ?)). Dakle, fizicki deo masine ce manipulisati materijalima i oblikom (novi MGA chip ce "znati" koji je materijal u pitanju i kakvo je stanje u "okolini", pa ce se shodno tome i "prikazivati". Pomalo je nejasno da li i kako ce programeri implementirati dodatne infromacije o objektu: jasno je da je ATI truform slabo implementiran bilo gde iako su najavljivali da dodatna informacija nije potrebna (cak ni patch) - a evo, ja ni u RTCW ni u Renegade, nisam video apsolutno nijedan dokaz (zaobljen objekat i sl.) da je TruForm ukljucen. HigherOrder Surfaces se znacajnije razlikuje od n-Patches sistema, bas po tome sto je nezavisan od programera, a i njegov zadatak nije da poboljsa kompleksnost objekta, vec samo da krive prevede u matematicke formule radi manje Z-Buffer WF informacije... (i.e. "kako ti interno vidis krive u igri koje sam napravio, i sta imas od toga, apsolutno nas ne zanima, samo ih prikazi kako valja" - kaze dizajner/programer igre GeForce 3 chipu

). Upravo zbog toga se bojim da ce Displacement Mapping biti lep samo na papiru i u demoima, pa cak i ako ga DX podrzi... Da li znate koliko i najprodavaniji chip GeForce 3, ima DX8 funkcija koje programeri uopste ne primenjuju??? (A programeri znaju da mnogo ljudi ima taj chip). Radeon ih ima jos vise... Zasto bi Matrox-ov sistem DM podrzali, kada postoji baza ljudi koji imaju Radeon i GeForce i koji nece moci da ih prikazu...? Samo kada razvijaju igru za neku konzolu, jasno im je da ce to raditi, pa zato one i izgledaju tako dobro. Naravno, treba pozdraviti to sto Matrox uopste radi na necemu, medjutim, tesko ce proci ako taj chip ne bude imao veliki fillrate, i mem. bandwidth, mada ne sumnjam da ce mu toga nedostajati. Pomalo se bojim i za drajvere. Napisati vezni program za nesto tako kompleksno, ne moze ni ATI vec duze vreme... Problem nije u tome sto oni to "ne znaju".. Kada su radili chip, sve je i pisano u softveru, na kompjuterima, pa onda prevedeno u hardver...(kao sto je Magick i rekao, bice tesko prevesti sve to u hardver i bice potreban ogroman broj tranzistora za T&L koji radi sa 40-bit paletom) ...problem je kako napisati vezivni program da bi chip saradjivao sa API-jem...? Potrebno je predvideti mnogo stvari, a to je nemoguce... nemoguce je danas napisati stabilan drajver za tako kompleksan GPU... Za to je potrebno dosta vremena... i to iz mnogo razloga o kojima sada ne bih pricao, a verujem da mnogi vec i znaju na sta mislim.
Sto se malog dela oko istorijata tice, vise se slazem sa Bogdom... Vidi Magick, uhvatis se za Matrox i to kako je nekada bio brzi od ovog ili onog Voodoo-a ili GeForce-a... Pa da je tako bilo, bez obzira na razloge, Matrox se ne bi povukao...! M3D jeste bio promasaj - imao sam tu karticu i znam zasto je bilo tako... MGA igre (koje su bile na CD-u) su bile tamnije i ruznije od GLIDE igara, a ti pricaj sta hoces

... Jedan ortak burzuj mi se smejao sto samo igram MGA-ove demoe(UltimateRacePro) - dok je on igrao Glide igre i uzivao... Najveca mana m3D-a je bila sto je sa 2D karticom komunicirao kroz PCI port, koji je naravno, istovremeno koristio i za primanje podataka od sistemske memorije. To ga je zezalo, pa rasturalo... Secam se da su posle postavljali banere po velikim sajtovima i prodavali m3D za 30 dolara !!! (sve ovo mi ne mozes osporiti jer bi to bilo isto kao kada bi rekao da sam lud) a Vodoo je zadrzao cenu, i to malte ne istu....
Jeste, G200/G400 je bio brzi u 32-bita od TNT/TNT2, i bio je brzi u visokim rezolucijama, ali se secam i kako je to izgledalo. Npr, neka polu-zahtevna igra u 1280*1024 ide na nVidia-i sa 12fps a na Matroxu sa 14fps.... Bitno je sto je nVidia radila brze u 16-bita u koliko se tada i igralo... Secam se da sam imao Voodoo 2 i TNT i znam da Q3 u 32-bita nisam mogao da igram, cak ni u 800*600..(da uvek sam drzao onaj moj perverzni maksimum detalja, kojim i danas testiram). Sta vredi sto sam sa Matrox-om tada mogao da igram sa 3 frejma vise u 1280*1024 u 32-bita... kada je davao 12 frejmova, a nVidia 10 ili ajde, 8fps... Pazi, ovoga se dobro secam,i jos uvek imam PCPRESS iz tog vremena, te iza ovih mojih reci najverovatnije stoji i Sale Veljkovic, i gomila mojih drugova kojima sam tada pokazivao hw i koji su dolazili kod mene kada gubimo cas (za vreme onih strajkova i demonstracija

)
Znam da volis Matrox i bilo bi super kada bi se vratio (ovoga puta definitivno radimo zajedno review...

) , ali znajuci koliko su te nove tehnologije zaista podrzane, cak i posle dosta vremena, kao i koliko ih dobro drajveri podrzavaju, celoj stvari prilazim sa dozom skepticnosti... Stalno pricamo o nekom losem kvalitetu 2D-a od nVidia-e... a kada smo videli (neki jesu), powered by ATI kartice i njihov 2D, niko nije rekao "ej, fuck it, nVidia nije kriva sto se proizvodjaci ne trude da izvuku maksimalan kvalitet 2D-a iz njihovih kartica).. Pa da li ste videli Radeon 7500 by Gigabyte??? Koliko se 2D razlikuje od built by ATI-ja? Mnogo!!! Bilo bi sasvim kul kada bi malo protresli glavama i prestali da proizvate nVidia-u zbog toga - jer je zato kriva koliko i ja zbog intervencije u Afganistanu. Kazes da ne znas nijednu inovativnu tehniku koju je nVidia progurala? Izvini, kako su oni sada aktuelni sampioni po prodaji ? Tako sto su stalno krali od drugih? Daj onda nek i Matrox krade, pa nek postane najbolji, nemam nista protiv

))... Elem, S3Texture compression nije jedna od ekskluzivnih stvari bez koje nVidia ne bi mogla... Oni su preuzeli to od S3-ja jer im je tako bilo lakse, it's not like they couldn't have done their own nVtx compression... a postoji i druga strana medalje. Taj S3 je kod Savage-a koje je imao moj drug kod koga sam cesto "visio", radio problematicno cak i u METAL powered igrama (S3 je napravio poseban , da kazem API, koji pokrece Unreal /Tournament igru / engine... Ako bi ukljucili posebne teksture (sa drugog CD-a, za koji su se svi pitali cemu sluzi), igra bi pucala; patchovali smo je do besvesti, nije pomagalo.... Onda je nVidia sela i redone-ovala i poboljsala taj S3TC toliko mnogo, da je pitanje koliko je toga zapravo ostalo od S3-ja... DualHead (kod MX-a) nVidia nikada nije uzimala - ono sa MX-om je bio potpuni promasaj, to je zbog toga sto ga je nVidia odradila na brzinu, pa nije ni radilo kako treba. Sada je stvar uradjena mnogo bolje, sa nView-om... a za softver se pobrinuo Appian (cak ni ATI nije smislio svoj DualHead, vec ista ova kompanija). TrueForm nVidia isto nikada nije ni nameravala da preuzme?? Otkud ti to? FSAA je imala (softverski, multisampling) odmah posto je izasao Voodoo 5! Radio je slabo, ali je vremenom poboljsan, a kasnije je ubacen i u Engine.... Ko kaze da je preuzet od 3DFX-a? Mislis da je nesto uzeto od njihove tehnologije? Oni su ga pre kupili da bi ga unistili, monopola radi i te fore, a ne da bi nesto revolucionarno uzeli od njega... Da je 3DFX imao nesto revolucionarno, neki baja bi ulozio kesh u njih i danas bi i oni bili medju zivima... Informisi se malo o tim AA tehnologijama (o tome znam bas dosta

) , pa ces se i sam sloziti samnom. Quincunx je multisampling metod koji je nVidia izmislila, kao i Accuview... iDCT engine je takodje sama napravila, slazem se , dosta je dockan.
nVidia nije nista revolucionarno probila? How about TwinTexel? Moguce da nije originalna ideja, ali je realizovana na pravi nacin i zazivela je! How about T&L??? Ja verujem da je to njihova ideja - correct me if I'm wrong (to ne iskljucujem, kao ni da je neki tamo Kyro ili Matrox ili ne znam ni ja ko sve to (T&L) imao "na papiru" ili kao sample, jos pre 5 godina). Nista revolucionarno? How about programable engine? Pixel i Vertex shaderi na GF3??? Verujem da je neko to ranije "planirao" ali cinjenica je da je nVidia prva imala u prodaji... nVidia izbacuje cesto svoje kartice ? Pametni smo, pa ih ne kupujemo odmah - evo ja sam tek sada uzeo GF3Ti200...

Slika - ubi me ako se razlikuje od ATI Radeon SDR/DDR kartica (R8500 i Matrox zaista jesu bolji).