Šta je novo?

Matrox's on the road again!

magick

Čuven
VIP član
Učlanjen(a)
12.01.2001
Poruke
5,202
Poena
770
U poslednje vreme sve se više spekuliše oko matroxovih aktivnosti. Prema pouzdanim izvorima Matrox sprema nešto, tj novi grafički procesor, koji bi trebalo da ga vrati na igračko trežište ali i postavi kao vodeću kompaniju u razvoju grafičkih tehnologija. Ova informacija je potvrđena sa više strana, a svuda se provlači jedno misteriozno ime Perhelia. Perhelia ili "Sun dog" je prirodni odnosno astronomski fenomen koji se javlja prilikom pomračenja sunca, a vidi se kao sjajna tačka ili tačke na rubu pomračenog sunca. Obratite pažnju na matroxov logo. Spooky, zar ne? :) BTW: ono Perhelia je naknadno dodao neki entuzijasta-šaljivdžija, ali je logo autentičan, uostalom pogledajte njihov sajt.

Pre dva dana na GDC-u ( Game Development Conference ) Microsoft je održao svoju prezentaciju o DX9 i novim tehnologijama u 3D svetu, što je bilo ispraćeno demoima displacment mappinga koji su se vrteli na za sada nepoznatom matroxovom hardveru. :) Kratke .mpeg snimke tih demoa možete skinuti odavde Demo1 Demo2 Demo3 Prvi veći tekst o ovome se pojavio na japanskom jeziku, a grubi prevodi se mogu naći na matroxusers forumu.

Novi matroxov GPU bi trebalo da podržava napredne Vertex i Pixel shader-e, displacment mapping, a spominje se i 40-bitna paleta boja. Izgleda da će se Matrox ponovo iskazati kao vodeća kompanija po inovacijama i razvoju kompjuterske grafike. Do sada je poznato da su matroxovi inžinjeri i dizajneri nekako prevazišli problem propusne moći memorije ( DDR-FCRAM, eDRAM, ili nešto treće ??? ) i da će novi GPU biti kralj 3D-a i to po svemu sudeći ne samo po performansama već i po efektima, a tu su napredne multidisplay funkcije ( šta god to značilo ).

Ne znam šta da vam kažem. Skupljajte pare jer te kartice neće biti jeftine to je sasvim sigurno. :)
 
Odlično, nadam se da će i 2D prikaz biti kvalitetan kao i ranije, plus ima 40bit boje, mozda i ne moram da sumnjam(D) .

Kad izađe nadam se da će i ATi i nVidia poceti da spustaju cene.
Ako neko ima jos nekih tehnickih podataka neka ih postuje.
 
Pa dobro, trebalo bi to da bude stvarno chudo. 40bitna paleta. OOOOh, bash dobro zvuchi. Samo je pitanje kako ce se sve to implementirati i da li za tim postoji stavrno potrebe. Mislim da je i 32bitna paleta vec vise nego dovoljna, barem za nase ochi:D . E sada tu je i pitanje memorije koju ce koristiti i cene koja bi trebalo da bude konkuretna. Mislim da je Matrox resio da uleti na 3D trziste da bi i tu pokupio kajmak, jer tu lezi kinta. Samo se nesto plasim da ce 2D onda biti mnogo losiji, nego ranije po chemu je Matrox bio popularan. Ali o tom potom.
 
Uopšte nemojte sumnjati u kvalitet prikaza buduće matroxove kartice. Matrox idalje ostaje u semi-profi ~ profi segmentu tržišta i za sada je jedini proizvođač grafičkih kartica za PC koji dizajnira i proizvodi celu grafičku kartu, a ne samo GPU uz referentni dizajn. Zato ime Matrox® predstavlja garanciju kvaliteta i ne morate da razmišljate mnogo kada kupujete proizvod koji nosi njegovo ime.

Ne zaboravite da je Matrox jedna od vodećih kompanija u razvoju komjuterske grafike i da su mnoga njihova rešenja postala standard. Setite se njihovog WRAM-a koji je zahvaljujući pametnoj arhitekturi bio brži ali i 20% jeftiniji od VRAM-a. Njihove DualHead i multidisplay mogućnosti su idalje neprevaziđene po svojoj funkcionalnosti i pouzdanosti, a vidimo da su i ATi i Nvidia izašli sa svojim verzijama ( TwinView ), pri čemu je ATi ipak nešto bolji od Nvidie ali kuburi sa drajverima i softverskom podrškom. Matrox je prvi implementirao hardverski EMBM ( Environment-Mapped Bump Mapping ) kao najlepši i najrealističniji 3D efekat, a ubrzo zatim su to prihvatili i drugi proizvođači.

Ako ste mislili da je Nvidia pretplaćena na dobre 3D performanse grdno ste se prevarili. G400 je bio najbrži grafički čip kada se pojavio i nosio se sa TNT2 Ultra karticama, a u višim rezolucijama ( >1280 x 1024 ) i 32-bitnoj paleti boja ih je čak i tukao iako je radio na znatno nižem kloku ( 120/160 vs 175/200 Core/RAM ). Kako stvari stoje izgleda da će se istorija ponoviti, a obećanje ljudi iz Matroxa ispuniti - "Ponovo ćemo biti kraljevi 3D-a". Nemojte očekivati od Matroxa da će početi da štancuje grafičke karte sa životnim ciklusom od 6 meseci i upolovačenim drajverima, to se jednostavno neće dogoditi. Ne bi' se čak ni nadao da će te kartice imati bolji odnos cena/performanse u poređenju sa drugim komercijalnim rešenjima tipa "third party Nvidia graphic card", možda samo u početku. To će svakako biti nešto posebno, sa posebnom cenom, za posebne kupce. Tako će to izgledati našem prosečnom potrošaču koji uglavnom konzumira razne MX "orliće". Prema nekim izvorima Matrox će izbaciti čitavu seriju proizvoda baziranih na novom GPU-u, koji će biti namenjeni raznim segmentima tržišta, od enthusiastic-gamer pa do 3D professional. Karte će se razlikovati po količini RAM-a i kloku procesora, a verovatno i po još nekim dodatnim mogućnostima u Matrox stilu ( multi-display ). :) Postoji neproverena informacija da će cene tih karti po premijeri biti od $300 za entry-level do preko $1000 za profesionalu 3D kartu.

Zbog dosta pretpostavki i dezinformacija oko specifikacije budućeg Matroxovog GPU-a, ja ću se držati samo onih najpouzdanijih.
  • Novi grafički procesor će promeniti značenje naziva GPU, dajući grafičkom podsistemu dodatnu autonomiju.
  • Koristiće drugačiju arhitekturu memorije čime su, kako kažu, prevazišli problem propusne moći. Imajte u vidu da Matrox intenzivno razvija višemonitorske sisteme.
  • Displacement Mapping se najavljuje kao revolucionarna tehnika u 3D grafici, a prema izveštajima sa GDC-a Matrox i Microsoft tesno sarađuju na njenom razvoju i implementiranju kroz budući DX9.
  • U predstojećoj verziji Microsoftovog API-a će se naći i funkcije za mnogo naprednije multidisplay mogućnosti. To verovatno znači mnogo bolje performanse u 3D aplikacija kada se koriste dva ili više monitora.
  • 40-bitna paleta boja[/list:u] Ovo su grube crte buduće kartice i više vam neću otkriti :) da ne bi narušio kredibilitet ovih informacija. ( kada bi ste samo znali šta ja znam ... :D )

    Mislim da treba malo pojasniti stvari oko te 40-bitne palete boja. Prema sadašnjem 32-bitnom standardu koristi se 8 bita po kanalu ( RGBA ) za definisanje vrednosti piksela. To je dovoljno za prikazivanje preko 16 miliona boja s tim što se Alpha kanal koristi za povećanje preciznosti i kvaliteta. Prema 40-bitnom standardu koristiće se 10 umesto 8 bita za definisanje vrednosti boje. To se uvodi radi povećanja preciznosti pri obradi i senčenju slike, a ne radi povećanja spektra boja koje je moguće prikazati. Naime, računarski resursi su ograničeni i stoga postoji određeno odstupanje ( relativna greška ) pri radu sa realnim brojevima. Mnoge kalkulacije i transformacije koje se odvijaju u T&L jedinici ( Vertex ili Pixel shader-u ) generišu određenu grešku, tojest odstupanje od realne vrednosti. Proširujući tačnost na 10 bita dobijaju se preciznije vrednosti nakon senčenja ili neke druge operacije. Izlazni signal iz kartice će idalje odgovarati 32-bitnom, odnosno 24-bitnom, TrueColor standardu jer drugačiji monitori još nisu napravljeni, ali će se kalkulacije interno obavljati korišćenjem veće preciznosti ( sa više cifara ).

    Prema događajima na GDC-u Matrox i Microsoft su proteklih godina tesno sarađivali na razvoju grafičkih akceleratora treće generacije i po svemu sudeći taj naziv uopšte nije pretenciozan. Bilo je i najava o tehnikama koje će biti podržane tek u DX10 i kasnijim verzijama, što znači da se prave dugoročni planovi pa možemo očekivati veliku fleksibilnost i programabilnost budućih GPU-ova.
 
Pa šta je sad' ovo? Hajde slobodno! Želje, komentari, mišljenja, spekulacije, ....

Zar je moguće da ovo nikoga ne zanima? :confused:
 
Magic to sve meni previse lici na bajku. Posle tri godine apstinencije dolazi stari sampion i rastura aktuelnog vladara. To se ipak desava samo u Roki filmovima.
Pa i nVidia koja je za red velicine bogatija i koja takodje ima visestruko vece iskustvo u oblasti 3D-a u zadnje vreme napreduje koracicima. Rekao bih da je ova oblast toliko razvijena da su za neku revoluciju potrebna ogromna novcana sretstva i eksperiza koje Matrox jednostavno nema.
 
Ma ja verujem da Matrox ume da napravi odlicnu kartu ako ustanovi da mu je to u interesu, ali sumnjam da moze da bude konkurentan... doduse nije da ih je to do sada preterano potresalo :)
 
Bogda je napisao(la):
Magic to sve meni previse lici na bajku. Posle tri godine apstinencije dolazi stari sampion i rastura aktuelnog vladara. To se ipak desava samo u Roki filmovima.
Pa i nVidia koja je za red velicine bogatija i koja takodje ima visestruko vece iskustvo u oblasti 3D-a u zadnje vreme napreduje koracicima. Rekao bih da je ova oblast toliko razvijena da su za neku revoluciju potrebna ogromna novcana sretstva i eksperiza koje Matrox jednostavno nema.
E pa tebi to liči na bajku jer ne poznaješ činjenice. Matrox je osnovan, kako to oni vole da kažu, u vreme kada je Intel izbacio svoj 5 MHz 8085 mikroprocesor, Apple Computer Inc tek osnovan, a ime "Microsoft" tek trebalo da bude registrovano. Iste te 1976. godine su izbacili svoj prvi proizvod: Matrox Video RAM, a ostatak je istorija. To je kompanija koja ima ogroman broj patenata u oblasti video tehnologija i kompjuterske grafike. Matrox je taj koji svojim inovativnim rešenjima pomera granice i uvodi nove standarde ( DualHead, EMBM, i.t.d. ). Možda nvidijini proizvodi zbog svoje brzine deluju kao nešto posebno, al' verujte mi da su izmislili rupu na saksiji. Riva i TNT čipovi su bili ti koji su proslavili Nvidiu, a u poređenju sa tadašnjim G200 bili su smešni. G400 je drao TNT2 iako je radio na nižem taktu, zahvaljujući svojoj 256-bita Dual Bus arhitekturi i specijalno dizajniranom 32-bitnom Z baferu. Dodajte tome hardverski EMBM i tada jedinstvene DualHead mogućnosti i vidite ko je ko. :) Iz određenih razloga Matrox je tu stao i prestao sa projektovanjem novih grafičkih procesora, a treba razumeti i zašto.

Novi trendovi, poslovna politika neprestanog štancovanja i prodaje grafičkih čipova proizvođačima kartica, kao i životni ciklus proizvoda od 6 meseci ( pri čemu drajveri nikada ni ne stignu da sazre ) su ti koji su izdvojili Nvidiu. Vidimo da su i drugi proizvođači kartica, koji žele da ostanu u igri za masovno igračko tržište, bili prinuđeni da promene svoju poslovnu politiku i povinuju se novim trendovima. Što se tiče tehničkih rešenja i samog dizajna, Nvidija prodaje sirovu snagu bez ikakvih inovacija, a konkurentnu cenu postiže smanjenjem troškova u domenu softverske podrške i saradnjom sa third party proizvođačima. Pametno, pametno, nema šta ... ali za onoga ko se pali na ekonomiju i biznis, dok je za nas korisnike i hardveraše to veliki hendikep. Još jedna stvar koju je interesantno i korisno znati je da je Matrox privatna kompanija za razliku od Nvidije, ATi-a i ostalih na čijem čelu su upravni odbori, tako da je njegova politika prilično ćudljiva. :)

Mnogi tvrde da Nvidia nije uradila ništa revolucionarno, već da svo reme frizira GF arhitekturu, a prema nekima to ide čak od vremena TNT čipa. Naime, GF zaista deluje kao duplirano jezgro TNT čipa, sa dodatom T&L jedinicom. Od tih dana pa na ovamo, razvoj grafičkih karti za Nvidiju se sveo na povećanje broja tranzistora, tj prebacivanje funkcija u logičke mreže ( hardver ), i podizanje frekvencija memorije i samog GPU-a. Naravno da je i za to potreban napor ( nema leba bez motike ), a u krajnjoj liniji je i prirodno ( svi to rade: Intel sa P6, AMD sa K7, pa čak i Matrox G400, G450 ), ali smo za sve ove godine ostali uskraćeni za nekakav pravi pomak u razvoju 3D grafike. Sve što je iole valjalo smislili su S3, 3Dfx, Matrox, ATi i drugi još pre više godina. Nvidia podržava S3 kompresiju tekstura, kojoj može da zahvali na povećanju performansi, a od nedavno i 3Dfx-ov FSAA koji su otkupili zajedno sa firmom. Kol'ko im je tek godina i modela trebalo da implementiraju hardverski IDCT koji ATi koristi još od Rage 128 čipa, dok Matrox odavno ima svoj "motion compression" engine. Slab 2D engine je upravo ono što svi zameraju Nvidiji, a ona je jako malo truda uložila da to promeni. Umesto toga samo povećavaju propusnu moć memorije i klok procesora koji s vremena na vreme dobije po koju dodatnu T&L funkciju i manju izmenu u samom jezgru. Naravno da je ovo banalizovano i nemojte shvatiti bukvalno, ali to zaista tako izgleda kada se setimo zlatnog doba razvoja u kome su nastale mnoge danas korišćene tehnike poput renderovanja vidljivih površina ( zaboravih kako se to zvaše ), kompresija tekstura, mapiranje tekstura, senčenje, anti aliasing, i.t.d.

A sada malo o novom GPU-a i spekulacijama: Već se duže vreme provlače priče o tome kako Matrox sprema nešto revolucionarno u saradnji sa Amiginim grafičkim stručnjacima. Ovo je čak i potvrđeno na amiginom sajtu kroz specifikaciju budućeg Amiga One proizvoda koji bi trebalo da koristi "matroxov grafički adapter nove generacije". Stvari su se dodatno podgrejale nakon što je pre godinu dana na nekom skupu jedan pijani matroxov službenik "u poverenju" rekao da spremaju nešto zaista revolucionarno i da će ponovo biti kraljevi 3D-a. G800, G1000, Condor, Fusion i sada Parhelia su imena koja su se pojavljivala u raznim glasinama, a ovo poslednje je izgleda pravo. Digla se prašina kao nikada do sada, a čak je i Haig ( administrator matroxovog tehnical support foruma ) prećutno potvrdio da se nešto definitivno kuva u njihovim laboratorijama. Za sada ipak nema nikakvih zvaničnih informacija, a Matrox uspeva da sve održi u strogoj tajnosti, možda baš zahvaljujući tome što ne sarađuje sa third party proizvođačima koji bi sigurno bili rupa za oticanje. Po prvi put smo stvarno blizu nečemu i kako to MatroxUser-i vole da kažu: "something will happen SOON™". :D

Prva pouzdana informacija i potvrda ovim pretpostavkama je predavanje o 3D tehnologijama, akceleratorima treće generacije i DX9 API-u koje su zajedno održali matroxovi i microsoftovi predavači na GDC-u ( Game Development Conference ) pre neki dan. Skinite one .mpeg filmove i uverite se i sami: Microsoftova prezentacija DX9 je sadržala demoe Displacment Mappinga koji su se vrteli na matroxovom hardveru!!! ( nešto ne verujem da je to bio G400 ili G550 :) ) Primetićete da svi demoi u donjem desnom uglu imaju žig "matrox", a u trećem filmu se jasno čuje da predavač spominje Displacment mapping tehniku koja koristi matroxov displacment mapping hardver!!! Filmovi su oko 700-800KB pa izvolite, linkove imate u prvom postu ( Demo1, Demo2, Demo3 ). Znate kako kažu "Seeing is believing". :)

Naravno ne treba očekivati da će Matrox preuzeti prvo mesto po prodaji grafičkih kartica jer postoji i pitanje cene, ali da će još jednom pomeriti granice i postaviti standar ( domaći zadatak ) u to ne sumnjam. Matrox će uvek imati svoju klijantelu, a ako ovo zaista bude tako revolucionarno kao što ga najavljuju ljudi iz Microsofta i Matroxa, onda će verovatno i Nvidija i drugi da se priključe toj klijanteli, ali u smislu licenci.
 
Dandy je napisao(la):
Ma ja verujem da Matrox ume da napravi odlicnu kartu ako ustanovi da mu je to u interesu, ali sumnjam da moze da bude konkurentan... doduse nije da ih je to do sada preterano potresalo :)
Vrlo si blizu. :) Matroxu je definitivno potreban novi grafički procesor, ako nizbogčega drugog onda zbog budućih video editing proizvoda koji su sve zahtevniji po pitanju real time grafike i animacije. Nakon onih pokušaja Nvidije da se ubaci na profesionalno tržište sa višemonitorskim mogućnostima, Matrox mora da odgovori jer je doćeralo cara do duvara. Matrox je uduvek pravio široko, pa su njegovi proizvodi imali astronomske cene po premijeri, a i održavali su cenu jako dugo. Deo svakog proizvoda u grafičkoj industriji je softverska podrška, a to dosta košta. Napisati dobre drajvere i stalno ih optimizovati i debagovati, uopšte nije lak a još manje jeftin posao. Programeri koji to rade papreno su plaćeni, tako da jedana takva pouzdanosti i stabilnost kakvu pružaju matroxovi proizvodi mora i da košta. To je ono što njihove proizvode svrstava u jednu posebnu klasu i odeđuje tržište kome su namenjeni. Iskreno verujem da će Matrox biti opaki konkurent u profesionalnom segmentu tržišta da i će bez većih problema potisnuti ostale, naročito u Multidisplay segmentu.

Danas se Matrox Electronic Systems sastoji od tri odelenja:
  • Matrox Imaging - an industrial, scientific and medical imaging division
  • Matrox Video Products Group - a professional, high-end video division
  • New Business Media Division - a high-performance networking solutions division.[/list:u] Njihovo poslovanje je oduvek bilo stabilno i što je još važnije stabilno, baš zahvaljujući specifičnosti tržišta kome su okrenuti i njegovim potrebama. Matrox posluje na sigurno, putem ugovora i partnerstva, a za protekle dve-ipo decenije je radio isporuke za američku vojsku, Wall Street, razne proizvođače medicinske opreme, televizijske kuće, a nedavno i lanac McDonald restorana po Kanadi i Americi. Stabilnost njihovog poslovanja se ogleda i u ugovorima koje trenutno ima sa največim svetskim OEM proizvođačima a to su: Compaq, Hewlett-Packard, Dell, IBM, Fujitsu, Fujitsu Siemens Computers i Micron. Po svemu sudeći za Matrox nema zime, a o njihovim mogućnostima i potencijalima sudite sami. Više o istorijatu i poslovanju Matrox-a možete čitati ovde.
 
A da li mozesh da pojasnish sta se podrazumeva konkretno pod displacement mappingom, odnosno sta ona zapravo radi?
 
Magick ti si izgleda moj komentar primio kao licnu uvredu. Veruj mi dobro sam upoznat i sa istorijom i sa aktuelnim spekulacijama.
To da je Matrox ima veliku tradiciju je opstepoznato ali njihova 3D istorija nije tako blistava:

Prvo originalni Mistique i nesrecni m3D sa PowerVR chipom su bili zestoko izblamirani od strane Voodoo kartica.

Zatim izlazo Voodoo 2 i Matrox pokusava da ga pristigne sa G200. Kartica je bila sjajna i napredna za to vreme ali isuvise spora da se nosi sa tadasnjim sampionom. Voodoo 2 je bio otprilike duplo brzi od G200 a TNT chip otprilike 30%.

Zatim dolazi generacija V3/TNT2/G400. Tada je Matrox jedino bio u celu ali nikako nije drao TNT2 kao sto ti kazes. A nije ni radio na nizem kloku od TNT2. Obicni TNT2 je radio na 125/150MHz a G400 na 125/166 (core/memory). TNT2 Ultra je radio na 150/183 a G400MAX na 166/200 sto je daleko vise od nVidinog ceda. Generalno TNT2 je bio bolji u 16bitnom renderingu, koji je tada bio dominantan, dok je G400 bio bolji u 32bitnom. Situacija se malo popravila po Matrox kada su izbacili specijale drivere optimizovane za Pentium 3 i tada aktuelne igre ali to je retko ko upamtio jer je ubrzo posle toga izasao GeForce 256 i svi su zaboravili na G400.

A da ne zaboravimo koliko je godina trebalo Matrox-u da napravi potpunu OpenGL podrsku. Godinama su vukli miniGL.

Dalje, DualBus nije izmisljen na G400 seriji vec na G200 koja je doduse imala 128bitni DualBuS.

I na kraju drago mi je da si pomenuo cenu programera. Pa sta su radili ti zaista skupi "3D inzenjeri i programeri" protekle tri godine. Zar Matrox ne bi probao da unovci barem neke od izuzetnih 3D otkrica u protekle tri godine?
Za to vreme nVidia je stalno radila i usavrsavala svoje cipove plus je za bagatelu pre godinu i nesto dobila 3dfx-ove i Gigapixelove programere i inzenjere.

P.S. Izvini za pogresno spelovanje tvoga imena u prethodnom postu.
 
gladiac je napisao(la):
A da li mozesh da pojasnish sta se podrazumeva konkretno pod displacement mappingom, odnosno sta ona zapravo radi?
Pazi, moje poznavanje ove materije nije tako veliko i ne bih hteo da lupetam svašta i samo vas zbunjujem da bi se pravio važan. Izveštaj sa GDC-a koji govori o svemu ovome i donekle objašnjava buduću tehnologiju objavljen je na japanskom, a google i prevodi drugih automatskih prevodilaca su toliko loši da je zaista slabo šta razumljivo, pogotovu što objašnjava jedan potpuno nov i nepoznat koncept. Ipak, pokušaću da vam prenesem i objasnim onoliko koliko znam i koliko sam razumeo, ograničavajući se samo na potpuno jasne i nepobitne činjenice.

Displacement Mapping je tehnika koja treba da omogući jedan potpuno nov, foto-realističan, prikaz nepravilnih oblika ( ljudsko telo npr ). U osnovi se bavi istom problematikom kao i ATi-ev TrueForm samo na jedan savršeniji i originalniji način. Ovu tehniku su, verovatno figurativno, nazvali proširenjem Bump Mappinga, jer na sličan način manipuliše sa pravim linijama poligona baš kao što EMBM bezličnoj ravnoj površini daje realističnost neravne teksture. Ovo je varovatno objašnjenje za retardirane i ne govori mnogo o samoj tehnici, ali je to sve što sam uspeo da izvučem iz gomile nepovezanih engleskih reči prevedenih sa japanskog. Još jedan zanimljiv podatak je da se za Bump Mapping obradu koriste integer brojevi 8-16 bita dok Displacment Mapping zahteva 32-bita floating point, što implicira da će biti potreban zaista veliki broj tranzistora da bi se to potpuno implementiralo u hardver.

Multidisplay mogućnosti će biti dodatno proširene pojačavanjem 3D performansi prilikom korišćenja dva ( ili više ) monitora. Bilo je priče i oko tehnike koja će biti korišćena u tu svrhu, a zna se da će DX9 podržavati te mogućnosti. Kol'ko sam razumeo DX9 će biti veliki preokret u kompjuterskoj grafici, a novi matroxov GPU će biti prvi procesor koji će to podržavati. Ima još svakakvih informacija i dosta toga, ali ću se ja zadržati samo na sigurnim informacijama i dobro poznatim činjenicama.
 
Bogda je napisao(la):
Magick ti si izgleda ovo primio kao licnu uvredu. Veruj mi dobro sam upoznat i sa istorijom i sa aktuelnim spekulacijama.
Uopšte nisam to shvatio kao ličnu uvredu i nije mi jasno na osnovu čega si to zaključio. :confused: Da si stvarno dobro upoznat sa stvarima, a vidim da svakako jesi upućen, ne bi mogao da tako apriori odbaciš mogućnost da Matrox napravi išta valjano.
To da Matrox ima veliku tradiciju je opstepoznato ali njihova 3D istorija nije tako blistava:
Ne bih se složio sa tim, G200 i G400 su bili najbrži grafički procesori, i po 2D i po 3D performansama, u vreme kada su se pojavili na tržištu. Ako baš hoćeš mogu da ti iskopam testove koji to potvrđuju, al' 'ajmo po redu.
Prvo originalni Mistique i nesrecni m3D sa PowerVR chipom su bili zestoko izblamirani od strane Voodoo kartica.
Taj, kako ti kažeš, nesrećni m3D uopšte nije bio izblamiran od strane Voodoo-a, štaviše imao je bolju sliku i 24-bitnu paletu boja o kojoj Voodoo nije mogao ni da sanja, ali ga je ubila slaba podrška proizvođača igara pa su mnoge igrice radile sa njim očajno ili nisu htele da rade uopšte. Što se samog tehničkog rešenja tiče, zamerke nema. Eto vidiš da nisi dovoljno upućen. :)
Zatim izlazo Voodoo 2 i Matrox pokusava da ga pristigne sa G200. Kartica je bila sjajna ali isuvise spora da se nosi sa tadasnjim sampionom. Voodoo 2 je bio otprilike duplo brzi od G200 a TNT chip otprilike 40%.
Prvo uopšte nije tačno da je Voodoo2 bio duplo brži od G200, razlika je bila između 8-30% ( prosečno 17% ) u zavisnosti od igre i rezolucije ( pogledaj link koji sam ti dole dao ). Drugo, porediš ne poredivo, pitanje je samo da li to radiš smerno ili iz neznanja.

Voodoo i Voodoo2 su 3D akceleratori u vidu zasebnih add-on kartica, a G200 je kompletan grafički procesor koji je podržavao 3D akceleraciju. Znači u jednom slučaju imamo bilo koju grafičku kartu + Voodoo2 akcelerator, a u drugom samo jednu grafičku kartu ( G200 ) koja tu akceleraciju vrši u svom grafičkom procesoru. Zato je glupo reći da je Matrox pokušao da stigne Voodoo2 u bilo čemu, jer to jednostavno nije grafička kartica već 3D akcelerator koji se kupovao zasebno i radio uz bilo šta. Drugo, 3D performanse G200 uopšte nisu bile tako loše u poređenju sa Voodoo2, a bile su daaaleko ispred tada aktuelnog Nvidijinog Riva 128 konkurenta. O kvalitetu 3D prikaza kome je doprinosio 32-bitni rendering i full scene anti-aliasing da i ne govorim, G200 je jednostavno sahranio Voodoo2 i svu ostalu konkurenciju. O tome možeš pročitati ovde. Inače G200 je bila karta za profesionalnu primenu, dok je Voodoo2 bio igračka.

Šest meseci kasnije ( H2 1998 ) Nvidija izbacuje TNT čip, koji je imao još bolje 3D performanse, ali ni približan 2D ili 3D kvalitet. Sledeći grafički procesor ( G400 ) Matrox izbacuje sredinom 1999, nekoliko meseci nakon nvidijinog TNT2, i ponovo preuzima vodeće mesto uz mnoštvo inovativnih mogućnosti poput EMBM i DualHead.
Zatim dolazi generacija V3/TNT2/G400. Tada je Matrox jedino bio u celu ali nikako nije drao TNT2 kao sto ti kazes. A nije ni radio na nizem kloku od TNT2. Obicni TNT2 je radio na 125/150MHz a G400 na 125/166 (core/memory). TNT2 Ultra je radio na 150/183 a G400MAX na 166/200 sto je daleko vise od nVidinog ceda. Generalno TNT2 je bio bolji u 16bitnom renderingu, koji je tada bio dominantan, dok je G400 bio bolji u 32bitnom.
G400 radi na 120/160, za MAX nisam siguran ali mislim da mu core nikako ne radi na 166MHz, pre će biti 150/183. G400 jeste bio brži od TNT2, sviđalo se to tebi ili ne. Ne znam da li je to bilo standardno ili se radilo o OC kartici, ali sam ja video testove u kojima je TNT2 Ultra radila na 175/200 i tek po koji frejm bila brža od G400MAX u 16-bita, dok je u 32-bita bivala deplasirana iako radi na višem kloku. ( pogledaj test G400MAX ) Verzija TNT2 na 150/183 je bila sporija od MAX-a čak i u 16-bitnom režimu, a rekao bih da je na istom taktu radio i MAX. Pri tome treba napomenuti da je i ta prednost TNT2 Ultre na 175/200 u 16-bitnom režimu bila svega nekoliko frejmova ( do 5 fps ). Kvalitet prikaza i EMBM na Matroxu su toliko odskakali da je prosto smešno porediti ga sa TNT2. DualHead i "motion compression engine" su eliminisali potrebu za dodatnom MPEG encoding karticom i davali kartici dodatnu vrednost i širok spektar mogućnosti. TNT2 je bio deplasiran.

BTW: reći da je 16-bitni rendering bio dominantan i time davati prednost Nvidiji je, izvini na izrazu, glupost. 16-bitni rendering je bio dominantan zato što je falilo hardverskih resursa za precizniji. Šta ti do znači dominantan? Znači da si morao da biraš između igrivog frejmrejta i 32-bitne palete. Sa G400 performase su padale pri 32-bitnoj paleti tek sa par frejmova ( 2-4 fps ) u poređenju sa 16-bit režimom, a slika je bila neuporedivo bolja. Čemu onda 16-bita?
Situacija se malo popravila po Matrox kada su izbacili specijale drivere optimizovane za Pentium 3 i tada aktuelne igre ali to je retko ko upamtio jer je ubrzo posle toga izasao GeForce 256 i svi su zaboravili na G400.
Da, verovatno su svi podacali u đubre svoje G400 kartice i pohitali da kupe GF256. GF256 jeste brži u igricama, ali tada nije bilo igrice koja nije mogla da se igra na G400 u 1024x768x32, a i pored toga G400 ima svojih komparativnih prednosti. DualHead, TV-out, DVDMAX, reprodukcija digitalnih video zapisa, pa čak i izgled 3D grafike zahvaljujući Vibrant Color renderingu, EMBM i RAMDAC-u na 300, odnosno 360MHz kod G400MAX.

Činjenica je da je GF256 bio grafički procesor nove generacije, sa implementiranom T&L jedinicom i G400 nije bio konkurentan u pogledu 3D-a. Trebalo je da usledi Matroxov odgovor u vidu Fusion ili G800 kartice koja bi koristila dva G400 procesora ili poput GF256 integrisala ih u jedno jezgro, ali Matrox se povukao iz određenih razloga. Uostalom matroxova poslovna politika se značajno razlikuje od štancovanja čipova sa životnim ciklusom od 6 meseci.
A da ne zaboravimo koliko je godina trebalo Matrox-u da napravi potpunu OpenGL podrsku. Godinama su vukli miniGL.
To je tačno. Jesu prilično kuburili sa OpenGL-om jer su favorizovali Direct X. Pa i ovaj izveštaj sa GDC-a ide u prilog tome. :D
Dalje, DualBus nije izmisljen na G400 seriji vec na G200 koja je doduse imala 128bitni DualBuS.
Nije, ali to tvoje "doduše" sve govori. 256-bit DualBus!!!
I na kraju drago mi je da si pomenuo cenu programera. Pa sta su radili ti zaista skupi "3D inzenjeri i programeri" protekle tri godine.
To ćemo uskoro da vidimo. :)
Zar Matrox ne bi probao da unovci barem neke od izuzetnih 3D otkrica u protekle tri godine?
Da li si ti nekada čuo za dugoročnu investiciju? Uostalom protekle tri godine su unovčavali svoja visoko cenjena rešenja, samo ne na igračkom tržištu.
Za to vreme nVidia je stalno radila i usavrsavala svoje cipove plus je za bagatelu pre godinu i nesto dobila 3dfx-ove i Gigapixelove programere i inzenjere.
Pa i nije se nešto pretrgla, samo štancuju te procesore i slepo povećavaju sirovu snagu bez ijednog pravog pomaka u razvoju. Sve inovativne tehnike izmišljaju i probijaju drugi: S3 texture compression, Matrox EMBM, Matrox DualHead, ATi TrueForm, 3Dfx FSAA a Matrox je to podržavao softverski, i.t.d. da ne nabrajam više. Od toga Nvidija je usvojila S3 compression, FSAA, TwinView ( DualHead ), pa sada i IDCT, a ne znam ni jednu revolucionarnu stvar koju je NVidija patentirala i progurala. Za sve ove godine Nvidija nije bila u stanju da napravi ni valjan 2D engine, a o drajverima da i ne govorim. Izbacivanje novog grafičkog procesora svakih 6 meseci je ceđenje tržišta i izmamljivanje para, a ne razvoj.
P.S. Izvini za pogresno spelovanje tvoga imena u prethodnom postu.
Ma ništa, navik'o sam. :) Valjda svi u početku misle da sam se ja zeznuo ili ne znam kako se na engleskom speluje reč "magija". :D
 
Evo da i ja dam svoje misljenje o ovom zanimljivom tredu...Naime, posetio sam i ja odredjene URL lokacije i dva foruma na kojima sam nasao jos informacija koje tek treba da citam. Neke sam procitao i vec sada mogu da zakljucim da ce Matrox ipak malo zakasniti na trziste... Ovaj cip ce videti svetlo dana tek za oko 6 meseci, a do tada ce DX9 kompatibilni akceleratori od ATI-ja i nVidia-e vec biti u produkcionim pogonima. Iskreno sam uzbudjen zbog novih vesti o Perhelia chip-u; neki pominju i G1000, a neki G800 (iG1000), pri cemu ce G800 pokretati "gaming" kartice (nista o konfiguraciji samih modela nije receno), dok ce G1000 biti zaduzen za "pro" modele (nesto kao GeForce i Quadro). E sada, kao najvaznije prednosti novog chip-a, izdvojio bih svakako rad sa 40-bit paletom (nije to, ko sto kaze Magick) 40-bitni <prikaz>, vec samo interni engine radi sa 40-bitnim RGBA vrednostima. To je i dalje dosta daleko od profi rendering kartica - moderne rendering (softver) masine rade sa jos vecim pixel vrednostima - greske kod njih su vrlo male ili nikakve... Ovo mozete grubo uporediti sa prikazom geometrije u danasnjim game engine-ima... Secate se komandi r_subdivisions ili r_LODcurveError ? Cak i sa zamisljenom vrednoscu od 5000, igrac vidi savrsenu krivu, jer bi sa vrednosti od 1, igra radila daleeeeko sporije (Carmack je cak ogranicio skalu greske, te i sa vrednoscu od 0, greska ipak postoji i velika je, pa sa, zato ceo raspon i definisanje nazvao "zamisljenim"), a i Q3 engine je daleeeko od ozbiljne rendering masine... Upravo tako je i sa bojama i njihovim prikazom, dihtering-om i ostalim sitnicama vezanim za "masovne" gaming i semi-pro masine i upotrebe...
Druga bitna stvar je displacement mapping... Ona, pored onoga sto je Magick na jednostavan nacin objasnio (ili pokusao da objasni), karakteristicna po tome sto moze da primeni i rendering materijala i predstavlja prosirenje slicne nVidia-ine tehnike vidjene u GF3 (koja jos nije primenjena u igrama (mozda u nekoj X-BoX igri ?)). Dakle, fizicki deo masine ce manipulisati materijalima i oblikom (novi MGA chip ce "znati" koji je materijal u pitanju i kakvo je stanje u "okolini", pa ce se shodno tome i "prikazivati". Pomalo je nejasno da li i kako ce programeri implementirati dodatne infromacije o objektu: jasno je da je ATI truform slabo implementiran bilo gde iako su najavljivali da dodatna informacija nije potrebna (cak ni patch) - a evo, ja ni u RTCW ni u Renegade, nisam video apsolutno nijedan dokaz (zaobljen objekat i sl.) da je TruForm ukljucen. HigherOrder Surfaces se znacajnije razlikuje od n-Patches sistema, bas po tome sto je nezavisan od programera, a i njegov zadatak nije da poboljsa kompleksnost objekta, vec samo da krive prevede u matematicke formule radi manje Z-Buffer WF informacije... (i.e. "kako ti interno vidis krive u igri koje sam napravio, i sta imas od toga, apsolutno nas ne zanima, samo ih prikazi kako valja" - kaze dizajner/programer igre GeForce 3 chipu :)). Upravo zbog toga se bojim da ce Displacement Mapping biti lep samo na papiru i u demoima, pa cak i ako ga DX podrzi... Da li znate koliko i najprodavaniji chip GeForce 3, ima DX8 funkcija koje programeri uopste ne primenjuju??? (A programeri znaju da mnogo ljudi ima taj chip). Radeon ih ima jos vise... Zasto bi Matrox-ov sistem DM podrzali, kada postoji baza ljudi koji imaju Radeon i GeForce i koji nece moci da ih prikazu...? Samo kada razvijaju igru za neku konzolu, jasno im je da ce to raditi, pa zato one i izgledaju tako dobro. Naravno, treba pozdraviti to sto Matrox uopste radi na necemu, medjutim, tesko ce proci ako taj chip ne bude imao veliki fillrate, i mem. bandwidth, mada ne sumnjam da ce mu toga nedostajati. Pomalo se bojim i za drajvere. Napisati vezni program za nesto tako kompleksno, ne moze ni ATI vec duze vreme... Problem nije u tome sto oni to "ne znaju".. Kada su radili chip, sve je i pisano u softveru, na kompjuterima, pa onda prevedeno u hardver...(kao sto je Magick i rekao, bice tesko prevesti sve to u hardver i bice potreban ogroman broj tranzistora za T&L koji radi sa 40-bit paletom) ...problem je kako napisati vezivni program da bi chip saradjivao sa API-jem...? Potrebno je predvideti mnogo stvari, a to je nemoguce... nemoguce je danas napisati stabilan drajver za tako kompleksan GPU... Za to je potrebno dosta vremena... i to iz mnogo razloga o kojima sada ne bih pricao, a verujem da mnogi vec i znaju na sta mislim.

Sto se malog dela oko istorijata tice, vise se slazem sa Bogdom... Vidi Magick, uhvatis se za Matrox i to kako je nekada bio brzi od ovog ili onog Voodoo-a ili GeForce-a... Pa da je tako bilo, bez obzira na razloge, Matrox se ne bi povukao...! M3D jeste bio promasaj - imao sam tu karticu i znam zasto je bilo tako... MGA igre (koje su bile na CD-u) su bile tamnije i ruznije od GLIDE igara, a ti pricaj sta hoces :)... Jedan ortak burzuj mi se smejao sto samo igram MGA-ove demoe(UltimateRacePro) - dok je on igrao Glide igre i uzivao... Najveca mana m3D-a je bila sto je sa 2D karticom komunicirao kroz PCI port, koji je naravno, istovremeno koristio i za primanje podataka od sistemske memorije. To ga je zezalo, pa rasturalo... Secam se da su posle postavljali banere po velikim sajtovima i prodavali m3D za 30 dolara !!! (sve ovo mi ne mozes osporiti jer bi to bilo isto kao kada bi rekao da sam lud) a Vodoo je zadrzao cenu, i to malte ne istu....
Jeste, G200/G400 je bio brzi u 32-bita od TNT/TNT2, i bio je brzi u visokim rezolucijama, ali se secam i kako je to izgledalo. Npr, neka polu-zahtevna igra u 1280*1024 ide na nVidia-i sa 12fps a na Matroxu sa 14fps.... Bitno je sto je nVidia radila brze u 16-bita u koliko se tada i igralo... Secam se da sam imao Voodoo 2 i TNT i znam da Q3 u 32-bita nisam mogao da igram, cak ni u 800*600..(da uvek sam drzao onaj moj perverzni maksimum detalja, kojim i danas testiram). Sta vredi sto sam sa Matrox-om tada mogao da igram sa 3 frejma vise u 1280*1024 u 32-bita... kada je davao 12 frejmova, a nVidia 10 ili ajde, 8fps... Pazi, ovoga se dobro secam,i jos uvek imam PCPRESS iz tog vremena, te iza ovih mojih reci najverovatnije stoji i Sale Veljkovic, i gomila mojih drugova kojima sam tada pokazivao hw i koji su dolazili kod mene kada gubimo cas (za vreme onih strajkova i demonstracija :))

Znam da volis Matrox i bilo bi super kada bi se vratio (ovoga puta definitivno radimo zajedno review... :)) , ali znajuci koliko su te nove tehnologije zaista podrzane, cak i posle dosta vremena, kao i koliko ih dobro drajveri podrzavaju, celoj stvari prilazim sa dozom skepticnosti... Stalno pricamo o nekom losem kvalitetu 2D-a od nVidia-e... a kada smo videli (neki jesu), powered by ATI kartice i njihov 2D, niko nije rekao "ej, fuck it, nVidia nije kriva sto se proizvodjaci ne trude da izvuku maksimalan kvalitet 2D-a iz njihovih kartica).. Pa da li ste videli Radeon 7500 by Gigabyte??? Koliko se 2D razlikuje od built by ATI-ja? Mnogo!!! Bilo bi sasvim kul kada bi malo protresli glavama i prestali da proizvate nVidia-u zbog toga - jer je zato kriva koliko i ja zbog intervencije u Afganistanu. Kazes da ne znas nijednu inovativnu tehniku koju je nVidia progurala? Izvini, kako su oni sada aktuelni sampioni po prodaji ? Tako sto su stalno krali od drugih? Daj onda nek i Matrox krade, pa nek postane najbolji, nemam nista protiv :)))... Elem, S3Texture compression nije jedna od ekskluzivnih stvari bez koje nVidia ne bi mogla... Oni su preuzeli to od S3-ja jer im je tako bilo lakse, it's not like they couldn't have done their own nVtx compression... a postoji i druga strana medalje. Taj S3 je kod Savage-a koje je imao moj drug kod koga sam cesto "visio", radio problematicno cak i u METAL powered igrama (S3 je napravio poseban , da kazem API, koji pokrece Unreal /Tournament igru / engine... Ako bi ukljucili posebne teksture (sa drugog CD-a, za koji su se svi pitali cemu sluzi), igra bi pucala; patchovali smo je do besvesti, nije pomagalo.... Onda je nVidia sela i redone-ovala i poboljsala taj S3TC toliko mnogo, da je pitanje koliko je toga zapravo ostalo od S3-ja... DualHead (kod MX-a) nVidia nikada nije uzimala - ono sa MX-om je bio potpuni promasaj, to je zbog toga sto ga je nVidia odradila na brzinu, pa nije ni radilo kako treba. Sada je stvar uradjena mnogo bolje, sa nView-om... a za softver se pobrinuo Appian (cak ni ATI nije smislio svoj DualHead, vec ista ova kompanija). TrueForm nVidia isto nikada nije ni nameravala da preuzme?? Otkud ti to? FSAA je imala (softverski, multisampling) odmah posto je izasao Voodoo 5! Radio je slabo, ali je vremenom poboljsan, a kasnije je ubacen i u Engine.... Ko kaze da je preuzet od 3DFX-a? Mislis da je nesto uzeto od njihove tehnologije? Oni su ga pre kupili da bi ga unistili, monopola radi i te fore, a ne da bi nesto revolucionarno uzeli od njega... Da je 3DFX imao nesto revolucionarno, neki baja bi ulozio kesh u njih i danas bi i oni bili medju zivima... Informisi se malo o tim AA tehnologijama (o tome znam bas dosta:)) , pa ces se i sam sloziti samnom. Quincunx je multisampling metod koji je nVidia izmislila, kao i Accuview... iDCT engine je takodje sama napravila, slazem se , dosta je dockan.

nVidia nije nista revolucionarno probila? How about TwinTexel? Moguce da nije originalna ideja, ali je realizovana na pravi nacin i zazivela je! How about T&L??? Ja verujem da je to njihova ideja - correct me if I'm wrong (to ne iskljucujem, kao ni da je neki tamo Kyro ili Matrox ili ne znam ni ja ko sve to (T&L) imao "na papiru" ili kao sample, jos pre 5 godina). Nista revolucionarno? How about programable engine? Pixel i Vertex shaderi na GF3??? Verujem da je neko to ranije "planirao" ali cinjenica je da je nVidia prva imala u prodaji... nVidia izbacuje cesto svoje kartice ? Pametni smo, pa ih ne kupujemo odmah - evo ja sam tek sada uzeo GF3Ti200... :) Slika - ubi me ako se razlikuje od ATI Radeon SDR/DDR kartica (R8500 i Matrox zaista jesu bolji).
 
P.S. Magick, nemoj da se ljutis, ja sam samo dao svoje vidjenje stvari, nikako te ne ubedjujem i teram da ga prihvatis... Ali ni ja svoje necu promeniti, samo da znas :)

Sve ovo se malo odaljilo od novog Perhelia chipa... Ali cisto da znate da sam jos tu i "da Vas posmatram"

Pozdrav svima....
 
Re: MaX-u

Prvo, ja nisam rekao da će se koristiti 40-bitni prikaz, jer takvi monitori još uvek nisu napravljeni, već sam objasnio da se radi o proširenoj tačnosti u internim proračunavanjima. Znam da ima mnogo teksta i da je naporno sve to čitati, ali moraš to da uradiš ako želiš bilo šta da prigovoriš. Ne znam stvarno čemu ono:
(nije to, ko sto kaze Magick) 40-bitni <prikaz>, ...
Kao što rekoh, objasnio sam ja to gore i to mnogo bolje od tebe. :p
Jeste, G200/G400 je bio brzi u 32-bita od TNT/TNT2, i bio je brzi u visokim rezolucijama, ali se secam i kako je to izgledalo. Npr, neka polu-zahtevna igra u 1280*1024 ide na nVidia-i sa 12fps a na Matroxu sa 14fps.... Bitno je sto je nVidia radila brze u 16-bita u koliko se tada i igralo... Secam se da sam imao Voodoo 2 i TNT i znam da Q3 u 32-bita nisam mogao da igram, cak ni u 800*600..(da uvek sam drzao onaj moj perverzni maksimum detalja, kojim i danas testiram). Sta vredi sto sam sa Matrox-om tada mogao da igram sa 3 frejma vise u 1280*1024 u 32-bita... kada je davao 12 frejmova, a nVidia 10 ili ajde, 8fps... Pazi, ovoga se dobro secam,i jos uvek imam PCPRESS iz tog vremena, te iza ovih mojih reci najverovatnije stoji i Sale Veljkovic, i gomila mojih drugova kojima sam tada pokazivao hw i koji su dolazili kod mene kada gubimo cas (za vreme onih strajkova i demonstracija : ))
E vidiš problem je upravo u tome što uporno mešate G200 i G400 i podmećete konkurenciju kako vam odgovara. Ne poštujete hronologiju događaja i zato se stvara utisak kako Matrox nikada nije imao konkurentan proizvod, a to je daleko od istine.

Prvo: G200 je konkurisao Riva 128 čipu kojeg je drao, a TNT se pojavio nešto kasnije, kao što sam već objasnio. Voodoo2 je bio 15-ak % brži od G200, ali su oba davala upotrebljive frejmrejtove pri čemu je Voodoo2 imao mnoogo lošiji prikaz 3D efekata ( magla, dim, izvor svetlosti, i.t.d. ) Uostalom to je neprimereno poređenje jer poredimo grafičku kartu sa 3D akceleratorom koji ne može da radi bez 2D grafičke. G200 nije bila kartica za igranje, već za profesionalnu primenu. Znači mešamo babe i žabe.

Drugo: G400 izlazi godinu dana kasnije i direktno konkuriše TNT2 karticama koje su već bile na tržištu i potpuno ih deplasira.

Frejmrejtovi od 12 i 14 fps, o kojima ti govoriš, su iz vremena G200 dok su i G400 i TNT2 grubo gledano postizali izmeću 30 i 60 fps u zavisnosti od igre, palete boja, rezolucije i snage CPU-a. Pogledaj ovaj test G400MAX koji je uradio Tomshardware, a možeš potražiti i bilo koji drugi. Znači i G200 i G400 su bile najbrže grafičke karte, i po 2D i po 3D performansama, kada su se pojavili na tržištu.
Stalno pricamo o nekom losem kvalitetu 2D-a od nVidia-e... a kada smo videli (neki jesu), powered by ATI kartice i njihov 2D, niko nije rekao "ej, fuck it, nVidia nije kriva sto se proizvodjaci ne trude da izvuku maksimalan kvalitet 2D-a iz njihovih kartica).. Pa da li ste videli Radeon 7500 by Gigabyte??? Koliko se 2D razlikuje od built by ATI-ja? Mnogo!!! Bilo bi sasvim kul kada bi malo protresli glavama i prestali da proizvate nVidia-u zbog toga - jer je zato kriva koliko i ja zbog intervencije u Afganistanu.
Niko nije kriv što Nevidija vodi komercijalu politiku i što sama ne pravi svoje kartice, to je njihova odluka, zašto sada da ih žalimo. Surova realnost, ko šta nudi i šta tebi treba, nema tu mnogo mudrosti. Drugo, 2D Engine kod Nevidije realy sucks!!! Nemoj ja da ti pričam o DivX i DVD reprodukciji, za to je zadužen jedan poseban deo procesorskog jezgra koji je kod Nevidije prilično retardiran. O problemima sa overlay-em da i ne govorim.
Kazes da ne znas nijednu inovativnu tehniku koju je nVidia progurala? Izvini, kako su oni sada aktuelni sampioni po prodaji ?
Tako što samo štancuju te grafičke procesore ni malo se ne trudeći oko podrške i nekih drugih vrednosti osim onoga što prodaje kartice ( Gigatexeli, pixeli i ostale munje ).
Tako sto su stalno krali od drugih? Daj onda nek i Matrox krade, pa nek postane najbolji, nemam nista protiv :)))...
Po čemu najbolji? Pa matrox jeste najbolji. :) Ako pričaš o prodaji, iskreno se nadam da se Matrox nikada neće toliko komercijalizovati da počne da štancuje grafičke procesore sa životnim vekom od 6 meseci.

Oko daljeg teksta: ono što sam hteo da kažem je da su drugi krčili put dok se Nevidija provlačila i implementirala samo ono što je sigurno. To se odnosi i na S3TC, koji je prokrčio put i dobio podršku i u DX API-u i u samim igrama, i na DualHead koncept. ( što oni nisu prvi smislili nešto tako nego samo kopiraju? ) Ne sećam se tačno detalja, to bi ti trebalo da znaš, ali pravi 4 x FSAA su pokupili od 3Dfx-a. Složićeš se da je 3Dfx-ova AA tehnika bila mnogo naprednija? Nikada nisam rekao da je Nevidija usvojila ili htela da usvoji TrueForm tehniku, pogrešno si razumeo, pročitaj ponovo. Softverski FSAA je radio još G200 i to tako kao što ni TNT2 nije. Nevidija je otkupila 3Dfx zbog boljeg položaja na tržištu, ali nemoj misliti da su pobacali sve licence i patente koji su ušli u tu transakciju, jer ih zaista ima mnogo i uopšte nisu naivni. O AA tehnologijama zaista znam malo, a i ne zanimam me previše, eto mogao bi ti nešto da mi ispričaš kada sledeći put budemo išli na (D) A što se IDCT-a tiče nije on problematičan, to je samo logička mreža jedne kosinusne funckije, već njegovo implementiranje u 2D engine. T&L jedinica u svojoj osnovi nije Nevidijina mudrost, kao ni TwinTexel, ali ako tako gledaš malo je pravih inovatora.

Ne znam da li je neko čuo za grupu nezavisnih inžinjera pod nazivom BitBoys. Oni su još pre više godina razvili neke zaista revolucionarne tehnike, a u pojavljivanju na tržištu ih je sprečio bankrot usled gubitka jednog sudskog spora nevezanog za ovo. Radi se o Piramid3D čipu, ako je neko čuo. Inače taj procesor je imao fenomenalne mogućnosti i bio je potpuno programabilan, što mu je uz specijalan koncept velike propusne moći omogućavalo svakakva čuda. Taj procesor je prvi emulirao Displacment Mapping, koji je doduše radio sa tek par frejmova u sekundi, ali je zato podržavao Bump Mapping za koji je u poslednji čas licencu otkupio Matrox. Priča se da će se BitBoys-i ponovo vratiti u igru i da će na kraju konačno imati svoju kartu na tržištu, a mnogi ih povezuju i sa imenom Matrox iz razumljivih razloga. :)
Nista revolucionarno? How about programable engine?
Programable engine ne da nije ništa novo nego je besmisleno dovoditi ga u ekskluzivnu vezu sa Nevidijom. Programable Vertex shader je već nešto drugo, ali ni to nije ništa novo, štaviše. Šta misliš kakav je tek programable engine potreban za prikaz različitih slika na različitim monitorima? :)
Pixel i Vertex shaderi na GF3???
Šta sa njima? Pa to ti je ta čuvena T&L jedinica.
Verujem da je neko to ranije "planirao" ali cinjenica je da je nVidia prva imala u prodaji... nVidia izbacuje cesto svoje kartice ?
Iii? Šta ti imaš od toga? Traljave drajvere, loš 2D engine ( ne govorim o prikazu ) brži gubitak vrednosti hardvera, ...
Pametni smo, pa ih ne kupujemo odmah - evo ja sam tek sada uzeo GF3Ti200... : )
Ma ti da si pametan ne bi ih ni kupov'o. :) Ja sam siguran da nikada neću biti Nvidiot ili fanATic. :D

Za kraj: Kada rezimiram sve što je rečeno mne mogu se oteti utisku da se stvara polarizacija u kojoj ti veličaš Nevidiju, dok ja osporavam njene kvalitete i uzdižem Matrox. To je naravno banalno gledanje na stvari i to moramo izbeći. Ja sam zato i napomenuo da me ne shvatite bukvalno i uskogledano u osporavanju Nvidijinih dostignuća. Naravno da ih ona ima, ali nekako se stvara utisak da slabo guraju nove tehnologije, već samo friziraju postojeću, što niko ne može da ospori. Nije dovoljno razviti i implementirati neko rešenje, već morate ubediti sve ostale elemente u industriji da je to zaista vredno njihove podrške. Zato se dešava da čak i neka dobra rešanje ne zažive, ali to je neka vrsta prirodne selekcije.

MaX, razumem tvoju skeptičnost po pitanju uspeha nove matroxove tehnologije i to je sasvim normalno, ali treba razumeti šta to znači za nas kao krajnje korisnike i kakvi su zaista njeni potencijali. Prvo, ne treba ni u jednom trenutku pomisliti da će Matrox da udari ko grom iz vedra neba i jednom za svagda da sahrani Nvidiju i ostale konkurente, to se neće dogoditi. Sasvim je moguće da će po objavljivanju imati najbržu i najnapredniju grafičku kartu, ali će se to već u narednih 6 meseci promeniti jer se neće upuštati u trku i jurnjavu sa Nvidijom. Ako su razvojni potencijali buduće tehnologije veliki i ne manji od njihovih planova, moguće je da će Matrox sledeći GPU izbaciti posle godinu~godinu-ipo dana ( od objavljivanja Parhelie ), pa će tako opet na kratko biti vodeći. U svakom slučaju segment tržišta kome se Matrox obraća ima specifične zahteve i potrebe te će uvek imati ko da kupi to što oni naprave. :)
 
byMaX je napisao(la):
P.S. Magick, nemoj da se ljutis, ja sam samo dao svoje vidjenje stvari, nikako te ne ubedjujem i teram da ga prihvatis... Ali ni ja svoje necu promeniti, samo da znas :)
Da se ljutim? Svašta! Pa ja sam baš hteo da vidim šta je sa tobom i što se ne oglašavaš. :) Što se tiče udeđivanja .... hej pa ja sam Matrox User :D a nadam se da ćeš i ti jednog dana progledati ( i baciti tu Nevidiju :D ).
Sve ovo se malo odaljilo od novog Perhelia chipa... Ali cisto da znate da sam jos tu i "da Vas posmatram"

Pozdrav svima....
Joj, da znaš da jesmo otišli predaleko, al' nema veze nekima će biti korisno. :)
 
Re: Re: MaX-u

magick je napisao(la):
Ne sećam se tačno detalja, to bi ti trebalo da znaš, ali pravi 4 x FSAA su pokupili od 3Dfx-a. Složićeš se da je 3Dfx-ova AA tehnika bila mnogo naprednija?
Da se razumemo, jos niko nije implementirao AA na isti nacin kao 3Dfx. Jednostavno ne postoji tehnicka mogucnost s obzirom da se 3Dfx 4xAA oslanjao na zajednicki rad dva graficka procesora, a ni jedna graficka kartica trenutno na trzistu ne funkcionise na taj nacin. Prema tome, bilo koji AA koji sada guraju NVidia i ATI je pokusaj da se napravi neki kompromis izmedju cistog supersamplinga koji je izuzetno zahtevan i brzine.
 
Koji ste bre freekovi ti magick i ovaj MaX :D ... lele ..

Sto se Matroxa tice neocekujem ama bas nisata na polju 3d-a jer je tu uvek bio los, ma sta ti Magick piricao. On je godinu dana, mozda 2 bio najbrzi jer konkurencije nije ni bilo. Posle navale raznih 3d acc.-a je zaostao i bio mnogo spor, ali je primat drzao na polju 2D-a i Video montaze gde ga i u buduce niko nece ugroziti. Te famozne inovacije nakraju ce se svesti na displasment maping koji ce uvesti kasnije i ATi i NVidija i opet ce matrox biti spor i neisplativ za igranje jer svi znamo koliko su matrox karte skupe. Tako nemojte se mnogo radovati jer nema osnova. Sve te price su lepe ali ostaju tamo gde su sad (na papiru).
 
magick je napisao(la):
Uopšte nemojte sumnjati u kvalitet prikaza buduće matroxove kartice. Matrox idalje ostaje u semi-profi ~ profi segmentu tržišta i za sada je jedini proizvođač grafičkih kartica za PC koji dizajnira i proizvodi celu grafičku kartu, a ne samo GPU uz referentni dizajn. Zato ime Matrox® predstavlja garanciju kvaliteta i ne morate da razmišljate mnogo kada kupujete proizvod koji nosi njegovo ime.

Ne zaboravite da je Matrox jedna od vodećih kompanija u razvoju komjuterske grafike i da su mnoga njihova rešenja postala standard. Setite se njihovog WRAM-a koji je zahvaljujući pametnoj arhitekturi bio brži ali i 20% jeftiniji od VRAM-a. Njihove DualHead i multidisplay mogućnosti su idalje neprevaziđene po svojoj funkcionalnosti i pouzdanosti, a vidimo da su i ATi i Nvidia izašli sa svojim verzijama ( TwinView ), pri čemu je ATi ipak nešto bolji od Nvidie ali kuburi sa drajverima i softverskom podrškom. Matrox je prvi implementirao hardverski EMBM ( Environment-Mapped Bump Mapping ) kao najlepši i najrealističniji 3D efekat, a ubrzo zatim su to prihvatili i drugi proizvođači.

Ako ste mislili da je Nvidia pretplaćena na dobre 3D performanse grdno ste se prevarili. G400 je bio najbrži grafički čip kada se pojavio i nosio se sa TNT2 Ultra karticama, a u višim rezolucijama ( >1280 x 1024 ) i 32-bitnoj paleti boja ih je čak i tukao iako je radio na znatno nižem kloku ( 120/160 vs 175/200 Core/RAM ). Kako stvari stoje izgleda da će se istorija ponoviti, a obećanje ljudi iz Matroxa ispuniti - "Ponovo ćemo biti kraljevi 3D-a". Nemojte očekivati od Matroxa da će početi da štancuje grafičke karte sa životnim ciklusom od 6 meseci i upolovačenim drajverima, to se jednostavno neće dogoditi. Ne bi' se čak ni nadao da će te kartice imati bolji odnos cena/performanse u poređenju sa drugim komercijalnim rešenjima tipa "third party Nvidia graphic card", možda samo u početku. To će svakako biti nešto posebno, sa posebnom cenom, za posebne kupce. Tako će to izgledati našem prosečnom potrošaču koji uglavnom konzumira razne MX "orliće". Prema nekim izvorima Matrox će izbaciti čitavu seriju proizvoda baziranih na novom GPU-u, koji će biti namenjeni raznim segmentima tržišta, od enthusiastic-gamer pa do 3D professional. Karte će se razlikovati po količini RAM-a i kloku procesora, a verovatno i po još nekim dodatnim mogućnostima u Matrox stilu ( multi-display ). :) Postoji neproverena informacija da će cene tih karti po premijeri biti od 0 za entry-level do preko 00 za profesionalu 3D kartu.

Zbog dosta pretpostavki i dezinformacija oko specifikacije budućeg Matroxovog GPU-a, ja ću se držati samo onih najpouzdanijih.
  • Novi grafički procesor će promeniti značenje naziva GPU, dajući grafičkom podsistemu dodatnu autonomiju.
  • Koristiće drugačiju arhitekturu memorije čime su, kako kažu, prevazišli problem propusne moći. Imajte u vidu da Matrox intenzivno razvija višemonitorske sisteme.
  • Displacement Mapping se najavljuje kao revolucionarna tehnika u 3D grafici, a prema izveštajima sa GDC-a Matrox i Microsoft tesno sarađuju na njenom razvoju i implementiranju kroz budući DX9.
  • U predstojećoj verziji Microsoftovog API-a će se naći i funkcije za mnogo naprednije multidisplay mogućnosti. To verovatno znači mnogo bolje performanse u 3D aplikacija kada se koriste dva ili više monitora.
  • 40-bitna paleta boja[/list:u] Ovo su grube crte buduće kartice i više vam neću otkriti :) da ne bi narušio kredibilitet ovih informacija. ( kada bi ste samo znali šta ja znam ... :D )

    Mislim da treba malo pojasniti stvari oko te 40-bitne palete boja. Prema sadašnjem 32-bitnom standardu koristi se 8 bita po kanalu ( RGBA ) za definisanje vrednosti piksela. To je dovoljno za prikazivanje preko 16 miliona boja s tim što se Alpha kanal koristi za povećanje preciznosti i kvaliteta. Prema 40-bitnom standardu koristiće se 10 umesto 8 bita za definisanje vrednosti boje. To se uvodi radi povećanja preciznosti pri obradi i senčenju slike, a ne radi povećanja spektra boja koje je moguće prikazati. Naime, računarski resursi su ograničeni i stoga postoji određeno odstupanje ( relativna greška ) pri radu sa realnim brojevima. Mnoge kalkulacije i transformacije koje se odvijaju u T&L jedinici ( Vertex ili Pixel shader-u ) generišu određenu grešku, tojest odstupanje od realne vrednosti. Proširujući tačnost na 10 bita dobijaju se preciznije vrednosti nakon senčenja ili neke druge operacije. Izlazni signal iz kartice će idalje odgovarati 32-bitnom, odnosno 24-bitnom, TrueColor standardu jer drugačiji monitori još nisu napravljeni, ali će se kalkulacije interno obavljati korišćenjem veće preciznosti ( sa više cifara ).

    Prema događajima na GDC-u Matrox i Microsoft su proteklih godina tesno sarađivali na razvoju grafičkih akceleratora treće generacije i po svemu sudeći taj naziv uopšte nije pretenciozan. Bilo je i najava o tehnikama koje će biti podržane tek u DX10 i kasnijim verzijama, što znači da se prave dugoročni planovi pa možemo očekivati veliku fleksibilnost i programabilnost budućih GPU-ova.


  • EMBM je na G400 bio koristan ko 32bit render na TNT i danasnje kartice se guse recimo u Dronez-u pad je znacajan i na GF3.

    Pricati o bilo cemu u vremenu Voodoo 1 i 2 je krivotvorenje istorije cak iako je neka kartica mogla koji efekat vise podrska je bila nikava, pa setite se svih Glide naslova i odvratnog DX3 pa i DX5 prikaza.

    G200 za profesionalce bez OGL ICD, ma da.

    I Ati je imao jos bolje kartice u to vreme (Rage 128pro, MAXX itd), a Matrox je outider koji se na vreme povukao, sreca za njih i bolje je da se ne igraju s vatrom.

    BTW, igrati igre na Mistiqe u vreme Glidea bilo je tuzno (video svojim ocima).

    P.S. 32 bit render je moguce koristiti tek od pojave DDR karti tako da je bespredmetno pricati ko ga je imao pre pet godina a ko ne.
 
MAD_MUzzY je napisao(la):
Koji ste bre freekovi ti magick i ovaj MaX :D ... lele ..
:D
Sto se Matroxa tice neocekujem ama bas nisata na polju 3d-a jer je tu uvek bio los, ma sta ti Magick piricao. On je godinu dana, mozda 2 bio najbrzi jer konkurencije nije ni bilo. Posle navale raznih 3d acc.-a je zaostao i bio mnogo spor, ali je primat drzao na polju 2D-a i Video montaze gde ga i u buduce niko nece ugroziti.
Nije tačno da je Matrox oduvek bio loš na polju 3D-a, to sam i pokušao da objasnim. Takođe nije tačno da je bio dobar zato što je konkurencija bila traljava. Pričamo o vremenu 3Dfx-a, Rendition-a, 3DLabs-a ( ATi i Nvidia se podrazumevaju ). Pričamo o vremenu kada grafičke kartice nisu pravili Eagle i ostale frankenštajnske radionice već Asus, Diamond, Canopus, Elsa i drugi.

Kada je tehnološki razvoj nametnuo potrebu 3D akceleracije u samom grafičkom procesoru Matrox izlazi sa G200. To je tada bio najbrži grafički procesor sa impementiranom 3D akceleracijom i daleko najlepšim prikazom 3D efekata. Riva 128 je bila smešna naspram tog čuda, uostalom pogledaj onaj test za koji sam gore dao link.

Tek pola godine kasnije na tržištu se pojavljuje TNT čip i preuzima vodstvo, što je i potpuno normalo u ovoj industriji. Matrox lagano nastavlja svoju politiku ne obazirući se na Nvidiu i izbacuje G400 tek dosta kasnije, kada je već uveliko TNT2 bio na tržištu, i time ponovo seda na tron 3D performansi ( o drugim mogućnostima da i ne govorim ). Naravno kroz 6 meseci je opet bio preteknut sa GF256, ali takva je priroda stvari. Procenivši potrebe tržišta i novonastale trendove Matrox je odlučio da se povuče sa igračkog tržišta, što je verovatno i bilo najpametnije u tom trenutku. Praktično, Matrox jedva da je sastavio godinu dana sa prestižnom titulom najbržeg 3D akceleratora, ali to ne znači da treba negirati svaki njegov uspeh. Bilo kako bilo, Matrox je imao konkurentne 3D performanse u svoje vreme i to je činjenica. To što nije želeo da se upušta u hiperprodukciju grafičkih čipova sa šestomesečnim ciklusom je druga stvar, ali niko ne može da kaže da ne umeju da naprave dobar 3D akcelerator.
Te famozne inovacije nakraju ce se svesti na displasment maping koji ce uvesti kasnije i ATi i NVidija i opet ce matrox biti spor i neisplativ za igranje jer svi znamo koliko su matrox karte skupe. Tako nemojte se mnogo radovati jer nema osnova.
Ne, ne, ne, nisi ti razumeo poetnu cele priče. Naravno da će već posle 6 meseci Nvidia ili ATi napraviti nešto brže i da se Matrox neće upuštati u besmislenu jurnjavu za njima. A i zašto bi? Prvo, nije sve u frejmrejtu, bar ne za mene, a drugo 3D efekti i kvalitet slike će biti daleko ispred ostalih. Pored toga Matrox ima drugih komparativnih prednosti, pa to ..... Ma šta ja tebi uopšte objašnjavam, ne razumeš ti to. :)
Sve te price su lepe ali ostaju tamo gde su sad (na papiru).
Na papiru? Onaj demo sa GDC-a se vrteo na Parheliji pa ti vidi. :)
 
O cemu bre ti to "Matrox lagano nastavlja svoju politiku ne obazirući se na Nvidiu i izbacuje G400 tek dosta kasnije, kada je već uveliko TNT2 bio na tržištu, i time ponovo seda na tron 3D performansi ( o drugim mogućnostima da i ne govorim ). " ...??!!! Dal si ti pri sebi. TNT2 i ULTRA verzija istog su drali sve trenutno aktuelne kartice tada.

Druga nebuloza "Prvo, nije sve u frejmrejtu, bar ne za mene, a drugo 3D efekti i kvalitet slike će biti daleko ispred ostalih" ...?!

Naravno da nije sve u FPS-u. Ali mozda pak i jeste. Npr GF karte osim svoje igracke namene veoma su rasprostranjene i kod "ozbiljnijih" ljudi koji se npr. bave 3D-om (kao ja :D stim sto sam ja totalno neozbiljan ;) ) i gde je itetako vazna brzina karte, a na tom polju jadni Matrox nema cak ni OGL ICD podrsku.
Drugo o kakvom kvalitetu 3d efekata ti govoris? Da mu nije mozda lepsi EBM ?? :) daj molim te...
I da... koje su to "druge" specijalne stari koje ima matrox u odnosu na konkurenciju? Stvarno me interesuje posto ne znam.

Opet ti kazem Matrox ce jednino drzati primat duze vreme na svom polju a to je -video montaza-. Mnogo, ali mnogo buke niokocega... nazalost.

poz.
 
Verujem da ce Matrox napraviti malo veci BUM na trzistu grafickih kartica , da ce nVidia i Ati ostati u oblaku prasine! Kao sto je magick rekao svaki put kad Matrox izbaci novu karticu (bolje reci novi GPU) popne se na tron! A za to sto govorite da je TNT2 Ultra "drala" G400MAX to se samo desavalo u bednih 640*480*16 a sta je bilo posle u visim rezolucijama , a tek u 32-bitnoj paleti , TNT2 je zaostajala sve vise i vise cak se G400MAX mogao da nosi sa Gforce 256 cipom do 1280*1024 je bio svega 5-8 fps-a u zaostatku!!Ali to je bio samo 3D , u svemu ostalom Matrox je najbolji i ostace naj jos dugo , dugo vreme , a po svemu sudeci i u 3D-u ce bar godinu dana od pojavljivanja novog GPU-a biti najbolji ako ne i duze! Sta vise reci Matrox je Matrox , kad naume nesto to i urade ,a sad su nesto naumili.................
 
Mare je napisao(la):
EMBM je na G400 bio koristan ko 32bit render na TNT i danasnje kartice se guse recimo u Dronez-u pad je znacajan i na GF3.
Tačno da je sa uključenim EMBM na G400 frejmrejt padao za 10-20%, ali je to bilo podnošljivo s obzirom na ukupne performanse kartice. Sa uključenim EMBM u 1024x768x32 G400 nije bio sporiji od TNT2 ako ne i brži, a razlika u izgledu je drastična ( ma "drastično" je još slaba reč ). Osporavati upotrebljivost EMBM je bezveze i nema veze sa realnošću.

Nisam neki igrač i malo sam igara uopšte igrao, a poslednja je Colin McRae Rally 2 i ona podržava matroxov EMBM. E sad', sa svim maksimalnim setovanjima i uključenim EMBM u 800x600x32 nemam ni jedan ispušteni frejm. 1024x768 nisam nikada uspeo da testiram jer postoji neki bag, a mrzelo me da se cimam jer je i ovako sve izgledalo super. U stvari igra mi kaže da je rezolucija 1024x768x32 ali ja ne vidim nikakvu razliku u odnosu na 800x600x32, tako da nemam pojma u čemu je štos. :confused:

Do sada nisam naišao ni na jednu igru ( osim QuakeIII ) koja štuca na mom G400 u 1024x768x32. Verovatno se to u međuvremenu promenilo sa MBTR i RCW, ali ne bih znao da ti kažem jer ne igram igre.

EMBM je ubedljivo najlepši i najrealističniji 3D efekat, a gubitak u performansama je prihvatljiv i javlja se uglavnom samo kada naiđeš na mapiranu površinu. Dobra fora je što možeš i da ga isključiš. ;)
Pricati o bilo cemu u vremenu Voodoo 1 i 2 je krivotvorenje istorije cak iako je neka kartica mogla koji efekat vise podrska je bila nikava, pa setite se svih Glide naslova i odvratnog DX3 pa i DX5 prikaza.
O.K. ograđujem se na G200. To je bio izvanredan grafički procesor sa implementiranom 3D akceleracijom u sebi, 32-bitnim renderingom i besprekornom slikom. Pogledaj malo tekstove iz tog vremena, svi su govorili da je krajnje vreme da se 3Dfx probudi i učini nešto po pitanju kvaliteta slike ( na Voodoo2 ) jer je konkurencija ( G200, TNT ) počela da ga prestiže.

Ovo se poteglo u kontekstu toga da li je Matrox u stanju da napravi dobar 3D akcelerator ili nije. Tadašnja zrelost i podrška Direct X-a je druga priča. Molim te pogledaj ovaj test pa mi kaži nešto o kvalitetu prikaza. G200 je radio 32-bitni rendering, a Voodoo2 samo 16-bit. Sejvuj obe slike pa pusti slide show ili ih otvori u dva prozora, mislim da je razlika više nego očigledna. Pri tome testirana igra ne podržava FSAA koji je G200 mogao da odradi tako da je ova razlika još i mala.

Da li je Voodoo bio bolji za igranje, verovatno jeste. Da li je G200 dobro parče 3D hardvera, svakako da jeste. Da se ne upuštamo u bespotrebno prepucavanje, hteo sam da pokažem da je Matrox u stanju da napravi odličnu 3D kartu sa izvanrednim efektima i kvalitetom prikaza na prvom mestu.
G200 za profesionalce bez OGL ICD, ma da.
Dobro bre više sa tim OGL-om. Jeste, kuburili su sa OGL drajverima, ali u smislu loših performansi, šta više u početku ih nisu ni podržavali. Inače postoji mnogo profesija, pa ne vidim zašto to po tebi profesionalna primena podrazumeva OGL. I tada su postojali 3D akceleratori za profesionalnu OGL primenu, G200 nije imao nikakve pretenzije na taj deo tržišta i glupo ga je uopšte dovoditi u vezu sa tim. Tada je uopšte malo ko koristio PC za profesionalan rad sa bilokakvom 3D grafikom. G200 jeste bila profi karta, šta god ti mislio.
I Ati je imao jos bolje kartice u to vreme (Rage 128pro, MAXX itd), a Matrox je outider koji se na vreme povukao, sreca za njih i bolje je da se ne igraju s vatrom.
E sada već vređaš. :) Uopšte nije sporno da je ATi pravio odlične čipove, ali to idalje ne obara moju tvrdnju da je Matrox u dva navrata izbijao na vrh po 3D performansama. To što se tamo nije i održao je stvar njegove poslovne politike i prioriteta. Reći da je Matrox autsajder na polju grafičkih kartica je smešto i neozbiljno.

Inače Rage 128Pro se pojavio krajem 1999., nekoliko meseci posle G400. To je zaista bio odličan čip, ali nije bio brži ni od G400 ni od TNT2 Ultra.
BTW, igrati igre na Mistiqe u vreme Glidea bilo je tuzno (video svojim ocima).
Mistique 220 nije bila kartica za igranje iako je Matrox tvrdio da ima nekakvu 3D akceleraciju, a ako si mislio na Mistique 220 + m3D to je već druga priča. Cela ta stvar sa m3D je propala prvenstveno zbog slabe podrške, a inače m3D je koristio PowerVR-ov 3D akcelerator.
P.S. 32 bit render je moguce koristiti tek od pojave DDR karti tako da je bespredmetno pricati ko ga je imao pre pet godina a ko ne.
Ma šta ti čoveče pričaš!?!?!? Pogledaj samo one screenshot-ove za koje sam ti dao link. :) Što se propusne moći memorije tiče, mnogi su nastavili sa korišćenjem 64-bita memorijske magistrale i posle pojavljivanja DDR memorije, mislim da je to bio slučaj za raznim MX-ovima, neka me ispravi neko ako grešim. G400 koristi 128-bitni interfejs sa kvalitetnom Samsung SGRAM memorijom ( grafički SDRAM ) na 5ns.

P.S. Otišli smo predaleko od teme, a ja sam samo hteo da kažem da Matrox jeste u stanju da napravi dobru i brzu 3D kartu kao što je to i ranije činio. Niko ne može da ospori konkurentnost G200 i G400 kartica u njihovo vreme i svaka dalja rasprava je potpuno besmislena. Takođe mislim da ni inovativnost matroxovih inžinjera nije sporna jer su mnoga njihova rešenja dobro prihvaćena ( zažmurićemo na HeadCasting :D ).
 
MAD_MUzzY je napisao(la):
Dal si ti pri sebi. TNT2 i ULTRA verzija istog su drali sve trenutno aktuelne kartice tada.
A sada idi da uradiš domaći zadatak. G400(MAX) je izašao sredinom 1999. i bio je brzi od TNT2 Ultre. Zapravo kidali su se, Ultra je bila po koji frejm brža u 16-bita i niskim rezolucijama dok je Matrox ostavljao iza u 32-bitnoj paleti i rezolucijama preko 1024x768. Posebno mu je ležao Expendable koji još i podržava EMBM, pa se nije ustručavao da okine Ultru 175/200 i u 16-bita režimu. QuakeIII mu doduše nije ležao, ali to je ionako za nvidiote. :D
Druga nebuloza "Prvo, nije sve u frejmrejtu, bar ne za mene, a drugo 3D efekti i kvalitet slike će biti daleko ispred ostalih" ...?!

Naravno da nije sve u FPS-u. Ali mozda pak i jeste. Npr GF karte osim svoje igracke namene veoma su rasprostranjene i kod "ozbiljnijih" ljudi koji se npr. bave 3D-om (kao ja :D stim sto sam ja totalno neozbiljan ;) ) i gde je itetako vazna brzina karte, a na tom polju jadni Matrox nema cak ni OGL ICD podrsku.
Nemoj da se ljutiš i da me pogrešno shvatiš ali jednom nvidiot, uvek nvidiot. :D
Drugo o kakvom kvalitetu 3d efekata ti govoris? Da mu nije mozda lepsi EBM ?? :) daj molim te...
Buuuaaahaaahaaa!!! Kakvom kvalitetu 3D-a!?!?!? Da mu nije lepši EMBM? Buuuaaahaaahaaa!!! Eeee moj Muzzy, nisi ti ništa video. Pogledaj ovo, ali moooolim te.
I da... koje su to "druge" specijalne stari koje ima matrox u odnosu na konkurenciju? Stvarno me interesuje posto ne znam.
Dobri drajveri, odličan 2D i motion compression engine, .... ma ne mogu da ti sve objašnjavam. Možeš jednom da dođeš i vidiš kako izgleda DVD reprodukcija. :)
Opet ti kazem Matrox ce jednino drzati primat duze vreme na svom polju a to je -video montaza-. Mnogo, ali mnogo buke niokocega... nazalost.

poz.
Ma ne sekiraj se niko neće da ti dira tvoju Nevidiju, samo ćemo malo da je ****** ctp; :D
 
Tačno da je sa uključenim EMBM na G400 frejmrejt padao za 10-20%, ali je to bilo podnošljivo s obzirom na ukupne performanse kartice. Sa uključenim EMBM u 1024x768x32 G400 nije bio sporiji od TNT2 ako ne i brži, a razlika u izgledu je drastična ( ma "drastično" je još slaba reč ). Osporavati upotrebljivost EMBM je bezveze i nema veze sa realnošću.

Nisam neki igrač i malo sam igara uopšte igrao, a poslednja je Colin McRae Rally 2 i ona podržava matroxov EMBM. E sad', sa svim maksimalnim setovanjima i uključenim EMBM u 800x600x32 nemam ni jedan ispušteni frejm. 1024x768 nisam nikada uspeo da testiram jer postoji neki bag, a mrzelo me da se cimam jer je i ovako sve izgledalo super. U stvari igra mi kaže da je rezolucija 1024x768x32 ali ja ne vidim nikakvu razliku u odnosu na 800x600x32, tako da nemam pojma u čemu je štos.

Do sada nisam naišao ni na jednu igru ( osim QuakeIII ) koja štuca na mom G400 u 1024x768x32. Verovatno se to u međuvremenu promenilo sa MBTR i RCW, ali ne bih znao da ti kažem jer ne igram igre.

EMBM je ubedljivo najlepši i najrealističniji 3D efekat, a gubitak u performansama je prihvatljiv i javlja se uglavnom samo kada naiđeš na mapiranu površinu. Dobra fora je što možeš i da ga isključiš.

Video sam sta EMBM uradi GF3 u igri Dronez pad je vidljiv golim okom i to sigurno preko 30%, ako je to i sada problem za GF3 ne verujem da je G400 mogao to da odradi sa 10% jel ipak je to jos jedan prolaz (bar za G400 za GF3 nisam siguran) a + ceo prolaz kada se scena radi sa 2 ili jednim prolazom je mnogo. Verovatno mislis na igre tipa Expendable koje su imale 2-3 scene ukupno sa EMBM a dronez ima mnogo vise povrsina pod ovim efektom. U Colin2 se razlika i ne vidi, tu je Comanche 4 od novijih igara sa EMBM (mada na GF3 to radi preko pixel shadera). Anyway poenta je da neverujem da u igri gde se EMBM intenzivno koristi G400 moze imati upotrebnu vrednost.

Drugo ako je quake 3 jedina igra koja ti secka onda treba da probas neke novije jel po meni quake 3 nije uopste zahtevan spram novih igara tipa MOHAA, Comanche4, Trainz (i ostale simulacije uglavnom)


Mistique 220 nije bila kartica za igranje iako je Matrox tvrdio da ima nekakvu 3D akceleraciju, a ako si mislio na Mistique 220 + m3D to je već druga priča. Cela ta stvar sa m3D je propala prvenstveno zbog slabe podrške, a inače m3D je koristio PowerVR-ov 3D akcelerator

Pa ko bi podrzao karticu bez Z-buffer funkcije? Taj cip je stvarno slab secam se da je voodoo 1 u ZD tetsu za tu godinu bio 3.5 puta brzi.

Ma šta ti čoveče pričaš!?!?!? Pogledaj samo one screenshot-ove za koje sam ti dao link. Što se propusne moći memorije tiče, mnogi su nastavili sa korišćenjem 64-bita memorijske magistrale i posle pojavljivanja DDR memorije, mislim da je to bio slučaj za raznim MX-ovima, neka me ispravi neko ako grešim. G400 koristi 128-bitni interfejs sa kvalitetnom Samsung SGRAM memorijom ( grafički SDRAM ) na 5ns.

Treba definisati sta je za koga igrivo, a zna se da performanse u 32 bit imaju vecu tendenciju pada u kriticnim situacijama kada je najvaznije zbog potrebe za dupli bandwidth.


P.S. Otišli smo predaleko od teme, a ja sam samo hteo da kažem da Matrox jeste u stanju da napravi dobru i brzu 3D kartu kao što je to i ranije činio. Niko ne može da ospori konkurentnost G200 i G400 kartica u njihovo vreme i svaka dalja rasprava je potpuno besmislena. Takođe mislim da ni inovativnost matroxovih inžinjera nije sporna jer su mnoga njihova rešenja dobro prihvaćena ( zažmurićemo na HeadCasting ).

A to sto G400 nije imao hardware triangle setup JEDINI u to vreme pa mu je trebao 600 MHz CPU da ista uradi u vreme 400 MHz CPUa to ga cini naprednom kartom? Kasnije su drajveri za PIII implementirali ovo u SSE ali za korisnike sa Celeronom I to nije mnogo znacilo. Tehnologija iza Matroxa nije nikad bila za igranje i ozbiljne igrace..... niti ce biti, a bajke su lepa stvar za laku noc ali samo za decu do 7 godina :) , budimo realni, matrox ce (mozda) izdati kartu u rangu (brzine) GF3 u najboljem slucaju sa par efekata vise od aktuelne generacije i to je to.
 
Ne znam da li je neko čuo za grupu nezavisnih inžinjera pod nazivom BitBoys. Oni su još pre više godina razvili neke zaista revolucionarne tehnike, a u pojavljivanju na tržištu ih je sprečio bankrot usled gubitka jednog sudskog spora nevezanog za ovo. Radi se o Piramid3D čipu, ako je neko čuo. Inače taj procesor je imao fenomenalne mogućnosti i bio je potpuno programabilan, što mu je uz specijalan koncept velike propusne moći omogućavalo svakakva čuda. Taj procesor je prvi emulirao Displacment Mapping, koji je doduše radio sa tek par frejmova u sekundi, ali je zato podržavao Bump Mapping za koji je u poslednji čas licencu otkupio Matrox. Priča se da će se BitBoys-i ponovo vratiti u igru i da će na kraju konačno imati svoju kartu na tržištu, a mnogi ih povezuju i sa imenom Matrox iz razumljivih razloga.

A to su oni sto prave kartu koja ce da ima 200 FPS u Quake 3, e pa zakasnili su malo. :D

Inace cip Glaze3D je baziran na eDRAM, embed memoriji u samom GPU i TBR i defferd render arhitekturi.... ima white paper negde u vezi ovoga, valjda da bi lozili investitore da daju pare za projekat.
 
Originally posted by Mare
Video sam sta EMBM uradi GF3 u igri Dronez pad je vidljiv golim okom i to sigurno preko 30%, ako je to i sada problem za GF3 ne verujem da je G400 mogao to da odradi sa 10% jel ipak je to jos jedan prolaz (bar za G400 za GF3 nisam siguran) a + ceo prolaz kada se scena radi sa 2 ili jednim prolazom je mnogo. Verovatno mislis na igre tipa Expendable koje su imale 2-3 scene ukupno sa EMBM a dronez ima mnogo vise povrsina pod ovim efektom. U Colin2 se razlika i ne vidi, tu je Comanche 4 od novijih igara sa EMBM (mada na GF3 to radi preko pixel shadera). Anyway poenta je da neverujem da u igri gde se EMBM intenzivno koristi G400 moze imati upotrebnu vrednost.
G400 ima hardverski implementiran EMBM dok ga GF3 softverski emulira. U tome je kvaka. ;) Inače taj matroxov hardverski EMBM toliko bolje izgleda od softverskog da je to strašno. Nisam ja to izmislio, to je dobro poznata činjenica koju možeš da proveriš. E sad', kakve su performanse GF3 sa softverskim EMBM u odnosu na G400 sa hardverskim uopšte nije primereno porediti. Nadam se da to shvataš. Niko ne tvrdi da je G400 uporediv po 3D performansama isačim novijim od Voodoo3 / Rage 128 Pro / TNT2 Ultra. Cela priča je potegnuta oko toga da li je Matrox u stanju da napravi dobar i brz grafički procesor sa 3D akceleracijom. Ja sam samo rekao da je Matrox to dokazao sa G200 i G400 procesorima jer su bili najbrži na tržištu po pojavljivanju.
Drugo ako je quake 3 jedina igra koja ti secka onda treba da probas neke novije jel po meni quake 3 nije uopste zahtevan spram novih igara tipa MOHAA, Comanche4, Trainz (i ostale simulacije uglavnom)
Nemam ti ja nikakve veze sa Quake-om i neću ništa da probam. Ne igram igrice, kao što već rekoh, ali ipak volim ponekad ( vrlo retko ) da se provozam malo. :) NFSx, Colin McRae 2, po koji F1 Grand Prix i to je to. Da hoću da se igram kupio bih PS2 ili Xbox.
Pa ko bi podrzao karticu bez Z-buffer funkcije? Taj cip je stvarno slab secam se da je voodoo 1 u ZD tetsu za tu godinu bio 3.5 puta brzi.
Nije se radilo o podršci Mistique čipu već PowerVR-ovom 3D akceleratoru koji se nalazio na m3D add-on kartici.
Treba definisati sta je za koga igrivo, a zna se da performanse u 32 bit imaju vecu tendenciju pada u kriticnim situacijama kada je najvaznije zbog potrebe za dupli bandwidth.
Za mene je igrivo sve što nema vidljivog štucanja, a ja sam ti teška cepidlaka. :) G400 je baratao sa 32-bit paletom skoro kao TNT2 sa 16-bit, zahvaljujući specifičnom 32-bit Z buffer-u i 256-bit Dual Bus arhitekturi. Vidim da si ti teški gamer i za tebe je Matrox odavno prestao da bude aktuelan, ali pre 2 ½ godine si sigurno maštao o G400MAX-u. :)
A to sto G400 nije imao hardware triangle setup JEDINI u to vreme pa mu je trebao 600 MHz CPU da ista uradi u vreme 400 MHz CPUa to ga cini naprednom kartom? Kasnije su drajveri za PIII implementirali ovo u SSE ali za korisnike sa Celeronom I to nije mnogo znacilo.
Nemam ja pojma o čemu pričaš, ali se sećam da je postizao ne srazmerno bolje rezultate na bržim procesorima. Kasnije je to ispravljeno u narednim verzijama drajvera. O.K. neka bude zapisano da je G400 zahtevao jači procesor, ali ne znam koji bi ambiciozni gejmer kupovao karticu od više stotina DM ili $ i stavljao je na Celerona 1. Bilo kako bilo, testovi govore jezikom činjenica a one idu u prilog Matroxa.

Kol'ko god se trudio da to osporiš G400 je bolji i napredniji procesor od TNT2, a i bio je brži u rezolucijama preko 1024x768 kao i 32-bitnoj paleti koja je bila potpuno upotrebljiva. G400MAX je tada bio san svakog okorelog gejmera i to će ti potvrditi svaki test iz tog vremena.
Tehnologija iza Matroxa nije nikad bila za igranje i ozbiljne igrace..... niti ce biti, a bajke su lepa stvar za laku noc ali samo za decu do 7 godina , budimo realni, matrox ce (mozda) izdati kartu u rangu (brzine) GF3 u najboljem slucaju sa par efekata vise od aktuelne generacije i to je to.
Ne, Matrox nije za nvidiote i fanATike koji samo žele što veći frejmrejt za svoje glupave fps igrice. Ja ću te samo još jednom podsetiti da je jedno vreme G400MAX bio vrrrloo konkurentan, a u višim rezolucijama i najbrži na tržištu. Šta je tada bilo? Opet je konkurencija bila slaba pa mu se posrećilo? :)

Ti naravno imaš svoje mišljenje i možeš da veruješ u šta hoćeš, ali ja ne vidim zašto se opet ne bi istorija ponovila. Kada Matrox bude izbacio svoj novi GPU biće sigurno konkurentan, ako ne i najbrži na tržištu, kao što je to bio slučaj sa G200 i G400, pa makar i za dlaku. To implicira da će biti u rangu R300 i NV30 ako ne i brži.
 
--------------------------------------------------------------------------------
(nije to, ko sto kaze Magick) 40-bitni <prikaz>, ...

Nisi razumeo ovaj deo... Ja sam potvrdio to sto si ti rekao. dakle, nije to, kao sto je i Magick rekao, 40-bitni prikaz.... Dakle, slazem se sa tobom, a mislim da je i moje objasnjenje ok...

Elem, imam test da zavrsim, koliko sutra cu sve ovo tvoje procitati i odgovoriti na nesto, ako imam.... :)

Pozdrav
 
byMaX je napisao(la):
--------------------------------------------------------------------------------
(nije to, ko sto kaze Magick) 40-bitni <prikaz>, ...

Nisi razumeo ovaj deo... Ja sam potvrdio to sto si ti rekao. dakle, nije to, kao sto je i Magick rekao, 40-bitni prikaz.... Dakle, slazem se sa tobom, a mislim da je i moje objasnjenje ok...
Jao izvini, nisam provalio zapetu. Ovo me podseti na onu priču o zapeti koja život znači. Ma ispričaću ti kad' se vidimo. Za objašnjenje sam se zezao.
:wave;
 
Nazad
Vrh Dno