Šta je novo?

Prva DX11 igra

Kada izadje Win 7 final i kada ljudi krenu masovno da prelaze sa XP-a, sto se zbog usrane Viste jos nije desilo, onda ce biti i vise igara za DX10+
 
Kada izadje Win 7 final i kada ljudi krenu masovno da prelaze sa XP-a, sto se zbog usrane Viste jos nije desilo, onda ce biti i vise igara za DX10+


Tesko da ce ljudi tako lako sa XP preci na Win 7, jer je skoro pa isto sto i Vista. Nikakvih revolucionarnih promena. Treba da kuckaju od nule nov OS. Gde je u Win 7 nov fajl system? Nema ga, jer Bilovi usrani inzenjeri ne umeju da ga naprave, a Balmer se smeje svima oko sebe svaki drugi dan i izigrava majmuna. Imaju odlican primer (Linux, Mac OSX) kako nesto dobro treba da izgleda, a pritom radi kako treba.
 
Poslednja izmena:
Tesko da ce ljudi tako lako sa XP preci na Win 7, jer je skoro pa isto sto i Vista. Nikakvih revolucionarnih promena. Treba da kuckaju od nule nov OS. Gde je u Win 7 nov fajl system? Nema ga, jer Bilovi usrani inzenjeri ne umeju da ga naprave, a Balmer se smeje svima oko sebe svaki drugi dan i izigrava majmuna. Imaju odlican primer (Linux, Mac OSX) kako nesto dobro treba da izgleda, a pritom radi kako treba.
prvo morao bi da budes opak programer da sebi uzmes za pravo da M$-ove inzenjere nazivas "usranima"
drugo morao bi da budes ******* menadzer koji upravlja milijardama i milijardama $ kapitalne vrednosti, ljudi i cega sve jos ne, da bi mogao Balmera da nazivas majmunom
trece morao bi da imas visegodisnje iskustvo sa Vistom da bi mogao da je komentarises i uporedjujes sa ovim ili onim OS-om...

Ja sam evo dve godine na 64-bitnoj Visti i APSOLUTNO nikada nikakvih problema nisam imao. Taj OS besprekorno fercera. Ne kazem da neki ljudi nisu imali problema sa njim, ali uvek neko ime aproblema sa bilo kojim parcetom softvera ili hardvera.

Stvarni problem j kad se ti problemi generalizuju.
 
^Bas tako!

I molicu da se diskusija ne dotice licnih (ne)iskustava sa Vistom. Tema je DX11 :)
 
^Bas tako!

I molicu da se diskusija ne dotice licnih (ne)iskustava sa Vistom. Tema je DX11 :)


Ok! DX 11 je samo paljevina za narodne mase. Ovo sto je yooyo naveo je odlican primer sta programersko znanje moze da uradi. Rage i Tech5, a ne trte mrte igre radjene u Cry Engine 1,2, DX10,11 i da bi posteno odigrao treba da cekas godinu ipo dana skupljajuci pare za ultra hardver.
 
Ako ti tako kazes...

Ista stvar bese one godine pred izlazak Doom3 ... Wow, sa'ce svima Carmack da pokaze. Kad ono, pojavise se neki Turci iz shvabije. I sad, gle cuda, iD radi Sandbox FPS.

To sto je DX10 ostao u zapecku i bivao koriscen samo kao layer iznad DX9 ne znaci da je isti los ili da mu je falilo nesto. Falio je interes developera da ga iskoriste. Svi podaci govore da je (sto zbog ogromnog negativnog hype-a, sto zbog neceg drugog) velika vecina igraca ostala na XP i DX9. Sto bi razvijali native DX10 igru kad nema ko da je igra...

Iako DX10 pruza mnoge dobre stvari, ali eto... zato se sad obrnuo curak, iz meni nepoznatog razloga svi zavolese Win7, isti se hvali svuda, pa ce valjda i developeri najzad iskoristiti ono sto im DX10 i DX11 pruzaju. Nova kompresija tekstura, particle instancing, redukovanje smarajucih draw-calls-a ka CPU, itd itd.

Programersko znanje je i kad neko implementira stvari svojstvene za render alate (makar to bilo uspesno fejkovanje) , da rade u realtime na trenutno raspolozivom hardveru. Na siggraphu ce prezentaciju pokazati i kreator GI-ja za Cryengine 3. Covek ga je napravio da radi i na X360 i PS3 jednako dobro kao na PC. I on je neki "dobar programer" ;)

Ali dzaba sve oo pricam. Ovo je ponavljano vec X puta...
 
Poslednja izmena:
ne nex, nego poenta je sledeca: DX je morao da ceka reinakrnaciju no. 10 da postane dovoljno jednostavan i funkcionalan kao i OpenGL od pre 10 godina!


(ili da Microsoft "ultra sposobni programeri" implementiraju kompozitni desktop koji zahteva isključivo DirectX 9 hardware (hint: Vista) :D :D - Mac OS X radi istu stvar od 2001. na GForce 256 karticama sa 16MB VRAMa... pre toga sa CPU i AltiVec instrukcijama... dok za to vreme sjajni programeri iz Microsofta cekaju 5 godina kako bi uradili istu stvar sa 16x jacim hardwareom :D) - ovo je sve odgovor na nedjim post!


verujem da je i Doktor hteo upravo da skrene paznju na ovu cinjenicu.

to je sustina svega. cinjenica je da Microsoft u narodne mase donosi tehnologije koje su stare i po celu deceniju (pocev od GUI-a...) - imaju xyz pokusaja da iskopiraju nesto, jednostavno moze im se :)

DirectX v. 11 je difinitivno korak u dobrom pravcu.

da OpenGL propadne - to bi bila planetarna tragedija! - da postoji jedan jedini API za 3D koji je totalno pod kontrolom samo jedne firme!
vec smo svi dideli kako Microsoft moze da baci jednu nvidia na noge!
link - (smesno, cak je promenjen i wikipedia artikal o tome kako Microsoft nije obezbedio specifikaciju za DirectX 9 nvidiji i time doveo celu FX seriju u problem!)


je se nadam da ce DX sto pre otici u vecna lovista - jer Microsoft ima moc da radi bukvalno sta hoce; da veže DX, zahvaljujuci monopolu nad OS-om, samo za jedanog proizvođača hardware-a!
da ne spominjem korisnike ostalih OS-a (koji mogu samo da se slikaju :()
 
Poslednja izmena:
Ja kapiram, da je to sasvim u redu, biti funkcionalan i jednostavan kao OGL od pre deset godina, a podrzavati sve ove novotarije:)
Ne vidim sta je tu lose, jer je napredak onda ocigledan, ma koliko ga neki omalovazavali (sto iz neznanja, sto iz podmuklih Mac-lover ili Sony-rules motiva haha).

I ja bih voleo da DX nestane, ali to nece da moze...
Jedino sam reagovao na "Carmack je bog, Vista je njesra i DX10/11 su njesra" pisanije. A nisu njesra. Sto i sam kazes :D
 
Jedino sam reagovao na "Carmack je bog, Vista je njesra i DX10/11 su njesra" pisanije. A nisu njesra. Sto i sam kazes :D

tako je!

ne kazem da su njesra DX11 ili Vista/Windows 7.
ali cinjenica da jedan Microsoft, "globalni lider", kopira sva svoja resenja* koja plasira sa zakasnjenjem od 5-10 godina jednostavno nervira.
(i ne razumem ko to moze neko opravdava... :trust:)

*osim svog "novog" file sistema - WinFS (vec sam zaboravio kako su ovaj projekat zvali sredinom 90tih...) i posle 15 godina ga nisu isporucili!!!


btw pa i Apple kopira Sun-a, ono sto Sun danas ima, Apple ce imati sutra, a Microsoft mozda za deceniju... :D

OpenCL je pravo resenje za sve, a ne Microsoftov DX.
 
Poslednja izmena:
JC je odavno trazio od NVidije i ATI-a da mu naprave GPU i omoguce da on radi sa njegovom memorijom sta god hoce... i to mu jos nisu napravili. DX10 klasa hardware-a donekle omogucava ono sto on zeli i shodno tome razvija engine.
Razlika je u nacinu razmisljanja kako iskorisititi GPU na najbolji nacin. Posto skoro sve na GPU postaje programabilno, tovarenje GPU-a sa novim AA modovima, teselacijama, i sta ti ja znam je samo uvertira u ono sto nam zaista treba... a to je masivni stream procesor. Najprostije receno... evo ti ulazni stream i program i smesti rezultat na u i tu lokaciju. Treba ugraditi u GPU vektorske i matematicke funkcije i to je sve. Potrebno je u potpunosti izbaciti pojam vertexa, texture, itd.. sve je buffer i tako treba da se radi. Ovo je upravo ono sto radi CUDA i OpenCL. Problem je samo sto je hw dizajniran da bude GPU a ne krckalica opste namene.

NVidia je nedavno izbacila OpenGL extenziju pomocu koje mozete kreirati jedan buffer i u njega smestiti sve.. geometriju, shadere, .. i onda odatle raditi dalje.. Smanjen je broj promena rendering state-a, mnogi draw pozivi su pojednostavljeni, izbacena su neka nepotrebna interna kopiranja i speedup moze biti i do 7x u idelanim situacijama. Realno, speedup postoji ali nije 7x vec 10-30%, ali ni to nije za bacanje.

Proizvodjacima hw-a ce biti lakse da dizajniraju spravu, driver ce biti jednostavniji, a ceo teret je na talentu developera.

Zaista, kao prednost DX11 vidim samo "display liste", tj mogucnos da vise jezgara ucestvuje u renderingu, tako sto ce svaki thread kreirati svoj rendering queue buffer, a glavni thread ce pozivati izvrsavanje pojedinih buffera... ostaje samo problem sinhronizacije thredova.

Tesselacija je totalno nepotrebna stvar, a compute shader je isto sto i OpenCL i CUDA.
 
Yooyo, u vezi onoga sa teksturiranjem, sta mislis o ovome?

Meni to jako slicno deluje onome sto radi Rage. Bar kad su performanse u pitanju.
 
To je to. Carmack je otisao korak dalje pa je napravio custom encoder za svaki mip level.. To je neki mix JPG-a i DXT-a, a sve zarad brzine streaming sa diska. Carmack koristi ovu tehniku za sve objekte u igri, ne samo za teren.
 
vec smo svi dideli kako Microsoft moze da baci jednu nvidia na noge!
link - (smesno, cak je promenjen i wikipedia artikal o tome kako Microsoft nije obezbedio specifikaciju za DirectX 9 nvidiji i time doveo celu FX seriju u problem!)

Ovo nije tacno. DX9 specifikacije u trenutku otpocinjanja rada na NV30 cipu nisu bile zavrsene, pa je Nvidijin tim dizajnirao cip u skladu sa onim sto su oni mislili da ce specifikacije na kraju biti. Medjutim, to se promenilo i Nvidija je napravila cip koji nije bio u potpunosti kreiran u skladu sa tim specifikacijama.

RAGE zaista, zaista impresivno izgleda. Kada se uzme u obzir da i na zastarelom konzolnom hardwareu radi u 60 frejmova i izgleda identicno kao i na PC-u kristalno je jasno da je Carmackov tim, po pitanju techa, verovatno #1 u svetu.
 
Jos da su im i igre na tom nivou...
 
Ako je poverovati ovome

[YOUTUBE]<object width="560" height="340"><param name="movie" value="http://www.youtube.com/v/xvDJzpBOieU&hl=en&fs=1&"></param><param name="allowFullScreen" value="true"></param><param name="allowscriptaccess" value="always"></param><embed src="http://www.youtube.com/v/xvDJzpBOieU&hl=en&fs=1&" type="application/x-shockwave-flash" allowscriptaccess="always" allowfullscreen="true" width="560" height="340"></embed></object>[/YOUTUBE]

[YOUTUBE]<object width="560" height="340"><param name="movie" value="http://www.youtube.com/v/RuZQpWo9Qhs&hl=en&fs=1&"></param><param name="allowFullScreen" value="true"></param><param name="allowscriptaccess" value="always"></param><embed src="http://www.youtube.com/v/RuZQpWo9Qhs&hl=en&fs=1&" type="application/x-shockwave-flash" allowscriptaccess="always" allowfullscreen="true" width="560" height="340"></embed></object>[/YOUTUBE]

Onda ce biti super.

Ali ako DX11 ne donese novinu u ukidanju Bump mappinga, e onda koji qrac imamo DX11? Brate, gledam zid iskosa kad ono kur moj cigle :d U to racunam i teren/zemljiste gde je navodno kaldrma. Prave jake kartice, a sada jos jace samo da fejkiraju na nekim stvarima.
 
Poslednja izmena:
Relief mapping postoji odavno. Ali ako mislis da ce tesselacija omoguciti da vidis cigle na zidu onda se varas, jer bi za to trebalo generisati mnooogo poligona.

Drugi video je demonstracija CUDA-e.
 
Poslednja izmena:
Koliko je izvodljivo da se pomocu tesslacije radi displacement mapping?
 
Pa tesselacija za to sluzi, medjutim da bi dobili fine detalje potrebno je mnogo poligona.
Npr.. ako se za model nekog karaktera koristi textura 1024x1024 i ako je taj model blizu posmatraca i jos se koristi neka adaptivna tehnika za tesselaciju moze da se desi da se generise 1M trouglova. Textura u ovom slucaju se koristi kao uzorak koliko se pojedini delovi modela triangulisu, kao i intenzitet displacementa.
Displacement skida opterecenje sa pixel shadera u toj meri da je jednostavniji i potrebno je manje matematike da bi se dobio slican efekat parallaxu ili relief mappingu. Ali zato, povecava se opterecenje na geometry shaderu jer se generise novi model. Takodje algoritam za adaptivnu tesselaciju je malo kompleksniji da bi se izbegle rupe u topologiji tzv. T-Junctions.


Edit: malo sam razmisljao.. neki hibridni pristup "malo tesselacije, malo parallax bump mapping" bi funkcionisao dobro.
 
Poslednja izmena:
Super. Hvala za info:) Interesuje me jos koliko je memorijski zahtevan displacement mapping, tj. da li je efikasnije za neki zid, na primer, koristiti diplacemet za generisanje grubog oblika cigle, ili imati model zida sa vec izmodelovanim ciglama. Za fine detalje koji i onako ne uticu na outline objekta, je suludo koristiti displacement. Tu bump odlicno radi posao.

Nadam se da ne davim previse sa pitanjima :)

Poz

P.S. tek sad sam video tvoj Edit. I ja sam kontao da bi algoritam koji radi displacement mogao da ogranici broj poligona koji dodeljuje geometriji a da finije detalje i dalje "izvlaci" nekim bump mapingom.
 
Poslednja izmena:
Najveci benefit od DX11 teselacije bi trebale imati zakrivljene i podrazredne povrsine.

http://castano.ludicon.com/blog/2009/01/10/10-fun-things-to-do-with-tessellation/

Ali to se sigurno nece desiti u skorije vrijeme jer ne postoji dovoljna podrska i standardizacija za trenutne game content pajplajne i alate, te 3D namjenske programe. Spominju se i nekompatibilnost zakrivljenih povrsina sa shadowing i skinning tehnikama. Trebat ce vremena da se 3D artisti naviknu na alate i tehnike...
 
Ovo nije tacno. DX9 specifikacije u trenutku otpocinjanja rada na NV30 cipu nisu bile zavrsene, pa je Nvidijin tim dizajnirao cip u skladu sa onim sto su oni mislili da ce specifikacije na kraju biti. Medjutim, to se promenilo i Nvidija je napravila cip koji nije bio u potpunosti kreiran u skladu sa tim specifikacijama.

smaracu, trosis mi vreme!

http://en.wikipedia.org/wiki/GeForce_FX_Series

"A second reason was Nvidia's commitment with Microsoft. Many of Nvidia’s best engineers were working on the Xbox contract, developing a motherboard solution, including the API used as part of the SoundStorm platform and the graphics processor (NV2A). The Xbox venture diverted most of Nvidia's engineers over not only the NV2A's initial design-cycle but also during the mid-life product revisions needed to discourage hackers. The Xbox contract did not allow for falling manufacturing costs, as process technology improved, and Microsoft sought to renegotiate the terms of the contract, withholding the DirectX 9 specifications as leverage. As a result, Nvidia and Microsoft relations, which had previously been very good, deteriorated. (Both parties later settled the dispute through arbitration and the terms were not released to the public.)

Due to the Xbox dispute, Nvidia was not consulted when the DirectX 9 specification was drawn up, while ATI designed the Radeon 9700 to such specifications. "

link

...i bla, bla. vec sve ono sto i mala deca znaju.

dakle, nije promenjen clanak na wikipediji vec sam ja gledao pogresan. reference za gore navedene tvrdnje imas svuda po netu.

dakle M$ jeste iskoristio svoj monopolski polozaj i kontrolu nad DirectX-om kako bi naskodio nvidiji koja nije htela da mu popusti!


btw koje su to stvari koje DirectX 11 donosi a postoje vec u OpenCL-u? gde se to preklapaju ? da li imate link ka tekstu na ovu temu ?
 
Poslednja izmena:
^ to je onako najgeneralnije :)

ajde onda ovako: sta to novo donosi DX11 po pitnaju GPGPU-a ?

za OpenCL kažu da i nvidija i ATI mogu svoje CUDE i CM da stave "podrum"... videćemo šta će od toga stvarno biti ali pitam da li se zna kakvo je stanje konkretno po pitanju svih ovih GPGPU tehnologija... (od CUDE smo videli H264 encoder, takodje smo videli da intel u svoj larabi stavlja hardwerski H264 encoder iako x86 moze sve i svagda :d ... - da li postoji neki interesantan tekst na ovu temu, ja sam trazio po netu ali nista nisam nasao, bar ne nista sveze i novo :( )
 
btw koje su to stvari koje DirectX 11 donosi a postoje vec u OpenCL-u? gde se to preklapaju ? da li imate link ka tekstu na ovu temu ?

OpenCL nije graficki API za razliku od DX11(+Compute Shader)?


Gde se preklapaju:

IMG0024831.jpg


http://www.behardware.com/articles/744-1/opencl-democracy-for-gpu-computing.html
 
Poslednja izmena:
naravno da nije "graficki" API ali verujem da M$ mora spremiti odgovor na to sto nudi OpenCL i u svoj DX uvesti funkcionalnost i mogucnosti OpenCLa... ;)
 
Poslednja izmena:
CUDA ima vise sansi od OpenCL-a iz tri jednostavna razloga:
1. CUDA je C/C++/Cu kompajler i generise code koji ide direktno u GPU i/ili CPU.
OpenCL je isto sto i shading language (GLSL, HLSL). Aplikacija salje OpenCL program kao string OpenCL driveru i on kompajlira string u GPU code. Na identican nacin radi i GLSL, odnosno HLSL.
2. CUDA je native za NV platformu i imas vise mogucnosti za fine tunning nekog proracuna.
3. NVidia razija CUDA bez cekanja na dogovore sa ostalim vendorima oko standarda. Bilo kakva promena ili novitet u OpenCL-u zahteva da se clanovi borda o upravljanju standardom sastanu, predloze i dogovore.
 
CUDA ima vise sansi od OpenCL-a iz tri jednostavna razloga:

Mislim da je do sada nebrojeno puta pkazano i dokazano da jedino sto uspeva jeste ono sto u imenu ima "Open" ili "Microsoft" ;) a CUDA nema ni jedno od to dvoje.
 
Nvidia Talks DirectX Compute in Windows 7

The latest entry on the Microsoft Partner blog is from Nvidia and pushes the idea of the GPGPU. While it is written from an Nvidia product-focused, the same principals and advantages exist with GPUs from other vendors (such as your Radeon).

"With the introduction of Windows 7, the GPU and CPU will exist in a co-processing environment where each can handle the computing task they are best suited for," wrote Chris Daniel, product manager for software at Nvidia. "The CPU is exceptionally good at performing sequential calculations, I/O, and program flow, whereas the GPU is perfectly suited for performing massive parallel calculations."

Microsoft is doing its part by putting DirectX Compute in Windows 7, so that developers can make better use of the GPU for tasks other than just graphics acceleration. Having the GPU pitch in where possible will help take the load off of the CPU so that it can focus on other tasks. The ideal end result of this is that the PC should be more responsive thanks to efficient use of processing power.

Daniel gives an example of how a GPGPU could speed up a task: "With new software designed to take advantage of this capability you would be able to copy and transcode (convert a video from one format to another – a very computationally intensive task) a movie to your MTP supported portable media device up to 5 times faster when using the GPU as a co-processor with DX Compute, as compared to only doing the processing on the CPU."

Microsoft also natively supports GPU acceleration with a new Windows Media Player and Windows Media Center for H.264 video content, most of which is encoded in high-definition formats and typically more taxing on the CPU.

"Parallel programming is the next big thing for the world of computing – it has started already," said Daniel. "DirectX Compute will accelerate this discontinuity by enabling massive parallelism to the masses. What we are talking about is co-processing— essentially using the right tool for the job."
 
Poslednja izmena:
Nazad
Vrh Dno