Šta je novo?

AMD to Demonstrate GPU Havok Physics Acceleration at GDC

starac

Čuven
Učlanjen(a)
13.01.2005
Poruke
5,196
Poena
815
http://www.techpowerup.com/88739/AMD_to_Demonstrate_GPU_Havok_Physics_Acceleration_at_GDC.html

GPU-accelerated physics is turning out to be the one part of specifications AMD is yearning for. One of NVIDIA's most profitable acquisitions in recent times, has been that of Ageia technologies, and its PhysX middleware API. NVIDIA went on to port the API to its proprietary CUDA GPGPU architecture, and is now using it as a significant PR-tool apart from a feature that is genuinely grabbing game developers' attention. In response to this move, AMD's initial reaction was to build strategic technology alliance with the main competitor of PhysX: Havok, despite its acquisition by Intel.

In the upcoming Game Developers Conference (GDC) event, AMD may materialize its plans to bring a GPU-accelerated version of Havok, which has till now been CPU-accelerated. The API has featured in several popular game titles such as Half Life 2, Max Payne II, and some other Valve Source-based titles. ATI's Terry Makedon, in his Twitter-feed has revealed that AMD would put forth its “ATI GPU Physics strategy.” He also added that the company would present a tech-demonstration of Havok technology working in conjunction with ATI hardware. The physics API is expected to utilize OpenCL and AMD Stream.

Ocekivano rekao bih :)
 
Bilo bi dobro da microsoft u direct x 11 stavi podrsku za fiziku i onda bi proizvodjaci kartica bili primorani da podrze to. A razvojnim timovima bi vise odgovaralo da implementiraju directx podrsku za fiziku nego da podrze ili ati ili nvidiu..
 
Ako je tačno ono što sam pročitao na nekom od sajtova u vezi sa ovom vesti, ta akceleracija Havoka je realizovana preko OpenCL-a. Što znači da onog trenutka kada nVidia bude imala podršku za OpenCL za svoje kartice to bi trebalo da radi i na njihovom hardveru. Imajući u vidu da je Intel vlasnik Havoka, čovek kada malo razmisli, ima logike da to bude realizovano pomoću OpenCL-a. U tom slučaju taj kod će raditi i na Intel Larrabee-u onda kada se ovaj pojavi i neće morati od nule da pišu kod za njega (već eventualno samo malo da optimizuju postojeći).
 
super. I bolje je da uzmu nesto trece kako bi vodili na svoju vodenicu. Mislim, zasto bi se zaboga svi ujedinili oko jedne stvari, a da ta stvar niej profit. To nema smisla. Zamislite da imam jedan API koji radi i na nVidia i na ATI. Pa to bi bio smak sveta.
Iskreno, da se ATI prvi dosetio i napravio hw podrsku za fiziku i da je kupio AGEIA isto bih zeleo da i nvidia onda skoci u taj camac i plati ako treba za API.
Meni ova igranka oko fizike lici na igru dece u fazonu ciji je kliker lepsi. Sreca u nesreci je sto im m$ diktira DirectX, inace cenim da bi odavno i jedni i drugi imali svoj API i da pola igara ne bi mogao da igras ako imas kartu iz jednog tabora.
sad valjda u drugi PEG treba da stavim ATI kartu, pa kad igram nesto sa HAVOC onda igram na atiju, a kad igram nesto sa PhysX onda vratim na nVidiu (neko ce obrnuti redosled u skladu sa svojim preferencama :d ).
Nadam se da ce me proci volja za video igrama pa da zaboravim (napokon) na ove papazjanije (i ne, necu kupiti Mac)

Samo sto je ATI prije nepunih godinu dana imao skroz drugaciji stav o GPU akceleriranoj fizici. I danas kada su vidjeli sta je konkurencija uspjela napraviti, prica se mijenja.

I da nema DX-a, svi bi koristili OpenGL.
 
Ako im ova akceleracija bude radila kao ona sa Avivo konverterom ili kako se vec zvase, onda pisi propalo...tj, videla zaba da se konj potkiva:p
 
Ja mislim da u čitavoj priči nVidiji pre priliči uloga žabe, na kraju krajeva oni su ti koji su zeleni. :D

Inače, bilo bi interesantno kada bi na GDC-u ponovo predstavili ovaj demo. :)
 
Ukratko, ako intel preko larabee-a bude gurao havok, morace i nvidia. U slucaju da AMD i Intel budu podrzavali havok, a nvidia ostane na physx-u, ima da nastane havarija :d Developeri ce okrenuti konzolama.
 
^
Budimo realni ako Intel pogura Havok to ce postati standard svidelo se to nama ili ne...
 
Poslednja izmena:
Ako larabee bude gurao Q3 u RT u 20FPS tesko da ce neko prihvatiti bilo kakav standard sa larabija. Jos ne znamo sta larabe u praksi moze, a sta ne tako da ga ja licno ne bih jos uvek mesao u pricu. Sa druge strane, havoc na larabiju ce se izvrsavati podjednako hardwerski kao i na CPU, a poenta je da se izvrsava na GPU, samim tim havoc na larabiju i na ATI-ju su dve razlicite price, dve razlicite implementacije i bla bla. :)

Zašto je poenta da se fizika izvršava na GPU-u? :trust:
Na GPU-u će se izvršavati jednako "hardverski" koliko i na CPU-u. Ni prvi, ni drugi tip procesora nemaju specijalne jedinice za fiziku, tako da se u svakom slučaju izvršava softverski. Prema tome, ja ne vidim ni jedan razlog zašto bi Larrabee bio lošiji za proračunavanje fizike u odnosu na današnje GPU-ove. (grafika i softverska emulacija pojedinih jedinica u GPU-u su druga priča)
 
(edit)FLCX ti lepse odgovori.
U celu pricu mesam jer je i ovo nekad u buducnosti, ne zna se sta ce biti ALI ako intel bude gurao havok, prica ce okrenuti stranu. Recimo da jedno vreme igre nece podrzavati havok zbog twimtbp programa ali ako vec intel bude usao u igracku(gpu) industriju, eto novog programa podrske, a sigurno moze platiti vise nego Nvidia. AMD ocigledno igra na tu kartu, jer trenutno physx je samo na papiru dobar. Tek kada izadje neki naslov (fps) u kojem se sa rocketL budu mogli zidovi rusiti, physx nece biti samo za eyecandy. Takodje, jedna 8800gs ili slabija karta u susjednom slotu, samo za fiziku, predstavlja jednu od solucija za buduce gtx3xx i 5870 karte.
 
Poslednja izmena:
Boze, pa zato valjda sto rasterecuje CPU, brze se izvrsava zbog prirode GPU-a, a do sada se vec izvrsavala na CPU tj. i dalje se izvrsava i cim je kompleksnija stvari se uspore posto CPU ima dosta posla i pored fizike. Za iste operacije GPU-u treba manje vremena i manje resursa. :)
Naravno pricamo o kompleksnijoj fizici sa kompleksnim efektima kao rezultat. :)
Sve je to Ok, ali hteo sam reći da ne vidim razlog zašto bi taj procesor na koji se off-loaduje izračunavanje fizike morao biti GPU. Taj posao bi možda bolje mogla odraditi neka generalnija, visoko paralelna arhitektura. ;)

edit: nisam rekao da bi lara bila losija za izvrsavanje fizike, sta vise, verovatno bi bila bolja, rekao sam indirektno da ce verovatno biti losija za render i za ono sto GPU danas radi, a RT (koji joj lezi) je nedovoljno dobar (iz onoga sto je prikazano) da bi bio uzet za ozbiljno kad je gaming u pitanju. ;)

Zato sam rekao da je tesko da ce lara postaviti neki standard sobzirom da je najveci ucinak na polju gaminga za sada Q3 RT u 640x480 i 20fps. :) Ne vidim kako ce to diktirati industriji "sta dalje".
U potpunosti se slažem sa ovim, ali ja tu vidim razlog više da se Intel založi i nametne Havok kao standard za akceleraciju fizike (fizika će raditi brže, grafika sporije, sve ukupno bi performanse bile tu negde sa konkurencijom).
Ovo sa ATI-jem mi upravo deluje kao korak u tom smeru. Kao što sam gore naveo, ako zaista akceleraciju odrade kroz OpenCL ne vidim razlog zašto bi se onda developeri odlučivali za PhysX koji radi samo na nVidia karticama, na suprot Havoku koji bi radio na bilo kom hardveru koji podržava OpenCL.
 
Sve je to Ok, ali hteo sam reći da ne vidim razlog zašto bi taj procesor na koji se off-loaduje izračunavanje fizike morao biti GPU. Taj posao bi možda bolje mogla odraditi neka generalnija, visoko paralelna arhitektura. ;)

Nešto kao propala Ageia PhysX kartica? :trust:
 
Poslednja izmena:
Nešto kao propala Ageia PhysX kartica? :trust:

Ta kartica nikako nije imala procesor koji bi se mogao okarakterisati kao general purpose, te se ne uklapa u opis. :)
Mislio sam na famozni Larrabee, koji bi pored toga što ima potencijal da bude dobar procesor za fiziku mogao da posluži kao npr. osrednja grafička karta, odličan koprocesor za kompresiju video materijala, ...
 
Ta kartica nikako nije imala procesor koji bi se mogao okarakterisati kao general purpose, te se ne uklapa u opis. :)
Mislio sam na famozni Larrabee, koji bi pored toga što ima potencijal da bude dobar procesor za fiziku mogao da posluži kao npr. osrednja grafička karta, odličan koprocesor za kompresiju video materijala, ...

I bio bi skup.Uostalom, mi ovde pričamo u fizici, tu general purpose hardware nema šta da traži.
 
Poslednja izmena:
Uostalom, mi ovde pričamo u fizici, tu general purpose hardware nema šta da traži.
Hmm, zar akceleracija fizike pomoću GPUa nije pokazala suprotno? GPU nije čip specijalizovan za proračunavanje fizike, a pokazao se kao uspešniji nego Ageia PPU.
 
Ta kartica nikako nije imala procesor koji bi se mogao okarakterisati kao general purpose, te se ne uklapa u opis. :)
Mislio sam na famozni Larrabee, koji bi pored toga što ima potencijal da bude dobar procesor za fiziku mogao da posluži kao npr. osrednja grafička karta, odličan koprocesor za kompresiju video materijala, ...
Takva kartica bi imala vrlo malo kupaca i ne bi ostavila jak uticaj na tržište koliko god marketinških dolara Intel stavio iza njega. Larabee će morati da bude konkurentan tada aktuelnim high end GPU-ovima u većini igara da bi imao ikakvog izgleda da uspe. Taj pristup osrednja grafulja, ali zato haos kompresija vido materijala ne pije vodu. Ko bi to kupio?
 
Hmm, zar akceleracija fizike pomoću GPUa nije pokazala suprotno? GPU nije čip specijalizovan za proračunavanje fizike, a pokazao se kao uspešniji nego Ageia PPU.

Uspešniji u čemu? Na prste jedne ruke se mogu nabrojati igre koje koriste hardversku akceleraciju fizike, ta akceleracija radi samo na nVidia hardveru, a i to je samo marketinškog tipa pošto efekti koji su hardverski urađeni nemaju nikakav uticaj na tok igre, tu su samo reda radi, nasumično nabacani tek da se opravda njihovo postojanje.
 
Poredjenje Havoka i Physx-a u kratkim crtama (ovo sam isekao sa drugog foruma. ):
Physx:
Designed from the ground up for massively parallel hardware
Complex rigid body object physics system
PhysX FX smart particle system
Volumetric fluid creation and simulation
Cloth and clothing authoring and playback
Advanced character control
Ray-cast vehicle dynamics
Support for arbitrary number of physics scenes with fine user control of threads PhysX Runtime™
Completely integrated solver– fluids, particles, cloth and rigid bodies interact correctly
Exploits parallelism at every level from the core solver to scene management

Havok:
Collision Detection - including Continuous Physics™
MOPP™ Technology - for compact representation of large collision meshes
Dynamics and Constraint Solving
Vehicle Dynamics
Dodaci za Havok:
Havok Behavior™ - ponasanje RPC-ovs
Havok Animation™ - karakter animacija
Havok Cloth™ - simlacija tkanine
Havok Destruction™ - simulacija "explozija" (za sada samo na XBOX360 i PS3)

Po meni prednost Physx nad Havokom je u integrisanim solverima, tj. vise razicitih simulacija mogu da uticu medjusobno i to sve odradjuje Physx engine. Mnoge tehnike koje Havok nudi su bazirane na CPU i neznam kako bi se prebacile na GPU. Verovatno da ceo Havok nemoze da se preseli na GPU ali neki delovi mogu.

Npr. kada se radi detekcija sudara velike kolicine objekata paralelni pristup resavanju problema donosi ogromno ubrzanje. GPU to oradjuje efikasno tako sto u jednom prolazu testira veliki broj objekata i zatim iterativnim postupkom nadje sve one koji su se sudarili i kada su se sudarili.
CPU mora da pravi specijalne strukture u memoriji da bi eliminisao nepotrebne provere i na kraju poredi samo ono sto misli da treba da poredi. Ali ako se stavi veliki broj objekata onda se CPU gusi.

Idealno bi bilo kada bi se Physx API doradio tako da direktno saradjuje sa rendering API. Npr.. da graficka karta "zna" za postojanje fizickih objekata i da svi ti objekti imaju "imena". Simulacija fizike bi modifikovala pozicije tih objekata direktno (bez potrebe da prebacuje podatke u sysmem).
Ovakva promena bi zahtevala da se jos vise posla prebaci na ionako mocan GPU.
 
@Darius:
A kako ti zamisljas da fizika utice na gameplay? Ajde navedi mi primer sta bi hteo.
 
@Darius:
A kako ti zamisljas da fizika utice na gameplay? Ajde navedi mi primer sta bi hteo.

Recimo ovako (mislim da je to neko već pre mene spomenuo): Mogu da nasumično, po nahođenju, gađam neki od objekata RPG-om, pored objekta se nalazi NPC, pogođeni delovi objekta otpadaju i jedan od njih pada na njega i u odnosu na veličinu i mesto gde pada, ranjava, sakati ili ga ubija .

Pri tome naravno ne mislim na skriptovane i unapred određene objekte koji se mogu uništiti, već na totalno random uništavanje.
 
E vidis.. problem fizike je u numerickom resavanju integrala. Sto je manji fps, vise je vremena proteklo izmedju frejma i fizicki engine ima vise posla da izracuna novonastalo stanje. Ako se proracun izmedju 2 frejma razlikuje na 2 racunara onda rezutat simulacije nece biti isti. E zamisla sada igras neki miltiplayer i razvalis zid. Tvoj komp je brz i pokaze da se zid srusio na protivnika, ali game server je to procenio malo drugacije i zid ipak nije pao na protivnika.
 
HAVOK baziran na OpenCL-u nije isto sto i ovaj HAVOk koji se trenutno licencira i ima fičerse koje je Jugoslav gore naveo
 
E vidis.. problem fizike je u numerickom resavanju integrala. Sto je manji fps, vise je vremena proteklo izmedju frejma i fizicki engine ima vise posla da izracuna novonastalo stanje. Ako se proracun izmedju 2 frejma razlikuje na 2 racunara onda rezutat simulacije nece biti isti. E zamisla sada igras neki miltiplayer i razvalis zid. Tvoj komp je brz i pokaze da se zid srusio na protivnika, ali game server je to procenio malo drugacije i zid ipak nije pao na protivnika.

Hoćeš da kažeš da onda u multiplayer varijantama "prava" fizika neće moći da se koristi? A pretpostavljam da u singleplayer modu bi moglo..
 
Cak i u singleplayer modu ne bi bilo isto.. zbog razlike u fps-u rezultat proracuna fizike je potpuno drugaciji. Ako bi npr pucao na zid i on padne i ubije protivnika a zatim promenis kvalitet grafike (malo povecas npr. kvalitet shadera) i samim tim smanjis framerate, onda simuliranje pada zida nece bit isto i mozda neces uspeti da ubijes protivnika na nacin na koji si naucio da moze. Ili ako predjes za drugi racunar imaces potpuno drugi dozivljaj.

Zamisli npr.. Counter Strike sa fizikom.. i na brzom racunaru bacis bombu na protvinika a ona lepo odskakuce i odbija se od zidova i na kraju padne na mesto X. Na sporijem racunaru ista ta bomba bacena pod istim uslovima ce pasti na drugu lokaciju, mozda blizu X, a mozda na potpuno drugu stranu.
 
Sve je to Ok, ali hteo sam reći da ne vidim razlog zašto bi taj procesor na koji se off-loaduje izračunavanje fizike morao biti GPU. Taj posao bi možda bolje mogla odraditi neka generalnija, visoko paralelna arhitektura. ;)

Sto rece gx-x " brze se izvrsava zbog prirode GPU-a".

Najbolje rjesenje za akceleraciju fizike je i dalje PPU, ali je i najskuplje. Zamislite da danas imamo PPU sa 128 ko-procesora, 1400 mil. tranzistora u kombinaciji sa 1GB GDDR5 memorijom. Na kom nivou bi fizika bila u tom slucaju!

Uspešniji u čemu? Na prste jedne ruke se mogu nabrojati igre koje koriste hardversku akceleraciju fizike, ta akceleracija radi samo na nVidia hardveru, a i to je samo marketinškog tipa pošto efekti koji su hardverski urađeni nemaju nikakav uticaj na tok igre, tu su samo reda radi, nasumično nabacani tek da se opravda njihovo postojanje.

Meni se cini da tebi smeta Nvidia u ovoj prici. Dali bi tako govorio da je Physx u vlasnistvu AMD-a?

Mali je broj naslova jer je ovo tek pocetak. I sun rays su takodjer hardverski renderiran fancy efekt, i nemaju nikakav utjecaj na tok igre ;)
 
Meni se cini da tebi smeta Nvidia u ovoj prici. Dali bi tako govorio da je Physx u vlasnistvu AMD-a?

Mali je broj naslova jer je ovo tek pocetak. I sun rays su takodjer hardverski renderiran fancy efekt, i nemaju nikakav utjecaj na tok igre ;)

Isto ovako bih pričao i u slučaju da je vlasnik AMD.Dokle god se fizika potencira kao nešto revolucionarno a u principu se svodi na 2-3 efekta u igri (primer Mirror's Edge-a), ja ću ovako pričati/pisati.Sun rays jeste efekat, ali doprinosi dočaravanju realnosti u igri i sasvim je druga priča.
 
Cak i u singleplayer modu ne bi bilo isto.. zbog razlike u fps-u rezultat proracuna fizike je potpuno drugaciji. Ako bi npr pucao na zid i on padne i ubije protivnika a zatim promenis kvalitet grafike (malo povecas npr. kvalitet shadera) i samim tim smanjis framerate, onda simuliranje pada zida nece bit isto i mozda neces uspeti da ubijes protivnika na nacin na koji si naucio da moze. Ili ako predjes za drugi racunar imaces potpuno drugi dozivljaj.

Zamisli npr.. Counter Strike sa fizikom.. i na brzom racunaru bacis bombu na protvinika a ona lepo odskakuce i odbija se od zidova i na kraju padne na mesto X. Na sporijem racunaru ista ta bomba bacena pod istim uslovima ce pasti na drugu lokaciju, mozda blizu X, a mozda na potpuno drugu stranu.

ok. i koje je onda resenje? nece biti samo graficka podesavanja low medium high, nego isto to i za fiziku?:)
 
Vrh Dno