Šta je novo?

Larrabee @ GDC '09

ikonoklast

Čuven
VIP član
Učlanjen(a)
26.05.2006
Poruke
6,153
Poena
510
http://home.comcast.net/~tom_forsyth/blog.wiki.html

Yay! Michael Abrash and I are finally going to do a talk each about the instruction set we helped develop: Rasterization on Larrabee: A First Look at the Larrabee New Instructions (LRBni) in Action and SIMD Programming with Larrabee: A Second Look at the Larrabee New Instructions (LRBni) in Action. They're pretty much a pair - going to mine without seeing Mike's first won't mean very much for example. Note that these aren't graphics talks, they're for anybody who wants to program these cores in assembly or C. We will be using parts of the graphics pipeline as examples, because that's what we've spent most of our time doing, but there's no graphics knowledge required at all. Just bring your assembly head - we're going all the way to the metal.

There's very few programmers that can say they got to invent their own ISA, and I'm really looking forward to finally being able to talk about it in public after about three years of secrecy. Creating an ISA is all about compromises between programmer flexibility and how difficult the hardware is to build, but I am always astonished how much we managed to pack in without too much screaming from the hardware folks. It will be interesting seeing how people react to it - it's got a lot of funky features not found in other ISA that I know of.
 
Mene strasno zanima u kom ce pravcu da krenu sa Larrabee-em. Voleo bih da se Intel mnogo aktivnije ukljuci u PC gaming, verujem da bi to promenilo mnogo toga...ako se ne obistini ona prica o konzolama sa Inquirer-a :).

Kupili su Havoc, Offset software ili kako vec, tako da nije nemoguce da planiraju jos takvih poteza. Intel svakako ima snage za znacajne korake, samo me zanima sta im je na umu...

Kad bi tako odlucio, mislim da bi Intel mogao (makar i na silu) da napravi revoluciju kakvu smo doziveli u 3dfx/voodoo eri (u smislu podrske razvojnih timova i koncentrisanja na platformu generalno).

Ima tu jos mnogo kombinacija, ali mene interesuje deo koji bi uticao na PC gaming,pa zato pricam iz tog ugla. Za ostale primene nekako ne brinem :)
 
Poslednja izmena:
Mene strasno zanima u kom ce pravcu da krenu sa Larrabee-em. Voleo bih da se Intel mnogo aktivnije ukljuci u PC gaming, verujem da bi to promenilo mnogo toga...ako se ne obistini ona prica o konzolama sa Inquirer-a :).

Kupili su Havoc, Offset software ili kako vec, tako da nije nemoguce da planiraju jos takvih poteza. Intel svakako ima snage za znacajne korake, samo me zanima sta im je na umu...

Kad bi tako odlucio, mislim da bi Intel mogao (makar i na silu) da napravi revoluciju kakvu smo doziveli u 3dfx/voodoo eri (u smislu podrske razvojnih timova i koncentrisanja na platformu generalno).

Ima tu jos mnogo kombinacija, ali mene interesuje deo koji bi uticao na PC gaming,pa zato pricam iz tog ugla. Za ostale primene nekako ne brinem :)

A mozda intel planira svoju konzolu:D
 
Pa ja sam od prvih najava Larrabee-ja pricao da ocekujem revoluciju ali ovde ima mnogo nay-sayera.
 
Samo da intel odluci da je gaming bitan za njega i da se ukljuci, posle toga ostaje samo da stanemo i gledamo :). Znaju oni kako ce da proguraju stadarde i sve ostalo. Mislim, i sada svima treba dobar procesor za igranje, ali nije to ta prica. Kupovina Havoc-a i Offset-a stvarno ukazuju da bi moglo da bude ozbiljnih namera u vezi sa pc gamingom, ne verujem da im je stalo da samo malo podignu standard u odnosu na njihova integrisana resenja.

Ne verujem ni da sve to rade da bi uleteli u konzolu, iako bi se tako stvarno najlakse nametnuli...
 
Poslednja izmena:
Pa ja sam od prvih najava Larrabee-ja pricao da ocekujem revoluciju ali ovde ima mnogo nay-sayera.
evo ti jedan nay-sayer:

Russell Williams je napisao(la):
"Larrabee. It is still very early to talk about this product, which may be released sometime in 2010. We are taking a wait-and-see-approach. Larrabee is a wild card in the game. It is not structured like a GPU and there is no clear indication of how to take advantage of the x86 hardware. It's unclear at this time which tools will be available to develop for Larrabee and Adobe does not know what "costs" will be involved to take advantage of this GPU.

http://www.tgdaily.com/content/view/41486/140/
 
Poslednja izmena:
I ja mislim da je još uvek rano za bilo kakve prognoze, i da se ne radi o Intelu (moć i novac), rekao bih da će takvo GPU rešenje imati značaja kol'ko i prdež u oluji. :d

Biće ipak zanimljivo gledati kako se menjaju strane, sklapaju i rasturaju paktovi (k'o u Drugom svetskom ratu :d). Danas je više nego jasno da Wintel alijansa koja je i stvorila PC kakav danas znamo nema sjajnu budućnost. Intel se sve više okreće Linuksu, a MS planira proširenje saradnje sa IBM-om, ali i gleda da razvije svoj hardver. :)

Sa druge strane, Adobe i MS sve više zatežu odnose, a i antimonopolski zakoni sve više pritiskaju velikane. Biće tu dosta tumbanja i pregrupisavanja.

Konzole i ultra portabilni uređaji su sve veće tržište u kome ni Intel ni MS nemaju toliko jake pozicije kao u desktop segmentu, ali ni neće tako lako odustatu pa će i tu biti lomljenja koplja. :)

Što se hardvera tiče, dominaciju će ostvariti onaj ko prvi ponudi lake i jeftine softverske alate, pa je zato Intel tako naklonjen OSS-u.

Lično se slažem sa ocenama da bi se od instrukcijske kompatibilnosti trebalo kretati ka API kompatibilnosti, te da će tip samih jezgara u budućnosti imati značaja kol'ko i ugao između cilindara kod dvorednih motora sa unutrašnjim sagorevanjem. ,)
 
Poslednja izmena:

Bullshit. Taj Adobe-ovac je totalno neinformisan!

Adobe je drzao neku konferenciju u hotelu u kom sam ja odseo, mogli su da prosetaju do IDF-a umesto sto su sedeli i zdrali u restoranu.

We are taking a wait-and-see-approach.

Hahaha, to je bas dobar pristup... neka oni samo cekaju dok se drugi budu spremali.

Larrabee is a wild card in the game.

Tacno tako, dzoker u igri... pa ko odigra prave karte odigrao je. Samo sto mislim da on to nije shvatio.

there is no clear indication of how to take advantage of the x86 hardware.

Kao i svaki drugi x86 hardware.

It's unclear at this time which tools will be available to develop for Larrabee

Intel Parallel Studio, pricala Renee James o tome na IDF-u.

and Adobe does not know what "costs" will be involved to take advantage of this GPU.

Eh, kao da oni kao partneri ne mogu da se raspitaju malo... znaci totalno su me razocarali. Zelja za inovacijom i za time da se bude prvi == 0. Jedino sto zele je to keep peddling the same old at same over-inflated prices.
 
ovaj komentar je dobar ;)

Osim sto lik prica o SSE kao da zna nesto.

if I want/need to change the goddam vector control parameters, I break everything the CPU does on every thread, even priviledged execution threads!!!!!

Pri context switch-u se cuva ceo FPU/SSE kontekst ukljucujuci i MXCSR registar sa tim kontrolnim bitovima (uz pomoc FXSAVE/FXRSTOR instrukcija) pa prema tome nema sanse da se desi to sto on prica jer inace ni jedna numericka aplikacija koja koristi SSE ne bi radila kako treba sto iz dugogodisnje prakse znamo da nije slucaj.

Sto se tice zaokruzivanja ima SSE instrukcija koje zaobilaze potrebu za promenom rounding moda (najcesce je potreban truncate mod pored standardnog C/C++ moda), a Penryn ima cak i instrukciju gde se moze izabrati bilo koji od 4 moda (ROUNDPS) pa se MXCSR ne mora uopste cackati.

And guess what, something I am wrestling with right now .. there isn't a clean float-to-scaled-integer instruction in SSE.

Ako sam dobro razumeo hoce da konvertuje float u fixed point mada mi termin koji je upotrebio ("scaled integer") smrdi na ex-Visual Basic programera.

To se svodi na obicno mnozenje konstantom i cast u integer, dakle cele dve instrukcije u asembleru ili svega jedan red u C/C++:

Kod:
	float fValue = 500.314f;
	int iScaledValue = (int)(fValue * 65536.0f);

Izdvajanje celobrojnog i razlomljenog dela iz ovakvog fixed point broja je jos jednostavnije:

Kod:
	int iIntegralPart = iScaledValue >> 16;
	int iFractionalPart = iScaledValue & 0xFFFF;

Dakle, kada neko pokaze ovakvo temeljno neznanje o elementarnim aspektima x86 arhitekture u jednoj recenici i matematike u drugoj moje pitanje je da li ti zaista ocekujes da njegovo misljenje o Larrabee moze imati bilo kakvu vrednost?

Sto se mene tice taj komentar je dobar samo ukoliko ga odstampas i ukoliko pod "dobar" podrazumevas "dobar za potpalu".
 
zato sam i postovao da procitam tvoj odgovor ;) nadam se da ne zameras ! :) jer ni ne znam koga bih drugog pitao za misljenje o onome sto je napisao badAndy ...
 
zato sam i postovao da procitam tvoj odgovor ;) nadam se da ne zameras ! :) jer ni ne znam koga bih drugog pitao za misljenje o onome sto je napisao badAndy ...

Nemam nista protiv, ali sledeci put formulisi "pitanje" drugacije. Ovako je izgledalo kao provokacija, mnogo bolji utisak ostavlja ako napises "audio, sta ti mislis o XYZ?".
 
;) ...jos nisam procitao thread do kraja, ima interesantnih misljenja; a vidim da je neko kasnije odgovorio badAndy-ju bas isto sto i ti! ... ...ali i dalje ostaje cinjenica da je intel svoj SIMD usavrsavao na x puta dok je AIM napravio AltiVec iz prvog ;) isto je i sa Larrabeeom "vs" Cell... opet kasne par godina. i nemoj molim te da bilo sta shvatas kao provokaciju; ja sigurno ne zelim da testiram niti tvoje znanje, niti tvoje obozavanje intela. tako je kako je ;)
 
Poslednja izmena:
;) ...jos nisam procitao thread do kraja, ima interesantnih misljenja; a vidim da je neko kasnije odgovorio badAndy-ju bas isto sto i ti!

Hvala Bogu da ima jos ljudi koji znaju sta pricaju.

... ...ali i dalje ostaje cinjenica da je intel svoj SIMD usavrsavao na x puta dok je AIM napravio AltiVec iz prvog ;)

x86 trziste jednostavno nije "trazilo" (ne mislim bukvalno) SIMD. Intel ga je morao nametnuti i apsolutno im se ne bi isplatilo da su odmah napravili kompletno resenje -- to bi bila propala investicija da niko nije hteo da ga koristi.

Uostalom, za x86 su uglavnom programirali Basic, Pascal, Fortran, COBOL, i C programeri koji skoro da nisu poznavali hardver jer je hardver bio promenljiv i modularan.

Sa druge strane, Apple, Atari, Amiga i slicne racunare su programirali hard core assembler programeri koji su odlicno poznavali hardver jer je taj hardver bio stalno isti pa kad si jednom naucio registre nekog cipa znao i si i za sve buduce revizije uz minimalne dopune.

isto je i sa Larrabeeom "vs" Cell... opet kasne par godina.

Larrabee i Cell nisu uopste uporedivi. Cell nema koherenciju i sinhronizacione primitive za SPU-ove, a da ne pricamo da ima ~10x manje jezgara. Cini mi se i da Cell nema tako sirok SIMD -- Larrabee ima 512-bit registre odnosno 16x 32-bit float staje u jedan registar sto je dovoljno za paralelnu obradu 4 RGBA piksela u float formatu.

Meni se licno cini da su te spekulacije da ce Larrabee ici u konzole neosnovane. Neko je tamo prokomentarisao kako je lakse Intelu da ga tako progura i natera developere da pisu igre za njega nego ako bi im samo platio da pisu igre sto je tek totalni nonsens.

Ja mogu da se kladim da Carmack vec sedi u poluzamracenoj prostoriji, slusa neki goa-trance, pijucka crnu Guaranu i razvija neki besan engine za Larrabee. ;-)
 
Ja mogu da se kladim da Carmack vec sedi u poluzamracenoj prostoriji, slusa neki goa-trance, pijucka crnu Guaranu i razvija neki besan engine za Larrabee. ;-)

Bilo bi lepo da si u pravu, ali to vise lici na starog Carmack-a, ovaj novi skoro uopste nije u tom fazonu. Vec duze vreme ne prave igre sa najsavremenijim hardverom na umu, koje ce tehnicki izgledati 2 generacije ispred svega i po meni su postali nekako nebitni u industriji.
 
Poslednja izmena:
x86 trziste jednostavno nije "trazilo" (ne mislim bukvalno) SIMD. Intel ga je morao nametnuti i apsolutno im se ne bi isplatilo da su odmah napravili kompletno resenje -- to bi bila propala investicija da niko nije hteo da ga koristi.

nisam razumeo ovaj deo: zasto bi bila propala investicija ako bi sve napravili u jednom cugu? mislis da bi bilo komplikovano za programera da je odmah dobio npr. sve instrukcije iz SSE3 ? ili si mislio na nesto drugo ...?


Larrabee i Cell nisu uopste uporedivi. Cell nema koherenciju i sinhronizacione primitive za SPU-ove, a da ne pricamo da ima ~10x manje jezgara.

znaci glavni problem sa programiranjem Cell-a, ako sam dobro razumeo, je sto nemas "linearnu" memoriju vec moras da pazis sta i kad prebacujes u Local Stroage SPE-a (i nazad ka glavnoj memoriji) i sve to je *iskljucivo i uvek* posao samog programera?

Ja mogu da se kladim da Carmack vec sedi u poluzamracenoj prostoriji, slusa neki goa-trance, pijucka crnu Guaranu i razvija neki besan engine za Larrabee. ;-)

vec je bilo dosta price na tu temu ali koje su najsvezije informacije? da li Larrabee moze da pokrece DirectX/OpenGL kod? da li je to optimalno? ili neko drugo resenje?
 
Poslednja izmena:
Ja mogu da se kladim da Carmack vec sedi u poluzamracenoj prostoriji, slusa neki goa-trance, pijucka crnu Guaranu i razvija neki besan engine za Larrabee. ;-)

Bas naprotiv, mislim da uopce i ne razmislja o tome. John Carmack on id Tech 6, Ray Tracing, Consoles, Physics and more - http://www.pcper.com/article.php?aid=532&type=expert&pid=4

The first point to analyze is on the discussion about ray tracing; John obviously feels that Intel's current stance on using the traditional ray tracing algorithms for gaming isn't likely to win out for the next-generation rendering technology. This obviously isn't great news for Intel since even though John isn't the only game programming genius around, his opinions seem to have more weight than just about anyone else in the industry. John more or less backs Dr. Kirk's view that rasterization has too many innate performance benefits to be taken over by ray tracing UNLESS Intel is successful in stretching the Larrabee architecture to incredible performance levels. John mentions Intel would need something to the effect of a 3-4x clock rate advantage on their design versus conventional GPU clock rates to achieve that goal - and while we can generalize and see that he means Intel would need 3-4x the general purpose computational power over competing products, that means a GPU speed of 3.0 GHz or higher when we use today's AMD and NVIDIA GPUs as a reference.

What John does see ray tracing useful for is a very specific data model he has created called "sparse voxel octrees" that allow him to store immense amounts of data in a fashion that is easily accessed using ray tracing methods. That doesn't mean that John sees direct rendering occurring using those rays, just that the theory and algorithms of ray tracing are useful for his specific purpose. This new data model and algorithm being worked on for id Tech 6 would allow, according to John, nearly infinite amounts of geometric detail in the world without the problems seen with tessellation engines or trying to store gigabytes of data locally. Though we asked for some kind of diagram or screenshot that might demonstrate what kinds of detail John was referring to, we weren't able to get anything quite yet; that's to be expected this early into development though.
 
Vec duze vreme ne prave igre sa najsavremenijim hardverom na umu, koje ce tehnicki izgledati 2 generacije ispred svega i po meni su postali nekako nebitni u industriji.

Pa ja se ne bih slozio sa tim. Mislim da je idTech 4 (DOOM3 Engine+MegaTexturing) ispred svog vremena, a svoj argument bih potkrepio cinjenicom da kad se uporede trejleri (HD) iz RTCW-a, koji koristi taj engine i najnovijih naslova kao sto su FEAR2 i TCOR: Dark Athena, koji koriste najnovije negine, RTCW nema cega da se stidi i izgleda fantasticno!
 
^Zezas? RTCW izgleda UZASNO lose...a pored toga, FEAR2 koristi onaj stari endzin iz prvog nastavka (Jupiter EX), osakacen za neke stvari (senke), a unapredjen nekim drugim stvarima, a TCOR je takodje na starom endzinu iz prvog Riddicka i pitanje je koliko ce biti unapredjen.

ID Tech 4 endzin je po meni potopljen izlaskom FarCry-ja...
 
Pa ja se ne bih slozio sa tim. Mislim da je idTech 4 (DOOM3 Engine+MegaTexturing) ispred svog vremena, a svoj argument bih potkrepio cinjenicom da kad se uporede trejleri (HD) iz RTCW-a, koji koristi taj engine i najnovijih naslova kao sto su FEAR2 i TCOR: Dark Athena, koji koriste najnovije negine, RTCW nema cega da se stidi i izgleda fantasticno!

Ja sam inace veliki postovalac Johna Carmacka i slazem se da je id tech 4 izgledao fenomenalno kad je izasao D3, ali to je njihova poslednja igra koja je rezvijana sa high-end pc-em na umu, JC je to sam rekao. Sad imaju potpuno novi pristup: novi Wolfenstein je takodje id tech 4, Rage je id tech 5 i, kako je John rekao, bice "60 hz game", znaci 60 fps cak i na konzolama - daleko od high-end pc-a kao ciljanog hardvera. Za Doom 4 je rekao da ce biti "30hz game" na konzolama, ali da ce zbog toga izgledati nekoliko puta bolje. Naravno da ce jak pc i to moci da tera u 60 fps, ali je cinjenica da im se svi planovi oko tehnikalija vrte oko konzola, samo sto izbace i verziju za pc. Seti se kako je ranije bilo, bio je bukvalno sinonim za pc gaming i svi su mogli samo da gledaju i uce...

Plus je rekao da su danas visokobudzetni AAA naslovi na konzolama,a ne na pc-u, tj. da on to tako vidi.

Ja bi najvise voleo da on ponovo krene da razvija samo za najjaci hardver, pa ko moze, nek ga isprati :)
 
Poslednja izmena:
Karmak nikada nije pravio "samo za najjači hardver". Karmak je pravio izvanredno skalabilne stvari, ispred svog vremena u tehničkom smislu.

Larrabee je samo još jedan faktor koji će uneti zabunu u PC gaming industriju, a smem da se opkladim da će na kraju da ispadne korisniji za sve, najviše za akceleraciju proračunavanja, osim za igre. Da bi se cela platforma učinila konkurentnijom u odnosu na postojeća, tradicionalna rešenja, treba mnogo guranja, mnogo para, mnogo ulaganja, mnogo inicijative. Intel ne želi da ulaže resursa koliko je potrebno da se to i ostvari. Lepo kaže Huang - u*rali se jer se procesori više ne prodaju kao alve i kupci znaju šta im je isplativije, pa bi sada navrat nanos diskretnu grafiku. Nije im džaba profit pao 15 puta. Da ne odvaljuju cene na mobilnim procesorima, davno bi krenuli u gubitke. U sledećem kvartalu će i to, lagano...
 
Poslednja izmena:
Sjajno!

Ovako će biti i sa Larrabee-jem u praksi. Bacaće se naglasak na par igara, a 99% će biti kategorisano kao "naslovi koji ne pružaju adekvatno iskustvo". Intel želi da dugoročno monopolizuje tržište grafičkih čipova, što je samo po sebi legitiman cilj i njihovo je pravo (i obaveza, poslovna i moralna) da se bore za što veći tržišni udeo. Što ne znači da se meni, kao korisniku, moraju dopadati njihove tehnologije, performanse i karakteristike njihovih rešenja.
 
Ovako će biti i sa Larrabee-jem u praksi. Bacaće se naglasak na par igara, a 99% će biti kategorisano kao "naslovi koji ne pružaju adekvatno iskustvo". Intel želi da dugoročno monopolizuje tržište grafičkih čipova, što je samo po sebi legitiman cilj i njihovo je pravo (i obaveza, poslovna i moralna) da se bore za što veći tržišni udeo. Što ne znači da se meni, kao korisniku, moraju dopadati njihove tehnologije, performanse i karakteristike njihovih rešenja.

moram u potpunosti da se slozim sa ovom obzervacijom.

Ono oko cega se ne slazem je premisa da Intel nece ulagati u podrsku za Larrabee. Mislim da ce oni u to sipati gomilu para, ali na sebi svojstven nacin - "podmazivanjem" developera da razvijau i optimizuju kod za njihovu akrhitekturu.

Taj proces kodiranja mimo standarda ustolicenih kroz OGL i DX zahteva ljudski i finasijski resurs koji developeri nisu zeljni sami da finansiraju. Ne sumnjma da ce Intel tu krknuti mnogo vise par anego sto 'vidija radi kroz TWIMTBP, a taj program podrazumeva milione $... u ostalom koliko je Intel spreman da ide najbolje govori cinjenica da su oni kupili Project OFset studio za 100 M... a isti taj studio je do te kupovine razvijao svoj fantasticni engine tesno u saradnji sa ATI-jem\AMD-om.

Sto se Audiovih stavova tice, on zna koliko ih uvazavam, ali mislim da je on odvise odusevljen Larrabeejem i da mozda odvise banalizuje problematiku programiranja za isti. AKo baja koji je na celu razvoja u Adobeu kaze da je Larrabee nepoznanica, a ako neko treba da zna o cemu se tu radi to je on, onda mu ja verujem.
 
Taj proces kodiranja mimo standarda ustolicenih kroz OGL i DX zahteva ljudski i finasijski resurs koji developeri nisu zeljni sami da finansiraju.

a pa to je SUPER! Apple pokusava da objedini razlicite hardware vendore sa OpenCL-om a ovi prave nesto "sasvim" drugacije (mada verujem da ako OpenCL prođe kako treba da će biti implementiran i na Larabe).

btw 10x nedjo 4 "Project OFset"
 
Poslednja izmena od urednika:
moram u potpunosti da se slozim sa ovom obzervacijom.

Ono oko cega se ne slazem je premisa da Intel nece ulagati u podrsku za Larrabee. Mislim da ce oni u to sipati gomilu para, ali na sebi svojstven nacin - "podmazivanjem" developera da razvijau i optimizuju kod za njihovu akrhitekturu.

Taj proces kodiranja mimo standarda ustolicenih kroz OGL i DX zahteva ljudski i finasijski resurs koji developeri nisu zeljni sami da finansiraju. Ne sumnjma da ce Intel tu krknuti mnogo vise par anego sto 'vidija radi kroz TWIMTBP, a taj program podrazumeva milione $... u ostalom koliko je Intel spreman da ide najbolje govori cinjenica da su oni kupili Project OFset studio za 100 M... a isti taj studio je do te kupovine razvijao svoj fantasticni engine tesno u saradnji sa ATI-jem\AMD-om.

Sto se Audiovih stavova tice, on zna koliko ih uvazavam, ali mislim da je on odvise odusevljen Larrabeejem i da mozda odvise banalizuje problematiku programiranja za isti. AKo baja koji je na celu razvoja u Adobeu kaze da je Larrabee nepoznanica, a ako neko treba da zna o cemu se tu radi to je on, onda mu ja verujem.

Poenta je da čak i Intel može da uspe u nametanju Larrabee derivata kao opcije na PC gaming tržištu samo ako ulaže u marketing i krene da radi sa game dev timovima. Ili to, ili da samo napravi konzolu baziranu na toj tehnologiji, bilo svoju, bilo sa Microsoftom, a onda da nudi i grafičke na PC platformi, gde će računari te iste igre terati pod Windowsom... Za ostale stvari, GPGPU, Cloud Computing i sl. - Larrabee može da upali i ovako kako je Nedjo rekao. Sve je veća potreba sve većeg broja ustanova i kompanija za jeftinim computingom. Potreba za procesorskom snagom se povećava mnogo većim tempom nego što to ulaganje u računarske farme kakve sada postoje (ili su postojale do nedavno, jer je i to sve počelo da se menja) može da isprati. Nije ni najveće ni najunosnije tržište igara na PC računaru, ali je jako primamljivo. A ako Intel bude išao na kartu "konzole + PC", može posle nekog perioda da krene i posluje profitabilno u tom segmentu, možda čak i profitabilnije od ovog u kome je trenutno. Bojim se samo da se ova ekonomska kriza ne produži, to bitno može da utiče na sve što će se dešavati u bliskoj budućnosti...
 
znaci 60 fps cak i na konzolama - daleko od high-end pc-a kao ciljanog hardvera.

Pa, na konzoli ce biti 720p/60, a na PC-u 1080p/60, pod uslovom da ne za**be nesto :), u sta cisto sumnjam. Osim ako nije "mag" pa igre budu radile u 1080p/60, sto dosada nije uspelo ni Guerilla-i ni perfekcionisti Kojima-i sa neocekivanih 1024x768. Evo sta kaze K:
When we first showed the game engine at TGS, the staff were really proud and happy. PS3 was a dream machine, y'know, and we were going to work on this and that - and we had so many ideas. But when we actually started developing the game, we realized there were a lot of restrictions and so it turned out how you see it today. The original vision was to go ten steps further, the reality was just one step, which isn't to say we didn't progress.

I remember saying three years ago that we wanted to create something revolutionary, but in reality we couldn't really do that because of the CPU. We're using the Cell engine to its limit., actually. Please don't get me wrong, I'm not criticizing the PS3 machine, it's just that we weren't really aware of what the full-spec PS3 offered - we were creating something we couldn't entirely see.

Btw, je l' se zna da li planira za ovu generaciju konzola ili sledecu ? :)
 
evo teksta o Voxelima iz c't magazina ako nekog interesuje - Blocks worlds link
ako neko nece da se smara sa prevodom na kraju teksta ima dosta linkova na engleskom vezano za ovu temu ;)
 
Poslednja izmena:
Vrh Dno