Šta je novo?

Intel Larrabee = 32 core Pentium P54C

Simptomaticno je da je i nVidia koja je toliko u pocetku kritikovala RT kao koncept, na kraju na Sigraphu predstavila RT na svojim GPU-ovima, a gura dosta i CUDA-u.
 
offtopic - CUDA je dugorocno opredeljenje nV posto se oni jako fokusiraju na parallel computing na GPU. Ocito je da nV ulaze ogroman rad u tu tehnologiju. Dovoljno je otici na CUDAzone i za nekoliko desetina minuta developer je spreman da kodira ! Fenomenalno organizovan SDK, prateca dokumentacija i organizacije site-a su ono sto CUDA trenutno cini po meni mnogo boljim izborom za developera nego ATI CTM/Brook.

Inace zaista nV i ATI vec godinama nisu doneli nista novo, koncept koji gledamo danas je odvec star. Tako da ja iz sve snage zelim da Larrabee donese nesto sistinski novo. Samo ne zelim da to cekam do 2011. bojim se da cu postati odvec star da bih se latio ucenja novotarija tada ;) Jer meni ove skupe igracke najmanje sluze za teranje Krize i 3DMark-a.

M.
 
Nikad nije kasno za ucenje -- pocni odmah i docekaj spreman.
 
1. Ako intel planira da plasira larabi onda on mora da se takmici u directx i opengl aplikacijama sa postojecim grafickim karticama.. ako tad bude bio bar 30% performansi trenutnih grafickih onda ce imati sansu za Larabi 2 koji moze da ispravi nedostatke, ako bude bio < 20% onda je intel bacio pare jer ga niko nece kupiti pa ni za hpc jer cuda do tad ima da bude defakto standard

2. Softwareski pipeline je extra, san svakog programera 3D aplikacija. Problem niko ko je iole pametan nece da napravi svoj softwareski rasterajzer posto je to cisto gubljenje vremena a u performansama ne moze da se poredi sa necim sto bi intel uradio, a to je ako uzmem ovaj podatak sad zeznucu kes liniju na x-tom jezgru pa cu da ga uzmem malo kasnije i problemi slicnog karaktera.

3. Kada poredis performanse larabia sa bilo cim drugim moras da racunas da neke stvari kod normalnih grafickih dolaze za dzabe , tipa, rop-ovi , skrivanje latencije, context switch i sl.. dok je kod larabija sve to software-ski tako da dodatno jede vreme po jezgru sto znaci da ono ne moze da radi nesto korisno za razliku od gpu-a ( klasicnog )...

i ono glavno je da treba dobro implementirati opengl i directx a koliko vidim intelu je ovo 4-ta godina rada na larabiju pri cemu ce da rade jos 2 i samo pomeraju tu granicu posto izgleda nisu zadovoljni performansama.. kako se izbace nove graficke oni pomere za godinu dana izbacivanje larabia.. jedino sto intelu ide na ruku je da ima extra tehnoloski proces i da je pentium dobro verifikovan dizajn tako da ako im zafale performanse mogu da za cas ubace jos 32 jezgra.

I HPC na grafickim jeste revolucionarna stvar. Eto moze da se uradi realtime raytracing kao potvrda koncepta i to ne na simulatorima nego na onom sto vec postoji.. Meni nije jasno sta ocekujete kao revolucionarno.. Sa gornje strane programeri igara vide DirectX i OpenGL i ne zanima ih sta je ispod i kako je to ispod odradjeno. Svake godine izadju duplo brzi gpu-ovi nego prethodne i to je dovoljno dobra stvar...a za cuda , mogo bi neko provo da ode na
http://www.nvidia.com/object/cuda_home.html
pa da onda pocne da prica koliko ne valja. Za vreme kad larabi bude gotov to moze da bude vec kasno sto se tice gpgpu-a.. Intel je isto obecavao sa Itaniumom pa nista... u svakom slucaju videcemo..
 
Poslednja izmena:
1. Mozda OpenCL postane standard (i ne vidim razloga da ga Intel ne podrzi), a CUDA ne moze biti standard jer se ni sama ne pridrzava standarda.

2. Ja mislim da ce JC biti prvi ko ce da napravi svoj renderer. Poenta je da je na Larrabee-ju scheduling i broj stepeni pajplajna pod kontrolom softvera i moze se napraviti bilo sta sto programer pozeli.

3. I na procesoru imas stvari za dzabe -- npr. GPU mora da radi read iz memorije vise puta jer svaki shader radi isti deo posla, a CPU ne mora kad jednom dovuce podatak u L2. Pride, mozes jednom jezgru dati da radi prvi deo posla, drugom jezgru drugi deo, itd pritom ce svako od tih jezgara imati u svom L2 set podataka sa kojim radi, a nece se isti podaci multiplicirati na vise jezgara prljajuci im svima cache bez potrebe.
 
Da, OpenGL je već jako zastupljen, ali znamo da Intel voli da izmišlja toplu vodu i kad to nije neophodno, pa će možda krenuti sa svojim API-jem i platformom za game-dev. Vrlo je nezahvalno davati prognoze za Larrabee, jer ne samo da ne znamo kako će ni otprilike izgledati, nego ne znamo ništa. Imamo samo opis arhitekture i teoriju, a ne znamo ni koliko sam intel želi da gura celu priču. Da li želi baš da bude prvi u svemu ili će se zadovoljiti onim što je, srazmerno u svoje vreme, uradio Intel i740 akcelerator? Jer, u Intervjuu, Alex Roessler je rekao (ali toga nema u samom intervjuu) da im nije cilj da napadaju NVIDIU i AMD sa ovim, već samo da se radi o tome da žele da imaju kompletno rešenje i da ne veruju da, ako hoće da prodaju 200 miliona procesora, mogu da računaju da NV i AMD imaju kapacitete da to isprate. Zato su, kako kaže, morali da rade i čipsetove i int. grafiku.
 
Ne kazem ja da je Larabi kao ideja los, idealno za softwerase zeljne da rade stvari na svoju ruku ali onda krece stvar.. implementirati sve sto imaju graficke a pritom voditi racuna o arhitekturi samog larabija posto nije isto ako imas 8 jezgara i 32 jezgara posto cene lokova i sl rastu jako puno... Celi problem larabija je u tome sto on izvrsava 2 stvari u isto vreme po jezgru i to sekvencijalno... Slazem se da nudi znatno vece mogucnosti sto se programabilnosti tice ali to je trenutno posto za 2 godine nv i ati mogu svasta da izbace.. ali je problem sto klasicni GPU-ovi ne rade sekvencijalno nego paralelno... ok je sto imas vektorske jedinice i maskiranje registara i sve i svasta ali paralelno sa tim nemas nista drugo na jednom jezgru. Graficka moze da radi semplovanje, blending, ztest i sve i svasta u paraleli dok larabi ide korak po korak...
Drugi problem je koje su performanse tog non intel software-skog rasterajzera.. Odgovor je mnogo losije nego intelovog.. a inace zasto bi neko bi neko potrosio toliko vremena na rasterajzer koji ne podrzava nikog osim larabi kada u svetu lezi 200.000.000+ grafickih kartica
 
Ljudi, general purpose hardware ne moze biti bolji/brzi/efikasniji od dedicated hadrware-a kada je u pitanju obavljanje specificnog posla. Ovo je postulat za integrisana kola koji vazi od samog pocetka (a i sire inzenjerski postulat, npr. 'mercedes' kao general purpose auto ne moze biti brzi/bolji od bolida formule 1 za trke formule 1 kada se bolid formule 1 dizajnira upravo za trke formule 1). Tako da ako Intel zadrzi x86 set instrukcija ne moze napraviti nesto bolje/brze/efikasnije od onoga sto vec prave NVidia i ATi, kada je u pitanju grafika. Zivi bili pa videli...

Moj tip je da ce ovo da przi unaokolo zesce od NetBurst-a.
 
Poslednja izmena:
također sam mišljenja da se larabi neće sprovesti najbolje što se tiče grafike. Sve to na grafikonima fino izgleda: optimalna raspodjela resursa, linerno skaliranje jezgri, sve full programabilno .... ma prava revolucija, kakav PR. Sve to prilično bajno izgleda projicirano na nekom zidu.
Samo, za 2 godine će se izmjeniti 2 generacije GPUova od ATIa i NV, "pravi" multi-GPU već u narednoj generaciji (ovaj put zaista mora biti s obzirom da će spojiti RV800 seriju sa K10), a početkom 2009. će i TSMCov proizvodni proces biti manji/napredniji od onog što je Intel inicijalno ciljao za larabi.
 
Poslednja izmena:
Simptomaticno je da je i nVidia koja je toliko u pocetku kritikovala RT kao koncept, na kraju na Sigraphu predstavila RT na svojim GPU-ovima, a gura dosta i CUDA-u.
nVidia i dalje kritikuje RT kao koncept, sa obzirom da će proći godine pre nego njegova upotreba u igricama postane realnost. Međutim, pošto se Intel puva da je RT snaga Larrabee-a, nVidia je pokazala da može i to. U ovom trenutku Larrabee za javnost radi RT samo u Powerpoint-u.
 
posto nije isto ako imas 8 jezgara i 32 jezgara posto cene lokova i sl rastu jako puno...

Zato se koristi lock-free sinhronizacija.

Graficka moze da radi semplovanje, blending, ztest i sve i svasta u paraleli dok larabi ide korak po korak...

Prvo, to o cemu pricas za GPU se ne izvrsava paralelno. Drugo, Larrabee ne ide korak po korak. Uostalom evo jos jednog slajda koji pokazuje gde se u GPU pajplajnu desava serijalizacija -- serijalizacija koju Larrabee nece imati:



a inace zasto bi neko bi neko potrosio toliko vremena na rasterajzer koji ne podrzava nikog osim larabi kada u svetu lezi 200.000.000+ grafickih kartica

Da su ljudi tako razmisljali kad je izasao prvi programmable GPU danas ne bi bili tu gde jesmo, odnosno niko ne bi pisao shadere za programmable GPU-ove nego bi jos uvek svi koristili fixed function hardware zato sto je toga bilo najvise na trzistu.
 
meni je ovaj slajd zanimljiv jer ukazuje na Intelov roadmap po pitanju larrabeeja:

sf08vcts001100spdfadobeil4.jpg


bice zanimljivo videti da li Intel moze da izvuce 32 in-order jezgra u 45nm, ili ce za to morati da se ceka 32nm...
 
U vreme kada se bude pojavaio Larrabee na trzistu Intel ce imati 32nm proces, a ne predugo nakon toga i 22nm.
 
Poslednja izmena:
Na osnovu cega je dobijen onaj grafik i gde su te informacije na osnovu kojih je grafik dobijen ? To bi jako voleo da vidim posto se tu vidi i framerate i rezolucija...
 
Poslednja izmena:
Mnogo bi ti da znas... :D

Sve mi ovo deluje kao neka teorema iz matematike, sjajno radi na listu papira. Jos bolje u power pointu :)
 
da odgovorim, na audijevo
izvrsavaju se paralelno nad razlicitim fragmentima/pixelima
drugo za sejdere je da tezina pisanja sejdera nije ni 1% tezine pisanja kompletnog rasterajzera
posebno za larabi
 
Pominjalo se 60fps za F.E.A.R., zaista ne znam odakle je to poteklo.
 
Sad će GX-X da pita, a u kojoj rezoluciji. Mislim 60fps je super u 2650 x 1600 sa 16x16AA i AF, ali u 320 x 240 i nije nešto :D
 
Sad će GX-X da pita, a u kojoj rezoluciji. Mislim 60fps je super u 2650 x 1600 sa 16x16AA i AF, ali u 320 x 240 i nije nešto :D

nece to da pita posto bi to bilo glupo testirati, a ti mi nesto zvucis kao u relaciji : ozeblo sunce = bymax (cekajuci laru) :)
 
Poslednja izmena:
Ne bih da otvaram novu temu, a i ima veze sa Intel-ovim "čudom", pa ga spominjem ovde: poduži intervju sa Timom Sweeney-em, ko-osnivačem Epic Games-a i likom odgovornim za razvoj Unreal Engine-a (inače ga više cenim od Carmack-a, možda zato što su im igre bolje). Zanimljivo štivo, pa ako i vas zanima kako on vidi razvoj realtime 3D grafike u bliskoj budućnosti, overite link.
 
Mislim da bi Caramack sad trebao da se zabrine :D On inace pravi igre... :wall:
 
Poslednja izmena:
daj bre za nas corave neku vecu sliku :d
 
Nazad
Vrh Dno