Šta je novo?

Intel Larrabee "CPU-GPU"

Image2-big.jpg


Zanimljivo da na ovoj retrospektivi nema ni pomena o NetBurstu... Vidim da i Intel zeli sto pre da zaboravi na taj period :)

Par puta sam spominjao po textovima da sirenje propusne moci SSE magistrale na 128-bita nije kraj i da je sasvim realno da se u buducnosti ubrzanje postigne daljim sirenjem throughputa sto pise i u ovim dokumentima.

Treba odati priznanje na kompaniji sto je svih ovih godina gurala SSE instrukcije kao zamenu za arhaicni x87, sto im je sada omogucilo da implementacijom paralelizma u izvrsavanju ovih instrukcija postizu osetne skokove po pitanju performansi.
 
Poslednja izmena:
Zanimljivo da na ovoj retrospektivi nema ni pomena o NetBurstu... Vidim da i Intel zeli sto pre da zaboravi na taj period :)
Sigurno su se jako osramotili zbog PentiJuma 4. :d
Taj Netburst koliko god delovao glupo u praksi, za neke stvari je bio mnogo ispred svog vremena. Pitanje je tehnologije da li je takva arhitektura mogla da se ucini efikasnijom. Mozda ce Nehalem ili neki buduci naslednik da donese nesto mnogo bolje na tu temu.

Par puta sam spominjao po textovima da sirenje propusne moci SSE magistrale na 128-bita nije kraj i da je sasvim realno da se u buducnosti ubrzanje postigne daljim sirenjem throughputa sto pise i u ovim dokumentima.
A koja je to SSE magistrala ? Mogu samo da prosire sirinu izvrsnih jedinica, koje 128-bitne brojeve ne moraju da "seku" na dva i da iz dva puta pune 128-bitne SSE registre, koji zapravo i nisu 128-bitni, nego 80-bitni, od kojih se koriste 64-bita u dva ciklusa.
Pre 27 godina je Motorola na svom 16-bitnom M68000 proceosoru mogla da radi sa 32-bitnim integerima, na 16-bitnoj ALU jedinici. Uvodjenjem 32-bitne M68020, brzina je odmah skocila, bas kao i kod C2D kad je u pitanju 128-bit SSE.

Druga stvar koju mogu da povecaju je "fetch bandwidth".


Treba odati priznanje na kompaniji sto je svih ovih godina gurala SSE instrukcije kao zamenu za arhaicni x87, sto im je sada omogucilo da implementacijom paralelizma u izvrsavanju ovih instrukcija postizu osetne skokove po pitanju performansi.
Tacno je da je moguce paralelizovati FP kod, ali to nema toliko veze da li su u pitanju SSE ili x87. Ne treba mesati ILP i TLP. Prvi se odnosi na paralelizam instrukcija, a drugi na paralelizam threadova.

x86 kernel je vrlo rigidan po pitanju ILP-a. Nadogradjivanje x86 arhitekture koja je bila arhaicna i pre dvadeset godina je jedan od najvecih Intelovih grehova. :d
To i dalje predstavlja kocnicu u razvoju. M$-u je trebalo "samo" 20-tak godina da predje na kompletno 32-bitni OS.

U svakom slucaju daleko bih vise voleo da u PC masinama danas imamo nesto poput Alpha EV68.

P.S. Motorola je svoju CISC MC68k familiju ugasila, i presla na PPC. Pitanje je da li treba odati priznanje Intelu na tome sto je evoluirao x86 arhitekturu od doba dinosaurusa do danas ili ih treba pljuvati. :)
S' jedne strane bilo je potrebno umece da se odrzi korak sa RISC svetom i nastavi pokretanje tocka PC krsh industrije, a sa druge strane, to ipak stvara mnoge probleme.
Cak je i Apple prihvatio x86, a tim cinom je MAC definitivno postao jos jedan brand PC.
 
Poslednja izmena:
Intel Larrabee - Intelov pristup high-end grafici?

O Larrabee projektu ne zna se mnogo. Misticno ime delimicno je razotkrio Pat Gelsinger, jedan od Intel-ovih VP-a tokom IDF-a u Pekingu... Na Ars Technica nasao se zanimljiv clanak o novom konceptu...

http://arstechnica.com/articles/paedia/hardware/clearing-up-the-confusion-over-intels-larrabee.ars

Ideja je u neku ruku u skladu sa Intel-ovim dosadasnjim pristupom po kome je kod njihovih grafickih cipova CPU obradjivao pixel shader poslove... Ipak, najavljuje se hibridna arhitektura koja ce imati mogucnost ray tracinga u realnom vremenu (!), ali i klasicnih pixel shader operacija istovremeno...

Na slici je ray-tracerovani Quake 4...

Daniel_Pohl_RTQ4.jpg


Source The Inquirer.

Ocekuje se da ce Larrabee imati barem deset in-order jezgara (arhitektura je skalabilna) od kojih ce svako imati sopstveni L1 kesh (data+instruction) uz veliku kolicinu deljenog L2 kesha. Nalik Cell-u i Larrabee ce imati specificne tehnike particionisanja L2 kesha kako se ne bi desilo da jedno jezgro napuni ceo L2 kesh i tako obori efikasnost ostalih. Spominje se i 512 bitna SSE FPU jedinica (Core 2 ima 128-bitnu i ona je glavni uzrok boljih performansi u odnosu na K8 koji ima 64-bitnu). Putem externe veze (za sada je u igri PCI Express 2.0 magistrala), nalik AMD Torrenza, na Larrabee ce se moci povezati dodatni koprocesor ili specijalizovani GPU.

Ispada na kraju da ce u buducnosti biti na delu nekoliko koncepata...

1. Kada je 3D u pitanju, CPU biti marginalizovan i sve operacije tog tipa obavljace GPU (physics+render) koji ce imati veliki broj programbilnih jedinica (AMD-ATI).

2. 3D ce obradjivati CPU uz oslanjanje na dodatni "GPU koprocesor". Dopala mi se opaska sa Ars Technica na kojoj kazu da je ovo svojevrsni sofverski rendering koji ce moci da radi stvari u nekim domenima bolje od aktuelnih GPU-ova. (Intel)

3. Spekulise se o nVidia-inom multi-purpose GPU-u (”GPGPU“) koji ce imati dovoljnu snagu da pored grafickih operacija obavlja i uobicajene operacije koje su do sada obavljali Athloni i Pentiumi. Problem kod ovog koncepta je sto GPU kakav je danas ne radi sa x86 instrukcijskim setom i bice ga jako tesko programirati. To bi znacilo da nVidia mora nekako da implementira x86 instrukcijski set u GPU tj. da naprave svoj GPU, ali ne znam koliko je to izvodljvo preko noci bez prethodnog iskustva na tom polju. (nVidia)

Zanimljivo je da je Pat Gelsinger tokom prvog javnog obracanja povodom Larrabee projekta se osrvnuo upravo na GPGPU koncept. Da li time Intel u nVidia-i vidi svog buduceg konkurenta i pokusava da je preduhitri svojim GPGPU-om vreme ce pokazati. Uglavnom, ako je to tacno sa jedne strane bice CPU koji moze da radi sa grafikom, i GPU koji moze da radi i kao CPU. Ipak, sva je prilika da je na vidiku i AMD-ov slican koncept o kome smo vec nasiroko pisali ovde...

"Intel claims to have ended the GPGPU era before it even started with the revelation of a new multi-core processor design called Larrabee. At the Intel Developer Forum today, Intel server chip chief Pat Gelsinger confirmed the long rumored processor."

Larrabee looks set to compete against so-called GPGPUs or general purpose graphics processors. AMD has been touting the GPGPU concept as a way for a broader set of software developers to take advantage of the strong performance demonstrated by graphics chips from Nvidia and ATI (now part of AMD).

Gelsinger, however, argued that few coders know how to craft multi-threaded, parallel code that can take advantage of the GPUs. Using the x86 architecture with Larrabee helps ease the software burden, since so many developers are familiar with the technology.
"We don't think there is any such thing as a general purpose GPU," Gelsinger said with bravado.

http://www.theregister.co.uk/2007/04/17/intel_larrabee_gpgpu/

Inace, posto ce Larrabee raditi sa modifikovanim x86 setom instrukcija (verovatno ce biti pridodate instrukcije za rad sa grafikom) mnogi Larrabee vide kao Itanium-like projekat, ali s obzirom da ce biti u pitanju 100% x86 kompatibilni cip, poredjenje je definitvno deplasirano.

I na kraju veoma zanimljivo...

In any case, the whole idea of a GPU as a separate chip is a thing of the past. The first step is a GPU on a CPU like AMD's Fusion, but this is transitional. Both sides will pull the functionality into the core itself, and GPUs will cease to be. Now do you see why Nvidia is dead?

So, in two years, the first steps to GPUs going away will hit the market. From there, it is a matter of shrinking and adding features, but there is no turning back. Welcome the CGPU. Now do you understand why AMD had to buy ATI to survive? µ

Jos par zanimljivosti...

http://www.theregister.co.uk/2007/04/17/intel_larrabee_gpgpu/
http://www.vnunet.com/vnunet/news/2187891/intel-larabee-touted-itanium
http://www.theinquirer.net/default.aspx?article=37548

Sta vi mislite o tome?
 
Poslednja izmena:
Inace, posto ce Larrabee raditi sa modifikovanim x86 setom instrukcija (verovatno ce biti pridodate instrukcije za rad sa grafikom) mnogi Larrabee vide kao Itanium-like projekat, ali s obzirom da ce biti u pitanju 100% x86 kompatibilni cip, poredjenje je definitvno deplasirano.

Sta vi mislite o tome?

Uprosceno receno Intel pokusava da ubedi developere da programiraju grafiku kroz x86 set instrukcija. Naime, nigde se ne pominje D3D-ov HLSL i OGL-ov Slang. Analogija sa Intaniumom je upravo u domenu vec vidjenog, akd aje Intel nastojao da ubedi programersku zajednicu da programiraju za Itanium, pa im uz svu njihovu finsijsku pomoc to nikada nije uspelo. Pokusavti programere grafike naterati da krvavo steceno ovladavanje modernih 3D API-ja bace u smece je sumanuto.
 
Sa slicnim problemom ce se suocititi nVidia, ako bude predstavila svoj multi-purpose GPU, mada se vise i ne secam gde sam cuo pricu o nVidia GPGPU-u - toliko o tome :)

Mada, navodi se da ce Larrabee raditi sa prosirenim X86 setom instrukcija, ali se ne navodi koje su to instrukcije. Logicno je da ce biti kompatibilan sa Direct3D i OpenGL API-jima, jer su i dosadasnji Intel-ovi cipovi bili komaptibilni sa njima.

U princpipu samo treba implementirati odgovarajucu podrsku kroz instrukcijske setove, a na Intel-ovim inzenjerima je da obezbede hardversku podrsku koja ce izvrsavati instrukcije sto efikasnije.

Nemoguce je da naprave GPU koji je nekompatibilan sa postojecim - to onda ne bi ni bio GPU :)
 
meni sve mirishe na to da se dve strane ukopavaju za rovovsku bitku (INTEL=AMD) dok se NVIDIA nalazi na sred fronta.. hm.. mozda u nekoj blizoj-daljoj buducnost zeleni budu u problemu
 
Zvuci logicno, a poslednje vesti o tome da ce nVidia razmeniti neke tehnologije sa Intel-om govore da nVidia trazi partnera...
 
zanimljivo je i to da iz onog grafika sa pocetka teme mozemo videti da od 95-te pa navise pocinje brze razvijanje intelovih chipova i tehnologija, pitam se da nije zbog pojave konkurencie kja se tada pocela ozbiljnije baviti CPU tematikom i arhitekturom :) Pitanje je da li bi bilo toliko koraka u intelovom napretku sa CPU arhitekturom i tim stvarima da AMD nije poceo da radi ono sto je poceo tada da radi...
 
meni sve mirishe na to da se dve strane ukopavaju za rovovsku bitku (INTEL=AMD) dok se NVIDIA nalazi na sred fronta.. hm.. mozda u nekoj blizoj-daljoj buducnost zeleni budu u problemu
Može se desiti i obrnuto, u zavisnosti od tempa koji Nvidia, kao tržišni lider, bude nametnula. Ukoliko nametne tempo izbacivanja high end modela koji AMD/ATI već sada jedva prati, može se lako desiti da debelo odmakne i prepusti Intelu i AMDu (Fusion vs Larrabee) da se kolju u nekom mainstreamu, dok Nvidiji ostane banja u high endu i srednjoj klasi...
 
ovo mi je najbolji komentar:

"Sounds like he's describing the Cell.

IBM beat you to it Intel."

vidi se ko je lider :p IBM, sve ostalo su sitnice :)
 
Još uvek nije jasno ni da li Larrabee zadržava x86 kompatibilnost, dodajući veliki broj multipurpose programabilnih jedinica za GP (grafika, video, fizika) i da li će, recimo, Vista na tome da radi ili je potrebno da se napravi i treća verzija (pored x86 32-bit i 64-bit). Cela zamisao da se GPU i CPU (pa i Physics PU i Sound PU) ujedine u jedan čip podseća na vraćanje korenima, odnosno na sistem koji je prisutan kod konzola. Nema uskih grla, samo jedan multipurpose CPU koji komunicira sa 2, 4, 8 giga unificirane memorije koja je i VRAM i RAM u isto vreme... Za kontrolu periferije (kapiram da će na pločama i dalje biti nekih PCI / PCI-E slotova, a tu su i LAN, USB, FW itd.) će ostati nekakav čipset. I nešto je potrebno da generiše sliku (TMDS, DAC, HDCP), tako da na ploči može biti još čipova. Ako posmatramo konzole, logično mi je da je bolje rešenje kod Xbox360 koji ima 512MB unificirane memorije, za razliku od PS3 koji ima deljeno VRAM i RAM po 256MB. Ipak, logično mi je i ovo što je Filipenko rekao. Teško da će moći u skorijoj budućnosti da se napravi multipurpose CPU koji će biti dovoljno efikasan za sve taskove - fiziku, ultra naprednu grafiku, MM instrukcije, rad sa kernelom itd. A tu je i ono što reče Nedjo - sad će svi preko noći da pređu i programiraju na x86. Koliko vidim, Intel želi da se ceo koncept 3D grafike u igrama promeni i krene putem softverskih rendera (uz žestoke aproksimacije, pošto je soft 3D rendering i dalje suludo zahtevan i ne možemo o njemu pričati u kontekstu real time-a), dok "ceo svet" i dalje radi sa "rasterskom" 3D grafikom... Jedino ako Larrabee bude i klasičan Direct3D/OpenGL GPU, može biti problema za NVIDIU, i to pod uslovima da bude isplativ i brz, kao i da (DDR) sistemska memorija konačno sustigne grafički (GDDR) RAM.
 
Uprosceno receno Intel pokusava da ubedi developere da programiraju grafiku kroz x86 set instrukcija. Naime, nigde se ne pominje D3D-ov HLSL i OGL-ov Slang. Analogija sa Intaniumom je upravo u domenu vec vidjenog, akd aje Intel nastojao da ubedi programersku zajednicu da programiraju za Itanium, pa im uz svu njihovu finsijsku pomoc to nikada nije uspelo. Pokusavti programere grafike naterati da krvavo steceno ovladavanje modernih 3D API-ja bace u smece je sumanuto.

sad mi nista nije jasno... ?!? pa zar nije poenta APIja izmedju ostalog da mogu da se prenesu na drugu arhitekturu (chitaj: drugu ISA) tako da sve sto je do sada uradjeno radi i da se zadrzi razvojno okruzenje?

mislim cela ta neboluzo oko x86 kompatibilnih instrukcija na GPU mi nije jasna?!? kako to uspste moze da funkcionise?!? pa to onda vise ne bi bio GPU ili bi bio totalno limitiran, u najbolje slucaju, SSE instrukcijama!

btw kakvo je to "x86 programiranje"? kuckanje x86 asemblerskih naredbi :D
 
Može se desiti i obrnuto, u zavisnosti od tempa koji Nvidia, kao tržišni lider, bude nametnula. Ukoliko nametne tempo izbacivanja high end modela koji AMD/ATI već sada jedva prati, može se lako desiti da debelo odmakne i prepusti Intelu i AMDu (Fusion vs Larrabee) da se kolju u nekom mainstreamu, dok Nvidiji ostane banja u high endu i srednjoj klasi...

Ne kapiras - poenta je u CPU-GPU integraciji. Bez CPU-a, po ovim procenama GPU je useless. Jedino da nVidia uskoci u pricu sa Intel-om pa da proizvodi GPU korpocesore (vidteti text na ARS Technica) i tako obezbedi sebi "mesto pod suncem".

byMax je napisao(la):
Još uvek nije jasno ni da li Larrabee zadržava x86 kompatibilnost, dodajući veliki broj multipurpose programabilnih jedinica za GP (grafika, video, fizika) i da li će, recimo, Vista na tome da radi ili je potrebno da se napravi i treća verzija (pored x86 32-bit i 64-bit). Cela zamisao da se GPU i CPU (pa i Physics PU i Sound PU) ujedine u jedan čip podseća na vraćanje korenima, odnosno na sistem koji je prisutan kod konzola. Nema uskih grla, samo jedan multipurpose CPU koji komunicira sa 2, 4, 8 giga unificirane memorije koja je i VRAM i RAM u isto vreme... Za kontrolu periferije (kapiram da će na pločama i dalje biti nekih PCI / PCI-E slotova, a tu su i LAN, USB, FW itd.) će ostati nekakav čipset. I nešto je potrebno da generiše sliku (TMDS, DAC, HDCP), tako da na ploči može biti još čipova. Ako posmatramo konzole, logično mi je da je bolje rešenje kod Xbox360 koji ima 512MB unificirane memorije, za razliku od PS3 koji ima deljeno VRAM i RAM po 256MB. Ipak, logično mi je i ovo što je Filipenko rekao. Teško da će moći u skorijoj budućnosti da se napravi multipurpose CPU koji će biti dovoljno efikasan za sve taskove - fiziku, ultra naprednu grafiku, MM instrukcije, rad sa kernelom itd. A tu je i ono što reče Nedjo - sad će svi preko noći da pređu i programiraju na x86. Koliko vidim, Intel želi da se ceo koncept 3D grafike u igrama promeni i krene putem softverskih rendera (uz žestoke aproksimacije, pošto je soft 3D rendering i dalje suludo zahtevan i ne možemo o njemu pričati u kontekstu real time-a), dok "ceo svet" i dalje radi sa "rasterskom" 3D grafikom... Jedino ako Larrabee bude i klasičan Direct3D/OpenGL GPU, može biti problema za NVIDIU, i to pod uslovima da bude isplativ i brz, kao i da (DDR) sistemska memorija konačno sustigne grafički (GDDR) RAM.

Pise na ARS-u da je u pitanju x86 kompatibilan cip - bez toga nista ne bi imalo smisla. Taj x86 je kancer koji se vucara vec godinama, ali to nije tema :) Dakle, prema ovim informacijama, bice u pitanju cip koji je pored x86 seta moci da radi i sa GP operacijama koje ce da uposaljava DirectX ili OpenGL tj. da radi i sa "rasterskom" grafikom (cip ce biti hibridan, kako kazu). Ako Vista radi na "budjavom" i945G, kako nece raditi na Larrabee-ju koji ce po Intel-ovim recima imati sirovu snagu jednaku 8x G80. Mislim da ce hibridna arhitektura znaciti da ce cip biti "8x brzi od G80" ako se koristi tzv. "softverski X86 redner", a ako radi sa rasterskom grafikom tada je pitanje koje ce mu performanse biti.

U prilog koncpetu ide i to sto ce Intel tada uveliko imati implementirane memorijske kontrolere u samom cipu koji ce raditi sa DDR3 memorijom, DDR3 ce biti moguce kupiti u masovnim kolicinama. Ceo koncept ovakih high-end integrisanih cipiva ne bi ni bio moguc bez tranzicije na novu "memorijsku arhitekturu".

Ono sto je opasnost za nVidia-u jeste gubitak mid-range i low-end segmenta usled omasovljenja ovakvog koncepta od strane AMD-a i Intel-a. Naime, ako korisnici u buducnosti uz CPU dobiju solidnu grafiku sto bi iko vise kupovao GeForce 8600 ili 8500? Na kraju nVidia-i ostaje high-end semgment, a nakon toga i preorjentacija iz grafickog u neki drugi biznis, osim ako nesto ne promene.

Sto se tice soft-rendera i zahtevnosti - procitaj clanak na Ars Tehnici... Naravno da sve to nece rederovati Core 2 Duo, nego cip koji je par destina stotina procenata jaci o njega - Larrabee :)

kovacm je napisao(la):
ovo mi je najbolji komentar:

"Sounds like he's describing the Cell.

IBM beat you to it Intel."

vidi se ko je lider IBM, sve ostalo su sitnice

Fascinantno je kakvom tehnologijom raspolaze "Veliki Plavi". Npr. u onom textu se spominje tehnologija particionisanja L2 kesha koju ce Intel implementirati u Larrabee, a koju je IBM vec implementirao u Cell.
 
Poslednja izmena:
a sto su "x86 procesori" tolko losi i zastareli. sta im to fali (tj x86 instrukcijama)?

Pa x86 je tzv CISC arhitektura, tacnije jedina CISC arhitektura koja je preostala. CISC znaci Complex Instruction Set Computing. Sustina je u tome da CISC, pa samim tim i x86 koristi nesto duze instrukcije koje mogu da rade nesto komplikovanije operacije. Samim tim x86 ISA je set cije su instrukcije i razlcicite velicine, u zavisnosti od vrste. Primera radi instrukcija 'mov' je jednostavna prosta instrukcija za transfer podataka iz memorije u registre ili sta vec u zavisnosti od tipa adresiranja. Poredjenja radi i RISC takodje poseduje mov instrukciju koja nije nista kraca od one u x86 setu. Ipak, recimo x86 poseduje komplikovanije instrukcije npr za poredjenje, za koje se obicno pisu makro instrukcije u RISC assembleru ili su predefinisane vec nekako u samim C/C++ kompajlerima koji prevode na odgovarajuci masinski kod.
Problem x86 arhitekture u odnosu na RISC je bas ta, razlcita duzina instrukcija i naravno, te vece instrukcije se u modernim x86 procesorima razbijaju na interne mikrooperacije. Time je problem resen, kao i problem brzine izvrsavanja velikih i kompleksnih instrukcija.

Ipak, x86 sam po sebi je dosta tesko paralelizovati na superskalarnom nivou, pa pravljenje nekih n-way mikroarhitektura je prilicno nezgodan posao. Mozda bi moglo da se prosiri ILP nivo vektorskih instrukcija, ali to je pitanje na koje ja tesko mogu da odgovorim.

Pored toga, x86 je Little Endian arhitektura, za razliku od svih ostalih RISC, pa je su tako operacije bitshift-ovanja i maskiranja nesto kompleksnije, a citanje memorije ide od bita najmanje tezine ka bitu najvece. Bitshift su osnovne operacije kod recimo mnozenja.

Zarad kompatibilnosti sa 8088/8086 procesorima koji su odavno izumrli, danasnji procesori koriste 8-bitne i 16-bitne registre i segmentiran rad sa memorijom. Ipak, pojavom 32-bitnih operativnih sistema, WinNT, Win2000, WinXP, Linux itd... pocinje normalno da se koristi flat adresni prostor iznad 16MB.
U poredjenju sa RISC-om, x86 ima relativno mali broj registara, opste namene, pa je samim tim veca potreba za load/store operacijama, koje svakako umeju da uspore izvrsavanje. Problem je donekle resen velikom kes memorijom, brzom magistralom, prefetch mehanizmom itd....

Prema tome, posle toliko usavrsavanja performanse vise nisu toliki problem, ali sav taj dodatni hardware u x86 procesorima generise i dodatnu toplotu, protiv cega se sada opet Intel i AMD bore na razlicite nacine.

Sve u svemu, x86 je u startu bila arhitektura predvidjena za jeftine masine, ali da bi se sva ta uska grla premostila, bilo je potrebno mnogo ulaganja, ali s' druge strane trziste x86 cipova je najvece, pa je samim tim i ovo prilicno unosan posao.
 
Poslednja izmena:
Ne kapiras - poenta je u CPU-GPU integraciji. Bez CPU-a, po ovim procenama GPU je useless. Jedino da nVidia uskoci u pricu sa Intel-om pa da proizvodi GPU korpocesore (vidteti text na ARS Technica) i tako obezbedi sebi "mesto pod suncem".
Shvatam tu poentu, ali postoji i druga strana medalje - raznolikost platformi i iskustvo sa ranije forsiranim rešenjima. Svi ti projekti sa integracijama se budže radi integrisanih platformi, od notebooka preko UMPCa pa naniže. Iako je desktop tržište sve manje, na njemu bi jedna kompanija koja bi apsolutno dominirala mogla sasvim lepo da zarađuje tokom tranzicionog perioda koji bi sigurno potrajao nekoliko godina (evo i AGP nikako da umre, a koliko je mator :) ). Druga je stvar ukoliko bi rekli "od 2009. nadalje nema više slotova za diskretnu grafiku", što bi se moglo desiti, ali sumnjam, već će biti kao i do sada sa ponudom - imaćemo CPU-GPU za mainstream i slotove za diskretnu grafiku za nešto više, čak i ukoliko ovakva rešenja preplave desktop tržište. Suviše velika lova je u pitanju. Samo što će biti smanjena razlika (možda) u performansama u odnosu na današnju razliku između diskretne i integrisane grafike. Osim toga, moja primedba se nije odnosila toliko na stanje na CPGPU kretanja, koliko na predviđanja jednog membera da bi Nvidia mogla da nagrabusi :)

Da dodam da ništa ne verujem (po običaju :) ) tim lažovima i folirantima :) Na primer, toliko je priče bilo o integrisanoj X700 ili X1300 grafici u laptopovima/čipsetovima i slično, pa na kraju ispada da su to čipovi sa 3-4 puta manje pixel i vertex shader jedinica i 3 puta nižim klokovima, sa tek nešto malo boljim performansama od ranijih rešenja. O Intelu da ne govorimo, performanse novih integrisanih grafičkih čipova su sramotne. Pri tome se hvale nekim video akceleracijama koje ne postoje!? Uvek će biti slabije performanse, niži klokovi radi potrošnje, slabo upotrebljiva rešenja dovoljna samo za biznis i slične potrebe. Prema tome, očekujem da će sadašnji koncept desktopa još dugo živeti i da neće biti nekakvih preteranih migracija u tom segmentu. To je moguće na mobilnim platformama i nekim novim koje će možda u međuvremenu zaživeti, za njih je ova tehnologija od interesa.

Naravno, na neke duže staze nije nemoguće da će Nvidia morati da se prilagođava tim trendovima, odnosno da do (npr.) 2014. ovakav koncept postane dominantan na celom tržištu, ali ukoliko se Nvidiji prepusti totalno liderstvo na desktop (a i mobilnom) segmentu grafičkog tržišta, ona će se u međuvremenu napuniti tolikim parama da ne bi trebalo da iznenadi da počnu sa sopstvenim procesorima (o stidljivim koracima u tom smeru je već bilo govora). Čipsetove već imaju. Bilo bi fino da imamo tri totalno odvojene platforme - Intel sa Intelovim CPU-GPUom, AMD sa svojim CPU-GPUom i Nvidia sa svojim CPU-GPUom. Cenim da bi u toj varijanti upravo ova treća pružala najviše igračima i imala najviše šansi da postane standard za gejming. Ne treba sumnjati da bi Nvidia mnogo više pažnje poklonila grafičkom aspektu od tromih Intela i AMD-a, uz zadržavanje zadovoljavajuće x86 kompatibilnosti i CPU segment koji bi sam za sebe bio gori od Intel/AMD rešenja, dok bi kompletno CPGPU rešenje bilo odlično optimizovano za igre.

Ponavljam još jednom, povod za sve ovo beše priča o propasti Nvidije :)
 
Poslednja izmena:
Naravno da discreete graphics nece izumreti, nego postoji opasnost da bude istisnuta iz mid-range i low-end segmentata... Samim tim, ako bude samo u tim segmetnima, tesko da ce npr. nVidia u bidicnosti moci da samo na bazi high-end segmenta isplati milijardu dolara razvoja npr. G80 cipa. Ali, valjda oni tamo znaju sta rade i smislice vec nesto :)
 
Nema mesta na cipu za sve to. Saberite kvadraturu i broj tranzistora E4300 i G84 i zamislite koliko bi to cudo kostalo. Low end i bottom middle segment i to je to. E sad, ako npr, nadju nacin da hlade viseslojne (3d) procesore, onda bi tako monstruozan broj traznistora mozda i mogao da se ulgavi u jedno pakovanje.
 
A 45nm (i manji) proizvodni proces? :eyebrows: Niko od igrača ni ne pomišlja (koliko ja znam)
da napravi CP-GPU u vecem proizvodnom procesu od 45nm
 
Može se desiti i obrnuto, u zavisnosti od tempa koji Nvidia, kao tržišni lider, bude nametnula. Ukoliko nametne tempo izbacivanja high end modela koji AMD/ATI već sada jedva prati, može se lako desiti da debelo odmakne i prepusti Intelu i AMDu (Fusion vs Larrabee) da se kolju u nekom mainstreamu, dok Nvidiji ostane banja u high endu i srednjoj klasi...
samo ne zaboravi da je mainstream glavna lova.. toliko
 
Nema mesta na cipu za sve to. Saberite kvadraturu i broj tranzistora E4300 i G84 i zamislite koliko bi to cudo kostalo. Low end i bottom middle segment i to je to. E sad, ako npr, nadju nacin da hlade viseslojne (3d) procesore, onda bi tako monstruozan broj traznistora mozda i mogao da se ulgavi u jedno pakovanje.

Samo kratak komentar na to, UVEK IMA MESTA... pre su ljudi pricali da nema mesta na chip-u za L1 kes, pa kad su i to zbudzili rekli su da nema potrebe a ni mesta za L2, pa onda ko bre moze da stavi dva procesora ili nedaj boze vise na chip i tako redom... dakle UVEK IMA MESTA i tek ce da bude.. :)
 
Ma, AMD je implementirao i L3 kesh u chip...

Ideja je da se napravi univerzalni chip koji ce raditi i jedno i drugo, tako se ne radi o sabiranju broja tranzistora (CPU+GPU).
 
Ideja je da se napravi univerzalni chip koji ce raditi i jedno i drugo, tako se ne radi o sabiranju broja tranzistora (CPU+GPU).
Tako je, ne može se sve posmatrati kroz prosto sabiranje površine čipova, niti će to u stvari biti neka vrsta "nakalemljenog" grafičkog čipa na procesore slične današnjim.

samo ne zaboravi da je mainstream glavna lova.. toliko
Ne. Mainstream je najmasovniji, a 3/4 love donosi srednja klasa, i to mnogo više gornja nego donja, dok je mainstream po prihodima sličan najvišoj klasi (ima ih mnogo, ali jedan 8800 GTX donosi više love od 10 7100 GS karti, npr.) Pre desetak dana sam baš to kačio kao vest dana, odnosno strukturu tržišta grafičkih karti i koliko prihoda donosi koji segment :)
 
covek je verovatno pod "mainstream" mislio na srednju klasu, onu na koju i ti mislis :)
 
Može biti, ali opet, teško da će GPCPU moći da odrađuje podjednako dobro kao diskretna grafika srednje klase, pogotovo prve generacije...
 
Nazad
Vrh Dno