Šta je novo?

NVIDIA pravi x86 CPU

Citiram korisnika: magick
- Virtuelizacija nije uopšte obavezna, podotovo ne u ultra-prenosnom segmentu, a i softverska emulacija je daleko iznapredovala...


Pitaj developere da li im to treba.

Sun u dokumentaciji za svoj VirtualBox cak preporucuje svoju softwersku virtuelizaciju jer, kako se kaze u dokumentaciji, hardwerska u nekim slucajevima moze imati penale u brzini. Samo u slucaju da softwerska pravi probleme, ukljucite hardwersku.
 
i josh jedna (sada vec stara vest) na temu x86 patenata i licenciranja :) :

Montalvo preps Intel rival with asymmetric cores

"A relative newcomer to processor design, Montalvo Systems, hopes to take the edge over established firms such as AMD and Intel by using the concept of asymmetric cores, a reported source tells CNET. Much like the Cell processor at the core of the PlayStation 3, the unnamed first chip from Montalvo will feature at least one primary core but also multiple less powerful but more specialized cores that can offload work from the main cores without demanding as much power."... link

da, da... do sada je vec sve ovo propalo, mislim da ih je Sun kupio ;)
 
Poslednja izmena:
Verovatnoca da ce neka mala firma izbaciti na trziste >nesto< sto je x86 kompatibilno a da ih ne pojedu velike ribe ili advokati velikih riba je 0. Ziveli patenti :(

NV makar ima sanse jer su ipak sa kadrom (advokatskim) tu negde sa Intel/AMD
 
Poslednja izmena:
...Jedini problem je sto NVIDIJA ne ume da napravi nista sto ima malu potrosnju i disipaciju i sto je translacija nedovoljno efikasna da bi sa njom konkurisala u bilo kom drugom segmentu trzista.
Pričaš o jednoj kompaniji kao da je u pitanju neki čovek. Ta vrsta personifikacije navodi na logičku grešku u zaključivanju. Sve je stvar uloženog novca. Ili misliš da Intel u svojoj bašti gaji neko drvo sa koga padaju prepametni developeri?

Sud je presudio sta je presudio, ali oni su radili reverzni inzenjering (jer nisu imali uvid u dokumenta kao AMD) i krali maske. To bas i nije samostalno po mom misljenju ali eto izvukli su se, a Intel je njima vratio milo za drago "pozajmljivanjem" za Pentium Pro i Pentium II pa se isto izvukao (vansudskim poravnanjem).
Ma nemoj... kada Cyrix razvije procesor kompatibilan sa Intelovim onda oni mora da su koristili reverse engineering, a kada Intel ukrade njihovu tehnologiju to je onda vraćanje milo za drago? :d Jeli bre, vidim da su te počastili tom šarom, al' zar baš tol'ko moraš da budeš pristrastan? :) Mislim, smešno je.

Pitaj developere da li im to treba.
Što developere? Jel svi rade razvoj na Asusovom Eee PC-u? I drugo... postoji gomila developera koji ni ne znaju šta je virtuelizacija. Ne vrti se ceo svet oko desktopa...

Ma i ultra-portabilni uredjaji imaju multi-tasking. Dual-core jeste minimum, pa makar i SMT.
Dva jezgra će možda uskoro postati minimum i to samo za superskalarnu x86 arhitekturu koja se polako ali sigurno zafarbava u ćošak.

Aha, znaci ovako se razmislja -- ide recesija pa ce svaka americka porodica platiti recikliranje svoja 4 desktop racunara i ko zna koliko notebooka i kupiti ultra prenosne racunare, a posto na njima ne mogu igrati igre onda ce kupiti i neku konzolu i plazma TV?
Prvo... nema svaka američka porodica po četiri desktop računara i tuce noutbukova. A drugo, ne razmišlja se tako. Uostalom nije ni bitno kako se razmišlja, nisi si ti sveznajući pa da možeš bolje od stručnjaka da proceniš tržišna kretanja...

Koliko ja znam kad dodje recesija smanjuje se potrosnja, prema tome nema nikakve logike da ljudi kupuju nesto novo da bi njime zamenili staro koje radi daleko bolje od tog novog.
To što ti znaš ili ne znaš je jedno, a trendovi i realnost su nešto drugo. Prodaja PC-a pada dok prodaja noutbukova i sub-noutbukova raste. To su činjenice.

Te procene profitabilnosti uglavnom finansiraju kompanije koje i proizvode ono sto ce navodno biti profitabilno.
Živi bili pa videli Tomo. :)
 
Poslednja izmena:
@audio:
NVidia Tegra i NVidia ION platforma imaju veci odnos perormansi/watt nego slicni Intelovi proizvodi.
 
Zanimljiva tema.Da bi jos jedan igrac na x86 cpu sceni dobro dosao i nije toliko lose mada ko sto neki kazu ovde nije bas jednostavno.Problem je sto korisnici racunara najcesce rec procesor poistovecuju s pentiumom (manje upuceni kazu kupio sam pentium 6) i to je otprilike to.Marketing je odradio svoje.
Jos osamdesetih godina je bilo jasno da je CISC arhitektura procesora corsokak i da treba promeniti pravac razvoja procesora ka RISC arhitekturi.Sad stvar je u logici da svaki procesor mora biti odmah upotrebljiv cim bude spreman za trziste jer cim se pojavi imacete operativni sistem i gro softvera koji mozete da koristite,ko sto neko ranije rece mozete da na njemu poterate omiljeni program.Ko da ce neko danas pokretati neki program iz perioda pre devedesetih ,a pitanje je kako bi radilo zbog os-a ako bi radilo.U medjuvremenu x86 kompatibilnost uzima svoj danak posto procesore morate osavremenjavati ,a najlakse je dodavati nove cpu komande ,koje opet uzimaju svoj danak u upotrebljenom broju tranzistora.Logika je ne postoji problem koji se nece resiti lopatom silicijuma.
S druge strane serversko trziste velikih racunara je recimo procesorski nezavisno pa se tu sasvim lepo upotrebljavaju i drugi procesori sem x86.Laicki gledano da se preslo na RISC arhitekturu ili nesto izmedju kao kompromisno resenje(na pamet mi pada samo ppc trenutno) danas bi verovatno mogli da imamo jos vise jezgara na istom parcetu silicijuma u procesoru.Secam se da sam svojevremeno citao neke tekstove o cell procesoru ,derivatu ppc porodice,odakle se secam zanimljive konstatacije "zasto bi uostalom sva jezga morala da budu ista u procesoru".
Sad nvidija nije firma od juce s gomilom napaljenih klinaca koji su tek onako resili da napadnu intel i amd trziste,vec su sigurno ispitali svoje mogucnosti i ciljnu grupu za svoj proizvod.Mozda prave x86 cpu ,mozda ne samo nagadjamo ovde.Mesta uvek ima za jos jedan cpu ,cak i kinezi prave svoje procesore (dragon cpu) ,a dali ce i u kolikoj meri da osvoji trziste to je vec posebna prica.
 
Poslednja izmena:
Pričaš o jednoj kompaniji kao da je u pitanju neki čovek. Ta vrsta personifikacije navodi na logičku grešku u zaključivanju...

Pa zasto onda nisu ulozili vise novca da onaj GTX285 ima bolji performance/watt nego je jedva malo bolji od ATI-ja, a vise trosi i vise se greje?

Ma nemoj... kada Cyrix razvije procesor kompatibilan sa Intelovim onda oni mora da su koristili reverse engineering, a kada Intel ukrade njihovu tehnologiju to je onda vraćanje milo za drago?

Razmisli malo o ovome:

1. Ko je prvi napravio 386, Intel ili Cyrix?

2. Ako u onom dokumentu sto sam linkovao pise da AMD nije mogao sam na vreme da razvije CPU nego je morao da radi reverse-engineering i da gleda u Intelovu dokumentaciju, zasto mislis da je Cyrix mogao da napravi konkurentan proizvod bez toga?

Što developere? Jel svi rade razvoj na Asusovom Eee PC-u? I drugo... postoji gomila developera koji ni ne znaju šta je virtuelizacija. Ne vrti se ceo svet oko desktopa...

Pa developeri dosta koriste notebook racunare, i koliko ja vidim znaci im virtualizacija za cross-platform development.

Dva jezgra će možda uskoro postati minimum i to samo za superskalarnu x86 arhitekturu koja se polako ali sigurno zafarbava u ćošak.

LOL :D

Prvo... nema svaka američka porodica po četiri desktop računara i tuce noutbukova. A drugo, ne razmišlja se tako. Uostalom nije ni bitno kako se razmišlja, nisi si ti sveznajući pa da možeš bolje od stručnjaka da proceniš tržišna kretanja...

1. Ima jako puno desktop racunara u celom svetu.
2. Sasvim sumanuto bi bilo da platis reciklazu da bi kupio nesto manje i slabije samo zato sto je "in".
3. Nisam sveznajuci, ali mogu bolje da procenim jer sam deo trzista, a njih korporacije placaju da izmisljaju gluposti i da formiraju javno mnenje.

Prodaja PC-a pada dok prodaja noutbukova i sub-noutbukova raste. To su činjenice.

To ja ne sporim, ali je daleko od toga da ce te stvarcice biti najprofitabilnije u dogledno vreme.

@audio:
NVidia Tegra i NVidia ION platforma imaju veci odnos perormansi/watt nego slicni Intelovi proizvodi.

Imaju ako posmatras performanse i potrosnju grafike. Uostalom, Intel treba tek da izbaci adekvatne chipsete i GPU-ove, trenutno situacija nije bas sjajna jer procesor koji trosi 3W ide u paketu sa chipsetom koji trosi ~25W.

Sto se tice same arhitekture, ono sto je dobro sto je Intel poceo da dodaje takozvane Application Accelerator-e u procesor. To su instrukcije koje drasticno ubrzavaju odredjene ceste zadatke:

1. CRC32 (Nehalem) -- kompresija, RAID, etc
2. String matching (Nehalem) -- regex, XML parsing, etc
3. AES (Westmere) -- enkripcija
4. FMA (Jos se ne zna kad)
5. ...

Neko pomenu jezgra specijalne namene -- ja sam (dok sam bio mlad i naivan) mislio da je to dobra ideja ali nije, a evo i zasto:

Ako dodas jezgro koje radi na primer samo AES enkripciju onda moras da vodis racuna o njegovom kontekstu (IP, registri, stack), o sinhronizaciji (DMA/IRQ), o programiranju. Moras i da ga eksponiras operativnom sistemu da bi bilo upotrebljivo i da razvijes neki interfejs, da ne pricam o tome kako to jezgro negativno utice na ionako komplikovan ruting data i adresnih magistrala unutar procesora.

Sa druge strane, instrukciju samo upotrebis i OS ne mora da bude ni svestan da ona postoji da bi je aplikacije koristile. Naravno i sama implementacija je daleko jednostavnija i jeftinija po pitanju silicon real estate.
 
Poslednja izmena:
Sto se tice same arhitekture, ono sto je dobro sto je Intel poceo da dodaje takozvane Application Accelerator-e u procesor. To su instrukcije koje drasticno ubrzavaju odredjene ceste zadatke:

1. CRC32 (Nehalem) -- kompresija, RAID, etc
2. String matching (Nehalem) -- regex, XML parsing, etc
3. AES (Westmere) -- enkripcija
4. FMA (Jos se ne zna kad)
5. ...
... ...
Sa druge strane, instrukciju samo upotrebis i OS ne mora da bude ni svestan da ona postoji da bi je aplikacije koristile. Naravno i sama implementacija je daleko jednostavnija i jeftinija po pitanju silicon real estate.

jel to sve ono sto IBM radi godinama ... ? ;) (i to na mnogo sofisticiranijani nacin)
btw - sta je sledece? ViVa za x86 2016.? :D
 
Poslednja izmena:
Pa zasto onda nisu ulozili vise novca da onaj GTX285 ima bolji performance/watt nego je jedva malo bolji od ATI-ja, a vise trosi i vise se greje?

Citao sam celu raspravu i veoma je zanimljivo ali naravno ne smem da se ukljucim :)

Osim ovde,iako nema bas veze sa temom.Dakle pogledaj recimo ovo:
http://www.techpowerup.com/reviews/Leadtek/GeForce_GTX_285/27.html

Dakle GTX285 ima bolji performance/watt od 4870 (sigurno si na njega mislio kao predstavnika najjace single Ati kartice). Cisto da ti ukazem jer vidim da pricas napamet,pa da ne bi gresio vise ;)
 
Pa zasto onda nisu ulozili vise novca da onaj GTX285 ima bolji performance/watt nego je jedva malo bolji od ATI-ja, a vise trosi i vise se greje?
Da li zaista misliš da na to pitanje može da se da jednostavan odgovor, ako i ikakav?

Razmisli malo o ovome:

1. Ko je prvi napravio 386, Intel ili Cyrix?
Ko je prvi komercijalizovao GUI, Apple ili MS?

2. Ako u onom dokumentu sto sam linkovao pise da AMD nije mogao sam na vreme da razvije CPU nego je morao da radi reverse-engineering i da gleda u Intelovu dokumentaciju, zasto mislis da je Cyrix mogao da napravi konkurentan proizvod bez toga?
Kada imaš neki proizvod koji je praktično industrijski standard, a zatvorene je specifikacije, ne ostaje ti ništa drugo nego reverse-engineering. To je sasvim legitimna stvar i tek je od nedavno zabranjena u pojedinim slučajevima i to ne zakonom već EULA-om samog proizvođača. Ono što je AMD radio je pak malo više od analize postojećeg rešenja... oni su direktno kopirali određene metode i tehnike, da ne kažem čitave delove logičkih mreža koje su prethodno skenirali.

Drugo, iza Cyrix-a je stajao Texas Instruments koji je tih godina za sve njih bio što i "šumar" za partizane i nemce - nalupa im šamare svima i otera ih kući. :d

Inače, x86 je postao toliko popularan da se ustoličio kao industrijski standard samo sticajem okolnosti, a ne genijalnošću tehnološkog rešenja. A kada nešto postane industrijski standard, "moralnost" tipa ja sam se prvi ovoga setio i sav prihod od toga za sva vremena pripada samo meni je potpuno besmislena. Uostalom, implementaciju možeš da patentiraš, ali ne i set instrukcija, a i monopol je dugoročno neodrživa stvar. Da su dozvolili svojim kompanijama da se tako ponašaju, američka industrija ne bi ni iz bliza bila ovako tehnološki razvijena.

Iz svega ovoga ja zaključujem da je dobro što je jedan Cyrix postojao i da on i Transmeta dokazuju da je moguće razviti in-house x86 kompatabilni procesor koji može biti konkurentan sa svojom cenom ili potrošnjom, ako ne već performansama. Komercijalni uspeh tih proizvoda ne mora da bude indikativan jer su ekonomski propadale i mnoge superiorne tehnologije koje je čak i sam Intel pokušavao da plasira (RDRAM/FB-DIMM/Itanium...). Da ne spominjemo sada Betu i druge primere... Za uspeh nekog proizvoda potrebno je malo više od dobrog inžinjeringa.

Pa developeri dosta koriste notebook racunare, i koliko ja vidim znaci im virtualizacija za cross-platform development.
Daj... molim te... koji programer će da koristi netbuk za razvoj aplikacije dok sedi u parku!?!?! Ako mu već treba prenosni računar, on će sebi kupiti čestiti noutbuk pa da ima malo više od 16 linija sa po 52 karaktera na ekranu. :d

1. Ima jako puno desktop racunara u celom svetu.
2. Sasvim sumanuto bi bilo da platis reciklazu da bi kupio nesto manje i slabije samo zato sto je "in".
Pa baš zato što već ima dosta funkcionalnih desktop računara... Desktop i notebook PC imaju veoma različite upotrebne vrednosti, te ako imaš desktop PC ne znači da ti ne treba i neki prenosni računar.

3. Nisam sveznajuci, ali mogu bolje da procenim jer sam deo trzista, a njih korporacije placaju da izmisljaju gluposti i da formiraju javno mnenje.
To ti jeste valjan argument, ali moraš gledati izvan svojih individualnih potreba. Netbuk tržište jeste rastuće, a i predviđanja da će se u doba ekonomske krize više prodavati netbukova nego li noutbukova ima logike.

To ja ne sporim, ali je daleko od toga da ce te stvarcice biti najprofitabilnije u dogledno vreme.
Logika iza tih predviđanja je valjda da gde ima velikog prometa mora da ima i zarade. Ipak, stvarno ne bih ulazio dublje u tu priču...

Imaju ako posmatras performanse i potrosnju grafike. Uostalom, Intel treba tek da izbaci adekvatne chipsete i GPU-ove, trenutno situacija nije bas sjajna jer procesor koji trosi 3W ide u paketu sa chipsetom koji trosi ~25W.
Mislim da će na kraju ipak doći do nekakvog unakrsnog licenciranja tehnologija između Intela i Envidije. Intel nikada nije imao sjajnu 3D grafiku i ako pokuša da uđe na to tržište čeka ga otprilike ista sudbina kao i nekog novajliju u x86 industriji. Sa druge strane... ako Envidija propadne, zar nije logično da će AMD pokušati da učini svoju platformu neuporedivo primamljivijom u igračkom i DCC segmentu preko ATI-a? Ta pozicija Intelu nikako ne bi odgovarala...

Ako misliš da je Envidijin pokušaj kreiranja x86 kompatibilnog procesora patetičan, kako onda nazvati Intelov Larrabee GPU? :d

Sto se tice same arhitekture ...
...
Ako dodas jezgro koje radi na primer samo AES enkripciju onda moras da vodis racuna o njegovom kontekstu (IP, registri, stack), o sinhronizaciji (DMA/IRQ), o programiranju. Moras i da ga eksponiras operativnom sistemu da bi bilo upotrebljivo i da razvijes neki interfejs, da ne pricam o tome kako to jezgro negativno utice na ionako komplikovan ruting data i adresnih magistrala unutar procesora.

Sa druge strane, instrukciju samo upotrebis i OS ne mora da bude ni svestan da ona postoji da bi je aplikacije koristile. Naravno i sama implementacija je daleko jednostavnija i jeftinija po pitanju silicon real estate.
Vektorske jedinice specijalne namene, o kojima smo pričali, predstavljaju izvršne jedinice samog procesora i koriste se isključivo kroz instrukcije odnosno mikro-instrukcije.

Naravno da niko ne misli da treba da postoji po jedna specijalizovana izvršna jedinica za svaku moguću operaciju ili tip funkcije, ali izvestan nivo vektorizacije mora da postoji.

U svetlu usporenja litografskog razvoja i sve veće brige za potrošnju, procesorska arhitektura će morati da se okrene povećanju instrukcijskog paralelizma, a hiper-skalarnost i spekulativna obrada definitivno nisu pravi odgovor na predstojeće izazove. Ako samo pogledamo trendove... Cell/Larrabee/Haswell... sve ide u prilog koncepta više jednostavnijih in-order jezgara i ekstenzivne vektorizacije. Ako je prvu deceniju ovog stoleća obeležila višeprotočnost i paralelizam na nivou softvera, sledeću će definitivno paralelizam na nivou instrukcija i vektorizacija tipa GAPP, stream i MIMD rešenja.

Nije teško zamisliti dan kada će samo entuzijasti imati general-purpose computing mašine, dok će preko 90% ludi posedovati samo namenske uređaje (multimedijalne centre), koji će objedinjavati TV, PVR, Internet, igračku konzolu i možda još po nešto, u jedan zaokruženi proizvod koji će biti lak za korišćenje i imati veliku dostupnost.
 
Poslednja izmena:
Nije teško zamisliti dan kada će samo entuzijasti imati general-purpose computing mašine, dok će preko 90% ludi posedovati samo namenske uređaje (multimedijalne centre), koji će objedinjavati TV, PVR, Internet, igračku konzolu i možda još po nešto, u jedan zaokruženi proizvod koji će biti lak za korišćenje i imati veliku dostupnost.

hehe... a mene su pitali da li se drogiram :d kad sam rekao pre par godina da ce samo manji broj ljudi koristiti PC radne stanice (danasnji Windows ili Mac, oni koji se bave "kreiranjem sadrzaja", odnosno developeri) a da ce svi ostali korisnici imati samo web bazirane uredjaje...
 

Prilozi

  • Picture3.png
    Picture3.png
    54.1 KB · Pregleda: 75
Poslednja izmena:
Za tebe znamo da se drogiras :D

PRoblem je u tome sto ce trziste za nekoliko godina biti toliko zatrpano elektronskim krshom da ce i tosteri imati web broVzer. Drugo veliko pitanje je da li ce se populacija sa silazne putanje Gausove krive raspodele (desna strana) sloziti sa idejom da imaju malo napredniji video-plejer za ciji rad je neophodan internet.

Cinjenica je da nV za gorepomenuti toster (sa HDMI i HDV podrskom) ne mora da napravi C2D vec nesto dovoljno jako da potera Firefox/IE/GoogleFox i media plejer...
 
... Drugo veliko pitanje je da li ce se populacija sa silazne putanje Gausove krive raspodele (desna strana) sloziti sa idejom da imaju malo napredniji video-plejer za ciji rad je neophodan internet.
Ta populacija će većinom potpadati pod neki nich-market izvan koga će se utapati u statističku grešku, ako već pričamo o raspodeli verovatnoća. :D

Cinjenica je da nV za gorepomenuti toster (sa HDMI i HDV podrskom) ne mora da napravi C2D vec nesto dovoljno jako da potera Firefox/IE/GoogleFox i media plejer...
Pa to i jeste ideja. A kada se uzmu u obzir projekti poput Glitz-a i drugih bekenda za vektorsku grafiku, pitanje je šta će taj CPU da procesira osim korisničkih eventova, HTML mašine i eventualno nekog skript interpretatora, što je odlično radio i Celeron @ 333MHz. :)
 
O tome smo vec diskutovali u temi (NVidia tvrdi - CPU je mrtav) http://www.benchmark.rs/forum/showthread.php?t=162973 .
Danas hardware offloaduje procesor na mnogo mesta.. networking, audio, grafika (2d i 3d), enkoding i dekoding, ... Danasnji home PC racunari najcesce dekoduju neki video ili mp3, renderuju flash, parsiraju HTML. To sada moze skoro svaki noviji telefon, koji u sebi ima proc od 100-300 Mhz.

Jos samo da neko napravi hw akcelerisan SQL i procesori u ovakvom obliku nam nece trebati ni u serverima.
 
Poslednja izmena:
...
Jos samo da neko napravi hw akcelerisan SQL i procesori u ovakvom obliku nam nece trebati ni u serverima.
Pa teško... Ne možeš implementirati ceo SQL jezik u hardveru... čak i da to uradiš dobio bi nešto na brzini, ali bi strahovito izgubio na fleksibilnosti. Uostalom, najveće usko grlo kod baza je storage sistem i njegov broj I/O operacija, a ne CPU.

Koncept na koji si ti mislio u principu postoji odavno i zove se ASIC (Application-Specific Integrated Circuit), a može biti u zasebnom čipu ili pak deo nekog SoC (Sistem-on-Chip) ili SIP (System in package) rešenja.

Neće se na tom planu ništa značajnije promeniti u budućnosti, kao što ni do sada nije. Mi ovde samo razmatramo tržišni prostor za naka nova konceptualna rešenja u kojima bi Envidija mogla da ponudi nešto.
 
Danasnji home PC racunari najcesce dekoduju neki video ili mp3, renderuju flash, parsiraju HTML. To sada moze skoro svaki noviji telefon, koji u sebi ima proc od 100-300 Mhz.
Istina, ali i dalje ne mogu da reprodukuju H.264 ili pak X.264...
Mishljenja sam da ce zaista sve ici u pravcu zabave i lakog korishcenja kao shto su neki ovde naveli...No, mislim da ce tek tu nastati papazjanija...
 
@makick:
Bio sam malo sarkastican kada sam pisao o SQL-u... :)

@animan:
NV Tegra vec moze da istera HD u 30fps. A to je handheld platforma.
 
Jos samo da neko napravi hw akcelerisan SQL i procesori u ovakvom obliku nam nece trebati ni u serverima.

IBM ima zIIP - jedan od special purpose processor za koji kaze da preuzima na sebe deo poslova oko baze... inace imaju vec nekoliko godina unazad special purpose processor-e (ASIC?) za XML, enkripciju i ostale stvari koje je audio spominjao...

@animan:
a bogami i PowerVR VXD moze da tera 1080p H.264 30fps... btw - da li je tegra vec izasla na trziste??
 
Poslednja izmena:
jel to sve ono sto IBM radi godinama ... ? ;) (i to na mnogo sofisticiranijani nacin)
btw - sta je sledece? ViVa za x86 2016.? :D

Jao bre sto si naporan ***. :mad:

1. Moze IBM da radi sta hoce ali ce uvek biti niche market.
2. Ja sam to nabrajao u odredjenom kontekstu objasnjavajuci zasto su dedicated jezgra losa ideja -- nisam tvrdio da je Intel prvi, ali ti kao po obicaju vadis stvari iz konteksta.

Osim ovde,iako nema bas veze sa temom.Dakle pogledaj recimo ovo:
http://www.techpowerup.com/reviews/Leadtek/GeForce_GTX_285/27.html

Dakle GTX285 ima bolji performance/watt od 4870 (sigurno si na njega mislio kao predstavnika najjace single Ati kartice). Cisto da ti ukazem jer vidim da pricas napamet,pa da ne bi gresio vise ;)

Koliko ja vidim najbolji perf/watt ima 4830 :d

Da li zaista misliš da na to pitanje može da se da jednostavan odgovor, ako i ikakav?

Ne ali mislim da ako vec raspolazu time cime ti tvrdis da raspolazu onda nema razloga da to ne koriste. Sada bi imali bolje prodavan proizvod, pa samim tim i veci profit i vise novca da se upuste u x86 projekat.

Ko je prvi komercijalizovao GUI, Apple ili MS?

Odgovaranje na pitanje pitanjem nema smisla.

Kada imaš neki proizvod koji je praktično industrijski standard, a zatvorene je specifikacije, ne ostaje ti ništa drugo nego reverse-engineering.

Pazi, reverzni inzenjering je dozvoljen u odredjenim slucajevima:

- Kada proizvodjac ne daje podrsku, a uredjaj koji su ti prodali ne radi po specifikaciji
- Kada proizvodis uredjaj koji radi sa tim drugim uredjajom pa ti treba da provalis interoperabilnost

Medjutim, kada ti pravis direktno konkurentan proizvod (dakle ne neki cipset, accessory, itd) nego drugi procesor sa istom namenom reverzni inzenjering je zabranjen.

Bio je nedavno slucaj Coca-Cole i Pepsi-ja kada je neki lik uspeo da ukrade formulu Coca-Cole i ponudio je Pepsi-ju. Naravno Pepsi ga je ocinkario pubovima i tip je uhapsen. Razlog koji su naveli je bio "zato sto ne zelimo da se sutra isto desi nama".

Ono što je AMD radio je pak malo više od analize postojećeg rešenja... oni su direktno kopirali određene metode i tehnike, da ne kažem čitave delove logičkih mreža koje su prethodno skenirali.

Radio je to i Cyrix.

Uostalom, implementaciju možeš da patentiraš, ali ne i set instrukcija

Pa implementacija je ta koja pravi razliku u performansama. Set instrukcija i nije patentiran.

Daj... molim te... koji programer će da koristi netbuk za razvoj aplikacije dok sedi u parku!?!?! Ako mu već treba prenosni računar, on će sebi kupiti čestiti noutbuk pa da ima malo više od 16 linija sa po 52 karaktera na ekranu. :d

A ko kaze da ce da razvija? Mozda ce da razvija na notebooku i desktopu, a da ponese da testira gotovu aplikaciju na vise platformi za vreme rucka?

Netbuk tržište jeste rastuće, a i predviđanja da će se u doba ekonomske krize više prodavati netbukova nego li noutbukova ima logike.

Objasni mi tu logiku.

Logika iza tih predviđanja je valjda da gde ima velikog prometa mora da ima i zarade. Ipak, stvarno ne bih ulazio dublje u tu priču...

Niko ne moze da garantuje da ce biti prometa -- to je sustina. Sa masovnim otpustanjima, ko ce imati pare da kupuje jos gadgeta kad uglavnom ima sve sto mu je potrebno?

Intel nikada nije imao sjajnu 3D grafiku i ako pokuša da uđe na to tržište čeka ga otprilike ista sudbina kao i nekog novajliju u x86 industriji.

Intel ima neka jako zanimljiva resenja u planu sa Larrabee. Ja sam razgovarao sa ljudima tamo (a radim na tome i da se dokopam uzorka), i ono sto sam cuo mi je zvucalo odlicno, a pricao sam sa inzenjerima, ne sa PR-om.

Sa druge strane... ako Envidija propadne, zar nije logično da će AMD pokušati da učini svoju platformu neuporedivo primamljivijom u igračkom i DCC segmentu preko ATI-a? Ta pozicija Intelu nikako ne bi odgovarala...

Ne vidim zasto -- dokle god Intel bude imao bolji procesor igraci ce kupovati njihove procesore umesto AMD-ovih.

Ako misliš da je Envidijin pokušaj kreiranja x86 kompatibilnog procesora patetičan, kako onda nazvati Intelov Larrabee GPU? :d

Revolucijom.

U svetlu usporenja litografskog razvoja i sve veće brige za potrošnju, procesorska arhitektura će morati da se okrene povećanju instrukcijskog paralelizma

Mislis li na paralelno izvrsavanje vise instrukcija ili na paralelnu obradu podataka na nivou jedne instrukcije? Ako je ovo drugo onda Intel ide u pravom smeru sa AVX projektom koji osim sto donosi 256-bitne vektore treba i da ispravi sve nedostatke instrukcijskog seta i njegovog enkodiranja i ucini x86 vise risc-like.

Nije teško zamisliti dan kada će samo entuzijasti imati general-purpose computing mašine, dok će preko 90% ludi posedovati samo namenske uređaje (multimedijalne centre), koji će objedinjavati TV, PVR, Internet, igračku konzolu i možda još po nešto, u jedan zaokruženi proizvod koji će biti lak za korišćenje i imati veliku dostupnost.

Meni je tesko. Racunari su suvise visenamenske sprave da bi ih se ljudi tek tako odrekli jer su itekako svesni njihovih mogucnosti i ogranicenja koje bi ta objedinjena resenja donela.

Jos samo da neko napravi hw akcelerisan SQL i procesori u ovakvom obliku nam nece trebati ni u serverima.

Poenta je u tome da sve te hardverske akceleratore treba uposliti (isprogramirati im zadatke i koordinirati ih). To zahteva mnogo vece modifikacije softvera nego sto je recimo dodavanje podrske za novu instrukciju.

NV Tegra vec moze da istera HD u 30fps. A to je handheld platforma.

Da ali da li u 1920x1080 ili reskalirano na neki portabl ekran?
 
Da ali da li u 1920x1080 ili reskalirano na neki portabl ekran?

i Tegra i PowerVR mogu da prikazu sliku od 2MPx na eksternom monitoru, dakle u punoj 1080p rezoluciji, mislim da PowerVR ima i jezgro koje moze da enkodira video u istoj rezoluciji pri 30fps...

osim toga zar je bitno da li je reskalirano ili ne? u svakom slucaju moras da raspakujes u potpunosti h264 frame da bi mogao, ako hoces, da ga reskaliras?! zar ne? (u prevodu - reskaliranje je samo dodatni posao)

btw @yooyo Celeron 300MHz ti ne bi bio dovoljan da potera Windows :d a to je valjda osnovna namena x86... ;)

EDIT: sad videh da je TI predstavio novi Cortex-A9 ARM CPU-ov, OMAP4: kako se navodi, sada je dovoljan samo ARM Cortex-A9 da raspakuje i zapakuje 1080p video ;) (ali tek 2010. :()

link

btw @audio kad sam rekao da IBM to radi na mnogo sofiticiraniji nacin, mislio sam upravo na to da je izbegao potrebu da se bilo sta rekompajlira da bi uposlio te namenske procesore. a spominjem ga vise kao interesantan podataka jer vec nekoliko godina (da ne kazem: decenija :D) intel dodaje stvari u x86 koje IBM vec neko vreme koristi (eknripcija, XML... Cell...) tako da se moze na osnovu toga sto je bilo, lako moze predvideti sta ce biti, pogledom u IBM dvoriste ;)
 
Poslednja izmena:
Ne ali mislim da ako vec raspolazu time cime ti tvrdis da raspolazu onda nema razloga da to ne koriste. Sada bi imali bolje prodavan proizvod, pa samim tim i veci profit i vise novca da se upuste u x86 projekat.
Nisu to uradili iz istog onog razloga iz koga je Microsoft, sa svim svojim novcem, stručnjacima i resursima, napravio jednu Vistu. :d

Odgovaranje na pitanje pitanjem nema smisla.
Ima, ako sagovornik shvati implikaciju. A i ja sam tvoje pitanje shvatio kao retoričko, pa sam ti tako i odgovorio.

Pazi, reverzni inzenjering...
Činjenica, koja je proverena na sudu, je da je Cyrix imao svoja in-house rešenja i da Intel nije mogao da zabrani dalju produkciju njihovih procesora. To što su oni to pokušavali, da bi se rešili konkurencije, je druga stvar... Uostalom, odlutali smo od teme. Cyrix i Transmetu sam naveo kao proof-of-concept u hipotezi da nije ne moguće samostalno razviti x86 kompatibilan procesor.

A ko kaze da ce da razvija? Mozda ce da razvija na notebooku i desktopu, a da ponese da testira gotovu aplikaciju na vise platformi za vreme rucka?
Iii... koliko ima takvih programera-gastronoma? :d Glupo je dalje o tome raspravljati... Netbukovima ič ne treba hardverska podrška za virtuelizaciju, a svaki mogući scenario koji izbunariš iz mašte potpada pod toliko nam spominjani nich-market. Ne znam samo kako možeš i dalje toliko da insistiraš na tome da su VT ekstenzije apsolutno neophodne jednom netbuku!?!?

Objasni mi tu logiku.
Pokušao sam, ali ne vredi... Nije ni bitno...

Intel ima neka jako zanimljiva resenja u planu sa Larrabee. Ja sam razgovarao sa ljudima tamo (a radim na tome i da se dokopam uzorka), i ono sto sam cuo mi je zvucalo odlicno, a pricao sam sa inzenjerima, ne sa PR-om.
Videćemo kada izađe ATi i NVidia kartama na crtu...

Ne vidim zasto -- dokle god Intel bude imao bolji procesor igraci ce kupovati njihove procesore umesto AMD-ovih.
Važi... Igraj se ti na najmoćnijem C2D kvadu sa G45, a ja ću na E8400 sa 48xx. :D

Da... Tuce Pentiuma Pro u ulozi grafičkih šejdera jeste prava revolucija. Videćemo kakve će rezultate da pokaže i šta će game-developeri o tome da misle. ,)

Mislis li na paralelno izvrsavanje vise instrukcija ili na paralelnu obradu podataka na nivou jedne instrukcije? ...
Mislio sam na "paralelno izvrsavanje vise instrukcija". To je najveća slabost x86 i Intel je toga svestan. Zato se i upustio u VLIW projekat koji će tek doživeti svojih 5 minuta... Ne može se još mnogo cediti iz softverskog paralelizma jer nisu svi algoritmi po svojoj prirodi rekurzivni, a spekulativna obrada sa tolikim brojem tredova postaje neracionalna u pogledu performance/watt.

Meni je tesko. Racunari su suvise visenamenske sprave da bi ih se ljudi tek tako odrekli jer su itekako svesni njihovih mogucnosti i ogranicenja koje bi ta objedinjena resenja donela.
Opet gledaš samo iz svog ugla... Moja tašta npr bi se rado ratosiljala te višenamenske sprave, sa svim njenim "mogućnostima", zarad jednog stand-alone multimedijalnog uređaja koji bi kontrolisala daljinskim upravljačem. A siguran sam i da nije jedina.
 
Poslednja izmena:
magick namerava da zayebe montija iz threda o Phenomu :d
;)
 
Jel' može pojašnjenje za nas sa jeftinijim ulaznicama? :d
a sta ti nisi video montijeve legendarne postove u tom thredu (soba procesori)... covek je neumorno u tvom stilu razlagao svacije postove ;)

za respect u svakom slucaju ;)
 
a sta ti nisi video montijeve legendarne postove u tom thredu (soba procesori)... covek je neumorno u tvom stilu razlagao svacije postove ;)

za respect u svakom slucaju ;)
Nisam. :) A kol'ko je za respect nisam baš siguran... Definitivno nešto nije u redu sa nama koji toliku energiju trošimo na bilo kom forumu. :d Al' meni je (kao ;)) opravdanje što sam na bolovanju, pa imam višak vremena... :D
 
Poslednja izmena:
neka, neka, samo trosite :) milina je citati ovakve postove i dobro dodje u moru smarackih postova :)
 
@makick:
Bio sam malo sarkastican kada sam pisao o SQL-u... :)

@animan:
NV Tegra vec moze da istera HD u 30fps. A to je handheld platforma.

Igrao sam se sa tegrom, a koliko se secam radna uchestalost je primetno veca od 100-300 MHz, pre ce biti 600-800 MHz (ako se dobro secam). No, treba napomenuti da tu procesor i ne igra najvecu ulogu u pishatnju HD-a. Slika sama kaze...

NVIDIA_Tegra_Processor_Architecture.jpg


Inache ljudi iz NV su mi tada rekli (pre godinu dana) da to sve obradjuje ARM :D. Sudeci da je to bila rana faza predstavljanja uredjaja, sada se vodim logikom da je u to vreme NV bilo bitno da iz nekog meni nepoznatog razloga shto pre predstavi ovu platformu, jer na moje jednostavno pitanje: Kako ARM? Odgovorili su: Optimizacija, inzenjeri, bla bla bla :)
Verujem da bi sad znali bolje da mi objasne ;)
 
audiofreak je napisao(la):
Meni je tesko. Racunari su suvise visenamenske sprave da bi ih se ljudi tek tako odrekli jer su itekako svesni njihovih mogucnosti i ogranicenja koje bi ta objedinjena resenja donela.

magick je napisao(la):
Opet gledaš samo iz svog ugla... Moja tašta npr bi se rado ratosiljala te višenamenske sprave, sa svim njenim "mogućnostima", zarad jednog stand-alone multimedijalnog uređaja koji bi kontrolisala daljinskim upravljačem. A siguran sam i da nije jedina.

Zapravo, istina je u sredini (moje mishljenje). Ja taj neki buduci stand-alone uredjaj zamishljam kao kombinaciju opisanog. Pre svega kompaktnu i dovoljno brzu mashinu za sve multimedijalne poslove i gaming. Koja radi pod nekim dovoljno funkcionalnim OS-om sa mogucnoscu "otkljuchavanja" naprednih opcija.

@magick
Tvoja tashta najverovatnije spada u grupu ljudi chiji je zivotni vek ushao u poslednju trecinu. isto vazi i za mog starog i mamu, babu da ne spominjem (old bat :D ).
Mozda zvuchi surovo, ali takvi ljudi (pogotovo u Srbiji) ne zele da uche i najosnovnije stvari na rachunaru, pa im daljinski (podseca ih na televizorski) dodje kao prirodniji. Ja bih takvu grupu korisnika totalno odstarnio (ne bukvalno, naravno :D), u bilo kakvom buducem projektu.
Moje istrazivanje na tu temu su pokazala sledece. Onog momenta kada sam instalirao Windows XP Media Center Edition i dao matorom daljinski u ruke prestao je da se zali na "windows-ovu komplikovanost". Fora je u tome shto on nije znao da je to i dalje isti XP...Tako da mislim da totalno pojednostavljanje moze biti pogubno po sive celije buducih narashtaja, tj ako im se servira sve na gotovo. Niti ce razumeti pojam standarda, niti ce nauchiti neshto, a bice besni...
 
Kako ARM? Odgovorili su: Optimizacija, inzenjeri, bla bla bla
Verujem da bi sad znali bolje da mi objasne
:d extra :) naravno da ARM 11 ne moze da pusti HD, da nema GPU nista od HD-a... :)

Tako da mislim da totalno pojednostavljanje moze biti pogubno po sive celije buducih narashtaja, tj ako im se servira sve na gotovo. Niti ce razumeti pojam standarda, niti ce nauchiti neshto, a bice besni...

pa i danas nije nista bolje - neko mislis da zna o racunarima ako zna da instalira driver i crackuje igricu... :D neko zna vise, neko zna manje o racunarima.

ono sto ja smatram da je najbitnije je da racunar pravi sto je moguce manje problema u radu, da ti ne treba previse znanja a da mozes sa njim da zavrsis posao. odnosno, da bude sto je moguce priblizniji nekom obicnom alatu koji koristis svakodnevno; sto bi rekli - da bude transparentan :D (sto je upravo slucaj sa tim XP media centrom)
 
Poslednja izmena:
Vrh Dno