Šta je novo?

Fermi is Nvidia's DirectX 11

Status
Zatvorena za pisanje odgovora.
A sta je ATI uradio sa 2900? posle godinu dana cekanja, izasla je skupa TA pec. I jos slabija od 8800. Isto moze i da zadesi nvidiu. :)

Da, ali su ipak imali mogucnost prelaska na 55nm pa su ipak popravili "stvar".
Sada nVidia nema mogucnost prelaska na sitniji proces, mada koliki je chip ne bi mu mnogo pomogao ni 32nm proces (u smislu zarade).
 
Za njih najbolje nekako da izbace gt460 sa dobrim yield-om, da ih povadi kolko tolko, i da se okrenu 32nm-oj proizvodnji...buduce generacije.

Ako uopste bude 32nm procesa ;)

Prema planovima iz 2007 i 2008. godine 32nm je trebalo da bude dostupan u Q4 2009, a 28nm kao "full node" u Q2-Q3 2010. Naravno, jasno je da su termini vec probijeni, pa je verovatno da ce 32nm biti potpuno preskocen, i da ce se od Q4 2010/Q1 2011 ici na 28nm.
 
TSMC to Start Production of 28nm Chips in Q4 2010


Taiwan Semiconductor Manufacturing Company this week topped off its Fab 12 manufacturing facility. The new fab will allow TSMC to significantly boost output of chips produced using leading-edge fabrication processes that carry higher price tag. Besides, TSMC also announced that it would start production of chips using 28nm fabrication technology in Q4 2010.

Fab 12, Phase 4 and 5 are TSMC's latest generation of production facilities designated for research and development as well as initial volume production. Phase 4 began volume production in third quarter of 2009, while construction began on Phase 5 at the end of 2009. Phase 5 is expected to begin volume production in the third quarter of 2010 to satisfy urgent recent increases in customer demand.

...

Uglavnom, danas u 18.00 bi trebalo da bude ... nesto... http://www.facebook.com/NVIDIA?ref=mf ,pardon, danas je nedelja lol ...

Btw, ovo "are you ready" su koristili i za onu FX seriju:p
 
Poslednja izmena:
Da, ali su ipak imali mogucnost prelaska na 55nm pa su ipak popravili "stvar".
Sada nVidia nema mogucnost prelaska na sitniji proces, mada koliki je chip ne bi mu mnogo pomogao ni 32nm proces (u smislu zarade).

I ne samo to, tad je ati odmah izbacio i 2600,2400 seriju, i bio apsolutno konkurentan u tom segmentu.
 
Da, eto, Q4 za pocetak, verovatno Q1 za volume. Kako god, ti cipovi su ~12 meseci daleko, pa treba odluciti da li shrinkovati Fermi ili pozuriti sa naslednikom.

Hm, sumnjam da imaju vremena da naprave naslednika, pre ce ici na shrinkovanje.
Drugo, pitanje je da li ce TSMC imati problema ili ne, ako opet imaju problema oduzice se to dosta.
Trece, to sto pocinju proizvodnju u Q4 ne znaci da ce nv imati spreman cip za proizvodnju tada. Kako po najnovijim idicijama (papirno?) lansiranje Fermija moze da se zadesi tek u Aprilu verujem da nemaju vremena da odrade shrink do kraja godine.
Sve u semu trnovit je put do novog cipa.

Uzgred evo malo i velikog vodje:
http://www.xbitlabs.com/news/video/display/20100218124405_Fermi_Architecture_Will_Only_Hit_the_Pull_Stride_Next_Quarter_CEo_Of_Nvidia.html

A najgore od svega je ovo:
At the same time, NVIDIA implied that it has no big plans for the budget and mid-range segments since these users "hardly demand new functionality.
http://www.nordichardware.com/en/component/content/article/71-graphics/276-geforce-gtx-480-in-stock-in-may-at-best-.html
 
Poslednja izmena:
ako 480-ka bude dosta brža od 5870 i pritom bude koštala 150e - to je jedino što bi moglo da ih spasi. ali , da li treba da kažem da se jedna od te dve stvari sigurno neće desiti :)

druga stvar koja bi im bila dobra je da uzmu postojeće 9800GT/GT240 i da ih preimenuju u npr. GT410 i prodaju za nekih 30-40e kao entry level. tu bi možda malo zeznuli atija. ali pošto opet znamo da se ni to neće desiti, ma koliko oni imali iskustva sa tim preimenovanjima (a imaju ga itekako), onda bolje da uzmu pauzu od godinu dana dok ne završe taj fermi i neka onda izbace. pa i atijevci su bili u istim go*nima sa HD2000 serijom. mada nisu se toliko pre*eravali da će biti najjači kad izbace proizvod.

ko naši fudbaleri, kad se puno hvale kako će sve da pobede onda puknu samo tako
 
Naslednik je sigurno vec prosao 2/3 razvojnog procesa, pa mozda mogu da ga ubrzaju.

Sto se shrinka tice, prethodni im bas i nije uspeo - GT212 se nikada nije pojavio, a ta karta, sa 384 SP, 256bitnom memorijskom magitralom i GDDR5, sa povrsinom cipa manjom od 300mm2 bi im sada mnogo znacila.

Ovako ce mozda morati da prave relativno novu arhitekturu u procesu sa kojim niko nema iskustva (koji teoretski moze jos i biti u gorem stanju od 40nm) i bez mainstream derivata - ne bih voleo da moram da odlucujem sta raditi ;)
 
2lkshls.jpg



:D


This had better be GTX 470 and 480 news. If it isn't I propose we form an angry mob and throw G92 based cards at NVIDIA HQ until they meet our demands.
 
u centar!

Problem oko direktnog ulaganja proizvodjacevih para u game developere je u izrzito malom ROI-u, jer:
a) vecina optimizacija se uvek pozitivno reflekutje i na performanse konkurencije
b) jako je malo deveopera koji ce prihvatiti optimizaciju koja iskljucuje iz slike vecinu trzista (a ATI+Intel jeste vecina trzista), tako da su specific optimizacije prihvatljive samo onima koji su na ivici egzistencije - npr. Eidos... i treba im direktna finasijska infuzija.
c) povecanje broja presedana poput direktnih investicija u developere se negativno odrazava na kooperaciju sa onima za koje nema para, a objektivno para nema za sve!

Jedino racionalno resenje jeste ulaganje najvise para u RACIONALNE i optimizovane arhitekture koje se drze trzisno prihvaenih standarda.

Mislim da ne gresim i da ce se samnom sloziti i mnogi okoreli NVIDIASHI, ako kazem da ce 2010-ta bit gadna za NV, gadnija nego li 2009-ta u kojoj su barem imali GT200 kartica (bez obzira sto nista na njima nisu zaradjivali zbog cenovnog rata koji su sami zapoceli). Medjutim 2011 ce biti JOS GORA jer ce izlazak Intelovog Sandyja i AMD-ovog Llana prakticno ugasiti trziste grafickih od 30-70 evra, zbog performansi integrisane grafike, koja ce masovnom trzistu biti dovoljna (Lliano ce biti jaci akcelerator od onoga u XB360-ci) a HighENd ce i dalje ostati relevantan, koliko i danas - malo.

Vidiš, nisam uzeo u obzir to da kada bi neki od dva postojeća dizajnera čipova finansirao game-dev tim da pravi igre, da bi "profitirala" i ona druga strana, ali Ivan je možda malo bolje skapirao ono što sam mislio, a nisam se baš najpreciznije izrazio. Dakle, u nekakvoj vrsti dogovora, možda bi i ATI i NVIDIA mogli da imaju "svoje" timove koje prave poneku od igara. E sad, pošto tu ne može da bude eksluziva kao na tržištu konzola, već su sve "multiplatforme" :), zar nije ok da obe kompanije plate po tri dev tima i da u godini dana imamo 4-5 kick ass AAA naslova, koji će biti ispolirani i predrndani sa grafikom baš kao što je to bio Crysis kad se pojavio. Nešto slično demou koje je za ATI ranije pravila ona firma (zaboravih ime), a koji su uvek izgledali predobro... pa onaj ATI Rain demo sa taksijem u onoj ulici je pre 5-6 godina izgledao bolje nego Heavy Rain danas (plus detaljnije teksture, mnogo displacement i PO mapa, preciznih shadow mapa itd.). Mislim na takve igre, makar nudile i kratak gameplay ili bile online only. Bitna je tehnologija.

I kako misle da će prodati i kartice od 200 evra, ako i one jeftinije teraju sve X360 igre bez frke? Na koji fazon - prodaće nam priču o Eyefinitiju? 2014 ćemo sa Radeonom HD7880 igrati Crysis Warheard ili Crysis 2 Demo u 8680 x 5620?

Tržište integrisane grafike nema mnogo veze sa igračima, bar onim iole zahtevnijim. Možda će takav računar kupiti eventualn neko ko igra WOW, ali čak i oni zahtevaju veće rezolucije, a i novi WOW je dosta zahtevniji, pa je opet za užitak bez frustracije, u većoj rezoluciji, potreban bar akcelerator ranga HD5750...
 
Ja se slazem sa Maksom 100%, verujem da nije mislio na ulaganje samo radi optimizacije, jer vec imamo hardver koji je mnogo jaci od onog koji nam treba. Mozda naivno zvuci, ali ako hoce da nove graficke kartice imaju ikakvog smisla i ako hoce da pc gaming ima ijedan naslov koji ce tehnicki odskociti, treba bukvalno da plate (i jedni i drugi) nekom da razvija igru sa mocnim pc hardverom na umu. Ne mogu da zamislim da to neko samoinicijativno uradi jer, kako sada stvari stoje u industriji, nema nijedan razlog. Raznorazni "Rusi" se trude, ali svi znamo da to nije to i da ne moze nesto u danasnjem gamingu odatle da se pokrene bez mnogo ulaganja, bar ne znacajnije.

Ako se ne desi neka ozbiljnija promena, ovo ce biti prvi put da stvarno ne vidimo nista sto deluje next-gen do sledece generacije konzola. Mislim da je Crysis vise glupo i pominjati, necemo to da igramo od 2007. do 2012.

Upravo to, Rusi kakvi su ovi sto prave Metro 2033 treba dati ne onoliko para koliko je spucano na Modern Warfare 2 (~100M dolara), nego 100x manje! 4-5 takvih timova, 5M dolara i tržište je potpuno drugačije za godinu dana. Da to urade obe kompanije, garant bi prodali bar 2x više kartica iz ranga cena od 150 do 450 dolara, a samim tim bi se i uložen novac 500x vratio. To je računica koja ne može da omaši, bar ne mnogo!
 
Pa, hoce da kaze da je isplativije izbacivati revizije starijih cipova, ali u sitnijoj izradi, uz dodatak novog DX-a :) Sto je i tacno...

Zatim ide marketing da nam je taj novi DX (a ne arhitektura cipa, hehe) i te kako potreban, revolucija, i tako...a igara jos nigde nema:)

E sad, jer je situacija takva kakva je (Maxov post), nV pokusava da napravi cip koji ne sluzi samo za igre, a forsira i physx i 3d, kako bi uopste opravdala novi high-end koji ce morati da tera multiplatforme, koje i trenutno rade s viskom frejmova...sto jelte, trenutno NIJE isplativo, jer je cip komplikovan.

Uz to, a ti si me nex lepo podsetio, gaming tržištu treba da se desi nešto poput Avatara u filmskoj industriji. Ne znam da li su to 3D monitori ili 3DVision - verovatno i nije to, jer ne odgovara baš svima, a i efekat iskreno nije toliko jaw dropping... ali je potrebno nešto. A to sigurno nisu multiplatform igre koje sada stižu i na koje se čeka i hajpuje godinama, a na kraju ispadnu prosek ili tek nešto malo bolje od proseka. Ili ispadnu super (Mass Effect 2), ali rade na Radeonu HD3850 bez problema... To je možda nešto sveže - kao npr. Heavy Rain, ali sa fotorealističnom grafikom...
 
Vaša diskusija o tome šta bi Nvidia ili AMD mogli da rade sa ulaganjima u dev timove bi imala smisla kada bi grafika bila najznačajniji selling point samih igara. Ona to odavno više nije, nepovratno se krenulo drugim putevima nakon Half Life-a i to je jedna od stavki koje u sinergiji daju efekat kakav daju na PC platformi.

Pogledajte samo groznicu za Starcraft 2, Bad Company, Modern Warfare 2 i drugim naslovima koji akcenat bacaju na svašta, ali ne na grafiku. Taj Metro 2033 deluje super, ali to će igrati mali broj upućenih ljubitelja, + rusko/istočnoevropsko tržište, i to nema nikakve veze koliko će igra biti dobra ili ne. Inače, AMD i Nvidia nikada neće uraditi to što priželjkujete, jer nemaju ROI, return of investment mora biti jasan i uočljiv, niko neće da daje pare napamet, posebno ne u uslovima svetske ekonomske krize, zato što će "to garant da uveća prodaju" i "dobiti 5 AAA naslova godišnje" :D Neće. Čak i da dobiju naslove sa ultra-vrhunskom grafikom, to ne može biti garant da će se raditi o dobrim igrama. Pogledajte samo Stalker, grafika je sasvim OK, to što ne valja nema veze sa grafikom, već sa animacijom, fizikom, napucavanjem, zvukom, pa koriste 300 modova. Nije lako napraviti igru, posebno ne AAA naslov, to ide daleko van okvira grafike. I ko će sad da to finansira, a da nije siguran da će mu se i direktno isplatiti...


edit: evo, najbolji pokazatelj o tome da igru samo dobra grafika ne čini zanimljivom za igranje jeste i rečenica koju sam napisao za Metro 2033 da "i to nema veze koliko će igra biti dobra ili ne", koja jasno ilustruje kako se danas razmišlja. Nekada bismo igru sa vrhunskom grafikom odmah mogli da proglasimo vrednom igranja, danas ko zna, a danas imamo na raspolaganju tonu trejlera, HD gejmplej snimaka i tako dalje. Upravo zato što čekamo da vidimo kakvi će ostali elementi biti. Grafika se danas uzima zdravo za gotovo, dovoljno je da ispuni određene kriterijume i više i nije toliko bitna koliko atmosfera, fizika, priča, koncept napredovanja kroz samu igru. Verovatno jednim delom zato AMD i Nvidia ni ne razmišljaju o ulaganjima o kakvima govorite, makar delimično su i oni svesni toga.
 
Poslednja izmena:
@ žabac
nemoj ovde da prosipaš ppp filozofiju :d
 

Hahahah.... SemiAccurate legende... sta sve jos nece napisati :) to je glupost obicna...

Evo neke novine:
http://www.tweaktown.com/news/14302...mi_price_psu_requirements_and_more/index.html

Znaci GTX470 ce biti malo brzi od radeon 5870 i bice 299$ u rangu sa 5850... a GTX480 ce biti blizu radeon 5890...
sto pokazuju i ovi benchmarkovi:

http://www.hardwarecanucks.com/foru...idia-s-geforce-gf100-under-microscope-13.html
http://www.hardwarecanucks.com/foru...idia-s-geforce-gf100-under-microscope-14.html

to je bila test karta Fermi sa 448SP tj gtx470 pa procenite sami koliko ce mocan fermi biti. Onda tek zamislite GTX480, ili Dual Fermi.
 
Poslednja izmena:
Hahahah.... SemiAccurate legende... sta sve jos nece napisati :) to je glupost obicna...

Evo neke novine:
http://www.tweaktown.com/news/14302...mi_price_psu_requirements_and_more/index.html

Znaci GTX470 ce biti malo brzi od radeon 5870 i bice 299$ u rangu sa 5850... a GTX480 ce biti blizu radeon 5890...
sto pokazuju i ovi benchmarkovi:


http://www.hardwarecanucks.com/foru...idia-s-geforce-gf100-under-microscope-13.html
http://www.hardwarecanucks.com/foru...idia-s-geforce-gf100-under-microscope-14.html

to je bila test karta Fermi sa 448SP tj gtx470 pa procenite sami koliko ce mocan fermi biti. Onda tek zamislite GTX480, ili Dual Fermi.

Benchmarkovi kartice koja još ne postoji? Datum je 17. Januar, tek tada nije postojao kršten sample fermi/gf100.
 
^ To je vec bilo ;) i to kada vidim 5870 simulated sve mi je jasno :D
Ali budimo ozbiljni, fermi po ceni od 299$, nece sigurno da moze... A kamoli dual fermi da izadje u skorijoj buducnosti, osim ako ne planirate kupovinu TA peci :D :D

Pretece me darius3 :)
 
ne vidim problem u potrosnji... igrajte se dok je jeftinija struja !
 
Problem u potrosnji je i problem pregrevanja, i problem curenja struje u tranzistorima ;) A dok fermi izadje struja ce da poskupi :D
 
Potrošnja je u driektnoj vezi sa proizvedenom toplotom koju treba odvesti iz kućišta.
Po svim očekivanjima ventilator na Fermiju će biti poprilično bučan a to će mi kvaritu užitak jer će da se meša se sa zvucima iz igrice.
Je li sada jasno zašto je potrošnja problem?
 
Potrošnja je u driektnoj vezi sa proizvedenom toplotom koju treba odvesti iz kućišta.
Po svim očekivanjima ventilator na Fermiju će biti poprilično bučan a to će mi kvaritu užitak jer će da se meša se sa zvucima iz igrice.
Je li sada jasno zašto je potrošnja problem?

buka bi mi smetala jedino ako igram sah - a za to ne treba germi, dovoljan je i 8400gs.
 
buka bi mi smetala jedino ako igram sah - a za to ne treba germi, dovoljan je i 8400gs.

Добро, ако играш са слушалицама, и то неким квалитетним можеш и комбајн да сместиш у кућиште (значи Ферми :d)!!!
 
Navali narode, još malo pa nestalo! :d
 
The only problem with that fact is that the top-end Fermi chip employs a 384-bit bus, while the GTX 470 employs a 320-bit bus, an identical configuration to the G80 GPU and its two launch products, GeForce 8800GTX and 8800GTS. As such, neither GTX 470 nor GTX 480 cannot facilitate a 2GB quantity of memory. It has to be either 1920MB or 2304MB in order to jive with this requirement.
 
Bogami za ove pare ce i na mesec morati da voze da bi se pokazale pored novih atija!!!!

I jel moguce da vec toliko vremena ne mogu da dodju na 512-bitni bus?!
 
Status
Zatvorena za pisanje odgovora.
Nazad
Vrh Dno