Šta je novo?

Nvidias kepler(gf6xx) comes in to focus.

Verovatno fake ( Metro Last Night? ), al ajd' da ostane ubelezeno ...

zdnz8.png


Izvor: http://we.pcinlife.com/thread-1802355-1-1.html

Po nama poznatim informacijama dupliran je broj izvrsnih jedinica (512 -> 1024). To u teoriji, pri idealnom skaliranju znaci performanse x 2, plus jos malo na racun malog povecannja frekvencije i nekih optimizacija.
Tako da u idealnom svetu i jeste moguce da bude brza ~2,3x u nekim igrama. Ali mi ne zivimo u idealnom svetu :d :p

Mislim da ce nVidiji biti veliki problem njihovi drajveri. Za Fermi im treba Sandy Bridge da bi mogli da drze kartu na priblizno 100%, ako ne rese taj problem plasim se da nova generacija nece moci da se uposli :)
Mozda samo sa nekim 6-jezgarnim procesorima (3 jezgra za igru i 3 za drajver).
 
Poslednja izmena:
...:trust:
es0zt4.jpg
 
Tipican nVidija troling :D :D najsmesniji deo specifikacija je taj da ce die size biti 334 sto je manje od AMD 7970, a s'obzirom da ce po mnogim glasinama kepler biti dupliran fermi u 28nm....ovo je jednostavno nemoguce :)

Evo i slicice poredjenja cipova sa ananda :)

DieSize_575px.png
 
Kad dodje dobro dosao ;)
 
Prvo izbacuju GTX660 zanimljivo :p
 
To moze da menja ko 'oce...ajde kolko ocete shejdera? :D
 
zanimljivo da kad je ATI najavio Rambus na svojim kartama gomila ljudi je trolovala kako je to fail potez ..... a evo i Nvidia isto to najavljuje :) let the trolling begin
 
zanimljivo da kad je ATI najavio Rambus na svojim kartama gomila ljudi je trolovala kako je to fail potez ..... a evo i Nvidia isto to najavljuje :) let the trolling begin

Ne vidim gde su te najave, daj link.
 
Realno je da se neki novi mem. standard pojavi u next gen. grafici ... GDDR5 je napravio revoluciju, osobito za 128-bit segment.
 
Nego, da li ce nove pci-e 3.0 graficke karte raditi sa maticnim plocama koje podrzavaju PCI-E 2.x ???
 
Da.
 
Bilo bi dobro da shto pre izadje GTX680 - pa makar i koshtao $1000 i bio sporiji od 7970... Ljudi koji kupuju high end, uglavnom vishe ni ne gledaju koja karta je najbrza, vec koja lepshe izgleda, ima vishe memorije, ima veci hladnjak, vishe portova i sl. :d
 
Ne vidim gde su te najave, daj link.

pa ne pratis temu ... eno na linku sa Wikipedije XDR2 stoji za mem. type koliko sam ja upucen to nije DDR5 :)

Bilo bi dobro da shto pre izadje GTX680 - pa makar i koshtao $1000 i bio sporiji od 7970... Ljudi koji kupuju NVIDI-u, uglavnom vishe ni ne gledaju koja karta je najbrza, vec koja lepshe izgleda, ima vishe memorije, ima veci hladnjak, vishe portova i sl. :d

Izvini morao sam malo da te ispravim ;)
 
Base clock i shader clock su isti ?? To bi direktno značilo novu arhitekturu
Memory clock je neuobičajeno visok za Nv.
 
Poslednja izmena:
Kao i broj cuda cores, tabela je malo onako, i ovako.
 
Base clock i shader clock su isti ?? To bi direktno značilo novu arhitekturu
Memory clock je neuobičajeno visok za Nv.

Da, tamo negde od decembra kruzi taj info da ce kepler imati shader clock=core clock .
 
Ovo na slici deluje ko neki ATI proizvod u najavi. Nema ništa karakteristično za nV kartice osim možda velikog broja ROP.

Mada ima smisla odnos TFLOPSa u double i single precision modu, kod ovih jeftinijih modela je 1:10. Očigledno da će u budućnosti ići na raslojavanje u tom segmentu da slučajno ljudi ne bi kombinovali jeftine kartice i sa takvim sistema krckali brojeve...
 
Obichno kada je ovakva tishina, to znachi da su ili napravili neshto jako dobro ili zasrali. E sad, s obzirom da u poslednje vreme svaki put kada zaseru krenu odmah u marketing da izvlache prodaju, verovatno su napravili dobar proizvod.

Tipichni primeri ovakvog ponashanja su Fermi (gde su ga hvalili kao ludi, a bio je vruc i nedoradjen proizvod), Ati 2900 XT (slichna situacija), GTX5xx serija (za koju su cutali, a ispala je mnogo bolje nego shto se ochekivalo) i AMD 5xxx serija (cutali su dugo, a onda izbacili odlichne karte).
 
Iskreno, mislim da je ovaj grafikon jedno veliko NISTA, ciste gluposti i naklapanja. Nije moguce da sa 512 CUDA cores na najjacem modelu danas, odemo na 2304, to je realno sasvim neverovatno. Ja sam cuo da ce najjaca kartica imati 512 bitni memorijski interferjs i 1024 CUDA jezgra, najvise 1280, ali nikako 2304.

Sve ostalo na ovoj tabeli je ok, sem ovih CUDA jezgara...
 
To sto deo cipa radi na visokom klokovima 'trosi' tranzistore..moguce da su dosli do kalkulacije da je bolje spustiti klokove na normalan nivo a povecati broj jedinica. Takodje, znatno povecava kompleksnost pri dizajniranju GPU-a. Sve je pocelo sa G80:

Running at up to 1.35GHz, NVIDIA had to borrow a few pages from the books of Intel in order to get this done. The SPs are fairly deeply pipelined and as you'll soon see, are only able to operate on scalar values, thus through simplifying the processors and lengthening their pipelines NVIDIA was able to hit the G80's aggressive clock targets. There was one other CPU-like trick employed to make sure that G80 could have such a shader core, and that is the use of custom logic and layout.

The reason new CPU architectures take years to design while new GPU architectures can be cranked out in a matter of 12 months is because of how they're designed. GPUs are generally designed using a hardware description language (HDL), which is sort of a high level programming language that is used to translate code into a transistor layout that you can use to build your chip. At the other end of the spectrum are CPU designs which are largely done by hand, where design is handled at the transistor level rather than at a higher level like a HDL would.

Elements of GPUs have been designed at the transistor level in the past; things like memory interfaces, analog circuits, memories, register files and TMDS drivers were done by hand using custom transistor level design. But shaders and the rest of the pipeline was designed by writing high level HDL code and relying on automated layout.

You can probably guess where we're headed with this; the major difference between G80 and NVIDIA's previous GPUs is that NVIDIA designed the shader core at the transistor level. If you've heard the rumors of NVIDIA building more than just GPUs in the future, this is the first step, although NVIDIA was quick to point out that G80 won't be the norm. NVIDIA will continue to design using HDLs where it makes sense, and in critical areas where additional performance or power sensitive circuitry is needed, we'll see transistor level layout work done by NVIDIA's engineering. It's simply not feasible for NVIDIA's current engineering staff and product cycles to work with a GPU designed completely at the transistor level. That's not to say it won't happen in the future, and if NVIDIA does eventually get into the system on a chip business with its own general purpose CPU core, it will have to happen; but it's not happening anytime soon.

The additional custom logic and layout present in G80 helped extend the design cycle to a full four years and brought costs for the chip up to $475M. Prior to G80 the previous longest design cycle was approximately 2.5 - 3 years. Although G80 did take four years to design, much of that was due to the fact that G80 was a radical re-architecting of the graphics pipeline and that future GPUs derived from G80 will have an obviously shorter design cycle.

http://www.anandtech.com/show/2116/5

Vrlo moguce da ovo ima veze sa tim sto nVidia duze razvija GPU pa ih i kasnije plasiraju.
 
Poslednja izmena:
Iskreno, mislim da je ovaj grafikon jedno veliko NISTA, ciste gluposti i naklapanja. Nije moguce da sa 512 CUDA cores na najjacem modelu danas, odemo na 2304, to je realno sasvim neverovatno. Ja sam cuo da ce najjaca kartica imati 512 bitni memorijski interferjs i 1024 CUDA jezgra, najvise 1280, ali nikako 2304.

Sve ostalo na ovoj tabeli je ok, sem ovih CUDA jezgara...

Pa pazi, ako idu na varijantu vracanja shader clock-a, onda 1024 procesora deluje malo. S druge strane, slazem se da je 2304 nerealno mnogo. Recimo 1536 na ~900MHz izgleda dosta realno.
 
e sad jos kad bi se ove najave obistinile .... eto nama rata cena i lepih karata za male pare.
 
e sad jos kad bi se ove najave obistinile .... eto nama rata cena i lepih karata za male pare.

Uh bilo bi lepo da je prestave na CES 2012 pa malo da sa cenama se kolju pa svi da nakupujemo za male pare :D
 
Vrh Dno