Šta je novo?

Fermi is Nvidia's DirectX 11

Status
Zatvorena za pisanje odgovora.
testirali su u Crysis-u 2 yes kako da no! :trust:

testirali su u AvP-u - yes kako da no :trust:

Tegra 2 u iPhone-u - yes kako da no (apple ima svoj Cortex-A8 koji mu proizvodi Samsung)

Tegra 2 u BB-eriju - yes kako da no - BBeri je biznis telefon, a ne hand held konzola!

kako 40% vece perfomanse u odnosu na GTX 295 znace 47% vece performanse u odnosu na HD 5870?

Kako GF104 znaci 80% vece performanse u odnosu na GTX 295? Sta ima 1000+ Shader procesora u 40nm yes kako da no!

Ovo ide po onu narodnu: sto je Babi milo to joj se i snilo :D
 
Ma covek je tipican trol kakvih ima na tone na gaming forumima. Ali moram priznati da me je nasmejalo kada sam video o cemu se zapravo radi.
 
Meni je temperatura najsmesnija, ispade da upija toplotu, pa je dobra za kuciste jer snizava sve temperature... :)
Toliki cip moze da ima tako nisku temperaturu jedino ako se hladi nekim ekstremnim hladjenjem :)
 
Pa sve zavisi na kojoj lokaciji su testirali :D Na antarktiku moze bez problema ta temperatura :p
 
A OS mora da bude Linux, ako nisam omasio pol...
 
kako 40% vece perfomanse u odnosu na GTX 295 znace 47% vece performanse u odnosu na HD 5870?

Bez ulazenja u verodostojnost ovih informacija, interesuje me koliko po tebi treba da bude tih 47% :)

Kako GF104 znaci 80% vece performanse u odnosu na GTX 295? Sta ima 1000+ Shader procesora u 40nm yes kako da no!

Koliko sam ja ukapirao, GF104 bi trebao da bude dual GF100 :)
 
Bez ulazenja u verodostojnost ovih informacija, interesuje me koliko po tebi treba da bude tih 47% :)



Koliko sam ja ukapirao, GF104 bi trebao da bude dual GF100 :)
na osnovu koje "informacije" je GF104 dual GF100?
 
Na osnovu one da kartica radi na 50 stepeni pri opterecenju :D :D :D
Jao koji ce ovo blam biti.... Vidim da ce i nVidia imati 2900xt debakl :D
 
na osnovu koje "informacije" je GF104 dual GF100?

Siguran sam da sam negde procitao, ne mogu sad da nadjem, ili je mozda samo moja pretpostavka :)
U svakom slucaju, valjda ce se nesto otkriti prekosutra, makar za GF100.
 
Siguran sam da sam negde procitao, ne mogu sad da nadjem, ili je mozda samo moja pretpostavka :)
U svakom slucaju, valjda ce se nesto otkriti prekosutra, makar za GF100.

Na kraju tog "too good to be true" posta stoji:

GF100 promises to deliver at least 40% more performance than the GTX295 for less money. GF104 promises double that.

Ako nista drugo bar je nagovestaj. Iako do sada ni jednom dual GPU nije znacio 100% ubrzanje u odnosu na single resenje. Stvarno mi deluje kao prica za malu decu, ali videcemo.

Iako nisam bas pratio razvoj zanimljiv mi je onaj detalj o nativnoj podrsci za C++ na nivou cipa, moze li neko da pojasni?
 
I NVidia ima multi-displej podrsku...

NVIDIA 3D Vision Surround, the first consumer, multi-display 3D solution which allows users to span 3D content across 3 high definition monitors or projectors. NVIDIA 3D Vision Surround does for 3D PC gaming just like what IMAX 3D does for movies.

Doduse, nije mi jasan ovaj deo sa first consumer? Kao da je PR tekst napisan pre 6 meseci ;)
 
Mozda zbog onoga "3D"? ;)
 
Iako nisam bas pratio razvoj zanimljiv mi je onaj detalj o nativnoj podrsci za C++ na nivou cipa, moze li neko da pojasni?

Do sada si mogao da pišeš programe u c-u za procesore opšte namene, sada možeš da pišeš program u c-u i da se on izvršava na GPU čipu. To je moguće između ostalog i zato što je arhitektura GPU čipa sve sličnija procesorima opšte namene, odnosno stream procesori se sastoje od ALU, FPU, poseduju L1 i L2 cahe i memorijsku hijerarhiju što su sve standardni elementi procesora opšte namene. Naravno ove čipove i dalje je moguće iskoristiti kroz standardne API-je: DirectX, OpenGL i OpenCL.
 
Do sada si mogao da pišeš programe u c-u za procesore opšte namene, sada možeš da pišeš program u c-u i da se on izvršava na GPU čipu. To je moguće između ostalog i zato što je arhitektura GPU čipa sve sličnija procesorima opšte namene, odnosno stream procesori se sastoje od ALU, FPU, poseduju L1 i L2 cahe i memorijsku hijerarhiju što su sve standardni elementi procesora opšte namene. Naravno ove čipove i dalje je moguće iskoristiti kroz standardne API-je: DirectX, OpenGL i OpenCL.

Hvala na objasnjenju. Ja sam mislio da je ovo vec bilo moguce putem CUDE. Tek sada su tu funkcionalnost ubacili...
 
Hvala na objasnjenju. Ja sam mislio da je ovo vec bilo moguce putem CUDE. Tek sada su tu funkcionalnost ubacili...

U pravu si CUDA omogućava programiranje u c jeziku, doduše to je više programiranje nvidia ekstenzija za c jezik uz dosta ograničenja po pitanju kompajlera i programskih tehnika (nema rekurzija, pointerskih funkcija...). Inače ova nativna podrška za c++, kod fermija, je ustvari od nule razvijena nova verzija CUDA arhitekture i moći će da se koristi direktno iz Visual Studia. Kada se počelo sa GPGPU primenom sve se obavljalo korišćenjem grafičkih API-ja.
 
Poslednja izmena:
CES 2010: NVIDIA Shows GeForce GF100 Fermi Video Card:

http://www.legitreviews.com/article/1175/1/

nvidia_geforce_100.jpg


Performance numbers are hard to come by on the GeForce GF100, but we overheard someone saying that it is around 36% faster than ATI's Radeon HD 5870. When asked to confirm the number, NVIDIA could not comment. We also heard a rumored launch date of March 2nd, 2010 from various people at the show, so it looks like the graphics card is close to coming out.
 
Zasad, samo ovo...bez "brojeva"...



mw5j5c.jpg



Fermi Graphics: Really? Really!

I was just about to leave the event when Ken Brown, Nvidia PR guy (not to mention former executive editor of Computer Gaming World back in the day), tapped me on the shoulder and asked me if I wanted to see a Fermi-based GPU.

Fermi is Nvidia’s massive re-imagining of its architecture with a strong emphasis on GPU computing capabilities. It’s still very much a graphics design, but the gestation period for the first Fermi chips has been a long and painful one. Nick Stam at Nvidia showed off the new GPU running inside an X58-based Core i7 system.

The card overhung an ATX motherboard slightly, but Stam noted that the cooler wasn’t final hardware, and clocks and other specs weren't ready to be announced yet. The system was running the Uniengine DirectX 11 benchmark, and Nick insisted that the results were already better than AMD’s fastest GPU. Nick was also noncommittal about power consumption, but the card looked to be using both 8-pin and 6-pin PCIe power connectors. Since it wasn’t final hardware, though, it’s uncertain as to what will show up when retail cards emerge.

Nick also insisted that GF100 (that’s the code name, not the product name) would be a "Q1 product." So we’ll just have to wait and see. But after all the delays and silence from Nvidia, Fermi-based graphics is starting to look real.



http://www.tomshardware.com/reviews/ces-2010-fermi,2527-4.html
 
Poslednja izmena:
I NVidia ima multi-displej podrsku...



Doduse, nije mi jasan ovaj deo sa first consumer? Kao da je PR tekst napisan pre 6 meseci ;)

Ovo je 3D vision multi display tehnologija, tj. sa 3D naocharima na nekoliko monitora. Jedini problem koji ja odmah vidim je to shto ce u takvom sluchaju 3D efekat biti uglavnom efekat "dubine" ekrana, poshto ce ramovi monitora da "prilepljuju" sve objekte koji budu izletali iz ekrana na ravan ekrana (ne znam koliko sam jasno objasnio, ali je ideja da nece biti velikih objekata koji izlecu iz multi-display ekrana).
 
Mogli su da screenshot-uju zmaja u Unigine-u, da vidimo teselaciju na Fermiju ;)
 
Jos samo da se vidi dal stvarno ubija ;).
 
This will be a real killer product in terms of tesselation.

Nisam video uzivo unigine engine na nekoj 5x00 kartici, ali koliko vidim na snimku nema primetnog pada FPS-a kad se ukljuci teselacija, jel to dobro? :)
 
Ovo je 3D vision multi display tehnologija, tj. sa 3D naocharima na nekoliko monitora. Jedini problem koji ja odmah vidim je to shto ce u takvom sluchaju 3D efekat biti uglavnom efekat "dubine" ekrana, poshto ce ramovi monitora da "prilepljuju" sve objekte koji budu izletali iz ekrana na ravan ekrana (ne znam koliko sam jasno objasnio, ali je ideja da nece biti velikih objekata koji izlecu iz multi-display ekrana).

Kapiram da ce ovo biti jos problematicnije nego na ATIjevom Eyefinity resenju - sada neces samo imati rupe u slici, vec i u "prostoru".
 
Kapiram da ce ovo biti jos problematicnije nego na ATIjevom Eyefinity resenju - sada neces samo imati rupe u slici, vec i u "prostoru".

Pa ne bash, bice obrnuto u principu - imacesh osecaj da gledash virtuelni svet kroz ogroman prozor :) Imam na poslu Philips WOW Zone (Video Wall iz 9 Philips 3D ekrana) i mogu da ti kazem da je efekat jako interesantan, pogotovo ako se koristi taj trip "prozora" - naprimer imam video gde se vidi obala jezera koja je "unutar" ekrana, dok vilin konjici i leptiri slecu na ivice ekrana i kao odmaraju se na "prozoru" ;)
 
ja kapiram da niko od nas nista ne zna o ovom proizvodu i da samo slusamo

wishful thinking & educated guesses

tako da mi sve vise i vise ovo ide na zivce. Misterija, koja je totalno bespotrebna, ukoliko imaju nesto sto radi mogli su da daju neke brojeve. Bilo kakve.
 
Status
Zatvorena za pisanje odgovora.
Nazad
Vrh Dno