Šta je novo?

Fermi is Nvidia's DirectX 11

Status
Zatvorena za pisanje odgovora.
Pa ako si spreman da das Nvidiji 300-500(verovatno i preko 600) evra, onda ok, u svakom drugom pogledu bice apsolutna truba, ko iz Guce! Dzaba je nesto najbolje kada ti treba 200 evra za napajanje i minimum 300 za graficku, a pre ce biti bar 500 evra.

Stvarno mi nije jasno kako to moze da bude fantasticno u takvim uslovima???
U kom pogledu ce biti truba?
Otkud ti da treba 200e za napajanje?
U kojim uslovima?
 
Poslednja izmena:
Pa ako si spreman da das Nvidiji 300-500(verovatno i preko 600) evra, onda ok, u svakom drugom pogledu bice apsolutna truba, ko iz Guce! Dzaba je nesto najbolje kada ti treba 200 evra za napajanje i minimum 300 za graficku, a pre ce biti bar 500 evra.

Stvarno mi nije jasno kako to moze da bude fantasticno u takvim uslovima???

I odakle info da ce grafika biti 600e? :D
 
5870 je kostao nekih 36k dinara kad se pojavio - koliko je to bilo evra ?
 
Oko 420-30 EUR?
 
Cenu najjaceg GeForce-a ce prilicno direktno diktirati bas 5870, jer ce morati da bude skuplja od njega onoliko koliko bude brza u igrama (ili tu negde), isto kao sto se desilo sa prethodnom generacijom.

Moci ce da je zacene nerealno mnogo samo ukoliko budu imali jos jedan model ("osakaceni" derivat) koji je brzi od 5870, pa da naplacuju premium za tu ekskluzivnost. Da li ce ga i imati... tesko, ali jos ne znamo, moguce je.
 
Oko 420-30 EUR?

Hahahaha, s kojim to kursom racunas od pre godinu i po??? :D

Ako se deli sa 93, ispada 387 evra otprilike u tom trenutku, dve nedelje posle toga je i kod nas bila za 32000 dinara, ma ni toliko mozda nije proslo vremenski.

Pa Nvidia je poznata po pravljenju furuna, zasto bi sad bilo drugacije, mislim da su moji podaci potpuno pouzdani i podjednako, ako ne i pouzdaniji od ovih sto vi ovde lepite linkove i sto Nvidia projektuje.

Te nije test nego je simulacija testa, te nije baba nego ce ispadne zaba i slicno...

ATI nije pravio nikakvu galamu 6 meseci pred izbacivanje kartica, lepo ljudi izbacili kartice, izvolte, ovi vrse psiholosku pripremu! :d
I uporno kupuju sebi vreme, i plus vrse propagandu da bi odvratili kupce ATI kartica da cekaju njihove. Ako su toliko superiorni, sto ne sacekaju kada budu imali gotov proizvod, i lepo ga izbace na rafove i police, a oni ga prodaju pola godine unapred uz silnu galamu, sta ce im to ako su jaki sto onda galame. :D
 
Poslednja izmena:
Jeste, uci ti njih kako da posluju ;)

Mislim, drago mi je da su tvoji podaci potpuno pouzdani :D

Apsolutno, kao sto rekoh nista manje tacni od ovih "vasih" i Nvidijinih, a verovatno i pouzdaniji! :d

Pa, i treba da ih nauci neko da posluju, konkurent te prasi po guzici 6 meseci, a ti se sve spremas da mu uzvratis, ali nikako da dodje do toga! :D
 
Poslednja izmena:
Hahahaha, s kojim to kursom racunas od pre godinu i po??? :D

Ako se deli sa 93, ispada 387 evra otprilike u tom trenutku, dve nedelje posle toga je i kod nas bila za 32000 dinara, ma ni toliko mozda nije proslo vremenski.

Pa Nvidia je poznata po pravljenju furuna, zasto bi sad bilo drugacije, mislim da su moji podaci potpuno pouzdani i podjednako, ako ne i pouzdaniji od ovih sto vi ovde lepite linkove i sto Nvidia projektuje.

Te nije test nego je simulacija testa, te nije baba nego ce ispadne zaba i slicno...

ATI nije pravio nikakvu galamu 6 meseci pred izbacivanje kartica, lepo ljudi izbacili kartice, izvolte, ovi vrse psiholosku pripremu! :d
I uporno kupuju sebi vreme, i plus vrse propagandu da bi odvratili kupce ATI kartica da cekaju njihove. Ako su toliko superiorni, sto ne sacekaju kada budu imali gotov proizvod, i lepo ga izbace na rafove i police, a oni ga prodaju pola godine unapred uz silnu galamu, sta ce im to ako su jaki sto onda galame.
:D

Jok, samo smo imali oveci DX11 hype.
 
Imao si hype ne samo zbog ATi-a nego i zbog Win7 ;) pa kad saberes oba dobijes mega-hype tj. utisak kakav imas.

Cudo je to kako su mnogi kada je ATi izbacio 58xx pricali "ma sta ce nam ovolike performanse" , "ma to je totalni overkill" a sada kada nVIDIA izbacuje SVOJE testove na sav glas urlicu ala dere.
Kada se nije znalo ni dal ce nVIDIA da podrzava teselaciju, bile su price "ma kakva teselacija, sta ce nam to..." i "razlika je mizerna".
O razlikama izmedju DX11 i DX10 i komentarima koje su pratile isti necu ni da pominjem...

Odjednom nista nije problem ;)
 
@Prostreet:
Ako se secas price oko G80 i R600 situacija je bila identicna ovoj danaas, samo su uloge bile obrnute... ali uz jednu malu razliku. GF100 ce biti brzi od 5870 dok R600 na kraju ipak nije bio brzi od G80.
 
Jok, samo smo imali oveci DX11 hype.

Ne brini se, za mesec dva imacemo jos veci;)

Niko objektivan ne spori da je Fermi arhitektura za buducnost, e sada problem je u tome sto je veliko pitanje da li je za sadasnjost! Svaka cast za sve nove tehnologije kojima cip obiluje ali me ovo sve suvise podseca na ATI slucaj sa tesselacijom!
Naime svi znamo koliko ATI dugo ima tesselator i sta im je to znacilo-apsolutno nista. Dokle god se ne pojave igre koje koriste te napredne opcije, dzaba im sto ih imaju. DX11 nece brzo da zazivi (i sami ste to rekli!) a kamoli tesselacija visoke definicije koju nv pokusava da progura.

Pogledajte samo npr. Win Win cenovnik grafickih, nv grafickih skoro i da nema, a tako ce ostati barem do juna, to je pravi problem i tu je gde oni treba da poloze ispit.

Jos jednom, svaka cast za potencijale arhitekture i to zaista mislim, ali sumnjam da je Fermi pravi odgovor na trenutnu situaciju.
 
I should pause to explain the asterisk next to the unexpectedly low estimate for the GF100's double-precision performance. By all rights, in this architecture, double-precision math should happen at half the speed of single-precision, clean and simple. However, Nvidia has made the decision to limit DP performance in the GeForce versions of the GF100 to 64 FMA ops per clock—one fourth of what the chip can do. This is presumably a product positioning decision intended to encourage serious compute customers to purchase a Tesla version of the GPU instead. Double-precision support doesn't appear to be of any use for real-time graphics, and I doubt many serious GPU-computing customers will want the peak DP rates without the ECC memory that the Tesla cards will provide. But a few poor hackers in Eastern Europe are going to be seriously bummed, and this does mean the Radeon HD 5870 will be substantially faster than any GeForce card at double-precision math, at least in terms of peak rates.

http://techreport.com/articles.x/18332/5

Nesto ovako je bilo i ocekivano, kako bi iole zastitili "ozbiljnije" musterije.
 
Ne brini se, za mesec dva imacemo jos veci;)

Dokle god se ne pojave igre koje koriste te napredne opcije, dzaba im sto ih imaju. DX11 nece brzo da zazivi (i sami ste to rekli!) a kamoli tesselacija visoke definicije koju nv pokusava da progura.

Bice verovatno 5-6 igara sa "ociglednim" dx11 i physx-om pod nvidinim okriljem, mozda i vise, njihova uloga nece biti da odresimo kesu za gtx380, nego vise da se odlucimo za gts360/50 umesto konkurenta 5800.Tako da posteno, ati trenutno sa prodajom 5800 generacije dupe pomera nvidi, ali videcemo sta ce biti u drugoj polovini godine i u 2011. godini.
 
Pogledajte samo npr. Win Win cenovnik grafickih, nv grafickih skoro i da nema, a tako ce ostati barem do juna, to je pravi problem i tu je gde oni treba da poloze ispit.

Gresis, ja kad sa ih zvao nakon nove godine , na lageru su jedino imali GT210, 220 i rekli su da im toga stize jos tona a da starije generacije nema i nece je biti, posto sam se ja interesovao za 9500gt jer je cena dosta povoljnija bila...
 
Nije bilo nikakvog dx11 hype-a. Proslo je samo 4 meseca, a vec je izasla 1 dx11 igra:d:D
 
Mislim da je Fermi bash pravo reshenje u ovom trenutku zato shto ionako imamo situaciju da 99% stvari u novim igrama mogu da odrade karte prethodne generacije.

Desktop grafichke kartice se prodaju zbog:
a) brzine
b) feature set-a

Brzina poslednjih generacija grafichkih je na takvom nivou da je overkill za vecinu igara.

Ostaje feature set.

Ako se pogleda feature set Ati-ja to izgleda ovako:
- DX11 (tesselation, DX compute itd.)
- Ati eyefinity engine (mnogo monitora na jednoj grafichkoj, surround gaming)
- OpenCL (programiranje na GPU, koje tek treba da zazivi)

Nvidija feature set:
- DX11 (tesselation, DX compute itd.)
- 3D Vision Surround (mnogo monitora na SLi konfiguraciji, 3D stereo surround gaming)
- OpenCL
- CUDA (koristi se vishe nego OpenCL na danashnji dan)
- PhysX (fizika)
- Realtime Raytrace engine

Nvidija daje vishe, pri tom ima bolju podrshku developera i prati trendove na trzishtu.
 
I should pause to explain the asterisk next to the unexpectedly low estimate for the GF100's double-precision performance. By all rights, in this architecture, double-precision math should happen at half the speed of single-precision, clean and simple. However, Nvidia has made the decision to limit DP performance in the GeForce versions of the GF100 to 64 FMA ops per clock—one fourth of what the chip can do. This is presumably a product positioning decision intended to encourage serious compute customers to purchase a Tesla version of the GPU instead. Double-precision support doesn't appear to be of any use for real-time graphics, and I doubt many serious GPU-computing customers will want the peak DP rates without the ECC memory that the Tesla cards will provide. But a few poor hackers in Eastern Europe are going to be seriously bummed, and this does mean the Radeon HD 5870 will be substantially faster than any GeForce card at double-precision math, at least in terms of peak rates.
Thanks za quote @dusan_k, mrsko mi je bilo citati sve...
Ne da nvidia nista dzaba ;)


Samo bih malo izmjenio @zerbah-ovu listu :)

Desktop grafichke kartice se prodaju zbog:
a) cijene
b) brzine
c) potrosnje
d) zagrijavanja/buke
e) feature set-a
 
Poslednja izmena:
Za cenu se slazem. Potroshnju realno gledaju samo oni koji imaju kung-fu napajanja, a zagrevanje/buka je na savremenim karticama uglavnom dobro resheno.
 
Bice verovatno 5-6 igara sa "ociglednim" dx11 i physx-om pod nvidinim okriljem, mozda i vise, njihova uloga nece biti da odresimo kesu za gtx380, nego vise da se odlucimo za gts360/50 umesto konkurenta 5800.Tako da posteno, ati trenutno sa prodajom 5800 generacije dupe pomera nvidi, ali videcemo sta ce biti u drugoj polovini godine i u 2011. godini.

Dok izadju igre za koje podrzavaju nove feature nv ce izbaciti verovatno novu generaciju a ATI ce sigurno imati novu arhitekturu. To je bas ono sto sam rekao, arhitektura je za buducnost a trenutno je preterani overkill. Njima treba nesto sto moze da se cenovno nosi sa Evergreen generacijom!

Gresis, ja kad sa ih zvao nakon nove godine , na lageru su jedino imali GT210, 220 i rekli su da im toga stize jos tona a da starije generacije nema i nece je biti, posto sam se ja interesovao za 9500gt jer je cena dosta povoljnija bila...

Pa upravo si potvrdio ono sto sam ja rekao. Najjaca graficka je gt240 u ponudi a nju kupiti pored 5670 po istoj ceni je potpuno suludo. I nemoj da mi je neko pomenuo fiziku, u ovoj klasi nema sanse da guras fiziku i imas prisojan framerate!
I to je klasa ispod 100e, gde su one iz vise klase, pojela maca mozda?

Mislim da je Fermi bash pravo reshenje u ovom trenutku zato shto ionako imamo situaciju da 99% stvari u novim igrama mogu da odrade karte prethodne generacije.
Ostaje feature set.

Ako se pogleda feature set Ati-ja to izgleda ovako:
- DX11 (tesselation, DX compute itd.)
- Ati eyefinity engine (mnogo monitora na jednoj grafichkoj, surround gaming)
- OpenCL (programiranje na GPU, koje tek treba da zazivi)

Nvidija feature set:
- DX11 (tesselation, DX compute itd.)
- 3D Vision Surround (mnogo monitora na SLi konfiguraciji, 3D stereo surround gaming)
- OpenCL
- CUDA (koristi se vishe nego OpenCL na danashnji dan)
- PhysX (fizika)
- Realtime Raytrace engine

Nvidija daje vishe, pri tom ima bolju podrshku developera i prati trendove na trzishtu.

Pogresno mislis, ono sto njima treba jeste da pariraju cenovno ATI-u. Poslednje sto oni trenutno zele jeste da Fermi spusti cene ATI karticama, to bi za njih bilo pogubno.

Sto se tice zezalica:
-CUDA- prosecnom korisniku potpuno nebitno! CUDA jeste nesto najbolje za sada, ali DX compute i OpenCL rade i na nv i na ATI kartama, tako da u mainstream trzistu oni imaju vece sanse. CUDA ce se kako stvari stoje upotrebljavati pre svega u institutima i uskostrucnim programima!
-Physix- ovo moze da se prizna ali problem je u tome sto ukoliko nv gubi %trzista sve manje developera ce se okretati Physix-u. Iskreno najvise bih voleo kad bi ga nv portovala na OpenCL mada znam da nema sanse da se to desi.
-Realtime Raytrace engine- nemoj da si smesan, pa kome to treba u ovom trenutku? Prosecnom korisniku sigurno ne.
- 3D Vision Surround- 3D Vision sam probao i ok je zaista (sem sto mnogo kosta), ali sto se tice Surround-a to je tek glupost neopevana, do juce vam je smetalo kod eyefinity-ja sto se vide ivice monitora a ovo je sad pa ok! Jos je i solidno bedan feature u poredjenu sa ATI implementacijom.
 
Poslednja izmena:
Za cenu se slazem. Potroshnju realno gledaju samo oni koji imaju kung-fu napajanja, a zagrevanje/buka je na savremenim karticama uglavnom dobro resheno.

Isto kao sto CUDA gledaju samo oni kojima treba a to je manje od 1% ;)
Na savremenoj gtx280, default 40% je za mene preglasno pa moram spustiti obrtaje.
Ti sa kungfu napajanjima su najveci consumer segment, onaj ko moze da priusti 5870 ili fermi, moze i dobro napajanje, to nije sporno, poenta mog pisanja je bila mainstream segment. 95% ljudi nikada nece kupiti 5870 ili 5970 pored jedne 5850...
 
Za cenu se slazem. Potroshnju realno gledaju samo oni koji imaju kung-fu napajanja, a zagrevanje/buka je na savremenim karticama uglavnom dobro resheno.

Ja nemam kung-fu napajanje ali mi se čini da FERMI neću moći da vozim. Mislim da je "pravih" 700W malo za mašinu sa quad CPU, FERMI GPU, 4 HDD i solidnim brojem periferijskih uređaja. Čak i da nije ne verujem da ovaj moj TT ima konektore koje prema onoj slici FERMI zahteva. U prevodu ako je 300W potrebno FERMIju i ako mi trebaju specijalni adapteri onda imam pravo da se bunim. Što je mnogo, mnogo je.

Edit: Sa kung-fu napanjima nema svrhe gledati potrošnju. Jedino što može da radi na takvim napajanjima jesu najslabiji dual core procesori i grafička do 50 evra. Čak i takva kombinacija neće dugo. Kinesko napajanje uvek crkne (oslabi) pre ili kasnije.
 
Poslednja izmena:
Pa Nvidia je poznata po pravljenju furuna, zasto bi sad bilo drugacije, mislim da su moji podaci potpuno pouzdani i podjednako, ako ne i pouzdaniji od ovih sto vi ovde lepite linkove i sto Nvidia projektuje.
Da, X1800/X1900/2900 su bile vrlo hladnje kartice nema sta, a bogami i 4850/70/90.:D
Pa, i treba da ih nauci neko da posluju, konkurent te prasi po guzici 6 meseci, a ti se sve spremas da mu uzvratis, ali nikako da dodje do toga! :D
Da ih prasi kao sto " ATI lozane" pricaju, nV bi se zatvorila do sada.:D

@Lammasu
Prosecnom korisniku je dovoljna integrusa ili neka low end grafika, gejmeri nisu prosecni korisnici, i manjina su. ;)

@G@W:
Sto ne bi TT 700 mogao da tera Fermija?
Sto se konektora tice, najgora situacija je 2x8pin, a svako iole ozbiljnije napajanje ga ima. ;)
 
Poslednja izmena:
Za cenu se slazem. Potroshnju realno gledaju samo oni koji imaju kung-fu napajanja, a zagrevanje/buka je na savremenim karticama uglavnom dobro resheno.

Eto vidis, svi znamo da je pretpostavka majka svih... znamo vec cega :D
A ovo je jedan veliki.
Meni ce upravo potrosnja i zagrevanje da odluce da li cu kupiti 5770 ili neki nVidijiin ekvivalent.
 
@Lammasu
Prosecnom korisniku je dovoljna integrusa ili neka low end grafika, gejmeri nisu prosecni korisnici, i manjina su. ;)

Prosecan korisnik voli da se poigra, s'vremena na vreme. Tada integrisana nije dovoljna. Takvih je vecina, i za njih je low-mid range kartica sasvim dobra ;)

Hardkor gejmeru graficka nikad nije dovoljno brza :)
 
Koliko trosi Radeon 5870? Posto se pominje da Fermi trosi 300W pa me interesuje kolika je potrosnja 5870.
 
Status
Zatvorena za pisanje odgovora.
Nazad
Vrh Dno