Šta je novo?

Fermi is Nvidia's DirectX 11

Status
Zatvorena za pisanje odgovora.
Suviše oni potenciraju computing stvari a malo govore o grafici.
Šuška se svašta. U svakom slučaju ćemo videti šta će biti vrlo brzo.
nVidija ima šansu da ukoliko sve prođe kako treba stane rame uz rame uz Intel-a na samom vrhu piramide ili da u slučaju da krene po zlu, uglavnom zbog finansija, se preorijentiše na druge sfere poslovanja.
 
Zanimljivo, i Fudo i Čarli prenose da će GTX260/275/285 biti EOL zbog neisplativosti (ili već jesu ??). Ako im to nije isplativo, kako će tek biti Fermi??
 
Poslednja izmena:
pa neisplativo je po sadašnjim cenama, tj. po onim cenama po kojima mora da se prodaje kad su izašli 5850 i 5870...
 
pa neisplativo je po sadašnjim cenama, tj. po onim cenama po kojima mora da se prodaje kad su izašli 5850 i 5870...

Ma znao sam da je skripac, ali bas ovoliki...
Interesantno je pitanje koliko ce firmi sada ostati Nvidia eskluzivci, nikome se ne isplati da ceka toliko dugo. A samim tim se poteze i sudbina ostalih tehnologija koje Nvidia gura, koje su realno "market share" veoma zavisne!

Uzgred, oni iz Gainward sada treba da izvrse kolektivno samoubistvo :p
 
Bas me zanima kada ce se ovo osetiti u vrednosti akcija. Jednostavno, ovo je bilo ocigledno i pre 6 meseci, kada je postala javna tajna da nece biti 212/214 cipova. Sta drugo ocekivati kada im je glavni cip u prodaji G92, a kartice zasnovane na njemu kostaju 2-2.5 puta manje nego kada su se pojavile. Nizak ASP im dolazi glave, kao sto je i AMD-u to problem u CPU biznisu.

Sada treba ubediti ljude da je PhysX vazniji od DX11, kako bi makar rasprodali lager i povratili deo novca. A u slucaju da Fermi ne bude brzi od Cypressa onoliko i koliko je veci i kartice kompleksnije (oko 50%), ponovo ce se NVidia naci u istoj situaciji. U stvari jos goroj, jer vise nece imati G92 da ih spasava, dok GT200 derivata nece ni biti.
 
Nvidia sada ponistava gtx200 seriju.

Ja stvarno ne razumem sto su tako tvrdoglavi. Bilo bi im 10x jednostavnije da samo smanje proizvodni proces gtx kartica i naravno cene. Ta njihova tvrdoglavost da imaju giga mega kartu koja ce se malo prodavati ce ih na kraju unistiti.

Mozda sadasnja situacija i nije losa. Ako ispadne da Nvidija ne moze da parira Ati-ju, onda ce se situacija "normalizovati" kao pre par godina. Jednostavno cete moci da kupite graficku i da ne mislite o sledecem upgrade-u narednih par godina. A i kvalitet softvera ce se poboljsati jer ce sav taj novi hardver moci da se iskoristi kako treba. Samo pogledajte kako su igre propale poslednjih par godina, zbog napredka hardvera. Koliko imamo kvalitetnih igara danas? Malo. A razlog tome je sto izdavaci gledaju samo da grafika bude mega giga, i naravno da prodaja bude sto veca. Microsoft gleda da izda svake godine directx samo zbog proizvodjaca grafickih karti. I onda dobijate produkt zvan "Vista" Recimo pogledajte ljude iz Lucas Artsa koji kazu da danasnje konfiguracije ne mogu izgurati novi Star Wars, pa sta bi na kraju? Igra sa dodatnim sadrzajem izlazi za pc. A tek slucaj sa Ea i njihovom fifom......
 
Poslednja izmena:
Nvidia sada ponistava gtx200 seriju.

Ja stvarno ne razumem sto su tako tvrdoglavi. Bilo bi im 10x jednostavnije da samo smanje proizvodni proces gtx kartica i naravno cene. Ta njihova tvrdoglavost da imaju giga mega kartu koja ce se malo prodavati ce ih na kraju unistiti.

Mene cudi sto nisi sa prvim problemima u 40nm izbacili derivat GT300 u srednjem segmentu i time parirali ATI-ju, verovatno oni znaju razlog... jedino se secam da su 8600GT izbacili pre 8800GT koja je u sustini ista athitektura.. ali tada su imali Ultru u top segmentu
 
Nvidia sada ponistava gtx200 seriju.

Ja stvarno ne razumem sto su tako tvrdoglavi. Bilo bi im 10x jednostavnije da samo smanje proizvodni proces gtx kartica i naravno cene. Ta njihova tvrdoglavost da imaju giga mega kartu koja ce se malo prodavati ce ih na kraju unistiti.

Dosta davno se pricalo da imaju mnogo problema da cip koji je dizajniran za 65nm, pa potom shrinkovan na 55nm, jos jednom uspesno prebace na 40nm. Jednostavno nije radilo, pa se izgleda odustalo od toga.

http://www.dvhardware.net/article33786.html

Mene cudi sto nisi sa prvim problemima u 40nm izbacili derivat GT300 u srednjem segmentu i time parirali ATI-ju, verovatno oni znaju razlog...

Performanse? Tek treba da vidimo koliko ce Fermi biti brz u igrama. Iz toga sledi i koliko ce moci da zacene derivat u srednjoj klasi kako bi parirali Juniperu, koji ce izgleda biti tu negde sa RV790, blizu GT200, sa tri puta manjom povrsinom i jednostavnijim PCB-om.
 
Mene cudi sto nisi sa prvim problemima u 40nm izbacili derivat GT300 u srednjem segmentu i time parirali ATI-ju, verovatno oni znaju razlog... jedino se secam da su 8600GT izbacili pre 8800GT koja je u sustini ista athitektura.. ali tada su imali Ultru u top segmentu


Pa da su odmah uradili isto sto i ati samo bi bili na dobitku. Cini mi se da bi bili na dobitku jer imaju i bolje drajvere od ati-ja.

Moguce i da su imali probleme sa izradom manjeg cipa. I sada idu istom strategijom 8800ultra karte. Mada kasne sto i nije strasno.
 
Poslednja izmena:
Biti će komplikacija ako nastane rupa između starog i novog bude li kašnjenja, te ako skoro ne bude GT300 derivata (budući da su tu ulogu mogli privremeno imati GT200b čipovi).
 
Poslednja izmena:
Nvidia sada ponistava gtx200 seriju.

Ja stvarno ne razumem sto su tako tvrdoglavi. Bilo bi im 10x jednostavnije da samo smanje proizvodni proces gtx kartica i naravno cene. Ta njihova tvrdoglavost da imaju giga mega kartu koja ce se malo prodavati ce ih na kraju unistiti.

Mozda sadasnja situacija i nije losa. Ako ispadne da Nvidija ne moze da parira Ati-ju, onda ce se situacija "normalizovati" kao pre par godina. Jednostavno cete moci da kupite graficku i da ne mislite o sledecem upgrade-u narednih par godina. A i kvalitet softvera ce se poboljsati jer ce sav taj novi hardver moci da se iskoristi kako treba. Samo pogledajte kako su igre propale poslednjih par godina, zbog napredka hardvera. Koliko imamo kvalitetnih igara danas? Malo. A razlog tome je sto izdavaci gledaju samo da grafika bude mega giga, i naravno da prodaja bude sto veca. Microsoft gleda da izda svake godine directx samo zbog proizvodjaca grafickih karti. I onda dobijate produkt zvan "Vista" Recimo pogledajte ljude iz Lucas Artsa koji kazu da danasnje konfiguracije ne mogu izgurati novi Star Wars, pa sta bi na kraju? Igra sa dodatnim sadrzajem izlazi za pc. A tek slucaj sa Ea i njihovom fifom......

A kako to Nvidia ponistava GT200 seriju :)

Sta vi mislite da su ljudi u Nvidia-i glupi? To sto se oni okrecu drugim trzistima ce se kasnije isplatiti. U startu vjerovatno nece, niti je to realno za ocekivati.

I to takodjer ne znaci da ih vise ne zanima gaming trziste, jer ce Fermi donijeti vise nego sto je donio GT200. Poboljsanja ce biti veca nego sto su bila na relaciji G80-GT200.
 
Meni ova vest deluje potpuno neverovatno, hajde da sačekamo potvrdu iz još nekih pouzdanijih izvora (i da verujemo da nije tačna).
 
Jadikovke navodno dolaze od patnera koji ne dobivaju "dovoljne" količine. Potpuno je normalno da će NV smanjiti/gasiti narudžbe čipova od TSMCa ako je u pripremi nešto novo i ako je GT200b postao nisplativ. Samo izgleda da se to ne poklapa najbolje s potražnjom na tržištu i/ili željama partnera koji žele nešto prodati :).
 
Realno, GTX260/285 su josh uvek zver kartice, podrzavaju PhysX, 3D vision i CUDA-u i naravno da se svidjaju ljudima. Kapiram da se GTX260 prodaje kao alva i posle pojave HD5870, zato shto je 5870 jednostavno overkill koji nije potreban ljudima u danom momentu (windows 7 josh nije izashao, DX11 igara nema i pitanje kakve ce one biti kada se pojave).

Mislim da nije sve tako crno kao shto ovde pishe.
 
Realno, GTX260/285 su josh uvek zver kartice, podrzavaju PhysX, 3D vision i CUDA-u i naravno da se svidjaju ljudima. Kapiram da se GTX260 prodaje kao alva i posle pojave HD5870, zato shto je 5870 jednostavno overkill koji nije potreban ljudima u danom momentu (windows 7 josh nije izashao, DX11 igara nema i pitanje kakve ce one biti kada se pojave).

Mislim da nije sve tako crno kao shto ovde pishe.
Rade 5870 je overkill iako je brži a jeftiniji od GTX285. Interesantan zaključak.
Radeta 5850 si iz nekog razloga preskočio, valjda ne znaš šta bi njemu zamerio.

DX11 je đubre a PhysX, 3D Vision i CUDA su od neprocenjive važnosti potencijalnom kupcu. :trust:
 
vrh gluposti ce da bude ako sada skoce cene GTX 2xx karticama :p
 
Rade 5870 je overkill iako je brži a jeftiniji od GTX285. Interesantan zaključak.
Radeta 5850 si iz nekog razloga preskočio, valjda ne znaš šta bi njemu zamerio.

DX11 je đubre a PhysX, 3D Vision i CUDA su od neprocenjive važnosti potencijalnom kupcu. :trust:

Kao prvo, imao sam u vidu vishe GTX260 nego 285. Kao drugo, zashto bi neko davao 350 ili 250 evra za karticu (HD 5870 ili HD 5850) kada i kartica od 150 evra moze da tera sve aktuelne igre u 1920x1200.

Ne kazem da je DX11 djubre, ali pod njim nema nicheg u ovom trenutku (chak ni OS nije josh zvanichno izashao).

3D vision radi u svim igrama, PhysX radi u nekoliko igara (u nekima dodaje zaista dobre efekte), CUDA-u podrzavaju programi koje mozesh besplatno da skinesh sa sajta nvidije.

Nemam nishta protiv HD5870, ali ono gde AMD/ATi najvishe zaostaje je softverska podrshka svojih (veoma dobrih) proizvoda.
 
Poslednja izmena:
GTX 285 je i pre izlaska 5800 serije bio skup za ono sto nudi, ali GTX 260 i GTX 275 su kod nas i dalje jako dobra kupovina.
 
@starac
Fermi ne moze da promeni ovo stanje, jedino sto moze jesu derivati! E sad, Fermi tesko da stize pre januara, a o derivatima mozemo samo da sanjamo pre Q2 a i Q2 je veliko pitanje.
U medju vremenu ATI prema roadmapu koga se za sada drzi zaokruzice celokupnu ponudu verovatno u januaru, pa mi ti reci kako ce nv sa kartom od 400e da promeni sve ovo? I gde je tu pametno planiranje molim te? Iza koju to buducnost se spremaju kada je CUDA usko povezana sa zastupljenoscu njihovih kartica na trzistu? Verujem ja da je CUDA bolja od OpenCL i dx computa, ali ako krene da im se smanjuje market share upotrebljavace se iskljucivo u institutima i slicno!

Ako nista drugo imacemo EVGA 5870 uskoro :p
 
Meni ova vest deluje potpuno neverovatno, hajde da sačekamo potvrdu iz još nekih pouzdanijih izvora (i da verujemo da nije tačna).

Mozda je u pitanju ovakav scenario: imaju rezerve istancovanih GT200 cipova za ~3 naredna meseca, nakon cega nameravaju potpuno da se prebace na Fermi tehnologiju. Uz to osim Fermija sa 512 CUDA jezgara izbacuju i performance Fermi sa 256 jezgara za nize segmente. Mislim, ako Ati moze paralelno da razvija dva GPU-a ne vidim zasto ne bi mogla i nVidia. :)
 
ma derivati GT300 vec su sigurno testirani sve je pitanje volje NV kad ce ih izbaciti... a i sigurno da ne zele tu informaciju da puste vani kako bi ugrozili prodaju top dog-a kad se bude pojavio :)
 
S obzirom da nisu imali gotov primerak kako bi CEO mahao originalom, cisto sumnjam da imaju derivate tog cipa :)
Prodaju top karte taj segment nikada nece ugoziti. Zna se ko kupuje top kartu.
 
Poslednja izmena:
S obzirom da nisu imali gotov primerak kako bi CEO mahao originalom, cisto sumnjam da imaju derivate tog cipa :)
Prodaju top karte taj segment nikada nece ugoziti. Zna se ko kupuje top kartu.

ja sam siguran da imaju jer se na proizvodu radi kad tehnika to dopusti a ne kad trzisno zele da ga plasiraju... setite se P4 chipset-a za DDR pa inteh ih je imao nastancovanih na lageru a krenuo prodaju kad mu se cefnulo :)
 
Eh ti poredis ovo sa intelom...
Daleko su oni od toga. Kada imas problema sa procesom izrade, vise od pola stvari koje su inace normalne, padaju u vodu.
 
Eh ti poredis ovo sa intelom...
Daleko su oni od toga. Kada imas problema sa procesom izrade, vise od pola stvari koje su inace normalne, padaju u vodu.

Ne samo tvrdim da se uporedo radi i na derivatima kao i na GT300 silicijumu, dok je stvar marketinga i trzista sta ce prvo ugledati svetlo dana..
 
Pazi, ne kazes samo to ;) Inace bih se slozio s tobom. Ti tvrdis da su oni spremni. Ja ne vidim nijedan razlog zasto nvidia ne bi izbacila derivate na trziste ako moze da ih proizvodi i ako su isplativi. Upravo bi im to kupilo vrijeme da na miru zavrsavaju punokrvni fermi. To da bi ugrozili 'glavnu' kartu, ne pije vode.
Ako imaju 20% slabiji derivat recimo, onda bi imali i punokrvnog fermija jer je to jako blizu. A o derivatima koju su slabiji 40 i vise % i o tome kako prolaze na trzistu, svakako odredjuje cena proizvoda. Obicno se prvo radi na punokrvnom cipu jer kada njega 'dovedes u red' onda mozes praviti derivate. A od derivata ne mozes napraviti glavni cip. Ako tom derivatu nesto fali, to moze da bude do yield-a i to je izvlacenje bilo kakve koristi, ali je cinjenica da iza toga stoji 'kompletan' cip.
 
ja sam siguran da imaju jer se na proizvodu radi kad tehnika to dopusti a ne kad trzisno zele da ga plasiraju... setite se P4 chipset-a za DDR pa inteh ih je imao nastancovanih na lageru a krenuo prodaju kad mu se cefnulo :)

Ne znam po kom osnovu mozes da poredis tadasnju situaciju sa DDR chipsetom i ovu sa Fermi-jem. Intel je tada imao ugovor sa RAMBUS-om i nije mogao da pusti u promet nijedan drugi memoriski kontroler osim za RDRAM. Ugovor jr bio ako se dobro secam na 3 godine i potpisan je jos u vreme Piii procesora. Tako da je Intel imao sasvim dovoljno vremena kada su shvatili da su se zaj*bali sa RDRAM-om, da spreme kontroler, i odmah po isteku ugovora da ga puste u promet.

Nvidia u ovom slucaju nema nikakav ugovor niti bilo koji rok pre koga nesto ne mogu da puste u promet, a da imaju gotove cipove pustili bi ih prekjuce, umesto da gube pare u narednom periodu sa 260, 270, 285 serijom.

Ja sam ubedjen da trenutno ne postoji ni jedan fermi derivat kao iole gotov cip, jer NVIDIA nije zadnjih 5 godina napravila derivat pre glavnog cipa, tako da sa velikom veroatnocom te derivate necemo videti u skorije vreme.
 
Kao prvo, imao sam u vidu vishe GTX260 nego 285. Kao drugo, zashto bi neko davao 350 ili 250 evra za karticu (HD 5870 ili HD 5850) kada i kartica od 150 evra moze da tera sve aktuelne igre u 1920x1200.

Ne kazem da je DX11 djubre, ali pod njim nema nicheg u ovom trenutku (chak ni OS nije josh zvanichno izashao).

3D vision radi u svim igrama, PhysX radi u nekoliko igara (u nekima dodaje zaista dobre efekte), CUDA-u podrzavaju programi koje mozesh besplatno da skinesh sa sajta nvidije.

Nemam nishta protiv HD5870, ali ono gde AMD/ATi najvishe zaostaje je softverska podrshka svojih (veoma dobrih) proizvoda.
Matematika je prosta: 4870 je brži GTX260, 4890 je brži od GF260 core 216, 5850 je brži od GF275, 5870 je brži od GF285. Oko ovoga ne treba da se slažemo ili ne, to su činjenice.
Koliko god para hoćeš da potrošiš na grafičku ATi ima bolji odnos perf/price.

3D Vision je gimmick, i u ovom trenutku je stvarno podržan samo u jednoj igri - Resident Evil 5. Ako ti je do univezalnog gimmicka ima i ATi svoj - eyefinity.
BTW - koliko ljudi znaš da je kupilo ili da namerava da kupi te naočare?

Dalje, svi ste se uhvatili za tu CUDU ko da se svi listom bavite nuklearnom fizikom. Koliko ja videh primena se svodi na obradu videa, encoding i naučne proračune. Kolikom broju kupaca to stvarno treba???
U ovom trenutku sve ostalo su samo nVidijine priče u fazonu biće brže skeniranje na viruse jednog dana.

Na kraju kao prednost nVidie ostaje physX na šta ATi nema odgovor, ali je ta prednost u ovom trenutku oličena u Batmanovom plaštu i novinama koje lete naokolo u još 1-2 igrice. Za 6 meseci broj igara koji bolje rade pod DX11 će biti daleko veći od igrica koje imaju prednost od PhysX-a.
 
Kao prvo, imao sam u vidu vishe GTX260 nego 285. Kao drugo, zashto bi neko davao 350 ili 250 evra za karticu (HD 5870 ili HD 5850) kada i kartica od 150 evra moze da tera sve aktuelne igre u 1920x1200.
GTX 260 ne moze da tera Crysis u Very High/ Enthusiasts u 19x12, a HD 5800 moze ;)
Ne kazem da je DX11 djubre, ali pod njim nema nicheg u ovom trenutku (chak ni OS nije josh zvanichno izashao).
OS je davno izasao i dostupan je svim M$-ovim "ugovorcima" i OEM-ovima (pa i studentima), a BattleForge je dostupan shirm sveta, a novi STALKER u Rusiji... jos gomil anaslova stiz uskoro (pre i posle nove godine)
3D vision radi u svim igrama, PhysX radi u nekoliko igara (u nekima dodaje zaista dobre efekte), CUDA-u podrzavaju programi koje mozesh besplatno da skinesh sa sajta nvidije.
3D Vision... i osudjen si na ukupno dva 22" monitora na svetu i prilicno skup setup koji ti ne dozvoljava da se igras duze od pola sata bez da osecas posledice po oci... a i zeludac... koji su to besplatni CUDA programi na NV sajtu?
Nemam nishta protiv HD5870, ali ono gde AMD/ATi najvishe zaostaje je softverska podrshka svojih (veoma dobrih) proizvoda.
Nije mi jasno o kakvoj softverskoj podrsci i nedostatku iste pricas?

No da se jos jednom vratim na poetak u kome si dao najbolji argument koji ide u prilog istinitosti ovih zadnjih vesti u vezi NVIDIA-e i GT200 serije:

Kao drugo, zashto bi neko davao 350 ili 250 evra za karticu (HD 5870 ili HD 5850) kada i kartica od 150 evra moze da tera sve aktuelne igre u 1920x1200.

Da li je realno da se veoma kompleksna kartica, sa gomilom memorijskih cipova i procesorom ogromantnih dimenzija profitabilno prodaje za 150 evra?
Ima li u opste poslovnog rezona da se ta prodaja sa garantovanim gubitkom dalje nastavlja?
Nema sumnje da je cilj odrzavanja market-sharea mogao da opravda poslovanje sa gubitcima i pod premisom da ce se uspeti sa prebacivanjem na 40nm u podnosljivom vremenskom periodu... ali sada kada se vidi da je plan prebacivanja GT200 na 40nm propao, i da GT300 kasni... koja je poenta daljeg gubljenja para?

Naravno, samo ce vreme pokazati jel' ovo sve tacno u onoj meri u kojoj zvuci da jeste
 
Poslednja izmena:
Status
Zatvorena za pisanje odgovora.
Vrh Dno