Šta je novo?

Fermi is Nvidia's DirectX 11

Status
Zatvorena za pisanje odgovora.
Da ih prasi kao sto " ATI lozane" pricaju, nV bi se zatvorila do sada.:D

@Lammasu
Prosecnom korisniku je dovoljna integrusa ili neka low end grafika, gejmeri nisu prosecni korisnici, i manjina su. ;)

To sto nv ima superioran marketing i brand je jedino sto ih vadi u ovom trenutku! I to je nesto sto jedino ti i tebi slicni pojedinci ne mogu da shvate.

A sto se tice prosecnih korisnika e pa ako sto si mi rekao! Evo sad cu da se pojedem od muke sto nemam nv kartu pa da uz pomoc CUDA mnozim matrice od jutra do sutra:wall:

Sve sto sam napisao vazi i za 90 gejmera, nv nema u ovom tenutku apsolutno nikakvu prednost sem vec pomenutog marketinga;)
 
To sto nv ima superioran marketing i brand je jedino sto ih vadi u ovom trenutku! I to je nesto sto jedino ti i tebi slicni pojedinci ne mogu da shvate.

A sto se tice prosecnih korisnika e pa ako sto si mi rekao! Evo sad cu da se pojedem od muke sto nemam nv kartu pa da uz pomoc CUDA mnozim matrice od jutra do sutra:wall:

Sve sto sam napisao vazi i za 90 gejmera, nv nema u ovom tenutku apsolutno nikakvu prednost sem vec pomenutog marketinga;)
Ja nisam rekao da ih ne vadi marketing i jak brend.;) Sta ne mozemo da shvatimo? :D Price o prasenju bi vazile da nV nema jak brend.;)
Nisam pominjao CUDA-u i istoj recenici sa prosecnim korisnicima. Cemu sprdnja na racun CUDA-e, stvar nije ni izmisljenja za gejmere i onima koji se podsmevaju "mnozenju matrica".
Vazi, ali problem je sto gejmeri misle da su svi korisnici gejmeri, pa situaciju iz gejming segmenta prenose na sve ostale sfere primene racunara.;)
 
Koliko trosi Radeon 5870? Posto se pominje da Fermi trosi 300W pa me interesuje kolika je potrosnja 5870.

Cini mi se 176w;) tacno.

@Garson Ajd sad posteno, hoces li barem da kupis taj gtx380/60, za preko 400eura ?
 
Poslednja izmena:
Da, X1800/X1900/2900 su bile vrlo hladnje kartice nema sta, a bogami i 4850/70/90.:D

Bre, sve zavisi od modela do modela, ali veruj mi da ni jedna od pomenutih se ne greje vise i ne trosi od 8800GTS/9800GTX/260GTX. Poslednja ATI-jeva prava furuna je bila famozna 2900, taj primat je posle uzela Nvidija, ako ati moze da ohladi graficku sa 200-250 grama aluminijuma -4850 ; 300-400 grama-4870 (da je 'oladi ko spricer), a Nvidiji treba celo kilo-260GTX/280GTX, 'ajde sam izvuci zakljucak necu vise da ti pomazem. :D

Da ih prasi kao sto " ATI lozane" pricaju, nV bi se zatvorila do sada.:D

Nvidia postoji mnogo duze, da bi mogla tek tako da se zatvori, a to ipak ne ide nikome u korist.

@G@W:
Sto ne bi TT 700 mogao da tera Fermija?
Sto se konektora tice, najgora situacija je 2x8pin, a svako iole ozbiljnije napajanje ga ima. ;)

Pa dobar deo "ozbiljnijih" napajanja od tipa 600-650W ima 1x6 pin i 1x8pin, ne znam koji je minimum pod kojim ti shvatas napajanje za "ozbiljnije"? :D

Ja nisam rekao da ih ne vadi marketing i jak brend.;) Sta ne mozemo da shvatimo? :D Price o prasenju bi vazile da nV nema jak brend.;)
Nisam pominjao CUDA-u i istoj recenici sa prosecnim korisnicima. Cemu sprdnja na racun CUDA-e, stvar nije ni izmisljenja za gejmere i onima koji se podsmevaju "mnozenju matrica".
Vazi, ali problem je sto gejmeri misle da su svi korisnici gejmeri, pa situaciju iz gejming segmenta prenose na sve ostale sfere primene racunara.;)

Pa sto onda pisu ogromnim slovima CUDA, na kutijama grafickih tipa 9400GT ili 9500GT, Physix i slicno? :D
 
Poslednja izmena:
Bre, sve zavisi od modela do modela, ali veruj mi da ni jedna od pomenutih se ne greje vise i ne trosi od 8800GTS/9800GTX/260GTX. Poslednja ATI-jeva prava furuna je bila famozna 2900, taj primat je posle uzela Nvidija, ako ati moze da ohladi graficku sa 200-250 grama aluminijuma -4850 ; 300-400 grama-4870 (da je 'oladi ko spricer), a Nvidiji treba celo kilo-260GTX/280GTX, 'ajde sam izvuci zakljucak necu vise da ti pomazem. :D
Imam GTS250, pre nje 4850, greju se slicno, nema osetnije razlike.:)
Hladjenje na GTX260/280/285 je odlicno reseno, nisam cuo da ljudi imaju problema sa zagrevanjem. Maravno da disipiraju vise toplote, veci su cipovi od ATIjevih.



Pa dobar deo "ozbiljnijih" napajanja od tipa 600-650W ima 1x6 pin i 1x8pin, ne znam koji je minimum pod kojim ti shvatas napajanje za "ozbiljnije"? :D
Mislim da svako napajanje jace od 500W izaslo u zadnje 2 godine ima 2x8pin.
Minimum nije u snazi vec kvalitetu. Uostalom, uz graficke stizu molex to 8pin adapteri, zaista ne vidim u cemu je problem. Ako Fermi bude imao 1x6pin i 1x8pin kao sto se prica, koliko znam nece biti prva karta koja ima tu kombinaciju.;)

Pa sto onda pisu ogromnim slovima CUDA, na kutijama grafickih tipa 9400GT ili 9500GT, Physix i slicno? :D
Zato sto podrzavaju CUDA i Physix? :d
 
Poslednja izmena:
Nvidia postoji mnogo duze, da bi mogla tek tako da se zatvori, a to ipak ne ide nikome u korist.

Ako si mislio da nVidia starija kompanija od ATIja, u tom slučaju nisi u pravu. Ako si mislio da nVidia postoji dovoljno dugo da ne bi propala, bojim se da godine pozitivnog poslovanja ne utiču na to.
 
CUDA se pise velikim slovima zato sto je to skracenica od Compute Unified Device Architecture.
Za sve one koji se nadaju da ce OpenCL ili DXC ugroziti CUDU da im asmo javim da je CUDA tehnoloski toliko odmakla od OpenCL i DXC da ce biti veoma tesko gurati te standarde da bi sustigli CUDA po mogucnostima.
 
Bio je i Glide tehnološki napredniji od DirectXa pa je neslavno završio ;)
 
CUDA se pise velikim slovima zato sto je to skracenica od Compute Unified Device Architecture.
Za sve one koji se nadaju da ce OpenCL ili DXC ugroziti CUDU da im asmo javim da je CUDA tehnoloski toliko odmakla od OpenCL i DXC da ce biti veoma tesko gurati te standarde da bi sustigli CUDA po mogucnostima.

Pod uslovom da odrze dominantan market share... ako ne budu imali kriticnu masu, softver ce se razvijati za ono sto je popularnije.
 
Ako si mislio da nVidia starija kompanija od ATIja, u tom slučaju nisi u pravu. Ako si mislio da nVidia postoji dovoljno dugo da ne bi propala, bojim se da godine pozitivnog poslovanja ne utiču na to.
u pravu je!
 
Bio je i Glide tehnološki napredniji od DirectXa pa je neslavno završio ;)

Glide je bio osakaceni OpenGL, koji se koristio samo za igre i radio samo u 16 bita boja, ne vidim kakve veze ima Glide sa CUDA-om?!?
 
Ja nisam rekao da ih ne vadi marketing i jak brend.;) Sta ne mozemo da shvatimo? :D Price o prasenju bi vazile da nV nema jak brend.;)
Nisam pominjao CUDA-u i istoj recenici sa prosecnim korisnicima. Cemu sprdnja na racun CUDA-e, stvar nije ni izmisljenja za gejmere i onima koji se podsmevaju "mnozenju matrica".
Vazi, ali problem je sto gejmeri misle da su svi korisnici gejmeri, pa situaciju iz gejming segmenta prenose na sve ostale sfere primene racunara.;)

Ja sam matematicar, poslednja stvar kojoj bih se podsmevao jeste mnozenje matrica i slicno ;)
Jedino sto sam ja hteo da ilustrujem jeste nezastupljenost aplikacija koje koriste tu tehnologiju. Jedini izuzetak koji mi pada na pamet jeste video primena, ali cpu jos uvek vodi kad je kvalitet u pitanju!

CUDA i Physix kao sto sam vec rekao su nv tehnologije i kao takve zahtevaju veliki procenat zastupljenosti nv hardvera da bi se developerima isplatilo da prave aplikacije samo za njih. Nv trenutno gubi marketshare sto nikako ne odgovara razvoju CUDA aplikacija za sire mase.

@yooyo
Postoje mnogi primeri kada superiornije tehnologije nisu uspele da zazive! Ne kazem da je to ovde slucaj vec su se takve stvari vec desavale.
 
I Theo je uradio analizu troskova kada je GF100 u pitanju...

nVidia GF100 Fermi silicon cost analysis

I prema njegovom proracunu trenutno dva proizvedena Cypressa kostaju manje nego jedan Fermi, sto znaci da je NVidia u problemu ukoliko ne prebaci yield od ~30-35% sa aktuelnom revizijom.

Kao, kompanija ima sanse da to uradi, jer ipak imaju cip sa najvecim yieldom na 40nm procesu - Tegra 2. Jedino sto je zaboravio da kaze da je to cip sa povrsinom od 49mm2, tj. oko 12 puta manje ;)
 
evo vec 3. komentara od Yooyo-vog koji kaze: "da ne mora uvek bolja tehnologija da pobedi" - mislim da to stvarno ne treba naglasavati, pogotovo ne u svetu gde gotovo svi koriste windows...

ono sto propustate je da danas, nvidia po pitanju GPGPU, ipak najznacajniji igrac. GPGPU je definitivno sledeca velika stvar (pogotovo sad kad nema Larabee-ja), daleko veca od pojave 386 ili PentiumaPro. jeste CUDA nvidia-only ali bi i dalje bilo steta da propadne u korist samo jedne kompanije - ATI-ja ;)
 
evo vec 3. komentara od Yooyo-vog koji kaze: "da ne mora uvek bolja tehnologija da pobedi" - mislim da to stvarno ne treba naglasavati, pogotovo ne u svetu gde gotovo svi koriste windows...

ono sto propustate je da danas, nvidia po pitanju GPGPU, ipak najznacajniji igrac. GPGPU je definitivno sledeca velika stvar (pogotovo sad kad nema Larabee-ja), daleko veca od pojave 386 ili PentiumaPro. jeste CUDA nvidia-only ali bi i dalje bilo steta da propadne u korist samo jedne kompanije - ATI-ja ;)

Sve se slazem, ali bi isto tako bilo lose da ATI propadne u korist NV-a:p
 
NVIDIA u problemima.

Ja bih samo da neko propadne pa da mogu ko čovek da uživam u svojim karticama.
 
evo vec 3. komentara od Yooyo-vog koji kaze: "da ne mora uvek bolja tehnologija da pobedi" - mislim da to stvarno ne treba naglasavati, pogotovo ne u svetu gde gotovo svi koriste windows...

ono sto propustate je da danas, nvidia po pitanju GPGPU, ipak najznacajniji igrac. GPGPU je definitivno sledeca velika stvar (pogotovo sad kad nema Larabee-ja), daleko veca od pojave 386 ili PentiumaPro. jeste CUDA nvidia-only ali bi i dalje bilo steta da propadne u korist samo jedne kompanije - ATI-ja ;)

Neće CUDA propasti zbog ATIja već zbog MSa. Nemoj sad da izvrćeš priču i naturaš nam kako mi želimo da CUDA propadne zbog ATIja. To nije želja, to je gotovo sigurna budućnost. Svako ko veruje da nVidia može protiv bilo koje MS tehnologije na Windows tržištu (tržište PC igara je de facto Windows tržište) živi među oblacima. Pre će se ostvariti ono što smo videli u Avataru nego što će bilo ko uspeti da progura neku tehnologiju kao standard na Windowsu bez MSovog blagoslova.

Glide je bio osakaceni OpenGL, koji se koristio samo za igre i radio samo u 16 bita boja, ne vidim kakve veze ima Glide sa CUDA-om?!?

Ali je i takav kakav je bio daleko napredniji od onoga što je Direct3D predstavljao u to vreme. Ima veze jer to pokazuje da je nebitno koliko ste daleko odmakli ako vam je jedan od takmaca Microsoft.

Može CUDA da bude svetlosnim godinama ispred svega ostalog, može ceo svet da prihvati OpenCL kao standard ali na Windowsu će se koristiti DirectCompute u 95% igara onda kada MS odluči da mu to treba i omasovi tu tehnologiju. Do tada ćemo godišnje igrati jednu do dve igre sponzorisane od strane nVidije.


Ko je u pravu? Nemoj samo da nam kažeš kako ATI nije pravio grafičke pre spajanja sa AMDom i kako je taj trenutak zapravo početak svih ATIjevih uspeha. Mada ko zna, možda ja nemam prave informacije, možda je ATI od 1985 pa do sredine 90tih u stvari gajio krompir pa je zato nVidia starija kompanija.
 
Ali je i takav kakav je bio daleko napredniji od onoga što je Direct3D predstavljao u to vreme.

procitaj kako je nastao DirectX. (ukratko: kako je M$ ispalio OpenGL... sličan scenario kao i u slučaju OS/2)

sve sto si rekao stoji ("...što će bilo ko uspeti da progura neku tehnologiju kao standard na Windowsu bez MSovog blagoslova.") - zato i ne koristim trecerazredni sistem ;)

nego nazad na temu: nvidia trenutno nudi naprednije tehnologije nego ATI (software+hardware) i da mogu da biram (Mac, pa ne mogu ;)), čak bih kupio i skuplju/lošiju nvidiju nego ATI samo zbog toga - da finansiram kompaniju koja ima naprednija resenja (znam da ovim nista necu postici ali... :)) (ne meri se sve u gtexelima)

Ko je u pravu? Nemoj samo da nam kažeš kako ATI nije pravio grafičke pre spajanja sa AMDom i kako je taj trenutak zapravo početak svih ATIjevih uspeha. Mada ko zna, možda ja nemam prave informacije, možda je ATI od 1985 pa do sredine 90tih u stvari gajio krompir pa je zato nVidia starija kompanija.

neko mi je baš nedavno skrenuo pažnju na to da je Apple izvukao ATI u vreme GeForce-a. ne sećam se detalja priče ali ATI je tada exluzivno pravio GPU za sve Mac-ove i navodno da nije bilo tog posla otišao bi pod led sa svojim Rage GPU... (da ne spominjem ponovo boost tj. blagoslov koji je ATI dobio sa 9xxx karticama od Microsofta ;))

EDIT: @palamudin - respect ;)
 
Poslednja izmena:
I Theo je uradio analizu troskova kada je GF100 u pitanju...

nVidia GF100 Fermi silicon cost analysis

I prema njegovom proracunu trenutno dva proizvedena Cypressa kostaju manje nego jedan Fermi, sto znaci da je NVidia u problemu ukoliko ne prebaci yield od ~30-35% sa aktuelnom revizijom.

Kao, kompanija ima sanse da to uradi, jer ipak imaju cip sa najvecim yieldom na 40nm procesu - Tegra 2. Jedino sto je zaboravio da kaze da je to cip sa povrsinom od 49mm2, tj. oko 12 puta manje ;)

Postoji jedna veca greska u clanku, a to je cena ATI-jevog cipa, trebala bi da bude oko 50$
 
@Garson Ajd sad posteno, hoces li barem da kupis taj gtx380/60, za preko 400eura ?
Jok, ne igram igre.;)
Ja sam matematicar, poslednja stvar kojoj bih se podsmevao jeste mnozenje matrica i slicno ;)
Jedino sto sam ja hteo da ilustrujem jeste nezastupljenost aplikacija koje koriste tu tehnologiju. Jedini izuzetak koji mi pada na pamet jeste video primena, ali cpu jos uvek vodi kad je kvalitet u pitanju!
A OpenCL i DirectX compute su zastupljene vise?:D
 
Postoji jedna veca greska u clanku, a to je cena ATI-jevog cipa, trebala bi da bude oko 50$

Pa cena zavisi od yielda... ako je na nivou od 50%, Cypress cip bi trebalo da kosta nesto preko 60 dolara.

Ovo predstavlja ogroman problem za NVidiju, jer ako je tacan podatak koji su dali za velicinu cipa i da ih na jedan wafer staje 94, sve i da su apsolutno svi ispravni (yield=100%), kostace samo 10ak dolara manje od Cypressa na sadasnjem nivou. Mislim da nije tesko proceniti koliko je toliki prinos realan za ovoliki cip ;) (bilo koji cip, kada smo vec kod toga).

Mislim da nema nikoga na svetu ko ocekuje da GF100 bude dva puta brzi od Cypressa u gejmingu, koga AMD verovatno vec sada moze da prodaje sa profitom po ceni koja NVidiji/partnerima taman pokriva troskove proizvodnje. U takvoj situaciji sva tehnoloska nadmoc vise nema nikakve veze. Prakticno, Game Over... Fermi bi na desktop trzistu bio proizvod za fanboy-eve, overklokere koji jure rekorde i slicno.

Kao sto rekoh pre par dana kada sam prvi put pisao o ovome... neko ovo ne shvata, neko nece da shvati, nekoga i nije briga... ali ovo su cinjenice.
 
A OpenCL i DirectX compute su zastupljene vise?:D

Samo manje, nikako vise ali to i jeste poenta koju pokusavam da provucem, gpgpu u ovom trenutku nije znacajan feature za siroke mase!

Uzgred nemoj da mi stavaljas reci u usta i da od mene pravis protivnika CUDA, OpenCL-a ili bilo koje druge GPGPU tehnologije! Ovo radis vec drugi put veceras, ako imas argumente reci ako ne molim lepo.
 
DXC je Vista/Win7 only sto u startu znaci da treba istresti pare za OS.
OpenCL i CUDA rade na svim Windowsima, OS-X i Linuxu. AKo neko hoce da pravi cluster za krckanje brojeva ili neku render farmu, logicno je da ce se opredeliti za Linux jer manje kosta. Dakle DXC otpada i njegova buducnost je samo u igrama.
OpenCL ili CUDA.. ma koliko OpenCL izgledao lepo, problem je sa driverima. Naravno pogodite ciji driveri ne rade dobro...
CUDA podrzava razmenu i deljenje objekata izmedju OpenGL odnosno D3D-a. OpenCL takodje podrzava ali i dalje nije funkcionalan. Mislim da je jedino Apple OpenCL implementacija rock stable, dok ostali imaju bubice.
 
Samo manje, nikako vise ali to i jeste poenta koju pokusavam da provucem, gpgpu u ovom trenutku nije znacajan feature za siroke mase!

Uzgred nemoj da mi stavaljas reci u usta i da od mene pravis protivnika CUDA, OpenCL-a ili bilo koje druge GPGPU tehnologije! Ovo radis vec drugi put veceras, ako imas argumente reci ako ne molim lepo.
Pa sta ako nije znacajan za siroke mase? Koja je tvoja poenta, da ga ne treba gurati jer nije znacajan za siroke mase?

Ko ti stavlja reci u usta?:D Pa ti si prvi pomenuo CUDA-u u fazonu "sigurno necu da mnozim matrice celu noc".:d
 
Imam GTS250, pre nje 4850, greju se slicno, nema osetnije razlike.:)
Hladjenje na GTX260/280/285 je odlicno reseno, nisam cuo da ljudi imaju problema sa zagrevanjem. Maravno da disipiraju vise toplote, veci su cipovi od ATIjevih.

Ovde si potvrdio ono sto sam ja rekao, a uzmi pa ih izmeri na vagi. :)

Mislim da svako napajanje jace od 500W izaslo u zadnje 2 godine ima 2x8pin.
Minimum nije u snazi vec kvalitetu. Uostalom, uz graficke stizu molex to 8pin adapteri, zaista ne vidim u cemu je problem. Ako Fermi bude imao 1x6pin i 1x8pin kao sto se prica, koliko znam nece biti prva karta koja ima tu kombinaciju.;)

Sto bi rekla jedna moja nekadasnja profesorka "Nista ti nisi mislila, ceri moja!" jednoj drugarici :D
'Ajde slobodno nadji pa mi posalji na privatne poruke, sva koja nadjes od 500W+(znaci 550W, 600W, 650W) da imaju 2x8 pin, bas me zanima koliko ces napajanja da nadjes od 500W+ sa 2x8pin? Fermi na onoj slici ima modovane kablove za struju, a pricalo se naravno nista nije sigurno niti pouzdano kod Fermija samo se "prica" da mu treba 1x10 pin plus 1x8 pin.

Zato sto podrzavaju CUDA i Physix? :d


Ovde je tvoj smajli rekao sve! :)
 
Poslednja izmena:
Ovde si potvrdio ono sto sam ja rekao, a uzmi pa ih izmeri na vagi. :)
Sta sam potvrdio? GTX260/280 karte imaju dual slot kulera kao i ATI karte.


Sto bi rekla jedna moja nekadasnja profesorka "Nista ti nisi mislila, ceri moja!" jednoj drugarici :D
'Ajde slobodno nadji pa mi posalji na privatne poruke, sva koja nadjes od 500W+(znaci 550W, 600W, 650W) da imaju 2x8 pin, bas me zanima koliko ces napajanja da nadjes od 500W+ sa 2x8pin? Fermi na onoj slici ima modovane kablove za struju, a pricalo se naravno nista nije sigurno niti pouzdano kod Fermija samo se "prica" da mu treba 1x10 pin plus 1x8 pin.
Evo prvo sto mi pada na pamet:
Seasonic X-650 - 4x8pin :)
Enermax Eco80+ 620W - 2x8pin
Enermax Liberty Eco 620W - 2x8pin
Coolermaster Silent Pro M600 - 2x8pin
Corsair TX650 - 2x8pin
Zalman ZM600-HP 600W - 2x8pin
Corsair HX650 - 4x8pin
Corsair HX520/620 - 4x8pin
Corsair HX450 - 2x8pin

Dakle, ovo se samo neka dobra napajanja slabija od 650W koja imaju bar 2 8pin konektora.Cak i omaleni HX450 ima 2 komada.
Ovde je tvoj smajli rekao sve! :)
Na glupo pitanje sledi smajli.;)
 
Sto se tice CUDE, GPGPU bi trebao da bude otvoren standard podrzan od strane oba proizvodjaca, i mislim da cemo u buducnosti imati slicnu stvar kao sa 3d, opencl i DirectCompute.
 
Pa sta ako nije znacajan za siroke mase? Koja je tvoja poenta, da ga ne treba gurati jer nije znacajan za siroke mase?

Ko ti stavlja reci u usta?:D Pa ti si prvi pomenuo CUDA-u u fazonu "sigurno necu da mnozim matrice celu noc".:d

Po treci put mi izokreces reci. Odustajem, ti ili ne mozes ili ne zelis da shvatis poentu mojih postova!
 
Status
Zatvorena za pisanje odgovora.
Vrh Dno