Šta je novo?

AMD Radeon Rx serija

Pogledao sam klip i ne vidim nista sporno u njemu kao sto sam vec rekao. Nisu samo njemu onemogucili da vidi cip/kartu vec svim novinarima. Ne bih rekao da je "uvredjen" ili bilo sta slicno. Da ostaje "X" otvorenih pitanja to nema sumnje. 24.jun je dan pa cemo videti, medjutim cak i pre tog datuma jasno je da AMD ide jednim novim putem koji je usvojen pre 2-3 godine, a to je da rebrendira stare karte pod novim imenom prilikom lansiranja najnovije serije. Videcemo da li to dobro prolazi kod kupaca. Na kraju krajeva trzisni uspeh je za njih jedino bitan, a ne nacin na koji su do njega dosli. Ako kupcima to odgovara kupovace karte. Sve ce biti mnogo jasnije za nedelju dana, a pravi rezultati ce se videti tek za 1-2 godine.

ako ne vidis nista sporno u onom klipu onda ne vredi raspravljati ;) lik je ***** teske vrste .... kao sto pixell rece ... Kurir kad pokrene IT rubriku ... taman tamo da se zaposli ....
 
...medjutim cak i pre tog datuma jasno je da AMD ide jednim novim putem koji je usvojen pre 2-3 godine, a to je da rebrendira stare karte pod novim imenom prilikom lansiranja najnovije serije...

Zasto mislis da je to jasno? Meni je na primer prilicno logicno da je sve ovo posledica toga da uopste nece biti prelaska na 20nm proces (sto se nije moglo znati pre 3 godine kada su planovi pravljeni, odnosno nisu ni mogli pretpostaviti da ce TSMC naici na takve probleme). Imajuci to u vidu, kao i to da imaju mnogo manji R&D budzet, u nekom trenutku je doneta odluka da je mnogo isplativije nastaviti proizvodnju postojecih nego uloziti milione da bi dobili prakticno isto to, samo malo drugacije (i vece).

Pretpostavljam da je vrlo moguce da je i NV to uradila - posto se ostajalo u istom proizvodnom procesu, odustali su od GPGPU performansi za GM200 i pravili gejming cip, pa je ova generacija "preskocena" kada su Tesla i Quadro karte u pitanju.
 
Cek, cek. Dakle razlog zasto nisu ulozili "milione" u razvoj je nemogucnost TSMC da ponudi bolji proizvodni proces. Valjda je bas suprotno to trebalo da bude okidac da se pokusa smanjiti potrosnja kroz redizajn gpu. To je uradila Nvidija. Zasto onda to i Ati nije uradio. Cak vidimo da Nvidija prica o daljem smanjenju potrosnje sa Pascalom. Mene cudi da su jedni eto odlucili da idu jednim putem, a drugi drugim iako obe kompanije imaju istog dobavljaca.
 
Poslednja izmena:
Mislis da bi Nvidia uspjela smanjiti potrosnju da su ugurali Dp segment u Gm200 ovako okrenuli su se cisto Gaming chipu da bi i sa takvim chipom dokacili ogranicenje 28nm i chip od 600mm2 i sa takvim cistokrvnim gaming chipom opet ce tek biti u nivou Fiji XT chipa ili nesto i sporiji to toliko koliko su uspjesni da nisu skresali DP sad bi udarili bi u zid sto se tice povrsine ili velike potrosnje sto bi automatski znacilo znatno manje gaming performanse u odnosu na sadasnje koje pokazuje Gm 200.
Nvidia nije nista revulucionarno napravila sa maxwelom to i ptice na grani znaju!

Samo mi nije jasno sto trpate R9 temu demagogijom o uspjesnoti Nvidi-e
 
Tako nekako. I AMD je zbog toga odlučio da skreše DP na Tonga čipu, i implementira neka poboljšanja. Tako je sad u nekim (uglavnom novijim) igrama 380 brži od 280X, sa primetno manjim TDP-om. Nije Tonga efikasna kao Maxwell, ali nije ni mnogo lošija
 
R&D jeste manji nego nVidia-in ali ako mislite da moze sa prodje sa malim budzetom za razvoj chipa od 9 milijardi tranzistora onda gresite.
Razlika je sto AMD flagship GPU nece skalirati (barem ne za sada) na manje GPU-ove. Zbog cega je to tako, ne znam, moguce zbog prirode implementacije HBM memorije, interposera itd.. A ukoliko sama arhitektura nije znacajno drugacija od prethodnih GCN chipova, onda bi verovatno dobili slicno sto vec imaju, kao sto rece Dusan K.
 
Jel moze neko da mi objasni u vezi rezolucija textura u igrama? Ukoliko igra ne poseduje teksture rezolucije 12k, kakvi su efekti na kvalitet tih tekstura kada se igra pokrene na 12k monitoru? Cisto sumnjam da vecinu igara ima texture vece od 4k u svojim fajlovima.

ne radi to tako :) ovo je 3 monitora 4K rezolucije, tj veci ti je "prozor u svet" da je jedan monitor 12K pa da razumem to sa teksturama ali ovo je samo veci FOV tj 3x4K rezolucija, npr vertikalna rezolucija je ista .... horizontalna je 3x veca
 
Jel moze neko da mi objasni u vezi rezolucija textura u igrama? Ukoliko igra ne poseduje teksture rezolucije 12k, kakvi su efekti na kvalitet tih tekstura kada se igra pokrene na 12k monitoru? Cisto sumnjam da vecinu igara ima texture vece od 4k u svojim fajlovima.

Nemoj da dovodiš u vezu veličinu teksture i rezoluciju prikazivanja.

Teorijski bi i sa veoma malim teksturama mogao veoma detaljno da predstaviš scenu. Dakle mogao bi za svaki poligon posebno da praviš teksturu. Pošto su poligoni mali tekstura bi mogla da bude daleko manja od 4K koliko današnji hardver nativno podržava.

Danas se koristi teselacija gde se objekti dodatno obogate poligonima pa su potrebe za velikim detaljnim teksturama smanjene.

P.S. Naravno ovo što smarac reče je tačno, nije u pitanju 12K rezolucija već 3x4K. Odnosno reč je o 4K rezoluciji koju posmatraš većim prozorom.
 
Poslednja izmena:
Zasto mislis da je to jasno? Meni je na primer prilicno logicno da je sve ovo posledica toga da uopste nece biti prelaska na 20nm proces (sto se nije moglo znati pre 3 godine kada su planovi pravljeni, odnosno nisu ni mogli pretpostaviti da ce TSMC naici na takve probleme). Imajuci to u vidu, kao i to da imaju mnogo manji R&D budzet, u nekom trenutku je doneta odluka da je mnogo isplativije nastaviti proizvodnju postojecih nego uloziti milione da bi dobili prakticno isto to, samo malo drugacije (i vece).

Slazem se da je mozda bilo najlakse doneti odluku i odraditi rebrend ali je isto tako postojala mogucnost uloziti u razvoj i redizajnirati arhitekturu u postojecem procesu.
Uostalom ako je Furija indikator da su nesto uradili po tom pitanju trebali su onda da podele cip na manje i slabije i popune seriju.
Predpostavljam da im je bilo lakse da prelepe etiketu i da nakucaju dodatnih 8GB koji su trenutno bespotrebni. Ovde se slazem sa Goranom.


Pretpostavljam da je vrlo moguce da je i NV to uradila - posto se ostajalo u istom proizvodnom procesu, odustali su od GPGPU performansi za GM200 i pravili gejming cip, pa je ova generacija "preskocena" kada su Tesla i Quadro karte u pitanju.

Dusane, izgleda da si malo prespavao :)

NVIDIA Quadro M6000 nije Maksvel a nije ni Quadro?
 
Poslednja izmena:
Cek, cek. Dakle razlog zasto nisu ulozili "milione" u razvoj je nemogucnost TSMC da ponudi bolji proizvodni proces. Valjda je bas suprotno to trebalo da bude okidac da se pokusa smanjiti potrosnja kroz redizajn gpu. To je uradila Nvidija. Zasto onda to i Ati nije uradio. Cak vidimo da Nvidija prica o daljem smanjenju potrosnje sa Pascalom. Mene cudi da su jedni eto odlucili da idu jednim putem, a drugi drugim iako obe kompanije imaju istog dobavljaca.

Stotine miliona. R&D kosta stotine miliona, pogotovo velikih cipova. AMD je racunao na 20nm process, cime bi resili problem potrosnje, i kada nije bilo nista od toga, verovatno nisu imali love za R&D cele nove serije i ubacili gomilu rebrandova + fiji varijante.

Maxwell je bio dizajniran za manji nm process, ali su uspeli nekako da ga naprave i za 28nm. Normalno da ce biti daljeg smanjenja potrosnje sa pascalom, samo smanjenjem proizvodnog procesa dobijaju i do 70% manju potrosnju. Sta mislis sto se AMD-ova serija kartica u 14/16nm zove Arctic Islands, za razliku od trenutnih Volcanic islandsa.
 
To i jeste problem sto se AMD oslanja na manje procese a ne ulaze u razvoj novije i naprednije arhitekture.
Zato Gorana mogu da razumem donekle. Paskal je "poznat" po svojoj efikasnosti, nm proces je tu da bi takva arhitektura mogla da se razvije u svom potencijalu. Imas primer efikasnosti Maksvela u istom procesu.
Dve GTX980 u SLI trose manje nego jedna R9290X sta ti to govori?
Sam si rekao da Maksvel nije planiran za 28nm. Izbacili su energetski veoma efikasne karte u 28nm koje su trebale da budu u vec pomenutom 20nm i samim tim da pokazu jos bolje mogucnosti.

Meni nikako nije jasno zasto od Furije nisu napravili manje Furije? :)
Ne verujem da bi dosli na isto, bile bi to sigurno bolje karte sa boljim odnosom performansi i potrosnje. Sta je sa tom Tongom? Ima li ona potencijala da se prosiri ili je to sto je?
 
Dusane, izgleda da si malo prespavao :)

NVIDIA Quadro M6000 nije Maksvel a nije ni Quadro?
Cela jedna profi karta na novoj arhitekturi, i to ni manje, ni više nego ona od 5000$ :D
Pri tom su popularnije Quadro karte, K2200-K5200, koje su izašle u periodu kada i 970/980, ostale na Kepleru. S druge strane, W7100-W9100 su Tonga/Hawaii čipovi, tj. poslednje što AMD ima.

A za**** ti "novu" arhitekturu ako imaš 4 normalne karte na njoj (750Ti-980). Od kojih su 3 osakaćene na ovaj ili onaj način.

AMD-u fali samo full Tonga ili 1/2 Fiji-a u srednjoj kategoriji, sve ostalo je na mestu. Nadao sam se da ćemo videti uskoro takvu kartu, posebno što bi trebalo da je to M295X samo sa malo većim klokom. Ko zna u čemu je problem

Manja furija je nano, i po svemu sudeći će pregaziti GTX 980, sa TDP-om od 175W, i naravno po istoj ili nižoj ceni :D
 
Poslednja izmena:
vec smo pomenuli vise puta glavni razlog zasto je Maxwell bolji po pitanju potrosnje ali ... izgleda dzabe govoriti ...*** da je AMD to uradio na sva usta bi ga pljuvali da je jadan i da se koristi jeftinim trikovima ... nekima nikad nemozes ugoditi.

A AMD kad ga vec pominjes ima najveci cip sa najvise sejdera .... gde ces bolju tehnologiju, da je Nvidia napravila cip sa DP FP mogucnostima istopio bi se PCB u najmanju ruku.... zadnji DP FP cip Nvidie je bio GTX 580 i valjda se secamo svi kako je on radio :) kao kvarcna grejalica :) otprilike tolika i potrosnja ;)
 
Poslednja izmena:
@Dark_Messiah
Meni kažeš?
Ja se trudim da budem objektivan, posebno što sam koristio i dalje koristim nVidia karte. Trenutno jedan Quadro :D I pri kupovini razmišljam naravno i o jednima i o drugima, jer hoću da dobijem najbolje za svoj novac. Svaka karta ima svoje prednosti i mane, i bezveze je reći da je samo nVidia ili samo AMD dobar izbor. Odnosno, bez veze je reći da je karta dobra ili loša samo zato što je u pitanju "nova" ili "stara" arhitektura.
 
@Dark_Messiah
Meni kažeš?
Ja se trudim da budem objektivan, posebno što sam koristio i dalje koristim nVidia karte. Trenutno jedan Quadro :D I pri kupovini razmišljam naravno i o jednima i o drugima, jer hoću da dobijem najbolje za svoj novac. Svaka karta ima svoje prednosti i mane, i bezveze je reći da je samo nVidia ili samo AMD dobar izbor. Odnosno, bez veze je reći da je karta dobra ili loša samo zato što je u pitanju "nova" ili "stara" arhitektura.

Ne znam zasto meni to pricas, nista od toga nisam pomenuo a niti gledam ko sta ima.

Citiracu ono sto zaista ne prilici jednoj ozbiljnijoj raspravi.

Cela jedna profi karta na novoj arhitekturi, i to ni manje, ni više nego ona od 5000$

A koliko treba da bude na GM200? I od prethodnog cipa je bila samo jedna karta K6000.

Poenta je bila da su oni izbacili kartu i da je ta karta u opticaju u prodaji. Neces je ti sigurno kupiti ali zato velike kompanije hoce i tu je najveca zarada.

A za**** ti "novu" arhitekturu ako imaš 4 normalne karte na njoj (750Ti-980).

Ovakav komentar nije na mestu, neozbiljan je zaista. Uostalom koliko bi ti hteo u ovom trenutku?

Deveta serija je skoro godinu dana na trzistu. Da li shvatas koliko je Envidija kao kompanija do sad zaradila?

Umesto sto se prepucavate trebali bi malo da razmotrite poslovni plan koji AMD ima a koji je po svemu sudeci veoma los.
Dok jedna kompanija pravi ogroman profit druga tone sve vise.

Reci mi posto kazes da se trudis da budes objektivan, koliko ce im ove rebrend karte doneti zaradu? Stalno govorite o tom R&D ali ako nema zarade nema ni ulaganja.
Ne moze starom taktikom da se privuku kupci. Da li sad razumes citavu poentu?

Ljudi traze nesto novo, nesto divlje :D
 
Mislio sam na celu "novu" Maxwell arhitekturu, ne samo na GM200 čip. Još par nižih karata je takođe Maxwell, ali većina njih iz nove serije - x200 za desktop i x100M za laptop je ostala na Kepleru. Napravili su takoreći "rebrand" :) I to je bilo prošle godine, kada je Maxwell već stizao na desktop. Očigledno je da ljudima ne smeta što daju 1000-2000$ na staru ahritekturu.

Tamo gde je nVidia imala 5 Maxwell karti (750-980), AMD je imao 10 komada u 200 seriji (260-290X). Sad su videli da ljudi ne žele izbor, pa su i oni ponudili 5 karata (360-390X). Eventualno 6, ako računamo i Fury nano.

Očigledno je da su se fokusirali na Fury i HBM, tako da je sve ostalo u drugom planu. Kažem, fali im samo 380X, jer sve ostalo je na mestu.
 
Koliko samo neobjektivnosti u svega nekoliko postova na ovom forumu. Cudo jedno.
 
Cek, cek. Dakle razlog zasto nisu ulozili "milione" u razvoj je nemogucnost TSMC da ponudi bolji proizvodni proces. Valjda je bas suprotno to trebalo da bude okidac da se pokusa smanjiti potrosnja kroz redizajn gpu. To je uradila Nvidija. Zasto onda to i Ati nije uradio. Cak vidimo da Nvidija prica o daljem smanjenju potrosnje sa Pascalom. Mene cudi da su jedni eto odlucili da idu jednim putem, a drugi drugim iako obe kompanije imaju istog dobavljaca.

Pa cesto su isli razlicitim putevima, zato i jesu razlicite kompanije. NVidia je tradicionalno sporije prelazila na nove procese proizvodnje, ATI/AMD je bio agresivniji i cesto na taj nacin sticao kompetitivnu prednost.

Mozemo da razglabamo do sutra da li je ovo pametno ili ne, situacija je takva da su vodje projekata u okviru AMD-a pre izvesnog vremena seli, razmotrili cinjenice i zakljucili da im je ovo najbolje resenje. Nije prvi put u istoriji da se to desava, i sama NV je to radila (ako se ne varam, GT200 nije imao mainstream predstavnika, vec je taj segment pokrivao G92b).

Dusane, izgleda da si malo prespavao :)

NVIDIA Quadro M6000 nije Maksvel a nije ni Quadro?

Ne pratim kao nekada, cinjenica, ovo nisam ni video da je lansirano, ali ne menja uopste previse poentu - karta je u vecini slucajeva brza od K6000, ali je razlika daleko manja u odnosu na dobitke kada je gejming u pitanju. Jednostavno, arhitektura jeste odlicna, cip je optimizovan, ali je i ovako najveci koji su ikada napravili (vise od 600mm2). Da su implementirali sve za GPGPU kao za Keplera, bio bi verovatno oko 700mm2.
 
oxQaUWJ.jpg


Mislim da za 4k igranje 4gb HBM je "dovoljno"za sada.

Naravno kada vidimo koliko u teoriji moze da se klokuje sve ce biti jasno ... ovako stock objektivno gledano je najbolji GPU za igranje do, a i u 4K. Naravno ljudima alergicnim na crvenu boju ce mozda negodovati na ovu konstataciju :)
 
Poslednja izmena:
Ovi odozgore rezultati su nemoguci..ja sam cit'o ovde davno,pisali neki ljudi, da ce taj fury x biti teska kršina i vuruna vrelija i crvenija od lave vulkana nekog tamo japanskog.... :d
 
Mislim da su zamjenuti rezultati ovo gdje je brze tu treba da je GTX980Ti, a gdje je sporije Furka :d na kraju ce biti greska marketinskog tima hahaha :d :d
 
Pa i ja neverujem ovim rezultatima ... toliko je Benchmark strucnjaka davalo totalno drugacije prognoze rezultata da ovo nema sanse da je tacno .... neko se tu igrao Photoshopom, prosto ...
 
Šalu na stranu..do prvih testova ce se jos malo utegnuti drajveri,sto ce podici razliku za jos nekih 5% ..prica taman takva kao kada je trebao izaci hd6870.
Secam kao da juce bese,sve ovako bilo..do samog izlaska karte,zelini tvrdise da je to corav pos'o i da u toj klasi gtx 460 ostaje neprikosloven(zamalo da ga i kupim)..e necete me vise u zabludu dovesti! :p
 
Nazad
Vrh Dno