Šta je novo?

RV870 codename Evergreen/Cypress

...
Nedostaci su to što je jedan stream procesor sada složenija (sastoji se od 5 ALU) što obično znači da je takt na kome može da radi nešto niži. Takože performanse dosta zavise od toga koliko se program koji se izvršava može paralelizovati na nivou instrukcija kako bi se uposlilo svih 5 jedinica, kao i koliko je dobro napisan kompajler koji generiše kod koji upošljava te jedinice. Zbog toga performanse znaju dosta da variraju u zavisnosti od koda koji se izvršava i gotovo je nemoguće imati 100% iskorišćenje resursa (tj. maksimalne performanse).
To je ključna rečenica.
Iskorišćenje samo 1 ALU u šejderskoj jedinici je malo verovatno, mada takvih situacija ima. U principu teško da će biti koda koji toliko loše upošljava izvršne jedinice (20%) u kontinuitetu, u smislu da treba streljati programerski tim koji bi napravio takav kompajler.

U grafici se u radu sa geometrijom jako često primenjuju te operacije kako bi se transformisale koordinate poligona koji se iscrtavaju. Dakle tu ATI hardver ima veliku prednost, pa zato i ne čudi njihovo uporno insistiranje na teselaciji, jer njihov hardver bez većih problema može da se izbori sa ogromnim brojem poligona.
Apsolutno tačno. Mnogo je lakše optimizovati geometrijski "workload" za maksimalno iskorišćenje ATI arhitekture. To što oni guraju teselaciju tj. geometriju je "em lepo, em korisno" :)
Jer ipak, tendencije razvoja grafike i grafičkih endžina su u sve većem korišćenju velikog proja poligona.

Ljudi često zaboravljaju ključnu stavku - igra je promenila pravila. Naglasak je na GPGPU funkcijama. Trenutno, je lakše izvući veću efikasnost iz GT200 arhitekture i to je bio ceo koncept razvoja. GT300 ide istim stopama, i ako je priča o MIMD konceptu tačna, to će biti GPGPU monstrum. Mada, to bi moglo da znači i da neće biti bogzna koliko brži od GT200 i RV870 u grafičkim "rabotama".
 
~15% razlike, nista spektakularno. Ako pretpostavimo da ce Hamlock biti 5870CF, nVidia bi mogla da ga counter-uje prostim GT200 u 40nm sa visim clockovima :)
GT200 je dizajniran da bude 65nm chip sa DDR3 memorijom. Shrinkom na 55nm nisu mnogo dobili (ubrzanje od cca 50MHz). Pitanje je da li bi prelazak na 40nm proces doneo ikakv boljitak, ako bi uopšte bio izvodljiv. Uz to bi ostali zaglavljeni sa DDR3 memorijom, skupljim PCB-om...
 
Pazi GTX 285 je dobio 180MHz boosta u shaderima u odnosu na GTX 280 :)

Drugo, taj fiktivni GT200 u 40nm bi mogao biti jos manji sa 256-bitnom magistralom i GDDR5 i jos nekim optimizacijama, nesto tipa kao prelazak sa G70 na G71. Nisam ja rekao da bi to morao biti optical shrink :) Ali kazem, ovo je sve razglabanje sta bi bilo kad bi bilo. Naravno da bi bilo lose kad bi doneli samo shrink i nista vise.
Znaci poenta je da CF trenutno ne skalira bas najbolje kod 5870, siguran sam da ce biti boosta u novijim drajverima.
 
Poslednja izmena:
To je ključna rečenica.
Iskorišćenje samo 1 ALU u šejderskoj jedinici je malo verovatno, mada takvih situacija ima. U principu teško da će biti koda koji toliko loše upošljava izvršne jedinice (20%) u kontinuitetu, u smislu da treba streljati programerski tim koji bi napravio takav kompajler.

Zapravo ovo je ključni deo rečenice:
F.L.C.X. je napisao(la):
Takođe performanse dosta zavise od toga koliko se program koji se izvršava može paralelizovati na nivou instrukcija kako bi se uposlilo svih 5 jedinica, kao i koliko je dobro napisan kompajler koji generiše kod koji upošljava te jedinice.

Teorija o tome kako se pišu ti kompajleri je razvijena tokom 90-ih, tako da nije toliki problem napisati kompajler. Veći je problem šta će on dobiti kao ulaz, jer da bi on dobro odradio svoj posao kod koji prevodi mora biti dovoljno dug, a i trebalo bi da ima što je moguće manje zavisnosti između podataka.

Ljudi često zaboravljaju ključnu stavku - igra je promenila pravila. Naglasak je na GPGPU funkcijama. Trenutno, je lakše izvući veću efikasnost iz GT200 arhitekture i to je bio ceo koncept razvoja. GT300 ide istim stopama, i ako je priča o MIMD konceptu tačna, to će biti GPGPU monstrum. Mada, to bi moglo da znači i da neće biti bogzna koliko brži od GT200 i RV870 u grafičkim "rabotama".
To nVidia marketing neprestano trubi o tome, što ne mora da znači da je i zaista tako. Činjenica je da budućnost leži u tako nečemu, ali danas plaćati dodatnu premiju za karticu zato što je bolja kao GPGPU rešenje je čisto bacanje para. ;)
 
Teorija kompajlera je zavrsena kao i teorija operativnih sistema, kad ono medjutim :)

Trubi jer je dodala novu vrednost. Bacanje para je kupovina racunara kad za iste pare mozes da uzmes oko 500 litara piva i da budes mnooogo srecniji nego sa racunarom.

Sto se alu tice moze da bude ni jedna iskoriscenja, zavisi jel ima sta da dodje ili se ceka na nesto
 
Poslednja izmena:
...ali danas plaćati dodatnu premiju za karticu zato što je bolja kao GPGPU rešenje je čisto bacanje para...
Naravno, nisam ja ni rekao da bi zbog toga trebalo kupiti dotičnu karticu.

Mislim, jel to znači da ne treba da pričamo o novim tehnologijama? Hoću reći da je to bila moja poenta.
Na kraju krajeva, te GPGPU mogućnosti (u vrlo bliskoj budućnosti) će računati sve drugo što nije pogodnije računati na procesoru, tj. operacije koje su pogodnije za paralelnu nego za serijsku obradu.
 
Teorija kompajlera je zavrsena kao i teorija operativnih sistema, kad ono medjutim :)
Khm, khm... vidi pod Itanium i pod Larabee. Obe arhitekture zavise od dobrog kompajlera.
Itanijum je, sasvim izvesno, pao kao koncept na ovome.
Za Larabee videćemo...
 
Naravno, nisam ja ni rekao da bi zbog toga trebalo kupiti dotičnu karticu.

Mislim, jel to znači da ne treba da pričamo o novim tehnologijama? Hoću reći da je to bila moja poenta.
Na kraju krajeva, te GPGPU mogućnosti (u vrlo bliskoj budućnosti) će računati sve drugo što nije pogodnije računati na procesoru, tj. operacije koje su pogodnije za paralelnu nego za serijsku obradu.

Nijednog trenutka nisam sputavao raspravu o novim tehnologijama, samo sam prokomentarisao nVidijino okretanje GPGPU na račun grafike i to što sada pokušavaju gamere da ubede kako im je danas GPGPU jednako bitan kao i grafičke performanse.
Oko ostalog se slažemo. ;)

@genuine
Nisam ni mislio da kažem da je razvoj tehnologije kompajlera za VLIW završen, već da su 90-ih postavljeni temelji i da se u tom periodu dosta napredovalo u toj oblasti, te da danas to nije nešto egzotično, niti nemoguće valjano implementirati. ;)
 
Trubi jer je dodala novu vrednost. Bacanje para je kupovina racunara kad za iste pare mozes da uzmes oko 500 litara piva i da budes mnooogo srecniji nego sa racunarom.

A tu novu vrednost prosecan korisnik trenutno moze da upotrebi gde tacno? Nije bitno da li je u pitanju CUDA, OpenCL, DirectCompute ili CAL!

Na kraju krajeva, te GPGPU mogućnosti (u vrlo bliskoj budućnosti) će računati sve drugo što nije pogodnije računati na procesoru, tj. operacije koje su pogodnije za paralelnu nego za serijsku obradu.

Slazem se sa svim, jedino sto je glupo kupiti sada 5870x2 ili GT300 zbog GPGPU-a kada je sve u zacetku! Kad GPGPU stvarno zazivi slicne performanse imace kratice ispod 100e ;)
 
Poslednja izmena:
Cek, ovo je stvarno unikatan forum. Ovakvu gomilu nonsensa tesko gde moze vise covek da nadje u svetu. Dosli ste do zakljucka sto teorijski sto u praksi da 5870 ubija GTX285 ali isto tako ste dosli do zakljucka da novi ATI nista ne valja iako je brzi u svemu od najbrze NV single kartice, manje se greje, manje trosi, kosta onoliko koliko takva kartica treba da kosta....nije mi jasno zbog cega bi jos neko kupovao djubre GTX285 kada ima novu 5870...
 
Dosli ste do zakljucka sto teorijski sto u praksi da 5870 ubija GTX285 ali isto tako ste dosli do zakljucka da novi ATI nista ne valja iako je brzi u svemu od najbrze NV single kartice, manje se greje, manje trosi, kosta onoliko koliko takva kartica treba da kosta....nije mi jasno zbog cega bi jos neko kupovao djubre GTX285 kada ima novu 5870...
Otkud ti da se manje greje i manje trosi?:)
 
prosto, zato što se manje greje i manje troši. Recimo, imaš 10 dokaza za to i da nemaš čime da izmeriš. Počev od konektora, koji su kod ati-ja 2x6pin, do osećaja pod rukom... :) gtx285 nema šta da traži pored HD5870. Ali, ko to poredi? Čekamo GT300 - odgovor NVIDIE u toj klasi. Džaba ako bude koštao 650 dolara, pa nek je i 30% brži. Poenta će biti da bude brži model koji košta 350 evra.
 
Poslednja izmena:
Nikada nisam preterano verovao Anandtech-u ali reko' ajde da postavim. :)

20130.png


20132.png
 
Poslednja izmena:
hmm kod ananda je full load temperatura 88 celzijusa,a na guru3d je 77... na anandu karta trosi u full load-u 401w,a guru 3d pokazuje 358w dok guru 3d koristi core i7 klokovan na 3.75ghz...
Cudne li razlike..
 
Cudne li razlike..
Jes da je merenje potrošnje pipava stvar, ali majku mu ... mnogo velika razlika u ova dva testa. Možda je do mernog instrumenta (ne piše koji su korišćeni)?

Mada, najverovatnije je do matične ploče, mnogi bi se iznenadili koliko su velike razlike u potrošnji na različitim modelima/proizvođačima.

Guru3D: ASUS X58 ROG edition Rampage II Extreme
Anand : Intel DX58SO
Tech Report: Gigabyte EX58-UD5 - load 290W

E aj sad ako je nekom nešto jasno? :wall:
 
Sve zavisi kako je ko testirao. Nisu svi koristili iste programe da opterete grafičku. Većina tih koji dobijaju da 5870 manje troši od GTX285 su koristili FurMark.

Anand je u svom tekstu lepo objasnio zašto više nema smisla koristiti taj program za bilo kakvo poređenje karti. Ukratko, nVidia u driverima detektuje taj program i onda obara taktove. Sa druge strane AMD je u 5870 ugradio detekciju preopterećenja naponske jedinice i onda pre nego što do njega dođe obara takt i napon GPU-a kako bi je zaštitio (da se ne bi ponovila priča kao sa 4870 i OCCT). Tako da upoređivanje potrošnje u tim uslovima ne daje realnu sliku o tome koliko koja kartica troši, niti kolika joj je temperatura pod "maksimalnim opterećenjem".

Oni koji su merili potrošnju u 3DMarku su dobili da su GTX285 i 5870 tu negde po potrošnji.
 
Nikada nisam preterano verovao Anandtech-u ali reko' ajde da postavim. :)

20130.png


20132.png

Aha, i sasvim slucajno si stavio slikue gde se koristi OCCT koji je 100% nerealan jel da:trust:
Sta vise, iz grafika se tacno vidi da 4870x2 i 4890 nisu mogle ni da zavrse test koliko je realan, sto je nateralo ATI da ubaci hardversku zastitu a o tome vise ovde:
http://www.anandtech.com/video/showdoc.aspx?i=3643&p=11

A ovakvo je "necenzurisano" stanje na Anandtech-u:
http://www.anandtech.com/video/showdoc.aspx?i=3643&p=26

Uzgred, svako ko je samo pogledao grafikone u igrama ne moze ni da sagleda ralno stanje stvari, ne vredi slika bas uvek hiljadu reci;)
 
Poslednja izmena:
Znamo da je Garson postavio slike koje njemu odgovaraju,a recimo par slika ispod ima potrosnja u Wow-u recimo,drugi sajtovi drugacije kazu itd itd..
 
Au ovde ima svasta da se nesto budzi, hakuje :d a ja nisam bas spretan sa tim a nesto ni ne volim to. Inace vidim na spisku P5Q Dlx al moja nije De luxe no nije ni bitno, u svakom slucaju hvala za info. ;)


Inace u vezi ovih objasnjenja i prica u vezi ATI i nvidia resenja za shadere, ALU jedinice, taktove itd i ranije mi se cinilo ovako povrsno gledano, da inzenjeri iz nvidie imaju nekako, mozda glupo zvuci, ali naprednije ili "bolje" resenje, ali AMD/ATI inzenjeri su izgleda vestiji i brzi u prelasku na sitniji proizvodni proces vec skoro 2 god, za ranije se ne secam. Tako da "crvena baba" :d (tm by mcekovic) veoma uspesno primenjuje svoj koncept.

Sa P5Q mozes da zaboravis na dve grafe, nemas dodatni 16x pci-e.
 
Ja bih prije rekao da je to brutalno neoptimizirano :) Tu tek treba pasti dobar driver.

Slazem se. Medjutim ja ne ocekujem da ce je optimizovati (kao sto ni Gothic 3 nije ni dan danas optimizovan). Tako da jedino brute force (sto rece colt) radi posao. Kome se Risen igra kad se pojavi i hoce da igra u full trenutno ima samo jedan izbor na raspolaganju. :)

Slazem se ovo kako izgleda ocajno ne vredi ni jedne graficke :wave:

Eh sad. Pa necu valjda da igram Crysis po petnaesti put, naravno da cu da igram Risen, jednu od dve potencijalno najbolje igre u ovoj godini. Zasto ce mi nova graficka osim da igram nove igre na njoj. I uopste ne izgleda ocajno.
 
Slazem se. Medjutim ja ne ocekujem da ce je optimizovati (kao sto ni Gothic 3 nije ni dan danas optimizovan). Tako da jedino brute force (sto rece colt) radi posao. Kome se Risen igra kad se pojavi i hoce da igra u full trenutno ima samo jedan izbor na raspolaganju. :)



Eh sad. Pa necu valjda da igram Crysis po petnaesti put, naravno da cu da igram Risen, jednu od dve potencijalno najbolje igre u ovoj godini. Zasto ce mi nova graficka osim da igram nove igre na njoj. I uopste ne izgleda ocajno.

Stos je u tome sto je ovo graficki skoro na nivou G3. Ja bih sacekao jos koji test ove igre, jer ne mogu vjerovati da ovako lose radi? A mozda i drajveri izvuku koji frame vise?

Za ovakvu grafiku se 5870 ne kupuje :)
 
Stos je u tome sto je ovo graficki skoro na nivou G3. Ja bih sacekao jos koji test ove igre, jer ne mogu vjerovati da ovako lose radi? A mozda i drajveri izvuku koji frame vise?

Za ovakvu grafiku se 5870 ne kupuje :)

pa i nije tako lose jer je minimum fps odlican, parkticno da nema oscilacija u fps-u... kazu da su koriscenjem zasebnog jezgra za striming resili seckanje G3-ke sto znaci da ce ovaj naslov sasvim fino raditi...
 
Ljudi, imamo posebnu temu o toj igri :)
 
Aha, i sasvim slucajno si stavio slikue gde se koristi OCCT koji je 100% nerealan jel da:trust:
Sta vise, iz grafika se tacno vidi da 4870x2 i 4890 nisu mogle ni da zavrse test koliko je realan, sto je nateralo ATI da ubaci hardversku zastitu a o tome vise ovde:
http://www.anandtech.com/video/showdoc.aspx?i=3643&p=11

A ovakvo je "necenzurisano" stanje na Anandtech-u:
http://www.anandtech.com/video/showdoc.aspx?i=3643&p=26

Uzgred, svako ko je samo pogledao grafikone u igrama ne moze ni da sagleda ralno stanje stvari, ne vredi slika bas uvek hiljadu reci;)
Iskreno, nisam citao gde je sta korisceno, samo sam gledao slike.;) A i rekoh vec da nesto ne gotivim anandtech testove.
Nego gde je necenzurisano stanje na Anandtechu sto se temperature tice? :)
Znamo da je Garson postavio slike koje njemu odgovaraju,a recimo par slika ispod ima potrosnja u Wow-u recimo,drugi sajtovi drugacije kazu itd itd..
Sta ima meni da odgovara?:trust: Ja nemam GTX285 niti bilo sta izbliza jako pa da tu meni nesto (ne)odgovara.;)
 
Iskreno, nisam citao gde je sta korisceno, samo sam gledao slike.;) A i rekoh vec da nesto ne gotivim anandtech testove.
Nego gde je necenzurisano stanje na Anandtechu sto se temperature tice? :)

Test je skroz ok, zapravo su se stvarno potrudili da ispricaju sta je sve novo i kako to utice na rad kartice.
Sto se tice temperatura u normalnom loadu, obrati se njima, ja nemam nista sa tim :p

Batali slike, ipak si moderator;)
 
Vrh Dno