Šta je novo?

R600, licno i personalno

Status
Zatvorena za pisanje odgovora.
ATI ima extra tim koji predvodi ruskinja Tatarchukova, Ana...mislim da se takoz ove. Zena je sjajan matematicar, koji zna svoje znanje matematike da prenese u HLSL kod.
Simpaticno je da originalni ATI-jevi demoi za Radeon 9700 savrseno rade na GF 8800 karticama :) Pisani su u cistom HLSL-u, striktno "po pe-esu"! Nisam probao R520 demoe, to bi bilo zanimljivo videti da li radi na 8800-kama!

Da, baš kad sam tražio "foru" da pokrenem makar stariju Ruby na 8800 (ima gomila threadova na tu temu), video sam spisak starijih ATI demoa koji rade na 8800 i G7x kartama. Meni su i neki stariji demoi impresivniji od ovih novih NVIDIA demoa (najbolji novi je onaj vezan za simulaciju fluida i onaj DX10 koji još ne možemo ni da skinemo ni da pokrenemo), a na prvom mestu mi je i dalje ToyShop. Siguran sam da će neko da napravi hack da se i ovi novi demoi pokrenu na G80...

edit: šta mislite vi ljudi o tome što R600 ima svega 16 ROP jedinica? Da li uopšte ima toliko i, ako ima, koliki je to nedostatak, s obzirom na širinu memorijske magistrale. Na kraju, ovo može da bude usko grlo u heavy AA i AF situacijama, osim ako nisu izmislili neke nove revolucionarne stvari vezane za AA i AF... Moguće je čak da, pošto je kod US arhitekture, pajplajn manje linearan, da neke od shader jedinica budu programirane tako da budu "zadužene" za AA i AF, ili bar neku fazu ovih "filtera", kako bi ROP jedinice služile za čistu rasterizaciju, odnosno kako bi bile rasterećene...
 
Poslednja izmena:
šta mislite vi ljudi o tome što R600 ima svega 16 ROP jedinica? Da li uopšte ima toliko i, ako ima, koliki je to nedostatak, s obzirom na širinu memorijske magistrale.

16 ROPs na 860MHz = 24 ROPs na 575Mhz :)

ATi-ju (AMD-u) treba oko 860Mhz da sa 16 ROPs dostignu 24 ROPs na 575 MHz kod 8800 GTX
 
Vidis, o tome nisam razmišljao... Ali opet, 512-bitna magistrala je u pitanju...!
 
Ne verujem da mogu da izvuku vise od 750Mhz za tako veliki chip,jedino ako,ponavljam,ne koriste neku slicnu foru kao nVidia sa shader procesorima kod G80.
 
Da li ste svi zaboravili koliko je Ruby demo iteresantniji i impresivniji od toyshopa?? ToySHop je dosadan i samo je interesantan zbog paralax mapinga (a uz to bljutavo izgleda, pa vi pricajte do sutra da nije tako)
Jedva cekam da vidim "nastavak".
 
Da li ste svi zaboravili koliko je Ruby demo iteresantniji i impresivniji od toyshopa?? ToySHop je dosadan i samo je interesantan zbog paralax mapinga (a uz to bljutavo izgleda, pa vi pricajte do sutra da nije tako)
Jedva cekam da vidim "nastavak".

S tehnickog aspekta Ruby je "rad srednjoskolca" u odnosu na Toy Shop! Gomila stvari koje su oni natrpali u ToyShop se izucava na svim CG konvencijama i mnogim univerzitetima koje imaju CG katedre! Bukvalno svaki deo scene je po necemu znacajan i pionirski. Samo laiku Toy Shop moze biti "bljutav"!

Back to topic

Pitanje ROP-ova je interesantno. Ukoliko R600 zaista ima 512bitnu magistralu, a sva je prilika da je ima, i pri tome svu navedenu "shada powa", onda bi 16 ROP-ova zaista moglo da bude malo, pogotovo ukliko se planiraju jake FSAA performanse pri jos kvalitetnijem Aniso filtriranju.
Videcemo, bice zanimljivo videti pravu istinu. Jos samo mesec-dva cekanja ;)
 
A sta bi sa onim ATI ima 64 4-Way SIMD Unified Shaders, a G80 128 Scalar Unified Shaders?
Neki to racunaju 64 * 4 > 128, ali stream procesori u G80 rade na duplo vecem taktu tako da mu dodje slicno.

Moje misljenje je da ce biti gusto i da ce u nekim igrama biti bolji ATI a u nekim NVidia. A sta ce biti kad NVidia uradi G80 u 80nm...
 
pa pazi, ja sam jako daleko od znanja koje neki ovde poseduju (yooyo, Nedja, kovacm itd) ali mogu da prestpostavim vodeci se dosadasnjim iskustvima:

1. Ako engine neke igre bude pisan nogama (a tako ih u danasnje vreme pisu) mozemo da ocekujemo sprckane engine koji ce koristiti jedan korak po shaderu pa ce atijevih 64 shadera raditi 64 x 1 korak, iako mogu 4. cini mi se da je nVidija ovo predvidela pa stavila odma 128 da ih ne mogu zahebati :)

2. Ako programerima plate dovoljno, mozda namerno budu forsirali 4 koraka za ATI-ja pa se nvidija zaglupi sa tim operacijama...

ili neki slican scenario.

neka neko proba da smisleno prevede ovo sto sam napisao :D lol, mislim, smisleno = industriski i zargonski tacno :)
 
Poslednja izmena:
"64 4-Way SIMD Unified Shaders" bi trebalo da bude 2 Scalar i 2 Vect ALU jedinice po Shader Unitu. Sto mu dodje na isti broj Scalarnih jedinica kao G80. E sad, SP-ovi kod G80 rade na 1.3 GHz, usled arhitekture razlicith taktova za Shadere i ROP-ove. Iz navedenog sledi da je za bilo kakvu raspravu o performansama R600 potrebno znati njegove taktove.

@gx-x
Ono sto si ti hteo da napises jeste da ce razlicti programeri poklanjati razlicitu paznju ATI-jevom, odnosno NVIDIA-inom pristupu. Ja licno tipujem da ce zbog trenda portabilnosti i "kros-platformizacije" ATI imati donekle prednost zbog XBOX360 konzole. Realno je ocekivati da ce zbog konzole programeri vise truda ulagati u optimizaciju ATI-jevog pristupa programiranju shadera i exploataciji resursa.
Takodje treba videti koliko ATI-jeva "4-way" filozofija (2xSkalar+2xVect) zaista ima realnih benefita za programere.
 
...sto ce reci da ako pristupe ATI metodi 2x i 2x , nvidija ce losije to raditi ako engine to forsira :S:. Zaista mi nije jasno zasto i jedni i drugi ne urade isto makar taj deo hardwera, programerima je onda lakse i brze da rade posao, i consumeri su zadovoljni... Ovo me dovodi do zelje da neka od ove dve kompanije padne u bankropt i pukne ko lubenica, svejedno koja. Bice nam bolje svima. Ali verovatno gresim...
 
A najbolje ce da bude da i obe padnu u bankropt i puknu ko lubenicu. Tada cemo svi morati da kupujemo Matrox Parhelia kartice i bicemo nagradzeni vrhunskog kvaliteta slike. A kad Matrox poce da builda svoje kartice po megaherzima tek tada cemo vidjeti filmski kvalitet u igrama.
 
Poslednja izmena:
...sto ce reci da ako pristupe ATI metodi 2x i 2x , nvidija ce losije to raditi ako engine to forsira :S:. Zaista mi nije jasno zasto i jedni i drugi ne urade isto makar taj deo hardwera, programerima je onda lakse i brze da rade posao, i consumeri su zadovoljni... Ovo me dovodi do zelje da neka od ove dve kompanije padne u bankropt i pukne ko lubenica, svejedno koja. Bice nam bolje svima. Ali verovatno gresim...

Pa to isto kao kada bi kukao zasto mikroarhitektura AMD-ovih i Intelovih procesora nije ista!
Koga briga sta se nalazi ispod DirectX sloja, ukoliko oba teraju HSLS kod onako kako je standardizovano!
Zasto jedni i drugi ne rade isto hardverski deo? Pa sta mislis koliko bi jedne ili druge kostalo licencirnje tehnologije onog drugog?!
 
Da, baš kad sam tražio "foru" da pokrenem makar stariju Ruby na 8800 (ima gomila threadova na tu temu), video sam spisak starijih ATI demoa koji rade na 8800 i G7x kartama. Meni su i neki stariji demoi impresivniji od ovih novih NVIDIA demoa (najbolji novi je onaj vezan za simulaciju fluida i onaj DX10 koji još ne možemo ni da skinemo ni da pokrenemo), a na prvom mestu mi je i dalje ToyShop. Siguran sam da će neko da napravi hack da se i ovi novi demoi pokrenu na G80...

edit: šta mislite vi ljudi o tome što R600 ima svega 16 ROP jedinica? Da li uopšte ima toliko i, ako ima, koliki je to nedostatak, s obzirom na širinu memorijske magistrale. Na kraju, ovo može da bude usko grlo u heavy AA i AF situacijama, osim ako nisu izmislili neke nove revolucionarne stvari vezane za AA i AF... Moguće je čak da, pošto je kod US arhitekture, pajplajn manje linearan, da neke od shader jedinica budu programirane tako da budu "zadužene" za AA i AF, ili bar neku fazu ovih "filtera", kako bi ROP jedinice služile za čistu rasterizaciju, odnosno kako bi bile rasterećene...

Ja se sve nadam da ih nema samo 16, ako je ipak tako to je malo na kojoj god frekvenciji radila. Vec su naporni sa tih 16 ROP ako je to istina, mada se secam pre par meseci je bilo na nekom sajtu 32 TMU, 32 ROP...Dok ne izadje necemo znati.
I za G80 se pricalo par meseci pre pojavljivanja nece biti US pa ipak jeste...
 
heheh, ovo je istina, Adrienne cim je izasao je licio na highschool atempt naspram jednog 'ToyShop'-a. Prosto neverovatno da se nvidija ne trudi uopste da napravi neki valjan techdemo, ona 'Naluu' ili kako se vec zvala (tech demo za 6800) je bio impresivan kada je izasao, a davno je to bilo. Secam se da mi je vilica ispala kad sam video ToyShop prvi put na x700 koji je isao glatko, zapravo nisam ni znao da je demo, mislio sam da je film majke mi ! Posle mi tek drugar rece da je to real time demo :zgran:

Do duse nVidia je sponzorisala TrackMania Nations, sto je zapravo bolje od demoa...ali opet...

Mislim da je ipak bila avi verzija demoa posto na x700 nikako nisam useo da ga pokrenem ni sa najnovijim directx i drajverima.
 
Ima tu jos nesto.... dok su se shaderi pisali u shader asembleru onda je programer mogao da favorizuje jednu ili drugu platformu. Sada se shaderi pisu u HLSL/GLSL/Cg i shader kompajler ima zadatak da shader code maksimalno prilagodi hardware-u ispod haube. To su svodi uglavnom na premestanje fetch i ALU instrukcija tako da se najbolje iskoristi hw. Takodje, treba imati u vidu i GigaThread tehnologiju koja ima zadatak da detektuje latenciju neke instrukcije pa da izvrsavanje prebaci na neko drugo mesto. U stvari, sta god da se napise, GigaThread ce to da sredi. Verujem da ce vremenom isplivati neki worst-case code koji ce i GigiThread da zbuni, ali i da ce se to lako izbeci.
 
A sta bi sa onim ATI ima 64 4-Way SIMD Unified Shaders, a G80 128 Scalar Unified Shaders?
Neki to racunaju 64 * 4 > 128, ali stream procesori u G80 rade na duplo vecem taktu tako da mu dodje slicno.

Moje misljenje je da ce biti gusto i da ce u nekim igrama biti bolji ATI a u nekim NVidia. A sta ce biti kad NVidia uradi G80 u 80nm...
Pa baš kako si rekao. G80 praktično ima 128 ALU jedinica sposobnih da rade isključivo skalarne operacije, uz prevođenje vektorskih u skalarne, jer je tako bilo efikasnije (sa aspekta tranzistor counta i target speed-a)
nego da prave posebno vektorske ALU jedinice (koje su kompleksnije). ATI je ranije kreirao sistem USA arhitekture sa Xenosom i bez obzira što sada pričaju da se radi o drugoj genearaciji, R600 je baziran na Xenos arhitekturi, bez velike "L3" memorije i sa više ALU jedinica... Lično mislim da je bolji pristup više jednostavnih jedinica na visokom taktu, nego manje "specifičnih" na nižem kloku, mada kapiram da će R600 imati bolji yield kad krene da se štancuje, zbog nižih target klokova... Sa druge strane, PCB je kompleksniji zbog 512-bit magistrale, a ima i gigabajt memorije, pa NVIDIA kada Radeon X2 izađe može lagano da spusti cene 8800gtx-a na 450 dolara, a gts-a na 390, i da predstavi za 550 dolara recimo 8850 gtx ili 8800 Ultru :D
 
aj sredi chronicles of riddick da ne secka sa soft shadows ukljucenim :S: Igra matora hiljadu godina secka na najnovijem hardweru ako se stavi PS na max sa soft shadows... Ne moze me niko ubediti da je to zato sto je hardwer slab, to je cist primer pisanja koda nogom i razmisljanja dupetom pri procesu. Kako su to uspeli da urade uopste ? :zgran: ? Na svu srecu pa nisu sve igre tako pisane...
 
Poslednja izmena:
S tehnickog aspekta Ruby je "rad srednjoskolca" u odnosu na Toy Shop! Gomila stvari koje su oni natrpali u ToyShop se izucava na svim CG konvencijama i mnogim univerzitetima koje imaju CG katedre! Bukvalno svaki deo scene je po necemu znacajan i pionirski. Samo laiku Toy Shop moze biti "bljutav"!

Back to topic

Pitanje ROP-ova je interesantno. Ukoliko R600 zaista ima 512bitnu magistralu, a sva je prilika da je ima, i pri tome svu navedenu "shada powa", onda bi 16 ROP-ova zaista moglo da bude malo, pogotovo ukliko se planiraju jake FSAA performanse pri jos kvalitetnijem Aniso filtriranju.
Videcemo, bice zanimljivo videti pravu istinu. Jos samo mesec-dva cekanja ;)

Couldn't agree more... Ne kapiram kako neko ko poznaje materiju može da ostane ravnodušan na ToyShop, pogotovo ako to vidi 2005. godine (mada sam ja i dan danas impresioniran). Što se ROP-ova tiče, opet kažem, moguće je da će za neki deo kalkulacija AA i AF biti zadužen drugi deo pajplajna, pošto isti više nije linearan...
 
...sto ce reci da ako pristupe ATI metodi 2x i 2x , nvidija ce losije to raditi ako engine to forsira :S:. Zaista mi nije jasno zasto i jedni i drugi ne urade isto makar taj deo hardwera, programerima je onda lakse i brze da rade posao, i consumeri su zadovoljni... Ovo me dovodi do zelje da neka od ove dve kompanije padne u bankropt i pukne ko lubenica, svejedno koja. Bice nam bolje svima. Ali verovatno gresim...

Pa bas je to najinteresantniji deo,sto su chipovi toliko razliciti,pa ce se u raznim engine-ima drugacije ponasati a opet (verovatno) priblizno.Bilo bi dosadno da su veliki delovi GPU-a projektovani na isti nacin.
Inace,mislim da je nVidiin pristum 128 scalarnih procesora na visokim frekvencijama inovativniji od atijevog 2x vector 2x scalar pristupa shaderima jer su ovakve shader jedinice vec postojale kod R580/G70 chipova.Sto se tice toga koje ce biti efikasnije ja opet mislim G80 jer se u vecini igara uvek losije snalazili specijalizovani shaderi(setimo se nv35 vs R300 gde je geforceov 4x2 pipeline bio daleko manje efikasan od atijevog 8x1 tj. bio je ok kod igara koje su se i dalje oslanjale na takavu konfiguraciju.
A kao dokaz da se 128 jednostavnih scalarnih procesora odlicno snalazi svuda su skoro sve dx9 igre koje rade odlicno na 8800GTX-u (sad kad ispadne da je G80 bulja za dx10,ima ova recenica da udje u gx-x -ov potpis :) )
 
:) Tako nekako. Ali cisto sumnjam da ce ATI izbaciti sporiju kartu najovije generacije od 8800gtx, nema mi logike, uvek izbace makar malo brzu. Pogotovo sto i m je najnoviji moto na sajtu (http://ati.amd.com) "Leader in microprocessors, graphics, chipsets and consumer el." Malo bi bilo blam imati takvu izjavu i predstaviti najnoviju graficku 3 meseca posle nvidije i da bude sporija... Iskreno - ocekujem da ce biti brza malo, ali takodje pretpostavljam da nvidija vec ima spremnu ultra varijantu, ako ne i 1GB verziju koju mozda nazove i 8850 kako byMax rece.
 
Sto bi bio blam?

Jesu li mozda lider "in microprocessors"? :)

Ni u cipsetvoima nisu lider...

Da imaju blama stavili bi: "Wannabe leader in microprocessors, graphics, chipsets and consumer el." :)

Ali, to je marketing i cesto nema veze sa onim sto cike u belom projektuju u Lab-ovima, a slicno obucene cike stampaju u Fab-ovima. Znaci, ne bih se rukovodio time "sta pise na tarabi", vec delom dosadasnjim iskustvom, a delom onim mrvicama od R600 koje smo "videli". Znaci, ja verujem da ce R600 biti dobar cip.
 
Poslednja izmena:
Ne verujem da će Ati da podbaci, kao što i nije nikad do sad.
Ovo sve je sad rekla kazala i besmislne rasprave koje ne vode nigde.
Uskoro će se sve samo kasti' :)
 
Sto bi bio blam?

Jesu li mozda lider "in microprocessors"? :)

Ni u cipsetvoima nisu lider...

Da imaju blama stavili bi: "Wannabe leader in microprocessors, graphics, chipsets and consumer el." :)

Ali, to je marketing i cesto nema veze sa onim sto cike u belom projektuju u Lab-ovima, a slicno obucene cike stampaju u Fab-ovima. Znaci, ne bih se rukovodio time "sta pise na tarabi", vec delom dosadasnjim iskustvom, a delom onim mrvicama od R600 koje smo "videli". Znaci, ja verujem da ce R600 biti dobar cip.

Heheh... "dobar čip" je tako rastegljiv pojam. Mora da bude, kako bi Cartman rekao, kick ass...
 
Heheh... "dobar čip" je tako rastegljiv pojam. Mora da bude, kako bi Cartman rekao, kick ass...

Pa pricam diplomatski, kao i svaki wise man. Kako god na kraju da ispadne - bicu u pravu :)

U svakom slucaju, neka bude brzi od 8800GTX kao sto pokazuju ovi testovi i sta mu fali? Posebno to sve dobija na tezini, nakon sto su mnogi mislili da je 8800GTX nece imati rivala i da je tehnoloski previse superioran. A i kao da je do sada bila neka prevelika razlika izmedju najnovijih GPU-ova izmedju nVidia-e i ATI-ja, pa sada odjednom ovaj mora da bude ono sto je Core 2 za Athlon 64 X2?

Ionako ce se glavna borba u sledecoj generaciji cipova voditi za DirectX 10.
 
Poslednja izmena:
aj sredi chronicles of riddick da ne secka sa soft shadows ukljucenim :S: Igra matora hiljadu godina secka na najnovijem hardweru ako se stavi PS na max sa soft shadows... Ne moze me niko ubediti da je to zato sto je hardwer slab, to je cist primer pisanja koda nogom i razmisljanja dupetom pri procesu. Kako su to uspeli da urade uopste ? :zgran: ? Na svu srecu pa nisu sve igre tako pisane...

Napisati i "hallo world" u OpenGL-u zahteva znanje koje totalni laik mora da respektuje! Napisati kompleksnu 3D masinu zahteva nepojmljiv napor (opet iz perspektive laika).
prema tome pljuvati kreatore COR-a zbog algoritma umeksavanja senki, a pri tome ne imati blagu predstavu sta je potrebno da bi se u OpenGL-u to realizovalo, je slozice se, malo bezveze!

Niti su oni pisali kod nogom, niti su razmisljali dupetom. Implementirali su nesto sto je samo po sebi zahtevno - prave senke i pri tome su za pojedince ostavili opcju umeksavanj istih.
Nisu svi JC pa da impementiraju jako brz algoritam za stencil senke. No, da ne skrecem trd dalje, tema senki u igrama je izuzetno kompleksna i postoji niz prisupa resavanju tog problema. Neki su ozbiljni (ukljucujuci i Riddicov), a neki su cist "fake"! Sve u svemu i daje se u glavnom koriste raznorazni trikovi, a zahvaljujuci GS-u kod Unified Shader GPU-ova, generisanje senki ce biti znacajno unapredjeno.
 
Pa bas je to najinteresantniji deo,sto su chipovi toliko razliciti,pa ce se u raznim engine-ima drugacije ponasati a opet (verovatno) priblizno.Bilo bi dosadno da su veliki delovi GPU-a projektovani na isti nacin.
Inace,mislim da je nVidiin pristum 128 scalarnih procesora na visokim frekvencijama inovativniji od atijevog 2x vector 2x scalar pristupa shaderima jer su ovakve shader jedinice vec postojale kod R580/G70 chipova.Sto se tice toga koje ce biti efikasnije ja opet mislim G80 jer se u vecini igara uvek losije snalazili specijalizovani shaderi(setimo se nv35 vs R300 gde je geforceov 4x2 pipeline bio daleko manje efikasan od atijevog 8x1 tj. bio je ok kod igara koje su se i dalje oslanjale na takavu konfiguraciju.
A kao dokaz da se 128 jednostavnih scalarnih procesora odlicno snalazi svuda su skoro sve dx9 igre koje rade odlicno na 8800GTX-u (sad kad ispadne da je G80 bulja za dx10,ima ova recenica da udje u gx-x -ov potpis :) )
Mesas Babe i Zabe! Premda Shader Uniti R580 lice na ono sto ce doci sa R600, oni su daleko od istih, jer na kraju krajeva R600 je Unified Arhitektura! Poredjenje "pipelinea" kod NV35 i R300 sa modernim pipelineom aktuelnih i buducih akceleratora je deplasirano! Ono sto i ti navodio kao "4x2" i "8x1" nema veze sa Shader pajplajnom, vec sa TMU-ovima!!
NVIDIA-in pristup sa razlicitno klokovanim Shader i ROP delom GPU-a i sa giga+ frekvencijama onog prvog je zaista revolucionaran, ali ne mora da znaci da nije dostizan sa drugacijim pristupom. Mnogo varijabli je u jednacini koja daje krajnji fps ;)
 
Heheh... "dobar čip" je tako rastegljiv pojam. Mora da bude, kako bi Cartman rekao, kick ass...

Slazem se! Ako je nesto 'vidija postigla sa G80 to je upravo "WOW! KICK ASS!: efekat! Uhvatili su ATI na spavanju plasirajuci lazne informacije o nvodnoj hibridnoj arhitekturi i maltene potvrdjujuci da ce biti "underdog" pocetkom DX10 ere! Lukavo s njihove strane, i krajnje naivno sa ATI-jeve!
Sada R600 mora da bude bas to sto si ti maxe rekao ":Ultra! Kick ASS!"
Posto verujem da je nemoguce da ne postoji pametnijih ljudi u ATI-ju koji su dosli do istog zakljucka, cenim da ce R600 zaista biti kick ass sa nekog aspekta (akonista, ono barem po tezini :D) i u najgorem slucaju "in pair" sa G80.
 
aj sredi chronicles of riddick da ne secka sa soft shadows ukljucenim :S: Igra matora hiljadu godina secka na najnovijem hardweru ako se stavi PS na max sa soft shadows... Ne moze me niko ubediti da je to zato sto je hardwer slab, to je cist primer pisanja koda nogom i razmisljanja dupetom pri procesu. Kako su to uspeli da urade uopste ? :zgran: ? Na svu srecu pa nisu sve igre tako pisane...

Riddick koristi shadow volumes za senke. Da bi dobio meke senke game engine od tackastog izvora svetla napravi vise malih svetala (veoma bliskh) i od svakog svetla generise siluetu za shadow volume. Taj posao (generisanje siluete) se radi na CPU.
 
A sta ne urade neku karticu 100 puta jaceg nego bilo sta do sada, sa takvu arhitekturu i snagu procesora da moze da protera takav realizam u igrama da ne znas dali je igra ili si upao u neki film. Nesto sto ce trajati godinu-dve pa nek kosta i 1000 eura. i onako neki kupuju karticu svaki 3-4 mjeseca pa potrose i vise nego 1000e godisnje na graficku.
 
Poslednja izmena:
A sta ne urade neku karticu 100 puta jaceg nego bilo sta do sada, sa takvu arhitekturu i snagu procesora da moze da protera takav realizam u igrama da ne znas dali je igra ili si upao u neki film. Nesto sto ce trajati godinu-dve pa nek kosta i 1000 eura. i onako neki kupuju karticu svaki 3-4 mjeseca pa potrose i vise nego 1000e godisnje na graficku.
Nema prave revolucije već evolucije ;) samo što je ona nekad strašno spora, a nekad ipak nešto brža.

Ako bi s nekim hardverom mogao sve da igraš bez problema na max više godine pa kako bi ti ona oni muzli pare svake godine :-devil-: Najbliže tome što si opisao su konzole, pa ko voli nek izvoli.
 
Poslednja izmena:
Status
Zatvorena za pisanje odgovora.
Vrh Dno