Šta je novo?

R700 cinculiranje

Dule promašio si sobu. Ovde se govori o trendovima i novim tehnologijama i veliki deo diskusije o njima su takozvani educated guesses.
Ti se drži svojih postova od dve rečenice i tema gde i pošto da kupim koju grafičku ako su ti ove o novim tehnologijama strane.
Uostalom po tome koju si grafičku kupio za igrice vidi se koliko se razumeš u grafičke.

A što se tiče otpisivanja, već sledeći Skinnerov post govori da je izgleda AMD već sam otpisao R700, makar u ovom obliku o kome smo spekulisali u ovom postu.

Problem je sto tvoj "educated" gess uvek glasi isto. Ati je omanuo (iz tog i tog razloga).

Pa samo treba pogledati nazive tema koje si otvarao:

1. "Radeon 2900 GT - najmlađi sakati brat R600"
2. "Koliko jos kvartala ce AMD moci da izdrzi..."
3. "Gde bi AMD bio da je pre godinu dana kupio nVidu"
4. "Nove vesti o AMD-u, i to ne bas vesele"

Samo nastavi objektivno...

PS. Tvoja karta ima isto/manje frejmova u UT3 masini :d a kosta ~3x vise.
 
Problem je sto tvoj "educated" gess uvek glasi isto. Ati je omanuo (iz tog i tog razloga).
Šta od svega toga nije bilo tačno? Koliko je dobrih poteza AMD imao u 2007?

Samo jedan a to je način i brzina kojom je zamenio nesrećni R600 i uveo poprilično uspešne R670 kartice. Pošto podrobno pratiš moje postove, verovatno si primetio koliko sam pohvala izneo na račun AMD-a po pitanju ovoga i koliko sam kritika uputio nVidji za način na koji je izvela lansiranje G92 kartica uprkos superiornoj arhitekturi koju trenutno poseduje.

Pa samo treba pogledati nazive tema koje si otvarao:
1. "Radeon 2900 GT - najmlađi sakati brat R600"
Da to je bila sjajna kartica, pojavila se u prodavnicama mesec dana pre izbacivanja HD38xx serije i ko god ju je kupio ubo je jack pot.:crash:
2. "Koliko jos kvartala ce AMD moci da izdrzi..."
... gubeći po 600 M zelembaća po kvartalu.

U čemu je problem sa ovim? Je li AMD uspeo da se izvuče i bule u kojoj je? Ne bih rekao. Trenutno je u još goroj situaciji nego letos kada sam otvorio temu.

3. "Gde bi AMD bio da je pre godinu dana kupio nVidu"
Svakim danom se pokazuje koliko je kupovina ATi-ja bila maestralan potez. Evo ovih dana upravo donose odluku da prepuste high end graphics tržište nVidiji. Pa dobro vredelo je kupiti ATi samo zbog sjajnog chipset dela! Doduše za to bi im ULI bio malo jeftiniji.

4. "Nove vesti o AMD-u, i to ne bas vesele"
Tema nastala kao reakcija na ondašnje priče o tome kako AMD osvaja tržišni udeo i posebno na temu "Nove vesti o Penrynu i to ne bas vesele!"
Sad se lepo vidi kako je Penryn truba a Barsa novo čudo. O tome kao AMD osvaja tržišni udeo ne treba trošiti reči.

PS. Tvoja karta ima isto/manje frejmova u UT3 masini :d a kosta ~3x vise.
U priče moj fps je veći od tvog neću da ulazim. Jedino ći reći da lupetaš po pitanju cene, u vreme kada si kupio svoj 2600XT sigurno si je platio više nego ja svoj 1950Pro.
 
Poslednja izmena:
Неће да буде добро!
http://www.xbitlabs.com/news/video/..._Next_Generation_ATI_R700_Graphics_Chips.html
Мада ово може да значи да ће током 2008-ме избацивати ревизије R600 технологије што уопште не мора бити лоше. R600 u 45nm, побољшано текстурирање или шта их је већ мучило.

Opa...
Deperate times call for desperate measures.
 
Pa stvar je u tome sto su slajdovi sa Analyst Day-a bili vezani za Leo platfomu,a ne za discrete GPU.Znaci R700 ce doci u toku 2008. god.
Nema razloga da bude drugacije,psoebno imajuci u vidu da ce se ici na MCM dizajn,sto je dosta lakse za implementaciju od pravljenja monolithic naslednika R600-ke.Ovako ce moci da skaliraju od low do high end-a dodavanjem jezgara u MCM.Pitanje je kako su izveli core-to-core komunikaciju ,ali to je veroavtno do sada resen problem.
 
Problem je sto tvoj "educated" gess uvek glasi isto. Ati je omanuo (iz tog i tog razloga).

Pa samo treba pogledati nazive tema koje si otvarao:

1. "Radeon 2900 GT - najmlađi sakati brat R600"
2. "Koliko jos kvartala ce AMD moci da izdrzi..."
3. "Gde bi AMD bio da je pre godinu dana kupio nVidu"
4. "Nove vesti o AMD-u, i to ne bas vesele"

Samo nastavi objektivno...

PS. Tvoja karta ima isto/manje frejmova u UT3 masini :d a kosta ~3x vise.

Nemoj tako, Bogda je malo "ozlojedjen" jer je u stvari on u dusi AMD fan. :D :smoke:
Mnogo ga potresaju kilave vesti o AMD-u pa je i sam podleteo pod uticaj negativizma Intel fanboy-eva. :d
 
Niti je Hektor dobio povisicu, niti ce R7xx biti otkazan za 2009!

BTW, ovo mi je omiljena Bogdina: "Prvo jezgro renderuje 1 frejem, drugo drugi... četvrto četvrti... Znači u jednom trenutku hipotetički high end 4xR700 čip ne renderuje frejm po frejm, već "napamet" renderuje 4 sledeća frejma. Kako može da renderuje sledeći 2, 3, i 4 frejm ako oni zavise od unosa igrača." :)

GPU koji renderuje "napamet" vrh brate! Bogdo, nije valjda da si mislio da se frejm renderuje tek kada ti pomeris misa??
 
Niti je Hektor dobio povisicu, niti ce R7xx biti otkazan za 2009!

BTW, ovo mi je omiljena Bogdina: "Prvo jezgro renderuje 1 frejem, drugo drugi... četvrto četvrti... Znači u jednom trenutku hipotetički high end 4xR700 čip ne renderuje frejm po frejm, već "napamet" renderuje 4 sledeća frejma. Kako može da renderuje sledeći 2, 3, i 4 frejm ako oni zavise od unosa igrača." :)

GPU koji renderuje "napamet" vrh brate! Bogdo, nije valjda da si mislio da se frejm renderuje tek kada ti pomeris misa??

Ne nego renderuje jedan frejm za drugim. Ako se unapred zna kako će se prostor menjati AFR radi besprekorno, npr u nekom snimljenom benchmarku.

Međutim u realnoj igrici, stanje u prostoru zavisi od unosa igrača. U slučaju 4 x Crossfirea, sva 4 GPU-a treba da izrenderuju započete frejmove da bi tek potom igračev unos mogao uticati na okruženje odnosno na frejmove koji se prikazuju na ekranu.

Nije valjda da nisi razmeo da će u slučaju 4 x Crossfirea igračev unos uticati na ono šta će biti prikazano na ekranu tek nakon što sva 4 GPU-a izrenderuju započeti frejm!
 
:d:d Da da, kako to nisam video ni sam ne znam :d . Inace Intelovci mora da zrace opako kad su izazvali ovakav efekat :D:d

Srećom tu su dušebrižnici da me vrate na pravi put da ne zastranim! Ja samo imam stav, ako je nešto sran*e tako ga i nazovi, nemoj se zavaravati da je kolač.
 
Najprostije receno nisi u pravu. A da ne bi razvodnjavali tred, ja ti savetujem da malo icitas po netu kako se proces renderinga izvrsava i kako AFR zaista funkcionise.:wave:
 
Srećom tu su dušebrižnici da me vrate na pravi put da ne zastranim! Ja samo imam stav, ako je nešto sran*e tako ga i nazovi, nemoj se zavaravati da je kolač.
Tako i treba, ali prvo moras biti zaista siguran zasto nesto kvalifikujes kao ******, a ne o tome imati krajnje pogresno znanje zasnovano na povrsnim tumacenjima kvazi strucnjaka... ;)
 
Tako i treba, ali prvo moras biti zaista siguran zasto nesto kvalifikujes kao ******, a ne o tome imati krajnje pogresno znanje zasnovano na povrsnim tumacenjima kvazi strucnjaka... ;)

Fora je sto ni SLI ni CF ne rade uvek kako treba, tj najcesce ne rade kako treba i ceka se update drajvera, profila itd. nVidia je taj multiGPU pristup odavno probala sa GX2 kartama i sto se kaze: "Jedan probo pa se u$ro" :( Da to radi kako je zamisljeno i kako je u teoriji, odavno bi gledali 8800GX2...Znas i sam vec celu ovu pricu, kapiram da zbog toga nisi ni dao nikakv komentar, ni pozitivan, a ni negativan. (sto je i ok, sobzirom na prozivke o "pristrasnosti" koje te prate)

Sobzirom da je ovo sve i dalje neko nagadjanje, a da nam do sada nista revolucionarno u vezi CF tehnologije nije predstavlljeno ni u teoriji, ne vidim kako ce multi-GPU AMD karta biti ista bolja u praksi od bilo kog CF resenja.

Da se razumemo, ne kazem da je CF losh, a ne kazem ni da je dobar (isto to mislim i za SLI), kazem da se uopste CF i SLI nisu pokazali kao "kvalitetno i pouzdano" resenje jer se u 80% slucajeva za sve nove igre cekaju drajveri i optimizacije za CF/SLi. Setimo se situacije gde je 2900XT u CF modu radio losije nego single 2900XT, isto se to desavalo i sa nVidijom u nekim igrama...Dve glave su pametnije od jedne, a u slucaju multi GPU renderinga ni ove dve jos nisu smislile kvalitetno i pouzdano resenje...
 
Ovo je dobra vest za ATi ako nVidia nastavi da baulja kao u drugoj polovini 2007. Međutim logično je očekivati da nakon gotovo 2 godine razvoja, nova nVidijina arhitektura napravi značajan skok u perfomansama. Setite se samo napretka G80 u odnosu na G70.
 
I ja sam malopre procitao tu vest da za sada RV770 radi dobro ( i drago mi je zbog toga ), ali sam siguran da će GT200 biti brži znacajno od R700. Sad će neko da kaže - "gle ovog vidovnjaka,pametnjakovića" :) . Jednostavno "osećam" :d da će to čudo od milijardu tranzistora koju nvidija sklapa biti brže od R700. Jedan od razloga je što je GT200 single chip rešenje ;) . Naravno grejaće se verovatno luudo ali to je već nešto drugo.
 
Poslednja izmena:
Ati će zato imati bolju srednju klasu, jer za razliku od NV odmah pokrivaju 3 segmenta sa novim chipom (zamjena za 3850, 3870 i 3870 X2).

Što se tiče NV, pitam se kod koga će proizvesti taj chip. Za NV40 su svojevremeno tražili usluge IBMa jer Tajvanci to tada nisu mogli proizvesti. A škarta je bilo ko u priči ;).
 
ATI je vrlo pametno iskoristio jako dobru proizvodnju RV670, a ako tako bude i sa RV770, jos bolje. :)
 
Ovo je dobra vest za ATi ako nVidia nastavi da baulja kao u drugoj polovini 2007. Međutim logično je očekivati da nakon gotovo 2 godine razvoja, nova nVidijina arhitektura napravi značajan skok u perfomansama. Setite se samo napretka G80 u odnosu na G70.

uz rizik da me pocnu bombardovati na temu objektivnosti, izneo bih svoje misljenje na konto bitke koja se sprema za neko doba ove godine...

Bez obzira na performanse koje NVIDIA-ina (pisem im "full" naziv kako neko ne bi mislio da ih nipodistavam) nova arhitektura donese, uspece onaj dizajn koji se pokaze laksim za "skaliranje" (priznajem da nisam siguran da li je ovo pravi izraz) ka mid i low end derivatima.

ne verujem da se uspeh G80-ke moze ponoviti iz jednostavnog razloga sto je taj GPU i za trziste i za konkurenciju bio iznenadjenje (setite se strateskog "obmanjivanja" o "hibridnoj" odn. polu-unificiranoj arhitekturi).

No, ako smo nesto do sada naucili to je da 'vidiju )ovako mi je lakse zbog brzine pisanja) nikako ne treba podceniti, a i da ne treba verovati bilo kakvim "predvidjanjima" pa ni ovima od milijardu tranzistora u 65nm i besomucnoj potrosnji od 250W...
 
Sta naprica ti ? Uspeh g80-tke moze da se ponovi jednostavnim obaranjem cena. Ramizsli. 8800gtx ~150 evra. Dovidjenja.

aj moram i edit posto znam da vecina nece razumeti ovo gore: Kad izadje novi nVidia chip, makar i svega 15% brzi, 8800gtx ce da rokne sa cenom najgrdje. Sad je valjda jasno. Jasno je valjda da je ta karta dovoljna za sve osim krize.
 
Poslednja izmena:
jeste sada, ali koliko ce jos biti?
inace, ja sam poceo da pikam Crysis na svom sporetu i mogu reci da jako lepo ide. retko ode ispod 30...uglavnom je 30-45fps, a kartu sam platio 190e...
 
Sta naprica ti ? Uspeh g80-tke moze da se ponovi jednostavnim obaranjem cena. Ramizsli. 8800gtx ~150 evra. Dovidjenja.

Da, ali koliko se nVidia-i isplati da prodaje toliko veliki čip po toj ceni ? Čak i da se to desi, mogu samo da prodaje kartice koje su zaostale po lagerima, a takvih i nema puno koliko ima G92 varijanti.
 
Poslednja izmena:
Sta naprica ti ? Uspeh g80-tke moze da se ponovi jednostavnim obaranjem cena. Ramizsli. 8800gtx ~150 evra. Dovidjenja.

nista ti nisi razumeo sta sam ja pisao, a o G80-like GPU-u za 150 evra mozes samo da sanjas...
 
GX-X je malo lupio (ili ga nismo razumeli :) ),G80 je u januaru otisao u EOL,znaci da se rasproda to sto je ostalo po radnjama i cao G80(a bio je dobar).E sad ako si mislio na 8800GTX-like kartice,tj. na jeftine zamene za G80,to postoji-G92 i kartice bazirane na njemu-8800GT i 8800GTS 512.Ova druga je po performansama pre zamena za 8800GTX nego prva.E sad opet kad nVidia bude izbacila sledeci high-end tesko da ce 8800GTS 512 kostati 150evra.

Dalje,samo 15% brze,ja ocekujem da bude 2x brza od 8800ULTRA-e,pa realno je,kad bude izasla to ce biti skoro dve godine od G80-ice.

Sto se tice 250W za sledeci nVidia-in high,ne znam sta je tu toliko cudno.Kad je trebao da izadje HD2900XT isto se tako pricalo i nije ispalo daleko od istine(koliki je bese TDP,oko 225W).Sta fali da sledeca nVidia-ina kartica trosi slicno a da bude 3X brza od doticne Ati-jeve?
 
@Das
Da li si ti svestan koliko je 3X brze i koliko Nv. uzima para za 10-20% brzu kartu u od konkurantne.Tako je bilo godinama unazad,pa cak i ako su imali losiju oni su je prodavali po istoj ceni kao konkurent,ma ko to bio.
 
nista ti nisi razumeo sta sam ja pisao, a o G80-like GPU-u za 150 evra mozes samo da sanjas...

Pricao sam onako, vise hipoteticki. nVidia je u velikom plusu od g80/g9x i kad bi htela mogla bi svasta. G80like gpu ce biti vrlo uskoro po ~170e, repovi od same g80 serije ce biti (sad su vec 170e) mozda i jeftinije u nekom momentu zbog toga sto ce biti old-tech...(vec jesu EOL) nikakva to nije nauka. Sve sto je u jednom momentu bilo 400-500e kasnije zavrsi za 100-150e...

A to sto su u AMD-u mazohisti, to je prica za sebe, prica koja je odlicna po nas krajnje kupce i ja je podrzavam. Samo skrecem paznju da to nije USPEH vec nuzda...Kad bi tebi spustili platu na 150e i rekli "eto nasi zaposleni vrse posao za 150e,a ne za 1000e kao zaposleni kod konkurencije, a podjednako su efektivni" jel bi to bio uspeh ? :p (pu-pu daleko bilo :p )
 
Poslednja izmena:
@Das
Da li si ti svestan koliko je 3X brze i koliko Nv. uzima para za 10-20% brzu kartu u od konkurantne.Tako je bilo godinama unazad,pa cak i ako su imali losiju oni su je prodavali po istoj ceni kao konkurent,ma ko to bio.

Da se kladimo da ce sledeci high end iz nVidia-e(ne mislim na ovu 2xG92 sto treba da se pojavi vec na pravi high-end sledece generacije) biti 3x brzi od 2900xt-a?
 
Da se kladimo da ce sledeci high end iz nVidia-e(ne mislim na ovu 2xG92 sto treba da se pojavi vec na pravi high-end sledece generacije) biti 3x brzi od 2900xt-a?

Da bice,ali problem u ovoj "projekciji" je sto se nece takmiciti sa 2900XT(ili bilo kojim radeon 38xx) vec sa R770 baziranom kartom(tacnije X2 verzijom sa ovim cipom).Sve mi se nesto cini da ce tesko da bude brza 3x od R700,ako bude uopste i brza(samo neka promene odnos od 1:1 izmedju core i shader clock-a kao sto Nv radi i dobice poprilicno brzi GPU,na stranu druge stvari koje su promenili sa novom arhitekturom)
 
Ma naravno,pa nisam valjda lud da kazem da ce biti 3x brza od R700....Ja sam to tako poredio cisto jer se spominje slican TDP od 250W isto kao sto se spominjao kod 2900XT-a.

Sto se tice clock-a shadera i ostatka chipa,mislim da to nije bas tako jednostavno kao sto kazes.Da bi se postigle tako visoke ucestanosti kod GPU-a,potreban je potpuno drugciji pristup projektovanju GPU-a(slican kao kod procesora) i to trosi dodatne tranzistore..Pisalo je negde o tome,mislim na Anandtech-u...
 
Poslednja izmena:
Nazad
Vrh Dno