Šta je novo?

GeForce RTX 3000 Thread

Da, ako neko hoce da izvuce full iz ovih grafika onda i sve ostalo treba pratiti jacinu grafike. Za procesore, recimo 2080Ti na 1080p nijedan procesor danas ne moze ovu grafu u fulu da iskoristi. Sledstveno, na 1440p verovatno ce se pokazati razlika u perfomansama izmedju razlicitih procesora sa ovom istom 2080Ti. Tek na 4K moze da se ocekuje nivelisanje za mnoge procesore Intel i AMD.

Opet, ako je 3080 recimo oko 30 - 35% jaca od 2080Ti pitanje je da li na 1440p postoji danas procesor koji moze ovu grafu u fulu da pokrene. Pa, video sam po raznim testovima da i kod 2080Ti na 4K postoje neke odredjene (ne velike) razlike izmedju najacih procesora Intel i AMD.

Da ne pricamo za zverku 3090, tu je vec pitanje kako se ponasaju razliciti procesori i na 4K.

Kukanje i plakanje sto umesto 167 frejmova moze da se izgura samo 149.
 
Ja zapikirao Dell S3220DGF (32" Va panel), uzevsi da je Dell S2721dgf (LG 27gl850-b panel) uzasan sa kontrastom i ips glow-om... Imerzija mi je bolja sa monitorom i neretko mi se desavalo da zakuntam na kaucu ispred TV-a dok sam drljao PS...
Meni licno deluje da 3080 "punokrvna" 1440p144hz kartica (mozda i gresim), mada sam skeptican zbog 8gb Vrama (iako ima veci protok i brzu memoriju) za neke igre. Ostaje da se vidi dok ne izadje crno na belo...

8GB ili 10GB?

Nego, BUY GEFORCE RTX™ 30 SERIES, GET WATCH DOGS: LEGION PLUS GEFORCE NOW™ MEMBERSHIP
 
Ja zapikirao Dell S3220DGF (32" Va panel), uzevsi da je Dell S2721dgf (LG 27gl850-b panel) uzasan sa kontrastom i ips glow-om... Imerzija mi je bolja sa monitorom i neretko mi se desavalo da zakuntam na kaucu ispred TV-a dok sam drljao PS...
Meni licno deluje da 3080 "punokrvna" 1440p144hz kartica (mozda i gresim), mada sam skeptican zbog 8gb Vrama (iako ima veci protok i brzu memoriju) za neke igre. Ostaje da se vidi dok ne izadje crno na belo...

Imam ga vec duze vreme, samo cu reci jedno, najbolji monitor na trzistu tih karakteristika pogotovu za taj novac. Inace RTX 3080 zelim upravo da uparim sa ovim monitorom samo sto je on 165 hz, ne 144 Hz.
Za QHD verujem da ce izgurati taj FPS.
 
Taj Dell je odličan monitor za 405e. Pošto planiram uzeti 3080 za klinca, verovatno idem na Gigabyte G34WQC, 450e.
 
@MegaSkot

I vise nego odlican a cena mu je pala. Ja sam ga platio negde oko 550 evra ali nasa garancija.
Dugo sam "studirao" sta ce da me zadovolji a da ispostuje 32", 10 bit panel, minimum 144hz G-Sync (FreeSync 2), HDR i sl.
HDR mu je recimo brutalan jer je brightnes peak cak jaci nego sto Dell deklarise. Cak poredjenja radi Samsung Odyssey G7 ima losiji HDR u igrama,
radjeno direktno poredjenje. I ako je QLED ni u standardnom igranju nema bolju sliku, negde u nekim delovima pokaze bolju zasicenost. A koja je njegova cena?

Za sada sam miran dok god mi nesto ne privuce paznju. ULTRA WIDE monitore ne mirisem.

Da ne idemo u off, generalno sa RTX 3080 sam miran i verujem da cu uzivati celu zimu a za to se spremam. Ima dosta igara koje nisam odigrao. Samo da nadjem dobar model. Strix mi se nekako opet istice,
obzirom da ja preferiram Asus i imam ga tolike godine. Jedino da cena ne pokvari plan.
 
G7 je mnoooogo bolji monitor. Testirao sam oba jer sam razmisljao da prodam moj LG zbog uzasnog kontrasta.
 
@PCBeast

Yep, mogu da ga zabodem za 360e direktno od Della, a po onome sto sam gledao u tom cenovnom segmentu (do 400e) licno ne deluje mi da ima dobro zaokruzenih opcija i za ostalu upotrebu van gejminga. Konkurencija mu je MAG322CQR (isti panel bolje kalibriran, ali veca lutrija i slabiji qc), kao i onaj Gigabyte G32QC (isto losiji qc) koji ima jedan od najgorih standova/drzaca koje sam video (pritom se srafi)
Jedino sto zna da zeza sa nekim karticama Gsync ali Dell je izgleda resio ubacivanjem novog fw-a (mozes da vidis sa podrskom Della, ako je ima u Srbiji posaljes/odneses im da ti to odrade, trebalo bi da je free) i kroz nove refresh vrednosti

G7 iako bolji monitor, nije bez bubica, smatram da nije vredan duple cene. Radije bih za te novce isao na neki 50" TV

on topic

Mislim da je bolje da se saceka ceo lineup, spreadsheet svih modela (i kod konkurencije) pa da se napravi procena.
Ne drze bez razloga Ti/super modele sa vise Vrama na gotovs i bice sigurno blago podesavanje cena, 8/10gb varijante (3070/3080) ko uzme sada a kada posle 3 meseca objave/izbace bice kao p*pisan i pod utiskom sam da ce biti usko mnogo ranije nego sto mislimo - kako za 1440p tako i za 4k...
Nisu sigurno bez razloga sa ovako pristupacnijim cenama imali objavu za FE iteracije...
 
Poslednja izmena:
Ista greska kakvu je AMD napravio sa Bulldozerom - da su ga reklamirali kao 4c8t bilo bi bolje po njih. Ovde ce rezultat biti bolji, karte su zveri svakako, ali se svakako slazemo da je ovde nesto cudno u celoj matematici.



Ko zna sta uporedjuju, ali iskreno ne verujem da je efikasnost i blizu 2x u odnosu na Turing (mozda izolovani RT test ili nesto slicno). 3090 u startu trosi 40% vise u odnosu na 2080Ti, razlika u performansama bi morala da bude znatno veca i od onoga sto sam ja nagadjao. A iskreno mislim da ce 3080 biti nesto vise od 35% brzi od 2080ti, jer gadjaju/kazu da je 3070 tu negde sa starijom generacijom - prema onome sto znamo, 3080 ima daleko vise sirove snage.

Evo pojašnjenja:

Could you elaborate a little on this doubling of CUDA cores? How does it affect the general architectures of the GPCs? How much of a challenge is it to keep all those FP32 units fed? What was done to ensure high occupancy?

[Tony Tamasi] One of the key design goals for the Ampere 30-series SM was to achieve twice the throughput for FP32 operations compared to the Turing SM. To accomplish this goal, the Ampere SM includes new datapath designs for FP32 and INT32 operations. One datapath in each partition consists of 16 FP32 CUDA Cores capable of executing 16 FP32 operations per clock. Another datapath consists of both 16 FP32 CUDA Cores and 16 INT32 Cores. As a result of this new design, each Ampere SM partition is capable of executing either 32 FP32 operations per clock, or 16 FP32 and 16 INT32 operations per clock. All four SM partitions combined can execute 128 FP32 operations per clock, which is double the FP32 rate of the Turing SM, or 64 FP32 and 64 INT32 operations per clock.

Doubling the processing speed for FP32 improves performance for a number of common graphics and compute operations and algorithms. Modern shader workloads typically have a mixture of FP32 arithmetic instructions such as FFMA, floating point additions (FADD), or floating point multiplications (FMUL), combined with simpler instructions such as integer adds for addressing and fetching data, floating point compare, or min/max for processing results, etc. Performance gains will vary at the shader and application level depending on the mix of instructions. Ray tracing denoising shaders are good examples that might benefit greatly from doubling FP32 throughput.

Doubling math throughput required doubling the data paths supporting it, which is why the Ampere SM also doubled the shared memory and L1 cache performance for the SM. (128 bytes/clock per Ampere SM versus 64 bytes/clock in Turing). Total L1 bandwidth for GeForce RTX 3080 is 219 GB/sec versus 116 GB/sec for GeForce RTX 2080 Super.


Interesanto kako je išao dizajn SM-ova tokom generacija:

- Fermi: 32 CUDA/SM, visoke CUDA frekvencije, mali broj CUDA jezgara
- Kepler: 192 CUDA/SM, drastično povećanje ukupnog broja CUDA jezgara, slabija efikasnost po jezgru
- Maxwell: 128 CUDA/SM, malo povećanje broja CUDA jezgara, znatno povećanje efikasnosti po jezgru
- Pascal: 128 CUDA/SM, efikasnost CUDA na nivou Maxwell, znatno povećane frekvencije
- Turing: 64/SM, iste frekvencije kao Pascal, povećanje efikasnosti po CUDA jezgru
- Ampere: 128 CUDA/SM (ili 64 FP+64INT / SM), znatno povećanje broja CUDA jezgara, smanjena efikasnost po jezgru

Po ovome ispada da su se sa Ampere vratili na Pascal/Maxwell dizajn SM-a mada nisam siguran kako je tada išlo izvršavanje INT operacija, pretpostavljam da je kod Ampere fleksibilnije jer svaki od 4 podbloka SM-a može da izvrši ili 32 FP operacije ili 16 FP+16 INT operacije. Plus su ovde duplirali deljenu memoriju u SM-u.
Sve u svemu, po meni sve je do kompromisa između uloženog (broj tranzistora) i dobijenog (performanse) pa su napravili odluku da idu ovim putem.
Većina je očekivala da RT resursi budu znatno uvećani a klasični shader samo malo a desilo se obrnuto. Međutim Tony Tamasi kaže ovo:

Ray tracing denoising shaders are good examples that might benefit greatly from doubling FP32 throughput.

Tako da verujem da oni znaju zašto su tako dizajnirali GPU.
 
Trenutno najjeftinija 3080: Palit Gaming Pro za 639£.
 
Evo pojašnjenja:
...
Tako da verujem da oni znaju zašto su tako dizajnirali GPU.

Cim imas deljene resurse, imaces sjajne rezultate u nekim stvarima i (relativno) losije u nekim drugim. Verujem da su dobro procenili trendove, ali imace drajver tim mnoooogo posla ovde, a bojim se da ce zbog ovakvog pristupa poprilicno da ispastaju vlasnici Turing karti (odnosno vise nego sto je bilo sa prethodnim generacijama).
 
Za nas koji bi uzeli rtx3000 sa 8gb vram najvise interesuje ova opcija direct storage koliko je efikasna sa vram-om,ako nije onda se mora ici na 10+..
 
^
Ako se odnosi na moj post...
3080 ide sa 10gb Vrama u startu (3070 sa 8gb), ja sam napravio gresku u koracima... :)
Verujem da ce krajem godine ici i objava za modele sa 12+ gb Vrama (losije binovane 3090, jer po svemu sudeci kod Samsunga ce biti dosta "skarta"), sto je svakako bolja opcija na duze staze (za 1440p i 4k) ma koliko nam prodavali pricu o optimizaciji, brzoj memari i vecem bandwith-u.
 
Poslednja izmena:
3080 vs 2080 testiran u igrama.. haos
https://youtu.be/cWD01yUQdVA

Zanimljiv video, impresivni rezultati, ali je problem što je grafička, po nalogu Nvidie, testirana u sve (jedine) četiri igre koje podržavaju Ray Tracing i prvenstveno DLSS.
Mislim da će biti zanimljivije kada ih Stivovi (GN i HU), Lajnus i Džej propuste kroz svoje šake sa mnogim igrama i mnogim konfiguracijama. Da, svakako će rezultati biti impresivni, ali mislim da neće biti ni blizu ovoliko kao na ovom videu.
Ali je sigurno da je 3080 apsolutni "best buy" u ovoj generaciji. Naravno, po cenama koje su objavljene, nikako po onima kakve će biti kod nas. Kod nas će 3070 koštati koliko (buduća?) 3080TI na zapadu.

 
Poslednja izmena:
Odgledaj i drugi video odmah posle tog, gde raspravlja sa kolegama...
Skapiraces nakon 5-10min (i njegovog komentara) koliko je "cudan" taj hands-on DF-a sa 3080 bio... ;)

Treba manjiti hajp i sacekati nezavisne testove, rekao bih da ce potencijalno "best buy" biti tek 2021.
 
Povodom Doom Eternal promo videa, treba imati u vidu da je i RTX 2080 značajno brža od 1080Ti za razliku u većini ostalih igara gde su dosta bliske po performansama.


Sent from my Mi 9T Pro using Tapatalk
 


1080ti i 2080, obratiti paznju na 4k rezultate (i doprinos vise memorije)

+edit
Tako da ono, mislim da cemo tek morati da se ispruzimo za prave next gen kartice, i da ove sa promo launcha verovatno nece biti pametno uzimati...
Nista bez 12gb Vrama, rekao bih...
Lep promo launch od Nvidie, u svakom slucaju dobro su odradili svoj domaci i namazali oci sa startnim cenama, ali i dalje im je namera da "zavuku" korisnicima... Ruku u dzep i jos ponesto... :d
 
Poslednja izmena:
Za nas koji bi uzeli rtx3000 sa 8gb vram najvise interesuje ova opcija direct storage koliko je efikasna sa vram-om,ako nije onda se mora ici na 10+..

Ako nas istorija uči nečemu, to će ponovo biti fail poput AGP texturinga, tj. uzimanje textura direktno iz glavne memorije računara (od pre dvadestak godina). Slična ideja kao i sada ali je propalo jer su brzine bile desetak puta sporije od brzine lokalne memorije na grafičkoj.
Ne možemo biti sigurni da će se isto desiti i ovaj put, nova generacija NVME drajvova će očigledno biti veoma brze (i skupe), ali je latencija je za dva ili tri reda veličine veća kod SSD-a nego kod GDDR memorija. U poređenje protoka GDDR6/6X memorije sa NVME SSD ne bih ulazio ali je i tu razlika značajna.
 
Na kp već 2080 za 500inak eura :D
 
Ako nas istorija uči nečemu, to će ponovo biti fail poput AGP texturinga, tj. uzimanje textura direktno iz glavne memorije računara (od pre dvadestak godina). Slična ideja kao i sada ali je propalo jer su brzine bile desetak puta sporije od brzine lokalne memorije na grafičkoj.
Ne možemo biti sigurni da će se isto desiti i ovaj put, nova generacija NVME drajvova će očigledno biti veoma brze (i skupe), ali je latencija je za dva ili tri reda veličine veća kod SSD-a nego kod GDDR memorija. U poređenje protoka GDDR6/6X memorije sa NVME SSD ne bih ulazio ali je i tu razlika značajna.

Najveca prednost te tehnologije nije brzina vec latencija. Cerny je dao detaljna objasnjenja na PS5 prezentaciji gde je to jedna od okosnica njihove arhitekture, uz bitnu razliku da koriste custom I/O chip za to. UE5 tech demo od pre par meseci i novi Ratchet and Clank uz novog Spidermana na startu konzole ce vec pozamasno koristiti prednosti toga, dok ce za neki pun potencijal verovatno morati da se saceka u toku generacije.

Super je stvar sto se konacno pomerila i prica na PC-u u vezi toga, ali da bi stiglo ne zavisi samo od Nvidije vec i od MS-a, mada cini mi se da sam negde procitao da to nece pre 2021. Druga stvar je sto PC kao platforma mora da podrzava raznorazne konfiguracije i cisto sumnjam da bi neko trenutno smeo da izbaci HDD iz jednacnice, tako da neki veci potencijal toga u multiplatform igrama ne verujem da cemo skorije da vidimo.
 
To ce samo panicari da prodaju za te pare i ovi market experti koji ocekuju 500e cenu za 3070. 3070 nece biti ispod 650 eur. Tako da ce i dalje polovne 1080Ti zadrzati ~350e realnu cenu.
 
Najveca prednost te tehnologije nije brzina vec latencija. Cerny je dao detaljna objasnjenja na PS5 prezentaciji gde je to jedna od okosnica njihove arhitekture, uz bitnu razliku da koriste custom I/O chip za to. UE5 tech demo od pre par meseci i novi Ratchet and Clank uz novog Spidermana na startu konzole ce vec pozamasno koristiti prednosti toga, dok ce za neki pun potencijal verovatno morati da se saceka u toku generacije.

.

Ovo čak ima i ime - RTX I/O haha
 
Meni je iskreno smesno sto ljudi sada pokusavaju da uvale svoje 3 god stare kartice (GTX 1070-1080) za 350-400+ eura.
A realno za 400+ bice RTX 3070 koja ima vece performanse (sudeci po internetu) od 2080 Ti.
Kakvi jadnici.
 
Meni je iskreno smesno sto ljudi sada pokusavaju da uvale svoje 3 god stare kartice (GTX 1070-1080) za 350-400+ eura.
A realno za 400+ bice RTX 3070 koja ima vece performanse (sudeci po internetu) od 2080 Ti.
Kakvi jadnici.

Ala si ti optimistican :D Vidim nisi pratio cene po EU shopovima.
3070 ce biti 600 minimum za krs modele.
 
39037292-8E00-40B6-B10A-60018F688452.png

Toliko o cenama. 2000e za referentnu 3090.
 
Nazad
Vrh Dno