Šta je novo?

Nvidia GeForce RTX 5000 - Blackwell

Raster je "mrtva priča" samo ako svi odustanemo od kritika i samo plaćamo. Niko ne kaže da ne treba sa furaju generisane frejmove i ostalo kao pomoć za slabije modele i posebne uslove, ali bar bi top model od minimum dva soma morao da može da izgura bar 60fps u najnovijoj igri na sve ultra sa RT na 4K, inače čemu sve?
 
Ovo je nesto kao da platite 500 eura ruter za net sa kojim mozete da skidate fajlove brzinom svjetlosti, ali vam je ping 200ms i vi kao kazete pa ok je to, bitna mi je brzina downloada 🤣
Super imam 200 fpsa i monitor je na 240hz, ali mi igra kasni kao da sam na kineskom serveru, ali bitan mi je sto veci fps, nema veze sto je slika blurovana. 🤣
Prodaja magle, ali to izgleda danas najbolje prolazi.
 
Kome treba za SP igre 0~15ms ili planira da zagleda svaki frejm da li se negde pojavi neki duh ili neka anomalija, neka trazi za sebe nesto drugo sto se uklapa u to sto zeli... Mislim zelim i ja ali nema sa onim sto je u ponudi.
Jel ova latencija (kašnjenje frema tj. blur) uočljiva samo kod DLSS dok je bez njega (matična rezolucija) 0-15ms?
 
@vatrogasac53
Nije blur. Samo input lag.

Uz DLSS, sad postoji i Frame Gen, koji izrenderuje dva frejma i između ubaci još nekoliko da bi dobio veći fps

Otprilike ide Frame1 > FakeFrame1 > FakeFrame2 > FakeFrameX... > Frame 2.
Ako imaš nativno 60fps-a. Tu ti je frame time 16.66ms i to bi teoretski bila minimalna latencija, u praksi to bude npr 30ms.
Ako imaš uključen FG, renderuju se dva frejma unapred, što će reći 2x16ms + overhead ~60ms

Ono što nvidia radi trenutno zbog boljeg marketinga je da forsira DLSS uz FG, a poredi sa rezultatima bez DLSS-a, koji nativno povećava fps i samim tim smanjuje input latency.
 
 
ali bitan mi je sto veci fps, nema veze sto je slika blurovana. 🤣
80% nvidia korisnkia gleda u blurovan ekren :p

Neko rece 72ms...
 
Cime mere taj lag? Samo softver? Kako softver odredjuje koja je razlika od inputa do prikazane slike i da li uzima u obzir i lag samog displeja ili na taj softverski izmeren lag treba da se doda i lag displeja (jos jedno 10-15ms)?

Pitam jer me interesuje, nemam pojma kako mere.
Za monitore znam kako mere.
 
To put it in real terms: 230 fps with 50 ms latency means that effectively, even if you were constantly using an input device to move, for roughly every 12 frames displayed that input has not actually been processed as part of the graphics frame.

Would be interesting to see how frame gen, when in a scenario where the graphics load is so high the real FPS would be say around 10fps, would handle cut-scene changes...

Ovo je toliko loše, ljudi bukvalno daju po 1000e da bi imali monitor koji ima 3-4 ms manju latenciju od onog koji košta 300. Iako većina ljudi nikad nije probala vrhunski monitor svi se slažu jednom kad probate nikad više nećete moći da koristite neki običan, spori ekran.

Drugim rečima tema je skroz promašena, niko ne kupuje brz ekran da bi imao glatku animaciju, to čak i na 120 Hz izgleda jako dobro, već da bi smanjio latenciju, što mogu samo vrhunski monitori.... u tom svetlu, bolje je 60 fps sa manjom latencijom, nego 240 ili 540 sa većom....
 
Cime mere taj lag? Samo softver? Kako softver odredjuje koja je razlika od inputa do prikazane slike i da li uzima u obzir i lag samog displeja ili na taj softverski izmeren lag treba da se doda i lag displeja (jos jedno 10-15ms)?

Pitam jer me interesuje, nemam pojma kako mere.
Za monitore znam kako mere.
1737151765713.jpeg
 
Ovo je za merenje monitor laga. Bar sam vidjao da slicnu (ako ne i istu) napravu koriste za to. A FG lag se meri samo softverom, tj sam driver prijavljuje?

I onda je ukupni lag koji korisnik ima = monitor lag + sta god software (drajver) prijavi za FG lag?
 
DLSS / FSR (bez FG) je meni bio koristan da poteram par igara na (sad) ubogoj 1060 3GB u nesto manjem slajdsou nego nativno. I to razumem, premoscenje kad ti je hardver prespor pa da ikako radi.

Problem je sto ce sad developeri (i vec to rade) da se hvataju za DLSS/FSR kao optimizacija igre sa strane hardvera i da ne trose pare i vreme vise na to. Kome sporo radi jedino resenje ce biti kupi jaci hardver. Na konzoli imas limit HW i moras da imas igriv frejmrejt pa ce morati da se iole optimizuje, a PC ce postati gejming bunar u koji ubacujes pare. Jer rokovi rokovi rokovi, stock price, stock price, stock price... Samo da se sto pre izbaci da moze dalje da se stanca...


A FG nsam imao prilike da probam, ne zvuci mi narocito dobro (pogotovo od kako sam procitao kako radi), ali me interesuje neciji utisak. I ostavise ljudi par utisaka, gledam ove klipove, al se svede na to da sednes 5 minuta za masinu i probas sa i bez i bice ti jasnije kako ti lezi bez objasnjavanja...
 
Cime mere taj lag? Samo softver? Kako softver odredjuje koja je razlika od inputa do prikazane slike i da li uzima u obzir i lag samog displeja ili na taj softverski izmeren lag treba da se doda i lag displeja (jos jedno 10-15ms)?

Pitam jer me interesuje, nemam pojma kako mere.
Za monitore znam kako mere.
Ja koliko znam, makar u render pipeline-u možeš za svaki frejm da vidiš koliko šta jede resursa. Tj koliko milisekundi je potrebno za geometriju, šejdere, rasterizaciju, post process...
Pretpostavljam da je to moguće i za ostale funkcije, tako da nema potrebe da se meri bilo šta naknadno.

Edit: Opet nas napusti nezamenljivi član. U sledećoj epizodi - skywalker :)
 
Poslednja izmena:
Raster je "mrtva priča" samo ako svi odustanemo od kritika i samo plaćamo. Niko ne kaže da ne treba sa furaju generisane frejmove i ostalo kao pomoć za slabije modele i posebne uslove, ali bar bi top model od minimum dva soma morao da može da izgura bar 60fps u najnovijoj igri na sve ultra sa RT na 4K, inače čemu sve?
Pa može sa Ray Tracingom tj. blizu je 4090 recimo u C2077 ali sa Path Tracingom koji ima veći broj odbijanja zraka/svjetlosti je trenutno nemoguće. Tu mora da se koristi nekakva vrsta upscalera.

Nativni render jeste mrtav. Nove igre ako ne pokreneš sa nekakvim TAA ili uspcalerom izgledaju očajno. Moderni endžini jednostavno tako funkcionišu. DLSS/FSR je budućnost real time renderinga zbog RTa i PTa koji će svi koristiti i olakšava posao ovim novim developerima kod kreiranja igara sa vizuelne strane. I sve je to super, detaljni game worldovi, gledam refleksiju refleksije u barici ali nema progresa kod gameplaya. Koriste stare mehanike i sisteme, koji su nekako gore odrađeni nego ranije i nikako da taj dio igara ode u "next gen".

Za 5000 seriju uzeće je ljudi koji imaju 3000/2000/1000 seriju i to je to. Nema tu sada nekakvog mudrovanja.
 
Poslednja izmena:
Naprotiv, igraju oni pametno, i svi zadovoljni. Odavno je sve to sve samo ne zdrava konkurencija.
Igrali su pametno kad su izbacili polaris karte, sad su poceli da glume nvidiu sa cenama uz blagi popust, a mnogi samo zele jacu konkurenciju da bi ipak uzeli nvidia karte za povoljnije.
Evo jednog komentara sa reddit od ljudi koji samo trazu sto bolji price/performance i cekaju na rx9000 karte:
123.PNG
Ne znam kako ne mogu da nadju neki nacin da se zaustave skalperi. To odgovara suvise malom broju ljudi da bi se reklo da je svima u interesu, pa zato nece. Sa svom danasnjom tehnologijom, moralo bi da se resi.

Koliko je odvratno vreme doslo po tom pitanju, i da eventualno odlucis da nesto kupis, znas da ga prvo nece biti, a onda da ce biti po bolesnoj ceni. Pa cak i da pomeris psiholosku granicu na tu novu bolesnu MSRP....ne, mora duplo. Bas ne mogu da se naviknem na tako bolesno stanje.
Jedino da isporuce dovoljne kolicine od prvog dana, cak i ARC B580 su pokupili skalperi.
 
Najveca razlika u performansama posle 5090 vs 4090 ce biti 5060ti vs 4060ti (16gb verzija).
 
Volim kako svi kukaju na NVidiju kao da AMD ne radi iste stvari, samo inferiornije...i upscaling, i AI i fejk frejmovi i precenjene karte... :ROFLMAO:
Da, i onda stave cenu od $50 ispod konkurente nvidia grafe i cude se zasto niko ne kupuje, samo da bi spustili poprilicno cenu nakon par meseci, intel je u startu stavio dosta nizu cenu za B580 da bi ugrabio deo trzista i time moguce lojalne kupce buducih intel karti.
 
U ovom videu : CP77 - 4k DLSS4 MFGx4 Reflex Low Latency ON (ne znam da li je Reflex 2), sve opcije na max, sve ukljuceno RT andraci, sve latencija je manja od 40ms:
Pogledajte prilog 476636
Pogledajte prilog 476638




edit: Znaci 5080 nije prismrdela 4090 :D Xixixixixixixixixixi. Pa taj DLSS4 sa tim MFG ce biti dostupan i na 40xx generaciji tako da ono, kakve veze ima razlika ce i dalje biti ista ili slicna kao i sa rasterom.
Mislim da su rekli da će u početku Reflex 2 biti dostupan samo u Valorantu i The Finals.
Naleteo sam na tabelu koju je jedan forumaš sa TechPowerUp napravio u pokušaju da analizira podatke sa tog videa što si okačio

Latency (ms)​
FPS​
DLSS Super Res​
DLSS Frame Gen​
Ray & Path Tracing​
45​
+260​
Performance​
4x​
On​
25​
+400​
Performance​
4x​
Off​
28​
+90​
Performance​
Off​
On​
52​
+200​
Quality​
4x​
On​
46​
+160​
Quality​
3x​
On​
43​
+100​
Quality​
2x​
On​
35​
+60​
Quality​
Off​
On​
70​
+30​
Off​
Off​
On​
 
Sta sad, ispada da sa porastom laznih frejmova opada letencija? 🤣

Pa može sa Ray Tracingom tj. blizu je 4090 recimo u C2077 ali sa Path Tracingom koji ima veći broj odbijanja zraka/svjetlosti je trenutno nemoguće. Tu mora da se koristi nekakva vrsta upscalera.

Nativni render jeste mrtav. Nove igre ako ne pokreneš sa nekakvim TAA ili uspcalerom izgledaju očajno. Moderni endžini jednostavno tako funkcionišu. DLSS/FSR je budućnost real time renderinga zbog RTa i PTa koji će svi koristiti i olakšava posao ovim novim developerima kod kreiranja igara sa vizuelne strane. I sve je to super, detaljni game worldovi, gledam refleksiju refleksije u barici ali nema progresa kod gameplaya. Koriste stare mehanike i sisteme, koji su nekako gore odrađeni nego ranije i nikako da taj dio igara ode u "next gen".

Za 5000 seriju uzeće je ljudi koji imaju 3000/2000/1000 seriju i to je to. Nema tu sada nekakvog mudrovanja.

Skapirao sam sarkazam tek na pola teksta , daj nagovesti ga sledeci put malo bolje :LOL:
 
Poslednja izmena:
Sta sad, ispada da sa porastom laznih frejmova opada letencija? 🤣
Pa to Nvidia marketing želi da prikaže. :) Kao što reče gore Dusan94, na onim promo materijalima uporno porede latency u situaciji kada su i DLSS i FG isključeni i latency kada su i FG i DLSS aktivirani. Iako je tabela napravljena na osnovu par segmenata prikazanih na youtube klipu, vidi se da je latency najmanji kada se koristi samo DLSS bez FG (treći i sedmi red u tabeli). Svakako da uključivanje FG povećava latency, što se vidi i u tabeli.
 
^Jedan od onih prvih par videa koje sam spomenuo na prethodnim stranama, da dolaze:
1. Unboxing;
2. Prevrtanje grafe po rukama;
3. kad istekne embargo - onaj inicijalni nebitan benchmark.
Jer mora se monetarizovati na onome sto vec znamo..

@adder Da, vidim, al ceo marketing za 5000 seriju oni baziraju na koriscenju FG...
Jaaaoooooo, iz godine u godinu sve vise lazu. A mislio sam da je bilo strasno kada su pricali koliko je kolicina vrama nebitna i koliko je gddr6X brzi u realnom radu od gddr6 🤣
 
Poslednja izmena:
Najveca razlika u performansama posle 5090 vs 4090 ce biti 5060ti vs 4060ti (16gb verzija).
Сам "повратак" на стандардну 128битну магистралу донеће приметан скок. У срећнија времена 96битну магистралу смо могли да видимо само на најслабијим моделима графичких картица. Ја се потајно надам да гласине о 5060ти нису тачне, и да ће уместо са 16гб рама, доћи са магистралом од 192 бита и 12 гб рама. Мада знам да од тога нема ништа, али нада последња умире.
 
Volim kako svi kukaju na NVidiju kao da AMD ne radi iste stvari, samo inferiornije...i upscaling, i AI i fejk frejmovi i precenjene karte... :ROFLMAO:

Ma jedina razlika sto AMD to radi za $50 manje, sve ostalo je tacno kako si napisao. S tim sto AMD uglavnom radi sa open standardima, pa vise ljudi ima koristi nego od zatvorenih nvidia ekosistema, npr freesync vs gsync. Da se ne ponavljam, AMD FSR je za 1060 uradio vise nego sto je nvidia ikad.
 
Volim kako svi kukaju na NVidiju kao da AMD ne radi iste stvari, samo inferiornije...i upscaling, i AI i fejk frejmovi i precenjene karte... :ROFLMAO:
Voleo bih da vidim margine, ali realne na ovim stvarima, bojim se da AMD i ne može da prodaje ovo previše jeftino, ako koriste isti skupi proizvodni proces kao nVidia, ako svoj R&D moraju da otplate na daleko manjem broju jedinica, ako možda moraju i više da stimulišu partnere zbog manjeg obima proizvoda, možda oni i nemaju neku veliku zaradu ovde...
 
Voleo bih da vidim margine, ali realne na ovim stvarima, bojim se da AMD i ne može da prodaje ovo previše jeftino, ako koriste isti skupi proizvodni proces kao nVidia, ako svoj R&D moraju da otplate na daleko manjem broju jedinica, ako možda moraju i više da stimulišu partnere zbog manjeg obima proizvoda, možda oni i nemaju neku veliku zaradu ovde...
AMD zaradjuje sada na CPU-ovima i to debelo, nisu ovo FX dani kada ih je kupovina ATI-a umalo sahranila. Da zele da stvore nove cene i novu GPU realnost, mogu.. Ali dok god su brat i sestra od tetke na čelu firme, nema od toga ništa.
 
AMD zaradjuje sada na CPU-ovima i to debelo, nisu ovo FX dani kada ih je kupovina ATI-a umalo sahranila. Da zele da stvore nove cene i novu GPU realnost, mogu.. Ali dok god su brat i sestra od tetke na čelu firme, nema od toga ništa.
To su 2 odvojene divizije, 2 cost centra, samo zato što CPU divizija radi dobro, ne znači da će da daju deo svog profita drugom delu kompanije tek tako. IMHO da AMD nema biznis sa konzolama ne bi mi ni ova unapređenja dobijali koja dobijamo. Nego ovako konzole pokriju R&D, a onda se to samo upakuje za PC.
 
Nazad
Vrh Dno