Šta je novo?

GeForce RTX 4000 Thread [za adapter, konektor i kabl postoji posebna tema]

^ totalna budalastina, stvarno šta sve rade i najgore od svega sto im prolazi.
 
trebalo bi CUDA core na 4080 da budu efikasnija od onih na 3080 tako da njihova brojnost nije ključni pokazatelj razlike.
Plus valjda taj out-of-order execution (SER) radi posao i kod procesiranja rasterske grafike ne samo kod RT ili samo kod AI "hackova" za bolju grafiku.
Naravno, već je rečeno da nije u razmeri u 1:1, zato sam napisao "puko poređenje", ali za sada nemamo ništa drugo za poređenje, plus za ono što je meni potrebno Cuda Cores je do sada bio presudan faktor, do duše do sada je proporcionalno rastao broj Cuda sa ostatkom grafike.
Pa s obzirom da je bafer i dalje 24GB, za pravu arhitektonsku vizualizaciju to je nepremostivo ogranicenje. Jedan 8K materijal je tu negde oko 250MB, plus geometrija, plus svetlo, plus displacement... pojede se to jako brzo. A da se da 2000e da bi se renderovalo u 2k... pa onda i nema neke poente. Uzme se threadripper, 128GB RAM i zavrsen posao. Mozda je 24GB dovoljno za mnoge druge poslove ali to na sta nV gadja (videlo se jako dobro u prezentaciji koje softvere su potencirali), tu treba ipak veci bafer od 24GB za posao veceg obima. Okreni obrni, hardverski su sigurno sve do jedne odlicne, ogranicenja su tu kao i uvek. Cene ne daj Boze. Sad se ceka AMD pa da vidimo ko kosi a ko vodu nosi narednih 3 godine :D
Ne znam u čemu radiš, ja se igram malo u Blenderu, gde je 3090Ti bukvalno Holy Grail, iako ima samo 24GB rama, pa čak i grafika sa 8Gb može dosta da uradi u renderu, za ono što prelije tu je CPU, ili render farma. Ali ono što je možda i bitnije od rendanja je sam rad u realnom vremenu, mnogo znači kad nesmetano radiš, a ne da se vuče i secka, i da se gubi vreme na čekanje dok se promena desi.... Meni bi recimo 3080Ti bio sasvim dovoljan, šteta što ta grafika nema 16Gb rama. Nažalost Radeon grafike su loše u Blenderu, AMD se trudi da reši taj problem, guraju svoj ProRender engine, a za Cycles se koristi HIP, dok se to ne reši, osuđeni smo na nVidia Cuda/optiX.
A što se tiče količine memorije na 3000 i 4000 seriji, totalno je bez smisla i logike, glupo trošiti reči na to.
 
Poslednja izmena:
^ a to će se dodatno plaćati 😀
 
Ne znam u čemu radiš, ja se igram malo u Blenderu, gde je 3090Ti bukvalno Holy Grail, iako ima samo 24GB rama, pa čak i grafika sa 8Gb može dosta da uradi u renderu, za ono što prelije tu je CPU, ili render farma. Ali ono što je možda i bitnije od rendanja je sam rad u realnom vremenu, mnogo znači kad nesmetano radiš, a ne da se vuče i secka, i da se gubi vreme na čekanje dok se promena desi.... Meni bi recimo 3080Ti bio sasvim dovoljan, šteta što ta grafika nema 16Gb rama. Nažalost Radeon grafike su loše u Blenderu, AMD se trudi da reši taj problem, guraju svoj ProRender engine, a za Cycles se koristi HIP, dok se to ne reši, osuđeni smo na nVidia Cuda/optiX.
A što se tiče količine memorije na 3000 i 4000 seriji, totalno je bez smisla i logike, glupo trošiti reči na to.
Nije problem u cemu se radi (v-ray) nego koliko je to sto se radi. Nasi projekti su uglavnom visemilionska kvadratura. Znam ja da je 3090 odlicna ali jednostavno je limitirana kolicinom bafera za velike obuhvate ako se isti model radi detaljnije.
 
DLSS-3-Performance-scaled.jpg


Verovatno je DLSS 3 Performance.
 
Pa ova karta koliko kosta treba u native da gura ovakve perfomanse, a da DLSS ostave za low end karte kojima treba boost...
 
Nvidija ce da gurne da low end karte imaju ovakve performanse u nizim rezolucijama.
 
Prebacuje se priča na DLSS kao glavno oružje. Što i nije tako loše kad se sve sagleda.
 
Jedva cekam da kupim RTX 4050 za 499e i igram se na 1080p, a ako hocu medium 1440p, upalicu DLSS. Prejadno.

Vidim da moja GTX 970 i dalje nema razloga za promenu.
 
Prebacuje se priča na DLSS kao glavno oružje. Što i nije tako loše kad se sve sagleda.
Katrastrofalno je, jer DLSS 3 je interpolacija frejmova praktično, nemaš nikakav realni benefit kao da stvarno imaš veći framerate. Imaš izmišljeni frame između dva prava.
 
Katrastrofalno je, jer DLSS 3 je interpolacija frejmova praktično, nemaš nikakav realni benefit kao da stvarno imaš veći framerate. Imaš izmišljeni frame između dva prava.
Nisam mislio na DLSS3 već na DLSS generalno i slične tehnologije. A ta interpolacija na papiru ne deluje baš dobro. Videćemo u praksi kako će se pokazati.
 
Nije problem u cemu se radi (v-ray) nego koliko je to sto se radi. Nasi projekti su uglavnom visemilionska kvadratura. Znam ja da je 3090 odlicna ali jednostavno je limitirana kolicinom bafera za velike obuhvate ako se isti model radi detaljnije.
To je tacno, 24GB nije puno za arhitekturalnu vizalizaciju. Ali zar ti modeli kao 3090 ne podrzavaju NVLink vezu? Pa da se kolicina VRAM-a sa 2 karte udvostruci. Verovatno nije veza pri punoj brzini, ali svakako dovoljno efikasna za koriscenje u 3D vizualizaciji.
 
no, 4000 ne podržava NVLink, koliko sam ispratio. a i za takvo renderovanje postoji RTX 6000, kao što je napisao @Dusan K
 
Da, tacno. RTX 4090 ne podrzava. A iz 3000 serije, jedino 3090 i 3090Ti podrzavaju.
 
Poslednja izmena:
Katrastrofalno je, jer DLSS 3 je interpolacija frejmova praktično, nemaš nikakav realni benefit kao da stvarno imaš veći framerate. Imaš izmišljeni frame između dva prava.
Well moze biti responsive ako su dobro podesili sistem. Ako rade polling input-a sa keyb/misa i generisu novi frejm koristeci up to date podatke, ne bi trebalo da bude laggy. DF ce nam dati jasan odgovor.

Inace, mene interesuje da li ce Frame Generation biti neki toggle u igrama ili u Nvidia Control Panel-u? Da li ce RTX40 korisnici uvek dobijati izmisljenje frejmove ili ce moci da to iskljuce i dobiju last gen DLSS 2.?
 
Dovoljno je da malo bacite pogled na DF preview video za DLSS 3 i shvaticete da ce to biti smeary mess u pokretu... Pogledajte samo artefakte oko ruku kao primer
Nekada su AMD i nV stavljali na lomacu kad su radili "optimizaciju" drajvera da bi dobili vise poena u benchmarku uz nizi kvalitet prikaza, a sada je to kao glavni feature nove generacije.
 

Prilozi

  • Screenshot 2022-09-23 131755.png
    Screenshot 2022-09-23 131755.png
    2.1 MB · Pregleda: 104
Imao je i DLSS 1.0 gomilu artifakata [pa i DLSS 2], pa su to sredili sa novim verzijama. Nece ovo sto prikazuju sada biti statican proizvod.
 
Onda neka i koriguju cene prema tome, s obzirom da je DLSS 3 jedna od najvecih "prednosti" koja je reklamirana. Samo se ponavlja Turing, RTX nedopecen a reklamiran kao holy grail 2018te.
 
Well moze biti responsive ako su dobro podesili sistem. Ako rade polling input-a sa keyb/misa i generisu novi frejm koristeci up to date podatke, ne bi trebalo da bude laggy. DF ce nam dati jasan odgovor.

Inace, mene interesuje da li ce Frame Generation biti neki toggle u igrama ili u Nvidia Control Panel-u? Da li ce RTX40 korisnici uvek dobijati izmisljenje frejmove ili ce moci da to iskljuce i dobiju last gen DLSS 2.?
Biće kako je namešteno u igri, ako daje više verzija DLSS ili koristiš FSR ili native. Ali DLSS 3 podrazumeva ovo o čemu pričam.
To je čista glupost, koju su nabili da kartice deluju bolje nego što jesu, ne znam da li je zapravo ikad bilo veće laganje što se tiče performansi, jer bukvalno čini FPS beskorisnim merilom performansi.
 
Po ovom poređenju sa linka nove karte su dobre, slabija 4080 kao 3090Ti uz manju potrošnju. Cena je jedini problem i to bi moglo da se reši ako ne bude otimačine kao sa prošlom generacijom.

ADA-GPUS-SPECS-768x399.jpg
 
^ ne verujem po cenama koje će biti da će se ljudi tek tako zaletati u kupovinu.
 
Po ovom poređenju sa linka nove karte su dobre, slabija 4080 kao 3090Ti uz manju potrošnju.
U tome je i prvi problem, uvek je xx70 serija bila na nivou flagshipa prosle generacije, uz manju potrosnju. Ne xx80, pa cak i slabije verzija iste.

Drugi problem je sto je jadno na vise nacina sto su kartu, koja je ocigledno bila planirana kao 4070 rebrendirali da bi masa mogla da proguta cenu od $900 ili 1k+ evra. A ta cena je treci problem.

Njje dobro, sramotno je. Ali Nvidia nema o cemu da brine, trenutno. Ne zaboravite da su AIB partneri potpisali ugovore sa Jensenom ouvaj, Nvidiom pre nego sto zu znali cene novih cipova. Mogu da se kladim da su mu j***i milu majku kada su videli cene na prezentaciji, sto je jos jedan problem. Nvidia je vec zaradila kes, boli ih tuki do sledece generacije.

A kada 5000 serija dodje aib partneri se nece zaletati i narucice manje cipova nego sad, barem oni koji prezive ovu generaciju. Zato ce lepo Nvidia pojacati svoje proizvodne kapacitete i doci na korak blize onome na sta Jensen onanise vec duze vreme, zatvoreni ekosistem a la Apple gde Nvidia sve kontrolise i gde jedino mozete uzeti FE karte.

I da, pre nego sto neko napise ali ali 2080 je bila samo 20 odsto brza od 1080 Ti, 1080 Ti je bila outlier koji se desava jako retko (kao, recimo, dobra stara 8800 GT, najbolja graficka koju sam ikada imao).
 
Jel su ikada bile u Srb FE karte po domacim radnjama
 
Inace sam hteo da posle duzeg vremena nabavim FE, sad vidim da cu to i morati da uradim kakve su ove ostale :LOL:. Bas mi nikako nije jasno odakle im ideja da tako nesto prave. Kome je to namenjeno, pretpostavljam da deci nije? Ako je odraslima, onda jos manje smisla ima. Ukusi na stranu, ovo je van te price, ovo je bas sramotno u svakom smislu.

Secam se onih ranijih slika na kutijama grafickih, koja je to komedija bila... 3dfx je shvatio da to ne treba tako i pokusao da malo uozbilji pricu oko prezentacije tih ultra tehnoloski naprednih kartica, ali zavrsilo se lose iz drugog razloga. Svidela mi se ideja tada da ponudis nesto kao "paket" ili ideju, ne samo evo kartica koja svetli u najgoroj kutiji ikada i igrajte se deco, "to vam je za IGRICE".


Jos da vidimo sta ce AMD da uradi...
 
 
Nazad
Vrh Dno