Šta je novo?

GeForce RTX 2000 Thread

osim ako ne gajis 4k rezoluciju... exactly, sherlock.
u 800x600 i 1050 sabija

Nemoj da preterujes, kao sto rekoh, veci perf je potreban samo za 4K i one koji igraju na 144Hz, a mislim da nije puno tih lovatora, pogotovo u Srbiji, tako da bih zanemario taj zanemarljiv broj korisnika.
Perf je nebitan za novu generaciju, jer tu pricu je resio Pascal, a Nvidia je uradila ono sto je i trebalo, obzirom da ne treba perfa, fokusirala se na tehnologije, RTX i Deep Learning.
 
Performanse su uvek potrebne. Možda broj 144Hz/4k/VR gejmera nije veliki, ali nije ni zanemarljiv. Tu su i korisnici koji koriste GPU za druge poslove (GPGPU)

@PCBeast
Kako sad to. Do sada je uvek bila priča da nVidia daje najbolje performanse od prvog dana, a da je AMD taj kome treba vremena da ispegla drajvere :d

Da je GP102 spušten u 12nm, imali bi čip koji je za gejming isti kao TU104, ali 100-150 mm^2 manji. Tj. dosta jeftini za proizvoodnju. Siguran sam da je DLSS moguće implementirati sa CUDA jezgrima i baš bih voleo da vidim koja je razlika između 3500 CUDA jezgara i 350 Tenzor jezgara u tom slučaju. Posebno što se mreža trenira tokom kreiranja igre, a kod korisnika se vrši "samo" prepoznavanje scena
 
Jesu bitne kad fale, ali sad kad imas kartu koja tera svaki 4K naslov u 60-fps najmanje, ne vidim razloga za nezadovostljvo ka tom segmentu, vec samo ka ceni.
 
Performanse su uvek potrebne. Možda broj 144Hz/4k/VR gejmera nije veliki, ali nije ni zanemarljiv. Tu su i korisnici koji koriste GPU za druge poslove (GPGPU)

@PCBeast
Kako sad to. Do sada je uvek bila priča da nVidia daje najbolje performanse od prvog dana, a da je AMD taj kome treba vremena da ispegla drajvere :d

Da je GP102 spušten u 12nm, imali bi čip koji je za gejming isti kao TU104, ali 100-150 mm^2 manji. Tj. dosta jeftini za proizvoodnju. Siguran sam da je DLSS moguće implementirati sa CUDA jezgrima i baš bih voleo da vidim koja je razlika između 3500 CUDA jezgara i 350 Tenzor jezgara u tom slučaju. Posebno što se mreža trenira tokom kreiranja igre, a kod korisnika se vrši "samo" prepoznavanje scena

Ne moze da prodje ni jednom a da se malo ne pecne, AMD vs nVidia i fanbojisanje? :d

Turing nije isto sto i Pascal, ja se nadam da si dobro procitao sta sam napisao jer uvek tezim da budem sto precizniji.

Drugo, i kod AMD i kod nVidia, sasvim svejedno, nakon nekog vremena svakako imas gain. Taman toliko, neko vreme da prodje, jos malo prilagodjavanje novoj arhitekturi
i doci ce se na tu prednost koju sam pominjao.

Apropo procesa proizvodnje, koliko sam mogao da se informisem, Turing i nije prvobitno namenjen /dizajniran za 12nm vec za 7nm ali je redizajniran za 12nm.
Povrsinu chip-a dosta zauzimaju tensor jezgra, stoga je Turing u odnosu na prethodni Pascal dosta veci ali ne i proporcionalno brzi.

Ja cu opet ponoviti, meni se ovaj koncept uopste ne svidja, vise sam za sirove performanse, valjda stara boljka :D
 
Nemoj da preterujes, kao sto rekoh, veci perf je potreban samo za 4K i one koji igraju na 144Hz, a mislim da nije puno tih lovatora, pogotovo u Srbiji, tako da bih zanemario taj zanemarljiv broj korisnika.
Perf je nebitan za novu generaciju, jer tu pricu je resio Pascal, a Nvidia je uradila ono sto je i trebalo, obzirom da ne treba perfa, fokusirala se na tehnologije, RTX i Deep Learning.

o cemu pricas, lovatora... imam 4k qled tv vec sace 3 godine a nisam nikakv "lovator"...

cena je naravno problem, pa da dele dzabe karte niko ne bi polemisao... da top consumer gpu cena nije podignuta sa 500$ na 1500$ u 3-4 godine...

sve te "tehnologije" su mogle i kroz universal compute i brute force al onda nisu propriatery, svako moze da emulira brute force i universal compute...
 
Poslednja izmena:
Pojavile se sa cenom i kod nasih Madjara

ASUS DUAL GeForce RTX 2080 8GB OC Edition od 945e do 1000e
 
Jesu bitne kad fale, ali sad kad imas kartu koja tera svaki 4K naslov u 60-fps najmanje, ne vidim razloga za nezadovostljvo ka tom segmentu, vec samo ka ceni.
Ako nam treba 144 Hz u 1080p, zašto ne bismo tražili isto to u 1440 i 4K? Zamisli da igraš BF ili CoD ili šta već u 4K, 144 FPS sa Raytracingom na G-Sync HDR monitoru :)

Ne moze da prodje ni jednom a da se malo ne pecne, AMD vs nVidia i fanbojisanje? :d

Turing nije isto sto i Pascal, ja se nadam da si dobro procitao sta sam napisao jer uvek tezim da budem sto precizniji.

Drugo, i kod AMD i kod nVidia, sasvim svejedno, nakon nekog vremena svakako imas gain. Taman toliko, neko vreme da prodje, jos malo prilagodjavanje novoj arhitekturi
i doci ce se na tu prednost koju sam pominjao.

Apropo procesa proizvodnje, koliko sam mogao da se informisem, Turing i nije prvobitno namenjen /dizajniran za 12nm vec za 7nm ali je redizajniran za 12nm.
Povrsinu chip-a dosta zauzimaju tensor jezgra, stoga je Turing u odnosu na prethodni Pascal dosta veci ali ne i proporcionalno brzi.

Ja cu opet ponoviti, meni se ovaj koncept uopste ne svidja, vise sam za sirove performanse, valjda stara boljka :D
Kakvo prilagođavanje novoj arhitektu? Te novine koje su implementirane u današnji čip su poznate developerima drajvera već dve godine. Tj. drajveri treba da budu gotovi nekoliko meseci pre izlaska novih čipova. Peglanje (treba da) se radi između test serija i masovne proizvodnje

Kažem, za gejmere bi najbolje bilo da su dobili smanjeni GP102, jer bi dobili iste performanse (sa RTX 2080) po nižoj ceni. Ili istoj ceni sa većom zaradom za nVidia-u :D Ali i ovo nije iznenađenje. Imaju resurse (ljude i novac) da guraju ono u čemu su najbolji i nema im se šta zameriti. Naravno, imaju i resurse da guraju dve arhitekture istovremeno, ali procenili su da je ovo bolje

Kako će industrija prihvatiti sve ovo, ostaje da vidimo. Inače Intel je još sa Larrabee kartom gurao raytracing, a taj projekat je otkazan pre skoro 10 godina :D Videćemo (za godinu, dve) šta su spremili za novu avanturu. Takođe, sa svojim FPGA čipovima su izuzetno konkurentni u AI rešenjima. Tako da ako/kada se ove novine omasove, vrlo je moguće da će im glavni konkurent biti Intel. S druge strane, imajuću i vidu da je i MS u poslu (DXR u DX12, AI...), očekujem da će i konzole videti ovakve ili slične novine. Posebno što Sony takođe ima iskustva u "varanju" da bi se dobio bolji kvalitet. Možda neće biti ANN, ali će efekat biti sličan

Opet ponavljam, ja sam impresioniran ovim čipovima. Ali mene FPS i kvalitet ne interesuju, pa je možda zbog toga :D
 
Poslednja izmena:
Kako god se uzme, mozda ti je ovako lakse da konzumiras, "peglali" ili ne peglali, unapredjenjem drivera ce svakako postici skok u performansama i iskoristiti bolje Turing.
Hoces da kazes da ce nivo performansi ostati isti sada i tipa za nekoliko meseci, pola godine, godinu? Turing je mnogo kompleksniji od Pascal-a, stoga su vece mogucnosti da se dobije
veci gain kasnije nego day one u odnosu na Pascal day one koji je bio laksi za optimizaciju drivera. Meni je to logicno.
 
Bilo bi logično da je u pitanju AMD. Kada je nVidia u pitanju, siguran sam da imaju dovoljno resursa da odrade to kako valja od početka. Takođe, deo koji se odnosi na TC se nalazi u GV100 čipu koji je dostupan već godinu dana. I koliko sam ispratio, SM je manje više kao u Volti. I izrađeni su u istom procesu. Tj. Turing je malo (ili malo više) unapređena Volta arhitektura, a ne mnogo unapređeni Pascal. Takođe, i Pascal je imao mnogo novina u odnosu na Maxwell, pa je jedino što je vremenom ispeglano drajverima Async compute, ako me pamćenje dobro služi
 
Sony naplati 400 evra hardver i od tih para finansiraju razvoj igrica. Nije mi jasna logika po kojoj samo graficka kartica za PC kosta 1400 evra a sluzi igranju igrica. To bi imalo smisla kada bi nVidia ulagala u razvoj igrica koje koriste njihov hardver u potpunosti. Znaci da u narednih godinu dana izadju bar dve vrhunske igrice sa ful podrskom za Raytracing koje je 100% finansirala nVidia i da to sve u paketu izgleda bar tri puta bolje od svih drugih konkurenata jer toliko i kosta. Ono sto su do sada pokazali ne izgleda ni 20% bolje jer raytracing u igricama sve manje ima smisla sa napretkom rasterske grafike a oni su samo rejtrejsovali senke i refleksije. Nasli su najmrtvijeg moguceg konja za mlacenje. Voodoo je bio WOW, GeForce 256 je bio WOW, Radeon Toy Shop Demo je isto bio WOW, Crysis je bio WTF, ovo je bezveze.

Definitivno se iz godine u godinu pokazuje da su igraci PC igrica najgori konzumenti bilo cega i da im se sve moze podvaliti. Konzole em imaju vrhunske igre, em je jeftina varijanta.

Posebno što Sony takođe ima iskustva u "varanju" da bi se dobio bolji kvalitet.

A sta tebe briga kako oni to postizu kada je efekat 99% isti u normalnim uslovima koriscenja? Jedino ako se nabijes sa lupom na ekran pa prebrojavas piksele videces razliku izmedju native i checkerboard.
 
Poslednja izmena:
Mene baš briga kako oni dolaze do bolje slike. Poneta je bila da DLSS nije jedino rešenje, tj. što je možda bitnije, možda se sličan rezultat može dobiti bez dodatnih posebnih segmenat čipa, u ovom slučaju tenzor jezgara. Koji za gejming nemaju drugu funkciju, pa ako igra nema DLSS, stoje i zauzimaju prostor. Možda se moglo postići nešto slično novim CUDA instrukcijama ili drugim izmenama koje bi imale manji uticaj na površinu čipa
 
o cemu pricas, lovatora... imam 4k qled tv vec sace 3 godine a nisam nikakv "lovator"...

Kad kazem 4K, mislim naravno na monitor (koji su skupi), ne na TV, na kojem ne moze da se igra od kolicine laga i da ne pominjem sto onda ne mozes da koristis misa i tastaturu, totalno je neozbiljno pominjati tv kao igracku opciju, osim ako se ne igraju konzolaski naslovi na dzojpedu i ako se trpi lag.
 
Krsteni 4K televizori imaju nizak input lag, veci je problem lag koji stvara gamepad nego li televizor ali eto, posto su igrice u pitanju, zabava jelte, vecini ne smeta i igraju se Spajdermena i ostalih popularnih igrica sve u 16. Sto se konzolaskih naslova tice, sve igrice su danas konzolaske jer se prvenstveno prave za konzole. Poslednja prava PC igrica je Crysis a to je izaslo jos davne 2007. godine, pre 11 godina.

Jedine kvalitetne singlplejer igrice koje su izasle u zadnje dve godine su na konzolama, za PC sve neki multiplejer naslovi sa lootboxovima. Obzirom da je mining na kolenima, nVidiji nije nista drugo preostalo nego da agresivno napadnu ono sto im je ostalo, samo jezgro fanboja koji ce platiti koliko oni traze. Kada vec ne mogu postici ekonomiju obima posto kvalitetnih PC igara nema pa samim tim ni onih koji bi platili skup PC hardver onda bar da podignu cene i na taj nacin zarade. Samo me zanima dokle planiraju da idu za high end GPU. Tri hiljade evra, cetiri hiljade evra? Koja je granica gde ce ljudi reci ne?

Mene baš briga kako oni dolaze do bolje slike. Poneta je bila da DLSS nije jedino rešenje, tj. što je možda bitnije, možda se sličan rezultat može dobiti bez dodatnih posebnih segmenat čipa, u ovom slučaju tenzor jezgara. Koji za gejming nemaju drugu funkciju, pa ako igra nema DLSS, stoje i zauzimaju prostor. Možda se moglo postići nešto slično novim CUDA instrukcijama ili drugim izmenama koje bi imale manji uticaj na površinu čipa

Rece covek gore zasto to nije tako uradjeno. Proprietary technology ce uvek biti prvi izbor nVidije a posto nemaju konkurenciju u ovom segmentu trzista mogu da rade sta im volja. Intel je isto muzao kupce godinama sve dok se AMD nije probudio pa smo najednom dobili duplo vise jezgara i od Intela za iste pare kao ranije.

Gledam onaj Metro nVidia demo i iako znam da nije fizicki ispravno bar u trecini scena mi se vise dopada osvetljenje RTX Off. Sto ne znaci da sam u pravu jer nisam ali je efekat toliko slab da ceo marketing zasnovati na tome nema nikakvog smisla. Moralo je to mnogo, mnogo bolje za 1400 evra.
 
Poslednja izmena:
U NV igraju na sigurno. Dali su velika RTX obećanja, preorder, i sada čekaju da vide kako riba grize. Ako ne bude grizla RTX mamac, onda će onaj stari paskalov. Kada se proda stari, onda mogu driverima da zanemaruju polako stare karte a da od novih prave fine wine. Utom će stići nove igre sa RTX i DLSS i hajp a i cena može da se koriguje, nije beg cicija. U svakom slučaju, ne'š igrat jeftino skoro.
 
Superposition_Benchmark_v1.0_3781_1537503862.png:smoke:
Superposition_Benchmark_v1.0_24584_1537504260.png
 
Poslednja izmena:
Kad kazem 4K, mislim naravno na monitor (koji su skupi), ne na TV, na kojem ne moze da se igra od kolicine laga i da ne pominjem sto onda ne mozes da koristis misa i tastaturu, totalno je neozbiljno pominjati tv kao igracku opciju, osim ako se ne igraju konzolaski naslovi na dzojpedu i ako se trpi lag.

taj lag o kom pricas je moot za sve sem za kompetetivni first person shooter... dakle jedan zanr i to na nivou gde ti vec pravis pare na svojoj vestini, dal streamingom, dal takmicenjima... u redu, onda ti je lag od 8, 16 i 32ms razlika... u kucnoj varijanti sve ispod 32ms laga je neprimetno za 95% sadrzaja...

testirajte navedeno, ogranicite fps na 58 pa igrajte nesto, onda skinite ogranicenje pa igrajte na 60... esencijalno, ista stvar, dva frejma = lag od 32ms... ako na blind testu izvalite razliku onda svaka cast.

ne znam zasto ne bi mogao da koristis misa i tastaturu, ja ih koristim sasvim lepo na tv od 50"... sta da igram civ na dzojpedu?! lol

EDIT: samsung JU6800 u game modu ima lag od 26ms... kao nije za top cs 1337 gameplay ali za sve ostalo sije...
 
Poslednja izmena:
Šta sve neću da čujem ovde...sada ispada da je "proprietary" jer postoje posebne RT i Tensor jedinice u čipu :D Pa kakve veze ima koja je fizička implementacija sa time da li tehnologija proprietary ili nije ?!
Tehnologija može da bude proprietary nevezano za fizičku implementaciju GPU-a, to je više vezano za software. A drajver će odlučiti gde će taj software da se izvrši, da li na CUDA, Tensor ili RT procesorima.

Pored toga, RT i Tensor jezgra su sada deo SM-a, tako da to nije neki posebni deo čipa koji je negde izdvojen:

turing-sm-300x511.jpg


Sa Ananda:

But real time ray tracing being what it is, it was always a matter of time before it became feasible, either through NVIDIA or another company. DXR, for its part, doesn't specify the implementations for running its hardware accelerated layer. What adds to the complexity is the branding and marketing of the Turing-related GeForce RTX ecosystem, as well as the inclusion of Tensor Core accelerated features that are not inherently part of hybrid rendering, but is part of a GPU architecture that has now made its way to consumer GeForce.
 
Poslednja izmena:
Neka pojašnjenja oko toga kako RT radi i koje su razlike između 'software-ske' implementacije putem shader-a i RT core-ova:

Being so crucial to their achievement, NVIDIA is not disclosing many details about the RT Cores or their BVH implementation. Of the details given, much is somewhat generic. To reiterate, BVH is a rather general category, and all modern raytracing acceleration structures are typically BVH or kd-tree based.
Unlike Tensor Cores, which are better seen as an FMA array alongside the FP and INT cores, the RT Cores are more like a classic offloading IP block. Treated very similar to texture units by the sub-cores, instructions bound for RT Cores are routed out of sub-cores, which is later notified on completion. Upon receiving a ray probe from the SM, the RT Core proceeds to autonomously traverse the BVH and perform ray-intersection tests. This type of ‘traversal and intersection’ fixed function raytracing accelerator is a well-known concept and has had quite a few implementations over the years, as traversal and intersection testing are two of the most computationally intensive tasks involved. In comparison, traversing the BVH in shaders would require thousands of instruction slots per ray cast, all for testing against bounding box intersections in the BVH.
Returning to the RT Core, it will then return any hits and letting shaders do implement the result. The RT Core also handles some grouping and scheduling of memory operations for maximizing memory throughput across multiple rays. And given the workload, presumably some amount of memory and/or ray buffer within the SIP block as well. Like in many other workloads, memory bandwidth is a common bottleneck in raytracing, and has been the focus of several NVIDIA Research papers. And in general, raytracing workloads result in very irregular and random memory accesses, mainly due to incoherent rays, that prove especially problematic for how GPUs typically utilize their memory.

GeForce_EditorsDay_Aug2018_Updated090318_1536034900-compressed-030.png

GeForce_EditorsDay_Aug2018_Updated090318_1536034900-compressed-031.png

Iako nema mnogo detalja o tome kako RT jezgra rade, može da se dobije neka slika zašto se išlo na fixed function hardware.

Vezano za ray tracing use case:

The specific implementation is ultimately in the hands of developers, and NVIDIA naturally has their raytracing development ecosystem, which we’ll go over in a later section. But because of the computational intensity, it simply isn’t possible to use real-time raytracing for the complete rendering workload. And higher resolutions, more complex scenes, and numerous graphical effects also compound the difficulty. So for performance reasons, developers will be utilizing raytracing in a deliberate and targeted manner for specific effects, such as global illumination, ambient occlusion, realistic shadows, reflections, and refractions. Likewise, raytracing may be limited to specific objects in a scene, and rasterization and z-buffering may replace primary ray casting while only secondary rays are raytraced. Thus, the goal of developers is to use raytracing for the most noticeable and realistic effects that rasterization cannot accomplish.

Zanimljivost iz Star Wars Reflections demoa:

Even when they do arrive, we can at least assume that enabling real time ray tracing will incur a performance hit. Based on the hands-on and comparing performance in the demos, which we were not able to analyze and investigate in time for publication, it seems that DLSS plays a huge part in halving the input costs. In the Star Wars Reflections demo, we measured the RTX 2080 Ti Founders Edition managing around a 14.7fps average at 4K and 31.4fps average at 1440p when rendering the real time ray traced scene. With DLSS enabled, it jumps to 33.8 and 57.2fps.
 
Ok znaci da ce na 1440p biti igrivo, bez DLSS-a je stvarno katastrofa, moci ce prva generacija ipak da gura ovo raytracing cudo a ovi na 4k neka placu xD
 
2080TI, ne 2080 ili 2070. Ne cela generacija.
 
Gledao oglase pojavile se kartice 2080 1000e okruglo, milina :D

Poslato sa RNE-L21 uz pomoć Tapatoka
 
Ima i za 940 evra na kp ali i to je ekstremno skupo.
 
945,940,1000e za 2080 i to još ovi šverceri... lele koja cena će zvanična da bude u radnjama onda. :trust:
 
ne znam zasto ne bi mogao da koristis misa i tastaturu, ja ih koristim sasvim lepo na tv od 50"... sta da igram civ na dzojpedu?! lol

Pa kako da koristis tast i misa na krevetu ili fotelji? jedino da uzmes couchmaster il takvo neko pomagalo/postolje.
Koliko si platio taj 4K 50" TV?
 
Ovde ostaje pitanje kako ce se gaming industrija razvijat, za sada samo tensor za DLSS ima smisla, mada i tada procenat koji otpada na njega nije bas mali pa ostaje pitanje da li je to prednost?
za RTX nisam pametan to tek treba da vidimo koliko konvencionalni pristup svetlosti i refleksiji moze da napreduje u odnosu na RTX

Sve bi ovo bilo ok da cene nisu ovolike, po ovim cenama RTX jednostavno nema smisla kupovat

PS: u tensor vise verujem ali tek za koju generaciju kad bude vise fleksebilan da se iskoiristi i za druge stvari
 
Poslednja izmena:
Bog te, ode 2080ti na 200k [emoji23]

Sent from my SM-G965F using Tapatalk
 
Nazad
Vrh Dno