Šta je novo?

Nvidia Ampere

Status
Zatvorena za pisanje odgovora.
Ja konzole ne volim ali oni ljudi znaju šta valja. HDR + Raytracing + AI upscale je budućnost gejminga a ne 500 Hz monitori od 27 incha i bezvezne battle royale igrice.

Možda su tebi bezvezne, ali budućnost gejmina je na ekranima od par inča, jer te bezvezne battle royal igrice u svojoj najlošijoj varijanti zarađuju najviše novca:

According to Sensor Tower, during the first quarter of 2020, Google Play hit 10.4 Billion mobile games downloads. That is a massive 39% jump year-on-year. The number of downloads continued rising and jumped to 12.4 Billion in the second quarter of the year. Statistics show the total number of downloads in Google Play store during the first half of 2020. It crosses 22.8 Billion, a 52% increase year-on-year.

https://www.gizchina.com/2020/08/26/app-store-gaming-category-brought-22-2billion-in-revenue/
sensortowr.jpg

Mi ostali sa ekranima od 27" i Televizorima smo umiruća vrsta dinosaurusa.
 
Poslednja izmena:
То фаталистичко гледиште уопште није тачно, док год буде било пара у РС гејмингу, биће и игара
 
Nema bitne razlike u Exodus sa i bez RT. Jeste vise flat bez, ali ta igra nije dobar primer RT-a.

Kada igras, to ces retko kada i primetiti, do 20% uticaja na performanse bi bilo mozda prihvatljivo.

Pogotovo zbog toga sto igre mogu da se isprogramiraju da imaju fenomenalno osvetljenje ako se ne implementira RT, a mi treba da placamo da njima bude lakse i stave RT umesto toga...

Nisam primetio da je u RDR 2 nesto lose zbog nedostatka RT.

Sent from my SM-N975F using Tapatalk
 
Poslednja izmena:
.... Čak i fake raytracing (SSR) preko ENB izgleda fantastično u kombinaciji sa Reshade. GTAV, Witcher 3, Watch Dogs, Skyrim, izgledaju kao druge igre kada se izmoduju. Jedva čekam da uzmem grafičku pa da opletem po tim igrama.... Ne razumem klince što pucaju lovu na monitore od 27 incha, sad kada sam video kako izgleda slika na 55 incha u 4K rezoluciji nema šanse da bi se zadovoljio bilo kakvim monitorom pa makar radio na 1000 Hz.

Bas to, sada kada sam se naviko na 4K i maximum graficki detalji na 4K TV (i to ovaj moj koji je valjda tu negde srednja klasa, .... ali malo ceprkam po NV Panel i oko backlight i brightness i gamma osvetljenju na TV i NV Panel osvetljenja i vibrance i hue i slicno, dobije se odlicna slika....:guitar:) sve ostalo mi deluje onako...:D.... i cekam neku 3080 da odigram jos igara u 4K.
 
Poslednja izmena:
4K tv koji gledaš sa koje udaljenosti?

Jer je dokazano da ako gledaš sa dovoljno velike udaljenosti ne možeš da vidiš razliku između 1080p, 1440p i 4k. Tako da ako si se dovoljno odaljio od tog TV, 4k sadržaj ne možeš ni da iskusiš.
 
Ajde mi reci sa koje udaljenosti mora da se gleda 55" da bi se video 4k?

Sent from my SM-N975F using Tapatalk
 
Od 0.8 dijagonale do 1.6. Zavisi od vida i sadržaja koji se gleda.

Za 55" što je dijagonala od 139.7, trebalo bi da sediš od 111cm do 223cm.

Naravno, ti sada možeš da napišeš da ti vidiš razliku i na 5 metara od TV-a, ali to moraš da testiraš objektivno.
 
Poslednja izmena:
Ma jok ništa se ne vidi razlika, isto je ko 1080p. Mi to tripujemo da vidimo razliku, život u zabludi je sladji ;)

Ja bi pre 80 incha i 8K, bash zato sto se ne vidi razlika. Da se jos vise zaludjujem da vidim nesto sto se ne vidi.
 
Poslednja izmena:
offtopic: @Envoy, je l' ti stvarno danas imaš ATI Radeon 3650 256MB?

Envoy ATI Radeon 3650 256MB.png
 
Da, jer nisam uzeo GPU sa novim kompom a stari sam prodao sa sve grafičkom. Jedino što sam uspeo da pronađem u starim kutijama su kartice iz praistorije od kojih je najjača 3650. Rendering radi na procesoru i zadovoljan sam kako radi ali osedeh čekajući Ampere, evo ima već tri meseca.
 
Možda su tebi bezvezne, ali budućnost gejmina je na ekranima od par inča

hahahahhahaha odavno se nisam ovoliko nasmejao na neki forumski post...
nemam komentara, jedno je zarađivati mnogo novca od mobilnih igrica a drugo je šta je budućnost gejminga, a to "gejming" na mobilnim telefonima svakako nije.

Mi ostali sa ekranima od 27" i Televizorima smo umiruća vrsta dinosaurusa.

Pre bih rekao suprotno ; korona, karantin i izolaciju su doprineli tome da ljudi uvide da je gejming na velikim displejima (monitorima i / ili televizorima),
dok si zabačen na krevet / kauč ili u stolicu veoma lep ugođaj i hobi koji donosi dosta zadovoljstva.
 
Da se vratimo na temu.
Ne verujem da je nVidia planirala da 3090 ima potrošnju od gotovo 400W. To mi govori da nešto sa proizvodnjom nije išlo kako treba. Sa obzirom da se još sa sigurnošću ne zna koje čipove radi Samsung a koje TSMC, može se desiti da će GA102 izrađivati Samsung ili da je nVidija računala na Samsung a potom prešla na TSMC te da nisu imali vremena da optimizuju proizvodni proces za ovaj čip.
Kada dodamo urođenu prednost AMD-a dat se nalazi u novim konzolama, mislim da AMD ovaj put ima šanse da bude konurentan i u nešto višoj klasi nego pre.
E sada ako se u utorak ili nakon predstavljanja Big Navi-ja ispostavi da sam omašio, vi opletite.
 
I meni se uopste ne svidja potrosnja, deluje kao da tu nesto nije poslo kako treba, stvarno je pitanje kako ce izgledati custom kartice i hladjenje i overclock koliko ce da bude i slicno. Vec pricaju da ce Nvidia verovatno kasnije mozda morati da predje na TSMC i slicno.

Bilo bi stvarno dobro kada bi AMD mogao da dostigne Nvidiu kao Intela kod procesora, da poboljsa drajver podrsku i funkcionisanje, pandan DLSS i slicno. Sto se tice perfomansi ne znam da li ce moci da dostigne i perfomanse 3080, mozda bude i neka 3080ti, deluje prevelika rupa izmedju 3080 i 3090. Recimo 2080Ti je na 4K jaca od 5700x vec za 40 - 60%, pa dodati na to i negde oko 20 -30% za 3080 i 50 - 60% za 3090 i dobijaju se velike brojke.

https://www.purepc.pl/test-wydajnosci-kart-graficznych-w-rozdzielczosci-3440x1440?page=0,4

Ne znam kako to moze AMD da dostigne, jos kazu da 3090 nije mozda skroz otkljucan cip, imam utisak neko je vec pisao, da Nvidia dozira perfomance u zavisnosti od AMDa. Ah, secam se kada sam imao 7970.
 
Koliko je poznato, nVidia je terala šegu sa TSMC-jem, pa je trenutno ostala bez 7 nm. Tako da ove karte kad izađu, bi trebalo da su izrađene u samsung-ovih 8 nm, koji su pak derivat samsung-ovih 10 nm.

S druge strane, da ne kažem kapitalističke, sledeće godine se vrlo verovatno otvara prostor za nVidiju u TSMC-ju, to bi značilo da se sledeće godine otvara prostor za "refresh" ovih karti koje treba da izađu.
 
Poslednja izmena:
Još da vidimo testove.
98497840849d7493016bb8b45a6ddc9a.jpg
 
Fake. Od kada se frekvencija memorije meri u gigabitima po sekundi.
 
Greskica, umesto Memory Clock treba da pise nesto drugo.
 
Poslednja izmena:
Od 0.8 dijagonale do 1.6. Zavisi od vida i sadržaja koji se gleda.

Za 55" što je dijagonala od 139.7, trebalo bi da sediš od 111cm do 223cm.

Naravno, ti sada možeš da napišeš da ti vidiš razliku i na 5 metara od TV-a, ali to moraš da testiraš objektivno.
Sa 5m ne moze da se igra na 55", ne vidi se nista.
Sa 3m jedva moze, ali se i tu vidi razlika na 4k, mada ni blizu kao kada sedim na 1-1.5m, kako inace i koristim.

Objektivno testirano, seo i video :)


Ja se nadam da ce 3090 moci da izgura 4k u narednih par godina bolje od 2080ti do sada.

Mada sa dlss-om, 4k gaming ce napokon poceti da bude malo masovnija pojava...samo da developeri pocnu da ga implementiraju.

Sent from my SM-N975F using Tapatalk
 
A i radne frekvencije GPU-a su daleko od napominjanih 2Ghz+. Znači očekivano ubrzanje u odnosu na prethodnu generaciju u aktuelnim igrama 30-40% a performance/watt nema poboljšanja.

Sent from my SM-G970F using Tapatalk
 
Još da vidimo testove.
98497840849d7493016bb8b45a6ddc9a.jpg

Koliko vidim ovde je 2080Ti FE i boost klok 1635mhz, obicna ima 1545mhz, dok je overclock custom modela negde oko 2000mhz. Onda mozemo ocekivati za 3090 i 3080 preko 2000mhz overklok.

Recimo, 3090 vs 2080Ti, visi klok, vise CUDA, veca memorijska propusnost, manji proces, pa trebalo bi to u 4K da bude jace minimalno oko 40%. Ovako mi deluje po specifikacijama da je 3090 vs 2080Ti, slicno kao 2080Ti vs 1080Ti gde je jaca u 4K za oko 40 - 60% u zavisnosti od igre.

Videcemo, ostaje cene, ali recimo jedna 3070 koja ce biti verovatno slicna 2080Ti i jaca u RTX, i recimo custom modeli oko 600E, deluje okey sobzirom da je ova bila 1.200E.
 
Poslednja izmena:
^ ice sigurno oko 2k i malo vise. Razlika koju si naveo ce biti otprilike tako posto ce 3090 biti nova TI verzija.

Sent from my SM-G770F using Tapatalk
 
Koliko vidim ovde je 2080Ti FE i boost klok 1635mhz, obicna ima 1545mhz, dok je overclock custom modela negde oko 2000mhz. Onda mozemo ocekivati za 3090 i 3080 preko 2000mhz overklok.

Recimo, 3090 vs 2080Ti, visi klok, vise CUDA, veca memorijska propusnost, manji proces, pa trebalo bi to u 4K da bude jace minimalno oko 40%. Ovako mi deluje po specifikacijama da je 3090 vs 2080Ti, slicno kao 2080Ti vs 1080Ti gde je jaca u 4K za oko 40 - 60% u zavisnosti od igre.

Videcemo, ostaje cene, ali recimo jedna 3070 koja ce biti verovatno slicna 2080Ti i jaca u RTX, i recimo custom modeli oko 600E, deluje okey sobzirom da je ova bila 1.200E.

Ma q okej, za 600e spakujes vrhunsko kuciste bez grafike, nenormalne cene, ali to je nista novo....
 
Sa 5m ne moze da se igra na 55", ne vidi se nista.
Sa 3m jedva moze, ali se i tu vidi razlika na 4k, mada ni blizu kao kada sedim na 1-1.5m, kako inace i koristim.

Objektivno testirano, seo i video :)

Ljudsko oko ima ugaonu rezoluciju. Kada svetlost prolazi kroz zenicu, mora da dodje do difkrakcije, sto nam je limitirajuci faktor. Zenica se u zavisnosti od osveljenja siri/skuplja, svetlost tj boje koje vidimo imaju razlicitu talasnu duzinu, to sve utice, ali generalno (kolko se secam) teorijska granica je 0.5 ugaonog minuta. Medjutim za 20/20 vid smatra ako vidis 1 ugaoni minut.

Dakle za 55" 4k, ako preracunas kolika je velicina pixela, ubacis malo matematike i dobijes da preko 120cm prestajes da vidis pojedinacne pixele.
55" 1080p, prestajes da vidis razlikujes pixele posle 230cm

E sad, ako imas vid koji se priblizava onom teorijskom limitu od 0.5 ugaonog minuta, onda mozes i sa preko 4m da razlikujes pixele na 1080p i preko 2m na 4k :)
 
Ne vidim piksele nikada na 4k tv-u sa 1+ metar, ali to nema nikakve veze sa rezolucijom igre.

Sent from my SM-N975F using Tapatalk
 
Čemu služi 24GB memorije na 3090?
Jel to karta za profi upotrebu?
 
Potrošnja mi je mnogo nešto visoka, pogotovo za 3080 - 320W.
To je skoro 30% više od RTX 2080 Ti pa ako ne bude toliko i brža imaće lošiji perf/watt.
A da li će biti 30% brža ? Karta će izgleda imati isti broj CUDA jezgara i nešto veću frekvenciju. Pretpostavimo da je nešto poboljšana arhitektura kao i dosta veći bandwidth, ja bih rekao ~15% brža od RTX 2080 Ti.

Nešto mi tu ne štima, zašto je toliko povećan memorisjki protok..nVidia obično ide na razne tehnike uštede i kompresije. Dalje, priča se da je broj tranzistopra povećan skoro 2x pa je možda dobar deo otišao na Tensor i RT jezgra..

Inače, cene deluju realno i već vidim kako će ići marketing.
RTX 3090 će imati 24 GB memorije i samim tim biće kao Titan koji je prethodni put koštao 2500$ tako da će "opravdati" veću cenu od RTX 2080 Ti
RTX 3080 će koristiti GA102 dok je RTX 2080 koristio TU104 čip pa će takođe biti bolja kupovina nego što je bio RTX 2080.
RTX 3070 će koristiti GA104 čip a njegov prethodnik je koristio TU106 (ako izuzmeno 2070 Super) što je opet bolje.

Iskreno, RTX 3080 za 700-800 evra ukoliko bude bio čak i malo brži od 2080 Ti mi deluje ok za high end kartu.

I konačno, gde se tu uklapa big Navi..po meni to je neki nivo baš kao RTX 3080, dakle ~15% brži od RTX 2080 Ti a cena verovatno oko do 50-100 $/€ niža od 3080.
 
Status
Zatvorena za pisanje odgovora.
Nazad
Vrh Dno