Šta je novo?

Nvidia GeForce RTX 5000 - Blackwell

^Evo ga ovaj sto se sokira na svakom thumnailu. xD

@Mare
Pa drugacija bi prica bila tad.
Svi znaju da AMD zakupljuje procese u TSMC za izradu svega i broj tih procesa je ogranicen za sve vendore tako da imaju ogranicene mogucnosti na sta ce da se fokusiraju.
Posto dobar deo proizvodnje cipova ide za konzole, AMD ne moze u velikoj meri bez jos ozbiljnijih ulaganja, da prvo potisne ostale vendore, pa tek onda da osigura jos proizvodnje za sebe. Posto je TSMC za sada koliko znam prebukiran, i da se nije otvorila skoro ona fabrika u Arizoni stanje a i cekanje bi bilo tek alarmantno, ne vidim nacin na koji oni kvantitativno mogu da ugroze nvidiu i naprave neki rast na trzistu cak i da ponude konkurentniji proizvod.
Jednostavno imaju dve razlicite filozofije. A i brati i sestra mute nesto iza kulisa xD
 
Ma jedina razlika sto AMD to radi za $50 manje, sve ostalo je tacno kako si napisao. S tim sto AMD uglavnom radi sa open standardima, pa vise ljudi ima koristi nego od zatvorenih nvidia ekosistema, npr freesync vs gsync. Da se ne ponavljam, AMD FSR je za 1060 uradio vise nego sto je nvidia ikad.
Čekaj, sad je upscaling na slabim kartama ok kad je AMD-ov a kad je NVidijin ne valja, "ko još tera upscaling na 1080p i 3050, to ne liči ni na šta"...? :)
Upravo mi ti dvostruki standardi idu na živce...

Koji to "više ljudi" kad imaju 10-ak % tržišta a i to će da izgube od Intela za koju godinu ako Intel ne ugasi Arc...a ako ga ugase, ugasili smo i mi jer će onda tih 10% da pojede NVidia. Ima ručno da crtamo frejmove ili da keširamo 1000+ evra kad nam pocrkaju karte koje sada imamo...
 
igracemo se preko oblaka sa jos vestackijim frejmovima :LOL:
 
Čekaj, sad je upscaling na slabim kartama ok kad je AMD-ov a kad je NVidijin ne valja, "ko još tera upscaling na 1080p i 3050, to ne liči ni na šta"...? :)
Upravo mi ti dvostruki standardi idu na živce...

Koji to "više ljudi" kad imaju 10-ak % tržišta a i to će da izgube od Intela za koju godinu ako Intel ne ugasi Arc...a ako ga ugase, ugasili smo i mi jer će onda tih 10% da pojede NVidia. Ima ručno da crtamo frejmove ili da keširamo 1000+ evra kad nam pocrkaju karte koje sada imamo...
Pa ne postoji DLSS za 1060/1660 npr. Ali AMDov FSR radi i na njima (i na Intelu), zato je bolji - citaj upotrebljiviji. DLSS je vizuelno bolji, al je zakljucan za nvidia.. Nuzno zlo i jedno i drugo, ali to je karta iz 2018 na kojoj pokusavas da teras naslov iz 2023e... i onda daj kako god da radi. Ali ne treba forsirati to u svaku jbn igru kao obavezu da moze da se pokrene u igrivom fps i to na karti mid/high segmenta. Ranije imas jednu igru u generaciji koja je prezahtevna (Crysis npr), sad maltene svaka druga kao da je Crysis a nema nesto revolucionarnu grafiku.

Kako koji "vise ljudi"? Pa sad freesync imas integrisan maltene svuda, i po malo boljim televizorima i po monitorima maltene svakom. I radi na tom istom TV i za nvidia karte, i za intel... hoces da kazes da to nije bolje od zatvorenog gsync sistema koji je imao premium od $100 (a i tad zakljucan na nvdia-i)? A ako ispostujes sirok opseg npr 48-120Hz, nije taj Freesync ni tolko losiji od GSynca (koliko je FSR losiji od DLSS). A radi svuda, nije proprietary.

O tome pricam.

Ja vala necu da dam vise od 300 pa makar ne igrao. Mogu da priustim 5090 ako mi pukne zivac bas, ali ne zaradjuem pare time, nema mi smisla da skrljam tolike pare. Nije pitanje zivota i smrti dal mi treba nvidia high end graficka karta.
Ionako ovo moderno mi vecina ide na... zivac, prsti grafika a gejmplej smor. Il sam mator il prosto igre postaju eyecandy a ne story driven. Zato indie igara sve vise ima, interesantnije od igara velikih studija koje guraju masovnu produkciju a iteresantno ko da gledas kako se farba susi...

I ono sto mi izuzetno ide na mjaumjaumjau vec duze vreme sto nema HDMI-CEC podrske na grafickim kartama SVIH proizvodjaca da npr ukljuci TV kad ukljucis komp (npr mediacentar NUC)....
 
Poslednja izmena od urednika:
Сам "повратак" на стандардну 128битну магистралу донеће приметан скок. У срећнија времена 96битну магистралу смо могли да видимо само на најслабијим моделима графичких картица. Ја се потајно надам да гласине о 5060ти нису тачне, и да ће уместо са 16гб рама, доћи са магистралом од 192 бита и 12 гб рама. Мада знам да од тога нема ништа, али нада последња умире.
Na kraju je ipak najbitniji memorijski protok, 5060ti ce sa 128bit uz gddr7 imati 448-512 GB/s zavisno od modula koje koriste (28-32 Gbps), sto je dovoljno za tu kartu.
 
Samo je pitanje sta je rentabilnije... 256bit GDDR6 ili 128bit GDDR7.

Bandwidth moze biti slican (stavise mislim da je nesto veci na 256bit GDDR6).
 
Evo je prica o gddr7, kao sto sam pomenuno u onom postu o fazama i hajpu za nove graficke 🤣

Ugradis gddr7 u gtx1060 i odma dobijes 5090 ;)
 
15+ minuta priče a cenim da je dovoljno samo pogledati ovu tabelu koja je navedena u opisu
 
15+ minuta priče a cenim da je dovoljno samo pogledati ovu tabelu koja je navedena u opisu

Bombona! Upravo tako, ali kako jutjuberi da monetarizuju ako za sve ne prave 10+ minuta klipove ;)
Ono sto je interesantno je sto je realno, kao sto se i ocekivalo 5090 sirovo brzi od 4090 za oko 35% taman koliko ima vise CUDA jezgara.
Ovo je potvrdjeno i u blender testovima i renderima. Dakle sirova snaga, ne AI, i lazni frejmovi...
Cudno kako gddr7 i pored sire magistrale ne daje jos vise prednosti nasuprot "legendarnom" gddr6X koji je bio takva "revolucija" u odnosu na gddr6 :unsure: 🤣
 
Bombona! Upravo tako, ali kako jutjuberi da monetarizuju ako za sve ne prave 10+ minuta klipove ;)
Ono sto je interesantno je sto je realno, kao sto se i ocekivalo 5090 sirovo brzi od 4090 za oko 35% taman koliko ima vise CUDA jezgara.
Ovo je potvrdjeno i u blender testovima i renderima. Dakle sirova snaga, ne AI, i lazni frejmovi...
Cudno kako gddr7 i pored sire magistrale ne daje jos vise prednosti nasuprot "legendarnom" gddr6X koji je bio takva "revolucija" u odnosu na gddr6 :unsure: 🤣
Ti youtuberi su cisto gubljenje vremena, jos se ne zna nista o tome koliko su jezgra unapredjena i koliki su boost taktovi u igrama, da ne pricam o memorijskim protokom koji je skoro dupliran na 5090, sacekamo review i testove u 4k rezoluciji da se vidi koliko tacno ima razlike.
 
Poslednja izmena:
...da ne pricam o memorijskim protokom koji je skoro dupliran na 5090, sacekamo review i testove u 4k rezoluciji da se vidi koliko tacno ima razlike.
bandwidth je teoretski dupliran, za dodatnih 78% tog idealnog protoka. To je scenario gde se GPU koristi max i od toga nema dalje, ni sa boljim drajverima, ni sa ne znam kakvim OS-om i hardverskim kombinacijama. Ja i dalje obecavam da nece biti brzi od 4090 vise od ~35% kada se samo sirova snaga bude koristila. Lazne frejmove ne racunam niti me interesuju.

Eno imate LosslessScaling 3, radi odlicno na bilo kojoj karti, ne samo u igrama vec i u filmovima, pa ko juri 4x od fejk frejmova koje ima, moze to i bez ovih AI TOPS-ova na koje se nvidia kladila za dodatnih 1000 evra u ceni graficke.
 
Slaze se poprilicno sa svim onim sto sam ja cuo od tih nekih mojih izvora.
Ljudi nema razloga nvidia da pravi neki dobar product kad nemaju konkurenciju u najvisem segmentu.
Pomirite se sa tim.
 
Nije problem toliko u nemanju konkurencije u najvisem segmentu koliko u Unified architecture pristupu (koji sada btw usvaja i AMD). Sve sto mi dobijamo za igranje je posledica razvoja tehnologija za AI i druge profesionalne primene. Da im je gaming i dalje primarni fokus ne bi vredeli ~3.5 triliona dolara (koliko im je trenutni market cap). Plus treba imati u vidu da NVIDIA pravi ogromne monolitne cipove (B100 je izgleda na granici onoga sto masine za litografiju fizicki mogu da naprave), pa za neki naredni veci skok moramo da sacekamo chiplet pristup.
 
Evo poceli da objavljuju videe o unboxingu same kartice 😅
 
"NVIDIA's Frame Generation Technology Could Come to GeForce RTX 30 Series."

Vremenom ce omoguciti i DLSS Multi Frame na 4xxx, kako su poceli ali valja prvo uvaliti ove nove nekome. :ROFLMAO:

Unboxing svuda i skidanje coolera, samo kriju taj flat kabl kao zmija noge, smejurija.
 
Bombona! Upravo tako, ali kako jutjuberi da monetarizuju ako za sve ne prave 10+ minuta klipove ;)
Ono sto je interesantno je sto je realno, kao sto se i ocekivalo 5090 sirovo brzi od 4090 za oko 35% taman koliko ima vise CUDA jezgara.
Ovo je potvrdjeno i u blender testovima i renderima. Dakle sirova snaga, ne AI, i lazni frejmovi...
Cudno kako gddr7 i pored sire magistrale ne daje jos vise prednosti nasuprot "legendarnom" gddr6X koji je bio takva "revolucija" u odnosu na gddr6 :unsure: 🤣

Graficka karta nikad ne skalira linearno u odnosu na proporcionalno povecanje CUDA jezgara u odnosu na prethodnu generaciju. Unapredjenje IPC-a i u ovom slucaju prelazak na novu generaciju GDDR7 memorije, sira memorijska magistrala, kao i precizno "stelovanje" frekvencija moze se ocekivati neki takav skok u performansama pa i veci a to sve opet zavisi od same arhitekture. Sve zajedno doprinosi napretku.

Treba sacekati review-e i videti zaista pravi napredak, ovo sa fake frames i DLLS4 je mazanje ociju.
 
Veruj mi, 3D softver koristi sve sto graficka ima u terminima sirove snage. Radi drugacije od nacina na koji rade igre gde se koristi real time renderer koji je napisan za recimo odredjene instrukcije pa neke stvari radi efikasnije i onda se javlja overhead i slicno.
Ako ima cuda jezgra, cycles ima da istopi graficku ako scena ima malo svetla i materijala/shadera, opet u zavinsosti od podesavanja koja se mogu optimizovati ili odvaliti na 11 od 10.
Ta magistrala i ta vrsta gddr-a je zauzeta onoliko koliko je graficka napravljena da ih uposli, i ovo se nikad nije menjalo sa kasnijim verzijama drivera (otud studio verzije drajvera koje izlaze 2x godisnje samo) ili cak biosa u ovakvim vrstama aplikacija.

Sa igrama stvari mozda budu drugacije, ali sa blenderom, 3ds maxom, mayom... jok.
 
Samo je razlika što igra može da čeka na Cpu da nešto izračuna tipa fizika, zvuk, isl. Engine igre je komplexan i ponekad je Cpu bottleneck. 3d softver uglavnom ima jako prost pre processing pre rendera i tu se sva razlika završava.
 
@spavac22 a da ispratiš prethodne poruke? ne znam koga zanima unboxing
 
mozda je okacio video zbog novog power adaptera
 
Nazad
Vrh Dno