Šta je novo?

Fermi is Nvidia's DirectX 11

Status
Zatvorena za pisanje odgovora.
Jel vi mislite da tek tako moze da se napise engine na CUDA-u i oipenCL-u ili cemu vec? Za to treba investirati desetine miliona a toliko kosta par igrica ...

Ma jeste, ti znaš. :p OpenCL je Bogom dan API za takve stvari (između ostalog). Brzina bi tom enginu bila glavna vrlina, jer opšte je poznato da bi shader procesori brže od za to specijalizovanih jedinica obavljali npr. Z-test, rasterizaciju i blending. Inače, Microsoftov sledeći korak bi morao biti da portuju Windows na OpenCL ili CUDA, jer to je budućnost. :D
 
Teshko da ce se to skoro desiti... Problem je u tome shto je DX standard koji moraju da podrzavaju svi proizvodjachi hardvera i svi proizvodjachi softvera. Setite se shta je bilo do DX-a - svaka igra je morala da se podeshava da bi radila sa hardverom, neki hardver nije podrzavao odredjene igre itd.

Zamisli da sada krene svaki razvojni tim da pishe svoj jezik i da tera na njemu hardver - pa trebalo bi im sto godina da nateraju to da radi na svim grafichkim...

Upravo tako. Ogromna baza programera zna da radi u DirectX-u, neki od njih se drže OpenGL-a. Mnogi se još uvek bune na to da DX ne dozvoljava da se neke stvari rade na logičan i straightforward način, da još uvek postoji mnogo CPU poziva i state changes... Sa druge strane, aktuelni OGL je još više sulud, ali na drugi način...

On one hand you have Direct3D, pushed by Microsoft, with a rather nice interface (in its 9th and 10th versions), but suffering from a severe draw call issue. Draw calls on certain Direct3D platforms force a kernel context switch, which has an ultimate performance cost. The other downside is that the API tends to change a lot from one version to the other, which isn't too nice since it means rewriting a lot of code to take advantage of any new version in an existing engine. It's available on Windows and the Xbox 360.

On the the other hand you have OpenGL, lead by the Khronos Group (And formerly by the Architecture Review Board [ARB]), and exist in different flavours, such as the ES (Embedded Systems) version, or the standard OpenGL for workstations.

OpenGL 2.1 has many functions, and many ways of doing the same thing, making its implementation difficult, and the engine writer's task uneasy, as there is a need to look for the optimal path, which evolves with time and new extensions. Or new hardware, since extensions are meant to make hardware features available in the API, without breaking the existing interface.

Hopefuly, OpenGL 3.0 (Codenamed Longs Peak) is just around the corner, with a completely new streamlined interface, sometimes referred to as "Lean & Mean". It's available on Mac OS X, Windows, the PS3 (as an OpenGL ES-like API), and the Wii (as an OpenGL-like API).
 
Poenta je u full programabilnoj arhitekturi. Ti ces koristiti jezik koji ti najvise odgovara, znaci neces biti ogranicen na samo DX recimo. Neki developeri vec sada zagovaraju direktni pristup i zaobilazenje API-ja, bas zbog tih ogranicenja.
 
Ma jeste, ti znaš. :p OpenCL je Bogom dan API za takve stvari (između ostalog). Brzina bi tom enginu bila glavna vrlina, jer opšte je poznato da bi shader procesori brže od za to specijalizovanih jedinica obavljali npr. Z-test, rasterizaciju i blending. Inače, Microsoftov sledeći korak bi morao biti da portuju Windows na OpenCL ili CUDA, jer to je budućnost. :D

Noz pa pravo u ledja :p
Ovaj, poenta stavljanja specijalizovanog hardvera je u tome sto radi brze nego programabilan hardver i radi u paraleli sa programabilnim... DirectX ce tek da pocne da se zagreva.. inace ako neko misli da moze da uposli gpu bolje nego ljudi koji su ga napravili grdno se vara.. zato directx i sluzi.. da svu muku inzinjera sakrije oko sarenog omotaca
 
Noz pa pravo u ledja :p
Ovaj, poenta stavljanja specijalizovanog hardvera je u tome sto radi brze nego programabilan hardver i radi u paraleli sa programabilnim... DirectX ce tek da pocne da se zagreva.. inace ako neko misli da moze da uposli gpu bolje nego ljudi koji su ga napravili grdno se vara.. zato directx i sluzi.. da svu muku inzinjera sakrije oko sarenog omotaca

Odakle ti sad pa to, zar ne čuješ da sve više developera zagovara pristup koji bi im desetostruko otežao život? :) Inače, Intel je specijalizovane jedinice za teksturiranje odlučio da stavi na Larrabee, ne zato da bi on radio brže, već isključivo da bi svoj čip mogao da nazove GPUom. U principu, sve je to nepotrebno, jer će developeri sve to sami implementirati preko OpenCLa u svojim rasterization engine-ima. :D

* khm, khm, sarkazam, khm * ;)
 
Noz pa pravo u ledja :p
Ovaj, poenta stavljanja specijalizovanog hardvera je u tome sto radi brze nego programabilan hardver i radi u paraleli sa programabilnim... DirectX ce tek da pocne da se zagreva.. inace ako neko misli da moze da uposli gpu bolje nego ljudi koji su ga napravili grdno se vara.. zato directx i sluzi.. da svu muku inzinjera sakrije oko sarenog omotaca

Zasto bi bilo ko to mislio? DX10 bi mogao biti zadnji developerima bitan DirectX API.

DX9 je napravio bum. DX10 s druge strane nije donio nista revolucionarno osim glavobolje ljudima koji su godinama optimizirali svoje DX9 drajvere. Znaci sve iz pocetka.
Jedino deferred rendereri imaju korist od DX10-ke, odnosno tek jedna igra.
 
Pojavice se hibridni pristup.. neke stvari (npr voxel terrain render) ce se implementirati kroz OpenCL/CUDA ili nesto trece dok ce ostatak ici klasicno. Pre ili kasnije neko ce napraviti custom renderer. Ideja je da se deo renderinga prebaci na OpenCL/CUDA i da kao rezultat svog rada isporuci texturu ili framebufer.

Genuine je istakao bitnu stvar, a to je da driver i API donekle sakrivaju internu orgnizaciju GPU-a. AKo bi se GPU previse otvorio onda bi razvoj nekog univerzalnijeg API-a bio problematican. Jednostavan primer je bilo koji CUDA program. U njemu treba navesti broj shader multiprocesora, velicinu kernela, itd. sto je tesko prebaciti na npr ATI koji ima drugaciju internu organizaciju. OpenCL bi to treblo da sakrije.

Dosadasnji razvoj API-a je evoluirao iz fixed function pipeline-a do programabilnih shadera tako sto su deo po deo pipeline-a zamenjivali programabilnim stvarima. Prvo su to bili vertex shaderi, pa pixel shaderi, pa su na red dosli geometry shaderi. Imacemo i programabilni AA programabilne tex filtere, verovatno i programabilne blendere. Neznam sta bi se jos moglo otvoriti. Mozda ubace unifikovani pristup memoriji i mogucnost da se prave programi koji bi mogli pristupati po bufferima u VRAM-u.
 
Zasto bi bilo ko to mislio? DX10 bi mogao biti zadnji developerima bitan DirectX API.

DX9 je napravio bum. DX10 s druge strane nije donio nista revolucionarno osim glavobolje ljudima koji su godinama optimizirali svoje DX9 drajvere. Znaci sve iz pocetka.
Jedino deferred rendereri imaju korist od DX10-ke, odnosno tek jedna igra.
ovaj post izrazava tvoj potpuni nedostatak uvida u benefite koje donosi DX10(.1)...

Trenutno na trzistu postoje dva komercijalna naslova koja koriste Ambient Occlusion, a EPIC je najavio doticnu tehnologiju za novi update UE3 masine... DX10(.1) je od kljucne vaznosti za dobre performnse sa SSAO enabled!

Ono sto je HDR predstavljao pre pet godina, to je SSAO danas i bas kao sto je HDR profitirao od DX9, tako ce SSAO profitirati od DX10(.1) odnosno DX11... prema tome govoriti da su API-ji posle DX9 besmisleni je u najmanju ruku besmisleno!
 
Hmm da, i meni cudno zvuci kad neko kaze da DX 10 nije skoro nista doneo ili ne nudi nesto mnogo vise od DX 9, a secam se kad je izasla DX 10 specifikacija da je tamo bilo navedeno podosta stvari koje su brze, bolje od DX 9. Mrzi me sad da kopam tu tabelu a i nije bitno toliko sada. Znam i da mi je drugar koji je veoma dobar u progamiranju enginea u DX-u (pogotovo grafickog dela) bio veoma zadovoljan da tako kazem kada je video sta ce DX10 moci u odnosu na DX 9.

Uglavnom, ne bih dalje da sirim pricu jer nisam ekspert, da je neka igra pravljena samo za DX 10 pretpostavljam da bi bila mnooogo brza i graficki impresivnija nego kad se pise i za DX 9 i DX 10 zar ne? :trust:
 
ovaj post izrazava tvoj potpuni nedostatak uvida u benefite koje donosi DX10(.1)...

Trenutno na trzistu postoje dva komercijalna naslova koja koriste Ambient Occlusion, a EPIC je najavio doticnu tehnologiju za novi update UE3 masine... DX10(.1) je od kljucne vaznosti za dobre performnse sa SSAO enabled!

Ono sto je HDR predstavljao pre pet godina, to je SSAO danas i bas kao sto je HDR profitirao od DX9, tako ce SSAO profitirati od DX10(.1) odnosno DX11... prema tome govoriti da su API-ji posle DX9 besmisleni je u najmanju ruku besmisleno!

How, yes, no :)

Nego reci mi koji su to naslovi? Ja nigdje nisam rekao da je DX10 besmislen, vec da nije donio nista revolucionarno. Nakon tri godine tek jedna igra (Clear Sky) stvarno daleko bolje radi sa DX10, i to je sve.
A to sto si rekao za UE3 bi tek trebali vidjeti, pa tak onda komentirati. Nego, GSC je sa 1.5.09 patchom najavio "High Definition Ambient Occlusion". Nisam uspio naci nikakve informacije vezane za taj novi feature.
 
DirectX 10 nije uspeo samo iz razloga sto ni Vista nije uspela na trzistu - nema to nikakve veze sa samim igrama, razvojnim timovima, napretkom u odnosu na DX9 i slicno.

GT300 je po specifikacijama stvarno mocan cip. Definitivno ce im vazan marketing/selling point (sada a i dalje u buducnosti) biti CUDA, kao ozbiljna alternativa i produbljenje onog koncepta koji promovisu vec neko vreme, da ce za udobniji (efikasniji) rad trebati jak GPU i bilo kakav CPU.

Opet, sve to nece mnogo vredeti ako ne optimizuju drajvere i performanse u igrama ne budu dovoljno dobre. Kao sto vec rekoh negde, oni zive od prodaje hardvera igracima, i dosta je daleko trenutak kada im to trziste nece biti najvaznije (ako ikad i dodje).

Naravno, ostaje i problem cene. Jos ne znamo koliko ce imati tranzistora, koja ce biti povrsina jezgra, radni takt. Sto je jos vaznije za krajnu cenu, ne znamo tacno sta ce ATI predstaviti i koliko ce to dobro biti, jer ce na kraju krajeva samo od te cinjenice zavisiti i cenovna klasa u kojoj ce morati da se prodaje GT300.
 
How, yes, no :)

Nego reci mi koji su to naslovi? Ja nigdje nisam rekao da je DX10 besmislen, vec da nije donio nista revolucionarno. Nakon tri godine tek jedna igra (Clear Sky) stvarno daleko bolje radi sa DX10, i to je sve.
A to sto si rekao za UE3 bi tek trebali vidjeti, pa tak onda komentirati. Nego, GSC je sa 1.5.09 patchom najavio "High Definition Ambient Occlusion". Nisam uspio naci nikakve informacije vezane za taj novi feature.

Nezvanicno...

Saved game versions 1.5.04 - 1.5.08 will work in version 1.5.09

Changes:
- Improved anti-cheat system withdrawal screenshots from a player.
- Added anti-cheat system which allows remote administrators to monitor modifications in the parameters of the network game.
- Reduce the number of murders player on static objects after birth.
- Improve the system checks the player when connected.
- Fixed bug with RPG7.
- Fixed bug in the menu of your purchase.
- Added a new effect of High Definition Ambient Occlusion.
- Improved the stability of the game.
Changes in the balance of weapons in multiplayer:
- Increased damage caused by weapons: "The Thunder-A14", "CA LAVINA.
- Added the ability to bring sight to the "CA LAVINA.
- A gun UDP Compact extended store up to 12.
 
Evo jos malo detalja oko osvetljenja u cs-u

Citat (sa guru 3d foruma koliko se secam):

"There are several GI related options in STALKER:
r2_gi - On/off toggles GI.
r2_gi_photons - Number of virtual photons used per frame. Ranges from 8 to 256.
r2_gi_clip - Distance (I'm not sure what units, exactly) before photons are clipped and no longer rendered. Ranges from 0.0001 to 0.99 if my memory serves correctly.
r2_gi_depth - I would assume this would be the number of surfaces a photon will bounce between before "dying," but in practice seems to have no affect on performance or visuals.
r2_gi_refl - The reflectivity scale of surfaces for GI luminance. Basically, more reflective means brighter indirect lighting.

Practically, I don't think most anyone will be able to make use of GI in STALKER anytime in the near future without one of two outcomes: Horrid frame rates but impressive lighting, or relatively decent frame rates with oft glitchy, flickering lighting: particularly when light sources move (i.e., your head lamp). In either outcome, GI in STALKER is not perfect and often passes through solid objects or otherwise acts funky. When I played around with various GI settings, I managed to get GI looking beautiful with essentially no odd flickering when the number of photons was set above 50, and a clip setting between 0.03 and 0.06. Of course, on my system this dropped the FPS from 60 (V-Sync'd, probably more if unlocked) to around 15 or less in my 'testing area' (the Agroprom underground, paricularly in the room with the bloodsucker.) Lower photon counts may be playable, but the accuracy of lighting will be quite low and will result in unnatural, sudden brightness changes.

So, in case anyone still cares, GI via this method is still rather unobtainable. Ray tracing is a highly complex process and has yet to be successfully implemented in real time rendering. It is common in pre-rendered 3D animation, however, such as Pixar-style movies. "

ovo btw mozete i sami probati ;)
 
Poslednja izmena:
Nvidia: Chips to speed Apple Leopard, Windows 7 - http://news.cnet.com/8301-13924_3-10227691-64.html

Graphics chips will be tapped to accelerate more tasks in upcoming versions of Apple's and Microsoft's operating systems, according to Nvidia.


Apple's upcoming Mac OS X Snow Leopard will tap into the compute power of graphics processors
(Credit: Apple)

In an interview Friday with Sumit Gupta, product manager for Nvidia's Tesla products, Gupta described how new programming environments will tap into the latent compute horsepower of graphics processors to accelerate software in Apple's upcoming OS X Snow Leopard and Microsoft's Windows 7 operating systems.

Graphics chips aren't just for games anymore. The trend toward general-purpose graphics processing is defined by an acronym that doesn't exactly roll off the tongue: GPGPU. But the essence of General Purpose computing on Graphics Processing Units is pretty simple: use the scores--or even hundreds in higher-end chips--of processing cores inside GPUs to speed tasks that, in some cases, would be done much less efficiently by the central processing unit (CPU).

This is where OpenCL (Open Computing Language) comes in. OpenCL is a programming environment for "heterogeneous" computing. That is, computers using a mix of multicore CPUs and GPUs. Microsoft's analogous programming environment is DirectX.

Apple says this about OpenCL on its Web site. "Another powerful Snow Leopard technology, OpenCL...makes it possible for developers to efficiently tap the vast gigaflops of computing power currently locked up in the graphics processing unit."

Today, on a PC or a Mac, the CPUs made by Intel and Advanced Micro Devices are adept at handling general operating system tasks. For instance, handling the sequence of things that must happen after the user clicks on an icon to start an application on their desktop.

But some tasks traditionally handled by the CPU will be shifted over to the GPU--or divvied up, so certain operations are done on the CPU, while others are done on the GPU. "The really interesting thing about OpenCL and DirectX is that OpenCL is going to form part of the Apple operating system (Snow Leopard) and DirectX (version 11) will form part of Windows 7," said Gupta. "And what that essentially means to consumers is, if your laptop has an Nvidia GPU or ATI (AMD) GPU, it will run the operating system faster because the operating system will essentially see two processors in the system. For the first time, the operating system is going to see the GPU both as a graphics chip and as a compute engine," he said.

(Note: Gupta's comments implied future versions of DirectX, not DirectX generically.)

"For example, when you launch (Google) Picasa, that is completely run on the CPU. (But) the minute you choose an image and apply a filter, that filter should run on the GPU. (This happens) when you have Apple and Microsoft pushing the application developers to do that," Gupta said.

Gupta continued. "If you look at the Apple OS today. It's a beautiful interface where there actually is more visual content than there is sequential (CPU) content...stuff that's more available to the GPU. The CPU is one aspect but not necessarily the most important aspect anymore," he said.

That said, CPUs from Intel and AMD are still indispensable. "If you're running an unpredictable task, the CPU is the jack of all trades. It is really good at these unpredictable tasks. The GPU is a master of one task. And that is a highly parallel task." he said.

One of the limiting factors of unlocking the potential of the GPU has been the programming environment. "The hardest part about using the GPU was that you had to use a graphics language to program it," Gupta said. This is changing, however, with OpenCL and Nvidia's CUDA development environment based on the C programming language.

Intel sees it this way: "Since the graphics pipeline is becoming more and more programmable, the graphics workload is making its way to be more and more suited to general purpose computing--something the Intel Architecture excels at and Larrabee will feature," and Intel spokesman said Friday, referring to Intel's upcoming graphics chip.

"Coming out with this C compiler and the CUDA architecture, that's the big change we made. We came up with an architecture that was more friendly and familiar to your average C programmer," Gupta added.

Zanimljivo! Pogotovo ovo vezano uz OpenCL i Leopard.
 
Nadam se da ce u novoj generaciji da isprave jednu mnogo kvarnu "gresku" na svojim kartama.Sramota da se ovo desava sa hardverom reda +300 eura.

http://theovalich.wordpress.com/200...w-and-how-to-fix-it-no-more-gtx280-squealing/
"cvilenje" nema veze sa GPU-ovima, vec sa kvalitetom naponske na kartici i kvalitetom napajanja.

Stoji da mogu da propisu strozije propise za kvalitet upotrebljenih komponenti, ali to bi direktno uticalo na cenu kartica, a uzevsi u obzir cenu GPU-a, memorije i same kartice, njihove margine su toliko tanke da se gleda apsolutno svaki tranzistor i kondenzator na kartici, kako bi se iscedio svaki cent profita po prodatoj kartici.
 
"cvilenje" nema veze sa GPU-ovima, vec sa kvalitetom naponske na kartici i kvalitetom napajanja.

Stoji da mogu da propisu strozije propise za kvalitet upotrebljenih komponenti, ali to bi direktno uticalo na cenu kartica, a uzevsi u obzir cenu GPU-a, memorije i same kartice, njihove margine su toliko tanke da se gleda apsolutno svaki tranzistor i kondenzator na kartici, kako bi se iscedio svaki cent profita po prodatoj kartici.

Znam ja da nema veze sa gpu-om a i pise lepo na linku o cemu se radi:D,ali ..biga koliko li je ta usteda koja trecini ljudi para usi,kako je ati mogao da se "stisne", a ako je ati mogao ovo da resi nvidi je samo moglo da bude lakse.Nego dobro zabole njih uvo, najbitniji je profit, ali kao sto rekoh nadam se da ce karte sa gt 300 da imaju "strozije" propise po pitanju naponske sekcije.Stvarno bezveze ulozis kintu da ceo racuna budei tih i onda se cuje "miss pigy" kako doziva kermita;).
 
A ima li veze sa gpu-om crkavanje istog, znaci dosta veci procenat nvidija kartica svih generacija koje mi dopadnu na servis su sa sprzenim ili felericnim chipom, ne napajanjem ili memorijom. Imali to veze sa vecim grejanjem, posto nvidia po svaku cenu zeli brzi gpu pa im dodaje tranzistora i napona? Propusti u konstrukciji ili ih prave na pogresnom mestu?
 
Poslednja izmena:
Znam ja da nema veze sa gpu-om a i pise lepo na linku o cemu se radi:D,ali ..biga koliko li je ta usteda koja trecini ljudi para usi,kako je ati mogao da se "stisne", a ako je ati mogao ovo da resi nvidi je samo moglo da bude lakse.Nego dobro zabole njih uvo, najbitniji je profit, ali kao sto rekoh nadam se da ce karte sa gt 300 da imaju "strozije" propise po pitanju naponske sekcije.Stvarno bezveze ulozis kintu da ceo racuna budei tih i onda se cuje "miss pigy" kako doziva kermita;).

Ati ima manji i jeftiniji gpu pa moze da se stiska, a vida je primorana da sece sve sto moze! Sto se profita tice, pa to je cilj svake firme i tu nema nista sporno, nama je cilj da imamo sto vise performansi za sto manje para, dok su njima performanse obicno sredstvo za postizanje profita ;)
Sto se tice novog cipa iskreno se nadam da razmisljaju i o nizim segmentima inace ovo i pored obecavajuce arhitekture nece na dobro da izadje.
 
Uhh... pocinje takmicenje u pljuvanju. Zaista nema potrebe to da radite.

U poslednje vreme od NVidije imamo sledece stvari:
CUDA 2.2
OpenCL
SSAO u skoro svakoj igri
OpenGL 3.0
Bindess Graphics ( http://developer.nvidia.com/object/bindless_graphics.html )
Badaboom
PhysX
DirectX Compute

Bindless Graphics je OpenGL feature koji omogucava da unapred definisete geometriju, shadere, texture, ... i onda scenu iscrtate sa minimalnim brojem Draw poziva. Ovaj feature ne postoji u DX10 ni u DX11.

Ljudi ulazu i u hw i u sw, pioniri su u vecini oblasti racunarske grafike, nove stvari prave pre nego sto se neko seti da postavi standarde, ucestviju u stvaranju standarda, pa kada se postave standardi onda ih implementiraju u najkracem mogucem roku, hw im je odlican, pokrivaju i handheld, nettop, laptop i desktop segmente...

Pljuvaci neka pogledaju relevantan thread u sobi o grafickim karticama.
 
@yooyo
Cekaj sad, zasto je svaka kritika pljuvanje? Ja stvarno jesam odusevljen specifikacijom novog cipa, ali ako bude kostao 500+e ko ce to da kupi sem fanatika i CUDA/OpenCL programera?
 
@yooyo
Cekaj sad, zasto je svaka kritika pljuvanje? Ja stvarno jesam odusevljen specifikacijom novog cipa, ali ako bude kostao 500+e ko ce to da kupi sem fanatika i CUDA/OpenCL programera?

pa neće doveka koštati 500+e. - :smash: a moraju da napreve nešto što će pomeriti granice (u stvari ne moraju ali je super što tako rade ;))...

MIMD vs. SIMD - http://perilsofparallel.blogspot.com/2008/09/larrabee-vs-nvidia-mimd-vs-simd.html

@colt
Ocekivano. Tu je vjerovatno najveca novina DX11?

hvala za link! (ako i tekst mozda vise nije aktuelan, blog definitivno jeste interesantan!) :wave:
 
Poslednja izmena:
pa neće doveka koštati 500+e. - :smash: a moraju da napreve nešto što će pomeriti granice (u stvari ne moraju ali je super što tako rade ;))...

Bas naprotiv, moraju inace nemaju svoj najjaci adut-performanse! Pasce cena, ali koliko? Ne mozes u beskonacnost da se takmicis sa jeftinijim proizvodom osim ako on ne zaostaje uzasno mnogo u performansama, kvalitetu i mogucnostima.
Ima li neke naznake o novom mainstream gpu-u koji ce se bazirati na GT300?
 
512SP-a deluje realno za 40nm proces.
pa koliki ce biti odokativno taj cip? :trust: obzirom koliko su stvari ugurali u njega trebalo bi da bude kao i GT200 u 65nm, grubo receno, a mozda cak i veci?!
Uvek bolja varijanta, jedan cip.Makar ga zvali i "mega" ili "glomaznim" ili kako-god.To sto konkurencija mora da uparuje dva cipa ne bi li dostigla ili za dlaku prestigla taj jedan, tesko da je dobar recept u mojoj knjizi:p
a sta ATI kosta da naprave cip velicine sahta i da naguraju 2k SP-ova? :) sto to ne bi mogli da urade u 45nm i da dobiju glomazan cip kakav je GT200 bio? ocigledno postoji neki razlog...
 
Hoce li nVidia ubaciti podrshku za DDR5 memoriju u novi GPU? ATI je sa time napravio pravi bum. Rado bih u svoj komp ubo neki GeForce sa DDR5 memorijom:D:D
 
Status
Zatvorena za pisanje odgovora.
Vrh Dno