» »

[NVIDIA] GeForce GTX 200

[NVIDIA] GeForce GTX 200

1
2
3 4 5

Senitel ::

... Pa še to boš dobil kartice v roke, ko so že sfiniširane. Če hočeš bit res frajer pol edino NV ali AMD. Dobiš prototipe kartic v roke (ne za domov), ko se navadni smrtniki prepirajo ali so one prve govorice o specifikacijah novih kartic resnične ali navaden bullshit (hint: so bullshit >:D).
Recimo prvi engineering sampli G80, ki so šli iz NV so šli na MS in na Crytek. P.S.: In to ne "by Fedex" ampak so bile dostavljene osebno.

Zgodovina sprememb…

  • spremenil: Senitel ()

Galaxy ::

Ah škoda... bi pa bilo zanimivo imeti prvi takšno pošast doma. Ampak če se tam zaposliš, potem imaš možnost zašpilat kakšen Crysis tam, a ne?

mesoreznica ::

Ah škoda... bi pa bilo zanimivo imeti prvi takšno pošast doma. Ampak če se tam zaposliš, potem imaš možnost zašpilat kakšen Crysis tam, a ne?


Ja pa ne 1x. Pomoje te mine. :))

LP
Gigabyte UD3P, E8500 @ 4.5 GHz , HD4870-X2, 4GB ram (Xtreeme Dark),
WD Velociraptor, LC Legion-X

Pesimist ::

nekaj sem bral na tomshwardware da bi CUDA nej bil cpu replacment sej trdijo da je do 6x hitrejsi pri 8600 karti? V kaksnem smislu? Dvomim da je Visto sposodbno poganjat? Pa tudi ce bi potem rabil verjetno dve karti right?

OChack ::

to bi blo zanimivo ja,
če bi se izkoriščanje CUDA implemntiralo že v BIOS tako da bi samo z grefično kartico lahko namestili OS in tako naprej oziroma da bi prevajal ukaze v x86 kompatibilne potem bi kar šlo
Int€l inside, IDIOT Outside

Zgodovina sprememb…

  • spremenil: OChack ()

Jst ::

Forget it. CPU in northbridge se ne imenujejo zasonj tako.

Tudi če bi imel miljnkrat hitrejšo kartico za izvajanje x86 ukazov, bi rabil CPU.... Razen, če ta "kartica" ne bi bila CPU sam.
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|

Pesimist ::

dobro pa dam not en celeron 800Mhz. Pol bi slo?

JeZo ::

3d mark vantage na gtx280

a ima kdo občutej a je to dober al slab score?

http://www.sestavi.si/punbb/viewtopic.p...

LP!

Pesimist ::

Kaj pa prvi CUDA enabled game? Nekaj sem bral da bi ze nej v maju bil izdan. Ampak nix ni pislao niti imena kateri tak da dvomim da je sploh verodostojna informacija :\

Zgodovina sprememb…

  • spremenilo: Pesimist ()

Senitel ::

Kaj na bi bil CUDA enabled game? To je nekako tako kot bi vprašal kateri je prvi Lua enabled game, ali JRE (Java Runtime Environment) enabled game. Imaš PhysX, ki teče preko CUDE, in to že dela...

Pesimist ::

erm? Means what. PhysicsX drivere so ze meli spili pred 8xxx serijami. Pac neki bedni software installiralo ki je verjetno bil odvecni. Torej kiri je te taki ko ze dela al so to z PhysicX zaj al kaj?
Moram kaj installirat kot addon te?

Zgodovina sprememb…

  • spremenilo: Pesimist ()

DJ MartiNi ::

Hmm...nVidia goljufa v 3DMark Vantage? VR-Zone
1:Phenom II X3 720BE/ASRock 970M Pro3/2x8GB G.Skill Aegis/Radeon HD2600XT
2:Athlon X2 BE-2300/Foxconn A7DA-S/2x2GB A-Data PC2-6400/Radeon HD3300

Senitel ::

|Sawyer|: PhysX je API za fiziko (eden izmed mnogih). Ageia je imela celo harwareske kartice, ki so ta API pospeševale (sedaj ga pospešuje NVIDIA preko CUDE). "Bedni software installiran" je toliko odveč kot je odveč Direct3D ali OpenGL. Če ga igra uporablja, potem mora biti zraven. Cel kup iger za PS3 in XBox 360 prav tako uporablja PhysX. Še vedno mi ni jasno kaj si hotel povedat z "CUDA enabled game"?

DJ MartiNi: Heh... Torej če PhysX teče na GPU-ju je to goljufanje, če teče na ekstra PhysX kartici in še vedno ne na CPU je pa to povsem OK?

Pesimist ::

Torej rabim 177 drivere da po physicx delovala na graficni al kaj?

vaiserious ::

Ko smo že pr GTX 280... Ma samo, da mine 2 mesca pa si jo nabavim. Sline se že cedijo :O

dzinks63 ::

Ponudba GTX 280 je pestra, cene prav tako. Čaka pa se na dobre teste 2x HD 4850 v CF vs GTX 280. Dve kartici HD 4850 sta tudi precej cenejši od ene GTX 280, pa le malenkost slabši.

Zgodovina sprememb…

  • spremenil: dzinks63 ()

Pesimist ::

nemogoca cena :P

vaiserious ::

Asusova GTX 280 mi je se najbolj vsec. Ne dam 50 € za 98Mhz hitrejso od ZOTAC-a.

Zgodovina sprememb…

Jst ::

Senitel:

Ti si mi nekaj časa nazaj povedal, da če laufa d3d igra, se CUDA (mini) aplikacije/klici ne morejo vzporedno izvajati. Ne bom šel iskat citata, ker nimam časa. yet.

Sawyerjevo vprašanje čisto legitimno, samo rahlo hecno je zastavljeno.

CUDA-enabled game: Da vzporedno laufa d3d in klici prek CUDE. Mislim, da je to misil.


--

Novi driverji, ki to omogočajo in zamenjajo phisyx dllje z nvidiinimi, so na voljo samo za nove gtx200, kaj pa za 8 in 9 serija? Obljubljali so jih....
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|

Senitel ::

|Sawyer|: Rabiš 177.xx driverje in ekstra PhysX driverje.

Jst: Misliš tole? ;) Torej:
Odvisno kako pričakuješ ta paralelizem. Ne moreš rečt recimo: 96 SP-jev bo za grafiko, 32 jih bo pa za CUDA. Lahko pa še vedno poganjaš in grafične in CUDA aplikacije hkrati, oziroma lahko to teče celo znotraj ene aplikacije. Driver bo v tem primeru delal multitasking podobno kot OS.
Cena pri tem je nekaj čez 300+ GPU ciklov, da shrani grafično stanje in se spravi v compute mode ali obratno. So bile ideje, da bi driver geometry shaderje iz DX10 implementiral preko tega...

Trenutno uradno dela na GT 280 in 260 ter 9800GTX in GTX+. Če se mal poheka dela še na ostalih G9x čipih (8800 GTS, GT). G8x serija pa še pride na vrsto. Pač so tri verzije CUDA v igri.

Jst ::

>da shrani grafično stanje in se spravi v compute mode ali obratno.

Ja, to ja. Če pa ti temu praviš paralelno, potem pa imamo v CPU krogih drugačno terminologijo...
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|

Senitel ::

Ne ne pravim, da je to paralelno... Samo pravim, da lahko aplikacija brez skrbi uporablja in D3D in CUDA sočasno.

Pesimist ::

Nevem probal sem CellFactor pa ni delalo. Sem instalira PhysiX Drivere od Nvidie. Edino nisem mel 177 driverov. Mogoce zato ni delalo?

Zgodovina sprememb…

  • spremenilo: Pesimist ()

Senitel ::

Da... :)

Jst ::

Ampak 177 niso (uradno) za 88gts512 in 9xxx, right?
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|

destroyer2k ::

Jst

177 drajverju kot je senitel prej omenil gtx 260/280 in 9800 gtx, ostalo kasneje.

Mr.B ::

France Rejects Genocide Accusations Against Israel in Gaza,
To accuse the Jewish state of genocide is to cross a moral threshold

Zgodovina sprememb…

  • spremenil: Mr.B ()

Jst ::

Kolikor razumem zadevo, je nvidia z novimi driverji pokazala zobe, rumeni senzacionalisti jo pa obtožujejo cheatanja.

Havok in Psihyx so knjižnjice za delo z fiziko. Phisyx ima celo svojo namensko kartico, ki prebavlja psihyx klice. Nvidii je pa že nekaj časa hodilo po glavi, kako in kdaj lansirati simulacijo fizike na svoji kartici. Prvič, znebiš se konkurence: kupila je psihyx. (Havok in Intel je pač prevelik zalogaj) Namenske kartice so crap, vsaj po steam stastistiki, jih ima tako mimimalno število uporabnikov (tudi med high end mašinami), da mi, kot končni kupci, smo lahko samo veseli, da ne rabimo imeti še ene dodatne kartice, ki may or may not dela. Ne podpirajo jo vsi špili.

Nvidia je ocenila, da je GTX200 dovolj močan, da laufa tudi psihyx dllje, performance wise.

Sedaj sledi vprašanje: Če imaš psihyx namensko kartico in jo 3dmark uporablja, ali ne dobiš večjega rezultata?

Ali niso pri futuremarku računali prav na to? IIRC havok laufa fiziko na cpuju, right?

Če bi se futuremark v 3dmark Vantage hotel izogniti tej sporni situaciji, zakaj niso potem sami napisali svoje knjižnice za simulacijo fizike in bi tako švical samo CPU? Zakaj? Ker so vedeli, da bo fizika laufala večinoma na GPUjih v prihodnosti. In 3dmark je zazrt v prihodnost.

Ker imamo dva major playerja v grafičnem oddelku je eden zaradi tega, ker so se odločili za simulacijo uporabljati phisyx, v slabšem položajo.

Vprašanje, ki se mi zastavlja je, ali niso pri futuremarku to namerno naredili?
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|

Mr.B ::

Kolikor je rečeno, so spremenili dll-je. Kar nej nebi bilo po PS-u.
Drugo kot je , če damo notri posebno kartico, ali dobimo take rezultate.
Tretje kar se ? kako bi se kartica obnesla v igri po FPSjih, če bi oboje hkrati uporabljali, ali je za fiziko rezerviran ločen HW, ali se pobere shaderje…
France Rejects Genocide Accusations Against Israel in Gaza,
To accuse the Jewish state of genocide is to cross a moral threshold

Senitel ::

Ma PhsyX ima itak spodaj svoj runtime... Ali teče na CPU, PPU ali GPU, za vsako stvar od tega imaš svoj runtime. DLL-ji so se spreminjal za UT3, ker (kot sem že povedal) ima zapakirano čisto vse s špilom samim. Z Vantage to nima nikakršne veze.
DA, če daš notri Ageia PhysX kartico bo rezultat v točkah tudi višji. To so pri Futuremarku tudi povedal ob predstavitvi, da bo PPU kartica doprinesla nekaj točk v tem testu in kakšne 100 pik pri končnem rezultatu. Sedaj, ko je pa NVIDIA naredila PhysX runtime za GPU in naredi cel raztur v tem testu bomo pa foul kričal?
In že 100x smo tud povedal, da ni rezerviranega hardware-a, ampak se uporabljajo shaderji. Sedaj če misliš, da samo zato ker je GPU ozko grlo recimo v Crysis, da je zato v Crysis GPU skoz 100% zaseden/izkoriščen, se pač motiš.

Realnost je pač taka, da je Ageia prodala nekje 120000 teh svojih kartic, kar je malenkost in se Futuremarkovcem ni dalo kaj preveč hudo ukvarjat s tem in so rekli "cool na končne rezultate to ne bo vplival bo pa mal bonusa za tistih par s temi karticami". Potem pa pride NV, naredi PhysX runtime za GPU in vse skup eksplodira zaradi boosta v končnem rezultatu. Če bi hotl CPU test naj bi napisal CPU test... Ne pa da so šli implementirat CPU test na knjižnici, ki je že imela posebej hardware za pospeševanje in zamahnit z roko "ah sej tega pa noben nima".

Jst ::

Jep, ali so Futuremarkovci fanboyji nvidie ali pa se narobe imenujejo. Blind-marketwise-mark, PastMark mogoče?
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|

mesoreznica ::

Hahahahahaha jao sam res zanimivo. Če AMD naredi nekaj hudega potem vsi na kolena od oboževanja. Če pa Nvidia ali Intel naredi nekaj dobrega, so pa lažnivci, nategovalci... ali pa seveda podkupujejo etc.

LOL

LP
Gigabyte UD3P, E8500 @ 4.5 GHz , HD4870-X2, 4GB ram (Xtreeme Dark),
WD Velociraptor, LC Legion-X

Jst ::

Gre se za to, da se je "vedelo" in tudi izkazalo, da trg ne čuti potrebe za dodatno kartico, ki bo računala samo fiziko.

Po drugi strani pa so unified shaderji kot male mini cpu enote. In CPU-related devi točno vemo kaj, kdaj, kje in zakaj se kaj da ali ne da ali splača ali ne splača paralelizirati.

Collision detection ali razbitje kamna se sliši "uuuu to je pa fizika!!!" Ampak razbitje kamna na tisočere delcev bo GPU hitreje naračunalo; ima namreč x minimini cpu enot, dočim ima CPU "samo" 1,2,3,4 jedra na voljo.

Kar hočem povedati je, da so se futuremarkovci sami sebe v drek porinili. Če naredijo CPU test osnovan na zunanji knjižnici, katera, kot je povedal Senitel, lahko to počne na procesorju, PPU Pshyx kartici in sedaj na GPU - offloading CPU usage za recimo AI.

Skalabilni CPU-fizika test, ki bi res laufal na CPUju bi jim lahko jaz napisal, ampak fizika se seli na GPU. To je dišalo v zraku že lep čas.

Ut3.based (I am a fanboy of ut.engine) igre bodo vse, ki karkoli počnejo z fiziko, sedaj profitirale: CPU usage bo manjši. Performanse boljši, hitrejši.

Mislim, da Vantage ni nikakršno merilo, kako hitro bodo igre v prihodnosti delale. Vantage je flawed. Morali bi se skoncentrirati samo na GPU in ob tem paziti, da je CPU usage čim manjši, pa še to ne vem, če bi karkoli predstavljalo. Če je GPU test kakorkoli relevanten bo bolje Senitel povedal.

CPU test ne predstavlja nič pametnega, pravi Jst, CPU dev. In kar je nvidia sedaj dokazala.
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|

Jakob_X ::

Problem glede tega "cheatanja" je preprost. Ko se izracunava fizika se kartica 100% uporablja samo za izracunavanje fizike, ko pa se izracunava score za grafiko pa seveda kartica 100% resourcev uporablja samo za grafiko. Ta score se pa potem skupaj sesteje kot da bi v realnosti kartica bila sposobna tako grafiko kot fiziko laufati z 100% resourcev. Zdaj cigava krivda je to je tezko govort. Ti driverji dejansko kolikor mi je znano niso certificirani s strani futuremarka za uporabo v 3dmarku, tako da scori tako ali tako niso uradno zabelezeni v ORBu. Po mojem mnenju je v koncni fazi krivda futuremarka ker so sploh sli dodajat fiziko v pogon medtem ko pa kaksen dx 10.1 manjka. Ko bo obstajal kaksen standard za fiziko naj dodajo v benchmark do takrat pa zadeve po mojem mnenju ne bi smeli upostevati v koncnem scoru.

Mr.B ::

Isto je, kot da bi povsod rekel namesto GPU CPU
France Rejects Genocide Accusations Against Israel in Gaza,
To accuse the Jewish state of genocide is to cross a moral threshold

Pesimist ::

ma to takaltak suxa. Je kot fight BlueRay vs HDDVD

lprelesn ::

hmmmm nben ni nč več novga napisu ..... verjetno je mal hvale o gtx280 >:D :D

mesoreznica ::

Problem GTX280 ni njena zmogljivost ampak previsoka cena.

Sem prepričan da bodo cene GTX-om kmalu padle. Če ne bomo pa šli v ATI tabor. :)

LP
Gigabyte UD3P, E8500 @ 4.5 GHz , HD4870-X2, 4GB ram (Xtreeme Dark),
WD Velociraptor, LC Legion-X

Jst ::

Hja, na manjši proizvodni proces morajo nujno preiti. Čeprav so z 65nm in 1400M tranzistorji naredili čudeže, kar se tiče porabe in gretja. Pomoje nekje jeseni lahko pričakujemo nekaj "normalnega." GS style kartice.
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|

Jst ::

Intelov Havok bo ATI implementiral v svoje driverje, kot je to storila nvidia z pshyx. To je rahlo bedna situacija za uporabnike. CPU ni zmožen tako hitrega računanja fizike, kot GPU in tako bodo igre, ki uporabljajo havok delovale hitreje na ATI karticah, tiste igre, ki pa uporabljajo psihyx pa na GF. Ojoj. Za današnjo generacijo sicer ni tako pomembno, ampak za prihodnje špile...

Upam, da je MS DirectX team na high alert, kako bi računanje fizike spravili pod svoj API. Dx10.2 verjeno ne, mogoče Dx11? Uporabniki/gamerji sedaj upamo na žarek svetlobe iz Microsofta...
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|

Jst ::

Mogoče ima pa Senitel kakšne informacije / roadmap directx-a?
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|

mesoreznica ::

Intelov Havok bo ATI implementiral v svoje driverje, kot je to storila nvidia z pshyx. To je rahlo bedna situacija za uporabnike. CPU ni zmožen tako hitrega računanja fizike, kot GPU in tako bodo igre, ki uporabljajo havok delovale hitreje na ATI karticah, tiste igre, ki pa uporabljajo psihyx pa na GF. Ojoj. Za današnjo generacijo sicer ni tako pomembno, ampak za prihodnje špile...

Upam, da je MS DirectX team na high alert, kako bi računanje fizike spravili pod svoj API. Dx10.2 verjeno ne, mogoče Dx11? Uporabniki/gamerji sedaj upamo na žarek svetlobe iz Microsofta...


Dvomim da bo takole ostalo. Sem prepričan da bodo prej ali slej implementirali oboje.

LP
Gigabyte UD3P, E8500 @ 4.5 GHz , HD4870-X2, 4GB ram (Xtreeme Dark),
WD Velociraptor, LC Legion-X

destroyer2k ::

Jst

Je že potrjeno da havok ne bo implentiran v gpu, samo za cpu licenco so dobili od intel. Drugače pa tudi od nvidie fizikalni pogon tudi dela na ati-jevih karticah (saj menda so že tu omenil da je eden heknal in priredil za ati). Samo tudi če bo ta pogon uspešen bodi siguren da ati bo takoj dol ta pogon podporo svojim karticam (da pa nvidia nebi dovolila pa nebi bilo logično, ker potem tudi velik razvijalcev sploh nebi probali ta pogon).

Jst ::

Če je nvidia lastnica Psisyx in s tem vseh njihovih patentov in rešitev, ne vem, če ima ati tukaj kaj pisati.

V kolikor se motim, vir prosim.
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|

destroyer2k ::

Jst

Narobe si me razumel ali pa nisi dobro prebral ati ni naredil podporo fizike od nvidie cude programa, heker je.

http://www.tomshardware.com/news/nvidia...

Revenant ::

Po totalnem razturu v tej temi kot nič hudega sluteč slo-techovec sklepam, da se obeta totalna razčefurijada na področju gaming izkušnje, že kmalu? Prvi drajverji verjetno ne bodo BP, pa še cene zanjo v tem obdobju paaaaast. Glede na to da mam 7950GT in sem z njo še kar zadovoljen (crysis na med), potem je verjetno brezveze grabit po trenutnih ugodnostih in best-buyih, an? :D
Bolje golob v roki kot kurac na strehi.

Zgodovina sprememb…

  • spremenilo: Revenant ()

mesoreznica ::

Itak ni trenutno nobenega novega špila, ki bi gonil grafiko ne vem kam. Tako da pomoje če te ne matra želja furat Crysis na High/Very High, počakaj na nove špile in vmes gledaj kako padajo cene grafam. :)

LP
Gigabyte UD3P, E8500 @ 4.5 GHz , HD4870-X2, 4GB ram (Xtreeme Dark),
WD Velociraptor, LC Legion-X

Senitel ::

Jst: Kot že omenjeno, DX11 (DX10.2 ne bo sploh) bo zlo verjetno imel compute shaderje, preko katerih se bo dalo fiziko implementirat (DX11 nekje do konca 2009). Pravtako se obeta Open Compute Library (OpenCL). Celega fizikalnega pogona pa ne bo v DX.

destroyer2k: Dokler ta hekerček ne pokaže nekaj konkretnega...

destroyer2k ::

Senitel

Ah meni je tako vseeno, če ta heker naredi zelo dobro, ker sem takega mnenja da nvidia bo pustila ta pogon ati-ju, če pa ne bo pustila potem pa sploh ne vem kako lahko pričakujejo da bi dosti devolperjev hoteli ta pogon, da bi delalo samo na enem taboru. Morali se bodo odločiti ali hočejo da havok bo še vedno veliko bolj uporabljen ali pa njihov pogon začel bit popularen.

lprelesn ::

...ne morem vrjeti ! v eni izmed rač. trgovin na spletu poznam enega izmed zaposlenih (moj kolega) ki mi je omenil da so ze samo v tem tednu od pon. pa do danes čet. prodali čez 40k Ati kartic serije 4*** ! in jih imajo že rezarveranih v naprej za prodajo samo jutri v pet. cca 30k 4850 in 4870 cca 25 ! Nvidijene kartice pa so prodali do sedaj, od izida samo 1kos gtx280 in 1kos gtx260 ! Ker sem bil prej vedno uporabnik Nvidia kartic in sem sedaj prvič se odločil kupt k. od Atia sem si kar malo odvalil kamen od srca kajti bil sem malce skeptičen če se od atija sploh splača kupt grafo. skratka....... zelo moram pohvalit ati ker je v tej tekmi (vsaj jaz mislim tako-testi,cena ) premagal Nvidijo in sem vsaj zaenkrat vesel, da sem se odločil za slednjo.
....in očitno mu ljudje zelo zaupajo,....pa še to od nekega dobavitelja sem izvedel da pridejo že spet nove kartice in sicer od nVidie v koncu meseca avgusta (zač. sept.) kot proti udarec 4870 seriji in začetek novega boja z 4870x2-cena le te bo nekje 400€,450€ (neuradno)

l.p. :))

Zgodovina sprememb…

  • spremenil: lprelesn ()
1
2
3 4 5


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo

GTX 260 vs 4870 (strani: 1 2 )

Oddelek: Kaj kupiti
614985 (4098) Zheegec
»

GeForce Power Pack (PhysX gonilniki, igre in demoti)

Oddelek: Programska oprema
132582 (2198) All
»

Prenovljena GTX260 (strani: 1 2 3 )

Oddelek: Strojna oprema
1136673 (4996) jureus
»

Kdaj v Sloveniji Nvidia 9800 GTX+ in price drop Nvidia grafičnih kartic?

Oddelek: Strojna oprema
142111 (1816) Vuli
»

Informacije o prihajajočih grafičnih karticah

Oddelek: Novice / Grafične kartice
465164 (3358) gruntfürmich

Več podobnih tem