VR - Zone - Na VR-Zone se je pojavila prva slika grafične kartice, ki bi naj bila OEM verzija Radeona X2800. Po poročanju VR-Zone, bi naj X2800 XTX izšel v dveh različicah, in sicer daljši OEM verziji (31,5 cm) in krajši retail verziji (24,1 cm). Obe bi se naj šopirili z 1 GB GDDR4 pomnilnika, poleg dolžine pa naj bi se razlikovali tudi po porabi: krajša bo od napajalnika zahtevala 240 W, daljša pa 270 W.
Thats a huge bitch. Voodoo 5 izgleda proti tem kot lulček, ki je prikorakal iz reke Soče... Me prov zanima kolk bo realno hitrejši od G80 da upraviči tako velikost in porabo. Pa to je še enkrat daljše od moje 6600GT lol
jaz bi mogo luknjo izrezat na ohišju da tole not spravim. Da ne omenjam postavitve električne omarce v sobi za tole. Nova igrica amd in nvidie. Kdo ma večjo, kera več poje?!
folk mene tud zanima kolk bo tole letel.kot sem že omenil mislim da bo sedaj ati(amd) prevzel primat najhitrejše kartice.A so kje kakšni testi.Če so slike zunej morejo biti tudi kakšni testi kje.
3DFx je najprej delal hudo dobre grafike, potem je malo počival na lovorikah stare slave, potem je čaral razvlečene kartice, ki razen velikosti in porabe niso bile nič posebnega, potem pa je šel rakom žvižgat.
Jao folk, retail grafa bo krajša od 8800 GTX!!! TOle je OEM, miljontič tukaj na STju že govorim tole - tako dolga je zato, da se zatakne v ohišje. Na drugo stran namreč. Gre pa za kištice Della, IBMa, Apple-a, itd. Ti sicer dajo na grafično nek bracket da jo lako foksorajo (Apple je to delal na 6800 Ultra grafični), tukaj pa je za to poskrbel že ATi. S tem je grafična pač veliko bolje fiksirana (kar je plus pri shippingu teh kišt).
1GB rama na grafi lol tok ga mam js DDR Zdej bo morla nVidia pokazat svojo 8900 GTX Čez kok let bo softver k bo nucal tok GDDR-a mtosev, kaj se že zanimaš za njo? al si jo že dal v košarico pa te sam skrbi če bo dovolj
Sem lepo napisal, da je tale tako dolga zato, da ima na koncu bracket za zahakljat grafično na ohišje. Torej pritrjena v je PCIe slot, pri I/O panelu ter še na drugi strani, kjer so diski in optične enote. S tem je grafična veliko bolje fiksirana in se praktično ne more odhakljati (ima velik in predvsem težak bakren hladilnik). Tole je namenjeno za OEM kište (Dell in podobno), ki pogosto prepotujejo pol amerike oz. celo pol sveta. Prav zaradi tega bi se lahko odhakljala. kot sem pa že rekel, pa ta bracket to preprečuje. Retail kartice so lepo zapakirane v škatlo tako da poškodb pri njih praktično ne more biti.
P|P: brez veze se matras...folk sam pogleda in pise, brez da bi kej razmislu, kasne traparije izjavlja.
torej, sam gpu je na papirju hud, zanimajo me testi. ampak se lepsi pa bo odgovor nvidie
The reason why most of society hates conservatives and
loves liberals is because conservatives hurt you with
the truth and liberals comfort you with lies.
kot so nekateri, ki očitno redki še premorejo kaj pameti, že napisali - retail kartica bo 4cm krajša od 8800gtx. oem verzija pa bo v prosti prodaji bolj izjemoma...
1ACDoHVj3wn7N4EMpGVU4YGLR9HTfkNhTd... in case I've written something useful :)
Končno nekaj za prave dece! Ene štiri take kartice (moja nova mašina ima 4x16 PCIe), en navaden Conroe in dva konkretna napajalca pa nekaj kar potrebuje oz. izkorišča GPGPU. Tisti, ki bo tole rabil ne bo premišljeval kaj dosti o porabi. Ste kdaj videli grafične podsisteme pri starih dobrih SGI mašinah? Kolikor mi moj blodeči spomnim omogoča se spomnim da so imeli celo neke vrste tekočinsko hlajenje.
Končno nekaj za prave dece! Ene štiri take kartice (moja nova mašina ima 4x16 PCIe), en navaden Conroe in dva konkretna napajalca pa nekaj kar potrebuje oz. izkorišča GPGPU. Tisti, ki bo tole rabil ne bo premišljeval kaj dosti o porabi. Ste kdaj videli grafične podsisteme pri starih dobrih SGI mašinah? Kolikor mi moj blodeči spomnim omogoča se spomnim da so imeli celo neke vrste tekočinsko hlajenje.
Če en bo učinkovitga načina, kako GPU ponucat kot CPU, bo tale tvoj sistem bolj ko ne useless. In en COnroe ima probleme že z 8800 GTX; torej s tole tudi verjetno. Za izkoristit SLI rabiš ORENK navit procesor. Dvomim pa še, da ima tvoj sistem med vsemi štirimi PCIe x16 režami po eno režo placa - ta grafa je namreč dual slot.
Če en bo učinkovitga načina, kako GPU ponucat kot CPU, bo tale tvoj sistem bolj ko ne useless. In en COnroe ima probleme že z 8800 GTX; torej s tole tudi verjetno. Za izkoristit SLI rabiš ORENK navit procesor. Dvomim pa še, da ima tvoj sistem med vsemi štirimi PCIe x16 režami po eno režo placa - ta grafa je namreč dual slot.
He? Kaj ima CPU zvezo z grafično? Tudi s Pentiumom 4 lahko izkoristiš grafično. Daš vse na maksimum, max. AA, max. FSA, vse in nastaviš maksimalno ločljvost (recimo, predstavljajmo si, da imaš kak orenk 24"LCD z vsaj 1920x1200 ločljivostjo), seveda je maksimalna ločljivost odvisna tudi od monitorja. No vglavnem, ko imaš v neki igri vse na max. in največji ločljivosti jo boš v resnici maksimalno izkoristil. Bi pa verjetno gledal diafilme na Pentiumu 4... ampak, ne mi pravit, da ne moreš grafične izkoristit do maksimuma. Ker to ni res!
Hrabri mišek (od 2015 nova serija!) -> http://tinyurl.com/na7r54l
18. november 2011 - Umrl je Mark Hall, "oče" Hrabrega miška
RTVSLO: http://tinyurl.com/74r9n7j
OK, s tem se strinjam. CPU seveda ne more slediti ogromni količini podatkov. Zaostane v ciklih. Zato pa AMD razvija platformo, ki ima na sebi CPU-GPU kombinacijo, da se kaj takšnega v prihodnosti ne bi zgodilo.
Hrabri mišek (od 2015 nova serija!) -> http://tinyurl.com/na7r54l
18. november 2011 - Umrl je Mark Hall, "oče" Hrabrega miška
RTVSLO: http://tinyurl.com/74r9n7j
TO ne bo rešilo tega. Itak bo pa AFAIK ta CPU imel bolj osnovno grafično in bo anemnjen bolj pisarniškim kompom. Eno Venice jedro združeno z R600 bi še vedno krepko pokleknilo. Ni problem v latenah pri prenosu, problem je v surovi moči. 8800 GTX je na A64 sistemih porazno počasna. Za DX 10 grafične je nujno potreben Core 2 Duo, šlo pa bo tudi s K10 (ex. K8L).
240 W moci potrebuje graficna za delovanje?! Moj komplet racunalnik BP deluje s 300 W napajalnikom.... Zdej vem, zakaj po celem svetu razmisljajo o novih jedrskih elektrarnah.
Zdej vem, zakaj po celem svetu razmisljajo o novih jedrskih elektrarnah.
Jah, pred časom je nekdo rekel, da če bi vsako gospodinjstvo imelo samo eno žarnico manj prižgano, bi prišparali eno elektrarno. Kmalu bo nekdo rekel: prosim vas vsa, da uporabljate svoje SLI in Crossfire kartice le enkrat na teden, sicer se nam bo električno omrežje porušilo. Hvala!
Hrabri mišek (od 2015 nova serija!) -> http://tinyurl.com/na7r54l
18. november 2011 - Umrl je Mark Hall, "oče" Hrabrega miška
RTVSLO: http://tinyurl.com/74r9n7j
Če bi v vseh hišah Slovernije na enkrat ugasnile luči, bi se to zelo malo poznalo pri uporabi elektrike, ker je glavni požeruh industrija. To da grafične žrejo 300W+ je preveč, sam bodo tudi to zmanjšal z časom enako je bilo pri procesorjih.