» »

G71

G71

The inquirer - Boj med grafičnima velikanoma ATI-jem in Nvidio je oster in neusmiljen. Medtem ko se obe podjetji pripravljata na predstavitev novih grafičnih procesorjev, tu pa tam v javnost pricurlja kakšna informacija o specifikacijah novosti.

Tako nam Inquirer razkriva nekaj špekulacij na račun nove zverine iz Nvidie, ki nosi ime G71. Ker je v bitki za prestol najhitrejše grafične kartice potrebno poseči po marsikateri velikopotezni rešitvi, bo nova kartica opremljena z gromozanskim hlajenjem v stilu Radeona X850XT, ki zaseda še dve sosednji reži, poleg tega bi naj hladilniku v pomoč priskočile še štiri vroče cevi in 80 mm puhalnik. Takšno hlajenje je potrebno zaradi takta procesorja, ki bi naj na nekaterih inženirskih primerkih dosegal do 800MHz. Procesor, izdelan v 110 nm tehnologiji, bo opremljen s 512 Mb GDDR-3 Samusungovega pomnilnika, kapaciteta posameznega čipa pa še ni poznana. Špekulacije glede imena kartice namigujejo na 7800 Ultra, več podrobnosti pa zaenkrat še ni na voljo.

Bomo kmalu tudi na področju grafičnih procesorjev takt označevali z gigaherci?

28 komentarjev

RejZoR ::

Pomoje da bojo Ultro prihranil za 90nm proces. 110nm se bo grel kot prasica. Čeprav zna nov proces prinašat težave na drugih področjih...
Angry Sheep Blog @ www.rejzor.com

mtosev ::

Bomo kmalu tudi na področju grafičnih procesorjev takt označevali z gigaherci?

Očitno ja. :D

hyphh ::

Če se bo ornk grel ne bo glih finga potenciala za overclock...

Vrocipes ::

Hmm vodno pa bo. Če se zelo greje mogoče to pomeni, da ima visoke voltaže, posledično boljše navijaje :)

Jaka83 ::

Hmm vodno pa bo. Če se zelo greje mogoče to pomeni, da ima visoke voltaže, posledično boljše navijaje

Ne, to bi pomenilo, da rabi visoko voltažo, da sploh deluje, kar bi posledično pomenilo, da rabi še višje voltaže, da jo naviješ. DOOH

Pa v novici je dosti slovničnih napak (dvojina pa to).

PS: Ko vidim v novici "The Inquier" vzamem vse z veliko rezervo.

Zgodovina sprememb…

  • spremenil: Jaka83 ()

Vrocipes ::

Hotel sem rečti recimo to:

Primerjal sem več 9800pro kartic in tiste, ki so se zelo grele sem jih lahko precej boljše navijal. Tista ki je bila bolj hladna pa frekvence nikamore niso šle.

Jaka83 ::

Ampak to ni point tukaj. Saj ne primerjaš G70 z drugim G70 ampak G71 (kao). Kar pomeni, da sta pač malo različni jedri, pri katerem ima slednji višjo frekvenco in verjetno tudi višjo voltažo, da alhko dela na taki frekvenci, kar privede do več oddane toplote.

Myth ::

Glede na tale in tale in še mnogo drugih testov na internetu, ima probleme že g70 proti atijevemu kralju. Omejuje ga namreč procesor (vsaj tako govorijo). Zato tudi pričakujem, da bo nVidia še izbolšala svoj g70, g71 serijo tako, da bo lahko konkurirala atijevemu r520. Vsaj tako govorijo govorice.

en LP
¤ Space is Mystery. And Myth is on Earth. ¤

Senitel ::

Kaj ti pomaga še tolk izboljšat grafično kartico, če te omejuje CPU??? Če CPU ne dohiteva grafične jo bo še toliko manj, če je ta hitrejša. Framerate lahko dvigneš samo še tam kjer CPU ni omejitev... Velike resulucije in FSAA...

GUFY ::

Za "spodobno" poganjanje take grafe bi moral imeti FX57 navitega na 3200 MHz...

PrimozR ::

Zakaj pa lih FXa? Lohk bi vzel že recmo 3700+, tut San DIego sam množilnika nima odklenega (na gor sevede).

Senitel ::

Lahko imaš 386, če je grafika dost zahtevna...

Myth ::

Če bi bolje teste brali, moraš za te zverine že imeti torej kaj več kot 3800+ , pa vklopleno 4xAF pa te zadevce in jih poganjat za resoluciji večji kot 1600x1200, da se kartica pač "pretegne". :)
¤ Space is Mystery. And Myth is on Earth. ¤

nodes ::

rešitev imamo že fizikalni koprocesor, nič se ( kot se meni zdi ne premika) v smeri paralelnosti

Senitel ::

Kaj ko bi raje zakompliciral grafiko mal?

igor0203 ::

kaj ti pomaga če maš 2 x 7800GTX, če pa v nobeni igri tega ne izkoristiš 100%? edin 3dMark05 je tako zahteven da dobro namuč tako grafično.
zdej bi moral več delat v razvoju CPUjev, ker so zdej CPUji postal ozko grlo pri "ultimate" igranju

Myth ::

Saj to hočem ravno povedati, Senitel. Zdaj bi mogla ati in nvidia it na počitnice za eno leto in dat na svoj page pa še kam napis: Dokler ne boste zadegali tega vsega kar ponujamo v igre, ne bomo delali novih grafičnih. Pripis: Tudi AMD in Intel naj spravita ven procesor ki ne zavirata gpu-ja. :D

V vsaki šali je nekaj resnice. V tejle je je še preveč. :\
¤ Space is Mystery. And Myth is on Earth. ¤

Jaka83 ::

Denar pa iz lufta prleti...

Senitel ::

Unreal Engine 3 :D

P.S.: Point je, da CPU ni problem pri pošiljanju ukazov za renderiranje na GPU. CPU lahko zabaše GPU v nekaj ciklih. In ko zabaše GPU se lahko loti česa pametnejšega, naprimer fizike in AI. Samo kaj ko so grafične kartice prehitre za taske, ki jim jih dajejo CPU-ji. Kot je Huddy malo med vrsticami povedal v enem intervjuju: shaderji danes 50% časa spijo.

Zgodovina sprememb…

  • spremenil: Senitel ()

Myth ::

Jakoslav, ne... ampak iz prodanih artiklov. Sploh če upoštevaš slovenski marketing. Še zdaj imaš večino "starih" artiklov , nasploh grafičnih in procesorjev. Napram ameriki recimi. Ampak to je spet drugo poglavje. :)
¤ Space is Mystery. And Myth is on Earth. ¤

Looooooka ::

najnovejse graficne in podobno sranje je najvecji nateg v racunalniski industriji...ce zravn ne stejemo procesorjev.
Cene s primerjanjem hitrosti cez leta so cist eeeeek.
Kar se tice napredka ga pa v zadnih 2 letih ni.Grafika sploh ni tm kjer bi si clovk zelel da bi ze bla in vse kar dobivamo(in to sam zarad zagamanim gamerjev s prevec casa,ki so pripravljeni placat vsako vsoto sam da majo najnovejso graficno) so graficne in procesorje, ki zrejo prevec stroma,proizvajajo prevec toplote in za svoje delovanje rabjo preglasne ventilatorje.
Bi bil skrajn cas da evropska komisija za zdravje pa se kdo drug predpise nov zakon o minimalnih temperaturnih in glasnostnih zahtevah za te naprave.Matr pr mobitelih in ostalem sranju se saj trudjo delat manjse in bolse zadeve.Ta kurceva amd-intel konkurenca pa sam pljuva vn sranje za sranjem.
Upam da bojo ti dual core procesorji do naslednjega leta fino izpiljeni pa da se bo zadeva obrnla na bolje.Do takrat lahka pa ocitno o klimi pa vati zacnem razmislat.

R33D3M33R ::

To mi nikakor ni všeč. Kot kaže bom moral poleg grafične v prihodnosti zamenjati še procesor, da bo sploh delovalo na tisti moči, ki jo grafa zmore - drugače bom očitno denar vrgel stran, ker bo CPU ne bo dohajal grafične. Seveda je pa tu še nov RAM in nova matična in novi stroški... ;(
Moja domača stran: http://andrej.mernik.eu
Na spletu že od junija 2002 ;)
:(){ :|:& };:

Myth ::

Loka, se kar strinjam s tabo. Intel je tako z M procesorjem ki ga je spravil zdajle na namizne računalnike, zadel spet v "bullseye". (kaj več o tem zveš na Jokerjevi strani, najnovejši Joker, železnina). Se ne grejejo, malo porabijo , glede frekvenc pa ne bom nič rekel, edino tole da so njegovo procesorsko moč eni majstri spet do 4GHz spravli z hudim hlajenjem. 8-O
¤ Space is Mystery. And Myth is on Earth. ¤

Senitel ::

Lahko greš kričat nad:
1. Izdelovalci špilov, ker grafika v sodobnih špilih sucks, oziroma niti približno ne izkoristi grafične kartice. Ti te bodo verjetno napotili do založnikov, ki ti bodo prijazno povedali, da mora špil delat na Riva TNT... Samo to se bo spremenilo: Unreal Engine 3.0 bo za delovanje potreboval DirectX 9.0 grafično, na slabših sploh ne bo deloval.
2. INTEL in AMD, ker njihovi najhitrejši procesorji niso sposobni obnavljat fizike v igrah 300x v sekundi.

Ne moreš pa kričat in se pizdit nad ATI-jem in NVIDIO, da so nove kartice nateg, da niso nič hitrejše od prejšnje generacije, če nimaš niti ene "killer app". Če se pa lotiš teoretičnega testiranja se pa ta zelo dobro prilagajajo teoriji.

To je tko kot če bi se šel kregat nad Ferrarijem, ker z njim ne moreš furat niti 200km/h po makadamu...

PrimozR ::

Senitel jest bi reku glede ferrarija da se ne morš 200km/h pelat nikjer spljoh razen na progi.

Tilen ::

|GeNeRaToR|, zaradi taksnih in podobnih kot ti so cene taksne kot so.

Beseda _moral_ kupit je precej...
413120536c6f76656e696a612c20642e642e

ČIP 008 ::

Dobro grafo se splača kupiti, da imaš nekaj časa mir v compu. Ne pa, da posledično zamenjaš še procesor, ram, matično itd...:D

R33D3M33R ::

Tilen: Nisem preveč razumel kaj si mislil s tem, ampak moj procesor je star že 3 leta ->AXP 1800+ in se bi šel staviti, da take grafične ne bi mogel dohajati.
Moja domača stran: http://andrej.mernik.eu
Na spletu že od junija 2002 ;)
:(){ :|:& };:


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo
»

Zla koda v grafičnih procesorjih

Oddelek: Novice / Grafične kartice
63806 (2753) denial
»

NVidia kupuje VIA Tehnologies?

Oddelek: Novice / Nakupi / združitve / propadi
234618 (3619) Jst
»

Stanje na trgu grafičnih procesorjev

Oddelek: Novice / Apple iPhone/iPad/iPod
396082 (3717) Jst
»

Intel se pripravlja na prehod na 45 nm

Oddelek: Novice / Nakupi / združitve / propadi
133617 (2940) SavoKovac
»

G71

Oddelek: Novice / Grafične kartice
283261 (2356) R33D3M33R

Več podobnih tem