» »

Pogled na NV40

Pogled na NV40

««
8 / 8
»
»»

MrX ::

delajo ja, sam ne tok opazno in očitno kot pri nvidiji.

Dr_M ::

nvidio zato vsi vlacijo po zobeh, ker ji zamerijo, da je povozila 3dfx....:\ :\
The reason why most of society hates conservatives and
loves liberals is because conservatives hurt you with
the truth and liberals comfort you with lies.

Caligula ::

MrX, daj ne govori na pamet. Ce imas konkretne podatke le na dan z njimi. Jaz Nvidiji ne zamerim, da je povozila 3dfx.
Zamerim ji idiotski odnos do trga, konkurence in uporabnikov.

In se ne poboljsujejo se glede tega.

Senitel ::

Namesto, da se folk pizdi glede optimizacij gor in dol, bi bilo 100x bolj pametno, če bi samo primerjal sliko na obeh karticah, ampak to malo bolj podrobno. Novi GeForce-i in Radeon-i imajo precej različne karakteristike, kaj je hitro na eni in kaj na drugi kartici in, če imajo vse igre (in 3D Mark 2003) pisane shaderja "ATI way" potem ima NVIDIA problem in mora te shaderje nekako predelat, da so bolj GeForce friendly... Bistveno boljša rešitev je ta, ki jo napovedujejo za nov 3D Mark, vse v DX9 HLSL in potem rezlične compilerje za različne kartice. Isto se bo zgodilo v OpenGL-u takoj, ko bodo začele igre uporabljati GLSL (za prevajanje GLSL je itak odgovoren driver)...

Grey ::

Optimizacija ni goljufanje. To si že enkrat zabijte v glavo. A se mogoče kej slika razlikuje od take kokr so si uni zamislil? A se? Js ne opazm nč tazga. Fora tistih screenov pr FarCry in teh drugih jajčkih pa je v tem, kako se kartica(driverji) spravjo obdelovat sliko. Ker majo očitno preveč kompleksne operacije(kar pomeni bolj napredne) morajo prilagodit obravnavo procesa v driverjih tako, da bo pač zadeva laufala. To ni čis nobena goljufija.
Že tko je splošno znano da so GFji velik bolj natančne kartice, zato mogoče tud počasnejše.

Ponavljam milijontič pa mi še ni noben nazaj odgovoru: Kaj je s podporo DX9.0? Kokr jes vem ma ATi popoln dostop do sourca DX9ke medtem ko nVidia naj ne bi mela zarad že znanih razlogov. Lahk da se motim, ampak js sm si tko zapomnu od incidenta z GF FX5800 in Cg kompajlerjem. Mel so zlo velik problemov z Microsoftom zarad tega in baje je ta zaprl pipco pr nVidii. Zato sklepam da zarad tega meče tud vn tist error pr shadermarku da kao neki del DX9ke ni podprt pri FX6800. Torej...

Dr_M ::

kdor je bolj lezu microsoftu v rit, je vec dubu... :\ :\
The reason why most of society hates conservatives and
loves liberals is because conservatives hurt you with
the truth and liberals comfort you with lies.

Senitel ::

Ma vse zarad česar sta NVIDIA in Microsoft imela probleme je bila cena grafičnih čipov za XBox! Tako NVIDIA, kot ATI, kot Hermes Softlab (in kup ostalih firm) imajo svoje ljudi PRI Microsoftu (ki delajo v samem Microsoftovem kampusu) in so v bistvu nekakšni ambasadorji. Ko reče MS "mi bi pa naredil nov DX" pteko teh ljudi izvejo kakšne želje imata NVIDIA in ATI (in še kdo) in potem se zgradi specifikacija. Tukaj tudi nima source koda DX nobenega smisla, ker je DX itak samo vmesnik med aplikacijo (igro) in driverjem grafične kartice. Igra reče DX-u da hoče nekaj naredit, DX pa to prevede naprej v sporočila driverju (ker ne pišem driverjev nevem kako točno to izgleda). Tako imenovani DX runtime skrbi, da "uporabnik" (programer igre) pošilja vse po pravilih (in emulira starejše DX-e, ki morda niso več podprti s strani driverja). Če se pa driver pravilno odziva pa skrbi MS z WHQL. NVIDIA in ATI sta tukaj povsem na istem (oba driverja dobita od DX-a povsem isto in od MS-ja iste specifikacije DX-a).

Kot sem v prejšnjem postu omenil pa je za GeForce-a lahko neka koda manj optimalna kot za Radeon-a, vendar oba dobita isto (tisto kar so programerji napisali). In NVIDIA je z FX-i tukaj pogorela totalno, ker so bili enostavno prepozni (vsi DX9 shaderji so pisani "ATI way") in to je FX-e pošteno teplo (ročne zamenjave shaderjev v driverjih, avtomatsko razporejanje inštrukcij, ki je prišlo šele bistveno kasneje; pa itak je bil FX že počasnejši od Radeonov, pa še polovična natančnost (fp16) in pravila optimizacij, ki jih svet še ni videl (da se občasno izplača kaj še enkrat izračunat, kot pa shranit v en register)).
Je pa še posebej pri FarCry in vseh teh obtoževanjih o goljufanju in nelegalnih optimizacijah en tak velik kup bedarij, da glava pače. Trenutno DX 9.0c še ni zunaj (ki bo imel nekaj malenkostnih popravkov tudi za pixel shaderje 2.0) je pa beta. Vsi veselo testirajo to z DX 9.0b, ki pa IMA probleme z 3.0 shaderji (and I know this for fact). CryTek ima dostop do DX9.0c in 3.0 shaderje so ziher pisal z 9.0c.
Sedaj naj mi pa nek stručko pove, kaj za boga se zgodi med driverjem za 6800, DX 9.0b in FarCry-em? A lahko nekdo z gotovostjo reče, da FarCry na DX 9.0b sploh ubere code path, ki je namenjen za 6800, če ga ne prepozna kot 6800? Oni screen shoti, ki prikazujejo kako lighting na 6800 sucks (vse blocky) v primerjavi z Radeoni definitivno ne uporabljajo FP32 in tudi ne FP16... FarCry IMO GeForcea 6800 definitivno prepozna kot običnega FX-a...

Malecky ::

nvIDIOTI in fanATIki bodo vedno:D

morphling1 ::

Right on.

Kolk folka je tu dejansko prebralo, kak malo bolj konkreten preview teh novih kartic na recimo B3D, Xbits ali pa še DigitLife strani in ne samo preskočilo na teste in iz tam potegnila neke zaključke brez vsake osnove ?

Tisti, ki ste malo bolj natančno prebrali ste lahko videli da je X800 XT dejansko samo R360 s podvojenimi cevovodi ter še nekaj dodatnimi izboljšavami (nič narobe s tem, ker je osnova dobra) kar pomeni da so gonilniki že precej dobro optimizirani za novo jedro.

nV40 je po drugi strani popolnoma nova arhitektura glede na prejšno generacijo in vsi gonilniki s katerimi so bili narejeni prvi testi so še v lepi beta fazi. Zdaj mi naj pa en lepo pove, katera kartica je s nedodelanimi gonilniki dosegala optimalno kvaliteto slike in hitrost ??
Rezultati, ki jih dosega nV40 pri danih frekvencah so res odlični in clock for clock brez težav lovijo in prehitijo vse kar prikaže R420, samo jedro nV40 je odlično zamišljeno in izvedeno. Edini problem ostaja velikost jedra, ker pri tako velikih čipih ni dobrih izkoristkov silicijevih rezin kar pomeni majhno število delujočih primerkov in s tem visoko ceno ter v končni fazi zelo pomembna frekvenca čipa, ki ne je omejena zaradi same velikosti in potrebe po moči. Manjšanje jedra bo tu nujno potrebno vsaj na 110nano če ne na 90, res pa je da High end kartice predstavljajo samo PR material za promocijo znamke (zato so sicer nujno potrebne) samo pravi denar se bo tako in tako služil v srednjem in nižjem razredu, kjer bo zanimivo videt oskubljene derivate nV40 in R420.
Boj se še ni dobro začel ko eni že razglašate zmagovce in poražence, če ne drugega niti v prodajo še ni nobene od kart.
http://www2.arnes.si/~mlivak/ Nekaj kar naj bi bila moja domača stran, pa nikoli ne bo :)

Dr_M ::

podpis.:)
The reason why most of society hates conservatives and
loves liberals is because conservatives hurt you with
the truth and liberals comfort you with lies.

Freelancer ::

Sam res... :). Sej pravim, hujs kakor AMD vs Intel :D.

Grey ::

morphling1: Res je, strinjam se.

Caligula ::

Ritol... >:D :D

Se ne podpisem. Poanta sploh ni v NV40. To je cist dobra kartica. Problem je v Nvidiinem vedenju.
Optimizacija za igre, ki poveca stevilo FPSjev brez, da bi poslabsala kvaliteto je OK.

Sam Nvidia optimizira obicajno z namenom, da bi otezila direktno primerjavo s konkurenco.

Pa mislm, da ne rabis bit ekonomist, da ti je jasno, da se tako obnasajo najbolj kmecke firme na planetu.
V kaki panogi bi jim kak nadrozni organ al pa konzorcij tok najedu, da bi blo joj.

Skratka firma je kot cefur. Samo mutenje. Sej ne morjo bit vsi izdelki slabi in NV40 to sploh ni.
Sam je pa tud tuki mal smesno, da jih ATI se s staro arhitekturo ujame pa clo prehiti.

Pa dobr-jebes ATI. Sploh ni, da bi kake medalje zasluzil. Sam Nvidia gnojiiiii z konstantnim prckanjem.

Podpisem, da je NV40 dober izdelek sam Nvidia je pa crap od firme. Podn. Tako vedenje je v ekonomiji znacilno za firme, ki propadajo, se priblizujejo bankrotu... tko da ne vem kaj se tem ljudem dogaja v glavah.

Dr_M ::

Caligula: po tvojmu postu sodec, sploh nisi prebral kaj je morphling1 napisu...al pa ne razumes.

drugac pa nvidia ne bo bankrotirala, se mnogo let ne :)
The reason why most of society hates conservatives and
loves liberals is because conservatives hurt you with
the truth and liberals comfort you with lies.

Caligula ::

Prebral. Sicer pa ma Nvidia ful slabse marze od ATIja. ATI je lahko staro arhitekturo uporabu, Nvidia je mogla pa ze za pariranje temu svoje adute prihodnje generacije vn vlect,..

Pa sej ni vazn, Morphling je napisu ces kot da mene recmo kaj moti pri izdelku samem.
Ne gre za to. Gre za firmo. In ta je kmecka. In se vztraja pri tem.

Pa se nekdo je gor omenju, da se Nvidia pac ne pajdasi z izdelovalci iger...
Ravno ATI se ne. Povsod so sam The way it's ment to be played logoti pojavljajo.

Skratka Nvidia to pocne pa se vedno ni pravega efekta-da bi mela ob enaki ali boljsi sliki hitrejso graficno.

Pa se to ni problem. Problem-kot ze napisal-je v obnasanju firme.

Freelancer ::

d00d! Let it go :D.

Fury ::

No, da se postavim v bran nvidie - pajdasenje z nvidio je lahko zelo zelo zelo zelo koristno za developerje in za samo kvaliteto izdelka na koncu. To bi mogl vec pocet. Boljsi stik z developerji -> bolj kvaliteten/optimiziran izdelek -> zadovoljnejša stranka.

HeiJack ::

#Caligula#

Tvoja poanta je lahko le dvojna:

1. persona rudis pove vse

2. zelenec, ki razmetava z denarjem (fotrovim seveda) polnim adrenalina


Ne me mi zamert, ampak tako vsaj (če ne še vsaj 10 folka ke jih poznam) misli!


LP:D

HeiJack ::

Aj-a!

Pozabu sem povedat;
vsi, ki se ukvarjajo(mo) s 3D grafiko vemo, kaj je dobro in kaj ne (p.s. ATI puši na celi črto o.p.p.:'( )



:D p.s. nVidia gave us good and mostly fast jobs!!!!!!!!:D

Caligula ::

Hei Jack, ves folk, ki se spozna na grafiko ve, da se za graficni design uporablja kartico, ki je za doticno aplikacijo najbokljsa in taki ljudje niso teleta, da bi stavili na firmo proizvajalca ampak na vsak posameni model posebej.

Persona rudis je vcasih povedal vse, zdaj pa so ga razvrednotili, ker ze vsak dobi ta nick. Vcasih je blo v tem vsaj nekaj ekskluzivnosti.

Hei jack, jaz si vse stvari kupim sam. In za igre je med graficnimi to ATI, ker ne nateguje, nima primitivnega nategovalskega odnosa do kupcev sicer pa, ce bi ti imel kaj pojma, bi raje konkretno povedal, da je verjetno ta Nvidia za oblikovanje boljsa pa malo prebral, pa ugotovil, da nas vecina tu govori o igrah.

Pa o benchmarkih, ki so primerjalni tool, ki ga Nvidia na pritlehne nacine sabotira.

Pa ni zamere.

Dr_M ::

Caligula: sej intel ma isti odnos, pa ga veselo zagovarjas. :\ :\
The reason why most of society hates conservatives and
loves liberals is because conservatives hurt you with
the truth and liberals comfort you with lies.

Caligula ::

Jz ne zagovarjam Intela kot korporacije. Eni tega ne locite. Eno je izdelek, eno je odnos,..

Meni je to z Nvidio podobno kot bi kupoval v trgovini z idiotskim odnosom. Ti nekaj recejo, pol dobis nekaj drugega, vprasas po konkretnih podatkih, pa ti zacnejo mutit,..

Pri Intelu menim, da so sistemi na njihovi platformi bolj zanesljivi. Ker tudi vidim kaj folk naroca za orenk zadeve, pri bratu vidim zakaj in kako,..

Sam imam AMDja, ker je poceni in ne rabim tiste vrhunske stabilnosti pa tudi nimam nevem kakih problemov. Pa tudi trenutno kaze, da bo mel mogoce AMD prednost pri nekaterih pomembnih stvareh kmalu.

Pri Nvidiji mi je korporacija naveden nateg. Ce se za vsak drek zlazejo,..
Pa se tista primerjava za katero so rekli ,da je med Pixel shaderji 2.0 in 3.0 so se zlagali in je bila med 1.0 in 2.0... ali 1.0 in 3.0..

Skratka skos neki. Pa se enkrat-kako zaupat izdelku cigar proizvajalec konstantno proba onemogocit transparentno primerjavo s konkurenco?
Ce se nekdo tko na vse kriplje trudi to pocet mora se sam verjet, da je inferioren. In dejansko je res, da se firme tko obnasajo, ko so na robu propada ali bankrota. To je tipicen vzorec in, ker naj tega strahu trenutno za Nvidio nebi bilo, ne razumem kaj jih tko zene.

Dr_M ::

Caligula: ne poznas intelovega slogana "kupite nase gigahertze in delali boste hitreje"? :)
to je tut zame nateg, ker te gigahertze hudicevo drago prodajajo.
pr nvidii vsaj dubis to kar placas...pr intelu dubis samo neucinkovite gigahertze. nateg na &#179
The reason why most of society hates conservatives and
loves liberals is because conservatives hurt you with
the truth and liberals comfort you with lies.

Caligula ::

Samo to kar si napisal nekako nima veliko veze s tem kar mene moti. To kaj dobis je zelo relativno. Skratka ne znam tega kar si napisal aplicirat na to kar sem jaz napisal. 0:) Ne govoriva o isti stvari. Pa spet si nekako mislil, da Intelovo politiko podpiram,..

Skratka nisva cist na isti valovni dolzni tukaj.

Dr_M ::

mnja...res mal OT....

ampak nej bo se mal. zakaj bi se pa mogl primerjat s konkurenco.
tut ce vprasas pri rolls royce kok majo mocne motorje, bos dubu odgovor "Dovolj". tut oni se nocejo primerjat s konkurenco, ker so pac prevec ekskluzivni, pa folk se vedno 2-3 leta caka v vrsti za avto, kljub ceni in dejstvu, da nocejo svojih motorjem primerjat z drugimi.
tako je pri nvidii :)
The reason why most of society hates conservatives and
loves liberals is because conservatives hurt you with
the truth and liberals comfort you with lies.

Freelancer ::

Ko sem danes odprl tale topic, sem na glas rekel tole: "Đizs krajst, da se vam da nakladat."

Caligula ::

No vids, pa nisi vec ateist. Pa smo proizvedli enega believerja >:D
Pa midva sva ze nehala. Sam si zgleda pogresat zacel :D

ČIP 008 ::

Če je bil NV35 rahlo razočaranje potem to za NV40 gotovo ne moremo trditi. Novi GeForce 5800 ima 16 cevovodov, vek kot 200 miljonov tranzistorjev, 256 Mb najnovejšega pomnilnika GDDR3 prenos 40 Gb/s podpira DirectX Pixel shader 3.0,Vertex shader 3.0, DX9.0c, hitrost procesorja 400 Mhz in hitrost pomnilnika 600 Mhz, ter po moje ogromen navijaški potencial. Tudi izgleda fenomenalno 4 luknje na procesorju okrog ramov itd.......
Vse to da vedeti, da NV40 z ATI-jevim R420 ne bo imela velikih težav, vendar bo tokrat nasprotnika počasi in preudarno utrujala do onemoglosti. Govoriti o bankrotu nVidije pa je bolj znanstvena fantastika kot resničnost. Igra oziroma vojna zvezd (med NV40 in R420) kot bi jo lahko poimenovali, se je že začela. Mnogo boljše kate pa so v rokah nVidije .LP

Caligula ::

Malo si zgresil v vecih stvareh. Noben ni rekel, da bo Nvidia bankrotirala. Samo obnasa se precej podobno. To je cudno.
Drugo, Nvidia ze dolgo ni uttrujala ATIja ampak je biloobratno in tudi sedaj malo v to smer kaze, bo tudi se naprej podobno.
Nvidia se je precej v neroden polozaj spravljala z zadnjimi par serijami, ki so se vse v performansah odrezale podpovprecno.

Kar se tice financnega zdravja. ATIja proizvodnja X800 serije stane manj kot Nvidio NV40. Ker je slo v razvoj manj, komponente so ze v masovni proizvodnji,.. skratka visje marze ima, ker lahko izkorisca ze obstojece platforme. To pomeni, da se v odnosu do Nvidie financno jaca in se cene bo lahko bolj nizal in s tem se bolj konkurencen.

In ja, NV40 je hitra kartica.

lopov ::

http://www.nvnews.net/vbulletin/showthread.php?t=28456

"Yesterday at nVidia's corporate earnings report Jen-Hsun Huang stated at least three times that the second molex connetor on the 6800 was optional and only there for overclocking enthusiasts."


Ampak berite naprej, ker ni vse "gladko" :)

Zgodovina sprememb…

  • spremenil: lopov ()

kihc ::

hehe, pazi tole;
The big thing I read into this is that all those people hoping to buy a GT and OC it to an ultra are gonna be hosed...they only got one molex.


:|
x

AtaStrumf ::

Da se ne boste rabli tolk kregat imate tukaj 48 komentarjev na to vašo temo. Mogoče pa najdete kaj, kar se še niste spomnili :)

Caligula ::

Ma sej bomo vidli kake bojo cene, kaj se bo dalo OCat,... pa bo pol dost bolj pametno razpravljat.

frenk ::

The big thing I read into this is that all those people hoping to buy a GT and OC it to an ultra are gonna be hosed...they only got one molex.


...in kva je tle tak problem?

boštjan ::

READ IT
Kot kaže ultra verzija deluje normalno samo z obema priključenima molexoma

DjTonic ::

Evo en klasični forumski test na Beyond3D. Ali ima Ne Ultra le 8 cevovodov namesto 12?

I tested two NV40 based cards:

Inno3D GeForce 6800 Ultra 400/1100 MHz
Leadtek A400 TDH (GeForce 6800) 335/700 MHz



with (P4 3.2, i875, ForceWare 61.12)

3Dmark03
6800 Ultra - 11 900 (13 015 @ 457/1210 MHz)
6800 - 7 570

<b>GeForce 6800 w/ 8 pipeline??</b>

arjan_t ::

Pocakajmo do DirectX 9.0c...

Zgodovina sprememb…

  • spremenil: arjan_t ()

Senitel ::

DirectX 9.0c popravi par stvari kar se 3.0 shaderjev tiče. Ne dela pa čudežev vse povprek...

Zheegec ::

Hm, upam da jih bo ne-Ultra imela tudi 16 :D Res bi bila škoda...
"božja zapoved pravi; <Spoštuj očeta in mater>,
ne govori pa o spoštovanju sodstva."
Janez Janša, 29.04.2014

AtaStrumf ::

Ne vem, če ste kaj brali, ampak na Anandtech-u pravjo, da so jim proizvajalci grafik rekli na Computex-u rekli, da dobivajo 6800 Ultra čipe v komaj po 50-100.

The underground buzz we heard is that the 6800 GT parts wouldn't be that scarce in the near future, but that channel allocation of the 6800 Ultra parts was somewhere between 50 on the low end to 100 on the high end. Not that such small numbers really need perspective, but when we heard that allocation was low, we expected to hear that it was only a couple thousand. This begs the following question: NVIDIA launched the 6800 Ultra in May, and if less than a hundred cards are in the channel today with mass production coming in July, are we talking about a paper launch? To be fair to NVIDIA, although ATI's supply of X800 XT Platinum Edition parts isn't that low, it's still nothing to write home about.

Zgleda, da je Nvidia že spet preterala in močno precenila proizvodne zmožnosti današnje tehnologije. Baje tudi zato zapušča IBM in gre k TSMC-ju, kjer gre ATi-ju kar dobro.

Dr_M ::

The reason why most of society hates conservatives and
loves liberals is because conservatives hurt you with
the truth and liberals comfort you with lies.

DjTonic ::

Jap 100k je padlo v AQ3 :D

MrX ::

8-O
««
8 / 8
»
»»


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo
»

3DMark05 (strani: 1 2 3 )

Oddelek: Navijanje
1238372 (5519) Jaffa
»

katero graficno? geforce 6800GT? (strani: 1 2 )

Oddelek: Kaj kupiti
835199 (3487) Jeronimo
»

Geforce 6800 Ultra Dry Ice Cooled

Oddelek: Navijanje
212048 (1540) Edi999
»

15.738 3dmarks 2003 z Radeon X800 XT OC

Oddelek: Navijanje
101523 (1146) Boki_
»

ATi X800 XT: Kraljeva vrnitev (strani: 1 2 )

Oddelek: Novice / Grafične kartice
535425 (5425) Dr_M

Več podobnih tem