» »

Cene, slike novih GeForcov

strani: 1 2 3

Mr.B ::

PhysX, v igrah oziroma v efektih realnega igranja, je čisto neuporabno. Tam gor imamo v enem filmu kako valov preplavijo obalo, haloo, če to vidiš v fimu bi rekli tretje razredni efekti. Vedno se v filmih in igrah dejansko pretirava do te mere, da zgleda kao realno. Na realne efekte nihče ne trza, ker jih vidi vsak dan, torej v fikciji(igra, filme) jih dejansko ne potrebuješ, oziroma morajo biti pretirani. PhysX, je nekaj, kar v igre ne sodi, saj igre ne naredi boljše. Problem realnega igranja igre, pokaže že film metanja lutk v zid. Ne samo da ne vemo kakšen je zid, obnaša se dejansko zelo čudno, kot da je zunaj narezan kos lesa, notri pa so kamni. Zadeva dejansko ne zgleda realno, ker če je les spredaj in zadaj, je realno nekaj plastičnosti, oziroma vsak je že videl da se kos lesa upogne, v tisti simulaciji pa ali je zadnja stran kamen, sprednja pa les, vsaj po kosih ki letijo stran ?
Dejansko ko kaj takega spraviš v realno igračkarsko okolje, namečeš meglo, blndanje, dim, itd... In na koncu, za dosego lepeha efekta dobiš to, da bi lahko z predefiniranim efektom, dosegel boljši rezultat, ki bi ga igralec relano tudi prevzel za resničnega.
Nvidia ima velik problem, saj se zadeve v multimediji ne odvijajo kot si želi, oziroma ti. PhysX, nudi platformo za nekaj drugega, kot pa igranje iger, pa NV nima resoursev da bi razvijala dva ločena produkta, ter vsiljuje dodatno kartico, samo zato da bi imeli kao realno simulacijo fizike. Lahko je eno ali drugo, oboje ne gre, brez da bi trpelo ostalo. NE bo me nekdo prepričal, da v igri, ne vem raztreliš stolp, imaš 10000 delcev, z nalepljenimi teksturami, senčenjem, bump mapingom, pa se v FPS-jih konkretno ne bo poznalo. Na koncu pa vse skupaj zaviješ v dim, in se vidi 5% vseh kamenčkov, ....
Fizika v igrah ni usmerjena v pravo smer, ni recimo fizike računanja letenja projektila, ali pa oprijem vseh štirih gum, dinamike zračnih tokov preko avta, vpliv podlage, spremembe kako se avtomobil obnaša pri vožnji, ko je le ta poškodovan, ampak dejansko kaže, relano razpadanje avtomobila pri trku. Kao to mi nekdo posiljuje da je bitno. Modeli so bili in so bili dobri brez PhysX, naj te resourse raje v kaj drugega v igri usmerijo...

Fizikalnega modela, pa nikjer ne objavijo, oziroma nikjer ni objavljena koda, kjer bi se vidlo, kaj dejansko pogon igre uporablja PhysX, ker FPS-ji, recimo pri lutkah ki letijo v zid ravno ne morejo biti visoki, kaj šele da to preslikaš v realni igračarski pogon, da potem tako kot včasih SLI, da se kao bolje pordaja. Igrabilnost pa ni nič boljša, samo nekaj efektov je boljših, ki pa jih žal pri igranju igre ITAK ne opaziš, kot bi rekli NV mojstri, je vse bolj subjektivno.
Ignoranca JS, da poskrbi za lastno pokojnino,
je neodgovorna. Ampak sej veste jamrati po toči je...

Izi ::

Zanimivo, da je bilo takrat oktobra leta 2006 tik pred izzidom 8800 GTX (8. november 2006), vzdušje povsem podobno današnjemu :D

Ljudje so se množično zgražali nad velikansko in požrešno kartico.
Nvidia je naredila fizično največji GPU kdajkoli viden. 480 mm2 velik čip je bilo nekaj nepojmljivega za tiste čase.
Kartica je imela kar 2 priklopa za napajanje, kar je povzročilo splošno čudenje in smejanje glede velikanske porabe za tiste čase. Poraba 8800GTX je namreč močno odvisna od proizvajalca, porabljale so od 140 pa vse do 170 wattov, kar je bilo vzrok za mnogo izlitega žolča po forumih takratnega časa. Poleg vsega je bila s svojimi 27 centimetri to najdaljša kartica kdajkoli narejena.
Na koncu pa smo izvedeli še za ceno 650 EUR in mnogi so napovedovali propad Nvidie >:D
Kljub vsemu zgražanju pa so že takrat smelo napovedali še bolj požrešno in še dražjo kartico. Geforce 8800 Ultra s ceno med 800 in 1000 EUR in samo okoli 10% hitrejša od GTX.

Skoraj enako se dogaja danes.
Zanimivo pa je to, da se je 8800 GTX na koncu po nekaj letih izkazala za najbolj uspešno grafično kartico v zgodovini, katero so nadgrajevali in izboljševali še cela 4 leta.
Bo Nvidia ponovila uspeh 8 generacije?
Ali pa bomo še enkrat doživeli fiasko 5 generacije z imenom FX? Takrat smo bili vsi prepričani, da bo uspeh.

Glede na zgodovino, Nvidii najbolj uspe takrat ko to od nje nihče ne pričakuje.
Glede porabe se jaz ne bi preveč obremenjeval. Tako ali tako bodo vse grafične čez 3 leta kurile po 600 wattov in se bomo samo smejali današnjim 300 wattom porabe >:D

Zgodovina sprememb…

  • spremenil: Izi ()

bluefish ::

Tako ali tako bodo vse grafične čez 3 leta kurile po 600 wattov in se bomo samo smejali današnjim 300 wattom porabe >:D
Morda pri high-end modelih. V ostalih segmentih pa je poraba eden glavnih parametrov.

Gregor P ::

jlpktnst je izjavil:

Izi je izjavil:

frudi je izjavil:

ti bo jasno, zakaj je vztrajanje na 8800GTX zaradi Physx podpore nesmiselno. Še za namensko Physx kartico je neprimerna zaradi visoke porabe.

8800 GTX ima uradno porabo ob polni obremenitvi 145 wattov skupaj z ventilatorjem. Res je bila leta 2006 najbolj požrešna kartica na svetu ampak tudi najhitrejša. Cena leta 2006 je bila 650 EUR. Leta 2007 sem jo kupil za 530 EUR.
Takrat najbolj požrešna pošast je 4 lata kasneje s svojimi 145 watti pravi vzor varčnosti >:D
Še vedno pa zadovoljivo hitro poganja vse najnovejše igre na 1920 x 1200 z vključenim PhysX-om. Edino nastavitve ne smejo biti več na maximum. Z lahkoto počakam še kakšno leto ali dve na novo kartico, dokler se ATI ne zjasni kaj misli narediti z PhysX podporo ali Nvidia ne izpili nove serije grafičnih kartic.


Se samo meni zdi rahlo neverjetno, da ti laufa na 8800gtx igra + physx? Potem more bit to res nek švoh physx, ali pa ti cpu obdeluje physx . Definitivno ne verjamem, da je ena par let stara grafa sposobna furat neko solidno grafiko + še fiziko all in one. Seveda je ta moj post natolcevanje, samo dejstvo da ne verjamem da je to možno. Lahko pa me prepričaš (with facts)

Sam nisem ravno referenca; ampak imel sem najprej eno 8800 GTX + dodatno physx kartico in so igre delovale zelo dobro; kasneje sem pa kupil še dodatno 8800 GTX in od takrat dalje lahko to drugo uporabljam za physx, če tako namestim v gonilnikih; vse tri skupaj (2x8800GTX+1physx) pa mi niso delovale, torej ni mi zaznalo physx kartice, ampak ker mi je zmanjkalo časa za igranje iger se s to težavo nisem resneje ukvarjal:D ...moram pa le dodati, da mi po teh nekaj letih vse igre delujejo povsem solidno na 24" monitorju, tako da še nekaj časa ne nameravam kupiti nove kartice.
The main failure in computers is usually located between keyboard and chair.
You read what you believe and you believe what you read ...
Nisam čit'o, ali osudjujem (nisem bral, a obsojam).

frudi ::

Izi je izjavil:

8800 GTX ima uradno porabo ob polni obremenitvi 145 wattov skupaj z ventilatorjem. Res je bila leta 2006 najbolj požrešna kartica na svetu ampak tudi najhitrejša. Cena leta 2006 je bila 650 EUR. Leta 2007 sem jo kupil za 530 EUR.
Takrat najbolj požrešna pošast je 4 lata kasneje s svojimi 145 watti pravi vzor varčnosti >:D
Še vedno pa zadovoljivo hitro poganja vse najnovejše igre na 1920 x 1200 z vključenim PhysX-om. Edino nastavitve ne smejo biti več na maximum. Z lahkoto počakam še kakšno leto ali dve na novo kartico, dokler se ATI ne zjasni kaj misli narediti z PhysX podporo ali Nvidia ne izpili nove serije grafičnih kartic.

O glej, 8800GTX porabi pod obremenitvijo približno toliko, kot GTX260 (originalni, 65nm), v mirovanju pa kar 40W več. Res, pravi vzor varčnosti.

Za 1920x1200 pa 8800GTX že dolgo ni več dovolj v bolj zahtevnih igrah, razen z okleščenimi nastavitvami in brez GPU Physx. Še en ubogi Mirror's Edge je bil na njej v 1920x1080 s Physx neigralen (hitrost je glede na brez Physx padla skoraj za polovico); pa sodi med danes manj zahtevne igre, tako grafično kot fizikalno.
1ACDoHVj3wn7N4EMpGVU4YGLR9HTfkNhTd... in case I've written something useful :)

Gregor P ::

Vprašanje je tudi, kakšen so ostale komponente; včasih pač ni za vse kriva grafična.
The main failure in computers is usually located between keyboard and chair.
You read what you believe and you believe what you read ...
Nisam čit'o, ali osudjujem (nisem bral, a obsojam).

Izi ::

Z vklopljenim PhysX pade FPS za polovico pri igrah, ki močno uporabljajo fiziko. Če mi torej iz 60 FPS pade na 30 FPS, še vedno lepše igram kot z Radeonom 5850, kjer iz 100 FPS pade na 15 FPS.

Sem imel 5850 na preizkušnji za primerjavo pa je 5850 samo okoli 70% hitrejša.
Če sem imel z 5850 v določeni igri 100 FPS sem imel z 8800GTX 60 FPS (v igrah z CPU fiziko)
Še največja pomanjkljivost za današnje igre pri 8800GTX je samo 768 MB VRAMA, to jo malo bremza.

Zgodovina sprememb…

  • spremenil: Izi ()

jlpktnst ::

Mah, očitno je nvidii v interesu da je phy dobro optimiran na gpu, na cpu pa ne :) tako pač kot s vsemi monopolnimi rečmi...

Mr.B ::

Izi, ma čudo ki ga bo ven dala NV, bo tako kot HD2900XT, puno štorma a nič efektov.
No pa povej mi, kaj ti igra da bolje pri ko se žrtvuješ za 30fps-jev. A to ko se vsedeš pa gledaš pingong odbijanje kock. Uauf, relano premikanje lista, uau
Ignoranca JS, da poskrbi za lastno pokojnino,
je neodgovorna. Ampak sej veste jamrati po toči je...

youugly ::

Über grafa

PrimozR ::

Fantje, odličen primer uporabnosti PhysXa, ki bi igro dejansko spremenil na bolje, je npr. simuliranje zvijanja šasije v simulaciji kartinga. GOkarti namreč nimajo vzmetenja in je velik del obnašanja avtomobila pogojen prav z zvijanjem. Drznil bi si reči, da današnji CPUji, vsaj dvojedrniki, tej nalogi še niso dorasli, vsaj ne da bi bila izvedba dobra.

Mr.B ::

Ne problemi so v modelih, recimo FSX, pa da mu J, ni sposoben FPS-jev, kaj šele modelov do konca spiliti, potem pa imaš tu Xplaine, ki mu FSX z modeli ne pride blizu. A je sedaj razlika v grafičnem pogonu FSX-a, ali pa se ne potrudijo dobro. Enako velja za razne ostale simulacije...Tisto kar bi dejansko pripomogel PhysX, se dejansko ne uporablja, kaže pa se kako se da dobro v zid zadeti, ki k vzdušjum zakaj igro sploh igraš, doda en k. Je pa lepo kazati razne filmčke, ter slike, ker dejansko razlago, obnaanja modela, ne moreš tako vizualno prikazati, oziroma pošljušatel mora vedeti, kaj mu hočeš povedati...
Ignoranca JS, da poskrbi za lastno pokojnino,
je neodgovorna. Ampak sej veste jamrati po toči je...

RejZoR ::

$350 = 350€
Taka je definicija pretvarjanja po ameriško...
RejZoR's Flock of Sheep @ www.rejzor.tk

BigWhale ::

Mipe je izjavil:

Pri EVE, kjer se večina igre dogaja v vesolju in vesoljskih postajah, kjer zreš v številke in dialoge ali pa razstreljuješ asteroide za rude, se grejo te čirule čarule z lasmi?


Za EVE online ze precej casa pacajo skupaj 'walking in stations' dodatek, ki bo prinesel se marsikaj s sabo. Kdaj pa bo, pa ne ve se nihce v bistvu.

No vsaj lani se ni nihce vedel, morda se je zdaj ze kaj spremenilo. :)

Izi ::

Ne samo EVE, tudi ostale nalinijske igre se počasi pripravljajo na PhysX.
Najbolj popularno bo kot kaže plapolanje ogrinjala :D

MrStein ::

Čudno, da se mu v noge ne zaplete. :D
Teštiram če delaž - umlaut dela: ä ?

balocom ::

Izi je izjavil:

Zanimivo, da je bilo takrat oktobra leta 2006 tik pred izzidom 8800 GTX (8. november 2006), vzdušje povsem podobno današnjemu :D


Sorry, sm skrajšal, sm tuk da se vid na koga leti post:)
Pozabil si dodat fotke "referenčnih" "normalnih/serijskih" hladilnikov z priklopi za vodno hlajenje...

Na koncu je bila samo ena taka grafa z dodatnim vodnim.
V svetu brez googla bi bil najbolj uporabljen ukaz v bash-u ukaz man

FireSnake ::

Izi je izjavil:

ker Evropski trgovci na lastne stroške uvozijo nekaj kosov iz Amerike in morajo dvigniti ceno, da pokrijejo poštnino.


Kaj tako neumnega pa ze dolgo nisem slisal :D

Izi je izjavil:

dokler se ATI ne zjasni kaj misli narediti z PhysX podporo


V kateri votlini si spal do danes? ATi se je ze zdavnaj zjasnil: ne bodo podprli.
"In The Sound Of Silence Time Is Standing Still"
Poglej, in se nasmej ----> www.vicmaher.si ;)

Zgodovina sprememb…

  • spremenilo: FireSnake ()

FireSnake ::

Izi je izjavil:



Skoraj enako se dogaja danes.


Niti priblizno! Danes ima konkurenca odgovor (ze vnaprej + to, kar kuhajo v ozadju) - takrat ga ni imela.

Izi je izjavil:

Z vklopljenim PhysX pade FPS za polovico pri igrah, ki močno uporabljajo fiziko. Če mi torej iz 60 FPS pade na 30 FPS, še vedno lepše igram kot z Radeonom 5850, kjer iz 100 FPS pade na 15 FPS.

Sem imel 5850 na preizkušnji za primerjavo pa je 5850 samo okoli 70% hitrejša.
Če sem imel z 5850 v določeni igri 100 FPS sem imel z 8800GTX 60 FPS (v igrah z CPU fiziko)
Še največja pomanjkljivost za današnje igre pri 8800GTX je samo 768 MB VRAMA, to jo malo bremza.


Takele zgodbice pa ti pripoveduj 9 letnim mulcem, ki se sele srecujejo z racunalnistvom.
Nam pa ponudi konfiguracijo, teste in konkretne stevilke or STFU ;)
"In The Sound Of Silence Time Is Standing Still"
Poglej, in se nasmej ----> www.vicmaher.si ;)

Zgodovina sprememb…

  • spremenilo: FireSnake ()

Izi ::

FireSnake, pri tvojih letih bi človek pričakoval vsaj malo strpnosti, če že ne moreš pogledati prek svoje fanatične pripadnosti znamkam, ki si jih lastiš. Obnašaš se slabše kot 9 kletni mulci, ki jih tako rad omenjaš.
Na forumu si že 10 let pa od tebe v vseh teh letih nisem prebral drugega kot fanatično pljuvanje po vsem česar si ne lastiš, kar seveda pomeni, da opljuvaš večino stvari. Malo se skuliraj te bo še kap zadela preden boš dočakal Abrahama.
Tele računalniške stvari o katerih debatiramo tukaj so najmanj pomembne stvari na svetu :D

FireSnake ::

Ce bi razumel prebrano bi vedel, da bi te enaka kajla cakala tudi, ce bi s takimi bedarijami opeval rdece: toliko o moji pripadnosti.

Glede na to, da pa nisi navedel kakega pametnega vzroka, ki bi ovrgel moje trditve se torej strinjava, da stresas neumnosti. Ce se tega zavedas (in bo v prihodnje bolje), potem je moj namen dosezen.

Edini razlog zakaj sem lahko "jezen" na zelene je, da ne bodo splavili kartice, ki bi povrocila omembe vreden padec cen ... tu se pa tudi neha.

Se o vsebini mojih objav: objavimo lahko, kar se nam pac zahoce, dokler spostujemo pravila. Ni ti jasen pojem konstruktivne kritike, zato se pa pocutis uzaljenega namesto, da bi iz tega kaj potegnil. Aha, se glede fanaticnega pljuvanja; mas zgodovino mojih objav ... poglej VSE (ce te ze tako zanimam) pa potem govori.
"In The Sound Of Silence Time Is Standing Still"
Poglej, in se nasmej ----> www.vicmaher.si ;)

Izi ::

Zakaj bi bil užaljen, tvoji odgovori so tako ali tako neargumentirani, napisal sem samo, da se TI preveč razburjaš.
Na nobeno mojo trditev nisi napisal najmanjšega protiargumenta ampak kot ponavadi samo tvoje mnenje, da to ne drži.

Ne morem niti odgovarjati na tvoja negativna stališča, če pa nisi napisal kaj po tvoje drži.
Imel sem računalniško trgovino na začetku računalništva v Sloveniji v času malih privat firmic ala Jerovšek Computers. Ko so se začele pojavljati internet trgovine sem zadevo zaprl. Še vedno pa ima znanec trgovino in servis z računalniškimi deli. Glede na to verjetno več vem kako poteka nabava robe in kakšne so cene.

Glede ATI-jeve strojne podpore za PhysX pa daj uradni link, kjer je ATI izjavil, da ne bo nikoli podpiral PhysX. Zadevo spremljam in kaj takega nisem nikoli zasledil, poleg tega pa ti logika pove, je bi lahko zaradi takih nepremišljenih izjav podjetje utrpelo milijonska škode in je zato maloverjetno, da si ti kje videl tako izjavo. Čakam link.

Glede hitrostne primerjave med Readeon 5850 in Geforce 8800GTX pa sem ti lepo napisal, da sem teste opravil na mojem računalniku in da je pač 5850 70% hitrejši od 8800GTX. Sedaj si ti na vrsti, da dokažeš nasprotno.

Glede uporabe PhysX pa sem testiral na novem Batmanu. Moji rezultati se ujemajo s tistimi na internetu. Z PhysX na maksimum se na Geforcu FPS točno prepolovi. Pri ATI pa pade na 15 FPS. Če imaš ti drugačne rezultate daj link.

FireSnake ::

1) Malo si preberi pravila glede lastnih referenc tipa "jaz" in "moj kolega" ;)

2) Ne vem, kaj ti ni jasno: a sem jaz opletal s stevilkami? Ne! Zakaj bi torej jaz tukaj gori limal cifre? Ti si se hvalil z nekimi testi.

3) ATi se je sparil z Intelom in njihovim Havok-om (res pa je, da okoli tega ne zganjajo takega pompa, kot to delajo zeleni s svojo stvaritvijo). Izdali so ze openCL gonilnike na nacin, da lahko havok pride v postev:
http://www.xbitlabs.com/news/video/disp...
Ker trdis, da zadevo spremljas ti to vedel, ane?
Hitro googlanje navrze kaj takega:
http://www.brightsideofnews.com/news/20...
Informacije so relativno stare, a tocne.

Za vec informacij pa pogooglaj ;)
"In The Sound Of Silence Time Is Standing Still"
Poglej, in se nasmej ----> www.vicmaher.si ;)

Spock83 ::

No, dokler novega geforca ne dobimo sami v roke nimamo kaj preveč argumentirano debatirat. Ni pa mi všeč da PhysX razpolovi število fps-jev. verjetno bi pomagalo, da imaš dve grafični. A ne bi bilo lepo, da bi imel eno onboard grafiko srednjega ranga in bi jo lahko uporabljal za PhysX. Za dodatno kartico pa bi imel ali Nvidio ali ATI.

Mr.B ::

Da imaš, imenuje se CPU.
Ignoranca JS, da poskrbi za lastno pokojnino,
je neodgovorna. Ampak sej veste jamrati po toči je...

filip007 ::

Ja pa še to...zgleda da ste vsi že pozabili na 5970 dvojček, dva čipa 5870 in 300W porabe, GXT480 bo pa samo en čip vzel 300W.

Po moči bo pol približno 5850,GTX470,5870,GTX480,5970, tako sploh ni problema kdo je glavni fizika gor ali dol, za več denarja ATi in za manj denarja ATI, Geforce bo pa kar je bil že do zdaj požrešna in draga stvar.
Plejstejšon.

FireSnake ::

Ce gre verjeti govoricam, potel le ne bo tako pozresna:
http://www.fudzilla.com/content/view/18...
zdaj ze res komaj cakam teste, da vidimo, kako je na stvari.

Spock83: glede PhysXa na ATi karticah je tako, da ATi na to ne bo pristal, ker ne more videt kode in kaj lahko bi se zgodilo, da bi bil PhysX za kartice iz zelenega tabora bolj optimiziran, kot za kartice iz rdecega tabora. To pa potem ne bi bilo fer. Saj je bila enkrat neka novica o tem (verjetno tudi ne edina), pa sem pozabil kje.
"In The Sound Of Silence Time Is Standing Still"
Poglej, in se nasmej ----> www.vicmaher.si ;)

Senitel ::

FireSnake je izjavil:


3) ATi se je sparil z Intelom in njihovim Havok-om (res pa je, da okoli tega ne zganjajo takega pompa, kot to delajo zeleni s svojo stvaritvijo). Izdali so ze openCL gonilnike na nacin, da lahko havok pride v postev:
http://www.xbitlabs.com/news/video/disp...

Havok bo za OpenCL prisel v postev sele takrat, ko bo Intel rekel, da pride v postev. Ne pa takrat, ko je ATI dal OpenCL driverje ven. Glede GPU fizike Havok danes ponuja manj kot je 4 leta nazaj, oziroma konkretno povedano: nic.

Isto kot je AMD naredil za Havok (napisal nekaj funkcionalnosti v OpenCL), bi lahko naredil tudi za PhysX. S to razliko, da ce bi naredili za PhysX potem bi danes ze kaj od tega videli, ne pa cakali na Intelov zegen.

Ce hoces alternativo PhysX je trenutno to samo Bullet physics. Havok je trenutno "for all intents and purposes" CPU only zadeva pa ce se AMD postavi na glavo.

FireSnake ::

Se strinjam.

Senitel je izjavil:


Isto kot je AMD naredil za Havok (napisal nekaj funkcionalnosti v OpenCL), bi lahko naredil tudi za PhysX. S to razliko, da ce bi naredili za PhysX potem bi danes ze kaj od tega videli, ne pa cakali na Intelov zegen.

To pa ne bodo naredli - razlog sem napisal zgoraj (skoda, da se ne spomnim, kje sem to prebral).

To, da je ena stvar domena le enega tabora za potrosnika nikoli ni dobro. Vprasanje je tudi, kako dalec lahko nVidia prifura svojo stvaritev, v igracarskem svetu, ce bodo se naprej solirali.
"In The Sound Of Silence Time Is Standing Still"
Poglej, in se nasmej ----> www.vicmaher.si ;)

filip007 ::

Kok pa je predvidena cena za Geforce?

Radeon 5970 se dobi za 450EUR
http://www.bolha.com/oglas383870451/rad...

No tole se da na dual 16x pci-e plato v drug slot pa recimo 9800gt pa se naloži hack če je treba pa imamo fiziko na Radeon.
Plejstejšon.

Spock83 ::

Mr.B je izjavil:

Da imaš, imenuje se CPU.


No CPU bi lako kaj drugega računal oz. porabil mišice. Res pa je, da je danes še vedno premalo iger, ki bi vsa štiri jedral izkoriščal.

Zgodovina sprememb…

  • spremenil: Spock83 ()

Senitel ::

FireSnake je izjavil:

To pa ne bodo naredli - razlog sem napisal zgoraj (skoda, da se ne spomnim, kje sem to prebral).

To, da je ena stvar domena le enega tabora za potrosnika nikoli ni dobro. Vprasanje je tudi, kako dalec lahko nVidia prifura svojo stvaritev, v igracarskem svetu, ce bodo se naprej solirali.

Ce NV napise OpenCL backend za PhysX, tega AMD PR se vedno ne bo podprl, ker ne vidijo kode. Torej je morebiten port iz CUDA na OpenCL s strani NV samo metanje resoucev skozi okno.
Kaj jih pa ovira, da ne napisejo svoje kode, tako kot so to naredili za Havok?
NV solira ravno toliko kot Intel. V bistvu se je vsa kalvarija s fiziko zacela, ko je Intel kupil Havok in odrezal HavokFX (kjer sta sodelovala tako NV kot ATI).

Tezava niti ni v soliranju. Tezava je v tem, da je PhysX (ali pa Havok) kompleten produkt z lepo zeleno (modro, rdeco >:D) masnico. Nekako tako, kot ce bi recimo AMD kupil Epic in zacel prodajat Unreal engine 4, kar je Intel spet dejansko naredil (Project Offset).

Ce hoce GPU fizika uspet, potem bo treba igralcem pokazat, da brez tega ne morejo zivet. Tako kot je to naredil 3dfx z Glide in Voodoo 1. Tega se ne bo naredilo cez noc. Trenutno NV poriva zadevo naprej, Intel bi najraje pognal kroglo v glavo komur koli pade na pamet spravljat to nalogo stran od CPU-jev, AMD pa vsake toliko pizdi, da svet ni fer.
In svet dejansko ni fer v toliko, da PhysX-a ali pa Havoka ne mores zamenjat z Bullet-om v 5 minutah, ampak bo tak prehod kar posteno resen projekt, ki bo prinesel kaksne koristi developerju?

keba ::

Sploh nevem kaj je fora novig geforcou, samo bedak in zagriženi privrženec Nvidie bo šeu kupovat te predrade grafične akrtice. Če govorice držijo bodo kartice vsaj za 100eur predrage, da bi se lahko kosale s konkurenco. Bedarija na kvadrat. Pa ne zagovarjam nobenega tabora. Sam komaj čakam da pridejo ven, da se s tvari malo pocenijo. Da si kupim 5850 za 200 eur ali pa če se zgodi čudež pa bodo 470ke za okol 230eur, 350+ pa ne milim dat za grafično ki je le za 5% boljša od grafične ki je vsaj 100eur cenejša. Nobene logike ni!

Izi ::

keba tvoja logika tudi hudo šepa. Ko že delaš procentualne primerjave potem se gre do konca in ne obstane nekje na sredini.

Kupi najcenejšo grafično kartico za dobrih 30 EUR, ki je 7-krat cenejša od Radeona 5850 in samo 3-krat počasnejša.
Cena/zmogljivost je vedno daleč daleč najboljša pri povsem najcenejših modelih. Potem pa se razmerje slabša eksponentno.
Oba, Nvidia in Ati imata grafično za dobrih 30 EUR.

Zato pa imamo cenovni razpon grafičnih kartic od 30 EUR pa do 1000 EUR, da si vsak najde kaj zase.
Gre se samo, do katere meje si se pripravljen nategniti z strani proizvajalcev grafičnih kartic.

Radeon 5850, ki ga misliš kupiti bi moral biti okoli 100 EUR, da bi imel realno ceno glede na ceno in hitrost najcenejših modelov :P

PrimozR ::

Jah tako pač ne gre, cena za hitrost vedno narašča eksponentno. Sicer bi bil Veyron manj kot 50 jurjev, saj je samo 2x hitrejši od običnega avtomobila, ki gre 200 in stane pod 15 jurjev.

Izi ::

Seveda da ne gre tako, zato pa sem napisal kar sem, ker očitno ni vsakemu jasno, da pri vseh tehničnih stvareh pač sistem deluje tako da za 2-krat boljšo stvar plačaš 5-krat več, za 3 krat boljšo stvar pa že 15-krat več in tako naprej dokler imajo ljudje denar.
Zato je nesmiselno postavljati mejo za najboljši nakup, ker te enostavno ni. Boljše ali hitrejše kupuješ, bolj se nategneš. Vse je odvisno od osebne tolerance (debeline denarnice), do katere se pustiš nategniti.

Mr.B ::

Glej Izi tistih 6k ljudi pri 6 miljardah in nekaj, se bo pa le našlo. Realno to pomeni pred poletjem ne bo nič, jeseni pa lahko pričakujemo znižanje cen, zaradi volumna.
Ignoranca JS, da poskrbi za lastno pokojnino,
je neodgovorna. Ampak sej veste jamrati po toči je...

Zgodovina sprememb…

  • spremenil: Mr.B ()

barocco ::

8800GT ,še vedno služi zahtevam..
bo pa prihodnosti v letu dni videti pomoje drugačna..padec cene.

keba ::

Maš prav po eni strani, samo grafične akrtice se kupuje glede price/performance, in trenutno je ta kartica 5850! Če bi jo malo pocenili bi bila pa še bolj :) Nikakor pa nemoremo trditi da je 470 price/performance kartica. In to dejstvo temelji na tem, da če hočemo igrati novejše igre na visokih ločljivostih in kolikortoliko visokih nastavitvah. Če ne igramo iger je itak vseeno.

T-Majo ::

Super. Sedaj bodo pa igre imele boljšo zgodbo, spoh pa igralnost. To smo čakali!
www.gepl.si

Zgodovina sprememb…

  • spremenil: T-Majo ()

dzinks63 ::

PrimozR ::

Ne nima. Ker potrebuješ drago plato s podporo SLI-ju. Te so za Intel v primerjavi z entry-level LGA-1156 platami okrog 40 EUR dražje. Za AMD si pa itak bolj ali manj na suhem.

Aja, pa pustimo ob strani splošno slab izkoristek SLIja. SLI se vedno je in vedno bo splačal samo pri dražjih grafah. Pri cenejših je hitrost, cena paketa oz. poraba ponavadi na strani ene zmogljivejše grafe.

Zgodovina sprememb…

  • spremenil: PrimozR ()

dzinks63 ::

Ker potrebuješ drago plato s podporo SLI-ju.

Za AMD npr: ASUS M3N - HT DELUXE/HDMI nForce 780a SLI 116€
Za I7 lga1366 npr: ASUS P6T SE 190€
Za lga 1156 npr: EVGA P55 V - Intel P55/DDR3/SLI 107€
Za lga 775 npr: ASUS P5N-D - nForce 750i 90€

Sam performans med npr. SLI 250GTS in HD5850, sta kartici dokaj izenačeni oziroma je SLI celo večkrat v prednosti.

PrimozR ::

Zakaj the hell bi za AMD proc še hotel imeti nForce čipset? Zato si na suhem za AMD. Čipseti in plate so, samo kdo bi jih hotel?

Za LGA-1156 sem pa TBH presenečen, da se za tako mali dnar dobi SLI plata. SIcer je popolnoma f00 (napajanje, uporabna samo 2 SATA prikljčka), ampak je pa način. Okje, cena ni več tak problem, perfromance recimo da verjamem, koliko ima pa GTS 250 porabe?

PrimozR ::

Okej, wiki pravi, da je TDP 150 W. To je sicer 25-50 W preveč, ampak vseeno v full load porabita več, kot en 5850. Kar je pa najpomembnejše, v idle ta cifra po vsej verjetnosti znaša več kot 50 ter verjetno tam nekje do 100 W razlike. Ni ravno 100 W, 70-80 je pa IMO popolnoma realno. Razen če sem pozabil na kak ultra power saving fičr v GTS 250. AMpak dovolj je že, da ena grafa porabi 45 W pa smo na 60 W razlike v idle.

filip007 ::

nForce je danes skoraj enakovreden AMD/ATi čipsetom včasih no bilo tako, pa tud vprašanje kot dobri so SATA,USB itd na AMD platah danes.
Plejstejšon.

PrimozR ::

Včasih je bil edin spodoben čipset za AMD nForce. Časi so se spremenili. nForce je za AMD trenutno okrog 4 leta star čip, če ne še več, z nekaj popravki.

FireSnake ::

http://www.semiaccurate.com/2010/03/23/...

Temule pa skorajda ze ni vec za verjet :-/
"In The Sound Of Silence Time Is Standing Still"
Poglej, in se nasmej ----> www.vicmaher.si ;)

Rippy ::

FireSnake je izjavil:

http://www.semiaccurate.com/2010/03/23/...

Temule pa skorajda ze ni vec za verjet :-/


Žal tukaj gre malo preveč zaupanja v stran, kateri je naslov odličen izgovor špekulacije in pluvanje po korporacijah, ki jo ne spoznorirajo.

Geforce 480 je na papirju približno 2x GF 285, in SLI 285 je v povrečnih preformansah enaka 5970, ki je tudi dvojederna. Torej tudi če imajo slabo jedro mora dejanski preformance biti nekje tukaj (SLI CF scaling) ali višji. Mogoče bo price/preformance nižji in tudi watt/preformance ampak dvomim, da bo grafična kartica počasnejša.

keba ::

Rippy pa si padu na glavo, da bo 480 isto hitra kot 5970, dejmo se mau skoncentrirat no.
strani: 1 2 3


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo
»

GeForce GTX 465 že naprodaj

Oddelek: Novice / Grafične kartice
469927 (8063) Jst
»

Na Computexu prihaja GeForce GTX 465

Oddelek: Novice / Grafične kartice
194230 (3528) Dr_M
»

nVidia spustila nove GeForce na plano (strani: 1 2 3 )

Oddelek: Novice / Grafične kartice
13316547 (11947) kuglvinkl
»

Prednaročila za Fermi, uradna predstavitev 26. marca?

Oddelek: Novice / Grafične kartice
345809 (4427) PĹĄeniÄŹni
»

Slike grafičnega Fermija, preimenovanja zahtevali partnerji?

Oddelek: Novice / Grafične kartice
4410484 (8642) xxxgeekxxx

Več podobnih tem