» »

Prvi testi ATi-jeve nove družine X1800 kartic?

Prvi testi ATi-jeve nove družine X1800 kartic?

Hardware Analysis - Na strani Hardwareanalysis so objavili prve teste izredno težko pričakovanega novega rodu ATi-jevih kartic, zgrajenih okrog jedra s kodnim imenom R520. Test so izvedli na vseh popularnih igrah - D3, HL2, SC:CT in FC.

Vendar pa, uradne predstavitve še ni bilo (verjetno z razlogom). Tako je dvom o resničnosti rezultatov, predvsem pa o pravi zmogljivosti nove arhitekture, še posebej ob verjetno nedodelanih gonilnikih, upravičen.

Kakor koli, skrajni čas je, da ATi izda nove kartice. Le tako bo nVidia prisiljena spustiti ceno, sicer odličnim karticam, zgrajenih okrog G70. Prav tako bo morala ob ATi-jevi predstavitvi srednjega razreda GPU-jev, lačnim kupcem ponuditi odgovor (7600 GT ;?).

50 komentarjev

«
1
2

Dr_M ::

men se zdijo rezultati kr realni. ksnih vecjih sprememb ne bo.
razn ce bo ATI uvedu ksne popravke v driverje. neb blo prvic :)
The reason why most of society hates conservatives and
loves liberals is because conservatives hurt you with
the truth and liberals comfort you with lies.

__luka__ ::

tlele majo informacije, da je to prevara

link

ce je pa slucajno res - pol je pa tole podn grafe glede na to kaj so napovednoval ;((
the truth is out there

LittleDevil ::

Počakajmo na uradne teste (3D mark) >:D

LP

Dami ::

Ati bi se mogu bolj posvetit karticam ne pa da paca tist crossfire ki bo propadu po celi črti. Naj se že sprijaznijo da drugje kot pri karticah in tvtunerjih ne morjo konkurirat z ostalimi.
Don't worry about me. The bleeding is just the begining of a healing process.

Zgodovina sprememb…

  • spremenil: Dami ()

jest10 ::

Za 16 cevovodov so dobri rezultati.(če so resnični)
dumbo911: Napovedi so bile za verzijo z 32 cevovodi, ki pa bodo zgleda malo kasneje v R580.

Dr_M ::

nvidia ma se eno prednost...
7800GTX je cca $100-150 cenejsi od x1800XT. vsaj tako tm pise :)
The reason why most of society hates conservatives and
loves liberals is because conservatives hurt you with
the truth and liberals comfort you with lies.

Dr_M ::

Za 16 cevovodov so dobri rezultati.

ni vse v cevovodih.raj mal poglej frekvence :)
The reason why most of society hates conservatives and
loves liberals is because conservatives hurt you with
the truth and liberals comfort you with lies.

jest10 ::

Seveda ni vse v njih. Je pa veliko.

Dr_M ::

potem trdis, da bi graficna z 32pp in 300mhz bla hitrejsa od 16pp in 600mhz?
The reason why most of society hates conservatives and
loves liberals is because conservatives hurt you with
the truth and liberals comfort you with lies.

jest10 ::

Preberi šeenkrat...

simnov ::

Men so tile rezultati čudni kako je nekje ati skoraj tako hitra kot 7800gtx sli

jest10 ::

Visoka frekvenca pri ATIju, žlajfanje zaradi procesorja, igrca mogoče bolj "paše" ATI grafični,...

cole-22 ::

@x800xt
Pa kje ti vidš, da je Ati skor tolk hitr kot NV v SLI? Ali je izenačena z eno 7800 ali pa slabša. A bi moglo biti 100 FPS razlike, da bi bilo zate zadovoljivo?
Najbližje je pri HL2, pa še to vemo, da je HL2 za ATI...
Pa kokr kol to še vedno niso uradni rezultati! Tukaj naj bi testirali 2 igre (FC, HL2) kjer je bil ATi do sedaj zmeraj boljši, pa tudi tukaj ni prehitel NV. Kaj bo potem, ko bodo na testu še druge igre, ki bolj ležijo NV (riddick, FEAR...)

Jaka83 ::

KHM, R9600PRO/XT ima 4 cevke in 400/500MHz jedro, potem pa vzameš nVidia 6800, ki ima 12 cevk in 325MHz jedro, pa je slednja waaaay spredaj. Tolk o nepomembnosti cevovodov in frekvenc.

simnov ::

Kaj pa pravite nato da mi je f1 challenge 99-02 boljše delovala na 9600pro kot sedaj na
6600gt

WTF? ::

Da si cudn ,ker imas nick x800xt :D

jest10 ::

cole-22: Drugič poglej celi test... Ali res rabiš link do slike o kateri se govori?

RC14 ::

Men se tud zdijo rezultati kr realni. Slabo slabo, pa kaj je vse ATI napovedoval.
Sam roko na srce, 599$ za to kartico, ne hvala. Koliko pa bo pri nas stala, si pa niti pomislit ne upam.


Lp

VidKo ::

Mah, ne toliko pametovat o testih, ki so nepotrjeni. Poleg tega si preberite še tole novico na guru3d.

Lp, VidKo

zbogi ::

jest10, pa ne moreš ti teste pri resoluciji 1024x768 primerjat s karticami v Sli. 2 kartici zaživita šele pri 1600x1200, ker itak ne boš več igral iger pri manj kot to, in pa vsaj 4xAA in 8xAF.
pa še radeon je skor v vseh testih pri tej resoluciji hitrejši od Gfja, kar je čist nepomembno, ker je itak nvidia rekla, da so te kartice bolj optimizirane za višje resolucije, starting 1600x1200. Ka pa mate vsi LCDja :D

Zgodovina sprememb…

  • spremenilo: zbogi ()

Dr_M ::

zbogi: delno mas prov, ampak ce hoces na lcdju igrat v native locljivosti (se pravi 1280x1024) rabis ze kr dobro graficno, tko da je tuji tvoja teorija prece jzgresena.
The reason why most of society hates conservatives and
loves liberals is because conservatives hurt you with
the truth and liberals comfort you with lies.

jest10 ::

zbogi: Optimizirane za višje resolucije? Daj ne bluzi!
Na višjih resolucijah ni več procesor ozko grlo, to je vse. Nobene optimizacije ni nikjer.
Sicer pa, če ima lahko cole-22 pristranske izjave, zakaj jih tudi jaz ne smem imeti?:D Malo kontre mora biti:\

zbogi ::

Danes je 6800Gt čist sposobna v dostojnih FPSjih poganjat čist vse igre pri tej resoluciji. Če si gamer, je 6800gt danes minimum, kar poseduješ.

jest10, 7800Gtx je dost hitrejša od recimo 6800U pri višjih resolucijah, tud če greš gledat več kot 1600x1200, prov odleti. Sej je bil članek na STju objavljen, mislim da widescreen gaming. Pa je bla tam not izjava od predstavnika nvidie, da ....

jest10 ::

Seveda je 7800GTX hitrejša od 6800U. 24 proti 16 cevovodom in še kaki popravek v GPUju se pa menda mora nekje poznati ane?
Samo to ne pomeni nobene optimizacije za višje resolucije!
Pri nižjih CPU žlajfa obe grafični, tako da sta pribljižno enaki, pri višjih resolucijah pa CPU ni več tako velika ovira in 7800GTX jasno prehiti 6800U.
Isto kot bi na 800MHz procesorju primerjal 9600PRO in 9800PRO na 800x600 in 1600x1200, potem pa trdil, da je 9800PRO optimiziran na visoke resolucije, ker na 1600x1200 opazno prehiti 9600PRO

AtaStrumf ::

Rezultati se zdijo precej realni za 16 pipc in frekvenco 600 MHz, če pa niso pa tolk bolje. Itak pa bojo cene teh kartic v p.m. tako da mene bolj zanimajo X1600, X1300 bo pa itak spet šrot, c'mon 4 pipce še zmer 8-O!

Na konc bo še najbolj zanimiv X800GTO, 12 pipc visoke frekvence in nizka cena. Sam qurc k bo sam PCIe, tako kot sedaj ta zanimivi in relativno poceni X800.

zbogi ::

jest10, jst teb predlagam, da kdaj pa kdaj tud kej sam prebereš, ne pa vedno trobit neki, kar si slišal in se ti je dopadlo. procesor omejuje, procesor tist, procesor gor.
a si šel prebrat on članek ko sem ga omenil. veretno nisi, na link!!!
http://anandtech.com/video/showdoc.aspx...

jest10 ::

Sem prebral. In? Ti verjameš vsemu kar prebereš?

kuglvinkl ::

Če je to res, potem bo GTX še nekaj časa flahship. Me prav zanima, če bo nvidia odgovorila na, očitno nujno potrebni R580, kar z derivtom G70? >:D
Your focus determines your reallity

zbogi ::

in kaj, ti se sklicuješ pa na svojo avtoriteto. A si sploh že videl 1600x1200 resolucijo?

jest10 ::

Verjameš tudi da Persil odstrani vse madeže? Proizvajalec že trdi, da je tako...
Uporabljal sem že višjo resolucijo, samo ne za igre.
Ma misli si svoje, jaz bom pa svoje. Ok?

RC14 ::

Na konc bo še najbolj zanimiv X800GTO, 12 pipc visoke frekvence in nizka cena. Sam qurc k bo sam PCIe, tako kot sedaj ta zanimivi in relativno poceni X800

Ja verjeto bo to res zelo dober nakup, sam bo pa verjetno Nvidia dala kakšno 7600GT (Upam) ki bo imela podobne specifikacije oz verjetno rahlo boljše in če se bo tako dobro navijala kot 6600GT bo to spet najboljši nakup. Tako kartico pričakujem od nvidie in upam da bo.



Lp

DrAndy ::

Meni se bolj kot X800GTO zdita zanimiva X1600 XT in Pro, ker bosta prinesla podporo za Shader Model 3.0 in precej višje frekvence jedra in pomnilnika, je pa res, da po za zdaj znanih podatkih še vedno posedujeta le 128-bitni pomnilniški vmesnik.
Zagotovo vem le to, da nič ni zagotovo.

RC14 ::

Shader Model 3.0 to je uporabno samo na papirju, še posebej pri teh slabših grafičnih. Pri 7800GT in GTX je mogoče uporabno pri teh slabših ne.
Razen če radi gledate diapozitive.


lp

SavoKovac ::

SM 3.0 je lahko kul tudi na slabših karticah, samo manjše teksture moraš uporabiti.

RC14 ::

Bi pa rad videl kako je uporabno na slabših karticah.


Lp

Senitel ::

Kar se tistih "optimizacij za visoke resulucije" tiče je tko, da na starejših karticah (GeForce 6800 tudi) odpovejo optimizacije za Z/stencil buffer in front buffer (kompresiranje, fast z clear,...). Vendar se to zgodi šele na resulucijah čez 1600x1200, recimo 2048x1536.

Zakaj bi bil SM 3.0 kaj manj uporaben na počasnejših karticah? Saj kar se hitrosti tiče ni nobene razlike med SM 2.0 in SM 3.0. Samo SM 3.0 ponuja nekaj novih ukazov, dovoljuje daljše shaderje. Saj ni nujno, da če je nek pixel shader verzija 3.0, da mora nujno kurit 512 ukazov... Lahko uporablja kakšno funkcionalnost, ki je v SM 2.0 ni in s tem celo prihrani kakšen ukaz. Čeprav driver verjetno tako ali tako polovi marsikaj takega in so te optimizacije prisotne že tudi v SM 2.0.

RC14 ::

Senitel:
eno je teorija drugo je praksa. Jaz sem videl kako ogromna razlika je med SM 2.0 in SM 3.0. V riddiku z SM 3.0 sploh ne moreš igrat, potem v Splinter cellu 3 je tudi opazno počasneje tekla igra pod SM3.0 pa sem zamenjal kar nekaj driverjev.
Na papirju pa res lepo izgleda.


Lp

RC14 ::

Sprobal pa sem na grafi 6800GT, sem pozabil napisat.


Lp

SavoKovac ::

V nekaterih igrah se lahko že danes izbira kvaliteta shader učinkov. Če boš mel vrhunsko grafično, boš izbral najvišjo kvaliteto, s slabšo grafo pa malo nižjo. S.M. 3.0 dovoljuje tudi obdelave, ki je ne zmorejo vse grafe, kar pa samo po sebi ni slabo.

Senitel ::

RC14: Zato ker ko vklopiš SM 3.0 začne špil uporabljat precej daljše shaderje. Nima veze a imaš ti SM 2.0 ali SM 3.0, dolgi shaderji so počasni. Da ne omenjam seveda možnosti, da SM 3.0 verzija shaderjev začne uporabljat kakšne dinamične vejitve zato ker jih pač lahko. Dinamične vejitve so počasne in še bodo kar nekaj časa.

Fury ::

Ne se sekirat s shaderji 3.0... nas naslednji game bo verjetno mel target shaderje 2.0, pa bo next gen game (xbox 360/ps3). Za PC bo verjetno se vedno fallback na vsaj 1.3 shaderje.

Looooooka ::

burp kok vas tlele sploh kj SLI uporabla.in a se splaca kesh metat za to?.

zdej pa pluvanje:
cist vseen je al kups ATI al pa NVIDEA(ce ga zarad igrc kupujes that is...)
Zakaj? Ker bo pol spilov bols delal na eni pol pa na drugi in ti bos fucked either way.Razn ce se ti userje pa so ti sam tiste k na tvoji izbranki delajo.
Kar se tice tv tunerjev in tega se pa ati bl splaca vzet.Ze tv out v nvidia je bruhuhu.
Glede na to da naj bi bla konkurenca dobra stvar se tlele tega sploh ne opaz.Sam probleme s kompatibilnostjo ustvarjajo...cene so pa itak 20xtno povisane za navidezno pokrivanje stroskov.
anyhow...kok geekov tle SLI uporabla in a se splaca?

Jaka83 ::

Looooooka: Imel sem ATIja in imel sem nVidio. Pri starejših karticah (recimo GF2/3/4 in R8500) se je razlika pri TV-Out res poznala, pri novejših pa razlike skorajda ni. Trenutno imam v compu NV6800, pred njo pa sem imel R9800PRO in razlike na TV-OUT ne opazim. Pa nimam nekega cheap TV-ja in uporabljam S-Video kabel. Razlike praktično ni.

Glede SLI se pa čist strinjam, je stran vržen denar. Recimo kakšni 6600GT v paru bi blo hudo, sam pol se že vprašaš, če se ti ne splača bolj vzet ene 6800GT/Ultra za tak denar. :|

Kar praviš o igrah se pa spet ne strinjam, saj razmerje nikoli ni 50:50, ampak je vedno več naslovov na eni strani.

kriko1 ::

Jaz pa razliko v tvout opazim: ne dela vedno (sedaj na nvidii)! Ali pa ko izklopim TV, še vedno kaže da je TV priključen (tudi sedaj).

Jaka83 ::

kriko1: Če ti ne znaš navodil prebrat, potem ni kriva nVidia, da ti ne dela.

Hint: TV mora bit priključen, ko hočeš TV-Out vklopit (ali pa vklopiš opcijo "Force TV detection"), ko pa zadevo izklopiš je pa čisto vseeno, ali ti kaže kot da je še vklopljen ali ne, samo najbrž ne izklopiš vsega, ker meni dela perfektno in to celo na custom 16:9 resoluciji 1280×720@100Hz.

kriko1 ::

/*MALO OFFTOPIC*/
kriko1: Če ti ne znaš navodil prebrat, potem ni kriva nVidia, da ti ne dela.

Ko klikneš na enable, bi moralo delat ne? Vsaj tako je bilo pri atiju. Naslednja zadeva: Forceware po priklopu tv, seveda zavzamejo za privzeti izhod TV ko imaš priključen samo TV gor (logično), vendar ko prineseš nazaj računalnik na domače mesto in priklučiš gor monitor, bo po zagonu črna slika |O (grafična misli še vedno da je tv priključen, popravka za tole ni, tale simptom je samo na določenih serijah, nvidia ne priznava garancije v tej situaciji) . Računalnik še vedno dela. Ampak ne uporabljam windows (to sem samo sprobal, tako da sem siguren ni to samo problem s strani linux-a). No na linuxu prav takšne težave ni, prelepo zveni da bi bilo res, po nekaj časa delovanja sistema, sem hotu it iz grafičnega načina v konzolo. Hm, hudiča kje je moja slika? Črn zaslon z utripajočimi kvadratki in pikicami, neka čudna resolucija . Le kaj je z mojimi suseji. So se po 9 mesecih delovanja odločili da ne bodo več sodelovali? Ne! ctrl+alt+f7 pripelje v grafični način, tako da se odločim še za drugi poskus: logout, exit to console. Spet isto. Grem na nvidijo in iščem podpore. Kaj najdem? Nič, pravzaprav imajo podporo samo za nek DVD decoder. Kaj pa podpora za grafične grajene okoli njihovega čipovja? Zakaj nimajo uradne podpore? Hočejo s tem povedat da ko njihov izdelek kupiš, če dela, je dobro, če ne dela kot je treba, pa tudi? No, sicer sem našel nvforum, ki pa se ne da registrirat z zastonjskimi email naslovi (beri: gmail, yahoo...), ampak na srečo sem se lahko z email.si (kako sem bil srečen da lahko sploh se bomo lotili zadeve). In post-am svojo težavo v že obstoječi thread (tale problem ima nešteto ljudi, tako da nisem sam - pa še zapovrh je znan že dolgo časa; več let), namesto odgovora strokovnjaka pa dobim en dober napad s strani * uporabnika, ki brezpredmetno začne pljuvat po ATI-ju (imenije njihov produkt g*ydeon, ter me zmerja). Zelo dobra izkušnja. Sicer po temle je nek zaposleni z nvidie, res se lotil zadeve, ampak nismo rešli popolnoma nič - začel je zlivati krivdo na OEM proizvajalca (oem proizvajalec pa pravi da je to krivda v nvidiinih gonilnikih). Toliko o profesionalni podpori in reševanju problemov s strani nvidije. Še vedno pa čakam patch. Po takih izkušnjah, bo verjetno moja naslednja grafična z rdečega tabora. Pa ne mislit da sem nek ATI fanatik, do sedaj sem imel ATI-ja in so bili tudi problemi (noben ni perfekten), ampak smo tole vse uredili preko njihove strani (uradna podpora, pošiljanje bug-ov prek ticketing sistema).

/*MALO OFFTOPIC*/
sedaj pa

/*ONTOPIC*/
Počakajmo, da pride ven in bomo vsi mentalno potešeni s strani pravih testov.

Lp

zbogi ::

kukr mam jst izkušnje z TV OUTi, sem še vsakega zrihtal da je delal, prej al slej, sam vam povem da sem ATija 3x bolj klel, pri ene parih driverjih z R9600XT kr ni hotl bit slike na TVju, če je pa bla je bla pa črno bela pa signal je preskakoval. Pri nvidi, ko enkrat pogruntaš foro, boš vedn naštimal čist u easy, že od GF2MX

Jaka83 ::

/off-topic

kriko1: Zdajle sem se pa dodobra nasmejal. TI zahtevaš od proizvajalca, da podpira Linux sistem (am I right?), no, me prav zanima kaj boš rekel na support glede Linuxa pri "rdečih". Tam še podrobnejših specifikacij svojih kartic nočejo dat pod GPL, da bi vsaj kdo gonilnike spisal kot se šika in potem ATIjevi inžinirji nekaj pacajo skupaj da pol pheesde mrzle vode ni vredno.:D Verjami mi, sem sprobal oba in nVidia zaenkrat na Linuxu caruje proti ATIju kar se podpore tiče.
Takega problema, kot ga opisuješ ti, jaz niti na Fedori niti na Ubuntu niti na Gentoo niti na kateremkoli Linux sistemu do zdaj nisem imel.
Pri nVidiji včasih (govorim za Win TV-OUT) pomaga, da sistem še enkrat poženeš, če nimaš slike na TVju. Pri meni, kot sem že rekel vse dela tako kot mora. Nastavim custom resolucijo za TV in pazi to, slika je celo v 16:9 resoluciji na TVju. Pri ATIju pa pravtako nisem imel problemov s tem. zbogi pravi isto, vsako kartico se da lepo pripravit do delovanja, samo mal moraš sprobat zadeve. Samo očitno teb delajo problem gonilniki al pa kakšna nastavitev.

zbogi ::

pa da se spet vrnemo mal nazaj k topicu, zgleda da je dobila zgodba epilog, verjetno so to fake rezultati, samo vedet pa ne bomo mogl, dokler ne pridejo tapravi ven.

http://www.beyond3d.com/forum/showpost....
«
1
2


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo
»

FPSji in CS:source

Oddelek: Pomoč in nasveti
11978 (905) patriot10
»

Konec Omega gonilnikov?

Oddelek: Novice / Grafične kartice
244770 (3664) R33D3M33R
»

ASUS A8N + AMD 64 vs. INTEL = RAZLIKE,PLUSI ???

Oddelek: Kaj kupiti
71044 (907) gamer
»

Optimizacija Windows XP

Oddelek: Novice / Operacijski sistemi
153764 (3764) MrStein
»

Serial ATA Maxtor 120gb

Oddelek: Pomoč in nasveti
5772 (696) ERGY

Več podobnih tem