Slo-Tech - JPR je objavil analizo trga grafičnih procesorjev v drugegem četrtletju letošnjega leta. V primerjavi s prvim četrtletjem je bilo v drugem prodanih za slabega pol odstotka manj grafičnih procesorjev. Največji tržni delež je pripadel Intelu, saj je bilo z njegovim logotipom opremljenih 47,3% grafičnih procesorjev. Sledita mu nVidia s 31,4%in AMD z 18,1%. VIA v navezi s S3 je izgubila 6,6 % delež napram tistemu v drugem četrtletju lanskega leta, oziroma kar 84 odstotkov svojega deleža in tako pristala na petem mestu, saj je z 1,9 % deleža pred njo še SiS.
Na trgu grafičnih procesorjev za prenosne računalnike je največji, 57,1 odstotni, delež pravtako pripadel Intelu, ki mu sledita nVidia in AMD s 23,6% oziroma 17,9% tržnim deležem.
Več o tem si preberite na Jon Peddie Reseach.
Novice » Apple iPhone/iPad/iPod » Stanje na trgu grafičnih procesorjev
Blinder ::
Katere graficne pa imajo gpu od intela? Tiste integrirane - gma900, 950, X3100?
In kako to, da kljub seriji 48*0 ima Nvidia toliko vecji delez kot Amd/Ati?
In kako to, da kljub seriji 48*0 ima Nvidia toliko vecji delez kot Amd/Ati?
99.991% of over-25 population has tried kissing.
If you're one of the 0.009% who hasn't, copy & paste this in your Signature.
Intel i3-12100f gtx 3050 Pismo smo stari v bozjo mater. Recesija generacija
If you're one of the 0.009% who hasn't, copy & paste this in your Signature.
Intel i3-12100f gtx 3050 Pismo smo stari v bozjo mater. Recesija generacija
Dr_M ::
In kako to, da kljub seriji 48*0 ima Nvidia toliko vecji delez kot Amd/Ati?
Ker je ta serija prisla pred kratkim? In ker ta serija se vedno ni bog ve kok prida...
Ker je ta serija prisla pred kratkim? In ker ta serija se vedno ni bog ve kok prida...
The reason why most of society hates conservatives and
loves liberals is because conservatives hurt you with
the truth and liberals comfort you with lies.
loves liberals is because conservatives hurt you with
the truth and liberals comfort you with lies.
DOOM_er ::
jah napram nvidii in njenim dragim grafam je ATI imba. Sicer tut drugače so grafe precej dobre in ne crkujejo?
Robots will steal your job. But that's OK
patrickas ::
Dr M
zakaj ni ta serija bog ve kok prida?
ker stane tolko kot BFG 8800GT OC in je kar precej smoglivejša?
zakaj ni ta serija bog ve kok prida?
ker stane tolko kot BFG 8800GT OC in je kar precej smoglivejša?
Dr_M ::
Ocitno se se dobro prodajajo in jim ni treba nizat cene
Recimo GTX260 se dobi ze za slabih 250€. Kar je prakticno toliko, kot 4870. Mislm, da tuki ni potrebno veliko razmisljat.
Recimo GTX260 se dobi ze za slabih 250€. Kar je prakticno toliko, kot 4870. Mislm, da tuki ni potrebno veliko razmisljat.
The reason why most of society hates conservatives and
loves liberals is because conservatives hurt you with
the truth and liberals comfort you with lies.
loves liberals is because conservatives hurt you with
the truth and liberals comfort you with lies.
Izi ::
To je poročilo od 3. do 6. meseca letos.
Skoraj si upam trdit, da bosta v tretjem četrtletju Nvidia in ATI bistveno bolj izenačena, ker trenutno je ATI bistveno boljši od Nvidie. Iz 30% : 20% bi znali priti na vsaj na 25% : 25%
Intel pa je večno neulovljivi, čeprav nima niti ene same grafične kartice. Ima samo grafične procesorje, ki gredo direkt na matično ploščo.
Zanimiva je uradna izjava velikana Intela izpred kakšnih 2 mesecev, ko je napovedal, da se GPU procesorji počasi poslavljajo in da bodo CPU procesorji v prihodnosti popolnoma prevzeli njihovo delo.
Sedaj ko so CPU-ji večjedrni je treba samo še spremeniti tehnologijo, ki se tiče izrisovanja grafike in vse delo bo lahko brez težav opravil kar CPU na nekaj prostih jedrih.
Tehnologija naj bi šla iz sedanjega rasterskega izrisovanja grafike, ki ga sedaj bolje opravljajo GPU, na Ray tracing izrisovanje grafike, ki naj bi ga (tako trdi Intel) CPU opravil bistveno bolje kot GPU, še posebej če to oprvavlja na večih jedrih hkrati.
Bistvo pa je, da bo grafika prihodnosti, ki se bo izrisovala brez dodatnih GPU, samo na CPU (seveda z 16 in več jedri) bistveno lepša in bolj življenska od sedanje grafike, ki jo obdelujejo GPU-ji.
Predvsem, ker je Ray tracing tehnologija bistveno naprednejša od sedanje rasterske tehnologije.
Tako nekako napoveduje grafično prihodnost Intel.
Ker gre za največjega GPU in CPU izdelovalca bo verjetno nekaj na tem.
Ali gre samo za mokre sanje Intela ali pa se GPU res počasi poslavljajo pa bomo verjetno videli že čez kakšnih 5 let.
Izgleda, da se nam obeta zanimiva prihodnost. Igričarski računalniki z 16 jedrnimi CPU-ji brez GPU-ja.
Skoraj si upam trdit, da bosta v tretjem četrtletju Nvidia in ATI bistveno bolj izenačena, ker trenutno je ATI bistveno boljši od Nvidie. Iz 30% : 20% bi znali priti na vsaj na 25% : 25%
Intel pa je večno neulovljivi, čeprav nima niti ene same grafične kartice. Ima samo grafične procesorje, ki gredo direkt na matično ploščo.
Zanimiva je uradna izjava velikana Intela izpred kakšnih 2 mesecev, ko je napovedal, da se GPU procesorji počasi poslavljajo in da bodo CPU procesorji v prihodnosti popolnoma prevzeli njihovo delo.
Sedaj ko so CPU-ji večjedrni je treba samo še spremeniti tehnologijo, ki se tiče izrisovanja grafike in vse delo bo lahko brez težav opravil kar CPU na nekaj prostih jedrih.
Tehnologija naj bi šla iz sedanjega rasterskega izrisovanja grafike, ki ga sedaj bolje opravljajo GPU, na Ray tracing izrisovanje grafike, ki naj bi ga (tako trdi Intel) CPU opravil bistveno bolje kot GPU, še posebej če to oprvavlja na večih jedrih hkrati.
Bistvo pa je, da bo grafika prihodnosti, ki se bo izrisovala brez dodatnih GPU, samo na CPU (seveda z 16 in več jedri) bistveno lepša in bolj življenska od sedanje grafike, ki jo obdelujejo GPU-ji.
Predvsem, ker je Ray tracing tehnologija bistveno naprednejša od sedanje rasterske tehnologije.
Tako nekako napoveduje grafično prihodnost Intel.
Ker gre za največjega GPU in CPU izdelovalca bo verjetno nekaj na tem.
Ali gre samo za mokre sanje Intela ali pa se GPU res počasi poslavljajo pa bomo verjetno videli že čez kakšnih 5 let.
Izgleda, da se nam obeta zanimiva prihodnost. Igričarski računalniki z 16 jedrnimi CPU-ji brez GPU-ja.
Zgodovina sprememb…
- spremenil: Izi ()
jlpktnst ::
Ni mi jasno ... dolgo je imel ati najboljše rešitve za prenosnike, nvidia pa bolj tako-tako, pa vseeno imajo kar nekaj prednosti na mobilni platformi. Očitno sem vmes zaspal in nimam več jasne predstave kako in kaj (sicer pa moj mobilni 9600 še vedno dela kot se spodobi)
krho ::
Čitajte Larabee članek oz. preview na anandtechu!
si.Mail odprto-kodni odjemalec elektronske pošte. - http://www.simail.si
Uredite si svojo zbirko filmov, serij in iger - http://xcollect.sf.net
Uredite si svojo zbirko filmov, serij in iger - http://xcollect.sf.net
FireSnake ::
ker je Ray tracing tehnologija bistveno naprednejša od sedanje
Tebi ni prevec jasno kako deluje algoritem sledenja zarku, ane? Ko tumbas o naprednosti Raje ne govori tako, mogoce ti se kdo verjame.
nVidia je v prednosti zato, ker imajo zelo dobre inzinirje ter prekleto dober marketing.
Tisto o 260tki za 250€ VS 4870 pa ne bom komentiral, ker vsi vemo kaksna je slika. Tak (komot recemo neumen) stavek komentira sam sebe :P
Poglej in se nasmej: vicmaher.si
Zgodovina sprememb…
- spremenilo: FireSnake ()
Dr_M ::
Tisto o 260tki za 250€ VS 4870 pa ne bom komentiral, ker vsi vemo kaksna je slika.
Mas prov. 4870 ni vredna primerjave niti z 260ko.
Mas prov. 4870 ni vredna primerjave niti z 260ko.
The reason why most of society hates conservatives and
loves liberals is because conservatives hurt you with
the truth and liberals comfort you with lies.
loves liberals is because conservatives hurt you with
the truth and liberals comfort you with lies.
PaX_MaN ::
LOL, raytracing. To bo to. Ko ti bo komp mlel en teden da boš ven dobil ubogo celih 5 slik - pri pasjansi.
dexterboy ::
Res ne vem, kaj to Intel nekaj 'kvasi' o prihodnosti CPU-ja...
Mar ne spremljajo novice iz sosednjih taborov? Ali pa so kot konj s tistimi ščitniki na očeh, da ne vidijo levo in desno
Za primerjavo; to kar AMD X2 4000+ računa 4 DNI, porabi za to ATI 3850 8 UR (vem, vem, ista hiša, tako napisal za lažjo primerjavo)
In potlej bo CPU prevzel delo GPU-ja... he he he
Mar ne spremljajo novice iz sosednjih taborov? Ali pa so kot konj s tistimi ščitniki na očeh, da ne vidijo levo in desno
Za primerjavo; to kar AMD X2 4000+ računa 4 DNI, porabi za to ATI 3850 8 UR (vem, vem, ista hiša, tako napisal za lažjo primerjavo)
In potlej bo CPU prevzel delo GPU-ja... he he he
Ko ne gre več, ko se ustavi, RESET Vas spet v ritem spravi.
Zheegec ::
GPU je pač namenski, vsaj zaenkrat to ni izvedljivo, če bi pa v nekje 5 letih CPU dobro napredoval bi pa to že bilo izvedljivo ob dobrem supportu developerjev.
"božja zapoved pravi; <Spoštuj očeta in mater>,
ne govori pa o spoštovanju sodstva."
Janez Janša, 29.04.2014
ne govori pa o spoštovanju sodstva."
Janez Janša, 29.04.2014
Izi ::
Napisal sem približen prevod izjave Intelovega predstavnika za javnost.
Tako nekako je on to razlagal jaz se nisem spuščal v podrobnosti.
Fotorealizem se trenutno najbolje doseže ravno z Ray tracingom.
Vsekakor bo prej ali slej tudi v igre prišel Ray tracing.
In tudi vem, da za Ray tracing potrebuješ hiter večjedrni CPU in ti GPU nič kaj dosti ne pomaga.
Tudi Intel je priredil že kar nekaj predstavitev, kjer smo gledali premikajočo grafiko kjer se je igralec sprehajal po okoljih z do sedaj nevideno grafiko, pa je bila v računalniku navadna Intelova integrirana grafična samo za pošiljanje slike na monitor, vso grafiko pa je izračunaval Intelov štirijedrnik.
Seveda ne gre za popolni Ray tracing, ker tam res rabiš nekaj minut za eno sliko, ampak verjetno kaj izpustijo in se žarku ne sledi do konca. Mogoče sledjo samo en odboj in ne vse odboje. In če se tistih žarkov, ki jih zakriva kakšen prednet sploh ne upošteva, spet ogromno pridobimo. Vsekakor sem v živo videl premikajočo grafiko na Intelovem štirijedrniku, ki je z ray tracingom obdelovala 30 slik na sekundo in rezultat je bil precej fotorealističen.
Pustimo sedaj podrobnosti. Vsekakor je nekaj na tem, da za fotorealistično grafiko prihodnosti bolj potrebujemo čimvečjedrne CPU-je, grafične pa bodo kmalu samo še za pošiljanje slike na ekran.
To je postalo aktualno šele z prihodom štirijedrnikov, ker pa v kratkem pričakujemo 8 in 16 jedrnike pa bi se znalo kaj zgoditi tudi v praksi. Bomo videli.
Sicer pa počakajmo, kaj bo na to rekel Senitel. Sicer on obvlada predvsem GPU-je, ampak bo že vedel ali sploh obstaja kakšna osnova za tako Intelovo trditev.
Tako nekako je on to razlagal jaz se nisem spuščal v podrobnosti.
Fotorealizem se trenutno najbolje doseže ravno z Ray tracingom.
Vsekakor bo prej ali slej tudi v igre prišel Ray tracing.
In tudi vem, da za Ray tracing potrebuješ hiter večjedrni CPU in ti GPU nič kaj dosti ne pomaga.
Tudi Intel je priredil že kar nekaj predstavitev, kjer smo gledali premikajočo grafiko kjer se je igralec sprehajal po okoljih z do sedaj nevideno grafiko, pa je bila v računalniku navadna Intelova integrirana grafična samo za pošiljanje slike na monitor, vso grafiko pa je izračunaval Intelov štirijedrnik.
Seveda ne gre za popolni Ray tracing, ker tam res rabiš nekaj minut za eno sliko, ampak verjetno kaj izpustijo in se žarku ne sledi do konca. Mogoče sledjo samo en odboj in ne vse odboje. In če se tistih žarkov, ki jih zakriva kakšen prednet sploh ne upošteva, spet ogromno pridobimo. Vsekakor sem v živo videl premikajočo grafiko na Intelovem štirijedrniku, ki je z ray tracingom obdelovala 30 slik na sekundo in rezultat je bil precej fotorealističen.
Pustimo sedaj podrobnosti. Vsekakor je nekaj na tem, da za fotorealistično grafiko prihodnosti bolj potrebujemo čimvečjedrne CPU-je, grafične pa bodo kmalu samo še za pošiljanje slike na ekran.
To je postalo aktualno šele z prihodom štirijedrnikov, ker pa v kratkem pričakujemo 8 in 16 jedrnike pa bi se znalo kaj zgoditi tudi v praksi. Bomo videli.
Sicer pa počakajmo, kaj bo na to rekel Senitel. Sicer on obvlada predvsem GPU-je, ampak bo že vedel ali sploh obstaja kakšna osnova za tako Intelovo trditev.
Zgodovina sprememb…
- spremenil: Izi ()
Senitel ::
Zakaj za boga potem celo za Larrabee Intelovi inžinirji pravijo, da bo zadeva primarno delala še vedno rasterizacijo in da bo ray tracing zgolj ena od možnosti?
Kateri studijo dela 100% ray tracing only? Največji procent raytracinga je bil v filmu Cars (očitni razlogi)...
Impresivna nikoli videna okolja na quad core CPU-ju? Quake 3? Kaj pa Cinema 2.0 by AMD recimo klik?
Vprašanje je zakaj rabiš 16 corov? Za Word poganjat? Al greš na grafiko al pa kapituliraš.
Kateri studijo dela 100% ray tracing only? Največji procent raytracinga je bil v filmu Cars (očitni razlogi)...
Impresivna nikoli videna okolja na quad core CPU-ju? Quake 3? Kaj pa Cinema 2.0 by AMD recimo klik?
Vprašanje je zakaj rabiš 16 corov? Za Word poganjat? Al greš na grafiko al pa kapituliraš.
Matrin ::
Kolkr sem lahk na hitro pogledo o ray tracingu je (očitno) še vedno veliko dela z plavajočo vejico, kjer pa CPU lahko samo meri čas, medtem ko GPU naredi izračune to on naredi. Verjetno bi bilo bolje narediti večjedrni GPU, ali pa specializirana jedra v teh večjedrnikih.
Mr.B ::
Intlov Larrabee : http://www.anandtech.com/cpuchipsets/in...
France Rejects Genocide Accusations Against Israel in Gaza,
To accuse the Jewish state of genocide is to cross a moral threshold
To accuse the Jewish state of genocide is to cross a moral threshold
Senitel ::
Spet multicore GPU-ji... Tako Larrabee, GeForce GTX280, Radeon 4870, Radeon 9700 in Riva TNT lahko gonijo več threadov sočasno, za razliko od Pentiuma 4, ki tega ne more. Npr. Core 2 Duo in Core 2 Quad, ki to lahko počneta, pa še vedno ne moreta poganjati toliko sočasnih threadov kot čipi, ki jih označujemo za GPU-je.
Point je v tem, da postajajo GPU-ji dovolj programabilni in CPU-ji dovolj paralelni (Larrabee je primer kako pospešit povečevanje števila corov na CPU), da lahko začenjamo počenjati kar nam srce poželi. Kar med drugim pomeni, da Direct3D in OpenGL s svojim "close to metal" pristopom kot prvo ne bosta več tako close to metal in kot drugo ne bosta več imela nobene vloge (razen če bodo spremenili celotno filozofijo API-ja, kar se tudi zna zgodit).
Namreč kar se bo pomojem zgodilo bo to, da bomo namesto low level API-ja za grafiko (ala D3D) imeli middleware rešitve (ala Unreal Engine 3) za grafiko (ala PhysX/Havok za fiziko), ki bodo uporabljale x86/CUDA/CAL/OpenCL in bodo vse počele zelo "softwaresko" (tako kot danes fizika) na zelo masivno multithreaded/multicore čipih (Larrabee/GT200/RV770).
Kot developer pa boš uporabil tisto kar ti ustreza. Ali bo knjižnica znotraj delala raytracing ali rasterizacijo ali voxle ali pa black magic te načeloma niti ne zanima.
Resno vprašanje ob tem je pa samo kako izboljšat grafiko. Nekateri so mnenja, da je 100% raytracing edina prava možnost, pa če jih dobesedno pribiješ na križ (toliko o religijah)... Ampak kakor koli se obrneš, smo na točki, ko se od CG studijev ne moremo naučit praktično nič več novega. Treba bo inovirat in to na vseh področjih, hardware je tukaj...
Point je v tem, da postajajo GPU-ji dovolj programabilni in CPU-ji dovolj paralelni (Larrabee je primer kako pospešit povečevanje števila corov na CPU), da lahko začenjamo počenjati kar nam srce poželi. Kar med drugim pomeni, da Direct3D in OpenGL s svojim "close to metal" pristopom kot prvo ne bosta več tako close to metal in kot drugo ne bosta več imela nobene vloge (razen če bodo spremenili celotno filozofijo API-ja, kar se tudi zna zgodit).
Namreč kar se bo pomojem zgodilo bo to, da bomo namesto low level API-ja za grafiko (ala D3D) imeli middleware rešitve (ala Unreal Engine 3) za grafiko (ala PhysX/Havok za fiziko), ki bodo uporabljale x86/CUDA/CAL/OpenCL in bodo vse počele zelo "softwaresko" (tako kot danes fizika) na zelo masivno multithreaded/multicore čipih (Larrabee/GT200/RV770).
Kot developer pa boš uporabil tisto kar ti ustreza. Ali bo knjižnica znotraj delala raytracing ali rasterizacijo ali voxle ali pa black magic te načeloma niti ne zanima.
Resno vprašanje ob tem je pa samo kako izboljšat grafiko. Nekateri so mnenja, da je 100% raytracing edina prava možnost, pa če jih dobesedno pribiješ na križ (toliko o religijah)... Ampak kakor koli se obrneš, smo na točki, ko se od CG studijev ne moremo naučit praktično nič več novega. Treba bo inovirat in to na vseh področjih, hardware je tukaj...
modicr ::
> Ray tracing tehnologija bistveno naprednejša od sedanje rasterske tehnologije
http://www.crn.com/hardware/208803211
[quote]
works its 3D magic via resource-efficient ray tracing, a visual computing alternative to traditional raster-based scanline methods.
Ray tracing, which traces the path of light through pixels in an image plan to create highly realistic images, exacts a much greater computational cost than scanline rendering, an issue Intel will have to address if Larrabee is to find a place in mainstream computers.
Intel's new alliance with DreamWorks gives the chip giant a counter to main microprocessor rival Advanced Micro Devices' longstanding relationship with Lucasfilm and its Industrial Light & Magic (ILM) studios.
[/quote]
Tule pa je kul kigica na to temo:
http://www.amazon.com/gp/sitbv3/reader?...
http://www.crn.com/hardware/208803211
[quote]
works its 3D magic via resource-efficient ray tracing, a visual computing alternative to traditional raster-based scanline methods.
Ray tracing, which traces the path of light through pixels in an image plan to create highly realistic images, exacts a much greater computational cost than scanline rendering, an issue Intel will have to address if Larrabee is to find a place in mainstream computers.
Intel's new alliance with DreamWorks gives the chip giant a counter to main microprocessor rival Advanced Micro Devices' longstanding relationship with Lucasfilm and its Industrial Light & Magic (ILM) studios.
[/quote]
Tule pa je kul kigica na to temo:
http://www.amazon.com/gp/sitbv3/reader?...
(c) nisem patentiran
FireSnake ::
Namreč kar se bo pomojem zgodilo bo to, da bomo namesto low level API-ja za grafiko (ala D3D) imeli middleware rešitve (ala Unreal Engine 3) za grafiko (ala PhysX/Havok za fiziko), ki bodo uporabljale x86/CUDA/CAL/OpenCL in bodo vse počele zelo "softwaresko"
No, tole se pa ne bo zgodilo nikoli.
Velike hitrosti je mogoce doseci le z direktno hardversko podporo. Bolj so stvari splosne, manj je hardver izkoriscen (zamislimo si, da ne bi rabli DXa in bi bili spili pisani za 4870, samo kot primer. Spomnimo se pa lahko Glide-a).
Na nacin ki ga opisujes to, pa snovalci iger sploh ne bi vec vedeli kaj pocnejo (tako kot mi, ko uporabljamo C# - se dobro, da sem stara sola in vem kaj se dogaja "pod haubo"). No, na ta nacin pa ne bi bilo vec mesta za razne optimizacije, katerim smo (ceprav premalo) prica danes.
Po mojem mnenju je tvoj scenarij "a no go".
Poglej in se nasmej: vicmaher.si
Looooooka ::
Njegov scenarij ni sam "a go" ampak se ze lepo pelje.Poglej si spile k so zuni zadnjih par let.Vecina jih uporabla glih al Unreal engine al pa Quake Engine...no pol mas se hrvate pa zdej crytek.
Optimizacije so se zmer tuki in tvoji snovalci iger se zmer vejo kaj pocnejo ker jih vecina te engine modificira...tud po en let ce je treba.Tisto osnovo jim pa res ni treba za vsak spil na novo izumlat...se posebi ce mas neki zuni kar dokazano deluje.
Npr Unreal Engine...zadeva je super fina pa ga dolocene firme spreminjajo tud po eno leto(Duke Nukem Fornever ze ene 2 leti...).
Middleware resitve se ze neki let lepo pocasi rinejo povsod....Linux(QT...itd),Windows(NET framework,DirectX)...zdej se PhsyX ki se bo verjetn tud prijel v par letih.
Sj gres lahko vse iz nule delat...pa reces NE webservisem...pa NE frameworkom...pa ne raznim Enginom za grafiko.Ampak bos vrgu stran po 4-5 let za brezveze.In ce ti je cilj nardit spil in ne zasluzit z enginom...krades bogu cajt.
Optimizacije so se zmer tuki in tvoji snovalci iger se zmer vejo kaj pocnejo ker jih vecina te engine modificira...tud po en let ce je treba.Tisto osnovo jim pa res ni treba za vsak spil na novo izumlat...se posebi ce mas neki zuni kar dokazano deluje.
Npr Unreal Engine...zadeva je super fina pa ga dolocene firme spreminjajo tud po eno leto(Duke Nukem Fornever ze ene 2 leti...).
Middleware resitve se ze neki let lepo pocasi rinejo povsod....Linux(QT...itd),Windows(NET framework,DirectX)...zdej se PhsyX ki se bo verjetn tud prijel v par letih.
Sj gres lahko vse iz nule delat...pa reces NE webservisem...pa NE frameworkom...pa ne raznim Enginom za grafiko.Ampak bos vrgu stran po 4-5 let za brezveze.In ce ti je cilj nardit spil in ne zasluzit z enginom...krades bogu cajt.
Senitel ::
Problem s tem, da se to ne bo zgodilo, je samo to, da se to že dogaja. Larrabee nima rasterizerja v hardware-u, DX in OpenGL bosta implementirana v driverju.
V DX (ali OpenGL) npr. tudi ne moreš spravit raytracinga, ker sta oba API-ja "immediate mode" (dobiš en trikotnik in lahko začneš renderirat, tega ne moreš naredit, če delaš raytracing). Seveda se najdejo ljudje, ki so v DX9 naredil raytracerje ampak to je mnogo lažje nardit brez DX-a.
Kaj točno je ta direktna hardwareska podpora recimo v 4870? In kar opisujem ne bo pomenilo, da snovalci iger ne bodo več vedeli kaj se dogaja pod pokrovom, ker boš imel veliko bolj neposreden dostop do hardware-a kot ga imaš danes. Pomeni pa to, da ne bodo imeli vsi developerji resourcev, da se bodo lahko šli pisat svoje grafične engine vključno s temelji (resnici na ljubo jih že sedaj nimajo).
Niti približno pa to ne bo prišlo čez noč in če Intel misli, da bo z NV in ATI opravil tako z lahkoto jih IMO čaka nekaj grdih presenečenj. Ampak kot rečeno tudi NV in ATI gresta generalno gledano v to smer (CUDA/CAL).
Glide nima s tem nikakršne veze.
V DX (ali OpenGL) npr. tudi ne moreš spravit raytracinga, ker sta oba API-ja "immediate mode" (dobiš en trikotnik in lahko začneš renderirat, tega ne moreš naredit, če delaš raytracing). Seveda se najdejo ljudje, ki so v DX9 naredil raytracerje ampak to je mnogo lažje nardit brez DX-a.
Kaj točno je ta direktna hardwareska podpora recimo v 4870? In kar opisujem ne bo pomenilo, da snovalci iger ne bodo več vedeli kaj se dogaja pod pokrovom, ker boš imel veliko bolj neposreden dostop do hardware-a kot ga imaš danes. Pomeni pa to, da ne bodo imeli vsi developerji resourcev, da se bodo lahko šli pisat svoje grafične engine vključno s temelji (resnici na ljubo jih že sedaj nimajo).
Niti približno pa to ne bo prišlo čez noč in če Intel misli, da bo z NV in ATI opravil tako z lahkoto jih IMO čaka nekaj grdih presenečenj. Ampak kot rečeno tudi NV in ATI gresta generalno gledano v to smer (CUDA/CAL).
Glide nima s tem nikakršne veze.
OChack ::
Ni mi jasno ... dolgo je imel ati najboljše rešitve za prenosnike, nvidia pa bolj tako-tako, pa vseeno imajo kar nekaj prednosti na mobilni platformi. Očitno sem vmes zaspal in nimam več jasne predstave kako in kaj (sicer pa moj mobilni 9600 še vedno dela kot se spodobi)
dober marketing nvidie, ki trži slab produkt zelo dobro, pač ima veliko partnerjev, medtem ko ih ati ne želi imeti.
Se pa bo stvar obrnila, namreč nvidia zadnje čase nekam hudo peha. pokvarjeni mobilni čipi, sedja so na udaru še desktop grafične in nforce chipset serije 7.
ker so rezultati do 6 meseca je logično da je ATI slabši, ke rni bilo radeona serije 4 še takrat. zadnje raziskave pa kažejo da je nvidia prodala le nekaj tisoč svojih G200 derivatov, medtem ko ATI lahko govori o cifri nekaj 10k
Int€l inside, IDIOT Outside
Dr_M ::
Jest samo upam, da bodo pri Nvidii dovolj kmalu prisli k pameti. Mi je pa cudno, da se vedno ustrajajo pri napol narjenih chipsetih ze toliko casa.
Glede mobilnih graficnih procesorjev pa se vedno ni nic, razn tistega z theinquirer-ja. Pomoje spet ena huda blamaza.
Glede mobilnih graficnih procesorjev pa se vedno ni nic, razn tistega z theinquirer-ja. Pomoje spet ena huda blamaza.
The reason why most of society hates conservatives and
loves liberals is because conservatives hurt you with
the truth and liberals comfort you with lies.
loves liberals is because conservatives hurt you with
the truth and liberals comfort you with lies.
MrStein ::
PaX MaN:
Real time raytracing že dela na navadnem PC.
Izi:
Trenutno ? To je veljalo pred 20 leti. Pred 10 leti je veljalo radiosity, danes pa ne sledim več.
Glede Intelove trditve: Ja, valda. Oni delajo in prodajajo CPU-je. Normalno, da jih hvalijo kot čudo božje. Saj to delajo skoz. "Prihodnost je v general purpose CPU. Specializirane stvari so brez veze". Ja, šur.
LOL, raytracing. To bo to. Ko ti bo komp mlel en teden da boš ven dobil ubogo celih 5 slik - pri pasjansi.
Real time raytracing že dela na navadnem PC.
Izi:
fotorealizem se trenutno najbolje doseže ravno z Ray tracingom.
Trenutno ? To je veljalo pred 20 leti. Pred 10 leti je veljalo radiosity, danes pa ne sledim več.
Glede Intelove trditve: Ja, valda. Oni delajo in prodajajo CPU-je. Normalno, da jih hvalijo kot čudo božje. Saj to delajo skoz. "Prihodnost je v general purpose CPU. Specializirane stvari so brez veze". Ja, šur.
Motiti se je človeško.
Motiti se pogosto je neumno.
Vztrajati pri zmoti je... oh, pozdravljen!
Motiti se pogosto je neumno.
Vztrajati pri zmoti je... oh, pozdravljen!
FireSnake ::
Hehe, pocasi pa tukajle mesamo jabolka in hruske.
To da developerji spilov nimajo resursov je za lase privleceno. Igracarska industrija (ce ji lahko tako recemo) je, po denarju, ki ga obraca, ze pred leti prehitela filmsko. Kdo zdaj nima resursov?
Zajec tici v drugem grmu: imeti cim vec profita.
Ampak: to, da podjetja kupujejo engine, ki so jih drugi izdelali nima nobene veze z razvojem hardvera. Tu omenjate engine UT 3 ... ljudje, ze engine od kvake 1 se je prodajal, to ni nic novega. Ampak, kot ze receno to nima veze. Gre le za en zanr iger (no, tudi engine od Baldurs gate se je prodal), ki pa niti priblizno ne pokaze celotne slike. Ce bi se prodajale le "strelske" igre bi bila slika drugacna.
Glide sem omenil le kot primerjavo, da se hardver ob direktni podpori DOSTI bolje izkoristi.
Kak "gigant" pa je intel in kako mu uspeva forsirati svoje pa si lahko ogledamo na netu. najprej naj naredijo nekaj, da bo ornk poganjalo grafiko, potem se bomo pa naprej menli. Tu je imela pa nVidia prav; cetudi bo Intelova grafika 10 krat hitrejsa kot je (Intelova) danes se vedno ne bo slo nikamor.
Princip za "poganjanje spilov" se ne bo spremenil, vsaj ne tako hitro, kot eni tu mislite.
To da developerji spilov nimajo resursov je za lase privleceno. Igracarska industrija (ce ji lahko tako recemo) je, po denarju, ki ga obraca, ze pred leti prehitela filmsko. Kdo zdaj nima resursov?
Zajec tici v drugem grmu: imeti cim vec profita.
Ampak: to, da podjetja kupujejo engine, ki so jih drugi izdelali nima nobene veze z razvojem hardvera. Tu omenjate engine UT 3 ... ljudje, ze engine od kvake 1 se je prodajal, to ni nic novega. Ampak, kot ze receno to nima veze. Gre le za en zanr iger (no, tudi engine od Baldurs gate se je prodal), ki pa niti priblizno ne pokaze celotne slike. Ce bi se prodajale le "strelske" igre bi bila slika drugacna.
Glide sem omenil le kot primerjavo, da se hardver ob direktni podpori DOSTI bolje izkoristi.
Kak "gigant" pa je intel in kako mu uspeva forsirati svoje pa si lahko ogledamo na netu. najprej naj naredijo nekaj, da bo ornk poganjalo grafiko, potem se bomo pa naprej menli. Tu je imela pa nVidia prav; cetudi bo Intelova grafika 10 krat hitrejsa kot je (Intelova) danes se vedno ne bo slo nikamor.
Princip za "poganjanje spilov" se ne bo spremenil, vsaj ne tako hitro, kot eni tu mislite.
Poglej in se nasmej: vicmaher.si
Senitel ::
Nisem mislil resourcev v smislu financ... Mislil sem resource v smislu programerjev. Ampak po drugi strani bi NV/ATI/Intel znali naredit kakšne optimizirane knjižnice za vse živo, ker imajo eksperte na tem področju.
RejZoR ::
Sploh ne vem zakaj v te charte tlačijo Intela. Že zato ker so integrirane in totalno zanič nimajo kej počet tam gor... Bomo videl kaj bo Intel spacal ko bo dejansko izdal samostojno grafo, ki je zaenkrat samo kup specifikacij, dobrih idej in kodno ime (Larrabee). Itaq je dejansko tko da je nakoncu ene (iz zraka potegnjeno) 75% odvisno od dobro spisanega softwara kot pa od same surovo močne železnine...
Sej veste, vsa moč brez nadzora ne pomeni nič...
Sej veste, vsa moč brez nadzora ne pomeni nič...
Angry Sheep Blog @ www.rejzor.com
Zgodovina sprememb…
- spremenil: RejZoR ()
FireSnake ::
Ce bi se ornk zraven spravli bi bilo super ... na (naso) zalost pa prevec vlece(jo) vsak na svojo stran.
@RejZoR: nenormalno mocne graficne imamo ze danes, a kaj ko tvoje besede (tam proti koncu) se kako prekleto drzijo!
@RejZoR: nenormalno mocne graficne imamo ze danes, a kaj ko tvoje besede (tam proti koncu) se kako prekleto drzijo!
Poglej in se nasmej: vicmaher.si
Zgodovina sprememb…
- spremenilo: FireSnake ()
MrStein ::
RejZoR, joj niso mi všeč rezultati te ankete. Naj drugačne rezultate dajo !
(sam lahko umakneš podatke za Intel in upoštevaš le preostale, samo množit in delit moraš znati)
(sam lahko umakneš podatke za Intel in upoštevaš le preostale, samo množit in delit moraš znati)
Motiti se je človeško.
Motiti se pogosto je neumno.
Vztrajati pri zmoti je... oh, pozdravljen!
Motiti se pogosto je neumno.
Vztrajati pri zmoti je... oh, pozdravljen!
Azrael ::
>omo videl kaj bo Intel spacal ko bo dejansko izdal samostojno grafo
Intel je že davno predstavil samostojno grafo: I740 Starfighter. Redka ptica, ampak vseeno.
Delež pri prodanih grafah, ima intel povsem zasluženo, saj so za ogromno večino uporabnikov PCjev Intelove grafične rešitve več kot samo dobre. Stvar dela, je poceni, kuri malo štroma, kaj še hočeđ več, če ne nabijaš najnovejših iger?
Intel je že davno predstavil samostojno grafo: I740 Starfighter. Redka ptica, ampak vseeno.
Delež pri prodanih grafah, ima intel povsem zasluženo, saj so za ogromno večino uporabnikov PCjev Intelove grafične rešitve več kot samo dobre. Stvar dela, je poceni, kuri malo štroma, kaj še hočeđ več, če ne nabijaš najnovejših iger?
Nekoč je bil Slo-tech.
Jst ::
Kaj hočem več? V prenosnikih srednjega in višjega razreda Intelove grafične, ne pa power hungry ATI/Nvidia rešitve. (Katere (nvidia) se še kvarijo po vrhu!)
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|
Zheegec ::
Nova AMD Puma platforma ima (čisto mimogrede) bistveno boljšo grafično, kot nova Intelova (ki bo v Centrino2) pri podobni/manjši porabi.
Drugače pa je srednji in višji rang prenosnikov večinoma mišljen za multimedijo ter delo z grafiko. Tam pa je pač Intelova grafika nesposobna poganjati kar koli pametnega. Zato avtomatsko odpade. Če gledamo power consumption/performance je Intel z naskokom zadnji pri grafičnih karticah (trenutno seveda).
Drugače pa je srednji in višji rang prenosnikov večinoma mišljen za multimedijo ter delo z grafiko. Tam pa je pač Intelova grafika nesposobna poganjati kar koli pametnega. Zato avtomatsko odpade. Če gledamo power consumption/performance je Intel z naskokom zadnji pri grafičnih karticah (trenutno seveda).
"božja zapoved pravi; <Spoštuj očeta in mater>,
ne govori pa o spoštovanju sodstva."
Janez Janša, 29.04.2014
ne govori pa o spoštovanju sodstva."
Janez Janša, 29.04.2014
Izi ::
Če gledamo power consumption/performance je Intel z naskokom zadnji pri grafičnih karticah
Če pa gledaš cena/performance je pa Intel z naskokom prvi daleč pred vsemi ostalimi.
Integrirane rešitve so mnogo mnogo cenejše kot pa najcenejša grafična kartica.
Cena pa je in bo vedno najpomembnejše merilo in zato Intel skozi vso zgodovino proda največ GPU čipov.
Senitel ::
Razlika v ceni med Intelovimi GMA čipi in najcenejšimi NV/ATI grafičnimi čipi je minimalna in je v rangu 1$-2$ zagotovo pa ne presega 5$, tako da cena/performance definitivno ni na strani Intela. Tudi ni na strani intela poraba/performance. Edina stvar, ki je na strani Intela je absolutno nižja poraba.
Crimson_Shadow ::
Je pa škoda to, da kolikor toliko spodobna grafa v prenosniku, le te-ga podraža (za končnega uporabnika) mimogrede za 50%+, če ne še kar za občutno več.
We create worlds
silon ::
Jaz bi takoj hotel prenosnik z 1920x1200 in INTEL integrirano grafiko.
Zal ga (vsaj pri nas) ne najdem.
Zal ga (vsaj pri nas) ne najdem.
Jst ::
silon: Aleluja, nisem sam!! Raje imam en kompajl več, kot pa možnost gledanja bluray filmov z nevemkakšnim enchancing nvidia/ati postopkom. Intelove grafike rocks v prenosnikih! Prenosniki niso primarno namenjeni za desktop replacement, je pa prav, da imaš možnost tudi tega. Me pa res izredno moti, da so prenosniki srednjega do višjega razreda, skorajda vsi opremljeni z enemy of the battery grafami.
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|
Vredno ogleda ...
Tema | Ogledi | Zadnje sporočilo | |
---|---|---|---|
Tema | Ogledi | Zadnje sporočilo | |
» | AMD izgublja tržni delež pri grafikiOddelek: Novice / Grafične kartice | 6834 (5939) | FireSnake |
» | Grafični procesorji: Intel vodi, AMD prehitel NvidioOddelek: Novice / Grafične kartice | 5532 (4974) | Lonsarg |
» | Prodaja grafičnih procesorjev upadaOddelek: Novice / Grafične kartice | 4556 (3098) | gzibret |
» | AMD in Intel uspešnejša od nVidieOddelek: Novice / Rezultati | 4077 (3105) | SavoKovac |
» | Stanje na trgu grafičnih čipovOddelek: Novice / Apple iPhone/iPad/iPod | 3895 (3115) | Senitel |