» »

Kupec Ageie nVidia

Nvidia - Pred dnevi so se na spletu pojavile informacije o prevzemu Ageie, proizvajalca prvega strojnega pospeševalnika fizike, vendar je kupec vse do zdaj ostal predmet ugibanj. Nekateri so največ možnosti pripisovali intelu, spet drugi AMD-ju, na koncu pa so imeli prav tisti, ki so kot kupca omenjali nVidio. Slednja je namreč javnosti razkrila, da je z Ageio podpisala pogodbo o prevzemu. Finančne podrobnosti prevzema bodo znane predvidoma čez dober teden, ko bo nVidia objavila svoje finančno poročilo za preteklo četrtletje.

Več o tem v nVidiinem sporočilu za javnost.

54 komentarjev

strani: « 1 2

opeter ::

Hja, saj se je prej ali slej kaj takega pričakovalo. Na koncu bosta ostali le dve podjetji. :\
Hrabri mišek - www.dangermouse.org
18. november 2011 - Umrl je Mark Hall, "oče" Hrabrega miška
RTVSLO: http://tinyurl.com/74r9n7j

nebivedu ::

Fino, potem lahko kmalu pričakujemo kako novo grafično iz nvidie, ki bo imela ta strojni pospeševalnik fizike vgrajen v osnovni čip in bo mal bolj zmogljiva zadeva.

Senitel ::

Zakaj misliš, da G8x in G9x potrebujeta kakšen poseben fizikalni pospeševalnik? Rabiš samo software...
P.S.: CUDA (oziroma "compute mode") zmore marsikaj.

Zgodovina sprememb…

  • spremenil: Senitel ()

3p ::

Problem je v tem, da ne obstaja res univerzalen fizikalni API (obstaja sicer PAL ampak to je samo konverter). Tako je Intel nabavil Havok, Nvidia Physix, ostajata še vsaj nekaj neodvisnih... Najslabša možnost: ene igre bojo pospešene na enem HW, druge na drugem...

borchi ::

> Zakaj misliš, da G8x in G9x potrebujeta kakšen poseben fizikalni pospeševalnik?

zakaj misliš, da so pri nvidia-i kupili nekaj kar sploh ne rabijo?
l'jga

Zgodovina sprememb…

  • spremenil: borchi ()

3p ::

borchi: Tudi uveljavljena knjižnica z možnostjo pospešene implementacije na GPU ni ravno nič...

Senitel ::

Ti trdiš da so Ageio kupil zaradi PhysX čipa?
Tukaj so v igri predvsem ljudje. Tako kot je bilo to v primeru 3dfx recimo.

borchi ::

> Ti trdiš da so Ageio kupil zaradi PhysX čipa?

ne. ker nimam pojma sploh kaj dela PhysX in kaj zmore naračunat nVidijin GPU. samo se mi je zdelo čudno, da nebivedu-ju, ki se veseli implementacije PhysX-a v nVidijinem čipu, praviš, da za to niti sedaj ni ovir.

ampak sedaj vidim, da sem tvoj post prebral nahitro in sem spregledal bistvo. ja, očitno rabijo software...

mimogrede, misliš, da ne bo potrebne nobene rešitve v siliciju?
l'jga

OChack ::

tole je pa mnogo slabša poteza kot prevzem ATIja iz strani AMDja, (ATI trenutno posluje super napram nviidini novi vroči tehnologiji :))
mislm prvo nj izkoristjo 2 oz 4. jedra v igrah potem pa nj fiziko notr mečejo, ker mene preveč po zraku letečih predmetov med igranjem hudo moti, sploh multiplayer, da ne vidm nasprotnika ker mi listič iz drevesa zastre pogled....
Int€l inside, IDIOT Outside

Keyser Soze ::

sploh multiplayer, da ne vidm nasprotnika ker mi listič iz drevesa zastre pogled....

In prav je tako. :D
OM, F, G!

nebivedu ::

Zakaj mislim, ker bi rekel, da je to prihodnost in da če imaš namesto softwerskega kar hardwersko zadevo, tudi ni zanemarljivo.

Polče tega, če so znali to narest sami, potem lahko naredijo še marsikaj drugega in take ljudi rabijo vse velike firme.

nebivedu ::

mislm prvo nj izkoristjo 2 oz 4. jedra v igrah potem pa nj fiziko notr mečejo


Nvidia in sam ATI nimata nič s tem da bodo igre uporabljale več kot 1 procesor. Tukaj imata amd in intel zadeve čez.

Bom pa še jaz uporabil sentinelov zakaj:
Zakaj misliš, da je ta fizikalni čip dober samo za igre?
Uporabljat se ga da še za mnogo drugih stvari in igre so tukaj postranska stvar.

3p ::

nebivedu: fizikalni čip pospešuje samo knjižnico physx. Pa še te ne v celoti. Ta pa pospešuje poenostavljeno "newtonsko" fiziko trdnih teles, nekaj malega zna simulirat tekočine, tkanino in kaj podobnega. Vse skupaj zelo 1:približno, uporabno PMSM samo za igre.

nebivedu ::

Ja v prvi verziji, najbrž pa bo v prihodnje znal mnogo več. Tut intel je imel 8086 proce še 20 let nazaj, pa poglej, kam je prišel naprej. Razvoj gre naprej in če so 2 leti nazaj naredili eno čip, najbrž vmes niso počivali na lovorikah (ali pač? - ampak to bolj za balkan velja).

destroyer2k ::

Senitel

Pri nvidi že študirajo da bi dali ta fizikalni čip, kar v svojo kartico. Ampak v mojem mnenju ne bo se to zgodilo veliko večja možnost je to, da bodo vse pozitivne lastnosti od ageia dali notri v svoje jedro in v svoj software. Pa tole potezo sem jaz hotel že dolgo časa in končno sem dočakal.

OChack ::

bo nvidia mogla prvo mal hladnejše čiše začet delat ne pa z 250W porabe, ker se bo physic čip sicer skuru zarad gretja GPU
Int€l inside, IDIOT Outside

nebivedu ::

Vse se razvija naprej in s tem tudi napajalniki. Mislim da ni nobenega problema imet močnejšega napajlnika v kišti, da boš poganjal vse kartice.

Sam imam 2X 500W, ker imam serversko ohišje in dodaten redundančni napajlanik.

Senitel ::

Koliko je sploh še recimo takih čisto hardwareskih rešitev v sodobnih GPU-jih? Shaderji? Rasterizacija? Filtriranje?
Kot sem že milijonkrat povedal. Samo dva tipa problemov obstajata serijski/skalarni in paralelni/vektorski. CPU-ji so dosedaj živel v serijskih vodah, GPU-ji v paralelnih vodah. Eni in drugi pa gredo sedaj proti sredini. CPU-ji postajajo več jedrni, GPU-ji postajajo širše programabilni in dobri tudi za serijska opravila (NVidia ima CUDA, ATI ima CTM). PhysX je sam po sebi zelo podoben Cell procesorju. Tu ni nekih hudih hardwareskih rešitev, ki bi ji recimo vrgel 100 kock in ukaz "naredi fiziko" in črna škatlica bi izpljunila položaj teh kock po fizikalni obdelavi. Ta del je čisto softwareski in se skriva v PhysX API-ju (bivši Novodex). To ni tako kot včasih grafične kartice, ko je dejansko zgledalo kot da daš črni škatlici en kup trikotnikov in tekstur pa te pričaka slika na zaslonu. Dejansko so bili že prvi čipi precej programabilni in v času razvoja DX 8 so bile ideje, da bi imeli pixel in vertex shaderje "0.5", ki bi pokrili grafične pred GeForce 3...
Danes pa ko spraviš G8x v compute mode, programiraš za GPU čisto tako kot bi programiral za CPU (ali kot fantje pri Agei za PPU). Niti približno ni to tako, da bi za seštet dve vrednosti moral renderirat dva piksla (niti ni tako rešeno na siliciju)... Enostavno rečeš a + b...

Nakup seveda ima smisel. Intel je kupil Havok, s katerim je NVIDIA prej veliko sodelovala, in takoj odrezal podporo fiziki na GPU. Havok in PhysX sta pa praktično edini dve uveljavljeni middleware rešitvi za fiziko. Eventuelno bi seveda bilo fajn imet nek DirectPhysx, ki pa vprašanje koliko ima v bistvu smisla ker pri fiziki nimaš nekega takega primitiva kot je v grafiki trikotnik.

P.S.: "Tut intel je imel 8086 proce še 20 let nazaj, pa poglej, kam je prišel naprej."
Sedaj pa povej eno stvar, ki se je na 8086 ne da naredit, pa se jo na Core 2 Quad da naredit. >:D To da bi 8086 rabil 30 let ni odgovor, da se ne da naredit.

P.S.2: "Pri nvidi že študirajo da bi dali ta fizikalni čip, kar v svojo kartico."
Really? >:D Care to share some names? Bom takoj preveril. >:D V bistu je nekaj rivalstva med grafičnimi arthitekti in "compute" arhitekti o tem kaj bo šlo na silicij (torej ali featureji, ki so bolj izključno grafični ali featureji, ki bi pomagali splošnim računskim sposobnostim). Malo poglej kaj ima Ian Buck glede tega povedat, on ima v bistvu "non graphics" del čez pri NV. ;)

Zgodovina sprememb…

  • spremenil: Senitel ()

destroyer2k ::

Senitel

Drugače rekli so da razmišljajo ne sedaj vzeti dobesedno da bodo res šli narediti.

And now Nvidia plans to integrate the PhysX technology into one of its GeForce graphics chips "as soon as possible," according to Derek Perez of Nvidia. This is a long-standing trend in chip design, where chips that used to occupy standalone roles for reasons of cost or complexity--like PhysX--wind up squeezing their way onto the main processor. You can thank Gordon Moore for that.

Zgodovina sprememb…

Tr0n ::

To bi blo fajn ja. Vse na eni kartici pa mir.

Senitel ::

Ne preveč dobesedno jemat gospoda šefa PR-a... >:D Seveda se zna zgodit, da se bo iz tega tudi kakšen nov hardwareski feature rodil (ampak spet treba pazit na timeline: GT200 je zabetoniran, next-gen bi moral bit zlo blizu temu, tako da gledamo na obdobje nekje čez 2 leti). To da bi pa PhysX tlačli na GPU ali že samo kartico pa ne pričakovat.

kotnikd3 ::

Dr_Senitel
Kaj pa lahko pričakujemo? am, naprimer...?

PIPI ::

Misliš da bo tuakj razkrival natančen roadmap ene največjih fabrk grafičnih in veznih čipov samo tebi na voljo? Še nisi slišal za poslovno skrivnost?

3p ::

destroyer: no, saj "physix technology" nenazadnje lahko pomeni tudi SW del... "integrate physx" ne pomeni nujno, da bojo pospeševalnik fizike prenesli na GPU, ampak da bo physx knjižnica (ki zdaj teče tudi na CPUju če ni kartice na voljo), pospešili...

destroyer2k ::

3p

Ne vem zdaj ali ti iz mene norce delaš ali ne bereš dobro poste še enkrat preberi, kar sem napisal. Še povdaril bom tisti del.

---->integrate the PhysX technology into one of its GeForce graphics chips

arjan_t ::

@destroyer2k: pa ti veš da on dela za nvidio?

destroyer2k ::

arjan_t

Čaki in kaj hočeš sedaj povedati da nvidia je odkupla ageia, zato da bodo poslušali ageia kako bodo oni delali čipe in sama firma?

arjan_t ::

kaj?
slovensko piši naslednjič

SAmo povedal sem da Senitel dela za nvidio in sigurno ve več kot pa lahko ti prebereš iz raznih novic

Loki ::

a ni ageia kao samo en zmogljiv procesor? torej naceloma naj niti nebi bilo vazno, kaj le-ta podpira, ce bi recimo v driverje (ne poznam sicer toliko notranjih zadev) dal podporo za vse parcialne diferencialne, racunanje matrik, ki jih rabimo za simulacijo (strojnistvo recimo oz. fem), bi kartica morala oz. znala to izracunal?


senitel dela prav pri nvidii? tam v kaliforniji ali kjerkoli ze? kaj pa?
I left my wallet in El Segundo

Zgodovina sprememb…

  • spremenil: Loki ()

arjan_t ::

nevem točno kaj je, bo on povedal :P

podpora razvijalcem ali nekaj podobnega ...

Luka Percic ::

Če prav razumem gre tukaj za boj, ki bo najbrž odločil komu bo industrija prepustila računanje fizike; procom, ali grafičnim?

Če procom, bo intel veselo štancal ter podvajal jedra, če grafičnim, bo pač večji del businessa pripadel proizvajalcem grafičnih.

Heh, amd nemore falit:D

Senitel ::

Sem bil pri NV (NV dev tech, office in Theale, UK) na praksi že nekaj leto in pol nazaj (sedaj pa treba faks končat drgač ga ne bom nikol :\). Pa še sedaj ni prišlo vse ven o čemer so takrat šibale interne diskusije. ;)

Drgač pa v bistvu že originalna novica od NV pove vse kar je za vedet:
"AGEIA's PhysX software is widely adopted with more than 140 PhysX-based games shipping or in development on Sony Playstation3, Microsoft XBOX 360, Nintendo Wii and Gaming PCs. AGEIA physics software is pervasive with over 10,000 registered and active users of the PhysX SDK."
"By combining the teams that created the world's most pervasive GPU and physics engine brands, we can now bring GeForce®-accelerated PhysX to hundreds of millions of gamers around the world."
"NVIDIA's CUDA™ technology, which is rapidly becoming the most pervasive parallel programming environment in history, broadens the parallel processing world to hundreds of applications desperate for a giant step in computational performance. Applications such as physics, computer vision, and video/image processing are enabled through CUDA and heterogeneous computing."
Nikjer ni omenjen PPU, čip, razširitvena kartica, čeprav gotovo drži tudi to, da dobrih hardwareskih arhitektov ni nikoli premalo. ;)

Zgodovina sprememb…

  • spremenil: Senitel ()

arjan_t ::

no pa si bil :8)

PIPI ::

Senitel pol pa nazaj? Torej tole bo potem tista znana GPU fizika, kjer bo tretja kartica računala fiziko (oz. 4...)?

3p ::

Dober članek na temo: v tomovi železnini

Jst ::

Senitel:

Kaj CUDA based aplikacije lahko laufajo paralelno z primarnim namenom GPUja? Torej, da bi na eni kartici igral igro in na isti kartici še nekaj dodatno računal?

Če je odgovor ne, kar sumim, potem vidim prednost Ageiinih ljudi v nvidijem objemu.
Proton decay is a tax on existence.

Senitel ::

Odvisno kako pričakuješ ta paralelizem. Ne moreš rečt recimo: 96 SP-jev bo za grafiko, 32 jih bo pa za CUDA. Lahko pa še vedno poganjaš in grafične in CUDA aplikacije hkrati, oziroma lahko to teče celo znotraj ene aplikacije. Driver bo v tem primeru delal multitasking podobno kot OS.
Cena pri tem je nekaj čez 300+ GPU ciklov, da shrani grafično stanje in se spravi v compute mode ali obratno. So bile ideje, da bi driver geometry shaderje iz DX10 implementiral preko tega... ;)

Tr0n ::

Zgleda je imel Senitel prav.

GeForce 8 graphics processors to gain PhysX support

We're working toward the physics-engine-to-CUDA port as we speak. And we intend to throw a lot of resources at it. You know, I wouldn't be surprised if it helps our GPU sales even in advance of [the port's completion]. The reason is, [it's] just gonna be a software download. Every single GPU that is CUDA-enabled will be able to run the physics engine when it comes. . . . Every one of our GeForce 8-series GPUs runs CUDA.
Ceprav, v tem intervjuju pravijo, da bo tole prislo do pravega izraza pri 2 Geforce graficnih v SLI nacinu, kjer bo ena namenjena za graficno procesiranje in druga za fiziko. Mhh...

Zgodovina sprememb…

  • spremenil: Tr0n ()

Luka Percic ::

Najbrž vas hočejo le prepričat, da sta dve grafični kul.

Saj veste, pač več prodajo.

Pesimist ::

mah bullshit govorijo tak kot vsi, samo da kupimo njihov crap, da nam pol neki bedni game kot Crysis dela z 20fps. !thumbs up! Kar pomeni crkni nvida ali ati- Igre so za konzole!

Senitel ::

Kera ironija, da je ATI-jev čip v XBox 360 (šibkejši kot Radeon 2900) in NVidijin v PS3 (predelan GeForce 7900 GTX)... >:D

M-XXXX ::

Sicer je malo offtopic ampak vseeno- kje že ima prednost?


Triangle Setup
Xbox 360 - 500 Million Triangles/sec
PS3 - 250 Million Triangles/sec

Vertex Shader Processing
Xbox 360 - 6.0 Billion Vertices/sec (using all 48 Unified Pipelines)
Xbox 360 - 2.0 Billion Vertices/sec (using only 16 of the 48 Unified Pipelines)
Xbox 360 - 1.5 Billion Vertices/sec (using only 12 of the 48 Unified Pipelines)
Xbox 360 - 1.0 Billion Vertices/sec (using only 8 of the 48 Unified Pipelines)
PS3 - 1.0 Billion Vertices/sec

Filtered Texture Fetch
Xbox 360 - 8.0 Billion Texels/sec
PS3 - 12.0 Billion Texels/sec

Vertex Texture Fetch
Xbox 360 - 8.0 Billion Texels/sec
PS3 - 4.0 Billion Texels/sec

Pixel Shader Processing with 16 Filtered Texels Per Cycle (Pixel ALU x Clock)
Xbox 360 - 24.0 Billion Pixels/sec (using all 48 Unified Pipelines)
Xbox 360 - 20.0 Billion Pixels/sec (using 40 of the 48 Unified Pipelines)
Xbox 360 - 18.0 Billion Pixels/sec (using 36 of the 48 Unified Pipelines)
Xbox 360 - 16.0 Billion Pixels/sec (using 32 of the 48 Unified Pipelines)
PS3 - 16.0 Billion Pixels/sec

Pixel Shader Processing without Textures (Pixel ALU x Clock)
Xbox 360 - 24.0 Billion Pixels/sec (using all 48 Unified Pipelines)
Xbox 360 - 20.0 Billion Pixels/sec (using 40 of the 48 Unified Pipelines)
Xbox 360 - 18.0 Billion Pixels/sec (using 36 of the 48 Unified Pipelines)
Xbox 360 - 16.0 Billion Pixels/sec (using 32 of the 48 Unified Pipelines)
PS3 - 24.0 Billion Pixels/sec

Multisampled Fill Rate
Xbox 360 - 16.0 Billion Samples/sec (8 ROPS x 4 Samples x 500MHz)
PS3 - 8.0 Billion Samples/sec (8 ROPS x 2 Samples x 500MHz)

Pixel Fill Rate with 4x Multisampled Anti-Aliasing
Xbox 360 - 4.0 Billion Pixels/sec (8 ROPS x 4 Samples x 500MHz / 4)
PS3 - 2.0 Billion Pixels/sec (8 ROPS x 2 Samples x 500MHz / 4)

Pixel Fill Rate without Anti-Aliasing
Xbox 360 - 4.0 Billion Pixels/sec (8 ROPS x 500MHz)
PS3 - 4.0 Billion Pixels/sec (8 ROPS x 500MHz)

Frame Buffer Bandwidth
Xbox 360 - 256.0 GB/sec (dedicated for frame buffer rendering)
PS3 - 20.8 GB/sec (shared with other graphics data: textures and vertices)
PS3 - 10.8 GB/sec (with 10.0 GB/sec subtracted for textures and vertices)
PS3 - 8.4 GB/sec (with 12.4 GB/sec subtracted for textures and vertices)

Texture/Vertex Memory Bandwidth
Xbox 360 - 22.4 GB/sec (shared with CPU)
Xbox 360 - 14.4 GB/sec (with 8.0 GB/sec subtracted for CPU)
Xbox 360 - 12.4 GB/sec (with 10.0 GB/sec subtracted for CPU)
PS3 - 20.8 GB/sec (shared with frame buffer)
PS3 - 10.8 GB/sec (with 10.0 GB/sec subtracted for frame buffer)
PS3 - 8.4 GB/sec (with 12.4 GB/sec subtracted for frame buffer)

Shader Model
Xbox 360 - Shader Model 3.0+ / Unified Shader Architecture
PS3 - Shader Model 3.0 / Discrete Shader Architecture

Senitel ::

Da... Resnično off-topic, še posebej zato ker sem primerjal XBox 360 in Radeon 2900 ne pa PS3...

M-XXXX ::

da je ATI-jev čip v XBox 360 (šibkejši kot Radeon 2900) in NVidijin v PS3

Če še znan prav brati si primerjav Xbox 360 čip in PS3 čip?

Senitel ::

Slabo kaže... Razen dejstva, da se v obeh konzolah nahajata čipa od NV in ATI, je edina primerjava v povedi XBox 360 vs. Radeon 2900...

Pesimist ::

in kaj za vraga ma to veze z bilocem?

PIPI ::

M-XXXX oni tip prej ej rekel, naj ATI in nVidia crkneta ter da so igre za konzole. V Xbox pa imaš ATIjev čip (ki je šibkejši od 2900), v PS3 pa nVidiin (ki je predelan 7900 GTX). Torej, če crkneta ATI in nVidia, kozole ostanejo brez.

Pesimist ::

Ne to smao pomeni da igre nimajo na racunalniku kaj za iskat. Nej jih kompletno preselijo na konzole pa fertik. Tam pa se lahko grejo utrla cool nvidia proti super dupa ati. Ironija je samo da ATI bolse dela na konzolah kot Nvidia to je pa tudi vse.

M-XXXX ::

PIP šele zdaj sem pogruntal kaj je mislil:8)
No hard feelings?

Z moje strani ne bo zamere če se pobriše!
strani: « 1 2


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo
»

GeForce 8800 GTS 512 MB zagledala luč sveta (strani: 1 2 )

Oddelek: Novice / Grafične kartice
523433 (3014) Jst
»

Rekordni dobiček nVidie

Oddelek: Novice / Grafične kartice
342364 (1460) SavoKovac
»

Maja prihajajo prvi PPU-ji

Oddelek: Novice / Grafične kartice
494232 (1725) Senitel
»

Nvidia objavila poslovne rezultate

Oddelek: Novice / Ostale najave
111458 (1458) Dr_M

Več podobnih tem