AnandTech - Prve specifikacije tretje generacije mobilne platforme Tegra smo že ugledali, a je takrat šlo za pobegle, neuradno-uradne diapozitive. Zdaj je nVidia razblinila vse dvome o Tegri 3, saj je s predstavitvijo potrdila, da bo čip s kodnim imenom Kal-El resnično štirijedrnik, kjer so za jedra uporabili ARM-ova jedra Cortex A9. Posledično bo procesorski del dvakrat zmogljivejši od dvojedrne Tegre 2 (pri 1 GHz, pričakuje pa se frekvence vse do 1,5 GHz), medtem ko so še bolj nadgradili grafični del sistema-na-čipu, saj naj bi bil le-ta v primerjavi s trenutno aktualno različico kar trikrat zmogljivejši.
Zanimivo je, da so tokrat dodali le polovico jeder oz. stream procesorjev, saj jih ima Tegra 2 8, Tegra 3 pa naj bi jih imela 12. Izboljšave tako v grafičnem kot procesorskem delu naj bi skupaj omogočile kar petkrat višjo zmogljivost od trenutne generacije, vse skupaj pa naj zaradi izboljšav pri energetski varčnosti ne bi pretirano vplivalo na avtonomijo naprav - obljubljajo vse do pol dneva predvajanja videoposnetkov visoke ločljivosti. Med demonstracijo so nVidiini predstavniki na 10-palčnem tabličnem računalniku pognali videoposnetek z ločljivostjo 2560 x 1440, ki ga je nov čip hkrati dekodiral, stiskal na ločljivost 1366 x 786 pik, kolikor je znašala ločljivost tablice, in ga obenem prikazoval še na 30-palčnem zaslonu z ločljivostjo 2560 x 1600 pik.
Prve naprave s Tegro 3 naj bi v obliki tabličnih računalnikov videli že v letošnjem avgustu, medtem ko bo nekoliko okleščena različica za mobilne telefone na voljo šele proti koncu leta. V letu 2012 naj bi Kal-Elu sledila nadgradnja s kodnim imenom Wayne, ki bo podvojila zmogljivost, nato pa bo sledil nov petkratni preskok s čipom Logan. Stark naj bi nekje v letu 2014 v primerjavi s svojim predhodnikom ponovno podvojil zmogljivost, vse skupaj pa naj bi prineslo čip, ki naj bi bil kar 100-krat zmogljivejši od Tegre 2. Nekaj več o prihajajočih čipih, arhitekturi in video-dekodirnih zmogljivostih novega čipa si lahko preberete v članku na Anandtechu.
Od kod jim ideja da je Ironman 100x močnejši od Supermana? Nevem no, meni vse skupaj zveni kot orenk prerana prvoaprilska, oz. kot reklama za Marvel vs. Capcom 3 :)
Ves da ma Batman (bruce WAYNE) kriptonit doma pripravljen v primeru da bo moral supermana (KAL-EL) kdaj postavit v svojo vrsto, ironman (tony STARK) ima pa tui podobne denarne sposobnosti tako da me nebi cudlo ce nima nekega "kriptonite beam"-a med svojo opremo:D Wolverene (LOGAN) je pa tak poglavje zase, in ga lahko dajo kamorkoli jim pase :D
Drugace pa fajn videt da majo velike firme tudi smisel za humor! :D
Kaj je lažje dobit, košček kriptonita z drugega konca galaksije al en običen nuke? Superman jih samo nuka vsakega posebej in nimajo za burek, tko da te fore sej majo kriptonit so 'nerealistične' :).
Thja, zadeva je preej zmogljiva in zelo varčna. Windows 8 (oz. kakorkoli se bo imenoval) pa prihaja s podporo ARM-u in out-of-the-box podporo tem SoC-jem, izpostavljena je bila npr. prav Tegra. Wayne oz. morda Logan, kakih 8 GB RAMa, zmontirano na zadnjo stran 20+'' monitorja -> odlična web surfing mašinca z majhno porabo.
Thja, zadeva je preej zmogljiva in zelo varčna. Windows 8 (oz. kakorkoli se bo imenoval) pa prihaja s podporo ARM-u in out-of-the-box podporo tem SoC-jem, izpostavljena je bila npr. prav Tegra. Wayne oz. morda Logan, kakih 8 GB RAMa, zmontirano na zadnjo stran 20+'' monitorja -> odlična web surfing mašinca z majhno porabo.
Windowsi niso nujni, a so za mnoge zaželjeni. 8 GB RAMa pa tudi pride zelo prav :P Takšna kištica bi lahko za vse razen za gaming pri meni zamenjala trenutno.
V mojem ruterju laufa VIA C7 (ne vem več ali je Mobile ali navaden), intelove mrežne in BSD.
Ko bom nadgradil, hočem virtualizacijo, da bo router kišta počela še kaj drugega...
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|
Kar bi jaz rad videl je en zmogljiv SoC v SMD ali nekem takem podnožju, ki bi ga lahko doma sam zlotal. Blazno rad bi si sestavil custom napravo z ARM procesorčkom in ostalim custom HWjem. Ampak nikjer ne najdem čipa, ki bi ga lahko na roke nalotal na ploščo tiskanega vezja. Vse rabijo prekleto mašinerijo za to.
Nekako tako, kot če bi se hvalili, da neki novi CPU ima ukaz za deljenje celih števil...
ja in bi bil velik nekaj mikrometrov...
Vmes je 15 let razvoja. Valda, da je manjše.
sam neki a ti dejansko pravis, da so graficne kartice 15 let nazaj pocele:
videoposnetek z ločljivostjo 2560 x 1440, ki ga je nov čip hkrati dekodiral, stiskal na ločljivost 1366 x 786 pik, kolikor je znašala ločljivost tablice, in ga obenem prikazoval še na 30-palčnem zaslonu z ločljivostjo 2560 x 1600 pik.