»

Meta in Amazon sklenila večmilijardni posel

Slo-Tech - Meta in Amazon sta sklenila dogovor, po katerem bo Meta uporabljala Amazonove procesorske čipe Graviton5 v naslednjih letih. Podrobnosti niso znane, a viri so za Reuters povedali, da gre za več milijonov čipov, ki bodo Meti na voljo več let.

Vsak čip Graviton5 ima 192 jeder in se lahko uporabljajo za poganjanje modelov umetne inteligence. Medtem ko trening modelov poteka na grafičnih čipih, so za inferenco povsem sprejemljivi tudi klasični procesorski čipi. Amazonov Graviton je CPU, ki je osnovan na ARM-jevi arhitekturi in namenjen posebej za poganjanje modelov umetne inteligence oziroma agentov. S tem je Amazon povečal učinkovitost in znižal porabo energije. (Amazon ima tudi svoje GPU-je z imenom Trainium.)

Spomnimo, da je lani avgusta Meta sklenila šestletni dogovor z Google Cloudom, potem ko je pred tem uporabljala pretežno Amazonove kapacitete. Dogovor z Googlom je vreden 10 milijard dolarjev, a očitno je več kot dovolj prostora (in povpraševanja) za nov dogovor. Google...

0 komentarjev

Google predstavil nova čipa TPU 8t in TPU 8i

Slo-Tech - Google je predstavil nova čipa osme generacije TPU-jev, ki se imenujeta preprosto TPU 8t in TPU 8i. S tem je Google dokončno ločil čipe, ki so namenjeni treningu modelov umetne inteligence (TPU 8t - training), in čipe za poganjanje teh modelov (TPU 8i - inference). Google pravi, da bo z novimi čipi v primerjavi s prejšnjo generacijo mogoče modele poganjati od dva- do štirikrat hitreje, poraba energije pa bo 30 odstotkov nižja.

Gruča TPU 8t ima 9600 čipov, zmore 121 eksaflops (v natančnosti FP4), obojesmerni prenos podatkov z 19,2 Tb/s in komunikacijo z okolico 400 Gb/s. S tem je približno trikrat zmogljivejši od lanskega Ironwooda. Za inferenco pa ima gruča TPU 8i 1152 čipov, 11,6 eksaflops, 331,8 TB pomnilnika HBM in 19,2 Tb/s prenos podatkov. Oboji bodo na voljo še letos.

Google obljublja, da je možno gruče linearno združevati in sestaviti sisteme z več kot milijonom čipov. To je odlično za trening in uporabo večjih modelov in nekoliko manj odlično za cene pomnilnika. TPU 8t in...

0 komentarjev

Anthropic bo kupil za 3,5 GW računske moči

Slo-Tech - Broadcom bo skupaj z Googlom zagotovil 3,5 GW računske moči, ki jo bo uporabljal Anthropic za poganjanje svojega modela Claude. Tekel bo na novih Googlovih tenzorskih čipih TPU (Tensor Processing Units), ki jih bo proizvajal Broadcom. Sistem bodo začeli postavljati prihodnje leto, 3,5 GW pa bo dosegel v nekaj letih.

Broadcom TPU-je razvija že od leta 2016 in je do danes sodeloval že z velikani, kot sta Amazon in Microsoft, saj je zanju dizajniral Trainium in Maio. Najnovejši dogovor z Googlom pa velja do leta 2031 in prav tako vključuje dizajn čipov. Posamezen Googlov TPU, ki se imenuje Ironwood, troši 1000 W energije, torej govorimo o 3,5 milijona čipov.

Anthropic je pojasnil še, da Amazon in Nvidia ostajata pomembna partnerja, ki bosta še naprej zagotavljala velike količine računske moči. Nvidijini čipi so še vedno zlati standard za trening modelov, medtem ko bo inferenca (poganjanje) tekla na Googlovih TPU-jih. Druge izbire Anthropic v resnici nima, saj so njegovi sistemi...

16 komentarjev

Google lansiral model Gemini, svojega tekmeca GPTjem

vir: Google
Google - Pri Googlu so naznanili nastop multimodalnega velikega generativnega modela Gemini, neposrednega tekmeca GPT-4 in tehnologije, na kateri nameravajo graditi prihodnost svojih storitev.

Vse od lanskoletnega lansiranja ChatGPTja je bilo videti, da je navezi OpenAIja in Microsofta uspelo svojega poglavitnega tekmeca Googla grdo presenetiti. Čeprav so ravno Googlovi laboratoriji zaslužni za pretežni del teoretičnih prebojev v razvoju strojnega učenja, se je velikan zaradi ChatGPTja nenadoma znašel v zaostanku in znotraj vodstva naj bi zavladala panika, ki je botrovala prenekaterim spremembam, od vrnitve Larryja Paga in Sergeya Brina v aktivnejšo svetovalno vlogo pa do združitve oddelkov Brain in DeepMind. Sedaj so v podjetju najavili prvi praktični rezultat reform, multimodalni generativni UI model Gemini. V osnovi gre za naslednika velikega jezikovnega modela PaLM 2, toda Gemini je bil že od začetka načrtovan mnogo bolj širokopotezno. To se najbolj odraža v njegovi multimodalnosti,...

8 komentarjev

Telefoni Pixel 6 bodo imeli nov Googlov sistemski čip, Tensor

Pixel 6 Pro ima glede na osnovno verzijo višji predel nad objektivi

vir: Google
Google - Pri Googlu so razkrili prve podatke o telefonih družine Pixel 6, ki jih lahko pričakujemo to jesen. Osrednja podrobnost je, da želi Google zares napraviti zmogljivo napravo za najdražji del tržišča, pri tem pa bo ključno vlogo igral Googlov lasten sistemski čip, Tensor.

Googlovi telefoni Pixel si doslej še niso uspeli priboriti omembe vrednega tržnega deleža v primerjavi s Samsungom, Applom in drugimi velikani. Največ "zaslug" za to ima predvsem Googlova kaotična strategija okoli teh telefonov, saj nenehno koleba med usmerjanjem na vrh ali v sredino trga in eksperimentira z zgrešenimi tehničnimi muhami, namesto da bi zdizajniral dobro zaokrožen izdelek. Če gre verjeti prvi najavi prihajajoče šeste generacije pixlov, naj bi bilo z neodločnostjo konec, kajti velikan se je namenil zavihteti direktno na zmogljivostni prestol. Telefona Pixel 6 in Pixel 6 Pro bosta tako premijski napravi in Pro bo gotovo nosil cenovno nalepko s prek 1000 evri. Osnovna inačica ima 6,4-palčni FHD+ zaslon...

24 komentarjev

Google pri dizajnu čipov za pospeševanje strojnega učenja že uporablja - strojno učenje

levo človeški dizajn, desno strojni

vir: Nature
Nature - Googlovi raziskovalci so potrdili učinkovitost strojnega algoritma za pomoč pri oblikovanju čipov, ki so ga sicer prvič razkrili pred dobrim letom. Strojna pamet zna napraviti dizajne, po kvaliteti primerljive človeškim, v mnogo krajšem času, rešitve pa že uporabljajo pri snovanju pete generacije Googlovega pospeševalnega čipa TPU.

Sodobni računalniški procesorji vsebujejo milijarde tranzistorjev, zato je organiziranje njihovih sestavnih delov izjemno zahtevno početje. Ko inženirji zasnujejo kompleksnejše gradnike neke arhitekture, kot so na primer sklopi logičnih vrat in pomnilnika, pride na vrsto njihovo razpostavljanje na silicij ali s tujko floorplanning. To je presneto zamudno početje, ki pri najsodobnejših izdelkih običajno traja nekje od štiri do šest mesecev. Načrtovalci ga - resda s podporo digitalnih orodij - še vedno izvajajo v grobem rečeno "na roke", skozi iterativni postopek, kjer razpostavljajo elemente od večjih proti manjšim in nato zanko ponavljajo, dokler...

20 komentarjev

Google pokazal TPU, možgane za igralcem goja

Google - Google nas je popeljal korak bliže odgovora na vprašanje, kako neki je AlphaGo letos v starodavni igri go zmlel najboljšega Zemljana Leeja Sedola. Jasno je, da je Googlov AlphaGo uporabljal strojno učenje, a to samo po sebi seveda ni dovolj. Če bi se šel strojno učenje na prenosnem računalniku, bi Lee Sedol še vedno prepričljivo zmagal. AlphaGo je imel namensko strojno opremo, in to zelo močno, je končno razkril Google.

Skrivni projekt TPU so začeli že pred leti in je letos napredoval do komercialno zanimivega izdelka. TPU pomeni tensor processing unit in pri strojnem učenju nudi za velikostni razred boljše zmogljivosti od klasičnih procesorjev pri enaki porabi energije....

4 komentarji