Nvidia predstavila GPGPU arhitekturo Hopper
Jurij Kristan
25. mar 2022 ob 17:05:03
Na letošnji pomladanski konferenci GTC so pri Nvidii najavili naslednico arhitekture Ampere za superračunalnike - Hopper.
Nvidia že lep čas ni več zgolj proizvajalec grafičnih kartic za poganjanje CrysisaTM, temveč ponuja širok izbor rešitev za obdelavo podatkov in soočanje z najzahtevnejšimi tehničnimi problemi našega časa, ki se tičejo mnogoterih ter raznolikih področij, od medicinske diagnostike do robotike. Navadni smrtniki lahko dobijo okviren vpogled v to čorbo dvakrat na leto, ob pomladnem in jesenskem dogodku GPU Technology Conference (GTC). Tudi letošnja prva konferenca je pokala po šivih od demonstracij avtonomne vožnje, prepoznave govora, modeliranja proizvodnih linij in podobnih reči - seveda vse na podlagi Nvidiinih rešitev v oblaku, ki vključujejo tako strežniške farme z njihovimi čipi kakor tudi programska okolja, kakršna je platforma Omniverse. Mimogrede; slednja je letos naposled dobila tudi pravo oblačno izvedbo, Omniverse Cloud, ki v pretočni izvedbi teče na strežnikih in jo je torej mogoče uporabljati tudi na strojni opremi brez Nvidiinih grafičnih kartic.
Med konkretnimi najavami je bil na prvem mestu prihod nove GPGPU arhitekture, Hopper. Ampere je bila zadnja, ki je združevala tako obdelavo podatkov kakor izrisovanje igričarskih okolišev, sedaj pa se grafična tehnologija veji: prihodnji geforci bodo napravljeni na podlagi arhitekture Lovelace, medtem ko je Hopper rezervirana za strojno pamet in obdelavo podatkov. Ime seveda izvira od legendarne ameriške admiralke Grace Hopper ... enako kot arhitektura Nvidiinega procesorja na Armovi osnovi, Grace. To je inženirjem dalo hecno možnost, da so prihajajočo kartico, ki bo nosila oba čipa, preprosto poimenovali Grace Hopper. Procesor Grace naj bi sicer prispel prihodnje leto in tokrat so pokazali dvoprocesorsko pakiranje, ki bo vsebovalo kar 144 Armovih računskih jeder. Spomnimo: namenjen bo pretežno čim boljši podpori Nvidiinih GPGPUjev v superračunalnikih.
Tehnologija Ampere je bila najavljena okrogli dve leti tega in v tem času so napredovali tako proizvodni pristopi kakor računske zahteve, kar je opazno v novem paradnem čipu, H100. Ta je napravljen v TSMCjevem procesu 4N in vsebuje kar 80 milijard tranzistorjev, 16.896 jedrc CUDA in 528 tenzorskih jedrc. Tudi pomnilnik je nove sorte, HBM3 s kar tremi terabajti na sekundo prepustnosti, pri velikosti 80 GB. Opazna je tudi rast porabe, saj strežniško pakiran (SXM) čip pokuri kar 700 vatov, izvedba v obliki PCIe kartice pa 350 W. Novosti v zgradbi se tičejo modernih delovnih zahtev, predvsem v strojnem učenju. Kot odziv na prodor nevronskih mrež na osnovi transformerjev, ki so se proslavili v jezikovnih modelih, kakršen je GPT-3, ima H100 del tenzorskih jedrc namenjen natanko delu s transformerji, kar tehnično pomeni prilagodljivo natančnost v FP8 in FP16. Prav tako je dobil strojno podporo dinamičnemu programiranju, in sicer s samosvojim naborom inštrukcij DPX (dynamic programming extensions).
Precej novosti je tudi pri povezljivosti, saj je vodilo NVLink osveženo s četrto generacijo, ki je tokrat prvič pogledala tudi izven samih kartic. Po novem je mogoče s pomočjo zunanjega stikala NVLink povezati do 256 čipov v strežniških rezinah, a to velja zgolj za Nvidiine procesorje GPGPU, ne pa tudi podporo (Intel, AMD, Arm), ki še vedno potrebuje poznana vodila, kot je Infiniband. S pomočjo zunanjih NVLinkov pri Nvidiji sestavljajo superračunalnik Eos, ki bo vseboval 4608 čipov H100 in naj bi bil po besedah inženirjev najhitrejši računalnik za strojno učenje na svetu, ko ga čez nekaj mesecev vklopijo. Med ostalimi strojnimi rečmi velja omeniti še razpoložljivost razvojnega kompleta Jetson AGX Orin, ki smo ga prvič videli lansko jesen in je namenjen razvoju rešitev s področij robotike, avtonomne vožnje in podobnih. Osnovna izvedba stane 2000 dolarjev, seveda v ZDA in brez davka.