» »

Za Googlove podatkovne centre skrbi umetna inteligenca

Za Googlove podatkovne centre skrbi umetna inteligenca

Googlov podatkovni center v Oregonu, ZDA.

vir: engadget
engadget - Energetska učinkovitost podatkovnih centrov je velika tema. Zlasti, če gre za Googlove centre, ki v času razcveta oblačnih storitev s svojimi tisočerimi strežniki pogoltnejo enormne količine energije. Zdaj so nalogo, to je vzdrževanje primerne temperature za zanesljivo delovanje sistemov, poverili svojemu hčerinskemu podjetju DeepMind, ki se ukvarja z umetno inteligenco (AI). Ta je sicer bila že nekaj časa doslej zadolžena za dajanje priporočil glede ukrepov, ki pa so jih nato izvajali človeški uslužbenci.

Po novem pa za dobro počutje strežnikov, ki podpirajo storitve kot so Gmail, iskalnik in YouTube, umetna pamet skrbi neposredno. Gre za prvi tak sistem na svetu, in po besedah predstavnikov Googla so prihranki že vidni. Seveda pa je vse skupaj treba jemati tudi kot dobro reklamo za bodoči AI biznis podjetja.

Razmere v podatkovnem centru spremlja na tisoče senzorjev, AI pa vsakih pet minut napravi presek njihovih zaznav, denimo temperature, porabe elektrike in hitrosti delovanj črpalk s hladilnimi sredstvi in jih pošlje v DeepMindova nevralna omrežja. Ta so si z rednim primerjanjem ukrepov in njihovih posledic sčasoma pridobila sposobnost napovedovanja optimalnih nastavitev. Že malenkostni popravki namreč utegnejo pomeniti velike prihranke. Nevralno omrežje tako najprej identificira, kaj bi bilo najbolje ukreniti, podatke pošlje v podatkovni center, kjer jih preverijo posebni sistemi za nadzor, nato pa jih tudi izvršijo. Za vsak tak ukrep mora AI izračunati tudi verjetnost, da gre za pravilno potezo. Če je verjetnost nizka, se ukrep preprosto ne izvede, seveda pa vse skupaj že nekaj časa primerjajo z dognanji in izkušnjami človeških operaterjev, ki vse skupaj še vedno nadzorujejo.

Za tako karierno napredovanje umetne inteligence v podatkovih centrih so v resnici najbolj zaslužni človeški zaposleni, ki so se pritoževali, da je ročno uveljavljanje nasvetov DeepMinda terjalo preveč truda in nadzorovanja. Določena opravila je bil potrebno izvajati precej frekventno, s čimer je zlahka prihajalo do napak, ki bi morebitne prihranke izničile.

In, kakšni so ti prihranki? Avtonomnost upravljanja je najprej pripeljala do 12 % izboljšanja, a se je odstotek že po devetih mesecih povišal na 30 %. Ko bo sistem sčasoma napolnjen s še več primerjalnimi podatki, pa se vse skupaj utegne odrezati še bolje, pravijo pri Googlu. In to bo čas za naslednji korak, razmišljanje o vpeljavi podobnih sistemov še na druga področja industrije.

29 komentarjev

antonija ::

Avtonomnost upravljanja je najprej pripeljala do 12 % izboljšanja, a se je odstotek že po devetih mesecih povišal na 30 %.
Kaj tocno se je izboljsalo za 12% oz 30%? Bolj tocna tmeperatura in vlaga pri serverjih? Toliko manj stroskov z energijo, potrebno za vzdrzevanje pogojev? Prihranek na ljudeh ki jih zdaj ne rabijo vec?
Statistically 3 out of 4 involved usually enjoy gang-bang experience.

Isotropic ::

cooling energy efficiency, kW/ton

lucca brassi ::

AI ... a je to kakšna bjonda ? :D
moments before detonation

kljukusa ::

nevralna omrežja - A nismo temu nekoč rekli nevronske mreže? Ali gre za kaj drugega?

AndrejO ::

antonija je izjavil:

Avtonomnost upravljanja je najprej pripeljala do 12 % izboljšanja, a se je odstotek že po devetih mesecih povišal na 30 %.
Kaj tocno se je izboljsalo za 12% oz 30%? Bolj tocna tmeperatura in vlaga pri serverjih? Toliko manj stroskov z energijo, potrebno za vzdrzevanje pogojev? Prihranek na ljudeh ki jih zdaj ne rabijo vec?

Učinkovitost delovanja podatkovnih centrov se meri v preko porabe energije, ki presega porabo, ki jo računalniki spremenijo v toploto.

Povedano po domače, če računalnik porabi 2kW moči, klima pa 0,5kW moči, je skupna poraba 2,5kW moči, koeficient učinkovitosti porabe (poišči kratico PUE) pa 2,5kW/2kW = 1,25.

Minimiziranje te vrednosti proti 1,0 pomeni, da minimiziraš porabo energije, ki ni neposredna posledica delovanja strežnikov. Torej je to opreacija manjšanja "režijskih stroškov".

Pa še skala vrednosti:
- Klasični podatkovni centri pred desetletjem: 1,6 in več.
- Klasični podatkovni centri danes: 1,4.
- Zeleni podatkovni centri danes: 1,2 - 1,3.
- "Oblačni" podatkovni centri pred desetletjem: 1,2.
- "Oblačni" podatkovni centri danes, brez AI: 1,11 - 1,12.
- "Oblačni" podatkovni centri danes, z AI: pod 1,11.

Gledanje na decimalke se zdi hecno, če imaš pred seboj nekaj omar račnalnikov, ker so razlike kozmetične. Ko pa začneš računati v "industrijskih velikostih", pa to postane nuja, ker stran vržena energija pomeni manjšo konkurenčnost, saj tega stroška v zelo konkurenčnem okolju med ponudniki ni možno enostavno prevaliti na uporabnika.

fikus_ ::

Novica :|

AndrejO - dober komentar

antonija ::

AndrejO je izjavil:

Good stuff
Hvala, makes sanse.
Statistically 3 out of 4 involved usually enjoy gang-bang experience.

St753 ::

@AndrejO, se ti s tem ukvarjas?

AndrejO ::

Na nek način. Sam delam na omrežni infrastrukturi in, ker je tudi izkoristek omrežja en izmed večjih "režijskih stroškov" v podatkovnem centru, se tudi pri tem "dogajajo zanimive stvari". ;)

Ampak pojasnilo, kot sem ga popisal zgoraj, je čisto generično in velja za vse podatkovne centre. Edino vprašanje je, pri kateri velikosti se to splača začeti upoštevati oziroma kakšen mora biti prihranek v OPEX preko amortizacijske dobe, da preseže razliko v CAPEX med "navadnim" in "varčnim" podatkovnim centrom.

Na eni strani je npr. podatkovni center, kot ga je imel TS nekje leta 2007, kjer bi to bilo čisto zapravljanje časa in denarja. Na drugi strani so "industrijski" podatkovni centri, kjer se tudi najmanjši prihranki množijo s tako velikimi številkami, da se začneš hitro pogovarjati o 9- ali 10-mestnih prihrankih v $$$ letno. Vmes je sivo področje, kjer je to lahko pomembno ali pa tudi ne. Npr. kako to obravnava nek Hetzner, ki na trgu prodaja VPS-je in ima zagotovo dovolj veliko količino opreme, da to postane faktor, kako pa to obravnava kakšen inštitut, ki ima lastno HPC gručo, ki je ne trži javno, temveč potrebuje samo najboljši surov računsko performance, kar ga lahko dobi.

St753 ::

Zanimivo :)

Evolve ::

en bl pametn k tadrug.. čudn da vas google še ni poklicu med svoje :))

St753 ::

Ce prav vem, AndrejO ze dela tam ;)

AndrejO ::

St753 je izjavil:

Ce prav vem, AndrejO ze dela tam ;)

Novembra bo že 7 let kar sem začel.

St753 ::

Potem sem imel prav. Torej @Evolve, jokes's on you :)) Sicer smo sli pa mal off topic...

RuskiSnajper ::

mislim, no sh*t sherlock

Jst ::

Se spomnim novice pred leti, ko se je Google hvalil, da jim je AI postavil Omare v skladišču. Kmalu zatem so se pridružili še drugi, Facebook, Amazon, MS,...

Sedaj pa očitno AI dela tudi na "micro-management-u", zato si predstavljam, da človek več ni "uporaben". Dobivajo ukaze vsakih par minut : "L2 R9 S2: minus 2," "L2 R8 S2: minus 4,".....

To sem si izmislil, seveda: "L = line, R = Row, S = Senzor", ampak tako si predstavljam, da sedaj upravljajo pretok vode, zraka, glede na vse senzorje, ki jih človek ne more več učinkovito upravljati.
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|

pivmik ::

fikus_ je izjavil:

Novica :|

AndrejO - dober komentar

AndrejO, Odličen komentar!
LP, Gregor GRE^

Reycis ::

Wow, da je prihranek zaradi optimizacije hlajenja v miljardah. Te stvari žrejo gromozanske količine energije. Bo zanimivo videt kako bodo energetske krize prizadele to industrijo.

Markoff ::

Evolve je izjavil:

en bl pametn k tadrug.. čudn da vas google še ni poklicu med svoje :))

Brez skrbi, slovenska javna uprava še vedno pri nas pobira tanarbolpametne™. Vsi nesposobni delajo v gospodarstvu, po možnosti v tujini.

+1 za AndrejOjev komentar sicer. Nisem pa prepričan, da vsi razumejo tisti del komentarja, ki govori o primerjavi OPEX in CAPEX za namene odločanja o investiciji v tak ali drugačen DC. :)
Antifašizem je danes poslednje pribežališče ničvredneža, je ideologija ničesar
in neizprosen boj proti neobstoječemu sovražniku - v zameno za državni denar
in neprofitno najemno stanovanje v središču Ljubljane. -- Tomaž Štih, 2021

Looooooka ::

Pri nas vlada tega definitivno ne razume.
Pri nas se naroči, reče, da je to investicija, ki se bo povrnila na dolgi rok, potem pa ugotovijo, da se ni izšlo in da bi bilo ceneje vzdrževati obstoječo infrastrukturo ampak potem iz nekega čudnega razloga spet ponovimo zadevo.
Kot, da nekdo dela samo na tem, da bi se zapravilo čim več denarja brez, da bi se upoštevalo ROI.
Bi bilo zanimivo če bi novinarji šli preverjat kako je z dejansko nabavo IT infrastrukture namesto, da nam vsako leto servirajo samo porabo v bolnišnicah, kjer smo že sprejeli dejstvo, da nas vsako leto oropajo.

MajorM ::

AndrejO je izjavil:


Učinkovitost delovanja podatkovnih centrov se meri v preko porabe energije, ki presega porabo, ki jo računalniki spremenijo v toploto.

Povedano po domače, če računalnik porabi 2kW moči, klima pa 0,5kW moči, je skupna poraba 2,5kW moči, koeficient učinkovitosti porabe (poišči kratico PUE) pa 2,5kW/2kW = 1,25.


Samo manjši komentar kar se meni zdi, malce nejaseno oziroma preveč poenostavljeno.
Kvocient, ki si ga predstavil po moje ni merodajen saj ne upošteva koliko koristnega dela pri določeni moči računalnik opravi. Koliko računskih operacij je zmožen narediti pri taki moči. Če pomislimo enostavno, računalnik, ki danes potroši 2kW energije nedvomno s to energijo opravi več računskih ukazov kot pa njegov 10 let star predhodnik, ki sicer potroši enako količino energije.

Lahko to prosim malce bolje pojasniš?

Thx.

antonija ::

To o cemer ti pises je ucinkovitost samega HWja, ki pa nima veze med energijo, ki jo porabis za hlajenje tega HWja.

Ce pride razmerje, ki ga je opisal AndrejO na 1(.0), pomeni da porabis ravno prav energije za hlajenje in niti ene kalorije vec. Koliko pa dejansko opravis operacij na W energije je pa druga zgodba.

Verjetno ima center za data storage (ki vecinoma vrti magnetne plosce in ne racuna prevec intenzivno) zelo drugacen profil porabe kot nek cluster za simulacije... cesarkoli, ki pa ves cas kuri vse niti na vseh procesorjih do kjer je mozno.
Statistically 3 out of 4 involved usually enjoy gang-bang experience.

AndrejO ::

MajorM je izjavil:

AndrejO je izjavil:


Učinkovitost delovanja podatkovnih centrov se meri v preko porabe energije, ki presega porabo, ki jo računalniki spremenijo v toploto.

Povedano po domače, če računalnik porabi 2kW moči, klima pa 0,5kW moči, je skupna poraba 2,5kW moči, koeficient učinkovitosti porabe (poišči kratico PUE) pa 2,5kW/2kW = 1,25.


Samo manjši komentar kar se meni zdi, malce nejaseno oziroma preveč poenostavljeno.
Kvocient, ki si ga predstavil po moje ni merodajen saj ne upošteva koliko koristnega dela pri določeni moči računalnik opravi. Koliko računskih operacij je zmožen narediti pri taki moči. Če pomislimo enostavno, računalnik, ki danes potroši 2kW energije nedvomno s to energijo opravi več računskih ukazov kot pa njegov 10 let star predhodnik, ki sicer potroši enako količino energije.

Lahko to prosim malce bolje pojasniš?

Vprašanje je, kaj meriš. Če meriš performance/Watt (pa pustimo ob strani kaj "performance" tukaj pomeni), potem ti PUE o tem resnično ne pove čisto nič. Njegov namen je namreč samo in zgolj ugotavljanje koliko energije "vržeš stran", ker je ne porabiš neposredno za procesiranje podatkov.

PUE se lahko uporablja za primerjavo učinkovitosti med posameznimi velikimi podatkovnimi centri, ker se lahko na en uč zamiži in reče, da primerjani podatkovni centri za "general computing" verjetno uporabljajo opremo enake ali vsaj primerljive generacije glede perf/Watt in je mešanica CPU+RAM+Storage mešanica približno enaka.

HPC podatkovni centri iz te zgodbe seveda v celoti izpadejo in za to bo moral nekdo drug (pegasus, če ni na dopusti) napisati, kako se tam gleda na PUE, če sploh.

Ima pa perf/Watt eno drugo, morda malo manj očitno povezavo z minimiziranjem PUE.

Ko se "oblačni" podatkovni center zgradi, dobi svojo transformatorsko postajo in ta načeloma določi koliko energije bo ta center sploh lahko porabil. Ko želiš povečati gostoto za performance (pa dajmo to sedaj definirati kot ustrezno uteženo CPI/Watt + iops/W + storage_bytes/W + ram_bytes/W), boš gledal tudi na možnost, da pri naslednji osvežitvi opreme notri porineš še toliko več škatel, kolikor si energije prihranil pri minimiziranju PUE. To pomeni, da tudi če Intel naslednje leto ne naredi čisto nič energetsko bistveno manj potratnega, lahko lastnik podatkovnega centra, ki je uspel porabo zmanjšati za 5%, da notri dodatne škatle.

Kako je to pri manjših, oz. "klasičnih" podatkovnih centrih, ne vem. Če ugibam čisto na pamet, bi lahko bila zgodba podobna, če dobiš "pancerko" s toliko in toliko A, potem pa skušaš maksimizirati količino "produkcije" znotraj tega energetskega okvirja. Optimizacija PUE ti praktično pomeni, da boš lahko notri dal nekaj škatel več, ki to bodo nosile denar, kot bi jih sicer lahko.

imagodei ::

antonija je izjavil:

Ce pride razmerje, ki ga je opisal AndrejO na 1(.0), pomeni da porabis ravno prav energije za hlajenje in niti ene kalorije vec. Koliko pa dejansko opravis operacij na W energije je pa druga zgodba.

Kot sem jaz razumel, bi to pomenilo, da strežnikov ni treba hladit, IOW, da bi imel serverje postavljene nekje na Arktiki ali Antarktiki (OK, še kje bi se našlo), ali pa da enostavno ne ogrevajo prostora, kjer se nahajajo - IOW, da se nič energije ne pretvori v toplotno, ampak gredo vsi Watti direkt v "računanje".

Lahko da se motim, ampak tako sem jaz razumel Andreja:
Povedano po domače, če računalnik porabi 2kW moči, klima pa 0,5kW moči, je skupna poraba 2,5kW moči, koeficient učinkovitosti porabe (poišči kratico PUE) pa 2,5kW/2kW = 1,25.
- Hoc est qui sumus -

AndrejO ::

imagodei je izjavil:

IOW, da se nič energije ne pretvori v toplotno, ampak gredo vsi Watti direkt v "računanje".

Verjetno si prav mislil in narobe zapisal: da se nič energije ne porabi za hlajenje, ampak gredo vsi Watti direkt v računanje. Električna energija se bo itak pretvorila v toplotno pri računanju.

Načeloma imaš prav, vendar pa še vedno ostane nekaj "rezidualne" porabe, ki te dvigne nazaj proti 1,1.

Klima naprave so v sodobnih podatkovnih centrih kar zanive zveri. Če ti domača klima recimo največ energije porabi pri kompresorju, pa je Google že l. 2010 zagnal prvega v generaciji podatkovnih centrov, ki za hlajenje uporabljajo zgolj izhlapevanje vode - torej brez kompresorja kot požeruha energije.

Ti sistemi pa še vedno potrebujejo črpalke, da zagotovijo ustrezen pretok vode in ventilatorje za ustrezen pretko zraka.

Moje ugibanje (ker nisem strojni inženir) je, da tudi na Antarktiki ne bi šlo čisto brez pomoči, ker bi še vedno bilo potrebno zagotoviti ustrezno vlažnost in pretok zraka, kar potem izloči odprte prostore.

Mimo tega, seveda, da bi bil RTT do Antarktike čisto nepraktičen.

pegasus ::

AndrejO je izjavil:

HPC podatkovni centri iz te zgodbe seveda v celoti izpadejo in za to bo moral nekdo drug (pegasus, če ni na dopusti) napisati, kako se tam gleda na PUE, če sploh.
Seveda se :) HPC centri se zavedajo, da je 1MW letno cca $1M in zato zelo poskrbijo, da gre čim več energetskega budgeta v compute in ne v gretje zraka. To se začne že pri arhitekturi hardvera in implementaciji hlajenja (najraje direkt vodno), vedno več je tudi projektov, kako "odpadno" toploto uporabiti, ponavadi za gretje pisarn ali kaj podobnega. Imajo pa HPC centri v primerjavi z "oblačnimi" druge vrste zabavo: njihov odjem energije iz omrežja veliko bolj niha kot pri nekem "general purpose" datacentru, kar predstavlja dodatno zabavo v obliki nujnega sodelovanja z lokalnim ponudnikom elektrike. Dva primera: HPC center v Edinburgu ima on-site ogromne dizel generatorje ne samo za backup, ampak za kritje takih špic; ne samo v server roomu, ampak tudi v širšem omrežju, da pomaga pokriti angleški "tea at five". Japonski Riken ima on-site dve plinski turbini z zmogljivostjo nekaj prek 30MW, ki pokrivata primarne potrebe Kei clustra, tako da iz omrežja pokrivajo samo špice in ga tako precej manj "nadlegujejo".

Jst ::

Zanimiv članek iz leta 2013, ko so zaganjali Utah NSA SpyCenter: https://www.forbes.com/sites/kashmirhil...

Notri so se pojavljale strele, FFS!!!

(Jaz sem poslušal podcast intervju z enim inženirjem, ki je bil priča strelam. twit.tv: This Week in Enterprise Tech)
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|

AndrejO ::

Ko enkrat držiš v rokah kos "busbar"-a (ne vem kako se temu reče v slovenščini) iz enega izmed velikih podatkovnih centrov, se resno zamisliš nad tokovi.

Ni mi pa jasno zakaj bi imeli "electrical arcs" (ne ravno strele ampak ja, preskok iskre). To je problem visoke napetosti in znotraj podatkovnega centra niti AC in DC ne segata čez siceršnje običajne vrednosti (48V DC oz. v ZDA 120V/220V za AC).

To bo vedel kakšen električar kako in zakaj.

antonija ::

Statistically 3 out of 4 involved usually enjoy gang-bang experience.


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo
»

Googlov DeepMind napoveduje odpoved ledvic

Oddelek: Novice / Znanost in tehnologija
55976 (4790) Markoff
»

DeepMind pri diagnozi očesnih bolezni ne zaostaja za zdravniki

Oddelek: Novice / Znanost in tehnologija
4112905 (10303) nekikr
»

Evolutionary computation a.k.a Digitalna evolucija (strani: 1 2 3 )

Oddelek: Znanost in tehnologija
10518295 (16143) Double_J
»

Umetna inteligenca proti umetni inteligenci: sodelovati ali tekmovati

Oddelek: Novice / Znanost in tehnologija
267751 (5543) jype
»

Še ena zmaga za umetno inteligenco: branje z ustnic (strani: 1 2 )

Oddelek: Novice / Znanost in tehnologija
6317305 (13533) crniangeo

Več podobnih tem