» »

Strojni algoritmi odkrivajo novo matematiko

Strojni algoritmi odkrivajo novo matematiko

DeepMind - DeepMindovi algoritmi so poskrbeli za nov preboj: strojno učenje je z iskanjem vzorcev v matematičnih strukturah prvič pomagalo neposredno oblikovati nove domneve, ki so osnove za dokazovanje matematičnih teoremov.

Matematiki si z računalniki pomagajo praktično odkar ti obstajajo. Toda ko odštejemo množično izvajanje algebraičnih operacij v super in malo manj superračunalnikih, se polje tovrstnega dela v višji matematiki že bistveno zoži. Ko gre za dokazovanje v strogi teoriji, so računski stroji še najbolj v pomoč pri napredni vizualizaciji, prečesavanju baz podatkov in preverjanju, medtem ko intuitivno iskanje novih domnev, kar je matematična inačica hipotez, še vedno prvenstveno odpade na ljudi. To pa bi se znalo kmalu spremeniti, kajti v Alphabetovem DeepMindu so po igračkanju z beljakovinami zdaj poskrbeli za vznemirjenje še v teoretični matematiki. Njihovi strojni algoritmi so namreč prvič pokazali na doslej še neznane povezave med matematičnimi strukturami, in to na dveh različnih področjih. Odkritje je popisano v reviji Nature.

Lotili so se dveh področij: vozlov iz topologije in pa permutacij skozi teorijo reprezentacij. V prvem primeru so na bazi več milijonov vozlov iskali doslej še neslutene povezave med njihovimi invariantami, oziroma specifičnimi lastnostmi. Z nadzorovanim učenjem natrenirani strojni algoritem jih je našel in na tej osnovi je bilo mogoče izoblikovati novo domnevo, za katero so že predstavili možen dokaz za veliko skupino vozlov. V drugem primeru se je algoritem lotil napovedi o povezavi med določenimi vrstami usmerjenih grafov in polinomi, ki ostaja nerazrešena že 40 let. Tudi tu so možno povezavo naposled odkrili in na tej osnovi izoblikovali domnevo, ki še čaka na potrjen dokaz.

Prijem v obeh primerih deluje, ker obstaja ogromno podatkov, na katerih so se DeepMindove globoke nevronske mreže lahko učile - milijoni vozlov, grafov in polinomov. Velika verjetnost je, da je mogoče recept uporabiti tudi v drugih segmentih matematike s podobnimi značilnostmi, zato so izsledke in načine dela v DeepMindu vnovič dali na razpolago. Ne gre sicer za čisto prvi primer pomoči pri dokazovanju matematičnih teoremov, saj se v tej smeri trudijo denimo tudi v OpenAIju, se je pa algoritem tokrat prvič dokopal do še neznanih matematičnih značilnosti, kar je pomemben dogodek, ki kaže na surovo moč globokega učenja pri iskanju vzorcev v strukturah, ki so za človeški um enostavno prezapletene.

23 komentarjev

Karamelo ::

Zanimivo da ni nobenega komentarja, ker nas verjetno 99% ne razume niti 2% kar je tu povedanega. Kar mi je ok, ker to pomeni, da imam še veliko za prebrat :)

ales85 ::

Ne bom trdil, da ravno razumem, upam pa, da vsaj dojamem poanto :D V glavnem pa glede na to novico pričakujem še hitrejši napredek. Me pa zanima, kdaj se bo kaj uporabilo v praksi.

Greghorian ::

Večina IQ testov je v resnici iskanje vzorcev glede na vhodne podatke. Tole ko vržeš racunalnik oz algoritem med kup podatkov, je podobno samo veliko bolj kompleksno. Tukaj se vidi kako surovo moč "IQ" ima takšen računalnik. Sprašujem se kaj bi se zgodilo, če bi takšen računalnik izpostavil učenju vseh "vhodnih" podatkov (vid, sluh, tip,..) , ki jih ima človek od otroštva? Ali bi se na neki točki ustvarila zavest? Je upravičen strah kaj se bo pojavilo čez nekaj let?

nekikr ::

Karamelo je izjavil:

Zanimivo da ni nobenega komentarja, ker nas verjetno 99% ne razume niti 2% kar je tu povedanega. Kar mi je ok, ker to pomeni, da imam še veliko za prebrat :)

Najbrž marsikdo razume za kaj približno se gre, če že ne prav tiste hipoteze, ampak je novica bolj "meh" sorte. Zakaj? Ker že leta in leta poslušamo kako hudo hudi so ti novi računalniki in algoritmi, v praksi pa potem premagajo nekoga v šahu ali neki igri, morda naredijo nek izračun, ki je sicer kompleksen ampak bolj "so what" sorte. Pričakoval bi, da naredijo in predstavijo nekaj konkretnega in uporabnega v vsem tem času. Morda pa to naredijo zase...

Djuro ::

Pa bi lahko kdo od posvečenih, ki razume članek, zadevo prevedel tudi za nas plebejce, v enem morebiti malo bolj poljudnem jeziku?
Hvala vnaprej.

srus ::

Torej, glede na zapisano, je odkritje zdravila proti raku že za vogalom?

tilen03 ::

srus je izjavil:

Torej, glede na zapisano, je odkritje zdravila proti raku že za vogalom?

Nep, ker je ML/DL večja neznanka od raka. Nihče ne more razložiti kaj se dogaja. Output pa je nekako smiseln. Ampak sam output nam ne pomaga kaj veliko, če ne poznamo korakov, ki vodijo do njega.

A110 ::

Seveda vemo kaj se dogaja. Modeli ne pridejo kar tako iz nič in se računalnik torej dejansko ne uči kot človek, da bi razmišljal z zavestjo. Le model prilagaja vhodnim in izhodnim podatkom.

Djuro je izjavil:

Pa bi lahko kdo od posvečenih, ki razume članek, zadevo prevedel tudi za nas plebejce, v enem morebiti malo bolj poljudnem jeziku?
Hvala vnaprej.


V topologiji obstaja pojem vozel. Zelo obstrakten pojav ki cloveku na oko ni jasen. Imas v bsitvu skupek (prepletene) vrvi in ko potegnes 2 točki te zanima ali nastane kakšen in koliko vozlov ali pa boš dobil krožnico. Ti vozli imajo potem različne lastnosti (spet odvisno od tega kako oblikovana je začetna vrv). Človek načeloma zelo težko opazi kakšne lastnosti na oko sploh ker lahko isti skupek vrvi predstavimo na v na oko zelo različnih oblikah. Osnovna matematika deluje tako, da se ponavadi opazi neko lastnost ki bi lahko bila res potem se jo pa skusa dokazati in se po potrebi dodaja/odstranjuje predpostavke. Pri tako abstraktnih pojmih je pa problem da je lastnosti veliko tezje opaziti ter da se s takimi specificnimi mladimi podrocji kot je topologija zaradi same tezavnosti ukvarja redko kdo (dokazati jih ni nujno tezje ker se ve kaj se isce). Racunalnik je v tem primeru opazil nekaj lastnosti ki so morda res, morda pa niso.

Zgodovina sprememb…

  • spremenilo: A110 ()

dexterboy ::

Po opisanem je torej odkritje FTL pogona skoraj za vogalom... :D
Malo off topic; na TED-u je super predavanje o teoriji strun;
https://www.ted.com/talks/brian_greene_...
Ko ne gre več, ko se ustavi, RESET Vas spet v ritem spravi.

Karamelo ::

dexterboy je izjavil:

Po opisanem je torej odkritje FTL pogona skoraj za vogalom... :D
Malo off topic; na TED-u je super predavanje o teoriji strun;
https://www.ted.com/talks/brian_greene_...


pa to je iz leta 2005, te strune se mi zdi da so že adijo, preveč problemov z njimi

nekikr ::

dexterboy je izjavil:

Po opisanem je torej odkritje FTL pogona skoraj za vogalom... :D
Malo off topic; na TED-u je super predavanje o teoriji strun;
https://www.ted.com/talks/brian_greene_...

Nisem gledal, daj mi samo povej koliko dimenzij je zdaj po novem, 45 ali smo že čez 100?
preveč problemov z njimi

Niti ne. Za vsak problem dodaš tri dimenzije ali kakšno eksotično materijo in je problem rešen.

Zgodovina sprememb…

  • spremenil: nekikr ()

MaFijec ::

Poenostavljeno povedano. Iskanje so prilagodili, da vsebuje in je konformno domenskemu znanju. To je popularno zdaj, ko so koncno ljudje iz podrocja deep learninga priznali, da se algoritem veliko bolj posplosi, ce upostevamo strukturo, geometrijo, simetrijo originalnega problema. Taki algoritmi se tudi mnogo boljse generalizirajo.
Na koncu pa bo spet uporabljeno domensko znanje. Algoritem samo poisce zanimive vzorce (kar je sicer veliko in zelo pomaga), na koncu pa spet domensko znanje.

Za zgraditev mreze je bilo uporabljeno globoko domensko znanje. Mreze je prepoznala potencialne vzorce, namesto, da bi to raziskovalci delali na roke.
Torej mreza samo ustrezno filtrira potencialne kandidate.
Na koncu pa bo spet uporabljeno domensko znanje, da se kaj dokaze.
Ucenje z racunalnikom, strojno ucenje s primernimi, strukturiranim metodami je lahko zelo mocno orodje za filtriranje in tudi dokaze.
Kar pa ni nic novega, tudi klasifikacijo grup (strukturo grup se da ucinkovito predstaviti, sprogramirati z racunalnikom) so dokoncali z racunalnikom in recimo GAP poenostavi precej dela.

Zgodovina sprememb…

  • spremenilo: MaFijec ()

kuall ::

in takole napreduje AI, počasi a konstantno. sem reku, da ne bo big bang teorije v AI ampak postopen napredek z veliko truda. to je bila čist mim predstava, da se bo super inteligenten AI kar naenkrat pojavil. zdej se tudi tapočasnim najbrž že sanja, da bo temu res tako. bo podoben napredek kot v evoluciji, počasen, konstanten a vseeno seveda hitrejši kot v evoluciji, tam gre šele počasi, tam se meri v milijonih let, tu se meri vsaj v tisočih. veliko bolje, še vedno počasi. če bi imel jaz kaj časa bi se na veliko ukvarjal z AI, ampak sem se raje usmeril v bolj kratkoročne cilje služenja denarja. delayed gratification ne deluje niti pri meni.
je pa zanimivo vprašanje, ali bo nastopila še kakšna AI zima kot je v 70/80 letih. po moje ne bo, ker so AI dosežki že konkretno impresivni. po moje bo šlo zdej samo še pospešeno naprej. samo vprašanje s kakim pospeškom. upam, da čimhitreje, da še mi kaj vidimo od tega, itak bomo najbolj zanimivo zamudili.

kuall ::

bistvo inteligence je iskanje vzorcev, podobnosti, analogij in kategoriziranje. to so samo različne besede za isto stvar. tako da članek razumem iz tega vidika. je pa članek kot ponavadi napisan suhoparno in zanič. ni lahko napisat članka, ki je razumljiv, to je cela umetnost. manjkajo konkretni enostavni primeri, katere bi lahko laiki, katerim je namenjen članek, lahko razumeli.

zee ::

srus je izjavil:

Torej, glede na zapisano, je odkritje zdravila proti raku že za vogalom?


Algoritmi in racunalniske simulacije so bili kljucnega pomena pri razvoju cepiv proti COVID-19, tudi zato je bilo moc cepiva razviti v tako kratkem casu.
zee
Linux: Be Root, Windows: Re Boot
Giant Amazon and Google Compute Cloud in the Sky.

poweroff ::

kuall je izjavil:

če bi imel jaz kaj časa bi se na veliko ukvarjal z AI, ampak sem se raje usmeril v bolj kratkoročne cilje služenja denarja.

:)) Lisica pa pravi, da je grozdje itak kislo...
sudo poweroff

A110 ::

poweroff je izjavil:

kuall je izjavil:

če bi imel jaz kaj časa bi se na veliko ukvarjal z AI, ampak sem se raje usmeril v bolj kratkoročne cilje služenja denarja.

:)) Lisica pa pravi, da je grozdje itak kislo...


Valda, je boljše stancat spletne strani. Kje pa imaš glavo? :))

poweroff ::

Boljše je verjetno že. Samo spletne strani lahko štanca praktično vsak, na AI pa ne more delati ravno vsak.
sudo poweroff

fikus_ ::

Bolj redko je znanje, bolje ga lahko prodaš. In še dobro ga prodat moraš znat.
Učite se iz preteklosti, živite v sedanjosti in razmišljajte o prihodnosti.

ikeman ::

Edini, ki je vsaj približno podal normalen komentar. Ali ste vsi neki "šlosarji" v privat času, ali se vam preprosto ne da ? ;)
Vsak Uni. izobražen posameznik naravoslovne smeri bi moral vedeti, kako se uporablja trenutno generacijo "AI" orodji in "DeepMind" ni nobena izjema. Še vedno gre predvsem za preiskovanje prostora in ne za razumevanje česarkoli.

MaFijec je izjavil:

Poenostavljeno povedano. Iskanje so prilagodili, da vsebuje in je konformno domenskemu znanju. To je popularno zdaj, ko so koncno ljudje iz podrocja deep learninga priznali, da se algoritem veliko bolj posplosi, ce upostevamo strukturo, geometrijo, simetrijo originalnega problema. Taki algoritmi se tudi mnogo boljse generalizirajo.
Na koncu pa bo spet uporabljeno domensko znanje. Algoritem samo poisce zanimive vzorce (kar je sicer veliko in zelo pomaga), na koncu pa spet domensko znanje.

Za zgraditev mreze je bilo uporabljeno globoko domensko znanje. Mreze je prepoznala potencialne vzorce, namesto, da bi to raziskovalci delali na roke.
Torej mreza samo ustrezno filtrira potencialne kandidate.
Na koncu pa bo spet uporabljeno domensko znanje, da se kaj dokaze.
Ucenje z racunalnikom, strojno ucenje s primernimi, strukturiranim metodami je lahko zelo mocno orodje za filtriranje in tudi dokaze.
Kar pa ni nic novega, tudi klasifikacijo grup (strukturo grup se da ucinkovito predstaviti, sprogramirati z racunalnikom) so dokoncali z racunalnikom in recimo GAP poenostavi precej dela.

kuall ::

poweroff je izjavil:

Samo spletne strani lahko štanca praktično vsak, na AI pa ne more delati ravno vsak.

Dela že lahko vsak na AI, ne bo pa vsak dosegel kaj zanimivega. Večina vas samo zgublja čas medtem ko mi služimo prave denarje na drugih področjih in čakamo, da dozori pravi čas za AI. Ko se bo enkrat z AI dalo služiti vas bomo že izpodrinili. Če bi se npr z AI ukvarjal v 60ih bi bila to totalna zguba časa in življenja. Včasih je bolje malo počakati, da dozori pravi čas Treba je iti za denarjem večinoma, denar je najboljši pokazatelj, ali zapravljaš življenje ali pa delaš nekaj, kar drugi cenijo toliko, da so ti pripravljeni plačati.

Karamelo ::

kuall je izjavil:

poweroff je izjavil:

Samo spletne strani lahko štanca praktično vsak, na AI pa ne more delati ravno vsak.

Dela že lahko vsak na AI, ne bo pa vsak dosegel kaj zanimivega. Večina vas samo zgublja čas medtem ko mi služimo prave denarje na drugih področjih in čakamo, da dozori pravi čas za AI. Ko se bo enkrat z AI dalo služiti vas bomo že izpodrinili. Če bi se npr z AI ukvarjal v 60ih bi bila to totalna zguba časa in življenja. Včasih je bolje malo počakati, da dozori pravi čas Treba je iti za denarjem večinoma, denar je najboljši pokazatelj, ali zapravljaš življenje ali pa delaš nekaj, kar drugi cenijo toliko, da so ti pripravljeni plačati.


Denar je najboljši pokazatelj, ali zapravljaš življenje? Globoka :)

mr_chai ::

Dokaz, da matematika ni samo izmišljena, ampak tudi odkrita.


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo
»

DeepMindov algoritem MuZero se uči kot otrok

Oddelek: Novice / Znanost in tehnologija
439121 (6219) 7982884e
»

AI AlphaStar dosegel stopnjo velemojstra

Oddelek: Novice / Znanost in tehnologija
64536 (3217) TheBlueOne
»

Googlov DeepMind napoveduje odpoved ledvic

Oddelek: Novice / Znanost in tehnologija
55426 (4240) Markoff
»

Januarski poizkus dokaza problema P = NP neuspešen

Oddelek: Novice / Znanost in tehnologija
64127 (2663) Thomas

Več podobnih tem