»

Nov rekord v stiskanju podatkov z Wikipedije

Slo-Tech - Kaido Orav je najnovejši prejemnik Hutterjeve nagrade, ki jo Marcus Hutter iz DeepMinda podeljuje za najboljšo kompresijo človeškega znanja. Hutter je pripravil gigabajt veliko datoteko, ki vsebuje članke z Wikipedije in predstavlja nekakšen odsev dostopnega znanja, ki bi ga človek zmogel prebrati v celem življenju. Medtem ko klasičen ZIP datoteko stisne na približno tristo megabajtov, je najnovejši rekord 112 MB.

Kdor se poteguje za nagrado, mora prispevati program, ki implementira algoritem za stiskanje, ter stisnjeno datoteko. Če je njuna skupna velikost manjša od aktualnega rekorda, ki znaša 112 MB, dobi nagrado. Skupna nagrada znaša pol milijona evrov, izplača pa se tolikšen odstotek, za kolikor je novi rekord izboljšal starega. Pogoj je, da algoritem stisnjeno datoteko nazaj razpakira v originalu identično. Natečaj poteka od leta 2020.

Pred razpisom nagrade je bil rekord 116 MB, nato pa so nagrajenci mejo počasi potiskali proti današnjim 112 MB. Obstaja še druga verzija...

7 komentarjev

Na grammyjih umetna inteligenca še ne bo mogla slaviti

Reuters - Posodobljeni pravilnik za 66-to podelitev glasbenih nagrad Grammy najbolj natančneje doslej določa, kolikšno vlogo imajo lahko strojni algoritmi pri nastanku pesmi, ki se potegujejo za nagrade. Ne prav veliko.

Ta hip je strojno generiranje zvoka in govora na videz malo manj razvpito od tistega za besedila in slike, toda vtis je varljiv, saj tudi tu strojno učenje napreduje z velikimi koraki. Zato tudi področje glasbe vse bolj čuti pritisk strojno generiranih vsebin, kar je v zadnjih mesecih ponazorilo nekaj zanimivih dogodkov, kot je bil denimo vznik skrivnostne računalniške verzije Draka, ali pa najava Paula McCartneyja, da bodo s pomočjo strojne inteligence lansirali še en, zadnji komad Beatlesov. Ker je računalniška obdelava podatkov že dolgo časa praktično neobhoden del nastajanja popularne glasbe, so kriteriji za podeljevanje največjih nagrad lahko pokazatelj, koliko in na kakšne načine si strojno učenje tjakaj utira pot. Če gre soditi po najnovejšem pravilniku za nagrade...

10 komentarjev

Še eno v vrsti javnih opozoril na nevarnosti umetne inteligence

Slo-Tech - Dobili smo še tretje v nizu odmevnih javnih opozoril vodilnih strokovnjakov za strojno učenje, da naj bi umetna inteligenca predstavljala resno nevarnost za propad človeške civilizacije.

Odkar se je lanske jeseni - z nastopom ChatGPTja - strojno učenje prebilo na čelo razvpitosti v IT industriji in širše, se vrstijo tudi vse pogostejša javna opozorila, da je napredek prehiter. Razvijalci algoritmov strojnega učenja, kot so veliki jezikovni modeli in generatorji slik, kakor da so nenadoma ugotovili, da situacije ne nadzorujejo več in nas utegne AI že v razmeroma bližnji prihodnosti vse nadvladati. Tu ne gre za kakšne odpadnike, temveč smetano raziskovalcev ter inženirjev, kot sta dva od treh dobitnikov Turingove nagrade iz leta 2019, Geoff Hinton in Yoshua Bengio, pa vodje skorajda vseh najvidnejših razvojnih laboratorijev.

Najnovejša tovrstna objava prihaja iz organizacije Center for AI Safety (CAIS) in je dolga vsega 22 besed, v katerih trdi, da je stopnja nevarnosti, ki jo...

87 komentarjev

Geoffrey Hinton z opozorili na nevarnosti strojnega učenja zapušča Google

The New York Times - Britansko-kanadski raziskovalec Geoffrey Hinton, ki velja za enega od utemeljiteljev globokega učenja z nevronskimi mrežami, pompozno zapušča Google, kjer je delal zadnjih deset let. In sicer predvsem iz strahu, da nam nadzor nad strojnimi algoritmi uhaja iz rok (plačljiv vir, alternativa).

Leta 1986 so David Rumelhart, Geoffrey Hinton in Ronald Williams v odmevni objavi pokazali, kako uporabiti metodo vzvratnega razširjanja (backpropagation) za bistveno pospešitev zmogljivosti učenja nevronskih mrež, kar velja za enega od mejnikov v strojnem učenju. Hinton ima razen tega na spisku še vrsto drugih dosežkov, denimo razvoj arhitekture nevronskih mrež AlexNet, z Alexom Krizhevskyjem in Ilyo Sutskeverjem. Ta iznajdba družine algoritmov za prepoznavo slik namreč pomeni enega od povodov za bliskovito širjenje strojne inteligence med spletne tehnologije v preteklem desetletju. Zaradi opisanih uspehov Geoffrey Hinton velja za enega od očetov umetne inteligence in je pred štirimi leti tudi...

6 komentarjev

Google pri dizajnu čipov za pospeševanje strojnega učenja že uporablja - strojno učenje

levo človeški dizajn, desno strojni

vir: Nature
Nature - Googlovi raziskovalci so potrdili učinkovitost strojnega algoritma za pomoč pri oblikovanju čipov, ki so ga sicer prvič razkrili pred dobrim letom. Strojna pamet zna napraviti dizajne, po kvaliteti primerljive človeškim, v mnogo krajšem času, rešitve pa že uporabljajo pri snovanju pete generacije Googlovega pospeševalnega čipa TPU.

Sodobni računalniški procesorji vsebujejo milijarde tranzistorjev, zato je organiziranje njihovih sestavnih delov izjemno zahtevno početje. Ko inženirji zasnujejo kompleksnejše gradnike neke arhitekture, kot so na primer sklopi logičnih vrat in pomnilnika, pride na vrsto njihovo razpostavljanje na silicij ali s tujko floorplanning. To je presneto zamudno početje, ki pri najsodobnejših izdelkih običajno traja nekje od štiri do šest mesecev. Načrtovalci ga - resda s podporo digitalnih orodij - še vedno izvajajo v grobem rečeno "na roke", skozi iterativni postopek, kjer razpostavljajo elemente od večjih proti manjšim in nato zanko ponavljajo, dokler...

20 komentarjev

Industrija išče naslednika globokega učenja

Ars Technica - Največja konferenca o strojnem učenju na svetu, NeurIPS, je letos minila v znamenju vse večjega zavedanja o kritičnih omejitvah globokih nevronskih mrež in iskanju načinov, kako bi ovire prešli.

Globoko učenje - se pravi, raba globokih nevronskih mrež - si je v zadnjem desetletju praktično podredilo področje strojne inteligence. Dalo nam je algoritme, ki premagujejo ljudi v strateških igrah, prepoznavajo obraze, diagnosticirajo bolezni in vozijo avtomobile ... dokler cesta ni preveč luknjasta, mokra in polna nepredvidljivih kolesarjev. Prav ta zadnji primer pa že kaže, kako omejen je pravzaprav ta pristop, saj se avtonomna vozila kar ne morejo izviti iz primeža eksperimentalnih faz, pa čeprav naj bi bila že nekaj časa tik za ovinkom. Kdor redno bere našo stran, zna našteti šibke točke globokega učenja na izust: občutljivost na šum; ogromne baze podatkov, potrebne za učenje; pristranskost in pa katastrofično pozabljanje, se pravi neučinkovitost izven zelo ozko zastavljenih...

15 komentarjev

Strah pred umetno inteligenco je odveč

Foto: Zavod 14/Andrej Peunik

Slo-Tech - Ljubljana, 22. november 2019 - "Ko gre za razvoj in uporabo umetne inteligence, je zaupanje javnosti in spoštovanje etičnih načel ključno". Tako so ugotavljali sodelujoči na mednarodni delavnici in okrogli mizi Soobstoj z umetno inteligenco: vizija družbe 5.0*, ki se je v organizaciji Zavoda 14 in Evropskega liberalnega foruma (ELF), 21.11., odvijala v prostorih Poligona v Ljubljani. Dogodek z mednarodno udeležbo strokovnjakov se je začel z delavnicama, ki sta se osredotočili na vprašanje soobstoja človeka in umetne inteligence (UI) ter na regulacijo UI. Nadaljeval pa z okroglo mizo, kjer so se govorci dotaknili tem, kot so prihodnost razvoja algoritmov, UI, kibernetike, kognitivnih sistemov in kibernetske varnosti, predvsem iz etično-socialnega vidika.

Po mnenju govorcev je strah pred UI odveč, če bo družba znala vzpostaviti mehanizme, ki bodo omogočali optimalno, a varno rabo tehnologij prihodnosti.

Direktor Zavoda 14 dr. Aleksander Aristovnik je uvodoma izpostavil, "kot v...

59 komentarjev

OpenAI nadgrajuje okrepitveno učenje z evolucijo

Slo-Tech - V laboratoriju OpenAI so objavili prve izsledke rabe njihovega novega sistema treninga strojne inteligence, pri katerem pogoje okrepitevega učenja zaostrujejo s tekmovanjem med agenti z različnimi cilji. Njihovi algoritmi so se v tem režimu spontano naučili uporabljati orodja, tudi na neslutene načine.

Odmevni uspehi strojne pameti v zadnjih letih, kot je premagovanje ljudi v Goju, Doti 2 in drugih igrah, slonijo na razmeroma preprostih principih globokih konvolucijskih nevronskih mrež in okrepitvenega učenja, kjer se algoritmi učijo skozi brezštevilne igre samih s seboj. Da bi odkrili morebitne nove in/ali hitrejše načine učenja, so v laboratoriju OpenAI (ki je v začetku leta postal delno komercialno usmerjen) agente vrgli v bolj dinamično...

13 komentarjev

Prelomen hibridni čip za pospeševanje različnih tipov strojne inteligence

Ars Technica - Kitajski inženirji so razvili hibridno integrirano vezje, ki je sposobno nativno procesirati več različnih tipov algoritmov za strojno učenje. To lahko počne hkrati, kar so ponazorili na praktičnem primeru samovozečega kolesa.

Globoke konvolucijske nevronske mreže so zaradi uspeha pri prepoznavanju podob in drugih vzorcev v tem desetletju okupirale pojem strojnega učenja, a gre zgolj za eno od mnogih njegovih sort. Biološke organizme na primer bolje posnema drugačna vrsta - sunkovne (spiking) nevronske mreže. Omenjena tipa delujeta na dokaj različnih principih. Globoke konvolucijske mreže so zgrajene v plasteh, ki gredo v globino (od tu ime), živčna vozlišča pa za vhodni in izhodni signal uporabljajo podatke v standardnem binarnem zapisu. Sunkovne mreže nimajo...

19 komentarjev

Intelov nevromorfni računalnik dosegel osem milijonov nevronov

vir: Intel
Intel - Intel je pokazal platformo za nevromorfno računalništvo Pohoiki Beach, ki jo sestavlja do 64 procesorjev Loihi in vsebuje do osem milijonov vozlišč. Gre za važen dosežek na poti širjenja računalnikov, ki podatke na strojni ravni procesirajo podobno kot človeški možgani.

Kljub današnji razvpitosti strojnega učenja so nevronske mreže zvečine še vedno v celoti programske in emulirane tečejo na procesorjih klasičnega tipa. Nevromorfno računalništvo, s čimer označujemo čipe, ki tudi na strojni ravni ponazarjajo živčna vozlišča, je še vedno v povojih. Intel je predlani pokazal svoje ambicije s predstavitvijo procesorja Loihi s 130.000 nevroni - se pravi, dva imata približno toliko "živčnih celic" kot vinska mušica. Sedaj pa...

10 komentarjev

Turingove nagrade prejmejo utemeljitelji globokega učenja

Slo-Tech - Zveza za računske stroje (ACM) je sporočila, da Turingovo nagrado za dosežke na področju računalništva prejmejo Geoff Hinton z Univerze v Toronu in Google Braina, Yann LeCun z Univerze New York in vodja umetne inteligence pri Facebooku, ter Yoshua Bengio z Univerze v Montrealu. Nagrajenci si bodo milijon dolarjev nagrade razdelili za pionirsko delo na področju globokega učenja (deep...

0 komentarjev