Vrsta strokovnjakov poziva k polletni ustavitvi razvoja strojnega učenja
Jurij Kristan
30. mar 2023 ob 22:17:38
Organizacija Future of Life Institute je objavila javno pismo, v katerem več vidnih osebnosti s področja strojnega učenja in informacijskih tehnologij poziva k šestmesečnemu moratoriju na razvoj in lansiranje novih produktov s področja strojnega učenja.
Izjemno nagel razvoj rešitev s področja strojnega učenja v zadnjem letu, posebno veliki jezikovni modeli in generatorji podob, vzbuja strah, da pravna in akademska stroka ter zakonodajna telesa izgubljajo bitko za uspešno razumevanje in nadzorovanje takšne napredne tehnologije. Investicijska banka Goldman Sachs je na začetku tedna objavila poročilo, v katerem ugotavlja, da naj bi generativna strojna pamet v naslednjem desetletju v razvitih državah ob službo spravila okoli 300 milijonov ljudi, v zameno za od 7- do 10-odstotni dvig bruto družbenega proizvoda. Najnovejši modeli, kot je nedavno lansirani GPT-4, s skokovitim tempom izboljšujejo svojo učinkovitost in se na nekaterih testih jezikovnega znanja že odrežejo skoraj tako dobro kot človek.
Zato ni presenečenje, da se je oglasila organizacija Future of Life Institute, ki je bila pred devetimi leti ustanovljena z namenom opozarjanja pred nevarnostmi vplivov modernih tehnologij, kot so jedrsko orožje, biotehnologija, povzročitelji klimatskih sprememb in - umetna inteligenca, oziroma strojno učenje. V najnovejšem javnem pismu opozarja, da se napredek na področju generativnih strojnih modelov odvija prehitro in zato terja šestmesečni moratorij na razvoj takšnih tehnologij, med katerim naj pristojne institucije in družba doženejo, kako dalje. Med podpisniki je več vidnih strokovnjakov s področja, kot so Yoshua Bengio, Stuart Russell, Gary Marcus in Emad Mostaque, pa javne osebnosti, kot so Elon Musk, Steve Wozniak, Andrew Yang in Yuval Noah Harari. A ker je dodajanje podpisov odprto, je potrebno biti previden, ker so hudomušneži pod besedilo že postavili vrsto lažnih podpisov, denimo Billa Gatesa in Sama Altmana.
Gre za odmevno javno manifestacijo, ki pa bržda ne bo imela večjega stvarnega učinka, iz mnogih razlogov. Prvič; besedilo je precej nedorečeno in obenem senzacionalistično usmerjeno, saj povzema mnoge slabo definirane nevarnosti, kot je strah, da nas bodo roboti vse nadomestili in bomo izgubili nadzor nad lastno civilizacijo. Več strokovnjakov za strojno etiko, kot sta Timnit Gebru in Emily Bender, se je pridušalo, da imajo strojni modeli že sedaj zvrhano mero stvarnih in dobro znanih težav, kot je jačanje nepoštenosti in diskriminacije v družbi, zato ne potrebujemo dodatnega pobezljanega norenja, ki da v bistvu s povzročanjem dodatne pozornosti velike akterje na področju še krepi. Tudi ni preveč verjetno, da bi se v kratkem zganile države, ki ne na tej ne na oni strani Atlantika še ne nameravajo omejevati tehnologije kot take - se pa pripravljajo specifične bitke, na primer glede spoštovanja intelektualne lastnine. Cinični jeziki tudi izpostavljajo, da so glas v pismu povečini dvignili tekmeci naveze Microsoft-OpenAI, ki si je z odločnim lansiranjem izdelkov na mah priborila prednost na trgu.
Sam Altman je sicer v objavi pred dobrim mesecem sam izrazil stališče, da bi bilo smiselno uvesti tesnejši zunanji nadzor nad velikimi modeli, kot je GPT-4, in nemara postaviti meje strojne porabe učenja takšnih sistemov. Javno pismo organizacije Future of Life pa je že povzročilo ukrepanje nekaterih drugih združenj; etična skupina The Center for AI and Digital Policy je tako ameriški urad FTC pozvala, naj ustavi lansiranje naslednikov GTP-4, dokler se ne razrešijo njihovi "zavajajoči elementi, ki so nevarnost za javno dobro".