Umetna inteligenca, ki slači
Matej Huš
29. jun 2019 ob 12:45:51
Sredi tedna se je na internetu znašla aplikacija DeepNude, ki je obljubljala točno to, na kar namiguje njeno ime. Aplikacija je iz čim več fotografij oblečene osebe ženskega spola z algoritmi izdelala posnetek, kako je verjetno videti ta oseba brez oblek. Pričakovano je aplikacija dvignila precej prahu in polemik, ali je takšna uporaba sploh zakonita. Odgovor na tako vprašanje ni tako premočrten, kot bi na prvi pogled sklepali. Ni namreč vedno res, da so dovoljene vse vsebine, ki ne posegajo v zasebnost drugih in ne vplivajo nanje. Ekstremen primer je na primer otroška pornografija, kjer so prepovedane tudi realistične podobe, četudi bi šlo v celoti za izmišljene, izrisane like. A vrnimo se k aplikaciji DeepNude (ki sedaj ni več dostopna).
Ta deluje le na ženskah, rezultati pa so zelo odvisni od vhodnih podatkov. Najbolje se znajde s fotografijami, na kateri je že v osnovi precej gole kože. Pomaga tudi zadosti visoka ločljivost, saj so potem rezultati boljši. Včasih se aplikacija v celoti zmede, zlasti kadar so fotografije posnete pod čudnimi koti ali z neobičajno osvetlitvijo, saj tedaj nevronske mreže ne raztolmačijo vsebine pravilno. Po drugi strani pa so fotografije v bikiniju pred svetlim ozadjem mala malica, rezultati pa vsaj na prvi pogled realistični.
Aplikacija se zgleduje po DeepFake, ki je lani omogočila video "presajanje obraza". Uporaba ne zahteva nobenega tehničnega znanja ali veščin, brezplačna verzija pa na fotografije odtisne velik vodni žig. V drobovju so nevronske mreže GAN (generative adversarial network), ki so se učile na več 10.000 fotografijah golih in oblečenih žensk - podobno kot se je DeepFake učil na obrazih. DeepNude uporablja algoritem pix2pix, ki so ga razvili in kot odprto kodo ponudili na Univerzi Berkeley. Več GAN-ov je potrebnih, ker vsaka opravlja določeno opravilo (prepoznavanje oblek, njihova odprava, zaznavanje anatomije, položaja telesa itd.).
Za razliko od DeepFake je DeepNude hitrejši, ker je rezultat ena fotografija in ne video. Tudi uporaba je še enostavnejša. Avtor programa pravi, da je tehnološki navdušenec, ki je pač pokazal, kaj je možno. To je morda res, očitno pa se ni vprašal o posledicah takih aplikacij. Pravi, da to, kar počne DeepFake, lahko stori vsak posameznik s PhotoShopom, le časa si mora vzeti. To je morebiti res, a nivo potrebnega znanja ni enak.
Posledice razgalitve, četudi umetne, niso nič manj resne, ugotavljajo ženske, ki so se znašle v simuliranih posnetkih. S tem se strinjajo tudi strokovnjaki. Danielle Citron z Univerze v Marylandu, ki je pred časom v Kongresu pojasnjevala problematiko deepfake posnetkov, je dejala, da gre za vdor v zasebnost. Zakonodaja na tem področju zaostaja za razvojem tehnologije, zato sploh ni jasno, ali so tovrstni posnetki resnično nezakoniti. V ZDA se na primer sedaj pripravlja zakonodaja na tem področju (DEEPFAKES Accountability Act).
DeepNude sedaj ni več dostopen in ga ne bo nazaj, trdi avtor. Razlog naj bi bilo tveganje za zlorabo, saj je program preneslo več kot 500.000 uporabnikov. Toda saj vemo, kaj se bo v resnici zgodilo. Duh je ušel iz steklenice. Na internetu se bodo najprej znašle črne kopije tega programa, po možnosti polne virusov, kasneje pa bo enako storil še kdo in pripravil nov, še boljši program.