Deepfake se v glavnem zlorablja v pornografiji

Matej Huš

14. sep 2021 ob 20:03:15

Odkar je pred nekaj leti tehnologija deepfake, ki omogoča vstavljanje obrazov v videoposnetke, napredovala dovolj, da je primerna za slehernika, se je zgolj potrdilo pravilo 34. Resda obstajajo aplikacije, ki nas vstavijo v znamenite prizore iz slavnih filmov - tak primer je na primer Zao - a po ocenah Sensity AI se v 90-95 odstotkih primerov deepfake uporablja za izdelavo nesporazumnih pornografskih posnetkov. Z drugimi besedami, obraz žrtve z večjo ali manjšo natančnostjo in prepričljivostjo vstavijo v pornografske videe. Posledice so lahko zelo resne.

Tehnologija je napredovala do stopnje, ko je postala uporaba podobno preprosta kot pri pralnem stroju. Kot piše MIT Technology Review, so pred kratkim odkrili spletno storitev, ki deluje na klik. Zadostuje, da naložimo fotografijo poljubne osebe, pa storitev sama izvede vse potrebno in osebo prepričljivo umesti v predpripravljene pornografske posnetke. Storitev, katere imena ne razkrivajo, ima za zdaj še zelo malo uporabnikov, a obstaja resna nevarnost, da kmalu pljuskne v javnost. Z razvojem tehnologije so se pojavljala nova in nova orodja, ki posegajo v zasebnost posameznikov. Običajen "photoshop" je že zdavnaj preteklost. Poleg videoposnetkov obstajajo tudi orodja, ki na primer slečejo osebe.

V novi storitvi je na voljo pravcata knjižnica pornografskih posnetkov, kjer lahko uporabnik izbere, v katerega želi vsaditi žrtev. Večinoma je prilagojena za posnetke žensk, čeprav ima tudi nezanemarljiv del gejevskih posnetkov. To pomeni, da so lahko žrtve vseh spolov. Ne gre le za nedopusten poseg v zasebnost, saj je takšne posnetke včasih zelo težko ločiti od pravih, v nekaterih državah je že sam obstoj takšnega posnetka lahko razlog za pregon. Hkrati pa ostaja dejstvo, da karkoli pripotuje na internet, tam tudi ostane. Splet ne pozablja.

Zgodb, ko so bili tovrstni deepfake posnetki že zlorabljeni za maščevanje posameznicam, ni malo. Orodje, ki to možnost daje vsakomur, je zato še toliko bolj problematično. Primeri so avstralska aktivistka Noelle Martin, ki je neuspešno poizkušala doseči odstranitev posnetkov, indijska novinarka Rana Ayyub in britanska pisateljica Helen Mort. V britanski Revenge Porn Helpline ugotavljajo, da se problem širi.