Washington Post - Trojica ameriških kongresnikov, demokrata Adam Schiff in Stephanie Murphy ter republikanec Carlos, so na direktorja vladnega urada za obveščevalne dejavnosti naslovili pismo, v katerem ga pozivajo, naj oceni, v kolikšni meri nacionalno varnost ogrožajo novodobni vizualni ponaredki oziroma t. i. deepfakes. Poslanci namreč menijo, da lahko prepričljive podobe znanih posameznikov, ki počno ali govorijo stvari, s katerimi v resnici nimajo nobene zveze, lahko pomenijo grožnjo družbi, obenem pa lahko imajo resne notranje ali celo zunanjepolitične posledice. Predstavniki ljudstva sicer od obveščevalcev pričakujejo, da bodo izdelali poročilo o tem novodobnem pojavu, zlasti o primerih, ko gre za tovrstne izdelke tujih državljanov. Česar, resnici na ljubo, ni veliko.
Deepfakes so prvikrat prodrli v javnost leta 2016, ko so uporabniki Reddita začeli za zabavo raziskovati razsežnosti umetnopametnih učinkov in lepiti obraze znanih osebnosti v porno prizore. Od tod tudi izvira zloženka imena, namreč deep learning in ponaredek.
Odtlej se številna podjetja, univerze in menda tudi ameriška vojska, trudijo najti način za prepoznavanje takih ponaredkov. Za zdaj načina, ki bi stoodstotno razločeval resnično od ponarejenega, še niso našli. Ob tem pa malone vsi priznavajo, da tudi ko ga morda bodo, ga bo najverjetneje precej hitro povozila nova različica tehnologije ponarejanja. Pri deepfakes namreč ne gre za ceneno animiranje ustnic, obraza in drugih delov telesa, pač pa za obliko globokega učenja, pri kateri v algoritem naložimo veliko količino avdio in video posnetkov določene osebe, umetna pamet pa vse to združi v izdelek, ki precej natančno posname mimiko, glas in druge značilnosti tega človeka.
Za drooling morone, ki predstavljajo večino predivalstva je seveda nevarno, ker oni vrjamejo vse na prvo žogo.
"Hey brah, si vidu na instagramu Trumpa, ki pravi da bo eksterminiral hipsterje?" "Fak stari, a res?" "Resno ej" "Šit, pol pa se kar zapohajmo do smrti" "Mega stari"
Granted, it's not all that bad...
There will be chutes!
It came from the lab.
Like tears in rain. Time to die. v_1 2012-21
Trump je prvi ugotovil, da se lahko vedno zlažeš, pa te bodo desničarji še vedno podpirali, ker verjamejo, da je količina pravic na svetu omejena, ter jih zato ne moremo priznati vsem, ker jih bo zmanjkalo za "angry white men".
Večini se tega ne da in se jim jebe za vse skupaj.
"Večina" pomeni nekaj drugega, kot ti misliš, da pomeni.
Tista "večina", o kateri ti razmišljaš, predstavlja manj kot 25% prebivalstva in verjame, da imajo ženske in črnci prenizek IQ, da bi zmogli povedat tole:
čak, deepfakes video je problem, fotošop fotke ali ponarejeni dokumenti pa to niso?
Popolnoma resen odgovor na to vprašanje je DA. Težava je v tem, da večina ljudi razume, da je tudi zelo prepričljiva fotografija lahko lažna, medtem ko je pri videoposnetkih drugače.
Kako in zakaj točno je drugače? Gre za povsem isto stvar.
Pa saj sem napisal en stavek kasneje. Ko povprečen posameznik vidi sphotoshopano fotko z zanj neverjetno vsebino, bo podvomil vanjo in se dodatno informiral o njeni verodostojnosti, ker se zaveda, da so fotografije pač lahko retuširane.
Ponarejen videoposnetek, sploh če je njegova kvaliteta na nivoju deepfakov, bo izpadel bistveno bolj verodostojno, kar pomeni, da je tudi potencial zlorabe toliko bolj zastrašujoč.
Zakaj bi v zelo dobro fotošopano fotko bolj ali manj dvomil kot v zelo dobro sfejkan video? Zdaj predstavljaš, kakor da si večina ne zna predstavljati, da se videe sfejka na isti način kot fotke. Ali pač dokumente.
Demokracija je zdej v drugem planu, to je vendar jasno.
Zakaj bi v zelo dobro fotošopano fotko bolj ali manj dvomil kot v zelo dobro sfejkan video? Zdaj predstavljaš, kakor da si večina ne zna predstavljati, da se videe sfejka na isti način kot fotke. Ali pač dokumente.
Ja, točno tako predstavljam, ker tako je! Photoshop ali drugo orodje za obdelavo digitalnih fotografij je praktično vsak uporabnik računalnika ali pametnega telefona že kdaj uporabljal - na dnevnem redu se poslužujemo instagram filtrov, faceswapov, dodajanja manjkajočih sorodnikov na družinske fotografije in podobno. Posledično obstaja družbena zavest o obstoju in zmožnostih tovrstne tehnologije.
Pri videoposnetkih pač ni tako - povprečnen posameznik nima pojma o zmožnostih machine learninga in v svojem življenju ni videl niti enega tako kakovostnega video ponaredka. Povsem jasno je, da mu bo zaradi tega bolj verjel.
Fotografija je bila v enakem položaju na neki točki v zgodovini, ko retuširanje ni bilo dostopno in razumljivo vsakomur.
V času ko v filmih s CGI lahko ustvarimo praktično karkoli in izgleda zelo realistično, ljudje ne bodo mogli verjeti, da je lahko video fejk? O.k.
A prav nalašč ignoriraš bistvo? Ljudje so seveda zmožni razumeti, da je lahko video fejk. Problem je, da jim o tem doslej ni bilo treba razmišljati, zato skepticizem ni njihov standarden odziv. Potrebovali bomo precej časa in številne nategnjene posameznike, preden bo to vsem postalo jasno.
Naši stari starši so verjeli vsemu, kar je bilo "po televiziji", pa ne zato, ker ne bi zmogli razumeti, da lahko nekdo pred kamero izreče laž.
Folk povečini še ni vajen, da bi lahko bili obični videji sfejkani. Bo kar nekaj časa preteklo preden jim bo kapnilo. Pa tud potem ni zanesljivo. Večina tudi fotkam danes vjrame, če res ni out there.
Pa saj sem tam v temi o ukrajini omenjal, da bi lahko bil bombnik fotošopan nad ukrajino. Sicer v tem primeru, ni nekega razloga, da bi to fotošopali, ampak still. Sem precej prepričan, da razen mene pomojem ni nihče tam pomislil, da maybe it could be fake.
Živimo v post truth era, and it's only gonna get worse, much much worse.
There will be chutes!
It came from the lab.
Like tears in rain. Time to die. v_1 2012-21
Tista "večina", o kateri ti razmišljaš, predstavlja manj kot 25% prebivalstva in verjame, da imajo ženske in črnci prenizek IQ, da bi zmogli povedat tole:
če bi pa recimo rekli da imajo 'rumene' ženske najvišji IQ pa bi bilo to seveda popolnoma sprejemljivo...
"Namreč, da gre ta družba počasi v norost in da je vse, kar mi gledamo,
visoko organizirana bebavost, do podrobnosti izdelana idiotija."
Psiholog HUBERT POŽARNIK, v Oni, o smiselnosti moderne družbe...
Tale zasišanja so dokaj brez veze, podobno kot naša zaslišanja za ministre.
Večina bo vedno preglasovala manjšino in republikanci bodo skoraj vedno podprli republikanske kandidate, enako kakor bodo demokrati podpril demokratske kandidate...
Enako je tudi v Sloveniji in pri naših zaslišanjih za ministre, čeprav je kak minister totalno nesposoben, bo skoraj vedno dobil vse "koalicijske" glasove in bo potrjen...
Me prav zanima kak backlash bo, ko/če med Trump-ovim mandatom Ruth Bader Ginsburg umre in bo Trump predlagal zamenjavo!
Če ne v tem mandatu, pa naslednjem se bo tole verjetno zgodilo (Ruth Bader Ginsburg je trenutno stara 85 let)!
Če se želi ljudi naučiti, da se lahko vsak posnetek ponaredi, je treba tu tudi narediti. Ko bo tv Slovenija predvajala kak posnetek, ko nek znan slovenski politik prizna, da je naredil nekaj narobe, on pa to potem zanika, se bo o ponarejanju posnetkov začelo govoriti. Do tedaj pa bo to samo obrobna zadeva, ki se je ljudje ne bodo hoteli zavedati.
Kot zanimivost: imel sem 386dx-40 in v dosu je bil en programček za rendering slik, ki je iz ženskega obraza naredil mačko, izdelal je mislim da 30 slik, za kar je porabil ca pol ure, ko sem kupil 486 je isti program porabil 5 minut. Zanimivo bi bilo vedeti koliko časa so tedaj za to porabili kakšni boljši stroji, oziroma v kakšnem času bi sedanji povprečen stroj izdelal render :)
Je pa vprašanje koliko predelanih posnetkov smo v preteklosti že videli? In kaj je danes sploh res?
Deepfakes so grožnja osebni varnosti. Predstavljajte si pekel, da se vaša hči v šoli zameri enemu prepotentnemu fantu, ki ima dovolj denarja za nVidia grafo in malo preveč cajta, in seveda njeno sliko, magari stegnjeno iz šolskega albuma na spletni strani. Pomislite, da tista zadnje čase zelo popularna mejling spam/phishing kampanja, da imajo vaš porno posnetek, ki ga bodo objavili vsem vašim frendom na FB postane veliko bolj realna grožnja s tako tehnologijo. Ne zaradi tega ker bi bila resnična, ampak ker osebi vseeno naredi veliko škode.
njeno sliko, magari stegnjeno iz šolskega albuma na spletni strani.
Za prepričljiv posnetek potrebuješ na desetine, raje na stotine fotografij. Če otrok fotografije avtomatično nalaga na socialna omrežja (ali pa to počneš sam), ti pa zoper to ne storiš ničesar, si slab starš.
Ne zaradi tega ker bi bila resnična, ampak ker osebi vseeno naredi veliko škode.
Veliko bolje je skleniti, da domači pornografski posnetek v resnici ni nič posebnega ( razen v primeru, da je narobe posnet) in ignorirati idiote, ki težijo s tabuizacijo seksualnosti.
Deepfakes so grožnja osebni varnosti. Predstavljajte si pekel, da se vaša hči v šoli zameri enemu prepotentnemu fantu, ki ima dovolj denarja za nVidia grafo in malo preveč cajta, in seveda njeno sliko, magari stegnjeno iz šolskega albuma na spletni strani. Pomislite, da tista zadnje čase zelo popularna mejling spam/phishing kampanja, da imajo vaš porno posnetek, ki ga bodo objavili vsem vašim frendom na FB postane veliko bolj realna grožnja s tako tehnologijo. Ne zaradi tega ker bi bila resnična, ampak ker osebi vseeno naredi veliko škode.
to je vredu lahko bomo gledali porniče s srednješolkami brez da one snemajo porniče
ja sam mali poštar, kurac mi je oštar
čuvajte se žene, bit ćete jebene