»

V Južni Koreji kriminalizirali pornografske deepfake

Reuters - V Južni Koreji so v četrtek sprejeli novo zakonodajo, po kateri bo posedovanje ali ogledovanje deepfake slik ali videoposnetkov, ki prikazujejo pornografske vsebine, odslej strogo prepovedano. Zagrožene so visoke globe in zaporne kazni, s čimer želijo zajeziti naraščajoči trend ustvarjanja deepfake pornografije, ki prikazuje resnične osebe. Ti posnetki se nenadzorovano širijo zlasti po Telegramu.

Zagrožena kazen za nakup, ogled ali posedovanje tovrstnih vsebin bo 30 milijonov vonov (20.000 evrov) in tri leta zapora. Doslej je bilo prepovedano le izdelovanje tovrstnih vsebin, za kar so sicer kazni še višje - 50 milijonov vonov in pet let zapora - a je bil pregon skorajda nemogoč. Z novo zakonodajo bo za ustvarjanje teh vsebin kazen še višja, in sicer sedem let. A bistvena sprememba je možnost pregona vseh udeleženih v verigi širjenja teh vsebin. O epidemiji deepfake pornografije pričajo številke policije. Leta 2021 so obravnavali 156 prijav, letos pa že 800. Tarče so zlasti učenke...

14 komentarjev

Intel predstavil orodje za prepoznavo deepfakov

VentureBeat - Intel je predstavil orodje FakeCatcher, ki je po njihovih besedah prvi detektor deepfakov v realnem času, kar mu uspeva s 96-odstotno natančnostjo. Orodje, ki so ga razvili v sodelovanju s State University of New York, uporablja Intelovo programsko in strojno opremo. Deepfake prepoznava z analizo "krvnega obtoka" (blood flow) v posamezni pikslih. Prepoznava namreč posnetke ljudi, ki niso avtentični.

Ilke Demir, vodja raziskave v Intel Labs, pojasnjuje, v čem se je FakeCatcher razlikuje od dosedanjih orodij. Ta gledajo surove podatke oziroma posamezne piksle in poizkušajo zaznati neavtentičnost v njih. FakeCatcher pa uporablja metodo, ki se imenuje imenuje PPG (fotopletismografija). Metoda meri, koliko svetlobe se odbija ali pronica skozi vene, po katerih teče kri. Na podoben način pametne zapestnice merijo srčni utrip, FakeCatcher pa bo tako preverjal, ali je oseba na posnetku živa. S prostim očesom se tega ne vidi, s strojem pač. FakeCatcher preveri signale na 32 mestih na obrazu...

10 komentarjev

Prvi primer uporabe deepfaka v ukrajinski informacijski vojni

deepfake Zelenski

vir: Vice
CNet - Po spletu je zaokrožil prvi algoritemsko obdelan manipulativni video posnetek - popularno imenovani deepfake - ki ima namen širjenja dezinformacij okoli aktualnega spopada v Ukrajini.

Z "deepfaki" nazivamo medijske vsebine, torej slike, video in zvočne posnetke, ki so bili obdelani s strojno učenimi algoritmi na način, da uporabnika zavajajo, oziroma prikazujejo izmišljeno vsebino. Vse od rojstva se daleč najbolj uporabljajo za umetne pornografske video posnetke, kar predstavlja problem predvsem za ženske, katerih obrazi se zlorabijo za njihov nastanek. Toda varnostni strokovnjaki in politični analitiki se bolj bojijo potenciala deepfakov v dezinformacijskih kampanjah, kjer bi na ta način denimo proizvedli posnetek vidne politične osebe z lažnim sporočilom. Vrsto takšnih študijskih projektov smo že videli, medtem ko se v praksi strahovi doslej še niso uresničili, saj bistvenih incidentov v tej smeri še ni bilo. Bržkone tudi zato, ker je takšne posnetke še razmeroma lahko...

12 komentarjev

Deepfake se v glavnem zlorablja v pornografiji

Eden izmed prvih deepfakov, kjer so v prizore iz filmov vstavili Nicholasa Cagea

Slo-Tech - Odkar je pred nekaj leti tehnologija deepfake, ki omogoča vstavljanje obrazov v videoposnetke, napredovala dovolj, da je primerna za slehernika, se je zgolj potrdilo pravilo 34. Resda obstajajo aplikacije, ki nas vstavijo v znamenite prizore iz slavnih filmov - tak primer je na primer Zao - a po ocenah Sensity AI se v 90-95 odstotkih primerov deepfake uporablja za izdelavo nesporazumnih pornografskih posnetkov. Z drugimi besedami, obraz žrtve z večjo ali manjšo natančnostjo in prepričljivostjo vstavijo v pornografske videe. Posledice so lahko zelo resne.

Tehnologija je napredovala do stopnje, ko je postala uporaba podobno preprosta kot pri pralnem stroju. Kot piše MIT Technology Review, so pred kratkim odkrili spletno storitev, ki deluje na klik. Zadostuje, da naložimo fotografijo poljubne osebe, pa storitev sama izvede vse potrebno in osebo prepričljivo umesti v predpripravljene pornografske posnetke. Storitev, katere imena ne razkrivajo, ima za zdaj še zelo malo uporabnikov, a...

148 komentarjev

Umetna inteligenca, ki slači

Slo-Tech - Sredi tedna se je na internetu znašla aplikacija DeepNude, ki je obljubljala točno to, na kar namiguje njeno ime. Aplikacija je iz čim več fotografij oblečene osebe ženskega spola z algoritmi izdelala posnetek, kako je verjetno videti ta oseba brez oblek. Pričakovano je aplikacija dvignila precej prahu in polemik, ali je takšna uporaba sploh zakonita. Odgovor na tako vprašanje ni tako premočrten, kot bi na prvi pogled sklepali. Ni namreč vedno res, da so dovoljene vse vsebine, ki ne posegajo v zasebnost drugih in ne vplivajo nanje. Ekstremen primer je na primer otroška pornografija, kjer so prepovedane tudi realistične podobe, četudi bi šlo v celoti za izmišljene, izrisane like. A vrnimo se k aplikaciji DeepNude (ki sedaj ni več dostopna).

Ta deluje le na...

421 komentarjev

Nov algoritem za še boljši deepfake

Slo-Tech - Raziskovalci z univerz Stanford in Princeton, z Inštituta Max Planck in iz podjetja Adobe Research so razvili nov algoritem, ki omogoča še lažjo manipulacijo videoposnetkov ljudi. Lani smo se prvikrat resno zavedli moči algoritmov za deepfake, s katerimi je možno obraz človeka (ali kar celega človeka) na posnetku zamenjati z nekom drugim. Umetna inteligenca in nevronske mreže pa brez predaha napredujejo, zato je sedaj možno še več. V novem algoritmu lahko enostavno kakor v urejevalniku besedil zamenjamo besede, ki jih človek na posnetku izgovarja.

Za trening algoritma potrebujemo posnetek, ki je dolg vsaj 40 minut, in prepis govorjenega besedila. Iz tega se algoritem nauči, kako se spreminja obrazna mimika človeka pri izgovoru posameznega fonema. Ko to imamo, lahko enostavno...

60 komentarjev

Na CMU pokazali izpopolnjen način izdelave video fotomontaž

Slo-Tech - V začetku leta je na internetu završalo, ko se je pojavilo orodje za preprosto izdelavo video fotomontaž (deepfake), ki je izrabljalo računsko moč grafičnih procesorjev v modernih računalnikih. Internetno občestvo je novost takoj zgrabilo in po pričakovanjih je bil rezultat razmah fotomontirane pornografije. Raziskovalci s Carneige Mellon University (CMU) so sedaj predstavili nov način za izdelavo še bolj vernih fotomontaž.

V posnetku na YouTubu so pokazali, kako lahko iz Johna Oliverja naredijo Stephena Colberta, iz Martina Luthra Kinga Baracka Obamo in iz slednjega Donalda Trumpa. Mogoče so tudi abstraktnejše metamorfoze, denimo iz Johna Oliverja v žabca ali med dvema vrstama cvetov. Tudi ta metoda uporablja pristope umetne inteligence, da prenese "slog" ene osebe v drugo. Metodo so...

7 komentarjev