»

Na Otoku bodo prepovedali pornografske deepfake

Slo-Tech - Internet ne razočara in vsaka nova tehnologija je prej ali slej uporabljena za izdelavo pornografije. To se seveda dogaja tudi z deepfaki, ki pa omogočajo izdelavo nesporazumne pornografije, torej posnetkov ljudi, ki o tem sploh nič ne vedo. Da ne bi bilo nobenega dvoma o nesprejemljivosti in nezakonitosti tovrstnega početja, v Veliki Britaniji pripravljajo zakonske spremembe, ki bodo med drugim izrecno kriminalizirale pornografski deepfake. Prepovedana bo tudi maščevalna pornografija (revenge porn), fotografiranje žensk z višine navzdol (downblousing), nameščanje skritih kamer za snemanje brez privoljenja, cyberflashing ipd. Za večino teh posnetkov bo kaznivo tudi razširjanje, med drugim za deepfake.

Na Otoku so že leta 2015 sprejeli prvi zakon, ki je želel zajeziti maščevalno pornografije, a je bil pri tem sorazmerno neuspešen, na kar so žrtve in aktivisti opozarjali vrsto let. Leta 2019 so prepovedali še nekaj dodatnih praks, denimo upskirting. Analize so pokazale, da zaščite...

21 komentarjev

Intel predstavil orodje za prepoznavo deepfakov

VentureBeat - Intel je predstavil orodje FakeCatcher, ki je po njihovih besedah prvi detektor deepfakov v realnem času, kar mu uspeva s 96-odstotno natančnostjo. Orodje, ki so ga razvili v sodelovanju s State University of New York, uporablja Intelovo programsko in strojno opremo. Deepfake prepoznava z analizo "krvnega obtoka" (blood flow) v posamezni pikslih. Prepoznava namreč posnetke ljudi, ki niso avtentični.

Ilke Demir, vodja raziskave v Intel Labs, pojasnjuje, v čem se je FakeCatcher razlikuje od dosedanjih orodij. Ta gledajo surove podatke oziroma posamezne piksle in poizkušajo zaznati neavtentičnost v njih. FakeCatcher pa uporablja metodo, ki se imenuje imenuje PPG (fotopletismografija). Metoda meri, koliko svetlobe se odbija ali pronica skozi vene, po katerih teče kri. Na podoben način pametne zapestnice merijo srčni utrip, FakeCatcher pa bo tako preverjal, ali je oseba na posnetku živa. S prostim očesom se tega ne vidi, s strojem pač. FakeCatcher preveri signale na 32 mestih na obrazu...

10 komentarjev

Prvi primer uporabe deepfaka v ukrajinski informacijski vojni

deepfake Zelenski

vir: Vice
CNet - Po spletu je zaokrožil prvi algoritemsko obdelan manipulativni video posnetek - popularno imenovani deepfake - ki ima namen širjenja dezinformacij okoli aktualnega spopada v Ukrajini.

Z "deepfaki" nazivamo medijske vsebine, torej slike, video in zvočne posnetke, ki so bili obdelani s strojno učenimi algoritmi na način, da uporabnika zavajajo, oziroma prikazujejo izmišljeno vsebino. Vse od rojstva se daleč najbolj uporabljajo za umetne pornografske video posnetke, kar predstavlja problem predvsem za ženske, katerih obrazi se zlorabijo za njihov nastanek. Toda varnostni strokovnjaki in politični analitiki se bolj bojijo potenciala deepfakov v dezinformacijskih kampanjah, kjer bi na ta način denimo proizvedli posnetek vidne politične osebe z lažnim sporočilom. Vrsto takšnih študijskih projektov smo že videli, medtem ko se v praksi strahovi doslej še niso uresničili, saj bistvenih incidentov v tej smeri še ni bilo. Bržkone tudi zato, ker je takšne posnetke še razmeroma lahko...

12 komentarjev

Deepfake se v glavnem zlorablja v pornografiji

Eden izmed prvih deepfakov, kjer so v prizore iz filmov vstavili Nicholasa Cagea

Slo-Tech - Odkar je pred nekaj leti tehnologija deepfake, ki omogoča vstavljanje obrazov v videoposnetke, napredovala dovolj, da je primerna za slehernika, se je zgolj potrdilo pravilo 34. Resda obstajajo aplikacije, ki nas vstavijo v znamenite prizore iz slavnih filmov - tak primer je na primer Zao - a po ocenah Sensity AI se v 90-95 odstotkih primerov deepfake uporablja za izdelavo nesporazumnih pornografskih posnetkov. Z drugimi besedami, obraz žrtve z večjo ali manjšo natančnostjo in prepričljivostjo vstavijo v pornografske videe. Posledice so lahko zelo resne.

Tehnologija je napredovala do stopnje, ko je postala uporaba podobno preprosta kot pri pralnem stroju. Kot piše MIT Technology Review, so pred kratkim odkrili spletno storitev, ki deluje na klik. Zadostuje, da naložimo fotografijo poljubne osebe, pa storitev sama izvede vse potrebno in osebo prepričljivo umesti v predpripravljene pornografske posnetke. Storitev, katere imena ne razkrivajo, ima za zdaj še zelo malo uporabnikov, a...

148 komentarjev

Disney pokazal, da je deepfake že skoraj tu

Slo-Tech - Čeprav je tehnologija deepfake že precej napredovala od svojih začetkov pred tremi leti, je za uporabo v filmih še vedno preslaba. Nekajsekundni kadri, kot denimo pokojne Carrie Fisher v Vojni zvezd, stane milijone in terjajo mesece dni dela. A v prihodnosti se kani to spremeniti, saj postaja deepfake čedalje boljši. Disney je pokazal, da je z njihovim algoritmom možno izdelati že zelo prepričljive posnetke v ločljivosti 1024 x 1024. To seveda še vedno ni dovolj za filmsko produkcijo, je pa bliže od 256 x 256.

Algoritem so razvili skupaj z raziskovalci z ETH Zürich. Uporaba je preprosta, saj potrebujemo le dobro osvetljena posnetka dveh oseb, pa bo algoritem v prvi posnetek vstavil obraz druge. Pomaga, če sta osebi posneti v podobnem kadru, torej da obe gledata v kamero. Rezultati so že precej impresivni. Temeljit pregled seveda hitro pokaže, da gre za manipulacijo, a to niti ni namen. Posamezne posnetke lahko pridobimo iz videoposnetka in jih potem zložimo tudi nazaj, rezultat pa...

4 komentarji

Umetna inteligenca, ki slači

Slo-Tech - Sredi tedna se je na internetu znašla aplikacija DeepNude, ki je obljubljala točno to, na kar namiguje njeno ime. Aplikacija je iz čim več fotografij oblečene osebe ženskega spola z algoritmi izdelala posnetek, kako je verjetno videti ta oseba brez oblek. Pričakovano je aplikacija dvignila precej prahu in polemik, ali je takšna uporaba sploh zakonita. Odgovor na tako vprašanje ni tako premočrten, kot bi na prvi pogled sklepali. Ni namreč vedno res, da so dovoljene vse vsebine, ki ne posegajo v zasebnost drugih in ne vplivajo nanje. Ekstremen primer je na primer otroška pornografija, kjer so prepovedane tudi realistične podobe, četudi bi šlo v celoti za izmišljene, izrisane like. A vrnimo se k aplikaciji DeepNude (ki sedaj ni več dostopna).

Ta deluje le na...

421 komentarjev

OpenAI je ustvaril algoritem, ki si ga ne upa spustiti v divjino

theguardian.com - V laboratoriju za strojno inteligenco OpenAI so napravili algoritem za generiranje besedil, ki je po njihovem mnenju prenevaren, da bi ga v celoti dali v javnost.

Strojni algoritmi danes ne znajo zgolj prepoznavati vzorcev, temveč tudi ustvarjati nove vsebine, na primer slike in obraze. Seveda so še na stopnji, ko pozornega človeka zelo težko pretentajo, saj je večina njihovih stvaritev nepopolna, dostikrat pa naravnost groteskna. Toda očitno prihajamo v čas, ko bo strojna pamet postala tako sposobna, da bodo njene stvaritve težko razločljive od človeških. V družbi OpenAI, za katero stoji Elon Musk, so namreč ustvarili generator tekstovnih besedil, ki ga ne želijo spustiti iz laboratorija. Menijo, da je tako učinkovit, da bi pomenil...

52 komentarjev

Na CMU pokazali izpopolnjen način izdelave video fotomontaž

Slo-Tech - V začetku leta je na internetu završalo, ko se je pojavilo orodje za preprosto izdelavo video fotomontaž (deepfake), ki je izrabljalo računsko moč grafičnih procesorjev v modernih računalnikih. Internetno občestvo je novost takoj zgrabilo in po pričakovanjih je bil rezultat razmah fotomontirane pornografije. Raziskovalci s Carneige Mellon University (CMU) so sedaj predstavili nov način za izdelavo še bolj vernih fotomontaž.

V posnetku na YouTubu so pokazali, kako lahko iz Johna Oliverja naredijo Stephena Colberta, iz Martina Luthra Kinga Baracka Obamo in iz slednjega Donalda Trumpa. Mogoče so tudi abstraktnejše metamorfoze, denimo iz Johna Oliverja v žabca ali med dvema vrstama cvetov. Tudi ta metoda uporablja pristope umetne inteligence, da prenese "slog" ene osebe v drugo. Metodo so...

7 komentarjev