»

V Južni Koreji kriminalizirali pornografske deepfake

Reuters - V Južni Koreji so v četrtek sprejeli novo zakonodajo, po kateri bo posedovanje ali ogledovanje deepfake slik ali videoposnetkov, ki prikazujejo pornografske vsebine, odslej strogo prepovedano. Zagrožene so visoke globe in zaporne kazni, s čimer želijo zajeziti naraščajoči trend ustvarjanja deepfake pornografije, ki prikazuje resnične osebe. Ti posnetki se nenadzorovano širijo zlasti po Telegramu.

Zagrožena kazen za nakup, ogled ali posedovanje tovrstnih vsebin bo 30 milijonov vonov (20.000 evrov) in tri leta zapora. Doslej je bilo prepovedano le izdelovanje tovrstnih vsebin, za kar so sicer kazni še višje - 50 milijonov vonov in pet let zapora - a je bil pregon skorajda nemogoč. Z novo zakonodajo bo za ustvarjanje teh vsebin kazen še višja, in sicer sedem let. A bistvena sprememba je možnost pregona vseh udeleženih v verigi širjenja teh vsebin. O epidemiji deepfake pornografije pričajo številke policije. Leta 2021 so obravnavali 156 prijav, letos pa že 800. Tarče so zlasti učenke...

14 komentarjev

Getty Images toži avtorje umetne inteligence Stable Diffusion

Levo: posnetek Getty Images, desno: umetna inteligenca Stable Diffusion

Slo-Tech - Vprašanje avtorskih pravic, ko se algoritmi za generiranje posnetkov ali besedil z umetno inteligenco učijo na velikih količinah tudi avtorsko zaščitenih vsebin, še ni razrešeno, zato se kopičijo tožbe, ki bodo morale dati odgovor na ta vprašanja. Proti avtorjem Stable Diffusiona, ki generira posnetke, je bila že vložena kolektivna tožba nekaterih avtorjev, sedaj pa jih toži še Getty Images. To ni presenečenje, saj so vložitev tožbe v Veliki Britaniji napovedali že januarja.

Getty Images je ponudnik fotografij za nadaljnjo uporabo (stock), ki ima v svojih zbirkah na milijon posnetkov za licenciranje. V tožbi, ki so jo vložili v Delawaru, trdijo, da je Stable Diffusion uporabil 12 milijonov posnetkov iz njihovih zbirk. Kot pravijo, Stable Diffusion ni zgolj uporabil teh posnetkov, temveč so odstranili ali ponaredili podatke o avtorskih pravicah ter v nekaterih primerih celo reproducirali vodni žig na posnetkih. Stable Diffusion naj jih sploh ne bi povprašal za licence, temveč je...

3 komentarji

Na Otoku bodo prepovedali pornografske deepfake

Slo-Tech - Internet ne razočara in vsaka nova tehnologija je prej ali slej uporabljena za izdelavo pornografije. To se seveda dogaja tudi z deepfaki, ki pa omogočajo izdelavo nesporazumne pornografije, torej posnetkov ljudi, ki o tem sploh nič ne vedo. Da ne bi bilo nobenega dvoma o nesprejemljivosti in nezakonitosti tovrstnega početja, v Veliki Britaniji pripravljajo zakonske spremembe, ki bodo med drugim izrecno kriminalizirale pornografski deepfake. Prepovedana bo tudi maščevalna pornografija (revenge porn), fotografiranje žensk z višine navzdol (downblousing), nameščanje skritih kamer za snemanje brez privoljenja, cyberflashing ipd. Za večino teh posnetkov bo kaznivo tudi razširjanje, med drugim za deepfake.

Na Otoku so že leta 2015 sprejeli prvi zakon, ki je želel zajeziti maščevalno pornografije, a je bil pri tem sorazmerno neuspešen, na kar so žrtve in aktivisti opozarjali vrsto let. Leta 2019 so prepovedali še nekaj dodatnih praks, denimo upskirting. Analize so pokazale, da zaščite...

21 komentarjev

DALL-E je sedaj prosto na voljo

openai.com - Pri OpenAI so odstranili čakalno vrsto za svoj slikovni algoritem DALL-E, s čimer predvsem odgovarjajo vse srditejši konkurenci, kot je Stable Diffusion.

Algoritemsko generiranje sličic iz teksta je eno najbolj zanimivih področij informacijske tehnologije v letošnjem letu; tako zaradi dih jemajočih podob, ki jih sedaj že na dnevni bazi sproducira množica uporabnikov širom sveta, kakor tudi zares nore hitrosti razvoja. Po tem, ko je družba OpenAI letošnjega aprila pokazala drugo generacijo algoritma DALL-E, namreč ne mine mesec, da ne bi na plano pokukal nov izzivalec, kakšna nova funkcija ali pa bizaren dogodek, kot je zmaga algoritemsko ustvarjene slike na umetniškem natečaju. Medtem ko je bilo še spomladi videti, da se bodo med seboj udarili tehnološki velikani ali vsaj z njihovim denarjem podprte entitete, pa se v zadnjem času v ospredje prebijajo tudi samostojne in odprte rešitve, kot sta Midjourney ter Stable Diffusion. Posebno slednji je zaradi odprtokodne narave v začetku...

28 komentarjev

Prvi primer uporabe deepfaka v ukrajinski informacijski vojni

deepfake Zelenski

vir: Vice
CNet - Po spletu je zaokrožil prvi algoritemsko obdelan manipulativni video posnetek - popularno imenovani deepfake - ki ima namen širjenja dezinformacij okoli aktualnega spopada v Ukrajini.

Z "deepfaki" nazivamo medijske vsebine, torej slike, video in zvočne posnetke, ki so bili obdelani s strojno učenimi algoritmi na način, da uporabnika zavajajo, oziroma prikazujejo izmišljeno vsebino. Vse od rojstva se daleč najbolj uporabljajo za umetne pornografske video posnetke, kar predstavlja problem predvsem za ženske, katerih obrazi se zlorabijo za njihov nastanek. Toda varnostni strokovnjaki in politični analitiki se bolj bojijo potenciala deepfakov v dezinformacijskih kampanjah, kjer bi na ta način denimo proizvedli posnetek vidne politične osebe z lažnim sporočilom. Vrsto takšnih študijskih projektov smo že videli, medtem ko se v praksi strahovi doslej še niso uresničili, saj bistvenih incidentov v tej smeri še ni bilo. Bržkone tudi zato, ker je takšne posnetke še razmeroma lahko...

12 komentarjev

Deepfake se v glavnem zlorablja v pornografiji

Eden izmed prvih deepfakov, kjer so v prizore iz filmov vstavili Nicholasa Cagea

Slo-Tech - Odkar je pred nekaj leti tehnologija deepfake, ki omogoča vstavljanje obrazov v videoposnetke, napredovala dovolj, da je primerna za slehernika, se je zgolj potrdilo pravilo 34. Resda obstajajo aplikacije, ki nas vstavijo v znamenite prizore iz slavnih filmov - tak primer je na primer Zao - a po ocenah Sensity AI se v 90-95 odstotkih primerov deepfake uporablja za izdelavo nesporazumnih pornografskih posnetkov. Z drugimi besedami, obraz žrtve z večjo ali manjšo natančnostjo in prepričljivostjo vstavijo v pornografske videe. Posledice so lahko zelo resne.

Tehnologija je napredovala do stopnje, ko je postala uporaba podobno preprosta kot pri pralnem stroju. Kot piše MIT Technology Review, so pred kratkim odkrili spletno storitev, ki deluje na klik. Zadostuje, da naložimo fotografijo poljubne osebe, pa storitev sama izvede vse potrebno in osebo prepričljivo umesti v predpripravljene pornografske posnetke. Storitev, katere imena ne razkrivajo, ima za zdaj še zelo malo uporabnikov, a...

148 komentarjev

Anonimizacija z deepfaki

vir: Vice
Vice - Norveški raziskovalci so razvili program, ki skuša z rabo strojnega učenja zakriti posameznikov obraz v videu v realnem času na način, da še vedno ohrani njegov pristen izraz.

Tehnologija deepfakov, s čimer se popularno označuje rabo strojne inteligence za ustvarjanje vizualnih ponaredkov, ima vse od svoje popularizacije pred dvema letoma skrajno negativen prizvok, saj se jo v glavnem uporablja za izdelavo lažne pornografije in predstavlja precejšnjo nevarnost za prodor lažne propagande. Toda pristop bo mogoče v prihodnosti izkoristiti tudi v pozitivne namene. Inženirji na Norveški univerzi za znanost in tehnologijo v Trondheimu so razvili program DeepPrivacy, katerega cilj je anonimizacija oseb v video posnetkih na način, da se še vedno ohrani njihov prvotni...

8 komentarjev

Umetna inteligenca prinaša novo vrsto pornografije

Slo-Tech - V resnici je bilo le vprašanje časa in prav neverjetno je bilo, da je toliko časa trajalo. Toda pravilo 34 še vedno velja in niti nevronske mreže in strojno učenje niso izjeme. Svojo uporabo so dočakale tudi v pornografiji, posledice pa utegnejo biti - globoke.

Konec decembra so se razširili videoposnetki, ki se imenujejo deepfake. Konec je primitivnega in grotesknega lepljenja glav zvezdnic na telesa pornoigralk. Sedaj lahko poustvarjalci uporabijo fotografije z interneta, kjer jih v dobi modernih družabnih omrežij res mrgoli, in preproste odprtokodne algoritme za strojno učenje (deep learning), da obraz zvezdnic prilepijo kar v videoposnetke. Za zdaj je tovrstne posnetke še mogoče prepoznati, ker vendarle niso popolni in opazimo, da nekaj ni v najlepšem redu....

33 komentarjev