»

Posnetki iz igre se uporabljajo kot lažni posnetki vojne

Slo-Tech - Češki založnik igre Arma 3, ki je realistična vojna simulacija, ki poteka v odprtem svetu (sandbox) in omogoča neskončno prilagajanje in spreminjanje elementov in enot v igri, ima dovolj zlorabe posnetkov iz igre v propagandne namene. Čeprav pojav ni nov, so se sedaj v uradni izjavi pridušali, da se posnetki iz igre pogosto uporabljajo kot posnetki iz vojne v Ukrajini. Ob tem so navedli nekaj znakov, kako lahko prepoznamo lažne posnetke ali vsaj posumimo nanje.

Posnetki iz Arme 3 ali predhodnic so se kot domnevno resnični posnetki pojavljali že v konfliktih v Siriji, Afganistanu, Palestini in podobno. V nekaterih primerih so jih predvajale celo televizije, denimo leta 2013 ruska televizija in leta 2011 BBC-jev dokumentarec o nasilju na Severnem Irskem. Še najpogosteje pa živijo na internetu, še zlasti na družbenih omrežjih, kjer nadzora praktično ni. Zatem ko nekdo posnetek iz igre naloži na internet, ga kdo drugi predela in izboljša, nato pa zaokroži po družbenih omrežjih v propagandne namene. Kasneje seveda preverjevalci dejstev to odkrijejo, a je prepozno.

Zato so v podjetju Bohemia Interactives pripravili seznam dokazov, ki lahko razkrijejo ponarejen posnetek. Če se ta dogaja ponoči, je v nizki ločljivosti, posnet s...

25 komentarjev

Deepfake se v glavnem zlorablja v pornografiji

Eden izmed prvih deepfakov, kjer so v prizore iz filmov vstavili Nicholasa Cagea

Slo-Tech - Odkar je pred nekaj leti tehnologija deepfake, ki omogoča vstavljanje obrazov v videoposnetke, napredovala dovolj, da je primerna za slehernika, se je zgolj potrdilo pravilo 34. Resda obstajajo aplikacije, ki nas vstavijo v znamenite prizore iz slavnih filmov - tak primer je na primer Zao - a po ocenah Sensity AI se v 90-95 odstotkih primerov deepfake uporablja za izdelavo nesporazumnih pornografskih posnetkov. Z drugimi besedami, obraz žrtve z večjo ali manjšo natančnostjo in prepričljivostjo vstavijo v pornografske videe. Posledice so lahko zelo resne.

Tehnologija je napredovala do stopnje, ko je postala uporaba podobno preprosta kot pri pralnem stroju. Kot piše MIT Technology Review, so pred kratkim odkrili spletno storitev, ki deluje na klik. Zadostuje, da naložimo fotografijo poljubne osebe, pa storitev sama izvede vse potrebno in osebo prepričljivo umesti v predpripravljene pornografske posnetke. Storitev, katere imena ne razkrivajo, ima za zdaj še zelo malo uporabnikov, a...

148 komentarjev

Teh ljudi ni

Slo-Tech - Prav možno je, da ste med brskanjem po spletu naleteli na fotografijo in zapis človeka, ki ne obstaja. Morda je šlo zgolj za neškodljiv obraz v reklami, morda je lažen profil z na videz verodostojno fotografijo priporočal nek izdelek ali na širil politično agendo. Umetna inteligenca oziroma algoritmi so napredovali do te mere, da je potreba po človeških fotomodelih odpadla. Ne glede na želje - starost, polt, spol, počutje - je možno izdelati ustrezno fotografijo. Umetno. Človeka, ki ne obstaja. Človeka, ki ga ni.

The New York Times je pripravil izjemno reportažo, kjer si je možno tudi v praksi pogledati, kako so videti te animacije. Rezultati se potem pojavljajo marsikod: od vohunskih iger do širjenja politične propagande in spletnega ustrahovanja.

Te prepričljive fotografije je možno ustvariti z nevronskimi mrežami GAN (generative adversarial network), ki so v zadnjih letih doživele velikanski razvoj. Še leta 2014 so bili posnetki katastrofalni, bolj podobni animacijam v igri...

25 komentarjev

Microsoft predstavil dve anti-deepfake orodji

Microsoft - V ozadju je seveda zaskrbljenost zaradi vplivanja na take in drugačne volitve in tako so v Redmondu predstavili Microsoft Video Authenticator, orodje, ki analizira posnetke in fotografije ter jih opremi z oceno verjetnosti, da so bili digitalno predrugačeni.

Orodje deluje tako, da s pomočjo umetne inteligence zaznava podrobnosti, ki jih sicer človeško oko ne more, med drugim prehajanje sivih odtenkov med resničnimi in ponarejenimi deli posnetkov. Ko gre za videe lahko celo poda oceno pristnosti vsake posamezne sličice v posnetku v realnem času. Orodje bo po besedah predstavnikov Microsofta najprej na voljo nekaterim političnim in medijskim organizacijam, ki se ukvarjajo z demokratičnimi procesi, beri, novembrskimi ameriškimi predsedniškimi volitvami.

Drugo orodje bo omogočalo ustvarjalcem videov, da bodo svoje izdelke certificirali kot avtentične in jih kot take lahko tudi predstavili svojemu občinstvu. Orodje ima dve komponenti, prva za videoposnetek izdela zgoščeno kodo oz....

5 komentarjev

(Dogodek) Tehnologija globokih prevar (deepfakes) in nevarnost totalitarizma

Dr. Mark Coeckelbergh

Slo-Tech -
Tehnologija globokih prevar ali deepfakes spodkopava zaupanje med ljudmi ter institucijami. Izjave politikov, direktorjev podjetij in drugih javnih osebnosti imajo posledice za naša življenja, saj vplivajo na javno mnenje, geopolitiko in nenazadnje na delovanje pravne države. Napad na aktiviste z uporabo deepfakes je le en izmed zadnjih primerov, kako se lahko nova tehnologija zlorabi.

Ali deepfakes res predstavljajo veliko grožnjo demokraciji, bo v soboto, 22. avgusta, v Ljubljani predaval dr. Mark Coeckelbergh, profesor filozofije medijev in tehnologije na Univerzi na Dunaju, ki je bil tudi član strokovne skupine na visoki ravni za umetno inteligenco Evropske komisije. Predavanje, ki bo potekalo ob 18:30 pred Švicarijo v Parku Tivoli, bo v pogovoru s Coeckelbergh sklenila Nika Mahnič, raziskovalka etike in politike podatkov.

Program konference boste lahko spremljali tudi prek livestreama.

12 komentarjev

Google bo preverjal resničnost fotografij v Google Images

Slo-Tech - Že dlje časa ni noben problem ustvariti lažne fotografije, dandanes pa tudi lažni videoposnetki in zvočni posnetki niso več velika težava. Razkrinkati jih je na podlagi tehničnih karakteristik mogoče, a to terja znanje in opremo. Ker so takšni posnetki lahko zlorabljeni za zavajanje, se bo Google boril proti njim. Odslej bodo preverjali njihovo verodostojnost (fact-checking).

Iz Googla namreč sporočajo, da bodo storitev Fact Check, ki trenutno pregleduje zadetke navadnega iskanja in iskanja po novicah (Search, News) razširili še na fotografije (Google Images). V nekaterih državah, med drugim v Braziliji, Indiji in ZDA, na podoben način označujejo tudi objave na YouTubu.

Pri pregledu posamezne fotografije v Google Images, torej ob kliku nanjo, se bo spodaj med njenimi karakteristikami pri nekaterih odslej izpisalo tudi poročilo, ali so glede na preveritev verodostojne ali ne. Primer je priložena fotografija, ki prikazuje morskega psa, ki plava po ulici v Houstonu - Google zapiše,...

6 komentarjev

Kitajska: lažne novice in deepfakes po novem kazniva dejanja

vir: Flickr

Reuters - Kitajska uprava za informacijsko družbo je objavila nov sveženj pravil, ki urejajo objavo zvočnega in video materiala na spletu. Med drugim govori tudi objavljanju in razširjanju lažnih novic ter drugega materiala, ustvarjenega s pomočjo umetne inteligence in navidezne resničnosti. Vsaka taka objava mora biti poslej jasno označena na poudarjen način, v nasprotnem primeru pa bo storilec odgovarjal za kaznivo dejanje. V določenih primerih bo odgovornost nosil tudi upravljavec platforme, ki je material objavila.

Po mnenju kitajski oblasti lahko tehnologije, kot je deepfakes ogrozijo nacionalno varnost, škodujejo družbeni stabilnosti in družbenemu redu ter posežejo v zakonite pravice tretjih oseb. Zavedanje o tovrstnih grožnjah se je tam okrepilo v začetku septembra, ko je v uporabo prišla kitajska aplikacija Zao, ki zna precej prepričljivo ponarejati in animirati obrazne poteze.

Pravilo bo začelo veljati s 1. 1. prihodnjega leta.

Pred tedni je Kalifornija kot prva zvezna država v...

27 komentarjev

Anonimizacija z deepfaki

vir: Vice
Vice - Norveški raziskovalci so razvili program, ki skuša z rabo strojnega učenja zakriti posameznikov obraz v videu v realnem času na način, da še vedno ohrani njegov pristen izraz.

Tehnologija deepfakov, s čimer se popularno označuje rabo strojne inteligence za ustvarjanje vizualnih ponaredkov, ima vse od svoje popularizacije pred dvema letoma skrajno negativen prizvok, saj se jo v glavnem uporablja za izdelavo lažne pornografije in predstavlja precejšnjo nevarnost za prodor lažne propagande. Toda pristop bo mogoče v prihodnosti izkoristiti tudi v pozitivne namene. Inženirji na Norveški univerzi za znanost in tehnologijo v Trondheimu so razvili program DeepPrivacy, katerega cilj je anonimizacija oseb v video posnetkih na način, da se še vedno ohrani njihov prvotni...

8 komentarjev

Tehnologija lažnih posnetkov se izboljšuje

Slo-Tech - Pred dvema letoma je veliko pozornosti požel program Deepfakes, ki se je anonimno pojavil na internetu in je sleherniku omogočil izdelovanje lažnih videoposnetkov. Nevronske mreže so se namreč sposobne iz obilice posnetkov tarče naučiti, kako je videti njen obraz, in ga potem natančno "presaditi" na videposnetke drugih ljudi. Internet je seveda to najprej izkoristil za izdelavo pornografskih posnetkov, a kmalu je postalo jasno, da so lahko dobri lažni posnetki velik problem, ker brišejo mejo med resničnostjo in fotomontažo tudi pri videu. Raziskovalci iz Samsungovega centra za umetno inteligenco v Moskvi in Inštituta Solkovo za znanost in tehnologijo so sedaj tehnologijo prignali še...

59 komentarjev

Na CMU pokazali izpopolnjen način izdelave video fotomontaž

Slo-Tech - V začetku leta je na internetu završalo, ko se je pojavilo orodje za preprosto izdelavo video fotomontaž (deepfake), ki je izrabljalo računsko moč grafičnih procesorjev v modernih računalnikih. Internetno občestvo je novost takoj zgrabilo in po pričakovanjih je bil rezultat razmah fotomontirane pornografije. Raziskovalci s Carneige Mellon University (CMU) so sedaj predstavili nov način za izdelavo še bolj vernih fotomontaž.

V posnetku na YouTubu so pokazali, kako lahko iz Johna Oliverja naredijo Stephena Colberta, iz Martina Luthra Kinga Baracka Obamo in iz slednjega Donalda Trumpa. Mogoče so tudi abstraktnejše metamorfoze, denimo iz Johna Oliverja v žabca ali med dvema vrstama cvetov. Tudi ta metoda uporablja pristope umetne inteligence, da prenese "slog" ene osebe v drugo. Metodo so...

7 komentarjev

DeepMind pri diagnozi očesnih bolezni ne zaostaja za zdravniki

Slo-Tech - DeepMind je svojo pot začel kot izvrsten igralec iger, a se je umetna inteligenca kmalu začela učiti tudi uporabnejših reči. Pred dvema letoma je DeepMind začel sodelovati z očesno kliniko Moorfields v Londonu, kjer je bil cilj umetno inteligenco naučiti prepoznati bolezni, ki jih lahko diagnosticiramo s fotografij oči. Številne bolezni je moč diagnosticirati s pregledom oči, na primer diabetično retinopatijo (bolezen očesne mrežnice zaradi povečane koncentracije sladkorja v krvi) ali starostno degeneracijo rumene pege. Dve leti pozneje so prvi rezultati objavljeni v Nature Medicine. Povzetek: DeepMind je boljši od ljudi.

DeepMind lahko iz posnetkov OCT prepozna več kot 50 različnih bolezni z natančnostjo 94,5 odstotka. Pearse Keane, ki je eden vodilnih avtorjev raziskave, pojasnjuje,...

41 komentarjev

Google pokazal nevronske mreže, ki vidijo za vogal

Slo-Tech - Googlova enota DeepMind, ki je bila nekdaj svoje podjetje, pa jo je Google pametno kupil, je pokazala še eno sposobnost svojih nevronskih mrež. Razvili so sistem nevronskih mrež, ki sta sposobni iz le nekaj dvodimenzionalnih posnetkov izluščiti resnično prostorsko postavitev predmetov in jih potem izrisati iz poljubnega zornega kota. Težav jima ne delajo niti osvetlitev, senčenje, prekrivanje in drugi vizualni učinki.

Gre za sposobnost, ki se je ljudje priučimo izkušnjami in jo načeloma obvladamo tako dobro, da niti ne razmišljamo o njej. Če vidimo mizo pred steno, predpostavljamo, da je tudi stena, ki je zaradi mize ne vidimo, enake oblike in barve kot preostanek. Če vidimo fotografijo mize, si kar dobro predstavljamo, kako stoji v prostoru. Tudi če je na fotografiji ena noga zakrita, bomo intuitivno vedeli, kje stoji. Z malo vaje si...

3 komentarji

Umetna inteligenca prinaša novo vrsto pornografije

Slo-Tech - V resnici je bilo le vprašanje časa in prav neverjetno je bilo, da je toliko časa trajalo. Toda pravilo 34 še vedno velja in niti nevronske mreže in strojno učenje niso izjeme. Svojo uporabo so dočakale tudi v pornografiji, posledice pa utegnejo biti - globoke.

Konec decembra so se razširili videoposnetki, ki se imenujejo deepfake. Konec je primitivnega in grotesknega lepljenja glav zvezdnic na telesa pornoigralk. Sedaj lahko poustvarjalci uporabijo fotografije z interneta, kjer jih v dobi modernih družabnih omrežij res mrgoli, in preproste odprtokodne algoritme za strojno učenje (deep learning), da obraz zvezdnic prilepijo kar v videoposnetke. Za zdaj je tovrstne posnetke še mogoče prepoznati, ker vendarle niso popolni in opazimo, da nekaj ni v najlepšem redu....

33 komentarjev

Google Brain omogoča povečanje ločljivosti fotografij

Slo-Tech - V filmih iz točkastega posnetka nizke ločljivosti vedno uspejo izostriti sliko in na njej prepoznati odsev, ki omogoča identifikacijo storilca. Toda v resnici iz posnetka ne moremo izluščiti več podatkov, kot jih je na njem. Vseeno pa to ne pomeni, da slike ne moremo izboljšati. Google je pokazal, kako lahko s svojimi nevronskimi mrežami in strojnim učenjem poveča ločljivost zelo grobo točkastim slikam.

Na sliki so skrajno desno prvotne fotografije, ki so bile zreducirane v ločljivost 8x8 (skrajno levo). Googlov algoritem Brain je iz levih fotografij uspel...

41 komentarjev