»

Slovaške volilne globoke ponarejanke kažejo, da je umetna inteligenca nevarnost za demokracijo

Wired News - Le dva dni pred volitvami na Slovaškem je bil na Facebooku objavljen avdio posnetek. Na njem sta bila dva glasova: domnevno Michal Šimečka, vodja liberalne stranke Progressive Slovakia, in Monika Tódová iz dnevnika Denník N. Razpravljala naj bi, kako ukrasti volitve, delno z nakupom glasov iz marginalizirane romske manjšine.



Šimečka in Denník N sta takoj zanikala, da je avdio posnetek pristen. Oddelek za preverjanje dejstev pri novičarski agenciji AFP je dejal, da je avdio kazal znake manipulacije z uporabo umetne inteligence. Vendar je bil posnetek objavljen med 48-urnim moratorijem pred odprtjem volišč, med katerim naj bi mediji in politiki molčali. To pomeni, da je bil postopek po katerem bi ocenili in označili posnetek kot nepristen znatno težji. Ker je šlo za objavo zvočnega posnetka, je to izkoristilo vrzel v Meta politiki za manipuliranje z vsebinami, ki določa, da se nanaša le na ponarejene videoposnetke, kjer je osebi spremenjeno, da izgovarja besede, ki jih nikoli ni...

53 komentarjev

Microsoft predstavil dve anti-deepfake orodji

Microsoft - V ozadju je seveda zaskrbljenost zaradi vplivanja na take in drugačne volitve in tako so v Redmondu predstavili Microsoft Video Authenticator, orodje, ki analizira posnetke in fotografije ter jih opremi z oceno verjetnosti, da so bili digitalno predrugačeni.

Orodje deluje tako, da s pomočjo umetne inteligence zaznava podrobnosti, ki jih sicer človeško oko ne more, med drugim prehajanje sivih odtenkov med resničnimi in ponarejenimi deli posnetkov. Ko gre za videe lahko celo poda oceno pristnosti vsake posamezne sličice v posnetku v realnem času. Orodje bo po besedah predstavnikov Microsofta najprej na voljo nekaterim političnim in medijskim organizacijam, ki se ukvarjajo z demokratičnimi procesi, beri, novembrskimi ameriškimi predsedniškimi volitvami.

Drugo orodje bo omogočalo ustvarjalcem videov, da bodo svoje izdelke certificirali kot avtentične in jih kot take lahko tudi predstavili svojemu občinstvu. Orodje ima dve komponenti, prva za videoposnetek izdela zgoščeno kodo oz....

5 komentarjev

Anonimizacija z deepfaki

vir: Vice
Vice - Norveški raziskovalci so razvili program, ki skuša z rabo strojnega učenja zakriti posameznikov obraz v videu v realnem času na način, da še vedno ohrani njegov pristen izraz.

Tehnologija deepfakov, s čimer se popularno označuje rabo strojne inteligence za ustvarjanje vizualnih ponaredkov, ima vse od svoje popularizacije pred dvema letoma skrajno negativen prizvok, saj se jo v glavnem uporablja za izdelavo lažne pornografije in predstavlja precejšnjo nevarnost za prodor lažne propagande. Toda pristop bo mogoče v prihodnosti izkoristiti tudi v pozitivne namene. Inženirji na Norveški univerzi za znanost in tehnologijo v Trondheimu so razvili program DeepPrivacy, katerega cilj je anonimizacija oseb v video posnetkih na način, da se še vedno ohrani njihov prvotni...

8 komentarjev

Nov algoritem za še boljši deepfake

Slo-Tech - Raziskovalci z univerz Stanford in Princeton, z Inštituta Max Planck in iz podjetja Adobe Research so razvili nov algoritem, ki omogoča še lažjo manipulacijo videoposnetkov ljudi. Lani smo se prvikrat resno zavedli moči algoritmov za deepfake, s katerimi je možno obraz človeka (ali kar celega človeka) na posnetku zamenjati z nekom drugim. Umetna inteligenca in nevronske mreže pa brez predaha napredujejo, zato je sedaj možno še več. V novem algoritmu lahko enostavno kakor v urejevalniku besedil zamenjamo besede, ki jih človek na posnetku izgovarja.

Za trening algoritma potrebujemo posnetek, ki je dolg vsaj 40 minut, in prepis govorjenega besedila. Iz tega se algoritem nauči, kako se spreminja obrazna mimika človeka pri izgovoru posameznega fonema. Ko to imamo, lahko enostavno...

60 komentarjev

Tehnologija lažnih posnetkov se izboljšuje

Slo-Tech - Pred dvema letoma je veliko pozornosti požel program Deepfakes, ki se je anonimno pojavil na internetu in je sleherniku omogočil izdelovanje lažnih videoposnetkov. Nevronske mreže so se namreč sposobne iz obilice posnetkov tarče naučiti, kako je videti njen obraz, in ga potem natančno "presaditi" na videposnetke drugih ljudi. Internet je seveda to najprej izkoristil za izdelavo pornografskih posnetkov, a kmalu je postalo jasno, da so lahko dobri lažni posnetki velik problem, ker brišejo mejo med resničnostjo in fotomontažo tudi pri videu. Raziskovalci iz Samsungovega centra za umetno inteligenco v Moskvi in Inštituta Solkovo za znanost in tehnologijo so sedaj tehnologijo prignali še...

59 komentarjev

Z lažnimi tviti Elona Muska do 28 BTC v enem dnevu

bleepingcomputer.com - Pred dnevi se je na Twitterju odvrtela zanimiva prevara. Neznanci so namreč vdrli v več potrjenih uporabniških računov, takih, ki jih kot avtentične označuje modra kljukica in jih nato preimenovali v Elon Musk. Med ukradenimi so bili številni računi vladnih organizacij različnih držav, med njimi recimo kolumbijskega ministrstva za transport in indijske nacionalne uprave za naravne nesreče.

Iz ponarejenih računov so nato razširili novico, da Elon Musk, potem ko zapušča vodenje Tesle,...

42 komentarjev

Adobe bo s strojim učenjem razkrinkaval goljufive podobe

vir: CNET
CNET - Moč lažnih novic, katerih pomemben del so lahko tudi obdelane fotografije, že nekaj časa zbuja zaskrbljenost, zlasti, ker se te s pomočjo družabnih medijev lahko razširijo kot požar. Še huje je, če se pomotoma ali celo namenoma znajdejo na straneh resnih medijev, kot se je v preteklosti tudi že kdaj primerilo.

Adobe je eno tistih podjetij, ki sicer mastno služi z orodji za spreminjanje fotorealnosti, a nedavno so se s pomočjo strokovnjakov Univerze v Marylandu vendarle lotili protiorožja, ki s pomočjo umetne pameti razkrinka tako početje. In to precej hitreje kot človeški forenziki.

Najpogostejše zvijače, ki se jih poslužujejo mojstri obdelave slik, so združevanje delov več različnih podob, pa kloniranje, kjer določen del slike preprosto večkrat...

11 komentarjev