» »

Intel predstavil orodje za prepoznavo deepfakov

Intel predstavil orodje za prepoznavo deepfakov

VentureBeat - Intel je predstavil orodje FakeCatcher, ki je po njihovih besedah prvi detektor deepfakov v realnem času, kar mu uspeva s 96-odstotno natančnostjo. Orodje, ki so ga razvili v sodelovanju s State University of New York, uporablja Intelovo programsko in strojno opremo. Deepfake prepoznava z analizo "krvnega obtoka" (blood flow) v posamezni pikslih. Prepoznava namreč posnetke ljudi, ki niso avtentični.

Ilke Demir, vodja raziskave v Intel Labs, pojasnjuje, v čem se je FakeCatcher razlikuje od dosedanjih orodij. Ta gledajo surove podatke oziroma posamezne piksle in poizkušajo zaznati neavtentičnost v njih. FakeCatcher pa uporablja metodo, ki se imenuje imenuje PPG (fotopletismografija). Metoda meri, koliko svetlobe se odbija ali pronica skozi vene, po katerih teče kri. Na podoben način pametne zapestnice merijo srčni utrip, FakeCatcher pa bo tako preverjal, ali je oseba na posnetku živa. S prostim očesom se tega ne vidi, s strojem pač. FakeCatcher preveri signale na 32 mestih na obrazu in jih potem analizira. FakeCatcher se je potem iz posnetkov, za katere je bilo jasno, ali so avtentični ali ne, naučil prepoznavati ponaredke. Ima konvolucijsko nevronsko mrežo, ki je dovolj izurjena, da v 96 odstotkih primerov prepozna ponaredke.

Pričakovati je, da bodo v prihodnosti deepfaki predstavljali veliko težavo. Raziskave kažejo, da jih je čedalje teže prepoznavati, vplivi pa so lahko velikanski. Še pred dvema letoma je bila umetna inteligenca pri tem opravilu zelo slaba. Težava je tudi razvoj tehnologije, saj postaja klasična igra mačke z mišjo. Medtem ko se izboljšujejo metode za prepoznavanje deepfakov, hkrati napreduje tudi tehnologija za njihovo ustvarjanje. Na koncu bo s tehnologijo verjetno kot z vsako drugo. Imela bo legalne uporabe, denimo poustvarjanje preminulih igralcev v filmih in podobno, kar bo proti plačilu dovoljenju, in nelegalne uporabe, kamor sodi ustvarjanje lažnih novic, sejanje dvoma in strahu, sovražne vsebine itd. Ali pa zgolj kršitve avtorskih pravic.

10 komentarjev

Furbo ::

Torej bodo zdaj postala stalnica tekmovanja med programi za zaznavanje in deepfejki, isto kot pri antivirusih.

Pa upam, da mi ob vsakem ogledu holywoodskega filma ne bo zdaj kaj piskalo vmes. :))
i5-13600K, Noctua NH-D15, STRIX Z790-F, 32GB DDR5, 2TB Samsung 990PRO,
Toughpower GF3 1000W, RTX3070, ALIENWARE AW3423DWF, Dell S2722QC

-Wall ::

Furbo je izjavil:

Pa upam, da mi ob vsakem ogledu holywoodskega filma ne bo zdaj kaj piskalo vmes. :))


Itak, da bo, vsi glavni igralci so modificirani kirursko, ni sans, da zazna npr. Tom Cruisa za zivega.

Gregor P ::

... in nelegalne uporabe, kamor sodi ustvarjanje lažnih novic, sejanje dvoma in strahu, sovražne vsebine itd.
... s poudarkom na itd.>:D
The main failure in computers is usually located between keyboard and chair.
You read what you believe and you believe what you read ...
Nisam čit'o, ali osudjujem (nisem bral, a obsojam).

Horzen ::

Filmi so katastrofa. Upam da se bo vsaj našu kakšen neodvisen kreativen ustvarjalec in naredil film kot se šika, bo vsaj upodarbil deep fake za kaj pametnega.
Obična ofca specializirana za beketanje!

nirburu ::

Kul, torej Intel bo arbiter resnice.

Prekleti normiji, namesto, da bi se naučili uporabljati crypto watermark, raje zaupajo spet eni megakorporaciji.

Maxlos ::

nirburu je izjavil:

Kul, torej Intel bo arbiter resnice.

Prekleti normiji, namesto, da bi se naučili uporabljati crypto watermark, raje zaupajo spet eni megakorporaciji.

Fake izjavo politika, bom markiral z crypto watermark.
Barking up the wrong tree

Karamelo ::

torej bo naslednja verzija deepfake-a imela simulatorja pretoka ven in bo "težava" odpravljana

Ghost7 ::

Karamelo je izjavil:

torej bo naslednja verzija deepfake-a imela simulatorja pretoka ven in bo "težava" odpravljana

Točno to sem v isti sekundi, ko sem prebral v čem je catch, pomislil.
Pač stenstat je treba algoritem, ki na večih konich pravilno simluira krvni obtok. Rabiš strojno učenje (ki je še miljon let do prave AI) na 100 ljudeh, ki jih snema par ur in se nauči še kašen pretok mora bit. Ali je jezen bo hitrejši, ali je miren, bo pretok počasnejši itd. Za računalnik šala mala, samo nekdo mora to razvit, da bo se bo znal učiti.
https://www.bitstamp.net/ref/OM6lA9mwoeRO5Rba/

Zgodovina sprememb…

  • spremenilo: Ghost7 ()

Cash ::

Skoda, ker so povedali, kaj program dela oz. kje prepozna fake. Ce ne bi povedali, potem bi se programerji praskali po glavi, kako zaobiti kodo...ali pa bi vseeno pogruntali??

Horzen ::

Cash je izjavil:

Skoda, ker so povedali, kaj program dela oz. kje prepozna fake. Ce ne bi povedali, potem bi se programerji praskali po glavi, kako zaobiti kodo...ali pa bi vseeno pogruntali??

Mogoče prepozna z neko toleranco iz bližine par metrov do obraza na 4k ali 8k video. Kako pa se to ''vidi'' čez make-up pa samo oni vedo. :))
Obična ofca specializirana za beketanje!


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo
»

Tehnologija lažnih posnetkov se izboljšuje (strani: 1 2 )

Oddelek: Novice / Znanost in tehnologija
5914176 (10530) bambam20
»

Deepfakes grožnja nacionalni varnosti?

Oddelek: Novice / NWO
3319581 (17641) gendale2018
»

Umetna inteligenca prinaša novo vrsto pornografije

Oddelek: Novice / Znanost in tehnologija
3315832 (11788) tikitoki
»

IMSI lovilci: o subjektivnem dojemanju stvarnosti (strani: 1 2 3 )

Oddelek: Novice / NWO
10343363 (36599) matijadmin

Več podobnih tem