» »

Umetna inteligenca, ki slači

««
9 / 9
»
»»

xmetallic ::

FormerUser je izjavil:

Ti imaš verjetno v mislih deepfake, kjer se glava ene zvezdnice namontira na porno posnetek. Gre torej za kombinacijo telesnih delov dveh RESNIČNIH žensk.

Če bi vedela, da lahko ustrezen algoritem sam ustvari popolnoma nov obraz ne bi stresala takih neumnosti. Pornografijo v kateri ne nastopa nobena ženska iz resničnega sveta, a je hkrati zelo realistična, je možno ustvariti.

Zgodovina sprememb…

  • spremenilo: xmetallic ()

pirat ::

Omenjenega programa nimam, tistih nekaj objavljenih slik pa je bolj ali manj slabe kvalitete oz. se kar jasno vidi, kateri goli deli telesa so dodani in da ne gre za original nude fotografije.
Ker pa smo tehnicni forum: ima morda kdo informacijo katere spremenljivke v modelu imajo najvecjo utez pri dolocanju verjetnosti oz. obsega depiliranosti posamezne zenske ? Povsem matematicno gledano - na podlagi cesa na obleceni fotki se program odloci kako bo ,kreiral' skriti del? Starost osebe ? Obleke, nakit? Barva las? Ali gre preprosto za ugibanje na slepo ?
Pa ni trol post tole, res me zanima ali v ozadju je res nek matematicni model ali gre bolj ali manj za nakljucno lepljenje slik / podob iz prednalozenih baz ?

Lonsarg ::

Pa a si prebral članek, cel point je da je zadaj model naučen s strojnim učenjem na 10k fotkah. Najbrž iz taistih fotk tut črpa konče slike ki jih čez lepi.

pirat ::

Saj zato pa sprasujem. Ker original clanek recimo ki govori o pix2pix tehnologiji lepo pokaze, kako dobro npr. mašina oceni oblike in kako slaba je recimo pri oceni barv.... in me zato zanima, ce je dejansko kaj znanega o samem modelu v ozadju te aplikacije (ali samo vemo da nek model pac je).

Cr00k ::

pirat je izjavil:

Saj zato pa sprasujem. Ker original clanek recimo ki govori o pix2pix tehnologiji lepo pokaze, kako dobro npr. mašina oceni oblike in kako slaba je recimo pri oceni barv.... in me zato zanima, ce je dejansko kaj znanega o samem modelu v ozadju te aplikacije (ali samo vemo da nek model pac je).


Vse je znano - glavni koraki za DN algoritem in modeli so:

1. Detekcija obleke (naredi masko) >> GAN
2. Na maski se določijo kje mora kakšen "atribut" stat >> GAN
3. Določi se kako mora "atribut" tam izgledati >> OPENCV
4. Naredi se realistično sliko >> GAN

Vmes je še nekaj obdelav, korakov, vendar nepomembnih za razumevanje.

Matematično so vse formula znane. Je pa "čar" teh modelov, da ne veš točno, zakaj se je tako odločil... zakaj recimo je ena pobrita in druga ne. Tako se je naučil. Lahko bi špekulirali, če bi pogledali 10.000 slik, na katerih se je učil in prišli do nekih zaključkov. Npr. temnolase so v datasetu bile bolj poraščene, blond manj,... ampak to je lahko samo ocena.

In ne, model ne shranjuje "atributov" in jih naključno lepi na slike. Dejansko zgenerira nove imaginarne "atribute" za vsako določeno sliko, kateri izgledajo bolj ali manj foto-realistično.

Sam model bi komot deloval še bolje, če bi bil naučen na večjem datasetu (recimo 50.000 slik in več). Mogoče bi prišlo do overfitanja, ampak to je vse rešljivo s kakšno regularizacijo, še več layerjev,... za demonstracijske namene je trenuten obseg bil vrh glave.

Zgodovina sprememb…

  • spremenilo: Cr00k ()

Pika na i ::

Se pravi, če bi se učil na 50.000, bi bil lahko končni rezultat drugačen?
Ali če bi jemal samo prave, neretuširane fotke recimo?

stara mama ::

Bolj podoben realnosti ja. Z izjemo specifik

poweroff ::

Pika na i je izjavil:

Se pravi, če bi se učil na 50.000, bi bil lahko končni rezultat drugačen?
Ali če bi jemal samo prave, neretuširane fotke recimo?

Ja. Model se namreč uči na vhodnih podatkih. Če so drugačni, se uči drugače. Če jih je več, se uči bolje.

Velja za vse modele na splošno.
sudo poweroff

stara mama ::

Podobno kot so MSjevega chatbota uporabniki prevzgojili v nazi-sexbota.

111111111111 ::

Pika na i je izjavil:

Se pravi, če bi se učil na 50.000, bi bil lahko končni rezultat drugačen?
Ali če bi jemal samo prave, neretuširane fotke recimo?

Idealno bi bilo da bi slikal isto žensko oblečeno v različne obleke v isti pozi, pozah, slečeno.

Rezultati so zelo šibki, ker je premjhen vzorec. problem umetno inteligenco kaj naučit je v osegu podatkov, ki jih imaš na razpolago. ZAto googlu tako laufa. AI se mora nekje naučit in to v taki obliki, ki mu je jasna.

Kar je meni osebno zanimivo trenutni razvoj umetne inteligence ne omogoča multitaskinga. Vsaj trenutno se vask AI ukvarja z ozkousmerjenim specifičnim problemom. Problem je tudi v moralnosti, kritičnem mišljenju itd...

thramos ::

Shegevara je izjavil:

Tale tvoj primer iz singapura tebi govori, da je treba prepovedat algoritme, normalnim pa pokaže dejstvo, da je potrebna predvsem regulacija distribucije takšne vsebine.


Pokaže predvsem, da se je potrebno nehat sekirat, če te kdo vidi "golega".

Napredek tehnologije je neizbežen - čez čas bodo takšni algoritmi poceni in hitri, kar pomeni da bodo na voljo za preprosto uporabo vsakemu. Prav tako recimo miniaturne kamere.

Prepovedi so nesmiselne, ker so tako učinkovite kot prepoved drog ali pa prdenja na prešercu. Brez skrajno fašističnih ukrepov so popolnoma neučinkovite.

Družba pa bo posledično tako ali drugače ugotovila, da se, če te je tako preprosto možno videti golega, glede tega nima smisla obremenjevat. In boš šla še ena posledica konzervativne (krščanske) morale v smeti.

Zgodovina sprememb…

  • spremenil: thramos ()

pirat ::

@Cr00k
-> Matematično so vse formula znane. Je pa "čar" teh modelov, da ne veš točno, zakaj se je tako odločil... zakaj recimo je ena pobrita in druga ne. Tako se je naučil.

Tale del. Če ne vemo točno, zakaj se je model tako odločil, potem je v modelu še vedno neka random funkcija? Oziroma povedano drugače - ali model na podlagi istih vhodnih podatkov (ista oblečena fotografija) vedno poda isti izhodni rezultat ali ne?

Cr00k ::

pirat je izjavil:

@Cr00k
-> Matematično so vse formula znane. Je pa "čar" teh modelov, da ne veš točno, zakaj se je tako odločil... zakaj recimo je ena pobrita in druga ne. Tako se je naučil.

Tale del. Če ne vemo točno, zakaj se je model tako odločil, potem je v modelu še vedno neka random funkcija? Oziroma povedano drugače - ali model na podlagi istih vhodnih podatkov (ista oblečena fotografija) vedno poda isti izhodni rezultat ali ne?


Je tako, da če je model statičen, bi isti input moral rezultirati v istem outputu. Ne vem, kako je pri DN, lahko zvečer sprobam. Sicer si malo preberi o DNN ali CNN, je kar kompleksna zadeva. Veliko nevronov, kateri dajo vsak nek svoj rezultat, vsi medsebojno povezani v plasteh. Začetne plasti še lahko kako vizualiziraš, kasneje so pa matrike n-dimenzionalne in nimaš pogoja, da ugotoviš, za katero funkcijo je določen nevron treniran.

Zgodovina sprememb…

  • spremenilo: Cr00k ()

pirat ::

Bom poskušal najti čas, da si preberem več o samem modelu - ker namreč vsebinsko gre za model, ki mora pri transformaciji inputa (vhodna fotografija) dodati informacije, ki jih iz samega inputa nima (recimo to o čemer debatiramo -> izgled mednožja).

In laično (si predstavljam) imamo naslednje možnosti:
- v ozadju je nek model (regresija), ki na podlagi določenih inputov (barva las, obleka, polt, ...) najprej določi verjetnost da je ženska depilirana ali ne, in če je, kako in v kolikšni meri - to bi bil povsem običajen model, ki bolj ali manj operira z verjetnostmi in daje pri istem inputu vedno isti output (in večji ko je vzorec, večja je napovedna moč modela in večja je verjetnost, da je rezultat dejansko enak realnosti (bi bil zanimiv back-testing v tem primeru :))
- v ozadju je lahko tudi neka random funkcija (kar pomeni, da takšna aplikacija nima nobene zveze z AI pač pa gre za podpovprečno igračko)
- v ozadju je lahko torej tudi "mreža" nevronov, ki dajejo vsak svoje rezultate, ki pa jih (če te prav razumem) ne znamo razložiti, saj model generirajo sami na podlagi učenja na vzorcu in lahko dajejo ob iteracijah iste ali pa različne rezultate - v tem primeru je zopet vprašanje kaj je smisel tovrstne aplikacije - če bi nekdo rad več informacij o tem kako izgleda "lepa soseda" potem različni rezultati ne pomagajo kaj veliko (oz. je rezultat aplikacije podoben kot bi bil kompromis brainstorminga večjega številka pohotnih najstnikov) - razen če je AI že toliko naprej, da simulira tudi že to, da se tudi na isti oblečeni osebi, "frizura" lahko spreminja skozi čas (kar pa v aplikaciji, ki dela na statističnih slikah, ni smiselno, ne?)

poweroff ::

Modela ne znamo razložiti zato, ker je zelo kompleksen. V resnici gre za neke vrste uteži, ki pa so razporejene po večdimenzionalnem vektorskem prostoru.

Lahko bi sicer opisali model takole: imamo 600 značilk, če je značilka 1 v območju od x do y in ima hkrati značilka 2 vrednost z in značilka 3 nima vrednosti b,... potem naredi to.

Skratka, precej kompleksen in neuporaben opis modela.

V osnovi je to vsa silna "pamet" umetne inteligence. Malo matematike in cel kup podatkov.
sudo poweroff

Phantomeye ::

pirat je izjavil:

Bom poskušal najti čas, da si preberem več o samem modelu - ker namreč vsebinsko gre za model, ki mora pri transformaciji inputa (vhodna fotografija) dodati informacije, ki jih iz samega inputa nima (recimo to o čemer debatiramo -> izgled mednožja).

In laično (si predstavljam) imamo naslednje možnosti:
- v ozadju je nek model (regresija), ki na podlagi določenih inputov (barva las, obleka, polt, ...) najprej določi verjetnost da je ženska depilirana ali ne, in če je, kako in v kolikšni meri - to bi bil povsem običajen model, ki bolj ali manj operira z verjetnostmi in daje pri istem inputu vedno isti output (in večji ko je vzorec, večja je napovedna moč modela in večja je verjetnost, da je rezultat dejansko enak realnosti (bi bil zanimiv back-testing v tem primeru :))
- v ozadju je lahko tudi neka random funkcija (kar pomeni, da takšna aplikacija nima nobene zveze z AI pač pa gre za podpovprečno igračko)
- v ozadju je lahko torej tudi "mreža" nevronov, ki dajejo vsak svoje rezultate, ki pa jih (če te prav razumem) ne znamo razložiti, saj model generirajo sami na podlagi učenja na vzorcu in lahko dajejo ob iteracijah iste ali pa različne rezultate - v tem primeru je zopet vprašanje kaj je smisel tovrstne aplikacije - če bi nekdo rad več informacij o tem kako izgleda "lepa soseda" potem različni rezultati ne pomagajo kaj veliko (oz. je rezultat aplikacije podoben kot bi bil kompromis brainstorminga večjega številka pohotnih najstnikov) - razen če je AI že toliko naprej, da simulira tudi že to, da se tudi na isti oblečeni osebi, "frizura" lahko spreminja skozi čas (kar pa v aplikaciji, ki dela na statističnih slikah, ni smiselno, ne?)


Ja najbolj bi bilo idealno za tako aplikacijo, da bi bila neka baza podatkov, kamor bi se nalagali vhodni podatki uporabnikov aplikacije. Samo uporabniki so nalagali samo oblečene modele.

111111111111 ::

Phantomeye je izjavil:


Ja najbolj bi bilo idealno za tako aplikacijo, da bi bila neka baza podatkov, kamor bi se nalagali vhodni podatki uporabnikov aplikacije. Samo uporabniki so nalagali samo oblečene modele.

Me veseli da gre debata v pravo smer.

V AI imaš dve fazi. fazo učenja in fazo izvajanja. Kompleksnejši modeli se tudi ob izvajanju učijo, DeepNude je pa preveč preprost za kaj takega.

Trenutne knjižnjice za AI so precej toge. Pri učenju AI-ja moraš biti precej specifičen, pa še rezultati niso ne vem kaj. Potem pa ko spustiš aplikacijo v svet, je pa stvar naučenih algoritmov. CNN in DNN pa še nisem toliko naštudiral da bi lahko kaj pametnega ven povedal.

Stavim pa da (glede na moje omejeno poznavanje tematike) dobiš lahko različen rezultat, ker delaš približek.

pirat ::

Za vhodne podatke, ki jih aplikaciji servirajo uporabniki aplikacije, predvidevam, da na sam model ne morejo vplivati (ali pač?). Se morda model celo potem znotraj aplikacije še vedno uči naprej (resno dvomim, to bi namreč zahtevalo validacijo rezultatov, česar pa uporabniki pač ne morejo zagotoviti, to lahko le modelarji).
Če drži razlaga Matthai-a, torej malo matematike in kup podatkov, potem:
- bo isti input vedno dal isti output
- output bo vedno enak tudi skozi daljše časovno obdobje (dokler pač model ne bo ponovno kalibriran in v aplikacijo naložena nova formula)

Matematični model torej:
- katerega rezultat absolutno nič ne pove o tem, kako izgleda gola točno določena ženska,
- pač pa pove le, za kakšno kombinacijo stopnje depilacije, barve in dolžine dlačic obstaja največja verjetnost glede na vstopni vzorec.. in ker so v vzorec vstopnih fotografij povsem verjetno vključene tudi fotke s strani profesionalnih modelov, ki temu pred slikanjem posvetijo večjo pozornost kot je sicer običajna za celotno populacijo, so rezultati seveda biased...

FormerUser ::

thramos je izjavil:



Pokaže predvsem, da se je potrebno nehat sekirat, če te kdo vidi "golega".

Napredek tehnologije je neizbežen - čez čas bodo takšni algoritmi poceni in hitri, kar pomeni da bodo na voljo za preprosto uporabo vsakemu. Prav tako recimo miniaturne kamere.

Prepovedi so nesmiselne, ker so tako učinkovite kot prepoved drog ali pa prdenja na prešercu. Brez skrajno fašističnih ukrepov so popolnoma neučinkovite.

Družba pa bo posledično tako ali drugače ugotovila, da se, če te je tako preprosto možno videti golega, glede tega nima smisla obremenjevat. In boš šla še ena posledica konzervativne (krščanske) morale v smeti.


To, o čemer govoriš, se že dogaja denimo v Južni Koreji, kjer imajo epidemijo nastavljanja mini kamer v stranišča in postanje teh podob na net, njihova družba tega ne sprejema, pa nima nobene veze s krščanstvom.

Tudi tvoja primerjava z drogami ni posrečena, tam gre za konsenzualne odnose, dealer želi prodati drogo in uporabnik jo želi kupiti, tukaj pa seveda ne. In če enkrat legitimiramo stališče, da telesna avtonomija ni pomembna, kje se bo to ustavilo? Zakaj potem tudi spolno nadlegovanje ne bi bilo sprejemljivo, saj gre samo za "šale" in "komplimente", kajne, pa denimo posilstvo, saj gre samo za sex, ne bit tako zadrgnjen, raje se sprosti in uživaj, porečejo nasprotniki "krščanske morale".... Skratka, stari dobri, šovinistični izgovori, katerih cilj je vedno bil kontrola in dominacija žensk.

Ampak če računate na to, da se bodo ženske kar vdale, naslonile nazaj in take your shit, se zelo motite. Južna Koreja je ravno zaradi omenjenih dogodkov postala svetovni center feministične revolucije, tudi na Zahodu se odpor krepi, več kot bo tovrstnih zlorab, večji bo, bolj se bo zakonodaja zaostrovala, kar bo v končni fazi, kot je omenil že nekdo na prejšnji strani komentarjev, pomenilo manj svobode za vse, ampak you asked for it.

Zgodovina sprememb…

  • odbrisal: BigWhale ()

thramos ::

FormerUser je izjavil:

Tudi tvoja primerjava z drogami ni posrečena, tam gre za konsenzualne odnose, dealer želi prodati drogo in uporabnik jo želi kupiti, tukaj pa seveda ne. In če enkrat legitimiramo stališče, da telesna avtonomija ni pomembna, kje se bo to ustavilo? Zakaj potem tudi spolno nadlegovanje ne bi bilo sprejemljivo, saj gre samo za "šale" in "komplimente", kajne, pa denimo posilstvo, saj gre samo za sex, ne bit tako zadrgnjen, raje se sprosti in uživaj, porečejo nasprotniki "krščanske morale"....


Zato, ker se proti spolnemu nadlegovanju lahko učinkovito borimo, proti novim tipom zlorabe, ki jih prinašajo nove tehnologije, pa zelo težko. Sploh ne govorim kaj je prav in kaj ne, ampak da ob vseprisotnosti nečesa to zgubi svoj "čar" in "sram". Če smo vsi goli, posamezna golota pač ni ne novica, ne vir užaljenosti.

FormerUser je izjavil:

Ampak če računate na to, da se bodo ženske kar vdale, naslonile nazaj in take your shit, se zelo motite. Južna Koreja je ravno zaradi omenjenih dogodkov postala svetovni center feministične revolucije, tudi na Zahodu se odpor krepi, več kot bo tovrstnih zlorab, večji bo, bolj se bo zakonodaja zaostrovala, kar bo v končni fazi, kot je omenil že nekdo na prejšnji strani komentarjev, pomenilo manj svobode za vse, ampak you asked for it.


Ja, fašisti, saj vem. Upam, da vam ne uspe. Vprašaj jypeta, kaj načrtuje z vami.

Zgodovina sprememb…

  • odbrisal: BigWhale ()

FormerUser ::

thramos je izjavil:


Zato, ker se proti spolnemu nadlegovanju lahko učinkovito borimo, proti novim tipom zlorabe, ki jih prinašajo nove tehnologije, pa zelo težko. Sploh ne govorim kaj je prav in kaj ne, ampak da ob vseprisotnosti nečesa to zgubi svoj "čar" in "sram". Če smo vsi goli, posamezna golota pač ni ne novica, ne vir užaljenosti.

V bistvu se ne, večina ni nikoli prijavljenega, kaj šele ustrezno kaznovanega. Tudi širjenje otroške pornografije so nove tehnologije močno poenostavile in tako otežile boj proti njej, pa vseeno nihče normalen ne predlaga, da se jo legalizira. Normaliziranje zlorab ni rešitev, vzpostavljanje učinkovitih orodij za boj proti njim je.

Zgodovina sprememb…

  • odbrisal: BigWhale ()

thramos ::

FormerUser je izjavil:

V bistvu se ne, večina ni nikoli prijavljenega, kaj šele ustrezno kaznovanega. Tudi širjenje otroške pornografije so nove tehnologije močno poenostavile in tako otežile boj proti njej, pa vseeno nihče normalen ne predlaga, da se jo legalizira. Normaliziranje zlorab ni rešitev, vzpostavljanje učinkovitih orodij za boj proti njim je.


Ne vem, če ma smisel debatirat ob takšnem moderiranju ... pa vseeeno.

Nikjer nisem predlagal, da se legalizira deep nude in podobne tehnologije. Da se bodo nekateri proti temu borili je povsem jasno, a jasen je tudi izid - poraz. Morda takšne slike res ne bodo v "javnosti" (beri na Facebooku), bodo pa povsod drugje. In odnos ljudi do navidezne golote se bo spremenil.

In to je vse, kar želim povedat. Ne pa predlagati normalizacijo zlorab, kar podtikaš.
««
9 / 9
»
»»


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo
»

Kitajci ponoreli za aplikacijo za deepfake Zao

Oddelek: Novice / Apple iPhone/iPad/iPod
167706 (4442) xxxul
»

DeepMind pri diagnozi očesnih bolezni ne zaostaja za zdravniki

Oddelek: Novice / Znanost in tehnologija
4111534 (8932) nekikr
»

Umetna inteligenca prinaša novo vrsto pornografije

Oddelek: Novice / Znanost in tehnologija
3314921 (10877) tikitoki

Več podobnih tem