Apple - Pri Applu so danes predstavili kopico novih varnostnih funkcij v svojem ekosistemu; med drugim so močno razširili kategorije, ki jih pokriva obojestransko šifriranje oblaka iCloud. Verjetno pa bo največ pozornosti požela odločitev, da se odrekajo kontroverzni zamisli o pregledovanju naprav v lovu za otroško pornografijo.
V Cupertinu so lansko poletje razburili z najavo orodja NeuralHash, s katerim so se želeli spoprijeti s problematiko hranjenja šifriranih vsebin s spolnimi zlorabami otrok na iphonih. Po tej zamisli bi se iz slik napravilo zgoščene vrednosti (hashe) in se nato te primerjalo z bazami podatkov poznanih vsebin CSAM (child sexual abuse material). Toda analitiki so hitro ugotovili, da je predstavljena Applova rešitev pomanjkljiva in proizvaja lažne alarme, pomenila pa je tudi splošno nevarnost za zasebnost uporabnikov, zato je bilo lansiranje prestavljeno na nedoločen kasnejši datum. Sedaj je jasno, da je podjetje upanje na izpopolnitev tega orodja opustilo. Namesto tega bodo okrepili trud v preprečevanju nastajanja otroške pornografije pri viru - na napravah v lasti otrok. To je, izpopolnili bodo program Communication Safety, ki so ga sicer splovili lanskega decembra in ki med drugim staršem omogoča nastavljanje filtrov v komunikacijska in brskalna orodja, s katerimi lahko ujamejo, če njihov otrok gleda kočljive vsebine.
Najava je sicer del današnje obsežnejše predstavitve okrepljenih varnostnih in šifrirnih funkcij v Applovem ekosistemu. V prvi vrsti je razširjen pogram Advanced Data Protection, ki omogoča obojestransko (end-to-end) šifriranje vsebin v oblaku iCloud, se pravi - brez dostopa podjetja do šifrirnih ključev. Število kategorij, ki zapadejo pod ta režim, s 14 povečujejo na 23, med drugim tudi varnostne kopije (backups) in slike (Photos). Storitev je od danes v ZDA že na voljo v beta obliki; do konca leta naj bi jo dokončno lansirali v ZDA, v začetku prihodnjega leta pa tudi drugod po svetu, celo na Kitajskem (plačljiv vir, alternativa). Glede na to, kako si je velikan zaradi šifriranih iphonov nenehno v laseh z ameriškimi organi pregona, bo zanimivo videti odziv FBI na zadnje dogajanje.
Med ostalimi novostmi je vredno omeniti še podporo strojnim pripomočkom za dvostopenjsko preverjanje in pa funkcijo iMessage Contact Key Verification, s katero naj bi bilo mogoče ujeti naprednejše metode prisluškovanja, s čimer se seveda borijo proti zloglasnim vohunskim orodjem, kot je Pegasus.
Sej za Epstaina se ve, kake pizdarije so delal, pa je vse lepo šuš šuš. Noben klient ne bo odgovarjal ker so same visoke živine. Pa vsak sistem se ponavadi da zaobit. Bi pa Android uporabljal.
Najbrž smo praktično vsi zoper otroško pornografijo, no razen verjetno pedofilov, ampak da bo pa zdaj Apple mene označil za potencialnega pedofila, omejil dostop do naprave ter podatkov in me po verjetnosti celo prijavil oblastem (sploh v ZDA, kjer najprej streljajo, potem pa šele sprašujejo), ker bo njihov algoritem zaznala gole slike mojih otrok na plaži, kopanju ipd. je pa malo prehuda Tako da je edino pravilno, da so opustili to odločitev.
The main failure in computers is usually located between keyboard and chair.
You read what you believe and you believe what you read ...
Nisam čit'o, ali osudjujem (nisem bral, a obsojam).
Sploh ne vem, zakaj se je takim firmam potrebno ukvarjati z zadevami, ki se jih ne tičejo. Zadeva je najbrž povezana z Applovimi novostmi na področju varovanja podatkov. Težko bi namreč oglaševali vsa ta nova šifriranja in skrb za zasebnost uporabnikov, če bi jim po drugi strani vohljali za fotografijami. Verjetno so ocenili, da jim bo več prineslo oglaševanje zasebnosti kakor boj proti pedofiliji.
Dr. Gates (reden obiskovalec Epsteinovega otoka) pa res ne more odgovarjat, kdo bo pa reševal človeštvo?
Woke Applu se je to pač zdela dobra ideja (think of the children!), so vsaj začasno prišli k pameti.
Fak a si danes pametan samo če omeniš Gejca, Soroša... potem pa dodaš še woke besedico in zmerjaš vse in vsako idejo po vrsti, čeprav niste nikoli nič pametnega in koristnega naredili za družbo okoli sebe ker skrbite samo in izključno za svojo rit. Ampak edina dobra stvar je da ste pogumni samo ko ste anonimni spletni bojevniki, v resničnem življenju vas mamica še na joški drži. In potem pa vsi ostali imamo isprane možgane...mi se res smilite
...ampak da bo pa zdaj Apple mene označil za potencialnega pedofila, omejil dostop do naprave ter podatkov in me po verjetnosti celo prijavil oblastem (sploh v ZDA, kjer najprej streljajo, potem pa šele sprašujejo), ker bo njihov algoritem zaznala gole slike mojih otrok na plaži, kopanju ipd...
Še eden, ki je uspel narobe razume kako deluje stvar. Ampak, ok...
Apple je mislil (kot sem špekuliral že ob originalnih novicah), da jim bo CSAM kupil odpustek za uvedbo end-2-end šifriranja iClouda. No, druga novica, ki ni zgolj slučajno prišla ven isti dan je, da bodo iCloud vseeno zašifrirali E2E. Da vidimo kaj bo rekel The Man...
Očitno so ocenili, da se je bolj racinalno preklat z vladami, kot pa glasnimi iracionalnimi* uporabniki.
* dostikrat imajo taki le drugačno agendo zadaj, ki nima veze s "pomisleki", ki jih kot papige ponavljajo
ker bo njihov algoritem zaznala gole slike mojih otrok na plaži, kopanju ipd. je pa malo prehuda Tako da je edino pravilno, da so opustili to odločitev.
Ne, zadeva ne bi delovala tako oz. flaggala takih primerov, saj je jasno da tukaj ni govora o otroški pornografiji.
Je pa jasno zakaj so to zamisel umaknili - dva razloga:
1. Če prodajaš svoje produkte z namenom zasebnosti, bi bila ta zadeva čist kontra sporočilo (dejansko nekdo brska po tvoji galeriji)
2. Težko je definirat kontekst gole fotografije (AI-ju) in zelo verjetno bi moral biti na drugi strani nekdo ki bi zadevo "moderiral", kar pomeni da potencialno bi lahko nekdo gledal tvojega golega otroka.
Z vidika zasebnosti je zadeva no-go in me čudi da je Apple sploh prišel na to zamisel (oz. da je dal to v javnost).
Fak a si danes pametan samo če omeniš Gejca, Soroša... potem pa dodaš še woke besedico in zmerjaš vse in vsako idejo po vrsti, čeprav niste nikoli nič pametnega in koristnega naredili za družbo okoli sebe ker skrbite samo in izključno za svojo rit. Ampak edina dobra stvar je da ste pogumni samo ko ste anonimni spletni bojevniki, v resničnem življenju vas mamica še na joški drži. In potem pa vsi ostali imamo isprane možgane...mi se res smilite
Nekaj šinfaš in žališ, sam pa si še po svojih kriterijih slabši, ker nisi čisto nič dodal, demantiral kak argument ipd. Verjetno kolesar. Sedi, šus.
saj je jasno da tukaj ni govora o otroški pornografiji.
… o čem pa je govora? Ker naslov te novice je “Apple opustil zamisel o skeniranju naprav v lovu za otroško pornografijo”
The main failure in computers is usually located between keyboard and chair.
You read what you believe and you believe what you read ...
Nisam čit'o, ali osudjujem (nisem bral, a obsojam).
Najbrž smo praktično vsi zoper otroško pornografijo, no razen verjetno pedofilov, ampak da bo pa zdaj Apple mene označil za potencialnega pedofila, omejil dostop do naprave ter podatkov in me po verjetnosti celo prijavil oblastem (sploh v ZDA, kjer najprej streljajo, potem pa šele sprašujejo), ker bo njihov algoritem zaznala gole slike mojih otrok na plaži, kopanju ipd. je pa malo prehuda Tako da je edino pravilno, da so opustili to odločitev.
A ni bilo že večkrat razloženo kako se to preverja? Še v članku je omenjen hash. Dokler slike tvojih otrok ne bojo na znanih porno straneh, te ne bojo našli!
The main failure in computers is usually located between keyboard and chair.
You read what you believe and you believe what you read ...
Nisam čit'o, ali osudjujem (nisem bral, a obsojam).
saj je jasno da tukaj ni govora o otroški pornografiji.
… o čem pa je govora? Ker naslov te novice je “Apple opustil zamisel o skeniranju naprav v lovu za otroško pornografijo”
V primeru če starš slika svojega otroka ob bazenu ne govorimo o otroški pornografiji (vsaj v veliki večini primerov). Zato bi v takih primerih AI moral razumeti tudi kontekst.
O otroški pornografiji govorimo takrat kadar se take slike začnejšo širiti z namenom zaslužka in/oz. spolnega zadovoljevanja.
Če ti sliko svojega golega otroka, ki se sprehaja ob bazenu pokažeš družinskemu članu z namenom "Lej kako je luškan na tej sliki", potem v tem primeru zadeva pač ni sporna. Že misel na to je absurdna.
So mi že zgoraj razložili, da to ne poteka, tako "po domače". A vseeno to ni v redu, da proti tvoji vednosti/volji kar periodično skenirajo tvoje naprave/datoteke oz. hashe datotek in jih primerjajo z bazami drugih.
The main failure in computers is usually located between keyboard and chair.
You read what you believe and you believe what you read ...
Nisam čit'o, ali osudjujem (nisem bral, a obsojam).
So mi že zgoraj razložili, da to ne poteka, tako "po domače". A vseeno to ni v redu, da proti tvoji vednosti/volji kar periodično skenirajo tvoje naprave/datoteke oz. hashe datotek in jih primerjajo z bazami drugih.
Še VEDNO ne veš kako bi stvar delovala.
Nič ni periodičnega. Hash se primerja samo pri slikah, ki se uploadajo v oblak. Oblake pa ponudniki oblačnih storitev že sedaj MORAJO skenirati za otroško pornografijo. Ideja Appla je bila, da bi hashe primerjali pred uploadom v oblak in jim ne bi bilo treba skenirati oblaka. Še bolj točno, Apple je želel E2E kriptirati celoten iCloud, ampak ker se tričrkovne agencije proti tem borijo z raznoraznimi "argumenti" (postali boste leglo otroške pornografije, jada jada...), so želeli narediti CSAM pred uploadom v oblak, ki je end-to-end šifriran (torej tehnično ne morejo skenirati podatkov uporabnikov za prepovedanimi vsebinami).
No, potem so se pa zbunili varnostni "strokovnjaki". Očitno jim end-to-end enkripcija oblakov kjer ni otroške pornografije ni v interesu.
Apple je sedaj vseeno šel v E2E, ampak je verjetno samo vprašanje časa kdaj se bodo začeli nategovati z bolj ali manj "za nacionalno varnost" zaskrbljenimi vladami...
Ok zdaj si že mal picajzlast; kakorkoli sedaj obrneš, bi počeli nekaj, kar si noben od nas ne želi, da bi mu počeli oz. počeli z njegovimi datotekami - razen morda tebe. Predvsem ker je vprašanje, kje bi se apetiti "oblasti" ustavili.
The main failure in computers is usually located between keyboard and chair.
You read what you believe and you believe what you read ...
Nisam čit'o, ali osudjujem (nisem bral, a obsojam).