Facebook je vedel, da vnaša razdor v družbo, in opozorila ignoriral

Matej Huš

28. maj 2020 ob 22:16:32

V časih pred internetom so bili ljudje izpostavljeni približno istim virom novic in informacij, predvsem pa so bili deležni pogledov z več strani. Internet je to precej spremenil, saj je ljudem omogočil zatekanje v vsebine, ki podpirajo njihova prepričanja, družbena omrežja pa so to dogajanje še intenzivirala. Na političnem področju se to še posebej vidi, saj so zagovorniki različnih strani bolj razdvojeni kot kdajkoli. In Facebook? Največje družbeno omrežje na internetu pri tem ni nedolžno, saj je pomemben motor delitev na internetu, kar podjetje ve že več let in namenoma ne ukrepa.

Algoritem, ki vlada na Facebooku in določa, kaj bo kdo videl, ima preprosto nalogo. Maksimizirati mora angažma uporabnikov, kar v lepši slovenščini pomeni, da mora uporabnike premamiti, da na strani ostanejo čim dlje in delijo čim več. Žal pa so takšne zahteve destruktivne za družbo, je pokazala Facebookova preiskava, preden so jo ukinili. To so vedeli že leta 2016, a namenoma niso reagirali, razkrivajo dokumenti iz leta 2018. Da bi zmanjšali razdor, ki ga seje Facebook, bi morali žrtvovati nekaj angažmaja uporabnikov - dobili bi manj komentarjev, deljenih vsebin in konec koncev na strani prebitega časa, kar se prevede v manj dobička. Matematika je neizprosna, razkriva članek v The Wall Street Journalu.

V predstavitvi, ki so jo imeli leta 2018 za vodilne v podjetju, so raziskovalci zapisali, da "[njihovi] algoritmi izkoriščajo nagnjenost človeških možganov k vsebinam, ki razdvajajo". Opozorili so, da bo ob odsotnosti ukrepanja Facebook uporabnikom stregel čedalje bolj razdiralno vsebino, da bi izboljšal lastne metrike. V letih 2017 in 2018 je delovala skupina Integrity Teams, ki je želela rešiti problem naraščajoče polarizacije in razdvojenosti. Izdelali bi storitve na Facebooku, ki bi vzpodbujale empatijo, razumevanje in humanizacijo "nasprotne strani". Spremljali so tudi dogajanje v nemških skupinah na Facebooku, kjer so v tretjini odkrili ekstremistične vsebine, a ker so bile skupine zasebne, tega navzven ni videti. Te skupine obvladuje majhna množica zelo aktivnih uporabnikov, pasivno večino pa je vanje pritegnil Facebookov algoritem, ki jim jih je predlagal.

A izvršni direktor Zuckerberg je programe za naslavljanje teh težav ukinil. Raziskave, ki so kazale na povezave Facebooka in razdora v družbi, so pospravili v predal. Ukrepi, ki bi prilagodili Facebooke storitve, so bili odpisani. Politike, ki bi se borile proti clickbait naslovom, niso nikoli zares zaživele. Eden izmed ukrepov je predlagal omejitev, kako močno algoritmi širijo vsebine, ki jih delijo hiperaktivni uporabniki. Izkazalo se je namreč, da so ti hiperaktivni uporabniki bistveno bolj razdiralni in ekstremistični v prepričanjih kakor ostali. Facebook teh ukrepov potem ni izvedel. Izvedli so le zelo omiljene ukrepe, ki so večinoma namenjeni opozarjanju na lažne novice.

Facebook se je odzval na navedbe v članku. Dejali so, da je zgodba drugačna, kot jo je predstavil ameriški časnik, ki da je spregledal ključna dejstva. Facebook poudarja, da so nekatere programe res ukinili, a da članek ne omenja tistih, ki tečejo in so namenjeni boju proti sovražnemu govoru, širjenju neresnic in polarizaciji družbe. Dodali so, da je Facebook sedaj drugačno podjetje kot leta 2016, ker so se vmes ogromno naučili, tudi na področju vpliva na družbo.