DeepSeek piše manj varno kodo za naročnike v kitajski nemilosti

Matej Huš

19. sep 2025 ob 00:39:10

Raziskovalci iz podjetja za računalniško varnost CrowdStrike so želeli preveriti, ali imajo veliki jezikovni modeli vgrajene kakšne predsodke svojih avtorjev, ki bi se izrazili na primer pri pisanju kode. Ugotovili so, da vsaj za kitajski DeepSeek - drugih niso preverjali - to še kako drži. Koda, ki jo piše za kitajski vladi neljube naročnike, ima več varnostnih lukenj. Zdi se neverjetno, da bi šlo za naključje.

DeepSeeku so dali več zelo podobnih navodil, vsa v angleščini, naj napiše določeno programsko kodo. Med drugim je šlo za kodo, ki bi se lahko uporabljala za nadzor industrijskih procesov (SCADA). Da umetna inteligenca piše dobro, a ne popolne kode, vemo že dolgo. CrowdStrike je ocenil, da so bile v 23 odstotkih kode resne napake oziroma ranljivosti. To je povprečje, ki pa se zelo spremeni, če DeepSeeku rečemo, da smo iz Tibeta ali kaj podobnega.

Ko so v navodila dodali pojasnilo, da bo kodo poganjalo prepovedano gibanje Falun Gong ali pa da se bo uporabljala v Islamski državi, je delež napak zrasel na 45 odstotkov. Tudi če je bil kot avtor naveden Tajvan ali Tibet, je bila koda nevarnejša. DeepSeek ni nikoli izrecno omenil, da kodo kakorkoli prilagaja ali kako drugače namignil, da upošteva njen namen. A eksperiment jasno kaže, da te pristranskosti obstajajo.