ChatGPT razkriva vnose
Matej Huš
30. jan 2024 ob 21:28:36
Pravzaprav novica ne bi smela nikogar presenetiti, saj tudi sami proizvajalci na to opozarjajo in jasno svetujejo, naj v generativne modele umetne inteligence ne vnašamo občutljivih informacij. Vemo, da si ti lahko zapomnijo vse, vseeno pa preseneča, da to kdaj ravnodušno delijo z drugimi uporabniki. Raziskovalci so sicer že večkrat pokazali, da ni posebej težko oblikovati pozivov, ki umetno inteligenco pretentajo v razkrivanje osebnih podatkov.
Eden izmed bralcev Ars Technice pa je osebne podatke dobil celo, ne da bi za njih kakorkoli prosil. ChatGPT 4 mu je, ko je bilo pogovora že konec, a je imel okno še odprto, preprosto začel izpisovati vnose drugih uporabnikov. Med njimi so bila tudi uporabniška imena in gesla za prijavo v informacijski sistem neke lekarne. Očitno je nekdo izmed zaposlenih s ChatGPT poizkusil ugotoviti, zakaj mu prijava ne deluje, pri tem pa je vnašal tudi osebne podatke. Drugi podatki, ki jih je ChatGPT delil, so tudi neobjavljeni raziskovalni projekti, skripte v PHP-ju, imena predstavitev in podobno. Skratka, karkoli ChatGPT sliši, lahko kdaj izpljune.
Zaradi možnosti, da se vnosi v generativno umetno inteligenco oziroma pametne sogovornike raznesejo po spletu, so večje korporacije in državni organi marsikod že omejili dostop do njih. Zaposleni imajo bodisi prepoved uporabe za službene zadeve bodisi ne smejo vnašati nobenih zaupnih podatkov. To pa seveda ne pomeni, da v podjetjih ne uporabljajo umetne inteligence. Številna - tudi slovenska, denimo kakšen naftni trgovec - razvijajo svoje modele, ki jih zaposleni interno uporabljajo.