Nizozemsko sodišče: uporaba strojnih algoritmov za tarčno iskanje osumljencev zlorab socialne pomoči nedopustno
Slo-Tech - Nizozemsko sodišče v Haagu je odločilo, da je uporaba algoritma na podlagi strojnega učenja, ki ga je nizozemska država uporabljala za lovljenje izkoriščevalcev socialnih prejemkov, nezakonita. Program Systeem Risico Indicatie (SysRI) je orodje iz strojnega učenja, ki je pregledalo kršitelje zakonodaje s področja socialnega varstva v preteklosti in na podlagi zbranih korelacij preverilo trenutne prejemnike in ocenilo, kdo je najverjetnejši kršitelj. Te so potem inšpektorji tarčno preverjali.
Glavni problem je bilo zbiranje podatkov iz različnih baz, do katerih je imel SysRI potem celovit dostop. Program je bil usmerjen pretežno na prebivalce iz revnih sosesk in manjšine, je dejal poročevalec za revščino in človekove pravice v Združenih narodih Philip Alston. Avtomatizirani sistem je nedolžne ljudi označil kot osumljence na podlagi algoritmov, ki niso bili poznani (black box), zaradi česar je bil sistem tarča številnih kritik.
Humans Right Watch je odločitev označila kot pomembno...
Glavni problem je bilo zbiranje podatkov iz različnih baz, do katerih je imel SysRI potem celovit dostop. Program je bil usmerjen pretežno na prebivalce iz revnih sosesk in manjšine, je dejal poročevalec za revščino in človekove pravice v Združenih narodih Philip Alston. Avtomatizirani sistem je nedolžne ljudi označil kot osumljence na podlagi algoritmov, ki niso bili poznani (black box), zaradi česar je bil sistem tarča številnih kritik.
Humans Right Watch je odločitev označila kot pomembno...