» »

Blamaža okoli letošnjih britanskih maturitetnih ocen vnovič kaže na pasti pristranskih algoritmov

Blamaža okoli letošnjih britanskih maturitetnih ocen vnovič kaže na pasti pristranskih algoritmov

vir: BBC
theguardian.com - V preteklem tednu so množice britanskih srednješolcev občutile, kako je, če o tvoji usodi odloča računalnik - in to slabo. Algoritem, ki bi moral ob odsotnosti letošnje mature pomagati določiti dokončne zaključne ocene, je namreč izvrgel sumljivo nizke rezultate in s tem mnogim zaprl pot na želeno univerzo. Po nekaj dneh so se oblasti naposled odločile, da te poti ne bodo uporabile, ostane pa šolska lekcija v slabi praksi rabe algoritmov.

Letošnje leto v Združenem kraljestvu zaradi pandemije covida-19 niso izvedli preizkusov ob koncu srednje šole; to so GCSE, GCE A-level in razni strokovni izpiti - oziroma po domače, matura. Ko je bilo spomladi jasno, da klasična izvedba zaradi karantenskih ukrepov ne bo mogoča, so stekle priprave na izvedbo postopka, ki bi poskrbel za "rezultate, čim bližje siceršnjim iz preteklih let" in hkrati "omejil inflacijo ocen", ki naj bi se dogajala zadnje čase. Odločili so se za kombinacijo ocen učiteljev in pa rabe algoritma, ki je v glavnem upošteval splošni izkaz določene srednje šole v preteklih treh letih. Izdelavo programa so zaupali britanski inačici naše Izpitne komisije, Ofqualu (Office of Qualifications and Examinations Regulation).

Takšne sorte uravnilovka je takoj privzdignila obrvi tako državnih analitikov kot strokovne javnosti. Opazovalci so opozorili, da takšen način v praksi onemogoča doseči dobre izkaze tistim, ki prihajajo iz tradicionalno deprivilegiranih okolij, saj s "statističnim terorjem" vsakogar zatolče v predvideno povprečje. Projekcije dvomljivcev so dale celo precej natančno vrednostno oceno razkoraka, do katerega je nato dejansko prišlo. Za nameček so imeli na voljo tudi neke sorte generalko, saj so 4. avgusta podoben postopek izvedli na Škotskem, kjer so zaradi višje stopnje avtonomije dejavnosti izvajali ločeno. Tam je prišlo do množičnega podcenjevanja predvidenih ocen in 11. avgusta so bile oblasti primorane rezultate zavreči. Toda Britancev to ni zmedlo in v Angliji, Walesu ter Severni Irski so 13. avgusta objavili svoje rezultate računalniškega mletja šolskih ocen.

Takoj je bilo jasno, da je nekaj narobe in ko so se številke zbrale na kup, se je izkazalo, da je kar 39,1% učencev prejelo slabše ocene od predvidenih, trije odstotki celo za dve stopnji. Toda najhujši je bil očitno zaznaven vzorec pristranskosti, saj je algoritem najbolj udaril javne šole z območij z nižjo ekonomsko močjo, medtem ko bogate zasebne šole razlike glede na predvidevanja skoraj niso videle. Na Ofqualu so se sprva branili, da mora to enostavno pomeniti, da "so učitelji z javnih šol preveč popustljivi", medtem ko je minister za izobraževanje Gavin Williamson nekaj dni zatrjeval, da popravkov ne bo. Toda razburjeni šolarji, ki jim je grozilo, da jim bo program uničil prihodnost, so zavzeli ulice in 17. avgusta je minister obrnil ploščo ter priznal, da je algoritem zanič, zaključne ocene pa bodo v največji meri določili učitelji. Ofqual je bil prisiljen sporno programje odstopiti v strokovni pregled državnemu statističnemu uradu, medtem ko si univerze sedaj na vse kriplje prizadevajo ponoviti enkrat že izvedeni sprejem.

Velika Britanija, zibelka distopičnih primerkov prihodnosti, je tako poskrbela za novo učno uro v pristranskosti algoritmov, s katero se področje umetne inteligence v zadnjih letih še posebej ubada. Na kratko povedano: če ima sistem napake, jih bo algoritem, ki naj bi ga posnemal, kvečjemu še ojačal, namesto da bi jih omilil. To je v glavnem neobhodna posledica delovanja programja na osnovi globokega učenja, ki je zanesljivo toliko, kolikor so zanesljivi njegovi učni podatki.

70 komentarjev

«
1
2

vostok_1 ::

Ok, kakšen pa je bil rezultat naknadnega ročnega ocenjevanja?
There will be chutes!
It came from the lab.
Like tears in rain. Time to die. v_1 2012-21

kuglvinkl ::

Samo iz enega razloga Williamsona (brit. minister za šolstvo) ne bodo vrgli čez okno - šparajo ga za september, ko se otroci NE bodo vrnili v šole. Takrat bo srečal svoj avtobus sredi ceste.
Your focus determines your reallity

Zgodovina sprememb…

MrStein ::

kar 39,1% učencev prejelo slabše ocene od predvidenih

Kdo pa je izračunal te "predvidene" ocene? Po kakem algoritmu?
Motiti se je človeško.
Motiti se pogosto je neumno.
Vztrajati pri zmoti je... oh, pozdravljen!

tikitoki ::

Ze sama ideja je abotna. Hvalabogu, da je propadla.

kuglvinkl ::

tikitoki je izjavil:

Ze sama ideja je abotna. Hvalabogu, da je propadla.


žal jih ne bo ustavila. Enako kot jih ni pri dodeljevanju socialnih pomoči.
Your focus determines your reallity

Jarno ::

Če pravilno razumem novico, bi moral pravičnejši algoritem biti manj pravičen v absolutnem in bolj pravičen v relativnem pomenu.
#65W!

Aggressor ::

MrStein je izjavil:

kar 39,1% učencev prejelo slabše ocene od predvidenih

Kdo pa je izračunal te "predvidene" ocene? Po kakem algoritmu?


Učitelji.

Jarno je izjavil:

Če pravilno razumem novico, bi moral pravičnejši algoritem biti manj pravičen v absolutnem in bolj pravičen v relativnem pomenu.


Ne, ker algoritem niti v absolutnem pomenu ni bil pravičen, saj je kvečjemu ponavljal krivice od prej.
en CRISPR na dan odžene zdravnika stran

Greg91 ::

Algoritem kot tak v nobenem primeru ni pristranski. Pristranski so lahko ljudje in podatki, ki so bili uporabljeni za učenje. Algoritem je samo postavil ogledalo dosedanjemu sistemu. Za piko na i, pa ti veleumi algoritem "obdolžijo" pristranskosti na podlagi primerjave ocen s predvidenimi ocenami učiteljev, za katere prav tako z gotovostjo ne moremo trditi da so nepristranki. Danes se pa lahko že dobesedno vsak ukvarja s strojnim učenjem. :8)

Dag ::

V naši SŠ je bilo nekaj takih, ki se med letom niso pretirano trudili in imeli (pod)povprečne ocene, za maturo so se pa maksimalno pripravili in razturali.

Že sama ideja o oblikovanju maturitetne ocene na podlagi preteklih ocen je fail in diskriminira tiste, ki so iz kakršnega koli razloga med letom imeli slabše ocene, na maturi pa bi dosegli dober rezultat.

MrStein ::

Teoretično se lahko ti pritožijo in delajo izpit.
Motiti se je človeško.
Motiti se pogosto je neumno.
Vztrajati pri zmoti je... oh, pozdravljen!

GargaSmrk ::

AI se vedno znova izkaže za rasističen/seksističen če upošteva samo sposobnost in znanje ocenjevanega.

Izi ::

Grem stavit, da je edini problem, da se računalniku ne da prinesti plave kuverte in tako spraviti svojega lenega sina na univerzo.
Jasno, da tak način ne more ostati, saj bi marsikateri sinčki pomembnežev ostali samo z osnovno šolo :P
Pa tudi učitelji bi ostali brez občutnega dela "prihodkov". Tako da bodo tudi ti proti tej novotariji.

Zgodovina sprememb…

  • spremenil: Izi ()

tikitoki ::

kuglvinkl je izjavil:

tikitoki je izjavil:

Ze sama ideja je abotna. Hvalabogu, da je propadla.


žal jih ne bo ustavila. Enako kot jih ni pri dodeljevanju socialnih pomoči.


Kaj so imeli podoben pristop k dodeljevanju socialne pomoci?

GargaSmrk ::

Izi je izjavil:

saj bi marsikateri sinčki pomembnežev ostali samo z osnovno šolo


V novici piše da slabo ocenjuje revne ne bogate.

Problem je ker se čisto vsakič izkaže da AI podeli višje ocene belcem kot črncem če se ocenjuje izključno na podlagi sposobnosti.

tikitoki ::

Se pa strinjam, da so tudi ucitelji pristranski. Vbistvu je to ena izmed hib homo sapiensa.
Mogoce bi bilo se najboljse, da upostevajo zgolj ocene in je to to. Tudi to ni popolnoma pravicno. Sigurno pa bolj, k šloganje z uporabo strojenga ucenja, ali uciteljev.

MrStein ::

Hoteli so bližnjico in so dobili... kar so.

Lahko bi imeli kaki remote izpit.
Motiti se je človeško.
Motiti se pogosto je neumno.
Vztrajati pri zmoti je... oh, pozdravljen!

Mavrik ::

Izi je izjavil:

Grem stavit, da je edini problem, da se računalniku ne da prinesti plave kuverte in tako spraviti svojega lenega sina na univerzo.
Jasno, da tak način ne more ostati, saj bi marsikateri sinčki pomembnežev ostali samo z osnovno šolo :P
Pa tudi učitelji bi ostali brez občutnega dela "prihodkov". Tako da bodo tudi ti proti tej novotariji.


Če bi dejansko prebral novico bi pogruntal da je algoritem podcenil znanje revnih in jih je hotel izključiti z univerz.
The truth is rarely pure and never simple.

GargaSmrk ::

Mavrik je izjavil:


Če bi dejansko prebral novico bi pogruntal da je algoritem podcenil znanje revnih in jih je hotel izključiti z univerz.


Kaj pa je povezava med revnimi in nespametnimi? Misliš da je mogoče da je kaj v genetiki?

Exploring the association between the 2-repeat allele of the MAOA gene promoter polymorphism and psychopathic personality traits, arrests, incarceration, and lifetime antisocial behavior

The effects of the 2-repeat allele could not be examined in Caucasian males because only 0.1% carried it.

tikitoki ::

GargaSmrk je izjavil:

Izi je izjavil:

saj bi marsikateri sinčki pomembnežev ostali samo z osnovno šolo


V novici piše da slabo ocenjuje revne ne bogate.

Problem je ker se čisto vsakič izkaže da AI podeli višje ocene belcem kot črncem če se ocenjuje izključno na podlagi sposobnosti.


Ti si zgolj preneumne, da bi doumel bistvo problema. Zgolj izkazujes svoja rasisticna prepricanja, ki jih nisi sposoben primerno utemeljiti.

GargaSmrk ::

tikitoki je izjavil:

Zgolj izkazujes svoja rasisticna prepricanja, ki jih nisi sposoben primerno utemeljiti.


Nisem jaz tisti ki dokazano diskriminira na podlagi barve kože- rasizem.

US Justice Department finds Yale discriminates against Asian and white students

kuglvinkl ::

tikitoki je izjavil:

kuglvinkl je izjavil:

tikitoki je izjavil:

Ze sama ideja je abotna. Hvalabogu, da je propadla.


žal jih ne bo ustavila. Enako kot jih ni pri dodeljevanju socialnih pomoči.


Kaj so imeli podoben pristop k dodeljevanju socialne pomoci?


Ja, pristranskost z AI-com in TEŠ6 like prekoračenje proračuna, vse samo zato, da so lahko zmanjšali zaposlitve in povečali IT outsourcing, rezulat je pa bil katastrofa.
Your focus determines your reallity

MIG-A51 ::

Mavrik je izjavil:

da je algoritem podcenil znanje revnih


Kaj so morali na izpitu zraven napisati številko svojega bančnega računa?
Kako drugače bi algoritem lahko vedel kdo je reven?

Kaj pa če imaš anonimno miljardo bitcoinov, a bi ti algoritem še zmeraj dal slabo oceno?

chort ::

MIG-A51 je izjavil:

Mavrik je izjavil:

da je algoritem podcenil znanje revnih


Kaj so morali na izpitu zraven napisati številko svojega bančnega računa?
Kako drugače bi algoritem lahko vedel kdo je reven?

Kaj pa če imaš anonimno miljardo bitcoinov, a bi ti algoritem še zmeraj dal slabo oceno?

Če bi prebral novico, bi vedel. Revni okoliši imajo šole, v katerih so večinoma revni. Posh šole običajno obiskujejo bogati, ki jim starši to lahko plačajo.

starfotr ::

V bistvu, kaj pa če bi za spremembo upoštevali algoritem.

Tako bi imeli delovno silo, ki jo morajo sedaj uvažat, oziroma kar sama rine v to državo.

nekikr ::

Absolutno nič ne piše o tem zakaj naj bi bil algoritem zanič. Samo, da bi morali dobiti višje ocene, pa jih niso.

Odločili so se za kombinacijo ocen učiteljev in pa rabe algoritma, ki je v glavnem upošteval splošni izkaz določene srednje šole v preteklih treh letih.

Se pravi je dal en del ocene algoritem, drugi del pa učitelji, pa je vseeno prišlo do tega "problema"? Se pravi je dal učitelj, recimo, oceno 5, algoritem pa 1, učenec je dobil 3 in to je bilo za ono oceno premalo? Se pravi je algoritem totalno zanič. Manjka pa podatek zakaj je tako zelo zanič. Pri tako bombastični in obširni novici bi pričakoval najmanj pojasnilo delovanja algoritma z več kot dvema besedama.

Aggressor ::

Greg91 je izjavil:

Algoritem kot tak v nobenem primeru ni pristranski. Pristranski so lahko ljudje in podatki, ki so bili uporabljeni za učenje. Algoritem je samo postavil ogledalo dosedanjemu sistemu. Za piko na i, pa ti veleumi algoritem "obdolžijo" pristranskosti na podlagi primerjave ocen s predvidenimi ocenami učiteljev, za katere prav tako z gotovostjo ne moremo trditi da so nepristranki. Danes se pa lahko že dobesedno vsak ukvarja s strojnim učenjem. :8)


Mogoče se res na prvi pogled sliši čudno, da označiš nek algoritem za pristranski, ampak to je uveljavljena ugotovitev, če ti je všeč ali ne. Algorithmic bias je de facto danes prepoznan kot eden glavnih problemov globokega učenja, in to od vseh, tudi najbolj uglednih strokovnjakov.
en CRISPR na dan odžene zdravnika stran

Jarno ::

Novica je povzeta po 'Guardianu', ki je pri meni izgubil precej kredibilnosti, ko sem npr. spremljal poročanje o najstniku Sandmannu. V preprosto situacijo so vpletali, kako nagnusna je MAGA kapa in kako so katoliki 500 let zatirali domorodce.
Potrebno je biti previden, ko se navaja vir z biasom.
#65W!

kuglvinkl ::

Jarno je izjavil:

Novica je povzeta po 'Guardianu', ki je pri meni izgubil precej kredibilnosti, ko sem npr. spremljal poročanje o najstniku Sandmannu. V preprosto situacijo so vpletali, kako nagnusna je MAGA kapa in kako so katoliki 500 let zatirali domorodce.
Potrebno je biti previden, ko se navaja vir z biasom.


zajebal si zadnji stavek, ki bi se moral glasit takole: "Sam sem previden, ko se navaja vir, za katerega jaz mislim, da je biased". Nihče normalen namreč ne msili, da je Guardian - Fox News selling lies like - biased.

Gotovo pa v rumenem - s kapitalizmom usklajenim tiskom takšne novice ne boš našel. Tam so samo joške, kri in sperma.
Your focus determines your reallity

Zgodovina sprememb…

Aggressor ::

nekikr je izjavil:

Absolutno nič ne piše o tem zakaj naj bi bil algoritem zanič. Samo, da bi morali dobiti višje ocene, pa jih niso.

Odločili so se za kombinacijo ocen učiteljev in pa rabe algoritma, ki je v glavnem upošteval splošni izkaz določene srednje šole v preteklih treh letih.

Se pravi je dal en del ocene algoritem, drugi del pa učitelji, pa je vseeno prišlo do tega "problema"? Se pravi je dal učitelj, recimo, oceno 5, algoritem pa 1, učenec je dobil 3 in to je bilo za ono oceno premalo? Se pravi je algoritem totalno zanič. Manjka pa podatek zakaj je tako zelo zanič. Pri tako bombastični in obširni novici bi pričakoval najmanj pojasnilo delovanja algoritma z več kot dvema besedama.


Na povezavah imaš več, ker statistične solate res nisem hotel tlačit v besedilo.

Tam imaš tudi grafikone in podobno, ki ti bodo povedali, da je algoritem podcenil skoraj 40% oseb, precenil pa tri odstotke. To je veliko prevelik razkorak med maturitetnim izkazom in siceršnjim šolskim uspehom, ki je neprimerljiv s preteklimi leti. Imaš tudi dosti primerov učencev, ki so se izkazali tudi na tekmovanjih in dosegali vsedržavna priznanja, pa jih je algoritem vrgel med slabše ocenjene. To v nobenem primeru ne more bit okej, bo pa zdaj državni statistični urad povedal, kaj natančno bi bilo treba narest. Da ne omenjam, da je bila takšna zasnova skritizirana že pred izvedbo, tako s strani javnosti kot parlamentarne skupine. (Malo več klikajte na linke, je vse razloženo.)

Vidim tudi, da nekateri še vedno radi izkazujete svoje pomanjkanje sposobnosti empatije, če se dam zdi čisto v redu, da se množicam otrok zapre možnost šolanja samo zato, ker se birokrati lahko skrijejo in krivdo pač naprtijo računalniku.

Jarno je izjavil:

Novica je povzeta po 'Guardianu', ki je pri meni izgubil precej kredibilnosti, ko sem npr. spremljal poročanje o najstniku Sandmannu. V preprosto situacijo so vpletali, kako nagnusna je MAGA kapa in kako so katoliki 500 let zatirali domorodce.
Potrebno je biti previden, ko se navaja vir z biasom.


Med linki v novici je osem različnih virov, ne samo Guardian.
en CRISPR na dan odžene zdravnika stran

Zgodovina sprememb…

Jarno ::

Skratka, če se nekritično sprejema, da obstajajo elitne univerze, potem ne bo tako težko sprejeti dejstva, da obstajajo srednje šole, ki dijakom v povprečju priskrbijo višji nivo znanja. Sistem ni idealen, tudi distribucija IQ-ja v osnovi ni 'pravična', je pa zaželjeno, da z nekimi brezveznimi fintami ne sabotiramo top kadrov.
Daljni vzhodnjaki nimajo teh težav, npr.
#65W!

winterriver ::

Ze samo iz zadnjih nekaj odgovorov vidim, da so se tehnloski hipsterski webshiti spet odlocili, da je zadnji hype (AI) vsemogocen in resitev za vse cloveske tezave. Tako kot malo pred njimi, da so to blockchaini, malo pred njimi nosql baze, pa google, pa facebook,... skratka dokler clovek vsaj za silo mentalno ne odrase, poka taksne kozle, ko ima pa malo obcutka in izkusenj ugotovi, da statisticne metode primerjanja krivulje nad danimi podatki pac niso nekaj kar bi se lahko razumelo pod "umetno inteligenco", ampak je samo se en marketinski nateg, ki so ga ekonomski propagandisti poimenovali AI, da bi se lahko otrockom, ki premalo vedo, da bi znali programirati, podatke bi pa se znali nekako tlacit v blackbox, ocke blescale.
Eat shit, millions of flies can't be wrong.

Zgodovina sprememb…

Okapi ::

Mavrik je izjavil:

Izi je izjavil:

Grem stavit, da je edini problem, da se računalniku ne da prinesti plave kuverte in tako spraviti svojega lenega sina na univerzo.
Jasno, da tak način ne more ostati, saj bi marsikateri sinčki pomembnežev ostali samo z osnovno šolo :P
Pa tudi učitelji bi ostali brez občutnega dela "prihodkov". Tako da bodo tudi ti proti tej novotariji.


Če bi dejansko prebral novico bi pogruntal da je algoritem podcenil znanje revnih in jih je hotel izključiti z univerz.

In kako lahko vemo, da mogoče algoritem ni podcenil znanja, ampak ga je v resnici bolje ocenil, bolj nepristransko, kot bi to naredili učitelji? Učitelj raje da malo boljšo oceno, da dijaku ne onemogoči vpisa na univerzo. Algoritem pa tega ni počel.

pirat ::

Okapi je izjavil:

Mavrik je izjavil:

Izi je izjavil:

Grem stavit, da je edini problem, da se računalniku ne da prinesti plave kuverte in tako spraviti svojega lenega sina na univerzo.
Jasno, da tak način ne more ostati, saj bi marsikateri sinčki pomembnežev ostali samo z osnovno šolo :P
Pa tudi učitelji bi ostali brez občutnega dela "prihodkov". Tako da bodo tudi ti proti tej novotariji.


Če bi dejansko prebral novico bi pogruntal da je algoritem podcenil znanje revnih in jih je hotel izključiti z univerz.

In kako lahko vemo, da mogoče algoritem ni podcenil znanja, ampak ga je v resnici bolje ocenil, bolj nepristransko, kot bi to naredili učitelji? Učitelj raje da malo boljšo oceno, da dijaku ne onemogoči vpisa na univerzo. Algoritem pa tega ni počel.

In najbolj verjetno je to se najbolj pravilno pojasnilo.
A zal politicno nekorektno, zato ‘ne more biti’ pravilno.

MrStein ::

Mavrik je izjavil:


Če bi dejansko prebral novico bi pogruntal da je algoritem podcenil znanje revnih in jih je hotel izključiti z univerz.

Algoritmi nimajo volje in ne morejo karkoli hoteti.
Motiti se je človeško.
Motiti se pogosto je neumno.
Vztrajati pri zmoti je... oh, pozdravljen!

Aggressor ::

pirat je izjavil:

Okapi je izjavil:

In kako lahko vemo, da mogoče algoritem ni podcenil znanja, ampak ga je v resnici bolje ocenil, bolj nepristransko, kot bi to naredili učitelji? Učitelj raje da malo boljšo oceno, da dijaku ne onemogoči vpisa na univerzo. Algoritem pa tega ni počel.

In najbolj verjetno je to se najbolj pravilno pojasnilo.
A zal politicno nekorektno, zato ‘ne more biti’ pravilno.


Pravilno pojasnilo je, da sta z Okapijem nepismena in ne znata prebrat stvari, ki so v novici in na linkih zelo jasno razložene.
en CRISPR na dan odžene zdravnika stran

Okapi ::

Kje točno je izmerjena pristranskost učiteljev pri ocenjevanju?

Aggressor ::

Okapi je izjavil:

Kje točno je izmerjena pristranskost učiteljev pri ocenjevanju?


Poglej, kako je Huy Duong računal napako in jo še pred objavo rezultatov zadel skoraj do procenta natančno. Za osnovo je vzel zgodovino ocen učencev v prejšnjih letih, kar pomeni, da letos učitelji niso dodeljevali zaznavno višjih ocen kot sicer, ampak razlika v algoritemski oceni je bila vseeno gromozanska - precej večja, kot pa jo je v preteklih letih kadarkoli povzročil maturitetni izpit. Gotovo je in bo v učiteljskem odmerjanju ocen prihajalo do pristranskosti in napak, ampak tale algoritemska napaka je statistično tako hudo čez vse meje, da je res bedasto trdit, da je zanjo kriva pristranskost učiteljev.
en CRISPR na dan odžene zdravnika stran

Okapi ::

A pristransko, ali bolje rečeno, subjektivno ocenjevanje učiteljev pa ne more biti "statistično tako hudo" napačno?

Prav lahko je algoritem samo razkril sistemsko napako človeškega ocenjevanja. Ampak v takih primerih se pogosto napačno privzame, da ima človek bolj prav.

Aggressor ::

Okapi je izjavil:

A pristransko, ali bolje rečeno, subjektivno ocenjevanje učiteljev pa ne more biti "statistično tako hudo" napačno?

Prav lahko je algoritem samo razkril sistemsko napako človeškega ocenjevanja. Ampak v takih primerih se pogosto napačno privzame, da ima človek bolj prav.


Slabo bereš.

Še enkrat:

-Običajno je centralni maturitetni preizkus namenjen temu, da se odstrani pristranskost posameznih učiteljev ali šol. Letos naj bi njegovo vlogo nadomestil algoritem.

-Za to, koliko je maturitetni test "popravljal" šolski uspeh in s tem ocene učiteljev v preteklih letih, imamo podatke. Na tej osnovi so že pred objavo rezultatov algoritma nekateri strokovnjaki prišli do izračunov, kako se bo stvar zalomila.

-Stvar se je dejansko zalomila točno na ta način in razkorak med rezultati algoritma ter predvidenimi ocenami učiteljev, ki so bili bazirani na siceršnjem uspehu učencev, je NEPRIMERNO VEČJI, kot je bil kdajkoli razkorak med maturo in ocenami v preteklosti.

-Koliko natančno je bil kdo pristranski, bo sedaj razdeloval še statistični urad.

Bolj po cicibansko ne morem razložit.
en CRISPR na dan odžene zdravnika stran

Okapi ::

Ampak razkorak ni bil povsod enako velik. Se pravi je ponekdo algoritem "deloval" v redu, ponekod pa ne. Kar kaže na to, da morda prejšnji rezultati niso bili povsod dovolj objektivni in je algoritem to sedaj razkril.

Aggressor ::

Okapi je izjavil:

Ampak razkorak ni bil povsod enako velik. Se pravi je ponekdo algoritem "deloval" v redu, ponekod pa ne. Kar kaže na to, da morda prejšnji rezultati niso bili povsod dovolj objektivni in je algoritem to sedaj razkril.


Spet si gladko pozabil na dejstvo, da so nekateri težave predvideli vnaprej, skoraj do procenta natančno, in da torej poznamo njihov vzrok ter s tem tudi razlog za geografske razlike - to pa so razlike v privilegiranosti šol.

Imaš vse razloženo do pike v linkih, jaz mam pametnejše delo.
en CRISPR na dan odžene zdravnika stran

Okapi ::

Če je algoritem pri priviligiranih šolah pokazal pravi rezultat, pri drugih pa ne, je to morda znak, da so pri teh drugih šolah prj ocenjevali bolj subjektivno kot objektivno, in je algoritem to samo razkril.

Če bi pri vseh šolah algoritem dajal enako napačne rezultate, bi bilo jasno, da je z algoritmom nekaj narobe. Tako pa ni tako zelo jasno.

pirat ::

Aggressor je izjavil:

pirat je izjavil:

Okapi je izjavil:

In kako lahko vemo, da mogoče algoritem ni podcenil znanja, ampak ga je v resnici bolje ocenil, bolj nepristransko, kot bi to naredili učitelji? Učitelj raje da malo boljšo oceno, da dijaku ne onemogoči vpisa na univerzo. Algoritem pa tega ni počel.

In najbolj verjetno je to se najbolj pravilno pojasnilo.
A zal politicno nekorektno, zato ‘ne more biti’ pravilno.


Pravilno pojasnilo je, da sta z Okapijem nepismena in ne znata prebrat stvari, ki so v novici in na linkih zelo jasno razložene.

Ne. V original članku je bistvo zajeto v enem stavku - " ... model could not survive contact with political reality..." To je ključno. Če pogledaš dejanske rezultate je algoritem poudaril oz. poglobil razlike - lepo piše, da se je del najboljših ocen še izboljšal, del slabših ocen pa še poslabšal. In ker razlike v rezultatih med zasebnimi in javnimi šolami niso politično sprejemljive, so potem dali ocenit učiteljem in kar naenkrat ni bilo več tistih najslabših.
Zdaj:
- lahko trdimo, da je algoritem pristranski (pa dejanskih dokazov nisi pokazal, razen argumenta, da kdor se s teboj ne strinja, ne razume)
- lahko pa privzamemo, da se učitelji vsaj malo gredo tudi uravnilovko in tistim najslabšim pač niso sposobni tako brutalno dati sporočila, da niso tako zelo sposobni, kot to naredi algoritem (poglej distribucijo rezultatov po posameznih razredih).
Jaz sem skeptičen, ko me nekdo prepričuje da model, ki sicer temelji na zakonu velikih števil, ne deluje. Večkrat deluje, samo ljudje si nočejo priznati rezultatov.

Mato989 ::

Mene moti kako je lahko algoritem neenakomerno falil....

To mi daje mislit da so v teh bojda revnih predelih ucitelji prevec popustljive... Ker ce je nekaj narobe z algoritmom bi bila statisticna napaka vsepovsod podobna, ne pa da je razlika tako visoka
Če sem pomagal, se priporočam za uporabo linka!
KUCOIN EXCHANGE link: https://www.kucoin.com/#/?r=E3I9Ij
BINANCE EXCHANGE link: https://www.binance.com/?ref=10161115

Greg91 ::

Aggressor je izjavil:

Greg91 je izjavil:

Algoritem kot tak v nobenem primeru ni pristranski. Pristranski so lahko ljudje in podatki, ki so bili uporabljeni za učenje. Algoritem je samo postavil ogledalo dosedanjemu sistemu. Za piko na i, pa ti veleumi algoritem "obdolžijo" pristranskosti na podlagi primerjave ocen s predvidenimi ocenami učiteljev, za katere prav tako z gotovostjo ne moremo trditi da so nepristranki. Danes se pa lahko že dobesedno vsak ukvarja s strojnim učenjem. :8)


Mogoče se res na prvi pogled sliši čudno, da označiš nek algoritem za pristranski, ampak to je uveljavljena ugotovitev, če ti je všeč ali ne. Algorithmic bias je de facto danes prepoznan kot eden glavnih problemov globokega učenja, in to od vseh, tudi najbolj uglednih strokovnjakov.


Če smo pikolovski, algoritem ni stvar, ki bi nastala sama od sebe. Torej je strogo gledano v končni fazi lahko pristranski samo človek, ki je algoritem zasnoval. V vseh teh zgodbah še najbolj moti stvar, da na koncu pisci takšnih člankov, komentatorji teh člankov oz. na splošno celotna javnost, vse skupaj zreducira na pristranskost algoritma.

Pri uporabi recimo bolj konvencionalnih pristopov strojnega učenja kjer je feature extraction delan ročno, lahko do tega pride hitreje, ne nujno namenoma, lahko tudi zaradi človeške napake. Medtem ko pri izgradnji napovednih modelov z uporabo naprednih metod strojnega učenja pristranskost v veliki meri izhaja iz pristranskosti podatkov. Če citiram avtorja ML ogrodja Keras, Francois Chollet: "Algorithmic biases could be hard-coded by the implementer, or could come from a biased choice of features, or could come from biased data (all data being biased in some way), or could simply arise from spurious correlations (overfitting). Math/computers are a detail in the story.".

Ali če vzamemo praktični primer. Če pogledamo rezultate Google iskanja, lahko dobimo rezultate, ki so pristranski, zaradi tega ker bazirajo na realnih podatkih. In tukaj je srž problema, sprejeti je potrebno odločitev. Na izbiro imamo ali se prikažejo rezultati, ki predstavljajo realnost (bazirani na realnih podatkih), da je na primer velika večina CEO moških ali pa želimo, da se prikažejo drugačni rezultati, ker se zavedamo potencialnih vplivov na ljudi? Torej želimo rezultate narediti nepristranske? Odgovora na to vprašanje nam ne bo dal algoritem, na to bomo morali odgovoriti sami. Algoritem ne bo rešil etičnih vprašanj niti ne bo delal etičnih odločitev. Je zgolj orodje.

Tudi Dr. Yann LeCun, eden izmed prejemnikov je bil deležen plaza kritik ko je objavil tale tvit:
"People are biased.
Data is biased, in part because people are biased.
Algorithms trained on biased data are biased.
But learning algorithms themselves are not biased.
Bias in data can be fixed.
Bias in people is harder to fix."


Ljudje se premalo zavedate, da odločitve napovednih modelov bazirajo do sedaj zbranih podatkih in da če bi popolnoma enak model učili na drugačnih podatkih bi se ta obnašal drugače.

Še enkrat, algoritmi strojnega učenja ne rešujejo etičnih odločitev. Vse kar lahko podatkovni znanstvenik naredi je, da poskrbi, da napovedni model pristranskosti ne poudarja, kar jim žal v tem primeru ni uspelo. Vse ostalo spada v bolj sociološko domeno in je naloga strokovnjakov s tega področja na povlečejo uravnilovko in definirajo kaj v podatkih je/ni pristransko in kako to popraviti, da bo prav.

Kar se pa tiče te amaterske primerjave ocen med napovednim modelom in učitelji pa je tako. Z znastvenega stališča bi bila edina smiselna in veljavna primerjava kjer bi vzporedno bilo izvedeno klasično preverjanje znanja ter izračunan ocene s pomočjo algoritma, v kolikor seveda predpostavimo, da so učitelji objektivni oz. zanemarimo njihovo pristranskost.

Aggressor ::

@Greg91:

Pa saj se večjidel strinjava, oziroma prerekava samo okoli semantike. Vse, kar si napisal, dobro poznam in na to nimam pripomb. Saj je jasno, da algoritem nima zavesti in ne more biti pristranski v človeškem smislu. Okoli tega nikoli ni bilo dvoma in tudi tisti, ki označujejo algoritme za pristranske (torej, vsa stroka), s tem ne mislijo na zavestno delovanje, temveč na naučene vzorce. In seveda - ko pride do polomije in se takšni vzorci razkrijejo, je treba popravit tako algoritme kot siceršnje družbene razmere. Samo pač, s sporazumevalnega vidika je vseeno enostavneje, če se tudi algoritme kot take označi za pristranske. Razen, če imaš kak boljši predlog?
en CRISPR na dan odžene zdravnika stran

chort ::

Greg91, modelu se ne očita _krivde_ za pristranskost, očita se mu lastnost pristranskosti.
Seveda se da večino pristranskosti odpraviti z nadzorovanim treningom in nadzorovanjem pristranskosti, ampak očitno pri tem primeru ni šlo vse po željah/načrtih. Običajno je temu razlog napačen nabor vhodnih podatkov, vsaj po mojih (omejenih) izkušnjah pa tudi jebivetrstvo oziroma nerazumevanje nadzornika.

FrRoSt ::

MrStein je izjavil:

Mavrik je izjavil:


Če bi dejansko prebral novico bi pogruntal da je algoritem podcenil znanje revnih in jih je hotel izključiti z univerz.

Algoritmi nimajo volje in ne morejo karkoli hoteti.

Zato pa je ključno razumevanje in dojemanje ZADNJEGA odstavka članka/novice! ;) Menda bi ga lahko poimenovali kar ZAKON! 8-)
Noben človek ni otok, popolnoma sam zase; smrt slehernega človeka vzame
del mene, ker pripadam človeški vrsti; in zato nikdar ne pošiljaj poizvedovat,
komu zvoni; zvoni tebi.

joze67 ::

Prva manjša težava celotnega postopka je bila, da se je za manjše razrede (do 15 dijakov) uporabilo kar ocene učiteljev, šele za večje pa so aplicirali korekcijske faktorje. Manjši razredi so seveda povečani z večjimi stroški in so zato lastnost bogatih šol, zasebnih šol, šol bogatih. In tu ne gre za neki deep learning, ampak enostavno odločitev ljudi.
(vir)
«
1
2


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo
»

Zaključevanje ocen (strani: 1 2 )

Oddelek: Šola
6519333 (16997) DOOM_er
»

Ocenjevanje domačih nalog (strani: 1 2 )

Oddelek: Šola
8318212 (16367) Invictus
»

kazenski test 13. junij, a ni da 2 tedna pred koncem... (strani: 1 2 )

Oddelek: Šola
779695 (8275) ERGY

Več podobnih tem