Novice » Ostale najave » Apple ima težavo s pristranskim algoritmom za plačevanje
::
Saj je Hipatija že vse bistveno povedala kar se tiče problematike pristranskosti. Matematično logično je program lahko povsem korekten. A matematično logično je lahko za nekatere zelo kruto. Človekova humanost je tu zato, da to krutost blaži, ne pa potencira.
o+ nevone
Saj zato pa se postavlja vprašanje, ali take algoritme sploh hočemo. Njihova žrtev ne bodo le marginalizirane skupine, ampak kdorkoli. Primeri marginaliziranih skupin so le bolj odmevni. V primeru, da bodo zavarovalnice profilirale stranke po različnih parametrih, od starosti, kraja bivanja, barve avtomobila in podobnega, boš lahko dobil dražje zavarovanje za avto kakor sosed, ki ima isti avto v drugi barvi.
nevone ::
Saj zato pa se postavlja vprašanje, ali take algoritme sploh hočemo.
Seveda jih hočemo, vendar bo treba začeti razmišljati kako jim vgraditi neke stopnje humanosti.
o+ nevone
Either we will eat the Space or Space will eat us.
gruntfürmich ::
kako jim vgraditi neke stopnje humanosti.tako da bodo rezultate požegnali levičarji!
drugače bodo prepovedani. zagotovo.
"Namreč, da gre ta družba počasi v norost in da je vse, kar mi gledamo,
visoko organizirana bebavost, do podrobnosti izdelana idiotija."
Psiholog HUBERT POŽARNIK, v Oni, o smiselnosti moderne družbe...
visoko organizirana bebavost, do podrobnosti izdelana idiotija."
Psiholog HUBERT POŽARNIK, v Oni, o smiselnosti moderne družbe...
gus5 ::
Seveda jih hočemo, vendar bo treba začeti razmišljati kako jim vgraditi neke stopnje humanosti.Nauk zgodbe o Applovih pristranskih algoritmih je, da so se algoritmi pristranskosti naučili v interakciji z okoljem. Nič novega, tudi Microsoftova virtualna sogovornica Tay je že po nekaj urah obratovanja govorila kot nacistka in pozivala k zažiganju feministk, kljub temu da njenih algoritmov niso spisali nacisti in moški šovinisti. Problem je v družbenem okolju, v katerega je ustvarjena AI. T. j. problem je, da AI še prehitro postane človeška, ne v tem, da je premalo človeška oz. ne-človeška.
nevone ::
Seveda jih hočemo, vendar bo treba začeti razmišljati kako jim vgraditi neke stopnje humanosti.Nauk zgodbe o Applovih pristranskih algoritmih je, da so se algoritmi pristranskosti naučili v interakciji z okoljem. Nič novega, tudi Microsoftova virtualna sogovornica Tay je že po nekaj urah obratovanja govorila kot nacistka in pozivala k zažiganju feministk, kljub temu da njenih algoritmov niso spisali nacisti in moški šovinisti. Problem je v družbenem okolju, v katerega je ustvarjena AI. T. j. problem je, da AI še prehitro postane človeška, ne v tem, da je premalo človeška oz. ne-človeška.
Bolj humani ne pomeni bolj podobni človeku, sploh če je ta nehuman, ampak bolj prijazni človeku, seveda v okviru mogočega. Tu se pojavlja problem iskanja optimuma, ki bazira na izločanju, čeprav bi vsi parametri lahko dali tudi bolj human rezultat.
o+ nevone
Either we will eat the Space or Space will eat us.
BigWhale ::
Pa če je res, da so imele gospe s temi Apple težavicami skupne račune z gospodi.. meni se zdi kar logično, da se ne more na en račun obesiti več enakih limitov. Prvi ja, za drugega se pa 20x manj sliši kar prav. Ali pa naj se prvemu razpolovi in razdeli med oba enako.
Al pa ce bi mogoce prebral novico in kaksen komentar, a? V nekaj primerih so zenske dobile manj limita, ceprav so zasluzile enako ali vec in imele enak ali boljsi credit score. Sicer pa nikjer ni blo govora o skupnih racunih ampak o skupni oddaji davcne napovedi.
FormerUser ::
AI na plano privleče dejstva.
To nikoli ni bilo sporno, sporno je sprenevedanje, da algoritem iz seksističnih vhodnih podatkov daje ven nevtralne rezultate. Če se AI uči na podatkih, ki diskriminirajo ženske pri dajanju kreditov in zagonskih sredstev, tudi rezultati ne morejo biti drugačni, le da imajo odgovorni sedaj priročen izgovor v algoritmu in njegovih misterioznih poteh.
"There are plenty of valid reasons why women might not qualify for loans. The business proposals might not be robust enough. Their credit scores might not be high enough. But one study, published by the Institute of Government & Public Affairs and based on an analysis of lending in Chicago, found that even after adjusting the data to take into account factors like creditworthiness, gender has a dramatic impact on both access to loans and the size of the credit line a bank will grant to a small business owner. Not surprisingly, so does race."
"It turns out that backers of startup companies prefer to invest their money with attractive men than any women, whether attractive or not – even if the content of the business proposals is identical.
It’s not surprising, therefore, that women aren’t just at a disadvantage in the universe of bank lending, but in the venture capital universe, where less than 7% of all venture capital funds are allocated to companies founded by women. The Silicon Valley “bros” fund guys who look like them."https://www.theguardian.com/business/us...
windigo ::
FormerUser je izjavil:
The Silicon Valley “bros” fund guys who look like them.
Urbane legende pravijo, da če si hotel pred 50 in več leti nazaj v VB priti do kakšnih sredstev, je bil del prverbe tudi to, kakšne nogavice nosiš: kratke nogavice so pomenile, da si nezaupanja vreden povzpetnik s sumljivimi nameni, medtem ko so črne dokolenke s podvezicami pomenile, da si lahko kulturen, časten in zaupanja vreden mož, ki mu gre zaupati tuja sredstva. Seveda so bile nogavice nadomestek za slavno angleško razredno pripadnost, delno pa tudi za omejenost bankirjev, ki niso znali ocenjevati ljudi, ki so drugačni, kot so sami. Ne vem, ali imajo v ZDA danes že nove razrede, glede na to, kako jim je padla družbena mobilnost, bistveno bolj brihtni, kot so bili Angleži pred leti, najbrž niso, bojim se zato, da še zmeraj ne znajo/znamo delati z ljudmi, ki so precej drugačni od njih/nas. V silicijevi dolini so pač obogateli nekateri geeki, ki jim videz in stil ni bil ravno bil bistven in ti zdaj financirajo sebi podobne, kjer še lahko ločijo kakšne nianse. Filmski producenti so bili pa recimo večinoma židje, poleg slavnih igralcev in režiserjev. Je pa res dosežek, da ženske vodijo največje proizvajalce orožja.
BigWhale ::
FormerUser je izjavil:
To nikoli ni bilo sporno, sporno je sprenevedanje, da algoritem iz seksističnih vhodnih podatkov daje ven nevtralne rezultate. Če se AI uči na podatkih, ki diskriminirajo ženske pri dajanju kreditov in zagonskih sredstev, tudi rezultati ne morejo biti drugačni, le da imajo odgovorni sedaj priročen izgovor v algoritmu in njegovih misterioznih poteh.
Ne vemo kaksni so bili vhodni podatki in na cem so se ucili.
windigo ::
O razlikah med korelacijo in kavzalnostjo oz. zakaj je dobro imeti ime Jared in igrati lacrosse.
xmetallic ::
Saj je Hipatija že vse bistveno povedala kar se tiče problematike pristranskosti. Matematično logično je program lahko povsem korekten. A matematično logično je lahko za nekatere zelo kruto. Človekova humanost je tu zato, da to krutost blaži, ne pa potencira.
Humano lahko banke vsem odobrijo 20 000EUR limita. Kdo bo te dolgove vrnil? Pri zadolževanju mora biti vse po matematiki sicer se bo marsikdo težko izvlekel ven iz minusa.
Zgodovina sprememb…
- spremenilo: xmetallic ()
jype ::
Al pa ce bi mogoce prebral novico in kaksen komentar, a? V nekaj primerih so zenske dobile manj limita, ceprav so zasluzile enako ali vec in imele enak ali boljsi credit score. Sicer pa nikjer ni blo govora o skupnih racunih ampak o skupni oddaji davcne napovedi.Dokler ima slo-tech take moderatorje, je logično, da bo ostal farma za rejo šovinističnih gnid.
Kdo bo te dolgove vrnil?Moški ne, glede na to da vse zapijete.
Zgodovina sprememb…
- predlagal izbris: thramos ()
xmetallic ::
FormerUser je izjavil:
To nikoli ni bilo sporno, sporno je sprenevedanje, da algoritem iz seksističnih vhodnih podatkov daje ven nevtralne rezultate. Če se AI uči na podatkih, ki diskriminirajo ženske pri dajanju kreditov in zagonskih sredstev, tudi rezultati ne morejo biti drugačni, le da imajo odgovorni sedaj priročen izgovor v algoritmu in njegovih misterioznih poteh.
Kateri so to seksistični vhodni podatki? Algoritem na vhod ni dobil podatka o spolu. Dobil je podatke o prihodkih, odhodkih, (ne)plačilni disciplini, verjetno še kakšno zgodovino porabe denarja. Algoritem je izpljunil ven rešitev na podlagi zgodovine poslovanja z banko in ne na podlagi spola, ker tega podatka nima. Bodisi se namerno sprenevedaš bodisi ne razumeš kako strojno učenje deluje.
nevone ::
Humano lahko banke vsem odobrijo 20 000EUR limita.
Lahko, če se bo humano porabil. Ampak denar ni najpomembnejša stvar, dolgoročno.
o+ nevone
Either we will eat the Space or Space will eat us.
xmetallic ::
FormerUser ::
Je pa res dosežek, da ženske vodijo največje proizvajalce orožja.
Po mojem, to ni naključje ampak del PR-ja, tako kot ne to, da posiljevalce v najbolj razvpitih primerih zastopajo ženske odvetnice.
Ne vemo kaksni so bili vhodni podatki in na cem so se ucili.
Vemo pa kakšni so rezultati, vemo tudi, da se algoritem uči na preteklih podatkih in imamo raziskave, ki kažejo, da so ti diskriminatorni. Zakaj se sploh kdorkoli čudi, če so takšni tudi rezultati? Meni je to povsem logično.
Zgodovina sprememb…
- spremenilo: FormerUser ()
FormerUser ::
Algoritem na vhod ni dobil podatka o spolu.
Ni bilo treba, ker ga je lahko razbral iz drugih parametrov, vzorci, ki so značilni za ženske so očitno označeni kot znak manjše zanesljivosti, kar je povsem v skladu s splošnimi stereotipi o ženskah kot impulzivnih šopoholičarkah, ki zapravljajo denar za neumnosti.
poweroff ::
Tole s podatki povsem drži. Če so podatki pristranski, bodo tudi rezultati modela pristranski.
Smo pa imeli glede tega ravno pred kratkim s kolegi debato. In prišli do zaključka, da so sicer najbolj problematični podatki, ampak pristranski je pa lahko tudi sam algoritem.
Smo pa imeli glede tega ravno pred kratkim s kolegi debato. In prišli do zaključka, da so sicer najbolj problematični podatki, ampak pristranski je pa lahko tudi sam algoritem.
sudo poweroff
nevone ::
In prišli do zaključka, da so sicer najbolj problematični podatki, ampak pristranski je pa lahko tudi sam algoritem.
Če dela na vzorcu pač dela na vzorcu in bo vzorec tudi ponavljal oziroma ga prilagajal glede na novo situacijo. Ali so v tem primeru problem podatki, ali je algoritem pristranski?
o+ nevone
Either we will eat the Space or Space will eat us.
xmetallic ::
FormerUser je izjavil:
Ni bilo treba, ker ga je lahko razbral iz drugih parametrov, vzorci, ki so značilni za ženske so očitno označeni kot znak manjše zanesljivosti, kar je povsem v skladu s splošnimi stereotipi o ženskah kot impulzivnih šopoholičarkah, ki zapravljajo denar za neumnosti.
Ne razumeš kako deluje strojno učenje. Nihče ničesar ne označuje. Algoritem dobi anonimizirane podatke in iz njih sam poišče korelacije. Na vsak način skušaš izsiliti diskriminacijo, ki je v tem primeru ni.
xmetallic ::
Ej, xmetallic!
P&G je uspešno javnosti predstavil obstoj drugih podjetij, ki se ukvajajo z izdelavo podobnih izdelkov. P&G je s ponosom objavil svoje finančne rezultate za Gillette. Milijardne izgube. Medtem je konkurenca že obesila portrete Kim Gehrig po svojih poslovnih prostorih.
Zgodovina sprememb…
- spremenilo: xmetallic ()
Okapi ::
Diskriminacija se lahko zgodi že pri tem, katere podatke algoritem sploh obdeluje. Ker ne obdeluje vseh, ampak samo tiste, ki so jih ljudje določili za pomembne. In anonimizacija je prav tako lahko vzrok diskriminacije, ker lahko na ta način napačno ocenjuješ določen podatek. Podatek mora biti ovrednoten v pravek kontekstu, da dobi pravilno informacijsko vrednost.FormerUser je izjavil:
Ni bilo treba, ker ga je lahko razbral iz drugih parametrov, vzorci, ki so značilni za ženske so očitno označeni kot znak manjše zanesljivosti, kar je povsem v skladu s splošnimi stereotipi o ženskah kot impulzivnih šopoholičarkah, ki zapravljajo denar za neumnosti.
Ne razumeš kako deluje strojno učenje. Nihče ničesar ne označuje. Algoritem dobi anonimizirane podatke in iz njih sam poišče korelacije. Na vsak način skušaš izsiliti diskriminacijo, ki je v tem primeru ni.
Zgodovina sprememb…
- spremenil: Okapi ()
gus5 ::
Očitno izraz 'human' pojmuješ v okvirih ideologije humanizma. Torej - motijo te algoritmi, ki so spisani nepristransko; meniš, da bi jih morali že njihovi pisci ideološko uravnotežiti. OK.Seveda jih hočemo, vendar bo treba začeti razmišljati kako jim vgraditi neke stopnje humanosti.Nauk zgodbe o Applovih pristranskih algoritmih je, da so se algoritmi pristranskosti naučili v interakciji z okoljem. Nič novega, tudi Microsoftova virtualna sogovornica Tay je že po nekaj urah obratovanja govorila kot nacistka in pozivala k zažiganju feministk, kljub temu da njenih algoritmov niso spisali nacisti in moški šovinisti. Problem je v družbenem okolju, v katerega je ustvarjena AI. T. j. problem je, da AI še prehitro postane človeška, ne v tem, da je premalo človeška oz. ne-človeška.
Bolj humani ne pomeni bolj podobni človeku, sploh če je ta nehuman, ampak bolj prijazni človeku, seveda v okviru mogočega. Tu se pojavlja problem iskanja optimuma, ki bazira na izločanju, čeprav bi vsi parametri lahko dali tudi bolj human rezultat.
jype ::
Ne razumeš kako deluje strojno učenje.Hecno, kako to reče nekdo, ki nima pojma o tem.
Milijardne izgube.Kakšna sreča, da lahko tvoje navedbe ljudje preverijo in vidijo, da si se zlagal, ker se tvoji znežinkasti možgani ne zmorejo soočiti z dejstvi.
Algoritem dobi anonimizirane podatke in iz njih sam poišče korelacije.Skratka, nacisti niso ljudje in za človeštvo je najbolje, da se jih čimprej iztrebi. To pravi algoritem. Algoritem tudi pravi, da si ti neonacist.
Zgodovina sprememb…
- spremenilo: jype ()
gus5 ::
Popravek: Torej - motijo te algoritmi, ki so spisani nepristransko; meniš, da bi jih morali že njihovi pisci spisati ideološko pristransko.Očitno izraz 'human' pojmuješ v okvirih ideologije humanizma. Torej - motijo te algoritmi, ki so spisani nepristransko; meniš, da bi jih morali že njihovi pisci ideološko uravnotežiti. OK.Seveda jih hočemo, vendar bo treba začeti razmišljati kako jim vgraditi neke stopnje humanosti.Nauk zgodbe o Applovih pristranskih algoritmih je, da so se algoritmi pristranskosti naučili v interakciji z okoljem. Nič novega, tudi Microsoftova virtualna sogovornica Tay je že po nekaj urah obratovanja govorila kot nacistka in pozivala k zažiganju feministk, kljub temu da njenih algoritmov niso spisali nacisti in moški šovinisti. Problem je v družbenem okolju, v katerega je ustvarjena AI. T. j. problem je, da AI še prehitro postane človeška, ne v tem, da je premalo človeška oz. ne-človeška.
Bolj humani ne pomeni bolj podobni človeku, sploh če je ta nehuman, ampak bolj prijazni človeku, seveda v okviru mogočega. Tu se pojavlja problem iskanja optimuma, ki bazira na izločanju, čeprav bi vsi parametri lahko dali tudi bolj human rezultat.
nevone ::
Popravek: Torej - motijo te algoritmi, ki so spisani nepristransko; meniš, da bi jih morali že njihovi pisci spisati ideološko pristransko.
Ne. Prva formulacija je bolj pravilna.
Pristranskost je v bistvu vgrajena v sistem, in jo je potrebno anulirati. Vsi sistemi do sedaj funkcionirajo tako, da nekoga favorizirajo in tistim, ki so na ta način favorizirani, se zdi, da je to dobro, ker pač mislijo, da so boljši od drugih. Ni problem, da se ne bi dobrim stvarem dajalo prednosti, ampak da se glede na danosti prilagodi tako, da je za vse ljudi znosno. Tehnološki napredek je proizvajanje dobrin toliko olajšal, da je nujno prekiniti ta favorizirajoči model in narediti nekaj boljšega. Saj mnogo ljudi to že počne kolikor je v njihovi moči, nekateri pa enostavno mislijo, da je zgodovina že vse povedala, in da je to kar imamo optimalno, ali pa vsaj toliko vsidrano, da se ne da nič spremeniti.
Ampak kot pravijo: Kjer je volja tam je pot.
o+ nevone
Either we will eat the Space or Space will eat us.
gus5 ::
Pisci algoritmov chat-bota Tay so bili nacisti, pisci algoritmov Apple Card pa falocentriki? Govoriš na pamet?Popravek: Torej - motijo te algoritmi, ki so spisani nepristransko; meniš, da bi jih morali že njihovi pisci spisati ideološko pristransko.
Ne. Prva formulacija je bolj pravilna.
Pristranskost je v bistvu vgrajena v sistem, in jo je potrebno anulirati.
nevone ::
Pristranskost je vkomponirana v sistem, pri čemer je sistem praktično vsa interakcija med ljudmi.
Matematični modeli, ki krmilijo odločitvene algoritme, so napisani v namen večanja izkoristka, a to lahko pomeni, da brez obotavljanja pomedejo s členi, ki bi kakorkoli lahko sistem oslabili. Zato je treba optimalnost algoritmov, ki vedno favorizirajo najboljše nekoliko omiliti. Brez dogovora to ne bo mogoče, ker nas inercija izključevalne evolucije poriva v to smer.
o+ nevone
Matematični modeli, ki krmilijo odločitvene algoritme, so napisani v namen večanja izkoristka, a to lahko pomeni, da brez obotavljanja pomedejo s členi, ki bi kakorkoli lahko sistem oslabili. Zato je treba optimalnost algoritmov, ki vedno favorizirajo najboljše nekoliko omiliti. Brez dogovora to ne bo mogoče, ker nas inercija izključevalne evolucije poriva v to smer.
o+ nevone
Either we will eat the Space or Space will eat us.
bbf ::
Popravek: Torej - motijo te algoritmi, ki so spisani nepristransko; meniš, da bi jih morali že njihovi pisci spisati ideološko pristransko.
Ne. Prva formulacija je bolj pravilna.
Pristranskost je v bistvu vgrajena v sistem, in jo je potrebno anulirati. Vsi sistemi do sedaj funkcionirajo tako, da nekoga favorizirajo in tistim, ki so na ta način favorizirani, se zdi, da je to dobro, ker pač mislijo, da so boljši od drugih. Ni problem, da se ne bi dobrim stvarem dajalo prednosti, ampak da se glede na danosti prilagodi tako, da je za vse ljudi znosno. Tehnološki napredek je proizvajanje dobrin toliko olajšal, da je nujno prekiniti ta favorizirajoči model in narediti nekaj boljšega. Saj mnogo ljudi to že počne kolikor je v njihovi moči, nekateri pa enostavno mislijo, da je zgodovina že vse povedala, in da je to kar imamo optimalno, ali pa vsaj toliko vsidrano, da se ne da nič spremeniti.
Ampak kot pravijo: Kjer je volja tam je pot.
o+ nevone
Ne bo šlo. Če nisi favorit, te ne bodo obravnalil kot favorita. Če si favorit in te ne obravnavajo kot favorita, boš šel tja, kjer te. Brez favoritov niti ne bi prišli do sem. Vedno so bili in bodo favoriti. Lahko gledaš v ekonomijo, civilizacijo, naravo; v kateremkoli časovnem obdobju in razponu, vedno kdo potegne kratko. Sedaj pa anuliraj in naredi simulacijo.
gruntfürmich ::
v levem sistemu ni favoritov, zato bo vsak algoritem ki bi pokazal na neko boljšo varianto 'slab'. če bo pokazal na človeka ki ga bo favoriziral, in če bo ta človem heteroseksualen beli moški, bo ta algoritem šovinističen, rasističen, homofoben...
to je vsa resnica o algoritmih. ki se bo v prihodnosti še iskristalizirala, da jo boste še drugi videli.
to je vsa resnica o algoritmih. ki se bo v prihodnosti še iskristalizirala, da jo boste še drugi videli.
"Namreč, da gre ta družba počasi v norost in da je vse, kar mi gledamo,
visoko organizirana bebavost, do podrobnosti izdelana idiotija."
Psiholog HUBERT POŽARNIK, v Oni, o smiselnosti moderne družbe...
visoko organizirana bebavost, do podrobnosti izdelana idiotija."
Psiholog HUBERT POŽARNIK, v Oni, o smiselnosti moderne družbe...
Zgodovina sprememb…
- spremenil: gruntfürmich ()
nevone ::
Ne bo šlo. Če nisi favorit, te ne bodo obravnalil kot favorita. Če si favorit in te ne obravnavajo kot favorita, boš šel tja, kjer te. Brez favoritov niti ne bi prišli do sem. Vedno so bili in bodo favoriti. Lahko gledaš v ekonomijo, civilizacijo, naravo; v kateremkoli časovnem obdobju in razponu, vedno kdo potegne kratko. Sedaj pa anuliraj in naredi simulacijo.
Saj ni treba, da te obravnavajo kot favorita, le ni treba, da te obravnavajo kot smet. Ampak tukaj na forumu se lepo vidi, da povsem navadni ljudje skrbijo za to, da se "smeti" tudi povsem izloči. Dokler bomo igrali to igro, jo bomo pač igrali, tukaj jaz ne morem prav veliko, ampak glede na napredek, bi zagovoto to retoriko lahko vsaj malo omilili.
o+ nevone
Either we will eat the Space or Space will eat us.
bbf ::
Ne bo šlo. Če nisi favorit, te ne bodo obravnalil kot favorita. Če si favorit in te ne obravnavajo kot favorita, boš šel tja, kjer te. Brez favoritov niti ne bi prišli do sem. Vedno so bili in bodo favoriti. Lahko gledaš v ekonomijo, civilizacijo, naravo; v kateremkoli časovnem obdobju in razponu, vedno kdo potegne kratko. Sedaj pa anuliraj in naredi simulacijo.
Saj ni treba, da te obravnavajo kot favorita, le ni treba, da te obravnavajo kot smet. Ampak tukaj na forumu se lepo vidi, da povsem navadni ljudje skrbijo za to, da se "smeti" tudi povsem izloči. Dokler bomo igrali to igro, jo bomo pač igrali, tukaj jaz ne morem prav veliko, ampak glede na napredek, bi zagovoto to retoriko lahko vsaj malo omilili.
o+ nevone
Zapori so polni "smeti". Hoteli so bit pa favoriti, mogoče so v nekem trenutku celo bili. Sej verjamem, da nisi teh mislil, ampak ok, za oris ene in druge skrajnosti. Ne absolutno, ampak relativno favoriziranje je gonilo. Vsako podjetje, ki želi izposlovati najboljši zaslužek, bo favoriziralo določene povpraševalce glede na svoje izkušnje. Enako banke. Enako obrnjeno stranke. Normalno je tudi, da sebe favoriziraš.
nevone ::
Zapori so polni "smeti". Hoteli so bit pa favoriti, mogoče so v nekem trenutku celo bili. Sej verjamem, da nisi teh mislil, ampak ok, za oris ene in druge skrajnosti. Ne absolutno, ampak relativno favoriziranje je gonilo. Vsako podjetje, ki želi izposlovati najboljši zaslužek, bo favoriziralo določene povpraševalce glede na svoje izkušnje. Enako banke. Enako obrnjeno stranke. Normalno je tudi, da sebe favoriziraš.
Seveda, samo po sebi je favoriziranje koristno, vprašanje je le v kakšni meri in s koliko pameti in empatije.
o+ nevone
Either we will eat the Space or Space will eat us.
zuzelka ::
nevone ::
Zato je treba optimalnost algoritmov, ki vedno favorizirajo najboljše nekoliko omiliti.
A ko greš k zdravniku rečeš da nočeš najboljšega?
Ne, ne rečem, ampak se tudi ne mečem na trepalnice, če dobim drugo ali tretjo ali četrto dobro stvar po vrsti, ki je boljša kot nič. Sčasoma pa vedno več ljudi dobi vedno boljše stvari.
o+ nevone
Either we will eat the Space or Space will eat us.
MrStein ::
Zdravnik je tule slab primer, ker pogosto nimaš neke izbire, niti ne veš, kateri je boljši in kateri slabši.
Motiti se je človeško.
Motiti se pogosto je neumno.
Vztrajati pri zmoti je... oh, pozdravljen!
Motiti se pogosto je neumno.
Vztrajati pri zmoti je... oh, pozdravljen!
windigo ::
A ko greš k zdravniku rečeš da nočeš najboljšega?
Če me bo znal pozdraviti, je zadosti dober, ne rabim ravno ta-naj-naj-ta-naj-naj-ta-boljšega.
N. Borlaugh, je veliko prispeval k učinkovitosti pridelave hrane, brez njega ali pa vsaj njemu podobnih, bi se spopadali s precej resnejšim problemom pomanjkanja hrane, kot pa so distribucijski in računovodski problemi. In tukaj se mi zdi nadvse primerno spodbujati kar se da visoko učinkovitost in s tem tudi favoritiziranje tistih, ki lahko k temu prispevajo. Prav tako bom podprl favoritiziranje tistih, ki bi lahko znatno prispevali k ohranitvi planeta kot ekosistema za prihodnje generacije nas in drugih živih bitij na planetu.
jype ::
Prav tako bom podprl favoritiziranje tistih, ki bi lahko znatno prispevali k ohranitvi planeta kot ekosistema za prihodnje generacije nas in drugih živih bitij na planetu.Razumeti moraš, da so eni psihološko odvisni od tega, da vsak dan vidijo nepotrebno trpljenje, da njihova bedna eksistenca v kapitalizmu, ki z njimi ravna kot z artiklom s poškodovano embalažo, ostane vsaj približno znosna, ker si lahko domišljajo, da "bi lahko bilo slabše".
xmetallic ::
Pristranskost je vkomponirana v sistem, pri čemer je sistem praktično vsa interakcija med ljudmi.
Matematični modeli, ki krmilijo odločitvene algoritme, so napisani v namen večanja izkoristka, a to lahko pomeni, da brez obotavljanja pomedejo s členi, ki bi kakorkoli lahko sistem oslabili. Zato je treba optimalnost algoritmov, ki vedno favorizirajo najboljše nekoliko omiliti. Brez dogovora to ne bo mogoče, ker nas inercija izključevalne evolucije poriva v to smer.
Algoritem nikogar ne favorizira. Niti ne izbira najboljše. Na podlagi podatkov določi v katero skupini spadaš. Zmotno meniš, da model favorizira najboljše. Model na podlagi podatkov, zgodovine deset tisočih, milijonov uporabnikov določi verjetnos s katero bo nekdo bil (ne)zmožen odplačati svoje obveznosti. V poenostavljenem jeziku, če se iz zgodivinskih podatkov izkaže, da ljudje s 700EUR mesečnih prejemkov, in povprečno mesečno porabo 600EUR (karikiram) pogosto zamujajo s plačili, bodo ljudje s podobnimi navadami klasificirani enako - v tem primeru kot rizična oseba. To banke počnejo že desetletja, le da so do sedaj to počeli na roke in niso mogli preverjati tako velikega števila dejavnikov, ki bi lahko vplivali na (ne)zmožnost poravnave dolgov. Tehnologija danes pa omogoča, da to delo prevzamejo računalniki in pri oceni tveganja upoštevajo vse možne dejavnike, zgodovino kartičnega poslovanja, nakupe, zaposlitev, ali se ukvarjaš z igrami na srečo, itd,.
Zgodovina sprememb…
- spremenilo: xmetallic ()
poweroff ::
Ni res.
Preberi si o temle primeru:
https://www.weforum.org/agenda/2018/11/...
Preberi si o temle primeru:
https://www.weforum.org/agenda/2018/11/...
However, an investigative report by ProPublica found that these algorithms tend to reinforce racial bias in law enforcement data. Algorithmic assessments tend to falsely flag black defendants as future criminals at almost twice the rate as white defendants.
...
If the underlying data is biased in any form, there is a risk that structural inequalities and unfair biases are not just replicated, but also amplified.
sudo poweroff
xmetallic ::
Kako je to primerljivo z bančnim primerom? Jaz nisem napisal, da so algoritmi vedno de facto unbiased temveč da je v tem jabolkovem primeru povsem možno, da je na podlagi unbiased podatkov prišel do takšnih zaključkov. V tvojem primeru so uporabili podatke, odločitve, ki jih so jih "generirali" ljudje. Zato je tudi model sprejemal takšne odločitve kakršne so sprejemali ljudje. V tem bančnem primeru pa predvidevam, da za input niso uporabili pretekle odločitve bančnikov temveč so uporabili podatke tipa plačilna (ne)disciplina, prihodki, odhodki...
Zgodovina sprememb…
- spremenilo: xmetallic ()
poweroff ::
In kdo določa kaj je plačilna nedisciplina?
Ker ravno na to temo imaš v ZDA precej primerov, ko so nekoga napačno klasificirali kot nerednega plačnika...
Ker ravno na to temo imaš v ZDA precej primerov, ko so nekoga napačno klasificirali kot nerednega plačnika...
sudo poweroff
windigo ::
V tem bančnem primeru pa predvidevam, da za input niso uporabili pretekle odločitve bančnikov temveč so uporabili podatke tipa plačilna (ne)disciplina, prihodki, odhodki...
To potemtkem ni AI, ampak "klasičen" model vrednotenja tveganj, ki morda obravnava nekaj več podatkov.
AI danes imenujemo tisto, kar lahko računalniki sami razberejo iz preteklih podatkov in to uporabijo za kasnejše ocene.
In tudi pri klasičnih modelih smo rekli, poznamo prikrit seksizem, recimo skozi drugačno obravnavo različnih kategorij izdatkov, ki pa bolj ali manj naključno dobro korelirajo s spolom.
Timurlenk ::
gruntfürmich je izjavil:
kako jim vgraditi neke stopnje humanosti.tako da bodo rezultate požegnali levičarji!
drugače bodo prepovedani. zagotovo.
Seveda je to absolutna nujnost, brez katere ne bo šlo, če ne bomo hoteli vsi izumreti. Jaz vem, da bi ti in tebi podobni radi poklali vse, ki vam niso všeč glede na barvo kože, spol, spolno usmerjenost ali obnašanje, vendar fašisti so bili svetovno poraženi in bodo kmalu spet.
Demokracija je zdej v drugem planu, to je vendar jasno.
gruntfürmich ::
"Namreč, da gre ta družba počasi v norost in da je vse, kar mi gledamo,
visoko organizirana bebavost, do podrobnosti izdelana idiotija."
Psiholog HUBERT POŽARNIK, v Oni, o smiselnosti moderne družbe...
visoko organizirana bebavost, do podrobnosti izdelana idiotija."
Psiholog HUBERT POŽARNIK, v Oni, o smiselnosti moderne družbe...
xmetallic ::
V tem bančnem primeru pa predvidevam, da za input niso uporabili pretekle odločitve bančnikov temveč so uporabili podatke tipa plačilna (ne)disciplina, prihodki, odhodki...
AI danes imenujemo tisto, kar lahko računalniki sami razberejo iz preteklih podatkov in to uporabijo za kasnejše ocene.
In zakaj točno ne bi mogli uporabiti zgodovine zgoraj navedenih atributov? Gre za povsem relevantne podatke iz katerih je možno izdelati model, ki se ga lahko uporablja za podajanje ocen.
xmetallic ::
In kdo določa kaj je plačilna nedisciplina?
Banka.
Ker ravno na to temo imaš v ZDA precej primerov, ko so nekoga napačno klasificirali kot nerednega plačnika...
Težko nekoga napačno klasificiraš kot nerednega plačnika. Ve se kdaj zapade obrok kredita, kreditne kartice, če ga do takrat nisi poravnal si neredni plačnik. Nobene tople vode tukaj ni za odkrivat.
Zgodovina sprememb…
- spremenilo: xmetallic ()
Vredno ogleda ...
Tema | Ogledi | Zadnje sporočilo | |
---|---|---|---|
Tema | Ogledi | Zadnje sporočilo | |
» | Google gre v bančništvoOddelek: Novice / Ostale najave | 8102 (5633) | poweroff |
» | Novosti iz ApplaOddelek: Novice / Apple iPhone/iPad/iPod | 10889 (8036) | aborko |
» | Apple bučno najavil sveženj svojih storitev (strani: 1 2 )Oddelek: Novice / Ostale najave | 17199 (13920) | bajsibajsi |