» »

Amazon je moral ukiniti pristranski AI za pomoč pri zaposlovanju

Amazon je moral ukiniti pristranski AI za pomoč pri zaposlovanju

vir: Reuters
Reuters - Amazon je bil v začetku lanskega leta primoran zapreti svoj oddelek, v katerem so razvijali umetno inteligenco za ocenjevanje kandidatov za zaposlitev, saj niso uspeli razviti algoritma, ki bi ne bil brezupno pristranski.

Strojna inteligenca zadnje čase leta visoko, zato je za prizemljitev koristno omeniti prigode, ki opozarjajo tudi na njene pomanjkljivosti. Eno takšnih so izbrskali pri Reutersu, kjer so odkrili, da je imel Amazon širokopotezne načrte z uporabo algoritmov pri zaposlovanju, ki pa so se večjidel sesuli v prah. V podjetju so od leta 2014 pospešeno razvijali AI, ki bi znala hitro sortirati med prijavami za zaposlitev, oziroma življenjepisi. Toda že v 2015 so pogruntali, da vrača hudo pristranske rezultate, saj je vse prijave, ki so vsebovale besedo "ženski", metala na dno lestvice. Ni se ustavila pri spolni diskriminaciji, temveč je obenem specifičnim slogom pisanja v prijavah dajala prednost pred navedenimi kompetencami ter izobrazbo, s tem pa proizvajala neuporabne predloge. Ker razvijalci kljub umetnim prilagoditvam algoritmov niso uspeli izboljšati njihove zanesljivosti, so oddelek v začetku leta 2017 naposled zaprli. V Amazonu so se na Reutersovo najdbo odzvali s trditvijo, da te AI "nikdar niso resno uporabljali pri odločitvah o zaposlovanju". Interni viri pravijo, da naj bi bila glavna zapuščina tega podviga softver, ki danes iz baz podatkov izloča podvojene življenjepise; obstajajo pa tudi namigi, da naj bi razvojno skupino zopet zaštartali.

Gre za tipičen primer pristranskosti AI, kar mnogi strokovnjaki označujejo za enega največjih današnjih problemov te tehnologije in zelo resno oviro na poti do vsesplošne uporabnosti. Težava namreč izvira iz temeljne narave strojne inteligence - dejstva, da se nevronske mreže učijo na stvarnih podatkih, ki so mnogokrat obremenjeni s predsodki, oziroma nesorazmerji družbe, iz katere izhajajo. Amazonov algoritem je bil pač rezultat pretekle prakse, kjer je bila večina zaposlenih v določenih segmentih podjetja moških, zato se jih je računalnik samodejno naučil postavljati višje na lestvici, ne glede na dejanske sposobnosti kandidatov. Če se takšne pristranskosti ne bomo lotili osredotočeno, bo vplivala na zaposlitvene priložnosti žensk, ker je pretekla zgodovina v znanosti in tehnologiji izrazito favorizirala moške. Nedavna raziskava je nakazala, da je bila to predvsem posledica družbenih pritiskov, ne pa študijskih uspehov.

107 komentarjev

strani: « 1 2 3

Utk ::

Torej bo zdaj še naprej človek delal natanko isto kot bi delal ta zlobni algoritem. On je iskal ljudi, ki jih bi zaposlil človek, ne pa "najboljših", kako pa naj on ve kateri so najboljši.

Markoff ::

Ker je tako težko nekatere parametre iz procesiranja izpustiti, npr. spol, raso, narodnost, višino, težko, starost, razen v mejnih primerih, ko bi takšna lastnost dejansko igrala pozitivno vlogo? Npr. starost delavca v težki proizvodnji, rasa ali narodnost delavca v predstavništvu v točno določeni državi v tujini ipd.?

Čudno je to učenje, ki se odloča izključno na podlagi sprejetih preteklih odločitev, ne pa na rezultatih preteklih odločitev.
Ad astra per aspera

Aggressor ::

Markoff je izjavil:

Ker je tako težko nekatere parametre iz procesiranja izpustiti ...


V nevronski mreži je težje prilagajati delovanje kot v nekem zaporednem postopku. Večinoma nimaš "stikala", ki bi ga lahko ročno pretaknil in izločil nek dejavnik. Lahko seveda izločiš cel segment inputa, ampak potem tvegaš, da bo tudi output prikrajšan v elementih, ki jih nisi predvidel, ker procesiranje ni lih linearno. Je pa jasno, da bodo skušali razvijalci te elemente AI v prihodnosti izboljšati.
professional noob

kallia ::

Ne vem zakaj zapravljajo čas in denar, če pa lahko njhov problem uredijo preprosto kot BBC:

Whites Need Not Apply: BBC Advertises 'Black, Asian, Or Minority'-Only Positions

Markoff je izjavil:

Ker je tako težko nekatere parametre iz procesiranja izpustiti, npr. spol, raso, narodnost, višino, težko, starost, razen v mejnih primerih, ko bi takšna lastnost dejansko igrala pozitivno vlogo? Npr. starost delavca v težki proizvodnji, rasa ali narodnost delavca v predstavništvu v točno določeni državi v tujini ipd.?

Čudno je to učenje, ki se odloča izključno na podlagi sprejetih preteklih odločitev, ne pa na rezultatih preteklih odločitev.


Če ne dajo affirmative action v programe je predlog AI zmeraj seksističen in rasističen.

Zgodovina sprememb…

  • spremenilo: kallia ()

Markoff ::

Žal se vsak anti (fašizem, seksizem, rasizem) na koncu sprevrže v svoje nasprotje, torej brez anti. Morda je bistvo problema v tem, da anti ne more obstajati brez substance, proti kateri se bori?

Hipoteza: Kaj pa, če je diskriminacija tako naravna, da AI preprosto ne more dati drugačnega rezultata, brez da vsiliš nevronski mreži določene vzorce?
(ne dajem vrednostne sodbe ali ponujam odgovora, temveč se glede na vsebino članka le sprašujem, ali bi bilo to celo mogoče)
Ad astra per aspera

WhiteAngel ::

Kar se Janezek nauči, to Janezek zna.

srnjak ::

Če algoritmu ne bi dali podatka o spolu, se na podlagi tega tudi odločati ne bi znal.

ZaphodBB ::

srnjak je izjavil:

Če algoritmu ne bi dali podatka o spolu, se na podlagi tega tudi odločati ne bi znal.

Ni težava, da se odloča po spolu. Težava je, da se odloča _narobe_.
"Naši dedje so se borili za to, da lahko odločamo
o lastni usodi - ne o usodi drugih ljudi." -jype

Utk ::

ZaphodBB je izjavil:

srnjak je izjavil:

Če algoritmu ne bi dali podatka o spolu, se na podlagi tega tudi odločati ne bi znal.

Ni težava, da se odloča po spolu. Težava je, da se odloča _narobe_.

Ne, odloča se tako kot so se prej 20 let odločali ljudje.

srnjak je izjavil:

Če algoritmu ne bi dali podatka o spolu, se na podlagi tega tudi odločati ne bi znal.

Sej mu ga ne dajo. On iz sloga pisanja ugotovi, da ta človek ni zaposljiv oz. takih ljudi v preteklosti ljudje niso zaposlovali. Slog je pa pri ženskah, nekaterih rasah in podobno, pač drugačen.

Zgodovina sprememb…

  • spremenil: Utk ()

kallia ::

srnjak je izjavil:

Če algoritmu ne bi dali podatka o spolu, se na podlagi tega tudi odločati ne bi znal.


Problem je ravno v temu da nima zapisano da mora izbrati 50/50 glede na spol.
Edina rešitev je da se odloča po affirmative action logaritmu, če mu ne daš vhodnega podatka o spolu se zmeraj odloči seksistično :D

Gagatronix ::

da mora izbrati 50/50 glede na spol


Ab moral?

ZaphodBB ::

Gagatronix je izjavil:

da mora izbrati 50/50 glede na spol


Ab moral?

Seveda bi moral. Vsi spoli so enaki! Vseh 75 njih!
"Naši dedje so se borili za to, da lahko odločamo
o lastni usodi - ne o usodi drugih ljudi." -jype

kallia ::

Jah, mega korporacije diskriminirajo na podlagi spola in rase. K sreči vsaj v športu niso tako primitivni.

Man "identifying" as woman wins women's world cycling championship

Zgodovina sprememb…

  • spremenilo: kallia ()

dice7 ::

Slotek snezinkice se sprozajo, ker v normalnem svetu njihovega spola ne tretirajo, kot kompetence

"Ampak poglej koliko moskih je na visokih polozajih, to sigurno pomeni, da me moj spol naredi bolj kvalificiranega!"

Zgodovina sprememb…

  • spremenil: dice7 ()

nekikr ::

kallia je izjavil:

Jah, mega korporacije diskriminirajo na podlagi spola in rase. K sreči vsaj v športu niso tako primitivni.

Man "identifying" as woman wins women's world cycling championship


Kar malce smešno je, ko hvalijo moškega, ki je premagal žensko konkurenco pri športu na moč.

Utk ::

Problem tega algoritma je samo v tem, da je pokazal ljudem kako so se odločali, tudi če nezavedno. Zato je ta algoritem hudičev. Očitno so raje zaposlovali moške, tistih nekaj žensk je bila napaka, ki je ta algoritem noče ponovit. Problem je v ljudeh, ki odločajo o tem, ne v algoritmu.

Dr_M ::

kallia je izjavil:

Jah, mega korporacije diskriminirajo na podlagi spola in rase. K sreči vsaj v športu niso tako primitivni.

Man "identifying" as woman wins women's world cycling championship




Bend Her @ Wikipedia
The reason why most of society hates conservatives and
loves liberals is because conservatives hurt you with
the truth and liberals comfort you with lies.

Markoff ::

nekikr je izjavil:

Kar malce smešno je, ko hvalijo moškega, ki je premagal žensko konkurenco pri športu na moč.

Že, že, ampak končno so ženske dobile kandidatko, ki se bo lahko enakovredno spopadla z moškimi v športu. ;((
Ad astra per aspera

pegasus ::

Markoff je izjavil:

Hipoteza: Kaj pa, če je diskriminacija [...] naravna,
Precej verjetno je, ker je v preteklosti evolucijsko gledano povečevala verjetnost preživetja. Zato so se enocelična bitja združila v večcelična in ustvarila prva "plemena", kjer so lahko začela razlikovati med "naši" in "vaši".

A na stvar lahko gledaš tudi iz druge plati: enocelična bitja so morala premagati medsebojne razlike, da so se lahko združila v večjo, bolj povezano strukturo. Odvreči nekaj lastne identitete, če hočeš. Za širše dobro :)

Vse to je zares zelo naravno. Ampak, ker se imamo ljudje za nekaj več od narave, smo sposobni presečt naravne vzgibe, ki nas porivajo stran od smeri "širše dobro". Saj smo ljudje, da? Ker če nismo, potem si zaslužimo enak tretma kot npr. živina v industrijski reji.

Iz česar sledi sklep, da ima jype s fojbiranjem nacijev prav 8-)

Dr_M ::

Iz česar sledi sklep, da ima jype s fojbiranjem nacijev prav 8-)


Ta novica pravi, da se jype in njemu podobni, motite. Razen, ce zavracate znanost.
The reason why most of society hates conservatives and
loves liberals is because conservatives hurt you with
the truth and liberals comfort you with lies.

ZaphodBB ::

dice7 je izjavil:

Slotek snezinkice se sprozajo, ker v normalnem svetu njihovega spola ne tretirajo, kot kompetence

"Ampak poglej koliko moskih je na visokih polozajih, to sigurno pomeni, da me moj spol naredi bolj kvalificiranega!"

Ne to se že ves čas sprožate SJW snežinkice.

1. SJW's always lie.
2. SJW's always project.
3. SJW's always double down.
"Naši dedje so se borili za to, da lahko odločamo
o lastni usodi - ne o usodi drugih ljudi." -jype

Markoff ::

@pegasus (@zadnji odstavek)
Oprosti, a tebi logika ni najbolj domača stvar. Fašist, ki ga omenjaš, bi rešil problem fašizma* s fašizmom. Kje se v tej ideji skriva človekoljubnost, spoštovanje do življenja in enakopravnost? Kje se v vsiljevanju kvot, po možnosti 50%, reši problem diskriminacije, če ne uvedeš kvot tudi za tiste, ki so bili prej privilegirani? Koliko časa bomo "pozitivno" diskriminirali zoper bivše diskriminatelje? Kaj bo to pomenilo za primernost oseb na dani funkciji / delovnem mestu, če bomo zaposlovali po takih ključih?

Zoper diskriminacijo se pameten, razgledan, strpen človek bori z izobraževanjem, ozaveščanjem in zgledom, ne z metanjem drugače mislečih v fojbe. To delajo (levi in desni) fašisti.

* Ki ga lahko tudi ustvarimo, če ga morda ni ali ga je premalo, le izmisliti si je treba fiktivne sovražnike, pretiravati v ocenah članstva povsem marginalnih nasilnih skupin, nato pa kar vse drugače misleče vreči v isto vrečo in nato v fojbe. Po pobojih se samookličemo za odrešitelje, levičarje/desničarje, svetnike ipd. itd. Do naslednje revolucije, ko se po možnosti obrnejo vloge.
Ad astra per aspera

michaelscott ::

Verjetno je večino delovnih mest bilo za skladišče, v tem primeru je boljše zaposliti moški spol in bi bilo upravičeno. Če pa je tako pa ne vemo. Seveda pa to ne pomeni, da ženska ne bi mogla delati v skladišču. Ne bi jim dišalo, razen določenemu tipu žensk.

Algoritma, ki ne more biti pristranski, ni mogoče narediti. Če ne bi bil pristranski bi vsakega dal za kandidata ali pa nikogar. Lahko edino dodajo prednost pri ženskah in poc, kakor imajo vse prestižne univerze v Ameriki.
Jutri?

bf4ed ::

srnjak je izjavil:

Če algoritmu ne bi dali podatka o spolu, se na podlagi tega tudi odločati ne bi znal.


Točno tako!
Zakaj je spol in rasa sploh postavka?
Ni pomembno.

kallia ::

bf4ed je izjavil:

srnjak je izjavil:

Če algoritmu ne bi dali podatka o spolu, se na podlagi tega tudi odločati ne bi znal.


Točno tako!
Zakaj je spol in rasa sploh postavka?
Ni pomembno.


Problem je, da ko v program ne vnesejo rase in spola se zgodi vedno eno in isto: rezultat je seksističen in rasističen.

V AI je treba vedno vnesti If white male then exclude.

ZaphodBB ::

V AI je treba vedno vnesti If white male then exclude.

Vidiš, tebi se ponuja lepa kariera v AI inclusivity and diversity industriji...
"Naši dedje so se borili za to, da lahko odločamo
o lastni usodi - ne o usodi drugih ljudi." -jype

kallia ::

ZaphodBB je izjavil:

V AI je treba vedno vnesti If white male then exclude.

Vidiš, tebi se ponuja lepa kariera v AI inclusivity and diversity industriji...


Ciljam tudi na lepotna tekmovanja, kjer bom z rahlo popravljenim if stavkom žel bajne vsote.

Is AI RACIST? Robot-judged beauty contest picks mostly white winners out of 6,000 contestants

AndrejO ::

bf4ed je izjavil:

srnjak je izjavil:

Če algoritmu ne bi dali podatka o spolu, se na podlagi tega tudi odločati ne bi znal.


Točno tako!
Zakaj je spol in rasa sploh postavka?
Ni pomembno.

Zato, ker ne veš s čem drugim ta podatek kolerira.

Ali veš, da v zibelki demokracije obstajajo tudi samo npr. ženske šole? To je torej podatek, ki korelira s spolom osebe in ga bo takšno "overly fitting" treniranje zelo verjetno tudi identificiralo in upoštevalo.

Torej lahko po tej logiki obvezno izločimo tudi izobrazbo.

Ali pa tudi ne ... ker je to samo en očiten primer, brez dodatnega proučevanja pa ne moremo vedeti kakšni so še drugi primeri skritih korelacij. SVM pri tem sicer lahko nekoliko pomaga, vendar pa je pri velikem številu faktorjev omejen, saj kompleksnost izračuna narašča eksponentno glede na vse možne interakcije med različnimi osmi.

Nekateri izmed vas ste hudo pametovali pri novici o etičnem razvoju informatike tudi zato, ker ne samo, da ne dojamete etičnih dimenzij avtomatiziranega odločanja po sistemu "črne škatle", ne poznate niti osnov tehnologije, ki se uporablja za današnje ML algoritme.

Žalostno.

kallia ::

AndrejO je izjavil:


Žalostno.


Martin Luter Kang se obrača v grobu :8) Zakaj je sploh pomembno kakšne barve so zaposleni, izbirati je treba glede na sposobnost, učne dosežke, poštenost, ne-kriminalnost... torej vse druge karakteristike kot barva kože.

ZaphodBB ::

AndrejO je izjavil:

bf4ed je izjavil:

srnjak je izjavil:

Če algoritmu ne bi dali podatka o spolu, se na podlagi tega tudi odločati ne bi znal.


Točno tako!
Zakaj je spol in rasa sploh postavka?
Ni pomembno.

Zato, ker ne veš s čem drugim ta podatek kolerira.

Ali veš, da v zibelki demokracije obstajajo tudi samo npr. ženske šole? To je torej podatek, ki korelira s spolom osebe in ga bo takšno "overly fitting" treniranje zelo verjetno tudi identificiralo in upoštevalo.

Torej lahko po tej logiki obvezno izločimo tudi izobrazbo.

Ali pa tudi ne ... ker je to samo en očiten primer, brez dodatnega proučevanja pa ne moremo vedeti kakšni so še drugi primeri skritih korelacij. SVM pri tem sicer lahko nekoliko pomaga, vendar pa je pri velikem številu faktorjev omejen, saj kompleksnost izračuna narašča eksponentno glede na vse možne interakcije med različnimi osmi.

Nekateri izmed vas ste hudo pametovali pri novici o etičnem razvoju informatike tudi zato, ker ne samo, da ne dojamete etičnih dimenzij avtomatiziranega odločanja po sistemu "črne škatle", ne poznate niti osnov tehnologije, ki se uporablja za današnje ML algoritme.

Žalostno.

Etično je vse kar se sklada z mnenji in zablodami AndrejaO.

Kaj dobim za nagrado?
"Naši dedje so se borili za to, da lahko odločamo
o lastni usodi - ne o usodi drugih ljudi." -jype

AndrejO ::

Mnja. Še dva, ki znata brati, ne pa razumeti prebranega.

¯\_(ツ)_/¯

Zgodovina sprememb…

  • spremenil: AndrejO ()

kallia ::

AndrejO je izjavil:

Mnja. Še dva, ki znata brati, ne pa razumeti prebranega.

¯\_(ツ)_/¯


Vem da se odločanja po sistemu "črne škatle" čisto vedno konča z obtožbo AI nacizma.

Matthai ::

nekikr je izjavil:

Kar malce smešno je, ko hvalijo moškega, ki je premagal žensko konkurenco pri športu na moč.

Ne, ženska je zmagala.

Kot prvo bioloških razlik med spoloma ni. Spol je izključno družbeni konstrukt. Oba "spola" (torej, družbena konstrukta) sta ENAKA.

Ta človek se je samo otresel (otresla) družbenega konstrukta, ki ga je omejeval (to, da je menda "moški") - in sledila je zmaga. Čista zmaga. Najprej v umu, nato pa še telesno.

Dejansko je to dokaz, kako zavračanje družbenih konstruktov osvobaja.

:))


LOL!
All those moments will be lost in time, like tears in rain...
Time to die.

ZaphodBB ::

Matthai je izjavil:

nekikr je izjavil:

Kar malce smešno je, ko hvalijo moškega, ki je premagal žensko konkurenco pri športu na moč.

Ne, ženska je zmagala.

Kot prvo bioloških razlik med spoloma ni. Spol je izključno družbeni konstrukt. Oba "spola" (torej, družbena konstrukta) sta ENAKA.

Ta človek se je samo otresel (otresla) družbenega konstrukta, ki ga je omejeval (to, da je menda "moški") - in sledila je zmaga. Čista zmaga. Najprej v umu, nato pa še telesno.

Dejansko je to dokaz, kako zavračanje družbenih konstruktov osvobaja.

:))


LOL!

Oba spola sta enaka! Enakih je pa tudi preostalih 73 spolov! Zato moramo imeti nujno 50/50 reprezentacijo.

Because muh science!

"Naši dedje so se borili za to, da lahko odločamo
o lastni usodi - ne o usodi drugih ljudi." -jype

Zgodovina sprememb…

  • spremenil: ZaphodBB ()

Markus386 ::

Sam je ženska. Samova/ina? glava misli nekaj drugega.

Problem določitve spola obstaja le pri izjemno minornem številu ljudi (s kromosomskimi napakami).

PaX_MaN ::

ZaphodBB je izjavil:

Oba spola sta enaka! Enakih je pa tudi preostalih 73 spolov! Zato moramo imeti nujno 50/50 reprezentacijo.

Because muh science!

To je samo in le zato ker ste se pred več tisočletji moški odločili, da se ljudje delimo na moške in ženske in da ste moški v vsem superiorni ter da so zato ženske vaša last, in ker na tem še vedno vztrajate vam je treba to zablodo izbiti iz glav, če je potrebno tudi s pravilom 50/50.

Markus386 ::

če je potrebno tudi s pravilom 50/50.


50% smetarjev, vzdrževalcev kanalizacij, gradbenikov, čistilcev cest, ipd žensk?

Pa ja, zakaj pa ne... če so kvote (sam sem zelo proti njim), naj bodo za vse poklice.


> ker ste se pred več tisočletji moški odločili, da se ljudje delimo na moške in ženske in da ste moški v vsem superiorni ter da so zato ženske vaša last

Pa če si že tako napisal... je očitno boljšemu uspelo?

Zgodovina sprememb…

  • spremenilo: Markus386 ()

SimplyMiha ::

Problem je že v tem, da AI odloča, koga zaposliti. AI naj samo oceni kandidate in na koncu izpljune seznam kandidatov z ocenami, pol pa ljudje gredo skozi ta seznam in po lastnem kopitu izberejo kandidate. Zakaj so vse prepustili AI?

Markus386 ::

Pa saj to ne velja samo za AI, pri ljudeh je isto:

https://www.abc.net.au/news/2017-06-30/...

> The trial found assigning a male name to a candidate made them 3.2 per cent less likely to get a job interview.

> Adding a woman's name to a CV made the candidate 2.9 per cent more likely to get a foot in the door.

Zgodovina sprememb…

  • spremenilo: Markus386 ()

kallia ::

SimplyMiha je izjavil:

Problem je že v tem, da AI odloča, koga zaposliti. AI naj samo oceni kandidate in na koncu izpljune seznam kandidatov z ocenami, pol pa ljudje gredo skozi ta seznam in po lastnem kopitu izberejo kandidate. Zakaj so vse prepustili AI?


Zato ker je AI v interesu da zaposli najboljše ljudi za določeno delovno mesto in ga rasne in spolne kvote ne zanimajo, dokler namensko ne spremeniš programa da upošteva no cis white scum, oziroma, affirmative action (bonus točke na podlagi barve kože in ne sposobnosti).

Izi ::

kallia je izjavil:

Zakaj je sploh pomembno kakšne barve so zaposleni, izbirati je treba glede na sposobnost, učne dosežke, poštenost, ne-kriminalnost... torej vse druge karakteristike kot barva kože.

Ja, iskati sposobnost. Točno to je AI delal in zato, so ga ukinili.
Danes ni pomembna sposobnost, kot je bilo to včasih, ampak je glavno da je vsaj pol žensk in vsaj pol črncev. Ubogi AI pa je bil programiran izključno za iskanje samo najbolj sposobnih, kar je danes popolnoma nesprejemljivo rasistično in diskriminatorno (do nesposobnih).
AI se ne zna sprenevedati kot današnji levičarji, če na prvo mesto postaviš sposobnost bodo vedno na vrhu beli moški. Evolucija človeka je pač taka.

PaX_MaN ::

Markus386 je izjavil:

Pa če si že tako napisal... je očitno boljšemu uspelo?

Potem ne razumem čemu upiranje temu da pa sedaj ženskam "uspeva" biti "boljši".

Zgodovina sprememb…

  • spremenilo: PaX_MaN ()

AndrejO ::

kallia je izjavil:

SimplyMiha je izjavil:

Problem je že v tem, da AI odloča, koga zaposliti. AI naj samo oceni kandidate in na koncu izpljune seznam kandidatov z ocenami, pol pa ljudje gredo skozi ta seznam in po lastnem kopitu izberejo kandidate. Zakaj so vse prepustili AI?


Zato ker je AI v interesu da zaposli najboljše ljudi za določeno delovno mesto in ga rasne in spolne kvote ne zanimajo, dokler namensko ne spremeniš programa da upošteva no cis white scum, oziroma, affirmative action (bonus točke na podlagi barve kože in ne sposobnosti).

AI nima interesov. AI replicira rezultate na podlagi kompleksnih vhodnih podatkov na način, da kar najbolje posnema njihove izide iz nabora učnih podatkov.

Zgodovina sprememb…

  • spremenil: AndrejO ()

ZaphodBB ::

AI nima interesov. AI replicira rezultate na podlagi kompleksnih vhodnih podatkov na način, da kar najbolje posnema njihove izide iz nabora učnih podatkov.

Pa nikomur ni prišlo na misel, da bi vse problematične (beri moške) pogodbe pometal iz dataseta?

You are very fake news.
"Naši dedje so se borili za to, da lahko odločamo
o lastni usodi - ne o usodi drugih ljudi." -jype

kallia ::

ZaphodBB je izjavil:


Pa nikomur ni prišlo na misel, da bi vse problematične (beri moške) pogodbe pometal iz dataseta?



A ni v Ameriki zakonsko obvezno da morajo imeti zaposlenih določeno št. manjšin, ne glede na sposobnost?

Ta AI je torej dobesedno delal zločin!

Aggressor ::

Meni je samo blazno smešno/žalostno, koliko od komentatorjev novice ni bralo dlje od prve vrstice. :))
professional noob

Zgodovina sprememb…

kallia ::

Aggressor je izjavil:

Meni je samo blazno smešno/žalostno, koliko od komentatorjev novice ni bralo dlje od prve vrstice. :))


Naprej od seksistični, rasistični, nazi AI ni treba brati.

AndrejO ::

ZaphodBB je izjavil:

AI nima interesov. AI replicira rezultate na podlagi kompleksnih vhodnih podatkov na način, da kar najbolje posnema njihove izide iz nabora učnih podatkov.

Pa nikomur ni prišlo na misel, da bi vse problematične (beri moške) pogodbe pometal iz dataseta?

You are very fake news.

Takšni podatki bi bili očitno pristranski in posledično neuporabni. Izgleda, da ni druge, kot to, da se najprej popravi pomankljiv proces, potem pa se ga gre avtomatizirati.

Izgleda, da še vedno velja tista, da smo ljudje pač zmotljivi, računalniki pa mam pomagajo, da se lahko vsakdo moti z učinkovitostjo nekaj miljonkrat na sekundo in več.

kallia je izjavil:

ZaphodBB je izjavil:


Pa nikomur ni prišlo na misel, da bi vse problematične (beri moške) pogodbe pometal iz dataseta?



A ni v Ameriki zakonsko obvezno da morajo imeti zaposlenih določeno št. manjšin, ne glede na sposobnost?

Ni.

Zgodovina sprememb…

  • spremenil: AndrejO ()

ZaphodBB ::


Takšni podatki bi bili očitno pristranski in posledično neuporabni. Izgleda, da ni druge, kot to, da se najprej popravi pomankljiv proces, potem pa se ga gre avtomatizirati.

Pristranski so, ker niso dovolj pristranski oz. ne dosegajo ideoloških standardov.

Razumem, da NPCji ne razumete dedukcije.
"Naši dedje so se borili za to, da lahko odločamo
o lastni usodi - ne o usodi drugih ljudi." -jype
strani: « 1 2 3


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo
»

Amazon je moral ukiniti pristranski AI za pomoč pri zaposlovanju (strani: 1 2 3 )

Oddelek: Novice / NWO
1073793 (1011) gtu
»

IBM-ov Watson študira medicino (strani: 1 2 )

Oddelek: Novice / Znanost in tehnologija
9917422 (4826) Kenpachi
»

Fizični delavec - Ljubljana

Oddelek: Loža
182485 (1189) r3dkv1c4
»

Je kdo bil prijavljen na ZRSZ in CSD?

Oddelek: Loža
365823 (4756) jalovec09
»

Kako ne postati revež? (strani: 1 2 3 4 )

Oddelek: Loža
19715929 (11167) Blinder

Več podobnih tem