Slo-Tech - Župan iz Avstralije Brian Hood je družbi OpenAI zagrozil s tožbo, če ne spremeni pogovornega bota ChatGPT tako, da o njem ne bo več blebetal škodljivih neresnic.
Bržkone najbolj razvpita in pereča težava modernih chatbotov je njihova lastnost, da halucinirajo podatke, to je, da na naše poizvedbe odgovarjajo s povsem izmišljenimi stvarmi. Tako je preprosto zaradi tega, ker njihovi jezikovni modeli v resnici ne poznajo povezav med pojmi, temveč so zgolj statistična orodja, ki postavljajo črke skupaj tako, kot izhaja iz ogromnega korpusa besedil, na katerem so se učili. Halucinirajo zelo pogosto, zato je bilo zgolj vprašanje časa, kdaj se bo kakšna javna oseba na sodišču pritožila za stvari, ki jih bot govoriči o njej. Videti je, da se bo to najprej zgodilo v Avstraliji, kjer je župan regije Hepburn Shire, Brian Hood, 21. marca na OpenAI naslovil grožnjo s tožbo, v kolikor ChatGPTja ne priredi tako, da o njem ne bo širil neresnic.
Konkretno: bot lahko na pozive o Hoodu odgovori, da je bil ta obtožen podkupovanja malezijskih trgovcev z orožjem in da je zaradi tega mesec dni tudi tičal v ječi. Župan daje družbi 28 dni, da nerodnost odpravi. Velja omemba, da takšne neresnice trosi zgolj pretekla različica modela, torej bot na bazi GPT-3.5, ne pa tudi najnovejši, ki sloni na GPT-4. Vseeno je grožnja za OpenAI precej hujša od potencialnih 130.000 evrov, kolikor bi preračunano Hood lahko prejel ob uspešnem procesu, saj bi se odprl hudourniški jez za podobne tožbe s strani množice drugih ljudi. Avstralija se sicer še vedno ukvarja z žolčnim prirejanjem zakonodaje glede odgovornosti ponudnikov spletnih vsebin za neresnice, ki se znajdejo na njihovih portalih. Problematika škodljivih besed, ki jih izbljuvajo robotski sogovorniki, je še za stopničko zahtevnejši etični in pravni izziv.
je možno da slovenski komericalni radiji (pa tudi kdaj pa kdaj nacionalni) uporabljajo tega chat bota? ker ko se vozim s sodelavci in poslušam te radije se mi zdi da nek bot blebeta naključne bedarije v eter...
najhujše blebetanje pa je na radiju 1...
"Namreč, da gre ta družba počasi v norost in da je vse, kar mi gledamo,
visoko organizirana bebavost, do podrobnosti izdelana idiotija."
Psiholog HUBERT POŽARNIK, v Oni, o smiselnosti moderne družbe...
Še en debilizem... AI pobira podatke ki jih najde, ne izmišljuje si nič... tako da naj župan toži tistega ki je to nekam napisal da je AI našel.
Če sem pomagal, se priporočam za uporabo linka!
KUCOIN EXCHANGE link: https://www.kucoin.com/#/?r=E3I9Ij
BINANCE EXCHANGE link: https://www.binance.com/?ref=10161115
je možno da slovenski komericalni radiji (pa tudi kdaj pa kdaj nacionalni) uporabljajo tega chat bota? ker ko se vozim s sodelavci in poslušam te radije se mi zdi da nek bot blebeta naključne bedarije v eter...
najhujše blebetanje pa je na radiju 1...
Penis Avdiqija ne morem prebavljati več vse od tiste njegove svinjarije z mariborskim ravnateljem. Tip je šel dlje od kogarkoli v Sloveniji; ne samo, da se je neprestano delal norca iz obeh, celo klical je ravnatelja v živo in ga trollal. Ni edini primer, spomnim se, kaj je počel oni influenserki, katere ime se niti približno ne spomnim, spomnim pa se njegovega očitka njej, da je bog prejšnji dan vzel napačnega (Demetra Bitenca) in še par podobnih.
Mislim, da noben AI ni sposoben biti tako nizkoten kot je lahko Qrac Avdiqi. Morda niti tako nizkoten, kot so njegovi redni poslušalci...
Antifašizem je danes poslednje pribežališče ničvredneža, je ideologija ničesar
in neizprosen boj proti neobstoječemu sovražniku - v zameno za državni denar
in neprofitno najemno stanovanje v središču Ljubljane. -- Tomaž Štih, 2021
Še en debilizem... AI pobira podatke ki jih najde, ne izmišljuje si nič... tako da naj župan toži tistega ki je to nekam napisal da je AI našel.
Od kje pa tebi ta ideja? AI si veliko izmišljuje. Ker zadeva zadaj nima baze, ampak gre za povezavo nevronov, te povezave včasih ne pripeljejo do pravega rezultata. Podobno se zgodi tebi, ko te vprašam, kdo je Charlize Theron. Odgovoriš, da gre za zelo znano ameriško igralko ali pevko. Nisi pa povsem prepričan, ampak nekaj pač moraš odgovorit, in odgovoriš da je igralka. Seveda si pravilno odgovoril, ampak nevede si napačno odgovoril, da gre za američanko.
Enako se dogaja z AI. Sem ga vprašal, če mi našteje člane skupine Siddharta:
Siddharta je petčlanska skupina, katere trenutni člani so:
Tomi M. (Tomaž Mihelič) - vokal Primož B. (Primož Benko) - kitara, vokal Jani H. (Jani Hace) - bas kitara Boštjan M. (Boštjan Meglič) - klaviature, vokal Dan D. (Danijel Džindić) - bobni
Skupina je v preteklosti doživela nekaj članovskih sprememb, najbolj znan med njimi pa je bil ustanovni član Primož Majerič, ki je igral kitaro in bil vokalist v prvih letih delovanja skupine.
Sem prepričan, da ni nikjer našel, da je Tomi M. (Tomi Meglič) v resnici Tomaž Mihelič (član skupine sestre). Pa tudi ne vem, kje je dobil Danijela Džindića. Podatke je pač napačno povezal s slovensko glasbo (Sestre oz Tomaž Mihelič) in s slovenskimi glasbenimi skupinami (Dan D) in smo dobili napačne informacije, ki si jih je naravnost izmislil.
Torej naj toži AI, ne pa lastnika, to je tako kot bi tožili mojo mati in fotra ker sem jaz si izmislil in širil laži in me nekdo hoče tožit
AI je torej lastna entiteta brez nadzora, ne morš tega tožit.
Če sem pomagal, se priporočam za uporabo linka!
KUCOIN EXCHANGE link: https://www.kucoin.com/#/?r=E3I9Ij
BINANCE EXCHANGE link: https://www.binance.com/?ref=10161115
Še vedno ga nasljavljajo AI, pa čeprav to ni. Še v članku je lepo zapisano, da je statistično orodje.
Pa je človeška inteligenca dejansko kaj drugega?
Tudi ljudje ves cas "haluciniramo". Spomnite se zanimivega dogodka iz otrostva in pisite vsakemu prijatelju posebej, kaj tocno se je zgodilo. Vsak bo priblizno povedal - ker si vsega ne zapomnimo, manjkajoce pa mozgani zgenerirajo.
Na Radiu City uporabljajo ChatGPT. Glede teme pa, ce se ChatGPT spravil v godljo, naj se se sam zagovarja na sodiscu :D
Mislim, da ne sme. Da so poskuili za prometne prekrške, pa je Murska zakonodaja tako spisana, da se da interpretirat, kot da mora vsaj formalno biti človek. Res pa je, da je šlo za zastopanje; morda je drugače, če si obtožen. Ampak, tožba zaenkrat grozi OpenAI-ju, ne ChatGPT-ju.
Torej naj toži AI, ne pa lastnika, to je tako kot bi tožili mojo mati in fotra ker sem jaz si izmislil in širil laži in me nekdo hoče tožit
AI je torej lastna entiteta brez nadzora, ne morš tega tožit.
Se ne strinjam s tabo. 1. Dokler si bil mladoletna oseba, sta bila starša dejansko odgovorna (tudi kazensko) zate in za tvoje početje. 2. Za orodjem stoji skupina, ki z le-tem celo služi denar. Torej je iz tega stališča tudi materialno odgovorna za početje.
Ko bo družbeno sprejeto, da je ChatGPT samostojna ententiteta, potem se lahko pogovarjamo o direktni tožbi proti njej.
Torej naj toži AI, ne pa lastnika, to je tako kot bi tožili mojo mati in fotra ker sem jaz si izmislil in širil laži in me nekdo hoče tožit
AI je torej lastna entiteta brez nadzora, ne morš tega tožit.
Se ne strinjam s tabo. 1. Dokler si bil mladoletna oseba, sta bila starša dejansko odgovorna (tudi kazensko) zate in za tvoje početje. 2. Za orodjem stoji skupina, ki z le-tem celo služi denar. Torej je iz tega stališča tudi materialno odgovorna za početje.
Ko bo družbeno sprejeto, da je ChatGPT samostojna ententiteta, potem se lahko pogovarjamo o direktni tožbi proti njej.
To je enako kot če bi tožil vsak website ali forum kjer nekdo nekaj napiše... AI kot pravim sklepa, si ne izmisli kr na pamet, ampak glede na nekatere vhodne podatke
Če sem pomagal, se priporočam za uporabo linka!
KUCOIN EXCHANGE link: https://www.kucoin.com/#/?r=E3I9Ij
BINANCE EXCHANGE link: https://www.binance.com/?ref=10161115
Še vedno ga nasljavljajo AI, pa čeprav to ni. Še v članku je lepo zapisano, da je statistično orodje.
Pa je človeška inteligenca dejansko kaj drugega?
Tudi ljudje ves cas "haluciniramo". Spomnite se zanimivega dogodka iz otrostva in pisite vsakemu prijatelju posebej, kaj tocno se je zgodilo. Vsak bo priblizno povedal - ker si vsega ne zapomnimo, manjkajoce pa mozgani zgenerirajo.
My point exactly. Tudi ljudje haluciniramo, si (nevede ali nenamerno) izmišljujemo. Povezujemo nekatere dogodke skupaj, čeprav nimajo nobene povezave. Napačne ljudi povežemo z dogodki, ... Glede na verjetnost, kdo je kaj naredil. Na maturantskem izletu je namreč majhna verjetnost, da se ga je tvoja mama napila do kome. Je pa precej večja, da se je na družinski zabavi. Čez 30 let boš pa mogoče mislil, da je bila tvoja teta tista, ki se je napila, ker se teta, za razliko od mame, pogosto napije.
To je enako kot če bi tožil vsak website ali forum kjer nekdo nekaj napiše... AI kot pravim sklepa, si ne izmisli kr na pamet, ampak glede na nekatere vhodne podatke
Enako kot človek. Jaz brez problema trdim, da nimaš pojma o basketu, Luki Dončiću in NBA-ju. Povedal sem resnico, glede na vhodne podatke, ki sem jih dobil v temi o NBA.
V bistvu trdim, da si celo zabit kot noč. Glede na vhodne podatke.
To je enako kot če bi tožil vsak website ali forum kjer nekdo nekaj napiše... AI kot pravim sklepa, si ne izmisli kr na pamet, ampak glede na nekatere vhodne podatke
Ja, saj se folk dejansko tožari v takih primerih.
Bi pa dodal, da definitivno je težava v tem koliko damo posamezniki teže (zaupanja) v nek vir informacije. Zelo verjetno jo ima ChatGPT trenutno preveč, ampak to je ker je tako zanimiva "nova igrača" za splošno populacijo.
Enako kot človek. Jaz brez problema trdim, da nimaš pojma o basketu, Luki Dončiću in NBA-ju. Povedal sem resnico, glede na vhodne podatke, ki sem jih dobil v temi o NBA.
V bistvu trdim, da si celo zabit kot noč. Glede na vhodne podatke.
In si zdaj predstavljaš da jaz tožim tvoje kreatorje ker so ti dovolili to govorit :P
Če sem pomagal, se priporočam za uporabo linka!
KUCOIN EXCHANGE link: https://www.kucoin.com/#/?r=E3I9Ij
BINANCE EXCHANGE link: https://www.binance.com/?ref=10161115
Še en debilizem... AI pobira podatke ki jih najde, ne izmišljuje si nič... tako da naj župan toži tistega ki je to nekam napisal da je AI našel.
Kar ni res. Zna delat sklepe.
Recimo vojna o ukrajini. Lahko botu podaš neke "dokaze" in spremeni mnenje.
Ja ampak potem ni bot kriv, on ne more verificirat 100%
Če sem pomagal, se priporočam za uporabo linka!
KUCOIN EXCHANGE link: https://www.kucoin.com/#/?r=E3I9Ij
BINANCE EXCHANGE link: https://www.binance.com/?ref=10161115
je možno da slovenski komericalni radiji (pa tudi kdaj pa kdaj nacionalni) uporabljajo tega chat bota? ker ko se vozim s sodelavci in poslušam te radije se mi zdi da nek bot blebeta naključne bedarije v eter...
najhujše blebetanje pa je na radiju 1...
Penis Avdiqija ne morem prebavljati več vse od tiste njegove svinjarije z mariborskim ravnateljem. Tip je šel dlje od kogarkoli v Sloveniji; ne samo, da se je neprestano delal norca iz obeh, celo klical je ravnatelja v živo in ga trollal. Ni edini primer, spomnim se, kaj je počel oni influenserki, katere ime se niti približno ne spomnim, spomnim pa se njegovega očitka njej, da je bog prejšnji dan vzel napačnega (Demetra Bitenca) in še par podobnih.
Mislim, da noben AI ni sposoben biti tako nizkoten kot je lahko Qrac Avdiqi. Morda niti tako nizkoten, kot so njegovi redni poslušalci...
ja, po mojem imaš čisto prav. AI ni zmožna takšne retardiranosti kot avdić in njegovi lobotomirani poslušalci.
"Namreč, da gre ta družba počasi v norost in da je vse, kar mi gledamo,
visoko organizirana bebavost, do podrobnosti izdelana idiotija."
Psiholog HUBERT POŽARNIK, v Oni, o smiselnosti moderne družbe...
Še en debilizem... AI pobira podatke ki jih najde, ne izmišljuje si nič... tako da naj župan toži tistega ki je to nekam napisal da je AI našel.
Kar ni res. Zna delat sklepe.
Recimo vojna o ukrajini. Lahko botu podaš neke "dokaze" in spremeni mnenje.
Ja ampak potem ni bot kriv, on ne more verificirat 100%
Torej je bot kot ti - nakladaš brezveze na podlagi gostilniških debat (in hkrati glede na zgoraj trdiš da nisi nič kriv za to), z izgovorom da ne moreš 100% verificirat
Malo prevelik halo je zaradi tega GPT-ja. Kao Ai. Ne opažam neke inteligence. Gre se samo za malček boljši iskalnik. Namesto da ti brskaš po googlu ti on opravi to delo. Oni pa ko da so ustvarili nov svet.
Ta tožba ne bi smela uspeti, ker od tega orodja dejansko pričakujemo, da meče ven podatke v najboljšem verjetnostno vrstnem zaporedju iz baz, ki jih pač ima. Tako da je treba prositi za umik oz. tožiti vir, ki jih je prvi nekje objavil in pa morebiti, če bi nekdo naknadno te napačne podatke objavil nekje drugje kot "resnico" (čeprav, če napiše da je vir ChatGPT, potem bi moral vsak od nas že počasi vedeti, da so podatki lahko tudi napačni oz. izmišljeni).
The main failure in computers is usually located between keyboard and chair.
You read what you believe and you believe what you read ...
Nisam čit'o, ali osudjujem (nisem bral, a obsojam).
Ja, kot da bi tožil google ki najde zadetek na neki žnj spletni strani...
Če sem pomagal, se priporočam za uporabo linka!
KUCOIN EXCHANGE link: https://www.kucoin.com/#/?r=E3I9Ij
BINANCE EXCHANGE link: https://www.binance.com/?ref=10161115
Malo prevelik halo je zaradi tega GPT-ja. Kao Ai. Ne opažam neke inteligence. Gre se samo za malček boljši iskalnik. Namesto da ti brskaš po googlu ti on opravi to delo. Oni pa ko da so ustvarili nov svet.
Google ti npr. ne zgenerira namenske kode za tvoj problem, ki je komot lahko implementacija neke specifikacije z vec sto stranmi, in to z upostevanjem arhitekturnih vzorcev, ki jih zelis. Niti ne popravlja napak pri ucenju tujega jezika ali omogoca pogovora za vajo. Itd...
To kar je brskalnik naredil iskanju knjig in clankov v knjiznici, bodo zdaj taka orodja naredila brskalniku. Zato tak halo.
Ta tožba ne bi smela uspeti, ker od tega orodja dejansko pričakujemo, da meče ven podatke v najboljšem verjetnostno vrstnem zaporedju iz baz, ki jih pač ima. Tako da je treba prositi za umik oz. tožiti vir, ki jih je prvi nekje objavil in pa morebiti, če bi nekdo naknadno te napačne podatke objavil nekje drugje kot "resnico" (čeprav, če napiše da je vir ChatGPT, potem bi moral vsak od nas že počasi vedeti, da so podatki lahko tudi napačni oz. izmišljeni).
Tu se bo ustvarjala sodna praksa. Ali bo obsojen tisti, ki prenaša "lažne " novice, ali tisti, ki jih ustvarja. V tem primeru, kolikor mi je znano, je novico ustvaril in prenesel "GPT".
Učite se iz preteklosti, živite v sedanjosti in razmišljajte o prihodnosti.
Bo kar zanimivo na kakšen način bodo odreagirali regulatorji na ChapGPT in podobne servise. Se mi zdi da je tokrat pri vseh glavnih playerjih izrazito prevladala želja priti na trg čim prej in so posledično precej manj lobirali za naklonjenost vseh relevantnih deležnikov. Posledično se zato oglašajo tudi Musk in podobni, ki želijo ohromiti razvoj, saj so ostali lepo zadaj.
A če toži chat gpt, potem bo na sodišču računalnik, kateri se bo zagovarjal?
Mislim, kake glupe ljudi oz. politike imamo na tem svetu. Kdo mu je kriv, če uporablja ta produkt? Naj ga ne uporablja in je zadeva rešena.
Ja, res je (to o ljudeh). Novica gre o grožnji s tožbo, in grožnja je uperjena proti izdelovalcu orodja.
Še na genijalno idejo o neuporabi orodja - če bom jaz ChatGPTjal o tem županu, mi bo vseeno pripovedoval neresnice o njmu, čeprav se je župan, sledeč bistremu nasvetu, odrekel uporabi tega orodja.
Na Radiu City uporabljajo ChatGPT. Glede teme pa, ce se ChatGPT spravil v godljo, naj se se sam zagovarja na sodiscu :D
Na kakšen način ga uporabljajo ?
Mislim, da v Fras in Medvar šovu. Enkrat sem zasledil, da folk lahko pošlje neko vprašanje ali temo in onadva potem data odgovor, ki ga je zgeneriral chatgpt.
Še en debilizem... AI pobira podatke ki jih najde, ne izmišljuje si nič... tako da naj župan toži tistega ki je to nekam napisal da je AI našel.
Od kje pa tebi ta ideja? AI si veliko izmišljuje. Ker zadeva zadaj nima baze, ampak gre za povezavo nevronov, te povezave včasih ne pripeljejo do pravega rezultata. Podobno se zgodi tebi, ko te vprašam, kdo je Charlize Theron. Odgovoriš, da gre za zelo znano ameriško igralko ali pevko. Nisi pa povsem prepričan, ampak nekaj pač moraš odgovorit, in odgovoriš da je igralka. Seveda si pravilno odgovoril, ampak nevede si napačno odgovoril, da gre za američanko.
Enako se dogaja z AI. Sem ga vprašal, če mi našteje člane skupine Siddharta:
Siddharta je petčlanska skupina, katere trenutni člani so:
Tomi M. (Tomaž Mihelič) - vokal Primož B. (Primož Benko) - kitara, vokal Jani H. (Jani Hace) - bas kitara Boštjan M. (Boštjan Meglič) - klaviature, vokal Dan D. (Danijel Džindić) - bobni
Skupina je v preteklosti doživela nekaj članovskih sprememb, najbolj znan med njimi pa je bil ustanovni član Primož Majerič, ki je igral kitaro in bil vokalist v prvih letih delovanja skupine.
Sem prepričan, da ni nikjer našel, da je Tomi M. (Tomi Meglič) v resnici Tomaž Mihelič (član skupine sestre). Pa tudi ne vem, kje je dobil Danijela Džindića. Podatke je pač napačno povezal s slovensko glasbo (Sestre oz Tomaž Mihelič) in s slovenskimi glasbenimi skupinami (Dan D) in smo dobili napačne informacije, ki si jih je naravnost izmislil.
Jaz sploh ne razumem hypa pri tem ChatGPT-ju, ker je res totalno nezanesljiv. Za enako poizvedbo (člani skupine Siddharta) sem jaz dobil drugo kombinacijo, ki je bila tudi napačna. Sem ga popravil s pravilnimi podatki in je napisal še enkrat prave. Zaprem app, odprem nazaj, vprašam enako zadevo, dobim spet novo kombinacijo članov, ki je spet napačna.
Ta tožba ne bi smela uspeti, ker od tega orodja dejansko pričakujemo, da meče ven podatke v najboljšem verjetnostno vrstnem zaporedju iz baz, ki jih pač ima. Tako da je treba prositi za umik oz. tožiti vir, ki jih je prvi nekje objavil in pa morebiti, če bi nekdo naknadno te napačne podatke objavil nekje drugje kot "resnico" (čeprav, če napiše da je vir ChatGPT, potem bi moral vsak od nas že počasi vedeti, da so podatki lahko tudi napačni oz. izmišljeni).
Ampak tega ne počne... Dejansko nekako zmiksa podatke, ki jih ne moreš najti nikjer na internetu. Lep primer je poizvedba za skupino Siddharta. Jaz sem dobil od ChatGPT-ja naslednji odgovor:
Seveda! Siddharta je slovenska rock skupina, ki je aktivna že od leta 1995. Trenutna zasedba vključuje:
Boštjan Mlakar - vokal Primož Benko - kitara Jani Hace - bas kitara Tomaž O. Rous - klaviature Rok Terkaj - bobni Pomembno je omeniti, da so skupina v preteklosti sodelovali z drugimi člani, ki so se kasneje umaknili iz zasedbe. Med temi člani so bili Tomi Meglič, ki je igral na kitari, in Dan D, ki je bil vokalist in kitarist.
Teh podatkov nikjer na internetu ne boš našel. (btw, v štirih poskusih enakega vprašanja mi je našel 4 različne kombinacije članov). V glavnem - ta rezultat je dokaz, da ChatGTP vsaj efektivno ni statistično orodje, ampak je bil v tem primeru dejansko generator fake novice.
Še en debilizem... AI pobira podatke ki jih najde, ne izmišljuje si nič... tako da naj župan toži tistega ki je to nekam napisal da je AI našel.
spet kažeš da si glup in nepismen. lepo piše da štirka brska po internetu, medtem ko si 3,5ka stvari za katere nima podatkov izmisli.
Drži. Podatke na internetu najde Google. ChatGPT pa si jih dejansko (ne vedno) izmišljuje in to ni enaka zadeva. ChatGPT je generator fake novic, kar google ni nikoli.
Tale "Siddharta fenomen" ChatGPT mi je vedno bolj zanimiv. Iz članka na ArsTechnica:
In a 2021 paper, a trio of researchers from the University of Oxford and OpenAI identified two major types of falsehoods that LLMs like ChatGPT might produce. The first comes from inaccurate source material in its training data set, such as common misconceptions (e.g., "eating turkey makes you drowsy"). The second arises from making inferences about specific situations that are absent from its training material (data set); this falls under the aforementioned "hallucination" label.
1. Inacurate source material v primeru članov skupine Siddharta ne more bit problem, ker podatki, ki jih ven meče ChatGTP na internetu ne obstajajo. 2. OK, absent form it's training mogoče, ampak še vedno zanimiv fenomen, da gre vseeno za skupino, kjer se člani že 15 let niso spreminjali, vrže pa vsakič drugačne zadetke.
Ta tožba ne bi smela uspeti, ker od tega orodja dejansko pričakujemo, da meče ven podatke v najboljšem verjetnostno vrstnem zaporedju iz baz, ki jih pač ima. Tako da je treba prositi za umik oz. tožiti vir, ki jih je prvi nekje objavil in pa morebiti, če bi nekdo naknadno te napačne podatke objavil nekje drugje kot "resnico" (čeprav, če napiše da je vir ChatGPT, potem bi moral vsak od nas že počasi vedeti, da so podatki lahko tudi napačni oz. izmišljeni).
Ampak AI ne deluje tako kot si napisal. To kar si ti opisal je google, on ti razvrsti odgovore na tvoje vprašanje po verjetnosti. AI je še veliko več in manj istočasno. Če vprašaš isto vprašanje človeka namesto googla, ti bo človek odgovoril inteligentneje, AMPAK tudi čisto možno, da napačno. AI je temu podoben. S časom bo postal bolj točen, to ni tak problem. To kar se faktografsko da preverit bojo rešili. Problem bo ostal pri filozofskih temah, kjer ni jasnega odgovora kaj je res. Nikoli ne bomo vedeli ali ima prav, neko logiko zadaj, ali samo bluzi. Kot ne vemo niti pri Žižku recimo, lahko si samo mislimo svoje.
Ampak sej to je vse logično, zakaj bi faktografska vprašanja postavljal inteligenci? Če te zanima kako daleč je do Marsa, to pogledaš v enciklopediji, ne pa tega debatiraš z vaškim filozofom, ker o tem ni kaj dost za debatirat.
Še enkrat ChatGPT je samo orodje, pripomoček. Na teb je da avtentičnost izjav ročno na koncu preveriš. To NI medij. Je pripomoček za nadaljnjo rabo. Vmesni korak če hočeš. Ni to končni rezultat. Vedno je človek tisti ki naredi zadnji korak v uporabi in preverbi rezultatov.
Odgovornost je ko tako orodje uporabljaš na tebi kot uporabniku in pika.
Če se s tem ne strinjaš pa ne uporabljaj tega orodja. Sej to je vendarle stvar izbire. Prevzameš odgovornost in lahko uporabljaš al pa vnaprej zanikaš vso odgovornost pa ne uporabljaš.
Tale "Siddharta fenomen" ChatGPT mi je vedno bolj zanimiv. Iz članka na ArsTechnica:
In a 2021 paper, a trio of researchers from the University of Oxford and OpenAI identified two major types of falsehoods that LLMs like ChatGPT might produce. The first comes from inaccurate source material in its training data set, such as common misconceptions (e.g., "eating turkey makes you drowsy"). The second arises from making inferences about specific situations that are absent from its training material (data set); this falls under the aforementioned "hallucination" label.
1. Inacurate source material v primeru članov skupine Siddharta ne more bit problem, ker podatki, ki jih ven meče ChatGTP na internetu ne obstajajo. 2. OK, absent form it's training mogoče, ampak še vedno zanimiv fenomen, da gre vseeno za skupino, kjer se člani že 15 let niso spreminjali, vrže pa vsakič drugačne zadetke.
Problem je množina podatkov za učenje, ki je za slovensko sfero relativno majhna. Zato je, v grobem rečeno, parametrov zanjo v nevronski mreži manj kot recimo za ameriške znane osebe.
Glede na debato predvidevam, da je chatgpt fasal namerno oslabitev zanesljivosti rezultatov. Kar je za pričakovati, glede na trend, kam gre prosta uporaba AIja. Prenapredna tehnologija za navadn plebs, jo je treba pokriplat in neokrnjeno verzijo zapret za vrata tričrkovnih agencij.
Ta tožba ne bi smela uspeti, ker od tega orodja dejansko pričakujemo, da meče ven podatke v najboljšem verjetnostno vrstnem zaporedju iz baz, ki jih pač ima. Tako da je treba prositi za umik oz. tožiti vir, ki jih je prvi nekje objavil in pa morebiti, če bi nekdo naknadno te napačne podatke objavil nekje drugje kot "resnico" (čeprav, če napiše da je vir ChatGPT, potem bi moral vsak od nas že počasi vedeti, da so podatki lahko tudi napačni oz. izmišljeni).
Ampak AI ne deluje tako kot si napisal. To kar si ti opisal je google, on ti razvrsti odgovore na tvoje vprašanje po verjetnosti. AI je še veliko več in manj istočasno. Če vprašaš isto vprašanje človeka namesto googla, ti bo človek odgovoril inteligentneje, AMPAK tudi čisto možno, da napačno. AI je temu podoben. S časom bo postal bolj točen, to ni tak problem. To kar se faktografsko da preverit bojo rešili. Problem bo ostal pri filozofskih temah, kjer ni jasnega odgovora kaj je res. Nikoli ne bomo vedeli ali ima prav, neko logiko zadaj, ali samo bluzi. Kot ne vemo niti pri Žižku recimo, lahko si samo mislimo svoje.
Nr. ChatGPT je točno to kar sem napisal; on "samo" išče naslednjo najbolj verjetno "X" (s pomočjo ogromnih baz podatkov, primerov, ki se jih pač dandanes najde vse na spletu - kar ti tudi pove, zakaj recimo kaj takšnega ni bilo mogoče narediti pred 20 leti; čeprav so vsaj zametki te tehnologije že obstajali) in to dela tako dobro, da so besedila dejansko smiselno sestavljena (tudi na podlagi vnaprej naučenih vzorcev, sistema nagrajevanja in potem generiranih lastnih). A še vedno pač pride do "halucinacij" oz. povsem napačnih, izmišljenih zadev, virov itd. In če si dovolj strokoven na nekem področju, se to da opaziti. Skratka je dokaj dobra e-papiga. Ampak to ne pomeni, da ni odlično orodje, ki ti pride prav pri rednem delu (napiše praktično cel dopis, članek ipd. celo zelo spodobno v tujem jeziku - a počne to drugače kot recimo google translate idr.) in ti skrajša čas dela (kjer ti narediš še ostalih bistvenih 5 %) ... ker kaj če pa biti narobe pri nekem vljudnem enostavnem dopisu? Ni pa to seveda nobena inteligenca kot ne ve, da sedi pred ekranom inteligenca.
The main failure in computers is usually located between keyboard and chair.
You read what you believe and you believe what you read ...
Nisam čit'o, ali osudjujem (nisem bral, a obsojam).