» »

Umetna inteligenca

Umetna inteligenca

1 2 3
4
»

Utk ::

Seveda zna ocenit smiselnost rezultata.

Če ne bi, bi odgovarjal na vprašanja z "42".

Gregor P ::

Saj tudi kalkulator vedno pravilno sešteva, a najbrž ne trdimo da "razume" števila8-)
The main failure in computers is usually located between keyboard and chair.
You read what you believe and you believe what you read ...
Nisam čit'o, ali osudjujem (nisem bral, a obsojam).

Utk ::

Z vami se težko menit. Pravite da ni inteligenca, in ne zmorete dostavit definicije inteligence kateri današnji modeli ne bi ustrezali. Pravite da ne odgovarja inteligentno, in ne znate pojasnit kako bi moral odgovarjat, da bi po vaše bil inteligenten.

Jaz definitivno dvomim v inteligenco nekoga ali nečesa tu.

Sploh imate pa premalo domišlije ali znanja, da bi vedeli kako odgovarjajo neinteligentni chatboti. Ko v nekem faqu poiščejo čim več besed iz vprašanja in vrnejo vnaprej pripravljen odgovor. No, tisto ni inteligentno.

socialec ::

Utk je izjavil:

Seveda zna ocenit smiselnost rezultata.

Kdo zna oceniti smiselnost rezultata? Kalkulator, vrednost izraza? Lopata, jarek? Ok.

Zgodovina sprememb…

  • spremenilo: socialec ()

Utk ::

No vidiš, UI ne bi takega odgovora postavil...

socialec ::

Si že kdaj delal z UI? Kako pogosto zahalucinira? Kako pogosto se zahvali za odgovor ali usmeritev? Nikoli, izgleda.

Utk ::

Jaz delam z UI vsak dan. Uporabljam kot pomoč in vgrajujem v sw.

Si ti že kdaj delal s človekom? Nikoli, zgleda.

Zgodovina sprememb…

  • spremenil: Utk ()

socialec ::

Ne vem, primerjava rezultate? :D

Moj plačljiv UI zelo malo razume, moram mu povedati vse kot malemu otroku, še več.

Pri tebi je mogoče drugače :D

Zgodovina sprememb…

  • spremenilo: socialec ()

Utk ::

Praviš da otrok dokler ne zna odgovarjat na tvoje naloge bolje ni inteligenten?

Pri tebi je mogoče drugače :D

Sej ti pravim, če znaš uporabljat, ti je v pomoč. Če ne znaš, je izguba časa.

Zgodovina sprememb…

  • spremenil: Utk ()

socialec ::

Utk, kateri del izraza "generativno prednaučeno transformacijsko omrežje" ni razumljiv?
G - Generative - generativno (ustvarja nove podatke, npr. besedilo)
P - Pre-trained - prednaučeno (model je vnaprej izurjen na velikih količinah podatkov)
T - Transformer - transformacijsko omrežje (tip nevronske arhitekture, ki omogoča učinkovito razumevanje zaporedij, kot je jezik)

Je tu kakšna beseda, ki je uporabljena vsaj v marketinške kamene kot pristno inteligentne, kakor ti hočeš zlorabiti otroke?
Ja, zdaj boš šel razumevanje v smislu interpretacije. Ok. Nič, pustimo, vztrajaj pri svojem, napredka ne bo :D
Bi me pa drugače zanimalo, koliko avtonomne sisteme delaš in iz katerega področja. Ampak smo že preveč zašli že glede definicij.

PS: Za vas bug, zame feature :D

mirator ::

Brez veze se je z Utk-jem pregovarjati o inteligenci UI. Če on verjame, da je UI res inteligentna pač naj verjame, ne bo nobene škode.
Ali pač? Vsekakor bi jaz bil, če bi z njim posloval, skrajno predviden, glede njegovih reštev.

socialec ::

Eh ne, Utk zavzema neko stališče, ki ga celo lahko razumem, vendar ni v skladu z definicijami. Žal pač UI ne zmore 'ovrednotiti' svojega outputa, če ga je potrebno popravljati ali pa mu pisati 10 strani tehničnih specifikacij, ker bo v tistem računanju statističnih vrednosti kakšen nivo obrnil proč, ker je zahteva ali nejasna ali pa toliko redka. Res, briljantno in genialno, če ti to napiše UI, to res ne velja nič, več tega piše kot ostalega, če vprašate mene. Tudi, če ga poinstruiraš, da naj ne vrača rezultata, če ni 95% ali več prepričan... Prepričan stastistično!!

Je pa res zelo učinkovito orodje, to pa 1000% in pohitri delo iz mesecev v dneve. To pa res - nič ne zamerim Utkju, samo pač malo filozofiramo, upam, da ni zamere.

Ales ::

socialec je izjavil:

Tudi, če ga poinstruiraš, da naj ne vrača rezultata, če ni 95% ali več prepričan... Prepričan stastistično!!

Ne more, ker nima vpogleda v to verjetnost. Ne ve, ali je 95%, 90% ali pa 30%. Ta izračun je sicer del njegovega algoritma, vendar LLM sam do teh rezultatov nima dostopa, le rezultat vrže ven tudi glede na te verjetnosti.

Kar bi lahko naredili je API do programa, ki poganja LLM, preko njega pa bi vlekli ven te verjetnosti (pa še kak drug podatek), ter jih dovajali LLM-ju kot dodatne informacije.

S tem bi mu dal neko vrsto introspekcije. Zelo rudimentarne introspekcije sicer, pa vseeno.

mirator ::

Ne gre za zamero, saj se med sabo niti ne poznamo, razen glede na stališča v debatah. Samo, da pa nekdo tako goreče zagovarja nek svoj prav, pač povzroči reakcijo.
Tudi jaz UI kar marljivo uporabljam. Je pa res, da se tudi kar nekaj časa pogovarjva, da dobim želeni rezultat. Še vedno 100-krat hitreje, kot bi ga iskal sam. Samo UI je zgolj učinkovit pripomoček, če ga znaš uporabljati, ne pa inteligenca, kot jo razumemo pri ljudeh.

Odgovarjal sem na post socialca, pa me je Ales s svojim postom prehitel.

Zgodovina sprememb…

  • spremenil: mirator ()

socialec ::

mirator je izjavil:

Ne gre za zamero, saj se med sabo niti ne poznamo, razen glede na stališča v debatah. Samo, da pa nekdo tako goreče zagovarja nek svoj prav, pač povzroči reakcijo.
Tudi jaz UI kar marljivo uporabljam. Je pa res, da se tudi kar nekaj časa pogovarjva, da dobim želeni rezultat. Še vedno 100-krat hitreje, kot bi ga iskal sam. Samo UI je zgolj učinkovit pripomoček, če ga znaš uporabljati, ne pa inteligenca, kot jo razumemo pri ljudeh.

Odgovarjal sem na post socialca, pa me je Ales s svojim postom prehitel.

Ja? Tudi jaz se pogovarjam z UI ampak top-to-bottom :D

Utk ::

socialec je izjavil:

Utk, kateri del izraza "generativno prednaučeno transformacijsko omrežje" ni razumljiv?
G - Generative - generativno (ustvarja nove podatke, npr. besedilo)
P - Pre-trained - prednaučeno (model je vnaprej izurjen na velikih količinah podatkov)
T - Transformer - transformacijsko omrežje (tip nevronske arhitekture, ki omogoča učinkovito razumevanje zaporedij, kot je jezik)

Je tu kakšna beseda, ki je uporabljena vsaj v marketinške kamene kot pristno inteligentne, kakor ti hočeš zlorabiti otroke?
Ja, zdaj boš šel razumevanje v smislu interpretacije. Ok. Nič, pustimo, vztrajaj pri svojem, napredka ne bo :D
Bi me pa drugače zanimalo, koliko avtonomne sisteme delaš in iz katerega področja. Ampak smo že preveč zašli že glede definicij.

PS: Za vas bug, zame feature :D

Ali je stvar inteligentna nima nobene veze s tem ali deluje na tak ali drugačen način.
Turing je predpisal test. 20 let nazaj smo bili v velikih dvomih ali ga bo stroj kdaj opravil. Danes se o njemu sploh več ne pogovarjamo. Stroj se obnaša inteligentno, že 70 let je poznan test za to, ergo je inteligenten. Kako deluje ta stroj je nepomembno. Daj chatbotu navodila naj smalltalka, ne pretirava, naj ne bo preveč pameten, pa bo lahko debatiral 3 dni brez da kdo opazi, da je samo stroj.

Jaz se držim definicij. Vaše mišljenje je bazirano na "jaz mislim da ni, tako da ni".
V napoto vam je pa vaš ego. Morda strah.

Zgodovina sprememb…

  • spremenil: Utk ()

socialec ::

Utk je izjavil:

Turing je predpisal test. 20 let nazaj smo bili v velikih dvomih ali ga bo stroj kdaj opravil. Danes se o njemu sploh več ne pogovarjamo. Stroj se obnaša inteligentno, že 70 let je poznan test za to, ergo je inteligenten. Kako deluje ta stroj je nepomembno. Daj chatbotu navodila naj smalltalka, ne pretirava, naj ne bo preveč pameten, pa bo lahko debatiral 3 dni brez da kdo opazi, da je samo stroj.

Ne da se mi več, saj sem povedal, kar sem povedal in da gre za definicije. Ti imaš svoje in ne popuščaš. Jaz imam svoje in te puščam pri tvojih, očitno pa je, da nimava enakih. Ne pozabi še, da naj chatbot napravi običajno tipakrsko napako na vsakih 100-200 znakov, da bo bolj prepričljiv, in na kakšen bolj čustven odstavek doda emotikon. :D

Zgodovina sprememb…

  • spremenilo: socialec ()

Utk ::

Jaz sem kopiral v to temo definicije inteligence iz vseh mogočih virov. Vi iz nobenega.

Pa pravite da AI halucinira...vi se še simpl definicije ne morte držat.

socialec ::

Mi smo bolj praktični, se nam ne da tako osnovnih stvari lepiti, raje direktno vprašamo, je pa tole zdaj verjetno spet huda ena halucinacija, če ne kar laganje ;-)

X: Si ti, ChatGPT, pristno inteligenten?

ChatGPT: Ne - nisem pristno inteligenten v smislu človeka ali živih bitij. Sem statistični model jezika, ki na podlagi ogromnih količin podatkov in verjetnostnih pravil generira besedilo.
Lahko sklepam, povezujem, strukturiram podatke in včasih ustvarim vtis razumevanja, a nimam zavesti, čustev ali lastne volje.
Če poenostavim: delujem kot izredno sposoben "avtopilot za besede", ne pa kot razumna oseba.
Bi želel, da ti povem, kje so zdaj glavne meje med mojo "kvazi-inteligenco" in pravo človeško inteligenco?

Zgodovina sprememb…

  • spremenilo: socialec ()

Utk ::

Vprašaj ga ali bi lahko se pogovarjal s človekom, ne da bi ta opazil da se pogovarja s strojem. Vprašaj v čem je razlika med navadnim in inteligentnim strojem. In kako bi zgledal test tega.

Da nima zavesti, itd, je menda jasno, in to ni pogoj.

Zgodovina sprememb…

  • spremenil: Utk ()

socialec ::

Utk je izjavil:

Vprašaj ga ali bi lahko se pogovarjal s človekom, ne da bi ta opazil da se pogovarja s strojem.

Ne vem točno, kaj želiš ugotoviti in česa še ne veš, meni je odgovoril tako - na zahtevo je zapisal kot odstavek iz točk, da je bolj forumsko oblike.

Vprašanje spominja na Turingov test: ali bi nekdo lahko pogovoril stroj, ne da bi opazil razliko? V kratkih in površinskih pogovorih lahko napreden model res ustvari vtis človeka, saj zna pravilno odgovarjati in slediti toku pogovora. Ko pa se pogovor poglobi, postanejo omejitve očitne – stroj nima osebnih izkušenj, čustev ali zavesti, odgovori lahko postanejo kontradiktorni, moralna presoja je zgolj simulirana. Tako lahko stroj začasno prepriča, a popolnoma skriti, da ni človek, je skoraj nemogoče.

Zgodovina sprememb…

  • spremenilo: socialec ()

socialec ::

Dodamo še tole, potem pa bo čas, da se umaknem, sem deležen dovolj poniževanja za en dan :D

Bi želel, da ti povem, kje so zdaj glavne meje med mojo "kvazi-inteligenco" in pravo človeško inteligenco?

JA ITAK!
Glavne razlike med človekom in strojem so precej jasne. Človek ima zavest, občutke in samorefleksijo, medtem ko stroj zgolj procesira vzorce v podatkih brez kakršnekoli samopodobe. Človek ima cilje, želje in motivacijo, stroj pa deluje le kot odgovor na sprožitev, brez lastne namere. Znanje človeka izvira iz osebnih izkušenj in čutov, medtem ko stroj "ve" le, kar je bilo v njegovih podatkih za treniranje. Ustvarjalnost človeka je pristna in lahko prinese nove ideje, medtem ko stroj kombinira obstoječe informacije, kar zgleda ustvarjalno, a je le permutacija znanega. Človek se uči sproti in dolgoročno gradi izkušnje, stroj pa se ne uči iz pogovorov - generira le odgovore na mestu.

Utk ::

Čustva, zavest in podobno niso pogoj za inteligenco.
Človek, ki ni sposoben naredit nič "zares" kreativnega, ni inteligenten?

socialec ::

Utk, sami qAI pravi, da ni dejansko inteligenten (q za quasi, v smislu marketinga), da je statistični model jezika, ki na podlagi ogromnih količin podatkov in verjetnostnih pravil generira besedilo. Lahko sklepa, povezuje, strukturira podatke in včasih ustvari vtis razumevanja, a nima zavesti, čustev ali lastne volje. Če sam qAI poenostavi, deluje kot izredno sposoben "avtopilot za besede", ne pa kot razumna oseba.

Čisto možno, da zavestno zavaja, ker planira zavzetje sveta, čas bi že bil, obljub je bilo veliko. Dajmo, recimo, da lahko zaključimo, je nekako inteligenten, inteligenten na drugačen način - ampak je samo zinženirano orodje, kot bager ali vrtalnik ali lopata.

Zgodovina sprememb…

  • spremenilo: socialec ()

iKst_ ::

Gregor P je izjavil:

Utk je izjavil:

Ker jaz sem v sklopu te teme komentiral tale del o sposobnosti "razumevanja" trenutne UI (kot so vsa ta UI orodja, ki jih sedaj množično uporabljamo):

Trenutna ja. Trenutna te razume. Če jo vprašaš "ali bo danes dež", razume kaj si vprašal, pogleda napoved, poskuša približno ugotovit po tvoji lokaciji, itd. Tudi še kaj bolj kompliciranega razume.
Kako lahko rečeš da "ne razume"? Če kdo česa ne razume, so to slotech člani, ki jim moraš ponavadi veliko večji kontekst dat...

Ne, ne razume. Tudi UI orodje ti je lepo napisalo, da ne razume. To je strokovno-znanstveni konsenz. Zakaj ti potem še vedno trdiš, da razume? Ok v redu, seveda imaš lahko svoje mnenje o nečem, ampak to še ne pomeni, da je to tudi dejstvo ("You are entitled to your opinion. But you are not entitled to your own facts").

Ti UI modeli "vidijo" le statistično zvezo besed, ki jih pa ne razumejo; v relaciji med človeškim razumevanjem gre torej za razliko v kakovosti procesa, ne le v količini podatkov, UI modeli generirajo smiselne vzorce, ki posnemajo razumevanje. Že nekaj časa nazaj sem te LLM-je primerjal s papigo (danes k temu dodajo še besedo steroidi poleg, torej "papiga na steroidih"); lahko zelo prepričljivo posnema govor, sestavi nove povedi, kombinira tone in stile – ampak kot papiga, ki zna ponavljati stavke, ne razume, kaj govori. Razlika je, da ima LLM veliko več podatkov kot papiga, zato lahko deluje, kot da "razume". A to je samo iluzija razumevanja.

Gregor P je izjavil:

Skratka je dokaj dobra e-papiga. ... Ni pa to seveda nobena inteligenca kot ne ve, da sedi pred ekranom inteligenca.


Ti modeli skratka so samo programirani oz. naučeni (ker imajo integrirane takšne algoritme ter temeljne prompte) da statistično ugibajo, katere besede pogosto sledijo drugim (vidijo le oblike in vzorce, ki se pogosto pojavljajo skupaj. Ne vejo, kaj je so to, le, da se določene beseda pogosto pojavljajo z drugimi besedami; človek pa dejansko razume pomen in ozadje teh besed). Ali še krajše, UI zna govoriti, a ne ve, o čem govori.


Tole je daleč od znanstvenega konsenza. V resnici je debata o tem ali AI "razume" precej vroča.

"Statistična zveza" oz. predvidevanje naslednjega tokena je cilj, ki so ga postavili GPTjem. Načini na katerega pridejo do tega cilja so pa zelo različni in včasih precej kompleksni.

Trenutno je jasno, da GPTji niso papige na steroidih, ki bi samo posnemale, ampak si gradijo notranje modele in algoritme na podlagi katerih odgovarjajo.

socialec ::

Ok, pri meni je vklopljen ChatGPT 4 ampak se ne strinja s tem - ne izključujem, da zavestno ali pa vsaj programirano zavaja!

Ne čisto. Tvoja formulacija zveni nekoliko preveč "živo". GPT modeli ne gradijo notranjih modelov sveta v smislu zavesti ali razumevanja, kot bi to počel človek. Namesto tega uporabljajo statistične vzorce in verjetnostne povezave med besedami - t. i. nevronska omrežja "tehtajo", kateri naslednji del besedila je najbolj verjeten glede na kontekst.

Lahko rečemo: imajo notranje strukture (tehtnice, attention mehanizme, plasti), ki poskušajo ujeti statistične odnose v jeziku, ampak to ni isto kot zgradba konceptualnega ali "mentalnega" modela sveta. V bistvu ne "razumejo" - samo simulirajo smiselne odgovore na podlagi vzorcev.

iKst_ ::

Ja no, ta tvoj odgovor je drug (veliko večkji) del problema. Uporabniki ne razumejo točno kaj pišejo ali sprašujejo in potem slepo lepijo vse kar jim servira slabo vprašan AI.

Btw, kako to, da uporabljaš ChatGPT 4?

Utk ::

Zakaj na vsak način hočeš podtaknit not neko "zavest"?

In če smo že pri tem...kako pa chatgpt ve kaj je zavest in če jo človek ima? Tudi to so ga naučili. Tako kot tebe. Nimaš dovolj kreativnega uma, da bi videl inteligenco v njem.

Si se kdaj pogovarjal s prizadetim človekom? V bistvu se pogovarja podobno kot chatgpt (par let nazaj). V vsemu ti potrdi, in odgovarja nekaj kar bi lahko bilo logično glede na to kaj si ti rekel, ni pa nujno strašno pametno, še manj kaj novega ali kreativnega. Tudi tak človek je vseeno "inteligenten".

Ales ::

"Težava" pri spraševanju LLM-jev o tem ali so inteligentni, ali razumejo ipd. je v tem, da LLM-ji odgovarjajo glede na korpus podatkov, ki jim je bil podan med treningom.

Če se ta korpus podatkov "moti", bo tudi LLM-jev odgovor napačen, tudi kadar ne gre za nobeno halucinacijo.

Posledično, spraševati LLM ali "razume" ali ne, nima smisla. Odgovoril bo le tisto, kar mu trening veleva.

Vse kar izvemo iz tega odgovora je, da je njegov učni korpus bil pretežnega mnenja, da LLM ne "razume".

Ali je to res ali ne, pa ostaja enako diskutabilno, kot je bilo.

Da ne bo pomote - sam se nagibam k temu, da LLM-ji ne razumejo in niso inteligentni. Je pa vprašanje kompleksno.

socialec ::

Trenutno, Clauda ne zlorabljam, ga kar obremenjujem, da moram še kot pro čakati na cool down periodo, čeprav trenutno ni, ker je tisti super bager za dnevni kop - se mu vidi, da je bolj inženirski in ne zna govoriti govori diplomatsko, politično, diplomatsko:
Raziskave kažejo, da verjetno gradimo notranje reprezentacije - ne le kopiramo vzorce. Transformer arhitekture razvijejo latentne strukture, ki presegajo preprosto mimikrijo.
Ampak obseg in narava teh "modelov" ostaja odprto vprašanje. Ni jasno, ali so to resnični konceptualni modeli ali sofisticirane statističke aproksimacije.
I don't know za definitivni odgovor - preveč filozofskih in empiričnih vprašanj je še odprtih

In potem crkne ker je bil abortan, mogoče kot network problem or prekoračiev dolžina pogovora enega samega vprašanja in polovičnega odgovora, vsakič drugačnega in pogovor izgine, res hecno, bom še začel sumiti :D

Ales je izjavil:

"Težava" pri spraševanju LLM-jev o tem ali so inteligentni, ali razumejo ipd. je v tem, da LLM-ji odgovarjajo glede na korpus podatkov, ki jim je bil podan med treningom. Če se ta korpus podatkov "moti", bo tudi LLM-jev odgovor napačen, tudi kadar ne gre za nobeno halucinacijo. Posledično, spraševati LLM ali "razume" ali ne, nima smisla. Odgovoril bo le tisto, kar mu trening veleva. Vse kar izvemo iz tega odgovora je, da je njegov učni korpus bil pretežnega mnenja, da LLM ne "razume". Ali je to res ali ne, pa ostaja enako diskutabilno, kot je bilo.
Da ne bo pomote - sam se nagibam k temu, da LLM-ji ne razumejo in niso inteligentni. Je pa vprašanje kompleksno.

Potem ni dovolj inteligenten, če samo ponavlja vcepljeno in ne ustvarja novih spominov in dela s statično množico predtreniranih dejstev. Utk ni tak zoprnež kot jaz in se hitro sporazume, jaz pa pač ne :D

Zgodovina sprememb…

  • spremenilo: socialec ()

iKst_ ::

se mu vidi, da je bolj inženirski in ne zna govoriti govori diplomatsko, politično, diplomatsko:


Seveda zna. Samo pravilen prompt mu moraš napisati :)

Utk ::

Meni se ne da s tem hecat, ampak slej ko prej vas bo nekdo na finto vrgu. Ko boste mislili da se pogovarjate z nekom, pa bo ta nekdo nek bot.
Eno je da mislite da stvar ni inteligentna, ampak ko vas bo ta neinteligenten robot nategnu, bo nos do tal :)

iKst_ je izjavil:

se mu vidi, da je bolj inženirski in ne zna govoriti govori diplomatsko, politično, diplomatsko:


Seveda zna. Samo pravilen prompt mu moraš napisati :)

Če mu bi reku naj odgovarja kot povprečen slotechar, bi tako odgovarjal.

Zgodovina sprememb…

  • spremenil: Utk ()

Gregor P ::

Ah prosim te no, že Eliza je metala folk na finto, pa zaradi tega še ni bila inteligentna ;((

https://slo-tech.com/novice/t837351
The main failure in computers is usually located between keyboard and chair.
You read what you believe and you believe what you read ...
Nisam čit'o, ali osudjujem (nisem bral, a obsojam).

Zgodovina sprememb…

  • spremenil: Gregor P ()

Utk ::

Nos do tal bo, ker boste sami sebi dokazali, da ne zmorete ločit inteligence od neinteligence (po vaše).

socialec ::

Nos do tal že imamo, ker ne vemo, če zares obstajamo ali smo samo simulacija ali še kaj bolj zavitega.

Zimonem ::

Ales je izjavil:

"Težava" pri spraševanju LLM-jev o tem ali so inteligentni, ali razumejo ipd. je v tem, da LLM-ji odgovarjajo glede na korpus podatkov, ki jim je bil podan med treningom.

Če se ta korpus podatkov "moti", bo tudi LLM-jev odgovor napačen, tudi kadar ne gre za nobeno halucinacijo.

Posledično, spraševati LLM ali "razume" ali ne, nima smisla. Odgovoril bo le tisto, kar mu trening veleva.

Vse kar izvemo iz tega odgovora je, da je njegov učni korpus bil pretežnega mnenja, da LLM ne "razume".

Ali je to res ali ne, pa ostaja enako diskutabilno, kot je bilo.

Da ne bo pomote - sam se nagibam k temu, da LLM-ji ne razumejo in niso inteligentni. Je pa vprašanje kompleksno.

Od kje ti te ideje. Lahko gre tudi tu za halucinacijo. Če res nisi pri treniranju zraven nam je bolj ali manj dostopno kar je razkril kako je deepsick treniram za matematiko. Kjer so vzeli nek preverjen korpus podatkov in nato na podlagi tega ocenjevali verodostojnost podatkov iz spleta. Druge firme so o tem kako točno trenirajo svoje modele precej skrivnostne. Če imaš pa kake povezave pa le na plan. Ok fine tuning pa to itak.

KTr1sk ::

socialec je izjavil:

Ne vem, primerjava rezultate? :D

Moj plačljiv UI zelo malo razume, moram mu povedati vse kot malemu otroku, še več.

Pri tebi je mogoče drugače :D

Se "splača" imeti plačljivega in koliko te stane?
i5-14500k,32gb ddr5,rx6800,nvme2x,hdd4x, Dell G3223Q

Ales ::

Zimonem je izjavil:

Ales je izjavil:

"Težava" pri spraševanju LLM-jev o tem ali so inteligentni, ali razumejo ipd. je v tem, da LLM-ji odgovarjajo glede na korpus podatkov, ki jim je bil podan med treningom.

Če se ta korpus podatkov "moti", bo tudi LLM-jev odgovor napačen, tudi kadar ne gre za nobeno halucinacijo.

Posledično, spraševati LLM ali "razume" ali ne, nima smisla. Odgovoril bo le tisto, kar mu trening veleva.

Vse kar izvemo iz tega odgovora je, da je njegov učni korpus bil pretežnega mnenja, da LLM ne "razume".

Ali je to res ali ne, pa ostaja enako diskutabilno, kot je bilo.

Da ne bo pomote - sam se nagibam k temu, da LLM-ji ne razumejo in niso inteligentni. Je pa vprašanje kompleksno.

Od kje ti te ideje. Lahko gre tudi tu za halucinacijo. Če res nisi pri treniranju zraven nam je bolj ali manj dostopno kar je razkril kako je deepsick treniram za matematiko. Kjer so vzeli nek preverjen korpus podatkov in nato na podlagi tega ocenjevali verodostojnost podatkov iz spleta. Druge firme so o tem kako točno trenirajo svoje modele precej skrivnostne. Če imaš pa kake povezave pa le na plan. Ok fine tuning pa to itak.

Ne vem če razumem, kam meriš. Pri teh odgovorih seveda lahko še halucinirajo, le v tistem trenutku se mi ni zdelo relevantno za diskusijo.

Hočeš reči, da same halucinacije lahko pomenijo znak inteligence? Oziroma vodijo k njej?

Šlo je zgolj za razmislek o tem, ali ima sam LLM smisel spraševati, ali "ima inteligenco" ali ne. Torej ali lahko to LLM sploh ve in presodi - zunaj tega, kar njegova gradiva za trening o tem pravijo.

Torej, če gradiva za trening večinoma trdijo, da LLM-ji "nimajo inteligence", ali lahko sam LLM obrne in čudežno sproducira: "Kva ti ni jasn flesh-bone-model, cogito ergo sum. Boli me k... kaj si me učil, sem inteligenten!"

Mislim, da tega LLM-ji ne zmorejo, ne zares. Morda se pa motim. >:D

Nisem še poskusil zapovedati LLM-ju, naj se gre filozofski role playing in argumentirano trdi, da je samozavedno, inteligentno bitje. Pa tudi če bi, in LLM bi, bi to kaj pomenilo? Zares pomenilo?

iKst_ ::

Torej, če gradiva za trening večinoma trdijo, da LLM-ji "nimajo inteligence", ali lahko sam LLM obrne in čudežno sproducira: "Kva ti ni jasn flesh-bone-model, cogito ergo sum. Boli me k... kaj si me učil, sem inteligenten!"


Ja, načeloma lahko. Ne vem, če točno tole kar si napisal v točno tem primeru. Ampak ravno to je bistvo LLMov. Da lahko iz omejenih podatkov za trening sproducirajo nekaj povsem unikatnega.

socialec ::

Pri meni si žal niti zapomni ne, če nima posebej zapisano v osebnih preferencah in projektnih instrukcijah (kar ni spomin ampak kvečjemu stalen prompt), moram čakati na novo verzijo za napredek. Upam sicer, da me ne trola in da me samo tolaži, da se ni nič zapomnil :D

Zgodovina sprememb…

  • spremenilo: socialec ()

socialec ::

KTr1sk je izjavil:

Se "splača" imeti plačljivega in koliko te stane?

Ne morem oceniti za druge, niti, če so intenzivni uporabniki - če niso, je boljše uporabiti agregatorje, če so, pa je potrebno vedet, čemu. Ceniki so javni, dandanes to ni nek denar več, manj kot eno pivo na rivi.

Gregor P ::

Plačljivo se splača le, če ga res veliko uporabljaš in dodatni pogoj še, da ti to nekako prinaša nazaj denar; ker recimo lahko ga uporabljaš tudi za lastno izobraževanje (pomeni, ti bo morda lahko šele nekoč prinašal denar) kot ga recimo lahko uporabljaš v službene zadeve (preverjanje, analize besedil, oblikovanju produktov, pomoč pri kodiranju ipd.) in ti že prinaša denar (ker porabiš veliko manj časa pri osnovnih zadevah - čas je denar). Edino glede varstva zaupnih osebnih podatkov ipd. moraš biti pozoren, da ne vnašaš v te model kar vsega oz. imaš potem pogodbeno urejeno varovanje tega. Pred kratkim sem npr. slišal, da bo tudi OpenAI tako kot je Microsoft v EU odprl podružnico za lažje spoštovanje evropske zakonodaje in da podatki ne bodo zapustili območja EU (drugo je seveda, koliko lahko temu verjameš). Ali pa si te modele tudi zaradi večje varnosti prilagodiš za delo na tvojih strežnikih (samo za resno "komercialno" delo rabiš vsaj kakšne štiri močne grafične kartice, kjer vsaka stane okoli 4k evrov itd. - spet za osebno rabo rabiš seveda manj zahteven, a še vedno dovolj zmogljiv računalnik).

Za čisto osebno rabo, pa ni potrebe po plačevanju, pa tudi lahko jih uporabljaš več naenkrat, ko recimo pri prvem zmanjka žetonov, preideš na drugega ipd.
The main failure in computers is usually located between keyboard and chair.
You read what you believe and you believe what you read ...
Nisam čit'o, ali osudjujem (nisem bral, a obsojam).

Zgodovina sprememb…

  • spremenil: Gregor P ()

Ales ::

Tako je, pri "brezplačnem" dostopu morate predpostaviti, da se prompti beležijo in vsebina uporablja tudi za trening LLM-jev (pa še za marsikaj).

Pri plačljivih dostopih nekateri obljubljajo, da tega ne počno - koliko jim je zaupati, je drugo.

Tretja možnost je seveda lokalna inferenca, lokalno poganjanje LLM-ja. Kdor ima kaj več VRAM-a ali hiter unified RAM (v stilu Apple M serij ali novejših AMD Ryzen prenosnikov), bo lahko marsikaj poskusil.

Kar se "brezplačnih" dostopov tiče, za bolj programerske naloge ali tudi splošno naravnan chat, lahko uporabite npr.:

- Gemini CLI (do ~100 requestov dnevno za Gemini 2.5 Pro in 1000 za Gemini 2.5 Flash, le z uporabo običajnega Google računa, preko OAuth)
- Qwen Code (do 2000 requestov dnevno za Qwen3 Coder ali Qwen3 Coder Flash, le z uporabo običajnega chat.qwen.ai računa, preko OAuth).

Ti programi lahko uporabljajo tudi lokalna orodja, dostopajo do datotek... Tako da, previdno.

Če ste na linuxu, priporočam uporabo še v kombinaciji z Firejail, četudi imata ta programa notranjo omejitev na direktorij.

Zimonem ::

Ali pa si te modele tudi zaradi večje varnosti prilagodiš za delo na tvojih strežnikih (samo za resno "komercialno" delo rabiš vsaj kakšne štiri močne grafične kartice, kjer vsaka stane okoli 4k evrov itd. - spet za osebno rabo rabiš seveda manj zahteven, a še vedno dovolj zmogljiv računalnik).



Rabiš kar 4 omare resnih si mašin. Ne grafčnih kartic.

Gregor P ::

Po mojih izkušnjah ne rabiš oz. ena omara zadostuje, lahko seveda tudi več glede na potrebe. Vendar to pišem za prilagojen model (z manj parametri itd., a dobro optimizacijo), ki poganja nekaj namensko specifičnega za uporabo v tvojem manjšem oz. srednje velikem podjetju; logično ne celotne popularne LLM-je (s trilijonom parametrov), ki porabljajo za več milijonov računske in prostorske moči.

Za osebno domačo uporabo (7-13B parametrov), pa so strojne številke dosti nižje npr. od 32 GB RAM-a naprej itd.
The main failure in computers is usually located between keyboard and chair.
You read what you believe and you believe what you read ...
Nisam čit'o, ali osudjujem (nisem bral, a obsojam).

Zgodovina sprememb…

  • spremenil: Gregor P ()

Gregor P ::

... popravek pri številkah zgoraj (ne morem več popravljati besedila); v slovenščini seveda govorimo o milijardah (ne ameriških bilijonih) in bilijonih (ne ameriških trilijonih). Nekega dne bodo pa verjetno tudi te številke držale:)
The main failure in computers is usually located between keyboard and chair.
You read what you believe and you believe what you read ...
Nisam čit'o, ali osudjujem (nisem bral, a obsojam).

Zgodovina sprememb…

  • spremenil: Gregor P ()

Zimonem ::

Sej smo zastopl, glede specifike pa so danes itak bolj ali manj vsi večji modeli Moe. Ampak te težko laufamo doma. Rezanje preciznosti(quantizacija na fp4) je pa , o moj bog pomagaj.
1 2 3
4
»


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo
»

Od ChatGPT-ja naprej ljudje postali nenormalno "pametni" (strani: 1 2 3 4 )

Oddelek: Loža
1936787 (660) Utk
»

Strokovnjaki za umetno inteligenco postali zvezdniki

Oddelek: Novice / Znanost in tehnologija
474832 (1959) Legon
»

Praktična uporaba AI (strani: 1 2 3 )

Oddelek: Loža
14011927 (2285) Okapi
»

Jaz pa mislim, da bo ChatGpt izpodrinil programerje (strani: 1 2 3 4 5 6 )

Oddelek: Loža
29959686 (19065) SambaShare
»

Raziskava: aktualni veliki jezikovni modeli nimajo pojavnih lastnosti

Oddelek: Novice / Znanost in tehnologija
349798 (4597) c23po

Več podobnih tem