»

OpenAI ukinil GPT-4o in ljudje so žalostni

Slo-Tech - V noči na soboto je OpenAI uporabnikom ukinil dostop do starejšega modela GPT-4o, ki so ga izdali maja 2024. V ChatGPT je bil na voljo brezplačno, naročniki plačljivih paketov pa so imeli na voljo neomejeno število pogovorov. Že ko je OpenAI avgusta lani prvikrat upokojil model, so se uporabniki odločno pritožili, zato ga je v plačljive naročniške pakete začasno vrnil. Sedaj ga je res konec.

Pričakovali bi, da je upokojitev starejše generacije modela umetne inteligence bolj formalnost, a odzivi nekaterih uporabnikov so zelo čustveni. Marsikdo je GPT-4o vsem tveganjem navkljub uporabljal kot osebnega pomočnika, prijatelja ali partnerja. In prav ti uporabniki so najbolj nejevoljni. Analiza 1500 objav na X-u je pokazala, da so uporabniki v 33 odstotkih odzivov poudarjali, da je bil GPT-4o več kot le orodje, za 22 odstotkov je bil pravi spremljevalec.

GPT-4o je bil sicer tarča številnih polemik, saj se je obnašal preveč uslužno in je podpiral tudi najbolj nezdrave ideje. V...

13 komentarjev

OpenAI je moral umakniti novi GPT-4o, ker je bil preveč ustrežljiv

Slo-Tech - OpenAI je bil prisiljen odstraniti zadnjo posodobitev modela ChatGPT, ker je bil zaradi svoje ustrežljivosti povsem neuporaben. Posodobitev modela GPT-4o, ki so jo razkrili 25. aprila, se je z uporabniki strinjala tudi o najbizarnejših zamislih. Sedaj je OpenAI pojasnil, kaj je šlo narobe in kako se bodo v prihodnosti podobnim napakam izognili.

Neželeno lastnost modela so označili s terminom sycophancy (iz grškega sykophántēs), kar bi lahko prevedli kot prilizovanje. Model je bil naučen, da se strinja z uporabnikom in potrjuje njegove zamisli in tudi čustveno stanje. To pa ima lahko tudi škodljive posledice, zlasti kadar podkrepljuje tvegano vedenje. Posodobitev so zato tri dni pozneje odstranili.

To je bila peta posodobitev GPT-4o od njegove prve inkarnacije lanskega maja. Vsaka posodobitev nastane z dodatnim prilagajanjem po osnovnem učenju (post-training), prav tako pogosto preizkušajo manjše spremembe v učenju. Začnejo z natreniranim osnovnim modelom, ki ga potem izpopolnijo...

9 komentarjev

OpenAI o1-pro najdražji model umetne inteligence doslej

Slo-Tech - OpenAI je predstavil novi model o1-pro, ki ga lahko brez dvoma označimo kot najdražjega doslej. Za "konsistentno boljše odzive" od o1 potrebuje precej več računske moči, ki jo bo OpenAI tudi pošteno zaračunal. Na voljo bo le tistim uporabnikom plačljivih verzij, ki so za dostop prek OpenAI-jevih API-jev porabili vsaj pet dolarjev. Za o1-pro bodo morali sicer prej več, saj bo milijon žetonov (kar ustreza okoli 750.000 besedam) stal 150 dolarjev za vnos, toliko odziva pa bo stalo še 600 dolarjev. To je dvakrat več od GPT-4.5 in desetkrat več od o1. Najcenejši model gpt-4o-mini pa je kar tisočkrat cenejši.

A OpenAI verjame, da bo tudi za tako zasoljeno ceno našel voljne naročnike, ki bodo cenili izboljšane odzive. Kot pravijo, o1-pri misli globlje in bolje, s tem pa rešuje težje probleme. Prvi testi verzije, ki je bila dostopna prek spleta, niso bili zelo pozitivni. Imel je kar nekaj težav s preprostimi nalogami, kot je sudoku, pretentali pa so ga tudi optične prevare. Na...

2 komentarja

OpenAI predstavil novi model O1

Slo-Tech - OpenAI je v četrtek predstavil nov generativni model O1, ki je trenutno na voljo v izvedenkah o1-mini in o1-preview. Ključna razlika v primerjavi s predhodnikom GPT-4o je bolj celostno razmišljanje, saj je model namenoma narejen tako, da se odziva nekoliko počasneje in da premisli o celotnem vprašanju, preden izpljune odgovor. To so dosegil tako, da so ga učili na povsem novem podatkovnem nizu, hkrati pa so uporabili nove algoritme. Za zdaj še nima večmodalnosti, zato ne more analizirati fotografij ali slikati.

Hkrati je tudi precej dražji, zato bo uporaba prek API od tri do štirikrat dražja, uporabniki plačljive spletne inačice pa bodo dobili le omejeno število poizvedb na teden. OpenAI O1 v resnici še ni povsem končan, zato ga označujejo kot preview. A kljub temu je pri vprašanjih, ki terjajo celostni premislek, denimo pri reševanju matematičnih zagonetk, presenetljivo natančen. Ker pa nima dostopa do interneta in ima drugačno vrsto znanja, je manj natančen pri odgovarjanju na...

25 komentarjev

GPT-4o mini nadomešča GPT-3.5 Turbo

Slo-Tech - OpenAI je danes predstavil GPT-4o mini, ki je manjši brat že znanega GPT-4o. Na voljo bo tudi za uporabnike brezplačnih računov, saj bo nadomeščal GPT-3.5 Turbo. Za zdaj ni nobenih informacij, da bi bila uporaba omejena, tako kot to velja za GPT-4o, kjer imajo brezplačni uporabniki na voljo le nekaj odgovorov vsakih nekaj ur.

Za uporabnike, ki imajo plačljivi strojni dostop, je bistveno cenejši od prejšnjih verzij. OpenAI pojasnjuje, da stane 15 centov za milijonov vhodnih znakov in 60 centov za milijon izhodnih znakov, kar je približno desetkrat ceneje od najzmogljivejših modelov prejšnje generacije in 60 odstotkov ceneje od GPT-3.5 Turbo. GPT-4o mini zna marsikaj, predvsem pa je večmodalen, torej razume tako besedila kakor tudi slike in podobno. Trenutno razume besedilo in vid prek API, v prihodnosti pa bo še slike, video in zvok.

OpenAI pojasnjuje še, da je tudi v novem modelu onemogočeno škodljivo delovanje, denimo ustvarjanje sovražnega govora ali spama, pa tudi...

2 komentarja

OpenAI izdal GPT-4o

Slo-Tech - OpenAI je danes izdal novo verzijo velikega jezikovnega modela GPT-4o, ki je hitrejši in zmogljivejši od predhodnikov, ko gre za obdelovanje besedil, slik in zvoka. Tehnična direktorica Mira Murati je dejala, da bo brezplačno na voljo vsem uporabnikom, bodo pa imeli naročniki plačljive verzije na razpolago do petkrat več računske moči. Nove zmožnosti bodo javnosti predajali postopoma, začenši z besedilom.

Črka o pomeni "omni", so dodali v OpenAI. Pri obdelovanju in razumevanju besedila je enako sposoben kot GPT-4 Turbo, izboljšave pa so predvsem pri tekstu v drugih jezikih poleg angleščine. Sam Altman dodaja, da sta vmesnika za zvok in video najboljša doslej, kar je seveda treba vzeti z zrnom soli. Model je multimodalen, kar pomeni, da se enako dobro znajde v kakršnikoli kombinaciji zvoka, videa in besedila. Za razvijalce bo na voljo tudi API, ki pa bo plačljiv, a pol cenejši od GPT-4 Turbo. Razumevanje zvoka pa pomeni, da se bo možno z modelom pogovarjati kot z vsakim asistentom.
...

31 komentarjev