»

Nvidia spet rekordno

Slo-Tech - Nvidia se še vedno kopa v denarju, v minulem četrtletju pa je ponovno poslovala rekordno. Zaključilo se je tudi njihovo poslovno leto, ki traja od februarja do januarja. V minulem letu so ustvarili 130,5 milijarde dolarjev prihodkov, od tega kar 81,5 milijarde dolarjev dobička iz poslovanja in na koncu 72,9 milijarde dolarjev čistega dobička. To je 147 odstotkov višji čisti dobiček kot leto pred tem. Za primerjavo: AMD-jev dobiček je 43-krat nižji.

Zgolj v minulem četrtletju je bila rast prihodkov 78-odstotna (v primerjavi z minulim letom), saj so dosegli 39,3 milijarde dolarjev. Največ je seveda ustvaril oddelek za podatkovne centre, kamor sodi večina umetne inteligence, in sicer 35,6 milijarde dolarjev. V trenutnem četrtletju naj bi bila ta številka še višja, in sicer 43 milijard dolarjev. Bruto marža je znašala neverjetnih 73 odstotkov, kar pa je nekoliko manj kot v tretjem četrtletju, ko je bila 74,6-odstotna, ali leto pred tem, ko je bila 76-odstotna.

Naslednji veliki...

10 komentarjev

Nvdiin direktor: DeepSeek še vedno potrebuje veliko računske moči

Slo-Tech - Prvikrat po izidu modelov DeepSeek V3 in R1, ki sta pošteno zatresla borze in spremenila pričakovanja, se je o tem oglasil Nvidiin direktor Jensen Huang. Poudaril je, da vlagatelji in s tem trg niso razumeli, kako poteka izdelava, učenje in izboljševanje modelov umetne inteligence, zato so napačno predvidevali, da je DeepSeek resnično toliko cenejši.

Poudaril je, da je R1 dober model. Njegov prihod je za trg umetne inteligence dober in bo pospešil uvedbo umetne inteligence v različne sektorje. Po njegovem mnenju - kot direktor Nvidii bi težko javno govoril kaj drugega - to pomeni, da se bo povpraševanje po zmogljivih čipih povečalo, ne pa zmanjšalo. To ni zelo iz trte izvito, saj zgodovina uči, da pocenitev in poenostavitev tehnologije poveča njeno rabo, s tem pa tudi kumulativna vlaganja.

Ob tem je pojasnil, da so bile glavne DeepSeekove izboljšave v postopku začetnega urjenja (pre-training) modela. To resnično lahko poteka z manj računske moči, kar je dobrodošlo. Javnost pa je...

9 komentarjev

Južna Koreja umaknila aplikacijo DeepSeek

Slo-Tech - V Južni Koreji je informacijski pooblaščenec odločil, da morajo zaustaviti prenašanje aplikacije za kitajsko umetno inteligenco DeepSeek. Omejitev velja le za nove prenose, torej so aplikacijo odstranili s spletnih tržnic, obstoječi uporabniki pa lahko nadaljujejo uporabo. Proizvajalec je priznal, da morda niso spoštovali vseh pravil, ki jih zapoveduje južnokorejska zakonodaja o varovanju zasebnosti.

V Južni Koreji je zasebnost izjemno strogo varovana. DeepSeek ne opredeljuje ustrezno podrobnosti o posredovanju podatkov tretjim strankam in zbiranju osebnih informacij. Dokler teh podrobnosti ne razčistijo, bo aplikacija v državi ostala zamrznjena. Kitajci so v Južno Korejo že poslali predstavnike podjetja, ki bodo skušali zgladiti spor.

Na Zahodu DeepSeek ostaja dostopen, dasiravno je skepse veliko, varnostne službe pa so tudi zaskrbljene. DeepSeek je na primer prepovedan na službenih napravah državnih uradnikov v Avstraliji, Južni Koreji in Tajvanu. V Italiji je DeepSeek začasno...

12 komentarjev

Kaj nam bodo dragi modeli, če imamo poceni?

Slo-Tech - DeepSeek je razburkal svet z najavo, da so svoj model DeepSeek R1 izurili za vsega šest milijonov dolarjev, a gre še ceneje. Raziskovalci s Stanforda in washingtonske univerze so pripravili model s1, ki je primerljiv z OpenAI o1 in DeepSeek R1, le da so za njegovo pripravo porabili 50 dolarjev, kodo in vhodne podatke trening pa priobčili javnosti.

Ocena 50 dolarjev ni povsem poštena, saj so porabili toliko denarja za najem računske moči za trening. V to torej niso všteti niti stroški nabave strojne opreme niti stroški dela ljudi. Druga pomembna podrobnost je način učenja, saj je s1 uporablja distilacijo, torej se je učil na modelu Gemini 2.0 Flash Thinking Experimental. Na podoben način so na Berkeleyju že januarja pripravili model za 450 dolarjev.

Kodo za s1 in vse spremljajoče informacije so objavili na Githubu. To pomeni, da ga lahko uporabi ali nadalje razvija vsakdo. Ključno vprašanje pa je, kaj to pomeni za razvoj novih modelov od začetka. Razvoj s1 je bil tako poceni, kar...

20 komentarjev

DeepSeek je na internetu pozabil javno dostopno bazo svojih podatkov

Slo-Tech - DeepSeek je morda res zatresel svet, a pri tem so bili površni in nepazljivi. Na internetu se je znašla baza podatkov, v kateri so tudi vsebine pogovorov, ki so jih imeli z DeepSeekom različni uporabniki. Gre za bazo Clickhouse, ki ima več milijonov vrstic dnevnika pogovorov. Poleg tega je v njej moč najti tudi ključe, podrobnosti delovanja in druge občutljive informacije.

Ranljivost je že zakrpana, saj so jo v podjetju Wiz Research po odkritju takoj odgovorno prijavili DeepSeeku, ki je hitro ukrepal. Baza je bila dostopna na naslovih oauth2callback.deepseek.com:9000 in dev.deepseek.com:9000, uporabljala pa ni niti najosnovnejših zaščit. Brez kakršnekoli avtentikacije je bilo možno izvajati operacije nad bazo. Odkrili so jo med rutinskim pregledovanjem, katere domene ima DeepSeek javno dostopne, in to ne le prek vrat 80 ali 443. Nekaj domen so tako našli, ki so odgovarjale na vratih 8123 in 9000.

Ami Luttwak iz Wiz Research dodaja, da se napake seveda dogajajo, a je šlo v tem...

43 komentarjev

Po DeepSeeku tudi Alibaba

Slo-Tech - Danes je svoj veliki model predstavila tudi Alibaba. Qwen2.5-Max, ki je bil natreniran na 20.000 milijardah drobcev informacij (token), je po meritvah ustvarjalcev celo malo boljši od Deepseeka V3, GPT-4o, Llame-3.1 in primerljiv s Claude-3.5-Sonnetom.

Novi model lahko preizkusimo kot klepetalnik, naročniki pa imajo tudi dostop do API prek Alibaba Cloud. Prve verzije Qwen2.5 smo sicer videli že jeseni. Qwen2.5-Max lahko sprejme do 100.000 vhodnih znakov, njegovi odgovori pa so tudi v slovenščini. Qwen2.5 zna odgovarjati na vprašanja, brskati po spletu, ustvarjati slike in videoposnetke.

Alibaba model označuje kot vizualnega agenta, s čimer namiguje na multimodalnost. Osnovan je na verziji Qwen2-VL iz septembra 2024, na voljo pa je v verzijah s 3, 7 in 72 milijardami parametrov. Na voljo je tudi na Githubu.

35 komentarjev

Kitajska družba DeepSeek razburkala področje umetne inteligence s poceni jezikovnim modelom R1

Slo-Tech - V približno tednu dni je dotlej malo znano kitajsko podjetje DeepSeek z lansiranjem naprednega velikega jezikovnega modela R1 področje generativnih algoritmov na videz postavilo na glavo: za bistveno nižjo ceno so namreč napravili izdelek, ki se lahko kosa z OpenAI o1.

Prejšnji ponedeljek - ravno na dan Trumpove druge prisege - je malo znano kitajsko zagonsko podjetje DeepSeek predstavilo družino jezikovnih modelov DeepSeek R1. Natančneje, gre za modele z določeno zmožnostjo sklepanja (simulated reasoning - SR), ki v fazi izvajanja postopek odgovarjanja strukturirajo v nekakšno zaporedje argumentiranega iskanja delnih odgovorov, zaradi česar so uporabni predvsem na področju znanosti, matematike in tehnologije. Prvi algoritem takšne sorte so pri OpenAI predstavili lanskega septembra v obliki o1 in torej veljajo za čelo napredka.

Posebnost R1 pa ni zgolj to, da naj bi kitajski startup v zgolj nekaj mesecih dohitel OpenAI, saj naj bi bil R1 po izkazu sila blizu o1, temveč še bolj v...

169 komentarjev