Slo-Tech - Marsikdo ima občutek, da moderni računalniki in telefoni preprosto niso tako odzivni, kot so bili starejši. Čeprav so neprimerno zmogljivejši, pri vsakdanjem rokovanju te hitrosti nekako ne vidimo. Ali je to res, se je odločil ugotoviti Dan Luu, ki je na več različno starih sistemih ugotavljal, kolikšna je zakasnitev med pritiskom na tipko na tipkovnici in izpisom znaka na zaslonu. Dogajanje je snemal s kamerama, ki zmoreta 240 in 1000 sličic na sekundo, in izvedel preprost preizkus. Rezultat potrjuje domneve, da so bili starejši sistemi odzivnejši.
Luu je ugotovil, da se je najhitreje odzival Apple 2e, pa tudi sicer so bili najhitrejši modeli iz 70. in 80. let. Če želimo današnje računalnike narediti tako odzivne, se moramo zateči k nekaterim trikom, kot je na primer dvig frekvence osveževanja. Luu pojasnjuje, da je Apple 2e najhitrejši zaradi več razlogov - uporablja efektivno frekvenco branja tipkovnice 556 HZ (danes 100-200 Hz), ima hiter zaslon s katodno cevjo (8,3 ms) in namensko vezje za obdelavo vnosov prek tipkovnice. Današnji sistemi so bistveno kompleksnejši, kar kljub večji hitrosti prinese slabšo odzivnost. Vseeno pa vse ni čisto črno, zaključuje, saj se v zadnjem času odzivnost spet izboljšuje - najslabše je bilo okrog preloma tisočletja. Luu je analiziral tudi pametne telefone in tablice ter ugotovil, da so Applove naprave odzivnejše od Androidnih. Približa se jim le BlackBerry.
Ali je odzivnost pomembna? Je. Razlika med 50 in 200 milisekundami za tipkanje besedil sicer ni kritičnega pomena, je pa definitivno opazna, kot kaže spodnji video.
odzivnost zaslona od pritisku tipke na terminalu != hitrost zelo dvomim, da kdorkoli, ki danes racunalniku rece, da je "neodziven" ali "pocasen", ima v mislih to, da traja zgornja metrika 300 ms in ne 30 ms tako da clanek je malo zavajajoc, ce bi kupci hoteli 20 ms odzivnosti, bi jih dobili, tako se je pa pac ta metrika asimptoticno ustalila tam, kjer ljudje ne porajtajo kaj dosti
Ali je odzivnost pomembna? Je. Razlika med 50 in 200 milisekundami za tipkanje besedil sicer ni kritičnega pomena, je pa definitivno opazna, kot kaže spodnji video.
na tem videu je samo en use case, kjer je ta metrika se najpomembnejsa. drugod zakasnitev 100-200 ms skoraj nikjer ni kriticna, z izjemo mogoce dolocenih iger.
Drugače pa, kot je 7982884e zgoraj napisal: podpis!
Hrabri mišek (od 2015 nova serija!) -> http://tinyurl.com/na7r54l
18. november 2011 - Umrl je Mark Hall, "oče" Hrabrega miška
RTVSLO: http://tinyurl.com/74r9n7j
Hmm, se drugim tudi zadnje čase dogaja, da youtube prikaže video, ne pa web strani okoli nje? Vse je belo, ni naslova videa, opisa, menija, komentarjev, nič.
Motiti se je človeško.
Motiti se pogosto je neumno.
Vztrajati pri zmoti je... oh, pozdravljen!
Upočasnjevanje odzivnosti računalnika in naprav pa je mene kar precej zmotilo.
V današnjem času se meri odzivnost spletnih strani. Na srečo se Google trudi v tej smeri: - počasne spletne strani so rangirane nižje - v Chrome je pomembna vsaka ms - spletni standardi / tehnologije, ki omogočajo višjo hitrost - in optimizirano spletno iskanje, kolikor se le da Enkrat so preizkušali, koliko vpliva zakasnitev 100 milisekund pri spletnem iskanju. Kumulativno tak zamik že pomeni za par desetink procenta manj iskanj, čeprav sem prepričan, da ni noben uporabnik opazil "počasnosti".
Po drugi strani pa je Google primarno še vedno podjetje inženirjev, ki so seveda fanatično mahnjeni na optimizacijo svoje kode in posledično hitrost - po tolikih letih Google še vedno napiše na vrhu rezultatov iskanja, koliko časa je trajala poizvedba. Za končnega uporabnika je to čisto nepomembna informacija, čeprav še tako impresivna.
A parody of extremism is impossible to differentiate from sincere extremism.
tega sploh nemoreš primerjat. Koliko več Software-a poganja današnji Hardware, takrat nisi imel interneta, wifi-ja itd. ki bi v ozadju teklo, če bi dal na današnji HW in zastarel HW isti SW bi se videlo realno razliko
tega sploh nemoreš primerjat. Koliko več Software-a poganja današnji Hardware, takrat nisi imel interneta, wifi-ja itd. ki bi v ozadju teklo, če bi dal na današnji HW in zastarel HW isti SW bi se videlo realno razliko
nepomembno. Pri tej debati je pomemben izključno samo občutek ob uporabi računalnika. In ta je bil takrat odzivnejši.
odzivnost zaslona od pritisku tipke na terminalu != hitrost zelo dvomim, da kdorkoli, ki danes racunalniku rece, da je "neodziven" ali "pocasen", ima v mislih to, da traja zgornja metrika 300 ms in ne 30 ms tako da clanek je malo zavajajoc, ce bi kupci hoteli 20 ms odzivnosti, bi jih dobili, tako se je pa pac ta metrika asimptoticno ustalila tam, kjer ljudje ne porajtajo kaj dosti
Ali je odzivnost pomembna? Je. Razlika med 50 in 200 milisekundami za tipkanje besedil sicer ni kritičnega pomena, je pa definitivno opazna, kot kaže spodnji video.
na tem videu je samo en use case, kjer je ta metrika se najpomembnejsa. drugod zakasnitev 100-200 ms skoraj nikjer ni kriticna, z izjemo mogoce dolocenih iger.
mene recimo na telefonu živcira, da ob kakšnem skiciranju črta na zaslonu nastaja opazno kasneje kot jo jaz rišem. Ali pa na touchscreen zaslonu PCja. Druge pametne vrednosti touchscreenov razen skiciranja pa ne vidim.
A coding sequence cannot be revised once it's been established.
če bi hotel dejansko izmerit hitrost, bi moral na stik na tipkovnici naštimat tranzistor ki ob stiku aktivira še led diodo. le na tak način bi lahko primerjal odzivnost.
i9-12900k; 32GB DDR5-6000 CL36; Nvidia RTX 3080 ti;
Gigabyte Aorus z690 master; Be Quiet Dark Power 12 1000W
Po drugi strani pa je Google primarno še vedno podjetje inženirjev, ki so seveda fanatično mahnjeni na optimizacijo svoje kode in posledično hitrost - po tolikih letih Google še vedno napiše na vrhu rezultatov iskanja, koliko časa je trajala poizvedba. Za končnega uporabnika je to čisto nepomembna informacija, čeprav še tako impresivna.
Edino pravilno!
Kdor meni, da ne potrebuje izboljšav je fanatični butec, ki ga bo povozil čas.
Pozdravljam izboljšave v smeri odzivnosti. Čeprav eni baje ne opazite. Nima vzez. Jaz HOČEM da stvar leti. Da se odzove takoj. Kdor mi tega ne privošči, bo označen za saboterja duševnega zdravja.
za ultra hitro odzivnost bi rabili fpga čipe. ali pa podobno kar imajo grafične kartice - programabilne enote. torej asinhrono paralelno izvajanje kode (na poljubnem številu programabilnih procesorskih enotah). v prihodnosti bodo itak grafične kartice prevzele večji del procesiranja, ne smao grafičnega. že zdej se pridno izkorišča cuda jedra. cpu bo pa postal samo bridge med hardwerom.
i9-12900k; 32GB DDR5-6000 CL36; Nvidia RTX 3080 ti;
Gigabyte Aorus z690 master; Be Quiet Dark Power 12 1000W
Ali je odzivnost pomembna? Je. Razlika med 50 in 200 milisekundami za tipkanje besedil sicer ni kritičnega pomena, je pa definitivno opazna, kot kaže spodnji video.
Mhm, Opera dela isto. Pač, :javascript:. Tist ko ti naloži HTML sewč formo, začneš pisat notr, naloži js ... iiiiiiin ti po novem notr piše "stnovoaroisiskanjekanje"... -.-
za ultra hitro odzivnost bi rabili fpga čipe. ali pa podobno kar imajo grafične kartice - programabilne enote. torej asinhrono paralelno izvajanje kode (na poljubnem številu programabilnih procesorskih enotah). v prihodnosti bodo itak grafične kartice prevzele večji del procesiranja, ne smao grafičnega. že zdej se pridno izkorišča cuda jedra. cpu bo pa postal samo bridge med hardwerom.
1 ms odziva pri tipkovnici ni ultra hitra odzivnost... Zato ne rabiš fpga .
Tipkovnica pač rabi višjo prioriteto na USB protokolu in v OSu...
"Life is hard; it's even harder when you're stupid."
za ultra hitro odzivnost bi rabili fpga čipe. ali pa podobno kar imajo grafične kartice - programabilne enote. torej asinhrono paralelno izvajanje kode (na poljubnem številu programabilnih procesorskih enotah). v prihodnosti bodo itak grafične kartice prevzele večji del procesiranja, ne smao grafičnega. že zdej se pridno izkorišča cuda jedra. cpu bo pa postal samo bridge med hardwerom.
pa ti ves, da uporaba GPUja in sploh CUDA ni ravno sinonim za hitro odzivnost? tudi FPGA ne vem, zakaj bi ti pomagal pri odzivnosti. gre se za softverske in hardverske sloje, kjer vsak prinese nekja milisekund latence. ti sloji so tam z namenom. neka stara masina iz anticnih casov jih ima manj, zato ima lahko v skrajnem primeru manj latence.
Kdor meni, da ne potrebuje izboljšav je fanatični butec, ki ga bo povozil čas.
Pozdravljam izboljšave v smeri odzivnosti. Čeprav eni baje ne opazite. Nima vzez. Jaz HOČEM da stvar leti. Da se odzove takoj. Kdor mi tega ne privošči, bo označen za saboterja duševnega zdravja.
dej se ti raje pozanimaj, o cem se gre clanek in o kaksnih odzivnostih je govora. ker mislim, da ti o necem povsem drugem govoris. tukaj niso merili casa, ki ga rabi chrome, da stori neko akcijo ali pa windows, da prikaze mape v oknu.
za ultra hitro odzivnost bi rabili fpga čipe. ali pa podobno kar imajo grafične kartice - programabilne enote. torej asinhrono paralelno izvajanje kode (na poljubnem številu programabilnih procesorskih enotah). v prihodnosti bodo itak grafične kartice prevzele večji del procesiranja, ne smao grafičnega. že zdej se pridno izkorišča cuda jedra. cpu bo pa postal samo bridge med hardwerom.
pa ti ves, da uporaba GPUja in sploh CUDA ni ravno sinonim za hitro odzivnost? tudi FPGA ne vem, zakaj bi ti pomagal pri odzivnosti. gre se za softverske in hardverske sloje, kjer vsak prinese nekja milisekund latence. ti sloji so tam z namenom. neka stara masina iz anticnih casov jih ima manj, zato ima lahko v skrajnem primeru manj latence.
Kdor meni, da ne potrebuje izboljšav je fanatični butec, ki ga bo povozil čas.
Pozdravljam izboljšave v smeri odzivnosti. Čeprav eni baje ne opazite. Nima vzez. Jaz HOČEM da stvar leti. Da se odzove takoj. Kdor mi tega ne privošči, bo označen za saboterja duševnega zdravja.
dej se ti raje pozanimaj, o cem se gre clanek in o kaksnih odzivnostih je govora. ker mislim, da ti o necem povsem drugem govoris. tukaj niso merili casa, ki ga rabi chrome, da stori neko akcijo ali pa windows, da prikaze mape v oknu.
Je sinonim za odzivnost, ker se funkcije izvajajo paralelno. Klasično mora program sprocesirat kje je kliknil, kaj storiti s klikom ipd... vse to je zaporedna koda in vsaka terja nekaj ciklov procesorja. Pri fpga lahko to vse narediš v 1 ciklu. In če fpga procesor dela pri 1ghz je to 1/1000000000s. Da ne boš rekel da je drugje problem, jaz pravim da bi morale biti vse enote na isti način. Torej 1 cikel od tipkovnice do izhoda. Res pa da tipkovnice delajo pri 60 ali 120hz al neki tazga... sam recimo da to ni edini input.
klasični procesorji sicer že imajo take kode, ki to naredijo v 4 ciklih, recimo trigonometrične funkcije... pri fpga sicer tudi ne moreš spravit vse v eno funkcijo ker zasede procesor, lahko pa spraviš recimo na 100 ciklov.
i9-12900k; 32GB DDR5-6000 CL36; Nvidia RTX 3080 ti;
Gigabyte Aorus z690 master; Be Quiet Dark Power 12 1000W
tukaj niso merili casa, ki ga rabi chrome, da stori neko akcijo
Za točno to je tudi bila opravljena meritev [za android mobilne naprave] - meril je hitrost scrollanja.
Pri scrollanju moram reči, da se je stanje izboljšalo. Včasih sem moral inštalirati programe ali razširitve, da je na PC delalo vsaj približno tako kot na telefonu (!). Danes se končno uporablja GPU (govorim za spletne brskalnike).
A parody of extremism is impossible to differentiate from sincere extremism.
Hmm, se drugim tudi zadnje čase dogaja, da youtube prikaže video, ne pa web strani okoli nje? Vse je belo, ni naslova videa, opisa, menija, komentarjev, nič.
Zdaj je moderno da z javascriptom zrendras cel page. :D
Lol, glede na ves drek, ki ga mora sprocesirati browser, se cudim, da sploh se kaj dela... se malo, se malo, pa se znebimo jsja za vse vecne case in kar naenkrat ne bo potrebe gpu uporabljati, za browsanje... (ne cem, ali se samo meni zdi to noro?)
Those who do not understand UNIX are condemned to reinvent it, poorly.
(hint: linux)
za ultra hitro odzivnost bi rabili fpga čipe. ali pa podobno kar imajo grafične kartice - programabilne enote. torej asinhrono paralelno izvajanje kode (na poljubnem številu programabilnih procesorskih enotah). v prihodnosti bodo itak grafične kartice prevzele večji del procesiranja, ne smao grafičnega. že zdej se pridno izkorišča cuda jedra. cpu bo pa postal samo bridge med hardwerom.
pa ti ves, da uporaba GPUja in sploh CUDA ni ravno sinonim za hitro odzivnost? tudi FPGA ne vem, zakaj bi ti pomagal pri odzivnosti. gre se za softverske in hardverske sloje, kjer vsak prinese nekja milisekund latence. ti sloji so tam z namenom. neka stara masina iz anticnih casov jih ima manj, zato ima lahko v skrajnem primeru manj latence.
Kdor meni, da ne potrebuje izboljšav je fanatični butec, ki ga bo povozil čas.
Pozdravljam izboljšave v smeri odzivnosti. Čeprav eni baje ne opazite. Nima vzez. Jaz HOČEM da stvar leti. Da se odzove takoj. Kdor mi tega ne privošči, bo označen za saboterja duševnega zdravja.
dej se ti raje pozanimaj, o cem se gre clanek in o kaksnih odzivnostih je govora. ker mislim, da ti o necem povsem drugem govoris. tukaj niso merili casa, ki ga rabi chrome, da stori neko akcijo ali pa windows, da prikaze mape v oknu.
Je sinonim za odzivnost, ker se funkcije izvajajo paralelno. Klasično mora program sprocesirat kje je kliknil, kaj storiti s klikom ipd... vse to je zaporedna koda in vsaka terja nekaj ciklov procesorja. Pri fpga lahko to vse narediš v 1 ciklu. In če fpga procesor dela pri 1ghz je to 1/1000000000s. Da ne boš rekel da je drugje problem, jaz pravim da bi morale biti vse enote na isti način. Torej 1 cikel od tipkovnice do izhoda. Res pa da tipkovnice delajo pri 60 ali 120hz al neki tazga... sam recimo da to ni edini input.
klasični procesorji sicer že imajo take kode, ki to naredijo v 4 ciklih, recimo trigonometrične funkcije... pri fpga sicer tudi ne moreš spravit vse v eno funkcijo ker zasede procesor, lahko pa spraviš recimo na 100 ciklov.
A k da sproti obdeluješ io requeste. Pa pojem asinhronosti ti je tud tuj.
Lol, glede na ves drek, ki ga mora sprocesirati browser, se cudim, da sploh se kaj dela... se malo, se malo, pa se znebimo jsja za vse vecne case in kar naenkrat ne bo potrebe gpu uporabljati, za browsanje... (ne cem, ali se samo meni zdi to noro?)
Uporabljat GPU za browser je super zadeva, naredi videje in scrolling smoother in bolj varcne.
Se pa vsekakor strinjam, da bi bilo treba tem kretenom zacet zaracunavat CPU cikle, ki jih pozrejo s popolnoma nepotrebnim javascriptom. Ce hocejo servirat stran, naj jo zgenerirajo sami.
je pa lag na vseh android napravah res kar velik, tudi če se ne uporablja touchscreen in se tipkovnico in miško. tudi na ios, se mi zdi, da je lag porazen proti računalniku
Ma ta članek je lovski. Poglejte koliko aplikacij danes laufa v ozadju. Pa vsi grafični vmesniki, razne zadnje luknje, OP na opju(članek o skritem hardwersko vpisanem opju) v mikroprocesorju. Stari mlinčki z 1MHz takta bi v istih pogojih imeli odzivni čas nekaj ur ali dni. Problem je v aplikacijah in grafičnem opju. Napišite aplikacijo direkt v assemblerju, ki sama kontrolira prekinitveni čip in skoke, pa bo.
Lol, glede na ves drek, ki ga mora sprocesirati browser, se cudim, da sploh se kaj dela... se malo, se malo, pa se znebimo jsja za vse vecne case in kar naenkrat ne bo potrebe gpu uporabljati, za browsanje... (ne cem, ali se samo meni zdi to noro?)
Uporabljat GPU za browser je super zadeva, naredi videje in scrolling smoother in bolj varcne.
Se pa vsekakor strinjam, da bi bilo treba tem kretenom zacet zaracunavat CPU cikle, ki jih pozrejo s popolnoma nepotrebnim javascriptom. Ce hocejo servirat stran, naj jo zgenerirajo sami.
Video decoding, se razume, vse ostalo je pa teklo tudi vcasih na 10x pocasnejsih procesorjih, ramu,... pa se ni obnasalo tako laggy kot danes. Vse nakazuje na to, da so za prikaze internetnih strani in njihovo funkcionalnost izbrane popolnoma napacne tehnologije, ki se jih potem flika s potezami kot je gpu rendering. Del krivde je na htmlju, velik del pa na skrpucalu od javascripta, pa seveda tudi na strani nesposobnih piscev kode (ce naredis orozje tako preprosto za uporabo, da ga lahko uporablja vsak kreten, potem ga bo vsak kreten tudi uporabljal - s posledicami za vse). Cimprej js in html + http izumrejo, bolje bo za vse. Webasm trka na vrata, html postaja z manipulacijami doma odvec, http2 pa bo koncno odstranil textualni protokol (vsaj za silo) - sicer 10 let prepozno ampak bolje pozno kot nikoli.
Those who do not understand UNIX are condemned to reinvent it, poorly.
(hint: linux)
Lol, glede na ves drek, ki ga mora sprocesirati browser, se cudim, da sploh se kaj dela... se malo, se malo, pa se znebimo jsja za vse vecne case in kar naenkrat ne bo potrebe gpu uporabljati, za browsanje... (ne cem, ali se samo meni zdi to noro?)
Uporabljat GPU za browser je super zadeva, naredi videje in scrolling smoother in bolj varcne.
Se pa vsekakor strinjam, da bi bilo treba tem kretenom zacet zaracunavat CPU cikle, ki jih pozrejo s popolnoma nepotrebnim javascriptom. Ce hocejo servirat stran, naj jo zgenerirajo sami.
Video decoding, se razume, vse ostalo je pa teklo tudi vcasih na 10x pocasnejsih procesorjih, ramu,... pa se ni obnasalo tako laggy kot danes. Vse nakazuje na to, da so za prikaze internetnih strani in njihovo funkcionalnost izbrane popolnoma napacne tehnologije, ki se jih potem flika s potezami kot je gpu rendering. Del krivde je na htmlju, velik del pa na skrpucalu od javascripta, pa seveda tudi na strani nesposobnih piscev kode (ce naredis orozje tako preprosto za uporabo, da ga lahko uporablja vsak kreten, potem ga bo vsak kreten tudi uporabljal - s posledicami za vse). Cimprej js in html + http izumrejo, bolje bo za vse. Webasm trka na vrata, html postaja z manipulacijami doma odvec, http2 pa bo koncno odstranil textualni protokol (vsaj za silo) - sicer 10 let prepozno ampak bolje pozno kot nikoli.
Kje si lahko clovek prebere vec o webasm? http2? a mislis tisto inovacijo, implementacijo od gugla ?
Lol, glede na ves drek, ki ga mora sprocesirati browser, se cudim, da sploh se kaj dela... se malo, se malo, pa se znebimo jsja za vse vecne case in kar naenkrat ne bo potrebe gpu uporabljati, za browsanje... (ne cem, ali se samo meni zdi to noro?)
Uporabljat GPU za browser je super zadeva, naredi videje in scrolling smoother in bolj varcne.
Se pa vsekakor strinjam, da bi bilo treba tem kretenom zacet zaracunavat CPU cikle, ki jih pozrejo s popolnoma nepotrebnim javascriptom. Ce hocejo servirat stran, naj jo zgenerirajo sami.
Video decoding, se razume, vse ostalo je pa teklo tudi vcasih na 10x pocasnejsih procesorjih, ramu,... pa se ni obnasalo tako laggy kot danes. Vse nakazuje na to, da so za prikaze internetnih strani in njihovo funkcionalnost izbrane popolnoma napacne tehnologije, ki se jih potem flika s potezami kot je gpu rendering. Del krivde je na htmlju, velik del pa na skrpucalu od javascripta, pa seveda tudi na strani nesposobnih piscev kode (ce naredis orozje tako preprosto za uporabo, da ga lahko uporablja vsak kreten, potem ga bo vsak kreten tudi uporabljal - s posledicami za vse). Cimprej js in html + http izumrejo, bolje bo za vse. Webasm trka na vrata, html postaja z manipulacijami doma odvec, http2 pa bo koncno odstranil textualni protokol (vsaj za silo) - sicer 10 let prepozno ampak bolje pozno kot nikoli.
Kje si lahko clovek prebere vec o webasm? http2? a mislis tisto inovacijo, implementacijo od gugla ?
Najboljš da se poruš vsa infrastruktura pa keyboard.Sys napacka nazaj na aplikavcijski nivo.
Kar usajaj se :D js znotraj web pagov je truplo, ki se zaradi podhranjene razgledanosti vecine js scene (fachidioti, ki se jim svet zacne in konca v browserju), se vedno premika naokrog. Verjetno boste dobili svoj js to wasm compiler, ampak vas bodo pa scali po ucinkovitosti in hitrosti izvajanja razni rubyi, pa python, pa ... :) (razlagal ti pa ne bom, premalo ves, da bi vedel kako malo ves, kaj sele razumel :D)
Those who do not understand UNIX are condemned to reinvent it, poorly.
(hint: linux)
Ma ta članek je lovski. Poglejte koliko aplikacij danes laufa v ozadju. Pa vsi grafični vmesniki, razne zadnje luknje, OP na opju(članek o skritem hardwersko vpisanem opju) v mikroprocesorju. Stari mlinčki z 1MHz takta bi v istih pogojih imeli odzivni čas nekaj ur ali dni. Problem je v aplikacijah in grafičnem opju. Napišite aplikacijo direkt v assemblerju, ki sama kontrolira prekinitveni čip in skoke, pa bo.
predvsem se gre za input to screen lag, (če sem prav razumel) tukaj ne bi smela imeti vloga aplikacij v ozadju, amapak kako deluje operacijski sistem.
in če je sistem z 1mhz deloval z manjšim input lagom, kot vsi današnji operacijski sistemi (ki imajo več gigahercov procesorske moči) se pravi imajo vsi operacijski sistemi napačen sistemski priority
zakaj potem ne zgradijo znotraj operacijskih sistemov, manjšega za input to screen control z 1mhz (dobro, danes miške in tipkovnice rabijo malo več, samo vseeno)
Zakaj bi to mel če gre na llvm. Tvoje znanjenje res obsežno ko optimizacije prevajaš na nedokončan koncept abstrakcije mašine temelječe na skladu. To je bilo narejeno 20 let nazaj. Samo ti si nek force user, drugi itak ne štekamo osnov.
Zakaj bi to mel če gre na llvm. Tvoje znanjenje res obsežno ko optimizacije prevajaš na nedokončan koncept abstrakcije mašine temelječe na skladu. To je bilo narejeno 20 let nazaj. Samo ti si nek force user, drugi itak ne štekamo osnov.
Saj ti pravim, da nicesar ne razumes :D Bos pa tole razumel:
"This has been getting some press in the past week thanks to an announcement by JavaScript creator Brendan Eich that development will begin on a definitive WASM, a meta-language that will in the immediate future be very intimately linked to JavaScript, but will eventually have its very own life."
Those who do not understand UNIX are condemned to reinvent it, poorly.
(hint: linux)
Računalnike uporabljam kar nekaj prek 30 let in glede čakanja se ni kaj dosti spremenilo.
Pojavnost trenutkov čakanja je dnevna ne glede na delo, ki ga opravljam. Nekaj čakanja je omilila večopravilnost, čeprav tudi ta vedno ne deluje.
Včeraj se mi je recimo parkrat na momente obesil spletni brskalnik (ki po desetletjih obstoja še vedno ne zna obvladovati memory leake) Danes sem obilno načakal pri Windows update.
Ni videti, da bi kmalu dočakal takojšen odziven sistem na mizi. Taki so na voljo samo v namenskih časovno kritičnih napravah, ki ne morejo brez realnočasne obdelave podatkov - recimo motorni računalnik v avtu.
Zakaj bi to mel če gre na llvm. Tvoje znanjenje res obsežno ko optimizacije prevajaš na nedokončan koncept abstrakcije mašine temelječe na skladu. To je bilo narejeno 20 let nazaj. Samo ti si nek force user, drugi itak ne štekamo osnov.
Saj ti pravim, da nicesar ne razumes :D Bos pa tole razumel:
"This has been getting some press in the past week thanks to an announcement by JavaScript creator Brendan Eich that development will begin on a definitive WASM, a meta-language that will in the immediate future be very intimately linked to JavaScript, but will eventually have its very own life."
Problem je da stvari ne zastopiš v fundamentih. Eich se je skregal s celo srenjo okrog js. Meta konstruki v js pa že dolgo obstajajo in se uporabljajo.
Kar samo pove, da je clovecek pameten :D Bos cez 2 leti povedal, ko se bos za potrebe web dev-a ucil python. Ali pa stranke iskal, ki jim bo vseeno, ce je web page 10x vecji download in 20x pocasnejsi :D Vsi trije main browserji imajo wasm ze integriran, se polna podpora domu, pa bos zacel opazati nove trende. A ne bo fino, ko bo lahko backend developer nardil se frontend, brez poznavanja nekega cudnega spakedrala od jezika? :D
Those who do not understand UNIX are condemned to reinvent it, poorly.
(hint: linux)