Ars Technica - Apple že več kot leto dni uporablaj 64-bitne procesorje v svojih mobilnih napravah, prvi je bil iPhone 5S s procesorjem A7, medtem ko sta z enakim procesorjem nekoliko kasneje sledila iPad Mini 2 in iPad Air (oba sta bila nedavno deležna nadgradnje, a Mini še vedno uporablja isti procesor). Enako seveda velja za procesorja v A8 in A8X, ki sta v uporabi v iPhone 6, 6 Plus in iPad Air 2. A razvijalci še vedno lahko v App Store naložijo aplikacijo, ki je razvita le s podporo za 32-bitne čipe (seveda deluje tudi na 64-bitnih čipih). Čas za to se kot kaže izteka.
S 1. februarjem 2015 bodo vse aplikacije, ki jih bodo razvijalci želeli naložiti na App Store, morale podpirati 64-bitne procesorje, torej bodo morali razvijalci do nadaljnjega (nekaj let) pripravljati 32-bitne in 64-bitne izdaje, vsaj dokler bodo podprte naprave z 32-bitnimi procesorji. Obstoječe aplikacije bodo seveda lahko ostale v trgovini, Apple ne bo zahteval nadgradnje, torej bodo omejitve deležni le razvijalci, ki bodo samostojno nalagali nadgradnje obstoječih aplikacij oz. nalagali povsem nove aplikacije. Ker Apple različne izdaje aplikacij ponuja v enotnem paketu, to pomeni tudi nekoliko večje paketke za prenos, a bo razlika majhna, saj gre le za spremembe v kodi. Večja razlika se je pokazala pri prehodu na zaslone retina, saj so se močno povečale velikosti grafičnih elementov, ki so bili uporabnikom prav tako servirani v paketu skupaj z običajnimi elementi za starejše iPhone in iPade.
Mnogi se na forumih sprašujejo, kje je prednost 64-bitnih čipov, če pa imajo Applove naprave le 1 oz. v primeru iPad Air 2 le 2 GB pomnilnika. Izkaže se, da skupaj s 64-bitnim naslavljanjem procesorji na arhitekturi ARM običajno dobijo še novejši set inštrukcij, ARMv8. V praksi Ars Technica poroča, da Applov A7 isto aplikacijo v 64-bitni obliki izvaja do 30 %, A8 pa kar do 40 % hitreje, kot enako aplikacijo v 32-bitni obliki. Na Ars Technici so obenem pripravili seznam popularnih aplikacij in njihovo podporo za 32 oz 64 bitov skupaj z zgodovino podpore v letošnjem maju, septembru in oktobru. Dodatna prednost uporabe 64-bitnih procesorjev zdaj je lažja podpora čez nekaj let, ko bo 64-bitnost nujna zaradi uporabe 4 ali več gigabajtov pomnilnika na najnovejših napravah, ko se bodo telefoni in tablice s procesorji A7 in A8 bližali koncu življenjske dobe. Takrat bodo razvijalci enostavno pripravili eno samo izdajo aplikacije in tako pokrili vse uradno podprte naprave.
Preden dobimo 64-bitno programsko opremo seveda potrebujemo strojno opremo.
Zakaj ne naredijo 512 bitnih procesorjev ? Kakšne bi bile prednosti pred 64 bitnimi, kakšne slabosti?
nerabiš 512bitnih procesorev, ker ni na svetu tolk rama, da bi ga lahko naslovil. Tisti ukazi, ki pa morejo bit več kot 64bitni pa so tako že (kak AVX).
Zakaj ne naredijo 512 bitnih procesorjev ? Kakšne bi bile prednosti pred 64 bitnimi, kakšne slabosti?
nerabiš 512bitnih procesorev, ker ni na svetu tolk rama, da bi ga lahko naslovil. Tisti ukazi, ki pa morejo bit več kot 64bitni pa so tako že (kak AVX).
Bitnost procesorja oz. njegovih registrov nima veze koli RAMa lahko naslovi CPU. Določi samo zgornjo mejo.
V prakdi je naslovno vodilo manjše.
"Life is hard; it's even harder when you're stupid."
seveda. ampak motivacija za prehod na 64bitnost je bila ravno to, ker se z 32biti (kar je zgornji cap za naslovne prostore) ne da naslovit več dovolj rama.
seveda. ampak motivacija za prehod na 64bitnost je bila ravno to, ker se z 32biti (kar je zgornji cap za naslovne prostore) ne da naslovit več dovolj rama.
Predvsem je razlog v novi arhitekturi
Nasloviš lahko vedno več RAMa kot je biten procesor, če tako implementiraš zadevo ... Intel PAE ...
"Life is hard; it's even harder when you're stupid."
Izkaže se, da skupaj s 64-bitnim naslavljanjem procesorji na arhitekturi ARM običajno dobijo še novejši set inštrukcij, ARMv8.
Dodatna prednost uporabe 64-bitnih procesorjev zdaj je lažja podpora čez nekaj let, ko bo 64-bitnost nujna zaradi uporabe 4 ali več gigabajtov pomnilnika na najnovejših napravah, ko se bodo telefoni in tablice s procesorji A7 in A8 bližali koncu življenjske dobe.
V resnici 64 bitnost ta trenutek za te naprave ni potrebna.
seveda. ampak motivacija za prehod na 64bitnost je bila ravno to, ker se z 32biti (kar je zgornji cap za naslovne prostore) ne da naslovit več dovolj rama.
Predvsem je razlog v novi arhitekturi
Nasloviš lahko vedno več RAMa kot je biten procesor, če tako implementiraš zadevo ... Intel PAE ...
še vedno boš omejen z ramom, ki ga lahko posamezn proces uporabi.
V resnici 64 bitnost ta trenutek za te naprave ni potrebna.
Ni, ampak Apple razmišlja dovolj vnaprej da vzpostavi razvijalski ekosistem. In glede na to da so nekatere aplikacije hitrejše do 40% na 64 bitih, se mi zdi da je tudi pravi čas ...
Zakaj ne naredijo 512 bitnih procesorjev ? Kakšne bi bile prednosti pred 64 bitnimi, kakšne slabosti?
nerabiš 512bitnih procesorev, ker ni na svetu tolk rama, da bi ga lahko naslovil. Tisti ukazi, ki pa morejo bit več kot 64bitni pa so tako že (kak AVX).
Bitnost procesorja oz. njegovih registrov nima veze koli RAMa lahko naslovi CPU. Določi samo zgornjo mejo.
V prakdi je naslovno vodilo manjše.
Prehod na 64 bitne CPUje na namizju je bil precej povezan tudi s tem. Ni pa edini razlog.
(od hojnika se moj odgovor razlikuje v delu o namizju ;)
99,9999% razvijalcev pokuri 4GB RAMa samo ob res precej svinjskem programiranju.
Ali pa če razvijajo data-intensive programe. Npr. FEA in podobne numerične izračune na velikem datasetu :) Bi si drznil trditi, da jih je več kot 0,0001 % :D
In glede na to da so nekatere aplikacije hitrejše do 40% na 64 bitih, se mi zdi da je tudi pravi čas ...
ampak niso hitrejše zaradi 64bitnosti :)
Nja, hitrejše so zaradi novih inštrukcij. Ampak nesmiselno je narediti novo arhitekturo na 32 bitih leta 2012 (recimo da je bil ARMv8 razvit tam nekje, verjetno še par let prej), če bi potem moral zadevo ponavljati.
Pa lažje je razložiti folku - 'zakaj je app hitrejši?' 'ker je 64-biten.' 'kaj pa je to?' 'več je bolje'. Kompliciranje z inštrukcijami povprečnega uporabnika pomojem le bolj zmede. Številke so jasne :D
seveda. ampak motivacija za prehod na 64bitnost je bila ravno to, ker se z 32biti (kar je zgornji cap za naslovne prostore) ne da naslovit več dovolj rama.
Predvsem je razlog v novi arhitekturi
Nasloviš lahko vedno več RAMa kot je biten procesor, če tako implementiraš zadevo ... Intel PAE ...
še vedno boš omejen z ramom, ki ga lahko posamezn proces uporabi.
Ne, se lahko enako (no, podobno) razširi kot fizični naslovni prostor. Saj se še spomnimo segmentov...
Sicer bolj kot širina naslovnega vodila (logičnega) je pomembna širina podatkovnega. Če obdelaš 64 bitov v enem koraku je 2x več kot 32...
V resnici 64 bitnost ta trenutek za te naprave ni potrebna.
Ni, ampak Apple razmišlja dovolj vnaprej da vzpostavi razvijalski ekosistem. In glede na to da so nekatere aplikacije hitrejše do 40% na 64 bitih, se mi zdi da je tudi pravi čas ...
Meni pa tak pristop niti ni tako napačen. Windows je že z XP-ji začel 64-bitni OS. Samo ok, tist dejansko ni bil uporaben. Šele z Visto je prišlo "tisto pravo". Sedaj že nekaj časa govori, da bodo opustili 32-bit verzijo, samo kakor kaže bo še vedno to tudi Windows 10. In smo tu - 10 let se že vleče "prehod". Apple pa bo je 64-bitnost zahteval "umetno", vendar jo je "popakiral" skupaj z novo arhitekturo procesorja in bo čez 4-5 let popolnoma brez 32-bit okolja na iOS. Za moje pojme zmaga za njih, četudi morda to še ne bo nujno. Ampak kupili so si neko tehnološko prednost in opravili s preteklostjo. Razumem poslovni svet, da so nekatere aplikacije v rabi več desetletij, samo Microsoft s takim pristopom, kot ga pelje sedaj daje samo potuho. Windows je precej večji, ker mora vsebovati še 32-bit knjižnjice (64-bitna verzija Windows-a) in še sami furajo dve veji skoraj 10 let in nič ne kaže, da bi to kej spremenili. Tako da tukaj pa dam prednost Apple-u v tem primeru.
Ja, samo tudi tu je že 11 let odkar je AMD izdal prvi 64-bit procesor arhitekture x86_64 (Athlon64). Jeseni 2003. Pa smo še vedno "v prehodu" iz 32-bit na 64-bit in to celo tako nizko, da še MS ni presekal stvari in jih očitno še nekaj časa ne bo.
99,9999% razvijalcev pokuri 4GB RAMa samo ob res precej svinjskem programiranju.
Tablice postajajo vse večje, tudi resolucija. Na iPadih lahko sedaj že obdeluješ fotke, rišeš, editiraš video,... to žre RAM, tako da tu ne gre za svinjsko programiranje, pač pa za zadovoljitev potreb uporabnika/programa.
V bistvu se je okrog 2560 x 1600 oz. 2048 x 1536 vse skupaj nekoliko ustavilo. iPad ima že 4. leto enak zaslon, Nexus 9 je zdaj dobil podobnega, 2560 x 1600 je standard na 16:10 10" tablicah, itd.
V bistvu se je okrog 2560 x 1600 oz. 2048 x 1536 vse skupaj nekoliko ustavilo. iPad ima že 4. leto enak zaslon, Nexus 9 je zdaj dobil podobnega, 2560 x 1600 je standard na 16:10 10" tablicah, itd.
Ja in? To je več kot ima marsikateri monitor... Sicer pa je taka resolucija več kot dovolj za delo, iPad-i so tudi zmogljivi ne vidim problema razen v količini RAM-a.
Tablice postajajo vse večje, tudi resolucija. Na iPadih lahko sedaj že obdeluješ fotke, rišeš, editiraš video,... to žre RAM, tako da tu ne gre za svinjsko programiranje, pač pa za zadovoljitev potreb uporabnika/programa.
Samo odgovarjam na tvoj post, kjer si rekel, da so tablice in resolucije vedno večje. Niso. So se hitro dvignile na nivo in tam ostale zadnjih par let.
Ločljivost pravzaprav nima neke hude veze z delom, problem pri tablicah je še vedno vmesnik. No, odvisno kaj delaš. Če je touch vmesnik OK je pa verjetno večinoma 10" premalo.
Pri vecjih zaslonih je to seveda smiselno, na tablicah pa niti ne in se gre le za napihovanje specifikacij, da lahko marketing nekako potisne produkt ven.
Saj tablice se pomojem bistveno ne bodo več spremenile. Upam no, ker je res nepotrebno. Telefoni pa tudi se mi zdi večinoma ostajajo na 1080p, razen par izjem, ki gredo na ~6" na 2560.
Pri vecjih zaslonih je to seveda smiselno, na tablicah pa niti ne in se gre le za napihovanje specifikacij, da lahko marketing nekako potisne produkt ven.
Nevem, sem tut sam mislu da je 300 dpi vrh glave ampak sem naredu majhen test...tale slikca je prirejena za iphone 4:
Zgoraj elipsa brez antialiasinga, spodaj pa z... in na telefonu pri 326dpi izgledata tako ena kot druga presenetljivo slabše kot sem si predstavljal, daleč od prave ostrine. Tako da 4k se mi ne zdi nabijanje specifikacij, ampak zgolj spodnja meja za pravi "retina" zaslon.
Pri vecjih zaslonih je to seveda smiselno, na tablicah pa niti ne in se gre le za napihovanje specifikacij, da lahko marketing nekako potisne produkt ven.
Nevem, sem tut sam mislu da je 300 dpi vrh glave ampak sem naredu majhen test...tale slikca je prirejena za iphone 4:
Zgoraj elipsa brez antialiasinga, spodaj pa z... in na telefonu pri 326dpi izgledata tako ena kot druga presenetljivo slabše kot sem si predstavljal, daleč od prave ostrine. Tako da 4k se mi ne zdi nabijanje specifikacij, ampak zgolj spodnja meja za pravi "retina" zaslon.
Ah sej noben ni reku, da več resolucije ni dobro :) Problem nastane samo, ko padeš v zid omejitev: -grafična kartica ni sposobna zmleti vsega (večini že 4K dela probleme, kaj šele gledati kak video ali 3D na tem) -pixli so tako majhni, da jih s prostim očesom ne ločiš več (v bistvu bo vse kar bo na tej meji še Ok, kar bo pa nategovanje resolucije čez bo pa čisti marketinški nateg na kvadrat).
Sam osebno komaj čakam, da dajo ven iPad 4K in potem gor eno spodobno photoshop verzijo za risat in delat. Če bo delovalo bolje kot na PC-jih po zaslugi "metal-a" skačem do stropa od veselja!
-pixli so tako majhni, da jih s prostim očesom ne ločiš več (v bistvu bo vse kar bo na tej meji še Ok, kar bo pa nategovanje resolucije čez bo pa čisti marketinški nateg na kvadrat).
Do tega mamo se precej dalec. 300dpi rabis na PC ekranu pol metra od oci, da zadeva zgleda uredu. Na telefonu ki ga imas par cm od nosa rabis se neprimerno vec.
Ma tam severno od 300 DPI na telefonu je že kar okej. Se pozna več, priznam, ampak neke hude potrebe po tem ne čutim, razen če imam taka telefona enega ob drugem. Sem pa prejle gledal Nexus 10 (10"; 2560 x 1600) pa je ZOMG nice. Res oster tekst :)
300 dpi displej izgleda vredu izključno zarad uporabe antialiasinga, sicer pa ni to tista prava ostrina... če se zapičiš v detajle lahko vidiš da je slika precej motna
300 dpi displej izgleda vredu izključno zarad uporabe antialiasinga, sicer pa ni to tista prava ostrina... če se zapičiš v detajle lahko vidiš da je slika precej motna
V bistvu ravno obratno. Na 300dpi ne rabiš tako močnega anti-aliasing-a da dosežeš enak učinek kot na manšem dpi zaslonu oz. LCD-ju. V praksi to pomeni, da na 300-DPI 2x AA zgleda enako ali bolje kot na 150dpi 4x AA.
Želel je povedati, da 300 dpi zaslon na telefonu izgleda dobro, ker se na tekstu uporablja AA, kar ga naredi dovolj dobrega za primerjavi s 450+ dpi zasloni.Torej da na 450+ dpi ne bi potreboval antialiasinga.