» »

Apple predstavil čip M1

««
8 / 23
»»

ripmork ::

V zadnjem tednu se je že nabralo precej različnih testov in opisov, očitno so res pri Applu zadeli. Tudi Cinebench kaže dobre rezultate. Sploh grafičen performance je pozitivno presenečenje, sem mislil, da bo to šibkejša stran. High-end performance je še vedno v domeni AMD-ja, a tole je šele začetek. Predvidevam, da bo updejt iMac-a in 16-inč MBP imel še močnejšo verzijo čipa...

Mike_Rotch ::

hojnikb je izjavil:

ja res je, lahko je pa iOS app portan direktno na macOS, glede na to, da je ios verzija ze v startu arm/metal based, tako da je port na macOS arm relativno trivialen.


Ja, M1 poganja iOS aplikacije native. Ampak kaj ima to veze z gaming testi iger iz Steama in Epic stora?

no comment ::

ripmork je izjavil:

V zadnjem tednu se je že nabralo precej različnih testov in opisov, očitno so res pri Applu zadeli. Tudi Cinebench kaže dobre rezultate. Sploh grafičen performance je pozitivno presenečenje, sem mislil, da bo to šibkejša stran. High-end performance je še vedno v domeni AMD-ja, a tole je šele začetek. Predvidevam, da bo updejt iMac-a in 16-inč MBP imel še močnejšo verzijo čipa...

Huh, presenečen?!

Men so ti testi dolgočasni, ne kažejo ničesar česar Apple ni pokazal že 10 dni nazaj. Jaz edino pred uradno najavo M1 ne bi stavil, da bodo omogočili iOS aplikacije na macOS (čemu?!). No, so, ampak je tudi jasno, da je ta funkcionalnost za Apple dejansko zadnja stvar s katero so mislijo resno ukvarjati.

Skratka, stvar deluje, z 8Gb lahko zaženeš browser in macOS ne gre nikamor.

Vsekakor slab vedeževalski teden za slotech pundite...

MrStein ::

LeQuack je izjavil:

Potem so samo Android telefoni tolk zanič, da rabijo 16/12GB rama, zato da en sam app naenkrat poganjajo (pa še to dosti počasi ponavadi)?

Ja. Srednji iPhone ima 3GB, pa še tisti z 2GB delajo OK.
Motiti se je človeško.
Motiti se pogosto je neumno.
Vztrajati pri zmoti je... oh, pozdravljen!

ripmork ::

no comment je izjavil:


Huh, presenečen?!

Prve (očitno res fake) Cinebench cifre ki so krožile so bile pol slabše, tako da tu je bilo lepo presenečenje, ja :). Applov marketing sicer mal z rezervo jemljem, a tokrat so dejansko naredili konkreten korak naprej v zmogljivosti. Zdaj je le še na razvijalcih, kako hitro se bodo odzvali, da bo polna moč čipa povsod izkoriščena.

Zgodovina sprememb…

  • spremenil: ripmork ()

7982884e ::

ripmork je izjavil:

no comment je izjavil:


Huh, presenečen?!

Prve (očitno res fake) Cinebench cifre ki so krožile so bile pol slabše, tako da tu je bilo lepo presenečenje, ja :). Applov marketing sicer mal z rezervo jemljem, a tokrat so dejansko naredili konkreten korak naprej v zmogljivosti. Zdaj je le še na razvijalcih, kako hitro se bodo odzvali, da bo polna moč čipa povsod izkoriščena.

en twitter account je napisal 1 tweet, kar je v "tech svetu" ocitno povzrocilo da je kup - zdaj vemo da slabih - sajtov to direkt sharalo dalje. kar je zalostno.

hojnikb ::

Mike_Rotch je izjavil:

hojnikb je izjavil:

ja res je, lahko je pa iOS app portan direktno na macOS, glede na to, da je ios verzija ze v startu arm/metal based, tako da je port na macOS arm relativno trivialen.


Ja, M1 poganja iOS aplikacije native. Ampak kaj ima to veze z gaming testi iger iz Steama in Epic stora?

to, da so lahko ti porti aplikacij dejansko porti iOS verzij in ne tistih, ki jih vidis na desktopu
#brezpodpisa

MrStein ::

Predator X je izjavil:

Pa kdo pravi da 4800u z pocasnim ramom be doseze 60fps 1080p (comprtitive settings) 60fps +-.

Ce bi bilo to res kar pravis bi apple ze izdal svoj d gpu kjer bi deklasiral nvidio in amd ter pobral krono.

Zmogljivost je nekje na nivoju GTX1050.
Rekord za iGPU, za diskretne pa nič posebnega. Zakaj bi to bil prodajni hit, če pa imaš na voljo GTX2060 in višje?

iGPU pa deklasira, kot si rekel.

(sem že bil zaskrbljen, da se je zanikovalcem kaj zgodilo...;))

ripmork je izjavil:

no comment je izjavil:


Huh, presenečen?!

Prve (očitno res fake) Cinebench cifre ki so krožile so bile pol slabše, tako da tu je bilo lepo presenečenje, ja :). Applov marketing sicer mal z rezervo jemljem, a tokrat so dejansko naredili konkreten korak naprej v zmogljivosti. Zdaj je le še na razvijalcih, kako hitro se bodo odzvali, da bo polna moč čipa povsod izkoriščena.

1.) Ni noben konkreten korak naprej. Je tam 5% hitreje od obstoječega čipa A14. Ki je 15% hitrejši od lanskega A13.
2.) V Bistvu ne rabijo nič delat, ker delajo vsi obstoječi programi. Pa še tisti za iPhone in iPad delujejo. (ja, 10-20% hitrejši bodo, big deal, tega opazi samo nekdo, ki si ga meče na benchmarke)
Motiti se je človeško.
Motiti se pogosto je neumno.
Vztrajati pri zmoti je... oh, pozdravljen!

Zgodovina sprememb…

  • spremenil: MrStein ()

no comment ::

MrStein je izjavil:

Ja. Srednji iPhone ima 3GB, pa še tisti z 2GB delajo OK.

Apple bi stalo par dolarjev, da bi podvojili ta ram. Ampak rajši zadavijo svoje developerje kot pa da jim dajo malo več prostora za dihat. Naprave bi morali narediti milimeter debelejše pa bi lahko vgradili občutno večjo baterijo, lahko imeli bolj požrešen čip, vsi iOS developerji bi lahko že zdavnaj uporabljali background servise, itd...

Vse to zaradi par dolarjev. Kontraproduktivno, norost!!!

Dokler ne daš ven nekaj kot je M1. Zato ker je nekdo leta scal kri, sedaj M1 z 8Gb dela kroge okrog Intela s praktično poljubno količino rama. Če bi hardver specse diktirali kaki linux developerji, ki vidijo samo svoj vrtiček, bi na osnovni M1 morali nalotat 32Gb - kar pomeni, da ga ne bi bilo.

hojnikb ::

sj prav, da stiskajo developerje. Se vsaj ne klamfa kode slabse, kot da bi opico postavo za tipkalni stroj.
Ce ti pa kaj ne pase, lahko pa vedno gres na android, kjer dobis bp 16GB rama in lahko klamfas kaj ti pase, sj bo hardware vse pozru.
#brezpodpisa

Zgodovina sprememb…

  • spremenil: hojnikb ()

MrStein ::

Če bi dali ven iPhone z 8GB RAM-a, bi v roku enega leta vsak drugi app zahteval 8GB in stare naprave bi lahko samo stran vrgel, ker pol stvari več ne bi delovalo. Tako pa lepo delajo dlje kot dobi Android update. Pardon, dlje, kot deluje tipična Android naprava.
Motiti se je človeško.
Motiti se pogosto je neumno.
Vztrajati pri zmoti je... oh, pozdravljen!

Mike_Rotch ::

hojnikb je izjavil:

Mike_Rotch je izjavil:

hojnikb je izjavil:

ja res je, lahko je pa iOS app portan direktno na macOS, glede na to, da je ios verzija ze v startu arm/metal based, tako da je port na macOS arm relativno trivialen.


Ja, M1 poganja iOS aplikacije native. Ampak kaj ima to veze z gaming testi iger iz Steama in Epic stora?

to, da so lahko ti porti aplikacij dejansko porti iOS verzij in ne tistih, ki jih vidis na desktopu


Ne, desktop igre so. Iz Steama in Epic stora.

hojnikb ::

In kako to ves?
#brezpodpisa

Mike_Rotch ::

1. Avtorji posnetkov to jasno povejo.
2. Igre, ki jih testirajo, niso na voljo za iOS.
3. Vidim na lastne oči, iz prve roke.

1.) Ni noben konkreten korak naprej. Je tam 5% hitreje od obstoječega čipa A14. Ki je 15% hitrejši od lanskega A13.
2.) V Bistvu ne rabijo nič delat, ker delajo vsi obstoječi programi. Pa še tisti za iPhone in iPad delujejo. (ja, 10-20% hitrejši bodo, big deal, tega opazi samo nekdo, ki si ga meče na benchmarke)


1. Razlika je v večini primerov bistveno večja kot 5%.
2. Razlika med x86 in native aplikacijami je lahko bistveno večja kot 20%. Poglej si primerjavo FCP in Premiere naprimer. Ali pa chrome browsing benchmarke.

Zgodovina sprememb…

Mike_Rotch ::

Pa še en zanimiv test, ki je IMHO bistveno bolj pomemben kot raw performance.

Direktna primerjava avtonomije med M1 macbooki, Lenovo Slim 7 s 4800u in XPS13 s Tiger lake 1165g7.

Tl;dr: Macbooka imata več kot 2x daljšo avtonomijo od konkurence, ob podobni kapaciteti baterije, kljub bistveno višji ločljivosti ekrana.

pegasus ::

https://arstechnica.com/gadgets/2020/11... ... kot se mi je zdelo, je UMA tu ključ do uspeha. Zanimivo, nisem si mislil, da bo Apple prvi s tem na tržišču s produktom. A po drugi strani je smiselno, ker imajo edini pod kontrolo celoten ekosistem. AMD ni imel te prednosti in se HSA ni prijel ... Ok, sedaj ima pc market za nadoknadit nekje pet let zaostanka. Prvi koraki bodo vidni drugo leto, v novih "leadership class" HPC clustrih, Aurora (intel), Frontier, El Capitan (AMD) in podobnih.

Zimonem ::

Mislim da ni ravno ima kriv za dobre performanse. Ampak bolj pošastne dekoder in kup silicija ki ga servira. Za risc dokaj idealno ako je compiler zmožen dokaj pametno reorganizirat kodo, na ciscu se skoraj ne splača vvtake ekstreme. Ampak v splošnem je to dosti podobno hyperthreadingu. Koda z veliko branchinga bi m1 ga najbrž kar precej prizemljila. Ampak vvčasu super skalarnih rešitev se potem raje uporabi lookup tabela, kot pa bisekcija z ifi.
Uma imajo tudi intlovi in amdjevi apuji. Bodo dodali kakšno Cu več v igpu pa jih ujamejo. Zanimivo bo edino kaj lahko in planira ponudit Apple napram dgpu.

Invictus ::

CISC CPUjev že dolgo ni.

Intelovi čipi so že zdavnaj RISC, sam podpirajo še nekaj ukazov... In za to porabijoi nekaj več silicija.
"Life is hard; it's even harder when you're stupid."

http://goo.gl/2YuS2x

Zimonem ::

Invictus je izjavil:

CISC CPUjev že dolgo ni.

Intelovi čipi so že zdavnaj RISC, sam podpirajo še nekaj ukazov... In za to porabijoi nekaj več silicija.

ISA je tista s čimer dela komplajer.

Predator X ::

Mike... seveda ni res.
Saj bos videl. Bo kaksen resen review pa bos videl kje in kaj je poanta.

Deifitivno je odlicen cip.

Samo prosim ne predstavjaj si, da se bo nek 10-25w cip ddr4 primerjal z 100w+ dgpuji z ddr5 ali celo ddr6 predvsem ko se gre za 1080, 1440p ali 1600p res.

Mike_Rotch ::

Predator X je izjavil:

Mike... seveda ni res.
Saj bos videl. Bo kaksen resen review pa bos videl kje in kaj je poanta.

Deifitivno je odlicen cip.

Samo prosim ne predstavjaj si, da se bo nek 10-25w cip ddr4 primerjal z 100w+ dgpuji z ddr5 ali celo ddr6 predvsem ko se gre za 1080, 1440p ali 1600p res.


Kaj točno ni res?

Edini, ki primerja z dGPUji si ti. Jaz sem samo prilepil benchmarke in povedal kako zadeva dela v praksi.

no comment ::

Ko moraš privlečt ven 100W CPUje in 300W GPUje, da lahko poščiješ 10W čip... Play harder not smarter FTW!!!

Mike_Rotch ::

Evo, resnica je prišla na dan. 65W desktop CPU je v nekaterih testih hitrejši od 10W čipa, ki teste poganja v emulatorju :) M1 sucks.

Lonsarg ::

M1 je premik CPU industrije da ne bo dileme, namesto Intel/AMD duopola za high end zadeve imamo zdaj še Apple in ni za reči da se jim v roku par let še kaka ARM firme ne pridruži. Vseeno pa mi je tale 10W TDP bil sumljiv za miniPC kjer izvajajo te teste in sem malo googlal in tale Anandtech članek pravi (na podlagi meritev), da bi primerljiva TDP številka (primerljiva s tem kako kako AMD in Intel označujeta TDP pri non-mobile zadevah) bila 20-24W pri M1. Treba pa tut vedit da ko povečuješ frekvenco gre poraba gor eksponentno, tako da M1 navit za 20% bi najbrž porabil 100% več.

Zgodovina sprememb…

  • spremenil: Lonsarg ()

Mike_Rotch ::

in tale Anandtech članek pravi (na podlagi meritev), da bi primerljiva TDP številka (primerljiva s tem kako kako AMD in Intel označujeta TDP pri non-mobile zadevah) bila 20-24W pri M1.


Ni povsem primerljiva ne. AMD in Intel navajajo nižje TDP številke kot Apple.

Ryzen 5600x s 65W TDP pri polni obremenitvi porabi cca. 150W. Ryzen 4800u s 15W TDP gre do cca. 35W na polni obremenitvi.

Sicer je zgoraj video, kjer človek naredi en povsem enostaven test porabe na bateriji. M1 ob enakih opravilih porabi cca. pol manj od konkurence (Tiger lake in 4800u).

Lonsarg ::

Res je pol manj je, kar tudi čanek pravi, zavajujoče pa je reči 60W vs 10W kar namiguje na 6krat manj. Pol manj porabe je nekaj kar sta Microsoft in Apple predvidela že 5 let nazaj ko sta začela delati na prehodu na ARM in se je sedaj izkazalo za upravičeno.

Zgodovina sprememb…

  • spremenil: Lonsarg ()

Predator X ::

Mike_Rotch je izjavil:

Predator X je izjavil:

Mike... seveda ni res.
Saj bos videl. Bo kaksen resen review pa bos videl kje in kaj je poanta.

Deifitivno je odlicen cip.

Samo prosim ne predstavjaj si, da se bo nek 10-25w cip ddr4 primerjal z 100w+ dgpuji z ddr5 ali celo ddr6 predvsem ko se gre za 1080, 1440p ali 1600p res.


Kaj točno ni res?

Edini, ki primerja z dGPUji si ti. Jaz sem samo prilepil benchmarke in povedal kako zadeva dela v praksi.


Ja jaz sem rekel, da je ryzen u hitrejsi kar tud je

Mike_Rotch ::

Lonsarg je izjavil:

Res je pol manj je, kar tudi čanek pravi, zavajujoče pa je reči 60W vs 10W kar namiguje na 6krat manj. Pol manj porabe je nekaj kar sta Microsoft in Apple predvidela že 5 let nazaj ko sta začela delati na prehodu na ARM in se je sedaj izkazalo za upravičeno.


5900x porabi cca. 150W pri polni obremenitvi. A1 cca. 25W. To je 6x manj.

Če primerjaš z mobilnimi AMDji, potem je razlika okoli 2x.

Ja jaz sem rekel, da je ryzen u hitrejsi kar tud je


Ne, ni. 4800u je hitrejši v nekaterih multithread aplikacijah. V igrah je počasnejši, v browser testih prav tako, v compression benchmarkih tudi...

Lonsarg ::

Primerjava je smotrna zgolj v istem razredu, torej je z mobilnimi če govorimo o M1. Namreč kot rečeno ko greš višje poraba narašča eksponentno ne linearno.

In ko govorimo o mobilnih procesorjih je vrstni red v single thread očitno trenutno Apple->AMD->Intel (AMD pa vodi v multithread). Skratka ja, Intel je šele tretji :) V obrambo AMDju in Intelu morda zgolj tko da so arhitekturo v osnovi a naredili za high performance in so za potrebe mobilnih 15W kar precej kompromisov sklepali. Ampak to je čisto njihova krivda, leta 2015 je bilo jasno da rabimo mobile-first arhitekture in če niso šli v to pač niso...

Zgodovina sprememb…

  • spremenil: Lonsarg ()

Mike_Rotch ::

Primerjava je smotrna zgolj v istem razredu, torej je z mobilnimi če govorimo o M1. Namreč kot rečeno ko greš višje poraba narašča eksponentno ne linearno.


Povej to tipu, ki primerja 5600x in i5-9400f z M1 in ves vesel ugotovi, da je AMD vseeno hitrejši (čeprav ne veliko in čeprav M1 poganja vsaj nekatere teste v roseta2).

MrStein ::

Mike_Rotch je izjavil:


1.) Ni noben konkreten korak naprej. Je tam 5% hitreje od obstoječega čipa A14. Ki je 15% hitrejši od lanskega A13.
2.) V Bistvu ne rabijo nič delat, ker delajo vsi obstoječi programi. Pa še tisti za iPhone in iPad delujejo. (ja, 10-20% hitrejši bodo, big deal, tega opazi samo nekdo, ki si ga meče na benchmarke)


1. Razlika je v večini primerov bistveno večja kot 5%.

Kot na primer kje?

(da ima M1 dve jedri več vemo)
Motiti se je človeško.
Motiti se pogosto je neumno.
Vztrajati pri zmoti je... oh, pozdravljen!

Zgodovina sprememb…

  • spremenil: MrStein ()

MrStein ::

pegasus je izjavil:

https://arstechnica.com/gadgets/2020/11... ... kot se mi je zdelo, je UMA tu ključ do uspeha. Zanimivo, nisem si mislil, da bo Apple prvi s tem na tržišču s produktom.

Saj ni, to je obstajalo že v osemdesetih in devetdesetih.
Je zgolj nesmotrno, če se ves čas menjajo grafične kartice, ker dostop preko expansion slot-a ni dovolj hiter.

(pa še na iGPU je tudi deljen RAM, kot je že nekdo omenil)
Motiti se je človeško.
Motiti se pogosto je neumno.
Vztrajati pri zmoti je... oh, pozdravljen!

Geho ::

MrStein je izjavil:

pegasus je izjavil:

https://arstechnica.com/gadgets/2020/11... ... kot se mi je zdelo, je UMA tu ključ do uspeha. Zanimivo, nisem si mislil, da bo Apple prvi s tem na tržišču s produktom.

Saj ni, to je obstajalo že v osemdesetih in devetdesetih.
Je zgolj nesmotrno, če se ves čas menjajo grafične kartice, ker dostop preko expansion slot-a ni dovolj hiter.

(pa še na iGPU je tudi deljen RAM, kot je že nekdo omenil)

iGPU ima svoj naslovni prostor in tako za sebe rezerviran del RAM-a. Na koncu zgleda stvar tako, da istočasno ne moreta dostopati do istega naslovnega prostora CPU in GPU. Če CPU piše v naslovni prostor GPU-ja, ta vmes ne more dostopati. Tu pride do bottlenecka in še kaj. M1 nima posebej naslovnega prostora za GPU ampak je memory unified. Torej skupen memory oz. oba hkrati lahko dostopata naenkraat do istega naslova. Recimo CPU lahko hkrati zapisuje notri, medtem ko GPU že bere. Tu so bistvene pohitritve, ki so ji naredili, drugače sam GPU jedra na M1 niso ne vem kaj oh in sploh. Je pa vprašanje koliko se uporablja tudi neural engine cores vmes. A ti dejansko pomagajo pri komputacijah ali so namenjeni izključno samo za ML computing? Me zanima kaj bodo pogruntali za M2. Lahko da bodo samo 2xM1 dalu skup in bo M2. Torej namesto 8 jeder potem 16. Apple development se čedalje bolj premika v asinhrono multi-threaded izvajanje.

MrStein ::

Mike_Rotch je izjavil:


4800u je hitrejši v nekaterih multithread aplikacijah.

8 jedrnik je hitrejši v _nekaterih_ multithread aplikacijah ? :O

(M1 ima 4 jedra, pa še 4 okrasna jedra z max 2W skupnega TDP, pri zmogljivosti ne igrajo neke vloge)
Motiti se je človeško.
Motiti se pogosto je neumno.
Vztrajati pri zmoti je... oh, pozdravljen!

Mike_Rotch ::

MrStein je izjavil:

Mike_Rotch je izjavil:


1.) Ni noben konkreten korak naprej. Je tam 5% hitreje od obstoječega čipa A14. Ki je 15% hitrejši od lanskega A13.
2.) V Bistvu ne rabijo nič delat, ker delajo vsi obstoječi programi. Pa še tisti za iPhone in iPad delujejo. (ja, 10-20% hitrejši bodo, big deal, tega opazi samo nekdo, ki si ga meče na benchmarke)


1. Razlika je v večini primerov bistveno večja kot 5%.

Kot na primer kje?

(da ima M1 dve jedri več vemo)


V praktično vseh benchmarkih, ki sem jih videl do zdaj. Od geekbencha do raznih browser benchmarkov.

MrStein ::

Ravno Geekbench ima +7%, torej toliko, kot ima večji clock.

Torej smo razčistili?
Motiti se je človeško.
Motiti se pogosto je neumno.
Vztrajati pri zmoti je... oh, pozdravljen!

Mike_Rotch ::

Smo razčistili. Single core 7% (vsaj), multicore skoraj 50%. Torej, več kot 5%.

MrStein ::

Ja, saj, to govorim že ves čas.

M1 je A14, kjer so mu povečali clock za 7% in dodali dva jedra. (cache je tudi baje drugačen)

Torej je isti dizajn, ista arhitektua. Razlika je nekje kot med Ryzen 3600X in 3800X. En ima pač 2 jedri več in malo večji takt. Ni pa to noben poseben "korak naprej".

Pomnimo, odgovarjal sem na:

ripmork je izjavil:

Applov marketing sicer mal z rezervo jemljem, a tokrat so dejansko naredili konkreten korak naprej v zmogljivosti.


Torej niso. ST zmogljivost je enaka že obstoječemu čipu. MT pa več, ker so dali 2 jedra več.

A vidiš kje poročati, da je 3800X konkreten korak naprej glede na 3600X? Seveda ne. Ker ni.
Je pa konkreten korak naprej napram *Dozer modelom.

Tako kot je/sta A14/M1 konkreten korak naprej glede na A13. (tako hudo konkreten sicer ne, ampak recimo)
Motiti se je človeško.
Motiti se pogosto je neumno.
Vztrajati pri zmoti je... oh, pozdravljen!

Zgodovina sprememb…

  • spremenil: MrStein ()

dild0idis ::

Saj nima smisla več tole preseravanje.

Itak bo čez 3 leti Samsung skopiral Apple Mac Mini z svojim Exynos procesorjem in boste vsi Apple haterji imeli trdega in razlagali, kako dober čip je, da je skoraj enako hiter kot lanskoletni M3 ter, da skoraj premaga AMD6600x za AMD6600xt, zraven pa razlagali, da lahko celo Fortnite na Arm Windows v competitive nastavitvah doseže celih 60 frejmov.



ps: Bo pa zanimivo videti, kakšen bo napredek M1 z M2 itn., ali bo enak napredek, kakor je bil napredek med A13 in A14?
Ni važno na koga mečeš jedrske, važno je, da ti Lady Gaga poje!

Predator X ::

dild0idis je izjavil:

Saj nima smisla več tole preseravanje.

Itak bo čez 3 leti Samsung skopiral Apple Mac Mini z svojim Exynos procesorjem in boste vsi Apple haterji imeli trdega in razlagali, kako dober čip je, da je skoraj enako hiter kot lanskoletni M3 ter, da skoraj premaga AMD6600x za AMD6600xt, zraven pa razlagali, da lahko celo Fortnite na Arm Windows v competitive nastavitvah doseže celih 60 frejmov.



ps: Bo pa zanimivo videti, kakšen bo napredek M1 z M2 itn., ali bo enak napredek, kakor je bil napredek med A13 in A14?


Pa sej ni m1 cip vau. To je samo napredek aq4 cipa. Ima vec bandwidtha... za gpu to pa je to.

USA ali HSA kakorkoli pa tud ne bo magicno bostal gpu perf.

Recimo je kr nekaj userjev potrdilo da nastavitve ultra vs medium sploh ne naredijo razlike v fpsjih. Stvar je taka, da je port dela in da dela dobro ne pa da podpira vse bonboncke...
Tako, ni vazno al ti nastavs v menuju medium al ultra al pa low...

Zgodovina sprememb…

Predator X ::

Skratka, da vam pokazem dejstva pogljte deus ex mankind divided
24 fps at ultra settings :



https://www.techspot.com/amp/review/123...
Seprav 1080p ultra...
Sicer tu je gtx 970 omejena na sej veste... tisti skandal z ramom. Ampak apple m1 ima tud bolj kot ne pocasen sdram, ce gledamk dgpu.


Tako, da se strijam da so firestorm jedra res hitra..ampak gpu perf je pa za amdjem/nvidio.

Skoda je samo to, da vsi vidite samo ultra settings v menuju ne pa v igri.

Lp

          ::

Ali je bilo kje objavljeno kako deluje Roseta? Ali kodo za x86 pretvori v ARM ukaze pred zagonom ali to počne sproti?

Drugače je pa nekako logično, da je M1 zmogljiv. Karkoli drugega bi bil za Apple strel v lastno koleno. Najbrž nihče ne bi delal prehoda na svoj procesor, ki bi zaostajal za tem kar je trenutno na voljo na trgu. Pa še nekaj je. Tukaj primerjate Macbook Air, ki nikoli ni bil paradni konj kar se zmogljivosti tiče. Fer bi bilo ta računalnik primerjati z ostalimi ultrabooki.

tomaz- ::

Na predstavitvi je bilo receno, da sproti: "on the fly" je veckrat ponovil

Zgodovina sprememb…

  • spremenil: tomaz- ()

Bwaze6 ::

          je izjavil:


Drugače je pa nekako logično, da je M1 zmogljiv. Karkoli drugega bi bil za Apple strel v lastno koleno. Najbrž nihče ne bi delal prehoda na svoj procesor, ki bi zaostajal za tem kar je trenutno na voljo na trgu.


Ne, ni samoumevno.

Intel je napravil prehod samo iz 14nm proizvodnega procesa na 10nm v laptop procesorjih, pa še to je moral zožati na maksimalno štirijedrnike, in v praktično nobenem parametru niso prehiteli starejših procesorjev ki so jih zamenjali, razen v avtonomiji.

Invictus ::

          je izjavil:

Tukaj primerjate Macbook Air, ki nikoli ni bil paradni konj kar se zmogljivosti tiče. Fer bi bilo ta računalnik primerjati z ostalimi ultrabooki.

To bi bilo pa res fer ;).
"Life is hard; it's even harder when you're stupid."

http://goo.gl/2YuS2x

          ::

Bwaze6 je izjavil:

          je izjavil:


Drugače je pa nekako logično, da je M1 zmogljiv. Karkoli drugega bi bil za Apple strel v lastno koleno. Najbrž nihče ne bi delal prehoda na svoj procesor, ki bi zaostajal za tem kar je trenutno na voljo na trgu.


Ne, ni samoumevno.

Intel je napravil prehod samo iz 14nm proizvodnega procesa na 10nm v laptop procesorjih, pa še to je moral zožati na maksimalno štirijedrnike, in v praktično nobenem parametru niso prehiteli starejših procesorjev ki so jih zamenjali, razen v avtonomiji.


Čisto neposredna primerjava vendarle ni mogoča. Intel že ima procesorje na trgu in če z novo generacijo povečajo avtonomijo, so vseeno naredili korak naprej. Ko pa na trg procesorjev pride nov igralec, še posebej, če je to Apple, ki se pozicionira med premijske izdelke, pa je procesor takih zmogljivosti edina mogoča varianta. Si predstavljate nov Macbook Air za 1300€ z zmogljivostjo Raspberry Pija?

Mike_Rotch ::

Apple že 10 let dela svoje procesorje. Zadnjih par let so že konkurenčni Intelom (po zmogljivostih). Zmogljivost raspberry pija torej nikoli ni bila resna opcija.

damirj79 ::

Se malo imajo za poglihat

https://mspoweruser.com/too-good-to-be-...

Drugace mi pač ni se čisto jasno da nek mobile gpu pokaže dejansko isto sliko kot namenski gpu, isti detajli, isto vse.. potem čemu nvidia tlači na tisoče shader unitov in drugih procesnih enot za nič več efekta?

VaeVictis ::

damirj79 je izjavil:

Se malo imajo za poglihat

https://mspoweruser.com/too-good-to-be-...

Drugace mi pač ni se čisto jasno da nek mobile gpu pokaže dejansko isto sliko kot namenski gpu, isti detajli, isto vse.. potem čemu nvidia tlači na tisoče shader unitov in drugih procesnih enot za nič več efekta?


Pričakovano, saj zato pa nekdo, ki uporablja računalnik za svoje profesionalno delo in rabi nekaj več kot samo Safari, Pages, Numbers, Keynote in Xcode zadeva še ni za nabavo oz. zamenjavo njegovega primarnega računalnika.

ps: Pa glede na vse te primerjave, kako laufa pa MS Surface X vse te Win programe in igre, je že kdo gledal kako primerjavo?

Le-tako je prava primerjava, ker je nov laptop z ARM procesorjem na Windows platformi vs. nov Apple silicone procesor na Mac OS platformi...

ps2: A bi morda lahko v prihodnosti videli celo WIndows ARM 10 na Apple Silicone?
Let's Go Brandon!
Slo-tech.com je postal greznica in izguba časa!
Adijo!

Mike_Rotch ::

ps2: A bi morda lahko v prihodnosti videli celo WIndows ARM 10 na Apple Silicone?


Craig Federighi pravi, da mora Microsoft požegnat.

https://9to5mac.com/2020/11/20/windows-...
««
8 / 23
»»


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo
»

Intel predstavil nove procesorje 8. generacije: Amber Lake, Whiskey Lake

Oddelek: Novice / Procesorji
187199 (5189) pegasus
»

Apple novosti: 12-palčni MacBook, Apple Watch in kopica drugih izboljšav (strani: 1 2 3 4 5 6 7 8 )

Oddelek: Novice / Apple iPhone/iPad/iPod
390119580 (97273) opeter
»

Novosti z Applove predstavitve (strani: 1 2 )

Oddelek: Novice / Apple iPhone/iPad/iPod
5630016 (25965) PrimozR
»

Nazaj k Macom, Macbook Air (strani: 1 2 3 4 )

Oddelek: Novice / Apple iPhone/iPad/iPod
16530286 (27042) antonija
»

MacBook Air (strani: 1 2 3 4 5 6 )

Oddelek: Novice / Diski
27133469 (15850) poweroff

Več podobnih tem