X-Bit Labs - Skupina PCI SIG je na rednem letnem srečanju predstavila predlog za razvoj zunanjega priključka za standard PCI Express, ki bi tekmoval s Thunderboltom in USB 3.0. Nova tehnologija bo omogočala priklop zunanjih naprav prek vmesnika PCIe 3.0, ki bodo lahko komunicirale s hitrostjo do 32 Gb/s. Podobno kot pri Thunderboltu bo standard izveden najprej z bakrenimi vodniki, v naslednji reviziji PCIe 4.0 pa naj bi uporabili optiko.
Vprašanje je, ali potrebujemo še en standard priklopa zunanjih naprav. Trenutno se bije bitka med Thunderboltom, ki zmore 10 Gb/s, in USB 3.0 (5 Gb/s). Če se želi PCI Express uveljaviti, bo moral ponuditi nekaj novega. Žal ne bo podpiral naprav, ki porabijo več kot 20 W energije, kar takoj izključi zunanje grafične kartice in podobno, kjer bi lahko našel svojo nišo. Za zdaj bodo podprte le naprave za shranjevanje podatkov (diski, ključi, fotoaparati, kamere ...).
Ena izmed prednosti pa je odprtost standarda, saj je Thunderbolt zaprt, medtem ko je PCI Express javno odprt standard. Če bosta Intel in Apple omejevala konkurenco pri Thunderboltu, se lahko zgodi, da bo PCI Express bolj priljubljen. Končni standard sicer pričakujemo šele junija leta 2013.
Se pridružujem Pyr0Beast! Končno bi se rad losal omejitev in naredil en zgleden DAS + NAS v enem ohišju. 20W je dovolj za JBOD kartice. Ali kdo ve, se bo dalo PCIe kanale "cepiti" t.j. da bi lahko na eksterni PCIe x16 priključil npr. dve kartici PCIe x8?
Se pridružujem Pyr0Beast! Končno bi se rad losal omejitev in naredil en zgleden DAS + NAS v enem ohišju. 20W je dovolj za JBOD kartice. Ali kdo ve, se bo dalo PCIe kanale "cepiti" t.j. da bi lahko na eksterni PCIe x16 priključil npr. dve kartici PCIe x8?
Ne, če čipset tega ne bo predvideval. Za vsak PCIe imaš endpoint v čipu in driverje na njegovi zunanjosti.
Količina driverjev določa efektivno hitrost prenosa, ampak tudi če se odločiš za nižjo in prišparaš nekaj driverjev, z njimi nimaš kaj, če čip nima ekstra endpointa za take primere.
Sicer pa sem to že dolgo mislil poskusit z obstoječim PCIe in obstoječimi platami za multiprocessing.
V smislu da bi recimo vzel kake navadne plate z več PCIe štekerji, na vsaki drugi odlotal PCIe konektor in ga nato zalotal s spodnje strani plate. Nato bi tako plato postavil nad originalno in bi ju povezal s kosom tiskanine v PCIe portu, na katerei bi bile samo vzporedne vezi.
Stvar ne bi bila enakovredna koherentnemu linku kot ga imajo Opteroni, še vedno pa sila uporabna.
Problem je, če hočeš povezati več ko dve palti vertikalno na tak način, rabiš na ne-končnih nodeih dva PCIe porta za povezave.
Če hočeš take stolpce plat povezati še horizontalno, rabiš še dva PCIe porta. Pa seveda usrezno rešitev, ki prenese signale na drugo stran, ker tu ni dovolj 15 cm kos tiskanine.
Se pravi, če bi se hotel iti poceni parallel computinga s tem, rabiš plato z vsaj 4 PCIe x8 porti.
V takem sistemu bodo vsi vmesni nodei imelli vse porte zasedene samo za medsebojno komunikacijo in bi lahko do dve grafikulji vštekal samo v robne plate.
A cenovno je stvar prblematična, saj plate z veliko PCIe štekerji niso poceni in na koncu tudi ne tolike cenejše od ustrezne prave NUMA 2x ali 4x socket plate. KI seveda ima za nameček še koherentne linke...
Meni je škoda, da v začetku minulega desetletja ni zmagal infiniband kot vodilo prihodnosti. PCIx zgleda danes naravno smešno proti temu, kar ponuja infiniband ... Te dni je bil predstavljen FDR z zmogljivostjo 56Gb/s na lane, brez težav pa jih daš skupaj 12 ... in to ni omejeno na eno škatlo, to dela čez cel server room. Prek IB tkanine lahko furaš skoraj karkoli hočeš, od native IB, prek etherneta, IPja, scsi, iscsi, FCoE, ... ni da ni. Zakaj se moramo pol ukvarjati še s takimi arhaizmi kot je PCI?
Se strinjam da je Infiniband daleč najboljša povezava. Na to kaže tudi njegova uporaba v skoraj vseh clustrih. Da ne omenjamo njegove latence ki je za razred ali dva nižja kot pri ethernetu! Doma me že dolgo rajca napeljati Infiniband, samo nekako nimam jajc in dovolj znanja. Pa switchi so malo dragi. Drugače bi se pa zadovoljil že z 20Gb povezavami ;-). Kdo ve kako poceni priti do 3-eh IB kartic in switcha? Nekako se mi zdi, da infiniband ni potegnil zaradi parcialnih interesov Intela. Intel je bil nekako vodilni pri ethernet povezavah. Smešnih 10Gb, če jih primerjamo z IB, se šele sedaj počasi uveljavlja, v zelje pa zopet hodi Intel s Thunderboltom.
Ja sej vem. Novi IB controlerji zaradi cene nekako odpadejo. Sem gledal na ebay-u in tam se najde marsikaj, samo... Potem je tukaj še OpenSolaris oz. OpenIndiana, ki ima neke težave z IP over IB tako, da če bi bile vse zadeve dosti poceni bi reskiral.
Ja, se popravljam ... FDR je 14Gb/s, cx4 konektor pa ima 4 lanes, torej 56Gb/s. Interswicth link je lahko 12x, torej 168Gb/s. Stestirani so kabli do 100m. Btw, 10GE in IB kabli so različni, čeprav imajo isti cx4 konektor!
Sej podpiram napredek, sam pizda toliko različnih vmesnikov!
S to razliko, da ta vmesnik že imaš in da ti verjetno poleg osnovnega slota ostali zevajo plačani a prazni, brez veliko upanja v to, da bodo kdaj izkoriščeni. Zakaj jih v bodoče ne uporabiti ?