» »

Rešitev za sproten backup 40-ih računalnikov

Rešitev za sproten backup 40-ih računalnikov

He-Man ::

Pozdravljeni,

iščem najoptimalnejšo (čim ceneje in s čim manjšim zmanjšanjem performansa) rešitev za malce kompleksnejši backup problem.

Na podjetju imamo okrog 40 PC-jev (nepremične kište in prenosniki, ki jih odnašamo domov in potem priklapljamo spet v službeno omrežje). Nekateri računalniki so torej priklopljeni v omrežje 24/7, nekateri samo nekaj ur na dan, nekateri samo kakšen dan v tednu itd.

Najceneje (brezplačno) bi bilo inštalirti AOMEI Backupper Standard (je brezplačen tudi za komercialno rabo) a žal nima command line-a in bo potem moral narediti neko skripto (npr. z AutiIt), da bi avtomatiziral proces. Amapk kompleten system image vsakega računalnika bi prinesel verjetno tudi preveliko obremenitev omrežja, sploh, če bi vsi delali hkrati.

Dražja zadeva bi bil kakšen sproten backup. Ne vem, ali bi raje kompleten image ali samo podatke. Vse, diferencialno ali inkrementalno... Če ne bi preveč obremenilo vsega skupaj.

Kaj se sploh uporablja za take primere? 40 PCjev, shraba podatkov na nek server ali NAS. Kaj prakticirate?

Vem, da nisem dal nič podatkov o omrežju, prepustnosti itd., ampak vseeno povejte kakšno splošno idejo.

Hvala.
  • spremenilo: He-Man ()

He-Man ::

PS: Sedaj sem pomislil še na ROBOCOPY, to je tudi brezplačno. Ni pa sprotno...

Han ::

Cobian Backup + NAS (dnevno) + USB ključ (tedensko /mesečno).

Cveto ::

Han je izjavil:

Cobian Backup + NAS (dnevno) + USB ključ (tedensko /mesečno).


Jest imam urejeno tako in deluje. Je sicer nekaj dela da se nastavi, a ko dela, dela dobro. Zna delat tudi shadow kopije, obvešča po mailu če je kaj narobe, dela pa lahko tudi polne kopije po nastavljenem urniku (dnevno se sicer dela incremental).

V tvojem primeru je problem edino z prenosniki, ker če daš vse backupe v en job, ne bo šel delat vsega še enkrat ko zazna laptop. Lahko sicer narediš 40 jobov in določiš nek urnik, a je s tem precej dela. Nekateri nasi imajo priložen backup software, ki zna vzdrževati "živo" kopijo (sinhronizira), a za več kot par userjev je ponavadi za plačat.

Pri nas se je še najbolje obneslo da je šlo vse pomembno na NAS. Potem backupiraš samo to in je ok. Če rabiš zadeve ofline si mapiraš in nastaviš ofline in je. Mail je pa itak exchange (tudi lokalno syncan, če si offline).

b3D_950 ::

Za prenosnike: http://blog.davidchristiansen.com/2014/...
+ v skripti dodaš še pogoj, da mora biti NAS dosegljiv, preden izvedeš kopiranje.

Za image: http://www.drivesnapshot.de/en/commandl...
Zdaj ko je mir, jemo samo krompir.

mailer ::

Pri nas se je še najbolje obneslo, da je šlo vse pomembno na NAS. Potem backupiraš samo to in je ok.
To je še najboljša rešitev. Moraš pa nastavit, da prenosnik samodejno pošlje vse na NAS, ko je priklopljen na službeno omrežje.
Armor A30, AX850, V Gene, 3770K, Big Shuriken II,
Corsair 16GB 1600MHz CL9, GTX660TiDC2TOP, 840120GB Basic,
Spinpoint 1TB, BD207DBK, G110, G300, Dell U2412M

737 ::

Koliko je pa rešitev odporna na viruse tipa Cryptolocker?

mailer ::

Tako, kot so uporabniki odporni na klikanje raznih priponk v elektronskih sporočilih.
Armor A30, AX850, V Gene, 3770K, Big Shuriken II,
Corsair 16GB 1600MHz CL9, GTX660TiDC2TOP, 840120GB Basic,
Spinpoint 1TB, BD207DBK, G110, G300, Dell U2412M

Cveto ::

Zato je pa dobro delati še periodične kopije NAS-a na odstranljiv medij. Včasih je bilo idealno ker je šlo na DVD, danes je pa tega preveč in bi rabil kakšno tračno enoto.

mrsmoke ::

Jaz uporabljam RoboCopy. Skripto pa zažene task scheduler.
Imam pa zato prav posebnega domenskega uporabnika, ki ima samo Read pravice na vseh mapah.
V NAS napravi ima pa samo on pravice pisati. Tako je bolj varno za razne viruse itd.

He-Man ::

Kaj pa kakšen Acronis? Nekaj, kar bo dovolj pametno, da bi npr. sinhroniziralo ali bakapiralo en PC za drugim, ne vseh naenkrat. Clonezilla je zastonj ampak komplicirana baje?

Hvala za vse dosedanje predloge!

Zgodovina sprememb…

  • spremenilo: He-Man ()

cjen ::

Bittorrent sync
Mislim, da je potrebno nekaj placati za komercialno uporabo, ampak se mi zdi, da ni drago.

videc ::

Jaz sem v podobni situaciji imel BackupPC. Tudi cca. 40-50 PC-jev, ki so se arhivirali, ko so bili na službenem omrežju.
Moogče bi tudi tebi ustrezalo. Še uporabniki si lahko sami delajo restore, itd...
http://backuppc.sourceforge.net/
http://www.backuppc.com/

frtusnk ::

powershell skripta, ki stisne podatke(7zip) in kopira na nek network drive. Scheduled task,run at logon, po želji.... čim manj dodatnega softwera na klientih. Skripta leži na mrežnem pogonu, prav tako 7z.exe in 7z.dll.

Mislim, da je pametno tukaj stvar nekoliko obrniti. Vsi službeni podatki morajo biti na omrežnem disku. Podatki ne smejo zapustiti prag firme. V primeru, ko je to potrebno se rešuje z VPN ali offline sync. Potem ti ostane samo kako boš izvedel backup omrežnega pogona.

recimo :


$user = $env:USERNAME
$path = $env:USERPROFILE
$zip_lokacija = "\\server\share\7z.exe"
$zip_file = "\\server\$user\$user_arhiv.7z"
$zip_exe = "C:\temp\7z.exe"


$seznam = "$path\Contacts",
          "$path\Desktop",
          "$path\Documents",
          "$path\Pictures",
          "$path\Favorites",
          "$path\appdata\Roaming\Microsoft\Signatures"

$search_temp = Test-Path "C:\temp\"
$search_7z = Test-Path "C:\temp\7z.exe"

if ($search_temp -ne 'True') {New-Item C:\temp\ -type directory}
if ($search_7z -ne 'True') {Copy-Item $zip_lokacija "C:\temp"}

&CMD /C $zip_exe a $zip_file $seznam

Zgodovina sprememb…

  • spremenilo: frtusnk ()

brodul ::

Priporocam, da pogledas kasken deduplikacijski sistem. Za Windows okolja niti ne poznam.

Priporocam, da v delovne naloge umestis restore kaksnega racunalnika, na vsaj 3 mesece. Ce ne delas restorov, so backupi nicni.
Pretending to be a mature adult is so exhausting.

Anney ::

Sam uporabljam tega in mi je odličen program ter ni škoda denarja. Scer ti imaš več licenc vednar na dolgi rok se splača. Majhen, lahek, učinkovt, ogromno možnosti.

Bvckup 2
Review1
Review2

Zgodovina sprememb…

  • spremenilo: Anney ()

shadow7 ::

brodul je izjavil:

Priporocam, da pogledas kasken deduplikacijski sistem.

Se pridružujem. Pozabi na kompresijo backupov. Deduplikacija bo prinesla veliko večje prihranke prostora.

Narediš tedenske backupe (barbone restore) na mrežni disk, tam delaš deduplikacijo.

Saj uporabniki nimajo podatkov na lokalnih računalnikih? Mrežni disk pač backupiraš redno. Pri tem ne mislim na zrcaljenje diskov.

Za stacionarne naprave lahko vse to narediš kar s scheduled Windows backup z ustrezno razporejenim zamikom med backupi.

He-Man ::

Nekaj takega sem si zamislil včeraj: stalna sinhronizaija dokumentov (oz. vsega kar zaposleni delajo) na server/NAS/? (nekaj ala Google Drive, le da se shranjuje na lokalni strežnik). Ali imajo Windows Pro že vgrajeno neko takšno funkcionalnost? Če ne, ali obstaja kakšna brezplačna rešitev ala Google Drive (za shranjevanje na lokalni srever)?

+ 1x mesečno full system image (image celotnega diska vseh računalnikov) na server/NAS/? To bi bilo z AOMEI Backupperjem lahko brezplačno, s kakšno skripto oz. makrom, saj ima free verzija onemogočene command line ukaze.

To bi bila najcenejša (celo brezplačna) varianta...

zlobcek ::

Mi smo imeli nekaj časa nazaj narejeno preko WIN HOME SERVER 2003. V sklopu tistega je bil nek backup solution, kjer si naložil program za povezavo na server na klienta in je lepo naredil backup vsakič, ko sta se s serverjem povohala preko mreže. Good stuf.

Zdej mamo centralno mašino s podatki pa offline files na notebookih. Sam ne dela preveč dobro. Včasih traja 10 minut, da se offline files poveže z mapo na mreži itd itd.

Tac20 ::

brodul je izjavil:

Priporocam, da pogledas kasken deduplikacijski sistem. Za Windows okolja niti ne poznam.

Priporocam, da v delovne naloge umestis restore kaksnega racunalnika, na vsaj 3 mesece. Ce ne delas restorov, so backupi nicni.


Microsoft Server 2012 ima deduplikacijo ki sicer ne deluje tako da dela ves čas (kot imajo rešena nekatera diskovja) ampak se izvede dnevno preko taska

shadow7 ::

He-Man je izjavil:

Nekaj takega sem si zamislil včeraj: stalna sinhronizaija dokumentov (oz. vsega kar zaposleni delajo) na server/NAS/? (nekaj ala Google Drive, le da se shranjuje na lokalni strežnik). Ali imajo Windows Pro že vgrajeno neko takšno funkcionalnost?

Robocopy + task scheduler.

He-Man je izjavil:

Če ne, ali obstaja kakšna brezplačna rešitev ala Google Drive (za shranjevanje na lokalni srever)?

Opencloud?

He-Man je izjavil:

+ 1x mesečno full system image (image celotnega diska vseh računalnikov) na server/NAS/? To bi bilo z AOMEI Backupperjem lahko brezplačno, s kakšno skripto oz. makrom, saj ima free verzija onemogočene command line ukaze.

V Windows vgrajen backup omogoča izdelavo backupov za barebone restore. Vsaj od W7 dalje. Če moraš restore delati na drug HW, je to verjetno še najmanj problematično.

Baja ::

poglej še Comodo Backup

He-Man ::

@ Baja: je Comodo Backup brezplačen za podjetja?


@ Shadow 7: Robocopy + TS ne bosta sproti sinhronizirala, kot to počne npr. Google Drive, ali? Robocopy ima verjetno stikalo, s katerim lahko preverimo in prepišemo samo datoteke, ki so se spremenile. Ima možnost diferencialnega oz. inkrementalnega kopiranja? Potem bi mogoče šlo, ampak bi moral TS vsako minuto zaganjati Robocopy.

Opencloud je nekaj v smislu DropBox-a in Google Drive-a? Jaz bi nekaj takega, ampak da ne sinhronizira v cloud pač pa na server v lokalni mreži.

V Windows vgrajen backup je slab, govorim iz lastnih izkušenj, ko sem hotel narediti restore na malenkost manjši disk od izvornega in ni pustil. Brezplačni AOMEI ga prekaša na celi črti.


@ Tac20: žal nimamo Windows Server-ja 2012.


@ zlobcek: Offline files (še vedno) ne dela dobro? To sem se tudi bal... Katere Windowse imate na workstationih?

videc ::

Sicer ne poznam AOMEI-ja, ampak, da si poglej BackupPC, ki sem ga omenil zgoraj.
Je točno to, kar ti iščeš.
Postaviš strežnik z BackupPC-jem, na vsaki del. postaji narediš BKP Uporabnika in potem strežnik sam dela varnostne kopije podatkov iz del. postaj.
Pa zastonj je.

Spock83 ::

Imam Infortrend EonNAS Pro 510, ki ima OpenSolaris ZFS sistem. Pa za snampshote uporabljam Veeam Backup Free edition. Za zdaj je vse ok.

b3D_950 ::

Sinhronizacija je bolj tako, ni ravno backup: če nekdo po nesreči zbriše/overwrita fajl, se bodo te spremembe replicirale na vse naprave. Potem pa pride vprašat, kje bi dobil original fajl, pa mu ne moreš pomagat. No, razn če imaš file versioning ali kakšn snapshote, shadow kopije, ali pa da delaš dnevni backup NAS naprave, tako da imaš vsaj nekaj kot "backup".
Zdaj ko je mir, jemo samo krompir.

shadow7 ::

He-Man je izjavil:

@ Shadow 7: Robocopy + TS ne bosta sproti sinhronizirala, kot to počne npr. Google Drive, ali? Robocopy ima verjetno stikalo, s katerim lahko preverimo in prepišemo samo datoteke, ki so se spremenile. Ima možnost diferencialnega oz. inkrementalnega kopiranja? Potem bi mogoče šlo, ampak bi moral TS vsako minuto zaganjati Robocopy.

Robocopy omogoča marsikaj.
robocopy /?
Mirror: robocopy /mir
Pazi! Pri mirror tudi na dest. brišeš kar je brisalno na source. Verjetno tega nočeš vsakih par minut. Ampak občasno pa.
Sinhroniziraš samo nove/spremenjene datoteke. Ampak cele datoteke.

Task scheduler ob bootu zažene skripto, kjer imaš v loopu robocopy? Preprost remote deploy na vse Win računalnike.

Zakaj uporabniki sploh imajo (nepogrešljive) datoteke na svojih računalnikih?

Opencloud je nekaj v smislu DropBox-a in Google Drive-a? Jaz bi nekaj takega, ampak da ne sinhronizira v cloud pač pa na server v lokalni mreži.

Opencloud si inštaliraš na svoj server in nima (nujno) kakšne veze s cloudom.

V Windows vgrajen backup je slab, govorim iz lastnih izkušenj, ko sem hotel narediti restore na malenkost manjši disk od izvornega in ni pustil. Brezplačni AOMEI ga prekaša na celi črti.

Ja, to zna vzeti nekaj časa (večji disk, restore, downsize & clonezilla na manjšega).

Kakorkoli že — če delaš barebone backup delujočega sistema, ga definitivno testiraj pravočasno. Da ne bo kakšnih presenečenj, ker npr. ni narejen backup delujoče SQL baze.

Zgodovina sprememb…

  • spremenil: shadow7 ()

b3D_950 ::

shadow7: o kakšnem opencloudu ti to? mogoče misliš owncloud?
Zdaj ko je mir, jemo samo krompir.

shadow7 ::

Owncloud

darkolord ::

Pri strankah uporabljam Veeam Endpoint Backup Free in je super. Izredno enostavna konfiguracija (kaj, kam, kdaj), ima kompresijo in deduplication, omogoča file-level restore in restore na bare metal ... Ko je verjetno v bistvu vse, kar rabiš.

Zgodovina sprememb…

  • spremenilo: darkolord ()

Baja ::

@He-Man: ja, Comodo je free for commercial use

He-Man ::

Uf, malo preveč informacij naenkrat zame, moram ugotoviti kaj bi bila najoptimalnejša rešitev... Hvala vam!

trnvpeti ::

syncthing za podatke, ki se nastavi na master na delovni postaji, na serverju/drugem_racunalniku pa na slave, in se kopira ali konstantno, vsako uro,.... ko se priklopi na omrezje,prenos je kriptiran z lastnim certifikatom,...
kopirajo se samo spremembe, tako, da velikega prometa po mrezi ne bo(razen prvic)
lahko nastavis dve delovni postaji za enega userja in se hkrati slave za podatke na tretji napravi/serverju

Zgodovina sprememb…

  • spremenil: trnvpeti ()

...:TOMI:... ::

Veeam endpoint backup še poglej.
Tomi

sumoborac ::

Seafile. Vsak comp ima lahko svojo mapo + skupno mapo, tko da je vse vedno na voljo.
Prid sm al pa tm ostan...

trnvpeti ::

seafile vs syncthing

seafile je namenjen bolj sharingu in temelji na client-server, syncthing bolj backupu in je na distributed modelu

syncthing
+ ne rabis serverja
+ na drugem racunalniku je lahko slave model, torej se brisane stvari na drugem racunalniku ne bodo brisale, ce se brisejo na prvem
+ https oz kriptiran promet je po defaultu
+ izmenjava kljucev za vsako napravo
+ ni treba skrbeti za 'streznik,drug racunalnik' , ce slucajno odleti hw
- za kriptiranje na drugem racunalniku/serverju moras sam poskrbet

seafile
+ kriptiranje datotek
- za kriptiran promet moras sam poskrbeti(https)
+ sharing (knjiznice, podknjiznice, deljenje,...)
-. ko zbrises na clientu, se brise na serverju
-- tezje delat backup streznika(v primeru da odleti streznik) in potem tezja ponovna vzpostavitev sistema

Lonsarg ::

No "ko izbrises na klientu se izbrise na serverju" ne drzi za seafile, ker ima seafile po defultu nastavljeno da obdrzi celotno zgodovino tvojih filov, ala Apple Time Machine skratka gre za sync in backup hkrati.

Imam seafile in bom rekel tako, zmaga v cisto vsem, razen v enostavnosti. Zadeva je pač bolj malce kompleksna kot skoraj vsa konkurenca, ce imas znanje worth it, ce si nov v teh vodah morda kaj bolj enostavnega.

Z bolj enostavnega mislim preproste resitve kot so Windows File history pa take fore in ne konkurenci "privet cloudi", ki niso tako veliko enostavnejsi.

Zgodovina sprememb…

  • spremenil: Lonsarg ()

darkolord ::

Seafile ni nadomestilo za backup. Predvsem zaradi tega, ker ti zadeva sinhronizira podatke v obe smeri.

Če se ti tak "backup" (pa naj bo seafile, owncloud ali karkoli) pokvari, se ti lahko zgodi, da ti bo vse pokvarjene zadeve lepo syncalo nazaj na kliente.

Takole to izgleda:

Zgodovina sprememb…

  • spremenilo: darkolord ()

Lonsarg ::

Če se ti pokvari file, boš še vedno dostopal do stare nepokvarjene verzije(govorim za seafile, veliko konkurence ne handla tega!). Če se ti corrupta celotni server pa server software seveda neha delovati, scenarij ko se tako hash blocka kot tudi sam block od fila coruptata oba enako ima IMO zanemarljivo verjetnost, tako kot start življenja v vesolju.

To kar ti opisuješ je dumb 2-way sync, kjer ni server softwerja. Oziroma teoretično se lahko zgodi tudi kak bug v softwerju, ki ti na tak način okvari. Ampak IMO, tak bug se lahko zgodi tudi v 1-way backupu preko kakega syncthinga, NIKOLI nisi čisto imun na coruptanje, razen z sekundarnim backupom. Predvsem pa je najbolj nevarno neopazno koruptanje, ki ga opaziš šele ko izginejo iz klienta podatki, tako da ti nekoruptani podatki na klientu nič ne pomagajo v večino realnih situacij.

2-way sync, z internim backupom na server strani(file versioning in hashing) je po varnosti podatkov nekako tam kot 1-way backup. V obeh primerih za pravo varnost poskrbiš samo tako, da delaš še dodatni backup.

Zgodovina sprememb…

  • spremenil: Lonsarg ()

darkolord ::

Tista slikica zgoraj je delo ownClouda.

Nekaj let primarno uporabljamo Seafile, ki je odličen, mi pa na kraj pameti ne pade, da bi ga priporočil namesto standardnega 1-way backupa.

Zgodovina sprememb…

  • spremenilo: darkolord ()

Lonsarg ::

To je čisto vprašanje zaupanja v software, tista slikca zgoraj je posledica buga v softwerju(zelo verjetno upgrade ali pa client only korupcija in so na serverju še vedno ok podatki) in NE posledica slabe arhitekture backupa, koruptani podatki na disku od owncloud serverja pač ne morejo tega naredit.

Gre zgolj za to, ali zaupaš one-way softwerju bolj da ti ne koruptira podatkov na KLIENTU kot seafilu ali ne. Če me postaviš pred FIle History in Seafile in se ti ne da delat sekundarnega backupa ti bom predlagal File History. Če mi namesto tega predlagaš kak no-name one-way sync, ti bom odsvetoval in ti če imaš znanje vsekakor predlagal raje Seafile.

V obeh primerih ti bom seveda rekel, da edina prava varnost je še sekundarni backup...

Zgodovina sprememb…

  • spremenil: Lonsarg ()

trnvpeti ::

klasicen backup se poskusa dopolnit z kaksnim syncom zaradi manj dela, vecje fleksibilnosti,...
syncthing se odlicno obnese, marsikaj se da

>No "ko izbrises na klientu se izbrise na serverju" ne drzi za seafile, ker ima seafile po defultu nastavljeno da obdrzi celotno zgodovino tvojih filov

razlika je ta, ce zbrises na seafile clientu, drug klient ali restore ne bo dobil tega zbrisanega ampak rabis dodatno administracijo

menim, da je syncthing veliko primernejsi od seafile za backup resitve

darkolord ::

To je čisto vprašanje zaupanja v software, tista slikca zgoraj je posledica buga v softwerju(zelo verjetno upgrade ali pa client only korupcija in so na serverju še vedno ok podatki) in NE posledica slabe arhitekture backupa, koruptani podatki na disku od owncloud serverja pač ne morejo tega naredit.
No, točno to se je zgodilo. Bug v ownCloud serverju mi je gladko uničil skoraj vse fajle, ki so se potem lepo sinhronizirali na klientih. Ampak to niti ni tako važno.

File/cloud sync se za potrebe backupa pač ne more primerjati z rešitvijo, ki je optimizirana za to. Ne z robustnostjo ne s hitrostjo in enostavnostjo restoranja.

Zgodovina sprememb…

  • spremenilo: darkolord ()

trnvpeti ::

govora ni samo o syncu, ampak tudi o dodatku
razlika je tudi ali sistem ali podatki
40 delovne postaje tudi drugace obravnavas kot pa server
in sync(in to ne dvosmerni v tem primeru) ti bo kar pomagal pri 40delovnih namesto samo klasicnega backupa
na glavnem racunalniku/serverju bos lazje potem priklopil se kaksen trak,...
tudi obremenjenost mreze, tudi zamik celega dneva na delovnih,...

aleksander10 ::

Aleksander

"A friend is someone who gives you total freedom to be yourself. (J.M.)"


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo
»

Oblačne storitve $$$

Oddelek: Omrežja in internet
354085 (1518) St235
»

Domači strežnik (strani: 1 2 )

Oddelek: Omrežja in internet
807283 (5376) Zalachenko
»

PC Backup z enkripcijo in možnostjo odpiranja na Androidu

Oddelek: Pomoč in nasveti
81134 (874) JN
»

ownCloud vs Dropbox (strani: 1 2 3 )

Oddelek: Programska oprema
11413991 (10703) Lonsarg
»

Amazon zelo pocenil shrambo v oblaku

Oddelek: Novice / Ostale najave
4611885 (6852) Mr_Globus

Več podobnih tem