Welcome, Guest. Please login or register.
Did you miss your activation email?

Author Topic: [DE] Erfahrungsaustausch bei Backup Strategien  (Read 5344 times)

gas103

  • Guest
[DE] Erfahrungsaustausch bei Backup Strategien
« on: 2011/02/23, 16:08:43 »
Hallo Leute,

ich wollte Euch mal nach Euren Erfahrungen mit Backup Strategien  befragen. Derzeit sichere ich meine drei Linuxrechner noch mit einer USB-Festplatte und Lucky Backup. Ist einfach und praktisch. Allerdings hat man immer redundante Datenhaltung. Wenn irgendwas größeres in der Wohnung passiert. (wie z.B. ein Brand oder ein Wasserschaden ist alles kaputt.) Im Rahmen dieses Denkprozesses kam ich dann zu dem Schluss, daß ein Backup Server als Datenspeicher für alle PCs wohl die beste Wahl ist.

Zuhause möchte ich so ein Server nicht betreiben, da der Server wenn er 24 Stunden erreichbar ist, erhebliche Stromkosten produziert. Von den Anschaffungskosten mal ganz abgesehen. Auch würde mich dieser nicht vor o.g. Problemen schützen.  

Ideal wäre es wenn man diesen quasi als Netzlaufwerk verbinden könnte, sodaß meine Frau und meine Kids gar nicht mehr merken, daß sie Ihre Daten nicht mehr lokal speichern.

 Ubuntu One habe ich versucht, funktioniert aber nicht richtig.

Dropbox kostet mit 50 GB Speicherplatz 10 Euro im Monat.
Wäre eine Alternative aber nicht erste Wahl.

Jetzt bin ich an dem Punkt, dass ich mir einen virtuellen Server mieten möchte. Angebote gibt es ja genügend.
Aber wie schaut es da mit der Sicherheit aus? Insbesonders dann wenn die Daten übers Netz laufen.

Habt Ihr Erfahrungen was virtuelle Server betrifft?
Eignen sich diese für Backup Zwecke    :?:

gruß
gas103

micha_52

  • Guest
Erfahrungsaustausch bei Backup Strategien
« Reply #1 on: 2011/02/23, 17:28:38 »
Hallo gas103,

ich sichere die Daten im lokalen Netz täglich mittels rdiff-backup auf zwei externen Platten, das per cron Job läuft. Angenehm ist, dass ich so praktisch jeden Zustand wiederherstellen kann. In der Vergangenheit musste ich das gelegentlich.

Über ein Backup, das irgendwo extern liegt, habe ich schon nachgedacht. Angesichts meiner langsamen Upload Geschwindigkeit, kommt das jedoch für mich nicht infrage.
Damit deine Familie nicht merkt, dass die Daten von sonstwo kommen, brauchst du eine flotte Anbindung, sonst musst du dir gefallen lassen, dass sie keine Lust mehr haben, mit deinem Spielzeug umzugehen.

Es wird wohl noch dauern, bis jedermann einen wirklich schnellen Internet-Zugang hat.

Solange erscheint mir die lokale Sicherung als die Geeignete

seagull

  • Guest
Erfahrungsaustausch bei Backup Strategien
« Reply #2 on: 2011/02/23, 17:58:25 »
Bei Sicherung gegen Brand fällt mir zuerste die Variante mit 2 Datenträgern zu Sicherung ein die zeitnah getauscht werden. Einer am BCK-Server im Haus und einer bei der Oma 2 Straßen weiter oder sei es nur im Gartenhäuschen oder der Garage (am Arbeitplatz im Büro...) . Alle paar Wochen wird dann getauscht. So fehlen dir im Katastrophenfall eben nur "ein paar Wochen". Extrem wichtige Einzeldokumente können auch auf dem Imap-Konto deines Mail-Providers liegen, das ist ein gesichertes Rechenzentrum.

Offline hsp

  • User
  • Posts: 629
Erfahrungsaustausch bei Backup Strategien
« Reply #3 on: 2011/02/23, 18:06:37 »

ralv

  • Guest
Erfahrungsaustausch bei Backup Strategien
« Reply #4 on: 2011/02/23, 18:24:29 »
Clonezilla ist nun nicht wirklich eine Backup-Strategie, hm?
Eine Sicherung über das Netz eignet sich schon...eine vernünftige Anbindung vorausgesetzt. Zumindest das erste Backup (komplett) wird ziemlich zeitaufwändig werden. Die differentiellen Folgebackups werden natürlich schneller gehen, allerdings hängt das auch davon ab, was du sichern willst. Sind z.B. virtuelle Maschinen in der Sicherung enthalten, so schaufelst du unter Umständen auch bei diesen Backups eine Menge Daten über das Netz.
Wenn du allerdings vorhaben solltest, den externen Server quasi als Live-Medium zu benutzen, dann würde ich davon doch abraten. Bei den üblichen DSL-Bandbreiten macht das nur mäßig viel Spaß. Du könntest dir aber wohl überlegen, deine lokalen Backups regelmäßig auf solch einen externen Server zu spiegeln...

Offline agaida

  • User
  • Posts: 1.760
    • http://g-com.eu
Erfahrungsaustausch bei Backup Strategien
« Reply #5 on: 2011/02/23, 18:42:57 »
Bei aktuellen Projekten und Dokumenten eines Kunden haben wir und entschieden, dieses Problem mit SVN zu lösen. Auf den hauseigenen "Server" kommt ein SVN-Repository und alles, was an irgendwelchen Dokumenten reinkommt, wandert in die Revisionskontrolle. Den internen Server sichere ich dann, wenn ihn keiner braucht, auf Backup-Space, den ich von meinem ded. Server übrig habe.

Da das aber jetzt noch am Anfang steht, kann ich nicht sagen, wo da eventuelle Pferdefüsse sind. Eins ist aber klar, es geht schnell, da man eigentlich nur mit den lokalen Daten arbeitet. Bei Mediendaten dürfte dieses Vorgehen aber wohl leider ausfallen.
There's this special biologist word we use for "stable". It's "dead". ~ Jack Cohen

Offline Lanzi

  • User
  • Posts: 1.781
Erfahrungsaustausch bei Backup Strategien
« Reply #6 on: 2011/02/23, 19:08:53 »
Ich habe im Rechner alle Platten doppelt (also 2x2) und sichere im Schnitt wöchentlich per rsync. Das ganze per Cronjonb dürfte nicht schwer sein, habe mich nur noch nie da eingerabeitet. (vermutlich ein Script, welces dann als cronjob ausgeführt wird.

mein momentanes script sieht so aus:

Quote

#!/bin/sh
#einfaches Backup Script mit rsync

mount UUID=ABCDEFG-ABCD-ABCD-usw. /mnt/disk-backup1
rsync -av --delete --update /home/disk1/ /mnt/disk-backup1
umount /mnt/disk-backup1

mount UUID=12345678-1234-1234-usw. /mnt/disk-backup2
rsync -av --delete --update /home/disk2/ /mnt/disk-backup2
umount /mnt/disk-backup2



Also Langzeitbackup habe ich die Daten nochmals auf USB-Platten. Das geschieht manuel in unregelmäßigen Abständen. Besonderheit dort ist, das ich den Dokumentenordner nie überschrieb oder lösche sondern neu erstelle.

PS: Wer Verbesserungsideen für das Script hat, ist herzlich willkommen :-)

Offline ralul

  • User
  • Posts: 1.814
Erfahrungsaustausch bei Backup Strategien
« Reply #7 on: 2011/02/24, 02:07:32 »
Lanzi, das sichert Dich nur vor einem Totalausfall. Du bekommst mit einem --delete Parameter nicht Dateien wieder vom Backup, die Du versehentlich zerstört hast, oder die beim Runterfahren offen waren und beschädigt wurden?
Was nützt dann ein Backup. Eine Neuinstallation ist Sache von 11 Minuten. Also sichere doch nur die /home Sachen, aber inkrementiell ?!
experiencing siduction runs better than my gentoo makes me know I know nothing

gas103

  • Guest
Erfahrungsaustausch bei Backup Strategien
« Reply #8 on: 2011/02/24, 07:31:28 »
Erstmal ein herzliches Dankeschön an alle für die Antworten.

Ihr habt natürlich Recht, dass ein Backup ins Internet ein gute Anbindung erfordert und ja, ich habe auch noch virtuelle Maschinen laufen, insofern ist das erste Backup natürlich sehr zeitintensiv. Woran es wahrscheinlich scheitern wird ist meine Uploadgeschwindigkeit. Ich müsste etwa 15 GB Daten sichern.
Ich denke ich werde eine gemischte Datensicherung durchführen.
Als ständige Datenhalde ein NAS auf Raid Basis im lokalen Netz.
(Da müssen die Mädels halt lernen, dass man das Ding ein- bzw. ausschalten muss - muss ja kein Dauerbetrieb sein.).

Das NAS würde ich dann auf eine externe Platte sichern die dann irgendwo anders liegt.

gruß
gas103

FreeUse

  • Guest
Erfahrungsaustausch bei Backup Strategien
« Reply #9 on: 2011/04/07, 22:16:15 »
Ich nutze ein Script mit rsync. Das ganze liegt dann in /etc/cron.hourly und es werden nach erstmaligem BackUp nur noch die Änderungen gesichert. Das ganze wird auf einer 2. HDD gesichert. Somit habe ich alles im derzeitigem Original und auf der 2. HDD noch einmal identisch und zusätzlich noch einmal max. 31 Tage rückwirkend in einem eventuellen alten Zustand.
Sollte ich dann mal etwas zuviel in einer Datei heraus gelöscht haben und es erst noch ca. 20 Tagen bemerken, so lässt sich selbst dies wiederherstellen.

Code: [Select]

#!/bin/bash

set -ex

# check for mount
#grep /backup /etc/mtab > /dev/null || exit 1

# directory to backup
BDIR=/home/freeuse/

# Destination dir for rsync
DDIR=/media/backup

# excludes file - this contains a wildcard pattern per line of files to exclude
EXCLUDES=/root/rsy.excl

# BACKUPDIR=${1:-`date +%A`}
BACKUPDIR=${1:-"day"`date +%d`}

OPTS="--force
    --ignore-errors \
    --delete-excluded \
    --exclude-from=$EXCLUDES
    --delete --backup --backup-dir=$DDIR/$BACKUPDIR -a -v"

export PATH=$PATH:/bin:/usr/bin:/usr/local/bin

# if destination does not exist, make it;-)
[ -d $DDIR ] || mkdir $DDIR

# write logfile
echo oooooooooooooooooooooooooooooooooooooooooooo >> /root/rsy.log
date >> /root/rsy.log

# delete existing backup dir
[ -d $DDIR/$BACKUPDIR ] && (echo remaking $DDIR/$BACKUPDIR >> /root/rsy.log; rm  -r $DDIR/$BACKUPDIR)

# now the actual transfer
rsync $OPTS $BDIR $DDIR/current >> /root/rsy.log


Verzeichnisse die ich ausklammern möchte lege ich dann in der rsy.excl fest.

Ich nutze dies schon sehr lange und bin damit immer sehr gut gefahren.

Gruesse
FreeUse

hefee

  • Guest
Erfahrungsaustausch bei Backup Strategien
« Reply #10 on: 2011/04/07, 23:21:42 »
Also bevor virtuellen Server ist vllt Amazon S3 einen Blick wert. (Der Dienst auf den z.B. dropbox aufbaut). Du musst dich nicht um das laufen des Servers kümmern ;). Benutzen kannst du es mit rdiff-backup, duplicity,...

Allgemein kann ich duplicity bzw. duply empfehlen. duply ist eine skriptsammlung für duplicity. Verschlüsselte backups sind finde ich im Netz sowieso ein muss. Aber auch bei Rechnern, die hier lokal backups machen, will ich Verschlüsselung! Und da es sehr einfach zu benutzen ist,... Hier der grobe Ablauf:
-duply installieren (duplicity etc. wird mitinstalliert)
-duply create (um ein profil anzulegen)
-configs anpassen ~/.duply
-duply backup ist ab jetzt dein freund ;)

Natürlich ist das Problem der Vollbackups immer so ein Problem bei I-Net Lösungen, wegen der Größe der Daten....