Hallo,
ich suche nach einer sicheren Methode große Datenmengen auf mehreren Bluerays unter zu bringen.
Nur als kleine Information, ich habe ca. 75GB (komprimiert) wichtige Daten die ich bereits gut sicher.
- Die Daten werden per rsync auf mehrere Platten verteilt
- Die Daten werden per rsync auf einen anderen Server gesichert (an einem anderen Standort)
- Die Daten werden sowohl auf dem Backupserver als auch auf dem eigentlichen Server ein Mal im Monat in einem großen Tar File abgelegt.
Der Plan:
Ich wollte jetzt diese Monatssicherung auf Bluerays unterbringen. Nach ein bisschen googeln habe ich mir ein Script zusammen gebaut das die gzip Dateien splittet und diese habe ich runter gebrannt. Soweit so gut. Das ganze Spiel mache ich jetzt schon ein halbes Jahr (mal mehr Mal weniger). Jetzt habe ich die schlaue Idee gehabt mal so eine Langzeitsicherung anzulegen die ich erst mal im Keller Bunker. Da wollte ich aber den Ultimativen Test machen und habe nach der Sicherung die Daten wieder von den Bluerays auf eine USB-Festplatte runter gezogen und die Split-Dateien per cat wieder zusammengefügt. Nach einer halben Stunde entpacken... Ende tar.gz kaputt. Ich habe dann noch ein bisschen mit Reparaturen angefangen aber ohne Ergebnis (ich gebe zu richtig Mühe habe ich mir nicht gegeben). Die gesplitteten Files von der Festplatte konnte ich wieder zusammenführen und entpacken
.
Mein zweiter Versuch war 7z. Dort kann man schon beim Packen einstellen das die Files aufgeteilt werden. Hier war einfach meine hoffnung das 7z im Fall von kaputten Daten wegen einem Optischen Medium die Dateien besser zusammen bekommt. Leider habe ich die Split Files ein bisschen zu groß gemacht und kann den Spaß jetzt noch mal packen
. Die Mutivation zum packen fehlt mir aber, da vorher das Volumen zwar 75GB war und nach 7z nur noch 65GB allerdings dauert der Vorgang jetzt nicht mehr knapp ein Tag (packen auf Verschlüsselter USB Platte und per Netzwerk auf den Rechner mit dem Brenner verschieben), sondern fast vier Tage. Was die Sicherung jetzt auch nicht besser macht da unter andrem eine VM-Datei dabei ist die wiederum ein Mal am Tag mit neuen Daten befüllt wird. Sichert die jetzt während die gefüllt wird kann ich wahrscheinlich damit auch nichts mehr anfangen.
Jetzt die Frage. Wie kann ich die Daten vernüpftig sichern und splitten, so dass im Fall von Schreibfehler die Daten mit möglichst großer Sicherheit wiederhergestellt werden könne. Ich habe gelesen das gz2 wesentlich besser zu reparieren ist, allerdings ist da auch wieder keine Split-Funktion integriert.
ich suche nach einer sicheren Methode große Datenmengen auf mehreren Bluerays unter zu bringen.
Nur als kleine Information, ich habe ca. 75GB (komprimiert) wichtige Daten die ich bereits gut sicher.
- Die Daten werden per rsync auf mehrere Platten verteilt
- Die Daten werden per rsync auf einen anderen Server gesichert (an einem anderen Standort)
- Die Daten werden sowohl auf dem Backupserver als auch auf dem eigentlichen Server ein Mal im Monat in einem großen Tar File abgelegt.
Der Plan:
Ich wollte jetzt diese Monatssicherung auf Bluerays unterbringen. Nach ein bisschen googeln habe ich mir ein Script zusammen gebaut das die gzip Dateien splittet und diese habe ich runter gebrannt. Soweit so gut. Das ganze Spiel mache ich jetzt schon ein halbes Jahr (mal mehr Mal weniger). Jetzt habe ich die schlaue Idee gehabt mal so eine Langzeitsicherung anzulegen die ich erst mal im Keller Bunker. Da wollte ich aber den Ultimativen Test machen und habe nach der Sicherung die Daten wieder von den Bluerays auf eine USB-Festplatte runter gezogen und die Split-Dateien per cat wieder zusammengefügt. Nach einer halben Stunde entpacken... Ende tar.gz kaputt. Ich habe dann noch ein bisschen mit Reparaturen angefangen aber ohne Ergebnis (ich gebe zu richtig Mühe habe ich mir nicht gegeben). Die gesplitteten Files von der Festplatte konnte ich wieder zusammenführen und entpacken
Mein zweiter Versuch war 7z. Dort kann man schon beim Packen einstellen das die Files aufgeteilt werden. Hier war einfach meine hoffnung das 7z im Fall von kaputten Daten wegen einem Optischen Medium die Dateien besser zusammen bekommt. Leider habe ich die Split Files ein bisschen zu groß gemacht und kann den Spaß jetzt noch mal packen
Jetzt die Frage. Wie kann ich die Daten vernüpftig sichern und splitten, so dass im Fall von Schreibfehler die Daten mit möglichst großer Sicherheit wiederhergestellt werden könne. Ich habe gelesen das gz2 wesentlich besser zu reparieren ist, allerdings ist da auch wieder keine Split-Funktion integriert.