Hi ich habe einen Server mit einem recht grossen Raid array (3Tb).
Ich habe cron jobs die regelmaessig backup machen sollen.
Die jobs sind recht simpel, sie bestehen aus einem tar und splitt comando:
tar -czf /dev/stdout /raid/DieDaten | split -d -b 1999m -a 3 /oldraid/dasBackup.tar.gz
Dieses commando erzeugt ein gesplittetes tar archiev mit den namen
/oldraid/dasBackup.tar.gz000
/oldraid/dasBackup.tar.gz001
/oldraid/dasBackup.tar.gz002
....
/oldraid/dasBackup.tar.gz104
und jede der dateien ist knapp kleiner als 2Gb. (bringt auch FAT32 nicht zur Verzweiflung).
Die daten werden von einem RAID array zu einer einzelnen Festplatte (/oldraid/ welches trotz des namens keines ist...) transportiert.
Das problem: das ganze ist nicht besonders schnell, 400Gb daten werden zu ca. 200 Gb Komprimiert und das ganze dauert ca. 12 h.
Hat jemand eine Idee wie das schneller geht?
Gruesse
M.
Ich habe cron jobs die regelmaessig backup machen sollen.
Die jobs sind recht simpel, sie bestehen aus einem tar und splitt comando:
tar -czf /dev/stdout /raid/DieDaten | split -d -b 1999m -a 3 /oldraid/dasBackup.tar.gz
Dieses commando erzeugt ein gesplittetes tar archiev mit den namen
/oldraid/dasBackup.tar.gz000
/oldraid/dasBackup.tar.gz001
/oldraid/dasBackup.tar.gz002
....
/oldraid/dasBackup.tar.gz104
und jede der dateien ist knapp kleiner als 2Gb. (bringt auch FAT32 nicht zur Verzweiflung).
Die daten werden von einem RAID array zu einer einzelnen Festplatte (/oldraid/ welches trotz des namens keines ist...) transportiert.
Das problem: das ganze ist nicht besonders schnell, 400Gb daten werden zu ca. 200 Gb Komprimiert und das ganze dauert ca. 12 h.
Hat jemand eine Idee wie das schneller geht?
Gruesse
M.