Hallo,
habe neuen Kernel unter open SuSE 10.2 ausprobiert und dabei einen "Total"-Absturz gehabt.
Ganz offensichtlich sind dabei meine beiden Raid-1 beschädigt worden.
Es handelt sich dabei um Software-Raids :
Beim Booten erhalte ich sofort die Meldung, dass eine automatische Korrektur aus dem Log heraus nicht möglich ist, da dieses "zerschossen" wäre und der
Dateisystem ist auf beiden Raids übrigens XFS.
Habe versucht mit Kernel-Failsafe zu booten --> kein Erfolg (eigentlich ja auch logisch).
Habe dann mal mit Knoppix gebootet :
Aber openSuSE sagt eben, der Superblock ist zerschossen.
Wie komme ich nun wieder an ein funktionierendes Raid (ohne Datenverlust) ?
:?:
[Edit]
Dürfte ich denn jetzt den/die Superblocks mit
auf den einzelnen Platten reparieren oder "zerschiesse" ich mir dann alles ?
Via Knoppix habe ich mal
laufen lassen.
Das Ergebnis :
Habe "irgendwo" gelesen, das man sich ggf. mit diesem Utillity das ganze Raid zerschiesst ?
habe neuen Kernel unter open SuSE 10.2 ausprobiert und dabei einen "Total"-Absturz gehabt.
Ganz offensichtlich sind dabei meine beiden Raid-1 beschädigt worden.
Es handelt sich dabei um Software-Raids :
/dev/md0 = /dev/sda1/ + /dev/sdb1
/dev/md1 = /dev/sdc1/ + /dev/sdd1
Beim Booten erhalte ich sofort die Meldung, dass eine automatische Korrektur aus dem Log heraus nicht möglich ist, da dieses "zerschossen" wäre und der
beschädigt istder Superblock auf /dev/md0
Dateisystem ist auf beiden Raids übrigens XFS.
Habe versucht mit Kernel-Failsafe zu booten --> kein Erfolg (eigentlich ja auch logisch).
Habe dann mal mit Knoppix gebootet :
1. Alle Platten wurden einzeln einwandfrei erkannt (/dev/sda1..../dev/sdd1)
2. mdadm --examine /dev/sda1
---> ergibt alles ok, Zustand ist active sync (bei sda und die sdb = komplettes Raid also)
3. mdadm --examine /dev/sdc1
----> ergibt das gleiche wie beim anderen Raid
4. Alle states sind "clean", überhaupt keine Probleme erkennbar !
Aber openSuSE sagt eben, der Superblock ist zerschossen.
Wie komme ich nun wieder an ein funktionierendes Raid (ohne Datenverlust) ?
:?:
[Edit]
Dürfte ich denn jetzt den/die Superblocks mit
Code:
xfs_repair
Via Knoppix habe ich mal
Code:
xfs_repair -n ...
Das Ergebnis :
Phase 1 - find and verfiy superblock...
Phase 2 - using internal log
- scan filesystem freespace and inode maps...
- found inode chunk
Phase 3 - for each AG...
....
imap claims a free inode XXXXXXXX is in use, would correct map and clear inode
....
...
bad blocks 2202 for inode XXXXX would reset to 2205
usw.
usw.
Habe "irgendwo" gelesen, das man sich ggf. mit diesem Utillity das ganze Raid zerschiesst ?