Hallo liebe Foren-Mitglieder,
ich melde mich ´mal wieder mit einer (aus einer ganzen Menge von) Katastrophe
.'
'
Ich betreibe in einem privaten Home-Netz einen Linux-Server.
Vor ca. 4 Wochen hatte ich einen Festplattenschaden und musste die Platte ausbauen. Die wichtigen Verzeichnisse - insbesondere /etc und teilweise /var - waren noch i.O. So habe ich mich dann entschlossen, 2 nagelneue identische Festplatten einzubauen und mittels soft-RAID1 ausfallsicher zu spiegeln. Auf einer 3. Platte (nicht identisch und mit 80 GByte wesentlich kleiner) sollen später - wenn alles läuft - zusätzlich Backups der wichtigen Verzeichnisse abgelegt werden.
Habe also dann das System openSuSe 10.2 neu installiert und anschließend mit rsync das noch intakte Verzeichnis /etc und das, was von /var (die mail-ordner) noch brauchbar war, auf die neue Platte geschaufelt.
Dann habe ich mehrere - insgesamt 5 - SoftRaid-Arrays als RAID1 auf den 2 identischen Festplatten angelegt und bin dabei nach der hier gefundenen Anleitung "NonRaid zu (software)Raid1 SuSE 10.1" vorgegangen. Die gespiegelten Partitionen sind ebenfalls identisch.
zeigt:
Nun habe ich vorgestern die "Alarm-Mail" erhalten, dass in allen RAID-Arrays md0, md1, md2, md3 u. md4 Fehler aufgetreten sind ... die Ursache ist mir bisher noch nicht bekannt.
Nach einer Überprüfung mit
stellte ich fest, dass die in allen RAID-Arrays die betreffende Pertition der 2. Platte /dev/hdb auf removed und faulty spare gesetzt war.
Also habe ich nach den beiden in der Wiki gefundenen Anleitungen angefangen die betreffenden Partitionen wieder in die Raid-Arrays einzuhängen und dabei mit md0 angefangen
anschließend hatte ich wieder ein funktionierendes RAID1 auf md0 
Das Einhängen funktionierte aber nicht bei den übrigen Partitionen.
Also habe ich die betreffenden Partitionen auf hdb zunächst mit
erhalte dann aber trotzdem diese Statusanzeige:
Die Partitionen hdb1, hdb3, hdb5 und hdb6 stehen weiterhin auf removed und faulty spare - sie werden nicht mehr synchronisiert...
... und nunmehr kann ich die RAID-Arrays md1 ... md4 auch nicht mehr aushängen.
Während md0 einwandfrei funktioniert, erhalte ich bei md1, md2, md3 und md4 diese Meldung:
Nach 2 Tagen erfolglosem Googlen, Lesen und Suchen gebe ich meinen Ehrgeiz, den Fehler selbst finden zu können auf und bitte ich Euch um Hilfe:
- Wie bekomme ich nun diese -4- Partitionen wieder in´s SoftRaid ?
- Wie kann ich die Platte hdb überprüfen ?
System: openSuSe Linux 10.2
Gruß daiml
ich melde mich ´mal wieder mit einer (aus einer ganzen Menge von) Katastrophe
Ich betreibe in einem privaten Home-Netz einen Linux-Server.
Vor ca. 4 Wochen hatte ich einen Festplattenschaden und musste die Platte ausbauen. Die wichtigen Verzeichnisse - insbesondere /etc und teilweise /var - waren noch i.O. So habe ich mich dann entschlossen, 2 nagelneue identische Festplatten einzubauen und mittels soft-RAID1 ausfallsicher zu spiegeln. Auf einer 3. Platte (nicht identisch und mit 80 GByte wesentlich kleiner) sollen später - wenn alles läuft - zusätzlich Backups der wichtigen Verzeichnisse abgelegt werden.
Habe also dann das System openSuSe 10.2 neu installiert und anschließend mit rsync das noch intakte Verzeichnis /etc und das, was von /var (die mail-ordner) noch brauchbar war, auf die neue Platte geschaufelt.
Dann habe ich mehrere - insgesamt 5 - SoftRaid-Arrays als RAID1 auf den 2 identischen Festplatten angelegt und bin dabei nach der hier gefundenen Anleitung "NonRaid zu (software)Raid1 SuSE 10.1" vorgegangen. Die gespiegelten Partitionen sind ebenfalls identisch.
Die Ausgabe von/dev/md0 = 15 GByte = hda2, hdb2 = /
/dev/md1 = 100 MB = hda1, hdb1 = /boot
/dev/md2 = 10 GByte = hda3, hdb3 = /var
/dev/md3 = 50 GByte = hda5, hdb5 = /home
/dev/md4 = 157.7 GByte = hda6, hdb6 = /share
Code:
dvd-server:~ # sfdisk -l
... und von mount:Disk /dev/sda: 268 cylinders, 255 heads, 63 sectors/track
Units = cylinders of 8225280 bytes, blocks of 1024 bytes, counting from 0
Device Boot Start End #cyls #blocks Id System
/dev/sda1 0+ 267 268- 2152678+ 82 Linux swap / Solaris
/dev/sda2 0 - 0 0 0 Empty
/dev/sda3 0 - 0 0 0 Empty
/dev/sda4 0 - 0 0 0 Empty
Disk /dev/hda: 30401 cylinders, 255 heads, 63 sectors/track
Units = cylinders of 8225280 bytes, blocks of 1024 bytes, counting from 0
Device Boot Start End #cyls #blocks Id System
/dev/hda1 * 0+ 12 13- 104391 fd Linux raid autodetect
/dev/hda2 13 1971 1959 15735667+ fd Linux raid autodetect
/dev/hda3 1972 3277 1306 10490445 fd Linux raid autodetect
/dev/hda4 3278 30400 27123 217865497+ f W95 Ext'd (LBA)
/dev/hda5 3278+ 9805 6528- 52436128+ fd Linux raid autodetect
/dev/hda6 9806+ 30400 20595- 165429306 fd Linux raid autodetect
Disk /dev/hdb: 30401 cylinders, 255 heads, 63 sectors/track
Units = cylinders of 8225280 bytes, blocks of 1024 bytes, counting from 0
Device Boot Start End #cyls #blocks Id System
/dev/hdb1 * 0+ 12 13- 104391 fd Linux raid autodetect
/dev/hdb2 13 1971 1959 15735667+ fd Linux raid autodetect
/dev/hdb3 1972 3277 1306 10490445 fd Linux raid autodetect
/dev/hdb4 3278 30400 27123 217865497+ f W95 Ext'd (LBA)
/dev/hdb5 3278+ 9805 6528- 52436128+ fd Linux raid autodetect
/dev/hdb6 9806+ 30400 20595- 165429306 fd Linux raid autodetect
Disk /dev/hdd: 158816 cylinders, 16 heads, 63 sectors/track
Warning: The partition table looks like it was made
for C/H/S=*/255/63 (instead of 158816/16/63).
For this listing I'll assume that geometry.
Units = cylinders of 8225280 bytes, blocks of 1024 bytes, counting from 0
Device Boot Start End #cyls #blocks Id System
/dev/hdd1 0+ 9963 9964- 80035798+ 83 Linux
/dev/hdd2 0 - 0 0 0 Empty
/dev/hdd3 0 - 0 0 0 Empty
/dev/hdd4 0 - 0 0 0 Empty
Disk /dev/md0: 3933888 cylinders, 2 heads, 4 sectors/track
sfdisk: ERROR: sector 0 does not have an msdos signature
/dev/md0: unrecognized partition table type
No partitions found
Disk /dev/md1: 26095 cylinders, 2 heads, 4 sectors/track
sfdisk: ERROR: sector 0 does not have an msdos signature
/dev/md1: unrecognized partition table type
No partitions found
Disk /dev/md2: 2622593 cylinders, 2 heads, 4 sectors/track
sfdisk: ERROR: sector 0 does not have an msdos signature
/dev/md2: unrecognized partition table type
No partitions found
Disk /dev/md3: 13109014 cylinders, 2 heads, 4 sectors/track
sfdisk: ERROR: sector 0 does not have an msdos signature
/dev/md3: unrecognized partition table type
No partitions found
Disk /dev/md4: 41357308 cylinders, 2 heads, 4 sectors/track
sfdisk: ERROR: sector 0 does not have an msdos signature
/dev/md4: unrecognized partition table type
No partitions found
Die Raids hatten bis vor 2 Tagen auch einwandfrei funktioniert./dev/md0 on / type ext3 (rw,acl,user_xattr)
proc on /proc type proc (rw)
sysfs on /sys type sysfs (rw)
debugfs on /sys/kernel/debug type debugfs (rw)
udev on /dev type tmpfs (rw)
devpts on /dev/pts type devpts (rw,mode=0620,gid=5)
/dev/md1 on /boot type ext2 (rw,acl,user_xattr)
/dev/md2 on /var type ext3 (rw,acl,user_xattr)
/dev/md3 on /home type ext3 (rw,acl,user_xattr)
/dev/md4 on /share type ext3 (rw,acl,user_xattr)
/dev/hdd1 on /backup type ext3 (rw,acl,user_xattr)
securityfs on /sys/kernel/security type securityfs (rw)
capifs on /dev/capi type capifs (rw,mode=0666)
nfsd on /proc/fs/nfsd type nfsd (rw)
/dev/sr0 on /media/SU1020.005 type iso9660 (ro,nosuid,nodev,noatime,uid=0,utf8)
Nun habe ich vorgestern die "Alarm-Mail" erhalten, dass in allen RAID-Arrays md0, md1, md2, md3 u. md4 Fehler aufgetreten sind ... die Ursache ist mir bisher noch nicht bekannt.
Nach einer Überprüfung mit
Code:
mdadm -D /dev/md0
mdadm -D /dev/md1
mdadm -D /dev/md2
mdadm -D /dev/md3
mdadm -D /dev/md4
Also habe ich nach den beiden in der Wiki gefundenen Anleitungen angefangen die betreffenden Partitionen wieder in die Raid-Arrays einzuhängen und dabei mit md0 angefangen
Code:
mdadm /dev/md0 -a /dev/hdb2
Code:
/dev/md0:
Version : 00.90.03
Creation Time : Tue May 1 22:04:12 2007
Raid Level : raid1
Array Size : 15735552 (15.01 GiB 16.11 GB)
Device Size : 15735552 (15.01 GiB 16.11 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Thu May 17 19:59:35 2007
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
UUID : 45b90649:48e79bf2:a577c7b3:112e33a1
Events : 0.200400
Number Major Minor RaidDevice State
0 3 2 0 active sync /dev/hda2
1 3 66 1 active sync /dev/hdb2
Also habe ich die betreffenden Partitionen auf hdb zunächst mit
Code:
dvd-server:~ # mdadm /dev/md2 -r /dev/hdb3
mdadm: hot removed /dev/hdb3
dvd-server:~ # mdadm /dev/md2 -a /dev/hdb3
mdadm: added /dev/hdb3
dvd-server:~ # mdadm --detail /dev/md2
Code:
/dev/md2:
Version : 01.00.03
Creation Time : Tue May 1 23:38:18 2007
Raid Level : raid1
Array Size : 10490372 (10.00 GiB 10.74 GB)
Device Size : 20980744 (10.00 GiB 10.74 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 2
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Thu May 17 20:07:05 2007
State : active, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
Name : 2
UUID : 4c11f93d:17bf066d:ff06abd9:6906a379
Events : 244964
Number Major Minor RaidDevice State
2 3 3 0 active sync /dev/hda3
1 0 0 1 removed
1 3 67 - faulty spare /dev/hdb3
... und nunmehr kann ich die RAID-Arrays md1 ... md4 auch nicht mehr aushängen.
Während md0 einwandfrei funktioniert, erhalte ich bei md1, md2, md3 und md4 diese Meldung:
Code:
dvd-server:~ # mdadm /dev/md1 -r /dev/hdb1
mdadm: hot remove failed for /dev/hdb1: Device or resource busy
dvd-server:~ # mdadm /dev/md1 -a /dev/hdb1
mdadm: Cannot open /dev/hdb1: Device or resource busy
Nach 2 Tagen erfolglosem Googlen, Lesen und Suchen gebe ich meinen Ehrgeiz, den Fehler selbst finden zu können auf und bitte ich Euch um Hilfe:
- Wie bekomme ich nun diese -4- Partitionen wieder in´s SoftRaid ?
- Wie kann ich die Platte hdb überprüfen ?
System: openSuSe Linux 10.2
Gruß daiml