guklplatzwart
Newbie
Hallo Leute.
Nach einer Neuinstallation von OpenSuse 10.2 und der Einrichtung des Systems fällt mir etwas unangenehm auf.
Das Lämpchen zur Kontrolle der Festplattenaktivitäten zeigt mir ständigen Festplattenzugriff. Das macht auf mich den Eindruck als ob sich da irgendwas "einen Wolf" schriebt/liest. Sehr sporadisch erlischt sie dann mal, um im nächsten Augenblick wieder an zu springen.
Im Rechner sind insgesamt 4 Festplatten. Dabei ist die Systemplatte entsprechend dem Installationsvorschlag Partitioniert (hda1/swap, hda2/ , hda3/home). Die weiteren Festplatten sind als ganzes Partitioniert (eine Platte = eine Partition). Der Standardrunlevel des System ist 3.
Da die gesamte Hardware schon unter Suse 9.2 im Runlevel 3 lief und dort dieser Effekt nicht zu beobachten war, kommt mir das sehr komisch vor.
Folgendes habe ich bisher (erfolglos) versucht:
Den Prozess "beagled" gesucht, den ich dann natürlich nur im Runlevel 5 finden konnte, da es sich hier wohl um eine KDE Anwendung handelt.
Den Prozess "zmd" gesucht - gefunden - deaktiviert. Dazu gehörig auch den "Zen-updater" deaktiviert.
Alle "hal-" Prozesse deaktiviert. Den Prozess "ksysguard" deaktiviert. Und per "try and error" noch einige weitere Dienste abgeschaltet. Brachte alles keinen Erfolg.
Dann habe ich auch mal versucht über hdparm -t irgendwas zu erreichen. Aber auch das half nichts.
In /var/log/messages kann ich nichts verdächtiges entdecken was auf eine ständigen Schreibprozess deuten würde.
Lediglich im Startprotokoll habe ich etwas verdächtiges entdeckt, womit ich allerdings so recht nichts anfangen kann.
Die Systempatitionen sind ext3 Partitionen. Die weiteren Festplatten sind reiserfs Partitionen.
Wäre echt nett wenn mir jemand einen Schubs in die richtige Richtung geben könnte.
MfG
guklplatzwart
Nach einer Neuinstallation von OpenSuse 10.2 und der Einrichtung des Systems fällt mir etwas unangenehm auf.
Das Lämpchen zur Kontrolle der Festplattenaktivitäten zeigt mir ständigen Festplattenzugriff. Das macht auf mich den Eindruck als ob sich da irgendwas "einen Wolf" schriebt/liest. Sehr sporadisch erlischt sie dann mal, um im nächsten Augenblick wieder an zu springen.
Im Rechner sind insgesamt 4 Festplatten. Dabei ist die Systemplatte entsprechend dem Installationsvorschlag Partitioniert (hda1/swap, hda2/ , hda3/home). Die weiteren Festplatten sind als ganzes Partitioniert (eine Platte = eine Partition). Der Standardrunlevel des System ist 3.
Da die gesamte Hardware schon unter Suse 9.2 im Runlevel 3 lief und dort dieser Effekt nicht zu beobachten war, kommt mir das sehr komisch vor.
Folgendes habe ich bisher (erfolglos) versucht:
Den Prozess "beagled" gesucht, den ich dann natürlich nur im Runlevel 5 finden konnte, da es sich hier wohl um eine KDE Anwendung handelt.
Den Prozess "zmd" gesucht - gefunden - deaktiviert. Dazu gehörig auch den "Zen-updater" deaktiviert.
Alle "hal-" Prozesse deaktiviert. Den Prozess "ksysguard" deaktiviert. Und per "try and error" noch einige weitere Dienste abgeschaltet. Brachte alles keinen Erfolg.
Dann habe ich auch mal versucht über hdparm -t irgendwas zu erreichen. Aber auch das half nichts.
In /var/log/messages kann ich nichts verdächtiges entdecken was auf eine ständigen Schreibprozess deuten würde.
Lediglich im Startprotokoll habe ich etwas verdächtiges entdeckt, womit ich allerdings so recht nichts anfangen kann.
Code:
<notice>boot.evms start
Starting EVMSLVM2: Object hdb1 has an LVM2 PV label and header, but the recorded size of the object (15628
~0641 sectors) does not match the actual size (156280257 sectors). Please indicate whether or not hdb1 is
~an LVM2 PV.
If your container includes an MD RAID region, it's possible that LVM2 has found the PV label on one of tha
~t region's child objects instead of on the MD region itself. If this is the case, then object hdb1 is mos
~t likely NOT one of the LVM2 PVs.
Choosing "no" here is the default, and is always safe, since no changes will be made to your configuration
~. Choosing "yes" will modify your configuration, and will cause problems if it's not the correct choice.
~The only time you would really need to choose "yes" here is if you are converting an existing container f
~rom using the LVM2 tools to using EVMS, and the container is NOT created from an MD RAID region. If you c
~reated and manage your containers only with EVMS, you should always be able to answer "no".
If you answer "no" and your volumes are correctly discovered and activated, you may disable this message i
~n the future by editing the EVMS config file and setting the device_size_prompt option to "no" in the lvm
~2 section.evms_activate: Responding with default selection "No, it is not a PV.".
done
<notice>'boot.evms start' exits with status 0
Die Systempatitionen sind ext3 Partitionen. Die weiteren Festplatten sind reiserfs Partitionen.
Wäre echt nett wenn mir jemand einen Schubs in die richtige Richtung geben könnte.
MfG
guklplatzwart