Moin Moin,
irgendwie hakt gerade mein Verständnis zu Ceph...
Ich habe drei Rechner mit jeweils einer 3TB-HDD die in zwei logische Laufwerke aufgeteilt ist. 100GB fürs System der Rest für ceph.
Ich habe den ersten Node aufgesetzt, per "cephadm bootstrap" den cluster aufgesetzt und die beiden weiteren Hosts zum Cluster hinzugefügt.
Dann alle drei zu Monitoren gemacht.
Ebenfalls bei allen dreien das große Laufwerk als OSD zum Cluster hinzugefügt
und anschließend per
ein cephfs über den gesamten verfügbaren Speicherplatz gespannt, das geschah durch den Befehl automaisch.
Nun möchte ich diesen Speicher per NFS zur Verfügung stellen. Dafür gibt es ja ganesha-nfs. Laut Anleitung
Wenn ich aber per dashboard gucke, sind 2,5TB für cephfs.cluster1.meta und ebensoviel für cephfs.cluster1.data verwendet, bzw diese Pools entsprechend groß.
Wie muß ich nun den Pool für nfs-ganesha aufsetzen? Wird der neben den bereits bestehenden Pools aufgesetzt oder darüber? Wenn zweiteres, werden dann die Metadaten des Clusters auch per NFS frei gegeben, was extrem schwachsinnig wäre? Hätte ich das cephfs gar nicht erst aufsetzen sollen sondern nur den Pool für nfs?
Ihr merkt ich bin etwas verwirrt. In meiner Vorstellung/nach meinem Verständnis gehe ich davon aus das das cephfs im Grunde dem Raid und ein Pool einem logischen Laufwerk bei einem Raid-Controller entspricht... Liege ich damit richtig oder ist das gar nicht vergleichbar?
irgendwie hakt gerade mein Verständnis zu Ceph...
Ich habe drei Rechner mit jeweils einer 3TB-HDD die in zwei logische Laufwerke aufgeteilt ist. 100GB fürs System der Rest für ceph.
Ich habe den ersten Node aufgesetzt, per "cephadm bootstrap" den cluster aufgesetzt und die beiden weiteren Hosts zum Cluster hinzugefügt.
Dann alle drei zu Monitoren gemacht.
Ebenfalls bei allen dreien das große Laufwerk als OSD zum Cluster hinzugefügt
und anschließend per
Code:
ceph fs volume create cluster1
Nun möchte ich diesen Speicher per NFS zur Verfügung stellen. Dafür gibt es ja ganesha-nfs. Laut Anleitung
soll ich nun erstmal einen Pool für ganesha-nfs erstellen.ceph orch apply nfs *<svc_id>* *<pool>* *<namespace>* --placement="*<num-daemons>* [*<host1>* ...]"
For example, to deploy NFS with a service id of foo, that will use the RADOS pool nfs-ganesha and namespace nfs-ns:
ceph orch apply nfs foo nfs-ganesha nfs-ns
Note
Create the nfs-ganesha pool first if it doesn’t exist.
Wenn ich aber per dashboard gucke, sind 2,5TB für cephfs.cluster1.meta und ebensoviel für cephfs.cluster1.data verwendet, bzw diese Pools entsprechend groß.
Wie muß ich nun den Pool für nfs-ganesha aufsetzen? Wird der neben den bereits bestehenden Pools aufgesetzt oder darüber? Wenn zweiteres, werden dann die Metadaten des Clusters auch per NFS frei gegeben, was extrem schwachsinnig wäre? Hätte ich das cephfs gar nicht erst aufsetzen sollen sondern nur den Pool für nfs?
Ihr merkt ich bin etwas verwirrt. In meiner Vorstellung/nach meinem Verständnis gehe ich davon aus das das cephfs im Grunde dem Raid und ein Pool einem logischen Laufwerk bei einem Raid-Controller entspricht... Liege ich damit richtig oder ist das gar nicht vergleichbar?