**This is an old revision of the document!**
Ceph-Setup
Host Setup (Stand 2017-10-17)
Vorerst verwenden wir die beiden Intel-Server für CEPH Tests. Beide haben ein RAID1 bestehend aus 2x250GB Harddisk. Auf diesem RAID1 sind 4 Logical Volumes installiert:
- /boot - 2GB
- /rootfs - 10GB
- swap - 2GB
- /var - 2GB
ceph1
cavy@ceph1:~$ sudo ceph-disk list
/dev/dm-0 other, ext4, mounted on /
/dev/dm-1 swap, swap
/dev/dm-2 other, ext4, mounted on /boot
/dev/dm-3 other, ext4, mounted on /var
/dev/md0 other, [[LVM2]]_member
/dev/sda :
/dev/sda1 other, linux_raid_member
/dev/sdb :
/dev/sdb1 ceph data, active, cluster ceph, osd.0
/dev/sdc :
/dev/sdc1 ceph data, active, cluster ceph, osd.1
/dev/sdd :
/dev/sdd1 other, linux_raid_member
/dev/sde :
/dev/sde1 ceph data, active, cluster ceph, osd.4
/dev/sdf other, unknown
/dev/sdg other, unknown
/dev/sdh :
/dev/sdh1 ceph journal
/dev/sdh2 ceph journal
/dev/sdh3 ceph journal
/dev/sdh4 ceph journal
/dev/sdh5 ceph journal
Frontalansicht mit Seriennummern der Devices für ceph1
\|\|HD 250GB 5 0014ee 65921284e *) \|\|HD 1TB \|\|HD 1TB \|\|\|\|Anschlüsse \|\| \|\|HD 250GB 5 0014ee 603cbd93f *) \|\|HD 1TB \|\|HD 1TB 5 0014ee 603ffa30c \|\|SSD 240G 5 5cd2e4 14ddb886f \|\|Hd 1TB 5 0014ee 607768171 \|\|
ceph2
cavy@ceph2:~$ sudo ceph-disk list /dev/dm-0 other, ext4, mounted on / /dev/dm-1 swap, swap /dev/dm-2 other, ext4, mounted on /boot /dev/dm-3 other, ext4, mounted on /var /dev/md0 other, [[LVM2]]_member /dev/sda : /dev/sda1 other, linux_raid_member /dev/sdb : /dev/sdb1 ceph data, active, cluster ceph, osd.2 /dev/sdc : /dev/sdc1 ceph data, active, cluster ceph, osd.3 /dev/sdd : /dev/sdd1 other, linux_raid_member /dev/sde : /dev/sde1 ceph data, active, cluster ceph, osd.5 /dev/sdf other, unknown /dev/sdg other, unknown /dev/sdh : /dev/sdh1 ceph journal /dev/sdh2 ceph journal /dev/sdh3 ceph journal /dev/sdh4 ceph journal /dev/sdh5 ceph journal
Frontalansicht mit Seriennummern der Devices für ceph2
\|\|HD 250GB 5 0014ee 6ae762535 *) \|\|HD 1TB \|\|HD 1TB 5 0014ee 607767c31 \|\|\|\|Anschlüsse \|\| \|\|HD 250GB 5 0014ee 6ae762bc6 *) \|\|HD 1TB \|\|HD 1TB \|\|HD 1TB 5 0014ee 65ccbc69a \|\|SSD 240GB 5 5cd2e4 14ddb6321 \|\|
- ) das sind Vermutungen
Cluster Setup (Stand 04.04.2017)
Monitore:
monmap e3: 3 mons at {ceph1=172.16.16.17:6789/0,ceph2=172.16.16.18:6789/0,ceph3=172.16.16.19:6789/0}
OSD\'s:
. host ceph1 - osd.0`` ``osd.1`` ``osd.4\
. host ceph2 - osd.2`` ``osd.3`` ``osd.5
Wiederkehrende Probleme
Wenn nach einem Reboot die Journale wieder mal nicht automatisch mounten, weil sie nicht die richtige Permissions ceph:ceph haben, dann haben die Partitionen nicht die richtige parttype, dann folgendes machen: zb ceph2:
. sgdisk --typecode=3:45b0969e-9b03-4f30-b4c6-b4b80ceff106 /dev/sdf . sgdisk --typecode=4:45b0969e-9b03-4f30-b4c6-b4b80ceff106 /dev/sdf . sgdisk --typecode=5:45b0969e-9b03-4f30-b4c6-b4b80ceff106 /dev/sdf
Einrichtung
Die Einrichtung eines neuen Ceph-Admin-Nodes folgt der offiziellen Dokumentation von ceph.
Auf allen Nodes:
- User cavy anlegen und den ssh-key vom Admin-Node ins .ssh/authorized_keys File kopieren.
- User cavy sudo-Rechte geben
<!– –
>
echo "cavy ALL = (root) NOPASSWD:ALL" > /etc/sudoers.d/cavy
-
Die ceph Sourceslist anlegen - Den Ceph-Repo-Key installieren
<!– –
>
wget -q -O- 'https://ceph.com/git/?p=ceph.git;a=blob_plain;f=keys/release.asc' | sudo apt-key add -
#
## Am Admin-Node:
- User cavy anlegen. Als Passwort den Hashwert einer beliebigen Datei verwenden; das Passwort wird nie gebraucht werden.
- ssh-key generieren
- Installation von ceph vorbereiten - gleich als User cavy erledigen.
<!– –
>
wget -q -O- 'https://ceph.com/git/?p=ceph.git;a=blob_plain;f=keys/release.asc' | sudo apt-key add - echo deb http://ceph.com/debian-dumpling/ $(lsb_release -sc) main | sudo tee /etc/apt/sources.list.d/ceph.list
-
ceph-deploy installieren
<!– –
>
sudo apt-get update sudo apt-get install ceph-deploy
