1.Выведите список доступных дисков:
Код: Выделить всё
# ceph-disk list
Код: Выделить всё
# fdisk -l
2.Пометьте диски в GPT
Код: Выделить всё
# parted /dev/sdb mklabel GPT
# parted /dev/sdc mklabel GPT
# parted /dev/sdd mklabel GPT
3.Подготовьте диски с необходимой файловой системой и снабдите их инструкцией подключения в кластер, предоставив uuid кластера:
Код: Выделить всё
# ceph-disk prepare --cluster ceph --cluster-uuid 07a92ca3-347e-43db-87ee-e0a0a9f89e97 --fs-type xfs /dev/sdb
# ceph-disk prepare --cluster ceph --cluster-uuid 07a92ca3-347e-43db-87ee-e0a0a9f89e97 --fs-type xfs /dev/sdc
# ceph-disk prepare --cluster ceph --cluster-uuid 07a92ca3-347e-43db-87ee-e0a0a9f89e97 --fs-type xfs /dev/sdd
4.Активируйте диск так, чтобы Ceph смогла запустить службы OSD и помочь присоединиться к кластеру:
Код: Выделить всё
# ceph-disk activate /dev/sdb1
# ceph-disk activate /dev/sdc1
# ceph-disk activate /dev/sdd1
5.Повторите эти действия для всех других узлов, для которых вы хотите добавить их диски в кластер. Наконец, проверьте состояние кластера; вы заметите, что диски будут в состояниях UP и IN:
Код: Выделить всё
[root@ceph-mode1 ceph]# ceph -»
cluster 07a92ca3-347e-43db-87ee-e0a0a9f89e97
health HEALTH_OK
monmap e3: 3 mons at {ceph-node1=192.168.57.101:6789/0,ceph-node2=192.168.57.102:6789/0,ceph-node3=192.168.57.103:6789/0}, election epoch
668, quorum 0,1,2 ceph-node1,ceph-node2,ceph-node3
osdmap e62: 9 osds: 9 up, 9 in
pgmap v112: 192 pgs, 3 pools, 0 bytes data, 0 objects
338 MB used, 78409 MB / 78748 MB avail
192 active+clean
[root@ceph-mode1 ceph]#
6.Проверьте дерево OSD кластера; это снабдит вас информацией об OSD и физических узлах:
[root@ceph-node1 ceph]# ceph osd tree
Код: Выделить всё
# id weight type name up/dewn reweight
-1 0.08995 root default
-2 0.02998 host ceph nodel
0 0.009995 osd.O up 1
1 0.009995 osd.1 up 1
2 0.009995 osd.2 up 1
-3 0.02998 host ceph node2
3 0.009995 osd.3 up 1
5 0.009995 osd.5 up 1
4 0.009995 osd.4 up 1
-4 0.02998 host ceph node3
6 0.009995 osd.6 up 1
7 0.00999S osd.7 up 1
5 0.009995 osd.8 up 1
[root@ceph-node1 ceph]#