Добавление OSD

Ответить
admin
Администратор
Сообщения: 216
Зарегистрирован: 05 янв 2011, 04:19

Добавление OSD

Сообщение admin »

Расширять ваш кластер путем добавления OSD (устройств хранения объектов) на лету достаточно легко. Ранее в данной главе мы изучали создание OSD; этот процесс аналогичен масштабированию вашего кластера для добавления дополнительных OSD. Зарегистрируйтесь на узле, на котором требуется добавить диски в кластер и выполните следующие действия:
1.Выведите список доступных дисков:

Код: Выделить всё

# ceph-disk list

Код: Выделить всё

# fdisk -l
2.Пометьте диски в GPT

Код: Выделить всё

# parted /dev/sdb mklabel GPT
# parted /dev/sdc mklabel GPT
# parted /dev/sdd mklabel GPT
3.Подготовьте диски с необходимой файловой системой и снабдите их инструкцией подключения в кластер, предоставив uuid кластера:

Код: Выделить всё

# ceph-disk prepare --cluster ceph --cluster-uuid 07a92ca3-347e-43db-87ee-e0a0a9f89e97 --fs-type xfs /dev/sdb
# ceph-disk prepare --cluster ceph --cluster-uuid 07a92ca3-347e-43db-87ee-e0a0a9f89e97 --fs-type xfs /dev/sdc
# ceph-disk prepare --cluster ceph --cluster-uuid 07a92ca3-347e-43db-87ee-e0a0a9f89e97 --fs-type xfs /dev/sdd
4.Активируйте диск так, чтобы Ceph смогла запустить службы OSD и помочь присоединиться к кластеру:

Код: Выделить всё

# ceph-disk activate /dev/sdb1
# ceph-disk activate /dev/sdc1
# ceph-disk activate /dev/sdd1
5.Повторите эти действия для всех других узлов, для которых вы хотите добавить их диски в кластер. Наконец, проверьте состояние кластера; вы заметите, что диски будут в состояниях UP и IN:

Код: Выделить всё

[root@ceph-mode1 ceph]# ceph -»
    cluster 07a92ca3-347e-43db-87ee-e0a0a9f89e97
     health HEALTH_OK
     monmap e3: 3 mons at {ceph-node1=192.168.57.101:6789/0,ceph-node2=192.168.57.102:6789/0,ceph-node3=192.168.57.103:6789/0}, election epoch
668, quorum 0,1,2 ceph-node1,ceph-node2,ceph-node3
     osdmap e62: 9 osds: 9 up, 9 in
      pgmap v112: 192 pgs, 3 pools, 0 bytes data, 0 objects
            338 MB used, 78409 MB / 78748 MB avail
                 192 active+clean
[root@ceph-mode1 ceph]#
6.Проверьте дерево OSD кластера; это снабдит вас информацией об OSD и физических узлах:
[root@ceph-node1 ceph]# ceph osd tree

Код: Выделить всё

# id	weight  type name	up/dewn reweight
-1	0.08995 root default
-2	0.02998	        host ceph nodel		
0	0.009995	                osd.O	up	1
1	0.009995	                osd.1	up	1
2	0.009995	                osd.2	up	1
-3	0.02998	        host ceph node2		
3	0.009995	                osd.3	up	1
5	0.009995	                osd.5	up	1
4	0.009995	                osd.4	up	1
-4	0.02998	        host ceph node3		
6	0.009995	                osd.6	up	1
7	0.00999S	                osd.7	up	1
5	0.009995	                osd.8	up	1
[root@ceph-node1 ceph]#
Ответить