Добавление OSD

Ответить
admin
Администратор
Сообщения: 204
Зарегистрирован: 05 янв 2011, 04:19

Добавление OSD

Сообщение admin »

Расширять ваш кластер путем добавления OSD (устройств хранения объектов) на лету достаточно легко. Ранее в данной главе мы изучали создание OSD; этот процесс аналогичен масштабированию вашего кластера для добавления дополнительных OSD. Зарегистрируйтесь на узле, на котором требуется добавить диски в кластер и выполните следующие действия:
1.Выведите список доступных дисков:

Код: Выделить всё

# ceph-disk list

Код: Выделить всё

# fdisk -l

2.Пометьте диски в GPT

Код: Выделить всё

# parted /dev/sdb mklabel GPT
# parted /dev/sdc mklabel GPT
# parted /dev/sdd mklabel GPT

3.Подготовьте диски с необходимой файловой системой и снабдите их инструкцией подключения в кластер, предоставив uuid кластера:

Код: Выделить всё

# ceph-disk prepare --cluster ceph --cluster-uuid 07a92ca3-347e-43db-87ee-e0a0a9f89e97 --fs-type xfs /dev/sdb
# ceph-disk prepare --cluster ceph --cluster-uuid 07a92ca3-347e-43db-87ee-e0a0a9f89e97 --fs-type xfs /dev/sdc
# ceph-disk prepare --cluster ceph --cluster-uuid 07a92ca3-347e-43db-87ee-e0a0a9f89e97 --fs-type xfs /dev/sdd

4.Активируйте диск так, чтобы Ceph смогла запустить службы OSD и помочь присоединиться к кластеру:

Код: Выделить всё

# ceph-disk activate /dev/sdb1
# ceph-disk activate /dev/sdc1
# ceph-disk activate /dev/sdd1

5.Повторите эти действия для всех других узлов, для которых вы хотите добавить их диски в кластер. Наконец, проверьте состояние кластера; вы заметите, что диски будут в состояниях UP и IN:

Код: Выделить всё

[root@ceph-mode1 ceph]# ceph -»
    cluster 07a92ca3-347e-43db-87ee-e0a0a9f89e97
     health HEALTH_OK
     monmap e3: 3 mons at {ceph-node1=192.168.57.101:6789/0,ceph-node2=192.168.57.102:6789/0,ceph-node3=192.168.57.103:6789/0}, election epoch
668, quorum 0,1,2 ceph-node1,ceph-node2,ceph-node3
     osdmap e62: 9 osds: 9 up, 9 in
      pgmap v112: 192 pgs, 3 pools, 0 bytes data, 0 objects
            338 MB used, 78409 MB / 78748 MB avail
                 192 active+clean
[root@ceph-mode1 ceph]#

6.Проверьте дерево OSD кластера; это снабдит вас информацией об OSD и физических узлах:
[root@ceph-node1 ceph]# ceph osd tree

Код: Выделить всё

# id   weight  type name   up/dewn reweight
-1   0.08995 root default
-2   0.02998           host ceph nodel      
0   0.009995                   osd.O   up   1
1   0.009995                   osd.1   up   1
2   0.009995                   osd.2   up   1
-3   0.02998           host ceph node2      
3   0.009995                   osd.3   up   1
5   0.009995                   osd.5   up   1
4   0.009995                   osd.4   up   1
-4   0.02998           host ceph node3      
6   0.009995                   osd.6   up   1
7   0.00999S                   osd.7   up   1
5   0.009995                   osd.8   up   1
[root@ceph-node1 ceph]#
Ответить