ceph之osd扩容和缩容
osd扩容和缩容
扩容:
一、备份cephfs数据
二、给要扩容的新机器打上label
三、防止osd运行到现有osd节点,给现有osd节点打上禁止调度
四、给rook-ceph-operator的副本数由0改为1
五、查看osd pod数量,是否与预计的一致
六、给rook-ceph-operator的副本数由1改为0
七、查看ceph集群状态,数据均衡情况
八、上传测试文档验证
九、关闭现有ods节点的禁止调度
参考文档信通院企搜ceph-osd横向扩容方案
缩容:
1) 将rook-ceph-operator 的副本缩为0,确保后续不会有新的osd被创建;
2) 依次逐渐删掉osd66、osd65、osd64、osd63、osd66
1、OSD.66 踢出集群
ceph osd out osd.66
2、查看状态,观察该osd上数据已经迁移均衡
ceph status
#必须等osd.66 数据迁移完,才进行下一步,否则后续会发生数据丢失,文件损坏的情况
3、停掉osd.66 进程
kubectl delete deployment rook-ceph-osd-66
4、删掉osd在ceph中信息
ceph osd rm osd.66
ceph osd crush remove osd.66 # 如果crush中没有,该步骤报错,忽略即可
ceph auth del osd.66
5、按需删掉osd.66 的裸盘数据
特别提醒:osd的删除操作必须依次进行,不能同时批量进行,否则会发生数据均衡和迁移的异常
3) 解决完毕后ceph osd status 查看osd状态