当前位置: 首页 > article >正文

创建osd加入集群

故障原因:ceph节点一个磁盘损坏,其中osd69 down了,需要更换磁盘并重新创建osd加入ceph集群。

在这里插入图片描述


信息采集:


更换磁盘前,查询osd69对应的盘符:

在这里插入图片描述

将对应的故障磁盘更换后,并重做raid,然后查看新磁盘盘符,这里新盘符为sdl

在这里插入图片描述

查看空余的日志盘,发现sda13尚未使用,因此重新做osd的磁盘磁盘选用sda13为日志盘。

在这里插入图片描述

具体操作步骤:


  1. 修改root可登录(在故障节点点10.99.192.104操作)

    • 使用vi编辑器修改/etc/ssh/sshd_config文件,将PermitRootLogin no改为PermitRootLogin yes,允许root用户通过SSH登录。

    • 修改后,重启SSH服务(systemctl restart sshd),使配置生效。

      注: 该步骤是要开启root用户权限,用root用户去执行下述命令,如已开启,可忽略本步骤。

  2. 关闭osd69的服务(在故障节点点10.99.192.104操作)

    • 使用systemctl命令停止并禁用名为ceph-osd@69.service的Ceph OSD服务,防止它自动重启。

      systemctl stop ceph-osd@69.service
      systemctl disable ceph-osd@69.service
      
  3. 删除osd69的映射认证(在ceph的admin节点操作10.99.192.98)

    • 使用ceph osd crush remove osd.69从Ceph集群的CRUSH映射中移除OSD 69。
    • 使用ceph auth del osd.69删除OSD 69的认证密钥。
    • 使用ceph osd rm 69从Ceph集群中移除OSD 69的标识。

  4. 卸载挂载目录(在故障节点10.99.192.104操作)

    • 使用umount命令卸载/var/lib/ceph/osd/ceph-69目录,确保磁盘可以重新格式化。
    umount /var/lib/ceph/osd/ceph-69
    

  5. 格式化磁盘(在ceph的admin节点操作10.99.192.98)

    • 使用ceph-deploy disk zap命令在/etc/ceph目录下执行,准备磁盘/dev/sdl用于新的OSD,这里的chongqing7可能是节点名或主机名。
    ceph-deploy disk zap chongqing7 /dev/sdl
    

  6. 关闭流量状态(在ceph的admin节点操作10.99.192.98)

    • 使用一系列ceph osd set命令临时关闭OSD的多种状态,包括禁止进入(in)、上升(up)、恢复(recover)、再平衡(rebalance)、回填(backfill)以及暂停(pause)操作,这通常是为了在维护期间避免OSD影响集群状态。

      ceph osd set noin
      ceph osd set noup
      ceph osd set norecover
      ceph osd set norebalance
      ceph osd set nobackfill
      ceph osd set pause
      

  7. 创建osd(在ceph的admin节点操作10.99.192.98)

    • 使用ceph-deploy osd create命令在chongqing7节点上创建新的OSD,使用--filestore指定文件存储后端,--fs-type xfs指定文件系统类型为XFS,--data /dev/sdl指定数据磁盘,--journal /dev/sda13指定日志磁盘。
    ceph-deploy osd create --filestore --fs-type xfs --data /dev/sdl  --journal /dev/sda13 chongqing7
    

  8. 检查ceph-osd@69.service是否开启,如未开启则执行命令开启。

    systemctl start ceph-osd@69.service
    systemctl enable --runtime ceph-osd@69.service 或 systemctl enable ceph-osd@69.service 
    

    至于设置为永久开启自己还是临时开机自启,可以根据实际需求,若不知道,推荐选择和ceph集群中其他节点设置一样的即可。可以用下述命令查看

    [root@chongqing7 ~]# systemctl is-enabled ceph-osd@65.service
    enabled-runtime
    

  9. 开启(在ceph的admin节点操作10.99.192.98)

    • 使用一系列ceph osd unset命令重新开启之前关闭的OSD状态,使OSD能够正常参与集群操作。
    ceph osd unset noin
    ceph osd unset noup
    ceph osd unset norecover
    ceph osd unset norebalance
    ceph osd unset nobackfill
    ceph osd unset pause
    

  10. 检查(在ceph的admin节点操作10.99.192.98)

    • 使用ceph osd tree命令查看Ceph集群中OSD的当前树结构,确认新OSD已正确添加。
      注:当上方第8步骤开启后,此时执行ceph osd tree命令才会发现osd69为up

在这里插入图片描述


  1. 修改root不可登录(在故障节点10.99.192.104操作)

    • 再次使用vi编辑器修改/etc/ssh/sshd_config文件,将PermitRootLogin yes改回PermitRootLogin no,禁止root用户通过SSH登录。

    • 修改后,重启SSH服务(systemctl restart sshd),使配置生效。

      注:该步骤是恢复原有root的设置,该操作可选择执行。


http://www.kler.cn/news/340695.html

相关文章:

  • Linux环境通过APT 仓库安装版PostgreSQL 数据库实战
  • Go语言--快速入门
  • 内存泄露和内存溢出案例解析
  • 基于微信小程序的生鲜订购小程序系统(SpringBoot+Vue+Uniapp+MySQL)
  • LeetCode 每日一题 2024/9/30-2024/10/6
  • 重拾记录生活和成长的习惯
  • 浏览器前端向后端提供服务
  • Java实现图书管理系统
  • 软件测试(平铺版本)
  • Redis数据库与GO完结篇:redis操作总结与GO使用redis
  • 适合初学者的[JAVA]: 服务框架常见问题
  • Java基础(中)
  • Nginx05-基础配置案例
  • 【数据结构】红黑树相关知识详细梳理
  • 二分算法详解
  • langchain入门合集
  • 线程安全-原子性,可见性,有序性
  • 【hot100-java】二叉搜索树中第 K 小的元素
  • Navicat图形化设置字段unique
  • cdr2024序列号和密钥激活码cdr2024序列号和激活码是多少?