6.4. 列出 Ceph OSD 部署的设备

在使用 Ceph 编排器部署 OSD 之前,您可以检查可用设备列表。命令用于显示可由 Cephadm 发现的设备列表。如果满足以下条件,则存储设备被视为可用:

  • 该设备不能有分区。
  • 该设备不能有任何 LVM 状态。
  • 不得挂载该设备。
  • 该设备不得包含文件系统。
  • 该设备不得包含 Ceph BlueStore OSD。
  • 该设备必须大于 5 GB。
注意

Ceph 不会在不可用的设备上调配 OSD。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 主机添加到集群中。
  • 所有管理器和监控守护进程都已部署。

流程

  1. 登录到 Cephadm shell:

    示例

    [root@host01 ~]# cephadm shell

  2. 列出可用的设备来部署 OSD:

    语法

    ceph orch device ls [--hostname=HOSTNAME_1 HOSTNAME_2] [--wide] [--refresh]

    示例

    [ceph: root@host01 /]# ceph orch device ls --wide --refresh

    使用 --wide 选项提供与该设备相关的所有详细信息,包括设备可能有资格用作 OSD 的原因。这个选项不支持 NVMe 设备。

  3. 可选: 要在 ceph orch device ls 输出中启用 HealthIdentFailure 字段,请运行以下命令:

    注意

    libstoragemgmt 库支持这些字段,当前支持 SCSI、SAS 和 SATA 设备。

    1. 在 Cephadm shell 外部以 root 用户身份,检查硬件与 libstoragemgmt 库的兼容性,以避免出现意外中断服务:

      示例

      [root@host01 ~]# cephadm shell lsmcli ldl

      在输出中,您会看到 Health StatusGood,对应于 SCSI VPD 0x83 ID。

      注意

      如果没有获取这些信息,启用字段可能会导致设备错误行为。

    2. 重新登录 Cephadm shell 并启用 libstoragemgmt 支持:

      示例

      [root@host01 ~]# cephadm shell
      [ceph: root@host01 /]# ceph config set mgr mgr/cephadm/device_enhanced_scan true

      启用之后,ceph orch device ls 会将 Health 字段的输出设置为 Good

验证

  • 列出设备:

    示例

    [ceph: root@host01 /]# ceph orch device ls