Menu Close

仪表板指南

Red Hat Ceph Storage 4

使用 Ceph 控制面板监控 Ceph 集群

摘要

本指南说明了如何将红帽 Ceph 存储控制面板用于监控和管理目的。
红帽承诺替换我们的代码、文档和网页属性中存在问题的语言。我们从这四个术语开始: master、slave、blacklist 和 whitelist。这些更改将在即将发行的几个发行本中逐渐实施。详情请查看 CTO Chris Wright 信息

第 1 章 Ceph 仪表板概述

作为存储管理员,红帽 Ceph 存储控制面板提供管理和监控功能,使您能够管理和配置集群,以及视觉化信息和与其相关的性能统计信息。控制面板使用由 ceph-mgr 守护进程托管的 Web 服务器。

控制面板可以从 Web 浏览器访问,包含许多有用的管理和监控功能,例如,用于配置管理器模块和监控 OSD 状态。

1.1. 先决条件

  • 系统管理员级别经验.

1.2. 仪表板组件

控制面板的功能由多个组件提供。

  • 用于部署的 Ansible 自动化应用。
  • 嵌入式控制面板 ceph-mgr 模块.
  • 嵌入式 Prometheus ceph-mgr 模块.
  • Prometheus 时间序列数据库。
  • 在存储集群的每个节点上运行的 Prometheus node-exporter 守护进程。
  • 用于提供监控用户界面和警报的 Grafana 平台。

其它资源

1.3. 仪表板功能

Ceph 控制面板提供多种功能:

管理功能

  • 查看群集层次结构 :您可以查看 CRUSH map,例如,确定特定 OSD ID 在哪个节点上运行。这在 OSD 存在问题时很有用。
  • 配置管理器模块 :您可以查看和更改 ceph manager 模块的参数。
  • 查看和过滤日志 :您可以查看事件和审计集群日志,并根据优先级、关键字、日期或时间范围对其进行过滤。
  • 切换仪表板组件 :您可以启用和禁用仪表板组件,以便只有您需要的功能可用。
  • 管理 OSD 设置 :您可以使用控制面板设置集群范围的 OSD 标志。
  • 查看 Alerts :警报页面允许您查看当前警报的详细信息。
  • 镜像 的服务质量:您可以设置镜像 的性能限制,例如限制 IOPS 或读取 BPS 突发率。

监控功能

  • 用户名和密码保护 :您只能通过提供可配置的用户名和密码来访问仪表板。
  • SSL 和 TLS 支持 :Web 浏览器和仪表板之间的所有 HTTP 通信都通过 SSL 保护。可以使用内置命令创建自签名证书,但也可以导入由证书颁发机构(CA)签名和颁发的自定义证书。从 Red Hat Ceph Storage 4.2,dashboard_protocol 设置为 https,Ansible 生成控制面板和 grafana 证书。要绘制数据点和图形,请手动更新 TLS 握手,如下所示:

    • 警报管理器 API 主机 - http://grafana_node:9093
    • Prometheus API 主机 - http://grafana_node:9092
    • Grafana API 主机 - https://grafana_node:3000
  • 集群总体运行状况 :显示集群总体状态、存储利用率(例如,对象数量、原始容量、每个池使用量)、池列表及其状态和使用量统计。
  • hosts 提供与集群关联的所有主机的列表,以及正在运行的服务和安装的 Ceph 版本。
  • 性能计数器 :显示每个运行中服务的详细统计信息。
  • monitor :列出所有 monitor、其仲裁状态和打开的会话。
  • 配置参考 :列出所有可用的配置选项,它们的描述和默认值。
  • Cluster logs :显示和过滤集群的事件和审计日志。
  • 查看存储集群容量 :您可以在 Ceph 控制面板的 Capacity 面板中查看红帽 Ceph 存储集群的原始存储容量。
  • pool :列出所有 Ceph 池及其详细信息。例如:应用、放置组、复制大小、EC 配置文件、CRUSH 规则集等。
  • OSD :列出所有 OSD、它们的状态和使用量统计数据,以及属性(OSD map)、元数据、性能计数器和使用直方图等详细信息,以进行读/写操作。
  • iSCSI :列出所有运行 tcmu-runner 服务的主机,可显示所有镜像及其性能特征,如读取和写入操作或流量。
  • images 列出所有 RBD 镜像及其属性,如大小、对象和功能。创建、复制、修改和删除 RBD 镜像。为所选映像创建、删除和回滚快照,保护或取消保护这些快照不受修改。复制或克隆快照,扁平化克隆映像.

    注意

    只有在通过在 Cluster > Manager 模块 > Prometheus 中设置 rbd_stats_pool 参数来指定包含该镜像的池后,特定镜像的 Overall Performance 选项卡中的 I/O 的性能图才会显示值。

  • 镜像: 列出所有活动的同步守护进程及其状态、池和 RBD 镜像,包括其同步状态。
  • 文件系统: 列出所有活动的 Ceph 文件系统(CephFS)客户端和相关池,包括其使用量统计数据。
  • 对象网关(RGW) :列出所有活动对象网关及其性能计数器。显示和管理(添加、编辑、删除)对象网关用户及其详细信息,如配额,以及用户的 bucket 及其详细信息,如所有者或配额。

其它资源

1.3.1. 或关闭仪表板功能

您可以通过按需启用或禁用功能来自定义红帽 Ceph 存储仪表板组件。所有功能都默认启用。禁用功能时,web-interface 元素会变为隐藏的,关联的 REST API 端点会拒绝对该功能的任何进一步请求。可以通过命令行界面或 Web 界面启用和禁用仪表板功能。

可用功能:

  • Ceph 块设备:

    • 镜像管理,rbd
    • 镜像、镜像
    • iSCSI 网关 iscsi
  • Ceph Filesystem, cephfs
  • Ceph 对象网关,rgw
注意

默认情况下,Ceph 管理器与 Ceph monitor 共存。

注意

您可以同时禁用多个功能。

重要

禁用某一功能后,最多可能需要 20 秒时间来反映 Web 界面中的更改。

先决条件

  • 红帽 Ceph 存储仪表板软件的安装和配置.
  • 用户访问 Ceph 管理器节点或控制面板 Web 界面。

流程

  1. 从仪表板 Web 界面切换仪表板功能:

    1. 从控制面板页面的导航栏中,导航到 Cluster,然后导航到 Manager Modules,然后单击 Dashboard。这会打开 Edit Manager 模块 页面。
    2. Edit Manager 模块 页面中,您可以通过选中或取消选中功能名称旁边的选择框来启用或禁用仪表板功能。

      Edit Manager 模块
    3. 选择完成后,单击页面底部的 更新 按钮。

      更新按钮
  2. 从命令行界面切换仪表板功能:

    1. 登录 Ceph 管理器节点。
    2. 列出功能状态:

      [user@mon ~]$ ceph dashboard feature status
    3. 禁用某个功能:

      [user@mon ~]$ ceph dashboard feature disable iscsi

      本例禁用 Ceph iSCSI 网关功能。

    4. 启用功能:

      [user@mon ~]$ ceph dashboard feature enable cephfs

      这个示例启用 Ceph Filesystem 功能。

1.4. 仪表板架构

控制面板架构依赖于 Ceph 管理器控制面板插件和其他组件。请参阅下图以了解它们如何协同工作。

Ceph 仪表板架构图

第 2 章 Ceph 仪表板的安装和访问

作为系统管理员,您可以安装仪表板并首次访问它。

Red Hat Ceph Storage 使用 Cockpit Web 界面以图形方式安装,或者使用 ceph-ansible RPM 提供的 Ansible playbook 在命令行中安装。Cockpit 使用同样的 Ansible playbook 来安装 Ceph。这些 playbook 默认安装仪表板。因此,无论您直接使用 Ansible playbook,还是使用 Cockpit 安装 Ceph,都将安装控制面板。

重要

更改默认的控制面板密码。默认情况下,控制面板的密码是 p@ssw0rd,该密码不安全。在安装 Ceph 之前,您可以通过更新 all.yml Ansible playbook 中的 dashboard_admin_password 来更改默认密码,然后再使用 playbook 安装 Ceph,或者在安装时使用同一 playbook 或控制面板本身。如需更多信息,请参阅《 安装指南 》、使用控制面板更改仪表板密码,或使用 Ansible 更改仪表板密码

2.1. 使用 Cockpit 安装仪表板

当使用 Cockpit Web 界面安装 Red Hat Ceph Storage 时,控制面板会被默认安装。您必须设置一个带有 Metrics 角色的主机,以便安装 Grafana。

先决条件

  • 有关完整的前提条件,请参阅《 安装指南 》。此流程只突出显示与仪表板安装相关的步骤。

流程

  1. Hosts 页面上,添加一个主机并设置 Metrics 角色。

    Cockpit 添加指标主机
  2. 单击 Add。
  3. 完成剩余的 Cockpit Ceph 安装程序提示。
  4. 部署过程完成后,单击页面右下角的 Complete 按钮。这将打开一个窗口,显示命令 ceph 状态 的输出,以及控制面板访问信息。

    Complete 按钮
  5. 在 Ceph Cluster Status 窗口的底部,会显示控制面板访问信息,包括 URL、用户名和密码。记录此信息。

    Ceph Cluster Status 窗口

2.2. 使用 Ansible 安装仪表板

使用 ceph-ansible RPM 提供的 Ansible playbook 安装红帽 Ceph 存储时,默认会安装控制面板。

先决条件

  • 有关完整的前提条件,请参阅《 安装指南 》。此流程只突出显示与仪表板安装相关的步骤。

流程

  1. 确保存在一个 [grafana-server] 组,该组下定义了一个节点,它位于 Ansible 清单文件中。Grafana 和 Prometheus 安装在这个节点上。

    [root@jb-ceph4-admin ~]# grep grafana-server -A 1 /etc/ansible/hosts
    [grafana-server]
    jb-ceph4-mon
  2. all.yml Ansible playbook 中,确保 dashboard_enabled: 没有设置为 False。应有一个注释指示 True 的默认设置。

    [root@jb-ceph4-admin ~]# grep "dashboard_enabled" /usr/share/ceph-ansible/group_vars/all.yml
    #dashboard_enabled: True
  3. 按照《 安装指南 》中所述,完成安装 Ceph 所需的其余步骤。
  4. 在为裸机安装运行 ansible-playbook site.ymlansible-playbook site-docker.yml 以进行容器安装后,Ansible 将打印仪表板访问信息。在 playbook 输出末尾找到仪表板 URL、用户名和密码:

    2019-12-13 15:31:17,871 p=11421 u=admin |  TASK [ceph-dashboard : print dashboard URL] ************************************************************
    2019-12-13 15:31:17,871 p=11421 u=admin |  task path: /usr/share/ceph-ansible/roles/ceph-dashboard/tasks/main.yml:5
    2019-12-13 15:31:17,871 p=11421 u=admin |  Friday 13 December 2019  15:31:17 -0500 (0:00:02.189)       0:04:25.380 *******
    2019-12-13 15:31:17,934 p=11421 u=admin |  ok: [jb-ceph4-mon] =>
      msg: The dashboard has been deployed! You can access your dashboard web UI at http://jb-ceph4-mon:8443/ as an 'admin' user with 'p@ssw0rd' password.

    记录输出,您可以使用 'p@ssw0rd' 密码以"admin"用户身份访问仪表板 Web UI( http://jb-ceph4-mon:8443/ )。

注意

Ansible playbook 进行以下操作:

  • ceph-mgr 中启用 Prometheus 模块。
  • ceph-mgr 中启用 dashboard 模块,并打开 TCP 端口 8443。
  • 将 Prometheus node_exporter 守护进程部署到存储集群中的每个节点。

    • 打开 TCP 端口 9100。
    • 启动 node_exporter 守护进程。
  • 在 Ansible 清单文件中的 [grafana-server] 下在 Docker/systemd 下部署 Grafana 和 Prometheus 容器。

    • 配置 Prometheus,从 ceph-mgr 节点和每个 Ceph 主机上运行的 node-exporter 收集数据
    • 打开 TCP 端口 3000。
    • 在 Grafana 中创建仪表板、主题和用户帐户。
    • 显示 Ceph 控制面板登录页面 URL。

2.3. 网络端口要求

Ceph 控制面板组件使用特定的 TCP 网络端口,这些端口必须可以访问。默认情况下,安装红帽 Ceph 存储期间,firewall d 中的网络端口会自动打开。

表 2.1. TCP 端口要求

端口使用原始节点目标节点

8443

仪表板 Web 界面

Ceph 管理器节点.

需要访问 Ceph 控制面板 UI 的 IP 地址。

8443

仪表板 Web 界面

需要访问 Ceph 控制面板 UI 的 IP 地址。

Ceph 管理器节点.

3000

Grafana

Ansible 清单文件中 [grafana-server] 下的节点。

需要访问 Grafana Dashboard UI 以及所有 MGR 主机和 grafana-server 或 prometheus 主机的 IP 地址。

3000

Grafana

需要访问 Grafana Dashboard UI 以及所有 MGR 主机和 grafana-server 或 prometheus 主机的 IP 地址。

Ansible 清单文件中 [grafana-server] 下的节点。

9090

基本 Prometheus 图形的默认 Prometheus 服务器

Ansible 清单文件中 [grafana-server] 下的节点。

需要访问 Prometheus UI 以及所有 MGR 主机和 grafana-server 或 prometheus 主机的 IP 地址。

9090

基本 Prometheus 图形的默认 Prometheus 服务器

需要访问 Prometheus UI 以及所有 MGR 主机和 grafana-server 或 prometheus 主机的 IP 地址。

Ansible 清单文件中 [grafana-server] 下的节点。

9092

用于基本 Prometheus 图形的 Prometheus 服务器

Ansible 清单文件中 [grafana-server] 下的节点。

需要访问 Prometheus UI 以及所有 MGR 主机和 grafana-server 或 prometheus 主机的 IP 地址。

9092

用于基本 Prometheus 图形的 Prometheus 服务器

需要访问 Prometheus UI 以及所有 MGR 主机和 grafana-server 或 prometheus 主机的 IP 地址。

Ansible 清单文件中 [grafana-server] 下的节点。

9093

Prometheus Alertmanager

Ansible 清单文件中的所有 Ceph 管理器节点和 [grafana-server] 下的节点。

需要访问 Alertmanager Web UI 以及所有 MGR 主机和 grafana-server 或 prometheus 主机的 IP 地址。

9093

Prometheus Alertmanager

需要访问 Alertmanager Web UI 以及所有 MGR 主机和 grafana-server 或 prometheus 主机的 IP 地址。

Ansible 清单文件中的所有 Ceph 管理器节点和 [grafana-server] 下的节点。

9094

Prometheus Alertmanager 用于配置来自多个实例的高可用性集群

Ansible 清单文件中的所有 Ceph 管理器节点和 [grafana-server] 下的节点。

需要访问 Alertmanager Web UI 以及所有 MGR 主机和 grafana-server 或 prometheus 主机的 IP 地址。

9094

Prometheus Alertmanager 用于配置来自多个实例的高可用性集群

需要访问 Alertmanager Web UI 以及所有 MGR 主机和 grafana-server 或 prometheus 主机的 IP 地址。

Ansible 清单文件中的所有 Ceph 管理器节点和 [grafana-server] 下的节点。

9100

Prometheus node-exporter 守护进程

所有存储集群节点,包括 MON、OSDS、[grafana-server] 主机.

需要查看 Node Exporter metrics Web UI 以及所有 MGR 节点、grafana-server 或 prometheus 主机的 IP 地址。

9100

Prometheus node-exporter 守护进程

需要查看 Node Exporter metrics Web UI 以及所有 MGR 节点、grafana-server 或 prometheus 主机的 IP 地址。

所有存储集群节点,包括 MON、OSDS、[grafana-server] 主机.

9283

Ceph Manager Prometheus exporter 模块

所有 Ceph 管理器节点.

需要访问 Ceph Exporter 指标 Web UI 和 grafana-server 或 prometheus 主机的 IP 地址。

9283

Ceph Manager Prometheus exporter 模块

需要访问 Ceph Exporter 指标 Web UI 和 grafana-server 或 prometheus 主机的 IP 地址。

所有 Ceph 管理器节点.

9287

Ceph iSCSI 网关数据

所有 Ceph iSCSI 网关节点.

所有 MGR 主机和 grafana-server 或 prometheus 主机.

9287

Ceph iSCSI 网关数据

所有 MGR 主机和 grafana-server 或 prometheus 主机.

所有 Ceph iSCSI 网关节点.

其它资源

2.4. 访问仪表板

通过访问控制面板,您可以管理和监控红帽 Ceph 存储集群。

先决条件

  • 成功安装红帽 Ceph 存储仪表板.
  • NTP 正在正确同步时钟。
注意

当节点未正确同步时,仪表板节点、集群节点和浏览器之间可能会出现时间差。确保浏览器运行的所有节点和系统的时间均由 NTP 同步。默认情况下,部署红帽 Ceph 存储时,Ansible 在所有节点上配置 NTP。要验证,在 Red Hat Enterprise Linux 7 中,请参阅 为 Red Hat Enterprise Linux 8 配置 NTP ,请参阅使用 Chrony 套件配置 NTP。如果在另一个操作系统上运行浏览器,请咨询该操作系统的供应商以获取 NTP 配置信息。

注意

将 OpenStack 平台(OSP)与红帽 Ceph 存储搭配使用时,要启用 OSP Safe 模式,请使用以下方法之一:使用 Ansible,编辑 group_vars/all.yml Ansible playbook,分别为裸机或容器部署设置 dashboard_admin_user_ro: true 和 re-run ansible -playbook 针对 site.yml 或 site-container.yml。若要使用 ceph 命令启用 OSP Safe 模式,请以 只读方式运行 ceph 控制面板 ac-user-set-roles 管理员。如果您运行 ceph-ansible Ansible playbook,请编辑 group_vars/all.yml 和 set dashboard_ admin_user_ro: true,以确保更改保留。

流程

  1. 在网页浏览器中输入以下 URL:

    http:// HOST_NAME : PORT

    替换:

    • HOST_NAME,它的主机名为控制面板节点。
    • 带有端口 8443 的 PORT

      例如:

      http://dashboard:8443
  2. 在登录页面中,如果您在安装过程中没有更改密码,请输入用户名 admin 和默认密码 p@ssw0rd

    图 2.1. Ceph 控制面板登录页面

    Ceph 控制面板登录页面
  3. 登录后会显示控制面板默认登录页面,其中提供了红帽 Ceph 存储集群的状态、性能和容量指标的高级概述。

    图 2.2. Ceph 仪表板默认登录页面

    Ceph 仪表板默认登录页面

其它资源

2.5. 使用 Ansible 更改仪表板密码

默认情况下,用于访问仪表板的密码设置为 p@ssw0rd

重要

出于安全考虑,请在安装后更改密码。

您可以使用 Ansible 更改控制面板密码。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 访问 Ansible 管理节点.

流程

  1. 打开 Ansible playbook 文件 /usr/share/ceph-ansible/group_vars/all.yml 以进行编辑。
  2. 取消注释并更新此行中的密码:

    #dashboard_admin_password: p@ssw0rd

    改为:

    dashboard_admin_password: NEW_PASSWORD

    NEW_PASSWORD 替换为您首选的密码。

  3. 再次运行部署或更新 Ceph 集群的 Ansible playbook 文件。

    1. 对于裸机安装,请使用 site.yml playbook:

      [admin@admin ceph-ansible]$ ansible-playbook -v site.yml
    2. 对于容器安装,请使用 site-docker.yml playbook:

      [admin@admin ceph-ansible]$ ansible-playbook -v site-docker.yml
  4. 使用新密码登录。

其它资源

2.6. 使用控制面板更改仪表板密码

默认情况下,用于访问仪表板的密码设置为 p@ssw0rd

重要

出于安全考虑,请在安装后更改密码。

若要利用控制面板更改密码,还要更改 Ansible 中的控制面板密码设置,确保在使用 Ansible 重新配置红帽 Ceph 存储集群时,密码不会恢复为默认密码。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。

流程

  1. 更新 group_vars/all.yml 文件中的密码,以防止在 Ansible 用于重新配置 Ceph 集群时将密码重置为 p@ssw0rd

    1. 打开 Ansible playbook 文件 /usr/share/ceph-ansible/group_vars/all.yml 以进行编辑。
    2. 取消注释并更新此行中的密码:

      #dashboard_admin_password: p@ssw0rd

      改为:

      dashboard_admin_password: NEW_PASSWORD

      NEW_PASSWORD 替换为您首选的密码。

  2. 更改控制面板 Web 用户界面中的密码。

    1. 登录到仪表板:

      http://HOST_NAME:8443
    2. 在右上方工具栏中,单击仪表板设置图标,然后单击 User Management

      用户管理
    3. Username 表中找到 admin 用户,再单击 admin

      用户管理
    4. 在表标题 用户名 上方,单击 编辑 按钮。
    5. 输入新密码并确认,再次输入密码并单击 编辑用户

      用户管理

      您将注销并转至登录屏幕。这时将显示通知,确认密码更改。

  3. 使用新密码重新登录。

其它资源

2.7. 使用 Ansible 更改 Grafana 密码

默认情况下,仪表板使用的 Grafana 密码被设置为 admin。使用此流程更改密码。

重要

出于安全考虑,请从默认值更改密码。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 对集群中的所有节点的 root 访问权限。

流程

  1. 可选:如果您不知道 Grafana 容器在哪个节点上运行,请在 Ansible 主机文件中找到 [grafana-server] 下列出的节点,通常位于 /etc/ansible/hosts:

    示例

    [grafana-server]
    grafana

  2. 在运行 Grafana 容器的节点中,更改密码:

    语法

    podman exec CONTAINER_ID grafana-cli admin reset-admin-password --homepath "/usr/share/grafana" NEW_PASSWORD

    CONTAINER_ID 改为 Grafana 容器的 ID。将 NEW_PASSWORD 更改为所需的 Grafana 密码。

    示例

    [root@grafana ~]# podman exec 3f28b0309aee grafana-cli admin reset-admin-password --homepath "/usr/share/grafana" NewSecurePassword
    t=2020-10-29T17:45:58+0000 lvl=info msg="Connecting to DB" logger=sqlstore dbtype=sqlite3
    t=2020-10-29T17:45:58+0000 lvl=info msg="Starting DB migration" logger=migrator
    
    Admin password changed successfully ✔

  3. 在 Ansible 管理节点上,使用 ansible-vault 来加密 Grafana 密码,然后将加密密码添加到 group_vars/all.yml

    1. 进入 /usr/share/ceph-ansible/ 目录:

      [admin@admin ~]$ cd /usr/share/ceph-ansible/
    2. 运行 ansible-vault 并创建新的 vault 密码:

      示例

      [admin@admin ceph-ansible]$ ansible-vault encrypt_string --stdin-name 'grafana_admin_password_vault'
      New Vault password:

    3. 重新输入密码以确认:

      示例

      [admin@admin ceph-ansible]$ ansible-vault encrypt_string --stdin-name 'grafana_admin_password_vault'
      New Vault password:
      Confirm New Vault password:

    4. 输入 Grafana 密码,按 Enter 键,然后输入 CTRL+D 以完成条目:

      语法

      ansible-vault encrypt_string --stdin-name 'grafana_admin_password_vault'
      New Vault password:
      Confirm New Vault password:
      Reading plaintext input from stdin. (ctrl-d to end input)
      NEW_PASSWORD

      NEW_PASSWORD 替换为之前设置的 Grafana 密码。

      示例

      [admin@admin ceph-ansible]$ ansible-vault encrypt_string --stdin-name 'grafana_admin_password_vault'
      New Vault password:
      Confirm New Vault password:
      Reading plaintext input from stdin. (ctrl-d to end input)
      NewSecurePassword

    5. 记录以 grafana_admin_password_vault: !vault | 开头的输出,最后几行数字,它将在下一步中使用:

      示例

      [admin@admin ceph-ansible]$ ansible-vault encrypt_string --stdin-name 'grafana_admin_password_vault'
      New Vault password:
      Confirm New Vault password:
      Reading plaintext input from stdin. (ctrl-d to end input)
      NewSecurePassword
      grafana_admin_password_vault: !vault |
                $ANSIBLE_VAULT;1.1;AES256
                38383639646166656130326666633262643836343930373836376331326437353032376165306234
                3161386334616632653530383231316631636462363761660a373338373334663434363865356633
                66383963323033303662333765383938353630623433346565363534636434643634336430643438
                6134306662646365370a343135316633303830653565633736303466636261326361333766613462
                39353365343137323163343937636464663534383234326531666139376561663532
      Encryption successful

    6. 打开 以编辑 group_vars/all.yml,并将上方的输出粘贴到文件中:

      示例

      grafana_admin_password_vault: !vault |
                $ANSIBLE_VAULT;1.1;AES256
                38383639646166656130326666633262643836343930373836376331326437353032376165306234
                3161386334616632653530383231316631636462363761660a373338373334663434363865356633
                66383963323033303662333765383938353630623433346565363534636434643634336430643438
                6134306662646365370a343135316633303830653565633736303466636261326361333766613462
                39353365343137323163343937636464663534383234326531666139376561663532

    7. 在加密的密码下方添加一行:

      示例

      grafana_admin_password: "{{ grafana_admin_password_vault }}"

      注意

      由于 Ansible 中的一个错误会在将 vault 值直接分配给 Ansible 变量时中断字符串类型,因此需要使用上述两个变量。

    8. 保存并关闭该文件。
  4. 重新运行 ansible-playbook

    1. 对于基于容器的部署:

      示例

      [admin@node1 ceph-ansible]$ ansible-playbook -v site-container.yml -i hosts

      请注意,只有在您不使用 /etc/ansible/hosts 的默认 Ansible 主机文件位置时,才需要 -i 主机。

    2. 对于裸机,基于 RPM 的部署:

      示例

      [admin@node1 ceph-ansible]$ ansible-playbook -v site.yml -i hosts

      请注意,只有在您不使用 /etc/ansible/hosts 的默认 Ansible 主机文件位置时,才需要 -i 主机。

2.8. 使用红帽单点登录仪表板同步用户

管理员可以使用具有轻量级目录访问协议(LDAP)集成的红帽单点登录(SSO)来访问红帽 Ceph 存储仪表板中的用户。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 控制面板的管理员级别访问权限.
  • 用户添加到仪表板中。
  • 所有节点上的 root 级别访问权限。
  • 红帽单点登录从 ZIP 文件安装.如需更多信息,请参阅 从 zip 文件中安装 Red Hat Single Sign-On

流程

  1. 将红帽单点登录 7.4.0 服务器下载到 安装 Red Hat Ceph Storage 的系统中。
  2. 解压文件夹:

    [root@cephuser]# unzip rhsso-7.4.0.zip
  3. 进入 standalone/configuration 目录并打开 standalone.xml 进行编辑:

    [root@cephuser]# cd standalone/configuration
    [root@cephuser configuration]# vi standalone.xml
  4. localhost 的三个实例和两个 127.0.0.1 实例替换为安装红帽单点登录的计算机的 IP 地址。
  5. 可选: 对于 Red Hat Enterprise Linux 8,用户可能会遇到证书颁发机构(CA)问题。从 CA 导入自定义证书,并使用精确的 java 版本将它们移到密钥存储中。

    示例

    [root@cephuser]# keytool -import -noprompt -trustcacerts -alias ca -file ../ca.cer -keystore /etc/java/java-1.8.0-openjdk/java-1.8.0-openjdk-1.8.0.272.b10-3.el8_3.x86_64/lib/security/cacert

  6. 要从 rh-sso-7.4 文件夹的 bin 目录启动服务器,请运行 独立 引导脚本:

    [root@cephuser bin]# ./standalone.sh
  7. 在 http:_IP_ADDRESS_:8080/auth 中使用用户名和密码创建 admin 帐户:

    创建管理员用户
    注意

    只有在第一次登录控制台时,才会创建 admin 帐户。

  8. 使用创建的凭证登录到管理控制台:

    管理控制台
  9. 若要创建域,可单击 Master 下拉列表。在此域中,管理员提供用户和应用的访问权限。

    添加 realm 下拉列表
  10. Add Realm 窗口中,输入 realm 的名称,并将 Enabled 参数设置为 ON,然后点击 Create:

    添加 realm 窗口
    注意

    域名称区分大小写。

  11. Realm Settings 选项卡中,设置以下参数并点 Save:

    1. Enabled - ON
    2. 用户管理的访问 - ON
    3. 复制 SAML 2.0 身份提供程序元数据的链接地址

      添加域设置窗口
  12. Clients 选项卡中点 Create:

    添加客户端
  13. Add Client 窗口中,设置以下参数并点 Save:

    1. 客户端 ID - BASE_URL:8443/auth/saml2/metadata

      示例

      https://magna082.ceph.redhat.com:8443/auth/saml2/metadata

    2. 客户端协议 - saml

      添加客户端窗口
  14. Clients 窗口中,在 Settings 选项卡中设置以下参数并点 Save:

    1. 客户端 ID - BASE_URL:8443/auth/saml2/metadata

      示例

      https://magna082.ceph.redhat.com:8443/auth/saml2/metadata

    2. Enabled - ON
    3. 客户端协议 - saml
    4. 包括 AuthnStatement - ON
    5. 签署文档 - ON
    6. 签名算法 - RSA_SHA1
    7. SAML 签名密钥名称 - KEY_ID
    8. 有效的重定向 URL - BASE_URL:8443/*

      示例

      https://magna082.ceph.redhat.com:8443/*

    9. 基本 URL - BASE_URL:8443

      示例

      https://magna082.ceph.redhat.com:8443/

    10. Master SAML 处理 URL - http://localhost:8080/auth/realms/REALM_NAME/protocol/saml/descriptor

      示例

      http://localhost:8080/auth/realms/Ceph_LDAP/protocol/saml/descriptor

      注意

      Realm Settings 选项卡粘贴 SAML 2.0 身份提供程序元数据的链接。

      在 Fine Grain SAML 端点配置下,设置参数:

    11. 断言消费者服务 POST Binding URL - BASE_URL:8443/#/dashboard

      示例

      https://magna082.ceph.redhat.com:8443/#/dashboard

    12. 断言消费者服务重定向 URL - BASE_URL:8443/#/dashboard

      示例

      https://magna082.ceph.redhat.com:8443/#/dashboard

    13. 注销服务重定向绑定 URL - BASE_URL:8443/

      示例

      https://magna082.ceph.redhat.com:8443/

      客户端映射器上方面板
      客户端映射器 lesspane
  15. Clients 窗口中,Mappers 选项卡中设置以下参数并点 Save:

    1. 协议 - saml
    2. name - username
    3. 映射器属性 - 用户属性
    4. 属性 - username
    5. SAML Attribute name - username

      添加客户端映射器
  16. Clients Scope 选项卡中,选择 role_list

    1. Mappers 选项卡中,选择 角色列表,将 Single Role Attribute 设置为 ON。

      添加客户端角色列表
  17. 选择 User_Federation 选项卡:

    1. User Federation 窗口中,从下拉菜单中选择 ldap:

      添加 ldap 作为供应商
  18. User_Federation 窗口中,设置 以下参数并点 Save:

    1. 控制台显示名称 - rh-ldap
    2. 导入用户 - ON
    3. Edit_Mode - READ_ONLY
    4. 用户名 LDAP 属性 - username
    5. RDN LDAP 属性 - username
    6. UUID LDAP 属性 - nsuniqueid
    7. 用户对象类 - inetOrgPerson、organizationPerson、rhatPerson
    8. 连接 URL - ldap:://myldap.example.com

      示例

      ldap://ldap.corp.redhat.com

      单击 Test Connection

      LDAP 测试连接

      您将收到 LDAP 连接成功通知。

    9. 用户 DN - ou=users, dc=example, dc=com

      示例

      ou=users,dc=redhat,dc=com

    10. 绑定类型 - 简单

      用户 Federation Upperpane
      User Federation Lowerpane
    11. 单击 Test authentication

      LDAP 测试身份验证

      您将收到 LDAP 身份验证成功通知。

  19. Mappers 选项卡中,选择 第一个名称 行并编辑以下参数并点击 Save:

    1. LDAP Attribute - givenName

      user Federation Mappers 选项卡
      user Federation Mappers 窗口
  20. User_Federation 选项卡中,点 Settings 标签页,点 Synchronize 所有用户

    user Federation Synchronize

    您将收到用户同步已成功更新的通知。

    用户联合同步通知
  21. Users 选项卡中,搜索添加到仪表板的用户并点击 Search 图标:

    用户搜索标签
  22. 要查看用户,请单击其行。您应该会看到 federation 链接,作为为 User Federation 提供的名称。

    用户详情
    重要

    不要手动添加用户。如果手动添加,点 Delete 删除用户。

  23. 添加到域的用户和控制面板可以通过其电子邮件地址和密码访问 Ceph 控制面板。

    示例

    https://magna082.ceph.redhat.com:8443

    仪表板链接

其它资源

2.9. 为 Ceph 控制面板启用单点登录

Ceph 控制面板支持使用安全断言标记语言(SAML)协议的用户进行外部身份验证。在将单点登录(SSO)与 Ceph 控制面板搭配使用之前,先创建控制面板用户帐户并分配所需的角色。Ceph 控制面板执行用户的授权,身份验证流程则由现有的身份提供程序(IdP)执行。红帽使用 Keycloak 来测试仪表板 SSO 功能。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 安装 Ceph 控制面板软件.
  • 启动控制面板。
  • Ceph 管理器节点的根级别访问权限。
  • 在 Ceph Manager 节点上安装以下库软件包:

    • python3-saml
    • python3-defusedxml
    • python3-isodate
    • python3-xmlsec

流程

  1. 要在 Ceph 控制面板中配置 SSO,请运行以下命令:

    1. 裸机部署:

      语法

      ceph dashboard sso setup saml2 CEPH_DASHBOARD_BASE_URL IDP_METADATA IDP_USERNAME_ATTRIBUTE IDP_ENTITY_ID SP_X_509_CERT SP_PRIVATE_KEY

      示例

      [root@mon ~]# ceph dashboard sso setup saml2 http://dashboard_hostname.ceph.redhat.com:8443 idp-metadata.xml username http://10.70.59.125:8080/auth/realms/realm_name /home/certificate.txt /home/private-key.txt

    2. 容器部署:

      语法

      podman exec CEPH_MGR_NODE ceph dashboard sso setup saml2 CEPH_DASHBOARD_BASE_URL IDP_METADATA IDP_USERNAME_ATTRIBUTE IDP_ENTITY_ID SP_X_509_CERT SP_PRIVATE_KEY

      示例

      [root@mon ~]# podman exec ceph-mgr-hostname ceph dashboard sso setup saml2 http://dashboard_hostname.ceph.redhat.com:8443 idp-metadata.xml username http://10.70.59.125:8080/auth/realms/realm_name /home/certificate.txt /home/private-key.txt

    替换

    • 使用 Ceph mgr 节点的 CEPH_MGR_NODE.例如,ceph -mgr-hostname
    • CEPH_DASHBOARD_BASE_URL,包含可以访问 Ceph 控制面板的基本 URL。
    • 带有指向远程或本地路径或 IdP 元数据 XML 内容的 URL 的 IDP_METADATA.支持的 URL 类型有 http、https 和 文件。
    • 可选IDP_USERNAME_ATTRIBUTE,其属性用于从身份验证响应中获取用户名。默认为 uid
    • 可选 :当 IdP 元数据中存在多个实体 ID 时,使用 IdP 实体 ID 的IDP_ENTITY_ID
    • 可选SP_X_509_CERT,带有供 Ceph 控制面板用于签名和加密的证书的文件路径。
    • 可选SP_PRIVATE_KEY,文件路径为 Ceph 控制面板用于签名和加密的私钥。
  2. 验证当前的 SAML 2.0 配置:

    1. 裸机部署:

      语法

      ceph dashboard sso show saml2

    2. 容器部署:

      语法

      podman exec CEPH_MGR_NODE ceph dashboard sso show saml2

  3. 要启用 SSO,请运行以下命令:

    1. 裸机部署:

      语法

      ceph dashboard sso enable saml2
      SSO is "enabled" with "SAML2" protocol.

    2. 容器部署:

      语法

      podman exec CEPH_MGR_NODE ceph dashboard sso enable saml2
      SSO is "enabled" with "SAML2" protocol.

  4. 打开仪表板 URL。例如:

    http://dashboard_hostname.ceph.redhat.com:8443
  5. 在 SSO 页面上,输入登录凭据。SSO 重定向至控制面板 Web 界面。

其它资源

2.10. 为 Ceph 控制面板禁用单点登录

您可以为 Ceph 控制面板禁用 上的单点登录。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 安装 Ceph 控制面板软件.
  • 启动控制面板。
  • Ceph 管理器节点的根级别访问权限。
  • 为 Ceph 控制面板启用单点登录
  • 在 Ceph Manager 节点上安装以下库软件包:

    • python3-saml
    • python3-defusedxml
    • python3-isodate
    • python3-xmlsec

流程

  1. 要查看 SSO 的状态,请运行以下命令:

    1. 裸机部署:

      语法

      ceph dashboard sso status
      SSO is "enabled" with "SAML2" protocol.

    2. 容器部署:

      语法

      podman exec CEPH_MGR_NODE ceph dashboard sso status
      SSO is "enabled" with "SAML2" protocol.

      替换

      • 使用 Ceph mgr 节点的 CEPH_MGR_NODE.例如,ceph -mgr-hostname
  2. 要禁用 SSO,请运行以下命令:

    1. 裸机部署:

      语法

      ceph dashboard sso disable
      SSO is "disabled".

    2. 容器部署:

      语法

      podman exec CEPH_MGR_NODE ceph dashboard sso disable
      SSO is "disabled".

      替换

      • 使用 Ceph mgr 节点的 CEPH_MGR_NODE.例如,ceph -mgr-hostname

其它资源

第 3 章 在仪表板上管理角色

作为存储管理员,您可以在控制面板中创建、查看、编辑和删除角色。您可以为角色授予权限,您可以为用户分配特定的角色。

3.1. 在仪表板上创建角色

您可以通过控制面板在控制面板中创建可分配给用户的角色。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 管理员对控制面板的访问权限.

流程

  1. 登录控制面板。
  2. 在 Dashboard 的右上角,点击 gear 图标并选择 User Management:

    单击 User management
  3. Roles 标签页中,点 Create 按钮:

    创建角色
  4. CreateRole 窗口中,设置 Name 并选择此角色的 Permissions,然后点击 CreateRole 按钮:

    创建角色窗口
  5. 页面右上角的通知表示角色创建成功。

    角色创建通知

3.2. 在仪表板上查看角色

您可以通过控制面板查看控制面板中角色的详细信息。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 管理员对控制面板的访问权限。
  • 角色在控制面板上创建。

流程

  1. 登录控制面板。
  2. 在 Dashboard 的右上角,点击 gear 图标并选择 User Management:

    单击 User management
  3. 要查看角色的详情,请点击以下行:

    单击角色行
  4. 您可以查看为角色提供的权限的详细信息。

    查看角色详情

3.3. 编辑仪表板上的角色

您可以通过控制面板编辑仪表板上的角色。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 管理员对控制面板的访问权限.
  • 在控制面板上创建了角色。

流程

  1. 登录控制面板。
  2. 在 Dashboard 的右上角,点击 gear 图标并选择 User Management:

    单击 User management
  3. 要编辑角色,请点击行:

    单击角色行
  4. 在" 角色 "选项卡上, " 编辑"下拉菜单中选择编辑

    编辑角色
  5. EditRole 窗口中,编辑参数包括,然后点击 EditRole 按钮:

    编辑角色窗口
  6. 页面右上角的通知表示角色已成功更新。

    编辑角色通知

3.4. 删除仪表板上的角色

您可以通过控制面板删除控制面板上的角色。

注意

您只能删除您创建的角色。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 管理员对控制面板的访问权限.
  • 在控制面板上创建了角色。

流程

  1. 登录控制面板。
  2. 在 Dashboard 的右上角,点击 gear 图标并选择 User Management:

    单击 User management
  3. 要删除角色,请点击行:

    单击角色行
  4. 角色 选项卡上,从 编辑 下拉菜单中选择 删除

    删除角色
  5. Delete Role 对话框中,点击 Yes, I am sure 框,然后单击 Delete Role 以保存设置:

    删除角色窗口

第 4 章 在仪表板上管理用户

作为存储管理员,您可以在仪表板上创建、编辑和删除用户。

4.1. 在仪表板上创建用户

您可以通过控制面板在控制面板中创建用户。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 管理员对控制面板的访问权限.
注意

在更改用户密码时,Red Hat Ceph Storage 控制面板不支持任何电子邮件验证。此行为是有意设计的,因为控制面板支持单点登录(SSO),并且此功能可以委派给 SSO 提供程序。

流程

  1. 登录控制面板。
  2. 在 Dashboard 的右上角,点击 gear 图标并选择 User Management:

    单击 User management
  3. Users 选项卡中,点 Create 按钮:

    创建用户
  4. CreateUser 窗口中,设置 Username 和其他参数,包括角色,然后点击 _CreateUser_button:

    创建用户窗口
  5. 页面右上角的通知表示用户已成功创建。

    用户创建通知

4.2. 在仪表板上编辑用户

您可以通过控制面板编辑控制面板中的用户。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 管理员对控制面板的访问权限.
  • 在控制面板中创建的用户.

流程

  1. 登录控制面板。
  2. 在 Dashboard 的右上角,点击 gear 图标并选择 User Management:

    单击 User management
  3. 要编辑用户,请点击以下行:

    单击用户行
  4. Users 选项卡中,从 Edit 下拉菜单中选择 Edit

    编辑用户
  5. EditUser 窗口中,编辑参数包括,然后点击 EditUser 按钮:

    编辑用户窗口
  6. 页面右上角的通知表示用户已成功更新。

    用户编辑通知

其它资源

4.3. 在仪表板中删除用户

您可以通过控制面板删除控制面板中的用户。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 管理员对控制面板的访问权限.
  • 在控制面板中创建的用户.

流程

  1. 登录控制面板。
  2. 在 Dashboard 的右上角,点击 gear 图标并选择 User Management:

    单击 User management
  3. 要删除用户,请点击以下行:

    单击用户行
  4. Users 选项卡中,从 Edit 下拉菜单中选择 删除

    删除用户
  5. Delete User 对话框窗口中,点击 Yes,我确定 框,然后单击 Delete user 保存设置:

    删除用户窗口

其它资源

第 5 章 监控集群

控制面板的监控功能提供了不同的网页,这些页面定期更新来指示存储集群的各个方面。您可以使用登录页面监控集群的整体状态,也可以监控集群的特定功能,如块设备镜像的状态。

其它资源

5.1. 访问登录页面

登录控制面板后,登录页面将加载。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。

流程

  1. 登录到 Dashboard:

    登录提示
  2. 登录仪表板后,登录页面会加载:

    登录页面
  3. 要在查看其他仪表板页面后返回到登录页面,请点击页面左上角的 Dashboard:

    仪表板链接

其它资源

5.2. 了解登录页面

登录页面中显示使用各个面板的整个 Ceph 集群的概览。每个面板都显示有关集群状态的特定信息。

Categories

登录页面将面板划分为以下三种类别:

  1. 状态
  2. 容量
  3. 性能
Ceph Dashboard 登录页面

状态面板

状态面板显示集群、主机和守护进程状态的健康状况。

状态面板

Cluster Status :显示 Ceph 集群的当前健康状态。

hosts:显示 Ceph 存储群集 中的主机 总数。

monitor :显示 Ceph 监控器的数量和仲裁状态。

OSD :显示 Ceph 存储集群中的 OSD 总数,以及 upin

managers :显示管理器守护进程的数量和状态。

对象网关: 显示 Ceph 存储集群中的对象网关数量。

元数据服务器 :显示 Ceph 文件系统的元数据服务器的数量和状态。

iSCSI 网关 :显示 Ceph 存储群集中的 iSCSI 网关数量。

容量面板

容量面板显示存储使用情况指标。

容量面板

原始容量 :显示集群原始存储容量的利用率和可用性。

对象 :显示池中对象总数,以及将对象划分为 HealthyMisplaced、Degraded 或 Unfound 状态的图形。

PG Status :显示 PG 的总数,以及将 PG 划分为 Clean、workron WarningUnknown 状态的图形。为简化 PG 状态工作和 Warning 显示,实际上每个状态都包含多个状态。

Work 状态包括具有以下任一状态的 PG:

  • 激活
  • backfill_wait
  • 回填
  • Create
  • 深度
  • degraded
  • forced_backfill
  • forced_recovery
  • peering
  • peered
  • 恢复
  • recovery_wait
  • 修复
  • 清理
  • snaptrim
  • snaptrim_wait

Warning 状态包括具有任何这些状态的 PG:

  • backfill_toofull
  • backfill_unfound
  • down
  • 不完整
  • 不一致
  • recovery_toofull
  • recovery_unfound
  • remapped
  • snaptrim_error
  • stale
  • 小于大小

:显示 Ceph 集群中的存储池数量。

每个 OSD 的 PG :显示每个 OSD 的 PG 数量。

性能面板

性能面板显示与数据传输速度相关的信息。

集群性能面板

客户端读取/写入: 显示每秒输入/输出请求总数、每秒读取数和每秒写入数。

客户端吞吐量 :显示客户端吞吐量、读取吞吐量和写入吞吐量。

恢复吞吐量 :显示客户端恢复率.

清理 :显示 Ceph 是否在清理数据,以验证其完整性。

其它资源

第 6 章 监控特定功能

作为存储管理员,您可以使用红帽 Ceph 存储控制面板根据主机类型、服务、数据访问方法等来监控集群的具体方面。

6.1. 监控监视器

通过红帽 Ceph 存储控制面板,您可以查看有关 monitor 节点的各种详情。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。

流程

  1. 登录控制面板。
  2. 在导航栏中,单击 Cluster,然后单击 Monitors
  3. monitors 概览 页面显示有关整体监控状态的信息,以及 QuorumNot 中的表(在仲裁 monitor 节点中):

    monitor 概述
  4. 要查看打开的会话数量,将光标悬停在蓝色点向上:

    开放会话
  5. 要查看任何 monitor 的性能计数器,请点击其主机名:

    单击 Monitor 主机名
  6. 查看性能计数器:

    监控性能计数器

其它资源

6.2. 监控主机

通过红帽 Ceph 存储控制面板,您可以查看主机的各种详细信息。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。

流程

  1. 登录控制面板。
  2. 在导航栏中,单击 Cluster,然后单击 Hosts
  3. 要查看主机列表,请点击 Hosts List 选项卡:

    主机列表
  4. 要查看主机的 Performance Details,在 Host 选项卡中点击其行并从 Grafana Time Picker 下拉菜单中选择时间范围:

    主机性能详情
  5. 要查看主机上特定服务的性能计数器,请点击该服务:

    点 Host service
  6. 查看性能计数器:

    主机性能计数器
  7. 查看所有主机的性能数据:

    1. 点击页面左上角的 Overall Performance 选项卡:

      点击主机整体性能
    2. Grafana Time Picker 下拉菜单中选择时间范围:

      Host Performance Grafana 下拉列表
    3. 查看 Overall Performance 页面:

      主机覆盖性能

其它资源

  • 如需了解更多详细信息,请参见《 红帽 Ceph 存储管理指南》的性能计数器

6.3. 监控 OSD

通过红帽 Ceph 存储控制面板,您可以查看有关 OSD 的各种详细信息。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。

流程

  1. 登录控制面板。
  2. 在导航栏上,单击 Cluster,然后单击 OSD
  3. 要查看 OSD 列表,请单击 OSD List 选项卡:

    OSD 列表
  4. 要查看 OSD 的属性,请在 OSDS List 选项卡中点击其行:

    OSD 属性
  5. 要查看 OSD 的元数据,请在 OSD 选项卡中单击其行,再单击 元数据 选项卡:

    OSD 元数据
  6. 要查看 OSD 的性能计数器,请在 OSD 选项卡中,单击其行并点击 Performance counter 选项卡:

    OSD 性能计数器
  7. 要查看 OSD 的直方图,请在 OSD 选项卡中,单击其行并单击 Histogram 选项卡:

    OSD Histogram
  8. 查看 OSD 的性能详情:

    1. OSD 选项卡中,点其行,点 Performance Details 选项卡:

      单击 OSD Performance details
    2. Grafana Time Picker 下拉菜单中选择时间范围:

      OSD Performance Grafana 下拉列表
    3. 查看 OSD 的性能详情:

      查看 OSD 性能详细信息
  9. 查看所有 OSD 的整体性能:

    1. 点击页面左上角的 Overall Performance 选项卡

      单击 OSD 整体性能
    2. Grafana Time Picker 下拉菜单中选择时间范围:

      OSD Performance Grafana 下拉列表
  10. 查看 Overall Performance 页面:

    OSD 过量性能

其它资源

  • 如需了解更多详细信息,请参见《 红帽 Ceph 存储管理指南》的性能计数器

6.4. 监控池

通过红帽 Ceph 存储控制面板,您可以查看集群中池的各种详情。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。

流程

  1. 登录控制面板。
  2. 在导航栏中点 Pools

    池菜单选择
  3. 查看池列表:

    pool list
  4. 将鼠标悬停在用量条图上,以查看实际已用和可用空间:

    池使用量详情
  5. 要查看池的更多信息,请点击池行来选择它:

    单击池行
  6. 查看池的详细信息。若要查看池的性能详情和配置数据,请单击关联的选项卡。

    池详情
  7. 要查看所有池的性能数据,请点击页面左上角的 Overall Performance 选项卡:

    点击整体性能
  8. 查看 Overall Performance 页面:

    总体性能页面

其它资源

6.5. 监控 Ceph 文件系统

作为存储管理员,您可以使用红帽 Ceph 存储控制面板监控 Ceph 文件系统(CephFS)和相关组件。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板
  • 已安装 Ceph 文件系统。

流程

  1. 登录控制面板。
  2. 在导航栏中,单击 Filesystems

    点 Filesystems
  3. 在下例中,您可以看到 cephfs 文件系统。

    查看文件系统
  4. 若要查看文件系统的详细信息,可单击 cephfs 所在的行。

    单击 cephfs
  5. 在" 详细信息 "选项卡中,您可以在 2 上看到元数据服务器及其等级以及任何待机后台程序(在 1、池及其用法)以及 3 的性能计数器。

    CephFS details 选项卡
  6. 要查看已挂载文件系统的客户端的列表,请单击 Clients 选项卡。

    点 Clients
  7. 在下例中,您可以看到 jb-ceph4-client 主机已打开 cephfs 文件系统。

    客户端表
  8. 要查看文件系统的性能,请点击 Performance Details 选项卡。

    点击 Performance Details
  9. 在以下示例中,您可以在 2 上看到读取和写入操作(在 1、客户端请求) 您可以在 3 更改时间范围

    性能详情

其它资源

6.6. 监控镜像的整体性能

通过红帽 Ceph 存储控制面板,您可以监控 Blocks 中镜像的整体性能。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已创建 RADOS 块设备(RBD)池。
  • 镜像已创建。
  • manager 模块为池启用 Prometheus 导出器。

    图 6.1. 示例

    启用 Prometheus 模块

流程

  1. 登录控制面板。
  2. 在导航栏中点击 Block:

    点 Block
  3. 从下拉菜单中选择 Images

    从下拉菜单中选择 Images
  4. 选择 Overall Performance 选项卡:

    整体性能标签
  5. Grafana Time Picker 下拉菜单中选择时间范围:

    Image Performance Grafana 下拉列表
  6. 查看 Overall Performance 页面:

    镜像覆盖性能

第 7 章 管理集群

7.1. 管理集群

您可以通过仪表板的管理功能来查看和修改配置设置,以及管理集群资源。

7.2. 查看 CRUSH map

CRUSH map 包含 OSD 的列表和相关信息。CRUSH map 和 CRUSH 算法一起确定数据的存储方式和位置。红帽 Ceph 存储控制面板允许您查看 CRUSH map 的不同方面,包括 OSD 主机、OSD 守护进程、ID 编号、设备类等。

CRUSH map 允许您确定特定 OSD ID 正在哪一个节点上运行。这在 OSD 存在问题时很有用。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。

流程

  1. 登录控制面板。
  2. 在导航栏中,单击 Cluster
  3. 单击 CRUSH map

    CRUSH map 初始视图

    在上例中,您可以看到在以下两个节点上运行的默认 CRUSH map、三个节点和 OSD。

  4. 单击 CRUSH map 名称、节点或 OSD,以查看各个对象的详细信息。

    CRUSH map 详情视图

    在上例中,您可以看到与 jb-rhel-osd3 节点上运行的 OSD 相关的变量值。请特别注意 ID2

其它资源

7.3. 配置管理器模块

通过红帽 Ceph 存储控制面板,您可以查看和配置管理器模块参数。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。

流程

  1. 登录控制面板。
  2. 在导航栏中,单击 Cluster
  3. 点击 Manager 模块

    Manager 模块初始视图

    以上屏幕截图显示了管理器模块中三页的第一页。

  4. 点击您要配置的模块所在的行:

    管理模块编辑按钮

    并非所有模块都具有可配置参数。如果模块不可配置,则禁用 Edit 按钮。

  5. 在页面左上方,单击 Edit 按钮,以使用可配置的参数加载页面。

    Manager 模块均衡器参数

    上面的屏幕截图显示了您可以为 balancer 模块更改的参数。若要显示参数的描述,可单击问号按钮。

  6. 要更改参数,请修改参数的状态,并点击页面底部的 Update 按钮:

    Manager 模块更新按钮

    页面右上角会出现一个确认更改的通知:

    manager 模块更新了选项通知

7.4. 过滤日志

红帽 Ceph 存储控制面板允许您根据多个条件查看和过滤日志。该标准包括 优先级关键字日期和时间 范围

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 自 monitor 上一次启动以来,已生成日志条目。
注意

控制面板日志记录功能仅显示 30 个最新高级事件。事件由 monitor 存储在内存中。这些条目在重启 monitor 后消失。如果需要查看详细或更旧的日志,请参阅基于文件的日志。有关基于文件的日志的更多信息,请参阅以下 其他资源

流程

  1. 登录控制面板。
  2. 单击顶部导航栏中的 Cluster 下拉菜单。
  3. 单击下拉菜单中的 Logs
  4. 查看最后三十条未过滤的日志条目。

    未过滤的集群日志.
    1. 要按优先级过滤,请单击 优先级 下拉菜单并选择 InfoWarningError。以下示例仅显示优先级为 Error 的日志条目。

      按优先级过滤.
    2. 要根据关键字过滤,请在 关键字 表单中输入文本。下例中仅显示包含文本 osd.2 的日志条目:

      按关键字过滤.
    3. 要按日期过滤,请单击 Date 表单,然后使用日期选手从菜单中选择日期,或者以 YYYY-MM-DD 格式输入日期。以下示例仅显示日期为 2019-10-15 的日志条目。

      按日期过滤.
    4. 要按时间过滤,请使用 HH: MM - HH:MM 格式在 Time 范围 字段中输入一个范围。必须用 023 数字输入小时。以下示例只显示 12:14 到 12:23日志条目

      按时间范围过滤.
    5. 若要组合过滤器,可设置两个或多个过滤器。以下示例仅显示优先级为 Warningosd 的关键字的条目。

      组合过滤器.

其它资源

7.5. 配置 OSD 恢复设置

作为存储管理员,您可以更改 OSD 恢复优先级,并自定义集群的恢复方式。这可让您影响集群的重建性能或恢复速度。

先决条件

  • 红帽 Ceph 存储群集.
  • 已安装仪表板。

流程

  1. 登录控制面板。
  2. 单击顶部导航栏中的 Cluster 下拉菜单。
  3. 单击下拉菜单中的 OSD
  4. 单击 Cluster-Wide Flags 下拉菜单。

    单击 Cluster-Wide Flags 下拉菜单。
  5. 在下拉菜单中选择 集群范围的恢复优先级

    选择集群范围的恢复优先级。
  6. 可选 在下拉菜单中选择优先级,然后单击 提交 按钮。

    注意

    有 3 个预定义的选项: LowDefaultHigh

    默认优先级值
  7. 可选:点 Customize priority 值,进行所需的更改,然后点击 Submit 按钮。

    自定义优先级值
  8. 此时会弹出一个指向页面右上角的通知,表示标记已成功更新。

    OSD 恢复速度优先级更新通知

其它资源

7.6. 查看和监控配置

通过红帽 Ceph 存储控制面板,您可以查看 Ceph 集群的所有配置选项的列表。您还可以编辑控制面板上的配置。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。

流程

  1. 登录控制面板。
  2. 在导航栏上,单击 Cluster,然后单击 Configuration
  3. 要查看配置详情,请点击其行:

    配置详情
    • 您可以使用搜索框 搜索 配置:

      搜索配置
    • 您可以使用 LevelServiceSource 下拉菜单过滤配置:

      过滤器配置
  4. 要编辑配置,请点击其行并点击 Edit 按钮:

    编辑配置
    1. 在对话框窗口中,编辑所需的参数并点击 Save 按钮:

      Edit Configuration 窗口

      页面右上角会出现确认更改的通知。

      编辑配置通知

其它资源

  • 如需了解更多详细信息,请参见《 红帽 Ceph 存储配置指南》中的 Ceph 网络配置 一章。

7.7. 管理 Prometheus 环境

若要使用 Prometheus 监控 Ceph 存储集群,您可以配置和启用 Prometheus 导出器,以便收集 Ceph 存储集群的元数据信息。

先决条件

  • 正在运行的红帽 Ceph 存储 3.1 或更高版本集群。
  • 安装红帽 Ceph 存储仪表板.
  • 对红帽 Ceph 存储控制面板节点的根级别访问权限.

流程

  1. 打开并编辑 /etc/prometheus/prometheus.yml 文件。

    1. global 部分下,将 scrape_intervalevaluation_interval 选项设置为 15 秒。

      示例

      global:
        scrape_interval:     15s
        evaluation_interval: 15s

    2. scrape_configs 部分下,添加 honor_labels: true 选项,再编辑各个 ceph-mgr 节点 的目标和 实例 选项。

      示例

      scrape_configs:
        - job_name: 'node'
          honor_labels: true
          static_configs:
          - targets: [ 'node1.example.com:9100' ]
            labels:
              instance: "node1.example.com"
          - targets: ['node2.example.com:9100']
            labels:
              instance: "node2.example.com"

      注意

      利用 honor_labels 选项,Ceph 可以输出与 Ceph 存储集群中任何节点相关的正确标记数据。这允许 Ceph 在不使用 Prometheus 覆盖的情况下导出正确的 实例 标签。

    3. 要添加新节点,只需以以下格式添加 目标和 实例 选项:

      示例

      - targets: [ 'new-node.example.com:9100' ]
        labels:
          instance: "new-node"

      注意

      实例 标签必须与 Ceph OSD 元数据 实例 字段中出现的内容匹配,即节点的短主机名。这有助于将 Ceph 统计数据与节点的统计信息相关联。

  2. 以以下格式将 Ceph 目标添加到 /etc/prometheus/ceph_targets.yml 文件:

    示例

    [
        {
            "targets": [ "cephnode1.example.com:9283" ],
            "labels": {}
        }
    ]

  3. 启用 Prometheus 模块:

    [root@mon ~]# ceph mgr module enable prometheus

7.8. 查看和管理警报

作为存储管理员,您可以在 Red Hat Ceph Storage 仪表板上查看警报详情,并为它们创建静默。这包括以下预定义警报:

  • OSD 关闭
  • Ceph 健康错误
  • Ceph 健康警告
  • 集群容量低
  • 近乎完全的磁盘
  • MONDown
  • 网络错误
  • OSD 主机丢失检查
  • OSD 主机关闭
  • 带有 High PG 数的 OSD
  • PG
  • 池容量低
  • OSD 响应速度较慢

7.8.1. 查看警报

警报触发后,您可以在红帽 Ceph 存储仪表板上查看该警报。您还可以启用仪表板来发送关于警报的电子邮件。

前提条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 触发警报。

流程

  1. 登录控制面板。
  2. 在仪表板中自定义 alert 模块 以获取存储集群的电子邮件警报:

    1. 在导航栏中,单击 Cluster
    2. 选择 Manager 模块
    3. 选择 alarm 模块。
    4. Edit 下拉菜单中,选择 Edit。
    5. Edit Manager 模块 中,更新所需的参数并点 Update

      图 7.1. 为警报编辑管理器模块

      为警报编辑管理器模块
  3. 在导航栏中,单击 Cluster
  4. 从下拉菜单中选择 Monitoring
  5. 要查看警报的详情,请点击其行:

    图 7.2. 警报详情

    警报详情
  6. 若要查看警报的来源,可单击其行,然后单击 Source

7.8.2. 创建静默

您可以在 Red Hat Ceph Storage Dashboard 上为警报创建一个静默。

前提条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 触发警报。

流程

  1. 登录控制面板。
  2. 在导航栏中,单击 Cluster
  3. 从下拉菜单中选择 Monitoring
  4. 单击警报所在的行,然后单击 +Create Silence
  5. CreateSilence 窗口中,添加 持续时间 的详细信息,再单击 Create Silence

    图 7.3. 创建 Silence

    创建 Silence
  6. 您将收到一个通知,提示已成功创建静默。

7.8.3. 重新创建静默

您可以从 Red Hat Ceph Storage Dashboard 上的已过期静默重新创建静默。

前提条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 触发警报。
  • 为警报创建的静默。

流程

  1. 登录控制面板。
  2. 从下拉菜单中选择 Monitoring
  3. 单击 Silences 选项卡。
  4. 点击已过期静默所在的行。
  5. 单击" 重新创建 "按钮。
  6. RecreateSilence 窗口中,添加详情并点击 RecreateSilence

    图 7.4. 重新创建静默

    重新创建 Silence
  7. 您将收到一个通知,提示已成功重新创建静默。

7.8.4. 编辑静默

例如,您可以编辑活跃的静默来延长在 Red Hat Ceph Storage Dashboard 上激活的时间。如果静默已过期,您可以重新创建静默或为警报创建新静默。

前提条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 触发警报。
  • 为警报创建的静默。

流程

  1. 登录控制面板。
  2. 在导航栏中,单击 Cluster
  3. 从下拉菜单中选择 Monitoring
  4. 单击 Silences 选项卡。
  5. 点击静默所在的行。
  6. Edit 下拉菜单中,选择 Edit
  7. EditSilence 窗口中,更新详情并点击 Edit Silence

    图 7.5. 编辑静默

    编辑 Silence
  8. 您可以收到一个通知,提示已成功更新静默。

7.8.5. 使静默到期

您可以使静默到期,因此在 Red Hat Ceph Storage Dashboard 上不会阻止任何匹配的警报。

前提条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 触发警报。
  • 为警报创建的静默。

流程

  1. 登录控制面板。
  2. 在导航栏中,单击 Cluster
  3. 从下拉菜单中选择 Monitoring
  4. 单击 Silences 选项卡。
  5. 点击静默所在的行。
  6. Edit 下拉菜单中,选择 Expire
  7. Expire Silence 对话框中,选择"是" ,我确定,然后单击 Expire Silence

    图 7.6. 过期 Silence

    过期 Silence
  8. 您将收到一个通知,表示静默已成功过期。

7.8.6. 其它资源

7.9. 管理池

作为存储管理员,您可以创建、删除和编辑池。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板

7.9.1. 创建池

您可以创建池以对存储对象进行逻辑分区。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。

流程

  1. 登录控制面板。
  2. 在导航栏上,单击 Pools

    点池
  3. 单击页面左上角的 创建 按钮。

    点击 create
  4. 在对话框中,设置名称。

    设置名称
  5. 选择复制或 Erasure Coded(EC)池类型。

    选择池类型
  6. 设置放置组(PG)编号。

    设置 PG 号

    若要协助选择 PG 编号,可使用 PG 计算器。如果不确定,请联系红帽技术支持

  7. 可选: 如果使用复制池类型,请设置复制的大小。

    复制的大小
  8. 可选:如果使用 EC 池类型,请配置以下附加设置。

    1. 可选: 要查看当前选择的 EC 配置集的设置,请点击问标记。

      EC 配置文件设置
      1. 将显示所选 EC 配置文件的设置表。

        EC 配置文件表
    2. 可选:点击加号符号添加新的 EC 配置文件。

      单击加号符号
      1. 将新 EC 配置文件的名称设置为 1,单击 2 处和修改所有所需设置后,单击有关该设置的信息的任何问号符号,单击 Create EC Profile,网址为 3

        EC 配置文件对话框
      2. 选择新的 EC 配置文件。

        选择新的 EC 配置文件
    3. 可选: 如果需要 EC 覆盖,请点击其按钮。

      EC overwites
  9. 可选:点击铅笔符号为池选择应用程序。

    选择应用程序类型
  10. 可选: 如果需要压缩,请选择 被动积极 或强制

    压缩选择
  11. 单击 创建池 按钮。

    点 Create Pool
  12. 指向页面右上角的通知表示池创建成功。

    池创建的通知

其它资源

7.9.2. 编辑池

红帽 Ceph 存储控制面板允许编辑池。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已创建一个池。

流程

  1. 登录控制面板。
  2. 在导航栏上,单击 Pools

    单击池菜单
  3. 要编辑池,请点击其行:

    单击池
  4. 选择 Edit In the Edit 下拉菜单:

    点 Edit
  5. 在对话窗口中,编辑所需的参数并点击 EditPool 按钮:

    编辑池窗口
  6. 指向页面右上角的通知表示池已成功更新。

    池编辑通知

其它资源

  • 有关更多信息,请参见《 红帽 Ceph 存储架构指南》 中的 Ceph
  • 有关压缩模式的更多信息,请参见《 红帽 Ceph 存储策略指南》 中的 池值

7.9.3. 删除池

红帽 Ceph 存储控制面板允许删除池。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已创建一个池。

流程

  1. 登录控制面板。
  2. 确保 mon_allow_pool_delete 的值被设置为 true

    1. 在导航栏上,单击 Cluster,然后单击 Configuration
    2. Level 下拉菜单中选择 Advanced:

      点 Levels 下拉菜单
    3. 搜索 mon_allow_pool_delete,并将值设置为 true

      编辑配置
  3. 在导航栏中点 Pools

    单击池菜单
  4. 要删除池,请点击其行:

    单击池
  5. Edit 下拉菜单中选择 Delete

    点 Delete
  6. Delete Pool 对话框中,单击 Yes,我确定 复选框,然后单击 Delete Pool 保存设置:

    删除池窗口
  7. 页面右上角的通知表示已成功删除池。

    池删除通知

其它资源

  • 有关更多信息,请参见《 红帽 Ceph 存储架构指南》 中的 Ceph
  • 如需了解更多信息,请参见《 红帽 Ceph 存储控制面板指南》 中的 监控配置
  • 有关压缩模式的更多信息,请参见《 红帽 Ceph 存储策略指南》 中的 池值

第 8 章 对象网关

作为存储管理员,您可以通过控制面板的对象网关功能管理和监控 Ceph 对象网关。

例如,监控功能允许您查看网关守护进程的详细信息,如区域名称或 GET 和 PUT 费率的性能图。通过管理功能,您可以查看、创建和编辑用户和存储桶。

对象网关功能划分在守护进程功能、用户功能和 bucket 功能之间。

8.1. 先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已安装 Ceph 对象网关。

8.2. 对象网关守护进程功能

作为存储管理员,您可以通过红帽 Ceph 存储控制面板查看和监控 Ceph 对象网关守护进程的相关信息。

8.2.1. 先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已安装 Ceph 对象网关。
  • 对象网关登录凭据添加到控制面板。

8.2.2. 查看对象网关守护进程

您可以通过控制面板查看所有 Ceph 对象网关守护进程的列表。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已安装 Ceph 对象网关。
  • 对象网关登录凭据添加到控制面板。

流程

  1. 登录控制面板。
  2. 在导航栏中,单击 Object Gateway

    点 Object Gateway
  3. 单击 Daemons

    点 Daemons
  4. 在以下示例中,您可以在 Daemons 列表中看到 ID jb-ceph4-rgw.rgw0 的守护进程。

    列表中的守护进程
  5. 要查看详情,请点击 jb-ceph4-rgw.rgw.rgw0 所在的行来选择守护进程:

    守护进程详情

    您可以看到守护进程服务的区域名称是 默认值

其它资源

8.3. 对象网关用户功能

作为存储管理员,您可以通过红帽 Ceph 存储控制面板来查看和管理 Ceph 对象网关用户。

8.3.1. 先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已安装 Ceph 对象网关。
  • 对象网关登录凭据添加到控制面板。

8.3.2. 查看对象网关用户

您可以通过控制面板查看所有 Ceph 对象网关用户的列表。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已安装 Ceph 对象网关。
  • 对象网关登录凭据添加到控制面板。

流程

  1. 登录控制面板。
  2. 在导航栏中,单击 Object Gateway

    点 Object Gateway
  3. 单击 Users

    点 Users
  4. 在以下示例中,您可以在表中看到名为 rgw-user 的用户。

    user in list
  5. 要查看详情,请点击 rgw-user 所在的行来选择用户

    用户详情

其它资源

8.3.3. 创建对象网关用户

您可以通过控制面板创建 Ceph 对象网关用户。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已安装 Ceph 对象网关。
  • 对象网关登录凭据添加到控制面板。

流程

  1. 登录控制面板。
  2. 在导航栏中,单击 Object Gateway

    点 Object Gateway
  3. 单击 Users

    点 Users
  4. Create

    user in list
  5. 设置用户名、全名,并根据需要编辑最大 bucket 数量。

    创建用户对话框基本设置
  6. 可选:设置电子邮件地址或暂停状态。

    设置电子邮件地址或暂停状态
  7. 可选:通过取消选中 自动生成密钥来设置自定义 access key 和 secret key

    1. 取消选中 Auto-generate 键

      取消选中 Aut-generate 键
    2. 设置 access key 和 secret key:

      设置自定义 access key 和 secret key
  8. 可选:设置用户配额。

    1. 检查 User 配额 下启用

      检查是否启用
    2. 取消选中 无限大小无限制对象

      取消选中无限大小或 Unlimted 对象
    3. 为 Max. size 或 Max. 对象 输入所需的值:

      为 Max. size 和 Max. 对象输入值
  9. 可选:设置存储桶配额。

    1. 检查 Bucket 配额 下的 Enabled:

      检查是否启用
    2. 取消选中 无限大小无限制对象

      取消选中无限大小或 Unlimted 对象
    3. 为 Max. size 或 Max. 对象 输入所需的值:

      为 Max. size 和 Max. 对象输入值
  10. 单击 Create User,以完成用户创建。

    点 Create User
  11. 验证用户创建是否成功。通知确认已创建了用户,可以在用户表中看到该用户。

    验证该用户已创建好

其它资源

8.3.4. 编辑对象网关用户

您可以通过控制面板编辑 Ceph 对象网关用户。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已安装 Ceph 对象网关。
  • 对象网关登录凭据添加到控制面板。
  • 创建 Ceph 对象网关用户。

流程

  1. 登录控制面板。
  2. 在导航栏中点 Object Gateway

    点 Object Gateway
  3. Users:

    点 Users
  4. 要编辑用户功能,请点击其行:

    单击用户行
  5. 选择 Edit In the Edit 下拉菜单:

    点 Edit
  6. EditUser 窗口中,编辑所需的参数并点击 EditUser 按钮:

    编辑用户窗口
  7. 页面右上角的通知表示用户已成功更新。

    用户编辑通知

8.3.5. 删除对象网关用户

您可以通过控制面板删除 Ceph 对象网关用户。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已安装 Ceph 对象网关。
  • 对象网关登录凭据添加到控制面板。
  • 创建 Ceph 对象网关用户。

流程

  1. 登录控制面板。
  2. 在导航栏中点 Object Gateway

    点 Object Gateway
  3. Users:

    点 Users
  4. 要删除用户,请点击其行:

    单击用户行
  5. Edit 下拉列表中选择 Delete

    点 Delete
  6. Delete User 对话框窗口中,点击 Yes,我确定 框,然后单击 Delete User 保存设置:

    删除用户窗口

8.3.6. 创建对象网关子用户

子用户与 S3 接口的用户关联。您可以通过控制面板创建 Ceph 对象网关子用户。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已安装 Ceph 对象网关。
  • 对象网关登录凭据添加到控制面板。
  • 已创建对象网关用户。

流程

  1. 登录控制面板。
  2. 在导航栏中,单击 Object Gateway

    点 Object Gateway
  3. 从下拉菜单中选择 Users

    点 Users
  4. 在下例中,您可以在表中看到名为 ceph-dashboard 的用户。单击该用户所在的行来选择该用户。

    选择用户
  5. 单击 Edit 下拉菜单,然后选择 Edit

    编辑下拉列表
  6. 单击 +CreateSubuser 按钮。

    创建 Subuser
  7. 输入 Subuser 名称并选择适当的权限。

    设置 Subuser username
  8. 单击 自动生成机密 框,然后单击 Create Subuser 按钮。

    创建 Subuser 对话框窗口
    注意

    通过单击 Auto-generate-secret 复选框,对象网关的机密密钥会自动生成。

  9. Edit User 窗口中,单击 Edit user 按钮。

    在窗口中编辑用户
  10. 验证子用户创建是否成功。此时会弹出一个位于页面右上角的通知,表示 Object Gateway 用户已成功更新。

    对象网关用户更新通知

其它资源

8.4. 对象网关存储桶功能

作为存储管理员,您可以通过红帽 Ceph 存储控制面板来查看和管理 Ceph 对象网关存储桶。

8.4.1. 先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已安装 Ceph 对象网关。
  • 对象网关登录凭据添加到控制面板。

8.4.2. 查看对象网关存储桶

您可以通过控制面板查看和管理 Ceph 对象网关存储桶。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已安装 Ceph 对象网关。
  • 对象网关登录凭据添加到控制面板。
  • 已创建一个对象网关 bucket。

流程

  1. 登录控制面板。
  2. 在导航栏中,单击 Object Gateway

    点 Object Gateway
  3. Buckets

    点 Buckets
  4. 在以下示例中,您可以在表中看到名为 my-bucket 的存储桶。

    bucket in list
  5. 若要查看详细信息,可单击 my-bucket 所在的行来选择存储桶。

    bucket 详情

其它资源

8.4.3. 创建对象网关存储桶

您可以通过控制面板创建 Ceph 对象网关存储桶。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已安装 Ceph 对象网关。
  • 对象网关登录凭据添加到控制面板。
  • 系统将创建一个未暂停的对象网关用户。

流程

  1. 登录控制面板。
  2. 在导航栏中,单击 Object Gateway

    点 Object Gateway
  3. Buckets

    点 Buckets
  4. Create

    点 Create
  5. 输入 Name 值并选择未暂停的用户。

    设置名称和用户
  6. Create bucket

    点 Create Bucket
  7. 验证存储桶创建是否成功。个通知确认已创建了存储桶,并且 bucket 表中可看到存储桶。

    验证存储桶已创建

其它资源

8.4.4. 编辑对象网关存储桶

您可以通过控制面板编辑 Ceph 对象网关存储桶。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已安装 Ceph 对象网关。
  • 对象网关登录凭据添加到控制面板。
  • 系统将创建一个未暂停的 Ceph 对象网关用户。
  • 已创建一个 Ceph 对象网关 bucket。

流程

  1. 登录控制面板。
  2. 在导航栏中点 Object Gateway

    点 Object Gateway
  3. Buckets:

    点 Buckets
  4. 要编辑存储桶,请点击其行:

    点击存储桶行
  5. 选择 Edit In the Edit 下拉菜单:

    点 Edit
  6. EditBucket 窗口中,编辑所需的参数并点击 EditBucket 按钮:

    编辑 Bucket 窗口
  7. 页面右上角的通知表示存储桶已被成功更新。

    bucket 编辑通知

其它资源

8.4.5. 删除对象网关存储桶

您可以通过控制面板删除 Ceph 对象网关存储桶。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已安装 Ceph 对象网关。
  • 对象网关登录凭据添加到控制面板。
  • 系统将创建一个未暂停的 Ceph 对象网关用户。
  • 已创建一个 Ceph 对象网关 bucket。

流程

  1. 登录控制面板。
  2. 在导航栏中点 Object Gateway

    点 Object Gateway
  3. Buckets:

    点 Buckets
  4. 要删除存储桶,请点击其行:

    点击存储桶行
  5. Edit 下拉列表中选择 Delete

    点 Delete
  6. Delete Bucket 对话框中,点击 Yes、I am sure 框,然后单击 Delete bucket 以保存设置:

    删除 Bucket 窗口

8.5. 在仪表板中手动添加对象网关登录凭证

红帽 Ceph 存储控制面板可以管理 Ceph 对象网关,也称为 RADOS 网关或 RGW。若要管理 Ceph 对象网关,控制面板必须使用 RGW 用户的登录凭据和 system 标志进行连接。使用 ceph-ansible 安装 Object Gateway 时,它会自动将登录凭据添加到控制面板。也可以手动设置登录凭据。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已安装 Ceph 对象网关。

流程

  1. 获取启用了 系统 标记的 RGW 用户的 access _key 和 secret_key

    • 如果您没有启用 系统 标记的 RGW 用户,请创建一个。

      radosgw-admin user create --uid=USER_ID --display-name=DISPLAY_NAME --system

      例如:

      [root@mon ~]# radosgw-admin user create --uid=rgw-user --display-name=RGW-user --system
      {
          "user_id": "rgw-user",
          "display_name": "RGW-user",
          "email": "",
          "suspended": 0,
          "max_buckets": 1000,
          "subusers": [],
          "keys": [
              {
                  "user": "rgw-user",
                  "access_key": "BYC5SWQQH24A2BFHS2RC",
                  "secret_key": "159d94uHK9ADiWZrGsNYWYjRXCDrhL2xVi8PO6kT"
              }
          ],
          "swift_keys": [],
          "caps": [],
          "op_mask": "read, write, delete",
          "system": "true",
          "default_placement": "",
          "default_storage_class": "",
          "placement_tags": [],
          "bucket_quota": {
              "enabled": false,
              "check_on_raw": false,
              "max_size": -1,
              "max_size_kb": 0,
              "max_objects": -1
          },
          "user_quota": {
              "enabled": false,
              "check_on_raw": false,
              "max_size": -1,
              "max_size_kb": 0,
              "max_objects": -1
          },
          "temp_url_keys": [],
          "type": "rgw",
          "mfa_ids": []
      }

      记录 access_key 和 secret_ key 的值。在上例中,access _keyBYC5SWQH24A2BFHS2RCsecret_key 为 159d94uHK9ADiWZrGsNYWYjRXCDrhL2xVi8PO6kT

    • 如果已经创建了启用了 系统标记的 RGW 用户,请使用 radosgw-admin 实用程序 的用户 info 命令获取凭据。

      radosgw-admin user info --uid=USER_ID

      例如:

      [root@mon ~]# radosgw-admin user info --uid=rgw-user
      {
          "user_id": "rgw-user",
          "display_name": "RGW-user",
          "email": "",
          "suspended": 0,
          "max_buckets": 1000,
          "subusers": [],
          "keys": [
              {
                  "user": "rgw-user",
                  "access_key": "BYC5SWQQH24A2BFHS2RC",
                  "secret_key": "159d94uHK9ADiWZrGsNYWYjRXCDrhL2xVi8PO6kT"
              }
          ],
          "swift_keys": [],
          "caps": [],
          "op_mask": "read, write, delete",
          "system": "true",
          "default_placement": "",
          "default_storage_class": "",
          "placement_tags": [],
          "bucket_quota": {
              "enabled": false,
              "check_on_raw": false,
              "max_size": -1,
              "max_size_kb": 0,
              "max_objects": -1
          },
          "user_quota": {
              "enabled": false,
              "check_on_raw": false,
              "max_size": -1,
              "max_size_kb": 0,
              "max_objects": -1
          },
          "temp_url_keys": [],
          "type": "rgw",
          "mfa_ids": []
      }

      记录 access_key 和 secret_ key 的值。在上例中,access _keyBYC5SWQH24A2BFHS2RCsecret_key 为 159d94uHK9ADiWZrGsNYWYjRXCDrhL2xVi8PO6kT

  2. 为仪表板提供 access_keysecret_key 凭证:

    1. 向控制面板 提供 access_key

      ceph dashboard set-rgw-api-access-key ACCESS_KEY

      例如:

      [root@mon ~]# ceph dashboard set-rgw-api-access-key BYC5SWQQH24A2BFHS2RC
      Option RGW_API_ACCESS_KEY updated
    2. secret_key 提供给控制面板。

      ceph dashboard set-rgw-api-secret-key SECRET_KEY

      例如:

      [root@mon ~]# ceph dashboard set-rgw-api-secret-key 159d94uHK9ADiWZrGsNYWYjRXCDrhL2xVi8PO6kT
      Option RGW_API_SECRET_KEY updated
  3. 向仪表板提供对象网关的主机名和端口:

    1. 向控制面板提供主机名。

      ceph dashboard set-rgw-api-host HOST_NAME

      例如:

      [root@mon ~]# ceph dashboard set-rgw-api-host 192.168.122.193
      Option RGW_API_HOST updated
    2. 向控制面板提供端口。

      ceph dashboard set-rgw-api-port PORT

      例如:

      [root@mon ~]# ceph dashboard set-rgw-api-port 8080
      Option RGW_API_PORT updated
  4. 可选:如果您使用带有自签名证书的 HTTPS,请在仪表板中禁用证书验证以避免拒绝的连接。

    当证书由未知证书颁发机构签名,或者使用的主机名与证书中的主机名不匹配时,可能会发生拒绝的连接。

    ceph dashboard set-rgw-api-ssl-verify false

    例如:

    [root@mon ~]# ceph dashboard set-rgw-api-ssl-verify false
    Option RGW_API_SSL_VERIFY updated

其它资源

第 9 章 块设备

9.1. 块设备简介

通过控制面板的块设备功能,您可以管理和监控块设备镜像。功能分为通用镜像功能、镜像功能、iSCSI 功能和服务质量配置。例如,您可以创建新镜像,查看跨集群镜像的镜像状态,管理或监控 iSCSI 目标,并对镜像设置 IOPS 限制。

9.2. 镜像功能

控制面板提供与管理和监控镜像相关的多种功能。

9.2.1. 先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。

9.2.2. 创建镜像

您可以通过控制面板创建镜像。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已创建一个启用了 rbd 应用的池。

流程

  1. 登录控制面板。
  2. 在导航栏中点击 Block:

    点 Block
  3. 从下拉菜单中选择 Images

    从下拉菜单中选择 Images
  4. Images 选项卡中,点击 Create 按钮:

    创建镜像
  5. CreateRBD 窗口中输入参数:

    创建镜像窗口
  6. 可选:点 Advanced 并设置参数:

    创建镜像高级设置
    创建镜像高级设置参数
  7. 点击 CreateRBD 按钮:

    单击 Create RBD
  8. 指向页面右上角的通知表示该镜像已成功创建。

    镜像创建通知

9.2.3. 查看镜像

您可以通过控制面板查看镜像。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 镜像位于 集群中。

流程

  1. 登录控制面板。
  2. 在导航栏中,单击 Block
  3. Images

    Image 视图

    在上例中,您可以看到名为 disk_1 的 10 GiB 镜像。

  4. 要查看详情,请点击 disk_1 所在的行来选择镜像:

    Image 视图详情

其它资源

9.2.4. 编辑镜像

仪表板允许您编辑镜像

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已创建一个启用了 rbd 应用的池。
  • 已创建一个镜像。

流程

  1. 登录控制面板。
  2. 在导航栏中点击 Block:

    点 Block
  3. 从下拉菜单中选择 Images

    从下拉菜单中选择 Images
  4. 要编辑镜像,在 Images 选项卡中点其行:

    点 Image 行
  5. 选择 Edit In the Edit 下拉菜单:

    点 Edit
  6. EditRBD 对话框中,编辑所需的参数并点击 EditRBD 按钮:

    编辑镜像对话框
  7. 页面右上角的通知表示镜像已成功更新。

    镜像编辑通知

其它资源

  • 如需更多信息,请参阅《 红帽 Ceph 存储控制面板指南》 中的 创建镜像 部分。

9.2.5. 复制镜像

您可以通过控制面板复制镜像。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已创建一个启用了 rbd 应用的池。
  • 已创建一个镜像。

流程

  1. 登录控制面板。
  2. 在导航栏中点击 Block:

    点 Block
  3. 从下拉菜单中选择 Images

    从下拉菜单中选择 Images
  4. 要复制镜像,在 Images 选项卡中点其行:

    点 Image 行
  5. 选择 Copy In the Edit 下拉菜单:

    点 Copy
  6. CopyRBD 窗口中,编辑所需的参数并点击 CopyRBD 按钮:

    复制镜像窗口
  7. 页面右上角的通知表示镜像已成功更新。

    复制镜像通知

其它资源

  • 如需更多信息,请参阅《 红帽 Ceph 存储控制面板指南》 中的 创建镜像 部分。

9.2.6. 将镜像移到回收站

您可以通过控制面板将镜像移到回收站。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已创建一个启用了 rbd 应用的池。
  • 已创建一个镜像。

流程

  1. 登录控制面板。
  2. 在导航栏中点击 Block:

    点 Block
  3. 从下拉菜单中选择 Images

    从下拉菜单中选择 Images
  4. 要将镜像移到回收站,在 Images 选项卡中点击其行:

    点 Image 行
  5. 选择 Move to Trash In the Edit 下拉菜单:

    点 Move to回收站
  6. Moving a image to trash 窗口中,编辑镜像需要保护的日期,然后点击 Move Image 按钮:

    将映像移动到回收窗口
  7. 页面右上角的通知表示镜像被移到回收站中成功。

    将映像移到回收站通知中

9.2.7. 清除回收站

您可以通过控制面板清除镜像的垃圾回收。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已创建一个启用了 rbd 应用的池。
  • 镜像被垃圾回收。

流程

  1. 登录控制面板。
  2. 在导航栏中点击 Block:

    点 Block
  3. 从下拉菜单中选择 Images

    从下拉菜单中选择 Images
  4. 垃圾箱 中点击 清除回收 按钮:

    点击清除垃圾箱
  5. 清除垃圾回收窗口中,选择池,然后点击 清除垃圾箱 按钮:

    清除垃圾窗口
  6. 页面右上角的通知表示已成功从所选池中清除镜像。

    从回收通知中清除

其他资源

9.2.8. 从回收站中恢复镜像

您可以通过控制面板从回收站中恢复镜像。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已创建一个启用了 rbd 应用的池。
  • 镜像被垃圾回收。

流程

  1. 登录控制面板。
  2. 在导航栏中点击 Block:

    点 Block
  3. 从下拉菜单中选择 Images

    从下拉菜单中选择 Images
  4. 要从回收站中恢复镜像,在 Trash 选项卡中点击其行:

    在垃圾箱中点 Image 行
  5. Restore 下拉列表中选择 Restore

    点 Restore
  6. Restore Image 窗口中,输入镜像的名称,然后单击 Restore Image 按钮:

    从回收窗口恢复
  7. 指向页面右上角的通知表示镜像已成功从回收站中恢复。

    从回收通知中恢复

其他资源

  • 如需了解有关在 RBD 池中 创建镜像 的更多详细信息,请参阅《 红帽 Ceph 存储控制面板指南》 中的创建镜像部分。

9.2.9. 删除镜像

您可以通过控制面板删除镜像。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已创建一个启用了 rbd 应用的池。
  • 已创建一个镜像。

流程

  1. 登录控制面板。
  2. 在导航栏中点击 Block:

    点 Block
  3. 从下拉菜单中选择 Images

    从下拉菜单中选择 Images
  4. 要编辑镜像,在 Images 选项卡中点其行:

    点 Image 行
  5. Edit 下拉列表中选择 Delete

    点 Delete
  6. Delete RBD 对话框中,单击 Yes,我确定 复选框,然后单击 Delete RBD 以保存设置:

    删除镜像窗口
  7. 页面右上角的通知表示镜像被移到回收站中成功。

    删除镜像通知

9.2.10. 创建镜像快照

您可以通过控制面板获取 Ceph 块设备镜像的快照。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已创建一个启用了 rbd 应用的池。
  • 已创建一个镜像。

流程

  1. 登录控制面板。
  2. 在导航栏中点击 Block:

    点 Block
  3. 从下拉菜单中选择 Images

    从下拉菜单中选择 Images
  4. 要获取镜像快照,在 Images 选项卡中点其行,然后点 Snapshots 选项卡:

    点 Snapshots 标签页
  5. 在 Create 下拉菜单中选择 Create

    创建镜像快照
  6. CreateRBD Snapshot 对话框中,输入参数并点击 CreateRBD Snapshot 按钮:

    为映像对话框创建快照
  7. 页面右上角的通知表示已成功创建镜像快照。

    创建镜像通知快照

其它资源

9.2.11. 重命名映像快照

您可以通过控制面板重命名 Ceph 块设备镜像的快照。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已创建一个启用了 rbd 应用的池。
  • 已创建一个镜像。
  • 创建映像快照。

流程

  1. 登录控制面板。
  2. 在导航栏中点击 Block:

    点 Block
  3. 从下拉菜单中选择 Images

    从下拉菜单中选择 Images
  4. 要重命名镜像快照,在 Images 选项卡中点击其行,然后点 Snapshots 选项卡:

    点 Snapshots 标签页
  5. Rename 下拉菜单中选择 Rename:

    重命名镜像的快照
  6. 在 Rename RBD Snapshot 对话框中,输入参数并点击 Rename RBD Snapshot 按钮:

    重命名映像对话框的快照
  7. 页面右上角的通知表示已成功更新镜像快照。

    镜像通知的快照更新

其它资源

9.2.12. 保护镜像快照

您可以通过控制面板保护 Ceph 块设备镜像的快照。当您需要克隆快照时,这是必需的。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已创建一个启用了 rbd 应用的池。
  • 已创建一个镜像。
  • 创建映像快照。

流程

  1. 登录控制面板。
  2. 在导航栏中点击 Block:

    点 Block
  3. 从下拉菜单中选择 Images

    从下拉菜单中选择 Images
  4. 要保护镜像快照,在 Images 选项卡中点其行,然后点 Snapshots 选项卡:

    点 Snapshots 标签页
  5. 在 Rename 下拉菜单中选择 Protect

    保护镜像的快照
  6. 页面右上角的通知表示已成功更新镜像快照。

    镜像通知的快照更新

其它资源

9.2.13. 克隆镜像快照

您可以通过控制面板克隆 Ceph 块设备镜像的快照。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已创建一个启用了 rbd 应用的池。
  • 已创建一个镜像。
  • 创建映像快照。
  • 镜像的快照受到保护。

流程

  1. 登录控制面板。
  2. 在导航栏中点击 Block:

    点 Block
  3. 从下拉菜单中选择 Images

    从下拉菜单中选择 Images
  4. 要克隆镜像快照,在 Images 选项卡中点击其行,然后点击 Snapshots 选项卡:

    点 Snapshots 标签页
  5. 在 Rename 下拉菜单中选择 Clone

    重命名镜像的快照
  6. CloneRBD 对话框中,输入参数并点击 CloneRBD 按钮:

    为映像对话框克隆快照
  7. 页面右上角的通知表示已成功克隆镜像快照。

    镜像通知快照克隆

其它资源

9.2.14. 复制镜像快照

您可以通过控制面板复制 Ceph 块设备镜像的快照。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已创建一个启用了 rbd 应用的池。
  • 已创建一个镜像。
  • 创建映像快照。

流程

  1. 登录控制面板。
  2. 在导航栏中点击 Block:

    点 Block
  3. 从下拉菜单中选择 Images

    从下拉菜单中选择 Images
  4. 要复制镜像快照,在 Images 选项卡中点其行,然后点 Snapshots 选项卡:

    点 Snapshots 标签页
  5. 在 Rename 下拉列表中选择 Copy

    镜像复制快照
  6. CopyRBD 对话框中,输入参数并点击 CopyRBD 按钮:

    重命名映像对话框的快照
  7. 页面右上角的通知表示已成功更新镜像快照。

    镜像通知的副本快照

其它资源

9.2.15. 回滚镜像快照

您可以通过控制面板回滚 Ceph 块设备镜像的快照。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已创建一个启用了 rbd 应用的池。
  • 已创建一个镜像。
  • 创建映像快照。

流程

  1. 登录控制面板。
  2. 在导航栏中点击 Block:

    点 Block
  3. 从下拉菜单中选择 Images

    从下拉菜单中选择 Images
  4. 要回滚镜像快照,在 Images 选项卡中点击其行,然后点 Snapshots 选项卡:

    点 Snapshots 标签页
  5. 在 Rename 下拉列表 中选择 Rollback

    镜像的回滚快照
  6. RBD 快照回滚 窗口中,点击 Rollback 按钮:

    镜像窗口的回滚快照
  7. 页面右上角的通知表示已成功回滚镜像快照。

    镜像通知的回滚快照

9.2.16. 取消保护镜像快照

您可以通过控制面板取消保护 Ceph 块设备镜像的快照。当您需要删除快照时,这是必需的。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已创建一个启用了 rbd 应用的池。
  • 已创建一个镜像。
  • 创建映像快照。
  • 镜像的快照受到保护。

流程

  1. 登录控制面板。
  2. 在导航栏中点击 Block:

    点 Block
  3. 从下拉菜单中选择 Images

    从下拉菜单中选择 Images
  4. 要取消保护镜像快照,在 Images 选项卡中点击其行,然后点击 Snapshots 选项卡:

    点 Snapshots 标签页
  5. Rename 下拉菜单中选择 UnProtect

    取消保护镜像快照
  6. 页面右上角的通知表示已成功更新镜像快照。

    镜像通知的快照更新

其它资源

9.2.17. 删除镜像快照

您可以通过控制面板删除 Ceph 块设备镜像的快照。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已创建一个启用了 rbd 应用的池。
  • 已创建一个镜像。
  • 创建映像快照。
  • 镜像的快照不受保护。

流程

  1. 登录控制面板。
  2. 在导航栏中点击 Block:

    点 Block
  3. 从下拉菜单中选择 Images

    从下拉菜单中选择 Images
  4. 要删除镜像快照,在 Images 选项卡中点其行,然后点 Snapshots 选项卡:

    点 Snapshots 标签页
  5. 在 Rename 下拉列表中选择 Delete

    删除镜像的快照
  6. 页面右上角的通知表示已成功更新镜像快照。

    镜像通知的快照删除

其它资源

9.3. 镜像功能

仪表板允许您管理和监控镜像功能。

9.3.1. 先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。

9.3.2. 镜像视图

您可以通过仪表板查看镜像功能的整体状态。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 配置了镜像功能。

流程

  1. 登录控制面板。
  2. 在导航栏中,单击 Block
  3. 点镜像:

    Image 视图

    在上例中,您可以看到镜像信息,分类为标记为 Daemons池和 镜像的 表。

其它资源

9.3.3. 编辑模式

仪表板允许您编辑镜像功能整体状态的模式,其中包括池和镜像。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已创建一个启用了 rbd 应用的池。
  • 已创建一个镜像。
  • 配置了镜像功能。

流程

  1. 登录控制面板。
  2. 在导航栏中点击 Block:

    点 Block
  3. 从下拉菜单中选择 镜像:

    点 Mirroring
  4. 选项卡中点行:

    点击行
  5. Edit Mode 下拉菜单中,选择 Edit Mode:

    点击 Edit Mode
  6. Edit Pool mirror 模式 窗口中,从下拉菜单中选择模式,然后点击 Update 按钮:

    编辑模式窗口
  7. 页面右上角的通知表示已成功更新镜像模式。

    镜像模式编辑通知

9.3.4. 在镜像中添加 peer

通过控制面板,您可以为'rbd-daemon' 镜像添加存储集群对等点,以发现其对等存储集群。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已创建一个启用了 rbd 应用的池。
  • 已创建一个镜像。
  • 配置了镜像功能。

流程

  1. 登录控制面板。
  2. 在导航栏中点击 Block:

    点 Block
  3. 从下拉菜单中选择 镜像:

    点 Mirroring
  4. 选项卡中,单击 行

    点击行
  5. Edit Mode 下拉菜单中,选择 Add peer

    点 Add peer
  6. Add pool mirror peer 窗口中,输入参数,然后点击 Submit 按钮:

    添加对等窗口
  7. 页面右上角的通知表示镜像对等功能已成功创建。

    添加对等通知

其它资源

9.3.5. 编辑镜像中的对等

您可以通过控制面板编辑"rbd-daemon"镜像中的存储集群对等点,以发现其对等存储集群。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已创建一个启用了 rbd 应用的池。
  • 已创建一个镜像。
  • 配置了镜像功能。
  • 添加对等点。

流程

  1. 登录控制面板。
  2. 在导航栏中,单击 Block

    点 Block
  3. 从下拉菜单中选择 镜像:

    点 Mirroring
  4. 选项卡中,单击 行

    点击行
  5. Edit Mode 下拉菜单中,选择 Edit peer

    点 Edit peer
  6. Edit pool mirror peer 窗口中,编辑参数,然后点击 Submit 按钮:

    编辑对等窗口
  7. 指向页面右上角的通知表示镜像对等点已成功更新。

    编辑对等通知

其它资源

9.3.6. 删除镜像中的对等

您可以通过控制面板编辑"rbd-daemon"镜像中的存储集群对等点,以发现其对等存储集群。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已创建一个启用了 rbd 应用的池。
  • 已创建一个镜像。
  • 配置了镜像功能。
  • 添加对等点。

流程

  1. 登录控制面板。
  2. 在导航栏中,单击 Block

    点 Block
  3. 从下拉菜单中选择 镜像:

    点 Mirroring
  4. 选项卡中点行:

    点击行
  5. Edit Mode 下拉菜单中,选择 Delete peer

    点 Delete peer
  6. Delete mirror peer 对话框中,点 Yes, I am sure 框,然后单击 Delete mirror peer 以保存设置:

    删除镜像窗口
  7. 页面右上角的通知表示镜像被移到回收站中成功。

    删除对等通知

其它资源

9.4. iSCSI 功能

您可以通过控制面板管理和监控 iSCSI 镜像和目标。您必须向其添加网关并启用仪表板 iSCSI 功能,然后才能使用控制面板管理和监控 iSCSI 镜像和目标。

9.4.1. 先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • iSCSI 网关 添加到控制面板

9.4.2. 手动将 iSCSI 网关添加到仪表板

红帽 Ceph 存储控制面板可以利用 Ceph iSCSI 网关的 rbd-target-api 服务提供的 REST API 来管理 iSCSI 目标。您必须将 API 地址添加到仪表板,然后控制面板才能访问它。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已安装 Ceph iSCSI 网关。
重要

Ceph iSCSI 网关要求最小的两个网关来提供高可用性。

流程

  1. 登录 monitor 节点。
  2. 可选: 如果使用自签名证书以 HTTPS 模式配置 iSCSI 网关的 REST API,您必须配置仪表板,以避免在访问 API 时进行 SSL 证书验证。运行以下命令以禁用 SSL 验证:

    # ceph dashboard set-iscsi-api-ssl-verification false

    例如:

    [root@mon ~]# ceph dashboard set-iscsi-api-ssl-verification false
    Option ISCSI_API_SSL_VERIFICATION updated
  3. 在仪表板中添加至少两个网关中的第一个:

    # ceph dashboard iscsi-gateway-add SCHEME :// USERNAME : PASSWORD @ HOST [: PORT ]

    例如:

    [root@mon ~]# ceph dashboard iscsi-gateway-add http://admin:admin@192.168.122.157:5000
    Success
    注意

    配置 iSCSI 目标 时,会设置 USERNAMEPASSWORD。凭证可以从 iSCSI 网关节点上的 iscsi-gateway.cfg 文件中检索。

  4. 在仪表板中添加至少两个网关中的第二个:

    # ceph dashboard iscsi-gateway-add SCHEME :// USERNAME : PASSWORD @ HOST [: PORT ]

    例如:

    [root@mon ~]# ceph dashboard iscsi-gateway-add http://admin:admin@192.168.122.193:5000
    Success
    注意

    配置 iSCSI 目标 时,会设置 USERNAMEPASSWORD。凭证可以从 iSCSI 网关节点上的 iscsi-gateway.cfg 文件中检索。

  5. 验证网关是否已正确添加:

    # ceph dashboard iscsi-gateway-list

    例如:

    [root@mon ~]# ceph dashboard iscsi-gateway-list
    {"gateways": {"jb-ceph4-rgw": {"service_url": "http://admin:admin@192.168.122.193:5000"}, "jb-ceph4-osd1": {"service_url": "http://admin:admin@192.168.122.157:5000"}}}
  6. 可选:如果您添加网关时出错,您可以通过 iscsi-gateway-list 命令指定其主机名来删除该网关:

    # ceph dashboard iscsi-gateway-rm GATEWAY_NAME

    例如:

    [root@mon ~]# ceph dashboard iscsi-gateway-rm jb-ceph4-rgw
    Success

其它资源

9.4.3. iSCSI 概述

控制面板提供概述,显示通过 iSCSI 导出的 iSCSI 网关主机和镜像。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已安装 Ceph iSCSI 网关。
  • iSCSI 网关添加到控制面板。
  • 启用了控制面板 iSCSI 功能。

流程

  1. 登录控制面板。
  2. 在导航栏中,单击 Block
  3. iSCSI

    iSCSI 概述

其它资源

9.4.4. 创建 iSCSI 目标

您可以通过控制面板创建 iSCSI 目标。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • Ceph iSCSI 网关至少安装两个网关。
  • iSCSI 网关添加到控制面板。
  • 启用了控制面板 iSCSI 功能。
  • 启用 RBD 应用复制池。
  • 启用了 RBD 应用的纠删代码池。

流程

  1. 登录控制面板。
  2. 在导航栏中,单击 Block
  3. iSCSI

    iSCSI 概述
  4. 在页面左上角点 Targets 选项卡:

    iSCSI 目标
  5. 在页面左上角点击 Add 按钮:

    创建目标初始视图
  6. 可选:修改目标 IQN。

    修改目标 IQN
  7. 可选:为目标设置高级设置。

    1. 单击 gear,为目标设置高级设置。

      针对 Target IQN 进行高级设置的 gear
    2. Advanced Settings 对话框窗口中设置高级设置。

      目标 IQN 的高级设置
    3. 单击 Confirm 以保存设置。
  8. 点击 添加门户 按钮并选择至少两个网关中的第一个网关:

    添加门户一
  9. 点击 添加门户 按钮并选择至少两个网关中的第二个网关:

    添加附加网关

    对任何其他网关重复此步骤。

  10. 点击 Add image 按钮并选择目标导出的镜像:

    添加镜像

    对任何其他镜像重复此步骤。

  11. 可选:修改镜像。

    1. 点镜像右侧的 gear

      配置镜像的 gear
    2. 修改 Configure 对话框窗口中的镜像设置:

      配置镜像
    3. 单击 Confirm 以保存设置。
  12. 点击 ACL 身份验证 框,然后点击 Add initiator 按钮:

    ACL 身份验证和添加启动器
  13. 在第一个文本框中输入客户端的 IQN:

    客户端 IQN

    从运行启动器软件的系统检索客户端 IQN。如需更多信息,请参阅块设备 指南中的配置 iSCSI 启动器

  14. 为目标输入用户名和密码详情:

    添加启动器用户名和密码
  15. 点击 Add image 并选择镜像:

    添加镜像

    对任何其他镜像重复此步骤。

  16. 点击 Create Target 按钮完成此步骤:

    创建目标按钮
  17. Targets 页面中查找目标来验证是否添加了目标。

    要找到 Targets 页面,请遵循 仪表板指南 中的 查看 iSCSI 目标 的步骤。

其它资源

9.4.5. 查看 iSCSI 目标

您可以通过控制面板查看 iSCSI 目标。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 已安装 Ceph iSCSI 网关。
  • 已创建一个 iSCSI 目标。

流程

  1. 登录控制面板。
  2. 在导航栏中,点击 Block,然后点 iSCSI

    单击 Block,然后单击 iSCSI
  3. 在页面左上角点 Targets 选项卡:

    点 Targets
  4. 要查看目标详情,请点击其行:

    点目标行
  5. 您可以查看 iSCSI 拓扑,包括启动器是否登录:

    iSCSI 拓扑
  6. 点击对象查看有关它的详细信息:

    目标 IQN 详情

    注意:点击时仅有些对象显示详细信息。

其它资源

9.4.6. 编辑 iSCSI 目标

您可以通过控制面板编辑 iSCSI 目标。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • Ceph iSCSI 网关至少安装两个网关。
  • iSCSI 网关添加到控制面板。
  • 启用了控制面板 iSCSI 功能。
  • 启用 RBD 应用复制池。
  • 启用了 RBD 应用的纠删代码池。
  • 已创建一个 iSCSI 目标。

流程

  1. 登录控制面板。
  2. 在导航栏中,单击 Block
  3. iSCSI

    iSCSI 概述
  4. 在页面左上角点 Targets 选项卡:

    点 Targets
  5. 要编辑目标,请点击其行:

    点目标行
  6. 在页面左上角附近,单击 编辑 按钮。

    编辑目标初始视图
  7. 编辑参数并单击 编辑目标 按钮。

    编辑目标窗口
  8. Targets 页面中查找目标来验证已经编辑了目标。

    要找到 Targets 页面,请遵循 仪表板指南 中的 查看 iSCSI 目标 的步骤。

其它资源

9.4.7. 删除 iSCSI 目标

您可以通过控制面板删除 iSCSI 目标。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • Ceph iSCSI 网关至少安装两个网关。
  • iSCSI 网关添加到控制面板。
  • 启用了控制面板 iSCSI 功能。
  • 已创建一个 iSCSI 目标。
  • 断开所有 iSCSI 启动器.请参阅 断开 iSCSI 启动器 的连接。

流程

  1. 登录控制面板。
  2. 在导航栏中,单击 Block
  3. iSCSI

    iSCSI 概述
  4. 在页面左上角点 Targets 选项卡:

    点 Targets
  5. 要删除目标,请点击其行:

    点目标行
  6. 在页面左上角附近,单击 Edit 下拉。
  7. 在下拉菜单中选择 Delete:

    删除目标初始视图
  8. 单击是 ,我确定 框,然后单击 Delete iSCSI 以保存设置。

    删除 iSCSI 窗口

其它资源

9.4.8. 设置发现身份验证

控制面板使用 CHAP/CHAP_MUTUAL 允许发现身份验证。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • Ceph iSCSI 网关至少安装两个网关。
  • iSCSI 网关添加到控制面板。
  • 启用了控制面板 iSCSI 功能。
  • 启用 RBD 应用复制池。
  • 启用了 RBD 应用的纠删代码池。

流程

  1. 登录控制面板。
  2. 在导航栏中,单击 Block
  3. iSCSI

    iSCSI 概述
  4. 在页面左上角附近,单击 Targets 选项卡。

    iSCSI 目标
  5. 在页面左上角附近,单击 发现身份验证 按钮。

    发现验证
  6. Discovery Authentication 窗口中,提供详细信息,然后单击 Submit 按钮。

    发现身份验证窗口

9.5. 服务质量配置

作为存储管理员,您可以使用服务质量(QoS)限制来排列池或映像性能的优先级或降低其优先级,以便所有映像获取满足特定业务需求所需的资源。

9.5.1. 先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。

9.5.2. 在现有镜像上配置服务质量

作为存储管理员,您可以使用服务质量(QoS)限制来预先划分或取消对现有镜像的性能进行优先排序。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 启用 RBD 应用复制池。
  • 启用了 RBD 应用的纠删代码池。
  • 现有镜像。

流程

  1. 登录控制面板。
  2. 在导航栏中,点击 Block,然后点 Images

    单击 Block,然后单击 Images。
  3. 点击镜像行选择它进行编辑:

    选择一个镜像。
  4. Edit 按钮:

    单击编辑按钮。
  5. 在对话的右下角点击 Advanced:

    点 Advanced…​
  6. 点击 服务质量旁边的加号打开 QoS 设置:

    打开 QoS 设置。
  7. 可选:点击单个设置旁边的问号符号来查找更多信息。

    单击问号符号。
  8. 为您要更改的 QoS 设置输入或编辑值:

    输入 QoS 设置的值。
  9. 可选:点击任何设置的纠删符号来删除本地值,并从父池或全局配置继承该值。

    单击纠删符号以删除本地值。

    设置的字段已禁用,以指示它从父项继承该值。

    该字段已被禁用。
  10. 单击 编辑 按钮以保存更改。

    保存更改。

9.5.3. 在现有池上配置服务质量

作为存储管理员,您可以在现有池中配置服务质量(QoS)。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 启用 RBD 应用复制池。
  • 启用了 RBD 应用的纠删代码池。

流程

  1. 登录控制面板。
  2. 在导航栏上,单击 Pools

    Click Pools.

  3. 单击带有 RBD 应用程序的复制池所在行,将它选中以进行编辑:

    选择一个池。
  4. Edit 按钮:

    单击编辑按钮。
  5. 点击 服务质量旁边的加号打开 QoS 设置:

    打开 QoS 设置。
  6. 可选:点击单个设置旁边的问号符号来查找更多信息。

    单击问号符号。
  7. 为您要更改的 QoS 设置输入或编辑值:

    输入 QoS 设置的值。
  8. 可选:点击任何设置的纠删符号来删除本地值,并从父全局配置继承该值。

    单击纠删符号以删除本地值。

    设置的字段已禁用,以指示它从父项继承该值。

    该字段已被禁用。
  9. 单击 编辑 按钮以保存更改。

    保存更改。

9.5.4. 在创建镜像时配置服务质量

作为存储管理员,您可以在创建镜像时配置服务质量(QoS)限制。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 启用 RBD 应用复制池。
  • 启用了 RBD 应用的纠删代码池。

流程

  1. 登录控制面板。
  2. 在导航栏中,点击 Block,然后点 Images

    单击 Block,然后单击 Images。
  3. Create 按钮:

    单击创建按钮。
  4. 1 上,设置名称 2,在 3 设置池,设置 大小,在 4 时,单击 Advanced

    设置基本镜像设置
  5. 点击 服务质量旁边的加号打开 QoS 设置:

    打开 QoS 设置。
  6. 可选:点击单个设置旁边的问号符号来查找更多信息。

    单击问号符号。
  7. 为您要更改的 QoS 设置输入或编辑值:

    输入 QoS 设置的值。
  8. 可选:点击任何设置的纠删符号来删除本地值,并从父池配置中继承该值。

    单击纠删符号以删除本地值。

    设置的字段已禁用,以指示它从父项继承该值。

    该字段已被禁用。
  9. Create RBD 按钮:

    创建 镜像。

9.5.5. 在创建池时配置服务质量

作为存储管理员,您可以在创建池时配置服务质量(QoS)。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板。
  • 启用 RBD 应用复制池。
  • 启用了 RBD 应用的纠删代码池。

流程

  1. 登录控制面板。
  2. 在导航栏上,单击 Pools

    单击池。
  3. 点击页面左上角的 Create 按钮:

    单击创建按钮。
  4. 在对话框中,在 1 设置池名称,地址为 2 将池类型设置为 纠删,地址为 3,地址为 4,启用 EC Overwrites( 位于 5 ),最后将 rbd 应用设置为 6。最后,单击 创建池

    创建 EC RBD 池。
  5. 创建另一个池,但这一次将其类型设置为 复制

    创建复制池
  6. 点击 服务质量旁边的加号打开 QoS 设置:

    打开 QoS 设置。
  7. 可选:点击单个设置旁边的问号符号来查找更多信息。

    单击问号符号。
  8. 为您要更改的 QoS 设置输入或编辑值:

    输入 QoS 设置的值。
  9. 可选:点击任何设置的纠删符号来删除本地值,并从父全局配置继承该值。

    单击纠删符号以删除本地值。

    设置的字段已禁用,以指示它从父项继承该值。

    该字段已被禁用。
  10. 点击 创建池 按钮:

    创建 池。

9.5.6. 其它资源

附录 A. 故障排除

本节在使用控制面板时提供多种故障排除场景。

A.1. 仪表板响应速度较慢

如果控制面板响应速度较慢,请清除浏览器缓存并重新加载控制面板。

A.2. 仪表板显示服务已停机

仪表板只是集群的副本。如果服务停机,以仪表板的形式检查节点上的服务状态,显示通过节点上运行的 node-exporter 收集的信息。问题可能位于集群、配置或网络中。

A.3. Dashboard 中的任务失败

在控制面板上执行任何任务时,如果存在任何故障,请检查对应的 Ceph 守护进程。如需更多信息,请参阅 故障排除指南

A.4. 镜像无法查看

只有其中的池启用了 RBD 应用时,才能在 Block > Images 下查看镜像。

RBD 应用已启用。
该镜像可以查看。

其他资源

如需更多信息,请参阅 故障排除指南