仪表板指南

Red Hat Ceph Storage 4

使用 Ceph 控制面板监控 Ceph 集群

摘要

本指南说明了如何使用红帽 Ceph 存储仪表板来监控和管理目的。
红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。我们从这四个术语开始:master、slave、黑名单和白名单。由于此项工作十分艰巨,这些更改将在即将推出的几个发行版本中逐步实施。详情请查看 CTO Chris Wright 信息

第 1 章 Ceph 仪表板概述

作为存储管理员,Red Hat Ceph Storage 控制面板提供管理和监控功能,允许您管理和配置集群,以及与它相关的视觉化信息和性能统计信息。控制面板使用由 ceph-mgr 守护进程托管的 Web 服务器。

控制面板可从 Web 浏览器访问,包括许多有用的管理和监控功能,例如配置管理器模块并监控 OSD 的状态。

1.1. 先决条件

  • 系统管理员级别经验.

1.2. 仪表板组件

仪表板的功能由多个组件提供。

  • 用于部署的 Ansible 自动化应用。
  • 嵌入式仪表板 ceph-mgr 模块。
  • 嵌入的 Prometheus ceph-mgr 模块。
  • Prometheus 时间序列数据库。
  • Prometheus node-exporter 守护进程,在存储集群的每个节点中运行。
  • 用于监控用户界面和警报的 Grafana 平台。

其它资源

1.3. 仪表板功能

Ceph 控制面板提供多个功能。

管理功能

  • 查看集群层次结构 :您可以查看 CRUSH map,例如,确定运行特定 OSD ID 的节点。如果 OSD 存在问题,这很有用。
  • 配置管理器模块 :您可以查看和更改 ceph 管理器模块的参数。
  • 查看并过滤日志 :您可以查看事件和审计日志,并根据优先级、关键字、日期或时间范围过滤它们。
  • 切换仪表板组件 :您可以启用和禁用仪表板组件,以便只有需要的功能可用。
  • 管理 OSD 设置 :您可以使用控制面板设置集群范围的 OSD 标志。
  • 查看警报 :警报页面允许您查看当前警报的详情。
  • 镜像的服务质量 :您可以为镜像设置性能限制,例如限制 IOPS 或读取 BPS burst 率。

监控功能

  • 用户名和密码保护 :您只能通过提供可配置的用户名和密码来访问控制面板。
  • SSL 和 TLS 支持 :Web 浏览器和控制面板之间的所有 HTTP 通信均通过 SSL 保护。可以使用内置 命令创建自签名证书,但也可以导入证书颁发机构(CA)签名的证书。从 Red Hat Ceph Storage 4.2,dashboard_protocol 设置为 https,Ansible 会生成仪表板和 grafana 证书。要绘图数据点和图表,请手动更新 TLS 握手:

    • 警报管理器 API 主机 - http://grafana_node:9093
    • Prometheus API 主机 - http://grafana_node:9092
    • Grafana API 主机 - https://grafana_node:3000
  • 总体集群健康状况 :显示集群总体状态、存储利用率(如对象的数量、原始容量、每个池使用量)、池列表及其状态和使用统计。
  • 主机 :提供与集群关联的所有主机列表,以及正在运行的服务和已安装的 Ceph 版本。
  • 性能计数器 :显示每个正在运行的服务的详细统计信息。
  • Monitors: 列出所有 monitor、其仲裁状态和打开的会话。
  • Configuration Reference :列出所有可用的配置选项、其描述和默认值。
  • 集群日志 :显示和过滤集群的事件和审计日志。
  • 查看存储集群容量 :您可以在 Ceph 控制面板的 Capacity 面板中查看 Red Hat Ceph Storage 集群的原始存储容量。
  • :列出和管理所有 Ceph 池及其详细信息。例如:应用程序、放置组、复制大小、EC 配置文件、CRUSH 规则集等。
  • OSD :列出和管理所有 OSD、其状态和使用量统计数据,以及属性(OSD map)、元数据、性能计数器和用于读取/写入操作等详细信息。
  • iSCSI :列出运行 tcmu-runner 服务的所有主机,显示所有镜像及其性能特征,如读取和写入操作或流量。
  • 镜像 :列出所有 RBD 镜像及其属性,如 size、object 和 features。创建、复制、修改和删除 RBD 镜像。创建、删除和回滚所选镜像的快照,防止或取消防止这些快照进行修改。复制或克隆快照,扁平化克隆的镜像。

    注意

    特定镜像的 Overall Performance 选项卡中的 I/O 性能图仅在指定包含该镜像的池后,才会通过在 Cluster > Manager 模块 > Prometheus 中设置 rbd_stats_pool 参数。

  • 镜像功能 :列出所有活跃同步守护进程及其状态、池和 RBD 镜像,包括它们的同步状态。
  • 文件系统 :列出所有活动 Ceph 文件系统(CephFS)客户端和相关池,包括它们的使用量统计数据。
  • 对象网关(RGW) :列出所有活动对象网关及其性能计数器。显示和管理(添加、编辑、删除)对象网关用户及其详细信息(如配额),以及用户的存储桶及其详细信息,如所有者或配额。

其它资源

1.3.1. 在或关闭或关闭仪表板功能

您可以通过根据需要启用或禁用功能来自定义 Red Hat Ceph Storage 仪表板组件。所有功能都默认启用。禁用某一功能时,web 接口元素变得隐藏,相关的 REST API 端点会拒绝对该功能的任何进一步请求。启用和禁用仪表板功能可以通过命令行界面或 Web 界面完成。

可用功能:

  • Ceph 块设备:

    • 镜像管理, rbd
    • 镜像、镜像、镜像
    • iSCSI 网关,iscsi
  • Ceph 文件系统,cephfs
  • Ceph 对象网关,rgw
注意

默认情况下,Ceph Manager 与 Ceph Monitor 共存。

注意

您可以一次性禁用多个功能。

重要

禁用某个功能后,可能需要 20 秒来反映 web 界面中的更改。

先决条件

  • 安装和配置红帽 Ceph 存储仪表板软件。
  • 用户访问 Ceph 管理器节点或控制面板 Web 界面。

流程

  1. 从仪表板 Web 界面切换仪表板功能:

    1. 在仪表板页面中的导航栏中,导航到 Cluster,再单击 Manager Modules,然后单击 Dashboard。这将打开 Edit Manager 模块 页面。
    2. Edit Manager 模块 页面中,您可以通过选中或取消选中功能名称旁边的选择框来启用或禁用仪表板功能。

      编辑 Manager 模块
    3. 完成选择后,单击页面底部的 Update 按钮。

      更新按钮
  2. 使用命令行界面切换仪表板功能:

    1. 登录 Ceph 管理器节点。
    2. 列出功能状态:

      [user@mon ~]$ ceph dashboard feature status
    3. 禁用一个功能:

      [user@mon ~]$ ceph dashboard feature disable iscsi

      本例禁用 Ceph iSCSI 网关功能。

    4. 启用功能:

      [user@mon ~]$ ceph dashboard feature enable cephfs

      这个示例启用了 Ceph Filesystem 功能。

1.4. 仪表板架构

控制面板架构取决于 Ceph 管理器仪表板插件和其他组件。查看下图以了解它们如何协同工作。

Ceph Dashboard 架构图

第 2 章 Ceph 控制面板安装和访问

作为系统管理员,您可以安装仪表板并第一次访问它。

Red Hat Ceph Storage 使用 Cockpit Web 界面或使用 ceph-ansible RPM 提供的 Ansible playbook 在命令行中安装。Cockpit 使用相同的 Ansible playbook 来安装 Ceph。这些 playbook 默认安装控制面板。因此,无论您直接使用 Ansible playbook,或者使用 Cockpit 安装 Ceph,都会安装控制面板。

重要

更改默认仪表板密码。默认情况下,仪表板的密码是 p@ssw0rd,它不安全。在使用 playbook 安装 Ceph 前,或者使用相同的 playbook 或控制面板本身安装后,您可以先更新 all.yml Ansible playbook 中的 dashboard_admin_password 来更改默认密码。有关更多信息,请参阅 《安装指南》使用控制面板更改控制面板密码或 使用 Ansible 更改仪表板密码

2.1. 使用 Cockpit 安装仪表板

使用 Cockpit Web 界面安装 Red Hat Ceph Storage 时,会默认安装控制面板。您必须使用安装 Grafana 的 Metrics 角色设置主机。

先决条件

  • 有关完整先决条件,请参阅 安装指南。此流程只会突出显示与仪表板安装相关的步骤。

流程

  1. Hosts 页面上,添加一个主机并设置 Metrics 角色。

    Cockpit 添加指标主机
  2. 点 Add。
  3. 完成剩余的 Cockpit Ceph Installer 提示。
  4. 部署过程完成后,单击页面底部的 完成 按钮。这将打开一个窗口,显示命令 ceph status 的输出,以及控制面板访问信息。

    Complete 按钮
  5. 在 Ceph Cluster Status 窗口的底部,会显示控制面板访问信息,包括 URL、用户名和密码。记录此信息。

    Ceph Cluster Status 窗口

2.2. 使用 Ansible 安装仪表板

在使用 ceph-ansible RPM 提供的 Ansible playbook 安装 Red Hat Ceph Storage 时,会默认安装控制面板。

先决条件

  • 有关完整先决条件,请参阅 安装指南。此流程只会突出显示与仪表板安装相关的步骤。

流程

  1. 确保 Ansible 清单文件中存在具有定义节点的 [grafana-server] 组。Grafana 和 Prometheus 已安装在这个节点上。

    [root@jb-ceph4-admin ~]# grep grafana-server -A 1 /etc/ansible/hosts
    [grafana-server]
    jb-ceph4-mon
  2. all.yml Ansible playbook 中,确保 dashboard_enabled: 尚未设置为 False。应有一个注释,表示默认设置为 True

    [root@jb-ceph4-admin ~]# grep "dashboard_enabled" /usr/share/ceph-ansible/group_vars/all.yml
    #dashboard_enabled: True
  3. 按照 安装指南 中所述,完成安装 Ceph 所需的其余步骤。
  4. 运行 ansible-playbook site.yml 用于裸机安装,或 ansible-playbook site-docker.yml 用于容器安装,Ansible 将打印仪表板访问信息。找到 playbook 输出末尾的仪表板 URL、用户名和密码:

    2019-12-13 15:31:17,871 p=11421 u=admin |  TASK [ceph-dashboard : print dashboard URL] ************************************************************
    2019-12-13 15:31:17,871 p=11421 u=admin |  task path: /usr/share/ceph-ansible/roles/ceph-dashboard/tasks/main.yml:5
    2019-12-13 15:31:17,871 p=11421 u=admin |  Friday 13 December 2019  15:31:17 -0500 (0:00:02.189)       0:04:25.380 *******
    2019-12-13 15:31:17,934 p=11421 u=admin |  ok: [jb-ceph4-mon] =>
      msg: The dashboard has been deployed! You can access your dashboard web UI at http://jb-ceph4-mon:8443/ as an 'admin' user with 'p@ssw0rd' password.

    记录输出,您可以在 http://jb-ceph4-mon:8443/ 中作为"p@ssw0rd"密码访问仪表板 Web UI。

注意

Ansible playbook 执行以下操作:

  • ceph-mgr 中启用 Prometheus 模块。
  • ceph-mgr 中启用 dashboard 模块,并打开 TCP 端口 8443。
  • 将 Prometheus node_exporter 守护进程部署到存储集群中的每个节点。

    • 打开 TCP 端口 9100。
    • 启动 node_exporter 守护进程。
  • 在 Ansible 清单文件中的 [grafana-server] 下,在 Docker/systemd 下部署 Grafana 和 Prometheus 容器。

    • 配置 Prometheus,以从 ceph-mgr 节点和每个 Ceph 主机上运行的 node-exporters 收集数据
    • 打开 TCP 端口 3000。
    • 在 Grafana 中创建仪表板、主题和用户帐户。
    • 显示 Ceph 控制面板登录页面 URL。

2.3. 网络端口要求

Ceph 仪表板组件使用某些必须可以被访问的 TCP 网络端口。默认情况下,在安装 Red Hat Ceph Storage 时,在 firewalld 中自动打开网络端口。

表 2.1. TCP 端口要求

端口使用原始节点目标节点

8443

仪表板 Web 界面

在 Ansible 清单文件中需要访问 Ceph 控制面板 UI 和节点 [grafana-server] 的 IP 地址,因为 AlertManager 服务也可以启动与仪表板的连接来报告警报。

Ceph 管理器节点。

3000

Grafana

需要访问 Grafana Dashboard UI 和所有 Ceph Manager 主机 [grafana-server] 的 IP 地址。

Ansible 清单文件中 [grafana-server] 下的节点。

9090

基本 Prometheus 图形的默认 Prometheus 服务器

需要访问 Prometheus UI 和所有 Ceph Manager 主机以及 [grafana-server] 或运行 Prometheus 的主机的 IP 地址。

Ansible 清单文件中 [grafana-server] 下的节点。

9092

用于基本 Prometheus 图形的 Prometheus 服务器

需要访问 Prometheus UI 和所有 Ceph Manager 主机以及 [grafana-server] 或运行 Prometheus 的主机的 IP 地址。

Ansible 清单文件中 [grafana-server] 下的节点。

9093

Prometheus Alertmanager

需要访问 Alertmanager Web UI 和所有 Ceph Manager 主机以及 [grafana-server] 或运行 Prometheus 的主机的 IP 地址。

所有 Ceph Manager 节点以及 Ansible 清单文件中的 [grafana-server] 下的节点。

9094

Prometheus Alertmanager 可配置从多个实例组成的高可用性集群

所有 Ceph Manager 节点以及 Ansible 清单文件中的 [grafana-server] 下的节点。

Prometheus Alertmanager High Availability(对等点守护进程同步),因此 srcdst 应该都是运行 Prometheus Alertmanager 的节点。

9100

Prometheus node-exporter 守护进程

运行 Prometheus 的主机,需要查看节点导出器指标 Web UI 和所有 Ceph Manager 节点以及 [grafana-server] 或运行 Prometheus 的主机。

所有存储集群节点,包括 MON、OSDS、[grafana-server] 主机。

9283

Ceph Manager Prometheus exporter 模块

运行 Prometheus 的主机需要访问 Ceph Exporter 指标 Web UI 和 [grafana-server]

所有 Ceph 管理器节点。

9287

Ceph iSCSI 网关数据

所有 Ceph 管理器主机 和 [grafana-server]

所有 Ceph iSCSI 网关节点。

其它资源

2.4. 配置仪表板端口

Red Hat Ceph Storage 控制面板默认绑定到 TCP/IP 地址和 TCP 端口。

默认情况下,当 SSL 禁用时,托管仪表板的 ceph-mgr 守护进程绑定到 TCP 端口 8443 或 8080。如果没有配置特定地址,Web 应用绑定到 ::,它对应于所有可用 IP4 和 IP6 地址。

您可以使用集群范围级别的配置密钥工具更改 IP 地址和端口。

先决条件

  • 红帽 Ceph 存储集群.
  • 安装红帽 Ceph 存储仪表板.
  • 所有节点的根级别访问权限。

流程

  1. 获取用于访问仪表板的 URL:

    示例

    [root@admin ~]# ceph mgr services

  2. 获取 ceph-mgr 守护进程的当前 IP 和端口配置:

    示例

    [root@admin ~]# netstat -ntlp

  3. 设置 IP 地址和端口:

    语法

    ceph config set mgr mgr/dashboard/server_addr IP_ADDRESS
    ceph config set mgr mgr/dashboard/server_port PORT
    ceph config set mgr mgr/dashboard/ssl_server_port PORT

    示例

    [root@mon ~]# ceph config set mgr mgr/dashboard/server_addr 192.168.0.120
    [root@mon ~]# ceph config set mgr mgr/dashboard/server_port 8443
    [root@mon ~]# ceph config set mgr mgr/dashboard/ssl_server_port 8443

  4. 可选:由于 ceph-mgr 托管自己的仪表板实例,您可以单独配置它们。更改特定管理器实例的 IP 地址和端口:

    语法

    ceph config set mgr mgr/dashboard/NAME/server_addr IP_ADDRESS
    ceph config set mgr mgr/dashboard/NAME/server_port PORT
    ceph config set mgr mgr/dashboard/NAME/ssl_server_port PORT

    :NAME 替换为托管仪表板的 ceph-mgr 实例的 ID。

    示例

    [root@mon ~]# ceph config set mgr mgr/dashboard/mgrs-0/server_addr 192.168.0.120
    [root@mon ~]# ceph config set mgr mgr/dashboard/mgrs-0/server_port 8443
    [root@mon ~]# ceph config set mgr mgr/dashboard/mgrs-0/ssl_server_port 8443

其它资源

2.5. 访问仪表板

通过访问控制面板,您可以管理和监控 Red Hat Ceph Storage 集群。

先决条件

  • 成功安装 Red Hat Ceph Storage 仪表板。
  • NTP 正确同步时钟。
注意

当节点没有正确同步时,可在仪表板节点、集群节点和浏览器之间发生时间布局。确保所有节点和浏览器运行的系统均由 NTP 同步。默认情况下,部署 Red Hat Ceph Storage 时,Ansible 会在所有节点上配置 NTP。要验证,对于 Red Hat Enterprise Linux 7,请参阅 使用 ntpd 配置 NTP,对于 Red Hat Enterprise Linux 8 ,请参阅 使用 Chrony 套件配置 NTP。如果您在另一个操作系统上运行浏览器,请查阅该操作系统厂商的 NTP 配置信息。

注意

当在 Red Hat Ceph Storage 中使用 OpenStack Platform(OSP)时,要启用 OSP Safe 模式,请使用以下方法之一。使用 Ansible,编辑 group_vars/all.yml Ansible playbook,分别为 dashboard_admin_user_ro: true 和重新运行 ansible-playbook,或者针对 site.ymlsite-container.yml 分别用于裸机或容器部署。要使用 ceph 命令启用 OSP Safe 模式,请运行 ceph dashboard ac-user-set-roles admin read-only。为了确保运行 ceph-ansible Ansible playbook,编辑 group_vars/all.yml 并设置 dashboard_admin_user_ro: true,以确保更改保留。

流程

  1. 在网页浏览器中输入以下 URL:

    http://HOST_NAME:PORT

    替换:

    • HOST_NAME,其主机名为控制面板节点。
    • 使用端口 8443PORT

      例如:

      http://dashboard:8443
  2. 在登录页面中,输入用户名 admin 和密码 p@ssw0rd (如果您在安装过程中没有更改密码)。

    图 2.1. Ceph Dashboard 登录页

    Ceph Dashboard 登录页
  3. 登录后,会显示仪表板默认登录页面,其中提供了 Red Hat Ceph Storage 集群的状态、性能和容量指标的高级别概述。

    图 2.2. Ceph Dashboard Default Landing Page

    Ceph Dashboard Default Landing Page

其它资源

2.6. 使用 Ansible 更改仪表板密码

默认情况下,用于访问仪表板的密码设置为 p@ssw0rd

重要

出于安全考虑,在安装后更改密码。

您可以使用 Ansible 更改仪表板密码。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 访问 Ansible 管理节点.

流程

  1. 打开 Ansible playbook 文件 /usr/share/ceph-ansible/group_vars/all.yml 进行编辑。
  2. 取消注释并更新此行中的密码:

    #dashboard_admin_password: p@ssw0rd

    改为:

    dashboard_admin_password: NEW_PASSWORD

    NEW_PASSWORD 替换为您的首选密码。

  3. 再次运行部署或更新 Ceph 集群的 Ansible playbook 文件。

    1. 对于裸机安装,请使用 site.yml playbook:

      [admin@admin ceph-ansible]$ ansible-playbook -v site.yml
    2. 对于容器安装,请使用 site-docker.yml playbook:

      [admin@admin ceph-ansible]$ ansible-playbook -v site-docker.yml
  4. 使用新密码登录。

其它资源

2.7. 使用仪表板更改仪表板密码

默认情况下,用于访问仪表板的密码设置为 p@ssw0rd

重要

出于安全考虑,在安装后更改密码。

若要使用控制面板更改密码,还要更改 Ansible 中的控制面板密码设置,确保如果 Ansible 用于重新配置 Red Hat Ceph Storage 集群,则密码不会恢复到默认密码。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。

流程

  1. 更新 group_vars/all.yml 文件中的密码,以防止在 Ansible 用于重新配置 Ceph 集群时将密码重置为 p@ssw0rd

    1. 打开 Ansible playbook 文件 /usr/share/ceph-ansible/group_vars/all.yml 进行编辑。
    2. 取消注释并更新此行中的密码:

      #dashboard_admin_password: p@ssw0rd

      改为:

      dashboard_admin_password: NEW_PASSWORD

      NEW_PASSWORD 替换为您的首选密码。

  2. 在 Dashboard web user-interface 中更改密码。

    1. 登录到仪表板:

      http://HOST_NAME:8443
    2. 在右上角,单击仪表板设置图标,然后单击 用户管理

      用户管理
    3. Username 表中查找 admin 用户,再单击 admin

      用户管理
    4. 在表标题 用户名 上方,单击编辑按钮
    5. 输入新密码并确认密码再次输入并确认密码,然后单击 编辑用户

      用户管理

      您将注销并进入登录屏幕。这时将显示通知确认密码更改。

  3. 使用新密码重新登录。

其它资源

2.8. 使用 Ansible 更改 Grafana 密码

默认情况下,Grafana 的密码由仪表板使用,设置为 admin。使用此流程更改密码。

重要

为安全起见,请更改默认密码。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 对集群中的所有节点进行 root 访问权限。

流程

  1. 可选: 如果您不知道 Grafana 容器在其上运行哪些节点,请在 Ansible 主机文件中找到 [grafana-server] 中列出的节点,通常位于 /etc/ansible/hosts

    示例

    [grafana-server]
    grafana

  2. 在运行 Grafana 容器的节点上,更改密码:

    语法

    podman exec CONTAINER_ID grafana-cli admin reset-admin-password --homepath "/usr/share/grafana" NEW_PASSWORD

    CONTAINER_ID 更改为 Grafana 容器的 ID。将 NEW_PASSWORD 更改为所需的 Grafana 密码。

    示例

    [root@grafana ~]# podman exec 3f28b0309aee grafana-cli admin reset-admin-password --homepath "/usr/share/grafana" NewSecurePassword
    t=2020-10-29T17:45:58+0000 lvl=info msg="Connecting to DB" logger=sqlstore dbtype=sqlite3
    t=2020-10-29T17:45:58+0000 lvl=info msg="Starting DB migration" logger=migrator
    
    Admin password changed successfully ✔

  3. 在 Ansible 管理节点上,使用 ansible-vault 加密 Grafana 密码,然后将加密的密码添加到 group_vars/all.yml 中。

    1. 进入 /usr/share/ceph-ansible/ 目录:

      [admin@admin ~]$ cd /usr/share/ceph-ansible/
    2. 运行 ansible-vault 并创建新的 vault 密码:

      示例

      [admin@admin ceph-ansible]$ ansible-vault encrypt_string --stdin-name 'grafana_admin_password_vault'
      New Vault password:

    3. 重新输入密码以确认它:

      示例

      [admin@admin ceph-ansible]$ ansible-vault encrypt_string --stdin-name 'grafana_admin_password_vault'
      New Vault password:
      Confirm New Vault password:

    4. 输入 Grafana 密码,按 Enter,然后输入 CTRL+D 以完成该条目:

      语法

      ansible-vault encrypt_string --stdin-name 'grafana_admin_password_vault'
      New Vault password:
      Confirm New Vault password:
      Reading plaintext input from stdin. (ctrl-d to end input)
      NEW_PASSWORD

      使用之前设置的 Grafana 密码替换 NEW_PASSWORD

      示例

      [admin@admin ceph-ansible]$ ansible-vault encrypt_string --stdin-name 'grafana_admin_password_vault'
      New Vault password:
      Confirm New Vault password:
      Reading plaintext input from stdin. (ctrl-d to end input)
      NewSecurePassword

    5. 记录开头为 grafana_admin_password_vault: !vault | 且以几个数字结尾的输出,因为它将在下一步中使用:

      示例

      [admin@admin ceph-ansible]$ ansible-vault encrypt_string --stdin-name 'grafana_admin_password_vault'
      New Vault password:
      Confirm New Vault password:
      Reading plaintext input from stdin. (ctrl-d to end input)
      NewSecurePassword
      grafana_admin_password_vault: !vault |
                $ANSIBLE_VAULT;1.1;AES256
                38383639646166656130326666633262643836343930373836376331326437353032376165306234
                3161386334616632653530383231316631636462363761660a373338373334663434363865356633
                66383963323033303662333765383938353630623433346565363534636434643634336430643438
                6134306662646365370a343135316633303830653565633736303466636261326361333766613462
                39353365343137323163343937636464663534383234326531666139376561663532
      Encryption successful

    6. 打开以编辑 group_vars/all.yml,并将上方的输出粘贴到文件中:

      示例

      grafana_admin_password_vault: !vault |
                $ANSIBLE_VAULT;1.1;AES256
                38383639646166656130326666633262643836343930373836376331326437353032376165306234
                3161386334616632653530383231316631636462363761660a373338373334663434363865356633
                66383963323033303662333765383938353630623433346565363534636434643634336430643438
                6134306662646365370a343135316633303830653565633736303466636261326361333766613462
                39353365343137323163343937636464663534383234326531666139376561663532

    7. 在加密的密码下方添加一行:

      示例

      grafana_admin_password: "{{ grafana_admin_password_vault }}"

      注意

      由于 Ansible 中的一个错误会在将 vault 值直接分配给 Ansible 变量时中断字符串类型,因此需要使用上述两个变量。

    8. 保存并关闭该文件。
  4. 重新运行 ansible-playbook

    1. 对于基于容器的部署:

      示例

      [admin@node1 ceph-ansible]$ ansible-playbook --ask-vault-pass -v site-container.yml -i hosts

      请注意,只有使用 /etc/ansible/hosts 的默认 Ansible 主机文件位置时才需要 -i 主机。

    2. 对于裸机,基于 RPM 的部署:

      示例

      [admin@node1 ceph-ansible]$ ansible-playbook --ask-vault-pass -v site.yml -i hosts

      请注意,只有使用 /etc/ansible/hosts 的默认 Ansible 主机文件位置时才需要 -i 主机。

2.9. 使用 Red Hat Single Sign-On 进行仪表板同步用户

管理员可以利用红帽具有轻量级目录访问协议(LDAP)的单点登录(SSO)提供对红帽 Ceph 存储仪表板上的用户访问。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 控制面板的管理员级别访问权限。
  • 用户添加到仪表板中。
  • 所有节点上的 root 级别访问。
  • 从 ZIP 文件安装的红帽单点登录。如需更多信息,请参阅通过 zip 文件安装 Red Hat Single Sign-On

流程

  1. 在安装了 Red Hat Ceph Storage 的系统中下载 Red Hat Single Sign-On 7.4.0 服务器
  2. 解压文件夹:

    [root@cephuser]# unzip rhsso-7.4.0.zip
  3. 进入 standalone/configuration 目录,打开 standalone.xml 进行编辑:

    [root@cephuser]# cd standalone/configuration
    [root@cephuser configuration]# vi standalone.xml
  4. 使用安装了 Red Hat Single Sign-On 的机器的 IP 地址替换 localhost127.0.0.1 的两个实例。
  5. 可选:对于 Red Hat Enterprise Linux 8,用户可能会获得证书颁发机构(CA)问题。从 CA 导入自定义证书,并使用精确的 java 版本将其移动到密钥存储中。

    示例

    [root@cephuser]# keytool -import -noprompt -trustcacerts -alias ca -file ../ca.cer -keystore /etc/java/java-1.8.0-openjdk/java-1.8.0-openjdk-1.8.0.272.b10-3.el8_3.x86_64/lib/security/cacert

  6. 要从 rh-sso-7.4 文件夹的 bin 目录启动服务器,请运行 独立 引导脚本:

    [root@cephuser bin]# ./standalone.sh
  7. 使用用户名和密码在 http:_IP_ADDRESS_:8080/auth 中创建 admin 帐户:

    创建管理员用户
    注意

    admin 帐户必须在您第一次登录控制台时创建。

  8. 使用创建的凭证登录到 admin 控制台:

    管理控制台
  9. 若要创建域,请单击 Master 下拉列表。在此域中,管理员提供对用户和应用的访问权限。

    添加 realm 下拉菜单
  10. Add Realm 窗口中,输入 realm 的名称,并将 Enabled 参数设置为 ON,然后单击 Create:

    添加域窗口
    注意

    realm 名称区分大小写。

  11. Realm Settings 选项卡中,设置以下参数并点 Save:

    1. enabled - ON
    2. 用户管理的访问 - ON
    3. 复制 SAML 2.0 身份提供程序元数据的链接地址

      添加域设置窗口
  12. Clients 选项卡中,点 Create:

    添加客户端
  13. Add Client 窗口中设置以下参数并点 Save:

    1. Client ID - BASE_URL:8443/auth/saml2/metadata

      示例

      https://magna082.ceph.redhat.com:8443/auth/saml2/metadata

    2. 客户端协议 - saml

      添加客户端窗口
  14. Clients 窗口的 Settings 选项卡中,设置以下参数并点 Save:

    1. Client ID - BASE_URL:8443/auth/saml2/metadata

      示例

      https://magna082.ceph.redhat.com:8443/auth/saml2/metadata

    2. enabled - ON
    3. 客户端协议 - saml
    4. 包括 AuthnStatement - ON
    5. Sign Documents - ON
    6. Signature Algorithm - RSA_SHA1
    7. SAML Signature Key Name - KEY_ID
    8. Valid Redirect URLs - BASE_URL:8443/*

      示例

      https://magna082.ceph.redhat.com:8443/*

    9. Base URL - BASE_URL:8443

      示例

      https://magna082.ceph.redhat.com:8443/

    10. Master SAML 处理 URL - http://localhost:8080/auth/realms/REALM_NAME/protocol/saml/descriptor

      示例

      http://localhost:8080/auth/realms/Ceph_LDAP/protocol/saml/descriptor

      注意

      Realm Settings 选项卡中粘贴 SAML 2.0 身份提供程序元数据的链接。

      在 Fine Grain SAML Endpoint Configuration 下,设置参数:

    11. assertion Consumer Service POST Binding URL - BASE_URL:8443/#/dashboard

      示例

      https://magna082.ceph.redhat.com:8443/#/dashboard

    12. assertion Consumer Service Redirect Binding URL - BASE_URL:8443/#/dashboard

      示例

      https://magna082.ceph.redhat.com:8443/#/dashboard

    13. 注销服务重定向绑定 URL - BASE_URL:8443/

      示例

      https://magna082.ceph.redhat.com:8443/

      客户端映射程序
      客户端映射程序
  15. Clients 窗口的 Mappers 选项卡中,设置以下参数并点 Save:

    1. 协议 - saml
    2. name - username
    3. mapper Property - 用户属性
    4. 属性 - username
    5. SAML 属性名称 - 用户名

      添加客户端映射程序
  16. Clients Scope 选项卡中,选择 role_list

    1. Mappers 选项卡中,选择 角色列表,将 Single Role Attribute 设置为 ON。

      添加客户端角色列表
  17. 选择 User_Federation 选项卡:

    1. User Federation 窗口中,从下拉菜单中选择 ldap

      将 ldap 添加为供应商
  18. User_Federation 窗口中,Settings 选项卡设置以下参数并点 Save:

    1. 控制台显示名称 - rh-ldap
    2. 导入用户 - ON
    3. Edit_Mode - READ_ONLY
    4. 用户名 LDAP 属性 - username
    5. RDN LDAP 属性 - username
    6. UUID LDAP 属性 - nsuniqueid
    7. 用户对象类 - inetOrgPerson, organizationalPerson, rhatPerson
    8. Connection URL - ldap:://myldap.example.com

      示例

      ldap://ldap.corp.redhat.com

      单击 Test Connection

      LDAP 测试连接

      您将收到一个通知,即 LDAP 连接成功。

    9. 用户 DN - ou=users, dc=example, dc=com

      示例

      ou=users,dc=redhat,dc=com

    10. bind Type - simple

      用户 Federation Upperpane
      用户 Federation Lowerpane
    11. 单击 Test authentication

      LDAP 测试身份验证

      您将收到通知 LDAP 身份验证成功。

  19. Mappers 选项卡中,选择 第一个名称 行并编辑以下参数,点 Save:

    1. LDAP 属性 - givenName

      用户 Federationmappers 选项卡
      用户分类映射器窗口
  20. User_Federation 选项卡中,单击 Settings 选项卡,单击 Synchronize all users

    用户 Federation Synchronize

    您将收到通知,通知用户同步被成功更新。

    用户 Federation 同步通知
  21. Users 选项卡中,搜索添加到仪表板中的用户并点击 Search 图标:

    用户搜索标签页
  22. 若要查看用户,请单击所在行。您应看到联合链接,作为提供给用户 Federation 的名称

    用户详情
    重要

    不要手动添加用户。如果手动添加,则点 Delete 来删除该用户。

  23. 添加到 realm 和控制面板的用户可以使用其电子邮件地址和密码访问 Ceph 控制面板。

    示例

    https://magna082.ceph.redhat.com:8443

    仪表板链接

其它资源

  • 有关将用户添加到仪表板中,请参阅 Red Hat Ceph Storage 仪表板指南中的 在仪表板中 创建用户 部分。
  • 有关在仪表板上添加用户的角色,请参阅 Red Hat Ceph Storage Dashboard Guide 中的" 创建角色 "一节,了解更多信息。

2.10. 为 Ceph 控制面板启用单点登录

Ceph 控制面板支持外部身份验证具有安全断言标记语言(SAML)协议的用户。在使用 Ceph 控制面板的单点登录(SSO)之前,先创建控制面板用户帐户并分配所需的角色。Ceph 控制面板对用户执行授权,身份验证过程由现有的身份提供程序(IdP)执行。红帽使用 Keycloak 测试仪表板 SSO 功能。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 安装 Ceph 控制面板软件。
  • 启动控制面板。
  • Ceph 管理器节点的 root 级别访问。
  • 在 Ceph 管理器节点上安装以下库软件包:

    • python3-saml
    • python3-defusedxml
    • python3-isodate
    • python3-xmlsec

流程

  1. 要在 Ceph 控制面板中配置 SSO,请运行以下命令:

    1. 裸机部署:

      语法

      ceph dashboard sso setup saml2 CEPH_DASHBOARD_BASE_URL IDP_METADATA IDP_USERNAME_ATTRIBUTE IDP_ENTITY_ID SP_X_509_CERT SP_PRIVATE_KEY

      示例

      [root@mon ~]# ceph dashboard sso setup saml2 http://dashboard_hostname.ceph.redhat.com:8443 idp-metadata.xml username http://10.70.59.125:8080/auth/realms/realm_name /home/certificate.txt /home/private-key.txt

    2. 容器部署:

      语法

      podman exec CEPH_MGR_NODE ceph dashboard sso setup saml2 CEPH_DASHBOARD_BASE_URL IDP_METADATA IDP_USERNAME_ATTRIBUTE IDP_ENTITY_ID SP_X_509_CERT SP_PRIVATE_KEY

      示例

      [root@mon ~]# podman exec ceph-mgr-hostname ceph dashboard sso setup saml2 http://dashboard_hostname.ceph.redhat.com:8443 idp-metadata.xml username http://10.70.59.125:8080/auth/realms/realm_name /home/certificate.txt /home/private-key.txt

    替换

    • CEPH_MGR_NODE 与 Ceph mgr 节点.例如: ceph-mgr-hostname
    • CEPH_DASHBOARD_BASE_URL 带有可以访问 Ceph 仪表板的基本 URL。
    • IDP_METADATA,带有指向远程或 IdP 元数据 XML 的本地路径或内容的 URL。支持的 URL 类型有 http、https 和 文件。
    • 可选IDP_USERNAME_ATTRIBUTE 以及用于从身份验证响应中获取用户名的属性。默认为 uid
    • 可选 :当 IdP 元数据中存在多个实体 ID 时,使用 IdP 实体 ID 的 IDP_ENTITY_ID
    • 可选SP_X_509_CERT 带有 Ceph Dashboard 用于签名和加密的证书文件路径。
    • 可选SP_PRIVATE_KEY 带有 Ceph 仪表板用于签名和加密的私钥的文件路径。
  2. 验证当前的 SAML 2.0 配置:

    1. 裸机部署:

      语法

      ceph dashboard sso show saml2

    2. 容器部署:

      语法

      podman exec CEPH_MGR_NODE ceph dashboard sso show saml2

  3. 要启用 SSO,请运行以下命令:

    1. 裸机部署:

      语法

      ceph dashboard sso enable saml2
      SSO is "enabled" with "SAML2" protocol.

    2. 容器部署:

      语法

      podman exec CEPH_MGR_NODE ceph dashboard sso enable saml2
      SSO is "enabled" with "SAML2" protocol.

  4. 打开仪表板 URL。例如:

    http://dashboard_hostname.ceph.redhat.com:8443
  5. 在 SSO 页面中,输入登录凭据。SSO 会重定向到仪表板 Web 界面。

其它资源

2.11. 为 Ceph 控制面板禁用单点登录

您可以为 Ceph 控制面板禁用单点登录。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 安装 Ceph 控制面板软件。
  • 启动控制面板。
  • Ceph 管理器节点的 root 级别访问。
  • 为 Ceph 控制面板启用单点登录
  • 在 Ceph 管理器节点上安装以下库软件包:

    • python3-saml
    • python3-defusedxml
    • python3-isodate
    • python3-xmlsec

流程

  1. 要查看 SSO 的状态,请运行以下命令:

    1. 裸机部署:

      语法

      ceph dashboard sso status
      SSO is "enabled" with "SAML2" protocol.

    2. 容器部署:

      语法

      podman exec CEPH_MGR_NODE ceph dashboard sso status
      SSO is "enabled" with "SAML2" protocol.

      替换

      • CEPH_MGR_NODE 与 Ceph mgr 节点.例如: ceph-mgr-hostname
  2. 要禁用 SSO,请运行以下命令:

    1. 裸机部署:

      语法

      ceph dashboard sso disable
      SSO is "disabled".

    2. 容器部署:

      语法

      podman exec CEPH_MGR_NODE ceph dashboard sso disable
      SSO is "disabled".

      替换

      • CEPH_MGR_NODE 与 Ceph mgr 节点.例如: ceph-mgr-hostname

其它资源

第 3 章 在仪表板上管理角色

作为存储管理员,您可以在仪表板上创建、查看、编辑和删除角色。您可以为角色授予权限,您可以为用户分配特定的角色。

3.1. 在仪表板上创建角色

通过控制面板,您可以在控制面板上创建可分配给用户的角色。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 控制面板的管理员访问权限级别。

流程

  1. 登录到仪表板。
  2. 在 Dashboard 的右上角点击 gear 图标并选择 User Management

    点 User management
  3. 在角色 选项卡上,点 Create 按钮:

    创建角色
  4. CreateRole 窗口中,设置 Name 并选择此角色的权限,然后单击 CreateRole 按钮:

    创建角色窗口
  5. 对页面右上角发出的通知表示角色已创建成功。

    角色创建通知

3.2. 查看仪表板的角色

通过控制面板,您可以查看控制面板上角色的详细信息。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 控制面板的管理员访问权限级别。
  • 角色在控制面板上创建。

流程

  1. 登录到仪表板。
  2. 在 Dashboard 的右上角点击 gear 图标并选择 User Management

    点 User management
  3. 要查看角色详情,请点击行:

    点角色行
  4. 您可以查看为角色提供的权限详情。

    查看角色详情

其它资源

3.3. 编辑仪表板中的角色

通过控制面板,您可以编辑控制面板的角色。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 控制面板的管理员访问权限级别。
  • 在控制面板上创建一个角色。

流程

  1. 登录到仪表板。
  2. 在 Dashboard 的右上角点击 gear 图标并选择 User Management

    点 User management
  3. 要编辑角色,请点击行:

    点角色行
  4. 在角色 选项卡上,从 编辑 下拉菜单中选择 Edit

    编辑角色
  5. EditRole 窗口中,编辑包括的参数,然后单击 EditRole 按钮:

    编辑角色窗口
  6. 对页面右上角的通知表示角色已被成功更新。

    编辑角色通知

其它资源

3.4. 删除仪表板中的角色

通过控制面板,您可以删除仪表板上的角色。

注意

您只能删除您创建的角色。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 控制面板的管理员访问权限级别。
  • 在控制面板上创建一个角色。

流程

  1. 登录到仪表板。
  2. 在 Dashboard 的右上角点击 gear 图标并选择 User Management

    点 User management
  3. 要删除角色,请点击行:

    点角色行
  4. 在角色 选项卡上 编辑 下拉菜单中选择删除:

    删除角色
  5. Delete Role 对话框窗口中,单击 Yes,我确定 框,然后单击 Delete Role 以保存设置:

    删除角色窗口

其它资源

第 4 章 在仪表板上管理用户

作为存储管理员,您可以在仪表板上创建、编辑和删除用户。

4.1. 在仪表板中创建用户

通过控制面板,可以在控制面板中创建用户。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 控制面板的管理员访问权限级别。
注意

Red Hat Ceph Storage Dashboard 在更改用户密码时不支持任何电子邮件验证。此行为是有意设计的,因为控制面板支持单点登录(SSO),并且此功能可以委派给 SSO 提供程序。

流程

  1. 登录到仪表板。
  2. 在 Dashboard 的右上角点击 gear 图标并选择 User Management

    点 User management
  3. Users 选项卡中,点 Create 按钮:

    创建用户
  4. CreateUser 窗口中,设置 Username 和 other 参数,包括角色,然后单击 _CreateUser_button:

    创建用户窗口
  5. 对页面右上角的通知表示用户已成功创建。

    用户创建通知

其它资源

4.2. 在仪表板中编辑用户

通过控制面板,您可以编辑控制面板上的用户。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 控制面板的管理员访问权限级别。
  • 在控制面板上创建的用户。

流程

  1. 登录到仪表板。
  2. 在 Dashboard 的右上角点击 gear 图标并选择 User Management

    点 User management
  3. 要编辑用户,请点击行:

    点用户行
  4. Users 选项卡中,从 编辑下拉菜单中选择 Edit

    编辑用户
  5. EditUser 窗口中,编辑包括的参数,然后单击 EditUser 按钮:

    编辑用户窗口
  6. 对页面右上角的通知表示用户已被成功更新。

    用户编辑通知

其它资源

4.3. 删除仪表板上的用户

通过控制面板,您可以删除仪表板上的用户。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 控制面板的管理员访问权限级别。
  • 在控制面板上创建的用户。

流程

  1. 登录到仪表板。
  2. 在 Dashboard 的右上角点击 gear 图标并选择 User Management

    点 User management
  3. 要删除用户,请点击行:

    点用户行
  4. Users 选项卡中 编辑 下拉菜单中选择删除:

    删除用户
  5. Delete User 对话框中,点击 Yes,我确定 框,然后单击 Delete user 以保存设置:

    删除用户窗口

其它资源

第 5 章 监控集群

仪表板的监控功能会定期提供不同的网页来指示存储集群的各个方面。您可以使用登录页面监控集群的整体状态,也可以监控集群的特定功能,如块设备镜像的状态。

其它资源

5.1. 访问登录页面

登录控制面板后,将加载登录页面。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。

流程

  1. 登录到仪表板:

    登录提示符
  2. 登录仪表板后,将加载登录页面:

    登录页
  3. 要在查看其他仪表板页面后返回到登录页面,请点击页面左上角的 Dashboard

    仪表板链接

其它资源

5.2. 了解登录页面

登录页面使用各个面板显示整个 Ceph 集群的概览。每个面板都显示有关集群状态的具体信息。

类别

登录页将面板分为以下三种类别:

  1. Status
  2. 容量
  3. 性能
Ceph Dashboard 登录页面

状态面板

状态面板中显示集群和主机和守护进程状态的健康状态。

状态面板

集群状态 :显示 Ceph 集群的当前健康状况。

主机 :显示 Ceph 存储集群中的主机总数。

monitor :显示 Ceph 监视器的数量和仲裁状态。

OSD :显示 Ceph 存储集群中的 OSD 总数,以及状态为 up, 和 in 的数量。

管理器 :显示管理器守护进程的数量和状态。

对象网关 :显示 Ceph 存储集群中的对象网关数。

元数据服务器 :显示 Ceph 文件系统元数据服务器的数量和状态。

iSCSI 网关 :显示 Ceph 存储集群中的 iSCSI 网关的数量。

容量面板

容量面板显示存储使用指标。

容量面板

Raw 容量 :显示集群原始存储容量的利用率和可用性。

对象 :显示池中对象总数,并在 HealthyMisplacedDegradedUnfound 中显示对象。

PG Status :显示放置组的总数,并将 PG 划分为 CleanWorkingWarningUnknown 状态。若要简化 PG 状态 WorkingWarning 的显示,实际上每个包含多个状态。

工作状态 包括具有任何这些状态的 PG:

  • 激活
  • backfill_wait
  • backfilling
  • 创建
  • deep
  • degraded
  • forced_backfill
  • forced_recovery
  • peering
  • peered
  • 恢复
  • recovery_wait
  • 修复
  • 清理
  • snaptrim
  • snaptrim_wait

Warning 状态包含具有任何这些状态的 PG:

  • backfill_toofull
  • backfill_unfound
  • down
  • 不完整
  • 不一致
  • recovery_toofull
  • recovery_unfound
  • remapped
  • snaptrim_error
  • 过时
  • undersized(Osized)

:显示 Ceph 集群中的存储池数量。

每个 OSD 的 PG 数量:显示每个 OSD 的 PG 数量。

性能面板

性能面板显示与数据传输速度相关的信息。

集群性能面板

客户端读取/写 :显示每秒输入/输出解读、每秒读取数每秒的读取数,每秒写入数。

客户端吞吐量 :显示客户端吞吐量、读取吞吐量和写入吞吐量。

恢复吞吐量 :显示客户端恢复率。

清理 :显示 Ceph 是否清理数据,以验证其完整性。

其它资源

第 6 章 监控特定功能

作为存储管理员,您可以使用 Red Hat Ceph Storage 控制面板根据主机、服务、数据访问方式等来监控集群的特定方面。

6.1. 监控监控器

Red Hat Ceph Storage 控制面板可以查看有关 monitor 节点的各种详细信息。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。

流程

  1. 登录到仪表板。
  2. 在导航栏中,单击 Cluster,然后单击 Monitors
  3. Monitors overview 页面显示有关总体监控状态的信息,以及 Quorum 和 Not in quorum Monitor 节点中的表:

    monitor 概述
  4. 要查看开会话的数量,将光标悬停在蓝色圆点上:

    打开会话
  5. 要查看任何监控器的性能计数器,请点击其主机名:

    点 Monitor 主机名
  6. 查看性能计数器:

    监控性能计数器

其它资源

6.2. 监控主机

Red Hat Ceph Storage 仪表板允许您查看有关主机的各种详细信息。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。

流程

  1. 登录到仪表板。
  2. 在导航栏中,单击 Cluster,然后单击 Hosts
  3. 要查看主机列表,请点击 Hosts List 选项卡:

    主机列表
  4. 要查看主机的 Performance Details,在 Host 选项卡中点其行,然后从 Grafana Time Picker 下拉菜单中选择时间范围:

    主机性能详情
  5. 要查看主机上特定服务的性能计数器,请点击该服务:

    点 Host 服务
  6. 查看性能计数器:

    主机性能计数器
  7. 查看所有主机的性能数据:

    1. 点击页面左上角的 Overall Performance 选项卡:

      点主机总体性能
    2. Grafana Time Picker 下拉菜单中选择时间范围:

      host Performance Grafana 下拉菜单
    3. 查看 Overall Performance 页面:

      主机覆盖性能

其它资源

6.3. 监控 OSD

Red Hat Ceph Storage Dashboard 允许您查看有关 OSD 的各种详细信息。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。

流程

  1. 登录到仪表板。
  2. 在导航栏上,单击 Cluster,然后单击 OSD
  3. 要查看 OSD 列表,请单击 OSD List 选项卡:

    OSD 列表
  4. 要查看 OSD 的属性,在 OSDS List 选项卡上点击其行:

    OSD 属性
  5. 要查看 OSD 的元数据,在 OSD 选项卡中点击其行,再单击 Metadata 选项卡:

    OSD 元数据
  6. 要查看 OSD 的性能计数器,请在 OSD 选项卡中单击其行,再单击 Performance counter 选项卡:

    OSD 性能计数器
  7. 要查看 OSD 的直方图,在 OSD 选项卡中单击其行,再单击 Histogram 选项卡:

    OSD Histogram
  8. 查看 OSD 的性能详情:

    1. OSD 选项卡中,点其行,单击 Performance Details 选项卡:

      点 OSD Performance 详情
    2. Grafana Time Picker 下拉菜单中选择时间范围:

      OSD Performance Grafana 下拉菜单
    3. 查看 OSD 的性能详情:

      查看 OSD 性能详情
  9. 查看所有 OSD 的整体性能:

    1. 点击页面左上角的 Overall Performance 选项卡

      单击 OSD 整体性能
    2. Grafana Time Picker 下拉菜单中选择时间范围:

      OSD Performance Grafana 下拉菜单
  10. 查看 Overall Performance 页面:

    OSD Overall 性能

其它资源

6.4. 监控池

Red Hat Ceph Storage Dashboard 可以查看集群中池的各种详细信息。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。

流程

  1. 登录到仪表板。
  2. 在导航栏中点 Pools

    池菜单选择
  3. 查看池列表:

    池列表
  4. 将鼠标悬停在使用栏图来查看实际已用空间和可用空间:

    池使用详情
  5. 要查看有关池的更多信息,请点击其行来选择它:

    点池行
  6. 查看池的详细信息。要查看池的性能详情和配置数据,请单击关联的选项卡。

    池详情
  7. 要查看所有池的性能数据,请点击页面左上角的 Overall Performance 选项卡:

    点整个性能
  8. 查看 Overall Performance 页面:

    整体性能页面

6.5. 监控 Ceph 文件系统

作为存储管理员,您可以使用 Red Hat Ceph Storage 控制面板监控 Ceph 文件系统(CephFS)和相关组件。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板
  • 已安装 Ceph 文件系统。

流程

  1. 登录控制面板。
  2. 在导航栏中点 Filesystems

    点 Filesystems
  3. 在以下示例中,您可以看到 cephfs 文件系统。

    查看文件系统
  4. 要查看文件系统的详细信息,请单击 cephfs 所在的行。

    点 cephfs
  5. 在详细信息 选项卡中,您可以在 2 中看到元数据服务器及其排名以及任意待机后台程序(位于 1、池及其用法)以及 3 的性能计数器。

    CephFS 详情标签页
  6. 要查看已挂载文件系统的客户端列表,请点击 Clients 选项卡。

    点 Clients
  7. 在以下示例中,您可以看到 jb-ceph4-client 主机已打开 cephfs 文件系统。

    客户端表
  8. 要查看文件系统的性能,请点击 Performance Details 选项卡。

    点 Performance Details
  9. 在以下示例中,您可以在 1、客户端请求 2 查看读取和写入操作,并且您可以在 3 处更改时间范围。

    性能详情

其它资源

6.6. 监控镜像的整体性能

Red Hat Ceph Storage Dashboard 允许您监控块中镜像的整体性能。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 创建 RADOS 块设备(RBD)池。
  • 已创建镜像。
  • 为池启用 Manager 模块 Prometheus exporter。

    图 6.1. 示例

    启用 Prometheus 模块

流程

  1. 登录到仪表板。
  2. 在导航栏中,点 Block

    点 Block
  3. 从下拉菜单中选择 Images

    从下拉菜单中选择 Images
  4. 选择 Overall Performance 选项卡:

    整体性能选项卡
  5. Grafana Time Picker 下拉菜单中选择时间范围:

    镜像 Performance Grafana 下拉菜单
  6. 查看 Overall Performance 页面:

    镜像覆盖所有性能

第 7 章 管理集群

7.1. 管理集群

仪表板的管理功能允许您查看和修改配置设置,并管理集群资源。

7.2. 查看 CRUSH map

CRUSH map 包含 OSD 和相关信息的列表。CRUSH map 和 CRUSH 算法一起确定数据的保存方式和位置。Red Hat Ceph Storage 仪表板允许您查看 CRUSH map 的不同方面,包括 OSD 主机、OSD 守护进程、ID 号、设备类等。

CRUSH map 允许您确定特定 OSD ID 正在运行的节点。如果 OSD 存在问题,这很有用。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。

流程

  1. 登录到仪表板。
  2. 在导航栏中,单击 Cluster
  3. 单击 CRUSH map

    CRUSH map 初始视图

    在上例中,您可以看到在三个节点上运行的默认 CRUSH map、三个节点和 OSD。

  4. 单击 CRUSH map 名称、节点或 OSD,以查看各个对象的详细信息。

    CRUSH map 详情视图

    在上例中,您可以看到与 jb-rhel-osd3 节点上运行的 OSD 相关的变量的值。特别是,id2

其它资源

7.3. 配置管理器模块

Red Hat Ceph Storage 仪表板允许您查看并配置管理器模块参数。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。

流程

  1. 登录到仪表板。
  2. 在导航栏中,单击 Cluster
  3. Manager 模块

    Manager 模块初始视图

    以上屏幕截图显示了管理器模块的三个页面中的第一个。

  4. 点击您要配置的模块的行:

    管理模块编辑按钮

    并非所有模块都具有可配置参数。如果模块不可配置,则 Edit 按钮会被禁用。

  5. 在页面左上角,单击 Edit 按钮,以使用可配置参数加载页面。

    Manager 模块 hub 参数

    以上屏幕截图显示了您可以更改 balancer 模块的参数。要显示参数描述,请单击问号按钮。

  6. 要更改参数,修改参数的状态并点击页面底部的 更新 按钮:

    Manager 模块更新按钮

    确认更改的通知会出现在页面的右上角:

    Manager 模块更新的选项通知

7.4. 过滤日志

Red Hat Ceph Storage Dashboard 允许您根据以下标准查看和过滤日志。该条件包括 优先级关键字日期和时间 范围

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 安装了 Dashboard。
  • 由于 monitor 上次启动,因此日志条目已经生成。
注意

控制面板日志记录功能仅显示三十最新高级别事件。事件由 monitor 存储在内存中。在重新启动 monitor 后,条目会消失。如果您需要查看详细或旧的日志,请参阅基于文件的日志。有关 基于文件的日志的更多信息,请参阅下面的额外资源

流程

  1. 登录到仪表板。
  2. 点导航栏中的 Cluster 下拉菜单。
  3. 在下拉菜单中选择 Logs
  4. 查看最后 thirty unfiltered 日志条目。

    未过滤的集群日志。
    1. 要根据优先级过滤,请点击 Priority 下拉菜单并选择 Info、警告或错误。 以下示例仅显示优先级为 Error 的日志条目。

      按优先级过滤。
    2. 要按关键字过滤,请在 关键字 表单中输入文本。下例中仅显示包含文本 osd.2 的日志条目。

      按关键字过滤。
    3. 要根据日期进行过滤,请点击 Date 表单,并使用 date picker 从菜单中选择日期,或者以 YYYY-MM-DD 的形式输入日期。以下示例仅显示 2019-10-15 日期的日志条目。

      按日期过滤。
    4. 要按时间过滤,请使用 HH:MM - HH:MM 格式在 时间范围字段中输入范围。小时需要是数字 023。以下示例仅显示从 12:1412:23 的日志条目。

      按时间范围过滤。
    5. 要组合过滤器,请设置两个或更多过滤器。以下示例仅显示优先级为 Warningosd 关键字的条目。

      组合过滤器.

其它资源

7.5. 配置 OSD 恢复设置

作为存储管理员,您可以更改 OSD 恢复优先级,并自定义集群恢复方式。这可让您影响集群的重建性能或恢复速度。

先决条件

  • 红帽 Ceph 存储集群.
  • 已安装控制面板。

流程

  1. 登录控制面板。
  2. 点导航栏中的 Cluster 下拉菜单。
  3. 从下拉菜单中选择 OSD
  4. Cluster-Wide Flags 下拉菜单。

    点 Cluster-Wide Flags 下拉列表。
  5. 在下拉菜单中选择 Cluster-wide Recovery Priority

    选择群集范围内的恢复优先级。
  6. 可选:在下拉菜单中选择 优先级,然后单击" 提交 "按钮。

    注意

    有三个预定义的选项: LowDefaultHigh

    默认优先级值
  7. 可选:点击 Customize priority values,进行所需的更改,然后单击 Submit 按钮。

    自定义优先级值
  8. 弹出表示已成功更新页面右上角的通知。

    OSD 恢复速度更新的通知

其它资源

7.6. 查看和监控配置

Red Hat Ceph Storage 控制面板可以查看 Ceph 集群的所有配置选项列表。您还可以在控制面板中编辑配置。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。

流程

  1. 登录到仪表板。
  2. 在导航栏中,单击 Cluster,然后单击 Configuration
  3. 要查看配置详情,请点击其行:

    配置详情
    • 您可以使用 Search 框搜索配置:

      搜索配置
    • 您可以使用 LevelServiceSource 下拉菜单中选择配置:

      过滤器配置
  4. 要编辑配置,点其行并点 Edit 按钮:

    编辑配置
    1. 在对话窗口中,编辑所需参数并点 Save 按钮:

      编辑配置窗口

      确认更改的通知会出现在页面右上角。

      编辑配置通知

其它资源

7.7. 管理 Prometheus 环境

要使用 Prometheus 监控 Ceph 存储集群,您可以配置和启用 Prometheus 导出器,以便可以收集与 Ceph 存储集群相关的元数据信息。

先决条件

  • 正在运行的 Red Hat Ceph Storage 3.1 或更高版本的集群。
  • 安装红帽 Ceph 存储仪表板.
  • Red Hat Ceph Storage 仪表板节点的 root 级别访问。

流程

  1. 打开并编辑 /etc/prometheus/prometheus.yml 文件。

    1. global 部分下,将 scrape_intervalevaluation_interval 选项设置为 15 秒。

      示例

      global:
        scrape_interval:     15s
        evaluation_interval: 15s

    2. scrape_configs 部分下,添加 honor_labels: true 选项,并为每个 ceph-mgr 节点编辑 目标实例 选项。

      示例

      scrape_configs:
        - job_name: 'node'
          honor_labels: true
          static_configs:
          - targets: [ 'node1.example.com:9100' ]
            labels:
              instance: "node1.example.com"
          - targets: ['node2.example.com:9100']
            labels:
              instance: "node2.example.com"

      注意

      使用 honor_labels 选项可让 Ceph 输出与 Ceph 存储集群中任何节点相关的正确标记数据。这样,Ceph 可以在不覆盖 Prometheus 的情况下导出正确的 实例 标签。

    3. 要添加新节点,只需以以下格式添加 目标实例 选项:

      示例

      - targets: [ 'new-node.example.com:9100' ]
        labels:
          instance: "new-node"

      注意

      instance 标签必须与 Ceph 的 OSD 元数据 实例 字段中显示的内容匹配,这是节点的短主机名。这有助于将 Ceph 统计数据与节点的统计相关联。

  2. 将 Ceph 目标添加到 /etc/prometheus/ceph_targets.yml 文件,格式为:

    示例

    [
        {
            "targets": [ "cephnode1.example.com:9283" ],
            "labels": {}
        }
    ]

  3. 启用 Prometheus 模块:

    [root@mon ~]# ceph mgr module enable prometheus

7.8. 恢复 grafana-server 和 Prometheus

grafana-server 包括 Grafana UI、Prometheus、容器和 Red Hat Ceph Storage 配置。当 grafana-server 崩溃或有故障时,您可以通过备份文件并使用备份的文件恢复它。对于 Prometheus,您可以进行外部备份,然后恢复数据。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 对 Grafana 节点进行根级访问。

流程

  1. 恢复 Grafana 数据库:

    1. 在 grafana-server 节点上,停止 Grafana 服务:

      示例

      [root@node04 ~]# systemctl stop grafana-server.service
      [root@node04 ~]# systemctl status grafana-server.service

    2. 恢复 Grafana 数据库:

      示例

      [root@node04 ~]# cp /var/lib/grafana/grafana.db /var/lib/grafana/grafana_backup.db

    3. 在 grafana-server 节点上,重启 Grafana 服务:

      示例

      [root@node04 ~]# systemctl restart grafana-server.service

  2. 恢复 grafana-server:

    1. 在 grafana-server 节点上,如果 Grafana 服务处于运行状态,停止该服务:

      示例

      [root@node04 ~]# systemctl stop grafana-server.service
      [root@node04 ~]# systemctl status grafana-server.service

    2. 将支持的 grafana.db 文件移动到 /var/lib/grafana/ 目录中:

      示例

      [root@node04 ~]# mv /var/lib/grafana/grafana_backup.db /var/lib/grafana/

    3. 在 grafana-server 节点上,重启 Grafana 服务:

      示例

      [root@node04 ~]# systemctl restart grafana-server.service

  3. 对于 Prometheus 警报,您必须提取 prometheus_data_dir 目录的外部备份,即 Ceph-Ansible 设置,默认为 var/lib/prometheus 目录,并使用备份的目录恢复该服务。

    1. 在 grafana-server 节点上,停止 Prometheus 服务:

      示例

      [root@node04 ~]# systemctl stop prometheus.service
      [root@node04 ~]# systemctl status prometheus.service

    2. 备份默认 Prometheus 目录:

      示例

      [root@node04 ~]# cp /var/lib/prometheus/ /var/lib/prometheus_backup/

    3. prometheus_data_dir 目录替换为支持的目录:

      示例

      [root@node04 ~]# mv /var/lib/prometheus_backup/ /var/lib/prometheus_data_dir

    4. 在 grafana-server 节点上,重启 prometheus 服务:

      示例

      [root@node04 ~]# systemctl restart prometheus.service
      [root@node04 ~]# systemctl status prometheus.service

      注意

      如果您更改了 group_vars/all.yml 文件中的 Prometheus 参数,则必须重新运行 playbook。

  4. 可选:如果更改没有反映在 Red Hat Ceph Storage 仪表板中,则必须禁用并启用仪表板:

    示例

    [root@node04 ~]# ceph mgr module disable dashboard
    [root@node04 ~]# ceph mgr module enable dashboard

7.9. 查看和管理警报

作为存储管理员,您可以在 Red Hat Ceph Storage 仪表板中查看警报的详细信息,并为它们创建静默。这包括以下预定义警报:

  • OSD 故障
  • Ceph Health 错误
  • Ceph Health Warning
  • 集群容量低
  • 磁盘 Near Full
  • MON Down
  • 网络错误
  • OSD 主机丢失检查
  • OSD 主机故障
  • 带有高 PG 数的 OSD
  • PG(s)Stuck
  • 池容量低
  • OSD 响应缓慢

7.9.1. 查看警报

触发警报后,您可以在 Red Hat Ceph Storage 控制面板查看它。您还可以启用仪表板来发送电子邮件到警报。

注意

Red Hat Ceph Storage 4 集群中不支持简单邮件传输协议(SMTP)和 SSL。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 触发警报。

流程

  1. 登录到仪表板。
  2. 仪表板上自定义警报 模块,以获取存储集群的电子邮件警报:

    1. 在导航栏中,单击 Cluster
    2. 选择 Manager 模块
    3. 选择 警报 模块。
    4. Edit 下拉菜单中,选择 Edit。
    5. Edit Manager 模块 中,更新所需的参数并点 Update

      图 7.1. 为警报编辑 Manager 模块

      为警报编辑 Manager 模块
  3. 在导航栏中,单击 Cluster
  4. 从下拉菜单中选择 Monitoring
  5. 要查看警报的详情,请点击它的行:

    图 7.2. 警报详情

    警报详情
  6. 要查看警报的来源,请单击其行,然后单击 Source

7.9.2. 创建静默

您可以在 Red Hat Ceph Storage 仪表板中针对指定时间为警报创建静默。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 触发警报。

流程

  1. 登录到仪表板。
  2. 在导航栏中,单击 Cluster
  3. 从下拉菜单中选择 Monitoring
  4. 单击警报所在的行,然后单击 +Create Silence
  5. CreateSilence 窗口中,添加 Duration 的详细信息并点 Create Silence

    图 7.3. 创建 Silence

    创建 Silence
  6. 您会看到一个通知,说明静默已创建成功。

7.9.3. 重新创建静默

您可以从 Red Hat Ceph Storage Dashboard 的过期静默重新创建静默。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 触发警报。
  • 为警报创建的静默。

流程

  1. 登录到仪表板。
  2. 从下拉菜单中选择 Monitoring
  3. Silences 选项卡。
  4. 点击已过期静默所在的行。
  5. Recreate 按钮。
  6. RecreateSilence 窗口中,添加详情并点击 RecreateSilence

    图 7.4. 重新创建静默

    重新创建 Silence
  7. 您会看到一个通知,说明静默已被成功重新创建。

7.9.4. 编辑静默

您可以编辑活跃的静默,例如在 Red Hat Ceph Storage 仪表板中扩展它处于活跃状态的时间。如果静默已过期,您可以重新创建静默,或为警报创建新静默。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 触发警报。
  • 为警报创建的静默。

流程

  1. 登录到仪表板。
  2. 在导航栏中,单击 Cluster
  3. 从下拉菜单中选择 Monitoring
  4. Silences 选项卡。
  5. 点击静默所在的行。
  6. Edit 下拉菜单中,选择 Edit
  7. EditSilence 窗口中,更新详情并点击 Edit Silence

    图 7.5. 编辑静默

    编辑 Silence
  8. 您会看到一个通知,说明静默已被成功更新。

7.9.5. 使静默到期

您可以使静默到期,以便在 Red Hat Ceph Storage 仪表板中不隐藏匹配的警报。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 触发警报。
  • 为警报创建的静默。

流程

  1. 登录到仪表板。
  2. 在导航栏中,单击 Cluster
  3. 从下拉菜单中选择 Monitoring
  4. Silences 选项卡。
  5. 点击静默所在的行。
  6. Edit 下拉菜单中,选择 Expire
  7. Expire Silence 对话框中,选择 Yes, I am sure,然后单击 Expire Silence

    图 7.6. 过期的静默

    过期的静默
  8. 您会看到一个通知,该静默已成功过期。

7.9.6. 其它资源

7.10. 管理池

作为存储管理员,您可以创建、删除和编辑池。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装仪表板

7.10.1. 创建池

您可以创建池来对存储对象进行逻辑分区。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。

流程

  1. 登录控制面板。
  2. 在导航栏中,单击

    点池
  3. 点击页面左上角的 Create 按钮。

    点击 create
  4. 在对话窗口中,设置名称。

    设置名称
  5. 选择 replicated 或 Erasure Coded(EC)池类型。

    选择池类型
  6. 设置放置组(PG)号。

    设置 PG 号

    若要协助选择 PG 编号,可使用 PG 计算器。如果不确定,请联系红帽技术支持

  7. 可选:如果使用复制池类型,设置复制大小。

    复制的大小
  8. 可选:如果使用 EC 池类型,请配置以下附加设置。

    1. 可选: 要查看当前选择的 EC 配置集的设置,请点击问题标记。

      EC 配置集设置
      1. 显示所选 EC 配置集的设置表。

        EC 配置集表
    2. 可选:点加号符号添加新 EC 配置集。

      点加号符号
      1. 1 设置新 EC 配置集的名称,单击有关该设置的任何问号符号,并在修改所有必要设置后,单击 3

        EC 配置集对话框
      2. 选择新的 EC 配置集。

        选择新的 EC 配置集
    3. 可选:如果需要 EC 覆盖,点其按钮。

      EC overwites
  9. 可选:点击铅笔图标为池选择应用程序。

    选择适用类型
  10. 可选:如果需要压缩,请选择 passive, aggressive, 或 force

    压缩选择
  11. Create Pool 按钮。

    点 Create Pool
  12. 对页面右上角的通知表示池已成功创建。

    池创建通知

7.10.2. 编辑池

Red Hat Ceph Storage Dashboard 允许编辑池。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 已创建一个池。

流程

  1. 登录控制面板。
  2. 在导航栏中,单击

    点 Pools 菜单
  3. 要编辑池,请点其行:

    点池
  4. Edit 下拉菜单中选择 Edit:

    点编辑。
  5. 在对话窗口中,编辑所需参数,再单击 EditPool 按钮:

    编辑池窗口
  6. 对页面右上角的通知表示池已被成功更新。

    池编辑通知

其它资源

  • 如需更多信息,请参阅 Red Hat Ceph Storage 架构指南中的 Ceph
  • 有关压缩模式的更多信息,请参阅 Red Hat Ceph Storage 策略指南中的 池值

7.10.3. 删除池

Red Hat Ceph Storage Dashboard 允许删除池。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 已创建一个池。

流程

  1. 登录控制面板。
  2. 确保 mon_allow_pool_delete 的值设置为 true

    1. 在导航栏中,单击 Cluster,然后单击 Configuration
    2. Level 下拉菜单中选择 Advanced:

      点 Levels 下拉列表
    3. 搜索 mon_allow_pool_delete,并将值设为 true

      编辑配置
  3. 在导航栏中点 Pools

    点 Pools 菜单
  4. 要删除池,请点击其行:

    点池
  5. Edit 下拉列表中选择 Delete:

    点 Delete
  6. Delete Pool 对话框窗口中,单击 Yes,我确定 框,然后单击 Delete Pool 以保存设置:

    删除池窗口
  7. 对页面右上角的通知表示池已被成功删除。

    池删除通知

其它资源

  • 如需更多信息,请参阅 Red Hat Ceph Storage 架构指南中的 Ceph
  • 如需了解更多信息,请参阅 Red Hat Ceph Storage 仪表板指南中的 监控配置
  • 有关压缩模式的更多信息,请参阅 Red Hat Ceph Storage 策略指南中的 池值

第 8 章 对象网关

作为存储管理员,通过控制面板的对象网关功能,您可以管理和监控 Ceph 对象网关。

例如,监控功能允许您查看有关网关守护进程的详细信息,如其区域名称,或者 GET 和 PUT 速率的性能图形。通过管理功能,可以查看、创建和编辑用户和 bucket。

对象网关功能在守护进程功能、用户功能和 bucket 功能之间划分。

8.1. 先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 已安装 Ceph 对象网关。

8.2. 对象网关守护进程功能

作为存储管理员,Red Hat Ceph Storage 控制面板可以查看和监控 Ceph 对象网关守护进程的信息。

8.2.1. 先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 已安装 Ceph 对象网关。
  • 对象网关登录凭据添加到仪表板中。

8.2.2. 查看对象网关守护进程

通过控制面板,您可以查看所有 Ceph 对象网关守护进程的列表。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 已安装 Ceph 对象网关。
  • 对象网关登录凭据添加到仪表板中。

流程

  1. 登录到仪表板。
  2. 在导航栏中,单击 Object Gateway

    点 Object Gateway
  3. 单击 Daemons

    点 Daemons
  4. 在以下示例中,您可以在 Daemons List 中看到 IDjb-ceph4-rgw.rgw0 的守护进程。

    列表中的守护进程
  5. 要查看详情,请点击 jb-ceph4-rgw.rgw0 的行来选择守护进程:

    守护进程详情

    您可以看到后台程序正在提供的区域名称 是默认的

其它资源

8.3. 对象网关用户功能

作为存储管理员,Red Hat Ceph Storage 控制面板可以查看和管理 Ceph 对象网关用户。

8.3.1. 先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 已安装 Ceph 对象网关。
  • 对象网关登录凭据添加到仪表板中。

8.3.2. 查看对象网关用户

通过控制面板,您可以查看所有 Ceph 对象网关用户的列表。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 已安装 Ceph 对象网关。
  • 对象网关登录凭据添加到仪表板中。

流程

  1. 登录到仪表板。
  2. 在导航栏中,单击 Object Gateway

    点 Object Gateway
  3. Users

    点 Users
  4. 在以下示例中,您可以在表中看到名为 rgw-user 的用户。

    用户列表
  5. 要查看详情,请点击 rgw-user 所在的行来选择用户:

    用户详情

其它资源

8.3.3. 创建对象网关用户

控制面板允许您创建 Ceph 对象网关用户。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 已安装 Ceph 对象网关。
  • 对象网关登录凭据添加到仪表板中。

流程

  1. 登录到仪表板。
  2. 在导航栏中,单击 Object Gateway

    点 Object Gateway
  3. Users

    点 Users
  4. 点击 Create

    用户列表
  5. 设置用户名、全名,并根据需要编辑 bucket 的最大数量。

    创建用户对话框的基本设置
  6. 可选:设置电子邮件地址或挂起状态。

    设置电子邮件地址或暂停状态
  7. 可选:通过取消选中 Auto-generate key 来设置自定义 access key 和 secret key。

    1. 取消选中 Auto-generate 键

      取消选中 Aut-generate 密钥
    2. 设置 access key 和 secret 密钥:

      设置自定义访问密钥和 secret 密钥
  8. 可选:设置用户配额。

    1. User quota 下选中 Enabled

      启用检查
    2. 取消选择 Unlimited sizeUnlimited objects:

      取消选中无限大小或取消删除对象
    3. Max. sizeMax. objects 输入所需的值:

      为 Max. size 和 Max. objects 输入值。
  9. 可选:设置存储桶配额。

    1. Bucket 配额下选中 已启用

      启用检查
    2. 取消选择 Unlimited sizeUnlimited objects:

      取消选中无限大小或取消删除对象
    3. Max. sizeMax. objects 输入所需的值:

      为 Max. size 和 Max. objects 输入值。
  10. 单击 创建用户 来完成用户创建。

    点 Create User
  11. 验证用户创建是否成功。通知确认用户已创建,用户可以在用户表中看到。

    验证该用户是否已创建

其它资源

8.3.4. 编辑对象网关用户

通过控制面板,您可以编辑 Ceph 对象网关用户。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 已安装 Ceph 对象网关。
  • 对象网关登录凭据添加到仪表板中。
  • 已创建 Ceph 对象网关用户。

流程

  1. 登录到仪表板。
  2. 在导航栏中,单击 Object Gateway

    点 Object Gateway
  3. Users:

    点 Users
  4. 要编辑用户功能,请点其行:

    点用户行
  5. Edit 下拉菜单中选择 Edit:

    点编辑。
  6. EditUser 窗口中,编辑所需的参数并点 EditUser 按钮:

    编辑用户窗口
  7. 对页面右上角的通知表示用户已被成功更新。

    用户编辑通知

8.3.5. 删除对象网关用户

通过控制面板,您可以删除 Ceph 对象网关用户。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 已安装 Ceph 对象网关。
  • 对象网关登录凭据添加到仪表板中。
  • 已创建 Ceph 对象网关用户。

流程

  1. 登录到仪表板。
  2. 在导航栏中,单击 Object Gateway

    点 Object Gateway
  3. Users:

    点 Users
  4. 要删除用户,请点其行:

    点用户行
  5. Edit 下拉菜单中选择 Delete:

    点 Delete
  6. Delete User 对话框中,单击 Yes,我确定 框,然后单击 Delete User 以保存设置:

    删除用户窗口

8.3.6. 创建对象网关子用户

子用户与 S3 界面的用户关联。控制面板允许您创建 Ceph 对象网关子用户。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 已安装 Ceph 对象网关。
  • 对象网关登录凭据添加到仪表板中。
  • 已创建对象网关用户。

流程

  1. 登录到仪表板。
  2. 在导航栏中,单击 Object Gateway

    点 Object Gateway
  3. 从下拉菜单中选择 Users

    点 Users
  4. 在以下示例中,您可以在表中看到名为 ceph-dashboard 的用户。单击用户行来选择用户。

    选择用户
  5. 单击 Edit 下拉菜单,然后选择 Edit

    编辑下拉菜单
  6. 单击 +CreateSubuser 按钮。

    create Subuser
  7. 输入 子用户名 并选择相应的权限。

    设置子用户用户名
  8. 单击 Auto-generate secret 框,然后单击 Create Subuser 按钮。

    创建子用户对话框窗口
    注意

    通过单击 Auto-generate-secret 复选框,会自动生成对象网关的机密密钥。

  9. Edit User 窗口中,单击 Edit user 按钮。

    编辑窗口中的用户
  10. 验证子用户创建是否成功。弹出了显示对象网关用户已成功更新页面右上角的通知。

    对象网关用户更新通知

其它资源

8.4. 对象网关存储桶功能

作为存储管理员,Red Hat Ceph Storage 控制面板可以查看和管理 Ceph 对象网关 bucket。

8.4.1. 先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 已安装 Ceph 对象网关。
  • 对象网关登录凭据添加到仪表板中。

8.4.2. 查看对象网关存储桶

控制面板允许您查看和管理 Ceph 对象网关 bucket。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 已安装 Ceph 对象网关。
  • 对象网关登录凭据添加到仪表板中。
  • 已创建一个对象网关 bucket。

流程

  1. 登录到仪表板。
  2. 在导航栏中,单击 Object Gateway

    点 Object Gateway
  3. Buckets

    点 Buckets
  4. 在以下示例中,您可以在表中看到名为 my-bucket 的存储桶。

    列表中的存储桶
  5. 若要查看详细信息,可单击 my-bucket 所在的行,以选择存储桶。

    bucket 详情

其它资源

8.4.3. 创建对象网关存储桶

控制面板允许您创建 Ceph 对象网关 bucket。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 已安装 Ceph 对象网关。
  • 对象网关登录凭据添加到仪表板中。
  • 创建未暂停的对象网关用户。

流程

  1. 登录到仪表板。
  2. 在导航栏中,单击 Object Gateway

    点 Object Gateway
  3. Buckets

    点 Buckets
  4. 点击 Create

    点 Create
  5. Name 输入值并选择没有暂停的用户。

    设置名称和用户
  6. Create bucket

    点 Create Bucket
  7. 验证 bucket 创建是否成功。通知确认已创建存储桶,并且可以在 bucket 表中看到 bucket。

    验证是否已创建存储桶

其它资源

8.4.4. 编辑对象网关存储桶

通过控制面板,您可以编辑 Ceph 对象网关 bucket。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 已安装 Ceph 对象网关。
  • 对象网关登录凭据添加到仪表板中。
  • 创建未暂停的 Ceph 对象网关用户。
  • 已创建 Ceph 对象网关 bucket。

流程

  1. 登录到仪表板。
  2. 在导航栏中,单击 Object Gateway

    点 Object Gateway
  3. 点击 Buckets

    点 Buckets
  4. 要编辑存储桶,请点其行:

    点存储桶行
  5. Edit 下拉菜单中选择 Edit:

    点编辑。
  6. EditBucket 窗口中,编辑所需的参数并点 EditBucket 按钮:

    编辑 Bucket 窗口
  7. 对页面右上角的通知表示已成功更新存储桶。

    bucket 编辑通知

其它资源

8.4.5. 删除对象网关存储桶

通过控制面板,您可以删除 Ceph 对象网关 bucket。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 已安装 Ceph 对象网关。
  • 对象网关登录凭据添加到仪表板中。
  • 创建未暂停的 Ceph 对象网关用户。
  • 已创建 Ceph 对象网关 bucket。

流程

  1. 登录到仪表板。
  2. 在导航栏中,单击 Object Gateway

    点 Object Gateway
  3. 点击 Buckets

    点 Buckets
  4. 要删除存储桶,请点其行:

    点存储桶行
  5. Edit 下拉菜单中选择 Delete:

    点 Delete
  6. Delete Bucket 对话框中,点击 Yes,我确定 框,然后单击 Delete bucket 以保存设置:

    删除 Bucket 窗口

8.5. 在仪表板中手动添加对象网关登录凭证

Red Hat Ceph Storage 控制面板可以管理 Ceph 对象网关,也称为 RADOS 网关或 RGW。若要管理 Ceph 对象网关,控制面板必须使用具有 系统 标志的 RGW 用户的登录凭据来连接它。使用 ceph-ansible 安装对象网关时,它会自动将登录凭据添加到仪表板中。也可以手动设置登录凭据。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 已安装 Ceph 对象网关。

流程

  1. 获取 RGW 用户的 access_keysecret_key 启用了 系统 标志:

    • 如果您没有启用 RGW 用户且启用了 系统 标志,请创建一个。

      radosgw-admin user create --uid=USER_ID --display-name=DISPLAY_NAME --system

      例如:

      [root@mon ~]# radosgw-admin user create --uid=rgw-user --display-name=RGW-user --system
      {
          "user_id": "rgw-user",
          "display_name": "RGW-user",
          "email": "",
          "suspended": 0,
          "max_buckets": 1000,
          "subusers": [],
          "keys": [
              {
                  "user": "rgw-user",
                  "access_key": "BYC5SWQQH24A2BFHS2RC",
                  "secret_key": "159d94uHK9ADiWZrGsNYWYjRXCDrhL2xVi8PO6kT"
              }
          ],
          "swift_keys": [],
          "caps": [],
          "op_mask": "read, write, delete",
          "system": "true",
          "default_placement": "",
          "default_storage_class": "",
          "placement_tags": [],
          "bucket_quota": {
              "enabled": false,
              "check_on_raw": false,
              "max_size": -1,
              "max_size_kb": 0,
              "max_objects": -1
          },
          "user_quota": {
              "enabled": false,
              "check_on_raw": false,
              "max_size": -1,
              "max_size_kb": 0,
              "max_objects": -1
          },
          "temp_url_keys": [],
          "type": "rgw",
          "mfa_ids": []
      }

      记录 access_keysecret_key 的值。在上例中,access_keyBYC5SWQH24A2BFHS2RCsecret_key159d94uHK9ADiWZrGsNYWXCDrhL2xVi8PO6kT

    • 如果已创建了启用了 系统 标志的 RGW 用户,则使用 radosgw-admin 实用程序 的用户 info 命令获取凭据。

      radosgw-admin user info --uid=USER_ID

      例如:

      [root@mon ~]# radosgw-admin user info --uid=rgw-user
      {
          "user_id": "rgw-user",
          "display_name": "RGW-user",
          "email": "",
          "suspended": 0,
          "max_buckets": 1000,
          "subusers": [],
          "keys": [
              {
                  "user": "rgw-user",
                  "access_key": "BYC5SWQQH24A2BFHS2RC",
                  "secret_key": "159d94uHK9ADiWZrGsNYWYjRXCDrhL2xVi8PO6kT"
              }
          ],
          "swift_keys": [],
          "caps": [],
          "op_mask": "read, write, delete",
          "system": "true",
          "default_placement": "",
          "default_storage_class": "",
          "placement_tags": [],
          "bucket_quota": {
              "enabled": false,
              "check_on_raw": false,
              "max_size": -1,
              "max_size_kb": 0,
              "max_objects": -1
          },
          "user_quota": {
              "enabled": false,
              "check_on_raw": false,
              "max_size": -1,
              "max_size_kb": 0,
              "max_objects": -1
          },
          "temp_url_keys": [],
          "type": "rgw",
          "mfa_ids": []
      }

      记录 access_keysecret_key 的值。在上例中,access_keyBYC5SWQH24A2BFHS2RCsecret_key159d94uHK9ADiWZrGsNYWXCDrhL2xVi8PO6kT

  2. 为仪表板提供 access_keysecret_key 凭证:

    1. 为控制面板提供 access_key

      ceph dashboard set-rgw-api-access-key ACCESS_KEY

      例如:

      [root@mon ~]# ceph dashboard set-rgw-api-access-key BYC5SWQQH24A2BFHS2RC
      Option RGW_API_ACCESS_KEY updated
    2. secret_key 提供到控制面板。

      ceph dashboard set-rgw-api-secret-key SECRET_KEY

      例如:

      [root@mon ~]# ceph dashboard set-rgw-api-secret-key 159d94uHK9ADiWZrGsNYWYjRXCDrhL2xVi8PO6kT
      Option RGW_API_SECRET_KEY updated
  3. 为控制面板提供对象网关的主机名和端口:

    1. 将主机名提供给仪表板。

      ceph dashboard set-rgw-api-host HOST_NAME

      例如:

      [root@mon ~]# ceph dashboard set-rgw-api-host 192.168.122.193
      Option RGW_API_HOST updated
    2. 将端口提供给控制面板。

      ceph dashboard set-rgw-api-port PORT

      例如:

      [root@mon ~]# ceph dashboard set-rgw-api-port 8080
      Option RGW_API_PORT updated
  4. 可选: 如果您使用带有自签名证书的 HTTPS,在仪表板中禁用证书验证以避免拒绝的连接。

    当证书由未知证书颁发机构签名,或者使用的主机名与证书中的主机名不匹配时,可能会发生拒绝的连接。

    ceph dashboard set-rgw-api-ssl-verify false

    例如:

    [root@mon ~]# ceph dashboard set-rgw-api-ssl-verify false
    Option RGW_API_SSL_VERIFY updated

其它资源

第 9 章 块设备

9.1. 块设备简介

仪表板的块设备功能允许您管理和监控块设备镜像。该功能划分到通用镜像功能、镜像功能、iSCSI 功能和服务质量配置之间。例如,您可以创建新镜像,查看集群中镜像的镜像状态,管理或监控 iSCSI 目标,以及设置镜像的 IOPS 限制。

9.2. 镜像功能

控制面板提供了几种与管理和监控镜像相关的功能。

9.2.1. 先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。

9.2.2. 创建镜像

仪表板允许您创建镜像。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 创建启用了 rbd 应用的池。

流程

  1. 登录到仪表板。
  2. 在导航栏中,点 Block

    点 Block
  3. 从下拉菜单中选择 Images

    从下拉菜单中选择 Images
  4. Images 选项卡中,点击 Create 按钮:

    创建镜像
  5. CreateRBD 窗口中输入参数:

    创建镜像窗口
  6. 可选:点 Advanced 并设置参数:

    创建镜像高级设置
    创建镜像高级设置参数
  7. 单击 CreateRBD 按钮:

    点 Create RBD
  8. 页面右上角发出的通知表示镜像已创建成功。

    镜像创建通知

其它资源

9.2.3. 查看镜像

仪表板允许您查看镜像。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 镜像在集群中。

流程

  1. 登录到仪表板。
  2. 在导航栏中,单击 Block
  3. Images

    镜像视图

    在上例中,您可以看到一个名为 disk_1 的 10 GiB 镜像。

  4. 要查看详情,请点击 disk_1 所在的行来选择镜像:

    镜像查看详情

其它资源

9.2.4. 编辑镜像

仪表板允许您编辑镜像

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 创建启用了 rbd 应用的池。
  • 已创建一个镜像。

流程

  1. 登录到仪表板。
  2. 在导航栏中,点 Block

    点 Block
  3. 从下拉菜单中选择 Images

    从下拉菜单中选择 Images
  4. 要编辑镜像,在 Images 选项卡中点其行:

    点 Image 行
  5. Edit 下拉菜单中选择 Edit:

    点编辑。
  6. EditRBD 对话框中,编辑所需的参数并点 EditRBD 按钮:

    编辑镜像对话框
  7. 对页面右上角的通知表示镜像已被成功更新。

    镜像编辑通知

其它资源

  • 如需更多信息,请参阅 Red Hat Ceph Storage Dashboard 指南中的 创建镜像 部分。

9.2.5. 复制镜像

仪表板允许您复制镜像。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 创建启用了 rbd 应用的池。
  • 已创建一个镜像。

流程

  1. 登录到仪表板。
  2. 在导航栏中,点 Block

    点 Block
  3. 从下拉菜单中选择 Images

    从下拉菜单中选择 Images
  4. 要复制镜像,在 Images 选项卡中点其行:

    点 Image 行
  5. 选择 Copy in the Edit 下拉列表:

    点 Copy
  6. CopyRBD 窗口中,编辑所需的参数,然后单击 CopyRBD 按钮:

    复制镜像窗口
  7. 对页面右上角的通知表示镜像已被成功更新。

    复制镜像通知

其它资源

  • 如需更多信息,请参阅 Red Hat Ceph Storage Dashboard 指南中的 创建镜像 部分。

9.2.6. 将镜像移动到回收站

通过控制面板,您可以将镜像移动到回收站。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 创建启用了 rbd 应用的池。
  • 已创建一个镜像。

流程

  1. 登录到仪表板。
  2. 在导航栏中,点 Block

    点 Block
  3. 从下拉菜单中选择 Images

    从下拉菜单中选择 Images
  4. 要将镜像移动到 Trash,在 Images 选项卡中点其行:

    点 Image 行
  5. 选择 Move to Trash in the Edit 下拉菜单:

    点 Move to Trash
  6. Moving a image to trash 窗口中,编辑镜像需要保护的日期,然后单击 Move Image 按钮:

    将镜像移动到 Trash 窗口
  7. 该页面右上角发出的通知表示镜像已成功移到垃圾箱中。

    将镜像移动到回收通知

9.2.7. purging trash

仪表板允许您清除镜像的垃圾箱。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 创建启用了 rbd 应用的池。
  • 已回收镜像。

流程

  1. 登录到仪表板。
  2. 在导航栏中,点 Block

    点 Block
  3. 从下拉菜单中选择 Images

    从下拉菜单中选择 Images
  4. 在 Trash 选项卡中,点 Purge Trash 按钮:

    点 Purge Trash
  5. Purge Trash 窗口中,选择池,然后单击 清除垃圾 按钮:

    清除 Trash 窗口
  6. 对页面右上角的通知表示已成功从所选池中清除镜像。

    从垃圾通知中清除

其它资源

  • 如需了解更多详细信息,请参阅 Red Hat Ceph Storage Block Device Guide 中的 Purging the Block Device 一节。

9.2.8. 从回收站中恢复镜像

仪表板允许您从回收站中恢复镜像。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 创建启用了 rbd 应用的池。
  • 已回收镜像。

流程

  1. 登录到仪表板。
  2. 在导航栏中,点 Block

    点 Block
  3. 从下拉菜单中选择 Images

    从下拉菜单中选择 Images
  4. 要从 Trash 选项卡中恢复镜像,请点击它的行:

    点 Trash 选项卡中的 Image 行
  5. Restore 下拉列表中选择 Restore:

    点 Restore
  6. Restore Image 窗口中,输入镜像的名称,然后点 Restore Image 按钮:

    从 Trash 窗口恢复
  7. 页面右上角发出的通知表示镜像已从回收站中恢复。

    从垃圾通知中恢复

其它资源

  • 有关在 RBD 池中创建镜像 的更多信息,请参阅 Red Hat Ceph Storage Dashboard Guide 中的创建镜像部分。

9.2.9. 删除镜像

仪表板允许您删除镜像。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 创建启用了 rbd 应用的池。
  • 已创建一个镜像。

流程

  1. 登录到仪表板。
  2. 在导航栏中,点 Block

    点 Block
  3. 从下拉菜单中选择 Images

    从下拉菜单中选择 Images
  4. 要编辑镜像,在 Images 选项卡中点其行:

    点 Image 行
  5. Edit 下拉菜单中选择 Delete:

    点 Delete
  6. Delete RBD 对话框窗口中 ,单击 Yes,再单击 Delete RBD 以保存设置:

    删除镜像窗口
  7. 该页面右上角发出的通知表示镜像已成功移到垃圾箱中。

    删除镜像通知

9.2.10. 创建镜像快照

通过控制面板,您可以拍摄 Ceph 块设备镜像的快照。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 创建启用了 rbd 应用的池。
  • 已创建一个镜像。

流程

  1. 登录到仪表板。
  2. 在导航栏中,点 Block

    点 Block
  3. 从下拉菜单中选择 Images

    从下拉菜单中选择 Images
  4. 要生成镜像的快照,在 Images 选项卡中点其行,然后点 Snapshots 选项卡:

    点 Snapshots 标签页
  5. Create 下拉列表中选择 Create:

    创建镜像的快照
  6. CreateRBD Snapshot 对话框中,输入参数,再单击 CreateRBD Snapshot 按钮:

    为镜像对话框创建快照
  7. 页面右上角发出的通知表示已成功创建映像的快照。

    创建镜像通知的快照

其它资源

9.2.11. 重命名镜像快照

控制面板允许您重命名 Ceph 块设备镜像的快照。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 创建启用了 rbd 应用的池。
  • 已创建一个镜像。
  • 创建镜像的快照。

流程

  1. 登录到仪表板。
  2. 在导航栏中,点 Block

    点 Block
  3. 从下拉菜单中选择 Images

    从下拉菜单中选择 Images
  4. 要重命名镜像的快照,在 Images 选项卡中点其行,然后点 Snapshots 选项卡:

    点 Snapshots 标签页
  5. Rename 下拉菜单中选择 Rename:

    重命名镜像的快照
  6. RenameRBD Snapshot 对话框中,输入参数并点 RenameRBD Snapshot 按钮:

    对镜像对话框进行重命名快照
  7. 对页面右上角的通知表示已成功更新镜像的快照。

    镜像通知的快照更新

其它资源

  • 如需更多信息,请参阅 Red Hat Ceph Storage Block Device Guide] 中的重新定义 块设备快照 部分。
  • 如需了解更多与创建 RBD 池的详细信息,请参阅 Red Hat Ceph Storage Dashboard Guide 中的创建池部分。
  • 有关在 RBD 池中创建镜像 的更多信息,请参阅 Red Hat Ceph Storage Dashboard Guide 中的创建镜像部分。

9.2.12. 保护镜像快照

控制面板允许您保护 Ceph 块设备镜像的快照。当您需要克隆快照时,这是必需的。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 创建启用了 rbd 应用的池。
  • 已创建一个镜像。
  • 创建镜像的快照。

流程

  1. 登录到仪表板。
  2. 在导航栏中,点 Block

    点 Block
  3. 从下拉菜单中选择 Images

    从下拉菜单中选择 Images
  4. 要保护镜像的快照,在 Images 选项卡中点其行,然后点 Snapshots 选项卡:

    点 Snapshots 标签页
  5. Rename 下拉菜单中选择 Protect:

    保护镜像快照
  6. 对页面右上角的通知表示已成功更新镜像的快照。

    镜像通知的快照更新

其它资源

  • 如需更多信息,请参阅 Red Hat Ceph Storage Block Device Guide] 中的 保护块设备快照 部分。
  • 如需了解更多与创建 RBD 池的详细信息,请参阅 Red Hat Ceph Storage Dashboard Guide 中的创建池部分。
  • 有关在 RBD 池中创建镜像 的更多信息,请参阅 Red Hat Ceph Storage Dashboard Guide 中的创建镜像部分。

9.2.13. 克隆镜像快照

通过控制面板,您可以克隆 Ceph 块设备镜像的快照。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 创建启用了 rbd 应用的池。
  • 已创建一个镜像。
  • 创建镜像的快照。
  • 镜像的快照受到保护。

流程

  1. 登录到仪表板。
  2. 在导航栏中,点 Block

    点 Block
  3. 从下拉菜单中选择 Images

    从下拉菜单中选择 Images
  4. 要克隆镜像的快照,在 Images 选项卡中点其行,然后点 Snapshots 选项卡:

    点 Snapshots 标签页
  5. Rename 下拉菜单中选择 Clone

    重命名镜像的快照
  6. CloneRBD 对话框中,输入参数并点 CloneRBD 按钮:

    镜像对话框的克隆快照
  7. 页面右上角发出的通知表示已成功克隆镜像的快照。

    镜像通知的快照克隆

其它资源

9.2.14. 复制镜像快照

通过控制面板,您可以复制 Ceph 块设备镜像的快照。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 创建启用了 rbd 应用的池。
  • 已创建一个镜像。
  • 创建镜像的快照。

流程

  1. 登录到仪表板。
  2. 在导航栏中,点 Block

    点 Block
  3. 从下拉菜单中选择 Images

    从下拉菜单中选择 Images
  4. 要复制镜像的快照,在 Images 选项卡中点其行,然后点 Snapshots 选项卡:

    点 Snapshots 标签页
  5. Rename 下拉菜单中选择 Copy

    镜像的副本快照
  6. CopyRBD 对话框中,输入参数并单击 CopyRBD 按钮:

    对镜像对话框进行重命名快照
  7. 对页面右上角的通知表示已成功更新镜像的快照。

    镜像通知的复制快照

其它资源

  • 如需了解更多与创建 RBD 池的详细信息,请参阅 Red Hat Ceph Storage Dashboard Guide 中的创建池部分。
  • 有关在 RBD 池中创建镜像 的更多信息,请参阅 Red Hat Ceph Storage Dashboard Guide 中的创建镜像部分。

9.2.15. 镜像的回滚快照

通过控制面板,您可以回滚 Ceph 块设备镜像的快照。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 创建启用了 rbd 应用的池。
  • 已创建一个镜像。
  • 创建镜像的快照。

流程

  1. 登录到仪表板。
  2. 在导航栏中,点 Block

    点 Block
  3. 从下拉菜单中选择 Images

    从下拉菜单中选择 Images
  4. 要回滚镜像的快照,在 Images 选项卡中点其行,然后点 Snapshots 选项卡:

    点 Snapshots 标签页
  5. Rename 下拉菜单中选择 Rollback:

    镜像的回滚快照
  6. RBD 快照回滚 窗口中,单击 Rollback 按钮:

    镜像窗口的回滚快照
  7. 对页面右上角的通知表示已成功回滚镜像的快照。

    镜像通知的回滚快照

其它资源

9.2.16. 取消保护镜像快照

通过控制面板,您可以取消保护 Ceph 块设备镜像的快照。当您需要删除快照时,这是必需的。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 创建启用了 rbd 应用的池。
  • 已创建一个镜像。
  • 创建镜像的快照。
  • 镜像的快照受到保护。

流程

  1. 登录到仪表板。
  2. 在导航栏中,点 Block

    点 Block
  3. 从下拉菜单中选择 Images

    从下拉菜单中选择 Images
  4. 要取消保护镜像的快照,在 Images 选项卡中点其行,然后点 Snapshots 选项卡:

    点 Snapshots 标签页
  5. Rename 下拉菜单中选择 UnProtect:

    镜像取消保护快照
  6. 对页面右上角的通知表示已成功更新镜像的快照。

    镜像通知的快照更新

其它资源

  • 如需更多信息,请参阅 Red Hat Ceph Storage Block Device Guide 中的 取消保护块设备快照 部分。
  • 如需了解更多与创建 RBD 池的详细信息,请参阅 Red Hat Ceph Storage Dashboard Guide 中的创建池部分。
  • 有关在 RBD 池中创建镜像 的更多信息,请参阅 Red Hat Ceph Storage Dashboard Guide 中的创建镜像部分。
  • 如需了解更多详细信息,请参阅 Red Hat Ceph Storage Dashboard 指南中的 保护镜像快照部分

9.2.17. 删除镜像快照

通过控制面板,您可以删除 Ceph 块设备镜像的快照。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 创建启用了 rbd 应用的池。
  • 已创建一个镜像。
  • 创建镜像的快照。
  • 镜像的快照未受保护。

流程

  1. 登录到仪表板。
  2. 在导航栏中,点 Block

    点 Block
  3. 从下拉菜单中选择 Images

    从下拉菜单中选择 Images
  4. 要删除镜像的快照,在 Images 选项卡中点其行,然后点 Snapshots 选项卡:

    点 Snapshots 标签页
  5. Rename 下拉菜单中选择 Delete

    删除镜像的快照
  6. 对页面右上角的通知表示已成功更新镜像的快照。

    删除镜像通知的快照

其它资源

  • 如需更多信息,请参阅 Red Hat Ceph Storage Block Device Guide] 中的 删除块设备快照 部分。
  • 如需了解更多详细信息,请参阅 Red Hat Ceph Storage Dashboard 指南中的 镜像快照部分

9.3. 镜像功能

通过控制面板,您可以管理和监控镜像功能。

9.3.1. 先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。

9.3.2. 镜像视图

通过控制面板,您可以查看镜像功能的整体状态。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 镜像功能已配置。

流程

  1. 登录到仪表板。
  2. 在导航栏中,单击 Block
  3. 点击 镜像功能

    镜像视图

    在上例中,您可以看到镜像信息归类到标有 DaemonsPoolsImages 的表中。

其它资源

9.3.3. 编辑模式

通过控制面板,您可以编辑镜像功能(包括池和镜像)的整体状态模式。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 创建启用了 rbd 应用的池。
  • 已创建一个镜像。
  • 镜像功能已配置。

流程

  1. 登录到仪表板。
  2. 在导航栏中,点 Block

    点 Block
  3. 从下拉菜单中 点 image:

    点 image
  4. 池选项卡 中点行:

    点行
  5. Edit Mode 下拉菜单中选择 Edit Mode:

    点 Edit Mode
  6. Edit Pool mirror mode 窗口中,从下拉菜单中选择模式,然后点 Update 按钮:

    编辑模式窗口
  7. 对页面右上角的通知表示已成功更新镜像模式。

    镜像模式编辑通知

其它资源

9.3.4. 在镜像中添加 peer

仪表板允许您为'rbd-daemon' 镜像添加存储集群 peer 来发现其对等存储集群。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 创建启用了 rbd 应用的池。
  • 已创建一个镜像。
  • 镜像功能已配置。

流程

  1. 登录到仪表板。
  2. 在导航栏中,点 Block

    点 Block
  3. 从下拉菜单中 点 image:

    点 image
  4. 池选项卡 中点行

    点行
  5. Edit Mode 下拉菜单中,选择 Add peer

    点 Add peer
  6. Add pool mirror peer 窗口中,输入参数,然后点 Submit 按钮:

    添加 peer 窗口
  7. 对页面右上角的通知表示镜像对等点已成功创建。

    添加对等通知

其它资源

9.3.5. 编辑镜像中的 peer

仪表板允许您编辑 'rbd-daemon' mirror 的存储集群来发现其对等存储集群。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 创建启用了 rbd 应用的池。
  • 已创建一个镜像。
  • 镜像功能已配置。
  • 添加了对等点。

流程

  1. 登录到仪表板。
  2. 在导航栏中,单击 Block

    点 Block
  3. 从下拉菜单中 点 image:

    点 image
  4. 池选项卡 中点行

    点行
  5. Edit Mode 下拉菜单中选择 Edit peer:

    点 Edit peer
  6. Edit pool mirror peer 窗口中,编辑参数,然后点 Submit 按钮:

    编辑对等窗口
  7. 对页面右上角的通知表示镜像对等点已被成功更新。

    编辑对等通知

其它资源

9.3.6. 删除镜像中的 peer

仪表板允许您编辑 'rbd-daemon' mirror 的存储集群来发现其对等存储集群。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 创建启用了 rbd 应用的池。
  • 已创建一个镜像。
  • 镜像功能已配置。
  • 添加了对等点。

流程

  1. 登录到仪表板。
  2. 在导航栏中,单击 Block

    点 Block
  3. 从下拉菜单中 点 image:

    点 image
  4. 池选项卡 中点行:

    点行
  5. Edit Mode 下拉菜单中,选择 Delete peer

    点 Delete peer
  6. Delete mirror peer 对话框窗口中,点 Yes, I am sure box,然后单击 Delete mirror peer 以保存设置:

    删除镜像窗口
  7. 该页面右上角发出的通知表示镜像已成功移到垃圾箱中。

    删除对等通知

其它资源

9.4. iSCSI 功能(有限的可用性)

控制面板允许您管理和监控 iSCSI 镜像和目标。在使用控制面板管理和监控 iSCSI 镜像和目标之前,您必须在其中添加网关并启用仪表板 iSCSI 功能。

注意

该技术是有限可用性。如需更多信息,请参阅 已弃用的功能 章节。

9.4.1. 先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • iSCSI 网关 添加到仪表板 中

9.4.2. 在仪表板中手动添加 iSCSI 网关

Red Hat Ceph Storage Dashboard 可以使用 Ceph iSCSI 网关的 rbd-target-api 服务提供的 REST API 管理 iSCSI 目标。您必须在仪表板中添加 API 地址,然后才能访问它。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 已安装 Ceph iSCSI 网关。
重要

Ceph iSCSI 网关需要最低两个网关,才能提供高可用性。

流程

  1. 登录 monitor 节点。
  2. 可选:如果使用自签名证书在 HTTPS 模式中配置 iSCSI 网关的 REST API,您必须配置仪表板以避免访问 API 时的 SSL 证书验证。运行以下命令以禁用 SSL 验证。

    # ceph dashboard set-iscsi-api-ssl-verification false

    例如:

    [root@mon ~]# ceph dashboard set-iscsi-api-ssl-verification false
    Option ISCSI_API_SSL_VERIFICATION updated
  3. 为网关创建两个文件:

    # echo "SCHEME :// USERNAME : PASSWORD @ HOST [: PORT ]" > FILE_CONTAINING_GATEWAY_URL

    例如:

    [root@mon ~]# echo "http://admin:admin@192.168.122.157:5000" > /tmp/first_gateway
    [root@mon ~]# echo "http://admin:admin@192.168.122.193:5000" > /tmp/second_gateway
    注意

    配置 iSCSI 目标 时设置了 USERNAMEPASSWORD。其凭据可以从 iSCSI 网关节点上的 iscsi-gateway.cfg 文件中检索。

  4. 在仪表板中添加两个网关:

    # ceph dashboard iscsi-gateway-add -i FILE_CONTAINING_GATEWAY_URL

    例如:

    [root@mon ~]# ceph dashboard iscsi-gateway-add -i /tmp/first_gateway
    Success
    [root@mon ~]# ceph dashboard iscsi-gateway-add -i /tmp/second_gateway
    Success
  5. 验证网关是否已正确添加:

    # ceph dashboard iscsi-gateway-list

    例如:

    [root@mon ~]# ceph dashboard iscsi-gateway-list
    {"gateways": {"ceph4": {"service_url": "http://admin:admin@192.168.122.193:5000"}, "ceph4": {"service_url": "http://admin:admin@192.168.122.193:5000"}}}
  6. 可选:如果添加网关时出错,您可以通过在 iscsi-gateway-list 中指定其主机名来删除它:

    # ceph dashboard iscsi-gateway-rm GATEWAY_NAME

    例如:

    [root@mon ~]# ceph dashboard iscsi-gateway-rm ceph4
    Success

其它资源

9.4.3. iSCSI 概述

控制面板提供概述,其中显示了通过 iSCSI 导出的 iSCSI 网关主机和镜像。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 已安装 Ceph iSCSI 网关。
  • iSCSI 网关添加到仪表板中。
  • 启用仪表板 iSCSI 功能。

流程

  1. 登录到仪表板。
  2. 在导航栏中,单击 Block
  3. 点击 iSCSI

    iSCSI 概述

其它资源

9.4.4. 创建 iSCSI 目标

仪表板允许您创建 iSCSI 目标。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • Ceph iSCSI 网关安装至少有两个网关。
  • iSCSI 网关添加到仪表板中。
  • 启用仪表板 iSCSI 功能。
  • 启用了 RBD 应用的复制池。
  • 启用了 RBD 应用的纠删代码池。

流程

  1. 登录到仪表板。
  2. 在导航栏中,单击 Block
  3. 点击 iSCSI

    iSCSI 概述
  4. 在页面的左上角点击 Targets 选项卡:

    iSCSI 目标
  5. 在页面的左上角点击 Add 按钮:

    创建目标初始视图
  6. 可选:修改目标 IQN。

    修改目标 IQN
  7. 可选:为目标设置高级设置。

    1. 点击 gear 为目标设置高级设置。

      用于目标 IQN 的高级设置的工具
    2. Advanced Settings 对话框窗口中设置高级设置。

      目标 IQN 的高级设置
    3. Confirm 保存设置。
  8. Add portal 按钮并选择至少两个网关中的第一个:

    添加门户 1
  9. Add portal 按钮并选择至少两个网关的第二个网关:

    添加附加网关

    为任何其他网关重复此步骤。

  10. Add image 按钮并选择目标要导出的镜像:

    添加镜像

    为任何其他镜像重复此步骤。

  11. 可选:修改镜像。

    1. 点击镜像右侧的 gear

      工具配置镜像
    2. 在配置对话框窗口中修改镜像设置:

      配置镜像
    3. Confirm 保存设置。
  12. 点击 ACL 身份验证 框,然后点 添加发起程序 按钮:

    ACL 验证并添加 initiator
  13. 在第一个文本框中从客户端输入 IQN:

    客户端 IQN

    从 initiator 软件运行的系统中检索客户端 IQN。如需更多信息 ,请参阅 块设备指南中的 配置 iSCSI 启动器

  14. 输入目标的用户名和密码详情:

    添加 initiator 用户名和密码
  15. Add image 并选择镜像:

    添加镜像

    为任何其他镜像重复此步骤。

  16. 点击 Create Target 按钮完成此步骤:

    创建目标按钮
  17. 通过在 Targets 页面中查找目标来验证已添加目标。

    要找到 Targets 页面,请按照 控制面板指南中的 查看 iSCSI 目标 的步骤。

其它资源

9.4.5. 查看 iSCSI 目标

仪表板允许您查看 iSCSI 目标。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 已安装 Ceph iSCSI 网关。
  • 已创建一个 iSCSI 目标。

流程

  1. 登录到仪表板。
  2. 在导航栏中,单击 Block,然后单击 iSCSI

    点 Block,然后点 iSCSI
  3. 在页面的左上角点击 Targets 选项卡:

    点 Targets
  4. 要查看目标的详情,请点击它的行:

    点目标行
  5. 您可以查看 iSCSI 拓扑,包括发起方是否登录:

    iSCSI 拓扑
  6. 点击对象来查看它的详细信息:

    目标 IQN 详情

    注意:只有有些对象才会在点击时显示详细信息。

其它资源

9.4.6. 编辑 iSCSI 目标

仪表板允许您编辑 iSCSI 目标。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • Ceph iSCSI 网关安装至少有两个网关。
  • iSCSI 网关添加到仪表板中。
  • 启用仪表板 iSCSI 功能。
  • 启用了 RBD 应用的复制池。
  • 启用了 RBD 应用的纠删代码池。
  • 已创建一个 iSCSI 目标。

流程

  1. 登录到仪表板。
  2. 在导航栏中,单击 Block
  3. 点击 iSCSI

    iSCSI 概述
  4. 在页面的左上角点击 Targets 选项卡:

    点 Targets
  5. 要编辑目标,请点击其行:

    点目标行
  6. 在页面的左上角,单击 Edit 按钮。

    编辑目标初始视图
  7. 编辑参数并点 编辑目标 按钮。

    编辑目标窗口
  8. Targets 页面中查找目标,以验证是否已编辑该目标。

    要找到 Targets 页面,请按照 控制面板指南中的 查看 iSCSI 目标 的步骤。

其它资源

9.4.7. 删除 iSCSI 目标

仪表板允许您删除 iSCSI 目标。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • Ceph iSCSI 网关安装至少有两个网关。
  • iSCSI 网关添加到仪表板中。
  • 启用仪表板 iSCSI 功能。
  • 已创建一个 iSCSI 目标。
  • 断开所有 iSCSI 启动器。请参阅 断开 iSCSI 启动器

流程

  1. 登录到仪表板。
  2. 在导航栏中,单击 Block
  3. 点击 iSCSI

    iSCSI 概述
  4. 在页面的左上角点击 Targets 选项卡:

    点 Targets
  5. 要删除某个目标,请点击其行:

    点目标行
  6. 在页面的左上角,单击 Edit 下拉菜单。
  7. 从下拉菜单中,选择 Delete:

    删除目标初始视图
  8. 单击 是,我确定 框,然后单击 Delete iSCSI 以保存设置。

    删除 iSCSI 窗口

其它资源

9.4.8. 设置发现身份验证

控制面板允许使用 CHAP/CHAP_MUTUAL 来发现身份验证。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • Ceph iSCSI 网关安装至少有两个网关。
  • iSCSI 网关添加到仪表板中。
  • 启用仪表板 iSCSI 功能。
  • 启用了 RBD 应用的复制池。
  • 启用了 RBD 应用的纠删代码池。

流程

  1. 登录到仪表板。
  2. 在导航栏中,单击 Block
  3. 点击 iSCSI

    iSCSI 概述
  4. 进入页面左上角,点 Targets 选项卡。

    iSCSI 目标
  5. 在页面的左上角,单击 发现身份验证 按钮。

    发现身份验证
  6. 发现验证 窗口中,提供详细信息,然后单击提交 按钮。

    发现验证窗口

9.5. 服务质量配置

作为存储管理员,您可以使用服务质量(QoS)限制来优先处理池或镜像的性能,以便所有镜像都能获得满足特定业务需求所需的资源。

9.5.1. 先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。

9.5.2. 在现有镜像上配置服务质量

作为存储管理员,您可以使用服务质量(QoS)限制来对现有镜像的性能进行优先化或禁止编写。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 启用了 RBD 应用的复制池。
  • 启用了 RBD 应用的纠删代码池。
  • 现有镜像。

流程

  1. 登录控制面板。
  2. 在导航栏中,单击 Block,然后单击 Images

    点 Block,然后点 Images。
  3. 点击镜像行来选择它进行编辑:

    选择镜像。
  4. Edit 按钮:

    点编辑按钮。
  5. Advanced 进入对话框的右下角:

    点 Advanced…​
  6. 点击 服务质量 旁边的加号符号以打开 QoS 设置:

    打开 QoS 设置。
  7. 可选:点单个设置旁的问号符号找到更多有关它的信息。

    点问号符号。
  8. 为您要更改的 QoS 设置输入或编辑值:

    输入 QoS 设置的值。
  9. 可选:点击任意设置的清除符号删除本地值,并从父池或全局配置中继承值。

    点 eraser 符号删除本地值。

    设置的字段被禁用,表示它从父项继承值。

    已禁用字段。
  10. Edit 按钮保存更改。

    保存更改。

9.5.3. 在现有池中配置服务质量

作为存储管理员,您可以在现有池上配置服务质量(QoS)。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 启用了 RBD 应用的复制池。
  • 启用了 RBD 应用的纠删代码池。

流程

  1. 登录控制面板。
  2. 在导航栏中,单击

    Click Pools.

  3. 单击含有 RBD 应用的复制池行,以选择它进行编辑:

    选择一个池。
  4. Edit 按钮:

    点编辑按钮。
  5. 点击 服务质量 旁边的加号符号以打开 QoS 设置:

    打开 QoS 设置。
  6. 可选:点单个设置旁的问号符号找到更多有关它的信息。

    点问号符号。
  7. 为您要更改的 QoS 设置输入或编辑值:

    输入 QoS 设置的值。
  8. 可选:点击任意设置的清除符号删除本地值,并从父全局配置中继承值。

    点 eraser 符号删除本地值。

    设置的字段被禁用,表示它从父项继承值。

    已禁用字段。
  9. Edit 按钮保存更改。

    保存更改。

9.5.4. 在创建镜像时配置服务质量

作为存储管理员,您可以在创建镜像时配置服务质量(QoS)限制。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 启用了 RBD 应用的复制池。
  • 启用了 RBD 应用的纠删代码池。

流程

  1. 登录控制面板。
  2. 在导航栏中,单击 Block,然后单击 Images

    点 Block,然后点 Images。
  3. Create 按钮:

    点 Create 按钮。
  4. 1 处,设置名称(位于 2), 将池设置为 3,设置大小,以及 4,单击 高级

    设置基本镜像设置
  5. 点击 服务质量 旁边的加号符号以打开 QoS 设置:

    打开 QoS 设置。
  6. 可选:点单个设置旁的问号符号找到更多有关它的信息。

    点问号符号。
  7. 为您要更改的 QoS 设置输入或编辑值:

    输入 QoS 设置的值。
  8. 可选:点击任意设置的清除符号删除本地值,并从父池配置继承值。

    点 eraser 符号删除本地值。

    设置的字段被禁用,表示它从父项继承值。

    已禁用字段。
  9. 单击 Create RBD 按钮:

    创建镜像。

9.5.5. 在创建池时配置服务质量

作为存储管理员,您可以在创建池时配置服务质量(QoS)。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 已安装控制面板。
  • 启用了 RBD 应用的复制池。
  • 启用了 RBD 应用的纠删代码池。

流程

  1. 登录控制面板。
  2. 在导航栏中,单击

    点 Pools。
  3. 点击页面左上角的 Create 按钮:

    点 Create 按钮。
  4. 在对话框中,在 1 设置池名称(位于 2), 将池类型设置为,在 3 处将放置组数量设置为 4,启用 EC Overwrites,在 5 设置 rbd 应用程序,最后设置 rbd 应用,单击 Create Pool

    创建 EC RBD 池。
  5. 创建另一个池,但这次将类型设置为 复制

    创建复制池
  6. 点击 服务质量 旁边的加号符号以打开 QoS 设置:

    打开 QoS 设置。
  7. 可选:点单个设置旁的问号符号找到更多有关它的信息。

    点问号符号。
  8. 为您要更改的 QoS 设置输入或编辑值:

    输入 QoS 设置的值。
  9. 可选:点击任意设置的清除符号删除本地值,并从父全局配置中继承值。

    点 eraser 符号删除本地值。

    设置的字段被禁用,表示它从父项继承值。

    已禁用字段。
  10. Create Pool 按钮:

    创建 池。

9.5.6. 其它资源

附录 A. 故障排除

本节提供了在使用控制面板时的多个故障排除场景。

A.1. 仪表板响应缓慢

如果仪表板响应缓慢,请清除浏览器缓存并重新载入仪表板。

A.2. 仪表板显示服务已停机

仪表板只是集群的副本。如果该服务关闭,则检查节点上的服务状态,因为仪表板会显示通过节点上运行的 node-exporter 收集的信息。这个问题可能位于集群、配置或网络中。

A.3. 仪表板中的任务失败

在控制面板上执行任何任务时,如果存在任何故障,请检查对应的 Ceph 守护进程。如需更多信息,请参阅 故障排除指南

A.4. 无法查看镜像

如果所在的池启用了 RBD 应用程序,才能在 Block > Images 下查看镜像。

启用 RBD 应用。
镜像是可以查看的。

其它资源

如需更多信息,请参阅 故障排除指南