发行注记

Red Hat Ceph Storage 5.0

Red Hat Ceph Storage 5.0 发行注记

摘要

本发行注记介绍了为 Red Hat Ceph Storage 5.0 产品发行版本实施的主要功能、增强功能、已知问题以及漏洞修复。
红帽承诺替换我们的代码、文档和网页属性中存在问题的语言。我们从这四个术语开始: master、slave、blacklist 和 whitelist。这些更改将在即将发行的几个发行本中逐渐实施。详情请查看 CTO Chris Wright 信息

第 1 章 简介

红帽 Ceph 存储是一个可大规模扩展、开放、软件定义的存储平台,它将最稳定版本的 Ceph 存储系统与 Ceph 管理平台、部署实用程序和支持服务相结合。

红帽 Ceph 存储文档位于 https://access.redhat.com/documentation/en/red-hat-ceph-storage/

第 2 章 致谢

红帽 Ceph 存储版本 5.0 包含红帽 Ceph 存储团队的许多贡献。此外,Ceph 项目还看到 Ceph 社区中个人和组织的贡献质量和数量有显著的增长。我们希望感谢红帽 Ceph 存储团队的所有成员、Ceph 社区中的所有个人贡献者,并且包括但不限于:

  • Intel
  • Fujitsu
  • UnitedStack
  • Yahoo
  • Ubuntu Kylin
  • Mellanox
  • CERN
  • Deutsche Telekom
  • Mirantis
  • SanDisk
  • SUSE

第 3 章 新功能

本节列出了本红帽 Ceph 存储版本中引入的所有主要更新、增强功能和新功能。

这个版本添加的主要功能是:

  • cephadm

    Cephadm 是一款全新的容器化部署工具,可通过从管理器守护进程连接到主机来部署和管理红帽 Ceph 存储 5.0 集群。它使用 ssh 添加、移除或更新 Ceph 守护进程容器。Cephadm 的目标是为运行红帽 Ceph 存储提供功能全面、功能强大和安装良好的管理层。

    cephadm 命令管理红帽 Ceph 存储集群的完整生命周期。

    cephadm 命令可以执行以下操作:

  • 引导新的 Ceph 存储集群。
  • 启动与 Ceph 命令行界面(CLI)搭配使用的容器化 shell。
  • 有助于调试容器化守护进程.

    cephadm 命令使用 ssh 与存储集群中的节点通信。这样,您无需使用外部工具即可添加、删除或更新红帽 Ceph 存储容器。

    cephadm 命令有两个主要组件:

  • cephadm shell 在容器内启动 bash shell。这可让您运行存储集群安装和设置任务,并在 容器中运行 ceph 命令。
  • cephadm 编排器命令允许您调配 Ceph 守护进程和服务,并扩展存储集群。

    如需更多信息,请参见《 红帽 Ceph 存储安装指南 》。

  • 管理 API

    管理 API 创建的管理脚本适用于红帽 Ceph 存储 5.0,并在版本生命周期中保持不变。不兼容的 API 版本控制只会在主要发行行中进行。

    如需更多信息,请参阅《 红帽 Ceph 存储开发人员指南 》。

  • 断开连接的 Red Hat Ceph Storage 安装

    Red Hat Ceph Storage 5.0 支持在专用网络上断开连接的安装和引导存储集群。断开连接的安装使用自定义镜像和配置文件以及本地主机,而不是从网络下载文件。

    您可以安装从可以访问红帽 registry 的代理主机下载的容器镜像,或将容器镜像复制到本地 registry。bootstrap 过程需要一个规格文件,用于标识要按名称和 IP 地址添加的主机。启动初始监控主机后,您可以使用 Ceph 编排器命令来扩展和配置存储集群。

    如需了解更多详细信息,请参见《 红帽 Ceph 存储安装指南 》。

  • Ceph 文件系统纠删代码

    默认情况下,Ceph 将复制池用于数据池。如果需要,您还可以添加额外的纠删代码数据池。与由复制池支持的 Ceph 文件系统相比,由纠删代码池支持的 Ceph 文件系统(CephFS)使用较少的总存储。尽管纠删代码池使用较少的总存储,它们也使用的内存和处理器资源要多于复制池。

  • 使用红帽 Ceph 存储仪表板替换出现故障的 OSD

    从红帽 Ceph 存储 5 版本开始,当磁盘出现故障时,或者必须重新调配 OSD 时,您可以通过在红帽 Ceph 存储仪表板上的几个简单步骤中保留 OSD ID 来替换失败的 OSD。

    如需了解更多详细信息,请参阅《 红帽 Ceph 存储控制面板指南》中的将故障 OSD 放置到 Ceph 控制面板 部分中。

  • Ceph 文件系统异地复制

    从 Red Hat Ceph Storage 5 版本开始,您可以在地理位置或不同站点之间复制 Ceph 文件系统(CephFS)。新的 cephfs-mirror 守护进程执行快照异步复制到远程 CephFS。

    如需了解更多详细信息,请参阅《 红帽 Ceph 存储文件系统指南》中的 Ceph 文件系统 镜像 部分。

  • 新的 Ceph 文件系统客户端性能工具

    自红帽 Ceph 存储 5 发行版起,Ceph 文件系统(CephFS)提供了类似 顶级的实用程序,可以实时在 Ceph 文件系统上显示指标。cephfs-top 实用程序是一个基于 curses的 Python 脚本,它使用 Ceph Manager stats 模块来获取和显示客户端性能指标。

    如需了解更多详细信息,请参阅 红帽 Ceph 存储文件系统指南 》中的使用 cephfs-top 实用程序 一节。

  • 使用红帽 Ceph 存储仪表板监控 Ceph 对象网关多站点

    红帽 Ceph 存储控制面板现在可用于监控 Ceph 对象网关多站点配置。

    在使用 cephadm 实用程序设置了多区后,一个区域的存储桶对其它区和其他站点可见。您还可以在控制面板上创建、编辑和删除存储桶。

    如需了解更多详细信息 ,请参阅《 红帽 Ceph 存储仪表板指南》中的 Ceph 控制面板管理 多站点对象配置的 bucket 章节。

  • 改进了 BlueStore 空间使用率

    Ceph 对象网关和 Ceph 文件系统(CephFS)将小对象和文件作为单独的对象存储在 RADOS 中。在这个版本中,BluStore 的 min_alloc_size 的 SSD 和 HDD 的默认值为 4 KB。这可以更好地利用空间,且不会影响性能。

    如需了解更多详细信息,请参见《 红帽 Ceph 存储管理指南》 中的 OSD BlueStore 一章。

3.1. Ceph Ansible 实用程序

cephadm-adopt.yml playbook 是幂等的

在这个版本中,ceph adm-adopt.yml playbook 是幂等的,即 playbook 可以多次运行。如果 playbook 在第一次尝试中因任何原因失败,您可以重新运行 playbook,它可以按预期工作。

如需更多信息,请参阅《红帽 Ceph 存储 安装指南》中的"ceph-ansible"一节中的从 Red Hat Ceph Storage 4 升级到 Red Hat Ceph Storage 5 部分。

3.2. Ceph 仪表板

新的 Grafana 仪表板,用于显示 Ceph 对象网关多站点设置的图形

在这个版本中,增加了一个新的 Grafana 仪表板,并显示 Ceph 对象网关多站点同步性能的图表,包括双向复制吞吐量、轮询延迟和不成功复制。

如需更多信息,请参阅《 红帽 Ceph 存储控制面板指南》中的控制面板部分中的 Monitoring Ceph对象网关守护进程

Prometheus Alertmanager 规则在 Red Hat Ceph Storage Dashboard 上触发不同 MTU 设置的警报

在以前的版本中,必须使用命令行界面识别和管理 MTU 设置中的不匹配(这是常见网络问题的原因)。在这个版本中,当某个节点或临时节点具有与大多数节点不同的 MTU 设置时,会在 Red Hat Ceph Storage 仪表板上触发警报。用户可以修改警报,或修复 MTU 不匹配的设置。

如需更多信息,请参阅 红帽 Ceph 存储仪表板指南》中的 Ceph 控制面板管理 警报 章节。

Red Hat Ceph Storage Dashboard 上的用户和角色管理

在这个版本中,用户和角色管理已经可用。通过它,管理员可以定义精细的基于角色的访问控制(RBAC)策略,供用户在 Ceph 集群中创建、更新、列出和删除 OSD。

如需更多信息,请参见《 红帽 Ceph 存储仪表板指南》中的 Ceph 控制面板上角色管理

Red Hat Ceph Storage Dashboard 现在支持 RBD v1 镜像

在以前的版本中,Red Hat Ceph Storage Dashboard 只显示并支持 RBD v2 格式镜像。

在这个版本中,用户可以通过将 RBD _FORCE_ALLOW_V1 设置为 1,管理和将其 v1 RBD 镜像 迁移到 v2 RBD 镜像。

如需更多信息,请参阅《 红帽 Ceph 存储仪表板指南》中的使用 Ceph 控制面板管理块设备 一节。

用户可以在 Red Hat Ceph Storage Dashboard 中替换失败的 OSD

在这个版本中,用户可以通过在红帽 Ceph 存储控制面板上保留 OSD 的 OSD_ID 来识别和替换失败的 OSD。

如需更多信息 ,请参阅《 红帽 Ceph 存储控制面板指南》中将失败的 OSD 放置到 Ceph 控制面板中

在红帽 Ceph 存储仪表板上创建 Ceph 对象网关存储桶时指定放置目标

在这个版本中,在 Red Hat Ceph Storage Dashboard 上创建 Ceph Object Gateway bucket 时,用户可以指定放置目标。

如需更多信息,请参阅红帽 Ceph 存储控制面板指南中的在控制面板上创建 Ceph 对象网关存储桶 部分。

Red Hat Ceph Storage Dashboard 上启用了多 Factor Authentication deletes 功能

在这个版本中,用户可以在 Red Hat Ceph Storage Dashboard 上为来自 Ceph 集群的特定存储桶启用多 Factor 身份验证删除(MFA)。

如需更多信息,请参阅《 红帽 Ceph 存储控制面板指南》中的"编辑 Ceph对象网关存储桶 "。

Red Hat Ceph Storage Dashboard 上启用了特定存储桶的存储桶版本控制功能

在这个版本中,用户可以在 Red Hat Ceph Storage Dashboard 上为特定存储桶启用存储桶版本控制。

如需更多信息,请参阅《 红帽 Ceph 存储控制面板指南》中的"编辑 Ceph对象网关存储桶 "。

Red Hat Ceph Storage Dashboard 上启用了 Ceph Object Gateway bucket 的对象锁定功能

在这个版本中,用户可以在 Red Hat Ceph Storage Dashboard 上为 Ceph Object Gateway bucket 启用对象锁定。

如需更多信息,请参阅红帽 Ceph 存储控制面板指南中的在控制面板上创建 Ceph 对象网关存储桶 部分。

红帽 Ceph 存储仪表板包含垂直导航栏

在这个版本中,垂直导航栏可用。Red Hat Ceph Storage Dashboard 菜单上的心跳图标会根据绿色、黄色和红色的集群状态更改颜色。Cluster>Monitoring 和 Block> 镜像等其他菜单显示一个带颜色的图标,其中显示了该特定组件中的警告数量。

Red Hat Ceph Storage 控制面板的"box"页面显示详细信息

在这个版本中,Red Hat Ceph Storage 控制面板的"box"页面显示 Ceph 版本、Ceph -mgr 运行的主机名、用户名、角色和浏览器详细信息。

浏览器 favicon 显示红帽徽标,其中包含更改集群健康状况的图标

在这个版本中,浏览器 favicon 会显示红帽徽标,其中包含一个根据集群健康状态(绿色、黄色或红色)改变颜色的图标。

Red Hat Ceph Storage Dashboard 的错误页面可以正常工作

在这个版本中,Red Hat Ceph Storage Dashboard 的错误页面已被修复,可以正常工作。

用户可以在 Red Hat Ceph Storage Dashboard 上查看 Cephadm 工作流

在这个版本中,Red Hat Ceph Storage 会显示有关清单的更多信息,如 Ceph 编排器中定义的节点和服务,如容器相关信息。红帽 Ceph 存储控制面板也允许用户管理 Ceph 集群上的主机。

如需更多信息,请参阅 红帽 Ceph 存储仪表板指南》中的控制面板 上的监控主机 部分。

用户可以在 Red Hat Ceph Storage Dashboard 上修改对象数和大小配额

在这个版本中,用户可以在 Red Hat Ceph Storage Dashboard 上为给定池设置和修改对象数和大小配额。

如需更多信息,请参阅《 红帽 Ceph 存储仪表板指南》中的在 Ceph 控制面板 上创建池 章节。

用户可以在 Red Hat Ceph Storage Dashboard 上管理 Ceph 文件系统快照

在这个版本中,用户可以创建和删除 Ceph 文件系统(CephFS)快照,并在红帽 Ceph 存储仪表板上设置和修改目录的配额。

增强了 Red Hat Ceph Storage Dashboard 的帐户和密码策略

在这个版本中,为了符合最佳安全标准,实施严格的密码和帐户策略。用户密码需要遵循一些可配置的规则。也可以将用户帐户设置为在指定时间后过期,或者在多次尝试失败后被锁定。

用户可以管理任何域、zonegroup 或 zone 上的用户和 bucket

在这个版本中,用户可以管理用户和 bucket,不仅管理默认区域,也管理他们配置的任何 realm、zone group 或 zone。

若要在红帽 Ceph 存储仪表板上管理多个守护进程,请参阅 红帽 Ceph 存储控制面板指南 》的 Ceph 控制面板中管理多站点对象网关配置的 bucket

用户可以在红帽 Ceph 存储仪表板上直观地创建租户 S3 用户

在以前的版本中,可以使用用户友好的语法创建租户 S3 用户,该语法为"租户$user",而不是使用直观的单独输入字段。

在这个版本中,用户可以直观地创建租户 S3 用户,而无需在红帽 Ceph 存储仪表板上使用"租户$user"。

Red Hat Ceph Storage Dashboard 现在支持主机管理

在以前的版本中,命令行界面用于管理 Red Hat Ceph Storage 集群中的主机。

在这个版本中,用户可以使用 Red Hat Ceph Storage 仪表板上的维护模式功能启用或禁用主机。

Red Hat Ceph Storage 仪表板上可以扩展或折叠嵌套表

在这个版本中,可以通过单击 Red Hat Ceph Storage Dashboard 上的 行来扩展或折叠包含嵌套表的行。

3.3. Ceph 文件系统

CephFS 客户端现在可以在由元数据服务器(MDS)阻止后重新连接。

在以前的版本中,Ceph 文件系统(CephFS)客户端会因为网络分区或其他瞬态错误而被 MDS 阻止。

在这个版本中,CephFS 客户端可以为每个客户端打开适当的配置重新连接到挂载,因为不需要手动重新挂载。

用户现在可以使用临时固定策略在 MDS 中自动分配子树

在这个版本中,通过引入高效的策略来固定子树,从而允许在元数据服务器(MDS)中自动分发子树,并消除用户对手动固定的干预,从而改进了导出页。

如需更多信息,请参阅红帽 Ceph 存储文件系统指南 中的 Ephemeral固定策略 部分。

mount.ceph 有一个额外的选项,即 restore_session=clean

在这个版本中,restore _session=clean 的一个附加选项被添加到 mount.ceph。使用此选项时,当客户端检测到元数据服务器(MDS)被元数据服务器(MDS)阻止后,它会自动重新连接到 Red Hat Ceph Storage 集群,并且挂载会自动恢复。

如需更多信息,请参阅《 红帽 Ceph 存储文件系统指南》的 blocklist 部分中删除 Ceph 文件系统客户端

在 Ceph 文件系统中异步创建和删除元数据操作

在这个版本中,Red Hat Enterprise Linux 8.4 内核会在 Red Hat Ceph Storage 集群中异步挂载文件创建和删除。通过避免这些系统调用的往返延迟而不会影响一致性,这提高了某些工作负载的性能。使用新的 -o nowsync 挂载选项启用异步文件创建和删除。

Ceph 文件系统(CephFS)现在为名为 mds_join_fs的 MDS 提供了配置选项

在这个版本中,当对元数据服务器(MDS)守护进程失败时,集群的监控器首选使用 mds_join_fs 的待机守护进程与文件系统名称与失败的 等级 相等。

如果不存在与文件系统 名称 相同的 mds_join_fs 待机,它将最终选择非限定备用设备进行替换,或选择其他可用的待机作为最后的手段。

如需更多信息,请参阅《 红帽 Ceph 存储文件系统指南》中的文件系统 关联性 部分。

Ceph 文件系统间异步复制快照

在这个版本中,镜像模块(即管理器插件)提供了管理目录快照镜像接口。镜像模块负责为同步分配目录到镜像守护进程。目前,一个镜像守护进程受到支持,可以使用 cephadm 进行部署。

Ceph 文件系统(CephFS)支持通过 cephfs-mirror 工具将快照异步复制到远程 CephFS。镜像守护进程可以处理 Red Hat Ceph Storage 集群中多个文件系统的快照同步。通过镜像快照数据,然后在远程文件系统上创建具有相同名称的快照来同步快照,因为快照正在同步。

如需更多信息,请参阅《 红帽 Ceph 存储文件系统指南》中的 Ceph 文件系统 镜像 部分。

cephfs-top 工具受支持

在这个版本中,引进了 cephfs-top 工具。

Ceph 提供了类似于 utility 的 top(1),用于实时显示各种 Ceph 文件系统(CephFS)指标。cephfs-top 是基于策展的 python 脚本,它使用 Ceph Manager 中的 stats 插件来获取和显示指标。

CephFS 客户端定期将各种指标转发到 Ceph 元数据服务器(MDS),后者将这些指标转发到 MDS,以用于聚合。这些聚合的指标将转发到 Ceph 管理器以供使用。

指标分为两类:全局和每mds。全局指标代表文件系统的一组指标,如客户端读取延迟,而每个mds 指标则适用于特定的 MDS 等级,例如由 MDS 处理的子树数。

目前,全球指标会被跟踪和显示。cephfs-top 命令无法与多个 Ceph 文件系统可靠地工作。

如需更多信息,请参阅 红帽 Ceph 存储文件系统指南 》中的使用 cephfs-top 实用程序 一节。

可以使用 mds_autoscaler 插件部署 MDS 守护进程

在这个版本中,提供了一个新的 ceph-mgr 插件, mds_autoscaler,它可根据 Ceph 文件系统(CephFS)要求部署元数据服务器(MDS)守护进程。启用后,mds_autoscaler 将根据 max_mds 的设置自动部署所需的备用设备并激活。

如需更多信息,请参阅红帽 Ceph 存储文件系统指南 中的使用 MDS 自动缩放器模块 一节。

Ceph 文件系统(CephFS)清理现在可以与多个活跃 MDS 搭配使用

在以前的版本中,用户必须设置参数 max_mds=1,并只等待一个活跃的元数据服务器(MDS)运行 Ceph 文件系统(CephFS)清理操作。

在这个版本中,无论 mds_max 的值如何,用户可以使用多个活跃 MDS 在排名 0 上执行清理。

如需更多信息,请参阅《 红帽 Ceph 存储文件系统指南 》中的 配置多个活跃元数据服务器守护进程 部分。

Ceph 文件系统快照现在可以使用 snap_schedule 插件调度

在这个版本中,增加了一个新的 ceph-mgr 插件,snap_schedule 现在可用于调度 Ceph 文件系统(CephFS)的快照。可以创建、保留快照,并自动收集垃圾回收。

3.4. 容器

cephfs-mirror 软件包包含在 ceph-container ubi8 镜像中

在这个版本中,cephfs-mirror 软件包包含在 ceph-container ubi8 镜像中,以支持将 Ceph 文件系统(CephFS)快照镜像到远程 CephFS。配置 CephFS-mirror 的命令现已可用。

如需更多信息,请参阅《 红帽 Ceph 存储文件系统指南》中的 Ceph 文件系统 镜像 部分。

3.5. iSCSI Gateway

改进了 ceph 状态 输出中的 tcmu-runner 部分

在以前的版本中,每个 iSCSI LUN 单独列出会导致 ceph 状态输出变得 混乱。

在这个版本中,ceph status 命令总结了报告,仅显示活动门户的数量和主机数量。

3.6. Ceph 对象网关

bucket 名称或 ID 在 radosgw-admin bucket stats 命令中受到支持。

在这个版本中,存储桶名称或 ID 可用作 radosgw-admin bucket stats 命令中的参数。bucket 统计报告非当前 bucket 实例,可用于调试 Ceph OSD 日志等大 OMAP 对象警告。

向 Ceph 对象网关的得分中添加六个新性能计数器

在这个版本中,Ceph 对象网关中提供了六个性能计数器。这些计数器通过 Ceph 对象网关生命周期系统的前台和后台处理报告对象过期和生命周期管理活动。lc_abort_mpulc_expire_currentlc_expire_noncurrentlc_expire_dm 计数器允许估算对象到期。lc_transition_currentlc_transition_noncurrent 计数器提供生命周期转换的信息。

用户现在可以使用对象锁定在 S3 对象存储中实施类似 WORM 的功能

S3 对象锁定是支持 S3 对象存储中的 write-once-read-many(WORM)功能的关键机制。在这个版本中,Red Hat Ceph Storage 5 支持 Amazon Web Services(AWS)S3 对象锁定数据管理 API,用户可以使用保留周期、法律保留和存储桶配置等对象锁定概念来实施类似于 WORM 的功能,作为自定义工作流覆盖数据删除权限的一部分。

3.7. RADOS

红帽 Ceph 存储恢复了纠删代码(EC)池中可用的 OSD 较少

在以前的版本中,纠删代码(EC)大小为 k+m 的池至少需要 k+1 副本才能恢复。如果只提供 k 个副本,则恢复将无法完成。

在这个版本中,Red Hat Ceph Storage 集群现在可以在 EC 池中使用 k 或更多副本进行恢复。

有关纠删代码池的更多信息,请参见《 红帽 Ceph 存储存储策略指南 》中的 纠删代码池 一章。

支持使用列系列进行 RocksDB 数据库分片

使用 BlueStore 管理工具时,目标是在压缩期间减少读写放大、减少数据库(Database)扩展,同时提高 IOPS 性能。

在这个版本中,您可以使用 BlueStore 管理工具重新定义数据库。RocksDB(DB)数据库中的数据分割为多个 Column Families(CF)。每个 CF 都有自己的选项,其分割则根据 omap、对象数据、延迟缓存写入和 PGlog 等数据类型来执行。

有关重新划分的更多信息,请参见《 红帽 Ceph 存储管理指南 》中的使用蓝存储管理工具重新划分 RocksDB 数据库 章节。

可以为 Ceph 监控器启用 mon_allow_pool_size_one 配置选项

在这个版本中,用户可以启用配置选项 mon_allow_pool_size_one。启用后,如果用户想要将池大小配置为 1,用户必须将 osd 池集大小为 1 的标志 --yes-i-really-mean-it 传递

osd_client_message_cap 选项已添加回

在以前的版本中,osd_client_message_cap 选项已被删除。在这个版本中,osd_client_message_cap 选项已被重新引入。此选项有助于通过限制这些请求来控制容器内客户端请求的最大数量。当 Ceph OSD 因大量基于客户端的流量而导致的阻塞时,这样做非常有用。

Ceph 消息传递协议现已更新为 msgr v2.1。

在这个版本中,将实施 Ceph 消息传递协议 msgr v2.1 的新版本,解决了上一版本 msgr v2.0 的几个安全性、完整性和潜在性能问题。现在,守护进程和客户端的所有 Ceph 实体默认为 msgr v2.1。

3.8. RADOS 块设备(RBD)

改进了 librbd small I/O 性能

在以前的版本中,在基于 NVMe 的 Ceph 集群中,内部线程架构存在限制,导致单个 librbd 客户端难以达到 20K 4KiB IOPS。

在这个版本中,librbd 切换到新的基于 ASIO 的 neorados API 上的异步响应器模型,从而潜在地将小 I/O 吞吐量增加几倍并降低延迟。

构建用于清除过期 RBD 镜像的调度

在以前的版本中,存储管理员可以为 rbd trash purge 命令设置类似 cron 的作业。

在这个版本中,内置的计划可用于清除过期的 RBD 镜像。rbd 垃圾回收调度添加 和相关的命令可用于配置 RBD 垃圾箱,以根据定义的调度自动清除过期的镜像。

如需更多信息,请参阅红帽 Ceph 存储块设备指南中的定义 自动垃圾回收调度 一节。

使用新的 ceph-immutable-object-cache 守护进程提供不可变对象的读取

在这个版本中,新的 ceph-immutable-object-cache 守护进程可以部署到虚拟机监控程序节点上,为不可变对象(如父镜像快照)的读取提供服务。新的 parent_cache librbd 插件在每个从父镜像读取时与 守护进程协调,根据需要将结果添加到缓存中。如果多个虚拟机同时共享金级镜像,这可以减少延迟。

如需更多信息,请参阅 Red Hat Ceph Storage Block device 指南 中的 "ceph-immutable-object-cache"daemons 一章的管理

支持在基于 librbd 的客户端中发送压缩或不可压缩的提示

在以前的版本中,无论数据是压缩还是不可压缩,都无法提示底层 OSD 对象存储后端。

在这个版本中,可以使用 rbd_compression_hint 配置选项向底层 OSD 对象存储后端提示数据是压缩还是不压缩。这可以按镜像、每个池或全局方式完成。

如需更多信息,请参阅红帽 Ceph 存储 块设备指南中的块设备输入和输出选项 部分。

支持覆盖 librbd 客户端中的 read-from-replica 策略

在以前的版本中,无法限制DC/AZ 网络流量,因为当集群跨越数据中心扩展时,Primary OSD 可能会与 PG 中的其他 OSD 相比具有较高的延迟和成本链接。

在这个版本中,rbd_read_from_replica_policy 配置选项现已可用,可用于发送读取到随机 OSD 或 PG 中最接近的 OSD,如 CRUSH map 以及 CRUSH 层次结构中的客户端位置所定义。这可以按镜像、每个池或全局方式完成。

如需更多信息,请参阅红帽 Ceph 存储 块设备指南中的块设备输入和输出选项 部分。

在线重新解析 RBD 镜像

在以前的版本中,为在底层 OSD 对象存储中分配为零且已完全分配的镜像扩展回收空间非常繁琐,容易出错。在这个版本中,新的 rbd sparsify 命令可用于扫描镜像的零数据区块,并在底层 OSD 对象存储中取消分配对应的范围。

OCF:ceph:rbd 集群资源代理支持命名空间

在以前的版本中,无法将 ocf:ceph:rbd 集群资源代理用于命名空间中存在的镜像。

在这个版本中,新的 pool_namespace 资源代理参数可用于处理命名空间中的镜像。

RBD 镜像可以立即导入

使用 rbd import 命令时,新镜像仅可在完全填充后使用。

在这个版本中,镜像实时迁移功能被扩展为支持外部数据源,并可用作 rbd 导入 的替代选择。新镜像可以链接到本地文件、通过 HTTP(S)或远程 Amazon S3 兼容存储桶以 raw、qcow 或qcow 2 格式提供的远程文件,并可以立即使用。镜像填充为后台操作,可以在处于活动状态时使用时运行。

支持 librbd 中的 LUKS 加密

librbd 上的 QEMU LUKS 加密或 dm-crypt 内核模块的分层存在一个主要限制,即写时复制克隆镜像必须使用与其父镜像相同的加密密钥。在这个版本中,在 librbd 中包含了对 LUKS 加密的支持。新的"rbd 加密格式"命令现在可以用于将镜像格式化为 a luks1 or luks2 加密格式。

3.9. RBD 镜像功能

RBD 镜像基于快照的镜像

基于日志的镜像提供精细的崩溃一致性复制,代价是双写罚款,每次更新镜像在修改实际镜像前都会首先记录到相关的日志中。

在这个版本中,除了基于日志的镜像功能外,还支持基于快照的镜像功能。它提供粗粒度崩溃一致性复制,其中镜像使用可以手动创建或定期创建的镜像快照进行镜像。所有客户端都支持这种模式,它需要一个不太严格的恢复点目标(RPO)。

第 4 章 程序错误修复

本节论述了在 Red Hat Ceph Storage 发行版本中修复的具有显著用户影响的错误。此外,部分还包括之前版本中发现的固定已知问题的描述。

4.1. Cephadm 实用程序

ceph-volume 命令不阻止 OSD 和设备,并且按预期运行

在以前的版本中,ceph-volume lvm list 和 ceph-volume 清单等 ceph-volume 命令没有完成,因此无法执行用于创建 OSD、列出设备和列出 OSD 的其他 ceph-volume 命令。

在这个版本中,这些命令的默认输出不会添加到 Cephadm 日志中,从而完成由 cephadm 二进制文件启动的容器中运行的所有 ceph-volume 命令。

(BZ#1948717)

4.2. Ceph Ansible 实用程序

cephadm-adopt playbook 不为多站点配置创建默认域

在以前的版本中,ceph adm-adopt playbook 需要在采用过程中创建默认域,即使不存在多站点配置。

在这个版本中,ceph adm-adopt playbook 不强制在没有部署多站点配置时创建默认域。

(BZ#44404)

4.3. Ceph 仪表板

启用基于 Cookie 的安全会话来访问 Red Hat Ceph Storage Dashboard

在以前的版本中,将信息存储在 LocalStorage 中可以使浏览器中运行的所有会话访问 Red Hat Ceph Storage 仪表板,从而使仪表板易受 XSS 攻击。在这个版本中,LocalStorage 被安全基于 Cookie 的会话替代,因此会话 secret 仅适用于当前的浏览器实例。

(BZ#1889435)

4.4. Ceph Manager 插件

The pg_autoscaler 模块不再报告失败的 op 错误

在以前的版本中,如果有任何池有 CRUSH 规则 步骤 set_chooseleaf_vary_r 1,则 pg-autoscaler 模块会在尝试获取池状态时报告 KeyError for op。因此,Ceph 集群健康状态显示 HEALTH_ERR,带有 Module 'pg_autoscaler' has failed: op error。在这个版本中,只有带有 op 的步骤才会在获取池状态时迭代 CRUSH 规则,而 pg_autoscaler 模块不再报告失败的 op 错误。

(BZ#1874866)

4.5. Ceph 对象网关

S3 生命周期过期标头功能按预期标识对象

在以前的版本中,在 GET 或 HEAD 请求中,一些没有生命周期过期的对象被错误地识别为因为将对象名称与存储的生命周期策略进行比较时功能逻辑错误导致生命周期过期。在这个版本中,S3 生命周期过期标头功能可以正常工作,并正确标识对象。

(BZ#1786226)

The radosgw-admin 用户 list 命令不再需要很长时间在 Red Hat Ceph Storage 集群 4 中执行

在以前的版本中,在 Red Hat Ceph Storage 集群 4 中,许多 radosgw-admin 命令的性能会受到影响,因为 rgw_gc_max_objs 配置变量 的值显著提高(控制 GC 分片的数量)。这包括与 GC 无关的 radosgw-admin 命令。在这个版本中,在从 Red Hat Ceph Storage 集群 3 升级到 Red Hat Ceph Storage 集群 4 后,radosgw-admin 用户 list 命令的执行时间不会更长。只有需要 GC 操作的 radosgw-admin 命令的性能才会受到 rgw_gc_max_objs 配置的值的影响。

(BZ#1927940)

4.6. RADOS

bluestore_cache_trim_max_skip_pinned 设置为 10000 可修剪对象的元数据

最不近使用的(LRU)缓存用于对象的元数据。从最早访问的对象对缓存进行修剪。固定的对象免于被驱除,这意味着它们仍然被蓝店使用。

在以前的版本中,配置变量 bluestore_cache_trim_max_skip_pinned 控制了被调用的固定对象数量,因此清理过程会导致对象被长时间固定。当固定在 LRU 元数据缓存底部的对象数量大于 bluestore_cache_trim_max_skip_pinned 时,缓存的修剪没有完成。

在这个版本中,您可以将 bluestore_cache_trim_max_skip_pinned 设置为 10000,超过可能的元数据缓存计数。这可启用修剪,元数据缓存大小遵循配置设置。

(BZ#1931504)

将存储集群从 Red Hat Ceph Storage 4 升级到 5 以 HEALTH_WARN 状态完成

当将红帽 Ceph 存储集群从之前支持的版本升级到 Red Hat Ceph Storage 5 时,升级过程会在 HEALTH_WARN 状态下完成存储集群,表明 monitor 允许不安全的 global_id 重新声明。这是因为一个补丁的 CVE,其详细信息包括在 CVE-2021-20288 中。

拒绝健康警告的建议:

  1. 通过检查 AUTH_INSECURE_GLOBAL_ID_RECLAIM 警报的 ceph 运行状况详情 输出,识别尚未更新的客户端。
  2. 将所有客户端升级到红帽 Ceph 存储 5.0 版本。
  3. 如果所有客户端都未立即升级,则临时进行健康警报:

    语法

    ceph health mute AUTH_INSECURE_GLOBAL_ID_RECLAIM 1w  # 1 week
    ceph health mute AUTH_INSECURE_GLOBAL_ID_RECLAIM_ALLOWED 1w  # 1 week

  4. 验证所有客户端都已更新,并且客户端不再存在 AUTH_INSECURE_GLOBAL_ID_RECLAIM 警报,将 auth_allow_insecure_global_id_reclaim 设置为 false

    语法

    ceph config set mon auth_allow_insecure_global_id_reclaim false

  5. 确保没有使用 AUTH_INSECURE_GLOBAL_ID_RECLAIM 警报列出客户端。

(BZ#1953494)

RocksDB 刷新和压缩的触发条件可以正常工作

BlueStore 将数据整理到名为 blobs 的块中,其大小默认为 64K。对于大型写入,它被分成 64K blob 写入序列。

在以前的版本中,当延迟的大小等于或大于 blob 大小时,所有数据都会被延迟,并放置在"L"列系列下。一个典型的示例是 HDD 配置,其中 bluestore_prefer_deferred_size_hdd 和 bluestore_ max_blob_size_hdd 参数的值都是 64K。这会更快地消耗"L"列,从而导致 RocksDB 刷新计数和压缩频率增加。在这种情况下触发条件是 数据大小(以 blob 为单位) 最小延迟大小

在这个版本中,延迟触发器条件会检查磁盘上扩展的大小,而不是 Blob。小于 delay _size 的扩展可转到延迟机制,扩展会立即写入磁盘。触发器条件以 extent <最小延迟大小的形式更改为数据 大小

小写操作放在"L"列下,此列的增长较慢,没有额外的紧凑。

bluestore_prefer_deferred_size 参数控制延迟而不受到 blob 大小的干扰,并根据其"写入小于这个大小"的描述工作。

(BZ#44677)

第 5 章 技术预览

本节概述了此 Red Hat Ceph Storage 发行版本中引入或更新的技术预览功能。

重要

技术预览功能不包括在红帽生产服务级别协议(SLA)中,且其功能可能并不完善。因此,红帽不建议在生产环境中使用它们。这些技术预览功能可以使用户提早试用新的功能,并有机会在开发阶段提供反馈意见。

有关红帽技术预览功能支持范围的更多信息,请参阅 技术预览功能支持范围

  • bucket 粒度多站点复制 [技术预览]

    在以前的版本中,zone group 中的所有存储桶都会镜像包含相同数据的副本。多站点数据流在区域内部和不同区域之间发生。在这个版本中,存储桶粒度多站点复制可让您控制存储桶级别的数据流和复制。区域内的 bucket 可能包含不同的数据,也可从其他区域中的其他存储桶中提取数据。

  • 在检索使用 S3 对象 [Technology Preview] 的数据时,如何通过逗号分隔的值(CSV)文件过滤内容。

    S3 Select Object Content API 现在作为技术预览支持。此 API 通过结构化查询语言(SQL)过滤 S3 对象的内容。在请求中,您必须指定以逗号分隔的值(CSV)的数据序列化格式,才能检索指定的内容。AWS CLI 选择对象内容使用 CSV 格式将对象数据解析到记录中,并且仅返回查询中指定的记录。

5.1. Ceph 对象网关

多站点复制设置中的 Ceph 对象网关现在支持 AWS bucket 复制 API 功能的子集

在这个版本中,Ceph 对象网关支持 AWS bucket 复制 API 功能子集,包括 {Put、Get, Delete} Replication 操作。此功能启用了 bucket-granularity 复制,还提供最终用户复制控制,同时注意当前,存储桶可以在现有 CephObject 网关多站点复制设置的区内复制。

KMIP-协议密钥管理服务器的技术预览支持

在这个版本中,KMIP-protocol 密钥管理服务器(如 IBM SKLM)提供了技术预览支持,因此扩展了 Ceph 对象网关托管加密功能中使用的流行密钥管理软件的范围。

5.2. RADOS 块设备(RBD)

基于 librbd PMEM 的持久性回写缓存,以减少延迟

在这个版本中,new pwl_cache librbd 插件提供了一个日志结构的回写缓存,面向 PMEM 设备,从而减少了延迟。镜像更新会按顺序批处理和清空,使实际镜像处于崩溃一致性状态。如果 PMEM 设备丢失,该镜像仍可访问,尽管它可能看起来已经过时。

rbd-nbd 设备的快照静止 hook 支持

在这个版本中,librbd API 提供了静默和不静止的 hook,以启用协调快照创建。rbd-nbd 守护进程可以选择冻结和阻止在映射的设备上挂载的文件系统,以创建文件系统一致的快照。可以通过编辑 rbd-nbd_quiesce shell 脚本或将其替换为自定义可执行文件来自定义此行为。

第 6 章 已知问题

本节记录了本版本的红帽 Ceph 存储中已知的问题。

6.1. Cephadm 实用程序

在升级后,Red Hat Ceph Storage 中的 NFS-RGW 问题

建议使用 RGW-NFS 的客户将升级延迟至红帽 Ceph 存储 5.1。

(BZ#1842808)

ceph orch 主机 rm 命令不会删除 Red Hat Ceph Storage 集群的主机中的 Ceph 守护进程

ceph orch 主机 rm 命令不提供任何输出。这是预期的行为,以避免意外删除 Ceph 守护进程会导致数据丢失。

要解决这个问题,用户必须手动删除 Ceph 守护进程。按照《 红帽 Ceph 存储操作指南 》中的 Ceph 编排器 部分删除主机部分中的步骤,以删除红帽 Ceph 存储集群的主机。

(BZ#1886120)

可以启用配置参数 osd_memory_target_autotune

在这个版本中,osd_memory_target_autotune 默认被禁用。用户可以通过运行以下命令来启用 OSD 内存自动调节:

ceph config set osd osd_memory_target_autotune true

(BZ#1939354)

即使从 Red Hat Ceph Storage 集群中移除,Ceph 监视器也会报告为 stray 守护进程。

Cephadm 将 Ceph 监视器报告为灰色守护进程,即使它们已从存储集群中移除。

要临时解决这个问题,请运行 ceph mgr fail 命令,该命令允许管理器重新启动并清除错误。如果没有待机管理器,ceph mgr fail 命令会使集群暂时无响应。

(BZ#44272)

当 monitor/s 移到没有 _admin 标签的节点/s 时,Cephadm shell 的访问权限将会丢失

在 bootstrap 后,如果没有 _admin 标签,当 monitor 移到其他节点时,对 Cephadm shell 的访问将会丢失。要解决这个问题,请确保目标主机具有 _admin 标签。

(BZ#1947497)

如果没有备用 MDS 守护进程,使用 Cephadm 的 Red Hat Ceph Storage 升级会卡住

在升级具有现有 MDS 服务且没有活跃备用守护进程的红帽 Ceph 存储期间,该过程会卡住。

要解决这个问题,请确保您在通过 Cephadm 升级前至少有一个备用 MDS 守护进程。

运行 ceph fs 状态 FILE_SYSTEM_NAME

如果没有待机守护进程,请添加 MDS 守护进程,然后升级存储集群。当存在待机守护进程时,升级可以正常工作。

(BZ#1959354)

ceph orch ls 命令不会列出可以在红帽 Ceph 存储集群中创建的正确 OSD 数量

ceph 或ch ls 命令提供以下输出:

示例

# ceph orch ls

osd.all-available-devices    12/16  4m ago     4h   *

根据上述输出,四个 OSD 未启动,但不正确。

要解决这个问题,请运行 ceph -s 命令,以查看所有 OSD 是否都已启动并在红帽 Ceph 存储集群中运行。

(BZ#1959508)

ceph orch ls --service-type SERVICE_TYPE 命令可能会显示错误的守护进程计数

ceph orch ls --service-type SERVICE_TYPE 命令可能会显示错误的守护进程计数。要解决这个问题,请使用 ceph orch ls 命令。

(BZ#1964951)

ceph orch osd rm help 命令给出了一个不正确的参数描述

ceph orch osd rm help 命令提供 ceph 或ch osd rm SVC_ID …​ [--replace] [--replace] [--force] 参数,而不是 ceph 或ch osd rm OSD_ID…​ [--replace] [--force]。这会提示用户在移除 OSD 时指定 SVC_ID

要解决这个问题,请使用 OSD 身份 OSD_ID 参数来移除红帽 Ceph 存储集群的 OSD。

(BZ#1966608)

ceph orch stop SERVICE_ID 命令使 Red Hat Ceph Storage 集群无法访问

ceph orch stop SERVICE_ID 命令销毁红帽 Ceph 存储集群的可访问性。要解决这个问题,请使用 systemctl stop SERVICE_ID 命令来停止特定的守护进程服务。

(BZ#1976820)

6.2. Ceph Ansible 实用程序

cephadm-adopt playbook 创建一个新的 nfs-ganesha

cephadm-adopt playbook 创建一个新的 nfs-ganesha 池,但不启用池中的池应用。这会产生一个警告,即一个池没有启用池应用。

要解决这个问题,请手动启用池应用程序,从而导致 Red Hat Ceph Storage 集群没有发出警告。

语法

ceph osd pool application enable _POOL_NAME APPLICATION_NAME

示例

[ceph: root@host01 /]# ceph osd pool application enable nfs.ganesha nfs

如需更多信息,请参阅《红帽 Ceph 存储 安装指南》中的"ceph-ansible"一节中的从 Red Hat Ceph Storage 4 升级到 Red Hat Ceph Storage 5 部分。

(BZ#1956840)

从 Red Hat Ceph Storage 4 升级到 Red Hat Ceph Storage 5 后 rbd-mirroring 无法按预期工作

在将存储集群从红帽 Ceph 存储 4 迁移到红帽 Ceph 存储 5 后,ceph adm-adopt playbook 不会启动 rbd-mirror。

要临时解决这个问题,请手动添加 peer:

语法

rbd mirror pool peer add POOL_NAME CLIENT_NAME@CLUSTER_NAME

示例

[ceph: root@host01 /]# rbd --cluster site-a mirror pool peer add image-pool client.rbd-mirror-peer@site-b

如需更多信息,请参阅《红帽 Ceph 存储块设备指南》中的 添加存储集群对等 章节。

(BZ#1967440)

当用户运行 cephadm-adopt.yml playbook 时,这些主机不会添加到配置为 FQDN 的节点

当用户运行 cephadm-adopt.yml playbook 时,主机名为 FQDN 而非短名称的节点将无法在 Orchestrators 配置中添加主机。ceph orch host add 命令查找的值与 hostname 生成的输出相同。

解决方法是使用短名称修改主机名,然后再运行 cephadm-adopt.yml playbook。

(BZ#¼083)

6.3. Ceph 仪表板

在从红帽 Ceph 存储仪表板上的存储集群中删除主机前,从主机中删除服务

在删除服务前删除红帽 Ceph 存储控制面板中的主机会导致主机处于过时、死机或 ghost 状态。

要解决这个问题,请手动删除主机上运行的所有服务,然后使用 Red Hat Ceph Storage Dashboard 从存储集群中删除该主机。如果您在不删除服务的情况下删除主机,则要再次添加主机,则必须使用命令行界面。如果您在不删除服务的情况下删除主机,则需要使用命令行界面再次添加主机。

(BZ#1889976)

用户无法使用 chrome 扩展或插件登录到 Red Hat Ceph Storage Dashboard

如果浏览器中使用的插件有 Chrome 扩展,用户将无法登录红帽 Ceph 存储控制面板。

要临时解决这个问题,请清除正在使用中特定域名的 cookies,或使用 Incognito 模式访问 Red Hat Ceph Storage Dashboard。

(BZ#1913580)

Red Hat Ceph Storage Dashboard 上的图形不会被显示

Red Hat Ceph Storage Dashboard 上的图形不会被显示,因为 grafana 服务器证书在客户端计算机上不被信任。

要解决这个问题,直接在客户端互联网浏览器中打开 Grafana URL,并接受安全例外来查看 Ceph 仪表板上的图形。

(BZ#1921092)

Red Hat Ceph Storage 集群中管理 NFS-Ganesha 导出的不兼容方法

目前,Ceph 集群中有两种不同的方法来管理 NFS-Ganesha 导出:个是使用控制面板,另一个则使用命令行界面。如果以某种方式创建导出,用户可能无法以另一种方式管理导出。

要临时解决这个问题,红帽建议遵循一种方法来部署和管理 NFS,从而避免潜在的复制或管理不可修改的 NFS 导出。

(BZ#1939480)

用户无法在 Red Hat Ceph Storage 仪表板上创建子卷的快照

在这个版本中,用户无法在 Red Hat Ceph Storage 控制面板上创建子卷的快照。如果用户在控制面板上创建子卷的快照,则用户会收到 500 错误,而不是更为描述性的错误消息。

(BZ#1950644)

Red Hat Ceph Storage 控制面板仅显示由默认 CRUSH root 子级子组成的 OSD

红帽 Ceph 存储控制面板考虑默认 CRUSH root 子进程,忽略其他 CRUSH 类型,如数据中心、区域、机架和其他类型。因此,控制面板上的 CRUSH map 查看器不显示不属于默认 CRUSH root 的 OSD。

Ceph 控制面板中存储集群的 OSD 的树视图现在类似于 ceph osd 树 输出。

(BZ#1953903)

无法通过短主机名访问仪表板相关的 URL 和 Grafana API URL

要解决这个问题,请在 Red Hat Ceph Storage 控制面板的 Cluster 下拉菜单中单击 Manager 模块。将设置从短主机名 URL 更改为 FQDN URL。使用 ceph mgr 模块禁用 dashboard 命令禁用控制面板,再使用 ceph mgr 模块启用仪表板命令重新启用 dashboard 模块

仪表板应该可以访问 Grafana API URL 和其他仪表板 URL。

(BZ#1964323)

Red Hat Ceph Storage Dashboard 不支持 HA-Proxy-RGW 服务管理

Red Hat Ceph Storage 控制面板不支持 Ceph 对象网关的 HA 代理服务。

作为临时解决方案,可以使用 Cephadm CLI 管理 HA proxy-RGW 服务。您只能在红帽 Ceph 存储仪表板上查看该服务。

(BZ#1968397)

红帽不支持 Red Hat Ceph Storage Dashboard 上的后端的 Ceph 文件系统上通过 Ceph 文件系统进行 NFS 导出

红帽不支持通过 Red Hat Ceph Storage Dashboard 上的 Ceph 文件系统(CephFS)管理 NFS 导出。目前,支持通过后端中的 Ceph 对象网关导出 NFS。

(BZ#1974599)

用户必须在方括号中包括 IPv6 地址,才能访问 Red Hat Ceph Storage Dashboard

当用户使用 IPv6 部署红帽 Ceph 存储集群时,ceph mgr 服务 为 Ceph 控制面板生成的 URL 语法上不正确。

示例

https://ipv6address:8443/

要解决这个问题,请将 IPv6 地址的 URL 括在方括号中。

示例

https://[ipv6address]:8443/

(BZ#1975338)

6.4. Ceph 文件系统

回溯追踪现在可以正常工作,用于 CephFS 清理操作

在以前的版本中,backtrace 不会被写为稳定的存储。如果回溯追踪与新的未同步条目的内存中副本不匹配,清理活动报告失败。由于无需保存回溯追踪到磁盘,因此即将永久清除的 stray 条目也会发生回溯匹配的情况。由于持续元数据 I/O,如果存在大量元数据 I/O,可能会发生原始统计不匹配的情况,因为原始统计核算不是即时的。

要解决这个问题,请在系统闲置时重新运行清理,并有足够的时间将内存中状态刷新到磁盘。因此,元数据刷新到磁盘后,这些错误会被解决。如果磁盘上没有找到回溯追踪并且文件是新的,并且条目将灰显并且即将清除,则回溯验证会成功。

如需了解更多详细信息,请参阅 KCS Ceph 状态显示 HEALTH_ERR,其中 MDS 报告损坏的元数据

(BZ#1794781)

现在多个导出可以访问 NFS 挂载

在以前的版本中,当创建多个 CephFS 导出时,对导出的读/写操作会挂起。因此,NFS 挂载无法访问。为解决这个问题,Galnesha 版本 3.3-2 及以下支持单一导出。在这个版本中,在使用 Ganesha 版本 3.3-3 及更高版本时,支持多个 CephFS 导出。

(BZ#1909949)

cephfs-top 实用程序显示错误的挂载和缺少的指标

cephfs-top 实用程序需要一个比 Red Hat Enterprise Linux 8 当前随附的版本更新的内核。cephfs-top 实用程序需要一整套性能统计补丁。目前,这个已知问题还没有临时解决方案。

(BZ#1946516)

6.5. Ceph 对象网关

版本存储桶的 LC 策略在 reshards 之间失败

目前,LC 策略在版本控制 bucket 上暂停和启用版本控制后无法正常工作,两者之间有重新定义。

(BZ#1962575)

The radosgw-admin 用户 stats 命令显示 size_utilized size_ kb_utilized 字段 的不正确值

当用户在将存储桶添加到红帽 Ceph 存储集群后运行 radosgw-admin 用户 stats 命令时,输出中会在 size_utilized size_ kb_utilized 字段中 显示不正确的值;它们始终显示为零。

这个问题没有临时解决方案,用户可以忽略这些值。

(BZ#1986160)

6.6. 多站点 Ceph 对象网关

SAS [5.0][rgw-multisite][Scale-testing][LC]:通过 LC 从主位置删除 16.5M 对象,不会从次要中删除对应的对象数。|

TODO https://bugzilla.redhat.com/show_bug.cgi?id=1976874

SAS [rgw-multisite][swift-cosbench]:在对象覆盖时不可靠地更新索引大小,导致主要和次要统计信息的模糊不清。|

TODO https://bugzilla.redhat.com/show_bug.cgi?id=1986826

6.7. 文档的已知问题

  • 在 Red Hat Ceph Storage Dashboard 上管理 Ceph 文件系统快照的文档

    有关此功能的详细信息将包含在下一版本的 红帽 Ceph 存储仪表板指南中

  • 用户在 Red Hat Ceph Storage 控制面板中管理主机的文档

    有关此功能的详细信息将包含在下一版本的 红帽 Ceph 存储仪表板指南中

  • 用户即时导入 RBD 镜像的文档

    rbd 导入 命令的详细信息将包含在下一版本的 红帽 Ceph 存储块设备指南中

第 7 章 过时的功能

本节概述了在 Red Hat Ceph Storage 发行本的所有次版本中弃用的功能。

Ceph 配置文件现已过时

Ceph 配置文件(ceph.conf)现已淘汰,取代存储在 Ceph monitor 中的新的集中式配置。详细信息,请参见《 红帽 Ceph 存储配置指南》中的 Ceph 配置数据库 章节。

Ceph 文件系统(CephFS)的 min_compat_client 参数现已弃用

对于红帽 Ceph 存储 5.0,min_compat_client 参数已弃用,并添加了用于设置 Ceph 文件系统(CephFS)的新客户端功能。详情请参阅《 红帽 Ceph 存储文件系统指南 》中的 客户端功能 章节。

Ceph 文件系统子卷组的快照现已弃用

Ceph 文件系统(CephFS)子卷组的快照功能对于红帽 Ceph 存储 5.0 弃用。可以根据需要列出和删除现有的快照。详情请参阅 红帽 Ceph 存储 Ceph 文件系统指南 中的列出 文件系统子卷组快照 和删除 文件系统 子卷组快照部分。

Cockpit Ceph Installer 现已弃用

不支持使用 Cockpit Ceph 安装程序安装 Red Hat Ceph Storage 集群 5。使用 Cephadm 安装红帽 Ceph 存储集群。详情请查看 Red Hat Ceph Storage 安装指南

第 8 章 源

更新的 Red Hat Ceph Storage 源代码软件包位于以下位置: