发行注记

Red Hat Ceph Storage 5.1

Red Hat Ceph Storage 5.1z2 发行注记

Red Hat Ceph Storage Documentation Team

摘要

本发行注记介绍了为 Red Hat Ceph Storage 5 产品版本实施的主要功能、功能增强、已知问题和程序错误修复。这包括 Red Hat Ceph Storage 5.1 发行版本的前一个发行注记。

使开源包含更多

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。我们从这四个术语开始: master、slave、blacklist 和 whitelist。由于此项工作十分艰巨,这些更改将在即将推出的几个发行版本中逐步实施。有关更多详情,请参阅我们的首席技术官 Chris Wright 提供的消息

提供有关 Red Hat Ceph Storage 文档的反馈

我们感谢您对文档提供反馈信息。请让我们了解如何改进文档。要做到这一点,创建一个 Bugzilla ticket:

+ .进入 Bugzilla 网站。在组件下拉列表中,选择 Documentation。在 Sub-Component 下拉菜单中,选择适当的子组件。选择相应的文档版本。在 SummaryDescription 字段中填写您要改进的建议。包括文档相关部分的链接。可选:添加一个附件(若有)。点 Submit Bug

第 1 章 简介

Red Hat Ceph Storage 是一个可大规模扩展、开放、软件定义的存储平台,它将最稳定版本的 Ceph 存储系统与 Ceph 管理平台、部署实用程序和支持服务相结合。

Red Hat Ceph Storage 文档位于 https://access.redhat.com/documentation/zh-cn/red_hat_ceph_storage/5

第 2 章 致谢

Red Hat Ceph Storage 5 项目见证了 Ceph 社区中个人和组织贡献的质量和贡献数量的增长。我们借此感谢 Red Hat Ceph Storage 团队的所有成员、Ceph 社区中的所有个人贡献者,并且包括但不限于:

  • Intel®
  • Fujitsu ®
  • UnitedStack
  • Yahoo ™
  • Ubuntu Kylin
  • Mellanox ®
  • CERN ™
  • Deutsche Telekom
  • Mirantis ®
  • SanDisk ™
  • SUSE

第 3 章 新功能

本节列出了本 Red Hat Ceph Storage 版本中引入的所有主要更新、增强功能和新功能。

这个版本添加的主要功能是:

  • 容器化集群

    Red Hat Ceph Storage 5 仅支持容器化守护进程。它不支持非容器化存储集群。如果您要将非容器化存储集群从 Red Hat Ceph Storage 4 升级到 Red Hat Ceph Storage 5,升级过程包括转换为容器化部署。

    如需更多信息,请参阅 Red Hat Ceph Storage 安装指南中的将 Red Hat Ceph Storage 集群从 RHCS 4 升级到 RHCS 5 部分。

  • Cephadm

    Cephadm 是一款全新的容器化部署工具,可通过从管理器守护进程连接到主机来部署和管理 Red Hat Ceph Storage 5 集群。cephadm 实用程序取代了 ceph-ansible 用于 Red Hat Ceph Storage 部署。Cephadm 的目标是为运行 Red Hat Ceph Storage 提供功能全面、功能强大和安装良好的管理层。

    cephadm 命令管理 Red Hat Ceph Storage 集群的完整生命周期。

    cephadm 命令可以执行以下操作:

  • 引导新的 Ceph 存储集群。
  • 启动与 Ceph 命令行界面 (CLI) 搭配使用的容器化 shell。
  • 有助于调试容器化守护进程.

    cephadm 命令使用 ssh 与存储集群中的节点进行通信,并添加、删除或更新 Ceph 守护进程容器。这样,您无需使用外部工具即可添加、删除或更新 Red Hat Ceph Storage 容器。

    cephadm 命令有两个主要组件:

  • cephadm shell 在容器内启动 bash shell。这可让您运行存储集群安装和设置任务,并在容器中运行 ceph 命令。
  • cephadm 编配器命令允许您调配 Ceph 守护进程和服务,并扩展存储集群。

    如需更多信息,请参见 Red Hat Ceph Storage 安装指南

  • 管理 API

    管理 API 创建的管理脚本适用于 Red Hat Ceph Storage 5,并在版本生命周期中保持不变。不兼容的 API 版本控制只会在发生在不同的主发行版本中。

    如需更多信息,请参阅 Red Hat Ceph Storage 开发人员指南

  • 断开连接的 Red Hat Ceph Storage 安装

    Red Hat Ceph Storage 5 支持在专用网络上断开连接的安装和引导存储集群。断开连接的安装使用自定义镜像和配置文件以及本地主机,而不是从网络下载文件。

    您可以安装从可以访问红帽 registry 的代理主机下载的容器镜像,或将容器镜像复制到本地 registry。bootstrap 过程需要一个规格文件,用于标识要按名称和 IP 地址添加的主机。启动初始监控主机后,您可以使用 Ceph 编配器命令来扩展和配置存储集群。

    如需了解更多详细信息,请参见 Red Hat Ceph Storage 安装指南

  • Ceph 文件系统异地复制

    从 Red Hat Ceph Storage 5 版本开始,您可以在不同的地理位置或不同站点之间复制 Ceph 文件系统 (CephFS)。新的 cephfs-mirror 守护进程执行快照异步复制到远程 CephFS。

    如需了解更多详细信息,请参阅 Red Hat Ceph Storage 文件系统指南中的 Ceph 文件系统镜像部分。

  • 新的 Ceph 文件系统客户端性能工具

    自 Red Hat Ceph Storage 5 发行版起,Ceph 文件系统 (CephFS) 提供了类似 top 的实用程序,可以实时在 Ceph 文件系统上显示指标。cephfs-top 实用程序是一个基于 curses 的 Python 脚本,它使用 Ceph Manager stats 模块来获取和显示客户端性能指标。

    如需了解更多详细信息,请参阅 Red Hat Ceph Storage 文件系统指南中的使用 cephfs-top 实用程序 一节。

  • 使用 Red Hat Ceph Storage 仪表板监控 Ceph 对象网关多站点

    Red Hat Ceph Storage 仪表板现在可用于监控 Ceph 对象网关多站点配置。

    在使用 cephadm 实用程序设置了多区后,一个区域的存储桶对其它区和其他站点可见。您还可以在仪表板上创建、编辑和删除存储桶。

    如需了解更多详细信息,请参阅 Red Hat Ceph Storage 仪表板指南中的在 Ceph 仪表板中管理多站点对象配置的存储桶章节。

  • 改进了 BlueStore 空间使用率

    Ceph 对象网关和 Ceph 文件系统 (CephFS) 将小对象和文件作为单独的对象存储在 RADOS 中。在这个版本中,BluStore 的 min_alloc_size 的 SSD 和 HDD 的默认值为 4 KB。这可以更好地利用空间,且不会影响性能。

    如需了解更多详细信息,请参见 Red Hat Ceph Storage 管理指南中的 OSD BlueStore 一章。

3.1. Cephadm 实用程序

cephadm 支持在同一主机上存在多个守护进程

借助此版本,可以在同一主机上部署多个守护进程,如 Ceph 对象网关和 Ceph 元数据服务器(MDS),从而提供额外的性能优势。

示例

service_type: rgw
placement:
  label: rgw
  count-per-host: 2

对于单节点部署,在升级时,cephadm 至少需要运行两个 Ceph Manager 守护进程。对于升级以外的情况,也强烈建议这样做,但在没有这样做的情况下,存储集群也可以正常工作。

现在支持使用 Cephadm 配置 NFS-RGW

在 Red Hat Ceph Storage 5.0 配置中,使用 NFS-RGW 需要将仪表板用作临时解决方案,且建议在 Red Hat Ceph Storage 5.1 前延迟升级。

在这个版本中,支持 NFS-RGW 配置,这个配置的用户就可以升级其存储集群,并可以正常工作。

用户现在可以使用自定义监控堆栈镜像引导其存储集群

在以前的版本中,用户在引导集群后手动调整用于其监控堆栈守护进程的镜像

在这个版本中,您可以通过传递配置文件格式,在 bootstrap 期间为监控堆栈守护进程指定自定义镜像,如下所示:

语法

[mgr]
mgr/cephadm/container_image_grafana = GRAFANA_IMAGE_NAME
mgr/cephadm/container_image_alertmanager = ALERTMANAGER_IMAGE_NAME
mgr/cephadm/container_image_prometheus = PROMETHEUS_IMAGE_NAME
mgr/cephadm/container_image_node_exporter = NODE_EXPORTER_IMAGE_NAME

您可以在命令中使用 --config CONFIGURATION_FILE_NAME 选项来运行 bootstrap。如果您有其他配置选项,您可以在引导存储集群前在配置文件中添加上面的行。

cephadm 启用 osd_memory_target 的自动调整

在这个版本中,cephadm 会默认启用 osd_memory_target 配置参数的自动化调整。

用户现在可以通过服务为守护进程指定 CPU 限值

在这个版本中,您可以通过 extra_container_args 字段在服务规格文件中添加 CPU 限制,为任何给定服务中的所有守护进程自定义 CPU 限值。

示例

service_type: mon
service_name: mon
placement:
hosts:
  - host01
  - host02
  - host03
extra_container_args:
  - "--cpus=2"

service_type: osd
service_id: osd_example
placement:
  hosts:
    - host01
extra_container_args:
  - "--cpus=2"
spec:
  data_devices:
    paths:
    - /dev/sdb

cephadm 现在支持用于 Ceph 对象网关部署的 IPv6 网络

在这个版本中,cephadm 支持为 Ceph 对象网关规格指定 IPv6 网络。用于部署 Ceph 对象网关的服务配置文件的示例如下:

示例

service_type: rgw
service_id: rgw
placement:
  count: 3
networks:
- fd00:fd00:3000::/64

ceph nfs export create rgw 命令现在支持导出 Ceph 对象网关用户

在以前的版本中,ceph nfs export create rgw 命令只会在存储桶级别上导出 Ceph 对象网关。

在这个版本中,命令在用户和存储桶级别上创建 Ceph 对象网关导出。

语法

ceph nfs export create rgw --cluster-id CLUSTER_ID --pseudo-path PSEUDO_PATH --user-id USER_ID [--readonly] [--client_addr VALUE...] [--squash VALUE]

示例

[ceph: root@host01 /]# ceph nfs export create rgw --cluster-id mynfs --pseudo-path /bucketdata --user-id myuser --client_addr 192.168.10.0/24

3.2. Ceph 仪表板

用户现在可以在 Red Hat Ceph Storage 仪表板上查看 HAProxy 指标

在这个版本中,红帽引入了用于 Ceph 对象网关端点的 ingress 服务的新 Grafana 仪表板。现在,您可以在 Ceph Object Gateway Daemons Overall Performance 中查看四个 HAProxy 指标,如 HTTP 代码的总响应、总请求/响应、总连接数和当前传入/出站字节数。

用户可以查看 Red Hat Ceph Storage Dashboard 中的 mfa_ids

在这个版本中,您可以在 Red Hat Ceph Storage Dashboard 的 User Details 部分为 Ceph Object Gateway 用户查看配置了多因素身份验证(MFA)的用户的 mfa_ids

3.3. Ceph Manager 插件

进程模块中的全局恢复事件现在已被优化

在这个版本中,用于全局恢复事件的计算通过使用 C++ 代码而不是 python 模块来优化大型存储集群中的大量放置组,从而减少了 CPU 使用率。

3.4. Ceph 卷实用程序

lvm 命令不会在容器内运行时导致元数据崩溃

在以前的版本中,当 lvm 命令在容器中运行时,它会造成 LVM 元数据崩溃。

在这个版本中,ceph-volume 使用主机命名空间来运行 lvm 命令并避免元数据崩溃。

3.5. Ceph 对象网关

从 Ceph 对象网关重新划分队列锁定消息标记为“informational”

在以前的版本中,当 Ceph Object Gateway 在 reshard 队列中无法获得锁定时,输出日志条目似乎会成为因客户造成问题的错误。

在这个版本中,输出日志中的条目显示为 informational,并被标记为 "INFO:"。

支持使用 modulus 和 exponent 对 OIDC JWT 令牌验证的支持。

在这个版本中,OIDC JSON Web 令牌(JWT)验证支持使用 modulus 和 exponent 进行签名计算。它还扩展了对可用方法验证 OIDC JWT 验证的支持。

角色名称和角色会话字段现在包括在 ops 日志中用于临时凭证

在以前的版本中,角色名称和角色会话不可用,管理员很难知道假设哪一个角色,以及哪个使用临时凭证的会话是活跃的。

在这个版本中,为 ops 日志的角色名称和角色会话可用于临时凭证(由 AssumeRole* API 返回)来执行 S3 操作。

用户现在可以使用 --bucket 参数来处理存储桶生命周期

在此发行版本中,您可以为 radosgw-admin lc process 命令提供 --bucket=BUCKET_NAME 参数,以处理相应存储桶的生命周期。这很方便地调试影响特定存储桶的生命周期问题,以及查找后面的特定存储桶的回填生命周期处理。

3.6. 多站点 Ceph 对象网关

多站点配置支持动态存储桶索引重新划分

在以前的版本中,只支持为多站点配置手动重新划分存储桶。

在这个版本中,多站点配置支持动态存储桶重新划分。在存储集群升级后,启用 重新分片 功能,独立于存储集群中的其他区,使用 radogw-admin bucket reshard 命令手动重新划分存储桶,或者使用动态分片功能自动进行分片。

3.7. RADOS

使用 noautoscale 标志来管理 PG 自动缩放器

在这个版本中,可以使用 noautoscale 标志在全局范围内将 pg_autoscaler 设置为 onoff。这个标志默认设置为 off。当设置此标志时,所有池都有 pg_autoscale_modeoff

有关更多信息,请参阅 Red Hat Ceph Storage 策略指南中的手动更新自动扩展配置集部分。

用户现在可以使用 --bulk 标志创建池

在这个版本中,您可以使用 --bulk 标志创建池。它使用 pg_autoscaler 的配置集,并在启动时提供更好的性能,并完全补充放置组(PG),仅当池间的使用量比率不佳时,才进行缩减。

如果池没有 --bulk 标志,池将从最小 PG 开始。

使用批量标记创建池:

语法

ceph osd pool create POOL_NAME --bulk

设置/取消设置现有池的批量标记:

语法

ceph osd pool set POOL_NAME bulk TRUE/FALSE/1/0
ceph osd pool unset POOL_NAME bulk TRUE/FALSE/1/0

获取现有池的批量标记:

语法

ceph osd pool get POOL_NAME --bulk

第 4 章 技术预览

本节概述了此 Red Hat Ceph Storage 发行版本中引入或更新的技术预览功能。

重要

红帽产品服务级别协议(SLA)不支持技术预览功能,且其功能可能并不完善,因此红帽不建议在生产环境中使用它们。这些技术预览功能可以使用户提早试用新的功能,并有机会在开发阶段提供反馈意见。

有关红帽技术预览功能支持范围的更多信息,请参阅技术预览功能支持范围

cephadm bootstrap 过程支持 Red Hat Enterprise Linux 9

在这个版本中,基于 Red Hat Enterprise Linux 8 的存储集群 cephadm bootstrapping 过程支持 Red Hat Enterprise Linux 9。容器是需要 Red Hat Enterprise Linux 9 服务器的 Red Hat Enterprise Linux 8。

多站点复制设置中的 Ceph 对象网关现在支持 AWS bucket 复制 API 功能的子集

在这个版本中,Ceph 对象网关支持 AWS bucket 复制 API 功能子集,包括 {Put、Get, Delete} Replication 操作。此功能启用了 bucket-granularity 复制,还提供最终用户复制控制,同时注意当前,存储桶可以在现有 CephObject 网关多站点复制设置的区内复制。

RADOS 上的 SQLite 虚拟文件系统(VFS)现在可用

在这个版本中,新的 libcephsqlite RADOS 客户端库在 RADOS 之上提供 SQLite 虚拟文件系统(VFS)。数据库和日志通过 RADOS 在多个对象之间进行条带化,以实现仅受 SQLite 客户端限制的扩展和吞吐量。使用 SQLite 的应用可能会以最小的变化来更改 Ceph VFS,通常仅通过指定备用 VFS 更改。

用于部署 NFS Ganesha 守护进程的 Ingress 标记

在这个版本中,--ingress 标志可用于部署一个或多个 NFS Ganesha 守护进程。ingress 服务为 NFS 服务器提供负载均衡和高可用性。

第 5 章 过时的功能

本节概述了在 Red Hat Ceph Storage 发行本的所有次版本中弃用的功能。

重要

弃用的功能在 Red Hat Ceph Storage 5 生命周期结束前一直被支持。弃用的功能可能在以后的主要发行本中不被支持,因此不建议在新的部署中使用。有关特定主要发行本中已弃用功能的最新列表,请参考最新版本的发行文档。

对 CephFS 的 NFS 支持现已弃用

现在,在 OpenShift Data Foundation 中,对 CephFS 的 NFS 支持已被弃用。OpenStack Manila 中 NFS 的 Red Hat Ceph Storage 支持不会受到影响。弃用的功能只会在当前版本的生命周期内收到程序错误修复,并可能在以后的发行版本中删除。有关此技术的相关文档被识别为 "Limited Availability"。

iSCSI 支持现已弃用

iSCSI 支持现已弃用 NVMEoF 支持。弃用的功能只会在当前版本的生命周期内收到程序错误修复,并可能在以后的发行版本中删除。有关此技术的相关文档被识别为 "Limited Availability"。

Ceph 配置文件现已过时

Ceph 配置文件 (ceph.conf) 现已被弃用,取代存储在 Ceph monitor 中的新的集中式配置。详细信息,请参见 Ceph 存储配置指南中的 Ceph 配置数据库章节。

Ceph 文件系统 (CephFS) 的 min_compat_client 参数现已弃用

对于 Red Hat Ceph Storage 5.0,min_compat_client 参数已弃用,并添加了用于设置 Ceph 文件系统 (CephFS) 的新客户端功能。详情请参阅 Red Hat Ceph Storage 文件系统指南中的客户端功能章节。

Ceph 文件系统子卷组的快照现已弃用

对于 Red Hat Ceph Storage 5.0 ,Ceph 文件系统 (CephFS) 子卷组的快照功能已弃用。可以根据需要列出和删除现有的快照。详情请参阅 Red Hat Ceph Storage 文件系统指南中的列出文件系统子卷组快照删除文件系统子卷组快照部分。

Cockpit Ceph Installer 现已弃用

不支持使用 Cockpit Ceph 安装程序安装 Red Hat Ceph Storage 集群 5。使用 Cephadm 安装 Red Hat Ceph Storage 集群。详情请查看 Red Hat Ceph Storage 安装指南

第 6 章 程序错误修复

本节论述了在 Red Hat Ceph Storage 发行版本中修复的具有显著用户影响的错误。此外,部分还包括之前版本中发现的固定已知问题的描述。

6.1. Cephadm 实用程序

.rgw.root 池在 Ceph 对象网关多站点检查过程中不会被自动创建

在以前的版本中,cephadm 会对 Ceph Object Gateway 多站点进行检查,以帮助决定是否存在一个程序错误回归的问题。这个检查会创建一个 .rgw.root 池(如果已被删除),从而导用户一直停留在 .rgw.root 池中,即使没有使用 Ceph Object Gateway。

在这个版本中,会创建池的检查已被移除,池不再会被创建。如果用户在自己的系统中存在池,但并不需要使用池,现在可以删除池且池不会再被重新创建。没有这个池的用户不会自动为其创建池。

(BZ#2090395)

6.2. Ceph 文件系统

当目标目录已满时,Reintegrating stray 条目不会失败

在以前的版本中,如果删除了的文件有硬链接,或者是快照的一部分,Ceph 元数据服务器会重新集成一个未链接的文件。如果目标目录已满,重新集成(一个内部重命名操作)会失败。这会导致 Ceph 元数据服务器重新集成或删除条目。

在这个版本中,在重新切换 stray 条目的过程中会进行完全空间检查,这些分类条目也会被重新集成,即使目标目录已满,也会重新集成这些条目。

(BZ#2041572)

从新客户端接收指标时,MDS 守护进程不再崩溃

在以前的版本中,在某些情况下,较新的客户端用于旧的 CephFS 集群。在升级旧的 CephFS 时,cephadmmgr 使用较新的客户端执行检查、测试或配置旧 Ceph 集群。因此,当从较新的客户端收到未知指标时,MDS 守护进程会崩溃。

在这个版本中,libceph 客户端只发送 MDS 守护进程支持的那些指标作为默认 MDS。在用户认为安全时,强制启用所有指标的附加选项。

(BZ#2081914)

Ceph 目录服务器在并发查找和非链接操作过程中不再崩溃

在以前的版本中,在代码中存在错误假设,它会被按并发查找和从 Ceph 客户端的未链接操作,从而导致 Ceph 元数据服务器崩溃。

最新的修复程序将断言移到相关的位置,即在并发查找和未连接操作期间进行。因此,Ceph 元数据服务器可以在不崩溃的情况下提供 Ceph 客户端操作。

(BZ#2093064)

6.3. Ceph 对象网关

在 FIPS 环境中允许使用 MD5 进行非加密目的

在以前的版本中,在启用了 FIPS 的环境中,默认不允许使用 MD5 摘要,除非明确排除非加密目的。因此,在 S3 完成多部分上传操作过程中发生了 segfault。

在这个版本中,为 S3 完整多部分 PUT 操作在 FIPS 环境中使用 MD5 进行非加密目的,可以显式允许 S3 多部分操作。

(BZ#2088601)

6.4. RADOS

ceph-objectstore-tool 命令允许手动修剪积累的 PG 日志 dups 条目

在以前的版本中,在低级 PG 分割操作期间,PG 日志 dups 条目的修剪会无法被 PG 自动扩展器使用,超过人为 operator 的频率。使 dups 修剪导致 PG 日志的内存增长造成大量内存增长,因为 OSD 内存不足时会导致 OSD 崩溃。重启 OSD 不会解决此问题,因为 PG 日志存储在磁盘上,并在启动时重新加载到 RAM。

在这个版本中,ceph-objectstore-tool 命令允许手动修剪积累 PG 日志 dups 条目,以取消阻塞自动修剪机器。实施了调试功能,它将 dups 条目的数量输出到 OSD 的日志,以帮助调查未来。

(BZ#2094069)

6.5. RBD 镜像功能

基于快照的镜像过程不再被取消

在以前的版本中,因为内部竞争条件,rbd mirror snapshot schedule add 命令将被取消。如果没有可用于其他现有计划,则基于快照的镜像流程不会启动受影响的镜像。

在这个版本中,竞争条件已被修复,基于快照的镜像过程会如预期启动。

(BZ#2099799)

当镜像被提升为主时,现有调度会生效

在以前的版本中,由于 ill-sidered 优化,现有调度不会在镜像提升后生效,从而导致基于快照的镜像过程没有为最近提升的镜像启动。

在这个版本中,优化会导致这个问题被删除,当镜像被提升为主,基于快照的镜像过程会如预期时,现有调度会生效。

(BZ#2100519)

rbd-mirror 守护进程不再获取专用锁定

在以前的版本中,因为逻辑错误,rbd-mirror 守护进程可能会获取 de-facto 主镜像的专用锁定。因此,受影响镜像基于快照的镜像过程会停止,报告 "failed to unlink to unlink local peer from remote image" 错误。

在这个版本中,逻辑错误会被修复,从而导致 rbd-mirror 守护进程不会发布在 de-facto 主镜像中专用锁定,基于快照的镜像过程不会停止和正常工作。

(BZ#2100520)

rbd-mirror 使用的 mirror 快照队列已扩展,不再被删除

在以前的版本中,因为内部竞争条件,从属集群中 rbd-mirror 守护进程所使用的镜像快照将被删除,从而导致受影响镜像停止基于快照的镜像过程,报告了 "sit-brain" 错误。

在这个版本中,镜像快照队列会按长度扩展,并且镜像快照清理过程被相应调整,修复了在次要集群上仍被 rbd-mirror 守护进程使用的镜像快照,且基于快照的镜像过程不会停止。

(BZ#2092843)

6.6. Ceph Ansible 实用程序

采用 playbook 现在可在 OSD 节点上安装 cephadm

在以前的版本中,由于 OSD 节点上禁用工具存储库,您无法安装 cephadm OSD 节点,从而导致采用 playbook 失败。

在这个版本中,在 OSD 节点上启用了工具存储库,采用 playbook 现在可在 OSD 节点上安装 cephadm

(BZ#2073480)

删除旧目录可确保无集群安装后采用错误

在以前的版本中,当找到一个旧目录(如 /var/lib/ceph/mon)时,cephadm 会显示一个意外的 'config inferring' 功能。因此,在采用后,集群会有以下错误 "CEPHADM_REFRESH_FAILED: failed to probe daemon or devices"。

在这个版本中,采用 playbook 可确保删除该目录,且集群在采用后不会处于错误状态。

(BZ#2075510)

第 7 章 已知问题

本节记录了本版本的 Red Hat Ceph Storage 中已知的问题。

7.1. Ceph 对象网关

使用 yes-i-know 标志引导 Red Hat Ceph Storage 集群 5.1

用户在 Red Hat Ceph Storage 集群 5.1 中配置多站点会发出警告。

要临时解决这个问题,您必须在引导期间传递 yes-i-know 标志。

语法

sudo --image IMAGE_NAME bootstrap --mon-ip IP_ADDRESS --yes-i-know

在升级到 Red Hat Ceph Storage 5.1 时,用户会被警告

在以前的版本中,在 Red Hat Ceph Storage 5.0 中进行的重新分片存储桶可能无法被 Red Hat Ceph Storage 5.1 Ceph 对象网关守护进程识别。因此,添加了一个升级警告或阻塞程序,以确保所有升级到 Red Hat Ceph Storage 5.1 的用户都了解这个问题,如果用户之前已使用 Red Hat Ceph Storage 5.1,则可以降级它们。

作为临时解决方案,请运行 ceph config set mgr/cephadm/yes_i_know true --force 命令删除警告或阻塞程序,所有操作都将可以正常操作。用户必须确认他们在升级到 Red Hat Ceph Storage 5.1 之前已了解 Ceph 对象网关问题。

如果没有传递该标志,您会收到有关多站点回归和有关此问题的知识库文档的错误消息。

(BZ#2111679)

第 8 章 Documentation

本节列出了此 Red Hat Ceph Storage 发行版本中的文档增强。

8.1. 升级指南

  • 升级说明现在包括在一个单独的指南中。

    安装指南不再提供升级信息,这些信息包括在一个单独的指南中。如需有关如何升级 Red Hat Ceph Storage 集群的详细信息,请参阅 Red Hat Ceph Storage 升级指南

第 9 章 源

更新的 Red Hat Ceph Storage 源代码软件包位于以下位置:

法律通告

Copyright © 2024 Red Hat, Inc.
The text of and illustrations in this document are licensed by Red Hat under a Creative Commons Attribution–Share Alike 3.0 Unported license ("CC-BY-SA"). An explanation of CC-BY-SA is available at http://creativecommons.org/licenses/by-sa/3.0/. In accordance with CC-BY-SA, if you distribute this document or an adaptation of it, you must provide the URL for the original version.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, the Red Hat logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.