3.6. RADOS

Red Hat Ceph Storage 恢复了纠删代码 (EC) 池中可用的 OSD 较少

在以前的版本中,纠删代码 (EC) 大小为 k+m 的池至少需要 k+1 副本才能恢复。如果只提供 k 个副本,则恢复将无法完成。

在这个版本中,Red Hat Ceph Storage 集群现在可以在 EC 池中使用 k 或更多副本进行恢复。

有关纠删代码池的更多信息,请参见 Red Hat Ceph Storage 策略指南中的纠删代码池一章。

支持使用列系列进行 RocksDB 数据库分片

使用 BlueStore 管理工具时,目标是在压缩期间减少读写放大、减少数据库 (Database) 扩展,同时提高 IOPS 性能。

在这个版本中,您可以使用 BlueStore 管理工具重新定义数据库。RocksDB (DB) 数据库中的数据分割为多个 Column Families (CF)。每个 CF 都有自己的选项,其分割则根据 omap、对象数据、延迟缓存写入和 PGlog 等数据类型来执行。

有关重新划分的更多信息,请参见 Red Hat Ceph Storage 管理指南 中的使用 BlueStore 管理工具重新划分 RocksDB 数据库 章节。

可以为 Ceph 监控器启用 mon_allow_pool_size_one 配置选项

在这个版本中,用户可以启用配置选项 mon_allow_pool_size_one。启用后,如果用户想要将池大小配置为 1,用户可以在 osd pool set size 1 中使用 --yes-i-really-mean-it 标志。

osd_client_message_cap 选项已添加回

在以前的版本中,osd_client_message_cap 选项已被删除。在这个版本中,osd_client_message_cap 选项已被重新引入。此选项有助于通过限制这些请求来控制容器内客户端请求的最大数量。当 Ceph OSD 因大量基于客户端的流量而导致的阻塞时,这样做非常有用。

Ceph 消息传递协议现已更新为 msgr v2.1。

在这个版本中,将实施 Ceph 消息传递协议 msgr v2.1 的新版本,解决了上一版本 msgr v2.0 的几个安全性、完整性和潜在性能问题。现在,守护进程和客户端的所有 Ceph 实体默认为 msgr v2.1。

新的默认的 osd_client_message_cap 值是 256

在以前的版本中,osd_client_message_cap 的默认值为 0。默认值 0 可禁用 Ceph OSD 的流控制功能,且不会阻止 Ceph OSD 在大型客户端流量期间进行流动。

在这个版本中,osd_client_message_cap 的默认值为 256,它通过限制flight 客户端请求的最大数量来提供更好的流控制。

添加了 set_new_tiebreaker 命令

在此发行版本中,存储管理员可以在以扩展模式运行时设置一个新的绑定破坏 Ceph Monitor。如果绑定中断失败且无法恢复,此命令会很有用。