1.3. 新功能及功能增强

此版本对以下方面进行了改进。

1.3.1. Red Hat Enterprise Linux CoreOS (RHCOS)

1.3.1.1. RHCOS 现在使用 RHEL 9.2

RHCOS 现在在 OpenShift Container Platform 4.13 中使用 Red Hat Enterprise Linux (RHEL) 9.2 软件包。这可让您获得最新的修复、功能和增强,以及最新的硬件支持和驱动程序更新。

1.3.1.1.1. 使用 RHEL 9.2 升级到 OpenShift Container Platform 的注意事项

在这个版本中,OpenShift Container Platform 4.13 引入了基于 RHEL 9.2 的 RHCOS,在升级前需要做一些注意事项:

  • RHEL 8.6 和 RHEL 9.2 之间可能会更改了一些组件配置选项和服务,这意味着现有机器配置文件可能不再有效。
  • 如果您自定义了默认 OpenSSH /etc/ssh/sshd_config 服务器配置文件,您需要根据红帽知识库文章进行更新。
  • RHCOS 容器主机不支持 RHEL 6 基础镜像容器,但在 RHEL 8 worker 节点上支持。如需更多信息,请参阅红帽容器兼容性列表
  • 有些设备驱动程序已弃用,请参阅RHEL 文档 以了解更多信息。

1.3.1.2. 使用安装程序置备的基础架构的 IBM Power Virtual Server (技术预览)

安装程序置备的基础架构(IPI)提供 OpenShift Container Platform 的完整安装和设置。

如需更多信息,请参阅准备在 IBM Power Virtual Server 上安装

1.3.1.3. IBM Z 和 IBM (R) Linux 上的 IBM Secure Execution

此功能在 OpenShift Container Platform 4.12 中作为技术预览引进,现在在 OpenShift Container Platform 4.13 中正式发布。IBM Secure Execution 是一种硬件增强,可为 KVM 客户机保护内存边界。IBM Secure Execution 为集群工作负载提供最高级别的隔离和安全,您可以使用支持 IBM Secure Execution 的 QCOW2 引导镜像启用它。

要使用 IBM Secure Execution,您需要有主机机器的主机密钥,且必须在 Ignition 配置文件中指定它们。IBM Secure Execution 会使用 LUKS 加密自动加密引导卷。

如需更多信息,请参阅使用 IBM 安全执行安装 RHCOS

1.3.1.4. 支持的安装程序 SaaS 为 IBM Power、IBM Z 和 IBM (R) Linux 提供平台集成支持

console.redhat.com 上支持的安装程序 SaaS 支持使用 Assisted Installer 用户界面或 REST API 在 IBM Power、IBM Z 和 IBM® LinuxONE 平台上安装 OpenShift Container Platform。集成允许用户从单一界面管理其基础架构。启用 IBM Power、IBM Z 和 IBM® LinuxONE 与辅助安装程序 SaaS 集成有几个额外的安装步骤。

如需更多信息,请参阅使用 Assisted Installer 安装内部集群

1.3.1.5. RHCOS 现在包含 lsof

OpenShift Container Platform 4.13 现在在 RHCOS 中包含 lsof 命令。

1.3.2. 安装和更新

1.3.2.1. 支持 VMware vSphere 版本 8.0

OpenShift Container Platform 4.13 支持 VMware vSphere 版本 8.0。您可以继续在 VMware vSphere 版本 7.0 Update 2 上安装 OpenShift Container Platform 集群。

1.3.2.2. VMware vSphere 区域和区启用

您可以将 OpenShift Container Platform 集群部署到在单个 VMware vCenter 中运行的多个 vSphere 数据中心或区域。每个数据中心都可以运行多个集群或区域。此配置降低了硬件故障或网络中断的风险,从而导致集群失败。

重要

VMware vSphere 区域和区启用功能仅适用于新安装的集群,因为此功能需要 vSphere Container Storage Interface (CSI) 驱动程序作为集群中的默认存储驱动程序。

从上一版本升级的集群默认使用树内 vSphere 驱动程序。因此,您必须为集群启用 CSI 自动迁移才能使用此功能。然后,您可以为升级的集群配置多个区域和区域。

如需更多信息,请参阅 VMware vSphere 区域和区启用

1.3.2.3. 对默认 vSphere install-config.yaml 文件的更改

在 vSphere 上运行 OpenShift Container Platform 安装程序后,默认的 install-config.yaml 文件现在包含 vcentersfailureDomains 字段,以便您可以选择为集群指定多个数据中心、区域和区域信息。如果要在由 VMware vCenter 中运行的单一数据中心组成的 vSphere 环境中安装 OpenShift Container Platform 集群,请将这些字段留空。

如需更多信息,请参阅为 VMware vCenter 配置区域和区域

1.3.2.4. 支持多个 vSphere 子网的外部负载均衡器

您可以将 OpenShift Container Platform 集群配置为使用支持多个子网的外部负载均衡器。如果使用多个子网,您可以明确列出负载均衡器目标使用的任何网络中的所有 IP 地址。此配置可减少维护开销,因为您可以在这些网络中创建和销毁节点,而无需重新配置负载均衡器目标。

如需更多信息,请参阅配置外部负载均衡器

1.3.2.5. 支持在 VMware vSphere 上安装集群前对虚拟机进行加密

对于 OpenShift Container Platform 4.13,您可以在使用用户置备的基础架构的 VMware vSphere 上安装集群前对虚拟机进行加密。

如需更多信息,请参阅加密虚拟机的要求

1.3.2.6. 三节点集群支持

从 OpenShift Container Platform 4.13 开始,在 Amazon Web Services (AWS)、Microsoft Azure、Google Cloud Platform (GCP)和 VMware vSphere 上支持部署三节点集群。这种类型的 OpenShift Container Platform 集群是一个较小的、效率更高的集群,因为它仅包含三台 control plane 机器,它也充当计算机器。

如需更多信息,请参阅在 AWS 上安装三节点集群在 Azure 上安装三节点集群在 GCP 上安装三节点集群,以及在 vSphere 上安装三节点集群

1.3.2.7. IBM Cloud VPC 和现有的 VPC 资源

如果要将 OpenShift Container Platform 集群部署到现有的虚拟私有云 (VPC) 中,您现在可以使用 networkResourceGroupName 参数指定包含这些资源的资源组的名称。此功能增强可让您保留与安装程序置备的集群资源分开的现有 VPC 资源和子网。然后,您可以使用 resourceGroupName 参数指定安装程序可用于部署所有安装程序置备的集群资源的现有资源组的名称。如果 resourceGroupName 未定义,则会为集群创建新的资源组。

如需更多信息,请参阅 IBM Cloud VPC 配置参数

1.3.2.8. GCP 安装和删除 OpenShift Container Platform 集群的最低所需的权限

在 OpenShift Container Platform 4.13 中,您可以定义自定义角色以包括 Google Cloud Platform (GCP) 的最低所需权限,以安装和删除 OpenShift Container Platform 集群。这些权限可用于安装程序置备的基础架构和用户置备的基础架构。

1.3.2.9. Azure 的用户定义的标签

在 OpenShift Container Platform 4.13 中,您可以在 Azure 中配置标签,以分组资源并管理资源访问和成本。对标签的支持仅适用于在 Azure Public Cloud 中创建的资源,在 OpenShift Container Platform 4.13 中作为技术预览 (TP)。您只能在 OpenShift Container Platform 集群创建过程中在 install-config.yaml 文件中定义 Azure 资源的标签。

1.3.2.10. 在 GCP 上安装 OpenShift Container Platform 集群到共享 Virtual Private Cloud (VPC)

在 OpenShift Container Platform 4.13 中,您可以在 Google Cloud Platform (GCP) 上将集群安装到共享 VPC 中。这个安装方法将集群配置为与其他 GCP 项目共享 VPC。共享 VPC 可让机构通过通用 VPC 网络从多个项目连接资源。常见的 VPC 网络可以使用内部 IP 地址提高组织通信的安全性和效率。

如需更多信息,请参阅在 GCP 上安装集群到共享 VPC 中

1.3.2.11. 使用 Shielded 虚拟机在 GCP 上安装集群

在 OpenShift Container Platform 4.13 中,您可以在安装集群时使用 Shielded 虚拟机。Shielded 虚拟机具有额外的安全功能,包括安全引导、固件和完整性监控和 rootkit 检测。如需更多信息,请参阅启用 Shielded VMs 和 Google 文档 Shielded VMs

1.3.2.12. 使用机密的虚拟机在 GCP 上安装集群

在 OpenShift Container Platform 4.13 中,您可以安装集群时使用机密的虚拟机。机密虚拟机在处理数据时加密数据。如需更多信息,请参阅 Google 文档中有关 机密计算的内容。您可以同时启用机密虚拟机和 Shielded 虚拟机,虽然它们不相互依赖。

重要

由于 OpenShift Container Platform 4.13.3 及更早的版本中存在一个已知问题,您不能在 Google Cloud Platform (GCP)上使用具有机密虚拟机的集群中的持久性卷存储。这个问题已在 OpenShift Container Platform 4.13.4 中解决。如需更多信息,请参阅 OCPBUGS-11768

1.3.2.13. 在 AWS 上将集群安装到现有的 Virtual Private Cloud (VPC) 改进

在 OpenShift Container Platform 4.13 中,使用 AWS VPC 的集群安装过程已被简化。此发行版本还引入了边缘池,这是为 AWS Local Zones 优化的机器池。

如需更多信息,请参阅使用 AWS 本地区安装集群

1.3.2.14. 从 OpenShift Container Platform 4.12 升级到 4.13 时,需要管理员确认

OpenShift Container Platform 4.13 使用 Kubernetes 1.26,它删除了几个已弃用的 API

集群管理员必须在从 OpenShift Container Platform 4.12 升级到 4.13 前提供手动确认。这有助于防止升级到 OpenShift Container Platform 4.13 后出现问题,其中已删除的 API 仍在由运行或与集群交互的工作负载、工具或其他组件使用。管理员必须针对将要删除的任何 API 评估其集群,并迁移受影响的组件,以使用适当的新 API 版本。完成此操作后,管理员可以向管理员提供确认。

所有 OpenShift Container Platform 4.12 集群都需要此管理员确认,然后才能升级到 OpenShift Container Platform 4.13。

如需更多信息,请参阅准备升级到 OpenShift Container Platform 4.13

1.3.2.15. Microsoft Azure 的最低所需的权限来安装和删除 OpenShift Container Platform 集群

在 OpenShift Container Platform 4.13 中,您可以定义自定义角色,使其包含 Microsoft Azure 安装和删除 OpenShift Container Platform 集群的最低所需的权限。这些权限可用于安装程序置备的基础架构和用户置备的基础架构。

1.3.2.16. 单架构到多架构有效负载迁移

OpenShift Container Platform 4.13 引入了 oc adm upgrade --to-multi-arch 命令,可让您使用单架构计算机器将集群迁移到具有多架构计算机器的集群。通过升级到多架构、清单列出的有效负载,您可以将混合架构计算机器添加到集群中。

1.3.2.17. 配置要在 vSphere 的 control plane 上运行的网络组件

如果您需要在 vSphere 安装的 control plane 节点上运行虚拟 IP (VIP) 地址,您必须将 ingressVIP 地址配置为仅在 control plane 节点上运行。默认情况下,OpenShift Container Platform 允许 worker 机器配置池中的任何节点托管 ingressVIP 地址。因为 vSphere 环境在与 control plane 节点独立的子网中部署 worker 节点,将 ingressVIP 地址配置为完全在 control plane 节点上运行,从而防止在不同的子网中部署 worker 节点导致问题。如需了解更多详细信息,请参阅配置要在 vSphere 的 control plane 上运行的网络组件

1.3.2.18. 使用单一节点在 AWS 上安装 OpenShift Container Platform 集群

在 OpenShift Container Platform 4.13 中,您可以在 Amazon Web Services (AWS) 上使用单一节点安装集群。在单一节点上安装会增加节点的资源要求。如需了解更多详细信息,请参阅在单一节点上安装集群

1.3.2.19. 使用 Bare Metal Operator 在用户置备的集群中扩展裸机主机

在 OpenShift Container Platform 4.13 中,您可以使用 Bare Metal Operator (BMO) 和其他裸机3 组件在现有用户置备的基础架构集群中扩展裸机主机。通过在用户置备的集群中使用 Bare Metal Operator,您可以简化和自动化主机的管理和扩展。

使用 BMO,您可以通过配置 BareMetalHost 对象来添加或删除主机。您还可以通过在 BareMetalHost 对象清单中将主机注册 externallyProvisioned 来跟踪现有主机。

注意

您不能使用 provisioning 网络来扩展用户置备的基础架构集群,使用 Bare Metal Operator。由于此工作流不支持 provisioning 网络,因此只能使用支持虚拟介质网络引导的裸机主机驱动程序,如 redfish-virtualmediaidrac-virtualmedia

有关使用 BMO 扩展用户置备的集群的更多信息,请参阅使用 Bare Metal Operator 扩展用户置备的集群

1.3.2.20. 64 位 ARM 上的 OpenShift Container Platform

OpenShift Container Platform 4.13 现在支持基于 64 位 ARM 架构的 Azure 用户置备的安装。64 位 ARM 系统现在支持基于 Agent 的安装程序。有关实例可用性和安装文档的更多信息,请参阅支持的安装方法

1.3.2.21. 支持 git-lfs 软件包

OpenShift Jenkins 镜像现在支持 git-lfs 软件包。使用此软件包,您可以使用大于 OpenShift Jenkins 镜像 200MB (MB) 的工件。

1.3.2.22. 使用 oc-mirror 插件包含本地 OCI Operator 目录现已正式发布

现在,您可以使用 oc-mirror 插件将磁盘上的本地 OCI Operator 目录镜像到镜像 registry。此功能以前作为技术预览功能在 OpenShift Container Platform 4.12 中引入,现在在 OpenShift Container Platform 4.13 中正式发布。

此发行版本引进了对本地 OCI 目录时的以下功能的支持:

  • 从目标镜像 registry 修剪镜像
  • 增量 mirror 仅 mirror 自上次运行该工具起变化的内容
  • 目标 mirror registry 中目录的替代名称的命名空间层次结构
重要
  • 如果您为 OpenShift Container Platform 4.12 的 oc-mirror 插件使用了预览预览的 OCI 功能,则无法再使用 oc-mirror 插件的 OCI 本地目录功能在本地复制目录,并将其转换为 OCI 格式作为 mirror 到一个完全断开连接的集群中的第一步。
  • 在镜像本地 OCI 目录时,所有您要 mirror 的 OpenShift Container Platform 发行版本或其他需要和本地 OCI 格式目录一起 mirror 的镜像都必须从 registry 中拉取。您无法在磁盘中一起 mirror OCI 目录和一个 oc-mirror 镜像集文件镜像。
  • --use-oci-feature 标志已弃用。使用 --include-local-oci-catalogs 标志改为启用本地 OCI 目录的镜像。

如需更多信息,请参阅包含本地 OCI Operator 目录

1.3.2.23. 在 RHOSP 上部署使用故障域的集群(技术预览)

现在,您可以在 RHOSP 上部署跨多个故障域的集群。对于大规模部署,故障域提高了弹性和性能。

如需更多信息,请参阅故障域的 RHOSP 参数

1.3.2.24. 在 RHOSP 上部署带有用户管理的负载均衡器的集群(技术预览)

现在,您可以使用用户管理的负载均衡器而不是默认的内部负载均衡器在 RHOSP 上部署集群。

如需更多信息,请参阅使用用户管理的负载均衡器在 OpenStack 上安装集群配置

1.3.2.25. 在 Nutanix 上安装集群时使用项目和类别

在 OpenShift Container Platform 4.13 中,您可以使用项目和类别在 Nutanix 上安装的集群中组织 compute plane 虚拟机。项目定义用于管理权限、网络和其他参数的用户角色的逻辑组。您可以使用类别根据共享特征将策略应用到一组虚拟机。

如需更多信息,请参阅在 Nutanix 上安装集群

1.3.2.26. 基于代理的安装程序现在执行网络连接检查

对于使用基于 Agent 的安装程序安装 OpenShift Container Platform 4.13,控制台应用程序(带有文本用户界面)会提前执行拉取检查,以验证当前主机是否可以检索配置的发行镜像。控制台应用程序支持通过允许用户直接修改网络配置来进行故障排除。

如需更多信息,请参阅验证当前安装主机是否可以拉取发行镜像

1.3.3. 安装后配置

1.3.3.1. 带有多架构计算机器的 OpenShift Container Platform 集群

带有多架构计算机器的 OpenShift Container Platform 4.13 集群现已正式发布。作为第 2 天操作,您现在可以在 AWS 和 Azure 安装程序置备的基础架构上创建带有不同架构的计算节点的集群。裸机上的用户置备的安装只是一个技术预览。有关使用多架构计算机器创建集群的更多信息,请参阅在 OpenShift Container Platform 集群上配置多架构计算机器

1.3.3.2. 在 VSphere 上为集群指定多个故障域

作为管理员,您可以为在 VMware VSphere 实例上运行的 OpenShift Container Platform 集群指定多个故障域。这意味着,您可以在数据中心的不同硬件资源中分发关键 control plane 和工作负载元素。另外,您可以将集群配置为使用多个第 2 层网络配置,以便节点间的数据传输可以跨越多个网络。

如需更多信息,请参阅在 VSphere 上为集群指定多个故障域

1.3.4. Web 控制台

1.3.4.1. Developer Perspective (开发者视角)

在这个版本中,您可以在 web 控制台的 Developer 视角中执行以下操作:

  • 使用 Import from Git 流创建 Serverless 函数
  • 使用 Add 页上的 Create Serverless Function 流创建 Serverless 函数
  • 选择 pipeline-as-code 作为 Import from Git 工作流中的选项。
  • 查看用户界面中的以下位置接收流量:

    • Topology 视图的侧面板
    • pod 的 Details 视图
    • Pods 列表视图
  • 自定义超时时间,或者在实例化 Web Terminal 时提供自己的镜像。
  • 作为管理员,将默认资源设置为预先固定到所有用户的 Developer 视角导航中。
1.3.4.1.1. Pipelines 页面的改进

在 OpenShift Container Platform 4.13 中,您可以在 Pipelines 页面中看到以下导航改进:

  • 当您返回到 Pipelines 页面时,您之前选择的标签页会保持可见。
  • Repository 详情页面的默认标签页现在是 PipelinesRuns,但当您遵循 Create Git Repository 流时,默认标签页为 Details
1.3.4.1.2. Helm 页的改进

在 OpenShift Container Platform 4.13 中,Helm 页面现在包含以下新功能和更新的功能:

  • 现在,该页面中使用的术语指的是创建和删除 Helm 发行版本,而不是安装和卸载 Helm chart。
  • 您可以在 web 控制台中执行下一个任务前,异步创建和删除 Helm 发行版本,而不是等待操作完成。
  • Helm release 列表现在包含 Status 列。

1.3.5. OpenShift CLI (oc)

1.3.5.1. 在指定命名空间中运行 must-gather 的新标记

在 OpenShift Container Platform 4.13 中,oc adm must-gather 命令提供了 --run-namespace 标志。您可以使用此标志指定一个现有命名空间来运行 must-gather 工具。

如需更多信息,请参阅关于 must-gather 工具

1.3.5.2. 使用 OpenShift CLI (oc) 导入清单

在 OpenShift Container Platform 4.13 中,一个新的 oc 命令行界面 (CLI) 标记 --import-mode 添加到以下 oc 命令中:

  • oc import-image
  • oc tag

有了这个增强,用户可以将 --import-mode 标志设置为 LegacyPreserveOriginal,这为用户提供在运行 oc import-imageoc tag 命令时导入单个子清单或所有清单列表的选项。

如需更多信息,请参阅使用清单列表

1.3.5.3. 返回镜像的 os/arch 和摘要

在 OpenShift Container Platform 4.13 中,在镜像上运行 oc describe 现在返回每个清单的 os/arch 和摘要。

1.3.6. IBM Z 和 IBM (R) Linux

在这个版本中,IBM Z 和 IBM® LinuxONE 与 OpenShift Container Platform 4.13 兼容。可以使用 z/VM 或 Red Hat Enterprise Linux (RHEL) 内核的虚拟机 (KVM) 执行安装。有关安装说明,请参阅以下文档:

重要

Compute 节点必须运行 Red Hat Enterprise Linux CoreOS(RHCOS)

IBM Z 和 IBM (R) Linux 主要改进

OpenShift Container Platform 4.13 上的 IBM Z 和 IBM® LinuxONE 发行版本为 OpenShift Container Platform 组件和概念提供了改进和新功能。

此发行版本引进了对 IBM Z 和 IBM® LinuxONE 中的以下功能的支持:

  • 支持的安装程序
  • Cluster Resource Override Operator
  • Egress IP
  • MetalLB Operator
  • 网络绑定磁盘加密 - 外部 Tang 服务器
IBM 安全执行

OpenShift Container Platform 现在支持为 IBM Z 和 IBM® LinuxONE (s390x 架构)上的 IBM Secure Execution 配置 Red Hat Enterprise Linux CoreOS (RHCOS)节点。

有关安装说明,请参阅以下文档:

1.3.7. IBM Power

在这个版本中,IBM Power 与 OpenShift Container Platform 4.13 兼容。有关安装说明,请参阅以下文档:

重要

Compute 节点必须运行 Red Hat Enterprise Linux CoreOS(RHCOS)

IBM Power 主要改进

OpenShift Container Platform 4.13 上的 IBM Power 发行版本为 OpenShift Container Platform 组件和概念添加了改进和新功能。

此发行版本引进了对 IBM Power 中的以下功能的支持:

  • 支持的安装程序
  • Cluster Resource Override Operator
  • IBM Power Virtual Server Block CSI Driver Operator (技术预览)
  • Egress IP
  • IBM Power Virtual Server 的安装程序置备的基础架构启用(技术预览)
  • MetalLB Operator
  • 网络绑定磁盘加密 - 外部 Tang 服务器

IBM Power、IBM Z 和 IBM (R) Linux 支持列表

表 1.1. OpenShift Container Platform 功能

功能IBM PowerIBM Z 和 IBM® LinuxONE

备用身份验证供应商

支持

支持

支持的安装程序

支持

支持

使用 Local Storage Operator 自动设备发现

不支持

支持

使用机器健康检查功能自动修复损坏的机器

不支持

不支持

IBM Cloud 的云控制器管理器

支持

不支持

在节点上控制过量使用和管理容器密度

不支持

不支持

Cron 作业

支持

支持

Descheduler

支持

支持

Egress IP

支持

支持

加密数据存储在 etcd 中

支持

支持

Helm

支持

支持

Pod 横向自动扩展

支持

支持

IPv6

支持

支持

用户定义项目的监控

支持

支持

多路径(Multipathing)

支持

支持

网络绑定磁盘加密 - 外部 Tang 服务器

支持

支持

Non-​volatile memory express drive (NVMe)

支持

不支持

OpenShift CLI (oc) 插件

支持

支持

Operator API

支持

支持

OpenShift Virtualization

不支持

不支持

OVN-Kubernetes,包括 IPsec 加密

支持

支持

PodDisruptionBudget

支持

支持

精度时间协议 (PTP) 硬件

不支持

不支持

Red Hat OpenShift Local

不支持

不支持

Scheduler 配置集

支持

支持

流控制传输协议 (SCTP)

支持

支持

支持多个网络接口

支持

支持

三节点集群支持

支持

支持

拓扑管理器

支持

不支持

SCSI 磁盘中的 z/VM 模拟 FBA 设备

不支持

支持

4K FCP 块设备

支持

支持

表 1.2. 持久性存储选项

功能IBM PowerIBM Z 和 IBM® LinuxONE

使用 iSCSI 的持久性存储

支持 [1]

支持 [1],[2]

使用本地卷 (LSO) 的持久性存储

支持 [1]

支持 [1],[2]

使用 hostPath 的持久性存储

支持 [1]

支持 [1],[2]

使用 Fibre Channel 持久性存储

支持 [1]

支持 [1],[2]

使用 Raw Block 的持久性存储

支持 [1]

支持 [1],[2]

使用 EDEV/FBA 的持久性存储

支持 [1]

支持 [1],[2]

  1. 必须使用 Red Hat OpenShift Data Foundation 或其他支持的存储协议来置备持久性共享存储。
  2. 必须使用本地存储(如 iSCSI、FC 或者带有 DASD、FCP 或 EDEV/FBA 的 LSO)来置备持久性非共享存储。

表 1.3. Operator

功能IBM PowerIBM Z 和 IBM® LinuxONE

Cluster Logging Operator

支持

支持

Cluster Resource Override Operator

支持

支持

Compliance Operator

支持

支持

File Integrity Operator

支持

支持

Local Storage Operator

支持

支持

MetalLB Operator

支持

支持

Network Oberservability Operator

支持

不支持

NFD Operator

支持

支持

NMState Operator

支持

支持

OpenShift Elasticsearch Operator

支持

支持

Vertical Pod Autoscaler Operator

支持

支持

表 1.4. Multus CNI 插件

功能IBM PowerIBM Z 和 IBM® LinuxONE

Bridge

支持

支持

Host-device

支持

支持

IPAM

支持

支持

IPVLAN

支持

支持

表 1.5. CSI 卷

功能IBM PowerIBM Z 和 IBM® LinuxONE

克隆

支持

支持

扩展

支持

支持

Snapshot

支持

支持

1.3.8. 镜像

1.3.8.1. 支持镜像流中列出的清单镜像

在 OpenShift Container Platform 4.13 中,对镜像流中列出的清单镜像的支持现已正式发布。

1.3.9. 安全性与合规性

1.3.9.1. 现在支持 AES-GCM 加密

现在,在为 OpenShift Container Platform 启用 etcd 加密时,支持 AES-GCM 加密类型。AES-GCM 加密类型的加密密钥每周轮转。

如需更多信息,请参阅支持的加密类型

1.3.10. 网络

1.3.10.1. 网络指标的改进

1.3.10.1.1. egress_ips_rebalance_total
  • 指标名称:ovnkube_master_egress_ips_rebalance_total
  • 帮助消息:分配到不同节点所需的出口 IP 的次数总数。
1.3.10.1.2. egress_ips_node_unreachable_total
  • 指标名称:ovnkube_master_egress_ips_node_unreachable_total
  • 帮助消息 :分配的出口 IP 的次数无法访问。
1.3.10.1.3. egress_ips_unassign_latency_seconds
  • 指标名称:ovnkube_master_egress_ips_unassign_latency_seconds
  • 帮助消息出口 IP 从 OVN 北向数据库分配的延迟。
1.3.10.1.4. interfaces_total
  • 指标名称: ovs_vswitchd_interfaces_total
  • 帮助消息为 pod 创建的 Open vSwitch 接口的总数直到可用时的 Open vSwitch 接口。
1.3.10.1.5. interface_up_wait_seconds_total
  • 指标名称:ovs_vswitchd_interface_up_wait_seconds_total
  • 帮助消息等待 pod 所需的秒数。直到可用时的 Open vSwitch 接口。
1.3.10.1.6. ovnkube_resource_retry_failures_total
  • 指标名称:ovnkube_resource_retry_failures_total
  • 帮助消息处理 Kubernetes 资源的次数达到最大重试限制,不再被处理。

1.3.10.2. 网络警报的改进

  • OVN Kubernetes 在丢弃前重试最多 15 次。在这个版本中,如果发生此故障,OpenShift Container Platform 会警告集群管理员。在控制台中可以查看每个警报的描述。
1.3.10.2.1. NoOvnMasterLeader
  • 概述:没有 ovn-kubernetes master leader。
  • 控制台中的描述:

    Networking control plane is degraded. Networking configuration updates applied to the cluster will not be implemented while there is no OVN Kubernetes leader. Existing workloads should continue to have connectivity. OVN-Kubernetes control plane is not functional.
1.3.10.2.2. OVNKubernetesNodeOVSOverflowUserspace
  • 概述:OVS vSwitch 守护进程会因为缓冲区溢出而丢弃数据包。
  • 控制台中的描述:

    Netlink messages dropped by OVS vSwitch daemon due to netlink socket buffer overflow. This will result in packet loss.
1.3.10.2.3. OVNKubernetesNodeOVSOverflowKernel
  • 概述:OVS 内核模块会因为缓冲区溢出而丢弃数据包。
  • 控制台中的描述:

    Netlink messages dropped by OVS kernel module due to netlink socket buffer overflow. This will result in packet loss.

1.3.10.3. 将 MetalLB IPAddressPool 资源中的 IP 地址分配给特定的命名空间和服务

在这个版本中,您可以将 IP 地址从 MetalLB IPAddressPool 资源分配给服务、命名空间或两者。这在需要 MetalLB 将 IP 地址从 IP 地址池固定到特定的服务和命名空间中时很有用。您可以从多个 IP 地址池为服务和命名空间分配 IP 地址。然后,您可以为这些 IP 地址池定义优先级,以便 MetalLB 从优先级更高的 IP 地址池分配 IP 地址。

有关将 IP 地址池分配给服务和命名空间的更多信息,请参阅配置 MetalLB 地址池

1.3.10.4. 支持在带有双端口 NIC 的节点上安装 OpenShift Container Platform (技术预览)

在这个版本中,使用以下方法,可以将 OpenShift Container Platform 集群部署到在 2 个物理功能(PF)中的 2 个虚拟功能(VF)的绑定接口:

  • 基于代理的安装程序
  • 安装程序置备的基础架构安装
  • 用户置备的基础架构安装

有关在带有双端口 NIC 的节点上安装 OpenShift Container Platform 的更多信息,请参阅 SR-IOV 设备的 NIC 分区

1.3.10.5. 现在,支持将 BlueField-2 网络设备从数据处理单元(DPU)模式切换到网络接口控制器(NIC)模式

在这个发行版本中,将 BlueField-2 网络设备从数据处理单元(DPU)模式切换到网络接口控制器(NIC)模式现已正式发布。

如需更多信息,请参阅将 BlueField-2 从 DPU 切换到 NIC

1.3.10.6. 网卡的 MT2892 系列的硬件卸载 [ConnectX-6 Dx]

OpenShift Container Platform 4.13 添加了对网卡的 MT2892 系列 [ConnectX-6 Dx] 的 OvS Hardware Offload 支持。

如需更多信息,请参阅支持的设备

1.3.10.7. 迁移到 OpenShift SDN 网络插件

如果使用 OVN-Kubernetes 网络插件,您可以迁移到 OpenShift SDN 网络插件。

如需更多信息,请参阅迁移到 OpenShift SDN 网络插件

1.3.10.8. CoreDNS 更新至 1.10.1

OpenShift Container Platform 4.13 将 CoreDNS 更新至 1.10.1。CoreDNS 现在使用在原始客户端查询上指定的 DNSSEC DO Bit。当客户端没有请求 DNSSEC 时,这可以减少 DNS 响应 UDP 数据包大小。因此,较小的数据包大小可减少 DNS 连接重试和总体 DNS 带宽所减少的可能性。

1.3.10.9. 扩展集群网络 IP 地址范围

可以扩展集群网络以支持在集群中添加节点。例如,如果您部署了集群,并将 10.128.0.0/19 指定为集群网络范围,主机前缀为 23,则限制为 16 个节点。您可以通过将集群中的 CIDR 掩码更改为 /14 来扩展到 510 个节点。如需更多信息,请参阅配置集群网络范围

1.3.10.10. VMware vSphere 集群上的双栈 IPv4/IPv6

在安装程序置备的 vSphere 集群中,您可以使用带有 IPv4 的双栈网络作为主 IP 系列,IPv6 作为辅助地址系列。如需更多信息,请参阅网络配置参数

1.3.10.11. 在裸机双栈集群中将 IPv6 作为主要 IP 地址系列

在裸机上安装过程中,您可以将 IPv6 配置为双栈集群中的主 IP 地址系列。要在安装新集群时启用此功能,请在机器网络、集群网络、服务网络、API VIP 和入口 VIP 的 IPv4 地址系列前指定 IPv6 地址系列。

如需更多信息,请参阅以下源:

1.3.10.12. OVN-Kubernetes 作为二级网络提供(技术预览)

在这个版本中,Red Hat OpenShift Networking OVN-Kubernetes 网络插件允许为 pod 配置二级网络接口。作为二级网络,OVN-Kubernetes 支持第 2 层(切换)拓扑网络。这作为技术预览功能提供。

有关 OVN-Kubernetes 作为二级网络的更多信息,请参阅 OVN-Kubernetes 额外网络的配置

1.3.10.13. 添加到 OVN-Kubernetes 网络插件的出口防火墙中的节点选择器

在 OpenShift Container Platform 4.13 中,nodeSelector 已添加到 OVN-Kubernetes 网络插件中的出口防火墙目的地规格中。此功能允许用户向一个或多个节点添加标签,所选节点的 IP 地址包含在关联的规则中。如需更多信息,请参阅 EgressFirewall 的 nodeSelector 示例

1.3.10.14. 对于在 RHOSP 上运行的集群,Kuryr 到 OVN-Kubernetes 迁移过程(技术预览)

现在,您可以将在 RHOSP 上运行的集群迁移到 OVN-Kubernetes。

如需更多信息,请参阅从 Kuryr 网络插件迁移到 OVN-Kubernetes 网络插件

1.3.10.15. 改进了在 RHOSP 上运行的集群的出口 IP 支持

对于在 RHOSP 上运行并使用 OVN-Kubernetes 的集群,不再需要为保留端口手动重新分配浮动 IP 地址。如果保留端口从一个节点中删除,并在另一个节点上重新创建,则会自动重新分配。

1.3.10.16. SR-IOV 支持的硬件(单根 I/O 虚拟化)

OpenShift Container Platform 4.13 添加了对以下 SR-IOV 设备的支持:

  • Intel E810-XXVDA4T
  • Intel X710 Base T

如需更多信息,请参阅支持的设备

1.3.11. Storage

1.3.11.1. 支持在 KMS 中重新加密的客户管理的密钥

在这个版本中,AWS 的默认凭证请求已被修改,以允许客户管理的密钥用于在密钥管理服务(KMS)中重新加密。对于将 Cloud Credential Operator (CCO)配置为使用手动模式的集群,管理员必须通过在密钥策略中添加 kms:ReEncrypt* 权限来手动应用这些更改。其他管理员不受此更改的影响。(OCPBUGS-5410)

1.3.11.2. 对逻辑卷管理器 (LVM) 存储的双栈支持

在 OpenShift Container Platform 4.13 中,对于 IPv4 和 IPv6 网络环境,LVM Storage 支持双栈。如需更多信息,请参阅转换到双栈集群网络

1.3.11.3. 支持 GitOps ZTP 中的 LVM 存储

在 OpenShift Container Platform 4.13 中,您可以通过 GitOps ZTP 添加和配置逻辑卷管理器存储 (LVM Storage)。如需更多信息,请参阅使用 PolicyGenTemplate CR 配置存储LVM 存储

1.3.11.4. 支持在断开连接的环境中的 LVM 存储

在 OpenShift Container Platform 4.13 中,您可以在断开连接的环境中安装 LVM Storage。如需更多信息,请参阅在断开连接的环境中安装 LVM 存储

1.3.11.5. 用户管理的加密已正式发布

用户管理的加密功能允许您在安装过程中提供加密 OpenShift Container Platform 节点根卷的密钥,并允许所有受管存储类使用这些密钥加密置备的存储卷。这可让您使用所选密钥加密存储卷,而不是平台的默认帐户密钥。

此功能支持以下存储类型:

1.3.11.6. 在非正常节点关闭后分离 CSI 卷(技术预览)

现在,当节点出现非正常时,容器存储接口(CSI)驱动程序可以自动分离卷。当出现非正常节点关闭时,您可以手动在节点上添加服务外污点,以允许卷从节点自动分离。此功能支持技术预览状态。

如需更多信息,请参阅在非正常节点关闭后分离 CSI 卷

1.3.11.7. VMware vSphere 加密支持已正式发布

您可以在 vSphere 上运行的 OpenShift Container Platform 上加密虚拟机(VM)和持久性卷(PV)。

如需更多信息,请参阅 vSphere 持久性磁盘加密

1.3.11.8. 对多个数据中心的 VMware vSphere CSI 拓扑支持已正式发布

OpenShift Container Platform 4.12 引入了将 OpenShift Container Platform for vSphere 部署到不同的区域和区域的功能,允许您在多个计算集群中部署,这有助于避免单点故障。OpenShift Container Platform 4.13 引进了对在多个数据中心上部署的支持,并使用在安装过程中或安装后创建的故障域设置拓扑。

如需更多信息,请参阅 vSphere CSI 拓扑

1.3.11.9. 创建多个默认存储类已正式发布

OpenShift Container Platform 4.13 允许您创建多个默认存储类。此功能可以更轻松地更改默认存储类,因为您可以创建一个定义为默认存储类的第二个存储类。然后,在从之前的默认存储类中删除默认状态前,您临时有两个默认存储类。虽然短时间内可以接受有多个默认存储类,但您应该确保最终只有一个默认存储类。

如需更多信息,请参阅 更改默认存储类多个默认存储类

1.3.11.10. 管理默认存储类已正式发布

OpenShift Container Platform 4.13 在 ClusterCSIDriver 对象中引入了 spec.storageClassState 字段,它允许您管理 OpenShift Container Platform 生成的默认存储类来完成几个不同的目标:

  • 当您有其他首选存储类时,防止存储操作器重新创建初始默认存储类。
  • 重命名或更改默认存储类
  • 禁用动态置备来强制静态置备。

如需更多信息,请参阅管理默认存储类

1.3.11.11. Retroactive 默认 StorageClass 分配(技术预览)

在以前的版本中,如果没有默认存储类,则创建请求默认存储类的持久性卷声明(PVC)会无限期保持在待处理状态,除非您手动删除并重新创建它们。OpenShift Container Platform 现在可以重新主动为这些 PVC 分配默认存储类,以便它们不会处于待处理状态。启用此功能后,在创建默认存储类后,或者声明其中一个现有存储类后,之前的 PVC 将分配给默认存储类。

此功能支持技术预览状态。

如需更多信息,请参阅 Absent 默认存储类

1.3.11.12. IBM Power Virtual Server Block CSI Driver Operator (技术预览)

OpenShift Container Platform 可以使用 IBM Power Virtual Server Block Storage 的 Container Storage Interface (CSI) 驱动程序置备持久性卷 (PV)。

如需更多信息,请参阅 IBM Power Virtual Server Block CSI Driver Operator

1.3.11.13. CSI 内联临时卷已正式发布

OpenShift Container Platform 4.5 中引入了容器存储接口(CSI)内联临时卷作为技术预览功能,允许您定义一个 pod 规格,以便在部署 pod 时创建内联临时卷,并在 pod 被销毁时删除它们。这个功能现已正式发布。

此功能仅可用于受支持的 Container Storage Interface (CSI) 驱动程序。

此功能还包括 CSI Volume Admission 插件,它提供了一个使用单一 CSI 驱动程序机制,以便在 pod 准入上限制置备 CSI 临时卷。管理员可以向 CSIDriver 对象添加 csi-ephemeral-volume-profile 标签,然后 Admission 插件会检查该标签,并在强制、警告和审核决策中使用。

如需更多信息,请参阅 CSI 内联临时卷

1.3.11.14. Microsoft Azure File 自动 CSI 迁移已正式发布

从 OpenShift Container Platform 4.8 开始,在树内卷插件自动迁移到对应的 Container Storage Interface(CSI)驱动程序作为技术预览。OpenShift Container Platform 4.10 中提供了对 Azure File 的支持。OpenShift Container Platform 4.13 现在支持对 Azure File 进行自动迁移 (GA)。现在,Azure File 的 CSI 迁移会被默认启用,且管理员不需要操作。

这个功能会自动将树内对象转换为对应的 CSI 表示,并对用户完全透明。翻译的对象不存储在磁盘上,用户数据不会迁移。

虽然引用 in-tree 存储插件的存储类将继续工作,但我们建议将默认存储类切换到 CSI 存储类。

如需更多信息,请参阅 CSI 自动迁移

1.3.11.15. VMware vSphere 自动 CSI 迁移已正式发布

这个功能会自动将树内对象转换为对应的 CSI 表示,并对用户完全透明。虽然引用 in-tree 存储插件的存储类将继续工作,但我们建议将默认存储类切换到 CSI 存储类。

从 OpenShift Container Platform 4.8 开始,在树内卷插件自动迁移到对应的 Container Storage Interface(CSI)驱动程序作为技术预览。OpenShift Container Platform 4.10 中提供了对 vSphere 的支持。OpenShift Container Platform 4.13 现在支持 vSphere 的自动迁移 (GA)。

对于 OpenShift Container Platform 4.13 或更高版本的新安装,默认启用自动迁移。但是,只有在选择时,才会从 OpenShift Container Platform 4.12 或更早版本升级到 4.13 时,才会为 vSphere 自动 CSI 迁移。在选择迁移前,请仔细查看相关的结果

如果以下所有条件都为 true,则从 OpenShift Container Platform 4.12 更新至 4.13 和从 4.13 升级到 4.14 会被阻止:

  • CSI 迁移还没有启用
  • OpenShift Container Platform 没有在 vSphere 7.0u3L+ 或 8.0u2+ 上运行
  • 存在 vSphere in-tree 持久性卷(PV)

如需更多信息,请参阅 CSI 自动迁移

1.3.11.16. 对 AWS EFS CSI 驱动程序的跨帐户支持已正式发布

跨帐户支持允许您在一个 Amazon Web Services (AWS)帐户中有一个 OpenShift Container Platform 集群,并使用 AWS Elastic File System (EFS) Container Storage Interface (CSI) 驱动程序将文件系统挂载到另一个 AWS 帐户中。

如需更多信息,请参阅 AWS EFS CSI 跨帐户支持

1.3.11.17. 将 FSGroup 委派给 CSI Driver 而不是 Kubelet 已正式发布

此功能允许 OpenShift Container Platform 在卷挂载时为 Container Storage Interface (CSI) 驱动程序提供 pod 的 FSGroup。Microsoft Azure File CSI 驱动程序取决于此功能。

1.3.11.18. 支持 NFS 的 Azure File 已正式发布

OpenShift Container Platform 4.13 支持 Azure File Container Storage Interface (CSI) Driver Operator,并正式发布 Network File System (NFS)。

如需更多信息,请参阅 NFS 支持

1.3.12. Operator 生命周期

1.3.12.1. 使用 OpenShift CLI 查找 Operator 版本

在 OpenShift Container Platform 4.13 中,您可以通过运行以下 OpenShift CLI (oc) 命令来查找 Operator 的哪个版本和频道:

oc describe 命令语法示例

$ oc describe packagemanifests <operator_name> -n <catalog_namespace>

您可以运行以下命令来指定 Operator 版本和频道信息的输出格式:

oc get 命令语法示例

$ oc get packagemanifests <operator_name> -n <catalog_namespace> -o <output_format>

如需更多信息,请参阅安装 Operator 的特定版本

1.3.12.2. 多租户集群中的 Operator

Operator Lifecycle Manager (OLM) 的默认行为旨在简化 Operator 的安装过程。但是,此行为可能会缺少灵活性,特别是在多租户集群中。

以下主题添加了在多租户集群中管理 Operator 管理的指导和推荐解决方案:

1.3.12.3. 命名空间中的 Operator 共处

Operator Lifecycle Manager (OLM) 处理在同一命名空间中安装的 OLM 管理的 Operator,这意味着其 Subscription 资源与相关 Operator 位于同一个命名空间中。即使它们实际不相关,OLM 会在更新其中任何一个时考虑其状态,如它们的版本和更新策略。

以下介绍了有关 Operator colocation 以及使用自定义命名空间的替代流程的指导:

1.3.12.4. 更新了禁用复制的 CSV 时的 Web 控制台行为

OpenShift Container Platform Web 控制台已更新,在集群中禁用复制的集群服务版本 (CSV) 时提供更好的 Operator 发现功能。

当集群管理员禁用复制的 CSV 时,web 控制台会被修改为显示常规用户的每个命名空间中的 openshift 命名空间中复制的 CSV,即使 CSV 不会实际复制到每个命名空间中。这允许常规用户仍然能够在其命名空间中查看这些 Operator 的详情,并为全局安装的 Operator 创建自定义资源(CR)。

如需更多信息,请参阅禁用复制的 CSV

1.3.13. Operator 开发

1.3.13.1. 使用默认节点选择器设置建议的命名空间模板

在这个版本中,Operator 作者可以在 Operator 运行的建议命名空间中设置默认节点选择器。建议的命名空间使用 YAML 中的命名空间清单创建,该清单包含在 ClusterServiceVersion (CSV)中。当使用 OperatorHub 将 Operator 添加到集群时,Web 控制台会在安装过程中为集群管理员自动填充推荐的命名空间。

如需更多信息,请参阅使用默认节点选择器设置建议的命名空间

1.3.13.2. Node Tuning Operator

Node Tuning Operator (NTO) 现在可以使用 NodeTuning 集群功能启用/禁用。如果在集群安装中禁用,则可以稍后重新启用它。如需更多信息,请参阅节点调优功能

1.3.14. 机器 API

1.3.14.1. control plane 机器集的额外平台支持

  • 在这个版本中,Google Cloud Platform 集群支持 control plane 机器集。
  • 此发行版本包括对 Microsoft Azure 集群上 control plane 机器集的用户体验的增强。对于安装或升级到 OpenShift Container Platform 版本 4.13 的 Azure 集群,不再需要创建 control plane 机器集自定义资源 (CR)。

    • 使用版本 4.13 安装的集群有一个 control plane 机器集,默认处于活跃状态。
    • 对于升级到 4.13 版本的集群,集群会生成一个不活跃的 CR,并在验证 CR 中的值是否正确后激活。

如需更多信息,请参阅开始使用 Control Plane Machine Set Operator

1.3.15. Machine Config Operator

1.3.15.1. Red Hat Enterprise Linux CoreOS (RHCOS) 镜像分层已正式发布

Red Hat Enterprise Linux CoreOS (RHCOS) 镜像分层现已正式发布。通过此功能,您可以通过将额外的镜像分层到基础镜像来扩展基本 RHCOS 镜像的功能。

如需更多信息,请参阅 Red Hat Enterprise Linux CoreOS (RHCOS) 镜像分层

1.3.15.2. 支持在 RHCOS 中添加第三方和自定义内容

现在,您可以使用 Red Hat Enterprise Linux CoreOS (RHCOS) 镜像分层将 Red Hat Enterprise Linux (RHEL) 和第三方软件包添加到集群节点。

如需更多信息,请参阅 Red Hat Enterprise Linux CoreOS (RHCOS) 镜像分层

1.3.15.3. 支持设置核心用户密码

现在,您可以为 RHCOS core 用户创建一个密码。如果无法使用 SSH 或 oc debug node 命令访问节点,这个密码允许您使用 core 用户通过云供应商串口控制台或裸机基板管理控制器管理器 (BMC) 访问节点。

如需更多信息,请参阅更改节点访问的核心用户密码

1.3.16. 节点

1.3.16.1. 按标签的镜像 registry 存储库

现在,除了摘要规格外,您还可以使用镜像标签从镜像 registry 中拉取镜像。要实现此更改,ImageContentSourcePolicy (ICSP) 对象已弃用。现在,您可以使用 ImageDigestMirrorSet (IDMS) 对象通过摘要规格或 ImageTagMirrorSet (ITMS) 对象拉取镜像来拉取镜像。

如果您有用于创建 ICSP 对象的 YAML 文件,您可以使用 oc adm migrate icsp 命令将这些文件转换为 IDMS YAML 文件。

有关这些新对象的更多信息,请参阅配置镜像 registry 存储库镜像

有关将现有 ICSP YAML 文件转换为 IDMS YAML 文件的更多信息,请参阅为镜像 registry 存储库镜像转换 ImageContentSourcePolicy (ICSP)文件

1.3.16.2. crun 正式发行 (GA)

crun 低级容器运行时现在包括在 OpenShift Container Platform 4.13 中。GA 版本中没有新功能。

1.3.16.3. Linux Control Group 版本 2 (cgroup v2) 正式发布

Linux Control Group 版本 2 (cgroup v2) 现在包括在 OpenShift Container Platform 4.13 中。GA 版本中没有新功能。

1.3.16.4. Pod 中断预算 (PDB) 不健康的 pod 驱除策略(技术预览)

在这个版本中,为 pod 中断预算 (PDB) 指定不健康的 pod 驱除策略作为技术预览提供。这有助于在节点排空过程中驱除出现故障的应用程序。

要使用此技术预览功能,您必须启用 TechPreviewNoUpgrade 功能集。

警告

在集群中启用 TechPreviewNoUpgrade 功能集无法撤消,并会阻止次版本更新。您不应该在生产环境集群中启用此功能。

如需更多信息,请参阅为不健康的 pod 指定驱除策略

1.3.16.5. Metal3 补救支持

在以前的版本中,Machine Health Checks 可以自助修复或使用 Self Node Remediation 供应商。在这个版本中,裸机集群还支持新的 Metal3 补救供应商。

如需更多信息,请参阅关于裸机的基于电源的补救

1.3.17. 监控

此版本的监控堆栈包括以下新功能和修改后的功能。

1.3.17.1. 监控堆栈组件和依赖项更新

此发行版本包括监控堆栈组件和依赖项的以下版本更新:

  • Alertmanager 更新到 0.25.0
  • kube-state-metrics 更新到 2.8.1
  • node-exporter 更新到 1.5.0
  • prom-label-proxy 更新到 0.6.0
  • Prometheus 更新到 2.42.0
  • prometheus-operator 更新到 0.63.0
  • Thanos 更新到 0.30.2

1.3.17.2. 对警报规则的更改

注意

红帽不保证记录规则或警报规则的向后兼容性。

  • NodeFilesystemAlmostOutOfSpace 警报不再针对设计始终满的特定 tmpfs 挂载点触发。

1.3.17.3. 在 Alertmanager 配置中添加 secret 的新选项

在这个版本中,您可以在用于核心平台监控和用户定义的项目的 Alertmanager 配置中添加 secret。如果您需要通过接收器进行身份验证以便 Alertmanager 能够向它发送警报,您可以将 Alertmanager 配置为使用包含接收器身份验证凭据的 secret。

1.3.17.4. 配置 node-exporter 收集器的新选项

在这个版本中,您可以自定义以下 node-exporter 收集器的 Cluster Monitoring Operator (CMO) 配置映射设置。以下 node-exporter 收集器现在是可选的,并可启用或禁用:

  • buddyinfo 收集器
  • cpufreq 收集器
  • netclass 收集器
  • netdev collector
  • netclass 收集器的 netlink 后端
  • tcpstat 收集器

1.3.17.6. 启用指标集合配置集的新选项(技术预览)

此发行版本为默认平台监控引入了一个技术预览功能,管理员可以设置指标收集配置集来收集默认指标数据数量或最小指标数据。当您启用 minimal 配置集时,警报等基本监控功能将继续工作,但 Prometheus 所需的 CPU 和内存资源会减少。

1.3.18. Network Observability Operator

Network Observability Operator 发行版本独立于 OpenShift Container Platform 次版本流的更新。更新可以通过单一的滚动流提供,该流在所有当前支持的 OpenShift Container Platform 4 版本中被支持。有关 Network Observability Operator 的新功能、功能增强和程序错误修复的信息,请参阅 Network Observability 发行注记

1.3.19. 可伸缩性和性能

1.3.19.1. 使用 NUMA Resources Operator 进行 NUMA 感知调度已正式发布

使用 NUMA Resources Operator 进行 NUMA 感知调度以前在 OpenShift Container Platform 4.10 中作为技术预览引入,现在在 OpenShift Container Platform 4.13 中正式发布。

NUMA Resources Operator 部署 NUMA 感知辅助调度程序,它根据集群中可用 NUMA 区域的完整概述,为工作负载做出调度决策。这种增强的 NUMA 感知调度可确保在单个 NUMA 区域中处理对延迟敏感的工作负载,以最大化效率和性能。

在这个版本中添加了以下功能:

  • 对 NUMA 资源报告的 API 轮询进行微调。
  • 节点拓扑 exporter 的节点组级别的配置选项。

如需更多信息,请参阅调度 NUMA 感知工作负载

1.3.19.2. 支持三节点集群和标准集群的工作负载分区(技术预览)

在此次更新之前,单节点 OpenShift 集群只支持工作负载分区。现在,您还可以为三节点紧凑集群和标准集群配置工作负载分区。使用工作负载分区隔离 OpenShift Container Platform 服务、集群管理工作负载和基础架构 pod,以便在保留的一组 CPU 上运行。

如需更多信息,请参阅工作负载分区

1.3.19.3. 使用 GitOps ZTP 配置电源状态

OpenShift Container Platform 4.12 引入了为关键和非关键工作负载设置电源状态的功能。在 OpenShift Container Platform 4.13 中,您现在可以使用 GitOps ZTP 配置电源状态。

有关该功能的更多信息,请参阅使用 PolicyGenTemplates CR 配置电源状态

1.3.19.4. 使用 TALM 和 GitOps ZTP 为受管集群更新预缓存容器镜像

此发行版本添加了两个新的 Topology Aware Lifecycle Manager (TALM)功 能,用于 GitOps ZTP:

  • 新检查可确保受管集群主机上有足够的可用磁盘空间在集群更新前。现在,在容器镜像预缓存过程中,TALM 会将可用的主机磁盘空间与预计的 OpenShift Container Platform 镜像大小进行比较,以确保主机上有足够的磁盘空间。
  • ConfigMap CR 中的新 excludePrecachePatterns 字段可用,用于控制在更新前控制 TALM 下载至集群主机。

如需更多信息,请参阅使用容器镜像预缓存过滤器

1.3.19.5. HTTP 传输替换了 PTP 和裸机事件的 AMQP (技术预览)

HTTP 现在是 PTP 和裸机事件基础架构的默认传输。AMQ Interconnect 于 2024 年 6 月 30 日结束生命周期(EOL)。

如需更多信息,请参阅关于 PTP 快速事件通知框架

1.3.19.6. 支持将 Intel E810 Westport Channel NIC 作为 PTP grandmaster 时钟(技术预览)

现在,您可以使用 PTP Operator 将 Intel E810 Westport Channel NIC 配置为 PTP grandmaster 时钟。PTP grandmaster 时钟将 ts2phc (时间戳 2 个物理时钟)用于系统时钟和网络时间同步。

如需更多信息,请参阅将 linuxptp 服务配置为 grandmaster 时钟

1.3.19.7. 将 crun 配置为 GitOps ZTP 中受管集群的默认容器运行时

将 crun 配置为默认容器运行时的 ContainerRuntimeConfig CR 已添加到 GitOps ZTP ztp-site-generate 容器中。

要使用 GitOps ZTP 安装的集群中获得最佳性能,请在单节点 OpenShift、三节点 OpenShift 和标准集群中为 control plane 和 worker 节点启用 crun,以及其他第 0 天安装清单 CR。

如需更多信息,请参阅将 crun 配置为默认容器运行时

1.3.19.8. 文档增强:etcd 概述现在可用

OpenShift Container Platform 文档中的 etcd 概述(包括它提供的好处及其工作方式)。作为 Kubernetes 的主要数据存储,etcd 通过 etcd Operator 在 OpenShift Container Platform 上提供可靠的方法。如需更多信息,请参阅 etcd 概述

1.3.20. Insights Operator

在 OpenShift Container Platform 4.13 中,Insights Operator 现在收集以下信息:

  • openshift_apps_deploymentconfigs_strategy_total 指标。此指标从部署配置收集部署策略信息。
  • 其他机器资源定义,用来标识机器失败的原因。
  • 默认 ingresscontroller.operator.openshift.io 资源,用来告知 Insights,Authentication Operator 是否被降级。

1.3.21. 托管 control plane(技术预览)

1.3.21.1. 托管 control planes 部分现在包括在文档中

OpenShift Container Platform 文档现在包含专用于托管 control plane 的部分,您可以在其中找到有关配置和管理托管集群的功能和信息。如需更多信息,请参阅托管的 control plane

1.3.21.2. 更新托管的 control plane

OpenShift Container Platform 文档现在包含有关更新托管 control plane 的信息。更新托管的 control plane 涉及更新托管集群和节点池。如需更多信息,请参阅托管 control plane 的更新

1.3.22. 在单一节点上安装 OpenShift Container Platform 的要求

4.13 现在支持 x86_64arm64 CPU 架构。