发行注记

OpenShift Container Platform 4.10

OpenShift Container Platform 发行版本中的主要新功能及变化信息

Red Hat OpenShift Documentation Team

摘要

此发行注记介绍了 OpenShift Container Platform 的新功能、功能增强、重要的技术变化、以及对以前版本中的错误作出的主要修正。另外,还包括在此版本正式发行(GA)时存在的已知问题的信息。

第 1 章 OpenShift Container Platform 4.10 发行注记

Red Hat OpenShift Container Platform 为软件开发人员和 IT 机构提供了一个混合云应用平台。使用这个平台可以在配置和管理成本最小化的情况下,利用安全、可扩展的资源部署新的或已有的应用程序。OpenShift Container Platform 支持大量编程语言和开发平台,如 Java、JavaScript、Python、Ruby 和 PHP。

OpenShift Container Platform 基于 Red Hat Enterprise Linux(RHEL)和 Kubernetes,为当今的企业级应用程序提供了一个更加安全、可扩展的多租户操作系统,同时提供了集成的应用程序运行时及程序库。OpenShift Container Platform 可以满足用户对安全性、隐私、合规性及监管的要求。

1.1. 关于此版本

OpenShift Container Platform(RHSA-2022:0056)现已正式发布。此发行版本使用 Kubernetes 1.23 和 CRI-O 运行时。OpenShift Container Platform 4.10 的新功能、改变以及已知的问题包括在此文档中。

红帽没有公开发布 OpenShift Container Platform 4.10.0,而是发布了 OpenShift Container Platform 4.10.3 作为 GA 版本。

OpenShift Container Platform 4.10 集群位于 https://console.redhat.com/openshift。您可以通过 OpenShift Container Platform 的 Red Hat OpenShift Cluster Manager 应用程序在内部环境或云环境中部署 OpenShift 集群。

OpenShift Container Platform 4.10 需要运行在 Red Hat Enterprise Linux(RHEL) 8.4 到 8.7 上,以及 Red Hat Enterprise Linux CoreOS (RHCOS)4.10 上。

您必须将 RHCOS 机器用于 control plane,而 compute 系统可以使用 RHCOS 或 RHEL。

1.2. OpenShift Container Platform 层次和依赖组件支持和兼容性

OpenShift Container Platform 的层次组件和依赖组件的支持范围会独立于 OpenShift Container Platform 版本。要确定附加组件的当前支持状态和兼容性,请参阅其发行注记。如需更新相关信息,请参阅 Red Hat OpenShift Container Platform 生命周期政策

1.3. 新功能及功能增强

此版本对以下方面进行了改进。

1.3.1. Documentation

1.3.1.1. OpenShift Container Platform 入门

OpenShift Container Platform 4.10 现在包括了入门指南。OpenShift Container Platform 入门定义了基本术语,并为开发人员和管理员提供基于角色的后续步骤。

本教程通过 Web 控制台和 OpenShift CLI(oc)接口来向新用户提供指导。新用户可通过 Getting Started 完成以下任务:

  • 创建一个项目
  • 授权查看权限
  • 从 Quay 部署容器镜像
  • 检查和扩展应用程序
  • 从 GitHub 部署 Python 应用程序
  • 从 Quay 连接到数据库
  • 创建 secret
  • 加载并查看应用程序

如需更多信息,请参阅 OpenShift Container Platform 入门

1.3.2. Red Hat Enterprise Linux CoreOS (RHCOS)

1.3.2.1. 改进了裸机 RHCOS 安装的自定义

现在,当从 live ISO 和 PXE 镜像在裸机上安装 RHCOS 时,coreos-installer 程序带有 iso 自定义和 pxe 自定义子命令,以获取更灵活的自定义。

这包括可以定制安装过程,可以从自定义证书颁发机构或自签名证书的 HTTPS 服务器获取 Ignition 配置。

1.3.2.2. RHCOS 现在使用 RHEL 8.4

RHCOS 现在使用 OpenShift Container Platform 4.10 中的 Red Hat Enterprise Linux (RHEL) 8.4 软件包。这些软件包为您提供最新的修复、功能和增强,如 NetworkManager 功能,以及最新的硬件支持和驱动程序更新。

1.3.3. 安装和升级

1.3.3.1. AWS 安装的新默认组件类型

OpenShift Container Platform 4.10 安装程序在 AWS 上安装使用新的默认组件类型。安装程序默认使用以下组件:

  • AWS EC2 M6i 实例,适用于 control plane 和计算节点,其中可用
  • AWS EBS gp3 存储

1.3.3.2. install-config.yaml 文件中的 API 的改进

在以前的版本中,当用户在裸机安装程序置备的基础架构上安装 OpenShift Container Platform 时,他们没有配置自定义网络接口的位置,如静态 IP 或 vLANs 与 Ironic 服务器通信。

当只在裸机上配置第 1 天安装时,用户现在可以使用 install-config.yaml 文件中的 API 来自定义网络配置(networkConfig)。此配置是在安装过程中设置置备过程,包括高级选项,如设置每个主机的静态 IP。

1.3.3.3. OpenShift Container Platform on ARM

OpenShift Container Platform 4.10 现在支持基于 AWS EC2 和裸机平台的 ARM。实例可用性和安装文档包括在不同平台支持的安装方法

ARM 上的 OpenShift Container Platform 支持以下功能:

  • OpenShift 集群监控
  • RHEL 8 Application Streams
  • OVNKube
  • AWS Elastic Block Store(EBS)
  • AWS .NET 应用程序
  • 裸机上的 NFS 存储

ARM 上的 OpenShift Container Platform 支持以下 Operator:

  • Node Tuning Operator
  • Node Feature Discovery Operator
  • Cluster Samples Operator
  • Cluster Logging Operator
  • Elasticsearch Operator
  • Service Binding Operator

1.3.3.4. 使用安装程序置备的基础架构在 IBM Cloud 上安装集群(技术预览)

OpenShift Container Platform 4.10 支持使用安装程序置备的基础架构(IPI)在 IBM Cloud 上安装集群(技术预览)。

以下限制适用于使用 IPI 的 IBM 云:

  • 不支持在以前已存在的网络上使用 IPI 部署 IBM Cloud。
  • Cloud Credential Operator(CCO)只能使用 Manual 模式。不支持 Mint 模式或 STS。
  • 不支持 IBM Cloud DNS 服务。需要一个 IBM Cloud Internet 服务的实例。
  • 不支持私有或断开连接的部署。

如需更多信息,请参阅准备在 IBM Cloud 上安装

1.3.3.5. VMware vSphere 集群安装的精简配置支持

当使用安装程序置备的基础架构安装集群时,OpenShift Container Platform 4.10 引进了对精简配置的磁盘的支持。您可以将磁盘置备为 thinthickeagerZeroedThick。有关 VMware vSphere 中磁盘置备模式的更多信息,请参阅 安装配置参数

1.3.3.6. 将集群安装到 Amazon Web Services GovCloud 区域

AWS GovCloud 区域现在提供 Red Hat Enterprise Linux CoreOS(RHCOS)Amazon Machine Images(AMI)。这些 AMI 的可用性可以提高安装过程,因为您不再需要上传自定义 RHCOS AMI 来部署集群。

如需更多信息,请参阅 在 AWS 上安装集群到一个政府区域

1.3.3.7. 为实例配置集使用自定义 AWS IAM 角色

从 OpenShift Container Platform 4.10 开始,如果您使用现有 IAM 角色配置集群,安装程序不会在部署集群时将shared标签添加到角色。此功能增强提高了您要使用自定义 IAM 角色的机构安装过程,但安全策略会阻止使用 shared 标签。

1.3.3.8. vSphere 集群上的 CSI 驱动程序安装

要在 vSphere 上运行的集群中安装 CSI 驱动程序,您必须安装以下组件:

  • 虚拟硬件版本 15 或更高版本
  • vSphere 版本 6.7 更新 3 或更高版本
  • VMware ESXi 版本 6.7 更新 3 或更高版本

虽然低于上述版本的组件仍被支持,但已被弃用。这些版本仍被完全支持,但 OpenShift Container Platform 的 4.11 版本需要 vSphere 虚拟硬件版本 15 或更高版本。

注意

如果您的集群部署在 vSphere 上,并且以前的组件低于上述的版本,则可以从 OpenShift Container Platform 4.9 升级到 4.10,但不会安装 vSphere CSI 驱动程序。到 4.10 的程序错误修复和升级仍然被支持,但不能升级到 4.11。

1.3.3.9. 使用安装程序置备的基础架构在 Alibaba Cloud 上安装集群(技术预览)

OpenShift Container Platform 4.10 引进了使用安装程序置备的基础架构在 Alibaba Cloud 上安装集群的功能。这种类型的安装允许您使用安装程序在安装程序置备和集群维护的基础架构上部署集群。

1.3.3.10. 使用安装程序置备的基础架构在 Microsoft Azure Stack Hub 上安装集群

OpenShift Container Platform 4.10 支持使用安装程序置备的基础架构在 Azure Stack Hub 上安装集群。这种类型的安装允许您使用安装程序在安装程序置备和集群维护的基础架构上部署集群。

注意

从 OpenShift Container Platform 4.10.14 开始,您可以使用 Premium_LRSstandardSSD_LRS, 或 standard_LRS 磁盘类型部署 control plane 和计算节点。默认情况下,安装程序会使用 premium_LRS 磁盘类型部署 control plane 和计算节点。在之前的 4.10 版本中,只支持 standard_LRS 磁盘类型。

如需更多信息,请参阅 使用安装程序置备的基础架构在 Azure Stack Hub 上安装集群

1.3.3.11. 条件更新

OpenShift Container Platform 4.10 添加了对 OpenShift Update Service 提供的消耗条件更新路径的支持。条件更新路径会识别风险以及这些风险应用到集群的条件。Web 控制台的 Administrator 视角只提供推荐的升级路径,集群与已知的风险不匹配。但是,OpenShift CLI(oc)4.10 或更高版本可以用来显示 OpenShift Container Platform 4.10 集群的额外升级路径。相关风险信息(包括支持文档引用)在路径中显示。管理员可以参阅这些引用的材料,来执行被支持但不推荐的升级。

如需更多信息,请参阅条件更新更新及条件升级路径

1.3.3.12. oc-mirror CLI 插件用于断开连接的镜像(技术预览)

此发行版本引入了 oc-mirror OpenShift CLI(oc)插件作为技术预览。您可以使用 oc-mirror 插件在断开连接的环境中镜像镜像。

如需更多信息,请参阅使用 oc-mirror 插件为断开连接的安装镜像镜像

1.3.3.13. 在使用 OVS-DPDK 的 RHOSP 上安装集群

现在,您可以使用 Data Plane Development Kit(OVS-DPDK)网络在 Open vSwitch 上运行的计算机器的 Red Hat OpenStack Platform(RHOSP)上安装集群。在这些计算机上运行的工作负载可以从 OVS-DPDK 的性能和延迟改进中受益。

如需更多信息,请参阅在支持 DPDK 连接的计算机器 RHOSP 上安装集群

1.3.3.14. 在 RHOSP 上安装时设置计算机器关联性

现在,在 RHOSP 上安装集群时,您可以选择计算机器关联性。默认情况下,计算机器使用 soft-anti-affinity 服务器策略进行部署,但您也可以选择 anti-affinitysoft-affinity 策略。

1.3.4. Web 控制台

1.3.4.1. Developer Perspective (开发者视角)

  • 在这个版本中,您可以在进行绑定连接时在 Topology 视图中指定服务绑定连接器的名称。
  • 在这个版本中,创建管道的工作流已被改进:

    • 现在,当您从 Import from Git 管道工作流导入应用程序时,可以从下拉列表中选择用户定义的管道。
    • 为使用 Import from Git 工作流创建的管道添加了默认 Webhook,URL 可以在 Topology 视图中所选资源侧面面板中显示。
    • 现在,您可以通过在 TektonConfig 自定义资源中将 enable-devconsole-integration 设置为 false 来禁用默认的 Tekton Hub 集成。

      选择不使用 Tekton Hub 集成的 TektonConfig CR 示例

      ...
      hub:
        params:
          - name: enable-devconsole-integration
            value: 'false'
      ...

    • Pipeline 构建器 包含集群支持的 Tekton Hub 任务,列表中的所有其他不支持的任务都排除在列表中。
  • 在这个版本中,应用程序导出工作流会在导出进行时显示导出日志对话框或警报。您可以使用对话框取消或重启导出过程。
  • 在这个版本中,您可以通过创建自定义资源,将新的 Helm Chart 仓库添加到 Developer Catalog 中。请参阅 Developer 视角中的快速入门指南来添加新的 ProjectHelmChartRepository
  • 在这个版本中,您可以使用 Developer Catalog 访问社区 devfile 样本

1.3.4.2. 动态插件(技术预览)

从 OpenShift Container Platform 4.10 开始,创建 OpenShift 控制台动态插件的功能现在作为技术预览提供。您可以使用此功能在运行时自定义接口,包括:

  • 添加自定义页面
  • 添加视角和更新导航项
  • 在资源页面中添加标签页和操作

如需有关动态插件的更多信息,请参阅 向 OpenShift Container Platform Web 控制台添加动态插件

1.3.4.3. 在 debug 模式下运行 pod

在这个版本中,您可以在 web 控制台中查看调试终端。当 Pod 带有处于 CrashLoopBackOff 状态的容器 时,可以启动 debug Pod。此时会显示一个终端接口,可用于调试崩溃循环容器。

  • 这个功能可以被 pod 状态弹出窗口访问(通过单击 pod 状态来访问),它提供了针对该 pod 中每个崩溃循环容器调试终端的链接。
  • 您还可以在 Pod 详情页面的 Logs 选项卡中访问此功能。当选择崩溃循环容器时,会在日志窗口上显示 debug 终端链接。

另外,pod 状态弹出窗口现在提供 Pod 详情页面的 LogsEvents 选项卡的链接。

1.3.4.4. 自定义工作负载通知

在这个版本中,您可以在 User Preferences 页面中自定义工作负载通知。用户工作负载通知通知 选项卡下,允许您隐藏显示在 Cluster Overview 页面或 drawer 中的用户工作负载通知。

1.3.4.5. 改进了配额可见性

在这个版本中,非管理员用户可以查看其在 Project OverviewResourceQuotasAPI Explorer 页面上的 AppliedClusterResourceQuota 使用情况,以确定集群范围内的配额可供使用。另外,ApplicationliedClusterResourceQuota 详情可在 Search 页面中找到。

1.3.4.6. 集群支持级别

OpenShift Container Platform 现在允许您在 Cluster Settings 中的 OverviewDetails 卡中的 About 模态中查看有关集群的支持级别信息,并在集群不被支持时向通知抽屉添加通知。在 Overview 页面中,您可以在 服务等级协议(SLA) 下管理订阅设置。

1.3.5. IBM Z 和 LinuxONE

在这个版本中,IBM Z 和 LinuxONE 与 OpenShift Container Platform 4.10 兼容。可以使用 z/VM 或 RHEL KVM 进行安装。有关安装说明,请参阅以下文档:

主要改进

IBM Z 和 LinuxONE 中的 OpenShift Container Platform 4.10 支持以下新功能:

  • Pod 横向自动扩展
  • 支持以下 Multus CNI 插件:

    • Bridge
    • Host-device
    • IPAM
    • IPVLAN
  • Compliance Operator 0.1.49
  • NMState Operator
  • OVN-Kubernetes IPsec 加密
  • Vertical Pod Autoscaler Operator
支持的功能

IBM Z 和 LinuxONE 也支持以下功能:

  • 目前,支持以下 Operator:

    • Cluster Logging Operator
    • Compliance Operator 0.1.49
    • Local Storage Operator
    • NFD Operator
    • NMState Operator
    • OpenShift Elasticsearch Operator
    • Service Binding Operator
    • Vertical Pod Autoscaler Operator
  • 加密数据存储在 etcd 中
  • Helm
  • 多路径(Multipathing)
  • 使用 iSCSI 的持久性存储
  • 使用本地卷的持久性存储(本地存储 Operator)
  • 使用 hostPath 的持久性存储
  • 使用 Fibre Channel 持久性存储
  • 使用 Raw Block 的持久性存储
  • OVN-Kubernetes
  • 支持多个网络接口
  • 三节点集群支持
  • SCSI 磁盘中的 z/VM 模拟 FBA 设备
  • 4K FCP 块设备

以下功能仅适用于 IBM Z 和 LinuxONE 上的 OpenShift Container Platform for 4.10:

  • IBM Z 和 LinuxONE 为附加的 ECKD 存储的虚拟机启用了 HyperPAV
限制

以下限制会影响 OpenShift Container Platform 对 IBM Z 和 LinuxONE 的影响:

  • 以下 OpenShift Container Platform 技术预览功能不被支持:

    • 精度时间协议 (PTP) 硬件
  • 以下 OpenShift Container Platform 功能不被支持:

    • 使用机器健康检查功能自动修复损坏的机器
    • CodeReady Containers (CRC)
    • 在节点上控制过量使用和管理容器密度
    • CSI 卷克隆
    • CSI 卷快照
    • FIPS 加密
    • NVMe
    • OpenShift Metering
    • OpenShift Virtualization
    • 在 OpenShift Container Platform 部署过程中启用 Tang 模式磁盘加密。
  • worker 节点必须运行 Red Hat Enterprise Linux CoreOS(RHCOS)
  • 必须使用 OpenShift Data Foundation 或其他受支持的存储协议来置备持久性共享存储
  • 必须使用本地存储(如 iSCSI、FC 或者带有 DASD、FCP 或 EDEV/FBA 的 LSO)置备持久性非共享存储

1.3.6. IBM Power

在这个版本中,IBM Power 与 OpenShift Container Platform 4.10 兼容。有关安装说明,请参阅以下文档:

主要改进

OpenShift Container Platform 4.10 的 IBM Power 支持以下新功能:

  • Pod 横向自动扩展
  • 支持以下 Multus CNI 插件:

    • Bridge
    • Host-device
    • IPAM
    • IPVLAN
  • Compliance Operator 0.1.49
  • NMState Operator
  • OVN-Kubernetes IPsec 加密
  • Vertical Pod Autoscaler Operator
支持的功能

IBM Power 还支持以下功能:

  • 目前,支持以下 Operator:

    • Cluster Logging Operator
    • Compliance Operator 0.1.49
    • Local Storage Operator
    • NFD Operator
    • NMState Operator
    • OpenShift Elasticsearch Operator
    • Cluster Network Operator
    • Service Binding Operator
    • Vertical Pod Autoscaler Operator
  • 加密数据存储在 etcd 中
  • Helm
  • 多路径(Multipathing)
  • Multus SR-IOV
  • NVMe
  • OVN-Kubernetes
  • 使用 iSCSI 的持久性存储
  • 使用本地卷的持久性存储(本地存储 Operator)
  • 使用 hostPath 的持久性存储
  • 使用 Fibre Channel 持久性存储
  • 使用 Raw Block 的持久性存储
  • 支持多个网络接口
  • 支持 Power10
  • 三节点集群支持
  • 4K 磁盘支持
限制

OpenShift Container Platform 对 IBM Power 的影响如下:

  • 以下 OpenShift Container Platform 技术预览功能不被支持:

    • 精度时间协议 (PTP) 硬件
  • 以下 OpenShift Container Platform 功能不被支持:

    • 使用机器健康检查功能自动修复损坏的机器
    • CodeReady Containers (CRC)
    • 在节点上控制过量使用和管理容器密度
    • FIPS 加密
    • OpenShift Metering
    • OpenShift Virtualization
    • 在 OpenShift Container Platform 部署过程中启用 Tang 模式磁盘加密。
  • worker 节点必须运行 Red Hat Enterprise Linux CoreOS(RHCOS)
  • 持久性存储必须是使用本地卷、OpenShift Data Foundation、网络文件系统(NFS)或 Container Storage Interface(CSI)的 Filesystem 类型

1.3.7. 安全性与合规性

有关安全和合规组件新功能、功能增强和程序错误修复的信息,请参阅 Compliance OperatorFile Integrity Operator 发行注记。

如需有关安全和合规性的更多信息,请参阅 OpenShift Container Platform 安全和合规性

1.3.8. 网络

1.3.8.1. 双栈服务要求指定 ipFamilyPolicy

当您创建使用多个 IP 地址系列的服务时,您必须在 Service 对象定义中明确指定 ipFamilyPolicy: PreferDualStackipFamilyPolicy: RequireDualStack。这个更改会破坏与 OpenShift Container Platform 早期版本的向后兼容性。

如需更多信息,请参阅 BZ#2045576

1.3.8.2. 在集群安装后更改集群网络 MTU

在集群安装后,如果您使用 OpenShift SDN 集群网络供应商或 OVN-Kubernetes 集群网络供应商,您可以更改硬件 MTU 和集群网络 MTU 值。更改跨集群的 MTU 具有破坏性,且需要多次重启每个节点。如需更多信息,请参阅 更改集群网络 MTU

1.3.8.3. OVN-Kubernetes 支持网关配置

OVN-Kubernetes CNI 网络供应商添加了对配置如何将出口流量发送到节点网关的支持。默认情况下,在 OVN 中处理出口流量以退出集群,流量不受内核路由表中的特殊路由的影响。

此功能增强添加了一个 gatewayConfig.routingViaHost 字段。在这个版本中,该字段可在运行时设置为安装后活动,如果设为 true,则出口流量从 pod 发送到主机网络堆栈。这个版本对在内核路由表中手动配置路由提供了高特殊化的安装和应用程序。

此增强与 Open vSwitch 硬件卸载功能有交互。在这个版本中,当 gatewayConfig.routingViaHost 字段被设置为 true 时,您不会收到卸载的性能优势,因为出口流量是由主机网络堆栈处理的。

重要

要设置出口流量,请使用 gatewayConfig.routingViaHost,如果已在 openshift-network-operator 命名空间中设置,删除 gateway-mode-config 配置映射。如需有关 gateway-mode-config 解决方案以及在 OpenShift Container Platform 4.10 及更高版本中设置 OVN-Kubernetes 网关模式的更多信息,请参阅更新

如需更多信息,请参阅 OVN-Kubernetes CNI 集群网络供应商的配置

1.3.8.4. 网络指标的改进

现在,集群提供了以下指标。以 sdn_controller 开头的指标名称对于 OpenShift SDN CNI 网络供应商是唯一的。以 ovn 开头的指标名称对于 OVN-Kubernetes CNI 网络供应商是唯一的:

  • network_attachment_definition_instances{networks="egress-router"}
  • openshift_unidle_events_total
  • ovn_controller_bfd_run
  • ovn_controller_ct_zone_commit
  • ovn_controller_flow_generation
  • ovn_controller_flow_installation
  • ovn_controller_if_status_mgr
  • ovn_controller_if_status_mgr_run
  • ovn_controller_if_status_mgr_update
  • ovn_controller_integration_bridge_openflow_total
  • ovn_controller_ofctrl_seqno_run
  • ovn_controller_patch_run
  • ovn_controller_pinctrl_run
  • ovnkube_master_ipsec_enabled
  • ovnkube_master_num_egress_firewall_rules
  • ovnkube_master_num_egress_firewalls
  • ovnkube_master_num_egress_ips
  • ovnkube_master_pod_first_seen_lsp_created_duration_seconds
  • ovnkube_master_pod_lsp_created_port_binding_duration_seconds
  • ovnkube_master_pod_port_binding_chassis_port_binding_up_duration_seconds
  • ovnkube_master_pod_port_binding_port_binding_chassis_duration_seconds
  • sdn_controller_num_egress_firewall_rules
  • sdn_controller_num_egress_firewalls
  • sdn_controller_num_egress_ips

在 4.10 发行版中,删除了 ovnkube_master_resource_update_total 指标。

1.3.8.5. 在 YAML 视图和 Web 控制台表单间切换

  • 在以前的版本中,当在 web 控制台上的 YAML 视图Form 视图 间切换时,更改不会被保留。另外,切换到 YAML 视图 后,您无法返回到 Form view。在这个版本中,您可以在 web 控制台中轻松切换 YAML viewForm view,而不会丢失更改。

1.3.8.6. 根据网络策略列出目标的 pod

在 OpenShift Container Platform Web 控制台中使用网络策略功能时,会列出受策略影响的 pod。列出更改作为这些策略部分中的组合命名空间和 pod 选择器被修改:

  • peer 定义
  • 规则定义
  • 入口
  • Egress

受影响的 pod 列表仅包含用户可访问的 pod。

1.3.8.7. 增强 must-gather 以简化网络追踪

oc adm must-gather 命令以简化收集网络数据包捕获的方式进行了改进。

在以前的版本中,oc adm must-gather 只能启动单个 debug pod。在这个版本中,您可以同时在多个节点上启动 debug pod。

您可以使用增强功能来同时在多个节点上运行数据包捕获,以简化对网络通信问题进行故障排除。新的 --node-selector 参数提供了一种方式,可识别您要为哪些节点收集数据包捕获的节点。

如需更多信息,请参阅 网络追踪方法收集主机网络追踪

1.3.8.8. 二级网络的 Pod 级别绑定

在 pod 级别的绑定对于启用需要高可用性和更多吞吐量的 pod 内的工作负载至关重要。使用 pod 级别绑定,您可以在内核模式接口上从多个根 I/O 虚拟化(SR-IOV)虚拟功能接口创建绑定接口。SR-IOV 虚拟功能传递到 pod,并附加到内核驱动程序中。

需要 pod 级别绑定的情况包括从不同物理功能的多个 SR-IOV 虚拟功能创建绑定接口。可以利用主机上的两个不同物理功能创建绑定接口,以便在 pod 级别上实现高可用性。

1.3.8.9. 对在公共云中安装的集群的出口 IP 地址支持

作为集群管理员,您可以将一个或多个出口 IP 地址与命名空间关联。出口 IP 地址可确保一个一致的源 IP 地址与离开集群的特定命名空间中的流量关联。

对于 OVN-Kubernetes 和 OpenShift SDN 集群网络供应商,您可以在以下公共云供应商上配置出口 IP 地址:

  • Amazon Web Services (AWS)
  • Google Cloud Platform (GCP)
  • Microsoft Azure

如需更多信息,请参阅集群网络供应商的相关文档:

1.3.8.10. OpenShift SDN 集群网络供应商网络策略支持出口策略和 ipBlock 例外

如果使用 OpenShift SDN 集群网络供应商,您现在可以在带有 ipBlockipBlock.except 的网络策略中使用出口规则。您可以在 NetworkPolicy 对象的 egress 数组中定义出口策略。

如需更多信息,请参阅关于网络策略

1.3.8.11. Ingress Controller 路由器压缩

此功能增强增加了在 HAProxy Ingress Controller 中为特定 MIME 类型配置全局 HTTP 流量压缩的功能。当有大量压缩路由流量时,这个更新启用了 gzip 压缩的入口工作负载。

如需更多信息,请参阅 使用路由器压缩

1.3.8.12. 支持 CoreDNS 自定义

集群管理员现在可以配置 DNS 服务器,以允许通过配置的默认域的服务器进行 DNS 名称解析。DNS 转发配置可以同时在 /etc/resolv.conf 文件和上游 DNS 服务器中指定的默认服务器。

如需更多信息,请参阅 使用 DNS 转发

1.3.8.13. 支持 CoreDNS 日志级别和 Operator 日志级别

此功能增强添加了相应的功能,可以单独或整个集群中手动更改 Operator 的日志级别。

如需更多信息,请参阅设置 CoreDNS 日志级别

1.3.8.14. 支持在 Ingress Controller 中配置 syslog 信息的最大长度

现在,您可以将 Ingress Controller 中 syslog 信息的最大长度设置为 480 到 4096 字节的任何值。

如需更多信息,请参阅 Ingress Controller 配置参数

1.3.8.15. 设置 CoreDNS 转发策略

现在,您可以通过 DNS Operator 设置 CoreDNS 转发策略。默认值为 Random,您也可以将值设为 RoundRobinSequential

如需更多信息,请参阅 使用 DNS 转发

1.3.8.16. SR-IOV 的 Open vSwitch 硬件卸载支持

现在,您可以配置 Open vSwitch 硬件卸载以提高兼容裸机节点上的数据处理性能。硬件卸载是一种处理数据的方法,它从 CPU 中删除数据处理任务,并将其传送到网络接口控制器的专用数据处理单元。此功能的好处包括更快的数据处理、减少 CPU 工作负载以及较低的计算成本。

如需更多信息,请参阅配置硬件卸载

1.3.8.17. 使用 Red Hat External DNS Operator 创建 DNS 记录(技术预览)

现在,您可以使用云供应商(如 AWS、Azure 和 GCP)上的 Red Hat External DNS Operator 创建 DNS 记录。您可以使用 OperatorHub 安装外部 DNS Operator。您可以根据需要使用参数配置 ExternalDNS

如需更多信息,请参阅了解外部 DNS Operator

1.3.8.18. Mutable Ingress Controller 端点发布策略增强

集群管理员现在可以配置 Ingress Controller 端点发布策略,以更改 OpenShift Container Platform 中 InternalExternal 之间的负载均衡器范围。

如需更多信息,请参阅 Ingress Controller 端点发布策略

1.3.8.19. 用于 RHOSP 上的集群的 OVS 硬件卸载(技术预览)

对于在 Red Hat OpenStack Platform(RHOSP)上运行的集群,您可以启用 Open vSwitch(OVS)硬件卸载。

如需更多信息,请参阅启用 OVS 硬件卸载

1.3.8.20. 减少了 Kuryr 创建的 RHOSP 资源

对于在 RHOSP 上运行的集群,Kuryr 现在只为 pod 网络上至少有一个 pod 的命名空间创建 Neutron 网络和子网。另外,当在命名空间中至少创建了 pods 网络上的一个 pod 后,命名空间中的池会被填充。

1.3.8.21. 支持 RHOSP DCN(技术预览)

现在,您可以使用分布式计算节点(DCN)配置的 Red Hat OpenStack Platform(RHOSP) 部署部署集群。此部署配置有几个限制:

  • 仅支持 RHOSP 版本 16。
  • 对于 RHOSP 16.1.4,边缘仅支持超融合基础架构(HCI)和 Ceph 技术。
  • 对于 RHOSP 16.2,也支持非HCI 和 Ceph 技术。
  • 网络必须提前创建(使用您自己的网络)作为租户或提供商网络。这些网络必须调度到适当的可用区。

1.3.8.22. 支持 RHOSP 上集群的外部云供应商(技术预览)

在 RHOSP 上运行的集群现在可以使用 Cloud Provider OpenStack。这个功能可作为 TechPreviewNoUpgrade 功能集的一部分提供。

1.3.8.23. 在安装程序置备的集群中使用 NMState 配置主机网络接口

OpenShift Container Platform 现在为安装程序置备的集群提供了一个 networkConfig 配置设置,它会使用一个 NMState YAML 配置来配置主机接口。在安装程序置备的安装过程中,您可以将 networkConfig 配置设置和 NMState YAML 配置添加到 install-config.yaml 文件中。另外,您可以在使用 Bare Metal Operator 时将 networkConfig 配置设置和 NMState YAML 配置添加到裸机主机资源中。

networkConfig 配置设置的最常见用例是在安装过程中或在扩展集群时在主机的网络接口上设置静态 IP 地址。

如需更多信息,请参阅 install-config.yaml 文件中配置主机网络接口

1.3.8.24. linuxptp 服务的边界时钟和 PTP 增强

现在,您可以在 PtpConfig 配置集中指定多个网络接口,以允许运行 RAN vDU 应用程序的节点充当精确时钟协议 Boundary Clock(PTP T-BC)。现在,配置为边界时钟的接口也支持 PTP fast 事件。

如需更多信息,请参阅 将 linuxptp 服务配置为边界时钟

1.3.8.25. 支持 Intel 800-Series Columbiaville NIC

现在,针对配置为边界时钟或普通时钟的接口完全支持 Intel 800-Series Columbiaville NIC。在以下配置中支持 Columbiaville NIC:

  • Ordinary 时钟
  • 边界时钟同步到 Grandmaster 时钟
  • 带有与上游源时钟同步的一个端口的边界时钟,以及提供下游时间到目标时钟的三个端口

如需更多信息,请参阅配置 PTP 设备

1.3.8.26. 对于裸机、IBM Power、IBM Z 和 LinuxONE 安装,Kubernetes NMState Operator 现在已正式发布(GA)

OpenShift Container Platform 现在为裸机、IBM Power、IBM Z 和 LinuxONE 安装提供 Kubernetes NMState Operator。对于其他平台,Kubernetes NMState Operator 仍是一个技术预览。如需了解更多详细信息,请参阅关于 Kubernetes NMState Operator

1.3.8.27. SR-IOV 支持 Mellanox MT2892 卡

SR-IOV 支持现在可用于 Mellanox MT2892 卡

1.3.8.28. Network Observability Operator 观察网络流量流

现在,您可以安装 Network Observability Operator 来在控制台中观察 OpenShift Container Platform 集群的网络流量。您可以使用不同的图形表示来查看和监控网络流量数据。Network Observability Operator 使用 eBPF 技术来创建网络流。网络流包括了 OpenShift Container Platform 的信息并存储在 Loki 中。您可以使用网络流量信息来详细地进行故障排除和分析。

Network Observability Operator 在 OpenShift Container Platform 4.12 发行版本中是 General Availability (GA),它也在 OpenShift Container Platform 4.10 中被支持。

如需更多信息,请参阅 Network Observability

1.3.8.28.1. Network Observability Operator 更新

Network Observability Operator 发行版本独立于 OpenShift Container Platform 次版本流的更新。更新可以通过单一的滚动流提供,该流在所有当前支持的 OpenShift Container Platform 4 版本中被支持。有关 Network Observability Operator 的新功能、功能增强和程序错误修复的信息,请参阅 Network Observability 发行注记

1.3.9. 硬件

1.3.9.1. MetalLB 负载均衡的改进

本发行版本中包括对 MetalLB 和 MetalLB Operator 的以下改进:

  • 添加了对 Border Gateway Protocol(BGP)的支持。
  • 添加了对 BGP 的双向转发检测(BFD)的支持。
  • 添加了对 IPv6 和双栈网络的支持。
  • 添加了对在 speaker pod 上指定节点选择器的支持。现在,您可以控制哪些节点用于广告负载均衡器服务 IP 地址。此功能增强适用于第 2 层模式和 BGP 模式。
  • 验证是否添加了 Web hook,以确保地址池和 BGP peer 自定义资源有效。
  • 4.9 版本中引入的 AddressPoolMetalLB 自定义资源定义的 v1alpha1 API 版本已弃用。这两个自定义资源都会更新到 v1beta1 API 版本。
  • 添加了对 MetalLB 自定义资源定义中的 speaker pod 容限的支持。

如需更多信息,请参阅关于 MetalLB 和 MetalLB Operator

1.3.9.2. 支持修改主机固件设置

OpenShift Container Platform 支持 HostFirmwareSettingsFirmwareSchema 资源。在裸机主机上部署 OpenShift Container Platform 时,在置备前或置备后,有时您需要对主机进行更改。这包括检查主机的固件和 BIOS 详情。有两个新资源可用于 Bare Metal Operator(BMO):

  • HostFirmwareSettings :您可以使用 HostFirmwareSettings 资源来检索和管理主机的 BIOS 设置。资源包含从基板管理控制器(BMC)返回的完整 BIOS 配置。但是,BareMetalHost 资源中的固件字段会返回三个供应商独立字段,但 HostFirmwareSettings 资源通常包含每个主机模型的很多特定厂商相关字段的 BIOS 设置。
  • FirmwareSchema :您可以使用 FirmwareSchema 来识别主机的可修改 BIOS 值,并在更改主机固件设置时限制。

如需了解更多详细信息,请参阅裸机配置

1.3.10. 存储

1.3.10.1. 存储指标指示符

  • 在这个版本中,工作负载可以使用由 Shared Resource CSI 驱动程序提供的内联临时 csi 卷在命名空间间安全地共享 SecretConfigMap 对象。Container Storage Interface(CSI)卷和 Shared Resource CSI 驱动程序是技术预览功能。(BUILD-293)

1.3.10.2. 控制台存储插件增强

  • 在 Console Storage Plug-in 中添加了一个新功能,用于在屏幕阅读器的整个安装流中添加 Aria 标签。这为使用屏幕读取器访问控制台的用户提供更好的可访问性。
  • 添加了一项新功能,以提供指示用于持久性卷声明(PVC)的卷使用的空间量。这些信息会出现在 PVC 列表中,在 Used 列中的 PVC 详情中。(BZ#1985965)

1.3.10.3. 使用 Alibaba AliCloud Disk CSI Driver Operator 的持久性存储

OpenShift Container Platform 可以使用 AliCloud Disk 的 Container Storage Interface(CSI)驱动程序置备持久性卷(PV)。管理此驱动程序的 AliCloud Disk Driver Operator 已正式发布,并在 OpenShift Container Platform 4.10 中默认启用。

如需更多信息,请参阅 AliCloud Disk CSI Driver Operator

1.3.10.4. 使用 Microsoft Azure File CSI Driver Operator 的持久性存储(技术预览)

OpenShift Container Platform 可以使用 Azure File 的 Container Storage Interface(CSI)驱动程序置备持久性卷(PV)。管理此驱动程序的 Azure File Driver Operator 只是一个技术预览。

如需更多信息,请参阅 Azure File CSI Driver Operator

1.3.10.5. 使用 IBM VPC Block CSI Driver Operator 的持久性存储

OpenShift Container Platform 可以使用 IBM Virtual Private Cloud(VPC)块的 Container Storage Interface(CSI)驱动程序置备持久性卷(PV)。在 OpenShift Container Platform 4.10 中,管理此驱动程序的 IBM VPC Block Driver Operator 已正式发布,并默认启用。

如需更多信息,请参阅 IBM VPC Block CSI Driver Operator

1.3.10.6. 使用 VMware vSphere CSI Driver Operator 的持久性存储已正式发布

OpenShift Container Platform 可以使用 vSphere 的 Container Storage Interface(CSI)驱动程序置备持久性卷(PV)。此功能以前作为技术预览功能在 OpenShift Container Platform 4.8 中引入,现在在 OpenShift Container Platform 4.10 中正式发布并启用。

如需更多信息,请参阅 vSphere CSI Driver Operator

安装 vSphere CSI Driver Operator 需要:

即使满足上述条件,集群仍会升级,但建议您满足这些要求,以拥有受支持的 vSphere CSI Operator 驱动程序。

1.3.10.7. 使用 Microsoft Azure Disk CSI Driver Operator 的持久性存储已正式发布

OpenShift Container Platform 可以使用 Azure Disk 的 Container Storage Interface(CSI)驱动程序置备持久性卷(PV)。此功能以前作为技术预览功能在 OpenShift Container Platform 4.8 中引入,现在在 OpenShift Container Platform 4.10 中正式发布并启用。

如需更多信息,请参阅 Azure Disk CSI Driver Operator

1.3.10.8. 使用 AWS Elastic File Storage CSI Driver Operator 的持久性存储已正式发布

OpenShift Container Platform 可以使用 AWS Elastic File Storage(EFS)的 Container Storage Interface(CSI)驱动程序置备持久性卷(PV)。此功能以前作为技术预览功能在 OpenShift Container Platform 4.9 中引入,现在在 OpenShift Container Platform 4.10 中正式发布。

如需更多信息,请参阅 AWS EFS CSI Driver Operator

1.3.10.9. 自动 CSI 迁移支持 Microsoft Azure 文件(技术预览)

从 OpenShift Container Platform 4.8 开始,在树内卷插件自动迁移到对应的 Container Storage Interface(CSI)驱动程序作为技术预览。此功能支持将 Azure File in-tree 插件自动迁移到 Azure File CSI 驱动程序。

如需更多信息,请参阅 CSI 自动迁移

1.3.10.10. 自动 CSI 迁移支持 VMware vSphere(技术预览)

从 OpenShift Container Platform 4.8 开始,在树内卷插件自动迁移到对应的 Container Storage Interface(CSI)驱动程序作为技术预览。此功能支持将 vSphere in-tree 插件自动迁移到 vSphere CSI 驱动程序。

如需更多信息,请参阅 CSI 自动迁移

1.3.10.11. 使用 fsGroup 减少 pod 超时

如果存储卷包含很多文件(大约 1,000,000 或更多),则可能出现 pod 超时的问题。

OpenShift Container Platform 4.10 引进了使用 fsGroupfsGroupChangePolicy 的功能,以跳过存储卷的递归权限更改,这有助于避免 pod 超时问题。

如需更多信息,请参阅使用 fsGroup 减少 pod 超时

1.3.11. Registry

1.3.12. Operator 生命周期

1.3.12.1. 禁用复制的 CSV 以支持大型集群

当 Operator Lifecycle Manager(OLM)安装 Operator 时,会在 Operator 配置为监视的每个命名空间中创建其集群服务版本(CSV)的简化副本。这些 CSV 被称为复制的 CSV;它们识别在给定命名空间中主动协调资源事件的控制器。

在大型集群中,带有命名空间和安装的 Operator 可能存在于数百个或数千种 CSV 中,复制的 CSV 消耗大量资源,如 OLM 的内存用量、集群 etcd 限值和网络带宽。为了支持这些较大的集群,集群管理员现在可以为采用 AllNamespaces 模式安装的 Operator 禁用复制的 CSV。

如需了解更多详细信息,请参阅配置 Operator Lifecycle Manager 功能

1.3.12.2. 依赖项的通用和复杂限制

具有特定依赖项要求的 Operator 现在可以使用复杂的限制或要求表达式。新的 olm.constraint 捆绑包属性包含依赖项约束信息。message 字段允许 Operator 作者传达关于使用特定约束的原因的高级详细信息。

如需了解更多详细信息,请参阅 Operator Lifecycle Manager 依赖项解析

1.3.12.3. Operator Lifecycle Manager 支持 Hypershift

Operator Lifecycle Manager(OLM)组件(包括 Operator 目录)现在可以在 Hypershift 管理的 control plane 上完全运行。此功能不会对 worker 节点上的租户产生任何成本。

1.3.12.4. Operator Lifecycle Manager 支持 ARM

在以前的版本中,默认的 Operator 目录不支持 ARM。在这个版本中,Operator Lifecycle Manager(OLM)为 ARM 集群添加默认 Operator 目录。现在,OperatorHub 会为支持 ARM 的 Operator 默认包括内容。(BZ#1996928)

1.3.13. Operator 开发

1.3.13.1. 混合 Helm Operator(技术预览)

与基于 Go 和基于 Ansible 的 Operator 相比(它们已实现 Operator maturity model 中的 Auto Pilot capability (level V)),Operator SDK 中对标准的基于 Helm 的 Operator 支持有一定限制。

从 OpenShift Container Platform 4.10 开始,Operator SDK 包括一个混合 Helm Operator,通过 Go API 增强基于 Helm 的现有支持能力。Operator 作者可生成以 Helm Chart 开头的 Operator 项目,然后在 Go 语言将基于事件的逻辑添加到 Helm reconciler 中。作者可以使用 Go 继续在同一项目中添加新的 API 和自定义资源定义(CRD)。

如需了解更多详细信息,请参阅 混合 Helm Operator 的 Operator SDK 指南

1.3.13.2. 基于 Ansible 的 Operator 的自定义指标

Operator 作者现在可以使用 Operator SDK 中的基于 Ansible 的 Operator 支持来公开自定义指标、发出 Kubernetes 事件并提供更好的日志记录。

如需了解更多详细信息,请参阅公开基于 Ansible 的 Operator 的自定义指标

1.3.13.3. 基于 Go 的 Operator 的对象修剪

operator-lib 修剪工具允许基于 Go 的 Operator 清理对象,如作业或 pod,它们可保留集群并使用资源。实用程序包括基于 Go 的 Operator 的常见修剪策略。Operator 作者也可以使用实用程序创建自定义 hook 和策略。

如需有关修剪工具的更多信息,请参阅基于 Go 的 Operator 的对象修剪工具

1.3.13.4. 用于断开连接的环境的基于摘要的捆绑包

在这个改进中,Operator SDK 现在可以将 Operator 项目打包在一个与 Operator Lifecycle Manager(OLM)断开连接的环境中工作的捆绑包中。Operator 作者可以运行 make bundle 命令,并将 USE_IMAGE_DIGESTS 设置为 true,以自动更新 Operator 镜像引用摘要而不是标签。要使用该命令,您必须使用环境变量来替换硬编码相关镜像引用。

有关为断开连接的环境开发 Operator 的更多信息,请参阅为受限网络环境启用 Operator

1.3.14. 构建(build)

  • 在这个版本中,您可以使用 OpenShift 构建中的 CSI 卷,它是一个技术预览功能。此功能依赖于新引入的 Shared Resource CSI Driver 和 Insights Operator 来导入 RHEL Simple Content Access(SCA)证书。例如,通过使用这个功能,您可以使用 SharedSecret 对象运行授权构建,并在构建期间安装授权 RPM 软件包,而不是将 RHEL 订阅凭证和证书复制到构建命名空间中。(BUILD-274)

    重要

    只有在启用了 TechPreviewNoUpgrade 功能集时,SharedSecret 对象和 OpenShift Shared Resources 功能才可用。这些技术预览功能不是默认功能的一部分。启用此功能集无法撤消,而且会阻止升级。不建议在生产环境集群中使用此功能集。请参阅使用 FeatureGate 启用技术预览功能

  • 在这个版本中,工作负载可以使用由 Shared Resource CSI 驱动程序提供的内联临时 csi 卷在命名空间间安全地共享 SecretConfigMap 对象。Container Storage Interface(CSI)卷和 Shared Resource CSI 驱动程序是技术预览功能。(BUILD-293)

1.3.15. Jenkins

  • 在这个版本中,您可以运行 Jenkins 代理作为 sidecar 容器。您可以使用此功能在 Jenkins 管道中运行具有正确配置的 pod 模板和 Jenkins 文件的任何容器镜像。现在,若要编译代码,您可以使用 Jenkins 运行两个新 pod 模板,名为 java-buildnodejs-builder 作为 sidecar 容器。这两个 pod 模板使用 openshift 命名空间中的 javanodejs 镜像流提供的最新 Java 和 NodeJS 版本。以前的非 sidecar mavennodejs pod 模板已被弃用。(JKNS-132)

1.3.16. 机器 API

1.3.16.1. Azure Ephemeral OS 磁盘支持

在这个版本中,您可以创建一个在 Azure 上运行的机器集,用于在 Ephemeral OS 磁盘上部署机器。临时 OS 磁盘使用本地虚拟机容量,而不是远程 Azure 存储。

如需更多信息,请参阅 部署 Ephemeral OS 磁盘的机器设置

1.3.16.2. Azure 加速网络支持

在这个版本中,您可以使用 Machine API 为 Microsoft Azure 虚拟机启用加速网络。加速网络使用单一根 I/O 虚拟化(SR-IOV)为虚拟机提供更直接的路径到交换机。

如需更多信息,请参阅 Microsoft Azure 虚拟机的加速网络

1.3.16.3. 全局 Azure 可用性集支持

在这个版本中,您可以使用全局 Azure 区域中的可用性集,它们没有多个可用区来确保高可用性。

1.3.16.4. Google Cloud Platform 上的 GPU 支持

Google Cloud Platform(GCP)Compute Engine 允许用户在虚拟机实例中添加 GPU。得益于访问 GPU 资源的工作负载可在启用了此功能的计算机器上更好地执行。在这个版本中,您可以使用 Machine API 定义用于实例的 GPU。

如需更多信息,请参阅启用机器集 的 GPU 支持

1.3.16.5. 集群自动扩展节点使用率阈值

在这个版本中,您可以在 ClusterAutoscaler 资源定义中指定节点使用阈值。这个阈值代表节点使用率级别,低于这个级别时一个不必要的节点会被删除。

如需更多信息,请参阅关于集群自动扩展

1.3.17. Machine Config Operator

1.3.17.1. 增强的配置偏移检测

在这个版本中,如果机器配置中指定的任何文件发生文件系统写入事件,在应用新机器配置前,Machine Config Daemon(MCD)会检查节点是否有配置偏移。在以前的版本中,MCD 在节点引导时才会检查配置偏移。这一改变的原因时,节点重启的频率并不足以避免因为配置偏移导致的问题,直到管理员修正了相关问题。

当节点的磁盘上状态与机器配置中配置的内容不同时,配置偏移发生。Machine Config Operator(MCO)使用 MCD 检查节点是否有配置偏移,如果检测到,则将节点和机器配置池(MCP)设置为 降级

有关配置偏移的更多信息,请参阅了解配置偏移检测

1.3.18. 节点

1.3.18.1. Linux 控制组版本 2(开发者预览)

现在,您可以在集群中的特定节点上启用 Linux 控制组群版本 2 (cgroups v2)。用于启用 cgroups v2 的 OpenShift Container Platform 进程会禁用所有 cgroup 版本 1 控制器和层次结构。OpenShift Container Platform cgroup 版本 2 功能是一个开发者预览(Developer Preview)功能,目前还不被红帽支持。如需更多信息,请参阅启用 Linux 控制组群版本 2(cgroups v2)

1.3.18.2. 支持在节点上使用 swap 内存(技术预览)

您可以根据节点为 OpenShift Container Platform 工作负载启用交换内存使用。如需更多信息,请参阅在节点上启用交换内存使用

1.3.18.3. 使用 Node Maintenance Operator 将节点置于维护模式

Node Maintenance Operator(NMO)cordon 从集群的其余部分中分离节点,并排空节点上的所有 pod。通过将节点置于维护模式,您可以调查机器的问题,或在底层机器上执行操作,这可能会导致节点失败。这是 NMO 的独立版本。如果安装了 OpenShift Virtualization,则必须使用与之捆绑的 NMO。

1.3.18.4. Node Health Check Operator 的改进(技术预览)

Node Health Check Operator 提供了这些新改进:

1.3.18.5. poison Pill Operator 的改进

Poison Pill Operator 使用 NodeDeletion 作为其默认补救策略。NodeDeletion 补救策略会删除节点对象。

在 OpenShift Container Platform 4.10 中,Poison Pill Operator 引入了一个新的补救策略,称为 ResourceDeletionResourceDeletion 补救策略会删除节点上的 pod 和关联的卷附加,而不是节点对象。此策略有助于更快地恢复工作负载。

1.3.18.6. RHOSP 上的 control plane 节点迁移

现在,您可以在不中断服务的情况下,将 control plane 节点从一个 RHOSP 主机迁移到另一个 RHOSP 主机。

1.3.19. Red Hat OpenShift Logging

在 OpenShift Container Platform 4.7 中,Cluster Logging 变为了 Red Hat OpenShift Logging。如需更多信息,请参阅 Red Hat OpenShift Logging 的发行注记

1.3.20. 监控

此版本的监控堆栈包括以下新功能和修改后的功能:

1.3.20.1. 监控堆栈组件和依赖项

监控堆栈组件和依赖项的更新包括:

  • Alertmanager 到 0.23.0
  • Grafana 到 8.3.4
  • kube-state-metrics 到 2.3.0
  • node-exporter 到 1.3.1
  • prom-label-proxy 到 0.4.0
  • Prometheus 到 2.32.1
  • Prometheus adapter 到 0.9.1
  • Prometheus operator 到 0.53.1
  • Thanos 到 0.23.1

1.3.20.2. OpenShift Container Platform Web 控制台中的 metrics 目标的新页面

OpenShift Container Platform Web 控制台中的新的 Metrics Targets 页面显示默认 OpenShift Container Platform 项目和用户定义的项目的目标。您可以使用此页面来查看、搜索和过滤当前用于修整的端点,这有助于识别和排除问题。

1.3.20.3. 监控组件已更新,以将 TLS 身份验证用于指标集合

在这个版本中,所有监控组件都配置为使用 mutual TLS 身份验证,而不是为指标集合的 Bearer Token 静态身份验证。TLS 身份验证更灵活地用于 Kubernetes API 中断,并降低了 Kubernetes API 的负载。

1.3.20.4. Cluster Monitoring Operator 更新为使用全局 TLS 安全配置集

在这个版本中,Cluster Monitoring Operator 组件遵循全局 OpenShift Container Platform tlsSecurityProfile 设置。以下组件和服务现在使用 TLS 安全配置集:

  • Alertmanager Pod(端口 9092 和 9097)
  • kube-state-metrics pod(端口 8443 和 9443)
  • openshift-state-metrics pod(端口 8443 和 9443)
  • node-exporter pod(端口 9100)
  • Grafana pod(端口 3002)
  • prometheus-adapter pods (端口 6443)
  • prometheus-k8s pods (端口 9092 和 10902)
  • Thanos query pods (端口 9092、9093 和 9094)
  • Prometheus Operator(端口 8080 和 8443)
  • Telemeter-client pod(端口 8443)

如果您启用了用户定义的监控,则以下 pod 现在使用配置集:

  • prometheus-user-workload pods (端口 9091 和 10902)
  • prometheus-operator pod (端口 8080 和 8443)

1.3.20.5. 对警报规则的更改

  • New

    • 为所有 Thanos 警报规则添加 namespace 标签。
    • openshift_io_alert_source="platform" 标签添加到所有平台警报。
  • 已更改

    • AggregatedAPIDown 重命名为 KubeAggregatedAPIDown
    • AggregatedAPIErrors 重命名为 KubeAggregatedAPIErrors
    • 删除了 HighlyAvailableWorkloadIncorrectlySpread 警告。
    • 改进了 KubeMemoryOvercommit 警报的描述。
    • 改进了 NodeFilesystemSpaceFillingUp 警报,使其与 Kubernetes 垃圾回收阈值一致。
    • KubePersistentVolumeFillingUp 警报中排除 ReadOnlyMany 卷。
    • 扩展 PrometheusOperator 警报以包含在 openshift-user-workload-monitoring 命名空间中运行的 Prometheus Operator。
    • ThanosSidecarPrometheusDownThanosSidecarUnhealthy 警报替换为 ThanosSidecarNoConnectionToStartedPrometheus
    • KubeletTooManyPods 的严重性从 warning 改为 info
    • 向一个持久性卷资源添加 alerts.k8s.io/KubePersistentVolumeFillingUp: disabled 标签来启用从 KubePersistentVolumeFillingUp 警告中排除特定的持久性卷。
注意

红帽不保证记录规则或警报规则的向后兼容性。

1.3.20.6. 对指标的更改

  • 在分片级别提供以 Pod 为中心的 cAdvisor 指标已被丢弃。
  • 现在公开以下指标:

    • kube_poddisruptionbudget_labels
    • kube_persistentvolumeclaim_labels
    • kube_persistentvolume_labels
  • 带有 kube_*annotation 的指标已从 kube-state-metrics 中移除。
注意

红帽不保证指标的向后兼容性。

1.3.20.7. 为某些组件添加了硬反关联性规则和 pod 中断预算

在这个版本中,在以下监控组件启用了硬反关联性规则和 pod 中断预算,以便在补丁升级过程中缩短停机时间:

  • Alertmanager

    注意

    作为此更改的一部分,Alertmanager 副本的数量已从三减到两个。但是,在升级过程中,删除的第三个副本的持久性卷声明(PVC)不会被自动删除。如果您已经为 Alertmanager 配置持久性存储,您可以从 Cluster Monitoring Operator 手动删除此 PVC。如需更多信息,请参阅"已知问题"部分。

  • Prometheus adapter
  • Prometheus
  • Thanos querier

如果您已经启用了用户定义的监控,则以下组件还会使用这些规则和预算:

  • Prometheus
  • Thanos Ruler

1.3.20.8. 用户定义的项目的警报路由(技术预览)

此发行版本引入了一个技术预览功能,管理员可以为用户定义的项目监控启用警报路由。然后,用户可以为其用户定义的项目添加并配置警报路由。

1.3.20.9. Alertmanager

从 OpenShift Container Platform 路由访问第三方 Alertmanager Web 用户界面已被删除。

1.3.20.10. Prometheus

  • OpenShift Container Platform 集群管理员现在可以为 Prometheus 配置查询日志记录。
  • 对第三方 Prometheus Web 用户界面的访问已弃用,并将在以后的 OpenShift Container Platform 发行版本中删除。

1.3.20.11. Prometheus adapter

  • Prometheus 适配器现在使用 Thanos Querier API 而不是 Prometheus API。
  • OpenShift Container Platform 集群管理员现在可以为 Prometheus 适配器配置审计日志。

1.3.20.12. Thanos querier

  • 从 OpenShift Container Platform 路由访问第三方 Thanos Querier Web 用户界面已被删除。
  • Thanos Querier tenancy 端口现在会公开 /api/v1/labels, /api/v1/label/*/values, 和 /api/v1/series 端点。
  • OpenShift Container Platform 集群管理员现在可以配置查询日志记录。
  • 如果启用了用户工作负载监控,从 OpenShift Container Platform 路由中删除对第三方 Thanos Ruler Web 用户界面的访问权限。

1.3.20.13. Grafana

对第三方 Grafana Web 用户界面的访问已弃用,并将在以后的 OpenShift Container Platform 发行版本中删除。

1.3.21. 可伸缩性和性能

1.3.21.1. 新的特殊资源 Operator 指标

Special Resource Operator(SRO)现在公开指标,以帮助您监控 SRO 自定义资源和对象的健康状态。如需更多信息,请参阅 Prometheus Special Resource Operator metrics

1.3.21.2. 特殊资源 Operator 自定义资源定义字段

oc explain 用于 Special Resource Operator(SRO)现在为 SRO 自定义资源定义(CRD)提供在线文档。此增强可以为 CRD 字段提供更好的特定项。(BZ#2031875)

1.3.21.3. 添加到 Telemetry 的新 Node Tuning Operator 指标

Node Tuning Operator(NTO)指标现在添加到 Telemetry 中。按照显示 Telemetry 收集的数据 中的步骤来查看 Telemetry 收集的所有指标。

1.3.21.4. NFD Topology Updater 现已正式发布

Node Feature Discovery(NFD)Topology Updater 是一个守护进程,负责检查 worker 节点上分配的资源。它考虑可以为每个区分配给新 pod 的资源,其中区域可以是 Non-Uniform Memory Access(NUMA)节点。如需更多信息,请参阅使用 NFD Topology Updater

1.3.21.5. 超线程感知 CPU Manager 策略(技术预览)

OpenShift Container Platform 中提供了超线程感知 CPU Manager 策略,而无需额外的调整。如果需要,集群管理员可以启用此功能。超线程由硬件抽象为逻辑处理器。超线程允许单个物理处理器同时执行两个重量线程(processes),从而动态共享处理器资源。

1.3.21.6. 使用 NUMA Resources Operator 进行可以识别 NYUMA 的调度(技术预览)

默认的 OpenShift Container Platform 调度程序不会在计算节点中看到 NUMA 区域。这可能会导致对延迟敏感的工作负载的调度没有处于最佳状态。现在提供了一个新的 NUMA 资源 Operator,它将部署一个可以识别 NUMA 的辅助调度程序。可识别 NUMA 的辅助调度程序根据集群中可用 NUMA 区域的完整视图,为工作负载做出调度决策。这样可确保在单个 NUMA 区域中处理对延迟敏感的工作负载,以最大化效率和性能。

如需更多信息,请参阅关于 NUMA 的调度

1.3.21.7. 使用 SiteConfig 过滤器在 ZTP spoke 集群安装过程中过滤自定义资源

现在,您可以使用过滤器来自定义 SiteConfig CR,使其包含或排除要在零接触置备 (ZTP) GitOps 管道的安装阶段使用的其他 CR。如需更多信息,请参阅使用 SiteConfig 过滤器过滤自定义资源

1.3.21.8. 对于 vDU 的用例,在 PolicyGenTemplate CR 中禁用 chronyd

在运行 RAN vDU 应用程序的节点上,如果您从早期版本升级到 OpenShift Container Platform 4.10,则必须禁用 chronyd。要禁用 chronyd,在 Tuned PerformancePatch.yaml 文件的 .spec.profile.data 下的 [service] 部分添加以下行。TunedPerformancePatch.yaml 文件在组 PolicyGenTemplate CR 中被引用:

[service]
service.chronyd=stop,disable

如需更多信息,建议集群配置来运行 vDU 应用程序

1.3.22. 备份和恢复

1.3.23. 开发者体验

1.3.23.1. 修剪部署副本集(技术预览)

此发行版本在 oc adm prune deployments 命令引入了一个技术预览标志 --replica-sets。默认情况下,使用 oc adm prune deployments 命令只修剪复制控制器。当您将 --replica-sets 设置为 true 时,修剪过程中也会包含副本集。

如需更多信息,请参阅修剪部署资源

1.3.24. Insights Operator

1.3.24.1. 导入简单内容访问证书

在 OpenShift Container Platform 4.10 中,Insights Operator 现在默认从 Red Hat OpenShift Cluster Manager 导入简单内容访问证书。

如需更多信息,请参阅使用 Insights Operator 导入简单的内容访问证书

1.3.24.2. 深入了解 Operator 数据收集功能的增强

为了减少发送到 Red Hat 的数据量,Insights Operator 仅在满足特定条件时收集信息。例如,Insights Operator 仅在 Alertmanager 无法发送警报通知时收集 Alertmanager 日志。

在 OpenShift Container Platform 4.10 中,Insights Operator 会收集以下额外信息:

  • (条件性) 来自触发 KubePodCrashloopingKubePodNotReady 警报的 pod 的日志
  • (条件性)当 AlertmanagerClusterFailedToSendAlertsAlertmanagerFailedToSendAlerts 警报被触发时,Alertmanager 的日志
  • 来自 Alertmanager 的静默警报
  • 来自 journal 单元的节点日志(kubelet)
  • 安装有 costmanagement-metrics-operator 的集群的 CostManagementMetricsConfig
  • 监控堆栈 Prometheus 实例的时间序列数据库状态
  • 有关 OpenShift Container Platform 调度程序的更多信息

通过这些附加信息,红帽改进了 OpenShift Container Platform 功能并增强了 Insights Advisor 建议。

1.3.25. 认证和授权

1.3.25.1. 同步 OpenID Connect 身份提供程序中的组成员资格

此发行版本引进了对在用户登录时从 OpenID Connect 供应商同步到 OpenShift Container Platform 的组成员资格的支持。您可以通过在 OpenShift Container Platform OpenID Connect 身份提供程序配置中配置 groups 声明来启用。

如需更多信息,请参阅 OpenID Connect CR 示例

1.3.25.2. 其他支持的 OIDC 供应商

Okta 和 Ping Identity OpenID Connect(OIDC)供应商现在经过测试并受 OpenShift Container Platform 支持。

有关 OIDC 供应商的完整列表,请参阅支持的 OIDC 供应商

1.3.25.3. oc 命令现在从 Podman 配置位置获取凭证

在以前的版本中,使用 registry 配置的 oc 命令(如 oc registry loginoc image 命令)从 Docker 配置位置获取凭证。在 OpenShift Container Platform 4.10 中,如果默认 Docker 配置位置无法访问 registry 条目,oc 命令会从 Podman 配置位置获取凭证。您可以使用 REGISTRY_AUTH_PREFERENCE 环境变量将首选项设置为 dockerpodman,以对位置进行优先排序。

用户还可以选择使用 REGISTRY_AUTH_FILE 环境变量,作为现有 --registry-config CLI 标志的替代变量。REGISTRY_AUTH_FILE 环境变量也与 podman 兼容。

1.3.25.4. 支持 Google Cloud Platform Workload Identity

现在,您可以使用 Cloud Credential Operator(CCO)实用程序 ccoctl 将 CCO 配置为使用 Google Cloud Platform Workload Identity。当 CCO 配置为使用 GCP Workload 身份时,集群组件可以使用简短、有限权限的安全凭证来模拟 IAM 服务帐户。

如需更多信息,请参阅在 GCP Workload Identity 中使用手动模式

注意

在 OpenShift Container Platform 4.10.8 中,因为发现了一个对镜像 registry 有负面影响的问题,删除了使用 GCP Workload Identity 的镜像 registry 支持。要使用 Workload Identity 的 OpenShift Container Platform 4.10.8 集群上使用镜像 registry,您必须将镜像 registry 配置为使用长期凭证。

在 OpenShift Container Platform 4.10.21 中,恢复了对使用带有镜像 registry 的 GCP Workload Identity 的支持。如需有关 OpenShift Container Platform 4.10.8 和 4.10.20 中此功能状态的更多信息,请参阅相关的知识库文章

1.4. 主要的技术变化

OpenShift Container Platform 4.10 包括以下显著的技术更改。

TLS X.509 证书必须具有对象备用名称

X.509 证书必须正确设置 Subject Alternative Name 字段。如果您在没有这个问题的情况下更新集群,则可能会破坏集群或呈现它无法访问。

在旧版本的 OpenShift Container Platform 中,X.509 证书在没有 Subject Alternative Name 的情况下可以正常工作,只要设置了 Common Name 字段。此行为在 OpenShift Container Platform 4.6 中删除

在某些情况下,没有 Subject Alternative Name 的证书在 OpenShift Container Platform 4.6、4.7、4.8 和 4.9 中继续工作。由于它使用 Kubernetes 1.23,因此 OpenShift Container Platform 4.10 在任何情况下都不允许使用它。

云控制器管理器用于其他云供应商

Kubernetes 社区计划弃用 Kubernetes 控制器管理器,而是使用云控制器管理器与底层云平台交互。因此,无法为任何新的云平台添加 Kubernetes 控制器管理器支持。在这个 OpenShift Container Platform 发行版本中添加的实现支持对 Google Cloud Platform (GCP), VMware vSphere, IBM Cloud, 和 Alibaba Cloud 使用云控制器管理器(技术预览)。

要了解有关云控制器管理器的更多信息,请参阅 Kubernetes Cloud Controller Manager 文档

要管理云控制器管理器和云节点管理器部署和生命周期,请使用 Cluster Cloud Controller Manager Operator。

如需更多信息,请参阅平台 Operator 参考中的 Cluster Cloud Controller Manager Operator 条目。

Operator SDK v1.16.0

OpenShift Container Platform 4.10 支持 Operator SDK v1.16.0。请参阅安装 Operator SDK CLI 来安装或更新到这个最新版本。

注意

Operator SDK v1.16.0 支持 Kubernetes 1.22。

Kubernetes 1.22 中删除了很多过时的 v1beta1 API,包括 sigs.k8s.io/controller-runtime v0.10.0controller-gen v0.7。如果您需要 scaffold v1beta1 API 为自定义资源定义(CRD)或 webhook 将项目发布至旧的集群版本,则这个变化会造成破坏。

如需有关 Kubernetes 1.22 中引入的更改的更多信息,请参阅 OpenShift Container Platform 4.9 发行注记中的 Validating bundle manifests for APIs removed from Kubernetes 1.22Beta APIs removed from Kubernetes 1.22

如果您之前使用 Operator SDK v1.10.1 创建或维护了任何 Operator 项目,请参阅升级较新版本的 Operator SDK 版本的项目,以确保您的项目已升级以保持与 Operator SDK v1.16.0 的兼容性。

更改了 Cluster Autoscaler 警报的严重性

在以前的版本中,ClusterAutoscalerUnschedulablePods 警报会显示严重性为警告的警报,这建议开发人员进行干预。此警报的信息并不正确,它没有包括需要干预的问题的信息。在这个版本中,ClusterAutoscalerUnschedulablePods 警报的严重性从 warning 减少到 info。(BZ#2025230)

Network Observability operator 用于观察网络流

Network Observability Operator 在 OpenShift Container Platform 4.12 发行版本中是 General Availability (GA),它也在 OpenShift Container Platform 4.10 中被支持。

如需更多信息,请参阅 Network Observability

1.5. 弃用和删除的功能

之前版本中的一些功能已被弃用或删除。

弃用的功能仍然包含在 OpenShift Container Platform 中,并将继续被支持。但是,这个功能会在以后的发行版本中被删除,且不建议在新的部署中使用。有关 OpenShift Container Platform 4.10 中已弃用并删除的主要功能的最新列表,请参考下表。表后列出了更详细的、已弃用和删除的功能信息。

在下表中,被标记为以下状态的功能:

  • GA: 正式发行
  • DEP: 已弃用
  • REM: 删除

表 1.1. 过时和删除的功能

功能OCP 4.8OCP 4.9OCP 4.10

软件包清单格式(Operator 框架)

REM

REM

REM

Operator 目录的 SQLite 数据库格式

GA

DEP

DEP

oc adm catalog build

REM

REM

REM

oc adm catalog mirror--filter-by-os 标记

REM

REM

REM

v1beta1 CRD

DEP

REM

REM

Docker Registry v1 API

DEP

REM

REM

Metering Operator

DEP

REM

REM

调度程序策略

DEP

DEP

REM

Cluster Samples Operator 的 ImageChangesInProgress 条件

DEP

DEP

DEP

Cluster Samples Operator 的 MigrationInProgress 条件

DEP

DEP

DEP

使用不带有 apiVersion 组的 v1 用于 OpenShift Container Platform 资源

DEP

REM

REM

在 RHCOS 中使用 dhclient

DEP

REM

REM

Cluster Loader

DEP

DEP

REM

使用自己的 RHEL 7 计算机器

DEP

DEP

REM

Builds 的 BuildConfig spec 中的 lastTriggeredImageID 字段

DEP

REM

REM

Jenkins Operator

DEP

DEP

REM

基于 Prometheus 的 HPA 定制 metrics adapter

REM

REM

REM

vSphere 6.7 更新 2 或更早版本

GA

DEP

DEP

虚拟硬件版本 13

GA

DEP

DEP

VMware ESXi 6.7 更新 3 或更早版本

GA

DEP

DEP

Microsoft Azure 集群的 Mint 凭证

GA

GA

REM

使用 FlexVolume 的持久性存储

  

DEP

用于 Jenkins 的 Non-sidecar pod 模板

  

DEP

多集群控制台(技术预览)

  

REM

1.5.1. 已弃用的功能

1.5.1.1. IBM POWER8、IBM z13 所有模型、LinuxONE Emperor、LinuxONE Rockhopper 和 x86_64 v1 架构将被弃用

IBM POWER8、IBM z13 所有模型、LinuxONE Emperor、LinuxONE Rockhopper 和 AMD64 (x86_64) v1 CPU 架构中的 RHCOS 功能将在即将推出的发行版本中弃用。以后的发行版本中将宣布对这些架构的支持的附加信息。

注意

AMD 和 Intel 64 位体系结构(x86-64-v2)仍被支持。

1.5.1.2. 默认 Docker 配置位置弃用

在以前的版本中,使用 registry 配置的 oc 命令会从 Docker 配置位置获取凭证,默认为 ~/.docker/config.json。这已被弃用,并将在以后的 OpenShift Container Platform 版本中被 Podman 配置位置替代。

1.5.1.3. oc registry login 中的空文件和 stdout 支持弃用

支持使用 oc registry login 中的 --registry-config--to 标志的空文件已弃用。在使用 oc registry login 时支持 - (标准输出) 作为参数的功能已被弃用。在以后的 OpenShift Container Platform 版本中会把它们删除。

1.5.1.4. 用于 Jenkins 弃用的非端 pod 模板

在 OpenShift Container Platform 4.10 中,用于 Jenkins 的非 sidecar 的 mavennodejs pod 模板已弃用。计划在以后的发行版本中删除这些 pod 模板。程序错误修复及支持将在以后的生命周期结束时提供,之后不会进行新的功能增强。借助此次更新,您可以运行 Jenkins 代理作为 sidecar 容器。(JKNS-257)

1.5.1.5. 第三方监控组件用户界面弃用

对于以下监控堆栈组件,访问第三方 Web 用户界面(UI)已被弃用,计划在以后的 OpenShift Container Platform 发行版本中删除:

  • Grafana
  • Prometheus

另外,用户可以导航到 OpenShift Container Platform Web 控制台的 Observe 部分,以访问仪表板以及平台组件的其他 UI。

1.5.1.6. 使用 FlexVolume 的持久性存储

在 OpenShift Container Platform 4.10 中,使用 FlexVolume 的持久性存储已弃用。这个功能仍被完全支持,但只会修复重要的错误。但是,以后的 OpenShift Container Platform 发行版本中可能会删除它。虚拟机监控程序 Container Storage Interface(CSI)驱动程序是在 OpenShift Container Platform 中写入卷驱动程序的建议方法。FlexVolume 驱动程序的维护者应该实施 CSI 驱动程序,并将 FlexVolume 用户移到 CSI。FlexVolume 的用户应该将其工作负载移到 CSI 驱动程序。

1.5.1.7. RHEL 7 对 OpenShift CLI (oc) 的支持已弃用

在 Red Hat Enterprise Linux (RHEL) 7 中使用 OpenShift CLI (oc) 已被弃用,并将在以后的 OpenShift Container Platform 发行版本中删除。

1.5.2. 删除的功能

OpenShift Container Platform 4.10 从 OpenShift Container Platform Web 控制台界面的 OperatorHub 页面中删除属于技术预览功能的 Jenkins Operator。错误修复和支持不再可用。

相反,您可以使用 Samples Operator 提供的模板在 OpenShift Container Platform 上继续部署 Jenkins。另外,您可以使用 web 控制台的 Developer 视角中的 Helm 页面从 Developer Catalog 安装 Jenkins Helm Chart。

1.5.2.1. 删除的 OpenShift CLI(oc)命令

本发行版本中删除了以下 OpenShift CLI(oc)命令:

  • oc adm completion
  • oc adm config
  • oc adm options

1.5.2.2. 已删除调度程序策略

在这个版本中删除了对配置调度程序策略的支持。使用调度程序配置集来控制 pod 如何调度到节点上。

1.5.2.3. 删除了对计算机器的 RHEL 7 支持

删除了对在 OpenShift Container Platform 中运行 Red Hat Enterprise Linux(RHEL)7 计算机器的支持。如果您希望使用 RHEL 计算机器,则它们必须在 RHEL 8 中运行。

您无法将 RHEL 7 计算机器升级到 RHEL 8。您必须部署新的 RHEL 8 主机,必须删除旧的 RHEL 7 主机。

1.5.2.4. 删除第三方监控组件用户界面访问

在这个版本中,您无法访问以下监控堆栈组件的第三方 Web 用户界面(UI):

  • Alertmanager
  • Thanos querier
  • Thanos Ruler(如果用户工作负载监控已启用)

反之,您可以导航到 OpenShift Container Platform Web 控制台的 Observe 部分,以访问平台组件的指标、警报和指标目标 UI。

1.5.2.5. 删除了对 Microsoft Azure 的 mint 凭证的支持

删除了对在 Microsoft Azure 集群中以 mint 模式使用 Cloud Credential Operator(CCO)的支持。此更改的原因是 Microsoft 的 Azure AD Graph API 将于 2022 年 6 月 30 日停用,并被向后移植到 z-stream 更新中所有支持的 OpenShift Container Platform 版本。

对于在以前安装的使用 mint 模式的 Azure 集群,CCO 会尝试更新现有的 secret。如果 secret 包含之前 minted 应用程序注册服务主体的凭证,则会使用 kube-system/azure-credentials 中的 secret 的内容更新。这个行为和 passthrough 模式类似。

对于将凭证模式设置为默认值 "" 的集群,更新的 CCO 会自动从 mint 模式运行,以 passthrough 模式运行。如果您的集群将凭证模式明确设置为 mint 模式("Mint"),则必须将值改为 """Passthrough"

注意

除了 mint 模式所需的 Contributor 角色外,修改后的应用程序注册服务主体现在还需要用于 passthrough 模式的 User Access Administrator 角色。

虽然 Azure AD Graph API 仍然可用,但升级版 OpenShift Container Platform 的 CCO 会尝试清理之前 mint 的应用注册服务主体。在 Azure AD Graph API 之前升级集群可能会避免需要手动清理资源。

如果在 Azure AD Graph API 停用后,集群被升级到一个不再支持 mint 模式的 OpenShift Container Platform 版本,CCO 会在关联的 CredentialsRequest 上设置 OrphanedCloudResource 条件,但不会将相关错误视为是致命(fatal)错误。该条件包括与 unable to clean up App Registration / Service Principal: <app_registration_name> 类似的消息。在 Azure AD Graph API 停用后,清理需要使用 Azure CLI 工具或 Azure Web 控制台手动删除剩余的应用程序注册服务主体。

要手动清理资源,您必须找到并删除受影响的资源。

  1. 使用 Azure CLI 工具,通过运行以下命令从 OrphanedCloudResource 条件消息过滤使用 <app_registration_name> 的应用程序注册服务主体:

    $ az ad app list --filter "displayname eq '<app_registration_name>'" --query '[].objectId'

    输出示例

    [
      "038c2538-7c40-49f5-abe5-f59c59c29244"
    ]

  2. 运行以下命令来删除应用程序注册服务主体:

    $ az ad app delete --id 038c2538-7c40-49f5-abe5-f59c59c29244
注意

在手动清理资源后,OrphanedCloudResource 条件会保留,因为 CCO 无法验证资源是否已清理。

1.6. 程序错误修复

裸机硬件置备
  • 在以前的版本中,当将 provisioning 网络从 Disabled 切换到 Managed 时,不支持使用 MAC 地址配置置备网络接口。在这个版本中,provisioningMacAddresses 字段被添加到 provisioning.metal3.io CRD 中。使用此字段通过其 MAC 地址而不是其名称来标识 provisioning 网络接口。(BZ#2000081)
  • 在以前的版本中,Ironic 无法为置备 SuperMicro X11/X12 服务器附加虚拟介质镜像,因为这些模型需要非标准设备字符串,如 UsbCd,用于基于 CD 的虚拟介质。在这个版本中,置备会覆盖在基于 CD 的虚拟介质置备的 SuperMicro 机器上的 UsbCd。(BZ#2009555)
  • 在以前的版本中,Ironic 无法将虚拟介质镜像附加到 SuperMicro X11/X12 服务器上,因为这些机器的 BMC 上有限制地验证。在这个版本中,如果虚拟介质镜像由本地文件支持,filename 参数已从 URL 中删除。因此,如果镜像由对象存储支持,则参数仍会被传递。(BZ#2011626)
  • 在以前的版本中,机器下载器镜像使用的 curl 工具不支持带有 no_proxy 的无类别域间路由(CIDR)。因此,在下载 Red Hat Enterprise Linux CoreOS(RHCOS)镜像时,任何noProxy 中的 CIDR 都会被忽略。在这个版本中,代理会在适当的时候调用 curl 之前从环境中删除。因此,下载机器镜像时,no_proxy 中的任何 CIDR 不再被忽略。(BZ#1990556)
  • 在以前的版本中,观察了基于 OpenShift Container Platform 的虚拟介质部署,以便在 iDRAC 硬件类型中间歇性失败。当未完成的 Lifecycle Controller 任务与虚拟介质配置请求分离时会出现这种情况。在这个版本中,在部署前注册 iDRAC 硬件时清除任何生命周期控制器作业来解决虚拟介质部署失败。(BZ#1988879)
  • 在以前的版本中,用户需要在安装配置文件中输入较长形式的 IPv6 地址,如 2001:0db8:85a3:0000:0000:8a2e:0370:7334。Ironic 无法找到与这个 IP 地址匹配的接口,从而导致安装失败。在这个版本中,用户提供的 IPv6 地址转换为简短的表单地址,例如 2001:db8:85a3::8a2e:370:7334。现在,安装可以成功。(BZ#2010698)
  • 在此次更新之前,当 Redfish 系统具有 Settings URI 时,Ironic 置备服务总是尝试使用此 URI 来更改引导相关的 BIOS 设置。但是,如果 Baseboard Management Controller (BMC) 带有 Settings URI,但不支持使用此设置 URI 更改特定的 BIOS 设置,裸机置备会失败。在 OpenShift Container Platform 4.10 及更高版本中,如果系统具有 Settings URI,Ironic 会在继续操作前使用 Settings URI 来验证它是否可以更改特定的 BIOS 设置。否则,Ironic 使用 System URI 实现更改。此额外逻辑可确保 Ironic 可以应用与引导相关的 BIOS 设置更改,裸机置备可以成功。(OCPBUGS-6886)
Builds
  • 在此次更新之前,如果您创建了包含 OpenShift Container Platform 4.7.x 或更早版本镜像更改触发器的构建配置,则镜像更改触发器可能会持续触发构建。

    出现这个问题的原因是,在构建 BuildConfig spec 的 BuildConfig spec 中弃用和删除 lastTriggeredImageID 字段时,镜像更改会触发控制器在实例化构建前停止检查该字段。OpenShift Container Platform 4.8 在状态中引入了新字段,需要检查更改触发器控制器,但实际上并没有检查。

    在这个版本中,镜像更改触发器控制器会持续检查最近触发的镜像 ID 的 spec 和状态中的正确字段。现在,它仅在需要时触发构建。(BZ#2004203)

  • 在此次更新之前,Builds 中的镜像引用需要明确指定红帽 registry 名称。在这个版本中,如果镜像引用不包含 registry,则 Build 会搜索 Red Hat registry 和其他已知 registry 以查找镜像。(BZ#2011293)
Jenkins
  • 在此次更新之前,当 Jenkins 通知与 OpenShift Jenkins 管道构建策略配置关联的新作业时,OpenShift Jenkins 同步插件版本 1.0.48 会有一个 NullPointerException 错误。最终,这个错误是良性的,因为没有 BuildConfig 对象与传入的 Jenkins 任务关联。核心 Jenkins 忽略了我们的插件中的异常并移到下一个监听器。但是,在 Jenkins 日志中会显示大量的堆栈跟踪信息,这会干扰用户找到需要的信息。在这个版本中,插件通过进行正确的检查来避免这个错误和后续的堆栈追踪来解决这个问题。(BZ#2030692)
  • 在此次更新之前,OpenShift Sync Jenkins 插件的版本 1.0.48 中的性能会错误地指定用于映射到 Jenkins Kubernetes 插件 Pod 模板的 ConfigMapImageStream 对象的标签。因此,插件不再从带有 jenkins-agent 标签的 ConfigMapImageStream 对象中导入 pod 模板。

    在这个版本中,修正了接受的标签规格,以便插件从具有 jenkins-agent 标签的 ConfigMapImageStream 对象中导入 pod 模板。(2034839)

Cloud Compute
  • 在以前的版本中,在 Red Hat OpenStack Platform(RHOSP)上编辑机器规格会导致 OpenShift Container Platform 尝试删除并重新创建机器。因此,这会导致它所托管的节点造成不可恢复的丢失。在这个版本中,创建后对机器规格所做的任何编辑都会被忽略。(BZ#1962066)
  • 在以前的版本中,在 Red Hat OpenStack Platform(RHOSP)上运行的集群上,机器对象不会报告浮动 IP 地址。因此,kubelet 创建的证书签名请求(CSR)没有被接受,从而导致节点无法加入集群。现在,为机器对象报告所有 IP 地址。(BZ#2022627)
  • 以前的版本中,用于确保 AWS 机器在重新排队列前没有被更新的检查被删除。因此,当 AWS 虚拟机被删除时,但其对象仍然可用时,就可能出现问题。如果发生这种情况,AWS 机器将在无限循环中重新排队,且无法删除或更新。在这个版本中,恢复了用来确保 AWS 机器在重新排队前没有被更新的检查。因此,如果机器已经更新,机器将不再重新排序。(BZ#2007802)
  • 在以前的版本中,修改选择器会改变机器集观察的机器列表。因此,可能会出现泄漏问题,因为机器集丢失了它已经创建的机器。此更新可确保创建后选择器不可变。因此,机器集现在会列出正确的机器。(BZ#2005052)
  • 在以前的版本中,如果虚拟机模板有快照,因为 linkedClone 操作使用了不正确的磁盘大小,造成选择不正确的磁盘大小。在这个版本中,所有情况都会将默认克隆操作更改为 fullClonelinkedClone 现在必须由用户指定。(BZ#2001008)
  • 在以前的版本中,自定义资源定义(CRD)模式的要求不允许使用数字值。因此,在升级过程中会发生错误。在这个版本中,修正了模式的要求,现在允许使用字符串和数值。因此,API 服务器转换不再报告 marshaling 错误。(BZ#1999425)
  • 在以前的版本中,如果 Machine API Operator 已被移动,或者因为名称而部署 pod,MachineNotYetDeleted 指标将为每个受监控的机器重置。在这个版本中,更改指标查询以忽略源 pod 标签。现在,MachineNotYetDeleted 指标在 Machine API Operator Pod 被重新命名的情况下可以正确地发出警报。(BZ#1986237)
  • 在以前的版本中,vSphere 上的出口 IP 由 kubelet 中的 vSphere 云供应商获取。对于证书签名请求(CSR)批准者,这些是意外的。因此,具有出口 IP 的节点不会批准其 CSR 续订。在这个版本中,CSR 批准员可以考虑出口 IP。因此,在 vSphere SDN 集群上具有出口 IP 的节点现在可以继续正常工作,并具有有效的 CSR 续订。(BZ#1860774)
  • 在以前的版本中,worker 节点无法启动,安装程序无法生成 URL 镜像。造成这个问题的原因是,磁盘镜像的路径默认和 Google Cloud Platform(GCP) SDK 中做的一些变换不兼容。因此,机器控制器无法创建机器。在这个版本中,通过更改 GCP SDK 中的基本路径修复了 URL 镜像的问题。(BZ#2009111)
  • 在以前的版本中,因为 vCenter 的 powerOff 任务中的延迟,机器在删除过程中会停滞。VMware 显示了要关闭的机器,但 OpenShift Container Platform 会报告它被开机,这会导致在删除过程中出现机器释放。在这个版本中,可以在创建数据库的任务前检查 vSphere 上的 powerOff 任务处理,这会阻止机器在删除过程中释放。(BZ#2011668)
  • 安装或更新 OpenShift Container Platform 后,指标的值会在处理最后一个 CSR 后显示一个待处理的 CSR。这会导致在不应有待处理的 CSR 时报告一个待处理的 CSR。在这个版本中,通过更新每个协调循环末尾的指标,确保待处理的 CSR 计数始终为有效的 post-approval。(BZ#2013528)
  • 在以前的版本中,当 cloud-provider 标志被设置为空字符串时,AWS 会检查凭证。通过调用元数据服务来检查凭证,即使在非 AWS 平台上也是如此。这会导致在 ECR 供应商启动和 AWS 凭证错误中记录所有平台(包括非 AWS)中的延迟。在这个版本中,凭证检查不再对元数据服务发出请求,以确保不再记录凭证错误。(BZ#2015515)
  • 在以前的版本中,Machine API 有时会在 AWS 在 API 中创建虚拟机前协调机器。因此,AWS 报告虚拟机不存在,Machine API 认为虚拟机失败。在这个版本中,Machine API 在尝试将机器标记为置备前会等待 AWS API 已同步。(BZ#2025767)
  • 在以前的版本中,在 UPI 集群中同时创建的大量节点可能会导致生成大量 CSR。因此,证书续订不是自动的,因为批准员会在有 100 个待处理证书请求时停止批准证书。在这个版本中,在计算批准 cut-off 和 UPI 集群时,现有节点可以被考虑,即使具有大规模刷新请求,也可从自动化证书续订中受益。(BZ#2028019)
  • 在以前的版本中,生成的在 Machine API 控制器中嵌入的实例类型列表已过时。其中一些实例类型未知,无法为 scale-from-zero 要求标注。在这个版本中,生成的列表被更新,以包含对较新的实例类型的支持。(BZ#2040376)
  • 在以前的版本中,AWS Machine API 控制器没有设置 IO1 类型的块设备 IOPS 值,从而导致 GP3 块设备的 IOPS 字段被忽略。在这个版本中,对所有支持的块设备类型设置 IOPS,用户可以为附加到机器的块设备设置 IOPS。(BZ#2040504)
Cloud Credential Operator
  • 在以前的版本中,当在 Azure 集群上以手动模式使用 Cloud Credential Operator 时,Upgradeable 的状态为 False。这个行为在其他平台会有所不同。在这个版本中,在手动模式中使用 Cloud Credential Operator 的 Azure 集群会将 Upgradeable 设置为 False。(BZ#1976674)
  • 在以前的版本中,现在由 Cloud Credential Operator 创建的 controller-manager-service 服务资源仍然存在。在这个版本中,Cluster Version Operator 会清理它。(BZ#1977319)
  • 在以前的版本中,忽略 CredentialsRequest 自定义资源中的 Cloud Credential Operator 的日志级别设置。在这个版本中,可以通过编辑 CredentialsRequest 自定义资源来控制日志记录详细程度。(BZ#1991770)
  • 在以前的版本中,当 AWS 是 Red Hat OpenStack Platform(RHOSP)的默认 secret 时,Cloud Credential Operator(CCO)pod 会重启并带有持续错误。在这个版本中,CCO pod 的默认设置被修复,并防止 CCO pod 失败。(BZ#1996624)
Cluster Version Operator
  • 在以前的版本中,pod 可能会因为不是清单一部分的无效挂载请求而无法启动。在这个版本中,Cluster Version Operator(CVO)从清单中不包含的集群资源中删除所有卷和卷挂载。这允许 pod 成功启动。(BZ#2002834)
  • 在以前的版本中,当轮转监控证书时,Cluster Version Operator(CVO)会记录错误并监控无法查询指标,直到 CVO pod 手动重启为止。在这个版本中,CVO 监控证书文件,并在证书文件更改时自动重新创建指标连接。(BZ#2027342)
控制台存储插件
  • 在以前的版本中,当置备持久性卷(PV)且容量为 0 TiB 时,不会出现载入提示,这会产生混淆的情况。在这个版本中,为载入状态添加了一个加载程序,它会在 PV 仍然被置备或容量来决定时为用户提供详情。它还会告知用户进程中的任何错误。(BZ#1928285)
  • 在以前的版本中,特定位置中的语法不正确,存在转换器无法解释上下文的实例。这对可读性有负面影响。在这个版本中,各种位置中的语法已被修正,转换器的存储类会项目化,总体可读性有所改进。(BZ#1961391)
  • 在以前的版本中,当按块池页面中的池时,最终的 Ready 阶段会在删除后保留。因此,即使删除后池也会处于 Ready 状态。此更新会将用户重定向到 页面,并在创建后刷新池。(BZ#1981396)
域名系统(DNS)
  • 在以前的版本中,DNS Operator 不会缓存来自使用 spec.servers 配置的上游解析器的响应。在这个版本中,DNS Operator 会缓存来自所有上游服务器的响应。(BZ#2006803)
  • 在以前的版本中,DNS Operator 不会在服务器块中为自定义上游解析器启用 prometheus pug-in。因此,CoreDNS 不会报告上游解析器的指标,而只报告默认服务器块的指标。在这个版本中,DNS Operator 被修改为在所有服务器块中启用 prometheus 插件。CoreDNS 现在为自定义上游解析器报告 Prometheus 指标。(BZ#2020489)
  • 在以前的版本中,提供大于 512 个字符的响应的上游 DNS 会导致应用程序失败。这是因为无法从 GitHub 克隆存储库,因为无法解析到 DNS。在这个版本中,KNI CoreDNS 的 bufsize 设置为 521,以避免来自 GitHub 的名称解析。(BZ#1991067)
  • 当 DNS Operator 协调其操作对象时,Operator 会从 API 获取集群 DNS 服务对象,以确定 Operator 需要创建或更新服务。如果服务已存在,Operator 会将其与 Operator 期望的内容进行比较,以确定是否需要更新。Kubernetes 1.22 基于 OpenShift Container Platform 4.9,为服务引入了一个新的 spec.internalTrafficPolicy API 字段。在创建服务时,Operator 会保留此字段为空,但 API 为此字段设置默认值。Operator 会观察到这个默认值,并尝试将字段更新为空值。这会导致 Operator 更新逻辑不断尝试恢复为服务内部流量策略的 API 设置的默认值。在这个版本中,当比较服务来确定是否需要更新时,Operator 现在会将 spec.internalTrafficPolicy 的空值和默认值视为相等。因此,当 API 为服务的 spec.internalTrafficPolicy 字段 设置默认值时,Operator 不再意外地尝试更新集群 DNS 服务。(BZ#2002461)
  • 在以前的版本中,DNS Operator 没有为 CoreDNS Corefile 配置映射中的服务器块启用缓存插件,对应于 dnses.operator.openshift.io/default 对象的 spec.servers 字段中的条目。因此,CoreDNS 不会缓存来自使用 spec.servers 配置的上游解析器的响应。在这个版本中,DNS Operator 被修改为为所有服务器块启用缓存插件,使用与 Operator 为默认服务器块配置的相同参数。CoreDNS 现在缓存来自所有上游解析器的响应。(BZ#2006803)
镜像 Registry
  • 在以前的版本中,registry 内部解析了 \docker.io 引用 \registry-1.docker.io,并使用它来存储凭证。因此,\docker.io 镜像的凭据无法找到。在这个版本中,\registry-1.docker.io 主机名在搜索凭证时改回到 \docker.io。因此,registry 可以正确地查找 \docker.io 镜像 的凭据。(BZ#2024859)
  • 在以前的版本中,镜像修剪器作业不会在失败时重试。因此,在下一次运行时,单个失败可能会降级 Image Registry Operator。在这个版本中,pruner 的临时问题不会降级 Image Registry Operator。(BZ#2051692)
  • 在以前的版本中,Image Registry Operator 是修改 informer 中的对象。因此,这些对象可以被 informer 并发修改,并导致竞争条件。在这个版本中,控制器和通知程序有不同的对象副本,且没有竞争条件。(BZ#2028030)
  • 在以前的版本中,TestAWSFinalizerDeleteS3Bucket 可能会因为 Image Registry Operator 中的配置对象位置存在问题。在这个版本中,确保配置对象存储在正确的位置。因此,在运行 TestAWSFinalizerDeleteS3Bucket 时,Image Registry Operator 不再 panic。(BZ#2048443)
  • 在以前的版本中,错误处理导致 访问被拒绝 的错误作为 身份验证需要 的输出。这个程序错误会导致错误日志不正确。通过 Docker 分发错误处理,错误输出已从 authentication required 改为 access denied。现在,访问拒绝 的错误提供更精确的错误日志。(BZ#1902456)
  • 在以前的版本中,registry 会立即在关闭请求退出。因此,路由器没有时间可以发现 registry Pod 已消失,并可向它发送请求。在这个版本中,当 pod 被删除时,它会多活跃额外几秒钟时间,为其他组件提供发现其删除的时间。现在,路由器不会在升级过程中向不存在的 pod 发送请求,这不再会造成中断。(BZ#1972827)
  • 在以前的版本中,registry 会代理来自第一个可用的镜像 registry 中的响应。当镜像 registry 可用但没有请求的数据时,pull-through 也不会尝试使用其他镜像,即使它们包含所需数据。在这个版本中,如果第一个镜像回复了 Not Found,则 pull-through 会尝试其他镜像 registry。现在,pull-through 可发现数据(如果镜像 registry 中存在)。(BZ#2008539)
镜像流
  • 在以前的版本中,镜像策略准入插件无法识别部署配置,特别是可以更新有状态的集合。因此,当使用 resolve-names 注解时,镜像流引用会在部署配置中被取消解析。现在,插件已被更新,使它在部署配置和有状态集中解析注解。因此,镜像流标签会在创建和编辑的部署配置中解析。(BZ#2000216)
  • 在以前的版本中,当更新全局 pull secret 时,现有的 API 服务器 pod pull secret 不会被更新。现在,pull secret 的挂载点已从 /var/lib/kubelet/config.json 文件改为 /var/lib/kubelet 目录。现在,更新的 pull secret 会出现在现有 API 服务器 pod 中。(BZ#1984592)
  • 在以前的版本中,镜像准入插件不会检查部署配置模板中的注解。因此,部署配置模板中的注解无法在副本控制器中处理,它们会被忽略。现在,镜像准入插件会分析部署配置的模板。在这个版本中,镜像准入插件可以识别部署配置及其模板上的注解。(BZ#2032589)
安装程序
  • OpenShift Container Platform Baremetal IPI 安装程序之前使用 install-config 中的主机中定义的第一个节点作为 control plane 节点,而不是过滤具有 master 角色的主机。现在,masterworker 节点的角色在定义时会被识别。(BZ#2003113)
  • 在此次更新之前,可以在 provisioning 网络 CIDR 中设置主机位。这可能导致置备 IP 有所不同,这和预期 IP 地址与 provisioning 网络上的其他 IP 地址冲突。在这个版本中,验证可确保调配网络 CIDR 无法包含主机位。如果置备网络 CIDR 包含主机位,安装程序会停止并记录错误信息。(BZ#2006291)
  • 在以前的版本中,pre-flight 检查没有考虑 Red Hat OpenStack Platform(RHOSP)资源使用率。因此,当利用率而不是配额造成失败时,这些检查会失败并显示不正确的错误消息。现在,pre-flight 检查同时处理 RHOSP 配额和使用情况。如果配额足够但资源不足,则检查失败并带有正确的错误消息。(BZ#2001317)
  • 在此次更新之前,oVirt Driver 可以在从配置文件创建 PVC 时指定 ReadOnlyMany(ROX)和 ReadWriteMany(RWX)访问模式。这会导致错误,因为驱动程序不支持共享磁盘,因此不支持这些访问模式。在这个版本中,访问模式仅限于单一节点访问。系统可防止在创建 PVC 时尝试指定 ROX 或 RWX,并记录错误消息。(BZ#1882983)
  • 在以前的版本中,Terraform 供应商中的磁盘上传没有被正确处理。因此,OpenShift Container Platform 安装程序会失败。在这个版本中,磁盘上传处理已被修复,磁盘上传会成功。(BZ#1917893)
  • 在以前的版本中,当安装带有特殊大小的 Microsoft Azure 集群时,安装程序会检查虚拟 CPU(vCPU)总数是否满足部署集群所需的最小资源要求。因此,这可能导致安装错误。在这个版本中,检查安装程序从 vCPU 总数到可用 vCPU 的数量改变。因此,给出一个简明的错误消息,可让 Operator 知道虚拟机大小不符合最低资源要求。(BZ#2025788)
  • 在以前的版本中,Red Hat OpenStack Platform(RHOSP)的 RAM 验证使用错误单元检查了值,因此验证接受的类别不符合最小 RAM 要求。在这个版本中,RAM 验证会拒绝 RAM 不足的类别。(BZ#2009699)
  • 在以前的版本中,当 OpenShift Container Platform control plane 节点可以调度并部署到 Red Hat OpenStack Platform(RHOSP)时,OpenShift Container Platform control plane 节点缺少 Ingress 安全组规则。因此,对于没有专用 worker 的紧凑集群,RHOSP 上的 OpenShift Container Platform 部署会失败。在这个版本中,在 control plane 节点可以调度时,在 Red Hat OpenStack Platform(RHOSP)上添加了 Ingress 安全组规则。现在,您可以在 RHOSP 上部署紧凑的三节点集群。(BZ#1955544)
  • 在以前的版本中,如果您指定了无效的 AWS 区域,安装程序会继续尝试并验证可用区。这会导致安装程序在超时前有 60 分钟的无响应状态。安装程序现在在可用区前验证 AWS 区域和服务端点,这减少了安装程序报告错误的时间。(BZ#2019977)
  • 在以前的版本中,如果 vCenter 主机名以数字开头,则无法将集群安装到 VMware vSphere。安装程序已更新,不再将这类主机名视为无效。现在,当 vCenter 主机名以数字开头时,集群会成功部署。(BZ#2021607)
  • 在以前的版本中,如果您在 Microsoft Azure 上部署集群时指定了自定义磁盘实例类型,集群可能无法部署。这是因为安装程序错误地决定满足最低资源要求。安装程序已更新,现在在所选区域中实例类型的 vcpus 数量没有满足最低资源要求时报告错误。(BZ#2025788)
  • 在以前的版本中,如果您在部署 AWS 集群时定义了自定义 IAM 角色,则必须在卸载集群后手动删除 bootstrap 实例配置集。在有些情况下,安装程序不会删除 bootstrap 实例配置集。安装程序已更新,在卸载集群时,所有机器实例配置集都会被删除。(BZ#2028695)
  • 在以前的版本中,当置备网络 CIDR 中设置主机位时,默认的 provisioningIP 值会有所不同。这会导致 provisioningIP 的值与预期不同。这种差异会导致与 provisioning 网络中的其他 IP 地址冲突。在这个版本中,添加了一个验证,以确保 ProvisioningNetworkCIDR 没有设置主机位。因此,如果 ProvisioningNetworkCIDR 设置了主机位,安装程序会停止并报告验证错误。(BZ#2006291)
  • 在以前的版本中,安全 UEFI 引导不支持 BMC 驱动程序 IPMI。这会导致引导失败。在这个版本中,添加了一个验证检查,以确保 UEFISecureBoot 模式没有用于裸机驱动程序。因此,安全 UEFI 引导可以成功。(BZ#2011893)
  • 在这个版本中,4.8 UPI 模板从版本 3.1.0 更新至 3.2.0,以匹配 Ignition 版本。(BZ#1949672)
  • 在以前的版本中,当要求镜像基本 registry 的内容时,OpenShift Container Platform 安装程序将以验证错误退出,协调 imageContentSources 不正确的 install-config 文件大小。在这个版本中,安装程序允许 imageContentSources 值指定基本 registry 名称,安装程序在指定基本 registry 名称时不再退出。(BZ#1960378)
  • 在以前的版本中,UPI ARM 模板将 SSH 密钥附加到创建的虚拟机(VM)实例。因此,当用户提供的 SSH 密钥是 ed25519 类型时,虚拟机的创建会失败。在这个版本中,无论用户提供的 SSH 密钥类型,虚拟机创建都会成功。(BZ#1968364)
  • 成功创建 aws_vpc_dhcp_options_association 资源后,AWS 可能仍会报告该资源不存在。因此,AWS Terraform 供应商将无法安装。在这个版本中,您可以在创建时间段内重试 aws_vpc_dhcp_options_association 资源的查询,直到 AWS 报告存在资源存在。因此,虽然 AWS 报告 aws_vpc_dhcp_options_association 资源不存在,安装仍会成功。(BZ#2032521)
  • 在以前的版本中,当在启用了本地区的 AWS 上安装 OpenShift Container Platform 时,安装程序可能会在本地区而不是可用区中创建某些资源。这会导致安装程序失败,因为负载均衡器无法在本地区中运行。在这个版本中,安装程序会忽略本地区,且仅在安装集群组件时考虑可用域。(BZ#1997059)
  • 在以前的版本中,terraform 可以在创建配置文件前尝试将 bootstrap ignition 配置文件上传到 Azure。如果在创建文件之前启动上传,安装将失败。在这个版本中,terraform 将 ignition 配置文件直接上传到 Azure,而不是首先创建本地副本。(BZ#2004313)
  • 在以前的版本中,如果 cluster-bootstrap 和 Cluster Version Operator 组件同时试图为同一资源写入 Kubernetes API,则可能会出现竞争条件。这可能会导致 身份验证 资源被默认副本覆盖,后者删除了对该资源所做的任何自定义。在这个版本中,Cluster Version Operator 会阻止覆盖来自安装程序的清单。这可防止对 Authentication 资源的任何用户指定的自定义都会被覆盖。(BZ#2008119)
  • 在以前的版本中,当在 AWS 上安装 OpenShift Container Platform 时,安装程序使用 m5.large 实例类型创建 bootstrap 机器。这会导致安装在实例类型不可用的区域失败。在这个版本中,bootstrap 机器使用与 control plane 机器相同的实例类型。(BZ#2016955)
  • 在以前的版本中,当在 AWS 上安装 OpenShift Container Platform 时,安装程序无法识别 EC2 G 和 Intel Virtualization Technology(VT)实例,并将其默认转换为 X 实例。这会导致实例配额应用到这些实例。在这个版本中,安装程序会识别 EC2 G 和 VT 实例,并应用正确的实例配额。(BZ#2017874)
Kubernetes API 服务器
Kubernetes 调度程序
  • 在此次更新之前,升级到当前的发行版本没有为 TaintandTolerationNodeAffinityInterPodAffinity 参数设置正确的权重。在这个版本中解决了这个问题,升级可以正确地将 TaintandToleration 的权重设置为 3NodeAffinity2,并将 InterPodAffinity 设置为 2。(BZ#2039414)
  • 在 OpenShift Container Platform 4.10 中,提供不安全指标的代码已从 kube-scheduler 代码库中删除。现在,指标仅通过安全服务器提供。错误修复和支持将在以后的生命周期结束时提供。之后,不会进行新的功能增强。(BZ#1889488)
Machine Config Operator
  • 在以前的版本中,Machine Config Operator(MCO)会在应用操作系统(OS)更改前,将待处理的配置更改保存到磁盘。因此,在电源丢失的情况下,MCO 假设的操作系统更改已在重启时应用,并通过 kargskernel-rt 等更改跳过验证。在这个版本中,在操作系统更改后保存对磁盘配置更改。现在,如果在配置应用程序过程中丢失电源,MCO 知道它必须在重启时重试配置应用程序。(BZ#1916169)
  • 在以前的版本中,baremetal-runtimecfg 项目中的 Kubernetes 客户端程序库无法及时关闭客户端连接。这可能会导致监控依赖 API 的容器的延迟时间。在这个版本中,可以在 VIP 故障转移后及时关闭客户端连接。(BZ#1995021)
  • 在以前的版本中,当更新 SSH 密钥时,Machine Config Operator(MCO)将 authorized_keys 文件的所有者和组改为 root。在这个版本中,在更新 authorized_keys 文件时,MCO 会保留 core 作为所有者和组。(BZ#1956739)
  • 在以前的版本中,clone_slave_connection 函数发送的警告信息被错误地存储在 new_uuid 变量中,它应该只存储连接的 UUID。因此,包含 new_uuid 变量的 nmcli 命令可能会因为将不正确的值存储在 new_uuid 变量中而失败。在这个版本中,clone_slave_connection 功能警告消息会被重定向到 stderr。现在,用于引用 new_uuid 变量的 nmcli 命令不会失败。(BZ#2022646)
  • 在以前的版本中,baremetal-runtimecfg 项目中有 Kubernetes 客户端库的旧版本。当虚拟 IP(VIP)失败时,可能无法及时关闭客户端连接。这可能会导致对依赖与 API 通信的容器进行长时间延迟。在这个版本中更新了客户端库。现在,在 VIP 故障转移中预期连接会关闭,而监控容器在一段时间内不会挂起。(BZ#1995021)
  • 在此次更新之前,Machine Config Operator(MCO)会在将待处理的配置更改应用到 Red Hat Enterprise Linux CoreOS(RHCOS)之前将其保存到磁盘。如果电源丢失导致 MCO 应用配置中断,它将被视为已应用且没有验证更改。如果此配置包含无效更改,应用会失败。在这个版本中,MCO 只有在应用后才会将配置保存到磁盘。这样,如果在 MCO 应用配置时电源丢失,它会在重启后获取配置。(BZ#1916169)
  • 在此次更新之前,当使用 Machine Config Operator(MCO)创建或更新 SSH 密钥时,它会将 authorized_keys 文件的所有者和组设置为 root。这个版本解决了这个问题。当 MCO 创建或更新 authorized_keys 文件时,它会正确设置或保留 core 作为文件的所有者和组。(BZ#1956739)
  • 在以前的版本中,在使用无状态 Address AutoConfiguration(SLAAC)的集群中,Ironic addr-gen-mode 参数不会被保留到 OVNKubernetes 网桥。因此,在创建网桥时 IPv6 地址可能会改变。这会破坏集群,因为不支持节点 IP 更改。在这个版本中,在创建网桥时会保留 addr-gen-mode 参数。该 IP 地址现在在整个部署过程中一致。(BZ#1990625)
  • 在以前的版本中,如果机器配置包含了一个压缩文件,且 spec.config.storage.files.contents.compression 参数设置为 gzip,Machine Config Daemon(MCD)会错误地将压缩文件写入磁盘而不提取它。在这个版本中,当压缩参数设置为 gzip 时,MCD 现在提取压缩文件。(BZ#1970218)
  • 在以前的版本中,只有在完全删除时才清理 systemd 单元。因此,systemd 单元无法使用机器配置取消屏蔽,因为掩码不会被删除,除非 systemd 单元已完全删除。在这个版本中,当您在机器配置中将 systemd 单元配置为 mask: true 时,任何现有掩码都会被删除。现在,systemd 单元可以被取消屏蔽。(BZ#1966445)
管理控制台
  • 在以前的版本中,OperatorHub 类别和卡链接不包括有效的 href 属性。因此,OperatorHub 类别和卡链接无法在新标签页中打开。在这个版本中,OperatorHub 类别和卡链接中添加有效的 href 属性。因此,OperatorHub 及其卡链接可在新标签页中打开。(BZ#2013127)
  • 在以前的版本中,在 Operand Details 页面中,会创建一个特殊情况,其中 status.conditions 属性的条件表总是出现在所有其他表前。因此,status.conditions 表没有遵循描述符顺序规则,这会导致用户在尝试更改表顺序时造成意外行为。在这个版本中,删除了 status.conditions 的特殊问题单,只有在没有为该属性定义描述符时,才会首先渲染它。因此,当描述符在那个属性上定义了描述符时,status.condition 的表会根据描述符排序规则呈现。(BZ#2014488)
  • 在以前的版本中,Resource Details 页面指标标签页超过集群范围的 Thanos 端点。因此,没有此端点授权的用户将收到所有查询的 401 响应。在这个版本中,Thanos 租期端点会被更新,并会删除冗余命名空间查询参数。因此,具有正确基于角色的访问控制(RBAC)权限的用户现在可以在 Resource Details 页面的 metrics 选项卡中看到数据。(BZ#2015806)
  • 在以前的版本中,当 Operator 在现有 API 组中添加 API 时,它不会触发 API 发现。因此,在页面被刷新前,前端不会看到新的 API。在这个版本中,Operator 通过前端添加 API 而无需页面刷新。(BZ#1815189)
  • 在以前的版本中,在 Red Hat OpenStack Platform(RHOSP)的 Red Hat OpenShift Cluster Manager 中,control plane 没有被翻译为简体中文。因此,命名与 OpenShift Container Platform 文档不同。在这个版本中,Red Hat OpenShift Cluster Manager 中的翻译问题已被修复。(BZ#1982063)
  • 在以前的版本中,Red Hat OpenShift Cluster Manager 中的虚拟表过滤无法正常工作。因此,在一个搜索后所有可用的节点不会出现。这个版本包括新的虚拟表逻辑,修复了 Red Hat OpenShift Cluster Manager 中的过滤问题。(BZ#1990255)
监控
  • 在以前的版本中,在 OpenShift Container Platform 升级过程中,Prometheus 服务可能会不可用,因为两个 Prometheus pod 位于同一节点上,或运行 pod 的两个节点同时重启。这是因为 Prometheus pod 在节点放置方面具有软反关联性规则,且没有置备 PodDisruptionBudget 资源。因此,指标不会被收集,不会在一段时间内评估规则。

    要解决这个问题,Cluster Monitoring Operator(CMO)现在配置硬反关联性规则,以确保将两个 Prometheus pod 调度到不同的节点上。CMO 还置备 PodDisruptionBudget 资源,以确保至少有一个 Prometheus pod 始终在运行。因此,在升级过程中,节点现在按顺序重新引导,以确保至少有一个 Prometheus pod 始终在运行。(BZ#1933847)

  • 在以前的版本中,当包含两个 Thanos Ruler pod 的节点遇到中断时,Thanos Ruler 服务将不可用。这是因为 Thanos Ruler pod 只针对节点放置有软反关联性规则。因此,在节点重新上线前,不会评估用户定义的规则。

    在这个版本中,Cluster Monitoring Operator(CMO)现在会配置硬反关联性规则,以确保将两个 Thanos Ruler pod 调度到不同的节点上。因此,单节点中断不再会在用户定义的规则评估中造成差距。(BZ#1955490)

  • 在以前的版本中,当两个 Prometheus pod 位于同一节点上时,Prometheus 服务将不可用,且节点会出现停机的情况。这是因为 Prometheus pod 只针对节点放置有软反关联性规则。因此,指标不会被收集,在节点恢复在线之前不会评估规则。

    在这个版本中,Cluster Monitoring Operator 配置硬反关联性规则,以确保两个 Prometheus pod 调度到不同的节点上。现在,Prometheus pod 被调度到不同的节点上,单个节点中断不再会在监控时造成一个差距。(BZ#1949262)

  • 在以前的版本中,在 OpenShift Container Platform 补丁升级过程中,Alertmanager 服务可能会不可用,因为三个 Alertmanager pod 位于同一节点上,或者运行 Alertmanager pod 的节点会同时重启。这种情况是可能的,因为 Alertmanager pod 在节点放置方面具有软反关联性规则,且没有置备 PodDisruptionBudget。此发行版本启用了硬反关联性规则和 PodDisruptionBudget 资源,以确保在为 Alertmanager 和其他监控组件的补丁升级过程中不会停机。(BZ#1955489)
  • 在以前的版本中,当文件系统空间被很多 Docker 镜像占用时,会触发一个假的 NodeFilesystemSpaceFillingUp 警报。在本发行版本中,触发 NodeFilesystemSpaceFillingUp 警告警报的阈值现在被减少到 20% 的可用空间,而不是 40%,这会防止触发假警报。(BZ#1987263)
  • 在以前的版本中,Prometheus Operator 组件的警报不适用于启用用户定义的监控时运行 openshift-user-workload-monitoring 命名空间的 Prometheus Operator。因此,当管理 openshift-user-workload-monitoring 命名空间遇到问题的 Prometheus Operator 时,不会触发警报。

    在这个版本中,修改了警报来监控 openshift-monitoringopenshift-user-workload-monitoring 命名空间。因此,当管理用户定义的监控遇到问题的 Prometheus Operator 时,集群管理员会收到警报通知。(BZ#2001566)

  • 在以前的版本中,如果 node-exporter 代理的 DaemonSet pod 数量与集群中的节点数量不同,Cluster Monitoring Operator(CMO)会报告一个 degraded 条件。当其中一个节点没有处于 ready 条件时,会出现此问题。

    此发行版本现在会验证 node-exporter 代理的 DaemonSet pod 数量是否小于集群中的就绪节点的数量。此过程可确保 node-exporter pod 在每个活跃节点上运行。因此,如果其中一个节点没有处于 ready 状态,CMO 不会报告降级条件。(BZ#2004051)

  • 此发行版本解决了这个问题,监控堆栈中的一些 pod 会在与 TLS 证书相关的资源存在前启动,这会导致失败并重启。(BZ#2016352)
  • 在以前的版本中,如果因为达到配置的示例限制而报告指标失败,指标目标仍会在 web 控制台 UI 中出现 Up 状态,即使缺少指标。在这个版本中,Prometheus 会绕过报告指标的示例限制设置,指标现在显示在示例限制设置中。(BZ#2034192)
网络
  • 当在 4.8 之前的 OpenShift Container Platform 版本中使用 OVN-Kubernetes 网络供应商时,节点路由表用于路由决策。在较新版本的 OpenShift Container Platform 中,会绕过主机路由表。在这个发行版本中,您可以指定是否要使用或绕过主机内核网络堆栈进行流量路由决策。(BZ#1996108)
  • 在以前的版本中,当使用带有代理的受限安装中使用 Kuryr 时,Cluster Network Operator 不会被强制使用代理来允许与 Red Hat OpenStack Platform(RHOSP)API 的通信。因此,集群安装不会进行。在这个版本中,Cluster Network Operator 可以通过代理与 RHOSP API 通信。现在,安装可以成功。(BZ#1985486)
  • 在此次更新之前,SRIOV 会阻止在 Red Hat OpenStack Platform(RHOSP)环境中的 OpenShift Container Platform 上创建网络策略。在这个版本中,SRIOV 会读取并验证 RHOSP 元数据,现在可以使用它创建网络策略。(BZ#2016334)
  • 在以前的版本中,MachineConfig 对象无法更新,因为 SRIOV Operator 不会暂停 MachineConfig 池对象。在这个版本中,SRIOV Operator 在运行需要重启的配置前会暂停相关的机器配置池。(BZ#2021151)
  • 在以前的版本中,keepalived 会在应该运行时造成终止的时间问题。这个版本可防止在较短的时间内发送多个 keepalived 命令。因此,时间不再是问题,keepalive 持续运行。(BZ#2022050)
  • 在以前的版本中,当使用带有代理的受限安装中使用 Kuryr 时,Cluster Networking Operator 不会被强制使用代理来允许与 Red Hat OpenStack Platform(RHOSP)API 的通信。因此,集群安装不会进行。在这个版本中,Cluster Network Operator 可以通过代理与 RHOSP API 通信。现在,安装可以成功。(BZ#1985486)
  • 在以前的版本中,因为 IP 地址耗尽,使用 Whereabouts Container Network Interface(CNI)插件提供的二级接口的 pod 可能会处于 ContainerCreating 状态。现在,Whereabouts 可以正确地记录从集群事件中释放的 IP 地址(如重启后),之前没有跟踪这些 IP 地址。(BZ#1914053)
  • 在以前的版本中,当使用 OpenShift SDN 集群网络供应商时,闲置服务会使用大量 CPU 资源来取消闲置服务。在本发行版本中,kube-proxy 的闲置代码会被优化,以减少使用服务闲置的 CPU。(BZ#1966521)
  • 在以前的版本中,当使用 OVN-Kubernetes 集群网络供应商时,内部配置映射中存在任何未知字段可能会导致 OVN-Kubernetes pod 在集群升级过程中启动。现在,存在未知字段会导致警告,而不是失败。因此,OVN-Kubernetes pod 现在在集群安装过程中成功启动。(BZ#1988440)
  • 在以前的版本中,SR-IOV Network Operator 的 Webhook 会阻止 OpenStack 上安装 OpenShift 的网络策略。用户无法创建 SR-IOV 网络策略。在这个版本中,webhook 被修复。用户现在可以为 OpenStack 上安装创建 SR-IOV 网络策略。(BZ#2016334)
  • 在以前的版本中,CRI-O 运行时引擎使用 K8S_POD_UID 变量传递 pod UID。但是,当 Multus 为已删除 pod 的沙盒设置网络时,当 pod 被删除并重新创建时,这个方法会导致额外的元数据和不必要的处理。在这个版本中,Multus 处理 pod UID,并避免不必要的元数据处理。(BZ#2017882)
  • 在以前的版本中,在单个节点上部署 OpenShift 时,SR-IOV Network Operator 的默认设置会阻止用户对节点进行修改。默认情况下,在应用配置更改后,受影响的节点会排空,然后使用新配置重启。当只有一个节点时,这个行为无法正常工作。在这个版本中,当您在单节点部署中安装 SR-IOV Network Operator 时,Operator 会更改其配置,以便 .spec.disableDrain 字段设置为 true。用户现在可以在单节点部署中成功应用配置更改。(BZ#2021151)
  • client-go 版本 1.20 及更早版本没有足够技术来重试请求到 Kubernetes API。因此,重试 Kubernetes API 并不够。此次更新解决了通过 client-go 1.22 引入的问题。(BZ#2052062)
节点
  • 在以前的版本中,由 CRI-O 管理的网络、IPC 和 UTS 命名空间资源仅在 Kubelet 删除停止的 pod 时才会释放。在这个版本中,Kubelet 在 pod 停止时释放这些资源。(BZ#2003193)
  • 在以前的版本中,当登录到 worker 节点时,可能会显示信息代表 systemd-coredump 服务失败。这是因为没有为容器包含 system-systemd 命名空间。现在,过滤器可防止这个命名空间影响工作流。(BZ#1978528)
  • 在以前的版本中,当集群重启时,终止的 pod 的状态可能已重置为 Running,这会导致错误。这个问题已被修正,现在所有终止的 pod 都保持被终止,活跃的 pod 反映了其状态。(BZ#1997478)
  • 在以前的版本中,OpenShift Container Platform 中会忽略某些停止信号,从而导致容器中的服务继续运行。随着对信号解析库的更新,现在所有停止信号都会被遵守。(BZ#2000877)
  • 在以前的版本中,当 pod 被删除时,由 CRI-O 管理的 pod 命名空间(如 network、IPC 和 UTS)不会被卸载。这会导致泄漏,将 Open vSwitch CPU 增加到 100%,这会导致 pod 延迟和其他性能影响。这个问题已被解决,在移除时 pod 命名空间会被卸载。(BZ#2003193)
OpenShift CLI (oc)
  • 在以前的版本中,因为集群中安装的自定义资源定义(CRD)数量增加,达到 API 发现的请求会根据客户端代码的限制。现在,限制号和 QPS 已被提高,客户端节流应更频繁出现。(BZ#2042059)
  • 在以前的版本中,有些次要请求没有正确设置用户代理字符串,因此默认的 Go 用户代理字符串被用于 oc。现在,适用于所有镜像请求的用户代理字符串会被正确设置,预期的 oc user agent 字符串现在发送到 registry。(BZ#1987257)
  • 在以前的版本中,oc debug 假设它总是通过尝试运行 Bash shell 来定位基于 Linux 的容器,如果容器中不存在 Bash,则会尝试作为 Windows 容器调试。oc debug 命令现在使用 pod 选择器来决定容器的操作系统,现在可以在 Linux 和基于 Windows 的容器中正常工作。(BZ#1990014)
  • 在以前的版本中,--dry-run 标志在几个 oc set 子命令中无法正确执行,因此 --dry-run=server 会对资源执行更新,而不是执行空运行。--dry-run 标志现在可以在 oc set 子命令上执行空运行。(BZ#2035393)
OpenShift 容器
  • 在以前的版本中,因为缺少策略,使用 SELinux 的容器无法读取 /var/log/containers 日志文件。在这个版本中,/var/log 中的所有日志文件都可访问,包括通过符号链接访问的日志文件。(BZ#2005997)
OpenShift Controller Manager
  • 在以前的版本中,openshift_apps_deploymentconfigs_last_failed_rollout_time 指标错误地将 namespace 标签设置为 exported_namespace 标签的值。openshift_apps_deploymentconfigs_last_failed_rollout_time 指标现在带有正确的 namespace 标签设置。(BZ#2012770)
Operator Lifecycle Manager (OLM)
  • 在此次更新之前,marketplace-operator 的默认目录源不容许污点节点,CatalogSource pod 只有容限的默认设置 nodeSelectorpriorityClassName。在这个版本中,CatalogSource 规格包含可选的 spec.grpcPodConfig 字段,该字段可覆盖 pod 的容限、nodeSelectorpriorityClassName。(BZ#1927478)
  • 在此更新之前,当 OLM Operator 重启时,csv_suceed 指标将会丢失。在这个版本中,csv_succeeded 指标会在 OLM Operator 的启动逻辑的开头发出。(BZ#1927478)
  • 在此次更新之前,oc adm catalog mirror 命令没有为 --max-icsp-size 标志设置最小和最大值。因此,字段可以接受小于零的值,以及非常大的值。在这个版本中,值的大小限制为大于零且小于 250001。此范围之外的值无法通过验证。(BZ#1972962)
  • 在此次更新之前,捆绑镜像没有在基于文件的目录中包含部署 Operator 所需的相关镜像。因此,除非在 ClusterServiceVersion(CSV)的 relatedImages 字段中指定,镜像不会被镜像到断开连接的集群。在这个版本中,opm render 命令在基于文件的目录捆绑包镜像时将 CSV Operator 镜像添加到 relatedImages 文件中。现在,即使它们没有在 CSV 的 relatedImages 字段中列出,Operator 部署所需的镜像也会被镜像到断开连接的集群。(BZ#2002075)
  • 在此次更新之前,Operator 可能需要长达 15 分钟才能执行 skipRange 更新。这是一个已知问题,如果集群管理员在 openshift-operator-lifecycle-manager 命名空间中删除了 catalog-operator pod,则可能解决。这会导致自动重新创建 pod 并触发 skipRange 升级。在这个版本中,Operator Lifecycle Manager(OLM)中修复过时的 API 调用,skipRange 会立即更新触发器。(BZ#2002276)
  • 有时,当 Operator Lifecycle Manager(OLM)从列表缓存修改对象时,集群中的更新事件也会同时发生。这会导致并发映射写入。在这个版本中更新了 OLM,因此它不再修改从 lister 缓存检索的对象。相反,OLM 会修改适用的对象的副本。因此,OLM 不再遇到并发映射写入。(BZ#2003164)
  • 在以前的版本中,Operator Lifecycle Manager(OLM)无法建立到仅可通过代理访问的目录源 pod 的 gRPC 连接。如果目录源 pod 位于代理后面,OLM 无法连接到代理,而托管 Operator 内容无法进行安装。此程序错误修复引入了 GRPC_PROXY 环境变量,它定义了一个 OLM 用来建立到 gRPC 目录源的连接的代理。现在,OLM 可以配置为在连接到 gRPC 目录源时使用代理。(BZ#2011927)
  • 在以前的版本中,未验证跳过的捆绑包是同一软件包的成员。捆绑包可以在软件包之间跳过,这会破坏升级链。此程序错误修复添加了验证,以确保跳过的捆绑包在同一个软件包中。因此,捆绑包无法跳过另一个软件包中的捆绑包,升级图形也不会在软件包间中断。(BZ#2017327)
  • CatalogSource 对象中,RegistryServiceStatus 字段存储了用来生成 Operator Lifecycle Manager(OLM)依赖的地址的服务信息,以与关联的 pod 建立连接。如果 RegistryServiceStatus 字段不是 nil,且缺少其服务的命名空间、名称和端口信息,则 OLM 将无法恢复,直到关联的 pod 无效镜像或 spec。在这个版本中,当协调目录源时,OLM 现在会确保 CatalogSource 对象的 RegistryServiceStatus 字段有效并更新其状态,以反映更改。另外,这个地址存储在目录源的状态中(status.GRPCConnectionState.Address 项)。如果地址改变,OLM 会更新此字段以反映新的地址。因此,目录源的 .status.connectionState.address 字段应该不再是 nil。(BZ#2026343)
OpenShift API 服务器
OpenShift 更新服务
Red Hat Enterprise Linux CoreOS (RHCOS)
  • 在以前的版本中,当 RHCOS live ISO 为其自身添加了 UEFI 引导条目时,它会假定现有的 UEFI 引导条目 ID 会被连续,从而导致 live ISO 在带有 non-consecutive 引导条目 ID 的系统上引导时在 UEFI 固件中失败。在这个版本中,RHCOS live ISO 不再为自己添加 UEFI 引导条目,ISO 可以成功引导。(BZ#2006690)
  • 为了帮助您确定用户提供的镜像是否已引导,在终端控制台中添加信息,描述机器是否置备了 Ignition 配置,以及是否提供用户 Ignition 配置。这可让您验证 Ignition 是否按预期运行。(BZ#2016004)
  • 在以前的版本中,当在置备过程中重复使用现有的静态密钥的 LUKS 卷时,加密密钥无法正确写入磁盘,Ignition 将失败,并显示 "missing persist keyfile" 错误。在这个版本中,Ignition 可以正确地为重复利用的 LUKS 卷写入密钥,以便在置备过程中可以重复使用现有的静态密钥的 LUKS 卷。(BZ#2043296)
  • 在以前的版本中,在将 Red Hat Enterprise Linux CoreOS(RHCOS)节点升级到 4.6.17 时,ostree-finalize-staged.service 会失败。要修复这个问题,sysroot 代码现在忽略 /etc 中任何 irregular 或 non-symlink 文件。(BZ#1945274)
  • 在以前的版本中,initramfs 文件缺少通过附加的 SCSI 设备符号链接的 udev 规则。因此,引用这些符号链接的 Ignition 配置文件会导致引导安装的系统失败。在这个版本中,在 dracut 中添加了 SCSI 规则的 63-scsi-sg3_symlink.rules。(BZ#1990506)
  • 在以前的版本中,在裸机机器上,system-rfkill.serviceostree-remount.service 之间有一个竞争条件。因此,ostree-remount 服务失败,且节点操作系统在引导过程中冻结。在这个版本中,/sysroot/ 目录是只读的。因此,这个问题不再发生。(BZ#1992618)
  • 在以前的版本中,Red Hat Enterprise Linux CoreOS(RHCOS) live ISO 引导会添加 UEFI 引导条目,在带有 TPM 的系统上提示输入重启。在这个版本中,RHCOS live ISO 不再添加 UEFI 引导条目,以便 ISO 在首次引导后不会启动重启。(BZ#2004449)
Performance Addon Operator
  • 如果 spec.cpu.isolatedPerformanceProfile 中定义的唯一参数,则默认情况下,spec.cpu.reserved' 标志可能无法正确设置。您必须在 PerformanceProfile 中为 spec.cpu.reservedspec.cpu.isolated 设置设置。此设置不能相互重叠,提到的所有 CPU 都必须覆盖目标池中 worker 期望的所有 CPU。(BZ#1986681)
  • 在以前的版本中,如果镜像中缺少 gather-sysinfo 二进制文件,oc adm must-gather 工具将无法收集节点数据。这是因为 Dockerfile 中缺少 COPY 语句所致。要避免这个问题,您必须将所需的 COPY 语句添加到 Dockerfile 中来生成并复制二进制文件。(BZ#2021036)
  • 在以前的版本中,Performance Addon Operator 从 registry 下载其镜像,而不检查它是否在 CRI-O 缓存中可用。因此,如果无法到达 registry,或者下载超时,则 Performance Addon Operator 无法启动。在这个版本中,如果无法从 CRI-O 缓存拉取镜像,Operator 只会从 registry 中下载其镜像。(BZ#2021202)
  • 当将 OpenShift Container Platform 升级到 4.10 时,在 tuned 配置集中不会开始的任何注释(#comment)会导致解析错误。Performance Addon Operator 问题可以通过升级到与 OpenShift Container Platform 相同的级别(4.10)来解决。通过在一行中,将所有注释放在一行中,使用 # 字符在行的开头处理与注释相关的错误。(BZ#2059934)
路由
  • 在以前的版本中,如果集群管理员提供的默认入口证书缺少了最坏一行的 newline 字符,OpenShift Container Platform 路由器会为 HAProxy 生成一个已损坏的 PEM 文件。现在,它写入有效的 PEM 文件,即使输入缺少换行符。(BZ#1894431)
  • 在以前的版本中,创建 DNS 片段的 combined name 和 namespace 大于 63 个字符的路由会被拒绝。这个预期的行为可能会导致与升级的 OpenShift Container Platform 版本集成相关的问题。现在,注解允许非格式的 DNS 主机名。允许将 AllowNonDNSCompliantHostAnnotation 设置为 true、非一致性 DNS 主机名或一个大于 63 个字符。(BZ#1964112)
  • 在以前的版本中,当集群的 ControlPlaneTopology 设置为 External 时,Cluster Ingress Operator 不会为 Ingress Controller 创建通配符 DNS 记录。在将 ControlPlaneTopology 设置为 External 且平台是 AWS 的 Hypershift 集群中,Cluster Ingress Operator 不会不可用。当 ControlPlaneTopologyExternal 且平台是 IBM Cloud 时,这个更新限制了 DNS 更新。因此,为 AWS 上运行的 Hypershift 集群创建通配符 DNS 条目。(BZ#2011972)
  • 在以前的版本中,集群入口路由器无法工作,因为 Ingress Operator 无法为 Azure Stack Hub IPI 上的集群入口路由器配置通配符 DNS 记录。在这个版本中,Ingress Operator 使用配置的 ARM 端点在 Azure Stack Hub IPI 上配置 DNS。因此,集群入口路由器现在可以正常工作。(BZ#2032566)
  • 在以前的版本中,集群范围的代理配置无法接受 noProxy 设置的 IPv6 地址。因此,无法安装具有 IPv6 地址的 noProxy 的集群。在这个版本中,Cluster Network Operator 可为集群范围代理资源的 noProxy 设置解析 IPv6 地址。现在,可以为 noProxy 设置排除 IPv6 地址。(BZ#1939435)
  • 在 OpenShift Container Platform 4.8 之前,IngressController API 在 status.endpointPublishingStrategy.hostNetworkstatus.endpointPublishingStrategy.nodePort 字段中没有任何子字段。即使 spec.endpointPublishingStrategy.type 设置为 HostNetworkNodePortService,这些字段也可以为空。在 OpenShift Container Platform 4.8 中,添加了 status.endpointPublishingStrategy.hostNetwork.protocolstatus.endpointPublishingStrategy.nodePort.protocol 子字段,当 Operator admitted 或 re-admitted 一个指定了 "HostNetwork" 或 "NodePortService" 策略类型时为这些子字段设置默认值。但是,Operator 会忽略对这些 spec 字段的更新,将 spec.endpointPublishingStrategy.hostNetwork.protocolspec.endpointPublishingStrategy.nodePort.protocol 更新到 PROXY 以在现有 IngressController 上启用代理协议会无效。要临时解决这个问题,需要删除并重新创建 IngressController 来启用 PROXY 协议。在这个版本中,Ingress Operator 已被修改,当 status.endpointPublishingStrategy.hostNetworkstatus.endpointPublishingStrategy.nodePort 为 null,并且 IngressController spec 指定了代理协议 HostNetworkNodePortService 端点发布策略类型,它可以被正确更新。因此,将 spec.endpointPublishingStrategy.hostNetwork.protocolspec.endpointPublishingStrategy.nodePort.protocol 设置为 PROXY 现在会在升级的集群上正确生效。(BZ#1997226)
Samples
  • 在此次更新之前,如果 Cluster Samples Operator 遇到 APIServerConflictError 错误,它会将 sample-operator 报告为具有 Degraded 状态,直到恢复为止。这个类型的 momentary 错误在升级过程中不会出现异常,但会导致管理员监控 Operator 状态的问题。在这个版本中,如果 Operator 遇到 momentary 错误,它不再指示 openshift-samples 具有 Degraded 状态,并尝试连接到 API 服务器。momentary 变为 Degraded 状态不再会发生。(BZ#1993840)
  • 在此次更新之前,集群镜像配置中的各种允许和阻止的 registry 配置选项可能会阻止 Cluster Samples Operator 创建镜像流。因此,示例 Operator 可能会将自身标记为 degraded,这会影响一般的 OpenShift Container Platform 安装和升级状态。

    在各种情况下,Cluster Samples Operator 的管理状态可变为 Removed。在这个版本中,这些情况包括在镜像控制器配置参数时,无法使用默认镜像 registry 或 samplesRegistry 设置指定的镜像 registry 创建镜像流。Operator 状态现在还表示集群镜像配置会阻止创建示例镜像流。(BZ#2002368)

存储
  • 在以前的版本中,由于 10 秒的延迟,Local Storage Operator(LSO)需要很长时间来删除孤立的持久性卷(PV)。在这个版本中,LSO 不使用 10 秒的延迟,PV 会提示您删除,本地磁盘将更快提供给新的持久性卷声明。(BZ#2001605)
  • 在以前的版本中,Manila 错误处理会降级 Manila Operator 和集群。现在,错误会被视为非严重,以便 Manila Operator 被禁用,而不是降级集群。(BZ#2001620)
  • 在较慢的云环境中,如使用 Cinder 时,集群可能会降级。现在,OpenShift Container Platform 会适应较慢的环境,以便集群不会降级。(BZ#2027685)
电信边缘
  • 如果生成的策略具有 mustonlyhave 的 complianceType,则 Operator Lifecycle Manager(OLM)更新元数据会恢复,因为策略引擎恢复 CR 的"预期"状态。因此,OLM 和策略引擎会持续覆盖冲突 CR 的元数据。这会造成高 CPU 使用量。在这个版本中,OLM 和策略引擎不再冲突,这可以减少 CPU 用量。(BZ#2009233)
  • 在以前的版本中,如果基本源 CR 中不存在该字段,则 PolicyGenTemplate overlay 中的用户提供的字段不会被复制到生成的清单中。因此,一些用户内容会丢失。policyGen 工具现已更新,以支持所有用户提供字段。(BZ#2028881)
  • 在以前的版本中,当在不受支持的平台上安装时,DNS 查找失败可能会导致 Cluster Baremetal Operator 持续失败。在这个版本中,当在不支持的平台上安装时,Operator 会保持禁用状态。(BZ#2025458)
Web 控制台(管理员视角)
Web 控制台 (开发者视角)
  • 在此次更新之前,web 控制台的 Developer 视角中的资源具有与该资源相关的信息无效。这个版本解决了这个问题。它创建有效的链接,以便用户可以访问资源详情。(BZ#2000651)
  • 在此次更新之前,您只能通过标签在 SinkBinding 表单中指定主题,而不按名称指定。在这个版本中,您可以使用下拉列表来选择按名称或标签指定主题。(BZ#2002266)
  • 在此次更新之前,只有在您在 openShift-operators 命名空间中安装了 Web Terminal Operator 时,Web 控制台横幅头中才有 Web 终端图标。在这个版本中,无论安装 Web Terminal Operator 的命名空间是什么,都会有终端图标。(2006329)
  • 在此次更新之前,如果使用 resource 属性而不是 kind 属性定义 ServiceBinding 自定义资源(CR)时,服务绑定连接器不会出现在拓扑中。在这个版本中,通过读取 CR 的 resource 属性来解决此问题,以显示拓扑上的连接器。(BZ#2013545)
  • 在此次更新之前,名称输入字段使用复杂和递归正则表达式来验证用户输入。这个正则表达式进行名称检测非常慢,通常会导致错误。在这个版本中,通过优化正则表达式并避免递归匹配解决了这个问题。现在,名称检测速度快,不会造成错误。(BZ#2014497)
  • 在此次更新之前,knative 插件贡献的一些扩展中缺少功能标记。虽然这个问题不会影响显示的内容,但这些扩展会不必要地运行,即使无服务器 Operator 没有安装。在这个版本中,添加功能标记到缺少它的扩展,从而解决了这个问题。现在,扩展不会有不必要的运行。(BZ#2016438)
  • 在此次更新之前,如果您重复点击链接来获取资源详情,(如自定义资源定义或 pod),应用程序遇到多个代码引用错误,它会失败并显示 t is not a function 错误。这个版本解决了这个问题。发生错误时,应用会解析代码引用并存储了解析状态,以便正确处理额外的错误。当代码引用错误发生时,应用程序不再会失败。(BZ#2017130)
  • 在此次更新之前,具有受限访问权限的用户无法访问其共享命名空间中的配置映射,将其用户设置保存到集群中,并将它们加载到另一个浏览器或机器中。因此,用户首选项(如固定导航项)只会保存在本地浏览器存储中,而不是在多个浏览器之间共享。在这个版本中解决了这个问题:Web 控制台 Operator 会自动创建 RBAC 规则,以便每个用户都可以将这些设置保存到共享命名空间中的配置映射中,并在浏览器之间更轻松地切换。(BZ#2018234)
  • 在此次更新之前,试图在 Topology 视图中创建虚拟机(VM)之间的连接会失败,并显示 "Error create connection" 信息。这是因为这个操作依赖于不支持自定义资源定义(CRD)的方法。在这个版本中,通过添加对 CRD 的支持来解决这个问题。现在,您可以创建虚拟机间的连接。(BZ#2020904)
  • 在此次更新之前,PipelineRun 详情 中的任务工具会显示误导信息。它显示自任务运行以来经过的时间,而不是运行的时间。例如,对于在 5 天前运行了几分钟的任务,它会显示 122 小时。在这个版本中,工具提示会显示任务的持续时间。(BZ#2011368)

1.7. 技术预览功能

这个版本中的一些功能当前还处于技术预览状态。它们并不适用于在生产环境中使用。请参阅红帽门户网站中关于对技术预览功能支持范围的信息:

技术预览功能支持范围

在下表中,功能被标记为以下状态:

  • TP: 技术预览
  • GA: 正式发行
  • -: Not Available
  • DEP: 已弃用

表 1.2. 技术预览

功能OCP 4.8OCP 4.9OCP 4.10

精度时间协议(PTP)硬件配置为普通时钟

TP

GA

GA

PTP 单 NIC 硬件配置为边界时钟

-

-

TP

带有普通时钟的 PTP 事件

-

TP

GA

oc CLI 插件

GA

GA

GA

OpenShift 构建中的 CSI 卷

-

-

TP

服务绑定

TP

TP

GA

使用 Cinder 的原始块

GA

GA

GA

CSI 卷扩展

TP

TP

TP

CSI AliCloud Disk Driver Operator

-

-

GA

CSI Azure Disk Driver Operator

TP

TP

GA

CSI Azure File Driver Operator

-

-

TP

CSI Azure Stack Hub Driver Operator

-

GA

GA

CSI GCP PD Driver Operator

GA

GA

GA

CSI IBM VPC Block Driver Operator

-

-

GA

CSI OpenStack Cinder Driver Operator

GA

GA

GA

CSI AWS EBS Driver Operator

TP

GA

GA

CSI AWS EFS Driver Operator

-

TP

GA

CSI 自动迁移

TP

TP

TP

CSI inline 临时卷

TP

TP

TP

CSI vSphere Driver Operator

TP

TP

GA

共享资源 CSI 驱动程序

-

-

TP

使用 Local Storage Operator 进行自动设备发现和置备

TP

TP

TP

OpenShift Pipelines

GA

GA

GA

OpenShift GitOps

GA

GA

GA

OpenShift 沙盒容器

TP

TP

GA

Vertical Pod Autoscaler

GA

GA

GA

Cron 作业

GA

GA

GA

PodDisruptionBudget

GA

GA

GA

使用 kvc 向节点添加内核模块

TP

TP

TP

Egress router CNI 插件

GA

GA

GA

Scheduler 配置集

TP

GA

GA

非抢占优先级类

TP

TP

TP

Kubernetes NMState Operator

TP

TP

GA

支持的安装程序

TP

TP

GA

AWS 安全令牌服务(STS)

GA

GA

GA

kdump

TP

TP

TP

OpenShift Serverless

GA

GA

GA

OpenShift on ARM platforms

-

-

GA

无服务器功能

TP

TP

TP

支持数据平面开发套件 (DPDK)

TP

GA

GA

Memory Manager

-

GA

GA

CNI VRF 插件

TP

GA

GA

Cluster Cloud Controller Manager Operator

-

GA

GA

Alibaba Cloud 的云控制器管理器

-

-

TP

Amazon Web Services 的云控制器管理器

-

TP

TP

Google Cloud Platform 的云控制器管理器

-

-

TP

IBM Cloud 的云控制器管理器

-

-

TP

Microsoft Azure 的云控制器管理器

-

TP

TP

Microsoft Azure Stack Hub 的云控制器管理器

-

GA

GA

Red Hat OpenStack Platform(RHOSP)的云控制器管理器

-

TP

TP

VMware vSphere 的云控制器管理器

-

-

TP

驱动程序工具包

TP

TP

TP

Special Resource Operator (SRO)

-

TP

TP

简单内容访问

-

TP

GA

Node Health Check Operator

-

TP

TP

网络绑定磁盘加密(需要 Clevis、Tang)

-

GA

GA

MetalLB Operator

-

GA

GA

CPU Manager

GA

GA

GA

二级网络的 Pod 级别绑定

-

-

GA

IPv6 双栈

-

GA

GA

可选择 Cluster Inventory

-

-

TP

超线程感知 CPU Manager 策略

-

-

TP

动态插件

-

-

TP

混合 Helm Operator

-

-

TP

用户定义的项目监控的警报路由

-

-

TP

使用 oc-mirror CLI 插件断开连接镜像镜像

-

-

TP

在 RHEL 中的 BuildConfig 中挂载共享权利

-

-

TP

支持 RHOSP DCN

-

-

TP

支持 RHOSP 上集群的外部云供应商

-

-

TP

RHOSP 上集群的 OVS 硬件卸载

-

-

TP

外部 DNS Operator

-

-

TP

Web Terminal Operator

TP

TP

GA

Topology Aware Lifecycle Manager

-

-

TP

使用 NUMA Resources Operator 进行 NUMA 感知调度

-

-

TP

1.8. 已知问题

  • 在 OpenShift Container Platform 4.1 中,匿名用户可以访问发现端点。之后的版本会取消对这端点的访问,以减少可能的安全漏洞攻击面。一些发现端点被转发到聚合的 API 服务器。但是,升级的集群中会保留未经身份验证的访问,因此现有用例不会中断。

    如果您是一个从 OpenShift Container Platform 4.1 升级到 4.10 的集群的集群管理员,您可以撤销或继续允许未经身份验证的访问。建议取消未经身份验证的访问,除非有特殊需要。如果您继续允许未经身份验证的访问,请注意相关的风险。

    警告

    如果您的应用程序依赖未经身份验证的访问,在撤销了未经身份验证的访问后可能会收到 HTTP 403 错误。

    使用以下脚本撤销对发现端点的未经身份验证的访问:

    ## Snippet to remove unauthenticated group from all the cluster role bindings
    $ for clusterrolebinding in cluster-status-binding discovery system:basic-user system:discovery system:openshift:discovery ;
    do
    ### Find the index of unauthenticated group in list of subjects
    index=$(oc get clusterrolebinding ${clusterrolebinding} -o json | jq 'select(.subjects!=null) | .subjects | map(.name=="system:unauthenticated") | index(true)');
    ### Remove the element at index from subjects array
    oc patch clusterrolebinding ${clusterrolebinding} --type=json --patch "[{'op': 'remove','path': '/subjects/$index'}]";
    done

    此脚本从以下集群角色绑定中删除未经身份验证的对象:

    • cluster-status-binding
    • discovery
    • system:basic-user
    • system:discovery
    • system:openshift:discovery

    (BZ#1821771)

  • oc annotate 命令不适用于包含了等号(=)的 LDAP 组名称,因为命令使用等号作为注释名称和值之间的分隔符。作为临时解决方案,使用 oc patchoc edit 添加注解。(BZ#1917280)
  • 目前,容器以非空的 Linux 进程功能开始。要临时解决这个问题,请使用 capsh (1) 等实用程序修改容器的入口点,以在主进程启动前丢弃可继承的功能。(BZ#2076265)
  • 当升级到 OpenShift Container Platform 4.10 时,Cluster Version Operator 会因为预条件检查失败而阻止升级大约五分钟。错误文本 It may not be safe to apply this update 可能会造成误导。当一个或多个 precondition 检查失败时,会出现这个错误。在某些情况下,这些 precondition 检查可能无法在短时间内失败(例如在 etcd 备份过程中)。在这些情况下,Cluster Version Operator 和对应的 Operator 将会根据设计自动解决失败的条件检查,CVO 可以成功启动升级。

    用户应检查其 Cluster Operator 的状态和条件。如果 Cluster Version Operator 显示 It may not be safe to apply this update,则这些状态和条件会提供有关消息严重性的更多信息。如需更多信息,请参阅 BZ#1999777, BZ#2061444, BZ#2006611

  • 在 Amazon Web Services(AWS)上置备的集群中不支持使用 EgressIP 功能将出口 IP 地址分配给 control plane 节点。(BZ#2039656)
  • 在以前的版本中,Red Hat OpenStack Platform(RHOSP)凭证 secret 创建和 kube-controller-manager 启动之间有一个竞争条件。因此,Red Hat OpenStack Platform(RHOSP)云供应商不会配置 RHOSP 凭证,并在为 LoadBalancer 服务创建 Octavia 负载均衡器时无法正常工作。要临时解决这个问题,您必须通过从清单中手动删除 pod 来重启 kube-controller-manager pod。当使用临时解决方案时,kube-controller-manager pod 会重启,RHOSP 凭证会被正确配置。(BZ#2004542)
  • 目前,能够使用 delete all operands 选项从 web 控制台删除操作对象的功能。以后的 OpenShift Container Platform 版本中会重新启用它。如需更多信息,请参阅 BZ#2012120BZ#2012971
  • 此发行版本在 Jenkins 中存在一个已知问题。如果您自定义 OpenShift OAuth 路由的主机名和证书,Jenkins 不再信任 OAuth 服务器端点。因此,如果用户依赖 OpenShift OAuth 集成来管理身份和访问权限,用户就无法登录 Jenkins 控制台。

    临时解决方案:请参阅红帽知识库解决方案,Deploy Jenkins on OpenShift with Custom OAuth Server URL。(BZ#1991448)

  • 此发行版本在 Jenkins 中存在一个已知问题。基于 RHEL 的镜像中缺少 xmlstarlet 命令行工具来验证或查询 XML 文件。此问题会影响不使用 OpenShift OAuth 进行身份验证的部署。虽然 OpenShift OAuth 默认启用,但用户可以禁用它。

    临时解决方案:使用 OpenShift OAuth 进行身份验证。(BZ#2055653)

  • 当实例组名称超过 64 个字符时,Google Cloud Platform(GCP)UPI 安装会失败。添加 "-instance-group" 后缀后,您在命名过程中受到限制。将后缀缩短为"-ig"以减少字符数。(BZ#1921627)
  • 对于在 RHOSP 上运行并使用 Kuryr 的集群,Octavia 的 OVN Provider 驱动中的一个错误可能会导致负载均衡器监听程序在附加的负载均衡器处于 ACTIVE 状态时处于 PENDING_UPDATE 状态。因此,kuryr-controller pod 可能会导致崩溃。要解决这个问题,将 RHOSP 更新至 16.1.9 版本(BZ#2019980)或版本 16.2.4 (BZ#2045088)。
  • 如果在 vSphere install-config.yaml 文件中指定了不正确的网络,则在一段时间后会生成 Terraform 中的错误消息。在创建清单期间添加检查,以在网络无效时通知用户。(BZ#1956776)
  • 由于存在软件定义的网络策略,特殊 Resource Operator (SRO) 可能无法在 Google Cloud Platform 上安装。因此,simple-kmod pod 不会被创建。(BZ#1996916)
  • 目前,当为映射到有状态集的服务运行 oc idle 时,不支持闲置有状态的集合。目前还没有已知的临时解决方案。(BZ#1976894)
  • Alibaba Cloud International Portal 帐户的中国(Nanjing)和 UAE(Dubai)区域不支持安装程序置备的基础架构(IPI)安装。中国(Guangzhou)和中国(Ulanqab)区域在使用 Alibaba Cloud International Portal 帐户时不支持 Server Load Balancer(SLB),因此不支持 IPI 安装。(BZ#2048062)
  • Alibaba Cloud 的 Korea(Seoul) ap-northeast-2 区域不支持安装程序置备的基础架构(IPI)安装。韩国(Seoul)区域不支持 Server Load Balancer(SLB),因此不支持 IPI 安装。如果要在此区域中使用 OpenShift Container Platform,请联系 Alibaba Cloud。(BZ#2062525)
  • 目前,Knative Serving - Revision CPU、Memory 和 Network usageKnative Serving - Revision Queue proxy Metrics 仪表板都出现在所有命名空间中,包括没有 Knative 服务的这些命名空间。(BZ#2056682)
  • 目前,在 Developer 视角中,Observe 仪表板会为最近查看的工作负载打开,而不是您在 Topology 视图中选择的工作负载。出现这个问题的原因是,会话使用 Red Hatux 存储而不是 URL 中的查询参数。(BZ#2052953)
  • 目前,集群中不会显示 ProjectHelmChartRepository 自定义资源(CR),因为集群中还没有初始化此 CR 的 API 模式。(BZ#2054197)
  • 目前,在运行 high-volume 管道日志时,自动滚动功能无法正常工作,并且日志会卡住旧的消息。出现这个问题的原因是,运行 high-volume 管道日志会为 scrollIntoView 方法生成大量调用。(BZ#2014161)
  • 当前,在使用 Import from Git 表单导入私有 Git 存储库时,不会识别正确的导入类型和构建器镜像。出现这个问题的原因是,无法对私有存储库详情进行解码。(BZ#2053501)
  • 在升级监控堆栈时,Prometheus 和 Alertmanager 可能会在短暂的时间内不可用。这个问题还没有临时解决方案,因为短时间过后组件将可用。不需要用户干预。(BZ#203059)
  • 在本发行版本中,监控堆栈组件已更新为对指标集合使用 TLS 身份验证。但是,有时 Prometheus 会尝试使用过期的 TLS 凭证保持对指标目标的 HTTP 连接,即使提供了新的凭证。随后会发生身份验证错误,某些指标目标不可用。当出现这个问题时,TargetDown 警报将触发。要临时解决这个问题,重启报告为 down 的 pod。(BZ#2033575)
  • 在本发行版本中,监控堆栈中的 Alertmanager 副本数从 3 个减少到两个。但是,在升级过程中,删除的第三个副本的持久性卷声明(PVC)不会被自动删除。升级后,管理员可以从 Cluster Monitoring Operator 手动删除此 PVC。(BZ#2040131)
  • 在以前的版本中,当提供多个 --image 参数时,oc adm must-gather 工具不会收集性能特定数据。操作完成后缺少文件(包括节点和性能相关文件)。此问题会影响 4.7 到 4.10 之间的 OpenShift Container Platform 版本。这个问题可以通过为每个镜像执行 oc adm must-gather 操作两次来解决。因此,可以收集所有预期文件。(BZ#2018159)
  • 当使用技术预览 oc-mirror CLI 插件时,存在一个已知问题:在将更新的镜像设置为镜像 registry 后更新集群时可能会出现这个问题。如果 Operator 的新版本被发布到某个频道,然后删除该 Operator 的早期版本并将其替换为新版本,则在从 oc-mirror 插件中应用生成的 CatalogSource 文件时可能会出现错误,因为目录被视为无效。作为临时解决方案,从镜像 registry 中删除之前的目录镜像,生成并发布一个新的不同的镜像集,然后将 CatalogSource 文件应用到集群。每次发布一个新的不同镜像集时,您必须遵循这个临时解决方案,直到这个问题被解决为止。(BZ#2060837)
  • 在 GitOps ZTP 流中处理 StoragePVC 自定义资源不会在用户不包括值时排除 volume.beta.kubernetes.io/storage-class 注解。此注解会导致 spec.storageClassName 字段被忽略。要避免这种情况,在使用 StoragePVC 自定义资源时,在您的 PolicyGenTemplate 中的 Volume.beta.kubernetes.io/storage-class 注解中设置所需的 StorageClass 名称。(BZ#2060554)
  • 删除在边框网关协议(BGP)对等资源上启用的双向转发检测(BFD)自定义配置集不会禁用 BFD。相反,BGP 对等点开始使用默认的 BFD 配置集。要从 BGP peer 资源禁用 BFD,请删除 BGP 对等配置,并在没有 BFD 配置集的情况下重新创建它。(BZ#2050824)
  • 对于在 RHOSP 上运行的集群并使用 Mellanox NIC 作为单根 I/O 虚拟化配置(SR-IOV)的一部分,您可能无法在启动一个 pod 后创建一个 pod,重启 SR-IOV 设备插件,然后停止 pod。这个问题还没有可用的临时解决方案。
  • OpenShift Container Platform 支持在没有 DHCP 服务器的情况下部署安装程序置备的集群。但是,如果没有 DHCP 服务器,bootstrap 虚拟机不会接收 baremetal 网络的外部 IP 地址。要为 bootstrap 虚拟机分配 IP 地址,请参阅在没有 DHCP 服务器的情况下,为 bootstrap 虚拟机分配裸机网络上的 IP 地址。(BZ#2048600)
  • OpenShift Container Platform 支持为没有 DHCP 服务器的环境在 baremetal 网络中部署带有静态 IP 地址的安装程序置备的集群。如果存在 DHCP 服务器,节点可能会在重启时从 DHCP 服务器检索 IP 地址。要防止 DHCP 重启后为节点分配 IP 地址,请参阅防止 DHCP 在节点重启时分配 IP 地址。(BZ#2036677)
  • 因为 Netfilter 模块中的一个错误,RHCOS 内核会遇到软锁定并最终 panic。计划在以后的 OpenShift Container Platform z-stream 版本中解决这个问题。(BZ#2061445)
  • 由于在某些镜像索引中包含旧镜像,运行 oc adm catalog mirroroc image mirror 可能会导致以下错误: error: unable to retrieve source image。作为临时解决方案,您可以使用 --skip-missing 选项绕过错误并继续下载镜像索引。如需更多信息,请参阅 Service Mesh Operator 镜像失败
  • 当虚拟功能(VF)已存在时,无法在物理功能(PF)上创建 macvlan。此问题会影响 Intel E810 NIC。(BZ#2120585)
  • 如果通过 ZTP 部署的集群具有不合规的策略,且没有 ClusterGroupUpdates 对象,则必须重启 TALM pod。重启 TALM 会创建正确的 ClusterGroupUpdates 对象,它强制执行策略合规性。(OCPBUGS-4065)
  • 目前,当使用包含大量文件的持久性卷 (PV) 时,pod 可能无法启动,或者可能需要很长时间才能启动。如需更多信息,请参阅此知识库文章。(BZ1987112)

1.9. 异步勘误更新

OpenShift Container Platform 4.10 的安全更新、程序漏洞修正、功能增强更新将会通过红帽网络以异步勘误的形式发布。所有 OpenShift Container Platform 4.10 勘误都可以通过红帽客户门户网站获得OpenShift Container Platform 生命周期包括了详细的与异步勘误相关的内容。

红帽客户门户网站的用户可以在红帽订阅管理(RHSM)帐户设置中启用勘误通知功能。当勘误通知被启用后,每当用户注册的系统相关勘误被发布时,用户会收到电子邮件通知。

注意

用户的红帽客户门户网站账户需要有注册的系统,以及使用 OpenShift Container Platform 的权限才可以接收到 OpenShift Container Platform 的勘误通知。

本节的内容将会持续更新,以提供以后发行的与 OpenShift Container Platform 4.10 相关的异步勘误信息。异步子版本(例如,OpenShift Container Platform 4.10.z)的具体信息会包括在相应的子章节中。此外,在发行公告中因为空间限制没有包括在其中的勘误内容也会包括在这里的相应的子章节中。

重要

对于任何 OpenShift Container Platform 发行版本,请仔细参阅有关 更新集群 的说明。

1.9.1. RHSA-2022:0056 - OpenShift Container Platform 4.10.3 镜像发行版本、程序错误修正和安全更新公告

发布日期:2022 年 3 月 10 日

OpenShift Container Platform release 4.10.3 现已正式发布,其中包括安全更新。其程序错误修正列表包括在 RHSA-2022:0056 公告中。可在 RHEA-2022:0748 公告中找到一组程序错误修正。此更新中包括的 RPM 软件包由 RHSA-2022:0055 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.3 --pullspecs

1.9.1.1. 程序错误修复

  • 在以前的版本中,带有 OVN-Kubernetes 管理的 OpenShift Container Platform 通过 ExternalIP 访问服务。当从 4.10.2 升级到 4.10.3 时,访问 ExternalIP 会停止处理 "No Route to Host" 等问题。在这个版本中,管理员必须将 externalIPs 的流量定向到集群。详情请参阅 (KCS*) 和(Kubernetes 外部 IP)(BZ#2076662)

1.9.2. RHBA-2022:0811 - OpenShift Container Platform 4.10.4 程序错误修复和安全更新

发布日期: 2022 年 3 月 15 日

OpenShift Container Platform 版本 4.10.4 现已正式发布,其中包括安全更新。此更新包括的程序错误修正信息包括在 RHBA-2022:0811 公告中。此更新中包括的 RPM 软件包由 RHSA-2022:0810 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.4 --pullspecs

1.9.2.1. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.3. RHBA-2022:0928 - OpenShift Container Platform 4.10.5 程序错误修复和安全更新

发布日期: 2022 年 3 月 21 日

OpenShift Container Platform release 4.10.5 现已正式发布,其中包括安全更新。此更新包括的程序错误修正信息包括在 RHBA-2022:0928 公告中。此更新中包括的 RPM 软件包由 RHSA-2022:0927 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.5 --pullspecs

1.9.3.1. 已知问题

  • 在通过带有名称 ztp* 的零接触置备(zero touch provisioning,简称 ZTP)添加集群时,存在一个问题。添加 ztp 作为集群名称会导致 ArgoCD 删除 ACM 复制到集群命名空间中的策略。使用 ztp 命名集群会导致协调循环,策略也不会合规。作为临时解决方案,不要在名称的开头使用 ztp 命名集群。通过重命名集群,冲突将停止协调循环,策略将兼容。(BZ#2049154)

1.9.3.2. bug 修复

  • 在以前的版本中,Developer 控制台中的 Topology 视图中的 Observer 仪表板进入最后一个查看工作负载而不是所选工作负载。在这个版本中,Developer 控制台中的 Observe 仪表板总是会在 Topology 视图中打开到所选工作负载。(BZ#2059805)

1.9.3.3. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.4. RHBA-2022:1026 - OpenShift Container Platform 4.10.6 程序错误修复和安全更新

发布日期: 2022 年 3 月 28 日

OpenShift Container Platform 版本 4.10.6 现已正式发布,其中包括安全更新。此更新包括的程序错误修正信息包括在 RHBA-2022:1026 公告中。此更新中包括的 RPM 软件包由 RHSA-2022:1025 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.6 --pullspecs

1.9.4.1. 功能

1.9.4.2. Kubernetes 1.23.5 更新

这个版本包含从 Kubernetes 1.23.3 的更改最多 1.23.5。有关更多信息,请参阅以下变化日志:1.23.41.23.5

1.9.4.3. bug 修复

  • 在以前的版本中,Cisco ACI 的 neutron 实施中子网的查询(Red Hat OpenStack Platform(RHOSP)-16 中可查询,返回给定网络的意外结果。因此,RHOSP cluster-api-provider 可能会尝试在同一子网上置备带有重复端口的实例,这会导致置备失败。在这个版本中,RHOSP cluster-api-provider 中添加了一个额外的过滤器,以确保每个子网只有一个端口。因此,现在可以使用 Cisco ACI 在 RHOSP-16 上部署 OpenShift Container Platform。(BZ#2050064)
  • 在以前的版本中,当指定镜像无法运行时,oc adm must gather 会回退到 oc adm inspect 命令。因此,在回退发生时,很难分析日志的信息。在这个版本中,日志会被改进,以便在执行回退检查时变得明确。因此,oc adm must gather 的输出更容易理解。(BZ#2049427)
  • 在以前的版本中,oc debug node 命令没有在闲置中指定超时。因此,用户永远不会从集群登出。在这个版本中,debug pod 的 TMOUT 环境变量被添加到计数器不活跃超时。因此,会话会在 TMOUT 不活跃后自动终止。(BZ#2060888)
  • 在以前的版本中,Ingress Operator 对 Ingress Canary 路由执行健康检查。当健康检查完成后,Ingress Operator 不会关闭到 LoadBalancer 的 TCP 连接,因为连接上启用了 keepalive 数据包。在执行下一个健康检查时,会为 LoadBalancer 建立一个新连接,而不使用现有连接。因此,这会导致在 LoadBalancer 中积累连接。随着时间的推移,这会耗尽 LoadBalancer 上的连接数量。在这个版本中,连接到 Ingress Canary 路由时会禁用 keepalive。因此,每次运行 canary 探测时都会进行新的连接并关闭。虽然禁用 keepalive,但不再会累积建立的连接。(BZ#2063283)
  • 在以前的版本中,Topology UI 中的 Trigger/Subscription modal 中的事件源接收器显示所有资源,irrespective 是创建为独立还是后端 KSVC、Broker 或 KameletBinding 的底层资源。因此,用户可以在 sink 下拉菜单中选择底层可寻址的资源。在这个版本中,添加了一个资源过滤器来只显示独立资源 sink 事件。(BZ#2059807)

1.9.4.4. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.5. RHSA-2022:1162 - OpenShift Container Platform 4.10.8 程序错误修复和安全更新

发布日期:2022 年 4 月 7 日

OpenShift Container Platform release 4.10.8 现已正式发布,其中包括安全更新。此更新包括的程序错误修正信息包括在 RHSA-2022:1162 公告中。此更新中包括的 RPM 软件包由 RHBA-2022:1161 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.8 --pullspecs

1.9.5.1. 删除的功能

从 OpenShift Container Platform 4.10.8 开始,从 OpenShift Container Platform 4.10 中删除了对 Google Cloud Platform Workload Identity 的支持。这个变化是因为发现了一个对镜像 registry 的负面影响

在 OpenShift Container Platform 4.10.21 中,恢复了对使用带有镜像 registry 的 GCP Workload Identity 的支持。如需有关 OpenShift Container Platform 4.10.8 和 4.10.20 中此功能状态的更多信息,请参阅相关的知识库文章

1.9.5.2. 已知问题

  • 目前,web 控制台不显示部署到自定义命名空间的虚拟机模板。web 控制台中仅显示部署到 default 命名空间的模板。作为临时解决方案,请避免将模板部署到自定义命名空间中。(BZ#2054650)

1.9.5.3. bug 修复

  • 在以前的版本中,当特殊字符(如问题标记或相同)在 URL filename 参数中使用时,Infrastructure Operator 无法置备 X11- 和基于 X12 的系统。在这个版本中,如果本地文件支持虚拟介质镜像,则 filename 参数会从 URL 中删除。(BZ#2011626)
  • 在以前的版本中,当从模板克隆虚拟机时,如果编辑引导磁盘并更改了存储类,Operator-made 会更改还原对话框。在这个版本中,在关闭对话框后对存储类所做的更改将保持设置。(BZ#2049762)
  • 在以前的版本中,startupProbe 字段添加到容器的定义中。因此,startupProbe 会在创建 debug pod 时造成问题。在这个版本中,StartProbeExpose --keep-startup flag 参数从 debug pod 中删除,现在默认设为 false。(BZ#2068474)
  • 在以前的版本中,Local Storage Operator(LSO)将 OwnerReference 对象添加到它创建的持久性卷(PV)中,这有时会导致 PV 的删除请求在 pod 中处于终止状态时可能会停留在终止状态。在这个版本中,LSO 不再创建一个 OwnerReference 对象,集群管理员现在可以在从集群中删除节点后手动删除所有未使用的 PV。(BZ#2065714)
  • 在此次更新之前,当为私有 Git 存储库提供 secret 时,不会进行导入策略检测。因此,secret 值在被使用前不会被解码。在这个版本中,secret 值在使用前被解码。(BZ#2057507)

1.9.5.4. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.6. RHBA-2022:1241 - OpenShift Container Platform 4.10.9 程序错误修复更新

发布日期:2022 年 4 月 12 日

OpenShift Container Platform release 4.10.9 现已正式发布。此更新包括的程序错误修正信息包括在 RHBA-2022:1241 公告中。此更新中包括的 RPM 软件包由 RHBA-2022:1240 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.9 --pullspecs

1.9.6.1. 已知问题

1.9.6.2. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.7. RHSA-2022:1357 - OpenShift Container Platform 4.10.10 程序错误修复和安全更新

发布日期: 2022 年 4 月 20 日

OpenShift Container Platform release 4.10.10 现已正式发布。此更新包括的程序错误修正信息包括在 RHSA-2022:1357 公告中。此更新中包括的 RPM 软件包由 RHBA-2022:1355 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.10 --pullspecs

1.9.7.1. 程序错误修复

  • 在以前的版本中,对 Amazon Web Services(AWS)的集群存储 Operator 凭证请求不包括 KMS 语句。因此,因为无法提供密钥,持久性卷(PV)无法部署。在这个版本中,AWS 的默认凭证请求允许使用从 KMS 中客户管理的密钥挂载加密卷。在手动模式中使用 Cloud Credential Operator(CCO)创建凭证请求的管理员必须手动应用这些更改。其他管理员不应受到此更改的影响。(BZ#2072191)

1.9.7.2. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.8. RHBA-2022:1431 - OpenShift Container Platform 4.10.11 程序错误修复更新

发布日期:2022 年 4 月 25 日

OpenShift Container Platform release 4.10.11 现已正式发布。此更新包括的程序错误修正信息包括在 RHBA-2022:1431 公告中。这个版本没有 RPM 软件包。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.11 --pullspecs

1.9.8.1. 程序错误修复

  • 在以前的版本中,当从模板克隆虚拟机时,如果编辑引导磁盘并更改了存储类,Operator-made 会更改还原对话框。在这个版本中,在关闭对话框后对存储类所做的更改将保持设置。(BZ#2049762)

1.9.8.2. 更新

要将现有 OpenShift Container Platform 4.10 集群更新到此最新版本,请参阅使用 CLI 更新集群 以获取相关说明。

1.9.9. RHBA-2022:1601 - OpenShift Container Platform 4.10.12 程序错误修复和安全更新

发布日期: 2022 年 5 月 2 日

OpenShift Container Platform release 4.10.12 现已正式发布,其中包括安全更新。此更新包括的程序错误修正信息包括在 RHBA-2022:1601 公告中。此更新中包括的 RPM 软件包由 RHSA-2022:1600 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.12 --pullspecs

1.9.9.1. 程序错误修复

  • 在以前的版本中,Infrastructure Operator 无法置备 X11 和基于 X12 的系统。这是因为,当在 URL 的 filename 参数中使用问题标记或等号时,裸机控制器(BMC)创建的验证错误。在这个版本中,如果本地文件支持虚拟介质镜像,则 filename 参数会从 URL 中删除。(BZ#2011626)

1.9.9.2. 更新

要将现有 OpenShift Container Platform 4.10 集群更新到此最新版本,请参阅使用 CLI 更新集群 以获取相关说明。

1.9.10. RHBA-2022:1690 - OpenShift Container Platform 4.10.13 程序错误修复更新

发布日期: 2022 年 5 月 11 日

OpenShift Container Platform release 4.10.13 现已正式发布。此更新包括的程序错误修正信息包括在 RHBA-2022:1690 公告中。此更新中包括的 RPM 软件包由 RHBA-2022:1689 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.13 --pullspecs

1.9.10.1. 程序错误修复

  • 在以前的版本中,当在 OpenShift Container Platform 4.8 中创建 Ingress 对象时,API 限制会阻止用户使用主机名和安装数字集群定义路由。在这个版本中,删除了 API 的数量限制,允许用户创建带有数字的集群,并使用主机名定义路由。(BZ#2072739)
  • 在以前的版本中,因为 JobTrackingWithFinalizers 功能,与作业相关的 pod 会在 OpenShift Container Platform 4.10 中卡住。在这个版本中,禁用 JobTrackingWithFinalizers 功能,因此所有 pod 都能按预期运行。(BZ2075831)

1.9.10.2. 更新

要将现有 OpenShift Container Platform 4.10 集群更新到此最新版本,请参阅使用 CLI 更新集群 以获取相关说明。

1.9.11. RHBA-2022:2178 - OpenShift Container Platform 4.10.14 程序错误修复更新

发布日期: 2022 年 5 月 18 日

OpenShift Container Platform release 4.10.14 现已正式发布。此更新包括的程序错误修正信息包括在 RHBA-2022:2178 公告中。此更新中包括的 RPM 软件包由 RHBA-2022:2177 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.14 --pullspecs

1.9.11.1. 功能

1.9.11.1.1. 独立于其他 worker 节点更新 control plane

在这个版本中,您可以在 Update Cluster modal 中执行部分集群更新。您可以更新 worker 或自定义池节点,以适应维护所需的时间。您还可以暂停并恢复每个池的进度条。如果一个或多个 worker 或自定义池已暂停,则会在 Cluster Settings 页面的顶部显示警报。(BZ#2076777)

如需更多信息,请参阅准备执行 EUS-to-EUS 的更新使用 web 控制台更新集群

1.9.11.1.2. Web Terminal Operator 的一般可用性

在这个版本中,Web Terminal Operator 已正式发布。

1.9.11.1.3. 支持 AWS Premium_LRS 和标准SSD_LRS 磁盘类型

借助此次更新,您可以使用 premium_LRS, standardSSD_LRS, 或 standard_LRS 磁盘类型部署 control plane 和计算节点。默认情况下,安装程序会使用 premium_LRS 磁盘类型部署 control plane 和计算节点。在之前的 4.10 版本中,只支持 standard_LRS 磁盘类型。(BZ#2079589)

1.9.11.2. 更新

要将现有 OpenShift Container Platform 4.10 集群更新到此最新版本,请参阅使用 CLI 更新集群 以获取相关说明。

1.9.12. RHBA-2022:2258 - OpenShift Container Platform 4.10.15 程序错误修复更新

发布日期: 2022 年 5 月 23 日

OpenShift Container Platform release 4.10.15 现已正式发布。此更新包括的程序错误修正信息包括在 RHBA-2022:2258 公告中。此更新中包括的 RPM 软件包由 RHBA-2022:2257 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.15 --pullspecs

1.9.12.1. 程序错误修复

  • 在以前的版本中,Image Registry Operator 在 IBM Cloud 上阻止了安装程序置备的基础架构(IPI)安装。在这个版本中,MachineM 凭证的集群需要管理员角色。(BZ#2083559)

1.9.12.2. 更新

要将现有 OpenShift Container Platform 4.10 集群更新到此最新版本,请参阅使用 CLI 更新集群 以获取相关说明。

1.9.13. RHBA-2022:4754 - OpenShift Container Platform 4.10.16 程序错误修复更新

发布日期: 2022 年 5 月 31 日

OpenShift Container Platform release 4.10.16 现已正式发布。此更新包括的程序错误修正信息包括在 RHBA-2022:4754 公告中。此更新中包括的 RPM 软件包由 RHBA-2022:4753 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.16 --pullspecs

1.9.13.1. 更新

要将现有 OpenShift Container Platform 4.10 集群更新到此最新版本,请参阅使用 CLI 更新集群 以获取相关说明。

1.9.14. RHBA-2022:4882 - OpenShift Container Platform 4.10.17 程序错误修复更新

发布日期: 2022 年 6 月 7 日

OpenShift Container Platform release 4.10.17 现已正式发布。此更新包括的程序错误修正信息包括在 RHBA-2022:4882 公告中。此更新中包括的 RPM 软件包由 RHBA-2022:4881 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.17 --pullspecs

1.9.14.1. 程序错误修复

  • 在以前的版本中,存储用户定义的指标的 Prometheus 的联邦端点不会被公开。因此,您无法从集群外的网络位置提取这些指标。在这个版本中,您可以使用联邦端点从集群外的网络位置中提取用户定义的指标。(BZ#2090602)
  • 在以前的版本中,对于用户定义的项目,您无法为 Thanos Ruler 监控组件修改默认的数据保留时间值为 24 小时。在这个版本中,您可以修改为用户定义的项目保留 Thanos Ruler 指标数据的时长。(BZ#2090422)

1.9.14.2. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.15. RHBA-2022:4944 - OpenShift Container Platform 4.10.18 程序错误修复和安全更新

发布日期: 2022 年 6 月 13 日

OpenShift Container Platform release 4.10.18 现已正式发布,其中包括安全更新。此更新包括的程序错误修正信息包括在 RHBA-2022:4944 公告中。此更新中包括的 RPM 软件包由 RHSA-2022:4943 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.18 --pullspecs

1.9.15.1. 程序错误修复

  • 在以前的版本中,Alibaba Cloud 只支持大于 20 GiB 的磁盘卷。因此,尝试为超过 20GiB 的持久性卷声明 (PVC) 动态置备新卷会失败。在这个版本中,OpenShift Container Platform 将自动增加 PVC 的卷大小,它会至少置备大小为 20 GiB 的卷。(BZ#2076671)
  • 在以前的版本中,Ingress Operator 带有一段不需要的逻辑代码,它会删除以前版本的 OpenShift Container Platform 中的 LoadBalancer-type服务。在这个版本中,Ingress Operator 不再包含这个逻辑。(BZ#2082161)

1.9.15.2. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.16. RHBA-2022:5172 - OpenShift Container Platform 4.10.20 程序错误修复更新

发布日期: 2022 年 6 月 28 日

OpenShift Container Platform release 4.10.20 现已正式发布。此更新包括的程序错误修正信息包括在 RHBA-2022:5172 公告中。此更新中包括的 RPM 软件包由 RHBA-2022:5171 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.20 --pullspecs

1.9.16.1. 程序错误修复

  • 在以前的版本中,Bond Container Network Interface (CNI) 版本 1.0 与 Multus Container Network Interface (CNI) 插件不兼容。因此,Bond-CNI IP 地址管理 (IPAM) 会错误地填充 network-status 注解。在这个版本中,IPAM 和 Bond-CNI 支持 Bond-CNI 1.0。(BZ#2084289)
  • 在此次更新之前,Start Pipeline 对话框会显示 gp2 作为存储类,而不考虑使用的实际存储类。在这个版本中,Start Pipeline 对话框显示实际的存储类名称。

1.9.16.2. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.17. RHBA-2022:5428 - OpenShift Container Platform 4.10.21 程序错误修复更新

发布日期: 2022 年 7 月 6 日

OpenShift Container Platform release 4.10.21 现已正式发布。此更新包括的程序错误修正信息包括在 RHBA-2022:5428 公告中。此更新中包括的 RPM 软件包由 RHBA-2022:5427 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.21 --pullspecs

1.9.17.1. 新功能

OpenShift Container Platform 4.10.8 中的功能更改删除对镜像 registry 的 Google Cloud Platform(GCP)Workload Identity 的支持,已在 OpenShift Container Platform 4.10.21 中解决。

1.9.17.2. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.18. RHBA-2022:5513 - OpenShift Container Platform 4.10.22 程序错误修复更新

发布日期: 2022 年 7 月 11 日

OpenShift Container Platform release 4.10.22 现已正式发布。此更新包括的程序错误修正信息包括在 RHBA-2022:5513 公告中。此更新中包括的 RPM 软件包由 RHBA-2022:5512 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.22 --pullspecs

1.9.18.1. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.19. RHBA-2022:5568 - OpenShift Container Platform 4.10.23 程序错误修复更新

发布日期: 2022 年 7 月 20 日

OpenShift Container Platform 版本 4.10.23 现已正式发布。此更新包括的程序错误修正信息包括在 RHBA-2022:5568 公告中。此更新中包括的 RPM 软件包由 RHBA-2022:5567 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.23 --pullspecs

1.9.19.1. 功能

1.9.19.2. 使用 Topology Aware Lifecycle Manager 更新受管集群(技术预览)

现在,您可以使用上游 Topology Aware Lifecycle Manager 使用 Red Hat Advanced Cluster Management (RHACM) 策略在多个单节点 Openshift 集群上执行更新。如需更多信息,请参阅关于 Topology Aware Lifecycle Manager 配置

1.9.19.3. 低延迟 Redfish 硬件事件交付(技术预览)

OpenShift Container Platform 现在提供了一个硬件事件代理,它允许在裸机集群中运行的应用程序快速响应 Redfish 硬件事件,如硬件更改和失败。

硬件事件代理支持发布订阅服务,允许相关应用程序消耗 Redfish 检测到的硬件事件。代理必须在支持 Redfish v1.8 及更新版本的硬件上运行。Operator 管理 hw-event-proxy 容器的生命周期。

您可以使用 REST API 来开发应用程序来使用和响应相关的事件,如超过了温度阈值、风扇失败、磁盘丢失、电源中断和内存故障等事件。在没有持久性存储的情况下可靠的端到端消息传递基于高级消息队列协议(AMQP)。消息传递服务的延迟位于 10 毫秒范围内。

注意

此功能仅支持单一节点 OpenShift 集群。

1.9.19.4. 零接触调配已正式发布

使用 ZTP(zero touch provisioning)在断开连接的环境中的新边缘站点置备分布式单元。此功能以前在 OpenShift Container Platform 4.9 中作为技术预览功能提供,现在在 OpenShift Container Platform 4.11 中正式发布并启用。如需更多信息,请参阅为 ZTP 准备 hub 集群

1.9.19.5. 为 ZTP 进行的指示

提供了一个新的工具,它简化了使用 Red Hat Advanced Cluster Management (RHACM) 静态验证通知策略检查已完成的零接触置备 (ZTP) 安装的过程。它通过捕获完成 spoke 集群的 ZTP 置备标准来为 ZTP 安装提供一个指示。

此策略可用于部署单一节点集群、三节点集群和标准集群。要了解更多有关验证器通知策略的信息,请参阅为 ZTP 安装进行检查

1.9.19.6. ZTP 的改进

对于 OpenShift Container Platform 4.10,有很多更新,可以更轻松地配置 hub 集群并生成源 CR。spoke 集群新的 PTP 和 UEFI 安全引导功能也可用。以下是这些功能的摘要:

  • 您可以在 ztp-site-generate 容器中添加或修改现有的源 CR,重新构建它并使其可用于 hub 集群,通常是从与 hub 集群关联的断开连接的 registry 中。
  • 您可以为使用 GitOps Zero Touch Provisioning (ZTP) 管道部署的 vRAN 集群配置 PTP fast 事件。
  • 您可以为使用 GitOps ZTP 管道部署的 vRAN 集群配置 UEFI 安全引导。
  • 您可以使用 Topology Aware Lifecycle Manager 将配置 CR 的应用程序编排到 hub 集群。

1.9.19.7. ZTP 支持多集群部署

零接触置备 (ZTP) 支持多集群部署,包括单一节点集群、三节点集群和标准 OpenShift 集群。这包括大规模安装 OpenShift 并部署分布式单元 (DU)。这可让您使用 master、worker 和 master 角色部署节点。ZTP 多节点支持通过使用 SiteConfigPolicyGenTemplate 自定义资源 (CR) 实现。整个流程与用于单一节点集群的 ZTP 支持相同,一些配置根据集群类型的不同:

siteConfig 文件中:

  • 单节点集群在 nodes 部分中必须只有一个条目。
  • 三节点集群必须在 nodes 部分中定义三个条目。
  • 标准 OpenShift 集群必须在 nodes 部分中有三个带有 role: master 的项,以及一个或多个带有 role: worker 的条目。

PolicyGenTemplate 文件告知 Policy Generator 在哪里对生成的策略进行分类。PolicyGenTemplate 文件示例为您提供了示例文件,以简化部署:

  • 常见 PolicyGenTemplate 文件示例在所有类型的集群中都很常见。
  • 提供了用于单节点、三节点和标准集群的策略组 PolicyGenTemplate 文件示例。
  • 提供了特定于具体站点的 PolicyGenTemplate 文件。

要了解更多有关多集群部署的信息,请参阅使用 SiteConfig 和 ZTP 部署受管集群

1.9.19.8. 使用辅助安装程序支持未安全的操作系统镜像

当使用 IPI 或 ZTP 断开连接的环境中的 Assisted Installer 为 HTTPD 服务器启用 TLS 时,这个版本包括以下警告。当为这些环境中为 HTTPD 服务器启用 TLS 时,您必须确认 root 证书由客户端信任的颁发机构签名,并验证 OpenShift Container Platform hub 和 spoke 集群和 HTTPD 服务器之间的可信证书链。使用配置了不受信任的证书的服务器可防止将镜像下载到创建镜像中。不支持使用不受信任的 HTTPS 服务器。

1.9.19.9. 已知问题

  • Kubelet 服务监控提取间隔当前设置为硬编码的值。这意味着工作负载有较少的可用 CPU 资源。(BZ#2035046)
  • 部署 vRAN 分布式单元的单节点 OpenShift 集群可能需要 4 小时。(BZ#2035036)
  • 目前,如果一个目标集群强制执行 RHACM 策略,您可以创建一个 ClusterGroupUpgrade CR,其中包括这个强制策略会再次作为 managedPolicy 到同一目标集群。这应该不可能。(BZ#2044304)
  • 如果 ClusterGroupUpgrade CR 指定了 blockingCRblockingCR 会以静默方式失败,例如,如果集群列表中有一个拼写错误,即使 blockingCR 没有在集群中应用,ClusterGroupUpgrade CR 也会被应用。(BZ#2042601)
  • 如果因为某种原因造成 ClusterGroupUpgrade CR 验证失败,例如因为无效的 spoke 名称,则 ClusterGroupUpgrade CR 没有可用的状态,就像禁用了 CR 一样。(BZ#2040828)
  • 目前,对于 ClusterGroupUpgrade CR 状态的变化,只有一个条件类型可用 - ReadyReady 条件的状态只能为 TrueFalse。这并不会反映 ClusterGroupUpgrade CR 可能会处于的所有状态。(BZ#2042596)
  • 在裸机节点上部署多节点集群时,机器配置池 (MCP) 会添加额外的 CRI-O drop-in,绕过 容器挂载命名空间 drop-in。这会导致 CRI-O 处于基础命名空间中,而 kubelet 在隐藏的命名空间中。所有容器无法获取任何 kubelet 挂载的文件系统,如 secret 和令牌。(BZ#2028590)
  • 在自定义命名空间中安装 RHACM 2.5.0 会导致 infrastructure-operator pod 失败,因为权限不足。(BZ#2046554)
  • OpenShift Container Platform 将对象名称限制为 63 个字符。如果 PolicyGenTemplate CR 中定义的策略名称针对这个限制,则 Topology Aware Lifecycle Manager 无法创建子策略。当发生这种情况时,父策略将保持在 NonCompliant 状态。(BZ#2057209)
  • 在默认的 ZTP Argo CD 配置中,集群名称不能以 ztp 开头。对于 Zero Touch Provisioning(ZTP)部署的集群,使用 ztp 的名称会导致置备不会完成。作为临时解决方案,请确保集群名称没有以 ztp 开始,或者将 Argo CD 策略应用程序命名空间调整为一个排除集群名称但仍然与策略命名空间匹配的模式。例如,如果集群名称以 ztp 开头,请将 Argo CD 策略应用程序配置中的模式更改为不同的内容,如 ztp-。(BZ#2049154)
  • 在 spoke 集群升级过程中,在容器日志中记录一个或多个协调错误。错误数量对应于子策略的数量。这个错误对集群造成显著影响。以下是协调错误的示例:

    2022-01-21T00:14:44.697Z        INFO    controllers.ClusterGroupUpgrade Upgrade is completed
    2022-01-21T00:14:44.892Z        ERROR   controller-runtime.manager.controller.clustergroupupgrade       Reconciler error        {"reconciler group": "ran.openshift.io", "reconciler kind": "ClusterGroupUpgrade", "name": "timeout", "namespace": "default", "error": "Operation cannot be fulfilled on clustergroupupgrades.ran.openshift.io \"timeout\": the object has been modified; please apply your changes to the latest version and try again"}
    sigs.k8s.io/controller-runtime/pkg/internal/controller.(*Controller).processNextWorkItem
            /go/pkg/mod/sigs.k8s.io/controller-runtime@v0.9.2/pkg/internal/controller/controller.go:253
    sigs.k8s.io/controller-runtime/pkg/internal/controller.(*Controller).Start.func2.2
            /go/pkg/mod/sigs.k8s.io/controller-runtime@v0.9.2/pkg/internal/controller/controller.go:214

    (BZ#2043301)

  • 在 spoke 集群从 4.9 升级到 4.10 期间,kube-apiserver pod 可能需要更长的时间才会启动。因此,升级不会完成,kube-apiserver 回滚到之前的版本。(BZ#2064024)
  • 如果您部署 AMQ Interconnect Operator,则 pod 仅在 IPv4 节点上运行。IPv6 节点上不支持 AMQ Interconnect Operator。(ENTMQIC-3297)

1.9.19.10. 程序错误修复

  • 在以前的版本中,Ingress Operator 会检测到通过 Ingress Controller 所做的更改,并将 Ingress Operator 的 Upgradeable 状态条件设置为 FalseFalse 状态条件会阻止升级。在这个版本中,Ingress Operator 不再会阻止升级。(BZ#2097735)

1.9.19.11. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.20. RHSA-2022:5664 - OpenShift Container Platform 4.10.24 程序错误修复和安全更新

发布日期: 2022 年 7 月 25 日

OpenShift Container Platform release 4.10.24 现已正式发布。此更新包括的程序错误修正信息包括在 RHSA-2022:5664 公告中。这个版本没有 RPM 软件包。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.24 --pullspecs

1.9.20.1. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.21. RHSA-2022:5730 - OpenShift Container Platform 4.10.25 程序错误修复和安全更新

发布日期: 2022 年 8 月 1 日

OpenShift Container Platform 版本 4.10.25 现已正式发布,其中包括安全更新。此更新包括的程序错误修正信息包括在 RHSA-2022:5730 公告中。此更新中包括的 RPM 软件包由 RHSA-2022:5729 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.25 --pullspecs

1.9.21.1. 程序错误修复

  • 在以前的版本中,当集群具有安全上下文约束 (SCC) 的情况下,默认 IngressController Deployment 可能会导致 pod 无法启动。这是因为,默认容器名称 router 会被创建,但没有请求容器 securityContext 中的足够权限。在这个版本中,路由器 Pod 将会接受到正确的 SCC,并在不出错的情况下创建。(BZ#2079034)
  • 在以前的版本中,处于 terminating 状态的路由器会延迟 oc cp 命令,这会延迟 must-gather。在这个版本中,每个 oc cp 命令有一个超时,这可以避免 must-gathers 的延迟。(BZ#2106842)

1.9.21.2. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.22. RHSA-2022:5875 - OpenShift Container Platform 4.10.26 程序错误修复和安全更新

发布日期: 2022 年 8 月 8 日

OpenShift Container Platform release 4.10.26 现已正式发布,其中包括安全更新。此更新包括的程序错误修正信息包括在 RHSA-2022:5875 公告中。此更新中包括的 RPM 软件包由 RHBA-2022:5874 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.26 --pullspecs

1.9.22.1. 程序错误修复

  • 在以前的版本中,AWS SDK 无法识别新区域,机器控制器无法使用它们。出现这个问题的原因是 AWS SDK 只识别来自供应商的 AWS SDK 的区域。在这个版本中,管理员可以使用 DescribeRegions 检查机器的指定区域,并在 SDK 未知的区域创建新机器。(BZ#2109124)
注意

这是一个新的 AWS 权限,您必须为带有新权限的手动模式集群更新凭证。

1.9.22.2. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.23. RHBA-2022:6095 - OpenShift Container Platform 4.10.28 程序错误修复和安全更新

发布日期: 2022 年 8 月 23 日

OpenShift Container Platform 版本 4.10.28 现已正式发布,其中包括安全更新。此更新包括的程序错误修正信息包括在 RHBA-2022:6095 公告中。此更新中包括的 RPM 软件包由 RHSA-2022:6094 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.28 --pullspecs

1.9.23.1. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.24. RHSA-2022:6133 - OpenShift Container Platform 4.10.30 程序错误修复和安全更新

发布日期: 2022 年 8 月 31 日

OpenShift Container Platform release 4.10.30 现已正式发布,其中包括安全更新。此更新包括的程序错误修正信息包括在 RHSA-2022:6133 公告中。此更新中包括的 RPM 软件包由 RHBA-2022:6132 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.30 --pullspecs

1.9.24.1. 功能

1.9.24.1.1. 二级网络的 pod 级别绑定的正式发布

在这个版本中,使用 pod 级别绑定已正式发布。

1.9.24.2. 程序错误修复

  • 在以前的版本中,Bond-CNI 的功能只限制为 active-backup 模式。在这个版本中,支持的绑定模式有:

    • balance-rr -0
    • active-backup -1
    • balance-xor -2

    (BZ#2102047)

1.9.24.3. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.25. RHSA-2022:6258 - OpenShift Container Platform 4.10.31 程序错误修复和安全更新

发布日期: 2022 年 9 月 7 日

OpenShift Container Platform release 4.10.31 现已正式发布,其中包括安全更新。此更新包括的程序错误修正信息包括在 RHSA-2022:6258 公告中。此更新中包括的 RPM 软件包由 RHBA-2022:6257 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.31 --pullspecs

1.9.25.1. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.26. RHBA-2022:6372 - OpenShift Container Platform 4.10.32 程序错误修复更新

发布日期: 2022 年 9 月 13 日

OpenShift Container Platform release 4.10.32 现已正式发布。此更新包括的程序错误修正信息包括在 RHBA-2022:6372 公告中。这个版本没有 RPM 软件包。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.32 --pullspecs

1.9.26.1. 程序错误修复

  • 在以前的版本中,使用 PROXY 协议的双栈集群仅在 IPv6 上启用它,而不是 IPv4。在这个版本中,OpenShift Container Platform 在双栈集群中为 IPv6 和 IPv4 启用 PROXY 协议。(BZ#2096362)

1.9.26.2. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.27. RHBA-2022:6532 - OpenShift Container Platform 4.10.33 程序错误修复和安全更新

发布日期: 2022 年 9 月 20 日

OpenShift Container Platform release 4.10.33 现已正式发布,其中包括安全更新。此更新包括的程序错误修正信息包括在 RHBA-2022:6532 公告中。此更新中包括的 RPM 软件包由 RHSA-2022:6531 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.33 --pullspecs

1.9.27.1. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.28. RHBA-2022:6663 - OpenShift Container Platform 4.10.34 程序错误修复和安全更新

发布日期: 2022 年 9 月 27 日

OpenShift Container Platform release 4.10.34 现已正式发布,其中包括安全更新。此更新包括的程序错误修正信息包括在 RHBA-2022:6663 公告中。此更新中包括的 RPM 软件包由 RHSA-2022:6661 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.34 --pullspecs

1.9.28.1. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.29. RHBA-2022:6728 - OpenShift Container Platform 4.10.35 程序错误修复更新

发布日期: 2022 年 10 月 4 日

OpenShift Container Platform release 4.10.35 现已正式发布。此更新包括的程序错误修正信息包括在 RHBA-2022:6728 公告中。此更新中包括的 RPM 软件包由 RHBA-2022:6727 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.35 --pullspecs

1.9.29.1. 程序错误修复

  • 在以前的版本中,Ingress Operator 中的逻辑不会验证 openshift-ingress 命名空间中的 kubernetes 服务对象是否由它试图协调的 Ingress Controller 创建。因此,无论所有权如何,Operator 会修改或删除具有相同名称和命名空间的 kubernetes 服务。在这个版本中,Ingress Operator 会检查它试图创建和删除的现有 kubernetes 服务的所有权。如果所有权不匹配,Ingress Operator 会提供错误。(OCPBUGS-1623)

1.9.29.2. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.30. RHSA-2022:6805 - OpenShift Container Platform 4.10.36 程序错误修复更新

发布日期: 2022 年 10 月 12 日

OpenShift Container Platform release 4.10.36 现已正式发布,其中包括安全更新。此更新包括的程序错误修正信息包括在 RHSA-2022:6805 公告中。此更新中包括的 RPM 软件包由 RHBA-2022:6803 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.36 --pullspecs

1.9.30.1. 程序错误修复

  • 在以前的版本中,路由器进程在初始化过程中忽略 SIGTERM 关闭信号。这会导致容器关闭一小时。在这个版本中,路由器会在初始化过程中响应 SIGTERM 信号。(BZ#2098230)

1.9.30.2. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.31. RHBA-2022:6901 - OpenShift Container Platform 4.10.37 程序错误修复更新

发布日期: 2022 年 10 月 18 日

OpenShift Container Platform release 4.10.37 现已正式发布。此更新包括的程序错误修正信息包括在 RHBA-2022:6901 公告中。此更新中包括的 RPM 软件包由 RHBA-2022:6899 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.37 --pullspecs

1.9.31.1. 程序错误修复

  • 在以前的版本中,在一个或多个 control plane 节点中添加 IP 地址会导致 etcd 集群 Operator 无法为节点重新生成 etcd 服务证书。在这个版本中,etcd 集群 Operator 会重新生成证书以对现有节点进行更改。(OCPBUGS-1758)

1.9.31.2. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.32. RHBA-2022:7035 - OpenShift Container Platform 4.10.38 程序错误修复更新

发布日期: 2022 年 10 月 25 日

OpenShift Container Platform release 4.10.38 现已正式发布。此更新包括的程序错误修正信息包括在 RHBA-2022:7035 公告中。此更新中包括的 RPM 软件包由 RHBA-2022:7033 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.38 --pullspecs

1.9.32.1. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.33. RHSA-2022:7211 - OpenShift Container Platform 4.10.39 程序错误修复和安全更新

发布日期: 2022 年 11 月 1 日

OpenShift Container Platform release 4.10.39 现已正式发布,其中包括安全更新。此更新包括的程序错误修正信息包括在 RHSA-2022:7211 公告中。此更新中包括的 RPM 软件包由 RHBA-2022:7210 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.39 --pullspecs

1.9.33.1. 主要的技术变化

  • 在这个版本中,当服务帐户签发者改为自定义令牌时,现有的绑定服务帐户令牌不再立即无效。相反,当更改服务帐户签发者时,以前的服务帐户签发者将继续被信任 24 小时。

如需更多信息,请参阅使用卷投射配置绑定服务帐户令牌

1.9.33.2. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.34. RHBA-2022:7298 - OpenShift Container Platform 4.10.40 程序错误修复更新

发布日期: 2022 年 11 月 9 日

OpenShift Container Platform release 4.10.40 现已正式发布。此更新包括的程序错误修正信息包括在 RHBA-2022:7298 公告中。此更新中包括的 RPM 软件包由 RHBA-2022:7297 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.40 --pullspecs

1.9.34.1. 程序错误修复

  • 在此次更新之前,noAllowedAddressPairs 设置应用到同一网络中的所有子网。在这个版本中,noAllowedAddressPairs 设置只适用于其匹配的子网。(OCPBUGS-1951)

1.9.34.2. 主要的技术变化

  • Cloud Credential Operator 实用程序(ccoctl)现在创建使用 AWS 安全令牌服务(AWS STS) 的区域端点的 secret。此方法与 AWS 推荐的最佳实践一致。

1.9.34.3. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.35. RHBA-2022:7866 - OpenShift Container Platform 4.10.41 程序错误修复和安全更新

发布日期: 2022 年 11 月 18 日

OpenShift Container Platform release 4.10.41 现已正式发布,其中包括安全更新。此更新包括的程序错误修正信息包括在 RHBA-2022:7866 公告中。此更新中包括的 RPM 软件包由 RHSA-2022:7865 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.41 --pullspecs

1.9.35.1. 主要的技术变化

1.9.35.2. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.36. RHBA-2022:8496 - OpenShift Container Platform 4.10.42 程序错误修复更新

发布日期: 2022 年 11 月 22 日

OpenShift Container Platform release 4.10.42 现已正式发布。此更新包括的程序错误修正信息包括在 RHBA-2022:8496 公告中。此更新中包括的 RPM 软件包由 RHBA-2022:8495 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.42 --pullspecs

1.9.36.1. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.37. RHBA-2022:8623 - OpenShift Container Platform 4.10.43 程序错误修复更新

发布日期: 2022 年 11 月 29 日

OpenShift Container Platform release 4.10.43 现已正式发布。此更新包括的程序错误修正信息包括在 RHBA-2022:8623 公告中。此更新中包括的 RPM 软件包由 RHBA-2022:8622 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.43 --pullspecs

1.9.37.1. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.38. RHBA-2022:8882 - OpenShift Container Platform 4.10.45 程序错误修复更新

发布日期: 2022 年 12 月 14 日

OpenShift Container Platform release 4.10.45 现已正式发布。此更新包括的程序错误修正信息包括在 RHBA-2022:8882 公告中。此更新中包括的 RPM 软件包由 RHBA-2022:8881 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.45 --pullspecs

1.9.38.1. 程序错误修复

  • 在以前的版本中,当没有显示内容时,一些对象存储实例会以 204 No Content 响应。OpenShift Container Platform 中使用的 Red Hat OpenStack Platform (RHOSP) SDK 无法正确处理 204s。在这个版本中,当列出 0 个项目时,安装程序会解决这个问题。(OCPBUGS-4160)

1.9.38.2. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.39. RHBA-2022:9099 - OpenShift Container Platform 4.10.46 程序错误修复和安全更新

发布日期:2023 年 1 月 4 日

OpenShift Container Platform release 4.10.46 现已正式发布,其中包括安全更新。此更新包括的程序错误修正信息包括在 RHBA-2022:9099 公告中。此更新中包括的 RPM 软件包由 RHSA-2022:9098 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.46 --pullspecs

1.9.39.1. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.40. RHSA-2023:0032 - OpenShift Container Platform 4.10.47 程序错误修复和安全更新

发布日期:2023 年 1 月 4 日

OpenShift Container Platform release 4.10.47 现已正式发布,其中包括安全更新。此更新包括的程序错误修正信息包括在 RHSA-2023:0032 公告中。此更新中包括的 RPM 软件包由 RHBA-2023:0031 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.47 --pullspecs

1.9.40.1. 功能增强

  • IPv6 unsolicited neighbor 公告和 IPv4 gratuitous 地址解析协议现在默认在 SR-IOV CNI 插件中。使用单一根 I/O 虚拟化 (SR-IOV) CNI 插件创建的 Pod,其中 IP 地址管理 CNI 插件已经分配 IP,现在发送 IPv6 unsolicited 邻居公告和/或 IPv4 gratuitous 地址解析协议(在网络中)。此功能增强会通知特定 IP 的新 pod MAC 地址的主机,以使用正确的信息刷新 ARP/NDP 缓存。如需更多信息,请参阅支持的设备

1.9.40.2. 程序错误修复

  • 在以前的版本中,在 CoreDNS v1.7.1 中,所有上游缓存刷新都使用 DNSSEC。对于上游查询,bufsize 被硬编码为 2048 字节,从而导致一些 DNS 上游查询在网络基础架构中有 UDP Payload 限制时中断。在这个版本中,OpenShift Container Platform 总是将 bufsize 512 用于上游缓存请求,因为是 Corefile 中指定的 bufsize。如果客户依赖 bufsize 2048 不正确的功能进行上游 DNS 请求,则客户可能会受到影响。(OCPBUGS-2902)
  • 在以前的版本中,OpenShift Container Platform 不处理响应 204 No Content 的对象存储实例。这会导致 Red Hat OpenStack Platform (RHOSP) SDK 出现问题。在这个版本中,当 Swift 容器中列出零对象时,安装程序会解决这个问题。(OCPBUGS-5112)

1.9.40.3. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.41. RHSA-2023:0241 - OpenShift Container Platform 4.10.50 程序错误修复和安全更新

发布日期:2023 年 1 月 24 日

OpenShift Container Platform release 4.10.50 现已正式发布,其中包括安全更新。此更新包括的程序错误修正信息包括在 RHSA-2023:0241 公告中。此更新中包括的 RPM 软件包由 RHBA-2023:0240 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.50 --pullspecs

1.9.41.1. 程序错误修复

  • 在以前的版本中,当轮转 Red Hat OpenStack Platform (RHOSP) 凭证时,Cinder Container Storage Interface 驱动程序将继续使用旧凭证。使用无效的旧凭证将导致所有卷操作都失败。在这个版本中,当更新 Red Hat OpenStack Platform (RHOSP) 凭证时,Cinder Container Storage Interface 驱动程序会自动更新。(OCPBUGS-4717)
  • * 在以前的版本中,pod 失败是通常扩展证书的有效性周期,从而导致它们错误地轮转。在这个版本中,证书有效期周期可以准确决定,这有助于正确轮转证书。(BZ#2020484)

1.9.41.2. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.42. RHSA-2023:0561 - OpenShift Container Platform 4.10.51 程序错误修复和安全更新

发布日期:2023 年 2 月 8 日

OpenShift Container Platform release 4.10.51 现已正式发布,其中包括安全更新。此更新包括的程序错误修正信息包括在 RHSA-2023:0561 公告中。此更新中包括的 RPM 软件包由 RHSA-2023:0560 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.51 --pullspecs

1.9.42.1. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.43. RHSA-2023:0698 - OpenShift Container Platform 4.10.52 程序错误修复和安全更新

发布日期:2023 年 2 月 15 日

OpenShift Container Platform release 4.10.52 现已正式发布,其中包括安全更新。此更新包括的程序错误修正信息包括在 RHSA-2023:0698 公告中。此更新中包括的 RPM 软件包由 RHSA-2023:0697 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.52 --pullspecs

1.9.43.1. 程序错误修复

  • 在此次更新之前,当 Redfish 系统具有 Settings URI 时,Ironic 置备服务总是尝试使用此 URI 来更改引导相关的 BIOS 设置。但是,如果 Baseboard Management Controller (BMC) 带有 Settings URI,但不支持使用此设置 URI 更改特定的 BIOS 设置,裸机置备会失败。在 OpenShift Container Platform 4.10 及更高版本中,如果系统具有 Settings URI,Ironic 会在继续操作前使用 Settings URI 来验证它是否可以更改特定的 BIOS 设置。否则,Ironic 使用 System URI 实现更改。此额外逻辑可确保 Ironic 可以应用与引导相关的 BIOS 设置更改,裸机置备可以成功。(OCPBUGS-6886)
  • 在以前的版本中,因为缺少 spec.provider 定义,在尝试显示 ClusterServiceVersionOperator 详情页面会失败。在这个版本中,用户界面在没有 spec.provider 的情况下工作,Operator 详情页面 也不会失败。(OCPBUGS-6690)

1.9.43.2. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.44. RHSA-2023:0698 - OpenShift Container Platform 4.10.53 程序错误修复和安全更新

发布日期:2023 年 3 月 1 日

OpenShift Container Platform release 4.10.53 现已正式发布,其中包括安全更新。此更新包括的程序错误修正信息包括在 RHSA-2023:0899 公告中。此更新中包括的 RPM 软件包由 RHBA-2023:0898 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.53 --pullspecs

1.9.44.1. 程序错误修复

  • 为了与没有安装 Swift 的 OpenStack 云兼容,Cluster Image Registry Operator (CIRO) 具有在第一次引导过程中自动选择存储后端的机制。如果 Swift 可用,则使用 Swift。否则,会发出持久性卷声明 (PVC) 并使用块存储。在以前的版本中,当 CIRO 无法访问 Swift 时,CIRO 会回退到使用 PVC。特别是,第一次引导过程中缺少连接会导致 CIRO 回退到使用 PVC。在这个版本中,无法访问 OpenStack API 或其他事件故障会导致 CIRO 重试探测。只有在 OpenStack 目录正确找到时,才会进行回退到 PVC,它不包含对象存储,或者当前用户没有列出容器的权限。(OCPBUGS-5974)
  • 在以前的版本中,User Provisioned Infrastructure (UPI) 不会为计算机器创建服务器组。OpenShift Container Platform 4.10 更新 UPI 脚本,以便脚本为计算机器创建一个服务器组。UPI 脚本安装方法现在与安装程序置备的安装 (IPI) 方法保持一致。(OCPBUGS-2731)

1.9.44.2. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.45. RHSA-2023:1154 - OpenShift Container Platform 4.10.54 程序错误修复和安全更新

发布日期:2023 年 3 月 15 日

OpenShift Container Platform 版本 4.10.54 现已正式发布,其中包括安全更新。此更新包括的程序错误修正信息包括在 RHSA-2023:1154 公告中。此更新中包括的 RPM 软件包由 RHBA-2023:1153 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.54 --pullspecs

1.9.45.1. 程序错误修复

  • 在以前的版本中,当在 OpenShift Container Platform 控制台中编辑任何管道时,管道构建器YAML 视图 配置选项中不会呈现正确的数据,这会阻止您在管道构建器中编辑管道。在这个版本中,数据会被正确解析,您可以使用构建器编辑管道。(OCPBUGS-7657)

1.9.45.2. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.46. RHSA-2023:1392 - OpenShift Container Platform 4.10.55 程序错误修复和安全更新

发布日期:2023 年 3 月 29 日

OpenShift Container Platform 版本 4.10.55 现已正式发布,其中包括安全更新。此更新包括的程序错误修正信息包括在 RHSA-2023:1392 公告中。此更新中包括的 RPM 软件包由 RHBA-2023:1391 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.55 --pullspecs

1.9.46.1. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.47. RHSA-2023:1656 - OpenShift Container Platform 4.10.56 程序错误修复和安全更新

发布日期:2023 年 4 月 12 日

OpenShift Container Platform 版本 4.10.56 现已正式发布,其中包括安全更新。此更新包括的程序错误修正信息包括在 RHSA-2023:1656 公告中。此更新中包括的 RPM 软件包由 RHSA-2023:1655 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.56 --pullspecs

1.9.47.1. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.48. RHBA-2023:1782 - OpenShift Container Platform 4.10.57 程序错误修复更新

发布日期:2023 年 4 月 19 日

OpenShift Container Platform 版本 4.10.57 现已正式发布。此更新包括的程序错误修正信息包括在 RHBA-2023:1782 公告中。此更新没有 RPM 软件包。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.57 --pullspecs

1.9.48.1. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.49. RHBA-2023:1867 - OpenShift Container Platform 4.10.58 程序错误修复和安全更新

发布日期:2023 年 4 月 26 日

OpenShift Container Platform 版本 4.10.58 现已正式发布。此更新包括的程序错误修正信息包括在 RHBA-2023:1867 公告中。此更新中包括的 RPM 软件包由 RHSA-2023:1866 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.58 --pullspecs

1.9.49.1. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.50. RHBA-2023:2018 - OpenShift Container Platform 4.10.59 程序错误修复更新

发布日期:2023 年 5 月 3 日

OpenShift Container Platform 版本 4.10.59 现已正式发布。此更新包括的程序错误修正信息包括在 RHBA-2023:2018 公告中。此更新中包括的 RPM 软件包由 RHSA-2023:2017 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.59 --pullspecs

1.9.50.1. 程序错误修复

  • 在以前的版本中,拓扑侧边栏不会显示更新的信息。当您直接从拓扑边栏中更新资源时,您必须重新打开侧边栏来查看更改。在这个版本中,更新的资源会被正确显示。因此,您可以在拓扑侧边栏中直接看到最新的更改。(OCPBUGS-12438)
  • 在以前的版本中,当创建 Secret 时,Start Pipeline 模型会创建一个无效的 JSON 值。因此,Secret 不可用,PipelineRun 可能会失败。在这个版本中,Start Pipeline 模型会为 secret 创建一个有效的 JSON 值。现在,您可以在启动管道时创建有效的 secret。(OCPBUGS-7961)

1.9.50.2. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.51. RHBA-2023:3217 - OpenShift Container Platform 4.10.60 程序错误修复和安全更新

发布日期:2023 年 5 月 24 日

OpenShift Container Platform 版本 4.10.60 现已正式发布,其中包括安全更新。此更新包括的程序错误修正信息包括在 RHBA-2023:3217 公告中。此更新中包括的 RPM 软件包由 RHSA-2023:3216 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.60 --pullspecs

1.9.51.1. 功能

1.9.51.1.1. MetalLB 日志详细程度的控制
  • 在这个版本中,您可以控制 MetalLB 日志的详细程度。您可以通过对 MetalLB 自定义资源 (CR) 中的 logLevel 规格使用以下值来控制日志级别:

    • all
    • debug
    • info
    • warn
    • 错误
    • none

    例如,您可以指定 debug 值,使其包含有助于故障排除的诊断日志信息。

    有关 MetalLB 的日志记录级别的更多信息,请参阅设置 MetalLB 日志记录级别 (OCPBUGS-11861)

1.9.51.2. 更新

要将现有 OpenShift Container Platform 4.10 集群更新至此最新版本,请参阅使用 CLI 在次版本中更新集群以获取相关说明。

1.9.52. RHSA-2023:3363 - OpenShift Container Platform 4.10.61 程序错误修复和安全更新

发布日期:2023 年 6 月 7 日

OpenShift Container Platform 版本 4.10.61 现已正式发布,其中包括安全更新。此更新包括的程序错误修正信息包括在 RHSA-2023:3363 公告中。此更新中包括的 RPM 软件包由 RHSA-2023:3362 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.61 --pullspecs

1.9.52.1. 更新

要将现有 OpenShift Container Platform 4.10 集群更新到此最新版本,请参阅使用 CLI 更新集群 以获取相关说明。

1.9.53. RHSA-2023:3626 - OpenShift Container Platform 4.10.62 程序错误修复和安全更新

发布日期:2023 年 6 月 23 日

OpenShift Container Platform 版本 4.10.62 现已正式发布,其中包括安全更新。此更新包括的程序错误修正信息包括在 RHBA-2023:3626 公告中。此更新中包括的 RPM 软件包由 RHSA-2023:3625 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.62 --pullspecs

1.9.53.1. 更新

要将现有 OpenShift Container Platform 4.10 集群更新到此最新版本,请参阅使用 CLI 更新集群 以获取相关说明。

1.9.54. RHSA-2023:3911 - OpenShift Container Platform 4.10.63 程序错误修复和安全更新

发布日期:2023 年 7 月 6 日

OpenShift Container Platform 版本 4.10.63 现已正式发布,其中包括安全更新。在这个版本中,为以 FIPS 模式运行 OpenShift Container Platform 的客户有一个红帽安全专家。如需更多信息,请参阅 RHSB-2023:001

此更新包括的程序错误修正信息包括在 RHSA-2023:3911 公告中。此更新中包括的 RPM 软件包由 RHSA-2023:3910 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.63 --pullspecs

1.9.54.1. 更新

要将现有 OpenShift Container Platform 4.10 集群更新到此最新版本,请参阅使用 CLI 更新集群 以获取相关说明。

1.9.55. RHBA-2023:4217 - OpenShift Container Platform 4.10.64 程序错误修复更新

发布日期:2023 年 7 月 26 日

OpenShift Container Platform 版本 4.10.64 现已正式发布。此更新包括的程序错误修正信息包括在 RHBA-2023:4217 公告中。此更新中包括的 RPM 软件包由 RHBA-2023:4219 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.64 --pullspecs

1.9.55.1. 更新

要将现有 OpenShift Container Platform 4.10 集群更新到此最新版本,请参阅使用 CLI 更新集群 以获取相关说明。

1.9.56. RHBA-2023:4445 - OpenShift Container Platform 4.10.65 程序错误修复更新

发布日期:2023 年 8 月 9 日

OpenShift Container Platform 版本 4.10.65 现已正式发布。此更新包括的程序错误修正信息包括在 RHBA-2023:4445 公告中。此更新中包括的 RPM 软件包由 RHBA-2023:4447 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.65 --pullspecs

1.9.56.1. 更新

要将现有 OpenShift Container Platform 4.10 集群更新到此最新版本,请参阅使用 CLI 更新集群 以获取相关说明。

1.9.57. RHBA-2023:4667 - OpenShift Container Platform 4.10.66 程序错误修复更新

发布日期:2023 年 8 月 23 日

OpenShift Container Platform 版本 4.10.66 现已正式发布。此更新包括的程序错误修正信息包括在 RHBA-2023:4667 公告中。此更新中包括的 RPM 软件包由 RHBA-2023:4669 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.66 --pullspecs

1.9.57.1. 更新

要将现有 OpenShift Container Platform 4.10 集群更新到此最新版本,请参阅使用 CLI 更新集群 以获取相关说明。

1.9.58. RHBA-2023:4896 - OpenShift Container Platform 4.10.67 程序错误修复和安全更新

发布日期:2023 年 9 月 6 日

OpenShift Container Platform release 4.10.67 现已正式发布,其中包括安全更新。此更新包括的程序错误修正信息包括在 RHBA-2023:4896 公告中。此更新中包括的 RPM 软件包由 RHSA-2023:4898 公告提供。

您可以运行以下命令来查看此发行版本中的容器镜像:

$ oc adm release info 4.10.67 --pullspecs

1.9.58.1. 更新

要将现有 OpenShift Container Platform 4.10 集群更新到此最新版本,请参阅使用 CLI 更新集群 以获取相关说明。

法律通告

Copyright © 2023 Red Hat, Inc.
The text of and illustrations in this document are licensed by Red Hat under a Creative Commons Attribution–Share Alike 3.0 Unported license ("CC-BY-SA"). An explanation of CC-BY-SA is available at http://creativecommons.org/licenses/by-sa/3.0/. In accordance with CC-BY-SA, if you distribute this document or an adaptation of it, you must provide the URL for the original version.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, the Red Hat logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.