1.3. 新機能および機能拡張

今回のリリースでは、以下のコンポーネントおよび概念に関連する拡張機能が追加されました。

1.3.1. Red Hat Enterprise Linux CoreOS (RHCOS)

1.3.1.1. インストール Ignition 設定は起動時に削除されます。

coreos-installer プログラムでインストールされるノードは、以前は /boot/ignition/config.ign ファイルにインストール Ignition 設定を保持していました。OpenShift Container Platform 4.9 のインストールイメージから、このファイルはノードのプロビジョニング時に削除されます。この変更は、以前の OpenShift Container Platform バージョンにインストールされたクラスターには影響を与えません。以前のブートイメージを使用するためです。

1.3.1.2. RHCOS が RHEL 8.4 を使用するように

RHCOS は、OpenShift Container Platform 4.9 で Red Hat Enterprise Linux (RHEL) 8.4 パッケージを使用するようになりました。これらのパッケージは、NetworkManager の機能など、最新の修正、機能、拡張、および最新のハードウェアサポートとドライバーの更新を提供します。

1.3.2. インストールおよびアップグレード

1.3.2.1. ユーザーによってプロビジョニングされるインフラストラクチャーを使用した Microsoft Azure Stack Hub へのクラスターのインストール

OpenShift Container Platform 4.9 では、ユーザーによってプロビジョニングされるインフラストラクチャーを使用して Azure Stack Hub にクラスターをインストールするためのサポートが導入されました。

デプロイメントプロセスを支援する Red Hat 提供の Azure Resource Manager (ARM) テンプレートのサンプルを組み込むか、または独自のテンプレートを作成することができます。他の方法を使用して必要なリソースを作成することもできます。ARM テンプレートはサンプルとしてのみ提供されます。

詳細は、Installing a cluster on Azure Stack Hub using ARM templates を参照してください。

1.3.2.2. クラスターを更新する前のマシンヘルスチェックの一時停止

アップグレードプロセスで、クラスター内のノードが一時的に利用できなくなる可能性があります。ワーカーノードの場合、マシンのヘルスチェックにより、このようなノードは正常ではないと識別され、それらが再起動される場合があります。このようなノードの再起動を回避するために、OpenShift Container Platform 4.9 では cluster.x-k8s.io/paused="" アノテーションが導入され、クラスターの更新前に MachineHealthCheck リソースを一時停止できます。

詳細は、Pausing a MachineHealthCheck resource を参照してください。

1.3.2.3. マシン CIDR 内の Azure サブネットサイズの拡大

Microsoft Azure の OpenShift Container Platform インストールプログラムは、マシン CIDR 内に可能な限り大きなサブネットを作成するようになりました。これにより、クラスターがマシン CIDR のサイズを、クラスター内のノード数に対応するように設定できます。

1.3.2.4. 中国での AWS リージョンのサポート

OpenShift Container Platform 4.9 では、中国の AWS リージョンのサポートが導入されました。cn-north-1 (Beijing) および cn-northwest-1(Ningxia) リージョンに OpenShift Container Platform クラスターをインストールし、更新できるようになりました。

詳細は、Installing a cluster on AWS China を参照してください。

1.3.2.5. baremetal ネットワーク上の仮想メディアを使用したクラスターの拡張

OpenShift Container Platform 4.9 では、baremetal ネットワークで仮想メディアを使用して、provisioning ネットワークを使用してデプロイされるインストーラーでプロビジョニングされるクラスターを拡張することができます。ProvisioningNetwork 設定が Managed に設定されている場合、この機能を使用できます。この機能を使用するには、provisioning カスタムリソース (CR) で virtualMediaViaExternalNetwork 設定を true に設定する必要があります。また、API VIP アドレスを使用するようにマシンセットを編集する必要もあります。詳細は、Preparing to deploy with Virtual Media on the baremetal network を参照してください。

1.3.2.6. OpenShift Container Platform 4.8 から 4.9 にアップグレードする際に、管理者の承認が必要

OpenShift Container Platform 4.9 は Kubernetes 1.22 を使用します。これにより、非推奨となった v1beta1 APIs が大幅に 削除されました。

OpenShift Container Platform 4.8.14 では、クラスターを OpenShift Container Platform 4.8 から 4.9 にアップグレードする前に、管理者が手動で承認する必要があるという要件が導入されました。削除された API が、クラスター上で実行されている、またはクラスターと対話しているワークロード、ツール、またはその他のコンポーネントによって引き続き使用される OpenShift Container Platform 4.9 にアップグレードした後の問題を防ぐ上で役立ちます。管理者は、削除する予定の使用中の API のクラスターを評価し、影響を受けるコンポーネントを移行して適切な新規 API バージョンを使用する必要があります。これが実行された後、管理者は管理者の承認を提供できます。

すべての OpenShift Container Platform 4.8 クラスターでは、OpenShift Container Platform 4.9 にアップグレードする前に、この管理者の承認が必要になります。

詳細は、Preparing to update to OpenShift Container Platform 4.9 を参照してください。

1.3.2.7. PCI パススルーを使用する RHOSP デプロイメントへのインストールのサポート

OpenShift Container Platform 4.9 では、PCI パススルー に依存する Red Hat OpenStack Platform (RHOSP) デプロイメントへのインストールがサポートされるようになりました。

1.3.2.8. etcd バージョン 3.4 から 3.5 へのアップグレード

OpenShift Container Platform 4.9 は etcd 3.5 をサポートします。クラスターをアップグレードする前に、有効な etcd バックアップが存在することを確認します。etcd バックアップは、アップグレードの失敗が発生した場合に、クラスターを復元できることを保証します。OpenShift Container Platform 4.9 では、etcd のアップグレードは自動的に行われます。クラスターのバージョン 4.9 への移行状態によっては、etcd バックアップが利用可能である可能性があります。ただし、クラスターのアップグレードを開始する前に、バックアップが存在することを確認することが推奨されます。

1.3.2.9. インストーラーでプロビジョニングされるインフラストラクチャーを使用した IBM Cloud へのクラスターのインストール

OpenShift Container Platform 4.9 では、インストーラーでプロビジョニングされるインフラストラクチャーを使用して IBM Cloud® にクラスターをインストールするためのサポートが導入されました。手順は、以下の相違点で、ベアメタルのインストーラーでプロビジョニングされるインフラストラクチャーとほぼ同じです。

  • IBM Cloud での OpenShift Container Platform 4.9 のインストーラーでプロビジョニングされるインストールには、provisioning ネットワーク、IPMI、および PXE ブートが必要です。Red Hat は、IBM Cloud での Redfish および仮想メディアを使用したデプロイメントをサポートしません。
  • IBM Cloud でパブリックおよびプライベート VLAN を作成および設定する必要があります。
  • インストールプロセスを開始する前に、IBM Cloud ノードが利用可能である必要があります。そのため、最初に IBM Cloud ノードを作成する必要があります。
  • プロビジョナーノードを準備する必要があります。
  • パブリック baremetal ネットワークに DHCP サーバーをインストールおよび設定する必要があります。
  • 各ノードが IPMI を使用して BMC を参照できるように install-config.yaml ファイルを設定し、IPMI の権限レベルを OPERATOR に設定する必要があります。

詳細は、Deploying installer-provisioned clusters on IBM Cloud を参照してください。

1.3.2.10. インストーラーでプロビジョニングされるクラスターでの Fujitsu ハードウェアのサポートの改善

OpenShift Container Platform 4.9 は、インストーラーでプロビジョニングされるクラスターを Fujitsu ハードウェアにデプロイし、Fujite 統合 Remote Management Controller (iRMC) を使用する場合はワーカーノードの BIOS 設定サポートを追加します。詳細は、Configuring BIOS for worker node を参照してください。

1.3.3. Web コンソール

1.3.3.1. Node ページからのノードログへのアクセス

今回の更新により、管理者は Node ページからノードログにアクセスできるようになりました。ノードのログを確認するには、Logs タブをクリックして個別のログファイルとジャーナルログユニットを切り替えます。

1.3.3.2. ノードタイプ別のクラスター使用率のダウン

クラスターダッシュボードの Cluster utilization カードで、ノードタイプでフィルターできるようになりました。追加のノードタイプは作成時に一覧に表示されます。

1.3.3.3. ユーザー設定

今回の更新で、デフォルトのプロジェクト、パースペクティブ、トポロジービューなどの設定をカスタマイズするための User Preferences ページが追加されました。

1.3.3.4. プロジェクト一覧からのデフォルトプロジェクトを非表示に

今回の更新により、Web コンソールのマストヘッドで、Projects ドロップダウンから default projects を非表示にできるようになりました。検索およびフィルターの前に、default projects を表示に切り替えることができます。

1.3.3.5. Web コンソールでのユーザー設定の追加

今回の更新により、Web コンソールにユーザー設定を追加できるようになりました。ユーザーは、デフォルトのパースペクティブ、プロジェクト、トポロジー、およびその他の設定を選択できます。

1.3.3.6. Developer パースペクティブ

  • Git リポジトリーを使用して devfile、Dockerfile、またはビルダーイメージをインポートして、デプロイメントをさらにカスタマイズできるようになりました。ファイルのインポートタイプを編集し、ファイルをインポートする別のストラテジーを選択することもできます。
  • 開発者コンソールで、Pipeline builder の更新されたユーザーインターフェイスを使用して、Add task および Quick Search を使用して、パイプラインにタスクを追加できるようになりました。この強化されたエクスペリエンスにより、ユーザーは Tekton Hub からタスクを追加できるようになりました。
  • ビルド設定を編集するには、Developer パースペクティブの Builds ビューで Edit BuildConfig オプションを使用します。ユーザーは、Form view および YAML view を使用してビルド設定を編集できます。
  • トポロジー Graph view のコンテキストメニューを使用してサービスを追加したり、Operator がサポートするサービスとの接続をプロジェクトに作成したりできます。
  • トポロジー Graph view のコンテキストメニューで +Add アクションを使用すると、アプリケーショングループ内にサービスを追加したり、サービスを削除したりできます。
  • pipeline as code の初期サポートは、OpenShift Pipelines Operator によって有効にされる Pipelines Repository list ビューで利用可能になりました。
  • トポロジーの Observe ページの Application Monitoring セクションに、ユーザービリティーが強化されました。

1.3.4. IBM Z および LinuxONE

本リリースでは、IBM Z および LinuxONE は OpenShift Container Platform 4.9 と互換性があります。インストールは z/VM または RHEL KVM で実行できます。インストール手順については、以下のドキュメントを参照してください。

主な機能拡張

以下の新機能は、OpenShift Container Platform 4.9 の IBM Z および LinuxONE でサポートされます。

  • Helm
  • 複数ネットワークインターフェイスのサポート
  • サービスバインディング Operator
サポートされる機能

以下の機能が IBM Z および LinuxONE でもサポートされるようになりました。

  • 現時点で、以下の Operator がサポートされています。

    • Cluster Logging Operator
    • NFD Operator
    • OpenShift Elasticsearch Operator
    • Local Storage Operator
    • サービスバインディング Operator
  • etcd に保存されるデータの暗号化
  • マルチパス化
  • iSCSI を使用した永続ストレージ
  • ローカルボリュームを使用した永続ストレージ (Local Storage Operator)
  • hostPath を使用した永続ストレージ
  • ファイバーチャネルを使用した永続ストレージ
  • Raw Block を使用した永続ストレージ
  • OVN-Kubernetes
  • 3 ノードクラスターのサポート
  • SCSI ディスク上の z/VM Emulated FBA デバイス
  • 4k FCP ブロックデバイス

これらの機能は、4.9 について IBM Z および LinuxONE の OpenShift Container Platform にのみ利用できます。

  • IBM Z および LinuxONE で有効にされている HyperPAV (FICON 接続の ECKD ストレージの仮想マシン用)。
制約

IBM Z および LinuxONE の OpenShift Container Platform については、以下の制限に注意してください。

  • 以下の OpenShift Container Platform のテクノロジープレビュー機能はサポートされていません。

    • Precision Time Protocol (PTP) ハードウェア
  • 以下の OpenShift Container Platform 機能はサポートされていません。

    • マシンヘルスチェックによる障害のあるマシンの自動修復
    • CodeReady Containers (CRC)
    • オーバーコミットの制御およびノード上のコンテナーの密度の管理
    • CSI ボリュームのクローン作成
    • CSI ボリュームスナップショット
    • FIPS 暗号
    • Multus CNI プラグイン
    • NVMe
    • OpenShift Metering
    • OpenShift Virtualization
    • OpenShift Container Platform のデプロイメント時の Tang モードのディスク暗号化
  • ワーカーノードは Red Hat Enterprise Linux CoreOS (RHCOS) を実行する必要があります。
  • 永続共有ストレージは、NFS またはその他のサポートされるストレージプロトコルを使用してプロビジョニングする必要があります。
  • 共有されていない永続ストレージは、iSCSI、FC、DASD、FCP または EDEV/FBA と共に LSO を使用するなど、ローカルストレージを使用してプロビジョニングする必要があります。

1.3.5. IBM Power Systems

本リリースでは、IBM Power Systems は OpenShift Container Platform 4.9 と互換性があります。インストール手順については、以下のドキュメントを参照してください。

主な機能拡張

以下の新機能は、OpenShift Container Platform 4.9 の IBM Power Systems でサポートされます。

  • Helm
  • Power10 のサポート
  • 複数ネットワークインターフェイスのサポート
  • サービスバインディング Operator
サポートされる機能

以下の機能は、IBM Power Systems でもサポートされています。

  • 現時点で、以下の Operator がサポートされています。

    • Cluster Logging Operator
    • NFD Operator
    • OpenShift Elasticsearch Operator
    • Local Storage Operator
    • SR-IOV ネットワーク Operator
    • サービスバインディング Operator
  • マルチパス化
  • iSCSI を使用した永続ストレージ
  • ローカルボリュームを使用した永続ストレージ (Local Storage Operator)
  • hostPath を使用した永続ストレージ
  • ファイバーチャネルを使用した永続ストレージ
  • Raw Block を使用した永続ストレージ
  • OVN-Kubernetes
  • 4K ディスクのサポート
  • NVMe
  • etcd に保存されるデータの暗号化
  • 3 ノードクラスターのサポート
  • Multus SR-IOV
制約

IBM Power Systems の OpenShift Container Platform については、以下の制限に注意してください。

  • 以下の OpenShift Container Platform のテクノロジープレビュー機能はサポートされていません。

    • Precision Time Protocol (PTP) ハードウェア
  • 以下の OpenShift Container Platform 機能はサポートされていません。

    • マシンヘルスチェックによる障害のあるマシンの自動修復
    • CodeReady Containers (CRC)
    • オーバーコミットの制御およびノード上のコンテナーの密度の管理
    • FIPS 暗号
    • OpenShift Metering
    • OpenShift Virtualization
    • OpenShift Container Platform のデプロイメント時の Tang モードのディスク暗号化
  • ワーカーノードは Red Hat Enterprise Linux CoreOS (RHCOS) を実行する必要があります。
  • 永続ストレージは、ローカルボリューム、Network File System (NFS)、または Container Storage Interface (CSI) を使用する Filesystem タイプである必要があります。

1.3.6. セキュリティーおよびコンプライアンス

1.3.6.1. カスタムルールによる監査ログポリシーの設定

OpenShift Container Platform の監査ロギングレベルをきめ細かく制御できるようになりました。カスタムルールを使用して、異なるグループに異なる監査ポリシープロファイル (DefaultWriteRequestBodiesAllRequestBodies、または None) を指定することができます。

詳細は、Configuring the audit log policy with custom rules を参照してください。

1.3.6.2. 監査ロギングの無効化

None 監査ポリシープロファイルを使用して OpenShift Container Platform の監査ロギングを無効にできるようになりました。

警告

問題のトラブルシューティング時に有用なデータが記録されないリスクを完全に理解していない限り、監査ロギングを無効にすることは推奨していません。監査ロギングを無効にしてサポートが必要な状況が生じた場合は、適切にトラブルシューティングを行うために監査ロギングを有効にし、問題を再現する必要がある場合があります。

詳細は、Disabling audit logging を参照してください。

1.3.6.3. OAuth サーバー URL のカスタマイズ

内部 OAuth サーバーの URL をカスタマイズすることができるようになりました。詳細は、Customizing the internal OAuth server URL を参照してください。

1.3.6.4. Network-Bound Disk Encryption (NBDE)

OpenShift Container Platform 4.9 では、NBDE を設定したシステムのメンテナンスを継続的に行う手順が追加されました。NBDE を使用すると、マシンの再起動時にパスワードを手動で入力しなくても、物理マシンおよび仮想マシン上のハードドライブのルートボリュームを暗号化できます。詳細は、About disk encryption technology を参照してください。

1.3.7. etcd

1.3.7.1. etcd 証明書の自動ローテーション

OpenShift Container Platform 4.9 では、etcd 証明書は自動的にローテーションされ、システムによって管理されます。

1.3.7.2. API サーバーの追加の TLS セキュリティープロファイル設定

Kubernetes API サーバー TLS セキュリティープロファイル設定も etcd で適用されるようになりました。

1.3.8. ネットワーク

1.3.8.1. linuxptp サービスの強化

OpenShift Container Platform 4.9 では、PTP に以下の更新が導入されました。

  • 新規 ptp4lConf フィールド
  • linuxptp サービスを境界クロックとして設定する新しいオプション

詳細は、Configuring linuxptp services as boundary clock を参照してください。

1.3.8.2. PTP 高速イベント通知フレームワークを使用した PTP 高速イベントの監視

PTP イベントの高速イベント通知がベアメタルクラスターで利用可能になりました。PTP Operator は、設定されたすべての PTP 対応ネットワークインターフェイスのイベント通知を生成します。イベントは、同じノードで実行されているアプリケーションの REST API を介して利用できます。高速イベント通知は、AMQ Interconnect Operator によって提供される Advanced Message Queuing Protocol(AMQP) メッセージバスによって転送されます。

詳細は、About PTP and clock synchronization error events を参照してください。

1.3.8.3. OVN-Kubernetes クラスターネットワークプロバイダーの egress IP 機能によるノード全体での分散

OVN-Kubernetes の egress IP 機能は、namespace に複数の egress IP アドレスが割り当てられている場合、その指定された namespace のノード全体にほぼ均等にネットワークトラフィックを分散するようになりました。それぞれの IP アドレスは異なるノードに存在する必要があります。詳細は、OVN-Kubernetes の Configuring egress IPs for a project を参照してください。

1.3.8.4. SR-IOV のコンテナー化された Data Plane Development Kit(DPDK) の一般提供

コンテナー化された Data Plane Development Kit(DPDK) が OpenShift Container Platform 4.9 で一般提供されるようになりました。詳細は、Using virtual functions (VFs) with DPDK and RDMA modes を参照してください。

1.3.8.5. Fast Datapath DPDK アプリケーションで vhost-net を使用するための SR-IOV サポート

SR-IOV は、Intel および Mellanox NIC 上の Fast Datapath DPDK アプリケーションで使用する vhost-net をサポートするようになりました。この機能は、SriovNetworkNodePolicy リソースを設定して有効にできます。詳細は、SR-IOV network node configuration object を参照してください。

1.3.8.6. 単一ノードクラスターの SR-IOV サポート

単一ノードクラスターは、SR-IOV ハードウェアおよび SR-IOV Network Operator をサポートします。SR-IOV ネットワークデバイスを設定すると、単一ノードが再起動するので、Operator の disableDrain フィールドを設定する必要があることに注意してください。詳細は、Configuring the SR-IOV Network Operator を参照してください。

1.3.8.7. SR-IOV でサポートされるハードウェア

OpenShift Container Platform 4.9 では、追加の Broadcom および Intel ハードウェアへのサポートが追加されました。

  • Broadcom BCM57414 および BCM57508

詳細は、supported devices を参照してください。

1.3.8.8. MetalLB ロードバランサー

本リリースでは、MetalLB Operator が導入されました。MetalLB Operator のインストールおよび設定後に、MetalLB をデプロイして、ベアメタルクラスターのサービス用のネイティブロードバランサー実装を提供できます。ベアメタルのような他のオンプレミスインフラストラクチャーにもメリットがあります。

Operator はカスタムリソース AddressPool を導入します。MetalLB がサービスに割り当てることのできる IP アドレス範囲のアドレスプールを設定します。LoadBalancer タイプのサービスを追加する場合、MetalLB はプールから IP アドレスを割り当てます。

本リリースでは、Red Hat はレイヤー 2 モードでの MetalLB の使用のみをサポートします。

詳細は、About MetalLB and the MetalLB Operator を参照してください。

1.3.8.9. CNI VRF プラグインの一般提供

CNI VRF プラグインは以前は OpenShift Container Platform 4.7 のテクノロジープレビュー機能として導入されましたが、OpenShift Container Platform 4.9 では一般に利用可能となりました。

詳細は、Assigning a secondary network to a VRF を参照してください。

1.3.8.10. Ingress コントローラーのタイムアウト設定パラメーター

このリリースでは、Ingress Controller の tuningOptions パラメーター用に、6 つのタイムアウト設定が導入されています。

  • clientTimeout は、クライアント応答の待機中に接続が開かれる期間を指定します。
  • serverFinTimeout は、接続を閉じるクライアントへの応答を待つ間、接続が開かれる期間を指定します。
  • serverTimeout は、サーバーの応答を待機している間に接続が開かれる期間を指定します。
  • clientFinTimeout は、クライアントの応答が接続を閉じるのを待機している間に接続が開かれる期間を指定します。
  • tlsInspectDelay は、一致するルートを見つけるためにルーターがデータを保持する期間を指定します。
  • tunnelTimeout は、トンネルがアイドル状態の間、WebSocket 接続を含むトンネル接続が開いたままになる期間を指定します。

詳細は、Ingress controller configuration parameters を参照してください。

1.3.8.11. 相互 TLS 認証

spec.clientTLS を設定することにより、相互 TLS(mTLS) 認証を有効にするように Ingress コントローラーを設定できるようになりました。clientTLS フィールドは、クライアント証明書を検証するための Ingress コントローラーの設定を指定します。

詳細は、Configuring Mutual TLS Authentication を参照してください。

1.3.8.12. HAProxy エラーコードの応答ページのカスタマイズ

クラスター管理者は、503、404、または両方のエラーページのカスタム HTTP エラーコード応答ページを指定できます。

詳細は、Customizing HAProxy error code response pages を参照してください。

1.3.8.13. provisioningNetworkInterface 設定はオプションです。

OpenShift Container Platform 4.9 では、インストーラーでプロビジョニングされたクラスターの provisioningNetworkInterface 設定はオプションになります。provisioningNetworkInterface 設定は、provisioning ネットワークに使用される NIC 名を識別します。OpenShift Container Platform 4.9 では、install-config.yml ファイルの bootMACAddress を代わりに指定できます。これにより、Ironic は provisioning ネットワークに接続されている NIC の IP アドレスを識別し、これにバインドできます。プロビジョニングカスタムリソースの provisioningInterface 設定を省略して、プロビジョニングカスタムリソースが代わりに bootMACAddress 設定を使用するようにすることもできます。

1.3.8.14. DNS Operator managementState

OpenShift Container Platform 4.9 では、DNS Operator managementState を変更できるようになりました。DNS Operator の managementState は、デフォルトで Managed に設定されます。これは、DNS Operator がそのリソースをアクティブに管理していることを意味します。これを Unmanaged に変更できます。つまり、DNS Operator がそのリソースを管理していないことを意味します。

以下は、DNS Operator managementState を変更するためのユースケースです。

  • 開発者は、CoreDNS の問題が修正されているかどうかを確認するために、設定変更をテストする必要があります。managementStateUnmanaged に設定することにより、DNS Operator による変更の上書きを阻止することができます。
  • クラスター管理者は、CoreDNS の問題を報告していますが、問題が修正されるまで回避策を適用する必要があります。DNS Operator の managementState フィールドを Unmanaged に設定して、回避策を適用できます。

詳細は、Changing the DNS Operator managementState を参照してください。

1.3.8.15. RHOSP 上のクラスターのクラウドプロバイダーオプションとしてのロードバランサーの設定

RHOSP で実行されるクラスターの場合、クラウドプロバイダーのオプションとして、負荷分散用に Octavia を設定できるようになりました。

詳細は、Setting cloud provider options を参照してください。

1.3.8.16. TLS 1.3 および Modern プロファイルのサポートの追加

今回のリリースにより、HAProxy に TLS 1.3 および Modern プロファイルの Ingress Controller のサポートが追加されました。

詳細は、Ingress Controller TLS security profiles を参照してください。

1.3.8.17. HTTP Strict Transport Security 要件用のグローバルアドミッションプラグイン

クラスター管理者は、route.openshift.io/RequiredRouteAnnotations と呼ばれるルーターのアドミッションプラグインを追加して、ドメインごとに HTTP Strict Transport Security(HSTS) 検証を設定できます。クラスター管理者がこのプラグインを設定して HSTS を適用する場合、新しく作成されたルートは、準拠する HSTS ポリシーで設定する必要があります。これは、ingresses.config.openshift.io/cluster と呼ばれるクラスター Ingress 設定のグローバル設定に対して検証されます。

詳細は、HTTP Strict Transport Security を参照してください。

1.3.8.18. Ingress 空の要求ポリシー

OpenShift Container Platform 4.9 では、logEmptyRequests および HTTPEmptyRequestsPolicy フィールドを設定して、Ingress コントローラーが空の要求をログに記録または無視するように設定できます。

詳細は、Ingress controller configuration parameters を参照してください。

1.3.8.19. Web コンソールでのネットワークポリシーの作成

cluster-admin ロールで Web コンソールにログインすると、コンソールのフォームからクラスター内の任意の namespace に新しいネットワークポリシーを作成できるようになりました。以前のバージョンでは、これは YAML で直接実行することしかできませんでした。

1.3.9. Storage

1.3.9.1. AWS EBS CSI Driver Operator を使用した永続ストレージは一般に利用可能

OpenShift Container Platform は、AWS Elastic Block Store (EBS) の Container Storage Interface (CSI) ドライバーを使用して永続ボリューム (PV) をプロビジョニングできます。この機能は以前は OpenShift Container Platform 4.5 のテクノロジープレビュー機能として導入されましたが、OpenShift Container Platform 4.9 では一般に利用可能となり、デフォルトで有効にされます。

詳細は、AWS EBS CSI Driver Operator を参照してください。

1.3.9.2. Azure Stack Hub CSI Driver Operator を使用した永続ストレージ (一般提供)

OpenShift Container Platform は、Azure Stack Hub Storage の CSI Driver を使用して PV をプロビジョニングできます。Azure Stack ポートフォリオの一部である Azure Stack Hub を使用すると、オンプレミス環境でアプリケーションを実行し、データセンターで Azure サービスを配信できます。このドライバーを管理する Azure Stack Hub CSI Driver Operator は 4.9 用となり、一般提供されます。

詳細は、Azure Stack Hub CSI Driver Operator を参照してください。

1.3.9.3. AWS EFS CSI Driver Operator を使用した永続ストレージ (テクノロジープレビュー)

OpenShift Container Platform は、AWS Elastic File Service (EFS) の CSI Driver を使用して PV をプロビジョニングできます。このドライバーを管理する AWS EFS CSI Driver Operator はテクノロジープレビュー機能としてご利用いただけます。

詳細は、AWS EFS CSI Driver Operator を参照してください。

1.3.9.4. CSI 自動移行の GCE のサポート (テクノロジープレビュー)

OpenShift Container Platform 4.8 以降では、in-tree ボリュームプラグインの同等の CSI ドライバーへの自動移行が、テクノロジープレビュー機能として利用可能になりました。この機能は、Google Compute Engine Persistent Disk (GCE PD) in-tree プラグインから Google Cloud Platform (GCP) Persistent Disk CSI ドライバーへの自動移行をサポートするようになりました。

詳細は、CSI Automatic Migration を参照してください。

1.3.9.5. CSI 自動移行の Azure Disk のサポート (テクノロジープレビュー)

OpenShift Container Platform 4.8 以降では、in-tree ボリュームプラグインの同等の CSI ドライバーへの自動移行が、テクノロジープレビュー機能として利用可能になりました。この機能は、Azure Disk in-tree プラグインから Azure Disk CSI ドライバーへの自動移行をサポートするようになりました。

詳細は、CSI Automatic Migration を参照してください。

1.3.9.6. VMWare vSphere CSI Driver Operator によるストレージポリシーの自動作成 (テクノロジープレビュー)

vSphere CSI Operator Driver ストレージクラスが vSphere のストレージポリシーを使用するようになりました。OpenShift Container Platform は、クラウド設定で設定されるデータストアをターゲットにするストレージポリシーを自動的に作成します。

詳細は、VMWare vSphere CSI Driver Operator を参照してください。

1.3.9.7. ローカルストレージ Operator に提供される新規メトリクス

OpenShift Container Platform 4.9 は、ローカルストレージ Operator の以下の新規メトリクスを提供します。

  • lso_discovery_disk_count: 各ノードで検出されたデバイスの合計数
  • lso_lvset_provisioned_PV_count: LocalVolumeSet オブジェクトによって作成される PV の合計数
  • lso_lvset_unmatched_disk_count: 条件の不一致により、ローカルストレージ Operator がプロビジョニング用に選択しなかったディスクの合計数
  • lso_lvset_orphaned_symlink_count: LocalVolumeSet オブジェクト基準に一致しなくなった PV のあるデバイスの数
  • lso_lv_orphaned_symlink_count: LocalVolume オブジェクト基準に一致しなくなった PV のあるデバイスの数
  • lso_lv_provisioned_PV_count: LocalVolume のプロビジョニングされた PV の合計数

詳細は、Persistent storage using local volumes を参照してください。

1.3.9.8. oVirt CSI ドライバーのサイズ変更機能が利用可能

OpenShift Container Platform 4.9 は、oVirt CSI ドライバーにサイズ変更機能を追加します。これにより、ユーザーは既存の永続ボリューム要求 (PVC) のサイズを増やすことができます。この機能の前に、ユーザーはサイズが増加する新規 PVC を作成し、すべてのコンテンツを古い永続ボリューム (PV) から新規 PV に移動させる必要がありました。これにより、データが失われる可能性があります。ユーザーは既存の PVC を編集し、oVirt CSI ドライバーは基礎となる oVirt ディスクのサイズを調整できるようになりました。

1.3.10. レジストリー

1.3.10.1. イメージレジストリーは Azure Stack Hub インストールで Azure Blob Storage を使用します。

OpenShift Container Platform 4.9 では、統合イメージレジストリーは、ユーザーによってプロビジョニングされるインフラストラクチャーを使用して Microsoft Azure Stack Hub にインストールされたクラスターに Azure Blob Storage を使用します。

詳細は、Installing a cluster on Azure Stack Hub using ARM templates を参照してください。

1.3.11. Operator ライフサイクル

以下の新しい機能および機能拡張は、Operator Lifecycle Manager(OLM) を使用した Operator の実行に関連しています。

1.3.11.1. Operator Lifecycle Manager が Kubernetes 1.22 にアップグレード

OpenShift Container Platform 4.9 以降、Operator Lifecycle Manager(OLM) は Kubernetes 1.22 をサポートします。その結果、多数の v1beta1 API が削除され v1 に更新されています。削除された v1beta1 API に依存する Operator は OpenShift Container Platform 4.9 では実行されません。クラスター管理者は、クラスターを OpenShift Container Platform 4.9 にアップグレードする前に、latest チャネルに インストールされた Operator をアップグレードする 必要があります。

重要

Kubernetes 1.22 では、さまざまな特筆すべき変更CustomResorceDefinition API の v1 に加えられています。

1.3.11.2. ファイルベースのカタログ

ファイルベースのカタログは、Operator Lifecycle Manager(OLM) のカタログ形式の最新の反復になります。この形式は、プレーンテキストベース (JSON または YAML) であり、以前の形式の宣言的な設定の進化であり現在は非推奨の SQLite データベース形式 であり、完全な下位互換性があります。この形式の目標は、Operator のカタログ編集、設定可能性、および拡張性を有効にすることです。

ファイルベースのカタログ仕様の詳細は、Operator Framework packaging format を参照してください。

opm CLI を使用して、ファイルベースのカタログを作成する方法については、Managing custom catalogs を参照してください。

1.3.11.3. Single Node OpenShift の Operator Lifecycle Manager サポート

Operator Lifecycle Manager(OLM) が Single Node OpenShift(SNO) クラスターで利用でき、セルフサービスの Operator のインストールが可能になりました。

1.3.11.4. クラスター管理者向けの強化されたエラーレポート

管理者は、このような問題を正常にデバッグするために、さまざまな低レベル API 間の相互作用プロセスや Operator Lifecycle Manager(OLM)Pod ログへのアクセスを理解する必要がないため、OpenShift Container Platform4.9 では、OLM に以下の拡張機能を導入し、よりわかりやすいエラーレポートとメッセージを管理者に提供します。

1.3.11.4.1. Operator グループのステータス条件の更新

以前は、namespace に複数の Operator グループが含まれていた場合、またはサービスアカウントが見つからなかった場合、Operator グループのステータスはエラーを報告しませんでした。この機能拡張により、これらのシナリオでは、Operator グループのステータス条件が更新され、エラーが報告されるようになりました。

1.3.11.4.2. インストール計画の失敗の理由の表示

このリリース以前は、インストールプランが失敗した場合、サブスクリプションの状態には失敗が発生した理由が記載されていませんでした。現在は、インストール計画が失敗すると、サブスクリプションのステータス状態は失敗の理由を示します。

1.3.11.4.3. サブスクリプションステータスでの解決競合の表示

依存関係の解決では、namespace 内のすべてのコンポーネントが単一のユニットとして扱われるため、解決が失敗した場合、namespace 上のすべてのサブスクリプションがエラーを示すようになりました。

1.3.11.5. カスタムカタログソースのイメージテンプレート

クラスターのアップグレードにより、Operator のインストールがサポートされていない状態になったり、更新パスが継続されなかったりする可能性を回避するために、クラスターのアップグレードの一環として、Operator カタログのインデックスイメージのバージョンを自動的に変更するように有効化することができます。

olm.catalogImageTemplate アノテーションをカタログイメージ名に設定し、イメージタグのテンプレートを作成する際に、1 つ以上の Kubernetes クラスターバージョン変数を使用します。

詳細は、Image template for custom catalog sources を参照してください。

1.3.12. Operator の開発

以下の新しい機能および拡張機能は、Operator SDK を使用した Operator の開発に関連しています。

1.3.12.1. 高可用性または単一ノードのクラスターの検出およびサポート

OpenShift Container Platform クラスターは、複数のノードを使用する高可用性 (HA) モード、または単一ノードを使用する非 HA モードで設定できます。Single Node OpenShift(SNO) とも呼ばれる単一ノードクラスターには、より慎重なリソース制約がある可能性があります。したがって、単一ノードクラスターにインストールされた Operator がそれに応じて調整でき、正常に実行できることが重要です。

OpenShift Container Platform で提供されるクラスター高可用性モード API にアクセスすることにより、Operator の作成者は、Operator SDK を使用して、Operator がクラスターのインフラストラクチャートポロジー (HA モードまたは非 HA モード) を検出できるようにすることができます。カスタム Operator ロジックは、検出されたクラスタートポロジーを使用して、Operator およびそれが管理するオペランドまたはワークロードの両方のリソース要件を、トポロジーに最も適したプロファイルに自動的に切り替えるように開発することができます。

詳細は、High-availability or single node cluster detection and support を参照してください。

1.3.12.2. ネットワークプロキシーの Operator サポート

Operator の作成者は、ネットワークプロキシーをサポートする Operator を開発できるようになりました。プロキシーをサポートする Operator は環境変数の Operator デプロイメントを検査し、必要なオペランドに変数を渡します。クラスター管理者は、Operator Lifecycle Manager (OLM) によって処理される環境変数のプロキシーサポートを設定します。詳細は、GoAnsible、および Helm を使用して Operator を開発するための Operator SDK チュートリアルを参照してください。

1.3.12.3. Kubernetes 1.22 から削除された API のバンドルマニフェストの検証

bundle validate サブコマンドを使用して、テストの Operator Framework スイートを使用して Kubernetes 1.22 から削除された API のバンドルマニフェストを確認することができます。

以下に例を示します。

$ operator-sdk bundle validate .<bundle_dir_or_image> \
  --select-optional suite=operatorframework \
  --optional-values=k8s-version=1.22

バンドルマニフェストに Kubernetes 1.22 から削除された API が含まれる場合は、このコマンドに警告メッセージが表示されます。警告メッセージは、移行する必要がある API および Kubernetes API 移行ガイドへのリンクを示します。

詳細は、table of beta APIs removed from Kubernetes 1.22 および Operator SDK CLI reference を参照してください。

1.3.13. ビルド

OpenShift Container Platform をビルドに使用する開発者として、この更新では、以下の新機能を使用できます。

  • ビルドボリュームをマウントして、実行中のビルドに、アウトプットコンテナーイメージで永続化しない情報にアクセスできます。ビルドボリュームは、ビルド時にビルド環境や設定が必要なリポジトリーの認証情報などの機密情報をのみ提供できます。ビルドボリュームは、データが出力コンテナーイメージに保持されるビルド入力とは異なります。
  • BuildConfig のステータスに記録される情報に基づいて、ビルドをトリガーするようにイメージの変更を設定できます。これにより、GitOps ワークフロー内のビルドで ImageChange トリガー を使用できます。

1.3.14. イメージ

1.3.14.1. レジストリーソースとしてのワイルドカードドメイン

本リリースでは、イメージレジストリー設定でレジストリーソースとしてワイルドカードドメインを使用するサポートが導入されました。*.example.com などのワイルドカードドメインを使用して、各サブドメインを手動で入力しなくても、複数のサブドメインからイメージをプッシュおよびプルするようにクラスターを設定できます。詳細は、Image controller configuration parameters を参照してください。

1.3.15. マシン API

1.3.15.1. コンピュートマシン用の Red Hat Enterprise Linux(RHEL)8 のサポート

OpenShift Container Platform 4.9 以降、コンピュートマシンに Red Hat Enterprise Linux(RHEL)8.4 を使用できるようになりました。以前は、RHEL 8 はコンピュートマシン用にはサポートされませんでした。

RHEL 7 コンピュートマシンを RHEL 8 にアップグレードすることはできません。新しい RHEL 8 ホストをデプロイする必要があり、古い RHEL 7 ホストを削除する必要があります。

1.3.16. ノード

1.3.16.1. スケジューラープロファイルの GA

スケジューラープロファイルを使用した Pod のスケジューリングが一般提供されました。これは、スケジューラーポリシーを設定する代わりに実行されます。以下のスケジューラープロファイルを利用できます。

  • LowNodeUtilization: このプロファイルは、ノードごとにリソースの使用量を減らすためにノード間で Pod を均等に分散しようとします。
  • HighNodeUtilization: このプロファイルは、ノードごとに使用率が高いノード数を最小限に抑えるために、できるだけ少ないノードに可能な限り多くの Pod の配置を試みます。
  • NoScoring: これは、すべてのスコアプラグインを無効にして最速のスケジューリングサイクルを目指す低レイテンシープロファイルです。これにより、スケジューリングの高速化がスケジューリングにおける意思決定の質に対して優先されます。

詳細は、Scheduling pods using a scheduler profile を参照してください。

1.3.16.2. 新しい Descheduler プロファイルおよびカスタマイズ

以下の Descheduler プロファイルが利用可能になりました。

  • SoftTopologyAndDuplicates: このプロファイルは TopologyAndDuplicates と同じです。ただし、whenUnsatisfiable: ScheduleAnyway など、ソフトトポロジー制約のある Pod もエビクションに考慮されます。
  • EvictPodsWithLocalStorage: このプロファイルにより、ローカルストレージを持つ Pod がエビクションの対象となります。
  • EvictPodsWithPVC: このプロファイルにより、永続ボリューム要求を持つ Pod がエビクションの対象となります。

LifecycleAndUtilization プロファイルの Pod ライフタイム値をカスタマイズすることもできます。

詳細は、Evicting pods using the descheduler を参照してください。

1.3.16.3. 同じレジストリーへの複数のログイン

Pod がプライベートレジストリーからイメージをプルできるように docker/config.json ファイルを設定する場合、同じレジストリー内の特定のリポジトリーを一覧表示できるようになりました。各リポジトリーには、そのレジストリーパスに固有の認証情報が含まれています。以前は、特定のレジストリーから 1 つのリポジトリーしかリストできませんでした。特定の namespace でレジストリーを定義することもできるようになります。

1.3.16.4. ノードリソースのモニターリングの強化

ノード関連のメトリックスとアラートが強化され、ノードの安定性がいつ損なわれたかを早期に示すことができます。

1.3.16.5. Poison Pill Operator による強化された修復

Poison Pill Operator は、ウォッチドッグデバイスを使用して強化された修復を提供するようになりました。詳細については、ウォッチドッグデバイスについて を参照してください。

1.3.16.6. Node Health Check Operator を使用したノードのヘルスチェックのデプロイ (テクノロジープレビュー)

Node Health Check Operator を使用して NodeHealthCheck コントローラーをデプロイできます。コントローラーは、正常ではないノードを識別し、Poison PillOperator を使用して、正常ではないノードを修正します。

1.3.17. Red Hat OpenShift Logging

OpenShift Container Platform 4.7 では、Cluster LoggingRed Hat OpenShift Logging になりました。詳細は、Release notes for Red Hat OpenShift Logging を参照してください。

1.3.18. モニタリング

本リリースのモニターリングスタックには、以下の新機能および変更された機能が含まれています。

1.3.18.1. モニターリングスタックコンポーネントおよび依存関係

モニターリングスタックコンポーネントおよび依存関係のバージョンの更新には、以下が含まれます。

  • Prometheus が 2.29.2 へ
  • Prometheus Operator が 0.49.0 へ
  • Prometheus アダプターが 0.9.0 へ
  • Alertmanager が 0.22.2 へ
  • Thanos が 0.22.0 へ

1.3.18.2. アラートルール

  • 新規

    • HighlyAvailableWorkloadIncorrectlySpread は、可用性の高いモニターリングコンポーネントの 2 つのインスタンスが同じノード上で実行し、永続ボリュームが割り当てられている場合に潜在的な問題を通知します。
    • NodeFileDescriptorLimit は、ノードカーネルが利用可能なファイル記述子が不足するとアラートをトリガーします。警告レベルのアラートは 70% を超え、重大なレベルのアラートが 90% の使用量を超える場合に実行されます。
    • PrometheusLabelLimitHit は、ターゲットが定義されたラベルの制限を超えたかどうかを検出します。
    • PrometheusTargetSyncFailure は、Prometheus がターゲットの同期に失敗した場合に検出します。
    • すべての重要なアラートルールには、runbook を実行するためのリンクが含まれます。
  • 改善

    • AlertManagerReceiversNotConfigured および KubePodCrashLooping には誤検出が少なくなりました。
    • KubeCPUOvercommit および KubeMemoryOvercommit は、不均一な環境でより堅牢になりました。
    • NodeFilesystemAlmostOutOfSpace アラートルールの for 期間の設定が 1 時間から 30 分に変更され、ディスクの空き容量が少なくなったことをより迅速に検出できるようになりました。
    • KubeDeploymentReplicasMismatch が予想通りに実行されるようになりました。以前のバージョンでは、このアラートは実行されませんでした。
    • 以下のアラートには namespace ラベルが含まれるようになりました。

      • AlertmanagerReceiversNotConfigured
      • KubeClientErrors
      • KubeCPUOvercommit
      • KubeletDown
      • KubeMemoryOvercommit
      • MultipleContainersOOMKilled
      • ThanosQueryGrpcClientErrorRate
      • ThanosQueryGrpcServerErrorRate
      • ThanosQueryHighDNSFailures
      • ThanosQueryHttpRequestQueryErrorRateHigh
      • ThanosQueryHttpRequestQueryRangeErrorRateHigh
      • ThanosSidecarPrometheusDown
      • Watchdog
注記

Red Hat は、メトリクス、記録ルールまたはアラートルールの後方互換性を保証しません。

1.3.18.3. Alertmanager

  • プラットフォームおよびユーザー定義のプロジェクトモニターリングスタックの両方について、追加の外部 Alertmanager を追加および設定することができます。
  • ローカルの Alertmanager インスタンスを無効にすることができます。
  • 新規の monitoring-alertmanager-edit ユーザーロールを使用すると、管理者以外のユーザーはデフォルトのプラットフォームモニタリングのアラートを作成し、非通知設定に指定できます。これらのユーザーがアラートを作成し、非通知に設定できるようにするには、cluster-monitoring-view ロールに加えて新規の monitoring-alertmanager-edit ロールを割り当てる必要があります。

    重要

    今回のリリースにより、cluster-monitoring-view ロールが制限され、Alertmanager へのアクセスが可能になりました。このロールを割り当てられた管理者以外のユーザーは、以前のバージョンの OpenShift Container Platform でアラートを作成し、非通知設定を行うことが許可されていましたが、今回のバージョンではできなくなっています。管理者以外のユーザーが OpenShift Container Platform 4.9 で Alertmanager でアラートを作成し、非通知設定を指定できるようにするには、cluster-monitoring-view ロールに加えて、新しい monitoring-alertmanager-edit ロールを割り当てる必要があります。

1.3.18.4. Prometheus

  • Prometheus では、プラットフォーム監視とユーザー定義プロジェクトの両方に対してリモート書き込みストレージを有効にして設定できます。この機能を使用すると、取り込んだメトリックを長期ストレージに送信できます。
  • Prometheus のメモリー使用率全体を減らすために、空の pod および namespace ラベルの両方を持つ以下の cAdvisor メトリクスは削除されました。

    • container_fs_.*
    • container_spec_.*
    • container_blkio_device_usage_total
    • container_file_descriptors
    • container_sockets
    • container_threads_max
    • container_threads
    • container_start_time_seconds
    • container_last_seen
  • プラットフォームモニターリング用に永続ストレージが設定されていない場合は、アップグレード、およびクラスターの中断により、データが失われる可能性があります。プラットフォームモニターリング用に永続ストレージが設定されていないことをシステムが検出すると、警告メッセージが Degraded 状態に追加されました。
  • openshift.io/user-monitoring: "false" ラベルを追加して、openshift-user-workload-monitoring プロジェクトから個々のユーザー定義プロジェクトを除外できます。
  • openshift-user-workload-monitoring プロジェクトの enforcedTargetLimit パラメーターを設定し、収集されるターゲット数に全体の制限を設定できます。

1.3.18.6. Grafana

デフォルトの Grafana ダッシュボードを実行すると、ユーザーのワークロードからリソースを取得できるため、Grafana ダッシュボードのデプロイメントを無効にできます。

1.3.19. メータリング

このリリースでは、OpenShift Container Platform Metering Operator が削除されています。

1.3.20. スケーラビリティーおよびパフォーマンス

1.3.20.1. Special Resource Operator(テクノロジープレビュー)

Special Resource Operator(SRO) を使用して、既存の OpenShift Container Platform クラスターでのカーネルモジュールとドライバーのデプロイメントを管理できるようになりました。これは現在、テクノロジープレビュー機能です。

詳細は、About the Special Resource Operator を参照してください。

1.3.20.2. メモリーマネージャーの一般提供を開始

Performance Addon Operator によって設定される kubelet サブコンポーネントである Memory Manager は、以下の Topology Manager ポリシーのいずれかで設定されたノードで実行されているすべての Pod に対してデフォルトで有効にされるようになりました。

  • single-numa-node
  • restricted

1.3.20.3. レイテンシーテストの追加ツール

OpenShift Container Platform 4.9 では、システムレイテンシーを測定するための 2 つのツールが追加されました。

  • hwladetect が、ベアメタルハードウェアが達成できるベースラインを測定します。
  • cyclictest は、hwlatdetect が検証をパスした後に繰り返しタイマーをスケジュールし、希望のトリガー時間と実際のトリガー時間の違いを測定します。

詳細は、Running the latency tests を参照してください。

1.3.20.4. クラスターの最大数

OpenShift Container Platform 4.9 の クラスターの最大値 に関するガイダンスが更新されました。

重要

本リリースでは、OVN-Kubernetes テストに対してパフォーマンスの大規模なスケーリングテストは実行されません。

ご使用の環境のクラスター制限を見積もるには、OpenShift Container Platform Limit Calculator を使用できます。

1.3.20.5. ゼロタッチプロビジョニング (テクノロジープレビュー)

OpenShift Container Platform 4.9 は、ゼロタッチプロビジョニング (ZTP) をサポートします。これにより、リモートサイトでのベアメタル機器の宣言的な設定で新しいエッジサイトをプロビジョニングすることができます。ZTP は、インフラストラクチャーのデプロイメントに GitOps デプロイメントセットを使用します。GitOps は、YAML ファイルや他の定義パターンなどの Git リポジトリーに保存される宣言型仕様を使用してこれらのタスクを実行します。これは、インフラストラクチャーをデプロイするためのフレームワークを提供します。宣言型の出力は、マルチサイトのデプロイメントに Open Cluster Manager (OCM) によって使用されます。詳細は、Provisioning edge sites at scale を参照してください。

1.3.21. Insights Operator

1.3.21.1. RHEL Simple Content Access 証明書のインポート (テクノロジープレビュー)

OpenShift Container Platform 4.9 では、Insights Operator は Red Hat OpenShift Cluster Manager から RHEL Simple Content Access(SCA) 証明書をインポートすることができます。

詳細は、Importing RHEL Simple Content Access certificates with Insights Operator を参照してください。

1.3.21.2. Insights Operator のデータ収集機能の拡張

OpenShift Container Platform 4.9 では、Insights Operator は以下の追加情報を収集します。

  • クラスターからのすべての MachineConfig リソース定義。
  • クラスターにインストールされている PodSecurityPolicies の名前。
  • インストールされている場合、ClusterLogging リソース定義。
  • SamplesImagestreamImportFailing アラートが実行される場合、ImageStream の定義と、openshift-cluster-samples-operator namespace からのコンテナーログの最後の 100 行。

この追加情報により、Red Hat は Insights Advisor の改善された修復手順を提供できます。

1.3.22. 認証および認可

1.3.22.1. 手動モードの Cloud Credential Operator を使用した Microsoft Azure Stack Hub のサポート

今回のリリースにより、Microsoft Azure Stack Hub へのインストールは、Cloud Credential Operator(CCO) を手動モードに設定して実行できます。

詳細は、Using manual mode を参照してください。

1.3.23. OpenShift Container Platform での OpenShift サンドボックスコンテナーのサポート (テクノロジープレビュー)

OpenShift サンドボックスコンテナーの新機能、バグ修正、既知の問題、および非同期エラータ更新を確認するには、OpenShift sandboxed containers 1.1 release notes を参照してください。