Jump To Close Expand all Collapse all Table of contents Évolutivité et performance 1. Pratiques recommandées en matière de performance et d'évolutivité Expand section "1. Pratiques recommandées en matière de performance et d'évolutivité" Collapse section "1. Pratiques recommandées en matière de performance et d'évolutivité" 1.1. Pratiques recommandées pour la mise à l'échelle du cluster 1.2. Dimensionnement des nœuds du plan de contrôle Expand section "1.2. Dimensionnement des nœuds du plan de contrôle" Collapse section "1.2. Dimensionnement des nœuds du plan de contrôle" 1.2.1. Sélection d'un type d'instance Amazon Web Services plus important pour les machines du plan de contrôle Expand section "1.2.1. Sélection d'un type d'instance Amazon Web Services plus important pour les machines du plan de contrôle" Collapse section "1.2.1. Sélection d'un type d'instance Amazon Web Services plus important pour les machines du plan de contrôle" 1.2.1.1. Modifier le type d'instance Amazon Web Services à l'aide d'un jeu de machines du plan de contrôle 1.2.1.2. Modifier le type d'instance Amazon Web Services à l'aide de la console AWS 1.3. Pratiques recommandées pour etcd 1.4. Déplacer etcd sur un autre disque 1.5. Défragmentation des données etcd Expand section "1.5. Défragmentation des données etcd" Collapse section "1.5. Défragmentation des données etcd" 1.5.1. Défragmentation automatique 1.5.2. Défragmentation manuelle 1.6. Dimensionnement des nœuds d'infrastructure 1.7. Ressources supplémentaires 2. Pratiques d'hébergement recommandées pour les environnements IBM zSystems & IBM(R) LinuxONE Expand section "2. Pratiques d'hébergement recommandées pour les environnements IBM zSystems & IBM(R) LinuxONE" Collapse section "2. Pratiques d'hébergement recommandées pour les environnements IBM zSystems & IBM(R) LinuxONE" 2.1. Gestion du surengagement de l'unité centrale 2.2. Désactiver les grandes pages transparentes 2.3. Améliorer les performances du réseau avec Receive Flow Steering Expand section "2.3. Améliorer les performances du réseau avec Receive Flow Steering" Collapse section "2.3. Améliorer les performances du réseau avec Receive Flow Steering" 2.3.1. Utiliser l'opérateur de configuration de la machine (MCO) pour activer le RFS 2.4. Choisissez votre configuration de réseau 2.5. Garantir des performances de disque élevées avec HyperPAV sur z/VM Expand section "2.5. Garantir des performances de disque élevées avec HyperPAV sur z/VM" Collapse section "2.5. Garantir des performances de disque élevées avec HyperPAV sur z/VM" 2.5.1. Utiliser le Machine Config Operator (MCO) pour activer les alias HyperPAV dans les nœuds utilisant des minidisques z/VM full-pack 2.6. Recommandations pour RHEL KVM sur les hôtes IBM zSystems Expand section "2.6. Recommandations pour RHEL KVM sur les hôtes IBM zSystems" Collapse section "2.6. Recommandations pour RHEL KVM sur les hôtes IBM zSystems" 2.6.1. Utiliser plusieurs files d'attente pour les interfaces réseau VirtIO 2.6.2. Utiliser des threads d'E/S pour vos blocs virtuels 2.6.3. Éviter les périphériques SCSI virtuels 2.6.4. Configurer la mise en cache du disque par l'invité 2.6.5. Exclure le dispositif de ballon de mémoire 2.6.6. Ajuster l'algorithme de migration de l'unité centrale de l'ordonnanceur de l'hôte 2.6.7. Désactiver le contrôleur cpuset cgroup 2.6.8. Régler la période d'interrogation des CPU virtuels inactifs 3. Utilisation de l'opérateur Node Tuning Expand section "3. Utilisation de l'opérateur Node Tuning" Collapse section "3. Utilisation de l'opérateur Node Tuning" 3.1. À propos de l'opérateur Node Tuning 3.2. Accéder à un exemple de spécification de l'opérateur Node Tuning 3.3. Profils par défaut définis sur un cluster 3.4. Vérification de l'application des profils TuneD 3.5. Spécification de réglage personnalisé 3.6. Exemples de réglages personnalisés 3.7. Plugins de démon TuneD pris en charge 3.8. Configuration de l'optimisation des nœuds dans un cluster hébergé 3.9. Réglage avancé des nœuds pour les clusters hébergés en définissant les paramètres de démarrage du noyau 4. Utilisation du gestionnaire de CPU et du gestionnaire de topologie Expand section "4. Utilisation du gestionnaire de CPU et du gestionnaire de topologie" Collapse section "4. Utilisation du gestionnaire de CPU et du gestionnaire de topologie" 4.1. Configuration du gestionnaire de CPU 4.2. Politiques du gestionnaire de topologie 4.3. Configuration du gestionnaire de topologie 4.4. Interactions des pods avec les politiques de Topology Manager 5. Ordonnancement des charges de travail compatibles avec les NUMA Expand section "5. Ordonnancement des charges de travail compatibles avec les NUMA" Collapse section "5. Ordonnancement des charges de travail compatibles avec les NUMA" 5.1. À propos de l'ordonnancement NUMA 5.2. Installation de l'opérateur de ressources NUMA Expand section "5.2. Installation de l'opérateur de ressources NUMA" Collapse section "5.2. Installation de l'opérateur de ressources NUMA" 5.2.1. Installation de l'opérateur de ressources NUMA à l'aide du CLI 5.2.2. Installation de l'opérateur de ressources NUMA à l'aide de la console Web 5.3. Création de la ressource personnalisée NUMAResourcesOperator 5.4. Déploiement de l'ordonnanceur de pods secondaire NUMA-aware 5.5. Ordonnancement des charges de travail avec l'ordonnanceur NUMA-aware 5.6. Résolution des problèmes liés à l'ordonnancement NUMA Expand section "5.6. Résolution des problèmes liés à l'ordonnancement NUMA" Collapse section "5.6. Résolution des problèmes liés à l'ordonnancement NUMA" 5.6.1. Vérification des journaux de l'ordonnanceur NUMA-aware 5.6.2. Dépannage de l'exportateur de topologie de ressources 5.6.3. Correction d'une carte de configuration de l'exportateur de topologie de ressources manquante 6. Mise à l'échelle de l'opérateur de surveillance des clusters Expand section "6. Mise à l'échelle de l'opérateur de surveillance des clusters" Collapse section "6. Mise à l'échelle de l'opérateur de surveillance des clusters" 6.1. Exigences en matière de stockage de la base de données Prometheus 6.2. Configuration de la surveillance des clusters 7. Planifier votre environnement en fonction des maxima d'objets Expand section "7. Planifier votre environnement en fonction des maxima d'objets" Collapse section "7. Planifier votre environnement en fonction des maxima d'objets" 7.1. OpenShift Container Platform a testé les maximums de clusters pour les versions majeures Expand section "7.1. OpenShift Container Platform a testé les maximums de clusters pour les versions majeures" Collapse section "7.1. OpenShift Container Platform a testé les maximums de clusters pour les versions majeures" 7.1.1. Exemple de scénario 7.2. Environnement et configuration d'OpenShift Container Platform sur lesquels les maxima des clusters sont testés Expand section "7.2. Environnement et configuration d'OpenShift Container Platform sur lesquels les maxima des clusters sont testés" Collapse section "7.2. Environnement et configuration d'OpenShift Container Platform sur lesquels les maxima des clusters sont testés" 7.2.1. Plate-forme en nuage AWS 7.2.2. Plate-forme IBM Power 7.2.3. Plate-forme IBM zSystems 7.3. Comment planifier votre environnement en fonction des maximums de grappes testés ? 7.4. Comment planifier votre environnement en fonction des exigences de l'application 8. Optimiser le stockage Expand section "8. Optimiser le stockage" Collapse section "8. Optimiser le stockage" 8.1. Options de stockage permanent disponibles 8.2. Technologie de stockage configurable recommandée Expand section "8.2. Technologie de stockage configurable recommandée" Collapse section "8.2. Technologie de stockage configurable recommandée" 8.2.1. Recommandations spécifiques pour le stockage des applications Expand section "8.2.1. Recommandations spécifiques pour le stockage des applications" Collapse section "8.2.1. Recommandations spécifiques pour le stockage des applications" 8.2.1.1. Registre 8.2.1.2. Registre échelonné 8.2.1.3. Metrics 8.2.1.4. Enregistrement 8.2.1.5. Applications 8.2.2. Autres recommandations spécifiques en matière de stockage des applications 8.3. Gestion du stockage des données 8.4. Ressources supplémentaires 9. Optimisation de l'acheminement Expand section "9. Optimisation de l'acheminement" Collapse section "9. Optimisation de l'acheminement" 9.1. Performances de base du contrôleur d'entrée (routeur) 9.2. Configuration des sondes de disponibilité, de préparation et de démarrage du contrôleur d'entrée 9.3. Configuration de l'intervalle de recharge de HAProxy 10. Optimiser la mise en réseau Expand section "10. Optimiser la mise en réseau" Collapse section "10. Optimiser la mise en réseau" 10.1. Optimiser le MTU pour votre réseau 10.2. Pratiques recommandées pour l'installation de clusters à grande échelle 10.3. Impact d'IPsec 10.4. Ressources supplémentaires 11. Optimisation de l'utilisation de l'unité centrale avec l'encapsulation de l'espace de noms de montage Expand section "11. Optimisation de l'utilisation de l'unité centrale avec l'encapsulation de l'espace de noms de montage" Collapse section "11. Optimisation de l'utilisation de l'unité centrale avec l'encapsulation de l'espace de noms de montage" 11.1. Encapsulation des espaces de noms des montages 11.2. Configuration de l'encapsulation de l'espace de noms de montage 11.3. Inspection des espaces de noms encapsulés 11.4. Exécution de services supplémentaires dans l'espace de noms encapsulé 11.5. Ressources supplémentaires 12. Gestion d'hôtes "bare metal" (métal nu) Expand section "12. Gestion d'hôtes "bare metal" (métal nu)" Collapse section "12. Gestion d'hôtes "bare metal" (métal nu)" 12.1. À propos des hôtes et nœuds bare metal 12.2. Maintenance des hôtes bare metal Expand section "12.2. Maintenance des hôtes bare metal" Collapse section "12.2. Maintenance des hôtes bare metal" 12.2.1. Ajouter un hôte bare metal à la grappe à l'aide de la console web 12.2.2. Ajouter un hôte bare metal au cluster en utilisant YAML dans la console web 12.2.3. Mise à l'échelle automatique des machines en fonction du nombre d'hôtes bare metal disponibles 12.2.4. Suppression des hôtes bare metal du nœud de provisionnement 13. Ce que font les grandes pages et comment elles sont consommées par les applications Expand section "13. Ce que font les grandes pages et comment elles sont consommées par les applications" Collapse section "13. Ce que font les grandes pages et comment elles sont consommées par les applications" 13.1. Ce que font les grandes pages 13.2. Comment les pages volumineuses sont consommées par les applications 13.3. Consommation d'énormes pages de ressources à l'aide de l'API Downward 13.4. Configuration de pages volumineuses Expand section "13.4. Configuration de pages volumineuses" Collapse section "13.4. Configuration de pages volumineuses" 13.4.1. Au moment du démarrage 13.5. Désactivation des pages énormes transparentes 14. Accord à faible latence Expand section "14. Accord à faible latence" Collapse section "14. Accord à faible latence" 14.1. Comprendre la faible latence Expand section "14.1. Comprendre la faible latence" Collapse section "14.1. Comprendre la faible latence" 14.1.1. À propos de l'hyperthreading pour les applications à faible latence et en temps réel 14.2. Approvisionnement des charges de travail en temps réel et à faible latence Expand section "14.2. Approvisionnement des charges de travail en temps réel et à faible latence" Collapse section "14.2. Approvisionnement des charges de travail en temps réel et à faible latence" 14.2.1. Limitations connues pour le temps réel 14.2.2. Fournir à un travailleur des capacités en temps réel 14.2.3. Vérification de l'installation du noyau en temps réel 14.2.4. Créer une charge de travail en temps réel 14.2.5. Création d'un pod avec une classe de QoS de Guaranteed 14.2.6. Optionnel : Désactivation de l'équilibrage de la charge du CPU pour DPDK 14.2.7. Attribution d'un sélecteur de nœud approprié 14.2.8. Programmation d'une charge de travail sur un travailleur doté de capacités en temps réel 14.2.9. Réduire la consommation d'énergie en mettant les unités centrales hors ligne 14.2.10. En option : Configurations d'économie d'énergie 14.2.11. Gestion du traitement des interruptions de périphériques pour les unités centrales isolées à pods garantis Expand section "14.2.11. Gestion du traitement des interruptions de périphériques pour les unités centrales isolées à pods garantis" Collapse section "14.2.11. Gestion du traitement des interruptions de périphériques pour les unités centrales isolées à pods garantis" 14.2.11.1. Désactivation du quota CFS de l'unité centrale 14.2.11.2. Désactivation de la gestion des interruptions globales de périphériques dans Node Tuning Operator 14.2.11.3. Désactivation du traitement des interruptions pour les pods individuels 14.2.12. Mise à jour du profil de performance pour utiliser le traitement des interruptions de périphériques Expand section "14.2.12. Mise à jour du profil de performance pour utiliser le traitement des interruptions de périphériques" Collapse section "14.2.12. Mise à jour du profil de performance pour utiliser le traitement des interruptions de périphériques" 14.2.12.1. Versions de l'API prises en charge Expand section "14.2.12.1. Versions de l'API prises en charge" Collapse section "14.2.12.1. Versions de l'API prises en charge" 14.2.12.1.1. Mise à jour de l'API Node Tuning Operator de v1alpha1 à v1 14.2.12.1.2. Mise à jour de l'API de l'opérateur Node Tuning de v1alpha1 ou v1 à v2 14.3. Réglage des nœuds pour une faible latence à l'aide du profil de performance Expand section "14.3. Réglage des nœuds pour une faible latence à l'aide du profil de performance" Collapse section "14.3. Réglage des nœuds pour une faible latence à l'aide du profil de performance" 14.3.1. Configuration de pages volumineuses 14.3.2. Allocation de plusieurs pages de grande taille 14.3.3. Configuration d'un nœud pour l'équilibrage dynamique de la charge par IRQ Expand section "14.3.3. Configuration d'un nœud pour l'équilibrage dynamique de la charge par IRQ" Collapse section "14.3.3. Configuration d'un nœud pour l'équilibrage dynamique de la charge par IRQ" 14.3.3.1. Compatibilité matérielle avec l'affinité IRQ 14.3.4. Configuration de l'hyperthreading pour un cluster Expand section "14.3.4. Configuration de l'hyperthreading pour un cluster" Collapse section "14.3.4. Configuration de l'hyperthreading pour un cluster" 14.3.4.1. Désactivation de l'hyperthreading pour les applications à faible latence 14.3.5. Comprendre les indices de charge de travail 14.3.6. Configuration manuelle des indices de charge de travail 14.3.7. Limiter les CPU pour les conteneurs d'infrastructures et d'applications 14.4. Réduction des files d'attente NIC à l'aide de l'opérateur Node Tuning Expand section "14.4. Réduction des files d'attente NIC à l'aide de l'opérateur Node Tuning" Collapse section "14.4. Réduction des files d'attente NIC à l'aide de l'opérateur Node Tuning" 14.4.1. Ajuster les files d'attente NIC avec le profil de performance 14.4.2. Vérification de l'état de la file d'attente 14.4.3. Journalisation associée à l'ajustement des files d'attente NIC 14.5. Débogage de l'état des réglages du CNF à faible latence Expand section "14.5. Débogage de l'état des réglages du CNF à faible latence" Collapse section "14.5. Débogage de l'état des réglages du CNF à faible latence" 14.5.1. Pools de configuration de machines 14.6. Collecte de données de débogage de réglage à faible latence pour Red Hat Support Expand section "14.6. Collecte de données de débogage de réglage à faible latence pour Red Hat Support" Collapse section "14.6. Collecte de données de débogage de réglage à faible latence pour Red Hat Support" 14.6.1. À propos de l'outil de collecte obligatoire 14.6.2. A propos de la collecte de données de réglage à faible latence 14.6.3. Collecte de données sur des caractéristiques spécifiques 15. Réalisation de tests de latence pour la vérification de la plate-forme Expand section "15. Réalisation de tests de latence pour la vérification de la plate-forme" Collapse section "15. Réalisation de tests de latence pour la vérification de la plate-forme" 15.1. Conditions préalables à l'exécution de tests de latence 15.2. A propos du mode de découverte pour les tests de latence 15.3. Mesure de la latence 15.4. Exécution des tests de latence Expand section "15.4. Exécution des tests de latence" Collapse section "15.4. Exécution des tests de latence" 15.4.1. Exécution de hwlatdetect 15.4.2. Test cyclique en cours d'exécution 15.4.3. Course à pied de l'oslat 15.5. Génération d'un rapport d'échec du test de latence 15.6. Générer un rapport de test de latence JUnit 15.7. Exécution de tests de latence sur un cluster OpenShift à un nœud 15.8. Exécution de tests de latence dans un cluster déconnecté 15.9. Résolution des erreurs avec le conteneur cnf-tests 16. Amélioration de la stabilité des grappes dans les environnements à forte latence à l'aide de profils de latence des travailleurs Expand section "16. Amélioration de la stabilité des grappes dans les environnements à forte latence à l'aide de profils de latence des travailleurs" Collapse section "16. Amélioration de la stabilité des grappes dans les environnements à forte latence à l'aide de profils de latence des travailleurs" 16.1. Comprendre les profils de latence des travailleurs 16.2. Utilisation des profils de latence des travailleurs 17. Topology Aware Lifecycle Manager pour les mises à jour des clusters Expand section "17. Topology Aware Lifecycle Manager pour les mises à jour des clusters" Collapse section "17. Topology Aware Lifecycle Manager pour les mises à jour des clusters" 17.1. À propos de la configuration du gestionnaire du cycle de vie Topology Aware 17.2. A propos des politiques gérées utilisées avec Topology Aware Lifecycle Manager 17.3. Installation du Topology Aware Lifecycle Manager à l'aide de la console web 17.4. Installation du gestionnaire de cycle de vie Topology Aware à l'aide de la CLI 17.5. À propos du CR ClusterGroupUpgrade Expand section "17.5. À propos du CR ClusterGroupUpgrade" Collapse section "17.5. À propos du CR ClusterGroupUpgrade" 17.5.1. Sélection des grappes 17.5.2. Valider 17.5.3. Mise en cache préalable 17.5.4. Création d'une sauvegarde 17.5.5. Mise à jour des grappes 17.5.6. Mise à jour du statut 17.5.7. Blocage des CR de ClusterGroupUpgrade 17.6. Mise à jour des politiques sur les clusters gérés Expand section "17.6. Mise à jour des politiques sur les clusters gérés" Collapse section "17.6. Mise à jour des politiques sur les clusters gérés" 17.6.1. Appliquer des stratégies de mise à jour aux clusters gérés 17.7. Création d'une sauvegarde des ressources du cluster avant la mise à niveau Expand section "17.7. Création d'une sauvegarde des ressources du cluster avant la mise à niveau" Collapse section "17.7. Création d'une sauvegarde des ressources du cluster avant la mise à niveau" 17.7.1. Création d'un ClusterGroupUpgrade CR avec sauvegarde 17.7.2. Récupération d'un cluster après l'échec d'une mise à niveau 17.8. Utilisation de la fonction de pré-cache de l'image du conteneur Expand section "17.8. Utilisation de la fonction de pré-cache de l'image du conteneur" Collapse section "17.8. Utilisation de la fonction de pré-cache de l'image du conteneur" 17.8.1. Création d'un ClusterGroupUpgrade CR avec mise en cache préalable 17.9. Dépannage du gestionnaire de cycle de vie Topology Aware Expand section "17.9. Dépannage du gestionnaire de cycle de vie Topology Aware" Collapse section "17.9. Dépannage du gestionnaire de cycle de vie Topology Aware" 17.9.1. Dépannage général 17.9.2. Impossible de modifier le CR ClusterUpgradeGroup 17.9.3. Politiques gérées 17.9.4. Clusters 17.9.5. Stratégie d'assainissement 17.9.6. Gestionnaire du cycle de vie tenant compte de la topologie 18. Création d'un profil de performance Expand section "18. Création d'un profil de performance" Collapse section "18. Création d'un profil de performance" 18.1. À propos du créateur de profil de performance Expand section "18.1. À propos du créateur de profil de performance" Collapse section "18.1. À propos du créateur de profil de performance" 18.1.1. Collecte de données sur votre cluster à l'aide de la commande must-gather 18.1.2. Exécuter le créateur de profil de performance à l'aide de podman Expand section "18.1.2. Exécuter le créateur de profil de performance à l'aide de podman" Collapse section "18.1.2. Exécuter le créateur de profil de performance à l'aide de podman" 18.1.2.1. Comment lancer le site podman pour créer un profil de performance ? 18.1.3. Exécution du script wrapper Performance Profile Creator 18.1.4. Arguments du créateur de profil de performance 18.2. Profils de performance de référence Expand section "18.2. Profils de performance de référence" Collapse section "18.2. Profils de performance de référence" 18.2.1. Un modèle de profil de performance pour les clusters qui utilisent OVS-DPDK sur OpenStack 18.3. Ressources supplémentaires 19. Partitionnement de la charge de travail dans OpenShift à nœud unique 20. Demander des données de profilage CRI-O et Kubelet en utilisant l'opérateur d'observabilité du nœud Expand section "20. Demander des données de profilage CRI-O et Kubelet en utilisant l'opérateur d'observabilité du nœud" Collapse section "20. Demander des données de profilage CRI-O et Kubelet en utilisant l'opérateur d'observabilité du nœud" 20.1. Fonctionnement de l'opérateur d'observabilité des nœuds 20.2. Installation de l'opérateur d'observabilité du nœud Expand section "20.2. Installation de l'opérateur d'observabilité du nœud" Collapse section "20.2. Installation de l'opérateur d'observabilité du nœud" 20.2.1. Installation de l'opérateur d'observabilité du nœud à l'aide du CLI 20.2.2. Installation du Node Observability Operator à l'aide de la console web 20.3. Création de la ressource personnalisée Node Observability 20.4. Exécution de la requête de profilage 21. Clusters à la périphérie du réseau Expand section "21. Clusters à la périphérie du réseau" Collapse section "21. Clusters à la périphérie du réseau" 21.1. Les défis de la périphérie du réseau Expand section "21.1. Les défis de la périphérie du réseau" Collapse section "21.1. Les défis de la périphérie du réseau" 21.1.1. Relever les défis de la périphérie du réseau 21.1.2. Utilisation de ZTP pour provisionner des clusters à la périphérie du réseau 21.1.3. Installation de clusters gérés avec des ressources SiteConfig et RHACM 21.1.4. Configuration de clusters gérés avec des politiques et des ressources PolicyGenTemplate 21.2. Préparation de la grappe du concentrateur pour ZTP Expand section "21.2. Préparation de la grappe du concentrateur pour ZTP" Collapse section "21.2. Préparation de la grappe du concentrateur pour ZTP" 21.2.1. Versions logicielles de la solution Telco RAN 4.12 validées 21.2.2. Installation de GitOps ZTP dans un environnement déconnecté 21.2.3. Ajout d'images RHCOS ISO et RootFS à l'hôte miroir déconnecté 21.2.4. Activation du service assisté et mise à jour de AgentServiceConfig sur le cluster hub 21.2.5. Configuration du cluster hub pour utiliser un registre miroir déconnecté 21.2.6. Configurer le hub cluster pour utiliser des registres non authentifiés 21.2.7. Configuration du cluster hub avec ArgoCD 21.2.8. Préparation du dépôt de configuration du site ZTP de GitOps 21.3. Installation de clusters gérés avec RHACM et les ressources SiteConfig Expand section "21.3. Installation de clusters gérés avec RHACM et les ressources SiteConfig" Collapse section "21.3. Installation de clusters gérés avec RHACM et les ressources SiteConfig" 21.3.1. GitOps ZTP et Topology Aware Lifecycle Manager (Gestionnaire de cycle de vie avec prise en compte de la topologie) 21.3.2. Vue d'ensemble du déploiement de grappes gérées avec ZTP 21.3.3. Création des secrets de l'hôte bare-metal géré 21.3.4. Configuration des arguments du noyau Discovery ISO pour les installations utilisant GitOps ZTP 21.3.5. Déploiement d'un cluster géré avec SiteConfig et ZTP 21.3.6. Suivi de la progression de l'installation des clusters gérés 21.3.7. Dépannage de GitOps ZTP en validant les CR d'installation 21.3.8. Suppression d'un site de cluster géré du pipeline ZTP 21.3.9. Suppression du contenu obsolète du pipeline ZTP 21.3.10. Démantèlement du pipeline ZTP 21.4. Configuration de clusters gérés avec des politiques et des ressources PolicyGenTemplate Expand section "21.4. Configuration de clusters gérés avec des politiques et des ressources PolicyGenTemplate" Collapse section "21.4. Configuration de clusters gérés avec des politiques et des ressources PolicyGenTemplate" 21.4.1. À propos du CRD PolicyGenTemplate 21.4.2. Recommandations pour la personnalisation des CR PolicyGenTemplate 21.4.3. PolicyGenTemplate CRs pour les déploiements RAN 21.4.4. Personnalisation d'un cluster géré avec des CR PolicyGenTemplate 21.4.5. Suivi de l'avancement du déploiement de la politique de cluster géré 21.4.6. Validation de la génération des CR de la politique de configuration 21.4.7. Redémarrage du rapprochement des politiques 21.4.8. Indication de la réalisation pour les installations ZTP 21.5. Installation manuelle d'un cluster OpenShift à un nœud avec ZTP Expand section "21.5. Installation manuelle d'un cluster OpenShift à un nœud avec ZTP" Collapse section "21.5. Installation manuelle d'un cluster OpenShift à un nœud avec ZTP" 21.5.1. Générer manuellement les CR d'installation et de configuration de ZTP 21.5.2. Création des secrets de l'hôte bare-metal géré 21.5.3. Configuration des arguments du noyau Discovery ISO pour les installations manuelles à l'aide de GitOps ZTP 21.5.4. Installation d'un seul cluster géré 21.5.5. Surveillance de l'état de l'installation du cluster géré 21.5.6. Dépannage du cluster géré 21.5.7. Référence des CR d'installation de clusters générés par RHACM 21.6. Configuration recommandée d'un cluster OpenShift à nœud unique pour les charges de travail des applications vDU Expand section "21.6. Configuration recommandée d'un cluster OpenShift à nœud unique pour les charges de travail des applications vDU" Collapse section "21.6. Configuration recommandée d'un cluster OpenShift à nœud unique pour les charges de travail des applications vDU" 21.6.1. Exécuter des applications à faible latence sur OpenShift Container Platform 21.6.2. Configuration recommandée pour les charges de travail des applications vDU 21.6.3. Configuration du micrologiciel hôte pour une faible latence et des performances élevées 21.6.4. Conditions préalables de connectivité pour les réseaux de clusters gérés 21.6.5. Partitionnement de la charge de travail dans OpenShift à nœud unique avec GitOps ZTP 21.6.6. Configurations de clusters recommandées lors de l'installation Expand section "21.6.6. Configurations de clusters recommandées lors de l'installation" Collapse section "21.6.6. Configurations de clusters recommandées lors de l'installation" 21.6.6.1. Répartition de la charge de travail 21.6.6.2. Réduction de l'empreinte de la gestion de la plate-forme 21.6.6.3. SCTP 21.6.6.4. Démarrage accéléré des conteneurs 21.6.6.5. Vidage automatique des crashs du noyau avec kdump 21.6.7. Configurations recommandées pour les clusters après l'installation Expand section "21.6.7. Configurations recommandées pour les clusters après l'installation" Collapse section "21.6.7. Configurations recommandées pour les clusters après l'installation" 21.6.7.1. Espaces de noms des opérateurs et groupes d'opérateurs 21.6.7.2. Abonnements des opérateurs 21.6.7.3. Journalisation des clusters et transmission des journaux 21.6.7.4. Profil de performance 21.6.7.5. PTP 21.6.7.6. Profil accordé étendu 21.6.7.7. SR-IOV 21.6.7.8. Opérateur de console 21.6.7.9. Grafana et Alertmanager 21.6.7.10. Diagnostic du réseau 21.7. Valider le réglage d'un cluster OpenShift à nœud unique pour les charges de travail des applications vDU Expand section "21.7. Valider le réglage d'un cluster OpenShift à nœud unique pour les charges de travail des applications vDU" Collapse section "21.7. Valider le réglage d'un cluster OpenShift à nœud unique pour les charges de travail des applications vDU" 21.7.1. Configuration recommandée du micrologiciel pour les hôtes de la grappe vDU 21.7.2. Configurations de cluster recommandées pour l'exécution des applications vDU Expand section "21.7.2. Configurations de cluster recommandées pour l'exécution des applications vDU" Collapse section "21.7.2. Configurations de cluster recommandées pour l'exécution des applications vDU" 21.7.2.1. CRs MachineConfig recommandés pour les clusters 21.7.2.2. Opérateurs de clusters recommandés 21.7.2.3. Configuration recommandée du noyau de la grappe 21.7.2.4. Vérification de la version du noyau temps réel 21.7.3. Vérification de l'application des configurations recommandées pour les clusters 21.8. Configuration avancée des clusters gérés avec les ressources SiteConfig Expand section "21.8. Configuration avancée des clusters gérés avec les ressources SiteConfig" Collapse section "21.8. Configuration avancée des clusters gérés avec les ressources SiteConfig" 21.8.1. Personnaliser les manifestes d'installation supplémentaires dans le pipeline ZTP GitOps 21.8.2. Filtrer les ressources personnalisées à l'aide des filtres SiteConfig 21.9. Configuration avancée des clusters gérés avec les ressources PolicyGenTemplate Expand section "21.9. Configuration avancée des clusters gérés avec les ressources PolicyGenTemplate" Collapse section "21.9. Configuration avancée des clusters gérés avec les ressources PolicyGenTemplate" 21.9.1. Déploiement de modifications supplémentaires dans les clusters 21.9.2. Utilisation des CR PolicyGenTemplate pour remplacer le contenu des CR sources 21.9.3. Ajouter un nouveau contenu au pipeline ZTP de GitOps 21.9.4. Configuration des délais d'évaluation de la conformité des politiques pour les CR PolicyGenTemplate 21.9.5. Signalisation de l'achèvement du déploiement d'un cluster ZTP avec des politiques d'information du validateur 21.9.6. Configuration des événements rapides PTP à l'aide des CR PolicyGenTemplate 21.9.7. Configuration de l'opérateur de registre d'images pour la mise en cache locale des images 21.9.8. Configuration des événements bare-metal avec les CR PolicyGenTemplate Expand section "21.9.8. Configuration des événements bare-metal avec les CR PolicyGenTemplate" Collapse section "21.9.8. Configuration des événements bare-metal avec les CR PolicyGenTemplate" 21.9.8.1. Configurer le partitionnement des disques avec SiteConfig 21.9.8.2. Configuration du registre d'images à l'aide des CR PolicyGenTemplate 21.9.9. Configuration de la surveillance des événements sur le système nu à l'aide des CR PolicyGenTemplate 21.9.10. Utilisation de modèles de concentrateurs dans les CR PolicyGenTemplate Expand section "21.9.10. Utilisation de modèles de concentrateurs dans les CR PolicyGenTemplate" Collapse section "21.9.10. Utilisation de modèles de concentrateurs dans les CR PolicyGenTemplate" 21.9.10.1. Exemples de modèles de concentrateurs 21.9.10.2. Spécification des cartes réseau de l'hôte dans les CR de PolicyGenTemplate de site avec des modèles de cluster de concentrateurs 21.9.10.3. Spécification des ID de VLAN dans les CR de groupe PolicyGenTemplate avec les modèles de cluster de hub 21.9.10.4. Synchronisation des nouveaux changements de ConfigMap avec les CR de PolicyGenTemplate existants 21.10. Mise à jour des clusters gérés avec le Topology Aware Lifecycle Manager Expand section "21.10. Mise à jour des clusters gérés avec le Topology Aware Lifecycle Manager" Collapse section "21.10. Mise à jour des clusters gérés avec le Topology Aware Lifecycle Manager" 21.10.1. Mise à jour des clusters dans un environnement déconnecté Expand section "21.10.1. Mise à jour des clusters dans un environnement déconnecté" Collapse section "21.10.1. Mise à jour des clusters dans un environnement déconnecté" 21.10.1.1. Mise en place de l'environnement 21.10.1.2. Mise à jour de la plate-forme 21.10.1.3. Mise à jour de l'opérateur 21.10.1.4. Réalisation conjointe d'une mise à jour de la plate-forme et d'une mise à jour de l'opérateur 21.10.1.5. Suppression des abonnements Performance Addon Operator des clusters déployés 21.10.2. À propos de la création automatique de ClusterGroupUpgrade CR pour ZTP 21.11. Mise à jour de GitOps ZTP Expand section "21.11. Mise à jour de GitOps ZTP" Collapse section "21.11. Mise à jour de GitOps ZTP" 21.11.1. Vue d'ensemble du processus de mise à jour ZTP de GitOps 21.11.2. Préparation de la mise à niveau 21.11.3. Labellisation des clusters existants 21.11.4. Arrêt des applications ZTP existantes de GitOps 21.11.5. Changements requis dans le dépôt Git 21.11.6. Installation des nouvelles applications ZTP de GitOps 21.11.7. Déploiement des changements de configuration de GitOps ZTP 21.12. Extension des clusters OpenShift à nœud unique avec GitOps ZTP Expand section "21.12. Extension des clusters OpenShift à nœud unique avec GitOps ZTP" Collapse section "21.12. Extension des clusters OpenShift à nœud unique avec GitOps ZTP" 21.12.1. Application de profils au nœud de travail 21.12.2. (Facultatif) Assurer la compatibilité des sélecteurs des démons PTP et SR-IOV 21.12.3. Compatibilité des sélecteurs de nœuds PTP et SR-IOV 21.12.4. Utilisation des CR PolicyGenTemplate pour appliquer des politiques aux nœuds de travailleur 21.12.5. Ajouter des nœuds de travail à des clusters OpenShift à nœud unique avec GitOps ZTP 21.13. Mise en cache préalable des images pour les déploiements OpenShift à nœud unique Expand section "21.13. Mise en cache préalable des images pour les déploiements OpenShift à nœud unique" Collapse section "21.13. Mise en cache préalable des images pour les déploiements OpenShift à nœud unique" 21.13.1. Obtenir l'outil factory-precaching-cli 21.13.2. Démarrage à partir d'une image live du système d'exploitation 21.13.3. Partitionnement du disque Expand section "21.13.3. Partitionnement du disque" Collapse section "21.13.3. Partitionnement du disque" 21.13.3.1. Création de la partition 21.13.3.2. Montage de la cloison 21.13.4. Téléchargement des images Expand section "21.13.4. Téléchargement des images" Collapse section "21.13.4. Téléchargement des images" 21.13.4.1. Téléchargement avec des travailleurs parallèles 21.13.4.2. Préparation du téléchargement des images OpenShift Container Platform 21.13.4.3. Télécharger les images d'OpenShift Container Platform 21.13.4.4. Téléchargement des images de l'opérateur 21.13.4.5. Mise en cache d'images personnalisées dans des environnements déconnectés 21.13.5. Mise en cache préalable des images dans ZTP Expand section "21.13.5. Mise en cache préalable des images dans ZTP" Collapse section "21.13.5. Mise en cache préalable des images dans ZTP" 21.13.5.1. Comprendre le champ clusters.ignitionConfigOverride 21.13.5.2. Comprendre le champ nodes.installerArgs 21.13.5.3. Comprendre le champ nodes.ignitionConfigOverride 21.13.6. Résolution de problèmes Expand section "21.13.6. Résolution de problèmes" Collapse section "21.13.6. Résolution de problèmes" 21.13.6.1. Le catalogue rendu n'est pas valide Note légale Settings Close Language: 简体中文 한국어 日本語 English Français Language: 简体中文 한국어 日本語 English Français Format: Multi-page Single-page Format: Multi-page Single-page Language and Page Formatting Options Language: 简体中文 한국어 日本語 English Français Language: 简体中文 한국어 日本語 English Français Format: Multi-page Single-page Format: Multi-page Single-page 1.7. Ressources supplémentaires Maximums de clusters pour OpenShift Container Platform Création de jeux de machines d'infrastructure Previous Next