第 9 章 Ceph 存储参数

您可以使用 Ceph Storage 参数修改 Ceph Storage 集群。

参数描述

CephAnsibleDisksConfig

磁盘配置设置。默认值为 {'devices': [], 'osd_scenario': 'lvm', 'osd_objectstore': 'bluestore'}

CephAnsibleEnvironmentVariables

Ansible 环境变量映射以覆盖默认值.

CephAnsibleExtraConfig

ceph-ansible playbook 的额外变量。

CephAnsiblePlaybook

要执行的 ceph-ansible playbook 的路径列表。如果没有指定,则根据要执行的操作类型自动决定 playbook(deploy/update/upgrade)。默认值为 ['default']

CephAnsiblePlaybookVerbosity

传递到 ansible-playbook 命令的 -v-vv 等等。默认值为:1

CephAnsibleRepo

用于安装正确 ceph-ansible 软件包的存储库。这个值可以被 tripleo-validations 用于重复检查安装了正确的 ceph-ansible 版本。默认值为 centos-ceph-nautilus

CephAnsibleSkipClient

此布尔值(当为 true 时),通过将 ceph-ansible 标签 ceph_client 添加到 --skip-tags 列表中来防止 ceph-ansible 客户端角色执行。默认值为 true

CephAnsibleSkipTags

要跳过的 ceph-ansible 标签列表。默认值为 package-install,with_pkg.

CephAnsibleWarning

特别是,我们希望这个验证来显示警告,但不会失败,因为系统上安装该软件包,但仓库是禁用的。默认值为 true

CephCertificateKeySize

覆盖为这个服务创建证书时使用的私钥大小。

CephClientKey

Ceph 客户端密钥。目前,只用于外部 Ceph 部署,以创建 openstack 用户密钥环。可以使用: ceph-authtool --gen-print-key创建

CephClusterFSID

Ceph 集群 FSID。必须是 UUID。

CephClusterName

Ceph 集群名称。默认值为 ceph

CephConfigOverrides

要转储到 ceph.conf 的额外配置设置。

CephConfigPath

Ceph 集群配置文件在主机上存储的路径。默认值为 /var/lib/tripleo-config/ceph

CephDashboardAdminPassword

仪表板组件的管理员密码。

CephDashboardAdminRO

用于设置只读 admin 用户的参数。默认值为 true

CephDashboardAdminUser

仪表板组件的 admin 用户。默认值为 admin

CephDashboardPort

定义 ceph 仪表板端口的参数。默认值为 8444

CephEnableDashboard

用于触发仪表板部署的参数。默认值为 false

CephExternalMonHost

外部管理的 Ceph Mon 主机 IP 列表。仅用于外部 Ceph 部署。

CephExternalMultiConfig

描述额外覆盖的映射列表,将在配置额外的外部 Ceph 集群时应用。如果此列表不是空的,ceph-ansible 将运行额外的计数(list),使用与第一次运行相同的参数,但每个映射中的每个参数将覆盖默认值。如果使用以下内容,第二个运行会将 overcloud 配置为使用 ceph2 集群,但 /etc/ceph/ceph2.conf 以外的所有参数也都有一个 mon_host 条目,其中包含以下 external_cluster_mon_ips 的值,而不是默认的 CephExternalMonHost。后续 ceph-ansible 运行仅限于 ceph 客户端。CephExternalMultiConfig 可能无法在一个 OpenStack Orchestration(heat)堆栈内部署额外的内部 Ceph 集群。每个列表的映射应该不包含 tripleo-heat-template 参数,但 ceph-ansible 参数。- cluster: ceph2 fsid: e2cba068-5f14-4b0f-b047-acf375c0004a external_cluster_mon_ips: 172.18.0.5,172.18.0.6,172.18.0.7 key: - name: "client.openstack" caps: mgr: "allow *" mon: "profile rbd" osd: "osd: profile rbd pool=volumes, profile rbd pool=backups, profile rbd pool=vms, profile rbd pool=images" key: "AQCwmeRcAAAAABAA6SQU/bGqFjlfLro5KxrB1Q==" mode: "0600" dashboard_enabled: false。

CephExtraKeys

描述要在部署的 Ceph 集群中创建的额外密钥映射列表。使用 ceph-ansible/library/ceph_key.py ansible 模块。列表中的每个项目都必须采用以下示例格式 - name: "client.glance" caps: mgr: "allow *" mon: "profile rbd" osd: "profile rbd pool=images" key: "AQBRgQ9eAAAAABAAv84zEilJYZPNuJ0Iwn9Ndg==" mode: "0600".

CephGrafanaAdminPassword

grafana 组件的管理员密码。

CephIPv6

启用 Ceph 守护进程来绑定到 IPv6 地址。默认值为 False

CephManilaClientKey

Ceph 客户端密钥。可以使用: ceph-authtool --gen-print-key创建

CephMsgrSecureMode

启用 Ceph msgr2 安全模式,以在 Ceph 守护进程和 Ceph 客户端和守护进程之间启用在线加密。默认值为 false

CephOsdPercentageMin

根据 ceph osd stat 的 Ceph OSD 运行和 Ceph 集群中运行的最小 Ceph OSD 百分比,因为部署失败。用于在早期捕获部署错误。将此值设置为 0 以禁用这个检查。因为从 ceph-ansible 移到 cephadm,在 Wallaby 中弃用。稍后,仅在等待它们启动时阻止 OSD,因此我们无法再完成此操作。默认值为 0

CephPoolDefaultPgNum

用于 RBD 池的默认放置组大小。默认值为 16

CephPoolDefaultSize

RBD 副本的默认最小复制。默认值为 3

CephPools

覆盖其中一个预定义池或创建其他池的设置。示例:{ "volumes": { "size": 5, "pg_num": 128, "pgp_num": 128 }

CephRbdMirrorConfigure

在本地和远程池之间执行镜像配置。默认值为 true

CephRbdMirrorCopyAdminKey

将 admin 密钥复制到所有节点。默认值为 false

CephRbdMirrorPool

要镜像到远程集群的本地池的名称。

CephRbdMirrorRemoteCluster

从本地集群中提供给远程 Ceph 集群的名称。密钥位于 /etc/ceph 目录中。默认值为 not-ceph

CephRbdMirrorRemoteUser

rbd-mirror 守护进程需要用户通过远程集群进行身份验证。默认情况下,这个密钥应该位于 /etc/ceph/<remote_cluster>.client.<remote_user>.keyring 下。

CephRgwCertificateKeySize

覆盖为这个服务创建证书时使用的私钥大小。

CephRgwClientName

RADOSGW 服务的客户端名称"。 默认值为 radosgw

CephRgwKey

RADOSGW 客户端的 cephx 密钥。可以使用 ceph-authtool --gen-print-key 创建。

CephValidationDelay

验证检查之间的间隔(以秒为单位)。默认值为 30

CephValidationRetries

Ceph 验证重试尝试次数。默认值为 40

CertificateKeySize

指定创建证书时使用的私钥大小。默认值为 2048

CinderBackupBackend

要使用的 OpenStack Block Storage(cinder)备份后端的短名称。默认值为 swift

CinderBackupRbdPoolName

如果启用了 Block Storage(cinder)备份,则使用池。默认值为 backup

CinderEnableRbdBackend

是否为 OpenStack Block Storage(cinder)启用 Rbd 后端。默认值为 false

CinderRbdExtraPools

用于 OpenStack Block Storage(cinder)的 RBD 后端的额外 Ceph 池列表。为列表中的每个池创建一个额外的 OpenStack Block Storage(cinder)RBD 后端驱动程序。这是在与 CinderRbdPoolName 相关的标准 RBD 后端驱动程序之外的额外设置。

CinderRbdPoolName

用于 Block Storage(cinder)服务的池。默认值为 volumes

DeploymentServerBlacklist

从任何触发的部署中阻止列表的服务器主机名列表。

GlanceBackend

要使用的 OpenStack Image Storage(glance)后端的短名称。设置为 rbd 以使用 Ceph Storage。默认值为 swift

GlanceMultistoreConfig

配置额外 glance 后端时的设置字典。hash 键是后端 ID,值是该后端唯一的参数值字典。允许多个 rbd 和 cinder 后端,但 file 和 swift 后端限制为每个后端。示例: # Default glance store 是 rbd。GlanceBackend: rbd GlanceStoreDescription: Default rbd store # GlanceMultistoreConfig 指定第二个 rbd 后端,以及一个 cinder # backend。GlanceMultistoreConfig: rbd2_store: GlanceBackend: rbd GlanceStoreDescription: Second rbd store CephClusterName: ceph2 # Override CephClientUserName if this cluster use a different # client name.CephClientUserName: client2 cinder1_store: GlanceBackend: cinder GlanceCinderVolumeType: volume-type-1 GlanceStoreDescription: First cinder store cinder2_store: GlanceBackend: cinder GlanceCinderVolumeType: volume-type-2 GlanceStoreDescription: Seconde cinder store.

GlanceRbdPoolName

用于 Image Storage(glance)服务的池。默认值为 镜像

GnocchiBackend

要使用的 OpenStack Telemetry Metrics(gnocchi)后端的短名称。应该是 swift、rbd、file 或 s3 之一。默认值为 swift

GnocchiRbdPoolName

用于遥测存储的池。默认值为 metrics

LocalCephAnsibleFetchDirectoryBackup

undercloud 上的文件系统路径,用于保留 ceph-ansible 获取目录中数据的副本。用作在 Swift 中备份 fetch_directory 的替代方法。从 config-download 运行 ansible 的用户必须可写入且可读,例如 mistral-executor 容器中的 mistral 用户可以读/写到 /var/lib/mistral/ceph_fetch。

ManilaCephFSCephFSAuthId

共享文件系统服务(manila)的 CephFS 用户 ID。默认值为 manila

ManilaCephFSDataPoolName

用于文件共享存储的池。默认值为 manila_data

ManilaCephFSMetadataPoolName

用于文件共享元数据存储的池。默认值为 manila_metadata

ManilaCephFSShareBackendName

用于文件共享存储的 CephFS 共享的后端名称。默认值为 cephfs

NodeExporterContainerImage

Ceph NodeExporter 容器镜像。

NovaEnableRbdBackend

是否启用用于计算(nova)的 Ceph 后端。默认值为 false

NovaRbdPoolName

用于计算存储的池。默认值为 vms