Red Hat Training

A Red Hat training course is available for Red Hat OpenStack Platform

发行注记

Red Hat OpenStack Platform 12

Red Hat OpenStack Platform 12 发行详细信息

OpenStack 文档团队

Red Hat 客户内容服务

摘要

本文档概述了此 Red Hat OpenStack Platform 发行版本的主要功能、改进和已知问题。

第 1 章 简介

1.1. 关于本发行版本

本 Red Hat OpenStack Platform 发行版本基于 OpenStack "Pike" 发行版本,包括 Red Hat OpenStack Platform 特有的新功能、已知问题以及已解决的问题。
本文中仅包含与 Red Hat OpenStack Platform 相关的变更。OpenStack "Pike" 本身的发行注记可以从以下位置获得: https://releases.openstack.org/pike/index.html
Red Hat OpenStack Platform 同时使用了其它红帽产品的组件,相关信息可以访问以下链接获得:
如需试用 Red Hat OpenStack Platform,请通过以下网址注册:

注意

Red Hat OpenStack Platform 可以使用 Red Hat Enterprise Linux High Availability Add-On(http://www.redhat.com/products/enterprise-linux-add-ons/high-availability/)。https://access.redhat.com/site/solutions/509783 包括了 Red Hat OpenStack Platform 可以使用的软件包版本信息。

1.2. 要求

Red Hat OpenStack Platform 支持最新版本的 Red Hat Enterprise Linux。 Red Hat Enterprise Linux 7.4 支持这个版本的 Red Hat OpenStack Platform。
Red Hat OpenStack Platform 仪表板是一个基于 web 的用户界面,用户可以通过它来管理 OpenStack 资源和服务。本发行版本中的仪表板支持以下网络浏览器的最新发行版:
  • Chrome
  • Firefox
  • Firefox ESR
  • Internet Explorer 11 和更高版本(需要禁用 Compatibility Mode

注意

在部署 Red Hat OpenStack Platform 前,请务必考虑可用部署方法的特性。如需了解更多相关信息,请参阅 Installing and Managing Red Hat OpenStack Platform

1.3. 部署限制

如需获得 Red Hat OpenStack Platform 的部署限制列表,请参阅 Deployment Limits for Red Hat OpenStack Platform

1.4. 数据库容量管理

如需了解在 Red Hat OpenStack Platform 环境中管理 MariaDB 数据库容量的信息,请参阅 Database Size Management for Red Hat Enterprise Linux OpenStack Platform

1.5. 认证的驱动器和插件

如需获得 Red Hat OpenStack Platform 中认证的驱动器和插件列表,请参阅 Component, Plug-In, and Driver Support in Red Hat OpenStack Platform

1.6. 认证的客户机操作系统

如需获得在 Red Hat OpenStack Platform 中认证的客户机操作系统的列表,请参阅 Certified Guest Operating Systems in Red Hat OpenStack Platform and Red Hat Enterprise Virtualization

1.7. Bare Metal Provisioning 支持的操作系统

如需可以通过 Bare Metal Provisioning (ironic) 安装到 Red Hat OpenStack Platform 中的裸机节点所支持的客户机操作系统列表,请参阅 Supported Operating Systems Deployable With Bare Metal Provisioning (ironic)

1.8. 支持的虚拟机监控程序

Red Hat OpenStack Platform 只支持与 libvirt 驱动器一起使用(在 Compute 节点上使用 KVM 作为虚拟机监控程序)。
从 Red Hat OpenStack Platform 7 (Kilo) 版本开始完全支持 Ironic。通过 Ironic,您可以使用常用的技术(如 PXE 引导和 IPMI)来配备裸机,并支持使用可插入的驱动器来实现与特定厂商相关的功能。
红帽不支持其它 Compute 虚拟化驱动器,如 VMware "direct-to-ESX" 虚拟机监控程序和非 KVM libvirt 虚拟机监控程序。

1.9. Content Delivery Network (CDN) 频道

本节介绍部署 Red Hat OpenStack Platform 12 所需的频道和仓库设置。
您可以通过 Content Delivery Network (CDN) 安装 Red Hat OpenStack Platform 12。为此,请配置 subscription-manager 来使用正确的频道。

警告

如果没有把 Open vSwitch (OVS) 2.4.0 升级到 OVS 2.5.0,请勿升级到 Red Hat Enterprise Linux 7.3 内核。如果仅升级内核,OVS 将停止工作。
运行以下命令启用 CDN 频道:
#subscription-manager repos --enable=[reponame]
运行以下命令禁用 CDN 频道:
#subscription-manager repos --disable=[reponame]

表 1.1. 所需频道 (x86_64)

频道 仓库名称
Red Hat Enterprise Linux 7 Server (RPM) rhel-7-server-rpms
Red Hat Enterprise Linux 7 Server - RH Common (RPM) rhel-7-server-rh-common-rpms
Red Hat Enterprise Linux High Availability(面向 RHEL 7 服务器) rhel-ha-for-rhel-7-server-rpms
Red Hat OpenStack Platform 12 for RHEL 7 (RPM) rhel-7-server-openstack-12-rpms
Red Hat Enterprise Linux 7 Server - Extras (RPM) rhel-7-server-extras-rpms

表 1.2. 可选频道 (x86_64)

频道 仓库名称
Red Hat Enterprise Linux 7 Server - Optional rhel-7-server-optional-rpms
Red Hat OpenStack Platform 12 Operational Tools for RHEL 7 (RPM) rhel-7-server-openstack-12-optools-rpms

表 1.3. 所需频道 (ppc64le)

频道 仓库名称
Red Hat Enterprise Linux for IBM Power, little endian rhel-7-for-power-le-rpms
Red Hat OpenStack Platform 12 for RHEL 7 (RPM) rhel-7-server-openstack-12-for-power-le-rpms
禁用频道

下表中概述了您必须禁用的频道,以确保 Red Hat OpenStack Platform 12 正确工作。

表 1.4.  禁用频道

频道 仓库名称
Red Hat CloudForms Management Engine "cf-me-*"
Red Hat Enterprise Virtualization "rhel-7-server-rhev*"
Red Hat Enterprise Linux 7 Server - Extended Update Support "*-eus-rpms"

警告

Red Hat OpenStack Platform 软件仓库中的一些软件包和 Extra Packages for Enterprise Linux (EPEL) 软件仓库提供的软件包有冲突。启用了 EPEL 软件仓库的系统不支持使用 Red Hat OpenStack Platform。

1.10. 产品支持

可用资源包括:
客户门户网站
红帽客户门户网站提供了丰富的资源,助您规划、部署和维护 OpenStack 系统。这些资源包括:
  • 知识库文档和解决方案。
  • 技术概要。
  • 产品文档。
  • 支持用例管理。
通过 https://access.redhat.com/ 访问客户门户网站。
邮件列表
红帽提供了以下与 OpenStack 用户相关的公共邮件列表:

1.11. 文档集的重要变更

本发行版本对 Red Hat OpenStack Platform 文档集做出了一些重要变更。以下列表概述并解释了这些变更。
配置参考和命令行接口参考
Configuration ReferenceCommand-Line Interface Reference 文档未随 Red Hat OpenStack Platform 12 正式发行版本一起提供。
这两个文档都依赖于由 openstack.org 生成的源内容。在 "Pike" 发行版本中,该内容的格式和位置均已改变。因此,所需的相关工作范围已超出 Red Hat OpenStack Platform 12 GA 的计划。这些文档的编写和发布将采用异步发行方式。
手动安装过程
自 Red Hat OpenStack Platform 12 开始,Manual Installation Procedures 文档已从文档集中删除。
红帽仅支持使用 Red Hat OpenStack Platform director 和正式文档中的步骤所执行的安装过程。
用户可以访问 OpenStack 网站 (https://docs.openstack.org/pike/install),找到手动安装的信息,但红帽不支持这些安装过程。
手动升级
Red Hat OpenStack Platform 12 不支持在没有 director 情况下执行的手动升级步骤,因此,没有提供针对这种情况的文档。对于所支持的升级情况,即使用 Red Hat OpenStack Platform director 执行的升级,请参阅 Upgrading Red Hat OpenStack Platform
OpenStack Benchmarking Service 指南
OpenStack Benchmarking Service 文档已过时,且包含不正确的信息。在所有版本的文档集中均已将其删除。Bugzilla 工单(https://bugzilla.redhat.com/show_bug.cgi?id=1459469)包括了相关信息。
用于 Overcloud 的 Red Hat Ceph Storage
Red Hat Ceph Storage for the Overcloud 文档已被两份新的指南替代,新的指南介绍了在 overcloud 中使用 Red Hat Ceph Storage 的两种可用选项:Integrating an Overcloud with an Existing Red Hat Ceph ClusterDeploying an Overcloud with Containerized Red Hat Ceph
基于 RPM 的 Overcloud 安装
用于 Red Hat OpenStack Platform 12 的 RPM 软件包仍然随容器镜像一起提供。但是,由红帽提供的正式安装程序 Red Hat OpenStack Platform director 不支持以非容器化(基于 RPM)的方式部署 Red Hat OpenStack Platform 12。因此,对基于 RPM 的 overcloud 部署,在文档中没有提供相关的指导信息。对于所支持的部署场景,请参阅 Director Installation and Usage
尽管没有为基于 RPM 的部署提供安装步骤或者不支持这种部署方式,但是在符合红帽支持策略的情况下(https://access.redhat.com/articles/2477851),仍然支持通过手动部署而建立的环境。
VMware 集成指南
VMware Integration Guide 已从所有版本的文档集中删除。该文档中介绍的集成不再被支持。

第 2 章 主要新功能

本节介绍了这个 Red Hat OpenStack Platform 发行版本中包括的主要新功能。

2.1. Red Hat OpenStack Platform Director

本节概述了 director 的主要新功能。
提示更改
查找 undercloud 上的设置文件(例如 stackrcovercloudrc)时,提示字符串 1 (PS1) 变为包含云名称,这有助于识别当前所访问的云。例如,如果要查找 stackrc 文件,出现的提示会带有 (undercloud) 前缀:
[stack@director-12 ~]$ source ~/stackrc
(undercloud) [stack@director-12 ~]$
通过 HTTP 代理进行注册
director 提供了更新的模板,可通过 HTTP 代理来注册 overcloud。
新的定制角色生成
director 提供了基于各种定制角色文件来创建 roles_data 文件的功能,这就简化了各种定制角色的管理。director 还带有默认的一组角色文件,帮助您尽快入门。
节点黑名单
director 现在可接受使用 DeploymentServerBlacklist 的节点黑名单。此参数可将一系列节点隔离出去,使其在执行 openstack overcloud deploy 期间无法接收到更新的参数和资源。该命令可用于调节新增的节点,而现有节点在部署过程中不受影响。
可组合的网络
先前,Bare Metal 服务只能使用 director 模板中定义的网络。现在可以组合产生定制网络,让 director 在 overcloud 部署或更新期间进行创建。另外还可以为 director 模板定义的网络分配定制标签。
UI:改进了节点管理
director 的 web UI 现在为每个节点提供了更多详细信息,并提供了更多节点管理功能。您可以在 director 的 web UI 的 Nodes 屏幕上查看新增加的信息。
UI:改进了角色分配
director 的 web UI 简化了节点的角色分配,UI 使用旋转器自动为选定数量的节点分配某种角色。您也可以在 director 的 web UI 的 Nodes 屏幕上为特定节点手动分配角色。

2.2. 容器

本节概述了 Red Hat OpenStack Platform 中的容器化。
容器化的 Overcloud
Red Hat OpenStack Platform director 现在可创建由容器化服务组成的 overcloud。用户可通过以下来源实现其容器镜像:
  • 远程 registry.access.redhat.com
  • 本地 undercloud(镜像最初取自 registry.access.redhat.com
  • Red Hat Satellite 6(与 registry.access.redhat.com 同步获得镜像)
overcloud 继续支持可组合的服务基础架构,并使用容器来增加现有服务。请注意,默认没有容器化的只有以下服务:
  • OpenStack Networking (neutron)
  • OpenStack Block Storage (cinder)
  • OpenStack Shared File Systems (Manila)
红帽为上述服务提供的容器仅为技术预览
容器化升级
Red Hat OpenStack Platform director 提供了从非容器化 Red Hat OpenStack Platform 11 overcloud 到容器化 Red Hat OpenStack Platform 12 overcloud 的升级路径。

2.3. Bare Metal 服务

本节概述了 Bare Metal (ironic) 服务的主要新功能。
第三层路由骨干/分支网络拓扑
借助骨干/分支拓扑,裸机网络现在使用第三层路由。这种新拓扑可以充分利用经过等价多路径 (ECMP) 的连接。但新拓扑只能用于 Compute 和 Ceph 存储角色,置备网络还不能使用这种路由。
节点自动发现
先前,批量添加 overcloud 节点的唯一方法是在 instack.json 文件中写入。Bare Metal 服务现在可以自动发现未识别的节点,无需使用 instack.json 文件。
Redfish 支持
Redfish API 是硬件管理的开放标准。Bare Metal 服务现在包含 Redfish API 驱动器。要管理符合 Redfish 协议的服务器,可将驱动器属性设置为 redfish
Overcloud 全磁盘镜像支持
Bare Metal 服务现在支持 overcloud 的全磁盘镜像。先前,除 qcow2 镜像外还需要 initrd 和 vmlinuz 镜像。现在,裸机服务可接受只上传单个 qcow2 镜像作为全磁盘镜像。在部署之前,必须先构建全磁盘镜像。

2.4. Block Storage

本节概述了 Block Storage 的主要新功能。
基于容量的 QoS 限值
用户现在可使用卷类型并根据所配备卷的大小来设置确定的 IOPS 吞吐量值。这简化了为用户分配存储资源的方式,也就是说,这是通过根据所请求的卷大小而预先确定的(最终是高度可预测的)吞吐率进行分配。
Veritas HyperScale 支持
Block Storage 服务现在支持 HyperScale 驱动器。HyperScale 是一种软件定义的存储解决方案,其中使用双平面架构实现了存储管理任务与 Compute 平面的工作负载处理相分离。这种技术有助于高效使用与 Compute 节点直接相连的存储设备,既降低了总体拥有成本而又无损性能。

2.5. Ceph 存储

本节概述了 Ceph 存储的主要新功能。
容器化 Ceph 部署
director 现在可部署容器化的 Red Hat Ceph 集群。要进行这种部署,director 可将内置 heat 模板和环境文件与 Ansible playbook(通过 ceph-ansible 项目获得)配合使用。
改进了 HCI 资源管理
先前在部署 Hyper-Converged Infrastructure (HCI) 时,用户只能手动配置超融合 Compute 节点上的资源隔离。director 现在可使用 OpenStack Workflow 来推导出适合 HCI 的 CPU 和 RAM 分配设置并加以应用。

2.6. Compute

本节概述了 Compute 服务的主要新功能。
模拟器线程策略
Compute 调度程序根据实例类型中的虚拟 CPU (vCPU) 数量来确定 CPU 资源使用情况并放置实例。主机上会代表客户机实例来执行一些虚拟机监控程序的操作。libvirt 驱动器实现了 KVM 的一种通用放置策略,允许 QEMU 模拟器线程在运行 vCPU 的相同物理 CPU (pCPU) 之间漂移。这样,模拟器线程就可以使用从 vCPU 操作借来的时间。
在本发行版本中,通过使用 hw:emulator_threads_policy=isolate 选项,Compute 可预留一个 vCPU 用于运行非实时工作负载。在对实例类型启用模拟器线程放置策略之前,您必须将 hw:cpu_policy 选项设置为 dedicated
保留支持 SR-IOV 功能的 NUMA 节点(权重)
本发行版本中更新了筛选调度程序和资源跟踪程序,以将非 PCI 实例放置在非 PCI NUMA 节点上。未绑定到 PCI 设备的实例将优先放置到没有 PCI 设备的主机上。如果不存在没有 PCI 设备的主机,将使用有 PCI 设备的主机。要启用此选项,可使用新的 nova.scheduler.weights.all_weighers PCI 权重器选项,也可以使用 filter_scheduler.weight_classes 配置选项手动启用此选项。

2.7. 高可用性

本节概述了高可用性的主要新功能。
容器化的高可用性参考架构
实例高可用性(实例 HA)参考架构现在以容器形式提供,可通过 Red Hat OpenStack director 部署在 Red Hat Enterprise Linux Atomic Host 上。实例 HA 配置是在代理容器中提供的,然后将应用程序容器和共享服务部署在集群中。
以下的实例 HA 组件和托管服务现在以容器形式提供:
  • Pacemaker
  • Pacemaker_remote
  • Corosync
  • 辅助支持组件
  • Galera (MariaDB)
  • RabbitMQ
  • HAProxy
  • Cinder-backup
  • Cinder-volume
  • Manila-share
  • Redis
  • Virtual-ips
  • memcached
通过 httpchk 检查健康状态
实例 HA 现在使用 httpchk 检查集群中兼容服务节点的健康状态。

2.8. Identity

本节概述了 Identity 服务的主要新功能。
Novajoin 可用于基础架构
使用 Novajoin 可将 undercloud 和 overcloud 节点注册到 Red Hat Identity Management (IdM) 中。因此,您现在可将 IdM 功能用于 OpenStack 部署,包括身份、kerberos 凭证和访问控制等功能。
TLS 覆盖范围
Red Hat OpenStack Platform 12 包括 TLS 支持功能,范围涵盖为 MariaDB、RabbitMQ 和内部服务端点。

2.9. 网络功能虚拟化

本节概述了网络功能虚拟化 (NFV) 的主要新功能。
轻松的异构集群管理
轻松的异构集群管理允许设置不同的服务参数值,以匹配各种各样的节点能力或调优需求。例如,如果节点 1 的 RAM 内存多于节点 2,在先前可能无法通过两种不同的 Compute 角色来利用增加的 RAM,因为服务参数是全局定义的。而现在可以将可组合的角色与角色特定的参数配合使用来定义独特的参数,使其与不同节点的能力或不同的调优需求相匹配。
OpenDaylight(技术预览)
OpenDaylight 软件定义网络 (SDN) 控制器现已集成到 Red Hat OpenStack Platform 中。
简化 OVS-DPDK 部署
Red Hat OpenStack Platform 简化了 OVS-DPDK 部署,可通过预定义的 Mistral 工作流来自动生成 OVS-DPDK 参数。现在只需要确定两个简单的参数(DPDK PMD 使用的最小 CPU 线程数和为大页面保留的可用内存百分比)。根据这些信息和裸机节点的硬件内省结果,工作流即可计算出部署所需的其余八个 OVS-DPDK 参数。
通过裸机内省获取 NUMA 拓扑
为了简化部署,您可以通过裸机硬件内省服务从 Compute 节点检索 NUMA 拓扑详细信息。检索到的 NUMA 拓扑详细信息包括 NUMA 节点数以及相关的 RAM、NIC、物理 CPU 内核数和同级对。

2.10. Object Storage

本节概述了 Object Storage 服务的主要新功能。
独立 Object Storage 部署
在本发行版本中,用户现在可配置新的 overcloud 部署以使用现有的 Object Storage 集群。

2.11. OpenDaylight(技术预览)

本节概述了 OpenDaylight 服务的主要新功能。
改进了 Red Hat OpenStack Platform director 集成功能
Red Hat OpenStack Platform director 用于安装和管理整个 OpenStack 环境。在 Red Hat OpenStack Platform 12 中,director 可部署并配置 OpenStack 与 OpenDaylight 一起使用。OpenDaylight 可与 OpenStack overcloud controller 角色一起运行,或在不同节点上的独立定制角色中运行。
在 Red Hat Openstack Platform 12 中,OpenDaylight 在容器中安装并运行,使维护和使用更加灵活。
IPv6
Red Hat OpenStack Platform 12 中的 OpenDaylight 在 IPv6 用例下,带来了一些与 OpenStack neutron ML2/OVS 实现同等的功能。这些用例包括:
  • IPv6 寻址支持(包括 SLAAC)
  • 无状态和有状态 DHCPv6
  • 具有允许地址对的 IPv6 安全组
  • 同一网络中虚拟机之间的 IPv6 通信
  • IPv6 东西路由支持
可感知 VLAN 的虚拟机
可感知 VLAN 的虚拟机(或支持主干的虚拟机)允许实例通过一个虚拟 NIC (vNIC) 连接到一个或多个网络。只要将实例连接到一个端口,多个网络就可以呈现给该实例。网络主干允许用户创建一个端口,将其与主干相关联,然后在该端口上启动实例。之后,其他网络可以动态地与该实例建立连接或断开连接,而不会中断该实例的运行。
SNAT
Red Hat OpenStack Platform 12 引入了基于 conntrack 的 SNAT,其中使用 OVS netfilter 来维持转换。每个路由器会选择一个交换机作为 NAPT 交换机来执行集中转换。所有其他交换机都向集中交换机发送数据包以执行 SNAT。如果一个 NAPT 交换机停止工作,会选出替代交换机来执行转换,现有转换信息将在故障转移期间丢失。
SR-IOV 集成
Red Hat OpenStack Platform 12 中的 OpenDaylight 可以与支持 SR-IOV 的 compute 节点一起部署。也可以在一个 OpenDaylight 的安装中,建立同时包括 OVS 和 SR-IOV 节点的混合环境。SR-IOV 部署需要有 neutron SR-IOV 代理以便配置虚拟功能 (VF),这些虚拟功能会直接传递给已部署为网络端口的 compute 实例。
Controller 集群
Red Hat OpenStack Platform 12 中的 OpenDaylight Controller 支持基于集群的高可用性模型。OpenDaylight Controller 的几个实例构成一个 Controller Cluster。这些实例一起作为一个逻辑控制器。只要大多数控制器实例都正常工作并能互相通信,控制器(可视为逻辑单元)就能继续提供服务。
Red Hat OpenDaylight Clustering 模型同时提供了高可用性和横向扩展能力:如有必要,可加入更多节点来承受更大负载。
OVS-DPDK
通过 director,Red Hat Openstack Platform 12 中的 OpenDaylight 可与 Open vSwitch Data Plane Development Kit (DPDK) 加速软件一起部署。这种部署可带来更高的数据平面性能,因为数据包的处理在用户空间而不是内核中进行。
L2GW/HW-VTEP
Red Hat OpenStack Platform 12 支持 L2GW 将传统裸机服务集成到 neutron 覆盖网络中。这一点特别有用,便于将外部物理工作负载桥接到 neutron 租户网络中,便于 Bare Metal 服务 (ironic) 将裸机服务器(由 OpenStack 管理)引入到租户网络中,以及将 SR-IOV 数据流桥接到 VXLAN 覆盖网络中。这一点的实现借助于 SR-IOV 的线速传输以及覆盖网络互连 SR-IOV 虚拟机的能力。
networking-odl 软件包
Red Hat OpenStack Platform 12 提供了新版本的 networking-odl 软件包,带来了一些重要变化。其中引入了 port status update support 命令,可精确显示端口状态以及端口何时可供虚拟机使用。默认的端口绑定方式由基于网络拓扑变为基于伪代理。本发行版本未提供网络拓扑绑定支持功能。使用基于网络拓扑的端口绑定方式的客户应该迁移到基于伪代理的端口绑定方式 (pseudo-agentdb-binding)。

2.12. OpenStack Data Processing 服务

本节概述了 OpenStack Data Processing (sahara) 服务的主要新功能。
OpenStack Data Processing 服务与裸机集成为租户提供服务
OpenStack Data Processing 服务可消除虚拟机监控程序抽象层来提高性能。OpenStack Bare Metal Provisioning (ironic) 服务提供了一个 API 和 Compute 驱动器来供应裸机实例,这些实例使用相同的 Compute API 和 OpenStack Networking API。
本发行版本增加的支持功能允许安装和配置 OpenStack Bare Metal Provisioning 服务以及 Compute 驱动器来为租户供应裸机实例。对于同时有虚拟机和裸机实例的 Red Hat OpenStack Platform 部署,需要以如下方式使用主机聚合:
  • 一个用于所有裸机主机
  • 一个用于所有虚拟 Compute 节点
支持 Cloudera Distribution of Apache Hadoop (CDH) 5.11
您可以在 Red Hat OpenStack Platform 上部署 Cloudera Distribution of Apache Hadoop (CDH) 5.11。CDH 可以利用 Spark 和 Impala 等最新的大数据处理技术来存储、处理和分析大量不同类型的数据。

2.13. OpenStack Networking

本节介绍了 Networking 服务的主要新功能。
Open vSwitch 防火墙驱动
OVS 防火墙驱动已从技术预览阶段转为全面支持。这一基于 conntrack 的防火墙驱动可用于实施安全组。利用 conntrack 时,Compute 实例直接与集成网桥连接,实现更为精简的架构和更高的性能。
Layer-2 Gateway API
Layer-2 Gateway 是一个服务插件,允许将几个网络桥接起来,呈现为一个第二层广播域。此更新引入了对 Layer-2 Gateway API 的支持功能。
BGP/VPN API
OpenStack Networking 现在支持 BGPVPN 功能。BGPVPN 允许将实例连接到现有的第三层 VPN 服务。在创建 BGPVPN 网络之后,可将其与项目进行关联,从而允许项目用户连接到 BGPVPN 网络。

2.14. 操作工具

本节概述了操作工具的主要新功能。
监控代理支持 SSL
现在可以配置监控代理(Sensu 客户端)通过 SSL 连接 RabbitMQ 实例。为此,可在监控环境 YAML 文件中定义 SSL 连接参数和证书。
与 Red Hat Enterprise Common Logging 集成
现在可以使用 Red Hat Enterprise Common Logging 解决方案从 Red Hat OpenStack Platform 中收集日志信息。为此,可配置日志收集代理 (Fluentd) 向中央日志收集程序发送日志文件。
容器化的监控和日志工具
一些监控和日志工具现在以容器形式提供,可通过 Red Hat OpenStack director 部署在 Red Hat Enterprise Linux Atomic Host 上。
以下操作工具现在以容器形式提供:
  • 可用性监控 (Sensu)
  • 性能监控 (Collectd)
  • 日志聚合 (Fluentd)

2.15. Shared File System

本节概述了 Shared File System 服务的主要新功能。
Telemetry 集成
Shared File System 服务现在可向 Telemetry 服务发送使用统计信息。这样用户就能监控共享生命周期内的各种事件。

2.16. Telemetry

本节概述了 Telemetry 服务的主要新功能和变更。
OpenStack Telemetry Metrics (gnocchi) 的大规模应用能力
Telemetry 曾使用 MongoDB 和 Telemetry API 来存储指标,尽管在这方面的性能尚可接受,但由于无法检索和利用已存储的信息,其使用受限。
OpenStack Telemetry Metrics (gnocchi) 服务针对 gnocchi-metricd 守护进程使用了新的分布式选择性应答 (SACK) 机制和调度算法,提高了更大规模的使用性能。默认设置也得到增强,可适应更大规模的云部署。
Intel 高速缓存监控技术 (CMT)
高速缓存监控技术 (CMT) 可监控 Intel 平台上与高速缓存相关的统计信息。Telemetry 现在使用 collectd 守护进程来支持 CMT 报告。
本发行版本增加了新的计量表,可采集每个虚拟机的 L3 高速缓存使用统计信息。通过 nova-libvirt.yaml 文件中的 LibvirtEnabledPerfEvents 参数可启用 cmt 插件。
Telemetry 服务的容器化
本发行版本的 Red Hat OpenStack Platform 可创建一种云,使用容器来承载服务。每个服务在主机节点上自己的容器中独立运行。并且每个容器都连接到主机自己的网络并共享该网络。因此,主机节点可在自己的网络上展示每个服务的 API 端口。Telemetry 服务现在可托管在容器上,实现轻松升级。
OpenStack Telemetry Event Storage (panko) 弃用
OpenStack Telemetry Event Storage 服务现已正式弃用。对 panko 的产品支持将仅限于在 Red Hat Cloudforms 中使用。红帽不建议在 Red Hat Cloudforms 外部使用 panko。您可以使用以下选项来代替使用 panko:
  • 轮询 OpenStack Telemetry Metrics (gnocchi) 服务而不轮询 panko。这样可以访问资源历史信息。
  • 使用 OpenStack Telemetry Alarming (aodh) 服务在事件发生时触发警报。如果 OpenStack Telemetry Alarming (aodh) 服务不能直接访问应用程序,可以使用 OpenStack Messaging Service (zaqar) 将警报保存在队列中。
Telemetry API 和 ceilometer-collector 弃用
Telemetry API 服务已经弃用。替代它的是 OpenStack Telemetry Metrics (gnocchi) 服务和 OpenStack Telemetry Alarming (aodh) 服务 API。您应该开始改用 Telemetry API 服务的替代者。在 Red Hat OpenStack Platform 12 中,默认已禁用 Telemetry API,仅在需要时启用。
ceilometer-collector 服务已弃用。现在可使用 ceilometer-notification-agent 守护进程,因为 Telemetry 轮询代理会从示例文件中向 ceilometer-notification-agent 守护进程发送消息。

2.17. 技术预览

本节概述了作为技术预览包括在 Red Hat OpenStack Platform 12 中的功能。

注意

如需了解与技术预览的支持范围相关的更多信息,请参阅 Technology Preview Features Support Scope

2.17.1. 新的技术预览

以下新功能以技术预览的形式出现:
Octavia LBaaS
Octavia 是一个新的组件,可作为 LBaaS v2 API 的后端插件,准备用来替代当前基于 HAProxy 的实现。
开放虚拟网络 (OVN)
OVN 是一种基于 Open vSwitch 的网络虚拟化解决方案,用于为实例提供网络服务。
Red Hat OpenStack Platform for POWER
现在可在 IBM POWER8 little endian 硬件上部署预配备的 overcloud Compute 节点。

2.17.2. 过去发布的技术预览

以下功能仍然以技术预览的形式出现:
Benchmarking 服务 - 推出新插件类型:Hook
允许作为迭代运行的测试方案,并在 Rally 报告中提供已执行操作相关的时间戳(及其他信息)。
Benchmarking 服务 - 新方案
为 nova、cinder、magnum、ceilometer、manila 和 newton 添加了基准测试方案。
Benchmarking 服务 - 验证组件代码重构
Rally Verify 用于启动 Tempest。它已经过代码重构,以包含新的模型:验证器类型、验证器和验证结果。
Block Storage - 高可用的主-主卷服务
在过去的发行版本中,openstack-cinder-volume 服务只能在主-被 HA 模式中运行。在本发行版本中,主-主配置现已作为技术预览提供。这种配置旨在提供更高的运营 SLA 和吞吐量。
Block Storage - RBD Cinder 卷复制
Ceph 卷驱动器现在包含 RBD 复制,提供集群层面上的复制能力。利用这项功能,您可以将辅助 Ceph 集群设置为复制设备;复制的卷随后镜像到此设备。在故障转移期间,所有复制的卷被设置为“主要”,对这些卷的所有新请求将重定向到该复制设备。
若要启用此功能,请使用 replication_device 参数指定 Ceph 后端应当要镜像到的集群。此功能需要主要和辅助 Ceph 集群之间设置有 RBD 镜像。如需更多相关信息,请参阅 http://docs.ceph.com/docs/master/rbd/rbd-mirroring/
目前,RBD 复制不具备故障恢复机制。此外,冻结选项不能按照说明工作,复制的卷也不能在故障转移期间自动附加到同一实例/从同一实例分离。
CephFS Integration - CephFS 原生驱动器增强
CephFS 驱动器仍然作为技术预览提供,包含以下增强功能:
  • 只读共享
  • 访问规则同步
  • 向后兼容更早版本的 CephFSVolumeClient
裸机节点链路聚合
本发行版本引入了裸机节点链路聚合功能。通过链路聚合,您可以在裸机节点 NIC 上配置绑定,以支持故障转移和负载平衡。此功能要求能够从专门的 neutron 插件配置具体的硬件交换机供应商支持。请验证您的硬件供应商交换机支持正确的 neutron 插件。
此外,您可以手动预先配置交换机,为这些裸机节点设置绑定。要使节点从某一个绑定接口引导,交换机需要支持 LACP 和 LACP 回退(如果未形成绑定,则绑定链路回退到各个链路)。否则,节点还需要单独的置备和清理网络。
Benchmarking 服务

Rally 是一个基准数据工具程序,它会自动化多节点 OpenStack 部署、云验证以及创建基准数据和建档。它可以作为 OpenStack CI/CD 系统的一个基本工具来持续提高它的 SLA、性能和稳定性。这个工具包括以下核心组件:
  1. Server Provider - 为不同的虚拟化技术(LXS、Virsh 等)以及云服务商提供了一个统一的交互接口。它使用 ssh 进行访问,并在 L3 网络中运行
  2. Deploy Engine - 在进行创建基准数据前,使用服务器供应商提供的服务器部署 OpenStack
  3. Verification - 对部署的云进行一组测试来检查它是否工作正常,收集结果并以用户可读的形式展现
  4. Benchmark Engine - 编写带有参数控制的基准数据情况并针对云运行它们。
Cells
OpenStack Compute 包含了 Cells 概念,它由 nova-cells 软件包提供,用于划分计算资源。在本发行版本中,Cells v1 已被 Cells v2 取代。Red Hat OpenStack Platform 将 "cell of one" 部署为默认配置,但目前不支持多单元部署。
Manila 的 CephFS 原生驱动器
使用 CephFS 原生驱动器,Shared File System 服务可以通过 Ceph 网络协议向客户机导出共享的 CephFS 文件系统。实例必须安装 Ceph 客户端来挂载文件系统。CephFS 文件系统以技术预览的形式包括在 Red Hat Ceph Storage 2.0 中。
DNS-as-a-Service (DNSaaS)
Red Hat OpenStack Platform 12 包括 DNS-as-a-Service (DNSaaS)(也称为 Designate)的技术预览。DNSaaS 包括一个用于域和记录管理的 REST API,支持多租户,并与 OpenStack Identity Service (keystone) 集成来进行身份验证。DNSaaS 提供了一个与 Compute (nova) 和 OpenStack Networking (neutron) 通知进行集成的框架,从而可以自动生成 DNS 记录。此外,DNSaaS 还包括与 Bind9 后端的集成。
Firewall-as-a-Service (FWaaS)
Firewall-as-a-Service 插件为 OpenStack Networking (neutron) 添加了边界防火墙管理功能。FWaaS 使用 iptables 在一个项目的所有虚拟路由上应用防火墙策略,并支持在每个项目中使用一个防火墙策略和逻辑防火墙实例。FWaaS 在网络边界进行操作,对 OpenStack Networking (neutron) 路由器进行过滤。这一点和安全组有所不同,安全组在实例层面进行操作。
Google 云存储备份驱动器 (Block Storage)
Block Storage 服务现在可以使用 Google 云存储来保存卷备份。通过这个功能,用户可以考虑不再花费大量费用来维护一个仅供灾难恢复的备用云。
Object Storage Service - 静态加密
现在,项可以以加密的形式存储(在带有 256 位密钥的 CTR 模式中使用 AES)。这个功能为保护项以及维护 Object Storage 集群中项的安全性提供了一种选择。
Object Storage Service - 纠删编码(EC)
Object Storage 服务现在为带有大量数据但不会经常访问的设备提供了一个 EC 存储策略类型。EC 存储策略使用自己的 ring 和可配置的参数集来维护数据的可用性,同时减少相关的成本和存储需求(只需要 triple-replication 的一半容量)。因为 EC 需要更多的 CPU 和网络资源,所以把 EC 作为一个策略实现可以把与集群的 EC 容量相关联的所有存储设备进行隔离。
OpenDaylight 集成
Red Hat OpenStack Platform 12 包含与 OpenDaylight SDN 控制器集成的技术预览功能。OpenDaylight 是灵活的模块化开放 SDN 平台,支持许多不同应用。Red Hat OpenStack Platform 12 中提供的 OpenDaylight 分布仅包含支持利用 NetVirt 进行 OpenStack 部署所需的模块,且基于上游的 Carbon 版本。
实时 KVM 集成

集成实时 KVM 和 Compute 服务可以进一步增强对 CPU 固定所提供的 vCPU 调度的保证,它会减少一些情况(如内核任务在主机的 CPU 上运行)对 CPU 延迟所造成的影响。这个功能对于 NFV(network functions virtualization - 网络功能虚拟化)等工作负载非常重要,因为减少 CPU 延迟对于 NFV 等工作负载非常重要。
Red Hat SSO
本发行版本包括了 keycloak-httpd-client-install 软件包的一个版本。这个软件包包括了一个命令行工具,使用这个工具可以帮助配置 Apache mod_auth_mellon SAML Service Provider 作为 Keycloak SAML IdP 的一个客户端。

第 3 章 发行信息

本发行注记重点介绍了部署 Red Hat OpenStack Platform 时需要考虑的信息,如技术预览项、推荐方案、已知问题、过时的功能等。
在本 Red Hat OpenStack Platform 发行版本的产品支持周期内,每个更新版本的备注都会包括在相应的公告中。

3.1. Red Hat OpenStack Platform 12 GA

本发行注记重点介绍了部署 Red Hat OpenStack Platform 时需要考虑的信息,如技术预览项、推荐方案、已知问题、过时的功能等。

3.1.1. 增强

本 Red Hat OpenStack Platform 发行版本包括以下增强:
BZ#1117883
此更新提供用于 Keystone 服务的 Docker 镜像。
BZ#1276147
此更新对于 Emulex 硬件 iSCSI (be2iscsi) 内存磁盘,增加了对 OpenStack Bare Metal (ironic) 的支持功能。
BZ#1277652
此更新增加了新的命令,可从 undercloud 中确定主机与 IP 地址的映射关系,而无需直接访问主机。

您可以显示 IP 地址已分配给哪些主机和端口,方法是使用以下命令:openstack stack output show overcloud HostsEntry -c output_value -f value

使用 grep 可筛选出特定主机的结果。

您还可以将主机映射到裸机节点,方法是使用以下命令:openstack baremetal node list --fields uuid name instance_info -f json
BZ#1293435
通过 Cinder 后端驱动器,现在支持对使用 Glance 的 Cinder 卷进行上传和下载。

注:此更新不包括对 Ceph RBD 的支持功能。使用 Ceph 后端驱动器可对 Ceph 卷执行 RBD 操作。
BZ#1301549
此更新增加了新的验证,用于检查 overcloud 的网络环境。这有助于避免在部署 overcloud 时,出现有关 IP 地址、VLAN 和分配池的任何冲突。
BZ#1334545
现在可以通过选项 "total_iops_sec_per_gb"、"read_iops_sec_per_gb" 和 "write_iops_sec_per_gb" 来设置 QoS IOPS 上限值,以调节每 GB 数据量的大小。 

例如,如果设置了 total_iops_sec_per_gb=1000 选项,则 1GB 数据量将产生 1000 IOPS,2GB 数据量将产生 2000 IOPS,以此类推。
BZ#1368512
此更新增加了新的验证,用于在部署或升级之前检查 undercloud 上的硬件资源。该验证可确保在部署或升级之前,undercloud 能满足必要的磁盘空间和内存要求。
BZ#1383576
此更新增加了通过 director UI 来执行的 "Manage Nodes" 操作。该操作将节点切换为 "manageable" 状态,从而 director 可通过 UI 执行内省。
BZ#1406102
director 现在支持在部署和更新阶段创建定制网络。这些额外创建的网络可作为专用网络控制器、Ironic 裸机节点,也可用于系统管理或为不同角色创建独立网络。

单个数据文件 ('network_data.yaml') 会管理将要部署的网络列表。然后,角色定义过程将这些网络分配给所需的角色。
BZ#1430885
此更新细化了部署进度条的颗粒度。实现方法是增加了检索栈资源的嵌套层数。这提供了更精确的部署进度。
BZ#1434929
先前未设置 OS_IMAGE_API_VERSION 和 OS_VOLUME_API_VERSION 环境变量,强制 Glance 和 Cinder 后退到默认 API 版本。对 Cinder 而言,该版本是更老的 v2 API。

在此更新中,overcloudrc 文件现在会设置环境变量来指定 Glance 和 Cinder 的 API 版本。

3.1.2. 技术预览

本节中列出的项目作为技术预览提供。如需关于技术预览状态范围的更多信息,以及相关的支持定义,请参阅 https://access.redhat.com/support/offerings/techpreview/
BZ#1300425
通过 Manila 服务,现在可在一致性组中创建共享,以确保多个共享之间的快照一致性。驱动器提供商必须报告此功能并正确实现,使其能根据后端情况正常工作。

此功能仍处于试验阶段,因此不建议在生产性云环境中使用。
BZ#1418433
在本发行版本中,OpenStack File Share Service (manila) 的容器化部署功能以技术预览方式提供。默认情况下,Manila、Cinder 和 Neutron 将仍然在裸机上部署。
BZ#1513109
POWER-8 (ppc64le) Compute 支持功能现已通过技术预览方式提供。

3.1.3. 发行注记

本节概述了本发行版本的重要详细信息,包括推荐方案和 Red Hat OpenStack Platform 的显著变化。您必须将此信息纳入考量,才能确保您的部署获得最佳成果。
BZ#1463355
在启用 TLS everywhere 后,HAProxy 统计界面也将使用 TLS。因此,需要通过各个节点的 ctlplane 地址来访问此界面,该地址可能是实际 IP 地址或 FQDN 名称(命名规范为 <node name>.ctlplane.<domain>,例如,overcloud-controller-0.ctlplane.example.com)。通过 `tripleo-heat-templates` 中的 `CloudNameCtlplane` 参数可配置此设置。请注意,您仍然可以使用 HAproxy 类中的 `haproxy_stats_certificate` 参数,该参数一旦设置,将优先使用。

3.1.4. 已知问题

当前,Red Hat OpenStack Platform 存在的已知问题包括:
BZ#1321179
使用 `python-requests` 的 OpenStack 命令行客户端当前无法验证在 SAN 字段中有 IP 地址的证书。
BZ#1384845
如果 overcloud 镜像所带的“tuned”版本低于 2.7.1-4,则应该将在 overcloud 镜像中手工升级“tuned”软件包。如果该“tuned”版本等于或高于 2.7.1-4,则应该提供要执行“tuned”的核心列表,并激活相应的概要,例如:

# echo "isolated_cores=2,4,6,8,10,12,14,18,20,22,24,26,28,30" >> /etc/tuned/cpu-partitioning-variables.conf
# tuned-adm profile cpu-partitioning

这是一个已知问题,直到“tuned”软件包在 Centos 存储库中可用时才会消失。
BZ#1385347
'openstack overcloud deploy' 命令的 '--controller-count' 选项会设置 'NeutronDhcpAgentsPerNetwork' 参数。当部署定制 Networker 角色来承载 OpenStack Networking (neutron) DHCP Agent 时,'NeutronDhcpAgentsPerNetwork' 参数可能没有设置为正确的值。解决办法是,使用环境文件手动设置 'NeutronDhcpAgentsPerNetwork' 参数。例如:

----
parameter_defaults:
  NeutronDhcpAgentsPerNetwork: 3
----

这会将 'NeutronDhcpAgentsPerNetwork' 设置为正确的值。
BZ#1486995
当 Image 服务 (glance) 使用 NFS 后端时,尝试创建镜像会因为权限错误而失败。这是因为主机和容器上的用户 ID 不同,以及 puppet 无法将 NFS 端点成功挂载到容器上。
BZ#1487920
加密卷无法正确连接到容器化环境中的实例。这是因为 Compute 服务所运行的 "cryptsetup luksOpen" 要等待 udev 设备创建过程完成。该过程实际并未完成,因此导致命令挂起。

解决办法:使用 docker 选项 "--ipc=host" 重启容器化的 Compute 服务。
BZ#1508438
对于容器化的 OpenStack 服务,配置文件现在安装在每个容器中。但是,某些 OpenStack 服务尚未容器化,这些服务的配置文件仍然安装在裸机节点上。 

如果需要访问或修改容器化服务的配置文件,可使用 /var/log/config-data/<container name>/<config path>。对于尚未容器化的服务,可使用 /etc/<service>。
BZ#1516911
在 HP DL 360/380 Gen9 中,DIMM 格式与正则表达式查询不匹配。

为了克服该问题,必须拣选备注 2 中的硬件补丁。
BZ#1518126
在启用了 TLS 的高可用性部署中,Redis 无法正确地跨节点复制数据。Redis follower 节点中不包含 leader 节点的任何数据。建议对 Redis 部署禁用 TLS。
BZ#1519057
Red Hat OpenStack Platform 的 LDAP 集成当前存在一个已知问题。`keystone.yaml` 中现在缺少 `keystone_domain_confg` 标签,使 Puppet 无法正确应用必需的配置文件。LDAP 与 Red Hat OpenStack Platform 的集成也因此无法正确配置。解决办法是,手动编辑 `keystone.yaml` 来添加缺少标签。为此,有两种方法:

1. 直接编辑该文件:
  a. 作为 stack 用户登录到 undercloud。
  b. 在您选择的编辑器中打开 keystone.yaml。例如:
       `sudo vi /usr/share/openstack-tripleo-heat-templates/docker/services/keystone.yaml`
  c. 将缺少的 puppet 标签 `keystone_domain_confg` 附加到第 94 行。例如:
      `puppet_tags: keystone_config`
        更改为:
      `puppet_tags: keystone_config,keystone_domain_confg`
  d. 保存并关闭 `keystone.yaml`。
  e. 确认在 `keystone.yaml` 文件中看到缺少的标签。以下命令应返回 '1':
    `cat /usr/share/openstack-tripleo-heat-templates/docker/sercies/keystone.yaml | grep 'puppet_tags: keystone_config,keystone_domain_config' | wc -l`

2. 或者,使用 sed 在行内编辑该文件:
  a. 作为 stack 用户登录到 undercloud。
  b. 运行以下命令以添加缺少的 puppet 标签:
     `sed -i 's/puppet_tags\: keystone_config/puppet_tags\: keystone_config,keystone_domain_config/' /usr/share/openstack-tripleo-heat-templates/docker/services/keystone.yaml`
  c. 确认在 keystone.yaml 文件中看到缺少的标签。以下命令应返回 '1':
    `cat /usr/share/openstack-tripleo-heat-templates/docker/sercies/keystone.yaml | grep 'puppet_tags: keystone_config,keystone_domain_config' | wc -l`
BZ#1519536
对于 Red Hat Satellite 中存储的当前容器镜像,必须手动查找最新的 Docker 镜像标签。如需了解更多信息,请参阅 Red Hat Satellite 文档:https://access.redhat.com/documentation/en-us/red_hat_satellite/6.2/html/content_management_guide/managing_container_images#managing_container_images_with_docker_tags
BZ#1520004
Ceph 存储服务器仅当其磁盘设备均为同种时才可以部署。
BZ#1525520
对于使用 OVN 作为 ML2 机制驱动器的部署,只有能连接到外部网络的节点才有资格将路由器网关端口安排在其上。但是,当前的一个已知问题会使所有节点都具有这种资格,这在 Compute 节点没有外部连接能力时会造成问题。因此,如果将路由器网关端口安排在没有外部连接能力的 Compute 节点上,外部网络的传入和传出连接不会工作;这种情况下,路由器网关端口必须重新安排到控制器节点上。解决办法是,可以为所有 compute 节点提供连接能力,也可以考虑删除 NeutronBridgeMappings 或将其设置为 datacentre:br-ex。如需了解更多信息,请参阅 https://bugzilla.redhat.com/show_bug.cgi?id=1525520 和 https://bugzilla.redhat.com/show_bug.cgi?id=1510879。

3.1.5. 弃用的功能

本节中的项目已不再受到支持,或不会在以后的发行版本中受到支持。
BZ#1417221
Panko 服务已在 OpenStack 12 版本中正式弃用。对 panko 的产品支持将仅限于在 cloudforms 中使用。我们不建议在 cloudforms 外部使用 panko。
BZ#1427719
VPN 即服务 (VPNaaS) 已在 Red Hat OpenStack Platform 11 中弃用,现在已从 Red Hat OpenStack Platform 12 中删除。
BZ#1489801
Red Hat OpenStack Platform 不再使用 MongoDB,先前曾用于 undercloud 上的 Telemetry(现在改用 Gnocchi)和 Zaqar(改用 Redis)。因此,其中不再包括 'mongodb'、'puppet-mongodb' 和 'v8'。

第 4 章 技术备注

本章的内容是对 Red Hat OpenStack Platform "Pike" 勘误公告内容的补充,该公告通过 Content Delivery Network 发布。

4.1. RHEA-2017:3462 — Red Hat OpenStack Platform 12.0 功能增强公告

本节中所包括的错误已在 RHEA-2017:3462 公告中解决。如需了解更多与这个公告相关的信息,请参阅 https://access.redhat.com/errata/RHEA-2017:3462

diskimage-builder

BZ#1489801
Red Hat OpenStack Platform 不再使用 MongoDB。MongoDB 先前曾用于 undercloud 上的 Telemetry(现在改用 Gnocchi)和 Zaqar(改用 Redis)。因此,其中不再包括 'mongodb'、'puppet-mongodb' 和 'v8'。

opendaylight

BZ#1344429
此更新在 NetVirt/OVSDB 场景中增加了对 OpenDaylight、OVS-DPDK 和 OpenStack 的支持功能。借助此功能,对于使用 OpenDaylight 和 OVS_DPDK 的租户,用户可以使用 OpenDaylight 为其建立虚拟化网络。
BZ#1414298
此更新为在 Red Hat Openstack Platform 12 中使用的 OpenDaylight Carbon 发行版本提供了新的软件包。
BZ#1414313
通过此更新,Neutron 和 OpenDaylight 控制器都可使用高可用性集群。
BZ#1420383
此更新使用 JNI 软件包替换了基于 Java 的 LevelDB ,并提供了 leveldbjni-all-1.8-15.5.el7ost.x86_64 软件包。
BZ#1414431
默认会启用基于 conntrack 的新 SNAT 实现方式,该方式使用 Linux netfilter 框架执行 NAPT(网络地址端口转换)并跟踪连接情况。数据流中的第一个数据包传送给 netfilter 使用外部 IP 地址执行转换。后续的数据包将使用 netfilter 执行进一步的入站和出站转换。在 netfilter 中,将用路由器 ID 作为区域 ID。每个区域在自己的表中跟踪连接情况。其余实现方式保持不变。conntrack 模式还会启用新的高可用性逻辑,以新的方式来考虑与每个交换机关联的权重。而且,交换机会让一个指定的 NAPT 端口始终保持打开状态以提高性能。
BZ#1450894
此更新对于使用 OpenDaylight 的 OpenStack,在 Neutron 路由器内部接口增加了对 ping6 的支持功能。

openstack-cinder

BZ#1334545
现在可以通过选项 "total_iops_sec_per_gb"、"read_iops_sec_per_gb" 和 "write_iops_sec_per_gb" 来设置 QoS IOPS 上限值,以调节每 GB 数据量的大小。

例如,如果设置了 total_iops_sec_per_gb=1000 选项,则 1GB 数据量将产生 1000 IOPS,2GB 数据量将产生 2000 IOPS,以此类推。

openstack-containers

BZ#1517903
先前,如果容器意外关闭,Apache 仍然会将运行时文件留在容器中,导致容器在主机恢复正常运行后,一直处于“重启”状态。如果您在使用 TLS everywhere,这意味着 Glance 和 Swift 服务在主机重启后不可访问。

现在,在容器镜像启动脚本中添加了运行时文件清理功能。在部署了 TLS everywhere 的情况下,Glance 和 Swift 服务在主机重启之后可以正常使用。

openstack-neutron

BZ#1490281
一些部署中使用 Neutron 提供商网桥来处理内部数据流,比如 AMQP 数据流,这会使网桥在启动时的工作方式类似于普通的交换。因为 ARP 广播数据包使用 patch-ports 在集成网桥和提供商网桥之间进行互连,所以,如果很多控制器被强行关闭然后同时启动,就会出现 ARP 风暴。

新的 systemd 服务 neutron-destroy-patch-ports 现在会在启动时执行,用于删除 patch 端口,并断开集成网桥和提供商网桥之间的连接。这可避免 ARP 风暴,而 patch 端口随后会在 openvswitch 代理启动之后恢复。

openstack-panko

BZ#1417221
Panko 服务已在 OpenStack 12 版本中正式弃用。对 panko 的产品支持将仅限于在 cloudforms 中使用。我们不建议在 cloudforms 外部使用 panko。

openstack-tripleo-common

BZ#1276147
此更新针对 Emulex 硬件 iSCSI (be2iscsi) 内存磁盘,增加了对 OpenStack Bare Metal (ironic) 的支持功能。
BZ#1434929
先前未设置 OS_IMAGE_API_VERSION 和 OS_VOLUME_API_VERSION 环境变量,强制 Glance 和 Cinder 后退到默认 API 版本。对 Cinder 而言,该版本是更老的 v2 API。

在此更新中,overcloudrc 文件现在会设置环境变量来指定 Glance 和 Cinder 的 API 版本。

openstack-tripleo-heat-templates

BZ#1487920
加密卷无法正确连接到容器化环境中的实例。这是因为 Compute 服务所运行的 "cryptsetup luksOpen" 要等待 udev 设备创建过程完成。该过程实际并未完成,因此导致命令挂起。

解决办法:使用 docker 选项 "--ipc=host" 重启容器化的 Compute 服务。
BZ#1513109
POWER-8 (ppc64le) Compute 支持功能现已通过技术预览方式提供。
BZ#1406102
Director 现在支持在部署和更新阶段创建定制网络。这些额外创建的网络可作为专用网络控制器、Ironic 裸机节点,也可用于系统管理或为不同角色创建独立网络。

一个单个数据文件 ('network_data.yaml') 会管理将要部署的网络列表。然后,角色定义过程将这些网络分配给所需的角色。
BZ#1418433
在本发行版本中,OpenStack File Share Service (manila) 的容器化部署功能以技术预览方式提供。默认情况下,Manila、Cinder 和 Neutron 将仍然在裸机上部署。
BZ#1484467
在裸机上运行 Cinder 服务以及在容器中运行 Iscsid 服务时,会导致服务具有不同的 iSCSI 限定名 (IQN) 值。因为 IQN 用于对 iSCSI 连接进行认证,而 IQN 不匹配会导致验证错误,进而导致 Cinder 备份操作失败。

通过此修复,Iscsid 服务现在在裸机上运行,所有其他服务(如容器化的 Nova 和非容器化的 Cinder)都已配置为使用正确的 IQN。
BZ#1486995
当 Image 服务 (glance) 使用 NFS 后端时,尝试创建镜像会因为权限错误而失败。这是因为主机和容器上的用户 ID 不同,以及 puppet 无法将 NFS 端点成功挂载到容器上。
BZ#1489484
先前,ceph-osd 软件包是公用 overcloud 镜像的一部分,但只能在要求有 Ceph OSD 权利的存储库中使用。而在 OpenStack Controller 和 Compute 节点上不要求有该权利。由 ceph-osd 软件包产生的 RPM 依赖性会导致 Yum 更新失败,也就是说,当您在没有 ceph-osd 权利的情况下尝试更新 ceph-osd 软件包时,Yum 更新会失败。

此修复从不要求有 ceph-osd 软件包的 overcloud 节点中删除了该软件包。现在,只有 Ceph 存储节点上要求有 ceph-osd 软件包,其中包括运行 Ceph OSD 和 Compute 服务的超融合节点。Yum 更新现在可在不要求有 ceph-osd 软件包的节点上成功执行。但是,要求有 ceph-osd 软件包的 Ceph 存储节点和超融合节点将仍然要求有必需的 Ceph OSD 权利。

openstack-tripleo-puppet-elements

BZ#1270860
在模板中使用硬编码的机器 ID 会产生具有相同机器 ID 的多个节点。这会导致 Red Hat Storage Console 无法识别多个节点。

解决办法:在每个节点上生成唯一机器 ID,然后更新 /etc/machine-id 文件。这将确保 Red Hat Storage Console 可以唯一地识别节点。
BZ#1384845
如果 overcloud 镜像所带的“tuned”版本低于 2.7.1-4,则应该将在 overcloud 镜像中手工升级“tuned”软件包。如果该“tuned”版本等于或高于 2.7.1-4,则应该提供要执行“tuned”的核心列表,并激活相应的概要,例如:

# echo "isolated_cores=2,4,6,8,10,12,14,18,20,22,24,26,28,30" >> /etc/tuned/cpu-partitioning-variables.conf
# tuned-adm profile cpu-partitioning

这是一个已知问题,直到“tuned”软件包在 Centos 存储库中可用时才会消失。

openstack-tripleo-ui

BZ#1383576
此更新增加了通过 director UI 来执行的 "Manage Nodes" 操作。该操作将节点切换为 "manageable" 状态,从而 director 可通过 UI 执行内省。
BZ#1430885
此更新细化了部署进度条的颗粒度。实现方法是增加了检索栈资源的嵌套层数。这提供了更精确的部署进度。

openstack-tripleo-validations

BZ#1301549
此更新增加了新的验证,用于检查 overcloud 的网络环境。这有助于避免在部署 overcloud 时,出现有关 IP 地址、VLAN 和分配池的任何冲突。
BZ#1368512
此更新增加了新的验证,用于在部署或升级之前检查 undercloud 上的硬件资源。该验证可确保在部署或升级之前,undercloud 能满足必要的磁盘空间和内存要求。

puppet-ironic

BZ#1489192
先前,Ironic Inspector 的 DHCP 服务器配置文件不处理使用 UEFI 和 iPXE 的主机,导致一些 UEFI 和 iPXE 主机在 Ironic 内省过程中无法启动。此修复更新了 DHCP 服务器文件 `/etc/ironic-inspector/dnsmasq.conf` 以处理 UEFI 和 iPXE 主机,现在这些主机可在 Ironic Introspection 中正常启动。

puppet-keystone

BZ#1404324
用于清理令牌的 cron 作业已从每天运行一次改为每小时运行一次。修改原因是,以前的方式会在较大规模部署中出现问题。因为这些部署的事务过大,操作要花费太长时间甚至有时会失败。请注意,这只影响使用 UUID 令牌提供商的部署。

puppet-tripleo

BZ#1463355
在启用 TLS everywhere 后,HAProxy 统计界面也将使用 TLS。因此,需要通过各个节点的 ctlplane 地址来访问此界面,该地址可能是实际 IP 地址或 FQDN 名称(命名规范为 {node-name}.ctlplane.{domain},例如,overcloud-controller-0.ctlplane.example.com)。通过 `tripleo-heat-templates` 中的 `CloudNameCtlplane` 参数可配置此设置。请注意,您仍然可以使用 HAproxy 类中的 `haproxy_stats_certificate` 参数,该参数一旦设置,将优先使用。
BZ#1479751
Nova 和 Cinder 最近的变更导致会选择 Barbican 作为默认的加密密钥管理器,即使 TripleO 并未部署 Barbican 也会如此。然而,TripleO 则假定对于无 Barbican 的部署,旧式(固定密钥)管理器仍然有效且已经选择了该管理器。这种情况会导致无 Barbican 的部署中的卷加密遭到破坏。此修复改变了 TripleO 的行为,现在可以主动将 Nova 和 Cinder 配置为对于无 Barbican 的部署使用旧式密钥管理器。

python-glance-store

BZ#1293435
通过 Cinder 后端驱动器,现在支持对使用 Glance 的 Cinder 卷进行上传和下载。

注意:此更新不包括对 Ceph RBD 的支持。使用 Ceph 后端驱动器可对 Ceph 卷执行 RBD 操作。

python-openstackclient

BZ#1478287
当显示 Neutron 安全组列表时,“项目”列中引用的是租户 ID 而不是项目 ID。这会导致“项目”列为空白。此修复改变了操作的行为以获取项目 ID,现在 Neutron 安全组列表会在“项目”列中显示相关的项目 ID。

python-os-brick

BZ#1503259
Python os.path.realpath 方法中的竞争条件会引发意外的异常。这会导致 iSCSI 断开连接方法意外失败。通过此修复,这种竞争条件异常会被忽略。因为不再存在 symlink,忽略这种异常很安全。因此,即便出现竞争条件,断开连接操作也将继续执行。

python-tripleoclient

BZ#1385347
The '--controller-count' option for the 'openstack overcloud deploy' command sets the 'NeutronDhcpAgentsPerNetwork' parameter. When deploying a custom Networker role that hosts the OpenStack Networking (neutron) DHCP Agent, the 'NeutronDhcpAgentsPerNetwork' parameter might not set to the correct value. As a workaround, set the 'NeutronDhcpAgentsPerNetwork' parameter manually using an environment file. For example:

----
parameter_defaults:
  NeutronDhcpAgentsPerNetwork: 3
----

This sets 'NeutronDhcpAgentsPerNetwork' to the correct value.

qemu-kvm-rhev

BZ#1498155
Hot-unplugging Virtual Function I/O (VFIO) devices previously failed when performed after hot-unplugging a vhost network device. This update fixes the underlying code, and the VFIO device is unplugged correctly in the described circumstances.

法律通告

Copyright © 2016 Red Hat, Inc.
This document is licensed by Red Hat under the Creative Commons Attribution-ShareAlike 3.0 Unported License. If you distribute this document, or a modified version of it, you must provide attribution to Red Hat, Inc. and provide a link to the original. If the document is modified, all Red Hat trademarks must be removed.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat Software Collections is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.