リリースノート

Red Hat OpenStack Platform 10

Red Hat OpenStack Platform 10 リリースの詳細

OpenStack Documentation Team

Red Hat Customer Content Services

概要

本書には、Red Hat OpenStack Platform の主要機能、機能拡張、既知の問題について記載します。

第1章 はじめに

Red Hat OpenStack Platform は、Red Hat Enterprise Linux をベースとして、プライベートまたはパブリックの Infrastructure-as-a-Service (IaaS) クラウドを構築するための基盤を提供します。これにより、スケーラビリティーが極めて高く、耐障害性に優れたプラットフォームをクラウド対応のワークロード開発にご利用いただくことができます。
現在、Red Hat のシステムは、OpenStack Newton をベースとして、利用可能な物理ハードウェアをプライベート、パブリック、またはハイブリッドのクラウドプラットフォームに変換できるようにパッケージされています。これには以下のコンポーネントが含まれます。
  • 完全に分散されたオブジェクトストレージ
  • 永続的なブロックレベルのストレージ
  • 仮想マシンのプロビジョニングエンジンおよびイメージストレージ
  • 認証および認可メカニズム
  • 統合されたネットワーク
  • ユーザーおよび管理用の Web ブラウザーベースの GUI
Red Hat OpenStack Platform IaaS クラウドは、コンピューティング、ストレージ、ネットワークのリソースを制御する連結されたサービスのコレクションにより実装されます。クラウドは、Web ベースのインターフェースで管理されます。これにより、管理者は OpenStack リソースの制御、プロビジョニング、自動化を行うことができます。また、OpenStack のインフラストラクチャーは、クラウドのエンドユーザーも利用することができる豊富な API で円滑に運用されます。

1.1. 本リリースについて

Red Hat OpenStack Platform の本リリースは、OpenStack「Newton」リリースをベースとしており、Red Hat OpenStack Platform 固有の追加機能や既知の問題、解決済みの問題が含まれています。
本書には、Red Hat OpenStack Platform 固有の変更のみを記載しています。OpenStack「Newton」のリリースノートは、https://releases.openstack.org/newton/index.html で参照してください。
Red Hat OpenStack Platform は、他の Red Hat 製品が提供するコンポーネントを使用します。これらのコンポーネントのサポートに関する詳しい情報は、以下のリンクを参照してください。
Red Hat OpenStack Platform を評価するには、以下のリンク先で登録してください。

注記

Red Hat Enterprise Linux High Availability Add-On は、Red Hat OpenStack Platform の各種ユースケースで利用することができます。このアドオンに関する詳細情報は、http://www.redhat.com/products/enterprise-linux-add-ons/high-availability/ で参照してください。また、Red Hat OpenStack Platform と併用できるパッケージバージョンに関する情報は、https://access.redhat.com/ja/solutions/2137271 を参照してください。

1.2. 要件

Red Hat OpenStack Platform は、Red Hat Enterprise Linux の最新リリースをサポートします。Red Hat OpenStack Platform の本バージョンは、Red Hat Enterprise Linux 7.3 上でサポートされています。
Red Hat OpenStack Platform の Dashboard は、OpenStack のリソースやサービスを管理することができる Web ベースのインターフェースです。本リリースの Dashboard は、以下の Web ブラウザーの最新安定版をサポートします。
  • Chrome
  • Firefox
  • Firefox ESR
  • Internet Explorer 11 以降 (互換モード が無効な場合)

注記

Red Hat OpenStack Platform をデプロイする前には、利用可能なデプロイメソッドの特性を考慮することが重要です。詳しくは、「Installing and Managing Red Hat OpenStack Platform」の記事を参照してください。

1.3. デプロイメント制限事項

Red Hat OpenStack Platform のデプロイメント制限事項の一覧は、「Red Hat OpenStack Platform デプロイメントの制限」の記事を参照してください。

1.4. データベースサイズの管理

Red Hat OpenStack Platform 環境内における MariaDB データベースのサイズの維持管理に関する推奨プラクティスは、「Database Size Management for Red Hat Enterprise Linux OpenStack Platform」の記事を参照してください。

1.5. 認定済みのドライバーとプラグイン

Red Hat OpenStack Platform の認定済みドライバー/プラグインの一覧は、「RHEL OpenStack プラットフォームにおけるコンポーネント、プラグイン、およびドライバーのサポート」の記事を参照してください。

1.6. 認定済みゲストオペレーティングシステム

Red Hat OpenStack Platform の認定済みゲストオペレーティングシステムの一覧は、「Red Hat OpenStack Platform および Red Hat Enterprise Virtualization で認定されたゲストオペレーティングシステム」の記事を参照してください。

1.7. Bare Metal Provisioning でサポートされているオペレーティングシステム

Bare Metal Provisioning (ironic) で、Red Hat OpenStack Platform のベアメタルノードにインストールすることのできるサポート対象のゲストオペレーティングシステムの一覧は、「Supported Operating Systems Deployable With Bare Metal Provisioning (ironic)」の記事を参照してください。

1.8. ハイパーバイザーのサポート

Red Hat OpenStack Platform は、libvirt ドライバー (コンピュートノード上で KVM をハイパーバイザーとして使用) または VMware vCenter ハイパーバイザードライバーと共に使用する場合のみがサポート対象となります。VMware vCenter ドライバーの設定については、『VMware 統合ガイド』を参照してください。現在サポートされている VMware の構成は、Red Hat OpenStack Platform と vCenter で、Neutron/NSX または Neutron/Nuage のいずれかの組み合わせで提供されるネットワークを使用します。Neutron/Nuage に関する詳しい説明は、https://access.redhat.com/articles/2172831 の記事を参照してください。
Ironic は、Red Hat OpenStack Platform 7 (Kilo) リリースから完全にサポートされています。Ironic により、一般的なテクノロジー (PXE ブートや IPMI) を使用したベアメタルマシンのプロビジョニングが可能となり、多様なハードウェアに対応する一方で、ベンダー固有の機能を追加するためのプラグ可能なドライバーをサポートすることができます。
Red Hat は、非推奨の VMware の「direct-to-ESX」ハイパーバイザーや KVM 以外の libvirt ハイパーバイザーなど、他の Compute 仮想化ドライバーに対するサポートは提供していません。

1.9. コンテンツ配信ネットワーク (CDN) チャンネル

本項では、Red Hat OpenStack Platform 10 のデプロイに必要なチャンネルおよびリポジトリーの設定について説明します。
コンテンツ配信ネットワーク (CDN) から Red Hat OpenStack Platform 10 をインストールすることができます。そのためには、正しいチャンネルを使用するように subscription-manager を設定します。

警告

Open vSwitch (OVS) 2.4.0 を OVS 2.5.0 にアップグレードせずに Red Hat Enterprise Linux 7.3 カーネルへのアップグレードを実行しないようにしてください。カーネルのみがアップグレードされると、OVS は機能しなくなります。
CDN チャンネルを有効にするには、以下のコマンドを実行します。
#subscription-manager repos --enable=[reponame]
CDN チャンネルを無効にするには、以下のコマンドを実行します。
#subscription-manager repos --disable=[reponame]

表1.1 必須チャンネル

チャンネル リポジトリー名
Red Hat Enterprise Linux 7 Server (RPMS) rhel-7-server-rpms
Red Hat Enterprise Linux 7 Server - RH Common (RPMs) rhel-7-server-rh-common-rpms
Red Hat Enterprise Linux High Availability (for RHEL 7 Server) rhel-ha-for-rhel-7-server-rpms
Red Hat OpenStack Platform 10 for RHEL 7 (RPMs) rhel-7-server-openstack-10-rpms
Red Hat Enterprise Linux 7 Server - Extras (RPMs) rhel-7-server-extras-rpms

表1.2 任意チャンネル

チャンネル リポジトリー名
Red Hat Enterprise Linux 7 Server - Optional rhel-7-server-optional-rpms
Red Hat OpenStack Platform 10 Operational Tools for RHEL 7 (RPMs) rhel-7-server-openstack-10-optools-rpms
無効にするチャンネル

以下の表には、Red Hat OpenStack Platform 10 が正常に機能するために無効にする必要のあるチャンネルをまとめています。

表1.3 無効にするチャンネル

チャンネル リポジトリー名
Red Hat CloudForms Management Engine "cf-me-*"
Red Hat Enterprise Virtualization "rhel-7-server-rhev*"
Red Hat Enterprise Linux 7 Server - Extended Update Support "*-eus-rpms"

警告

Red Hat OpenStack Platform のリポジトリーは、Extra Packages for Enterprise Linux (EPEL) ソフトウェアリポジトリーで提供されているパッケージと競合する場合があります。EPEL ソフトウェアリポジトリーを有効にしているシステムでの Red Hat OpenStack Platform の使用はサポートされていません。

1.10. 製品サポート

以下のリソースをご利用いただけます。
カスタマーポータル
Red Hat カスタマーポータルでは、OpenStack デプロイメントのプランニング、デプロイ、メンテナンスを支援するために、以下のような幅広いリソースを提供しています。
  • ナレッジベース記事およびソリューション
  • テクニカルブリーフ
  • 製品マニュアル
  • サポートケース管理
カスタマーポータルには https://access.redhat.com/ からアクセスしてください。
メーリングリスト
Red Hat は、OpenStack ユーザーに適した公開メーリングリストを提供しています。
  • rhsa-announce メーリングリストは、Red Hat OpenStack Platform など、全 Red Hat 製品のセキュリティー関連の修正リリースに関する通知を提供します。
    https://www.redhat.com/mailman/listinfo/rhsa-announce からサブスクライブしてください。

第2章 最も重要な新機能

本項には、Red Hat OpenStack Platform の今回のリリースにおける最も重要な新機能について概説します。

2.1. Red Hat OpenStack Platform Director

本項には、director の最も重要な新機能について説明します。
カスタムロールとコンポーザブルサービス
モノリシックテンプレートが複数の小さな個別のテンプレートに分解され、それぞれがコンポーザブルなサービスを表すようになりました。これらは、スタンドアロンノード上または他のサービスと組み合わせてカスタムロールの形式でデプロイすることができます。
コンポーザブルノードのアーキテクチャーには、以下のガイドラインおよび制限事項があることに注意してください。
  • サポートされているスタンドアロンのカスタムロールには、systemd の管理対象サービスを割り当てることができます。
  • Pacemaker が管理するサービスを分割することはできません。これは、Pacemaker がオーバークラウドクラスターの各ノードで、同じサービスセットを管理するためです。Pacemaker が管理するサービスを分割すると、クラスターのデプロイメントでエラーが発生する場合があります。これらのサービスは、コントローラーロールに残す必要があります。
  • Red Hat OpenStack Platform 9 から 10 へのアップグレードプロセス中にカスタムロールとコンポーザブルサービスを変更することはできません。アップグレードスクリプトはデフォルトのオーバークラウドロールのみに対応可能です。
  • 初回のデプロイメント後に追加のカスタムロールを作成してそれらをデプロイし、既存のサービスをスケーリングすることができます。
  • オーバクラウドのデプロイ後には、ロールのサービスリストを変更することはできません。オーバークラウドのデプロイの後にサービスリストを変更すると、デプロイでエラーが発生して、ノード上に孤立したサービスが残ってしまう可能性があります。
カスタムロールとコンポーザブルサービスのサポート対象アーキテクチャーに関する詳しい情報は、『Advanced Overcloud Customization』ガイドの「Composable Services and Custom Roles」のセクションを参照してください。
グラフィカルユーザーインターフェース
director はグラフィカルユーザーインターフェースで管理できるようになりました。これには、統合されたテンプレート、ビルトインワークフロー、プリフライト/ポストフライトの検証チェックが含まれます。GUI を使用してロールの割り当てを作成し、ノードの登録とイントロスペクションを実行することができます。
ハードウェアデプロイメントの段階と汎用ノードデプロイメントの分離
director のワークフローで、ハードウェアデプロイメント段階が明確に分離されるようになりました。これにより、ユーザーがどの時点でハードウェアをインベントリーに登録し、イメージをアップロードして、ハードウェアプロファイルを定義するかが明らかになります。この段階は、任意のイメージを特定のハードウェアノードにデプロイすることで完了します。この分離により、Red Hat Enterprise Linux をハードウェアノードにデプロイして、ユーザーに渡すことができます。

2.2. Compute

本項には、Compute サービスの最も重要な新機能について説明します。
ゲストデバイスのロールタグ付けとメタデータ挿入
今回の更新で OpenStack Compute は、ゲストがタグ (デバイスのタイプ、アタッチ先のバス、デバイスのアドレス、MAC アドレス/ドライブのシリアル文字列、ネットワーク/ディスクデバイス名) に基づいてインスタンスを識別できるようにするための追加のメタデータファイルを作成/挿入するようになりました。
ゲストがデータを解釈できるようになりました。デバイスロールタグが使用されている場合には、データはメタデータサーバーとコンフィグドライブを介して提供されます。メタデータファイルの例を以下に示します。
{ "devices": [ {
        "type": "nic",
        "bus": "pci",
        "address": "0000:00:02.0",
        "mac": "01:22:22:42:22:21",
        "tags": ["nfvfunc1"]
    },    {
        "type": "disk",
        "bus": "scsi",
        "address": "1:0:2:0",
        "serial": "disk-vol-2352423",
        "tags": ["dbvolume"]
    }
}

2.3. Dashboard

本項には、Dashboard の最も重要な新機能について説明します。
ユーザーエクスペリエンスの向上
Swift のパネルが AngularJS でレンダリングされるようになりました。これにより、保管されたオブジェクト、クライアント側のページネーション、検索、Swift に保管されているオブジェクトのソートなどの階層ビューが提供されます。
また、今回のリリースでは、複数の動的に設定されたテーマがサポートされるようになりました。
OpenStack のコアサービスでのパリティーの向上
今回のリリースでは、ドメインスコープのトークン (Keystone V3 での認証管理に必要) がサポートされるようになりました。また、本リリースでは、SR-IOV ポートに接続された Nova インスタンスの起動のサポートも追加されました。

2.4. Identity

本項には、Identity サービスの最も重要な新機能について説明します。
Fernet トークンのサポート
Red Hat OpenStack Platform 10 では、Fernet トークンのサポートが追加されました。軽量な Fernet トークンでは、最小限の認証情報のみが必要とされることになります。状態が永続的ではないので、データベースのバックエンドは必要ありません。また、SHA256HMAC で署名される AES-CBC を使用した対称暗号化が実装されました。その結果、UUID トークンを大幅に上回るパフォーマンスの向上を期待できます。
複数のドメインの LDAP サポート
本リリースでは、複数のドメインの LDAP 統合をサポートする機能が director に追加され、複数のバックエンドをユーザー認証に使用することができるようになりました。
ロール機能の拡張
Red Hat OpenStack Platform 10 では、Domain-specific rolesImplied Roles によりロールの機能が拡張されました。Domain-specific roles により、ロールの定義を特定のドメインに限定することができます。これらのロールは、ドメインまたはドメイン内のプロジェクトに割り当てることができます。Implied Roles により、推論規則に、1 つのロールを割り当てると別の割り当てを示唆するように規定することができます。これらの変更により、管理者はロール管理をはるかに容易に行うことができるようになります。

2.5. Object Storage

本項では、Object Storage サービスの最も重要な新機能について説明します。
Fast-POST でのコンテナーの更新
この機能により、オブジェクトのコンテンツを完全に再コピーする必要なく、メタデータを高速かつ効率的に更新することができます。

2.6. OpenStack Networking

本項には、Networking サービスの最も重要な新機能について説明します。
分散仮想ルーティング (DVR) の完全なサポート
DVR は Red Hat OpenStack Platform 10 で完全にサポートされるようになりました。ユーザーは集中ルーティング (デフォルト) と DVR のいずれかを選択することができます。DVR の場合には、ルーティング機能は各コンピュートノードによって管理されます。
ドキュメントを参照して、自分の要件とネットワークアーキテクチャー全体には集中ルーティングと DVR のどちらがより適切かを検討した上で、慎重に計画することを推奨します。
DSCP マーキング
Open vSwitch は、RFC 2474 の定義に従って、DSCP マークをアウトバウンドのネットワークトラフィックに追加できるようになりました。
director の統合における NFV データパスの機能拡張
Red Hat OpenStack Platform 10 では、VF パススルーに加えて、SR-IOV PF パススルー (vnic_type=direct-physical を使用) のサポートが追加されました。SR-IOV のデプロイメントは、director を使用して自動化できるようになりました。また、OVS-DPDK 2.5 が完全にサポートされ、director に統合されました。

警告

Open vSwitch (OVS) 2.4.0 を OVS 2.5.0 にアップグレードせずに Red Hat Enterprise Linux 7.3 カーネルへのアップグレードを実行しないようにしてください。カーネルのみがアップグレードされると、OVS は機能しなくなります。

2.7. Shared File System

本項には、Shared File System サービスの最も重要な新機能について説明します。
director の統合
Shared File System service (manila) は、director を使用してデプロイ可能なコンポーザブルコントローラーサービスとなり、完全にサポートされるようになりました。今回のリリースで、NetApp ドライバーも director に完全に統合されたので、Shared File System サービス向けの NetApp バックエンドの設定はそのまま使用できるようになりました。CephFS のネイティブドライバー (テクノロジープレビュー) も director に完全統合されています。

2.8. 高可用性

本項には、高可用性の最も重要な新機能について説明します。
更新されたサービス管理
memcached などを含む OpenStack のコアサービスの大半は systemd で管理されるようになり、Pacemaker で引き続き管理される最小限の数のクリティカルなサービスには、HAProxy/仮想 IP、RabbitMQ、Galera (MariaDB)、Manila-share、Cinder Volume、Cinder バックアップ、Redis があり、必要な場合にはフェンシングが提供されます。
運用/監視用ツール
Red Hat OpenStack Platform 10 には、高可用性向けに情報を運用/監視ツールに公開するためのサポートが実装されています。

2.9. Bare Metal Provisioning サービス

本項には、Bare Metal Provisioning サービスの最も重要な新機能について説明します。
標準の Bare Metal によるテナントのサポート
今回のリリースでは、Bare Metal Provisioning サービスにより、オーバークラウドに対するテナントサポートが追加されました。この機能により、クラウドテナントの需要に応じて、共有ハードウェアリソースのプールをプロビジョニングすることができます。
Bare Metal Provisioning 認定プログラム
今回のリリースでは、Bare Metal Provisioning ドライバー認定プログラムが導入されました。このプログラムにより、インフラストラクチャーとベアメタル両方のハードウェアライフサイクル管理の保証がテナントのユースケースに提供されます。

2.10. OpenStack Integration Test Suite サービス

本項には、OpenStack Integration Test Suite (tempest) サービスの最も重要な新機能について説明します。
Tempest の全体的なクリーンアップ
今回の更新には、tempest の全体的なクリーンアップが実装されています。これには、リモートクライアントのデバッグ機能、ドキュメントのレビュー、クライアントとマネージャーのエイリアス、リファクタリングされたテストベースクラス設定と切断のステップが含まれます。
Tempest CLI のリファクタリング
今回の更新で、ドメイン固有の tempest run コマンドが追加され、tempest テストを実行するためのプライマリーエントリーポイントとして使用できるようになりました。
ネガティブテストのガイドラインの更新
既存のネガティブテストに変更はありませんが、今回の更新で、コンポーネントレベルでのネガティブテストがサポートされるようになりました。
移行された Python リポジトリー
今回の更新で、tempest-lib Python リポジトリーは tempest リポジトリーの tempest/lib ディレクトリーに移行されました。
クライアントマネージャーのリファクタリング
以前のリリースでは、「tempest」で設定されている利用可能なサービス/拡張機能/API バージョンにかかわらず、_init_ 時にはクライアントマネージャーによって 利用可能なすべてのクライアントがインスタンス化され、クラス属性を使用してそのクライアントが公開されていました。今回のリリースでは、クライアントはオンデマンドでのみインスタンス化され、マネージャーは内部でクライアントのインスタンスをキャッシュして、適用可能な場合にはそのキャッシュからサービスを提供するようになりました。
テストリソースの管理
今回のリリースでは、全テストリソースが専用の YAML ファイルで管理されるようになり、tempest の設定は、デプロイヤーシステムが OpenStack サービスを設定するのに使用する設定と同じ量で行うことができるようになりました。これによりテストは、論理名またはプロパティーによって使用されるリソースを選択したり (例: 最も小さなフレーバーに収まるイメージを使用するなど)、特定のリソースの全組み合わせに対して実行したりすることができます。
マイクロバージョンテスト
今回のリリースでは、マイクロバージョンテストフレームワークに、Compute のマイクロバージョンテストが追加されました。

2.11. OpenStack Data Processing サービス

本項には、OpenStack Data Processing (sahara) サービスの最も重要な新機能について説明します。
最も一般的なビッグデータプラットフォームおよびコンポーネントの最新バージョンのサポート
今回のリリースで、Hortonworks Data Platform 2.3、2.4 Stack、および新しい MapR 5.1 プラグイン (add-mapr-510) のサポートが追加されました。
ユーザーエクスペリエンスの向上と使いやすさ
今回のリリースでは、プラグインで yaml をベースとするイメージパッキングのレシピの指定を可能にすることで、プラグインが宣言するイメージ作成のための CLI が追加されました。また、ユーザーが仕様に応じてイメージを容易に生成できる新たな CLI ツールも実装されています。
本リリースでは、openstack-sahara-ui パッケージを使用した Dashboard との統合も追加されました。

2.12. テクノロジープレビュー

本項では、Red Hat OpenStack Platform 10 のテクノロジープレビュー機能について説明します。

注記

テクノロジープレビューと記した機能のサポート範囲についての詳しい情報は、「テクノロジプレビュー機能のサポート範囲」 を参照してください。

2.12.1. 新規テクノロジープレビュー

以下の新機能はテクノロジープレビューとして提供されます。
保存データの暗号化
暗号化された形式 (CTR モード、鍵長 256 ビットの AES を使用) でオブジェクトを保管できるようになりました。この機能は、オブジェクトを保護して、Object Storage クラスター内でセキュリティーコンプライアンスを維持するためのオプションを提供します。
Erasure Code (EC)
Object Storage サービスには、アクセス頻度の低いデータを大量に格納するデバイスを対象に EC ストレージポリシータイプが実装されています。EC ストレージポリシーは、データの可用性を維持しつつコストとストレージの要件を低減する (必要なキャパシティーはトリプルレプリケーションの約 1/3 )、独自のリングと設定可能なパラメーターセットを使用します。EC にはより多くの CPU およびネットワークリソースが必要なため、EC をポリシーとして実装すると、クラスターの EC 機能に関連付けられた全ストレージデバイスを分離することができます。
Neutron VLAN 対応の仮想マシン
特定のタイプの仮想マシンは、VLAN タグ付けされたトラフィックを 1 つのインターフェースで渡す必要があります。このインターフェースは、「トランク」neutron ポートとして提示されるようになりました。仮想マシンが使用するためのトランクを作成するには、ユーザーは親ポートを 1 つと、サブポートを 1 つまたは複数作成する必要があります。そのインターフェースでは、全ポートとそれぞれのネットワークが利用できるようになり、そのインターフェース上のトラフィックは 802.1q を使用してタグ付けされます。
Open vSwitch ファイアウォールドライバー
OVS ファイアウォールがテクノロジープレビューとして提供されるようになりました。conntrack ベースのファイアウォールドライバーを使用してセキュリティーグループを実装することが可能です。conntrack では、Compute インスタンスは統合ブリッジに直接接続されるので、アーキテクチャーがよりシンプルとなり、パフォーマンスが向上します。

2.12.2. 以前にリリースされたテクノロジープレビュー

以下の機能は引き続きテクノロジープレビューとして提供されています。
Benchmarking サービス

Rally は、マルチノードの OpenStack デプロイメント、クラウドの検証、ベンチマーキング、およびプロファイリングを自動化/統合するためのベンチマーキングツールです。SLA、パフォーマンス、および安定性を継続的に向上させる OpenStack CI/CD システム向けの基本ツールとして使用することができます。Rally は、以下のコアコンポーネントで構成されます。
  1. サーバープロバイダー: 異なる仮想化テクノロジー (LXS、Virsh など) およびクラウドサプライヤーと対話するための統合インターフェースを提供します。ssh アクセスを介して、1 つの L3 ネットワーク内で対話を行います。
  2. デプロイエンジン: サーバープロバイダーから取得したサーバーを使用して、ベンチマーキングの手順が実行される前に OpenStack ディストリビューションをデプロイします。
  3. 検証: デプロイしたクラウドに対して特定のテストセットを実行して正しく機能するかどうかを確認し、結果を収集してから人間が判読可能な形式で提示します。
  4. ベンチマークエンジン: パラメーター化されたベンチマークシナリオの書き込みを許可し、クラウドに対して実行します。
セル
OpenStack Compute には、コンピュートリソースを分割するために nova-cells パッケージにより提供されるセルの概念が採用されています。セルに関する詳しい情報は、「Schedule Hosts and Cells」を参照してください。
また、Red Hat OpenStack Platform は、リージョン、アベイラビリティーゾーン、ホストアグリゲートという Red Hat OpenStack Platform 内のコンピュートリソースを分割する方法を完全にサポートしています。詳しくは「Manage Host Aggregates」を参照してください。
Manila 向けの CephFS ネイティブドライバー
CephFS ネイティブドライバーにより、Shared File System サービスは、Ceph ネットワークプロトコルを使用して、共有用の CephFS ファイルシステムをゲストにエクスポートします。このファイルシステムをマウントするには、インスタンスに Ceph クライアントをインストールしておく必要があります。CephFS ファイルシステムも、Red Hat Ceph Storage 2.0 にテクノロジープレビューとして同梱されています。
コンテナー化されたコンピュートノード

Red Hat OpenStack Platform director には、OpenStack のコンテナー化プロジェクト (Kolla) のサービスとオーバークラウドのコンピュートノードを統合する機能があります。これには、Red Hat Enterprise Linux Atomic Host をベースのオペレーティングシステムや個別のコンテナーとして使用して、異なる OpenStack サービスを実行するコンピュートノードを作成する機能が含まれます。
DNS-as-a-Service (DNSaaS)
Red Hat OpenStack Platform 8 以降のバージョンには、Designate としても知られる DNS-as-a-Service (DNSaaS) のテクノロジープレビューが含まれています。DNSaaS にはドメインとレコードの管理のための REST API が実装されており、マルチテナントに対応しています。また DNSaaS は OpenStack Identity サービス (keystone) と統合して認証を行います。さらに DNSaaS には Compute (nova) および OpenStack Networking (neutron) の通知と統合するフレームワークが実装されており、DNS レコードの自動生成が可能です。DNSaaS は PowerDNS および Bind9 の統合もサポートしています。
Firewall-as-a-Service (FWaaS)
Firewall-as-a-Service プラグインは、OpenStack Networking (neutron) に境界ファイアウォール管理機能を提供します。FWaaS は iptables を使用して、ファイアウォールポリシーをプロジェクト内の全仮想ルーターに適用し、1 プロジェクトあたりで 1 つのファイアウォールポリシーと論理ファイアウォールインスタンスをサポートします。FWaaS は、OpenStack Networking (neutron) ルーターでトラフィックをフィルタリングすることによって境界で稼働します。インスタンスレベルで稼働するセキュリティーグループとは、この点が異なります。
Google Cloud Storage バックアップドライバー (Block Storage)
Block Storage サービスで、ボリュームのバックアップの保管に Google Cloud Storage を使用するように設定できるようになりました。この機能は、多額な費用のかかるセカンダリークラウドを単に災害復旧の目的で維持管理する方法の代わりとなるオプションを提供します。
OpenDaylight の統合
Red Hat OpenStack Platform 10 では、OpenDaylight SDN コントローラーとの統合がテクノロジープレビューとして提供されるようになりました。OpenDaylight は、多数の異なるアプリケーションをサポートする、柔軟性の高いモジュール型のオープン SDN プラットフォームです。Red Hat OpenStack Platform 10 GA に導入されている OpenDaylight のディストリビューションは、OVSDB NetVirt を使用する OpenStack デプロイメントをサポートするために必要なモジュールに限定されており、アップストリームの Beryllium バージョンをベースとしています。
opendaylight および networking-odl のパッケージは、テクノロジープレビューで提供されています。
リアルタイム KVM の統合

Compute サービスにリアルタイム KVM が統合されたことにより、ホストの CPU で実行されているカーネルタスクなどを原因とする CPU のレイテンシーによる影響が軽減され、CPU ピニングが提供する仮想 CPU スケジューリングの保証がさらに強化されました。この機能は、CPU のレイテンシー短縮の重要度が高いネットワーク機能仮想化 (NFV) などのワークロードには極めて重要です。
Red Hat SSO
今回のリリースには、keycloak-httpd-client-install パッケージのバージョンが 1 つ含まれています。このパッケージは、Apache mod_auth_mellon SAML Service Provider を Keycloak SAML IdP のクライアントとして設定するのに役立つコマンドラインツールを提供します。
VPN-as-a-Service (VPNaaS)
VPN-as-a-Service により、OpenStack 内で VPN 接続を作成/管理することができます。

第3章 リリースの情報

本リリースノートには主に、今回リリースされた Red Hat OpenStack Platform のデプロイメント時に考慮すべきテクノロジープレビューの項目、推奨事項、既知の問題、非推奨となった機能について記載します。

3.1. 機能拡張

Red Hat OpenStack Platform の今回のリリースでは、以下の機能拡張が提供されています。
BZ#1198602
今回の機能拡張により「admin」ユーザーは管理コンソールを使用してインスタンスに割り当てられている Floating IP の一覧を確認できるようになりました。この一覧はデプロイメント内の全プロジェクトを対象とします。
以前のリリースでは、この情報はコマンドラインでのみ取得可能でした。
BZ#1188175
今回の機能拡張により、仮想デバイスロールのタグ付けがサポートされるようになりました。この機能は、インスタンスのオペレーティングシステムに、そのインスタンスを実行している仮想デバイスについての追加情報が必要な場合があるために追加されました。たとえば、複数のネットワークインターフェースのあるインスタンスでは、適切にプロビジョニングするために、ゲストのオペレーティングシステムの用途を区別する必要があります
今回の更新で、仮想デバイスロールのタグ付けにより、ユーザーはインスタンスの作成時に、仮想デバイスにタグを付けられるようになりました。これらのタグは、メタデータ API を使用して、コンフィグドライブ (有効化されている場合) を介して (他のデバイスメタデータとともに) インスタンスに提示されます。詳しい情報は、『Red Hat OpenStack Platform 10 ネットワークガイド』の「Use Tagging for Virtual Device Identification」の章を参照してください: https://access.redhat.com/documentation/en/red-hat-openstack-platform/
BZ#1274196
今回の更新により、オーバークラウドのコントローラーノード上の iptables ファイアウォールが有効化されてセキュリティーが強化されました。その結果、必要なポートが開放され、オーバークラウドは以前のとおりに機能し続けます。
BZ#1262070
director を使用して Ceph RBD を Block Storage バックアップターゲットとして設定できるようになりました。これにより、ボリュームを Ceph ターゲットにバックアップするように設定してオーバークラウドをデプロイすることができます。デフォルトでは、ボリュームのバックアップは「backups」という名前の Ceph プールに保管されます。

バックアップの設定は、以下の環境ファイル (アンダークラウド上) で設定されます。

/usr/share/openstack-tripleo-heat-templates/environments/cinder-backup.yaml
BZ#1289502
今回のリリースでは、リセラーのユースケースのセキュリティー強化のために 2 要素認証が必要となりました。
BZ#1315651
本リリースでは、高可用性アーキテクチャーは簡素化されたため、サービスの再起動が必要な際のプロセスの侵襲性が低くなりました。スケーリングの操作中には、必要なサービスのみが再起動されます。以前のリリースでは、スケーリング操作でクラスター全体の再起動が必要でした。
BZ#1317669
今回の更新には、OSP director を使用してデプロイされたオーバークラウドのバージョンを特定するためのリリースファイルが含まれるようになりました。この情報により、インストール済みのバージョンが明確にわかるので、デバッグに役立ちます。overcloud-full イメージには新規パッケージ (rhosp-release) が含まれています。旧バージョンからアップグレードする場合にもこの RPM がインストールされます。リリースファイルは、OSP 10 以降の全バージョンに含まれます。これは Red Hat OpenStack Platform director ベースのインストールにのみ適用されますが、rhosp-release パッケージを手動でインストールしても同じ結果を得ることができます。
BZ#1279554
RBD バックエンドドライバー (Ceph Storage) を OpenStack Compute (nova) の一時ディスクにすると、以下の 2 つの追加設定を libvirt に適用します。

hw_disk_discard : unmap
disk_cachemodes : network=writeback

これにより、Ceph プール上の未使用ブロックを再利用し、ネットワークの書き込みをキャッシュすることができるので、RBD ドライバーを使用する OpenStack Compute 一時ディスクのパフォーマンスが向上します。

http://docs.ceph.com/docs/master/rbd/rbd-openstack/ も参照してください。
BZ#1314080
今回の機能拡張により、「heat-manage」が「heat-manage reset_stack_status」サブコマンドをサポートするようになりました。このサブコマンドは、「heat-engine」がデータベースと通信できないために、進行中のスタックがそのままで停止してしまう状況に対応するために追加されました。この問題が発生した場合には、管理者がステータスをリセットして、スタックが再度更新できるようにする方法が必要でした。
この機能が拡張された結果、管理者は「heat-manage reset_stack_status」コマンドで進行中の状態で停止したスタックをリセットすることができるようになりました。
BZ#1249836
「openstack baremetal」ユーティリティーにより、ブート設定中に特定のイメージを指定できるようになりました。具体的には、「--deploy-kernel」および「--deploy-ramdisk」のオプションを使用してカーネルまたは ramdisk イメージをそれぞれ指定できます。
BZ#1303093
今回の更新により、オーバークラウドのデプロイ時に追加の環境ファイルを使用してオーバークラウド内の Object Storage サービス (swift) を無効にすることができます。この環境ファイルには、以下の内容を記載する必要があります。

resource_registry:
  OS::TripleO::Services::SwiftProxy: OS::Heat::None
  OS::TripleO::Services::SwiftStorage: OS::Heat::None
  OS::TripleO::Services::SwiftRingBuilder: OS::Heat::None

その結果、Object Storage サービスはオーバークラウドで実行されなくなり、オーバークラウドの Identity サービス内の Object Storage サービスのエンドポイントはなくなります。
BZ#1346401
「ceph-osd」インスタンスを SELinux ポリシーで制限できるようになりました。OSP 10 では、新規デプロイでは、Ceph Storage ノード上で SELinux が「enforcing」モードで設定されるようになりました。
BZ#1325680
通常、OpenStack における OVS+DPDK の設定は、オーバークラウドのデプロイ後に手動で実行されます。これは、多数のコンピュートノードが対象となる場合にはオペレーターにとって非常に困難で、退屈な作業となる可能性がありました。今回の更新により OVS+DPDK のインストールは tripleo で自動化されました。以前は手動で行われていた DPDK のハードウェア機能の特定は、イントロスペクション中に自動化されました。また、ハードウェアの検出により、Heat テンプレートの設定に必要な情報がオペレーターに提供されるようになりました。現在、DPDK 対応のハードウェアを搭載しているコンピュートノードと、DPDK 対応のハードウェアを搭載していないコンピュートノードを共存させることはできません。
「ironic」Python エージェントは以下のハードウェア情報を検出して swift のブロブに保管します。
* ヒュージページサポートの CPU フラグ: pse が存在する場合には 2 MB のヒュージページがサポートされ、pdpe1gb が存在する場合には 1 GB のヒュージページがサポートされます。
* IOMMU の CPU フラグ: VT-d/svm が存在する場合には IOMMU がサポートされます。ただし、BIOS で IOMMU サポートが有効化されていることが条件です。
* 互換性のある NIC: DPDK にホワイトリストされている NIC の一覧 (http://dpdk.org/doc/nics に記載) と対照します。

上記の機能のいずれも搭載されていないノードは、DPDK を使用するコンピュートの役割には使用できません。

* オペレーターは、コンピュートノードで DPDK を有効にするためのプロビジョニングを使用することができます。
* コンピュート対応で DPDK NIC が搭載されていると確認されたノード向けのオーバークラウドイメージには、OVS の代わりに OVS+DPDK パッケージが使用されます。また、「dpdk」および「driverctl」のパッケージも含まれます。
* DPDK 対応の NIC のデバイス名は、T-H-T から取得されます。DPDK NIC の PCI アドレスは、デバイス名から識別される必要があります。これは、PCI のプロービング中に DPDK NIC をホワイトリストするのに必要です。
* ヒュージページは DPDK を使用するコンピュートノードで有効にする必要があります。
* DPDK Poll Mode Driver (PMD) に確保される CPU コアが一般のカーネルバランシングに使用されてアルゴリズムの処理とスケジューリングを中断しないようにするために、CPU を分離する必要があります。
* DPDK を有効にした NIC を使用する各コンピュートノードでは、puppet によってホワイトリストされた NIC の DPDK_OPTIONS、CPU マスク、および DPDK PMD のメモリーチャネル数が設定されます。DPDK_OPTIONS は /etc/sysconfig/openvswitch で設定する必要があります。

「Os-net-config」は以下のステップを実行します。
* 指定したインターフェースの pci アドレスを特定することにより、そのインターフェースを dpdk ドライバー (デフォルトは vfio-pci ドライバー) に関連付けます。ドライバーを永続的にバインディングするために driverctl が使用されます。
* ovs_user_bridge と ovs_dpdk_port のタイプを理解して、ifcfg スクリプトを適切に設定してください。
* 「タイプ」ovs_user_bridge は OVS タイプ OVSUserBridge と解釈され、これに基づいて OVS がデータパスタイプを「netdev」に設定します。
* 「タイプ」 ovs_dpdk_port は OVS タイプ OVSDPDKPort と解釈され、これに基づいて OVS がインターフェースタイプを「dpdk」としてポートをブリッジに追加します。
* ovs_dpdk_bond を理解して ifcfg スクリプトを適切に設定します。

DPDK を有効にした NIC を使用する各コンピュートノードで puppet により以下のステップが実行されます。
* /etc/neutron/plugins/ml2/openvswitch_agent.ini [OVS] datapath_type=netdev vhostuser_socket_dir=/var/run/openvswitch での OVS+DPDK の有効化
* qemu により所有される /var/run/openvswitch での vhostuser ポートの設定

各コントローラーノードで puppet により以下のステップが実行されます。
* nova.conf で NUMATopologyFilter を scheduler_default_filters に追加します。

その結果、上記の機能拡張されたプラットフォームの認識の自動化が完了し、QA テストで検証されます。
BZ#1283336
以前、Red Hat Enterprise Linux OpenStack Platform 7 では、各ロールで使用可能なネットワークが固定されていたため、任意のロール上で任意のネットワークを使用するカスタムネットワークトポロジーは利用できませんでした。
今回の更新により、Red Hat OpenStack Platform 8 以降のバージョンでは、任意のネットワークを任意のロールに割り当てることができるようになりました。
その結果、カスタムネットワークトポロジーが可能となりましたが、各ロールのポートはカスタマイズする必要があります。openstack-tripleo-heat-templates の「environments/network-isolation.yaml」ファイルを確認して、カスタム環境ファイルまたは「network-environment.yaml」で各ロールのポートを有効にする方法を参照してください。
BZ#1328830
今回の更新で複数のテーマ設定がサポートされるようになりました。これは、ユーザーがフロントエンドを使用してテーマを動的に変更できるようにするために追加されました。一部のユースケースには、明るいテーマと暗いテーマを切り替える機能や、アクセシビリティー上の理由から高コントラストを有効にする機能などが含まれます。
その結果、ユーザーは実行時にテーマを選択することができます。
BZ#1351271
Red Hat OpenStack Platform director は OpenStack Block Storage (cinder) v3 API エンドポイントを OpenStack Identity (keystone) に作成して、より新しい Cinder API バージョンをサポートするようになりました。
BZ#1287586
今回の機能拡張により、ドメインスコープのトークンを Dashboard (horizon) のログインに使用することができるようになりました。
この機能は、ドメインスコープのトークンを必要とする、よりリッチなロールセットを使用する場合に keystone v3 の認証管理を完全にサポートするために追加されました。django_openstack_auth はこのタイプのセッション用トークンの取得と維持をサポートする必要があります。
その結果、horizon ではドメインスコープのトークンを Red Hat OpenStack Platform 9 より利用できるようになりました。
BZ#1371649
今回の機能拡張により、「sahara-image-element」上のメインスクリプトが更新され、サポートされているプラグインのイメージだけを作成できるようになりました。たとえば、以下のコマンドを実行して、Red Hat Enterprise Linux 7 を使用する CDH 5.7 イメージを作成することができます。
----
>> ./diskimage-create/diskimage-create.sh -p cloudera -v 5.7

Usage: diskimage-create.sh
         [-p cloudera|mapr|ambari]
         [-v 5.5|5.7|2.3|2.4]
         [-r 5.1.0]
----
BZ#1369426
AODH は MYSQLをデフォルトのデータベースバックエンドとして使用するようになりました。以前のリリースでは、Ceilometer から AODH の移行を容易にする目的で、AODH は MongoDB をデフォルトのバックエンドとして使用していました。
BZ#1359192
今回の更新で、オーバークラウドのイメージに Red Hat Cloud Storage 2.0 バージョンがインストールされるようになりました。
BZ#1365874
OpenDaylight はテナントで設定可能なセキュリティーグループをサポートするようになり、セキュリティーグループルールに照合されたトラフィックのみが許可されるようになりました。現在は IPv4 トラフィックのみが照合/フィルタリング可能で、IPv6 には対応していません。
デフォルトでは、各テナントに「default」という名前のセキュリティーグループが使用されます。このセキュリティーグループには、デフォルトのルールがあり、default セキュリティーグループと関連付けられたインスタンス間の相互通信のみが許可されます。その結果、default グループからの送信トラフィックと default グループ内の相互通信のみが許可され、default グループ外からの受信トラフィックはデフォルトでドロップされます。
BZ#1367678
今回の機能拡張により、Red Hat OpenStack Platform director で Open vSwitch (OVS) ファイアウォールドライバーを設定するための新しいパラメーター「NeutronOVSFirewallDriver」が追加されました。
このパラメーターは、neutron OVS エージェントがセキュリティーグループを実装するための新たなメカニズムである「openvswitch」ファイアウォールをサポートしているために追加されました。「NeutronOVSFirewallDriver」によりユーザーは使用する実装を直接制御することができます。
「hybrid」: neutron が以前の iptables/ハイブリッドベースの実装を使用するように設定します。
「openvswitch」: 新たなフローベースの実装を有効にします。 
新しい Open vSwitch (OVS) ファイアウォールドライバーにより、パフォーマンスが向上し、プロジェクトネットワークへの接続に使用するインターフェースとブリッジの数が削減されます。その結果、ユーザーは新たなセキュリティーグループの実装をより簡単に評価することができるようになりました。
BZ#1309460
director を使用して Ceph RadosGW をオブジェクトストレージのゲートウェイとしてデプロイできるようになりました。そのためには、オーバークラウドのデプロイメントに /usr/share/openstack-tripleo-heat-templates/environmens/ceph-radosgw.yaml を追加します。この Heat テンプレートを使用する場合には、デフォルトの Object Storage サービス (swift) はデプロイされません。
BZ#1353796
今回の更新で、UI を使用してノードを追加できるようになりました。
BZ#1337660
OpenStack Data Processing サービスは、HDP (Ambari) プラグインのバージョン 2.4 をサポートするようになりました。
BZ#1381628
https://bugs.launchpad.net/tripleo/+bug/1630247 に記載されているように、アップストリームの Newton TripleO では Sahara サービスがデフォルトで無効化されましたが、Red Hat OpenStack Platform 9 から Red Hat OpenStack Platform 10 へのアップグレード手順では、Sahara サービスはデフォルトで有効化/維持されます。アップグレード後に Sahara は不要であるとオペレーターが判断した場合には、コントローラーのアップグレードとコンバージステップのコマンドで「-e 'major-upgrade-remove-sahara.yaml'」の環境ファイルを指定する必要があります。この環境ファイルは、特にコンバージのステップで末尾に指定する必要がありますが、混乱を避けるために両方のステップで末尾に指定することができます。このオプションを指定すると、Sahara サービスはメジャーアップグレード後に再起動しなくなります。
この方法により、Sahara サービスは OSP9 から OSP10 へのアップグレード中に適切に処理されます。また現在も、必要な場合には、オペレーターは Sahara を明示的に無効にすることが可能です。
BZ#1368218
今回の更新により、追加の環境ファイルを使用してオーバークラウドをデプロイすることによって、Object Storage サービス (swift) に追加の RAW ディスクを設定できるようになりました。以下に例を示します。

  parameter_defaults:
    ExtraConfig:
      SwiftRawDisks:
        sdb:
          byte_size: 2048
          mnt_base_dir: /src/sdb
        sdc:
          byte_size: 2048

その結果、Object Storage サービスはローカルノードの「root」ファイルシステムのみに限定されなくなりました。
BZ#1337783
ハードウェアのプロビジョニング段階に汎用ノードをデプロイできるようになりました。これらのノードは、汎用オペレーティングシステム (Red Hat Enterprise Linux) を使用してデプロイされ、ユーザーはそれらのノードに直接、追加のサービスをデプロイすることができます。
BZ#1343130
ironic-python-agent イメージが含まれているパッケージには、依存関係として rhosp-director-images RPM が必要でしたが、Red Hat OpenStack Platform director を利用しなくても OpenStack Bare Metal Provisioning サービス (ironic) の一般的な用途に ironic-python-agent を使用することが可能です。今回の更新で依存関係が変更され、以下のようになりました。

- rhosp-director-images RPM は rhosp-director-images-ipa RPM を必要とする。
- rhosp-director-images-ipa RPM は rhosp-director-images RPM を必要としない。

ユーザーは ironic-python-agent イメージを単独でインストールすることができるようになりました。
BZ#1347475
今回の更新により、IPMItool ドライバー向けに socat ベースのシリアルコンソールが追加されました。これは、ユーザーが仮想ノードのコンソールにアクセスするのと同じ方法でベアメタルノードのシリアルコンソールにアクセスする必要がある場合があるために追加されました。その結果、新しいドライバー「pxe_ipmitool_socat」が追加され、「socat」ユーティリティーを使用したシリアルコンソールがサポートされるようになりました。
BZ#1337656
OpenStack Data Processing サービスは、HDP (Ambari) プラグインのバージョン 2.3 をサポートするようになりました。
BZ#1337782
今回のリリースは、コンポーザブルロールを特徴としており、TripleO はコンポーザブルな方法でデプロイ可能となりました。これにより、各ノードで実行する必要のあるサービスをユーザーが選択することができるので、複雑なユースケースをサポートできます。
BZ#1309528
director では、OSP コントローラーノードとコロケーションされている RADOS Gateway (RGW) サービスに対する HAproxy ロードバランシングと SSL 終了を設定できるようになりました。
BZ#1365865
今回のリリースでは、OpenDaylight コントローラープラットフォーム自体におけるクラスタリングはサポートされませんが、neutron API サービスに対する HA が提供されます。
BZ#1325682
今回の更新で、IP トラフィックは QoS ポリシーにアタッチされた DSCP マーキングルールによって管理できるようになりました。このポリシーは、ネットワークとポートに適用されます。
これは、特にリアルタイムの情報やクリティカルな制御データを処理する場合に、トラフィックソースによって、ネットワークレベルで必要とされる優先順位のレベルが異なる場合があるために追加されました。その結果、特定のポートとネットワークからのトラフィックは DSCP フラグでマークすることができるようになりました。本リリースでは、Open vSwitch のみがサポートされている点に注意してください。
BZ#1366721
Telemetry サービス (ceilometer) はデフォルトのメーターディスパッチャーバックエンドに Gnocchi を使用するようになりました。Gnocchi はよりスケーラブルで、Telemetry サービスの今後の方向性に沿っています。
BZ#1347371
今回の機能拡張により、RabbitMQ に Queue Master 分散の新たな HA 機能が導入されました。そのストラテジーの 1 つは「min-masters」で、最小数のマスターをホストするノードを選択します。
この機能は、コントローラーの 1 つが利用できなくなる可能性があり、その場合にはキューの宣言中に利用可能なコントローラーに Queue Master が配置されるために追加されました。利用不可だったコントローラーが再度利用可能になると、新たに宣言されたキューのマスターは、キューマスターの数が明らかに低いコントローラーを優先するようには配置されなかったため、分散が不均衡となって、複数のフェイルオーバーが発生した場合にコントローラーにかかる負荷が大幅に高くなる可能性がありました。
そのため、今回の機能拡張でコントローラーのフェイルオーバーの発生後には、キューがコントローラー全体に広げられるようになりました。
BZ#1290251
今回の更新で、オーバークラウドからモニタリングインフラストラクチャーへの接続を有効にする新機能により、オーバークラウドノードに可用性管理エージェント (sensu-client) がデプロイされるようになりました。 

モニタリングエージェントのデプロイメントを有効にするには、「/usr/share/openstack/tripleo-heat-templates/environments/monitoring-environment.yaml」という環境ファイルを使用して、以下のパラメーターをその YAML 設定ファイルに指定します。

MonitoringRabbitHost: モニタリングを目的とする RabbitMQ インスタンスを実行するホスト
MonitoringRabbitPort: モニタリングを目的とする RabbitMQ インスタンスが実行されるポート
MonitoringRabbitUserName: RabbitMQ インスタンスに接続するためのユーザー名
MonitoringRabbitPassword: RabbitMQ インスタンスに接続するためのパスワード
MonitoringRabbitVhost: モニタリング目的で使用される RabbitMQ vhost
BZ#1383779
ノード固有の hiera を使用して、同じブロックデバイスリストを持たない Ceph Storage ノードをデプロイすることができるようになりました。その結果、オーバクラウドデプロイメントの Heat テンプレート内でノード固有の hiera エントリーを使用して、類似していない OSD サーバーをデプロイすることができます。
BZ#1242593
今回の機能拡張により、OpenStack Bare Metal Provisioning サービス (ironic) をオーバークラウドにデプロイしてベアメタルインスタンスのデプロイメントをサポートできるようになりました。この機能はオーバークラウドにベアメタルインスタンスをデプロイする必要がある場合があるために追加されました。
その結果、Red Hat OpenStack Platform director はオプションで Bare Metal Provisioning サービスをデプロイしてオーバークラウドでベアメタルインスタンスをプロビジョニングできるようになりました。
BZ#1189551
今回の更新で、「リアルタイム」の機能が追加され、仮想 CPU で最悪の場合のスケジューラーのレイテンシーに対する保証が強化されました。この更新は、CPU 実行のレイテンシーに関するワークロードを実行する必要があり、リアルタイムの KVM ゲストの設定によって提供される保証を必要とするテナントを補助します。
BZ#1256850
Telemetry API (ceilometer-api) はイベントレットの代わりに apache-wsgi を使用するようになりました。本リリースにアップグレードする際には、ceilometer-api が適切に移行されます。

今回の変更によりデプロイメントごとのパフォーマンスとスケーリングの調整における柔軟性が向上し、SSL の使用が簡単になりました。
BZ#1233920
今回の機能拡張により、仮想デバイスロールのタグ付けがサポートされるようになりました。この機能は、インスタンスのオペレーティングシステムに、そのインスタンスを実行している仮想デバイスについての追加情報が必要な場合があるために追加されました。たとえば、複数のネットワークインターフェースのあるインスタンスでは、適切にプロビジョニングするために、ゲストのオペレーティングシステムの用途を区別する必要があります
今回の更新で、仮想デバイスロールのタグ付けにより、ユーザーはインスタンスの作成時に、仮想デバイスにタグを付けられるようになりました。これらのタグは、メタデータ API を使用して、コンフィグドライブ (有効化されている場合) を介して (他のデバイスメタデータとともに) インスタンスに提示されます。詳しい情報は、『Red Hat OpenStack Platform 10 ネットワークガイド』の「Use Tagging for Virtual Device Identification」の章を参照してください: https://access.redhat.com/documentation/en/red-hat-openstack-platform/

3.2. テクノロジープレビュー

本項に記載する項目は、テクノロジープレビューとして提供しています。テクノロジープレビューの適用範囲のステータスに関する詳細情報およびそれに伴うサポートへの影響については、https://access.redhat.com/support/offerings/techpreview/ を参照してください。
BZ#1381227
今回の更新により、OpenStack でのコンテナー使用のテストに必要なコンポーネントが含まれるようになりました。この機能は本リリースではテクノロジープレビューとして提供されています。

3.3. リリースノート

このセクションでは、Red Hat OpenStack Platform の注目すべき変更点や推奨プラクティスなど、今回のリリースに関する重要な情報を記載しています。お使いのデプロイメントに最大限の効果をもたらすために、以下の情報を考慮する必要があります。
BZ#1377763
Gnocchi 2.2 では、ジョブのディスパッチは Redis を使用してコントローラー間で調整されるようになったため、Telemetry の計測値の処理の改善を期待できるようになりました。
BZ#1385368
コンポーザブルサービスに対応するために、Image サービス (glance) バックエンドとして使用する NFS マウントは Pacemaker によって管理されなくなったため、glance NFS バックエンドパラメーターのインターフェースが変更され、新しいメソッドでは環境ファイルを使用して NFS バックエンドを有効化するようになりました。以下に例を示します。
----
parameter_defaults:
  GlanceBackend: file
  GlanceNfsEnabled: true
  GlanceNfsShare: IP:/some/exported/path
----
注記: GlanceNfsShare の設定はデプロイメントによって異なります。
また、「GlanceNfsOptions」パラメーターを使用してマウントオプションをカスタマイズすることができます。Glance NFS バックエンドを以前 Red Hat OpenStack Platform 9 で使用していた場合には、環境ファイルの内容を更新して、Red Hat OpenStack Platform 10 の書式と一致するようにする必要があります。

3.4. 既知の問題

現時点における Red Hat OpenStack Platform の既知の問題は以下のとおりです。
BZ#1293379
現在、ネットワークの設定を変更するとインターフェースが再起動して、オーバークラウドノード上のネットワーク接続が中断されるという既知の問題があります。そのため、ネットワークの中断によって、Pacemaker コントローラークラスター内でサービスが停止し、ノードがフェンシングされてしまいます (フェンシングが設定されている場合)。その結果、tripleo-heat-templates はオーバークラウドの更新時にネットワーク設定の変更を適用しないように設計されています。ネットワークの変更を適用しないことによって、意図せずにクラスターのサービスが停止してしまうことを避けます。
BZ#1266565
現在、特定の設定ステップでは、オーバークラウドコントローラーに SSH 接続する必要があり、オーバークラウドノードに到達するには、仮想 IP を通過する必要があります。
お使いの環境で外部のロードバランサーを使用している場合には、このステップで接続は成功しない可能性が高くなります。この問題を回避するには、外部のロードバランサーがポート 22 を転送するように設定すると、仮想 IP へ正常に SSH 接続できるようになります。
BZ#1312155
controller_v6.yaml テンプレートには、管理ネットワークの VLAN 用のパラメーターが 1 つ含まれています。このパラメーターは、現在のバージョンの director ではサポートされていないので、管理ネットワークに関する他のコメントとともに無視しても安全です。管理ネットワークの参照は、カスタムテンプレートにコピーする必要はありません。

このパラメーターは将来のバージョンでサポートされる予定です。
BZ#1239130
director はデプロイメントの前または実行中にネットワークの検証を提供しません。そのため、ネットワーク設定が適切でないデプロイメントが数時間実行されて、何も出力が表示されずに結果的に失敗する可能性があります。ネットワーク検証のスクリプトは現在開発中で、将来のリリースで実装される予定です。
BZ#1269005
今回のリリースでは、Red Hat OpenStack Platform director は、コントローラーノード 3 台で構成される高可用性 (HA) のオーバークラウドデプロイメントのみをサポートしています。
BZ#1274687
現在、director がパブリック API に接続して最終の設定のデプロイ後のステップを完了するのに必要となる既知の要件があります。この要件は、アンダークラウドノードにはパブリック API へのルートが 1 つあることと、そのルートが標準の OpenStack API ポートおよびポート 22 (SSH) で到達可能である必要があることです。
この要件に対応するには、デプロイ後のタスクで使用するコントローラー上の外部ネットワークにアンダークラウドが到達可能かをチェックしておいてください。このような準備をしておくことにより、アンダークラウドはデプロイ後にパブリック API に正常に接続して、最終の設定タスクを実行することができます。これらのタスクは、admin アカウントを使用して新規作成したデプロイメントを管理するのに必要です。
BZ#1243306
NovaEnableRbdBackend パラメーターを使用する場合には、一時ストレージが true としてハードコードされています。これは、NovaEnableRbdBackend インスタンスが Ceph Storage 上に cinder バックエンドを使用できないことを意味します。回避策として、以下の行を puppet/hieradata/compute.yaml に追加します。

nova::compute::rbd::ephemeral_storage: false

これで一時ストレージが無効になります。
BZ#1241644
openstack-cinder-volume が LVM バックエンドの使用時にオーバークラウドノードが再起動すると、ファイルベースのループバックデバイスは再度作成されません。回避策として、ループバックデバイスを手動で再作成します。

$ sudo losetup /dev/loop2 /var/lib/cinder/cinder-volumes

次に、openstack-cinder-volume を再起動します。openstack-cinder-volume はオーバークラウドコントローラーノードの高可用性クラスター内では、1 回に 1 つのノードでしか実行できません。ただし、ループバックデバイスは、全ノード上に存在します。
BZ#1282951
Red Hat OpenStack Platform director のデプロイ時には、bare-metal ノードの電源はオフにして、ironic で「node-state」と「provisioning-state」が正しい必要があります。
たとえば、ironic がノードを「Available, powered-on」で表示されていても、サーバーが実際には電源がオフの状態である場合には、そのノードはデプロイメントには使用できません。
そのため、ironic でのノードの状態と実際のノードの状態を一致させる必要があります。「ironic node-set-power-state <node> [on|off]」と「ironic node-set-provisioning-state <node> available」のいずれか一方または両方を使用して、ironic 内での電源状態がサーバーの実際の状態と一致するようにして、ノードが「Available」とマークされるようにします。
その結果、ironic でのノードの状態が正しくなった後には、ironic は電源状態を正しく管理して、ノードをデプロイできるようになります。
BZ#1293422
IBM x3550 M5 サーバーには、Red Hat OpenStack Platform で機能する最小限のバージョンのファームウェアが必要です。 
そのため、ファームウェアのレベルが古い場合には、デプロイメントの前にアップグレードする必要があります。影響を受けるシステムは、次のバージョン (またはそれ以降のバージョン) にアップグレードする必要があります。
DSA 10.1, IMM2 1.72, UEFI 1.10, Bootcode NA, Broadcom GigE 17.0.4.4a 

ファームウェアのアップグレード後には、デプロイメントは想定通りに進めることができるはずです。
BZ#1323024
puppet のマニフェストのバグが原因で、アンダークラウドのインストールプロセス中に LVM パーティションの自動マウントが誤って無効化されていました。その結果、root および swap 以外のパーティションを使用する (カーネルコマンドラインでアクティブ化された) アンダークラウドホストは、緊急シェルでしかブートできない可能性がありました。

この問題を回避するには、複数の方法があります。以下のいずれかを選択してください。

1. /etc/fstab からマウントポイントを手動で削除します。この方法は、今後いかなる場合においても問題が生じることを防ぐことができます。他のパーティションを削除して、別のパーティション (root または swap) にスペースを追加することも可能です。

2. アクティブ化するパーティションを /etc/lvm.conf で設定します。この方法は、次回の更新/アップグレードでアンダークラウドのインストールが再実行されるまで機能します。

3. 初回のデプロイメントを root と swap パーティションに限定します。この方法は、問題を完全に回避することができます。
BZ#1368279
Red Hat Ceph を永続ストレージ用バックエンドとして使用する場合には、Compute サービスは利用可能なストレージ容量を正しく計算しません。厳密に言うと、Compute がレプリケーションを考慮に入れず、単に利用可能なストレージを加算してしまいます。その結果、利用可能なストレージ容量は実際の容量を大幅に上回る値が提示され、予期しないストレージオーバーサブスクリプションが発生してしまう可能性があります。

一時ストレージの正しい容量を確認するには、代わりに Ceph サービスに対して直接クエリーを実行してください。
BZ#1394537
「tuned」プロファイルがアクティブ化された後には、「openvswitch」サービスよりも前に「tuned」サービスを起動して、PMD に割り当てられるコアが正しく設定されるようにする必要があります。

回避策として、以下のスクリプトを実行して 「tuned」サービスを変更することができます。

#!/bin/bash

tuned_service=/usr/lib/systemd/system/tuned.service

grep -q "network.target" $tuned_service
if [ "$?" -eq 0 ]; then
  sed -i '/After=.*/s/network.target//g' $tuned_service
fi

grep -q "Before=.*network.target" $tuned_service
if [ ! "$?" -eq 0 ]; then
  grep -q "Before=.*" $tuned_service
  if [ "$?" -eq 0 ]; then
    sed -i 's/^\(Before=.*\)/\1 network.target openvswitch.service/g' $tuned_service
  else
    sed -i '/After/i Before=network.target openvswitch.service' $tuned_service
  fi
fi

systemctl daemon-reload
systemctl restart openvswitch
exit 0
BZ#1403380
現在、「Instance.pci_devices」フィールドでは NULL 値を指定可能ですが、「get_instance_pci_devs()」関数はその可能性を許可していません。旧デプロイメント (例: Red Hat OpenStack Platform 9) からインスタンスに渡される場合には「pci_devices」の値が指定されていないと、「None」をリストとして反復を試みてクラッシュします。
この問題の対象範囲には、アップグレードのワークフローの一環としてトリガーされるライブマイグレーションが含まれ、Red Hat OpenStack Platform 9 ホストから Red Hat OpenStack Platform 10 ホストにゲストのライブマイグレーションを試みます。
この問題を解決するためのパッチは特定済みで、Red Hat のお客様にはエラータとして リリースされる予定です。既存インスタンスをライブマイグレーションする方法でローリングアップグレードを予定しているお客様は、このエラータが提供されるまでアップグレードを見合わせることを推奨します。
BZ#1391022
Red Hat Enterprise Linux 6 には GRUB Legacy のみが含まれていますが、OpenStack Bare Metal Provisioning サービス (ironic) は GRUB2 のインストールのみをサポートしているため、ローカルブートでパーティションイメージをデプロイすると、ブートローダーのインストール中にエラーが発生します。
回避策としては、ベアメタルインスタンスに RHEL 6 を使用する場合には、フレーバーの設定で、boot_option を local に設定しないようにします。GRUB Legacy がインストール済みの RHEL 6 ディスクイメージ全体をデプロイすることも検討することができます。
BZ#1396308
Ceph と LVM 専用のブロックストレージノードを使用する Red Hat OpenStack 10 環境をデプロイ/アップグレードすると、ボリュームがアタッチされたインスタンスの作成は機能しなくなります。この問題は、director がアップグレード中に Block Storage サービスを設定する方法にバグがあることが原因です。 

具体的には、Heat テンプレートはデフォルトでは、Ceph と専用のブロックストレージノードを併せて設定するユースケースは考慮されていないため、director は一部の必要な設定の定義に失敗してしまいます。

LVM は、特にエンタープライズ環境の実稼働用の Block Storage バックエンドには適していない点に注意してください。

この問題は回避するには、以下の内容を記載した環境ファイルをアップグレードまたはデプロイメントに追加してください。

parameter_defaults:
  BlockStorageExtraConfig:
    tripleo::profile::base::cinder::volume::cinder_enable_iscsi_backend: true
    tripleo::profile::base::cinder::volume::cinder_enable_rbd_backend: false
BZ#1384845
オーバークラウドのイメージに、バージョン 2.7.1-4 未満の 「tuned」 が同梱されている場合には、「tuned」 パッケージの更新をそのオーバークラウドに手動で適用する必要があります。「tuned」バージョンが 2.7.1-4 以降の場合には、「tuned」にコアの一覧を提供してプロファイルをアクティブ化する必要があります。以下に例を示します。

# echo "isolated_cores=2,4,6,8,10,12,14,18,20,22,24,26,28,30" >> /etc/tuned/cpu-partitioning-variables.conf
# tuned-adm profile cpu-partitioning
BZ#1385034
以前のバージョン (Red Hat Ceph Storage 1.3) を使用する外部の Ceph Storage クラスターと統合された Red Hat OpenStack Platform 環境をアップグレードまたはデプロイする場合には、後方互換性を有効にする必要があります。そのためには、以下のスニペットを記載した環境ファイルをアップグレードまたはデプロイメントに追加します。

parameter_defaults:
  ExtraConfig:
    ceph::conf::args:
      client/rbd_default_features:
        value: "1"
BZ#1366356
ユーザー空間データパス (DPDK) を使用する場合には、一部の非 PMD スレッドは PMD を実行するのと同じ CPU 上で実行されます (「pmd-cpu-mask」で設定されます)。これは、PMD が割り込みされ、レイテンシースパイクやドロップなどが発生する原因となります。

今回の更新では post-install.yaml ファイルの修正が実装されました。このファイルは https://access.redhat.com/documentation/en/red-hat-openstack-platform/10/single/network-functions-virtualization-configuration-guide/#ap-ovsdpdk-post-install に記載されています。
BZ#1372804
Ceph Storage ノードは、「ext4」でフォーマットされたローカルのファイルシステムを「ceph-osd」サービスのバックエンドとして使用していました。

注記: Red Hat OpenStack Platform 9 (Mitaka) の「overcloud-full」イメージの一部は「xfs」の代わりに「ext4」を使用して作成されていました。

Jewel リリースでは「ceph-osd」が、バックエンドで許可されているファイル名の最大長を確認して、Ceph 自体で設定されている上限よりも低い場合には拒否します。回避策として、Ceph Storage ノードにログインして以下のコマンドを実行すると、「ceph-osd」に使用中のファイルシステムを確認することができます。

  # df -l --output=fstype /var/lib/ceph/osd/ceph-$ID

ここで $ID は OSD ID です。以下に例を示します。

  # df -l --output=fstype /var/lib/ceph/osd/ceph-0

注記: 単一の Ceph Storage ノードは、複数の「ceph-osd」インスタンスをホストしている可能性があり、その場合には、複数のサブディレクトリーが各インスタンスの「/var/lib/ceph/osd/」に存在することになります。

OSD インスタンスの*いずれか*が「ext4」ファイルシステムでバッキングされている場合には、Ceph が短いファイル名を使用するように設定する必要があります。これは、以下の内容を記載した追加の環境ファイルをデプロイ/アップグレードすることによって設定することができます。

  parameter_defaults:
    ExtraConfig:
      ceph::profile::params::osd_max_object_name_len: 256
      ceph::profile::params::osd_max_object_namespace_len: 64

その結果、Red Hat OpenStack Platform 9 から Red Hat OpenStack Platform 10 へのアップグレード後に、各「ceph-osd」インスタンスが稼働しているかどうかを確認できるようになります。
BZ#1394402
Open vSwitch、仮想マシンの CPU または仮想マシン内の VNF スレッドの実行中に、割り当てられた CPU への割り込みをできるだけ少なくするためには、CPU を分離すべきです。ただし、CPUAffinity は、全カーネルスレッドがこれらの CPU 上で実行されないようにすることはできません。大半のカーネルスレッドを防ぐには、ブートオプション 'isolcpus=<cpulist>' を使用する必要があります。これには 'nohz_full' および 'rcu_nocbs' と同じ CPU リストが使用されます。'isolcpus' はカーネルブート時に使用され、多数のカーネルスレッドが CPU 上でスケジュールされるのを防ぐことができます。これは、ハイパーバイザーとゲストサーバーの両方で実行することが可能です。

#!/bin/bash
isol_cpus=`awk '{ for (i = 1; i <= NF; i++) if ($i ~ /nohz/) print $i };'
/proc/cmdline | cut -d"=" -f2`
 
if [ ! -z "$isol_cpus" ]; then
  grubby --update-kernel=grubby --default-kernel --args=isolcpus=$isol_cpus
fi


2) 以下のスニペットは、エミュレータースレッドのアクションを再度固定するので、パフォーマンス上の特定の問題が発生した場合以外は使用することをお勧めしません。 

#!/bin/bash
cpu_list=`grep -e "^CPUAffinity=.*" /etc/systemd/system.conf | sed -e 's/CPUAffinity=//' -e 's/ /,/'`
 if [ ! -z "$cpu_list" ]; then
   virsh_list=`virsh list| sed -e '1,2d' -e 's/\s\+/ /g' | awk -F" " '{print $2}'`
     if [ ! -z "$virsh_list" ]; then
       for vm in $virsh_list; do virsh emulatorpin $vm --cpulist $cpu_list; done
     fi
 fi
BZ#1383627
「openstack baremetal import --json instackenv.json」を使用してインポートしたノードは、インポートを試みる前に電源をオフにする必要があります。ノードの電源がオンの場合には、Ironic はノードの追加やイントロスペクションを試みません。
この回避策として、「openstack baremetal import --json instackenv.json」を実行する前に全オーバークラウドノードの電源をオフにすることができます。
その結果、ノードの電源がオフになっている場合にはインポートが正常に機能するはずです。
BZ#1383930
DHCP HA を使用する場合には、コンポーザブルロールを使用して、「NeutronDhcpAgentsPerNetwork」の値を  dhcp-agent 数に等しい値または 3 のいずれか低い方に設定すべきです。このように設定しなかった場合には、この値はデフォルトで「ControllerCount」に設定され、各ネットワークで多数の DHCP サーバーの起動に対応するために dhcp-agent 数が十分でない場合があるために最適ではありません。
BZ#1302081
「AllocationPools」IPv6 ネットワークおよび IP の割り当てプールに入力するアドレス範囲は、RFC 5952 に従って有効な形式で入力する必要があります。エントリーが不完全だと機能せず、無効なエントリーによりエラーが発生します。
そのため、IPv6 アドレスは有効な形式で入力する必要があります。ゼロが繰り返される場合には「::」に置き換えることができます。
たとえば、「fd00:0001:0000:0000:00a1:00b2:00c3:0010」という IP アドレスは、「fd00:1::a1:b2:c3:10」と示すことができますが、「fd00:01::0b2:0c3:10」には無効な先頭ゼロ (01, 0b2, 0c3) が含まれているので使用できません。このフィールドでは、先頭のゼロを切り捨てるか、完全に埋め込む必要があります。
BZ#1204259
Glance で、glance.store.http.Store は、/etc/glance/glance.conf に known_store として設定されていないため、Glance クライアントで --copy-from 引数を使用してイメージを作成することはできません。このコマンドを実行すると、「400 Bad Request」エラーが表示されて操作が失敗します。回避策として、/etc/glance/glance-api.conf を編集して、「store」設定オプションのリストに glance.store.http.Store を追加してから、openstack-glance-api サーバーを再起動します。これにより、--copy-from 引数を使用した Glance イメージの作成を正常に実行できるようになります。
BZ#1245826
「openstack overcloud update stack」コマンドは、背後で操作が継続するにもかかわらず、即時に出力を返していました。このコマンドは対話的でないため、永遠に実行されるように見えました。そのような場合には、「-i」のフラグを付けてコマンドを実行すると、手動での対話が必要な場合にユーザーにプロンプトが表示されるようになります。
BZ#1249210
タイミングの問題により、オーバークラウドの neutron サービスは正しく自動起動しません。これは、インスタンスがアクセスできないことを意味します。回避策として、コントローラーノードクラスターで以下のコマンドを実行することができます。

$ sudo pcs resource debug-start neutron-l3-agent

これでインスタンスが適切に起動するようになります。

3.5. 非推奨の機能

本項には、サポートされなくなった機能、または今後のリリースでサポートされなくなる予定の機能について記載します。
BZ#1261539
Red Hat OpenStack Platform 9 の時点で、nova-network のサポートは非推奨となり、将来のリリースでは削除される予定となっています。新規環境の作成時には、OpenStack Networking (Neutron) を使用することを推奨します。
BZ#1402497
特定の CLI の引数は非推奨と見なされており、使用すべきではありません。今回の更新では、それらの CLI の引数を使用することは可能ですが、少なくとも 1 つの環境ファイルを指定して、「sat_repo」を設定する必要があります。この問題を回避するには、overcloud コマンドを実行する前に、「env」ファイルを使用することができます。

1. cp -r /usr/share/openstack-tripleo-heat-templates/extraconfig/pre_deploy/rhel-registration  . 

2. rhel-registration/environment-rhel-registration.yaml を編集し、お使いの環境に応じて rhel_reg_org, rhel_reg_activation_key、rhel_reg_method、rhel_reg_sat_repo、および rhel_reg_sat_url を設定します。

3. -e rhel-registration/rhel-registration-resource-registry.yaml -e rhel-registration/environment-rhel-registration.yaml のオプションを指定してデプロイのコマンドを実行します。

この回避策は Red Hat Satellite 5 と 6 の両方で確認済みで、デプロイメントが成功すると、リポジトリーがオーバークラウドノードに設定されます。
BZ#1404907
アップストリームのプロジェクトに従って、LBaaS v1 API は削除され、Red Hat OpenStack Platfom 10 では LBaaS v2 API のみがサポートされています。

第4章 テクニカルノート

本章には、コンテンツ配信ネットワークからリリースされる Red Hat OpenStack Platform「Newton」のエラータアドバイザリーの補足情報を記載します。

4.1. RHEA-2016:2948 — Red Hat OpenStack Platform 10 の機能拡張についての最新情報

本項に記載するバグは、アドバイザリー RHEA-2016:2948 で対応しています。このアドバイザリーについての詳しい情報は、https://access.redhat.com/errata/RHEA-2016:2948.html を参照してください。

instack-undercloud

BZ#1266509
以前のリリースでは、instack-undercloud はサブネットマスクが「local_ip」パラメーターに指定されていることを検証しなかったため、誤って /32 マスクが使用されていました。そのため、このような状況ではアンダークラウドでネットワークが正しく機能しませんでした (例: イントロスペクションが機能しないなど)。今回の更新により、instack-undercloud は正しいサブネットマスクが指定されていることを検証するようになりました。
BZ#1289614
今回の更新の以前は、期限切れのトークンを Identity サービス (keystone) のデータベースから定期的に削除するための自動プロセスがありませんでした。そのため、keystone のデータベースが拡大し続けて膨大なサイズとなり、ディスクスペースをすべて使い果たしてしまう可能性がありました。
今回の更新により、keystone データベースに対して定期クエリーを 1 日に 1 回実行し、期限切れのトークンを削除するための crontab エントリーが追加されました。その結果、期限切れのトークンによって keystone データベースのサイズが無制限に拡大してしまうことはなくなりました。
BZ#1320318
以前のリリースでは、Bare Metal Provisioning サービス (ironic) の「pxe_ilo」ドライバーは UEFI 対応のハードウェアを検出すると、環境で UEFI がサポートされていない場合でも自動的に UEFI ブートに切り替えていました。
そのため、環境が UEFI をサポートしていない場合には、pxe_ilo ドライバーを使用するとデプロイメントプロセスが失敗していました。
今回の更新により、pxe_ilo ドライバーはデフォルトで BIOS ブートモードに設定され、pxe_ilo を使用したデプロイメントは、UEFI が適切に設定されているかどうかに拘らず、追加の設定なしに正常に機能するようになりました。
BZ#1323024
puppet のマニフェストのバグが原因で、アンダークラウドのインストールプロセス中に LVM パーティションの自動マウントが誤って無効化されていました。その結果、root および swap 以外のパーティションを使用する (カーネルコマンドラインでアクティブ化された) アンダークラウドホストは、緊急シェルでしかブートできない可能性がありました。

この問題を回避するには、複数の方法があります。以下のいずれかを選択してください。

1. /etc/fstab からマウントポイントを手動で削除します。この方法は、今後いかなる場合においても問題の発生を防ぐことができます。他のパーティションを削除して、別のパーティション (root または swap) にスペースを追加することも可能です。

2. アクティブ化するパーティションを /etc/lvm.conf で設定します。この方法は、次回の更新/アップグレードでアンダークラウドのインストールが再実行されるまで機能します。

3. 初回のデプロイメントを root と swap パーティションに限定します。この方法は、問題を完全に回避することができます。
BZ#1324842
以前のリリースでは、director により自動生成される「readonly_user_name」(/etc/ceilometer/ceilometer.conf) の値が 32 文字を超えていました。その結果、アップグレード中に ValueSizeConstraint エラーが発生していました。今回のリリースでは、director がデフォルトで「readonly_user_name」を「ro_snmp_user」に設定し、文字数制限が順守されるようになりました。
BZ#1355818
以前のリリースでは、swift のプロキシーパイプラインの設定が誤っていたため、swift のメモリー使用量は、swift が強制終了されるまで拡大し続けていました。今回の修正により、swift のプロキシーパイプラインの早期に proxy-logging が設定され、swift のメモリー使用量は拡大し続けないようになりました。

mariadb-galera

BZ#1375184
Red Hat Enterprise Linux 7.3 では、シェルスクリプトで使用される「systemctl is-enabled」コマンドが返す出力の形式が変更されたため、mariadb-galera RPM パッケージのインストール時には、MariaDB サービスが実際には有効化されていない場合でも有効化されているものとして誤って検出されていました。その結果、Red Hat OpenStack Platform のインストーラーは、systemd ではなく Pacemaker を使用して mariadb-galera の実行を試みるため、Galera の起動に失敗していました。今回の更新により、mariadb-galera の RPM インストールスクリプトは異なる systemctl コマンドを使用するようになり、デフォルトの MariaDB が無効化されているものとして正しく検出されて、インストーラーを正常に実行できるようになりました。
BZ#1373598
以前のリリースでは、「mariadb-server」と「mariadb-galera-server」の両方のパッケージに、クライアントで使用するライブラリー (「dialog.so」と「mysql_clear_password.so」) が同梱されていました。その結果、「mariadb-galera-server」のパッケージは、パッケージの競合によりインストールに失敗していました。

今回の更新では、「dialog.so」と「mysql_clear_password.so」のライブラリーは「mariadb-galera-server」から「mariadb-libs」に移動されたため、「mariadb-galera-server」パッケージは正常にインストールできるようになりました。

openstack-gnocchi

BZ#1377763
Gnocchi 2.2 では、ジョブのディスパッチは Redis を使用してコントローラー間で調整されるようになったため、Telemetry の計測値の処理の改善を期待できるようになりました。

openstack-heat

BZ#1349120
今回の更新の以前は、Heat は「FloatingIP」リソースが実際にはまだ削除中であるのに、削除済みと見なす場合がありました。そのため、「FloatingIP」はまだ存在しているので、「FloatingIP」が依存するリソースの削除が失敗することがありました。
今回の更新で、Heat はリソースが削除されたものと見なす前に「FloatingIP」が存在しないことを確認するようになり、スタックの削除は正常に続行されるはずです。
BZ#1375930
以前のリリースでは、「str_replace」組み込み関数は、置き換える各文字列に対して Python「str.replace()」メソッドを呼び出すことによって機能していました。そのため、ある置換の置換テキストに、置換すべき別のテキストが含まれている場合には、置換テキスト自体が置き換えられてしまう場合がありました。置き換えの順序は保証されなかったので、結果が不明確となっていました。そのため、ユーザーはガード文字列などのテクニックの使用には注意を払って、誤解がないようにする必要があります。
今回の更新により、置き換えは単一パスで実行され、元のテキストのみが置き換えの対象となるようになりました。
その結果、「str_replace」の出力は明確となり、ガード文字列を使用しない場合でも、ユーザーの想定と一致するようになりました。入力でキーが重複した場合には、一致がより長い方が優先され、あいまいさが依然としてある場合には、辞書学上短い文字列が最初に置き換えられます。
BZ#1314080
今回の機能拡張により、「heat-manage」が「heat-manage reset_stack_status」サブコマンドをサポートするようになりました。このサブコマンドは、「heat-engine」がデータベースと通信できないために、進行中のスタックがそのままで停止してしまう状況に対応するために追加されました。この問題が発生した場合には、管理者がステータスをリセットして、スタックが再度更新できるようにする方法が必要でした。
この機能が拡張された結果、管理者は「heat-manage reset_stack_status」コマンドで進行中の状態で停止したスタックをリセットすることができるようになりました。

openstack-ironic

BZ#1347475
今回の更新により、IPMItool ドライバー向けに socat ベースのシリアルコンソールが追加されました。これは、ユーザーが仮想ノードのコンソールにアクセスするのと同じ方法でベアメタルノードのシリアルコンソールにアクセスする必要がある場合があるために追加されました。その結果、新しいドライバー「pxe_ipmitool_socat」が追加され、「socat」ユーティリティーを使用したシリアルコンソールがサポートされるようになりました。
BZ#1310883
Bare Metal Provisioning サービスは、パーティショニングおよびイメージの書き込みを実行する前に、ディスクのメタデータをワイプするようになりました。これにより、新規イメージは通常どおりに起動します。以前のリリースでは、Bare Metal Provisioning サービスは、デバイスで操作を開始する前に、古いメタデータを削除しなかったため、デプロイが失敗することがありました。
BZ#1319841
openstack-ironic-conductor サービスは、「enabled_drivers」オプションで指定されている全ドライバーが一意かどうかを確認するようになりました。このサービスは、重複したエントリーを削除して、警告をログに記録します。以前のリリースでは、「enabled_drivers」オプションで重複したエントリーがある場合には単に openstack-ironic-conductor サービスでエラーが発生していたため、Bare Metal Provisioning サービスはドライバーをロードすることができませんでした。
BZ#1344004
以前のリリースでは、「ironic-conductor」は「python-neutronclient」に対して認証トークンを正しく渡しませんでした。その結果、自動ノードクリーニングで切断のエラーが発生していました。

今回の更新により、OpenStack Bare Metal Provisioning サービス (ironic) は、直接 Identity サービスのクライアントオブジェクトを構築するのではなく、「keystoneauth」セッションを使用するように移行されました。その結果、ノードはクリーニングの後に正常に切断できるようになりました。
BZ#1385114
デプロイ中のノードを特定するには、デプロイ用 ramdisk (IPA) が Bare Metal Provisioning サービスにそのノードの一意識別子として MAC アドレスの一覧を提供します。以前のリリースでは、Bare Metal Provisioning サービスは通常の MAC アドレス形式 (6 オクテット) のみを想定していましたが、Infiniband NIC の GID は 20 オクテットであるため、Infiniband NIC がノードで提示されると、Bare Metal Provisioning API は MAC アドレスを正しく検証できなかったため、デプロイは失敗していました。

今回のリリースで。Bare Metal Provisioning サービスは通常の 6 オクテットの形式に準拠しない MAC アドレスを無視するようになりました。
BZ#1387322
今回のリリースでは、不必要な「dhcp」コマンドがデプロイメント/イントロスペクション用の iPXE テンプレートから削除されました。場合によっては、この不要なコマンドによって IP アドレスを受信するために誤ったインターフェースが使用されていました。

openstack-ironic-inspector

BZ#1323735
以前のリリースでは、tarfile の作成時に、IPA RAM ディスクのログに変更日が設定されていませんでした。その結果、イントロスペクションログに変更日が 1970-01-01 と記録されていたため、ファイルの抽出時に GNU tar が警告を表示していました。 

今回の更新により、tarfile の作成時には変更日が適正に設定されるようになりました。タイムスタンプは正しく記録され、GNU tar は警告を表示しなくなりました。

openstack-ironic-python-agent

BZ#1393008
今回のリリースは、より徹底したエラーチェックと LLDP 検出に関連する処理を特徴としています。この機能拡張は、無効なパッケージで LLDP の検出が失敗するのを防ぎます。また、LLDP の検出が失敗しても、イントロスペクションプロセス全体が失敗することはなくなりました。

openstack-manila

BZ#1380482
今回の更新の以前は、CephFS ドライバーは、Ceph サーバーに接続可能かどうかをチェックしませんでした。
そのため、Ceph サーバーへの接続が機能しない場合には、「manila-share」サービスはタイムアウトせずにクラッシュまたは再起動を繰り返していました。
今回の更新により、Manila CephFS ドライバーの初期時に Ceph への接続を確認するチェックが行われるようになりました。その結果、Ceph ドライバーはドライバーの初期化時に Ceph の接続を確認し、接続に失敗した場合には、ドライバーは初期化されず、それ移行のステップは実行されないようになりました。

openstack-neutron

BZ#1381620
以前のリリースでは、WSGI サーバーによって随時に開くことのできるクライアント接続の最大数 (1 回に起動する greenlets の数) は、「wsgi_default_pool_size」で 100 に設定されていました。この設定は OpenStack Networking API サーバーには適切でしたが、状態変更サーバーにより、L3 エージェントにおける CPU の負荷が高くなり、エージェントがクラッシュする原因となっていました。

今回のリリースでは、新たな「ha_keepalived_state_change_server_threads」設定を使用して状態変更サーバーのスレッド数を設定することができます。クライアントの接続は、「wsgi_default_pool_size」により限定されなくなり、状態変更サーバーのスレッドが多数起動した際に、L3 エージェントがクラッシュしないようになりました。
BZ#1382717
以前のリリースでは、「vport_gre」カーネルモジュールは Red Hat Enterprise Linux 7.3 の「ip_gre」カーネルモジュールに依存していました。「ip_gre」モジュールは、「gre0」および「gretap0」という 2 つの新しいインターフェースを作成していました。これらのインターフェースは名前空間ごとに作成され、削除はできませんでした。その結果、「neutron-netns'cleanup」が名前空間のクリーンアップ中に全インターフェースを削除する際に「gre0」と「gretap0」は削除できませんでした。そのため、インターフェースが残っていることが原因でネットワーク名前空間が削除できませんでした。 

今回の更新により、「gre0」と「gretap0」のインターフェースはインターフェースのホワイトリストに追加され、名前空間にインターフェースがあるかどうかをチェックする際には無視されるようになりました。その結果、ネットワークの名前空間に「gre0」と「gretap0」のインターフェースが含まれている場合でも、その名前空間は削除されるようになりました。
BZ#1384334
今回のリリースでは、OpenStack Networking API の前に HTTPProxyToWSGI ミドルウェアが追加され、クライアントとサーバーの間でプロキシー (例: HAProxy) が使用されている場合に要求 URL を正しく設定するようになりました。これにより、クライアントが SSL を使用する場合には、サーバーがこれを認識して、正しいプロトコルを使用して応答します。以前のリリースでは、プロキシーを使用すると、クライアントが SSL を使用している場合でも、サーバーは (HTTPS の代わりに) HTTP を使用して応答が可能でした。
BZ#1387546
以前のリリースでは、OpenStack Networking の OVS エージェントは、サブプロセスが適切に実行されなかった場合に、翻訳されていない文字列を翻訳済みの UTF-16 の文字列と比較していました。英語以外のロケールでは、これにより例外が発生し、インスタンスが起動できなくなっていました。

この問題に対処するために、文字列ではなく失敗したサブプロセスで実際に戻り値に応じてエラーチェックが行われるように更新されました。これにより、英語以外のロケールでも、サブプロセスのエラーが適切に処理されるようになりました。
BZ#1325682
今回の更新で、IP トラフィックは QoS ポリシーにアタッチされた DSCP マーキングルールによって管理できるようになりました。このポリシーは、ネットワークとポートに適用されます。
これは、特にリアルタイムの情報やクリティカルな制御データを処理する場合に、トラフィックソースによって、ネットワークレベルで必要とされる優先順位のレベルが異なる場合があるために追加されました。その結果、特定のポートとネットワークからのトラフィックは DSCP フラグでマークすることができるようになりました。本リリースでは、Open vSwitch のみがサポートされている点に注意してください。

openstack-nova

BZ#1188175
今回の機能拡張により、仮想デバイスロールのタグ付けがサポートされるようになりました。この機能は、インスタンスのオペレーティングシステムに、そのインスタンスを実行している仮想デバイスについての追加情報が必要な場合があるために追加されました。たとえば、複数のネットワークインターフェースのあるインスタンスでは、適切にプロビジョニングするために、ゲストのオペレーティングシステムの用途を区別する必要があります。
今回の更新で、仮想デバイスロールのタグ付けにより、ユーザーはインスタンスの作成時に、仮想デバイスにタグを付けられるようになりました。これらのタグは、メタデータ API を使用して、コンフィグドライブ (有効化されている場合) を介して (他のデバイスメタデータとともに) インスタンスに提示されます。詳しい情報は、『Red Hat OpenStack Platform 10 ネットワークガイド』の「Use Tagging for Virtual Device Identification」の章を参照してください: https://access.redhat.com/documentation/en/red-hat-openstack-platform/
BZ#1189551
今回の更新で、「リアルタイム」の機能が追加され、仮想 CPU で最悪の場合のスケジューラーのレイテンシーに対する保証が強化されました。この更新は、CPU 実行のレイテンシーに関するワークロードを実行する必要があり、リアルタイムの KVM ゲストの設定によって提供される保証を必要とするテナントを補助します。
BZ#1233920
今回の機能拡張により、仮想デバイスロールのタグ付けがサポートされるようになりました。この機能は、インスタンスのオペレーティングシステムに、そのインスタンスを実行している仮想デバイスについての追加情報が必要な場合があるために追加されました。たとえば、複数のネットワークインターフェースのあるインスタンスでは、適切にプロビジョニングするために、ゲストのオペレーティングシステムの用途を区別する必要があります。
今回の更新で、仮想デバイスロールのタグ付けにより、ユーザーはインスタンスの作成時に、仮想デバイスにタグを付けられるようになりました。これらのタグは、メタデータ API を使用して、コンフィグドライブ (有効化されている場合) を介して (他のデバイスメタデータとともに) インスタンスに提示されます。詳しい情報は、『Red Hat OpenStack Platform 10 ネットワークガイド』の「Use Tagging for Virtual Device Identification」の章を参照してください: https://access.redhat.com/documentation/en/red-hat-openstack-platform/
BZ#1263816
以前のリリースでは、nova ironic virt ドライバーは、デプロイメントが開始する前にインスタンスの UUID を Bare Metal Provisioning (ironic) ノードに書き込んでいました。UUID の書き込みとデプロイメントの起動の間に何らかのエラーが発生した場合に、Compute はインスタンスの起動に失敗した後でもそのインスタンスを削除しませんでした。その結果、Bare Metal Provisioning (ironic) ノードには、インスタンスの UUID セットが残ってしまい、別のデプロイメントでは選択されませんでした。

今回の更新により、デプロイメントのいずれかの段階でインスタンスの起動が失敗すると、ironic virt ドライバーはインスタンスの UUID を確実にクリーンアップするようになりました。その結果、ノードにはインスタンスの UUID セットが残らず、新規デプロイメントに選択されるようになりました。

openstack-puppet-modules

BZ#1284058
以前のリリースでは、director を使用してデプロイされた Object Storage サービスは Red Hat OpenStack Platform 8 (liberty) 以降で非推奨となっている ceilometer ミドルウェアを使用していました。

今回の更新で、Object Storage サービスは修正され、本リリースでサポートされている python-ceilometermiddleware からの ceilometer ミドルウェアを使用するようになりました。
BZ#1372821
以前のリリースでは、Time Series Database-as-a-Service (gnocchi) API ワーカーは、単一プロセスとスレッドの論理 cpu_core カウントを使用するデフォルトでデプロイされるよう設定されていたため、httpd で実行中の gnocchi API は単一プロセスでデプロイされていました。 

gnocchi では、ベストプラクティスとして、プロセス数とスレッド数を 1.5 * cpu_count に推奨しています。今回の更新で、ワーカーのカウントは max(($::processorcount + 0)/4, 2) となり、スレッドは 1 となりました。その結果、gnocchi API ワーカーは正しい数のワーカーとスレッドで実行されるようになり、パフォーマンスが向上しました。

openstack-tripleo-common

BZ#1382174
以前のリリースでは、パッケージの更新で「DeployIdentifier」は更新されなかったため、コントローラー以外のノードで Puppet が実行されませんでした。 

今回の更新により、「DeployIdentifier」の値がインクリメントされ、Puppet はコントローラー以外のノードで実行され、パッケージを更新するようになりました。
BZ#1323700
以前のリリースでは、OpenStack director で、オペレーターがメジャーアップグレードの一環としてコントローラーノード以外のノードをアップグレードするためにアンダークラウドで使用する「upgrade-non-controller.sh」スクリプトは、「--query」オプションを使用した場合にアップグレードのステータスを報告しませんでした。その結果、「--query」は「-h」のヘルプテキストに記載されているとおりには機能しませんでした。 

今回の更新で、「--query」オプションを使用した場合に、アップグレードのステータスとしてそのノードの「yum.log」ファイルの末尾数行が表示されるようになりました。また、このスクリプトで、このオプションの長いバージョンと短いバージョンの両方 (「-q」と「--query」) が受け入れられるようになりました。その結果、「upgrade-non-controller.sh」スクリプトはノードのアップグレードステータスを少なくともある程度表示するように改善されました。
BZ#1383627
「openstack baremetal import --json instackenv.json」を使用してインポートしたノードは、インポートを試みる前に電源をオフにする必要があります。ノードの電源がオンの場合には、Ironic はノードの追加やイントロスペクションを試みません。
この回避策として、「openstack baremetal import --json instackenv.json」を実行する前に全オーバークラウドノードの電源をオフにすることができます。
その結果、ノードの電源がオフになっている場合にはインポートが正常に機能するはずです。

openstack-tripleo-heat-templates

BZ#1262064
スタックデプロイメントの起動時に Heat の環境ファイルを使用して、オーバークラウドに「cinder-backup」をデプロイすることが可能となりました。「cinder-backup」を有効にするこの環境ファイルは、/usr/share/openstack-tripleo-heat-templates/environments/cinder-backup.yaml です。「cinder-backup」サービスは最初にバックエンドとして Swift または Ceph の使用をサポートします。「cinder-backup」サービスは、ボリュームの保管先とは異なるバックエンド上の Cinder ボリュームのバックアップを実行します。「cinder-backup」サービスは、デプロイ時に追加されている場合には、オーバークラウド内で実行されます。
BZ#1282491
今回の更新の以前には、RabbitMQ のオープンファイル記述子の最大値は 4096 に設定されていました。そのため、大型のデプロイメントを使用している場合にこの上限に達して、安定性で問題が生じる可能性がありました。今回の更新により、RabbitMQ のオープンファイル記述子の上限が 65536 に拡張されました。その結果、大型のデプロイメントでこの問題が発生する可能性が極めて低くなりました。
BZ#1242593
今回の機能拡張により、OpenStack Bare Metal Provisioning サービス (ironic) をオーバークラウドにデプロイしてベアメタルインスタンスのデプロイメントをサポートできるようになりました。この機能はオーバークラウドにベアメタルインスタンスをデプロイする必要がある場合があるために追加されました。
その結果、Red Hat OpenStack Platform director はオプションで Bare Metal Provisioning サービスをデプロイしてオーバークラウドでベアメタルインスタンスをプロビジョニングできるようになりました。
BZ#1274196
今回の更新により、オーバークラウドのコントローラーノード上の iptables ファイアウォールが有効化されてセキュリティーが強化されました。その結果、必要なポートが開放され、オーバークラウドは以前のとおりに機能し続けます。
BZ#1290251
今回の更新で、オーバークラウドからモニタリングインフラストラクチャーへの接続を有効にする新機能により、オーバークラウドノードに可用性管理エージェント (sensu-client) がデプロイされるようになりました。 

モニタリングエージェントのデプロイメントを有効にするには、「/usr/share/openstack/tripleo-heat-templates/environments/monitoring-environment.yaml」という環境ファイルを使用して、以下のパラメーターをその YAML 設定ファイルに指定します。

MonitoringRabbitHost: モニタリングを目的とする RabbitMQ インスタンスを実行するホスト
MonitoringRabbitPort: モニタリングを目的とする RabbitMQ インスタンスが実行されるポート
MonitoringRabbitUserName: RabbitMQ インスタンスに接続するためのユーザー名
MonitoringRabbitPassword: RabbitMQ インスタンスに接続するためのパスワード
MonitoringRabbitVhost: モニタリング目的で使用される RabbitMQ vhost
BZ#1309460
director を使用して Ceph RadosGW をオブジェクトストレージのゲートウェイとしてデプロイできるようになりました。そのためには、オーバークラウドのデプロイメントに /usr/share/openstack-tripleo-heat-templates/environmens/ceph-radosgw.yaml を追加します。この Heat テンプレートを使用する場合には、デフォルトの Object Storage サービス (swift) はデプロイされません。
BZ#1325680
通常、OpenStack における OVS+DPDK の設定は、オーバークラウドのデプロイ後に手動で実行されます。これは、多数のコンピュートノードが対象となる場合にはオペレーターにとって非常に困難で、退屈な作業となる可能性がありました。今回の更新により OVS+DPDK のインストールは tripleo で自動化されました。以前は手動で行われていた DPDK のハードウェア機能の特定は、イントロスペクション中に自動化されました。また、ハードウェアの検出により、Heat テンプレートの設定に必要な情報がオペレーターに提供されるようになりました。現在、DPDK 対応のハードウェアを搭載しているコンピュートノードと、DPDK 対応のハードウェアを搭載していないコンピュートノードを共存させることはできません。
「ironic」Python エージェントは以下のハードウェア情報を検出して swift のブロブに保管します。
* ヒュージページサポートの CPU フラグ: pse が存在する場合には 2 MB のヒュージページがサポートされ、pdpe1gb が存在する場合には 1 GB のヒュージページがサポートされます。
* IOMMU の CPU フラグ: VT-d/svm が存在する場合には IOMMU がサポートされます。ただし、BIOS で IOMMU サポートが有効化されていることが条件です。
* 互換性のある NIC: DPDK にホワイトリストされている NIC の一覧 (http://dpdk.org/doc/nics に記載) と対照します。

上記の機能のいずれも搭載されていないノードは、DPDK を使用するコンピュートの役割には使用できません。

* オペレーターは、コンピュートノードで DPDK を有効にするためのプロビジョニングを使用することができます。 
* コンピュート対応で DPDK NIC が搭載されていると確認されたノード向けのオーバークラウドイメージには、OVS の代わりに OVS+DPDK パッケージが使用されます。また、「dpdk」および「driverctl」のパッケージも含まれます。
* DPDK 対応の NIC のデバイス名は、T-H-T から取得されます。DPDK NIC の PCI アドレスは、デバイス名から識別される必要があります。これは、PCI のプロービング中に DPDK NIC をホワイトリストするのに必要です。
* ヒュージページは DPDK を使用するコンピュートノードで有効にする必要があります。
* DPDK Poll Mode Driver (PMD) に確保される CPU コアが一般のカーネルバランシングに使用されてアルゴリズムの処理とスケジューリングを中断しないようにするために、CPU を分離する必要があります。  
* DPDK を有効にした NIC を使用する各コンピュートノードでは、puppet によってホワイトリストされた NIC の DPDK_OPTIONS、CPU マスク、および DPDK PMD のメモリーチャネル数が設定されます。DPDK_OPTIONS は /etc/sysconfig/openvswitch で設定する必要があります。

「Os-net-config」は以下のステップを実行します。
* 指定したインターフェースの pci アドレスを特定することにより、そのインターフェースを dpdk ドライバー (デフォルトは vfio-pci ドライバー) に関連付けます。ドライバーを永続的にバインディングするために driverctl が使用されます。
* ovs_user_bridge と ovs_dpdk_port のタイプを理解して、ifcfg スクリプトを適切に設定してください。
* 「タイプ」ovs_user_bridge は OVS タイプ OVSUserBridge と解釈され、これに基づいて OVS がデータパスタイプを「netdev」に設定します。
* 「タイプ」 ovs_dpdk_port は OVS タイプ OVSDPDKPort と解釈され、これに基づいて OVS がインターフェースタイプを「dpdk」としてポートをブリッジに追加します。
* ovs_dpdk_bond を理解して ifcfg スクリプトを適切に設定します。

DPDK を有効にした NIC を使用する各コンピュートノードで puppet により以下のステップが実行されます。
* /etc/neutron/plugins/ml2/openvswitch_agent.ini [OVS] datapath_type=netdev vhostuser_socket_dir=/var/run/openvswitch での OVS+DPDK の有効化
* qemu により所有される /var/run/openvswitch での vhostuser ポートの設定

各コントローラーノードで puppet により以下のステップが実行されます。
* nova.conf で NUMATopologyFilter を scheduler_default_filters に追加します。

その結果、上記の機能拡張されたプラットフォームの認識の自動化が完了し、QA テストで検証されます。
BZ#1337782
今回のリリースは、コンポーザブルロールを特徴としており、TripleO はコンポーザブルな方法でデプロイ可能となりました。これにより、各ノードで実行する必要のあるサービスをユーザーが選択することができるので、複雑なユースケースをより多くサポートできます。
BZ#1337783
ハードウェアのプロビジョニング段階に汎用ノードをデプロイできるようになりました。これらのノードは、汎用オペレーティングシステム (Red Hat Enterprise Linux) を使用してデプロイされ、ユーザーはそれらのノードに直接、追加のサービスをデプロイすることができます。
BZ#1381628
https://bugs.launchpad.net/tripleo/+bug/1630247 に記載されているように、アップストリームの Newton TripleO では Sahara サービスがデフォルトで無効化されましたが、Red Hat OpenStack Platform 9 から Red Hat OpenStack Platform 10 へのアップグレード手順では、Sahara サービスはデフォルトで有効化/維持されます。アップグレード後に Sahara は不要であるとオペレーターが判断した場合には、コントローラーのアップグレードとコンバージステップのコマンドで「-e 'major-upgrade-remove-sahara.yaml'」の環境ファイルを指定する必要があります。この環境ファイルは、特にコンバージのステップで末尾に指定する必要がありますが、混乱を避けるために両方のステップで末尾に指定することができます。このオプションを指定すると、Sahara サービスはメジャーアップグレード後に再起動しなくなります。
この方法により、Sahara サービスは OSP9 から OSP10 へのアップグレード中に適切に処理されます。また現在も、必要な場合には、オペレーターは Sahara を明示的に無効にすることが可能です。
BZ#1389502
今回の更新により、KernelPidMax Heat パラメーターを使用して kernel.pid_max sysctl キーにカスタムの値を指定できるようになりました。デフォルト値は 1048576 です。Cephクライアントとして機能するノードでは、ceph-osd インスタンスの数に応じて多数のスレッドが実行される場合があります。そのような場合には、pid_max が最大値に達して、I/O エラーが発生する原因となる可能性があります。本リリースでは、pid_max キーのデフォルト値が高くなり、KernelPidMax パラメーターを使用したカスタマイズが可能となりました。
BZ#1243483
以前のリリースでは、サーバーのメタデータ取得には Orchestration サービスがポーリングされていたため、Compute への REST API コールが実行されて nova-api に持続的な負荷がかかり、クラウドがスケールアップするに従って悪化していました。 

今回の更新により、サーバーのメタデータには Object Storage サービスがポーリングされるようになったので、Heat スタックをロードするために nova-api に不要なコールは実行しなくなりました。その結果、オーバークラウドのスケールアップに伴うアンダークラウドへの負荷は大幅に軽減されました。
BZ#1315899
以前のリリースでは、director でデプロイされた swift は、Red Hat OpenStack Platform 8 から廃止された非推奨バージョンの ceilometer ミドルウェアを使用していました。今回の更新により、swift プロキシーの設定には python-ceilometermiddleware からの ceilometer ミドルウェアが使用されるようになり、swift プロキシーはサポートされているバージョンの ceilometer ミドルウェアを使用するようになりました。
BZ#1361285
デフォルトで設定される OpenStack Image Storage (glance) のワーカーの数が増え、パフォーマンスが向上しました。この数は、プロセッサーの数に応じて自動的にスケーリングされます。
BZ#1367678
今回の機能拡張により、Red Hat OpenStack Platform director で Open vSwitch (OVS) ファイアウォールドライバーを設定するための新しいパラメーター「NeutronOVSFirewallDriver」が追加されました。
このパラメーターは、neutron OVS エージェントがセキュリティーグループを実装するための新たなメカニズムである「openvswitch」ファイアウォールをサポートしているために追加されました。「NeutronOVSFirewallDriver」によりユーザーは使用する実装を直接制御することができます。
「hybrid」: neutron が以前の iptables/ハイブリッドベースの実装を使用するように設定します。
「openvswitch」: 新たなフローベースの実装を有効にします。 
新しい Open vSwitch (OVS) ファイアウォールドライバーにより、パフォーマンスが向上し、プロジェクトネットワークへの接続に使用するインターフェースとブリッジの数が削減されます。その結果、ユーザーは新たなセキュリティーグループの実装をより簡単に評価することができるようになりました。
BZ#1256850
Telemetry API (ceilometer-api) はイベントレットの代わりに apache-wsgi を使用するようになりました。本リリースにアップグレードする際には、ceilometer-api が適切に移行されます。

今回の変更によりデプロイメントごとのパフォーマンスとスケーリングの調整における柔軟性が向上し、SSL の使用が簡単になりました。
BZ#1303093
今回の更新により、オーバークラウドのデプロイ時に追加の環境ファイルを使用してオーバークラウド内の Object Storage サービス (swift) を無効にすることができます。この環境ファイルには、以下の内容を記載する必要があります。 

resource_registry:
  OS::TripleO::Services::SwiftProxy: OS::Heat::None
  OS::TripleO::Services::SwiftStorage: OS::Heat::None
  OS::TripleO::Services::SwiftRingBuilder: OS::Heat::None

その結果、Object Storage サービスはオーバークラウドで実行されなくなり、オーバークラウドの Identity サービス内の Object Storage サービスのエンドポイントはなくなります。
BZ#1314732
以前のリリースでは、director を使用した Red Hat OpenStack Platform 8 のデプロイ中に Compute で Telemetry サービスは設定されなかったため、OpenStack Integration Test Suite の一部のテストが失敗していました。 

今回の更新により、Compute の設定で OpenStack Telemetry サービスが設定されるようになったので、通知ドライバーは正しく設定され、OpenStack Integration Test Suite のテストが合格するようになりました。
BZ#1316016
以前のリリースでは、Telemetry (ceilometer) の通知は、Image サービス (glance) でメッセージングの設定がなかったことが原因で失敗していました。そのため、glance の通知の処理が失敗していました。今回の更新により、tripleo のテンプレートが変更されて、正しい設定が追加されたため、glance の通知は正しく処理されるようになりました。
BZ#1347371
今回の機能拡張により、RabbitMQ に Queue Master 分散の新たな HA 機能が導入されました。そのストラテジーの 1 つは「min-masters」で、最小数のマスターをホストするノードを選択します。
この機能は、コントローラーの 1 つが利用できなくなる可能性があり、その場合にはキューの宣言中に利用可能なコントローラーに Queue Master が配置されるために追加されました。利用不可だったコントローラーが再度利用可能になると、新たに宣言されたキューのマスターは、キューマスターの数が明らかに低いコントローラーを優先するようには配置されなかったため、分散が不均衡となって、複数のフェイルオーバーが発生した場合にコントローラーにかかる負荷が大幅に高くなる可能性がありました。
そのため、今回の機能拡張でコントローラーのフェイルオーバーの発生後には、キューがコントローラー全体に広げられるようになりました。
BZ#1351271
Red Hat OpenStack Platform director は OpenStack Block Storage (cinder) v3 API エンドポイントを OpenStack Identity (keystone) に作成して、より新しい Cinder API バージョンをサポートするようになりました。
BZ#1364478
今回の更新により、任意のロール上で任意の分離ネットワークを使用できるようになりました。「ceph-osd」が「nova-compute」とコロケーションされているデプロイメントなどの一部のシナリオは、ノードが複数の分離ネットワークにアクセス可能であることを前提としています。カスタムの NIC テンプレートにより、任意のロール上で任意の分離ネットワークを設定することができるようになりました。
BZ#1366721
Telemetry サービス (ceilometer) はデフォルトのメーターディスパッチャーバックエンドに Gnocchi を使用するようになりました。Gnocchi はよりスケーラブルで、Telemetry サービスの今後の方向性により整合しています。
BZ#1368218
今回の更新により、追加の環境ファイルを使用してオーバークラウドをデプロイすることによって、Object Storage サービス (swift) に追加の RAW ディスクを設定できるようになりました。以下に例を示します。

parameter_defaults:
  ExtraConfig:
    SwiftRawDisks:
      sdb:
        byte_size: 2048
        mnt_base_dir: /src/sdb
      sdc:
        byte_size: 2048

その結果、Object Storage サービスはローカルノードの「root」ファイルシステムのみに限定されなくなりました。
BZ#1369426
AODH は MYSQLをデフォルトのデータベースバックエンドとして使用するようになりました。以前のリリースでは、Ceilometer から AODH の移行を容易にする目的で、AODH は MongoDB をデフォルトのバックエンドとして使用していました。
BZ#1373853
以前は、Red Hat OpenStack Platform 9 (mitaka) から Red Hat OpenStack Platform 10 (newton) にアップグレードするための Compute ロールおよび Object Storage ロールのアップグレードスクリプトでエラーが発生して、想定どおりに終了しなかったため、アップグレードが失敗した場合でも、「upgrade-non-controller.sh」スクリプトはコード 0 (success) を返していました。 

今回の更新により、Compute ロールと Object Storage ロールのアップグレードスクリプトはアップグレードプロセス中にエラー終了してアップグレードが失敗した場合には、「upgrade-non-controller.sh」はゼロ以外 (失敗) の値を返すようになりました。
BZ#1379719
コンポーザブルサービスへの移行で、オーバークラウド上で NTP サーバーを設定するのに使用される Hiera データが誤って設定されていました。 

今回の更新では、正しい Hiera データを使用するようになり、オーバークラウドノードで NTP サーバーが設定されるようになりました。
BZ#1385368
コンポーザブルサービスに対応するために、Image サービス (glance) バックエンドとして使用する NFS マウントは Pacemaker によって管理されなくなったため、glance NFS バックエンドパラメーターのインターフェースが変更され、新しいメソッドでは環境ファイルを使用して NFS バックエンドを有効化するようになりました。以下に例を示します。
----
parameter_defaults:
GlanceBackend: file
GlanceNfsEnabled: true
GlanceNfsShare: IP:/some/exported/path
----
注記: GlanceNfsShare の設定はデプロイメントによって異なります。
また、「GlanceNfsOptions」パラメーターを使用してマウントオプションをカスタマイズすることができます。Glance NFS バックエンドを以前 Red Hat OpenStack Platform 9 で使用していた場合には、環境ファイルの内容を更新して、Red Hat OpenStack Platform 10 の書式と一致するようにする必要があります。
BZ#1387390
以前のリリースでは、TCP ポート「16509」が「iptables」でブロックされていました。そのため、コンピュートノード間での「nova」Compute 「libvirt」インスタンスのライブマイグレーションは実行できませんでした。 

今回の更新で、TCP ポート「16509」は「iptables」で開放されるように設定されたので、「nova」Compute「libvirt」インスタンスをコンピュートノード間でライブマイグレーションできるようになりました。
BZ#1389189
以前のリリースでは、ノード上での Hiera データの書き込みと Puppet の実行で競合状態が発生するために、Hiera データが不足して、オーバークラウドノード上で Puppet が失敗する場合がありました。

今回の更新により、プロセスが順番に実行されるようになり、まず最初に Hiera データの書き込みが全ノードで完了してから Puppet が実行されるようになりました。その結果、必要な Hiera データはすべて存在し、Puppet の実行中にエラーが発生しなくなりました。
BZ#1392773
以前は、Red Hat OpenStack Platform 9 (Mitaka) から Red Hat OpenStack Platform 10 (Newton) にアップグレードした後に「ceilometer-compute-agent」はデータ収集に失敗していました。

今回の更新により、「ceilometer-compute-agent」のアップグレード後のプロセスによって問題が修正され、「ceilometer-compute-agent」が正しく再起動して関連データを収集するようになりました。
BZ#1393487
以前のリリースでは、OpenStack Platform director は、OpenStack File Share API (manila-api) をデプロイする際にファイアウォールを更新しませんでした。manila-api サービスをコントローラーから独自のロールに移動した場合には、デフォルトのファイアウォールルールによりエンドポイントがブロックされていました。今回の修正により、オーバークラウドの Heat テンプレートコレクションで manila-api のファイアウォールルールが更新され、manila-api がコントローラーノードとは別のロールにある場合でもエンドポイントに到達できるようになりました。
BZ#1382579
以前のリリースでは、director は cloudformation (heat-cfn) エンドポイントを「regionOne」ではなく「RegionOne」に設定していました。このため、UI が異なるサービスで 2 つのリージョンを表示していました。今回の修正により、エンドポイントは「regionOne」を使用するように設定され、UI では全サービスが同じ 1 つのリージョンに表示されるようになりました。

openstack-tripleo-ui

BZ#1353796
今回の更新で、UI を使用してノードを追加できるようになりました。

os-collect-config

BZ#1306140
今回の更新の以前は、「os-collect-config」に対する設定の HTTP 要求では、要求のタイムアウトが指定されていませんでした。そのため、アンダークラウドがアクセスできない間 (例: アンダークラウドのリブート、ネットワーク接続の問題など) には、「os-collect-config」が停止して、ポーリングや設定は一切実行されませんでした。多くの場合、この状態は、オーバークラウドスタックの操作が実行されてソフトウェアの設定がタイムアウトにならなければ判明しませんでした。
今回の更新により、「os-collect-config」HTTP 要求では常にタイムアウトが指定されるようになりました。
その結果、アンダークラウドが利用できない場合にはポーリングが失敗し、利用できるようになるとポーリングが再開するようになりました。

os-net-config

BZ#1391031
今回の更新の以前は、Open vSwitch と neutron 間の統合の改善が原因で、再起動後の接続の再開で問題が発生して、ノードに到達できなくなったり、接続性が低減したりする場合がありました。
今回の更新により、「os-net-config」はデフォルトで「fail_mode=standalone」を設定して、制御するエージェントが起動していない場合にネットワークトラフィックを許可するようになりました。その結果、再起動時の接続の問題は解決しました。

puppet-ceph

BZ#1372804
Ceph Storage ノードは、「ext4」でフォーマットされたローカルのファイルシステムを「ceph-osd」サービスのバックエンドとして使用していました。

注記: Red Hat OpenStack Platform 9 (Mitaka) の「overcloud-full」イメージの一部は「xfs」の代わりに「ext4」を使用して作成されていました。

Jewel リリースでは「ceph-osd」が、バックエンドで許可されているファイル名の最大長を確認して、Ceph 自体で設定されている上限よりも低い場合には拒否します。回避策として、Ceph Storage ノードにログインして以下のコマンドを実行すると、「ceph-osd」に使用中のファイルシステムを確認することができます。

# df -l --output=fstype /var/lib/ceph/osd/ceph-$ID

ここで $ID は OSD ID です。以下に例を示します。 

# df -l --output=fstype /var/lib/ceph/osd/ceph-0

注記: 単一の Ceph Storage ノードは、複数の「ceph-osd」インスタンスをホストしている可能性があり、その場合には、複数のサブディレクトリーが各インスタンスの「/var/lib/ceph/osd/」に存在することになります。

OSD インスタンスの*いずれか*が「ext4」ファイルシステムでバッキングされている場合には、Ceph が短いファイル名を使用するように設定する必要があります。これは、以下の内容を記載した追加の環境ファイルをデプロイ/アップグレードすることによって設定することができます。

parameter_defaults:
  ExtraConfig:
    ceph::profile::params::osd_max_object_name_len: 256
    ceph::profile::params::osd_max_object_namespace_len: 64

その結果、Red Hat OpenStack Platform 9 から Red Hat OpenStack Platform 10 へのアップグレード後に、各「ceph-osd」インスタンスが稼働しているかどうかを確認できるようになります。
BZ#1346401
「ceph-osd」インスタンスを SELinux ポリシーで制限できるようになりました。OSP 10 では、新規デプロイでは、Ceph Storage ノード上で SELinux が「enforcing」モードで設定されるようになりました。
BZ#1370439
以前のリリースでは、新規オーバークラウドで以前のクラスターの Ceph ノードを再利用すると、オーバークラウドのデプロイメントプロセス中に新しい Ceph クラスターでメッセージを表示せずにエラーが発生していました。これは、古い Ceph OSD ノードのディスクを再利用する前にクリーニングする必要があるためでした。今回の修正により、Ceph OpenStack Puppet モジュールにチェックが追加され、 OpenStack Platform のドキュメント [1] に記載されているとおりにディスクがクリーンな状態であることを確認するようになり、クリーンでない OSD ディスクが検出された場合には、オーバークラウドのデプロイメントプロセスが適切に失敗するようになりました。「openstack stack failures list overcloud」コマンドを実行すると、FSID が一致しないディスクが表示されます。 
[1] https://access.redhat.com/documentation/en/red-hat-openstack-platform/10/single/red-hat-ceph-storage-for-the-overcloud/#Formatting_Ceph_Storage_Nodes_Disks_to_GPT

puppet-cinder

BZ#1356683
以前のリリースでは、ループデバイスの設定と Block Storage ノード上に LVM 物理ボリュームが存在するかどうかの確認で競合状態が発生していました。このため、Puppet は既存の LVM 物理ボリュームの検出に失敗してそのボリュームの再作成を試みるためにメジャーアップグレードのコンバージェンスステップが失敗していました。今回の修正により、ループデバイスの設定後には udev イベントの完了を待つようになり、Puppet はループデバイスの設定が完了してから既存の LVM 物理デバイスがあるかどうかの確認を試みるようになりました。LVM バックエンドを使用する Block Storage ノードは、正常にアップグレードされるようになりました。

puppet-heat

BZ#1381561
OpenStack Platform director は、OpenStack Orchestration (heat) の YAQL 表現を使用するためにデフォルトのメモリー上限を超えていました。このため、「Expression consumed too much memory」というエラーがオーバークラウドのデプロイメント中に表示され、その後にデプロイメントが失敗していました。今回の修正により、director のデフォルトのメモリー上限が増やされて、オーバークラウドのデプロイではエラーが発生しないようになりました。

puppet-ironic

BZ#1314665
ironic-inspector サーバーには、UEFI ブートローダーで機能する iPXE バージョンがありませんでした。UEFI ブートローダーを使用するマシンは、イントロスペクション ramdisk をチェーンロードできませんでした。今回の修正により、ipxe.efi ROM が  ironic-inspector サーバー上に存在するようになり、dnsmasq 設定を更新して、イントロスペクション中に UEFI ベースのマシンに送信するようになったので、director は BIOS および UEFI マシンの両方を検査することができます。

puppet-tripleo

BZ#1386611
rabbitmqctl は、パラメーターが不足していたため、IPv6 環境で機能しませんでした。今回の修正により、RabbitMQ Puppet の設定が変更されて、不足していたパラメーターが /etc/rabbitmq/rabbitmq-env.conf に追加されたので、rabbitmqctl は IPv6 環境で正常に機能するようになりました。
BZ#1389413
今回の更新の以前は、エラーの発生したノードがサービスから削除される前に HAProxy が MySQL をチェックするため、タイムアウトが長くなり (16 秒)、エラーの発生した My SQL ノードに接続された OpenStack のサービスがユーザー/オペレーター/ツールに対して API エラーを返す場合がありました。
今回の更新により、このチェック間隔の設定が短くなり、エラーの発生した MySQL ノードは、そのエラーから 6 秒以内にドロップされるようになりました。OpenStack のサービスが稼働中の MySQL ノードにフェイルオーバーする速度がはるかに早くなり、コンシューマーに対して API エラーが表示されることは少なくなりました。
BZ#1262070
director を使用して Ceph RBD を Block Storage バックアップターゲットとして設定できるようになりました。これにより、ボリュームを Ceph ターゲットにバックアップするように設定してオーバークラウドをデプロイすることができます。デフォルトでは、ボリュームのバックアップは「backups」という名前の Ceph プールに保管されます。

バックアップの設定は、以下の環境ファイル (アンダークラウド上) で設定されます。

/usr/share/openstack-tripleo-heat-templates/environments/cinder-backup.yaml
BZ#1378391
以前のリリースでは、Pacemaker で Redis と RabbitMQ の両方の開始および停止のタイムアウトが 120s に設定されていました。一部の環境では、この設定は十分でなかったため、再起動が失敗していました。今回の修正により、タイムアウトは 200s に延長され、他の systemd リソースと同じになりました。大半の環境で Redis と RabbitMQ が再起動するための時間が十分となりました。
BZ#1279554
RBD バックエンドドライバー (Ceph Storage) を OpenStack Compute (nova) の一時ディスクにすると、以下の 2 つの追加設定を libvirt に適用します。

hw_disk_discard : unmap
disk_cachemodes : network=writeback

これにより、Ceph プール上の未使用ブロックを再利用し、ネットワークの書き込みをキャッシュすることができるので、RBD ドライバーを使用する OpenStack Compute 一時ディスクのパフォーマンスが向上します。

http://docs.ceph.com/docs/master/rbd/rbd-openstack/ も参照してください。

python-cotyledon

BZ#1374690
以前のリリースでは、旧バージョンの「cotyledon」のバグが原因で「metricsd」が適切に起動せずにトレースバックをスローしていました。
今回の更新にはより新しい 1.2.7-2 の「cotyledon」パッケージが含まれているので、トレースバックは発生せずに、「metricsd」は正しく起動するようになりました。

python-django-horizon

BZ#1198602
今回の機能拡張により「admin」ユーザーは管理コンソールを使用してインスタンスに割り当てられている Floating IP の一覧を確認できるようになりました。この一覧はデプロイメント内の全プロジェクトを対象とします。 
以前のリリースでは、この情報はコマンドラインでのみ取得可能でした。
BZ#1328830
今回の更新で複数のテーマ設定がサポートされるようになりました。これは、ユーザーがフロントエンドを使用してテーマを動的に変更できるようにするために追加されました。一部のユースケースには、明るいテーマと暗いテーマを切り替える機能や、アクセシビリティー上の理由から高コントラストを有効にする機能などが含まれます。
その結果、ユーザーは実行時にテーマを選択することができます。

python-django-openstack-auth

BZ#1287586
今回の機能拡張により、ドメインスコープのトークンを Dashboard (horizon) のログインに使用することができるようになりました。
この機能は、ドメインスコープのトークンを必要とする、よりリッチなロールセットを使用する場合に keystone v3 の認証管理を完全にサポートするために追加されました。django_openstack_auth はこのタイプのセッション用トークンの取得と維持をサポートする必要があります。
その結果、horizon は Red Hat OpenStack Platform 9 以降のバージョンでドメインスコープのトークンをサポートしています。

python-gnocchiclient

BZ#1346370
今回の更新により、リソースタイプをサポートする OpenStack Telemetry Metrics (gnocchi) が提供されるようになりました。

python-ironic-lib

BZ#1381511
OpenStack Bare Metal Provisioning サービス (ironic) は、追加のプライマリーパーティションとしてコンフィグドライブを作成して、新規ノードにユーザーデータを提供します。これには、ノードのディスク上に未使用のプライマリーパーティションが必要ですが、以前のリリースではバグが原因で OpenStack Bare Metal Provisioning サービスはプライマリーパーティションと拡張パーティションを区別できなかったため、パーティションカウントでは、コンフィグドライブに利用可能な空きパーティションがないものと報告されていました。今回の更新でプライマリーパーティションと拡張パーティションが区別されるようになり、デプロイメントはエラーが発生することなく正常に完了するようになりました。
BZ#1387148
OpenStack Bare Metal Provisioning サービス (ironic) では、ディスクイメージ全体に対するコンフィグドライブ実装で解析エラーがあったため、デプロイメントが失敗していました。今回の更新により、コンフィグドライブ実装で返される値の解析が正しく修正され、コンフィグドライブを使用してディスクイメージ全体をデプロイできるようになりました。

python-tripleoclient

BZ#1364220
OpenStack Dashboard (horizon) は、OpenStack Identity (keystone) のエンドポイント作成に director が使用するサービスのリストに誤って含まれていました。オーバークラウドのデプロイ時には、誤解を招く恐れのある「Skipping "horizon" postconfig」というメッセージが表示されていました。今回の修正により、keystone に追加されるサービスリストエンドポイントから horizon が削除され、「skipping postconfig」のメッセージはデバッグモードのみで表示されるように変更されたので、紛らわしい「Skipping "horizon" postconfig」というメッセージは表示されなくなりました。
BZ#1383930
DHCP HA を使用する場合には、コンポーザブルロールを使用して、「NeutronDhcpAgentsPerNetwork」の値を dhcp-agent 数に等しい値または 3 のいずれか低い方に設定すべきです。このように設定しなかった場合には、この値はデフォルトで「ControllerCount」に設定され、各ネットワークで多数の DHCP サーバーの起動に対応するために dhcp-agent 数が十分でない場合があるために最適ではありません。
BZ#1384246
ノードの削除の関数は、Heat の「parameter_defaults」ではなく「parameters」を使用していたため、Heat が意図せずにノードを再デプロイしてしまうなど、一部のリソースが再デプロイされていました。今回の修正により、ノードの削除の関数には「parameter_defaults」のみが使用されるようになり、Heat のリソースは正しく保持されるようになり、再デプロイされなくなりました。

python-twisted

BZ#1394150
python-twisted パッケージは Red Hat OpenStack Platform 10 アンダークラウドインストールの一部としてのインストールで失敗していました。これは、パッケージの「Obsoletes」が存在しなかったことが原因でした。今回の修正により、パッケージが変更され「Obsoletes」一覧が追加されたので、python-twisted パッケージのインストール中に古いパッケージは削除され、更新とクリーンアップがシームレスに提供されるようになりました。

手動の回避策としては、Red Hat Enterprise Linux 7.3 Optional リポジトリーからは python-twisted-* パッケージ (例: python-twisted-core) は一切インストールしないようにします。アンダークラウドにこれらの古いパッケージが含まれている場合には、以下のコマンドで削除します。

$ yum erase python-twisted-*

rabbitmq-server

BZ#1357522
RabbitMQ はポート 35672 にバインディングしていましたが、ポート 35672 は一時的なポートの範囲内にあるので、他のサービスが同じポートを開くことが可能でした。その場合には RabbitMQ は起動に失敗してしまう可能性がありました。今回の修正により、RabbitMQ のポートは一時的なポートの範囲外にある 25672 に変更されたので、他のサービスが同じポートをリッスンすることはなくなり、RabbitMQ は正常に起動するようになりました。

rhosp-release

BZ#1317669
今回の更新には、OSP director を使用してデプロイされたオーバークラウドのバージョンを特定するためのリリースファイルが含まれるようになりました。この情報により、インストール済みのバージョンが明確にわかるので、デバッグに役立ちます。overcloud-full イメージには新規パッケージ (rhosp-release) が含まれています。旧バージョンからアップグレードする場合にもこの RPM がインストールされます。リリースファイルは、OSP 10 以降の全バージョンに含まれます。これは Red Hat OpenStack Platform director ベースのインストールにのみ適用されますが、ユーザーは rhosp-release パッケージを手動でインストールすると同じ結果を得ることができます。

sahara-image-elements

BZ#1371649
今回の機能拡張により、「sahara-image-element」上のメインスクリプトが更新され、プラグインによってサポートされているイメージのみの作成ができるようになりました。たとえば、以下のコマンドを実行して、Red Hat Enterprise Linux 7 を使用する CDH 5.7 イメージを作成することができます。
----
>> ./diskimage-create/diskimage-create.sh -p cloudera -v 5.7

Usage: diskimage-create.sh
       [-p cloudera|mapr|ambari]
       [-v 5.5|5.7|2.3|2.4]
       [-r 5.1.0]
----

法律上の通知

Copyright © 2016 Red Hat, Inc.
This document is licensed by Red Hat under the Creative Commons Attribution-ShareAlike 3.0 Unported License. If you distribute this document, or a modified version of it, you must provide attribution to Red Hat, Inc. and provide a link to the original. If the document is modified, all Red Hat trademarks must be removed.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat Software Collections is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.