8.4. コンピュートノードのインストール
8.4.1. Compute Service データベースの作成
以下の手順では、Compute Service が使用するデータベースとデータベースユーザーを作成します。これらのステップは、データベースサーバーに
root ユーザーとしてログインして実行する必要があります。
手順8.5 Compute Service データベースの作成
mysqlコマンドでデータベースに接続します。#mysql -u root -pnovaデータベースを作成します。mysql>CREATE DATABASE nova;novaデータベースユーザーを作成し、novaデータベースへのアクセスを許可します。mysql>GRANT ALL ON nova.* TO 'nova'@'%' IDENTIFIED BY 'PASSWORD';mysql>GRANT ALL ON nova.* TO 'nova'@'localhost' IDENTIFIED BY 'PASSWORD';PASSWORD は、このユーザーとしてデータベースサーバーとの認証を行う際に使用するセキュアなパスワードに置き換えます。- データベースの特権をフラッシュして、設定が即時に反映されるようにします。
mysql>FLUSH PRIVILEGES; mysqlクライアントを終了します。mysql>quit
Compute データベースが作成されました。このデータベースには、サービスの設定中にデータが投入されます。
8.4.2. Compute Service の認証の設定
本項では、Compute Service が必要とする Identity Service レコードの作成および設定の手順について説明します。
servicesテナントにadminロールのあるcomputeユーザーを作成します。computeサービスエントリを作成し、エンドポイントを割り当てます。
これらのエントリは、Compute Service によって提供される機能を検索してアクセスを試みる他の OpenStack サービスを補助します。続行するには、(Identity Service を介して) 以下の作業が完了している必要があります。
adminという名前の管理者ロールの作成 (手順は「管理者アカウントの作成」を参照してください)servicesテナントの作成 (手順は「サービステナントの作成」を参照してください)
注記
OpenStack のデプロイメント: 実習環境ガイドでは、すべてのサービスユーザーに単一のテナントを使用しています。詳しい情報は、「サービステナントの作成」を参照してください。
以下の手順は、お使いの Identity Service ホストまたは
keystonerc_admin ファイル (管理者の認証情報が含まれている) をコピーして keystone コマンドラインユーティリティをインストールした任意のマシンで実行することができます。
手順8.6 Compute Service が Identity Service を使用して認証を行うための設定
keystonerc_adminファイルには、必要なユーザー名とパスワードの情報が格納されています。このファイルをソースに指定して、その後の CLI コマンドで事前定義済みのログイン情報を使用できるようにします。#source ~/keystonerc_admin- OpenStack Compute Service で使用するために
computeという名前のユーザーを作成します。#keystone user-create --name compute --pass PASSWORD+----------+----------------------------------+ | Property | Value | +----------+----------------------------------+ | email | | | enabled | True | | id | 96cd855e5bfe471ce4066794bbafb615 | | name | compute | | tenantId | | +----------+----------------------------------+PASSWORD は、Compute Service が Identity Service との認証を行う際に使用するセキュアなパスワードに置き換えます。 keystone user-role-addコマンドでcomputeユーザー、adminロール、およびservicesテナントをリンクします。#keystone user-role-add --user compute --role admin --tenant servicescomputeサービスエントリを作成します。#keystone service-create --name compute \--type compute \--description "OpenStack Compute Service"+-------------+----------------------------------+ | Property | Value | +-------------+----------------------------------+ | description | OpenStack Compute Service | | id | 8dea97f5ee254b309c1792d2bd821e59 | | name | compute | | type | compute | +-------------+----------------------------------+computeエンドポイントエントリを作成します。#keystone endpoint-create \--service compute--publicurl "http://IP:8774/v2/\$(tenant_id)s" \--adminurl "http://IP:8774/v2/\$(tenant_id)s" \--internalurl "http://IP:8774/v2/\$(tenant_id)s"IP は、コンピュートノードとして機能するシステムの IP アドレスまたはホスト名に置き換えます。
OpenStack Compute Service が必要とする、Identity Service の補助エントリがすべて作成されました。
8.4.3. Compute Service パッケージのインストール
OpenStack Compute Services は、以下のパッケージによって提供されます。
- openstack-nova-api
- OpenStack Compute API サービスを提供します。環境内で少なくとも 1 台のノード API サービスのインスタンスをホストしている必要があります。これは、Identity Service のエンドポイントの定義によって、Compute Service にポイントされているノードである必要があります。
- openstack-nova-compute
- OpenStack Compute Service を提供します。
- openstack-nova-conductor
- Compute コンダクターサービスを提供します。コンダクターは、コンピュートノードによって作成されるデータベース要求を処理し、各コンピュートノードがデータベースに直接アクセスする必要がないようにします。各環境で少なくとも 1 台のノードが Compute のコンダクターとして機能する必要があります。
- openstack-nova-scheduler
- Compute のスケジューラーサービスを提供します。スケジューラーは利用可能な Compute リソース全体にわたり、API に対する要求のスケジューリングを処理します。各環境で、少なくとも 1 台のノードが Compute スケジューラーとして稼働する必要があります。
- python-cinderclient
- OpenStack Block Storage Service によって管理されるストレージにアクセスするためのクライアントユーティリティを提供します。インスタンスに Block Storage ボリュームを接続しない場合や、OpenStack Block Storage Service 以外のサービスを使用して Block Storage ボリュームを管理する場合には、このパッケージは、必要ありません。
上記のパッケージをインストールするには、
root ユーザーとしてログインして次のコマンドを実行します。
#yum install -y openstack-nova-api openstack-nova-compute \openstack-nova-conductor openstack-nova-scheduler \python-cinderclient
注記
上記に示したコマンドでは、すべての Compute Service のパッケージが単一のノードにインストールされます。実稼働環境にデプロイする場合は、API、コンダクター、スケジューラーのサービスを 1 つのコントローラーノードにインストールするか、それぞれを別々のノードにインストールすることを推奨します。Compute Service 自体は、仮想マシンインスタンスをホストする各ノードにインストールする必要があります。
Compute Service のパッケージがインストールされました。
8.4.4. Compute Service が SSL を使用するための設定
nova.conf ファイルで、以下のオプションを使用して SSL を設定します。
表8.3 Compute の SSL オプション
| 設定オプション | 説明 |
|---|---|
enabled_ssl_apis
|
SSL を有効にする API の一覧
|
ssl_ca_file
|
クライアントの接続を検証するのに使用する CA 証明書ファイル
|
ssl_cert_file
|
API サーバーの SSL 証明書
|
ssl_key_file
|
API サーバーの SSL 秘密鍵
|
tcp_keepidle
|
サーバーソケットごとに TCP_KEEPIDLE の値を秒単位で設定します。デフォルトでは 600 に設定されます。
|
8.4.5. Compute Service の設定
8.4.5.1. Compute Service の認証の設定
Compute Service は、認証に Idenitity Service を使用するように明示的に設定する必要があります。以下の手順に記載するステップに従って、この設定を行ってください。
以下の手順に記載するステップはすべて、Compute Service をホストする各システムに
root ユーザーとしてログインして実行する必要があります。
手順8.7 Compute Service が Identity Service を使用して認証を行うための設定
openstack-configコマンドで、認証ストラテジー (auth_strategy) 設定キーをkeystoneに設定します。#openstack-config --set /etc/nova/nova.conf \DEFAULT auth_strategy keystone- 認証ホスト (
auth_host) 設定キーを Identity サーバーの IP アドレスまたはホスト名に設定します。#openstack-config --set /etc/nova/api-paste.ini \filter:authtoken auth_host IPIP は、Identity サーバーの IP アドレスまたはホスト名に置き換えます。 - 管理テナント名 (
admin_tenant_name) 設定キーを Compute Service が使用するために作成されたテナントの名前に設定します。本ガイドでは、例に services を使用しています。#openstack-config --set /etc/nova/api-paste.ini \filter:authtoken admin_tenant_name services - 管理ユーザー名 (
admin_user) 設定キーを Compute Service で使用するために作成されたユーザーの名前に設定します。本ガイドでは、例に compute を使用しています。#openstack-config --set /etc/nova/api-paste.ini \filter:authtoken admin_user compute - 管理者パスワード (
admin_password) 設定キーを上記のステップで指定したユーザーに関連付けられたパスワードに設定します。#openstack-config --set /etc/nova/api-paste.ini \filter:authtoken admin_password PASSWORD
Compute Service が使用する認証キーが設定され、サービスの起動時に適用されます。
8.4.5.2. Compute Service のデータベース接続の設定
Compute Service によって使用されるデータベース接続文字列は、
/etc/nova/nova.conf ファイルで定義されます。サービスを起動する前に、有効なデータベースサーバーをポイントするように更新しておく必要があります。
データベース接続文字列は、コンダクターサービス (
openstack-nova-conductor) をホストするノードのみで設定する必要があります。コンピュートノードがメッセージングインフラストラクチャーを使用してコンダクターに通信すると、コンダクターはそれに応えてデータベースとの通信をオーケストレートするので、個別のコンピュートノードは、データベースに直接アクセスする必要がありません。以下の手順は、コンダクターサービスをホストするノードで実行してください。どのようなコンピュート環境においても、コンダクターサービスのインスタンスが少なくとも 1 つ必要です。
以下の手順に記載するステップはすべて、Compute Service をホストするサーバーに
root ユーザーとしてログインして実行する必要があります。
手順8.8 Compute Service の SQL データベース接続の設定
openstack-configコマンドを使用して、sql_connection設定キーの値を設定します。#openstack-config --set /etc/nova/nova.conf \DEFAULT sql_connection mysql://USER:PASS@IP/DB以下を置き換えます。- USER: Compute Service が使用するデータベースユーザー名(通常は
nova) - PASS: 選択したデータベースユーザーのパスワード
- IP: データベースサーバーの IP アドレスまたはホスト名
- DB: コンピュートが使用するために作成されたデータベースの名前 (通常は
nova)
重要
この接続設定キーに指定する IP アドレスまたはホスト名は、nova データベースの作成時に nova データベースユーザーがアクセスを許可された IP アドレスまたはホスト名と一致する必要があります。また、データベースがローカルでホストされ、nova データベースの作成時に「localhost」へのアクセス権を付与した場合には、「localost」と入力する必要があります。
データベース接続文字列が設定されて、Compute Service で使用されます。
8.4.5.3. Compute Service のための RabbitMQ メッセージブローカーの設定
Red Hat Enterprise Linux OpenStack Platform 5 では、RabbitMQ が QPid に代わるデフォルト (かつ推奨) のメッセージブローカーとなりました。RabbitMQ メッセージングサービスは、rabbitmq-server パッケージにより提供されます。
本項は、RabbitMQ メッセージブローカーの設定がすでに済んでいることを前提としています。詳しくは、以下のトピックを参照してください。
手順8.9 Compute Service が RabbitMQ メッセージブローカーを使用するための設定
- Compute コントローラーノードに
rootでログインします。 - そのシステムの
/etc/nova/nova.confで RabbitMQ を RPC バックエンドとして設定します。#openstack-config --set /etc/nova/nova.conf \DEFAULT rpc_backend rabbit - Compute Service が RabbitMQ ホストに接続するように設定します。
#openstack-config --set /etc/nova/nova.conf \DEFAULT rabbit_host RABBITMQ_HOSTRABBITMQ_HOST は、メッセージブローカーの IP アドレスまたはホスト名に置き換えます。 - メッセージブローカーのポートを
5672に設定します。#openstack-config --set /etc/nova/nova.conf \DEFAULT rabbit_port 5672 - Compute Service 用に作成した RabbitMQ ユーザー名とパスワードを設定します。
#openstack-config --set /etc/nova/nova.conf \DEFAULT rabbit_userid nova#openstack-config --set /etc/nova/nova.conf \DEFAULT rabbit_password NOVA_PASSnovaおよび NOVA_PASS は、「RabbitMQ メッセージブローカーのインストールと設定」の手順で Compute 用に作成した RabbitMQ のユーザー名とパスワードに置き換えます。
8.4.5.4. リソースのオーバーコミットの設定
OpenStack は、コンピュートノード上における CPU およびメモリーリソースのオーバーコミットをサポートしています。オーバーコミットとは、物理リソースを上回る量の仮想 CPU やメモリーを割り当てるテクニックです。
重要
オーバーコミットにより、実行できるインスタンスの数が増えますが、インスタンスのパフォーマンスは低下します。
CPU およびメモリーのオーバーコミット設定は比率で表示されます。OpenStack は、デフォルトで以下のような比率を使用します。
- デフォルトの CPU オーバーコミット率: 16
- デフォルトのメモリーオーバーコミット率: 1.5
これらのデフォルト設定には、次のような意味があります。
- デフォルトの CPU オーバーコミット率 16 とは、物理コア 1 つにつき 最大 16 の仮想コアをノードに割り当てることができるという意味です。
- デフォルトのオーバーコミット率 1.5 とは、インスタンスのメモリー使用量合計が、物理メモリーの空き容量の 1.5 倍未満の場合には、インスタンスを物理ノードに割り当てることができるという意味です。
デフォルト設定を変更するには、
/etc/nova/nova.conf の cpu_allocation_ratio および ram_allocation_ratio のディレクティブを使用してください。
8.4.5.5. ホストのリソースの確保
ホストのメモリーおよびディスクリソースが常に OpenStack で使用できるように確保することができます。一定の容量のメモリーやディスクリソースが仮想マシンでの使用に提供可能と見なされないようにするには、
/etc/nova/nova.conf で以下のディレクティブを編集します。
reserved_host_memory_mb: デフォルト値は 512 MBreserved_host_disk_mb: デフォルト値は 0 MB
8.4.5.6. Compute ネットワークの設定
8.4.5.6.1. Compute ネットワークの概要
Nova のみのデプロイメントとは異なり、OpenStack Networking を使用している場合には、
nova-network サービスは実行してはなりません。その代わりに、ネットワーク関連の決定事項はすべて OpenStack Networking Service に委任されます。
このため、ネットワークの設定時には、Nova ネットワークについてのマニュアルや Nova ネットワークでの過去の経験に頼るのではなく、本ガイドを参照していただくことが非常に重要となります。特に、
nova-manage や nova などの CLI ツールを使用したネットワークの管理や IP アドレス指定 (固定 IP および Floating IP の両方を含む) は、OpenStack Networking ではサポートされていません。
重要
物理ノードを使用して OpenStack Network を稼働する前には、
nova-network をアンインストールして、nova-network を実行していた物理ノードを再起動することを強く推奨します。OpenStack Networking Service の使用中に間違えて nova-network プロセスを実行すると、たとえば、以前に実行していた nova-network により古い ファイアウォールルールがプッシュダウンされる可能性があり、問題が発生する場合があります。
8.4.5.6.2. Compute の設定の更新
Compute のインスタンスがプロビジョニングまたはプロビジョニング解除されるたびに、サービスは API を介して OpenStack Networking と通信します。この接続を円滑化するには、以下の手順に記載する接続および認証の説明に従って設定を行う必要があります。
以下のステップは、各コンピュートノードに
root ユーザーとしてログインして実行する必要があります。
手順8.10 Compute ノードの接続および認証の設定の更新
network_api_class設定キーを変更して、OpenStack Networking Service が使用中であることを示します。#openstack-config --set /etc/nova/nova.conf \DEFAULT network_api_class nova.network.neutronv2.api.APIneutron_url設定キーの値は、ネットワーク API のエンドポイントをポイントするように設定します。#openstack-config --set /etc/nova/nova.conf \DEFAULT neutron_url http://IP:9696/IP は、OpenStack Networking Service の API をホストするサーバーの IP アドレスまたはホスト名に置き換えます。neutron_admin_tenant_name設定キーの値は、OpenStack Networking Service が使用するテナント名に設定します。本ガイドの例では、services を使用しています。#openstack-config --set /etc/nova/nova.conf \DEFAULT neutron_admin_tenant_name servicesneutron_admin_username設定キーの値は、OpenStack Networking Service の管理ユーザー名に設定します。本ガイドの例では、neutron を使用しています。#openstack-config --set /etc/nova/nova.conf \DEFAULT neutron_admin_username neutronneutron_admin_password設定キーの値は、Networking Service の管理ユーザーに関連付けられたパスワードに設定します。#openstack-config --set /etc/nova/nova.conf \DEFAULT neutron_admin_password PASSWORDneutron_admin_auth_url設定キーの値は、Identity Service エンドポイントに関連付けられた URL に設定します。#openstack-config --set /etc/nova/nova.conf \DEFAULT neutron_admin_auth_url http://IP:35357/v2.0IP は、Identity Service エンドポイントの IP アドレスまたはホスト名に置き換えます。security_group_api設定キーをneutronに設定します。#openstack-config --set /etc/nova/nova.conf \DEFAULT security_group_api neutronこれにより、OpenStack Networking セキュリティグループの使用が有効になります。firewall_driver設定キーの値は、nova.virt.firewall.NoopFirewallDriverに設定します。#openstack-config --set /etc/nova/nova.conf \DEFAULT firewall_driver nova.virt.firewall.NoopFirewallDriverこの操作は、OpenStack Networking セキュリティグループが使用中の状態で実行する必要があります。
設定が更新されました。次回の起動時には、Compute Service が OpenStack Networking の使用を開始します。
8.4.5.6.3. L2 エージェントの設定
各コンピュートノードは、使用中のネットワークプラグインに適したレイヤー 2 (L2) エージェントのインスタンスを実行する必要があります。
8.4.5.6.4. 仮想インターフェース結線の設定
nova-compute がインスタンスを作成する時には、そのインスタンスに関連付ける各 vNIC を、OpenStack Networking によって制御される仮想スイッチに「結線」する必要があります。また Compute が、各 vNIC に関連付けられた OpenStack Networking ポートの識別子を仮想スイッチに通知する必要があります。
Red Hat Enterprise Linux OpenStack Platform では、仮想インターフェースの汎用ドライバー
nova.virt.libvirt.vif.LibvirtGenericVIFDriver が提供されます。このドライバーは、必要な仮想インターフェースバインディングの種別を返すことが可能な OpenStack Networking に依存しています。この操作は、以下のプラグインによってサポートされています。
- Linux Bridge
- Open vSwitch
- NEC
- BigSwitch
- CloudBase Hyper-V
- Brocade
汎用ドライバーを使用するには、
openstack-config コマンドを実行して vif_driver 設定キーの値を適切に設定します。
#openstack-config --set /etc/nova/nova.conf \libvirt vif_driver \nova.virt.libvirt.vif.LibvirtGenericVIFDriver
重要
使用するプラグインによって、以下の点に注意する必要があります。
- セキュリティグループを有効にした状態で Open vSwitch を使用している場合には、汎用ドライバーではなく、Open vSwitch 固有のドライバー
nova.virt.libvirt.vif.LibvirtHybridOVSBridgeDriverを使用してください。 - Linux Bridge を使用する場合には、
/etc/libvirt/qemu.confファイルに以下の内容を追記して、仮想マシンが適切に起動するようにする必要があります。user = "root" group = "root" cgroup_device_acl = [ "/dev/null", "/dev/full", "/dev/zero", "/dev/random", "/dev/urandom", "/dev/ptmx", "/dev/kvm", "/dev/kqemu", "/dev/rtc", "/dev/hpet", "/dev/net/tun", ]
8.4.5.7. Compute Service のトラフィックを許可するためのファイアウォール設定
仮想マシンコンソールへの接続は、直接またはプロキシ経由に関わらず、
5900 から 5999 までのポートで受信されます。
この接続を可能にするには、サービスノード上のファイアウォールを設定して、これらのポートでネットワークトラフィックを許可する必要があります。Compute Service をホストしているサーバーに
root ユーザーとしてログインし、以下の手順を実行してください。
手順8.11 Compute Service のトラフィックを許可するためのファイアウォール設定 (Red Hat Enterprise Linux 6 ベースのシステムの場合)
- テキストエディターで
/etc/sysconfig/iptablesファイルを開きます。 - ファイルに以下の行を追記して、
5900から5999までの範囲内のポートで TCP トラフィックを許可する INPUT ルールを追加します。-A INPUT -p tcp -m multiport --dports 5900:5999 -j ACCEPT
新規ルールは、トラフィックを REJECT する INPUT ルールよりも前に記載する必要があります。 /etc/sysconfig/iptablesファイルへの変更を保存します。iptablesサービスを再起動して、変更を有効にします。#service iptables restart
手順8.12 Compute Service のトラフィックを許可するためのファイアウォール設定 (Red Hat Enterprise Linux 7 ベースのシステムの場合)
- ポート
5900から5999の範囲で TCP トラフィックを許可するルールを追加します。#firewall-cmd --permanent --add-port=5900-5999/tcp - 変更を即時に有効にするには、ランタイムモードにルールを追加します。
#firewall-cmd --add-port=5900-5999/tcp
Compute Service への受信接続を許可するためのファイアウォール設定が完了しました。コンピュートノードごとにこの手順を繰り返してください。
8.4.6. Compute Service データベースへのデータ投入
Compute Service データベース接続文字列を適切に設定した後には、Compute Service データベースにデータを投入することができます (「Compute Service のデータベース接続の設定」->を参照)。
重要
この手順は、データベースの初期化とデータ投入するために、1 回のみ実行する必要があります。Compute Service をホストするシステムの追加時には繰り返す必要はありません。
手順8.13 Compute Service データベースへのデータ投入
openstack-nova-conductorサービスのインスタンスをホストしているシステムにログインします。suコマンドでnovaユーザーに切り替えます。#su nova -s /bin/shnova-manage db syncコマンドを実行して、/etc/nova/nova.confで特定されているデータベースを初期化し、データを投入します。$nova-manage db sync
Compute Service データベースの初期化とデータ投入が完了しました。
8.4.7. Compute Services の起動
手順8.14 Compute Services の起動
メッセージバスサービスの起動
Libvirt には、messagebusを有効化して実行する必要があります。serviceコマンドでmessagebusサービスを起動します。#service messagebus startchkconfigコマンドでmessagebusサービスを永続的に有効にします。#chkconfig messagebus on
Libvirtd サービスを起動します。
Compute Service には、libvirtdサービスを有効化して実行する必要があります。serviceコマンドでlibvirtdサービスを起動します。#service libvirtd startchkconfigコマンドでlibvirtdサービスを永続的に有効にします。#chkconfig libvirtd on
API サービスの起動
API のインスタンスをホストする各システムで API サービスを起動します。各 API インスタンスは、Identity Service のデータベースで定義された独自のエンドポイントが設定されているか、エンドポイントとしての機能を果たすロードバランサーによってポイントされる必要がある点に注意してください。serviceコマンドでopenstack-nova-apiサービスを起動します。#service openstack-nova-api startchkconfigコマンドでopenstack-nova-apiサービスを永続的に有効にします。#chkconfig openstack-nova-api on
スケジューラーの起動
スケジューラーのインスタンスをホストする各システムでスケジューラーを起動します。serviceコマンドでopenstack-nova-schedulerサービスを起動します。#service openstack-nova-scheduler startchkconfigコマンドでopenstack-nova-schedulerサービスを永続的に有効にします。#chkconfig openstack-nova-scheduler on
コンダクターの起動
コンダクターは、コンピュートノードがデータベースに直接アクセスする必要性を最小限に抑えたり、排除したりします。その代わりにコンピュートノードは、メッセージブローカーを介してコンダクターと通信し、コンダクターがデータベースアクセスを処理しますコンダクターのインスタンスをホストする予定の各システムでコンダクターを起動します。コンピュートノードからデータベースへの直接のアクセスを制限することによるセキュリティ上のメリットがなってしまうので、このサービスは、すべてのコンピュートノードでは実行しないことを推奨している点に注意してください。serviceコマンドでopenstack-nova-conductorサービスを起動します。#service openstack-nova-conductor startchkconfigコマンドでopenstack-nova-conductorサービスを永続的に有効にします。#chkconfig openstack-nova-conductor on
Compute Service の起動
仮想マシンインスタンスをホストする予定の全システムで Compute Service を起動します。serviceコマンドでopenstack-nova-computeサービスを起動します。#service openstack-nova-compute startchkconfigコマンドでopenstack-nova-computeサービスを永続的に有効にします。#chkconfig openstack-nova-compute on
オプションのサービスの起動
環境設定によっては、以下のようなサービスも起動する必要がある場合があります。openstack-nova-cert- Compute Service に対して EC2 API を使用する場合に必要とされる X509 証明書サービス
注記
Compute Service に対して EC2 API を使用する場合は、nova.conf設定ファイルでオプションを設定する必要があります。詳しい説明は、Red Hat Enterprise Linux OpenStack Platform Configuration Reference Guideの「Configuring the EC2 API」の項を参照してください。このガイドは以下のリンクから入手できます。 openstack-nova-network- Nova ネットワーキングサービス。OpenStack Networking がインストール/設定済みの場合、またはこれからインストール/設定する予定の場合には、このサービスは起動してはならない点に注意してください。
openstack-nova-objectstore- Nova オブジェクトストレージサービス。新規デプロイメントには、OpenStack Object Storage Service (Swift) の使用が推奨されます。
Compute Service が起動し、仮想マシンインスタンスの要求を受け入れるための準備が整いました。