Red Hat Training
A Red Hat training course is available for Red Hat Ceph Storage
第5章 サーバーおよびラックレベルのソリューション
ハードウェアベンダーは、最適化されたサーバーレベルとラックレベルのソリューション SKU を提供することで、Ceph に対する熱意に応えてきました。Red Hat との共同テストで検証されたこれらのソリューションは、特定のワークロードに合わせて Ceph ストレージを拡張するための便利なモジュール式のアプローチにより、Ceph の導入において予測可能な価格対性能比を提供します。一般的なラックレベルのソリューションには、以下が含まれます。
- ネットワーク切り替え: 冗長性のあるネットワークスイッチはクラスターを相互に接続し、クライアントへのアクセスを提供します。
- Ceph MON ノード: Ceph モニターはクラスター全体の健全性を確保するためのデータストアで、クラスターログが含まれます。実稼働環境でのクラスタークォーラムには、最低 3 台の監視ノードが強く推奨されます。
- Ceph OSD ホスト: Ceph OSD ホストはクラスタのストレージ容量を収容し、個々のストレージデバイスごとに 1 つ以上の OSD を実行します。OSD ホストは、ワークロードの最適化と、インストールされているデータデバイス (HDD、SSD、または NVMe SSD) の両方に応じて選択および設定されます。
- Red Hat Ceph Storage: サーバーおよびラックレベルのソリューション SKU の両方がバンドルされている Red Hat Ceph Storage の容量ベースのサブスクリプションを提供しています。
IOPS が最適化されたソリューション
フラッシュストレージの使用が増えることで、組織は Ceph クラスターで IOPS を多用するワークロードをホストし、プライベートクラウドストレージで高性能なパブリッククラウドソリューションをエミュレートします。これらのワークロードは通常、MySQL、MariaDB、または PostgreSQL ベースのアプリケーションからの構造化データを必要とします。Ceph 書き込みジャーナルを同じ場所に配置した NVMe SSD は、通常、OSD をホストしています。一般的なサーバーには、以下の要素が含まれます。
- CPU: NVMe SSD ごとに 10 コア (2 GHz CPU を想定)。
- RAM: 16 GB ベースラインに加えて、OSD ごとに 5 GB
- ネットワーク: 2 OSD あたり 10 ギガビットイーサネット (GbE)
- OSD メディア: 高性能で高耐久のエンタープライズ NVMe SSD。
- OSD: NVMe SSD あたり 2 つ。
- ジャーナルメディア: 高性能で高耐久のエンタープライズ NVMe SSD (OSD と同じ場所に配置)
- コントローラー: ネイティブ PCIe バス。
非 NVMe SSD の場合は、CPU 用に SSD OSD ごとに 2 つのコアを使用します。
表5.1 IOPS が最適化された Ceph ワークロードのソリューション SKU (クラスターサイズ別)
| ベンター | 小規模 (250TB) | 中規模 (1PB) | 大規模 (2PB 以上) |
|---|---|---|---|
| SuperMicro [a] | SYS-5038MR-OSD006P | 該当なし | 該当なし |
[a]
詳細は、「Supermicro® Total Solution for Ceph」を参照してください。
| |||
以下も参照してください。
スループットが最適化されたソリューション
スループットが最適化された Ceph ソリューションは通常、半構造化または非構造化データをベースとしています。大規模なブロックの連続 I/O は一般的です。OSD ホストのストレージメディアは通常 HDD で、SSD ベースのボリュームに書き込みジャーナルがあります。一般的なサーバー要素には以下が含まれます。
- CPU: HDD ごとに 0.5 コア (2 GHz CPU を想定)
- RAM: 16 GB ベースラインに加えて、OSD ごとに 5 GB
- ネットワーク: 12 OSD ごとに 10 GbE(クライアント向けネットワークおよびクラスター向けネットワーク用)
- OSD メディア: 7200 RPM のエンタープライズ HDD
- OSD: HDD ごとに 1 つ。
- ジャーナルメディア: 高耐久で高性能のエンタープライズシリアル接続 SCSI (SAS) または NVMe SSD。
- OSD 対ジャーナルの比率: 4-5:1 (SSD ジャーナルの場合)、または NVMe ジャーナルの場合は 12-18:2。
- ホストバスアダプター(HBA): 大量のディスク (JBOD)。
いくつかのベンダーは、スループットが最適化された Ceph ワークロードのための設定済みのサーバーおよびラックレベルのソリューションを提供しています。Red Hat は、Supermicro および Quanta Cloud Technologies (QCT) からサーバーのテストや評価を徹底して行っています。
表5.2 Ceph OSD、MON、および TOR (top-of-rack) スイッチ向けのラックレベルの SKU。
| ベンター | 小規模 (250TB) | 中規模 (1PB) | 大規模 (2PB 以上) |
|---|---|---|---|
| SuperMicro [a] | SRS-42E112-Ceph-03 | SRS-42E136-Ceph-03 | SRS-42E136-Ceph-03 |
表5.3 個別の OSD サーバー
| ベンター | 小規模 (250TB) | 中規模 (1PB) | 大規模 (2PB 以上) |
|---|---|---|---|
| SuperMicro [a] | SSG-6028R-OSD072P | SSG-6048-OSD216P | SSG-6048-OSD216P |
| QCT [a] | QxStor RCT-200 | QxStor RCT-400 | QxStor RCT-400 |
[a]
詳細は、「QCT: QxStor Red Hat Ceph Storage Edition」を参照してください。
| |||
以下も参照してください。
表5.4 スループットが最適化された Ceph OSD ワークロードの追加サーバー設定
コストおよび容量が最適化されたソリューション
コストと容量が最適化されたソリューションは、一般的に大容量化、またはより長いアーカイブシナリオに焦点を当てています。データは、半構造化または非構造化のいずれかになります。ワークロードには、メディアアーカイブ、ビッグデータアナリティクスアーカイブ、およびマシンイメージのバックアップが含まれます。大規模なブロックの連続 I/O は一般的です。より大きな費用対効果を得るために、OSD は通常、Ceph の書き込みジャーナルを HDD 上に併置してホストされています。ソリューションには、通常、以下の要素が含まれます。
- CPU:HDD あたり 0.5 コア (2 GHz CPU を想定)
- RAM:16 GB のベースラインに加えて、OSD ごとに 5 GB。
- ネットワーク:12 OSD ごとに 10 Gb (それぞれクライアント向けおよびクラスター向けネットワーク用)
- OSD メディア:7200 RPM のエンタープライズ HDD。
- OSD:HDD ごとに 1 つ。
- ジャーナルメディア:HDD の同一場所に配置
- HBA:JBOD。
Supermicro および QCT は、コストと容量を重視した Ceph ワークロード向けに、構成済みのサーバーとラックレベルのソリューション SKU を提供しています。
表5.5 構成済みコストと容量が最適化されたワークロードのためのラックレベル SKU
| ベンター | 小規模 (250TB) | 中規模 (1PB) | 大規模 (2PB 以上) |
|---|---|---|---|
| SuperMicro [a] | 該当なし | SRS-42E136-Ceph-03 | SRS-42E172-Ceph-03 |
表5.6 コストと容量が最適化されたワークロード用の構成済みのサーバーレベル SKU
以下も参照してください。
表5.7 コストと容量が最適化されたワークロード用に構成可能な追加サーバー
| ベンター | 小規模 (250TB) | 中規模 (1PB) | 大規模 (2PB 以上) |
|---|---|---|---|
| Dell | 該当なし | DSS 7000、ツインノード | DSS 7000、ツインノード |
| Cisco | 該当なし | UCS C3260 | UCS C3260 |
| Lenovo | 該当なし | System x3650 M5 | 該当なし |