Red Hat OpenShift AI: サポートされる構成
目次
この記事では、Red Hat OpenShift AI (RHOAI) 3.x 製品、RHOAI コンポーネント、現在のサポートフェーズ、および基盤となるプラットフォームとの互換性について説明します。
Red Hat OpenShift AI Self-Managed
OpenShift AI Self-Managed をインストールするには、Red Hat OpenShift AI Operator をインストールし、製品のスタンドアロンコンポーネントを管理するように Operator を設定します。
RHOAI Self-Managed は、x86_64、ppc64le、s390x、aarch64 アーキテクチャーで実行される OpenShift Container Platform でサポートされます。これには次のプロバイダーが含まれます。
- ベアメタル
- ベアメタル上の Hosted Control Plane
- IBM Cloud
- Red Hat OpenStack
- Amazon Web Services
- Google Cloud Platform
- Microsoft Azure
- VMware vSphere
- Oracle Cloud
- IBM Power
- IBM Z
これには、OpenShift Dedicated、Red Hat OpenShift Service on AWS (ROSA with HCP)、Red Hat OpenShift Service on AWS (クラシックアーキテクチャー)、Microsoft Azure Red Hat OpenShift、OpenShift Kubernetes Engine などのマネージド OpenShift サービスでの RHOAI Self-Managed のサポートも含まれます。現在、RHOAI Self-Managed は、MicroShift などのプラットフォームで実行されている OpenShift ではサポートされていません。
RHOAI Self-Managed ライフサイクルと現在サポート対象のリリースの全体像については、この ページ を参照してください。
アーキテクチャー、バージョン、およびコンポーネント
x86_64 アーキテクチャー
| RHOAI Operator のバージョン | 3.0 | |
|---|---|---|
| OpenShift のサポート対象バージョン | 4.19、4.20 | |
| チップセットアーキテクチャー | x86_64 | |
| コンポーネント | ステータス | バージョン |
| Dashboard | GA | 2.0.0 |
| Data Science Pipelines | GA | 2.5.0 |
| Distributed Inference with llm-d (1) | GA | 0.3 |
| Feature Store | TP | 0.56.0 |
| KServe | GA | 0.14.0 |
| Kubeflow v1 Training | 非推奨 | 1.9.3 |
| Kubeflow v2 Training | - | - |
| Kuberay | GA | 1.4.2 |
| Red Hat Build of Kueue Operator | GA | 1.0.1 |
| Llama Stack Operator | TP | 0.4.0 |
| MaaS | DP | 0.0.1 |
| AI Hub (2) | GA | 0.3.2 |
| TrustyAI | GA | 1.37.0 |
| Workbenches | GA | 1.10.0 |
ARM アーキテクチャー
| RHOAI Operator のバージョン | 3.0 | |
|---|---|---|
| OpenShift のサポート対象バージョン | 4.19、4.20 | |
| チップセットアーキテクチャー | aarch64 | |
| コンポーネント | ステータス | バージョン |
| Dashboard | GA | 2.0.0 |
| Data Science Pipelines | GA | 2.5.0 |
| Distributed Inference with llm-d (1) | GA (3) | 0.3 |
| Feature Store | TP | 0.56.0 |
| KServe | GA | 0.14.0 |
| Kubeflow v1 Training | 非推奨 | 1.9.3 |
| Kubeflow v2 Training | - | - |
| Kuberay | GA | 1.4.2 |
| Red Hat Build of Kueue Operator | GA | 1.0.1 |
| Llama Stack Operator | TP | 0.4.0 |
| MaaS | DP | 0.0.1 |
| AI Hub (2) | GA | 0.3.2 |
| TrustyAI | GA | 1.37.0 |
| Workbenches | GA | 1.10.0 |
IBM Power (ppc64le) アーキテクチャー
| RHOAI Operator のバージョン | 3.0 | |
|---|---|---|
| OpenShift のサポート対象バージョン | 4.19、4.20 | |
| チップセットアーキテクチャー | ppc64le | |
| コンポーネント | ステータス | バージョン |
| Dashboard | GA | 2.0.0 |
| Data Science Pipelines | GA | 2.5.0 |
| Distributed Inference with llm-d | - | - |
| Feature Store | GA | 0.56.0 |
| KServe | GA | 0.14.0 |
| Kubeflow v1 Training | 非推奨 | 1.9.3 |
| Kubeflow v2 Training | - | - |
| Kuberay | - | - |
| Red Hat Build of Kueue Operator | GA | 1.0.1 |
| Llama Stack Operator | - | - |
| AI Hub (2) | GA | 0.3.2 |
| TrustyAI | GA | 1.37.0 |
| Workbenches | GA | 1.10.0 |
IBM Z (s390x) アーキテクチャー
| RHOAI Operator のバージョン | 3.0 | |
|---|---|---|
| OpenShift のサポート対象バージョン | 4.19、4.20 | |
| チップセットアーキテクチャー | s390x | |
| コンポーネント | ステータス | バージョン |
| Dashboard | GA | 2.0.0 |
| Data Science Pipelines | - | - |
| Distributed Inference with llm-d | - | - |
| Feature Store | - | - |
| KServe | GA | 0.14.0 |
| Kubeflow v1 Training | 非推奨 | 1.9.3 |
| Kubeflow v2 Training | - | - |
| Kuberay | - | - |
| Red Hat Build of Kueue Operator | GA | 1.0.1 |
| Llama Stack Operator | - | - |
| IBM Spyre Operator | GA | 1.1.0 |
| AI Hub (2) | GA | 0.3.2 |
| TrustyAI | GA | 1.37.0 |
| Workbenches | GA | 1.10.0 |
注記
(1) llm-d は、OpenShift 4.19.9 以降 が必要です。
(2) AI Hub は、以前は Model Registry と Model Catalog でした。
(3) インテリジェントな推論スケジューリングのみが対象です。
TP: テクノロジープレビュー
DP: 開発者プレビュー
開発者およびテクノロジープレビュー: 比較
LA: Limited Availability (限定提供)このフェーズでは、Red Hat からの特別な承認がある場合にのみ、機能をインストールしてサポートを受けることができます。そのような承認がなければ、その機能はサポートされません。
GA: 一般提供開始日
EUS: Extended Update Support.EUS フェーズ中、Red Hat はコンポーネント固有のサポートを提供します。
EOL: ライフサイクルの終了日このフェーズでは、コンポーネントはサポートされなくなります。
RHOAI と vLLM のバージョンの互換性
次の表は、Red Hat OpenShift AI の各バージョンに含まれている vLLM モデルサービングランタイムのバージョンを示しています。
| RHOAI バージョン | 3.0 |
|---|---|
| vLLM CUDA | v0.11.0 |
| vLLM ROCm | v0.11.0 |
| vLLM Power/Z | v0.10.1.1.6 |
| vLLM Gaudi | v0.85 |
| vLLM Spyre x86 | v0.10.1.1 |
| vLLM Spyre s390x | v0.10.2 |
| OVMS | 2025.3 |
Red Hat OpenShift AI Operator の依存関係
Red Hat OpenShift AI Operator 依存関係の互換性とサポート対象のバージョンについては、次のドキュメントを参照してください。
- Red Hat OpenShift Serverless: リリースノート
- Red Hat OpenShift Service Mesh: リリースノート
- Node Feature Discovery Operator: ドキュメント
- Red Hat - Authorino Operator: ドキュメント
- NVIDIA GPU Operator: ドキュメント
- Intel Gaudi Base Operator: ドキュメント
- AMD GPU Operator: ドキュメント
- NVIDIA ネットワーク Operator: ドキュメント
- Red Hat Connectivity Link: リリースノート
- IBM Spyre Operator: ドキュメント
現在、Red Hat - Authorino Operator は、Red Hat OpenShift AI でサポートされている唯一の Red Hat Connectivity Link コンポーネントです。Red Hat - Authorino Operator をインストールまたはアップグレードするには、Red Hat OpenShift AI ドキュメント の手順に従います。
Red Hat OpenShift AI は特定のアクセラレーターを直接サポートしません。OpenShift AI でアクセラレーター機能を使用するには、関連するアクセラレーター Operator が必要です。OpenShift AI は、関連する Operator との統合をサポートしています。また、NVIDIA GPU、AMD GPU、Intel Gaudi AI アクセラレーター、および IBM Spyre を利用するためのライブラリーを含む多数のコンテナイメージを製品全体で提供しています。Operator でサポートされているデバイスの詳細は、その Operator のドキュメントを参照してください。
サポート要件と制限
このセクションを参照して、Red Hat サポートの要件と、Red Hat OpenShift AI の Red Hat サポートの制限事項を把握してください。
サポート対象のブラウザー
- Google Chrome
- Mozilla Firefox
- Safari
サポート対象のサービス
Red Hat OpenShift AI は次のサービスをサポートしています。
| サービス名 | 説明 |
|---|---|
| EDB Postgres AI - Pgvector を含むソリューション | Pgvector をはじめとする EDB のベクトルデータベースソリューションを使用して、AI RAG およびマルチモーダル AI レコメンダーアプリケーション向けの強力なハイブリッド検索を使用します。統合された Postgres 環境で、ネイティブベクトルインデックス検索、エンタープライズグレードのセキュリティー、スケーラビリティーを利用して、AI、トランザクション、および分析関連のワークロードを 1 つにまとめます。 |
| Elasticsearch | 革新的な RAG アプリケーションの構築、オブザーバビリティーの問題のプロアクティブな解決、複雑なセキュリティー脅威への対処を、Search AI の力によってすべて実現します。 |
| IBM Watson Studio | IBM® watsonx.ai は、IBM watsonx AI およびデータプラットフォームの構成要素の 1 つです。基盤モデルを活用した新しい生成 AI 機能と、従来の機械学習 (ML) を統合し、AI ライフサイクル全体に対応する強力なスタジオ環境を提供します。 |
| Intel® oneAPI AI Analytics Toolkit Container | AI Kit は、Intel® アーキテクチャー上でのエンドツーエンドのデータサイエンスと分析パイプラインを高速化する AI ソフトウェアツールです。 |
| NVIDIA NIM | NVIDIA AI Enterprise の一部である NVIDIA NIM は、クラウド、データセンター、ワークステーションに高性能 AI モデル推論をセキュアかつ確実にデプロイできるように設計された、使いやすいマイクロサービスのセットです。オープンソースコミュニティーや NVIDIA AI Foundation モデルを含む幅広い AI モデルをサポートしており、業界標準の API を活用して、オンプレミスでもクラウドでも、シームレスでスケーラブルな AI 推論を実現します。 |
| OpenVINO | OpenVINO は、深層学習のパフォーマンスを最適化し、推論エンジンを使用して Intel® ハードウェアにデプロイするのに役立つオープンソースツールキットです。 |
| Pachyderm | Pachyderm は機械学習のデータ基盤です。データサイエンスチームが機械学習のライフサイクルを自動化できるように、業界最高水準のパイプライン、データのバージョン管理、データリネージ機能を提供します。 |
| Starburst Enterprise | Starburst Enterprise プラットフォーム (SEP) は、オープンソースの Massively Parallel Processing (MPP) ANSI SQL クエリーエンジンである Trino の商用ディストリビューションです。 Starburst は、データがどこに保存されているかに関係なく、すべてのデータへの高速アクセスを提供することで、Red Hat OpenShift AI ワークロードのデータアクセスを簡素化します。 Starburst はこれを実現するために、各データソースに直接接続し、データを処理のためにメモリーに戻します。これにより、最初にデータを一箇所にコピーまたは移動する必要性を減らしています。 |
| Jupyter | Jupyter は、企業、教室、研究室向けに設計されたマルチユーザーバージョンの notebook です。 |
サポート対象のワークベンチイメージ
Red Hat OpenShift AI でサポートされている最新のワークベンチイメージは、デフォルトで Python とともにインストールされます。
サポート対象の Python のバージョンと互換性があるパッケージであれば、そのパッケージに必要なバイナリーが含まれるワークベンチサーバーにインストールできます。使用するワークベンチイメージに必要なバイナリーが含まれていない場合は、Red Hat サポートに連絡して、バイナリーを含めるように依頼してください。
モデル開発に一貫性のある安定したプラットフォームを提供するには、同じバージョンの Python を含むワークベンチイメージを選択します。OpenShift AI で利用可能なワークベンチイメージは、あらかじめビルドされており、OpenShift AI をインストールまたはアップグレードした後すぐに使用できます。
ワークベンチイメージは少なくとも 1 年間サポートされます。事前設定されたワークベンチイメージに対するメジャー更新は、約 6 カ月ごとに行われます。したがって通常はいつでも、サポート対象のワークベンチイメージバージョンを 2 つ利用できます。このサポート期間を活用して、利用可能な最新のワークベンチイメージのコンポーネントを使用するようにコードを更新できます。最新の 2 つのバージョン以外に、レガシーなワークベンチイメージバージョンも選択できる場合があります。レガシーイメージバージョンには、イメージが古くなっていることを示すラベルが含まれています。最新のパッケージバージョンを使用できるように、Red Hat は、最近追加されたワークベンチイメージを使用することを推奨します。サポートされなくなった場合でも、必要に応じて、レジストリーから古いワークベンチイメージにアクセスできます。そのため、プロジェクトの特定の要件に合わせて、古いワークベンチイメージをカスタムワークベンチイメージとして追加できます。
次の表で テクノロジープレビュー として示されているワークベンチイメージは、Red Hat の製品サービスレベルアグリーメント (SLA) ではサポートされておらず、機能的に完全ではない可能性があります。Red Hat は テクノロジープレビュー 機能を実稼働環境で使用することを推奨していません。これらの機能は、今後の製品機能への早期アクセスを提供することで、お客様が機能をテストし、開発プロセス中にフィードバックを提供できるようにしています。
<
x86_64 および aarch64 でサポートされているノートブック
| イメージ名 | イメージバージョン | プリインストールパッケージ |
|---|---|---|
| Code Server | Data Science | CPU | Python 3.12 | 2025.2 (推奨) | code-server 4.104、Python 3.12、Boto3: 1.40、Kafka-Python-ng: 2.2、Matplotlib: 3.10、Numpy: 2.3、Pandas: 2.3、Scikit-learn: 1.7、Scipy: 1.16、Sklearn-onnx: 1.19、ipykernel: 6.30、Kubeflow-Training: 1.9 |
| 2025.1 | CUDA 12.6、Python 3.11、JupyterLab: 4.4、PyTorch: 2.6、Tensorboard: 2.19、Boto3: 1.37、Kafka-Python-ng: 2.2、Kfp: 2.12、Matplotlib: 3.10、Numpy: 2.2、Pandas: 2.2、Scikit-learn: 1.6、Scipy: 1.15、Odh-Elyra: 4.2、PyMongo: 4.11、Pyodbc: 5.2、Codeflare-SDK: 0.30、Sklearn-onnx: 1.18、Psycopg: 3.2、MySQL Connector/Python: 9.3、Kubeflow-Training: 1.9 | |
| Jupyter | Data Science | CPU | Python 3.12 | 2025.2 (推奨) | Python 3.12、JupyterLab: 4.4、Boto3: 1.40、Kafka-Python-ng: 2.2、Kfp: 2.14、Matplotlib: 3.10、Numpy: 2.3、Pandas: 2.3、Scikit-learn: 1.7、Scipy: 1.16、Odh-Elyra: 4.3、PyMongo: 4.15、Pyodbc: 5.2、Codeflare-SDK: 0.32、Feast: 0.55、Sklearn-onnx: 1.19、Psycopg: 3.2、MySQL Connector/Python: 9.4、Kubeflow-Training: 1.9 |
| 2025.1 | Python 3.11、JupyterLab: 4.4、Boto3: 1.37、Kafka-Python-ng: 2.2、Kfp: 2.12、Matplotlib: 3.10、Numpy: 2.2、Pandas: 2.2、Scikit-learn: 1.6、Scipy: 1.15、Odh-Elyra: 4.2、PyMongo: 4.11、Pyodbc: 5.2、Codeflare-SDK: 0.30、Sklearn-onnx: 1.18、Psycopg: 3.2、MySQL Connector/Python: 9.3、Kubeflow-Training: 1.9 | |
| Jupyter | Minimal | CPU | Python 3.12 | 2025.2 (推奨) | Python 3.12、JupyterLab: 4.4 |
| 2025.1 | Python 3.11、JupyterLab: 4.4 | |
| Jupyter | 最小限 | CUDA | Python 3.12 | 2025.2 (推奨) | CUDA 12.8、Python 3.12、JupyterLab: 4.4 |
| 2025.1 | CUDA 12.6、Python 3.11、JupyterLab: 4.4 | |
| Jupyter | 最小限 | ROCm | Python 3.12 | 2025.2 (推奨) | ROCm 6.3、Python 3.12、JupyterLab: 4.4 |
| 2025.1 | ROCm 6.2、Python 3.11、JupyterLab: 4.4 | |
| Jupyter | PyTorch LLM Compressor | CUDA | Python 3.12 | 2025.2 | CUDA 12.8、Python 3.12、JupyterLab: 4.4、PyTorch: 2.7、LLM-Compressor: 0.8、Tensorboard: 2.20、Boto3: 1.40、Kafka-Python-ng: 2.2、Kfp: 2.14、Matplotlib: 3.10、Numpy: 2.2、Pandas: 2.3、Scikit-learn: 1.7、Scipy: 1.16、Odh-Elyra: 4.3、PyMongo: 4.15、Pyodbc: 5.2、Codeflare-SDK: 0.32、Feast: 0.55、Sklearn-onnx: 1.19、Psycopg: 3.2、MySQL Connector/Python: 9.4、Kubeflow-Training: 1.9 |
| Jupyter | PyTorch | CUDA | Python 3.12 | 2025.2 (推奨) | CUDA 12.8、Python 3.12、JupyterLab: 4.4、PyTorch: 2.7、Tensorboard: 2.20、Boto3: 1.40、Kafka-Python-ng: 2.2、Kfp: 2.14、Matplotlib: 3.10、Numpy: 2.3、Pandas: 2.3、Scikit-learn: 1.7、Scipy: 1.16、Odh-Elyra: 4.3、PyMongo: 4.15、Pyodbc: 5.2、Codeflare-SDK: 0.32、Feast: 0.55、Sklearn-onnx: 1.19、Psycopg: 3.2、MySQL Connector/Python: 9.4、Kubeflow-Training: 1.9 |
| 2025.1 | CUDA 12.6、Python 3.11、JupyterLab: 4.4、PyTorch: 2.6、Tensorboard: 2.19、Boto3: 1.37、Kafka-Python-ng: 2.2、Kfp: 2.12、Matplotlib: 3.10、Numpy: 2.2、Pandas: 2.2、Scikit-learn: 1.6、Scipy: 1.15、Odh-Elyra: 4.2、PyMongo: 4.11、Pyodbc: 5.2、Codeflare-SDK: 0.30、Sklearn-onnx: 1.18、Psycopg: 3.2、MySQL Connector/Python: 9.3、Kubeflow-Training: 1.9 | |
| Jupyter | PyTorch | ROCm | Python 3.12 | 2025.2 (推奨) | ROCm 6.3、Python 3.12、JupyterLab: 4.4、ROCm-PyTorch: 2.7、Tensorboard: 2.20、Kafka-Python-ng: 2.2、Matplotlib: 3.10、Numpy: 2.3、Pandas: 2.3、Scikit-learn: 1.7、Scipy: 1.16、Odh-Elyra: 4.3、PyMongo: 4.15、Pyodbc: 5.2、Codeflare-SDK: 0.32、Feast: 0.55、Sklearn-onnx: 1.19、Psycopg: 3.2、MySQL Connector/Python: 9.4、Kubeflow-Training: 1.9 |
| 2025.1 | ROCm 6.2、Python 3.11、JupyterLab: 4.4、ROCm-PyTorch: 2.6、Tensorboard: 2.18、Kafka-Python-ng: 2.2、Matplotlib: 3.10、Numpy: 2.2、Pandas: 2.2、Scikit-learn: 1.6、Scipy: 1.15、Odh-Elyra: 4.2、PyMongo: 4.11、Pyodbc: 5.2、Codeflare-SDK: 0.30、Sklearn-onnx: 1.18、Psycopg: 3.2、MySQL Connector/Python: 9.3、Kubeflow-Training: 1.9 | |
| Jupyter | TensorFlow | CUDA | Python 3.12 | 2025.2 (推奨) | CUDA 12.8、Python 3.12、JupyterLab: 4.4、TensorFlow: 2.20、Tensorboard: 2.20、Nvidia-CUDA-CU12-Bundle: 12.9、Boto3: 1.40、Kafka-Python-ng: 2.2、Kfp: 2.14、Matplotlib: 3.10、Numpy: 2.1、Pandas: 2.3、Scikit-learn: 1.7、Scipy: 1.16、Odh-Elyra: 4.3、PyMongo: 4.15、Pyodbc: 5.2、Codeflare-SDK: 0.32、Feast: 0.55、Sklearn-onnx: 1.19、Psycopg: 3.2、MySQL Connector/Python: 9.4 |
| 2025.1 | CUDA 12.6、Python 3.11、JupyterLab: 4.4、TensorFlow: 2.18、Tensorboard:2.18、Nvidia-CUDA-CU12-Bundle:12.5、Boto3:1.37、Kafka-Python-ng: 2.2、Kfp: 2.12、Matplotlib: 3.10、Numpy: 1.26、Pandas: 2.2、Scikit-learn: 1.6、Scipy: 1.15、Odh-Elyra: 4.2、PyMongo: 4.11、Pyodbc: 5.2、Codeflare-SDK: 0.30、Sklearn-onnx: 1.18、Psycopg: 3.2、MySQL Connector/Python: 9.3 | |
| Jupyter | TensorFlow | ROCm | Python 3.12 | 2025.2 (推奨) | ROCm 6.3、Python 3.12、JupyterLab: 4.4、TensorFlow-ROCm:2.17、Tensorboard: 2.17、Kafka-Python-ng: 2.2、Matplotlib: 3.10、Numpy: 1.26、Pandas: 2.3、Scikit-learn: 1.7、Scipy: 1.16、Odh-Elyra: 4.3、PyMongo: 4.15、Pyodbc: 5.2、Codeflare-SDK: 0.32、Feast: 0.55、Sklearn-onnx: 1.19、Psycopg: 3.2、MySQL Connector/Python: 9.4 |
| 2025.1 | ROCm 6.2、Python 3.11、JupyterLab: 4.4、TensorFlow-ROCm:2.14、Tensorboard: 2.14、Kafka-Python-ng: 2.2、Matplotlib: 3.10、Numpy: 1.26、Pandas: 2.2、Scikit-learn: 1.6、Scipy: 1.15、Odh-Elyra: 4.2、PyMongo: 4.11、Pyodbc: 5.2、Codeflare-SDK: 0.30、Sklearn-onnx: 1.17、Psycopg: 3.2、MySQL Connector/Python: 9.3 | |
| Jupyter | TrustyAI | CPU | Python 3.12 | 2025.2 (推奨) | Python 3.12、JupyterLab: 4.4、TrustyAI: 0.6、Transformers: 4.56、Datasets: 4.0、Accelerate:1.10、Torch: 2.7、Boto3: 1.40、Kafka-Python-ng: 2.2、Kfp: 2.14、Matplotlib: 3.10、Numpy: 1.26、Pandas: 1.5、Scikit-learn: 1.7、Scipy: 1.16、Odh-Elyra: 4.3、PyMongo: 4.15、Pyodbc: 5.2、Codeflare-SDK: 0.32、Sklearn-onnx: 1.19、Psycopg: 3.2、MySQL Connector/Python: 9.4、Kubeflow-Training: 1.9 |
| 2025.1 | Python 3.11、JupyterLab: 4.4、TrustyAI: 0.6、Transformers: 4.55、Datasets:3.4、Accelerate:1.5、Torch:2.6、Boto3:1.37、Kafka-Python-ng: 2.2、Kfp: 2.12、Matplotlib: 3.10、Numpy: 1.26、Pandas: 1.5、Scikit-learn: 1.7、Scipy: 1.15、Odh-Elyra: 4.2、PyMongo: 4.11、Pyodbc: 5.2、Codeflare-SDK: 0.29、Sklearn-onnx:1.18、Psycopg: 3.2、MySQL Connector/Python: 9.3、Kubeflow-Training: 1.9 |
IBM Power でサポートされているノートブック
| イメージ名 | イメージバージョン | プリインストールパッケージ |
|---|---|---|
| Code Server | Data Science | CPU | Python 3.12 | 2025.2 (推奨) | code-server 1.104、Python 3.12、Boto3: 1.40、Kafka-Python-ng: 2.2、Matplotlib: 3.10、Numpy: 2.3、Pandas: 2.3、Scikit-learn: 1.7、Scipy: 1.16、Sklearn-onnx: 1.19、ipykernel: 6.30、Kubeflow-Training: 1.9 |
| Jupyter | Data Science | CPU | Python 3.12 | 2025.2 (推奨) | Python 3.12、JupyterLab: 4.4、Boto3: 1.40、Kafka-Python-ng: 2.2、Kfp: 2.14、Matplotlib: 3.10、Numpy: 2.3、Pandas: 2.3、Scikit-learn: 1.7、Scipy: 1.16、Odh-Elyra: 4.2、PyMongo: 4.14、Pyodbc: 5.2、Sklearn-onnx: 1.19、Psycopg: 3.2、MySQL Connector/Python: 9.3、Kubeflow-Training: 1.9 |
| Jupyter | Minimal | CPU | Python 3.12 | 2025.2 (推奨) | Python 3.12、JupyterLab: 4.4 |
| 2025.1 | Python 3.11、JupyterLab: 4.4 | |
| Jupyter | TrustyAI | CPU | Python 3.12 | 2025.2 (推奨) | Python 3.12、JupyterLab: 4.4、TrustyAI: 0.6、Transformers: 4.56、Datasets: 4.0、Accelerate:1.10、Torch: 2.7、Boto3: 1.40、Kafka-Python-ng: 2.2、Kfp: 2.14、Matplotlib: 3.10、Numpy: 1.26、Pandas: 1.5、Scikit-learn: 1.7、Scipy: 1.16、Odh-Elyra: 4.2、PyMongo: 4.14、Pyodbc: 5.2、Sklearn-onnx: 1.19、Psycopg: 3.2、Kubeflow-Training: 1.9 |
IBM Z でサポートされているノートブック
| イメージ名 | イメージバージョン | プリインストールパッケージ |
|---|---|---|
| Code Server | Data Science | CPU | Python 3.12 | 2025.2 (推奨) | code-server 1.104、Python 3.12、Boto3: 1.40、Kafka-Python-ng: 2.2、Matplotlib: 3.10、Numpy: 2.3、Pandas: 2.3、Scikit-learn: 1.7、Scipy: 1.16、ipykernel: 6.30、Kubeflow-Training: 1.9、feast: 0.55 |
| Jupyter | Data Science | CPU | Python 3.12 | 2025.2 (推奨) | Python 3.12、JupyterLab: 4.4、Boto3: 1.40、Kafka-Python-ng: 2.2、Kfp: 2.14、Matplotlib: 3.10、Numpy: 2.3、Pandas: 2.3、Scikit-learn: 1.7、Scipy: 1.16、Odh-Elyra: 4.2、PyMongo: 4.14、Pyodbc: 5.2、Sklearn-onnx: 1.19、Psycopg: 3.2、MySQL Connector/Python: 9.3 |
| Jupyter | Minimal | CPU | Python 3.12 | 2025.2 (推奨) | Python 3.12、JupyterLab: 4.4 |
| 2024.2 | Python 3.11、JupyterLab: 4.4 | |
| Jupyter | TrustyAI | CPU | Python 3.12 | 2025.2 (推奨) | Python 3.12、JupyterLab: 4.4、TrustyAI: 0.6、Transformers: 4.56、Datasets: 4.0、Accelerate:1.10、PyArrow 20.0、Torch: 2.7、Boto3: 1.40、Kafka-Python-ng: 2.2、Kfp: 2.14、Matplotlib: 3.10、Numpy: 1.26、Pandas: 1.5、Scikit-learn: 1.7、Scipy: 1.16、Odh-Elyra: 4.2、PyMongo: 4.14、Pyodbc: 5.2、Sklearn-onnx: 1.19、Psycopg: 3.2、Kubeflow-Training: 1.9 |
サポートされているモデルサービングランタイム
| ランタイム名 | 説明 | エクスポートされるモデル形式 |
|---|---|---|
| vLLM Spyre AI Accelerator ServingRuntime for KServe | x86 上の IBM Spyre AI アクセラレーターをサポートする、高スループットでメモリー効率の高い推論およびサービングランタイム | サポートされているモデル |
| Caikit Text Generation Inference Server (Caikit-TGIS) ServingRuntime for KServe (1) | Caikit 形式のモデルをサービングするための複合ランタイム | Caikit Text Generation |
| Caikit Standalone ServingRuntime for KServe (2) | エンベディングタスク用の Caikit エンベディング形式でモデルをサービングするためのランタイム | Caikit Embeddings |
| OpenVINO Model Server | Intel アーキテクチャー向けに最適化されたモデルをサービングするためのスケーラブルで高性能なランタイム | PyTorch、TensorFlow、OpenVINO IR、PaddlePaddle、MXNet、Caffe、Kaldi |
| [非推奨] Text Generation Inference Server (TGIS) Standalone ServingRuntime for KServe (3) | TGI 対応モデルをサービングするためのランタイム | PyTorch Model Formats |
| vLLM NVIDIA GPU ServingRuntime for KServe | NVIDIA GPU アクセラレーターをサポートする、大規模言語モデル向けの高スループットでメモリー効率の高い推論およびサービングランタイム | サポートされているモデル |
| vLLM Intel Gaudi Accelerator ServingRuntime for KServe | Intel Gaudi アクセラレーターをサポートする、高スループットでメモリー効率の高い推論およびサービングランタイム | サポートされているモデル |
| vLLM AMD GPU ServingRuntime for KServe | AMD GPU アクセラレーターをサポートする、高スループットでメモリー効率の高い推論およびサービングランタイム | サポートされているモデル |
| vLLM CPU ServingRuntime for KServe | IBM Power (ppc64le) および IBM Z (s390x) をサポートする、高スループットでメモリー効率の高い推論およびサービングランタイム | サポートされているモデル |
| vLLM Spyre s390x ServingRuntime for KServe | s390x (IBM Z) 上の IBM Spyre アクセラレーターをサポートする、高スループットでメモリー効率の高い推論およびサービングランタイム | サポートされているモデル |
(1) Caikit-TGIS 複合ランタイムは、Caikit と Text Generation Inference Server (TGIS) に基づいています。このランタイムを使用するには、モデルを Caikit 形式に変換する必要があります。例については、caikit-tgis-serving リポジトリーの Converting Hugging Face Hub models to Caikit format を参照してください。
(2) Caikit Standalone ランタイムは Caikit NLP に基づいています。このランタイムを使用するには、モデルを Caikit エンベディング形式に変換する必要があります。例については、Tests for text embedding module を参照してください。
(3) Text Generation Inference Server (TGIS) Standalone ServingRuntime for KServe は非推奨です。詳細は、Red Hat OpenShift AI リリースノート を参照してください。
サポートされているモデルサービングランタイムのデプロイメント要件
| ランタイム名 | デフォルトプロトコル | 追加プロトコル | モデルメッシュのサポート | シングルノード OpenShift のサポート | デプロイメントモード |
|---|---|---|---|---|---|
| vLLM Spyre AI Accelerator ServingRuntime for KServe | REST | いいえ | いいえ | はい | Raw およびサーバーレス |
| Caikit Text Generation Inference Server (Caikit-TGIS) ServingRuntime for KServe | REST | gRPC | いいえ | はい | Raw およびサーバーレス |
| Caikit Standalone ServingRuntime for KServe | REST | gRPC | いいえ | はい | Raw およびサーバーレス |
| OpenVINO Model Server | REST | なし | はい | はい | Raw およびサーバーレス |
| [非推奨] Text Generation Inference Server (TGIS) Standalone ServingRuntime for KServe | gRPC | なし | いいえ | はい | Raw およびサーバーレス |
| vLLM NVIDIA GPU ServingRuntime for KServe | REST | なし | いいえ | はい | Raw およびサーバーレス |
| vLLM Intel Gaudi Accelerator ServingRuntime for KServe | REST | なし | いいえ | はい | Raw およびサーバーレス |
| vLLM AMD GPU ServingRuntime for KServe | REST | なし | いいえ | はい | Raw およびサーバーレス |
| vLLM CPU ServingRuntime for KServe (1) | REST | なし | いいえ | はい | Raw |
(1) vLLM CPU ServingRuntime for KServe については、IBM Z および IBM Power アーキテクチャーを使用している場合、標準デプロイメントモードでのみモデルをデプロイできます。
テストおよび検証済みのモデルサービングランタイム
| 名前 | 説明 | エクスポートされるモデル形式 |
|---|---|---|
| NVIDIA Triton Inference Server | アプリケーションで高速かつスケーラブルな AI を実現するオープンソースの推論サービスソフトウェア。 | TensorRT、TensorFlow、PyTorch、ONNX、OpenVINO、Python、RAPIDS FIL など。 |
| Seldon MLServer | 機械学習モデルのデプロイを簡素化するように設計されたオープンソースの推論サーバー。 | Scikit-Learn (sklearn)、XGBoost、LightGBM、CatBoost、HuggingFace、および MLflow。 |
| IBM Power accelerated for NVIDIA Triton Inference Server | アプリケーションで高速かつスケーラブルな AI を実現するオープンソースの推論サービスソフトウェア。 | PyTorch、ONNX、FIL、Python。 |
| IBM Z Accelerated for NVIDIA Triton Inference Server | モデルのデプロイと実行を標準化し、大規模かつ効率的で高性能な推論を実現するオープンソースの AI 推論サーバー。 | ONNX-MLIR、Snap ML (C++)、PyTorch。 |
テストおよび検証済みのモデルサービングランタイムのデプロイメント要件
| 名前 | デフォルトプロトコル | 追加プロトコル | モデルメッシュのサポート | シングルノード OpenShift のサポート | デプロイメントモード |
|---|---|---|---|---|---|
| NVIDIA Triton Inference Server | gRPC | REST | はい | はい | 標準および詳細 |
| Seldon MLServer | gRPC | REST | いいえ | はい | 標準および詳細 |
| IBM Power accelerated for NVIDIA Triton Inference Server | REST | なし | いいえ | はい | 標準 |
| IBM Z Accelerated for NVIDIA Triton Inference Server | gRPC | REST | いいえ | はい | 標準 (Raw) |
トレーニングイメージ
OpenShift AI で分散トレーニングジョブを実行するには、次のいずれかのタイプのトレーニングイメージを使用します。
- ドキュメントに記載されたユースケースおよび構成に対してテストおよび検証された、Ray ベースのトレーニングイメージ
- Red Hat が Kubeflow Training Operator (KFTO) で使用するためにサポートしているトレーニングイメージ
Ray ベースのトレーニングイメージ
次の表は、Red Hat OpenShift AI で利用可能な最新の Ray ベースのトレーニングイメージに関する情報を示しています。これらのイメージは AMD64 イメージであり、他のアーキテクチャーでは動作しない可能性があります。
提供されているイメージをベースイメージとして使用し、製品ドキュメントに記載されているように、追加のパッケージをインストールしてカスタムイメージを作成できます。使用するトレーニングイメージに必要なパッケージが含まれていない場合は、Red Hat サポートに連絡して、パッケージを含めるように依頼してください。イメージはテストおよび検証済みですが、まだ正式にはサポートされていません。
イメージは、インストール済みパッケージの新規バージョンに定期的に更新されます。これらのイメージは、対応する製品ドキュメントに記載されているユースケースと構成に合わせてテストおよび検証されています。バグ修正と CVE 修正は、アップストリームパッケージで利用可能になり次第、これらのイメージの新しいバージョンでのみ提供されます。修正は、以前のイメージバージョンにはバックポートされません。
| イメージタイプ | RHOAI バージョン | イメージバージョン | URL | プリインストールパッケージ |
|---|---|---|---|---|
| CUDA | 3.0 | 2.47.1-py312-cu128 | quay.io/modh/ray:2.47.1-py312-cu128 | Ray 2.47.1、CUDA 12.8、Python 3.12 |
| 2.47.1-py311-cu121 | quay.io/modh/ray:2.47.1-py311-cu121 | Ray 2.47.1、CUDA 12.1、Python 3.11 | ||
| Ray ROCm | 3.0 | 2.47.1-py312-rocm62 | quay.io/modh/ray:2.47.1-py312-rocm62 | Ray 2.47.1、ROCm 6.2、Python 3.12 |
KFTO で使用するトレーニングイメージ
次の表は、Red Hat OpenShift AI で Kubeflow Training Operator (KFTO) と共に使用できる、Red Hat がサポートするトレーニング用イメージに関する情報を示しています。これらのイメージは AMD64 イメージであり、他のアーキテクチャーでは動作しない可能性があります。
提供されているイメージをベースイメージとして使用し、製品ドキュメントに記載されているように、追加のパッケージをインストールしてカスタムイメージを作成できます。
| イメージタイプ | RHOAI バージョン | イメージバージョン | URL | プリインストールパッケージ |
|---|---|---|---|---|
| CUDA | 3.0 | py312-cuda128-torch280 | registry.redhat.io/rhoai/odh-training-cuda128-torch28-py312-rhel9 | CUDA 12.8、Python 3.12、PyTorch 2.8.0 |
| py311-cuda124-torch251 | registry.redhat.io/rhoai/odh-training-cuda124-torch25-py311-rhel9 | CUDA 12.4、Python 3.11、PyTorch 2.5.1 | ||
| py311-cuda121-torch241 | registry.redhat.io/rhoai/odh-training-cuda121-torch24-py311-rhel9 | CUDA 12.1、Python 3.11、PyTorch 2.4.1 | ||
| ROCm | 3.0 | py312-rocm64-torch280 | registry.redhat.io/rhoai/odh-training-rocm64-torch28-py312-rhel9 | ROCm 6.4、Python 3.12、PyTorch 2.8.0 |
| py311-rocm62-torch251 | registry.redhat.io/rhoai/odh-training-rocm62-torch25-py311-rhel9 | ROCm 6.2、Python 3.11、PyTorch 2.5.1 | ||
| py311-rocm62-torch241 | registry.redhat.io/rhoai/odh-training-rocm62-torch24-py311-rhel9 | ROCm 6.2、Python 3.11、PyTorch 2.4.1 |
Comments