Red Hat AI Accelerator
Red Hat AI Accelerator にはソフトウェアは含まれておらず、独自のライフサイクルはありません。サポート対象のバージョンと関連ポリシーの包括的なリストは、OpenShift および OpenShift AI ライフサイクルページを参照してください。
AI Accelerator - 定義
チップ設計者により、生成人工知能と機械学習 (AI/ML) を強化する大規模な言語モデルやその他の基礎モデルをトレーニングおよび提供するための専用のハードウェアアクセラレーターが開発されました。データサイエンティスト、データエンジニア、ML エンジニア、開発者は、データ集約型モデルの開発と提供に特化したこのハードウェアアクセラレーション機能を活用できます。
- Red Hat Enterprise Linux AI サブスクリプションには、AI Accelerator のエンタイトルメントが含まれています。
- AI Accelerators 上で Red Hat OpenShift AI および Red Hat OpenShift Container Platform を動作させる場合、Red Hat AI Accelerator Add-On Subscriptions を追加購入する必要があります。
AI Accelerator とは、以下のものを意味します。
- 人工知能の計算を強化および高速化するために設計された GPU や ASIC などのハードウェアコンピューティングデバイス。これらのデバイスは、機械学習、モデルトレーニング、推論などの AI タスク向けの処理機能と最適化されたアーキテクチャーを提供します。
- CPU と同じパッケージまたはモジュール内に物理的に統合されている場合でも、個別の処理ユニットとして機能するコンピューティングデバイス。デバイスが次の条件に該当する場合、そのデバイスは AI Accelerator です。
- CPU コアとは独立して動作する、および
- 人工知能の計算を強化することを目的としている。
- 以下のアクセラレーターアーキテクチャーのいずれかとそのすべてのバリエーション。チップメーカーは、新しいアクセラレーターアーキテクチャーとアクセラレーターを高ピッチで開発し、リリースしています。このリストですべてが網羅されているわけではなく、また変更される可能性があります。
- NVIDIA Turing
- NVIDIA Ampere
- NVIDIA Ada Lovelace
- NVIDIA Hopper
- NVIDIA Grace Hopper
- NVIDIA Blackwell
- NVIDIA Grace Blackwell
- Intel Gaudi 2
- Intel Gaudi 3
- AMD Instinct MI200 シリーズ
- AMD Instinct MI300 シリーズ