リリースノート

Red Hat OpenShift Data Science 1

このリリースに関連する機能、機能拡張、解決された問題、および既知の問題

概要

これらのリリースノートでは、Red Hat OpenShift Data Science のこのリリースの新機能、機能拡張、解決された問題、および既知の問題を概説します。OpenShift Data Science は現在、Red Hat OpenShift Dedicated および Red Hat OpenShift Service on Amazon Web Services (ROSA) で利用できます。

第1章 OpenShift Data Science の概要

Red Hat OpenShift Data Science を使用すると、ユーザーはデータ、人工知能、および機械学習ソフトウェアを統合し、エンドツーエンドの機械学習ワークフローを実行できます。OpenShift Data Science は以下の 2 つの設定でサポートされます。

  1. Red Hat OpenShift Dedicated および Red Hat OpenShift Service on Amazon Web Services (ROSA) などの Red Hat 管理環境へのアドオンとしてインストール
  2. Red Hat OpenShift Container Platform などのセルフマネージド Operator としてインストール

データサイエンティスト向けとして、OpenShift Data Science には、Jupyter と、モデル開発に必要なツールおよびライブラリーや TensorFlow および PyTorch フレームワークで最適化されたデフォルトのノートブックイメージのコレクションが含まれます。モデルのデプロイおよびホスト、モデルの外部アプリケーションへの統合、任意のハイブリッドクラウド環境でホストするためのモデルのエクスポートを行います。グラフィックスプロセッシングユニット (GPU) を使用して、データサイエンス実験を加速することもできます。

管理者向けとして、OpenShift Data Science は、既存の Red Hat OpenShift Dedicated または ROSA 環境でのデータサイエンスワークロードを有効にします。既存の OpenShift アイデンティティープロバイダーを使用してユーザーを管理し、ノートブックサーバーで利用可能なリソースを管理し、データサイエンティストがモデルの作成、トレーニング、ホストに必要なリソースを確実に入手できるようにします。

詳細は、Red Hat OpenShift Data Science の概要 を参照してください。

第2章 サポートの削除

このセクションでは、Red Hat OpenShift Data Science のユーザー向け機能のサポートにおける主な変更点を説明します。

2.1. NVIDIA GPU Operator が NVIDIA GPU アドオンを置き換える

以前は、Graphics Processing Unit (GPU) が計算負荷の高いワークロードを支援できるようにするために、NVIDIA GPU アドオンをインストールしていました。OpenShift Data Science はこのアドオンをサポートしなくなりました。

GPU サポートを有効にするには、NVIDIA GPU Operator をインストールする必要があります。GPU Operator のインストール方法の詳細は、NVIDIA GPU Operator on OpenShift (外部) を参照してください。

2.2. Kubeflow Notebook Controller が JupyterHub を置き換える

OpenShift Data Science 1.15 以前では、JupyterHub を使用してノートブックサーバー環境を作成および起動していました。OpenShift Data Science 1.16 以降には JupyterHub が含まれなくなり、その機能は Kubeflow Notebook Controller に置き換えられました。

この変更により、次の利点が得られます。

  • ユーザーは、最初のリクエストがタイムアウトするまで 5 分以上待つのではなく、すぐにリクエストをキャンセルし、変更を加えて、リクエストを再試行できるようになりました。これは、たとえば、ノートブックサーバーが正しく起動しない場合など、要求が失敗したときに、ユーザーがそれほど長く待機しないことを意味します。
  • このアーキテクチャーにより、1 人のユーザーが複数のノートブックサーバーセッションを持つことが妨げられなくなり、将来の機能の可能性が広がります。
  • PostgreSQL データベース要件の削除により、OpenShift Data Science での将来の拡張環境サポートが可能になります。

ただし、この更新により、次の動作の変更も作成されます。

  • IT 運用管理者の場合、現在、ノートブックサーバー管理インターフェイスでは、データサイエンティストユーザーのノートブックサーバーへのログインアクセスが許可されていません。これは、将来のリリースで追加される予定です。
  • データサイエンティストの場合、JupyterHub インターフェイスの URL は無効になりました。OpenShift Data Science Dashboard を指すようにブックマークを更新します。

JupyterLab インターフェイスは変更されておらず、データサイエンティストは引き続き JupyterLab を使用して、通常どおりノートブックファイルを操作できます。

第3章 解決した問題

このセクションでは、Red Hat OpenShift Data Science で解決された留意すべき問題について説明します。

ODH-DASHBOARD-1639 - ダッシュボードルートの TLS 値が間違っている

以前は、OpenShift で OpenShift Data Science ダッシュボードのルートが作成されると、tls.termination フィールドに無効なデフォルト値 Reencrypt が含まれていました。この問題は解決されています。新しい値は reencrypt です。

ODH-DASHBOARD-1638: トリガーされた実行タブの名前プレースホルダーにスケジュールされた実行名が表示される

以前は、Pipelines > Runs をクリックし、Triggered タブを選択してトリガーされた実行を設定すると、Name フィールドに表示される値の例は Scheduled run name でした。この問題は解決されています。

ODH-DASHBOARD-1547: パイプライン Operator がバックグラウンドでインストールされているときに、ダッシュボードに "We can’t find that page" というメッセージが表示される

以前は、ダッシュボードの Data Science Pipelines ページを使用して OpenShift Pipelines Operator をインストールすると、Operator のインストールが完了するとページが更新され、"We can’t find that page" というメッセージが表示されていました。この問題は解決されています。Operator のインストールが完了すると、ダッシュボードは Pipelines ページにリダイレクトされ、そこでパイプラインサーバーを作成できます。

ODH-DASHBOARD-1545: モデルタブをデプロイメントすると、ダッシュボードがプロジェクトの一番下までスクロールし続ける

以前は、ダッシュボードの Data Science Projects ページで、Deployed models タブをクリックしてデプロイメントし、ページ上で他のアクションを実行しようとすると、ページが自動的に Deployed models セクションにスクロールして戻りました。これは、他のアクションを実行する能力に影響を与えました。この問題は解決されています。

NoteBOOKS-156: Elyra には Test というサンプルランタイムが含まれている

以前の Elyra には、Test という名前のランタイム設定の例が含まれていました。データサイエンスパイプラインの実行時にこの設定を選択すると、エラーが発生する可能性があります。Test 設定は削除されました。

RHODS-8939 - 以前のリリースで作成された Jupyter ノートブックのデフォルトの共有メモリーによりランタイムエラーが発生する

リリース 1.3.1 以降、この問題は修正され、新しいノートブックの共有メモリーはノードのサイズに設定されます。

1.3.1 より前のリリースで作成された Jupyter ノートブックの場合に、Jupyter ノートブックのデフォルトの共有メモリーは 64 MB に設定されており、ノートブック設定でこのデフォルト値を変更できません。

この問題を解決するには、ノートブックを再作成するか、これらのリリースノートの 既知の問題セクション に記載されているプロセスに従う必要があります。

RHODS-8932 - 定期的なパイプライン実行をスケジュールすると、デフォルトで間違った cron 形式が表示される

cron ジョブを設定して定期的なパイプラインの実行をスケジュールすると、OpenShift Data Science インターフェイスにはデフォルトで間違った形式が表示されます。正しい形式で表示されるようになりました。

RHODS-9374 - 一意でない名前のパイプラインがデータサイエンスプロジェクトのユーザーインターフェイスに表示されない

Elyra をサポートする Jupyter アプリケーションからノートブックを起動する場合、またはワークベンチを使用する場合、実行するパイプラインを送信するときに一意でない名前のパイプラインは、関連するデータサイエンスプロジェクトページの Pipelines セクション、またはデータサイエンスパイプラインページの Pipelines 見出しに表示されませんでした。この問題は解決されています。

RHODS-9329 - カスタムのモデルサービングランタイムをデプロイすると、エラーメッセージが表示される場合がある

以前は、OpenShift Data Science ダッシュボードを使用してカスタムモデルサービングランタイムをデプロイすると、デプロイメントプロセスが失敗し、Error retrieving Serving Runtime というメッセージが表示されることがありました。この問題は解決されています。

RHODS-9064 - アップグレード後、OpenShift Data Science ダッシュボードで Data Science Pipelines タブが有効にならない

OpenShift Data Science 1.26 から OpenShift Data Science 1.28 にアップグレードした場合、OpenShift Data Science ダッシュボードの Data Science Pipelines タブが有効になりませんでした。この問題は OpenShift Data Science 1.29 で解決されています。

RHODS-9443 - Elyra パイプラインをエクスポートすると、S3 ストレージ認証情報がプレーンテキストで公開される

OpenShift Data Science 1.28.0 では、Python DSL 形式または YAML 形式で JupyterLab から Elyra パイプラインをエクスポートすると、生成された出力にはプレーンテキストで S3 ストレージの認証情報が含まれていました。この問題は OpenShift Data Science 1.28.1 で解決されました。ただし、OpenShift Data Science 1.28.1 にアップグレードした後、デプロイメントにパイプラインサーバーとデータ接続のあるデータサイエンスプロジェクトが含まれている場合は、修正を有効にするために以下のアクションも実行する必要があります。

  1. ブラウザーページを更新します。
  2. デプロイメントで実行中のワークベンチをすべて停止し、再起動します。

さらに、Elyra ランタイム設定に修正が含まれていることを確認するには、以下のアクションを実行します。

  1. JupyterLab の左側のサイドバーで、Runtimes ( The Runtimes icon ) をクリックします。
  2. 表示するランタイム設定の上にカーソルを置き、Edit ボタン ( Edit runtime configuration ) をクリックします。

    Data Science Pipelines runtime configuration ページが開きます。

  3. KUBERNETES_SECRETCloud Object Storage Authentication Type フィールドの値として定義されていることを確認します。
  4. 変更せずにランタイム設定を閉じます。

RHODS-8460 - 共有プロジェクトの詳細を編集すると、ユーザーインターフェイスがエラーを報告せずに読み込み状態のままになる

プロジェクトを編集する権限を持つユーザーがその詳細を編集しようとすると、ユーザーインターフェイスは読み込み中の状態のままになり、適切なエラーメッセージが表示されません。プロジェクトを編集する権限を持つユーザーは、説明など、プロジェクト内のフィールドを編集できません。これらのユーザーは、ワークベンチ、データ接続、ストレージなど、プロジェクトに属するコンポーネントのみを編集できます。

ユーザーインターフェイスには適切なエラーメッセージが表示され、プロジェクトの説明は更新されなくなりました。

RHODS-8482 - データサイエンスパイプライングラフに、実行中のパイプラインのノードエッジが表示されない

YAML コードで Tekton 形式の Parameters または when 式が含まれていないパイプラインを実行すると、OpenShift Data Science ユーザーインターフェイスにグラフノードとの間の接続エッジが表示されません。たとえば、runAfter プロパティーまたは Workspaces を含むパイプラインを使用する場合、ユーザーインターフェイスには、エッジ接続なしで実行されたパイプラインのグラフが表示されます。OpenShift Data Science ユーザーインターフェイスには、グラフノードとの間の接続エッジが表示されるようになりました。

RHODS-8923 - パイプラインサーバーを作成しようとしたときに、新しく作成されたデータ接続が検出されない

データサイエンスプロジェクト内からデータ接続を作成し、パイプラインサーバーを作成しようとすると、Configure a pipeline server では作成したデータ接続が検出されませんでした。この問題は修正されています。

RHODS-8461 - プロジェクトを別のユーザーと共有する場合は、OpenShift Data Science ユーザーインターフェイスのテキストが誤解を招く

データサイエンスプロジェクトを別のユーザーと共有しようとすると、ユーザーインターフェイスのテキストは、ユーザーがその説明などの詳細をすべて編集できるという誤解を招くような意味を与えます。ただし、ユーザーが編集できるのは、ワークベンチ、データ接続、ストレージなど、プロジェクトに属するコンポーネントのみです。この問題は修正され、ユーザーインターフェイスのテキストは、ユーザーがすべての詳細を編集できるという誤解を招くような意味を持たなくなりました。

RHODS-8462 - "編集" 権限を持つユーザーが Model Server を作成できない

"編集" 権限を持つユーザーは、トークン認証なしで Model Server を作成できるようになりました。トークン認証を使用して Model Server を作成するには、ユーザーは "管理者" 権限を持っている必要があります。

RHODS-8796 - OpenVINO Model Server ランタイムに、GPU の使用を強制するために必要なフラグがない

OpenShift Data Science には、OpenVINO Model Server (OVMS) モデル提供ランタイムがデフォルトで含まれています。新しいモデルサーバーを設定してこのランタイムを選択すると、Configure model server ダイアログでモデルサーバーで使用する GPU の数を指定できます。ただし、モデルサーバーの設定を完了し、そこからモデルをデプロイすると、モデルサーバーは実際には GPU を使用しませんでした。この問題は修正され、モデルサーバーは GPU を使用するようになりました。

RHODS-8861 - パイプライン実行の作成時にホストプロジェクトを変更すると、使用可能なパイプラインのリストが不正確になる

パイプライン実行の作成中にホストプロジェクトを変更すると、インターフェイスは新しいホストプロジェクトのパイプラインを使用可能にすることができません。代わりに、インターフェイスには、最初に Data Science PipelinesRuns ページで選択したプロジェクトに属するパイプラインが表示されます。この問題は修正されています。Create run ページからパイプラインを選択する必要はなくなりました。Create run ボタンをクリックすると、現在のプロジェクトとそのパイプラインに基づいて、パイプラインの選択が自動的に更新されます。

RHODS-8249 - ConfigMap としてアップロードされた環境変数が、代わりに Secret に保存される

以前は、OpenShift Data Science インターフェイスで、ConfigMap 設定をアップロードして環境変数をワークベンチに追加すると、変数は代わりに Secret オブジェクトに保存されていました。この問題は修正されています。

RHODS-7975 - ワークベンチに複数のデータ接続がある可能性がある

以前は、ワークベンチのデータ接続を変更すると、既存のデータ接続は解放されませんでした。その結果、ワークベンチが複数のデータソースに接続したままになる可能性がありました。この問題は修正されています。

RHODS-7948 - 環境変数を含むシークレットファイルをアップロードすると、値が二重にエンコードされる

以前は、データサイエンスプロジェクトでワークベンチを作成するときに、環境変数を含む YAML ベースのシークレットファイルをアップロードすると、環境変数の値がデコードされませんでした。次に、このプロセスによって作成される結果となる OpenShift シークレットでは、エンコードされた値が再度エンコードされました。この問題は修正されています。

RHODS-6429 - Intel OpenVINO または Anaconda Professional Edition イメージを使用してワークベンチを作成すると、エラーが表示される

以前は、Intel OpenVINO または Anaconda Professional Edition イメージでワークベンチを作成すると、作成プロセス中にエラーが表示されていました。ただし、ワークベンチは正常に作成されています。この問題は修正されています。

RHODS-6372 - アイドル状態のノートブックの選別では、アクティブな端末が考慮されない

以前のバージョンでは、ノートブックイメージに実行中の端末があり、アクティブな実行中のカーネルがない場合、idle notebook culler はノートブックを非アクティブとして検出し、ターミナルを停止していました。この問題は修正されています。

RHODS-5700 - ワークベンチの作成時にデータ接続を作成または接続できない

ワークベンチの作成時に、ユーザーは新しいデータ接続を作成したり、既存のデータ接続に接続したりできませんでした。

RHODS-6281 - 管理者グループがクラスターから削除されると、OpenShift Data Science 管理者は Settings ページにアクセスできない

以前は、Red Hat OpenShift Data Science 管理者グループがクラスターから削除されると、OpenShift Data Science 管理者ユーザーは OpenShift Data Science ダッシュボードの Settings ページにアクセスできなくなりました。特に、以下の動作が見られました。

  • OpenShift Data Science 管理者ユーザーが SettingsUser management ページにアクセスしようとすると、"Page Not Found" エラーが表示されました。
  • クラスター管理者は、OpenShift Data Science ダッシュボードの Settings ページには引き続き アクセスできました。クラスター管理者が SettingsUser management ページにアクセスすると、削除された OpenShift Data Science 管理者グループが OpenShift にもう存在しないことを示す警告メッセージが表示されました。その後、削除された管理者グループは OdhDashboardConfig から削除され、管理者アクセスが復元されました。

この問題は修正されています。

RHODS-1968 - 削除されたユーザーはダッシュボードが更新されるまでログインしたままになる

以前は、Red Hat OpenShift Data Science ダッシュボードに対するユーザーの権限が取り消されても、ダッシュボードページが更新されるまで変更を認識できませんでした。

この問題は修正されています。ユーザーの権限が取り消されると、OpenShift Data Science ダッシュボードを更新しなくても、30 秒以内にユーザーはロックアウトされます。

RHODS-6384 - 重複したデータ接続を作成するときに、ワークベンチのデータ接続が誤って更新される

既存のデータ接続と同じ名前を含むデータ接続を作成すると、データ接続の作成は失敗していましたが、関連付けられたワークベンチが再起動し、間違ったデータ接続に接続していました。この問題は解決されています。ワークベンチが正しいデータ接続に接続するようになりました。

RHODS-6370 - ワークベンチが最新の容認の受信に失敗する

以前は、最新の Toleration を取得するために、ユーザーは関連するワークベンチを編集し、変更を加えず、ワークベンチを再度保存する必要がありました。ユーザーは、データサイエンスプロジェクトのワークベンチを停止してから再起動すると、最新の Toleration の変更を適用できるようになりました。

RHODS-6779 - OpenShift Data Science 1.20 から OpenShift Data Science 1.21 にアップグレードした後、モデルの提供に失敗する

OpenShift Data Science 1.20 から OpenShift Data Science 1.21 にアップグレードする場合は、modelmesh-serving Pod が存在しないイメージをプルしようとし、イメージのプルエラーが発生します。そのため、モデルは OpenShift Data Science のモデル提供機能を使用して提供できませんでした。odh-openvino-servingruntime-container-v1.21.0-15 イメージが正常にデプロイされるようになりました。

RHODS-5945 - Anaconda Professional Edition を OpenShift Data Science で有効にできない

Anaconda Professional Edition を OpenShift Data Science で使用できるようにできませんでした。代わりに、関連する Pod の Events ページに InvalidImageName エラーが表示されました。Anaconda Professional Edition を有効にできるようになりました。

RHODS-5822 - データサイエンスプロジェクトによって作成された PVC の使用率が 90% および 100% を超えた際に、管理者ユーザーに警告が表示されない

PVC が 90% を超え、容量の 100% を超えたことを示す警告が、データサイエンスプロジェクトによって作成された PVC の管理者ユーザーに表示されませんでした。管理者ユーザーは、PVC が容量の 90% および 100% を超えたときに、ダッシュボードから警告を表示できるようになりました。

RHODS-5889 - データサイエンスノートブックが "保留中" ステータスのままになっている場合に、エラーメッセージが表示されない

ノートブック Pod を作成できなかった場合、OpenShift Data Science インターフェイスはエラーメッセージを表示しませんでした。データサイエンスノートブックを生成できない場合は、エラーメッセージが表示されるようになりました。

RHODS-5886 - データサイエンスワークベンチから Hub Control Panel d ダッシュボードに戻ると失敗する

FileLog Out をクリックして、ワークベンチ Jupyter ノートブックからダッシュボードに戻ろうとすると、ダッシュボードにリダイレクトされ、ログアウトページが表示されたままになります。同様に、FileHub Control Panel をクリックしてダッシュボードに戻ろうとすると、誤って Start a notebook server ページにリダイレクトされます。データサイエンスワークベンチから Hub コントロールパネルダッシュボードに戻ると、想定どおりに動作するようになりました。

RHODS-6101 - 管理者はすべてのノートブックサーバーを停止できない

OpenShift Data Science 管理者は、すべてのノートブックサーバーを同時に停止できませんでした。管理者は、Stop all servers ボタンを使用してすべてのノートブックサーバーを停止し、関連するユーザーの横にあるアクションメニューから Stop server を選択して、1 つのノートブックを停止できるようになりました。

RHODS-5891 - ワークベンチのイベントログが明確に表示されない

ワークベンチを作成するとき、ユーザーは OpenShift Data Science インターフェイスでイベントログウィンドウを簡単に見つけることができませんでした。Status 列の下の Starting ラベルにカーソルを合わせると、下線が引かれるようになりました。これは、クリックしてノートブックのステータスとイベントログを表示できることを示しています。

RHODS-6296 - Google Chrome 以外のブラウザーを使用すると ISV アイコンがレンダリングされない

Google Chrome 以外のブラウザーを使用すると、Explore および Resources ページの下にあるすべての ISV アイコンがレンダリングされませんでした。サポートされているすべてのブラウザーで ISV アイコンが正しく表示されるようになりました。

RHODS-3182 - Jupyter で使用可能な GPU の誤った数が表示される

ユーザーが Jupyter でノートブックインスタンスを作成しようとしても、GPU が割り当てられているため、スケジューリングに使用できる GPU の最大数は更新されませんでした。Jupyter で、使用可能な GPU の正しい数が表示されるようになりました。

RHODS-5890 - 複数の永続ボリュームが同じディレクトリーにマウントされている場合、ワークベンチの起動に失敗する

複数の永続ボリューム (PV) を同じワークベンチの同じマウントフォルダーにマウントすると、Notebook Pod の作成が失敗し、問題があることを示すエラーが表示されませんでした。

RHODS-5768 - Red Hat OpenShift Data Science で Data Science プロジェクトがユーザーに表示されない

プロジェクトの Display Name プロパティーの末尾にある [DSP] 接尾辞を削除すると、関連するデータサイエンスプロジェクトが表示されなくなりました。ユーザーがこの接尾辞を削除することはできなくなりました。

RHODS-5701 - データ接続設定の詳細が上書きされる

データ接続がワークベンチに追加されると、そのデータ接続の設定の詳細が環境変数に保存されていました。2 番目のデータ接続が追加されると、設定の詳細は同じ環境変数を使用して保存されました。つまり、最初のデータ接続の設定が上書きされました。現時点では、ユーザーは各ワークベンチに最大 1 つのデータ接続を追加できます。

RHODS-5252 - ノートブック Administration ページでは、ユーザーのノートブックサーバーへの管理者アクセスが提供されない

OpenShift Data Science ダッシュボードからアクセスできるノートブック Administration ページには、管理者がユーザーのノートブックサーバーにアクセスする手段がありませんでした。管理者は、ユーザーのノートブックサーバーの起動または停止のみに制限されていました。

RHODS-2438 - アップグレード時に PyTorch および TensorFlow イメージを利用できない

OpenShift Data Science 1.3 からそれ以降のバージョンにアップグレードする場合、ユーザーは PyTorch および TensorFlow イメージを約 30 分間使用できなくなりました。その結果、ユーザーはアップグレードプロセス中に Jupyter で PyTorch および TensorFlow ノートブックを起動できなくなりました。この問題は解決されています。

RHODS-5354 - ノートブックサーバーの起動時に環境変数名が検証されない

環境変数名は、Start a notebook server ページで検証されませんでした。無効な環境変数が追加された場合、ユーザーはノートブックを正常に起動できませんでした。環境変数名がリアルタイムでチェックされるようになりました。無効な環境変数名を入力した場合は、有効な環境変数名はアルファベット、数字、_-、または . で設定され、数字で始まってはいけないことを示すエラーメッセージが表示されます。

RHODS-4617 - 利用可能な GPU がある場合にのみ、Number of GPUs ドロップダウンが表示される

以前は、GPU ノードが使用可能な場合、Number of GPUsStart a notebook server ページにのみ表示されていました。クラスターで自動スケーリングマシンプールが定義されている場合は、Number of GPUs のドロップダウンも正しく表示されるようになりました。現在 GPU ノードを使用できない場合でも、クラスターで新しい GPU ノードがプロビジョニングされる可能性があります。

RHODS-5420 - クラスター管理者がクラスター内に存在する唯一のユーザーの場合、管理者アクセス権を取得しない

以前のリリースでは、クラスター管理者がクラスター内に存在する唯一のユーザーになる場合は、Red Hat OpenShift 管理者アクセスが自動的に取得されませんでした。管理者アクセスがクラスター管理者ユーザーに正しく適用されるようになりました。

RHODS-4321 - ノートブックの選択中に間違ったパッケージバージョンが表示される

Start a notebook server ページに、CUDA ノートブックイメージの誤ったバージョン番号 (11.7 ではなく 11.4) が表示されました。インストールされている CUDA のバージョンは、このページでは指定されなくなりました。

RHODS-5001 - 管理者ユーザーが無効な容認をノートブック Pod に追加できる可能性がある

管理者ユーザーは、エラーをトリガーすることなく、Cluster settings ページに無効な容認を追加できました。無効な容認が追加されると、ユーザーはノートブックを正常に起動できませんでした。容認キーがリアルタイムでチェックされるようになりました。無効な容認名を入力すると、有効な容認名が英数字、-_、または . で構成され、英数字で開始および終了する必要があることを示すエラーメッセージが表示されます。

RHODS-5100 - グループロールバインディングがクラスター管理者に適用されない

以前は、クラスター管理者権限を特定のユーザーではなくグループに割り当てると、ダッシュボードは管理グループ内のユーザーの管理者権限を認識できませんでした。グループロールバインディングが、期待どおりにクラスター管理者に正しく適用されるようになりました。

RHODS-4947 - 古い Minimal Python ノートブックイメージがアップグレード後も存続する

OpenShift Data Science 1.14 から 1.15 にアップグレードした後、古いバージョンの Minimal Python ノートブックは、関連するすべてのパッケージバージョンを含む永続します。最小限の Python ノートブックの古いバージョンは、アップグレード後に保持されなくなりました。

RHODS-4935 - ダッシュボードログに "missing x-forwarded-access-token header" というエラーメッセージが過剰に表示される

rhods-dashboard Pod のログには、readiness プローブが /status エンドポイントにヒットしたため、"missing x-forwarded-access-token header" ヘッダーエラーメッセージが大量に含まれていました。この問題は解決されています。

RHODS-2653 - サンプル Pachyderm ノートブックで生成されたイメージをフェッチ中にエラーが発生する

ユーザーが Jupyter のサンプル Pachyderm ノートブックを使用してイメージを取得しようとしたときに、エラーが発生しました。エラーには、イメージが見つからなかったと表示されていました。Pachyderm はこの問題を修正しました。

RHODS-4584 - Jupyter が OpenVINO ノートブックイメージを使用したノートブックサーバーの起動に失敗する

Jupyter の Start a notebook server ページ は、OpenVINO ノートブックイメージを使用してノートブックサーバーの起動に失敗します。Intel 社は、この問題を修正するために OpenVINO Operator への更新を提供しました。

RHODS-4923 - 使用状況データの収集を無効にした後に非標準のチェックボックスが表示される

Cluster settings ページで使用データ収集を無効にした後に、ユーザーが OpenShift Data Science ダッシュボードの別の領域にアクセスし、Cluster settings ページに返されると、Allow collection of usage data チェックボックスには標準以外のスタイルが適用されていたため、選択またはクリア時に他のチェックボックスと同じように見えませんでした。

RHODS-4938 - Notebook Images ページに間違った見出しが表示される

OpenShift Data Science ダッシュボードの Settings ページからアクセスできる Notebook Images ページには、ユーザーインターフェースに誤った見出しが表示されました。Notebook image settings の見出しは BYON image settings として表示され、Import Notebook imagesの見出しは Import BYON images として表示されます。正しい見出しが予想通りに表示されるようになりました。

RHODS-4818 - NVIDIA GPU アドオンがインストールされている場合、Jupyter はイメージを表示できない

Start a notebook server ページには、NVIDIA GPU アドオンのインストール後にノートブックイメージが表示されませんでした。イメージが正しく表示され、Start a notebook server ページから起動できるようになりました。

RHODS-4797 - 使用率が 90% および 100% を超えた場合、PVC 使用量制限アラートが送信されない

PVC が 90% を超え、容量の 100% を超えて送信できなかったかどうかを示すアラート。これらのアラートはトリガーされ、予想通りに送信されるようになりました。

RHODS-4366 - Operator の再起動時にクラスター設定がリセットされる

OpenShift Data Science Operator Pod を再起動すると、クラスター設定がデフォルト値にリセットされ、カスタム設定が削除されていました。OpenShift Data Science Operator は、新規バージョンの OpenShift Data Science がリリースされ、Operator を実行したノードの失敗時に再起動されました。この問題は、Operator が ConfigMap を誤ってデプロイするために生じました。Operator デプロイメントの手順が更新され、これが実行されなくなりました。

RHODS-4318 - OpenVINO ノートブックイメージが正常にビルドされない

OpenVINO ノートブックイメージは正常にビルドに失敗し、エラーメッセージを表示していました。この問題は解決されています。

RHODS-3743 - Starburst Galaxy クイックスタートの手順にダウンロードリンクが提供されていない

ダッシュボードの Resources ページにある Starburst Galaxy クイックスタートでは、ユーザーが explore-data.ipynb notebook を開く必要がありましたが、手順でリンクを提供されませんでした。代わりに、リンクはクイックスタートの導入時に提供されていました。

RHODS-1974 - アラート通知メールを変更するには Pod の再起動が必要

Red Hat OpenShift Data Science アドオンの通知メールアドレスのリストへの変更は、rhods-operator Pod および prometheus-* Pod が再起動するまで適用されませんでした。

RHODS-2738 - Red Hat OpenShift API Management 1.15.2 アドオンのインストールが正常に完了しない

Red Hat OpenShift API Management 1.15.2 アドオンと統合されている OpenShift Data Science インストールの場合、Red Hat OpenShift API Management インストールプロセスでは SMTP 認証情報シークレットは正常に取得されませんでした。そのため、インストールが完了しませんでした。

RHODS-3237 - GPU チュートリアルがダッシュボードに表示されない

Gtc2018-numba にある GPU コンピューティングチュートリアルは、ダッシュボードの Resources ページに表示されませんでした。

RHODS-3069 - GPU ノードが利用できないときに GPU の選択が持続する

ユーザーが GPU をサポートするノートブックサーバーをプロビジョニングし、その後、使用されている GPU ノードがクラスターから削除された場合、ユーザーはノートブックサーバーを作成できませんでした。これは、接続されている GPU の数に最近使用された設定がデフォルトで使用されていたために発生しました。

RHODS-3181 - Pachyderm が OpenShift Dedicated 4.10 クラスターと互換性を持つようになる

Pachyderm は当初 OpenShift Dedicated 4.10 と互換性がなかったため、OpenShift Dedicated 4.10 クラスターで実行している OpenShift Data Science では使用できませんでした。Pachyderm は、OpenShift Dedicated 4.10 で利用可能になり、互換性があります。

RHODS-2160 - OpenShift Data Science と OpenShift API Management の両方がインストールされている場合はアンインストールプロセスを完了できない

OpenShift Data Science と OpenShift API Management を同じクラスターに一緒にインストールすると、同じ Virtual Private Cluster (VPC) が使用されます。これらの Add-on アンインストールプロセスは、VPC を削除しようとします。以前は、両方の Add-on インストールされていると、一方のサービスが VPC にリソースを持っていたために、もう一方のサービスのアンインストールプロセスがブロックされていました。この競合が発生しないように、クリーンアッププロセスが更新されました。

RHODS-2747 - OpenShift Data Science をアップグレードした後にイメージが誤って更新される

OpenShift Data Science をアップグレードするプロセスが完了した後、Jupyter はノートブックイメージの更新に失敗します。これは、イメージキャッシュメカニズムの問題が原因です。アップグレード後、イメージが正しく更新されるようになりました。

RHODS-2425 - ノートブックの選択中に誤った TensorFlow および TensorBoard が表示される

Start a notebook server ページに、TensorFlow ノートブックイメージの TensorFlow と TensorBoard のバージョン番号 (2.4.0) が正しく表示されませんでした。これらのバージョンは、TensorFlow 2.7.0 および TensorBoard 2.6.0 に修正されています。

RHODS-24339 - 有効なアプリケーションのクイックスタートリンクが表示されない

一部のアプリケーションでは、Open quick start リンクが、Enabled ページのアプリケーションのカードに表示されませんでした。その結果、ユーザーは関連するアプリケーションのクイックスタートツアーに直接アクセスできませんでした。

RHODS-2215 - ノートブックの選択中に間違った Python バージョンが表示される

Start a notebook server ページに、TensorFlow および PyTorch ノートブックイメージに対して誤ったバージョンの Python が表示されました。さらに、パッケージバージョン番号の 3 番目の整数が表示されなくなりました。

RHODS-1977 - ノートブックサーバーの起動に失敗した後、10 分間待機する

ノートブックサーバーの起動中に Jupyter リーダー Pod に障害が発生した場合、ユーザーは Pod が再起動するまでノートブックサーバーにアクセスできませんでした。これには約 10 分かかりました。このプロセスは改善され、新しいリーダー Pod が選出されたときにユーザーがサーバーにリダイレクトされるようになりました。このプロセスがタイムアウトになると、ユーザーには 504 Gateway Timeout エラーが表示され、サーバーにアクセスするために更新できます。

第4章 既知の問題

このセクションでは、Red Hat OpenShift Data Science の既知の問題と、これらの問題を回避する既知の方法について説明します。

RHODS-11791: アップグレード後に使用状況データの収集が有効になる

以前に Allow collection of usage data オプションの選択を解除していた (つまり、無効にしていた) 場合、OpenShift Data Science をアップグレードすると、このオプションが選択されます (つまり、有効になります)。

回避策

Allow collection of usage data オプションを手動でリセットします。これを行うには、次のアクションを実行します。

  1. OpenShift Data Science ダッシュボードの左側のメニューで、SettingsCluster settings をクリックします。

    Cluster Settings ページが開きます。

  2. Usage data collection セクションで、Allow collection of usage data の選択を解除します。
  3. Save Changes をクリックします。

DATA-SCIENCE-PIPELINES-OPERATOR-294: データ受け渡しを使用するスケジュールされたパイプラインの実行で、ステップ間でのデータの受け渡しに失敗するか、ステップ全体が失敗する可能性がある

S3 オブジェクトストアを使用してパイプラインアーティファクトを保存するスケジュールされたパイプラインの実行は、次のようなエラーで失敗する場合があります。

Bad value for --endpoint-url "cp": scheme is missing. Must be of the form http://<hostname>/ or https://<hostname>/

この問題は、スケジュールされたパイプライン実行のために S3 オブジェクトストアエンドポイントが Pod に正常に渡されないために発生します。

回避策

渡されるパイプラインアーティファクトのサイズに応じて、カスタムアーティファクト渡しスクリプトを適用してパイプラインサーバーを再起動することで、この問題を部分的または完全に回避できます。具体的には、この回避策により次の動作が発生します。

  • 3 キロバイト未満のパイプラインアーティファクトの場合、パイプラインの実行によりアーティファクトが S3 オブジェクトストアに正常に渡されるようになりました。
  • 3 キロバイトを超えるパイプラインアーティファクトの場合、パイプラインの実行では依然としてアーティファクトが S3 オブジェクトストアに渡され ません。ただし、この回避策により、実行は完了まで継続されます。パイプライン実行の残りの部分にある小さなアーティファクトはすべて正常に保存されます。

この回避策を適用するには、次のアクションを実行します。

  1. テキストエディターに、次の YAML ベースのアーティファクト受け渡しスクリプトを貼り付けます。このスクリプトは ConfigMap オブジェクトを定義します。

    apiVersion: v1
    data:
      artifact_script: |-
        #!/usr/bin/env sh
        push_artifact() {
            workspace_dir=$(echo $(context.taskRun.name) | sed -e "s/$(context.pipeline.name)-//g")
            workspace_dest=/workspace/${workspace_dir}/artifacts/$(context.pipelineRun.name)/$(context.taskRun.name)
            artifact_name=$(basename $2)
            if [ -f "$workspace_dest/$artifact_name" ]; then
                echo sending to: ${workspace_dest}/${artifact_name}
                tar -cvzf $1.tgz -C ${workspace_dest} ${artifact_name}
                aws s3 --endpoint <Endpoint> cp $1.tgz s3://<Bucket>/artifacts/$PIPELINERUN/$PIPELINETASK/$1.tgz
            elif [ -f "$2" ]; then
                tar -cvzf $1.tgz -C $(dirname $2) ${artifact_name}
                aws s3 --endpoint <Endpoint> cp $1.tgz s3://<Bucket>/artifacts/$PIPELINERUN/$PIPELINETASK/$1.tgz
            else
                echo "$2 file does not exist. Skip artifact tracking for $1"
            fi
        }
        push_log() {
            cat /var/log/containers/$PODNAME*$NAMESPACE*step-main*.log > step-main.log
            push_artifact main-log step-main.log
        }
        strip_eof() {
            if [ -f "$2" ]; then
                awk 'NF' $2 | head -c -1 > $1_temp_save && cp $1_temp_save $2
            fi
        }
    kind: ConfigMap
    metadata:
      name: custom-script
  2. スクリプト内で、<Endpoint> の出現箇所を S3 エンドポイント (例: https://s3.amazonaws.com) に置き換え、<Bucket> の出現箇所を S3 バケット名に置き換えます。
  3. ConfigMap オブジェクトの YAML ファイルを保存します。
  4. YAML ファイルを適用します。

    $ oc apply -f <configmap_file_name>.yaml
  5. パイプラインサーバーを再起動します。

    $ oc project <data_science_project_name>
    $ oc delete pod $(oc get pods  -l app=ds-pipeline-pipelines-definition --no-headers | awk {print $1})

ODH-DASHBOARD-1741: 名前が数字で始まるワークベンチは作成できません

名前が数字で始まるワークベンチを作成しようとすると、ワークベンチは起動しません。

回避策
ワークベンチを削除し、文字で始まる名前を付けて新しいワークベンチを作成します。

ODH-DASHBOARD-1699: 設定の更新後にワークベンチが再起動しない

ワークベンチ設定を更新した場合 (たとえば、環境変数値を変更することによって)、ワークベンチは自動的に再起動されず、変更が表示されません。

回避策
ワークベンチを手動で再起動します。

KUBEFLOW-157: OpenShift Data Science ダッシュボードからすでにログアウトしている場合、JupyterLab からのログアウトが機能しない

JupyterLab からログアウトする前に OpenShift Data Science ダッシュボードからログアウトすると、JupyterLab からのログアウトは成功しません。たとえば、Jupyter ノートブックの URL がわかっている場合は、これをブラウザーで再度開くことができます。

回避策
OpenShift Data Science ダッシュボードからログアウトする前に、JupyterLab からログアウトします。

RHODS-9789: データベース名またはユーザー名フィールドにダッシュがあるカスタムデータベースが含まれる場合はパイプラインサーバーは起動に失敗する

カスタムデータベースを使用するパイプラインサーバーを作成する場合、dbname フィールドまたは username フィールドに設定した値にダッシュが含まれていると、パイプラインサーバーは起動に失敗します。

回避策
パイプラインサーバーを編集して、対象のフィールドからダッシュを削除します。

RHODS-9764: ワークベンチを編集するとデータ接続の詳細がリセットされる

既存のデータ接続があるワークベンチを編集し、新しいデータ接続の作成 オプションを選択すると、新しい接続の詳細の指定が完了する前に、編集ページが 既存のデータ接続を使用 オプションに戻る場合があります。

回避策

この問題を回避するには、以下のアクションを実行します。

  1. 再度 Create new data connection オプションを選択します。
  2. 新しい接続の詳細を指定し、Update workbench をクリックして、ページが Use existing data connection オプションに戻ります。

RHODS-9583: データサイエンスダッシュボードが既存の OpenShift Pipelines インストールを検出しない

OpenShift Pipelines Operator がクラスターにグローバル Operator としてインストールされている場合、Data Science ダッシュボードで適切に検出されません。

左側のナビゲーションバーの Data Science Pipelines オプションの横に警告アイコンが表示されます。Data Science Pipelines を開くと、“To use pipelines, first install the Red Hat OpenShift Pipelines Operator.” というメッセージが表示されます。 ただし、openshift-operators プロジェクトでインストールされている Operator のリストを表示すると、OpenShift Pipelines がクラスターにグローバル Operator としてインストールされていることがわかります。

回避策

cluster-admin 権限を持つユーザーで、次の手順を実行します。

  1. oc クライアントを使用してクラスターにログインします。
  2. 次のコマンドを入力して、redhat-ods-applications アプリケーション namespace の OdhDashboardConfig を更新します。

    $ oc patch OdhDashboardConfig odh-dashboard-config -n redhat-ods-applications --type=merge -p '{"spec": {"dashboardConfig": {"disablePipelines": false}}}'

RHODS-9412: 編集権限を持つユーザーがワークベンチを作成した場合、Elyra パイプラインが実行に失敗する

プロジェクトの編集権限を付与されたユーザーがプロジェクトワークベンチを作成すると、そのユーザーには次の動作が表示されます。

  • ワークベンチの作成プロセス中に、Kubernetes ロールバインディングの作成に関連する Error creating workbench メッセージがユーザーに表示されます。
  • 前述のエラーメッセージにもかかわらず、OpenShift Data Science は引き続きワークベンチを作成します。ただし、このエラーメッセージは、ユーザーがワークベンチを使用して Elyra データサイエンスパイプラインを実行できないことを意味します。
  • ユーザーがワークベンチを使用して Elyra パイプラインを実行しようとすると、Jupyter は初期化の失敗を説明する Error making request メッセージを表示します。

    回避策
    管理者権限を持つユーザー (プロジェクト所有者など) は、編集権限を持つユーザーに代わってワークベンチを作成する必要があります。その後、そのユーザーはワークベンチを使用して Elyra パイプラインを実行できるようになります。

RHODS-9030: kfdefs リソースを削除すると、OpenShift Data Science のアンインストールプロセスが停止することがある

OpenShift Data Science マネージドサービスをアンインストールする手順は、OpenShift Data Science のアンインストール で説明されています。

ただし、このガイドに従っても、アンインストールプロセスが正常に完了しない場合があります。このプロセスは完了せずに、Kubeflow Operator で使用される kfdefs リソースの削除のステップで停止したままになります。次の例に示すように、kfdefs リソースは、redhat-ods-applicationsredhat-ods-monitoring、および rhods-notebooks namespace に存在する場合があります。

$ oc get kfdefs.kfdef.apps.kubeflow.org -A

NAMESPACE                  NAME                                   AGE
redhat-ods-applications    rhods-anaconda                         3h6m
redhat-ods-applications    rhods-dashboard                        3h6m
redhat-ods-applications    rhods-data-science-pipelines-operator  3h6m
redhat-ods-applications    rhods-model-mesh                       3h6m
redhat-ods-applications    rhods-nbc                              3h6m
redhat-ods-applications    rhods-osd-config                       3h6m
redhat-ods-monitoring      modelmesh-monitoring                   3h6m
redhat-ods-monitoring      monitoring                             3h6m
rhods-notebooks            rhods-notebooks                        3h6m
rhods-notebooks            rhods-osd-config                       3h5m

kfdefs リソースの削除に失敗すると、後で OpenShift Data Science の新しいバージョンをインストールできなくなる可能性もあります。

回避策
アンインストールプロセスを完了できるように kfdefs リソースを手動で削除するには、Red Hat ソリューション記事 https://access.redhat.com/solutions/4165791ファイナライザーがある場合に個別のオブジェクトを強制的に削除する セクションを参照してください。

RHODS-8939: 以前のリリースで作成された Jupyter ノートブックの場合、デフォルトの共有メモリーによりランタイムエラーが発生する可能性がある

現在のリリースより前のリリースで作成された Jupyter ノートブックの場合、Jupyter ノートブックのデフォルトの共有メモリーは 64 MB に設定されており、ノートブック設定でこのデフォルト値を変更できません。

たとえば、PyTorch は共有メモリーに依存しています。そのため、モデルのトレーニングや大量のデータ操作の実行など、大規模なユースケースにはデフォルトサイズの 64 MB では不十分です。Jupyter は no space left on device メッセージを表示し、/dev/smh がいっぱいになります。

リリース 1.31 以降、この問題は修正され、新しいノートブックの共有メモリーはノードのサイズに設定されます。

回避策

1.31 より前のリリースで作成された Jupyter ノートブックの場合は、Jupyter ノートブックを再作成するか、次の手順に従います。

  1. データサイエンスプロジェクトで、プロジェクトワークベンチの作成 の説明に従ってワークベンチを作成します。
  2. データサイエンスプロジェクトページの Workbenches セクションで、ワークベンチの Status トグルをクリックして、ワークベンチを Running から Stopped に変更します。
  3. OpenShift コンソールを開き、Administrator を選択します。
  4. HomeAPI Explorer を選択します。
  5. Filter by kind フィールドに notebook と入力します。
  6. kubeflow v1 ノートブックを選択します。
  7. Instances タブを選択し、ステップ 1 で作成したワークベンチのインスタンスを選択します。
  8. YAML タブをクリックし、ActionsEdit Notebook を選択します。
  9. YAML ファイルを編集して、次の情報を設定に追加します。

    • Workbench ノートブックの名前を持つコンテナーの場合は、次の行を volumeMounts セクションに追加します。

      - mountPath: /dev/shm
        name: shm

      たとえば、ワークベンチ名が myworkbench の場合は、YAML ファイルを次のように更新します。

      spec:
          containers:
            - env
              ...
              name: myworkbench
              ...
               volumeMounts:
               - mountPath: /dev/shm
                 name: shm
    • ボリュームセクションに、次の例で示す行を追加します。

           volumes:
             name: shm
             emptyDir:
               medium: Memory

      注記: オプションで、emptyDir に使用するメモリー量の制限を指定できます。

  10. Save をクリックします。
  11. Data Science ダッシュボードのデータサイエンスプロジェクトの Workbenches セクションで、ワークベンチの Status トグルをクリックします。ステータスが Stopped から Starting に変わり、その後 Running に変わります。
  12. ノートブックを再起動します。
警告

後で Data Science ダッシュボード UI を通じてノートブックの設定を編集すると、ノートブック設定に対する回避策の編集は消去されます。

RHODS-8921: 累積文字数制限を超えるとパイプラインサーバーを作成できない

データサイエンスプロジェクト名とパイプラインサーバー名の累積文字制限が 62 文字を超えると、パイプラインサーバーを正常に作成できません。

回避策
データサイエンスプロジェクトの名前を 30 文字を超えないように変更します。

RHODS-8865: Amazon Web Services (AWS) シンプルストレージサービス (S3) バケットリソースを指定しないとパイプラインサーバーの起動に失敗する

データサイエンスプロジェクトのデータ接続を作成する場合、AWS_S3_BUCKET フィールドは必須フィールドとして指定されません。ただし、このフィールドの値を指定せずにパイプラインサーバーを設定しようとすると、パイプラインサーバーは正常に起動できません。

RHODS-7718: ダッシュボード権限のないユーザーは、実行中のノートブックとワークベンチを無期限に使用し続けることができる

Red Hat OpenShift Data Science 管理者がユーザーの権限を取り消しても、引き続きユーザーは実行中のノートブックとワークベンチを無期限で使用できます。

回避策
OpenShift Data Science 管理者がユーザーの権限を取り消す場合、管理者はそのユーザーに対して実行中のノートブックとワークベンチも停止する必要があります。

RHODS-6907: 永続ボリューム (PV) がワークベンチに接続されていない時に PV のサイズを増やそうとすると失敗する

ワークベンチに接続されていない永続ボリューム (PV) のサイズを増やそうとすると失敗します。データサイエンスプロジェクトのストレージを変更する場合、ユーザーは引き続きユーザーインターフェイスで PV のサイズを編集できますが、この操作は何の効果もありません。

RHODS-6950: クラスター内のすべての GPU が使用されている場合はワークベンチの GPU をスケールダウンできない

クラスター内のすべての GPU が使用されていると、ワークベンチの GPU をスケールダウンできません。この問題は、1 つのワークベンチで使用されている GPU と、複数のワークベンチで使用されている GPU に当てはまります。

回避策

この問題を回避するには、以下の手順を実行します。

  1. GPU を使用しているすべてのアクティブなワークベンチを停止します。
  2. 関連する GPU が再び利用可能になるまで待ちます。
  3. ワークベンチを編集し、GPU インスタンスをスケールダウンします。

RHODS-6539: OpenShift Data Science で Anaconda Professional Edition を検証および有効化できない

Anaconda Professional Edition のダッシュボードのキー検証が機能しないため、Anaconda Professional Edition を有効にできません。

RHODS-6346: 無効な文字を使用してデータサイエンスプロジェクトを作成すると、不明確なエラーメッセージが表示される

無効な特殊文字を使用してデータサイエンスプロジェクトのデータ接続、ワークベンチ、またはストレージ接続を作成すると、次のエラーメッセージが表示されます。

the object provided is unrecognized (must be of type Secret): couldn't get version/kind; json parse error: unexpected end of JSON input ({"apiVersion":"v1","kind":"Sec ...)

このエラーメッセージは、問題を明確に示していません。

RHODS-6955: ワークベンチを編集しようとするとエラーが発生する可能性がある

ワークベンチの編集時に、以下のようなエラーが発生する可能性があります。

Error creating workbench
Operation cannot be fulfilled on notebooks.kubeflow.org "workbench-name": the object has been modified; please apply your changes to the latest version and try again

RHODS-6913: ワークベンチの設定を編集すると誤ったエラーメッセージが表示される

ワークベンチの設定を編集すると、設定を変更するとワークベンチが再起動されることを示す警告メッセージが表示されます。環境変数の値を変更しても、ワークベンチは自動的に再起動されないため、こちらは誤解を招く警告になっています。

RHODS-6383: ワークベンチの作成プロセス中に必要なときに ImagePullBackOff エラーメッセージが表示されない

コンテナーレジストリーからコンテナーイメージをプルする際に、Pod で問題が発生する可能性があります。エラーが発生した場合、関連する Pod は ImagePullBackOff 状態になります。ワークベンチの作成プロセス中に ImagePullBackOff エラーが発生した場合は、適切なメッセージが表示されません。

回避策
イベントログで ImagePullBackOff エラーの詳細を確認します。これを行うには、ワークベンチの起動時にワークベンチのステータスをクリックします。

RHODS-6373: 累積文字数制限を超えると、ワークベンチが起動しない

データサイエンスプロジェクトのタイトルとワークベンチタイトルの累積文字数制限が 62 文字を超えると、ワークベンチが起動しません。

RHODS-6356: ダッシュボードにログインしたことがないユーザーのノートブック作成プロセスが失敗する

ダッシュボードのノートブック Administration ページには、OpenShift のユーザーグループと管理者グループに属するユーザーが表示されます。ただし、管理者がダッシュボードにログインしたことのないユーザーに代わってノートブックサーバーを起動しようとすると、サーバーの作成プロセスが失敗し、次のエラーメッセージが表示されます。

Request invalid against a username that does not exist.
回避策
該当するユーザーにダッシュボードへのログインを依頼します。

RHODS-6216: ModelMesh oauth-proxy コンテナーが断続的に不安定になる

ModelMesh oauth-proxy コンテナーの失敗により、ModelMesh Pod が正しくデプロイされません。この問題は、ModelMesh ランタイム環境で認証が有効になっている場合にのみ断続的に発生します。追加の ModelMesh インスタンスが異なる namespace にデプロイされている場合は、発生する可能性が高くなります。

RHODS-5906: NVIDIA GPU Operator に OpenShift 4.11.12 との互換性がない

OpenShift 4.11.12 クラスターで GPU ノードをプロビジョニングすると、nvidia-driver-daemonset Pod が CrashLoopBackOff 状態で停止します。NVIDIA GPU Operator は OpenShift 4.11.9 および 4.11.13 と互換性があります。

RHODS-5763: ノートブックの選択時に誤ったパッケージバージョンが表示される

Start a notebook server ページには、Anaconda ノートブックイメージの正しくないバージョン番号が表示されます。

RHODS-5543: NVIDIA GPU Operator を使用すると、Node Autoscaler によって必要以上のノードが作成される

使用可能なリソースが不十分なために Pod をスケジュールできないと、Node Autoscaler は新しいノードを作成します。新しく作成されたノードが関連する GPU ワークロードを受け取るまで、遅延があります。したがって、Pod をスケジュールすることはできず、Node Autoscaler は、ノードの 1 つが GPU ワークロードを受け取る準備ができるまで、追加の新しいノードを継続的に作成します。この問題の詳細は、When using the NVIDIA GPU Operator, more nodes than needed is created by the Node Autoscaler を参照してください。

回避策
machineset.spec.template.spec.metadatacluster-api/accelerator ラベルを適用します。これにより、オートスケーラーは、GPU ドライバーがデプロイされるまで、これらのノードを準備ができていないと見なします。

RHODS-5251: ノートブックサーバー管理ページに権限アクセスを失ったユーザーが表示される

以前に Jupyter でノートブックサーバーを起動したユーザーがその権限を失った場合 (たとえば、OpenShift Data Science 管理者がユーザーのグループ設定を変更したり、許可されたグループからユーザーを削除したりした場合)、管理者は引き続きサーバーの Administration ページでユーザーのノートブックサーバーを表示します。その結果、管理者は、権限が取り消されたユーザーに属するノートブックサーバーを再起動できるようになります。

RHODS-4769: サポートされていないテイントが含まれるノード上の GPU をノートブックサーバーに割り当てできない

サポートされている nvidia.com/gpu テイント以外のテイントでマークされたノード上の GPU は、ノートブックサーバーの作成時に選択できません。この問題を回避するには、OpenShift Data Science で使用される GPU ノードで nvidia.com/gpu テイントのみを使用してください。

RHODS-4799: Tensorboard を表示するには手動の手順が必要

TensorFlow または PyTorch ノートブックイメージを使用しており、TensorBoard を使用してデータを表示する場合に、ノートブック環境に環境変数を追加して、独自のコードで使用する環境変数をインポートするといった手作業の手順が必要です。

回避策
ノートブックサーバーを起動するときに、次のコードを使用して TENSORBOARD_PROXY_URL 環境変数の値を設定し、OpenShift Data Science ユーザー ID を使用します。
import os
os.environ["TENSORBOARD_PROXY_URL"]= os.environ["NB_PREFIX"]+"/proxy/6006/"

RHODS-4718: Intel® oneAPI AI Analytics Toolkits のクイックスタートが、存在しないサンプルノートブックを参照している

ダッシュボードの Resources ページにある Intel® oneAPI AI アナリティクスツールキットクイックスタートでは、手順の一部としてサンプルノートブックをロードする必要がありますが、関連するリポジトリーに存在しないノートブックを参照しています。

RHODS-4627: Anaconda Profressional Edition ライセンスの検証を担当する Cron ジョブが一時停止し、毎日は実行されない

Anaconda Professional Edition ライセンスの検証を担当する CronJob は、OpenShift Data Science Operator により自動的に一時停止します。その結果、Cron ジョブはスケジュールどおりに毎日実行されません。さらに、Anaconda Professional Edition のライセンスの有効期限が切れると、Anaconda Professional Edition は OpenShift Data Science ダッシュボードで無効と示されません。

RHODS-4502: ダッシュボードの NVIDIA GPU Operator カードに不要にボタンが表示される

NVIDIA GPU Operator がインストールされると、Jupyter で GPU が自動的に使用可能になります。したがって、Explore ページの Nvidia GPU Operator アドオンカードにある Enable ボタンは不要です。さらに、Enable ボタンをクリックすると、Operator がインストールされていない場合でも、NVIDIA GPU Operator カードが Enabled ページに移動します。

RHODS-3985: ISV Operator のアンインストール後に、ダッシュボードに Enabled ページのコンテンツが表示されない

ISV Operator をアンインストールすると、ダッシュボードの Enabled ページにコンテンツが表示されません。代わりに、以下のエラーが表示されます。

Error loading components
HTTP request failed
回避策
30 - 40 秒待ってから、ブラウザーでページを更新します。

RHODS-3984: ノートブックの選択中に表示される誤ったパッケージバージョン

OpenShift Data Science インターフェイスで、Start a notebook server ページ に、oneAPI AI Analytics Toolkit ノートブックイメージに含まれる JupyterLab パッケージおよび Notebook パッケージの誤ったバージョン番号が表示されます。このページには、このイメージが使用する Python バージョンの誤った値が表示される場合もあります。

回避策
oneAPI AI Analytics Toolkit ノートブックサーバーを起動するときに、ノートブックセルで !pip list コマンドを実行すると、ノートブックサーバーにインストールされている Python パッケージと、所有しているパッケージのバージョンを確認できます。

RHODS-2956: ノートブックインスタンスの作成時にエラーが発生する可能性がある

Jupyter でノートブックインスタンスを作成すると、Directory not found エラーが断続的に表示されます。このエラーメッセージは、Dismiss をクリックすると無視できます。

RHODS-2881ダッシュボードのアクションが明確に表示されない

無効になったアプリケーションのライセンスを再検証し、無効になったアプリケーションのカードを削除するダッシュボードアクションは、ユーザーには明確に表示されません。これらのアクションは、ユーザーがアプリケーションカードの Disabled ラベルをクリックした場合にのみ表示されます。その結果、意図したワークフローがユーザーにとって明確でない場合があります。

RHODS-2879: ライセンスの再検証アクションが不必要に表示される

無効になったアプリケーションのライセンスを再検証するダッシュボードアクションは、ライセンス検証またはアクティベーションシステムがないアプリケーションでは不要に表示されます。さらに、ユーザーが再検証できないライセンスを再検証しようとしても、アクションを完了できない理由を示すフィードバックが表示されません。

RHODS-2650: Pachyderm のデプロイメント中にエラーが発生する可能性がある

Pachyderm Operator のインスタンスを作成すると、Webhook エラーが断続的に表示され、作成プロセスを正常に開始できなくなります。Webhook エラーは、Pachyderm Operator がヘルスチェックに失敗して再起動したか、Operator プロセスがコンテナーに割り当てられたメモリー制限を超えてメモリー不足 (OOM) キルをトリガーしたことを示しています。

回避策
エラーが表示されなくなるまで、Pachyderm インスタンスの作成プロセスを繰り返します。

RHODS-2096: IBM Watson Studio は OpenShift Data Science では使用できない

IBM Watson Studio は、OpenShift Data Science が OpenShift Dedicated 4.9 以降にインストールされている場合は使用できません。これは、OpenShift Dedicated のこれらのバージョンと互換性がないためです。OpenShift Dedicated 4.9 以降で Watson Studio を手動で設定する方法は、Marketplace サポート にお問い合わせください。

RHODS-1888 - アンインストール後も OpenShift Data Science ハイパーリンクが表示される

OpenShift Data Science アドオンが OpenShift Dedicated クラスターからアンインストールされると、OpenShift Data Science インターフェイスへのリンクがアプリケーションランチャーメニューに表示されます。このリンクをクリックすると、OpenShift Data Science が利用できなくなったため、Page Not Found エラーが発生します。

第5章 製品機能

Red Hat OpenShift Data Science は、データサイエンティストおよび IT オペレーション管理者に豊富な機能を提供します。詳細は、Red Hat OpenShift Data Science の概要 を参照してください。

法律上の通知

Copyright © 2023 Red Hat, Inc.
The text of and illustrations in this document are licensed by Red Hat under a Creative Commons Attribution–Share Alike 3.0 Unported license ("CC-BY-SA"). An explanation of CC-BY-SA is available at http://creativecommons.org/licenses/by-sa/3.0/. In accordance with CC-BY-SA, if you distribute this document or an adaptation of it, you must provide the URL for the original version.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, the Red Hat logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.