릴리스 노트

Red Hat OpenShift AI Cloud Service 1

이 릴리스와 관련된 기능, 개선 사항, 해결된 문제 및 알려진 문제

초록

이 릴리스 노트에서는 이번 Red Hat OpenShift AI 릴리스에서 새로운 기능, 개선 사항, 해결된 문제 및 알려진 문제에 대한 개요를 제공합니다. OpenShift AI는 현재 Red Hat OpenShift Dedicated 및 Red Hat OpenShift Service on Amazon Web Services (ROSA)에서 사용할 수 있습니다.

1장. OpenShift AI 개요

Red Hat OpenShift AI는 데이터 과학자 및 인공 지능 및 머신 러닝(AI/ML) 애플리케이션의 개발자를 위한 플랫폼입니다.

OpenShift AI는 온프레미스 또는 클라우드에서 AI/ML 모델 및 애플리케이션을 개발, 교육, 제공, 테스트 및 모니터링할 수 있는 환경을 제공합니다.

데이터 과학자의 경우 OpenShift AI에는 ovirtpyter와 모델 개발에 필요한 툴 및 라이브러리, TensorFlow 및 PyTorch 프레임워크에 최적화된 기본 노트북 이미지 컬렉션이 포함되어 있습니다. 모델을 배포 및 호스팅하고, 모델을 외부 애플리케이션에 통합하고, 모델을 내보내 모든 하이브리드 클라우드 환경에서 호스팅할 수 있습니다. Docker 컨테이너를 사용하여 데이터 사이언스 파이프라인을 통해 이식 가능한 머신러닝(ML) 워크플로를 빌드하여 OpenShift AI에서 데이터 사이언스 프로젝트를 개선할 수 있습니다. 또한 그래픽 처리 장치(GPU) 및 Habana Gaudi 장치를 사용하여 데이터 사이언스 실험을 가속화할 수도 있습니다.

관리자의 경우 OpenShift AI를 사용하면 기존 Red Hat OpenShift 또는 ROSA 환경의 데이터 정보 워크로드가 활성화됩니다. 기존 OpenShift ID 공급자로 사용자를 관리하고, 노트북 서버에 사용할 수 있는 리소스를 관리하여 데이터 과학자가 데이터 과학자에게 필요한 것을 생성, 교육 및 호스트 모델을 확보할 수 있도록 합니다. 가속기를 사용하여 비용을 줄이고 데이터 과학자가 그래픽 처리 장치 (GPU) 및 Habana Gaudi 장치를 사용하여 엔드 투 엔드 데이터 사이언 워크 플로우의 성능을 향상시킬 수 있습니다.

OpenShift AI는 다음 두 가지 배포판을 제공합니다.

  • Red Hat OpenShift Dedicated(AWS 또는 GCP용 고객 클라우드 서브스크립션 포함) 또는 Amazon Web Services(ROSA)에서 Red Hat OpenShift Service의 관리형 클라우드 서비스 애드온 입니다.

    Red Hat 관리 환경의 OpenShift AI에 대한 자세한 내용은 Red Hat OpenShift AI 제품 문서를 참조하십시오.

  • OpenShift Container Platform과 같은 자체 관리 환경에서 온프레미스 또는 퍼블릭 클라우드에 설치할 수 있는 자체 관리 소프트웨어입니다.

    연결되거나 연결이 끊긴 환경에서 OpenShift 클러스터에서 자체 관리 소프트웨어로 OpenShift AI에 대한 자세한 내용은 Red Hat OpenShift AI Self-Managed 제품 설명서 를 참조하십시오.

OpenShift AI 지원 소프트웨어 플랫폼, 구성 요소 및 종속 항목에 대한 자세한 내용은 지원되는 구성을 참조하십시오.

2장. 새로운 기능 및 개선 사항

이 섹션에서는 Red Hat OpenShift AI의 새로운 기능 및 개선 사항에 대해 설명합니다.

2.1. 새로운 기능

분산 워크로드

분산 워크로드를 통해 데이터 과학자는 보다 빠르고 효율적인 데이터 처리 및 모델 교육을 위해 여러 클러스터 노드를 병렬로 사용할 수 있습니다. CodeFlare 프레임워크는 작업 조정 및 모니터링을 단순화하고, 고급 GPU 지원을 통해 자동화된 리소스 확장 및 최적의 노드 사용률을 위한 원활한 통합을 제공합니다.

CodeFlare 프레임워크는 데이터 과학자를 위해 설계된 CodeFlare 프레임워크를 통해 유엔터 노트북 또는 Python 코드의 직접 워크로드 구성을 지원하여 낮은 채택 장벽을 보장하고 간소화되고 중단없는 워크플로우를 구현할 수 있습니다. 분산 워크로드는 작업 완료 시간을 크게 줄이고 더 큰 데이터 세트 및 더 복잡한 모델을 사용할 수 있습니다.

단일 모델 제공 플랫폼 인증 공급자
이제 단일 모델 제공 (KServe) 플랫폼의 권한 부여 공급자로 Authorino를 추가할 수 있습니다. 권한 부여 공급자를 추가하면 플랫폼에 배포하는 모델에 대한 토큰 권한 부여를 활성화할 수 있으므로 권한이 있는 당사자만 모델에 대한 유추 요청을 수행할 수 있습니다.

2.2. 기능 개선

향상된 데이터 과학 프로젝트 사용자 인터페이스
Data Science Projects 사용자 인터페이스(UI)는 다양한 프로젝트 구성 요소에 대한 액세스를 단순화하고 시작하기 위해 설계되었습니다. 새로운 설계에는 각 프로젝트 구성 요소에 대한 개요를 제공하는 업데이트된 레이아웃, 보다 시각적으로 지향 인터페이스 및 추가 UI 텍스트가 포함됩니다.
데이터 사이언스 파이프라인에서 Kubeflow Pipelines v2 지원
최신 기능으로 OpenShift AI를 계속 업데이트하기 위해 데이터 사이언스 파이프라인은 이제 KubeFlow Pipelines(KFP) 버전 2.0 을 기반으로 합니다. DSP(Data Science Pipelines) 2.0은 OpenShift AI에서 기본적으로 활성화되어 배포됩니다. 자세한 내용은 Data Science Pipelines 2.0 활성화를 참조하십시오.
중요

이전에는 OpenShift AI의 데이터 사이언스 파이프라인은 KubeFlow Pipelines v1을 기반으로 했습니다. OpenShift AI의 대시보드에서 DSP 1.0을 기반으로 하는 파이프라인의 세부 정보를 더 이상 배포, 보기 또는 편집할 수 없습니다.

DSP 2.0에는 Argo 워크플로우 설치가 포함되어 있습니다. OpenShift AI는 이 Argo Workflow 설치의 직접 고객 사용을 지원하지 않습니다. DSP 2.0을 사용하여 OpenShift AI를 설치하거나 업그레이드하려면 클러스터에 Argo 워크플로우의 기존 설치가 없는지 확인합니다.

OpenShift AI를 업그레이드한 후 기존 파이프라인 및 워크벤치와 함께 DSP 2.0을 사용하려면 2024.1 노트북 이미지 버전을 사용하도록 워크벤치를 업데이트한 다음 수동으로 Pipeline을 DSP 1.0에서 2.0으로 마이그레이션해야 합니다. 자세한 내용은 DSP 2.0으로 업그레이드 를 참조하십시오.

업데이트된 워크벤치 이미지
워크벤치 이미지에 사전 설치된 패키지가 2024.1 이미지 버전으로 업데이트되었습니다. 최신 워크벤치 이미지 버전을 사용하여 개발 환경을 최적화할 수 있습니다. 워크벤치 이미지에 사용되는 Python 패키지에는 PyTorch 및 TensorFlow와 같은 Python 에코시스템의 개선 사항이 포함됩니다. 코드 서버, R Cryostat, Elyra, Habana 및 CUDA 워크벤치 이미지를 지원하는 운영 체제도 해당 툴에 대한 업데이트를 수신했습니다.

3장. 기술 프리뷰 기능

중요

이 섹션에서는 Red Hat OpenShift AI의 기술 프리뷰 기능에 대해 설명합니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. Red Hat은 프로덕션 환경에서 사용하는 것을 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

R Cryostat 서버 노트북 이미지

R Cryostat Server laptop 이미지를 사용하면 R용 통합 개발 환경인 R Cryostat IDE에 액세스할 수 있습니다. R 프로그래밍 언어는 통계 컴퓨팅 및 그래픽으로 데이터 분석 및 예측을 지원하는 데 사용됩니다.

R Cryostat Server laptop 이미지를 사용하려면 먼저 시크릿을 생성하고 BuildConfig 를 트리거하여 빌드한 다음 rstudio-rhel9 이미지 스트림을 편집하여 OpenShift AI UI에서 활성화해야 합니다. 자세한 내용은 R Cryostat 서버 노트북 이미지 빌드를 참조하십시오.

중요

면책 조항: Red Hat은 OpenShift AI에서 워크벤치 관리를 지원합니다. 그러나 Red Hat은 R Cryostat 소프트웨어에 대한 지원을 제공하지 않습니다. R Cryostat Server는 rstudio.org 를 통해 사용할 수 있으며 라이선스 조건이 적용됩니다. 이 샘플 워크벤치를 사용하기 전에 라이센스 조건을 검토해야 합니다.

CUDA - R Cryostat 서버 노트북 이미지

CUDA - R Cryostat 서버 노트북 이미지를 사용하면 R Cryostat IDE 및 NVIDIA CUDA Toolkit에 액세스할 수 있습니다. R Cryostat IDE는 통계 컴퓨팅 및 그래픽을 위한 R 프로그래밍 언어를 위한 통합 개발 환경입니다. NVIDIA CUDA 툴킷을 사용하면 GPU 가속 라이브러리 및 최적화 도구를 사용하여 작업을 개선할 수 있습니다.

CUDA - R Cryostat Server 노트북 이미지를 사용하려면 먼저 시크릿을 생성하고 BuildConfig 를 트리거하여 빌드한 다음 rstudio-rhel9 이미지 스트림을 편집하여 OpenShift AI UI에서 활성화해야 합니다. 자세한 내용은 R Cryostat 서버 노트북 이미지 빌드를 참조하십시오.

중요

면책 조항: Red Hat은 OpenShift AI에서 워크벤치 관리를 지원합니다. 그러나 Red Hat은 R Cryostat 소프트웨어에 대한 지원을 제공하지 않습니다. R Cryostat Server는 rstudio.org 를 통해 사용할 수 있으며 라이선스 조건이 적용됩니다. 이 샘플 워크벤치를 사용하기 전에 라이센스 조건을 검토해야 합니다.

CUDA - R Cryostat 서버 노트북 이미지에는 NVIDIA CUDA 기술이 포함되어 있습니다. CUDA 라이센스 정보는 CUDA Toolkit 설명서에서 확인할 수 있습니다. 이 샘플 워크벤치를 사용하기 전에 라이센스 조건을 검토해야 합니다.

코드 서버 워크벤치 이미지

Red Hat OpenShift AI에는 이제 코드-서버 워크벤치 이미지가 포함되어 있습니다. 자세한 내용은 GitHub의 code-server 를 참조하십시오.

code-server 워크벤치 이미지를 사용하면 다양한 확장 기능을 사용하여 새 언어, 테마, 디버거를 추가하고 추가 서비스에 연결하여 워크벤치 환경을 사용자 지정할 수 있습니다. 또한 구문 강조, 자동 입력 및 브래킷 일치로 데이터 과학 작업의 효율성을 향상시킬 수 있습니다.

참고

ELYRA 기반 파이프라인은 코드 서버 워크벤치 이미지에서 사용할 수 없습니다.

코드 서버 워크 벤치 이미지는 현재 Red Hat OpenShift AI에서 기술 프리뷰 기능으로 제공됩니다.

4장. 지원 제거

이 섹션에서는 Red Hat OpenShift AI의 사용자용 기능에 대한 지원의 주요 변경 사항에 대해 설명합니다. OpenShift AI 지원 소프트웨어 플랫폼, 구성 요소 및 종속 항목에 대한 자세한 내용은 지원되는 구성을 참조하십시오.

4.1. Data Science pipelines v1이 v2로 업그레이드

이전에는 OpenShift AI의 데이터 사이언스 파이프라인은 KubeFlow Pipelines v1을 기반으로 했습니다. 데이터 사이언스 파이프라인은 이제 다른 워크플로우 엔진을 사용하는 KubeFlow Pipelines v2를 기반으로 합니다. DSP(Data Science Pipelines) 2.0은 OpenShift AI에서 기본적으로 활성화되어 배포됩니다. 대시보드에서 DSP 1.0을 기반으로 하는 파이프라인의 세부 정보를 더 이상 배포, 보기 또는 편집할 수 없습니다. 자세한 내용은 Data Science Pipelines 2.0 활성화를 참조하십시오.

중요

DSP 2.0에는 Argo 워크플로우 설치가 포함되어 있습니다. OpenShift AI는 이 Argo Workflow 설치의 직접 고객 사용을 지원하지 않습니다. DSP 2.0을 사용하여 OpenShift AI를 설치하거나 업그레이드하려면 클러스터에 Argo 워크플로우의 기존 설치가 없는지 확인합니다.

OpenShift AI를 업그레이드한 후 기존 파이프라인 및 워크벤치와 함께 DSP 2.0을 사용하려면 2024.1 노트북 이미지 버전을 사용하도록 워크벤치를 업데이트한 다음 수동으로 Pipeline을 DSP 1.0에서 2.0으로 마이그레이션해야 합니다. 자세한 내용은 DSP 2.0으로 업그레이드 를 참조하십시오.

4.2. 취약점 탐지 (TrustyAI) 제거

OpenShift AI 2.7부터는TrustyAI(TrustyAI) 기능이 제거되었습니다. 이전에 이 기능이 활성화된 경우 OpenShift AI 2.7 이상으로 업그레이드하면 이 기능이 제거됩니다. 기본 TrustyAI 노트북 이미지는 계속 지원됩니다.

4.3. 버전 1.2 작업벤치용 컨테이너 이미지는 더 이상 지원되지 않습니다.

워크벤치를 생성할 때 워크벤치와 함께 사용할 노트북 컨테이너 이미지를 지정합니다. OpenShift AI 2.5부터는 새 워크벤치를 생성할 때 버전 1.2마이블러 컨테이너 이미지를 선택할 수 없습니다. 버전 1.2로 이미 실행 중인 워크벤치 이미지가 정상적으로 작동합니다. 그러나 최신 노트북 컨테이너 이미지를 사용하도록 워크벤치를 업데이트하는 것이 좋습니다.

4.4. NVIDIA GPU 애드온 교체

이전에는 GPU(그래픽 처리 장치)가 컴퓨팅 집약적인 워크로드를 지원할 수 있도록 NVIDIA GPU 애드온을 설치했습니다. OpenShift AI는 더 이상 이 애드온을 지원하지 않습니다.

이제 GPU 지원을 활성화하려면 NVIDIA GPU Operator를 설치해야 합니다. GPU Operator 설치 방법에 대한 자세한 내용은 Red Hat OpenShift Container Platform(외부)의 NVIDIA GPU Operator 를 참조하십시오.

4.5. Kubeflow Notebook Controller 대체

OpenShift AI 1.15 및 이전 버전에서는 popyterHub를 사용하여 노트북 서버 환경을 생성하고 실행했습니다. OpenShift AI 1.16 이상에서는 ovnpyterHub가 더 이상 포함되지 않으며 해당 기능은 Kubeflow Notebook Controller로 대체됩니다.

이 변경으로 인해 다음과 같은 이점이 있습니다.

  • 이제 사용자는 초기 요청이 시간 초과될 때까지 5+분을 기다리는 대신 요청을 즉시 취소하고 변경을 수행하고 요청을 다시 시도할 수 있습니다. 즉, 사용자가 요청 실패 시, 예를 들어 노트북 서버가 올바르게 시작되지 않는 경우 대기하지 않습니다.
  • 아키텍처에서는 더 이상 단일 사용자가 두 개 이상의 노트북 서버 세션을 보유하지 못하도록 향후 기능 가능성을 확장합니다.
  • PostgreSQL 데이터베이스 요구 사항을 제거하면 OpenShift AI에서 향후 확장된 환경 지원을 받을 수 있습니다.

그러나 이번 업데이트에서는 다음과 같은 동작 변경 사항도 생성됩니다.

  • IT 운영 관리자의 경우, 노트북 서버 관리 인터페이스는 현재 사용자의 노트북 서버에 대한 데이터 로그인 액세스를 허용하지 않습니다. 이는 향후 릴리스에서 추가될 예정입니다.
  • 데이터 과학자의 경우 metapyterHub 인터페이스 URL은 더 이상 유효하지 않습니다. OpenShift AI 대시보드를 가리키도록 북마크를 업데이트합니다.

sendpyterLab 인터페이스는 변경되지 않으며 데이터 과학자는 계속 sendpyterLab을 사용하여 노트북 파일과 함께 작업할 수 있습니다.

5장. 해결된 문제

Red Hat OpenShift AI에서 다음과 같은 주요 문제가 해결됩니다.

RHOAIENG-6709 - 서로 다른 환경 변수가 지정되면pyter 노트북 생성이 실패할 수 있습니다.

이전에는iepyter 노트북을 시작한 후 중단하고 OpenShift AI 워크벤치에서 환경 변수를 편집한 경우 노트북을 다시 시작하지 못했습니다. 이 문제는 이제 해결되었습니다.

RHOAIENG-6701 - 클러스터 관리자 권한이 없는 사용자는 Cryostat 대시보드의 작업 제출 끝점에 액세스할 수 없습니다.

이전에는 OpenShift에 대한 클러스터 관리자 권한이 없는 분산 워크로드 기능의 사용자는 Cryostat 대시보드의 작업 제출 엔드포인트에 액세스하거나 사용하지 못할 수 있었습니다. 이 문제는 이제 해결되었습니다.

RHOAIENG-6578 - 기본적으로 보호되는 추론 지점에 토큰 없는 요청

이전에는 Authorino를 단일 모델 제공 플랫폼의 권한 부여 공급자로 추가하고 배포한 모델에 대한 토큰 승인을 활성화한 경우에도 토큰을 지정하지 않고 모델을 쿼리할 수 있었습니다. 이 문제는 이제 해결되었습니다.

RHOAIENG-6343 - OpenShift AI를 설치한 후 일부 구성 요소가 Removed 로 설정됩니다.

이전 버전에서는 OpenShift AI를 설치한 후 DataScienceCluster 사용자 정의 리소스에서 Codeflare,kueueray 구성 요소의 managementState 필드가 Managed 대신 Removed 로 잘못 설정되었습니다. 이 문제는 이제 해결되었습니다.

RHOAIENG-5067 - ModelMesh 구성 요소를 기반으로 하는 모델 서버 메트릭 페이지가 로드되지 않음

이전에는 대문자 또는 공백이 포함된 데이터 과학 프로젝트 이름이 ModelMesh 구성 요소를 기반으로 하는 모델 서버의 모델 서버 메트릭 페이지에 문제가 발생할 수 있었습니다. 메트릭 페이지에 데이터가 올바르게 수신되지 않아 400 Bad Request 오류가 발생하여 페이지가 로드되지 않을 수 있습니다. 이 문제는 이제 해결되었습니다.

RHOAIENG-4966 - 사용자 정의 CA 번들의 자체 서명된 인증서가 odh-trusted-ca-bundle 구성 맵에서 누락될 수 있습니다.

이전 버전에서는 자체 서명된 인증서를 사용하기 위해 CA(사용자 정의 인증 기관) 번들을 추가한 경우 자체 서명된 인증서를 사용하는 경우 odh-trusted-ca-bundle ConfigMap에서 사용자 정의 인증서가 누락되었거나 ConfigMap이 관리 됨으로 설정된 경우 예약되지 않은 네임스페이스에 odh-trusted-ca-bundle ConfigMap이 포함되지 않은 경우가 있었습니다. 이 문제는 이제 해결되었습니다.

RHOAIENG-4938 (이전에는 RHOAIENG-4327)로 문서화되어 있음 - Workbench는 중앙에서 구성된 번들의 자체 서명 인증서를 자동으로 사용하지 않습니다.

OpenShift AI에는 ca-bundle.crt 및 odh- ca-bundle.crt 에 자체 서명된 인증서를 포함하는 두 가지 번들 옵션이 있습니다. 이전에는 워크벤치에서 중앙 집중식으로 구성된 번들의 자체 서명된 인증서를 자동으로 사용하지 않았으며 인증서 경로를 가리키는 환경 변수를 정의해야 했습니다. 이 문제는 이제 해결되었습니다.

RHOAIENG-4572- 특정 상황에서 설치 및 업그레이드 후 데이터 사이언스 파이프라인을 실행할 수 없습니다

이전에는 다음과 같은 상황에서 OpenShift AI를 설치하거나 업그레이드한 후 데이터 사이언스 파이프라인을 실행할 수 없었습니다.

  • OpenShift AI를 설치하고 유효한 CA 인증서가 있어야 합니다. default-dsci 오브젝트 내에서 trustedCABundle 필드의 managementState 필드를 Removed 설치 후로 변경했습니다.
  • OpenShift AI를 버전 2.6에서 버전 2.8으로 업그레이드했으며 유효한 CA 인증서가 있습니다.
  • OpenShift AI를 버전 2.7에서 버전 2.8으로 업그레이드했으며 유효한 CA 인증서가 있습니다.

이 문제는 이제 해결되었습니다.

RHOAIENG-4524 - R Cryostat 이미지의 BuildConfig 정의에는 잘못된 분기 발생이 포함됩니다.

이전에는 R Cryostat 및 CUDA의 BuildConfig 정의 - R Cryostat 워크벤치 이미지에 OpenShift AI에서 잘못된 분기가 지정되었습니다. 이 문제는 이제 해결되었습니다.

RHOAIENG-3963 - 필요하지 않은 관리 리소스 경고

이전 버전에서는 redhat-ods-applications 프로젝트에 대한 OdhDashboardConfig 사용자 정의 리소스를 편집하고 저장할 때 시스템에 Managed 리소스 경고 메시지가 잘못 표시되었습니다. 이 문제는 이제 해결되었습니다.

RHOAIENG-2542 - 유추 서비스 Pod가 항상 Istio 사이드카를 가져오는 것은 아닙니다.

이전 버전에서는 단일 모델 제공 플랫폼(KServe 사용)을 사용하여 모델을 배포할 때 유추 서비스에 sidecar.istio.io/inject=true 주석이 있어도 결과 Pod에서 istio-proxy 컨테이너가 누락될 수 있었습니다. 이 문제는 이제 해결되었습니다.

RHOAIENG-1666 - Pipeline 가져오기 버튼이 조기에 액세스 가능

이전에는 데이터 사이언스 프로젝트에 속하는 워크벤치에 파이프라인을 가져올 때 파이프라인 서버를 완전히 사용할 수 있기 전에 Pipeline 가져오기 버튼에 액세스할 수 있었습니다. 이 문제는 이제 해결되었습니다.

RHOAIENG-673 (이전에는 RHODS-12946로 문서화됨) - 연결이 끊긴 환경에서 PyPI 미러에서 설치하거나 개인 인증서를 사용할 때 설치할 수 없습니다.

연결이 끊긴 환경에서 Red Hat OpenShift AI는 공용 PyPI 리포지토리에 연결할 수 없으므로 네트워크 내부에 리포지토리를 지정해야 합니다. 이전에는 개인 TLS 인증서를 사용하고 데이터 사이언스 파이프라인이 Python 패키지를 설치하도록 구성된 경우 파이프라인 실행이 실패했습니다. 이 문제는 이제 해결되었습니다.

RHOAIENG-3355 - KServe의 OVMS가 가속기를 올바르게 사용하지 않음

이전 버전에서는 단일 모델 제공 플랫폼을 사용하여 모델을 배포하고 OpenVINO 모델 서버 제공 런타임을 선택할 때 모델 서버에 가속기를 연결하도록 요청하면 가속기 하드웨어가 감지되었지만 쿼리에 응답할 때 모델에서 사용되지 않았습니다. 이 문제는 이제 해결되었습니다.

RHOAIENG-2869 - 다중 모델 프로젝트에서 기존 모델 프레임워크 및 모델 경로를 편집할 수 없습니다

이전에는 배포 모델 대화 상자를 사용하여 다중 모델 프로젝트에서 모델을 편집하려고 하면 모델 프레임워크경로 값이 업데이트되지 않았습니다. 이 문제는 이제 해결되었습니다.

RHOAIG-2724 - 대화 상자에서 필드가 자동으로 재설정되므로 모델 배포가 실패합니다.

이전 버전에서는 모델을 배포하거나 배포한 모델을 편집할 때 "Deploy 모델" 대화 상자의 모델 서버 및 모델 프레임워크 필드가 기본 상태로 재설정되었을 수 있었습니다. 이러한 필수 필드에 더 이상 유효한 값이 포함되어 있지 않아도 Deploy 버튼이 계속 활성화되어 있을 수 있습니다. 이 문제는 이제 해결되었습니다.

RHOAIENG-2099 - 데이터 사이언스 파이프라인 서버가 새로운 클러스터에 배포되지 않음

이전에는 새 클러스터에서 데이터 사이언스 파이프라인 서버를 생성할 때 사용자 인터페이스가 로드 상태에 남아 있고 파이프라인 서버가 시작되지 않았습니다. 이 문제는 이제 해결되었습니다.

RHOAIENG-1199 (이전에는 ODH-DASHBOARD-1928) - 사용자 정의 제공 런타임 생성 오류 메시지가 도움이 되지 않습니다.

이전에는 사용자 정의 모델 제공 런타임을 생성하거나 편집하려고 할 때 오류 메시지가 오류의 원인을 표시하지 않았습니다. 오류 메시지가 개선되었습니다.

RHOAIENG-556 - error와 관계없이 KServe 모델의 ServingRuntime이 생성됩니다.

이전에는 KServe 모델을 배포하고 오류가 발생했을 때 InferenceService CR(사용자 정의 리소스)이 계속 생성되어 모델이 Data Science Projects 페이지에 표시되었습니다. 오류가 발생할 경우 ServingRuntime이 생성되지 않도록 KServe 배포 프로세스가 업데이트되었습니다.

RHOAIENG-548 (이전에는 ODH-DASHBOARD-1776로 문서화됨) - 사용자에게 프로젝트 관리자 권한이 없는 경우 오류 메시지

이전에는 프로젝트에 대한 관리자 권한이 없는 경우 일부 기능에 액세스할 수 없어 오류 메시지가 이유를 설명하지 않았습니다. 예를 들어 단일 네임스페이스에만 액세스할 수 있는 환경에서 모델 서버를 생성한 경우 오류 생성 모델 서버 오류 메시지가 표시됩니다. 그러나 모델 서버는 여전히 성공적으로 생성됩니다. 이 문제는 이제 해결되었습니다.

RHOAIENG-66 - CodeFlare SDK에서 배포한 dashboard route가 클러스터 인증서 대신 자체 서명된 인증서를 노출합니다.

이전 버전에서는 openshift_oauth=True 옵션과 함께 CodeFlare SDK를 사용하여 Cryostat 클러스터를 배포할 때 passthrough 방법을 사용하여 결과 경로가 보안되어 OAuth 프록시에서 사용하는 자체 서명 인증서가 노출되었습니다. 이 문제는 이제 해결되었습니다.

RHOAIENG-12 - 일부 브라우저에서 Cryostat 대시보드에 액세스할 수 없습니다

일부 브라우저에서는 대시보드 URL의 접두사가 http 에서 https 로 자동 변경되었기 때문에 분산 워크로드 기능의 사용자가 ECDSA 대시보드에 액세스하지 못할 수 있습니다. 이 문제는 이제 해결되었습니다.

RHODS-6216 - ModelMesh oauth-proxy 컨테이너가 간헐적으로 불안정합니다.

이전에는 ModelMesh oauth-proxy 컨테이너가 실패하여 ModelMesh Pod가 올바르게 배포되지 않았습니다. 이 문제는 간헐적으로 발생했으며 ModelMesh 런타임 환경에서 인증이 활성화된 경우에만 발생했습니다. 이 문제는 이제 해결되었습니다.

RHOAIENG-535 - HTTP 요청이 없는 경우 배포된 모델에 대한 HTTP 요청을 표시하는 메트릭 그래프

이전 버전에서는 배포된 모델이 두 가지 데이터 유형(성공 및 실패) 각각에 대해 하나 이상의 HTTP 요청을 수신하지 못한 경우 HTTP 요청 성능 지표(모델 서버의 모든 모델 또는 특정 모델의 경우)를 보여주는 그래프가 잘못 렌더링되었으며 실패 요청 수가 안정화됩니다. 이 문제는 이제 해결되었습니다.

RHOAIENG-1467 - Serverless net-istio 컨트롤러 Pod가 OOM에 도달할 수 있음

이전에는 메모리 부족(OOM) 오류로 인해 Knative net-istio-controller Pod(KServe의 종속성)가 지속적으로 충돌할 수 있었습니다. 이 문제는 이제 해결되었습니다.

RHOAIENG-1899 (이전에는 RHODS-6539로 문서화됨) - Anaconda Professional 버전을 검증하고 활성화할 수 없습니다.

이전에는 대시보드의 키 유효성 검사가 작동하지 않았기 때문에 Anaconda Professional Edition을 활성화할 수 없었습니다. 이 문제는 이제 해결되었습니다.

RHOAIENG-2269 - (Single-model) 대시보드가 올바른 모델 복제본 수를 표시하지 못했습니다.

이전에는 단일 모델 제공 플랫폼에서 데이터 사이언스 프로젝트의 모델 및 모델 서버 섹션에 올바른 모델 복제본 수가 표시되지 않았습니다. 이 문제는 이제 해결되었습니다.

RHOAIENG-2270 - (Single-model) 사용자는 모델 배포 설정을 업데이트할 수 없습니다.

이전에는 단일 모델 제공 플랫폼으로 배포한 모델의 배포 설정(예: 복제본 수)을 편집할 수 없었습니다. 이 문제는 이제 해결되었습니다.

RHODS-8865 - AWS(Amazon Web Services) Simple Storage Service(S3) 버킷 리소스를 지정하지 않으면 파이프라인 서버가 시작되지 않습니다.

이전에는 데이터 사이언스 프로젝트에 대한 데이터 연결을 만들 때 AWS_S3_BUCKET 필드가 필수 필드로 지정되지 않았습니다. 그러나 AWS_S3_BUCKET 필드가 채워지지 않은 데이터 연결을 사용하여 파이프라인 서버를 구성하려고 하면 파이프라인 서버가 성공적으로 시작되지 않았습니다. 이 문제는 이제 해결되었습니다. Bucket 필드를 필수 필드로 포함하도록 파이프라인 서버 구성 대화 상자가 업데이트되었습니다.

RHODS-12899 - NVIDIA GPU의 OpenVINO 런타임 누락 주석

이전 버전에서는 사용자가 OpenVINO 모델 서버(지원 GPU) 런타임을 선택하고 모델 서버 사용자 인터페이스에서 NVIDIA GPU 액셀러레이터를 선택한 경우 시스템은 선택한 액셀러레이터가 선택한 런타임과 호환되지 않았다는 불필요한 경고를 표시할 수 있었습니다. 경고는 더 이상 표시되지 않습니다.

RHOAIENG-84 - KServe에서 자체 서명된 인증서를 사용할 수 없습니다

이전에는 단일 모델 제공 플랫폼에서 자체 서명된 인증서를 지원하지 않았습니다. 이 문제는 이제 해결되었습니다. KServe에서 자체 서명된 인증서를 사용하려면 인증서 작업에 설명된 단계를 따르십시오.

RHOAIENG-164 - 대시보드에서 Kserve의 모델 서버 복제본 수가 올바르게 적용되지 않음

이전 버전에서는 기본 (1)과 다른 여러 모델 서버 복제본을 설정하면 모델(서버)이 여전히 1개의 복제본으로 배포되었습니다. 이 문제는 이제 해결되었습니다.

RHOAIENG-288 - 두 가지 버전의 작업벤치용 권장 이미지 버전 레이블이 표시됩니다.

OpenShift AI에서 사용할 수 있는 대부분의 워크벤치 이미지는 여러 버전으로 제공됩니다. 권장되는 유일한 버전은 최신 버전입니다. Red Hat OpenShift AI 2.4 및 2.5에서 Recommended 태그가 여러 버전의 이미지에 대해 잘못 표시되었습니다. 이 문제는 이제 해결되었습니다.

RHOAIENG-293 - 2.4에서 2.5로 업그레이드한 후 더 이상 사용되지 않는 ModelMesh 모니터링 스택

Red Hat OpenShift AI 2.5에서는 이전 ModelMesh 모니터링 스택이 사용자 워크로드 모니터링으로 대체되었기 때문에 더 이상 배포되지 않았습니다. 그러나 OpenShift AI 2.5로 업그레이드하는 동안 이전 모니터링 스택은 삭제되지 않았습니다. 일부 구성 요소는 클러스터 리소스가 남아 있고 사용되었습니다. 이 문제는 이제 해결되었습니다.

RHOAIENG-343 - OpenShift Service Mesh 및 OpenShift Serverless의 수동 구성이 KServe에서 작동하지 않음

OpenShift Serverless 및 OpenShift Service Mesh를 설치한 다음 KServe가 활성화된 Red Hat OpenShift AI를 설치한 경우 KServe가 배포되지 않았습니다. 이 문제는 이제 해결되었습니다.

RHOAIENG-517 - 편집 권한이 있는 사용자는 생성된 모델을 볼 수 없습니다.

편집 권한이 있는 사용자는 프로젝트 소유자이거나 프로젝트에 대한 관리자 권한이 없는 경우 생성된 모델을 볼 수 없습니다. 이 문제는 이제 해결되었습니다.

RHOAIENG-804 - FIPS 지원 클러스터에 KServe와 함께 대규모 언어 모델을 배포할 수 없습니다

이전에는 Red Hat OpenShift AI가 FIPS용으로 완전히 설계되지 않았습니다. FIPS 지원 클러스터에 KServe를 사용하여LLM(Large Language Models)을 배포할 수 없습니다. 이 문제는 이제 해결되었습니다.

RHOAIENG-908 - KServe가 이전에 활성화되고 제거된 경우 ModelMesh를 사용할 수 없습니다.

이전에는 DataScienceCluster 오브젝트에서 ModelMesh 및 KServe를 둘 다 활성화하고 나중에 KServe를 제거한 경우 ModelMesh를 사용하여 새 모델을 더 이상 배포할 수 없었습니다. 이전에 ModelMesh로 배포된 모델을 계속 사용할 수 있습니다. 이 문제는 이제 해결되었습니다.

RHOAIENG-2184 - Cryostat 클러스터 또는 분산 워크로드를 생성할 수 없습니다

이전에는 사용자가 admin 또는 edit 권한이 있는 네임스페이스에서 Cryostat 클러스터 또는 분산 워크로드를 생성할 수 없었습니다. 이 문제는 이제 해결되었습니다.

ODH-DASHBOARD-1991 - ovms-gpu-ootb에 권장되는 액셀러레이터 주석이 없습니다.

이전에는 프로젝트에 모델 서버를 추가하면 Serving 런타임 목록에 NVIDIA GPU의 권장 제공 런타임 레이블이 표시되지 않았습니다. 이 문제는 이제 해결되었습니다.

RHOAIENG-807 - 액셀러레이터 프로파일 허용 오차 제거

이전 버전에서는 허용 오차가 포함된 액셀러레이터 프로필을 사용하는 워크벤치를 생성한 경우 워크벤치를 다시 시작하면 허용 오차 정보가 제거되어 재시작이 완료되지 않았습니다. 새로 생성된 GPU 사용 워크벤치는 처음 시작할 수 있지만 생성된 Pod가 영구적으로 보류 중 상태로 유지되었기 때문에 나중에 다시 시작하지 못할 수 있습니다. 이 문제는 이제 해결되었습니다.

DATA-SCIENCE-PIPELINES-OPERATOR-294 - 데이터 전달을 사용하는 스케줄링된 파이프라인 실행은 단계 간에 데이터를 전달하지 못하거나 단계가 완전히 실패할 수 있습니다.

S3 오브젝트 저장소를 사용하여 파이프라인 아티팩트를 저장하는 예약된 파이프라인 실행이 다음과 같은 오류와 함께 실패할 수 있습니다.

Bad value for --endpoint-url "cp": scheme is missing. Must be of the form http://<hostname>/ or https://<hostname>/

이 문제는 예약된 파이프라인 실행을 위해 S3 오브젝트 저장소 끝점이 Pod에 성공적으로 전달되지 않았기 때문에 발생했습니다. 이 문제는 이제 해결되었습니다.

RHODS-4769 - 지원되지 않는 테인트가 있는 노드의 GPU는 노트북 서버에 할당할 수 없습니다.

노트북 서버를 생성할 때 지원되는 nvidia.com/gpu 테인트 이외의 테인트가 아닌 테인트로 표시된 노드의 GPU를 선택할 수 없습니다. 이 문제는 이제 해결되었습니다.

RHODS-6346 - 잘못된 문자를 사용하여 데이터 과학 프로젝트를 생성할 때 오류 메시지가 표시됩니다.

잘못된 특수 문자를 사용하여 데이터 사이언스 프로젝트의 데이터 연결, 워크벤치 또는 저장 연결을 생성할 때 다음 오류 메시지가 표시되었습니다.

the object provided is unrecognized (must be of type Secret): couldn't get version/kind; json parse error: unexpected end of JSON input ({"apiVersion":"v1","kind":"Sec ...)

오류 메시지가 문제를 명확하게 표시하지 못했습니다. 이제 오류 메시지에 유효하지 않은 문자가 입력되었음을 나타냅니다.

RHODS-6950 - 클러스터의 모든 GPU가 사용될 때 워크벤치 GPU를 축소할 수 없음

이전 릴리스에서는 클러스터의 모든 GPU가 사용 중인 경우 워크벤치 GPU를 축소할 수 없었습니다. 이 문제는 한 워크벤치에서 사용하고 있는 GPU에 적용되고 여러 워크벤치에서 GPU를 사용합니다. 이제 Accelerators 목록에서 None 을 선택하여 GPU를 축소할 수 있습니다.

RHODS-8939 - 이전 릴리스에서 생성된 metapyter 노트북의 기본 공유 메모리로 인해 런타임 오류가 발생합니다.

릴리스 1.31부터 이 문제가 해결되어 새 노트북의 공유 메모리가 노드 크기로 설정됩니다.

1.31 이전 릴리스에서 생성된 sendpyter 노트북의 경우, sendpyter 노트북의 기본 공유 메모리는 64MB로 설정되어 있으며, 이 기본값을 64MB로 변경할 수 없습니다.

이 문제를 해결하려면 노트북을 다시 생성하거나 지식 베이스 문서에 설명된 프로세스를 따라야 합니다. Red Hat OpenShift AI에서 공유 메모리의 공유 메모리를 변경하는 방법.

RHODS-9030 - kfdefs 리소스를 제거할 때 OpenShift AI의 설치 제거 프로세스가 중단될 수 있습니다.

OpenShift AI 관리 서비스를 제거하는 단계는 OpenShift AI 설치 제거에 설명되어 있습니다.

그러나 이 가이드를 수행한 경우에도 제거 프로세스가 성공적으로 완료되지 않은 것을 확인할 수 있습니다. 대신 프로세스는 Kubeflow Operator에서 사용한 kfdefs 리소스를 삭제하는 단계에 남아 있었습니다. 다음 예에 표시된 대로 kfdefs 리소스는 redhat-ods-applications,redhat-ods-monitoringrhods-notebooks 네임스페이스에 존재할 수 있습니다.

$ oc get kfdefs.kfdef.apps.kubeflow.org -A

NAMESPACE                  NAME                                   AGE
redhat-ods-applications    rhods-anaconda                         3h6m
redhat-ods-applications    rhods-dashboard                        3h6m
redhat-ods-applications    rhods-data-science-pipelines-operator  3h6m
redhat-ods-applications    rhods-model-mesh                       3h6m
redhat-ods-applications    rhods-nbc                              3h6m
redhat-ods-applications    rhods-osd-config                       3h6m
redhat-ods-monitoring      modelmesh-monitoring                   3h6m
redhat-ods-monitoring      monitoring                             3h6m
rhods-notebooks            rhods-notebooks                        3h6m
rhods-notebooks            rhods-osd-config                       3h5m

kfdefs 리소스를 제거하지 못하면 나중에 OpenShift AI의 최신 버전을 설치할 수 있었습니다. 이 문제는 더 이상 발생하지 않습니다.

RHODS-9764 - 워크벤치 편집 시 데이터 연결 세부 정보 재설정

기존 데이터 연결이 있는 워크벤치를 편집한 다음 새 데이터 연결 만들기 옵션을 선택한 후 편집 페이지가 새 연결 세부 정보 지정을 완료하기 전에 기존 데이터 연결 사용 옵션으로 되돌릴 수 있습니다. 이 문제는 이제 해결되었습니다.

RHODS-9583 - Data Science 대시보드가 기존 OpenShift Pipelines 설치를 감지하지 못했습니다.

OpenShift Pipelines Operator가 클러스터에 글로벌 Operator로 설치되면 OpenShift AI 대시보드에서 이를 탐지하지 못했습니다. 이제 OpenShift Pipelines Operator가 성공적으로 감지되었습니다.

ODH-DASHBOARD-1639 - 대시보드 경로의 Wrong TLS 값

이전 버전에서는 OpenShift의 OpenShift AI 대시보드에 대해 경로를 생성할 때 tls.termination 필드에 잘못된 기본값 Reencrypt 가 있었습니다. 이 문제는 이제 해결되었습니다. 새 값은 reencrypt 입니다.

ODH-DASHBOARD-1638 - 트리거된 실행 탭의 이름 자리 표시자에 스케줄링된 실행 이름이 표시됩니다.

이전 버전에서는 Pipelines > Runs 를 클릭한 다음 트리거된 탭을 선택하여 트리거된 실행을 구성하면 Name 필드에 표시된 예제 값이 스케줄링된 실행 이름 이었습니다. 이 문제는 이제 해결되었습니다.

ODH-DASHBOARD-1547 - 파이프라인 Operator가 백그라운드에서 설치되었을 때 대시보드에 표시되는 "해당 페이지를 찾을 수 없습니다.

이전에는 대시보드의 Data Science Pipelines 페이지를 사용하여 OpenShift Pipelines Operator를 설치할 때 Operator 설치가 완료되면 해당 페이지 메시지를 표시하도록 페이지를 새로 고칠 수 없었습니다. 이 문제는 이제 해결되었습니다. Operator 설치가 완료되면 대시보드가 파이프라인 서버를 생성할 수 있는 파이프라인 페이지로 리디렉션됩니다.

ODH-DASHBOARD-1545 - 모델 탭이 확장되면 대시보드는 프로젝트 하단으로 계속 스크롤합니다.

이전에는 대시보드의 Data Science Projects 페이지에서 Deployed models 탭을 클릭하여 확장한 다음 페이지에서 다른 작업을 수행하려고 하면 페이지가 배포 모델 섹션으로 다시 스크롤되었습니다. 이는 다른 작업을 수행하는 데 영향을 미쳤습니다. 이 문제는 이제 해결되었습니다.

참고BOOKS-156 - Elyra에는 Test라는 예제 런타임이 포함되어 있습니다.

이전에는 Elyra에 Test 라는 런타임 구성이 포함되어 있었습니다. 데이터 사이언스 파이프라인을 실행할 때 이 구성을 선택한 경우 오류가 표시될 수 있습니다. 이제 테스트 구성이 제거되었습니다.

RHODS-9622 - 예약된 파이프라인 실행 복제는 기존 기간 및 파이프라인 입력 매개변수 값을 복사하지 않습니다.

이전 버전에서는 주기적인 트리거가 있는 예약된 파이프라인 실행을 복제할 때 복제 프로세스에서 반복 실행 또는 지정된 파이프라인 입력 매개변수에 대해 구성된 실행 빈도를 복사하지 않았습니다. 이 문제는 이제 해결되었습니다.

RHODS-8932 - 반복 파이프라인 실행을 예약할 때 기본적으로 잘못된 cron 형식이 표시되었습니다.

cron 작업을 구성하여 반복 파이프라인 실행을 예약하면 OpenShift AI 인터페이스에 기본적으로 잘못된 형식이 표시되었습니다. 이제 올바른 형식을 표시합니다.

RHODS-9374 - 고유하지 않은 이름이 있는 Pipeline은 데이터 Science 프로젝트 사용자 인터페이스에 표시되지 않았습니다.

Elyra를 지원하는 metapyter 애플리케이션에서 노트북을 출시했거나, 실행하도록 파이프라인을 제출했을 때, 고유하지 않은 이름이 있는 파이프라인이 관련 데이터 사이언스 프로젝트 페이지 또는 데이터 사이언스 파이프라인 페이지의 Pipelines 섹션에 나타나지 않았습니다. 이 문제는 이제 해결되었습니다.

RHODS-9329 - 사용자 정의 모델 제공 런타임 배포로 인해 오류 메시지가 표시될 수 있습니다.

이전 버전에서는 OpenShift AI 대시보드를 사용하여 사용자 지정 모델 제공 런타임을 배포하는 경우 Error retrieving Serving Runtime 메시지와 함께 배포 프로세스가 실패할 수 있었습니다. 이 문제는 이제 해결되었습니다.

RHODS-9064 - 업그레이드 후 OpenShift AI 대시보드에서 Data Science Pipelines 탭이 활성화되지 않았습니다.

OpenShift AI 1.26에서 OpenShift AI 1.28로 업그레이드하면 OpenShift AI 대시보드에서 Data Science Pipelines 탭이 활성화되지 않았습니다. 이 문제는 OpenShift AI 1.29에서 해결되었습니다.

RHODS-9443 - Elyra 파이프라인이 일반 텍스트로 노출된 S3 스토리지 인증 정보 내보내기

OpenShift AI 1.28.0에서 Python DSL 형식 또는 YAML 형식으로 tellpyterLab에서 Elyra 파이프라인을 내보낼 때 생성된 출력에는 일반 텍스트로 S3 스토리지 인증 정보가 포함되어 있습니다. 이 문제는 OpenShift AI 1.28.1에서 해결되었습니다. 그러나 OpenShift AI 1.28.1로 업그레이드한 후 배포에 파이프라인 서버 및 데이터 연결이 포함된 데이터 사이언스 프로젝트가 포함된 경우 수정 사항을 적용하려면 다음과 같은 추가 작업을 수행해야 합니다.

  1. 브라우저 페이지를 새로 고칩니다.
  2. 배포에서 실행 중인 워크벤치를 중지하고 다시 시작합니다.

또한 Elyra 런타임 구성에 수정 사항이 포함되어 있는지 확인하려면 다음 작업을 수행합니다.

  1. sendpyterLab의 왼쪽 사이드바에서 런타임 ( The Runtimes icon )을 클릭합니다.
  2. 볼 런타임 구성 위에 커서를 올리고 편집 버튼( Edit runtime configuration )을 클릭합니다.

    Data Science Pipelines 런타임 구성 페이지가 열립니다.

  3. KUBERNETES_SECRETCloud Object Storage 인증 유형 필드에서 값으로 정의되었는지 확인합니다.
  4. 런타임 구성을 변경하지 않고 종료합니다.

RHODS-8460 - 공유 프로젝트의 세부 정보를 편집할 때 사용자 인터페이스는 오류를 보고하지 않고 로드 상태로 유지됩니다.

프로젝트를 편집할 수 있는 권한이 있는 사용자가 세부 정보를 편집하려고 하면 사용자 인터페이스가 로드 중 상태로 남아 있고 적절한 오류 메시지가 표시되지 않았습니다. 프로젝트를 편집할 수 있는 권한이 있는 사용자는 설명과 같이 프로젝트의 필드를 편집할 수 없습니다. 이러한 사용자는 워크벤치, 데이터 연결 및 스토리지와 같이 프로젝트에 속하는 구성 요소만 편집할 수 있습니다.

이제 사용자 인터페이스에 적절한 오류 메시지가 표시되고 프로젝트 설명을 업데이트하지 않습니다.

RHODS-8482 - 데이터 사이언스 파이프라인 그래프는 파이프라인 실행을 위한 노드 에지를 표시하지 않았습니다.

Tekton 형식의 매개 변수 또는 YAML 코드의 when 표현식이 포함되지 않은 파이프라인을 실행한 경우 OpenShift AI 사용자 인터페이스에 그래프 노드와의 연결 에지가 표시되지 않았습니다. 예를 들어 runAfter 속성 또는 Workspace 를 포함하는 파이프라인을 사용한 경우 사용자 인터페이스에 에지 연결 없이 실행된 파이프라인의 그래프가 표시되었습니다. 이제 OpenShift AI 사용자 인터페이스에 그래프 노드와의 에지 연결이 표시됩니다.

RHODS-8923 - 파이프라인 서버를 만들려고 할 때 새로 생성된 데이터 연결이 감지되지 않았습니다.

Data Science 프로젝트 내에서 데이터 연결을 생성한 다음 파이프라인 서버를 만들려고 하면 파이프라인 서버 구성 대화 상자에서 생성한 데이터 연결을 감지하지 못했습니다. 이 문제는 이제 해결되었습니다.

RHODS-8461 - 다른 사용자와 프로젝트를 공유할 때 OpenShift AI 사용자 인터페이스 텍스트가 잘못 구성되었습니다.

다른 사용자와 Data Science 프로젝트를 공유하려고 하면 사용자 인터페이스 텍스트가 사용자가 설명과 같은 모든 세부 정보를 편집할 수 있다고 잘못 부정확했습니다. 그러나 사용자는 워크벤치, 데이터 연결 및 스토리지와 같이 프로젝트에 속하는 구성 요소만 편집할 수 있습니다. 이 문제는 이제 해결되어 사용자 인터페이스 텍스트가 더 이상 잘못되지 않으므로 사용자가 모든 세부 정보를 편집할 수 있습니다.

RHODS-8462 - "편집" 권한이 있는 사용자는 모델 서버를 생성할 수 없습니다.

"편집" 권한이 있는 사용자는 이제 토큰 권한 없이 모델 서버를 만들 수 있습니다. 사용자에게 토큰 권한이 있는 모델 서버를 생성하려면 "관리자" 권한이 있어야 합니다.

RHODS-8796 - OpenVINO 모델 서버 런타임에서 GPU 사용을 강제 적용하는 데 필요한 플래그가 없었습니다.

OpenShift AI에는 기본적으로 OVMS(OpenVINO Model Server) 모델 제공 런타임이 포함되어 있습니다. 새 모델 서버를 구성하고 이 런타임을 선택하면 모델 서버 구성 대화 상자에서 모델 서버와 함께 사용할 GPU 수를 지정할 수 있습니다. 그러나 모델 서버 구성을 완료하고 모델을 배포한 경우 모델 서버는 실제로 GPU를 사용하지 않았습니다. 이 문제는 해결되어 모델 서버가 GPU를 사용합니다.

RHODS-8861 - 파이프라인 실행 시 호스트 프로젝트 변경으로 인해 사용 가능한 파이프라인 목록이 부정확했습니다.

파이프라인 실행을 생성하는 동안 호스트 프로젝트를 변경한 경우 인터페이스에서 새 호스트 프로젝트의 파이프라인을 사용할 수 없습니다. 대신 인터페이스에서는 Data Science Pipelines > Runs 페이지에서 처음 선택한 프로젝트에 속하는 파이프라인을 표시했습니다. 이 문제는 이제 해결되었습니다. 실행 생성 페이지에서 파이프라인을 더 이상 선택하지 않습니다. 현재 프로젝트 및 해당 파이프라인에 따라 실행 생성 버튼을 클릭하면 파이프라인 선택이 자동으로 업데이트됩니다.

RHODS-8249 - ConfigMap으로 업로드된 환경 변수가 대신 Secret에 저장됨

이전 버전에서는 OpenShift AI 인터페이스에서 ConfigMap 구성을 업로드하여 워크벤치에 환경 변수를 추가하면 해당 변수가 Secret 오브젝트에 대신 저장되었습니다. 이 문제는 이제 해결되었습니다.

RHODS-7975 - Workbenches에 여러 데이터 연결이 있을 수 있습니다

이전에는 워크벤치의 데이터 연결을 변경한 경우 기존 데이터 연결이 해제되지 않았습니다. 결과적으로 워크벤치는 여러 데이터 소스에 계속 연결될 수 있었습니다. 이 문제는 이제 해결되었습니다.

RHODS-7948 - 환경 변수를 포함하는 시크릿 파일 업로드로 인해 이중 인코딩 값이 발생했습니다.

이전 버전에서는 데이터 정보 프로젝트에서 워크벤치를 생성할 때 환경 변수가 포함된 YAML 기반 시크릿 파일을 업로드하면 환경 변수 값이 디코딩되지 않았습니다. 그런 다음 이 프로세스에서 생성한 결과 OpenShift 시크릿에서 인코딩된 값이 다시 인코딩되었습니다. 이 문제는 이제 해결되었습니다.

RHODS-6429 - Intel OpenVINO 또는 Anaconda Professional Edition 이미지로 워크벤치를 생성할 때 오류가 표시되었습니다.

이전에는 Intel OpenVINO 또는 Anaconda Professional Edition 이미지로 워크벤치를 만들 때 생성 프로세스 중에 오류가 발생했습니다. 그러나 워크벤치는 여전히 성공적으로 생성되었습니다. 이 문제는 이제 해결되었습니다.

RHODS-6372 - Idle laptop culler는 활성 터미널을 고려하지 않았습니다.

이전 버전에서는 노트북 이미지에 실행 중인 터미널이 있지만 활성 상태의 실행 중인 커널이 없는 경우 유휴 노트북 culler에서 노트북을 비활성으로 감지하고 터미널을 중지했습니다. 이 문제는 이제 해결되었습니다.

RHODS-5700 - 워크벤치 생성 시 데이터 연결을 만들거나 연결할 수 없습니다.

워크벤치를 생성할 때 사용자가 새 데이터 연결을 생성하거나 기존 데이터 연결에 연결할 수 없었습니다.

RHODS-6281 - OpenShift AI 관리자가 클러스터에서 관리자 그룹을 삭제한 경우 설정 페이지에 액세스할 수 없습니다.

이전에는 Red Hat OpenShift AI 관리자 그룹이 클러스터에서 삭제된 경우 OpenShift AI 관리자 사용자가 더 이상 OpenShift AI 대시보드의 설정 페이지에 액세스할 수 없었습니다. 특히 다음과 같은 동작이 표시됩니다.

  • OpenShift AI 관리자 사용자가 설정사용자 관리 페이지에 액세스하려고 하면 "페이지를 찾을 수 없음" 오류가 표시되었습니다.
  • 클러스터 관리자가 OpenShift AI 대시보드의 설정 페이지에 액세스할 수 없었습니다. 클러스터 관리자가 설정사용자 관리 페이지에 액세스하면 삭제된 OpenShift AI 관리자 그룹이 더 이상 OpenShift에 존재하지 않음을 나타내는 경고 메시지가 표시되었습니다. 삭제된 관리자 그룹이 OdhDashboardConfig 에서 제거되었으며 관리자 액세스 권한이 복원되었습니다.

이 문제는 이제 해결되었습니다.

RHODS-1968 - Deleted users stay logged in until dashboard was refreshed

이전 버전에서는 Red Hat OpenShift AI 대시보드에 대한 사용자 권한이 취소되면 사용자는 대시보드 페이지를 새로 고침한 후에만 변경 사항을 알 수 있었습니다.

이 문제는 이제 해결되었습니다. 사용자의 권한이 취소되면 OpenShift AI 대시보드는 새로 고침할 필요 없이 사용자를 30초 내에 잠급니다.

RHODS-6384 - 중복된 데이터 연결을 생성할 때 워크벤치 데이터 연결이 잘못 업데이트되었습니다.

기존 데이터 연결과 동일한 이름을 포함하는 데이터 연결을 생성할 때 데이터 연결 생성이 실패했지만 연결된 워크벤치가 여전히 재시작되어 잘못된 데이터 연결에 연결됩니다. 이 문제가 해결되었습니다. 이제 워크벤치가 올바른 데이터 연결에 연결됩니다.

RHODS-6370 - Workbenches에서 최신 허용 오차를 수신하지 못했습니다

이전에는 최신 허용 오차를 얻기 위해 사용자가 관련 워크벤치를 편집하고 변경하지 않고 워크벤치를 다시 저장해야 했습니다. 사용자는 이제 데이터 과학 프로젝트의 워크벤치를 중지한 다음 다시 시작하여 최신 허용 오차 변경을 적용할 수 있습니다.

RHODS-6779 - OpenShift AI 1.20에서 OpenShift AI 1.21로 업그레이드한 후 모델을 제공할 수 없음

OpenShift AI 1.20에서 OpenShift AI 1.21로 업그레이드할 때 modelmesh-serving 포드에서 존재하지 않는 이미지를 가져오려고 시도하여 이미지 가져오기 오류가 발생했습니다. 결과적으로 OpenShift AI의 모델 제공 기능을 사용하여 모델을 제공할 수 없었습니다. odh-openvino-servingruntime-container-v1.21.0-15 이미지가 성공적으로 배포됩니다.

RHODS-5945 - Anaconda Professional Edition은 OpenShift AI에서 사용할 수 없습니다.

Anaconda Professional Edition은 OpenShift AI에서 사용할 수 없습니다. 대신 연결된 Pod의 이벤트 페이지에 InvalidImageName 오류가 표시되었습니다. Anaconda Professional Edition을 성공적으로 활성화할 수 있습니다.

RHODS-5822 - 사용량이 데이터 과학 프로젝트에서 생성된 PVC에 대해 90% 및 100%를 초과하면 관리 사용자가 경고를 받지 않았습니다.

PVC가 90%를 초과했을 때와 용량의 100%를 데이터 과학 프로젝트에서 생성한 PVC에 대해 관리자 사용자에게 표시하지 않음을 나타내는 경고입니다. 이제 관리자 사용자는 PVC가 대시보드에서 90% 및 100%를 초과하는 시기에 대한 경고를 볼 수 있습니다.

RHODS-5889 - 데이터 과학 노트북이 "보류 중" 상태에 있는 경우 오류 메시지가 표시되지 않았습니다.

노트북 포드를 생성할 수 없는 경우 OpenShift AI 인터페이스에 오류 메시지가 표시되지 않았습니다. 이제 데이터 사이언스 노트북을 생성할 수 없는 경우 오류 메시지가 표시됩니다.

RHODS-5886 - 데이터 사이치 워크벤치에서 Hub Control Panel 대시보드로 돌아가기 실패

FileLog Out 을 클릭하여 워크벤치 sendpyter 노트북에서 대시보드로 돌아가려고 하면 대시보드로 리디렉션되어 "로그아웃" 페이지에 남아 있습니다. 마찬가지로 FileHub Control Panel 을 클릭하여 대시보드로 되돌리려고 하면 Start a laptop server 페이지로 잘못 리디렉션되었습니다. 이제 데이터 사이치 워크벤치에서 Hub Control Panel 대시보드로 돌아가면 예상대로 작동합니다.

RHODS-6101 - 관리자가 모든 노트북 서버를 중지할 수 없음

OpenShift AI 관리자는 모든 노트북 서버를 동시에 중지할 수 없습니다. 관리자는 이제 모든 서버 중지 버튼을 사용하여 모든 노트북 서버를 중지하고 관련 사용자 옆에 있는 작업 메뉴에서 서버 중지 를 선택하여 단일 노트북을 중지할 수 있습니다.

RHODS-5891 - Workbench 이벤트 로그가 명확하게 표시되지 않았습니다.

워크벤치를 생성할 때 OpenShift AI 인터페이스에서 이벤트 로그 창을 쉽게 찾을 수 없었습니다. Status (상태) 열 아래의 Starting 레이블은 이제 마우스로 이동하여 클릭하여 노트북 상태 및 이벤트 로그를 볼 수 있음을 나타냅니다.

RHODS-6296 - Google Chrome 이외의 브라우저를 사용할 때 ISV 아이콘이 렌더링되지 않았습니다.

Google Chrome 이외의 브라우저를 사용할 때 탐색리소스 페이지의 모든 ISV 아이콘이 렌더링되지 않았습니다. 이제 ISV 아이콘이 지원되는 모든 브라우저에 올바르게 표시됩니다.

RHODS-3182 - 사용 가능한 GPU가 잘못 입력됨

사용자가 metapyter에서 노트북 인스턴스를 만들려고 하면 GPU가 할당되면 스케줄링에 사용할 수 있는 최대 GPU 수가 업데이트되지 않았습니다. 이제 Hawkularpyter에서 사용 가능한 올바른 GPU 수를 표시합니다.

RHODS-5890 - 여러 영구 볼륨이 동일한 디렉터리에 마운트되면 워크벤치를 시작하지 못했습니다.

동일한 워크벤치의 동일한 마운트 폴더에 둘 이상의 PV(영구 볼륨)를 마운트하는 경우, 노트북 포드 생성에 실패하고 문제가 있음을 나타내는 오류가 표시되지 않았습니다.

RHODS-5768 - 데이터 사이언스 프로젝트는 Red Hat OpenShift AI의 사용자에게 표시되지 않았습니다.

프로젝트의 Display Name 속성 끝에 [DSP] 접미사를 제거하면 연결된 데이터 과학 프로젝트가 더 이상 표시되지 않습니다. 사용자가 더 이상 이 접미사를 제거할 수 없습니다.

RHODS-5701 - 데이터 연결 구성 세부 정보 덮어쓰기

데이터 연결이 워크벤치에 추가되면 해당 데이터 연결에 대한 구성 세부 정보가 환경 변수에 저장되었습니다. 두 번째 데이터 연결이 추가되면 동일한 환경 변수를 사용하여 구성 세부 정보가 저장되므로 첫 번째 데이터 연결에 대한 구성을 덮어씁니다. 현재 사용자는 각 워크벤치에 최대 하나의 데이터 연결을 추가할 수 있습니다.

RHODS-5252 - 노트북 관리 페이지에서는 사용자의 노트북 서버에 대한 관리자 액세스 권한을 제공하지 않았습니다.

OpenShift AI 대시보드에서 액세스한 노트북 관리 페이지는 관리자가 사용자의 노트북 서버에 액세스할 수 있는 수단을 제공하지 않았습니다. 관리자는 사용자 노트북 서버를 시작하거나 중지하는 경우에만 제한되었습니다.

RHODS-2438 - PyTorch 및 TensorFlow 이미지를 업그레이드할 때 사용할 수 없었습니다.

OpenShift AI 1.3에서 이후 버전으로 업그레이드할 때 사용자가 약 30분 동안 PyTorch 및 TensorFlow 이미지를 사용할 수 없었습니다. 그 결과 사용자는 업그레이드 과정에서 PyTorch 및 TensorFlow 노트북을 시작할 수 없었습니다. 이 문제는 이제 해결되었습니다.

RHODS-5354 - 노트북 서버를 시작할 때 환경 변수 이름이 검증되지 않았습니다.

환경 변수 이름은 Start a laptop server 페이지에서 검증되지 않았습니다. 잘못된 환경 변수를 추가한 경우 사용자가 노트북을 시작할 수 없습니다. 이제 환경 변수 이름이 실시간으로 확인됩니다. 잘못된 환경 변수 이름이 입력되면 유효한 환경 변수 이름이 영문자, 숫자, _,- 또는 . . 로 구성되어야 하며 숫자로 시작하지 않아야 함을 나타내는 오류 메시지가 표시됩니다.

RHODS-4617 - GPU 사용 가능한 GPU 수가 있는 경우에만 표시됨

이전에는 GPU 노드를 사용할 수 있는 경우에만 GPU 수 드롭다운이 Start a laptop server 페이지에서만 표시되었습니다. 현재 GPU 노드를 사용할 수 없는 경우에도 자동 스케일링 머신 풀이 클러스터에 정의된 경우에도 GPU 수 드롭다운이 올바르게 표시됩니다. 이로 인해 클러스터에 새 GPU 노드가 프로비저닝될 수 있습니다.

RHODS-5420 - 클러스터에 유일한 사용자가 있는 경우 클러스터 관리자가 관리자 액세스 권한을 얻지 못했습니다.

이전에는 클러스터 관리자가 클러스터에 있는 유일한 사용자인 경우 Red Hat OpenShift 관리자 액세스 권한이 자동으로 제공되지 않았습니다. 이제 관리자 액세스 권한이 클러스터 admin 사용자에게 올바르게 적용됩니다.

RHODS-4321 - 노트북 선택 중에 표시되지 않는 패키지 버전

CUDA 노트북 이미지의 경우 노트북 시작 페이지에 잘못된 버전 번호(11.4 대신 11.7)가 표시되었습니다. 설치된 CUDA 버전은 더 이상 이 페이지에 지정되지 않습니다.

RHODS-5001 - 관리 사용자가 노트북 Pod에 잘못된 허용 오차를 추가할 수 있음

관리자는 오류를 트리거하지 않고 클러스터 설정 페이지에 잘못된 허용 오차를 추가할 수 있습니다. 잘못된 허용 오차가 추가되면 사용자가 노트북을 시작할 수 없습니다. 이제 허용 오차 키가 실시간으로 확인됩니다. 잘못된 허용 오차 이름을 입력하면 영숫자( -, _ 또는 . . )로 구성된 허용 오차 이름을 나타내는 오류 메시지가 표시되고 영숫자 문자로 시작하고 끝나야 합니다.

RHODS-5100 - 그룹 역할 바인딩이 클러스터 관리자에게 적용되지 않음

이전에는 특정 사용자가 아닌 그룹에 클러스터 관리자 권한이 할당된 경우 대시보드가 관리 그룹의 사용자의 관리 권한을 인식하지 못했습니다. 이제 그룹 역할 바인딩이 예상대로 클러스터 관리자에게 올바르게 적용됩니다.

RHODS-4947 - 업그레이드 후 오래된 최소 Python 노트북 이미지가 지속됨

OpenShift AI 1.14에서 1.15로 업그레이드한 후 관련 모든 패키지 버전을 포함하여 최소 Python 노트북의 이전 버전이 지속되었습니다. 최소 Python 노트북의 이전 버전은 업그레이드 후에도 더 이상 유지되지 않습니다.

RHODS-4935 - Excessive "missing x-forwarded-access-token header" 오류 메시지가 대시보드 로그에 표시됨

rhods-dashboard Pod의 로그에 준비 상태 프로브가 /status 엔드포인트에 도달하여 과도한 수의 "x-forwarded-access-token 헤더" 오류 메시지가 포함되어 있습니다. 이 문제는 이제 해결되었습니다.

RHODS-2653 - 샘플 Pachyderm에서 생성된 이미지를 가져오는 동안 오류가 발생했습니다.

사용자가 propyter의 샘플 Pachyderm radio을 사용하여 이미지를 가져오려고 할 때 오류가 발생했습니다. 이미지를 찾을 수 없다는 오류가 발생했습니다. Pachyderm은 이 문제를 해결했습니다.

RHODS-4584 - popyter가 OpenVINO laptop image를 사용하여 노트북 서버를 시작하지 못했습니다.

sendpyter의 노트북 시작 서버 페이지가 OpenVINO 노트북 이미지를 사용하여 노트북 서버를 시작하지 못했습니다. Intel은 이 문제를 해결하기 위해 OpenVINO Operator 업데이트를 제공했습니다.

RHODS-4923 - 사용 데이터 수집을 비활성화한 후 표시되는 비표준 확인란

클러스터 설정 페이지에서 사용 데이터 수집을 비활성화한 후 사용자가 OpenShift AI 대시보드의 다른 영역에 액세스한 후 클러스터 설정 페이지로 돌아가면 사용 데이터 허용 확인란에 비표준 스타일이 적용되어 선택되거나 지워지면 다른 확인란과 동일하게 표시되지 않았습니다.

RHODS-4938 - Incorrect headings were displayed in the Notebook Images page

OpenShift AI 대시보드의 설정 페이지에서 액세스한 노트북 이미지 페이지에 사용자 인터페이스에 잘못된 제목이 표시됩니다. BYON 이미지 설정으로 표시되는 Notebook 이미지 설정 제목과 Import Notebook images 제목이 BYON 이미지로 표시됩니다. 이제 올바른 제목이 예상대로 표시됩니다.

RHODS-4818 - Cryostatpyter는 NVIDIA GPU 애드온을 설치할 때 이미지를 표시할 수 없었습니다.

NVIDIA GPU 애드온 을 설치한 후 노트북 시작 서버 페이지가 표시되지 않았습니다. 이제 이미지가 올바르게 표시되고 시작 노트북 서버 페이지에서 시작할 수 있습니다.

RHODS-4797 - 사용량이 90% 및 100%를 초과하면 PVC 사용 제한 경고가 전송되지 않았습니다.

PVC가 90%를 초과한 시기와 용량의 100%를 트리거하여 보낸 것을 나타내는 경고입니다. 이러한 경고가 트리거되고 예상대로 전송됩니다.

RHODS-4366 - Operator 재시작 시 클러스터 설정이 재설정됨

OpenShift AI Operator pod가 다시 시작되면 클러스터 설정이 기본값으로 재설정되어 사용자 지정 구성을 제거하는 경우가 있었습니다. 새 버전의 OpenShift AI가 릴리스되고 Operator를 실행한 노드를 실행할 때 OpenShift AI Operator가 다시 시작되었습니다. 이 문제는 Operator가 ConfigMap을 잘못 배포했기 때문에 발생했습니다. Operator 배포 지침이 업데이트되어 더 이상 발생하지 않습니다.

RHODS-4318 - OpenVINO 노트북 이미지를 성공적으로 빌드하지 못했습니다.

OpenVINO 노트북 이미지를 성공적으로 빌드하지 못하고 오류 메시지가 표시되었습니다. 이 문제는 이제 해결되었습니다.

RHODS-3743 - Starburst Galaxy 퀵 스타트에서 명령어 단계에서 다운로드 링크를 제공하지 않았습니다.

대시보드의 리소스 페이지에 있는 Starburst Galaxy 빠른 시작에는 사용자가 explore-data.ipynb 노트북 을 열어야 하지만 지침 단계 내에서 링크를 제공하지 못했습니다. 대신 빠른 시작의 소개에 링크가 제공되었습니다.

RHODS-1974 - 경고 알림 이메일 변경

Red Hat OpenShift AI 애드온의 알림 이메일 주소 목록에 대한 변경 사항은 rhods-operator Pod 및 prometheus-* Pod가 다시 시작될 때까지 적용되지 않았습니다.

RHODS-2738 - Red Hat OpenShift API Management 1.15.2 애드온 설치가 성공적으로 완료되지 않았습니다.

Red Hat OpenShift API Management 1.15.2 애드온과 통합된 OpenShift AI 설치의 경우 Red Hat OpenShift API Management 설치 프로세스에서 SMTP 인증 정보 시크릿을 성공적으로 가져오지 못했습니다. 그 후 설치가 완료되지 않았습니다.

RHODS-3237 - GPU 튜토리얼이 대시보드에 나타나지 않았습니다.

Gtc2018-numba 에 있는 "GPU 컴퓨팅" 튜토리얼은 대시보드의 리소스 페이지에 표시되지 않았습니다.

RHODS-3069 - GPU 노드를 사용할 수 없는 경우 GPU 선택이 유지됨

사용자가 GPU 지원을 통해 노트북 서버를 프로비저닝하고 사용된 GPU 노드가 클러스터에서 제거되면 사용자는 노트북 서버를 만들 수 없었습니다. 이는 최근 연결된 GPU 수에 대해 가장 최근에 사용된 설정이 기본적으로 사용되었기 때문에 발생했습니다.

RHODS-3181 - Pachyderm은 OpenShift Dedicated 4.10 클러스터와 호환 가능

Pachyderm은 처음에 OpenShift Dedicated 4.10과 호환되지 않아 OpenShift Dedicated 4.10 클러스터에서 실행되는 OpenShift AI에서 사용할 수 없었습니다. Pachyderm은 이제 OpenShift Dedicated 4.10에서 사용할 수 있습니다.

RHODS-2160 - OpenShift AI 및 OpenShift API Management를 둘 다 설치할 때 설치 제거 프로세스가 완료되지 못했습니다

OpenShift AI 및 OpenShift API Management가 동일한 클러스터에 함께 설치되면 동일한 VPC(Virtual Private Cluster)를 사용합니다. 이러한 애드온의 제거 프로세스는 VPC를 삭제하려고 시도합니다. 이전 버전에서는 두 추가 기능이 모두 설치되면 다른 서비스에 계속 VPC에 리소스가 있었기 때문에 하나의 서비스에 대한 제거 프로세스가 차단되었습니다. 이 충돌이 발생하지 않도록 정리 프로세스가 업데이트되었습니다.

RHODS-2747 - OpenShift AI를 업그레이드한 후 이미지가 잘못 업데이트됨

OpenShift AI를 업그레이드하는 프로세스가 완료된 후 metapyter는 노트북 이미지를 업데이트하지 못했습니다. 이는 이미지 캐싱 메커니즘에 문제가 있었기 때문입니다. 이제 업그레이드 후 이미지가 올바르게 업데이트됩니다.

RHODS-2425 - Incorrect TensorFlow 및 TensorBoard 버전 표시

Start a laptop server 페이지에 TensorFlow 및 TensorBoard의 경우 잘못된 버전 번호 (2.4.0)가 TensorFlow 노트북 이미지에 표시되었습니다. 이 버전은 TensorFlow 2.7.0 및 TensorBoard 2.6.0으로 수정되었습니다.

RHODS-24339 - 활성화된 애플리케이션에 빠른 시작 링크가 표시되지 않았습니다.

일부 애플리케이션의 경우 Open quick start 링크가 Enabled 페이지의 애플리케이션 타일에 표시되지 않았습니다. 결과적으로 사용자는 관련 애플리케이션의 퀵 스타트 둘러보기에 직접 액세스할 수 없었습니다.

RHODS-2215 - Incorrect Python versions displayed during laptop selection

Start a laptop server page는 TensorFlow 및 PyTorch laptop images에 대해 잘못된 버전의 Python을 표시했습니다. 또한 이제 패키지 버전 번호의 세 번째 정수가 더 이상 표시되지 않습니다.

RHODS-1977 - 노트북 서버가 시작된 후 10분 대기

노트북 서버가 시작되는 동안 NMStatepyter 리더 Pod가 실패한 경우 Pod가 재시작될 때까지 사용자는 10분 정도 걸릴 때까지 노트북 서버에 액세스할 수 없습니다. 이 프로세스는 새로운 리더 Pod를 선택할 때 사용자가 서버로 리디렉션되도록 개선되었습니다. 이 프로세스가 시간 초과되면 사용자는 504 게이트웨이 시간 초과 오류가 표시되고 해당 서버에 액세스하도록 새로 고칠 수 있습니다.

6장. 확인된 문제

이 섹션에서는 Red Hat OpenShift AI의 알려진 문제와 이러한 문제를 해결하는 알려진 방법에 대해 설명합니다.

RHOAIENG-7312 - KServe에서 토큰 인증을 사용하여 쿼리하는 동안 모델 제공 실패

DataScienceCluster 오브젝트에서 ModelMesh 및 KServe 구성 요소를 모두 활성화했는데 권한 부여 공급자로 Authorino를 추가한 경우 경쟁 조건이 발생하여 odh-model-controller Pod가 ModelMesh에 적합한 상태에서 롤아웃될 수 있지만 KServe 및 Authorino에는 적합하지 않을 수 있습니다. 이 경우 KServe를 사용하여 배포된 실행 중인 모델에 대한 유추 요청을 수행하면 404 - Not Found 오류가 표시됩니다. 또한 odh-model-controller 배포 오브젝트의 로그에 Reconciler 오류 메시지가 표시됩니다.

해결방법
OpenShift에서 odh-model-controller 배포 오브젝트를 다시 시작합니다.

RHOAIENG-7079 - 파이프라인 작업 상태 및 로그가 OpenShift AI 대시보드에 표시되지 않는 경우가 있음

특히 Elyra를 사용하여 파이프라인을 실행하는 경우 OpenShift AI 대시보드에는 관련 Pod가 정리되지 않았으며 OpenShift 콘솔에서 해당 정보를 계속 사용할 수 있는 경우에도 OpenShift AI 대시보드에 파이프라인 작업 상태 및 로그가 표시되지 않는 경우가 있습니다.

RHOAIENG-6853 - Elyra 파이프라인 Pod에서 Pod 허용 오차를 설정할 수 없습니다

Elyra 파이프라인 Pod에 대한 Pod 허용 오차를 설정하면 허용 오차가 적용되지 않습니다.

해결방법
없음.

RHOAIENG-7209 - 기본 파이프라인 루트를 설정할 때 오류가 표시됩니다.

Data Science Pipelines SDK 또는 OpenShift AI 사용자 인터페이스를 사용하여 기본 파이프라인 루트를 설정하면 다음과 유사한 오류가 표시됩니다.

F0513 18:25:25.155794 28 main.go:49] failed to execute component: Failed to open bucket "mlpipeline": Failed to retrieve credentials for bucket mlpipeline: Failed to get Bucket credentials from secret name="" namespace="dspa1": resource name may not be empty44
해결방법
없음.

RHOAIENG-6711 - ODH-model-controller는 ServiceMeshMemberRoll 오브젝트에서 spec.memberSelectors 필드를 덮어씁니다.

ServiceMeshMemberRoll 리소스의 spec.memberSelectors 필드를 사용하여 프로젝트 또는 네임스페이스를 ServiceMeshMemberRoll 리소스에 추가하면 ODH-model-controller가 해당 필드를 덮어씁니다.

해결방법

예와 같이 spec.members 필드를 사용하여 ServiceMeshMemberRoll 리소스에 네임스페이스를 명시적으로 추가합니다.

spec:
 members:
 - <namespace 1>
 - <namespace 2>

RHOAIENG-6649 - 외부 경로가 정의되지 않은 모델 서버에서 모델을 볼 때 오류가 표시됩니다.

대시보드를 사용하여 외부 경로가 활성화되어 있지 않은 모델 서버에 모델을 배포하는 경우 모델 생성이 진행되는 동안 t.components가 정의되지 않은 오류 메시지가 표시될 수 있습니다.

해결방법
없음.

RHOAIENG-6646 - 업그레이드 중 Model Serving 페이지를 볼 때 오류가 표시됩니다.

OpenShift AI 업그레이드가 진행되는 동안 대시보드를 사용하여 모델을 배포하려고 하면 t.status가 정의되지 않은 오류 메시지가 표시될 수 있습니다.

해결방법
업그레이드된 OpenShift AI Operator가 준비될 때까지 기다린 다음 브라우저의 페이지를 새로 고칩니다.

RHOAIENG-6486 - Pod 레이블, 주석 및 허용 오차는 TensorFlow 2024.1 노트북 이미지와 함께 Elyra sumpyterLab 확장을 사용할 때 구성할 수 없습니다.

TensorFlow 2024.1 노트북 이미지와 함께 Elyra popyterLab 확장을 사용하는 경우 실행된 파이프라인에서 Pod 레이블, 주석 또는 허용 오차를 구성할 수 없습니다. 이는 kfp 및 tf2onnx 패키지와의 종속성 충돌 때문입니다.

해결방법

TensorFlow 2024.1 노트북 이미지와 함께 작업하는 경우 작업을 완료한 후 할당된 워크벤치 노트북 이미지를 Standard Data Science 2024.1 노트북 이미지로 변경합니다.

Elyra tellpyterLab 확장의 Pipeline 속성 탭에서 Tensorflow 런타임 이미지를 각 파이프라인 노드에 대해 관련 Pod 레이블, 주석 또는 허용 오차와 함께 개별적으로 파이프라인 노드의 기본 런타임 이미지로 설정합니다.

RHOAIENG-6435 - 분산 워크로드 리소스가 프로젝트 메트릭에 포함되지 않음

분산 워크로드 지표 > 프로젝트 메트릭 을 클릭하고 요청 리소스 섹션을 보면 모든 프로젝트의 요청 에서 현재 큐에 허용되지 않은 분산 워크로드에 대한 리소스가 제외됩니다.

해결방법
없음.

RHOAIENG-6409 - 성공적인 실행을 위해 파이프라인 로그에 매개변수 오류를 저장할 수 없습니다

Data Science Pipelines 2.0을 사용하여 파이프라인을 두 번 이상 실행하면 파이프라인 실행을 위해 매개변수 오류가 파이프라인 로그에 표시될 수 없습니다. 이러한 오류는 무시해도 됩니다.

해결방법
없음.

RHOAIENG-6376 - 파이프라인 구성 요소에 pip_index_urls 를 포트 번호 및 경로가 포함된 URL로 설정한 후 Pipeline 실행 생성이 실패합니다.

파이프라인을 생성하고 구성 요소의 pip_index_urls 값을 포트 번호와 경로가 포함된 URL로 설정하면 파이프라인 코드를 컴파일한 다음 파이프라인 실행을 생성하면 다음과 같은 오류가 발생합니다.

ValueError: Invalid IPv6 URL
해결방법
  1. protocol://hostname 만 사용하여 새 pip 서버를 생성하고 새 서버로 구성 요소의 pip_index_urls 값을 업데이트합니다.
  2. 파이프라인 코드를 다시 컴파일합니다.
  3. 새 파이프라인 실행을 생성합니다.

RHOAIENG-6317 - 대시보드에서 파이프라인 실행 Pod 로그를 볼 때 오류가 표시됩니다.

OpenShift AI 대시보드의 로그 뷰어를 사용하여 파이프라인 실행 포드 로그를 볼 때 Pod를 찾을 수 없는 오류 메시지가 표시될 수 있습니다.

해결방법

Red Hat OpenShift AI 대시보드 지식 베이스 솔루션에서 파이프라인 실행 Pod 로그를 보는 방법은 Data Science Pipelines 해결방법의 단계를 따르십시오.

참고

이 문제는 OpenShift AI 2.9.1에서 부분적으로 해결되었습니다. 나머지 작업에 대한 자세한 내용은 RHOAIENG-7079 를 참조하십시오.

RHOAIENG-5314 - 네트워크 정책으로 인해 데이터 사이언스 파이프라인 서버가 새로운 클러스터에 배포되지 않음

새로운 클러스터에서 데이터 사이언스 파이프라인 서버를 생성할 때 사용자 인터페이스는 로드 상태로 유지되고 파이프라인 서버가 시작되지 않습니다. Pipeline 서버 실패 오류 메시지가 표시될 수 있습니다.

해결방법
  1. OpenShift 웹 콘솔에 클러스터 관리자로 로그인합니다.
  2. 네트워킹 > NetworkPolicies 를 클릭합니다.
  3. 프로젝트 목록을 클릭하고 프로젝트를 선택합니다.
  4. NetworkPolicy 생성 버튼을 클릭합니다.
  5. 구성을 통한 구성의 경우 YAML 보기를 선택하고 다음과 같이 네트워크 정책을 정의합니다.

    kind: NetworkPolicy
    apiVersion: networking.k8s.io/v1
    metadata:
      name: allow-from-redhat-ods-app-to-mariadb
    spec:
      podSelector:
        matchLabels:
          app: mariadb-pipelines-definition
      ingress:
        - ports:
            - protocol: TCP
              port: 3306
          from:
            - podSelector:
                matchLabels:
                  app.kubernetes.io/name: data-science-pipelines-operator
              namespaceSelector:
                matchLabels:
                  kubernetes.io/metadata.name: redhat-ods-applications
      policyTypes:
        - Ingress
  6. 생성을 클릭합니다.

RHOAIENG-4812 - 분산 워크로드 메트릭이 GPU 메트릭을 제외함

이번 OpenShift AI 릴리스에서 분산 워크로드 메트릭은 GPU 메트릭을 제외합니다.

해결방법
없음.

RHOAIENG-4570 - 설치 또는 업그레이드와 함께 기존 Argo 워크플로우 설치 충돌

DSP(Data Science Pipelines) 2.0에는 Argo 워크플로우 설치가 포함되어 있습니다. OpenShift AI는 이 Argo Workflow 설치의 직접 고객 사용을 지원하지 않습니다. DSP 2.0을 사용하여 OpenShift AI를 설치하거나 업그레이드하려면 클러스터에 Argo 워크플로우의 기존 설치가 없는지 확인합니다. 자세한 내용은 Data Science Pipelines 2.0 활성화를 참조하십시오.

해결방법
기존 Argo Workflows 설치를 제거하거나 데이터 정보pipelinesRemoved 로 설정한 다음 설치 또는 업그레이드를 진행합니다.

RHOAIENG-3913 - Red Hat OpenShift AI Operator에 오류와 함께 Degraded condition of False 가 잘못 표시됨

OpenShift AI Operator에서 사용하는 DSC(DataScienceCluster) 오브젝트에서 KServe 구성 요소를 활성화했지만 종속 Red Hat OpenShift Service Mesh 및 Red Hat OpenShift Serverless Operator를 설치하지 않은 경우 DSC 오브젝트의 kserveReady 조건이 KServe가 준비되지 않았음을 올바르게 보여줍니다. 그러나 Degraded 상태에 False 값이 잘못 표시됩니다.

해결방법
Red Hat OpenShift Serverless 및 Red Hat OpenShift Service Mesh Operator를 설치한 다음 DSC를 다시 생성합니다.

RHOAIENG-4252 - 데이터 사이언스 파이프라인 서버 삭제 프로세스가 ScheduledWorkFlow 리소스를 제거하지 못했습니다.

파이프라인 서버 삭제 프로세스는 ScheduledWorkFlow 리소스를 제거하지 않습니다. 결과적으로 새로운 DataSciencePipelines Applications(DSPA)에서 중복 ScheduledWorkFlow 리소스를 인식하지 않습니다.

해결방법
  1. 파이프라인 서버를 삭제합니다. 자세한 내용은 파이프라인 서버 삭제를 참조하십시오.
  2. OpenShift CLI(명령줄 인터페이스)에서 클러스터에 클러스터 관리자로 로그인하고 다음 명령을 실행하여 중복 ScheduledWorkFlow 리소스를 삭제합니다.

    $ oc -n <data science project name> delete scheduledworkflows --all

RHOAIENG-4240 - 안전하지 않은 환경에서 Cryostat 클러스터에 작업을 제출하지 못했습니다.

비보안 OpenShift 클러스터에서 노트북에서 분산 데이터 과학 워크로드를 실행할 때 ConnectionError: Failed to connect to Cryostat 오류 메시지가 표시될 수 있습니다.

해결방법
노트북의 ClusterConfiguration 섹션에서 openshift_oauth 옵션을 True 로 설정합니다.

RHOAIENG-3981 - 보안되지 않은 환경에서 Cryostat 클러스터가 준비될 때까지 기다리는 기능

보안되지 않은 OpenShift 클러스터에서 노트북에서 분산 데이터 사이언 워크로드를 실행할 때 Cryostat 클러스터가 준비될 때까지 기다리는 기능(cluster.wait_ready())이 준비 상태에 있어도 중단됩니다.

해결방법

다음 작업 중 하나를 수행합니다.

  • 노트북의 ClusterConfiguration 섹션에서 openshift_oauth 옵션을 True 로 설정합니다.
  • cluster.wait_ready() 기능을 사용하는 대신 Cryostat 클러스터 경로 URL을 열어 Cryostat 클러스터 가용성을 수동으로 확인할 수 있습니다. URL에서 Cryostat 대시보드를 사용할 수 있으면 클러스터가 준비됩니다.

RHOAIENG-3025 - OVMS 예상 디렉터리 레이아웃 KServe StoragePuller 레이아웃

OVMS(OpenVINO Model Server) 런타임을 사용하여 단일 모델 제공 플랫폼(KServe 사용)에 모델을 배포할 때 OVMS에서 예상되는 디렉터리 레이아웃과 KServe에서 사용하는 모델 가져오기 논리의 디렉터리 레이아웃이 일치하지 않습니다. 특히 OVMS에서는 모델 파일이 /< mnt>/models/1/ 디렉터리에 있어야 하지만 KServe는 이를 /<mnt>/models/ 디렉터리에 배치합니다.

해결방법

다음 작업을 수행합니다.

  1. S3 호환 스토리지 버킷에서 모델 파일을 1/ 이라는 디렉터리에 배치합니다(예: /< s3_storage_bucket>/models/1/<model_files > ).
  2. OVMS 런타임을 사용하여 단일 모델 제공 플랫폼에 모델을 배포하려면 다음 옵션 중 하나를 선택하여 모델 파일의 경로를 지정합니다.

    • OpenShift AI 대시보드를 사용하여 모델을 배포하는 경우 데이터 연결의 경로 필드에서 /<s3_storage_bucket>/models/ 형식을 사용하여 모델 파일의 경로를 지정합니다. 1/ 디렉터리를 경로의 일부로 지정하지 마십시오.
    • 모델을 배포하기 위해 자체 InferenceService 사용자 지정 리소스를 생성하는 경우 storageURI 필드의 값을 /<s3_storage_bucket>/models/ 로 구성합니다. 1/ 디렉터리를 경로의 일부로 지정하지 마십시오.

KServe는 지정한 경로의 하위 디렉터리에서 모델 파일을 가져옵니다. 이 경우 KServe는 S3 호환 스토리지의 /<s3_storage_bucket>/models/1/ 디렉토리에서 모델 파일을 올바르게 가져옵니다.

RHOAIENG-3018 - KServe의 OVMS는 대시보드에 올바른 끝점을 노출하지 않습니다.

OVMS(OpenVINO Model Server) 런타임을 사용하여 단일 모델 제공 플랫폼에 모델을 배포할 때 배포된 모델의 유추 끝점 필드에 표시된 URL이 완료되지 않습니다.

해결방법
모델에 쿼리를 보내려면 /v2/models/_<model-name>_/infer 문자열을 URL 끝에 추가해야 합니다. _<model-name>_ 을 배포된 모델의 이름으로 바꿉니다.

RHOAIENG-3378 - 내부 이미지 레지스트리는 sendpyter 노트북 생성 프로세스를 위해 선언되지 않은 하드 종속성입니다.

OpenShift AI 노트북과 워크벤치를 시작하려면 먼저 OpenShift에서 통합된 내부 컨테이너 이미지 레지스트리를 활성화해야 합니다. 먼저 이미지 레지스트리를 활성화하지 않고 노트북 또는 워크벤치를 시작하려고 하면 "InvalidImageName" 오류와 함께 실패합니다.

다음 명령을 사용하여 이미지 레지스트리가 클러스터에 활성화되어 있는지 확인할 수 있습니다.

$ oc get pods -n openshift-image-registry
해결방법
OpenShift에서 통합된 내부 컨테이너 이미지 레지스트리를 활성화합니다. 이미지 레지스트리를 설정하고 구성하는 방법에 대한 자세한 내용은 OpenShift의 Image Registry Operator 를 참조하십시오.

RHOAIENG-2759 - 프로젝트에 보안 및 일반 모델 서버가 있는 경우 모델 배포가 실패합니다.

한 서버가 토큰 인증을 사용하고 다른 서버에서 인증을 사용하지 않는 프로젝트에서 두 번째 모델 서버를 만들 때 두 번째 모델의 배포가 시작되지 않을 수 있습니다.

해결방법
없음.

RHOAIENG-2602 - "상세 응답 시간" 서버 메트릭 그래프는 ModelMesh pod 재시작으로 인해 여러 행을 보여줍니다.

평균 응답 시간 서버 지표 그래프는 ModelMesh Pod가 다시 시작되면 여러 행을 보여줍니다.

해결방법
없음.

RHOAIENG-2585 - 클러스터에서 UWM이 활성화되지 않은 경우 UI에 오류/경고가 표시되지 않음

Red Hat OpenShift AI는 클러스터에서 UWM(User Workload Monitoring)이 비활성화된 경우 사용자에게 올바르게 경고하지 않습니다. UWM은 모델 메트릭의 올바른 기능에 필요합니다.

해결방법
사용자 정의 프로젝트에 대한 모니터링 활성화에 설명된 대로 클러스터에서 UWM이 활성화되어 있는지 수동으로 확인합니다.

RHOAIENG-2555 - Serving Runtime을 변경할 때 모델 프레임워크 선택기가 재설정되지 않음

모델 배포 대화 상자를 사용하여 단일 모델 제공 플랫폼에 모델을 배포하는 경우 런타임 및 지원되는 프레임워크를 선택한 다음 다른 런타임으로 전환하면 기존 프레임워크 선택 사항이 재설정되지 않습니다. 즉, 선택한 런타임에 지원되지 않는 프레임워크를 사용하여 모델을 배포할 수 있습니다.

해결방법
모델을 배포하는 동안 선택한 런타임을 변경하는 경우 프레임워크 선택 목록을 다시 클릭하고 지원되는 프레임워크를 선택합니다.

RHOAIENG-2468 - KServe와 동일한 프로젝트의 서비스는 OpenShift에서 액세스할 수 없게 될 수 있습니다.

단일 모델 제공 플랫폼(KServe 사용)에 배포된 모델이 포함된 데이터 과학 프로젝트에 OpenShift AI가 아닌 서비스를 배포하는 경우 서비스의 접근성이 OpenShift 클러스터의 네트워크 구성의 영향을 받을 수 있습니다. 호스트 네트워크 네임스페이스와 함께 OVN-Kubernetes 네트워크 플러그인 을 사용하는 경우 특히 그러합니다.

해결방법

다음 작업 중 하나를 수행합니다.

  • 단일 모델 제공 플랫폼에 배포된 모델이 포함되지 않은 다른 데이터 사이언스 프로젝트에 서비스를 배포합니다. 또는 다른 OpenShift 프로젝트에서 서비스를 배포합니다.
  • 서비스가 되는 데이터 사이언스 프로젝트에서 다음 예와 같이 애플리케이션 pod에 수신 트래픽을 허용하는 네트워크 정책을 추가합니다.

    apiVersion: networking.k8s.io/v1
    kind: NetworkPolicy
    metadata:
      name: allow-ingress-to-myapp
    spec:
      podSelector:
        matchLabels:
          app: myapp
      ingress:
         - {}

RHOAIENG-2312 - 코드 서버 워크벤치에서 numpy 가져오기 실패

코드-서버 워크벤치에서 numpy 를 가져올 수 없습니다.

해결방법
  1. 코드-서버 워크벤치의 활동 표시줄에서 메뉴 아이콘 ( The Menu icon ) > 보기 > 명령 팔레트 를 선택하여 명령줄을 엽니다.

    Firefox에서는 F1 키보드 바로 가기를 사용하여 명령 팔레트를 열 수 있습니다.

  2. python: s 를 입력합니다.
  3. 드롭다운 목록에서 Python: 인터프리터 선택 작업을 선택합니다.
  4. Interpreter 선택 대화 상자에서 인터프리터 경로 입력...를 선택합니다.
  5. 인터프리터 경로로 /opt/app-root/bin/python3 을 입력하고 Enter 를 누릅니다.
  6. 드롭다운 목록에서 새 Python 인터프리터를 선택합니다.
  7. 새 인터프리터(app-root)가 상태 표시줄에 표시되는지 확인합니다. 선택한 인터프리터는 워크벤치가 중지되고 다시 시작되면 유지되므로 각 워크벤치마다 한 번만 해결 방법을 수행해야 합니다.

RHOAIENG-2228 - 간격이 15초로 설정될 때 성능 메트릭 그래프가 지속적으로 변경됩니다.

모델 지표 화면의 끝점 성능 탭에서 새로 고침 간격을 15초로 설정하고 시간 범위를 1시간으로 설정하면 그래프 결과가 지속적으로 변경됩니다.

해결방법
없음.

RHOAIENG-2183 - 끝점 성능 그래프에 잘못된 레이블이 표시될 수 있습니다.

모델 지표 화면의 끝점 성능 탭에서 그래프 툴팁에 잘못된 레이블이 표시될 수 있습니다.

해결방법
없음.

RHOAIENG-1919 - Model Serving 페이지가 배포 직후 모델 경로 URL을 가져오지 못하거나 보고되지 않음

OpenShift AI 대시보드에서 모델을 배포할 때 시스템은 다음 경고 메시지를 표시하고 모델의 Status 열은 OK/green 확인 표시로 성공했음을 나타냅니다.

Failed to get endpoint for this deployed model. routes.rout.openshift.io"<model_name>" not found
해결방법
브라우저 페이지를 새로 고칩니다.

RHOAIENG-1452 - Red Hat OpenShift AI 애드온 사용 중단

Red Hat OpenShift AI 애드온 설치 제거는 OCM API를 통해 트리거된 후 OpenShift AI 구성 요소를 삭제하지 않습니다.

해결방법

다음과 같이 나머지 OpenShift AI 리소스를 수동으로 삭제합니다.

  1. DataScienceCluster CR을 삭제합니다.
  2. redhat-ods-applications 네임스페이스에서 모든 포드가 삭제될 때까지 기다립니다.
  3. DataScienceCluster CR에서 Serverless가 Managed 로 설정된 경우 knative-serving 네임스페이스에서 모든 Pod가 삭제될 때까지 기다립니다.
  4. DSCInitialization CR을 삭제합니다.
  5. DSCInitialization CR에서 Service Mesh가 Managed 로 설정된 경우 istio-system 네임스페이스에서 모든 Pod가 삭제될 때까지 기다립니다.
  6. Red Hat OpenShift AI Operator를 설치 제거합니다.
  7. 모든 Pod가 redhat-ods-operator 네임스페이스 및 redhat-ods-monitoring 네임스페이스에서 삭제될 때까지 기다립니다.

RHOAIENG-880 - 기본 파이프라인 서비스 계정을 생성할 수 없습니다.

기본 파이프라인 서비스 계정을 사용하여 클러스터를 생성할 수 없습니다.

해결방법

파이프라인 코드에 다음 행을 추가하여 CodeFlare SDK를 사용하여 인증합니다.

from codeflare_sdk.cluster.auth import TokenAuthentication
   auth = TokenAuthentication(
       token=openshift_token, server=openshift_server
   )
   auth_return = auth.login()
참고

클러스터에서 자체 서명된 인증서를 사용하는 경우 TokenAuthentication 매개변수 목록에 ca-cert-path=<path >를 포함합니다.

RHOAIENG-404 - OpenShift AI 대시보드에서 사용 가능한 페이지 대신 구성 요소를 찾을 수 없는 페이지가 무작위로 표시됨

Red Hat OpenShift AI 대시보드에 액세스하면 No Components Found 페이지가 표시될 수 있습니다.

해결방법
브라우저 페이지를 새로 고칩니다.

RHOAIENG-2541 - KServe 컨트롤러 Pod가 클러스터에 너무 많은 시크릿으로 인해 OOM을 경험함

OpenShift 클러스터에 많은 시크릿이 있는 경우 OOM(메모리 부족) 오류로 인해 KServe 컨트롤러 Pod가 지속적으로 충돌할 수 있습니다.

해결방법
KServe 컨트롤러 포드가 안정적으로 될 때까지 OpenShift 클러스터의 시크릿 수를 줄입니다.

RHOAIENG-1128 - 워크벤치에 연결되지 않은 PV(영구 볼륨) 크기를 늘리려고 할 때 Unclear 오류 메시지가 표시됩니다.

워크벤치에 연결되지 않은 PV(영구 볼륨)의 크기를 늘리려고 하면 명확하지 않은 오류 메시지가 표시됩니다.

해결방법
크기를 늘리기 전에 PV가 워크벤치에 연결되어 있는지 확인합니다.

RHOAIENG-545 - CryostatpyterLab 파이프라인 편집기에서 일반 기본 노드 런타임 이미지를 지정할 수 없습니다

sendpyterLab IDE 파이프라인 편집기에서 Elyra 파이프라인을 편집하고 PIPELINE PROPERTIES 탭을 클릭하고 일반 노드 기본값 섹션으로 스크롤하여 런타임 이미지 필드를 편집하면 변경 사항이 저장되지 않습니다.

해결방법
각 노드에 대해 명시적으로 필요한 런타임 이미지를 정의합니다. NODE PROPERTIES 탭을 클릭하고 Runtime Image 필드에 필요한 이미지를 지정합니다.

RHOAIENG-497 - OpenShift Service Mesh CR에서 사용자 알림 없이 삭제됨

DSCInitialization 리소스를 삭제하면 OpenShift Service Mesh CR도 삭제됩니다. 경고 메시지가 표시되지 않습니다.

해결방법
없음.

RHOAIENG-307 - DataScienceCluster 제거 모든 OpenShift Serverless CR 삭제

DataScienceCluster CR(사용자 정의 리소스)을 삭제하면 모든 OpenShift Serverless CR( knative-serving, 배포, 게이트웨이 및 Pod 포함)도 삭제됩니다. 경고 메시지가 표시되지 않습니다.

해결방법
없음.

RHOAIENG-282 - 필요한 리소스를 사용할 수 없는 경우 작업 로드를 디스패치해서는 안 됩니다.

단일 머신 인스턴스에 CryostatCluster를 성공적으로 프로비저닝할 수 있는 충분한 리소스가 없는 경우에도 워크로드가 디스패치되는 경우가 있습니다. AppWrapper CRD는 Running 상태로 유지되며 관련 Pod는 무기한 Pending 상태로 유지됩니다.

해결방법
클러스터에 리소스를 추가합니다.

RHOAIENG-131 - gRPC 끝점이 Loaded로 보고한 후 제대로 응답하지 않음

수많은 InferenceService 인스턴스가 생성되고 요청을 지시하면 SMCP(Service Mesh Control Plane)가 응답하지 않습니다. InferenceService 인스턴스의 상태는 Loaded 이지만 gRPC 끝점에 대한 호출은 오류와 함께 반환됩니다.

해결방법
ServiceMeshControlPlane 사용자 정의 리소스(CR)를 편집하여 Istio 송신 및 인그레스 Pod의 메모리 제한을 늘립니다.

RHOAIENG-130 - 모델이 출시되었을 때 동기화 문제

KServe 컨테이너의 상태가 Ready 이면 TGIS 컨테이너가 준비되지 않은 경우에도 요청이 허용됩니다.

해결방법
몇 초 동안 모든 초기화가 완료되고 TGIS 컨테이너가 실제로 준비되었는지 확인한 다음 요청 출력을 검토합니다.

RHOAIENG-3115 - 모델은 준비 상태로 표시된 후 몇 초 동안 쿼리할 수 없습니다.

다중 모델 제공 플랫폼을 사용하여 배포된 모델은 대시보드에 Ready 로 표시되더라도 쿼리에 응답하지 않을 수 있습니다. 모델 엔드포인트를 쿼리할 때 "Application is not available" 응답이 표시될 수 있습니다.

해결방법
30-40초 동안 기다린 다음 브라우저에서 페이지를 새로 고칩니다.

RHOAIENG-1619 (이전에는 DATA-SCIENCE-PIPELINES-165)로 문서화되어 있습니다. S3 버킷을 쓸 수 없는 경우 오류 메시지

데이터 연결을 설정하고 S3 버킷을 쓸 수 없으며 파이프라인을 업로드하려고 하면 파이프라인을 저장할 수 없음 이라는 오류 메시지가 도움이 되지 않습니다.

해결방법
데이터 연결 인증 정보가 올바르고 사용자가 지정한 버킷에 대한 쓰기 액세스 권한이 있는지 확인합니다.

RHOAIENG-1207 (이전에는 ODH-DASHBOARD-1758) - cnfTB 사용자 정의 서비스 런타임을 여러 번 중복된 오류

model-serving 런타임을 여러 번 복제하면 Serving 런타임 이름 "<name>"과 함께 중복이 실패합니다.

해결방법
metadata.name 필드를 고유한 값으로 변경합니다.

RHOAIENG-1204 (이전에는 ODH-DASHBOARD-1771) - Pipeline 초기화 중 JavaScript 오류

실행이 시작될 때 파이프라인 실행 세부 정보 페이지가 작동하지 않는 경우가 있습니다.

해결방법
페이지를 새로 고칩니다.

RHOAIENG-1203 (이전에는 ODH-DASHBOARD-1781) - 시작 실행 상태에 대한 Missing 툴팁

데이터 사이언스 파이프라인 실행에는 표시된 상태 아이콘의 툴팁 텍스트가 표시되지 않는 경우가 있습니다.

해결방법
자세한 내용은 파이프라인 실행 세부 정보 페이지를 보고 실행 출력을 참조하십시오.

RHOAIENG-1201 (이전에는 ODH-DASHBOARD-1908) - 빈 환경 변수를 사용하여 워크벤치를 생성할 수 없습니다

워크벤치를 생성할 때 변수 추가 를 클릭하지만 목록에서 환경 변수 유형을 선택하지 않으면 워크벤치를 생성할 수 없습니다. 이 필드는 필수로 표시되지 않으며 오류 메시지가 표시되지 않습니다.

해결방법
없음.

RHOAIENG-1196 (이전에는 ODH-DASHBOARD-2140) - 대시보드에 표시된 패키지 버전이 설치된 버전과 일치하지 않습니다.

대시보드는 metapyterLab 및 Notebook과 같은 패키지에 대해 부정확한 버전 번호를 표시할 수 있습니다. 패키지가 수동으로 업데이트되는 경우 패키지 버전 번호는 이미지에서 다를 수 있습니다.

해결방법

패키지에 대한 true 버전 번호를 찾으려면 다음 예제와 같이 pip list 명령을 실행하고 패키지 이름을 검색합니다.

$ pip list | grep jupyterlab
jupyterlab                        3.5.3
$ pip list | grep notebook
notebook                          6.5.3

RHOAIENG-582 (이전에는 ODH-DASHBOARD-1335) - 기여자에 대한 편집 권한 이름 변경

편집 이라는 용어는 정확하지 않습니다.

  • 대부분의 리소스의 경우 Edit 권한이 있는 사용자는 리소스를 편집하고 리소스를 생성할 수도 있습니다.
  • 편집 권한이 있는 사용자는 프로젝트를 편집할 수 없습니다.

Contributor 라는 용어는 이 권한이 부여한 작업을 보다 정확하게 설명합니다.

해결방법
없음.

RHOAIENG-432 (이전에는 RHODS-12928) - 지원되지 않는 문자를 사용하면 여러 대시가 있는 Kubernetes 리소스 이름을 생성할 수 있습니다.

리소스를 생성하고 이름에 지원되지 않는 문자를 지정하면 각 공간이 대시로 교체되고 지원되지 않는 기타 문자가 제거되어 잘못된 리소스 이름이 발생할 수 있습니다.

해결방법
없음.

RHOAIENG-226 (이전에는 RHODS-12432로 문서화됨) - 노트북 조각 모음 ConfigMap을 비활성화하면 대시보드에서 권한이 삭제됨

redhat-ods -applications 네임스페이스에서 laptop-controller-culler-config ConfigMap을 삭제하면 더 이상 OpenShift AI 대시보드의 클러스터 설정 페이지에 변경 사항을 저장할 수 없습니다. HTTP 요청으로 인해 저장 작업이 실패하고 오류가 발생했습니다.

해결방법

cluster-admin 권한이 있는 사용자로 다음 단계를 완료합니다.

  1. oc 클라이언트를 사용하여 클러스터에 로그인합니다.
  2. 다음 명령을 입력하여 redhat-ods-applications 애플리케이션 네임스페이스에서 OdhDashboardConfig 사용자 정의 리소스를 업데이트합니다.

    $ oc patch OdhDashboardConfig odh-dashboard-config -n redhat-ods-applications --type=merge -p '{"spec": {"dashboardConfig": {"notebookController.enabled": true}}}'

RHOAIENG-133 - 기존 워크벤치에서 Elyra 파이프라인을 다시 시작한 후 실행할 수 없습니다.

Elyra tellpyterLab 확장을 사용하여 conpyterLab 내에서 데이터 사이언스 파이프라인을 생성 및 실행하고 작업벤치 내에서 워크벤치 이미지를 생성한 파이프라인 서버를 구성하면, 노트북을 다시 시작한 후에도 파이프라인을 실행할 수 없습니다.

해결방법
  1. 실행 중인 노트북을 중지합니다.
  2. 워크벤치를 편집하여 약간의 수정을 수행합니다. 예를 들어 새 더미 환경 변수를 추가하거나 불필요한 기존 환경 변수를 삭제합니다. 변경 사항을 저장하십시오.
  3. 노트북을 다시 시작합니다.
  4. sendpyterLab의 왼쪽 사이드바에서 런타임을 클릭합니다.
  5. 기본 런타임이 선택되어 있는지 확인합니다.

RHOAIENG-52 - 자체 서명된 인증서가 있는 클러스터에서 토큰 인증이 실패합니다.

자체 서명된 인증서를 사용하며 Python codeflare-sdk 를 파이프라인의 일부로 노트북 또는 Python 스크립트에서 사용하는 경우 토큰 인증이 실패합니다.

해결방법
없음.

RHOAIENG-11 - 9월 설치된 CodeFlare Operator 인스턴스를 지원하지 않음

Red Hat OpenShift AI에서 CodeFlare Operator는 별도의 Operator가 아닌 기본 제품에 포함되어 있습니다. Red Hat 또는 커뮤니티에서 별도로 설치한 CodeFlare Operator 인스턴스는 지원되지 않습니다.

해결방법
설치된 CodeFlare Operator를 삭제하고 Red Hat 지식베이스 솔루션에 설명된 대로 Red Hat OpenShift AI를 설치 및 구성 하십시오. 데이터 과학 클러스터에 별도로 설치된 CodeFlare Operator에서 마이그레이션하는 방법을 설명합니다.

RHODS-12798 - Pod 실패, "unable to init seccomp" 오류

seccomp 메모리 누수를 도입한 알려진 커널 버그로 인해 Pod는 Running 상태 대신 CreateContainerError 상태 또는 Pending 상태로 인해 실패합니다. Pod가 실패한 네임스페이스에서 이벤트를 확인하거나 oc describe pod 명령을 실행하면 다음 오류가 표시됩니다.

runc create failed: unable to start container process: unable to init seccomp: error loading seccomp filter into kernel: error loading seccomp filter: errno 524

KUBEFLOW-177 - OAuth 프록시에 의해 전달되지 않은 애플리케이션의 전달자 토큰

내부 인증 메커니즘이 전달자 토큰을 기반으로 하는 경우 애플리케이션을 사용자 지정 워크벤치 이미지로 사용할 수 없습니다. OAuth-proxy 구성은 헤더에서 전달자 토큰을 제거하며 애플리케이션이 제대로 작동할 수 없습니다.

해결방법
없음.

참고BOOKS-210 - 노트북에서 PDF 파일로 내보내지 못했습니다.

Samplespyter에서 PDF 파일로 노트북을 내보내면 오류와 함께 내보내기 프로세스가 실패합니다.

해결방법
없음.

RHOAIENG-1210 (이전에는 ODH-DASHBOARD-1699) - 모든 구성 변경 사항에 대해 Workbench가 자동으로 재시작되지는 않음

워크벤치의 구성 설정을 편집하면 구성 설정을 변경하면 워크벤치가 다시 시작됨이라는 경고 메시지가 표시됩니다. 다음 경우 워크벤치가 자동으로 다시 시작되지 않기 때문에 이 경고는 오작동합니다.

  • 이름 편집
  • 설명 편집
  • 기존 환경 변수의 키와 값 편집, 추가 또는 제거
해결방법
워크벤치를 수동으로 다시 시작합니다.

RHOAIENG-1208 (이전에는 ODH-DASHBOARD-1741)로 문서화되어 있음 - 이름으로 시작하는 워크벤치를 만들 수 없습니다.

숫자로 시작하는 워크벤치를 생성하려고 하면 워크벤치가 시작되지 않습니다.

해결방법
워크벤치를 삭제하고 문자로 시작하는 이름으로 새 항목을 만듭니다.

RHOAIENG-1205 (이전에는 RHODS-11791)로 문서화되어 있음 - 업그레이드 후 사용 데이터 수집이 활성화됨

이전에 Allow collection of usage data 옵션 선택 취소(즉, 비활성화됨)가 있는 경우 OpenShift AI를 업그레이드할 때 이 옵션이 선택(즉, 활성화됨)됩니다.

해결방법

사용 데이터 수집 허용 옵션을 수동으로 재설정합니다. 이렇게 하려면 다음 작업을 수행합니다.

  1. OpenShift AI 대시보드의 왼쪽 메뉴에서 설정클러스터 설정을 클릭합니다.

    클러스터 설정 페이지가 열립니다.

  2. 사용 데이터 수집 섹션에서 사용 데이터 수집 허용 을 선택 해제합니다.
  3. 변경 사항 저장을 클릭합니다.

KUBEFLOW-157 - OpenShift AI 대시보드에서 이미 로그아웃한 경우 duepyterLab에서 로깅이 작동하지 않음

CryostatpyterLab에서 로그아웃하기 전에 OpenShift AI 대시보드에서 로그아웃하는 경우 teachingpyterLab에서 로그아웃하는 데 성공하지 못합니다. 예를 들어, sendpyter 노트북의 URL을 알고 있으면 브라우저에서 이 URL을 다시 열 수 있습니다.

해결방법
OpenShift AI 대시보드에서 로그아웃하기 전에 sendpyterLab에서 로그아웃합니다.

RHODS-9789 - 데이터베이스 이름 또는 사용자 이름 필드에 대시를 포함하는 사용자 지정 데이터베이스가 포함된 경우 Pipeline 서버를 시작하지 못했습니다.

사용자 지정 데이터베이스를 사용하는 파이프라인 서버를 생성할 때 dbname 필드 또는 사용자 이름 필드에 설정한 값이 대시를 포함하는 경우 파이프라인 서버가 시작되지 않습니다.

해결방법
영향을 받는 필드에서 대시를 생략하도록 파이프라인 서버를 편집합니다.

RHOAIENG-580 (이전에는 RHODS-9412로 문서화됨) - 편집 권한이 있는 사용자가 워크벤치를 생성하는 경우 Elyra 파이프라인이 실행되지 않음

프로젝트에 대한 편집 권한이 부여된 사용자가 프로젝트 워크벤치를 생성하는 경우 해당 사용자는 다음 동작을 확인합니다.

  • 워크벤치 생성 프로세스 중에 사용자는 Kubernetes 역할 바인딩 생성과 관련된 Error creating workbench 메시지를 확인합니다.
  • 이전 오류 메시지에도 불구하고 OpenShift AI는 여전히 워크벤치를 생성합니다. 그러나 오류 메시지는 사용자가 Elyra 데이터 사이언스 파이프라인을 실행하기 위해 워크벤치를 사용할 수 없음을 의미합니다.
  • 사용자가 워크벤치를 사용하여 Elyra 파이프라인을 실행하려고 하면, sendpyter는 실패한 초기화를 설명하는 오류 작성 요청 메시지를 표시합니다.

    해결방법
    관리자 권한이 있는 사용자(예: 프로젝트 소유자)는 편집 권한이 있는 사용자를 대신하여 워크벤치를 생성해야 합니다. 그런 다음 해당 사용자는 워크벤치를 사용하여 Elyra 파이프라인을 실행할 수 있습니다.

RHOAIENG-583 (이전에는 RHODS-8921RHODS-6373으로 문서화됨) - 누적 문자 제한을 초과하면 파이프라인 서버를 생성하거나 워크벤치를 시작할 수 없습니다.

데이터 사이언스 프로젝트 이름에 대한 누적 문자 제한과 파이프라인 서버 이름이 62자를 초과하면 파이프라인 서버를 성공적으로 생성할 수 없습니다. 마찬가지로 데이터 사이언스 프로젝트 이름과 워크벤치 이름의 누적 문자 제한이 62자를 초과하면 워크벤치를 시작할 수 없습니다.

해결방법
30자를 초과하지 않도록 데이터 과학 프로젝트의 이름을 바꿉니다.

RHODS-7718 - 대시보드 권한이 없는 사용자는 실행 중인 노트북과 워크벤치를 무기한 계속 사용할 수 있습니다.

Red Hat OpenShift AI 관리자가 사용자의 권한을 취소하면 사용자는 실행 중인 노트북 및 워크벤치를 무기한 계속 사용할 수 있습니다.

해결방법
OpenShift AI 관리자가 사용자의 권한을 취소하는 경우 관리자는 해당 사용자의 실행 중인 노트북 및 워크벤치도 중지해야 합니다.

RHOAIENG-1157 (이전에는 RHODS-6955로 문서화됨) - 워크벤치 편집 시 오류가 발생할 수 있습니다.

워크벤치를 편집할 때 다음과 유사한 오류가 발생할 수 있습니다.

Error creating workbench
Operation cannot be fulfilled on notebooks.kubeflow.org "workbench-name": the object has been modified; please apply your changes to the latest version and try again
해결방법
없음.

RHOAIENG-1132 (이전에는 RHODS-6383로 문서화됨) - 워크벤치 생성 프로세스 중에 필요한 경우 ImagePullBackOff 오류 메시지가 표시되지 않습니다.

Pod는 컨테이너 레지스트리에서 컨테이너 이미지를 가져오는 데 문제가 발생할 수 있습니다. 오류가 발생하면 관련 Pod가 ImagePullBackOff 상태가 됩니다. 워크벤치 생성 프로세스 중에 ImagePullBackOff 오류가 발생하면 적절한 메시지가 표시되지 않습니다.

해결방법
ImagePullBackOff 오류에 대한 자세한 내용은 이벤트 로그를 확인합니다. 이렇게 하려면 시작 시 워크벤치 상태를 클릭합니다.

RHOAIENG-1152 (이전에는 RHODS-6356)로 문서화되어 있음 - 대시보드에 로그인하지 않은 사용자가 노트북 생성 프로세스가 실패합니다.

대시보드의 노트북 관리 페이지에는 OpenShift의 사용자 그룹 및 관리자 그룹에 속한 사용자가 표시됩니다. 그러나 관리자가 대시보드에 로그인하지 않은 사용자를 대신하여 노트북 서버를 시작하려고 하면 서버 생성 프로세스가 실패하고 다음과 같은 오류 메시지가 표시됩니다.

Request invalid against a username that does not exist.
해결방법
관련 사용자가 대시보드에 로그인하도록 요청합니다.

RHODS-5763 - 노트북 선택 시 표시되는 잘못된 패키지 버전

Start a laptop server (네임스트로 시작 서버 시작) 페이지에는 Anaconda 노트북 이미지에 대한 잘못된 버전 번호가 표시됩니다.

해결방법
없음.

RHODS-5543 - NVIDIA GPU Operator를 사용할 때 필요한 것보다 더 많은 노드가 노드 자동 스케일러에 의해 생성됩니다.

사용 가능한 리소스가 부족하여 Pod를 예약할 수 없는 경우 노드 자동 스케일러는 새 노드를 생성합니다. 새로 생성된 노드가 관련 GPU 워크로드를 수신할 때까지 지연이 발생합니다. 결과적으로 Pod를 예약할 수 없으며 노드 자동 스케일러는 GPU 워크로드를 수신할 준비가 될 때까지 추가 새 노드를 지속적으로 생성합니다. 이 문제에 대한 자세한 내용은 Red Hat Knowledgebase 솔루션에서 NVIDIA GPU Operator를 사용할 때 노드 자동 스케일러에서 필요한 것보다 많은 노드를 참조하십시오.

해결방법
machineset.spec.template.spec.metadatacluster-api/accelerator 레이블을 적용합니다. 이로 인해 자동 스케일러는 GPU 드라이버가 배포될 때까지 해당 노드를 준비되지 않은 것으로 간주합니다.

RHOAIENG-1137 (이전에는 RHODS-5251)로 문서화되어 있음 - Notebook 서버 관리 페이지에는 권한 액세스 권한이 손실된 사용자가 표시됩니다.

이전에 propyter에서 노트북 서버를 시작한 사용자가 그렇게 할 수 있는 권한이 손실되는 경우(예: OpenShift AI 관리자가 사용자의 그룹 설정을 변경하거나 허용된 그룹에서 사용자를 제거하는 경우) 관리자는 서버 관리 페이지에서 사용자의 노트북 서버를 계속 확인합니다. 결과적으로 관리자는 권한이 취소된 사용자에게 속한 노트북 서버를 다시 시작할 수 있습니다.

해결방법
없음.

RHODS-4799 - Tensorboard를 보려면 수동 단계가 필요합니다.

사용자에게 TensorFlow 또는 PyTorch 노트북 이미지가 있고 TensorBoard를 사용하여 데이터를 표시하려는 경우, 노트북 환경에 환경 변수를 포함하고 해당 변수를 코드에서 사용하기 위해 수동 단계가 필요합니다.

해결방법

노트북 서버를 시작할 때 다음 코드를 사용하여 TENSORBOARD_PROXY_URL 환경 변수의 값을 설정하여 OpenShift AI 사용자 ID를 사용합니다.

import os
os.environ["TENSORBOARD_PROXY_URL"]= os.environ["NB_PREFIX"]+"/proxy/6006/"

RHODS-4718 - Intel® oneAPI AI Analytics Toolkits 빠른 시작은 존재하지 않는 샘플 노트북을 참조합니다.

대시보드의 리소스 페이지에 있는 Intel® oneAPI AI Analytics Toolkits 빠른 시작에는 사용자가 명령 단계의 일부로 샘플 노트북을 로드해야 하지만, 연결된 리포지토리에 없는 노트북을 나타냅니다.

해결방법
없음.

RHODS-4627 - Anaconda Professional Edition의 라이센스 유효성 검사를 담당하는 CronJob이 일시 중단되어 매일 실행되지 않습니다.

Anaconda Professional Edition의 라이센스 검증을 담당하는 CronJob은 OpenShift AI Operator에 의해 자동으로 일시 중단됩니다. 결과적으로 CronJob은 예약된 대로 매일 실행되지 않습니다. 또한 Anaconda Professional Edition의 라이센스가 만료되면 Anaconda Professional Edition이 OpenShift AI 대시보드에서 비활성화된 것으로 표시되지 않습니다.

해결방법
없음.

RHOAIENG-1141 (이전에는 RHODS-4502로 문서화됨) - 대시보드의 NVIDIA GPU Operator 타일이 불필요하게 표시됩니다.

NVIDIA GPU Operator가 설치된 후 GPU를 사용하여 GPU를 자동으로 사용할 수 있습니다. 따라서 탐색 페이지의 NVIDIA GPU Operator 타일에 있는 Enable 버튼이 중복됩니다. 또한 Enable 버튼을 클릭하면 Operator가 설치되지 않은 경우에도 NVIDIA GPU Operator 타일이 Enabled 페이지로 이동합니다.

해결방법
없음.

RHOAIENG-1135 (이전에는 RHODS-3985)로 문서화되어 있음 - ISV Operator를 제거한 후 대시보드는 활성화된 페이지 콘텐츠를 표시하지 않습니다.

ISV Operator를 제거한 후 대시보드의 활성화 페이지에 콘텐츠가 표시되지 않습니다. 대신 다음 오류가 표시됩니다.

Error loading components
HTTP request failed
해결방법
30-40초 동안 기다린 다음 브라우저에서 페이지를 새로 고칩니다.

RHODS-3984 - 노트북 선택 시 표시되는 잘못된 패키지 버전

OpenShift AI 인터페이스에서 노트북 시작 서버 페이지에 는 oneAPI AI Analytics Toolkit 노트북 이미지에 포함된 sendpyterLab 및 Notebook 패키지의 잘못된 버전 번호가 표시됩니다. 페이지에 이 이미지에서 사용하는 Python 버전에 잘못된 값이 표시될 수도 있습니다.

해결방법
oneAPI AI Analytics Toolkit 노트북 서버를 시작할 때, 노트북 서버에 어떤 Python 패키지가 설치되어 있는지, 그리고 노트북 셀에서 !pip list 명령을 실행하여 어떤 버전의 패키지인지 확인할 수 있습니다.

RHODS-2956 - 노트북 인스턴스를 생성할 때 오류가 발생할 수 있습니다.

sendpyter에서 노트북 인스턴스를 만들 때 Directory not found 오류가 간헐적으로 표시됩니다. 이 오류 메시지는 Dismiss 를 클릭하여 무시할 수 있습니다.

해결방법
없음.

RHOAING-1147 (이전에는 RHODS-2881) - 대시보드의 작업이 명확하게 표시되지 않음

비활성화된 애플리케이션 라이센스를 다시 무효화하고 비활성화된 애플리케이션 타일을 제거하는 대시보드 작업은 사용자에게 명확하게 표시되지 않습니다. 이러한 작업은 사용자가 애플리케이션 타일의 Disabled 레이블을 클릭하면 표시됩니다. 따라서 의도한 워크플로우가 사용자에게 명확하지 않을 수 있습니다.

해결방법
없음.

RHOAIENG-1134 (이전에는 RHODS-2879로 문서화됨) - 라이센스 재검증 작업이 불필요하게 표시됩니다.

라이센스 검증 또는 활성화 시스템이 없는 애플리케이션에 대해 비활성화된 애플리케이션 라이센스를 재검증하는 대시보드 작업이 불필요하게 나타납니다. 또한 사용자가 재검증할 수 없는 라이센스를 재검증하려고 하면 작업을 완료할 수 없는 이유를 나타내는 피드백이 표시되지 않습니다.

해결방법
없음.

RHOAIENG-2305 (이전에는 RHODS-2650로 문서화됨) - Pachyderm 배포 중에 오류가 발생할 수 있습니다.

Pachyderm Operator 인스턴스를 생성할 때 Webhook 오류가 간헐적으로 표시되어 생성 프로세스가 성공적으로 시작되지 않습니다. Webhook 오류는 Pachyderm Operator가 상태 점검에 실패하여 재시작하거나 Operator 프로세스가 컨테이너의 할당된 메모리 제한을 초과하여 OOM(Out of Memory) 종료를 트리거한다는 것을 나타냅니다.

해결방법
오류가 더 이상 표시되지 않을 때까지 Pachyderm 인스턴스 생성 프로세스를 반복합니다.

RHODS-2096 - OpenShift AI에서 IBM Cryostat Studio를 사용할 수 없음

IBM Cryostat Studio는 OpenShift Dedicated 4.9 이상에 OpenShift AI를 설치할 때 이러한 OpenShift Dedicated 버전과 호환되지 않기 때문에 사용할 수 없습니다.

해결방법
OpenShift Dedicated 4.9 이상에서 Cryostat Studio를 수동으로 구성하는 데 도움이 필요한 경우 Marketplace 지원팀에 문의하십시오.

RHODS-1888 - OpenShift AI 하이퍼링크가 제거 후에도 계속 표시됨

OpenShift AI 애드온이 OpenShift Dedicated 클러스터에서 제거되면 OpenShift AI 인터페이스에 대한 링크가 애플리케이션 시작 관리자 메뉴에 계속 표시됩니다. 이 링크를 클릭하면 OpenShift AI를 더 이상 사용할 수 없기 때문에 "페이지를 찾을 수 없음" 오류가 발생합니다.

해결방법
없음.

7장. 제품 기능

Red Hat OpenShift AI는 데이터 과학자 및 IT 운영 관리자에게 다양한 기능을 제공합니다. 자세한 내용은 Red Hat OpenShift AI 소개를 참조하십시오.

법적 공지

Copyright © 2024 Red Hat, Inc.
The text of and illustrations in this document are licensed by Red Hat under a Creative Commons Attribution–Share Alike 3.0 Unported license ("CC-BY-SA"). An explanation of CC-BY-SA is available at http://creativecommons.org/licenses/by-sa/3.0/. In accordance with CC-BY-SA, if you distribute this document or an adaptation of it, you must provide the URL for the original version.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, the Red Hat logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.