Red Hat Training

A Red Hat training course is available for RHEL 8

5.3. 기술 프리뷰

다음 부분에서는 Red Hat Enterprise Linux 8.0에서 사용 가능한 모든 기술 프리뷰 목록을 설명합니다.

기술 프리뷰 기능에 대한 Red Hat 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

5.3.1. 커널

eBPF를 기술 프리뷰로 이용 가능

eBPF(extended Berkeley Packet Filtering) 기능은 네트워킹 및 추적을 위해 기술 프리뷰로 사용할 수 있습니다. eBPF는 사용자 지정 프로그램을 다양한 지점(소켓, 추적 지점, 패킷 수신)에 연결한 다음 데이터를 수신 및 처리할 수 있도록 사용자 공간을 활성화합니다. 이 기능에는 다양한 유형의 맵을 생성하고 다양한 유형의 프로그램을 커널에 삽입할 수 있는 새로운 시스템 호출 bpf()가 포함되어 있습니다. 이 기능에는 다양한 유형의 맵 생성을 지원하는 새로운 시스템 호출 bpf() 가 포함되어 있으며 커널에 다양한 유형의 프로그램을 삽입할 수도 있습니다. bpf() syscall은 root 사용자와 같은 CAP_SYS_ADMIN 기능이 있는 사용자만 성공적으로 사용할 수 있습니다. 자세한 내용은 bpf(2) 매뉴얼 페이지를 참조하십시오.

(BZ#1559616)

BCC를 기술 프리뷰로 이용 가능

BCC(BPF Compiler Collection)은 Red Hat Enterprise Linux 8에서 기술 프리뷰로 사용 가능한 효율적인 커널 추적 및 조작 프로그램을 생성하기 위한 사용자 공간 툴킷입니다. BCCeBPF(extended Berkeley Packet Filtering)를 사용하여 Linux 운영 체제의 I/O 분석, 네트워킹 및 모니터링을 위한 툴을 제공합니다.

(BZ#1548302)

Control Group v2를 RHEL 8에서 기술 프리뷰로 이용 가능

Control Group v2 메커니즘은 통합된 계층 컨트롤 그룹입니다. Control Group v2는 프로세스를 계층적으로 구성하고 제어 및 설정 가능한 방식으로 계층에 따라 시스템 리소스를 배포합니다.

이전 버전과 달리 Control Group v2에는 하나의 계층만 있습니다. 이 단일 계층을 통해 Linux 커널에서는 다음을 수행할 수 있습니다.

  • 소유자의 역할에 따라 프로세스 분류
  • 여러 계층에서 충돌하는 정책 문제 해결

Control Group v2에서는 다양한 컨트롤러가 지원되고 있습니다.

  • CPU 컨트롤러가 CPU 사이클의 배분을 조정합니다. 이 컨트롤러는 다음을 구현합니다.

    • 일반적인 스케줄링 정책에 대한 가중치 및 절대 대역폭 제한 모델
    • 실시간 스케줄링 정책에 대한 절대 대역폭 할당 모델
  • 메모리 컨트롤러가 메모리 할당을 조정합니다. 현재 다음과 같은 유형의 메모리 사용을 추적할 수 있습니다.

    • Userland 메모리 - 페이지 캐시 및 익명 메모리
    • dentries 및 inode와 같은 커널 데이터 구조
    • TCP 소켓 버퍼
  • I/O 컨트롤러가 I/O 리소스 배분을 제한합니다.
  • 쓰기 저장 컨트롤러는 메모리 및 I/O 컨트롤러와 상호작용하며 Control Group v2 고유의 것입니다.

위의 정보는 링크를 기반으로 했습니다. https://www.kernel.org/doc/Documentation/cgroup-v2.txt. 동일한 링크를 참조하여 특정 Control Group v2 컨트롤러에 대한 자세한 정보를 얻을 수 있습니다.

(BZ#1401552)

early kdump는 Red Hat Enterprise Linux 8에서 기술 프리뷰로 이용 가능

early kdump 기능을 사용하면 크래시 커널 및 initramfs가 조기 충돌하더라도 vmcore 정보를 캡처할 수 있을 만큼 충분히 일찍 로드할 수 있습니다. early kdump 에 대한 자세한 내용은 /usr/share/doc/kexec-tools/early-kdump-howto.txt 파일을 참조하십시오.

(BZ#1520209)

기술 프리뷰로 제공되는 IBMvnic 장치 드라이버

Red Hat Enterprise Linux 8.0을 사용하면 IBM POWER 아키텍처용 IBM Virtual Network Interface Controller(vNIC) 드라이버는 기술 프리뷰로 사용할 수 있습니다. vNIC는 엔터프라이즈 기능을 제공하고 네트워크 관리를 단순화하는 PowerVM 가상 네트워킹 기술입니다. SR-IOV NIC와 결합할 때 가상 NIC 수준에서 대역폭 제어 품질(QoS) 기능을 제공하는 고성능의 효율적인 기술로, vNIC는 가상화 오버헤드를 크게 줄여 네트워크 가상화에 필요한 CPU 및 메모리를 포함한 대기 시간을 줄이고 서버 리소스를 줄일 수 있습니다.

(BZ#1524683)

soft-RoCE를 기술 프리뷰로 이용 가능

RoCE(Remote Direct Memory Access) over Converged Ethernet (RoCE)는 이더넷을 통해 RDMA를 구현하는 네트워크 프로토콜입니다. soft-RoCE는 RoCE v1 및 RoCE v2의 두 가지 프로토콜 버전을 지원하는 RoCE의 소프트웨어 구현입니다. soft-RoCE 드라이버인 rdma_rxe 는 RHEL 8에서 지원되지 않는 기술 프리뷰로 사용할 수 있습니다.

(BZ#1605216)

5.3.2. 그래픽 인프라

64비트 ARM 아키텍처의 기술 프리뷰로 VNC 원격 콘솔 사용 가능

64비트 ARM 아키텍처에서는 VNC(Virtual Network Computing) 원격 콘솔을 기술 프리뷰로 사용할 수 있습니다. 나머지 그래픽 스택은 현재 64비트 ARM 아키텍처용으로 검증되지 않았습니다.

(BZ#1698565)

5.3.3. 하드웨어 지원

클러스터 인식 MD RAID1은 기술 프리뷰로 사용할 수 있습니다.

RAID1 클러스터는 커널 필드에서 기본적으로 활성화되어 있지 않습니다. RAID1 클러스터를 사용해 보려는 경우 먼저 RAID1 클러스터를 모듈로 커널을 빌드해야 합니다.

  1. make menuconfig 명령을 입력합니다.
  2. make && make modules && make modules_install && make install 명령을 입력합니다.
  3. reboot 명령을 입력합니다.

(BZ#1654482)

5.3.4. IdM (Identity Management)

DNSSEC를 IdM에서 기술 프리뷰로 이용 가능

통합된 DNS가 있는 IdM(Identity Management) 서버는 이제 DNS 프로토콜의 보안을 향상시키는 DNS에 대한 확장 기능 세트인 DNSSEC(DNS Security Extensions)를 지원합니다. IdM 서버에서 호스팅되는 DNS 영역은 DNSSEC를 사용하여 자동으로 서명할 수 있습니다. 암호화 키는 자동으로 생성되고 순환됩니다.

DNSSEC로 DNS 영역을 보호하기로 결정한 사용자는 다음 문서를 읽고 따르는 것이 좋습니다.

통합 DNS가 있는 IdM 서버는 DNSSEC를 사용하여 다른 DNS 서버에서 얻은 DNS 응답을 검증합니다. 이는 권장 이름 지정 방식에 따라 구성되지 않은 DNS 영역의 가용성에 영향을 미칠 수 있습니다.

(BZ#1664718)

Identity Management JSON-RPC API를 기술 프리뷰로 사용 가능

IdM(Identity Management)에서 API를 사용할 수 있습니다. API를 보기 위해 IdM은 API 브라우저를 기술 프리뷰로 제공합니다.

Red Hat Enterprise Linux 7.3에서는 여러 버전의 API 명령을 사용하도록 IdM API가 개선되었습니다. 이전에는 개선 사항이 호환되지 않는 방식으로 명령의 동작을 변경할 수 있었습니다. 이제 IdM API가 변경되는 경우에도 기존 툴과 스크립트를 계속 사용할 수 있습니다. 이렇게 하면 다음을 활성화합니다.

  • 관리자는 관리 클라이언트보다 서버에서 이전 버전의 IdM을 사용합니다.
  • 서버에서 IdM 버전이 변경되더라도 특정 버전의 IdM 호출을 사용하는 개발자.

모든 경우에 서버와의 통신은 한 쪽이 사용하는 경우(예: 기능에 대한 새로운 옵션을 도입하는 최신 버전)와 관계없이 가능합니다.

API 사용에 대한 자세한 내용은 Using the Identity Management API to Communicate with the IdM Server (TECHNOLOGY PREVIEW) 를 참조하십시오.

(BZ#1664719)

5.3.5. 파일 시스템 및 스토리지

Aero 어댑터를 기술 프리뷰로 사용 가능

다음 Aero 어댑터는 기술 프리뷰로 사용할 수 있습니다.

  • MP t3sas 드라이버로 제어되는 PCI ID 0x1000:0x00e2 및 0x1000:0x00e6
  • PCI ID 0x1000:Ox10e5 및 0x1000:0x10e6은 NodeNetwork raid_sas 드라이버로 제어

(BZ#1663281)

Stratis 사용 가능

Stratis는 새로운 로컬 스토리지 관리자입니다. 이는 스토리지 풀 위에 관리형 파일 시스템을 사용자에게 추가 기능을 제공합니다.

Stratis를 사용하면 다음과 같은 스토리지 작업을 보다 쉽게 수행할 수 있습니다.

  • 스냅샷 및 씬 프로비저닝 관리
  • 필요에 따라 파일 시스템 크기 자동 확장
  • 파일 시스템 관리

Stratis 스토리지를 관리하려면 stratisd 백그라운드 서비스와 통신하는 stratis 유틸리티를 사용합니다.

Stratis는 기술 프리뷰로 제공됩니다.

자세한 내용은 Stratis 설명서: Stratis 파일 시스템 설정을 참조하십시오.

(JIRA:RHELPLAN-1212)

OverlayFS

OverlayFS는 공용 파일 시스템의 유형입니다. 이를 통해 한 파일 시스템을 다른 파일 시스템에 오버레이할 수 있습니다. 변경 사항은 대문자 파일 시스템에 기록되지만 하위 파일 시스템은 수정되지 않은 상태로 유지됩니다. 이를 통해 여러 사용자가 컨테이너 또는 DVD-ROM과 같은 파일 시스템 이미지를 공유할 수 있습니다. 여기서 기본 이미지는 읽기 전용 미디어에 있습니다. 자세한 내용은 Linux 커널 설명서를 참조하십시오. https://www.kernel.org/doc/Documentation/filesystems/overlayfs.txt.

OverlayFS는 대부분의 상황에서 기술 프리뷰로 남아 있습니다. 따라서 이 기술이 활성화되면 커널 로그가 경고합니다.

지원되는 컨테이너 엔진(podman ri-o 또는 buildah)과 함께 사용할 때 OverlayFS에 대해 완전 지원을 사용할 수 있습니다.

  • OverlayFS는 컨테이너 엔진 그래프 드라이버로만 사용할 수 있도록 지원됩니다. 영구 스토리지에서는 컨테이너 COW 콘텐츠에만 사용이 지원됩니다. 모든 영구 스토리지를 OverlayFS가 아닌 볼륨에 배치해야 합니다. 기본 컨테이너 엔진 구성만 사용할 수 있습니다. 즉, 하나의 오버레이 수준, 하위 디렉터리 1개 및 상위 수준은 모두 동일한 파일 시스템에 있습니다.
  • 현재 XFS만 하위 계층 파일 시스템으로 사용할 수 있습니다.

또한 OverlayFS 사용에 다음 규칙 및 제한이 적용됩니다.

  • OverlayFS 커널 ABI 및 사용자 공간 동작은 안정적인 것으로 간주되지 않으며 향후 업데이트의 변경 사항을 확인할 수 있습니다.
  • OverlayFS는 제한된 POSIX 표준 세트를 제공합니다. OverlayFS를 사용하여 배포하기 전에 철저하게 애플리케이션을 테스트합니다. 다음 사례는 POSIX와 호환되지 않습니다.

    • O_RDONLY 로 열린 하위 파일은 파일을 읽을 때 st_atime 업데이트가 수신되지 않습니다.
    • O_RDONLY 로 열린 하위 파일은 MAP_SHARED 로 매핑된 후 후속 수정과 일치하지 않습니다.
    • 완전히 호환되는 st_ino 또는 d_ino 값은 RHEL 8에서 기본적으로 활성화되어 있지 않지만 모듈 옵션 또는 마운트 옵션으로 전체 POSIX 준수를 활성화할 수 있습니다.

      일관된 inode 번호 지정을 얻으려면 xino=on 마운트 옵션을 사용합니다.

      redirect_dir=onindex=on 옵션을 사용하여 POSIX 규정 준수를 향상시킬 수도 있습니다. 이 두 옵션을 사용하면 상위 계층의 포맷이 이러한 옵션 없이 오버레이와 호환되지 않습니다. 즉, redirect_dir=on 또는 index=on 으로 오버레이를 생성하고 오버레이를 마운트 해제한 다음 이러한 옵션 없이 오버레이를 마운트하면 예기치 않은 결과 또는 오류가 발생할 수 있습니다.

  • XFS에 사용되는 명령:

    • 오버레이로 사용하려면 XFS 파일 시스템을 -n ftype=1 옵션을 사용하여 생성해야 합니다.
    • rootfs 및 시스템 설치 중에 생성된 파일 시스템을 사용하여 Anaconda kickstart에서 --mkfsoptions=-n ftype=1 매개변수를 설정합니다.
    • 설치 후 새 파일 시스템을 생성할 때 # mkfs -t xfs -n ftype=1 /PATH/TO/DEVICE 명령을 실행합니다.
    • 기존 파일 시스템이 오버레이로 사용할 수 있는지 확인하려면 # xfs_info /PATH/TO/DEVICE | grep ftype 명령을 실행하여 ftype=1 옵션이 활성화되어 있는지 확인합니다.
  • SELinux 보안 레이블은 OverlayFS가 있는 지원되는 모든 컨테이너 엔진에서 기본적으로 활성화됩니다.
  • 이 릴리스에서는 OverlayFS와 관련된 몇 가지 알려진 문제가 있습니다. 자세한 내용은 Linux 커널 설명서의 비표준 동작 을 참조하십시오. https://www.kernel.org/doc/Documentation/filesystems/overlayfs.txt.

(BZ#1690207)

이제 파일 시스템 DAX를 기술 프리뷰로 ext4 및 XFS에 사용할 수 있습니다.

Red Hat Enterprise Linux 8.0에서 파일 시스템 DAX는 기술 프리뷰로 제공됩니다. DAX는 애플리케이션이 영구 메모리를 주소 공간에 직접 매핑하는 수단을 제공합니다. DAX를 사용하려면 일반적으로 하나 이상의 비접근 다각형 메모리 모듈(NVDIMM) 및 DAX를 지원하는 파일 시스템을 NVDIMM(NVDIMM)에서 시스템에서 사용할 수 있는 일종의 영구 메모리가 있어야 합니다. 또한 dax 마운트 옵션을 사용하여 파일 시스템을 마운트해야 합니다. 그런 다음 dax-mounted 파일 시스템에 있는 파일의 mmap 을 사용하면 애플리케이션의 주소 공간에 스토리지를 직접 매핑합니다.

(BZ#1627455)

5.3.6. 고가용성 및 클러스터

Pacemaker podman 번들을 기술 프리뷰로 이용 가능

이제 Pacemaker 컨테이너 번들은 기술 프리뷰로 사용할 수 있는 컨테이너 번들 기능과 함께 podman 컨테이너 플랫폼에서 실행됩니다. 이 기능은 기술 프리뷰로 사용할 수 있지만 한 가지 예외가 있습니다.Red Hat은 Red Hat Openstack에 대한 Pacemaker 번들의 사용을 완전하게 지원합니다.

(BZ#1619620)

5.3.7. 네트워킹

XDP를 기술 프리뷰로 이용 가능

기술 프리뷰로 사용할 수 있는 eXpress Data Path(XDP) 기능은 커널 수신 데이터 경로의 초기 시점에서 고성능 패킷 처리를 위해 eBPF(extended Berkeley Packet Filter) 프로그램을 첨부할 수 있는 수단을 제공하여, 효율적으로 프로그래밍 가능한 패킷 분석, 필터링 및 조작을 가능하게 합니다.

(BZ#1503672)

Tc용 eBPF를 기술 프리뷰로 이용 가능

기술 프리뷰로, Tc(트래픽 제어) 커널 하위 시스템과 tc 툴은 eBPF(extended Berkeley Packet Filtering) 프로그램을 패킷 classified으로 연결하고 수신 및 송신 대기열 작업 모두에 대한 작업을 연결할 수 있습니다. 이를 통해 커널 네트워크 데이터 경로 내에서 프로그래밍 가능한 패킷 처리를 가능하게 합니다.

(BZ#1699825)

AF_XDP 를 기술 프리뷰로 이용 가능

주소 제품군 eXpress Data Path (AF_XDP) 소켓은 고성능 패킷 처리를 위해 설계되었습니다. XDP 를 사용하고 추가 처리를 위해 프로그래밍 방식으로 선택된 패킷을 사용자 공간 애플리케이션으로 효율적으로 리디렉션합니다.

(BZ#1633143)

KTLS를 기술 프리뷰로 이용 가능

Red Hat Enterprise Linux 8에서 KSM(Kernel Transport Layer Security)은 기술 프리뷰로 제공됩니다. KTLS는 AES-GCM 암호화에 대해 커널의 대칭 암호화 또는 암호 해독 알고리즘을 사용하여 TLS 레코드를 처리합니다. KTLS는 이 기능을 지원하는 NIC(Network Interface Controller)로 TLS 레코드 암호화를 오프로드하는 인터페이스도 제공합니다.

(BZ#1570255)

idrac PC를 기술 프리뷰로 이용 가능

EgressPC(Transparent Inter Process Communication)는 느슨하게 연결된 노드의 클러스터 내에서 효율적인 통신을 위해 특별히 설계된 프로토콜입니다. 커널 모듈로 작동하며 iproute2 패키지의 tips c 툴을 제공하여 설계자가 클러스터 내의 위치에 관계없이 다른 애플리케이션과 빠르고 안정적으로 통신할 수 있는 애플리케이션을 만들 수 있습니다. 이 기능은 기술 프리뷰로 제공됩니다.

(BZ#1581898)

systemd-resolved 서비스가 기술 프리뷰로 사용 가능

systemd-resolved 서비스는 로컬 애플리케이션에 이름 확인을 제공합니다. 이 서비스는 캐싱 및 DNS 스텁 확인자, LLMNR(Link-Local Multicast Name Resolution), Multicast DNS resolver 및 responder를 구현합니다.

systemd 패키지에서 systemd 확인 기능을 제공하는 경우에도 이 서비스는 지원되지 않는 기술 프리뷰입니다.

(BZ#1906489)

5.3.8. Red Hat Enterprise Linux System Roles

RHEL System Roles의 postfix 역할을 기술 프리뷰로 사용 가능

Red Hat Enterprise Linux System Roles는 Red Hat Enterprise Linux 하위 시스템에 대한 구성 인터페이스를 제공하므로 Ansible 역할이 포함되어 시스템을 보다 쉽게 구성할 수 있습니다. 이 인터페이스를 통해 여러 버전의 Red Hat Enterprise Linux에서 시스템 구성을 관리하고 새로운 주요 릴리스를 채택할 수 있습니다.

rhel-system-roles 패키지는 AppStream 리포지토리를 통해 배포됩니다.

postfix 역할은 기술 프리뷰로 사용할 수 있습니다.

다음 역할이 완전히 지원됩니다.

  • kdump
  • network
  • selinux
  • timesync

자세한 내용은 RHEL 시스템 역할에 대한 지식베이스 문서를 참조하십시오.

(BZ#1812552)

5.3.9. 가상화

KVM 가상 머신용 AMD SEV

RHEL 8은 KVM 하이퍼바이저를 사용하는 AMD EPYC 호스트 시스템을 위한 SEV(Secure Encrypted Virtualization) 기능을 기술 프리뷰로 도입하고 있습니다. 가상 머신(VM)에서 활성화된 경우 SEV는 VM 메모리를 암호화하여 호스트가 VM의 데이터에 액세스할 수 없도록 합니다. 이제 호스트가 악성 코드에에 의해 감염된 경우 VM의 보안이 향상됩니다.

단일 호스트에서 이 기능을 한 번에 사용할 수 있는 VM의 개수는 호스트 하드웨어에 의해 결정됩니다. 현재 AMD EPYC 프로세서는 SEV를 사용하여 실행 중인 최대 15개의 VM을 지원합니다.

또한 SEV가 부팅되도록 구성된 VM의 경우에도 하드 메모리 제한을 사용하여 VM을 구성해야 합니다. 이렇게 하려면 VM의 XML 구성에 다음을 추가합니다.

<memtune>
  <hard_limit unit='KiB'>N</hard_limit>
</memtune>

N에 권장되는 값은 게스트 RAM + 256MiB입니다. 예를 들어 게스트에 2GiB RAM이 할당되면 N은 2359296 이상이어야 합니다.

(BZ#1501618, BZ#1501607)

Intel vGPU

기술 프리뷰로 물리적 Intel GPU 장치를 중재 장치라고 하는 여러 가상 장치로 나눌 수 있습니다. 그런 다음 이러한 미디어 장치를 가상 GPU로 여러 가상 머신(VM)에 할당할 수 있습니다. 결과적으로 이러한 VM은 단일 물리적 Intel GPU의 성능을 공유합니다.

선택한 Intel GPU만 vGPU 기능과 호환됩니다. 또한 VM에 물리적 GPU를 할당하면 호스트가 GPU를 사용할 수 없으며 호스트의 그래픽 디스플레이 출력이 작동하지 않을 수 있습니다.

(BZ#1528684)

IBM POWER 9에서 중첩된 가상화 사용 가능

이제 IBM POWER 9 시스템에서 실행 중인 RHEL 8 호스트 시스템에서 기술 프리뷰로 중첩된 가상화 기능을 사용할 수 있습니다. 중첩된 가상화를 통해 KVM 가상 머신(VM)이 하이퍼바이저로 작동하여 VM 내에서 VM을 실행할 수 있습니다.

중첩된 가상화는 AMD64 및 Intel 64 시스템에서도 기술 프리뷰로 남아 있습니다.

또한 중첩된 가상화가 IBM POWER 9에서 작동하려면 호스트, 게스트 및 중첩된 게스트가 현재 다음 운영 체제 중 하나를 실행해야 합니다.

  • RHEL 8
  • POWER 9용 RHEL 7

(BZ#1505999, BZ#1518937)

RHEL 8 Hyper-V 가상 머신에서 KVM 가상화 사용 가능

기술 프리뷰로 중첩된 KVM 가상화는 이제 Microsoft Hyper-V 하이퍼바이저에서 사용할 수 있습니다. 따라서 Hyper-V 호스트에서 실행되는 RHEL 8 게스트 시스템에서 가상 머신을 만들 수 있습니다.

현재 이 기능은 Intel 시스템에서만 작동합니다. 또한 중첩된 가상화는 경우에 따라 Hyper-V에서 기본적으로 활성화되어 있지 않습니다. 사용하도록 설정하려면 다음 Microsoft 문서를 참조하십시오.

https://docs.microsoft.com/en-us/virtualization/hyper-v-on-windows/user-guide/nested-virtualization

(BZ#1519039)

5.3.10. 컨테이너

podman-machine 명령은 지원되지 않음

가상 머신을 관리하는 podman-machine 명령은 기술 프리뷰로만 사용할 수 있습니다. 대신 명령줄에서 직접 Podman을 실행합니다.

(JIRA:RHELDOCS-16861)