Red Hat Training

A Red Hat training course is available for RHEL 8

파일 시스템 관리

Red Hat Enterprise Linux 8

Red Hat Enterprise Linux 8에서 파일 시스템 생성, 수정 및 관리

Red Hat Customer Content Services

초록

Red Hat Enterprise Linux는 다양한 파일 시스템을 지원합니다. 각 유형의 파일 시스템은 다양한 문제를 해결하고 애플리케이션별로 사용됩니다. 주요 차이점 및 고려 사항에 대한 정보를 사용하여 특정 애플리케이션 요구 사항에 따라 적절한 파일 시스템을 선택하고 배포합니다.
지원되는 파일 시스템에는 로컬 디스크 파일 시스템 XFS 및 ext4, 네트워크 및 클라이언트 및 클라이언트 및 서버 파일 시스템 NFS 및 SMB가 포함됩니다. 할당량을 사용하여 스토리지 공간을 생성, 마운트, 백업, 복원, 점검 및 복구와 같은 파일 시스템으로 여러 작업을 수행할 수 있습니다.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서 및 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 먼저 마스터(master), 슬레이브(slave), 블랙리스트(blacklist), 화이트리스트(whitelist) 등 네 가지 용어를 교체하고 있습니다. 이러한 변경 작업은 작업 범위가 크므로 향후 여러 릴리스에 걸쳐 점차 구현할 예정입니다. 자세한 내용은 CTO Chris Wright의 메시지를 참조하십시오.

Red Hat 문서에 관한 피드백 제공

문서에 대한 피드백에 감사드립니다. 어떻게 개선할 수 있는지 알려주십시오.

Jira를 통해 피드백 제출 (등록 필요)

  1. Jira 웹 사이트에 로그인합니다.
  2. 상단 탐색 모음에서 생성 을 클릭합니다.
  3. Summary (요약) 필드에 설명 제목을 입력합니다.
  4. Description (설명) 필드에 개선을 위한 제안을 입력합니다. 문서의 관련 부분에 대한 링크를 포함합니다.
  5. 대화 상자 하단에서 생성 을 클릭합니다.

1장. 사용 가능한 파일 시스템 개요

애플리케이션에 적합한 파일 시스템을 선택하는 것은 사용 가능한 옵션이 많고 관련 장단점이 많기 때문에 중요한 결정입니다.

다음 섹션에서는 Red Hat Enterprise Linux 8에 기본적으로 포함된 파일 시스템 및 애플리케이션에 가장 적합한 파일 시스템에 대한 권장 사항에 대해 설명합니다.

1.1. 파일 시스템 유형

Red Hat Enterprise Linux 8은 다양한 파일 시스템(FS)을 지원합니다. 서로 다른 유형의 파일 시스템은 다양한 유형의 문제를 해결하며, 해당 용도는 애플리케이션에 따라 다릅니다. 가장 일반적인 수준에서 사용 가능한 파일 시스템을 다음과 같은 주요 유형으로 그룹화할 수 있습니다.

표 1.1. 파일 시스템 유형 및 사용 사례

유형파일 시스템속성 및 사용 사례

디스크 또는 로컬 FS

XFS

XFS는 RHEL의 기본 파일 시스템입니다. 특별히 수행해야 하는 이유(예: 성능에 대한 호환성 또는 모의 사례)가 없는 한, 로컬 파일 시스템으로 XFS를 배포하는 것이 좋습니다.

ext4

ext4는 이전 ext2 및 ext3 파일 시스템에서 진화한 Linux의 이점을 제공합니다. 대부분의 경우 성능에서 XFS를 경쟁합니다. ext4 파일 시스템 및 파일 크기에 대한 지원 제한은 XFS의 지원 한도보다 낮습니다.

네트워크 또는 클라이언트-및 서버 FS

NFS

NFS를 사용하여 동일한 네트워크의 여러 시스템 간에 파일을 공유합니다.

SMB

Microsoft Windows 시스템과 파일 공유를 위해 SMB를 사용합니다.

공유 스토리지 또는 공유 디스크 FS

GFS2

GFS2에서는 계산 클러스터의 구성원에게 공유 쓰기 액세스를 제공합니다. 최대한 로컬 파일 시스템의 기능적 경험을 바탕으로 안정성과 신뢰성을 강조합니다. SAS Grid, Tibco MQ, IBM Websphere MQ 및 Red Hat Active MQ가 GFS2에 성공적으로 배포되었습니다.

volume-managing FS

Stratis (기술 프리뷰)

Stratis는 XFS와 LVM의 조합에 빌드된 볼륨 관리자입니다. Stratis의 목적은 Btrfs 및 ZFS와 같은 볼륨 관리 파일 시스템에서 제공하는 기능을 에뮬레이션하는 것입니다. 이 스택을 수동으로 빌드할 수 있지만 Stratis는 구성 복잡성을 줄이고 모범 사례를 구현하며 오류 정보를 통합합니다.

1.2. 로컬 파일 시스템

로컬 파일 시스템은 단일 로컬 서버에서 실행되고 스토리지에 직접 연결된 파일 시스템입니다.

예를 들어 로컬 파일 시스템은 내부 SATA 또는 SAS 디스크에 대한 유일한 선택 사항이며 서버에 로컬 드라이브가 있는 내부 하드웨어 RAID 컨트롤러가 있는 경우에 사용됩니다. 로컬 파일 시스템은 SAN에서 내보낸 장치를 공유하지 않을 때 SAN에 연결된 스토리지에서 사용되는 가장 일반적인 파일 시스템입니다.

모든 로컬 파일 시스템은 POSIX와 호환되며 지원되는 모든 Red Hat Enterprise Linux 릴리스와 완벽하게 호환됩니다. POSIX 호환 파일 시스템은 read(), write(), seek () 등의 잘 정의된 시스템 호출 세트를 지원합니다.

애플리케이션 프로그래머의 관점에서는 로컬 파일 시스템 간에는 비교적 덜 차이가 있습니다. 사용자 관점에서 가장 주목할 만한 차이점은 확장성 및 성능과 관련이 있습니다. 파일 시스템 선택을 고려할 때는 파일 시스템의 크기, 보유해야 하는 고유한 기능 및 워크로드에서 수행하는 방식을 고려하십시오.

사용 가능한 로컬 파일 시스템
  • XFS
  • ext4

1.3. XFS 파일 시스템

XFS는 단일 호스트에서 대용량 파일과 파일 시스템을 지원하는 확장성이 뛰어난 고성능, 강력하고 성숙한 64비트 저널링 파일 시스템입니다. Red Hat Enterprise Linux 8의 기본 파일 시스템입니다. XFS는 원래 1990년대 초 SGI에 의해 개발되었으며 매우 큰 서버 및 스토리지 어레이에서 오랫동안 실행되어 왔습니다.

XFS의 기능은 다음과 같습니다.

신뢰성
  • 메타데이터 저널링: 시스템을 다시 시작할 때 재생할 수 있는 파일 시스템 작업 기록을 유지하고 파일 시스템을 다시 마운트하여 시스템 충돌 후 파일 시스템 무결성을 보장합니다.
  • 광범위한 런타임 메타데이터 일관성 검사
  • 확장 가능하고 빠른 복구 유틸리티
  • 쿼터 저널링. 따라서 충돌 후 긴 할당량 일관성 검사가 필요하지 않습니다.
확장 및 성능
  • 지원되는 파일 시스템 크기는 1024TiB까지
  • 다수의 동시 운영 지원 기능
  • 여유 공간 관리의 확장성을 위한 B-tree 인덱싱
  • 정교한 메타 데이터 읽기-ahead 알고리즘
  • 동영상 워크로드를 스트리밍하기 위한 최적화
할당 체계
  • 익스텐트 기반 할당
  • 스트라이프 인식 정책
  • 지연된 할당
  • 공백 사전 할당
  • 동적으로 할당된 inode
기타 기능
  • reflink 기반 파일 복사
  • 긴밀하게 통합된 백업 및 복원 유틸리티
  • 온라인 조각 모음
  • 온라인 파일 시스템 확장
  • 포괄적인 진단 기능
  • 확장 속성(xattr). 이렇게 하면 시스템이 파일당 여러 추가 이름/값 쌍을 연결할 수 있습니다.
  • 프로젝트 또는 디렉터리 할당량. 이렇게 하면 디렉터리 트리에 대한 할당량 제한이 허용됩니다.
  • 서브초 타임스탬프

성능 특징

XFS는 엔터프라이즈 워크로드가 포함된 대규모 시스템에서 고성능을 제공합니다. 대규모 시스템은 비교적 많은 CPU 수, 여러 HBA 및 외부 디스크 어레이 연결을 사용하는 시스템입니다. XFS는 멀티 스레드 병렬 I/O 워크로드가 있는 소규모 시스템에서도 우수한 성능을 제공합니다.

XFS는 단일 스레드의 메타데이터를 많이 사용하는 워크로드(예: 단일 스레드에서 다수의 작은 파일을 생성하거나 삭제하는 워크로드)의 성능이 상대적으로 낮습니다.

1.4. ext4 파일 시스템

ext4 파일 시스템은 ext 파일 시스템 제품군의 4세대입니다. Red Hat Enterprise Linux 6의 기본 파일 시스템이었습니다.

ext4 드라이버는 ext2 및 ext3 파일 시스템에 읽고 쓸 수 있지만 ext4 파일 시스템 형식은 ext2 및 ext3 드라이버와 호환되지 않습니다.

ext4는 다음과 같은 몇 가지 새롭고 개선된 기능을 추가합니다.

  • 최대 50TiB의 지원되는 파일 시스템 크기
  • 익스텐트 기반 메타데이터
  • 지연된 할당
  • 저널 체크섬
  • 대용량 스토리지 지원

익스텐트 기반 메타데이터와 지연된 할당 기능을 사용하면 파일 시스템에서 활용 공간을 보다 단순하고 효율적으로 추적할 수 있습니다. 이러한 기능은 파일 시스템 성능을 개선하고 메타데이터에서 사용하는 공간을 줄입니다. 지연된 할당을 통해 파일 시스템은 데이터가 디스크에 플러시될 때까지 새로 작성된 사용자 데이터의 영구 위치를 선택하는 작업을 연기할 수 있습니다. 이렇게 하면 더 크고 연속적인 할당을 허용하므로 성능이 향상되어 파일 시스템이 훨씬 더 나은 정보로 결정할 수 있습니다.

ext4에서 fsck 유틸리티를 사용한 파일 시스템 복구 시간은 ext2 및 ext3보다 훨씬 빠릅니다. 일부 파일 시스템 복구는 성능이 최대 6배 향상되었음을 입증했습니다.

1.5. XFS 및 ext4 비교

XFS는 RHEL의 기본 파일 시스템입니다. 이 섹션에서는 XFS 및 ext4의 사용법과 기능을 비교합니다.

메타데이터 오류 동작
ext4에서는 파일 시스템에 메타데이터 오류가 발생하면 동작을 구성할 수 있습니다. 기본 동작은 작업을 계속하는 것입니다. XFS가 복구할 수 없는 메타데이터 오류가 발생하면 파일 시스템을 종료하고 EFSCORRUPTED 오류를 반환합니다.
할당량

ext4에서는 기존 파일 시스템에서 파일 시스템을 만들 때 또는 나중에 할당량을 활성화할 수 있습니다. 그런 다음 마운트 옵션을 사용하여 할당량 적용을 구성할 수 있습니다.

XFS 할당량은 다시 마운트할 수 있는 옵션이 아닙니다. 초기 마운트에서 할당량을 활성화해야 합니다.

XFS 파일 시스템에서 quotacheck 명령을 실행하면 적용되지 않습니다. 할당량 계정을 처음 활성화하면 XFS에서 할당량을 자동으로 확인합니다.

파일 시스템 크기 조정
XFS에는 파일 시스템의 크기를 줄이는 유틸리티가 없습니다. XFS 파일 시스템 크기만 늘릴 수 있습니다. 반대로 ext4는 파일 시스템의 확장 및 축소를 모두 지원합니다.
inode 번호

ext4 파일 시스템은 2개 이상의32 개 inode를 지원하지 않습니다.

XFS는 동적으로 inode를 할당합니다. 파일 시스템에 여유 공간이 있는 한 XFS 파일 시스템은 inode가 부족할 수 없습니다.

특정 애플리케이션은 XFS 파일 시스템에서 232 보다 큰 inode 번호를 올바르게 처리할 수 없습니다. 이러한 애플리케이션에서는 EOVERFLOW 반환 값을 사용하여 32비트 통계 호출이 실패할 수 있습니다. inode 번호는 다음 조건에서 232 를 초과합니다.

  • 파일 시스템은 256바이트 inode를 사용하여 1TiB보다 큽니다.
  • 파일 시스템은 512바이트 inode가 있는 2TiB보다 큽니다.

애플리케이션이 큰 inode 번호로 실패하는 경우 -o inode32 옵션을 사용하여 XFS 파일 시스템을 마운트하여 232 미만의 inode 번호를 적용합니다. inode32 를 사용하면 이미 64비트 숫자로 할당된 inode에는 영향을 미치지 않습니다.

중요

특정 환경에 필요하지 않는 한 inode 32 옵션을 사용하지 마십시오. inode32 옵션은 할당 동작을 변경합니다. 결과적으로 하위 디스크 블록에서 inode를 할당할 수 있는 공간이 없는 경우 ENOSPC 오류가 발생할 수 있습니다.

1.6. 로컬 파일 시스템 선택

애플리케이션 요구 사항을 충족하는 파일 시스템을 선택하려면 파일 시스템을 배포할 대상 시스템을 이해해야 합니다. 다음 질문을 사용하여 결정을 알릴 수 있습니다.

  • 대형 서버가 있습니까?
  • 대용량 스토리지 요구 사항이 있거나 로컬의 느린 SATA 드라이브가 있습니까?
  • 애플리케이션 워크로드에는 어떤 종류의 I/O 워크로드가 제공됩니까?
  • 처리량 및 대기 시간 요구 사항은 무엇입니까?
  • 서버 및 스토리지 하드웨어의 안정성은 어느 정도입니까?
  • 파일 및 데이터 세트의 일반적인 크기는 무엇입니까?
  • 시스템이 실패하면 다운 타임은 얼마나 겪을 수 있습니까?

서버와 스토리지 장치가 모두 크면 XFS가 최상의 선택입니다. 작은 스토리지 어레이를 사용하는 경우에도 XFS는 평균 파일 크기가 큰 경우(예: 수백 메가바이트 크기) 매우 잘 작동합니다.

기존 워크로드가 ext4에서 제대로 수행된 경우 ext4를 유지하면 애플리케이션과 매우 친숙한 환경을 제공해야 합니다.

ext4 파일 시스템은 I/O 기능이 제한된 시스템에서 더 나은 성능을 보이는 경향이 있습니다. 제한된 대역폭(200MB/s 미만) 및 최대 1000개의 IOPS 기능에서 더 나은 성능을 제공합니다. 더 높은 기능을 가진 모든 항목에 XFS는 더 빠른 경향이 있습니다.

XFS는 ext4에 비해 CPU당 약 2배를 사용하므로 동시성이 적은 CPU 바인딩 워크로드가 있으면 ext4가 더 빨라집니다. 일반적으로 애플리케이션이 단일 읽기/쓰기 스레드와 작은 파일을 사용하는 경우 더 나은 반면, 애플리케이션에서 여러 읽기/쓰기 스레드와 더 큰 파일을 사용하는 경우 XFS는 향상됩니다.

XFS 파일 시스템을 축소할 수 없습니다. 파일 시스템을 줄일 수 있어야 하는 경우 오프라인 축소를 지원하는 ext4를 사용하는 것이 좋습니다.

일반적으로 Red Hat은 ext4의 특정 사용 사례가 없는 한 XFS를 사용하는 것이 좋습니다. 적절한 유형의 파일 시스템을 선택하려면 대상 서버 및 스토리지 시스템에서 특정 애플리케이션의 성능을 측정해야 합니다.

표 1.2. 로컬 파일 시스템 권장 사항 요약

시나리오권장 파일 시스템

특별한 사용 사례 없음

XFS

대형 서버

XFS

대용량 스토리지 장치

XFS

대용량 파일

XFS

다중 스레드 I/O

XFS

단일 스레드 I/O

ext4

제한된 I/O 기능(1000 IOPS 미만)

ext4

제한된 대역폭(200MB/s미)

ext4

CPU 바인딩 워크로드

ext4

오프라인 축소 지원

ext4

1.7. 네트워크 파일 시스템

클라이언트/서버 파일 시스템이라고도 하는 네트워크 파일 시스템을 사용하면 클라이언트 시스템이 공유 서버에 저장된 파일에 액세스할 수 있습니다. 따라서 여러 시스템의 여러 사용자가 파일 및 스토리지 리소스를 공유할 수 있습니다.

이러한 파일 시스템은 일련의 파일 시스템을 하나 이상의 클라이언트에 내보내는 하나 이상의 서버에서 빌드됩니다. 클라이언트 노드는 기본 블록 스토리지에 액세스할 수 없지만 액세스 제어를 개선할 수 있는 프로토콜을 사용하여 스토리지와 상호 작용합니다.

사용 가능한 네트워크 파일 시스템
  • RHEL 고객을 위한 가장 일반적인 클라이언트/서버 파일 시스템은 NFS 파일 시스템입니다. RHEL은 네트워크 및 NFS 클라이언트를 통해 로컬 파일 시스템을 내보내는 NFS 서버 구성 요소를 제공하여 이러한 파일 시스템을 가져옵니다.
  • RHEL에는 Windows 상호 운용성을 위한 널리 사용되는 Microsoft SMB 파일 서버를 지원하는 CIFS 클라이언트도 포함되어 있습니다. 사용자 공간 Samba 서버는 Windows 클라이언트에 RHEL 서버의 Microsoft SMB 서비스를 제공합니다.

1.8. 공유 스토리지 파일 시스템

클러스터 파일 시스템이라고도 하는 공유 스토리지 파일 시스템은 로컬 SAN(Storage Area Network)을 통해 클러스터의 각 서버에 공유 블록 장치에 직접 액세스할 수 있는 권한을 부여합니다.

네트워크 파일 시스템과의 비교
클라이언트/서버 파일 시스템과 마찬가지로 공유 스토리지 파일 시스템은 클러스터의 모든 구성원인 서버 집합에서 작동합니다. 그러나 NFS와 달리 단일 서버는 다른 구성원에게 데이터 또는 메타데이터에 대한 액세스를 제공하지 않습니다. 클러스터의 각 멤버는 동일한 스토리지 장치( 공유 스토리지)에 직접 액세스할 수 있으며 모든 클러스터 구성원 노드는 동일한 파일 집합에 액세스합니다.
동시성

캐시 일관성은 데이터 일관성과 무결성을 보장하기 위한 클러스터형 파일 시스템의 핵심입니다. 클러스터에 있는 모든 파일의 단일 버전이 클러스터 내의 모든 노드에 표시되어야 합니다. 파일 시스템은 클러스터의 구성원이 동일한 스토리지 블록을 동시에 업데이트하여 데이터 손상을 초래하지 않도록 해야 합니다. 이를 위해 공유 스토리지 파일 시스템은 클러스터 전체 잠금 메커니즘을 사용하여 스토리지에 대한 액세스를 동시성 제어 메커니즘으로 중재합니다. 예를 들어 새 파일을 만들거나 여러 서버에서 열려 있는 파일에 쓰기 전에 서버의 파일 시스템 구성 요소가 올바른 잠금을 획득해야 합니다.

클러스터 파일 시스템의 요구 사항은 Apache 웹 서버와 같이 고가용성 서비스를 제공하는 것입니다. 클러스터의 모든 구성원은 공유 디스크 파일 시스템에 저장된 데이터의 완전히 일관된 보기를 볼 수 있으며 모든 업데이트는 잠금 메커니즘에 의해 올바르게 중재됩니다.

성능 특징

공유 디스크 파일 시스템은 잠금 오버헤드의 계산 비용 때문에 동일한 시스템에서 실행되는 로컬 파일 시스템뿐만 아니라 항상 수행되는 것은 아닙니다. 공유 디스크 파일 시스템은 각 노드가 다른 노드와 공유되지 않는 특정 파일 집합 또는 노드 집합 간에 거의 읽기 전용 방식으로 공유되는 특정 파일 집합에 거의 독점적으로 쓰는 워크로드에서 효과적입니다. 이로 인해 최소 노드 간 캐시 무효화가 발생하고 성능을 최대화할 수 있습니다.

공유 디스크 파일 시스템을 설정하는 것은 복잡하며 공유 디스크 파일 시스템에서 제대로 수행하도록 애플리케이션을 조정하는 것이 어려울 수 있습니다.

사용 가능한 공유 스토리지 파일 시스템
  • Red Hat Enterprise Linux는 GFS2 파일 시스템을 제공합니다. GFS2는 Red Hat Enterprise Linux 고가용성 애드온 및 복구 스토리지 애드온과 긴밀하게 통합됩니다.

Red Hat Enterprise Linux는 클러스터에서 2개에서 16개의 노드로 크기의 GFS2를 지원합니다.

1.9. 네트워크와 공유 스토리지 파일 시스템 중에서 선택

네트워크와 공유 스토리지 파일 시스템 중 하나를 선택하는 경우 다음 사항을 고려하십시오.

  • NFS 기반 네트워크 파일 시스템은 NFS 서버를 제공하는 환경에 매우 일반적인 선택 사항입니다.
  • 네트워크 파일 시스템은 Infiniband 또는 10기가비트 이더넷과 같은 고성능 네트워킹 기술을 사용하여 배포할 수 있습니다. 즉, 스토리지에 대한 원시 대역폭을 얻기 위해서만 공유 스토리지 파일 시스템으로 전환해서는 안 됩니다. 액세스 속도가 가장 중요한 경우 NFS를 사용하여 XFS와 같은 로컬 파일 시스템을 내보냅니다.
  • 공유 스토리지 파일 시스템은 설정하거나 유지 관리하기가 쉽지 않으므로 로컬 또는 네트워크 파일 시스템에서 필요한 가용성을 제공할 수 없는 경우에만 배포해야 합니다.
  • 클러스터형 환경의 공유 스토리지 파일 시스템은 고가용성 서비스의 재배치와 관련된 일반적인 장애 조치 시나리오에서 수행해야 하는 마운트 및 마운트에 필요한 단계를 제거하여 다운타임을 줄일 수 있습니다.

공유 스토리지 파일 시스템의 특정 사용 사례가 없는 한 네트워크 파일 시스템을 사용하는 것이 좋습니다. 공유 스토리지 파일 시스템은 주로 고가용성 서비스에 최소한의 가동 중지 시간을 제공하고 엄격한 서비스 수준 요구 사항을 가지고 있어야 하는 배포에 사용됩니다.

1.10. 볼륨 관리 파일 시스템

볼륨 관리 파일 시스템은 단순하고 스택 내 최적화를 위해 전체 스토리지 스택을 통합합니다.

사용 가능한 볼륨 관리 파일 시스템
  • Red Hat Enterprise Linux 8은 Stratis 볼륨 관리자를 기술 프리뷰로 제공합니다. Stratis는 파일 시스템 계층에 XFS를 사용하고 LVM, 장치 매퍼 및 기타 구성 요소와 통합합니다.

Stratis는 Red Hat Enterprise Linux 8.0에서 처음 릴리스되었습니다. Red Hat이 Btrfs를 더 이상 사용되지 않을 때 발생하는 격차를 해소해야 합니다. Stratis 1.0은 사용자의 복잡성을 숨기고 중요한 스토리지 관리 작업을 수행할 수 있는 직관적인 명령줄 기반 볼륨 관리자입니다.

  • 볼륨 관리
  • 풀 생성
  • 씬 스토리지 풀
  • 스냅샷
  • 자동 읽기 캐시

Stratis는 강력한 기능을 제공하지만 현재 Btrfs 또는 ZFS와 같이 비교할 수 있는 다른 제품의 특정 기능이 없습니다. 특히 자체 복구 기능이 있는 CRC를 지원하지 않습니다.

2장. RHEL 시스템 역할을 사용하여 로컬 스토리지 관리

Ansible을 사용하여 LVM 및 로컬 파일 시스템(FS)을 관리하려면 RHEL 8에서 사용할 수 있는 RHEL 시스템 역할 중 하나인 스토리지 역할을 사용할 수 있습니다.

스토리지 역할을 사용하면 RHEL 7.7부터 여러 시스템의 디스크 및 논리 볼륨 및 모든 버전의 RHEL에서 파일 시스템을 자동으로 관리할 수 있습니다.

RHEL 시스템 역할 및 적용하는 방법에 대한 자세한 내용은 RHEL 시스템 역할 소개를 참조하십시오.

2.1. 스토리지 RHEL 시스템 역할 소개

스토리지 역할은 다음을 관리할 수 있습니다.

  • 파티션되지 않은 디스크의 파일 시스템
  • 논리 볼륨 및 파일 시스템을 포함한 전체 LVM 볼륨 그룹
  • MD RAID 볼륨 및 파일 시스템

스토리지 역할을 사용하면 다음 작업을 수행할 수 있습니다.

  • 파일 시스템 만들기
  • 파일 시스템 제거
  • 파일 시스템 마운트
  • 파일 시스템 마운트 해제
  • LVM 볼륨 그룹 만들기
  • LVM 볼륨 그룹 제거
  • 논리 볼륨 만들기
  • 논리 볼륨 제거
  • RAID 볼륨 만들기
  • RAID 볼륨 제거
  • RAID를 사용하여 LVM 볼륨 그룹 생성
  • RAID를 사용하여 LVM 볼륨 그룹 제거
  • 암호화된 LVM 볼륨 그룹 만들기
  • RAID를 사용하여 LVM 논리 볼륨 생성

2.2. 스토리지 RHEL 시스템 역할에서 스토리지 장치를 식별하는 매개변수

스토리지 역할 구성은 다음 변수에 나열된 파일 시스템, 볼륨 및 풀에만 영향을 미칩니다.

storage_volumes

관리할 모든 파티션되지 않은 디스크의 파일 시스템 목록입니다.

storage_volumes 에는 잘못된 볼륨도 포함 수 있습니다.

파티션은 현재 지원되지 않습니다.

storage_pools

관리할 풀 목록입니다.

현재 지원되는 유일한 풀 유형은 LVM입니다. LVM을 사용하면 풀은 볼륨 그룹(VG)을 나타냅니다. 각 풀에는 역할에서 관리할 볼륨 목록이 있습니다. LVM을 사용하면 각 볼륨이 파일 시스템의 논리 볼륨(LV)에 해당합니다.

2.3. 블록 장치에서 XFS 파일 시스템을 생성하는 Ansible 플레이북의 예

예제 Ansible 플레이북은 기본 매개 변수를 사용하여 블록 장치에서 XFS 파일 시스템을 생성하는 데 storage 역할을 적용합니다.

주의

스토리지 역할은 분할되지 않은 전체 디스크 또는 논리 볼륨(LV)에서만 파일 시스템을 생성할 수 있습니다. 파티션에 파일 시스템을 만들 수 없습니다.

예 2.1. /dev/sdb에 XFS를 생성하는 플레이북

---
- hosts: all
  vars:
    storage_volumes:
      - name: barefs
        type: disk
        disks:
          - sdb
        fs_type: xfs
  roles:
    - rhel-system-roles.storage
  • 볼륨 이름(예의barefs )은 현재 임의입니다. 스토리지 역할은 disks: 속성 아래에 나열된 디스크 장치에서 볼륨을 식별합니다.
  • XFS는 RHEL 8의 기본 파일 시스템이므로 fs_type: xfs 행을 생략할 수 있습니다.
  • LV에서 파일 시스템을 생성하려면 포함 볼륨 그룹을 포함하여 disks: 속성 아래에 LVM 설정을 제공합니다. 자세한 내용은 논리 볼륨을 관리하기 위한 Ansible 플레이북 예제를 참조하십시오.

    LV 장치의 경로를 제공하지 마십시오.

추가 리소스

  • /usr/share/ansible/roles/rhel-system-roles.storage/README.md 파일.

2.4. 파일 시스템을 영구적으로 마운트하는 Ansible 플레이북의 예

예제 Ansible은 스토리지 역할을 XFS 파일 시스템에 즉시 영구적으로 마운트하는 데 적용합니다.

예 2.2. /dev/sdb에 파일 시스템을 마운트하는 플레이북을 /mnt/data에 마운트합니다.

---
- hosts: all
  vars:
    storage_volumes:
      - name: barefs
        type: disk
        disks:
          - sdb
        fs_type: xfs
        mount_point: /mnt/data
        mount_user: somebody
        mount_group: somegroup
        mount_mode: 0755
  roles:
    - rhel-system-roles.storage
  • 이 플레이북은 파일 시스템을 /etc/fstab 파일에 추가하고 파일 시스템을 즉시 마운트합니다.
  • /dev/sdb 장치의 파일 시스템 또는 마운트 지점 디렉터리가 없으면 플레이북에서 생성합니다.

추가 리소스

  • /usr/share/ansible/roles/rhel-system-roles.storage/README.md 파일.

2.5. 논리 볼륨을 관리하는 Ansible 플레이북의 예

예제 Ansible 플레이북은 storage 역할을 적용하여 볼륨 그룹에 LVM 논리 볼륨을 생성합니다.

예 2.3. myvg 볼륨 그룹에 mylv 논리 볼륨을 생성하는 플레이북

- hosts: all
  vars:
    storage_pools:
      - name: myvg
        disks:
          - sda
          - sdb
          - sdc
        volumes:
          - name: mylv
            size: 2G
            fs_type: ext4
            mount_point: /mnt/data
  roles:
    - rhel-system-roles.storage
  • myvg 볼륨 그룹은 다음 디스크로 구성됩니다.

    • /dev/sda
    • /dev/sdb
    • /dev/sdc
  • myvg 볼륨 그룹이 이미 있는 경우 플레이북은 논리 볼륨을 볼륨 그룹에 추가합니다.
  • myvg 볼륨 그룹이 없는 경우 플레이북에서 이를 생성합니다.
  • 플레이북은 mylv 논리 볼륨에 Ext4 파일 시스템을 생성하고 /mnt 에 파일 시스템을 영구적으로 마운트합니다.

추가 리소스

  • /usr/share/ansible/roles/rhel-system-roles.storage/README.md 파일.

2.6. 온라인 블록 삭제를 활성화하는 Ansible 플레이북의 예

예제 Ansible 플레이북은 스토리지 역할을 적용하여 온라인 블록 삭제가 활성화된 XFS 파일 시스템을 마운트합니다.

예 2.4. /mnt/data/에서 온라인 블록 삭제를 활성화하는 플레이북

---
- hosts: all
  vars:
    storage_volumes:
      - name: barefs
        type: disk
        disks:
          - sdb
        fs_type: xfs
        mount_point: /mnt/data
        mount_options: discard
  roles:
    - rhel-system-roles.storage

추가 리소스

2.7. Ext4 파일 시스템을 생성하고 마운트하는 Ansible 플레이북의 예

예제 Ansible 플레이북은 Ext4 파일 시스템을 생성하고 마운트하는 스토리지 역할을 적용합니다.

예 2.5. /dev/sdb에서 Ext4를 생성하고 /mnt/data에 마운트하는 플레이북

---
- hosts: all
  vars:
    storage_volumes:
      - name: barefs
        type: disk
        disks:
          - sdb
        fs_type: ext4
        fs_label: label-name
        mount_point: /mnt/data
  roles:
    - rhel-system-roles.storage
  • 플레이북은 /dev/sdb 디스크에 파일 시스템을 생성합니다.
  • 플레이북은 /mnt/data 디렉터리에 파일 시스템을 영구적으로 마운트합니다.
  • 파일 시스템의 레이블은 label-name 입니다.

추가 리소스

  • /usr/share/ansible/roles/rhel-system-roles.storage/README.md 파일.

2.8. ext3 파일 시스템을 생성하고 마운트하는 Ansible 플레이북의 예

예제 Ansible 플레이북은 Ext3 파일 시스템을 생성하고 마운트하는 스토리지 역할을 적용합니다.

예 2.6. /dev/sdb에서 Ext3을 생성하고 /mnt/data 에 마운트하는 플레이북

---
- hosts: all
  vars:
    storage_volumes:
      - name: barefs
        type: disk
        disks:
          - sdb
        fs_type: ext3
        fs_label: label-name
        mount_point: /mnt/data
        mount_user: somebody
        mount_group: somegroup
        mount_mode: 0755
  roles:
    - rhel-system-roles.storage
  • 플레이북은 /dev/sdb 디스크에 파일 시스템을 생성합니다.
  • 플레이북은 /mnt/data 디렉터리에 파일 시스템을 영구적으로 마운트합니다.
  • 파일 시스템의 레이블은 label-name 입니다.

추가 리소스

  • /usr/share/ansible/roles/rhel-system-roles.storage/README.md 파일.

2.9. 스토리지 RHEL 시스템 역할을 사용하여 LVM에서 기존 파일 시스템의 크기를 조정하는 Ansible Playbook의 예

예제 Ansible 플레이북은 스토리지 RHEL 시스템 역할을 적용하여 파일 시스템으로 LVM 논리 볼륨의 크기를 조정합니다.

주의

다른 파일 시스템에서 크기 조정 작업을 사용하면 작업 중인 장치의 데이터를 삭제할 수 있습니다.

예 2.7. myvg 볼륨 그룹에서 기존 mylv1 및 myvl2 논리 볼륨의 크기를 조정하는 플레이북

---

- hosts: all
   vars:
    storage_pools:
      - name: myvg
        disks:
          - /dev/sda
          - /dev/sdb
          - /dev/sdc
        volumes:
            - name: mylv1
              size: 10 GiB
              fs_type: ext4
              mount_point: /opt/mount1
            - name: mylv2
              size: 50 GiB
              fs_type: ext4
              mount_point: /opt/mount2

- name: Create LVM pool over three disks
  include_role:
    name: rhel-system-roles.storage
  • 이 플레이북은 다음과 같은 기존 파일 시스템의 크기를 조정합니다.

    • /opt/mount 1에 마운트된 mylv1 볼륨의 Ext4 파일 시스템은 10GiB로 조정합니다.
    • /opt/mount 2에 마운트된 mylv2 볼륨의 Ext4 파일 시스템은 50GiB로 조정됩니다.

추가 리소스

  • /usr/share/ansible/roles/rhel-system-roles.storage/README.md 파일.

2.10. 스토리지 RHEL 시스템 역할을 사용하여 스왑 볼륨을 생성하는 Ansible Playbook의 예

이 섹션에서는 Ansible 플레이북의 예를 제공합니다. 이 플레이북은 스토리지 역할을 적용하여 스왑 볼륨이 없는 경우 또는 기본 매개변수를 사용하는 블록 장치에 스왑 볼륨을 수정하거나 스왑 볼륨이 이미 존재하는 경우 수정합니다.

예 2.8. /dev/sdb에서 기존 XFS를 생성하거나 수정하는 플레이북

---
- name: Create a disk device with swap
- hosts: all
  vars:
    storage_volumes:
      - name: swap_fs
        type: disk
        disks:
          - /dev/sdb
	size: 15 GiB
        fs_type: swap
  roles:
    - rhel-system-roles.storage
  • 볼륨 이름(예의swap_fs )은 현재 임의적입니다. 스토리지 역할은 disks: 속성 아래에 나열된 디스크 장치에서 볼륨을 식별합니다.

추가 리소스

  • /usr/share/ansible/roles/rhel-system-roles.storage/README.md 파일.

2.11. 스토리지 시스템 역할을 사용하여 RAID 볼륨 구성

스토리지 시스템 역할을 사용하면 Red Hat Ansible Automation Platform 및 Ansible-Core를 사용하여 RHEL에서 RAID 볼륨을 구성할 수 있습니다. 매개변수를 사용하여 Ansible 플레이북을 생성하여 요구 사항에 맞게 RAID 볼륨을 구성합니다.

사전 요구 사항

  • Ansible Core 패키지는 제어 시스템에 설치됩니다.
  • 플레이북을 실행할 시스템에 rhel-system-roles 패키지가 설치되어 있습니다.
  • 스토리지 시스템 역할을 사용하여 RAID 볼륨을 배포하려는 시스템을 자세히 설명하는 인벤토리 파일이 있습니다.

절차

  1. 다음 콘텐츠를 사용하여 새 playbook.yml 파일을 생성합니다.

    ---
    - name: Configure the storage
      hosts: managed-node-01.example.com
      tasks:
      - name: Create a RAID on sdd, sde, sdf, and sdg
        include_role:
          name: rhel-system-roles.storage
        vars:
        storage_safe_mode: false
        storage_volumes:
          - name: data
            type: raid
            disks: [sdd, sde, sdf, sdg]
            raid_level: raid0
            raid_chunk_size: 32 KiB
            mount_point: /mnt/data
            state: present
    주의

    장치 이름은 예를 들어 시스템에 새 디스크를 추가하는 경우와 같이 특정 상황에서 변경될 수 있습니다. 따라서 데이터 손실을 방지하려면 플레이북에서 특정 디스크 이름을 사용하지 마십시오.

  2. 선택 사항: 플레이북 구문을 확인합니다.

    # ansible-playbook --syntax-check playbook.yml
  3. 플레이북을 실행합니다.

    # ansible-playbook -i inventory.file /path/to/file/playbook.yml

추가 리소스

2.12. 스토리지 RHEL 시스템 역할을 사용하여 RAID로 LVM 풀 구성

스토리지 시스템 역할을 사용하면 Red Hat Ansible Automation Platform을 사용하여 RHEL에서 RAID로 LVM 풀을 구성할 수 있습니다. 사용 가능한 매개 변수로 Ansible 플레이북을 설정하여 RAID로 LVM 풀을 구성할 수 있습니다.

사전 요구 사항

  • Ansible Core 패키지는 제어 시스템에 설치됩니다.
  • 플레이북을 실행할 시스템에 rhel-system-roles 패키지가 설치되어 있습니다.
  • 스토리지 시스템 역할을 사용하여 RAID로 LVM 풀을 구성하려는 시스템을 자세히 설명하는 인벤토리 파일이 있습니다.

절차

  1. 다음 내용으로 새 playbook.yml 파일을 생성합니다.

    - hosts: all
      vars:
        storage_safe_mode: false
        storage_pools:
          - name: my_pool
            type: lvm
            disks: [sdh, sdi]
            raid_level: raid1
            volumes:
              - name: my_volume
                size: "1 GiB"
                mount_point: "/mnt/app/shared"
                fs_type: xfs
                state: present
      roles:
        - name: rhel-system-roles.storage
    참고

    RAID를 사용하여 LVM 풀을 생성하려면 raid_level 매개 변수를 사용하여 RAID 유형을 지정해야 합니다.

  2. 선택 사항: 플레이북 구문을 확인합니다.

    # ansible-playbook --syntax-check playbook.yml
  3. 인벤토리 파일에서 플레이북을 실행합니다.

    # ansible-playbook -i inventory.file /path/to/file/playbook.yml

추가 리소스

  • RAID 관리.
  • /usr/share/ansible/roles/rhel-system-roles.storage/README.md 파일.

2.13. 스토리지 RHEL 시스템 역할을 사용하여 RAID LVM 볼륨의 스트라이프 크기 구성

스토리지 시스템 역할을 사용하면 Red Hat Ansible Automation Platform을 사용하여 RHEL에서 RAID LVM 볼륨의 스트라이프 크기를 구성할 수 있습니다. 사용 가능한 매개 변수로 Ansible 플레이북을 설정하여 RAID로 LVM 풀을 구성할 수 있습니다.

사전 요구 사항

  • Ansible Core 패키지는 제어 시스템에 설치됩니다.
  • 플레이북을 실행하려는 시스템에 rhel-system-roles 패키지가 설치되어 있어야 합니다.
  • 스토리지 시스템 역할을 사용하여 RAID로 LVM 풀을 구성할 시스템을 자세히 설명하는 인벤토리 파일이 있습니다.

절차

  1. 다음 콘텐츠를 사용하여 새 playbook.yml 파일을 생성합니다.

    hosts: all
      vars:
        storage_safe_mode: false
        storage_pools:
          - name: my_pool
            type: lvm
            disks: [sdh, sdi]
            volumes:
              - name: my_volume
                size: "1 GiB"
                mount_point: "/mnt/app/shared"
                fs_type: xfs
                raid_level: raid1
                raid_stripe_size: "256 KiB"
                state: present
      roles:
        - name: rhel-system-roles.storage
  2. 선택 사항: 플레이북 구문을 확인합니다.

    # ansible-playbook --syntax-check playbook.yml
  3. 인벤토리 파일에서 플레이북을 실행합니다.

    # ansible-playbook -i inventory.file /path/to/file/playbook.yml

추가 리소스

  • RAID 관리
  • /usr/share/ansible/roles/rhel-system-roles.storage/README.md 파일.

2.14. 스토리지 RHEL 시스템 역할을 사용하여 LVM에서 VDO 볼륨을 압축하고 중복 제거하는 Ansible 플레이북의 예

예제 Ansible 플레이북은 스토리지 RHEL 시스템 역할을 적용하여 VDO(Virtual Data Optimizer)를 사용하여 LVM(Logical Volumes)을 압축하고 중복 제거할 수 있습니다.

예 2.9. my vg 볼륨 그룹에서 mylv1 LVM VDO 볼륨을 생성하는 플레이북

---
- name: Create LVM VDO volume under volume group 'myvg'
  hosts: all
  roles:
    -rhel-system-roles.storage
  vars:
    storage_pools:
     - name: myvg
       disks:
         - /dev/sdb
       volumes:
         - name: mylv1
           compression: true
           deduplication: true
           vdo_pool_size: 10 GiB
           size: 30 GiB
           mount_point: /mnt/app/shared

이 예제에서는 압축중복 제거 풀이 true로 설정되어 VDO가 사용되도록 지정합니다. 다음은 이러한 매개변수의 사용을 설명합니다.

  • 중복 제거 는 스토리지 볼륨에 저장된 중복된 데이터를 중복 제거하는 데 사용됩니다.
  • 압축은 스토리지 볼륨에 저장된 데이터를 압축하는 데 사용되어 스토리지 용량이 증가합니다.
  • vdo_pool_size는 장치에서 사용하는 실제 크기를 지정합니다. VDO 볼륨의 가상 크기는 size 매개 변수에 의해 설정됩니다. 알림: LVM VDO의 스토리지 역할 때문에 풀당 하나의 볼륨만 압축 및 중복 제거를 사용할 수 있습니다.

2.15. 스토리지 RHEL 시스템 역할을 사용하여 LUKS2 암호화된 볼륨 생성

storage 역할을 사용하여 Ansible 플레이북을 실행하여 LUKS로 암호화된 볼륨을 생성하고 구성할 수 있습니다.

사전 요구 사항

  • crypto_policies 시스템 역할로 구성하려는 시스템인 하나 이상의 관리형 노드에 대한 액세스 및 권한.
  • 관리 노드를 나열하는 인벤토리 파일입니다.
  • Red Hat Ansible Core가 기타 시스템을 구성하는 시스템인 제어 노드에 대한 액세스 및 권한. 제어 노드에서 ansible-corerhel-system-roles 패키지가 설치됩니다.
중요

RHEL 8.0-8.5는 Ansible 기반 자동화를 위해 Ansible Engine 2.9가 포함된 별도의 Ansible 리포지토리에 대한 액세스를 제공했습니다. Ansible Engine에는 ansible , ansible -playbook, dockerpodman 과 같은 커넥터, 여러 플러그인 및 모듈과 같은 명령줄 유틸리티가 포함되어 있습니다. Ansible Engine을 확보하고 설치하는 방법에 대한 자세한 내용은 Red Hat Ansible Engine 지식베이스 문서를 다운로드하고 설치하는 방법을 참조하십시오.

RHEL 8.6 및 9.0에서는 Ansible 명령줄 유틸리티, 명령 및 소규모의 기본 제공 Ansible 플러그인 세트가 포함된 Ansible Core( ansible-core 패키지로 제공)를 도입했습니다. RHEL은 AppStream 리포지토리를 통해 이 패키지를 제공하며 제한된 지원 범위를 제공합니다. 자세한 내용은 RHEL 9 및 RHEL 8.6 이상 AppStream 리포지토리 지식 베이스에 포함된 Ansible Core 패키지에 대한 지원 범위를 참조하십시오.

절차

  1. 다음 내용으로 새 playbook.yml 파일을 생성합니다.

    - hosts: all
      vars:
        storage_volumes:
          - name: barefs
            type: disk
            disks:
             - sdb
            fs_type: xfs
            fs_label: label-name
            mount_point: /mnt/data
            encryption: true
            encryption_password: your-password
      roles:
       - rhel-system-roles.storage

    playbook.yml 파일의 encryption_key,encryption_cipher,encryption_key_size, encryption_luks 버전과 같은 다른 암호화 매개변수도 추가할 수 있습니다.

  2. 선택 사항: 플레이북 구문을 확인합니다.

    # ansible-playbook --syntax-check playbook.yml
  3. 인벤토리 파일에서 플레이북을 실행합니다.

    # ansible-playbook -i inventory.file /path/to/file/playbook.yml

검증

  1. 암호화 상태를 확인합니다.

    # cryptsetup status sdb
    
    /dev/mapper/sdb is active and is in use.
    type: LUKS2
    cipher: aes-xts-plain64
    keysize: 512 bits
    key location: keyring
    device: /dev/sdb
    [...]
  2. 생성된 LUKS 암호화된 볼륨을 확인합니다.

    # cryptsetup luksDump /dev/sdb
    
    Version:       	2
    Epoch:         	6
    Metadata area: 	16384 [bytes]
    Keyslots area: 	33521664 [bytes]
    UUID:          	a4c6be82-7347-4a91-a8ad-9479b72c9426
    Label:         	(no label)
    Subsystem:     	(no subsystem)
    Flags:       	allow-discards
    
    Data segments:
      0: crypt
    	offset: 33554432 [bytes]
    	length: (whole device)
    	cipher: aes-xts-plain64
    	sector: 4096 [bytes]
    [...]
  3. 스토리지 역할이 지원하는 playbook.yml 파일에서 cryptsetup 매개변수를 확인합니다.

    # cat ~/playbook.yml
    
        - hosts: all
          vars:
            storage_volumes:
              - name: foo
                type: disk
                disks:
                 - nvme0n1
                fs_type: xfs
                fs_label: label-name
                mount_point: /mnt/data
                encryption: true
                #encryption_password: passwdpasswd
                encryption_key: /home/passwd_key
                encryption_cipher: aes-xts-plain64
                encryption_key_size: 512
                encryption_luks_version: luks2
    
          roles:
           - rhel-system-roles.storage

추가 리소스

2.16. 스토리지 RHEL 시스템 역할을 사용하여 백분율로 풀 볼륨 크기를 표시하는 Ansible 플레이북의 예

예제 Ansible 플레이북은 스토리지 시스템 역할을 적용하여 논리 관리자 볼륨(LVM) 볼륨 크기를 풀의 총 크기의 백분율로 표시할 수 있습니다.

예 2.10. 볼륨 크기를 풀 총 크기의 백분율로 표시하는 플레이북

---
- name: Express volume sizes as a percentage of the pool's total size
  hosts: all
  roles
    - rhel-system-roles.storage
  vars:
    storage_pools:
    - name: myvg
      disks:
        - /dev/sdb
      volumes:
        - name: data
          size: 60%
          mount_point: /opt/mount/data
        - name: web
          size: 30%
          mount_point: /opt/mount/web
        - name: cache
          size: 10%
          mount_point: /opt/cache/mount

이 예에서는 LVM 볼륨의 크기를 풀 크기의 백분율로 지정합니다. 예를 들면 다음과 같습니다. "60%". 또한 LVM 볼륨의 크기를 사람이 읽을 수 있는 파일 시스템 크기(예: "10g" 또는 "50GiB)"의 풀 크기의 백분율로 지정할 수도 있습니다.

2.17. 추가 리소스

  • /usr/share/doc/rhel-system-roles/storage/
  • /usr/share/ansible/roles/rhel-system-roles.storage/

3장. NFS 공유 마운트

시스템 관리자는 원격 NFS 공유를 시스템에 마운트하여 공유 데이터에 액세스할 수 있습니다.

3.1. 지원되는 NFS 버전

현재 Red Hat Enterprise Linux 8은 다음과 같은 주요 버전의 NFS를 지원합니다.

  • NFS 버전 3(NFSv3)은 안전한 비동기 쓰기를 지원하며 이전 NFSv2보다 오류 처리 시 더 강력합니다. 64비트 파일 크기 및 오프셋도 지원하므로 클라이언트가 2GB 이상의 파일 데이터에 액세스할 수 있습니다.
  • NFS 버전 4(NFSv4)는 방화벽 및 인터넷에서 작동하며 더 이상 rpcbind 서비스가 필요하지 않으며 ACL(액세스 제어 목록)을 지원하며 상태 저장 작업을 활용합니다.

NFS 버전 2(NFSv2)는 Red Hat에서 더 이상 지원하지 않습니다.

기본 NFS 버전

Red Hat Enterprise Linux 8의 기본 NFS 버전은 4.2입니다. NFS 클라이언트는 기본적으로 NFSv4.2를 사용하여 마운트를 시도하고 서버가 NFSv4.2를 지원하지 않는 경우 NFSv4.1로 대체합니다. 나중에 마운트는 NFSv4.0으로 대체되고 NFSv3로 대체됩니다.

마이너 NFS 버전의 기능

다음은 Red Hat Enterprise Linux 8의 NFSv4.2의 기능입니다.

서버 측 복사

copy _file_range() 시스템 호출을 사용하여 NFS 클라이언트가 네트워크 리소스를 낭비하지 않고 데이터를 효율적으로 복사할 수 있습니다.

Intra(동일한 서버 내) 복사본만 지원됩니다. 서로 다른 서버 간에 복사(복사) 복사본을 지원하지 않습니다.

스파스 파일
파일에 0으로 구성된 할당되지 않거나 초기화되지 않은 데이터 블록을 하나 이상 포함할 수 있습니다. NFSv4.2의 lseek() seek_ data() 작업은 애플리케이션이 스파스 파일의 취약점 위치를 매핑할 수 있도록 합니다.
공간 예약
스토리지 서버가 여유 공간을 예약하도록 허용하여 서버가 공간이 부족해지는 것을 금지합니다. NFSv4.2에서는 공간을 예약하기 위한 assign () 작업, 공간을 예약 해제하는 deallocate() 작업, fallocate() 작업을 지원하여 파일의 공간을 사전 할당하거나 배분 할 수 있습니다.
레이블이 지정된 NFS
데이터 액세스 권한을 적용하고 NFS 파일 시스템의 개별 파일에 대해 클라이언트와 서버 간에 SELinux 레이블을 활성화합니다.
레이아웃 개선 사항
일부 병렬 NFS(pNFS) 서버가 더 나은 성능 통계를 수집할 수 있도록 하는 layoutstats() 작업을 제공합니다.

NFSv4.1의 기능은 다음과 같습니다.

  • 네트워크의 성능 및 보안을 향상시키고 pNFS에 대한 클라이언트측 지원도 포함합니다.
  • 콜백에 대해 더 이상 별도의 TCP 연결이 필요하지 않으므로, NFS 서버가 클라이언트에 연결할 수 없는 경우에도 위임을 허용할 수 있습니다(예: NAT 또는 방화벽이 방해하는 경우).
  • 은 의미 체계(부팅 작업 제외)를 정확히 한 번 제공합니다. 이전 문제로 인해 응답이 손실되고 작업이 두 번 전송된 경우 특정 작업에서 부정확한 결과를 반환하는 경우가 있었습니다.

3.2. NFS에 필요한 서비스

이 섹션에는 NFS 서버 실행 또는 NFS 공유 마운트에 필요한 시스템 서비스가 나열되어 있습니다. Red Hat Enterprise Linux는 이러한 서비스를 자동으로 시작합니다.

Red Hat Enterprise Linux는 커널 수준 지원 및 서비스 프로세스의 조합을 사용하여 NFS 파일 공유를 제공합니다. 모든 NFS 버전은 클라이언트와 서버 간에 RPC(원격 프로시저 호출)를 사용합니다. NFS 파일 시스템을 공유하거나 마운트하기 위해 구현된 NFS 버전에 따라 다음 서비스가 함께 작동합니다.

nfsd
공유 NFS 파일 시스템에 요청하는 NFS 서버 커널 모듈입니다.
rpcbind
로컬 RPC 서비스에서 포트 예약을 허용합니다. 그런 다음 이러한 포트가 사용 가능하게 만들어 해당 원격 RPC 서비스에서 액세스할 수 있습니다. rpcbind 서비스는 RPC 서비스에 대한 요청에 응답하고 요청된 RPC 서비스에 대한 연결을 설정합니다. NFSv4에서는 사용되지 않습니다.
rpc.mountd
이 프로세스는 NFS 서버가 NFSv3 클라이언트의 MOUNT 요청을 처리하는 데 사용됩니다. 요청된 NFS 공유를 현재 NFS 서버에서 내보내고 있고 클라이언트가 액세스할 수 있는지 확인합니다. 마운트 요청이 허용되는 경우 nfs 마운트 서비스가 Success 상태로 응답하고 이 NFS 공유에 대한 File-Handle을 다시 NFS 클라이언트로 제공합니다.
rpc.nfsd
이 프로세스를 통해 서버에서 알리는 명시적 NFS 버전 및 프로토콜을 사용할 수 있습니다. NFS 클라이언트가 연결할 때마다 서버 스레드를 제공하는 등 NFS 클라이언트의 동적 요구를 충족하기 위해 Linux 커널과 호환됩니다. 이 프로세스는 nfs-server 서비스에 해당합니다.
lockd
클라이언트와 서버에서 모두 실행되는 커널 스레드입니다. NFSv3 클라이언트가 서버의 파일을 잠글 수 있는 NLM(Network Lock Manager) 프로토콜을 구현합니다. NFS 서버가 실행될 때마다 NFS 파일 시스템이 마운트될 때마다 자동으로 시작됩니다.
rpc.statd
이 프로세스에서는 정상적으로 중단되지 않고 NFS 서버를 다시 시작할 때 NFS 클라이언트에 알리는 NSM(Network Status Monitor) RPC 프로토콜을 구현합니다. rpc-statd 서비스는 nfs-server 서비스에 의해 자동으로 시작되며 사용자 구성이 필요하지 않습니다. NFSv4에서는 사용되지 않습니다.
rpc.rquotad
이 프로세스는 원격 사용자에 대한 사용자 할당량 정보를 제공합니다. quota-rpc 패키지에서 제공하는 RuntimeClass-rquotad 서비스는 nfs-server 가 시작될 때 사용자가 시작해야 합니다.
rpc.idmapd

이 프로세스는 유선 NFSv4 이름( 사용자@도메인형식의 문자열)과 로컬 UID 및 GID 간에 매핑되는 NFSv4 클라이언트 및 서버 upcall을 제공합니다. NFSv4에서 idmapd 가 작동하려면 /etc/idmapd.conf 파일을 구성해야 합니다. NFSv4 매핑 도메인을 정의하는 Domain 매개 변수를 최소한 지정해야 합니다. NFSv4 매핑 도메인이 DNS 도메인 이름과 같은 경우 이 매개 변수를 건너뛸 수 있습니다. ID 매핑이 제대로 작동하려면 클라이언트와 서버가 NFSv4 매핑 도메인에 동의해야 합니다.

NFSv4 서버만 rpc.idmapd 를 사용하며 nfs-idmapd 서비스에 의해 시작됩니다. NFSv4 클라이언트는 ID 매핑을 수행하기 위해 온디맨드 커널에서 호출하는 인증 키 기반 nfsidmap 유틸리티를 사용합니다. nfsidmap 에 문제가 있는 경우 클라이언트는 rpc.idmapd를 사용하도록 대체합니다.

NFSv4를 사용한 RPC 서비스

마운트 및 잠금 프로토콜이 NFSv4 프로토콜에 통합되었습니다. 서버는 또한 잘 알려진 TCP 포트 2049에서 수신 대기합니다. 따라서 NFSv4는 rpcbind,lockd, rpc -statd 서비스와 상호 작용할 필요가 없습니다. NFS 서버에서 내보내기를 설정하려면 nfs-mountd 서비스가 계속 필요하지만 유선 작업에는 적용되지 않습니다.

3.3. NFS 호스트 이름 형식

이 섹션에서는 NFS 공유를 마운트하거나 내보낼 때 호스트를 지정하는 데 사용할 수 있는 다양한 형식을 설명합니다.

다음 형식으로 호스트를 지정할 수 있습니다.

단일 머신

다음 중 하나:

  • 정규화된 도메인 이름(서버가 확인할 수 있음)
  • 호스트 이름(서버가 확인할 수 있음)
  • IP 주소.
IP 네트워크

다음 형식 중 하나가 유효합니다.

  • a.b.c.d/z. 여기서 a.b.c.d 는 네트워크이고 z 는 넷마스크의 비트 수입니다(예: 192.168.0.0/24 ).
  • a.b.c.d/netmask (예: a.b.c.d 는 네트워크이고 넷마스크 는 넷마스크입니다(예: 192.168.100.8/255.255.255.0 ).
넷그룹
@group-name 형식 . 여기서 group-name 은 NIS 네트워크 그룹 이름입니다.

3.4. 방화벽 뒤에서 실행되도록 NFSv3 클라이언트 구성

방화벽 뒤에서 실행되도록 NFSv3 클라이언트를 구성하는 절차는 방화벽 뒤에서 실행되도록 NFSv3 서버를 구성하는 절차와 유사합니다.

구성 중인 시스템이 NFS 클라이언트와 NFS 서버 둘 다인 경우 방화벽 뒤에서 실행되도록 NFSv3- 사용 서버 구성에 설명된 절차를 따르십시오.

다음 절차에서는 방화벽 뒤에서 실행하기 위해서만 NFS 클라이언트인 시스템을 구성하는 방법을 설명합니다.

절차

  1. 클라이언트가 방화벽 뒤에 있을 때 NFS 서버가 NFS 클라이언트에 콜백을 수행할 수 있도록 하려면 NFS 클라이언트에서 다음 명령을 실행하여 방화벽에 CHAP -bind 서비스를 추가합니다.

    firewall-cmd --permanent --add-service rpc-bind
  2. 다음과 같이 /etc/nfs.conf 파일에서 RPC 서비스 nlockmgr 에서 사용할 포트를 지정합니다.

    [lockd]
    
    port=port-number
    udp-port=upd-port-number

    또는 /etc/modprobe.d/lockd.conf 파일에 nlm_tcpportnlm_udpport를 지정할 수 있습니다.

  3. NFS 클라이언트에서 다음 명령을 실행하여 방화벽에서 지정된 포트를 엽니다.

    firewall-cmd --permanent --add-port=<lockd-tcp-port>/tcp
    firewall-cmd --permanent --add-port=<lockd-udp-port>/udp
  4. 다음과 같이 /etc/nfs . conf 파일의 [statd] 섹션을 편집하여 alice.statd에 대한 정적 포트를 추가합니다.

    [statd]
    
    port=port-number
  5. NFS 클라이언트에서 다음 명령을 실행하여 방화벽에서 추가된 포트를 엽니다.

    firewall-cmd --permanent --add-port=<statd-tcp-port>/tcp
    firewall-cmd --permanent --add-port=<statd-udp-port>/udp
  6. 방화벽 구성을 다시 로드합니다.

    firewall-cmd --reload
  7. rpc-statd 서비스를 다시 시작합니다.

    # systemctl restart rpc-statd.service

    또는 /etc/modprobe.d/lockd.conf 파일에 lockd 포트를 지정한 경우:

    1. /proc/sys/fs/nfs/nlm_tcpport/proc/sys/fs/nfs/nlm_udpport 의 현재 값을 업데이트합니다.

      # sysctl -w fs.nfs.nlm_tcpport=<tcp-port>
      # sysctl -w fs.nfs.nlm_udpport=<udp-port>
    2. rpc-statd 서비스를 다시 시작합니다.

      # systemctl restart rpc-statd.service

3.5. 방화벽 뒤에서 실행되도록 NFSv4 클라이언트 구성

클라이언트가 NFSv4.0을 사용하는 경우에만 이 절차를 수행하십시오. 이 경우 NFSv4.0 콜백용 포트를 열어야 합니다.

이후 프로토콜 버전에서는 서버가 클라이언트에서 시작한 동일한 연결에서 콜백을 수행하기 때문에 NFSv4.1 이상에는 이 절차가 필요하지 않습니다.

절차

  1. NFSv4.0 콜백이 방화벽을 통과하도록 허용하려면 /proc/sys/fs/nfs_callback_tcpport를 설정하고 서버가 다음과 같이 클라이언트의 해당 포트에 연결할 수 있습니다.

    # echo "fs.nfs.nfs_callback_tcpport = <callback-port>" >/etc/sysctl.d/90-nfs-callback-port.conf
    # sysctl -p /etc/sysctl.d/90-nfs-callback-port.conf
  2. NFS 클라이언트에서 다음 명령을 실행하여 방화벽에서 지정된 포트를 엽니다.

    firewall-cmd --permanent --add-port=<callback-port>/tcp
  3. 방화벽 구성을 다시 로드합니다.

    firewall-cmd --reload

3.6. NFS 설치

이 절차에서는 NFS 공유를 마운트하거나 내보내는 데 필요한 모든 패키지를 설치합니다.

절차

  • nfs-utils 패키지를 설치합니다.

    # yum install nfs-utils

3.7. NFS 내보내기 검색

다음 절차에서는 지정된 NFSv3 또는 NFSv4 서버 내보내기를 위한 파일 시스템을 검색합니다.

절차

  • NFSv3를 지원하는 서버에서 showmount 유틸리티를 사용합니다.

    $ showmount --exports my-server
    
    Export list for my-server
    /exports/foo
    /exports/bar
  • NFSv4를 지원하는 서버를 사용하여 루트 디렉터리를 마운트하고 다음을 찾습니다.

    # mount my-server:/ /mnt/
    # ls /mnt/
    
    exports
    
    # ls /mnt/exports/
    
    foo
    bar

NFSv4 및 NFSv3를 둘 다 지원하는 서버에서는 모두 작동하며 동일한 결과를 제공합니다.

추가 리소스

  • showmount(8) 도움말 페이지

3.8. mount를 사용하여 NFS 공유 마운트

mount 유틸리티를 사용하여 서버에서 내보낸 NFS 공유를 마운트합니다.

주의

NFS 클라이언트가 동일한 짧은 호스트 이름을 가진 경우 NFSv4 클라이언트 ID와 갑자기 만료되는 충돌이 발생할 수 있습니다. NFSv4 클라이언트 ID의 예기치 않게 만료되는 것을 방지하려면 사용 중인 시스템에 따라 NFS 클라이언트의 고유한 호스트 이름을 사용하거나 각 컨테이너에서 식별자를 구성해야 합니다. 자세한 내용은 여러 NFS 클라이언트 지식베이스에서 동일한 호스트 이름을 사용하기 때문에 NFSv4 클라이언트 클라이언트 ID가 예기치 않게 만료되었음을 참조하십시오.

절차

  • NFS 공유를 마운트하려면 다음 명령을 사용합니다.

    # mount -t nfs -o options host:/remote/export /local/directory

    이 명령은 다음 변수를 사용합니다.

    옵션
    쉼표로 구분된 마운트 옵션 목록입니다.
    호스트
    마운트하려는 파일 시스템을 내보내는 서버의 호스트 이름, IP 주소 또는 정규화된 도메인 이름입니다.
    /remote/export
    서버에서 내보낼 파일 시스템 또는 디렉터리, 즉 마운트하려는 디렉터리입니다.
    /local/directory
    /remote/export 가 마운트된 클라이언트 위치입니다.

추가 리소스

3.9. 클라이언트에서 pNFS SCSI 설정

이 절차에서는 pNFS SCSI 레이아웃을 마운트하도록 NFS 클라이언트를 구성합니다.

사전 요구 사항

  • NFS 서버는 pNFS SCSI를 통해 XFS 파일 시스템을 내보내도록 구성됩니다.

절차

  • 클라이언트에서 NFS 버전 4.1 이상을 사용하여 내보낸 XFS 파일 시스템을 마운트합니다.

    # mount -t nfs -o nfsvers=4.1 host:/remote/export /local/directory

    NFS 없이 직접 XFS 파일 시스템을 마운트하지 마십시오.

3.10. mountstats를 사용하여 클라이언트에서 pNFS SCSI 작업 확인

이 절차에서는 /proc/self/mountstats 파일을 사용하여 클라이언트의 pNFS SCSI 작업을 모니터링합니다.

절차

  1. 마운트당 작업 카운터를 나열합니다.

    # cat /proc/self/mountstats \
          | awk /scsi_lun_0/,/^$/ \
          | egrep device\|READ\|WRITE\|LAYOUT
    
    device 192.168.122.73:/exports/scsi_lun_0 mounted on /mnt/rhel7/scsi_lun_0 with fstype nfs4 statvers=1.1
        nfsv4:  bm0=0xfdffbfff,bm1=0x40f9be3e,bm2=0x803,acl=0x3,sessions,pnfs=LAYOUT_SCSI
                READ: 0 0 0 0 0 0 0 0
               WRITE: 0 0 0 0 0 0 0 0
            READLINK: 0 0 0 0 0 0 0 0
             READDIR: 0 0 0 0 0 0 0 0
           LAYOUTGET: 49 49 0 11172 9604 2 19448 19454
        LAYOUTCOMMIT: 28 28 0 7776 4808 0 24719 24722
        LAYOUTRETURN: 0 0 0 0 0 0 0 0
         LAYOUTSTATS: 0 0 0 0 0 0 0 0
  2. 결과에서 다음을 수행합니다.

    • LAYOUT 통계는 클라이언트와 서버가 pNFS SCSI 작업을 사용하는 위치를 나타냅니다.
    • READWRITE 통계는 클라이언트와 서버가 NFS 작업으로 대체되는 요청을 나타냅니다.

3.11. 일반적인 NFS 마운트 옵션

다음은 NFS 공유를 마운트할 때 일반적으로 사용되는 옵션입니다. 이러한 옵션을 사용할 수 있습니다 wth manual mount 명령, /etc/fstab 설정, /etc/fstab .

lookupcache=mode
커널이 지정된 마운트 지점에 대한 디렉토리 항목의 캐시를 관리하는 방법을 지정합니다. 모드에 유효한 인수는 all,none 또는 positive입니다.
nfsvers=version

사용할 NFS 프로토콜의 버전을 지정합니다. 여기서 버전은 3,4,4.0,4.1 또는 4.2 입니다. 이는 여러 NFS 서버를 실행하는 호스트 또는 하위 버전으로 마운트 재시도를 비활성화하는 데 유용합니다. 버전을 지정하지 않으면 NFS는 커널 및 마운트 유틸리티에서 지원하는 최고 버전을 사용합니다.

vers 옵션은 nfsvers 와 동일하며 호환성을 위해 이번 릴리스에 포함됩니다.

noacl
모든 ACL 처리를 끕니다. 이는 최신 ACL 기술이 이전 시스템과 호환되지 않기 때문에 이전 버전의 Red Hat Enterprise Linux, Red Hat Linux 또는 Solaris를 연결할 때 필요할 수 있습니다.
nolock
는 파일 잠금을 비활성화합니다. 이전 NFS 서버에 연결할 때 이 설정이 필요할 수 있습니다.
noexec
마운트된 파일 시스템에서 바이너리 실행을 방지합니다. 이는 시스템이 호환되지 않는 바이너리가 포함된 비 Linux 파일 시스템을 마운트하는 경우 유용합니다.
nosuid
set-user-identifierset-group-identifier 비트를 비활성화합니다. 이렇게 하면 원격 사용자가 setuid 프로그램을 실행하여 더 높은 권한을 얻을 수 없습니다.
port=num
NFS 서버 포트의 숫자 값을 지정합니다. num0 (기본값)인 경우 mount 는 원격 호스트의 rpcbind 서비스에서 사용할 포트 번호를 쿼리합니다. 원격 호스트의 NFS 서비스가 rpcbind 서비스에 등록되지 않은 경우 대신 TCP 2049의 표준 NFS 포트 번호가 사용됩니다.
rsize=numwsize=num

이러한 옵션은 단일 NFS 읽기 또는 쓰기 작업에서 전송할 최대 바이트 수를 설정합니다.

rsize 및 wsize 에 대한 고정 기본값이 없습니다. 기본적으로 NFS는 서버와 클라이언트 모두 지원하는 가능한 최대 값을 사용합니다. Red Hat Enterprise Linux 8에서 클라이언트 및 서버 최대값은 1,048,576바이트입니다. 자세한 내용은 NFS 마운트를 사용하는 rsize 및 wsize의 기본값과 최대값은 what is the default 및 wsize?를참조하십시오. Kbase 기사.

sec=flavors

마운트된 내보내기의 파일에 액세스하는 데 사용할 보안 플레이버입니다. 플레이버 값은 하나 이상의 보안 플레이버로 구성된 콜론으로 구분된 목록입니다.

기본적으로 클라이언트는 클라이언트와 서버가 지원하는 보안 플레이버를 찾습니다. 서버가 선택한 플레이버를 지원하지 않으면 마운트 작업이 실패합니다.

사용 가능한 플레이버:

  • sec=sys 는 로컬 UNIX UID와 GID를 사용합니다. 이러한 use AUTH_SYS 를 사용하여 NFS 작업을 인증합니다.
  • sec=krb5 는 로컬 UNIX UID 및 GID 대신 Kerberos V5를 사용하여 사용자를 인증합니다.
  • sec=krb5i 는 사용자 인증에 Kerberos V5를 사용하고, 데이터 조작을 방지하기 위해 보안 체크섬을 사용하여 NFS 작업을 무결성 검사를 수행합니다.
  • sec=krb5p 는 사용자 인증, 무결성 검사 및 NFS 트래픽을 암호화하여 트래픽 스니핑을 방지하기 위해 Kerberos V5를 사용합니다. 이 설정은 가장 안전한 설정이지만 가장 많은 성능 오버헤드가 포함됩니다.
tcp
TCP 프로토콜을 사용하도록 NFS 마운트에 지시합니다.

추가 리소스

  • mount(8) 도움말 페이지
  • nfs(5) 도움말 페이지

3.12. NFS를 통해 사용자 설정 저장

NFS 홈 디렉터리가 있는 시스템에서 GNOME을 사용하는 경우 dconf 데이터베이스에 대해 keyfile 백엔드를 설정해야 합니다. 그렇지 않으면 dconf 가 제대로 작동하지 않을 수 있습니다. 이 구성을 통해 dconf~/.config/dconf-keyfile/user 파일에 설정을 저장합니다.

절차

  1. glib2-fam 패키지가 시스템에 설치되어 있는지 확인합니다.

    # yum install glib2-fam

    이 패키지가 없으면 원격 시스템에서 변경한 구성 변경에 대한 알림이 올바르게 표시되지 않습니다.

  2. 모든 클라이언트에서 /etc/dconf/profile/user 파일을 생성하거나 편집합니다.
  3. /etc/dconf/profile/user 파일의 시작 부분에 다음 행을 추가합니다.

    service-db:keyfile/user
  4. 사용자가 로그아웃한 후 다시 로그인해야 합니다.

    dconf키 파일 백엔드를 폴링하여 업데이트가 수행되었는지 여부를 확인하므로 설정이 즉시 업데이트되지 않을 수 있습니다.

3.13. FS-Cache 시작하기

FS-Cache는 파일 시스템이 네트워크를 통해 검색된 데이터를 가져와 로컬 디스크에 캐시하는 데 사용할 수 있는 영구 로컬 캐시입니다. 이를 통해 사용자가 네트워크를 통해 마운트된 파일 시스템에서 데이터에 액세스하는 사용자의 네트워크 트래픽을 최소화할 수 있습니다(예: NFS).

3.13.1. FS-Cache 개요

다음 다이어그램은 FS-Cache의 작동 방식에 대한 간략한 그림입니다.

그림 3.1. FS-Cache 개요

FS-Cache 개요

FS-Cache는 시스템의 사용자와 관리자에게 최대한 투명하게 설계되었습니다. Solaris의 cachefs 와 달리 FS-Cache를 사용하면 서버의 파일 시스템이 오버 마운트된 파일 시스템을 생성하지 않고도 서버의 로컬 캐시와 직접 상호 작용할 수 있습니다. NFS를 사용하면 마운트 옵션은 클라이언트에 FS-cache가 활성화된 NFS 공유를 마운트하도록 지시합니다. 마운트 지점은 fscachecachefiles 의 두 커널 모듈에 대해 자동 업로드됩니다. cachefilesd 데몬은 커널 모듈과 통신하여 캐시를 구현합니다.

FS-Cache는 네트워크를 통해 작동하는 파일 시스템의 기본 작동을 변경하지 않습니다. 데이터를 캐시할 수 있는 영구적 위치에 파일 시스템을 제공합니다. 예를 들어, 클라이언트는 FS-Cache가 활성화되어 있는지 여부에 관계없이 NFS 공유를 계속 마운트할 수 있습니다. 또한 캐시된 NFS는 파일을 부분적으로 캐시할 수 있고 전면적으로 읽을 필요가 없기 때문에 캐시에 적합하지 않은(개인적 또는 집합)에 맞지 않는 파일을 처리할 수 있습니다. FS-Cache는 클라이언트 파일 시스템 드라이버에서 캐시에서 발생하는 모든 I/O 오류도 숨깁니다.

캐싱 서비스를 제공하기 위해 FS-Cache에는 캐시 백엔드 가 필요합니다. 캐시 백엔드는 캐싱 서비스를 제공하도록 구성된 스토리지 드라이버로, cachefiles 입니다. 이 경우 FS-Cache에는 bmap 및 확장 속성을 캐시 백엔드로 지원하는 ext3 와 같은 마운트된 블록 기반 파일 시스템이 필요합니다.

FS-Cache 캐시 백엔드에 필요한 기능을 지원하는 파일 시스템에는 다음 파일 시스템의 Red Hat Enterprise Linux 8 구현이 포함됩니다.

  • ext3 (확장 속성이 활성화된 경우)
  • ext4
  • XFS

FS-Cache는 네트워크를 통해 또는 다른 파일 시스템을 임의로 캐시할 수 없습니다. FS-Cache, 데이터 스토리지/리트라이프 및 메타데이터 설정 및 검증과 상호 작용을 허용하도록 공유 파일 시스템의 드라이버를 변경해야 합니다. FS-Cache에는 지속성을 지원하기 위해 캐시된 파일 시스템의 인덱싱 키와 일관성 데이터 가 필요합니다. 즉, 파일 시스템 개체와 개체를 캐시하기 위한 인덱싱 키와 캐시 오브젝트가 유효한지 여부를 결정합니다.

참고

Red Hat Enterprise Linux 8에서 cachefilesd 패키지는 기본적으로 설치되지 않으므로 수동으로 설치해야 합니다.

3.13.2. 성능 보장

FS-Cache는 성능 향상을 보장하지 않습니다. 캐시를 사용하면 성능이 저하됩니다. 예를 들어 캐시된 NFS 공유는 디스크 액세스를 추가하여 네트워크 간 조회에 사용됩니다. FS-Cache는 가능한 비동기적으로 시도하지만 읽기 작업과 같은 동기 경로(예: 이러한 경로가 불가능합니다.

예를 들어 FS-Cache를 사용하여 다른 유실되지 않은 GigE 네트워크를 통해 두 컴퓨터 간에 NFS 공유를 캐시하면 파일 액세스 성능이 향상되었음을 보여주지 않습니다. 오히려 NFS 요청은 로컬 디스크가 아닌 서버 메모리에서 더 빨리 충족됩니다.

따라서 FS-Cache 사용은 다양한 요인 간에 손상 됩니다. 예를 들어 FS-Cache를 사용하여 NFS 트래픽을 캐시하는 경우 클라이언트가 약간 느려질 수 있지만 네트워크 대역폭을 사용하지 않고 로컬에서 읽기 요청을 충족하여 네트워크 및 서버 로드를 크게 줄일 수 있습니다.

3.13.3. NFS에서 캐시 사용

명시적으로 지시하지 않는 한 NFS는 캐시를 사용하지 않습니다. 이 단락에서는 FS-Cache를 사용하여 NFS 마운트를 구성하는 방법을 보여줍니다.

NFS 색인은 파일 이름이 아닌 NFS 파일 핸들을 사용하여 콘텐츠를 캐시합니다. 따라서 하드 연결된 파일이 캐시를 올바르게 공유합니다.

NFS 버전 3, 4.0, 4.1 및 4.2는 캐싱을 지원합니다. 그러나 각 버전은 캐싱에 다양한 분기를 사용합니다.

사전 요구 사항

  • cachefilesd 패키지가 설치되어 실행 중입니다. 실행 중인지 확인하려면 다음 명령을 사용합니다.

    # systemctl start cachefilesd
    # systemctl status cachefilesd

    상태는 활성(실행 중) 이어야 합니다.

절차

  • 다음 옵션을 사용하여 NFS 공유를 마운트합니다.

    # mount nfs-share:/ /mount/point -o fsc

    파일이 직접 I /O나 쓰기에 대해 열려 있지 않은 한 /mount/point 아래의 파일에 대한 모든 액세스는 캐시를 통과합니다.

3.13.4. 캐시 설정

현재 Red Hat Enterprise Linux 8은 cachefiles 캐싱 백엔드만 제공합니다. cachefilesd 데몬은 cachefile을 시작하고 관리합니다. /etc/cachefilesd.conf 파일은 cachefiles 가 캐싱 서비스를 제공하는 방법을 제어합니다.

캐시 백엔드는 캐시를 호스팅하는 파티션에서 특정 여유 공간을 유지 관리하여 작동합니다. 사용 가능한 공간을 사용하는 시스템의 다른 요소에 대한 응답으로 캐시를 늘리고 줄임으로써 루트 파일 시스템(예: 랩탑의 경우)에서 안전하게 사용할 수 있습니다. FS-Cache는 이 동작에서 기본값을 설정하며, 캐시 유추 제한을 통해 구성할 수 있습니다. 캐시 cull 제한 구성에 대한 자세한 내용은 캐시 cull 제한 구성 을 참조하십시오.

다음 절차에서는 캐시 설정 방법을 설명합니다.

사전 요구 사항

  • cachefilesd 패키지가 설치되고 서비스가 성공적으로 시작되었습니다. 서비스가 실행 중인지 확인하려면 다음 명령을 사용합니다.

    # systemctl start cachefilesd
    # systemctl status cachefilesd

    상태는 활성(실행 중) 이어야 합니다.

절차

  1. 캐시 백엔드에서 캐시로 사용할 디렉터리를 구성하려면 다음 매개 변수를 사용합니다.

    $ dir /path/to/cache
  2. 일반적으로 캐시 백엔드 디렉토리는 다음과 같이 /etc/cachefilesd.conf/var/cache/fscache 로 설정됩니다.

    $ dir /var/cache/fscache
  3. 캐시 백엔드 디렉토리를 변경하려면 selinux 컨텍스트가 /var/cache/fscache 와 같아야 합니다.

    # semanage fcontext -a -e /var/cache/fscache /path/to/cache
    # restorecon -Rv /path/to/cache
  4. 캐시를 설정하는 동안 /path/to/cache 를 디렉토리 이름으로 바꿉니다.
  5. selinux 컨텍스트를 설정하는 데 지정된 명령이 작동하지 않는 경우 다음 명령을 사용합니다.

    # semanage permissive -a cachefilesd_t
    # semanage permissive -a cachefiles_kernel_t

    FS-Cache는 /path/to/cache 를 호스팅하는 파일 시스템에 캐시를 저장합니다. 랩탑에서는 루트 파일 시스템(/)을 호스트 파일 시스템으로 사용하는 것이 좋지만 데스크탑 시스템의 경우 특히 캐시에 대해 디스크 파티션을 마운트하는 것이 더 좋습니다.

  6. 호스트 파일 시스템은 사용자 정의 확장 속성을 지원해야 합니다. FS-Cache는 이러한 속성을 사용하여 일관성 유지 관리 정보를 저장합니다. ext3 파일 시스템이 있는 장치에서 사용자 정의 확장 속성을 활성화하려면 다음을 입력합니다.

    # tune2fs -o user_xattr /dev/device
  7. 마운트 시 파일 시스템의 확장 속성을 활성화하려면 대체 방법으로 다음 명령을 사용합니다.

    # mount /dev/device /path/to/cache -o user_xattr
  8. 구성 파일이 제 위치에 있으면 cachefilesd 서비스를 시작합니다.

    # systemctl start cachefilesd
  9. 부팅 시 시작되도록 cachefilesd 를 구성하려면 다음 명령을 root로 실행합니다.

    # systemctl enable cachefilesd

3.13.5. NFS 캐시 공유 구성

NFS 캐시 공유와 관련하여 몇 가지 잠재적인 문제가 있습니다. 캐시는 영구적이기 때문에 캐시의 데이터 블록은 4개의 키 시퀀스로 인덱싱됩니다.

  • 레벨 1: 서버 세부 정보
  • 수준 2: 일부 마운트 옵션, 보안 유형, FSID, 유니쿼터
  • 레벨 3: 파일 핸들러
  • 레벨 4: 파일의 페이지 번호

수퍼 블록 간의 일관성 관리 문제를 방지하기 위해 데이터를 캐시해야 하는 모든 NFS 수퍼 블록에는 고유한 수준 2 키가 있습니다. 일반적으로 동일한 소스 볼륨 및 옵션이 있는 두 개의 NFS 마운트는 수퍼 블록을 공유하므로 해당 볼륨 내에 다른 디렉터리를 마운트하더라도 캐싱을 공유합니다.

다음은 다른 옵션으로 캐시 공유를 구성하는 방법의 예입니다.

절차

  1. 다음 명령을 사용하여 NFS 공유를 마운트합니다.

    mount home0:/disk0/fred /home/fred -o fsc
    mount home0:/disk0/jim /home/jim -o fsc

    여기서 /home/fred/home/jim 은 특히 NFS 서버의 동일한 볼륨/파티션(home0)에서 가져온 경우 동일한 옵션이 있는 수퍼 블록을 공유할 수있습니다.

  2. 수퍼 블록을 공유하지 않으려면 다음 옵션과 함께 mount 명령을 사용하십시오.

    mount home0:/disk0/fred /home/fred -o fsc,rsize=8192
    mount home0:/disk0/jim /home/jim -o fsc,rsize=65536

    이 경우 /home/fred/home/jim 은 수준 2 키의 일부인 네트워크 액세스 매개 변수가 다르므로 수퍼 블록을 공유하지 않습니다.

  3. 두 하위 트리(/home/fred1 및 /home/fred2)의 내용을 두 번 캐시하려면 수퍼 블록을 공유하지 않고 다음 명령을 사용합니다.

    mount home0:/disk0/fred /home/fred1 -o fsc,rsize=8192
    mount home0:/disk0/fred /home/fred2 -o fsc,rsize=65536
  4. 수퍼 블록 공유를 방지하는 또 다른 방법은 nosharecache 매개 변수를 사용하여 명시적으로 억제하는 것입니다. 동일한 예제 사용:

    mount home0:/disk0/fred /home/fred -o nosharecache,fsc
    mount home0:/disk0/jim /home/jim -o nosharecache,fsc

    그러나 이 경우 레벨 2 키를 home0:/disk0/fred 및 home0:/disk0/ jim 으로 구분할 수 없으므로 수퍼 블록 중 하나만 캐시를 사용할 수 있습니다.

  5. 수퍼 블록에 대한 주소 지정을 지정하려면 fsc=unique-identifier 마운트 옵션을 사용하여 마운트 중 하나 이상에 고유 식별자 를 설정합니다. 예를 들면 다음과 같습니다.

    mount home0:/disk0/fred /home/fred -o nosharecache,fsc
    mount home0:/disk0/jim /home/jim -o nosharecache,fsc=jim

    여기에서 고유 식별자 지m은 /home/ jim 의 캐시에 사용되는 수준 2 키에 추가됩니다.

중요

사용자는 서로 다른 통신 또는 프로토콜 매개 변수가 있는 수퍼 블록 간에 캐시를 공유할 수 없습니다. 예를 들어 NFSv4.0과 NFSv3 간에 또는 NFSv4.1과 NFSv4.2 간에 공유할 수 없습니다. 서로 다른 수퍼 블록을 강제 적용하기 때문입니다. 또한 읽기 크기(rsize) 등의 매개 변수를 설정하면 다른 수퍼 블록을 강제 적용하므로 캐시 공유를 방지합니다.

3.13.6. NFS의 캐시 제한 사항

NFS의 몇 가지 캐시 제한 사항은 다음과 같습니다.

  • 직접 I/O를 위해 공유 파일 시스템에서 파일을 열면 자동으로 캐시를 무시합니다. 이 유형의 액세스는 서버에 직접 연결되어 있어야 하기 때문입니다.
  • 공유 파일 시스템에서 직접 I/O 또는 쓰기를 위해 파일을 열면 캐시된 파일 사본이 플러시됩니다. FS-Cache는 더 이상 직접 I/O 또는 쓰기를 위해 열리지 않을 때까지 파일을 다시 캐시하지 않습니다.
  • 또한 이 FS-Cache 릴리스는 일반 NFS 파일만 캐시합니다. FS-Cache는 디렉토리, 심볼릭 링크, 장치 파일, FIFO 및 소켓을 캐시 하지 않습니다.

3.13.7. 캐시 쉘 제한 설정

cachefilesd 데몬은 공유 파일 시스템에서 디스크의 여유 공간을 확보하도록 원격 데이터를 캐싱하여 작동합니다. 이렇게 하면 사용 가능한 모든 여유 공간을 사용할 수 있으므로 디스크에 루트 파티션도 포함되어 있는 경우 좋지 않을 수 있습니다. 이를 제어하기 위해 cachefilesd 는 캐시에서 이전 오브젝트(예: less-recently accessed objects)를 삭제하여 특정 양의 사용 가능한 공간을 유지하려고 합니다. 이 동작을 캐시 계산이라고 합니다.

캐시 계산은 블록의 백분율과 기본 파일 시스템에서 사용할 수 있는 파일의 백분율을 기반으로 수행됩니다. 6개 제한을 제어하는 /etc/cachefilesd.conf 에 설정이 있습니다.

Brun N% (블록의 백분율), frun N% (파일 백분율)
사용 가능한 공간의 양과 캐시의 사용 가능한 파일 수가 이러한 제한보다 증가하면 계산이 꺼집니다.
bcull N% (블록의 백분율), fcull N% (파일 백분율)
사용 가능한 공간의 크기 또는 캐시의 파일 수가 이러한 제한 중 하나로 떨어지면 계산이 시작됩니다.
bstop N% (블록의 백분율), fstop N% (파일 백분율)
사용 가능한 공간의 크기 또는 캐시의 사용 가능한 파일 수가 이러한 제한 중 하나로 떨어지면 계산에서 이러한 제한보다 위의 항목이 발생할 때까지 디스크 공간 또는 파일의 추가 할당이 허용되지 않습니다.

각 설정에 대한 기본값 N 은 다음과 같습니다.

  • Brun/frun - 10%
  • bcull/fcull - 7%
  • bstop/fstop - 3%

이러한 설정을 구성할 때 다음 사항이 충족되어야 합니다.

  • 0 ECDHE bstop < bcull < brun < 100
  • 0 ECDHE F STOP < fcull < frun < 100

이 값은 사용 가능한 공간과 사용 가능한 파일의 백분율이며 df 프로그램에 의해 표시되는 백분율을 100 -로 표시되지 않습니다.

중요

분석은 bxxx와 f xxx 쌍 모두에 동시에 달라집니다. 사용자는 이를 별도로 처리할 수 없습니다.

3.13.8. fscache 커널 모듈에서 통계 정보 검색

FS-Cache는 일반 통계 정보도 추적합니다. 다음 절차에서는 이 정보를 얻는 방법을 설명합니다.

절차

  1. FS-Cache에 대한 통계 정보를 보려면 다음 명령을 사용합니다.

    # cat /proc/fs/fscache/stats

FS-Cache 통계에는 의사 결정 지점 및 개체 카운터에 대한 정보가 포함됩니다. 자세한 내용은 다음 커널 문서를 참조하십시오.

/usr/share/doc/kernel-doc-4.18.0/Documentation/filesystems/caching/fscache.txt

3.13.9. FS-Cache 참조

이 섹션에서는 FS-Cache에 대한 참조 정보를 제공합니다.

  1. cachefilesd 및 구성 방법에 대한 자세한 내용은 man cachefilesdman cachefilesd.conf 를 참조하십시오. 다음 커널 문서는 다음과 같은 추가 정보도 제공합니다.

    • /usr/share/doc/cachefilesd/README
    • /usr/share/man/man5/cachefilesd.conf.5.gz
    • /usr/share/man/man8/cachefilesd.8.gz
  2. 설계 제약 조건, 사용 가능한 통계 및 기능에 대한 세부 사항을 포함하여 FS-Cache에 대한 일반 정보는 다음 커널 문서를 참조하십시오.

    /usr/share/doc/kernel-doc-4.18.0/Documentation/filesystems/caching/fscache.txt

4장. SMB 공유 마운트

SMB(Server Message Block) 프로토콜은 파일 공유 및 공유 프린터와 같은 서버의 리소스에 액세스하는 데 사용되는 애플리케이션 계층 네트워크 프로토콜을 구현합니다.

참고

SMB의 맥락에서 SMB의 전화인 CIFS(Common Internet File System) 프로토콜에 대한 언급이 있습니다. SMB 및 CIFS 프로토콜이 모두 지원되며 SMB 및 CIFS 공유 마운트에 관련된 커널 모듈과 유틸리티는 모두 cifs 라는 이름을 사용합니다.

cifs-utils 패키지는 다음을 위한 유틸리티를 제공합니다.

  • SMB 및 CIFS 공유 마운트
  • 커널 인증 키에서 NTLM(NT LAN Manager) 인증 정보 관리
  • SMB 및 CIFS 공유의 보안 설명자에 ACL(액세스 제어 목록) 설정 및 표시

4.1. 지원되는 SMB 프로토콜 버전

cifs.ko 커널 모듈은 다음 SMB 프로토콜 버전을 지원합니다.

  • SMB 1

    주의

    SMB1 프로토콜은 알려진 보안 문제로 인해 더 이상 사용되지 않으며 사설 네트워크에서만 사용할 수 있습니다. SMB1이 지원되는 옵션으로 제공되는 주된 이유는 현재 UNIX 확장 기능을 지원하는 유일한 SMB 프로토콜 버전이기 때문입니다. SMB에서 UNIX 확장 기능을 사용할 필요가 없는 경우 Red Hat은 SMB2 이상을 사용하는 것이 좋습니다.

  • SMB 2.0
  • SMB 2.1
  • SMB 3.0
  • SMB 3.1.1
참고

프로토콜 버전에 따라 일부 SMB 기능이 구현되지는 않습니다.

4.2. UNIX 확장 지원

Samba는 SMB 프로토콜에서 CAP_UNIX 기능 비트를 사용하여 UNIX 확장 기능을 제공합니다. 이러한 확장 기능은 cifs.ko 커널 모듈에서도 지원합니다. 그러나 Samba 및 커널 모듈 모두 SMB 1 프로토콜에서만 UNIX 확장을 지원합니다.

사전 요구 사항

  • cifs-utils 패키지가 설치되어 있습니다.

절차

  1. /etc/samba/smb.conf 파일의 [global] 섹션에서 server min protocol 매개 변수를 NT1 로 설정합니다.
  2. mount 명령에 -o vers=1.0 옵션을 제공하여 SMB 1 프로토콜을 사용하여 공유를 마운트합니다. 예를 들면 다음과 같습니다.

    # mount -t cifs -o vers=1.0,username=<user_name> //<server_name>/<share_name> /mnt/

    기본적으로 커널 모듈은 SMB 2 또는 서버에서 지원하는 가장 높은 최신 프로토콜 버전을 사용합니다. -o vers=1.0 옵션을 mount 명령에 전달하면 커널 모듈에서 UNIX 확장 기능을 사용하는 데 필요한 SMB 1 프로토콜을 강제로 사용합니다.

검증

  • 마운트된 공유의 옵션을 표시합니다.

    # mount
    ...
    //<server_name>/<share_name> on /mnt type cifs (...,unix,...)

    unix 항목이 마운트 옵션 목록에 표시되면 UNIX 확장 기능이 활성화됩니다.

4.3. 수동으로 SMB 공유 마운트

SMB 공유 영역만 임시로 마운트해야 하는 경우 mount 유틸리티를 사용하여 수동으로 마운트할 수 있습니다.

참고

시스템을 재부팅할 때 수동으로 마운트된 공유 영역은 자동으로 마운트되지 않습니다. 시스템이 부팅될 때 Red Hat Enterprise Linux가 자동으로 공유를 마운트하도록 구성하려면 시스템이 부팅 될 때 SMB 공유 마운트를 자동으로 참조하십시오.

사전 요구 사항

  • cifs-utils 패키지가 설치되어 있습니다.

절차

  • -t cifs 매개변수와 함께 마운트 유틸리티를 사용하여 SMB 공유를 마운트합니다.

    # mount -t cifs -o username=<user_name> //<server_name>/<share_name> /mnt/
    Password for <user_name>@//<server_name>/<share_name>:  password

    o 매개 변수에서 공유를 마운트하는 데 사용되는 옵션을 지정할 수 있습니다. 자세한 내용은 mount.cifs(8) 도움말 페이지의 OPTIONS 섹션 및 자주 사용되는 마운트 옵션을 참조하십시오.

    예 4.1. 암호화된 SMB 3.0 연결을 사용하여 공유 마운트

    암호화된 SMB 3.0 연결을 통해 /mnt/ 디렉터리에 \\ AIN\Administrator 사용자로 \\server\example\ 공유를 마운트하려면 다음을 수행합니다.

    # mount -t cifs -o username=DOMAIN\Administrator,seal,vers=3.0 //server/example /mnt/
    Password for DOMAIN\Administrator@//server_name/share_name:  password

검증

  • 마운트된 공유의 콘텐츠를 나열합니다.

    # ls -l /mnt/
    total 4
    drwxr-xr-x.  2 root root 8748 Dec  4 16:27 test.txt
    drwxr-xr-x. 17 root root 4096 Dec  4 07:43 Demo-Directory

4.4. 시스템을 부팅할 때 SMB 공유 자동 마운트

마운트된 SMB 공유에 대한 액세스가 서버에 영구적으로 필요한 경우 부팅 시 공유를 자동으로 마운트합니다.

사전 요구 사항

  • cifs-utils 패키지가 설치되어 있습니다.

절차

  1. 공유 항목을 /etc/fstab 파일에 추가합니다. 예를 들면 다음과 같습니다.

    //<server_name>/<share_name>  /mnt  cifs  credentials=/root/smb.cred  0 0
    중요

    시스템에서 공유를 자동으로 마운트할 수 있도록 하려면 사용자 이름, 암호 및 도메인 이름을 자격 증명 파일에 저장해야 합니다. 자세한 내용은 SMB 공유에 인증하기 위한 자격 증명 파일 생성을참조하십시오.

    /etc/fstab 행의 네 번째 필드에서 자격 증명 파일의 경로와 같은 마운트 옵션을 지정합니다. 자세한 내용은 mount.cifs(8) 도움말 페이지의 OPTIONS 섹션 및 자주 사용되는 마운트 옵션을 참조하십시오.

검증

  • 마운트 지점을 지정하여 공유를 마운트합니다.

    # mount /mnt/

4.5. SMB 공유에 인증할 자격 증명 파일 만들기

부팅 시 공유를 자동으로 마운트하는 등의 특정 상황에서는 사용자 이름과 암호를 입력하지 않고 공유를 마운트해야 합니다. 이를 구현하려면 자격 증명 파일을 만듭니다.

사전 요구 사항

  • cifs-utils 패키지가 설치되어 있습니다.

절차

  1. /root/smb.cred 와 같은 파일을 생성하고 해당 파일의 사용자 이름, 암호 및 도메인 이름을 지정합니다.

    username=user_name
    password=password
    domain=domain_name
  2. 소유자가 파일에 액세스할 수 있도록 권한을 설정합니다.

    # chown user_name /root/smb.cred
    # chmod 600 /root/smb.cred

이제 credentials=file_name 마운트 옵션을 마운트 유틸리티에 전달하거나 /etc/fstab 파일에서 사용자 이름과 암호를 입력하라는 메시지가 표시되지 않고 공유를 마운트할 수 있습니다.

4.6. 다중 사용자 SMB 마운트 수행

공유를 마운트하기 위해 제공하는 자격 증명은 기본적으로 마운트 지점에 대한 액세스 권한을 결정합니다. 예를 들어 공유를 마운트하는 경우 로컬 사용자가 작업을 수행하는지 여부에 관계없이 공유의 모든 작업이 이 사용자로 실행됩니다.

그러나 관리자가 시스템 부팅 시 공유를 자동으로 마운트하려고 하지만 사용자는 자신의 자격 증명을 사용하여 공유 콘텐츠에서 작업을 수행해야 합니다. 다중 사용자 마운트 옵션을 사용하면 이 시나리오를 구성할 수 있습니다.

중요

다중 사용자 마운트 옵션을 사용하려면 자격 증명 파일을 사용하여 krb5 또는 ntlmssp 옵션과 같은 비대화형 방식으로 자격 증명 제공을 지원하는 보안 유형으로 추가적으로 sec 마운트 옵션을 설정해야 합니다. 자세한 내용은 사용자로 공유 액세스를 참조하십시오.

root 사용자는 multiuser 옵션과 공유 콘텐츠에 대한 최소 액세스 권한이 있는 계정을 사용하여 공유를 마운트합니다. 그런 다음 일반 사용자는 cifscreds 유틸리티를 사용하여 현재 세션의 커널 인증 키에 사용자 이름과 암호를 제공할 수 있습니다. 사용자가 마운트된 공유의 콘텐츠에 액세스하는 경우 커널은 공유를 마운트하는 데 처음 사용된 것이 아니라 커널 인증 키의 자격 증명을 사용합니다.

이 기능은 다음 단계로 구성됩니다.

사전 요구 사항

  • cifs-utils 패키지가 설치되어 있습니다.

4.6.1. multiuser 옵션을 사용하여 공유 마운트

사용자가 자신의 자격 증명으로 공유에 액세스하기 전에 제한된 권한이 있는 계정을 사용하여 공유를 root 사용자로 마운트합니다.

절차

시스템이 부팅될 때 multiuser 옵션을 사용하여 공유를 자동으로 마운트하려면 다음을 수행합니다.

  1. /etc/fstab 파일에 공유에 대한 항목을 만듭니다. 예를 들면 다음과 같습니다.

    //server_name/share_name  /mnt  cifs  multiuser,sec=ntlmssp,credentials=/root/smb.cred  0 0
  2. 공유를 마운트합니다.

    # mount /mnt/

시스템이 부팅될 때 공유를 자동으로 마운트하지 않으려면 -o multiuser,sec=security_typemount 명령에 전달하여 수동으로 마운트합니다. 수동으로 SMB 공유 마운트에 대한 자세한 내용은 SMB 공유 수동으로 마운트를 참조하십시오.

4.6.2. 다중 사용자 옵션을 사용하여 SMB 공유가 마운트되었는지 확인

multiuser 옵션을 사용하여 공유가 마운트되었는지 확인하려면 마운트 옵션을 표시합니다.

절차

# mount
...
//server_name/share_name on /mnt type cifs (sec=ntlmssp,multiuser,...)

다중 사용자 항목이 마운트 옵션 목록에 표시되면 기능이 활성화됩니다.

4.6.3. 사용자로 공유에 액세스

다중 사용자 옵션을 사용하여 SMB 공유를 마운트하는 경우 사용자는 서버에 대한 자격 증명을 커널 인증 키에 제공할 수 있습니다.

# cifscreds add -u SMB_user_name server_name
Password: password

사용자가 마운트된 SMB 공유가 포함된 디렉터리에서 작업을 수행하면 서버는 공유가 마운트될 때 처음 사용된 항목 대신 이 사용자에 대한 파일 시스템 권한을 적용합니다.

참고

여러 사용자가 마운트된 공유에서 동시에 자체 자격 증명을 사용하여 작업을 수행할 수 있습니다.

4.7. 자주 사용되는 SMB 마운트 옵션

SMB 공유를 마운트하면 마운트 옵션이 결정됩니다.

  • 서버와의 연결 설정 방법. 예를 들어 서버에 연결할 때 사용되는 SMB 프로토콜 버전은 무엇입니까.
  • 공유를 로컬 파일 시스템에 마운트하는 방법. 예를 들어 시스템이 원격 파일 및 디렉터리 권한을 재정의하여 여러 로컬 사용자가 서버의 콘텐츠에 액세스할 수 있도록 하는 경우.

/etc/fstab 파일의 네 번째 필드 또는 mount 명령의 -o 매개 변수에 옵션을 여러 개 설정하려면 쉼표로 구분합니다. 예를 들어 multiuser 옵션을 사용하여 공유 마운트를 참조하십시오.

다음 목록은 자주 사용되는 마운트 옵션을 제공합니다.

옵션설명

credentials=file_name

자격 증명 파일의 경로를 설정합니다. 자격 증명 파일을 사용하여 SMB 공유에 인증 을 참조하십시오.

dir_mode=mode

서버가 CIFS UNIX 확장을 지원하지 않는 경우 디렉터리 모드를 설정합니다.

file_mode=mode

서버가 CIFS UNIX 확장 기능을 지원하지 않는 경우 파일 모드를 설정합니다.

password=password

SMB 서버에 인증하는 데 사용되는 암호를 설정합니다. 또는 credentials 옵션을 사용하여 자격 증명 파일을 지정합니다.

봉인

SMB 3.0 또는 이후 프로토콜 버전을 사용하여 연결에 대한 암호화 지원을 활성화합니다. 따라서 vers 마운트 옵션을 3.0 이상으로 설정하여 seal 을 사용합니다. SMB 공유 수동 마운트의 예를 참조하십시오.

sec=security_mode

NTLMv2 암호 해시 및 활성화된 패킷 서명을 활성화하도록 ntlmsspi 와 같은 보안 모드를 설정합니다. 지원되는 값 목록은 mount.cifs(8) 도움말 페이지의 옵션의 설명을 참조하십시오.

서버가 ntlmv2 보안 모드를 지원하지 않는 경우 기본값인 sec=ntlmssp 를 사용합니다.

보안상의 이유로 비보안 ntlm 보안 모드를 사용하지 마십시오.

username=user_name

SMB 서버 인증에 사용되는 사용자 이름을 설정합니다. 또는 credentials 옵션을 사용하여 자격 증명 파일을 지정합니다.

vers=SMB_protocol_version

서버와의 통신에 사용되는 SMB 프로토콜 버전을 설정합니다.

전체 목록은 mount.cifs(8) 도움말 페이지의 OPTIONS 섹션을 참조하십시오.

5장. 영구 이름 지정 속성 개요

시스템 관리자는 영구 명명 속성을 사용하여 여러 시스템 부팅을 통해 신뢰할 수 있는 스토리지 설정을 빌드하는 스토리지 볼륨을 참조해야 합니다.

5.1. 비영구적 명명 속성의 단점

Red Hat Enterprise Linux는 스토리지 장치를 식별하는 다양한 방법을 제공합니다. 특히 드라이브에 설치하거나 다시 포맷할 때 잘못된 장치에 실수로 액세스하지 않으려면 올바른 옵션을 사용하여 각 장치를 식별하는 것이 중요합니다.

전통적으로 /dev/sd(주 번호)형식의 비영구적 이름은 Linux에서 스토리지 장치를 참조하기 위해사용됩니다. 주요 번호 범위 및 부 번호 범위 및 관련 sd 이름은 감지되면 각 장치에 할당됩니다. 즉, 장치 탐지 순서가 변경되면 주요 번호 범위와 연결된 sd 이름 간의 연결이 변경될 수 있습니다.

이러한 순서 변경은 다음과 같은 상황에서 발생할 수 있습니다.

  • 시스템 부팅 프로세스의 병렬화는 각 시스템 부팅 시 다른 순서로 스토리지 장치를 감지합니다.
  • 디스크의 전원을 켜거나 SCSI 컨트롤러에 응답하지 못합니다. 그러면 일반 장치 프로브에서 검색되지 않습니다. 디스크는 시스템에서 액세스할 수 없으며 그 이후의 장치에는 연결된 sd 이름이 아래로 이동한 등 주요 번호 및 부 번호가 있습니다. 예를 들어 일반적으로 sdb 라고 하는 디스크를 탐지하지 않으면 일반적으로 as sdc 라고 하는 디스크가 sdb 로 표시됩니다.
  • SCSI 컨트롤러(호스트 버스 어댑터 또는 HBA)를 초기화하지 못하면 해당 HBA에 연결된 모든 디스크를 탐지하지 않습니다. 나중에 조사하는 HBA에 연결된 모든 디스크에는 서로 다른 주요 및 부 번호 범위가 할당되며 다양한 관련 sd 이름이 할당됩니다.
  • 시스템에 다른 유형의 HBA가 있으면 드라이버 초기화 순서가 변경됩니다. 이로 인해 해당 HBA에 연결된 디스크가 다른 순서로 탐지됩니다. HBA가 시스템의 다른 PCI 슬롯으로 이동되는 경우에도 발생할 수 있습니다.
  • Fibre 채널, iSCSI 또는 FCoE 어댑터를 사용하여 시스템에 연결된 디스크는 스토리지 장치를 프로브할 때 액세스할 수 없을 수 있습니다(예: 스토리지 어레이 또는 교차 스위치의 전원이 꺼짐). 이 문제는 정전 후 시스템을 재부팅할 때 시스템을 부팅하는 것보다 스토리지 어레이가 온라인 상태가 되는 데 시간이 오래 걸리는 경우 발생할 수 있습니다. 일부 파이버 채널 드라이버는 WWPN 매핑에 영구 SCSI 대상 ID를 지정하는 메커니즘을 지원하지만 이는 주요 번호 범위와 연결된 sd 이름을 예약하지 않습니다. 일관된 SCSI 대상 ID 번호만 제공합니다.

이러한 이유로 /etc/fstab 파일에서와 같이 장치를 참조할 때 주 번호 범위 또는 관련 sd 이름을 사용하는 것이 바람직하지 않게 합니다. 잘못된 장치가 마운트되고 데이터 손상이 발생할 수 있습니다.

그러나 경우에 따라 장치가 오류를 보고하는 경우와 같이 다른 메커니즘을 사용하는 경우에도 sd 이름을 참조해야 합니다. 이는 Linux 커널이 장치와 관련된 커널 메시지에서 sd 이름(및 SCSI host/channel/target/LUNples)을 사용하기 때문입니다.

5.2. 파일 시스템 및 장치 식별자

이 섹션에서는 파일 시스템 및 블록 장치를 식별하는 영구 속성의 차이점에 대해 설명합니다.

파일 시스템 식별자

파일 시스템 식별자는 블록 장치에 생성된 특정 파일 시스템과 연결됩니다. 식별자는 파일 시스템의 일부로도 저장됩니다. 파일 시스템을 다른 장치로 복사해도 여전히 동일한 파일 시스템 식별자를 전달합니다. 반면, mkfs 유틸리티로 포맷하는 등 장치를 다시 작성하는 경우 장치는 속성이 손실됩니다.

파일 시스템 식별자는 다음과 같습니다.

  • 고유 식별자 (UUID)
  • 레이블

장치 식별자

장치 식별자는 블록 장치(예: 디스크 또는 파티션)에 연결됩니다. mkfs 유틸리티로 포맷하는 등의 장치를 다시 작성하는 경우 장치는 파일 시스템에 저장되지 않기 때문에 속성을 유지합니다.

장치 식별자는 다음과 같습니다.

  • WWID(WWID)
  • 파티션 UUID
  • 일련 번호

권장 사항

  • 논리 볼륨과 같은 일부 파일 시스템은 여러 장치에 걸쳐 있습니다. Red Hat은 장치 식별자가 아닌 파일 시스템 식별자를 사용하여 이러한 파일 시스템에 액세스하는 것을 권장합니다.

5.3. /dev/disk/의 udev 메커니즘에서 관리하는 장치 이름

udev 메커니즘은 Linux의 모든 유형의 장치에 사용되며 스토리지 장치에만 국한되지 않습니다. /dev/disk/ 디렉터리에 다양한 종류의 영구 이름 지정 속성을 제공합니다. 스토리지 장치의 경우 Red Hat Enterprise Linux에는 /dev/disk/ 디렉터리에 심볼릭 링크를 생성하는 udev 규칙이 포함되어 있습니다. 이를 통해 다음을 통해 스토리지 장치를 참조할 수 있습니다.

  • 해당 콘텐츠
  • 고유 식별자
  • 일련 번호.

udev 명명 속성은 영구적이지만 시스템 재부팅 시 자체적으로 변경되지 않지만 일부 속성도 구성할 수 있습니다.

5.3.1. 파일 시스템 식별자

/dev/disk/by-uuid/의 UUID 속성

이 디렉터리의 항목은 장치에 저장된 콘텐츠(즉, 데이터)의 고유 식별자 (UUID)로 스토리지 장치를 참조하는 심볼릭 이름을 제공합니다. 예를 들면 다음과 같습니다.

/dev/disk/by-uuid/3e6be9de-8139-11d1-9106-a43f08d823a6

UUID를 사용하여 다음 구문으로 /etc/fstab 파일의 장치를 참조할 수 있습니다.

UUID=3e6be9de-8139-11d1-9106-a43f08d823a6

파일 시스템을 만들 때 UUID 속성을 구성할 수 있으며 나중에 변경할 수도 있습니다.

/dev/disk/by-label/의 Label 속성

이 디렉터리의 항목은 장치에 저장된 콘텐츠(즉, 데이터)의 레이블 별로 스토리지 장치를 참조하는 심볼릭 이름을 제공합니다.

예를 들면 다음과 같습니다.

/dev/disk/by-label/Boot

라벨을 사용하여 다음 구문으로 /etc/fstab 파일의 장치를 참조할 수 있습니다.

LABEL=Boot

파일 시스템을 생성할 때 Label 속성을 구성할 수 있으며 나중에 변경할 수도 있습니다.

5.3.2. 장치 식별자

/dev/disk/by-id/의 WWID 속성

WWID(World Wide Identifier)는 SCSI 표준에서 모든 SCSI 장치에서 요구하는 영구적인 시스템 독립 식별자 입니다. WWID 식별자는 모든 스토리지 장치에 대해 고유하며 장치에 액세스하는 데 사용되는 경로와 독립적입니다. 식별자는 장치의 속성이지만 장치의 콘텐츠(즉, 데이터)에 저장되지 않습니다.

이 식별자는 장치 식별 Vital Product Data(0 x83 페이지) 또는 유닛 일련 번호 (0x80페이지)를 검색하기 위해 SCSI Inquiry를 발행하여 가져올 수 있습니다.

Red Hat Enterprise Linux는 WWID 기반 장치 이름에서 해당 시스템의 현재 /dev/sd 이름으로의 적절한 매핑을 자동으로 유지합니다. 애플리케이션은 /dev/disk/by-id/ 이름을 사용하여 장치 경로가 변경되더라도, 여러 시스템에서 장치에 액세스하는 경우에도 디스크의 데이터를 참조할 수 있습니다.

예 5.1. WWID 매핑

WWID symlink비영구적 장치참고

/dev/disk/by-id/scsi-3600508b400105e210000900000490000

/dev/sda

페이지가 0x83 식별자인 장치

/dev/disk/by-id/scsi-SSEAGATE_ST373453LW_3HW1RHM6

/dev/sdb

페이지가 0x80 식별자인 장치

/dev/disk/by-id/ata-SAMSUNG_MZNLN256HMHQ-000L7_S2WDNX0J336519-part3

/dev/sdc3

디스크 파티션

시스템에서 제공하는 이러한 영구 이름 외에도 udev 규칙을 사용하여 스토리지의 WWID에 매핑되는 고유한 영구 이름을 구현할 수도 있습니다.

/dev/disk/by-partuuid의 파티션 UUID 속성

PARTUUID(파티션 UUID) 특성은 GPT 파티션 테이블에 정의된 파티션을 식별합니다.

예 5.2. 파티션 UUID 매핑

PARTUUID symlink비영구적 장치

/dev/disk/by-partuuid/4cd1448a-01

/dev/sda1

/dev/disk/by-partuuid/4cd1448a-02

/dev/sda2

/dev/disk/by-partuuid/4cd1448a-03

/dev/sda3

/dev/disk/by-path/의 Path 속성

이 특성은 장치에 액세스하는 데 사용되는 하드웨어 경로에서 스토리지 장치를 참조하는 심볼릭 이름을 제공합니다.

Path 속성은 하드웨어 경로의 일부(예: PCI ID, 대상 포트 또는 LUN 번호)가 변경되면 실패합니다. 따라서 Path 속성은 신뢰할 수 없습니다. 그러나 Path 속성은 다음 시나리오 중 하나에서 유용할 수 있습니다.

  • 나중에 교체할 디스크를 식별해야 합니다.
  • 특정 위치에 있는 디스크에 스토리지 서비스를 설치할 계획입니다.

5.4. DM Multipath를 사용한 전 세계 식별자

WWID(WWID)와 비영구 장치 이름 간에 매핑되도록 DM(Device Mapper) Multipath를 구성할 수 있습니다.

시스템에서 장치로 이동하는 경로가 여러 개인 경우 DM Multipath는 WWID를 사용하여 이를 탐지합니다. 그런 다음 DM Multipath는 /dev/mapper/wwid 디렉터리에 /dev/mapper/3600508b400105df70000e00000ac0000 에 하나의 "pseudo-device"를 표시합니다.

multipath -l 명령은 비영구 식별자에 대한 매핑을 표시합니다.

  • Host:Channel:Target:LUN
  • /dev/sd 이름
  • major:마이너 번호

예 5.3. 다중 경로 구성의 WWID 매핑

multipath -l 명령의 출력 예:

3600508b400105df70000e00000ac0000 dm-2 vendor,product
[size=20G][features=1 queue_if_no_path][hwhandler=0][rw]
\_ round-robin 0 [prio=0][active]
 \_ 5:0:1:1 sdc 8:32  [active][undef]
 \_ 6:0:1:1 sdg 8:96  [active][undef]
\_ round-robin 0 [prio=0][enabled]
 \_ 5:0:0:1 sdb 8:16  [active][undef]
 \_ 6:0:0:1 sdf 8:80  [active][undef]

DM Multipath는 각 WWID 기반 장치 이름의 적절한 매핑을 시스템의 해당 /dev/sd 이름에 자동으로 유지합니다. 이러한 이름은 경로 변경 시 영구적이며 서로 다른 시스템에서 장치에 액세스할 때 일관적입니다.

DM Multipath의 user_friendly_names 기능을 사용하면 WWID가 /dev/mapper/mpathN 형식의 이름에 매핑됩니다. 기본적으로 이 매핑은 /etc/multipath/bindings 파일에서 유지됩니다. 이러한 mpathN 이름은 해당 파일이 유지되는 동안 유지됩니다.

중요

user_friendly_names 를 사용하는 경우 클러스터에서 일관된 이름을 얻으려면 추가 단계가 필요합니다.

5.5. udev 장치 명명 규칙의 제한 사항

다음은 udev 명명 규칙의 몇 가지 제한 사항입니다.

  • udev 메커니즘이 udev 이벤트에 대해 udev 규칙이 처리될 때 스토리지 장치를 쿼리하는 기능을 사용할 수 있으므로 쿼리를 수행할 때 장치에 액세스할 수 없습니다. 서버가 서버 섀시에 있지 않은 경우 파이버 채널, iSCSI 또는 FCoE 스토리지 장치에서 이 문제가 발생할 가능성이 높습니다.
  • 커널은 언제든지 udev 이벤트를 보낼 수 있으므로 규칙이 처리되고 장치에 액세스할 수 없는 경우 /dev/disk/by-*/ 링크가 제거될 수 있습니다.
  • udev 이벤트가 생성되고 많은 장치가 감지되고 사용자 공간 udev d 서비스에서 각 이벤트를 처리하는 데 약간의 시간이 걸리는 경우와 같이 udev 이벤트가 생성될 때 사이에 지연이 발생할 수 있습니다. 이로 인해 커널이 장치를 감지하는 경우와 /dev/disk/by-*/ 이름을 사용할 수 있는 시기 사이에 지연이 발생할 수 있습니다.
  • 규칙에서 호출한 blkid 와 같은 외부 프로그램은 잠시 동안 장치를 열 수 있으므로 다른 용도로는 장치에 액세스할 수 없습니다.
  • /dev/disk/의 udev 메커니즘에서 관리하는 장치 이름은 주요 릴리스 간에 변경될 수 있으므로 링크를 업데이트해야 합니다.

5.6. 영구 이름 지정 속성 나열

이 절차에서는 비영구적 스토리지 장치의 영구 이름 지정 속성을 찾는 방법을 설명합니다.

절차

  • UUID 및 레이블 속성을 나열하려면 lsblk 유틸리티를 사용합니다.

    $ lsblk --fs storage-device

    예를 들면 다음과 같습니다.

    예 5.4. 파일 시스템의 UUID 및 레이블 보기

    $ lsblk --fs /dev/sda1
    
    NAME FSTYPE LABEL UUID                                 MOUNTPOINT
    sda1 xfs    Boot  afa5d5e3-9050-48c3-acc1-bb30095f3dc4 /boot
  • PARTUUID 특성을 나열하려면 --output +PARTUUID 옵션과 함께 lsblk 유틸리티를 사용합니다.

    $ lsblk --output +PARTUUID

    예를 들면 다음과 같습니다.

    예 5.5. 파티션의 PARTUUID 속성 보기

    $ lsblk --output +PARTUUID /dev/sda1
    
    NAME MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT PARTUUID
    sda1   8:1    0  512M  0 part /boot      4cd1448a-01
  • WWID 특성을 나열하려면 /dev/disk/by-id/ 디렉터리에 있는 심볼릭 링크의 대상을 검사합니다. 예를 들면 다음과 같습니다.

    예 5.6. 시스템의 모든 스토리지 장치의 WWID 보기

    $ file /dev/disk/by-id/*
    
    /dev/disk/by-id/ata-QEMU_HARDDISK_QM00001
    symbolic link to ../../sda
    /dev/disk/by-id/ata-QEMU_HARDDISK_QM00001-part1
    symbolic link to ../../sda1
    /dev/disk/by-id/ata-QEMU_HARDDISK_QM00001-part2
    symbolic link to ../../sda2
    /dev/disk/by-id/dm-name-rhel_rhel8-root
    symbolic link to ../../dm-0
    /dev/disk/by-id/dm-name-rhel_rhel8-swap
    symbolic link to ../../dm-1
    /dev/disk/by-id/dm-uuid-LVM-QIWtEHtXGobe5bewlIUDivKOz5ofkgFhP0RMFsNyySVihqEl2cWWbR7MjXJolD6g
    symbolic link to ../../dm-1
    /dev/disk/by-id/dm-uuid-LVM-QIWtEHtXGobe5bewlIUDivKOz5ofkgFhXqH2M45hD2H9nAf2qfWSrlRLhzfMyOKd
    symbolic link to ../../dm-0
    /dev/disk/by-id/lvm-pv-uuid-atlr2Y-vuMo-ueoH-CpMG-4JuH-AhEF-wu4QQm
    symbolic link to ../../sda2

5.7. 영구 이름 지정 속성 수정

다음 절차에서는 파일 시스템의 UUID 또는 레이블 영구 명명 속성을 변경하는 방법을 설명합니다.

참고

udev 속성 변경은 백그라운드에서 수행되며 시간이 오래 걸릴 수 있습니다. udevadm spring 명령은 변경 사항이 완전히 등록될 때까지 대기하여 다음 명령이 새 특성을 올바르게 활용할 수 있도록 합니다.

다음 명령에서 다음을 수행합니다.

  • new-uuid 를 설정할 UUID로 바꿉니다(예: 1cdfbc07-1c90-4984-b5ec-f61943f5ea50). uuidgen 명령을 사용하여 UUID를 생성할 수 있습니다.
  • new-label 을 레이블로 바꿉니다(예: backup_data ).

사전 요구 사항

  • XFS 파일 시스템의 속성을 수정하는 경우 먼저 마운트 해제합니다.

절차

  • XFS 파일 시스템의 UUID 또는 레이블 속성을 변경하려면 xfs_admin 유틸리티를 사용합니다.

    # xfs_admin -U new-uuid -L new-label storage-device
    # udevadm settle
  • ext4, ext3 또는 ext 2 파일 시스템의 UUID 또는 레이블 속성을 변경하려면 tune2fs 유틸리티를 사용합니다.

    # tune2fs -U new-uuid -L new-label storage-device
    # udevadm settle
  • 스왑 볼륨의 UUID 또는 레이블 속성을 변경하려면 swaplabel 유틸리티를 사용합니다.

    # swaplabel --uuid new-uuid --label new-label swap-device
    # udevadm settle

6장. parted를 사용하는 파티션 작업

parted 는 디스크 파티션을 조작하는 프로그램입니다. MS-DOS 및 GPT를 포함한 여러 파티션 테이블 형식을 지원합니다. 새로운 운영 체제의 공간을 만들고, 디스크 사용량을 재구성하고, 데이터를 새 하드 디스크에 복사하는 데 유용합니다.

6.1. parted로 파티션 테이블 보기

블록 장치의 파티션 테이블을 표시하여 파티션 레이아웃과 개별 파티션에 대한 세부 정보를 확인합니다. parted 유틸리티를 사용하여 블록 장치에서 파티션 테이블을 볼 수 있습니다.

절차

  1. parted 유틸리티를 시작합니다. 예를 들어 다음 출력에는 /dev/sda 가 나열됩니다.

    # parted /dev/sda
  2. 파티션 테이블 보기:

    # (parted) print
    
    Model: ATA SAMSUNG MZNLN256 (scsi)
    Disk /dev/sda: 256GB
    Sector size (logical/physical): 512B/512B
    Partition Table: msdos
    Disk Flags:
    
    Number  Start   End     Size    Type      File system  Flags
     1      1049kB  269MB   268MB   primary   xfs          boot
     2      269MB   34.6GB  34.4GB  primary
     3      34.6GB  45.4GB  10.7GB  primary
     4      45.4GB  256GB   211GB   extended
     5      45.4GB  256GB   211GB   logical
  3. 선택 사항: 다음을 검사하려는 장치로 전환합니다.

    # (parted) select block-device

출력 명령 출력에 대한 자세한 설명은 다음을 참조하십시오.

모델: ATA SAMSUNG MZNLN256 (scsi)
디스크 유형, 제조업체, 모델 번호 및 인터페이스.
디스크 /dev/sda: 256GB
블록 장치 및 스토리지 용량의 파일 경로입니다.
파티션 테이블: msdos
디스크 레이블 유형입니다.
숫자
파티션 번호입니다. 예를 들어, 번호가 1인 파티션은 /dev/sda1 에 해당합니다.
시작종료
파티션을 시작하고 종료하는 장치의 위치입니다.
유형
유효한 유형은 metadata, free, primary, 확장 또는 논리입니다.
파일 시스템
파일 시스템 유형입니다. 장치의 파일 시스템 필드에 값이 표시되지 않으면 파일 시스템 유형을 알 수 없음을 의미합니다. parted 유틸리티는 암호화된 장치에서 파일 시스템을 인식할 수 없습니다.
플래그
파티션에 설정된 플래그를 나열합니다. 사용 가능한 플래그는 boot,root,swap,hidden,raid,lvm 또는 lba 입니다.

추가 리소스

  • parted(8) 도움말 페이지.

6.2. parted가 있는 디스크에 파티션 테이블 만들기

parted 유틸리티를 사용하여 파티션 테이블로 블록 장치를 보다 쉽게 포맷합니다.

주의

파티션 테이블로 블록 장치를 포맷하면 장치에 저장된 모든 데이터가 삭제됩니다.

절차

  1. 대화식 parted 쉘을 시작합니다.

    # parted block-device
  2. 장치에 파티션 테이블이 이미 있는지 확인합니다.

    # (parted) print

    장치에 이미 파티션이 포함된 경우 다음 단계에서 삭제됩니다.

  3. 새 파티션 테이블을 만듭니다.

    # (parted) mklabel table-type
    • table-type 을 원하는 파티션 테이블 유형으로 바꿉니다.

      • MBR 용 MS DOS
      • GPT GPT

    예 6.1. GUID 파티션 테이블(GPT) 만들기

    디스크에 GPT 테이블을 만들려면 다음을 사용합니다.

    # (parted) mklabel gpt

    이 명령을 입력한 후 변경 사항이 적용되기 시작합니다.

  4. 파티션 테이블을 보고 해당 테이블이 생성되었는지 확인합니다.

    # (parted) print
  5. parted 쉘을 종료합니다.

    # (parted) quit

추가 리소스

  • parted(8) 도움말 페이지.

6.3. parted로 파티션 만들기

시스템 관리자는 parted 유틸리티를 사용하여 디스크에 새 파티션을 만들 수 있습니다.

참고

필요한 파티션은 스왑,/boot/, 및 / (root) 입니다.

사전 요구 사항

  • 디스크의 파티션 테이블입니다.
  • 생성하려는 파티션이 2TiB보다 크면 GUID 파티션 테이블(GPT) 으로 디스크를 포맷합니다.

절차

  1. parted 유틸리티를 시작합니다.

    # parted block-device
  2. 현재 파티션 테이블을 보고 사용 가능한 공간이 충분한지 확인합니다.

    # (parted) print
    • 사용 가능한 공간이 충분하지 않은 경우 파티션의 크기를 조정합니다.
    • 파티션 테이블에서 다음을 결정합니다.

      • 새 파티션의 시작 및 끝점입니다.
      • MBR의 경우 어떤 파티션 유형이 필요합니까.
  3. 새 파티션을 만듭니다.

    # (parted) mkpart part-type name fs-type start end
    • part-type기본,논리 또는 확장으로 바꿉니다. MBR 파티션 테이블에만 적용됩니다.
    • 이름을 임의의 파티션 이름으로 바꿉니다. GPT 파티션 테이블에 필요합니다.
    • fs-typexfs,ext2,ext3,ext4,fat16,fat32,hfs,hfs+, linux-swap,ntfs 또는 reiserfs 로 바꿉니다. fs-type 매개변수는 선택 사항입니다. parted 유틸리티는 파티션에 파일 시스템을 생성하지 않습니다.
    • startend 를 파티션의 시작 및 종료 지점을 결정하는 크기로 바꾸고 디스크 시작부터 계산합니다. 512MiB,20GiB 또는 1.5TiB 와 같은 크기 접미사를 사용할 수 있습니다. 기본 크기는 메가바이트입니다.

    예 6.2. 작은 기본 파티션 만들기

    1024MiB에서 STATUS 테이블의 기본 파티션을 2048MiB까지 만들려면 다음을 사용합니다.

    # (parted) mkpart primary 1024MiB 2048MiB

    변경 사항은 명령을 입력한 후 적용을 시작합니다.

  4. 파티션 테이블을 보고 생성된 파티션이 올바른 파티션 유형, 파일 시스템 유형 및 크기의 파티션 테이블에 있는지 확인합니다.

    # (parted) print
  5. parted 쉘을 종료합니다.

    # (parted) quit
  6. 새 장치 노드를 등록합니다.

    # udevadm settle
  7. 커널이 새 파티션을 인식하는지 확인합니다.

    # cat /proc/partitions

6.4. parted로 파티션 제거

parted 유틸리티를 사용하면 디스크 파티션을 제거하여 디스크 공간을 확보할 수 있습니다.

주의

파티션을 제거하면 파티션에 저장된 모든 데이터가 삭제됩니다.

절차

  1. 대화식 parted 쉘을 시작합니다.

    # parted block-device
    • 블록 장치를 파티션을 제거하려는 장치의 경로로 바꿉니다(예: /dev/sda ).
  2. 현재 파티션 테이블을 보고 삭제할 파티션의 마이너 수를 결정합니다.

    (parted) print
  3. 파티션을 제거합니다.

    (parted) rm minor-number
    • minor-number 를 제거하려는 파티션의 마이너 번호로 바꿉니다.

    변경 사항은 이 명령을 입력하는 즉시 적용을 시작합니다.

  4. 파티션 테이블에서 파티션을 제거했는지 확인합니다.

    (parted) print
  5. parted 쉘을 종료합니다.

    (parted) quit
  6. 커널이 파티션이 제거되었는지 확인합니다.

    # cat /proc/partitions
  7. /etc/fstab 파일이 있는 경우 파티션을 제거합니다. 제거된 파티션을 선언하는 행을 찾아 파일에서 제거합니다.
  8. 시스템이 새 /etc/fstab 구성을 등록하도록 마운트 장치를 다시 생성합니다.

    # systemctl daemon-reload
  9. 스왑 파티션을 삭제하거나 LVM을 제거한 경우 커널 명령줄에서 파티션에 대한 모든 참조를 제거하십시오.

    1. 활성 커널 옵션을 나열하고 옵션이 제거된 파티션을 참조하는지 확인합니다.

      # grubby --info=ALL
    2. 삭제된 파티션을 참조하는 커널 옵션을 제거합니다.

      # grubby --update-kernel=ALL --remove-args="option"
  10. 초기 부팅 시스템에서 변경 사항을 등록하려면 initramfs 파일 시스템을 다시 빌드합니다.

    # dracut --force --verbose

추가 리소스

  • parted(8) 도움말 페이지

6.5. parted로 파티션 크기 조정

parted 유틸리티를 사용하여 사용하지 않는 디스크 공간을 사용하도록 파티션을 확장하거나 다른 용도로 용량을 사용하도록 파티션을 축소합니다.

사전 요구 사항

  • 파티션을 축소하기 전에 데이터를 백업합니다.
  • 생성하려는 파티션이 2TiB보다 크면 GUID 파티션 테이블(GPT) 으로 디스크를 포맷합니다.
  • 파티션을 축소하려면 먼저 크기가 조정된 파티션보다 크지 않도록 파일 시스템을 축소합니다.
참고

XFS는 축소를 지원하지 않습니다.

절차

  1. parted 유틸리티를 시작합니다.

    # parted block-device
  2. 현재 파티션 테이블을 확인합니다.

    # (parted) print

    파티션 테이블에서 다음을 결정합니다.

    • 파티션의 마이너 번호입니다.
    • 크기 조정 후 기존 파티션 및 해당 새 종료 지점의 위치입니다.
  3. 파티션 크기를 조정합니다.

    # (parted) resizepart 1 2GiB
    • 1 을 크기 조정 중인 파티션의 마이너 번호로 바꿉니다.
    • 2 를 크기가 조정된 파티션의 새 끝 지점을 결정하는 크기로 바꾸고 디스크 처음부터 계산합니다. 512MiB,20GiB 또는 1.5TiB 와 같은 크기 접미사를 사용할 수 있습니다. 기본 크기는 메가바이트입니다.
  4. 파티션 테이블을 보고 크기 조정 파티션이 올바른 크기의 파티션 테이블에 있는지 확인합니다.

    # (parted) print
  5. parted 쉘을 종료합니다.

    # (parted) quit
  6. 커널이 새 파티션을 등록하는지 확인합니다.

    # cat /proc/partitions
  7. 선택 사항: 파티션을 확장한 경우 파일 시스템도 확장합니다.

7장. 디스크 재파티션을 위한 전략

디스크를 다시 분할하는 방법은 다양합니다. 여기에는 다음이 포함됩니다.

  • 파티션되지 않은 여유 공간을 사용할 수 있습니다.
  • 사용되지 않은 파티션을 사용할 수 있습니다.
  • 활발하게 사용되는 파티션의 여유 공간을 사용할 수 있습니다.
참고

다음 예제는 명확성을 위해 단순화되며 Red Hat Enterprise Linux를 실제로 설치할 때 정확한 파티션 레이아웃을 반영하지 않습니다.

7.1. 파티션되지 않은 여유 공간 사용

이미 정의되어 있고 전체 하드 디스크에 걸쳐 있지 않은 파티션은 정의된 파티션에 속하지 않는 할당되지 않은 공간을 남겨 둡니다. 다음 다이어그램에서는 이것이 어떻게 보이는지 보여줍니다.

그림 7.1. 여유 공간이 파티션되지 않은 디스크

공간을 분리하지 않음

첫 번째 다이어그램은 하나의 기본 파티션과 할당되지 않은 공간이 있는 정의되지 않은 파티션이 있는 디스크를 나타냅니다. 두 번째 다이어그램은 공간이 할당된 두 개의 정의된 파티션이 있는 디스크를 나타냅니다.

사용하지 않는 하드 디스크도 이 범주에 속합니다. 유일한 차이점은 모든 공간이 정의된 파티션의 일부가 아니라는 것입니다.

새 디스크에서 사용되지 않는 공간을 통해 필요한 파티션을 만들 수 있습니다. 대부분의 사전 설치된 운영 체제는 디스크 드라이브에서 사용 가능한 모든 공간을 차지하도록 구성됩니다.

7.2. 사용되지 않은 파티션의 공간 사용

다음 예에서 첫 번째 다이어그램은 사용되지 않은 파티션이 있는 디스크를 나타냅니다. 두 번째 다이어그램은 Linux에서 사용되지 않은 파티션을 찾는 것을 나타냅니다.

그림 7.2. 사용되지 않는 파티션이 있는 디스크

사용하지 않는 파티션

사용되지 않은 파티션에 할당된 공간을 사용하려면 파티션을 삭제한 다음 적절한 Linux 파티션을 만듭니다. 또는 설치 프로세스 중에 사용되지 않은 파티션을 삭제하고 새 파티션을 수동으로 만듭니다.

7.3. 활성 파티션의 여유 공간 사용

이 프로세스에는 이미 사용 중인 활성 파티션에 필요한 여유 공간이 포함되어 있으므로 이 프로세스를 관리하기 어려울 수 있습니다. 대부분의 경우 소프트웨어가 사전 설치된 컴퓨터 하드 디스크에는 운영 체제 및 데이터를 보유한 더 큰 파티션이 포함되어 있습니다.

주의

활성 파티션에서 운영 체제(OS)를 사용하려면 OS를 다시 설치해야 합니다. 사전 설치된 소프트웨어를 포함하는 일부 컴퓨터는 원래 OS를 재설치하기 위한 설치 미디어를 포함하지 않습니다. 원래 파티션과 OS 설치를 제거하기 전에 이것이 OS에 적용되는지 확인하십시오.

사용 가능한 여유 공간 사용을 최적화하기 위해, 안전하지 않거나 파괴되지 않은 재파운딩 방법을 사용할 수 있습니다.

7.3.1. destructive repartitioning

안전하지 않은 재파티션은 하드 드라이브에서 파티션을 제거하고 대신 작은 여러 파티션을 만듭니다. 이 방법을 사용하면 전체 내용이 삭제되므로 원래 파티션에서 필요한 모든 데이터를 백업하십시오.

기존 운영 체제에 대해 더 작은 파티션을 생성한 후 다음을 수행할 수 있습니다.

  • 소프트웨어 재설치.
  • 데이터를 복원합니다.
  • Red Hat Enterprise Linux 설치를 시작하십시오.

다음 다이어그램은 안전하지 않은 repartitioning 방법 사용에 대한 단순화된 표현입니다.

그림 7.3. 디스크에서 안전하지 않은 재파티셔닝 작업

dstrct reprt
주의

이 방법은 원래 파티션에 이전에 저장된 모든 데이터를 삭제합니다.

7.3.2. 안전하지 않은 재파티셔닝

데이터 손실 없이 파티션 재파티브 크기 조정이 지연되지 않습니다. 이 방법은 신뢰할 수 있지만 큰 드라이브에서 처리 시간이 오래 걸립니다.

다음은 거부된 복원을 시작하는 데 도움이 될 수 있는 메서드 목록입니다.

  • 기존 데이터 압축

일부 데이터의 저장 위치는 변경할 수 없습니다. 이렇게 하면 파티션이 필요한 크기로 크기를 조정하는 것을 방지할 수 있으며 궁극적으로 안전하지 않은 재파티션 프로세스가 발생할 수 있습니다. 이미 존재하는 파티션의 데이터를 압축하면 필요에 따라 파티션의 크기를 조정하는 데 도움이 될 수 있습니다. 또한 사용 가능한 공간을 최대화하는 데 도움이 될 수 있습니다.

다음 다이어그램은 이 프로세스를 간단하게 나타냅니다.

그림 7.4. 디스크의 데이터 압축

압축

가능한 데이터 손실을 방지하려면 압축 프로세스를 계속하기 전에 백업을 만듭니다.

  • 기존 파티션의 크기 조정

기존 파티션의 크기를 조정하면 더 많은 공간을 확보할 수 있습니다. 소프트웨어 크기 조정에 따라 결과가 다를 수 있습니다. 대부분의 경우 원래 파티션과 동일한 유형의 포맷되지 않은 새 파티션을 만들 수 있습니다.

크기 조정 후 수행하는 단계는 사용하는 소프트웨어에 따라 달라질 수 있습니다. 다음 예제에서 가장 좋은 방법은 새 ClusterTask (Disk Operating System) 파티션을 삭제하고 대신 Linux 파티션을 만드는 것입니다. 크기 조정 프로세스를 시작하기 전에 디스크에 가장 적합한 항목을 확인합니다.

그림 7.5. 디스크의 파티션 크기 조정

부분 크기 조정
  • 선택 사항: 새 파티션 생성

소프트웨어 크기 조정 중 일부는 Linux 기반 시스템을 지원합니다. 이러한 경우 크기 조정 후 새로 생성된 파티션을 삭제할 필요가 없습니다. 나중에 새 파티션을 만드는 것은 사용하는 소프트웨어에 따라 다릅니다.

다음 다이어그램은 새 파티션을 만들기 전과 후에 디스크 상태를 나타냅니다.

그림 7.6. 최종 파티션 설정으로 디스크

nondestruct pin

8장. XFS 시작하기

다음은 XFS 파일 시스템을 생성하고 유지 관리하는 방법에 대한 개요입니다.

8.1. XFS 파일 시스템

XFS는 단일 호스트에서 대용량 파일과 파일 시스템을 지원하는 확장성이 뛰어난 고성능, 강력하고 성숙한 64비트 저널링 파일 시스템입니다. Red Hat Enterprise Linux 8의 기본 파일 시스템입니다. XFS는 원래 1990년대 초 SGI에 의해 개발되었으며 매우 큰 서버 및 스토리지 어레이에서 오랫동안 실행되어 왔습니다.

XFS의 기능은 다음과 같습니다.

신뢰성
  • 메타데이터 저널링: 시스템을 다시 시작할 때 재생할 수 있는 파일 시스템 작업 기록을 유지하고 파일 시스템을 다시 마운트하여 시스템 충돌 후 파일 시스템 무결성을 보장합니다.
  • 광범위한 런타임 메타데이터 일관성 검사
  • 확장 가능하고 빠른 복구 유틸리티
  • 쿼터 저널링. 따라서 충돌 후 긴 할당량 일관성 검사가 필요하지 않습니다.
확장 및 성능
  • 지원되는 파일 시스템 크기는 1024TiB까지
  • 다수의 동시 운영 지원 기능
  • 여유 공간 관리의 확장성을 위한 B-tree 인덱싱
  • 정교한 메타 데이터 읽기-ahead 알고리즘
  • 동영상 워크로드를 스트리밍하기 위한 최적화
할당 체계
  • 익스텐트 기반 할당
  • 스트라이프 인식 정책
  • 지연된 할당
  • 공백 사전 할당
  • 동적으로 할당된 inode
기타 기능
  • reflink 기반 파일 복사
  • 긴밀하게 통합된 백업 및 복원 유틸리티
  • 온라인 조각 모음
  • 온라인 파일 시스템 확장
  • 포괄적인 진단 기능
  • 확장 속성(xattr). 이렇게 하면 시스템이 파일당 여러 추가 이름/값 쌍을 연결할 수 있습니다.
  • 프로젝트 또는 디렉터리 할당량. 이렇게 하면 디렉터리 트리에 대한 할당량 제한이 허용됩니다.
  • 서브초 타임스탬프

성능 특징

XFS는 엔터프라이즈 워크로드가 포함된 대규모 시스템에서 고성능을 제공합니다. 대규모 시스템은 비교적 많은 CPU 수, 여러 HBA 및 외부 디스크 어레이 연결을 사용하는 시스템입니다. XFS는 멀티 스레드 병렬 I/O 워크로드가 있는 소규모 시스템에서도 우수한 성능을 제공합니다.

XFS는 단일 스레드의 메타데이터를 많이 사용하는 워크로드(예: 단일 스레드에서 다수의 작은 파일을 생성하거나 삭제하는 워크로드)의 성능이 상대적으로 낮습니다.

8.2. ext4 및 XFS와 함께 사용되는 도구 비교

이 섹션에서는 ext4 및 XFS 파일 시스템에서 일반적인 작업을 수행하는 데 사용할 툴을 비교합니다.

Taskext4XFS

파일 시스템 만들기

mkfs.ext4

mkfs.xfs

파일 시스템 검사

e2fsck

xfs_repair

파일 시스템 크기 조정

resize2fs

xfs_growfs

파일 시스템의 이미지 저장

e2image

xfs_eatadumpxfs_mdrestore

파일 시스템 레이블 지정 또는 튜닝

tune2fs

xfs_admin

파일 시스템 백업

덤프복원

xfsdumpxfsrestore

할당량 관리

할당량

xfs_quota

파일 매핑

filefrag

xfs_bmap

9장. XFS 파일 시스템 생성

시스템 관리자는 블록 장치에 XFS 파일 시스템을 생성하여 파일과 디렉터리를 저장할 수 있습니다.

9.1. mkfs.xfs를 사용하여 XFS 파일 시스템 생성

다음 절차에서는 블록 장치에서 XFS 파일 시스템을 생성하는 방법을 설명합니다.

절차

  1. 파일 시스템을 생성하려면 다음을 수행합니다.

    • 장치가 일반 파티션인 경우 LVM 볼륨, MD 볼륨, 디스크 또는 유사한 장치인 경우 다음 명령을 사용합니다.

      # mkfs.xfs block-device
      • block-device 를 블록 장치의 경로로 바꿉니다. 예를 들어 /dev/sdb1,/dev/disk/by-uuid/05e99ec8-def1-4a5e-8a9d-5945339ceb2a 또는 /dev/my-volgroup/my-lv 입니다.
      • 일반적으로 기본 옵션은 일반적인 용도에 적합합니다.
      • 기존 파일 시스템이 포함된 블록 장치에서 mkfs.xfs 를 사용하는 경우 -f 옵션을 추가하여 해당 파일 시스템을 덮어씁니다.
    • 하드웨어 RAID 장치에서 파일 시스템을 생성하려면 시스템이 장치의 스트라이프를 올바르게 감지하는지 확인합니다.

      • 스트라이프 정보가 올바른 경우 추가 옵션이 필요하지 않습니다. 파일 시스템을 생성합니다.

        # mkfs.xfs block-device
      • 정보가 올바르지 않으면 -d 옵션의 susw 매개 변수를 사용하여 스트라이프를 수동으로 지정합니다. su 매개 변수는 RAID 청크 크기를 지정하고 sw 매개 변수는 RAID 장치의 데이터 디스크 수를 지정합니다.

        예를 들면 다음과 같습니다.

        # mkfs.xfs -d su=64k,sw=4 /dev/sda3
  2. 다음 명령을 사용하여 시스템이 새 장치 노드를 등록할 때까지 기다립니다.

    # udevadm settle

추가 리소스

  • mkfs.xfs(8) 도움말 페이지.

10장. XFS 파일 시스템 백업

시스템 관리자는 xfsdump 를 사용하여 XFS 파일 시스템을 파일 또는 테이프에 백업할 수 있습니다. 이는 간단한 백업 메커니즘을 제공합니다.

10.1. XFS 백업의 기능

이 섹션에서는 xfsdump 유틸리티를 사용하여 XFS 파일 시스템을 백업하는 주요 개념과 기능에 대해 설명합니다.

xfsdump 유틸리티를 사용하여 다음을 수행할 수 있습니다.

  • 일반 파일 이미지에 대한 백업을 수행합니다.

    백업은 일반 파일에 한 개만 쓸 수 있습니다.

  • 테이프 드라이브에 백업을 수행합니다.

    xfsdump 유틸리티를 사용하면 동일한 테이프에 여러 백업을 작성할 수도 있습니다. 백업은 여러 개의 테이프에 걸쳐 있을 수 있습니다.

    하나의 테이프 장치로 여러 파일 시스템을 백업하려면 XFS 백업이 이미 포함된 테이프에 백업을 작성하면 됩니다. 그러면 이전 백업에 새 백업이 추가됩니다. 기본적으로 xfsdump 는 기존 백업을 덮어쓰지 않습니다.

  • 증분 백업 생성.

    xfsdump 유틸리티는 덤프 수준을 사용하여 다른 백업이 상대적인 기본 백업을 결정합니다. 0에서 9 사이의 숫자는 덤프 수준을 높이는 것을 나타냅니다. 증분 백업은 더 낮은 수준의 마지막 덤프 이후 변경된 파일만 백업합니다.

    • 전체 백업을 수행하려면 파일 시스템에서 수준 0 덤프를 수행합니다.
    • 레벨 1 덤프는 전체 백업 후 첫 번째 증분 백업입니다. 다음 증분 백업은 수준 2로, 마지막 레벨 1 덤프 이후 변경된 파일만 백업하는 등 최대 레벨 9로 백업됩니다.
  • size, subtree 또는 inode 플래그를 사용하여 백업에서 파일을 제외하여 필터링합니다.

추가 리소스

  • xfsdump(8) 도움말 페이지.

10.2. xfsdump를 사용하여 XFS 파일 시스템 백업

다음 절차에서는 XFS 파일 시스템의 콘텐츠를 파일 또는 테이프로 백업하는 방법을 설명합니다.

사전 요구 사항

  • 백업할 수 있는 XFS 파일 시스템입니다.
  • 백업을 저장할 수 있는 다른 파일 시스템 또는 테이프 드라이브.

절차

  • 다음 명령을 사용하여 XFS 파일 시스템을 백업합니다.

    # xfsdump -l level [-L label] \
              -f backup-destination path-to-xfs-filesystem
    • 수준을 백업의 덤프 수준으로 바꿉니다. 0 을 사용하여 전체 백업 또는 1 - 9 를 수행하여 이에 해당하는 증분 백업을 수행합니다.
    • backup-destination 을 백업을 저장하려는 경로로 바꿉니다. 대상은 일반 파일, 테이프 드라이브 또는 원격 테이프 장치일 수 있습니다. 예를 들어 파일의 경우 /backup-files/Data.xfsdump, 테이프 드라이브의 경우 /dev/st0 입니다.
    • path-to-xfs-filesystem 을 백업하려는 XFS 파일 시스템의 마운트 지점으로 교체합니다. 예를 들면 /mnt/data/ 입니다. 파일 시스템을 마운트해야 합니다.
    • 여러 파일 시스템을 백업하고 단일 테이프 장치에 저장할 때 -L 레이블 옵션을 사용하여 세션 레이블을 각 백업에 추가하여 복원 시 쉽게 식별할 수 있습니다. 레이블을 백업의 이름(예: backup_data )으로 바꿉니다.

예 10.1. 여러 XFS 파일 시스템 백업

  • /boot/ 및 / data/ 디렉터리에 마운트된 XFS 파일 시스템의 콘텐츠를 백업하고 / backup-files/ 디렉터리에 파일로 저장하려면 다음을 수행합니다.

    # xfsdump -l 0 -f /backup-files/boot.xfsdump /boot
    # xfsdump -l 0 -f /backup-files/data.xfsdump /data
  • 단일 테이프 장치에서 여러 파일 시스템을 백업하려면 -L 레이블 옵션을 사용하여 각 백업에 세션 레이블을 추가합니다.

    # xfsdump -l 0 -L "backup_boot" -f /dev/st0 /boot
    # xfsdump -l 0 -L "backup_data" -f /dev/st0 /data

추가 리소스

  • xfsdump(8) 도움말 페이지.

10.3. 추가 리소스

  • xfsdump(8) 매뉴얼 페이지

11장. 백업에서 XFS 파일 시스템 복원

시스템 관리자는 xfsrestore 유틸리티를 사용하여 xfs dump 유틸리티로 생성된 XFS 백업을 파일 또는 테이프에 저장할 수 있습니다.

11.1. 백업에서 XFS 복원의 기능

xfsrestore 유틸리티는 xfsdump 에서 생성한 백업에서 파일 시스템을 복원합니다. xfsrestore 유틸리티에는 다음 두 가지 모드가 있습니다.

  • 단순 모드를 사용하면 사용자가 전체 파일 시스템을 수준 0 덤프에서 복원할 수 있습니다. 이는 기본값 모드입니다.
  • 누적 모드를 사용하면 증분 백업(즉, 레벨 1에서 수준 9)으로 파일 시스템을 복원할 수 있습니다.

고유한 세션 ID 또는 세션 레이블 은 각 백업을 식별합니다. 여러 백업이 포함된 테이프에서 백업을 복원하려면 해당 세션 ID 또는 레이블이 필요합니다.

백업에서 특정 파일을 추출, 추가 또는 삭제하려면 xfsrestore 대화형 모드를 입력합니다. 대화형 모드는 백업 파일을 조작할 수 있는 명령 집합을 제공합니다.

추가 리소스

  • xfsrestore(8) 도움말 페이지.

11.2. xfsrestore를 사용하여 백업에서 XFS 파일 시스템 복원

다음 절차에서는 파일 또는 테이프 백업에서 XFS 파일 시스템의 콘텐츠를 복원하는 방법을 설명합니다.

사전 요구 사항

절차

  • 백업을 복원하는 명령은 전체 백업 또는 증분식에서 복원하는지 여부에 따라 다르거나 단일 테이프 장치에서 여러 백업을 복원하는지 여부에 따라 다릅니다.

    # xfsrestore [-r] [-S session-id] [-L session-label] [-i]
                 -f backup-location restoration-path
    • backup-location 을 백업 위치로 교체합니다. 이는 일반 파일, 테이프 드라이브 또는 원격 테이프 장치일 수 있습니다. 예를 들어 파일의 경우 /backup-files/Data.xfsdump, 테이프 드라이브의 경우 /dev/st0 입니다.
    • restore -path 를 파일 시스템을 복원하려는 디렉토리의 경로로 바꿉니다. 예를 들면 /mnt/data/ 입니다.
    • 증분식(레벨 1에서 수준 9) 백업에서 파일 시스템을 복원하려면 -r 옵션을 추가합니다.
    • 여러 백업이 포함된 테이프 장치에서 백업을 복원하려면 -S 또는 - L 옵션을 사용하여 백업을 지정합니다.

      S 옵션을 사용하면 세션 ID로 백업을 선택할 수 있지만 -L 옵션을 사용하면 세션 레이블로 선택할 수 있습니다. 세션 ID 및 세션 레이블을 얻으려면 xfsrestore -I 명령을 사용합니다.

      session-id 를 백업의 세션 ID로 바꿉니다. 예를 들면 b74a3586-e52e-4a4a-8775-c3334fa8ea2c 입니다. session-label 을 백업의 session 레이블로 바꿉니다. 예를 들면 my_backup_session_label 입니다.

    • xfsrestore 를 대화식으로 사용하려면 -i 옵션을 사용합니다.

      대화식 대화 상자는 xfsrestore 가 지정된 장치 읽기를 마친 후에 시작됩니다. 대화형 xfsrestore 쉘에서 사용 가능한 명령에는 cd,ls,add,delete, extract 가 있습니다. 전체 명령 목록은 help 명령을 사용합니다.

예 11.1. 여러 XFS 파일 시스템 복원

  • XFS 백업 파일을 복원하고 /mnt/ 아래의 디렉터리에 내용을 저장하려면 다음을 수행하십시오.

    # xfsrestore -f /backup-files/boot.xfsdump /mnt/boot/
    # xfsrestore -f /backup-files/data.xfsdump /mnt/data/
  • 여러 백업이 포함된 테이프 장치에서 복원하려면 세션 레이블 또는 세션 ID로 각 백업을 지정합니다.

    # xfsrestore -L "backup_boot" -f /dev/st0 /mnt/boot/
    # xfsrestore -S "45e9af35-efd2-4244-87bc-4762e476cbab" \
                 -f /dev/st0 /mnt/data/

추가 리소스

  • xfsrestore(8) 도움말 페이지.

11.3. 테이프에서 XFS 백업을 복원할 때 정보 메시지

여러 파일 시스템의 백업으로 테이프에서 백업을 복원할 때 xfsrestore 유틸리티에서 메시지를 발행할 수 있습니다. 이 메시지는 xfsrestore 가 테이프의 각 백업을 순차적으로 검사할 때 요청된 백업과 일치하는지 여부를 알려줍니다. 예를 들면 다음과 같습니다.

xfsrestore: preparing drive
xfsrestore: examining media file 0
xfsrestore: inventory session uuid (8590224e-3c93-469c-a311-fc8f23029b2a) does not match the media header's session uuid (7eda9f86-f1e9-4dfd-b1d4-c50467912408)
xfsrestore: examining media file 1
xfsrestore: inventory session uuid (8590224e-3c93-469c-a311-fc8f23029b2a) does not match the media header's session uuid (7eda9f86-f1e9-4dfd-b1d4-c50467912408)
[...]

일치하는 백업이 있을 때까지 정보 메시지는 계속 표시됩니다.

11.4. 추가 리소스

  • xfsrestore(8) man page

12장. XFS 파일 시스템 크기 증가

시스템 관리자는 XFS 파일 시스템의 크기를 늘려 더 큰 스토리지 용량을 완전히 사용할 수 있습니다.

중요

현재 XFS 파일 시스템의 크기를 줄일 수 없습니다.

12.1. xfs_growfs를 사용하여 XFS 파일 시스템의 크기 증가

다음 절차에서는 xfs_growfs 유틸리티를 사용하여 XFS 파일 시스템을 확장하는 방법을 설명합니다.

사전 요구 사항

  • 기본 블록 장치가 나중에 크기 조정된 파일 시스템을 보관할 적절한 크기인지 확인합니다. 영향을 받는 블록 장치에 적절한 크기 조정 방법을 사용합니다.
  • XFS 파일 시스템을 마운트합니다.

절차

  • XFS 파일 시스템이 마운트되는 동안 xfs_growfs 유틸리티를 사용하여 크기를 늘립니다.

    # xfs_growfs file-system -D new-size
    • file-system 을 XFS 파일 시스템의 마운트 지점으로 교체합니다.
    • D 옵션을 사용하여 new-size 를 파일 시스템 블록 수에 지정된 파일 시스템의 원하는 새 크기로 바꿉니다.

      지정된 XFS 파일 시스템의 kB에서 블록 크기를 확인하려면 xfs_info 유틸리티를 사용합니다.

      # xfs_info block-device
      
      ...
      data     =              bsize=4096
      ...
    • D 옵션을 사용하지 않으면 xfs_growfs 는 파일 시스템을 기본 장치에서 지원하는 최대 크기로 확장합니다.

추가 리소스

  • xfs_growfs(8) 도움말 페이지.

13장. XFS 오류 동작 구성

다른 I/O 오류가 발생할 때 XFS 파일 시스템이 작동하는 방식을 구성할 수 있습니다.

13.1. XFS에서 구성 가능한 오류 처리

XFS 파일 시스템은 I/O 작업 중에 오류가 발생할 때 다음 방법 중 하나로 응답합니다.

  • XFS는 작업이 성공하거나 XFS가 설정된 제한에 도달할 때까지 I/O 작업을 반복적으로 재시도합니다.

    제한은 최대 재시도 횟수 또는 재시도 횟수를 기반으로 합니다.

  • XFS는 오류를 영구적이라고 간주하고 파일 시스템에서 작업을 중지합니다.

XFS가 다음과 같은 오류 조건에 반응하는 방법을 구성할 수 있습니다.

EIO
읽거나 쓸 때 오류 발생
ENOSPC
장치에 공간이 없습니다
ENODEV
장치를 찾을 수 없습니다

XFS에서 오류를 영구적으로 간주할 때까지 최대 재시도 횟수와 최대 시간(초)을 설정할 수 있습니다. XFS는 제한에 도달하면 작업을 재시도하지 않습니다.

파일 시스템을 마운트 해제할 때 다른 구성과 관계없이 XFS가 즉시 재시도를 취소하도록 XFS를 구성할 수도 있습니다. 이 구성을 사용하면 지속 오류에도 불구하고 마운트 해제 작업이 성공할 수 있습니다.

기본 동작

각 XFS 오류 조건의 기본 동작은 오류 컨텍스트에 따라 다릅니다. ENODEV 와 같은 일부 XFS 오류는 재시도 횟수와 관계없이 치명적이고 복구할 수 없는 것으로 간주됩니다. 기본 재시도 제한은 0입니다.

13.2. 특정 및 정의되지 않은 XFS 오류 상태에 대한 구성 파일

다음 디렉터리에서는 다양한 오류 조건에 대해 XFS 오류 동작을 제어하는 구성 파일을 저장합니다.

/sys/fs/xfs/device/error/metadata/EIO/
EIO 오류 상태의 경우
/sys/fs/xfs/device/error/metadata/ENODEV/
ENODEV 오류 상태의 경우
/sys/fs/xfs/device/error/metadata/ENOSPC/
ENOSPC 오류 상태의 경우
/sys/fs/xfs/device/error/default/
정의되지 않은 다른 모든 오류 조건의 일반적인 구성

각 디렉터리에는 재시도 제한을 구성하기 위한 다음 구성 파일이 포함되어 있습니다.

max_retries
는 XFS가 작업을 재시도하는 최대 횟수를 제어합니다.
retry_timeout_seconds
XFS가 작업을 재시도하는 것을 중지하는 시간 제한을 초 단위로 지정합니다.

13.3. 특정 조건에 대한 XFS 동작 설정

다음 절차에서는 XFS가 특정 오류 조건에 반응하는 방법을 구성합니다.

절차

  • 최대 재시도 횟수, 재시도 시간 제한 또는 둘 다 설정합니다.

    • 최대 재시도 횟수를 설정하려면 max_retries 파일에 원하는 숫자를 씁니다.

      # echo value > /sys/fs/xfs/device/error/metadata/condition/max_retries
    • 시간 제한을 설정하려면 원하는 시간(초)을 retry_timeout_seconds 파일에 기록합니다.

      # echo value > /sys/fs/xfs/device/error/metadata/condition/retry_timeout_second

    값은 -1 사이의 숫자에서 C 서명된 정수 유형의 최대 값입니다. 64비트 Linux를 기반으로 하는 2147483647입니다.

    두 제한 모두에서 값 -1 은 지속 재시도에 사용되고 0 은 즉시 중지됩니다.

    device/dev/ 디렉터리에 있는 장치 이름입니다(예: sda ).

13.4. 정의되지 않은 조건의 XFS 동작 설정

다음 절차에서는 XFS가 공통 구성을 공유하는 모든 정의되지 않은 오류 조건에 반응하는 방법을 구성합니다.

절차

  • 최대 재시도 횟수, 재시도 시간 제한 또는 둘 다 설정합니다.

    • 최대 재시도 횟수를 설정하려면 max_retries 파일에 원하는 숫자를 씁니다.

      # echo value > /sys/fs/xfs/device/error/metadata/default/max_retries
    • 시간 제한을 설정하려면 원하는 시간(초)을 retry_timeout_seconds 파일에 기록합니다.

      # echo value > /sys/fs/xfs/device/error/metadata/default/retry_timeout_seconds

    값은 -1 사이의 숫자에서 C 서명된 정수 유형의 최대 값입니다. 64비트 Linux를 기반으로 하는 2147483647입니다.

    두 제한 모두에서 값 -1 은 지속 재시도에 사용되고 0 은 즉시 중지됩니다.

    device/dev/ 디렉터리에 있는 장치 이름입니다(예: sda ).

13.5. XFS 마운트 해제 동작 설정

이 절차에서는 파일 시스템을 마운트 해제할 때 XFS가 오류 조건에 반응하는 방법을 구성합니다.

파일 시스템에서 fail_at_unmount 옵션을 설정하면 마운트 해제하는 동안 다른 모든 오류 구성이 덮어쓰고 I/O 작업을 다시 시도하지 않고 파일 시스템을 즉시 마운트 해제합니다. 이렇게 하면 영구 오류가 발생해도 마운트 해제 작업이 성공적으로 수행됩니다.

주의

마운트 해제 프로세스에서 해당 파일 시스템의 sysfs 인터페이스에서 구성 파일을 제거하므로 마운트 해제 프로세스가 시작된 후에는 fail_at_unmount 값을 변경할 수 없습니다. 파일 시스템 마운트 해제를 시작하기 전에 마운트 해제 동작을 구성해야 합니다.

절차

  • fail_at_unmount 옵션을 활성화하거나 비활성화합니다.

    • 파일 시스템이 마운트 해제될 때 모든 작업을 다시 시도하는 것을 취소하려면 옵션을 활성화합니다.

      # echo 1 > /sys/fs/xfs/device/error/fail_at_unmount
    • max_retries 및 retry_ timeout_seconds 가 파일 시스템을 마운트 해제할 때 제한을 다시 시도하려면 옵션을 비활성화합니다.

      # echo 0 > /sys/fs/xfs/device/error/fail_at_unmount

    device/dev/ 디렉터리에 있는 장치 이름입니다(예: sda ).

14장. 파일 시스템 확인 및 복구

RHEL은 파일 시스템을 확인하고 복구할 수 있는 파일 시스템 관리 유틸리티를 제공합니다. 이러한 도구를 fsck 툴이라고 합니다. 여기서 fsck파일 시스템 검사 의 단축된 버전입니다. 대부분의 경우 이러한 유틸리티는 필요한 경우 시스템 부팅 중에 자동으로 실행되지만 필요한 경우 수동으로 호출할 수도 있습니다.

중요

파일 시스템 검사기는 파일 시스템 전체에서 메타데이터 일관성만 보장합니다. 파일 시스템에 포함된 실제 데이터를 인식하지 못하며 데이터 복구 도구가 아닙니다.

14.1. 파일 시스템 확인이 필요한 시나리오

관련 fsck 도구를 사용하여 다음 중 하나라도 발생하는 경우 시스템을 확인할 수 있습니다.

  • 시스템이 부팅되지 않음
  • 특정 디스크의 파일이 손상됩니다
  • 파일 시스템이 종료되거나 불일치로 인해 읽기 전용으로 변경됨
  • 파일 시스템의 파일에 액세스할 수 없습니다.

파일 시스템 불일치는 하드웨어 오류, 스토리지 관리 오류, 소프트웨어 버그 등 다양한 이유로 발생할 수 있습니다.

중요

파일 시스템 점검 툴은 하드웨어 문제를 복구할 수 없습니다. 복구가 성공적으로 작동하려면 파일 시스템을 완전히 읽고 쓸 수 있어야 합니다. 하드웨어 오류로 인해 파일 시스템이 손상된 경우 먼저 파일 시스템을 적절한 디스크(예: dd(8) 유틸리티)로 이동해야 합니다.

저널링 파일 시스템의 경우 일반적으로 부팅 시 필요한 경우 저널을 재생해야 하며 이는 일반적으로 매우 짧은 작업입니다.

그러나 파일 시스템이 일관되지 않거나 손상되는 경우 저널링 파일 시스템의 경우에도 파일 시스템 검사기를 사용하여 파일 시스템을 복구해야 합니다.

중요

부팅 시 /etc/fstab 의 여섯 번째 필드를 0 으로 설정하여 파일 시스템 확인을 비활성화할 수 있습니다. 그러나 부팅 시 fsck 문제(예: 매우 큰 파일 시스템 또는 원격 파일 시스템)가 없는 한 Red Hat은 이 작업을 수행하지 않는 것이 좋습니다.

추가 리소스

  • fstab(5) 도움말 페이지.
  • fsck(8) 도움말 페이지.
  • DD(8) 도움말 페이지.

14.2. fsck 실행의 잠재적 부작용

일반적으로 파일 시스템 확인 및 복구 도구를 실행하면 검색된 불일치 중 일부를 자동으로 복구할 수 있습니다. 경우에 따라 다음과 같은 문제가 발생할 수 있습니다.

  • 심각하게 손상된 inode 또는 디렉터리를 복구할 수 없는 경우 폐기할 수 있습니다.
  • 파일 시스템에 대한 중요한 변경 사항이 발생할 수 있습니다.

예기치 않거나 바람직하지 않은 변경이 영구적으로 수행되지 않도록 하려면 절차에 설명된 예방 조치를 따릅니다.

14.3. XFS에서 오류 처리 메커니즘

이 섹션에서는 XFS가 파일 시스템에서 다양한 유형의 오류를 처리하는 방법에 대해 설명합니다.

불명확한 마운트 해제

저널링은 파일 시스템에서 발생하는 메타데이터 변경 트랜잭션 레코드를 유지합니다.

시스템 충돌, 정전 또는 기타 불명확한 마운트 해제가 발생하는 경우 XFS는 저널(로그라고도 함)을 사용하여 파일 시스템을 복구합니다. 커널은 XFS 파일 시스템을 마운트할 때 저널 복구를 수행합니다.

손상

이 컨텍스트에서 손상 은 로 인해 발생한 파일 시스템에 대한 오류를 의미합니다. 예를 들면 다음과 같습니다.

  • 하드웨어 오류
  • 스토리지 펌웨어, 장치 드라이버, 소프트웨어 스택 또는 파일 시스템 자체의 버그
  • 파일 시스템 외부에 있는 항목에서 파일 시스템의 일부를 덮어쓰는 문제

XFS가 파일 시스템 또는 파일 시스템 메타데이터의 손상을 탐지하면 파일 시스템을 종료하고 시스템 로그에서 오류를 보고할 수 있습니다. /var 디렉토리를 호스팅하는 파일 시스템에서 손상이 발생하면 재부팅 후 이러한 로그를 사용할 수 없습니다.

예 14.1. XFS 손상을 보고하는 시스템 로그 항목

# dmesg --notime | tail -15

XFS (loop0): Mounting V5 Filesystem
XFS (loop0): Metadata CRC error detected at xfs_agi_read_verify+0xcb/0xf0 [xfs], xfs_agi block 0x2
XFS (loop0): Unmount and run xfs_repair
XFS (loop0): First 128 bytes of corrupted metadata buffer:
00000000027b3b56: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00  ................
000000005f9abc7a: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00  ................
000000005b0aef35: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00  ................
00000000da9d2ded: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00  ................
000000001e265b07: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00  ................
000000006a40df69: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00  ................
000000000b272907: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00  ................
00000000e484aac5: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00  ................
XFS (loop0): metadata I/O error in "xfs_trans_read_buf_map" at daddr 0x2 len 1 error 74
XFS (loop0): xfs_imap_lookup: xfs_ialloc_read_agi() returned error -117, agno 0
XFS (loop0): Failed to read root inode 0x80, error 11

사용자 공간 유틸리티는 손상된 XFS 파일 시스템에 액세스하려고 할 때 일반적으로 Input/output 오류 메시지를 보고합니다. 손상된 로그를 사용하여 XFS 파일 시스템을 마운트하면 마운트 실패 및 다음과 같은 오류 메시지가 표시됩니다.

mount: /mount-point: mount(2) system call failed: Structure needs cleaning.

문제를 복구하려면 xfs_repair 유틸리티를 수동으로 사용해야 합니다.

추가 리소스

  • xfs_repair(8) 도움말 페이지.

14.4. xfs_repair을 사용하여 XFS 파일 시스템 확인

이 절차에서는 xfs_repair 유틸리티를 사용하여 XFS 파일 시스템을 읽기 전용으로 확인합니다. 오류를 복구하려면 xfs_repair 유틸리티를 수동으로 사용해야 합니다. 다른 파일 시스템 복구 유틸리티와 달리 xfs_repair 는 XFS 파일 시스템을 완전히 마운트 해제하지 않은 경우에도 부팅 시 실행되지 않습니다. 불완전한 마운트 해제가 발생하는 경우 XFS는 마운트 시 로그를 재생하여 일관된 파일 시스템을 보장합니다. xfs_repair 는 먼저 다시 마운트하지 않고 더티 로그를 사용하여 XFS 파일 시스템을 복구할 수 없습니다.

참고

fsck.xfs 바이너리가 xfsprogs 패키지에 있지만 부팅 시 fsck.file 시스템 바이너리를 찾는 initscripts 만 충족할 수 있습니다. fsck.xfs 는 종료 코드 0으로 즉시 종료됩니다.

절차

  1. 파일 시스템을 마운트 및 마운트 해제하여 로그를 재생합니다.

    # mount file-system
    # umount file-system
    참고

    구조에서 마운트에 실패하면 정리 오류가 필요한 경우 로그가 손상되고 재생되지 않습니다. 예행 연습에서 결과적으로 디스크에서 손상을 더 많이 검색하고 보고해야 합니다.

  2. xfs_repair 유틸리티를 사용하여 파일 시스템을 확인하는 예행 연습을 수행합니다. 모든 오류가 출력되며 파일 시스템을 수정하지 않고 수행할 작업을 나타냅니다.

    # xfs_repair -n block-device
  3. 파일 시스템을 마운트합니다.

    # mount file-system

추가 리소스

  • xfs_repair(8) 도움말 페이지.
  • xfs_metadump(8) 도움말 페이지.

14.5. xfs_repair을 사용하여 XFS 파일 시스템 복구

이 절차에서는 xfs_repair 유틸리티를 사용하여 손상된 XFS 파일 시스템을 복구합니다.

절차

  1. xfs_eatadump 유틸리티를 사용하여 진단 또는 테스트를 위해 복구하기 전에 메타데이터 이미지를 생성합니다. 소프트웨어 버그로 인해 손상이 발생할 경우 사전 리페어 파일 시스템 메타데이터 이미지는 지원 조사에 유용할 수 있습니다. 사전 리페어 이미지에 있는 손상 패턴은 근본 원인 분석에 도움이 될 수 있습니다.

    • xfs_eatadump 디버깅 도구를 사용하여 XFS 파일 시스템의 메타데이터를 파일로 복사합니다. 결과 metadump 파일을 표준 압축 유틸리티를 사용하여 압축하여 대형 메타 덤프 파일을 지원하도록 전송해야 하는 경우 파일 크기를 줄일 수 있습니다.

      # xfs_metadump block-device metadump-file
  2. 파일 시스템을 다시 마운트하여 로그를 다시 실행합니다.

    # mount file-system
    # umount file-system
  3. xfs_repair 유틸리티를 사용하여 마운트 해제된 파일 시스템을 복구합니다.

    • 마운트에 성공하면 추가 옵션이 필요하지 않습니다.

      # xfs_repair block-device
    • 구조와 함께 마운트에 실패한 경우 정리 오류가 필요한 경우 로그가 손상되고 재생할 수 없습니다. -L 옵션(로그0을 강제 적용)을 사용하여 로그를 지웁니다.

      주의

      이 명령을 실행하면 충돌 시 모든 메타데이터 업데이트가 손실되어 파일 시스템이 손상되고 데이터가 손실될 수 있습니다. 로그를 재생할 수 없는 경우 마지막 수단으로만 사용해야 합니다.

      # xfs_repair -L block-device
  4. 파일 시스템을 마운트합니다.

    # mount file-system

추가 리소스

  • xfs_repair(8) 도움말 페이지.

14.6. ext2, ext3 및 ext4에서 메커니즘 처리 오류

ext2, ext3 및 ext4 파일 시스템은 e2fsck 유틸리티를 사용하여 파일 시스템 점검 및 복구를 수행합니다. 파일 이름 fsck.ext2,fsck.ext3, fsck.ext4e2fsck 유틸리티에 대한 하드 링크입니다. 이러한 바이너리는 부팅 시 자동으로 실행되며 확인 중인 파일 시스템과 파일 시스템의 상태에 따라 동작이 다릅니다.

전체 파일 시스템 점검 및 복구는 메타데이터 저널링 파일 시스템이 아니며 저널이 없는 ext4 파일 시스템의 경우 ext2에 대해 호출됩니다.

메타데이터 저널링이 있는 ext3 및 ext4 파일 시스템의 경우 저널은 사용자 공간에서 재생되고 유틸리티가 종료됩니다. 이는 저널 재생이 충돌 후 일관된 파일 시스템을 보장하기 때문에 기본 동작입니다.

마운트된 상태에서 이러한 파일 시스템이 메타데이터 불일치와 만나면 파일 시스템 수퍼 블록에 이 팩트를 기록합니다. e2fsck 가 이러한 오류로 파일 시스템이 표시된 것을 발견하면 e2fsck 는 저널을 재생한 후(있는 경우) 전체 검사를 수행합니다.

추가 리소스

  • fsck(8) 도움말 페이지.
  • e2fsck(8) 도움말 페이지.

14.7. e2fsck를 사용하여 ext2, ext3 또는 ext4 파일 시스템 확인

이 절차에서는 e2fsck 유틸리티를 사용하여 ext2, ext3 또는 ext4 파일 시스템을 확인합니다.

절차

  1. 파일 시스템을 다시 마운트하여 로그를 다시 실행합니다.

    # mount file-system
    # umount file-system
  2. 예행 연습을 수행하여 파일 시스템을 확인합니다.

    # e2fsck -n block-device
    참고

    모든 오류가 출력되며 파일 시스템을 수정하지 않고 수행할 작업을 나타냅니다. 일관성 검사의 이후 단계에서 복구 모드로 실행되는 경우 초기 단계에서 수정된 불일치를 발견하므로 추가 오류를 출력할 수 있습니다.

추가 리소스

  • e2image(8) 도움말 페이지.
  • e2fsck(8) 도움말 페이지.

14.8. e2fsck를 사용하여 ext2, ext3 또는 ext4 파일 시스템 복구

이 절차에서는 e2fsck 유틸리티를 사용하여 손상된 ext2, ext3 또는 ext4 파일 시스템을 복구합니다.

절차

  1. 지원 조사를 위해 파일 시스템 이미지를 저장합니다. 소프트웨어 버그로 인해 손상이 발생할 경우 사전 리페어 파일 시스템 메타데이터 이미지는 지원 조사에 유용할 수 있습니다. 사전 리페어 이미지에 있는 손상 패턴은 근본 원인 분석에 도움이 될 수 있습니다.

    참고

    심각하게 손상된 파일 시스템으로 인해 메타데이터 이미지 생성에 문제가 발생할 수 있습니다.

    • 테스트용으로 이미지를 만드는 경우 -r 옵션을 사용하여 파일 시스템 자체와 동일한 크기의 스파스 파일을 만듭니다. 그런 다음 e2fsck 가 결과 파일에 직접 작동할 수 있습니다.

      # e2image -r block-device image-file
    • 보관할 이미지를 생성하거나 진단용으로 제공되는 경우 -Q 옵션을 사용하여 전송에 적합한 좀 더 작은 파일 형식을 만듭니다.

      # e2image -Q block-device image-file
  2. 파일 시스템을 다시 마운트하여 로그를 다시 실행합니다.

    # mount file-system
    # umount file-system
  3. 파일 시스템을 자동으로 복구합니다. 사용자 개입이 필요한 경우 e2fsck 는 출력에 수정되지 않은 문제를 나타내고 이 상태를 종료 코드에서 반영합니다.

    # e2fsck -p block-device

    추가 리소스

    • e2image(8) 도움말 페이지.
    • e2fsck(8) 도움말 페이지.

15장. 파일 시스템 마운트

시스템 관리자는 시스템에 파일 시스템을 마운트하여 해당 시스템의 데이터에 액세스할 수 있습니다.

15.1. Linux 마운트 메커니즘

이 섹션에서는 Linux에서 파일 시스템을 마운트하는 기본 개념을 설명합니다.

Linux, UNIX 및 유사한 운영 체제에서는 여러 파티션 및 이동식 장치(예: CD, DVD 또는 USB 플래시 드라이브)에 있는 파일 시스템을 디렉토리 트리의 특정 지점(마운트 지점)에 연결할 수 있으며 다시 분리할 수 있습니다. 파일 시스템이 디렉터리에 마운트되는 동안 디렉터리의 원래 콘텐츠에 액세스할 수 없습니다.

Linux에서는 파일 시스템이 이미 연결된 디렉터리에 파일 시스템을 마운트하지 못하게 합니다.

마운트할 때 다음과 같이 장치를 식별할 수 있습니다.

  • UUID(UUID): UUID=34795a28-ca6d-4fd8-a347-73671d0c19cb
  • 볼륨 레이블: 예를 들면 LABEL=home입니다.
  • 비영구적 블록 장치의 전체 경로: 예를 들면 /dev/sda3입니다.

필요한 모든 정보 없이 mount 명령을 사용하여 장치 이름, 대상 디렉터리 또는 파일 시스템 유형이 없는 파일 시스템을 마운트하면 mount 유틸리티에서 /etc/fstab 파일의 내용을 읽고 지정된 파일 시스템이 나열되는지 확인합니다. /etc/fstab 파일에는 장치 이름 목록과 선택한 파일 시스템이 마운트되도록 설정된 디렉토리와 파일 시스템 유형 및 마운트 옵션이 포함되어 있습니다. 따라서 /etc/fstab 에 지정된 파일 시스템을 마운트할 때 다음 명령 구문만으로 충분합니다.

  • 마운트 지점별 마운트:

    # mount directory
  • 블록 장치에 의한 마운트:

    # mount device

추가 리소스

15.2. 현재 마운트된 파일 시스템 나열

다음 절차에서는 명령줄에서 현재 마운트된 모든 파일 시스템을 나열하는 방법을 설명합니다.

절차

  • 마운트된 모든 파일 시스템을 나열하려면 findmnt 유틸리티를 사용합니다.

    $ findmnt
  • 나열된 파일 시스템을 특정 파일 시스템 유형으로만 제한하려면 --types 옵션을 추가합니다.

    $ findmnt --types fs-type

    예를 들면 다음과 같습니다.

    예 15.1. XFS 파일 시스템만 나열

    $ findmnt --types xfs
    
    TARGET  SOURCE                                                FSTYPE OPTIONS
    /       /dev/mapper/luks-5564ed00-6aac-4406-bfb4-c59bf5de48b5 xfs    rw,relatime
    ├─/boot /dev/sda1                                             xfs    rw,relatime
    └─/home /dev/mapper/luks-9d185660-7537-414d-b727-d92ea036051e xfs    rw,relatime

추가 리소스

  • findmnt(8) 도움말 페이지

15.3. 마운트로 파일 시스템 마운트

다음 절차에서는 mount 유틸리티를 사용하여 파일 시스템을 마운트 하는 방법을 설명합니다.

사전 요구 사항

  • 선택한 마운트 지점에 이미 마운트된 파일 시스템이 없는지 확인합니다.

    $ findmnt mount-point

절차

  1. 특정 파일 시스템을 연결하려면 mount 유틸리티를 사용합니다.

    # mount device mount-point

    예 15.2. XFS 파일 시스템 마운트

    예를 들어 UUID로 식별된 로컬 XFS 파일 시스템을 마운트하려면 다음을 수행합니다.

    # mount UUID=ea74bbec-536d-490c-b8d9-5b40bbd7545b /mnt/data
  2. 마운트 가 파일 시스템 유형을 자동으로 인식할 수 없는 경우 --types 옵션을 사용하여 지정합니다.

    # mount --types type device mount-point

    예 15.3. NFS 파일 시스템 마운트

    예를 들어 원격 NFS 파일 시스템을 마운트하려면 다음을 수행합니다.

    # mount --types nfs4 host:/remote-export /mnt/nfs

추가 리소스

  • mount(8) 도움말 페이지

15.4. 마운트 지점 이동

다음 절차에서는 마운트된 파일 시스템의 마운트 지점을 다른 디렉터리로 변경하는 방법을 설명합니다.

절차

  1. 파일 시스템이 마운트된 디렉터리를 변경하려면 다음을 수행합니다.

    # mount --move old-directory new-directory

    예 15.4. 홈 파일 시스템 이동

    예를 들어 /mnt/userdirs/ 디렉터리에 마운트된 파일 시스템을 /home/ 마운트 지점으로 이동하려면 다음을 수행합니다.

    # mount --move /mnt/userdirs /home
  2. 파일 시스템이 예상대로 이동되었는지 확인합니다.

    $ findmnt
    $ ls old-directory
    $ ls new-directory

추가 리소스

  • mount(8) 도움말 페이지

15.5. umount로 파일 시스템 마운트 해제

다음 절차에서는 umount 유틸리티를 사용하여 파일 시스템을 마운트 해제하는 방법을 설명합니다.

절차

  1. 다음 명령 중 하나를 사용하여 파일 시스템을 마운트 해제합니다.

    • 마운트 지점별:

      # umount mount-point
    • 장치별:

      # umount device

    다음과 유사한 오류로 명령이 실패하면 프로세스가 해당 프로세스에서 리소스를 사용하고 있기 때문에 파일 시스템이 사용 중임을 의미합니다.

    umount: /run/media/user/FlashDrive: target is busy.
  2. 파일 시스템이 사용 중인 경우 fuser 유틸리티를 사용하여 액세스하는 프로세스를 확인합니다. 예를 들면 다음과 같습니다.

    $ fuser --mount /run/media/user/FlashDrive
    
    /run/media/user/FlashDrive: 18351

    나중에 파일 시스템을 사용하여 프로세스를 종료하고 다시 마운트 해제합니다.

15.6. 일반적인 마운트 옵션

다음 표에는 마운트 유틸리티의 가장 일반적인 옵션이 나열되어 있습니다. 다음 구문을 사용하여 이러한 마운트 옵션을 적용할 수 있습니다.

# mount --options option1,option2,option3 device mount-point

표 15.1. 일반적인 마운트 옵션

옵션설명

async

파일 시스템에서 비동기 입력 및 출력 작업을 활성화합니다.

auto

mount -a 명령을 사용하여 파일 시스템을 자동으로 마운트 할 수 있습니다.

defaults

async,auto,dev,exec,nouser,rw,suid 옵션에 대한 별칭을 제공합니다.

exec

특정 파일 시스템에서 바이너리 파일을 실행할 수 있습니다.

loop

이미지를 루프 장치로 마운트합니다.

noauto

기본 동작은 mount -a 명령을 사용하여 파일 시스템의 자동 마운트 를 비활성화합니다.

noexec

특정 파일 시스템에서 이진 파일의 실행을 허용하지 않습니다.

nouser

일반 사용자(즉, root 이외의)가 파일 시스템을 마운트 및 마운트 해제할 수 없습니다.

다시 마운트

이미 마운트된 경우 파일 시스템을 다시 마운트합니다.

ro

는 읽기 전용으로 파일 시스템을 마운트합니다.

rw

는 읽기 및 쓰기를 위한 파일 시스템을 마운트합니다.

user

일반 사용자(즉, root 이외의)에서 파일 시스템을 마운트 및 마운트 해제할 수 있습니다.

16장. 여러 마운트 지점에 마운트 공유

시스템 관리자는 중복 마운트 지점을 복제하여 여러 디렉터리에서 파일 시스템에 액세스할 수 있도록 할 수 있습니다.

16.1. 공유 마운트 유형

여러 유형의 공유 마운트를 사용할 수 있습니다. 차이점은 공유 마운트 지점 중 하나 아래에 다른 파일 시스템을 마운트할 때 발생하는 차이점입니다. 공유 마운트는 공유 하위 트리 기능을 사용하여 구현됩니다.

다음과 같은 마운트 유형을 사용할 수 있습니다.

private

이 유형은 전파 이벤트를 수신하거나 전달하지 않습니다.

다른 파일 시스템을 중복 또는 원래 마운트 지점에 마운트하면 다른 파일 시스템에 반영되지 않습니다.

공유

이 유형은 지정된 마운트 지점의 정확한 복제본을 생성합니다.

마운트 지점이 공유 마운트로 표시되면 원래 마운트 지점 내의 모든 마운트가 반영되며 그 반대의 경우도 마찬가지입니다.

이는 루트 파일 시스템의 기본 마운트 유형입니다.

slave

이 유형은 지정된 마운트 지점의 제한된 중복을 생성합니다.

마운트 지점이 슬레이브 마운트로 표시되면 원래 마운트 지점 내의 모든 마운트가 반영되지만 슬레이브 마운트 내의 마운트는 원본에 반영되지 않습니다.

unbindable
이 유형을 사용하면 지정된 마운트 지점이 중복되지 않도록 합니다.

16.2. 개인 마운트 지점 중복 생성

이 절차에서는 마운트 지점을 개인 마운트로 중복합니다. 나중에 중복 또는 원래 마운트 지점에 마운트하는 파일 시스템은 다른 시스템에 반영되지 않습니다.

절차

  1. 원래 마운트 지점에서 VFS(가상 파일 시스템) 노드를 생성합니다.

    # mount --bind original-dir original-dir
  2. 원래 마운트 지점을 개인용으로 표시합니다.

    # mount --make-private original-dir

    또는 선택한 마운트 지점과 그 아래의 모든 마운트 지점에 대한 마운트 유형을 변경하려면 --make-rprivate 대신 --make-r private 옵션을 사용합니다.

  3. 중복을 생성합니다.

    # mount --bind original-dir duplicate-dir

예 16.1. 개인 마운트 지점으로 /media를 /mnt에 복제

  1. /media 디렉터리에서 VFS 노드를 생성합니다.

    # mount --bind /media /media
  2. /media 디렉토리를 개인용으로 표시합니다.

    # mount --make-private /media
  3. /mnt 에 중복 만들기 :

    # mount --bind /media /mnt
  4. 이제 /media 및 / mnt 공유 콘텐츠를 확인할 수 있지만 / media 내의 마운트는 / mnt 에 표시되지 않습니다. 예를 들어 CD-ROM 드라이브에 비어 있지 않은 미디어가 있고 /media/cdrom/ 디렉토리가 있는 경우 다음을 사용합니다.

    # mount /dev/cdrom /media/cdrom
    # ls /media/cdrom
    EFI  GPL  isolinux  LiveOS
    # ls /mnt/cdrom
    #
  5. 또한 /mnt 디렉토리에 마운트된 파일 시스템이 / media 에 반영되지 않는지 확인할 수도 있습니다. 예를 들어 /dev/sdc1 장치를 사용하는 비어 있지 않은 USB 플래시 드라이브가 연결되고 /mnt/flashdisk/ 디렉터리가 있는 경우 다음을 사용합니다.

    # mount /dev/sdc1 /mnt/flashdisk
    # ls /media/flashdisk
    # ls /mnt/flashdisk
    en-US  publican.cfg

추가 리소스

  • mount(8) 도움말 페이지

16.3. 공유 마운트 지점 중복 생성

이 절차에서는 마운트 지점을 공유 마운트로 중복합니다. 원래 디렉토리 또는 중복에서 나중에 마운트하는 파일 시스템은 항상 다른 디렉터리에 반영됩니다.

절차

  1. 원래 마운트 지점에서 VFS(가상 파일 시스템) 노드를 생성합니다.

    # mount --bind original-dir original-dir
  2. 원래 마운트 지점을 공유로 표시합니다.

    # mount --make-shared original-dir

    또는 선택한 마운트 지점과 그 아래의 모든 마운트 지점에 대한 마운트 유형을 변경하려면 --make-shared 대신 --make-r shared 옵션을 사용합니다.

  3. 중복을 생성합니다.

    # mount --bind original-dir duplicate-dir

예 16.2. 공유 마운트 지점으로 /media를 /mnt에 복제

/media 및 / mnt 디렉토리가 동일한 콘텐츠를 공유하도록 하려면 다음을 수행합니다.

  1. /media 디렉터리에서 VFS 노드를 생성합니다.

    # mount --bind /media /media
  2. /media 디렉토리를 공유로 표시합니다.

    # mount --make-shared /media
  3. /mnt 에 중복 만들기 :

    # mount --bind /media /mnt
  4. 이제 /media 내의 마운트도 / mnt 에 표시되는지 확인할 수 있습니다. 예를 들어 CD-ROM 드라이브에 비어 있지 않은 미디어가 있고 /media/cdrom/ 디렉토리가 있는 경우 다음을 사용합니다.

    # mount /dev/cdrom /media/cdrom
    # ls /media/cdrom
    EFI  GPL  isolinux  LiveOS
    # ls /mnt/cdrom
    EFI  GPL  isolinux  LiveOS
  5. 마찬가지로 /mnt 디렉토리에 마운트된 파일 시스템이 / media 에 반영되는지 확인할 수 있습니다. 예를 들어 /dev/sdc1 장치를 사용하는 비어 있지 않은 USB 플래시 드라이브가 연결되고 /mnt/flashdisk/ 디렉터리가 있는 경우 다음을 사용합니다.

    # mount /dev/sdc1 /mnt/flashdisk
    # ls /media/flashdisk
    en-US  publican.cfg
    # ls /mnt/flashdisk
    en-US  publican.cfg

추가 리소스

  • mount(8) 도움말 페이지

16.4. 슬레이브 마운트 지점 중복 생성

이 절차에서는 마운트 지점을 슬레이브 마운트 유형으로 중복합니다. 원래 마운트 지점에 나중에 마운트하는 파일 시스템은 중복에 반영되지만 다른 방법은 반영되지 않습니다.

절차

  1. 원래 마운트 지점에서 VFS(가상 파일 시스템) 노드를 생성합니다.

    # mount --bind original-dir original-dir
  2. 원래 마운트 지점을 공유로 표시합니다.

    # mount --make-shared original-dir

    또는 선택한 마운트 지점과 그 아래의 모든 마운트 지점에 대한 마운트 유형을 변경하려면 --make-shared 대신 --make-r shared 옵션을 사용합니다.

  3. 중복을 생성하고 슬레이브 유형으로 표시합니다.

    # mount --bind original-dir duplicate-dir
    # mount --make-slave duplicate-dir

예 16.3. 슬레이브 마운트 지점으로 /media를 /mnt에 복제

이 예에서는 /media 디렉토리의 내용을 /media 에 반영할 /mnt 디렉토리에 마운트하지 않고 /mnt 디렉토리에 표시하지 않는 방법을 보여줍니다 .

  1. /media 디렉터리에서 VFS 노드를 생성합니다.

    # mount --bind /media /media
  2. /media 디렉토리를 공유로 표시합니다.

    # mount --make-shared /media
  3. /mnt 에 중복을 만들고 슬레이브 로 표시 :

    # mount --bind /media /mnt
    # mount --make-slave /mnt
  4. /media 내의 마운트도 / mnt 에 표시되는지 확인합니다. 예를 들어 CD-ROM 드라이브에 비어 있지 않은 미디어가 있고 /media/cdrom/ 디렉토리가 있는 경우 다음을 사용합니다.

    # mount /dev/cdrom /media/cdrom
    # ls /media/cdrom
    EFI  GPL  isolinux  LiveOS
    # ls /mnt/cdrom
    EFI  GPL  isolinux  LiveOS
  5. 또한 /mnt 디렉토리에 마운트된 파일 시스템이 / media 에 반영되지 않는지 확인합니다. 예를 들어 /dev/sdc1 장치를 사용하는 비어 있지 않은 USB 플래시 드라이브가 연결되고 /mnt/flashdisk/ 디렉터리가 있는 경우 다음을 사용합니다.

    # mount /dev/sdc1 /mnt/flashdisk
    # ls /media/flashdisk
    # ls /mnt/flashdisk
    en-US  publican.cfg

추가 리소스

  • mount(8) 도움말 페이지

16.5. 마운트 지점이 중복되지 않도록 방지

이 절차에서는 다른 마운트 지점에서 복제할 수 없도록 마운트 지점을 바인딩할 수 없음으로 표시합니다.

절차

  • 마운트 지점 유형을 바인딩할 수 없는 마운트로 변경하려면 다음을 사용합니다.

    # mount --bind mount-point mount-point
    # mount --make-unbindable mount-point

    또는 선택한 마운트 지점과 그 아래의 모든 마운트 지점에 대한 마운트 유형을 변경하려면 --make- unbindable 대신 --make-run bindable 옵션을 사용합니다.

    이 마운트를 복제하는 후속 시도는 다음 오류와 함께 실패합니다.

    # mount --bind mount-point duplicate-dir
    
    mount: wrong fs type, bad option, bad superblock on mount-point,
    missing codepage or helper program, or other error
    In some cases useful info is found in syslog - try
    dmesg | tail  or so

예 16.4. /media가 중복되지 않도록 방지

  • /media 디렉터리가 공유되지 않도록 하려면 다음을 사용하십시오.

    # mount --bind /media /media
    # mount --make-unbindable /media

추가 리소스

  • mount(8) 도움말 페이지

17장. 영속적으로 파일 시스템 마운트

시스템 관리자는 파일 시스템을 영구적으로 마운트하여 이동할 수 없는 스토리지를 구성할 수 있습니다.

17.1. /etc/fstab 파일

/etc/fstab 구성 파일을 사용하여 파일 시스템의 영구 마운트 지점을 제어합니다. /etc/fstab 파일의 각 행은 파일 시스템의 마운트 지점을 정의합니다.

여기에는 공백으로 구분된 6개의 필드가 포함됩니다.

  1. 영구 속성 또는 /dev 디렉터리의 경로로 식별되는 블록 장치입니다.
  2. 장치가 마운트될 디렉터리입니다.
  3. 장치의 파일 시스템.
  4. 기본 옵션으로 부팅 시 파티션을 마운트하는 defaults 옵션이 포함된 파일 시스템의 마운트 옵션입니다. mount 옵션 필드는 x- systemd. 옵션 형식으로 systemd 마운트 장치 옵션도 인식합니다.
  5. 덤프 유틸리티의 백업 옵션입니다.
  6. fsck 유틸리티의 순서를 확인합니다.
참고

systemd-fstab-generator 는 항목을 /etc/fstab 파일에서 systemd-mount 장치로 동적으로 변환합니다. systemd 자동 마운트 장치는 systemd-mount 장치를 마스킹하지 않는 한 수동 활성화 중에 /etc/fstab 에서 LVM 볼륨을 마운트합니다.

예 17.1. / etc/fstab의 /boot 파일 시스템

블록 장치마운트 지점파일 시스템옵션Backup검사

UUID=ea74bbec-536d-490c-b8d9-5b40bbd7545b

/boot

xfs

defaults

0

0

systemd 서비스는 /etc/fstab 의 항목에서 마운트 유닛을 자동으로 생성합니다.

추가 리소스

  • fstab(5)systemd.mount(5) 매뉴얼 페이지

17.2. /etc/fstab에 파일 시스템 추가

다음 절차에서는 /etc/fstab 구성 파일에서 파일 시스템의 영구 마운트 지점을 구성하는 방법을 설명합니다.

절차

  1. 파일 시스템의 UUID 속성을 확인합니다.

    $ lsblk --fs storage-device

    예를 들면 다음과 같습니다.

    예 17.2. 파티션의 UUID 보기

    $ lsblk --fs /dev/sda1
    
    NAME FSTYPE LABEL UUID                                 MOUNTPOINT
    sda1 xfs    Boot  ea74bbec-536d-490c-b8d9-5b40bbd7545b /boot
  2. 마운트 지점 디렉터리가 없으면 생성합니다.

    # mkdir --parents mount-point
  3. 루트로 /etc/fstab 파일을 편집하고 UUID로 식별된 파일 시스템에 대한 행을 추가합니다.

    예를 들면 다음과 같습니다.

    예 17.3. /etc/fstab의 /boot 마운트 지점

    UUID=ea74bbec-536d-490c-b8d9-5b40bbd7545b /boot xfs defaults 0 0
  4. 시스템이 새 구성을 등록하도록 마운트 유닛을 다시 생성합니다.

    # systemctl daemon-reload
  5. 파일 시스템을 마운트하여 구성이 작동하는지 확인하십시오.

    # mount mount-point

18장. 필요에 따라 파일 시스템 마운트

시스템 관리자는 필요에 따라 자동으로 마운트되도록 NFS와 같은 파일 시스템을 구성할 수 있습니다.

18.1. autofs 서비스

이 섹션에서는 필요에 따라 파일 시스템을 마운트하는 데 사용되는 autofs 서비스의 이점과 기본 개념을 설명합니다.

/etc/fstab 구성을 사용한 영구 마운트의 한 가지 단점은 사용자가 마운트된 파일 시스템에 액세스하는 빈도에 관계없이 시스템은 마운트된 파일 시스템을 계속 적용하기 위해 리소스를 전용으로 지정해야 한다는 것입니다. 예를 들어 시스템이 한 번에 여러 시스템에 NFS 마운트를 유지 관리하는 경우 시스템 성능에 영향을 줄 수 있습니다.

/etc/fstab 의 대안은 커널 기반 autofs 서비스를 사용하는 것입니다. 다음 구성 요소로 구성됩니다.

  • 파일 시스템을 구현하는 커널 모듈
  • 기타 모든 기능을 수행하는 사용자 공간 서비스입니다.

autofs 서비스는 파일 시스템을 자동으로 마운트 및 분리하여 시스템 리소스를 절약할 수 있습니다. NFS, AFS, SMBFS, CIFS 및 로컬 파일 시스템과 같은 파일 시스템을 마운트하는 데 사용할 수 있습니다.

추가 리소스

  • autofs(8) 도움말 페이지.

18.2. autofs 구성 파일

이 섹션에서는 autofs 서비스에서 사용하는 구성 파일의 사용법 및 구문에 대해 설명합니다.

마스터 맵 파일

autofs 서비스는 /etc/auto.master (마스터 맵)를 기본 기본 구성 파일로 사용합니다. 이 설정은 NSS(Name Service Switch) 메커니즘과 함께 /etc/autofs.conf 구성 파일의 autofs 구성을 사용하여 지원되는 다른 네트워크 소스 및 이름을 사용하도록 변경할 수 있습니다.

모든 온디맨드 마운트 지점은 마스터 맵에 구성해야 합니다. 마운트 지점, 호스트 이름, 내보낸 디렉토리 및 옵션은 각 호스트에 대해 수동으로 구성하지 않고 파일 집합(또는 지원되는 기타 네트워크 소스)에 모두 지정할 수 있습니다.

마스터 맵 파일은 autofs 에서 제어하는 마운트 지점과 해당 구성 파일 또는 네트워크 소스를 자동 마운트 맵이라고 합니다. 마스터 맵의 형식은 다음과 같습니다.

mount-point  map-name  options

이 형식으로 사용되는 변수는 다음과 같습니다.

마운트 지점
autofs 마운트 지점(예: /mnt/data )입니다.
map-file
마운트 지점 목록과 해당 마운트 지점을 마운트해야 하는 파일 시스템 위치가 포함된 맵 소스 파일.
옵션
제공된 경우 옵션이 지정되지 않은 경우 지정된 맵의 모든 항목에 적용됩니다.

예 18.1. /etc/auto.master 파일

다음은 /etc/auto.master 파일의 샘플 행입니다.

/mnt/data  /etc/auto.data

맵 파일

맵 파일은 개별 온디맨드 마운트 지점의 속성을 구성합니다.

automounter가 디렉터리가 없는 경우 해당 디렉터리를 생성합니다. automounter를 시작하기 전에 디렉토리가 있는 경우 automounter는 종료할 때 해당 디렉터리를 제거하지 않습니다. 시간 초과를 지정하면 시간 제한 기간 동안 디렉터리에 액세스하지 않으면 디렉터리가 자동으로 마운트 해제됩니다.

일반적인 맵 형식은 마스터 맵과 유사합니다. 그러나 options 필드는 마스터 맵과 같이 항목 끝에 있는 대신 마운트 지점과 위치 간에 표시됩니다.

mount-point  options  location

이 형식으로 사용되는 변수는 다음과 같습니다.

마운트 지점
이는 autofs 마운트 지점을 나타냅니다. 간접 마운트의 단일 디렉토리 이름이나 직접 마운트를 위한 마운트 지점의 전체 경로일 수 있습니다. 각 직접 및 간접 맵 항목 키(마운트 지점) 뒤에 오프셋 디렉토리(각각 /로 시작하는 하위 디렉토리 이름)의 공백으로 구분된 목록이 올 수 있으므로 다중 마운트 항목이라고 합니다.
옵션
제공된 경우 이러한 옵션은 마스터 맵 항목 옵션(있는 경우)에 추가되거나 구성 항목 append_optionsno 로 설정된 경우 마스터 맵 옵션 대신 사용됩니다.
위치
이는 로컬 파일 시스템 경로(Sun map 형식 이스케이프 문자가 앞에 /로 시작하는 맵 이름 ), NFS 파일 시스템 또는 기타 유효한 파일 시스템 위치와 같은 파일 시스템 위치를 나타냅니다.

예 18.2. 맵 파일

다음은 맵 파일의 샘플입니다. 예: /etc/auto.misc:

payroll  -fstype=nfs4  personnel:/exports/payroll
sales    -fstype=xfs   :/dev/hda4

맵 파일의 첫 번째 열에는 autofs 마운트 지점, 즉 staff이라는 서버의 sales 및 payroll표시됩니다. 두 번째 열은 autofs 마운트의 옵션을 나타냅니다. 세 번째 열은 마운트의 소스를 나타냅니다.

지정된 구성에 따라 autofs 마운트 지점은 /home/payroll/home/sales 가 됩니다. fs type= 옵션은 종종 생략되며, 시스템 기본값이 NFS 마운트의 경우 NFSv4에 대한 마운트를 포함하여 파일 시스템이 NFS인 경우에는 필요하지 않습니다.

지정된 구성을 사용하여 프로세스에서 /home/payroll/2006/July.sxc 와 같은 autofs 마운트 해제된 디렉토리에 액세스해야 하는 경우 autofs 서비스에서 디렉터리를 자동으로 마운트합니다.

amd 맵 형식

autofs 서비스는 맵 구성을 amd 형식으로 인식합니다. 이 기능은 Red Hat Enterprise Linux에서 제거된 am-utils 서비스에 대해 작성된 기존 자동 마운터 구성을 재사용하려는 경우에 유용합니다.

그러나 Red Hat은 이전 섹션에 설명된 더 간단한 autofs 형식을 사용하는 것이 좋습니다.

추가 리소스

  • autofs(5) 도움말 페이지
  • autofs.conf(5) 도움말 페이지
  • auto.master(5) 도움말 페이지
  • /usr/share/doc/autofs/README.amd-maps file

18.3. autofs 마운트 지점 구성

이 절차에서는 autofs 서비스를 사용하여 온디맨드 마운트 지점을 구성하는 방법을 설명합니다.

사전 요구 사항

  • autofs 패키지를 설치합니다.

    # yum install autofs
  • autofs 서비스를 시작하고 활성화합니다.

    # systemctl enable --now autofs

절차

  1. /etc/auto.식별자 에 있는 온디맨드 마운트 지점에 대한 맵 파일을 만듭니다. 식별자를 마운트 지점을 식별하는 이름으로 바꿉니다.
  2. 맵 파일에서 autofs 구성 파일 섹션에 설명된 대로 마운트 지점, 옵션 및 위치 필드를 작성합니다.
  3. The Cryostat 구성 파일 섹션에 설명된 대로 마스터 맵 파일에 맵 파일을 등록합니다.
  4. 서비스에서 구성을 다시 읽도록 허용하여 새로 구성된 autofs 마운트를 관리할 수 있습니다.

    # systemctl reload autofs.service
  5. 온디맨드 디렉토리의 컨텐츠에 액세스해 보십시오.

    # ls automounted-directory

18.4. autofs service를 사용하여 NFS 서버 사용자 홈 디렉토리 자동 마운트

다음 절차에서는 사용자 홈 디렉터리를 자동으로 마운트하도록 autofs 서비스를 구성하는 방법을 설명합니다.

사전 요구 사항

  • autofs 패키지가 설치됩니다.
  • autofs 서비스가 활성화되어 실행 중입니다.

절차

  1. 사용자 홈 디렉토리를 마운트해야 하는 서버에서 /etc/auto.master 파일을 편집하여 맵 파일의 마운트 지점과 위치를 지정합니다. 이를 위해 /etc/auto.master 파일에 다음 행을 추가합니다.

    /home /etc/auto.home
  2. 사용자 홈 디렉터리를 마운트해야 하는 서버에 /etc/auto.home 이라는 맵 파일을 만들고 다음 매개 변수를 사용하여 파일을 편집합니다.

    * -fstype=nfs,rw,sync host.example.com:/home/&

    기본적으로 nfs 이므로 skip fstype 매개 변수를 건너뛸 수 있습니다. 자세한 내용은 autofs(5) 도움말 페이지를 참조하십시오.

  3. autofs 서비스를 다시 로드합니다.

    # systemctl reload autofs

18.5. autofs 사이트 구성 파일 덮어쓰기 또는 보강

클라이언트 시스템의 특정 마운트 지점에 대한 사이트 기본값을 재정의하는 것이 유용할 수 있습니다.

예 18.3. 초기 조건

예를 들어 다음 조건을 고려하십시오.

  • 자동 마운터 맵은 NIS에 저장되고 /etc/nsswitch.conf 파일에는 다음 지시문이 있습니다.

    automount:    files nis
  • auto.master 파일에는 다음이 포함됩니다.

    +auto.master
  • NIS auto.master 맵 파일에는 다음이 포함됩니다.

    /home auto.home
  • NIS auto.home 맵에는 다음이 포함됩니다.

    beth    fileserver.example.com:/export/home/beth
    joe     fileserver.example.com:/export/home/joe
    *       fileserver.example.com:/export/home/&
  • autofs 설정 옵션 BROWSE_MODEyes 로 설정되어 있습니다.

    BROWSE_MODE="yes"
  • 파일 맵 /etc/auto.home 이 없습니다.

절차

이 섹션에서는 다른 서버에서 홈 디렉터리를 마운트하고 선택한 항목만 사용하여 auto.home 을 보강하는 예제를 설명합니다.

예 18.4. 다른 서버의 홈 디렉토리 마운트

앞의 조건에 따라 클라이언트 시스템이 NIS 맵 auto.home 을 재정의하고 다른 서버의 홈 디렉토리를 마운트해야 한다고 가정합니다.

  • 이 경우 클라이언트는 다음 /etc/auto.master 맵을 사용해야 합니다.

    /home ­/etc/auto.home
    +auto.master
  • /etc/auto.home 맵에는 다음 항목이 포함되어 있습니다.

    *    host.example.com:/export/home/&

automounter는 마운트 지점의 첫 번째 발생만 처리하므로 /home 디렉토리에는 NIS auto.home 맵 대신 /etc/auto.home 의 내용이 포함됩니다.

예 18.5. 선택한 항목만 있는 auto.home 보강

또는 몇 가지 항목만으로 사이트 전체 auto.home 맵을 보강하려면 다음을 수행합니다.

  1. /etc/auto.home 파일 맵을 만들고 에 새 항목을 넣습니다. 끝에 NIS auto.home 맵을 포함합니다. 그러면 /etc/auto.home 파일 맵은 다음과 유사합니다.

    mydir someserver:/export/mydir
    +auto.home
  2. 이러한 NIS auto.home 맵 조건을 사용하여 /home 디렉토리 출력 내용을 나열합니다.

    $ ls /home
    
    beth joe mydir

autofs 는 읽는 것과 동일한 이름의 파일 맵 내용을 포함하지 않으므로 마지막 예제는 예상대로 작동합니다. 따라서 autofs 는 the nsswitch 구성에서 다음 맵 소스로 이동합니다.

18.6. LDAP를 사용하여 자동 마운터 맵 저장

이 절차에서는 autofs 맵 파일이 아니라 LDAP 구성에 자동 마운터 맵을 저장하도록 autofs 를 구성합니다.

사전 요구 사항

  • LDAP 클라이언트 라이브러리는 LDAP에서 automounter 맵을 검색하도록 구성된 모든 시스템에 설치해야 합니다. Red Hat Enterprise Linux에서 openldap 패키지는 autofs 패키지에 종속되어 자동으로 설치되어야 합니다.

절차

  1. LDAP 액세스를 구성하려면 /etc/openldap/ldap.conf 파일을 수정합니다. BASE,URI스키마 옵션이 사이트에 적절하게 설정되어 있는지 확인합니다.
  2. 최근 LDAP에 자동 마운트 맵을 저장하기 위해 설정된 스키마는 rfc2307bis 초안에 설명되어 있습니다. 이 스키마를 사용하려면 스키마 정의에서 주석 문자를 제거하여 /etc/autofs.conf 구성 파일에서 설정합니다. 예를 들면 다음과 같습니다.

    예 18.6. autofs 구성 설정

    DEFAULT_MAP_OBJECT_CLASS="automountMap"
    DEFAULT_ENTRY_OBJECT_CLASS="automount"
    DEFAULT_MAP_ATTRIBUTE="automountMapName"
    DEFAULT_ENTRY_ATTRIBUTE="automountKey"
    DEFAULT_VALUE_ATTRIBUTE="automountInformation"
  3. 다른 모든 스키마 항목이 구성에 주석 처리되었는지 확인합니다. rfc2307bis 스키마의 automountKey 속성은 rfc2307 스키마의 cn 속성을 대체합니다 . 다음은 LDAP 데이터 교환 형식(LDIF) 구성의 예입니다.

    예 18.7. LDIF 설정

    # auto.master, example.com
    dn: automountMapName=auto.master,dc=example,dc=com
    objectClass: top
    objectClass: automountMap
    automountMapName: auto.master
    
    # /home, auto.master, example.com
    dn: automountMapName=auto.master,dc=example,dc=com
    objectClass: automount
    automountKey: /home
    automountInformation: auto.home
    
    # auto.home, example.com
    dn: automountMapName=auto.home,dc=example,dc=com
    objectClass: automountMap
    automountMapName: auto.home
    
    # foo, auto.home, example.com
    dn: automountKey=foo,automountMapName=auto.home,dc=example,dc=com
    objectClass: automount
    automountKey: foo
    automountInformation: filer.example.com:/export/foo
    
    # /, auto.home, example.com
    dn: automountKey=/,automountMapName=auto.home,dc=example,dc=com
    objectClass: automount
    automountKey: /
    automountInformation: filer.example.com:/export/&

추가 리소스

18.7. systemd.automount를 사용하여 필요에 따라 /etc/fstab에 파일 시스템 마운트

다음 절차에서는 마운트 지점이 /etc/fstab 에 정의된 경우 자동 마운트 systemd 장치를 사용하여 필요에 따라 파일 시스템을 마운트하는 방법을 보여줍니다. 각 마운트에 대해 자동 마운트 장치를 추가하고 활성화해야 합니다.

절차

  1. 파일 시스템 영구 마운트에 설명된 대로 원하는 fstab 항목을 추가합니다. 예를 들면 다음과 같습니다.

    /dev/disk/by-id/da875760-edb9-4b82-99dc-5f4b1ff2e5f4  /mount/point  xfs  defaults  0 0
  2. 이전 단계에서 만든 항목의 options 필드에 x-systemd.automount 를 추가합니다.
  3. 시스템이 새 구성을 등록하도록 새로 생성된 장치를 로드합니다.

    # systemctl daemon-reload
  4. 자동 마운트 장치를 시작합니다.

    # systemctl start mount-point.automount

검증

  1. mount-point.automount 가 실행 중인지 확인합니다.

    # systemctl status mount-point.automount
  2. 자동 마운트된 디렉토리에 필요한 콘텐츠가 있는지 확인합니다.

    # ls /mount/point

추가 리소스

  • systemd.automount(5) 도움말 페이지
  • systemd.mount(5) 도움말 페이지
  • systemd 관리

18.8. systemd.automount를 사용하여 마운트 단위로 필요에 따라 파일 시스템 마운트

다음 절차에서는 마운트 지점을 마운트할 때 마운트 단위를 사용하여 필요에 따라 파일 시스템을 마운트하는 방법을 보여줍니다. 각 마운트에 대해 자동 마운트 장치를 추가하고 활성화해야 합니다.

절차

  1. 마운트 장치를 생성합니다. 예를 들면 다음과 같습니다.

    mount-point.mount
    [Mount]
    What=/dev/disk/by-uuid/f5755511-a714-44c1-a123-cfde0e4ac688
    Where=/mount/point
    Type=xfs
  2. 마운트 단위와 이름이 동일하지만 확장자는 .automount 인 유닛 파일을 만듭니다.
  3. 파일을 열고 [자동 마운트] 섹션을 만듭니다. Where= 옵션을 마운트 경로로 설정합니다.

    [Automount]
    Where=/mount/point
    [Install]
    WantedBy=multi-user.target
  4. 시스템이 새 구성을 등록하도록 새로 생성된 장치를 로드합니다.

    # systemctl daemon-reload
  5. 대신 자동 마운트 장치를 활성화하고 시작합니다.

    # systemctl enable --now mount-point.automount

검증

  1. mount-point.automount 가 실행 중인지 확인합니다.

    # systemctl status mount-point.automount
  2. 자동 마운트된 디렉토리에 필요한 콘텐츠가 있는지 확인합니다.

    # ls /mount/point

추가 리소스

  • systemd.automount(5) 도움말 페이지.
  • systemd.mount(5) 도움말 페이지.
  • systemd 관리.

19장. IdM의 SSSD 구성 요소를 사용하여 autofs 맵 캐시

SSSD(시스템 보안 서비스 데몬)는 원격 서비스 디렉터리 및 인증 메커니즘에 액세스하기 위한 시스템 서비스입니다. 네트워크 연결이 느린 경우 데이터 캐싱이 유용합니다. autofs 맵을 캐시하도록 SSSD 서비스를 구성하려면 이 섹션의 절차를 따르십시오.

19.1. IdM 서버를 LDAP 서버로 사용하도록 autofs 구성

다음 절차에서는 IdM 서버를 LDAP 서버로 사용하도록 autofs 를 구성하는 방법을 설명합니다.

절차

  1. /etc/autofs.conf 파일을 편집하여 autofs 에서 검색하는 스키마 속성을 지정합니다.

    #
    # Other common LDAP naming
    #
    map_object_class = "automountMap"
    entry_object_class = "automount"
    map_attribute = "automountMapName"
    entry_attribute = "automountKey"
    value_attribute = "automountInformation"
    참고

    사용자는 /etc/autofs.conf 파일의 하위 및 상위 사례 모두에 속성을 작성할 수 있습니다.

  2. 선택적으로 LDAP 구성을 지정합니다. 이 작업을 수행하는 방법에는 두 가지가 있습니다. 가장 간단한 방법은 자동 마운트 서비스에서 LDAP 서버 및 위치를 자체적으로 검색하도록 하는 것입니다.

    ldap_uri = "ldap:///dc=example,dc=com"

    이 옵션을 사용하려면 DNS에 검색 가능한 서버에 대한 SRV 레코드를 포함해야 합니다.

    또는 사용할 LDAP 서버와 LDAP 검색을 위한 기본 DN을 명시적으로 설정합니다.

    ldap_uri = "ldap://ipa.example.com"
    search_base = "cn=location,cn=automount,dc=example,dc=com"
  3. autofs가 IdM LDAP 서버와의 클라이언트 인증을 허용하도록 /etc/autofs_ldap_auth.conf 파일을 편집합니다.

    • authrequired 를 yes로 변경합니다.
    • IdM LDAP 서버 host /fqdn@REALM의 Kerberos 호스트 주체로 주체를 설정합니다. 주체 이름은 GSS 클라이언트 인증의 일부로 IdM 디렉터리에 연결하는 데 사용됩니다.

      <autofs_ldap_sasl_conf
           usetls="no"
           tlsrequired="no"
           authrequired="yes"
           authtype="GSSAPI"
           clientprinc="host/server.example.com@EXAMPLE.COM"
           />

      호스트 주체에 대한 자세한 내용은 IdM에서 정식 DNS 호스트 이름 사용을 참조하십시오.

      필요한 경우 klist -k 를 실행하여 정확한 호스트 주체 정보를 가져옵니다.

19.2. autofs 맵을 캐시하도록 SSSD 구성

SSSD 서비스는 IdM 서버를 전혀 사용하도록 autofs 를 구성하지 않고도 IdM 서버에 저장된 autofs 맵을 캐시하는 데 사용할 수 있습니다.

사전 요구 사항

  • sssd 패키지가 설치됩니다.

절차

  1. SSSD 구성 파일을 엽니다.

    # vim /etc/sssd/sssd.conf
  2. SSSD에서 처리하는 서비스 목록에 autofs 서비스를 추가합니다.

    [sssd]
    domains = ldap
    services = nss,pam,autofs
  3. [autofs] 섹션을 만듭니다. autofs 서비스의 기본 설정이 대부분의 인프라에서 작동하므로 이 필드는 비워 둘 수 있습니다.

    [nss]
    
    [pam]
    
    [sudo]
    
    [autofs]
    
    [ssh]
    
    [pac]

    자세한 내용은 sssd.conf 도움말 페이지를 참조하십시오.

  4. 선택적으로 autofs 항목의 검색 기반을 설정합니다. 기본적으로 LDAP 검색 기반이지만 ldap_autofs_search_base 매개 변수에 하위 트리를 지정할 수 있습니다.

    [domain/EXAMPLE]
    
    ldap_search_base = "dc=example,dc=com"
    ldap_autofs_search_base = "ou=automount,dc=example,dc=com"
  5. SSSD 서비스를 다시 시작하십시오.

    # systemctl restart sssd.service
  6. SSSD가 자동 마운트 구성의 소스로 나열되도록 /etc/nsswitch.conf 파일을 확인합니다.

    automount: sss files
  7. autofs 서비스를 다시 시작하십시오.

    # systemctl restart autofs.service
  8. /home에 대한 마스터 맵 항목이 있다고 가정하여 사용자의 /home 디렉토리를 나열하여 구성을 테스트합니다.

    # ls /home/userName

    원격 파일 시스템을 마운트하지 않으면 /var/log/messages 파일에서 오류가 있는지 확인합니다. 필요한 경우 logging 매개 변수를 debug로 설정하여 /etc/sysconfig/autofs 파일에서 디버그 수준을 높입니다.

20장. 루트 파일 시스템에 대한 읽기 전용 권한 설정

경우에 따라 읽기 전용 권한으로 루트 파일 시스템(/)을 마운트해야 합니다. 사용 사례의 예로는 예기치 않은 시스템 전원 끄기 후 보안 강화 또는 데이터 무결성 보장이 포함됩니다.

20.1. 항상 쓰기 권한을 유지하는 파일 및 디렉토리

시스템이 제대로 작동하려면 일부 파일과 디렉토리에서 쓰기 권한을 유지해야 합니다. 루트 파일 시스템이 읽기 전용 모드로 마운트되면 해당 파일은 tmpfs 임시 파일 시스템을 사용하여 RAM에 마운트됩니다.

이러한 파일 및 디렉터리의 기본 세트는 /etc/rwtab 파일에서 읽습니다. 시스템에 이 파일이 있어야 하는 경우 readonly-root 패키지가 필요합니다.

dirs	/var/cache/man
dirs	/var/gdm
<content truncated>

empty	/tmp
empty	/var/cache/foomatic
<content truncated>

files	/etc/adjtime
files	/etc/ntp.conf
<content truncated>

/etc/rwtab 파일의 항목은 다음 형식을 따릅니다.

copy-method    path

이 구문에서는 다음을 수행합니다.

  • copy-method 를 파일 또는 디렉터리를 tmpfs에 복사하는 방법을 지정하는 키워드 중 하나로 바꿉니다.
  • 경로를 파일 또는 디렉터리의 경로로 바꿉니다.

/etc/rwtab 파일은 파일 또는 디렉토리를 tmpfs 에 복사할 수 있는 다음과 같은 방법을 인식합니다.

비어있습니다

빈 경로가 tmpfs 에 복사됩니다. 예를 들면 다음과 같습니다.

empty /tmp
dirs

디렉터리 트리는 비어 있는 tmpfs 에 복사됩니다. 예를 들면 다음과 같습니다.

dirs /var/run
파일

파일 또는 디렉터리 트리는 그대로 tmpfs 에 복사됩니다. 예를 들면 다음과 같습니다.

files /etc/resolv.conf

/etc/rwtab.d/ 에 사용자 지정 경로를 추가할 때와 동일한 형식이 적용됩니다.

20.2. 부팅 시 읽기 전용 권한으로 마운트하도록 루트 파일 시스템 구성

이 절차를 통해 루트 파일 시스템은 다음 부팅에 대해 읽기 전용으로 마운트됩니다.

절차

  1. /etc/sysconfig/readonly-root 파일에서 READONLY 옵션을 yes 로 설정하여 파일 시스템을 읽기 전용으로 마운트합니다.

    READONLY=yes
  2. / etc/fstab 파일의 루트 항목(/)에 ro 옵션을 추가합니다.

    /dev/mapper/luks-c376919e...  /  xfs  x-systemd.device-timeout=0,ro  1  1
  3. ro 커널 옵션을 활성화합니다.

    # grubby --update-kernel=ALL --args="ro"
  4. rw 커널 옵션이 비활성화되어 있는지 확인합니다.

    # grubby --update-kernel=ALL --remove-args="rw"
  5. tmpfs 파일 시스템에서 쓰기 권한으로 마운트할 파일과 디렉토리를 추가해야 하는 경우 /etc/rwtab.d/ 디렉토리에 텍스트 파일을 만들고 설정을 배치합니다.

    예를 들어 쓰기 권한을 사용하여 /etc/example/file 파일을 마운트하려면 이 행을 /etc/rwtab.d/example 파일에 추가하십시오.

    files /etc/example/file
    중요

    tmpfs 의 파일 및 디렉토리에 대한 변경 사항은 부팅 시 유지되지 않습니다.

  6. 시스템을 재부팅하여 변경 사항을 적용합니다.

문제 해결

  • 실수로 읽기 전용 권한으로 루트 파일 시스템을 마운트하는 경우 다음 명령을 사용하여 읽기/쓰기 권한으로 다시 마운트할 수 있습니다.

    # mount -o remount,rw /

21장. 할당량으로 XFS의 스토리지 공간 사용 제한

디스크 할당량을 구현하여 사용자 또는 그룹에서 사용할 수 있는 디스크 공간을 제한할 수 있습니다. 사용자가 디스크 공간을 너무 많이 사용하거나 파티션이 가득 차기 전에 시스템 관리자에게 알리는 경고 수준을 정의할 수도 있습니다.

XFS 할당량 하위 시스템은 디스크 공간(블록) 및 파일(inode) 사용 제한을 관리합니다. XFS 할당량 제어 또는 사용자, 그룹 또는 디렉터리 또는 프로젝트 수준에서 이러한 항목의 사용을 보고합니다. 그룹 및 프로젝트 할당량은 기본이 아닌 이전 XFS 디스크 형식에서만 상호 배타적입니다.

디렉터리별 또는 프로젝트별로 관리하는 경우 XFS는 특정 프로젝트와 관련된 디렉터리 계층 구조의 디스크 사용을 관리합니다.

21.1. 디스크 할당량

대부분의 컴퓨팅 환경에서 디스크 공간은 무한이 아닙니다. 할당량 하위 시스템은 디스크 공간 사용을 제어하는 메커니즘을 제공합니다.

로컬 파일 시스템의 개별 사용자 및 사용자 그룹에 대한 디스크 할당량을 구성할 수 있습니다. 이를 통해 사용자별 파일(예: 이메일)에 할당된 공간을 사용자가 작업하는 프로젝트에 할당한 공간을 별도로 관리할 수 있습니다. 할당량 하위 시스템은 할당된 제한을 초과하면 사용자에게 경고하지만 현재 작업에 대한 추가 공간(하드 제한/소프트 제한)이 허용됩니다.

할당량이 구현되면 할당량을 초과하는지 확인하고 할당량이 정확한지 확인해야 합니다. 사용자가 할당량을 반복적으로 초과하거나 소프트 한도에 일관되게 도달하는 경우 시스템 관리자는 디스크 공간을 더 적게 사용하거나 사용자의 디스크 할당량을 늘리는 방법을 결정할 수 있습니다.

다음을 제어하도록 할당량을 설정할 수 있습니다.

  • 사용된 디스크 블록 수입니다.
  • UNIX 파일 시스템의 파일에 대한 정보를 포함하는 데이터 구조인 inode 수입니다. inode는 파일 관련 정보를 저장하므로 생성할 수 있는 파일 수를 제어할 수 있습니다.

21.2. xfs_quota

xfs_quota 툴을 사용하여 XFS 파일 시스템의 할당량을 관리할 수 있습니다. 또한 제한 적용이 꺼져 있는 XFS 파일 시스템을 효과적인 디스크 사용 회계 시스템으로 사용할 수 있습니다.

XFS 할당량 시스템은 다양한 방법으로 다른 파일 시스템과 다릅니다. 가장 중요한 것은 할당량 정보를 파일 시스템 메타데이터로 간주하고 저널링을 사용하여 높은 수준의 일관성을 보장합니다.

추가 리소스

  • xfs_quota(8) 도움말 페이지.

21.3. XFS의 파일 시스템 할당량 관리

XFS 할당량 하위 시스템은 디스크 공간(블록) 및 파일(inode) 사용 제한을 관리합니다. XFS 할당량 제어 또는 사용자, 그룹 또는 디렉터리 또는 프로젝트 수준에서 이러한 항목의 사용을 보고합니다. 그룹 및 프로젝트 할당량은 기본이 아닌 이전 XFS 디스크 형식에서만 상호 배타적입니다.

디렉터리별 또는 프로젝트별로 관리하는 경우 XFS는 특정 프로젝트와 관련된 디렉터리 계층 구조의 디스크 사용을 관리합니다.

21.4. XFS의 디스크 할당량 활성화

이 절차에서는 XFS 파일 시스템에서 사용자, 그룹 및 프로젝트에 대한 디스크 할당량을 활성화합니다. 할당량이 활성화되면 xfs_quota 툴을 사용하여 제한을 설정하고 디스크 사용량을 보고할 수 있습니다.

절차

  1. 사용자에 대한 할당량을 활성화합니다.

    # mount -o uquota /dev/xvdb1 /xfs

    uquotauqnoenforce 로 교체하여 제한을 강제 적용하지 않고 사용량 보고를 허용합니다.

  2. 그룹에 대한 할당량을 활성화합니다.

    # mount -o gquota /dev/xvdb1 /xfs

    제한을 강제 적용하지 않고 사용량 보고를 허용하려면 gquota 를 gqnoenforce 로 바꿉니다.

  3. 프로젝트의 할당량을 활성화합니다.

    # mount -o pquota /dev/xvdb1 /xfs

    pquotapqnoenforce 로 교체하여 제한을 강제 적용하지 않고 사용량 보고를 허용합니다.

  4. 또는 할당량 마운트 옵션을 /etc/fstab 파일에 포함합니다. 다음 예제에서는 XFS 파일 시스템에서 각각 사용자, 그룹 및 프로젝트에 대한 할당량을 활성화하는 /etc/fstab 파일의 항목을 보여줍니다. 이 예제에서는 읽기/쓰기 권한을 사용하여 파일 시스템을 마운트합니다.

    # vim /etc/fstab
    /dev/xvdb1    /xfs    xfs    rw,quota       0  0
    /dev/xvdb1    /xfs    xfs    rw,gquota      0  0
    /dev/xvdb1    /xfs    xfs    rw,prjquota    0  0

추가 리소스

  • mount(8) 도움말 페이지.
  • xfs_quota(8) 도움말 페이지.

21.5. XFS 사용량 보고

xfs_quota 툴을 사용하여 제한을 설정하고 디스크 사용량을 보고할 수 있습니다. 기본적으로 xfs_quota 는 기본 모드에서 대화형으로 실행됩니다. 기본 모드 하위 명령은 사용량을 보고하며 모든 사용자가 사용할 수 있습니다.

사전 요구 사항

절차

  1. xfs_quota 쉘을 시작합니다.

    # xfs_quota
  2. 지정된 사용자의 사용 및 제한을 표시합니다.

    # xfs_quota> quota username
  3. 블록 및 inode에 대해 사용 가능한 개수와 사용된 개수를 표시합니다.

    # xfs_quota> df
  4. help 명령을 실행하여 xfs_quota 에서 사용할 수 있는 기본 명령을 표시합니다.

    # xfs_quota> help
  5. xfs_quota 를 종료할 q 를 지정합니다.

    # xfs_quota> q

추가 리소스

  • xfs_quota(8) 도움말 페이지.

21.6. XFS 할당량 제한 수정

x 옵션과 함께 xfs_quota 툴을 시작하여 전문가 모드를 활성화하고 관리자 명령을 실행하여 할당량 시스템을 수정할 수 있습니다. 이 모드의 하위 명령은 제한의 실제 구성을 허용하며 상승된 권한이 있는 사용자만 사용할 수 있습니다.

사전 요구 사항

절차

  1. 전문가 모드를 활성화하려면 -x 옵션으로 xfs_quota 쉘을 시작합니다.

    # xfs_quota -x
  2. 특정 파일 시스템에 대한 할당량 정보를 보고합니다.

    # xfs_quota> report /path

    예를 들어 /home (/ dev/blockdevice에서)에 대한 샘플 할당량 보고서를 표시하려면 report -h /home 명령을 사용합니다. 다음과 유사한 출력이 표시됩니다.

    User quota on /home (/dev/blockdevice)
    Blocks
    User ID      Used   Soft   Hard Warn/Grace
    ---------- ---------------------------------
    root            0      0      0  00 [------]
    testuser   103.4G      0      0  00 [------]
  3. 할당량 제한을 수정합니다.

    # xfs_quota> limit isoft=500m ihard=700m user /path

    예를 들어 홈 디렉터리가 /home/john 인 사용자 john 에 대해 각각 500 및 700의 소프트 및 하드 inode 수 제한을 설정하려면 다음 명령을 사용합니다.

    # xfs_quota -x -c 'limit isoft=500 ihard=700 john' /home/

    이 경우 마운트된 xfs 파일 시스템에 해당하는 mount_point 를 전달합니다.

  4. help 명령을 실행하여 xfs_quota -x 에 사용할 수 있는 전문가 명령을 표시합니다.

    # xfs_quota> help

추가 리소스

  • xfs_quota(8) 도움말 페이지.

21.7. XFS의 프로젝트 제한 설정

이 절차에서는 프로젝트 제어 디렉터리에 대한 제한을 구성합니다.

절차

  1. 프로젝트 제어 디렉토리를 /etc/projects 에 추가합니다. 예를 들어 다음은 고유 ID가 11인 /var/log 경로를 /etc/projects 에 추가합니다. 프로젝트 ID는 프로젝트에 매핑된 숫자 값일 수 있습니다.

    # echo 11:/var/log >> /etc/projects
  2. 프로젝트 이름을 /etc/projid 에 추가하여 프로젝트 ID를 프로젝트 이름에 매핑합니다. 예를 들어 다음에서는 이전 단계에서 정의한 대로 logfiles 라는 프로젝트를 프로젝트 ID 11과 연결합니다.

    # echo logfiles:11 >> /etc/projid
  3. 프로젝트 디렉터리를 초기화합니다. 예를 들어 다음은 프로젝트 디렉토리 /var 을 초기화합니다.

    # xfs_quota -x -c 'project -s logfiles' /var
  4. 초기화된 디렉터리를 사용하여 프로젝트의 할당량을 구성합니다.

    # xfs_quota -x -c 'limit -p bhard=1g logfiles' /var

추가 리소스

  • xfs_quota(8) 도움말 페이지.
  • projid(5) 도움말 페이지.
  • projects(5) 도움말 페이지.

22장. 할당량으로 ext4의 스토리지 공간 사용 제한

할당할 수 있으려면 시스템에서 디스크 할당량을 활성화해야 합니다. 사용자, 그룹 또는 프로젝트당 디스크 할당량을 할당할 수 있습니다. 그러나 소프트 제한이 설정된 경우 유예 기간이라는 구성 가능한 기간 동안 이러한 할당량을 초과할 수 있습니다.

22.1. 할당량 툴 설치

디스크 할당량을 구현하려면 할당량 RPM 패키지를 설치해야 합니다.

절차

  • quota 패키지를 설치합니다.

    # yum install quota

22.2. 파일 시스템 생성 시 할당량 기능 활성화

다음 절차에서는 파일 시스템 생성 시 할당량을 활성화하는 방법을 설명합니다.

절차

  1. 파일 시스템 생성 시 할당량을 활성화합니다.

    # mkfs.ext4 -O quota /dev/sda
    참고

    사용자 및 그룹 할당량만 기본적으로 활성화되어 초기화됩니다.

  2. 파일 시스템 생성 시 기본값을 변경합니다.

    # mkfs.ext4 -O quota -E quotatype=usrquota:grpquota:prjquota /dev/sda
  3. 파일 시스템을 마운트합니다.

    # mount /dev/sda

추가 리소스

  • ext4(5) 도움말 페이지.

22.3. 기존 파일 시스템에서 할당량 기능 활성화

다음 절차에서는 tune2fs 명령을 사용하여 기존 파일 시스템에서 할당량 기능을 활성화하는 방법을 설명합니다.

절차

  1. 파일 시스템을 마운트 해제합니다.

    # umount /dev/sda
  2. 기존 파일 시스템에서 할당량을 활성화합니다.

    # tune2fs -O quota /dev/sda
    참고

    사용자 및 그룹 할당량만 기본적으로 초기화됩니다.

  3. 기본값을 변경합니다.

    # tune2fs -Q usrquota,grpquota,prjquota /dev/sda
  4. 파일 시스템을 마운트합니다.

    # mount /dev/sda

추가 리소스

  • ext4(5) 도움말 페이지.

22.4. 할당량 적용 활성화

추가 옵션 없이 파일 시스템을 마운트한 후 할당량 계정은 기본적으로 활성화되지만 할당량 적용은 그렇지 않습니다.

사전 요구 사항

  • 할당량 기능이 활성화되어 기본 할당량이 초기화됩니다.

절차

  • 사용자 할당량에 대해 quotaon 별 할당량 적용을 활성화합니다.

    # mount /dev/sda /mnt
    # quotaon /mnt
    참고

    usrquota,grpquota 또는 prjquota 마운트 옵션을 사용하여 마운트 시 쿼터 적용을 활성화할 수 있습니다.

    # mount -o usrquota,grpquota,prjquota /dev/sda /mnt
  • 모든 파일 시스템에 대해 사용자, 그룹 및 프로젝트 할당량을 활성화합니다.

    # quotaon -vaugP
    • u , - g 또는 - P 옵션이 모두 지정되지 않으면 사용자 할당량만 활성화됩니다.
    • g 옵션 만 지정하면 그룹 할당량만 활성화됩니다.
    • P 옵션 만 지정하면 프로젝트 할당량만 활성화됩니다.
  • /home 과 같은 특정 파일 시스템에 대한 할당량을 활성화합니다.

    # quotaon -vugP /home

추가 리소스

  • quotaon(8) 도움말 페이지.

22.5. 사용자당 할당량 할당

디스크 할당량은 quota 명령을 사용하여 사용자에게 할당됩니다.

참고

EDITOR 환경 변수에서 정의한 텍스트 편집기는 by edquota 에 사용됩니다. 편집기를 변경하려면 ~/.bash_profile 파일의 EDITOR 환경 변수를 선택한 편집기의 전체 경로로 설정합니다.

사전 요구 사항

  • 사용자는 사용자 할당량을 설정하기 전에 존재해야 합니다.

절차

  1. 사용자의 할당량을 할당합니다.

    # edquota username

    사용자 이름을 할당량을 할당할 사용자로 바꿉니다.

    예를 들어 /dev/sda 파티션에 대한 할당량을 활성화하고 명령 된quota testuser 를 실행하면 시스템에 구성된 기본 편집기에 다음이 표시됩니다.

    Disk quotas for user testuser (uid 501):
    Filesystem   blocks   soft   hard   inodes   soft   hard
    /dev/sda      44043      0      0    37418      0      0
  2. 원하는 제한 사항을 변경합니다.

    값이 0으로 설정되어 있으면 제한이 설정되지 않습니다. 텍스트 편집기에서 변경합니다.

    예를 들어 다음은 testuser의 소프트 및 하드 블록 제한이 각각 50000 및 55000으로 설정되었음을 보여줍니다.

    Disk quotas for user testuser (uid 501):
    Filesystem   blocks   soft   hard   inodes   soft   hard
    /dev/sda      44043  50000  55000    37418      0      0
    • 첫 번째 열은 할당량이 활성화된 파일 시스템의 이름입니다.
    • 두 번째 열에는 사용자가 현재 사용 중인 블록 수를 보여줍니다.
    • 다음 두 열은 파일 시스템에서 사용자에 대한 소프트 및 하드 블록 제한을 설정하는 데 사용됩니다.
    • inode 열에는 사용자가 현재 사용 중인 inode 수가 표시됩니다.
    • 마지막 두 열은 파일 시스템에서 사용자의 소프트 및 하드 inode 제한을 설정하는 데 사용됩니다.

      • 하드 블록 제한은 사용자 또는 그룹이 사용할 수 있는 절대적인 최대 디스크 공간입니다. 이 제한에 도달하면 추가 디스크 공간을 사용할 수 없습니다.
      • 소프트 블록 제한은 사용할 수 있는 최대 디스크 공간을 정의합니다. 그러나 하드 제한과 달리 특정 시간 동안 소프트 제한을 초과할 수 있습니다. 이 시간을 유예 기간 이라고 합니다. 유예 기간은 초, 분, 시간, 일, 주 또는 월 단위로 나타낼 수 있습니다.

검증 단계

  • 사용자의 할당량이 설정되었는지 확인합니다.

    # quota -v testuser
    Disk quotas for user testuser:
    Filesystem  blocks  quota  limit  grace  files  quota  limit  grace
    /dev/sda      1000*  1000   1000             0      0      0

22.6. 그룹당 할당량 할당

그룹별로 할당량을 할당할 수 있습니다.

사전 요구 사항

  • 그룹은 그룹 할당량을 설정하기 전에 존재해야 합니다.

절차

  1. 그룹 할당량을 설정합니다.

    # edquota -g groupname

    예를 들어 devel 그룹에 그룹 할당량을 설정하려면 다음을 수행합니다.

    # edquota -g devel

    이 명령은 텍스트 편집기에 그룹의 기존 할당량을 표시합니다.

    Disk quotas for group devel (gid 505):
    Filesystem   blocks  soft  hard  inodes  soft  hard
    /dev/sda     440400     0     0   37418     0     0
  2. 제한을 수정하고 파일을 저장합니다.

검증 단계

  • 그룹 할당량이 설정되었는지 확인합니다.

    # quota -vg groupname

22.7. 프로젝트당 할당량 할당

이 절차에서는 프로젝트당 할당량을 할당합니다.

사전 요구 사항

  • 파일 시스템에서 프로젝트 할당량이 활성화됩니다.

절차

  1. 프로젝트 제어 디렉토리를 /etc/projects 에 추가합니다. 예를 들어 다음은 고유 ID가 11인 /var/log 경로를 /etc/projects 에 추가합니다. 프로젝트 ID는 프로젝트에 매핑된 숫자 값일 수 있습니다.

    # echo 11:/var/log >> /etc/projects
  2. 프로젝트 이름을 /etc/projid 에 추가하여 프로젝트 ID를 프로젝트 이름에 매핑합니다. 예를 들어 다음은 Logs(로그 )라는 프로젝트를 이전 단계에서 정의한 대로 11의 프로젝트 ID와 연결합니다.

    # echo Logs:11 >> /etc/projid
  3. 원하는 제한을 설정합니다.

    # edquota -P 11
    참고

    프로젝트 ID(이 경우11 ) 또는 이름(이 경우Logs )으로 프로젝트를 선택할 수 있습니다.

  4. quotaon 을 사용하여 할당량 적용을 활성화합니다.

    할당량 적용 활성화를 참조하십시오.

검증 단계

  • 프로젝트 할당량이 설정되었는지 확인합니다.

    # quota -vP 11
    참고

    프로젝트 ID 또는 프로젝트 이름으로 확인할 수 있습니다.

추가 리소스

  • edquota(8) 도움말 페이지.
  • projid(5) 도움말 페이지.
  • projects(5) 도움말 페이지.

22.8. 소프트 제한의 유예 기간 설정

지정된 할당량에 소프트 제한이 있는 경우 소프트 제한을 초과할 수 있는 유예 기간을 편집할 수 있습니다. 사용자, 그룹 또는 프로젝트의 유예 기간을 설정할 수 있습니다.

절차

  • 유예 기간을 편집합니다.

    # edquota -t
중요

기타 quota 명령은 특정 사용자, 그룹 또는 프로젝트의 할당량에서 작동하지만 -t 옵션은 할당량이 활성화된 모든 파일 시스템에서 작동합니다.

추가 리소스

  • edquota(8) 도움말 페이지.

22.9. 파일 시스템 할당량 끄기

지정된 파일 시스템에서 디스크 할당량 적용을 끄려면 quota off 를 사용합니다. 이 명령을 실행한 후에도 할당량 계정이 계속 활성화됩니다.

절차

  • 사용자 및 그룹 할당량을 모두 끄려면 다음을 수행합니다.

    # quotaoff -vaugP
    • u , - g 또는 - P 옵션이 모두 지정되지 않으면 사용자 할당량만 비활성화됩니다.
    • g 옵션 만 지정하면 그룹 할당량만 비활성화됩니다.
    • P 옵션 만 지정하면 프로젝트 할당량만 비활성화됩니다.
    • v 스위치를 사용하면 명령이 실행될 때 자세한 상태 정보가 표시됩니다.

추가 리소스

  • quotaoff(8) 도움말 페이지.

22.10. 디스크 할당량 보고

repquota 유틸리티를 사용하여 디스크 할당량 보고서를 생성할 수 있습니다.

절차

  1. repquota 명령을 실행합니다.

    # repquota

    예를 들어, repquota /dev/sda 명령은 이 출력을 생성합니다.

    *** Report for user quotas on device /dev/sda
    Block grace time: 7days; Inode grace time: 7days
    			Block limits			File limits
    User		used	soft	hard	grace	used	soft	hard	grace
    ----------------------------------------------------------------------
    root      --      36       0       0              4     0     0
    kristin   --     540       0       0            125     0     0
    testuser  --  440400  500000  550000          37418     0     0
  2. 할당량이 활성화된 모든 파일 시스템에 대한 디스크 사용량 보고서를 확인합니다.

    # repquota -augP

각 사용자가 블록 또는 inode 제한을 초과했는지 여부를 확인한 후 표시되는 -- 기호입니다. 소프트 제한을 초과하면 해당 - 문자 대신 + 문자가 나타납니다. first - 문자는 블록 제한을 나타내고, 두 번째 문자는 inode 제한을 나타냅니다.

유예 열은 일반적으로 비어 있습니다. 소프트 제한을 초과한 경우 열에는 유예 기간에 남아 있는 시간과 동일한 시간 사양이 포함되어 있습니다. 유예 기간이 만료되면 해당 위치에 아무것도 표시되지 않습니다.

추가 리소스

자세한 내용은 repquota(8) 도움말 페이지입니다.

23장. 사용하지 않는 블록 삭제

해당 장치를 지원하는 블록 장치에서 삭제 작업을 수행하거나 예약할 수 있습니다. 블록 삭제 작업은 마운트된 파일 시스템에서 더 이상 사용하지 않는 파일 시스템 블록을 기본 스토리지와 통신합니다. 블록 삭제 작업을 통해 SSD는 가비지 컬렉션 루틴을 최적화할 수 있으며 씬 프로비저닝된 스토리지에 사용되지 않는 물리적 블록을 다시 사용하도록 알릴 수 있습니다.

요구 사항

  • 파일 시스템의 기본 블록 장치는 물리적 삭제 작업을 지원해야 합니다.

    /sys/block/ <device> /queue/discard_max_bytes 파일의 값이 0이 아닌 경우 물리적 삭제 작업이 지원됩니다.

23.1. 블록 삭제 작업 유형

다양한 방법을 사용하여 삭제 작업을 실행할 수 있습니다.

배치 삭제
사용자에 의해 명시적으로 트리거되고 선택한 파일 시스템에서 사용되지 않는 모든 블록을 삭제합니다.
온라인 삭제
마운트 시 지정되며 사용자 개입 없이 실시간으로 트리거됩니다. 온라인 삭제 작업은 사용된 상태에서 free 상태로 전환되는 블록만 삭제합니다.
주기적인 삭제
systemd 서비스에서 정기적으로 실행하는 배치 작업입니다.

모든 유형은 XFS 및 ext4 파일 시스템에서 지원됩니다.

권장 사항

배치 또는 정기적 삭제를 사용하는 것이 좋습니다.

다음과 같은 경우에만 온라인 삭제를 사용하십시오.

  • 시스템의 워크로드를 배치 삭제를 사용할 수 없거나
  • 성능을 유지하려면 온라인 삭제 작업이 필요합니다.

23.2. 배치 블록 삭제 수행

배치 블록 삭제 작업을 수행하여 마운트된 파일 시스템에서 사용되지 않는 블록을 삭제할 수 있습니다.

사전 요구 사항

  • 파일 시스템이 마운트됩니다.
  • 파일 시스템의 기본 블록 장치는 물리적 삭제 작업을 지원합니다.

절차

  • fstrim 유틸리티를 사용합니다.

    • 선택한 파일 시스템에서만 삭제하려면 다음을 사용합니다.

      # fstrim mount-point
    • 마운트된 모든 파일 시스템에서 삭제하려면 다음을 사용합니다.

      # fstrim --all

fstrim 명령을 실행하는 경우 다음을 실행합니다.

  • 삭제 작업을 지원하지 않는 장치 또는
  • 여러 장치로 구성된 LVM 또는 MD. 장치 중 하나에서 삭제 작업을 지원하지 않는 논리 장치(LVM 또는 MD)

다음 메시지가 표시됩니다.

# fstrim /mnt/non_discard

fstrim: /mnt/non_discard: the discard operation is not supported

추가 리소스

  • fstrim(8) 도움말 페이지.

23.3. 온라인 블록 삭제 활성화

온라인 블록 삭제 작업을 수행하여 지원되는 모든 파일 시스템에서 사용되지 않는 블록을 자동으로 삭제할 수 있습니다.

절차

  • 마운트 시 온라인 삭제를 활성화합니다.

    • 파일 시스템을 수동으로 마운트할 때 -o discard 마운트 옵션을 추가합니다.

      # mount -o discard device mount-point
    • 파일 시스템을 영구적으로 마운트할 때 /etc/fstab 파일의 마운트 항목에 삭제 옵션을 추가합니다.

추가 리소스

  • mount(8) 도움말 페이지.
  • fstab(5) 도움말 페이지.

23.4. 주기적인 블록 삭제 활성화

systemd 타이머를 활성화하여 지원되는 모든 파일 시스템에서 사용되지 않는 블록을 정기적으로 삭제할 수 있습니다.

절차

  • systemd 타이머를 활성화하고 시작합니다.

    # systemctl enable --now fstrim.timer
    Created symlink /etc/systemd/system/timers.target.wants/fstrim.timer → /usr/lib/systemd/system/fstrim.timer.

검증

  • 타이머 상태를 확인합니다.

    # systemctl status fstrim.timer
    fstrim.timer - Discard unused blocks once a week
       Loaded: loaded (/usr/lib/systemd/system/fstrim.timer; enabled; vendor preset: disabled)
       Active: active (waiting) since Wed 2023-05-17 13:24:41 CEST; 3min 15s ago
      Trigger: Mon 2023-05-22 01:20:46 CEST; 4 days left
         Docs: man:fstrim
    
    May 17 13:24:41 localhost.localdomain systemd[1]: Started Discard unused blocks once a week.

24장. Stratis 파일 시스템 설정

Stratis는 물리적 스토리지 장치 풀을 관리하는 서비스로 실행되며 복잡한 스토리지 구성을 설정하고 관리하는 데 도움을 주기 때문에 사용하기 쉬운 로컬 스토리지 관리가 간소화됩니다.

중요

Stratis는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. Red Hat은 프로덕션 환경에서 사용하지 않는 것이 좋습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다. Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 https://access.redhat.com/support/offerings/techpreview 에서 참조하십시오.

24.1. Stratis란 무엇인가?

Stratis는 Linux용 로컬 스토리지 관리 솔루션입니다. 단순성과 사용 편의성에 중점을 두고 고급 스토리지 기능에 액세스할 수 있습니다.

Stratis를 사용하면 다음과 같은 활동을 쉽게 수행할 수 있습니다.

  • 스토리지의 초기 구성
  • 나중에 변경
  • 고급 스토리지 기능 사용

Stratis는 고급 스토리지 기능을 지원하는 로컬 스토리지 관리 시스템입니다. Stratis의 중앙 개념은 스토리지 입니다. 이 풀은 하나 이상의 로컬 디스크 또는 파티션에서 생성되며 파일 시스템은 풀에서 생성됩니다.

이 풀은 다음과 같은 많은 유용한 기능을 활성화합니다.

  • 파일 시스템 스냅샷
  • 씬 프로비저닝
  • 계층화
  • 암호화

추가 리소스

24.2. Stratis 볼륨의 구성 요소

Stratis 볼륨을 구성하는 구성 요소에 대해 알아봅니다.

Stratis는 외부에서 명령줄 인터페이스 및 API에서 다음 볼륨 구성 요소를 제공합니다.

blockdev
디스크 또는 디스크 파티션과 같은 블록 장치.
pool

하나 이상의 블록 장치로 구성됩니다.

풀의 총 크기는 블록 장치의 크기와 같습니다.

이 풀에는 dm-cache 대상을 사용하는 비발성 데이터 캐시와 같은 대부분의 Stratis 계층이 포함되어 있습니다.

Stratis는 각 풀에 대해 /dev/stratis/my-pool/ 디렉토리를 생성합니다. 이 디렉터리에는 풀에서 Stratis 파일 시스템을 나타내는 장치에 대한 링크가 포함되어 있습니다.

filesystem

각 풀에는 파일을 저장하는 하나 이상의 파일 시스템이 포함될 수 있습니다.

파일 시스템은 씬 프로비저닝되며 총 크기가 고정되지 않습니다. 실제 파일 시스템의 크기는 파일 시스템에 저장된 데이터와 함께 증가합니다. 데이터 크기가 파일 시스템의 가상 크기에 도달하면 Stratis에서 씬 볼륨과 파일 시스템을 자동으로 늘립니다.

파일 시스템은 XFS로 포맷됩니다.

중요

Stratis는 XFS가 인식하지 못하는 Stratis를 사용하여 생성된 파일 시스템에 대한 정보를 추적하며 XFS를 사용하여 수행한 변경 사항은 Stratis에서 자동으로 업데이트를 생성하지 않습니다. 사용자가 Stratis에서 관리하는 XFS 파일 시스템을 다시 포맷하거나 재구성해서는 안 됩니다.

Stratis는 /dev/stratis/my-pool /my-fs 경로에 파일 시스템에 대한 링크를 만듭니다.

참고

Stratis는 dmsetup 목록 및 /proc/partitions 파일에 표시되는 많은 장치 매퍼 장치를 사용합니다. 마찬가지로 lsblk 명령 출력은 Stratis의 내부 작업 및 계층을 반영합니다.

24.3. Stratis를 사용하여 사용할 수 있는 블록 장치

Stratis와 함께 사용할 수 있는 스토리지 장치입니다.

지원되는 장치

Stratis 풀은 이러한 유형의 블록 장치에서 작동하도록 테스트되었습니다.

  • LUKS
  • LVM 논리 볼륨
  • MD RAID
  • DM Multipath
  • iSCSI
  • HDD 및 SSD
  • NVMe 장치

지원되지 않는 장치

Stratis에는 씬 프로비저닝 계층이 포함되어 있기 때문에 Red Hat은 이미 씬 프로비저닝된 블록 장치에 Stratis 풀을 배치하지 않는 것이 좋습니다.

24.4. Stratis 설치

Stratis에 필요한 패키지를 설치합니다.

절차

  1. Stratis 서비스 및 명령줄 유틸리티를 제공하는 패키지를 설치합니다.

    # yum install stratisd stratis-cli
  2. stratisd 서비스가 활성화되었는지 확인합니다.

    # systemctl enable --now stratisd

24.5. 암호화되지 않은 Stratis 풀 생성

하나 이상의 블록 장치에서 암호화되지 않은 Stratis 풀을 생성할 수 있습니다.

사전 요구 사항

  • Stratis가 설치되어 있습니다. 자세한 내용은 Stratis 설치를 참조하십시오.
  • stratisd 서비스가 실행 중입니다.
  • Stratis 풀을 생성하는 블록 장치는 사용되지 않으며 마운트되지 않습니다.
  • Stratis 풀을 생성하는 각 블록 장치는 최소 1GB입니다.
  • IBM Z 아키텍처에서 /dev/dasd* 블록 장치를 파티셔닝해야 합니다. Stratis 풀을 생성하려면 파티션 장치를 사용합니다.

DASD 장치 파티셔닝에 대한 자세한 내용은 IBM Z에서 Linux 인스턴스 구성을 참조하십시오.

참고

암호화되지 않은 Stratis 풀은 암호화할 수 없습니다.

절차

  1. Stratis 풀에서 사용하려는 각 블록 장치에 존재하는 파일 시스템, 파티션 테이블 또는 RAID 서명을 지웁니다.

    # wipefs --all block-device

    여기서 block-device 는 블록 장치의 경로입니다(예: /dev/sdb ).

  2. 선택한 블록 장치에 암호화되지 않은 새 Stratis 풀을 생성합니다.

    # stratis pool create my-pool block-device

    여기서 블록 장치는 비어 있거나 초기화된 블록 장치의 경로입니다.

    참고

    한 줄에 여러 블록 장치를 지정합니다.

    # stratis pool create my-pool block-device-1 block-device-2
  3. 새 Stratis 풀이 생성되었는지 확인합니다.

    # stratis pool list

24.6. 암호화된 Stratis 풀 생성

데이터를 보호하려면 하나 이상의 블록 장치에서 암호화된 Stratis 풀을 생성할 수 있습니다.

암호화된 Stratis 풀을 만들 때 커널 인증 키는 기본 암호화 메커니즘으로 사용됩니다. 이후 시스템이 재부팅된 후 이 커널 인증 키를 사용하여 암호화된 Stratis 풀을 잠금 해제합니다.

하나 이상의 블록 장치에서 암호화된 Stratis 풀을 생성할 때 다음을 확인합니다.

  • 각 블록 장치는 cryptsetup 라이브러리를 사용하여 암호화되며 LUKS2 형식을 구현합니다.
  • 각 Stratis 풀은 고유한 키를 보유하거나 다른 풀과 동일한 키를 공유할 수 있습니다. 이러한 키는 커널 인증 키에 저장됩니다.
  • Stratis 풀을 구성하는 블록 장치는 모두 암호화되거나 암호화되지 않아야 합니다. 동일한 Stratis 풀에서 암호화 및 암호화되지 않은 블록 장치를 둘 다 가질 수 없습니다.
  • 암호화된 Stratis 풀의 데이터 계층에 추가된 블록 장치는 자동으로 암호화됩니다.

사전 요구 사항

  • Stratis v2.1.0 이상이 설치됩니다. 자세한 내용은 Stratis 설치를 참조하십시오.
  • stratisd 서비스가 실행 중입니다.
  • Stratis 풀을 생성하는 블록 장치는 사용되지 않으며 마운트되지 않습니다.
  • Stratis 풀을 생성하는 블록 장치는 각각 1GB 이상입니다.
  • IBM Z 아키텍처에서 /dev/dasd* 블록 장치를 파티셔닝해야 합니다. Stratis 풀의 파티션을 사용합니다.

DASD 장치 파티셔닝에 대한 자세한 내용은 IBM Z에서 Linux 인스턴스 구성을 참조하십시오.

절차

  1. Stratis 풀에서 사용하려는 각 블록 장치에 존재하는 파일 시스템, 파티션 테이블 또는 RAID 서명을 지웁니다.

    # wipefs --all block-device

    여기서 block-device 는 블록 장치의 경로입니다(예: /dev/sdb ).

  2. 키 세트를 아직 생성하지 않은 경우 다음 명령을 실행하고 프롬프트에 따라 암호화에 사용할 키 세트를 만듭니다.

    # stratis key set --capture-key key-description

    여기서 key-description 은 커널 인증 키에서 생성되는 키에 대한 참조입니다.

  3. 암호화된 Stratis 풀을 생성하고 암호화에 사용할 키 설명을 지정합니다. key-description 옵션을 사용하는 대신 --keyfile-path 옵션을 사용하여 키 경로를 지정할 수도 있습니다.

    # stratis pool create --key-desc key-description my-pool block-device

    다음과 같습니다.

    key-description
    이전 단계에서 생성한 커널 인증 키에 있는 키를 참조합니다.
    my-pool
    새 Stratis 풀의 이름을 지정합니다.
    block-device

    비어 있거나 지워진 블록 장치의 경로를 지정합니다.

    참고

    한 줄에 여러 블록 장치를 지정합니다.

    # stratis pool create --key-desc key-description my-pool block-device-1 block-device-2
  4. 새 Stratis 풀이 생성되었는지 확인합니다.

    # stratis pool list

24.7. Stratis 파일 시스템에서 프로비저닝 모드 설정

스토리지 스택은 overprovision 상태에 도달할 수 있습니다. 파일 시스템 크기가 지원하는 풀보다 큰 경우 풀이 가득 차게 됩니다. 이를 방지하려면 과도한 프로비저닝을 비활성화하여 풀의 모든 파일 시스템의 크기가 풀에서 제공하는 사용 가능한 물리적 스토리지를 초과하지 않도록 합니다. 중요한 애플리케이션 또는 루트 파일 시스템에 Stratis를 사용하는 경우 이 모드에서는 특정 실패 사례를 방지합니다.

과도한 프로비저닝을 활성화하면 API 신호가 스토리지가 완전히 할당되었을 때 이를 알립니다. 알림은 모든 나머지 풀 공간이 가득 차면 Stratis에 확장할 공간이 없음을 알리는 경고 역할을 합니다.

사전 요구 사항

  • Stratis가 설치되어 있습니다. 자세한 내용은 Stratis 설치를 참조하십시오.

절차

풀을 올바르게 설정하려면 다음 두 가지 가능성이 있습니다.

  1. 하나 이상의 블록 장치에서 풀을 생성합니다.

    # stratis pool create pool-name /dev/sdb
  2. 기존 풀에서 프로비저닝 모드로 설정합니다.

    # stratis pool overprovision pool-name <yes|no>
    • "yes"로 설정하면 풀에 과다 프로비저닝을 활성화합니다. 즉, Stratis 파일 시스템의 논리 크기 합계는 사용 가능한 데이터 공간 크기를 초과할 수 있습니다.

검증

  1. 다음을 실행하여 Stratis 풀의 전체 목록을 확인합니다.

    # stratis pool list
    
    Name          Total Physical                    Properties     UUID                                   Alerts
    pool-name     1.42 TiB / 23.96 MiB / 1.42 TiB   ~Ca,~Cr,~Op    cb7cb4d8-9322-4ac4-a6fd-eb7ae9e1e540
  2. stratis pool list 출력에 overprovisioning mode 플래그의 표시가 있는지 확인합니다. " ~"은 "NOT"의 수학 기호이므로 ~Op 는 no-overprovisioning을 의미합니다.
  3. 선택 사항: 다음을 실행하여 특정 풀에서 과다 프로비저닝을 확인합니다.

    # stratis pool overprovision pool-name yes
    
    # stratis pool list
    
    Name          Total Physical                    Properties     UUID                                   Alerts
    pool-name     1.42 TiB / 23.96 MiB / 1.42 TiB   ~Ca,~Cr,~Op    cb7cb4d8-9322-4ac4-a6fd-eb7ae9e1e540

24.8. Stratis 풀을 NBDE에 바인딩

암호화된 Stratis 풀을 네트워크 바운드 디스크 암호화(NBDE)에 바인딩하려면 Tang 서버가 필요합니다. Stratis 풀을 포함하는 시스템이 재부팅되면 커널 인증 키를 제공하지 않고도 암호화된 풀의 잠금을 자동으로 해제하기 위해 Tang 서버와 연결합니다.

참고

Stratis 풀을 보조 Clevis 암호화 메커니즘에 바인딩하면 기본 커널 인증 키 암호화가 제거되지 않습니다.

사전 요구 사항

절차

  • 암호화된 Stratis 풀을 NBDE에 바인딩합니다.

    # stratis pool bind nbde --trust-url my-pool tang-server

    다음과 같습니다.

    my-pool
    암호화된 Stratis 풀의 이름을 지정합니다.
    tang-server
    Tang 서버의 IP 주소 또는 URL을 지정합니다.

24.9. Stratis 풀을 TPM에 바인딩

암호화된 Stratis 풀을 신뢰할 수 있는 플랫폼 모듈(TPM) 2.0에 바인딩하면 풀이 재부팅되고 커널 키링 설명을 제공하지 않고도 풀이 자동으로 잠금 해제됩니다.

사전 요구 사항

  • Stratis v2.3.0 이상이 설치되어 있습니다. 자세한 내용은 Stratis 설치를 참조하십시오.
  • stratisd 서비스가 실행 중입니다.
  • 암호화된 Stratis 풀을 생성했습니다. 자세한 내용은 암호화된 Stratis 풀 생성을 참조하십시오.

절차

  • 암호화된 Stratis 풀을 TPM에 바인딩합니다.

    # stratis pool bind tpm my-pool key-description

    다음과 같습니다.

    my-pool
    암호화된 Stratis 풀의 이름을 지정합니다.
    key-description
    암호화된 Stratis 풀을 생성할 때 생성된 커널 인증 키에 있는 키를 참조합니다.

24.10. 커널 인증 키를 사용하여 암호화된 Stratis 풀 잠금 해제

시스템이 재부팅되면 암호화된 Stratis 풀 또는 이를 구성하는 블록 장치가 표시되지 않을 수 있습니다. 풀을 암호화하는 데 사용된 커널 인증 키를 사용하여 풀 잠금을 해제할 수 있습니다.

사전 요구 사항

  • Stratis v2.1.0이 설치되어 있습니다. 자세한 내용은 Stratis 설치를 참조하십시오.
  • stratisd 서비스가 실행 중입니다.
  • 암호화된 Stratis 풀을 생성했습니다. 자세한 내용은 암호화된 Stratis 풀 생성을 참조하십시오.

절차

  1. 이전에 사용한 것과 동일한 키 설명을 사용하여 키 세트를 다시 생성합니다.

    # stratis key set --capture-key key-description

    여기서 key-description 은 암호화된 Stratis 풀을 생성할 때 생성된 커널 인증 키에 있는 키를 참조합니다.

  2. Stratis 풀이 표시되는지 확인합니다.

    # stratis pool list

24.11. 보충 암호화에서 Stratis 풀 바인딩 해제

지원되는 보조 암호화 메커니즘에서 암호화된 Stratis 풀을 바인딩 해제하면 기본 커널 인증 키 암호화는 그대로 유지됩니다. 처음부터 Clevis 암호화로 생성된 풀에는 사실이 아닙니다.

사전 요구 사항

  • Stratis v2.3.0 이상이 시스템에 설치됩니다. 자세한 내용은 Stratis 설치를 참조하십시오.
  • 암호화된 Stratis 풀을 생성했습니다. 자세한 내용은 암호화된 Stratis 풀 생성을 참조하십시오.
  • 암호화된 Stratis 풀은 지원되는 보조 암호화 메커니즘에 바인딩됩니다.

절차

  • 보조 암호화 메커니즘에서 암호화된 Stratis 풀의 바인딩을 해제합니다.

    # stratis pool unbind clevis my-pool

    다음과 같습니다.

    my-pool 은 바인딩 해제할 Stratis 풀의 이름을 지정합니다.

24.12. Stratis 풀 시작 및 중지

Stratis 풀을 시작하고 중지할 수 있습니다. 이를 통해 파일 시스템, 캐시 장치, 씬 풀 및 암호화된 장치와 같은 풀을 구성하는 데 사용된 모든 개체를 분리하거나 가져올 수 있습니다. 풀이 적극적으로 모든 장치 또는 파일 시스템을 사용하는 경우 경고를 발행하고 중지할 수 없습니다.

중지된 상태는 풀의 메타데이터에 기록됩니다. 이러한 풀은 풀에서 시작 명령을 수신할 때까지 다음 부팅 시 시작되지 않습니다.

사전 요구 사항

  • Stratis가 설치되어 있습니다. 자세한 내용은 Stratis 설치를 참조하십시오.
  • stratisd 서비스가 실행 중입니다.
  • 암호화되지 않은 또는 암호화된 Stratis 풀 중 하나를 생성했습니다. 암호화되지 않은 Stratis 풀 생성단원을 참조하십시오.

또는 암호화된 Stratis 풀 생성.

절차

  • 다음 명령을 사용하여 Stratis 풀을 시작합니다. --unlock-method 옵션은 암호화된 경우 풀 잠금 해제 방법을 지정합니다.

    # stratis pool start pool-uuid --unlock-method <keyring|clevis>
  • 또는 다음 명령을 사용하여 Stratis 풀을 중지합니다. 이렇게 하면 스토리지 스택이 줄어들지만 모든 메타데이터는 그대로 유지됩니다.

    # stratis pool stop pool-name

검증 단계

  • 다음 명령을 사용하여 시스템의 모든 풀을 나열합니다.

    # stratis pool list
  • 다음 명령을 사용하여 이전에 시작한 풀을 모두 나열합니다. UUID를 지정하면 명령은 UUID에 해당하는 풀에 대한 세부 정보를 출력합니다.

    # stratis pool list --stopped --uuid UUID

24.13. Stratis 파일 시스템 생성

기존 Stratis 풀에 Stratis 파일 시스템을 생성합니다.

사전 요구 사항

또는 암호화된 Stratis 풀 생성.

절차

  1. 풀에 Stratis 파일 시스템을 생성하려면 다음을 사용합니다.

    # stratis filesystem create --size number-and-unit my-pool my-fs

    다음과 같습니다.

    number-and-unit
    파일 시스템의 크기를 지정합니다. 사양 형식은 입력의 표준 크기 사양 형식(B, KiB, MiB, GiB, TiB 또는 PiB)을 따라야 합니다.
    my-pool
    Stratis 풀의 이름을 지정합니다.
    my-fs

    파일 시스템의 임의 이름을 지정합니다.

    예를 들면 다음과 같습니다.

    예 24.1. Stratis 파일 시스템 생성

    # stratis filesystem create --size 10GiB pool1 filesystem1

검증 단계

  • 풀 내에 파일 시스템을 나열하여 Stratis 파일 시스템이 생성되었는지 확인합니다.

    # stratis fs list my-pool

24.14. Stratis 파일 시스템 마운트

기존 Stratis 파일 시스템을 마운트하여 콘텐츠에 액세스합니다.

사전 요구 사항

  • Stratis가 설치되어 있습니다. 자세한 내용은 Stratis 설치를 참조하십시오.
  • stratisd 서비스가 실행 중입니다.
  • Stratis 파일 시스템을 생성했습니다. 자세한 내용은 Stratis 파일 시스템 생성을 참조하십시오.

절차

  • 파일 시스템을 마운트하려면 Stratis가 /dev/stratis/ 디렉터리에서 유지 관리하는 항목을 사용합니다.

    # mount /dev/stratis/my-pool/my-fs mount-point

이제 파일 시스템이 마운트 지점 디렉터리에 마운트되어 사용할 준비가 되었습니다.

24.15. Stratis 파일 시스템 영구적으로 마운트

이 절차에서는 시스템을 부팅한 후 자동으로 사용할 수 있도록 Stratis 파일 시스템을 영구적으로 마운트합니다.

사전 요구 사항

절차

  1. 파일 시스템의 UUID 속성을 결정합니다.

    $ lsblk --output=UUID /dev/stratis/my-pool/my-fs

    예를 들면 다음과 같습니다.

    예 24.2. Stratis 파일 시스템의 UUID 보기

    $ lsblk --output=UUID /dev/stratis/my-pool/fs1
    
    UUID
    a1f0b64a-4ebb-4d4e-9543-b1d79f600283
  2. 마운트 지점 디렉터리가 없으면 생성합니다.

    # mkdir --parents mount-point
  3. 루트로 /etc/fstab 파일을 편집하고 UUID로 식별된 파일 시스템에 대한 행을 추가합니다. xfs 를 파일 시스템 유형으로 사용하고 x-systemd.requires=stratisd.service 옵션을 추가합니다.

    예를 들면 다음과 같습니다.

    예 24.3. /etc/fstab의 /fs1 마운트 지점

    UUID=a1f0b64a-4ebb-4d4e-9543-b1d79f600283 /fs1 xfs defaults,x-systemd.requires=stratisd.service 0 0
  4. 시스템이 새 구성을 등록하도록 마운트 유닛을 다시 생성합니다.

    # systemctl daemon-reload
  5. 파일 시스템을 마운트하여 구성이 작동하는지 확인하십시오.

    # mount mount-point

24.16. systemd 서비스를 사용하여 /etc/fstab에 루트가 아닌 Stratis 파일 시스템 설정

systemd 서비스를 사용하여 /etc/fstab에서 루트가 아닌 파일 시스템을 설정할 수 있습니다.

사전 요구 사항

절차

  • 루트가 아닌 Stratis 파일 시스템에 대해 다음을 사용하십시오.

    # /dev/stratis/[STRATIS_SYMLINK] [MOUNT_POINT] xfs defaults, x-systemd.requires=stratis-fstab-setup@[POOL_UUID].service,x-systemd.after=stratis-stab-setup@[POOL_UUID].service <dump_value> <fsck_value>

25장. 추가 블록 장치를 사용하여 Stratis 볼륨 확장

Stratis 풀에 추가 블록 장치를 연결하여 Stratis 파일 시스템에 더 많은 스토리지 용량을 제공할 수 있습니다.

중요

Stratis는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. Red Hat은 프로덕션 환경에서 사용하지 않는 것이 좋습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다. Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 https://access.redhat.com/support/offerings/techpreview 에서 참조하십시오.

25.1. Stratis 볼륨의 구성 요소

Stratis 볼륨을 구성하는 구성 요소에 대해 알아봅니다.

Stratis는 외부에서 명령줄 인터페이스 및 API에서 다음 볼륨 구성 요소를 제공합니다.

blockdev
디스크 또는 디스크 파티션과 같은 블록 장치.
pool

하나 이상의 블록 장치로 구성됩니다.

풀의 총 크기는 블록 장치의 크기와 같습니다.

이 풀에는 dm-cache 대상을 사용하는 비발성 데이터 캐시와 같은 대부분의 Stratis 계층이 포함되어 있습니다.

Stratis는 각 풀에 대해 /dev/stratis/my-pool/ 디렉토리를 생성합니다. 이 디렉터리에는 풀에서 Stratis 파일 시스템을 나타내는 장치에 대한 링크가 포함되어 있습니다.

filesystem

각 풀에는 파일을 저장하는 하나 이상의 파일 시스템이 포함될 수 있습니다.

파일 시스템은 씬 프로비저닝되며 총 크기가 고정되지 않습니다. 실제 파일 시스템의 크기는 파일 시스템에 저장된 데이터와 함께 증가합니다. 데이터 크기가 파일 시스템의 가상 크기에 도달하면 Stratis에서 씬 볼륨과 파일 시스템을 자동으로 늘립니다.

파일 시스템은 XFS로 포맷됩니다.

중요

Stratis는 XFS가 인식하지 못하는 Stratis를 사용하여 생성된 파일 시스템에 대한 정보를 추적하며 XFS를 사용하여 수행한 변경 사항은 Stratis에서 자동으로 업데이트를 생성하지 않습니다. 사용자가 Stratis에서 관리하는 XFS 파일 시스템을 다시 포맷하거나 재구성해서는 안 됩니다.

Stratis는 /dev/stratis/my-pool /my-fs 경로에 파일 시스템에 대한 링크를 만듭니다.

참고

Stratis는 dmsetup 목록 및 /proc/partitions 파일에 표시되는 많은 장치 매퍼 장치를 사용합니다. 마찬가지로 lsblk 명령 출력은 Stratis의 내부 작업 및 계층을 반영합니다.

25.2. Stratis 풀에 블록 장치 추가

이 절차에서는 Stratis 파일 시스템에서 사용할 수 있도록 하나 이상의 블록 장치를 Stratis 풀에 추가합니다.

사전 요구 사항

  • Stratis가 설치되어 있습니다. Stratis 설치를 참조하십시오.
  • stratisd 서비스가 실행 중입니다.
  • Stratis 풀에 추가하는 블록 장치는 사용되지 않으며 마운트되지 않습니다.
  • Stratis 풀에 추가하는 블록 장치는 각각 1GiB 이상입니다.

절차

  • 하나 이상의 블록 장치를 풀에 추가하려면 다음을 사용합니다.

    # stratis pool add-data my-pool device-1 device-2 device-n

추가 리소스

  • Stratis(8) 도움말 페이지

25.3. 추가 리소스

26장. Stratis 파일 시스템 모니터링

Stratis 사용자는 시스템에서 Stratis 볼륨에 대한 정보를 확인하여 상태 및 사용 가능한 공간을 모니터링할 수 있습니다.

중요

Stratis는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. Red Hat은 프로덕션 환경에서 사용하지 않는 것이 좋습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다. Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 https://access.redhat.com/support/offerings/techpreview 에서 참조하십시오.

26.1. 다른 유틸리티에서 보고하는 Stratis 크기

이 섹션에서는 dfstratis 유틸리티와 같은 표준 유틸리티에서 보고한 Stratis 크기 간의 차이점에 대해 설명합니다.

df 와 같은 표준 Linux 유틸리티는 Stratis의 XFS 파일 시스템 계층 크기를 1TiB로 보고합니다. Stratis의 실제 스토리지 사용량이 씬 프로비저닝으로 인해 부족하기 때문에 유용한 정보는 아니며 Stratis도 XFS 계층이 가득 찼을 때 파일 시스템을 자동으로 확장하기 때문입니다.

중요

Stratis 파일 시스템에 기록된 데이터 양을 정기적으로 모니터링합니다. 이 값은 Total Physical Used 값으로 보고됩니다. Total Physical Size(총 물리 크기 ) 값을 초과하지 않는지 확인합니다.

추가 리소스

  • Stratis(8) 도움말 페이지.

26.2. Stratis 볼륨에 대한 정보 표시

이 절차에서는 풀에 속하는 총, 사용된, 사용 가능한 크기 또는 파일 시스템 및 블록 장치와 같은 Stratis 볼륨에 대한 통계를 나열합니다.

사전 요구 사항

  • Stratis가 설치되어 있습니다. Stratis 설치를 참조하십시오.
  • stratisd 서비스가 실행 중입니다.

절차

  • 시스템에서 Stratis에 사용되는 모든 블록 장치에 대한 정보를 표시하려면 다음을 수행합니다.

    # stratis blockdev
    
    Pool Name  Device Node    Physical Size   State  Tier
    my-pool    /dev/sdb            9.10 TiB  In-use  Data
  • 시스템의 모든 Stratis 풀에 대한 정보를 표시하려면 다음을 수행합니다.

    # stratis pool
    
    Name    Total Physical Size  Total Physical Used
    my-pool            9.10 TiB              598 MiB
  • 시스템의 모든 Stratis 파일 시스템에 대한 정보를 표시하려면 다음을 수행합니다.

    # stratis filesystem
    
    Pool Name  Name  Used     Created            Device
    my-pool    my-fs 546 MiB  Nov 08 2018 08:03  /dev/stratis/my-pool/my-fs

추가 리소스

  • Stratis(8) 도움말 페이지.

26.3. 추가 리소스

27장. Stratis 파일 시스템에서 스냅샷 사용

Stratis 파일 시스템에서 스냅샷을 사용하여 임의로 파일 시스템 상태를 캡처하고 나중에 복원할 수 있습니다.

중요

Stratis는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. Red Hat은 프로덕션 환경에서 사용하지 않는 것이 좋습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다. Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 https://access.redhat.com/support/offerings/techpreview 에서 참조하십시오.

27.1. Stratis 스냅샷의 특징

Stratis에서 스냅샷은 다른 Stratis 파일 시스템의 사본으로 생성된 일반 Stratis 파일 시스템입니다. 스냅샷에는 원래 파일 시스템과 동일한 파일 내용이 초기에 포함되어 있지만 스냅샷이 수정되면 변경될 수 있습니다. 스냅샷에 대한 변경 사항은 원래 파일 시스템에 반영되지 않습니다.

Stratis의 현재 스냅샷 구현은 다음과 같습니다.

  • 파일 시스템의 스냅샷은 또 다른 파일 시스템입니다.
  • 스냅샷과 원본은 수명 동안 연결되어 있지 않습니다. 스냅샷된 파일 시스템은 에서 생성된 파일 시스템보다 더 길 수 있습니다.
  • 파일 시스템에서 스냅숏을 만들기 위해 마운트할 필요는 없습니다.
  • 각 스냅샷은 XFS 로그에 필요한 실제 백업 스토리지의 절반 정도를 사용합니다.

27.2. Stratis 스냅샷 생성

이 절차에서는 Stratis 파일 시스템을 기존 Stratis 파일 시스템의 스냅샷으로 생성합니다.

사전 요구 사항

절차

  • Stratis 스냅샷을 생성하려면 다음을 사용합니다.

    # stratis fs snapshot my-pool my-fs my-fs-snapshot

추가 리소스

  • Stratis(8) 도움말 페이지.

27.3. Stratis 스냅샷의 콘텐츠 액세스

이 절차에서는 읽기 및 쓰기 작업에 액세스할 수 있도록 Stratis 파일 시스템의 스냅샷을 마운트합니다.

사전 요구 사항

절차

  • 스냅샷에 액세스하려면 /dev/stratis/my-pool/ 디렉터리에서 일반 파일 시스템으로 마운트하십시오.

    # mount /dev/stratis/my-pool/my-fs-snapshot mount-point

추가 리소스

27.4. Stratis 파일 시스템을 이전 스냅샷으로 되돌리기

이 절차에서는 Stratis 파일 시스템의 콘텐츠를 Stratis 스냅샷에 캡처된 상태로 되돌립니다.

사전 요구 사항

절차

  1. 필요한 경우 나중에 액세스할 수 있도록 파일 시스템의 현재 상태를 백업합니다.

    # stratis filesystem snapshot my-pool my-fs my-fs-backup
  2. 원래 파일 시스템을 마운트 해제하고 제거합니다.

    # umount /dev/stratis/my-pool/my-fs
    # stratis filesystem destroy my-pool my-fs
  3. 원본 파일 시스템의 이름에 스냅샷 사본을 생성합니다.

    # stratis filesystem snapshot my-pool my-fs-snapshot my-fs
  4. 이제 원래 파일 시스템과 동일한 이름으로 액세스할 수 있는 스냅샷을 마운트합니다.

    # mount /dev/stratis/my-pool/my-fs mount-point

my-fs라는 파일 시스템의 내용이 이제 my-fs -snapshot 스냅숏과 동일합니다.

추가 리소스

  • Stratis(8) 도움말 페이지.

27.5. Stratis 스냅샷 제거

이 절차에서는 풀에서 Stratis 스냅샷을 제거합니다. 스냅샷의 데이터가 손실됩니다.

사전 요구 사항

절차

  1. 스냅샷을 마운트 해제합니다.

    # umount /dev/stratis/my-pool/my-fs-snapshot
  2. 스냅샷을 삭제합니다.

    # stratis filesystem destroy my-pool my-fs-snapshot

추가 리소스

  • Stratis(8) 도움말 페이지.

27.6. 추가 리소스

28장. Stratis 파일 시스템 제거

기존 Stratis 파일 시스템 또는 Stratis 풀은 데이터를 삭제하여 제거할 수 있습니다.

중요

Stratis는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. Red Hat은 프로덕션 환경에서 사용하지 않는 것이 좋습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다. Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 https://access.redhat.com/support/offerings/techpreview 에서 참조하십시오.

28.1. Stratis 볼륨의 구성 요소

Stratis 볼륨을 구성하는 구성 요소에 대해 알아봅니다.

Stratis는 외부에서 명령줄 인터페이스 및 API에서 다음 볼륨 구성 요소를 제공합니다.

blockdev
디스크 또는 디스크 파티션과 같은 블록 장치.
pool

하나 이상의 블록 장치로 구성됩니다.

풀의 총 크기는 블록 장치의 크기와 같습니다.

이 풀에는 dm-cache 대상을 사용하는 비발성 데이터 캐시와 같은 대부분의 Stratis 계층이 포함되어 있습니다.

Stratis는 각 풀에 대해 /dev/stratis/my-pool/ 디렉토리를 생성합니다. 이 디렉터리에는 풀에서 Stratis 파일 시스템을 나타내는 장치에 대한 링크가 포함되어 있습니다.

filesystem

각 풀에는 파일을 저장하는 하나 이상의 파일 시스템이 포함될 수 있습니다.

파일 시스템은 씬 프로비저닝되며 총 크기가 고정되지 않습니다. 실제 파일 시스템의 크기는 파일 시스템에 저장된 데이터와 함께 증가합니다. 데이터 크기가 파일 시스템의 가상 크기에 도달하면 Stratis에서 씬 볼륨과 파일 시스템을 자동으로 늘립니다.

파일 시스템은 XFS로 포맷됩니다.

중요

Stratis는 XFS가 인식하지 못하는 Stratis를 사용하여 생성된 파일 시스템에 대한 정보를 추적하며 XFS를 사용하여 수행한 변경 사항은 Stratis에서 자동으로 업데이트를 생성하지 않습니다. 사용자가 Stratis에서 관리하는 XFS 파일 시스템을 다시 포맷하거나 재구성해서는 안 됩니다.

Stratis는 /dev/stratis/my-pool /my-fs 경로에 파일 시스템에 대한 링크를 만듭니다.

참고

Stratis는 dmsetup 목록 및 /proc/partitions 파일에 표시되는 많은 장치 매퍼 장치를 사용합니다. 마찬가지로 lsblk 명령 출력은 Stratis의 내부 작업 및 계층을 반영합니다.

28.2. Stratis 파일 시스템 제거

이 절차에서는 기존 Stratis 파일 시스템을 제거합니다. 저장된 데이터는 손실됩니다.

사전 요구 사항

절차

  1. 파일 시스템을 마운트 해제합니다.

    # umount /dev/stratis/my-pool/my-fs
  2. 파일 시스템을 삭제합니다.

    # stratis filesystem destroy my-pool my-fs
  3. 파일 시스템이 더 이상 존재하지 않는지 확인합니다.

    # stratis filesystem list my-pool

추가 리소스

  • Stratis(8) 도움말 페이지.

28.3. Stratis 풀 제거

이 절차에서는 기존 Stratis 풀을 제거합니다. 저장된 데이터는 손실됩니다.

사전 요구 사항

절차

  1. 풀에 파일 시스템을 나열합니다.

    # stratis filesystem list my-pool
  2. 풀에서 모든 파일 시스템을 마운트 해제합니다.

    # umount /dev/stratis/my-pool/my-fs-1 \
             /dev/stratis/my-pool/my-fs-2 \
             /dev/stratis/my-pool/my-fs-n
  3. 파일 시스템을 삭제합니다.

    # stratis filesystem destroy my-pool my-fs-1 my-fs-2
  4. 풀을 삭제합니다.

    # stratis pool destroy my-pool
  5. 풀이 더 이상 존재하지 않는지 확인합니다.

    # stratis pool list

추가 리소스

  • Stratis(8) 도움말 페이지.

28.4. 추가 리소스

29장. ext3 파일 시스템 시작하기

시스템 관리자는 ext3 파일 시스템을 생성, 마운트, 크기 조정, 백업 및 복원할 수 있습니다. ext3 파일 시스템은 기본적으로 ext2 파일 시스템의 향상된 버전입니다.

29.1. ext3 파일 시스템의 기능

다음은 ext3 파일 시스템의 기능입니다.

  • 가용성: 예기치 않은 정전 또는 시스템 충돌 후 제공된 저널링으로 인해 파일 시스템 점검이 필요하지 않습니다. 기본 저널 크기는 하드웨어 속도에 따라 복구하는 데 약 1초가 걸립니다.

    참고

    ext3에서 지원되는 유일한 저널링 모드는 data=ordered (기본값)입니다. 자세한 내용은 RHEL에서 Is the EXT journaling option "data=writeback"을 참조하십시오. https://access.redhat.com/solutions/424073 지식 베이스 문서.

  • 데이터 무결성: ext3 파일 시스템은 예기치 않은 정전 또는 시스템 충돌 중에 데이터 무결성 손실을 방지합니다.
  • 속도: ext3의 저널링은 하드 드라이브 헤드 동작을 최적화하므로 ext3의 경우 일부 데이터를 두 번 이상 작성하는 경우에도 ext2보다 처리량이 높습니다.
  • 쉬운 전환: ext2에서 ext3으로 쉽게 마이그레이션하고 다시 포맷하지 않고도 강력한 저널링 파일 시스템의 이점을 얻을 수 있습니다.

추가 리소스

  • ext3 도움말 페이지.

29.2. ext3 파일 시스템 생성

시스템 관리자는 mkfs.ext3 명령을 사용하여 블록 장치에 ext3 파일 시스템을 만들 수 있습니다.

사전 요구 사항

.

+ 또는 LVM 또는 MD 볼륨을 사용합니다.

절차

  1. ext3 파일 시스템을 생성하려면 다음을 수행합니다.

    • 일반 파티션 장치, LVM 볼륨, MD 볼륨 또는 유사한 장치의 경우 다음 명령을 사용하십시오.

      # mkfs.ext3 /dev/block_device

      /dev/block_device 를 블록 장치의 경로로 바꿉니다.

      예를 들어 /dev/sdb1,/dev/disk/by-uuid/05e99ec8-def1-4a5e-8a9d-5945339ceb2a 또는 /dev/my-volgroup/my-lv 입니다. 일반적으로 기본 옵션은 대부분의 사용 시나리오에 적합합니다.

    • 스트라이핑된 블록 장치(예: RAID5 배열)의 경우 파일 시스템 생성 시 스트라이프를 지정할 수 있습니다. 적절한 스트라이프 geometry를 사용하면 ext3 파일 시스템의 성능이 향상됩니다. 예를 들어 4k-block 파일 시스템에서 64k 진행(즉, 16 x 4096)으로 파일 시스템을 생성하려면 다음 명령을 사용합니다.

      # mkfs.ext3 -E stride=16,stripe-width=64 /dev/block_device

      주어진 예에서 다음을 수행합니다.

      • stride=value: RAID 청크 크기를 지정합니다.
      • stripe-width=value: RAID 장치의 데이터 디스크 수 또는 스트라이프의 스트라이프 단위 수를 지정합니다.
    참고
    • 파일 시스템을 생성할 때 UUID를 지정하려면 다음을 수행합니다.

      # mkfs.ext3 -U UUID /dev/block_device

      UUID 를 설정하려는 UUID로 바꿉니다(예: 7cd65de3-e0be-41d9-b66d-96d749c02da7).

      /dev/block_device 를 ext3 파일 시스템의 경로로 교체하여 UUID(예: /dev/sda8)를 추가합니다.

    • 파일 시스템을 생성할 때 레이블을 지정하려면 다음을 수행합니다.

      # mkfs.ext3 -L label-name /dev/block_device
  2. 생성된 ext3 파일 시스템을 보려면 다음을 수행합니다.

    # blkid

추가 리소스

  • ext3 도움말 페이지.
  • mkfs.ext3 도움말 페이지.

29.3. ext3 파일 시스템 마운트

시스템 관리자는 mount 유틸리티를 사용하여 ext3 파일 시스템을 마운트 할 수 있습니다.

사전 요구 사항

절차

  1. 마운트 지점을 생성하여 파일 시스템을 마운트하려면 다음을 수행합니다.

    # mkdir /mount/point

    /mount/point 를 파티션의 마운트 지점을 만들어야 하는 디렉토리 이름으로 바꿉니다.

  2. ext3 파일 시스템을 마운트하려면 다음을 수행합니다.

    • 추가 옵션 없이 ext3 파일 시스템을 마운트하려면 다음을 수행합니다.

      # mount /dev/block_device /mount/point
    • 파일 시스템을 영구적으로 마운트하려면 영구 마운트 파일 시스템을 참조하십시오.
  3. 마운트된 파일 시스템을 보려면 다음을 수행합니다.

    # df -h

추가 리소스

29.4. ext3 파일 시스템 크기 조정

시스템 관리자는 resize2fs 유틸리티를 사용하여 ext3 파일 시스템의 크기를 조정할 수 있습니다. resize2fs 유틸리티는 특정 유닛을 나타내는 접미사가 사용되지 않는 한 파일 시스템 블록 크기 단위로 크기를 읽습니다. 다음 접미사는 특정 단위를 나타냅니다.

  • S ( 섹터) - 512 바이트 섹터
  • k(킬로바이트) - 512 24 바이트
  • m(메가바이트) - 4 948,576 바이트
  • G(기가바이트) - 6273,741,824 바이트
  • t(테라바이트) - 6 299,511,627,776 바이트

사전 요구 사항

  • ext3 파일 시스템. ext3 파일 시스템 생성에 대한 자세한 내용은 ext3 파일 시스템 생성을 참조하십시오.
  • 크기 조정 후 파일 시스템을 보관할 적절한 크기의 기본 블록 장치입니다.

절차

  1. ext3 파일 시스템의 크기를 조정하려면 다음 단계를 수행합니다.

    • 마운트 해제된 ext3 파일 시스템의 크기를 줄이고 늘리려면 다음을 수행합니다.

      # umount /dev/block_device
      # e2fsck -f /dev/block_device
      # resize2fs /dev/block_device size

      /dev/block_device 를 블록 장치의 경로(예: /dev/sdb1)로 바꿉니다.

      s,K,M,GT 접미사를 사용하여 size 를 필요한 크기 조정 값으로 바꿉니다.

    • resize2fs 명령을 사용하여 마운트하는 동안 ext3 파일 시스템을 확장할 수 있습니다.

      # resize2fs /mount/device size
      참고

      size 매개 변수는 확장 시 선택 사항(및 중복)입니다. resize2fs 는 컨테이너의 사용 가능한 공간(일반적으로 논리 볼륨 또는 파티션)을 채우기 위해 자동으로 확장됩니다.

  2. 크기 조정된 파일 시스템을 보려면 다음을 수행합니다.

    # df -h

추가 리소스

  • resize2fs 도움말 페이지.
  • e2fsck 도움말 페이지.
  • ext3 도움말 페이지.

30장. ext4 파일 시스템 시작하기

시스템 관리자는 ext4 파일 시스템을 생성, 마운트, 크기 조정, 백업 및 복원할 수 있습니다. ext4 파일 시스템은 ext3 파일 시스템의 확장 가능한 확장입니다. Red Hat Enterprise Linux 8에서는 최대 16 테라바이트의 개별 파일 크기와 파일 시스템을 최대 50 테라바이트까지 지원할 수 있습니다.

30.1. ext4 파일 시스템의 기능

다음은 ext4 파일 시스템의 기능입니다.

  • 확장 영역 사용: ext4 파일 시스템은 확장 영역을 사용하므로 대용량 파일을 사용할 때 성능이 향상되고 대용량 파일의 메타데이터 오버헤드가 줄어듭니다.
  • 그에 따라 할당되지 않은 블록 그룹 및 inode 테이블 섹션에 따라 Ext4 레이블을 지정하므로, 파일 시스템 확인 중에 블록 그룹 및 테이블 섹션을 건너뛸 수 있습니다. 이 경우 파일 시스템 크기가 빠르게 검사되므로 파일 시스템이 커짐에 따라 더 유용합니다.
  • 메타데이터 체크섬: 기본적으로 이 기능은 Red Hat Enterprise Linux 8에서 활성화됩니다.
  • ext4 파일 시스템의 할당 기능은 다음과 같습니다.

    • 영구 사전 할당
    • 지연된 할당
    • 다중 블록 할당
    • 스트라이프 인식 할당
  • 확장 속성 (xattr): 이렇게 하면 시스템이 파일당 여러 개의 추가 이름과 값 쌍을 연결할 수 있습니다.
  • 할당량 저널링: 따라서 충돌 후 긴 할당량 일관성 검사가 필요하지 않습니다.

    참고

    ext4에서 지원되는 유일한 저널링 모드는 data=ordered (기본값)입니다. 자세한 내용은 RHEL에서 Is the EXT journaling option "data=writeback"을 참조하십시오. https://access.redhat.com/solutions/424073 지식 베이스 문서.

  • Subsecond timestamps - 1초에 타임스탬프를 부여합니다.

추가 리소스

  • ext4 도움말 페이지.

30.2. ext4 파일 시스템 생성

시스템 관리자는 mkfs.ext4 명령을 사용하여 블록 장치에 ext4 파일 시스템을 만들 수 있습니다.

사전 요구 사항

절차

  1. ext4 파일 시스템을 생성하려면 다음을 수행합니다.

    • 일반 파티션 장치, LVM 볼륨, MD 볼륨 또는 유사한 장치의 경우 다음 명령을 사용하십시오.

      # mkfs.ext4 /dev/block_device

      /dev/block_device 를 블록 장치의 경로로 바꿉니다.

      예를 들어 /dev/sdb1,/dev/disk/by-uuid/05e99ec8-def1-4a5e-8a9d-5945339ceb2a 또는 /dev/my-volgroup/my-lv 입니다. 일반적으로 기본 옵션은 대부분의 사용 시나리오에 적합합니다.

    • 스트라이핑된 블록 장치(예: RAID5 배열)의 경우 파일 시스템 생성 시 스트라이프를 지정할 수 있습니다. 적절한 스트라이프를 사용하면 ext4 파일 시스템의 성능이 향상됩니다. 예를 들어 4k-block 파일 시스템에서 64k 진행(즉, 16 x 4096)으로 파일 시스템을 생성하려면 다음 명령을 사용합니다.

      # mkfs.ext4 -E stride=16,stripe-width=64 /dev/block_device

      주어진 예에서 다음을 수행합니다.

      • stride=value: RAID 청크 크기를 지정합니다.
      • stripe-width=value: RAID 장치의 데이터 디스크 수 또는 스트라이프의 스트라이프 단위 수를 지정합니다.
    참고
    • 파일 시스템을 생성할 때 UUID를 지정하려면 다음을 수행합니다.

      # mkfs.ext4 -U UUID /dev/block_device

      UUID 를 설정하려는 UUID로 바꿉니다(예: 7cd65de3-e0be-41d9-b66d-96d749c02da7).

      /dev/block_device 를 ext4 파일 시스템의 경로로 교체하여 UUID(예: /dev/sda8)를 추가합니다.

    • 파일 시스템을 생성할 때 레이블을 지정하려면 다음을 수행합니다.

      # mkfs.ext4 -L label-name /dev/block_device
  2. 생성된 ext4 파일 시스템을 보려면 다음을 수행합니다.

    # blkid

추가 리소스

  • ext4 도움말 페이지.
  • mkfs.ext4 도움말 페이지.

30.3. ext4 파일 시스템 마운트

시스템 관리자는 mount 유틸리티를 사용하여 ext4 파일 시스템을 마운트 할 수 있습니다.

사전 요구 사항

절차

  1. 마운트 지점을 생성하여 파일 시스템을 마운트하려면 다음을 수행합니다.

    # mkdir /mount/point

    /mount/point 를 파티션의 마운트 지점을 만들어야 하는 디렉토리 이름으로 바꿉니다.

  2. ext4 파일 시스템을 마운트하려면 다음을 수행합니다.

    • 추가 옵션 없이 ext4 파일 시스템을 마운트하려면 다음을 수행합니다.

      # mount /dev/block_device /mount/point
    • 파일 시스템을 영구적으로 마운트하려면 영구 마운트 파일 시스템을 참조하십시오.
  3. 마운트된 파일 시스템을 보려면 다음을 수행합니다.

    # df -h

추가 리소스

30.4. ext4 파일 시스템 크기 조정

시스템 관리자는 resize2fs 유틸리티를 사용하여 ext4 파일 시스템의 크기를 조정할 수 있습니다. resize2fs 유틸리티는 특정 유닛을 나타내는 접미사가 사용되지 않는 한 파일 시스템 블록 크기 단위로 크기를 읽습니다. 다음 접미사는 특정 단위를 나타냅니다.

  • S ( 섹터) - 512 바이트 섹터
  • k(킬로바이트) - 512 24 바이트
  • m(메가바이트) - 4 948,576 바이트
  • G(기가바이트) - 6273,741,824 바이트
  • t(테라바이트) - 6 299,511,627,776 바이트

사전 요구 사항

  • ext4 파일 시스템. ext4 파일 시스템 생성에 대한 자세한 내용은 ext4 파일 시스템 생성을 참조하십시오.
  • 크기 조정 후 파일 시스템을 보관할 적절한 크기의 기본 블록 장치입니다.

절차

  1. ext4 파일 시스템의 크기를 조정하려면 다음 단계를 수행합니다.

    • 마운트 해제된 ext4 파일 시스템의 크기를 줄이려면 다음을 수행합니다.

      # umount /dev/block_device
      # e2fsck -f /dev/block_device
      # resize2fs /dev/block_device size

      /dev/block_device 를 블록 장치의 경로(예: /dev/sdb1)로 바꿉니다.

      s,K,M,GT 접미사를 사용하여 size 를 필요한 크기 조정 값으로 바꿉니다.

    • resize2fs 명령을 사용하여 마운트하는 동안 ext4 파일 시스템을 확장할 수 있습니다.

      # resize2fs /mount/device size
      참고

      size 매개 변수는 확장 시 선택 사항(및 중복)입니다. resize2fs 는 컨테이너의 사용 가능한 공간(일반적으로 논리 볼륨 또는 파티션)을 채우기 위해 자동으로 확장됩니다.

  2. 크기 조정된 파일 시스템을 보려면 다음을 수행합니다.

    # df -h

추가 리소스

  • resize2fs 도움말 페이지.
  • e2fsck 도움말 페이지.
  • ext4 도움말 페이지.

30.5. ext4 및 XFS와 함께 사용되는 도구 비교

이 섹션에서는 ext4 및 XFS 파일 시스템에서 일반적인 작업을 수행하는 데 사용할 툴을 비교합니다.

Taskext4XFS

파일 시스템 만들기

mkfs.ext4

mkfs.xfs

파일 시스템 검사

e2fsck

xfs_repair

파일 시스템 크기 조정

resize2fs

xfs_growfs

파일 시스템의 이미지 저장

e2image

xfs_eatadumpxfs_mdrestore

파일 시스템 레이블 지정 또는 튜닝

tune2fs

xfs_admin

파일 시스템 백업

덤프복원

xfsdumpxfsrestore

할당량 관리

할당량

xfs_quota

파일 매핑

filefrag

xfs_bmap

법적 공지

Copyright © 2024 Red Hat, Inc.
The text of and illustrations in this document are licensed by Red Hat under a Creative Commons Attribution–Share Alike 3.0 Unported license ("CC-BY-SA"). An explanation of CC-BY-SA is available at http://creativecommons.org/licenses/by-sa/3.0/. In accordance with CC-BY-SA, if you distribute this document or an adaptation of it, you must provide the URL for the original version.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, the Red Hat logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.