Red Hat Training
A Red Hat training course is available for Red Hat Enterprise Linux
LVM (Logical Volume Manager) 관리
Red Hat Enterprise Linux 5
LVM 관리자 가이드
엮음 3
초록
다음 부분에서는 클러스터 환경에서의 LVM 실행에 관한 내용을 다루고 있는 LVM 논리 볼륨 관리자에 대해 설명합니다. 이 문서 내용은 LVM2 릴리즈에만 해당합니다.
개요
1. 가이드 설명
다음 부분에서는 클러스터 환경에서의 LVM 실행에 관한 내용을 다루고 있는 LVM (Logical Volume Manager)에 대해 설명합니다. 이 문서 내용은 LVM2 릴리즈에만 해당합니다.
2. 사용자
이 문서는 Linux 운영 체제에서 시스템을 관리하고 있는 시스템 관리자를 위한 것입니다. 따라서 Red Hat Enterprise Linux 5 및 GFS 파일 시스템 관리에 능숙해야 합니다.
3. 소프트웨어 버전
표 1. 소프트웨어 버전
소프트웨어 | 설명 |
---|---|
RHEL5
|
RHEL5 이상 버전을 다루고 있음
|
GFS
|
RHEL5 이상 버전의 GFS를 다루고 있음
|
4. 관련 문서
Red Hat Enterprise Linux 사용에 관한 보다 자세한 내용은 다음 문서 자료에서 참조하시기 바랍니다.
- Red Hat Enterprise Linux 설치 가이드 — Red Hat Enterprise Linux 5 설치 관련 내용을 다루고 있습니다.
- Red Hat Enterprise Linux 활용 가이드 — Red Hat Enterprise Linux 5 활용, 설정, 관리 관련 내용을 다루고 있습니다.
Red Hat Enterprise Linux 5 용 Red Hat Cluster Suite에 관한 보다 자세한 내용은 다음 문서 자료에서 참조하시기 바랍니다.
- Red Hat Cluster Suite 개요 — Red Hat Cluster Suite에 대한 높은 수준의 개요를 다루고 있습니다.
- Red Hat Cluster 설정 및 관리 — Red Hat Cluster 구성 요소를 설치, 설정, 관리하는 방법에 관한 내용을 다루고 있습니다.
- GFS (Global File System): 설정 및 관리 — Red Hat GFS (Red Hat Global File System) 설치, 설정, 관리에 관한 내용을 다루고 있습니다.
- GFS 2 (Global File System 2): 설정 및 관리 — Red Hat GFS 2 (Red Hat Global File System 2) 설치, 설정, 관리에 관한 내용을 다루고 있습니다.
- 장치 맵퍼 멀티패스 (Device-Mapper Multipath) 사용 — RHEL; 5의 장치 맵퍼 멀티패스 (Device-Mapper Multipath) 사용에 관한 내용을 다루고 있습니다.
- GFS (Global File System)로 GNBD 사용 — Red Hat GFS로 GNBD (Global Network Block Device) 사용에 관한 개요를 다루고 있습니다.
- LVS (Linux Virtual Server) 관리 — LVS (Linux Virtual Server)를 통한 고성능 시스템 및 서비스 설정에 관한 내용을 다루고 있습니다.
- Red Hat Cluster Suite 릴리즈 노트 — Red Hat Cluster Suite의 최신 릴리즈에 관한 내용을 다루고 있습니다.
Red Hat Cluster Suite 및 기타 Red Hat 문서는 Red Hat Enterprise Linux 문서 CD에서 HTML, PDF, RPM 버전으로 보실 수 있으며 http://www.redhat.com/docs/에서도 보실 수 있습니다.
5. 피드백
문서 내용 개선을 위한 제안이 있거나 오자를 발견했을 경우 언제든지 알려 주시기 바랍니다.
rh-cs
에 대한 리포트를 버그질라(Bugzilla)에 제출해 주시면 됩니다. (http://bugzilla.redhat.com/bugzilla/)
Be sure to mention the manual's identifier:
Bugzilla component: Documentation-cluster Book identifier: Cluster_Logical_Volume_Manager(EN)-5 (2009-01-05T15:20)
By mentioning this manual's identifier, we know exactly which version of the guide you have.
문서 내용 개선을 위한 제안이 있으실 경우, 최대한 명확히 설명해 주시기 바랍니다. 오류를 발견하셨다면 저희가 쉽게 식별할 수 있도록 섹션 번호와 주위의 문장들을 함께 보내주시기 바랍니다.
1장. LVM 논리 볼륨 관리자
다음 부분에서는 LVM (Logical Volume Manager) 구성 요소에 대한 높은 수준의 개요에 대해 다루고 있습니다.
1.1. 논리 볼륨
볼륨 관리에서는 물리 스토리지를 통해 추상화 레이어를 생성하여, 논리 스토리지 볼륨을 생성하게 합니다. 이는 여러 방면에서 물리 스토리지를 직접 사용하는 것 보다 더 많은 유연성을 제공합니다.
논리 볼륨은 스토리지 가상화를 제공합니다. 논리 볼륨으로 물리 디스크 크기에 제한을 두지 않을 수 있습니다. 이에 더하여 하드웨어 스토리지 설정이 소프트웨어에서 숨겨져 있어 어플리케이션을 정지시키거나 또는 파일 시스템을 마운트 해제하지 않고 크기 조정 및 이동 가능하게 됩니다.
논리 볼륨은 물리 스토리지를 직접 사용하여 다음과 같은 장점을 제공합니다:
- 유연한 용량논리 볼륨을 사용할 때, 디스크 및 파티션을 단일 논리 볼륨으로 모을 수 있으므로 파일 시스템을 여러 디스크에 걸쳐 늘릴 수 있습니다.
- 크기 조정 가능한 스토리지 풀기본 디스크 장치를 다시 포맷하거나 파티션하지 않고 간단한 소프트웨어 명령으로 논리 볼륨 크기를 늘이거나 줄일 수 있습니다.
- 온라인 데이터 재배치보다 새롭고 빠른 장애 복구형 스토리지 하부 시스템을 배치하기 위해 시스템이 활성화되어 있는 동안 데이터를 옮길 수 있습니다. 디스크가 사용되고 있는 동안 데이터를 디스크에 재배치할 수 있습니다. 예를 들어, 디스크를 삭제하기 전 핫 스왑이 가능한 디스크 비우기를 할 수 있습니다.
- 편의에 따라 장치 이름 지정논리 스토리지 볼륨은 사용자 정의 그룹에서 관리되며, 편의에 따라 이름을 지정할 수 있습니다.
- 디스크 스트라이핑두 개 이상의 디스크에 걸쳐 데이터를 스트라이핑하는 논리 볼륨을 생성할 수 있습니다. 이는 데이터 처리량을 급격히 상승시킬 수 있습니다.
- 미러 볼륨논리 볼륨은 편리한 방법으로 데이터에 미러를 설정하게 합니다.
- 볼륨 스냅샷논리 볼륨을 사용하여, 지속적인 백업을 위해 장치 스냅샷을 찍거나 또는 실제 데이터에 영향을 미치지 않고 변경 효과를 테스트할 수 있습니다.
이러한 기능을 LVM에서 구현하는 방법은 이 문서의 나머지 부분에서 설명합니다.
1.2. LVM 아키텍쳐 개요
Linux 운영 체제의 RHEL 4 릴리즈의 경우, 본래의 LVM1 논리 볼륨 관리자는 LVM1보다 더 일반적인 커널 프레임워크를 갖고 있는 LVM2로 대체되었습니다. LVM2는 LVM1이상으로 다음과 같은 기능이 개선되었습니다.
- 유연한 용량
- 보다 효율적인 메타데이터 스토리지
- 보다 향상된 복구 포맷
- 새로운 ASCII 메타데이터 포맷
- 메타데이터로 원자 변경
- 메타데이터의 이중 복사본
LVM2는 스냅샷 및 클러스터 지원을 제외하고 LVM1과 역 호환성이 있습니다.
vgconvert
명령으로 LVM1 포맷에서 LVM2 포맷으로 볼륨 그룹을 변환할 수 있습니다. LVM 메타데이터 포맷을 변환하는 방법에 대한 내용은 vgconvert
(8) 맨 페이지를 참조하시기 바랍니다.
LVM 논리 볼륨의 기본 물리 스토리지 단위는 파티션이나 전체 디스크와 같은 블록 장치입니다. 이러한 장치는 LVM 물리 볼륨 (PV)으로 초기화되어야 합니다.
LVM 논리 볼륨을 생성하려면 물리 볼륨이 볼륨 그룹 (VG)으로 통합되어야 합니다. 이는 LVM 논리 볼륨 (LV)을 할당할 수 있는 디스크 공간의 풀을 생성합니다. 이러한 절차는 디스크가 파티션으로 나뉘어지는 방법과 유사합니다. 논리 볼륨은 파일 시스템 및 어플리케이션 (예: 데이터베이스)으로 사용됩니다.
그림 1.1. “LVM Logical Volume Components” shows the components of a simple LVM logical volume:
그림 1.1. LVM Logical Volume Components
For detailed information on the components of an LVM logical volume, see 2장. LVM 구성 요소 .
1.3. CLVM (Clustered Logical Volume Manager)
CLVM (Clustered Logical Volume Manager)은 LVM으로의 클러스터 확장 모음입니다. 이는 LVM을 사용하여 공유 스토리지를 (예: SAN 상에서) 관리하기 위해 컴퓨터의 클러스터를 허용합니다.
시스템 요구 사항에 따라 CLVM을 사용해야 할 지에 대한 여부:
- 시스템의 하나의 노드만 논리 볼륨으로 설정하는 스토리지에 액세스를 필요로할 경우, CLVM 확장을 사용하지 않고 LVM을 사용할 수 있으며 노드와 함께 생성된 논리 볼륨은 노드에서 모두 로컬로 됩니다.
- 스토리지를 액세스하는 단일 노드 만이 활성화되는 장채 조치를 위해 클러스터 시스템을 사용할 경우, 고가용성 놀리 볼륨 관리 에이전트 (HA-LVM)를 사용해야 합니다. HA-LVM에 대한 자세한 내용은 Red Hat Cluster 설정 및 관리 를 참조하십시오.
- 하나 이상의 클러스터 노드가 활성 노드 사이에서 공유되는 스토리지로의 액세스를 필요로할 경우, CLVM을 사용해야 합니다. CLVM은 논리 볼륨이 설정되는 동안 물리 스토리지로의 액세스를 잠금하여 사용자가 공유 스토리지에 논리 볼륨을 설정하게 하며, 공유 스토리지를 관리하기 위해 클러스터화된 잠금 서비스를 사용합니다.
CLVM을 사용하려면,
clmvd
데몬을 포함한 Red Hat Cluster Suite 소프트웨어가 실행되고 있어야 합니다. clmvd
데몬은 LVM으로의 주요 클러스링 확장 데몬입니다. clvmd
데몬은 각각의 클러스터 컴퓨터에서 실행하여 클러스터에 있는 LVM 메타데이터 업데이트를 분산하고, 동일한 논리 볼륨 관점에서 각각의 클러스터 컴퓨터를 보여줍니다. Red Hat Cluster Suite 설치 및 관리에 관한 내용은 Red Hat Cluster 설정 및 관리를 참조하십시오.
부팅시
clmvd
데몬이 시작되었는지를 확인하기위해, 다음과 같이 clvmd
서비스에서 chkconfig ... on
명령을 실행할 수 있습니다.
# chkconfig clvmd on
clvmd
데몬이 시작되지 않을 경우, 다음과 같이 clvmd
서비스에서 service ... start
명령을 실행할 수 있습니다:
# service clvmd start
Creating LVM logical volumes in a cluster environment is identical to creating LVM logical volumes on a single node. There is no difference in the LVM commands themselves, or in the LVM graphical user interface, as described in 4장. CLI 명령을 사용한 LVM 관리 and 7장. LVM GUI를 통한 LVM 관리. In order to enable the LVM volumes you are creating in a cluster, the cluster infrastructure must be running and the cluster must be quorate.
By default, logical volumes created with CLVM on shared storage are visible to all computers that have access to the shared storage. It is possible, however, to create logical volumes when the storage devices are visible to only one node in the cluster. It is also possible to change the status of a logical volume from a local volume to a clustered volume. For information, see 4.3.2절. “클러스터에서 볼륨 그룹 생성 ” and 4.3.7절. “볼륨 그룹의 매개 변수 변경 ”.
그림 1.2. “CLVM 개요 ” shows a CLVM overview in a Red Hat cluster.
그림 1.2. CLVM 개요
참고
Red Hat Cluster Suite에서 사용하기 위한 공유 스토리지는 클러스터 논리 볼륨 관리자 데몬 (
clvmd
) 또는 고가용성 논리 볼륨 관리 에이전트 (HA-LVM)를 실행하고 있을 것을 요청합니다. 운용 상의 이유로 또는 적절한 인타이틀먼트가 없는 관계로 clvmd
데몬이나 HA-LVM을 사용할 수 없을 경우, 공유 디스크에서 단일 인스턴스 LVM을 사용해서는 안됩니다. 이는 데이터 손상을 일으킬 수 있기 때문입니다. 다른 문제가 발생할 경우 Red Hat 서비스 담당자에게 연락하시기 바랍니다.
참고
CLVM requires changes to the
lvm.conf
file for cluster-wide locking. Information on configuring the lvm.conf
file to support clustered locking is provided within the lvm.conf
file itself. For information about the lvm.conf
file, see 부록 B. LVM 설정 파일 .
1.4. 문서 개요
이 문서의 나머지 부분에서는 다음과 같은 내용을 다루고 있습니다:
- 2장. LVM 구성 요소 describes the components that make up an LVM logical volume.
- 3장. LVM 관리 개요 provides an overview of the basic steps you perform to configure LVM logical volumes, whether you are using the LVM Command Line Interface (CLI) commands or the LVM Graphical User Interface (GUI).
- 4장. CLI 명령을 사용한 LVM 관리 summarizes the individual administrative tasks you can perform with the LVM CLI commands to create and maintain logical volumes.
- 5장. LVM 설정 예 provides a variety of LVM configuration examples.
- 6장. LVM 문제 해결 provides instructions for troubleshooting a variety of LVM issues.
- 7장. LVM GUI를 통한 LVM 관리 summarizes the operating of the LVM GUI.
- 부록 A. 장치 매퍼 (Device Mapper) describes the Device Mapper that LVM uses to map logical and physical volumes.
- 부록 B. LVM 설정 파일 describes the LVM configuration files.
- 부록 C. LVM 객체 태그 describes LVM object tags and host tags.
- 부록 D. LVM 볼륨 그룹 메타데이터 describes LVM volume group metadata, and includes a sample copy of metadata for an LVM volume group.
2장. LVM 구성 요소
다음 부분에서는 LVM 논리 볼륨의 구성 요소에 대해 설명합니다.
2.1. 물리 볼륨
LVM 논리 볼륨의 기본적인 물리 스토리지 단위는 파티션 또는 전체 디스크와 같은 블록 장치입니다. LVM 논리 볼륨 용으로 장치를 사용하려면 물리 볼륨 (PV)으로 초기화해야 합니다. 물리 볼륨으로 블록 장치를 초기화하면 장치 시작 부근에 레이블이 위치하게 됩니다.
기본값으로 LVM 레이블은 두 번째 512 바이트 섹터에 위치하게 됩니다. 처음 4 개의 섹터 중 아무곳에 레이블을 두어 이러한 기본값을 덮어쓸 수 있습니다. 이는 LVM 볼륨이 섹터의 다른 사용자와 공존하게 합니다.
시스템 부팅시 순서없이 장치가 나열되었지만 LVM 레이블로 물리 장치를 올바르게 식별하고 장치를 순서대로 나열할 수 있습니다. LVM 레이블은 재부팅 후에도 클러스터를 통해 지속적으로 남아있게 됩니다.
LVM 레이블로 LVM 물리 볼륨 장치를 식별합니다. 이에는 물리 볼륨에 해당하는 임의 고유 식별자 (UUID)가 있으며, 바이트 단위로 블록 장치 크기를 저장하고 장치 상에서 LVM 메타 데이터를 저장할 장소를 기록합니다.
LVM 메타데이터에는 시스템에 있는 LVM 볼륨 그룹의 설정 정보가 들어 있습니다. 기본값으로 메타데이터의 동일한 복사본은 볼륨 그룹 안의 모든 물리 볼륨에 있는 모든 메타 데이터 영역에 보존됩니다. LVM 메타 데이터는 ASCII로 저장됩니다.
현재 LVM은 각각의 물리 볼륨 상에 메타 데이터의 동일한 복사본 0, 1 또는 2개를 저장하게 합니다. 기본값은 복사본 1개입니다. 물리 볼륨에 메타데이터 사본 수를 설정하면 나중에 이를 변경할 수 없습니다. 첫 번째 사본은 레이블 바로 다음의 장치 시작 부분에 저장됩니다. 두 번째 사본이 있을 경우, 이는 장치 마지막 부분에 위치하게 됩니다. 실수로 다른 디스크에 작성하여 디스크 시작 부분이 덮어 쓰기되었을 경우, 장치 마지막에 있는 메타데이터의 두 번째 사본이 메타 데이터를 복구하게 합니다.
For detailed information about the LVM metadata and changing the metadata parameters, see 부록 D. LVM 볼륨 그룹 메타데이터 .
2.1.1. LVM Physical Volume Layout
그림 2.1. “물리적 볼륨 레이아웃 ” shows the layout of an LVM physical volume. The LVM label is on the second sector, followed by the metadata area, followed by the usable space on the device.
참고
Linux 커널에서 (이 문서 전반에 걸쳐), 섹터는 512 바이트 크기로 되어 있다고 간주합니다.
그림 2.1. 물리적 볼륨 레이아웃
2.1.2. 디스크에서 다중 파티션
LVM은 디스크 파티션에서 물리 볼륨을 생성하게 합니다. 일반적으로 다음과 같은 이유로 LVM 물리 볼륨으로 레이블하기 위해 전체 디스크를 커버하는 단일 파티션을 생성할 것을 권장합니다:
- 관리 용이실제 디스크가 한 번만 나타날 경우 시스템의 하드웨어를 추적하기 쉽습니다. 특히 디스크에 문제가 있을 경우 실제로 그러합니다. 또한, 단일 디스크에 있는 다중 물리 볼륨은 부팅시 알려지지 않은 파티션 유형에 대해 커널 경고를 할 수 있습니다.
- 스트라이핑 실행LVM은 두 개의 물리 볼륨이 동일한 물리 디스크에 있다고 알려줄 수 없습니다. 두 개의 물리 볼륨이 동일한 물리 디스크에 있을 때 스트라이프 논리 볼륨을 생성할 경우, 이는 같은 디스크에 있는 다른 파티션에 위치하게 되어 실행 기능을 저하시킵니다.
권장 사항은 아니지만, 디스크를 별개의 LVM 물리 볼륨으로 나누어야 하는 특정한 경우가 있을 수 있습니다. 예를 들어, 기존 시스템을 LVM 볼륨으로 이전해야 할 때 디스크가 있는 시스템에서 파티션의 데이터를 옮겨야 할 수 도 있고, 또한 용량이 큰 디스크가 있어 관리를 위해 하나 이상의 볼륨 그룹을 만들고자 할 경우 디스크를 파티션해야 합니다. 디스크에 한 개 이상의 파티션이 있고 이러한 파티션이 같은 볼륨 그룹에 있을 경우, 스트라이프 볼륨을 생성할 때 어떤 파티션을 논리 볼륨에 포함시킬지를 지정해야 합니다.
2.2. 볼륨 그룹
물리 볼륨은 볼륨 그룹 (VG)으로 통합됩니다. 이는 논리 볼륨을 할당할 수 있는 디스크 공간의 풀을 생성합니다.
볼륨 그룹에서 할당을 위한 디스크 공간은 익스텐트라는 고정된 크기위 단위로 나뉘어 집니다. 익스텐트는 물리 볼륨에서 공간을 할당할 수 있는 가장 작은 단위로, 이를 물리 익스텐트라고도 부릅니다.
논리 볼륨은 물리 익스텐트와 같은 크기의 논리 익스텐트로 할당됩니다. 따라서 익스텐트 크기는 볼륨 그룹에 있는 모든 논리 볼륨과 같습니다. 볼륨 그룹은 논리 익스텐트를 물리 익스텐트로 맵핑합니다.
2.3. LVM 논리적 볼륨
LVM에서 볼륨 그룹은 논리 볼륨으로 나뉘어 집니다. 선형 (linear) 볼륨, 스트라이프 (striped) 볼륨, 미러 (mirrored) 볼륨이라는 세 가지 유형의 LVM 논리 볼륨이 있습니다. 다음 부분에서는 이에 대해 설명합니다.
2.3.1. 선형 (Linear) 볼륨
선형 (linear) 볼륨은 하나의 논리 볼륨으로 물리 볼륨을 모읍니다. 예를 들어, 두 개의 60GB 디스크가 있을 경우, 한 개의 120GB 논리 볼륨을 생성할 수 있습니다. 물리 스토리지는 연결되어 집니다.
Creating a linear volume assigns a range of physical extents to an area of a logical volume in order. For example, as shown in 그림 2.2. “익스텐트 맵핑 ” logical extents 1 to 99 could map to one physical volume and logical extents 100 to 198 could map to a second physical volume. From the point of view of the application, there is one device that is 198 extents in size.
그림 2.2. 익스텐트 맵핑
The physical volumes that make up a logical volume do not have to be the same size. 그림 2.3. “동일하지 않은 물리 볼륨이 있는 선형 (Linear) 볼륨 ” shows volume group
VG1
with a physical extent size of 4MB. This volume group includes 2 physical volumes named PV1
and PV2
. The physical volumes are divided into 4MB units, since that is the extent size. In this example, PV1
is 100 extents in size (400MB) and PV2
is 200 extents in size (800MB). You can create a linear volume any size between 1 and 300 extents (4MB to 1200MB). In this example, the linear volume named LV1
is 300 extents in size.
그림 2.3. 동일하지 않은 물리 볼륨이 있는 선형 (Linear) 볼륨
You can configure more than one linear logical volume of whatever size you desire from the pool of physical extents. 그림 2.4. “다중 논리 볼륨 ” shows the same volume group as in 그림 2.3. “동일하지 않은 물리 볼륨이 있는 선형 (Linear) 볼륨 ”, but in this case two logical volumes have been carved out of the volume group:
LV1
, which is 250 extents in size (1000MB) and LV2
which is 50 extents in size (200MB).
그림 2.4. 다중 논리 볼륨
2.3.2. 스트라이프 (Striped) 논리 볼륨
LVM 논리 볼륨에 데이터를 기록할 때, 파일 시스템은 기본적인 물리 볼륨에 데이터를 기록합니다. 스트라이프 (striped) 논리 볼륨을 생성하여 데이터가 물리 볼륨에 기록되는 방식을 조절할 수 있습니다. 대량의 순차적 읽기 및 쓰기 작업의 경우, 데이터 I/O의 효율성을 향상시킬 수 있습니다.
스트라이핑은 라운드 라운드 (round-round) 방식에서 미리 지정된 물리 볼륨의 수에 데이터를 작성하여 성능을 향상시킵니다. 스트라이핑을 사용하여 I/O는 병렬로 실행될 수 있습니다. 이는 경우에 따라 스트라이프에 있는 각각의 추가 물리 볼륨에 대해 선형에 가까운 성능 결과를 초래할 수 있습니다.
다음의 그림에서는 세 개의 물리 볼륨에 걸쳐 스트라이프된 데이터를 보여주고 있습니다.:
- 데이터의 첫 번째 스트라이프는 PV1에 작성됩니다
- 데이터의 두 번째 스트라이프는 PV2에 작성됩니다
- 데이터의 세 번째 스트라이프는 PV3에 작성됩니다
- 데이터의 네 번째 스트라이프는 PV1에 작성됩니다
스트라이프 논리 볼륨에서 스트라이프의 크기는 익스텐트의 크기를 초과할 수 없습니다.
그림 2.5. 세 개의 PV를 통한 스트라이핑 데이터
Striped logical volumes can be extended by concatenating another set of devices onto the end of the first set. In order extend a striped logical volume, however, there must be enough free space on the underlying physical volumes that make up the volume group to support the stripe. For example, if you have a two-way stripe that uses up an entire volume group, adding a single physical volume to the volume group will not enable you to extend the stripe. Instead, you must add at least two physical volumes to the volume group. For more information on extending a striped volume, see 4.4.9절. “스트라이프 볼륨 확장 ”.
2.3.3. 미러 (Mirrored) 논리 볼륨
미러는 다른 장치에 있는 데이터의 동일한 복사본을 저장합니다. 데이터가 하나의 장치에 기록되었을 때, 이 데이터는 미러되어 두 번째 장치에도 기록됩니다. 이는 장치에 장애가 발생할 경우 데이터를 보호하게 됩니다. 하나의 미러 leg에 장애가 발생할 경우, 논리 볼륨은 선형 볼륨으로 되어 액세스 가능하게 됩니다.
LVM은 미러 볼륨을 지원합니다. 미러 논리 볼륨을 생성할 때 LVM은 기본적인 물리 볼륨에 기록된 데이터가 별개의 물리 볼륨으로 미러되었는 지를 확인합니다. LVM으로 다중 미러를 사용하여 미러 논리 볼륨을 생성할 수 있습니다.
LVM 미러는 일반적으로 512KB 크기로된 영역으로 복사되도록 장치를 나눕니다. LVM은 어떤 부분이 미러를 사용하여 동기화되었는 지를 추적하기 위해 사용된 로그를 보관합니다. 이러한 로그는 재부팅 후에도 없어지지 않도록 디스크나 메모리로 보관될 수 있습니다.
그림 2.6. “Mirrored Logical Volume” shows a mirrored logical volume with one mirror. In this configuration, the log is maintained on disk.
그림 2.6. Mirrored Logical Volume
참고
RHEL 5.3 릴리즈로서 미러 논리 볼륨은 클러스터에서 지원됩니다.
For information on creating and modifying mirrors, see 4.4.1.3절. “미러 볼륨 생성 ”.
2.3.4. 스냅샷 볼륨
LVM 스냅샷 기능은 서비스의 장애를 초래하지 않고 특정 경우에 장치의 가상 이미지를 생성하게 합니다. 스냅샷을 찍은 후 원래의 장치에 변경 사항이 있을 경우, 스냅샷 기능은 변경 되기 이전에 변경된 데이터 영역의 복사본을 만들어 장치의 상태를 재생할 수 있습니다.
참고
LVM 스냅샷은 클러스터에 있는 노드에서 지원되지 않습니다.
Because a snapshot copies only the data areas that change after the snapshot is created, the snapshot feature requires a minimal amount of storage. For example, with a rarely updated origin, 3-5 % of the origin's capacity is sufficient to maintain the snapshot.
참고
파일 시스템의 스냅샷 복사본은 가상 복사본으로 파일 시스템에 대한 실제적인 미디어 백업이 아닙니다. 스탭샷은 백업 절차에 대한 대체 기능을 제공하지 않습니다.
스냅샷 볼륨이 꽉찼을 경우, 스냅샷은 정지됩니다. 본래의 파일 시스템에 충분한 공간이 있는 지를 확인합니다. 스냅샷의 크기를 수시로 확인해야 합니다. 스냅샷은 크기를 재조정할 수 있지만, 스토리지 용량이 있을 경우, 스냅샷이 정지되지 않도록 스냅샷 볼륨의 크기를 증가시킬 수 있습니다. 반대로 필요보다 스냅샷 볼륨이 클 경우, 다른 논리 볼륨에 사용할 수 있도록 여유 공간을 두기 위해 스냅샷 볼륨 크기를 줄일 수 도 있습니다.
스냅샷 파일 시스템을 생성할 때, 원래 파일 시스템에 완전 읽기 및 쓰기 액세스를 할 수 있습니다. 스냅샷에서 일부분이 변경될 경우, 변경된 부분이 표시되고 원래 볼륨에서 복사되지 않습니다.
다음에서는 스냅샷 기능 사용법을 설명합니다:
- 대부분 지속적으로 데이터를 업데이트하는 라이브 시스템을 중지시키지 않고 논리 볼륨에서 백업을 실행해야 할 경우 스냅샷을 찍습니다.
- 스냅샷 파일 시스템에서
fsck
명령을 실행하여 파일 시스템 무결성을 확인하고 본래의 파일 시스템이 파일 시스템 복구를 필요로하는 지에 대해 결정할 수 있습니다. - 스냅샷은 읽기/쓰기가 되기 때문에, 스냅샷을 찍어 테스트를 실행하고, 실제 데이터는 보존하여 프로덕션 데이터에 대한 어플리케이션을 테스트할 수 있습니다.
- Xen 가상 머신 모니터와 함께 사용할 볼륨을 생성할 수 있습니다. 디스크 이미지를 생성하기 위해 스냅샷 기능을 사용할 수 있으며, 이미지를 스냅샷하고 특정 domU 경우에 대해 스냅샷을 수정합니다. 그 후 다른 스냅샷을 만들고 다른 domU 경우에 대해 이를 수정합니다. 스토리지가 사용하는 것이 본래의 또는 스냅샷에서 변경된 부분이면, 볼륨 대부분이 공유됩니다.
3장. LVM 관리 개요
This chapter provides an overview of the administrative procedures you use to configure LVM logical volumes. This chapter is intended to provide a general understanding of the steps involved. For specific step-by-step examples of common LVM configuration procedures, see 5장. LVM 설정 예 .
For descriptions of the CLI commands you can use to perform LVM administration, see 4장. CLI 명령을 사용한 LVM 관리 . Alternately, you can use the LVM GUI, which is described in 7장. LVM GUI를 통한 LVM 관리.
3.1. 클러스터에 LVM 볼륨 생성
To create logical volumes in a cluster environment, you use the Clustered Logical Volume Manager (CLVM), which is a set of clustering extensions to LVM. These extensions allow a cluster of computers to manage shared storage (for example, on a SAN) using LVM. In order to use CLVM, the Red Hat Cluster Suite software, including the
clmvd
daemon, must be started at boot time, as described in 1.3절. “CLVM (Clustered Logical Volume Manager) ”.
클러스터 환경에서 LVM 논리 볼륨을 생성하는 것은 단일 노드에서 LVM 논리 볼륨을 생성하는 것과 동일합니다. LVM 명령 자체나 LVM GUI 인터페이스에서의 다른점은 없습니다. 클러스터에 생성하려는 LVM 볼륨을 활성화하려면, 클러스터 인프라가 반드시 실행되고 있어야 하며 클러스터는 정족수(quorum)에 달해 있어야 합니다.
CLVM requires changes to the
lvm.conf
file for cluster-wide locking. Information on configuring the lvm.conf
file to support clustered locking is provided within the lvm.conf
file itself. For information about the lvm.conf
file, see 부록 B. LVM 설정 파일 .
By default, logical volumes created with CLVM on shared storage are visible to all computers that have access to the shared storage. It is possible, however, to create logical volumes when the storage devices are visible to only one node in the cluster. It is also possible to change the status of a logical volume from a local volume to a clustered volume. For information, see 4.3.2절. “클러스터에서 볼륨 그룹 생성 ” and 4.3.7절. “볼륨 그룹의 매개 변수 변경 ”
참고
Red Hat Cluster Suite에서 사용하기 위한 공유 스토리지는 클러스터 논리 볼륨 관리자 데몬 (
clvmd
) 또는 고가용성 논리 볼륨 관리 에이전트 (HA-LVM)를 실행하고 있을 것을 요청합니다. 운용 상의 이유로 또는 적절한 인타이틀먼트가 없는 관계로 clvmd
데몬이나 HA-LVM을 사용할 수 없을 경우, 공유 디스크에서 단일 인스턴스 LVM을 사용해서는 안됩니다. 이는 데이터 손상을 일으킬 수 있기 때문입니다. 다른 문제가 발생할 경우 Red Hat 서비스 담당자에게 연락하시기 바랍니다.
Red Hat Cluster Suite 설치 및 클라스터 인프라를 설정하는 방법에 대한 내용은 Red Hat Cluster 설정 및 관리에서 참조하시기 바랍니다.
3.2. 논리 볼륨 생성에 관한 개요
다음 부분에서는 LVM 논리 볼륨을 생성하기 위한 실행 절차에 대해 요약하여 설명합니다.
- 물리 볼륨으로서 LVM 볼륨으로 사용할 파티션을 초기화합니다 (이는 파티션을 레이블함)
- 볼륨 그룹을 생성합니다.
- 논리 볼륨을 생성합니다.
논리 볼륨을 생성한 후에 파일 시스템을 생성하고 마운트할 수 있습니다. 이 문서의 예에서는 GFS 파일 시스템을 사용합니다.
gfs_mkfs
명령을 사용하여 논리 볼륨에 GFS 파일 시스템을 생성합니다.mkdir
명령을 사용하여 새로운 마운트 지점을 생성합니다. 클러스터된 시스템에서 클러스터에 있는 모든 노드에 마운트 지점을 생성합니다.- 파일 시스템을 마운트합니다. 시스템에 있는 각각의 노드에 대한
fstab
파일에 행을 추가할 수 있습니다.
다른 방법으로, LVM GUI를 사용하여 GFS 파일 시스템을 생성하고 마운트할 수 있습니다.
LVM 볼륨을 생성하는 것은 LVM 설정 정보에 해당하는 저장 장치가 볼륨이 생성된 곳이 아닌 물리 볼륨에 있기 때문에 장치 독립적입니다. 저장 장치를 사용하는 서버는 로컬 복사본을 갖게 되지만 물리 볼륨에 있는 장치에서 다시 생성할 수 있습니다. LVM 버전이 호환가능할 경우 물리 볼륨을 다른 서버에 부착할 수 있습니다.
3.3. 논리 볼륨에 파일 시스템 늘리기
논리 볼륨에 파일 시스템을 늘리기 위해 다음과 같은 절차를 실행합니다:
- 새 물리 볼륨을 생성합니다.
- 새 물리 볼륨을 포함시키기 위해 늘리려는 파일 시스템과 함께 논리 불륨이 있는 볼륨 그룹을 확장합니다.
- 새 물리 볼륨을 포함시키기 위해 논리 볼륨을 확장합니다.
- 파일 시스템을 늘립니다.
볼륨 그룹에 할당되지 않은 충분한 공간이 있을 경우, 1 단계와 2 단계를 실행하지 않고 이 공간을 사용하여 논리 볼륨을 확장할 수 있습니다.
3.4. 논리 볼륨 백업
메타데이터 백업 및 메타데이터 아카이브는
lvm.conf
파일에서 비활성화되지 않는 한 모든 볼륨 그룹 및 논리 볼륨 설정 변경 시 자동으로 생성됩니다. 기본값으로 메타데이터 백업은 /etc/lvm/backup
파일에 저장되며 메타데이터 아카이브는 /etc/lvm/archive
파일에 저장됩니다. /etc/lvm/archive
파일에 저장된 메타데이터 아카이브가 얼마나 오래 동안 얼마나 많은 아카이브 파일을 저장할 지는 lvm.conf
파일에서 설정할 수 있는 매개변수에 의해 결정됩니다. 매일 실행되는 시스템 백업에는 /etc/lvm
디렉토리의 내용이 들어 있어야 합니다.
메타 데이터 백업에서는 논리 볼륨에 있는 사용자 및 시스템 데이터를 백업하지 않음에 유의합니다.
You can manually back up the metadata to the
/etc/lvm/backup
file with the vgcfgbackup
command. You can restore metadata with the vgcfgrestore
command. The vgcfgbackup
and vgcfgrestore
commands are described in 4.3.12절. “볼륨 그룹 메타 데이터 백업 ”.
3.5. 로깅
모든 메세지 출력 결과는 독자적으로 로깅 레벨을 선택하여 로깅 모듈을 통과합니다:
- 표준 출력/오류
- syslog
- 로그 파일
- 외부 로그 기능
The logging levels are set in the
/etc/lvm/lvm.conf
file, which is described in 부록 B. LVM 설정 파일 .
4장. CLI 명령을 사용한 LVM 관리
다음 부분에서는 논리 볼륨을 생성하고 관리하기 위해 LVM CLI (Command Line Interface) 명령으로 실행할 수 있는 개별적 관리 작업에 대해 요약하여 설명합니다.
참고
If you are creating or modifying an LVM volume for a clustered environment, you must ensure that you are running the
clvmd
daemon. For information, see see 3.1절. “클러스터에 LVM 볼륨 생성 ”.
4.1. CLI 명령 사용
LVM CLI 명령에는 몇 가지 일반적인 기능이 있습니다.
명령행 인수에서 크기를 요청할 때 항상 단위를 명확하게 명시해야 합니다. 단위를 명시하지 않을 경우, 주로 KB 또는 MB와 같은 기본값이 단위로 됩니다. LVM CLI 명령은 소수를 허용하지 않습니다.
명령행 인수에서 단위를 지정할 때, LVM은 대소문자 구분을 하지 않습니다; 예를 들어, M 또는 m으로 지정하는 것은 동일하며 2의 배수 (1024의 배수)가 사용됩니다. 하지만, 명령에서
--units
인수를 지정하면, 소문자는 1024의 배수로된 단위를 가리키는 반면 대문자는 1000의 배수로된 단위를 가리킵니다.
명령이 볼륨 그룹 또는 논리 볼륨 이름을 인수로 갖는 것에서, 완전 경로명은 옵션으로 됩니다.
vg0
볼륨 그룹에 있는 lvol0
논리 볼륨은 vg0/lvol0
으로 지정될 수 있습니다. 여기서 볼륨 그룹 목록이 필요하지만 이는 비어있게 되고, 모든 볼륨 그룹 목록은 대체됩니다. 논리 볼륨 목록이 필요하지만 볼륨 그룹이 주어지고, 볼륨 그룹에 있는 모든 논리 볼륨 목록은 대체됩니다. 예를 들어, lvdisplay vg0
명령은 vg0
볼륨 그룹에 있는 모든 논리 볼륨을 보여줍니다.
모든 LVM 명령은 보다 더 상세한 출력 결과를 얻기 위해 여러번 입력 할 수 있는
-v
인수를 허용합니다. 예를 들어, 다음의 예에서는 lvcreate
명령의 기본 출력 결과를 보여주고 있습니다.
# lvcreate -L 50MB new_vg
Rounding up size to full physical extent 52.00 MB
Logical volume "lvol0" created
다음의 예에서는
-v
인수와 함께 사용된 lvcreate
명령의 출력 결과를 보여주고 있습니다.
# lvcreate -v -L 50MB new_vg
Finding volume group "new_vg"
Rounding up size to full physical extent 52.00 MB
Archiving volume group "new_vg" metadata (seqno 4).
Creating logical volume lvol0
Creating volume group backup "/etc/lvm/backup/new_vg" (seqno 5).
Found volume group "new_vg"
Creating new_vg-lvol0
Loading new_vg-lvol0 table
Resuming new_vg-lvol0 (253:2)
Clearing start of logical volume "lvol0"
Creating volume group backup "/etc/lvm/backup/new_vg" (seqno 5).
Logical volume "lvol0" created
명령 실행에 관한 보다 상세한 출력 결과를 디스플레이하기 위해
-vv
, -vvv
, -vvvv
인수를 사용할 수 있습니다. -vvvv
인수로 최대 출력 결과를 볼 수 있습니다. 다음의 예에서는 -vvvv
인수와 함께 사용된 lvcreate
명령에 대해 처음 몇 줄의 출력 결과 만을 보여주고 있습니다.
# lvcreate -vvvv -L 50MB new_vg
#lvmcmdline.c:913 Processing: lvcreate -vvvv -L 50MB new_vg
#lvmcmdline.c:916 O_DIRECT will be used
#config/config.c:864 Setting global/locking_type to 1
#locking/locking.c:138 File-based locking selected.
#config/config.c:841 Setting global/locking_dir to /var/lock/lvm
#activate/activate.c:358 Getting target version for linear
#ioctl/libdm-iface.c:1569 dm version OF [16384]
#ioctl/libdm-iface.c:1569 dm versions OF [16384]
#activate/activate.c:358 Getting target version for striped
#ioctl/libdm-iface.c:1569 dm versions OF [16384]
#config/config.c:864 Setting activation/mirror_region_size to 512
...
--help
인수로 LVM CLI 명령에 해당하는 도움말을 볼 수 있습니다.
commandname --help
명령에 해당하는 맨 페이지를 보려면
man
명령을 실행합니다:
man commandname
man lvm
명령은 LVM에 관한 일반적인 온라인 정보를 보여줍니다.
All LVM objects are referenced internally by a UUID, which is assigned when you create the object. This can be useful in a situation where you remove a physical volume called
/dev/sdf
which is part of a volume group and, when you plug it back in, you find that it is now /dev/sdk
. LVM will still find the physical volume because it identifies the physical volume by its UUID and not its device name. For information on specifying the UUID of a physical volume when creating a physical volume, see see 6.4절. “물리 볼륨 메타 데이터 복구 ”.
4.2. 물리 볼륨 관리
다음 부분에서는 물리 볼륨 관리 실행을 위한 명령에 대해 설명합니다.
4.2.1. 물리 볼륨 생성
다음 부분에서는 물리 볼륨 생성에 사용되는 명령에 대해 설명합니다.
4.2.1.1. 파티션 유형 설정
물리 볼륨에 대해 전체 디스크를 사용할 경우, 디스크에는 파티션 테이블이 없어야 합니다. DOS 디스크 파티션의 경우, 파티션 id는
fdisk
또는 cfdisk
를 사용하여 0x8e로 설정되어야 합니다. 전체 디스크 장치의 경우 파티션 테이블만이 삭제되어야 하며, 사실상 이는 디스크 상의 모든 데이터를 삭제하게 됩니다. 다음의 명령을 사용하여 첫 번째 섹터를 제로(zero)로 지정하여 기존 파티션 테이블을 삭제할 수 있습니다:
dd if=/dev/zero of=PhysicalVolume bs=512 count=1
4.2.1.2. 물리 볼륨 초기화
pvcreate
명령을 사용하여 물리 볼륨으로 사용할 블록 장치를 초기화합니다. 초기화 작업은 파일 시스템을 포맷하는 것과 유사합니다.
다음 명령으로 LVM 물리 볼륨으로 사용할
/dev/sdd1
, /dev/sde1
, /dev/sdf1
를 초기화합니다.
pvcreate /dev/sdd1 /dev/sde1 /dev/sdf1
전체 디스크가 아닌 파티션을 초기화하려면: 파티션에서
pvcreate
명령을 실행합니다. 다음 예에서는 LVM 논리 볼륨의 일부분으로 차후에 사용할 LVM 물리 볼륨으로서 /dev/hdb1
을 초기화하고 있습니다.
pvcreate /dev/hdb1
4.2.1.3. 블록 장치 스캐닝
다음의 예에서 볼 수 있듯이
lvmdiskscan
명령으로 물리 볼륨으로 사용된 블록 장치를 확인할 수 있습니다.
# lvmdiskscan
/dev/ram0 [ 16.00 MB]
/dev/sda [ 17.15 GB]
/dev/root [ 13.69 GB]
/dev/ram [ 16.00 MB]
/dev/sda1 [ 17.14 GB] LVM physical volume
/dev/VolGroup00/LogVol01 [ 512.00 MB]
/dev/ram2 [ 16.00 MB]
/dev/new_vg/lvol0 [ 52.00 MB]
/dev/ram3 [ 16.00 MB]
/dev/pkl_new_vg/sparkie_lv [ 7.14 GB]
/dev/ram4 [ 16.00 MB]
/dev/ram5 [ 16.00 MB]
/dev/ram6 [ 16.00 MB]
/dev/ram7 [ 16.00 MB]
/dev/ram8 [ 16.00 MB]
/dev/ram9 [ 16.00 MB]
/dev/ram10 [ 16.00 MB]
/dev/ram11 [ 16.00 MB]
/dev/ram12 [ 16.00 MB]
/dev/ram13 [ 16.00 MB]
/dev/ram14 [ 16.00 MB]
/dev/ram15 [ 16.00 MB]
/dev/sdb [ 17.15 GB]
/dev/sdb1 [ 17.14 GB] LVM physical volume
/dev/sdc [ 17.15 GB]
/dev/sdc1 [ 17.14 GB] LVM physical volume
/dev/sdd [ 17.15 GB]
/dev/sdd1 [ 17.14 GB] LVM physical volume
7 disks
17 partitions
0 LVM physical volume whole disks
4 LVM physical volumes
4.2.2. 물리 볼륨 보기
LVM 물리 볼륨 속성 보기에 사용할 수 명령에는 다음의 세 가지가 있습니다:
pvs
, pvdisplay
, pvscan
.
The
pvs
command provides physical volume information in a configurable form, displaying one line per physical volume. The pvs
command provides a great deal of format control, and is useful for scripting. For information on using the pvs
command to customize your output, see 4.9절. “LVM 용 사용자 설정 리포트 ”.
pvdisplay
명령으로 각각의 물리 볼륨에 대해 상세 출력을 할 수 있습니다. 이는 고정 포맷으로 물리 볼륨의 속성 (크기, 익스텐트, 볼륨 그룹 등)을 보여줍니다.
다음의 예에서는 단일 물리 볼륨에 대한
pvdisplay
명령의 출력 결과를 보여 주고 있습니다
# pvdisplay
--- Physical volume ---
PV Name /dev/sdc1
VG Name new_vg
PV Size 17.14 GB / not usable 3.40 MB
Allocatable yes
PE Size (KByte) 4096
Total PE 4388
Free PE 4375
Allocated PE 13
PV UUID Joqlch-yWSj-kuEn-IdwM-01S9-XO8M-mcpsVe
pvscan
명령으로 물리 볼륨에 해당하는 시스템에 있는 모든 LVM 블록 장치를 스캔합니다.
다음의 명령에서는 검색된 모든 물리 장치를 보여주고 있습니다:
# pvscan
PV /dev/sdb2 VG vg0 lvm2 [964.00 MB / 0 free]
PV /dev/sdc1 VG vg0 lvm2 [964.00 MB / 428.00 MB free]
PV /dev/sdc2 lvm2 [964.84 MB]
Total: 3 [2.83 GB] / in use: 2 [1.88 GB] / in no VG: 1 [964.84 MB]
You can define a filter in the
lvm.conf
so that this command will avoid scanning specific physical volumes. For information on using filters to control which devices are scanned, see 4.6절. “필터로 LVM 장치 스캔 제어 ”.
4.2.3. 물리 볼륨에서 할당을 허용하지 않음
pvchange
명령을 사용하여 한 개 이상의 물리 볼륨의 여유 공간에 있는 물리 익스텐트의 할당을 허용하지 않을 수 있습니다. 디스크 오류가 있을 경우나 물리 볼륨을 삭제할 경우 이러한 작업이 필요하게 됩니다.
다음의 명령으로
/dev/sdk1
에 물리 익스텐트의 할당을 허용하지 않습니다.
pvchange -x n /dev/sdk1
pvchange
명령의 -xy
인수를 사용하여 할당이 허용되지 않은 부분에 대해 할당을 허용할 수 있습니다.
4.2.4. 물리 볼륨 크기 조정
기본 블록 장치의 크기를 변경해야 할 경우,
pvresize
명령을 사용하여 새로운 크기로 LVM을 업데이트합니다. LVM이 물리 볼륨을 사용하고 있는 동안에도 이 명령을 실행할 수 있습니다.
4.2.5. 물리 볼륨 삭제
장치를 더이상 LVM으로 사용할 필요가 없을 경우,
pvremove
명령으로 LVM 레이블을 삭제할 수 있습니다. pvremove
명령을 실행하면 빈 물리 볼륨에 있는 LVM 메타 데이터를 제로(zero)로 만듭니다.
If the physical volume you want to remove is currently part of a volume group, you must remove it from the volume group with the
vgreduce
command, as described in 4.3.6절. “볼륨 그룹에서 물리 볼륨 삭제 ”.
# pvremove /dev/ram15
Labels on physical volume "/dev/ram15" successfully wiped
4.3. 볼륨 그룹 관리
다음 부분에서는 볼륨 그룹 관리를 실행하기 위한 명령에 대해 설명합니다.
4.3.1. 볼륨 그룹 생성
To create a volume group from one or more physical volumes, use the
vgcreate
command. The vgcreate
command creates a new volume group by name and adds at least one physical volume to it.
다음 명령으로
/dev/sdd1
및 /dev/sde1
물리 볼륨이 들어있는 vg1
라는 볼륨 그룹을 생성합니다.
vgcreate vg1 /dev/sdd1 /dev/sde1
볼륨 그룹을 생성하기 위해 물리 볼륨을 사용한 경우, 기본값으로 디스크 공간이 4MB 익스텐트로 나뉘어집니다. 이러한 익스텐트는 크기에 있어서 논리 볼륨이 확장 또는 축소될 수 있는 최소 크기입니다. 익스텐트의 크기가 클 경우 논리 볼륨의 I/O 실행에 영향을 미치지 않습니다.
기본값이
-s
인수에 적합하지 않을 경우 vgcreate
명령을 사용하여 익스텐트 크기를 지정할 수 있습니다. vgcreate
명령의 -p
및 -l
인수를 사용하여 볼륨 그룹이 갖을 수 있는 물리 볼륨 또는 논리 볼륨의 수에 제한을 둘 수 있습니다.
기본값으로 볼륨 그룹은 동일한 물리 볼륨에 병렬 스트라이프를 위치하게 하지 않는 것과 같은 일반적인 규칙에 따라 물리 익스텐트를 할당합니다. 이는
normal
할당 정책입니다. vgcreate
명령의 --alloc
인수를 사용하여 contiguous
, anywhere
, cling
의 할당 정책을 지정할 수 있습니다.
contiguous
정책에서는 새 익스텐트가 기존 익스텐트에 근접해야 합니다. 할당 요청을 만족시키기에 충분한 여유 익스텐트가 있지만 normal
할당 정책에서는 이를 사용하고자 하지 않을 경우, 같은 물리 볼륨에 두 개의 스트라이프가 위치하여 실행 속도가 줄어들어도 anywhere
할당 정책이 이를 사용합니다. cling
정책은 논리 볼륨의 동일한 스트라이프에 있는 기존 익스텐트와 같은 물리 볼륨에 있는 새 익스텐트를 위치하게 합니다. 이러한 정책은 vgchange
명령으로 변경될 수 있습니다.
일반적으로
normal
외의 할당 정책은 특별한 형태로 익스텐트를 할당해야 하는 것과 같이 특별한 경우에만 요청됩니다.
LVM 볼륨 그룹 및 기본 논리 볼륨은 다음과 같은 레이아웃으로
/dev
디렉토리에 있는 장치 특수 파일 디렉토리 트리에 포함됩니다.
/dev/vg/lv/
예를 들어, 각각의 볼륨 그룹에
lvo1
, lvo2
, lvo3
라는 세 개의 논리 볼륨을 갖는 myvg1
및 myvg2
라는 두 개의 볼륨 그룹을 생성할 경우, 여섯 개의 장치 특수 파일이 생성됩니다:
/dev/myvg1/lv01 /dev/myvg1/lv02 /dev/myvg1/lv03 /dev/myvg2/lv01 /dev/myvg2/lv02 /dev/myvg2/lv03
64 비트 CPU에서 LVM의 최대 장치 크기는 8 EB입니다.
4.3.2. 클러스터에서 볼륨 그룹 생성
vgcreate
명령으로 단일 노드에 생성하는 것과 같이 클러스터 환경에 볼륨 그룹을 생성합니다.
기본값으로 공유 스토리지에서 CLVM으로 생성된 볼륨 그룹은 공유 스토리지로 액세스하는 모든 컴퓨터에서 볼 수 있습니다. 하지만
vgcreate
명령의 -c n
을 사용하여 클러스터에 있는 하나의 노드에서만 볼 수 있는 로컬 볼륨 그룹을 생성할 수 있습니다.
다음과 같은 명령은 클러스터 환경에서 실행하면 명령이 실행된 곳에서 노드로 로컬로 볼륨 그룹을 생성합니다. 이는
/dev/sdd1
및 /dev/sde1
물리 볼륨이 들어있는 vg1
라는 로컬 볼륨을 생성합니다.
vgcreate -c n vg1 /dev/sdd1 /dev/sde1
You can change whether an existing volume group is local or clustered with the
-c
option of the vgchange
command, which is described in 4.3.7절. “볼륨 그룹의 매개 변수 변경 ”.
기존 볼륨 그룹이
vgs
명령을 사용하여 기존 볼륨 그룹이 클러스터화된 볼륨 그룹인지를 확인할 수 있으며, 볼륨이 클러스터되어 있을 경우 이는 c
속성을 표시합니다. 다음 명령은 VolGroup00
및 testvg1
볼륨 그룹의 속성을 표시합니다. 예에서VolGroup00
는 클러스터되어 있지 않는 반면, testvg1
는 Attr
헤딩 아래 c
속성에 의해 표시되어 클러스터됩니다.
[root@doc-07]# vgs
VG #PV #LV #SN Attr VSize VFree
VolGroup00 1 2 0 wz--n- 19.88G 0
testvg1 1 1 0 wz--nc 46.00G 8.00M
For more information on the
vgs
command, see 4.3.4절. “볼륨 그룹 보기 ”4.9절. “LVM 용 사용자 설정 리포트 ”, and the vgs
man page.
4.3.3. 볼륨 그룹에 물리 볼륨 추가
To add additional physical volumes to an existing volume group, use the
vgextend
command. The vgextend
command increases a volume group's capacity by adding one or more free physical volumes.
다음 명령으로 볼륨 그룹
vg1
에 물리 볼륨 /dev/sdf1
을 추가합니다.
vgextend vg1 /dev/sdf1
4.3.4. 볼륨 그룹 보기
LVM 볼륨 그룹의 속성을 보려면 다음과 같은 두 가지 명령을 사용할 수 있습니다:
vgs
및 vgdisplay
The
vgscan
command will also display the volume groups, although its primary purpose is to scan all the disks for volume groups and rebuild the LVM cache file. For information on the vgscan
command, see 4.3.5절. “캐시 파일 작성을 위해 볼륨 그룹에 해당하는 디스크 보기 ”.
The
vgs
command provides volume group information in a configurable form, displaying one line per volume group. The vgs
command provides a great deal of format control, and is useful for scripting. For information on using the vgs
command to customize your output, see 4.9절. “LVM 용 사용자 설정 리포트 ”.
vgdisplay
명령으로 고정된 형식으로 볼륨 그룹 속성 (예: 크기, 익스텐트, 물리 볼륨 수 등)을 볼 수 있습니다. 다음 예에서는 new_vg
볼륨 그룹에 해당하는 vgdisplay
명령의 출력 결과를 보여 주고 있습니다. 볼륨 그룹을 지정하지 않을 경우, 기존의 모든 볼륨 그룹이 나타납니다.
# vgdisplay new_vg
--- Volume group ---
VG Name new_vg
System ID
Format lvm2
Metadata Areas 3
Metadata Sequence No 11
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 1
Open LV 0
Max PV 0
Cur PV 3
Act PV 3
VG Size 51.42 GB
PE Size 4.00 MB
Total PE 13164
Alloc PE / Size 13 / 52.00 MB
Free PE / Size 13151 / 51.37 GB
VG UUID jxQJ0a-ZKk0-OpMO-0118-nlwO-wwqd-fD5D32
4.3.5. 캐시 파일 작성을 위해 볼륨 그룹에 해당하는 디스크 보기
vgscan
명령으로 LVM 물리 볼륨 및 볼륨 그룹을 찾는 시스템에서 지원되는 모든 디스크 장치를 스캔합니다. 이는 현재 LVM 장치 목록을 관리하는 /etc/lvm/.cache
에 LVM 캐시 파일을 작성합니다.
시스템을 시작 할 때와 LVM을 실행하는 동안 즉,
vgcreate
명령을 실행할 때나 LVM이 불일치 사항을 발견했을 때 LVM은 vgscan
명령을 자동으로 실행합니다. 시스템 부팅시 나타나지 않는 시스템에 새로운 장치를 볼 수 있게 하는 하드웨어 설정을 변경할 때 vgscan
명령을 수동으로 실행할 수 도 있습니다. 예를 들어, SAN 상의 시스템에 새 디스크를 추가할 때나 또는 물리 볼륨으로 레이블된 새 디스크를 핫플러그 (hotplug)할 때 이러한 기능이 필요할 수 도 있습니다.
You can define a filter in the
lvm.conf
file to restrict the scan to avoid specific devices. For information on using filters to control which devices are scanned, see 4.6절. “필터로 LVM 장치 스캔 제어 ”.
다음 예에서는
vgscan
명령의 출력 결과를 보여주고 있습니다.
# vgscan
Reading all physical volumes. This may take a while...
Found volume group "new_vg" using metadata type lvm2
Found volume group "officevg" using metadata type lvm2
4.3.6. 볼륨 그룹에서 물리 볼륨 삭제
To remove unused physical volumes from a volume group, use the
vgreduce
command. The vgreduce
command shrinks a volume group's capacity by removing one or more empty physical volumes. This frees those physical volumes to be used in different volume groups or to be removed from the system.
볼륨 그룹에서 물리 볼륨을 삭제하기 전에
pvdisplay
명령으로 물리 볼륨이 다른 논리 볼륨에 의해 사용되지 않는 지를 확인할 수 있습니다.
# pvdisplay /dev/hda1
-- Physical volume ---
PV Name /dev/hda1
VG Name myvg
PV Size 1.95 GB / NOT usable 4 MB [LVM: 122 KB]
PV# 1
PV Status available
Allocatable yes (but full)
Cur LV 1
PE Size (KByte) 4096
Total PE 499
Free PE 0
Allocated PE 499
PV UUID Sd44tK-9IRw-SrMC-MOkn-76iP-iftz-OVSen7
물리 볼륨이 사용되고 있을 경우
pvmove
명령으로 데이터를 다른 물리 볼륨으로 옮겨야 합니다. 그 후 vgreduce
명령을 사용하여 물리 볼륨을 삭제합니다:
다음 명령으로
my_volume_group
볼륨 그룹에서 /dev/hda1
물리 볼륨을 삭제합니다.
# vgreduce my_volume_group /dev/hda1
4.3.7. 볼륨 그룹의 매개 변수 변경
There are several volume group parameters that you can change for an existing volume group with the
vgchange
command. Primarily, however, this command is used to deactivate and activate volume groups, as described in 4.3.8절. “볼륨 그룹 활성화 및 비활성화 ”,
다음 명령으로
vg00
볼륨 그룹의 논리 볼륨을 최대 128까지로 변경할 수 있습니다.
vgchange -l 128 /dev/vg00
볼륨 그룹 매개 변수 설명에 대해
vgchange
명령으로 변경할 수 있습니다. vgchange
(8) 맨 페이지를 참조하시기 바랍니다.
4.3.8. 볼륨 그룹 활성화 및 비활성화
볼륨 그룹을 생성하면 이는 기본값으로 활성화됩니다. 즉 볼륨 그룹에 있는 논리 볼륨은 액세스 가능하고 변경될 가능성이 있습니다.
볼륨 그룹을 비활성화시켜 커널에 알려지지 않게 해야 할 경우가 있습니다. 볼륨 그룹을 비활성화 또는 활성화하려면
vgchange
명령의 -a
(--available
) 인수를 사용합니다.
다음 예에서는
my_volume_group
볼륨 그룹을 비활성화하고 있습니다.
vgchange -a n my_volume_group
클러스터 잠금 기능이 활성화되어 있을 경우, ’e’를 추가하여 배타적으로 하나의 노드에서 볼륨 그룹을 활성화 또는 비활성화하거나 또는 ’l’를 추가하여 로컬 노드에서만 볼륨 그룹을 활성화 또는 비활성화합니다. 단일 호스트 스냅샷이 있는 논리 볼륨은 한 번에 하나의 노드에서만 사용될 수 있으므로 항상 배타적으로 활성화됩니다.
You can deactivate individual logical volumes with the
lvchange
command, as described in 4.4.4절. “논리 볼륨 그룹의 매개 변수 변경 ”, For information on activating logical volumes on individual nodes in a cluster, see 4.8절. “클러스터에 있는 개별적 노드에서 논리 볼륨 활성화 ”.
4.3.9. 볼륨 그룹 삭제
논리 볼륨이 포함되어 있지 않은 볼륨 그룹을 삭제하려면,
vgremove
명령을 사용합니다.
# vgremove officevg
Volume group "officevg" successfully removed
4.3.10. 볼륨 그룹 나누기
볼륨 그룹의 물리 볼륨을 나누어 새 볼륨 그룹을 생성하려면,
vgsplit
명령을 사용합니다.
논리 볼륨은 볼륨 그룹에서 분리할 수 없습니다. 각각의 기존 논리 볼륨은 이전 볼륨 그룹이나 새 볼륨 그룹 형태로 논리 볼륨에 있어야 합니다. 하지만, 필요에 따라
pvmove
명령을 사용하여 강제로 분리할 수 있습니다.
다음의 예에서는 원래의 볼륨 그룹
bigvg
에서 새로운 볼륨 그룹 smallvg
을 나누고 있습니다.
# vgsplit bigvg smallvg /dev/ram15
Volume group "smallvg" successfully split from "bigvg"
4.3.11. 볼륨 그룹 합치기
Two combine two volume groups into a single volume group, use the
vgmerge
command. You can merge an inactive "source" volume with an active or an inactive "destination" volume if the physical extent sizes of the volume are equal and the physical and logical volume summaries of both volume groups fit into the destination volume groups limits.
다음의 명령으로 비활성화 볼륨 그룹
my_vg
를 런타임 상세 정보를 제공하는 활성화 또는 비활성화 볼륨 그룹 databases
으로 합치기할 수 있습니다.
vgmerge -v databases my_vg
4.3.12. 볼륨 그룹 메타 데이터 백업
메타 데이터 백업 및 메타 데이터 아카이브는
lvm.conf
파일에서 비활성화되지 않는 한 모든 볼륨 그룹 및 논리 볼륨 설정 변경 시 자동으로 생성됩니다. 기본값으로 메타 데이터 백업은 /etc/lvm/backup
에 저장되고 메타 데이터 아카이브는 /etc/lvm/archives
에 저장됩니다. vgcfgbackup
명령으로 /etc/lvm/backup
파일에 수동으로 메타 데이터를 백업할 수 있습니다.
vgcfrestore
명령을 사용하여 볼륨 그룹에 있는 아카이브에서 모든 물리 볼륨으로 볼륨 그룹의 메타 데이터를 복구합니다.
For an example of using the
vgcfgrestore
command to recover physical volume metadata, see 6.4절. “물리 볼륨 메타 데이터 복구 ”.
4.3.13. 볼륨 그룹 이름 변경
vgrename
명령을 사용하여 기존의 볼륨 그룹 이름을 변경합니다.
다음의 명령으로 기존의
vg02
볼륨 그룹을 my_volume_group
으로 이름을 변경합니다.
vgrename /dev/vg02 /dev/my_volume_group
vgrename vg02 my_volume_group
4.3.14. 다른 시스템으로 볼륨 그룹 이동
전체 LVM 볼륨 그룹을 다른 시스템으로 옮길 수 있습니다. 이를 실행하기 위해
vgexport
및 vgimport
명령을 사용할 것을 권장합니다.
vgexport
명령은 물리 볼륨을 분리시키는 시스템에 비활성화 볼륨 그룹을 액세스 불가능하게 합니다. vgexport
명령으로 이를 비활성화시킨 후 vgimport
명령으로 볼륨 그룹이 시스템에 다시 액세스할 수 있게 합니다.
하나의 시스템에서 다른 시스템으로 볼륨 그룹을 이동하려면 다음과 같은 절차를 실행합니다:
- 볼륨 그룹에서 어떤 사용자도 활성화 볼륨에 있는 파일에 액세스하지 않도록 한 후, 논리 볼륨을 마운트 해제합니다.
vgchange
명령의-a n
인수를 사용하여 볼륨 그룹을 비활성화시키면, 볼륨 그룹에서 더이상 작업이 이루어지지 않게 됩니다.- 볼륨 그룹을 내보내기 위해
vgexport
명령을 사용합니다. 삭제된 볼륨 그룹이 시스템에 의해 액세스되지 않게 합니다.볼륨 그룹을 내보낸 후, 다음의 예처럼pvscan
명령을 실행할 때 물리 볼륨은 내보내어진 볼륨 그룹에 있는 것처럼 나타납니다.[root@tng3-1]#
pvscan
PV /dev/sda1 is in exported VG myvg [17.15 GB / 7.15 GB free] PV /dev/sdc1 is in exported VG myvg [17.15 GB / 15.15 GB free] PV /dev/sdd1 is in exported VG myvg [17.15 GB / 15.15 GB free] ...시스템이 종료되면, 볼륨 그룹으로 구성된 디스크를 언플러그하고 이를 새로운 시스템에 연결할 수 있습니다. - 디스크가 새로운 시스템에 플로그될 경우,
vgimport
명령을 사용하여 볼륨 그룹을 읽어온 후, 새로운 디스크에서 액세스 가능하게 합니다. vgchange
명령의-a y
인수를 사용하여 볼륨 그룹을 활성화합니다.- 파일 시스템을 마운트하여 사용 가능하게 합니다.
4.4. 논리 볼륨 관리
다음 부분에서는 다양한 논리 볼륨 관리를 위해 실행되는 명령에 대해 설명합니다.
4.4.1. 논리 볼륨 생성
논리 볼륨을 생성하려면
lvcreate
명령을 사용합니다. 다음 부분에서 설명하듯이 선형 볼륨, 스트라이프 볼륨, 미러 볼륨을 생성할 수 있습니다.
논리 볼륨에 해당하는 이름을 지정하지 않을 경우, 기본값으로
lvol#
이름이 사용되며 여기서 #는 논리 볼륨의 내부 번호로 대체합니다.
다음 부분에서는 LVM으로 생성할 수 있는 세 가지 유형의 논리 볼륨에 대한 논리 볼륨 생성 예를 설명합니다.
4.4.1.1. 선형 (Linear) 볼륨 생성
논리 볼륨 생성 시, 논리 볼륨은 볼륨 그룹으로된 물리 볼륨에 있는 여유 익스텐트를 사용하여 볼륨 그룹에서 나뉘어 집니다. 일반적으로 논리 볼륨은 기본 물리 볼륨에 있는 여유 공간을 사용합니다. 논리 볼륨을 수정하는 것이 자유로우며 물리 볼륨에서 공간을 재할당합니다.
다음의 명령으로
vg1
볼륨 그룹에 10GB 크기의 논리 볼륨을 생성합니다.
lvcreate -L 10G vg1
다음 명령으로
/dev/testvg/testlv
블록 장치를 생성하여, testvg
볼륨 그룹에 testlv
라는 1500MB 선형 논리 볼륨을 생성합니다.
lvcreate -L1500 -n testlv testvg
다음 명령으로
vg0
볼륨 그룹에 여유 익스텐트에서 gfslv
라는 50GB의 논리 볼륨을 생성합니다.
lvcreate -L 50G -n gfslv vg0
lvcreate
명령의 -l
인수를 사용하여 익스텐트에서 논리 볼륨의 크기를 지정할 수 있습니다. 이러한 인수를 사용하여 논리 볼륨에 사용할 볼륨 그룹의 퍼센트도 지정할 수 있습니다. 다음 명령으로 testvol
볼륨 그룹에서 전체 공간의 60%를 사용하는 mylv
라는 논리 볼륨을 생성합니다.
lvcreate -l 60%VG -n mylv testvg
lvcreate
명령의 -l
인수를 사용하여 논리 볼륨 크기로서 볼륨 그룹에 있는 나머지 여유 공간의 퍼센트를 지정할 수 있습니다. 다음의 명령으로 testvol
볼륨 그룹에 있는 모든 할당되지 않은 공간을 사용하는 yourlv
라는 논리 볼륨을 생성합니다.
lvcreate -l 100%FREE -n yourlv testvg
You can use
-l
argument of the lvcreate
command to create a logical volume that uses the entire volume group. Another way to create a logical volume that uses the entire volume group is to use the vgdisplay
command to find the "Total PE" size and to use those results as input to the the lvcreate
command.
다음 명령으로
testvg
라는 볼륨 그룹을 채우는 mylv
라는 논리 볼륨을 생성합니다.
#vgdisplay testvg | grep "Total PE"
Total PE 10230 #lvcreate -l 10230 testvg -n mylv
The underlying physical volumes used to create a logical volume can be important if the physical volume needs to be removed, so you may need to consider this possibility when you create the logical volume. For information on removing a physical volume from a volume group, see 4.3.6절. “볼륨 그룹에서 물리 볼륨 삭제 ”.
볼륨 그룹에 있는 특정 물리 볼륨에서 할당된 논리 볼륨을 생성하기 위해 물리 볼륨이나
lvcreate
명령 행의 마지막에 있는 볼륨을 지정합니다. 다음 명령으로 /dev/sdg1
물리 볼륨에서 할당된 testvg
볼륨 그룹에 testlv
라는 논리 볼륨을 생성합니다.
lvcreate -L 1500 -ntestlv testvg /dev/sdg1
논리 볼륨으로 사용할 물리 볼륨의 익스텐트를 지정할 수 있습니다. 다음의 예에서는 물리 볼륨
/dev/sda1
의 익스텐트 0부터 25까지에서 그리고 testvg
볼륨 그룹에 있는 물리 볼륨 /dev/sdb1
의 익스텐트 50에서 125 까지에서 선형 논리 볼륨을 생성하고 있습니다.
lvcreate -l 100 -n testlv testvg /dev/sda1:0-25 /dev/sdb1:50-125
다음의 예에서는 물리 볼륨
/dev/sda1
의 익스텐트 0에서 25까지에서 선형 논리 볼륨을 생성하고 그 후 익스텐트 100까지 배열합니다.
lvcreate -l 100 -n testlv testvg /dev/sda1:0-25:100-
The default policy for how the extents of a logical volume are allocated is
inherit
, which applies the same policy as for the volume group. These policies can be changed using the lvchange
command. For information on allocation policies, see 4.3.1절. “볼륨 그룹 생성 ”.
4.4.1.2. 스트라이프 (striped) 볼륨 생성
For large sequential reads and writes, creating a striped logical volume can improve the efficiency of the data I/O. For general information about striped volumes, see 2.3.2절. “스트라이프 (Striped) 논리 볼륨 ”.
스트라이프 논리 볼륨을 생성할 때,
lvcreate
명령의 -i
인수를 사용하여 스트라이프 수를 지정합니다. 이는 얼마나 많은 물리 볼륨 및 논리 볼륨을 스트라이프할 지를 결정합니다. 스트라이프 수는 볼륨 그룹에 있는 물리 볼륨의 수 보다 커서는 안됩니다. (--alloc anywhere
인수가 사용되지 않을 경우).
스트라이프 논리 볼륨으로된 기본 물리 장치는 크기가 다르며, 스트라이프 볼륨의 최대 크기는 크기가 가장 작은 기본 장치에 의해 결정됩니다. 예를 들어, two-legged 스트라이프에서, 최대 크기는 가장 작은 장치 크기의 두 배가 되고, three-legged 스트라이프에서 최대 크기는 가장 작은 장치 크기의 세 배가 됩니다.
다음의 명령으로 2 개의 물리 볼륨에 걸쳐 64kB로된 스트라이프 논리 볼륨을 생성합니다. 논리 볼륨은 50 GB 크기에,
gfslv
라는 이름으로, vg0
볼륨 그룹에서 나누어져 있습니다.
lvcreate -L 50G -i2 -I64 -n gfslv vg0
선형 볼륨과 마찬가지로, 스트라이프 용으로 사용할 물리 볼륨의 익스텐트를 지정할 수 있습니다. 다음의 명령으로 두 개의 물리 볼륨에 걸쳐 스트라이프하는 100 익스텐트 크기의 스트라이프 볼륨을 생성하고,
stripelv
라고 이름을 정한 후, testvg
볼륨 그룹에 둡니다. 스트라이프는 /dev/sda1
의 0-50 섹터와 /dev/sdb1
의 50-100 섹터를 사용하게 됩니다.
# lvcreate -l 100 -i2 -nstripelv testvg /dev/sda1:0-50 /dev/sdb1:50-100
Using default stripesize 64.00 KB
Logical volume "stripelv" created
4.4.1.3. 미러 볼륨 생성
미러 볼륨 생성 시,
lvcreate
명령의 -m
인수를 사용하여 만들 데이터 사본 수를 지정합니다. -m1
을 지정하면 하나의 미러를 생성하고, 선형 논리 볼륨 및 하나의 복사본이라는 두 개의 파일 시스템 복사본을 생성합니다. 이와 유사하게, -m2
를 지정하면 두 개의 미러를 생성하고, 세 개의 파일 시스템 복사본을 생성합니다.
다음의 명령으로 단일 미러와 함께 미러 논리 볼륨을 생성합니다. 볼륨은 50 GB 크기에
mirrorlv
라는 이름으로, vg0
볼륨 그룹에서 나눕니다.
lvcreate -L 50G -m1 -n gfslv vg0
LVM 미러는 기본값이 512 KB 크기인 영역으로 복사된 장치를 나눕니다.
-R
인수를 사용하여 영역 크기를 MB로 지정할 수 있습니다. LVM은 미러로 어떤 영역이 동기화되었는 지를 추적하기 위해 사용되는 로그를 관리합니다. 이러한 로그는 기본값으로 디스크에 저장되어, 재부팅 후에도 영구적으로 보관됩니다. --corelog
인수로 이러한 로그가 메모리에 저장되도록 지정할 수 있습니다; 이는 추가 로그 장치가 필요하지 않게 하지만, 재부팅할 때 마다 전체 미러를 동기화해야 합니다.
다음의 명령으로
bigvg
볼륨 그룹에서 미러 논리 볼륨을 생성합니다. 논리는 ondiskmirvol
라는 이름으로 하나의 단일 미러를 갖게 됩니다. 볼륨은 12MB 크기가 되며 메모리에 미러 로그를 보관합니다.
# lvcreate -L 12MB -m1 --corelog -n ondiskmirvol bigvg
Logical volume "ondiskmirvol" created
미러 로그는 미러 leg가 생성되어 있는 장치와 다른 장치에 생성됩니다. 하지만,
vgcreate
명령의 --alloc anywhere
인수를 사용하여 미러 leg 중 하나로 동일한 장치에 미러 로그를 생성할 수 있습니다. 이는 성능을 저하시킬 수 도 있지만, 기본 장치기 두 개 밖에 없을 경우에도 미러를 생성할 수 있게 합니다.
다음의 명령으로 단일 미러와 함께 미러 논리 볼륨을 생성합니다. 여기서 미러 로그는 미러 leg 중 하나로 동일한 장치에 있습니다. 예에서,
vg0
볼륨 그룹은 두 개의 장치로만 구성되어 있습니다. 이러한 명령이 생성한 미러 볼륨은 500 메가 바이트 크기에mirrorlv
라는 이름으로 vg0
볼륨 그룹에서 나누어 집니다.
lvcreate -L 500M -m1 -n mirrorlv -alloc anywhere vg0
미러가 생성되면, 미러 영역은 동기화됩니다. 미러가 용량이 클 경우, 동기화하는데 시간이 더 오래 걸릴 수 도 있습니다. 재생될 필요가 없는 새로운 미러를 생성할 경우,
nosync
인수를 지정하여 첫 번째 장치에서의 초기 동기화할 필요가 없음을 나타냅니다.
미러 로그 용으로 사용할 장치와 사용할 장치의 익스텐트를 지정할 수 있습니다. 특정 디스크에 로그를 강제하려면, 로그가 위치할 디스크에 정확히 하나의 익스텐트를 지정합니다. LVM은 명령행에 나열될 장치 순서를 따를 필요가 없습니다. 물리 볼륨이 나열되어 있을 경우, 할당될 공간 만이 해당하게 됩니다. 열거되어 있는 이미 할당된 물리 익스텐트는 무시하게 됩니다.
다음의 예에서는 단일 미러로 미러 논리 볼륨을 생성하고 있습니다. 볼륨은 500MB 크기에
mirrorlv
라는 이름으로 vg0
볼륨 그룹에서 나눕니다. 첫 번째 미러 leg는 /dev/sda1
장치에 위치하게 되고, 두 번째 미러 leg는 /dev/sdb1
장치에 위치하게 되며, 미러 로그는 /dev/sdc1
에 위치하게 됩니다.
lvcreate -L 500M -m1 -n mirrorlv vg0 /dev/sda1 /dev/sdb1 /dev/sdc1
다음의 예에서는 단일 미러로 미러 논리 볼륨을 생성하고 있습니다. 볼륨은 500 MB 크기에
mirrorlv
라는 이름으로 vg0
볼륨 그룹에서 나뉘어 집니다. 첫 번째 미러 leg는 /dev/sda1
장치의 익스텐트 0에서 499까지 위치하게 되고, 두 번째 미러 leg는 /dev/sdb1
장치의 익스텐트 0에서 499까지 위치하게 되며, 미러 로그는 /dev/sdc1
장치의 익스텐트 0에서 시작합니다. 이는 1MB 익스텐트입니다. 지정한 익스텐트가 이미 할당되어 있을 경우 이를 무시하게 됩니다.
lvcreate -L 500M -m1 -n mirrorlv vg0 /dev/sda1:0-499 /dev/sdb1:0-499 /dev/sdc1:0
참고
RHEL 5.3 릴리즈로서 미러된 논리 볼륨은 클러스터에서 지원됩니다.
4.4.1.4. 미러 볼륨 설정 변경
lvconvert
명령을 사용하여 미러 볼륨에서 선형 볼륨으로 또는 선형 볼륨에서 미러 볼륨으로 논리 볼륨을 변환할 수 있습니다. 이 명령을 사용하여 corelog
와 같은 기존 논리 볼륨의 다른 미러 매개 변수를 재설정할 수 도 있습니다.
논리 볼륨을 미러 볼륨으로 변환할 경우, 기본적으로 기존 볼륨에 미러 leg를 생성해야 합니다. 즉 이는 볼륨 그룹에 미러 leg 및 미러 로그에 필요한 공간 및 장치가 있어야 함을 의미합니다.
If you lose a leg of a mirror, LVM converts the volume to a linear volume so that you still have access to the volume, without the mirror redundancy. After you replace the leg, you can use the
lvconvert
command to restore the mirror. This procedure is provided in 6.3절. “LVM 미러 장애 복구 ”.
다음의 명령으로 선형 논리 볼륨
vg00/lvol1
을 미러 논리 볼륨으로 변환합니다.
lvconvert -m1 vg00/lvol1
다음의 명령으로 미러 leg를 삭제하여
vg00/lvol1
미러 논리 볼륨을 선형 논리 볼륨으로 변환합니다.
lvconvert -m0 vg00/lvol1
4.4.2. 영구 장치 번호
주 장치 및 부 장치 번호는 모듈을 읽어올 때 할당됩니다. 몇몇 어플리케이션은 블록 장치가 같은 장치 (주 장치 및 부 장치) 번호로 활성화될 경우 가장 잘 작동합니다. 다음의 인수를 사용하여
lvcreate
및 lvchange
명령으로 이를 지정할 수 있습니다:
--persistent y --major major --minor minor
Use a large minor number to be sure that it hasn't already been allocated to another device dynamically.
NFS를 사용하여 파일 시스템을 내보내기 할 경우, 내보내기 영역에
fsid
매개 변수를 지정하면 LVM 내에 있는 영구 장치 번호를 설정할 필요가 없게 됩니다.
4.4.3. 논리 볼륨 크기 조정
논리 볼륨의 크기를 변경하려면,
lvreduce
명령을 사용합니다. 논리 볼륨에 파일 시스템이 들어 있을 경우, 먼저 파일 시스템을 줄여서 (또는 LVM GUI를 사용하여) 최소한 논리 볼륨 크기가 파일 시스템 크기 만큼 되도록 합니다.
다음 명령을 사용하여 3 개의 논리 익스텐트로
vg00
볼륨 그룹에서 lvol1
논리 볼륨의 크기를 줄입니다.
lvreduce -l -3 vg00/lvol1
4.4.4. 논리 볼륨 그룹의 매개 변수 변경
논리 볼륨의 매개 변수를 변경하려면
lvchange
명령을 사용합니다. 변경 가능한 매개 변수의 목록은 lvchange
(8) 맨 페이지에서 참조하시기 바랍니다.
You can use the
lvchange
command to activate and deactivate logical volumes. To activate and deactivate all the logical volumes in a volume group at the same time, use the vgchange
command, as described in 4.3.7절. “볼륨 그룹의 매개 변수 변경 ”.
다음의 명령으로
vg00
볼륨 그룹에 있는 lvol1
볼륨이 읽기 전용이 되도록 권한을 변경합니다.
lvchange -pr vg00/lvol1
4.4.5. 논리 볼륨 이름 변경
기존 논리 볼륨 이름을 변경하기 위해
lvrename
명령을 사용합니다.
다음의 명령으로
vg02
볼륨 그룹에 있는 lvold
논리 볼륨을 lvnew
로 이름을 변경할 수 있습니다.
lvrename /dev/vg02/lvold /dev/vg02/lvnew
lvrename vg02 lvold lvnew
For more information on activating logical volumes on individual nodes in a cluster, see 4.8절. “클러스터에 있는 개별적 노드에서 논리 볼륨 활성화 ”.
4.4.6. 논리 볼륨 삭제
비활성화 논리 볼륨을 삭제하려면
lvremove
명령을 사용합니다. 삭제하기 전 umount
명령을 사용하여 논리 볼륨을 비활성화합니다. 또한 클러스터 환경에서도 논리 볼륨을 삭제하기전 이를 비활성화시켜야 합니다.
현재 논리 볼륨이 마운트되어 있을 경우, 삭제하기 전 볼륨을 마운트 해제합니다.
다음 명령으로
testvg
볼륨 그룹에서 /dev/testvg/testlv
. 논리 볼륨을 삭제합니다. 이러한 경우 논리 볼륨은 비활성화되지 않음에 유의하시기 바랍니다.
[root@tng3-1 lvm]#lvremove /dev/testvg/testlv
Do you really want to remove active logical volume "testlv"? [y/n]:y
Logical volume "testlv" successfully removed
lvchange -an
명령을 사용하여 논리 볼륨을 삭제하기 전 이를 비활성화시킬 수 있으며, 이러한 경우, 활성 논리 볼륨을 삭제하기를 원하는 지에 대한 여부를 확인하는 프롬프트가 나타나지 않습니다.
4.4.7. 논리 볼륨 보기
LVM 논리 볼륨의 속성 보기에 사용할 수 있는 명령에는 다음과 같은 세 가지가 있습니다:
lvs
, lvdisplay
, lvscan
.
The
lvs
command provides logical volume information in a configurable form, displaying one line per logical volume. The lvs
command provides a great deal of format control, and is useful for scripting. For information on using the lvs
command to customize your output, see 4.9절. “LVM 용 사용자 설정 리포트 ”.
lvdisplay
명령은 고정된 형식으로 논리 볼륨 속성 (예: 크기, 레이아웃, 맵핑)을 보여줍니다.
다음의 명령으로
vg00
에 있는 lvol2
의 속성을 볼 수 있습니다. 스냅샷 논리 볼륨이 초기 논리 볼륨 용으로 생성되었을 경우, 이러한 명령은 스냅샷 논리 볼륨 및 논리 볼륨의 (활성 또는 비활성) 상태에 대한 목록을 보여줍니다.
lvdisplay -v /dev/vg00/lvol2
다음의 예에서와 같이
lvscan
명령으로 시스템에 있는 모든 논리 볼륨을 찾고 이를 나열합니다.
# lvscan
ACTIVE '/dev/vg0/gfslv' [1.46 GB] inherit
4.4.8. 논리 볼륨 확장하기
논리 볼륨의 크기를 확장하려면
lvextend
명령을 사용합니다.
논리 볼륨을 확장한 후에, 이와 일치시키기 위해 관련된 파일 시스템의 크기를 확장해야 합니다.
논리 볼륨을 확장할 때 얼마 정도를 확장할 지 또는 확장한 후 논리 볼륨이 얼마 정도가 되기를 원하는 지를 나타내야 합니다.
다음의 명령으로
/dev/myvg/homevol
논리 볼륨을 12 GB 까지 확장합니다.
# lvextend -L12G /dev/myvg/homevol
lvextend -- extending logical volume "/dev/myvg/homevol" to 12 GB
lvextend -- doing automatic backup of volume group "myvg"
lvextend -- logical volume "/dev/myvg/homevol" successfully extended
다음의 명령으로
/dev/myvg/homevol
논리 볼륨에 다른 GB를 추가합니다.
# lvextend -L+1G /dev/myvg/homevol
lvextend -- extending logical volume "/dev/myvg/homevol" to 13 GB
lvextend -- doing automatic backup of volume group "myvg"
lvextend -- logical volume "/dev/myvg/homevol" successfully extended
lvcreate
명령과 마찬가지로, lvextend
명령의 -l
인수를 사용하여 논리 볼륨 크기를 확장할 익스텐트 수를 지정할 수 있습니다. 또한 이러한 인수를 사용하여 볼륨 그룹의 퍼센트나 볼륨 그룹에 있는 남아있는 여유 공간의 퍼센트도 지정할 수 있습니다. 다음의 명령으로 testlv
라는 논리 볼륨을 확장하여 myvg
볼륨 그룹에 있는 할당되지 않은 모든 공간을 채웁니다.
[root@tng3-1 ~]# lvextend -l +100%FREE /dev/myvg/testlv
Extending logical volume testlv to 68.59 GB
Logical volume testlv successfully resized
논리 볼륨을 확장한 후 해당 파일 시스템의 크기를 확장해야 합니다.
기본값으로 대부분의 파일 시스템 크기 조정 도구는 기본적인 논리 볼륨의 크기가 되도록 파일 시스템 크기를 확장하므로 두 가지 명령에 대해 같은 크기로 지정해야 할 지를 염려하지 않아도 됩니다.
4.4.9. 스트라이프 볼륨 확장
스트라이프 논리 볼륨 크기를 확장하기 위해, 스트라이트를 지원할 수 있는 볼륨 그룹으로된 기본 물리 볼륨에 충분한 여유 공간이 있어야 합니다. 예를 들어, 전체 볼륨 그룹을 사용하는 두 가지 방식의 스트라이프가 있을 경우, 볼륨 그룹에 단일 물리 볼륨을 추가하는 것으로 스트라이프를 확장할 수 없습니다. 대신, 볼륨 그룹에 최소 두 개의 물리 볼륨을 추가해야 합니다.
예를 들어, 다음의
vgs
명령으로 나타난 두 개의 기본 물리 볼륨으로 된 vg
볼륨 그룹이 있다고 가정해 봅시다.
# vgs
VG #PV #LV #SN Attr VSize VFree
vg 2 0 0 wz--n- 271.31G 271.31G
볼륨 그룹에 있는 전체 공간을 사용하여 스트라이프를 생성할 수 있습니다.
#lvcreate -n stripe1 -L 271.31G -i 2 vg
Using default stripesize 64.00 KB Rounding up size to full physical extent 271.31 GB Logical volume "stripe1" created #lvs -a -o +devices
LV VG Attr LSize Origin Snap% Move Log Copy% Devices stripe1 vg -wi-a- 271.31G /dev/sda1(0),/dev/sdb1(0)
현재 볼륨 그룹에는 더이상 여유 공간이 없음에 유의합니다.
# vgs
VG #PV #LV #SN Attr VSize VFree
vg 2 1 0 wz--n- 271.31G 0
다음 명령으로 볼륨 그룹에 다른 물리 볼륨을 추가하면, 135G의 추가 공간이 생깁니다.
# vgextend vg /dev/sdc1 Volume group "vg" successfully extended # vgs VG #PV #LV #SN Attr VSize VFree vg 3 1 0 wz--n- 406.97G 135.66G
이 시점에서 데이터를 스트라이프하기 위해 두 개의 기본 장치가 필요하기 때문에 볼륨 그룹의 전체 크기 만큼 스트라이프 논리 볼륨을 확장할 수 없습니다.
# lvextend vg/stripe1 -L 406G
Using stripesize of last segment 64.00 KB
Extending logical volume stripe1 to 406.00 GB
Insufficient suitable allocatable extents for logical volume stripe1: 34480
more required
스트라이프 논리 볼륨을 확장하려면, 다른 물리 볼륨을 추가한 후 논리 볼륨을 확장해야 합니다. 예에서 볼륨 그룹에 추가된 두 개의 물리 볼륨으로 5A 논리 볼륨을 볼륨 그룹의 전체 크기 만큼 확장할 수 있습니다.
#vgextend vg /dev/sdd1
Volume group "vg" successfully extended #vgs
VG #PV #LV #SN Attr VSize VFree vg 4 1 0 wz--n- 542.62G 271.31G #lvextend vg/stripe1 -L 542G
Using stripesize of last segment 64.00 KB Extending logical volume stripe1 to 542.00 GB Logical volume stripe1 successfully resized
스트라이프 논리 볼륨을 확장하기 위해 기본 물리 장치가 충분하지 않을 경우, 익스텐션을 스트라이프하지 않아도 상관 없을 경우라면 볼륨을 확장할 수 있습니다. 이는 실행이 불균등하게 되게 할 수 있습니다. 논리 볼륨에 여유 공간을 추가할 때, 기본값 실행은 기존 논리 볼륨의 마지막 세그먼트의 동일한 스트라이핑 매개 변수를 사용하지만 이러한 매개 변수를 덮어쓰기할 수 도 있습니다. 다음의 예에서는 초기
lvextend
명령이 실패한 후 남아있는 여유 공간을 사용하기 위해 기존 스트라이프 논리 볼륨을 확장하고 있습니다.
#lvextend vg/stripe1 -L 406G
Using stripesize of last segment 64.00 KB Extending logical volume stripe1 to 406.00 GB Insufficient suitable allocatable extents for logical volume stripe1: 34480 more required #lvextend -i1 -l+100%FREE vg/stripe1
4.4.10. 논리 볼륨 축소하기
논리 볼륨의 크기를 축소하기 위해, 먼저 파일 시스템을 마운트 해제합니다. 그 후
lvreduce
명령을 사용하여 볼륨을 축소할 수 있습니다. 볼륨을 축소한 후 파일 시스템을 다시 마운트합니다.
주의
볼륨 자체를 축소하기 전에 파일 시스템의 크기를 축소해야 합니다. 그렇지 않을 경우 데이터를 손실할 수 도 있습니다.
논리 볼륨을 축소하여 볼륨 그룹에 있는 다른 논리 볼륨에 할당하기 위해 볼륨 그룹의 일부분에 여유 공간을 둡니다.
다음의 에에서는
vg00
볼륨 그룹에 있는 lvol1
논리 볼륨을 크기를 3 개의 익스텐트로 축소하고 있습니다.
lvreduce -l -3 vg00/lvol1
4.5. 스냅샷 볼륨 생성
스냅샷 볼륨을 생성하기 위해
lvcreate
명령의 -s
인수를 사용합니다. 스냅샷 볼륨은 쓰기 가능합니다.
참고
LVM 스냅샷은 클러스터에 있는 노드에서 지원되지 않습니다.
Since LVM snapshots are not cluster-aware, they require exclusive access to a volume. For information on activating logical volumes on individual nodes in a cluster, see 4.8절. “클러스터에 있는 개별적 노드에서 논리 볼륨 활성화 ”.
다음의 명령으로 100MB 크기에
/dev/vg00/snap
라는 이름의 스냅샷 논리 볼륨을 생성합니다. 이는 /dev/vg00/lvol1
라는 초기 논리 볼륨의 스냅샷을 생성합니다. 초기 논리 볼륨에 파일 시스템이 들어 있을 경우, 초기 파일 시스템이 업데이트되는 동안 백업을 실행하기 위해 파일 시스템의 컨텐츠를 액세스함으로 임시 디렉토리에 스냅샷 논리 볼륨을 마운트할 수 있습니다.
lvcreate --size 100M --snapshot --name snap /dev/vg00/lvol1
스냅샷 논리 볼륨을 생성한 후에,
lvdisplay
명령으로 초기 볼륨을 지정하면 모든 스냅샷 논리 볼륨 목록 및 상태 (활성 또는 비활성)가 들어있는 출력 결과가 나타납니다.
다음의 예에서는
/dev/new_vg/newvgsnap
스냅샷 볼륨이 생성된 /dev/new_vg/lvol0
논리 볼륨 상태를 보여주고 있습니다.
# lvdisplay /dev/new_vg/lvol0
--- Logical volume ---
LV Name /dev/new_vg/lvol0
VG Name new_vg
LV UUID LBy1Tz-sr23-OjsI-LT03-nHLC-y8XW-EhCl78
LV Write Access read/write
LV snapshot status source of
/dev/new_vg/newvgsnap1 [active]
LV Status available
# open 0
LV Size 52.00 MB
Current LE 13
Segments 1
Allocation inherit
Read ahead sectors 0
Block device 253:2
lvs
명령은 기본값으로 각각의 스냅샷 볼륨으로 사용된 초기 볼륨 및 스냅샷 볼륨의 현재 퍼센트를 보여줍니다. 다음의 예에서는 /dev/new_vg/newvgsnap
스냅샷 볼륨이 생성된 /dev/new_vg/lvol0
논리 볼륨이 들어있는 시스템에 대해 lvs
명령의 기본 출력 결과를 보여주고 있습니다.
# lvs
LV VG Attr LSize Origin Snap% Move Log Copy%
lvol0 new_vg owi-a- 52.00M
newvgsnap1 new_vg swi-a- 8.00M lvol0 0.20
참고
초기 볼륨이 변경되어 스냅샷 크기가 늘어났기 때문에
lvs
명령으로 정기적으로 스냅샷 볼륨의 퍼센트를 모니터하여 스냅샷이 채워지지 않았는 지를 확인합니다. 초기 스냅샷의 변경되지 않은 부분에 작성할 경우 스냅샷을 손상시키지 않고 성공적으로 실행될 수 없으므로 스냅샷이 100%로 채워졌을 경우에는 완전히 손실될 수 있습니다.
4.6. 필터로 LVM 장치 스캔 제어
시작 시,
vgscan
명령이 실행되어 LVM 레이블을 찾아 시스템에 있는 블록 장치를 스캔하고, 이중 어떤 것이 물리 볼륨인지를 확인하며 메타데이터를 읽고 볼륨 그룹 목록을 작성합니다. 물리 볼륨 명은 시스템에 있는 각 노드의 캐시 파일 /etc/lvm/.cache
에 저장됩니다. 그 후의 명령은 파일을 읽어 다시 스캔되지 않도록 합니다.
lvm.conf
설정 파일에서 필터를 설정하여 어떤 LVM 장치가 스캔하게 할 지를 제어할 수 있습니다. 필터는 /dev
디렉토리에 있는 장치 이름에 적용하기 위해 일련의 간단한 정규 표현식으로 되어 있어 스캔하여 발견한 각각의 블록 장치를 허용할 지 또는 거부할 지를 결정합니다.
다음에서는 어떤 LVM 장치가 스캔하게 할 지를 제어하기 위한 필터 사용의 예를 보여주고 있습니다. 정교 표현식이 완전 경로 이름과 자유롭게 일치되어 있으므로 이는 최상의 활용 예가 아닐 수 도 있음에 유의하시기 바랍니다. 예를 들어,
a/loop/
는 a/.*loop.*/
와 동일하고 /dev/solooperation/lvol1
와 일치될 수 있습니다.
다음의 필터는 발견된 모든 장치를 추가합니다. 설정 파일에 필터가 설정되지 않았을 경우 기본값으로 실행됩니다:
filter = [ "a/.*/" ]
드라이브에 미디어가 없을 경우 지연을 방지하기 위해 다음의 필터로 cdrom 장치를 삭제합니다:
filter = [ "r|/dev/cdrom|" ]
다음의 필터는 모든 루프를 추가하고 다른 모든 볼록 장치를 삭제합니다:
filter = [ "a/loop.*/", "r/.*/" ]
다음의 필터는 모든 루프 및 IDE를 추가하고 기타 다른 모든 블록 장치를 삭제합니다:
filter =[ "a|loop.*|", "a|/dev/hd.*|", "r|.*|" ]
다음의 필터는 첫 번째 IDE 장치에 있는 파티션 8을 추가하고 기타 다른 모든 불록 장치를 삭제합니다:
filter = [ "a|^/dev/hda8$|", "r/.*/" ]
4.7. 온라인 데이터 재배치
시스템에서
pvmove
명령을 사용하고 있는 동안 데이터를 이동시킬 수 있습니다.
pvmove
명령으로 데이터를 나누어 섹션으로 이동시키고 각각의 섹션을 이동시키기 위해 임시 미러를 생성합니다. pvmove
명령 실행에 관한 내용은 pvmove
(8) 맨 페이지를 참조하시기 바랍니다.
Because the
pvmove
command uses mirroring, it is not cluster-aware and needs exclusive access to a volume. For information on activating logical volumes on individual nodes in a cluster, see 4.8절. “클러스터에 있는 개별적 노드에서 논리 볼륨 활성화 ”.
다음의 명령으로 물리 볼륨
/dev/sdc1
에 할당된 모든 공간을 볼륨 그룹에 있는 물리 볼륨의 여유 공간으로 옮깁니다.
pvmove /dev/sdc1
다음의 명령으로
MyLV
논리 볼륨의 익스텐트를 이동시킵니다.
pvmove -n MyLV /dev/sdc1
pvmove
명령이 실행하는 데 시간이 오래 걸릴 수 있으므로, 포그라운드에서의 진행 상태를 볼 수 없게 백그라운드에서 명령을 실행할 수 있습니다. 다음의 명령으로 /dev/sdc1
물리 볼륨에 할당된 모든 익스텐트를 백그라운드에 있는 /dev/sdf1
로 옮깁니다.
pvmove -b /dev/sdc1 /dev/sdf1
다음의 명령은 5초 간격으로 이동 상태를 퍼센트로 보고합니다.
pvmove -i5 /dev/sdd1
4.8. 클러스터에 있는 개별적 노드에서 논리 볼륨 활성화
클러스터 환경에 LVM을 설치했을 경우, 하나의 노드에 배타적으로 논리 볼륨을 활성화시켜야 할 수 도 있습니다. 예를 들어,
pvmove
명령은 클러스터 인식 (cluster-aware) 방식이 아니므로 볼륨으로 배타적으로 접근해야 합니다. LVM 스냅샷도 볼륨으로 배타적으로 접근해야 합니다.
하나의 노드에 배타적으로 논리 볼륨을 활성화시키기 위해,
lvchange -aey
명령을 사용합니다. 다른 방법으로 lvchange -aly
명령을 사용하여 배타적이지는 않지만 하나의 노드에 논리 볼륨만을 활성화시킬 수 있습니다. 그 후 이를 추가 노드에서 동시에 활성화시킬 수 있습니다.
You can also activate logical volumes on individual nodes by using LVM tags, which are described in 부록 C. LVM 객체 태그 . You can also specify activation of nodes in the configuration file, which is described in 부록 B. LVM 설정 파일 .
4.9. LVM 용 사용자 설정 리포트
pvs
, lvs
, vgs
명령으로 LVM 객체에 대한 간결하고 사용자 설정 가능한 리포트를 만들 수 있습니다. 이러한 명령으로 생성된 리포트에는 각각의 객체에 대해 하나의 행으로된 출력 결과가 포함되어 있습니다. 각 행에는 객체와 관련하여 영역 속성 목록이 순서대로 나열됩니다. 물리 볼륨, 볼륨 그룹, 논리 볼륨, 물리 볼륨 세그 먼트, 논리 볼륨 세그먼트로 보고할 객체를 선택합니다.
다음 부분에서는 다음과 같은 내용을 다루고 있습니다:
- 생성된 리포트의 포맷을 제어하기 위해 사용할 수 있는 명령 인수에 대한 요약
- 각각의 LVM 객체에 대해 선택할 수 있는 영역 목록
- 생성된 리포트를 정렬하는데 사용할 수 있는 명령 인수에 대한 요약
- 리포트 출력 결과 단위 지정을 위한 지시사항
4.9.1. 포맷 제어
pvs
, lvs
또는 vgs
명령을 사용할 지는 영역 보기의 기본 설정 및 정렬 순서에 의해 결정됩니다. 다음과 같은 인수로 이러한 명령의 출력 결과를 제어할 수 있습니다:
-o
인수를 사용하여 기본값 이외에 영역 보기에 있는 것을 다른 것으로 변경할 수 있습니다. 예를 들어 다음과 같은 출력 결과는pvs
명령에 대해 기본값이 나타납니다 (물리 볼륨에 관한 정보를 보여줌).#
pvs
PV VG Fmt Attr PSize PFree /dev/sdb1 new_vg lvm2 a- 17.14G 17.14G /dev/sdc1 new_vg lvm2 a- 17.14G 17.09G /dev/sdd1 new_vg lvm2 a- 17.14G 17.14G다음의 명령은 물리 볼륨 이름 및 크기 만이 나타나게 합니다.#
pvs -o pv_name,pv_size
PV PSize /dev/sdb1 17.14G /dev/sdc1 17.14G /dev/sdd1 17.14G- 덧샘 기호 (+)와 함께 출력 결과에 영역을 추가할 수 있습니다. 이는 -o 인수와 함께 사용됩니다.다음의 예에서는 기본 영역에 더하여 물리 볼륨의 UUID를 보여주고 있습니다.
#
pvs -o +pv_uuid
PV VG Fmt Attr PSize PFree PV UUID /dev/sdb1 new_vg lvm2 a- 17.14G 17.14G onFF2w-1fLC-ughJ-D9eB-M7iv-6XqA-dqGeXY /dev/sdc1 new_vg lvm2 a- 17.14G 17.09G Joqlch-yWSj-kuEn-IdwM-01S9-X08M-mcpsVe /dev/sdd1 new_vg lvm2 a- 17.14G 17.14G yvfvZK-Cf31-j75k-dECm-0RZ3-0dGW-UqkCS - 명령에
-v
인수를 추가하는 것에는 몇몇 추가 영역이 포함됩니다. 예를 들어,pvs -v
명령은 기본 영역에 더하여DevSize
및PV UUID
영역을 보여주고 있습니다.#
pvs -v
Scanning for physical volume names PV VG Fmt Attr PSize PFree DevSize PV UUID /dev/sdb1 new_vg lvm2 a- 17.14G 17.14G 17.14G onFF2w-1fLC-ughJ-D9eB-M7iv-6XqA-dqGeXY /dev/sdc1 new_vg lvm2 a- 17.14G 17.09G 17.14G Joqlch-yWSj-kuEn-IdwM-01S9-XO8M-mcpsVe /dev/sdd1 new_vg lvm2 a- 17.14G 17.14G 17.14G yvfvZK-Cf31-j75k-dECm-0RZ3-0dGW-tUqkCS --noheadings
인수는 헤드 라인을 삭제합니다. 이는 스크립트를 작성할 경우 유용할 수 있습니다.다음의 예에서는pv_name
인수와 함께--noheadings
인수를 사용하고 있습니다. 이는 모든 물리 볼륨 목록을 생성하게 됩니다.#
pvs --noheadings -o pv_name
/dev/sdb1 /dev/sdc1 /dev/sdd1--separator separator
인수는 separator를 사용하여 각각의 영역을 구분합니다. 이는 출력 결과에서grep
명령을 실행할 경우의 스크립트에 유용합니다.다음의 예에서는 등호 (=)로pvs
명령의 기본 출력 결과 란을 구분하고 있습니다.#
pvs --separator =
PV=VG=Fmt=Attr=PSize=PFree /dev/sdb1=new_vg=lvm2=a-=17.14G=17.14G /dev/sdc1=new_vg=lvm2=a-=17.14G=17.09G /dev/sdd1=new_vg=lvm2=a-=17.14G=17.14Gseparator
인수를 사용할 때 출력 결과 란을 정렬하기 위해,--aligned
인수와 관련하여separator
인수를 사용합니다.#
pvs --separator = --aligned
PV =VG =Fmt =Attr=PSize =PFree /dev/sdb1 =new_vg=lvm2=a- =17.14G=17.14G /dev/sdc1 =new_vg=lvm2=a- =17.14G=17.09G /dev/sdd1 =new_vg=lvm2=a- =17.14G=17.14G
You can use the
-P
argument of the lvs
or vgs
command to display information about a failed volume that would otherwise not appear in the output. For information on the output this argument yields, see 6.2절. “실패한 장치에 있는 정보 보기 ”.
인수 보기의 전체 목록은
pvs
(8), vgs
(8), lvs
(8) 맨 페이지에서 참조하시기 바랍니다.
볼륨 그룹 영역은 물리 볼륨 (및 물리 볼륨 세그먼트) 영역이나 논리 볼륨 (및 논리 볼륨 세그먼트) 영역과 함께 혼용될 수 있지만, 물리 볼륨 및 논리 볼륨 영역은 혼용될 수 없습니다. 예를 들어, 다음의 명령은 각각의 물리 볼륨에 해당하는 하나의 행으로된 출력 결과를 보여주고 있습니다.
# vgs -o +pv_name
VG #PV #LV #SN Attr VSize VFree PV
new_vg 3 1 0 wz--n- 51.42G 51.37G /dev/sdc1
new_vg 3 1 0 wz--n- 51.42G 51.37G /dev/sdd1
new_vg 3 1 0 wz--n- 51.42G 51.37G /dev/sdb1
4.9.2. 객체 선택
다음 부분에는
pvs
, vgs
, lvs
명령과 함께 LVM 객체에 관한 정보를 나열한 표가 있습니다.
편의에 따라, 명령의 기본값과 영역 이름이 일치할 경우, 영역 이름 접두부가 사용되지 않을 수 있습니다. 예를 들어,
pvs
명령에서, name
은 pv_name
을 의미하며, vgs
명령에서는 name
은 vg_name
을 의미합니다.
다음의 명령을 실행하는 것은
pvs -o pv_free
명령을 실행하는 것과 동일합니다.
# pvs -o free
PFree
17.14G
17.09G
17.14G
4.9.2.1. pvs 명령
표 4.1. “pvs 영역 보기 ” lists the display arguments of the
pvs
command, along with the field name as it appears in the header display and a description of the field.
표 4.1. pvs 영역 보기
인수 | 헤더 | 설명 |
---|---|---|
dev_size | DevSize | 물리 볼륨이 생성된 기본적인 장치의 크기 |
pe_start | 1st PE | 기본 장치에서 첫 번째 물리 익스텐트의 시작으로의 오프셋 |
pv_attr | Attr | 물리 볼륨 상태: 할당 가능(a) 또는 내보내어짐(X) |
pv_fmt | Fmt | 물리 볼륨의 메타데이터 포맷 (lvm2 또는 lvm1 ) |
pv_free | PFree | 물리 볼륨에 남아있는 여유 공간 |
pv_name | PV | 물리 볼륨명 |
pv_pe_alloc_count | Alloc | 사용된 물리 익스텐트 수 |
pv_pe_count | PE | 물리 익스텐트 수 |
pvseg_size | SSize | 물리 볼륨의 세그먼트 크기 |
pvseg_start | Start | 물리 볼륨 세그먼트의 물리 익스텐트 시작 |
pv_size | PSize | 물리 볼륨의 크기 |
pv_tags | PV Tags | 물리 볼륨에 부착된 LVM 태그 |
pv_used | Used | 현재 물리 볼륨에서 사용되는 공간 |
pv_uuid | PV UUID | 물리 볼륨의 UUID |
pvs
명령으로 pv_name
, vg_name
, pv_fmt
, pv_attr
, pv_size
, pv_free
영역의 기본값을 볼 수 있습니다. 이는 pv_name
에 의해 정렬됩니다.
# pvs
PV VG Fmt Attr PSize PFree
/dev/sdb1 new_vg lvm2 a- 17.14G 17.14G
/dev/sdc1 new_vg lvm2 a- 17.14G 17.09G
/dev/sdd1 new_vg lvm2 a- 17.14G 17.13G
pvs
명령과 함께 -v
인수를 사용하여 기본값 영역 보기에 dev_size
, pv_uuid
영역을 추가합니다.
# pvs -v
Scanning for physical volume names
PV VG Fmt Attr PSize PFree DevSize PV UUID
/dev/sdb1 new_vg lvm2 a- 17.14G 17.14G 17.14G onFF2w-1fLC-ughJ-D9eB-M7iv-6XqA-dqGeXY
/dev/sdc1 new_vg lvm2 a- 17.14G 17.09G 17.14G Joqlch-yWSj-kuEn-IdwM-01S9-XO8M-mcpsVe
/dev/sdd1 new_vg lvm2 a- 17.14G 17.13G 17.14G yvfvZK-Cf31-j75k-dECm-0RZ3-0dGW-tUqkCS
각각의 물리 볼륨 세그먼트에 관한 정보를 보기 위해
pvs
명령의 --segments
인수를 사용할 수 있습니다. 세그먼트는 익스텐트 그룹입니다. 세그먼트 보기는 논리 볼륨이 나뉘어졌는 지를 확인하는데 유용합니다.
pvs --segments
명령으로 pv_name
, vg_name
, pv_fmt
, pv_attr
, pv_size
, pv_free
, pvseg_start
, pvseg_size
영역의 기본값을 볼 수 있습니다. 이는 물리 볼륨에서 pv_name
및 pvseg_size
에 의해 정렬됩니다.
# pvs --segments
PV VG Fmt Attr PSize PFree Start SSize
/dev/hda2 VolGroup00 lvm2 a- 37.16G 32.00M 0 1172
/dev/hda2 VolGroup00 lvm2 a- 37.16G 32.00M 1172 16
/dev/hda2 VolGroup00 lvm2 a- 37.16G 32.00M 1188 1
/dev/sda1 vg lvm2 a- 17.14G 16.75G 0 26
/dev/sda1 vg lvm2 a- 17.14G 16.75G 26 24
/dev/sda1 vg lvm2 a- 17.14G 16.75G 50 26
/dev/sda1 vg lvm2 a- 17.14G 16.75G 76 24
/dev/sda1 vg lvm2 a- 17.14G 16.75G 100 26
/dev/sda1 vg lvm2 a- 17.14G 16.75G 126 24
/dev/sda1 vg lvm2 a- 17.14G 16.75G 150 22
/dev/sda1 vg lvm2 a- 17.14G 16.75G 172 4217
/dev/sdb1 vg lvm2 a- 17.14G 17.14G 0 4389
/dev/sdc1 vg lvm2 a- 17.14G 17.14G 0 4389
/dev/sdd1 vg lvm2 a- 17.14G 17.14G 0 4389
/dev/sde1 vg lvm2 a- 17.14G 17.14G 0 4389
/dev/sdf1 vg lvm2 a- 17.14G 17.14G 0 4389
/dev/sdg1 vg lvm2 a- 17.14G 17.14G 0 4389
LVM 물리 볼륨으로 초기화되지 않은 LVM에 의해 발견된 장치를 확인하기 위해
pvs -a
명령을 사용할 수 있습니다.
# pvs -a
PV VG Fmt Attr PSize PFree
/dev/VolGroup00/LogVol01 -- 0 0
/dev/new_vg/lvol0 -- 0 0
/dev/ram -- 0 0
/dev/ram0 -- 0 0
/dev/ram2 -- 0 0
/dev/ram3 -- 0 0
/dev/ram4 -- 0 0
/dev/ram5 -- 0 0
/dev/ram6 -- 0 0
/dev/root -- 0 0
/dev/sda -- 0 0
/dev/sdb -- 0 0
/dev/sdb1 new_vg lvm2 a- 17.14G 17.14G
/dev/sdc -- 0 0
/dev/sdc1 new_vg lvm2 a- 17.14G 17.09G
/dev/sdd -- 0 0
/dev/sdd1 new_vg lvm2 a- 17.14G 17.14G
4.9.2.2. vgs 명령
표 4.2. “vgs 영역 보기 ” lists the display arguments of the
vgs
command, along with the field name as it appears in the header display and a description of the field.
표 4.2. vgs 영역 보기
인수 | 헤더 | 설명 |
---|---|---|
lv_count | #LV | 볼륨 그룹이 있는 논리 볼륨 수 |
max_lv | MaxLV | 볼륨 그룹에서 허용하는 최대 논리 볼륨 수 (무제한일 경우 0) |
max_pv | MaxPV | 볼륨 그룹에서 허용하는 최대 물리 볼륨 수 (무제한일 경우 0) |
pv_count | #PV | 볼륨 그룹을 지정하는 물리 볼륨 수 |
snap_count | #SN | 볼륨 그룹에 있는 스냅샷 수 |
vg_attr | Attr | 볼륨 그룹의 상태: 쓰기 가능(w), 읽기 전용(r), 크기 조정 가능(z), 내보내어짐(x), 부분(p), 클러스터됨(c). |
vg_extent_count | #Ext | 볼륨 그룹에서 물리 익스텐트 수 |
vg_extent_size | Ext | 볼륨 그룹에서 물리 익스텐트 크기 |
vg_fmt | Fmt | 볼륨 그룹의 메타데이터 포맷 (lvm2 또는 lvm1 ) |
vg_free | VFree | 볼륨 그룹에 남아있는 여유 공간 크기 |
vg_free_count | Free | 볼륨 그룹에 있는 여유 물리 익스텐트 수 |
vg_name | VG | 볼륨 그룹명 |
vg_seqno | Seq | 볼륨 그룹 버전을 나타내는 번호 |
vg_size | VSize | 볼륨 그룹의 크기 |
vg_sysid | SYS ID | LVM1 시스템 ID |
vg_tags | VG Tags | 볼륨 그룹에 부착된 LVM 태그 |
vg_uuid | VG UUID | 볼륨 그룹의 UUID |
vgs
명령으로 vg_name
, pv_count
, lv_count
, snap_count
, vg_attr
, vg_size
, vg_free
영역의 기본값을 볼 수 있습니다. 이는 vg_name
에 의해 정렬됩니다.
# vgs
VG #PV #LV #SN Attr VSize VFree
new_vg 3 1 1 wz--n- 51.42G 51.36G
vgs
명령과 함께 -v
인수를 사용하여 기본값 영역 보기에 vg_extent_size
, vg_uuid
영역을 추가합니다.
# vgs -v
Finding all volume groups
Finding volume group "new_vg"
VG Attr Ext #PV #LV #SN VSize VFree VG UUID
new_vg wz--n- 4.00M 3 1 1 51.42G 51.36G jxQJ0a-ZKk0-OpMO-0118-nlwO-wwqd-fD5D32
4.9.2.3. lvs 명령
표 4.3. “lvs 영역 보기 ” lists the display arguments of the
lvs
command, along with the field name as it appears in the header display and a description of the field.
표 4.3. lvs 영역 보기
인수 | 헤더 | 설명 | ||||||
---|---|---|---|---|---|---|---|---|
| Chunk | 스냅샷 볼륨에서 단위 크기 | ||||||
copy_percent | Copy% | 미러 논리 볼륨의 동기화 퍼센트: 물리 익스텐트가 pv_move 명령과 함께 이동할 경우 사용 | ||||||
devices | Devices | 논리 볼륨을 만드는 기본 장치: 물리 볼륨, 논리 볼륨, 물리 익스텐트 및 논리 익스텐트 시작 | ||||||
lv_attr | Attr | 논리 볼륨의 상태. 논리 볼륨 비트 속성은 다음과 같습니다:
| ||||||
lv_kernel_major | KMaj | 논리 볼륨의 실제 주 장치 번호 (비활성 상태일 경우 -1) | ||||||
lv_kernel_minor | KMIN | 논리 볼륨의 실제 부 장치 번호 (비활성 상태일 경우 -1) | ||||||
lv_major | Maj | 논리 볼륨의 영구 주 장치 번호 (지정되지 않았을 경우 -1로 됨) | ||||||
lv_minor | Min | 논리 볼륨의 영구 부 장치 번호 (지정되지 않았을 경우 -1로 됨) | ||||||
lv_name | LV | 논리 볼륨 이름 | ||||||
lv_size | LSize | 논리 볼륨 크기 | ||||||
lv_tags | LV 태그 | 논리 볼륨에 부착된 LVM 태그 | ||||||
lv_uuid | LV UUID | 논리 볼륨의 UUID | ||||||
mirror_log | Log | 미러 로그가 있는 장치 | ||||||
modules | 모듈 | 논리 볼륨을 사용하기 위해 알맞은 커널 장치 매퍼 대상 필요 | ||||||
move_pv | 이동 | pvmove 명령으로 생성된 임시적 논리 볼륨의 물리 볼륨 소스 | ||||||
origin | 초기 장치 | 스냅샷 볼륨의 초기 장치 | ||||||
| 영역 | 미러 논리 볼륨의 단위 크기 | ||||||
seg_count | #Seg | 논리 볼륨에서 세그먼트의 수 | ||||||
seg_size | SSize | 논리 볼륨에서 세그먼트의 크기 | ||||||
seg_start | Start | 논리 볼륨에서 세그먼트의 오프셋 | ||||||
seg_tags | 세그먼트 테그 | 논리 볼륨의 세그먼트에 부착된 LVM 태그 | ||||||
segtype | 유형 | 논리 볼륨의 세그먼트 유형 (예: 미러, 스트라이프, 선형) | ||||||
snap_percent | Snap% | 사용되고 있는 스냅샷 볼륨의 퍼센트 | ||||||
stripes | #Str | 논리 볼륨에서 스트라이프 또는 미러 수 | ||||||
| 스트라이프 | 스트라이프 논리 볼륨에서 스트라이트의 단위 크기 |
lvs
명령으로 lv_name
, vg_name
, lv_attr
, lv_size
, origin
, snap_percent
, move_pv
, mirror_log
, copy_percent
영역의 기본값을 볼 수 있습니다. 이는 기본값으로 볼륨 그룹과 함께 vg_name
및 lv_name
에 의해 정렬됩니다.
# lvs
LV VG Attr LSize Origin Snap% Move Log Copy%
lvol0 new_vg owi-a- 52.00M
newvgsnap1 new_vg swi-a- 8.00M lvol0 0.20
lvs
명령과 함께 -v
인수를 사용하여 기본값 영역 보기에 seg_count
, lv_major
, lv_minor
, lv_kernel_major
, lv_kernel_minor
, lv_uuid
영역을 추가합니다.
# lvs -v
Finding all logical volumes
LV VG #Seg Attr LSize Maj Min KMaj KMin Origin Snap% Move Copy% Log LV UUID
lvol0 new_vg 1 owi-a- 52.00M -1 -1 253 3 LBy1Tz-sr23-OjsI-LT03-nHLC-y8XW-EhCl78
newvgsnap1 new_vg 1 swi-a- 8.00M -1 -1 253 5 lvol0 0.20 1ye1OU-1cIu-o79k-20h2-ZGF0-qCJm-CfbsIx
lvs
명령의 --segments
인수를 사용하여 세그먼트 정보에 중점을 둔 기본값 정보를 볼 수 있습니다. segments
인수를 사용할 때, seg
접두부는 옵션값입니다. lvs --segments
명령으로 lv_name
, vg_name
, lv_attr
, stripes
, segtype
, seg_size
영역의 기본값을 볼 수 있습니다. 이는 기본값으로 볼륨 그룹 내에서 vg_name
, lv_name
에 의해 정렬되고, 논리 볼륨 내에서는 seg_start
에 의해 정렬됩니다. 논리 볼륨이 분리된 경우, 명령의 출력 결과가 이를 보여줍니다.
# lvs --segments
LV VG Attr #Str Type SSize
LogVol00 VolGroup00 -wi-ao 1 linear 36.62G
LogVol01 VolGroup00 -wi-ao 1 linear 512.00M
lv vg -wi-a- 1 linear 104.00M
lv vg -wi-a- 1 linear 104.00M
lv vg -wi-a- 1 linear 104.00M
lv vg -wi-a- 1 linear 88.00M
lvs --segments
명령과 함께 -v
인수를 사용하여 기본값 영역 보기에 seg_start
, stripesize
, chunksize
영역을 추가합니다.
# lvs -v --segments
Finding all logical volumes
LV VG Attr Start SSize #Str Type Stripe Chunk
lvol0 new_vg owi-a- 0 52.00M 1 linear 0 0
newvgsnap1 new_vg swi-a- 0 8.00M 1 linear 0 8.00K
다음의 예에서는 하나의 논리 볼륨이 설정된 시스템에서
lvs
명령의 기본 출력값을 보여주고 있으며, 다음으로 segments
인수와 함께 lvs
명령의 기본 출력값을 보여주고 있습니다.
#lvs
LV VG Attr LSize Origin Snap% Move Log Copy% lvol0 new_vg -wi-a- 52.00M #lvs --segments
LV VG Attr #Str Type SSize lvol0 new_vg -wi-a- 1 linear 52.00M
4.9.3. LVM 리포트 정렬
일반적으로
lvs
, vgs
, pvs
명령의 출력 결과가 올바르게 정렬되기 이전에 이를 내부적으로 저장해야 합니다. --unbuffered
인수를 지정하여 결과가 출력되자 마자 정렬되지 않은 출력 결과 보기를 할 수 있습니다.
다른 목록의 정렬 순서를 지정하려면 아무 리포트 명령에
-O
인수를 사용합니다. 출력 결과 자체에 이러한 영역을 포함시킬 필요는 없습니다.
다음의 예에서는 물리 볼륨명, 크기, 여유 공간을 나타내는
pvs
명령의 출력 결과를 보여주고 있습니다.
# pvs -o pv_name,pv_size,pv_free
PV PSize PFree
/dev/sdb1 17.14G 17.14G
/dev/sdc1 17.14G 17.09G
/dev/sdd1 17.14G 17.14G
다음의 예에서는 여유 공간 영역에 따라 정렬된 동일한 출력 결과를 보여주고 있습니다.
# pvs -o pv_name,pv_size,pv_free -O pv_free
PV PSize PFree
/dev/sdc1 17.14G 17.09G
/dev/sdd1 17.14G 17.14G
/dev/sdb1 17.14G 17.14G
다음의 예에서는 정렬하고 있는 영역 보기를 할 필요가 없는 경우를 보여주고 있습니다.
# pvs -o pv_name,pv_size -O pv_free
PV PSize
/dev/sdc1 17.14G
/dev/sdd1 17.14G
/dev/sdb1 17.14G
역정렬하여 보려면
-
와 함께 -O
인수 뒤에 지정한 부분이 선행되어야 합니다.
# pvs -o pv_name,pv_size,pv_free -O -pv_free
PV PSize PFree
/dev/sdd1 17.14G 17.14G
/dev/sdb1 17.14G 17.14G
/dev/sdc1 17.14G 17.09G
4.9.4. 단위 지정
LVM 리포트 보기에 해당하는 단위를 지정하려면, 리포트 명령의
--units
인수를 사용합니다. 바이트 (b), 킬로바이트 (k), 메가바이트 (m), 기가바이트 (g), 테라바이트(t), 엑사바이트(e), 페터바이트(p), 인간 판독 가능(h) 등을 지정할 수 있습니다. lvm.conf
파일의 global
섹션에서 units
매개 변수를 지정하여 기본값을 덮어쓰기할 수 있습니다.
다음의 예에서는 기본값 GB가 아닌 MB로
pvs
명령의 출력 결과를 보여주고 있습니다.
# pvs --units m
PV VG Fmt Attr PSize PFree
/dev/sda1 lvm2 -- 17555.40M 17555.40M
/dev/sdb1 new_vg lvm2 a- 17552.00M 17552.00M
/dev/sdc1 new_vg lvm2 a- 17552.00M 17500.00M
/dev/sdd1 new_vg lvm2 a- 17552.00M 17552.00M
기본값으로 단위는 2의 배수 (1024의 배수)로 나타납니다. 단위를 대문자 (B, K, M, G, T, H)로 지정하여 단위가 1000의 배수로 나타나도록 할 수 있습니다.
다음의 명령은 기본값인 1024의 배수로서 출력 결과를 보여주고 있습니다.
# pvs
PV VG Fmt Attr PSize PFree
/dev/sdb1 new_vg lvm2 a- 17.14G 17.14G
/dev/sdc1 new_vg lvm2 a- 17.14G 17.09G
/dev/sdd1 new_vg lvm2 a- 17.14G 17.14G
다음의 명령은 1000의 배수로서의 출력 결과를 보여주고 있습니다.
# pvs --units G
PV VG Fmt Attr PSize PFree
/dev/sdb1 new_vg lvm2 a- 18.40G 18.40G
/dev/sdc1 new_vg lvm2 a- 18.40G 18.35G
/dev/sdd1 new_vg lvm2 a- 18.40G 18.40G
(512 바이트로 지정된) 섹터 또는 사용자 정의 단위를 지정할 수 있습니다.
다음의 예에서는 섹터 수로
pvs
명령의 출력 결과를 보여주고 있습니다.
# pvs --units s
PV VG Fmt Attr PSize PFree
/dev/sdb1 new_vg lvm2 a- 35946496S 35946496S
/dev/sdc1 new_vg lvm2 a- 35946496S 35840000S
/dev/sdd1 new_vg lvm2 a- 35946496S 35946496S
다음의 예에서는 4MB 단위로 된
pvs
명령의 출력 결과를 보여주고 있습니다.
# pvs --units 4m
PV VG Fmt Attr PSize PFree
/dev/sdb1 new_vg lvm2 a- 4388.00U 4388.00U
/dev/sdc1 new_vg lvm2 a- 4388.00U 4375.00U
/dev/sdd1 new_vg lvm2 a- 4388.00U 4388.00U
5장. LVM 설정 예
다음 부분에서는 기본적인 LVM 설정 예를 다루고 있습니다.
5.1. 세 개의 디스크에 LVM 논리 볼륨 생성
예에서는
/dev/sda1
, /dev/sdb1
, /dev/sdc1
에 있는 디스크로 구성된 new_logical_volume
이라는 LVM 논리 볼륨을 생성합니다.
5.1.1. 물리 볼륨 생성
볼륨 그룹에 있는 디스크를 사용하려면, 이를 LVM 물리 볼륨으로 레이블합니다.
주의
이 명령으로
/dev/sda1
, /dev/sdb1
, /dev/sdc1
에 있는 데이터를 삭제합니다.
[root@tng3-1 ~]# pvcreate /dev/sda1 /dev/sdb1 /dev/sdc1
Physical volume "/dev/sda1" successfully created
Physical volume "/dev/sdb1" successfully created
Physical volume "/dev/sdc1" successfully created
5.1.2. 볼륨 그룹 생성
다음 명령으로
new_vol_group
볼륨 그룹을 생성합니다.
[root@tng3-1 ~]# vgcreate new_vol_group /dev/sda1 /dev/sdb1 /dev/sdc1
Volume group "new_vol_group" successfully created
새 볼륨 그룹의 속성을 보기 위해
vgs
명령을 사용할 수 있습니다.
[root@tng3-1 ~]# vgs
VG #PV #LV #SN Attr VSize VFree
new_vol_group 3 0 0 wz--n- 51.45G 51.45G
5.1.3. 논리 볼륨 생성
다음의 명령으로
new_vol_group
볼륨 그룹에서 new_logical_volume
논리 볼륨을 생성합니다. 예에서는 볼륨 그룹의 2GB를 사용하여 논리 볼륨을 생성합니다.
[root@tng3-1 ~]# lvcreate -L2G -n new_logical_volume new_vol_group
Logical volume "new_logical_volume" created
5.1.4. 파일 시스템 생성
다음 명령으로 논리 볼륨에 GFS 파일 시스템을 생성합니다.
[root@tng3-1 ~]#gfs_mkfs -plock_nolock -j 1 /dev/new_vol_group/new_logical_volume
This will destroy any data on /dev/new_vol_group/new_logical_volume. Are you sure you want to proceed? [y/n]y
Device: /dev/new_vol_group/new_logical_volume Blocksize: 4096 Filesystem Size: 491460 Journals: 1 Resource Groups: 8 Locking Protocol: lock_nolock Lock Table: Syncing... All Done
다음 명령으로 논리 볼륨을 마운트하고 파일 시스템 디스크 공간 사용량을 보고합니다.
[root@tng3-1 ~]#mount /dev/new_vol_group/new_logical_volume /mnt
[root@tng3-1 ~]#df
Filesystem 1K-blocks Used Available Use% Mounted on /dev/new_vol_group/new_logical_volume 1965840 20 1965820 1% /mnt
5.2. 스트라이프 (Striped) 논리 볼륨 생성
예에서는
/dev/sda1
, /dev/sdb1
, /dev/sdc1
에 있는 디스크의 데이터를 스트라이프로 나누는 striped_logical_volume
이라는 LVM 스트라이프 논리 볼륨을 생성합니다.
5.2.1. 물리 볼륨 생성
볼륨 그룹에서 사용할 디스크를 LVM 물리 볼륨으로 레이블합니다.
주의
이 명령으로
/dev/sda1
, /dev/sdb1
, /dev/sdc1
에 있는 데이터를 삭제합니다.
[root@tng3-1 ~]# pvcreate /dev/sda1 /dev/sdb1 /dev/sdc1
Physical volume "/dev/sda1" successfully created
Physical volume "/dev/sdb1" successfully created
Physical volume "/dev/sdc1" successfully created
5.2.2. 볼륨 그룹 생성
다음 명령으로
striped_vol_group
볼륨 그룹을 생성합니다.
[root@tng3-1 ~]# vgcreate striped_vol_group /dev/sda1 /dev/sdb1 /dev/sdc1
Volume group "striped_vol_group" successfully created
새 볼륨 그룹의 속성을 보기 위해
vgs
명령을 사용할 수 있습니다.
[root@tng3-1 ~]# vgs
VG #PV #LV #SN Attr VSize VFree
striped_vol_group 3 0 0 wz--n- 51.45G 51.45G
5.2.3. 논리 볼륨 생성
다음 명령으로
striped_vol_group
볼륨 그룹에서 striped_logical_volume
스트라이프 논리 볼륨을 생성합니다. 예에서는 3개의 스트라이프 및 4 KB의 스트라이프 한 개와 함께 2 GB의 논리 볼륨을 생성하고 있습니다.
[root@tng3-1 ~]# lvcreate -i3 -I4 -L2G -nstriped_logical_volume striped_vol_group
Rounding size (512 extents) up to stripe boundary size (513 extents)
Logical volume "striped_logical_volume" created
5.2.4. 파일 시스템 생성
다음 명령으로 논리 볼륨에 GFS 파일 시스템을 생성합니다.
[root@tng3-1 ~]#gfs_mkfs -plock_nolock -j 1 /dev/striped_vol_group/striped_logical_volume
This will destroy any data on /dev/striped_vol_group/striped_logical_volume. Are you sure you want to proceed? [y/n]y
Device: /dev/striped_vol_group/striped_logical_volume Blocksize: 4096 Filesystem Size: 492484 Journals: 1 Resource Groups: 8 Locking Protocol: lock_nolock Lock Table: Syncing... All Done
다음 명령으로 논리 볼륨을 마운트하고 파일 시스템 디스크 공간 사용량을 보고합니다.
[root@tng3-1 ~]#mount /dev/striped_vol_group/striped_logical_volume /mnt
[root@tng3-1 ~]#df
Filesystem 1K-blocks Used Available Use% Mounted on /dev/mapper/VolGroup00-LogVol00 13902624 1656776 11528232 13% / /dev/hda1 101086 10787 85080 12% /boot tmpfs 127880 0 127880 0% /dev/shm /dev/striped_vol_group/striped_logical_volume 1969936 20 1969916 1% /mnt
5.3. 볼륨 그룹 나누기
예에서 기존 볼륨 그룹은 세 개의 물리 볼륨으로 구성되어 있습니다. 물리 볼륨에 사용되지 않은 공간이 충분할 경우, 새 디스크를 추가하지 않고 새로운 볼륨 그룹을 생성할 수 있습니다.
초기 설정에서,
mylv
논리 볼륨은 /dev/sda1
, /dev/sdb1
, /dev/sdc1
이라는 세 개의 물리 볼륨으로 구성된 myvol
볼륨 그룹에서 생성됩니다.
이러한 생성 절차를 마친 후,
myvg
볼륨 그룹은 /dev/sda1
및 /dev/sdb1
로 구성됩니다. 두 번째 볼륨 그룹인 yourvg
는 /dev/sdc1
로 구성됩니다.
5.3.1. 여유 공간 지정
pvscan
명령으로 현재 볼륨 그룹에서 사용할 수 있는 여유 공간 크기를 지정할 수 있습니다.
[root@tng3-1 ~]# pvscan
PV /dev/sda1 VG myvg lvm2 [17.15 GB / 0 free]
PV /dev/sdb1 VG myvg lvm2 [17.15 GB / 12.15 GB free]
PV /dev/sdc1 VG myvg lvm2 [17.15 GB / 15.80 GB free]
Total: 3 [51.45 GB] / in use: 3 [51.45 GB] / in no VG: 0 [0 ]
5.3.2. 데이터 이동
/dev/sdc1
에서 사용된 모든 물리 익스텐트를 pvmove
명령을 사용하여 /dev/sdb1
로 옮길 수 있습니다. pvmove
명령이 실행되는 데 시간이 오래 걸릴 수 도 있습니다.
[root@tng3-1 ~]# pvmove /dev/sdc1 /dev/sdb1
/dev/sdc1: Moved: 14.7%
/dev/sdc1: Moved: 30.3%
/dev/sdc1: Moved: 45.7%
/dev/sdc1: Moved: 61.0%
/dev/sdc1: Moved: 76.6%
/dev/sdc1: Moved: 92.2%
/dev/sdc1: Moved: 100.0%
데이터를 옮긴 후,
/dev/sdc1
에 있는 모든 여유 공간을 확인할 수 있습니다.
[root@tng3-1 ~]# pvscan
PV /dev/sda1 VG myvg lvm2 [17.15 GB / 0 free]
PV /dev/sdb1 VG myvg lvm2 [17.15 GB / 10.80 GB free]
PV /dev/sdc1 VG myvg lvm2 [17.15 GB / 17.15 GB free]
Total: 3 [51.45 GB] / in use: 3 [51.45 GB] / in no VG: 0 [0 ]
5.3.3. 볼륨 그룹 나누기
새 볼륨 그룹
yourvg
를 생성하려면, vgsplit
명령을 사용하여 myvg
볼륨 그룹을 나눕니다.
볼륨 그룹을 나누기 전, 논리 볼륨은 비활성화되어 있어야 합니다. 파일 시스템이 마운트되어 있을 경우, 논리 볼륨을 비활성화시키기 전 파일 시스템을 마운트 해제해야 합니다.
lvchange
명령이나 또는 vgchange
명령을 사용하여 논리 볼륨을 비활성화시킬 수 있습니다. 다음의 명령에서는 mylv
논리 볼륨을 비활성화하고 myvg
볼륨 그룹에서 yourvg
볼륨 그룹을 나눈 뒤, /dev/sdc1
물리 볼륨을 새 볼륨 그룹 yourvg
로 옮기고 있습니다.
[root@tng3-1 ~]#lvchange -a n /dev/myvg/mylv
[root@tng3-1 ~]#vgsplit myvg yourvg /dev/sdc1
Volume group "yourvg" successfully split from "myvg"
vgs
명령을 사용하여 두 개의 볼륨 그룹의 속성을 확인할 수 있습니다.
[root@tng3-1 ~]# vgs
VG #PV #LV #SN Attr VSize VFree
myvg 2 1 0 wz--n- 34.30G 10.80G
yourvg 1 0 0 wz--n- 17.15G 17.15G
5.3.4. 새 논리 볼륨 생성
새 볼륨 그룹을 생성한 후, 새 논리 볼륨
yourlv
를 생성할 수 있습니다.
[root@tng3-1 ~]# lvcreate -L5G -n yourlv yourvg
Logical volume "yourlv" created
5.3.5. 파일 시스템 생성 및 새로운 논리 볼륨 마운트하기
새 논리 볼륨에 파일 시스템을 만들어 이를 마운트할 수 있습니다.
[root@tng3-1 ~]#gfs_mkfs -plock_nolock -j 1 /dev/yourvg/yourlv
This will destroy any data on /dev/yourvg/yourlv. Are you sure you want to proceed? [y/n]y
Device: /dev/yourvg/yourlv Blocksize: 4096 Filesystem Size: 1277816 Journals: 1 Resource Groups: 20 Locking Protocol: lock_nolock Lock Table: Syncing... All Done [root@tng3-1 ~]#mount /dev/yourvg/yourlv /mnt
5.3.6. 원래의 논리 볼륨을 활성화하고 마운트하기
mylv
논리 볼륨을 비활성화시켰을 경우, 마운트하기 전 이를 다시 활성화시켜야 합니다.
root@tng3-1 ~]#lvchange -a y mylv
[root@tng3-1 ~]#mount /dev/myvg/mylv /mnt
[root@tng3-1 ~]#df
Filesystem 1K-blocks Used Available Use% Mounted on /dev/yourvg/yourlv 24507776 32 24507744 1% /mnt /dev/myvg/mylv 24507776 32 24507744 1% /mnt
5.4. 논리 볼륨에서 디스크 삭제하기
다음 예에서는 기존 논리 볼륨에서 디스크를 교체하거나 또는 다른 볼륨으로 디스크를 사용하여 디스크를 삭제하는 방법을 보여 주고 있습니다. 디스크를 삭제하려면, 먼저 LVM 물리 볼륨에 있는 익스텐트를 다른 디스크나 또는 디스크 모음으로 옮겨야 합니다.
5.4.1. 기존의 물리 볼륨으로 익스텐트 옮기기
예에서 논리 볼륨은
myvg
볼륨 그룹에 있는 네 개의 물리 볼륨으로 할당됩니다.
[root@tng3-1]# pvs -o+pv_used
PV VG Fmt Attr PSize PFree Used
/dev/sda1 myvg lvm2 a- 17.15G 12.15G 5.00G
/dev/sdb1 myvg lvm2 a- 17.15G 12.15G 5.00G
/dev/sdc1 myvg lvm2 a- 17.15G 12.15G 5.00G
/dev/sdd1 myvg lvm2 a- 17.15G 2.15G 15.00G
/dev/sdb1
의 익스텐트를 삭제하고자 할 경우, 이를 볼륨 그룹에서 삭제할 수 있습니다.
볼륨 그룹에 있는 다른 물리 볼륨에 여유 익스텐트가 충분할 경우, 삭제하고자 하는 장치에서 다른 옵션 없이
pvmove
명령을 실행하면 익스텐트는 다른 장치로 할당됩니다.
[root@tng3-1 ~]# pvmove /dev/sdb1
/dev/sdb1: Moved: 2.0%
...
/dev/sdb1: Moved: 79.2%
...
/dev/sdb1: Moved: 100.0%
pvmove
명령을 실행 완료하면, 익스텐트는 다음과 같이 분배됩니다:
[root@tng3-1]# pvs -o+pv_used
PV VG Fmt Attr PSize PFree Used
/dev/sda1 myvg lvm2 a- 17.15G 7.15G 10.00G
/dev/sdb1 myvg lvm2 a- 17.15G 17.15G 0
/dev/sdc1 myvg lvm2 a- 17.15G 12.15G 5.00G
/dev/sdd1 myvg lvm2 a- 17.15G 2.15G 15.00G
vgreduce
명령을 사용하여 볼륨 그룹에서의 /dev/sdb1
물리 볼륨을 삭제합니다.
[root@tng3-1 ~]# vgreduce myvg /dev/sdb1
Removed "/dev/sdb1" from volume group "myvg"
[root@tng3-1 ~]# pvs
PV VG Fmt Attr PSize PFree
/dev/sda1 myvg lvm2 a- 17.15G 7.15G
/dev/sdb1 lvm2 -- 17.15G 17.15G
/dev/sdc1 myvg lvm2 a- 17.15G 12.15G
/dev/sdd1 myvg lvm2 a- 17.15G 2.15G
현재 디스크는 물리적으로 다른 사용자에게 삭제 또는 할당될 수 있습니다.
5.4.2. 새 디스크로 익스텐트 옮기기
예에서, 논리 볼륨은
myvg
볼륨 그룹에 있는 세 개의 물리 볼륨으로 할당되며 이는 다음과 같습니다:
[root@tng3-1]# pvs -o+pv_used
PV VG Fmt Attr PSize PFree Used
/dev/sda1 myvg lvm2 a- 17.15G 7.15G 10.00G
/dev/sdb1 myvg lvm2 a- 17.15G 15.15G 2.00G
/dev/sdc1 myvg lvm2 a- 17.15G 15.15G 2.00G
/dev/sdb1
의 익스텐트를 새 장치 /dev/sdd1
로 옮기려 합니다.
5.4.2.1. 새 물리 볼륨 생성하기
/dev/sdd1
에서 새 물리 볼륨을 생성합니다.
[root@tng3-1 ~]# pvcreate /dev/sdd1
Physical volume "/dev/sdd1" successfully created
5.4.2.2. 새 물리 볼륨을 볼륨 그룹에 추가하기
기존의
myvg
볼륨 그룹에 /dev/sdd1
을 추가합니다.
[root@tng3-1 ~]#vgextend myvg /dev/sdd1
Volume group "myvg" successfully extended [root@tng3-1]#pvs -o+pv_used
PV VG Fmt Attr PSize PFree Used /dev/sda1 myvg lvm2 a- 17.15G 7.15G 10.00G /dev/sdb1 myvg lvm2 a- 17.15G 15.15G 2.00G /dev/sdc1 myvg lvm2 a- 17.15G 15.15G 2.00G /dev/sdd1 myvg lvm2 a- 17.15G 17.15G 0
5.4.2.3. 데이터 이동
pvmove
명령을 사용하여 /dev/sdb1
에서 /dev/sdd1
로 데이터를 이동합니다.
[root@tng3-1 ~]#pvmove /dev/sdb1 /dev/sdd1
/dev/sdb1: Moved: 10.0% ... /dev/sdb1: Moved: 79.7% ... /dev/sdb1: Moved: 100.0% [root@tng3-1]#pvs -o+pv_used
PV VG Fmt Attr PSize PFree Used /dev/sda1 myvg lvm2 a- 17.15G 7.15G 10.00G /dev/sdb1 myvg lvm2 a- 17.15G 17.15G 0 /dev/sdc1 myvg lvm2 a- 17.15G 15.15G 2.00G /dev/sdd1 myvg lvm2 a- 17.15G 15.15G 2.00G
5.4.2.4. 볼륨 그룹에서 기존의 물리 볼륨을 삭제하기
/dev/sdb1
의 데이터를 삭제한 후에, 볼륨 그룹에서 이를 삭제할 수 있습니다.
[root@tng3-1 ~]# vgreduce myvg /dev/sdb1
Removed "/dev/sdb1" from volume group "myvg"
현재 다른 볼륨 그룹으로 디스크를 재할당하거나 시스템에서 디스크를 삭제할 수 있습니다.
6장. LVM 문제 해결
다음 부분에서는 다양한 LVM 문제를 해결하는 방법에 대해 다루고 있습니다.
6.1. 문제 해결 진단
명령이 예상했던 데로 작동하지 않을 경우, 다음과 같은 방법으로 진단할 수 있습니다:
- 상세한 출력 결과를 얻기 위해 명령에
-v
,-vv
,-vvv
,-vvvv
인수를 사용합니다. - If the problem is related to the logical volume activation, set 'activation = 1' in the 'log' section of the configuration file and run the command with the
-vvvv
argument. After you have finished examining this output be sure to reset this parameter to 0, to avoid possible problems with the machine locking during low memory situations. - 진단 목적으로 정보 덤프를 제공하는
lvmdump
명령을 실행합니다. 자세한 내용은lvmdump
(8) 맨 페이지에서 참조하시기 바랍니다. - 추가 시스템 정보를 위해
lvs -v
,pvs -a
,dmsetup info -c
명령을 실행합니다. /etc/lvm/backup
파일에서 메타 데이터의 마지막 백업을/etc/lvm/archive
파일에서는 아카이브된 버전을 검사합니다.lvm dumpconfig
명령을 실행하여 최신 설정 정보를 확인합니다.- 어떤 장치에 물리 볼륨이 있는 지에 대한 기록을 알기 위해
/etc/lvm
디렉토리에서.cache
파일을 확인합니다.
6.2. 실패한 장치에 있는 정보 보기
lvs
또는 vgs
명령의 -P
인수를 사용하여 출력 결과에서 나타나지 않는 실패한 볼륨에 관한 정보를 확인합니다. 이러한 인수는 메타데이터가 내부적으로 완전하게 일치하지 않아도 실행하게 합니다. 예를 들어, vg
볼륨 그룹으로된 장치 중 하나가 실패했을 경우, vgs
명령을 실행하면 다음과 같은 출력 결과가 나타납니다.
[root@link-07 tmp]# vgs -o +devices
Volume group "vg" not found
vgs
명령의 -P
인수를 지정한 경우, 볼륨 그룹은 사용 가능하지 않게되지만 실패한 장치에 관한 상세 정보를 볼 수 있습니다.
[root@link-07 tmp]# vgs -P -o +devices
Partial mode. Incomplete volume groups will be activated read-only.
VG #PV #LV #SN Attr VSize VFree Devices
vg 9 2 0 rz-pn- 2.11T 2.07T unknown device(0)
vg 9 2 0 rz-pn- 2.11T 2.07T unknown device(5120),/dev/sda1(0)
예에서, 실패한 장치는 볼륨 그룹에 있는 선형 (linear) 및 스트라이프 (striped) 논리 볼륨을 실패하게 합니다.
-P
인수없이 lvs
명령을 실행하면 다음과 같은 출력 결과가 나타납니다.
[root@link-07 tmp]# lvs -a -o +devices
Volume group "vg" not found
-P
인수를 사용하여 실패한 논리 볼륨을 확인합니다.
[root@link-07 tmp]# lvs -P -a -o +devices
Partial mode. Incomplete volume groups will be activated read-only.
LV VG Attr LSize Origin Snap% Move Log Copy% Devices
linear vg -wi-a- 20.00G unknown device(0)
stripe vg -wi-a- 20.00G unknown device(5120),/dev/sda1(0)
다음 예에서는 미러 논리 볼륨 중 하나의 leg가 실패했을 경우
-P
인수와 함께 사용된 pvs
및 lvs
명령에 대한 출력 결과를 보여줍니다.
root@link-08 ~]# vgs -a -o +devices -P
Partial mode. Incomplete volume groups will be activated read-only.
VG #PV #LV #SN Attr VSize VFree Devices
corey 4 4 0 rz-pnc 1.58T 1.34T my_mirror_mimage_0(0),my_mirror_mimage_1(0)
corey 4 4 0 rz-pnc 1.58T 1.34T /dev/sdd1(0)
corey 4 4 0 rz-pnc 1.58T 1.34T unknown device(0)
corey 4 4 0 rz-pnc 1.58T 1.34T /dev/sdb1(0)
[root@link-08 ~]# lvs -a -o +devices -P
Partial mode. Incomplete volume groups will be activated read-only.
LV VG Attr LSize Origin Snap% Move Log Copy% Devices
my_mirror corey mwi-a- 120.00G my_mirror_mlog 1.95 my_mirror_mimage_0(0),my_mirror_mimage_1(0)
[my_mirror_mimage_0] corey iwi-ao 120.00G unknown device(0)
[my_mirror_mimage_1] corey iwi-ao 120.00G /dev/sdb1(0)
[my_mirror_mlog] corey lwi-ao 4.00M /dev/sdd1(0)
6.3. LVM 미러 장애 복구
다음 부분에서는 물리 볼륨에 해당하는 기본적인 장치가 정지하여 LVM 미러 볼륨중 하나의 leg가 실패할 경우 이를 복구하는 예를 다루고 있습니다. 미러 leg 실패 경우, LVM은 미러 볼륨을 선형 볼륨으로 전환하여, 미러 중복 없이 이전과 같이 계속 실행되게 합니다. 이 때, 대체 물리 장치로서 사용할 미러를 다시 작성하기 위해 시스템에 새 디스크 장치를 추가할 수 있습니다.
다음의 명령으로 미러로 사용될 물리 볼륨을 생성합니다.
[root@link-08 ~]# pvcreate /dev/sd[abcdefgh][12]
Physical volume "/dev/sda1" successfully created
Physical volume "/dev/sda2" successfully created
Physical volume "/dev/sdb1" successfully created
Physical volume "/dev/sdb2" successfully created
Physical volume "/dev/sdc1" successfully created
Physical volume "/dev/sdc2" successfully created
Physical volume "/dev/sdd1" successfully created
Physical volume "/dev/sdd2" successfully created
Physical volume "/dev/sde1" successfully created
Physical volume "/dev/sde2" successfully created
Physical volume "/dev/sdf1" successfully created
Physical volume "/dev/sdf2" successfully created
Physical volume "/dev/sdg1" successfully created
Physical volume "/dev/sdg2" successfully created
Physical volume "/dev/sdh1" successfully created
Physical volume "/dev/sdh2" successfully created
다음의 명령으로
vg
볼륨 그룹 및 미러된 볼륨 groupfs
를 생성합니다.
[root@link-08 ~]#vgcreate vg /dev/sd[abcdefgh][12]
Volume group "vg" successfully created [root@link-08 ~]#lvcreate -L 750M -n groupfs -m 1 vg /dev/sda1 /dev/sdb1 /dev/sdc1
Rounding up size to full physical extent 752.00 MB Logical volume "groupfs" created
lvs
명령을 사용하여 미러 볼륨의 레이아웃과 미러 leg 및 미러 로그에 대한 기본 장치를 확인합니다. 첫 번째 미러의 예는 아직 완전히 동기화되지 않았습니다; Copy%
란이 100.00이라고 나타날 때 까지 기다리셔야 합니다.
[root@link-08 ~]#lvs -a -o +devices
LV VG Attr LSize Origin Snap% Move Log Copy% Devices groupfs vg mwi-a- 752.00M groupfs_mlog 21.28 groupfs_mimage_0(0),groupfs_mimage_1(0) [groupfs_mimage_0] vg iwi-ao 752.00M /dev/sda1(0) [groupfs_mimage_1] vg iwi-ao 752.00M /dev/sdb1(0) [groupfs_mlog] vg lwi-ao 4.00M /dev/sdc1(0) [root@link-08 ~]#lvs -a -o +devices
LV VG Attr LSize Origin Snap% Move Log Copy% Devices groupfs vg mwi-a- 752.00M groupfs_mlog 100.00 groupfs_mimage_0(0),groupfs_mimage_1(0) [groupfs_mimage_0] vg iwi-ao 752.00M /dev/sda1(0) [groupfs_mimage_1] vg iwi-ao 752.00M /dev/sdb1(0) [groupfs_mlog] vg lwi-ao 4.00M i /dev/sdc1(0)
예에서 주요
/dev/sda1
미러 leg 작업에 장애가 발생하였습니다. 미러 볼륨에 쓰기 작업을 실행할 경우 LVM이 장애가 발생한 미러를 감지하게 됩니다. 이러한 경우, LVM은 미러를 단일 선형 (linear) 볼륨으로 전환합니다. 전환 작업을 위해 dd
명령을 실행합니다.
[root@link-08 ~]# dd if=/dev/zero of=/dev/vg/groupfs count=10
10+0 records in
10+0 records out
lvs
명령을 사용하여 현재 장치가 선형 (linear) 장치로 되어 있는 지를 확인할 수 있습니다. 실패한 디스크의 경우 I/O 오류가 발생합니다.
[root@link-08 ~]# lvs -a -o +devices
/dev/sda1: read failed after 0 of 2048 at 0: Input/output error
/dev/sda2: read failed after 0 of 2048 at 0: Input/output error
LV VG Attr LSize Origin Snap% Move Log Copy% Devices
groupfs vg -wi-a- 752.00M /dev/sdb1(0)
이 때 논리 볼륨을 계속 사용할 수 있지만 미러 중복이 없게 됩니다.
To rebuild the mirrored volume, you replace the broken drive and recreate the physical volume. If you use the same disk rather than replacing it with a new one, you will see "inconsistent" warnings when you run the
pvcreate
command.
[root@link-08 ~]#pvcreate /dev/sda[12]
Physical volume "/dev/sda1" successfully created Physical volume "/dev/sda2" successfully created [root@link-08 ~]#pvscan
PV /dev/sdb1 VG vg lvm2 [67.83 GB / 67.10 GB free] PV /dev/sdb2 VG vg lvm2 [67.83 GB / 67.83 GB free] PV /dev/sdc1 VG vg lvm2 [67.83 GB / 67.83 GB free] PV /dev/sdc2 VG vg lvm2 [67.83 GB / 67.83 GB free] PV /dev/sdd1 VG vg lvm2 [67.83 GB / 67.83 GB free] PV /dev/sdd2 VG vg lvm2 [67.83 GB / 67.83 GB free] PV /dev/sde1 VG vg lvm2 [67.83 GB / 67.83 GB free] PV /dev/sde2 VG vg lvm2 [67.83 GB / 67.83 GB free] PV /dev/sdf1 VG vg lvm2 [67.83 GB / 67.83 GB free] PV /dev/sdf2 VG vg lvm2 [67.83 GB / 67.83 GB free] PV /dev/sdg1 VG vg lvm2 [67.83 GB / 67.83 GB free] PV /dev/sdg2 VG vg lvm2 [67.83 GB / 67.83 GB free] PV /dev/sdh1 VG vg lvm2 [67.83 GB / 67.83 GB free] PV /dev/sdh2 VG vg lvm2 [67.83 GB / 67.83 GB free] PV /dev/sda1 lvm2 [603.94 GB] PV /dev/sda2 lvm2 [603.94 GB] Total: 16 [2.11 TB] / in use: 14 [949.65 GB] / in no VG: 2 [1.18 TB]
다음으로 새로운 물리 볼륨으로 원래의 볼륨 그룹을 확장합니다.
[root@link-08 ~]#vgextend vg /dev/sda[12]
Volume group "vg" successfully extended [root@link-08 ~]#pvscan
PV /dev/sdb1 VG vg lvm2 [67.83 GB / 67.10 GB free] PV /dev/sdb2 VG vg lvm2 [67.83 GB / 67.83 GB free] PV /dev/sdc1 VG vg lvm2 [67.83 GB / 67.83 GB free] PV /dev/sdc2 VG vg lvm2 [67.83 GB / 67.83 GB free] PV /dev/sdd1 VG vg lvm2 [67.83 GB / 67.83 GB free] PV /dev/sdd2 VG vg lvm2 [67.83 GB / 67.83 GB free] PV /dev/sde1 VG vg lvm2 [67.83 GB / 67.83 GB free] PV /dev/sde2 VG vg lvm2 [67.83 GB / 67.83 GB free] PV /dev/sdf1 VG vg lvm2 [67.83 GB / 67.83 GB free] PV /dev/sdf2 VG vg lvm2 [67.83 GB / 67.83 GB free] PV /dev/sdg1 VG vg lvm2 [67.83 GB / 67.83 GB free] PV /dev/sdg2 VG vg lvm2 [67.83 GB / 67.83 GB free] PV /dev/sdh1 VG vg lvm2 [67.83 GB / 67.83 GB free] PV /dev/sdh2 VG vg lvm2 [67.83 GB / 67.83 GB free] PV /dev/sda1 VG vg lvm2 [603.93 GB / 603.93 GB free] PV /dev/sda2 VG vg lvm2 [603.93 GB / 603.93 GB free] Total: 16 [2.11 TB] / in use: 16 [2.11 TB] / in no VG: 0 [0 ]
선형 (linear) 볼륨을 원래의 미러 상태로 전환합니다.
[root@link-08 ~]# lvconvert -m 1 /dev/vg/groupfs /dev/sda1 /dev/sdb1 /dev/sdc1
Logical volume mirror converted.
lvs
명령을 사용하여 미러가 복구되었는지를 확인할 수 있습니다.
[root@link-08 ~]# lvs -a -o +devices
LV VG Attr LSize Origin Snap% Move Log Copy% Devices
groupfs vg mwi-a- 752.00M groupfs_mlog 68.62 groupfs_mimage_0(0),groupfs_mimage_1(0)
[groupfs_mimage_0] vg iwi-ao 752.00M /dev/sdb1(0)
[groupfs_mimage_1] vg iwi-ao 752.00M /dev/sda1(0)
[groupfs_mlog] vg lwi-ao 4.00M /dev/sdc1(0)
6.4. 물리 볼륨 메타 데이터 복구
물리 볼륨의 볼륨 그룹 메타 데이터 영역이 뜻하지 않게 덮어쓰기 되었거나 삭제되었을 경우, 메타 데이터 영역이 올바르지 않다는 오류 메세지나 또는 시스템이 특정 UUID로 물리 볼륨을 찾을 수 없다는 오류 메세지를 받게 됩니다. 손실된 메타 데이터와 같은 UUID를 지정하여 물리 볼륨에 있는 새로운 메타 데이터 영역을 작성하여 이를 복구할 수 있습니다.
주의
작동 중인 LVM 논리 볼륨으로 이러한 작업을 실행할 수 없습니다. UUID를 잘못 지정할 경우 데이터를 손실하게 됩니다.
다음의 예에서는 메타 데이터가 없거나 충돌할 경우 나타날 수 있는 출력 결과를 보여주고 있습니다.
[root@link-07 backup]# lvs -a -o +devices
Couldn't find device with uuid 'FmGRh3-zhok-iVI8-7qTD-S5BI-MAEN-NYM5Sk'.
Couldn't find all physical volumes for volume group VG.
Couldn't find device with uuid 'FmGRh3-zhok-iVI8-7qTD-S5BI-MAEN-NYM5Sk'.
Couldn't find all physical volumes for volume group VG.
...
/etc/lvm/archive
디렉토리에서 확인하여 덮어 쓰기된 물리 볼륨에 해당하는 UUID를 찾을 수 있습니다. 해당 볼륨 그룹의 아카이브된 LVM 메타 데이터에 해당하는 VolumeGroupName_xxxx.vg
파일을 찾습니다.
다른 방법으로 비활성화된 볼륨을 찾아
partial
(-P
) 인수를 설정하여 손상된 볼륨 그룹에 대한 UUID를 찾을 수 있습니다.
[root@link-07 backup]# vgchange -an --partial
Partial mode. Incomplete volume groups will be activated read-only.
Couldn't find device with uuid 'FmGRh3-zhok-iVI8-7qTD-S5BI-MAEN-NYM5Sk'.
Couldn't find device with uuid 'FmGRh3-zhok-iVI8-7qTD-S5BI-MAEN-NYM5Sk'.
...
pvcreate
명령의 --uuid
및 --restorefile
인수를 사용하여 물리 볼륨을 복구합니다. 다음의 예에서는 위의 UUID와 함께 , FmGRh3-zhok-iVI8-7qTD-S5BI-MAEN-NYM5Sk
를 사용하여 물리 볼륨으로 /dev/sdh1
장치를 레이블하고 있습니다. 이 명령으로
볼륨 그룹에 해당하는 최근 아카이브된 메타 데이터, VG_00050.vg
에 있는 메타데이터 정보를 사용하여 물리 볼륨 레이블을 복구합니다. restorefile
인수는 pvcreate
명령을 지시하여 볼륨 그룹에 있는 이전 물리 볼륨과 호환하는 새 물리 볼륨을 만들어, 새로운 메타 데이터가 데이터가 들어있는 이전 물리 볼륨으로 대체되지 않는 지를 확인합니다 (예를 들어, 본래의 pvcreate
명령이 메타 데이터 위치를 제어하는 명령행 인수를 사용하거나 또는 다른 기본값을 사용하는 다른 버전의 소프트웨어를 사용하여 기존 물리 볼륨이 생성된 경우).pvcreate
명령은 LVM 메타 데이터 영역만을 덮어쓰기하고 기존의 데이터 영역에는 영향을 미치지 않습니다.
[root@link-07 backup]# pvcreate --uuid "FmGRh3-zhok-iVI8-7qTD-S5BI-MAEN-NYM5Sk" --restorefile /etc/lvm/archive/VG_00050.vg /dev/sdh1
Physical volume "/dev/sdh1" successfully created
You can then use the
vgcfgrestore
command to restore the volume group's metadata.
[root@link-07 backup]# vgcfgrestore VG
Restored volume group VG
논리 볼륨을 나타낼 수 있습니다.
[root@link-07 backup]# lvs -a -o +devices
LV VG Attr LSize Origin Snap% Move Log Copy% Devices
stripe VG -wi--- 300.00G /dev/sdh1 (0),/dev/sda1(0)
stripe VG -wi--- 300.00G /dev/sdh1 (34728),/dev/sdb1(0)
다음의 명령으로 볼륨을 활성화하고 활성 볼륨을 나타낼 수 있습니다.
[root@link-07 backup]#lvchange -ay /dev/VG/stripe
[root@link-07 backup]#lvs -a -o +devices
LV VG Attr LSize Origin Snap% Move Log Copy% Devices stripe VG -wi-a- 300.00G /dev/sdh1 (0),/dev/sda1(0) stripe VG -wi-a- 300.00G /dev/sdh1 (34728),/dev/sdb1(0)
디스크 상의 LVM 메타 데이터가 오버라이드된 것 만큼 많은 공간을 차지할 경우, 이 명령으로 물리 볼륨을 복구할 수 있습니다. 메타 데이터를 오버라이드한 것이 메타 데이터 영역을 지나갈 경우 볼륨에 있는 데이터에 영향을 미치게 됩니다.
fsck
명령을 사용하여 데이터를 복구할 수 있습니다.
6.5. 손실된 물리 볼륨 대체
If a physical volume fails or otherwise needs to be replaced, you can label a new physical volume to replace the one that has been lost in the existing volume group by following the same procedure as you would for recovering physical volume metadata, described in 6.4절. “물리 볼륨 메타 데이터 복구 ”. You can use the
--partial
and --verbose
arguments of the vgdisplay
command to display the UUIDs and sizes of any physical volumes that are no longer present. If you wish to substitute another physical volume of the same size, you can use the pvcreate
command with the --restorefile
and --uuid
arguments to initialize a new device with the same UUID as the missing physical volume. You can then use the vgcfgrestore
command to restore the volume group's metadata.
6.6. 볼륨 그룹에서 손실된 물리 볼륨 제거
물리 볼륨이 손실된 경우,
vgchange
명령의 --partial
인수를 사용하여 볼륨 그룹에 있는 남아있는 다른 물리 볼륨을 활성화할 수 있습니다. vgreduce
명령의 --removemissing
인수를 사용하여 볼륨 그룹에서 물리 볼륨이 사용된 모든 논리 볼륨을 삭제할 수 있습니다.
삭제할 내용을 확인하기 위해
--test
인수와 함께 vgreduce
명령을 실행할 것을 권장합니다.
대부분의 LVM 실행과 같이,
vgcfgrestore
명령을 사용하여 이전 상태로 볼륨 그룹 메타데이트를 복구할 경우, vgreduce
명령으로 역실행가능합니다. 예를 들어, --test
인수 없이 vgreduce
명령의 --removemissing
인수를 사용하여 보관하고자 했던 논리 볼륨이 삭제된 것을 발견했을 경우, 물리 볼륨을 대체하여 이전 상태로 볼륨 그룹을 복구하기 위해 다른 vgcfgrestore
명령을 사용하실 수 있습니다.
6.7. 논리 볼륨에 대해 불충분한 여유 익스텐트
You may get the error message "Insufficient free extents" when creating a logical volume when you think you have enough extents based on the output of the
vgdisplay
or vgs
commands. This is because these commands round figures to 2 decimal places to provide human-readable output. To specify exact size, use free physical extent count instead of some multiple of bytes to determine the size of the logical volume.
기본값으로
vgdisplay
명령에는 여유 물리 익스텐트를 나타내는 출력 결과 행이 포함됩니다.
# vgdisplay
--- Volume group ---
...
Free PE / Size 8780 / 34.30 GB
다른 방법으로
vgs
명령의 vg_free_count
및 vg_extent_count
인수를 사용하여 여유 익스텐트 및 총 익스텐트 수를 나타낼 수 있습니다.
[root@tng3-1 ~]# vgs -o +vg_free_count,vg_extent_count
VG #PV #LV #SN Attr VSize VFree Free #Ext
testvg 2 0 0 wz--n- 34.30G 34.30G 8780 8780
8780 여유 물리 익스텐트와 함께 바이트대신 익스텐트를 사용하기 위해 소문자 l 인수를 사용하여 다음과 같은 명령을 실행할 수 있습니다:
# lvcreate -l8780 -n testlv testvg
이는 볼륨 그룹에 있는 모든 여유 익스텐트를 사용합니다.
# vgs -o +vg_free_count,vg_extent_count
VG #PV #LV #SN Attr VSize VFree Free #Ext
testvg 2 1 0 wz--n- 34.30G 0 0 8780
Alternately, you can extend the logical volume to use a percentage of the remaining free space in the volume group by using the
-l
argument of the lvcreate
command. For information, see 4.4.1.1절. “선형 (Linear) 볼륨 생성 ”.
7장. LVM GUI를 통한 LVM 관리
CLI (Command Line Interface)에 더하여, LVM은 LVM 논리 볼륨 설정에 사용할 수 있는 GUI (Graphical User Interface)를 제공합니다.
system-config-lvm
명령을 사용하여 이러한 유틸리티를 활성화시킬 수 있습니다. Red Hat Enterprise Linux 활용 가이드에 있는 LVM 부분에서는 이러한 유릴리티를 사용하여 LVM 논리 볼륨을 설정하는 방법에 대해 단계적으로 설명하고 있습니다.
또한, LVM GUI는 Conga 관리 인터페이스의 일부분으로 사용 가능합니다. Conga와 함께 LVM GUI를 사용하는 방법에 대한 내용은 Conga 온라인 도움말에서 참조하시기 바랍니다.
부록 A. 장치 매퍼 (Device Mapper)
장치 매퍼 (Device Mapper)는 볼륨 관리를 위한 프레임워크를 제공하는 커널 드라이버로 논리 볼륨으로 사용될 맵화된 장치 생성에 대한 일반적인 방법을 제공합니다. 이는 볼륨 그룹이나 메타 데이터 포맷에 대해 명확하게 알고 있지 못합니다.
장치 매퍼는 보다 높은 수준의 테크놀로지 기반을 제공합니다. LVM에 더하여, 장치-매퍼 멀티 패스 및
dmraid
명령은 장치 매퍼를 사용합니다. 장치 매퍼로의 애플리케이션 인터페이스는 ioctl
시스템 호출입니다. 사용자 인터페이스는 dmsetup
명령입니다.
LVM logical volumes are activated using the Device Mapper. Each logical volume is translated into a mapped device. Each segment translates into a line in the mapping table that describes the device. The Device Mapper supports a variety of mapping targets, including linear mapping, striped mapping, and error mapping. So, for example, two disks may be concatenated into one logical volume with a pair of linear mappings, one for each disk. When LVM2 creates a volume, it creates an underlying device-mapper device that can be queried with the
dmsetup
command. For information about the format of devices in a mapping table, see A.1절. “장치 테이블 맵핑 ”. For information about using the dmsetup
command to query a device, see A.2절. “dmsetup 명령 ”.
A.1. 장치 테이블 맵핑
맵핑된 장치는 지원되는 장치 테이블 매핑을 사용하여 장치의 논리 섹터의 각 영역을 맵핑하는 방법을 지정하는 테이블에 의해 정의됩니다. 맵핑된 장치의 테이블은 다음과 같은 형식의 행 목록에서 구성됩니다:
start length mapping
[mapping_parameters...
]
장치 매퍼 테이블의 첫 번째 행에서,
start
매개 변수는 0과 동일해야 합니다. 하나의 행에 있는 start
+ length
매개 변수는 다음 행의 start
와 동일해야 합니다. 어떤 맵핑 매개변수가 맵핑 테이블의 행에 지정되어야 하는 가는 어떤 mapping
유형이 해당 행에 지정되는 가에 따라 결정됩니다.
장치 매퍼 크기는 항상 섹터에서 지정됩니다 (512 바이트).
장치 맵퍼에서 맵핑 매개변수로 장치가 지정될 경우, 이는 파일 시스템 (예:
/dev/hda
)에서 장치 이름에 의해서나 또는 major
:minor
형식의 major 및 minor 번호에 의해 참조될 수 있습니다. major:minor 형식은 경로명 검색을 피할 수 있기 때문에 선호됩니다.
장치의 매핑 테이블 예제는 다음과 같습니다. 이 테이블에는 4 개의 선형 대상이있습니다:
0 35258368 linear 8:48 65920 35258368 35258368 linear 8:32 65920 70516736 17694720 linear 8:16 17694976 88211456 17694720 linear 8:16 256
각 행의 첫 번째 2 개의 매개 변수는 세그먼트 시작점 블록 및 세그먼트의 길이입니다. 다음 키워드는 맵팽 대상으로, 예에서 모든 경우
linear
가 됩니다. 나머지 행은 linear
대상에 대한 매개 변수로 구성됩니다.
다음의 하부 섹션에서는 맵핑 형식을 설명합니다:
- linear
- striped
- mirror
- snapshot 및 snapshot-origin
- error
- zero
- multipath
- crypt
A.1.1. 선형 맵핑 대상
선형 맵핑 대상은 다른 블록 장치에 연속적인 범위의 블록을 맵핑합니다. 선형 대상 형식은 다음과 같습니다:
start length
lineardevice offset
start
- 가상 장치에서 시작점 블록
length
- 세그먼트 길이
device
- 블록 장치, 파일 시스템에서 장치 이름에 의해 또는
major
:minor
형식에서 major 및 minor 번호에 의해 참조됩니다 offset
- 장치에서 맵핑의 시작점 오프셋
다음 예제에서는 가상 장치의 시작점 블록이 0, 세그먼트 길이가 1638400, major:minor 번호 쌍이 8:2, 장치의 시작점 오프셋이 41146992인 선형 대상을 보여주고 있습니다.
0 16384000 linear 8:2 41156992
다음의 예에서는
/dev/hda
로 지정된 장치 매개 변수와 함께 선형 대상을 보여주고 있습니다.
0 20971520 linear /dev/hda 384
A.1.2. 스트라이프 맵핑 대상
스트라이프 맵핑 대상은 물리적 장치 전역에서 스트라이프를 지원합니다. 이는 스트라이프 수, 스트라이핑 chunk size, 장치 이름 및 섹터 쌍의 목록을 인수로 사용합니다. 스트라이프 대상 형식은 다음과 같습니다:
start length
striped#stripes chunk_size device1 offset1 ... deviceN offsetN
각각의 스트라이프에 대해
device
및 offset
매개 변수 모음 하나가 있습니다.
start
- 가상 장치에서 시작점 블록
length
- 세그먼트 길이
#stripes
- 가상 장치 용 스트라이프 수
chunk_size
- 다음으로 전환하기 전 까지 각각의 스트라이프에 작성된 섹터 수량; 컨널 페이지 크기 만큼 큰 것으로 최소 2 개의 전력이 되어야 합니다
device
- 블록 장치, 파일 시스템에서 장치 이름에 의해서나 또는
major
:minor
형식에서 major 및 minor 번호에 의해 참조됩니다. offset
- 장치에서 맵핑의 시작점 오프셋
다음의 예에서는 세 개의 스트라이프 및 128 chunk size를 갖는 스트라이프 대상을 보여주고 있습니다:
0 73728 striped 3 128 8:9 384 8:8 384 8:7 9789824
- 0
- 가상 장치에서 시작점 블록
- 73728
- 세그먼트 길이
- striped 3 128
- 128 블록의 chunk size를 갖는 세 개의 장치를 통해 스트라이프
- 8:9
- 첫 번째 장치의 major:minor 번호
- 384
- 첫 번째 장치에서 맵핑의 시작점 오프셋
- 8:8
- 두 번째 장치의 major:minor 번호
- 384
- 두 번째 장치에서 맵핑의 시작점 오프셋
- 8:7
- 세 번째 장치의 major:minor 번호
- 9789824
- 세 번째 장치에서 맵핑의 시작점 오프셋
다음의 예제에서는 256 KiB chunk와 함께 major 및 minor 번호 대신 파일 시스템에 있는 장치 이름에 의해 지정된 장치 매개 변수를 갖는 2 개의 스트라이프에 대한 스트라이프 대상을 보여주고 있습니다.
0 65536 striped 2 512 /dev/hda 0 /dev/hdb 0
A.1.3. 미러 맵핑 대상
미러 맵핑 대상은 미러 논리 장치의 맵핑을 지원합니다. 미러 대상의 형식은 다음과 같습니다:
start length
mirrorlog_type #logargs logarg1 ... logargN #devs device1 offset1 ... deviceN offsetN
start
- 가상 장치에서 시작점 블록
length
- 세그먼트 길이
log_type
- 가능한 로그 유형 및 인수는 다음과 같습니다:
core
- 미러는 로컬로 되고 미러 로그는 코어 메모리에 저장됩니다. 이러한 로그 유형은 1 - 3 인수를 갖습니다:regionsize [[
no
]sync
] [block_on_error
] disk
- 미러는 로컬로 되고 미러 로그는 디스크에 저장됩니다. 이러한 로그 유형은 2 - 4 인수를 갖습니다:logdevice regionsize [[
no
]sync
] [block_on_error
] clustered_core
- 미러는 클러스터되고 미러 로그는 코어 메모리에 저장됩니다. 이러한 로그 유형은 2 - 4 인수를 갖습니다:regionsize UUID [[
no
]sync
] [block_on_error
] clustered_disk
- 미러는 클러스터되고 미러 로그는 디스크에 저장됩니다. 이러한 로그 유형은 3 - 5 인수를 갖습니다:logdevice regionsize UUID [[
no
]sync
] [block_on_error
]
LVM은 어떤 영역이 미러와 동기화하는 지를 기록하기 위해 사용하는 로그를 유지합니다. regionsize 인수는 이러한 영역의 크기를 지정합니다.클러스터된 환경에서, UUID 인수는 미러 로그 장치와 관련된 고유한 식별자이므로 로그 상태는 클러스터 전역에서 유지될 수 있습니다.The optional[no]sync
argument can be used to specify the mirror as "in-sync" or "out-of-sync". Theblock_on_error
argument is used to tell the mirror to respond to errors rather than ignoring them. #log_args
- 맵핑에서 지정될 로그 인수의 수
logargs
- 미러에 대한 로그 인수; 제공되는 로그 인수 수량은
#log-args
매개 변수에 의해 지정되고 유효한 로그 인수는log_type
매개 변수에 의해 결정됩니다. #devs
- 미러에서 leg 수; 각 leg에 대해 장치 및 오프셋이 지정됩니다.
device
- 각 미러 leg에 대한 블록 장치, 파일 시스템에 있는 장치 이름으로 참조 또는
major
:minor
형식에 있는 major 및 minor 번호에 의해 참조. 블록 장치 및 오프셋은 각각의 미러 leg에 대해 지정되며,#devs
매개 변수에 의해 표시됩니다. offset
- 장치에서 맵핑의 시작점 오프셋. 블록 장치 및 오프셋은
#devs
매개 변수에 의해 나타나는 각 미러 leg에 대해 지정됩니다.
다음의 예제에서는 디스트레 저장된 미러 로그와 함께 클러스터된 미러에 대한 미러 맵핑 대상을 보여주고 있습니다.
0 52428800 mirror clustered_disk 4 253:2 1024 UUID block_on_error 3 253:3 0 253:4 0 253:5 0
- 0
- 가상 장치에서 시작점 블록
- 52428800
- 세그먼트 길이
- mirror clustered_disk
- 미러가 클러스터되어 있고 미러 로그가 디스크 상에서 유지되고 있음을 지정하는 로그 유형을 갖는 미러 대상
- 4
- 4 개의 미러 로그 인수가 계속됩니다
- 253:2
- 로그 장치의 major:minor 번호
- 1024
- 동기화하고 있는 기록을 보관하기 위해 미러 로그가 사용하는 영역 크기
UUID
- 클러스터를 통해 로그 정보를 관리하기 위한 미러 로그 장치의 UUID
block_on_error
- 미러는 오류에 대응해야 합니다
- 3
- 미러에서 leg 수
- 253:3 0 253:4 0 253:5 0
- 미러의 각 leg를 구성하는 장치에 대한 major:minor 번호 및 오프셋
A.1.4. snapshot 및 snapshot-origin 맵핑 대상
볼륨의 첫 번째 LVM 스냅샷을 생성할 때, 네 개의 장치 맵퍼가 사용됩니다:
- 소스 볼륨의 기존 맵핑 테이블이 들어 있는
linear
맵핑을 갖는 장치 - 소스 볼륨에 대해 COW (copy-on-write) 장치로 사용되는
linear
맵핑을 갖는 장치; 각각의 쓰기 작업에 대해, 기존 데이터는 각 스냅샷의 COW 장치에 저장되어 가시적 컨텐츠가 변경되지 않게 보관됩니다 (COW 장치가 채워질 때 까지). - 가시적 스냅샷 볼륨인 #1과 #2를 결합한
snapshot
맵핑을 갖는 장치 - The "original" volume (which uses the device number used by the original source volume), whose table is replaced by a "snapshot-origin" mapping from device #1.
이러한 장치를 생성하기 위해 고정된 이름 지정 체계를 사용합니다. 예를 들어, 다음과 같은 명령을 사용하여
base
라는 LVM 볼륨을 생성하고 해당 볼륨에 snap
라는 스냅샷 볼륨을 생성할 수 있습니다.
#lvcreate -L 1G -n base volumeGroup
#lvcreate -L 100M --snapshot -n snap volumeGroup/base
이는 4 개의 장치를 만들어 내며, 이는 다음의 명령으로 볼 수 있습니다:
#dmsetup table|grep volumeGroup
volumeGroup-base-real: 0 2097152 linear 8:19 384 volumeGroup-snap-cow: 0 204800 linear 8:19 2097536 volumeGroup-snap: 0 2097152 snapshot 254:11 254:12 P 16 volumeGroup-base: 0 2097152 snapshot-origin 254:11 #ls -lL /dev/mapper/volumeGroup-*
brw------- 1 root root 254, 11 29 ago 18:15 /dev/mapper/volumeGroup-base-real brw------- 1 root root 254, 12 29 ago 18:15 /dev/mapper/volumeGroup-snap-cow brw------- 1 root root 254, 13 29 ago 18:15 /dev/mapper/volumeGroup-snap brw------- 1 root root 254, 10 29 ago 18:14 /dev/mapper/volumeGroup-base
snapshot-origin
대상의 형식은 다음과 같습니다:
start length
snapshot-originorigin
start
- 가상 장치에서 시작점 블록
length
- 세그먼트 길이
origin
- 스냅샷의 기본 볼륨
일반적으로
snapshot-origin
은 이를 기반으로 하는 하나 이상의 스냅샷을 가지고 있습니다. 읽기 작업은 백업 장치에 직접 맵핑됩니다. 각각의 쓰기 작업의 경우 기존 데이터는 각각의 스냅샷의 COW 장치에 저장되어 COW 장치가 채워질 때 까지 가시적 컨텐츠가 변경되지 않게 보관됩니다.
snapshot
대상의 형식은 다음과 같습니다.
start length
snapshotorigin COW-device
P|Nchunksize
start
- 가상 장치에서 시작점 블록
length
- 세그먼트 길이
origin
- 스냅샷의 기본 볼륨
COW-device
- 변경된 데이터 청크가 저장된 장치
- P|N
- P (Persistent) 또는 N (Not persistent); 재부팅 후 스냅샷이 유지되고 있는지에 대한 여부를 나타냅니다. 임시 스냅샷 (N)의 경우 많은 데이터를 디스크에 저장할 수 없으며, 커널에 의해 메모리에 저장할 수 있습니다.
chunksize
- COW 장치에 저장될 변경된 데이터 청크의 섹터 크기
다음의 예제에서는 254:11 원본 장치를 갖는
snapshot-origin
대상을 보여주고 있습니다.
0 2097152 snapshot-origin 254:11
다음 예제에서는 254:11 원본 장치와 254:12 COW 장치를 갖는
snapshot
대상을 보여주고 있습니다. 이러한 스냅샷 장치는 재부팅 후에도 지속되며 COW 장치에 저장된 데이터의 청크 크기는 16 섹터입니다.
0 2097152 snapshot 254:11 254:12 P 16
A.1.5. 오류 맵핑 대상
오류 맵핑 대상과 함께 맵핑된 섹터로의 I/O 작업은 모두 실패합니다.
오류 맵핑 대상은 테스트 용으로 사용할 수 있습니다. 장애시 장치가 어떻게 작동하는지를 테스트하려면, 장치 중간에 잘못된 색터로 맵핑된 장치를 생성하거나 또는 미러의 leg를 옮겨 비우기하여 leg를 오류 대상으로 교체합니다.
오류 대상은 장애가 있는 장치의 위치에서, 시간 제한을 피하는 방법으로 실제 장치에서 다시작하는데 사용될 수 있습니다. 이는 장애 발생 시 LVM 메타데이터를 재구성하는 동안 중간 대상으로서 역할을 수행합니다.
error
맵핑 대상은 start 및 length 이외에 추가 매개 변수를 갖지 않습니다.
다음의 예제에서는
error
대상을 보여주고 있습니다.
0 65536 error
A.1.6. zero 맵핑 대상
zero
맵핑 대상은 /dev/zero
와 동등한 블록 장치입니다. 이러한 맵핑으로의 읽기 작업을 영 블록을 반환합니다. 맵핑에 작성된 데이터는 삭제되지만 쓰기 작업은 성공합니다. zero
맵핑 대상은 start 및 length 매개 변수 이외에 추가 매개 변수를 갖지 않습니다.
다음의 예제에서는 16Tb 장치 용
zero
대상을 보여주고 있습니다.
0 65536 zero
A.1.7. 멀티패스 맵핑 대상
멀티패스 맵핑 대상은 멀티패스된 장치의 맵핑을 지원합니다.
multipath
대상의 형식은 다음과 같습니다:
start length
multipath
#features [feature1 ... featureN] #handlerargs [handlerarg1 ... handlerargN] #pathgroups pathgroup pathgroupargs1 ... pathgroupargsN
각 경로 그룹에 대한
pathgroupargs
매개 변수 모음이 하나 있습니다.
start
- 가상 장치에서 시작점 블록
length
- 세그먼트 길이
#features
- 멀티패스 기능의 수로 이러한 기능은 다음에 표시됩니다. 이러한 매개 변수가 영이되면,
feature
매개 변수가 없게 되고 다음의 장치 맵핑 매개 변수는#handlerargs
가 됩니다. 현재 지원되는 멀티패스 기능은queue_if_no_path
하나 입니다. 이는 사용 가능한 경로가 없을 경우 현재 멀티패스된 장치는 I/O 작업을 대기열로 하도록 설정됨을 의미합니다.예를 들어,multipath.conf
파일의no_path_retry
옵션이 지정된 일련의 시도 횟수가 경로를 사용한 후 전체 경로가 실패로 표시될 때 까지 I/O 작업을 대기열로 하도록 설정되어 있을 경우, 맵핑은 전체 경로 검사기가 지정된 검사를 실패할 때 까지 다음과 같이 나타나게 됩니다.0 71014400 multipath 1 queue_if_no_path 0 2 1 round-robin 0 2 1 66:128 \ 1000 65:64 1000 round-robin 0 2 1 8:0 1000 67:192 1000
전체 경로 검사기가 지정된 검사를 실패한 후, 맵핑은 다음과 같이 나타나게 됩니다.0 71014400 multipath 0 0 2 1 round-robin 0 2 1 66:128 1000 65:64 1000 \ round-robin 0 2 1 8:0 1000 67:192 1000
#handlerargs
- 하드웨어 처리기 인수 수량으로 이러한 인수가 그 다음에 표시됩니다. 하드웨어 처리기는 경로 그룹을 전환하거나 또는 I/O 오류를 처리할 때 하드웨어 특정 작업을 실행하기 위해 사용되는 모듈을 지정합니다. 이것이 0으로 설정되어 있을 경우, 다음 매개 변수는
#pathgroups
이 됩니다. #pathgroups
- 경로 그룹의 수량. 경로 그룹은 멀티패스된 장치가 로드 밸런스를 수행하는 경로 모음입니다. 각각의 경로 그룹에 대해
pathgroupargs
매개 변수 모음이 하나 있습니다. pathgroup
- 시도할 다음 경로 그룹
pathgroupsargs
- 각 경로 그룹은 다음과 같은 인수로 구성되어 있습니다:
pathselector #selectorargs #paths #pathargs device1 ioreqs1 ... deviceN ioreqsN
경로 그룹에는 각 경로에 대한 경로 인수 모음 하나가 있습니다.pathselector
- 경로 그룹에서 어떤 경로를 다음 I/O 작업에 사용할 지를 결정하기 위해 사용되고 있는 알고리즘을 지정합니다.
#selectorargs
- 멀티패스 맵핑에서 이러한 인수를 따르는 경로 선택기 인수의 수량. 현재 이러한 인수 값은 항상 0입니다.
#paths
- 경로 그룹에 있는 경로 수량
#pathargs
- 이 그룹의 각 경로에 지정된 경로 인수의 수량. 현재 이러한 숫자는 항상
ioreqs
인수인 1로 되어 있습니다. device
- 경로의 블록 장치 번호,
major
:minor
형식으로 major와 minor 번호에 의해 참조됩니다 ioreqs
- 현재 그룹의 다음 경로로 전환하기 전 이러한 경로로 라우팅하기 위한 I/O 요청 수.
그림 A.1. “멀티패스 맵핑 대상 ” shows the format of a multipath target with two path groups.
그림 A.1. 멀티패스 맵핑 대상
다음 예제에서는 동일한 멀티패스 장치에 대한 순수한 장애 조치 대상의 정의를 보여주고 있습니다. 이러한 대상에는 경로 그룹 당 경로 하나만 열려있는 4 개의 경로 그룹이 있어 멀티패스된 장치는 한 번에 하나의 경로만을 사용하게 됩니다.
0 71014400 multipath 0 0 4 1 round-robin 0 1 1 66:112 1000 \ round-robin 0 1 1 67:176 1000 round-robin 0 1 1 68:240 1000 \ round-robin 0 1 1 65:48 1000
다음의 예제에서는 동일한 멀티패스 장치에 대해 완전하게 확산된 (multibus) 대상을 보여주고 있습니다. 이러한 대상에는 모든 경로를 포함하는 하나의 경로 그룹만 있습니다. 이러한 설정에서 멀티패스는 경로 전체에 부하를 균등하게 확산합니다.
0 71014400 multipath 0 0 1 1 round-robin 0 4 1 66:112 1000 \ 67:176 1000 68:240 1000 65:48 1000
멀티패싱에 관한 보다 자세한 내용은 Device Mapper Multipath 사용 문서를 참조하십시오.
A.1.8. crypt 맵핑 대상
crypt
대상은 지정된 장치를 통해 전송된 데이터를 암호화합니다. 이는 커널 Crypto API를 사용합니다.
crypt
대상의 형식은 다음과 같습니다:
start length
cryptcipher key IV-offset device offset
start
- 가상 장치에서 시작점 블록
length
- 세그먼트 길이
cipher
- Cipher는
cipher[-chainmode]-ivmode[:iv options]
로 구성되어 있습니다.cipher
- 사용 가능한 Ciphers는
/proc/crypto
에 나열되어 있습니다 (예:aes
) chainmode
- 항상
cbc
를 사용합니다.ebc
는 사용하지 않습니다; 이는 초기 백터 (IV)를 사용하지 않습니다. ivmode[:iv options]
- IV는 초기 벡터 (initial vector)로 암호를 변경하는 데 사용됩니다. IV 모드는
plain
또는essiv:hash
입니다.-plain
의ivmode
는 IV로서 섹터 번호 (및 IV 오프셋)를 사용합니다.-essiv
의ivmode
는 워터마크의 약점을 피하기 위해 강화되었습니다.
key
- 암호화 키, 16 진법으로 공급
IV-offset
- 초기 백터 (IV) 오프셋
device
- 블록 장치, 파일 시스템에서 장치 이름에 의해 또는
major
:minor
형식에서 major 및 minor 번호에 의해 참조됩니다 offset
- 장치에서 맵핑의 시작점 오프셋
다음은
crypt
대상의 예제입니다.
0 2097152 crypt aes-plain 0123456789abcdef0123456789abcdef 0 /dev/hda 0
A.2. dmsetup 명령
dmsetup
명령은 장치 매퍼와 통신하기 위한 명령행 래퍼 (wrapper)입니다. LVM 장치에 관한 일반적인 시스템 정보는 다음의 하부 섹션에서 설명하고 있듯이 dmsetup
명령의 info
, ls
, status
, deps
옵션을 사용하여 참조하시기 바랍니다.
dmsetup
명령의 추가 옵션 및 기능에 관한 내용은 dmsetup
(8) 맨 페이지에서 참조하십시오.
A.2.1. dmsetup info 명령
dmsetup info device
명령은 Device Mapper 장치에 관한 요약 정보를 제공합니다. 장치 이름을 지정하지 않으셨을 경우, 출력 결과에는 현재 설정된 모든 Device Mapper 장치에 관한 정보가 나타납니다. 장치를 지정하셨을 경우, 이 명령은 해당 장치에 대한 정보만을 제공합니다.
dmsetup info
명령은 다음과 같은 범주에 있는 정보를 제공합니다:
Name
- 장치의 이름입니다. LVM 장치는 하이픈으로 구별된 볼륨 그룹 이름 및 논리 볼륨 이름으로 나타납니다. 원래 이름에서의 하이픈은 두 개의 하이픈으로 변환됩니다.
State
- 가능한 장치 상태는
SUSPENDED
,ACTIVE
,READ-ONLY
가 됩니다.dmsetup suspend
명령은 장치 상태를SUSPENDED
로 설정합니다. 장치가 일시 정지 상태가 되어 있을 경우, 해당 장치의 모든 I/O 작업이 중지됩니다.dmsetup resume
명령은 장치의 상태를ACTIVE
로 복원합니다. Read Ahead
- 읽기 작업이 실행되고 있는 열린 파일에 대해 시스템을 미리 읽어오는 데이터 블록의 수량입니다. 기본값으로 커널은 자동으로 적절한 값을 선택합니다.
--readahead
option of thedmsetup
명령을 사용하여 이러한 값을 변경할 수 있습니다. Tables present
- Possible states for this category are
LIVE
andINACTIVE
. AnINACTIVE
state indicates that a table has been loaded which will be swapped in when admsetup resume
command restores a device state toACTIVE
, at which point the table's state becomesLIVE
. For information, see thedmsetup
man page. Open count
- open reference count는 장치가 열린 횟수를 나타냅니다.
mount
명령은 장치를 엽니다. Event number
- The current number of events received. Issuing a
dmsetup wait n
command allows the user to wait for the n'th event, blocking the call until it is received. Major, minor
- Major 및 minor 장치 번호
Number of targets
- 장치를 구성하는 부분의 수량입니다. 예를 들어, 3 개의 디스크를 통과하는 선형 장치는 3 개의 대상을 갖게 됩니다. 디스크의 시작과 끝 지점으로 구성되는 중간 지점이 없는 선형 장치는 2 대의 대상을 갖게 됩니다.
UUID
- 장치의 UUID
다음의 예제에서는
dmsetup info
명령의 일부 출력 결과를 보여주고 있습니다.
[root@ask-07 ~]# dmsetup info
Name: testgfsvg-testgfslv1
State: ACTIVE
Read Ahead: 256
Tables present: LIVE
Open count: 0
Event number: 0
Major, minor: 253, 2
Number of targets: 2
UUID: LVM-K528WUGQgPadNXYcFrrf9LnPlUMswgkCkpgPIgYzSvigM7SfeWCypddNSWtNzc2N
...
Name: VolGroup00-LogVol00
State: ACTIVE
Read Ahead: 256
Tables present: LIVE
Open count: 1
Event number: 0
Major, minor: 253, 0
Number of targets: 1
UUID: LVM-tOcS1kqFV9drb0X1Vr8sxeYP0tqcrpdegyqj5lZxe45JMGlmvtqLmbLpBcenh2L3
A.2.2. dmsetup ls 명령
dmsetup ls
명령으로 맵핑된 장치의 장치 이름을 나열할 수 있습니다. dmsetup ls --target target_type
명령을 사용하여 최소 한개의 특정 유형의 대상을 갖는 장치를 나열할 수 있습니다. dmsetup ls
명령의 다른 옵션은 dmsetup
맨 페이지를 참조하십시오.
다음 예제에서는 현재 설정된 맵핑 장치의 장치 이름을 나열하는 명령을 보여주고 있습니다.
[root@ask-07 ~]# dmsetup ls
testgfsvg-testgfslv3 (253, 4)
testgfsvg-testgfslv2 (253, 3)
testgfsvg-testgfslv1 (253, 2)
VolGroup00-LogVol01 (253, 1)
VolGroup00-LogVol00 (253, 0)
다음 예제에서는 현재 설정된 미러 맵핑의 장치 이름을 나열하는 명령을 보여주고 있습니다.
[root@grant-01 ~]# dmsetup ls --target mirror
lock_stress-grant--02.1722 (253, 34)
lock_stress-grant--01.1720 (253, 18)
lock_stress-grant--03.1718 (253, 52)
lock_stress-grant--02.1716 (253, 40)
lock_stress-grant--03.1713 (253, 47)
lock_stress-grant--02.1709 (253, 23)
lock_stress-grant--01.1707 (253, 8)
lock_stress-grant--01.1724 (253, 14)
lock_stress-grant--03.1711 (253, 27)
A.2.3. dmsetup status 명령
dmsetup status device
명령은 특정 장치에 있는 각각의 대상에 대한 상태 정보를 제공합니다. 장치 이름을 지정하지 않으셨을 경우, 출력 결과에는 현재 설정된 모든 Device Mapper 장치에 관한 정보가 나타나게 됩니다. dmsetup status --target target_type
명령을 사용하여 최소 한개의 특정 유형의 대상을 갖는 장치의 상태 만을 나열할 수 있습니다.
다음 예제에서는 현재 설정된 맵핑 장치에 있는 대상 상태를 나열하는 명령을 보여주고 있습니다.
[root@ask-07 ~]# dmsetup status
testgfsvg-testgfslv3: 0 312352768 linear
testgfsvg-testgfslv2: 0 312352768 linear
testgfsvg-testgfslv1: 0 312352768 linear
testgfsvg-testgfslv1: 312352768 50331648 linear
VolGroup00-LogVol01: 0 4063232 linear
VolGroup00-LogVol00: 0 151912448 linear
A.2.4. dmsetup deps 명령
dmsetup deps device
명령은 지정된 장치의 맵핑 테이블에서 참조하는 장치 (major, minor) 쌍의 목록을 제공합니다. 장치 이름을 지정하지 않으셨을 경우, 출력 결과에는 현재 설정된 모든 Device Mapper 장치에 관한 정보가 나타나게 됩니다.
다음 예제에서는 현재 설정된 모든 맵핑 장치의 의존성을 나열하는 명령을 보여주고 있습니다.
[root@ask-07 ~]# dmsetup deps
testgfsvg-testgfslv3: 1 dependencies : (8, 16)
testgfsvg-testgfslv2: 1 dependencies : (8, 16)
testgfsvg-testgfslv1: 1 dependencies : (8, 16)
VolGroup00-LogVol01: 1 dependencies : (8, 2)
VolGroup00-LogVol00: 1 dependencies : (8, 2)
다음 예제에서는
lock_stress-grant--02.1722
장치의 의존성만을 나열하는 명령을 보여주고 있습니다.
[root@grant-01 ~]# dmsetup deps lock_stress-grant--02.1722
3 dependencies : (253, 33) (253, 32) (253, 31)
부록 B. LVM 설정 파일
LVM은 여러 설정 파일을 지원합니다. 시스템을 시작하면,
/etc/lvm
에 기본값으로 설정된 LVM_SYSTEM_DIR
환경 변수에 의해 지정된 디렉토리에서 lvm.conf
설정 파일을 읽어 오게 됩니다.
lvm.conf
파일은 읽어올 추가 설정 파일을 지정할 수 있습니다. 나중에 설정된 파일은 이전에 설정된 파일을 덮어쓰게 됩니다. 모든 설정 파일을 읽어온 후, 현재 사용되고 있는 설정 보기를 하려면, lvm dumpconfig
명령을 실행합니다.
For information on loading additional configuration files, see C.2절. “호스트 태그 ”.
B.1. LVM 설정 파일
다음 파일은 LVM 설정에 사용됩니다:
- /etc/lvm/lvm.conf
- 도구로 읽혀진 중앙 설정 파일
- etc/lvm/lvm_hosttag.conf
- For each host tag, an extra configuration file is read if it exists:
lvm_hosttag.conf
. If that file defines new tags, then further configuration files will be appended to the list of tiles to read in. For information on host tags, see C.2절. “호스트 태그 ”.
LVM 설정 파일에 더하여, LVM을 실행하고 있는 시스템에는 다음과 같은 파일로 LVM 시스템 설정에 영향을 미칩니다:
- /etc/lvm/.cache
- 장치 이름 필터 캐시 파일 (설정 가능).
- /etc/lvm/backup/
- 자동 볼륨 그룹 메타 데이터 백업 용 디렉토리 (설정 가능).
- /etc/lvm/archive/
- 자동 볼륨 그룹 메타 데이터 아카이브 용 디렉토리 (디렉토리 경로 및 아카이브 히스토리 정보 관련 설정 가능).
- /var/lock/lvm/
- 단일 호스트 설정에서, 병렬 프로그램 도구 실행으로 메타 데이터를 손상시키지 않게 하기 위한 잠금 파일, 클러스터 전반에 걸친 DLM이 사용됩니다.
B.2. lvm.conf 설정 파일의 예
다음은
lvm.conf
설정 파일의 예입니다. 이러한 설정 파일은 RHEL 5.3 릴리즈의 기본값 파일입니다. 시스템이 다른 RHEL5 릴리즈를 실행하고 있을 경우, 일부 기본값 설정이 다를 수 있습니다.
[root@tng3-1 lvm]# cat /etc/lvm/lvm.conf
# This is an example configuration file for the LVM2 system.
# It contains the default settings that would be used if there was no
# /etc/lvm/lvm.conf file.
#
# Refer to 'man lvm.conf' for further information including the file layout.
#
# To put this file in a different directory and override /etc/lvm set
# the environment variable LVM_SYSTEM_DIR before running the tools.
# This section allows you to configure which block devices should
# be used by the LVM system.
devices {
# Where do you want your volume groups to appear ?
dir = "/dev"
# An array of directories that contain the device nodes you wish
# to use with LVM2.
scan = [ "/dev" ]
# If several entries in the scanned directories correspond to the
# same block device and the tools need to display a name for device,
# all the pathnames are matched against each item in the following
# list of regular expressions in turn and the first match is used.
preferred_names = [ ]
# Try to avoid using undescriptive /dev/dm-N names, if present.
# preferred_names = [ "^/dev/mpath/", "^/dev/mapper/mpath", "^/dev/[hs]d" ]
# A filter that tells LVM2 to only use a restricted set of devices.
# The filter consists of an array of regular expressions. These
# expressions can be delimited by a character of your choice, and
# prefixed with either an 'a' (for accept) or 'r' (for reject).
# The first expression found to match a device name determines if
# the device will be accepted or rejected (ignored). Devices that
# don't match any patterns are accepted.
# Be careful if there there are symbolic links or multiple filesystem
# entries for the same device as each name is checked separately against
# the list of patterns. The effect is that if any name matches any 'a'
# pattern, the device is accepted; otherwise if any name matches any 'r'
# pattern it is rejected; otherwise it is accepted.
# Don't have more than one filter line active at once: only one gets used.
# Run vgscan after you change this parameter to ensure that
# the cache file gets regenerated (see below).
# If it doesn't do what you expect, check the output of 'vgscan -vvvv'.
# By default we accept every block device:
filter = [ "a/.*/" ]
# Exclude the cdrom drive
# filter = [ "r|/dev/cdrom|" ]
# When testing I like to work with just loopback devices:
# filter = [ "a/loop/", "r/.*/" ]
# Or maybe all loops and ide drives except hdc:
# filter =[ "a|loop|", "r|/dev/hdc|", "a|/dev/ide|", "r|.*|" ]
# Use anchors if you want to be really specific
# filter = [ "a|^/dev/hda8$|", "r/.*/" ]
# The results of the filtering are cached on disk to avoid
# rescanning dud devices (which can take a very long time).
# By default this cache is stored in the /etc/lvm/cache directory
# in a file called '.cache'.
# It is safe to delete the contents: the tools regenerate it.
# (The old setting 'cache' is still respected if neither of
# these new ones is present.)
cache_dir = "/etc/lvm/cache"
cache_file_prefix = ""
# You can turn off writing this cache file by setting this to 0.
write_cache_state = 1
# Advanced settings.
# List of pairs of additional acceptable block device types found
# in /proc/devices with maximum (non-zero) number of partitions.
# types = [ "fd", 16 ]
# If sysfs is mounted (2.6 kernels) restrict device scanning to
# the block devices it believes are valid.
# 1 enables; 0 disables.
sysfs_scan = 1
# By default, LVM2 will ignore devices used as components of
# software RAID (md) devices by looking for md superblocks.
# 1 enables; 0 disables.
md_component_detection = 1
# By default, if a PV is placed directly upon an md device, LVM2
# will align its data blocks with the the chunk_size exposed in sysfs.
# 1 enables; 0 disables.
md_chunk_alignment = 1
# If, while scanning the system for PVs, LVM2 encounters a device-mapper
# device that has its I/O suspended, it waits for it to become accessible.
# Set this to 1 to skip such devices. This should only be needed
# in recovery situations.
ignore_suspended_devices = 0
}
# This section that allows you to configure the nature of the
# information that LVM2 reports.
log {
# Controls the messages sent to stdout or stderr.
# There are three levels of verbosity, 3 being the most verbose.
verbose = 0
# Should we send log messages through syslog?
# 1 is yes; 0 is no.
syslog = 1
# Should we log error and debug messages to a file?
# By default there is no log file.
#file = "/var/log/lvm2.log"
# Should we overwrite the log file each time the program is run?
# By default we append.
overwrite = 0
# What level of log messages should we send to the log file and/or syslog?
# There are 6 syslog-like log levels currently in use - 2 to 7 inclusive.
# 7 is the most verbose (LOG_DEBUG).
level = 0
# Format of output messages
# Whether or not (1 or 0) to indent messages according to their severity
indent = 1
# Whether or not (1 or 0) to display the command name on each line output
command_names = 0
# A prefix to use before the message text (but after the command name,
# if selected). Default is two spaces, so you can see/grep the severity
# of each message.
prefix = " "
# To make the messages look similar to the original LVM tools use:
# indent = 0
# command_names = 1
# prefix = " -- "
# Set this if you want log messages during activation.
# Don't use this in low memory situations (can deadlock).
# activation = 0
}
# Configuration of metadata backups and archiving. In LVM2 when we
# talk about a 'backup' we mean making a copy of the metadata for the
# *current* system. The 'archive' contains old metadata configurations.
# Backups are stored in a human readeable text format.
backup {
# Should we maintain a backup of the current metadata configuration ?
# Use 1 for Yes; 0 for No.
# Think very hard before turning this off!
backup = 1
# Where shall we keep it ?
# Remember to back up this directory regularly!
backup_dir = "/etc/lvm/backup"
# Should we maintain an archive of old metadata configurations.
# Use 1 for Yes; 0 for No.
# On by default. Think very hard before turning this off.
archive = 1
# Where should archived files go ?
# Remember to back up this directory regularly!
archive_dir = "/etc/lvm/archive"
# What is the minimum number of archive files you wish to keep ?
retain_min = 10
# What is the minimum time you wish to keep an archive file for ?
retain_days = 30
}
# Settings for the running LVM2 in shell (readline) mode.
shell {
# Number of lines of history to store in ~/.lvm_history
history_size = 100
}
# Miscellaneous global LVM2 settings
global {
library_dir = "/usr/lib64"
# The file creation mask for any files and directories created.
# Interpreted as octal if the first digit is zero.
umask = 077
# Allow other users to read the files
#umask = 022
# Enabling test mode means that no changes to the on disk metadata
# will be made. Equivalent to having the -t option on every
# command. Defaults to off.
test = 0
# Default value for --units argument
units = "h"
# Whether or not to communicate with the kernel device-mapper.
# Set to 0 if you want to use the tools to manipulate LVM metadata
# without activating any logical volumes.
# If the device-mapper kernel driver is not present in your kernel
# setting this to 0 should suppress the error messages.
activation = 1
# If we can't communicate with device-mapper, should we try running
# the LVM1 tools?
# This option only applies to 2.4 kernels and is provided to help you
# switch between device-mapper kernels and LVM1 kernels.
# The LVM1 tools need to be installed with .lvm1 suffices
# e.g. vgscan.lvm1 and they will stop working after you start using
# the new lvm2 on-disk metadata format.
# The default value is set when the tools are built.
# fallback_to_lvm1 = 0
# The default metadata format that commands should use - "lvm1" or "lvm2".
# The command line override is -M1 or -M2.
# Defaults to "lvm1" if compiled in, else "lvm2".
# format = "lvm1"
# Location of proc filesystem
proc = "/proc"
# Type of locking to use. Defaults to local file-based locking (1).
# Turn locking off by setting to 0 (dangerous: risks metadata corruption
# if LVM2 commands get run concurrently).
# Type 2 uses the external shared library locking_library.
# Type 3 uses built-in clustered locking.
locking_type = 3
# If using external locking (type 2) and initialisation fails,
# with this set to 1 an attempt will be made to use the built-in
# clustered locking.
# If you are using a customised locking_library you should set this to 0.
fallback_to_clustered_locking = 1
# If an attempt to initialise type 2 or type 3 locking failed, perhaps
# because cluster components such as clvmd are not running, with this set
# to 1 an attempt will be made to use local file-based locking (type 1).
# If this succeeds, only commands against local volume groups will proceed.
# Volume Groups marked as clustered will be ignored.
fallback_to_local_locking = 1
# Local non-LV directory that holds file-based locks while commands are
# in progress. A directory like /tmp that may get wiped on reboot is OK.
locking_dir = "/var/lock/lvm"
# Other entries can go here to allow you to load shared libraries
# e.g. if support for LVM1 metadata was compiled as a shared library use
# format_libraries = "liblvm2format1.so"
# Full pathnames can be given.
# Search this directory first for shared libraries.
# library_dir = "/lib"
# The external locking library to load if locking_type is set to 2.
# locking_library = "liblvm2clusterlock.so"
}
activation {
# How to fill in missing stripes if activating an incomplete volume.
# Using "error" will make inaccessible parts of the device return
# I/O errors on access. You can instead use a device path, in which
# case, that device will be used to in place of missing stripes.
# But note that using anything other than "error" with mirrored
# or snapshotted volumes is likely to result in data corruption.
missing_stripe_filler = "error"
# How much stack (in KB) to reserve for use while devices suspended
reserved_stack = 256
# How much memory (in KB) to reserve for use while devices suspended
reserved_memory = 8192
# Nice value used while devices suspended
process_priority = -18
# If volume_list is defined, each LV is only activated if there is a
# match against the list.
# "vgname" and "vgname/lvname" are matched exactly.
# "@tag" matches any tag set in the LV or VG.
# "@*" matches if any tag defined on the host is also set in the LV or VG
#
# volume_list = [ "vg1", "vg2/lvol1", "@tag1", "@*" ]
# Size (in KB) of each copy operation when mirroring
mirror_region_size = 512
# Setting to use when there is no readahead value stored in the metadata.
#
# "none" - Disable readahead.
# "auto" - Use default value chosen by kernel.
readahead = "auto"
# 'mirror_image_fault_policy' and 'mirror_log_fault_policy' define
# how a device failure affecting a mirror is handled.
# A mirror is composed of mirror images (copies) and a log.
# A disk log ensures that a mirror does not need to be re-synced
# (all copies made the same) every time a machine reboots or crashes.
#
# In the event of a failure, the specified policy will be used to
# determine what happens:
#
# "remove" - Simply remove the faulty device and run without it. If
# the log device fails, the mirror would convert to using
# an in-memory log. This means the mirror will not
# remember its sync status across crashes/reboots and
# the entire mirror will be re-synced. If a
# mirror image fails, the mirror will convert to a
# non-mirrored device if there is only one remaining good
# copy.
#
# "allocate" - Remove the faulty device and try to allocate space on
# a new device to be a replacement for the failed device.
# Using this policy for the log is fast and maintains the
# ability to remember sync state through crashes/reboots.
# Using this policy for a mirror device is slow, as it
# requires the mirror to resynchronize the devices, but it
# will preserve the mirror characteristic of the device.
# This policy acts like "remove" if no suitable device and
# space can be allocated for the replacement.
# Currently this is not implemented properly and behaves
# similarly to:
#
# "allocate_anywhere" - Operates like "allocate", but it does not
# require that the new space being allocated be on a
# device is not part of the mirror. For a log device
# failure, this could mean that the log is allocated on
# the same device as a mirror device. For a mirror
# device, this could mean that the mirror device is
# allocated on the same device as another mirror device.
# This policy would not be wise for mirror devices
# because it would break the redundant nature of the
# mirror. This policy acts like "remove" if no suitable
# device and space can be allocated for the replacement.
mirror_log_fault_policy = "allocate"
mirror_device_fault_policy = "remove"
}
####################
# Advanced section #
####################
# Metadata settings
#
# metadata {
# Default number of copies of metadata to hold on each PV. 0, 1 or 2.
# You might want to override it from the command line with 0
# when running pvcreate on new PVs which are to be added to large VGs.
# pvmetadatacopies = 1
# Approximate default size of on-disk metadata areas in sectors.
# You should increase this if you have large volume groups or
# you want to retain a large on-disk history of your metadata changes.
# pvmetadatasize = 255
# List of directories holding live copies of text format metadata.
# These directories must not be on logical volumes!
# It's possible to use LVM2 with a couple of directories here,
# preferably on different (non-LV) filesystems, and with no other
# on-disk metadata (pvmetadatacopies = 0). Or this can be in
# addition to on-disk metadata areas.
# The feature was originally added to simplify testing and is not
# supported under low memory situations - the machine could lock up.
#
# Never edit any files in these directories by hand unless you
# you are absolutely sure you know what you are doing! Use
# the supplied toolset to make changes (e.g. vgcfgrestore).
# dirs = [ "/etc/lvm/metadata", "/mnt/disk2/lvm/metadata2" ]
#}
# Event daemon
#
dmeventd {
# mirror_library is the library used when monitoring a mirror device.
#
# "libdevmapper-event-lvm2mirror.so" attempts to recover from
# failures. It removes failed devices from a volume group and
# reconfigures a mirror as necessary. If no mirror library is
# provided, mirrors are not monitored through dmeventd.
mirror_library = "libdevmapper-event-lvm2mirror.so"
# snapshot_library is the library used when monitoring a snapshot device.
#
# "libdevmapper-event-lvm2snapshot.so" monitors the filling of
# snapshots and emits a warning through syslog, when the use of
# snapshot exceedes 80%. The warning is repeated when 85%, 90% and
# 95% of the snapshot are filled.
snapshot_library = "libdevmapper-event-lvm2snapshot.so"
}
부록 C. LVM 객체 태그
LVM 태그는 같은 유형의 LVM2 객체를 모으는데 사용될 수 있는 문자입니다. 태그는 물리 볼륨, 볼륨 그룹, 논리 볼륨과 같은 객체에 부착될 수 있습니다. 클러스터 설정에서 호스트에 태그를 부착할 수 도 있습니다. 스냅샷은 태그될 수 없습니다.
PV, VG, LV 인수에 있는 명령행에 태그할 수 있습니다. 태그는 @를 앞자리에 두어 명확하게 합니다. 각각의 태그는 명령행에 있는 태그의 위치에 따라 유형을 알 수 있는 태그를 태그가 있는 모든 객체로 대체하여 확장됩니다.
LVM 태그는 최대 128 개의 [A-Za-z0-9_+.-] 문자로된 문자열로 하이픈으로 시작될 수 없습니다.
볼륨 그룹에 있는 객체만이 태그될 수 있습니다. 물리 볼륨이 볼륨 그룹에서 삭제될 경우 태그도 삭제됩니다; 이는 볼륨 그룹 메타데이터의 부분으로 태그가 저장되므로 물리 볼륨이 삭제될 경우 태그가 삭제되는 것입니다. 스냅샷은 태그될 수 없습니다.
다음의 명령으로
database
태그로된 모든 논리 볼륨을 나열합니다.
lvs @database
C.1. 객체 태그 추가 및 삭제
물리 볼륨에서 태그를 추가 또는 삭제하려면
pvchange
명령의 --addtag
또는 --deltag
옵션을 사용합니다.
볼륨 그룹에서 태그를 추가 또는 삭제하려면
vgchange
또는 vgcreate
명령의 --addtag
또는 --deltag
옵션을 사용합니다.
논리 볼륨에서 태그를 추가 또는 삭제하려면
lvchange
또는 lvcreate
명령의 --addtag
또는 --deltag
옵션을 사용합니다.
C.2. 호스트 태그
In a cluster configuration, you can define host tags in the configuration files. If you set
hosttags = 1
in the tags
section, a host tag is automatically defined using the machine's hostname. This allow you to use a common configuration file which can be replicated on all your machines so they hold identical copies of the file, but the behavior can differ between machines according to the hostname.
For information on the configuration files, see 부록 B. LVM 설정 파일 .
각각의 호스트 태그의 경우, 추가 설정 파일이 있을 경우 이를 읽어 옵니다: lvm_hosttag.conf. 이러한 파일이 새로운 태그를 지정한 경우, 읽어올 추가 설정 파일이 파일 목록에 첨가됩니다.
예를 들어, 다음과 같이 설정 파일에 있는 항목은 항상
tag1
로 지정되고, 호스트명이 host1
으로 지정되어 있을 경우 tag2
로 지정됩니다.
tags { tag1 { } tag2 { host_list = ["host1"] } }
C.3. 태그로 활성화 관리
해당 호스트에서 활성화되어야 하는 특정 논리 볼륨에 대한 설정 파일을 지정할 수 있습니다. 예를 들어, 다음과 같은 항목이 활성화 요청 (예:
vgchange -ay
)에 대해 필터로 작동하면 해당 호스트 상의 메타 데이터에 있는 database
태그로 된 vg1/lvol0
, 모든 논리 볼륨, 볼륨 그룹만이 활성화됩니다.
activation { volume_list = ["vg1/lvol0", "@database" ] }
There is a special match "@*" that causes a match only if any metadata tag matches any host tag on that machine.
다른 예로 클러스터에 있는 모든 컴퓨터의 설정 파일에 다음과 같은 항목을 갖고 있다고 가정합시다:
tags { hosttags = 1 }
호스트에서
vg1/lvol2
만을 활성화하려면 다음을 실행합니다:
- 클러스터에 있는 아무 호스트에서
lvchange --addtag @db2 vg1/lvol2
명령을 실행합니다. lvchange -ay vg1/lvol2
명령을 실행합니다.
이는 볼륨 그룹 메타 데이터 안에 있는 호스트명을 저장하여야 해결될 수 있습니다.
부록 D. LVM 볼륨 그룹 메타데이터
볼륨 그룹의 설정 정보를 메타데이터라고 부릅니다. 기본값으로, 메타데이터의 동일 복사본은 볼륨 그룹 안의 모든 물리 볼륨에 있는 모든 메타데이터 영역에서 관리됩니다. LVM 볼륨 그룹 메타데이터는 ASCII로 저장됩니다.
볼륨 그룹에 여러 개의 물리 볼륨이 있을 경우, 여러 개의 메타 데이터 이중 복사본을 갖고 있는 것은 비효율적입니다.
pvcreate
명령의 --metadatacopies 0
옵션을 사용하여 메타 데이터 복사본 없이 물리 볼륨을 생성할 수 있습니다. 메타 데이터 복사본 수를 선택하면 물리 볼륨이 포함되며, 나중에 이를 변경할 수 없게 됩니다. 0 개의 복사본을 선택하면 설정 변경에서 보다 빠른 업데이트를 할 수 있습니다. (파일 시스템에 볼륨 그룹 메타 데이터를 저장하게 하는 고급 설정을 사용하지 않는 한) 항상 모든 볼륨 그룹에는 메타 데이터 영역과 함께 최소 하나의 물리 볼륨이 들어 있어야 함에 유의합니다. 차후에 볼륨 그룹을 나누고자 할 경우, 모든 볼륨 그룹에는 최소 하나의 메타 데이터 복사본이 있어야 합니다.
주요 메타 데이터는 ASCII에 저장됩니다. 메타 데이터 영역은 순환 버퍼입니다. 새 메타 데이터는 이전 메타 데이터에 추가되며 새 메타 데이터의 시작 포인터가 업데이트됩니다.
pvcreate
명령의 --metadatasize
. 옵션을 사용하여 메타 데이터 영역 크기를 지정할 수 있습니다. 여러 논리 볼륨 또는 물리 볼륨이 있는 볼륨 그룹의 경우 기본값 크기는 너무 작게 됩니다.
D.1. 물리 볼륨 레이블
기본값으로
pvcreate
명령은 두 번째 512 바이트 섹터에서 물리 볼륨 레이블을 둡니다. 다른 방법으로 물리 볼륨 레이블을 찾는 LVM 도구가 처음 4개의 섹터를 확인하므로 이러한 레이블을 처음 네 개의 섹터 중 아무곳에 둘 수 있습니다. 물리 볼륨 레이블은 LABELONE
문자열로 시작합니다.
물리 볼륨 레이블에는 다음과 같은 내용이 들어있습니다:
- 물리 볼륨 UUID
- 바이트 단위로 된 블록 장치 크기
- NULL로 종료되는 데이터 영역 위치 목록
- NULL로 종료되는 메타 데이터 영역 위치 목록
메타데이터 위치는 오프셋과 바이트 단위 크기로 저장됩니다. 레이블에 약 15 개의 여유 영역이 있지만, LVM 도구는 단일 데이터 영역 및 최대 두 개의 메타데이터 영역과 같이 3 개만을 사용합니다.
D.2. 메타데이터 컨텐츠
볼륨 그룹 메타데이터 컨텐츠:
- 생성 시기 및 방법에 관한 정보
- 볼륨 그룹에 관한 정보:
볼륨 그룹 정보에는 다음과 같은 사항이 포함되어 있습니다:
- 이름 및 고유 id
- 메타데이터가 업데이트될 때마다 증가하는 버전 번호
- 기타 속성: 읽기/쓰기? 크기 조정 가능?
- 물리 볼륨 및 논리 볼륨의 수에 대한 관리 제한
- 익스텐트 크기 (512 바이트로 지정된 섹터 단위)
- 볼륨 그룹을 만드는 물리 볼륨의 비순서 목록 각각은 다음과 같이 구성되어 있습니다 :
- 블록 장치를 지정하는데 사용되는 UUID
- 물리 볼륨의 할당 여부와 같은 속성
- (섹터에서) 물리 볼륨 안에 있는 첫 번째 익스텐트 시작에서 오프셋
- 익스텐트 수
- 논리 볼륨의 비순서 목록 각각은 다음과 같이 구성되어 있습니다
- 논리 볼륨 세그먼트의 순서 목록. 각각의 세그먼트에 대해 메타데이터에는 물리 볼륨 세그먼트나 논리 볼륨 세그먼트의 순서 목록에 적용되는 맵핑이 들어 있습니다.
D.3. 메타데이터의 예
다음은
myvg
라는 볼륨 그룹의 LVM 볼륨 그룹 메타데이터 예를 보여주고 있습니다.
# Generated by LVM2: Tue Jan 30 16:28:15 2007 contents = "Text Format Volume Group" version = 1 description = "Created *before* executing 'lvextend -L+5G /dev/myvg/mylv /dev/sdc'" creation_host = "tng3-1" # Linux tng3-1 2.6.18-8.el5 #1 SMP Fri Jan 26 14:15:21 EST 2007 i686 creation_time = 1170196095 # Tue Jan 30 16:28:15 2007 myvg { id = "0zd3UT-wbYT-lDHq-lMPs-EjoE-0o18-wL28X4" seqno = 3 status = ["RESIZEABLE", "READ", "WRITE"] extent_size = 8192 # 4 Megabytes max_lv = 0 max_pv = 0 physical_volumes { pv0 { id = "ZBW5qW-dXF2-0bGw-ZCad-2RlV-phwu-1c1RFt" device = "/dev/sda" # Hint only status = ["ALLOCATABLE"] dev_size = 35964301 # 17.1491 Gigabytes pe_start = 384 pe_count = 4390 # 17.1484 Gigabytes } pv1 { id = "ZHEZJW-MR64-D3QM-Rv7V-Hxsa-zU24-wztY19" device = "/dev/sdb" # Hint only status = ["ALLOCATABLE"] dev_size = 35964301 # 17.1491 Gigabytes pe_start = 384 pe_count = 4390 # 17.1484 Gigabytes } pv2 { id = "wCoG4p-55Ui-9tbp-VTEA-jO6s-RAVx-UREW0G" device = "/dev/sdc" # Hint only status = ["ALLOCATABLE"] dev_size = 35964301 # 17.1491 Gigabytes pe_start = 384 pe_count = 4390 # 17.1484 Gigabytes } pv3 { id = "hGlUwi-zsBg-39FF-do88-pHxY-8XA2-9WKIiA" device = "/dev/sdd" # Hint only status = ["ALLOCATABLE"] dev_size = 35964301 # 17.1491 Gigabytes pe_start = 384 pe_count = 4390 # 17.1484 Gigabytes } } logical_volumes { mylv { id = "GhUYSF-qVM3-rzQo-a6D2-o0aV-LQet-Ur9OF9" status = ["READ", "WRITE", "VISIBLE"] segment_count = 2 segment1 { start_extent = 0 extent_count = 1280 # 5 Gigabytes type = "striped" stripe_count = 1 # linear stripes = [ "pv0", 0 ] } segment2 { start_extent = 1280 extent_count = 1280 # 5 Gigabytes type = "striped" stripe_count = 1 # linear stripes = [ "pv1", 0 ] } } } }
부록 E. 개정 내역
고친 과정 | |||
---|---|---|---|
고침 3-6.400 | 2013-10-31 | Rüdiger Landmann | |
| |||
고침 3-6 | 2012-07-18 | Anthony Towns | |
| |||
고침 1.0-0 | Thu Jan 29 2009 | ||
|
색인
A
- activating logical volumes
- individual nodes, 클러스터에 있는 개별적 노드에서 논리 볼륨 활성화
- activating volume groups, 볼륨 그룹 활성화 및 비활성화
- individual nodes, 볼륨 그룹 활성화 및 비활성화
- local node only, 볼륨 그룹 활성화 및 비활성화
- administrative procedures, LVM 관리 개요
- allocation
- policy, 볼륨 그룹 생성
- preventing, 물리 볼륨에서 할당을 허용하지 않음
- archive file, 논리 볼륨 백업 , 볼륨 그룹 메타 데이터 백업
B
- backup
- file, 논리 볼륨 백업
- metadata, 논리 볼륨 백업 , 볼륨 그룹 메타 데이터 백업
- backup file, 볼륨 그룹 메타 데이터 백업
- block device
- scanning, 블록 장치 스캐닝
C
- cache file
- building, 캐시 파일 작성을 위해 볼륨 그룹에 해당하는 디스크 보기
- cluster environment, CLVM (Clustered Logical Volume Manager) , 클러스터에 LVM 볼륨 생성
- CLVM
- definition, CLVM (Clustered Logical Volume Manager)
- clvmd daemon, CLVM (Clustered Logical Volume Manager)
- command line units, CLI 명령 사용
- configuration examples, LVM 설정 예
- creating
- logical volume, 논리 볼륨 생성
- logical volume, example, 세 개의 디스크에 LVM 논리 볼륨 생성
- LVM volumes in a cluster, 클러스터에 LVM 볼륨 생성
- physical volumes, 물리 볼륨 생성
- striped logical volume, example, 스트라이프 (Striped) 논리 볼륨 생성
- volume group, clustered, 클러스터에서 볼륨 그룹 생성
- volume groups, 볼륨 그룹 생성
- creating LVM volumes
- overview, 논리 볼륨 생성에 관한 개요
D
- data relocation, online, 온라인 데이터 재배치
- deactivating volume groups, 볼륨 그룹 활성화 및 비활성화
- exclusive on one node, 볼륨 그룹 활성화 및 비활성화
- local node only, 볼륨 그룹 활성화 및 비활성화
- device numbers
- device path names, CLI 명령 사용
- device scan filters, 필터로 LVM 장치 스캔 제어
- device size, maximum, 볼륨 그룹 생성
- device special file directory, 볼륨 그룹 생성
- display
- sorting output, LVM 리포트 정렬
- displaying
F
- failed devices
- displaying, 실패한 장치에 있는 정보 보기
- feedback, 피드백
- file system
- growing on a logical volume, 논리 볼륨에 파일 시스템 늘리기
- filters, 필터로 LVM 장치 스캔 제어
G
- growing file system
- logical volume, 논리 볼륨에 파일 시스템 늘리기
H
- help display, CLI 명령 사용
I
- initializing
- Insufficient Free Extents message, 논리 볼륨에 대해 불충분한 여유 익스텐트
L
- linear logical volume
- converting to mirrored, 미러 볼륨 설정 변경
- creation, 선형 (Linear) 볼륨 생성
- definition, 선형 (Linear) 볼륨
- logging, 로깅
- logical volume
- administration, general, 논리 볼륨 관리
- changing parameters, 논리 볼륨 그룹의 매개 변수 변경
- creation, 논리 볼륨 생성
- creation example, 세 개의 디스크에 LVM 논리 볼륨 생성
- definition, 논리 볼륨 , LVM 논리적 볼륨
- displaying, 논리 볼륨 보기 , LVM 용 사용자 설정 리포트 , lvs 명령
- exclusive access, 클러스터에 있는 개별적 노드에서 논리 볼륨 활성화
- extending, 논리 볼륨 확장하기
- growing, 논리 볼륨 확장하기
- linear, 선형 (Linear) 볼륨 생성
- local access, 클러스터에 있는 개별적 노드에서 논리 볼륨 활성화
- lvs display arguments, lvs 명령
- mirrored, 미러 볼륨 생성
- reducing, 논리 볼륨 축소하기
- removing, 논리 볼륨 삭제
- renaming, 논리 볼륨 이름 변경
- resizing, 논리 볼륨 크기 조정
- shrinking, 논리 볼륨 축소하기
- snapshot, 스냅샷 볼륨 생성
- striped, 스트라이프 (striped) 볼륨 생성
- lvchange command, 논리 볼륨 그룹의 매개 변수 변경
- lvconvert command, 미러 볼륨 설정 변경
- lvcreate command, 논리 볼륨 생성
- lvdisplay command, 논리 볼륨 보기
- lvextend command, 논리 볼륨 확장하기
- LVM
- architecture overview, LVM 아키텍쳐 개요
- clustered, CLVM (Clustered Logical Volume Manager)
- components, LVM 아키텍쳐 개요 , LVM 구성 요소
- custom report format, LVM 용 사용자 설정 리포트
- directory structure, 볼륨 그룹 생성
- help, CLI 명령 사용
- history, LVM 아키텍쳐 개요
- label, 물리 볼륨
- logging, 로깅
- logical volume administration, 논리 볼륨 관리
- physical volume administration, 물리 볼륨 관리
- physical volume, definition, 물리 볼륨
- volume group, definition, 볼륨 그룹
- LVM1, LVM 아키텍쳐 개요
- LVM2, LVM 아키텍쳐 개요
- lvmdiskscan command, 블록 장치 스캐닝
- lvreduce command, 논리 볼륨 크기 조정 , 논리 볼륨 축소하기
- lvremove command, 논리 볼륨 삭제
- lvrename command, 논리 볼륨 이름 변경
- lvs command, LVM 용 사용자 설정 리포트 , lvs 명령
- display arguments, lvs 명령
- lvscan command, 논리 볼륨 보기
M
- man page display, CLI 명령 사용
- metadata
- backup, 논리 볼륨 백업 , 볼륨 그룹 메타 데이터 백업
- recovery, 물리 볼륨 메타 데이터 복구
- mirrored logical volume
- converting to linear, 미러 볼륨 설정 변경
- creation, 미러 볼륨 생성
- definition, 미러 (Mirrored) 논리 볼륨
- failure recovery, LVM 미러 장애 복구
- reconfiguration, 미러 볼륨 설정 변경
O
- online data relocation, 온라인 데이터 재배치
P
- partition type, setting, 파티션 유형 설정
- partitions
- multiple, 디스크에서 다중 파티션
- path names, CLI 명령 사용
- persistent device numbers, 영구 장치 번호
- physical extent
- preventing allocation, 물리 볼륨에서 할당을 허용하지 않음
- physical volume
- adding to a volume group, 볼륨 그룹에 물리 볼륨 추가
- administration, general, 물리 볼륨 관리
- creating, 물리 볼륨 생성
- definition, 물리 볼륨
- display, pvs 명령
- displaying, 물리 볼륨 보기 , LVM 용 사용자 설정 리포트
- illustration, LVM Physical Volume Layout
- initializing, 물리 볼륨 초기화
- layout, LVM Physical Volume Layout
- pvs display arguments, pvs 명령
- recovery, 손실된 물리 볼륨 대체
- removing, 물리 볼륨 삭제
- removing from volume group, 볼륨 그룹에서 물리 볼륨 삭제
- removing lost volume, 볼륨 그룹에서 손실된 물리 볼륨 제거
- resizing, 물리 볼륨 크기 조정
- pvdisplay command, 물리 볼륨 보기
- pvmove command, 온라인 데이터 재배치
- pvremove command, 물리 볼륨 삭제
- pvresize command, 물리 볼륨 크기 조정
- pvs command, LVM 용 사용자 설정 리포트
- display arguments, pvs 명령
- pvscan command, 물리 볼륨 보기
R
- removing
- disk from a logical volume, 논리 볼륨에서 디스크 삭제하기
- logical volume, 논리 볼륨 삭제
- physical volumes, 물리 볼륨 삭제
- renaming
- logical volume, 논리 볼륨 이름 변경
- volume group, 볼륨 그룹 이름 변경
- report format, LVM devices, LVM 용 사용자 설정 리포트
- resizing
- logical volume, 논리 볼륨 크기 조정
- physical volume, 물리 볼륨 크기 조정
S
- scanning
- block devices, 블록 장치 스캐닝
- scanning devices, filters, 필터로 LVM 장치 스캔 제어
- snapshot logical volume
- creation, 스냅샷 볼륨 생성
- snapshot volume
- definition, 스냅샷 볼륨
- striped logical volume
- creation, 스트라이프 (striped) 볼륨 생성
- creation example, 스트라이프 (Striped) 논리 볼륨 생성
- definition, 스트라이프 (Striped) 논리 볼륨
- extending, 스트라이프 볼륨 확장
- growing, 스트라이프 볼륨 확장
T
- troubleshooting, LVM 문제 해결
U
- units, command line, CLI 명령 사용
V
- verbose output, CLI 명령 사용
- vgcfbackup command, 볼륨 그룹 메타 데이터 백업
- vgcfrestore command, 볼륨 그룹 메타 데이터 백업
- vgchange command, 볼륨 그룹의 매개 변수 변경
- vgcreate command, 볼륨 그룹 생성 , 클러스터에서 볼륨 그룹 생성
- vgdisplay command, 볼륨 그룹 보기
- vgexport command, 다른 시스템으로 볼륨 그룹 이동
- vgextend command, 볼륨 그룹에 물리 볼륨 추가
- vgimport command, 다른 시스템으로 볼륨 그룹 이동
- vgmerge command, 볼륨 그룹 합치기
- vgmknodes command, 볼륨 그룹 디렉토리 재생성
- vgreduce command, 볼륨 그룹에서 물리 볼륨 삭제
- vgrename command, 볼륨 그룹 이름 변경
- vgs command, LVM 용 사용자 설정 리포트
- display arguments, vgs 명령
- vgscan command, 캐시 파일 작성을 위해 볼륨 그룹에 해당하는 디스크 보기
- vgsplit command, 볼륨 그룹 나누기
- volume group
- activating, 볼륨 그룹 활성화 및 비활성화
- administration, general, 볼륨 그룹 관리
- changing parameters, 볼륨 그룹의 매개 변수 변경
- combining, 볼륨 그룹 합치기
- creating, 볼륨 그룹 생성
- creating in a cluster, 클러스터에서 볼륨 그룹 생성
- deactivating, 볼륨 그룹 활성화 및 비활성화
- definition, 볼륨 그룹
- displaying, 볼륨 그룹 보기 , LVM 용 사용자 설정 리포트 , vgs 명령
- extending, 볼륨 그룹에 물리 볼륨 추가
- growing, 볼륨 그룹에 물리 볼륨 추가
- merging, 볼륨 그룹 합치기
- moving between systems, 다른 시스템으로 볼륨 그룹 이동
- reducing, 볼륨 그룹에서 물리 볼륨 삭제
- removing, 볼륨 그룹 삭제
- renaming, 볼륨 그룹 이름 변경
- shrinking, 볼륨 그룹에서 물리 볼륨 삭제
- splitting, 볼륨 그룹 나누기
- example procedure, 볼륨 그룹 나누기
- vgs display arguments, vgs 명령
법적 공지
Copyright © 2009 Red Hat Inc..
This document is licensed by Red Hat under the Creative Commons Attribution-ShareAlike 3.0 Unported License. If you distribute this document, or a modified version of it, you must provide attribution to Red Hat, Inc. and provide a link to the original. If the document is modified, all Red Hat trademarks must be removed.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat Software Collections is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.