7.7. 파일 시스템 및 스토리지

백업을 복원하는 동안 xfsrestore 명령이 올바르게 작동합니다.

이전 버전에서는 xfsdump 명령을 사용하여 생성된 백업을 복원하는 동안 xfsrestore 에서 고립 디렉토리를 생성했습니다. 그 결과 다음과 같은 메시지가 있는 생성된 고립 디렉터리로 몇 개의 파일이 이동되었습니다.

 # xfsdump -L test -M test -f /scratch.dmp /mnt/test
 ...
 xfsdump: NOTE: root ino 128 differs from mount dir ino 1024, bind mount?
 ...
 xfsdump: Dump Status: SUCCESS

 # xfsrestore -f /scratch.dmp /mnt/restore/
 ...
 xfsrestore: restoring non-directory files
 xfsrestore: NOTE: ino 128 salvaging file, placing in orphanage/1024.0/dir17/file60
 xfsrestore: NOTE: ino 129 salvaging file, placing in orphanage/1024.0/dir17/file61
 xfsrestore: NOTE: ino 130 salvaging file, placing in orphanage/1024.0/dir17/file62
 xfsrestore: NOTE: ino 131 salvaging file, placing in orphanage/1024.0/dir17/file63
 xfsrestore: NOTE: ino 132 salvaging file, placing in orphanage/1024.0/dir17/file64
 xfsrestore: NOTE: ino 133 salvaging file, placing in orphanage/1024.0/dir17/file65
 xfsrestore: NOTE: ino 134 salvaging file, placing in orphanage/1024.0/dir17/file66
 ...

이번 업데이트를 통해 문제가 수정되었으며 xfsrestore 가 올바르게 작동합니다.

(BZ#2020494)

multipathd.socket 유닛 파일은 너무 많은 시작 시도 후 multipathd 를 비활성화하지 않습니다.

이전 버전에서는 multipath.service 유닛 파일의 다중 경로 시작 조건이 multipathd.socket 의 트리거 조건과 달랐습니다. 결과적으로 단위 파일은 다중 경로 파일을 반복적으로 시작하려고 시도하여 실패했습니다. 이로 인해 너무 많은 시도에 실패한 후 multipathd 가 비활성화됩니다. 이번 수정으로 multipathd.socketmultipathd.service 의 시작 조건이 동일한 값으로 설정되었습니다. 결과적으로 multipathd.socket 유닛 파일은 더 이상 multipathd.service 의 시작 조건이 충족되지 않는 multipathd를 시작하지 않습니다.

(BZ#2008101)

보호 uevents가 더 이상 다중 경로 장치의 다시 로드 실패를 유발하지 않음

이전에는 읽기 전용 경로 장치를 다시 스캔할 때 커널은 두 개의 쓰기 보호 uevents를 전송했습니다. 하나는 읽기/쓰기 로 설정된 장치와 함께 다음과 같이 읽기 전용으로 설정된 장치입니다. 결과적으로 경로 장치에서 읽기/쓰기 uevent를 탐지하면 multipathd 가 다중 경로 장치를 다시 로드하려고 시도하여 다시 로드 오류 메시지가 발생했습니다. 이번 업데이트를 통해 이제 장치 읽기/쓰기를 다시 로드하기 전에 multipathd 가 모든 경로가 읽기/쓰기 로 설정되어 있는지 확인합니다. 결과적으로 multipathd 는 읽기 전용 장치를 다시 검사할 때마다 읽기/쓰기 를 다시 로드하지 않습니다.

(BZ#2009624)