Red Hat Training
A Red Hat training course is available for RHEL 8
기본 시스템 설정 구성
Red Hat Enterprise Linux 8의 기본 시스템 설정 구성 가이드
초록
보다 포괄적 수용을 위한 오픈 소스 용어 교체
Red Hat은 코드, 문서 및 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 먼저 마스터(master), 슬레이브(slave), 블랙리스트(blacklist), 화이트리스트(whitelist) 등 네 가지 용어를 교체하고 있습니다. 이러한 변경 작업은 작업 범위가 크므로 향후 여러 릴리스에 걸쳐 점차 구현할 예정입니다. 자세한 내용은 CTO Chris Wright의 메시지를 참조하십시오.
Red Hat 문서에 관한 피드백 제공
문서에 대한 피드백에 감사드립니다. 어떻게 개선할 수 있는지 알려주십시오.
특정 문구에 대한 의견 제출
- Multi-page HTML 형식으로 설명서를 보고 페이지가 완전히 로드된 후 오른쪽 상단 모서리에 피드백 버튼이 표시되는지 확인합니다.
- 커서를 사용하여 주석 처리할 텍스트 부분을 강조 표시합니다.
- 강조 표시된 텍스트 옆에 표시되는 피드백 추가 버튼을 클릭합니다.
- 의견을 추가하고 제출 을 클릭합니다.
Bugzilla를 통해 피드백 제출(등록 필요)
- Bugzilla 웹 사이트에 로그인합니다.
- 버전 메뉴에서 올바른 버전을 선택합니다.
- Summary (요약) 필드에 설명 제목을 입력합니다.
- Description (설명) 필드에 개선을 위한 제안을 입력합니다. 문서의 관련 부분에 대한 링크를 포함합니다.
- Submit Bug를 클릭하십시오.
1장. RHEL 시스템 역할을 사용하도록 제어 노드 및 관리형 노드 준비
개별 RHEL 시스템 역할을 사용하여 서비스 및 설정을 관리하려면 관련 호스트를 준비합니다.
1.1. RHEL 시스템 역할 소개
RHEL 시스템 역할은 Ansible 역할 및 모듈의 컬렉션입니다. RHEL 시스템 역할은 여러 RHEL 시스템을 원격으로 관리하는 구성 인터페이스를 제공합니다. 이 인터페이스를 사용하면 여러 버전의 RHEL에서 시스템 구성을 관리하고 새 주요 릴리스를 채택할 수 있습니다.
Red Hat Enterprise Linux 8에서 인터페이스는 현재 다음 역할로 구성됩니다.
-
Certificate Issuance and Renewal (
인증서
) -
Cockpit(
cockpit
) -
firewalld(
방화벽
) -
HA 클러스터(
ha_cluster
) -
커널 덤프(
kdump
) -
커널 설정(
kernel_settings
) -
로깅(
로깅
) -
메트릭 (PCP)
-
Microsoft SQL Server (
microsoft.sql.server
) -
네트워킹(
네트워크
) -
Network Bound Disk Encryption 클라이언트 및 네트워크 Bound Disk Encryption 서버(
nbde_client
및nbde_server
) -
Postfix(
postfix
) -
SELinux(
selinux
) -
SSH 클라이언트(
ssh
) -
SSH 서버(
sshd
) -
스토리지(
스토리지
) -
터미널 세션 레코드( tlog
)
-
시간 동기화(
timesync
) -
VPN(
vpn
)
이러한 모든 역할은 AppStream
리포지토리에서 사용할 수 있는 rhel-system-roles
패키지에서 제공합니다.
추가 리소스
- RHEL (Red Hat Enterprise Linux) 시스템 역할
-
rhel-system-roles 패키지에서 제공하는 /usr/share/doc
/rhel-system-roles
/
1.2. RHEL 시스템 역할 용어
이 문서에서는 다음 용어를 찾을 수 있습니다.
- Ansible 플레이북
- 플레이북은 Ansible의 구성, 배포 및 오케스트레이션 언어입니다. 원격 시스템이 강제 적용하려는 정책 또는 일반적인 IT 프로세스의 단계 집합을 설명할 수 있습니다.
- 제어 노드
- Ansible이 설치된 모든 시스템. 모든 제어 노드에서 /usr/bin/ansible 또는 /usr/bin/ansible-playbook을 호출하여 명령과 플레이북을 실행할 수 있습니다. Python이 제어 노드로 설치된 컴퓨터를 사용할 수 있습니다. 노트북, 공유 데스크탑 및 서버는 모두 Ansible을 실행할 수 있습니다. 그러나 Windows 머신을 제어 노드로 사용할 수는 없습니다. 여러 제어 노드가 있을 수 있습니다.
- 인벤토리
- 관리형 노드 목록. 인벤토리 파일을 "hostfile"이라고도 합니다. 인벤토리는 각 관리 노드의 IP 주소와 같은 정보를 지정할 수 있습니다. 인벤토리는 쉽게 확장하기 위해 관리 노드, 생성 및 중첩 그룹을 구성할 수도 있습니다. 인벤토리에 대한 자세한 내용은 인벤토리 작업 섹션을 참조하십시오.
- 관리형 노드
- Ansible을 사용하여 관리하는 네트워크 장치, 서버 또는 둘 다입니다. 관리되는 노드를 "호스트"라고도 합니다. Ansible은 관리 노드에 설치되지 않습니다.
1.3. 제어 노드 준비
RHEL은 제한된 지원 범위와 함께 AppStream
리포지토리에 Ansible Core
를 포함합니다. Ansible에 대한 추가 지원이 필요한 경우 Red Hat에 문의하여 Ansible Automation Platform
서브스크립션에 대해 자세히 알아보십시오.
RHEL 8.6 이상에서는 Red Hat Ansible Automation Platform
서브스크립션이 없는 경우 Ansible Core
를 사용합니다. ansible-2-for-rhel-8-x86_64-rpms
리포지토리에서 Ansible Engine
을 설치하지 마십시오. 이 리포지토리의 패키지는 RHEL 8.6 이상에서 Ansible 자동화 콘텐츠와 호환되지 않을 수 있습니다. 또한 Red Hat은 RHEL과 동일한 기간 동안 Ansible Engine
의 보안 업데이트 및 버그 수정을 제공하지 않습니다. 자세한 내용은 RHEL 8.6 이상에서 Ansible 사용을 참조하십시오.
사전 요구 사항
- RHEL 8.6 이상이 설치되어 있어야 합니다.
- 시스템을 고객 포털에 등록하셨습니다.
-
Red Hat Enterprise Linux Server
서브스크립션을 시스템에 연결하셨습니다. -
고객 포털 계정에서 사용 가능한 경우
Ansible Automation Platform
서브스크립션을 시스템에 연결합니다.
절차
rhel-system-roles
패키지를 설치합니다.[root@control-node]# yum install rhel-system-roles
이 명령은
Ansible Core
를 종속성으로 설치합니다.나중에 플레이북을 관리하고 실행하는 데 사용하는 사용자를 생성합니다.
[root@control-node]# useradd ansible
새로 생성된
ansible
사용자로 전환합니다.[root@control-node]# su - ansible
이 사용자로 나머지 절차를 수행합니다.
SSH 공개 및 개인 키 생성
[ansible@control-node]$ ssh-keygen Generating public/private rsa key pair. Enter file in which to save the key (/home/ansible/.ssh/id_rsa): password ...
키 파일에 제안된 기본 위치를 사용합니다.
- 선택 사항: 연결을 설정할 때마다 Ansible에서 SSH 키 암호를 요청하는 메시지를 표시하지 않도록 SSH 에이전트를 구성합니다.
다음 콘텐츠를 사용하여
~/.ansible.cfg
파일을 생성합니다.[defaults] inventory = /home/ansible/inventory remote_user = ansible [privilege_escalation] become = True become_method = sudo become_user = root become_ask_pass = True
이러한 설정을 사용하여 다음을 수행합니다.
- Ansible은 지정된 인벤토리 파일에서 호스트를 관리합니다.
-
Ansible은 관리 노드에 SSH 연결을 설정할 때
remote_user
매개변수에 설정된 계정을 사용합니다. Ansible은
sudo
유틸리티를 사용하여 관리 노드에서root
사용자로 작업을 실행합니다.보안상의 이유로 관리 노드에서
sudo
를 구성하여root
가 되도록 원격 사용자의 암호를 입력해야 합니다.~/.ansible.cfg
에서become_ask_pass=True
설정을 지정하면 Ansible에서 플레이북을 실행할 때 이 암호를 묻는 메시지를 표시합니다.
~/.ansible.cfg
파일의 설정은 우선 순위가 높으며 전역/etc/ansible/ansible.cfg
파일의 설정을 재정의합니다.~/inventory
파일을 만듭니다. 예를 들어 다음은 3개의 호스트와US
라는 호스트 그룹 1개가 있는 INI 형식의 인벤토리 파일입니다.managed-node-01.example.com [US] managed-node-02.example.com ansible_host=192.0.2.100 managed-node-03.example.com
제어 노드에서 호스트 이름을 확인할 수 있어야 합니다. DNS 서버가 특정 호스트 이름을 확인할 수 없는 경우 호스트 항목 옆에 있는
ansible_host
매개변수를 추가하여 IP 주소를 지정합니다.
1.4. 관리형 노드 준비
Ansible은 관리 호스트에서 에이전트를 사용하지 않습니다. 유일한 요구 사항은 RHEL에 기본적으로 설치되는 Python 및 관리 호스트에 대한 SSH 액세스입니다.
그러나 root
사용자로 직접 SSH 액세스는 보안 위험이 될 수 있습니다. 따라서 관리 노드를 준비할 때 이 노드에 로컬 사용자를 생성하고 sudo
정책을 구성합니다. 그런 다음 제어 노드에서 Ansible은 이 계정을 사용하여 관리 노드에 로그인하고, root
와 같은 다른 사용자로 플레이북을 실행할 수 있습니다.
사전 요구 사항
- 제어 노드를 준비합니다.
절차
사용자를 생성합니다.
[root@managed-node-01]# useradd ansible
나중에 제어 노드는 이 사용자를 사용하여 이 호스트에 대한 SSH 연결을 설정합니다.
암호를
ansible
사용자로 설정합니다.[root@managed-node-01]# passwd ansible Changing password for user ansible. New password: password Retype new password: password passwd: all authentication tokens updated successfully.
Ansible에서
sudo
를 사용하여 작업을root
사용자로 수행할 때 이 암호를 입력해야 합니다.관리 노드에
ansible
사용자의 SSH 공개 키를 설치합니다.제어 노드에
ansible
사용자로 로그인하고 SSH 공개 키를 관리 노드에 복사합니다.[ansible@control-node]$ ssh-copy-id managed-node-01.example.com /usr/bin/ssh-copy-id: INFO: Source of key(s) to be installed: "/home/ansible/.ssh/id_rsa.pub" The authenticity of host 'managed-node-01.example.com (192.0.2.100)' can't be established. ECDSA key fingerprint is SHA256:9bZ33GJNODK3zbNhybokN/6Mq7hu3vpBXDrCxe7NAvo. Are you sure you want to continue connecting (yes/no/[fingerprint])? yes /usr/bin/ssh-copy-id: INFO: attempting to log in with the new key(s), to filter out any that are already installed /usr/bin/ssh-copy-id: INFO: 1 key(s) remain to be installed -- if you are prompted now it is to install the new keys ansible@managed-node-01.example.com's password: password Number of key(s) added: 1 Now try logging into the machine, with: "ssh 'managed-node-01.example.com'" and check to make sure that only the key(s) you wanted were added.
제어 노드에서 원격으로 명령을 실행하여 SSH 연결을 확인합니다.
[ansible@control-node]$ ssh managed-node-01.example.com whoami ansible
ansible
사용자에 대한sudo
구성을 생성합니다.visudo
명령을 사용하여/etc/sudoers.d/ansible
파일을 생성하고 편집합니다.[root@managed-node-01]# visudo /etc/sudoers.d/ansible
일반 편집기에서
visudo
를 사용하면 이 유틸리티에서 기본 온전성 검사를 제공하고 파일을 설치하기 전에 구문 분석 오류를 점검할 수 있습니다./etc/sudoers.d/ansible
파일에 다음 내용을 입력합니다.ansible ALL=(ALL) NOPASSWD: ALL
이러한 설정은
ansible
사용자의 암호를 입력하지 않고 이 호스트의 모든 사용자 및 그룹으로 모든 명령을 실행할 수 있는 권한을ansible
사용자에게 부여합니다.
추가 리소스
- 제어 노드 준비
-
sudoers(5)
도움말 페이지
1.5. 제어 노드에서 관리형 노드로의 액세스 확인
제어 노드를 구성하고 관리형 노드를 준비한 후 Ansible이 관리 노드에 연결할 수 있는지 테스트합니다.
제어 노드에서 ansible
사용자로 다음 절차를 수행합니다.
사전 요구 사항
- 제어 노드 준비에 설명된 대로 제어 노드를 준비합니다.
- 관리 노드 준비에 설명된 대로 하나 이상의 관리형 노드를 준비합니다.
- 호스트 그룹에서 플레이북을 실행하려면 관리 노드가 제어 노드의 인벤토리 파일에 나열됩니다.
절차
Ansible
ping
모듈을 사용하여 모든 관리 호스트에서 명령을 실행할 수 있는지 확인합니다.[ansible@control-node]$ ansible all -m ping BECOME password: password managed-node-01.example.com | SUCCESS => { "ansible_facts": { "discovered_interpreter_python": "/usr/bin/python3" }, "changed": false, "ping": "pong" } ...
하드 코딩된
모든
호스트 그룹에는 인벤토리 파일에 나열된 모든 호스트가 동적으로 포함됩니다.Ansible
command
모듈을 사용하여 관리 호스트에서whoami
유틸리티를 실행합니다.[ansible@control-node]$ ansible managed-node-01.example.com -m command -a whoami BECOME password: password managed-node-01.example.com | CHANGED | rc=0 >> root
명령이
root
를 반환하는 경우 관리 노드에sudo
를 올바르게 구성하고 권한 에스컬레이션이 작동합니다.
2장. 기본 환경 설정 변경
기본 환경 설정 구성은 설치 프로세스의 일부입니다. 다음 섹션에서는 나중에 변경할 때 안내합니다. 환경의 기본 구성에는 다음이 포함됩니다.
- 날짜 및 시간
- 시스템 로케일
- 키보드 레이아웃
- 언어
2.1. 날짜 및 시간 설정
정확한 시간 유지는 여러 가지 이유로 중요합니다. Red Hat Enterprise Linux에서는 사용자 공간에서 데몬이 실행되는 NTP
프로토콜을 통해 시간 초과를 보장합니다. 사용자 공간 데몬은 커널에서 실행되는 시스템 시계를 업데이트합니다. 시스템 클록은 다양한 시계 소스를 사용하여 시간을 유지할 수 있습니다.
Red Hat Enterprise Linux 8은 chronyd
데몬을 사용하여 NTP
를 구현합니다.chronyd
는 chrony 패키지에서 사용할 수 있습니다. 자세한 내용은 chrony 제품군을 사용하여 NTP 구성을 참조하십시오.
2.1.1. 현재 날짜 및 시간 표시
현재 날짜와 시간을 표시하려면 다음 단계 중 하나를 사용합니다.
절차
date
명령을 입력합니다.$ date Mon Mar 30 16:02:59 CEST 2020
자세한 내용을 보려면
timedatectl
명령을 사용합니다.$ timedatectl Local time: Mon 2020-03-30 16:04:42 CEST Universal time: Mon 2020-03-30 14:04:42 UTC RTC time: Mon 2020-03-30 14:04:41 Time zone: Europe/Prague (CEST, +0200) System clock synchronized: yes NTP service: active RTC in local TZ: no
추가 리소스
- 웹 콘솔을 사용하여 시간 설정 구성
-
man date(1)
및man timedatectl(1)
2.2. 시스템 로케일 구성
시스템 전체 로케일 설정은 systemd
데몬이 조기 부팅할 때 읽어지는 /etc/locale.conf
파일에 저장됩니다. 개별 프로그램이나 개별 사용자가 재정의하지 않는 한 모든 서비스 또는 사용자는 /etc/locale.conf
에 구성된 로케일 설정을 상속합니다.
이 섹션에서는 시스템 로케일을 관리하는 방법을 설명합니다.
절차
사용 가능한 시스템 로케일 설정을 나열하려면 다음을 수행합니다.
$ localectl list-locales C.utf8 aa_DJ aa_DJ.iso88591 aa_DJ.utf8 ...
시스템 로케일 설정의 현재 상태를 표시하려면 다음을 수행합니다.
$ localectl status
기본 시스템 로케일 설정을 설정하거나 변경하려면
root
사용자로localectl set-locale
하위 명령을 사용합니다. 예를 들면 다음과 같습니다.# localectl set-locale LANG=en_US
추가 리소스
-
man localectl(1)
,man locale(7)
및man locale.conf(5)
2.3. 키보드 레이아웃 구성
키보드 레이아웃 설정은 텍스트 콘솔 및 그래픽 사용자 인터페이스에 사용되는 레이아웃을 제어합니다.
절차
사용 가능한 키 맵을 나열하려면 다음을 수행합니다.
$ localectl list-keymaps ANSI-dvorak al al-plisi amiga-de amiga-us ...
keymaps 설정의 현재 상태를 표시하려면 다음을 수행합니다.
$ localectl status ... VC Keymap: us ...
기본 시스템 키맵을 설정하거나 변경하려면 다음을 수행합니다. 예를 들면 다음과 같습니다.
# localectl set-keymap us
추가 리소스
-
man localectl(1)
,man locale(7)
및man locale.conf(5)
2.4. 데스크탑 GUI를 사용하여 언어 변경
이 섹션에서는 데스크탑 GUI를 사용하여 시스템 언어를 변경하는 방법을 설명합니다.
사전 요구 사항
- 필수 언어 패키지가 시스템에 설치되어 있습니다
절차
아이콘을 클릭하여
System(시스템) 메뉴에서
GNOME Control Center
(GNOME 제어 센터)를 엽니다.-
GNOME Control Center
(GNOME 제어 센터)의 왼쪽 수직 막대에서Region & Language
(국가 및 언어)를 선택합니다. Language(언어 ) 메뉴를 클릭합니다.
메뉴에서 필수 지역과 언어를 선택합니다.
지역 및 언어가 나열되지 않은 경우 아래로 스크롤하고 More (추가)를 클릭하여 사용 가능한 지역 및 언어 중에서 선택합니다.
- Done(완료)을 클릭합니다.
변경 사항을 적용하려면 Restart (다시 시작)를 클릭합니다.
일부 애플리케이션은 특정 언어를 지원하지 않습니다. 선택한 언어로 변환할 수 없는 애플리케이션 텍스트는 미국 영어로 유지됩니다.
추가 리소스
2.5. 추가 리소스
3장. 네트워크 액세스 구성 및 관리
이 섹션에서는 Red Hat Enterprise Linux에서 이더넷 연결을 추가하는 방법에 대한 다양한 옵션에 대해 설명합니다.
3.1. 그래픽 설치 모드에서 네트워크 및 호스트 이름 구성
다음 프로세스의 단계에 따라 네트워크 및 호스트 이름을 구성합니다.
절차
- Installation Summary (설치 요약) 창에서 Network and Host Name(네트워크 및 호스트 이름)을 클릭합니다.
왼쪽 창의 목록에서 인터페이스를 선택합니다. 세부 정보는 오른쪽 창에 표시됩니다.
참고-
영구적인 이름의 네트워크 장치를 식별하는 데 사용되는 네트워크 장치 이름 지정 표준 유형은
em1
및wl3sp0
입니다. 이러한 표준에 대한 자세한 내용은 네트워킹 구성 및 관리를 참조하십시오.
-
영구적인 이름의 네트워크 장치를 식별하는 데 사용되는 네트워크 장치 이름 지정 표준 유형은
ON/OFF(켜기/끄기) 스위치를 토글하여 선택한 인터페이스를 활성화하거나 비활성화합니다.
참고설치 프로그램은 로컬에서 액세스할 수 있는 인터페이스를 자동으로 감지하고 수동으로 추가하거나 제거할 수 없습니다.
- + 를 클릭하여 가상 네트워크 인터페이스를 추가합니다. 이 인터페이스 중 하나는 다음과 같습니다. 팀, 본딩, 브리지 또는 VLAN.
- 가상 인터페이스를 제거하려면 - 를 클릭합니다.
- Configure(구성 )를 클릭하여 기존 인터페이스(가상 및 물리적 모두)의 IP 주소, DNS 서버 또는 라우팅 구성과 같은 설정을 변경합니다.
Host Name(호스트 이름) 필드에 시스템의 호스트 이름을 입력합니다.
참고-
호스트 이름은 hostname.domainname 형식의 FQDN(정규화된 도메인 이름)이거나 도메인 이름이 없는 짧은 호스트 이름일 수 있습니다. 많은 네트워크에는 도메인 이름을 사용하여 연결된 시스템을 자동으로 제공하는 DHCP(Dynamic Host Configuration Protocol) 서비스가 있습니다. DHCP 서비스에서 도메인 이름을 이 시스템에 할당할 수 있도록 하려면 짧은 호스트 이름만 지정합니다.
localhost
값은 대상 시스템의 특정 정적 호스트 이름이 구성되지 않음을 의미하며, 설치된 시스템의 실제 호스트 이름은 네트워크 구성(예: DHCP 또는 DNS를 사용하는NetworkManager
)에서 구성됩니다. -
호스트 이름에는 영숫자 및
-
또는.
호스트 이름은-
및 로 시작하거나 종료할 수 없습니다.
-
호스트 이름은 hostname.domainname 형식의 FQDN(정규화된 도메인 이름)이거나 도메인 이름이 없는 짧은 호스트 이름일 수 있습니다. 많은 네트워크에는 도메인 이름을 사용하여 연결된 시스템을 자동으로 제공하는 DHCP(Dynamic Host Configuration Protocol) 서비스가 있습니다. DHCP 서비스에서 도메인 이름을 이 시스템에 할당할 수 있도록 하려면 짧은 호스트 이름만 지정합니다.
- Apply(적용 )를 클릭하여 설치 프로그램 환경에 호스트 이름을 적용합니다.
- 또는 Network and Hostname(네트워크 및 호스트 이름 ) 창에서 플레이버 옵션을 선택할 수 있습니다. 오른쪽 창에서 Select network (네트워크 선택)를 클릭하여 사용 가능한 연결을 선택하고 필요한 경우 암호를 입력하고 Done(완료)을 클릭합니다.
추가 리소스
3.2. nmcli를 사용하여 정적 이더넷 연결 구성
다음 절차에서는 nmcli
유틸리티를 사용하여 다음 설정으로 이더넷 연결을 추가하는 방법을 설명합니다.
-
정적 IPv4 주소 -
192.0.2.1
에/24
서브넷 마스크 -
정적 IPv6 주소 -
2001:db8:1::1
에/64
서브넷 마스크 -
IPv4 기본 게이트웨이 -
192.0.2.254
-
IPv6 기본 게이트웨이 -
2001:db8:1::fffe
-
IPv4 DNS 서버 -
192.0.2.200
-
IPv6 DNS 서버 -
2001:db8:1::ffbb
-
DNS 검색 도메인 -
example.com
절차
이더넷 연결에 대한 새 NetworkManager 연결 프로필을 추가합니다.
# nmcli connection add con-name Example-Connection ifname enp7s0 type ethernet
추가 단계는 생성한
Example-Connection
연결 프로필을 수정합니다.IPv4 주소를 설정합니다.
# nmcli connection modify Example-Connection ipv4.addresses 192.0.2.1/24
IPv6 주소를 설정합니다.
# nmcli connection modify Example-Connection ipv6.addresses 2001:db8:1::1/64
IPv4 및 IPv6 연결 방법을
manual
로 설정합니다.# nmcli connection modify Example-Connection ipv4.method manual # nmcli connection modify Example-Connection ipv6.method manual
IPv4 및 IPv6 기본 게이트웨이를 설정합니다.
# nmcli connection modify Example-Connection ipv4.gateway 192.0.2.254 # nmcli connection modify Example-Connection ipv6.gateway 2001:db8:1::fffe
IPv4 및 IPv6 DNS 서버 주소를 설정합니다.
# nmcli connection modify Example-Connection ipv4.dns "192.0.2.200" # nmcli connection modify Example-Connection ipv6.dns "2001:db8:1::ffbb"
여러 DNS 서버를 설정하려면 공백으로 구분되어 따옴표로 묶으십시오.
IPv4 및 IPv6 연결에 대한 DNS 검색 도메인을 설정합니다.
# nmcli connection modify Example-Connection ipv4.dns-search example.com # nmcli connection modify Example-Connection ipv6.dns-search example.com
연결 프로필을 활성화합니다.
# nmcli connection up Example-Connection Connection successfully activated (D-Bus active path: /org/freedesktop/NetworkManager/ActiveConnection/13)
검증 단계
장치 및 연결 상태를 표시합니다.
# nmcli device status DEVICE TYPE STATE CONNECTION enp7s0 ethernet connected Example-Connection
연결 프로필의 모든 설정을 표시하려면 다음을 수행합니다.
# nmcli connection show Example-Connection connection.id: Example-Connection connection.uuid: b6cdfa1c-e4ad-46e5-af8b-a75f06b79f76 connection.stable-id: -- connection.type: 802-3-ethernet connection.interface-name: enp7s0 ...
ping
유틸리티를 사용하여 이 호스트가 다른 호스트에 패킷을 보낼 수 있는지 확인합니다.동일한 서브넷의 IP 주소를 ping합니다.
IPv4의 경우:
# ping 192.0.2.3
IPv6의 경우:
# ping 2001:db8:1::2
명령이 실패하면 IP 및 서브넷 설정을 확인합니다.
원격 서브넷의 IP 주소를 ping합니다.
IPv4의 경우:
# ping 198.162.3.1
IPv6의 경우:
# ping 2001:db8:2::1
명령이 실패하면 기본 게이트웨이를 ping하여 설정을 확인합니다.
IPv4의 경우:
# ping 192.0.2.254
IPv6의 경우:
# ping 2001:db8:1::fff3
호스트
유틸리티를 사용하여 이름 확인이 작동하는지 확인합니다. 예를 들면 다음과 같습니다.# host client.example.com
명령이
시간 초과되었거나
경우와 같은 오류를 반환하는 경우 DNS 설정을 확인합니다.서버에 연결할
수 없는
문제 해결 단계
연결에 실패하거나 네트워크 인터페이스가 up 및 down 상태 간에 전환되는 경우:
- 네트워크 케이블이 호스트 및 스위치에 플러그인되어 있는지 확인합니다.
- 링크 실패가 이 호스트에만 있는지 또는 서버가 연결된 동일한 스위치에 연결된 다른 호스트에 있는지 확인합니다.
- 네트워크 케이블과 네트워크 인터페이스가 예상대로 작동하는지 확인합니다. 하드웨어 진단 단계를 수행하고 결함 케이블 및 네트워크 인터페이스 카드를 교체합니다.
- 디스크의 구성이 장치의 구성과 일치하지 않는 경우 NetworkManager를 시작하거나 다시 시작하면 장치 구성이 반영되는 메모리 내 연결이 생성됩니다. 자세한 내용과 이 문제를 방지하는 방법은 NetworkManager 서비스를 다시 시작한 후 NetworkManager에서 연결을 복제합니다.
추가 리소스
-
nm-settings(5)
,nmcli
및nmcli(1)
도움말 페이지 - 기본 게이트웨이를 제공하기 위해 특정 프로필을 사용하지 않도록 NetworkManager 구성
3.3. nmtui를 사용하여 동적 이더넷 연결 구성
nmtui 애플리케이션
은 NetworkManager에 대한 텍스트 기반 사용자 인터페이스를 제공합니다. nmtui를 사용하여
그래픽 인터페이스 없이 호스트에서 동적 IP 주소로 이더넷 연결을 구성할 수 있습니다.
nmtui
:
- 커서 키를 사용하여 이동합니다.
- 버튼을 선택하고 Enter 를 누릅니다.
- 스페이스 를 사용하여 확인란을 선택하고 선택 취소합니다.
절차
연결에 사용하려는 네트워크 장치 이름을 모르는 경우 사용 가능한 장치를 표시합니다.
# nmcli device status DEVICE TYPE STATE CONNECTION enp7s0 ethernet unavailable -- ...
nmtui
시작
:# nmtui
-
Edit a connection
(연결 편집)을 선택하고 Enter 를 누릅니다. -
Add
(추가) 버튼을 누릅니다. -
네트워크 유형 목록에서
이더넷
을 선택하고 Enter 를 누릅니다. - 선택 사항: 생성할 NetworkManager 프로필의 이름을 입력합니다.
-
네트워크 장치 이름을
장치
필드에 입력합니다. 확인
버튼을 눌러 새 연결을 생성하고 자동으로 활성화합니다.-
뒤
로 버튼을 눌러 기본 메뉴로 돌아갑니다. -
Quit
를 선택하고 Enter 를 눌러 nmtui 애플리케이션을종료
합니다.
검증
장치 및 연결 상태를 표시합니다.
# nmcli device status DEVICE TYPE STATE CONNECTION enp7s0 ethernet connected Example-Connection
연결 프로필의 모든 설정을 표시합니다.
# nmcli connection show Example-Connection connection.id: Example-Connection connection.uuid: b6cdfa1c-e4ad-46e5-af8b-a75f06b79f76 connection.stable-id: -- connection.type: 802-3-ethernet connection.interface-name: enp7s0 ...
3.4. nmtui를 사용하여 정적 이더넷 연결 구성
nmtui 애플리케이션
은 NetworkManager에 대한 텍스트 기반 사용자 인터페이스를 제공합니다. nmtui를 사용하여
그래픽 인터페이스 없이 호스트에서 정적 IP 주소로 이더넷 연결을 구성할 수 있습니다.
nmtui
:
- 커서 키를 사용하여 이동합니다.
- 버튼을 선택하고 Enter 를 누릅니다.
- 스페이스 를 사용하여 확인란을 선택하고 선택 취소합니다.
절차
연결에 사용하려는 네트워크 장치 이름을 모르는 경우 사용 가능한 장치를 표시합니다.
# nmcli device status DEVICE TYPE STATE CONNECTION enp7s0 ethernet unavailable -- ...
nmtui
시작
:# nmtui
-
Edit a connection
(연결 편집)을 선택하고 Enter 를 누릅니다. -
Add
(추가) 버튼을 누릅니다. -
네트워크 유형 목록에서
이더넷
을 선택하고 Enter 를 누릅니다. - 선택 사항: 생성할 NetworkManager 프로필의 이름을 입력합니다.
-
네트워크 장치 이름을
장치
필드에 입력합니다. IPv4 구성 및 IPv6
구성 영역에서 IPv4 및 IPv
6-
자동
버튼을 누르고 표시된 목록에서Manual
을 선택합니다. -
추가 필드를
표시
하도록 구성할 프로토콜 옆에 있는 표시 버튼을 누릅니다. Addresses
(Address) 옆에 있는Add
(추가) 버튼을 누르고 IP 주소 및 서브넷 마스크를 CIDR(Classless Inter-Domain Routing) 형식으로 입력합니다.서브넷 마스크를 지정하지 않으면 NetworkManager는 IPv4 주소에 대해
/32
서브넷 마스크를 설정하고 IPv6 주소에 대해/64
를 설정합니다.- 기본 게이트웨이의 주소를 입력합니다.
-
DNS 서버
옆에 있는Add
(추가) 버튼을 누르고 DNS 서버 주소를 입력합니다. -
Search domains
(검색 도메인) 옆에 있는Add
(추가) 버튼을 누르고 DNS 검색 도메인을 입력합니다.
그림 3.1. 고정 IP 주소 설정이 포함된 이더넷 연결 예
-
-
확인
버튼을 눌러 새 연결을 생성하고 자동으로 활성화합니다. -
뒤
로 버튼을 눌러 기본 메뉴로 돌아갑니다. -
Quit
를 선택하고 Enter 를 눌러 nmtui 애플리케이션을종료
합니다.
검증
장치 및 연결 상태를 표시합니다.
# nmcli device status DEVICE TYPE STATE CONNECTION enp7s0 ethernet connected Example-Connection
연결 프로필의 모든 설정을 표시합니다.
# nmcli connection show Example-Connection connection.id: Example-Connection connection.uuid: b6cdfa1c-e4ad-46e5-af8b-a75f06b79f76 connection.stable-id: -- connection.type: 802-3-ethernet connection.interface-name: enp7s0 ...
3.5. RHEL 웹 콘솔에서 네트워킹 관리
웹 콘솔에서 Networking (네트워킹) 메뉴를 사용하면 다음을 수행할 수 있습니다.
- 현재 수신 및 전송된 패킷을 표시하려면
- 사용 가능한 네트워크 인터페이스의 가장 중요한 특성을 표시
- 네트워킹 로그의 콘텐츠를 표시합니다.
- 다양한 유형의 네트워크 인터페이스를 추가하려면 (bond, team, bridge, VLAN)
그림 3.2. RHEL 웹 콘솔에서 네트워킹 관리

3.6. RHEL 시스템 역할을 사용하여 네트워킹 관리
네트워크
역할을 사용하여 여러 대상 머신에서 네트워킹 연결을 구성할 수 있습니다.
네트워크
역할을 사용하면 다음 유형의 인터페이스를 구성할 수 있습니다.
- 이더넷
- 브릿지
- 본딩됨
- VLAN
- MacVLAN
- InfiniBand
각 호스트에 필요한 네트워킹 연결은 network_connections
변수 내의 목록으로 제공됩니다.
네트워크 역할은 network
_connections
변수에 지정된 대로 타겟 시스템의 모든 연결 프로필을 업데이트하거나 생성합니다. 따라서 옵션이 시스템에만 있지만 network_connections 변수에 없는 경우 네트워크
역할은
지정된 프로필에서 옵션을 제거합니다.
다음 예제에서는 네트워크
역할을 적용하여 필수 매개 변수를 사용한 이더넷 연결이 있는지 확인하는 방법을 보여줍니다.
필수 매개 변수를 사용한 이더넷 연결을 설정하기 위해 네트워크 역할을 적용하는 예제
# SPDX-License-Identifier: BSD-3-Clause --- - hosts: network-test vars: network_connections: # Create one ethernet profile and activate it. # The profile uses automatic IP addressing # and is tied to the interface by MAC address. - name: prod1 state: up type: ethernet autoconnect: yes mac: "00:00:5e:00:53:00" mtu: 1450 roles: - rhel-system-roles.network
3.7. 추가 리소스
4장. 시스템 등록 및 서브스크립션 관리
서브스크립션은 운영 체제 자체를 포함하여 Red Hat Enterprise Linux에 설치된 제품을 다룹니다.
Red Hat Content Delivery Network 서브스크립션을 사용하여 다음을 추적할 수 있습니다.
- 등록된 시스템
- 시스템에 제품이 설치되어 있습니다
- 설치된 제품에 첨부된 서브스크립션
4.1. 설치 후 시스템 등록
설치 프로세스 중에 시스템을 등록하지 않은 경우 다음 절차에 따라 시스템을 등록하십시오.
사전 요구 사항
- Red Hat 고객 포털에서 유효한 사용자 계정.
- Red Hat 로그인 생성 페이지를 참조하십시오.
- RHEL 시스템용 활성 서브스크립션.
- 설치 프로세스에 대한 자세한 내용은 표준 RHEL 8 설치 수행을 참조하십시오.
절차
한 단계로 시스템을 등록하고 자동으로 서브스크립션합니다.
# subscription-manager register --username <username> --password <password> --auto-attach Registering to: subscription.rhsm.redhat.com:443/subscription The system has been registered with ID: 37to907c-ece6-49ea-9174-20b87ajk9ee7 The registered system name is: client1.idm.example.com Installed Product Current Status: Product Name: Red Hat Enterprise Linux for x86_64 Status: Subscribed
명령을 실행하면 Red Hat 고객 포털 사용자 이름과 암호를 입력하라는 메시지가 표시됩니다.
등록 프로세스가 실패하면 시스템을 특정 풀에 등록할 수 있습니다. 수행하는 방법에 대한 지침을 보려면 다음 단계를 따르십시오.
필요한 서브스크립션의 풀 ID를 확인합니다.
# subscription-manager list --available
이 명령은 Red Hat 계정에 사용 가능한 모든 서브스크립션을 표시합니다. 모든 서브스크립션에 대해 풀 ID를 포함하여 다양한 특성이 표시됩니다.
pool_id 를 이전 단계에서 확인한 풀 ID로 교체하여 시스템에 적절한 서브스크립션을 연결합니다.
# subscription-manager attach --pool=pool_id
Red Hat Insights에 시스템을 등록하려면 rhc connect
유틸리티를 사용할 수 있습니다. Red Hat 커넥터 설정을 참조하십시오.
4.2. 웹 콘솔에서 인증 정보로 서브스크립션 등록
다음 단계를 사용하여 RHEL 웹 콘솔을 사용하여 계정 자격 증명으로 새로 설치된 Red Hat Enterprise Linux를 등록합니다.
사전 요구 사항
Red Hat 고객 포털에서 유효한 사용자 계정.
Red Hat 로그인 생성 페이지를 참조하십시오.
- RHEL 시스템용 활성 서브스크립션.
절차
- RHEL 웹 콘솔에 로그인합니다. 자세한 내용은 웹 콘솔에 로그인을 참조하십시오.
개요 페이지의 Health filed에서 Not registered 경고를 클릭하거나 메인 메뉴에서 Subscriptions (서브스크립션)를 클릭하여 서브스크립션 정보를 페이지로 이동합니다.
.
Overview filed에서 Register 를 클릭합니다.
시스템 등록 대화 상자에서 계정 자격 증명을 사용하여 등록할 항목을 선택합니다.In the Register system dialog box, select that you want to register using your account credentials.
- 사용자 이름을 입력합니다.
- 암호를 입력합니다.
필요한 경우 조직의 이름 또는 ID를 입력합니다.
Red Hat 고객 포털에서 두 개 이상의 조직에 속해 있는 경우 조직 이름 또는 조직 ID를 추가해야 합니다. 조직 ID를 얻으려면 Red Hat 연락처로 이동하십시오.
- 시스템을 Red Hat Insights에 연결하지 않으려면 Insights 확인란을 선택 취소합니다.
- Register 버튼을 클릭합니다.
이제 Red Hat Enterprise Linux 시스템이 성공적으로 등록되었습니다.
4.3. GNOME에서 Red Hat 계정을 사용하여 시스템 등록
다음 절차의 단계에 따라 시스템을 Red Hat 계정에 등록하십시오.
사전 요구 사항
Red Hat 고객 포털에서 유효한 계정.
새 사용자 등록은 Create a Red Hat Login (Red Hat 로그인 만들기) 페이지를 참조하십시오.
절차
- 오른쪽 상단에서 액세스할 수 있는 시스템 메뉴로 이동하여 Settings (설정) 아이콘을 클릭합니다.
- Details → About (세부 정보 정보) 섹션에서 Register(등록 )를 클릭합니다.
- Registration Server (등록 서버)를 선택합니다.
- Red Hat 서버를 사용하지 않는 경우 URL 필드에 서버 주소를 입력합니다.
- 등록 유형 메뉴에서 Red Hat 계정을 선택합니다.
등록 정보 아래 :
- 로그인 필드에 Red Hat 계정 사용자 이름을 입력합니다.
- 암호 필드에 Red Hat 계정 암호를 입력합니다.
- Organization (조직) 필드에 조직 이름을 입력합니다.
- Register(등록 )를 클릭합니다.
4.4. GNOME에서 활성화 키를 사용하여 시스템 등록
이 절차의 단계에 따라 시스템을 활성화 키에 등록합니다. 조직 관리자로부터 활성화 키를 가져올 수 있습니다.
사전 요구 사항
활성화 키 또는 키.
새 활성화 키를 생성하려면 활성화 키 페이지를 참조하십시오.
절차
- 오른쪽 상단에서 액세스할 수 있는 시스템 메뉴로 이동하여 Settings (설정) 아이콘을 클릭합니다.
- Details → About (세부 정보 정보) 섹션에서 Register(등록 )를 클릭합니다.
- Registration Server (등록 서버)를 선택합니다.
- Red Hat 서버를 사용하지 않는 경우 사용자 지정된 서버의 URL 을 입력합니다.
- Registration Type(등록 유형 ) 메뉴에서 Activation Keys (활성화 키)를 선택합니다.
등록 정보 아래 :
활성화 키 입력.
여러 키를 쉼표(,)로 구분합니다.
- 조직 필드에 조직의 이름 또는 ID를 입력합니다.
- 레지스터를 클릭합니다.
4.5. 설치 프로그램 GUI를 사용하여 RHEL 8 등록
RHEL 설치 프로그램 GUI를 사용하여 새로 설치한 Red Hat Enterprise Linux 8을 등록하려면 다음 단계를 사용합니다.
사전 요구 사항
Red Hat 고객 포털에서 유효한 사용자 계정. Red Hat 로그인 생성 페이지를 참조하십시오.
사용자 계정에 적절한 인타이틀먼트가 있거나 계정이 Simple Content Access 모드에서 작동하는 경우 활성화 키를 제공하지 않고 사용자 이름 및 암호만 사용하여 등록할 수 있습니다.
- 유효한 활성화 키 및 조직 ID
절차
계정 또는 활성화 키 옵션을 사용하여 Red Hat 계정을 인증합니다.
Set System Purpose (시스템 용도 설정) 필드를 선택하고 드롭다운 메뉴에서 RHEL 8 설치에 대한 Role,SLA 및 Usage를 선택합니다.
현재 Red Hat Enterprise Linux 8 시스템이 성공적으로 등록되었습니다.
5장. 부팅 시 systemd 서비스 시작
시스템 관리자는 시스템에서 서비스가 시작되는 방식을 결정할 수 있습니다. 서비스 관리의 경우 systemctl
명령줄 유틸리티를 사용하여 systemd
시스템 및 서비스 관리자를 제어하거나 RHEL 웹 콘솔을 사용할 수 있습니다.
5.1. 서비스 활성화 또는 비활성화
시스템 관리자는 부팅 시 서비스를 활성화하거나 비활성화할 수 있으며 이러한 변경 사항은 다음 재부팅 시 적용됩니다. 부팅 시 자동으로 서비스를 시작하려면 이 서비스를 활성화해야 합니다. 서비스를 비활성화하면 부팅 시 시작되지 않지만 수동으로 시작할 수 있습니다. 수동으로 시작할 수 없도록 서비스를 마스킹할 수도 있습니다. 마스킹은 서비스를 다시 마스크 해제할 때까지 영구적으로 사용할 수 없게 하는 서비스를 비활성화하는 방법입니다.
사전 요구 사항
- 시스템에 대한 루트 액세스 권한이 있어야 합니다.
사용하려는 서비스는 마스킹할 수 없습니다. 마스킹된 서비스가 있는 경우 먼저 마스킹을 해제해야 합니다.
# systemctl unmask service_name
절차
부팅 시 시작할 서비스를 활성화합니다.
# systemctl enable service_name
service_name 을 활성화하려는 서비스로 교체합니다.
또한 단일 명령으로 서비스를 활성화하고 시작할 수도 있습니다.
# systemctl enable --now service_name
부팅 시 시작할 서비스를 비활성화합니다.
# systemctl disable service_name
service_name 을 비활성화하려는 서비스로 바꿉니다.
서비스를 영구적으로 사용할 수 없게 하려면 서비스를 마스크하십시오.
# systemctl mask service_name
5.2. RHEL 웹 콘솔에서 서비스 관리
RHEL 웹 콘솔을 사용하여 부팅 시 서비스를 활성화 또는 비활성화할 수 있습니다. 웹 콘솔에서 서비스 상태를 확인하거나, 서비스를 시작 또는 중지하거나, 마스킹할 수도 있습니다.
사전 요구 사항
- 시스템에 대한 루트 액세스 권한이 있어야 합니다.
- 웹 콘솔을 설치하고 활성화했습니다.
절차
-
기본 설정의 웹 브라우저에서
localhost:9090
을 엽니다. - 시스템에서 루트 자격 증명을 사용하여 웹 콘솔에 로그인합니다.
웹 콘솔 패널을 표시하려면 창의 왼쪽 상단에 있는
Host
(호스트) 아이콘을 클릭합니다.메뉴에서 Services (서비스)를 클릭합니다.
systemd 대상, 서비스, 소켓, 타이머 및 경로를 관리할 수 있습니다.
예를 들어 서비스 NFS 클라이언트 서비스를 관리하려면 다음을 수행합니다.
- Targets(대상) 를 클릭합니다.
- 서비스 NFS 클라이언트 서비스를 선택합니다.
- 서비스를 활성화하거나 비활성화하려면 Toogle 버튼을 클릭합니다.
서비스를 중지하려면 UTC 버튼을 클릭하고 Stop (중지) 옵션을 선택합니다.
6장. 시스템 보안 구성
컴퓨터 보안은 컴퓨터 시스템과 하드웨어, 소프트웨어, 정보 및 서비스의 도난, 손상, 중단 및 오작동으로부터 보호하는 것입니다. 특히 중요한 데이터를 처리하고 비즈니스 트랜잭션을 처리하는 기업에서 컴퓨터 보안이 필수적인 작업인지 확인합니다.
이 섹션에서는 운영 체제를 설치한 후 구성할 수 있는 기본 보안 기능만 설명합니다.
6.1. firewalld 서비스 활성화
방화벽은 구성된 보안 규칙에 따라 들어오고 나가는 네트워크 트래픽을 모니터링하고 제어하는 네트워크 보안 시스템입니다. 방화벽은 일반적으로 신뢰할 수 있는 안전한 내부 네트워크와 다른 외부 네트워크 간의 장벽을 설정합니다.
Red Hat Enterprise Linux에서 방화벽을 제공하는 firewalld
서비스는 설치 중에 자동으로 활성화됩니다.
firewalld
서비스를 활성화하려면 다음 절차를 따르십시오.
절차
firewalld
의 현재 상태를 표시합니다 :$ systemctl status firewalld ● firewalld.service - firewalld - dynamic firewall daemon Loaded: loaded (/usr/lib/systemd/system/firewalld.service; disabled; vendor preset: enabled) Active: inactive (dead) ...
firewalld
가 활성화되어 실행되고 있지 않으면root
사용자로 전환하고firewalld
서비스를 시작하고 시스템이 다시 시작되면 자동으로 시작합니다.# systemctl enable --now firewalld
검증 단계
firewalld
가 실행 중이고 활성화되어 있는지 확인합니다.$ systemctl status firewalld ● firewalld.service - firewalld - dynamic firewall daemon Loaded: loaded (/usr/lib/systemd/system/firewalld.service; enabled; vendor preset: enabled) Active: active (running) ...
추가 리소스
- firewalld 사용 및 구성
-
man firewalld(1)
6.2. rhel 8 웹 콘솔에서 방화벽 관리
웹 콘솔에서 firewalld
서비스를 구성하려면 Networking → Firewall (방화벽) 로 이동합니다.
기본적으로 firewalld
서비스는 활성화됩니다.
절차
웹 콘솔에서
firewalld
를 활성화하거나 비활성화하려면 Firewall 토글 버튼을 전환합니다.
또한 Add services…를 사용하여 방화벽을 통해 서비스에 대한 보다 세밀한 액세스를 정의할 수 있습니다. 버튼.
6.3. 기본 SELinux 설정 관리
SELinux(Security-Enhanced Linux)는 어떤 프로세스가 어떤 파일, 디렉터리 및 포트에 액세스할 수 있는지를 결정하는 추가 시스템 보안 계층입니다. 이러한 권한은 SELinux 정책에 정의되어 있습니다. 정책은 SELinux 보안 엔진을 안내하는 규칙 집합입니다.
SELinux의 가능한 상태는 다음과 같습니다.
- 비활성화됨
- 활성화됨
SELinux가 활성화되면 다음 모드 중 하나로 실행됩니다.
활성화됨
- 강제
- 허용
강제 모드에서 SELinux는 로드된 정책을 적용합니다. SELinux는 SELinux 정책 규칙을 기반으로 액세스를 거부하고 명시적으로 허용되는 상호 작용만 활성화합니다. 강제 모드는 가장 안전한 SELinux 모드이며 설치 후 기본 모드입니다.
허용 모드에서 SELinux는 로드된 정책을 시행하지 않습니다. SELinux는 액세스를 거부하지 않지만 규칙을 /var/log/audit/audit.log
로그로 손상시키는 작업을 보고합니다. 허용 모드는 설치 중에 기본 모드입니다. 허용 모드는 특정 사례(예: 문제를 해결할 때 유용함)에서도 유용합니다.
추가 리소스
6.4. selinux의 필수 상태 확인
기본적으로 SELinux는 강제 모드에서 작동합니다. 그러나 특정 시나리오에서는 SELinux를 허용 모드로 설정하거나 비활성화할 수도 있습니다.
시스템을 강제 모드로 유지하는 것이 좋습니다. 디버깅을 위해 SELinux를 허용 모드로 설정할 수 있습니다.
시스템에서 SELinux의 상태와 모드를 변경하려면 다음 절차를 따르십시오.
절차
현재 SELinux 모드를 표시합니다.
$ getenforce
일시적으로 SELinux를 설정하려면 다음을 수행합니다.
강제 모드로 전환하려면 다음을 수행합니다.
# setenforce Enforcing
허용 모드로 전환하려면 다음을 수행합니다.
# setenforce Permissive
참고재부팅 후 SELinux 모드는
/etc/selinux/config
구성 파일에 지정된 값으로 설정됩니다.
재부팅 시 지속되도록 SELinux 모드를 설정하려면
/etc/selinux/config
구성 파일에서SELINUX
변수를 수정합니다.예를 들어 SELinux를 강제 모드로 전환하려면 다음을 수행합니다.
# This file controls the state of SELinux on the system. # SELINUX= can take one of these three values: # enforcing - SELinux security policy is enforced. # permissive - SELinux prints warnings instead of enforcing. # disabled - No SELinux policy is loaded. SELINUX=enforcing ...
주의SELinux를 비활성화하면 시스템 보안이 저하됩니다.
/etc/selinux/config
파일에서SELINUX=disabled
옵션을 사용하여 SELinux를 비활성화하면 메모리 누수 및 경쟁 조건이 발생하여 커널 패닉이 발생할 수 있기 때문입니다. 대신 커널 명령줄에selinux=0
매개 변수를 추가하여 SELinux를 비활성화합니다. 자세한 내용은 부팅 시 SELinux 모드 변경을 참조하십시오.
추가 리소스
6.5. RHEL 8 웹 콘솔에서 SELinux 모드 전환
SELinux 메뉴 항목의 RHEL 8 웹 콘솔을 통해 SELinux 모드를 설정할 수 있습니다.
기본적으로 웹 콘솔의 SELinux 강제 정책은 이며 SELinux는 강제 모드로 작동합니다. 이를 끄면 SELinux를 허용 모드로 전환합니다. 다음 부팅 시 /etc/sysconfig/selinux
파일에 정의된 구성으로 이 선택 사항이 자동으로 복원됩니다.
절차
웹 콘솔에서 SELinux 메뉴 항목에서 Enforce policy toggle(강제 정책 토글) 버튼을 사용하여 SELinux 강제 정책 켜거나 끕니다.
6.6. 추가 리소스
7장. 사용자 계정 관리 시작하기
Red Hat Enterprise Linux는 여러 컴퓨터의 여러 사용자가 하나의 시스템에 설치된 단일 시스템에 액세스할 수 있도록 하는 다중 사용자 운영 체제입니다. 모든 사용자는 자체 계정으로 작동하므로 사용자 계정을 관리하므로 Red Hat Enterprise Linux 시스템 관리의 핵심 요소가 됩니다.
다음은 다양한 유형의 사용자 계정입니다.
일반 사용자 계정:
특정 시스템의 사용자에 대한 일반 계정이 생성됩니다. 이러한 계정은 일반 시스템 관리 중에 추가, 제거 및 수정할 수 있습니다.
시스템 사용자 계정:
시스템 사용자 계정은 시스템의 특정 애플리케이션 식별자를 나타냅니다. 이러한 계정은 일반적으로 소프트웨어 설치 시에만 추가 또는 조작되며 나중에 수정되지 않습니다.
주의시스템 계정은 시스템에서 로컬로 사용할 수 있다고 가정합니다. LDAP 구성 인스턴스와 같이 이러한 계정을 원격으로 구성하고 제공되는 경우 시스템 중단 및 서비스 시작 오류가 발생할 수 있습니다.
시스템 계정의 경우 1000 미만의 사용자 ID가 예약됩니다. 일반 계정의 경우 1000부터 시작하는 ID를 사용할 수 있습니다. 그러나 5000에서 시작하는 ID를 할당하는 것이 좋습니다. ID를 할당하려면
/etc/login.defs
파일을 참조하십시오.그룹:
그룹은 특정 파일에 대한 액세스 권한 부여 등 공통 목적으로 여러 사용자 계정을 연결하는 엔터티입니다.
7.1. 명령줄 도구를 사용하여 계정 및 그룹 관리
이 섹션에서는 사용자 계정 및 그룹을 관리하는 기본 명령줄 툴에 대해 설명합니다.
사용자 및 그룹 ID를 표시하려면 다음을 수행합니다.
$ id uid=1000(example.user) gid=1000(example.user) groups=1000(example.user),10(wheel) context=unconfined_u:unconfined_r:unconfined_t:s0-s0:c0.c1023
새 사용자 계정을 생성하려면 다음을 수행합니다.
# useradd example.user
example.user에 속하는 사용자 계정에 새 암호를 할당하려면 다음을 수행합니다.
# passwd example.user
그룹에 사용자를 추가하려면 다음을 수행합니다.
# usermod -a -G example.group example.user
추가 리소스
-
man useradd(8)
,man passwd(1)
및man usermod(8)
7.2. 웹 콘솔에서 관리하는 시스템 사용자 계정
RHEL 웹 콘솔에 사용자 계정을 표시하면 다음을 수행할 수 있습니다.
- 시스템에 액세스할 때 사용자를 인증합니다.
- 시스템에 대한 액세스 권한을 설정합니다.
RHEL 웹 콘솔에는 시스템에 있는 모든 사용자 계정이 표시됩니다. 따라서 웹 콘솔에 처음 로그인한 직후 하나 이상의 사용자 계정을 볼 수 있습니다.
RHEL 웹 콘솔에 로그인한 후 다음 작업을 수행할 수 있습니다.
- 새 사용자 계정 생성.
- 매개 변수 변경.
- 계정 잠금.
- 사용자 세션 종료.
7.3. 웹 콘솔을 사용하여 새 계정 추가
다음 단계를 사용하여 시스템에 사용자 계정을 추가하고 RHEL 웹 콘솔을 통해 계정에 관리 권한을 설정합니다.
사전 요구 사항
- RHEL 웹 콘솔을 설치하고 액세스할 수 있어야 합니다. 자세한 내용은 웹 콘솔 설치를 참조하십시오.
절차
- RHEL 웹 콘솔에 로그인합니다.
- Accounts (계정)를 클릭합니다.
- Create New Account (새 계정 만들기)를 클릭합니다.
Full Name (전체 이름) 필드에 사용자의 전체 이름을 입력합니다.
RHEL 웹 콘솔은 전체 이름에서 사용자 이름을 자동으로 제안하고 User Name(사용자 이름 ) 필드에 채웁니다. 이름 및 전체 성의 첫 번째 문자로 구성된 원래 명명 규칙을 사용하지 않으려면 제안 사항을 업데이트합니다.
Password/Confirm (암호/확인) 필드에 암호를 입력하고 암호가 올바른지 확인하기 위해 암호를 다시 입력합니다.
필드에 저장된 색상 표시줄은 입력한 암호의 보안 수준을 나타내므로 암호가 취약한 사용자를 만들 수 없습니다.
- Create(만들기 )를 클릭하여 설정을 저장하고 대화 상자를 닫습니다.
- 새로 생성된 계정을 선택합니다.
Roles (역할) 항목에서 Server Administrator( 서버 관리자)를 선택합니다.
이제 계정 설정에서 새 계정을 볼 수 있으며 자격 증명을 사용하여 시스템에 연결할 수 있습니다.
8장. 나중에 분석을 위해 충돌한 커널 덤프
시스템이 충돌한 이유를 분석하기 위해 kdump
서비스를 사용하여 나중에 분석을 위해 시스템 메모리의 내용을 저장할 수 있습니다. 이 섹션에서는 kdump
에 대한 간략한 소개와 RHEL 웹 콘솔을 사용하여 kdump
를 구성하거나 해당 RHEL 시스템 역할을 사용하는 방법에 대한 정보를 제공합니다.
8.1. kdump란 무엇입니까?
kdump
는 크래시 덤프 메커니즘을 제공하는 서비스입니다. 이 서비스를 사용하면 분석을 위해 시스템 메모리의 내용을 저장할 수 있습니다. kdump
는 kexec
시스템 호출을 사용하여 재부팅하지 않고 두 번째 커널(커널 캡처 커널 )로 부팅한 다음 충돌 된 커널의 메모리 콘텐츠를 캡처하여 파일에 저장합니다. 두 번째 커널은 시스템 메모리의 예약된 부분에 상주합니다.
커널 크래시 덤프는 시스템 장애 발생 시(심각한 버그)에서 사용할 수 있는 유일한 정보일 수 있습니다. 따라서 운영 kdump
는 미션 크리티컬한 환경에서 중요합니다. Red Hat은 시스템 관리자가 일반 커널 업데이트 주기에서 kexec-tools
를 정기적으로 업데이트하고 테스트할 것을 권장합니다. 이는 새로운 커널 기능을 구현할 때 특히 중요합니다.
머신의 설치된 모든 커널 또는 지정된 커널에서만 kdump
를 활성화할 수 있습니다. 이 기능은 시스템에 사용된 커널이 여러 개 있을 때 유용하며 그 중 일부는 충돌할 수 있다는 우려가 없을 정도로 안정적입니다.
kdump
가 설치되면 기본 /etc/kdump.conf
파일이 생성됩니다. 파일에는 기본 최소 kdump
구성이 포함되어 있습니다. 이 파일을 편집하여 kdump
구성을 사용자 지정할 수 있지만 필수는 아닙니다.
8.2. 웹 콘솔에서 kdump 메모리 사용량 및 대상 위치 구성
아래 절차는 RHEL 웹 콘솔 인터페이스에서 Kernel Dump(커널 덤프
) 탭을 사용하여 kdump
커널에 대해 예약된 메모리 양을 구성하는 방법을 보여줍니다. 이 절차에서는 vmcore
덤프 파일의 대상 위치를 지정하는 방법과 구성을 테스트하는 방법을 설명합니다.
절차
-
Kernel Dump
탭을 열고kdump
서비스를 시작합니다. -
명령줄을 사용하여
kdump
메모리 사용량을 구성합니다. Crash dump 위치
옵션 옆에 있는 링크를 클릭합니다.드롭다운에서
Local Filesystem
옵션을 선택하고 덤프를 저장할 디렉터리를 지정합니다.또는 드롭다운에서
Remote over SSH
(SSH를 통한 원격) 옵션을 선택하여 SSH 프로토콜을 사용하여 vmcore를 원격 시스템으로 전송합니다.Server
,ssh 키
및디렉터리
필드를 원격 시스템 주소, ssh 키 위치 및 대상 디렉토리로 채웁니다.또 다른 선택 사항은 드롭다운에서
NFS를 통한 Remote
(원격) 옵션을 선택하고 NFS 프로토콜을 사용하여 vmcore를 원격 시스템으로 보내도록Mount
(마운트) 필드를 채우는 것입니다.참고압축
확인란을 선택하여 vmcore 파일의 크기를 줄입니다.
커널을 충돌하여 구성을 테스트합니다.
-
테스트 구성
을 클릭합니다. Test kdump 설정 필드에서
Crash 시스템을
클릭합니다.주의이 단계에서는 커널 실행을 중단하고 시스템이 충돌하고 데이터가 손실됩니다.
-
8.3. RHEL 시스템 역할을 사용하는 Kdump
RHEL 시스템 역할은 여러 RHEL 시스템을 원격으로 관리하는 일관된 구성 인터페이스를 제공하는 Ansible 역할 및 모듈 컬렉션입니다. kdump
역할을 사용하면 여러 시스템에서 기본 커널 덤프 매개 변수를 설정할 수 있습니다.
kdump
역할은 /etc/kdump.conf
파일을 대체하여 관리 호스트의 kdump
구성을 완전히 대체합니다. 또한 kdump
역할이 적용된 경우 /etc/sysconfig/kdump
파일을 대체하여 역할 변수로 지정하지 않아도 이전 kdump
설정도 교체됩니다.
다음 예제 플레이북은 kdump
시스템 역할을 적용하여 크래시 덤프 파일의 위치를 설정하는 방법을 보여줍니다.
--- - hosts: kdump-test vars: kdump_path: /var/crash roles: - rhel-system-roles.kdump
kdump
역할 변수에 대한 자세한 참조는 rhel-system-roles
패키지를 설치하고 /usr/share/doc/rhel-system-roles/kdump
디렉터리의
파일을 참조하십시오.
README.md
또는 README.html
추가 리소스
8.4. 추가 리소스
9장. 시스템 복구 및 복원
기존 백업을 사용하여 시스템을 복구하고 복원하기 위해 Red Hat Enterprise Linux는 Relax-and- recovery(ReaR) 유틸리티를 제공합니다.
유틸리티를 재해 복구 솔루션 및 시스템 마이그레이션에도 사용할 수 있습니다.
유틸리티를 사용하면 다음 작업을 수행할 수 있습니다.
- 이미지를 사용하여 부팅 가능한 이미지를 생성하고 기존 백업에서 시스템을 복원합니다.
- 원래 스토리지 레이아웃을 복제합니다.
- 사용자 및 시스템 파일을 복원합니다.
- 시스템을 다른 하드웨어로 복원합니다.
또한 재해 복구의 경우 특정 백업 소프트웨어를 ReaR과 통합할 수도 있습니다.
ReaR 설정에는 다음과 같은 고급 단계가 포함됩니다.
- ReaR 설치.
- ReaR 구성 파일을 수정하여 백업 방법 세부 정보를 추가합니다.
- 복구 시스템 생성.
- 백업 파일을 생성합니다.
9.1. ReaR 설정
다음 단계에 따라 Relax-and-Recover(ReaR) 유틸리티를 사용하는 패키지를 설치하고 복구 시스템을 생성하고 백업을 구성 및 생성합니다.
사전 요구 사항
백업 복원 계획에 따라 필요한 구성이 준비됩니다.
ReaR과 함께 완전히 통합된 기본 제공 방법인
NETFS
백업 방법을 사용할 수 있습니다.
절차
다음 명령을 실행하여 ReaR 유틸리티를 설치합니다.
# yum install rear
선택한 편집기에서 ReaR 구성 파일을 수정합니다. 예를 들면 다음과 같습니다.
# vi /etc/rear/local.conf
/etc/rear/local.conf
에 백업 설정 세부 정보를 추가합니다. 예를 들어NETFS
백업 방법의 경우 다음 행을 추가합니다.BACKUP=NETFS BACKUP_URL=backup.location
backup.location 을 백업 위치의 URL로 바꿉니다.
새 파일이 생성될 때 이전 백업 아카이브를 유지하도록 ReaR을 구성하려면 구성 파일에 다음 행도 추가합니다.
NETFS_KEEP_OLD_BACKUP_COPY=y
백업을 점진적으로 만들려면 각 실행에서 변경된 파일만 백업하려면 다음 행을 추가합니다.
BACKUP_TYPE=incremental
복구 시스템을 생성합니다.
# rear mkrescue
복원 계획에 따라 백업을 수행합니다. 예를 들어
NETFS
백업 방법의 경우 다음 명령을 실행합니다.# rear mkbackuponly
또는 다음 명령을 실행하여 단일 단계에서 복구 시스템 및 백업을 생성할 수 있습니다.
# rear mkbackup
이 명령은
rear mkrescue 및
명령의 기능을 결합합니다.rear mk
backuponly
9.2. 64비트 IBM Z 아키텍처에서 ReaR rescue 이미지 사용
Basic Relax and Recover (ReaR) 기능은 이제 64비트 IBM Z 아키텍처에서 기술 프리뷰로 제공됩니다. IBM Z에서 z/VM 환경에서만 복구 이미지를 생성할 수 있습니다. LPAR(Logical partitions) 백업 및 복구는 테스트되지 않았습니다.
64비트 IBM Z 아키텍처는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. Red Hat은 프로덕션 환경에서 사용하지 않는 것이 좋습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다. Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 https://access.redhat.com/support/offerings/techpreview 에서 참조하십시오.
현재 사용 가능한 출력 방법은 초기 프로그램 로드(IPL)입니다. IPL은 zIPL
부트로더와 함께 사용할 수 있는 커널 및 초기 램디스크(initrd)를 생성합니다.
사전 요구 사항
Rear가 설치되어 있습니다.
-
ReaR을 설치하려면
yum install rear
명령을 실행합니다.
-
ReaR을 설치하려면
절차
다음 변수를 /etc/rear/local.conf
에 추가하여 64비트 IBM Z 아키텍처에서 복구 이미지를 생성하도록 ReaR을 구성합니다.
-
IPL
출력 방법을 구성하려면OUTPUT=IPL
을 추가합니다. 백업 방법 및 대상을 구성하려면 RuntimeClass 및
octets
_URL
변수를 추가합니다. 예를 들면 다음과 같습니다.BACKUP=NETFS BACKUP_URL=nfs://<nfsserver name>/<share path>
중요로컬 백업 스토리지는 현재 64비트 IBM Z 아키텍처에서 지원되지 않습니다.
-
선택적으로 커널 및 initrd 파일을 저장할 수 있도록
OUTPUT_URL
변수를 구성할수도
있습니다. 기본적으로OUTPUT_URL
은 etcdctl_URL에맞게
조정됩니다. 백업 및 복구 이미지 생성을 수행하려면 다음을 수행합니다.
rear mkbackup
-
이렇게 하면 EgressIP
_URL 또는
(설정된 경우) 변수에서 지정한 위치에 커널 및 initrd 파일이 생성되고 지정된 백업 방법을 사용하여 백업을 생성합니다.OUTPUT_URL
-
시스템을 복구하려면 3단계에서 만든 ReaR 커널 및
initrd
파일을 사용하고, zipl 부트 로더, 커널, initrd를 사용하여 준비한zipl
boot loader, kernel 및 initrd를 사용하여 준비한 FCP( Direct Attached Storage Device) 또는 FCP(Fibre Channel Protocol)에서 부팅하십시오. 자세한 내용은 Prepared DASD 사용을 참조하십시오. -
rescue 커널 및
initrd
가 부팅되면 ReaR rescue 환경을 시작합니다. 시스템 복구를 진행합니다.
현재 복구 프로세스는 시스템에 연결된 모든 DASD(Direct Attached Storage 장치)를 다시 포맷합니다. 시스템 스토리지 장치에 중요한 데이터가 있는 경우 시스템 복구를 시도하지 마십시오. 여기에는 복구 환경으로 부팅하는 데 사용된 zipl 부트로더, ReaR 커널 및 initrd가 준비된 장치도 포함됩니다. 복사본을 유지해야 합니다.
추가 리소스
10장. 로그 파일을 사용하여 문제 해결
로그 파일에는 커널, 서비스 및 실행 중인 애플리케이션을 포함하여 시스템에 대한 메시지가 포함되어 있습니다. 여기에는 문제를 해결하거나 시스템 기능을 모니터링하는 데 도움이 되는 정보가 포함됩니다. Red Hat Enterprise Linux의 로깅 시스템은 기본 제공된 syslog
프로토콜을 기반으로 합니다. 특정 프로그램은 이 시스템을 사용하여 이벤트를 기록하고 이를 로그 파일로 구성하여 운영 체제를 감사하고 다양한 문제를 해결할 때 유용합니다.
10.1. syslog 메시지를 처리하는 서비스
다음 두 서비스는 syslog
메시지를 처리합니다.
-
systemd-journald
데몬 -
Rsyslog
서비스
systemd-journald
데몬은 다양한 소스에서 메시지를 수집하고 추가 처리를 위해 Rsyslog
에 전달합니다. systemd-journald
데몬은 다음 소스에서 메시지를 수집합니다.
- 커널
- 부팅 프로세스 초기 단계
- 데몬을 시작하고 실행할 때의 표준 및 오류 출력
-
syslog
Rsyslog
서비스는 syslog
메시지를 유형 및 우선 순위에 따라 정렬하여 /var/log
디렉터리의 파일에 기록합니다. /var/log
디렉토리는 로그 메시지를 영구적으로 저장합니다.
10.2. syslog 메시지를 저장하는 하위 디렉터리
/var/log
디렉토리 아래에 있는 다음 하위 디렉터리는 syslog
메시지를 저장합니다.
-
/var/log/messages
- 다음을 제외한 모든syslog
메시지 -
/var/log/secure
- 보안 및 인증 관련 메시지 및 오류 -
/var/log/maillog
- 메일 서버 관련 메시지 및 오류 -
/var/log/cron
- 정기적으로 실행된 작업과 관련된 로그 파일 -
/var/log/boot.log
- 시스템 시작과 관련된 로그 파일
10.3. 웹 콘솔을 사용하여 로그 파일 검사
이 절차의 단계에 따라 RHEL 웹 콘솔을 사용하여 로그 파일을 검사합니다.
절차
- RHEL 웹 콘솔에 로그인합니다. 자세한 내용은 웹 콘솔로의 로깅 을 참조하십시오.
- 로그를 클릭합니다.
그림 10.1. RHEL 8 웹 콘솔에서 로그 파일 검사

10.4. 명령줄을 사용하여 로그 보기
저널은 로그 파일을 보고 관리하는 데 도움이 되는 systemd의 구성 요소입니다. 기존 로깅과 연결된 문제를 해결하고 나머지 시스템과 긴밀하게 통합되며 로그 파일의 다양한 로깅 기술과 액세스 관리를 지원합니다.
journalctl
명령을 사용하여 명령줄을 사용하여 시스템 저널의 메시지를 볼 수 있습니다. 예를 들면 다음과 같습니다.
$ journalctl -b | grep kvm
May 15 11:31:41 localhost.localdomain kernel: kvm-clock: Using msrs 4b564d01 and 4b564d00
May 15 11:31:41 localhost.localdomain kernel: kvm-clock: cpu 0, msr 76401001, primary cpu clock
...
표 10.1. 시스템 정보 보기
명령 | 설명 |
---|---|
| 는 수집된 모든 저널 항목을 표시합니다. |
|
는 특정 파일과 관련된 로그를 표시합니다. 예를 들어 |
| 현재 부팅에 대한 로그를 표시합니다. |
| 현재 부팅에 대한 커널 로그를 표시합니다. |
표 10.2. 특정 서비스에 대한 정보 보기
명령 | 설명 |
---|---|
|
로그를 필터링하여 "foo" |
|
일치 결합. 예를 들어, 이 명령은 |
|
구분 기호 "+"는 두 표현식을 논리적 OR로 결합합니다. 예를 들어, 이 명령은 |
|
이 명령은 동일한 필드를 참조하여 두 표현식과 일치하는 모든 항목을 표시합니다. 여기서 이 명령은 systemd-unit |
표 10.3. 특정 부팅과 관련된 로그 보기
명령 | 설명 |
---|---|
| 에는 부팅 번호, ID 및 부팅과 관련된 첫 번째 및 마지막 메시지의 타임스탬프 목록이 표시됩니다. 다음 명령의 ID를 사용하여 자세한 정보를 볼 수 있습니다. |
| 지정된 부팅 ID에 대한 정보를 표시합니다. |
10.5. 추가 리소스
-
man journalctl(1)
- 원격 로깅 솔루션 구성
11장. Red Hat 지원에 액세스
이 섹션에서는 Red Hat 지원 및 sosreport
를 사용하여 문제를 효과적으로 해결하는 방법을 설명합니다.
Red Hat으로부터 지원을 받으려면 서브스크립션이 제공되는 모든 항목에 액세스할 수 있는 Red Hat 고객 포털 을 사용하십시오.
11.1. Red Hat 고객 포털을 통해 Red Hat 지원 요청
다음 섹션에서는 Red Hat 고객 포털을 사용하여 도움을 얻는 방법에 대해 설명합니다.
사전 요구 사항
- Red Hat 고객 포털에서 유효한 사용자 계정. Red Hat 로그인 생성 단원 을 참조하십시오.
- RHEL 시스템용 활성 서브스크립션.
절차
Red Hat 지원에 액세스 :
- 새 지원 사례 열기.
- Red Hat 전문가와 함께 실시간 채팅 시작.
- 전화 문의 또는 이메일 전송은 Red Hat 전문가에게 문의하십시오.
11.2. sosreport를 사용하여 문제 해결
sosreport
명령은 Red Hat Enterprise Linux 시스템에서 구성 세부 정보, 시스템 정보 및 진단 정보를 수집합니다.
다음 섹션에서는 sosreport
명령을 사용하여 지원 사례에 대한 보고서를 생성하는 방법을 설명합니다.
사전 요구 사항
- Red Hat 고객 포털에서 유효한 사용자 계정. Red Hat 로그인 생성 단원 을 참조하십시오.
- RHEL 시스템용 활성 서브스크립션.
- 지원 케이스 번호.
절차
sos
패키지를 설치합니다.# yum install sos
참고Red Hat Enterprise Linux의 기본 최소 설치에는
sosreport
명령을 제공하는sos
패키지가 포함되지 않습니다.보고서를 생성합니다.
# sosreport
지원 사례에 보고서를 첨부합니다.
Red Hat 지원 케이스에 파일을 첨부하려면 어떻게 해야 합니까? 자세한 내용은 Red Hat 지식베이스 문서.
보고서를 첨부할 때 관련 지원 케이스 수를 입력하라는 메시지가 표시됩니다.
12장. 소프트웨어 패키지 관리
12.1. RHEL 8의 소프트웨어 관리 툴
RHEL 8에서는 DNF 기술을 기반으로 하는 새로운 버전의 YUM 툴(YUM v4)을 통해 소프트웨어 설치가 활성화됩니다.
업스트림 설명서는 기술을 DNF 로 식별하고 도구는 업스트림에서 DNF 라고 합니다. 결과적으로 RHEL 8의 새로운 YUM 툴에서 반환한 일부 출력에는 DNF 가 표시됩니다.
RHEL 8에서 사용되는 YUM v4 는 DNF 를 기반으로 하지만 RHEL 7에서 사용되는 YUM v3 과 호환됩니다. 소프트웨어 설치의 경우 yum
명령과 대부분의 옵션은 RHEL 7에서처럼 RHEL 8에서와 동일한 방식으로 작동합니다.
선택한 yum 플러그인과 유틸리티는 새 DNF 백엔드로 포팅되었으며 RHEL 7과 동일한 이름으로 설치할 수 있습니다. 패키지는 호환성 심볼릭 링크를 제공하므로 바이너리, 구성 파일 및 디렉터리를 일반적인 위치에서 찾을 수 있습니다.
YUM v3 에서 제공하는 레거시 Python API는 더 이상 사용할 수 없습니다. 플러그인 및 스크립트를 안정적이고 완벽하게 지원되는 YUM v4 (DNF Python API)에서 제공하는 새 API로 마이그레이션할 수 있습니다. 자세한 내용은 DNF API 참조를 참조하십시오.
12.2. 애플리케이션 스트림
RHEL 8에는 Application Streams의 개념이 도입되었습니다. 이제 여러 버전의 사용자 공간 구성 요소가 핵심 운영 체제 패키지보다 더 자주 제공되고 업데이트됩니다. 이는 플랫폼 또는 특정 배포의 기본 안정성에 영향을 주지 않고 Red Hat Enterprise Linux를 사용자 지정할 수 있는 유연성을 향상시킵니다.
Application Streams로 제공되는 구성 요소는 모듈 또는 RPM 패키지로 패키징할 수 있으며 RHEL 8의 AppStream 리포지토리를 통해 제공됩니다. 각 Application Stream에는 RHEL 8과 동일하거나 짧은 라이프사이클이 있으며 특정 애플리케이션에 더 적합합니다. 라이프사이클이 짧은 Application Streams는 Red Hat Enterprise Linux 8 Application Streams 라이프 사이클 페이지에 나열되어 있습니다.
모듈은 논리 단위, 애플리케이션, 언어 스택, 데이터베이스 또는 툴 세트를 나타내는 패키지 컬렉션입니다. 이러한 패키지는 함께 빌드, 테스트, 릴리스됩니다.
모듈 스트림은 Application Stream 구성 요소의 버전을 나타냅니다. 예를 들어 postgresql 모듈에서 두 개의 스트림(버전)의 PostgreSQL 데이터베이스 서버를 사용할 수 있습니다. PostgreSQL 10(기본 스트림) 및 PostgreSQL 9.6. 시스템에는 하나의 모듈 스트림만 설치할 수 있습니다. 개별 컨테이너에서 서로 다른 버전을 사용할 수 있습니다.
자세한 모듈 명령은 사용자 공간 구성 요소 설치, 관리 및 제거 문서에서 설명합니다. AppStream에서 사용 가능한 모듈 목록은 패키지 매니페스트를 참조하십시오.
12.3. 소프트웨어 패키지 검색
yum 을 사용하면 소프트웨어 패키지를 사용하여 전체 작업 세트를 수행할 수 있습니다.
다음 섹션에서는 yum 을 사용하여 다음을 수행하는 방법을 설명합니다.
- 패키지를 검색합니다.
- 패키지 나열.
- 리포지토리를 나열합니다.
- 패키지에 대한 정보를 표시합니다.
- 패키지 그룹 나열.
- yum 입력에서 전역 표현식을 지정합니다.
12.3.1. YUM을 사용하여 패키지 검색
다음 절차에 따라 특정 애플리케이션 또는 기타 콘텐츠를 제공하는 패키지를 찾으십시오.
절차
패키지를 검색하려면 다음을 사용합니다.
# yum search term
용어를 패키지와 관련된 용어로 바꿉니다.
yum search
명령은 패키지 이름 및 요약 내에서 일치하는 용어를 반환합니다. 그러면 검색이 더 빨라지고 이름을 모르는 패키지를 검색할 수 있지만 관련 용어를 알고 있습니다.패키지 설명 내에서 일치하는 용어를 포함하려면 다음을 사용하십시오.
# yum search --all term
용어를 패키지 이름, 요약 또는 설명에서 검색하려는 용어로 바꿉니다.
yum search --all
을 사용하면 더 포괄적이지만 느린 검색을 사용할 수 있습니다.
12.3.2. YUM을 사용하여 패키지 나열
다음 절차에 따라 설치 및 사용 가능한 패키지를 나열하십시오.
절차
설치되어 사용 가능한 모든 패키지에 대한 정보를 나열하려면 다음을 사용합니다.
# yum list --all
시스템에 설치된 모든 패키지를 나열하려면 다음을 사용합니다.
# yum list --installed
설치할 수 있는 모든 활성화된 리포지토리의 모든 패키지를 나열하려면 다음을 사용합니다.
# yum list --available
글로벌 표현식을 인수로 추가하여 결과를 필터링할 수 있습니다. 자세한 내용은 yum 입력에서 전역 표현식 지정을 참조하십시오.
12.3.3. YUM을 사용하여 리포지토리 나열
다음 절차에 따라 활성화된 리포지토리를 나열하고 비활성화합니다.
절차
시스템에서 활성화된 모든 리포지토리를 나열하려면 다음을 사용합니다.
# yum repolist
시스템에서 비활성화된 리포지토리를 모두 나열하려면 다음을 사용합니다.
# yum repolist --disabled
활성화된 리포지토리와 비활성화된 리포지토리를 모두 나열하려면 다음을 사용합니다.
# yum repolist --all
리포지토리에 대한 추가 정보를 나열하려면 다음을 사용합니다.
# yum repoinfo
리포지토리의 ID 또는 이름을 인수로 전달하거나 전역 표현식을 추가하여 결과를 필터링할 수 있습니다. 자세한 내용은 yum 입력에서 전역 표현식 지정을 참조하십시오.
12.3.4. YUM을 사용하여 패키지 정보 표시
YUM(버전, 릴리스, 크기, 로드된 플러그인 등)을 사용하여 패키지에 대한 다양한 유형의 정보를 표시할 수 있습니다.
절차
하나 이상의 패키지에 대한 정보를 표시하려면 다음을 사용합니다.
# yum info package-name
package-name 을 패키지 이름으로 바꿉니다.
글로벌 표현식을 인수로 추가하여 결과를 필터링할 수 있습니다. 자세한 내용은 yum 입력에서 전역 표현식 지정을 참조하십시오.
12.3.5. YUM을 사용하여 패키지 그룹 나열
yum
을 사용하여 설치된 패키지 그룹을 보고 목록 결과를 필터링합니다.
절차
설치되어 사용 가능한 그룹 수를 보려면 다음을 사용합니다.
# yum group summary
설치되어 사용 가능한 그룹을 모두 나열하려면 다음을 사용합니다.
# yum group list
yum group list
명령(--hidden, --
available
)에 대한 명령줄 옵션을 추가하여 결과를 필터링할 수 있습니다. 사용 가능한 옵션은 도움말 페이지를 참조하십시오.특정 그룹에 포함된 필수 및 선택적 패키지를 나열하려면 다음을 사용합니다.
# yum group info group-name
group-name 을 그룹 이름으로 바꿉니다.
글로벌 표현식을 인수로 추가하여 결과를 필터링할 수 있습니다. 자세한 내용은 yum 입력에서 전역 표현식 지정을 참조하십시오.
12.3.6. YUM 입력에서 글로벌 표현식 지정
yum
명령을 사용하면 하나 이상의 glob 표현식 을 인수로 추가하여 결과를 필터링할 수 있습니다. 전역 표현식을 yum
명령에 인수로 전달할 때 이스케이프해야 합니다.
절차
전역 표현식이 의도한 대로 yum
에 전달되도록 하려면 다음 방법 중 하나를 사용합니다.
전체 글로벌 표현식을 큰따옴표 또는 단일 따옴표로 묶습니다.
# yum provides "*/file-name"
file-name 을 파일 이름으로 바꿉니다.
와일드카드 문자를 백슬래시(\)
문자로
이스케이프합니다.# yum provides \*/file-name
file-name 을 파일 이름으로 바꿉니다.
12.4. 소프트웨어 패키지 설치
다음 섹션에서는 yum 을 사용하여 다음을 수행하는 방법을 설명합니다.
- 패키지 설치.
- 패키지 그룹을 설치합니다.
- yum 입력으로 패키지 이름을 지정합니다.
12.4.1. YUM을 사용하여 패키지 설치
패키지 및 모든 패키지 종속성을 설치하려면 다음을 사용합니다.
# yum install package-name
package-name 을 패키지 이름으로 바꿉니다.
여러 패키지와 해당 종속 패키지를 동시에 설치하려면 다음을 사용합니다.
# yum install package-name-1 package-name-2
package-name-1 및 package-name-2 를 패키지 이름으로 바꿉니다.
멀티 라이브러리 시스템 (AMD64, Intel 64 시스템)에 패키지를 설치할 때 패키지 이름에 패키지를 추가하여 패키지의 아키텍처를 지정할 수 있습니다.
# yum install package-name.arch
package-name.arch 를 패키지의 이름 및 아키텍처로 바꿉니다.
설치하려는 바이너리의 이름을 알고 있지만 패키지 이름은 아닌 경우 바이너리의 경로를 인수로 사용할 수 있습니다.
# yum install /usr/sbin/binary-file
/usr/sbin/binary-file
을 바이너리 파일의 경로로 바꿉니다.yum 은 패키지 목록을 검색하고
/usr/sbin/binary-file
을 제공하는 패키지를 찾은 다음 설치 여부를 묻는 메시지를 표시합니다.로컬 디렉터리에서 이전에 다운로드된 패키지를 설치하려면 다음을 사용합니다.
# yum install /path/
/path/ 를 패키지 경로로 바꿉니다.
인수를 구문 분석하는 방법을 명시적으로 정의하여 패키지 검색을 최적화할 수 있습니다. 자세한 내용은 12.4.3절. “YUM 입력에서 패키지 이름 지정”를 참조하십시오.
12.4.2. YUM을 사용하여 패키지 그룹 설치
다음 절차에서는 yum
을 사용하여 그룹 이름 또는 groupID로 패키지 그룹을 설치하는 방법을 설명합니다.
절차
그룹 이름으로 패키지 그룹을 설치하려면 다음을 사용합니다.
# yum group install group-name
또는
# yum install @group-name
group-name 을 그룹 또는 환경 그룹의 전체 이름으로 바꿉니다.
groupID로 패키지 그룹을 설치하려면 다음을 사용합니다.
# yum group install groupID
groupID 를 그룹의 ID로 바꿉니다.
12.4.3. YUM 입력에서 패키지 이름 지정
설치 및 제거 프로세스를 최적화하기 위해 yum install
및 yum remove
명령에 -n
,-na
또는 -nevra
접미사를 추가하여 인수 구문 분석 방법을 명시적으로 정의할 수 있습니다.
정확한 이름을 사용하여 패키지를 설치하려면 다음을 사용합니다.
# yum install-n name
name 을 정확한 패키지 이름으로 바꿉니다.
정확한 이름 및 아키텍처를 사용하여 패키지를 설치하려면 다음을 사용합니다.
# yum install-na name.architecture
이름 및 아키텍처를 패키지의 정확한 이름 및 아키텍처로 바꿉니다.
정확한 이름, epoch, 버전, 릴리스 및 아키텍처를 사용하여 패키지를 설치하려면 다음을 사용합니다.
# yum install-nevra name-epoch:version-release.architecture
name,epoch,version,release 및 architecture 을 정확한 이름, epoch, 버전, 릴리스 및 아키텍처로 바꿉니다.
12.5. 소프트웨어 패키지 업데이트
yum 을 사용하면 시스템에 보류 중인 업데이트가 있는지 확인할 수 있습니다. 업데이트해야 하는 패키지를 나열하고 단일 패키지, 여러 패키지 또는 모든 패키지를 한 번에 업데이트하도록 선택할 수 있습니다. 업데이트하도록 선택한 패키지에 종속성이 있는 경우 해당 패키지도 업데이트됩니다.
다음 섹션에서는 yum 을 사용하여 다음을 수행하는 방법을 설명합니다.
- 업데이트를 확인합니다.
- 단일 패키지를 업데이트합니다.
- 패키지 그룹을 업데이트합니다.
- 모든 패키지 및 해당 종속성을 업데이트합니다.
- 보안 업데이트 적용.
- 소프트웨어 업데이트 자동화.
12.5.1. YUM을 사용하여 업데이트 확인
다음 절차에서는 yum
을 사용하여 시스템에 설치된 패키지에 대해 사용 가능한 업데이트를 확인하는 방법을 설명합니다.
절차
시스템에 설치된 패키지를 확인할 수 있는 업데이트를 보려면 다음을 사용합니다.
# yum check-update
출력에는 사용 가능한 업데이트가 있는 패키지 목록과 해당 종속 항목이 반환됩니다.
12.5.2. YUM을 사용하여 단일 패키지 업데이트
yum
을 사용하여 단일 패키지 및 해당 종속 항목을 업데이트하려면 다음 절차를 사용하십시오.
패키지를 업데이트하려면 다음을 사용합니다.
# yum update package-name
package-name 을 패키지 이름으로 바꿉니다.
업데이트를 커널에 적용하는 경우 yum update 또는 yum
.
install 명령을 사용하는지에 관계없이 yum
은 항상 새 커널을 설치합니다
12.5.3. YUM을 사용하여 패키지 그룹 업데이트
다음 절차에 따라 yum
을 사용하여 패키지 그룹과 해당 종속 항목을 업데이트합니다.
절차
패키지 그룹을 업데이트하려면 다음을 사용합니다.
# yum group update group-name
group-name 을 패키지 그룹의 이름으로 바꿉니다.
12.5.4. YUM을 사용하여 모든 패키지 및 종속 항목 업데이트
다음 절차에 따라 yum
을 사용하여 모든 패키지 및 해당 종속 항목을 업데이트합니다.
절차
모든 패키지 및 해당 종속성을 업데이트하려면 다음을 사용합니다.
# yum update
12.5.5. YUM을 사용하여 보안 관련 패키지 업데이트
다음 절차에 따라 yum
을 사용하여 보안 에라타가 있는 사용 가능한 패키지를 업데이트합니다.
절차
보안 에라타가 있는 최신 패키지로 업그레이드하려면 다음을 사용합니다.
# yum update --security
마지막 보안 에라타 패키지로 업그레이드하려면 다음을 사용합니다.
# yum update-minimal --security
12.5.6. 소프트웨어 업데이트 자동화
패키지 업데이트를 자동으로 및 정기적으로 확인하고 다운로드하려면 dnf-automatic
패키지에서 제공하는 DNF 자동 도구를 사용할 수 있습니다.
DNF Automatic 은 systemd 타이머, cron 작업 및 기타 해당 도구를 사용하여 자동 및 일반 실행에 적합한 대체 명령줄 인터페이스입니다.
DNF Automatic 은 필요에 따라 패키지 메타데이터를 동기화한 다음 사용 가능한 업데이트를 확인합니다. 그런 다음 도구는 구성 방법에 따라 다음 작업 중 하나를 수행할 수 있습니다.
- 종료
- 업데이트된 패키지 다운로드
- 업데이트 다운로드 및 적용
그런 다음 표준 출력 또는 이메일과 같이 선택한 메커니즘에서 작업 결과를 보고합니다.
12.5.6.1. DNF 자동 설치
다음 절차에서는 DNF 자동 툴을 설치하는 방법을 설명합니다.
절차
dnf-automatic
패키지를 설치하려면 다음을 사용합니다.# yum install dnf-automatic
검증 단계
설치에 성공했는지 확인하려면 다음 명령을 실행하여
dnf-automatic
패키지가 있는지 확인합니다.# rpm -qi dnf-automatic
12.5.6.2. DNF 자동 구성 파일
기본적으로 DNF 자동 에서는 /etc/dnf/automatic.conf
를 구성 파일로 사용하여 동작을 정의합니다.
구성 파일은 다음 주제 섹션으로 구분됩니다.
[명령]
섹션DNF 자동 의 작동 모드를 설정합니다.
[emitters]
섹션DNF 자동 의 결과를 보고하는 방법을 정의합니다.
[command_email]
섹션이메일을 보내는 데 사용되는 외부 명령의 이메일 발송자 구성을 제공합니다.
[이메일]
섹션전자 메일 발송자 구성을 제공합니다.
[base]
섹션yum의 기본 구성 파일의 설정을 재정의합니다.
/etc/dnf/automatic.conf
파일의 기본 설정을 사용하여 DNF 자동 검사에서 사용 가능한 업데이트를 확인하고 다운로드한 다음 결과를 표준 출력으로 보고합니다.
[commands]
섹션에서 작업 모드 설정은 dnf-automatic.timer
을 제외한 모든 타이머 장치에 대해 systemd 타이머 장치에서 사용하는 설정으로 재정의됩니다.
추가 리소스
- 특정 섹션에 대한 자세한 내용은 DNF 자동 설명서를 참조하십시오.
-
systemd 타이머 장치에 대한 자세한 내용은
man dnf-automatic
도움말 페이지를 참조하십시오. -
dnf-automatic
패키지에 포함된 systemd 타이머 장치에 대한 개요는 dnf-automatic 패키지 개요 dnf-automatic 패키지에포함된 systemd 타이머 단위 개요를
참조하십시오.
12.5.6.3. DNF 자동 활성화
DNF 자동 을 실행하려면 항상 특정 systemd 타이머 장치를 활성화하고 시작해야 합니다. dnf-automatic
패키지에 제공된 타이머 장치 중 하나를 사용하거나 필요에 따라 고유한 타이머 장치를 작성할 수 있습니다.
다음 섹션에서는 DNF 자동 활성화 방법을 설명합니다.
사전 요구 사항
-
/etc/dnf/automatic.conf
구성 파일을 수정하여 DNF 자동 동작을 지정했습니다.
DNF 자동 구성 파일에 대한 자세한 내용은 단원 2.5.6.2, "DNF 자동 구성 파일"을 참조하십시오.
절차
필요에 맞는 systemd 타이머 장치를 선택, 활성화 및 시작합니다.
# systemctl enable --now <unit>
여기서
<unit>
은 다음 타이머 중 하나입니다.-
dnf-automatic-download.timer
-
dnf-automatic-install.timer
-
dnf-automatic-notifyonly.timer
-
dnf-automatic.timer
-
사용 가능한 업데이트를 다운로드하려면 다음을 사용하십시오.
# systemctl enable dnf-automatic-download.timer
# systemctl start dnf-automatic-download.timer
사용 가능한 업데이트를 다운로드하고 설치하려면 다음을 사용하십시오.
# systemctl enable dnf-automatic-install.timer
# systemctl start dnf-automatic-install.timer
사용 가능한 업데이트에 대한 보고는 다음을 사용합니다.
# systemctl enable dnf-automatic-notifyonly.timer
# systemctl start dnf-automatic-notifyonly.timer
선택적으로 다음을 사용할 수 있습니다.
# systemctl enable dnf-automatic.timer
# systemctl start dnf-automatic.timer
업데이트를 다운로드하고 적용하는 측면에서 본 타이머 장치는 /etc/dnf/automatic.conf
구성 파일의 설정에 따라 작동합니다. 기본 동작은 dnf-automatic-download.timer
: 업데이트된 패키지를 다운로드하지만 설치하지는 않습니다.
또는 명령줄 또는 사용자 지정 스크립트에서 직접 /usr/bin/dnf-automatic
파일을 실행하여 DNF 자동 을 실행할 수도 있습니다.
검증 단계
타이머가 활성화되었는지 확인하려면 다음 명령을 실행합니다.
# systemctl status <systemd timer unit>
추가 리소스
-
dnf-automatic 타이머에 대한 자세한 내용은
man dnf-automatic
도움말 페이지를 참조하십시오. -
dnf-automatic 패키지에 포함된 systemd 타이머 장치의 개요는
dnf-automatic
패키지에 포함된 systemd 타이머 단위의 섹션 개요를참조하십시오.
12.5.6.4. dnf-automatic 패키지에 포함된 systemd 타이머 단위 개요
systemd 타이머 단위는 업데이트를 다운로드하고 적용하는 데 관한 /etc/dnf/automatic.conf
구성 파일의 설정을 우선하고 재정의합니다.
예를 들어 /etc/dnf/automatic.conf
구성 파일에서 다음 옵션을 설정했지만 dnf-automatic-notifyonly.timer
장치를 활성화한 경우 패키지는 다운로드되지 않습니다.
download_updates = yes
dnf-automatic
패키지에는 다음과 같은 systemd 타이머 장치가 포함되어 있습니다.
타이머 단위 | 함수 | /etc/dnf/automatic.conf 파일의 설정을 재정의합니까? |
---|---|---|
| 캐시할 패키지를 다운로드하고 업데이트할 수 있도록 합니다.
참고: 이 타이머 장치는 업데이트된 패키지를 설치하지 않습니다. 설치를 수행하려면 | 있음 |
| 업데이트된 패키지를 다운로드하고 설치합니다. | 있음 |
| 리포지토리 데이터만 다운로드하여 리포지토리 캐시를 최신 상태로 유지하고 사용 가능한 업데이트에 대해 알립니다. 참고: 이 타이머 장치는 업데이트된 패키지를 다운로드하거나 설치하지 않습니다 | 있음 |
|
업데이트를 다운로드하고 적용하기 위한 이 타이머의 동작은
기본 동작은 | 없음 |
추가 리소스
-
dnf-automatic
타이머에 대한 자세한 내용은man dnf-automatic
도움말 페이지를 참조하십시오. -
/etc/dnf/automatic.conf
구성 파일에 대한 자세한 내용은 DNF 자동 구성 파일을참조하십시오.
12.6. 소프트웨어 패키지 제거
다음 섹션에서는 yum 을 사용하여 다음을 수행하는 방법을 설명합니다.
- 패키지 제거.
- 패키지 그룹을 제거합니다.
- yum 입력으로 패키지 이름을 지정합니다.
12.6.1. YUM을 사용하여 패키지 제거
다음 절차에 따라 그룹 이름 또는 groupID로 패키지를 제거합니다.
절차
특정 패키지 및 모든 종속 패키지를 제거하려면 다음을 사용합니다.
# yum remove package-name
package-name 을 패키지 이름으로 바꿉니다.
여러 패키지와 해당 종속 항목을 동시에 제거하려면 다음을 사용합니다.
# yum remove package-name-1 package-name-2
package-name-1 및 package-name-2 를 패키지 이름으로 바꿉니다.
yum 은 패키지를 제거하지 않고 패키지를 제거할 수 없습니다.
인수를 구문 분석하는 방법을 명시적으로 정의하여 패키지 검색을 최적화할 수 있습니다. 자세한 내용은 yum input에서 패키지 이름 지정을 참조하십시오.
12.6.2. YUM을 사용하여 패키지 그룹 제거
다음 절차에 따라 그룹 이름 또는 groupID로 패키지를 제거합니다.
절차
그룹 이름으로 패키지 그룹을 제거하려면 다음을 사용합니다.
# yum group remove group-name
또는
# yum remove @group-name
group-name 을 그룹의 전체 이름으로 바꿉니다.
groupID로 패키지 그룹을 제거하려면 다음을 사용합니다.
# yum group remove groupID
groupID 를 그룹의 ID로 바꿉니다.
12.6.3. YUM 입력에서 패키지 이름 지정
설치 및 제거 프로세스를 최적화하기 위해 yum install
및 yum remove
명령에 -n
,-na
또는 -nevra
접미사를 추가하여 인수 구문 분석 방법을 명시적으로 정의할 수 있습니다.
정확한 이름을 사용하여 패키지를 설치하려면 다음을 사용합니다.
# yum install-n name
name 을 정확한 패키지 이름으로 바꿉니다.
정확한 이름 및 아키텍처를 사용하여 패키지를 설치하려면 다음을 사용합니다.
# yum install-na name.architecture
이름 및 아키텍처를 패키지의 정확한 이름 및 아키텍처로 바꿉니다.
정확한 이름, epoch, 버전, 릴리스 및 아키텍처를 사용하여 패키지를 설치하려면 다음을 사용합니다.
# yum install-nevra name-epoch:version-release.architecture
name,epoch,version,release 및 architecture 을 정확한 이름, epoch, 버전, 릴리스 및 아키텍처로 바꿉니다.
12.7. 소프트웨어 패키지 그룹 관리
패키지 그룹은 공통 목적을 제공하는 패키지 컬렉션입니다(시스템 도구, 사운드 및 비디오). 패키지 그룹을 설치하면 종속 패키지 집합이 가져와 시간을 크게 절약할 수 있습니다.
다음 섹션에서는 yum 을 사용하여 다음을 수행하는 방법을 설명합니다.
- 패키지 그룹 나열.
- 패키지 그룹을 설치합니다.
- 패키지 그룹을 제거합니다.
- yum 입력에서 전역 표현식을 지정합니다.
12.7.1. YUM을 사용하여 패키지 그룹 나열
yum
을 사용하여 설치된 패키지 그룹을 보고 목록 결과를 필터링합니다.
절차
설치되어 사용 가능한 그룹 수를 보려면 다음을 사용합니다.
# yum group summary
설치되어 사용 가능한 그룹을 모두 나열하려면 다음을 사용합니다.
# yum group list
yum group list
명령(--hidden, --
available
)에 대한 명령줄 옵션을 추가하여 결과를 필터링할 수 있습니다. 사용 가능한 옵션은 도움말 페이지를 참조하십시오.특정 그룹에 포함된 필수 및 선택적 패키지를 나열하려면 다음을 사용합니다.
# yum group info group-name
group-name 을 그룹 이름으로 바꿉니다.
글로벌 표현식을 인수로 추가하여 결과를 필터링할 수 있습니다. 자세한 내용은 yum 입력에서 전역 표현식 지정을 참조하십시오.
12.7.2. YUM을 사용하여 패키지 그룹 설치
다음 절차에서는 yum
을 사용하여 그룹 이름 또는 groupID로 패키지 그룹을 설치하는 방법을 설명합니다.
절차
그룹 이름으로 패키지 그룹을 설치하려면 다음을 사용합니다.
# yum group install group-name
또는
# yum install @group-name
group-name 을 그룹 또는 환경 그룹의 전체 이름으로 바꿉니다.
groupID로 패키지 그룹을 설치하려면 다음을 사용합니다.
# yum group install groupID
groupID 를 그룹의 ID로 바꿉니다.
12.7.3. YUM을 사용하여 패키지 그룹 제거
다음 절차에 따라 그룹 이름 또는 groupID로 패키지를 제거합니다.
절차
그룹 이름으로 패키지 그룹을 제거하려면 다음을 사용합니다.
# yum group remove group-name
또는
# yum remove @group-name
group-name 을 그룹의 전체 이름으로 바꿉니다.
groupID로 패키지 그룹을 제거하려면 다음을 사용합니다.
# yum group remove groupID
groupID 를 그룹의 ID로 바꿉니다.
12.7.4. YUM 입력에서 글로벌 표현식 지정
yum
명령을 사용하면 하나 이상의 glob 표현식 을 인수로 추가하여 결과를 필터링할 수 있습니다. 전역 표현식을 yum
명령에 인수로 전달할 때 이스케이프해야 합니다.
절차
전역 표현식이 의도한 대로 yum
에 전달되도록 하려면 다음 방법 중 하나를 사용합니다.
전체 글로벌 표현식을 큰따옴표 또는 단일 따옴표로 묶습니다.
# yum provides "*/file-name"
file-name 을 파일 이름으로 바꿉니다.
와일드카드 문자를 백슬래시(\)
문자로
이스케이프합니다.# yum provides \*/file-name
file-name 을 파일 이름으로 바꿉니다.
12.8. 패키지 관리 내역 처리
yum history
명령을 사용하면 yum 트랜잭션의 타임라인, 발생한 날짜 및 시간, 영향을 받는 패키지 수, 이러한 트랜잭션의 성공 또는 중단 여부, 트랜잭션 간에 RPM 데이터베이스 변경에 대한 정보를 검토할 수 있습니다. 또한 yum history
명령을 사용하여 트랜잭션을 실행 취소하거나 다시 실행할 수 있습니다.
다음 섹션에서는 yum 을 사용하여 다음을 수행하는 방법을 설명합니다.
- 트랜잭션 나열.
- 트랜잭션 되돌리기.
- 트랜잭션 반복.
- yum 입력에서 전역 표현식을 지정합니다.
12.8.1. YUM을 사용하여 트랜잭션 나열
다음 절차에 따라 최신 트랜잭션, 선택한 패키지에 대한 최신 작업 및 특정 트랜잭션의 세부 정보를 나열합니다.
절차
최신 yum 트랜잭션 목록을 표시하려면 다음을 사용합니다.
# yum history
선택한 패키지에 대한 모든 최신 작업 목록을 표시하려면 다음을 사용합니다.
# yum history list package-name
package-name 을 패키지 이름으로 바꿉니다. 전역 표현식을 추가하여 명령 출력을 필터링할 수 있습니다. 자세한 내용은 yum 입력에서 전역 표현식 지정을 참조하십시오.
특정 트랜잭션을 검사하려면 다음을 사용합니다.
# yum history info transactionID
transactionID 를 트랜잭션의 ID로 바꿉니다.
12.8.2. YUM을 사용하여 트랜잭션 복원
다음 절차에서는 yum
을 사용하여 선택한 트랜잭션 또는 마지막 트랜잭션을 되돌리는 방법을 설명합니다.
절차
특정 트랜잭션을 되돌리려면 다음을 사용합니다.
# yum history undo transactionID
transactionID 를 트랜잭션의 ID로 바꿉니다.
마지막 트랜잭션을 되돌리려면 다음을 사용합니다.
# yum history undo last
yum history undo
명령은 트랜잭션 중에 수행된 단계만 되돌립니다. 트랜잭션이 새 패키지를 설치한 경우 yum history undo
명령은 이를 제거합니다. 트랜잭션에서 패키지를 제거한 경우 yum history undo
명령으로 다시 설치합니다. yum history는 이전 패키지를 사용할 수 있는 경우 업데이트된 모든 패키지를 이전 버전으로 다운그레이드하려고 시도합니다
.
12.8.3. YUM을 사용하여 트랜잭션 반복
다음 절차에 따라 yum
을 사용하여 선택한 트랜잭션 또는 마지막 트랜잭션을 반복합니다.
절차
특정 트랜잭션을 반복하려면 다음을 사용합니다.
# yum history redo transactionID
transactionID 를 트랜잭션의 ID로 바꿉니다.
마지막 트랜잭션을 반복하려면 다음을 사용합니다.
# yum history redo last
yum history redo
명령은 트랜잭션 중에 수행된 단계만 반복합니다.
12.8.4. YUM 입력에서 글로벌 표현식 지정
yum
명령을 사용하면 하나 이상의 glob 표현식 을 인수로 추가하여 결과를 필터링할 수 있습니다. 전역 표현식을 yum
명령에 인수로 전달할 때 이스케이프해야 합니다.
절차
전역 표현식이 의도한 대로 yum
에 전달되도록 하려면 다음 방법 중 하나를 사용합니다.
전체 글로벌 표현식을 큰따옴표 또는 단일 따옴표로 묶습니다.
# yum provides "*/file-name"
file-name 을 파일 이름으로 바꿉니다.
와일드카드 문자를 백슬래시(\)
문자로
이스케이프합니다.# yum provides \*/file-name
file-name 을 파일 이름으로 바꿉니다.
12.9. 소프트웨어 리포지토리 관리
yum 및 관련 유틸리티의 구성 정보는 /etc/yum.conf
파일에 저장됩니다. 이 파일에는 리포지토리별 옵션을 설정할 수 있는 하나 이상의 [repository]
섹션이 포함되어 있습니다.
/etc/yum.repos
파일에 개별 리포지토리를 정의하는 것이 좋습니다.
.d/
디렉터리에 새 또는 기존.repo
/etc/yum.conf
파일의 개별 [repository]
섹션에 정의된 값은 [main]
섹션에 설정된 값을 재정의합니다.
다음 섹션에서는 다음을 수행하는 방법을 설명합니다.
-
[repository]
옵션을 설정합니다. - yum 리포지토리를 추가합니다.
- yum 리포지토리를 활성화합니다.
- yum 리포지토리를 비활성화합니다.
12.9.1. YUM 리포지토리 옵션 설정
/etc/yum.conf
구성 파일에는 [repository]
섹션이 포함되어 있습니다. 여기서 리포지토리 는 고유한 리포지토리 ID입니다. [repository]
섹션을 통해 개별 yum 리포지토리를 정의할 수 있습니다.
충돌을 피하기 위해 Red Hat 리포지토리에서 사용하는 사용자 정의 리포지토리 이름을 지정하지 마십시오.
사용 가능한 [repository]
옵션의 전체 목록은 yum.conf(5) 도움말 페이지의 [repository] OPTIONS
섹션을 참조하십시오.
12.9.2. YUM 리포지토리 추가
절차
새 리포지토리를 정의하려면 다음을 수행할 수 있습니다.
-
[repository]
섹션을/etc/yum.conf
파일에 추가합니다. [repository]
섹션을/etc/yum
파일에 추가합니다..repos.d/ 디렉터리의.
repo+
Yum 리포지토리는 일반적으로 고유한 .repo
파일을 제공합니다.
/etc/yum.conf 대신
.repo
파일에 있는 리포지토리를 이 디렉토리의. repo
파일 확장자가 있는 모든 파일은 yum 으로 정의하는 것이 좋습니다.
시스템에 리포지터리를 추가하고 활성화하려면 다음을 사용합니다.
# yum-config-manager --add-repo repository_URL
repository_url 을 리포지토리를 가리키는 URL로 바꿉니다.
Red Hat Certificate-basedCDN( Content Delivery Network
) 이외의 검증 또는 신뢰할 수 없는 소스에서 소프트웨어 패키지를 구입하고 설치하면 잠재적인 보안 위험이 되며 보안, 안정성, 호환성 및 유지 관리 문제로 이어질 수 있습니다.
12.9.3. YUM 리포지토리 활성화
'yum'repository를 시스템에 추가한 후 이를 활성화하여 설치 및 업데이트를 확인합니다.
절차
리포지터리를 활성화하려면 다음을 사용합니다.
# yum-config-manager --enable repositoryID
repositoryID를 고유한 리포지토리 ID로 바꿉니다.
사용 가능한 리포지토리 ID를 나열하려면 yum을 사용하여 패키지 나열 을 참조하십시오.
12.9.4. YUM 리포지토리 비활성화
특정 YUM 리포지토리를 비활성화하여 특정 패키지가 설치 또는 업데이트되지 않도록 합니다.
절차
yum 리포지토리를 비활성화하려면 다음을 사용합니다.
# yum-config-manager --disable repositoryID
repositoryID를 고유한 리포지토리 ID로 바꿉니다.
사용 가능한 리포지토리 ID를 나열하려면 yum을 사용하여 패키지 나열 을 참조하십시오.
12.10. YUM 구성
yum 및 관련 유틸리티의 구성 정보는 /etc/yum.conf
파일에 저장됩니다. 이 파일에는 필수 [main]
섹션 하나가 포함되어 있어 글로벌 효과가 있는 yum 옵션을 설정할 수 있습니다.
다음 섹션에서는 다음을 수행하는 방법을 설명합니다.
- 현재 yum 구성을 봅니다.
- yum [main] 옵션을 설정합니다.
- yum 플러그인 사용.
12.10.1. 현재 YUM 구성 보기
현재 yum
구성을 보려면 다음 절차를 사용하십시오.
절차
/etc/yum.conf 파일의
[main]
섹션에 지정된 글로벌 yum 옵션의 현재 값을 표시하려면 다음을 사용합니다.# yum config-manager --dump
12.10.2. YUM 기본 옵션 설정
/etc/yum.conf
구성 파일에는 [main]
섹션 하나가 포함되어 있습니다. 이 섹션의 키-값 쌍은 yum 이 리포지토리를 작동하고 처리하는 방식에 영향을 줍니다.
/etc/yum.conf
의 [main]
섹션 제목 아래에 추가 옵션을 추가할 수 있습니다.
사용 가능한 [main]
옵션의 전체 목록은 yum.conf(5) 도움말 페이지의 [main] OPTIONS
섹션을 참조하십시오.
12.10.3. YUM 플러그인 사용
yum 은 운영을 확장하고 개선하는 플러그인을 제공합니다. 특정 플러그인은 기본적으로 설치됩니다.
다음 섹션에서는 yum 플러그인을 활성화, 구성 및 비활성화하는 방법을 설명합니다.
12.10.3.1. YUM 플러그인 관리
절차
플러그인 구성 파일에는 항상 yum
명령을 실행할 때 플러그인이 활성화되는
지 여부를 제어하는 [main]
섹션이 있습니다. 이 옵션이 없는 경우 파일에 수동으로 추가할 수 있습니다.
설치된 모든 플러그인에는 /etc/dnf/plugins/
디렉터리에 자체 구성 파일이 있습니다. 이러한 파일에서 플러그인별 옵션을 활성화하거나 비활성화할 수 있습니다.
12.10.3.2. YUM 플러그인 활성화
다음 절차에서는 모든 YUM 플러그인을 비활성화하거나 활성화하거나 특정 명령의 모든 플러그인을 비활성화하거나 단일 명령의 특정 YUM 플러그인을 비활성화하는 방법을 설명합니다.
+
절차
모든 yum 플러그인을 활성화하려면 다음을 수행합니다.
-
plugins=
로 시작하는 행이/etc/yum.conf
파일의[main]
섹션에 있는지 확인합니다. plugins=
의 값을1
로 설정합니다.plugins=1
-
12.10.3.3. YUM 플러그인 비활성화
모든 yum 플러그인을 비활성화하려면 다음을 수행합니다.
-
plugins=
로 시작하는 행이/etc/yum.conf
파일의[main]
섹션에 있는지 확인합니다. plugins=
의 값을0
으로 설정합니다.plugins=0
중요모든 플러그인을 비활성화하는 것은 바람직하지 않습니다. 특정 플러그인은 중요한 yum 서비스를 제공합니다. 특히 product-id 및 subscription -manager 플러그인은 인증서 기반CDN(
Content Delivery Network
)에 대한 지원을 제공합니다. 플러그인을 전역적으로 비활성화하는 것은 편의성 옵션으로 제공되며 yum 에서 잠재적인 문제를 진단할 때만 권장됩니다.
-
특정 명령에 대해 모든 yum 플러그인을 비활성화하려면 명령에
--noplugins
옵션을 추가합니다.# yum --noplugins update
단일 명령에 특정 yum 플러그인을 비활성화하려면 명령에
--disableplugin=plugin-name
옵션을 추가합니다.# yum update --disableplugin=plugin-name
plugin-name 을 플러그인 이름으로 바꿉니다.
13장. systemd 소개
시스템 관리자는 Linux 운영 체제의 시스템 및 서비스 관리자인 systemd
와 상호 작용해야 합니다. systemd
소프트웨어 모음에서는 시스템 상태를 제어 및 보고하고 시스템을 시작하는 동안 시스템을 초기화할 수 있는 도구와 서비스를 제공합니다. Red Hat Enterprise Linux 7 이후 systemd
는 기본 init 시스템으로 Upstart를 대체하며 SysV init 스크립트와 이전 버전과 호환됩니다. systemd
소프트웨어 제품군은 다음과 같은 다양한 기능을 제공합니다.
- 부팅 시 시스템 서비스 병렬 시작
- 데몬의 온 디맨드 활성화
- 종속성 기반 서비스 제어 논리입니다.
시스템 리소스 및 서비스를 표현하기 위해 systemd
는 systemd 단위 의 개념을 도입합니다. 특정 작업을 수행하거나 제어하는 systemd 장치는 systemd가 관리하는 기본 오브젝트입니다. 다양한 systemd 장치 유형의 다음 예제를 참조하십시오.
- 서비스,
- 대상
- 장치,
- Mount,
- 타이머,
- init 시스템과 관련된 기타 유형입니다.
사용 가능한 모든 단위 유형을 표시하려면 다음을 사용합니다.
# systemctl -t help
systemd 단위는 단위 작업을 정의하는 이름, 유형 및 구성 파일로 구성됩니다. 장치 구성 파일은 다음 표에 나열된 디렉터리 중 하나에 있습니다.
표 13.1. Systemd 유닛 파일 위치
디렉터리 | 설명 |
---|---|
| 설치된 RPM 패키지와 함께 배포되는 systemd 유닛 파일. |
| 런타임 시 생성된 systemd 유닛 파일. 이 디렉토리는 서비스 유닛 파일이 설치된 디렉토리보다 우선합니다. |
|
|
systemd
의 기본 구성은 컴파일 중에 정의되며 /etc/systemd/system.conf
파일에서 구성을 찾을 수 있습니다. 이러한 기본값을 벗어나고 systemd 유닛의 선택된 기본값을 전역적으로 재정의하려면 이 파일을 사용합니다.
예를 들어 90초로 설정된 시간 제한 제한의 기본값을 재정의하려면 DefaultTimeoutStartSec
매개 변수를 사용하여 필요한 값을 초 단위로 입력합니다.
DefaultTimeoutStartSec=required value
13.1. 추가 리소스
- Red Hat Enterprise Linux 7 마이그레이션 계획 가이드
14장. systemctl을 사용하여 시스템 서비스 관리
시스템 관리자는 시스템 서비스를 관리하고 시작, 중지, 재시작, 활성화 및 비활성화, 서비스 나열 및 시스템 서비스 상태 표시와 같은 다양한 서비스와 관련된 다양한 작업을 수행하려고 합니다. systemd
시스템 및 서비스 관리자와 상호 작용하려면 systemctl
유틸리티를 사용합니다.
14.1. 시스템 서비스 나열
현재 로드된 모든 서비스 유닛과 사용 가능한 모든 서비스 유닛의 상태를 나열할 수 있습니다.
절차
현재 로드된 모든 서비스 유닛을 나열하려면 다음을 입력합니다.
$ systemctl list-units --type service UNIT LOAD ACTIVE SUB DESCRIPTION abrt-ccpp.service loaded active exited Install ABRT coredump hook abrt-oops.service loaded active running ABRT kernel log watcher abrtd.service loaded active running ABRT Automated Bug Reporting Tool ---- systemd-vconsole-setup.service loaded active exited Setup Virtual Console tog-pegasus.service loaded active running OpenPegasus CIM Server LOAD = Reflects whether the unit definition was properly loaded. ACTIVE = The high-level unit activation state, i.e. generalization of SUB. SUB = The low-level unit activation state, values depend on unit type. 46 loaded units listed. Pass --all to see loaded but inactive units, too. To show all installed unit files use 'systemctl list-unit-files'
기본적으로
systemctl list-units
명령은 활성 유닛만 표시합니다. 각 서비스 유닛 파일에 대해 명령이 표시됩니다.-
UNIT
: 전체 이름 -
LOAD
: 유닛 파일이 로드되었는지 여부 정보 -
SUB
또는SUB
: 높은 수준의 낮은 수준의 장치 파일 활성화 상태 -
DESCRIPTION
: 간단한 설명
-
상태에 관계없이 로드된 모든 유닛 을 나열하려면
--all
또는-a
명령줄 옵션을 사용하여 다음 명령을 입력합니다.$ systemctl list-units --type service --all
사용 가능한 모든 서비스 단위의 상태(활성화 또는 비활성화)를 나열하려면 다음을 입력합니다.
$ systemctl list-unit-files --type service UNIT FILE STATE abrt-ccpp.service enabled abrt-oops.service enabled abrtd.service enabled ... wpa_supplicant.service disabled ypbind.service disabled 208 unit files listed.
서비스 유닛마다 이 명령이 표시됩니다.
-
UNIT FILE
: 전체 이름 -
STATE
: 서비스 유닛의 활성화 여부 정보
-
추가 리소스
14.2. 시스템 서비스 상태 표시
서비스 유닛을 검사하여 자세한 정보를 가져오고 서비스 상태를 활성화 또는 실행 중인지 확인할 수 있습니다. 특정 서비스 유닛 이후 또는 그 전에 시작되도록 주문된 서비스를 볼 수도 있습니다.
절차
시스템 서비스에 해당하는 서비스 유닛에 대한 자세한 정보를 표시하려면 다음을 입력합니다.
$ systemctl status <name>.service
<name> 을 검사하려는 서비스 유닛의 이름으로 변경합니다(예:
gdm
).이 명령은 선택한 서비스 유닛의 이름과 짧은 설명, 사용 가능한 서비스 유닛 정보에 설명된 하나 이상의 필드,
루트
사용자가 실행하는 경우, 가장 최근 로그 항목을 표시합니다.표 14.1. 사용 가능한 서비스 유닛 정보
필드 설명 로드됨
서비스 유닛이 로드되었는지 여부, 유닛 파일의 절대 경로 및 유닛이 활성화되었는지 여부를 참고합니다.
활성
서비스 유닛의 실행 여부와 타임스탬프에 대한 정보입니다.
Main PID
해당 시스템 서비스의 PID 및 이름을 지정합니다.
상태
해당 시스템 서비스에 대한 추가 정보입니다.
프로세스
관련 프로세스에 대한 추가 정보.
cgroup
cgroup
(Control Groups)에 대한 추가 정보.예 14.1. 서비스 상태 표시
GNOME Display Manager의 서비스 유닛은
gdm.service
라고 합니다. 이 서비스 유닛의 현재 상태를 확인하려면 쉘 프롬프트에서 다음을 입력합니다.# systemctl status gdm.service gdm.service - GNOME Display Manager Loaded: loaded (/usr/lib/systemd/system/gdm.service; enabled) Active: active (running) since Thu 2013-10-17 17:31:23 CEST; 5min ago Main PID: 1029 (gdm) CGroup: /system.slice/gdm.service ├─1029 /usr/sbin/gdm ├─1037 /usr/libexec/gdm-simple-slave --display-id /org/gno... └─1047 /usr/bin/Xorg :0 -background none -verbose -auth /r... Oct 17 17:31:23 localhost systemd[1]: Started GNOME Display Manager.
특정 서비스 유닛이 실행 중인지만 확인하려면 다음을 입력합니다.
$ systemctl is-active <name>.service
특정 서비스 유닛이 활성화되었는지 여부를 확인하려면 다음을 입력합니다.
$ systemctl is-enabled <name>.service
참고systemctl is-active
및systemctl is-enabled
는 모두 지정된 서비스 유닛이 실행 중이거나 활성화된 경우 종료 상태를0
으로 반환합니다.지정된 서비스 유닛보다 먼저 순서가 지정된 서비스를 확인하려면 다음을 입력합니다.
# systemctl list-dependencies --after <name>.service
<name> 을 명령에서 서비스 이름으로 바꿉니다.
예를 들어
gdm
이전에 시작되도록 순서가 지정된 서비스 목록을 보려면 다음을 입력합니다.# systemctl list-dependencies --after gdm.service gdm.service ├─dbus.socket ├─getty@tty1.service ├─livesys.service ├─plymouth-quit.service ├─system.slice ├─systemd-journald.socket ├─systemd-user-sessions.service └─basic.target [output truncated]
지정된 서비스 유닛 다음에 시작되도록 정렬되는 서비스를 확인하려면 다음을 입력합니다.
# systemctl list-dependencies --before <name>.service
<name> 을 명령에서 서비스 이름으로 바꿉니다.
예를 들어
gdm
이후에 시작되도록 순서가 지정된 서비스 목록을 보려면 다음을 입력합니다.# systemctl list-dependencies --before gdm.service gdm.service ├─dracut-shutdown.service ├─graphical.target │ ├─systemd-readahead-done.service │ ├─systemd-readahead-done.timer │ └─systemd-update-utmp-runlevel.service └─shutdown.target ├─systemd-reboot.service └─final.target └─systemd-reboot.service
추가 리소스
14.3. 시스템 서비스 시작
start 명령을 사용하여 현재 세션에서 시스템 서비스를 시작할
수 있습니다.
사전 요구 사항
- 시스템에 대한 루트 액세스 권한이 있어야 합니다.
절차
시스템 서비스에 해당하는 선택한 서비스 유닛을 시작하려면 다음 명령을
루트로
입력합니다.# systemctl start <name>.service
<name> 을 시작하려는 서비스 유닛의 이름으로 변경합니다(예:
httpd.service
).예 14.2. httpd.service 시작
Apache HTTP 서버의 서비스 유닛의 이름은
httpd.service
입니다. 이 서비스 유닛을 활성화하고 현재 세션에서httpd
데몬을 시작하려면root
로 다음 명령을 입력합니다.# systemctl start httpd.service
참고systemd
에서는 서비스 간에 양수 및 음수 종속성이 있습니다. 특정 서비스를 시작하려면 하나 이상의 다른 서비스(공속성)를 시작하거나 하나 이상의 서비스(거의종속성)를 중지해야 할수 있습니다.새 서비스를 시작하려고 하면
systemd
는 사용자에게 명시적 알림 없이 모든 종속성을 자동으로 해결합니다. 즉, 이미 서비스를 실행 중이고 음수 종속성을 사용하여 다른 서비스를 시작하려고 하면 첫 번째 서비스가 자동으로 중지됩니다.예를 들어
postfix
서비스를 실행 중이고sendmail
서비스를 시작하려고 하면 두 서비스가 충돌하며 동일한 포트에서 실행할 수 없기 때문에systemd
는 먼저postfix
를 자동으로 중지합니다.
14.4. 시스템 서비스 중지
현재 세션에서 시스템 서비스를 중지하려면 stop
명령을 사용합니다.
사전 요구 사항
- 시스템에 대한 루트 액세스 권한이 있어야 합니다.
절차
시스템 서비스에 해당하는 서비스 유닛을 중지하려면
root
로 다음 명령을 입력합니다.# systemctl stop <name>.service
<name> 을 중지하려는 서비스 유닛의 이름으로 바꿉니다(예:
bluetooth
).예 14.3. bluetoothd.service 중지
bluetoothd
데몬의 서비스 유닛의 이름은bluetooth.service
입니다. 이 서비스 유닛을 비활성화하고 현재 세션에서bluetoothd
데몬을 중지하려면 다음 명령을루트로
입력합니다.# systemctl stop bluetooth.service
추가 리소스
14.5. 시스템 서비스 다시 시작
restart
명령을 사용하여 현재 세션에서 시스템 서비스를 다시 시작할 수 있습니다.
다음 절차에서는 다음을 수행하는 방법을 설명합니다.
- 현재 세션에서 선택한 서비스 유닛을 중지하고 즉시 다시 시작합니다.
- 해당 서비스가 이미 실행 중인 경우에만 서비스 유닛을 다시 시작합니다
- 실행을 중단하지 않고 시스템 서비스의 설정을 다시 로드합니다
사전 요구 사항
- 시스템에 대한 루트 액세스 권한이 있어야 합니다.
절차
시스템 서비스에 해당하는 서비스 장치를 다시 시작합니다.
# systemctl restart <name>.service
<name> 을 재시작하려는 서비스 유닛의 이름으로 변경합니다(예:
httpd
).참고선택한 서비스 유닛이 실행 중이 아니면 이 명령도 시작합니다.
또는 해당 서비스가 이미 실행 중인 경우에만 서비스 장치를 다시 시작합니다.
# systemctl try-restart <name>.service
또는 서비스 실행을 중단하지 않고 구성을 다시 로드합니다.
# systemctl reload <name>.service
참고이 기능을 지원하지 않는 시스템 서비스, 이 명령을 무시합니다. 이러한 서비스를 다시 시작하려면
reload-or-restart
및reload-or-try-restart
명령을 사용합니다.예 14.4. httpd.service 다시 로드
사용자가 불필요한 오류 메시지나 부분적으로 렌더링된 웹 페이지가 발생하는 것을 방지하기 위해 Apache HTTP Server를 사용하면 요청을 재시작하고 적극적으로 처리하지 않고도 구성을 편집하고 다시 로드할 수 있습니다. 이렇게 하려면 다음 명령을 사용합니다.
# systemctl reload httpd.service
추가 리소스
14.6. 시스템 서비스 활성화
시스템 부팅 시 자동으로 시작되도록 서비스를 구성할 수 있습니다. enable
명령은 선택한 서비스 유닛의 [Install]
섹션을 읽고 /
파일에 대한 적절한 심볼릭 링크를 만듭니다. 그러나 이미 존재하는 링크를 다시 작성하지는 않습니다.
etc/systemd/system/ 디렉토리 및 하위 디렉터리에 있는 /usr/lib/systemd/system/
name.service
사전 요구 사항
- 시스템에 대한 루트 액세스 권한이 있어야 합니다.
절차
부팅 시 자동으로 시작되도록 시스템 서비스에 해당하는 서비스 유닛을 구성합니다.
# systemctl enable <name>.service
<name> 을 활성화하려는 서비스 유닛의 이름으로 변경합니다(예:
httpd
).또는 심볼릭 링크가 다시 생성되도록 하려면 시스템 장치를 다시 활성화합니다.
# systemctl reenable <name>.service
이 명령은 선택한 서비스 유닛을 비활성화하고 즉시 다시 활성화합니다.
예 14.5. httpd.service 활성화
부팅 시 자동으로 시작되도록 Apache HTTP 서버를 구성하려면 다음 명령을 사용합니다.
# systemctl enable httpd.service Created symlink from /etc/systemd/system/multi-user.target.wants/httpd.service to /usr/lib/systemd/system/httpd.service.
추가 리소스
14.7. 시스템 서비스 비활성화
부팅 시 서비스 유닛이 자동으로 시작되지 않도록 할 수 있습니다. disable
명령은 선택한 서비스 유닛의 [Install]
섹션을 읽고 / etc/systemd/
파일에 대한 적절한 심볼릭 링크를 제거합니다.
system/ 디렉토리에서 /usr/lib/systemd/system/
name.service
사전 요구 사항
- 시스템에 대한 루트 액세스 권한이 있어야 합니다.
절차
부팅 시 자동으로 시작되지 않도록 시스템 서비스에 해당하는 서비스 유닛을 구성하려면 다음 명령을
루트로
입력합니다.# systemctl disable <name>.service
<name> 을 비활성화하려는 서비스 유닛의 이름으로 바꿉니다(예:
bluetooth
).예 14.6. bluetoothd.service 비활성화
bluetoothd
데몬의 서비스 유닛의 이름은bluetooth.service
입니다. 이 서비스 장치가 부팅 시 시작되지 않도록 하려면 다음 명령을루트로
입력합니다.# systemctl disable bluetooth.service Removed symlink /etc/systemd/system/bluetooth.target.wants/bluetooth.service. Removed symlink /etc/systemd/system/dbus-org.bluez.service.
또는 모든 서비스 유닛을 마스킹하고 수동으로 또는 다른 서비스에 의해 시작되지 않도록 할 수 있습니다.
# systemctl mask <name>.service
이 명령은
/etc/systemd/system/name.service
파일을/dev/null
에 대한 심볼릭 링크로 교체하여systemd
에 액세스할 수 없는 실제 유닛 파일을 렌더링합니다.이 작업을 되돌리고 서비스 유닛의 마스크를 해제하려면 다음을 입력합니다.
# systemctl unmask <name>.service
추가 리소스
15장. systemd 대상 작업
systemd
의 대상은 시스템을 시작하는 동안 동기화 지점 역할을 합니다. .target
파일 확장자로 끝나는 대상 장치 파일은 systemd
대상을 나타냅니다. 대상 장치의 목적은 종속성 체인을 통해 다양한 systemd
장치를 그룹화하는 것입니다.
다음 예제를 고려하십시오.
-
그래픽 세션을 시작하기 위한
graphical.target 단위는
GNOME Display Manager(gdm.service
) 또는 계정 서비스(accounts-daemon.service
)와 같은 시스템 서비스를 시작하고,multi-user.target 단위
도 활성화합니다. -
마찬가지로,
multi-user.target
단위는 NetworkManager(NetworkManager.service
) 또는 D-Bus(dbus.service
)와 같은 다른 필수 시스템 서비스를 시작하고basic.target
이라는 다른 대상 장치를 활성화합니다.
systemd
대상으로 작업하는 동안 기본 대상을 보거나, 변경하거나, 현재 대상을 변경할 수 있습니다.
15.1. 기본 대상 보기
systemctl
명령을 사용하여 기본 대상을 표시하거나 기본 대상 장치를 나타내는 /etc/systemd/system/default.target
파일을 검사할 수 있습니다.
절차
기본적으로 사용되는 대상 단위를 결정합니다.
$ systemctl get-default graphical.target
심볼릭 링크를 사용하여 기본 대상을 결정합니다.
$ ls -l /usr/lib/systemd/system/default.target
15.2. 대상 단위 보기
모든 단위 유형을 표시하거나 현재 로드된 대상 유닛으로 검색을 제한할 수 있습니다. 기본적으로 systemctl list-units
명령은 활성 유닛만 표시합니다.
절차
상태에 관계없이 로드된 모든 단위를 나열합니다.
$ systemctl list-units --type target --all
또는 현재 로드된 모든 대상 유닛을 나열합니다.
$ systemctl list-units --type target UNIT LOAD ACTIVE SUB DESCRIPTION basic.target loaded active active Basic System cryptsetup.target loaded active active Encrypted Volumes getty.target loaded active active Login Prompts graphical.target loaded active active Graphical Interface local-fs-pre.target loaded active active Local File Systems (Pre) local-fs.target loaded active active Local File Systems multi-user.target loaded active active Multi-User System network.target loaded active active Network paths.target loaded active active Paths remote-fs.target loaded active active Remote File Systems sockets.target loaded active active Sockets sound.target loaded active active Sound Card spice-vdagentd.target loaded active active Agent daemon for Spice guests swap.target loaded active active Swap sysinit.target loaded active active System Initialization time-sync.target loaded active active System Time Synchronized timers.target loaded active active Timers LOAD = Reflects whether the unit definition was properly loaded. ACTIVE = The high-level unit activation state, i.e. generalization of SUB. SUB = The low-level unit activation state, values depend on unit type. 17 loaded units listed.
15.3. 기본 대상 변경
기본 대상 단위는 /etc/systemd/system/default.target
파일로 표시됩니다. 다음 절차에서는 systemctl 명령을 사용하여 기본 대상을 변경하는 방법을 설명합니다.
절차
기본 대상 장치를 확인하려면 다음을 수행합니다.
# systemctl get-default
기본적으로 다른 대상 장치를 사용하도록 시스템을 구성하려면 다음을 수행합니다.
# systemctl set-default multi-user.target rm /etc/systemd/system/default.target ln -s /usr/lib/systemd/system/multi-user.target /etc/systemd/system/default.target
이 명령은
/etc/systemd/system/default.target
파일을/usr/lib/systemd/system/name.target
에 대한 심볼릭 링크로 바꿉니다. 여기서 name 은 사용하려는 대상 장치의 이름입니다. 다중 사용자를 기본적으로 사용하려는 대상 단위의 이름으로 바꿉니다.표 15.1.
set-default
명령의 일반적인 대상Basic
기본 부팅을 다루는 단위 대상
rescue
기본 시스템에서 가져오고 복구 쉘을 생성하는 단위 대상
multi-user
다중 사용자 시스템을 설정하기 위한 단위 대상
graphical
그래픽 로그인 화면을 설정하는 단위 대상
emergency
기본 콘솔에서 긴급 쉘을 시작하는 단위 대상
sysinit
시스템 초기화에 필요한 서비스를 가져오는 단위 대상
재부팅
# reboot
추가 리소스
-
systemd.special
man 페이지 -
부팅
도움말 페이지
15.4. 심볼릭 링크를 사용하여 기본 대상 변경
원하는 대상에 대한 심볼릭 링크를 생성하여 기본 대상을 변경할 수 있습니다.
절차
기본 대상 단위를 확인합니다.
# ls -l /etc/systemd/system/default.target
특정 경우에는
/etc/systemd/system/default.target
링크가 존재하지 않을 수 있으며 systemd는/usr
에서 기본 대상 단위를 찾습니다. 이 경우 다음 명령을 사용하여 기본 대상 단위를 결정합니다.# ls -l /usr/lib/systemd/system/default.target
/etc/systemd/system/default.target
링크를 삭제합니다.# rm /etc/systemd/system/default.target
심볼릭 링크를 만듭니다.
# ln -sf /usr/lib/systemd/system/graphical.target /etc/systemd/system/default.target
시스템을 재부팅합니다.
# reboot
검증 단계
새로 생성된
default.target
을 확인합니다.$ systemctl get-default multi-user.target
15.5. 현재 대상 변경
기본 대상 장치를 설정하면 다음에 다시 부팅할 때까지 현재 대상이 변경되지 않은 상태로 유지됩니다. 재부팅하지 않고 현재 세션의 대상 단위를 변경하려면 systemctl isolate
명령을 사용합니다.
절차
현재 세션에서 다른 대상 단위로 변경합니다.
# systemctl isolate multi-user.target
이 명령은 multi-user 및 모든 종속 유닛이라는 대상 유닛을 시작하고 다른 모든 유닛을 즉시 중지합니다.
기본적으로 multi-user 를 사용하려는 대상 유닛의 이름으로 바꿉니다.
검증 단계
새로 생성된 default.target을 확인합니다.
$ systemctl get-default multi-user.target
15.6. 복구 모드로 부팅
복구 모드에서는 편리한 단일 사용자 환경을 제공하며, 일반 부팅 프로세스를 완료할 수 없는 상황에서 시스템을 복구할 수 있습니다. 복구 모드에서는 시스템이 모든 로컬 파일 시스템을 마운트하고 특정 중요한 시스템 서비스를 시작하려고 하지만 네트워크 인터페이스를 활성화하지 않거나 더 많은 사용자가 동시에 시스템에 로그인할 수 없습니다.
절차
복구 모드로 들어가려면 현재 세션의 현재 대상을 변경합니다.
# systemctl rescue Broadcast message from root@localhost on pts/0 (Fri 2013-10-25 18:23:15 CEST): The system is going down to rescue mode NOW!
참고이 명령은
systemctl isolate rescue.target
과 유사하지만 현재 시스템에 로그인된 모든 사용자에게 정보 메시지를 전송합니다.systemd
가 메시지를 전송하지 못하도록 하려면--no-wall
명령줄 옵션을 사용하여 다음 명령을 실행합니다.# systemctl --no-wall rescue
15.7. 긴급 모드로 부팅
긴급 모드에서는 가능한 최소한의 환경을 제공하며, 시스템이 복구 모드로 전환할 수 없는 상황에서도 시스템을 복구할 수 있습니다. 긴급 모드에서는 읽기 전용으로 루트 파일 시스템을 마운트하고 다른 로컬 파일 시스템을 마운트하지 않고 네트워크 인터페이스를 활성화하지 않으며 몇 가지 필수 서비스만 시작합니다.
절차
긴급 모드로 들어가려면 현재 대상을 변경합니다.
# systemctl emergency
참고이 명령은
systemctl isolate emergency.target
과 유사하지만 현재 시스템에 로그인된 모든 사용자에게 정보 메시지를 전송합니다.systemd가 이 메시지를 전송하지 못하도록 하려면
--no-wall
명령줄 옵션을 사용하여 다음 명령을 실행합니다.# systemctl --no-wall emergency
16장. 시스템 종료, 일시 중지 및 최대 절전 모드
이 섹션에는 운영 체제 종료, 일시 중단 또는 최대 절전 모드에 대한 지침이 포함되어 있습니다.
16.1. 시스템 종료
시스템을 종료하려면 systemctl
유틸리티를 직접 사용하거나 shutdown
명령을 통해 이 유틸리티를 호출할 수 있습니다.
shutdown
명령을 사용하면 다음과 같은 이점이 있습니다.
시간 인수 지원
이 기능은 특히 예약된 유지 보수에 유용합니다. 또한 사용자는 시스템 종료가 예약된 경고에 대응할 시간이 더 많습니다.
- 종료를 취소하는 옵션
16.2. shutdown 명령을 사용하여 시스템 종료
이 절차에 따라 shutdown
명령을 사용하여 다양한 작업을 수행할 수 있습니다. 시스템을 종료하고 특정 시간에 시스템의 전원을 끄거나 시스템의 전원을 끄거나 시스템의 전원을 끄지 않고 시스템을 중단하거나 보류 중인 종료를 취소할 수 있습니다.
사전 요구 사항
-
root 사용자로 전환합니다
절차
시스템을 종료하고 특정 시간에 시스템의 전원을 끄려면 다음 형식으로 명령을 사용합니다.
shutdown --poweroff hh:mm
여기서 hh:mm 는 24시간 형식의 시간입니다.
/run/nologin
파일은 새 로그인을 방지하기 위해 시스템 종료 5분 전에 생성됩니다.시간 인수를 사용하면 선택적 wall 메시지를 명령에 추가할 수 있습니다.
또는 시스템의 전원을 끄지 않고 지연된 후 시스템을 종료하고 중지하려면 다음을 사용합니다.
shutdown --halt +m
여기서 +m 은 지연 시간(분)입니다.
now
키워드는+0
의 별칭입니다.보류 중인 종료를 취소하려면 다음을 사용합니다.
shutdown -c
추가 리소스
-
shutdown(8)
매뉴얼 페이지 - systemctl 명령을 사용하여 시스템 종료
16.3. systemctl 명령을 사용하여 시스템 종료
이 절차에 따라 systemctl
명령을 사용하여 다양한 작업을 수행할 수 있습니다. 시스템을 종료하고 시스템의 전원을 끄거나 시스템의 전원을 끄고 시스템의 전원을 끄지 않고 시스템을 종료하고 중지할 수 있습니다.
사전 요구 사항
-
root 사용자로 전환합니다
절차
시스템을 종료하고 시스템의 전원을 끄려면 다음 형식으로 명령을 사용합니다.
systemctl poweroff
또는 시스템의 전원을 끄지 않고 시스템을 종료하고 중지하려면 다음을 사용합니다.
systemctl halt
기본적으로 이러한 명령 중 하나를 실행하면 systemd에서 현재 시스템에 로그인한 모든 사용자에게 정보 메시지를 보냅니다. systemd가 이 메시지를 보내지 않도록 하려면 선택한 명령을 --no-wall
명령줄 옵션과 함께 실행합니다.
추가 리소스
16.4. 시스템을 다시 시작
이 절차에 따라 시스템을 다시 시작할 수 있습니다.
사전 요구 사항
-
root 사용자로 전환합니다
절차
시스템을 다시 시작하려면 다음 명령을 실행합니다.
systemctl reboot
기본적으로 이 명령을 실행하면 systemd에서 현재 시스템에 로그인한 모든 사용자에게 정보 메시지를 보냅니다. systemd가 이 메시지를 보내지 않도록 하려면 --no-wall
명령줄 옵션을 사용하여 이 명령을 실행합니다.
16.5. 시스템 일시 중단
이 절차에 따라 시스템을 일시 중단할 수 있습니다.
사전 요구 사항
-
root 사용자로 전환합니다
.
절차
시스템을 일시 중단하려면 다음 명령을 실행합니다.
systemctl suspend
이 명령은 RAM에 시스템 상태를 저장하고 RAM 모듈을 제외하고 시스템의 대부분의 장치의 전원을 끕니다. 시스템을 다시 켜면 시스템은 다시 부팅하지 않고도 RAM에서 상태를 복원합니다.
시스템 상태가 하드 디스크에 저장되지 않고 RAM에 저장되므로 시스템을 일시 중지 모드에서 복원하는 것은 최대 절전 모드보다 훨씬 빠릅니다. 그러나 일시 중단된 시스템 상태도 정전에 취약합니다.
추가 리소스
16.6. 시스템 최대 절전 모드
이 절차를 따라 시스템을 최대 절전 모드로 전환하거나 최대 절전 모드를 해제하고 시스템을 일시 중단할 수 있습니다.
사전 요구 사항
-
root 사용자로 전환합니다
.
절차
시스템을 최대화하려면 다음 명령을 실행합니다.
systemctl hibernate
이 명령은 하드 디스크 드라이브에 시스템 상태를 저장하고 시스템의 전원을 끕니다. 시스템을 다시 켜면 시스템에서 다시 부팅하지 않고도 저장된 데이터에서 해당 상태를 복원합니다.
시스템 상태가 RAM이 아닌 하드 디스크에 저장되므로 시스템은 RAM 모듈에 대한 전기 전원을 유지할 필요가 없습니다. 그러나 이로 인해 시스템을 최대 절전 모드로 복원하는 것은 일시 중지 모드에서 복원하는 것보다 훨씬 느립니다.
또는 시스템을 최대화하고 일시 중단하려면 다음 명령을 실행합니다.
systemctl hybrid-sleep
추가 리소스
16.7. systemctl을 사용하여 전원 관리 명령 개요
다음 systemctl
명령 목록을 사용하여 시스템의 전원 관리를 제어할 수 있습니다.
표 16.1. systemctl 전원 관리 명령 개요
systemctl 명령 | 설명 |
---|---|
| 시스템을 중지합니다. |
| 시스템의 전원을 끕니다. |
| 시스템을 다시 시작합니다. |
| 시스템을 일시 중단합니다. |
| 시스템을 최대 절전 모드로 전환합니다. |
| 시스템을 최대화 및 일시 중단합니다. |
17장. systemd 장치 파일 작업
이 장에서는 systemd 유닛 파일에 대한 설명을 포함합니다. 다음 섹션에서는 다음을 수행하는 방법을 보여줍니다.
- 사용자 정의 유닛 파일 만들기
- SysV init 스크립트를 장치 파일로 변환
- 기존 장치 파일 수정
- 인스턴스화된 유닛으로 작업
17.1. 장치 파일 소개
유닛 파일에는 유닛을 설명하고 동작을 정의하는 구성 지시문이 포함되어 있습니다. 백그라운드에서 여러 개의 systemctl
명령이 유닛 파일을 사용하여 작동합니다. 보다 세밀하게 조정하기 위해 시스템 관리자는 수동으로 유닛 파일을 편집하거나 만들어야 합니다. systemd 장치 파일은 시스템에 저장된 3개의 기본 디렉토리를 나열합니다. /etc/systemd/system/
디렉터리는 시스템 관리자가 만들거나 사용자 지정하는 장치 파일에 대해 예약됩니다.
장치 파일 이름은 다음과 같은 형식을 취합니다.
unit_name.type_extension
여기에서 unit_name 은 유닛의 이름을 나타내고 type_extension 은 유닛 유형을 식별합니다. 장치 유형 전체 목록은 systemd 장치 파일을 참조하십시오.
예를 들어 일반적으로 시스템에 sshd.service
및 sshd.socket
장치가 있습니다.
유닛 파일은 추가 구성 파일의 디렉터리를 보완할 수 있습니다. 예를 들어 사용자 지정 구성 옵션을 sshd.service
에 추가하려면 sshd.service.d/custom.conf
파일을 만들고 추가 지시문을 삽입합니다. 구성 디렉터리에 대한 자세한 내용은 기존 장치 파일 수정을 참조하십시오.
또한 sshd.service.wants/
및 sshd.service.requires/
디렉터리를 만들 수 있습니다. 이러한 디렉터리에는 sshd
서비스의 종속성인 장치 파일에 대한 심볼릭 링크가 포함되어 있습니다. 심볼릭 링크는 [Install] 유닛 파일 옵션에 따라 설치 중 자동으로 생성되거나 [Unit] 옵션을 기반으로 런타임에 생성됩니다. 이러한 디렉터리와 심볼릭 링크를 수동으로 만들 수도 있습니다. [Install] 및 [Unit] 옵션에 대한 자세한 내용은 아래 표를 참조하십시오.
많은 유닛 파일 옵션은 유닛 파일이 로드될 때 유닛 매개 변수로 동적으로 대체되는 와일드카드 문자열인 유닛 지정 자를 사용하여 설정할 수 있습니다. 이를 통해 인스턴스화된 유닛 생성을 위한 템플릿 역할을 하는 일반 유닛 파일을 만들 수 있습니다. 인스턴스화 단위 작업을 참조하십시오.
17.2. 장치 파일 구조
단위 파일은 일반적으로 세 개의 섹션으로 구성됩니다.
-
[Unit]
섹션에는 유닛 유형에 종속되지 않는 일반 옵션이 포함되어 있습니다. 이러한 옵션은 유닛 설명을 제공하고, 유닛의 동작을 지정하고, 종속성을 다른 유닛으로 설정합니다. 자주 사용하는 [Unit] 옵션 목록은 중요 [Unit] 섹션 옵션을 참조하십시오. -
[Unit type]
섹션 - 유닛에 유형별 지시문이 있는 경우 유닛 유형 뒤에 이름이 지정된 섹션 아래에 그룹화됩니다. 예를 들어 서비스 유닛 파일에는[Service]
섹션이 포함되어 있습니다. -
[Install]
섹션 -systemctl enable
및disable
명령에서 사용하는 유닛 설치에 대한 정보를 포함합니다.[Install]
섹션의 옵션 목록은 Important [Install] 섹션 옵션을 참조하십시오.
17.3. 중요 [Unit] 섹션 옵션
다음 표에는 [Unit] 섹션의 중요한 옵션이 나열되어 있습니다.
표 17.1. 중요 [Unit] 섹션 옵션
옵션 [a] | 설명 |
---|---|
|
유닛에 대한 의미 있는 설명입니다. 이 텍스트는 예를 들어 |
| 단원에 대한 참조 문서를 참조하는 URI 목록을 제공합니다. |
|
유닛이 시작되는 순서를 정의합니다. 유닛은 after에 지정된 유닛이 활성화된 후에 시작된 |
|
다른 유닛에 대한 종속성을 구성합니다. |
|
|
|
음수 종속성을 구성합니다. 즉, |
[a]
[Unit] 섹션에서 구성 가능한 전체 옵션 목록은 systemd.unit(5) 매뉴얼 페이지를 참조하십시오.
[b]
대부분의 경우 유닛 파일 옵션 이전과 함께 순서 종속성만 설정하는 것이 충분합니다. 또한 Wants (권장) 또는 Requires 를 사용하여 요구 사항 종속성을 설정하는 경우에도 주문 종속성을 계속 지정해야 합니다. 이는 순서 및 요구 사항 종속성이 서로 독립적으로 작동하기 때문입니다.
|
17.4. 중요 [서비스] 섹션 옵션
다음 표에는 [Service] 섹션의 중요한 옵션이 나열되어 있습니다.
표 17.2. 중요 [서비스] 섹션 옵션
옵션 [a] | 설명 |
---|---|
|
*
*
*
*
*
* |
|
유닛을 시작할 때 실행할 명령 또는 스크립트를 지정합니다. |
| 유닛이 중지될 때 실행할 명령 또는 스크립트를 지정합니다. |
| 장치가 다시 로드될 때 실행할 명령 또는 스크립트를 지정합니다. |
|
이 옵션을 활성화하면 |
|
True로 설정하면 모든 프로세스가 종료된 경우에도 서비스가 활성으로 간주됩니다. 기본값은 False입니다. 이 옵션은 |
[a]
[Service] 섹션에서 구성 가능한 전체 옵션 목록은 systemd.service(5) 도움말 페이지를 참조하십시오.
|
17.5. 중요 [설치] 섹션 옵션
다음 표에는 [Install] 섹션의 중요한 옵션이 나열되어 있습니다.
표 17.3. 중요 [설치] 섹션 옵션
옵션 [a] | 설명 |
---|---|
|
에서는 유닛에 대한 추가 이름의 공백으로 구분된 목록을 제공합니다. |
|
유닛에 종속된 유닛 목록입니다. 이 유닛이 활성화되면 |
|
단위에 약하게 의존하는 유닛 목록입니다. 이 유닛이 활성화되면 |
| 장치와 함께 설치하거나 제거할 유닛 목록을 지정합니다. |
| 인스턴스화된 유닛으로 제한되는 이 옵션은 유닛이 활성화된 기본 인스턴스를 지정합니다. 인스턴스화된 유닛 작업을 참조하십시오. |
[a]
[Install] 섹션에서 구성 가능한 전체 옵션 목록은 systemd.unit(5) 매뉴얼 페이지를 참조하십시오.
|
17.6. 사용자 정의 유닛 파일 생성
단위 파일을 처음부터 생성하는 데는 몇 가지 사용 사례가 있습니다. 사용자 정의 데몬을 실행하고, sshd 서비스의 두 번째 인스턴스를 사용하여 사용자 지정 유닛 파일을 생성할 때 기존 서비스의 두 번째 인스턴스를생성할 수 있습니다.
그러나 기존 유닛의 동작을 수정하거나 확장하려는 경우 기존 유닛 파일 수정 의 지침을 사용합니다.
절차
다음 절차에서는 사용자 지정 서비스를 생성하는 일반적인 프로세스를 설명합니다.
-
사용자 지정 서비스를 사용하여 실행 가능 파일을 준비합니다. 사용자 정의 생성 스크립트 또는 소프트웨어 프로바이더가 제공하는 실행 파일일 수 있습니다. 필요한 경우 사용자 지정 서비스의 기본 프로세스에 대한 지속적인 PID를 보유하도록 PID 파일을 준비합니다. 서비스의 쉘 변수를 저장할 환경 파일을 포함할 수도 있습니다. 소스 스크립트가 실행 가능하고(
chmod a+x
) 대화형이 아닌지 확인합니다. /etc/systemd/system/
디렉토리에 유닛 파일을 만들고 올바른 파일 권한이 있는지 확인합니다.루트로
실행 :touch /etc/systemd/system/name.service
chmod 664 /etc/systemd/system/name.service
name 을 생성할 서비스의 이름으로 바꿉니다. 파일을 실행할 필요는 없습니다.
이전 단계에서 만든
name.service
파일을 열고 서비스 구성 옵션을 추가합니다. 생성하려는 서비스 유형에 따라 사용할 수 있는 다양한 옵션이 있습니다. 유닛 파일 구조를 참조하십시오.다음은 네트워크 관련 서비스에 대한 유닛 구성의 예입니다.
[Unit] Description=service_description After=network.target [Service] ExecStart=path_to_executable Type=forking PIDFile=path_to_pidfile [Install] WantedBy=default.target
다음과 같습니다.
-
service_description 은 저널 로그 파일과
systemctl status
명령의 출력에 표시되는 정보적 설명입니다. -
after
설정
은 네트워크가 실행된 후에만 서비스가 시작되는지 확인합니다. 다른 관련 서비스 또는 타겟의 공백으로 구분된 목록을 추가합니다. - path_to_executable 은 실제 서비스 실행 파일의 경로를 나타냅니다.
-
type=forking
은 fork 시스템 호출을 수행하는 데몬에 사용됩니다. 서비스의 기본 프로세스는 path_to_pidfile 에 지정된 PID로 생성됩니다. 중요한 [서비스] 섹션에서 다른 시작 유형을 찾습니다. -
WantedBy
는 서비스를 시작해야 하는 대상 또는 대상을 지정합니다. 이러한 대상을 런레벨의 이전 개념을 대체하는 것으로 생각하십시오.
-
service_description 은 저널 로그 파일과
root
로 다음 명령을 실행하여 새name.service
파일이 있는지 systemd 에 알립니다.systemctl daemon-reload
systemctl start name.service
주의새 장치 파일을 생성하거나 기존 유닛 파일을 수정한 후 항상
systemctl daemon-reload
명령을 실행합니다. 그러지 않으면 디스크의 systemd 및 실제 서비스 유닛 파일의 상태가 일치하지 않아systemctl start
또는 systemctl enable
17.7. sshd 서비스의 두 번째 인스턴스를 사용하여 사용자 지정 유닛 파일 만들기
시스템 관리자는 종종 여러 개의 서비스 인스턴스를 구성하고 실행해야 합니다. 이 작업은 원래 서비스 구성 파일의 복사본을 생성하고 서비스의 기본 인스턴스와의 충돌을 방지하기 위해 특정 매개 변수를 수정하여 수행됩니다. 다음 절차에서는 sshd
서비스의 두 번째 인스턴스를 만드는 방법을 보여줍니다.
절차
두 번째 데몬에서 사용할
sshd_config
파일의 사본을 생성합니다.# cp /etc/ssh/sshd{,-second}_config
이전 단계에서 만든
sshd-second_config
파일을 편집하여 다른 포트 번호와 PID 파일을 두 번째 데몬에 할당합니다.Port 22220 PidFile /var/run/sshd-second.pid
Port
및PidFile
옵션에 대한 자세한 내용은sshd_config
(5) 매뉴얼 페이지를 참조하십시오. 선택한 포트가 다른 서비스에서 사용 중인지 확인합니다. PID 파일은 서비스를 실행하기 전에 존재할 필요는 없으며, 서비스 시작 시 자동으로 생성됩니다.sshd
서비스에 대한 systemd 장치 파일 복사본을 생성합니다.# cp /usr/lib/systemd/system/sshd.service /etc/systemd/system/sshd-second.service
이전 단계에서 만든
sshd-second.service
를 다음과 같이 변경합니다.Description
(설명) 옵션을 수정합니다.Description=OpenSSH server second instance daemon
첫 번째 인스턴스가 이미 시작된
후에만 시작되도록 후
옵션에 지정된 서비스에 sshd.service를 추가합니다.After=syslog.target network.target auditd.service sshd.service
- sshd의 첫 번째 인스턴스는 키 생성을 포함하므로 ExecStartPre=/usr/sbin/sshd-keygen 행을 제거합니다.
대체 구성 파일이 사용되도록
sshd
명령에-f /etc/ssh/sshd-second_config
매개 변수를 추가합니다.ExecStart=/usr/sbin/sshd -D -f /etc/ssh/sshd-second_config $OPTIONS
위의 수정 후 sshd-second.service는 다음과 같이 표시됩니다.
[Unit] Description=OpenSSH server second instance daemon After=syslog.target network.target auditd.service sshd.service [Service] EnvironmentFile=/etc/sysconfig/sshd ExecStart=/usr/sbin/sshd -D -f /etc/ssh/sshd-second_config $OPTIONS ExecReload=/bin/kill -HUP $MAINPID KillMode=process Restart=on-failure RestartSec=42s [Install] WantedBy=multi-user.target
SELinux를 사용하는 경우 sshd의 두 번째 인스턴스에 대한 포트를 SSH 포트에 추가합니다. 그렇지 않으면 두 번째 sshd의 두 번째 인스턴스가 포트에 바인딩되도록 거부됩니다.
# semanage port -a -t ssh_port_t -p tcp 22220
부팅 시 자동으로 시작되도록 sshd-second.service를 활성화합니다.
# systemctl enable sshd-second.service
-
systemctl status
명령을 사용하여 sshd-second.service가 실행 중인지 확인합니다. 서비스에 연결하여 포트가 올바르게 활성화되었는지 확인합니다.
$
ssh -p 22220 user@server
방화벽이 사용 중인 경우 sshd의 두 번째 인스턴스에 대한 연결을 허용하도록 적절하게 구성되었는지 확인합니다.
17.8. SysV init 스크립트를 장치 파일로 변환
SysV init 스크립트를 유닛 파일로 변환하기 전에 아직 변환이 수행되지 않았는지 확인하십시오. Red Hat Enterprise Linux에 설치된 모든 핵심 서비스는 기본 유닛 파일과 함께 제공되며 많은 타사 소프트웨어 패키지에도 동일하게 적용됩니다.
init 스크립트를 유닛 파일로 변환하려면 스크립트를 분석하고 필요한 정보를 추출해야 합니다. 이 데이터를 기반으로 유닛 파일을 만들 수 있습니다. init 스크립트는 서비스 유형에 따라 크게 달라질 수 있으므로 이 장에 설명된 것보다 번역에 대한 추가 구성 옵션을 사용해야 할 수도 있습니다. init 스크립트에서 사용할 수 있는 일부 수준의 사용자 지정은 더 이상 systemd 유닛에서 지원하지 않습니다.
변환에 필요한 대부분의 정보는 스크립트의 헤더에 제공됩니다. 다음 예에서는 Red Hat Enterprise Linux 6에서 postfix
서비스를 시작하는 데 사용되는 init 스크립트의 열기 섹션을 보여줍니다.
#!/bin/bash # postfix Postfix Mail Transfer Agent # chkconfig: 2345 80 30 # description: Postfix is a Mail Transport Agent, which is the program that moves mail from one machine to another. # processname: master # pidfile: /var/spool/postfix/pid/master.pid # config: /etc/postfix/main.cf # config: /etc/postfix/master.cf ### BEGIN INIT INFO # Provides: postfix MTA # Required-Start: $local_fs $network $remote_fs # Required-Stop: $local_fs $network $remote_fs # Default-Start: 2 3 4 5 # Default-Stop: 0 1 6 # Short-Description: start and stop postfix # Description: Postfix is a Mail Transport Agent, which is the program that moves mail from one machine to another. ### END INIT INFO
위의 예에서 # chkconfig 및 # description 으로 시작하는 행만 필수이므로 다른 init 파일에서 나머지를 찾을 수 없습니다. BEGIN INIT INFO(BeGIN INIT INFO) 및 END INIT INFO( 종료 정보) 행 사이에 묶은 텍스트를 LSB (Linux Standard Base) 헤더 라고 합니다. 지정된 경우 LSB 헤더에는 서비스 설명, 종속성 및 기본 런레벨을 정의하는 지시문이 포함되어 있습니다. 다음은 새 유닛 파일에 필요한 데이터를 수집하는 것을 목표로 하는 분석 작업의 개요입니다. postfix init 스크립트가 예제로 사용됩니다.
17.9. systemd 서비스 설명 찾기
스크립트에 대한 설명은 #description 으로 시작하여 행에서 확인할 수 있습니다. 유닛 파일의 [Unit] 섹션에 있는 Description(설명
) 옵션에 있는 서비스 이름과 함께 이 설명을 사용합니다. LSB 헤더에는 #Short-Description 및 #Description 행에 비슷한 데이터가 포함될 수 있습니다.
17.10. systemd 서비스 종속성 찾기
LSB 헤더에는 서비스 간 종속성을 구성하는 여러 지시문이 포함될 수 있습니다. 대부분 systemd 장치 옵션으로 번역할 수 있습니다. 다음 표를 참조하십시오.
표 17.4. LSB 헤더의 종속성 옵션
LSB 옵션 | 설명 | 단위 파일 등가 |
---|---|---|
| 서비스의 부팅 기능 이름을 지정합니다. 이 이름은 다른 init 스크립트에서 참조할 수 있습니다( "$" 접두사 사용). 유닛 파일이 파일 이름으로 다른 유닛을 참조하므로 더 이상 필요하지 않습니다. | – |
|
필수 서비스의 부팅 기능 이름을 포함합니다. 이는 순서 종속성으로 변환되며 부팅 기능 이름은 해당 서비스 또는 대상이 속한 유닛 파일 이름으로 바뀝니다. 예를 들어 |
그 |
| Required-Start보다 더 약한 종속성을 구성합니다. 실패한 종속성은 서비스 시작에 영향을 주지 않습니다. |
그 |
| 부정적인 종속성을 구성합니다. |
|
17.11. 서비스의 기본 대상 찾기
#chkconfig 로 시작하는 행에는 세 개의 숫자 값이 포함됩니다. 가장 중요한 것은 서비스가 시작되는 기본 런레벨을 나타내는 첫 번째 숫자입니다. 동일한 systemd 대상에 이러한 런레벨을 매핑합니다. 그런 다음 해당 대상을 장치 파일의 [Install] 섹션에 있는 WantedBy
옵션에 나열합니다. 예를 들어 postfix
는 이전에 런레벨 2, 3, 4, 5에서 시작되어 multi-user.target 및 graphical.target으로 변환되었습니다. graphical.target은 multiuser.target에 따라 달라지므로 둘 다 지정할 필요가 없습니다. 기본 및 금지된 런레벨에 대한 정보는 LSB 헤더의 #Default-Start 및 #Default-Stop 행에서도 찾을 수 있습니다.
#chkconfig 행에 지정된 다른 두 값은 init 스크립트의 시작 및 종료 우선 순위를 나타냅니다. 이러한 값은 init 스크립트를 로드하는 경우 systemd 에서 해석되지만 동일한 유닛 파일이 없습니다.
17.12. 서비스에서 사용하는 파일 찾기
Init 스크립트를 사용하려면 전용 디렉터리에서 기능 라이브러리를 로드하고 구성, 환경 및 PID 파일을 가져올 수 있어야 합니다. 환경 변수는 init 스크립트 헤더에서 #config 로 시작하는 행에서 지정되며 EnvironmentFile
장치 파일 옵션으로 변환됩니다. #pidfile init 스크립트 행에 지정된 PID 파일은 PIDFile
옵션을 사용하여 유닛 파일로 가져옵니다.
init 스크립트 헤더에 포함되지 않은 주요 정보는 서비스 실행 파일의 경로이며 서비스에 필요한 기타 일부 파일입니다. 이전 버전의 Red Hat Enterprise Linux에서 init 스크립트는 Bash case 문을 사용하여 start,stop 또는 restart 등의 기본 작업과 사용자 지정 정의 작업 등의 서비스 동작을 정의했습니다. postfix
init 스크립트에서 발췌한 다음 발췌 내용은 서비스를 시작할 때 실행할 코드 블록을 보여줍니다.
conf_check() { [ -x /usr/sbin/postfix ] || exit 5 [ -d /etc/postfix ] || exit 6 [ -d /var/spool/postfix ] || exit 5 } make_aliasesdb() { if [ "$(/usr/sbin/postconf -h alias_database)" == "hash:/etc/aliases" ] then # /etc/aliases.db might be used by other MTA, make sure nothing # has touched it since our last newaliases call [ /etc/aliases -nt /etc/aliases.db ] || [ "$ALIASESDB_STAMP" -nt /etc/aliases.db ] || [ "$ALIASESDB_STAMP" -ot /etc/aliases.db ] || return /usr/bin/newaliases touch -r /etc/aliases.db "$ALIASESDB_STAMP" else /usr/bin/newaliases fi } start() { [ "$EUID" != "0" ] && exit 4 # Check that networking is up. [ ${NETWORKING} = "no" ] && exit 1 conf_check # Start daemons. echo -n $"Starting postfix: " make_aliasesdb >/dev/null 2>&1 [ -x $CHROOT_UPDATE ] && $CHROOT_UPDATE /usr/sbin/postfix start 2>/dev/null 1>&2 && success || failure $"$prog start" RETVAL=$? [ $RETVAL -eq 0 ] && touch $lockfile echo return $RETVAL }
init 스크립트의 확장성을 통해 start() 함수 블록에서 호출되는
지정할 수 있었습니다. 자세히 살펴보면 위의 코드에서 여러 외부 파일과 디렉토리 즉, 기본 서비스 실행 파일 conf_check()
및 make_aliasesdb()
라는 두 가지 사용자 지정 함수를/usr/sbin/postfix
, /etc/postfix/
, /var/spool/postfix/
구성 디렉토리와 /usr/sbin/postconf/
디렉토리가 언급됩니다.
systemd 는 사전 정의된 작업만 지원하지만 ExecStartPre,
ExecStart
Post, Exec
Stop
및 ExecReload
옵션을 사용하여 사용자 지정 실행 파일을 실행할 수 있습니다. 지원 스크립트와 함께 /usr/sbin/postfix
는 서비스 시작 시 실행됩니다. 복잡한 init 스크립트를 변환하려면 스크립트의 모든 명령의 목적을 이해해야 합니다. 일부 문은 운영 체제 버전에 따라 다르므로 변환할 필요가 없습니다. 한편, 새 환경에는 유닛 파일뿐만 아니라 서비스 실행 파일 및 지원 파일에 몇 가지 조정이 필요할 수 있습니다.
17.13. 기존 장치 파일 수정
시스템에 설치된 서비스에는 /usr/lib/systemd/system/
디렉터리에 저장된 기본 유닛 파일이 포함되어 있습니다. 시스템 관리자는 이러한 파일을 직접 수정해서는 안 되므로 사용자 지정은 /etc/systemd/system/
디렉터리의 구성 파일로 제한되어야 합니다.
절차
필요한 변경 범위에 따라 다음 방법 중 하나를 선택합니다.
-
/etc/systemd/system/unit.d/
에서 보조 구성 파일의 디렉토리를 만듭니다. 이 방법은 대부분의 사용 사례에 권장됩니다. 원래 유닛 파일을 참조하는 동안 추가 기능을 사용하여 기본 구성을 확장할 수 있습니다. 따라서 패키지 업그레이드를 통해 도입된 기본 유닛에 대한 변경 사항이 자동으로 적용됩니다. 자세한 내용은 기본 장치 구성 확장을 참조하십시오. -
원본 유닛 파일
/usr/lib/systemd/system/의 사본을
만들고 여기에서 변경합니다. 복사본은 원래 파일을 재정의하므로 패키지 업데이트로 도입된 변경 사항은 적용되지 않습니다. 이 방법은 패키지 업데이트에 관계없이 지속되어야 하는 중요한 유닛 변경을 수행하는 데 유용합니다. 자세한 내용은 기본 장치 구성 덮어쓰기 를 참조하십시오./etc/systemd/system/
에
-
-
유닛의 기본 구성으로 돌아가려면
/etc/systemd/system/
에서 사용자 지정으로 생성된 구성 파일을 삭제합니다. 시스템을 재부팅하지 않고 유닛 파일에 변경 사항을 적용하려면 다음을 실행합니다.
systemctl daemon-reload
daemon-reload
옵션은 모든 유닛 파일을 다시 로드하고 전체 종속성 트리를 다시 생성합니다. 이 트리는 유닛 파일에 변경 사항을 즉시 적용하는 데 필요합니다. 또는root
사용자로 실행해야 하는 다음 명령을 사용하여 동일한 결과를 얻을 수 있습니다.init q
수정된 유닛 파일이 실행 중인 서비스에 속하는 경우 새 설정을 허용하려면 이 서비스를 다시 시작해야 합니다.
systemctl restart name.service
SysV initscript에서 처리하는 서비스의 종속성 또는 시간 초과와 같은 속성을 수정하려면 initscript 자체를 수정하지 마십시오. 대신 다음에 설명된 대로 서비스에 대한 systemd
드롭인 구성 파일을 생성합니다. 기본 단위 구성 및 기본 장치 구성을 덮어 씁니다.
그런 다음 이 서비스를 일반 systemd
서비스와 동일한 방식으로 관리합니다.
예를 들어 네트워크
서비스의 구성을 확장하려면 /etc/rc.d/init.d/network
initscript 파일을 수정하지 마십시오. 대신 새 디렉토리 /etc/systemd/system/network.service.d/
및 systemd
드롭인 파일 /etc/systemd/system/network.service.d/my_config.conf
를 만듭니다. 그런 다음 수정된 값을 드롭인 파일에 넣습니다. 참고: systemd
는 네트워크 서비스를 network
.service
로 알고 있으므로 생성된 디렉토리를 network.service.d라고 해야 합니다.
17.14. 기본 장치 구성 확장
이 섹션에서는 추가 구성 옵션으로 기본 유닛 파일을 확장하는 방법에 대해 설명합니다.
절차
추가 구성 옵션을 사용하여 기본 유닛 파일을 확장하려면 먼저
/etc/systemd/system/
에 구성 디렉토리를 만듭니다. 서비스 유닛을 확장하는 경우 다음 명령을루트로
실행하십시오 :mkdir /etc/systemd/system/name.service.d/
name 을 확장하려는 서비스의 이름으로 바꿉니다. 위의 구문은 모든 유닛 유형에 적용됩니다.
이전 단계에서 만든 디렉터리에 구성 파일을 생성합니다. 파일 이름은 .conf 접미사로 끝나야 합니다. 유형:
touch /etc/systemd/system/name.service.d/config_name.conf
config_name 을 구성 파일의 이름으로 바꿉니다. 이 파일은 일반적인 유닛 파일 구조를 준수하므로 모든 지시문을 해당 섹션에서 지정해야 합니다. 단위 파일 구조를 참조하십시오.
예를 들어 사용자 지정 종속성을 추가하려면 다음 콘텐츠를 사용하여 구성 파일을 생성합니다.
[Unit] Requires=new_dependency After=new_dependency
new_dependency 는 종속성으로 표시된 유닛을 나타냅니다. 또 다른 예는 지연이 30초이고 기본 프로세스가 종료된 후 서비스를 다시 시작하는 구성 파일이 있습니다.
[Service] Restart=always RestartSec=30
한 작업에만 중점을 둔 작은 구성 파일을 만드는 것이 좋습니다. 이러한 파일은 쉽게 이동하거나 다른 서비스의 구성 디렉토리에 연결할 수 있습니다.
장치에 변경 사항을 적용하려면
루트로
다음을 실행합니다 :systemctl daemon-reload
systemctl restart name.service
예 17.1. httpd.service 구성 확장
Apache 서비스를 시작할 때 사용자 지정 쉘 스크립트가 자동으로 실행되도록 httpd.service 장치를 수정하려면 다음 단계를 수행합니다.
디렉터리 및 사용자 지정 구성 파일을 생성합니다.
# mkdir /etc/systemd/system/httpd.service.d/
# touch /etc/systemd/system/httpd.service.d/custom_script.conf
Apache로 자동 시작하려는 스크립트가
/usr/local/bin/custom.sh
에 있는 경우custom_script.conf 파일에 다음 텍스트를 삽입합니다.
[Service] ExecStartPost=/usr/local/bin/custom.sh
장치 변경 사항을 적용하려면 다음을 실행합니다.
# systemctl daemon-reload
# systemctl restart httpd.service
/etc/systemd/system/의 구성 디렉토리의 구성 파일은
의 유닛 파일보다 우선합니다. 따라서 구성 파일에 /usr/
lib/systemd/system/Description
또는 ExecStart
와 같이 한 번만 지정할 수 있는 옵션이 포함된 경우 이 옵션의 기본값이 재정의됩니다. 재정의된 단위 모니터링에 설명된 systemd-delta
명령의 출력에서 이러한 단위는 합계에 따라 특정 옵션이 실제로 재정의 되지만 항상 [EXTENDED]로 표시됩니다.
17.15. 기본 장치 구성 덮어쓰기
이 섹션에서는 기본 유닛 구성을 재정의하는 방법을 설명합니다.
절차
유닛 파일을 제공하는 패키지를 업데이트한 후에도 지속되는 변경 사항은 먼저 파일을
/etc/systemd/system/
디렉터리에 복사합니다. 이렇게 하려면root
로 다음 명령을 실행하십시오.cp /usr/lib/systemd/system/name.service /etc/systemd/system/name.service
여기서 name 은 수정할 서비스 유닛의 이름을 나타냅니다. 위의 구문은 모든 유닛 유형에 적용됩니다.
텍스트 편집기를 사용하여 복사한 파일을 열고 원하는 대로 변경합니다. 단위 변경 사항을 적용하려면
루트로
다음을 실행합니다 :systemctl daemon-reload
systemctl restart name.service
17.16. 시간 제한 변경
서비스당 시간 제한 값을 지정하여 오작동 서비스가 시스템을 중지하지 않도록 할 수 있습니다. 그렇지 않으면 일반 서비스의 경우 timeout을 기본적으로 90초로 설정하고 SysV 호환 서비스의 경우 300초로 설정합니다.
예를 들어 httpd
서비스의 시간 제한을 확장하려면 다음을 수행합니다.
절차
httpd
장치 파일을/etc/systemd/system/
디렉터리에 복사합니다.cp /usr/lib/systemd/system/httpd.service /etc/systemd/system/httpd.service
/etc/systemd/system/httpd.service
파일을 열고[Service]
섹션에서TimeoutStartUSec
값을 지정합니다.… [Service] … PrivateTmp=true TimeoutStartSec=10 [Install] WantedBy=multi-user.target …
systemd
데몬을 다시 로드합니다.systemctl daemon-reload
선택 사항: 새 시간 초과 값을 확인합니다.
systemctl show httpd -p TimeoutStartUSec
참고시간 제한 제한을 전역적으로 변경하려면
/etc/systemd/system.conf
파일에DefaultTimeoutStartSec
를 입력합니다.
17.17. 재정의된 유닛 모니터링
이 섹션에서는 재정의되거나 수정된 유닛 파일의 개요를 표시하는 방법에 대해 설명합니다.
절차
재정의되었거나 수정된 유닛 파일의 개요를 표시하려면 다음 명령을 사용합니다.
systemd-delta
예를 들어 위 명령의 출력은 다음과 같이 표시될 수 있습니다.
[EQUIVALENT] /etc/systemd/system/default.target → /usr/lib/systemd/system/default.target [OVERRIDDEN] /etc/systemd/system/autofs.service → /usr/lib/systemd/system/autofs.service --- /usr/lib/systemd/system/autofs.service 2014-10-16 21:30:39.000000000 -0400 + /etc/systemd/system/autofs.service 2014-11-21 10:00:58.513568275 -0500 @@ -8,7 +8,8 @@ EnvironmentFile=-/etc/sysconfig/autofs ExecStart=/usr/sbin/automount $OPTIONS --pid-file /run/autofs.pid ExecReload=/usr/bin/kill -HUP $MAINPID -TimeoutSec=180 +TimeoutSec=240 +Restart=Always [Install] WantedBy=multi-user.target [MASKED] /etc/systemd/system/cups.service → /usr/lib/systemd/system/cups.service [EXTENDED] /usr/lib/systemd/system/sssd.service → /etc/systemd/system/sssd.service.d/journal.conf 4 overridden configuration files found.
17.18. 인스턴스화된 유닛 작업
런타임 시 단일 템플릿 구성 파일에서 여러 유닛을 인스턴스화할 수 있습니다. "@" 문자는 템플릿을 표시하고 유닛을 연결하는 데 사용됩니다. 인스턴스화된 유닛은 다른 유닛 파일(필수 또는
Wants
옵션 사용) 또는systemctl start 명령을 사용하여 시작할
수 있습니다. 인스턴스화된 서비스 유닛의 이름은 다음과 같은 방법으로 지정됩니다.
template_name@instance_name.service
여기서 template_name 은 템플릿 구성 파일의 이름을 나타냅니다. instance_name 을 유닛 인스턴스의 이름으로 바꿉니다. 여러 인스턴스는 유닛의 모든 인스턴스에 공통적인 구성 옵션을 사용하여 동일한 템플릿 파일을 가리킬 수 있습니다. 템플릿 장치 이름은 다음과 같은 형식을 갖습니다.
unit_name@.service
예를 들어 유닛 파일의 다음 Wants
설정은 다음과 같습니다.
Wants=getty@ttyA.service getty@ttyB.service
먼저 지정된 서비스 유닛에 대한 systemd를 검색합니다. 이러한 유닛을 찾을 수 없는 경우 "@"와 유형 접미사 사이의 부분은 무시되고 systemd 는 getty@.service
파일을 검색하고, 해당 유닛에서 구성을 읽고, 서비스를 시작합니다.
예를 들어 getty@.service 템플릿에
는 다음 지시문이 포함되어 있습니다.
[Unit] Description=Getty on %I … [Service] ExecStart=-/sbin/agetty --noclear %I $TERM …
getty@ttyA.service와 getty@ttyB.service가 위의 템플릿에서 인스턴스화되면 Description
=은 ttyA에서 Getty로 확인되고 tty B에서 Getty 로 해결됩니다.
17.19. 중요한 장치 지정자
장치 지정자라고 하는 와일드카드 문자는 모든 유닛 구성 파일에서 사용할 수 있습니다. 단위는 특정 유닛 매개변수를 대체하고 런타임 시 해석됩니다. 다음 표에는 템플릿 유닛에 특히 유용한 유닛이 나열되어 있습니다.
표 17.5. 중요한 장치 지정자
장치 지정기 | 의미 | 설명 |
---|---|---|
| 전체 유닛 이름 |
유형 접미사를 포함하여 전체 단위 이름을 나타냅니다. |
| 접두사 이름 | 은 접미사가 제거된 유닛 이름을 나타냅니다. 인스턴스화 단위 %p는 "@" 문자 앞에 있는 유닛 이름의 부분을 나타냅니다. |
| 인스턴스 이름 |
는 "@" 문자와 접미사 유형 간 인스턴스화된 유닛 이름의 일부입니다. |
| 호스트 이름 | 유닛 구성이 로드되는 시점에서 실행 중인 시스템의 호스트 이름을 나타냅니다. |
| 런타임 디렉터리 |
|
유닛 사양의 전체 목록은 systemd.unit(5)
매뉴얼 페이지를 참조하십시오.
17.20. 추가 리소스
18장. systemd 최적화를 통해 부팅 시간 단축
기본적으로 활성화되어 있는 systemd 유닛 파일 목록이 있습니다. 이러한 유닛 파일에서 정의한 시스템 서비스는 부팅 시 자동으로 실행되며 부팅 시간에 영향을 미칩니다.
이 섹션에서는 다음을 설명합니다.
- 시스템 부팅 성능을 검사하는 툴입니다.
- 기본적으로 활성화된 systemd 유닛의 용도와 부팅 시간을 단축하기 위해 해당 systemd 유닛을 안전하게 비활성화할 수 있는 상황.
18.1. 시스템 부팅 성능 검사
시스템 부팅 성능을 검사하려면 systemd-analyze
명령을 사용할 수 있습니다. 이 명령에는 다양한 옵션을 사용할 수 있습니다. 그러나 이 섹션에서는 부팅 시간을 단축하기 위해 systemd 튜닝에 중요할 수 있는 선택된 튜닝만 다룹니다.
모든 옵션에 대한 전체 목록 및 자세한 설명은 systemd-analyze
도움말 페이지를 참조하십시오.
사전 요구 사항
- 부팅 시간을 조정하기 위해 systemd를 검사하기 전에 활성화된 모든 서비스를 나열할 수 있습니다.
절차
$ systemctl list-unit-files --state=enabled
전체 부팅 시간 분석
절차
- 마지막으로 성공한 부팅에 대한 전체 정보에서는 다음을 사용합니다.
$ systemd-analyze
단위 초기화 시간 분석
절차
- 각 systemd 단위의 초기화 시간에 대한 정보는 다음을 사용합니다.
$ systemd-analyze blame
출력에는 마지막 부팅이 성공하는 동안 초기화하는 데 걸리는 시간에 따라 내림차순으로 유닛이 나열됩니다.
위험 단위 식별
절차
- 마지막으로 성공한 부팅 시 초기화하는 데 가장 많은 시간이 소요된 유닛을 식별하려면 다음을 사용합니다.
$ systemd-analyze critical-chain
출력은 빨간색 색상으로 부팅 속도를 크게 저하시키는 유닛을 강조 표시합니다.
그림 18.1. systemd-analyze critical-chain 명령의 출력

18.2. 안전하게 비활성화할 수 있는 서비스 선택 가이드
시스템의 부팅 시간이 길어지면 기본적으로 부팅 시 활성화된 일부 서비스를 비활성화하여 시스템 부팅 시간을 단축할 수 있습니다.
이러한 서비스를 나열하려면 다음을 실행합니다.
$ systemctl list-unit-files --state=enabled
서비스를 비활성화하려면 다음을 실행합니다.
# systemctl disable service_name
그러나 운영 체제가 안전하고 필요한 방식으로 작동하려면 특정 서비스가 계속 활성화되어 있어야 합니다.
아래 표를 안전하게 비활성화할 수 있는 서비스를 선택하는 가이드로 사용할 수 있습니다. 테이블에는 Red Hat Enterprise Linux의 최소 설치에서 기본적으로 활성화된 모든 서비스가 나열되며, 각 서비스에 대해 이 서비스를 안전하게 비활성화할 수 있는지 여부가 표시됩니다.
또한 테이블에서는 서비스를 비활성화할 수 있는 상황 또는 서비스를 비활성화하지 않아야 하는 이유에 대한 자세한 정보를 제공합니다.
표 18.1. RHEL의 최소 설치에서 기본적으로 활성화된 서비스
서비스 이름 | 비활성화할 수 있습니까? | 자세한 정보 |
---|---|---|
auditd.service | 제공됨 |
커널의 감사 메시지가 필요하지 않은 경우에만 |
autovt@.service | 아니요 | 이 서비스는 실제로 필요한 경우에만 실행되므로 비활성화할 필요가 없습니다. |
crond.service | 제공됨 | crond.service를 비활성화하면 crontab의 항목이 실행되지 않습니다. |
dbus-org.fedoraproject.FirewallD1.service | 제공됨 |
|
dbus-org.freedesktop.NetworkManager.service | 제공됨 |
|
dbus-org.freedesktop.nm-dispatcher.service | 제공됨 |
|
firewalld.service | 제공됨 |
방화벽이 필요하지 않은 경우에만 |
getty@.service | 아니요 | 이 서비스는 실제로 필요한 경우에만 실행되므로 비활성화할 필요가 없습니다. |
import-state.service | 제공됨 |
네트워크 스토리지에서 부팅할 필요가 없는 경우에만 |
irqbalance.service | 제공됨 |
CPU가 하나만 있는 경우에만 |
kdump.service | 제공됨 |
커널 충돌의 보고서가 필요하지 않은 경우에만 |
loadmodules.service | 제공됨 |
|
lvm2-monitor.service | 제공됨 |
LVM(Logical Volume Manager)을 사용하지 않는 경우에만 |
microcode.service | 아니요 | CPU에서 마이크로 코드 소프트웨어의 업데이트를 제공하므로 서비스를 비활성화하지 마십시오. |
NetworkManager-dispatcher.service | 제공됨 |
네트워크 구성 변경에 대한 알림이 필요하지 않은 경우에만 |
NetworkManager-wait-online.service | 제공됨 |
부팅 직후 사용 가능한 작업 중인 네트워크 연결이 필요하지 않은 경우에만 |
NetworkManager.service | 제공됨 |
네트워크에 연결할 필요가 없는 경우에만 |
nis-domainname.service | 제공됨 |
NIS(Network Information Service)를 사용하지 않는 경우에만 |
rhsmcertd.service | 아니요 | |
rngd.service | 제공됨 |
Disable |
rsyslog.service | 제공됨 |
영구 로그가 필요하지 않은 경우에만 |
selinux-autorelabel-mark.service | 제공됨 |
SELinux를 사용하지 않는 경우에만 |
sshd.service | 제공됨 |
OpenSSH 서버에서 원격 로그인이 필요하지 않은 경우에만 |
sssd.service | 제공됨 |
네트워크에서 시스템에 로그인한 사용자가 없는 경우에만 |
syslog.service | 제공됨 |
|
tuned.service | 제공됨 |
성능 튜닝을 사용해야 하는 경우에만 |
lvm2-lvmpolld.socket | 제공됨 |
LVM(Logical Volume Manager)을 사용하지 않는 경우에만 |
dnf-makecache.timer | 제공됨 |
패키지 메타데이터를 자동으로 업데이트할 필요가 없는 경우에만 |
unbound-anchor.timer | 제공됨 |
DNSSEC(DNS Security Extensions)에 대한 루트 신뢰 앵커의 일상적인 업데이트가 필요하지 않은 경우에만 |
서비스에 대한 자세한 정보를 찾으려면 다음 명령 중 하나를 실행합니다.
$ systemctl cat <service_name>
$ systemctl help <service_name>
systemctl cat
명령은 /usr/lib/systemd/system/<service>
에 있는 서비스 파일의 내용과 적용 가능한 모든 재정의를 제공합니다. 적용 가능한 덮어쓰기에는 /etc/systemd/system/<service>
파일의 장치 파일 재정의 또는 해당 unit.type.d
디렉토리의 드롭인 파일이 포함됩니다.
드롭인 파일에 대한 자세한 내용은 systemd.unit
도움말 페이지를 참조하십시오.
systemctl help
명령은 특정 서비스의 도움말 페이지를 표시합니다.
18.3. 추가 리소스
-
systemctl
(1) 도움말 페이지 -
System
d (1) 도움말 페이지 -
systemd-delta
(1) 도움말 페이지 -
systemd.directives
(7) 도움말 페이지 -
systemd.unit
(5) 도움말 페이지 -
systemd.service
(5) 도움말 페이지 -
systemd.target
(5) 도움말 페이지 -
systemd.kill
(5) 도움말 페이지 - 시스템 홈 페이지
19장. 사용자 및 그룹 계정 관리 소개
사용자 및 그룹의 제어는 RHEL(Red Hat Enterprise Linux) 시스템 관리의 핵심 요소입니다. 각 RHEL 사용자에게는 고유한 로그인 자격 증명이 있으며 다양한 그룹에 할당하여 시스템 권한을 사용자 지정할 수 있습니다.
19.1. 사용자 및 그룹 소개
파일을 생성하는 사용자는 해당 파일의 소유자와 해당 파일의 그룹 소유자입니다. 파일에는 소유자, 그룹 및 해당 그룹 외부에 대한 별도의 읽기, 쓰기, 실행 권한이 할당됩니다. 파일 소유자는 root
사용자만 변경할 수 있습니다. 파일에 대한 액세스 권한은 root
사용자와 파일 소유자가 모두 변경할 수 있습니다. 일반 사용자는 소유한 파일의 그룹 소유권을 멤버인 그룹으로 변경할 수 있습니다.
각 사용자는UID(사용자 ID )라는 고유한 숫자 식별 번호와 연결됩니다. 각 그룹은GID( 그룹 ID )와 연결됩니다. 그룹 내의 사용자는 동일한 권한을 공유하여 해당 그룹이 소유한 파일을 읽고, 쓰고, 실행할 수 있습니다.
19.2. 예약된 사용자 및 그룹 ID 구성
RHEL은 1000 미만의 사용자 및 그룹 ID를 시스템 사용자 및 그룹을 위해 예약합니다. 예약된 사용자 및 그룹 ID는 setup
패키지에서 찾을 수 있습니다. 예약된 사용자 및 그룹 ID를 보려면 다음을 사용합니다.
cat /usr/share/doc/setup*/uidgid
향후 예약 범위가 증가할 수 있으므로 5000부터 시작하는 새 사용자 및 그룹에 ID를 할당하는 것이 좋습니다.
새 사용자에게 할당된 ID가 기본적으로 5000에서 시작되도록 하려면 /etc/login.defs
파일에서 UID
매개 변수를 수정합니다.
_MIN
및 GID_MIN
절차
새 사용자에게 할당된 ID를 수정하려면 기본적으로 5000에서 시작합니다.
-
선택한 편집기에서
/etc/login.defs
파일을 엽니다. 자동 UID 선택에 대한 최소 값을 정의하는 행을 찾습니다.
# Min/max values for automatic uid selection in useradd # UID_MIN 1000
5000에서 시작되도록
UID_MIN
값을 수정합니다.# Min/max values for automatic uid selection in useradd # UID_MIN 5000
자동 GID 선택에 대한 최소 값을 정의하는 행을 찾습니다.
# Min/max values for automatic gid selection in groupadd # GID_MIN 1000
GID_MIN
값을 수정하여 5000에서 시작합니다.# Min/max values for automatic gid selection in groupadd # GID_MIN 5000
일반 사용자에 대해 동적으로 할당된 UID 및 GID는 이제 5000에서 시작합니다.
참고UID_MIN 및 GID_MIN 값을 변경하기 전에 생성된 UID 및 GID의 사용자 및 그룹은 변경되지 않습니다.
이렇게 하면 새 사용자 그룹이 UID 및 GID와 5000+ ID를 가질 수 있습니다.
주의1000 제한을 유지하는 시스템과의 충돌을 피하도록
SYS_UID_MAX
를 변경하여 1000 이상의 시스템에서 예약한 ID를 늘리지 마십시오.
19.3. 사용자 개인 그룹
RHEL은 사용자 개인 그룹 (UPG) 시스템 구성을 사용하므로 UNIX 그룹을 더 쉽게 관리할 수 있습니다. 새 사용자가 시스템에 추가될 때마다 사용자 개인 그룹이 생성됩니다. 사용자 개인 그룹에는 생성된 사용자와 이름이 동일하며 사용자는 사용자 개인 그룹의 유일한 멤버입니다.
UPG는 여러 사용자 간의 프로젝트에서의 협업을 간소화합니다. 또한 UPG 시스템 구성을 사용하면 새로 생성된 파일 또는 디렉토리에 대한 기본 권한을 안전하게 설정할 수 있으며, 이 사용자는 파일 또는 디렉터리를 수정할 수 있습니다.
모든 그룹 목록은 /etc/group
구성 파일에 저장됩니다.
20장. 웹 콘솔에서 사용자 계정 관리
RHEL 웹 콘솔은 터미널에 직접 액세스하지 않고도 다양한 관리 작업을 실행할 수 있는 그래픽 인터페이스를 제공합니다. 예를 들어 시스템 사용자 계정을 추가, 편집 또는 제거할 수 있습니다.
이 섹션을 읽은 후 다음을 알 수 있습니다.
- 기존 계정의 출처는 다음과 같습니다.
- 새 계정을 추가하는 방법.
- 암호 만료 설정 방법.
- 사용자 세션을 종료하는 방법과 시기.
사전 요구 사항
- RHEL 웹 콘솔을 설정합니다. 자세한 내용은 RHEL 웹 콘솔을 사용하여 시작하기를 참조하십시오.
- 관리자 권한이 할당된 계정으로 RHEL 웹 콘솔에 로그인합니다. 자세한 내용은 RHEL 웹 콘솔에 로깅을 참조하십시오.
20.1. 웹 콘솔에서 관리하는 시스템 사용자 계정
RHEL 웹 콘솔에 사용자 계정을 표시하면 다음을 수행할 수 있습니다.
- 시스템에 액세스할 때 사용자를 인증합니다.
- 시스템에 대한 액세스 권한을 설정합니다.
RHEL 웹 콘솔에는 시스템에 있는 모든 사용자 계정이 표시됩니다. 따라서 웹 콘솔에 처음 로그인한 직후 하나 이상의 사용자 계정을 볼 수 있습니다.
RHEL 웹 콘솔에 로그인한 후 다음 작업을 수행할 수 있습니다.
- 새 사용자 계정 생성.
- 매개 변수 변경.
- 계정 잠금.
- 사용자 세션 종료.
20.2. 웹 콘솔을 사용하여 새 계정 추가
다음 단계를 사용하여 시스템에 사용자 계정을 추가하고 RHEL 웹 콘솔을 통해 계정에 관리 권한을 설정합니다.
사전 요구 사항
- RHEL 웹 콘솔을 설치하고 액세스할 수 있어야 합니다. 자세한 내용은 웹 콘솔 설치를 참조하십시오.
절차
- RHEL 웹 콘솔에 로그인합니다.
- Accounts (계정)를 클릭합니다.
- Create New Account (새 계정 만들기)를 클릭합니다.
Full Name (전체 이름) 필드에 사용자의 전체 이름을 입력합니다.
RHEL 웹 콘솔은 전체 이름에서 사용자 이름을 자동으로 제안하고 User Name(사용자 이름 ) 필드에 채웁니다. 이름 및 전체 성의 첫 번째 문자로 구성된 원래 명명 규칙을 사용하지 않으려면 제안 사항을 업데이트합니다.
Password/Confirm (암호/확인) 필드에 암호를 입력하고 암호가 올바른지 확인하기 위해 암호를 다시 입력합니다.
필드에 저장된 색상 표시줄은 입력한 암호의 보안 수준을 나타내므로 암호가 취약한 사용자를 만들 수 없습니다.
- Create(만들기 )를 클릭하여 설정을 저장하고 대화 상자를 닫습니다.
- 새로 생성된 계정을 선택합니다.
Roles (역할) 항목에서 Server Administrator( 서버 관리자)를 선택합니다.
이제 계정 설정에서 새 계정을 볼 수 있으며 자격 증명을 사용하여 시스템에 연결할 수 있습니다.
20.3. 웹 콘솔에서 암호 만료 강제 적용
기본적으로 사용자 계정은 암호가 만료되지 않도록 설정되었습니다. 정의된 기간(일) 후에 만료되도록 시스템 암호를 설정할 수 있습니다. 암호가 만료되면 다음 로그인 시도에서 암호 변경을 요청하는 메시지를 표시합니다.
절차
- RHEL 8 웹 콘솔에 로그인합니다.
- Accounts (계정)를 클릭합니다.
- 암호 만료를 적용할 사용자 계정을 선택합니다.
- 사용자 계정 설정에서 두 번째 편집 을 클릭합니다.
- Password Expiration(암호 만료 ) 대화 상자에서 암호를 변경해야 할 때마다 …를 선택합니다. days 을(를) 입력하고 암호가 만료된 날 수를 나타내는 양의 정수 숫자를 입력합니다.
- Change(변경 )를 클릭합니다.
검증 단계
암호 만료가 설정되었는지 확인하려면 계정 설정을 엽니다.
RHEL 8 웹 콘솔에는 만료 날짜가 포함된 링크가 표시됩니다.
20.4. 웹 콘솔에서 사용자 세션 종료
사용자는 시스템에 로그인할 때 사용자 세션을 생성합니다. 사용자 세션을 종료하면 시스템에서 사용자를 로그아웃합니다. 구성 변경 사항(예: 시스템 업그레이드)에 민감한 관리 작업을 수행해야 하는 경우 유용할 수 있습니다.
RHEL 8 웹 콘솔의 각 사용자 계정에서는 현재 사용 중인 웹 콘솔 세션을 제외하고 계정의 모든 세션을 종료할 수 있습니다. 이렇게 하면 시스템에 대한 액세스가 손실되지 않습니다.
절차
- RHEL 8 웹 콘솔에 로그인합니다.
- Accounts (계정)를 클릭합니다.
- 세션을 종료할 사용자 계정을 클릭합니다.
Terminate Session (종료 세션)을 클릭합니다.
Terminate Session(세션 종료 ) 버튼이 비활성화되면 사용자는 시스템에 로그인되지 않습니다.
RHEL 웹 콘솔은 세션을 종료합니다.
21장. 명령줄에서 사용자 관리
CLI(명령줄 인터페이스)를 사용하여 사용자와 그룹을 관리할 수 있습니다. 이를 통해 Red Hat Enterprise Linux 환경에서 사용자와 사용자 그룹을 추가, 제거 및 수정할 수 있습니다.
21.1. 명령줄에서 새 사용자 추가
이 섹션에서는 useradd
유틸리티를 사용하여 새 사용자를 추가하는 방법에 대해 설명합니다.
사전 요구 사항
-
루트
액세스
절차
새 사용자를 추가하려면 다음을 사용합니다.
# useradd options username
옵션을
useradd
명령의 명령줄 옵션으로 바꾸고 username 을 사용자 이름으로 바꿉니다.예 21.1. 새 사용자 추가
사용자 ID
5000
으로사용자 sarah
를 추가하려면 다음을 사용합니다.+
# useradd -u 5000 sarah
검증 단계
새 사용자가 추가되었는지 확인하려면
id
유틸리티를 사용합니다.# id sarah
출력은 다음을 반환합니다.
uid=5000(sarah) gid=5000(sarah) groups=5000(sarah)
추가 리소스
-
useradd
도움말 페이지
21.2. 명령줄에서 새 그룹 추가
이 섹션에서는 groupadd
유틸리티를 사용하여 새 그룹을 추가하는 방법에 대해 설명합니다.
사전 요구 사항
-
루트
액세스
절차
새 그룹을 추가하려면 다음을 사용합니다.
# groupadd options group-name
옵션을
groupadd
명령의 명령줄 옵션으로 바꾸고 group-name 을 그룹 이름으로 바꿉니다.예 21.2. 새 그룹 추가
그룹 ID가
5000
인 sysadmins
그룹을 추가하려면 다음을 사용합니다.+
# groupadd -g 5000 sysadmins
검증 단계
새 그룹이 추가되었는지 확인하려면
tail
유틸리티를 사용합니다.# tail /etc/group
출력은 다음을 반환합니다.
sysadmins:x:5000:
추가 리소스
-
groupadd
man 페이지
21.3. 명령줄에서 사용자를 보조 그룹에 추가
보조 그룹에 사용자를 추가하여 권한을 관리하거나 특정 파일 또는 장치에 대한 액세스를 활성화할 수 있습니다.
사전 요구 사항
-
루트
액세스
절차
사용자의 보조 그룹에 그룹을 추가하려면 다음을 사용합니다.
# usermod --append -G group-name username
group-name 을 그룹의 이름으로 바꾸고 username 을 사용자 이름으로 바꿉니다.
예 21.3. 보조 그룹에 사용자 추가
사용자
sysadmin
을system-admins
그룹에 추가하려면 다음을 사용합니다.# usermod --append -G system-administrators sysadmin
검증 단계
새 그룹이 사용자
sysadmin
의 보조 그룹에 추가되었는지 확인하려면 다음을 사용합니다.# groups sysadmin
출력이 표시됩니다.
sysadmin : sysadmin system-administrators
21.4. 그룹 디렉토리 생성
UPG 시스템 구성에서 set-group 식별 권한 (setgid bit)을 디렉터리에 적용할 수 있습니다. setgid
비트를 사용하면 디렉터리를 공유하는 그룹 프로젝트를 더 간단하게 관리할 수 있습니다. 디렉터리에 setgid
비트를 적용하면 해당 디렉터리 내에 생성된 파일이 디렉토리를 소유한 그룹에 자동으로 할당됩니다. 이 그룹 내에서 작성하고 실행할 수 있는 권한이 있는 사용자는 이제 디렉터리에 파일을 생성, 수정 및 삭제할 수 있습니다.
다음 섹션에서는 그룹 디렉터리를 만드는 방법을 설명합니다.
사전 요구 사항
-
루트
액세스
절차
디렉터리를 생성합니다.
# mkdir directory-name
directory-name 을 디렉터리 이름으로 바꿉니다.
그룹을 생성합니다.
# groupadd group-name
group-name 을 그룹 이름으로 바꿉니다.
그룹에 사용자를 추가합니다.
# usermod --append -G group-name username
group-name 을 그룹의 이름으로 바꾸고 username 을 사용자 이름으로 바꿉니다.
디렉터리의 사용자 및 그룹 소유권을 group-name 그룹과 연결합니다.
# chown :group-name directory-name
group-name 을 그룹의 이름으로 바꾸고, directory-name 을 디렉터리 이름으로 바꿉니다.
사용자가 파일 및 디렉터리를 생성 및 수정하고
setgid
비트를 설정하여 directory-name 디렉토리 내에서 이 권한을 적용하도록 허용하도록 쓰기 권한을 설정합니다.# chmod g+rwxs directory-name
directory-name 을 디렉터리 이름으로 바꿉니다.
이제
group-name
그룹의 모든 멤버가directory-name
디렉터리에 파일을 만들고 편집할 수 있습니다. 새로 생성된 파일은group-name
그룹의 그룹 소유권을 유지합니다.
검증 단계
권한 설정의 정확성을 확인하려면 다음을 사용합니다.
# ls -ld directory-name
directory-name 을 디렉터리 이름으로 바꿉니다.
출력은 다음을 반환합니다.
drwxrwsr-x. 2 root group-name 6 Nov 25 08:45 directory-name
22장. 명령줄을 사용하여 사용자 그룹 편집
사용자는 파일 및 폴더에 대한 유사한 액세스 권한을 가진 사용자의 논리적 컬렉션을 허용하는 특정 그룹 세트에 속합니다. 명령줄에서 기본 및 보조 사용자 그룹을 편집하여 사용자의 권한을 변경할 수 있습니다.
22.1. 기본 및 보조 사용자 그룹
그룹은 특정 파일에 대한 액세스 권한 부여 등 공통 목적으로 여러 사용자 계정을 연결하는 엔터티입니다.
Linux에서 사용자 그룹은 기본 또는 보조 역할을 할 수 있습니다. 기본 및 보조 그룹에는 다음 속성이 있습니다.
- 기본 그룹
- 모든 사용자에게는 항상 하나의 기본 그룹만 있습니다.
- 사용자의 기본 그룹을 변경할 수 있습니다.
- 보조 그룹
- 기존 사용자를 기존 보조 그룹에 추가하여 그룹 내에서 동일한 보안 및 액세스 권한으로 사용자를 관리할 수 있습니다.
- 사용자는 0개 또는 여러 개의 보조 그룹의 구성원이 될 수 있습니다.
22.2. 사용자의 기본 및 보조 그룹 나열
사용자 그룹을 나열하여 자신이 속한 기본 및 보조 그룹을 확인할 수 있습니다.
절차
사용자의 기본 그룹과 보조 그룹의 이름을 표시합니다.
$ groups user-name
user-name 을 사용자 이름으로 변경합니다. 사용자 이름을 제공하지 않으면 명령은 현재 사용자의 그룹 멤버십을 표시합니다. 첫 번째 그룹은 기본 그룹 다음에 선택적 보조 그룹이 옵니다.
예 22.1. 사용자 sarah의 그룹 목록:
$ groups sarah
출력이 표시됩니다.
sarah : sarah wheel developer
User
sarah
에는 기본 groupsarah
가 있으며, 보조 그룹wheel
및developer
의 구성원입니다.예 22.2. 사용자 marc의 그룹 목록:
$ groups marc
출력이 표시됩니다.
marc : marc
사용자
marc
에는 기본 그룹marc
및 보조 그룹이 없습니다.
22.3. 사용자의 기본 그룹 변경
기존 사용자의 기본 그룹을 새 그룹으로 변경할 수 있습니다.
사전 요구 사항
-
루트
액세스 - 새 그룹이 존재해야 합니다.
절차
사용자의 기본 그룹을 변경합니다.
# usermod -g group-name user-name
group-name 을 새 기본 그룹의 이름으로 바꾸고 user-name 을 사용자 이름으로 교체합니다.
참고사용자의 기본 그룹을 변경하면 명령은 사용자 홈 디렉터리에 있는 모든 파일의 그룹 소유권을 새 기본 그룹으로 자동 변경합니다. 사용자의 홈 디렉터리 외부에서 파일의 그룹 소유권을 수동으로 수정해야 합니다.
예 22.3. 사용자의 기본 그룹을 변경하는 예:
user
sarah가
기본 groupsarah1
에 속하고 사용자의 기본 그룹을sarah2
로 변경하려면 다음을 사용합니다.# usermod -g sarah2 sarah
검증 단계
사용자의 기본 그룹을 변경했는지 확인합니다.
$ groups sarah
출력이 표시됩니다.
sarah : sarah2
22.4. 명령줄에서 사용자를 보조 그룹에 추가
보조 그룹에 사용자를 추가하여 권한을 관리하거나 특정 파일 또는 장치에 대한 액세스를 활성화할 수 있습니다.
사전 요구 사항
-
루트
액세스
절차
사용자의 보조 그룹에 그룹을 추가하려면 다음을 사용합니다.
# usermod --append -G group-name username
group-name 을 그룹의 이름으로 바꾸고 username 을 사용자 이름으로 바꿉니다.
예 22.4. 보조 그룹에 사용자 추가
사용자
sysadmin
을system-admins
그룹에 추가하려면 다음을 사용합니다.# usermod --append -G system-administrators sysadmin
검증 단계
새 그룹이 사용자
sysadmin
의 보조 그룹에 추가되었는지 확인하려면 다음을 사용합니다.# groups sysadmin
출력이 표시됩니다.
sysadmin : sysadmin system-administrators
22.5. 보조 그룹에서 사용자 제거
보조 그룹에서 기존 사용자를 제거하여 파일 및 장치에 대한 권한을 제한할 수 있습니다.
사전 요구 사항
-
루트
액세스
절차
보조 그룹에서 사용자 제거:
# gpasswd -d user-name group-name
user-name 을 사용자 이름으로 바꾸고 group-name 을 보조 그룹 이름으로 교체합니다.
예 22.5. 보조 그룹에서 사용자 제거
사용자 sarah에 기본 group
sarah2
가 있고 보조 그룹wheel
및developers
에 속하고 그룹 개발자에서 해당 사용자를 제거하려면다음을
사용합니다.# gpasswd -d sarah developers
검증 단계
보조 그룹 developers에서 사용자 sarah가 제거되었는지 확인합니다.
$ groups sarah
출력이 표시됩니다.
sarah : sarah2 wheel
22.6. 사용자의 모든 보조 그룹 변경
사용자가 멤버로 유지하려는 보조 그룹 목록을 덮어쓸 수 있습니다.
사전 요구 사항
-
루트
액세스 - 보조 그룹이 있어야 합니다.
절차
사용자의 보조 그룹 목록을 덮어씁니다.
# usermod -G group-names username
group-names 를 하나 이상의 보조 그룹의 이름으로 바꿉니다. 사용자를 한 번에 여러 보조 그룹에 추가하려면 그룹 이름을 쉼표와 중간 공백을 사용하여 구분합니다. 예:
wheel,developer
.user-name 을 사용자 이름으로 변경합니다.
중요사용자가 현재 지정하지 않는 그룹의 멤버인 경우 명령은 그룹에서 사용자를 제거합니다.
예 22.6. 사용자의 보조 그룹 목록 변경
user
sarah
에 기본 groupsarah2
가 있고 보조 그룹wheel
에 속하고 사용자가 3개의 보조 그룹developer
,sysadmin
및security
에 속하게 하려면 다음을 사용합니다.# usermod -G wheel,developer,sysadmin,security sarah
검증 단계
보조 그룹 목록을 올바르게 설정했는지 확인합니다.
# groups sarah
출력이 표시됩니다.
sarah : sarah2 wheel developer sysadmin security
23장. sudo 액세스 관리
시스템 관리자는 루트가 아닌 사용자가 일반적으로 root
사용자에게 예약된 관리 명령을 실행할 수 있도록 sudo
액세스 권한을 부여할 수 있습니다. 결과적으로 루트가 아닌 사용자는 root
사용자 계정에 로그인하지 않고도 이러한 명령을 실행할 수 있습니다.
23.1. sudoers의 사용자 권한 부여
/etc/sudoers
파일은 어떤 사용자가 sudo
명령을 사용하여 어떤 명령을 실행할 수 있는지 지정합니다. 규칙은 개별 사용자 및 사용자 그룹에 적용할 수 있습니다. 별칭을 사용하여 호스트, 명령 및 사용자 그룹의 규칙을 간소화할 수도 있습니다. 기본 별칭은 /etc/sudoers
파일의 첫 번째 부분에서 정의됩니다.
사용자가 sudo
권한을 사용하여 /etc/sudoers
파일에서 허용되지 않는 명령을 실행하려고 하면 시스템은 저널 로그에 대한 sudoers에 대한username : user NOT이
포함된 메시지를 기록합니다.
기본 /etc/sudoers
파일은 권한 부여의 정보와 예를 제공합니다. 행 시작 부분에서 #
주석 문자를 제거하여 특정 예제 규칙을 활성화할 수 있습니다. 사용자와 관련된 authorizations 섹션은 다음 도입으로 표시됩니다.
## Next comes the main part: which users can run what software on ## which machines (the sudoers file can be shared between multiple ## systems).
다음 형식을 사용하여 새 sudoers
권한 부여를 생성하고 기존 권한을 수정할 수 있습니다.
username hostname=path/to/command
다음과 같습니다.
-
username 은 사용자 또는 그룹의 이름입니다(예:
user1
또는%group1).
- hostname 은 규칙이 적용되는 호스트의 이름입니다.
- path/to/command는 명령 의 전체 절대 경로입니다. 명령 경로 뒤에 해당 옵션을 추가하여 특정 옵션 및 인수가 있는 명령만 수행하도록 사용자를 제한할 수도 있습니다. 옵션을 지정하지 않으면 사용자는 모든 옵션과 함께 명령을 사용할 수 있습니다.
이러한 변수를 ALL로 교체하여 모든
사용자, 호스트 또는 명령에 규칙을 적용할 수 있습니다.
과도한 허용 규칙(예 : ALL=(ALL) ALL)
을 사용하면 모든 사용자가 모든 호스트의 모든 사용자로 모든 명령을 실행할 수 있습니다. 이로 인해 보안 위험이 발생할 수 있습니다.
!
연산자를 사용하여 인수를 음수로 지정할 수 있습니다. 예를 들어 !root
를 사용하여 root
사용자를 제외한 모든 사용자를 지정합니다. 허용 목록을 사용하여 특정 사용자, 그룹 및 명령을 허용하는 것은 블록 목록을 사용하여 특정 사용자, 그룹 및 명령을 허용하지 않는 것보다 더 안전합니다. 허용 목록을 사용하면 권한이 없는 새로운 사용자 또는 그룹을 차단할 수도 있습니다.
사용자가 alias
명령을 사용하여 명령 이름을 변경하여 이러한 규칙을 극복할 수 있으므로 명령에 음수 규칙을 사용하지 마십시오.
시스템은 /etc/sudoers
파일을 처음부터 끝까지 읽습니다. 따라서 파일에 사용자의 여러 항목이 포함된 경우 항목이 순서대로 적용됩니다. 값이 충돌하는 경우 시스템은 가장 구체적인 일치 항목이 아니어도 마지막 일치 항목을 사용합니다.
sudoers
에 새 규칙을 추가하는 기본 방법은 /etc/sudoers.d / 디렉토리에 규칙을 직접 입력하지 않고 /etc/sudoers.d
/ 디렉토리에 새 파일을
만드는 것입니다. 이는 이 디렉터리의 내용이 시스템 업데이트 중에 보존되기 때문입니다. 또한 /etc/sudoers
파일보다 별도의 파일의 오류를 수정하는 것이 더 쉽습니다. /etc/sudoers 파일의 다음 행에 도달하면 시스템은 /etc/sudoers.d
디렉토리의 파일을
읽습니다.
#includedir /etc/sudoers.d
이 행의 시작 부분에 있는 숫자 기호 #
은 구문의 일부이며 행이 주석임을 의미하지는 않습니다. 해당 디렉터리의 파일 이름은 마침표가 포함되어서는 안 되며 틸드 ~
로 끝나서는 안
됩니다.
23.2. 사용자에게 sudo 액세스 권한 부여
시스템 관리자는 루트가 아닌 사용자가 관리 명령을 실행할 수 있도록 sudo
액세스 권한을 부여할 수 있습니다. sudo
명령은 root
사용자의 암호를 사용하지 않고 사용자에게 관리 액세스 권한을 제공합니다.
사용자가 관리 명령을 수행해야 하는 경우 sudo
를 사용하여 해당 명령 앞에 를 사용할 수 있습니다. 그런 다음 명령은 루트
사용자인 것처럼 실행됩니다.
다음 제한 사항에 유의하십시오.
-
/etc/sudoers
구성 파일에 나열된 사용자만sudo
명령을 사용할 수 있습니다. -
명령은
루트
쉘이 아닌 사용자의 쉘에서 실행됩니다.
사전 요구 사항
-
루트
액세스
절차
루트로
/etc/sudoers
파일을 엽니다.# visudo
/etc/sudoers
파일은sudo
명령에서 적용하는 정책을 정의합니다./etc/sudoers
파일에서 관리wheel
그룹의 사용자에게sudo
액세스 권한을 부여하는 행을 찾습니다.## Allows people in group wheel to run all commands %wheel ALL=(ALL) ALL
-
%로 시작하는 행에 #
주석 문자가 없는지 확인합니다.
- 변경 사항을 저장하고 편집기를 종료합니다.
에 대한
sudo
액세스 권한을 관리wheel
그룹에 부여하려는 사용자를 추가합니다.# usermod --append -G wheel username
username을 사용자 이름으로 바꿉니다.
검증 단계
사용자가 관리
wheel
그룹에 추가되었는지 확인합니다.# id username uid=5000(username) gid=5000(_username) groups=5000(username),10(wheel)
23.3. 권한이 없는 사용자가 특정 명령 실행 가능
권한이 없는 사용자가 특정 워크스테이션에서 특정 명령을 실행할 수 있도록 허용하는 정책을 구성할 수 있습니다. 이 정책을 구성하려면 sudoers.d
디렉터리에 파일을 만들고 편집해야 합니다.
사전 요구 사항
-
루트
액세스
절차
루트로서
/etc/
아래에 새sudoers.d
디렉토리를 만드십시오.# mkdir -p /etc/sudoers.d/
/etc/sudoers.d 디렉토리에 새 파일을 만듭니다.
# visudo -f /etc/sudoers.d/file-name
file-name 을 생성할 파일 이름으로 바꿉니다. 파일이 자동으로 열립니다.
새로 생성된 파일에 다음 행을 추가합니다.
username hostname = /path/to/the/command
username을 사용자 이름으로 바꿉니다. 호스트 이름을 호스트 이름으로 바꿉니다. /path/to/the/command를 명령 의 절대 경로(예:
/usr/bin/yum
)로 바꿉니다.변경 사항을 저장하고 편집기를 종료합니다.
예 23.1. 권한이 없는 사용자가 yum을 사용하여 프로그램을 설치할 수 있음
사용자 sarah 가
sudo
권한이 있는yum
유틸리티를 사용하여localhost.localdomain
워크스테이션에 프로그램을 설치할 수 있도록 하려면 다음을 사용합니다.루트로서
/etc/
아래에 새sudoers.d
디렉토리를 만드십시오.# mkdir -p /etc/sudoers.d/
/etc/sudoers.d 디렉토리에 새 파일을 만듭니다.
# visudo -f /etc/sudoers.d/sarah
파일이 자동으로 열립니다.
/etc/sudoers.d/sarah
파일에 다음 행을 추가합니다.sarah localhost.localdomain = /usr/bin/yum
두 명령 경로가
쉼표
와 공백으로 구분되어 있는지 확인합니다.선택 사항: 사용자가
sudo
권한을 사용하려고 할 때마다 이메일 알림을 받으려면 파일에 다음 행을 추가합니다.Defaults mail_always Defaults mailto="email@domain.com"
사용자 sarah 가
sudo
권한으로yum
명령을 실행할 수 있는지 확인하려면 계정을 전환하십시오.# su sarah -
sudo yum
명령을 입력합니다.$ sudo yum [sudo] password for sarah:
사용자 sarah 에 대한
sudo
암호를 입력합니다.시스템에서
yum
명령 및 옵션 목록을 표시합니다.... usage: yum [options] COMMAND ...
수신하는 경우
sarah는 sudoers 파일에 없습니다. 이 인시던트는 보고됩니다.
메시지, 구성이 올바르게 완료되지 않았습니다. 이 절차를root
로 실행하고 철저하게 단계를 수행했는지 확인합니다.
23.4. 추가 리소스
-
sudo(8)
도움말 페이지 -
visudo(8)
도움말 페이지
24장. 루트 암호 변경 및 재설정
기존 root 암호가 더 이상 만족스럽지 않거나 잊혀진 경우 root 사용자 및 비 루트
사용자로 변경하거나 재설정할 수 있습니다.
24.1. root 사용자로 root 암호 변경
이 섹션에서는 passwd
명령을 사용하여 root 사용자로 루트
암호를 변경하는 방법에 대해 설명합니다 .
사전 요구 사항
-
루트
액세스
절차
루트
암호를 변경하려면 다음을 사용합니다.# passwd
변경하기 전에 현재 암호를 입력하라는 메시지가 표시됩니다.
24.2. root가 아닌 사용자로 잊어버리는 루트 암호 변경 또는 재설정
이 섹션에서는 passwd
명령을 사용하여 잊어버리는 루트
암호를 루트가 아닌 사용자로 변경하거나 재설정하는 방법에 대해 설명합니다.
사전 요구 사항
- 루트가 아닌 사용자로 로그인할 수 있습니다.
-
관리
wheel
그룹의 구성원입니다.
절차
루트가 아닌 사용자로 루트가 아닌 사용자로
root
암호를 변경하거나 재설정하려면다음을
사용합니다.$ sudo passwd root
루트가 아닌 암호를 변경하기 전에 현재 루트가 아닌 암호를 입력하라는 메시지가 표시됩니다
.
24.3. 부팅시 root 암호 재설정
루트가 아닌 사용자로 로그인할 수 없거나 관리 wheel
그룹에 속하지 않는 경우 특수 chroot jail
환경으로 전환하여 부팅 시 루트 암호를 재설정할 수 있습니다.
절차
시스템을 재부팅하고 GRUB 2 부팅 화면에서 e 키를 눌러 부팅 과정을 중단합니다.
커널 부팅 매개 변수가 표시됩니다.
load_video set gfx_payload=keep insmod gzio linux ($root)/vmlinuz-4.18.0-80.e18.x86_64 root=/dev/mapper/rhel-root ro crash\ kernel=auto resume=/dev/mapper/rhel-swap rd.lvm.lv/swap rhgb quiet initrd ($root)/initramfs-4.18.0-80.e18.x86_64.img $tuned_initrd
linux 로 시작하는 행의 끝으로 이동합니다.
linux ($root)/vmlinuz-4.18.0-80.e18.x86_64 root=/dev/mapper/rhel-root ro crash\ kernel=auto resume=/dev/mapper/rhel-swap rd.lvm.lv/swap rhgb quiet
Ctrl+e 를 눌러 행 끝으로 건너뜁니다.
linux
로 시작하는 행의 끝에 Addrd.break
.linux ($root)/vmlinuz-4.18.0-80.e18.x86_64 root=/dev/mapper/rhel-root ro crash\ kernel=auto resume=/dev/mapper/rhel-swap rd.lvm.lv/swap rhgb quiet rd.break
Ctrl+x 를 눌러 변경된 매개 변수로 시스템을 시작합니다.
switch_root
프롬프트가 나타납니다.파일 시스템을 쓰기 가능으로 다시 마운트합니다.
mount -o remount,rw /sysroot
파일 시스템은
/sysroot
디렉토리에 읽기 전용으로 마운트됩니다. 파일 시스템을 쓰기 가능으로 다시 마운트하면 암호를 변경할 수 있습니다.chroot
환경을 입력합니다.chroot /sysroot
sh-4.4#
프롬프트가 표시됩니다.루트
암호를 재설정합니다.passwd
명령줄에 표시된 지침에 따라
루트
암호 변경을 완료합니다.다음 시스템 부팅 시 SELinux 레이블 변경 프로세스를 활성화합니다.
touch /.autorelabel
chroot
환경을 종료합니다.exit
switch_root
프롬프트를 종료합니다.exit
- SELinux 레이블 변경 프로세스가 완료될 때까지 기다립니다. 큰 디스크의 레이블을 다시 지정하는 데 시간이 오래 걸릴 수 있습니다. 프로세스가 완료되면 시스템이 자동으로 재부팅됩니다.
검증 단계
-
루트
암호가 성공적으로 변경되었는지 확인하려면 일반 사용자로 로그인하여 터미널을 엽니다. root로 대화형 쉘을 실행합니다.
$ su
-
새
루트
암호를 입력합니다. 현재 유효한 사용자 ID와 관련된 사용자 이름을 인쇄합니다.
whoami
출력은 다음을 반환합니다.
root
25장. 파일 권한 관리
파일 권한은 파일 및 디렉터리의 내용을 보고, 수정하고, 액세스하고, 실행할 수 있는 사용자 및 그룹 계정의 기능을 제어합니다.
모든 파일 또는 디렉터리에는 세 가지 수준의 소유권이 있습니다.
- 사용자 소유자(u).
- 그룹 소유자(g).
- 기타(o).
각 소유권 수준은 다음 권한을 할당할 수 있습니다.
- 읽기(r).
- 쓰기(w).
- 실행(x).
파일에 대한 실행 권한을 사용하여 해당 파일을 실행할 수 있습니다. 디렉터리에 대한 실행 권한을 사용하면 디렉터리 내용에 액세스할 수 있지만 실행할 수는 없습니다.
새 파일 또는 디렉터리가 생성되면 기본 권한 집합이 자동으로 할당됩니다. 파일 또는 디렉토리에 대한 기본 권한은 다음 두 가지 요소를 기반으로 합니다.
- 기본 권한.
- 사용자 파일 생성 모드 마스크 (umask).
25.1. 기본 파일 권한
새 파일 또는 디렉터리가 생성될 때마다 기본 권한이 자동으로 할당됩니다. 파일 또는 디렉터리에 대한 기본 권한을 심볼릭 또는 8진수 값으로 표시할 수 있습니다.
권한 | 심볼릭 값 | 8진수 값 |
권한 없음 | --- | 0 |
실행 | --x | 1 |
쓰기 | -w- | 2 |
쓰기 및 실행 | -wx | 3 |
읽기 | r-- | 4 |
읽기 및 실행 | r-x | 5 |
읽기 및 쓰기 | rw- | 6 |
읽기, 쓰기, 실행 | rwx | 7 |
디렉터리의 기본 권한은 777
(drwxrwxrwx
)으로, 모든 사용자에게 읽기, 쓰기, 실행 권한을 부여합니다. 즉, 디렉터리 소유자, 그룹 및 기타 사용자가 디렉터리의 콘텐츠를 나열하고 디렉터리 내에서 항목을 만들고 삭제하고 편집할 수 있습니다.
디렉터리 내의 개별 파일에는 무제한 디렉터리에 대한 액세스 권한이 있더라도 편집을 방해할 수 있는 자체 권한이 있을 수 있습니다.
파일의 기본 권한은 666
(-rw-rw-rw-
)으로, 모든 사용자에게 읽기 및 쓰기 권한을 부여합니다. 즉, 파일 소유자, 그룹 및 기타 사용자가 파일을 읽고 편집할 수 있습니다.
예 25.1. 파일에 대한 권한
파일에 다음 권한이 있는 경우:
$ ls -l
-rwxrw----. 1 sysadmins sysadmins 2 Mar 2 08:43 file
-
-
파일이 파일임을 나타냅니다. -
rwx
는 파일 소유자가 파일을 읽고 쓰고 실행할 수 있는 권한이 있음을 나타냅니다. -
rw-
는 그룹에 읽기 및 쓰기 권한이 있지만 파일을 실행하지 않음을 나타냅니다. -
---
다른 사용자에게 파일을 읽고, 쓰거나, 실행할 수 있는 권한이 없음을 나타냅니다. -
.
은 SELinux 보안 컨텍스트가 파일에 대해 설정되었음을 나타냅니다.
예 25.2. 디렉토리에 대한 권한
디렉터리에 다음과 같은 권한이 있는 경우:
$ ls -dl directory drwxr-----. 1 sysadmins sysadmins 2 Mar 2 08:43 directory
-
d
는 디렉토리임을 나타냅니다. rwx
는 디렉터리 소유자가 디렉터리의 내용을 읽고 쓰고 액세스할 수 있는 권한이 있음을 나타냅니다.디렉터리 소유자로서 디렉터리 내의 항목(파일, 하위 디렉터리)을 나열하고 해당 항목의 내용에 액세스하여 수정할 수 있습니다.
r--
은 그룹에 디렉터리의 내용을 읽을 수 있지만 쓰기 또는 액세스할 수 없는 권한이 있음을 나타냅니다.디렉터리를 소유하는 그룹의 구성원으로 디렉터리 내의 항목을 나열할 수 있습니다. 디렉터리 내의 항목에 대한 정보에 액세스하거나 수정할 수 없습니다.
---
다른 사용자에게 디렉터리 내용을 읽고, 쓰거나, 액세스할 수 있는 권한이 없음을 나타냅니다.사용자 소유자가 아니거나 디렉토리의 그룹 소유자로서는 디렉터리 내의 항목을 나열하거나, 해당 항목에 대한 정보에 액세스하거나, 수정할 수 없습니다.
-
.
은 SELinux 보안 컨텍스트가 디렉터리에 대해 설정되었음을 나타냅니다.
파일 또는 디렉터리에 자동으로 할당되는 기본 권한은 파일 또는 디렉터리가 로 끝나는 기본 권한이 아닙니다. 파일 또는 디렉토리를 만들면 기본 권한이 umask 에 의해 변경됩니다. 기본 권한과 umask 의 조합은 파일 및 디렉터리에 대한 기본 권한을 생성합니다.
25.2. 사용자 파일 생성 모드 마스크
user file-creation mode mask(umask)는 새로 생성된 파일 및 디렉터리에 대해 파일 권한이 설정되는 방법을 제어하는 변수입니다. umask 는 기본 권한 값에서 권한을 자동으로 제거하여 Linux 시스템의 전체 보안을 강화합니다. umask 는 심볼릭 또는 8진수 값으로 나타낼 수 있습니다.
권한 | 심볼릭 값 | 8진수 값 |
읽기, 쓰기 및 실행 | rwx | 0 |
읽기 및 쓰기 | rw- | 1 |
읽기 및 실행 | r-x | 2 |
읽기 | r-- | 3 |
쓰기 및 실행 | -wx | 4 |
쓰기 | -w- | 5 |
실행 | --x | 6 |
권한 없음 | --- | 7 |
표준 사용자의 기본 umask 는 0002
입니다. root
사용자의 기본 umask 는 0022
입니다.
umask 의 첫 번째 숫자는 특별 권한(고정 비트, )을 나타냅니다. umask 의 마지막 세 자리 숫자는 사용자 소유자(u), 그룹 소유자(g) 및 기타(o)에서 각각 제거된 권한을 나타냅니다.
예 25.3. 파일을 만들 때 umask 적용
다음 예제에서는 기본 권한이 640
인 파일을 생성하기 위해 8진수 값이 0137
인 umask 가 777
기본 권한이 있는 파일에 적용되는 방법을 보여줍니다.

25.3. 기본 파일 권한
기본 권한은 새로 생성된 모든 파일 및 디렉터리에 대해 자동으로 설정됩니다. 기본 권한의 값은 기본 권한에 umask 를 적용하여 결정됩니다.
예 25.4. 표준 사용자가 생성한 디렉터리에 대한 기본 권한
표준 사용자가 새 디렉토리 를 만들면 umask 가 002
(rwxrwxr-x
)로 설정되고 디렉터리의 기본 권한이 777
(rwxrwxrwx
)으로 설정됩니다. 그러면 775
(drwxrwxr-x
)에 기본 권한이 부여됩니다.
심볼릭 값 | 8진수 값 | |
기본 권한 | rwxrwxrwx | 777 |
umask | rwxrwxr-x | 002 |
기본 권한 | rwxrwxr-x | 775 |
즉, 디렉터리 소유자와 그룹은 디렉터리의 콘텐츠를 나열하고 디렉터리 내에서 항목을 만들고 삭제하고 편집할 수 있습니다. 다른 사용자는 디렉터리의 내용만 나열할 수 있으며 디렉토리의 하위 항목만 나열할 수 있습니다.
예 25.5. 표준 사용자가 생성한 파일에 대한 기본 권한
표준 사용자가 새 파일을 만들면 umask 가 002
(rwxrwxr-x
)로 설정되고 파일의 기본 권한이 666
(rw-rw-rw-
)으로 설정됩니다. 이렇게 하면 기본 권한은 664
(-rw-rw-r--
)입니다.
심볼릭 값 | 8진수 값 | |
기본 권한 | rw-rw-rw- | 666 |
umask | rwxrwxr-x | 002 |
기본 권한 | rw-rw-r-- | 664 |
즉, 파일 소유자와 그룹은 파일을 읽고 편집할 수 있지만 다른 사용자는 파일을 읽을 수만 있습니다.
예 25.6. root 사용자가 만든 디렉토리에 대한 기본 권한
루트 사용자가 새 디렉토리 를 만들면 umask 가 022
(rwxr-xr-x
)로 설정되고 디렉터리의 기본 권한이 777
(rwxrwxrwx
)으로 설정됩니다. 이렇게 하면 기본 권한은 755
(rwxr-xr-x
)입니다.
심볼릭 값 | 8진수 값 | |
기본 권한 | rwxrwxrwx | 777 |
umask | rwxr-xr-x | 022 |
기본 권한 | rwxr-xr-x | 755 |
즉, 디렉터리 소유자가 디렉터리의 내용을 나열하고 디렉터리 내에서 항목을 만들고 삭제하고 편집할 수 있습니다. 그룹 및 기타 그룹은 디렉터리의 내용만 나열하고 해당 디렉토리로 이동할 수 있습니다.
예 25.7. root 사용자가 생성한 파일에 대한 기본 권한
루트 사용자가 새 파일을 만들면 umask 가 022
(rwxr-xr-x
)로 설정되고 파일의 기본 권한이 666
(rw-rw-rw-
)으로 설정됩니다. 이렇게 하면 기본 권한이 644
(-rw-r-r--
).
심볼릭 값 | 8진수 값 | |
기본 권한 | rw-rw-rw- | 666 |
umask | rwxr-xr-x | 022 |
기본 권한 | rw-r—r-- | 644 |
즉, file 소유자는 파일을 읽고 편집할 수 있지만 그룹 및 기타 사용자는 파일을 읽을 수 있습니다.
보안상의 이유로 umask 가 000
(rwxrwxrwx
)으로 설정된 경우에도 일반 파일은 기본적으로 실행 권한을 가질 수 없습니다. 그러나 실행 권한으로 디렉터리를 생성할 수 있습니다.
25.4. 심볼릭 값을 사용하여 파일 권한 변경
chmod
유틸리티를 심볼릭 값(복합 문자 및 기호)과 함께 사용하여 파일 또는 디렉토리의 파일 권한을 변경할 수 있습니다.
다음 권한을 할당할 수 있습니다.
- 읽기 (r)
- 쓰기 (w)
- 실행 (x)
권한을 다음 수준의 소유권 에 할당할 수 있습니다.
- 사용자 소유자 (u)
- 그룹 소유자(g)
- 기타 (o)
- 모두 (a)
권한을 추가하거나 제거하려면 다음 기호를 사용할 수 있습니다 :
-
+
: 기존 권한 위에 권한을 추가합니다. -
-
기존 권한에서 권한을 제거하려면 - -
=
- 기존 권한을 제거하고 명시적으로 새 권한을 정의합니다.
절차
파일 또는 디렉토리에 대한 권한을 변경하려면 다음을 사용합니다.
$ chmod <level><operation><permission> file-name
<level>
을 권한을 설정할 소유권 수준으로 바꿉니다.<operation>
를 기호 중 하나로 바꿉니다.<permission>
을 할당하려는 권한 으로 바꿉니다. file-name 을 파일 또는 디렉터리의 이름으로 바꿉니다. 예를 들어 모든 사용자에게 읽기, 쓰기, 실행(rwx
)my-script.sh
에 대한 권한을 부여하려면chmod a=rwx my-script.sh
명령을 사용합니다.자세한 내용은 기본 파일 권한을 참조하십시오.
검증 단계
특정 파일의 권한을 보려면 다음을 사용합니다.
$ ls -l file-name
file-name 을 파일 이름으로 바꿉니다.
특정 디렉터리에 대한 권한을 보려면 다음을 사용합니다.
$ ls -dl directory-name
directory-name 을 디렉터리 이름으로 바꿉니다.
특정 디렉토리 내의 모든 파일에 대한 권한을 보려면 다음을 사용합니다.
$ ls -l directory-name
directory-name 을 디렉터리 이름으로 바꿉니다.
예 25.8. 파일 및 디렉토리에 대한 권한 변경
my-file.txt
의 파일 권한을-rw-rw-r--
에서-rw------
로 변경하려면 다음을 사용합니다.my-file.txt
의 현재 권한을 표시합니다 :$ ls -l my-file.txt -rw-rw-r--. 1 username username 0 Feb 24 17:56 my-file.txt
그룹 소유자(
g
) 및 기타(o
)에서 파일을 읽기, 쓰기, 실행(rwx
)할 수 있는 권한을 제거합니다.$ chmod go= my-file.txt
등호(
=
) 후에 지정되지 않는 모든 권한은 자동으로 금지됩니다.my-file.txt
에 대한 권한이 올바르게 설정되었는지 확인합니다.$ ls -l my-file.txt -rw-------. 1 username username 0 Feb 24 17:56 my-file.txt
my-directory
의 파일 권한을drwxrwx---에서
로 변경하려면 다음을 사용합니다.drwx
rwxr-xmy-directory
에 대한 현재 권한을 표시합니다.$ ls -dl my-directory drwxrwx---. 2 username username 4096 Feb 24 18:12 my-directory
모든 사용자(
a
)에 대해 읽기 및 실행(r-x
) 액세스를 추가합니다.$ chmod o+rx my-directory
my-directory
및 해당 콘텐츠에 대한 권한이 올바르게 설정되었는지 확인합니다.$ ls -dl my-directory drwxrwxr-x. 2 username username 4096 Feb 24 18:12 my-directory
25.5. 8진수 값을 사용하여 파일 권한 변경
chmod
유틸리티를 8진수 값(숫자)과 함께 사용하여 파일 또는 디렉터리의 파일 권한을 변경할 수 있습니다.
절차
기존 파일 또는 디렉터리에 대한 파일 권한을 변경하려면 다음을 사용합니다.
$ chmod octal_value file-name
file-name 을 파일 또는 디렉터리의 이름으로 바꿉니다. octal_value 를 8진수 값으로 교체합니다. 자세한 내용은 기본 파일 권한을 참조하십시오.
26장. umask 관리
umask 유틸리티를 사용하여 umask
의 현재 또는 기본값을 표시, 설정 또는 변경할 수 있습니다 .
26.1. umask의 현재 값 표시
umask 유틸리티를 사용하여 현재 umask
값을 심볼릭 또는 8진수 모드로 표시할 수 있습니다.
절차
현재 umask 값을 심볼릭 모드로 표시하려면 다음을 사용합니다.
$ umask -S
8진수 모드에서 현재 umask 값을 표시하려면 다음을 사용합니다.
$ umask
참고8진수 모드로 umask 를 표시할 때 4자리 숫자(
0002
또는0022
)로 표시될 수 있습니다. umask 의 첫 번째 숫자는 특수 비트(고정 비트, SGID 비트 또는 SUID 비트)를 나타냅니다. 첫 번째 숫자가0
으로 설정되면 특수 비트가 설정되지 않습니다.
26.2. 기본 bash umask 표시
사용할 수 있는 쉘에는 bash
,ksh
,zsh
및 tcsh
와 같이 사용할 수 있습니다. 이러한 쉘은 로그인 또는 비로그인 쉘로 작동할 수 있습니다. 네이티브 또는 GUI 터미널을 열어 로그인 쉘을 호출할 수 있습니다.
로그인 또는 비로그인 쉘에서 명령을 실행 중인지 확인하려면 echo alpha 명령을 사용합니다
.
예 26.1. 로그인 또는 비로그인 bash 쉘에서 작업 중인지 확인
echo Zero 명령
의 출력이bash
를 반환하면 비로그인 쉘에서 명령을 실행합니다.$ echo $0 bash
로그인이 아닌 쉘의 기본 umask 는
/etc/bashrc
구성 파일에 설정됩니다.echo Zero 명령
의 출력이-bash
를 반환하면 로그인 쉘에서 명령을 실행합니다.# echo $0 -bash
로그인 쉘의 기본 umask 는
/etc/profile
구성 파일에 설정되어 있습니다.
절차
로그인이 아닌 쉘의 기본
bash
umask 를 표시하려면 다음을 사용합니다.$ grep umask /etc/bashrc
출력은 다음을 반환합니다.
# By default, we want umask to get set. This sets it for non-login shell. umask 002 umask 022
로그인 쉘의 기본
bash
umask 를 표시하려면 다음을 사용합니다.$ grep umask /etc/profile
출력은 다음을 반환합니다.
# By default, we want umask to get set. This sets it for login shell umask 002 umask 022
26.3. 심볼릭 값을 사용하여 umask 설정
umask
유틸리티를 심볼릭 값(결합 문자 및 기호)과 함께 사용하여 현재 쉘 세션의 umask 를 설정할 수 있습니다.
다음 권한을 할당할 수 있습니다.
- 읽기 (r)
- 쓰기 (w)
- 실행 (x)
권한을 다음 수준의 소유권 에 할당할 수 있습니다.
- 사용자 소유자 (u)
- 그룹 소유자(g)
- 기타 (o)
- 모두 (a)
권한을 추가하거나 제거하려면 다음 기호를 사용할 수 있습니다 :
-
+
: 기존 권한 위에 권한을 추가합니다. -
-
기존 권한에서 권한을 제거하려면 - =
- 기존 권한을 제거하고 명시적으로 새 권한을 정의합니다.참고등호(
=
) 이후에 지정되지 않은 모든 권한은 자동으로 금지됩니다.
절차
현재 쉘 세션의 umask 를 설정하려면 다음을 사용합니다.
$ umask -S <level><operation><permission>
<level>
을 umask를 설정하려는 소유권 수준으로 바꿉니다.<operation>
를 기호 중 하나로 바꿉니다.<permission>
을 할당하려는 권한 으로 바꿉니다. 예를 들어 umask를 umask 를u=rwx,g=rwx,o=rwx
로 설정하려면umask -S a=rwx
를 사용합니다.자세한 내용은 사용자 파일 생성 모드를 참조하십시오.
참고umask 는 현재 쉘 세션에만 유효합니다.
26.4. 8진수 값을 사용하여 umask 설정
8진수 값(숫자)과 함께 umask
유틸리티를 사용하여 현재 쉘 세션의 umask 를 설정할 수 있습니다.
절차
현재 쉘 세션의 umask 를 설정하려면 다음을 사용합니다.
$ umask octal_value
octal_value 를 8진수 값으로 교체합니다. 자세한 내용은 User file-creation mode mask 를 참조하십시오.
참고umask 는 현재 쉘 세션에만 유효합니다.
26.5. 로그인이 아닌 쉘의 기본 umask 변경
/etc/bashrc
파일을 수정하여 표준 사용자의 기본 bash
umask 를 변경할 수 있습니다.
사전 요구 사항
-
루트
액세스
절차
-
루트
로서 편집기에서/etc/bashrc
파일을 엽니다. 다음 섹션을 수정하여 새로운 기본
bash
umask 를 설정합니다.if [ $UID -gt 199 ] && [ “id -gn” = “id -un” ]; then umask 002 else umask 022 fi
umask (002)의 기본 8진수 값을
다른
8진수 값으로 바꿉니다. 자세한 내용은 User file-creation mode mask 를 참조하십시오.- 변경 사항을 저장하고 편집기를 종료합니다.
26.6. 로그인 쉘의 기본 umask 변경
/etc/profile
파일을 수정하여 root
사용자의 기본 bash
umask 를 변경할 수 있습니다.
사전 요구 사항
-
루트
액세스
절차
-
루트
권한으로 편집기에서/etc/profile
파일을 엽니다. 다음 섹션을 수정하여 새로운 기본
bash
umask 를 설정합니다.if [ $UID -gt 199 ] && [ “/usr/bin/id -gn” = “/usr/bin/id -un” ]; then umask 002 else umask 022 fi
umask (
022
)의 기본 8진수 값을 다른 8진수 값으로 바꿉니다. 자세한 내용은 User file-creation mode mask 를 참조하십시오.- 변경 사항을 저장하고 편집기를 종료합니다.
26.7. 특정 사용자의 기본 umask 변경
해당 사용자의. bashrc
를 수정하여 특정 사용자의 기본 umask 를 변경할 수 있습니다.
절차
umask 의 8진수 값을 특정 사용자의
.bashrc
파일에 지정하는 행을 추가합니다.$ echo 'umask octal_value' >> /home/username/.bashrc
octal_value 를 8진수 값으로 바꾸고 username 을 사용자 이름으로 바꿉니다. 자세한 내용은 User file-creation mode mask 를 참조하십시오.
26.8. 새로 생성된 홈 디렉터리에 대한 기본 권한 설정
/etc/login.defs
파일을 수정하여 새로 생성된 사용자의 홈 디렉토리에 대한 권한 모드를 변경할 수 있습니다.
절차
-
루트
권한으로 편집기에서/etc/login.defs
파일을 엽니다. 다음 섹션을 수정하여 새로운 기본 HOME_MODE 를 설정합니다.
# HOME_MODE is used by useradd(8) and newusers(8) to set the mode for new # home directories. # If HOME_MODE is not set, the value of UMASK is used to create the mode. HOME_MODE 0700
기본 8진수 값(
0700
)을 다른 8진수 값으로 교체합니다. 선택한 모드는 홈 디렉토리에 대한 권한을 생성하는 데 사용됩니다.- HOME_MODE 가 설정되어 있으면 변경 사항을 저장하고 편집기를 종료합니다.
HOME_MODE 가 설정되지 않은 경우 UMASK 를 수정하여 새로 생성된 홈 디렉터리의 모드를 설정합니다.
# Default initial "umask" value used by login(1) on non-PAM enabled systems. # Default "umask" value for pam_umask(8) on PAM enabled systems. # UMASK is also used by useradd(8) and newusers(8) to set the mode for new # home directories if HOME_MODE is not set. # 022 is the default value, but 027, or even 077, could be considered # for increased privacy. There is no One True Answer here: each sysadmin # must make up their mind. UMASK 022
기본 8진수 값(
022
)을 다른 8진수 값으로 바꿉니다. 자세한 내용은 User file-creation mode mask 를 참조하십시오.- 변경 사항을 저장하고 편집기를 종료합니다.
27장. RHEL에서 dnstap 사용
dnstap
유틸리티는 들어오는 이름 쿼리의 세부 정보를 모니터링하고 기록하는 고급 방법을 제공합니다. 명명된
서비스에서 보낸 메시지를 기록합니다. 이 섹션에서는 dnstap
을 사용하여 DNS 쿼리를 기록하는 방법을 설명합니다.
27.1. RHEL에서 dnstap을 사용하여 DNS 쿼리 기록
네트워크 관리자는 DNS 쿼리를 기록하여 도메인 상태와 함께 웹사이트 또는 IP 주소 정보를 수집할 수 있습니다.
사전 요구 사항
-
BIND
패키지를 버전으로 업그레이드하여-9.11.26-2 이상을 바인딩
합니다.
BIND
버전이 설치되어 실행 중인 경우 새 버전의 BIND
를 추가하면 기존 버전을 덮어씁니다.
절차
다음은 DNS 쿼리를 기록하는 단계입니다.
options
블록에서/etc/named.conf
파일을 편집하여dnstap
및 대상 파일을 활성화합니다.options { # … dnstap { all; }; # Configure filter dnstap-output file “/var/named/data/dnstap.bin”; # … }; # end of options
(all | auth | client | forwarder | resolver | update ) [ ( query | response ) ];
dnstap
필터에는dnstap {}
블록에;
으로 구분된 여러 정의가 포함되어 있습니다.다음은 각 규칙의 구문입니다.
-
auth
- 권한 영역 응답 또는 답변. -
클라이언트
- 내부 클라이언트 쿼리 또는 응답. -
forwarder
- 전달된 쿼리 또는 응답. -
해결자
- 반복적 해결 쿼리 또는 응답. -
업데이트
- 동적 영역 업데이트 요청. -
모두
- 위의 옵션에서 모두. query
|response
- 쿼리 또는 응답 키워드가 지정되지 않은 경우 둘 다 기록됩니다.다음 예제에서는
auth
응답만 요청합니다.클라이언트 쿼리
및 동적업데이트의
쿼리 및 응답 모두 :
Example: dnstap {auth response; client query; update;};
-
활성 로그에 대해 주기적인 롤아웃을 구성합니다.
다음 예제에서는 사용자 편집 스크립트의 콘텐츠가
cron
에 의해 하루에 한 번 실행됩니다. 번호 3은 해당 번호로 제한된 백업 로그 파일을 나타냅니다. 파일이 제거되기 때문에.2
접미사에 도달하지 않습니다.Example: sudoedit /etc/cron.daily/dnstap #!/bin/sh rndc dnstap -roll 3 mv /var/named/data/dnstap.bin.1 \ /var/log/named/dnstap/dnstap-$(date -I).bin # use dnstap-read to analyze saved logs sudo chmod a+x /etc/cron.daily/dnstap
dnstap-read
유틸리티를 사용하여 사람이 읽을 수 있는 형식으로 로그를 처리하고 분석합니다.다음 예제에서는 자세한 dnstap 출력이
YAML
파일 형식으로 인쇄됩니다.Example: dnstap-read -y [file-name]
28장. 액세스 제어 목록 관리
각 파일과 디렉터리에는 한 번에 하나의 사용자 소유자와 하나의 그룹 소유자만 있을 수 있습니다. 다른 파일 및 디렉터리를 비공개로 유지하면서 다른 사용자 또는 그룹에 속하는 특정 파일 또는 디렉토리에 액세스할 수 있는 권한을 사용자에게 부여하려면 ACL(Linux Access Control Lists)을 활용할 수 있습니다.
28.1. 현재 액세스 제어 목록 표시
getfacl
유틸리티를 사용하여 현재 ACL을 표시할 수 있습니다.
절차
특정 파일 또는 디렉토리에 대한 현재 ACL을 표시하려면 다음을 사용합니다.
$ getfacl file-name
file-name 을 파일 또는 디렉터리의 이름으로 바꿉니다.
28.2. 액세스 제어 목록 설정
setfacl
유틸리티를 사용하여 파일 또는 디렉터리에 대한 ACL을 설정할 수 있습니다.
사전 요구 사항
-
루트
액세스.
절차
- 파일 또는 디렉터리에 대한 ACL을 설정하려면 다음을 사용합니다.
# setfacl -m u:username:symbolic_value file-name
username 을 사용자 이름으로, symbolic_value 를 심볼릭 값으로, file-name 을 파일 또는 디렉토리 이름으로 바꿉니다. 자세한 내용은 setfacl
도움말 페이지를 참조하십시오.
예 28.1. 그룹 프로젝트에 대한 권한 수정
다음 예제에서는 이 파일이 다음과 같이 root 그룹에 속하는
파일에 대한 권한을 수정하는 방법을 설명합니다.
root
사용자가 소유한 group
-project
- 누구나 실행할 수 없습니다.
-
사용자
andrew
에는rw-
권한이 있습니다. -
사용자
susan
은---
권한을 갖습니다. -
기타 사용자에게는
r--
권한이 있습니다.
절차
# setfacl -m u:andrew:rw- group-project # setfacl -m u:susan:--- group-project
검증 단계
사용자
andrew
에rw-
권한이 있는지 확인하려면susan
사용자에게---
권한이 있으며 기타 사용자에게r--
권한이 있는지 확인합니다.$ getfacl group-project
출력은 다음을 반환합니다.
# file: group-project # owner: root # group: root user:andrew:rw- user:susan:--- group::r-- mask::rw- other::r--
29장. Chrony 제품군을 사용하여 NTP 구성
정확한 시간 유지는 IT의 여러 가지 이유로 중요합니다. 예를 들어 네트워킹에서는 패킷 및 로그의 정확한 타임스탬프가 필요합니다. Linux 시스템에서 NTP
프로토콜은 사용자 공간에서 실행되는 데몬에 의해 구현됩니다.
사용자 공간 데몬은 커널에서 실행되는 시스템 시계를 업데이트합니다. 시스템 클록은 다양한 시계 소스를 사용하여 시간을 유지할 수 있습니다. 일반적으로TSC( Time Stamp Counter )가 사용됩니다. TSC는 마지막으로 재설정된 이후 사이클 수를 계산하는 CPU 레지스터입니다. 매우 빠르며 해상도가 높으며 중단이 없습니다.
Red Hat Enterprise Linux 8부터 NTP
프로토콜은 chronyd
데몬에서 구현되며 chrony
패키지의 리포지토리에서 사용할 수 있습니다.
다음 섹션에서는 chrony 제품군을 사용하여 NTP를 구성하는 방법을 설명합니다.
29.1. Chrony 제품군 소개
Chrony 는 NTP( Network Time Protocol) 구현
입니다. Chrony :
-
NTP
서버와 시스템 시계를 동기화하려면 - 참조 클록과 시스템 클록을 동기화하려면 (예: GPS 수신자)
- 수동 시간 입력과 시스템 시계를 동기화하려면
-
NTPv4(RFC 5905)
서버 또는 피어로서 네트워크의 다른 컴퓨터에 시간 서비스 제공
Chrony 는 간헐적인 네트워크 연결, 과도하게 혼잡한 네트워크, 온도 변경(일반 컴퓨터 클록은 온도에 민감함) 및 지속적으로 실행되지 않거나 가상 시스템에서 실행되지 않는 시스템을 포함하여 다양한 조건에서 원활하게 작동합니다.
인터넷을 통해 동기화된 두 머신 간의 일반적인 정확성은 몇 밀리초 이내이며, 10마이크로초 내에 LAN에 있는 머신의 경우입니다. 하드웨어 타임스탬프 또는 하드웨어 참조 클록은 두 머신 간의 정확도를 1마이크로초 단위로 동기화할 수 있습니다.
Chrony 는 사용자 공간에서 실행되는 데몬인 chronyd와 chronyd
의 성능을 모니터링하고 실행 중인 다양한 운영 매개 변수를 변경하는 데 사용할 수 있는 명령줄 프로그램인 chronyc 로 구성됩니다.
chrony 데몬인 chronyd
는 명령줄 chronyc 에서 모니터링하고 제어할 수 있습니다. 이 유틸리티는 chronyd
의 현재 상태를 쿼리하고 구성을 변경할 수 있도록 여러 명령을 입력할 수 있는 명령 프롬프트를 제공합니다. 기본적으로 chronyd
는 chronyc 의 로컬 인스턴스에서 명령만 수락하지만 원격 호스트에서도 모니터링 명령을 허용하도록 구성할 수 있습니다. 원격 액세스를 제한해야 합니다.
29.2. chronyc를 사용하여 chronyd 제어
이 섹션에서는 chronyc 명령줄 유틸리티를 사용하여 chronyd
를 제어하는 방법을 설명합니다.
절차
대화형 모드에서 utility chronyc 명령줄을 사용하여
chronyd
의 로컬 인스턴스를 변경하려면root
로 다음 명령을 입력합니다.# chronyc
일부 제한된 명령을 사용하려면 chronyc 를
root
로 실행해야 합니다.chronyc 명령 프롬프트는 다음과 같이 표시됩니다.
chronyc>
-
모든 명령을 나열하려면
help
를 입력합니다. 또는 다음과 같이 명령과 함께 호출되는 경우 비대화형 명령 모드에서 유틸리티를 호출할 수도 있습니다.
chronyc command
chronyc 를 사용하여 변경한 내용은 영구적이지 않으며 chronyd
재시작 후 손실됩니다. 영구 변경을 위해 /etc/chrony.conf
를 수정합니다.
29.3. Chrony로 마이그레이션
Red Hat Enterprise Linux 7에서는 사용자가 ntp 와 chrony 중에서 선택하여 정확한 시간 유지를 보장할 수 있습니다. ntp 와 chrony, ntpd
및 chronyd
의 차이점은 ntpd와 chronyd 간의 차이점을 참조하십시오.
Red Hat Enterprise Linux 8부터 NTP는 더 이상 지원되지 않습니다. Chrony 는 기본적으로 활성화되어 있습니다. 따라서 ntp 에서 chrony 로 마이그레이션해야 할 수 있습니다.
ntp 에서 chrony 로의 마이그레이션은 대부분의 경우 간단합니다. 프로그램, 구성 파일 및 서비스의 해당 이름은 다음과 같습니다.
표 29.1. ntp에서 chrony로 마이그레이션할 때 프로그램, 구성 파일 및 서비스의 해당 이름
NTP 이름 | Chrony 이름 |
---|---|
/etc/ntp.conf | /etc/chrony.conf |
/etc/ntp/keys | /etc/chrony.keys |
ntpd | Chronyd |
ntpq | Chronyc |
ntpd.service | chronyd.service |
ntp-wait.service | chrony-wait.service |
ntp
배포에 포함된 ntpdate 및 sntp 유틸리티는 -q 옵션 또는 -
t
옵션을 사용하여 chronyd
로 바꿀 수 있습니다. /etc/chrony.conf
를 읽지 않도록 명령줄에서 구성을 지정할 수 있습니다. 예를 들어 ntpdate ntp.example.com
을 실행하는 대신chronyd
를 다음과 같이 시작할 수 있습니다.
# chronyd -q 'server ntp.example.com iburst' 2018-05-18T12:37:43Z chronyd version 3.3 starting (+CMDMON +NTP +REFCLOCK +RTC +PRIVDROP +SCFILTER +SIGND +ASYNCDNS +SECHASH +IPV6 +DEBUG) 2018-05-18T12:37:43Z Initial frequency -2.630 ppm 2018-05-18T12:37:48Z System clock wrong by 0.003159 seconds (step) 2018-05-18T12:37:48Z chronyd exiting
이전에 ntp 패키지에 포함되었으며 ntpd만 지원되었던
유틸리티는 이제 ntpd ntp
stat 와
chronyd
를 둘 다 지원합니다. ntpstat
패키지에서 사용할 수 있습니다.
29.3.1. 마이그레이션 스크립트
ntp2chrony.py
라는 Python 스크립트는 chrony
패키지(/usr/share/doc/chrony
) 설명서에 포함되어 있습니다. 스크립트는 기존 ntp
구성을 chrony
로 자동으로 변환합니다. ntp.conf
파일에서 가장 일반적인 지시문과 옵션을 지원합니다. 변환에서 무시되는 모든 행은 검토를 위해 생성된 chrony.conf
파일에 주석으로 포함됩니다. ntp 키 파일에 지정되지만 ntp
.conf에서 신뢰할 수 있는 키로 표시되지 않는 키는 생성된
파일에 주석으로 포함되어 있습니다.
chrony.
keys
기본적으로 스크립트는 파일을 덮어쓰지 않습니다. /etc/chrony.conf
또는 /etc/chrony.keys
가 이미 있는 경우 -b
옵션을 사용하여 파일 이름을 백업으로 변경할 수 있습니다. 이 스크립트는 다른 옵션을 지원합니다. --help
옵션은 지원되는 모든 옵션을 인쇄합니다.
ntp 패키지에
제공된 기본 ntp.conf
를 사용하여 스크립트 호출의 예는 다음과 같습니다.
# python3 /usr/share/doc/chrony/ntp2chrony.py -b -v Reading /etc/ntp.conf Reading /etc/ntp/crypto/pw Reading /etc/ntp/keys Writing /etc/chrony.conf Writing /etc/chrony.keys
이 경우 무시된 유일한 지시문은 noclientlog
지시문에 chrony가 동일하지만 증폭 공격을 완화하기 위해서만 기본 ntp.conf
에 포함되어 있는 disable monitor
입니다.
생성된 chrony.conf
파일에는 일반적으로 ntp.conf
의 restrict 행에 해당하는 다수의 allow
지시문이 포함되어 있습니다. chronyd
를 NTP
서버로 실행하지 않으려면 chrony.conf
에서 allow 지시문을
모두 제거합니다.
30장. Chrony 사용
다음 섹션에서는 chronyd
를 설치, 시작 및 중지하는 방법과 chrony
가 동기화되었는지 확인하는 방법을 설명합니다. 섹션에서는 시스템 클락을 수동으로 조정하는 방법도 설명합니다.
30.1. Chrony 관리
다음 절차에서는 chronyd
의 설치, 시작, 중지 및 상태를 확인하는 방법을 설명합니다.
절차
chrony 제품군은 기본적으로 Red Hat Enterprise Linux에 설치됩니다. 이를 확인하려면
root
로 다음 명령을 실행하십시오.# yum install chrony
chrony 데몬의 기본 위치는
/usr/sbin/chronyd
입니다. 명령행 유틸리티는/usr/bin/chronyc
에 설치됩니다.chronyd
의 상태를 확인하려면 다음 명령을 실행합니다.$
systemctl status chronyd
chronyd.service - NTP client/server Loaded: loaded (/usr/lib/systemd/system/chronyd.service; enabled) Active: active (running) since Wed 2013-06-12 22:23:16 CEST; 11h agochronyd
를 시작하려면root
로 다음 명령을 실행합니다.# systemctl start chronyd
시스템 시작 시
chronyd
가 자동으로 시작되도록 하려면root
로 다음 명령을 실행하십시오.# systemctl enable chronyd
chronyd
를 중지하려면root
로 다음 명령을 실행하십시오.# systemctl stop chronyd
시스템 시작 시
chronyd
가 자동으로 시작되지 않도록 하려면root
로 다음 명령을 실행하십시오.# systemctl disable chronyd
30.2. chrony가 동기화되었는지 확인
다음 절차에서는 chrony 가 추적
, 소스
명령을 사용하여 동기화되었는지 확인하는 방법을 설명합니다.
및
sourcestats
절차
Chrony 추적 을 확인하려면 다음 명령을 실행합니다.
$
chronyc tracking
Reference ID : CB00710F (foo.example.net) Stratum : 3 Ref time (UTC) : Fri Jan 27 09:49:17 2017 System time : 0.000006523 seconds slow of NTP time Last offset : -0.000006747 seconds RMS offset : 0.000035822 seconds Frequency : 3.225 ppm slow Residual freq : 0.000 ppm Skew : 0.129 ppm Root delay : 0.013639022 seconds Root dispersion : 0.001100737 seconds Update interval : 64.2 seconds Leap status : Normalsource 명령은
chronyd
가 액세스 중인 현재 시간 소스에 대한 정보를 표시합니다. chrony 소스를 확인하려면 다음 명령을 실행합니다.$ chronyc sources 210 Number of sources = 3 MS Name/IP address Stratum Poll Reach LastRx Last sample =============================================================================== #* GPS0 0 4 377 11 -479ns[ -621ns] /- 134ns ^? a.b.c 2 6 377 23 -923us[ -924us] +/- 43ms ^ d.e.f 1 6 377 21 -2629us[-2619us] +/- 86ms
자세한 정보를 포함하여 선택적 인수 -v를 지정할 수 있습니다. 이 경우 열의 의미를 알리는 추가 캡션 행이 표시됩니다.
sourcestats
명령은chronyd
에서 현재 검사하는 각 소스에 대한 드리프트 속도 및 오프셋 추정 프로세스에 대한 정보를 표시합니다. chrony 소스 통계를 확인하려면 다음 명령을 실행합니다.$
chronyc sourcestats
210 Number of sources = 1 Name/IP Address NP NR Span Frequency Freq Skew Offset Std Dev =============================================================================== abc.def.ghi 11 5 46m -0.001 0.045 1us 25us자세한 정보를 포함하여 선택적 인수
-v
를 지정할 수 있습니다. 이 경우 열의 의미를 알리는 추가 캡션 행이 표시됩니다.
추가 리소스
-
chronyc(1)
도움말 페이지
30.3. 시스템 시계 수동 조정
다음 절차에서는 시스템 클락을 수동으로 조정하는 방법을 설명합니다.
절차
시스템 시계를 즉시 전환하려면 줄 바꿈으로 진행 중인 조정을 무시하고
root
로 다음 명령을 실행합니다.# chronyc makestep
rtcfile
지시문을 사용하는 경우 실시간 클록을 수동으로 조정해서는 안 됩니다. 임의 조정으로 인해실시간 클록 드리프트의 속도를 측정해야 하는 Chrony의 필요성에 방해가 됩니다.
30.4. 격리된 네트워크에서 시스템의 chrony 설정
인터넷에 연결되지 않은 네트워크의 경우 한 대의 컴퓨터가 마스터 시간 서버로 선택됩니다. 다른 컴퓨터는 마스터의 직접 클라이언트 또는 클라이언트의 클라이언트입니다. 마스터에서 시스템 클록의 평균 드리프트 속도로 드리프트 파일을 수동으로 설정해야 합니다. 마스터가 재부팅되면 주변 시스템에서 시간을 가져오고 시스템 시계를 설정하는 평균 시간을 계산합니다. 그 후 드리프트 파일을 기반으로 조정 적용을 재개합니다. settime
명령을 사용하면 드리프트 파일이 자동으로 업데이트됩니다.
다음 절차에서는 격리된 네트워크에서 asystem에 대해 chrony 를 설정하는 방법을 설명합니다.
절차
마스터가 되도록 선택한 시스템에서 텍스트 편집기를
root
로 실행하는 경우 다음과 같이/etc/chrony.conf
를 편집합니다.driftfile /var/lib/chrony/drift commandkey 1 keyfile /etc/chrony.keys initstepslew 10 client1 client3 client6 local stratum 8 manual allow 192.0.2.0
여기서
192.0.2.0
은 클라이언트가 연결할 수 있는 네트워크 또는 서브넷 주소입니다.root
로 실행되는 텍스트 편집기를 사용하여 마스터의 직접 클라이언트가 되도록 선택한 시스템에서 다음과 같이/etc/chrony.conf
를 편집합니다.server master driftfile /var/lib/chrony/drift logdir /var/log/chrony log measurements statistics tracking keyfile /etc/chrony.keys commandkey 24 local stratum 10 initstepslew 20 master allow 192.0.2.123
여기서
192.0.2.123
은 마스터의 주소이며master는 마스터
의 호스트 이름입니다. 이 구성의 클라이언트는 재시작 시 마스터를 다시 동기화합니다.
마스터의 직접 클라이언트가 아니어야 하는 클라이언트 시스템에서는 로컬
및 allow
지시문을 생략해야 한다는 점을 제외하고 /etc/chrony.conf
파일이 동일해야 합니다.
격리된 네트워크에서 로컬 참조 모드를 활성화하는 로컬
지시문을 사용할 수도 있습니다. 이를 통해 chronyd
가 NTP
서버로 작동하면 동기화되지 않았거나 클록의 마지막 업데이트가 오래 전에 발생한 경우에도 chronyd가 실시간으로 동기화될 수 있습니다.
네트워크에 있는 여러 서버가 동일한 로컬 구성을 사용하도록 허용하고 둘 이상의 서버를 폴링하는 클라이언트를 혼동하지 않고 서로 동기화할 수 있도록 하려면 로컬
지시문의 고립 옵션을
사용하여 고립 모드를 활성화합니다. 각 서버는 로컬로 다른 모든 서버를 폴링하도록 구성해야 합니다 .
이렇게 하면 최소 참조 ID가 있는 서버만 로컬 참조가 활성 상태이며 다른 서버가 동기화됩니다. 서버가 실패하면 다른 서버가 인계됩니다.
30.5. 원격 모니터링 액세스 구성
Chronyc 는 다음 두 가지 방법으로 chronyd
에 액세스할 수 있습니다.
- 인터넷 프로토콜, IPv4 또는 IPv6.
-
Unix 도메인 소켓 -
root
또는chrony
사용자가 로컬로 액세스할 수 있습니다.
기본적으로 chronyc 는 Unix 도메인 소켓에 연결됩니다. 기본 경로는 /var/run/chrony/chronyd.sock
입니다. 이 연결이 실패하고 예를 들어 루트가 아닌 사용자가 chronyc 를 실행 중인 경우 chronyc 는 127.0.0.1에 연결을 시도한 다음 ::1에 연결을 시도합니다.
네트워크에서 chronyd
동작에 영향을 미치지 않는 다음 모니터링 명령만 허용합니다.
- 활동
- 수동 목록
- rtcdata
- 완화 중
- 소스
- Sourcestats
- 추적
- waitsync
chronyd가 이러한 명령을 허용하는 호스트 집합은 chronyd
의 구성 파일에서 cmdallow
지시문 또는
chronyc 의 cmdallow
명령으로 구성할 수 있습니다. 기본적으로 명령은 localhost(127.0.0.1 또는 ::1)에서만 허용됩니다.
기타 모든 명령은 Unix 도메인 소켓을 통해서만 허용됩니다. 네트워크를 통해 보내면 chronyd
는 localhost에서 온 경우에도 Not authorized 오류로
응답합니다.
다음 절차에서는 chronyc 를 사용하여 원격으로 chronyd에 액세스하는 방법을 설명합니다.
절차
다음을
/etc/chrony.conf 파일에 추가하여 IPv4 및 IPv6 주소 모두에서 액세스를 허용합니다.
bindcmdaddress 0.0.0.0
또는
bindcmdaddress ::
cmdallow
지시문을 사용하여 원격 IP 주소, 네트워크 또는 서브넷의 명령을 허용합니다./etc/chrony.conf 파일에 다음 내용을 추가합니다.
cmdallow 192.168.1.0/24
방화벽에서 포트 323을 열어 원격 시스템에서 연결합니다.
# firewall-cmd --zone=public --add-port=323/udp
선택적으로
--permanent
옵션을 사용하여 포트 323을 영구적으로 열 수 있습니다.# firewall-cmd --permanent --zone=public --add-port=323/udp
323 포트를 영구적으로 여는 경우 방화벽 구성을 다시 로드합니다.
firewall-cmd --reload
추가 리소스
-
chrony.conf(5)
도움말 페이지
30.6. RHEL 시스템 역할을 사용하여 시간 동기화 관리
time sync 역할을 사용하여 여러 대상 시스템에서 시간
동기화를 관리할 수 있습니다. timesync
역할은 PTP 도메인의 NTP 서버 또는 서브마스터와 시스템 클록을 동기화하기 위해 NTP 클라이언트 또는 PTP 슬레이브로 작동하도록 NTP 또는 PTP 구현을 설치하고 구성합니다.
또한 timesync
역할을 사용하면 ntp 또는 chrony를 사용하여 NTP 프로토콜을 구현하는지 여부에 관계없이 RHEL 6에서 시작하는 모든 Red Hat Enterprise Linux 버전에서 동일한 플레이북을 사용할 수 있기 때문에 쉽게 chrony 로 마이그레이션 할 수 있습니다.
timesync
역할은 관리 호스트에서 제공된 또는 탐지된 공급자 서비스의 구성을 대체합니다. 이전 설정은 역할 변수에 지정되지 않았더라도 손실됩니다. timesync_ntp_provider
변수가 정의되지 않은 경우 유일한 보존 설정은 프로바이더 선택 사항입니다.
다음 예제에서는 하나의 서버 풀만 있는 상황에서 timesync
역할을 적용하는 방법을 보여줍니다.
예 30.1. 단일 서버 풀에 대한 timesync 역할을 적용하는 예제 플레이북
--- - hosts: timesync-test vars: timesync_ntp_servers: - hostname: 2.rhel.pool.ntp.org pool: yes iburst: yes roles: - rhel-system-roles.timesync
timesync
역할 변수에 대한 자세한 참조는 rhel-system-roles
패키지를 설치하고 /usr/share/doc/rhel-system-roles/timesync
디렉터리의
파일을 참조하십시오.
README.md
또는 README.html
30.7. 추가 리소스
-
chronyc(1)
도움말 페이지 -
chronyd(8)
도움말 페이지 - 자주하는 질문
31장. HW 타임스탬프링을 사용하는 Chrony
하드웨어 타임스탬프링은 수신 및 발신 패킷의 정확한 타임스탬프를 제공하는 일부 NIC(Network Interface Controller)에서 지원되는 기능입니다. NTP
타임스탬프는 일반적으로 시스템 클록을 사용하여 커널 및 chronyd 에 의해 생성됩니다. 그러나 HW 타임스탬프가 활성화되면 NIC는 자체 클록을 사용하여 패킷이 링크 계층 또는 물리적 계층을 입력하거나 종료할 때 타임스탬프를 생성합니다. NTP
와 함께 사용할 경우 하드웨어 타임스탬프를 사용하면 동기화의 정확성을 크게 향상시킬 수 있습니다. 최적의 정확성을 위해 NTP
서버와 NTP
클라이언트 모두 하드웨어 타임스탬프를 사용해야 합니다. 이상적인 상황에서 마이크로초 미만의 정확성이 가능할 수 있습니다.
하드웨어 타임스탬프를 사용하는 시간 동기화를 위한 또 다른 프로토콜은 PTP
입니다.
NTP
와 달리PTP
는 네트워크 스위치 및 라우터의 지원을 사용합니다. 동기화의 정확성을 극대화하려면 PTP
를 지원하는 스위치 및 라우터가 있는 네트워크에서 PTP
를 사용하고 이러한 스위치와 라우터가 없는 네트워크에서 NTP
를 선호합니다.
다음 섹션에서는 다음을 수행하는 방법을 설명합니다.
- 하드웨어 타임스탬프 지원 확인
- 하드웨어 타임스탬프 활성화
- 클라이언트 폴링 간격 구성
- 인터리브드 모드 활성화
- 많은 수의 클라이언트를 위해 서버 구성
- 하드웨어 타임스탬프 확인
- PTP-NTP 브리지 구성
31.1. 하드웨어 타임스탬프 지원 확인
인터페이스에서 NTP
를 사용한 하드웨어 타임스탬프를 지원하는지 확인하려면 ethtool -T
명령을 사용합니다. ethtool
이 SOF_TIMESTAMPING_TX_ HARDWARE 및
필터 모드를 나열하는 경우 인터페이스를 SOF_TIMESTAMPING_TX_QUAWARE
기능과 HWTSTAMPMP_FILTER_
ALLNTP
로 하드웨어 타임스탬프에 사용할 수 있습니다.
예 31.1. 특정 인터페이스에서 하드웨어 타임스탬프 지원 확인
# ethtool -T eth0
출력:
Timestamping parameters for eth0: Capabilities: hardware-transmit (SOF_TIMESTAMPING_TX_HARDWARE) software-transmit (SOF_TIMESTAMPING_TX_SOFTWARE) hardware-receive (SOF_TIMESTAMPING_RX_HARDWARE) software-receive (SOF_TIMESTAMPING_RX_SOFTWARE) software-system-clock (SOF_TIMESTAMPING_SOFTWARE) hardware-raw-clock (SOF_TIMESTAMPING_RAW_HARDWARE) PTP Hardware Clock: 0 Hardware Transmit Timestamp Modes: off (HWTSTAMP_TX_OFF) on (HWTSTAMP_TX_ON) Hardware Receive Filter Modes: none (HWTSTAMP_FILTER_NONE) all (HWTSTAMP_FILTER_ALL) ptpv1-l4-sync (HWTSTAMP_FILTER_PTP_V1_L4_SYNC) ptpv1-l4-delay-req (HWTSTAMP_FILTER_PTP_V1_L4_DELAY_REQ) ptpv2-l4-sync (HWTSTAMP_FILTER_PTP_V2_L4_SYNC) ptpv2-l4-delay-req (HWTSTAMP_FILTER_PTP_V2_L4_DELAY_REQ) ptpv2-l2-sync (HWTSTAMP_FILTER_PTP_V2_L2_SYNC) ptpv2-l2-delay-req (HWTSTAMP_FILTER_PTP_V2_L2_DELAY_REQ) ptpv2-event (HWTSTAMP_FILTER_PTP_V2_EVENT) ptpv2-sync (HWTSTAMP_FILTER_PTP_V2_SYNC) ptpv2-delay-req (HWTSTAMP_FILTER_PTP_V2_DELAY_REQ)
31.2. 하드웨어 타임스탬프 활성화
하드웨어 타임스탬프를 활성화하려면 /etc/chrony.conf
파일에서 hwtimestamp
지시문을 사용합니다. 지시문은 단일 인터페이스를 지정하거나 와일드카드 문자를 사용하여 이를 지원하는 모든 인터페이스에서 하드웨어 타임스탬프를 활성화할 수 있습니다. linuxptp
패키지의 ptp4l 과 같은 다른 애플리케이션이 인터페이스에서 하드웨어 타임스탬프를 사용하는 경우 와일드카드 사양을 사용합니다. chrony 구성 파일에는 여러 hwtimestamp
지시문이 허용됩니다.
예 31.2. hwtimestamp 지시문을 사용하여 하드웨어 타임스탬프 활성화
hwtimestamp eth0 hwtimestamp eth1 hwtimestamp *
31.3. 클라이언트 폴링 간격 구성
인터넷의 서버에는 폴링 간격의 기본 범위(64-1024초)가 권장됩니다. 로컬 서버 및 하드웨어 타임스탬프의 경우 시스템 클럭의 오프셋을 최소화하기 위해 더 짧은 폴링 간격을 구성해야 합니다.
/etc/chrony.conf
의 다음 지시문은 1초 폴링 간격을 사용하여 로컬 NTP
서버를 지정합니다.
server ntp.local minpoll 0 maxpoll 0
31.4. 인터리브드 모드 활성화
하드웨어 NTP
어플라이언스가 아니라 소프트웨어 NTP
구현을 실행하는 범용 컴퓨터(예: chrony )는 패킷을 보낸 후에만 하드웨어 전송 타임스탬프를 가져옵니다. 이렇게 하면 서버가 해당 패킷의 타임스탬프를 저장하는 것을 방지할 수 있습니다. 전송 후 생성된 전송 타임스탬프를 수신하는
NTP
클라이언트를 활성화하려면 /etc/chrony.conf의 server 지시문에
xleave
옵션을 추가하여 클라이언트가 NTP
인터리브 모드를 사용하도록 구성합니다.
server ntp.local minpoll 0 maxpoll 0 xleave
31.5. 다수의 클라이언트에 대해 서버 구성
기본 서버 구성을 사용하면 대부분의 수천 개의 클라이언트가 인터리브드 모드를 동시에 사용할 수 있습니다. 다수의 클라이언트에 대해 서버를 구성하려면 /etc/chrony.conf
에서 clientloglimit
지시문을 늘립니다. 이 지시문은 서버에서 클라이언트 액세스 권한을 로깅하기 위해 할당된 최대 메모리 크기를 지정합니다.
clientloglimit 100000000
31.6. 하드웨어 타임스탬프 확인
인터페이스가 하드웨어 타임스탬프를 성공적으로 활성화했는지 확인하려면 시스템 로그를 확인합니다. 로그에는 하드웨어 타임스탬프가 성공적으로 활성화된 각 인터페이스에 대해 chronyd
의 메시지가 포함되어야 합니다.
예 31.3. 하드웨어 타임스탬프가 활성화된 인터페이스에 대한 로그 메시지
chronyd[4081]: Enabled HW timestamping on eth0 chronyd[4081]: Enabled HW timestamping on eth1
chronyd
가 NTP
클라이언트 또는 피어로 구성되면 chronyc ntpdata
명령으로 각 NTP
소스에 대해 보고된 전송 및 수신 타임스탬프 모드와 인터리브드 모드가 있을 수 있습니다.
예 31.4. 각 NTP 소스에 대해 전송 보고, 수신 타임스탬프링 및 인터리브드 모드
# chronyc ntpdata
출력:
Remote address : 203.0.113.15 (CB00710F) Remote port : 123 Local address : 203.0.113.74 (CB00714A) Leap status : Normal Version : 4 Mode : Server Stratum : 1 Poll interval : 0 (1 seconds) Precision : -24 (0.000000060 seconds) Root delay : 0.000015 seconds Root dispersion : 0.000015 seconds Reference ID : 47505300 (GPS) Reference time : Wed May 03 13:47:45 2017 Offset : -0.000000134 seconds Peer delay : 0.000005396 seconds Peer dispersion : 0.000002329 seconds Response time : 0.000152073 seconds Jitter asymmetry: +0.00 NTP tests : 111 111 1111 Interleaved : Yes Authenticated : No TX timestamping : Hardware RX timestamping : Hardware Total TX : 27 Total RX : 27 Total valid RX : 27
예 31.5. NTP 측정의 안정성 보고
# chronyc sourcestats
하드웨어 타임스탬프를 활성화하면 NTP
측정의 안정성이 정상 부하에서 수십 또는 수백 나노초 내에 있어야 합니다. 이 안정성은 chronyc sourcestats
명령의 출력의 Std Dev
열에 보고됩니다.
출력:
210 Number of sources = 1 Name/IP Address NP NR Span Frequency Freq Skew Offset Std Dev ntp.local 12 7 11 +0.000 0.019 +0ns 49ns
31.7. PTP-NTP 브리지 구성
PTP(Precision Time Protocol) LVmaster가 PTP
지원과 함께 스위치 또는 라우터가 없는 네트워크에서 사용 가능한 경우 컴퓨터는 PTP
슬레이브 및 stratum-1
NTP
서버로만 작동할 수 있습니다. 이러한 컴퓨터에는 두 개 이상의 네트워크 인터페이스가 있어야 하며, 마스터에 가까우거나 직접 연결되어 있어야 합니다. 이렇게 하면 네트워크에서 매우 정확한 동기화가 가능합니다.
하나의 인터페이스를 사용하여 PTP
를 사용하여 시스템 시계를 동기화하도록 linuxptp
패키지에서 ptp4l 및 phc2sys 프로그램을 구성합니다.
다른 인터페이스를 사용하여 시스템 시간을 제공하도록 chronyd
를 구성합니다.
예 31.6. 다른 인터페이스를 사용하여 시스템 시간을 제공하도록 chronyd 구성
bindaddress 203.0.113.74 hwtimestamp eth1 local stratum 1
32장. chrony에서 NTP가 이전에 지원한 일부 설정 수행
ntp 에서 지원하는 이전 Red Hat Enterprise Linux 주 버전에 있는 일부 설정은 chrony 에서 지원되지 않습니다. 다음 섹션은 이러한 설정을 나열하고 chrony 가 있는 시스템에서 이를 수행하는 방법을 설명합니다.
32.1. ntpq 및 ntpdc로 모니터링
chrony 는
NTP
모드 6 및 7을 지원하지 않으므로 ntp 배포의 ntpq 및 ntpdc 유틸리티로 Chronyd를 모니터링할 수 없습니다. 다른 프로토콜을 지원하며 chronyc 는 클라이언트 구현입니다. 자세한 내용은 chronyc(1)
도움말 페이지를 참조하십시오.
chronyd
에서 대칭화된 시스템 클록의 상태를 모니터링하려면 다음을 수행할 수 있습니다.
- 추적 명령 사용
-
ntpstat 유틸리티를 사용하여 chrony 를 지원하고
ntpd
와 함께 사용된 것과 유사한 출력을 제공합니다.
예 32.1. 추적 명령 사용
$ chronyc -n tracking Reference ID : 0A051B0A (10.5.27.10) Stratum : 2 Ref time (UTC) : Thu Mar 08 15:46:20 2018 System time : 0.000000338 seconds slow of NTP time Last offset : +0.000339408 seconds RMS offset : 0.000339408 seconds Frequency : 2.968 ppm slow Residual freq : +0.001 ppm Skew : 3.336 ppm Root delay : 0.157559142 seconds Root dispersion : 0.001339232 seconds Update interval : 64.5 seconds Leap status : Normal
예 32.2. ntpstat 유틸리티 사용
$ ntpstat synchronised to NTP server (10.5.27.10) at stratum 2 time correct to within 80 ms polling server every 64 s
32.2. 공개 키 암호화를 기반으로 인증 메커니즘 사용
Red Hat Enterprise Linux 7에서 ntp 는 공개 키 암호화를 기반으로 하는 인증 메커니즘인 Autokey 를 지원합니다.
Red Hat Enterprise Linux 8에서 chronyd
는 Autokey 대신 최신 보안 인증 메커니즘인 NTP(Network Time Security)를 지원합니다. 자세한 내용은 chrony의 NTP(Network Time Security) 개요를 참조하십시오.
32.3. 임시 대칭 연결 사용
Red Hat Enterprise Linux 7에서 ntpd
지원 임시 대칭 연관은 ntp.conf
구성 파일에 지정되지 않은 피어의 패킷에 의해 조작될 수 있습니다. Red Hat Enterprise Linux 8에서 chronyd
는 모든 피어를 chrony.conf
에 지정해야 합니다. 임시 대칭 연결은 지원되지 않습니다.
server
또는 pool
지시문에서 활성화하는 클라이언트/서버 모드를 사용하는 것은 peer
지시문에서 활성화하는 대칭 모드에 비해 더 안전합니다.
32.4. 멀티 캐스트/브로드 캐스트 클라이언트
Red Hat Enterprise Linux 7은 클라이언트 구성을 간소화하는 브로드캐스트/멀티캐스트 NTP
모드를 지원했습니다. 이 모드에서는 클라이언트가 개별 서버의 특정 이름이나 주소를 수신 대기하는 대신 멀티캐스트/브로드캐스트 주소로 전송되는 패킷만 수신 대기하도록 구성할 수 있습니다. 이러한 패킷은 시간이 지남에 따라 변경될 수 있습니다.
Red Hat Enterprise Linux 8에서 chronyd
는 브로드캐스트/멀캐스트 모드를 지원하지 않습니다. 주된 이유는 일반 클라이언트/서버 및 대칭 모드보다 덜 정확하고 안전하지 않기 때문입니다.
NTP
브로드캐스트/다중캐스트 설정에서 마이그레이션하는 몇 가지 옵션이 있습니다.
ntp.example.com과 같은 단일 이름을 다른 서버의 여러 주소로 변환하도록 DNS 구성
클라이언트는 단일 pool 지시문만 사용하여 여러 서버와 동기화할 정적 구성을 가질 수 있습니다. 풀의 서버를 복원할 수 없거나 동기화에 적합하지 않은 경우 클라이언트는 자동으로 풀의 다른 서버로 교체합니다.
DHCP를 통해
NTP
서버 목록 배포NetworkManager가 DHCP 서버에서
NTP
서버 목록을 가져오면chronyd
가 자동으로 이를 사용하도록 구성됩니다. 이 기능은PEERNTP=no
를/etc/sysconfig/network
파일에 추가하여 비활성화할 수 있습니다.PTP(Precision Time Protocol)
사용이 옵션은 주로 서버가 자주 변경되거나, 지정된 서버를 사용하지 않고도 대규모 클라이언트 그룹을 서로 동기화해야 하는 환경에 적합합니다.
PTP
는 멀티캐스트 메시징용으로 설계되었으며NTP
브로드캐스트 모드와 유사하게 작동합니다.PTP
구현은linuxptp
패키지에서 사용할 수 있습니다.PTP
는 일반적으로 네트워크 스위치의 하드웨어 타임스탬프 및 지원이 제대로 작동해야 합니다. 그러나PTP
는 소프트웨어 타임스탬프를 사용하고 네트워크 스위치에서 지원하지 않는 브로드캐스트 모드에서NTP
보다 더 잘 작동할 것으로 예상됩니다.한 통신 경로에
PTP
슬레이브 수가 매우 많은 네트워크에서 슬레이브로 생성된 네트워크 트래픽의 양을 줄이기 위해hybrid_e2e
옵션으로PTP
슬레이브를 구성하는 것이 좋습니다. 멀티캐스트 메시징을 사용하여 동기화된 시간을 다수의 컴퓨터에배포하기
위해chronyd
를NTP
클라이언트 및 NTP
서버로 실행하는 컴퓨터를 구성할 수 있습니다.
33장. Chrony의 NTP(Network Time Security) 개요
NTP(Network Time Security)는 주요 클라이언트를 확장하도록 설계된 NTP(Network Time Protocol) 인증 메커니즘입니다. 클라이언트 시스템으로 이동하는 동안 서버 시스템에서 수신한 패킷이 변경되지 않은지 확인합니다. NTP(Network Time Security)에는 서버와 클라이언트 간에 사용되는 암호화 키를 자동으로 생성하는 NTPS-KE(Key Establishment) 프로토콜이 포함되어 있습니다.
33.1. 클라이언트 구성 파일에서 NTP(네트워크 시간 보안) 활성화
기본적으로 NTP(Network Time Security)는 활성화되어 있지 않습니다. /etc/chrony.conf
에서 NTS를 활성화할 수 있습니다. 이를 위해 다음 단계를 수행하십시오.
사전 요구 사항
- NTS를 지원하는 서버
절차
클라이언트 구성 파일에서 다음을 수행합니다.
권장되는
iburst
옵션 외에 thents
옵션을 사용하여 server를 지정합니다.For example: server time.example.com iburst nts server nts.netnod.se iburst nts server ptbtime1.ptb.de iburst nts
시스템 부팅 중에 NTPS-KE(Network Time Security-Key Establishment) 세션을 반복하지 않으려면
chrony.conf
에 다음 행을 추가합니다.ntsdumpdir /var/lib/chrony
/etc/sysconfig/network
에 다음 행을 추가하여DHCP
에서 제공하는 NTP(Network Time Protocol) 서버와의 동기화를 비활성화합니다.PEERNTP=no
- 변경 사항을 저장하십시오.
chronyd
서비스를 다시 시작하십시오.systemctl restart chronyd
검증
NTS
키가 성공적으로 설정되었는지 확인합니다.# chronyc -N authdata Name/IP address Mode KeyID Type KLen Last Atmp NAK Cook CLen ================================================================ time.example.com NTS 1 15 256 33m 0 0 8 100 nts.sth1.ntp.se NTS 1 15 256 33m 0 0 8 100 nts.sth2.ntp.se NTS 1 15 256 33m 0 0 8 100
KeyID
,Type
및KLen
의 값은 0이 아니어야 합니다. 값이 0이면chronyd
에서 시스템 로그에 오류 메시지가 있는지 확인합니다.클라이언트가 NTP를 측정하고 있는지 확인합니다.
# chronyc -N sources MS Name/IP address Stratum Poll Reach LastRx Last sample ========================================================= time.example.com 3 6 377 45 +355us[ +375us] +/- 11ms nts.sth1.ntp.se 1 6 377 44 +237us[ +237us] +/- 23ms nts.sth2.ntp.se 1 6 377 44 -170us[ -170us] +/- 22ms
Reach
열에는 0이 아닌 값이 있어야 합니다. 이상적인 377. 값이 377를 거의 얻지 못하거나 377를 얻지 못하면 네트워크에서 NTP 요청 또는 응답이 손실되고 있음을 나타냅니다.
추가 리소스
-
chrony.conf(5)
도움말 페이지
33.2. 서버에서 NTP(Network Time Security) 활성화
자체 NTP(Network Time Protocol) 서버를 실행하는 경우 서버 NTP(Network Time Security) 지원을 활성화하여 클라이언트가 안전하게 동기화하도록 할 수 있습니다.
NTP 서버가 다른 서버, 즉 Stratum 1 서버인 경우 동기화에 NTS 또는 대칭 키를 사용해야 합니다.
사전 요구 사항
-
PEM
형식의 서버 개인 키 -
필요한 중간 인증서가 있는 서버 인증서
PEM
형식
절차
chrony.conf에 개인 키와 인증서 파일을 지정합니다.
For example: ntsserverkey /etc/pki/tls/private/foo.example.net.key ntsservercert /etc/pki/tls/certs/foo.example.net.crt
그룹 소유권을 설정하여 chrony 시스템 사용자가 키와 인증서 파일을 모두 읽을 수 있는지 확인합니다.
For example: chown :chrony /etc/pki/tls/*/foo.example.net.*
-
the
ntsdumpdir /var/lib/chrony
지시문이chrony.conf
에 있는지 확인합니다. chronyd
서비스를 다시 시작하십시오.systemctl restart chronyd
중요서버에 방화벽이 있는 경우 NTP 및 Network Time Security-Key Establishment(NTS-KE)에 대한
UDP 123
및TCP 4460
포트를 모두 허용해야 합니다.
검증
다음 명령을 사용하여 클라이언트 시스템에서 빠른 테스트를 수행합니다.
$ chronyd -Q -t 3 'server foo.example.net iburst nts maxsamples 1' 2021-09-15T13:45:26Z chronyd version 4.1 starting (+CMDMON +NTP +REFCLOCK +RTC +PRIVDROP +SCFILTER +SIGND +ASYNCDNS +NTS +SECHASH +IPV6 +DEBUG) 2021-09-15T13:45:26Z Disabled control of system clock 2021-09-15T13:45:28Z System clock wrong by 0.002205 seconds (ignored) 2021-09-15T13:45:28Z chronyd exiting
시스템 클록 잘못된
메시지는 NTP 서버가 NTS-KE 연결을 수락하고 NTS 보호 NTP 메시지로 응답하고 있음을 나타냅니다.서버에서 관찰된 NTS-KE 연결 및 인증된 NTP 패킷을 확인합니다.
# chronyc serverstats NTP packets received : 7 NTP packets dropped : 0 Command packets received : 22 Command packets dropped : 0 Client log records dropped : 0 NTS-KE connections accepted: 1 NTS-KE connections dropped : 0 Authenticated NTP packets: 7
NTS-KE 연결 값이 0이 아닌 NTP
패킷
필드인 경우 클라이언트가 NTS-KE 포트에 연결하고 인증된 NTP 요청을 보낼 수 있었습니다.
34장. OpenSSH로 두 시스템 간의 보안 통신 사용
SSH(Secure Shell)는 클라이언트-서버 아키텍처를 사용하여 두 시스템 간에 보안 통신을 제공하고 사용자가 서버 호스트 시스템에 원격으로 로그인할 수 있는 프로토콜입니다. FTP 또는 Telnet과 같은 다른 원격 통신 프로토콜과 달리 SSH는 로그인 세션을 암호화하여 침입자가 암호화되지 않은 암호를 연결에서 수집할 수 있습니다.
Red Hat Enterprise Linux에는 일반 openssh 패키지, openssh
-server 패키지,
패키지 등 기본 openssh-
clientsOpenSSH
패키지가 포함되어 있습니다. OpenSSH 패키지에는 OpenSSH
가 암호화된 통신을 제공할 수 있는
몇 가지 중요한 암호화 라이브러리를 설치하는 OpenSSL
패키지가 있어야
합니다.
34.1. SSH 및 OpenSSH
SSH(Secure Shell)는 원격 시스템에 로그인하고 해당 시스템에서 명령을 실행하는 프로그램입니다. SSH 프로토콜은 비보안 네트워크를 통해 신뢰할 수 없는 두 호스트 간에 안전한 암호화된 통신을 제공합니다. 보안 채널을 통해 X11 연결 및 임의의 TCP/IP 포트를 전달할 수도 있습니다.
SSH 프로토콜은 원격 쉘 로그인 또는 파일 복사에 사용할 때 두 시스템 간 통신 가로채기 및 특정 호스트의 가장과 같은 보안 위협을 완화합니다. 이는 SSH 클라이언트와 서버가 디지털 서명을 사용하여 ID를 확인하기 때문입니다. 또한 클라이언트와 서버 시스템 간의 모든 통신이 암호화됩니다.
호스트 키는 SSH 프로토콜에서 호스트를 인증합니다. 호스트 키는 OpenSSH가 처음 설치될 때 또는 호스트가 처음 부팅될 때 자동으로 생성되는 암호화 키입니다.
OpenSSH는 Linux, UNIX 및 유사한 운영 체제에서 지원하는 SSH 프로토콜 구현입니다. OpenSSH 클라이언트와 서버 모두에 필요한 핵심 파일을 포함합니다. OpenSSH 제품군은 다음 사용자 공간 도구로 구성됩니다.
-
SSH
는 원격 로그인 프로그램(SSH 클라이언트)입니다. -
sshd
는 OpenSSH SSH 데몬입니다. -
SCP
는 안전한 파일 복사 프로그램입니다. -
SFTP
는 안전한 파일 전송 프로그램입니다. -
SSH-agent
는 개인 키를 캐싱하기 위한 인증 에이전트입니다. -
ssh-add
는ssh-agent
에 개인 키 ID를 추가합니다. -
SSH-keygen은
에 대한 인증 키를 생성, 관리 및 변환합니다.ssh
-
ssh-copy-id
는 원격 SSH 서버의authorized_keys
파일에 로컬 공개 키를 추가하는 스크립트입니다. -
SSH-keyscan
은 SSH 공개 호스트 키를 수집합니다.
현재 SSH의 두 가지 버전인 버전 1과 최신 버전 2가 있습니다. RHEL의 OpenSSH 제품군은 SSH 버전 2만 지원합니다. 버전 1에서 알려진 악용에 취약하지 않은 향상된 key-exchange 알고리즘을 가지고 있습니다.
OpenSSH는 RHEL의 핵심 암호화 하위 시스템 중 하나로 시스템 전체 암호화 정책을 사용합니다. 이렇게 하면 기본 구성에서 약한 암호 제품군 및 암호화 알고리즘이 비활성화됩니다. 정책을 수정하려면 관리자는 update-crypto-policies
명령을 사용하여 설정을 조정하거나 시스템 전체 암호화 정책을 수동으로 비활성화해야 합니다.
OpenSSH 제품군은 클라이언트 프로그램(즉, ssh
,scp
, sftp
)과 서버( sshd
데몬)에 대한 두 가지 구성 파일 세트를 사용합니다.
시스템 전체 SSH 구성 정보는 /etc/ssh/
디렉토리에 저장됩니다. 사용자별 SSH 구성 정보는 사용자 홈 디렉터리의 ~/.ssh/
에 저장됩니다. OpenSSH 구성 파일의 자세한 목록은 sshd(8)
도움말 페이지의 FILES
섹션을 참조하십시오.
추가 리소스
-
man -k ssh
명령을 사용하여 나열된 도움말 페이지 - 시스템 전체 암호화 정책 사용
34.2. OpenSSH 서버 구성 및 시작
환경 및 OpenSSH 서버를 시작하는 데 필요할 수 있는 기본 구성에는 다음 절차를 사용합니다. 기본 RHEL 설치 후에는 sshd
데몬이 이미 시작되고 서버 호스트 키가 자동으로 생성됩니다.
사전 요구 사항
-
openssh-server
패키지가 설치되어 있습니다.
절차
현재 세션에서
sshd
데몬을 시작하고 부팅 시 자동으로 시작되도록 설정합니다.# systemctl start sshd # systemctl enable sshd
기본
0.0.0.0
(IPv4) 또는 :과 다른 주소를 지정하려면 다음을 수행합니다.
(IPv6)/etc/ssh/sshd_config
구성 파일에서ListenAddress
지시문의 경우 느린 동적 네트워크 구성을 사용하여network-online.target
대상 장치에 대한 종속성을sshd.service
장치 파일에 추가합니다. 이를 위해 다음 콘텐츠를 사용하여/etc/systemd/system/sshd.service.d/local.conf
파일을 만듭니다.[Unit] Wants=network-online.target After=network-online.target
-
/etc/ssh/sshd_config
구성 파일의 OpenSSH 서버 설정이 시나리오 요구 사항을 충족하는지 검토합니다. 선택적으로
/etc/issue
파일을 편집하여 클라이언트를 인증하기 전에 OpenSSH 서버가 표시하는 시작 메시지를 변경합니다. 예를 들면 다음과 같습니다.Welcome to ssh-server.example.com Warning: By accessing this server, you agree to the referenced terms and conditions.
Banner
옵션이/etc/ssh/sshd_config
에서 주석 처리되지 않고 해당 값에/etc/issue
가 포함되어 있는지 확인하십시오.# less /etc/ssh/sshd_config | grep Banner Banner /etc/issue
로그인에 성공한 후 표시되는 메시지를 변경하려면 서버에서
/etc/motd
파일을 편집해야 합니다. 자세한 내용은pam_motd
도움말 페이지를 참조하십시오.systemd
구성을 다시 로드하고sshd
를 다시 시작하여 변경 사항을 적용합니다.# systemctl daemon-reload # systemctl restart sshd
검증
sshd
데몬이 실행 중인지 확인합니다.# systemctl status sshd ● sshd.service - OpenSSH server daemon Loaded: loaded (/usr/lib/systemd/system/sshd.service; enabled; vendor preset: enabled) Active: active (running) since Mon 2019-11-18 14:59:58 CET; 6min ago Docs: man:sshd(8) man:sshd_config(5) Main PID: 1149 (sshd) Tasks: 1 (limit: 11491) Memory: 1.9M CGroup: /system.slice/sshd.service └─1149 /usr/sbin/sshd -D -oCiphers=aes128-ctr,aes256-ctr,aes128-cbc,aes256-cbc -oMACs=hmac-sha2-256,> Nov 18 14:59:58 ssh-server-example.com systemd[1]: Starting OpenSSH server daemon... Nov 18 14:59:58 ssh-server-example.com sshd[1149]: Server listening on 0.0.0.0 port 22. Nov 18 14:59:58 ssh-server-example.com sshd[1149]: Server listening on :: port 22. Nov 18 14:59:58 ssh-server-example.com systemd[1]: Started OpenSSH server daemon.
SSH 클라이언트를 사용하여 SSH 서버에 연결합니다.
# ssh user@ssh-server-example.com ECDSA key fingerprint is SHA256:dXbaS0RG/UzlTTku8GtXSz0S1++lPegSy31v3L/FAEc. Are you sure you want to continue connecting (yes/no/[fingerprint])? yes Warning: Permanently added 'ssh-server-example.com' (ECDSA) to the list of known hosts. user@ssh-server-example.com's password:
추가 리소스
-
sshd(8)
및sshd_config(5)
도움말 페이지.
34.3. 키 기반 인증을 위한 OpenSSH 서버 설정
시스템 보안을 강화하려면 OpenSSH 서버에서 암호 인증을 비활성화하여 키 기반 인증을 시행합니다.
사전 요구 사항
-
openssh-server
패키지가 설치되어 있습니다. -
sshd
데몬이 서버에서 실행되고 있습니다.
절차
텍스트 편집기에서
/etc/ssh/sshd_config
구성을 엽니다. 예를 들면 다음과 같습니다.# vi /etc/ssh/sshd_config
PasswordAuthentication
옵션을no
로 변경합니다.PasswordAuthentication no
새 기본 설치 이외의 시스템에서
PubkeyAuthentication no
가 설정되지 않았으며ChallengeResponseAuthentication
지시문이no
로 설정되어 있는지 확인합니다. 콘솔 또는 대역 외 액세스를 사용하지 않고 원격으로 연결하는 경우 암호 인증을 비활성화하기 전에 키 기반 로그인 프로세스를 테스트합니다.NFS로 마운트된 홈 디렉토리에서 키 기반 인증을 사용하려면
use_nfs_home_dirs
SELinux 부울을 활성화합니다.# setsebool -P use_nfs_home_dirs 1
sshd
데몬을 다시 로드하여 변경 사항을 적용합니다.# systemctl reload sshd
추가 리소스
-
sshd(8)
,sshd_config(5)
및setsebool(8)
도움말 페이지.
34.4. SSH 키 쌍 생성
이 절차를 사용하여 로컬 시스템에 SSH 키 쌍을 생성하고 생성된 공개 키를 OpenSSH 서버에 복사합니다. 서버가 적절하게 구성된 경우 암호를 제공하지 않고 OpenSSH 서버에 로그인할 수 있습니다.
다음 단계를 root로 완료하면 root
만 키를 사용할 수 있습니다.
절차
SSH 프로토콜의 버전 2에 대한 ECDSA 키 쌍을 생성하려면 다음을 수행합니다.
$ ssh-keygen -t ecdsa Generating public/private ecdsa key pair. Enter file in which to save the key (/home/joesec/.ssh/id_ecdsa): Enter passphrase (empty for no passphrase): Enter same passphrase again: Your identification has been saved in /home/joesec/.ssh/id_ecdsa. Your public key has been saved in /home/joesec/.ssh/id_ecdsa.pub. The key fingerprint is: SHA256:Q/x+qms4j7PCQ0qFd09iZEFHA+SqwBKRNaU72oZfaCI joesec@localhost.example.com The key's randomart image is: +---[ECDSA 256]---+ |.oo..o=++ | |.. o .oo . | |. .. o. o | |....o.+... | |o.oo.o +S . | |.=.+. .o | |E.*+. . . . | |.=..+ +.. o | | . oo*+o. | +----[SHA256]-----+
ssh-keygen
-t
RSA 키 쌍을 생성할 수도 있습니다.ed25519 명령을 입력하여
옵션을 사용하여ssh-keygen
명령 또는 Ed25519 키 쌍과 함께 -t rsa공개 키를 원격 머신에 복사하려면 다음을 수행합니다.
$ ssh-copy-id joesec@ssh-server-example.com /usr/bin/ssh-copy-id: INFO: attempting to log in with the new key(s), to filter out any that are already installed joesec@ssh-server-example.com's password: ... Number of key(s) added: 1 Now try logging into the machine, with: "ssh 'joesec@ssh-server-example.com'" and check to make sure that only the key(s) you wanted were added.
세션에서
ssh-agent
프로그램을 사용하지 않는 경우 이전 명령은 가장 최근에 수정된~/.ssh/id*.pub
공개 키를 아직 설치하지 않은 경우 복사합니다. 다른 공개 키 파일을 지정하거나ssh-agent
로 메모리에 캐시된 키보다 파일의 키 우선 순위를 지정하려면ssh-copy-id
명령을-i
옵션과 함께 사용합니다.
시스템을 다시 설치하고 이전에 생성된 키 쌍을 유지하려면 ~/.ssh/
디렉터리를 백업합니다. 다시 설치한 후 홈 디렉터리로 복사합니다. root
를 포함하여 시스템의 모든 사용자에 대해 이 작업을 수행할 수 있습니다.
검증
암호를 제공하지 않고 OpenSSH 서버에 로그인합니다.
$ ssh joesec@ssh-server-example.com Welcome message. ... Last login: Mon Nov 18 18:28:42 2019 from ::1
추가 리소스
-
ssh-keygen(1)
및ssh-copy-id(1)
도움말 페이지.
34.5. 스마트 카드에 저장된 SSH 키 사용
Red Hat Enterprise Linux를 사용하면 OpenSSH 클라이언트의 스마트 카드에 저장된 RSA 및 ECDSA 키를 사용할 수 있습니다. 다음 절차에 따라 암호 대신 스마트 카드로 인증을 활성화합니다.
사전 요구 사항
-
클라이언트 측에서
opensc
패키지가 설치되고pcscd
서비스가 실행 중입니다.
절차
PKCS #11 URI를 포함하여 OpenSC PKCS #11 모듈에서 제공하는 모든 키를 나열하고 출력을 keys.pub 파일에 저장합니다.
$ ssh-keygen -D pkcs11: > keys.pub $ ssh-keygen -D pkcs11: ssh-rsa AAAAB3NzaC1yc2E...KKZMzcQZzx pkcs11:id=%02;object=SIGN%20pubkey;token=SSH%20key;manufacturer=piv_II?module-path=/usr/lib64/pkcs11/opensc-pkcs11.so ecdsa-sha2-nistp256 AAA...J0hkYnnsM= pkcs11:id=%01;object=PIV%20AUTH%20pubkey;token=SSH%20key;manufacturer=piv_II?module-path=/usr/lib64/pkcs11/opensc-pkcs11.so
원격 서버(example.com)에서 스마트 카드를 사용하여 인증을 활성화하려면 공개 키를 원격 서버로 전송합니다. 이전 단계에서 만든 key .pub와 함께
ssh
-copy-id 명령을 사용하십시오.$ ssh-copy-id -f -i keys.pub username@example.com
1단계에서
ssh-keygen -D
명령의 출력에서 ECDSA 키를 사용하여 example.com 에 연결하려면 다음과 같이 키를 고유하게 참조하는 URI의 하위 집합만 사용할 수 있습니다.$ ssh -i "pkcs11:id=%01?module-path=/usr/lib64/pkcs11/opensc-pkcs11.so" example.com Enter PIN for 'SSH key': [example.com] $
~/.ssh/config
파일에서 동일한 URI 문자열을 사용하여 구성을 영구적으로 만들 수 있습니다.$ cat ~/.ssh/config IdentityFile "pkcs11:id=%01?module-path=/usr/lib64/pkcs11/opensc-pkcs11.so" $ ssh example.com Enter PIN for 'SSH key': [example.com] $
OpenSSH는
p11-kit-proxy
래퍼를 사용하고 OpenSC PKCS #11 모듈은 PKCS#11 Kit에 등록되므로 이전 명령을 간소화할 수 있습니다.$ ssh -i "pkcs11:id=%01" example.com Enter PIN for 'SSH key': [example.com] $
PKCS #11 URI의 id=
부분을 건너뛰면 OpenSSH는 proxy 모듈에서 사용할 수 있는 모든 키를 로드합니다. 이렇게 하면 필요한 입력 횟수가 줄어듭니다.
$ ssh -i pkcs11: example.com
Enter PIN for 'SSH key':
[example.com] $
추가 리소스
- Fedora 28: OpenSSH에서 스마트 카드 지원 개선
-
p11-kit(8)
,opensc.conf(5)
,pcscd(8)
,ssh(1)
및ssh-keygen(1)
매뉴얼 페이지
34.6. OpenSSH의 보안 강화
다음 팁은 OpenSSH를 사용할 때 보안을 강화하는 데 도움이 됩니다. /etc/ssh/sshd_config
OpenSSH 구성 파일의 변경 사항을 적용하려면 sshd
데몬을 다시 로드해야 합니다.
# systemctl reload sshd
대부분의 보안 강화 구성 변경으로 최신 알고리즘 또는 암호 제품군을 지원하지 않는 클라이언트와의 호환성이 줄어듭니다.
비보안 연결 프로토콜 비활성화
- SSH를 효과적으로 사용하려면 OpenSSH 제품군으로 대체되는 안전하지 않은 연결 프로토콜을 사용하지 않도록 합니다. 그렇지 않으면 Telnet을 사용하여 로그인할 때 나중에 하나의 세션이 캡처되도록 SSH를 사용하여 사용자 암호를 보호할 수 있습니다. 이러한 이유로 telnet, rsh, rlogin 및 ftp와 같은 비보안 프로토콜을 비활성화하는 것이 좋습니다.
키 기반 인증 활성화 및 암호 기반 인증 비활성화
인증에 대한 암호 비활성화 및 키 쌍만 허용하면 공격 면적이 줄어들고 사용자의 시간도 절약할 수 있습니다. 클라이언트에서
ssh-keygen
툴을 사용하여 키 쌍을 생성하고ssh-copy-id
유틸리티를 사용하여 OpenSSH 서버의 클라이언트에서 공개 키를 복사합니다. OpenSSH 서버에서 암호 기반 인증을 비활성화하려면/etc/ssh/sshd_config
를 편집하고PasswordAuthentication
옵션을no
로 변경합니다.PasswordAuthentication no
키 유형
ssh-keygen
명령은 기본적으로 RSA 키 쌍을 생성하지만-t
옵션을 사용하여 ECDSA 또는 Ed25519 키를 생성하도록 지시할 수 있습니다. ECDSA(Elliptic Curve Digital Signature Algorithm)는 동등한 대칭 키 강점에서 RSA보다 더 나은 성능을 제공합니다. 짧은 키도 생성합니다. Ed25519 공개 키 알고리즘은 RSA, DSA 및 ECDSA보다 더 빠르고 안전하며 더 빠릅니다.OpenSSH는 RSA, ECDSA 및 Ed25519 서버 호스트 키가 누락된 경우 자동으로 생성합니다. RHEL에서 호스트 키 생성을 구성하려면
sshd-keygen@.service
인스턴스화 서비스를 사용합니다. 예를 들어, RSA 키 유형의 자동 생성을 비활성화하려면 다음을 실행합니다.# systemctl mask sshd-keygen@rsa.service
SSH 연결에 대한 특정 키 유형을 제외하려면
/etc/ssh/sshd_config
에서 관련 행을 주석 처리하고sshd
서비스를 다시 로드합니다. 예를 들어 Ed25519 호스트 키만 허용하려면 다음을 수행합니다.# HostKey /etc/ssh/ssh_host_rsa_key # HostKey /etc/ssh/ssh_host_ecdsa_key HostKey /etc/ssh/ssh_host_ed25519_key
기본이 아닌 포트
기본적으로
sshd
데몬은 TCP 포트 22에서 수신 대기합니다. 포트를 변경하면 자동화된 네트워크 스캔을 기반으로 하는 공격에 대한 시스템 노출이 줄어듭니다. 따라서 모호성을 통해 보안이 강화됩니다./etc/ssh/sshd_config
구성 파일에서Port
지시문을 사용하여 포트를 지정할 수 있습니다.또한 기본이 아닌 포트를 사용할 수 있도록 기본 SELinux 정책을 업데이트해야 합니다. 이렇게 하려면
policycoreutils-python-utils
패키지에서semanage
툴을 사용합니다.# semanage port -a -t ssh_port_t -p tcp port_number
또한
firewalld
구성을 업데이트합니다.# firewall-cmd --add-port port_number/tcp # firewall-cmd --runtime-to-permanent
이전 명령에서 port_number 를
Port
지시문을 사용하여 지정된 새 포트 번호로 바꿉니다.
root 로그인 없음
특정 사용 사례에서 root 사용자로 로그인할 가능성이 필요하지 않은 경우
PermitRootLogin
configuration 지시문을/etc/ssh/sshd_config
파일에서no
로 설정하는 것이 좋습니다. root 사용자로 로그인할 가능성을 비활성화하여 관리자는 일반 사용자로 로그인한 후 권한이 있는 명령을 실행하는 사용자를 감사한 다음 root 권한을 얻을 수 있습니다.또는 prevent
-password로
을 설정합니다.PermitRootLogin
PermitRootLogin prohibit-password
이렇게 하면 root로 로그인하는 데 암호를 사용하는 대신 키 기반 인증을 사용하고 무차별 강제 공격을 방지하여 위험을 줄입니다.
X 보안 확장 사용
Red Hat Enterprise Linux 클라이언트의 X 서버는 X 보안 확장을 제공하지 않습니다. 따라서 클라이언트는 X11 전달을 사용하여 신뢰할 수 없는 SSH 서버에 연결할 때 다른 보안 계층을 요청할 수 없습니다. 대부분의 애플리케이션은 이 확장 기능을 사용하여 실행할 수 없습니다.
기본적으로
/etc/ssh/ssh_config.d/05-redhat.conf
파일의ForwardX11Trusted
옵션은yes
로 설정되어 있으며ssh -X remote_machine(신뢰할 수 없는 호스트)과
(신뢰할 수 있는 호스트) 명령 사이에 차이가 없습니다.ssh -Y remote_machine
시나리오에 X11 전달 기능이 전혀 필요하지 않은 경우
/etc/ssh/sshd_config
구성 파일의X11Forwarding
지시문을no
로 설정합니다.
특정 사용자, 그룹 또는 도메인에 대한 액세스 제한
/etc/ssh/sshd_config
구성 파일 서버의AllowUsers
및 AllowGroupsAllowUsers 및 Allow
Groups
를 결합하여 보다 정확하게 액세스를 제한할 수 있습니다. 예를 들면 다음과 같습니다.AllowUsers *@192.168.1.*,*@10.0.0.*,!*@192.168.1.2 AllowGroups example-group
이전 구성 행은 192.168.1.2 주소가 있는 시스템을 제외하고 192.168.1.* 및 10.0.0.* 서브넷의 모든 사용자로부터의 연결을 허용합니다. 모든 사용자는
example-group
그룹에 있어야 합니다. OpenSSH 서버는 다른 모든 연결을 거부합니다.허용 목록(허용으로 시작하는 디렉터리)을 사용하는 것은 허용 목록(거부로 시작하는 옵션)을 사용하는 것보다 더 안전합니다. allowlists는 새로운 권한 없는 사용자 또는 그룹도 차단하기 때문입니다.
시스템 전체 암호화 정책 변경
OpenSSH는 RHEL 시스템 전체 암호화 정책을 사용하며 기본 시스템 전체 암호화 정책 수준은 현재 위협 모델에 대한 보안 설정을 제공합니다. 암호화 설정을 보다 엄격하게 수행하려면 현재 정책 수준을 변경합니다.
# update-crypto-policies --set FUTURE Setting system policy to FUTURE
-
OpenSSH 서버에 대한 시스템 전체 암호화 정책을 옵트아웃하려면
/etc/sysconfig/sshd
파일에서CRYPTO_POLICY=
변수로 행의 주석을 해제합니다. 이 변경 후/etc/ssh/sshd_config
파일의Ciphers
,MACs
,KexAlgoritms
,GSSAPIKexAlgorithms
섹션에 지정하는 값은 재정의되지 않습니다. 이 작업에는 암호화 옵션 구성에 대한 전문 지식이 필요합니다. - 자세한 내용은 보안 강화 제목에서 시스템 전체 암호화 정책 사용을 참조하십시오.
추가 리소스
-
sshd_config(5)
,ssh-keygen(1)
,crypto-policies(7)
및update-crypto-policies(8)
도움말 페이지.
34.7. SSH 건너뛰기 호스트를 사용하여 원격 서버에 연결
jump host라고도 하는 중간 서버를 통해 로컬 시스템을 원격 서버에 연결하려면 다음 절차를 사용하십시오.
사전 요구 사항
- 건너뛰기 호스트는 로컬 시스템의 SSH 연결을 허용합니다.
- 원격 서버는 건너뛰기 호스트에서만 SSH 연결을 허용합니다.
절차
로컬 시스템에서
~/.ssh/config
파일을 편집하여 건너뛰기를 정의합니다. 예를 들면 다음과 같습니다.Host jump-server1 HostName jump1.example.com
-
Host
매개 변수는ssh
명령에서 사용할 수 있는 호스트의 이름 또는 별칭을 정의합니다. 이 값은 실제 호스트 이름과 일치할 수 있지만 임의의 문자열일 수도 있습니다. -
HostName
매개 변수는 건너뛰기 호스트의 실제 호스트 이름 또는 IP 주소를 설정합니다.
-
ProxyJump
지시문을 사용하여 원격 서버 건너뛰기를 로컬 시스템의~/.ssh/config
파일에 추가합니다. 예를 들면 다음과 같습니다.Host remote-server HostName remote1.example.com ProxyJump jump-server1
로컬 시스템을 사용하여 이동 서버를 통해 원격 서버에 연결합니다.
$ ssh remote-server
이전 명령은 구성 단계 1과 2를 생략하면
ssh -J jump-server1 remote-server
명령과 동일합니다.
더 많은 건너뛰기 서버를 지정할 수 있으며 전체 호스트 이름을 제공할 때 구성 파일에 호스트 정의 추가를 건너뛸 수도 있습니다. 예를 들면 다음과 같습니다.
$ ssh -J jump1.example.com,jump2.example.com,jump3.example.com remote1.example.com
건너뛰기 서버의 사용자 이름 또는 SSH 포트가 원격 서버의 이름과 포트와 다른 경우 이전 명령에서 호스트 이름 전용 표기법을 변경합니다. 예를 들면 다음과 같습니다.
$ ssh -J johndoe@jump1.example.com:75,johndoe@jump2.example.com:75,johndoe@jump3.example.com:75 joesec@remote1.example.com:220
추가 리소스
-
ssh_config(5)
및ssh(1)
도움말 페이지.
34.8. ssh-agent를 사용하여 SSH 키가 있는 원격 시스템에 연결
SSH 연결을 시작할 때마다 암호를 입력하지 않으려면 ssh-agent
유틸리티를 사용하여 개인 SSH 키를 캐시할 수 있습니다. 개인 키와 암호는 계속 안전합니다.
사전 요구 사항
- 네트워크를 통해 SSH 데몬을 실행하고 연결할 수 있는 원격 호스트가 있습니다.
- IP 주소 또는 호스트 이름 및 자격 증명을 통해 원격 호스트에 로그인합니다.
- 암호를 사용하여 SSH 키 쌍을 생성하고 공개 키를 원격 시스템으로 전송했습니다.
자세한 내용은 SSH 키 쌍 생성 을 참조하십시오.
절차
선택 사항: 키를 사용하여 원격 호스트에 인증할 수 있는지 확인합니다.
SSH를 사용하여 원격 호스트에 연결합니다.
$ ssh example.user1@198.51.100.1 hostname
개인 키에 대한 액세스 권한을 부여할 키를 만드는 동안 설정한 암호를 입력합니다.
$ ssh example.user1@198.51.100.1 hostname host.example.com
ssh-agent
를 시작합니다.$ eval $(ssh-agent) Agent pid 20062
ssh-agent
에 키를 추가합니다.$ ssh-add ~/.ssh/id_rsa Enter passphrase for ~/.ssh/id_rsa: Identity added: ~/.ssh/id_rsa (example.user0@198.51.100.12)
검증
선택 사항: SSH를 사용하여 호스트 시스템에 로그인합니다.
$ ssh example.user1@198.51.100.1 Last login: Mon Sep 14 12:56:37 2020
암호를 입력할 필요가 없습니다.
34.9. 추가 리소스
-
sshd(8)
,ssh(1)
,scp(1)
,sftp(1)
,ssh-keygen(1)
,ssh-copy-id(1)
,ssh_config(5)
,sshd_config(5)
,update-crypto-policies(8)
및crypto-policies(7)
도움말 페이지. - OpenSSH Home Page
- 비표준 구성을 사용하여 애플리케이션 및 서비스에 대한 SELinux 구성
- firewalld를 사용하여 네트워크 트래픽 제어
35장. 원격 로깅 솔루션 구성
환경에서 다양한 시스템의 로그가 로깅 서버에 중앙에 기록되도록 하기 위해 클라이언트 시스템에서 서버에 대한 특정 기준에 맞는 로그를 기록하도록 Rsyslog 애플리케이션을 구성할 수 있습니다.
35.1. Rsyslog 로깅 서비스
systemd-journald
서비스와 함께 Rsyslog 애플리케이션은 Red Hat Enterprise Linux에서 로컬 및 원격 로깅 지원을 제공합니다. rsyslogd
데몬은 journal에서 systemd-journald
서비스에서 수신한 syslog
메시지를 지속적으로 읽습니다. rsyslogd
는 이러한 syslog
이벤트를 필터링 및 처리하고 rsyslog
로그 파일에 기록하거나 구성에 따라 다른 서비스에 전달합니다.
rsyslogd
데몬은 또한 확장된 필터링, 메시지의 암호화 보호 릴레이, 입력 및 출력 모듈, TCP 및 UDP 프로토콜을 사용하여 운송을 지원합니다.
rsyslog의 기본 구성 파일인 /etc/rsyslog.conf
에서 메시지를 처리하는 rsyslog
d
에 따라 규칙을 지정할 수 있습니다. 일반적으로 소스 및 주제(유효성) 및 긴급성(우선 순위)에 따라 메시지를 분류한 다음, 메시지가 이러한 기준에 맞는 경우 수행해야 하는 작업을 할당할 수 있습니다.
/etc/rsyslog.conf
에서 rsyslogd
가 유지 관리하는 로그 파일 목록을 볼 수도 있습니다. 대부분의 로그 파일은 /var/log/
디렉토리에 있습니다. httpd
및 samba
와 같은 일부 애플리케이션은 /var/log/
내의 하위 디렉터리에 로그 파일을 저장합니다.
추가 리소스
-
rsyslogd(8)
및rsyslog.conf(5)
도움말 페이지. -
/usr/share/doc/rsyslog/html/index.html
파일의rsyslog-doc
패키지와 함께 설치된 설명서입니다.
35.2. Rsyslog 문서 설치
Rsyslog 애플리케이션에는 https://www.rsyslog.com/doc/ 에서 제공되는 광범위한 온라인 문서가 있지만, rsyslog-doc
설명서 패키지를 로컬로 설치할 수도 있습니다.
사전 요구 사항
-
시스템에서
AppStream
리포지토리를 활성화했습니다. -
sudo
를 사용하여 새 패키지를 설치할 권한이 있습니다.
절차
rsyslog-doc
패키지를 설치합니다.# yum install rsyslog-doc
검증
선택한 브라우저에서
/usr/share/doc/rsyslog/html/index.html
파일을 엽니다. 예를 들면 다음과 같습니다.$ firefox /usr/share/doc/rsyslog/html/index.html &
35.3. TCP를 통한 원격 로깅을 위한 서버 구성
Rsyslog 애플리케이션을 사용하면 로깅 서버를 실행하고 로그 파일을 로깅 서버로 보내도록 개별 시스템을 구성할 수 있습니다. TCP를 통해 원격 로깅을 사용하려면 서버와 클라이언트를 둘 다 구성합니다. 서버는 하나 이상의 클라이언트 시스템에서 전송한 로그를 수집하고 분석합니다.
Rsyslog 애플리케이션을 사용하면 로그 메시지가 네트워크를 통해 서버로 전달되는 중앙 집중식 로깅 시스템을 유지 관리할 수 있습니다. 서버를 사용할 수 없는 경우 메시지 손실을 방지하기 위해 전달 작업에 대한 작업 대기열을 구성할 수 있습니다. 이렇게 하면 전송에 실패한 메시지는 서버에 다시 연결할 때까지 로컬에 저장됩니다. 이러한 큐는 UDP 프로토콜을 사용하여 연결에 대해 구성할 수 없습니다.
omfwd
플러그인은 UDP 또는 TCP를 통해 전달을 제공합니다. 기본 프로토콜은 UDP입니다. 플러그인이 빌드되었으므로 로드할 필요가 없습니다.
기본적으로 rsyslog
는 포트 514
에서 TCP를 사용합니다.
사전 요구 사항
- rsyslog가 서버 시스템에 설치되어 있습니다.
-
서버에서
root
로 로그인했습니다. -
semanage
명령을 사용하여 선택적 단계를 위해policycoreutils-python-utils
패키지가 설치됩니다. -
firewalld
서비스가 실행 중입니다.
절차
선택 사항:
rsyslog
트래픽에 다른 포트를 사용하려면syslogd_port_t
SELinux 유형을 포트에 추가합니다. 예를 들어 포트30514
를 활성화합니다.# semanage port -a -t syslogd_port_t -p tcp 30514
선택 사항:
rsyslog
트래픽에 다른 포트를 사용하려면 해당 포트에서 들어오는rsyslog
트래픽을 허용하도록firewalld
를 구성합니다. 예를 들어 포트30514
에서 TCP 트래픽을 허용합니다.# firewall-cmd --zone=<zone-name> --permanent --add-port=30514/tcp success # firewall-cmd --reload
/etc/rsyslog.d/
디렉토리(예:remotelog.conf
)에 새 파일을 생성하고 다음 내용을 삽입합니다.# Define templates before the rules that use them # Per-Host templates for remote systems template(name="TmplAuthpriv" type="list") { constant(value="/var/log/remote/auth/") property(name="hostname") constant(value="/") property(name="programname" SecurePath="replace") constant(value=".log") } template(name="TmplMsg" type="list") { constant(value="/var/log/remote/msg/") property(name="hostname") constant(value="/") property(name="programname" SecurePath="replace") constant(value=".log") } # Provides TCP syslog reception module(load="imtcp") # Adding this ruleset to process remote messages ruleset(name="remote1"){ authpriv.* action(type="omfile" DynaFile="TmplAuthpriv") *.info;mail.none;authpriv.none;cron.none action(type="omfile" DynaFile="TmplMsg") } input(type="imtcp" port="30514" ruleset="remote1")
-
/etc/rsyslog.d/remotelog.conf
파일에 변경 사항을 저장합니다. /etc/rsyslog.conf 파일의 구문을 테스트합니다.
# rsyslogd -N 1 rsyslogd: version 8.1911.0-2.el8, config validation run (level 1), master config /etc/rsyslog.conf rsyslogd: End of config validation run. Bye.
로깅 서버에서
rsyslog
서비스가 실행 중이고 활성화되어 있는지 확인합니다.# systemctl status rsyslog
rsyslog
서비스를 다시 시작합니다.# systemctl restart rsyslog
선택 사항:
rsyslog
가 활성화되지 않은 경우 재부팅 후rsyslog
서비스가 자동으로 시작되는지 확인하십시오.# systemctl enable rsyslog
이제 로그 서버가 환경의 다른 시스템에서 로그 파일을 수신하고 저장하도록 구성되어 있습니다.
추가 리소스
-
rsyslogd(8)
,rsyslog.conf(5)
,semanage(8)
및firewall-cmd(1)
도움말 페이지. -
/usr/share/doc/rsyslog/html/index.html
파일의rsyslog-doc
패키지와 함께 설치된 설명서입니다.
35.4. TCP를 통해 서버에 원격 로깅 구성
다음 절차에 따라 TCP 프로토콜을 통해 로그 메시지를 서버로 전달하기 위한 시스템을 구성합니다. omfwd
플러그인은 UDP 또는 TCP를 통해 전달을 제공합니다. 기본 프로토콜은 UDP입니다. 플러그인이 빌드되었으므로 로드할 필요가 없습니다.
사전 요구 사항
-
rsyslog
패키지는 서버에 보고해야 하는 클라이언트 시스템에 설치됩니다. - 원격 로깅을 위해 서버를 구성했습니다.
- 지정된 포트는 SELinux에서 허용되며 방화벽에서 열립니다.
-
시스템에는 SELinux 구성에 비표준 포트를 추가하기 위한
semanage
명령을 제공하는policycoreutils-python-utils
패키지가 포함되어 있습니다.
절차
/etc/rsyslog.d/
디렉토리에 라는 새 파일을 만듭니다(예:10-remotelog.conf
).*.* action(type="omfwd" queue.type="linkedlist" queue.filename="example_fwd" action.resumeRetryCount="-1" queue.saveOnShutdown="on" target="example.com" port="30514" protocol="tcp" )
다음과 같습니다.
-
queue.type="linkedlist"
는 LinkedList in-memory 큐를 활성화합니다. -
queue.filename
은 디스크 스토리지를 정의합니다. 이전 글로벌workDirectory
지시문으로 지정된 작업 디렉터리에example_fwd
접두사를 사용하여 백업 파일이 생성됩니다. -
action.resumeRetryCount -1
설정은 서버가 응답하지 않는 경우 연결을 재시도할 때rsyslog
가 메시지를 삭제하지 않도록 합니다. -
활성화된
queue.saveOnShutdown="on"
rsyslog
가 종료되면 메모리 내 데이터를 저장합니다. 마지막 행은 수신된 모든 메시지를 로깅 서버로 전달하고 포트 사양은 선택 사항입니다.
이 구성을 사용하면
rsyslog
에서 서버로 메시지를 전송하지만 원격 서버에 연결할 수 없는 경우 메시지를 메모리에 유지합니다. 디스크의 파일은rsyslog
가 구성된 메모리 대기열 공간에서 부족하거나 시스템 성능을 향상시킬 수 있는 를 종료해야 하는 경우에만 생성됩니다.
참고rsyslog는 사전 순서로 구성 파일
/etc/rsyslog.d/
를 처리합니다.-
rsyslog
서비스를 다시 시작합니다.# systemctl restart rsyslog
검증
클라이언트 시스템이 서버에 메시지를 전송하는지 확인하려면 다음 단계를 따르십시오.
클라이언트 시스템에서 테스트 메시지를 전송합니다.
# logger test
서버 시스템에서
/var/log/messages
로그를 확인합니다. 예를 들면 다음과 같습니다.# cat /var/log/remote/msg/hostname/root.log Feb 25 03:53:17 hostname root[6064]: test
여기서 hostname 은 클라이언트 시스템의 호스트 이름입니다. 로그에는
로거
명령을 입력한 사용자의 사용자 이름이 포함됩니다(이 경우root
).
추가 리소스
-
rsyslogd(8)
및rsyslog.conf(5)
도움말 페이지. -
/usr/share/doc/rsyslog/html/index.html
파일의rsyslog-doc
패키지와 함께 설치된 설명서입니다.
35.5. TLS 암호화 원격 로깅 구성
기본적으로 Rsyslog는 일반 텍스트 형식으로 원격 블로그 통신을 보냅니다. 시나리오에 이 통신 채널을 보호해야 하는 경우 TLS를 사용하여 암호화할 수 있습니다.
TLS를 통해 암호화된 전송을 사용하려면 서버와 클라이언트 모두를 구성합니다. 서버는 하나 이상의 클라이언트 시스템에서 전송한 로그를 수집하고 분석합니다.
ossl
네트워크 스트림 드라이버(OpenSSL) 또는 gtls
스트림 드라이버(GnuTLS)를 사용할 수 있습니다.
더 높은 보안이 있는 별도의 시스템이 있는 경우(예: 네트워크에 연결되지 않거나 엄격한 권한이 있는 시스템)를 인증 기관(CA)으로 별도의 시스템을 사용하십시오.
사전 요구 사항
-
클라이언트와 서버 시스템에 모두
root
액세스 권한이 있습니다. -
rsyslog
및rsyslog-openssl
패키지가 서버 및 클라이언트 시스템에 설치됩니다. -
gtls
네트워크 스트림 드라이버를 사용하는 경우rsyslog-openssl
대신rsyslog-gnutls
패키지를 설치합니다. -
certtool
명령을 사용하여 인증서를 생성하는 경우gnutls-utils
패키지를 설치합니다. 로깅 서버에서 다음 인증서는
/etc/pki/ca-trust/source/anchors/
디렉터리에 있으며update-ca-trust
명령을 사용하여 시스템 구성을 업데이트합니다.-
ca-cert.pem
- 로깅 서버 및 클라이언트의 키와 인증서를 확인할 수 있는 CA 인증서입니다. -
server-cert.pem
- 로깅 서버의 공개 키입니다. -
server-key.pem
- 로깅 서버의 개인 키입니다.
-
로깅 클라이언트에서 다음 인증서는
/etc/pki/ca-trust/source/anchors/
디렉터리에 있으며,update-ca-trust
를 사용하여 시스템 설정을 업데이트합니다.-
ca-cert.pem
- 로깅 서버 및 클라이언트의 키와 인증서를 확인할 수 있는 CA 인증서입니다. -
client-cert.pem
- 클라이언트의 공개 키입니다. -
client-key.pem
- 클라이언트의 개인 키입니다.
-
절차
클라이언트 시스템에서 암호화된 로그를 수신하도록 서버를 구성합니다.
-
/etc/journal.d/
디렉토리에 라는 새 파일을 만듭니다(예:securelogser.conf
). 통신을 암호화하려면 구성 파일에 서버의 인증서 파일 경로, 선택한 인증 방법 및 TLS 암호화를 지원하는 스트림 드라이버가 포함되어야 합니다.
/etc/octets.d/securelogser.conf 파일에 다음 행을 추가합니다.
# Set certificate files global( DefaultNetstreamDriverCAFile="/etc/pki/ca-trust/source/anchors/ca-cert.pem" DefaultNetstreamDriverCertFile="/etc/pki/ca-trust/source/anchors/server-cert.pem" DefaultNetstreamDriverKeyFile="/etc/pki/ca-trust/source/anchors/server-key.pem" ) # TCP listener module( load="imtcp" PermittedPeer=["client1.example.com", "client2.example.com"] StreamDriver.AuthMode="x509/name" StreamDriver.Mode="1" StreamDriver.Name="ossl" ) # Start up listener at port 514 input( type="imtcp" port="514" )
참고GnuTLS 드라이버를 선호하는 경우
StreamDriver.Name="gtls"
구성 옵션을 사용합니다.x509/name
보다 엄격한 인증 모드에 대한 자세한 내용은rsyslog-doc
패키지로 설치된 설명서를 참조하십시오.-
/etc/octets.d/securelogser.conf
파일에 변경 사항을 저장합니다. /etc/octets.conf
파일 구문 및/etc/octets.d/ 디렉토리에 있는 모든 파일을 확인합니다.
# rsyslogd -N 1 rsyslogd: version 8.1911.0-2.el8, config validation run (level 1), master config /etc/rsyslog.conf rsyslogd: End of config validation run. Bye.
로깅 서버에서
rsyslog
서비스가 실행 중이고 활성화되어 있는지 확인합니다.# systemctl status rsyslog
rsyslog
서비스를 다시 시작하십시오.# systemctl restart rsyslog
선택 사항: Rsyslog가 활성화되지 않은 경우 재부팅 후
rsyslog
서비스가 자동으로 시작됩니다.# systemctl enable rsyslog
-
암호화된 로그를 서버에 전송하도록 클라이언트를 구성합니다.
-
클라이언트 시스템에서
/etc/journal.d/
디렉토리에 라는 새 파일을 만듭니다(예:securelogcli.conf
). /etc/octets.d/securelogcli.conf 파일에 다음 행을 추가합니다.
# Set certificate files global( DefaultNetstreamDriverCAFile="/etc/pki/ca-trust/source/anchors/ca-cert.pem" DefaultNetstreamDriverCertFile="/etc/pki/ca-trust/source/anchors/client-cert.pem" DefaultNetstreamDriverKeyFile="/etc/pki/ca-trust/source/anchors/client-key.pem" ) # Set up the action for all messages *.* action( type="omfwd" StreamDriver="ossl" StreamDriverMode="1" StreamDriverPermittedPeers="server.example.com" StreamDriverAuthMode="x509/name" target="server.example.com" port="514" protocol="tcp" )
참고GnuTLS 드라이버를 선호하는 경우
StreamDriver.Name="gtls"
구성 옵션을 사용합니다.-
/etc/octets.d/securelogser.conf
파일에 변경 사항을 저장합니다. /etc/journal.d
/ 디렉토리에 있는 '/etc/journal.conf
파일 및 기타 파일의 구문을 확인합니다.# rsyslogd -N 1 rsyslogd: version 8.1911.0-2.el8, config validation run (level 1), master config /etc/rsyslog.conf rsyslogd: End of config validation run. Bye.
로깅 서버에서
rsyslog
서비스가 실행 중이고 활성화되어 있는지 확인합니다.# systemctl status rsyslog
rsyslog
서비스를 다시 시작하십시오.# systemctl restart rsyslog
선택 사항: Rsyslog가 활성화되지 않은 경우 재부팅 후
rsyslog
서비스가 자동으로 시작됩니다.# systemctl enable rsyslog
-
클라이언트 시스템에서
검증
클라이언트 시스템이 서버에 메시지를 전송하는지 확인하려면 다음 단계를 따르십시오.
클라이언트 시스템에서 테스트 메시지를 전송합니다.
# logger test
서버 시스템에서
/var/log/messages
로그를 확인합니다. 예를 들면 다음과 같습니다.# cat /var/log/remote/msg/hostname/root.log Feb 25 03:53:17 hostname root[6064]: test
여기서
hostname
은 클라이언트 시스템의 호스트 이름입니다. 로그에는 로거 명령을 입력한 사용자의 사용자 이름이 포함됩니다(이 경우root
).
추가 리소스
-
certtool(1)
,openssl(1)
,update-ca-trust(8)
,rsyslogd(8)
,rsyslog.conf(5)
도움말 페이지. -
/usr/share/doc/rsyslog/html/index.html
의rsyslog-doc
패키지와 함께 설치된 설명서입니다. - 로깅 시스템 역할 사용 문서.
35.6. UDP를 통해 원격 로깅 정보를 받기 위한 서버 설정
Rsyslog 애플리케이션을 사용하면 원격 시스템에서 로깅 정보를 수신하도록 시스템을 구성할 수 있습니다. UDP를 통해 원격 로깅을 사용하려면 서버와 클라이언트를 둘 다 구성합니다. 수신 서버는 하나 이상의 클라이언트 시스템에서 전송한 로그를 수집하고 분석합니다. 기본적으로 rsyslog
는 포트 514
에서 UDP를 사용하여 원격 시스템에서 로그 정보를 받습니다.
다음 절차에 따라 UDP 프로토콜을 통해 하나 이상의 클라이언트 시스템에서 전송한 로그를 수집하고 분석하기 위해 서버를 구성합니다.
사전 요구 사항
- rsyslog가 서버 시스템에 설치되어 있습니다.
-
서버에서
root
로 로그인했습니다. -
semanage
명령을 사용하여 선택적 단계를 위해policycoreutils-python-utils
패키지가 설치됩니다. -
firewalld
서비스가 실행 중입니다.
절차
선택 사항: 기본 포트
514
가 아닌rsyslog
트래픽에 다른 포트를 사용하려면 다음을 수행합니다.syslogd_port_t
SELinux 유형을 SELinux 정책 구성에 추가하고portno
를rsyslog
에서 사용할 포트 번호로 바꿉니다.# semanage port -a -t syslogd_port_t -p udp portno
들어오는
rsyslog
트래픽을 허용하고portno
를 포트 번호 및영역으로
교체하여rsyslog
에서 사용할 영역으로 교체하도록firewalld
를 구성합니다.# firewall-cmd --zone=zone --permanent --add-port=portno/udp success # firewall-cmd --reload
방화벽 규칙을 다시 로드합니다.
# firewall-cmd --reload
/etc/rsyslog
파일을 생성하고 다음 내용을 삽입합니다..d/ 디렉토리(예:
)에 새.confremotelogserv.
conf# Define templates before the rules that use them # Per-Host templates for remote systems template(name="TmplAuthpriv" type="list") { constant(value="/var/log/remote/auth/") property(name="hostname") constant(value="/") property(name="programname" SecurePath="replace") constant(value=".log") } template(name="TmplMsg" type="list") { constant(value="/var/log/remote/msg/") property(name="hostname") constant(value="/") property(name="programname" SecurePath="replace") constant(value=".log") } # Provides UDP syslog reception module(load="imudp") # This ruleset processes remote messages ruleset(name="remote1"){ authpriv.* action(type="omfile" DynaFile="TmplAuthpriv") *.info;mail.none;authpriv.none;cron.none action(type="omfile" DynaFile="TmplMsg") } input(type="imudp" port="514" ruleset="remote1")
여기서
514
는 기본적으로 사용하는 포트 번호rsyslog
입니다. 대신 다른 포트를 지정할 수 있습니다./etc/rsyslog.
conf 파일을 확인합니다.d/ 디렉터리에 있는 /etc/rsyslog
all..conf
파일의 구문과# rsyslogd -N 1 rsyslogd: version 8.1911.0-2.el8, config validation run (level 1), master config /etc/rsyslog.conf rsyslogd: End of config validation run. Bye.
rsyslog
서비스를 다시 시작합니다.# systemctl restart rsyslog
선택 사항:
rsyslog
가 활성화되지 않은 경우 재부팅 후rsyslog
서비스가 자동으로 시작되는지 확인하십시오.# systemctl enable rsyslog
추가 리소스
-
rsyslogd(8)
,rsyslog.conf(5)
,semanage(8)
및firewall-cmd(1)
도움말 페이지. -
/usr/share/doc/rsyslog/html/index.html
파일의rsyslog-doc
패키지와 함께 설치된 설명서입니다.
35.7. UDP를 통해 서버에 원격 로깅 구성
다음 절차에 따라 UDP 프로토콜을 통해 로그 메시지를 서버로 전달하기 위한 시스템을 구성합니다. omfwd
플러그인은 UDP 또는 TCP를 통해 전달을 제공합니다. 기본 프로토콜은 UDP입니다. 플러그인이 빌드되었으므로 로드할 필요가 없습니다.
사전 요구 사항
-
rsyslog
패키지는 서버에 보고해야 하는 클라이언트 시스템에 설치됩니다. - UDP를 통해 원격 로깅 정보를 받기 위한 서버 구성에 설명된 대로 원격 로깅 을 위해 서버를 구성했습니다.
절차
/etc/rsyslog.d/
디렉토리에 새.conf
파일을 만듭니다(예:10-remotelogcli.conf
).*.* action(type="omfwd" queue.type="linkedlist" queue.filename="example_fwd" action.resumeRetryCount="-1" queue.saveOnShutdown="on" target="example.com" port="portno" protocol="udp" )
다음과 같습니다.
-
queue.type="linkedlist"
를 사용하면 메모리 내 대기열에 LinkedList가 활성화됩니다. -
queue.filename
은 디스크 스토리지를 정의합니다. 백업 파일은 이전 글로벌workDirectory
지시문으로 지정된 작업 디렉터리에example_fwd
접두사를 사용하여 생성됩니다. -
action.resumeRetryCount -1
설정은 서버가 응답하지 않는 경우 연결을 재시도할 때rsyslog
가 메시지를 삭제하지 않도록 합니다. -
rsyslog
가 종료되면 queue.saveOnShutdown="on"
이 메모리 내 데이터를 저장합니다. -
portno
는rsyslog
가 사용할 포트 번호입니다. 기본값은514
입니다. 마지막 행은 수신된 모든 메시지를 로깅 서버로 전달하고 포트 사양은 선택 사항입니다.
이 구성을 사용하면
rsyslog
에서 서버로 메시지를 전송하지만 원격 서버에 연결할 수 없는 경우 메시지를 메모리에 유지합니다. 디스크의 파일은rsyslog
가 구성된 메모리 대기열 공간에서 부족하거나 시스템 성능을 향상시킬 수 있는 를 종료해야 하는 경우에만 생성됩니다.
참고rsyslog는 사전 순서로 구성 파일
/etc/rsyslog.d/
를 처리합니다.-
rsyslog
서비스를 다시 시작합니다.# systemctl restart rsyslog
선택 사항:
rsyslog
가 활성화되지 않은 경우 재부팅 후rsyslog
서비스가 자동으로 시작되는지 확인하십시오.# systemctl enable rsyslog
검증
클라이언트 시스템이 서버에 메시지를 전송하는지 확인하려면 다음 단계를 따르십시오.
클라이언트 시스템에서 테스트 메시지를 전송합니다.
# logger test
서버 시스템에서
/var/log/remote/msg/hostname/root.log 로그를 확인합니다.
예를 들면 다음과 같습니다.# cat /var/log/remote/msg/hostname/root.log Feb 25 03:53:17 hostname root[6064]: test
여기서
hostname
은 클라이언트 시스템의 호스트 이름입니다. 로그에는 로거 명령을 입력한 사용자의 사용자 이름이 포함됩니다(이 경우root
).
추가 리소스
-
rsyslogd(8)
및rsyslog.conf(5)
도움말 페이지. -
/usr/share/doc/rsyslog/html/index.html
의rsyslog-doc
패키지와 함께 설치된 설명서입니다.
35.8. Rsyslog의 로드 밸런싱 도우미
RebindInterval
설정은 현재 연결이 끊어지고 다시 설정된 간격을 지정합니다. 이 설정은 TCP, UDP 및 RELP 트래픽에 적용됩니다. 로드 밸런서는 새 연결로 인식하여 메시지를 다른 물리적 대상 시스템으로 전달합니다.
RebindInterval
설정은 대상 시스템이 IP 주소를 변경한 시나리오에서 유용합니다. Rsyslog 애플리케이션은 연결이 설정될 때 IP 주소를 캐시하므로 메시지가 동일한 서버로 전송됩니다. IP 주소가 변경되면 Rsyslog 서비스가 다시 시작될 때까지 UDP 패킷이 손실됩니다. 연결을 다시 설정하면 DNS에서 IP를 다시 확인합니다.
action(type=”omfwd” protocol=”tcp” RebindInterval=”250” target=”example.com” port=”514” …) action(type=”omfwd” protocol=”udp” RebindInterval=”250” target=”example.com” port=”514” …) action(type=”omrelp” RebindInterval=”250” target=”example.com” port=”6514” …)
35.9. 신뢰할 수 있는 원격 로깅 구성
RELP(Reliable Event Logging Protocol)를 사용하면 메시지 손실 위험이 훨씬 감소하여 TCP를 통해 syslog
메시지를 보내고 받을 수 있습니다. RELP는 메시지 손실이 허용되지 않는 환경에서 유용하게 이벤트 메시지를 안정적으로 전송합니다. RELP를 사용하려면 서버에서 실행되고 로그를 수신하는 imrelp
입력 모듈을 구성하고 클라이언트에서 실행되고 로깅 서버에 로그를 전송하는 omrelp
출력 모듈을 구성합니다.
사전 요구 사항
-
서버 및 클라이언트 시스템에
rsyslog
,librelp
및 rsyslog-relp
패키지를 설치했습니다. - 지정된 포트는 SELinux에서 허용되며 방화벽에서 열립니다.
절차
안정적인 원격 로깅을 위해 클라이언트 시스템을 구성합니다.
클라이언트 시스템에서
/etc/journal.d/ 디렉토리에 새
파일을 만듭니다(예:.
confrelpclient.conf
).module(load="omrelp") *.* action(type="omrelp" target="_target_IP_" port="_target_port_")
다음과 같습니다.
-
target_IP
는 로깅 서버의 IP 주소입니다. -
target_port
는 로깅 서버의 포트입니다.
-
-
/etc/octets.d/relpclient.conf
파일에 변경 사항을 저장합니다. rsyslog
서비스를 다시 시작합니다.# systemctl restart rsyslog
선택 사항:
rsyslog
가 활성화되지 않은 경우 재부팅 후rsyslog
서비스가 자동으로 시작되는지 확인하십시오.# systemctl enable rsyslog
안정적인 원격 로깅을 위해 서버 시스템을 구성합니다.
서버 시스템에서
/etc/rsyslog
파일을 생성합니다(예:.d/ 디렉터리에 새.
confrelpserv.conf
).ruleset(name="relp"){ *.* action(type="omfile" file="_log_path_") } module(load="imrelp") input(type="imrelp" port="_target_port_" ruleset="relp")
다음과 같습니다.
-
log_path
는 메시지를 저장하는 경로를 지정합니다. -
target_port
는 로깅 서버의 포트입니다. 클라이언트 구성 파일과 동일한 값을 사용합니다.
-
-
/etc/rsyslog.d/relpserv.conf
파일에 변경 사항을 저장합니다. rsyslog
서비스를 다시 시작합니다.# systemctl restart rsyslog
선택 사항:
rsyslog
가 활성화되지 않은 경우 재부팅 후rsyslog
서비스가 자동으로 시작되는지 확인하십시오.# systemctl enable rsyslog
검증
클라이언트 시스템이 서버에 메시지를 전송하는지 확인하려면 다음 단계를 따르십시오.
클라이언트 시스템에서 테스트 메시지를 전송합니다.
# logger test
서버 시스템에서 지정된
log_path
의 로그를 확인합니다. 예를 들면 다음과 같습니다.# cat /var/log/remote/msg/hostname/root.log Feb 25 03:53:17 hostname root[6064]: test
여기서
hostname
은 클라이언트 시스템의 호스트 이름입니다. 로그에는 로거 명령을 입력한 사용자의 사용자 이름이 포함됩니다(이 경우root
).
추가 리소스
-
rsyslogd(8)
및rsyslog.conf(5)
도움말 페이지. -
/usr/share/doc/rsyslog/html/index.html
파일의rsyslog-doc
패키지와 함께 설치된 설명서입니다.
35.10. 지원되는 Rsyslog 모듈
Rsyslog 애플리케이션의 기능을 확장하려면 특정 모듈을 사용할 수 있습니다. 모듈은 추가 입력(Input Modules), 출력(Output Modules) 및 기타 기능을 제공합니다. 모듈은 모듈을 로드한 후 사용할 수 있는 추가 구성 지시문도 제공할 수 있습니다.
다음 명령을 입력하여 시스템에 설치된 입력 및 출력 모듈을 나열할 수 있습니다.
# ls /usr/lib64/rsyslog/{i,o}m*
패키지를 설치한 후 rsyslog
-doc/usr/share/doc/rsyslog/html/configuration/modules/idx_output.html
파일에서 사용 가능한 모든 rsyslog 모듈 목록을 볼 수 있습니다.
35.11. 추가 리소스
-
/usr/share/doc/rsyslog/html/index.html
파일의rsyslog-doc
패키지로 설치된 문서 -
rsyslog.conf(5)
andrsyslogd(8)
man pages - journald 없이 또는 minimized journald 사용 Knowledgebase 문서를 사용하여 시스템 로깅 구성
- 성능 및 완화 기술 자료에서 RHEL 기본 로깅 설정의 부정적인 영향
- 로깅 시스템 역할 사용 장
36장. 로깅
시스템 역할 사용
시스템 관리자는 로깅 시스템 역할을 사용하여 RHEL 호스트를 로깅
서버로 구성하여 많은 클라이언트 시스템에서 로그를 수집할 수 있습니다.
36.1. 로깅
시스템 역할
로깅
시스템 역할을 사용하면 로컬 및 원격 호스트에 로깅 구성을 배포할 수 있습니다.
하나 이상의 시스템에 로깅
시스템 역할을 적용하려면 플레이북에서 로깅 구성을 정의합니다. 플레이북은 하나 이상의 플레이 목록입니다. 플레이북은 사람이 읽을 수 있으며 YAML 형식으로 작성됩니다. 플레이북에 대한 자세한 내용은 Ansible 설명서의 플레이북 작업을 참조하십시오.
플레이북에 따라 구성하려는 시스템 집합은 인벤토리 파일에 정의되어 있습니다. 인벤토리 생성 및 사용에 대한 자세한 내용은 Ansible 설명서에서 인벤토리를 빌드하는 방법을 참조하십시오.
로깅 솔루션은 여러 가지 방법으로 로그를 읽고 다양한 로깅 출력을 제공합니다.
예를 들어 로깅 시스템은 다음 입력을 수신할 수 있습니다.
- 로컬 파일
-
systemd/journal
, - 네트워크를 통한 다른 로깅 시스템.
또한 로깅 시스템에는 다음과 같은 출력이 있을 수 있습니다.
-
/var/log
디렉토리의 로컬 파일에 저장된 로그 - Elasticsearch로 전송된 로그
- 로그는 다른 로깅 시스템으로 전달됩니다.
로깅
시스템 역할을 사용하면 입력과 출력을 결합하여 시나리오에 맞게 조정할 수 있습니다. 예를 들어 로컬 파일에 저널
의 입력을 저장하는 로깅 솔루션을 구성할 수 있지만 파일에서 읽은 입력은 다른 로깅 시스템으로 전달되고 로컬 로그 파일에 저장됩니다.
36.2. 시스템 역할 매개변수 로깅
로깅 시스템 역할 플레이북에서 logging
_inputs 매개변수의 입력,
매개변수의 출력 및 logging_
outputslogging_flows
매개변수의 입력과 출력 간의 관계를 정의합니다. 로깅
시스템 역할은 추가 옵션으로 이러한 변수를 처리하여 로깅 시스템을 구성합니다. 암호화를 활성화할 수도 있습니다.
현재 로깅 시스템 역할에서 사용 가능한 유일한 로깅
시스템은 Rsyslog 입니다.
logging_inputs
: 로깅 솔루션의 입력 목록입니다.-
name
: 고유한 입력 이름입니다.logging_flows
: 입력 목록 및 생성된구성
파일 이름의 일부에 사용됩니다. type
: 입력 요소의 유형입니다. 유형은roles/rsyslog/{tasks,vars}/inputs/
의 디렉터리 이름에 해당하는 작업 유형을 지정합니다.기본 사항
:systemd
저널 또는unix
소켓에서 입력을 구성하는 입력.-
kernel_message
:true
로 설정된 경우imklog
를 로드합니다. 기본값은false입니다
. -
use_imuxsock
:imjournal
대신imuxsock
을 사용합니다. 기본값은false입니다
. -
ratelimit_burst
:ratelimit_interval
내에 내보낼 수 있는 최대 메시지 수입니다.use_imuxsock
이 false인 경우 기본값은20000
입니다.use_imuxsock
이 true인 경우 기본값은200
입니다. -
ratelimit_interval
:ratelimit_burst
를 평가하는 간격입니다.use_imuxsock
이 false인 경우 기본값은 600초입니다.use_imuxsock
이 true인 경우 기본값은 0입니다. 0은 속도 제한이 꺼져 있음을 나타냅니다. -
persist_state_interval
: 저널 상태는 모든값
메시지를 유지합니다. 기본값으로10
입니다.use_imuxsock
이 false인 경우에만 유효합니다.
-
-
파일
: 로컬 파일에서 입력 구성 입력. -
remote
: 네트워크를 통해 다른 로깅 시스템의 입력 구성 입력.
-
state
: 구성 파일 상태.present
또는absent
. 기본적으로존재합니다
.
-
logging_outputs
: 로깅 솔루션의 출력 목록입니다.-
파일
: 로컬 파일에 대한 출력을 구성하는 출력입니다. -
전달
: 출력을 다른 로깅 시스템으로 구성하는 출력입니다. -
remote_files
: 는 다른 로깅 시스템의 출력 구성을 로컬 파일로 출력합니다.
-
logging_flows
: logging_inputs 및
간의 관계를 정의하는 흐름 목록입니다.logging_outputs
logging_flows
변수에는 다음 키가 있습니다.-
name
: 흐름의 고유 이름 -
입력
:logging_inputs
이름 값 목록 -
출력
:logging_outputs
이름 값 목록입니다.
-
추가 리소스
-
/usr/share/ansible/
패키지로 설치된 문서roles/rhel-system-roles.logging/README.html의 rhel
-system-roles
36.3. 로컬 로깅
시스템 역할 적용
다음 단계에 따라 별도의 시스템 세트에서 로깅 솔루션을 구성하는 Ansible 플레이북을 준비 및 적용합니다. 각 시스템은 로그를 로컬로 기록합니다.
사전 요구 사항
-
로깅
시스템 역할로 구성하려는 시스템인 하나 이상의 관리형 노드에 대한 액세스 및 권한. Red Hat Ansible Core가 기타 시스템을 구성하는 시스템인 제어 노드 액세스 및 사용 권한.
제어 노드에서 다음을 수행합니다.
-
ansible-core
및rhel-system-roles
패키지가 설치됩니다.
-
RHEL 8.0-8.5는 Ansible 기반 자동화를 위해 Ansible Engine 2.9가 포함된 별도의 Ansible 리포지토리에 대한 액세스를 제공했습니다. Ansible Engine에는 ansible ,
, ansible
-playbookdocker
및 podman
과 같은 커넥터, 여러 플러그인 및 모듈과 같은 명령줄 유틸리티가 포함되어 있습니다. Ansible Engine을 확보하고 설치하는 방법에 대한 자세한 내용은 Red Hat Ansible Engine 지식베이스를 다운로드하고 설치하는 방법 문서를 참조하십시오.
RHEL 8.6 및 9.0에서는 Ansible 명령줄 유틸리티, 명령 및 소규모의 기본 제공 Ansible 플러그인 세트가 포함된 Ansible Core( ansible-core
패키지로 제공)를 도입했습니다. RHEL은 AppStream 리포지토리를 통해 이 패키지를 제공하며 제한된 지원 범위를 제공합니다. 자세한 내용은 RHEL 9 및 RHEL 8.6 이상 AppStream 리포지토리 지식 베이스에 포함된 Ansible Core 패키지에 대한 지원 범위를 참조하십시오.
- 관리 노드를 나열하는 인벤토리 파일.
배포 시
시스템 역할이 rsyslog를 설치하므로 rsyslog
패키지를 설치할 필요가 없습니다.
절차
필요한 역할을 정의하는 플레이북을 생성합니다.
새 YAML 파일을 생성하고 텍스트 편집기에서 엽니다. 예를 들면 다음과 같습니다.
# vi logging-playbook.yml
다음 내용을 삽입합니다.
--- - name: Deploying basics input and implicit files output hosts: all roles: - rhel-system-roles.logging vars: logging_inputs: - name: system_input type: basics logging_outputs: - name: files_output type: files logging_flows: - name: flow1 inputs: [system_input] outputs: [files_output]
특정 인벤토리에서 플레이북을 실행합니다.
# ansible-playbook -i inventory-file /path/to/file/logging-playbook.yml
다음과 같습니다.
-
inventory-file
은 인벤토리 파일입니다. -
logging-playbook.yml
은 사용하는 플레이북입니다.
-
검증
/etc/rsyslog.conf 파일의 구문을 테스트합니다.
# rsyslogd -N 1 rsyslogd: version 8.1911.0-6.el8, config validation run (level 1), master config /etc/rsyslog.conf rsyslogd: End of config validation run. Bye.
시스템이 로그에 메시지를 전송하는지 확인합니다.
테스트 메시지를 전송합니다.
# logger test
/var/log/messages
로그를 확인합니다. 예를 들면 다음과 같습니다.# cat /var/log/messages Aug 5 13:48:31 hostname root[6778]: test
여기서 'hostname' 은 클라이언트 시스템의 호스트 이름입니다. 로그에는 로거 명령을 입력한 사용자의 사용자 이름이 포함됩니다(이 경우
root
).
36.4. 로컬 로깅
시스템 역할의 로그 필터링
rsyslog
속성 기반 필터를 기반으로 로그를 필터링하는 로깅 솔루션을 배포할 수 있습니다.
사전 요구 사항
-
로깅
시스템 역할로 구성하려는 시스템인 하나 이상의 관리형 노드에 대한 액세스 및 권한. Red Hat Ansible Core가 기타 시스템을 구성하는 시스템인 제어 노드 액세스 및 사용 권한.
제어 노드에서 다음을 수행합니다.
- Red Hat Ansible Core 설치
-
rhel-system-roles
패키지가 설치되어 있습니다. - 관리 노드를 나열하는 인벤토리 파일.
시스템 역할은 배포 시 rsyslog
를 설치하기 때문에 rsyslog
패키지를 설치할 필요가 없습니다.
절차
다음 내용으로 새
playbook.yml
파일을 생성합니다.--- - name: Deploying files input and configured files output hosts: all roles: - linux-system-roles.logging vars: logging_inputs: - name: files_input type: basics logging_outputs: - name: files_output0 type: files property: msg property_op: contains property_value: error path: /var/log/errors.log - name: files_output1 type: files property: msg property_op: "!contains" property_value: error path: /var/log/others.log logging_flows: - name: flow0 inputs: [files_input] outputs: [files_output0, files_output1]
이 구성을 사용하면
오류
문자열이 포함된 모든 메시지가/var/log/errors.log
에 기록되고 기타 모든 메시지는/var/log/others.log
에 기록됩니다.error
속성 값을 필터링할 문자열로 바꿀 수 있습니다.환경 설정에 따라 변수를 수정할 수 있습니다.
선택 사항: 플레이북 구문을 확인합니다.
# ansible-playbook --syntax-check playbook.yml
인벤토리 파일에서 플레이북을 실행합니다.
# ansible-playbook -i inventory_file /path/to/file/playbook.yml
검증
/etc/rsyslog.conf 파일의 구문을 테스트합니다.
# rsyslogd -N 1 rsyslogd: version 8.1911.0-6.el8, config validation run (level 1), master config /etc/rsyslog.conf rsyslogd: End of config validation run. Bye.
시스템에서
오류
문자열이 포함된 메시지를 로그에 전송하는지 확인합니다.테스트 메시지를 전송합니다.
# logger error
/var/log/errors.log 로그를 확인합니다.
예를 들면 다음과 같습니다.# cat /var/log/errors.log Aug 5 13:48:31 hostname root[6778]: error
여기서
hostname
은 클라이언트 시스템의 호스트 이름입니다. 로그에는 로거 명령을 입력한 사용자의 사용자 이름이 포함됩니다(이 경우root
).
추가 리소스
-
/usr/share/ansible/
패키지로 설치된 문서roles/rhel-system-roles.logging/README.html의 rhel
-system-roles
36.5. 로깅 시스템 역할을 사용하여 원격 로깅
솔루션 적용
다음 단계에 따라 Red Hat Ansible Core 플레이북을 준비 및 적용하여 원격 로깅 솔루션을 구성합니다. 이 플레이북에서 하나 이상의 클라이언트는 systemd-journal
에서 로그를 가져와 원격 서버로 전달합니다. 서버는 remote _rsyslog 및
에서 원격 입력을 수신하고 원격 호스트 이름으로 이름이 지정된 디렉터리의 로컬 파일에 로그를 출력합니다.
remote_
files
사전 요구 사항
-
로깅
시스템 역할로 구성하려는 시스템인 하나 이상의 관리형 노드에 대한 액세스 및 권한. Red Hat Ansible Core가 기타 시스템을 구성하는 시스템인 제어 노드 액세스 및 사용 권한.
제어 노드에서 다음을 수행합니다.
-
ansible-core
및rhel-system-roles
패키지가 설치됩니다. - 관리 노드를 나열하는 인벤토리 파일.
-
시스템 역할은 배포 시 rsyslog
를 설치하기 때문에 rsyslog
패키지를 설치할 필요가 없습니다.
절차
필요한 역할을 정의하는 플레이북을 생성합니다.
새 YAML 파일을 생성하고 텍스트 편집기에서 엽니다. 예를 들면 다음과 같습니다.
# vi logging-playbook.yml
파일에 다음 내용을 삽입합니다.
--- - name: Deploying remote input and remote_files output hosts: server roles: - rhel-system-roles.logging vars: logging_inputs: - name: remote_udp_input type: remote udp_ports: [ 601 ] - name: remote_tcp_input type: remote tcp_ports: [ 601 ] logging_outputs: - name: remote_files_output type: remote_files logging_flows: - name: flow_0 inputs: [remote_udp_input, remote_tcp_input] outputs: [remote_files_output] - name: Deploying basics input and forwards output hosts: clients roles: - rhel-system-roles.logging vars: logging_inputs: - name: basic_input type: basics logging_outputs: - name: forward_output0 type: forwards severity: info target: _host1.example.com_ udp_port: 601 - name: forward_output1 type: forwards facility: mail target: _host1.example.com_ tcp_port: 601 logging_flows: - name: flows0 inputs: [basic_input] outputs: [forward_output0, forward_output1] [basic_input] [forward_output0, forward_output1]
여기서
host1.example.com
은 로깅 서버입니다.참고요구 사항에 맞게 플레이북의 매개 변수를 수정할 수 있습니다.
주의로깅 솔루션은 서버 또는 클라이언트 시스템의 SELinux 정책에 정의된 포트에서만 작동하며 방화벽에서 열립니다. 기본 SELinux 정책에는 포트 601, 514, 6514, 10514, 20514가 포함됩니다. 다른 포트를 사용하려면 클라이언트 및 서버 시스템에서 SELinux 정책을 수정합니다. 시스템 역할을 통한 방화벽 구성은 아직 지원되지 않습니다.
서버와 클라이언트를 나열하는 인벤토리 파일을 생성합니다.
새 파일을 생성하고 텍스트 편집기에서 엽니다. 예를 들면 다음과 같습니다.
# vi inventory.ini
인벤토리 파일에 다음 내용을 삽입합니다.
[servers] server ansible_host=host1.example.com [clients] client ansible_host=host2.example.com
다음과 같습니다.
-
host1.example.com
은 로깅 서버입니다. -
host2.example.com
은 로깅 클라이언트입니다.
-
인벤토리에서 플레이북을 실행합니다.
# ansible-playbook -i /path/to/file/inventory.ini /path/to/file/_logging-playbook.yml
다음과 같습니다.
-
inventory.ini
는 인벤토리 파일입니다. -
logging-playbook.yml
은 생성한 플레이북입니다.
-
검증
클라이언트 및 서버 시스템 모두에서
/etc/rsyslog.conf 파일의 구문을 테스트합니다.
# rsyslogd -N 1 rsyslogd: version 8.1911.0-6.el8, config validation run (level 1), master config /etc/rsyslog.conf rsyslogd: End of config validation run. Bye.
클라이언트 시스템이 서버에 메시지를 전송하는지 확인합니다.
클라이언트 시스템에서 테스트 메시지를 전송합니다.
# logger test
서버 시스템에서
/var/log/messages
로그를 확인합니다. 예를 들면 다음과 같습니다.# cat /var/log/messages Aug 5 13:48:31 host2.example.com root[6778]: test
여기서
host2.example.com
은 클라이언트 시스템의 호스트 이름입니다. 로그에는 로거 명령을 입력한 사용자의 사용자 이름이 포함됩니다(이 경우root
).
추가 리소스
- RHEL 시스템 역할을 사용하도록 제어 노드 및 관리형 노드 준비
-
/usr/share/ansible/
패키지로 설치된 문서roles/rhel-system-roles.logging/README.html의 rhel
-system-roles - RHEL 시스템 역할 KB 문서
36.6. TLS에서 로깅
시스템 역할 사용
TLS(Transport Layer Security)는 컴퓨터 네트워크를 통해 안전하게 통신하도록 설계된 암호화 프로토콜입니다.
관리자는 로깅
RHEL 시스템 역할을 사용하여 Red Hat Ansible Automation Platform을 사용하여 로그의 보안 전송을 구성할 수 있습니다.
36.6.1. TLS를 사용하여 클라이언트 로깅 구성
로깅
시스템 역할을 사용하여 로컬 시스템에 로그인한 RHEL 시스템에 로깅을 구성할 수 있으며 Ansible 플레이북을 실행하여 TLS를 사용하여 원격 로깅 시스템으로 로그를 전송할 수 있습니다.
이 절차에서는 Ansible 인벤토리의 clients 그룹에 있는 모든 호스트에서 TLS를 구성합니다. TLS 프로토콜은 네트워크를 통해 로그를 안전하게 전송할 수 있도록 메시지 전송을 암호화합니다.
사전 요구 사항
- TLS를 구성할 관리 노드에서 플레이북을 실행할 권한이 있습니다.
- 관리 노드는 제어 노드의 인벤토리 파일에 나열됩니다.
-
ansible
및rhel-system-roles
패키지는 제어 노드에 설치됩니다.
절차
다음 내용으로
playbook.yml
파일을 생성합니다.--- - name: Deploying files input and forwards output with certs hosts: clients roles: - rhel-system-roles.logging vars: logging_pki_files: - ca_cert_src: /local/path/to/ca_cert.pem cert_src: /local/path/to/cert.pem private_key_src: /local/path/to/key.pem logging_inputs: - name: input_name type: files input_log_path: /var/log/containers/*.log logging_outputs: - name: output_name type: forwards target: your_target_host tcp_port: 514 tls: true pki_authmode: x509/name permitted_server: 'server.example.com' logging_flows: - name: flow_name inputs: [input_name] outputs: [output_name]
Playbook은 다음 매개 변수를 사용합니다.
logging_pki_files
-
이 매개변수를 사용하여 TLS를 구성할 수 있으며
ca_cert_src
,cert_src
및private_key_src
매개변수를 전달해야 합니다. ca_cert
-
CA 인증서 경로를 나타냅니다. 기본 경로는
/etc/pki/tls/certs/ca.pem
이며 파일 이름은 사용자가 설정합니다. 인증서
-
인증서 경로를 나타냅니다. 기본 경로는
/etc/pki/tls/certs/server-cert.pem
이며 파일 이름은 사용자가 설정합니다. private_key
-
개인 키의 경로를 나타냅니다. 기본 경로는
/etc/pki/tls/private/server-key.pem
이며 파일 이름은 사용자가 설정합니다. ca_cert_src
-
대상 호스트에 복사되는 로컬 CA 인증서 파일 경로를 나타냅니다.
ca_cert
를 지정하면 위치에 복사됩니다. cert_src
-
대상 호스트에 복사되는 로컬 인증서 파일 경로를 나타냅니다.
인증서가
지정되면 위치에 복사됩니다. private_key_src
-
대상 호스트에 복사되는 로컬 키 파일 경로를 나타냅니다.
private_key
가 지정되면 위치에 복사됩니다. tls
-
이 매개 변수를 사용하면 네트워크를 통해 로그를 안전하게 전송할 수 있습니다. 보안 래퍼를 사용하지 않으려면
tls: true
를 설정할 수 있습니다.
플레이북 구문을 확인합니다.
# ansible-playbook --syntax-check playbook.yml
인벤토리 파일에서 플레이북을 실행합니다.
# ansible-playbook -i inventory_file playbook.yml
36.6.2. TLS를 사용하여 서버 로깅 구성
로깅
시스템 역할을 사용하여 RHEL 시스템의 로그인을 서버로 구성할 수 있으며 Ansible Playbook을 실행하여 TLS로 원격 로깅 시스템에서 로그를 수신할 수 있습니다.
이 절차에서는 Ansible 인벤토리의 서버 그룹에 있는 모든 호스트에서 TLS를 구성합니다.
사전 요구 사항
- TLS를 구성할 관리 노드에서 플레이북을 실행할 권한이 있습니다.
- 관리 노드는 제어 노드의 인벤토리 파일에 나열됩니다.
-
ansible
및rhel-system-roles
패키지는 제어 노드에 설치됩니다.
절차
다음 내용으로
playbook.yml
파일을 생성합니다.--- - name: Deploying remote input and remote_files output with certs hosts: server roles: - rhel-system-roles.logging vars: logging_pki_files: - ca_cert_src: /local/path/to/ca_cert.pem cert_src: /local/path/to/cert.pem private_key_src: /local/path/to/key.pem logging_inputs: - name: input_name type: remote tcp_ports: 514 tls: true permitted_clients: ['clients.example.com'] logging_outputs: - name: output_name type: remote_files remote_log_path: /var/log/remote/%FROMHOST%/%PROGRAMNAME:::secpath-replace%.log async_writing: true client_count: 20 io_buffer_size: 8192 logging_flows: - name: flow_name inputs: [input_name] outputs: [output_name]
Playbook은 다음 매개 변수를 사용합니다.
logging_pki_files
-
이 매개변수를 사용하여 TLS를 구성할 수 있으며
ca_cert_src
,cert_src
및private_key_src
매개변수를 전달해야 합니다. ca_cert
-
CA 인증서 경로를 나타냅니다. 기본 경로는
/etc/pki/tls/certs/ca.pem
이며 파일 이름은 사용자가 설정합니다. 인증서
-
인증서 경로를 나타냅니다. 기본 경로는
/etc/pki/tls/certs/server-cert.pem
이며 파일 이름은 사용자가 설정합니다. private_key
-
개인 키의 경로를 나타냅니다. 기본 경로는
/etc/pki/tls/private/server-key.pem
이며 파일 이름은 사용자가 설정합니다. ca_cert_src
-
대상 호스트에 복사되는 로컬 CA 인증서 파일 경로를 나타냅니다.
ca_cert
를 지정하면 위치에 복사됩니다. cert_src
-
대상 호스트에 복사되는 로컬 인증서 파일 경로를 나타냅니다.
인증서가
지정되면 위치에 복사됩니다. private_key_src
-
대상 호스트에 복사되는 로컬 키 파일 경로를 나타냅니다.
private_key
가 지정되면 위치에 복사됩니다. tls
-
이 매개 변수를 사용하면 네트워크를 통해 로그를 안전하게 전송할 수 있습니다. 보안 래퍼를 사용하지 않으려면
tls: true
를 설정할 수 있습니다.
플레이북 구문을 확인합니다.
# ansible-playbook --syntax-check playbook.yml
인벤토리 파일에서 플레이북을 실행합니다.
# ansible-playbook -i inventory_file playbook.yml
36.7. RELP에서 로깅
시스템 역할 사용
RELP(Reliable Event Logging Protocol)는 TCP 네트워크를 통한 데이터 및 메시지 로깅을 위한 네트워킹 프로토콜입니다. 이 솔루션은 이벤트 메시지를 안정적으로 전송하며 메시지 손실을 허용하지 않는 환경에서 사용할 수 있습니다.
RELP 발신자는 로그 항목을 명령 형태로 전송하고 수신자는 처리되면 이를 승인합니다. 일관성을 보장하기 위해 RELP는 모든 종류의 메시지 복구를 위해 전송된 각 명령에 트랜잭션 번호를 저장합니다.
RELP Client와 RELP 서버 간에 원격 로깅 시스템을 고려할 수 있습니다. RELP Client는 로그를 원격 로깅 시스템으로 전송하고 RELP 서버는 원격 로깅 시스템에서 보낸 모든 로그를 수신합니다.
관리자는 로깅
시스템 역할을 사용하여 로그 항목을 안정적으로 전송하고 수신하도록 로깅 시스템을 구성할 수 있습니다.
36.7.1. RELP로 클라이언트 로깅 구성
로깅
시스템 역할을 사용하여 로컬 시스템에 로그인한 RHEL 시스템에 로깅을 구성하고 Ansible 플레이북을 실행하여 RELP를 사용하여 원격 로깅 시스템으로 로그를 전송할 수 있습니다.
이 절차에서는 Ansible 인벤토리의 clients
그룹에 있는 모든 호스트에서 RELP를 구성합니다. RELP 구성은 TLS(전송 계층 보안)를 사용하여 네트워크를 통해 로그를 안전하게 전송할 수 있도록 메시지 전송을 암호화합니다.
사전 요구 사항
- RELP를 구성할 관리 노드에서 플레이북을 실행할 권한이 있습니다.
- 관리 노드는 제어 노드의 인벤토리 파일에 나열됩니다.
-
ansible
및rhel-system-roles
패키지는 제어 노드에 설치됩니다.
절차
다음 내용으로
playbook.yml
파일을 생성합니다.--- - name: Deploying basic input and relp output hosts: clients roles: - rhel-system-roles.logging vars: logging_inputs: - name: basic_input type: basics logging_outputs: - name: relp_client type: relp target: _logging.server.com_ port: 20514 tls: true ca_cert: _/etc/pki/tls/certs/ca.pem_ cert: _/etc/pki/tls/certs/client-cert.pem_ private_key: _/etc/pki/tls/private/client-key.pem_ pki_authmode: name permitted_servers: - '*.server.example.com' logging_flows: - name: _example_flow_ inputs: [basic_input] outputs: [relp_client]
Playbook은 다음 설정을 사용합니다.
-
대상
: 이는 원격 로깅 시스템이 실행 중인 호스트 이름을 지정하는 필수 매개 변수입니다. -
포트
: 원격 로깅 시스템이 수신 대기 중인 포트 번호입니다. tls
: 네트워크를 통한 로그를 안전하게 전송합니다. 보안 래퍼를 사용하지 않으려면tls
변수를false
로 설정할 수 있습니다. 기본적으로tls
매개변수는 RELP로 작업하는 동안 true로 설정되며 키/인증서 및 가입 항목 {ca_cert,
} 및/또는 {cert
,private_
keyca_cert_src,
}가 필요합니다.cert_src
,private_
key_src-
{
ca_cert_src
,cert_src
,private_key_src
} Triplet가 설정된 경우 기본 위치/etc/pki/tls/certs
및/etc/pki/tls/private
을 관리 노드의 대상으로 사용하여 제어 노드에서 파일을 전송합니다. 이 경우 파일 이름은 Triplet에서 원래 이름과 동일합니다. -
{
ca_cert
,cert
,private_key
} Triplet가 설정된 경우 로깅 구성 전에 파일이 기본 경로에 있어야 합니다. - 트리플릿이 모두 설정되면 파일은 제어 노드에서 관리 노드의 특정 경로로 전송됩니다.
-
{
-
ca_cert
: CA 인증서 경로를 나타냅니다. 기본 경로는/etc/pki/tls/certs/ca.pem
이며 파일 이름은 사용자가 설정합니다. -
인증서
: 인증서 경로를 나타냅니다. 기본 경로는/etc/pki/tls/certs/server-cert.pem
이며 파일 이름은 사용자가 설정합니다. -
private_key
: 개인 키의 경로를 나타냅니다. 기본 경로는/etc/pki/tls/private/server-key.pem
이며 파일 이름은 사용자가 설정합니다. -
ca_cert_src
: 대상 호스트에 복사되는 로컬 CA 인증서 파일 경로를 나타냅니다. ca_cert를 지정하면 위치에 복사됩니다. -
cert_src
: 대상 호스트에 복사되는 로컬 인증서 파일 경로를 나타냅니다. 인증서가 지정되면 위치에 복사됩니다. -
private_key_src
: 대상 호스트에 복사되는 로컬 키 파일 경로를 나타냅니다. private_key가 지정되면 위치에 복사됩니다. -
pki_authmode
: 은 인증 모드를이름
또는지문
으로 허용합니다. -
permitted_servers
: 로깅 클라이언트에서 TLS를 통해 연결하고 로그를 전송하도록 허용하는 서버 목록입니다. -
입력
: 로깅 입력 사전 목록. -
출력
: 로깅 출력 사전 목록.
-
선택 사항: 플레이북 구문을 확인합니다.
# ansible-playbook --syntax-check playbook.yml
플레이북을 실행합니다.
# ansible-playbook -i inventory_file playbook.yml
36.7.2. RELP로 서버 로깅 구성
로깅
시스템 역할을 사용하여 RHEL 시스템의 로그인을 서버로 구성하고 Ansible Playbook을 실행하여 RELP로 원격 로깅 시스템에서 로그를 수신할 수 있습니다.
이 절차에서는 Ansible 인벤토리의 서버
그룹에 있는 모든 호스트에서 RELP를 구성합니다. RELP 구성은 TLS를 사용하여 네트워크를 통해 로그를 안전하게 전송할 수 있도록 메시지 전송을 암호화합니다.
사전 요구 사항
- RELP를 구성할 관리 노드에서 플레이북을 실행할 권한이 있습니다.
- 관리 노드는 제어 노드의 인벤토리 파일에 나열됩니다.
-
ansible
및rhel-system-roles
패키지는 제어 노드에 설치됩니다.
절차
다음 내용으로
playbook.yml
파일을 생성합니다.--- - name: Deploying remote input and remote_files output hosts: server roles: - rhel-system-roles.logging vars: logging_inputs: - name: relp_server type: relp port: 20514 tls: true ca_cert: _/etc/pki/tls/certs/ca.pem_ cert: _/etc/pki/tls/certs/server-cert.pem_ private_key: _/etc/pki/tls/private/server-key.pem_ pki_authmode: name permitted_clients: - '_*example.client.com_' logging_outputs: - name: _remote_files_output_ type: _remote_files_ logging_flows: - name: _example_flow_ inputs: _relp_server_ outputs: _remote_files_output_
Playbook은 다음 설정을 사용합니다.
-
포트
: 원격 로깅 시스템이 수신 대기 중인 포트 번호입니다. tls
: 네트워크를 통한 로그를 안전하게 전송합니다. 보안 래퍼를 사용하지 않으려면tls
변수를false
로 설정할 수 있습니다. 기본적으로tls
매개변수는 RELP로 작업하는 동안 true로 설정되며 키/인증서 및 가입 항목 {ca_cert,
} 및/또는 {cert
,private_
keyca_cert_src,
}가 필요합니다.cert_src
,private_
key_src-
{
ca_cert_src
,cert_src
,private_key_src
} Triplet가 설정된 경우 기본 위치/etc/pki/tls/certs
및/etc/pki/tls/private
을 관리 노드의 대상으로 사용하여 제어 노드에서 파일을 전송합니다. 이 경우 파일 이름은 Triplet에서 원래 이름과 동일합니다. -
{
ca_cert
,cert
,private_key
} Triplet가 설정된 경우 로깅 구성 전에 파일이 기본 경로에 있어야 합니다. - 트리플릿이 모두 설정되면 파일은 제어 노드에서 관리 노드의 특정 경로로 전송됩니다.
-
{
-
ca_cert
: CA 인증서 경로를 나타냅니다. 기본 경로는/etc/pki/tls/certs/ca.pem
이며 파일 이름은 사용자가 설정합니다. -
인증서
: 인증서 경로를 나타냅니다. 기본 경로는/etc/pki/tls/certs/server-cert.pem
이며 파일 이름은 사용자가 설정합니다. -
private_key
: 개인 키의 경로를 나타냅니다. 기본 경로는/etc/pki/tls/private/server-key.pem
이며 파일 이름은 사용자가 설정합니다. -
ca_cert_src
: 대상 호스트에 복사되는 로컬 CA 인증서 파일 경로를 나타냅니다. ca_cert를 지정하면 위치에 복사됩니다. -
cert_src
: 대상 호스트에 복사되는 로컬 인증서 파일 경로를 나타냅니다. 인증서가 지정되면 위치에 복사됩니다. -
private_key_src
: 대상 호스트에 복사되는 로컬 키 파일 경로를 나타냅니다. private_key가 지정되면 위치에 복사됩니다. -
pki_authmode
: 은 인증 모드를이름
또는지문
으로 허용합니다. -
permitted_clients
: 로깅 서버가 TLS를 통해 연결하고 로그를 전송하도록 허용하는 클라이언트 목록입니다. -
입력
: 로깅 입력 사전 목록. -
출력
: 로깅 출력 사전 목록.
-
선택 사항: 플레이북 구문을 확인합니다.
# ansible-playbook --syntax-check playbook.yml
플레이북을 실행합니다.
# ansible-playbook -i inventory_file playbook.yml
36.8. 추가 리소스
- RHEL 시스템 역할을 사용하도록 제어 노드 및 관리형 노드 준비
-
/usr/share/ansible/
패키지와 함께 설치된 설명서.roles/rhel-system-roles.logging/README.html에 rhel
-system-roles - RHEL 시스템 역할
-
ansible-playbook(1) 도움말
페이지.
37장. Python 소개
Python은 개체 지향, 명령적, 기능적, 절차적 패러다임과 같은 여러 프로그래밍 패러다임을 지원하는 고급 프로그래밍 언어입니다. Python에는 동적 의미 체계가 있으며 범용 프로그래밍에 사용할 수 있습니다.
Red Hat Enterprise Linux를 사용하면 시스템 툴, 데이터 분석 툴 또는 웹 애플리케이션을 제공하는 패키지와 같이 시스템에 설치된 많은 패키지가 Python으로 작성됩니다. 이러한 패키지를 사용하려면 python*
패키지가 설치되어 있어야 합니다.
37.1. Python 버전
호환되지 않는 Python 버전은 널리 사용되는 Python 2.x 및 Python 3.x입니다. RHEL 8에서는 다음 버전의 Python을 제공합니다.
표 37.1. RHEL 8의 Python 버전
버전 | 설치할 패키지 | 명령 예 | 이후 사용 가능 | 라이프 사이클 |
---|---|---|---|---|
Python 3.6 |
|
| RHEL 8.0 | 전체 RHEL 8 |
Python 2.7 |
|
| RHEL 8.0 | 짧음 |
Python 3.8 |
|
| RHEL 8.2 | 짧음 |
Python 3.9 |
|
| RHEL 8.4 | 짧음 |
지원 기간에 대한 자세한 내용은 Red Hat Enterprise Linux 라이프 사이클 및 Red Hat Enterprise Linux 8 Application Streams 라이프 사이클을 참조하십시오.
각 Python 버전은 별도의 모듈로 배포되며 설계에 따라 여러 모듈을 동일한 시스템에 병렬로 설치할 수 있습니다.
python38
및 python39
모듈에는 python36
모듈에 제공된 시스템 도구(RPM, DNF, SELinux 등)에 대한 동일한 바인딩이 포함되지 않습니다. 따라서 기본 운영 체제 또는 바이너리 호환성과 가장 큰 호환성이 필요한 인스턴스에서 python36
을 사용하십시오. 시스템 바인딩이 최신 버전의 다양한 Python 모듈과 함께 필요한 고유한 경우 pip
를 통해 Python의 venv
또는 virtualenv
환경으로 설치된 타사 업스트림 Python 모듈과 함께 python36
모듈을 사용합니다.
Python 버전을 설치하거나, 호출하거나, 다른 방식으로 상호 작용할 때 항상 Python 버전을 지정합니다. 예를 들어 패키지 및 명령 이름에 python 대신 python
3
을 사용합니다. 모든 Python 관련 명령에는 버전(예: pip3, pip
2, pip
3.8 또는 pip
3.9
)도 포함되어야 합니다.
버전이 없는 python
명령(/usr/bin/python
)은 RHEL 8에서 기본적으로 사용할 수 없습니다. alternatives
명령을 사용하여 구성할 수 있습니다. 지침은 버전이 없는 Python 구성을 참조하십시오. alternatives
명령을 사용하여 변경한 사항을 제외하고 /usr/bin/python
을 수동으로 변경하면 업데이트 시 덮어쓸 수 있습니다.
시스템 관리자는 다음과 같은 이유로 Python 3을 사용합니다.
- Python 3은 Python 프로젝트의 주요 개발 방향을 나타냅니다.
- 업스트림 커뮤니티의 Python 2 지원은 2020년에 종료되었습니다.
- 인기 있는 Python 라이브러리는 업스트림에서 Python 2 지원을 중단하고 있습니다.
-
Red Hat Enterprise Linux 8의 Python 2는 라이프사이클이 짧고 고객을 위해
Python 3
으로 원활하게 전환하는 것을 목표로 합니다.
개발자의 경우 Python 3은 Python 2에 비해 다음과 같은 이점이 있습니다.
- Python 3를 사용하면 표현, 유지 관리 및 올바른 코드를 보다 쉽게 작성할 수 있습니다.
- Python 3으로 작성된 코드는 더 길게 됩니다.
-
Python 3에는
asyncio
, f-strings, 고급 압축 풀기, 키워드 전용 인수, 연결된 예외 등의 새로운 기능이 있습니다.
그러나 레거시 소프트웨어를 사용하려면 /usr/bin/python
을 Python 2로 구성해야 할 수 있습니다. 이러한 이유로 기본 python
패키지는 Red Hat Enterprise Linux 8과 함께 배포 되지 않으며 버전이 없는 Python 구성에 설명된 대로 Python 2와 3을 /usr/bin/python
으로 사용할 수 있습니다.
Red Hat Enterprise Linux 8의 시스템 툴은 내부 platform-python
패키지에서 제공하는 Python 버전 3.6을 사용합니다. Red Hat은 고객에게 python36
패키지를 사용할 것을 권장합니다.
38장. Python 설치 및 사용
Red Hat Enterprise Linux 8에서 Python 3은 AppStream 리포지토리의 python36, python
38
및 python39
모듈에서 제공하는 버전 3.6, 3.8 및 3.9에 배포됩니다.
버전이 없는 python
명령을 사용하여 Python을 설치하거나 실행하는 작업은 모호성으로 인해 기본적으로 작동하지 않습니다. 항상 Python 버전을 지정하거나 alternatives
명령을 사용하여 시스템 기본 버전을 구성합니다.
38.1. Python 3 설치
원래 python27, python
36
, python38
및 python39
모듈을 포함하여 RHEL 8 모듈을 병렬로 설치할 수 있습니다. 단일 모듈 내의 여러 스트림에는 병렬 설치가 지원되지 않습니다.
mod_wsgi
모듈을 제외하고 동일한 시스템에서 Python 3.6과 병렬로 빌드된 패키지를 포함하여 Python 3.8 및 Python 3.9를 설치할 수 있습니다. Apache HTTP 서버의 제한으로 인해 python3-mod_wsgi, python
38-mod_wsgi
또는 python39-mod_wsgi
패키지 중 하나만 시스템에 설치할 수 있습니다.
절차
python36
모듈에서 Python 3.6을 설치하려면 다음을 사용합니다.# yum install python3
python36:3.6
모듈 스트림은 자동으로 활성화됩니다.python38
모듈에서 Python 3.8을 설치하려면 다음을 사용합니다.# yum install python38
python38:3.8
모듈 스트림은 자동으로 활성화됩니다.python39
모듈에서 Python 3.9를 설치하려면 다음을 사용합니다.# yum install python39
python39:3.9
모듈 스트림은 자동으로 활성화됩니다.
검증 단계
시스템에 설치된 Python 버전을 확인하려면 필수 Python 버전에 고유한
python
명령과 함께--version
옵션을 사용합니다.Python 3.6의 경우:
$ python3 --version
Python 3.8의 경우:
$ python3.8 --version
Python 3.9의 경우:
$ python3.9 --version
추가 리소스
38.2. 추가 Python 3 패키지 설치
Python 3.6용 애드온 모듈이 있는 패키지는 일반적으로 python3-
접두사를 사용하며, Python 3.8용 패키지에는 python38-
접두사가 포함되고, Python 3.9용 패키지에는 python39-
접두사가 포함되어 있습니다. 아래 예제와 같이 추가 Python 패키지를 설치할 때 접두사를 항상 포함합니다.
절차
Python 3.6용
Requests
모듈을 설치하려면 다음을 사용합니다.# yum install python3-requests
Cython
확장을 Python 3.8로 설치하려면 다음을 사용합니다.# yum install python38-Cython
Python 3.9에서
pip
패키지 설치 프로그램을 설치하려면 다음을 사용합니다.# yum install python39-pip
38.3. 개발자를 위한 추가 Python 3 툴 설치
개발자를 위한 추가 Python 툴은 해당 python3x-devel
모듈의 CodeReady Linux Builder 리포지토리를 통해 배포됩니다.
python38-devel
모듈에는 python38-pytest
패키지와 해당 종속 항목, 즉 pyparsing
,atomicwrites
,attrs
,packaging
,py
,more-itertools
,pluggy
및 wcwidth
패키지가 포함되어 있습니다.
python39-devel
모듈에는 python39-pytest
패키지와 그 종속성이 포함되어 있습니다. 즉, pyparsing
,attrs
,packaging
,py, py
ertools
,pluggy
,wcwidth
,iniconfig
, pybind11
패키지가 있습니다. python39-devel
모듈에는 python39-debug 및
패키지도 포함되어 있습니다.
python39-
Cython
CodeReady Linux Builder 리포지토리와 해당 콘텐츠는 Red Hat에서 지원되지 않습니다.
python39-devel
모듈에서 패키지를 설치하려면 다음 절차를 사용합니다.
절차
CodeReady Linux Builder 리포지토리를 활성화합니다.
# subscription-manager repos --enable codeready-builder-for-rhel-8-x86_64-rpms
python39-devel
모듈을 활성화합니다.# yum module enable python39-devel
python39-pytest
패키지를 설치합니다.# yum install python39-pytest
python38-devel
모듈의 패키지를 설치하려면 위의 명령에서 python39- 를 python38-로 교체합니다.
38.4. Python 2 설치
일부 애플리케이션 및 스크립트는 아직 Python 3으로 완전히 포팅되지 않았으며 Python 2를 실행해야 합니다. Red Hat Enterprise Linux 8은 Python 3 및 Python 2의 병렬 설치를 허용합니다. Python 2 기능이 필요한 경우 AppStream 리포지토리에서 사용할 수 있는 python27
모듈을 설치합니다.
Python 3은 Python 프로젝트의 주요 개발 방향입니다. Python 2에 대한 지원은 단계적으로 폐지되고 있습니다. python27
모듈은 Red Hat Enterprise Linux 8보다 지원 기간이 짧습니다.
절차
python27
모듈에서 Python 2.7을 설치하려면 다음을 사용합니다.# yum install python2
python27:2.7
모듈 스트림이 자동으로 활성화됩니다.
Python 2용 애드온 모듈이 있는 패키지는 일반적으로 python2-
접두사를 사용합니다. 아래 예제와 같이 추가 Python 패키지를 설치할 때 접두사를 항상 포함합니다.
Python 2용
Requests
모듈을 설치하려면 다음을 사용합니다.# yum install python2-requests
Cython
확장을 Python 2로 설치하려면 다음을 사용합니다.# yum install python2-Cython
검증 단계
시스템에 설치된 Python 버전을 확인하려면 다음을 사용합니다.
$ python2 --version
원래 python27, python
36
, python38
및 python39
모듈을 포함하여 RHEL 8 모듈을 병렬로 설치할 수 있습니다.
38.5. Python 2에서 Python 3으로 마이그레이션
개발자는 Python 2로 작성된 이전 코드를 Python 3으로 마이그레이션할 수 있습니다.
대규모 코드 베이스를 Python 3으로 마이그레이션하는 방법에 대한 자세한 내용은 Conservative Python 3 Porting Guide를 참조하십시오.
이 마이그레이션 후 원래 Python 2 코드는 Python 3 인터프리터에서 해석할 수 있게 되며 Python 2 인터프리터에서도 해석할 수 있습니다.
38.6. Python 사용
Python 인터프리터 또는 Python 관련 명령을 실행하는 경우 항상 버전을 지정합니다.
사전 요구 사항
- 필요한 Python 버전이 설치되어 있는지 확인합니다.
절차
Python 3.6 인터프리터 또는 관련 명령을 실행하려면 다음을 사용합니다.
$ python3 $ python3 -m cython --help $ pip3 install package
Python 3.8 인터프리터 또는 관련 명령을 실행하려면 다음을 사용합니다.
$ python3.8 $ python3.8 -m cython --help $ pip3.8 install package
Python 3.9 인터프리터 또는 관련 명령을 실행하려면 다음을 사용합니다.
$ python3.9 $ python3.9 -m pip --help $ pip3.9 install package
Python 2 인터프리터 또는 관련 명령을 실행하려면 다음을 사용합니다.
$ python2 $ python2 -m cython --help $ pip2 install package
39장. 버전이 없는 Python 구성
시스템 관리자는 alternatives
명령을 사용하여 /usr/bin/python
에 있는 버전이 없는 python
명령을 구성할 수 있습니다. 버전되지 않은 명령을 해당 버전으로 구성하기 전에 필수 패키지,
를 설치해야 합니다.
python3
, python38
, python39
또는 python2
/usr/bin/python
실행 파일은 alternatives
시스템에 의해 제어됩니다. 업데이트 시 수동 변경 사항을 덮어쓸 수 있습니다.
추가 Python 관련 명령(예: pip3)에는 구성 가능한 버전이 없는 변형이 없습니다
.
39.1. 버전이 지정되지 않은 python 명령 직접 구성
선택한 버전의 Python으로 직접 버전이 지정되지 않은 python
명령을 구성할 수 있습니다.
사전 요구 사항
- 필요한 Python 버전이 설치되어 있는지 확인합니다.
절차
버전이 없는
python
명령을 Python 3.6으로 구성하려면 다음을 사용합니다.# alternatives --set python /usr/bin/python3
버전이 없는
python
명령을 Python 3.8로 구성하려면 다음을 사용합니다.# alternatives --set python /usr/bin/python3.8
버전이 없는
python
명령을 Python 3.9로 구성하려면 다음을 사용합니다.# alternatives --set python /usr/bin/python3.9
버전이 없는
python
명령을 Python 2로 구성하려면 다음을 사용합니다.# alternatives --set python /usr/bin/python2
39.2. 필수 Python 버전으로 대화형으로 버전이 없는 python 명령 구성
필수 Python 버전에 대화식으로 버전이 없는 python
명령을 구성할 수 있습니다.
사전 요구 사항
- 필요한 Python 버전이 설치되어 있는지 확인합니다.
절차
버전이 없는
python
명령을 대화형으로 구성하려면 다음을 사용합니다.# alternatives --config python
- 제공된 목록에서 필요한 버전을 선택합니다.
이 구성을 재설정하고 버전이 없는
python
명령을 제거하려면 다음을 사용합니다.# alternatives --auto python
39.3. 추가 리소스
-
alternatives(8)
및unversioned-python(1)
도움말 페이지
40장. Python 3 RPM 패키지
대부분의 Python 프로젝트에서는 패키징에 Setuptools를 사용하고 setup.py
파일에서 패키지 정보를 정의합니다. Setuptools 패키징에 대한 자세한 내용은 Setuptools 설명서 를 참조하십시오.
Setuptools 패키징과 비교하여 다음과 같은 이점을 제공하는 RPM 패키지로 Python 프로젝트를 패키징할 수도 있습니다.
- 다른 RPM에 패키지의 종속성 사양 (Python이 아닌 경우)
암호화 서명
암호화 서명을 사용하면 RPM 패키지의 콘텐츠를 나머지 운영 체제와 함께 검증, 통합 및 테스트할 수 있습니다.
40.1. Python 패키지에 대한 SPEC 파일 설명
SPEC 파일에는 rpmbuild
유틸리티가 RPM을 빌드하는 데 사용하는 지침이 포함되어 있습니다. 지침은 일련의 섹션에 포함되어 있습니다. SPEC 파일에는 섹션이 정의된 두 가지 주요 부분이 있습니다.
- preamble (본문에서 사용되는 일련의 메타데이터 항목이 포함되어 있음)
- 본문 (명령의 주요 부분이 포함되어 있음)
Python 프로젝트용 RPM SPEC 파일은 Python이 아닌 RPM SPEC 파일과 비교하여 몇 가지 세부 사항이 있습니다. 무엇보다도 Python 라이브러리의 RPM 패키지에는 버전을 결정하는 접두사가 항상 포함되어야 합니다(예: Python 3.6의 경우 python3
, Python 3.8의 경우 python38
, Python 3.9의 경우 python
39).
기타 세부 사항은 python3-detox
패키지에 대한 다음 SPEC 파일 예제에 표시되어 있습니다. 이러한 세부 사항에 대한 설명은 아래 예제를 참조하십시오.
%global modname detox 1 Name: python3-detox 2 Version: 0.12 Release: 4%{?dist} Summary: Distributing activities of the tox tool License: MIT URL: https://pypi.io/project/detox Source0: https://pypi.io/packages/source/d/%{modname}/%{modname}-%{version}.tar.gz BuildArch: noarch BuildRequires: python36-devel 3 BuildRequires: python3-setuptools BuildRequires: python36-rpm-macros BuildRequires: python3-six BuildRequires: python3-tox BuildRequires: python3-py BuildRequires: python3-eventlet %?python_enable_dep