Red Hat Training

A Red Hat training course is available for RHEL 8

기본 시스템 설정 구성

Red Hat Enterprise Linux 8

Red Hat Enterprise Linux 8의 기본 시스템 설정 구성 가이드

초록

이 문서에서는 Red Hat Enterprise Linux 8에 대한 시스템 관리의 기초에 대해 설명합니다. 제목은 운영 체제가 성공적으로 설치한 직후, 서비스 관리에 systemd를 사용하고, 사용자, 그룹 및 파일 권한 관리, chrony를 사용하여 NTP를 구성하고 Python 3 등을 사용하여 작업하는 데 필요한 기본 작업입니다.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서 및 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 먼저 마스터(master), 슬레이브(slave), 블랙리스트(blacklist), 화이트리스트(whitelist) 등 네 가지 용어를 교체하고 있습니다. 이러한 변경 작업은 작업 범위가 크므로 향후 여러 릴리스에 걸쳐 점차 구현할 예정입니다. 자세한 내용은 CTO Chris Wright의 메시지를 참조하십시오.

Red Hat 문서에 관한 피드백 제공

문서에 대한 피드백에 감사드립니다. 어떻게 개선할 수 있는지 알려주십시오.

특정 문구에 대한 의견 제출

  1. Multi-page HTML 형식으로 설명서를 보고 페이지가 완전히 로드된 후 오른쪽 상단 모서리에 피드백 버튼이 표시되는지 확인합니다.
  2. 커서를 사용하여 주석 처리할 텍스트 부분을 강조 표시합니다.
  3. 강조 표시된 텍스트 옆에 표시되는 피드백 추가 버튼을 클릭합니다.
  4. 의견을 추가하고 제출 을 클릭합니다.

Bugzilla를 통해 피드백 제출(등록 필요)

  1. Bugzilla 웹 사이트에 로그인합니다.
  2. 버전 메뉴에서 올바른 버전을 선택합니다.
  3. Summary (요약) 필드에 설명 제목을 입력합니다.
  4. Description (설명) 필드에 개선을 위한 제안을 입력합니다. 문서의 관련 부분에 대한 링크를 포함합니다.
  5. Submit Bug를 클릭하십시오.

1장. RHEL 시스템 역할을 사용하도록 제어 노드 및 관리형 노드 준비

개별 RHEL 시스템 역할을 사용하여 서비스 및 설정을 관리하려면 관련 호스트를 준비합니다.

1.1. RHEL 시스템 역할 소개

RHEL 시스템 역할은 Ansible 역할 및 모듈의 컬렉션입니다. RHEL 시스템 역할은 여러 RHEL 시스템을 원격으로 관리하는 구성 인터페이스를 제공합니다. 이 인터페이스를 사용하면 여러 버전의 RHEL에서 시스템 구성을 관리하고 새 주요 릴리스를 채택할 수 있습니다.

Red Hat Enterprise Linux 8에서 인터페이스는 현재 다음 역할로 구성됩니다.

  • Certificate Issuance and Renewal (인증서)
  • Cockpit(cockpit)
  • firewalld(방화벽)
  • HA 클러스터(ha_cluster)
  • 커널 덤프(kdump)
  • 커널 설정(kernel_settings)
  • 로깅(로깅)
  • 메트릭 (PCP)
  • Microsoft SQL Server (microsoft.sql.server)
  • 네트워킹(네트워크)
  • Network Bound Disk Encryption 클라이언트 및 네트워크 Bound Disk Encryption 서버(nbde_clientnbde_server)
  • Postfix(postfix)
  • SELinux(selinux)
  • SSH 클라이언트(ssh)
  • SSH 서버(sshd)
  • 스토리지(스토리지)
  • 터미널 세션 레코드( tlog)
  • 시간 동기화(timesync)
  • VPN(vpn)

이러한 모든 역할은 AppStream 리포지토리에서 사용할 수 있는 rhel-system-roles 패키지에서 제공합니다.

추가 리소스

1.2. RHEL 시스템 역할 용어

이 문서에서는 다음 용어를 찾을 수 있습니다.

Ansible 플레이북
플레이북은 Ansible의 구성, 배포 및 오케스트레이션 언어입니다. 원격 시스템이 강제 적용하려는 정책 또는 일반적인 IT 프로세스의 단계 집합을 설명할 수 있습니다.
제어 노드
Ansible이 설치된 모든 시스템. 모든 제어 노드에서 /usr/bin/ansible 또는 /usr/bin/ansible-playbook을 호출하여 명령과 플레이북을 실행할 수 있습니다. Python이 제어 노드로 설치된 컴퓨터를 사용할 수 있습니다. 노트북, 공유 데스크탑 및 서버는 모두 Ansible을 실행할 수 있습니다. 그러나 Windows 머신을 제어 노드로 사용할 수는 없습니다. 여러 제어 노드가 있을 수 있습니다.
인벤토리
관리형 노드 목록. 인벤토리 파일을 "hostfile"이라고도 합니다. 인벤토리는 각 관리 노드의 IP 주소와 같은 정보를 지정할 수 있습니다. 인벤토리는 쉽게 확장하기 위해 관리 노드, 생성 및 중첩 그룹을 구성할 수도 있습니다. 인벤토리에 대한 자세한 내용은 인벤토리 작업 섹션을 참조하십시오.
관리형 노드
Ansible을 사용하여 관리하는 네트워크 장치, 서버 또는 둘 다입니다. 관리되는 노드를 "호스트"라고도 합니다. Ansible은 관리 노드에 설치되지 않습니다.

1.3. 제어 노드 준비

RHEL은 제한된 지원 범위와 함께 AppStream 리포지토리에 Ansible Core 를 포함합니다. Ansible에 대한 추가 지원이 필요한 경우 Red Hat에 문의하여 Ansible Automation Platform 서브스크립션에 대해 자세히 알아보십시오.

중요

RHEL 8.6 이상에서는 Red Hat Ansible Automation Platform 서브스크립션이 없는 경우 Ansible Core 를 사용합니다. ansible-2-for-rhel-8-x86_64-rpms 리포지토리에서 Ansible Engine 을 설치하지 마십시오. 이 리포지토리의 패키지는 RHEL 8.6 이상에서 Ansible 자동화 콘텐츠와 호환되지 않을 수 있습니다. 또한 Red Hat은 RHEL과 동일한 기간 동안 Ansible Engine 의 보안 업데이트 및 버그 수정을 제공하지 않습니다. 자세한 내용은 RHEL 8.6 이상에서 Ansible 사용을 참조하십시오.

사전 요구 사항

  • RHEL 8.6 이상이 설치되어 있어야 합니다.
  • 시스템을 고객 포털에 등록하셨습니다.
  • Red Hat Enterprise Linux Server 서브스크립션을 시스템에 연결하셨습니다.
  • 고객 포털 계정에서 사용 가능한 경우 Ansible Automation Platform 서브스크립션을 시스템에 연결합니다.

절차

  1. rhel-system-roles 패키지를 설치합니다.

    [root@control-node]# yum install rhel-system-roles

    이 명령은 Ansible Core 를 종속성으로 설치합니다.

  2. 나중에 플레이북을 관리하고 실행하는 데 사용하는 사용자를 생성합니다.

    [root@control-node]# useradd ansible
  3. 새로 생성된 ansible 사용자로 전환합니다.

    [root@control-node]# su - ansible

    이 사용자로 나머지 절차를 수행합니다.

  4. SSH 공개 및 개인 키 생성

    [ansible@control-node]$ ssh-keygen
    Generating public/private rsa key pair.
    Enter file in which to save the key (/home/ansible/.ssh/id_rsa): password
    ...

    키 파일에 제안된 기본 위치를 사용합니다.

  5. 선택 사항: 연결을 설정할 때마다 Ansible에서 SSH 키 암호를 요청하는 메시지를 표시하지 않도록 SSH 에이전트를 구성합니다.
  6. 다음 콘텐츠를 사용하여 ~/.ansible.cfg 파일을 생성합니다.

    [defaults]
    inventory = /home/ansible/inventory
    remote_user = ansible
    
    [privilege_escalation]
    become = True
    become_method = sudo
    become_user = root
    become_ask_pass = True

    이러한 설정을 사용하여 다음을 수행합니다.

    • Ansible은 지정된 인벤토리 파일에서 호스트를 관리합니다.
    • Ansible은 관리 노드에 SSH 연결을 설정할 때 remote_user 매개변수에 설정된 계정을 사용합니다.
    • Ansible은 sudo 유틸리티를 사용하여 관리 노드에서 root 사용자로 작업을 실행합니다.

      보안상의 이유로 관리 노드에서 sudo 를 구성하여 root 가 되도록 원격 사용자의 암호를 입력해야 합니다. ~/.ansible.cfg 에서 become_ask_pass=True 설정을 지정하면 Ansible에서 플레이북을 실행할 때 이 암호를 묻는 메시지를 표시합니다.

    ~/.ansible.cfg 파일의 설정은 우선 순위가 높으며 전역 /etc/ansible/ansible.cfg 파일의 설정을 재정의합니다.

  7. ~/inventory 파일을 만듭니다. 예를 들어 다음은 3개의 호스트와 US 라는 호스트 그룹 1개가 있는 INI 형식의 인벤토리 파일입니다.

    managed-node-01.example.com
    
    [US]
    managed-node-02.example.com ansible_host=192.0.2.100
    managed-node-03.example.com

    제어 노드에서 호스트 이름을 확인할 수 있어야 합니다. DNS 서버가 특정 호스트 이름을 확인할 수 없는 경우 호스트 항목 옆에 있는 ansible_host 매개변수를 추가하여 IP 주소를 지정합니다.

1.4. 관리형 노드 준비

Ansible은 관리 호스트에서 에이전트를 사용하지 않습니다. 유일한 요구 사항은 RHEL에 기본적으로 설치되는 Python 및 관리 호스트에 대한 SSH 액세스입니다.

그러나 root 사용자로 직접 SSH 액세스는 보안 위험이 될 수 있습니다. 따라서 관리 노드를 준비할 때 이 노드에 로컬 사용자를 생성하고 sudo 정책을 구성합니다. 그런 다음 제어 노드에서 Ansible은 이 계정을 사용하여 관리 노드에 로그인하고, root 와 같은 다른 사용자로 플레이북을 실행할 수 있습니다.

사전 요구 사항

  • 제어 노드를 준비합니다.

절차

  1. 사용자를 생성합니다.

    [root@managed-node-01]# useradd ansible

    나중에 제어 노드는 이 사용자를 사용하여 이 호스트에 대한 SSH 연결을 설정합니다.

  2. 암호를 ansible 사용자로 설정합니다.

    [root@managed-node-01]# passwd ansible
    Changing password for user ansible.
    New password: password
    Retype new password: password
    passwd: all authentication tokens updated successfully.

    Ansible에서 sudo 를 사용하여 작업을 root 사용자로 수행할 때 이 암호를 입력해야 합니다.

  3. 관리 노드에 ansible 사용자의 SSH 공개 키를 설치합니다.

    1. 제어 노드에 ansible 사용자로 로그인하고 SSH 공개 키를 관리 노드에 복사합니다.

      [ansible@control-node]$ ssh-copy-id managed-node-01.example.com
      /usr/bin/ssh-copy-id: INFO: Source of key(s) to be installed: "/home/ansible/.ssh/id_rsa.pub"
      The authenticity of host 'managed-node-01.example.com (192.0.2.100)' can't be established.
      ECDSA key fingerprint is SHA256:9bZ33GJNODK3zbNhybokN/6Mq7hu3vpBXDrCxe7NAvo.
      Are you sure you want to continue connecting (yes/no/[fingerprint])? yes
      /usr/bin/ssh-copy-id: INFO: attempting to log in with the new key(s), to filter out any that are already installed
      /usr/bin/ssh-copy-id: INFO: 1 key(s) remain to be installed -- if you are prompted now it is to install the new keys
      ansible@managed-node-01.example.com's password: password
      
      Number of key(s) added: 1
      
      Now try logging into the machine, with:   "ssh 'managed-node-01.example.com'"
      and check to make sure that only the key(s) you wanted were added.
    2. 제어 노드에서 원격으로 명령을 실행하여 SSH 연결을 확인합니다.

      [ansible@control-node]$ ssh managed-node-01.example.com whoami
      ansible
  4. ansible 사용자에 대한 sudo 구성을 생성합니다.

    1. visudo 명령을 사용하여 /etc/sudoers.d/ansible 파일을 생성하고 편집합니다.

      [root@managed-node-01]# visudo /etc/sudoers.d/ansible

      일반 편집기에서 visudo 를 사용하면 이 유틸리티에서 기본 온전성 검사를 제공하고 파일을 설치하기 전에 구문 분석 오류를 점검할 수 있습니다.

    2. /etc/sudoers.d/ansible 파일에 다음 내용을 입력합니다.

      ansible ALL=(ALL) NOPASSWD: ALL

      이러한 설정은 ansible 사용자의 암호를 입력하지 않고 이 호스트의 모든 사용자 및 그룹으로 모든 명령을 실행할 수 있는 권한을 ansible 사용자에게 부여합니다.

추가 리소스

1.5. 제어 노드에서 관리형 노드로의 액세스 확인

제어 노드를 구성하고 관리형 노드를 준비한 후 Ansible이 관리 노드에 연결할 수 있는지 테스트합니다.

제어 노드에서 ansible 사용자로 다음 절차를 수행합니다.

사전 요구 사항

절차

  1. Ansible ping 모듈을 사용하여 모든 관리 호스트에서 명령을 실행할 수 있는지 확인합니다.

    [ansible@control-node]$ ansible all -m ping
    BECOME password: password
    managed-node-01.example.com | SUCCESS => {
        "ansible_facts": {
            "discovered_interpreter_python": "/usr/bin/python3"
        },
        "changed": false,
        "ping": "pong"
    }
    ...

    하드 코딩된 모든 호스트 그룹에는 인벤토리 파일에 나열된 모든 호스트가 동적으로 포함됩니다.

  2. Ansible command 모듈을 사용하여 관리 호스트에서 whoami 유틸리티를 실행합니다.

    [ansible@control-node]$ ansible managed-node-01.example.com -m command -a whoami
    BECOME password: password
    managed-node-01.example.com | CHANGED | rc=0 >>
    root

    명령이 root 를 반환하는 경우 관리 노드에 sudo 를 올바르게 구성하고 권한 에스컬레이션이 작동합니다.

2장. 기본 환경 설정 변경

기본 환경 설정 구성은 설치 프로세스의 일부입니다. 다음 섹션에서는 나중에 변경할 때 안내합니다. 환경의 기본 구성에는 다음이 포함됩니다.

  • 날짜 및 시간
  • 시스템 로케일
  • 키보드 레이아웃
  • 언어

2.1. 날짜 및 시간 설정

정확한 시간 유지는 여러 가지 이유로 중요합니다. Red Hat Enterprise Linux에서는 사용자 공간에서 데몬이 실행되는 NTP 프로토콜을 통해 시간 초과를 보장합니다. 사용자 공간 데몬은 커널에서 실행되는 시스템 시계를 업데이트합니다. 시스템 클록은 다양한 시계 소스를 사용하여 시간을 유지할 수 있습니다.

Red Hat Enterprise Linux 8은 chronyd 데몬을 사용하여 NTP 를 구현합니다.chronydchrony 패키지에서 사용할 수 있습니다. 자세한 내용은 chrony 제품군을 사용하여 NTP 구성을 참조하십시오.

2.1.1. 현재 날짜 및 시간 표시

현재 날짜와 시간을 표시하려면 다음 단계 중 하나를 사용합니다.

절차

  1. date 명령을 입력합니다.

    $ date
    Mon Mar 30 16:02:59 CEST 2020
  2. 자세한 내용을 보려면 timedatectl 명령을 사용합니다.

    $ timedatectl
    Local time: Mon 2020-03-30 16:04:42 CEST
    Universal time: Mon 2020-03-30 14:04:42 UTC
      RTC time: Mon 2020-03-30 14:04:41
     Time zone: Europe/Prague (CEST, +0200)
    System clock synchronized: yes
    NTP service: active
    RTC in local TZ: no

추가 리소스

2.2. 시스템 로케일 구성

시스템 전체 로케일 설정은 systemd 데몬이 조기 부팅할 때 읽어지는 /etc/locale.conf 파일에 저장됩니다. 개별 프로그램이나 개별 사용자가 재정의하지 않는 한 모든 서비스 또는 사용자는 /etc/locale.conf 에 구성된 로케일 설정을 상속합니다.

이 섹션에서는 시스템 로케일을 관리하는 방법을 설명합니다.

절차

  • 사용 가능한 시스템 로케일 설정을 나열하려면 다음을 수행합니다.

    $ localectl list-locales
    C.utf8
    aa_DJ
    aa_DJ.iso88591
    aa_DJ.utf8
    ...
  • 시스템 로케일 설정의 현재 상태를 표시하려면 다음을 수행합니다.

    $ localectl status
  • 기본 시스템 로케일 설정을 설정하거나 변경하려면 root 사용자로 localectl set-locale 하위 명령을 사용합니다. 예를 들면 다음과 같습니다.

    # localectl set-locale LANG=en_US

추가 리소스

  • man localectl(1), man locale(7)man locale.conf(5)

2.3. 키보드 레이아웃 구성

키보드 레이아웃 설정은 텍스트 콘솔 및 그래픽 사용자 인터페이스에 사용되는 레이아웃을 제어합니다.

절차

  • 사용 가능한 키 맵을 나열하려면 다음을 수행합니다.

    $ localectl list-keymaps
    ANSI-dvorak
    al
    al-plisi
    amiga-de
    amiga-us
    ...
  • keymaps 설정의 현재 상태를 표시하려면 다음을 수행합니다.

    $ localectl status
    ...
    VC Keymap: us
    ...
  • 기본 시스템 키맵을 설정하거나 변경하려면 다음을 수행합니다. 예를 들면 다음과 같습니다.

    # localectl set-keymap us

추가 리소스

  • man localectl(1), man locale(7)man locale.conf(5)

2.4. 데스크탑 GUI를 사용하여 언어 변경

이 섹션에서는 데스크탑 GUI를 사용하여 시스템 언어를 변경하는 방법을 설명합니다.

사전 요구 사항

  • 필수 언어 패키지가 시스템에 설치되어 있습니다

절차

  1. 아이콘을 클릭하여 System(시스템) 메뉴에서 GNOME Control Center (GNOME 제어 센터)를 엽니다.

    cs system menu

  2. GNOME Control Center (GNOME 제어 센터)의 왼쪽 수직 막대에서 Region & Language (국가 및 언어)를 선택합니다.
  3. Language(언어 ) 메뉴를 클릭합니다.

    cs language menu

  4. 메뉴에서 필수 지역과 언어를 선택합니다.

    cs select region language

    지역 및 언어가 나열되지 않은 경우 아래로 스크롤하고 More (추가)를 클릭하여 사용 가능한 지역 및 언어 중에서 선택합니다.

    cs available region language

  5. Done(완료)을 클릭합니다.
  6. 변경 사항을 적용하려면 Restart (다시 시작)를 클릭합니다.

    cs restart region language

참고

일부 애플리케이션은 특정 언어를 지원하지 않습니다. 선택한 언어로 변환할 수 없는 애플리케이션 텍스트는 미국 영어로 유지됩니다.

2.5. 추가 리소스

3장. 네트워크 액세스 구성 및 관리

이 섹션에서는 Red Hat Enterprise Linux에서 이더넷 연결을 추가하는 방법에 대한 다양한 옵션에 대해 설명합니다.

3.1. 그래픽 설치 모드에서 네트워크 및 호스트 이름 구성

다음 프로세스의 단계에 따라 네트워크 및 호스트 이름을 구성합니다.

절차

  1. Installation Summary (설치 요약) 창에서 Network and Host Name(네트워크 및 호스트 이름)을 클릭합니다.
  2. 왼쪽 창의 목록에서 인터페이스를 선택합니다. 세부 정보는 오른쪽 창에 표시됩니다.

    참고
    • 영구적인 이름의 네트워크 장치를 식별하는 데 사용되는 네트워크 장치 이름 지정 표준 유형은 em1wl3sp0 입니다. 이러한 표준에 대한 자세한 내용은 네트워킹 구성 및 관리를 참조하십시오.
  3. ON/OFF(켜기/끄기) 스위치를 토글하여 선택한 인터페이스를 활성화하거나 비활성화합니다.

    참고

    설치 프로그램은 로컬에서 액세스할 수 있는 인터페이스를 자동으로 감지하고 수동으로 추가하거나 제거할 수 없습니다.

  4. + 를 클릭하여 가상 네트워크 인터페이스를 추가합니다. 이 인터페이스 중 하나는 다음과 같습니다. 팀, 본딩, 브리지 또는 VLAN.
  5. 가상 인터페이스를 제거하려면 - 를 클릭합니다.
  6. Configure(구성 )를 클릭하여 기존 인터페이스(가상 및 물리적 모두)의 IP 주소, DNS 서버 또는 라우팅 구성과 같은 설정을 변경합니다.
  7. Host Name(호스트 이름) 필드에 시스템의 호스트 이름을 입력합니다.

    참고
    • 호스트 이름은 hostname.domainname 형식의 FQDN(정규화된 도메인 이름)이거나 도메인 이름이 없는 짧은 호스트 이름일 수 있습니다. 많은 네트워크에는 도메인 이름을 사용하여 연결된 시스템을 자동으로 제공하는 DHCP(Dynamic Host Configuration Protocol) 서비스가 있습니다. DHCP 서비스에서 도메인 이름을 이 시스템에 할당할 수 있도록 하려면 짧은 호스트 이름만 지정합니다. localhost 값은 대상 시스템의 특정 정적 호스트 이름이 구성되지 않음을 의미하며, 설치된 시스템의 실제 호스트 이름은 네트워크 구성(예: DHCP 또는 DNS를 사용하는 NetworkManager )에서 구성됩니다.
    • 호스트 이름에는 영숫자 및 - 또는 . 호스트 이름은 - 및 로 시작하거나 종료할 수 없습니다 .
  8. Apply(적용 )를 클릭하여 설치 프로그램 환경에 호스트 이름을 적용합니다.
  9. 또는 Network and Hostname(네트워크 및 호스트 이름 ) 창에서 플레이버 옵션을 선택할 수 있습니다. 오른쪽 창에서 Select network (네트워크 선택)를 클릭하여 사용 가능한 연결을 선택하고 필요한 경우 암호를 입력하고 Done(완료)을 클릭합니다.

추가 리소스

3.2. nmcli를 사용하여 정적 이더넷 연결 구성

다음 절차에서는 nmcli 유틸리티를 사용하여 다음 설정으로 이더넷 연결을 추가하는 방법을 설명합니다.

  • 정적 IPv4 주소 - 192.0.2.1/24 서브넷 마스크
  • 정적 IPv6 주소 - 2001:db8:1::1/64 서브넷 마스크
  • IPv4 기본 게이트웨이 - 192.0.2.254
  • IPv6 기본 게이트웨이 - 2001:db8:1::fffe
  • IPv4 DNS 서버 - 192.0.2.200
  • IPv6 DNS 서버 - 2001:db8:1::ffbb
  • DNS 검색 도메인 - example.com

절차

  1. 이더넷 연결에 대한 새 NetworkManager 연결 프로필을 추가합니다.

    # nmcli connection add con-name Example-Connection ifname enp7s0 type ethernet

    추가 단계는 생성한 Example-Connection 연결 프로필을 수정합니다.

  2. IPv4 주소를 설정합니다.

    # nmcli connection modify Example-Connection ipv4.addresses 192.0.2.1/24
  3. IPv6 주소를 설정합니다.

    # nmcli connection modify Example-Connection ipv6.addresses 2001:db8:1::1/64
  4. IPv4 및 IPv6 연결 방법을 manual 로 설정합니다.

    # nmcli connection modify Example-Connection ipv4.method manual
    # nmcli connection modify Example-Connection ipv6.method manual
  5. IPv4 및 IPv6 기본 게이트웨이를 설정합니다.

    # nmcli connection modify Example-Connection ipv4.gateway 192.0.2.254
    # nmcli connection modify Example-Connection ipv6.gateway 2001:db8:1::fffe
  6. IPv4 및 IPv6 DNS 서버 주소를 설정합니다.

    # nmcli connection modify Example-Connection ipv4.dns "192.0.2.200"
    # nmcli connection modify Example-Connection ipv6.dns "2001:db8:1::ffbb"

    여러 DNS 서버를 설정하려면 공백으로 구분되어 따옴표로 묶으십시오.

  7. IPv4 및 IPv6 연결에 대한 DNS 검색 도메인을 설정합니다.

    # nmcli connection modify Example-Connection ipv4.dns-search example.com
    # nmcli connection modify Example-Connection ipv6.dns-search example.com
  8. 연결 프로필을 활성화합니다.

    # nmcli connection up Example-Connection
    Connection successfully activated (D-Bus active path: /org/freedesktop/NetworkManager/ActiveConnection/13)

검증 단계

  1. 장치 및 연결 상태를 표시합니다.

    # nmcli device status
    DEVICE      TYPE      STATE      CONNECTION
    enp7s0      ethernet  connected  Example-Connection
  2. 연결 프로필의 모든 설정을 표시하려면 다음을 수행합니다.

    # nmcli connection show Example-Connection
    connection.id:              Example-Connection
    connection.uuid:            b6cdfa1c-e4ad-46e5-af8b-a75f06b79f76
    connection.stable-id:       --
    connection.type:            802-3-ethernet
    connection.interface-name:  enp7s0
    ...
  3. ping 유틸리티를 사용하여 이 호스트가 다른 호스트에 패킷을 보낼 수 있는지 확인합니다.

    • 동일한 서브넷의 IP 주소를 ping합니다.

      IPv4의 경우:

      # ping 192.0.2.3

      IPv6의 경우:

      # ping 2001:db8:1::2

      명령이 실패하면 IP 및 서브넷 설정을 확인합니다.

    • 원격 서브넷의 IP 주소를 ping합니다.

      IPv4의 경우:

      # ping 198.162.3.1

      IPv6의 경우:

      # ping 2001:db8:2::1
      • 명령이 실패하면 기본 게이트웨이를 ping하여 설정을 확인합니다.

        IPv4의 경우:

        # ping 192.0.2.254

        IPv6의 경우:

        # ping 2001:db8:1::fff3
  4. 호스트 유틸리티를 사용하여 이름 확인이 작동하는지 확인합니다. 예를 들면 다음과 같습니다.

    # host client.example.com

    명령이 시간 초과되었거나 서버에 연결할 수 없는 경우와 같은 오류를 반환하는 경우 DNS 설정을 확인합니다.

문제 해결 단계

  1. 연결에 실패하거나 네트워크 인터페이스가 up 및 down 상태 간에 전환되는 경우:

    • 네트워크 케이블이 호스트 및 스위치에 플러그인되어 있는지 확인합니다.
    • 링크 실패가 이 호스트에만 있는지 또는 서버가 연결된 동일한 스위치에 연결된 다른 호스트에 있는지 확인합니다.
    • 네트워크 케이블과 네트워크 인터페이스가 예상대로 작동하는지 확인합니다. 하드웨어 진단 단계를 수행하고 결함 케이블 및 네트워크 인터페이스 카드를 교체합니다.
    • 디스크의 구성이 장치의 구성과 일치하지 않는 경우 NetworkManager를 시작하거나 다시 시작하면 장치 구성이 반영되는 메모리 내 연결이 생성됩니다. 자세한 내용과 이 문제를 방지하는 방법은 NetworkManager 서비스를 다시 시작한 후 NetworkManager에서 연결을 복제합니다.

3.3. nmtui를 사용하여 동적 이더넷 연결 구성

nmtui 애플리케이션 은 NetworkManager에 대한 텍스트 기반 사용자 인터페이스를 제공합니다. nmtui를 사용하여 그래픽 인터페이스 없이 호스트에서 동적 IP 주소로 이더넷 연결을 구성할 수 있습니다.

참고

nmtui:

  • 커서 키를 사용하여 이동합니다.
  • 버튼을 선택하고 Enter 를 누릅니다.
  • 스페이스 를 사용하여 확인란을 선택하고 선택 취소합니다.

절차

  1. 연결에 사용하려는 네트워크 장치 이름을 모르는 경우 사용 가능한 장치를 표시합니다.

    # nmcli device status
    DEVICE     TYPE      STATE                   CONNECTION
    enp7s0     ethernet  unavailable             --
    ...
  2. nmtui 시작:

    # nmtui
  3. Edit a connection (연결 편집)을 선택하고 Enter 를 누릅니다.
  4. Add (추가) 버튼을 누릅니다.
  5. 네트워크 유형 목록에서 이더넷 을 선택하고 Enter 를 누릅니다.
  6. 선택 사항: 생성할 NetworkManager 프로필의 이름을 입력합니다.
  7. 네트워크 장치 이름을 장치 필드에 입력합니다.
  8. 확인 버튼을 눌러 새 연결을 생성하고 자동으로 활성화합니다.

    nmtui 이더넷 동적 IP
  9. 로 버튼을 눌러 기본 메뉴로 돌아갑니다.
  10. Quit 를 선택하고 Enter 를 눌러 nmtui 애플리케이션을 종료 합니다.

검증

  1. 장치 및 연결 상태를 표시합니다.

    # nmcli device status
    DEVICE      TYPE      STATE      CONNECTION
    enp7s0      ethernet  connected  Example-Connection
  2. 연결 프로필의 모든 설정을 표시합니다.

    # nmcli connection show Example-Connection
    connection.id:              Example-Connection
    connection.uuid:            b6cdfa1c-e4ad-46e5-af8b-a75f06b79f76
    connection.stable-id:       --
    connection.type:            802-3-ethernet
    connection.interface-name:  enp7s0
    ...

3.4. nmtui를 사용하여 정적 이더넷 연결 구성

nmtui 애플리케이션 은 NetworkManager에 대한 텍스트 기반 사용자 인터페이스를 제공합니다. nmtui를 사용하여 그래픽 인터페이스 없이 호스트에서 정적 IP 주소로 이더넷 연결을 구성할 수 있습니다.

참고

nmtui:

  • 커서 키를 사용하여 이동합니다.
  • 버튼을 선택하고 Enter 를 누릅니다.
  • 스페이스 를 사용하여 확인란을 선택하고 선택 취소합니다.

절차

  1. 연결에 사용하려는 네트워크 장치 이름을 모르는 경우 사용 가능한 장치를 표시합니다.

    # nmcli device status
    DEVICE     TYPE      STATE                   CONNECTION
    enp7s0     ethernet  unavailable             --
    ...
  2. nmtui 시작:

    # nmtui
  3. Edit a connection (연결 편집)을 선택하고 Enter 를 누릅니다.
  4. Add (추가) 버튼을 누릅니다.
  5. 네트워크 유형 목록에서 이더넷 을 선택하고 Enter 를 누릅니다.
  6. 선택 사항: 생성할 NetworkManager 프로필의 이름을 입력합니다.
  7. 네트워크 장치 이름을 장치 필드에 입력합니다.
  8. IPv4 구성 및 IPv6 구성 영역에서 IPv4 및 IPv 6 주소 설정을 구성합니다.

    1. 자동 버튼을 누르고 표시된 목록에서 Manual 을 선택합니다.
    2. 추가 필드를 표시 하도록 구성할 프로토콜 옆에 있는 표시 버튼을 누릅니다.
    3. Addresses (Address) 옆에 있는 Add (추가) 버튼을 누르고 IP 주소 및 서브넷 마스크를 CIDR(Classless Inter-Domain Routing) 형식으로 입력합니다.

      서브넷 마스크를 지정하지 않으면 NetworkManager는 IPv4 주소에 대해 /32 서브넷 마스크를 설정하고 IPv6 주소에 대해 /64 를 설정합니다.

    4. 기본 게이트웨이의 주소를 입력합니다.
    5. DNS 서버 옆에 있는 Add (추가) 버튼을 누르고 DNS 서버 주소를 입력합니다.
    6. Search domains (검색 도메인) 옆에 있는 Add (추가) 버튼을 누르고 DNS 검색 도메인을 입력합니다.

    그림 3.1. 고정 IP 주소 설정이 포함된 이더넷 연결 예

    nmtui 이더넷 고정 IP
  9. 확인 버튼을 눌러 새 연결을 생성하고 자동으로 활성화합니다.
  10. 로 버튼을 눌러 기본 메뉴로 돌아갑니다.
  11. Quit 를 선택하고 Enter 를 눌러 nmtui 애플리케이션을 종료 합니다.

검증

  1. 장치 및 연결 상태를 표시합니다.

    # nmcli device status
    DEVICE      TYPE      STATE      CONNECTION
    enp7s0      ethernet  connected  Example-Connection
  2. 연결 프로필의 모든 설정을 표시합니다.

    # nmcli connection show Example-Connection
    connection.id:              Example-Connection
    connection.uuid:            b6cdfa1c-e4ad-46e5-af8b-a75f06b79f76
    connection.stable-id:       --
    connection.type:            802-3-ethernet
    connection.interface-name:  enp7s0
    ...

3.5. RHEL 웹 콘솔에서 네트워킹 관리

웹 콘솔에서 Networking (네트워킹) 메뉴를 사용하면 다음을 수행할 수 있습니다.

  • 현재 수신 및 전송된 패킷을 표시하려면
  • 사용 가능한 네트워크 인터페이스의 가장 중요한 특성을 표시
  • 네트워킹 로그의 콘텐츠를 표시합니다.
  • 다양한 유형의 네트워크 인터페이스를 추가하려면 (bond, team, bridge, VLAN)

그림 3.2. RHEL 웹 콘솔에서 네트워킹 관리

info 시작하기 네트워킹 새 기능

3.6. RHEL 시스템 역할을 사용하여 네트워킹 관리

네트워크 역할을 사용하여 여러 대상 머신에서 네트워킹 연결을 구성할 수 있습니다.

네트워크 역할을 사용하면 다음 유형의 인터페이스를 구성할 수 있습니다.

  • 이더넷
  • 브릿지
  • 본딩됨
  • VLAN
  • MacVLAN
  • InfiniBand

각 호스트에 필요한 네트워킹 연결은 network_connections 변수 내의 목록으로 제공됩니다.

주의

네트워크 역할은 network _connections 변수에 지정된 대로 타겟 시스템의 모든 연결 프로필을 업데이트하거나 생성합니다. 따라서 옵션이 시스템에만 있지만 network_connections 변수에 없는 경우 네트워크 역할은 지정된 프로필에서 옵션을 제거합니다.

다음 예제에서는 네트워크 역할을 적용하여 필수 매개 변수를 사용한 이더넷 연결이 있는지 확인하는 방법을 보여줍니다.

필수 매개 변수를 사용한 이더넷 연결을 설정하기 위해 네트워크 역할을 적용하는 예제

# SPDX-License-Identifier: BSD-3-Clause
---
- hosts: network-test
  vars:
    network_connections:

      # Create one ethernet profile and activate it.
      # The profile uses automatic IP addressing
      # and is tied to the interface by MAC address.
      - name: prod1
        state: up
        type: ethernet
        autoconnect: yes
        mac: "00:00:5e:00:53:00"
        mtu: 1450

  roles:
    - rhel-system-roles.network

3.7. 추가 리소스

4장. 시스템 등록 및 서브스크립션 관리

서브스크립션은 운영 체제 자체를 포함하여 Red Hat Enterprise Linux에 설치된 제품을 다룹니다.

Red Hat Content Delivery Network 서브스크립션을 사용하여 다음을 추적할 수 있습니다.

  • 등록된 시스템
  • 시스템에 제품이 설치되어 있습니다
  • 설치된 제품에 첨부된 서브스크립션

4.1. 설치 후 시스템 등록

설치 프로세스 중에 시스템을 등록하지 않은 경우 다음 절차에 따라 시스템을 등록하십시오.

사전 요구 사항

절차

  1. 한 단계로 시스템을 등록하고 자동으로 서브스크립션합니다.

    # subscription-manager register --username <username> --password <password> --auto-attach
    Registering to: subscription.rhsm.redhat.com:443/subscription
    The system has been registered with ID: 37to907c-ece6-49ea-9174-20b87ajk9ee7
    The registered system name is: client1.idm.example.com
    Installed Product Current Status:
    Product Name: Red Hat Enterprise Linux for x86_64
    Status:       Subscribed

    명령을 실행하면 Red Hat 고객 포털 사용자 이름과 암호를 입력하라는 메시지가 표시됩니다.

    등록 프로세스가 실패하면 시스템을 특정 풀에 등록할 수 있습니다. 수행하는 방법에 대한 지침을 보려면 다음 단계를 따르십시오.

    1. 필요한 서브스크립션의 풀 ID를 확인합니다.

      # subscription-manager list --available

      이 명령은 Red Hat 계정에 사용 가능한 모든 서브스크립션을 표시합니다. 모든 서브스크립션에 대해 풀 ID를 포함하여 다양한 특성이 표시됩니다.

    2. pool_id 를 이전 단계에서 확인한 풀 ID로 교체하여 시스템에 적절한 서브스크립션을 연결합니다.

      # subscription-manager attach --pool=pool_id
참고

Red Hat Insights에 시스템을 등록하려면 rhc connect 유틸리티를 사용할 수 있습니다. Red Hat 커넥터 설정을 참조하십시오.

4.2. 웹 콘솔에서 인증 정보로 서브스크립션 등록

다음 단계를 사용하여 RHEL 웹 콘솔을 사용하여 계정 자격 증명으로 새로 설치된 Red Hat Enterprise Linux를 등록합니다.

사전 요구 사항

  • Red Hat 고객 포털에서 유효한 사용자 계정.

    Red Hat 로그인 생성 페이지를 참조하십시오.

  • RHEL 시스템용 활성 서브스크립션.

절차

  1. RHEL 웹 콘솔에 로그인합니다. 자세한 내용은 웹 콘솔에 로그인을 참조하십시오.
  2. 개요 페이지의 Health filed에서 Not registered 경고를 클릭하거나 메인 메뉴에서 Subscriptions (서브스크립션)를 클릭하여 서브스크립션 정보를 페이지로 이동합니다.

    cockpit subscription Health .

  3. Overview filed에서 Register 를 클릭합니다.

    cockpit subscription Overview

  4. 시스템 등록 대화 상자에서 계정 자격 증명을 사용하여 등록할 항목을 선택합니다.In the Register system dialog box, select that you want to register using your account credentials.

    cockpit subscriptions account

  5. 사용자 이름을 입력합니다.
  6. 암호를 입력합니다.
  7. 필요한 경우 조직의 이름 또는 ID를 입력합니다.

    Red Hat 고객 포털에서 두 개 이상의 조직에 속해 있는 경우 조직 이름 또는 조직 ID를 추가해야 합니다. 조직 ID를 얻으려면 Red Hat 연락처로 이동하십시오.

    • 시스템을 Red Hat Insights에 연결하지 않으려면 Insights 확인란을 선택 취소합니다.
  8. Register 버튼을 클릭합니다.

이제 Red Hat Enterprise Linux 시스템이 성공적으로 등록되었습니다.

4.3. GNOME에서 Red Hat 계정을 사용하여 시스템 등록

다음 절차의 단계에 따라 시스템을 Red Hat 계정에 등록하십시오.

사전 요구 사항

  • Red Hat 고객 포털에서 유효한 계정.

    새 사용자 등록은 Create a Red Hat Login (Red Hat 로그인 만들기) 페이지를 참조하십시오.

절차

  1. 오른쪽 상단에서 액세스할 수 있는 시스템 메뉴로 이동하여 Settings (설정) 아이콘을 클릭합니다.
  2. DetailsAbout (세부 정보 정보) 섹션에서 Register(등록 )를 클릭합니다.
  3. Registration Server (등록 서버)를 선택합니다.
  4. Red Hat 서버를 사용하지 않는 경우 URL 필드에 서버 주소를 입력합니다.
  5. 등록 유형 메뉴에서 Red Hat 계정을 선택합니다.
  6. 등록 정보 아래 :

    • 로그인 필드에 Red Hat 계정 사용자 이름을 입력합니다.
    • 암호 필드에 Red Hat 계정 암호를 입력합니다.
    • Organization (조직) 필드에 조직 이름을 입력합니다.
  7. Register(등록 )를 클릭합니다.

4.4. GNOME에서 활성화 키를 사용하여 시스템 등록

이 절차의 단계에 따라 시스템을 활성화 키에 등록합니다. 조직 관리자로부터 활성화 키를 가져올 수 있습니다.

사전 요구 사항

  • 활성화 키 또는 키.

    활성화 키를 생성하려면 활성화 키 페이지를 참조하십시오.

절차

  1. 오른쪽 상단에서 액세스할 수 있는 시스템 메뉴로 이동하여 Settings (설정) 아이콘을 클릭합니다.
  2. DetailsAbout (세부 정보 정보) 섹션에서 Register(등록 )를 클릭합니다.
  3. Registration Server (등록 서버)를 선택합니다.
  4. Red Hat 서버를 사용하지 않는 경우 사용자 지정된 서버의 URL 을 입력합니다.
  5. Registration Type(등록 유형 ) 메뉴에서 Activation Keys (활성화 키)를 선택합니다.
  6. 등록 정보 아래 :

    • 활성화 키 입력.

      여러 키를 쉼표(,)로 구분합니다.

    • 조직 필드에 조직의 이름 또는 ID를 입력합니다.
  7. 레지스터를 클릭합니다.

4.5. 설치 프로그램 GUI를 사용하여 RHEL 8 등록

RHEL 설치 프로그램 GUI를 사용하여 새로 설치한 Red Hat Enterprise Linux 8을 등록하려면 다음 단계를 사용합니다.

사전 요구 사항

  • Red Hat 고객 포털에서 유효한 사용자 계정. Red Hat 로그인 생성 페이지를 참조하십시오.

    사용자 계정에 적절한 인타이틀먼트가 있거나 계정이 Simple Content Access 모드에서 작동하는 경우 활성화 키를 제공하지 않고 사용자 이름 및 암호만 사용하여 등록할 수 있습니다.

  • 유효한 활성화 키 및 조직 ID

절차

  1. 계정 또는 활성화 키 옵션을 사용하여 Red Hat 계정을 인증합니다.

    RHEL 8.4 registration

  2. Set System Purpose (시스템 용도 설정) 필드를 선택하고 드롭다운 메뉴에서 RHEL 8 설치에 대한 Role,SLA 및 Usage를 선택합니다.

    rhel 8.4 system subscription step 4

    현재 Red Hat Enterprise Linux 8 시스템이 성공적으로 등록되었습니다.

5장. 부팅 시 systemd 서비스 시작

시스템 관리자는 시스템에서 서비스가 시작되는 방식을 결정할 수 있습니다. 서비스 관리의 경우 systemctl 명령줄 유틸리티를 사용하여 systemd 시스템 및 서비스 관리자를 제어하거나 RHEL 웹 콘솔을 사용할 수 있습니다.

5.1. 서비스 활성화 또는 비활성화

시스템 관리자는 부팅 시 서비스를 활성화하거나 비활성화할 수 있으며 이러한 변경 사항은 다음 재부팅 시 적용됩니다. 부팅 시 자동으로 서비스를 시작하려면 이 서비스를 활성화해야 합니다. 서비스를 비활성화하면 부팅 시 시작되지 않지만 수동으로 시작할 수 있습니다. 수동으로 시작할 수 없도록 서비스를 마스킹할 수도 있습니다. 마스킹은 서비스를 다시 마스크 해제할 때까지 영구적으로 사용할 수 없게 하는 서비스를 비활성화하는 방법입니다.

사전 요구 사항

  • 시스템에 대한 루트 액세스 권한이 있어야 합니다.
  • 사용하려는 서비스는 마스킹할 수 없습니다. 마스킹된 서비스가 있는 경우 먼저 마스킹을 해제해야 합니다.

    # systemctl unmask service_name

절차

  1. 부팅 시 시작할 서비스를 활성화합니다.

    # systemctl enable service_name

    service_name 을 활성화하려는 서비스로 교체합니다.

    또한 단일 명령으로 서비스를 활성화하고 시작할 수도 있습니다.

    # systemctl enable --now service_name
  2. 부팅 시 시작할 서비스를 비활성화합니다.

    # systemctl disable service_name

    service_name 을 비활성화하려는 서비스로 바꿉니다.

    서비스를 영구적으로 사용할 수 없게 하려면 서비스를 마스크하십시오.

    # systemctl mask service_name

5.2. RHEL 웹 콘솔에서 서비스 관리

RHEL 웹 콘솔을 사용하여 부팅 시 서비스를 활성화 또는 비활성화할 수 있습니다. 웹 콘솔에서 서비스 상태를 확인하거나, 서비스를 시작 또는 중지하거나, 마스킹할 수도 있습니다.

사전 요구 사항

  • 시스템에 대한 루트 액세스 권한이 있어야 합니다.
  • 웹 콘솔을 설치하고 활성화했습니다.

절차

  1. 기본 설정의 웹 브라우저에서 localhost:9090 을 엽니다.
  2. 시스템에서 루트 자격 증명을 사용하여 웹 콘솔에 로그인합니다.
  3. 웹 콘솔 패널을 표시하려면 창의 왼쪽 상단에 있는 Host (호스트) 아이콘을 클릭합니다.

    서비스 웹 콘솔 관리
  4. 메뉴에서 Services (서비스)를 클릭합니다.

    systemd 대상, 서비스, 소켓, 타이머 및 경로를 관리할 수 있습니다.

  5. 예를 들어 서비스 NFS 클라이언트 서비스를 관리하려면 다음을 수행합니다.

    1. Targets(대상) 를 클릭합니다.
    2. 서비스 NFS 클라이언트 서비스를 선택합니다.
    3. 서비스를 활성화하거나 비활성화하려면 Toogle 버튼을 클릭합니다.
    4. 서비스를 중지하려면 UTC 버튼을 클릭하고 Stop (중지) 옵션을 선택합니다.

      서비스 웹 콘솔 중지

6장. 시스템 보안 구성

컴퓨터 보안은 컴퓨터 시스템과 하드웨어, 소프트웨어, 정보 및 서비스의 도난, 손상, 중단 및 오작동으로부터 보호하는 것입니다. 특히 중요한 데이터를 처리하고 비즈니스 트랜잭션을 처리하는 기업에서 컴퓨터 보안이 필수적인 작업인지 확인합니다.

이 섹션에서는 운영 체제를 설치한 후 구성할 수 있는 기본 보안 기능만 설명합니다.

6.1. firewalld 서비스 활성화

방화벽은 구성된 보안 규칙에 따라 들어오고 나가는 네트워크 트래픽을 모니터링하고 제어하는 네트워크 보안 시스템입니다. 방화벽은 일반적으로 신뢰할 수 있는 안전한 내부 네트워크와 다른 외부 네트워크 간의 장벽을 설정합니다.

Red Hat Enterprise Linux에서 방화벽을 제공하는 firewalld 서비스는 설치 중에 자동으로 활성화됩니다.

firewalld 서비스를 활성화하려면 다음 절차를 따르십시오.

절차

  • firewalld 의 현재 상태를 표시합니다 :

    $ systemctl status firewalld
    ● firewalld.service - firewalld - dynamic firewall daemon
       Loaded: loaded (/usr/lib/systemd/system/firewalld.service; disabled; vendor preset: enabled)
       Active: inactive (dead)
    ...
  • firewalld 가 활성화되어 실행되고 있지 않으면 root 사용자로 전환하고 firewalld 서비스를 시작하고 시스템이 다시 시작되면 자동으로 시작합니다.

    # systemctl enable --now firewalld

검증 단계

  • firewalld 가 실행 중이고 활성화되어 있는지 확인합니다.

    $ systemctl status firewalld
    ● firewalld.service - firewalld - dynamic firewall daemon
       Loaded: loaded (/usr/lib/systemd/system/firewalld.service; enabled; vendor preset: enabled)
       Active: active (running)
    ...

추가 리소스

6.2. rhel 8 웹 콘솔에서 방화벽 관리

웹 콘솔에서 firewalld 서비스를 구성하려면 NetworkingFirewall (방화벽) 로 이동합니다.

기본적으로 firewalld 서비스는 활성화됩니다.

절차

  1. 웹 콘솔에서 firewalld 를 활성화하거나 비활성화하려면 Firewall 토글 버튼을 전환합니다.

    scos 시작하기 방화벽 새 기능
참고

또한 Add services…​를 사용하여 방화벽을 통해 서비스에 대한 보다 세밀한 액세스를 정의할 수 있습니다. 버튼.

6.3. 기본 SELinux 설정 관리

SELinux(Security-Enhanced Linux)는 어떤 프로세스가 어떤 파일, 디렉터리 및 포트에 액세스할 수 있는지를 결정하는 추가 시스템 보안 계층입니다. 이러한 권한은 SELinux 정책에 정의되어 있습니다. 정책은 SELinux 보안 엔진을 안내하는 규칙 집합입니다.

SELinux의 가능한 상태는 다음과 같습니다.

  • 비활성화됨
  • 활성화됨

SELinux가 활성화되면 다음 모드 중 하나로 실행됩니다.

  • 활성화됨

    • 강제
    • 허용

강제 모드에서 SELinux는 로드된 정책을 적용합니다. SELinux는 SELinux 정책 규칙을 기반으로 액세스를 거부하고 명시적으로 허용되는 상호 작용만 활성화합니다. 강제 모드는 가장 안전한 SELinux 모드이며 설치 후 기본 모드입니다.

허용 모드에서 SELinux는 로드된 정책을 시행하지 않습니다. SELinux는 액세스를 거부하지 않지만 규칙을 /var/log/audit/audit.log 로그로 손상시키는 작업을 보고합니다. 허용 모드는 설치 중에 기본 모드입니다. 허용 모드는 특정 사례(예: 문제를 해결할 때 유용함)에서도 유용합니다.

추가 리소스

6.4. selinux의 필수 상태 확인

기본적으로 SELinux는 강제 모드에서 작동합니다. 그러나 특정 시나리오에서는 SELinux를 허용 모드로 설정하거나 비활성화할 수도 있습니다.

중요

시스템을 강제 모드로 유지하는 것이 좋습니다. 디버깅을 위해 SELinux를 허용 모드로 설정할 수 있습니다.

시스템에서 SELinux의 상태와 모드를 변경하려면 다음 절차를 따르십시오.

절차

  1. 현재 SELinux 모드를 표시합니다.

    $ getenforce
  2. 일시적으로 SELinux를 설정하려면 다음을 수행합니다.

    1. 강제 모드로 전환하려면 다음을 수행합니다.

      # setenforce Enforcing
    2. 허용 모드로 전환하려면 다음을 수행합니다.

      # setenforce Permissive
      참고

      재부팅 후 SELinux 모드는 /etc/selinux/config 구성 파일에 지정된 값으로 설정됩니다.

  3. 재부팅 시 지속되도록 SELinux 모드를 설정하려면 /etc/selinux/config 구성 파일에서 SELINUX 변수를 수정합니다.

    예를 들어 SELinux를 강제 모드로 전환하려면 다음을 수행합니다.

    # This file controls the state of SELinux on the system.
    # SELINUX= can take one of these three values:
    #     enforcing - SELinux security policy is enforced.
    #     permissive - SELinux prints warnings instead of enforcing.
    #     disabled - No SELinux policy is loaded.
    SELINUX=enforcing
    ...
    주의

    SELinux를 비활성화하면 시스템 보안이 저하됩니다. /etc/selinux/config 파일에서 SELINUX=disabled 옵션을 사용하여 SELinux를 비활성화하면 메모리 누수 및 경쟁 조건이 발생하여 커널 패닉이 발생할 수 있기 때문입니다. 대신 커널 명령줄에 selinux=0 매개 변수를 추가하여 SELinux를 비활성화합니다. 자세한 내용은 부팅 시 SELinux 모드 변경을 참조하십시오.

6.5. RHEL 8 웹 콘솔에서 SELinux 모드 전환

SELinux 메뉴 항목의 RHEL 8 웹 콘솔을 통해 SELinux 모드를 설정할 수 있습니다.

기본적으로 웹 콘솔의 SELinux 강제 정책은 이며 SELinux는 강제 모드로 작동합니다. 이를 끄면 SELinux를 허용 모드로 전환합니다. 다음 부팅 시 /etc/sysconfig/selinux 파일에 정의된 구성으로 이 선택 사항이 자동으로 복원됩니다.

절차

  1. 웹 콘솔에서 SELinux 메뉴 항목에서 Enforce policy toggle(강제 정책 토글) 버튼을 사용하여 SELinux 강제 정책 켜거나 끕니다.

    scs 시작하기 selinux

6.6. 추가 리소스

7장. 사용자 계정 관리 시작하기

Red Hat Enterprise Linux는 여러 컴퓨터의 여러 사용자가 하나의 시스템에 설치된 단일 시스템에 액세스할 수 있도록 하는 다중 사용자 운영 체제입니다. 모든 사용자는 자체 계정으로 작동하므로 사용자 계정을 관리하므로 Red Hat Enterprise Linux 시스템 관리의 핵심 요소가 됩니다.

다음은 다양한 유형의 사용자 계정입니다.

  • 일반 사용자 계정:

    특정 시스템의 사용자에 대한 일반 계정이 생성됩니다. 이러한 계정은 일반 시스템 관리 중에 추가, 제거 및 수정할 수 있습니다.

  • 시스템 사용자 계정:

    시스템 사용자 계정은 시스템의 특정 애플리케이션 식별자를 나타냅니다. 이러한 계정은 일반적으로 소프트웨어 설치 시에만 추가 또는 조작되며 나중에 수정되지 않습니다.

    주의

    시스템 계정은 시스템에서 로컬로 사용할 수 있다고 가정합니다. LDAP 구성 인스턴스와 같이 이러한 계정을 원격으로 구성하고 제공되는 경우 시스템 중단 및 서비스 시작 오류가 발생할 수 있습니다.

    시스템 계정의 경우 1000 미만의 사용자 ID가 예약됩니다. 일반 계정의 경우 1000부터 시작하는 ID를 사용할 수 있습니다. 그러나 5000에서 시작하는 ID를 할당하는 것이 좋습니다. ID를 할당하려면 /etc/login.defs 파일을 참조하십시오.

  • 그룹:

    그룹은 특정 파일에 대한 액세스 권한 부여 등 공통 목적으로 여러 사용자 계정을 연결하는 엔터티입니다.

7.1. 명령줄 도구를 사용하여 계정 및 그룹 관리

이 섹션에서는 사용자 계정 및 그룹을 관리하는 기본 명령줄 툴에 대해 설명합니다.

  • 사용자 및 그룹 ID를 표시하려면 다음을 수행합니다.

    $ id
    uid=1000(example.user) gid=1000(example.user) groups=1000(example.user),10(wheel) context=unconfined_u:unconfined_r:unconfined_t:s0-s0:c0.c1023
  • 새 사용자 계정을 생성하려면 다음을 수행합니다.

    # useradd example.user
  • example.user에 속하는 사용자 계정에 새 암호를 할당하려면 다음을 수행합니다.

    # passwd example.user
  • 그룹에 사용자를 추가하려면 다음을 수행합니다.

    # usermod -a -G example.group example.user

추가 리소스

  • man useradd(8), man passwd(1)man usermod(8)

7.2. 웹 콘솔에서 관리하는 시스템 사용자 계정

RHEL 웹 콘솔에 사용자 계정을 표시하면 다음을 수행할 수 있습니다.

  • 시스템에 액세스할 때 사용자를 인증합니다.
  • 시스템에 대한 액세스 권한을 설정합니다.

RHEL 웹 콘솔에는 시스템에 있는 모든 사용자 계정이 표시됩니다. 따라서 웹 콘솔에 처음 로그인한 직후 하나 이상의 사용자 계정을 볼 수 있습니다.

RHEL 웹 콘솔에 로그인한 후 다음 작업을 수행할 수 있습니다.

  • 새 사용자 계정 생성.
  • 매개 변수 변경.
  • 계정 잠금.
  • 사용자 세션 종료.

7.3. 웹 콘솔을 사용하여 새 계정 추가

다음 단계를 사용하여 시스템에 사용자 계정을 추가하고 RHEL 웹 콘솔을 통해 계정에 관리 권한을 설정합니다.

사전 요구 사항

  • RHEL 웹 콘솔을 설치하고 액세스할 수 있어야 합니다. 자세한 내용은 웹 콘솔 설치를 참조하십시오.

절차

  1. RHEL 웹 콘솔에 로그인합니다.
  2. Accounts (계정)를 클릭합니다.
  3. Create New Account (새 계정 만들기)를 클릭합니다.
  1. Full Name (전체 이름) 필드에 사용자의 전체 이름을 입력합니다.

    RHEL 웹 콘솔은 전체 이름에서 사용자 이름을 자동으로 제안하고 User Name(사용자 이름 ) 필드에 채웁니다. 이름 및 전체 성의 첫 번째 문자로 구성된 원래 명명 규칙을 사용하지 않으려면 제안 사항을 업데이트합니다.

  2. Password/Confirm (암호/확인) 필드에 암호를 입력하고 암호가 올바른지 확인하기 위해 암호를 다시 입력합니다.

    필드에 저장된 색상 표시줄은 입력한 암호의 보안 수준을 나타내므로 암호가 취약한 사용자를 만들 수 없습니다.

  1. Create(만들기 )를 클릭하여 설정을 저장하고 대화 상자를 닫습니다.
  2. 새로 생성된 계정을 선택합니다.
  3. Roles (역할) 항목에서 Server Administrator( 서버 관리자)를 선택합니다.

    cockpit terminate session pf4

    이제 계정 설정에서 새 계정을 볼 수 있으며 자격 증명을 사용하여 시스템에 연결할 수 있습니다.

8장. 나중에 분석을 위해 충돌한 커널 덤프

시스템이 충돌한 이유를 분석하기 위해 kdump 서비스를 사용하여 나중에 분석을 위해 시스템 메모리의 내용을 저장할 수 있습니다. 이 섹션에서는 kdump 에 대한 간략한 소개와 RHEL 웹 콘솔을 사용하여 kdump 를 구성하거나 해당 RHEL 시스템 역할을 사용하는 방법에 대한 정보를 제공합니다.

8.1. kdump란 무엇입니까?

kdump 는 크래시 덤프 메커니즘을 제공하는 서비스입니다. 이 서비스를 사용하면 분석을 위해 시스템 메모리의 내용을 저장할 수 있습니다. kdumpkexec 시스템 호출을 사용하여 재부팅하지 않고 두 번째 커널(커널 캡처 커널 )로 부팅한 다음 충돌 된 커널의 메모리 콘텐츠를 캡처하여 파일에 저장합니다. 두 번째 커널은 시스템 메모리의 예약된 부분에 상주합니다.

중요

커널 크래시 덤프는 시스템 장애 발생 시(심각한 버그)에서 사용할 수 있는 유일한 정보일 수 있습니다. 따라서 운영 kdump 는 미션 크리티컬한 환경에서 중요합니다. Red Hat은 시스템 관리자가 일반 커널 업데이트 주기에서 kexec-tools 를 정기적으로 업데이트하고 테스트할 것을 권장합니다. 이는 새로운 커널 기능을 구현할 때 특히 중요합니다.

머신의 설치된 모든 커널 또는 지정된 커널에서만 kdump 를 활성화할 수 있습니다. 이 기능은 시스템에 사용된 커널이 여러 개 있을 때 유용하며 그 중 일부는 충돌할 수 있다는 우려가 없을 정도로 안정적입니다.

kdump 가 설치되면 기본 /etc/kdump.conf 파일이 생성됩니다. 파일에는 기본 최소 kdump 구성이 포함되어 있습니다. 이 파일을 편집하여 kdump 구성을 사용자 지정할 수 있지만 필수는 아닙니다.

8.2. 웹 콘솔에서 kdump 메모리 사용량 및 대상 위치 구성

아래 절차는 RHEL 웹 콘솔 인터페이스에서 Kernel Dump(커널 덤프 ) 탭을 사용하여 kdump 커널에 대해 예약된 메모리 양을 구성하는 방법을 보여줍니다. 이 절차에서는 vmcore 덤프 파일의 대상 위치를 지정하는 방법과 구성을 테스트하는 방법을 설명합니다.

절차

  1. Kernel Dump 탭을 열고 kdump 서비스를 시작합니다.
  2. 명령줄을 사용하여 kdump 메모리 사용량을 구성합니다.
  3. Crash dump 위치 옵션 옆에 있는 링크를 클릭합니다.

    Cockpit kdump 기본 화면
  4. 드롭다운에서 Local Filesystem 옵션을 선택하고 덤프를 저장할 디렉터리를 지정합니다.

    Cockpit kdump 위치
    • 또는 드롭다운에서 Remote over SSH (SSH를 통한 원격) 옵션을 선택하여 SSH 프로토콜을 사용하여 vmcore를 원격 시스템으로 전송합니다.

      Server,ssh 키디렉터리 필드를 원격 시스템 주소, ssh 키 위치 및 대상 디렉토리로 채웁니다.

    • 또 다른 선택 사항은 드롭다운에서 NFS를 통한 Remote (원격) 옵션을 선택하고 NFS 프로토콜을 사용하여 vmcore를 원격 시스템으로 보내도록 Mount (마운트) 필드를 채우는 것입니다.

      참고

      압축 확인란을 선택하여 vmcore 파일의 크기를 줄입니다.

  5. 커널을 충돌하여 구성을 테스트합니다.

    Cockpit kdump 테스트
    1. 테스트 구성 을 클릭합니다.
    2. Test kdump 설정 필드에서 Crash 시스템을 클릭합니다.

      주의

      이 단계에서는 커널 실행을 중단하고 시스템이 충돌하고 데이터가 손실됩니다.

8.3. RHEL 시스템 역할을 사용하는 Kdump

RHEL 시스템 역할은 여러 RHEL 시스템을 원격으로 관리하는 일관된 구성 인터페이스를 제공하는 Ansible 역할 및 모듈 컬렉션입니다. kdump 역할을 사용하면 여러 시스템에서 기본 커널 덤프 매개 변수를 설정할 수 있습니다.

주의

kdump 역할은 /etc/kdump.conf 파일을 대체하여 관리 호스트의 kdump 구성을 완전히 대체합니다. 또한 kdump 역할이 적용된 경우 /etc/sysconfig/kdump 파일을 대체하여 역할 변수로 지정하지 않아도 이전 kdump 설정도 교체됩니다.

다음 예제 플레이북은 kdump 시스템 역할을 적용하여 크래시 덤프 파일의 위치를 설정하는 방법을 보여줍니다.

---
- hosts: kdump-test
  vars:
    kdump_path: /var/crash
  roles:
    - rhel-system-roles.kdump

kdump 역할 변수에 대한 자세한 참조는 rhel-system-roles 패키지를 설치하고 /usr/share/doc/rhel-system-roles/kdump 디렉터리의 README.md 또는 README.html 파일을 참조하십시오.

8.4. 추가 리소스

9장. 시스템 복구 및 복원

기존 백업을 사용하여 시스템을 복구하고 복원하기 위해 Red Hat Enterprise Linux는 Relax-and- recovery(ReaR) 유틸리티를 제공합니다.

유틸리티를 재해 복구 솔루션 및 시스템 마이그레이션에도 사용할 수 있습니다.

유틸리티를 사용하면 다음 작업을 수행할 수 있습니다.

  • 이미지를 사용하여 부팅 가능한 이미지를 생성하고 기존 백업에서 시스템을 복원합니다.
  • 원래 스토리지 레이아웃을 복제합니다.
  • 사용자 및 시스템 파일을 복원합니다.
  • 시스템을 다른 하드웨어로 복원합니다.

또한 재해 복구의 경우 특정 백업 소프트웨어를 ReaR과 통합할 수도 있습니다.

ReaR 설정에는 다음과 같은 고급 단계가 포함됩니다.

  1. ReaR 설치.
  2. ReaR 구성 파일을 수정하여 백업 방법 세부 정보를 추가합니다.
  3. 복구 시스템 생성.
  4. 백업 파일을 생성합니다.

9.1. ReaR 설정

다음 단계에 따라 Relax-and-Recover(ReaR) 유틸리티를 사용하는 패키지를 설치하고 복구 시스템을 생성하고 백업을 구성 및 생성합니다.

사전 요구 사항

  • 백업 복원 계획에 따라 필요한 구성이 준비됩니다.

    ReaR과 함께 완전히 통합된 기본 제공 방법인 NETFS 백업 방법을 사용할 수 있습니다.

절차

  1. 다음 명령을 실행하여 ReaR 유틸리티를 설치합니다.

    # yum install rear
  2. 선택한 편집기에서 ReaR 구성 파일을 수정합니다. 예를 들면 다음과 같습니다.

    # vi /etc/rear/local.conf
  3. /etc/rear/local.conf 에 백업 설정 세부 정보를 추가합니다. 예를 들어 NETFS 백업 방법의 경우 다음 행을 추가합니다.

    BACKUP=NETFS
    BACKUP_URL=backup.location

    backup.location 을 백업 위치의 URL로 바꿉니다.

  4. 새 파일이 생성될 때 이전 백업 아카이브를 유지하도록 ReaR을 구성하려면 구성 파일에 다음 행도 추가합니다.

    NETFS_KEEP_OLD_BACKUP_COPY=y
  5. 백업을 점진적으로 만들려면 각 실행에서 변경된 파일만 백업하려면 다음 행을 추가합니다.

    BACKUP_TYPE=incremental
  6. 복구 시스템을 생성합니다.

    # rear mkrescue
  7. 복원 계획에 따라 백업을 수행합니다. 예를 들어 NETFS 백업 방법의 경우 다음 명령을 실행합니다.

    # rear mkbackuponly

    또는 다음 명령을 실행하여 단일 단계에서 복구 시스템 및 백업을 생성할 수 있습니다.

    # rear mkbackup

    이 명령은 rear mkrescue 및 rear mk backuponly 명령의 기능을 결합합니다.

9.2. 64비트 IBM Z 아키텍처에서 ReaR rescue 이미지 사용

Basic Relax and Recover (ReaR) 기능은 이제 64비트 IBM Z 아키텍처에서 기술 프리뷰로 제공됩니다. IBM Z에서 z/VM 환경에서만 복구 이미지를 생성할 수 있습니다. LPAR(Logical partitions) 백업 및 복구는 테스트되지 않았습니다.

중요

64비트 IBM Z 아키텍처는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. Red Hat은 프로덕션 환경에서 사용하지 않는 것이 좋습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다. Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 https://access.redhat.com/support/offerings/techpreview 에서 참조하십시오.

현재 사용 가능한 출력 방법은 초기 프로그램 로드(IPL)입니다. IPL은 zIPL 부트로더와 함께 사용할 수 있는 커널 및 초기 램디스크(initrd)를 생성합니다.

사전 요구 사항

  • Rear가 설치되어 있습니다.

    • ReaR을 설치하려면 yum install rear 명령을 실행합니다.

절차

다음 변수를 /etc/rear/local.conf 에 추가하여 64비트 IBM Z 아키텍처에서 복구 이미지를 생성하도록 ReaR을 구성합니다.

  1. IPL 출력 방법을 구성하려면 OUTPUT=IPL 을 추가합니다.
  2. 백업 방법 및 대상을 구성하려면 RuntimeClass 및 octets _URL 변수를 추가합니다. 예를 들면 다음과 같습니다.

    BACKUP=NETFS
    
    BACKUP_URL=nfs://<nfsserver name>/<share path>
    중요

    로컬 백업 스토리지는 현재 64비트 IBM Z 아키텍처에서 지원되지 않습니다.

  3. 선택적으로 커널 및 initrd 파일을 저장할 수 있도록 OUTPUT_URL 변수를 구성할 수도 있습니다. 기본적으로 OUTPUT_URL 은 etcdctl_URL에 맞게 조정됩니다.
  4. 백업 및 복구 이미지 생성을 수행하려면 다음을 수행합니다.

    rear mkbackup
  5. 이렇게 하면 EgressIP _URL 또는 OUTPUT_URL (설정된 경우) 변수에서 지정한 위치에 커널 및 initrd 파일이 생성되고 지정된 백업 방법을 사용하여 백업을 생성합니다.
  6. 시스템을 복구하려면 3단계에서 만든 ReaR 커널 및 initrd 파일을 사용하고, zipl 부트 로더, 커널, initrd를 사용하여 준비한 zipl boot loader, kernel 및 initrd를 사용하여 준비한 FCP( Direct Attached Storage Device) 또는 FCP(Fibre Channel Protocol)에서 부팅하십시오. 자세한 내용은 Prepared DASD 사용을 참조하십시오.
  7. rescue 커널 및 initrd 가 부팅되면 ReaR rescue 환경을 시작합니다. 시스템 복구를 진행합니다.
주의

현재 복구 프로세스는 시스템에 연결된 모든 DASD(Direct Attached Storage 장치)를 다시 포맷합니다. 시스템 스토리지 장치에 중요한 데이터가 있는 경우 시스템 복구를 시도하지 마십시오. 여기에는 복구 환경으로 부팅하는 데 사용된 zipl 부트로더, ReaR 커널 및 initrd가 준비된 장치도 포함됩니다. 복사본을 유지해야 합니다.

10장. 로그 파일을 사용하여 문제 해결

로그 파일에는 커널, 서비스 및 실행 중인 애플리케이션을 포함하여 시스템에 대한 메시지가 포함되어 있습니다. 여기에는 문제를 해결하거나 시스템 기능을 모니터링하는 데 도움이 되는 정보가 포함됩니다. Red Hat Enterprise Linux의 로깅 시스템은 기본 제공된 syslog 프로토콜을 기반으로 합니다. 특정 프로그램은 이 시스템을 사용하여 이벤트를 기록하고 이를 로그 파일로 구성하여 운영 체제를 감사하고 다양한 문제를 해결할 때 유용합니다.

10.1. syslog 메시지를 처리하는 서비스

다음 두 서비스는 syslog 메시지를 처리합니다.

  • systemd-journald 데몬
  • Rsyslog 서비스

systemd-journald 데몬은 다양한 소스에서 메시지를 수집하고 추가 처리를 위해 Rsyslog 에 전달합니다. systemd-journald 데몬은 다음 소스에서 메시지를 수집합니다.

  • 커널
  • 부팅 프로세스 초기 단계
  • 데몬을 시작하고 실행할 때의 표준 및 오류 출력
  • syslog

Rsyslog 서비스는 syslog 메시지를 유형 및 우선 순위에 따라 정렬하여 /var/log 디렉터리의 파일에 기록합니다. /var/log 디렉토리는 로그 메시지를 영구적으로 저장합니다.

10.2. syslog 메시지를 저장하는 하위 디렉터리

/var/log 디렉토리 아래에 있는 다음 하위 디렉터리는 syslog 메시지를 저장합니다.

  • /var/log/messages - 다음을 제외한 모든 syslog 메시지
  • /var/log/secure - 보안 및 인증 관련 메시지 및 오류
  • /var/log/maillog - 메일 서버 관련 메시지 및 오류
  • /var/log/cron - 정기적으로 실행된 작업과 관련된 로그 파일
  • /var/log/boot.log - 시스템 시작과 관련된 로그 파일

10.3. 웹 콘솔을 사용하여 로그 파일 검사

이 절차의 단계에 따라 RHEL 웹 콘솔을 사용하여 로그 파일을 검사합니다.

절차

  1. RHEL 웹 콘솔에 로그인합니다. 자세한 내용은 웹 콘솔로의 로깅 을 참조하십시오.
  2. 로그를 클릭합니다.

그림 10.1. RHEL 8 웹 콘솔에서 로그 파일 검사

로그 보기

10.4. 명령줄을 사용하여 로그 보기

저널은 로그 파일을 보고 관리하는 데 도움이 되는 systemd의 구성 요소입니다. 기존 로깅과 연결된 문제를 해결하고 나머지 시스템과 긴밀하게 통합되며 로그 파일의 다양한 로깅 기술과 액세스 관리를 지원합니다.

journalctl 명령을 사용하여 명령줄을 사용하여 시스템 저널의 메시지를 볼 수 있습니다. 예를 들면 다음과 같습니다.

$ journalctl -b | grep kvm
May 15 11:31:41 localhost.localdomain kernel: kvm-clock: Using msrs 4b564d01 and 4b564d00
May 15 11:31:41 localhost.localdomain kernel: kvm-clock: cpu 0, msr 76401001, primary cpu clock
...

표 10.1. 시스템 정보 보기

명령설명

journalctl

는 수집된 모든 저널 항목을 표시합니다.

journalctl FILEPATH

는 특정 파일과 관련된 로그를 표시합니다. 예를 들어 journalctl /dev/sda 명령은 /dev/sda 파일 시스템과 관련된 로그를 표시합니다.

journalctl -b

현재 부팅에 대한 로그를 표시합니다.

journalctl -k -b -1

현재 부팅에 대한 커널 로그를 표시합니다.

표 10.2. 특정 서비스에 대한 정보 보기

명령설명

journalctl -b _SYSTEMD_UNIT=foo

로그를 필터링하여 "foo" systemd 서비스와 일치하는 항목을 확인합니다.

journalctl -b _SYSTEMD_UNIT=foo _PID=number

일치 결합. 예를 들어, 이 명령은 foo 및 PID 번호와 일치하는 systemd-units 의 로그를 표시합니다.

journalctl -b _SYSTEMD_UNIT=foo _PID=number + _SYSTEMD_UNIT=foo1

구분 기호 "+"는 두 표현식을 논리적 OR로 결합합니다. 예를 들어, 이 명령은 foo 서비스 프로세스의 모든 메시지를 PID 와 함께 foo1 서비스의 모든 메시지와 함께 표시합니다(프로세스의 모든 메시지).

journalctl -b _SYSTEMD_UNIT=foo _SYSTEMD_UNIT=foo1

이 명령은 동일한 필드를 참조하여 두 표현식과 일치하는 모든 항목을 표시합니다. 여기서 이 명령은 systemd-unit foo 또는 systemd-unit foo 1 과 일치하는 로그를 표시합니다.

표 10.3. 특정 부팅과 관련된 로그 보기

명령설명

journalctl --list-boots

에는 부팅 번호, ID 및 부팅과 관련된 첫 번째 및 마지막 메시지의 타임스탬프 목록이 표시됩니다. 다음 명령의 ID를 사용하여 자세한 정보를 볼 수 있습니다.

journalctl --boot=ID _SYSTEMD_UNIT=foo

지정된 부팅 ID에 대한 정보를 표시합니다.

10.5. 추가 리소스

11장. Red Hat 지원에 액세스

이 섹션에서는 Red Hat 지원 및 sosreport 를 사용하여 문제를 효과적으로 해결하는 방법을 설명합니다.

Red Hat으로부터 지원을 받으려면 서브스크립션이 제공되는 모든 항목에 액세스할 수 있는 Red Hat 고객 포털 을 사용하십시오.

11.1. Red Hat 고객 포털을 통해 Red Hat 지원 요청

다음 섹션에서는 Red Hat 고객 포털을 사용하여 도움을 얻는 방법에 대해 설명합니다.

사전 요구 사항

  • Red Hat 고객 포털에서 유효한 사용자 계정. Red Hat 로그인 생성 단원 을 참조하십시오.
  • RHEL 시스템용 활성 서브스크립션.

절차

  1. Red Hat 지원에 액세스 :

    1. 새 지원 사례 열기.
    2. Red Hat 전문가와 함께 실시간 채팅 시작.
    3. 전화 문의 또는 이메일 전송은 Red Hat 전문가에게 문의하십시오.

11.2. sosreport를 사용하여 문제 해결

sosreport 명령은 Red Hat Enterprise Linux 시스템에서 구성 세부 정보, 시스템 정보 및 진단 정보를 수집합니다.

다음 섹션에서는 sosreport 명령을 사용하여 지원 사례에 대한 보고서를 생성하는 방법을 설명합니다.

사전 요구 사항

  • Red Hat 고객 포털에서 유효한 사용자 계정. Red Hat 로그인 생성 단원 을 참조하십시오.
  • RHEL 시스템용 활성 서브스크립션.
  • 지원 케이스 번호.

절차

  1. sos 패키지를 설치합니다.

    # yum install sos
    참고

    Red Hat Enterprise Linux의 기본 최소 설치에는 sosreport 명령을 제공하는 sos 패키지가 포함되지 않습니다.

  2. 보고서를 생성합니다.

    # sosreport
  3. 지원 사례에 보고서를 첨부합니다.

    Red Hat 지원 케이스에 파일을 첨부하려면 어떻게 해야 합니까? 자세한 내용은 Red Hat 지식베이스 문서.

    보고서를 첨부할 때 관련 지원 케이스 수를 입력하라는 메시지가 표시됩니다.

12장. 소프트웨어 패키지 관리

12.1. RHEL 8의 소프트웨어 관리 툴

RHEL 8에서는 DNF 기술을 기반으로 하는 새로운 버전의 YUM 툴(YUM v4)을 통해 소프트웨어 설치가 활성화됩니다.

참고

업스트림 설명서는 기술을 DNF 로 식별하고 도구는 업스트림에서 DNF 라고 합니다. 결과적으로 RHEL 8의 새로운 YUM 툴에서 반환한 일부 출력에는 DNF 가 표시됩니다.

RHEL 8에서 사용되는 YUM v4DNF 를 기반으로 하지만 RHEL 7에서 사용되는 YUM v3 과 호환됩니다. 소프트웨어 설치의 경우 yum 명령과 대부분의 옵션은 RHEL 7에서처럼 RHEL 8에서와 동일한 방식으로 작동합니다.

선택한 yum 플러그인과 유틸리티는 새 DNF 백엔드로 포팅되었으며 RHEL 7과 동일한 이름으로 설치할 수 있습니다. 패키지는 호환성 심볼릭 링크를 제공하므로 바이너리, 구성 파일 및 디렉터리를 일반적인 위치에서 찾을 수 있습니다.

YUM v3 에서 제공하는 레거시 Python API는 더 이상 사용할 수 없습니다. 플러그인 및 스크립트를 안정적이고 완벽하게 지원되는 YUM v4 (DNF Python API)에서 제공하는 새 API로 마이그레이션할 수 있습니다. 자세한 내용은 DNF API 참조를 참조하십시오.

12.2. 애플리케이션 스트림

RHEL 8에는 Application Streams의 개념이 도입되었습니다. 이제 여러 버전의 사용자 공간 구성 요소가 핵심 운영 체제 패키지보다 더 자주 제공되고 업데이트됩니다. 이는 플랫폼 또는 특정 배포의 기본 안정성에 영향을 주지 않고 Red Hat Enterprise Linux를 사용자 지정할 수 있는 유연성을 향상시킵니다.

Application Streams로 제공되는 구성 요소는 모듈 또는 RPM 패키지로 패키징할 수 있으며 RHEL 8의 AppStream 리포지토리를 통해 제공됩니다. 각 Application Stream에는 RHEL 8과 동일하거나 짧은 라이프사이클이 있으며 특정 애플리케이션에 더 적합합니다. 라이프사이클이 짧은 Application Streams는 Red Hat Enterprise Linux 8 Application Streams 라이프 사이클 페이지에 나열되어 있습니다.

모듈은 논리 단위, 애플리케이션, 언어 스택, 데이터베이스 또는 툴 세트를 나타내는 패키지 컬렉션입니다. 이러한 패키지는 함께 빌드, 테스트, 릴리스됩니다.

모듈 스트림은 Application Stream 구성 요소의 버전을 나타냅니다. 예를 들어 postgresql 모듈에서 두 개의 스트림(버전)의 PostgreSQL 데이터베이스 서버를 사용할 수 있습니다. PostgreSQL 10(기본 스트림) 및 PostgreSQL 9.6. 시스템에는 하나의 모듈 스트림만 설치할 수 있습니다. 개별 컨테이너에서 서로 다른 버전을 사용할 수 있습니다.

자세한 모듈 명령은 사용자 공간 구성 요소 설치, 관리 및 제거 문서에서 설명합니다. AppStream에서 사용 가능한 모듈 목록은 패키지 매니페스트를 참조하십시오.

12.3. 소프트웨어 패키지 검색

yum 을 사용하면 소프트웨어 패키지를 사용하여 전체 작업 세트를 수행할 수 있습니다.

다음 섹션에서는 yum 을 사용하여 다음을 수행하는 방법을 설명합니다.

  • 패키지를 검색합니다.
  • 패키지 나열.
  • 리포지토리를 나열합니다.
  • 패키지에 대한 정보를 표시합니다.
  • 패키지 그룹 나열.
  • yum 입력에서 전역 표현식을 지정합니다.

12.3.1. YUM을 사용하여 패키지 검색

다음 절차에 따라 특정 애플리케이션 또는 기타 콘텐츠를 제공하는 패키지를 찾으십시오.

절차

  • 패키지를 검색하려면 다음을 사용합니다.

    # yum search term

    용어를 패키지와 관련된 용어로 바꿉니다.

    yum search 명령은 패키지 이름 및 요약 내에서 일치하는 용어를 반환합니다. 그러면 검색이 더 빨라지고 이름을 모르는 패키지를 검색할 수 있지만 관련 용어를 알고 있습니다.

  • 패키지 설명 내에서 일치하는 용어를 포함하려면 다음을 사용하십시오.

    # yum search --all term

    용어를 패키지 이름, 요약 또는 설명에서 검색하려는 용어로 바꿉니다.

    yum search --all 을 사용하면 더 포괄적이지만 느린 검색을 사용할 수 있습니다.

12.3.2. YUM을 사용하여 패키지 나열

다음 절차에 따라 설치 및 사용 가능한 패키지를 나열하십시오.

절차

  • 설치되어 사용 가능한 모든 패키지에 대한 정보를 나열하려면 다음을 사용합니다.

    # yum list --all
  • 시스템에 설치된 모든 패키지를 나열하려면 다음을 사용합니다.

    # yum list --installed
  • 설치할 수 있는 모든 활성화된 리포지토리의 모든 패키지를 나열하려면 다음을 사용합니다.

    # yum list --available

글로벌 표현식을 인수로 추가하여 결과를 필터링할 수 있습니다. 자세한 내용은 yum 입력에서 전역 표현식 지정을 참조하십시오.

12.3.3. YUM을 사용하여 리포지토리 나열

다음 절차에 따라 활성화된 리포지토리를 나열하고 비활성화합니다.

절차

  • 시스템에서 활성화된 모든 리포지토리를 나열하려면 다음을 사용합니다.

    # yum repolist
  • 시스템에서 비활성화된 리포지토리를 모두 나열하려면 다음을 사용합니다.

    # yum repolist --disabled
  • 활성화된 리포지토리와 비활성화된 리포지토리를 모두 나열하려면 다음을 사용합니다.

    # yum repolist --all
  • 리포지토리에 대한 추가 정보를 나열하려면 다음을 사용합니다.

    # yum repoinfo

리포지토리의 ID 또는 이름을 인수로 전달하거나 전역 표현식을 추가하여 결과를 필터링할 수 있습니다. 자세한 내용은 yum 입력에서 전역 표현식 지정을 참조하십시오.

12.3.4. YUM을 사용하여 패키지 정보 표시

YUM(버전, 릴리스, 크기, 로드된 플러그인 등)을 사용하여 패키지에 대한 다양한 유형의 정보를 표시할 수 있습니다.

절차

  • 하나 이상의 패키지에 대한 정보를 표시하려면 다음을 사용합니다.

    # yum info package-name

    package-name 을 패키지 이름으로 바꿉니다.

글로벌 표현식을 인수로 추가하여 결과를 필터링할 수 있습니다. 자세한 내용은 yum 입력에서 전역 표현식 지정을 참조하십시오.

12.3.5. YUM을 사용하여 패키지 그룹 나열

yum 을 사용하여 설치된 패키지 그룹을 보고 목록 결과를 필터링합니다.

절차

  • 설치되어 사용 가능한 그룹 수를 보려면 다음을 사용합니다.

    # yum group summary
  • 설치되어 사용 가능한 그룹을 모두 나열하려면 다음을 사용합니다.

    # yum group list

    yum group list 명령(--hidden, -- available)에 대한 명령줄 옵션을 추가하여 결과를 필터링할 수 있습니다. 사용 가능한 옵션은 도움말 페이지를 참조하십시오.

  • 특정 그룹에 포함된 필수 및 선택적 패키지를 나열하려면 다음을 사용합니다.

    # yum group info group-name

    group-name 을 그룹 이름으로 바꿉니다.

글로벌 표현식을 인수로 추가하여 결과를 필터링할 수 있습니다. 자세한 내용은 yum 입력에서 전역 표현식 지정을 참조하십시오.

12.3.6. YUM 입력에서 글로벌 표현식 지정

yum 명령을 사용하면 하나 이상의 glob 표현식 을 인수로 추가하여 결과를 필터링할 수 있습니다. 전역 표현식을 yum 명령에 인수로 전달할 때 이스케이프해야 합니다.

절차

전역 표현식이 의도한 대로 yum 에 전달되도록 하려면 다음 방법 중 하나를 사용합니다.

  • 전체 글로벌 표현식을 큰따옴표 또는 단일 따옴표로 묶습니다.

    # yum provides "*/file-name"

    file-name 을 파일 이름으로 바꿉니다.

  • 와일드카드 문자를 백슬래시(\)문자로이스케이프합니다.

    # yum provides \*/file-name

    file-name 을 파일 이름으로 바꿉니다.

12.4. 소프트웨어 패키지 설치

다음 섹션에서는 yum 을 사용하여 다음을 수행하는 방법을 설명합니다.

  • 패키지 설치.
  • 패키지 그룹을 설치합니다.
  • yum 입력으로 패키지 이름을 지정합니다.

12.4.1. YUM을 사용하여 패키지 설치

  • 패키지 및 모든 패키지 종속성을 설치하려면 다음을 사용합니다.

    # yum install package-name

    package-name 을 패키지 이름으로 바꿉니다.

  • 여러 패키지와 해당 종속 패키지를 동시에 설치하려면 다음을 사용합니다.

    # yum install package-name-1 package-name-2

    package-name-1package-name-2 를 패키지 이름으로 바꿉니다.

  • 멀티 라이브러리 시스템 (AMD64, Intel 64 시스템)에 패키지를 설치할 때 패키지 이름에 패키지를 추가하여 패키지의 아키텍처를 지정할 수 있습니다.

    # yum install package-name.arch

    package-name.arch 를 패키지의 이름 및 아키텍처로 바꿉니다.

  • 설치하려는 바이너리의 이름을 알고 있지만 패키지 이름은 아닌 경우 바이너리의 경로를 인수로 사용할 수 있습니다.

    # yum install /usr/sbin/binary-file

    /usr/sbin/binary-file 을 바이너리 파일의 경로로 바꿉니다.

    yum 은 패키지 목록을 검색하고 /usr/sbin/binary-file 을 제공하는 패키지를 찾은 다음 설치 여부를 묻는 메시지를 표시합니다.

  • 로컬 디렉터리에서 이전에 다운로드된 패키지를 설치하려면 다음을 사용합니다.

    # yum install /path/

    /path/ 를 패키지 경로로 바꿉니다.

인수를 구문 분석하는 방법을 명시적으로 정의하여 패키지 검색을 최적화할 수 있습니다. 자세한 내용은 12.4.3절. “YUM 입력에서 패키지 이름 지정”를 참조하십시오.

12.4.2. YUM을 사용하여 패키지 그룹 설치

다음 절차에서는 yum 을 사용하여 그룹 이름 또는 groupID로 패키지 그룹을 설치하는 방법을 설명합니다.

절차

  • 그룹 이름으로 패키지 그룹을 설치하려면 다음을 사용합니다.

    # yum group install group-name

    또는

    # yum install @group-name

    group-name 을 그룹 또는 환경 그룹의 전체 이름으로 바꿉니다.

  • groupID로 패키지 그룹을 설치하려면 다음을 사용합니다.

    # yum group install groupID

    groupID 를 그룹의 ID로 바꿉니다.

12.4.3. YUM 입력에서 패키지 이름 지정

설치 및 제거 프로세스를 최적화하기 위해 yum installyum remove 명령에 -n,-na 또는 -nevra 접미사를 추가하여 인수 구문 분석 방법을 명시적으로 정의할 수 있습니다.

  • 정확한 이름을 사용하여 패키지를 설치하려면 다음을 사용합니다.

    # yum install-n name

    name 을 정확한 패키지 이름으로 바꿉니다.

  • 정확한 이름 및 아키텍처를 사용하여 패키지를 설치하려면 다음을 사용합니다.

    # yum install-na name.architecture

    이름아키텍처를 패키지의 정확한 이름 및 아키텍처로 바꿉니다.

  • 정확한 이름, epoch, 버전, 릴리스 및 아키텍처를 사용하여 패키지를 설치하려면 다음을 사용합니다.

    # yum install-nevra name-epoch:version-release.architecture

    name,epoch,version,releasearchitecture 을 정확한 이름, epoch, 버전, 릴리스 및 아키텍처로 바꿉니다.

12.5. 소프트웨어 패키지 업데이트

yum 을 사용하면 시스템에 보류 중인 업데이트가 있는지 확인할 수 있습니다. 업데이트해야 하는 패키지를 나열하고 단일 패키지, 여러 패키지 또는 모든 패키지를 한 번에 업데이트하도록 선택할 수 있습니다. 업데이트하도록 선택한 패키지에 종속성이 있는 경우 해당 패키지도 업데이트됩니다.

다음 섹션에서는 yum 을 사용하여 다음을 수행하는 방법을 설명합니다.

  • 업데이트를 확인합니다.
  • 단일 패키지를 업데이트합니다.
  • 패키지 그룹을 업데이트합니다.
  • 모든 패키지 및 해당 종속성을 업데이트합니다.
  • 보안 업데이트 적용.
  • 소프트웨어 업데이트 자동화.

12.5.1. YUM을 사용하여 업데이트 확인

다음 절차에서는 yum 을 사용하여 시스템에 설치된 패키지에 대해 사용 가능한 업데이트를 확인하는 방법을 설명합니다.

절차

  • 시스템에 설치된 패키지를 확인할 수 있는 업데이트를 보려면 다음을 사용합니다.

    # yum check-update

    출력에는 사용 가능한 업데이트가 있는 패키지 목록과 해당 종속 항목이 반환됩니다.

12.5.2. YUM을 사용하여 단일 패키지 업데이트

yum 을 사용하여 단일 패키지 및 해당 종속 항목을 업데이트하려면 다음 절차를 사용하십시오.

  • 패키지를 업데이트하려면 다음을 사용합니다.

    # yum update package-name

    package-name 을 패키지 이름으로 바꿉니다.

중요

업데이트를 커널에 적용하는 경우 yum update 또는 yum install 명령을 사용하는지에 관계없이 yum 은 항상 커널을 설치합니다.

12.5.3. YUM을 사용하여 패키지 그룹 업데이트

다음 절차에 따라 yum 을 사용하여 패키지 그룹과 해당 종속 항목을 업데이트합니다.

절차

  • 패키지 그룹을 업데이트하려면 다음을 사용합니다.

    # yum group update group-name

    group-name 을 패키지 그룹의 이름으로 바꿉니다.

12.5.4. YUM을 사용하여 모든 패키지 및 종속 항목 업데이트

다음 절차에 따라 yum 을 사용하여 모든 패키지 및 해당 종속 항목을 업데이트합니다.

절차

  • 모든 패키지 및 해당 종속성을 업데이트하려면 다음을 사용합니다.

    # yum update

12.5.6. 소프트웨어 업데이트 자동화

패키지 업데이트를 자동으로 및 정기적으로 확인하고 다운로드하려면 dnf-automatic 패키지에서 제공하는 DNF 자동 도구를 사용할 수 있습니다.

DNF Automatic 은 systemd 타이머, cron 작업 및 기타 해당 도구를 사용하여 자동 및 일반 실행에 적합한 대체 명령줄 인터페이스입니다.

DNF Automatic 은 필요에 따라 패키지 메타데이터를 동기화한 다음 사용 가능한 업데이트를 확인합니다. 그런 다음 도구는 구성 방법에 따라 다음 작업 중 하나를 수행할 수 있습니다.

  • 종료
  • 업데이트된 패키지 다운로드
  • 업데이트 다운로드 및 적용

그런 다음 표준 출력 또는 이메일과 같이 선택한 메커니즘에서 작업 결과를 보고합니다.

12.5.6.1. DNF 자동 설치

다음 절차에서는 DNF 자동 툴을 설치하는 방법을 설명합니다.

절차

  • dnf-automatic 패키지를 설치하려면 다음을 사용합니다.

    # yum install dnf-automatic

검증 단계

  • 설치에 성공했는지 확인하려면 다음 명령을 실행하여 dnf-automatic 패키지가 있는지 확인합니다.

    # rpm -qi dnf-automatic

12.5.6.2. DNF 자동 구성 파일

기본적으로 DNF 자동 에서는 /etc/dnf/automatic.conf 를 구성 파일로 사용하여 동작을 정의합니다.

구성 파일은 다음 주제 섹션으로 구분됩니다.

  • [명령] 섹션

    DNF 자동 의 작동 모드를 설정합니다.

  • [emitters] 섹션

    DNF 자동 의 결과를 보고하는 방법을 정의합니다.

  • [command_email] 섹션

    이메일을 보내는 데 사용되는 외부 명령의 이메일 발송자 구성을 제공합니다.

  • [이메일] 섹션

    전자 메일 발송자 구성을 제공합니다.

  • [base] 섹션

    yum의 기본 구성 파일의 설정을 재정의합니다.

/etc/dnf/automatic.conf 파일의 기본 설정을 사용하여 DNF 자동 검사에서 사용 가능한 업데이트를 확인하고 다운로드한 다음 결과를 표준 출력으로 보고합니다.

주의

[commands] 섹션에서 작업 모드 설정은 dnf-automatic.timer 을 제외한 모든 타이머 장치에 대해 systemd 타이머 장치에서 사용하는 설정으로 재정의됩니다.

추가 리소스

12.5.6.3. DNF 자동 활성화

DNF 자동 을 실행하려면 항상 특정 systemd 타이머 장치를 활성화하고 시작해야 합니다. dnf-automatic 패키지에 제공된 타이머 장치 중 하나를 사용하거나 필요에 따라 고유한 타이머 장치를 작성할 수 있습니다.

다음 섹션에서는 DNF 자동 활성화 방법을 설명합니다.

사전 요구 사항

  • /etc/dnf/automatic.conf 구성 파일을 수정하여 DNF 자동 동작을 지정했습니다.

DNF 자동 구성 파일에 대한 자세한 내용은 단원 2.5.6.2, "DNF 자동 구성 파일"을 참조하십시오.

절차

  • 필요에 맞는 systemd 타이머 장치를 선택, 활성화 및 시작합니다.

    # systemctl enable --now <unit>

    여기서 <unit> 은 다음 타이머 중 하나입니다.

    • dnf-automatic-download.timer
    • dnf-automatic-install.timer
    • dnf-automatic-notifyonly.timer
    • dnf-automatic.timer

사용 가능한 업데이트를 다운로드하려면 다음을 사용하십시오.

# systemctl enable dnf-automatic-download.timer
# systemctl start dnf-automatic-download.timer

사용 가능한 업데이트를 다운로드하고 설치하려면 다음을 사용하십시오.

# systemctl enable dnf-automatic-install.timer
# systemctl start dnf-automatic-install.timer

사용 가능한 업데이트에 대한 보고는 다음을 사용합니다.

# systemctl enable dnf-automatic-notifyonly.timer
# systemctl start dnf-automatic-notifyonly.timer

선택적으로 다음을 사용할 수 있습니다.

# systemctl enable dnf-automatic.timer
# systemctl start dnf-automatic.timer

업데이트를 다운로드하고 적용하는 측면에서 본 타이머 장치는 /etc/dnf/automatic.conf 구성 파일의 설정에 따라 작동합니다. 기본 동작은 dnf-automatic-download.timer: 업데이트된 패키지를 다운로드하지만 설치하지는 않습니다.

참고

또는 명령줄 또는 사용자 지정 스크립트에서 직접 /usr/bin/dnf-automatic 파일을 실행하여 DNF 자동 을 실행할 수도 있습니다.

검증 단계

  • 타이머가 활성화되었는지 확인하려면 다음 명령을 실행합니다.

    # systemctl status <systemd timer unit>

추가 리소스

12.5.6.4. dnf-automatic 패키지에 포함된 systemd 타이머 단위 개요

systemd 타이머 단위는 업데이트를 다운로드하고 적용하는 데 관한 /etc/dnf/automatic.conf 구성 파일의 설정을 우선하고 재정의합니다.

예를 들어 /etc/dnf/automatic.conf 구성 파일에서 다음 옵션을 설정했지만 dnf-automatic-notifyonly.timer 장치를 활성화한 경우 패키지는 다운로드되지 않습니다.

download_updates = yes

dnf-automatic 패키지에는 다음과 같은 systemd 타이머 장치가 포함되어 있습니다.

타이머 단위함수/etc/dnf/automatic.conf 파일의 설정을 재정의합니까?

dnf-automatic-download.timer

캐시할 패키지를 다운로드하고 업데이트할 수 있도록 합니다.

참고: 이 타이머 장치는 업데이트된 패키지를 설치하지 않습니다. 설치를 수행하려면 dnf update 명령을 실행해야 합니다.

있음

dnf-automatic-install.timer

업데이트된 패키지를 다운로드하고 설치합니다.

있음

dnf-automatic-notifyonly.timer

리포지토리 데이터만 다운로드하여 리포지토리 캐시를 최신 상태로 유지하고 사용 가능한 업데이트에 대해 알립니다.

참고: 이 타이머 장치는 업데이트된 패키지를 다운로드하거나 설치하지 않습니다

있음

dnf-automatic.timer

업데이트를 다운로드하고 적용하기 위한 이 타이머의 동작은 /etc/dnf/automatic.conf 구성 파일의 설정에 의해 지정됩니다.

기본 동작은 dnf-automatic-download.timer 단위와 동일합니다. 패키지만 다운로드하지만 설치하지는 않습니다.

없음

추가 리소스

  • dnf-automatic 타이머에 대한 자세한 내용은 man dnf-automatic 도움말 페이지를 참조하십시오.
  • /etc/dnf/automatic.conf 구성 파일에 대한 자세한 내용은 DNF 자동 구성 파일을참조하십시오.

12.6. 소프트웨어 패키지 제거

다음 섹션에서는 yum 을 사용하여 다음을 수행하는 방법을 설명합니다.

  • 패키지 제거.
  • 패키지 그룹을 제거합니다.
  • yum 입력으로 패키지 이름을 지정합니다.

12.6.1. YUM을 사용하여 패키지 제거

다음 절차에 따라 그룹 이름 또는 groupID로 패키지를 제거합니다.

절차

  • 특정 패키지 및 모든 종속 패키지를 제거하려면 다음을 사용합니다.

    # yum remove package-name

    package-name 을 패키지 이름으로 바꿉니다.

  • 여러 패키지와 해당 종속 항목을 동시에 제거하려면 다음을 사용합니다.

    # yum remove package-name-1 package-name-2

    package-name-1package-name-2 를 패키지 이름으로 바꿉니다.

참고

yum 은 패키지를 제거하지 않고 패키지를 제거할 수 없습니다.

인수를 구문 분석하는 방법을 명시적으로 정의하여 패키지 검색을 최적화할 수 있습니다. 자세한 내용은 yum input에서 패키지 이름 지정을 참조하십시오.

12.6.2. YUM을 사용하여 패키지 그룹 제거

다음 절차에 따라 그룹 이름 또는 groupID로 패키지를 제거합니다.

절차

  • 그룹 이름으로 패키지 그룹을 제거하려면 다음을 사용합니다.

    # yum group remove group-name

    또는

    # yum remove @group-name

    group-name 을 그룹의 전체 이름으로 바꿉니다.

  • groupID로 패키지 그룹을 제거하려면 다음을 사용합니다.

    # yum group remove groupID

    groupID 를 그룹의 ID로 바꿉니다.

12.6.3. YUM 입력에서 패키지 이름 지정

설치 및 제거 프로세스를 최적화하기 위해 yum installyum remove 명령에 -n,-na 또는 -nevra 접미사를 추가하여 인수 구문 분석 방법을 명시적으로 정의할 수 있습니다.

  • 정확한 이름을 사용하여 패키지를 설치하려면 다음을 사용합니다.

    # yum install-n name

    name 을 정확한 패키지 이름으로 바꿉니다.

  • 정확한 이름 및 아키텍처를 사용하여 패키지를 설치하려면 다음을 사용합니다.

    # yum install-na name.architecture

    이름아키텍처를 패키지의 정확한 이름 및 아키텍처로 바꿉니다.

  • 정확한 이름, epoch, 버전, 릴리스 및 아키텍처를 사용하여 패키지를 설치하려면 다음을 사용합니다.

    # yum install-nevra name-epoch:version-release.architecture

    name,epoch,version,releasearchitecture 을 정확한 이름, epoch, 버전, 릴리스 및 아키텍처로 바꿉니다.

12.7. 소프트웨어 패키지 그룹 관리

패키지 그룹은 공통 목적을 제공하는 패키지 컬렉션입니다(시스템 도구, 사운드 및 비디오). 패키지 그룹을 설치하면 종속 패키지 집합이 가져와 시간을 크게 절약할 수 있습니다.

다음 섹션에서는 yum 을 사용하여 다음을 수행하는 방법을 설명합니다.

  • 패키지 그룹 나열.
  • 패키지 그룹을 설치합니다.
  • 패키지 그룹을 제거합니다.
  • yum 입력에서 전역 표현식을 지정합니다.

12.7.1. YUM을 사용하여 패키지 그룹 나열

yum 을 사용하여 설치된 패키지 그룹을 보고 목록 결과를 필터링합니다.

절차

  • 설치되어 사용 가능한 그룹 수를 보려면 다음을 사용합니다.

    # yum group summary
  • 설치되어 사용 가능한 그룹을 모두 나열하려면 다음을 사용합니다.

    # yum group list

    yum group list 명령(--hidden, -- available)에 대한 명령줄 옵션을 추가하여 결과를 필터링할 수 있습니다. 사용 가능한 옵션은 도움말 페이지를 참조하십시오.

  • 특정 그룹에 포함된 필수 및 선택적 패키지를 나열하려면 다음을 사용합니다.

    # yum group info group-name

    group-name 을 그룹 이름으로 바꿉니다.

글로벌 표현식을 인수로 추가하여 결과를 필터링할 수 있습니다. 자세한 내용은 yum 입력에서 전역 표현식 지정을 참조하십시오.

12.7.2. YUM을 사용하여 패키지 그룹 설치

다음 절차에서는 yum 을 사용하여 그룹 이름 또는 groupID로 패키지 그룹을 설치하는 방법을 설명합니다.

절차

  • 그룹 이름으로 패키지 그룹을 설치하려면 다음을 사용합니다.

    # yum group install group-name

    또는

    # yum install @group-name

    group-name 을 그룹 또는 환경 그룹의 전체 이름으로 바꿉니다.

  • groupID로 패키지 그룹을 설치하려면 다음을 사용합니다.

    # yum group install groupID

    groupID 를 그룹의 ID로 바꿉니다.

12.7.3. YUM을 사용하여 패키지 그룹 제거

다음 절차에 따라 그룹 이름 또는 groupID로 패키지를 제거합니다.

절차

  • 그룹 이름으로 패키지 그룹을 제거하려면 다음을 사용합니다.

    # yum group remove group-name

    또는

    # yum remove @group-name

    group-name 을 그룹의 전체 이름으로 바꿉니다.

  • groupID로 패키지 그룹을 제거하려면 다음을 사용합니다.

    # yum group remove groupID

    groupID 를 그룹의 ID로 바꿉니다.

12.7.4. YUM 입력에서 글로벌 표현식 지정

yum 명령을 사용하면 하나 이상의 glob 표현식 을 인수로 추가하여 결과를 필터링할 수 있습니다. 전역 표현식을 yum 명령에 인수로 전달할 때 이스케이프해야 합니다.

절차

전역 표현식이 의도한 대로 yum 에 전달되도록 하려면 다음 방법 중 하나를 사용합니다.

  • 전체 글로벌 표현식을 큰따옴표 또는 단일 따옴표로 묶습니다.

    # yum provides "*/file-name"

    file-name 을 파일 이름으로 바꿉니다.

  • 와일드카드 문자를 백슬래시(\)문자로이스케이프합니다.

    # yum provides \*/file-name

    file-name 을 파일 이름으로 바꿉니다.

12.8. 패키지 관리 내역 처리

yum history 명령을 사용하면 yum 트랜잭션의 타임라인, 발생한 날짜 및 시간, 영향을 받는 패키지 수, 이러한 트랜잭션의 성공 또는 중단 여부, 트랜잭션 간에 RPM 데이터베이스 변경에 대한 정보를 검토할 수 있습니다. 또한 yum history 명령을 사용하여 트랜잭션을 실행 취소하거나 다시 실행할 수 있습니다.

다음 섹션에서는 yum 을 사용하여 다음을 수행하는 방법을 설명합니다.

  • 트랜잭션 나열.
  • 트랜잭션 되돌리기.
  • 트랜잭션 반복.
  • yum 입력에서 전역 표현식을 지정합니다.

12.8.1. YUM을 사용하여 트랜잭션 나열

다음 절차에 따라 최신 트랜잭션, 선택한 패키지에 대한 최신 작업 및 특정 트랜잭션의 세부 정보를 나열합니다.

절차

  • 최신 yum 트랜잭션 목록을 표시하려면 다음을 사용합니다.

    # yum history
  • 선택한 패키지에 대한 모든 최신 작업 목록을 표시하려면 다음을 사용합니다.

    # yum history list package-name

    package-name 을 패키지 이름으로 바꿉니다. 전역 표현식을 추가하여 명령 출력을 필터링할 수 있습니다. 자세한 내용은 yum 입력에서 전역 표현식 지정을 참조하십시오.

  • 특정 트랜잭션을 검사하려면 다음을 사용합니다.

    # yum history info transactionID

    transactionID 를 트랜잭션의 ID로 바꿉니다.

12.8.2. YUM을 사용하여 트랜잭션 복원

다음 절차에서는 yum 을 사용하여 선택한 트랜잭션 또는 마지막 트랜잭션을 되돌리는 방법을 설명합니다.

절차

  • 특정 트랜잭션을 되돌리려면 다음을 사용합니다.

    # yum history undo transactionID

    transactionID 를 트랜잭션의 ID로 바꿉니다.

  • 마지막 트랜잭션을 되돌리려면 다음을 사용합니다.

    # yum history undo last

yum history undo 명령은 트랜잭션 중에 수행된 단계만 되돌립니다. 트랜잭션이 새 패키지를 설치한 경우 yum history undo 명령은 이를 제거합니다. 트랜잭션에서 패키지를 제거한 경우 yum history undo 명령으로 다시 설치합니다. yum history는 이전 패키지를 사용할 수 있는 경우 업데이트된 모든 패키지를 이전 버전으로 다운그레이드하려고 시도합니다.

12.8.3. YUM을 사용하여 트랜잭션 반복

다음 절차에 따라 yum 을 사용하여 선택한 트랜잭션 또는 마지막 트랜잭션을 반복합니다.

절차

  • 특정 트랜잭션을 반복하려면 다음을 사용합니다.

    # yum history redo transactionID

    transactionID 를 트랜잭션의 ID로 바꿉니다.

  • 마지막 트랜잭션을 반복하려면 다음을 사용합니다.

    # yum history redo last

yum history redo 명령은 트랜잭션 중에 수행된 단계만 반복합니다.

12.8.4. YUM 입력에서 글로벌 표현식 지정

yum 명령을 사용하면 하나 이상의 glob 표현식 을 인수로 추가하여 결과를 필터링할 수 있습니다. 전역 표현식을 yum 명령에 인수로 전달할 때 이스케이프해야 합니다.

절차

전역 표현식이 의도한 대로 yum 에 전달되도록 하려면 다음 방법 중 하나를 사용합니다.

  • 전체 글로벌 표현식을 큰따옴표 또는 단일 따옴표로 묶습니다.

    # yum provides "*/file-name"

    file-name 을 파일 이름으로 바꿉니다.

  • 와일드카드 문자를 백슬래시(\)문자로이스케이프합니다.

    # yum provides \*/file-name

    file-name 을 파일 이름으로 바꿉니다.

12.9. 소프트웨어 리포지토리 관리

yum 및 관련 유틸리티의 구성 정보는 /etc/yum.conf 파일에 저장됩니다. 이 파일에는 리포지토리별 옵션을 설정할 수 있는 하나 이상의 [repository] 섹션이 포함되어 있습니다.

/etc/yum.repos .d/ 디렉터리에 새 또는 기존.repo 파일에 개별 리포지토리를 정의하는 것이 좋습니다.

/etc/yum.conf 파일의 개별 [repository] 섹션에 정의된 값은 [main] 섹션에 설정된 값을 재정의합니다.

다음 섹션에서는 다음을 수행하는 방법을 설명합니다.

  • [repository] 옵션을 설정합니다.
  • yum 리포지토리를 추가합니다.
  • yum 리포지토리를 활성화합니다.
  • yum 리포지토리를 비활성화합니다.

12.9.1. YUM 리포지토리 옵션 설정

/etc/yum.conf 구성 파일에는 [repository] 섹션이 포함되어 있습니다. 여기서 리포지토리 는 고유한 리포지토리 ID입니다. [repository] 섹션을 통해 개별 yum 리포지토리를 정의할 수 있습니다.

참고

충돌을 피하기 위해 Red Hat 리포지토리에서 사용하는 사용자 정의 리포지토리 이름을 지정하지 마십시오.

사용 가능한 [repository] 옵션의 전체 목록은 yum.conf(5) 도움말 페이지의 [repository] OPTIONS 섹션을 참조하십시오.

12.9.2. YUM 리포지토리 추가

절차

새 리포지토리를 정의하려면 다음을 수행할 수 있습니다.

  • [repository] 섹션을 /etc/yum.conf 파일에 추가합니다.
  • [repository] 섹션을 /etc/yum .repos.d/ 디렉터리의. repo 파일에 추가합니다.

    +

Yum 리포지토리는 일반적으로 고유한 .repo 파일을 제공합니다.

참고

/etc/yum.conf 대신 .repo 파일에 있는 리포지토리를 이 디렉토리의. repo 파일 확장자가 있는 모든 파일은 yum 으로 정의하는 것이 좋습니다.

  • 시스템에 리포지터리를 추가하고 활성화하려면 다음을 사용합니다.

    # yum-config-manager --add-repo repository_URL

    repository_url 을 리포지토리를 가리키는 URL로 바꿉니다.

주의

Red Hat Certificate-basedCDN( Content Delivery Network ) 이외의 검증 또는 신뢰할 수 없는 소스에서 소프트웨어 패키지를 구입하고 설치하면 잠재적인 보안 위험이 되며 보안, 안정성, 호환성 및 유지 관리 문제로 이어질 수 있습니다.

12.9.3. YUM 리포지토리 활성화

'yum'repository를 시스템에 추가한 후 이를 활성화하여 설치 및 업데이트를 확인합니다.

절차

  • 리포지터리를 활성화하려면 다음을 사용합니다.

    # yum-config-manager --enable repositoryID

    repositoryID를 고유한 리포지토리 ID로 바꿉니다.

    사용 가능한 리포지토리 ID를 나열하려면 yum을 사용하여 패키지 나열 을 참조하십시오.

12.9.4. YUM 리포지토리 비활성화

특정 YUM 리포지토리를 비활성화하여 특정 패키지가 설치 또는 업데이트되지 않도록 합니다.

절차

  • yum 리포지토리를 비활성화하려면 다음을 사용합니다.

    # yum-config-manager --disable repositoryID

    repositoryID를 고유한 리포지토리 ID로 바꿉니다.

    사용 가능한 리포지토리 ID를 나열하려면 yum을 사용하여 패키지 나열 을 참조하십시오.

12.10. YUM 구성

yum 및 관련 유틸리티의 구성 정보는 /etc/yum.conf 파일에 저장됩니다. 이 파일에는 필수 [main] 섹션 하나가 포함되어 있어 글로벌 효과가 있는 yum 옵션을 설정할 수 있습니다.

다음 섹션에서는 다음을 수행하는 방법을 설명합니다.

  • 현재 yum 구성을 봅니다.
  • yum [main] 옵션을 설정합니다.
  • yum 플러그인 사용.

12.10.1. 현재 YUM 구성 보기

현재 yum 구성을 보려면 다음 절차를 사용하십시오.

절차

  • /etc/yum.conf 파일의 [main] 섹션에 지정된 글로벌 yum 옵션의 현재 값을 표시하려면 다음을 사용합니다.

    # yum config-manager --dump

12.10.2. YUM 기본 옵션 설정

/etc/yum.conf 구성 파일에는 [main] 섹션 하나가 포함되어 있습니다. 이 섹션의 키-값 쌍은 yum 이 리포지토리를 작동하고 처리하는 방식에 영향을 줍니다.

/etc/yum.conf[main] 섹션 제목 아래에 추가 옵션을 추가할 수 있습니다.

사용 가능한 [main] 옵션의 전체 목록은 yum.conf(5) 도움말 페이지의 [main] OPTIONS 섹션을 참조하십시오.

12.10.3. YUM 플러그인 사용

yum 은 운영을 확장하고 개선하는 플러그인을 제공합니다. 특정 플러그인은 기본적으로 설치됩니다.

다음 섹션에서는 yum 플러그인을 활성화, 구성 및 비활성화하는 방법을 설명합니다.

12.10.3.1. YUM 플러그인 관리

절차

플러그인 구성 파일에는 항상 yum 명령을 실행할 때 플러그인이 활성화되는 지 여부를 제어하는 [main] 섹션이 있습니다. 이 옵션이 없는 경우 파일에 수동으로 추가할 수 있습니다.

설치된 모든 플러그인에는 /etc/dnf/plugins/ 디렉터리에 자체 구성 파일이 있습니다. 이러한 파일에서 플러그인별 옵션을 활성화하거나 비활성화할 수 있습니다.

12.10.3.2. YUM 플러그인 활성화

다음 절차에서는 모든 YUM 플러그인을 비활성화하거나 활성화하거나 특정 명령의 모든 플러그인을 비활성화하거나 단일 명령의 특정 YUM 플러그인을 비활성화하는 방법을 설명합니다.

+

절차

  • 모든 yum 플러그인을 활성화하려면 다음을 수행합니다.

    1. plugins= 로 시작하는 행이 /etc/yum.conf 파일의 [main] 섹션에 있는지 확인합니다.
    2. plugins= 의 값을 1 로 설정합니다.

      plugins=1

12.10.3.3. YUM 플러그인 비활성화

  • 모든 yum 플러그인을 비활성화하려면 다음을 수행합니다.

    1. plugins= 로 시작하는 행이 /etc/yum.conf 파일의 [main] 섹션에 있는지 확인합니다.
    2. plugins= 의 값을 0 으로 설정합니다.

      plugins=0
      중요

      모든 플러그인을 비활성화하는 것은 바람직하지 않습니다. 특정 플러그인은 중요한 yum 서비스를 제공합니다. 특히 product-id 및 subscription -manager 플러그인은 인증서 기반CDN( Content Delivery Network )에 대한 지원을 제공합니다. 플러그인을 전역적으로 비활성화하는 것은 편의성 옵션으로 제공되며 yum 에서 잠재적인 문제를 진단할 때만 권장됩니다.

  • 특정 명령에 대해 모든 yum 플러그인을 비활성화하려면 명령에 --noplugins 옵션을 추가합니다.

    # yum --noplugins update
  • 단일 명령에 특정 yum 플러그인을 비활성화하려면 명령에 --disableplugin=plugin-name 옵션을 추가합니다.

    # yum update --disableplugin=plugin-name

    plugin-name 을 플러그인 이름으로 바꿉니다.

13장. systemd 소개

시스템 관리자는 Linux 운영 체제의 시스템 및 서비스 관리자인 systemd 와 상호 작용해야 합니다. systemd 소프트웨어 모음에서는 시스템 상태를 제어 및 보고하고 시스템을 시작하는 동안 시스템을 초기화할 수 있는 도구와 서비스를 제공합니다. Red Hat Enterprise Linux 7 이후 systemd 는 기본 init 시스템으로 Upstart를 대체하며 SysV init 스크립트와 이전 버전과 호환됩니다. systemd 소프트웨어 제품군은 다음과 같은 다양한 기능을 제공합니다.

  • 부팅 시 시스템 서비스 병렬 시작
  • 데몬의 온 디맨드 활성화
  • 종속성 기반 서비스 제어 논리입니다.

시스템 리소스 및 서비스를 표현하기 위해 systemdsystemd 단위 의 개념을 도입합니다. 특정 작업을 수행하거나 제어하는 systemd 장치는 systemd가 관리하는 기본 오브젝트입니다. 다양한 systemd 장치 유형의 다음 예제를 참조하십시오.

  • 서비스,
  • 대상
  • 장치,
  • Mount,
  • 타이머,
  • init 시스템과 관련된 기타 유형입니다.
참고

사용 가능한 모든 단위 유형을 표시하려면 다음을 사용합니다.

 # systemctl -t help

systemd 단위는 단위 작업을 정의하는 이름, 유형 및 구성 파일로 구성됩니다. 장치 구성 파일은 다음 표에 나열된 디렉터리 중 하나에 있습니다.

표 13.1. Systemd 유닛 파일 위치

디렉터리설명

/usr/lib/systemd/system/

설치된 RPM 패키지와 함께 배포되는 systemd 유닛 파일.

/run/systemd/system/

런타임 시 생성된 systemd 유닛 파일. 이 디렉토리는 서비스 유닛 파일이 설치된 디렉토리보다 우선합니다.

/etc/systemd/system/

systemctl enable 에 의해 생성된 systemd 유닛 파일과 서비스 확장에 추가된 유닛 파일. 이 디렉토리는 런타임 유닛 파일이 있는 디렉터리보다 우선합니다.

systemd 의 기본 구성은 컴파일 중에 정의되며 /etc/systemd/system.conf 파일에서 구성을 찾을 수 있습니다. 이러한 기본값을 벗어나고 systemd 유닛의 선택된 기본값을 전역적으로 재정의하려면 이 파일을 사용합니다.

예를 들어 90초로 설정된 시간 제한 제한의 기본값을 재정의하려면 DefaultTimeoutStartSec 매개 변수를 사용하여 필요한 값을 초 단위로 입력합니다.

DefaultTimeoutStartSec=required value

13.1. 추가 리소스

14장. systemctl을 사용하여 시스템 서비스 관리

시스템 관리자는 시스템 서비스를 관리하고 시작, 중지, 재시작, 활성화 및 비활성화, 서비스 나열 및 시스템 서비스 상태 표시와 같은 다양한 서비스와 관련된 다양한 작업을 수행하려고 합니다. systemd 시스템 및 서비스 관리자와 상호 작용하려면 systemctl 유틸리티를 사용합니다.

14.1. 시스템 서비스 나열

현재 로드된 모든 서비스 유닛과 사용 가능한 모든 서비스 유닛의 상태를 나열할 수 있습니다.

절차

  • 현재 로드된 모든 서비스 유닛을 나열하려면 다음을 입력합니다.

    $ systemctl list-units --type service
    UNIT                     LOAD   ACTIVE SUB     DESCRIPTION
    abrt-ccpp.service        loaded active exited  Install ABRT coredump hook
    abrt-oops.service        loaded active running ABRT kernel log watcher
    abrtd.service            loaded active running ABRT Automated Bug Reporting Tool
    ----
    systemd-vconsole-setup.service loaded active exited  Setup Virtual Console
    tog-pegasus.service            loaded active running OpenPegasus CIM Server
    
    LOAD   = Reflects whether the unit definition was properly loaded.
    ACTIVE = The high-level unit activation state, i.e. generalization of SUB.
    SUB    = The low-level unit activation state, values depend on unit type.
    
    46 loaded units listed. Pass --all to see loaded but inactive units, too.
    To show all installed unit files use 'systemctl list-unit-files'

    기본적으로 systemctl list-units 명령은 활성 유닛만 표시합니다. 각 서비스 유닛 파일에 대해 명령이 표시됩니다.

    • UNIT: 전체 이름
    • LOAD: 유닛 파일이 로드되었는지 여부 정보
    • SUB 또는 SUB: 높은 수준의 낮은 수준의 장치 파일 활성화 상태
    • DESCRIPTION: 간단한 설명
  • 상태에 관계없이 로드된 모든 유닛 을 나열하려면 --all 또는 -a 명령줄 옵션을 사용하여 다음 명령을 입력합니다.

    $ systemctl list-units --type service --all
  • 사용 가능한 모든 서비스 단위의 상태(활성화 또는 비활성화)를 나열하려면 다음을 입력합니다.

    $ systemctl list-unit-files --type service
    UNIT FILE                               STATE
    abrt-ccpp.service                       enabled
    abrt-oops.service                       enabled
    abrtd.service                           enabled
    ...
    wpa_supplicant.service                  disabled
    ypbind.service                          disabled
    
    208 unit files listed.

    서비스 유닛마다 이 명령이 표시됩니다.

    • UNIT FILE: 전체 이름
    • STATE: 서비스 유닛의 활성화 여부 정보

14.2. 시스템 서비스 상태 표시

서비스 유닛을 검사하여 자세한 정보를 가져오고 서비스 상태를 활성화 또는 실행 중인지 확인할 수 있습니다. 특정 서비스 유닛 이후 또는 그 전에 시작되도록 주문된 서비스를 볼 수도 있습니다.

절차

  • 시스템 서비스에 해당하는 서비스 유닛에 대한 자세한 정보를 표시하려면 다음을 입력합니다.

    $ systemctl status <name>.service

    <name> 을 검사하려는 서비스 유닛의 이름으로 변경합니다(예: gdm).

    이 명령은 선택한 서비스 유닛의 이름과 짧은 설명, 사용 가능한 서비스 유닛 정보에 설명된 하나 이상의 필드, 루트 사용자가 실행하는 경우, 가장 최근 로그 항목을 표시합니다.

    표 14.1. 사용 가능한 서비스 유닛 정보

    필드설명

    로드됨

    서비스 유닛이 로드되었는지 여부, 유닛 파일의 절대 경로 및 유닛이 활성화되었는지 여부를 참고합니다.

    활성

    서비스 유닛의 실행 여부와 타임스탬프에 대한 정보입니다.

    Main PID

    해당 시스템 서비스의 PID 및 이름을 지정합니다.

    상태

    해당 시스템 서비스에 대한 추가 정보입니다.

    프로세스

    관련 프로세스에 대한 추가 정보.

    cgroup

    cgroup(Control Groups)에 대한 추가 정보.

    예 14.1. 서비스 상태 표시

    GNOME Display Manager의 서비스 유닛은 gdm.service 라고 합니다. 이 서비스 유닛의 현재 상태를 확인하려면 쉘 프롬프트에서 다음을 입력합니다.

    # systemctl status gdm.service
    gdm.service - GNOME Display Manager
       Loaded: loaded (/usr/lib/systemd/system/gdm.service; enabled)
       Active: active (running) since Thu 2013-10-17 17:31:23 CEST; 5min ago
     Main PID: 1029 (gdm)
       CGroup: /system.slice/gdm.service
               ├─1029 /usr/sbin/gdm
               ├─1037 /usr/libexec/gdm-simple-slave --display-id /org/gno...
               └─1047 /usr/bin/Xorg :0 -background none -verbose -auth /r...
    
    Oct 17 17:31:23 localhost systemd[1]: Started GNOME Display Manager.
  • 특정 서비스 유닛이 실행 중인지만 확인하려면 다음을 입력합니다.

    $ systemctl is-active <name>.service
  • 특정 서비스 유닛이 활성화되었는지 여부를 확인하려면 다음을 입력합니다.

    $ systemctl is-enabled <name>.service
    참고

    systemctl is-activesystemctl is-enabled 는 모두 지정된 서비스 유닛이 실행 중이거나 활성화된 경우 종료 상태를 0 으로 반환합니다.

  • 지정된 서비스 유닛보다 먼저 순서가 지정된 서비스를 확인하려면 다음을 입력합니다.

    # systemctl list-dependencies --after <name>.service

    <name> 을 명령에서 서비스 이름으로 바꿉니다.

    예를 들어 gdm 이전에 시작되도록 순서가 지정된 서비스 목록을 보려면 다음을 입력합니다.

    # systemctl list-dependencies --after gdm.service
    gdm.service
    ├─dbus.socket
    ├─getty@tty1.service
    ├─livesys.service
    ├─plymouth-quit.service
    ├─system.slice
    ├─systemd-journald.socket
    ├─systemd-user-sessions.service
    └─basic.target
    [output truncated]
  • 지정된 서비스 유닛 다음에 시작되도록 정렬되는 서비스를 확인하려면 다음을 입력합니다.

    # systemctl list-dependencies --before <name>.service

    <name> 을 명령에서 서비스 이름으로 바꿉니다.

    예를 들어 gdm 이후에 시작되도록 순서가 지정된 서비스 목록을 보려면 다음을 입력합니다.

    # systemctl list-dependencies --before gdm.service
    gdm.service
    ├─dracut-shutdown.service
    ├─graphical.target
    │ ├─systemd-readahead-done.service
    │ ├─systemd-readahead-done.timer
    │ └─systemd-update-utmp-runlevel.service
    └─shutdown.target
      ├─systemd-reboot.service
      └─final.target
        └─systemd-reboot.service

추가 리소스

14.3. 시스템 서비스 시작

start 명령을 사용하여 현재 세션에서 시스템 서비스를 시작할 수 있습니다.

사전 요구 사항

  • 시스템에 대한 루트 액세스 권한이 있어야 합니다.

절차

  • 시스템 서비스에 해당하는 선택한 서비스 유닛을 시작하려면 다음 명령을 루트로 입력합니다.

    # systemctl start <name>.service

    <name> 을 시작하려는 서비스 유닛의 이름으로 변경합니다(예: httpd.service).

    예 14.2. httpd.service 시작

    Apache HTTP 서버의 서비스 유닛의 이름은 httpd.service 입니다. 이 서비스 유닛을 활성화하고 현재 세션에서 httpd 데몬을 시작하려면 root 로 다음 명령을 입력합니다.

    # systemctl start httpd.service
    참고

    systemd 에서는 서비스 간에 양수 및 음수 종속성이 있습니다. 특정 서비스를 시작하려면 하나 이상의 다른 서비스(공속성)를 시작하거나 하나 이상의 서비스(거의종속성)를 중지해야 할수 있습니다.

    새 서비스를 시작하려고 하면 systemd 는 사용자에게 명시적 알림 없이 모든 종속성을 자동으로 해결합니다. 즉, 이미 서비스를 실행 중이고 음수 종속성을 사용하여 다른 서비스를 시작하려고 하면 첫 번째 서비스가 자동으로 중지됩니다.

    예를 들어 postfix 서비스를 실행 중이고 sendmail 서비스를 시작하려고 하면 두 서비스가 충돌하며 동일한 포트에서 실행할 수 없기 때문에 systemd 는 먼저 postfix 를 자동으로 중지합니다.

14.4. 시스템 서비스 중지

현재 세션에서 시스템 서비스를 중지하려면 stop 명령을 사용합니다.

사전 요구 사항

  • 시스템에 대한 루트 액세스 권한이 있어야 합니다.

절차

  • 시스템 서비스에 해당하는 서비스 유닛을 중지하려면 root 로 다음 명령을 입력합니다.

    # systemctl stop <name>.service

    <name> 을 중지하려는 서비스 유닛의 이름으로 바꿉니다(예: bluetooth).

    예 14.3. bluetoothd.service 중지

    bluetoothd 데몬의 서비스 유닛의 이름은 bluetooth.service 입니다. 이 서비스 유닛을 비활성화하고 현재 세션에서 bluetoothd 데몬을 중지하려면 다음 명령을 루트로 입력합니다.

    # systemctl stop bluetooth.service

14.5. 시스템 서비스 다시 시작

restart 명령을 사용하여 현재 세션에서 시스템 서비스를 다시 시작할 수 있습니다.

다음 절차에서는 다음을 수행하는 방법을 설명합니다.

  • 현재 세션에서 선택한 서비스 유닛을 중지하고 즉시 다시 시작합니다.
  • 해당 서비스가 이미 실행 중인 경우에만 서비스 유닛을 다시 시작합니다
  • 실행을 중단하지 않고 시스템 서비스의 설정을 다시 로드합니다

사전 요구 사항

  • 시스템에 대한 루트 액세스 권한이 있어야 합니다.

절차

  • 시스템 서비스에 해당하는 서비스 장치를 다시 시작합니다.

    # systemctl restart <name>.service

    <name> 을 재시작하려는 서비스 유닛의 이름으로 변경합니다(예: httpd).

    참고

    선택한 서비스 유닛이 실행 중이 아니면 이 명령도 시작합니다.

  • 또는 해당 서비스가 이미 실행 중인 경우에만 서비스 장치를 다시 시작합니다.

    # systemctl try-restart <name>.service
  • 또는 서비스 실행을 중단하지 않고 구성을 다시 로드합니다.

    # systemctl reload <name>.service
    참고

    이 기능을 지원하지 않는 시스템 서비스, 이 명령을 무시합니다. 이러한 서비스를 다시 시작하려면 reload-or-restartreload-or-try-restart 명령을 사용합니다.

    예 14.4. httpd.service 다시 로드

    사용자가 불필요한 오류 메시지나 부분적으로 렌더링된 웹 페이지가 발생하는 것을 방지하기 위해 Apache HTTP Server를 사용하면 요청을 재시작하고 적극적으로 처리하지 않고도 구성을 편집하고 다시 로드할 수 있습니다. 이렇게 하려면 다음 명령을 사용합니다.

    # systemctl reload httpd.service

14.6. 시스템 서비스 활성화

시스템 부팅 시 자동으로 시작되도록 서비스를 구성할 수 있습니다. enable 명령은 선택한 서비스 유닛의 [Install] 섹션을 읽고 / etc/systemd/system/ 디렉토리 및 하위 디렉터리에 있는 /usr/lib/systemd/system/ name.service 파일에 대한 적절한 심볼릭 링크를 만듭니다. 그러나 이미 존재하는 링크를 다시 작성하지는 않습니다.

사전 요구 사항

  • 시스템에 대한 루트 액세스 권한이 있어야 합니다.

절차

  • 부팅 시 자동으로 시작되도록 시스템 서비스에 해당하는 서비스 유닛을 구성합니다.

    # systemctl enable <name>.service

    <name> 을 활성화하려는 서비스 유닛의 이름으로 변경합니다(예: httpd).

  • 또는 심볼릭 링크가 다시 생성되도록 하려면 시스템 장치를 다시 활성화합니다.

    # systemctl reenable <name>.service

    이 명령은 선택한 서비스 유닛을 비활성화하고 즉시 다시 활성화합니다.

    예 14.5. httpd.service 활성화

    부팅 시 자동으로 시작되도록 Apache HTTP 서버를 구성하려면 다음 명령을 사용합니다.

    # systemctl enable httpd.service
    Created symlink from /etc/systemd/system/multi-user.target.wants/httpd.service to /usr/lib/systemd/system/httpd.service.

14.7. 시스템 서비스 비활성화

부팅 시 서비스 유닛이 자동으로 시작되지 않도록 할 수 있습니다. disable 명령은 선택한 서비스 유닛의 [Install] 섹션을 읽고 / etc/systemd/ system/ 디렉토리에서 /usr/lib/systemd/system/ name.service 파일에 대한 적절한 심볼릭 링크를 제거합니다.

사전 요구 사항

  • 시스템에 대한 루트 액세스 권한이 있어야 합니다.

절차

  • 부팅 시 자동으로 시작되지 않도록 시스템 서비스에 해당하는 서비스 유닛을 구성하려면 다음 명령을 루트로 입력합니다.

    # systemctl disable <name>.service

    <name> 을 비활성화하려는 서비스 유닛의 이름으로 바꿉니다(예: bluetooth).

    예 14.6. bluetoothd.service 비활성화

    bluetoothd 데몬의 서비스 유닛의 이름은 bluetooth.service 입니다. 이 서비스 장치가 부팅 시 시작되지 않도록 하려면 다음 명령을 루트로 입력합니다.

    # systemctl disable bluetooth.service
    Removed symlink /etc/systemd/system/bluetooth.target.wants/bluetooth.service.
    Removed symlink /etc/systemd/system/dbus-org.bluez.service.
  • 또는 모든 서비스 유닛을 마스킹하고 수동으로 또는 다른 서비스에 의해 시작되지 않도록 할 수 있습니다.

    # systemctl mask <name>.service

    이 명령은 /etc/systemd/system/name.service 파일을 /dev/null 에 대한 심볼릭 링크로 교체하여 systemd 에 액세스할 수 없는 실제 유닛 파일을 렌더링합니다.

  • 이 작업을 되돌리고 서비스 유닛의 마스크를 해제하려면 다음을 입력합니다.

    # systemctl unmask <name>.service

15장. systemd 대상 작업

systemd 의 대상은 시스템을 시작하는 동안 동기화 지점 역할을 합니다. .target 파일 확장자로 끝나는 대상 장치 파일은 systemd 대상을 나타냅니다. 대상 장치의 목적은 종속성 체인을 통해 다양한 systemd 장치를 그룹화하는 것입니다.

다음 예제를 고려하십시오.

  • 그래픽 세션을 시작하기 위한 graphical.target 단위는 GNOME Display Manager(gdm.service) 또는 계정 서비스(accounts-daemon.service)와 같은 시스템 서비스를 시작하고, multi-user.target 단위 도 활성화합니다.
  • 마찬가지로, multi-user.target 단위는 NetworkManager(NetworkManager.service) 또는 D-Bus(dbus.service)와 같은 다른 필수 시스템 서비스를 시작하고 basic.target 이라는 다른 대상 장치를 활성화합니다.

systemd 대상으로 작업하는 동안 기본 대상을 보거나, 변경하거나, 현재 대상을 변경할 수 있습니다.

15.1. 기본 대상 보기

systemctl 명령을 사용하여 기본 대상을 표시하거나 기본 대상 장치를 나타내는 /etc/systemd/system/default.target 파일을 검사할 수 있습니다.

절차

  • 기본적으로 사용되는 대상 단위를 결정합니다.

    $ systemctl get-default
    graphical.target
  • 심볼릭 링크를 사용하여 기본 대상을 결정합니다.

    $  ls -l /usr/lib/systemd/system/default.target

15.2. 대상 단위 보기

모든 단위 유형을 표시하거나 현재 로드된 대상 유닛으로 검색을 제한할 수 있습니다. 기본적으로 systemctl list-units 명령은 활성 유닛만 표시합니다.

절차

  • 상태에 관계없이 로드된 모든 단위를 나열합니다.

    $ systemctl list-units --type target --all
  • 또는 현재 로드된 모든 대상 유닛을 나열합니다.

    $ systemctl list-units --type target
    
    UNIT                  LOAD   ACTIVE SUB    DESCRIPTION
    basic.target          loaded active active Basic System
    cryptsetup.target     loaded active active Encrypted Volumes
    getty.target          loaded active active Login Prompts
    graphical.target      loaded active active Graphical Interface
    local-fs-pre.target   loaded active active Local File Systems (Pre)
    local-fs.target       loaded active active Local File Systems
    multi-user.target     loaded active active Multi-User System
    network.target        loaded active active Network
    paths.target          loaded active active Paths
    remote-fs.target      loaded active active Remote File Systems
    sockets.target        loaded active active Sockets
    sound.target          loaded active active Sound Card
    spice-vdagentd.target loaded active active Agent daemon for Spice guests
    swap.target           loaded active active Swap
    sysinit.target        loaded active active System Initialization
    time-sync.target      loaded active active System Time Synchronized
    timers.target         loaded active active Timers
    
    LOAD   = Reflects whether the unit definition was properly loaded.
    ACTIVE = The high-level unit activation state, i.e. generalization of SUB.
    SUB    = The low-level unit activation state, values depend on unit type.
    
    17 loaded units listed.

15.3. 기본 대상 변경

기본 대상 단위는 /etc/systemd/system/default.target 파일로 표시됩니다. 다음 절차에서는 systemctl 명령을 사용하여 기본 대상을 변경하는 방법을 설명합니다.

절차

  1. 기본 대상 장치를 확인하려면 다음을 수행합니다.

    # systemctl get-default
  2. 기본적으로 다른 대상 장치를 사용하도록 시스템을 구성하려면 다음을 수행합니다.

    # systemctl set-default multi-user.target
    rm /etc/systemd/system/default.target
    ln -s /usr/lib/systemd/system/multi-user.target /etc/systemd/system/default.target

    이 명령은 /etc/systemd/system/default.target 파일을 /usr/lib/systemd/system/name.target 에 대한 심볼릭 링크로 바꿉니다. 여기서 name 은 사용하려는 대상 장치의 이름입니다. 다중 사용자를 기본적으로 사용하려는 대상 단위의 이름으로 바꿉니다.

    표 15.1. set-default 명령의 일반적인 대상

    Basic

    기본 부팅을 다루는 단위 대상

    rescue

    기본 시스템에서 가져오고 복구 쉘을 생성하는 단위 대상

    multi-user

    다중 사용자 시스템을 설정하기 위한 단위 대상

    graphical

    그래픽 로그인 화면을 설정하는 단위 대상

    emergency

    기본 콘솔에서 긴급 쉘을 시작하는 단위 대상

    sysinit

    시스템 초기화에 필요한 서비스를 가져오는 단위 대상

  3. 재부팅

    # reboot

추가 리소스

  • systemd.special man 페이지
  • 부팅 도움말 페이지

15.5. 현재 대상 변경

기본 대상 장치를 설정하면 다음에 다시 부팅할 때까지 현재 대상이 변경되지 않은 상태로 유지됩니다. 재부팅하지 않고 현재 세션의 대상 단위를 변경하려면 systemctl isolate 명령을 사용합니다.

절차

  • 현재 세션에서 다른 대상 단위로 변경합니다.

    # systemctl isolate multi-user.target

    이 명령은 multi-user 및 모든 종속 유닛이라는 대상 유닛을 시작하고 다른 모든 유닛을 즉시 중지합니다.

기본적으로 multi-user 를 사용하려는 대상 유닛의 이름으로 바꿉니다.

검증 단계

  • 새로 생성된 default.target을 확인합니다.

    $ systemctl get-default
    multi-user.target

15.6. 복구 모드로 부팅

복구 모드에서는 편리한 단일 사용자 환경을 제공하며, 일반 부팅 프로세스를 완료할 수 없는 상황에서 시스템을 복구할 수 있습니다. 복구 모드에서는 시스템이 모든 로컬 파일 시스템을 마운트하고 특정 중요한 시스템 서비스를 시작하려고 하지만 네트워크 인터페이스를 활성화하지 않거나 더 많은 사용자가 동시에 시스템에 로그인할 수 없습니다.

절차

  • 복구 모드로 들어가려면 현재 세션의 현재 대상을 변경합니다.

    # systemctl rescue
    
    Broadcast message from root@localhost on pts/0 (Fri 2013-10-25 18:23:15 CEST):
    
    The system is going down to rescue mode NOW!
    참고

    이 명령은 systemctl isolate rescue.target 과 유사하지만 현재 시스템에 로그인된 모든 사용자에게 정보 메시지를 전송합니다.

    systemd 가 메시지를 전송하지 못하도록 하려면 --no-wall 명령줄 옵션을 사용하여 다음 명령을 실행합니다.

    # systemctl --no-wall rescue

15.7. 긴급 모드로 부팅

긴급 모드에서는 가능한 최소한의 환경을 제공하며, 시스템이 복구 모드로 전환할 수 없는 상황에서도 시스템을 복구할 수 있습니다. 긴급 모드에서는 읽기 전용으로 루트 파일 시스템을 마운트하고 다른 로컬 파일 시스템을 마운트하지 않고 네트워크 인터페이스를 활성화하지 않으며 몇 가지 필수 서비스만 시작합니다.

절차

  • 긴급 모드로 들어가려면 현재 대상을 변경합니다.

    # systemctl emergency
    참고

    이 명령은 systemctl isolate emergency.target 과 유사하지만 현재 시스템에 로그인된 모든 사용자에게 정보 메시지를 전송합니다.

    systemd가 이 메시지를 전송하지 못하도록 하려면 --no-wall 명령줄 옵션을 사용하여 다음 명령을 실행합니다.

    # systemctl --no-wall emergency

16장. 시스템 종료, 일시 중지 및 최대 절전 모드

이 섹션에는 운영 체제 종료, 일시 중단 또는 최대 절전 모드에 대한 지침이 포함되어 있습니다.

16.1. 시스템 종료

시스템을 종료하려면 systemctl 유틸리티를 직접 사용하거나 shutdown 명령을 통해 이 유틸리티를 호출할 수 있습니다.

shutdown 명령을 사용하면 다음과 같은 이점이 있습니다.

  • 시간 인수 지원

    이 기능은 특히 예약된 유지 보수에 유용합니다. 또한 사용자는 시스템 종료가 예약된 경고에 대응할 시간이 더 많습니다.

  • 종료를 취소하는 옵션

16.2. shutdown 명령을 사용하여 시스템 종료

이 절차에 따라 shutdown 명령을 사용하여 다양한 작업을 수행할 수 있습니다. 시스템을 종료하고 특정 시간에 시스템의 전원을 끄거나 시스템의 전원을 끄거나 시스템의 전원을 끄지 않고 시스템을 중단하거나 보류 중인 종료를 취소할 수 있습니다.

사전 요구 사항

  • root 사용자로 전환합니다

절차

  • 시스템을 종료하고 특정 시간에 시스템의 전원을 끄려면 다음 형식으로 명령을 사용합니다.

    shutdown --poweroff hh:mm

    여기서 hh:mm 는 24시간 형식의 시간입니다. /run/nologin 파일은 새 로그인을 방지하기 위해 시스템 종료 5분 전에 생성됩니다.

    시간 인수를 사용하면 선택적 wall 메시지를 명령에 추가할 수 있습니다.

    또는 시스템의 전원을 끄지 않고 지연된 후 시스템을 종료하고 중지하려면 다음을 사용합니다.

    shutdown --halt +m

    여기서 +m 은 지연 시간(분)입니다. now 키워드는 +0 의 별칭입니다.

    보류 중인 종료를 취소하려면 다음을 사용합니다.

    shutdown -c

추가 리소스

16.3. systemctl 명령을 사용하여 시스템 종료

이 절차에 따라 systemctl 명령을 사용하여 다양한 작업을 수행할 수 있습니다. 시스템을 종료하고 시스템의 전원을 끄거나 시스템의 전원을 끄고 시스템의 전원을 끄지 않고 시스템을 종료하고 중지할 수 있습니다.

사전 요구 사항

  • root 사용자로 전환합니다

절차

  • 시스템을 종료하고 시스템의 전원을 끄려면 다음 형식으로 명령을 사용합니다.

    systemctl poweroff

    또는 시스템의 전원을 끄지 않고 시스템을 종료하고 중지하려면 다음을 사용합니다.

    systemctl halt
참고

기본적으로 이러한 명령 중 하나를 실행하면 systemd에서 현재 시스템에 로그인한 모든 사용자에게 정보 메시지를 보냅니다. systemd가 이 메시지를 보내지 않도록 하려면 선택한 명령을 --no-wall 명령줄 옵션과 함께 실행합니다.

16.4. 시스템을 다시 시작

이 절차에 따라 시스템을 다시 시작할 수 있습니다.

사전 요구 사항

  • root 사용자로 전환합니다

절차

  • 시스템을 다시 시작하려면 다음 명령을 실행합니다.

    systemctl reboot
참고

기본적으로 이 명령을 실행하면 systemd에서 현재 시스템에 로그인한 모든 사용자에게 정보 메시지를 보냅니다. systemd가 이 메시지를 보내지 않도록 하려면 --no-wall 명령줄 옵션을 사용하여 이 명령을 실행합니다.

16.5. 시스템 일시 중단

이 절차에 따라 시스템을 일시 중단할 수 있습니다.

사전 요구 사항

  • root 사용자로 전환합니다.

절차

  • 시스템을 일시 중단하려면 다음 명령을 실행합니다.

    systemctl suspend

    이 명령은 RAM에 시스템 상태를 저장하고 RAM 모듈을 제외하고 시스템의 대부분의 장치의 전원을 끕니다. 시스템을 다시 켜면 시스템은 다시 부팅하지 않고도 RAM에서 상태를 복원합니다.

    시스템 상태가 하드 디스크에 저장되지 않고 RAM에 저장되므로 시스템을 일시 중지 모드에서 복원하는 것은 최대 절전 모드보다 훨씬 빠릅니다. 그러나 일시 중단된 시스템 상태도 정전에 취약합니다.

추가 리소스

16.6. 시스템 최대 절전 모드

이 절차를 따라 시스템을 최대 절전 모드로 전환하거나 최대 절전 모드를 해제하고 시스템을 일시 중단할 수 있습니다.

사전 요구 사항

  • root 사용자로 전환합니다.

절차

  • 시스템을 최대화하려면 다음 명령을 실행합니다.

    systemctl hibernate

    이 명령은 하드 디스크 드라이브에 시스템 상태를 저장하고 시스템의 전원을 끕니다. 시스템을 다시 켜면 시스템에서 다시 부팅하지 않고도 저장된 데이터에서 해당 상태를 복원합니다.

    시스템 상태가 RAM이 아닌 하드 디스크에 저장되므로 시스템은 RAM 모듈에 대한 전기 전원을 유지할 필요가 없습니다. 그러나 이로 인해 시스템을 최대 절전 모드로 복원하는 것은 일시 중지 모드에서 복원하는 것보다 훨씬 느립니다.

    또는 시스템을 최대화하고 일시 중단하려면 다음 명령을 실행합니다.

    systemctl hybrid-sleep

추가 리소스

16.7. systemctl을 사용하여 전원 관리 명령 개요

다음 systemctl 명령 목록을 사용하여 시스템의 전원 관리를 제어할 수 있습니다.

표 16.1. systemctl 전원 관리 명령 개요

systemctl 명령설명

systemctl halt

시스템을 중지합니다.

systemctl poweroff

시스템의 전원을 끕니다.

systemctl reboot

시스템을 다시 시작합니다.

systemctl suspend

시스템을 일시 중단합니다.

systemctl hibernate

시스템을 최대 절전 모드로 전환합니다.

systemctl hybrid-sleep

시스템을 최대화 및 일시 중단합니다.

17장. systemd 장치 파일 작업

이 장에서는 systemd 유닛 파일에 대한 설명을 포함합니다. 다음 섹션에서는 다음을 수행하는 방법을 보여줍니다.

  • 사용자 정의 유닛 파일 만들기
  • SysV init 스크립트를 장치 파일로 변환
  • 기존 장치 파일 수정
  • 인스턴스화된 유닛으로 작업

17.1. 장치 파일 소개

유닛 파일에는 유닛을 설명하고 동작을 정의하는 구성 지시문이 포함되어 있습니다. 백그라운드에서 여러 개의 systemctl 명령이 유닛 파일을 사용하여 작동합니다. 보다 세밀하게 조정하기 위해 시스템 관리자는 수동으로 유닛 파일을 편집하거나 만들어야 합니다. systemd 장치 파일은 시스템에 저장된 3개의 기본 디렉토리를 나열합니다. /etc/systemd/system/ 디렉터리는 시스템 관리자가 만들거나 사용자 지정하는 장치 파일에 대해 예약됩니다.

장치 파일 이름은 다음과 같은 형식을 취합니다.

unit_name.type_extension

여기에서 unit_name 은 유닛의 이름을 나타내고 type_extension 은 유닛 유형을 식별합니다. 장치 유형 전체 목록은 systemd 장치 파일을 참조하십시오.

예를 들어 일반적으로 시스템에 sshd.servicesshd.socket 장치가 있습니다.

유닛 파일은 추가 구성 파일의 디렉터리를 보완할 수 있습니다. 예를 들어 사용자 지정 구성 옵션을 sshd.service 에 추가하려면 sshd.service.d/custom.conf 파일을 만들고 추가 지시문을 삽입합니다. 구성 디렉터리에 대한 자세한 내용은 기존 장치 파일 수정을 참조하십시오.

또한 sshd.service.wants/sshd.service.requires/ 디렉터리를 만들 수 있습니다. 이러한 디렉터리에는 sshd 서비스의 종속성인 장치 파일에 대한 심볼릭 링크가 포함되어 있습니다. 심볼릭 링크는 [Install] 유닛 파일 옵션에 따라 설치 중 자동으로 생성되거나 [Unit] 옵션을 기반으로 런타임에 생성됩니다. 이러한 디렉터리와 심볼릭 링크를 수동으로 만들 수도 있습니다. [Install] 및 [Unit] 옵션에 대한 자세한 내용은 아래 표를 참조하십시오.

많은 유닛 파일 옵션은 유닛 파일이 로드될 때 유닛 매개 변수로 동적으로 대체되는 와일드카드 문자열인 유닛 지정 자를 사용하여 설정할 수 있습니다. 이를 통해 인스턴스화된 유닛 생성을 위한 템플릿 역할을 하는 일반 유닛 파일을 만들 수 있습니다. 인스턴스화 단위 작업을 참조하십시오.

17.2. 장치 파일 구조

단위 파일은 일반적으로 세 개의 섹션으로 구성됩니다.

  • [Unit] 섹션에는 유닛 유형에 종속되지 않는 일반 옵션이 포함되어 있습니다. 이러한 옵션은 유닛 설명을 제공하고, 유닛의 동작을 지정하고, 종속성을 다른 유닛으로 설정합니다. 자주 사용하는 [Unit] 옵션 목록은 중요 [Unit] 섹션 옵션을 참조하십시오.
  • [Unit type] 섹션 - 유닛에 유형별 지시문이 있는 경우 유닛 유형 뒤에 이름이 지정된 섹션 아래에 그룹화됩니다. 예를 들어 서비스 유닛 파일에는 [Service] 섹션이 포함되어 있습니다.
  • [Install] 섹션 - systemctl enabledisable 명령에서 사용하는 유닛 설치에 대한 정보를 포함합니다. [Install] 섹션의 옵션 목록은 Important [Install] 섹션 옵션을 참조하십시오.

17.3. 중요 [Unit] 섹션 옵션

다음 표에는 [Unit] 섹션의 중요한 옵션이 나열되어 있습니다.

표 17.1. 중요 [Unit] 섹션 옵션

옵션 [a]설명

설명

유닛에 대한 의미 있는 설명입니다. 이 텍스트는 예를 들어 systemctl status 명령의 출력에 표시됩니다.

문서

단원에 대한 참조 문서를 참조하는 URI 목록을 제공합니다.

이후[b]

유닛이 시작되는 순서를 정의합니다. 유닛은 after에 지정된 유닛이 활성화된 후에 시작된 후에 만 시작됩니다. Requires와 달리, 의 는 지정된 유닛 명시적으로 활성화하지 않습니다. before 옵션은 와의 반대 기능을 갖고 있습니다 .

요구 사항

다른 유닛에 대한 종속성을 구성합니다. Requires (필수)에 나열된 단위는 장치와 함께 활성화됩니다. 필요한 유닛이 시작되지 않으면 유닛이 활성화되지 않습니다.

필요

Requires 보다 더 약한 종속성을 구성합니다. 나열된 유닛 중 하나가 성공적으로 시작되지 않으면 유닛 활성화에 영향을 주지 않습니다. 사용자 지정 유닛 종속성을 설정하는 것이 좋습니다.

충돌

음수 종속성을 구성합니다. 즉, Requires 의 반대입니다.

[a] [Unit] 섹션에서 구성 가능한 전체 옵션 목록은 systemd.unit(5) 매뉴얼 페이지를 참조하십시오.
[b] 대부분의 경우 유닛 파일 옵션 이전과 함께 순서 종속성만 설정하는 것이 충분합니다. 또한 Wants (권장) 또는 Requires 를 사용하여 요구 사항 종속성을 설정하는 경우에도 주문 종속성을 계속 지정해야 합니다. 이는 순서 및 요구 사항 종속성이 서로 독립적으로 작동하기 때문입니다.

17.4. 중요 [서비스] 섹션 옵션

다음 표에는 [Service] 섹션의 중요한 옵션이 나열되어 있습니다.

표 17.2. 중요 [서비스] 섹션 옵션

옵션 [a]설명

유형

ExecStart 및 관련 옵션의 기능에 영향을 주는 유닛 프로세스 시작 유형을 구성합니다. 다음 중 하나:

* simple - 기본값입니다. ExecStart 로 시작된 프로세스는 서비스의 기본 프로세스입니다.

* 분기 - ExecStart 로 시작된 프로세스는 서비스의 기본 프로세스가 되는 하위 프로세스를 생성합니다. 시작이 완료되면 상위 프로세스가 종료됩니다.

* OneShot - 이 유형은 단순하고 비슷하지만, 최종 유닛을 시작하기 전에 프로세스가 종료됩니다.

* D Bus - 이 유형은 단순 하지만 주요 프로세스에서 D-Bus 이름을 얻은 후에만 시작됩니다.

* notify - 이 유형은 간단하지만, sd_notify() 함수를 통해 알림 메시지를 보낸 후에만 결과 단위가 시작됩니다.

* idle - simple 과 유사하게 모든 작업이 완료될 때까지 서비스 바이너리의 실제 실행이 지연되므로 상태 출력과 서비스의 혼합을 방지합니다.

ExecStart

유닛을 시작할 때 실행할 명령 또는 스크립트를 지정합니다. ExecStartPreExecStartPostExecStart 전후에 실행할 사용자 지정 명령을 지정합니다. type=oneshot 을 사용하면 순차적으로 실행되는 여러 사용자 정의 명령을 지정할 수 있습니다.

ExecStop

유닛이 중지될 때 실행할 명령 또는 스크립트를 지정합니다.

ExecReload

장치가 다시 로드될 때 실행할 명령 또는 스크립트를 지정합니다.

재시작

이 옵션을 활성화하면 systemctl 명령의 clean stop을 제외하고 프로세스가 종료된 후 서비스가 다시 시작됩니다.

RemainAfterExit

True로 설정하면 모든 프로세스가 종료된 경우에도 서비스가 활성으로 간주됩니다. 기본값은 False입니다. 이 옵션은 Type=oneshot 이 구성된 경우 특히 유용합니다.

[a] [Service] 섹션에서 구성 가능한 전체 옵션 목록은 systemd.service(5) 도움말 페이지를 참조하십시오.

17.5. 중요 [설치] 섹션 옵션

다음 표에는 [Install] 섹션의 중요한 옵션이 나열되어 있습니다.

표 17.3. 중요 [설치] 섹션 옵션

옵션 [a]설명

alias

에서는 유닛에 대한 추가 이름의 공백으로 구분된 목록을 제공합니다. systemctl enable를 제외한 대부분의 systemctl 명령은 실제 유닛 이름 대신 별칭을 사용할 수 있습니다.

RequiredBy

유닛에 종속된 유닛 목록입니다. 이 유닛이 활성화되면 RequiredBy 에 나열된 단위는 장치에 대한 Require 종속성을 얻습니다.

WantedBy

단위에 약하게 의존하는 유닛 목록입니다. 이 유닛이 활성화되면 WantedBy 에 나열된 단위는 유닛에 대해 Want 종속성을 얻습니다.

Also

장치와 함께 설치하거나 제거할 유닛 목록을 지정합니다.

DefaultInstance

인스턴스화된 유닛으로 제한되는 이 옵션은 유닛이 활성화된 기본 인스턴스를 지정합니다. 인스턴스화된 유닛 작업을 참조하십시오.

[a] [Install] 섹션에서 구성 가능한 전체 옵션 목록은 systemd.unit(5) 매뉴얼 페이지를 참조하십시오.

17.6. 사용자 정의 유닛 파일 생성

단위 파일을 처음부터 생성하는 데는 몇 가지 사용 사례가 있습니다. 사용자 정의 데몬을 실행하고, sshd 서비스의 두 번째 인스턴스를 사용하여 사용자 지정 유닛 파일을 생성할 때 기존 서비스의 두 번째 인스턴스를생성할 수 있습니다.

그러나 기존 유닛의 동작을 수정하거나 확장하려는 경우 기존 유닛 파일 수정 의 지침을 사용합니다.

절차

다음 절차에서는 사용자 지정 서비스를 생성하는 일반적인 프로세스를 설명합니다.

  1. 사용자 지정 서비스를 사용하여 실행 가능 파일을 준비합니다. 사용자 정의 생성 스크립트 또는 소프트웨어 프로바이더가 제공하는 실행 파일일 수 있습니다. 필요한 경우 사용자 지정 서비스의 기본 프로세스에 대한 지속적인 PID를 보유하도록 PID 파일을 준비합니다. 서비스의 쉘 변수를 저장할 환경 파일을 포함할 수도 있습니다. 소스 스크립트가 실행 가능하고( chmod a+x) 대화형이 아닌지 확인합니다.
  2. /etc/systemd/system/ 디렉토리에 유닛 파일을 만들고 올바른 파일 권한이 있는지 확인합니다. 루트로 실행 :

    touch /etc/systemd/system/name.service
    
    chmod 664 /etc/systemd/system/name.service

    name 을 생성할 서비스의 이름으로 바꿉니다. 파일을 실행할 필요는 없습니다.

  3. 이전 단계에서 만든 name.service 파일을 열고 서비스 구성 옵션을 추가합니다. 생성하려는 서비스 유형에 따라 사용할 수 있는 다양한 옵션이 있습니다. 유닛 파일 구조를 참조하십시오.

    다음은 네트워크 관련 서비스에 대한 유닛 구성의 예입니다.

    [Unit]
    Description=service_description
    After=network.target
    
    [Service]
    ExecStart=path_to_executable
    Type=forking
    PIDFile=path_to_pidfile
    
    [Install]
    WantedBy=default.target

    다음과 같습니다.

    • service_description 은 저널 로그 파일과 systemctl status 명령의 출력에 표시되는 정보적 설명입니다.
    • after 설정 은 네트워크가 실행된 후에만 서비스가 시작되는지 확인합니다. 다른 관련 서비스 또는 타겟의 공백으로 구분된 목록을 추가합니다.
    • path_to_executable 은 실제 서비스 실행 파일의 경로를 나타냅니다.
    • type=forking 은 fork 시스템 호출을 수행하는 데몬에 사용됩니다. 서비스의 기본 프로세스는 path_to_pidfile 에 지정된 PID로 생성됩니다. 중요한 [서비스] 섹션에서 다른 시작 유형을 찾습니다.
    • WantedBy 는 서비스를 시작해야 하는 대상 또는 대상을 지정합니다. 이러한 대상을 런레벨의 이전 개념을 대체하는 것으로 생각하십시오.
  4. root 로 다음 명령을 실행하여 새 name.service 파일이 있는지 systemd 에 알립니다.

    systemctl daemon-reload
    
    systemctl start name.service
    주의

    새 장치 파일을 생성하거나 기존 유닛 파일을 수정한 후 항상 systemctl daemon-reload 명령을 실행합니다. 그러지 않으면 디스크의 systemd 및 실제 서비스 유닛 파일의 상태가 일치하지 않아 systemctl start 또는 systemctl enable 명령이 실패할 수 있었습니다. 많은 유닛이 있는 시스템에서는 다시 로드하는 동안 각 유닛의 상태를 직렬화한 후 역직렬화해야 하므로 시간이 오래 걸릴 수 있습니다.

17.7. sshd 서비스의 두 번째 인스턴스를 사용하여 사용자 지정 유닛 파일 만들기

시스템 관리자는 종종 여러 개의 서비스 인스턴스를 구성하고 실행해야 합니다. 이 작업은 원래 서비스 구성 파일의 복사본을 생성하고 서비스의 기본 인스턴스와의 충돌을 방지하기 위해 특정 매개 변수를 수정하여 수행됩니다. 다음 절차에서는 sshd 서비스의 두 번째 인스턴스를 만드는 방법을 보여줍니다.

절차

  1. 두 번째 데몬에서 사용할 sshd_config 파일의 사본을 생성합니다.

    # cp /etc/ssh/sshd{,-second}_config
  2. 이전 단계에서 만든 sshd-second_config 파일을 편집하여 다른 포트 번호와 PID 파일을 두 번째 데몬에 할당합니다.

    Port 22220
    PidFile /var/run/sshd-second.pid

    PortPidFile 옵션에 대한 자세한 내용은 sshd_config(5) 매뉴얼 페이지를 참조하십시오. 선택한 포트가 다른 서비스에서 사용 중인지 확인합니다. PID 파일은 서비스를 실행하기 전에 존재할 필요는 없으며, 서비스 시작 시 자동으로 생성됩니다.

  3. sshd 서비스에 대한 systemd 장치 파일 복사본을 생성합니다.

    # cp /usr/lib/systemd/system/sshd.service /etc/systemd/system/sshd-second.service
  4. 이전 단계에서 만든 sshd-second.service 를 다음과 같이 변경합니다.

    1. Description (설명) 옵션을 수정합니다.

      Description=OpenSSH server second instance daemon
    2. 첫 번째 인스턴스가 이미 시작된 후에만 시작되도록 후 옵션에 지정된 서비스에 sshd.service를 추가합니다.

      After=syslog.target network.target auditd.service sshd.service
    3. sshd의 첫 번째 인스턴스는 키 생성을 포함하므로 ExecStartPre=/usr/sbin/sshd-keygen 행을 제거합니다.
    4. 대체 구성 파일이 사용되도록 sshd 명령에 -f /etc/ssh/sshd-second_config 매개 변수를 추가합니다.

      ExecStart=/usr/sbin/sshd -D -f /etc/ssh/sshd-second_config $OPTIONS
    5. 위의 수정 후 sshd-second.service는 다음과 같이 표시됩니다.

      [Unit]
      Description=OpenSSH server second instance daemon
      After=syslog.target network.target auditd.service sshd.service
      
      [Service]
      EnvironmentFile=/etc/sysconfig/sshd
      ExecStart=/usr/sbin/sshd -D -f /etc/ssh/sshd-second_config $OPTIONS
      ExecReload=/bin/kill -HUP $MAINPID
      KillMode=process
      Restart=on-failure
      RestartSec=42s
      
      [Install]
      WantedBy=multi-user.target
  5. SELinux를 사용하는 경우 sshd의 두 번째 인스턴스에 대한 포트를 SSH 포트에 추가합니다. 그렇지 않으면 두 번째 sshd의 두 번째 인스턴스가 포트에 바인딩되도록 거부됩니다.

    # semanage port -a -t ssh_port_t -p tcp 22220
  6. 부팅 시 자동으로 시작되도록 sshd-second.service를 활성화합니다.

    # systemctl enable sshd-second.service
  7. systemctl status 명령을 사용하여 sshd-second.service가 실행 중인지 확인합니다.
  8. 서비스에 연결하여 포트가 올바르게 활성화되었는지 확인합니다.

    ssh -p 22220 user@server

    방화벽이 사용 중인 경우 sshd의 두 번째 인스턴스에 대한 연결을 허용하도록 적절하게 구성되었는지 확인합니다.

17.8. SysV init 스크립트를 장치 파일로 변환

SysV init 스크립트를 유닛 파일로 변환하기 전에 아직 변환이 수행되지 않았는지 확인하십시오. Red Hat Enterprise Linux에 설치된 모든 핵심 서비스는 기본 유닛 파일과 함께 제공되며 많은 타사 소프트웨어 패키지에도 동일하게 적용됩니다.

init 스크립트를 유닛 파일로 변환하려면 스크립트를 분석하고 필요한 정보를 추출해야 합니다. 이 데이터를 기반으로 유닛 파일을 만들 수 있습니다. init 스크립트는 서비스 유형에 따라 크게 달라질 수 있으므로 이 장에 설명된 것보다 번역에 대한 추가 구성 옵션을 사용해야 할 수도 있습니다. init 스크립트에서 사용할 수 있는 일부 수준의 사용자 지정은 더 이상 systemd 유닛에서 지원하지 않습니다.

변환에 필요한 대부분의 정보는 스크립트의 헤더에 제공됩니다. 다음 예에서는 Red Hat Enterprise Linux 6에서 postfix 서비스를 시작하는 데 사용되는 init 스크립트의 열기 섹션을 보여줍니다.

#!/bin/bash
# postfix      Postfix Mail Transfer Agent
# chkconfig: 2345 80 30
# description: Postfix is a Mail Transport Agent, which is the program that moves mail from one machine to another.
# processname: master
# pidfile: /var/spool/postfix/pid/master.pid
# config: /etc/postfix/main.cf
# config: /etc/postfix/master.cf
### BEGIN INIT INFO
# Provides: postfix MTA
# Required-Start: $local_fs $network $remote_fs
# Required-Stop: $local_fs $network $remote_fs
# Default-Start: 2 3 4 5
# Default-Stop: 0 1 6
# Short-Description: start and stop postfix
# Description: Postfix is a Mail Transport Agent, which is the program that moves mail from one machine to another.
### END INIT INFO

위의 예에서 # chkconfig 및 # description 으로 시작하는 행만 필수이므로 다른 init 파일에서 나머지를 찾을 수 없습니다. BEGIN INIT INFO(BeGIN INIT INFO)END INIT INFO( 종료 정보) 행 사이에 묶은 텍스트를 LSB (Linux Standard Base) 헤더 라고 합니다. 지정된 경우 LSB 헤더에는 서비스 설명, 종속성 및 기본 런레벨을 정의하는 지시문이 포함되어 있습니다. 다음은 새 유닛 파일에 필요한 데이터를 수집하는 것을 목표로 하는 분석 작업의 개요입니다. postfix init 스크립트가 예제로 사용됩니다.

17.9. systemd 서비스 설명 찾기

스크립트에 대한 설명은 #description 으로 시작하여 행에서 확인할 수 있습니다. 유닛 파일의 [Unit] 섹션에 있는 Description(설명 ) 옵션에 있는 서비스 이름과 함께 이 설명을 사용합니다. LSB 헤더에는 #Short-Description 및 #Description 행에 비슷한 데이터가 포함될 수 있습니다.

17.10. systemd 서비스 종속성 찾기

LSB 헤더에는 서비스 간 종속성을 구성하는 여러 지시문이 포함될 수 있습니다. 대부분 systemd 장치 옵션으로 번역할 수 있습니다. 다음 표를 참조하십시오.

표 17.4. LSB 헤더의 종속성 옵션

LSB 옵션설명단위 파일 등가

제공

서비스의 부팅 기능 이름을 지정합니다. 이 이름은 다른 init 스크립트에서 참조할 수 있습니다( "$" 접두사 사용). 유닛 파일이 파일 이름으로 다른 유닛을 참조하므로 더 이상 필요하지 않습니다.

필수-시작

필수 서비스의 부팅 기능 이름을 포함합니다. 이는 순서 종속성으로 변환되며 부팅 기능 이름은 해당 서비스 또는 대상이 속한 유닛 파일 이름으로 바뀝니다. 예를 들어 postfix 의 경우 $network에 대한 Required-Start 종속성이 network.target에 대한 after 종속성으로 변환되었습니다.

,이전

should-Start

Required-Start보다 더 약한 종속성을 구성합니다. 실패한 종속성은 서비스 시작에 영향을 주지 않습니다.

,이전

필수-중단,should-Stop

부정적인 종속성을 구성합니다.

충돌

17.11. 서비스의 기본 대상 찾기

#chkconfig 로 시작하는 행에는 세 개의 숫자 값이 포함됩니다. 가장 중요한 것은 서비스가 시작되는 기본 런레벨을 나타내는 첫 번째 숫자입니다. 동일한 systemd 대상에 이러한 런레벨을 매핑합니다. 그런 다음 해당 대상을 장치 파일의 [Install] 섹션에 있는 WantedBy 옵션에 나열합니다. 예를 들어 postfix 는 이전에 런레벨 2, 3, 4, 5에서 시작되어 multi-user.target 및 graphical.target으로 변환되었습니다. graphical.target은 multiuser.target에 따라 달라지므로 둘 다 지정할 필요가 없습니다. 기본 및 금지된 런레벨에 대한 정보는 LSB 헤더의 #Default-Start#Default-Stop 행에서도 찾을 수 있습니다.

#chkconfig 행에 지정된 다른 두 값은 init 스크립트의 시작 및 종료 우선 순위를 나타냅니다. 이러한 값은 init 스크립트를 로드하는 경우 systemd 에서 해석되지만 동일한 유닛 파일이 없습니다.

17.12. 서비스에서 사용하는 파일 찾기

Init 스크립트를 사용하려면 전용 디렉터리에서 기능 라이브러리를 로드하고 구성, 환경 및 PID 파일을 가져올 수 있어야 합니다. 환경 변수는 init 스크립트 헤더에서 #config 로 시작하는 행에서 지정되며 EnvironmentFile 장치 파일 옵션으로 변환됩니다. #pidfile init 스크립트 행에 지정된 PID 파일은 PIDFile 옵션을 사용하여 유닛 파일로 가져옵니다.

init 스크립트 헤더에 포함되지 않은 주요 정보는 서비스 실행 파일의 경로이며 서비스에 필요한 기타 일부 파일입니다. 이전 버전의 Red Hat Enterprise Linux에서 init 스크립트는 Bash case 문을 사용하여 start,stop 또는 restart 등의 기본 작업과 사용자 지정 정의 작업 등의 서비스 동작을 정의했습니다. postfix init 스크립트에서 발췌한 다음 발췌 내용은 서비스를 시작할 때 실행할 코드 블록을 보여줍니다.

conf_check() {
    [ -x /usr/sbin/postfix ] || exit 5
    [ -d /etc/postfix ] || exit 6
    [ -d /var/spool/postfix ] || exit 5
}

make_aliasesdb() {
	if [ "$(/usr/sbin/postconf -h alias_database)" == "hash:/etc/aliases" ]
	then
		# /etc/aliases.db might be used by other MTA, make sure nothing
		# has touched it since our last newaliases call
		[ /etc/aliases -nt /etc/aliases.db ] ||
			[ "$ALIASESDB_STAMP" -nt /etc/aliases.db ] ||
			[ "$ALIASESDB_STAMP" -ot /etc/aliases.db ] || return
		/usr/bin/newaliases
		touch -r /etc/aliases.db "$ALIASESDB_STAMP"
	else
		/usr/bin/newaliases
	fi
}

start() {
	[ "$EUID" != "0" ] && exit 4
	# Check that networking is up.
	[ ${NETWORKING} = "no" ] && exit 1
	conf_check
	# Start daemons.
	echo -n $"Starting postfix: "
	make_aliasesdb >/dev/null 2>&1
	[ -x $CHROOT_UPDATE ] && $CHROOT_UPDATE
	/usr/sbin/postfix start 2>/dev/null 1>&2 && success || failure $"$prog start"
	RETVAL=$?
	[ $RETVAL -eq 0 ] && touch $lockfile
        echo
	return $RETVAL
}

init 스크립트의 확장성을 통해 start() 함수 블록에서 호출되는 conf_check()make_aliasesdb() 라는 두 가지 사용자 지정 함수를 지정할 수 있었습니다. 자세히 살펴보면 위의 코드에서 여러 외부 파일과 디렉토리 즉, 기본 서비스 실행 파일 /usr/sbin/postfix, /etc/postfix/, /var/spool/postfix/ 구성 디렉토리와 /usr/sbin/postconf/ 디렉토리가 언급됩니다.

systemd 는 사전 정의된 작업만 지원하지만 ExecStartPre, ExecStart Post, Exec Stop 및 Exec Reload 옵션을 사용하여 사용자 지정 실행 파일을 실행할 수 있습니다. 지원 스크립트와 함께 /usr/sbin/postfix 는 서비스 시작 시 실행됩니다. 복잡한 init 스크립트를 변환하려면 스크립트의 모든 명령의 목적을 이해해야 합니다. 일부 문은 운영 체제 버전에 따라 다르므로 변환할 필요가 없습니다. 한편, 새 환경에는 유닛 파일뿐만 아니라 서비스 실행 파일 및 지원 파일에 몇 가지 조정이 필요할 수 있습니다.

17.13. 기존 장치 파일 수정

시스템에 설치된 서비스에는 /usr/lib/systemd/system/ 디렉터리에 저장된 기본 유닛 파일이 포함되어 있습니다. 시스템 관리자는 이러한 파일을 직접 수정해서는 안 되므로 사용자 지정은 /etc/systemd/system/ 디렉터리의 구성 파일로 제한되어야 합니다.

절차

  1. 필요한 변경 범위에 따라 다음 방법 중 하나를 선택합니다.

    • /etc/systemd/system/unit.d/ 에서 보조 구성 파일의 디렉토리를 만듭니다. 이 방법은 대부분의 사용 사례에 권장됩니다. 원래 유닛 파일을 참조하는 동안 추가 기능을 사용하여 기본 구성을 확장할 수 있습니다. 따라서 패키지 업그레이드를 통해 도입된 기본 유닛에 대한 변경 사항이 자동으로 적용됩니다. 자세한 내용은 기본 장치 구성 확장을 참조하십시오.
    • 원본 유닛 파일 /usr/lib/systemd/system/의 사본을 /etc/systemd/system/ 만들고 여기에서 변경합니다. 복사본은 원래 파일을 재정의하므로 패키지 업데이트로 도입된 변경 사항은 적용되지 않습니다. 이 방법은 패키지 업데이트에 관계없이 지속되어야 하는 중요한 유닛 변경을 수행하는 데 유용합니다. 자세한 내용은 기본 장치 구성 덮어쓰기 를 참조하십시오.
  2. 유닛의 기본 구성으로 돌아가려면 /etc/systemd/system/ 에서 사용자 지정으로 생성된 구성 파일을 삭제합니다.
  3. 시스템을 재부팅하지 않고 유닛 파일에 변경 사항을 적용하려면 다음을 실행합니다.

    systemctl daemon-reload

    daemon-reload 옵션은 모든 유닛 파일을 다시 로드하고 전체 종속성 트리를 다시 생성합니다. 이 트리는 유닛 파일에 변경 사항을 즉시 적용하는 데 필요합니다. 또는 root 사용자로 실행해야 하는 다음 명령을 사용하여 동일한 결과를 얻을 수 있습니다.

    init q
  4. 수정된 유닛 파일이 실행 중인 서비스에 속하는 경우 새 설정을 허용하려면 이 서비스를 다시 시작해야 합니다.

    systemctl restart name.service
중요

SysV initscript에서 처리하는 서비스의 종속성 또는 시간 초과와 같은 속성을 수정하려면 initscript 자체를 수정하지 마십시오. 대신 다음에 설명된 대로 서비스에 대한 systemd 드롭인 구성 파일을 생성합니다. 기본 단위 구성 및 기본 장치 구성을 덮어 씁니다.

그런 다음 이 서비스를 일반 systemd 서비스와 동일한 방식으로 관리합니다.

예를 들어 네트워크 서비스의 구성을 확장하려면 /etc/rc.d/init.d/network initscript 파일을 수정하지 마십시오. 대신 새 디렉토리 /etc/systemd/system/network.service.d/systemd 드롭인 파일 /etc/systemd/system/network.service.d/my_config.conf 를 만듭니다. 그런 다음 수정된 값을 드롭인 파일에 넣습니다. 참고: systemd네트워크 서비스를 network .service 로 알고 있으므로 생성된 디렉토리를 network.service.d라고 해야 합니다.

17.14. 기본 장치 구성 확장

이 섹션에서는 추가 구성 옵션으로 기본 유닛 파일을 확장하는 방법에 대해 설명합니다.

절차

  1. 추가 구성 옵션을 사용하여 기본 유닛 파일을 확장하려면 먼저 /etc/systemd/system/ 에 구성 디렉토리를 만듭니다. 서비스 유닛을 확장하는 경우 다음 명령을 루트로 실행하십시오 :

    mkdir /etc/systemd/system/name.service.d/

    name 을 확장하려는 서비스의 이름으로 바꿉니다. 위의 구문은 모든 유닛 유형에 적용됩니다.

  2. 이전 단계에서 만든 디렉터리에 구성 파일을 생성합니다. 파일 이름은 .conf 접미사로 끝나야 합니다. 유형:

    touch /etc/systemd/system/name.service.d/config_name.conf

    config_name 을 구성 파일의 이름으로 바꿉니다. 이 파일은 일반적인 유닛 파일 구조를 준수하므로 모든 지시문을 해당 섹션에서 지정해야 합니다. 단위 파일 구조를 참조하십시오.

    예를 들어 사용자 지정 종속성을 추가하려면 다음 콘텐츠를 사용하여 구성 파일을 생성합니다.

    [Unit]
    Requires=new_dependency
    After=new_dependency

    new_dependency 는 종속성으로 표시된 유닛을 나타냅니다. 또 다른 예는 지연이 30초이고 기본 프로세스가 종료된 후 서비스를 다시 시작하는 구성 파일이 있습니다.

    [Service]
    Restart=always
    RestartSec=30

    한 작업에만 중점을 둔 작은 구성 파일을 만드는 것이 좋습니다. 이러한 파일은 쉽게 이동하거나 다른 서비스의 구성 디렉토리에 연결할 수 있습니다.

  3. 장치에 변경 사항을 적용하려면 루트로 다음을 실행합니다 :

    systemctl daemon-reload
    systemctl restart name.service

예 17.1. httpd.service 구성 확장

Apache 서비스를 시작할 때 사용자 지정 쉘 스크립트가 자동으로 실행되도록 httpd.service 장치를 수정하려면 다음 단계를 수행합니다.

  1. 디렉터리 및 사용자 지정 구성 파일을 생성합니다.

    # mkdir /etc/systemd/system/httpd.service.d/
    # touch /etc/systemd/system/httpd.service.d/custom_script.conf
  2. Apache로 자동 시작하려는 스크립트가 /usr/local/bin/custom.sh 에 있는 경우 custom_script.conf 파일에 다음 텍스트를 삽입합니다.

    [Service]
    ExecStartPost=/usr/local/bin/custom.sh
  3. 장치 변경 사항을 적용하려면 다음을 실행합니다.

    # systemctl daemon-reload
    # systemctl restart httpd.service
참고

/etc/systemd/system/의 구성 디렉토리의 구성 파일은 /usr/ lib/systemd/system/ 의 유닛 파일보다 우선합니다. 따라서 구성 파일에 Description 또는 ExecStart 와 같이 한 번만 지정할 수 있는 옵션이 포함된 경우 이 옵션의 기본값이 재정의됩니다. 재정의된 단위 모니터링에 설명된 systemd-delta 명령의 출력에서 이러한 단위는 합계에 따라 특정 옵션이 실제로 재정의 되지만 항상 [EXTENDED]로 표시됩니다.

17.15. 기본 장치 구성 덮어쓰기

이 섹션에서는 기본 유닛 구성을 재정의하는 방법을 설명합니다.

절차

  1. 유닛 파일을 제공하는 패키지를 업데이트한 후에도 지속되는 변경 사항은 먼저 파일을 /etc/systemd/system/ 디렉터리에 복사합니다. 이렇게 하려면 root 로 다음 명령을 실행하십시오.

    cp /usr/lib/systemd/system/name.service /etc/systemd/system/name.service

    여기서 name 은 수정할 서비스 유닛의 이름을 나타냅니다. 위의 구문은 모든 유닛 유형에 적용됩니다.

  2. 텍스트 편집기를 사용하여 복사한 파일을 열고 원하는 대로 변경합니다. 단위 변경 사항을 적용하려면 루트로 다음을 실행합니다 :

    systemctl daemon-reload
    systemctl restart name.service

17.16. 시간 제한 변경

서비스당 시간 제한 값을 지정하여 오작동 서비스가 시스템을 중지하지 않도록 할 수 있습니다. 그렇지 않으면 일반 서비스의 경우 timeout을 기본적으로 90초로 설정하고 SysV 호환 서비스의 경우 300초로 설정합니다.

예를 들어 httpd 서비스의 시간 제한을 확장하려면 다음을 수행합니다.

절차

  1. httpd 장치 파일을 /etc/systemd/system/ 디렉터리에 복사합니다.

    cp /usr/lib/systemd/system/httpd.service /etc/systemd/system/httpd.service
  2. /etc/systemd/system/httpd.service 파일을 열고 [Service] 섹션에서 TimeoutStartUSec 값을 지정합니다.

    …​
    [Service]
    …​
    PrivateTmp=true
    TimeoutStartSec=10
    
    [Install]
    WantedBy=multi-user.target
    …​
  3. systemd 데몬을 다시 로드합니다.

    systemctl daemon-reload
  4. 선택 사항: 새 시간 초과 값을 확인합니다.

    systemctl show httpd -p TimeoutStartUSec
    참고

    시간 제한 제한을 전역적으로 변경하려면 /etc/systemd/system.conf 파일에 DefaultTimeoutStartSec 를 입력합니다.

17.17. 재정의된 유닛 모니터링

이 섹션에서는 재정의되거나 수정된 유닛 파일의 개요를 표시하는 방법에 대해 설명합니다.

절차

  • 재정의되었거나 수정된 유닛 파일의 개요를 표시하려면 다음 명령을 사용합니다.

    systemd-delta

    예를 들어 위 명령의 출력은 다음과 같이 표시될 수 있습니다.

    [EQUIVALENT] /etc/systemd/system/default.target → /usr/lib/systemd/system/default.target
    [OVERRIDDEN] /etc/systemd/system/autofs.service → /usr/lib/systemd/system/autofs.service
    
    --- /usr/lib/systemd/system/autofs.service      2014-10-16 21:30:39.000000000 -0400
    + /etc/systemd/system/autofs.service  2014-11-21 10:00:58.513568275 -0500
    @@ -8,7 +8,8 @@
     EnvironmentFile=-/etc/sysconfig/autofs
     ExecStart=/usr/sbin/automount $OPTIONS --pid-file /run/autofs.pid
     ExecReload=/usr/bin/kill -HUP $MAINPID
    -TimeoutSec=180
    +TimeoutSec=240
    +Restart=Always
    
     [Install]
     WantedBy=multi-user.target
    
    [MASKED]     /etc/systemd/system/cups.service → /usr/lib/systemd/system/cups.service
    [EXTENDED]   /usr/lib/systemd/system/sssd.service → /etc/systemd/system/sssd.service.d/journal.conf
    
    4 overridden configuration files found.

17.18. 인스턴스화된 유닛 작업

런타임 시 단일 템플릿 구성 파일에서 여러 유닛을 인스턴스화할 수 있습니다. "@" 문자는 템플릿을 표시하고 유닛을 연결하는 데 사용됩니다. 인스턴스화된 유닛은 다른 유닛 파일(필수 또는 Wants 옵션 사용) 또는 systemctl start 명령을 사용하여 시작할 수 있습니다. 인스턴스화된 서비스 유닛의 이름은 다음과 같은 방법으로 지정됩니다.

template_name@instance_name.service

여기서 template_name 은 템플릿 구성 파일의 이름을 나타냅니다. instance_name 을 유닛 인스턴스의 이름으로 바꿉니다. 여러 인스턴스는 유닛의 모든 인스턴스에 공통적인 구성 옵션을 사용하여 동일한 템플릿 파일을 가리킬 수 있습니다. 템플릿 장치 이름은 다음과 같은 형식을 갖습니다.

unit_name@.service

예를 들어 유닛 파일의 다음 Wants 설정은 다음과 같습니다.

Wants=getty@ttyA.service getty@ttyB.service

먼저 지정된 서비스 유닛에 대한 systemd를 검색합니다. 이러한 유닛을 찾을 수 없는 경우 "@"와 유형 접미사 사이의 부분은 무시되고 systemdgetty@.service 파일을 검색하고, 해당 유닛에서 구성을 읽고, 서비스를 시작합니다.

예를 들어 getty@.service 템플릿에 는 다음 지시문이 포함되어 있습니다.

[Unit]
Description=Getty on %I
…​
[Service]
ExecStart=-/sbin/agetty --noclear %I $TERM
…​

getty@ttyA.service와 getty@ttyB.service가 위의 템플릿에서 인스턴스화되면 Description=은 ttyA에서 Getty로 확인되고 tty B에서 Getty 로 해결됩니다.

17.19. 중요한 장치 지정자

장치 지정자라고 하는 와일드카드 문자는 모든 유닛 구성 파일에서 사용할 수 있습니다. 단위는 특정 유닛 매개변수를 대체하고 런타임 시 해석됩니다. 다음 표에는 템플릿 유닛에 특히 유용한 유닛이 나열되어 있습니다.

표 17.5. 중요한 장치 지정자

장치 지정기의미설명

%n

전체 유닛 이름

유형 접미사를 포함하여 전체 단위 이름을 나타냅니다. %N 은 동일한 의미를 가지지만 허용되지 않은 문자를 ASCII 코드로 대체합니다.

%p

접두사 이름

은 접미사가 제거된 유닛 이름을 나타냅니다. 인스턴스화 단위 %p는 "@" 문자 앞에 있는 유닛 이름의 부분을 나타냅니다.

%i

인스턴스 이름

는 "@" 문자와 접미사 유형 간 인스턴스화된 유닛 이름의 일부입니다. %I 는 동일한 의미를 가지고 있지만 ASCII 코드의 금지된 문자를 대체합니다.

%H

호스트 이름

유닛 구성이 로드되는 시점에서 실행 중인 시스템의 호스트 이름을 나타냅니다.

%t

런타임 디렉터리

root 사용자의 경우 /run 또는 권한이 없는 사용자의 XDG_RUNTIME_DIR 변수 값인 런타임 디렉터리를 나타냅니다.

유닛 사양의 전체 목록은 systemd.unit(5) 매뉴얼 페이지를 참조하십시오.

17.20. 추가 리소스

18장. systemd 최적화를 통해 부팅 시간 단축

기본적으로 활성화되어 있는 systemd 유닛 파일 목록이 있습니다. 이러한 유닛 파일에서 정의한 시스템 서비스는 부팅 시 자동으로 실행되며 부팅 시간에 영향을 미칩니다.

이 섹션에서는 다음을 설명합니다.

  • 시스템 부팅 성능을 검사하는 툴입니다.
  • 기본적으로 활성화된 systemd 유닛의 용도와 부팅 시간을 단축하기 위해 해당 systemd 유닛을 안전하게 비활성화할 수 있는 상황.

18.1. 시스템 부팅 성능 검사

시스템 부팅 성능을 검사하려면 systemd-analyze 명령을 사용할 수 있습니다. 이 명령에는 다양한 옵션을 사용할 수 있습니다. 그러나 이 섹션에서는 부팅 시간을 단축하기 위해 systemd 튜닝에 중요할 수 있는 선택된 튜닝만 다룹니다.

모든 옵션에 대한 전체 목록 및 자세한 설명은 systemd-analyze 도움말 페이지를 참조하십시오.

사전 요구 사항

  • 부팅 시간을 조정하기 위해 systemd를 검사하기 전에 활성화된 모든 서비스를 나열할 수 있습니다.

절차

$ systemctl list-unit-files --state=enabled

전체 부팅 시간 분석

절차

  • 마지막으로 성공한 부팅에 대한 전체 정보에서는 다음을 사용합니다.
$ systemd-analyze

단위 초기화 시간 분석

절차

  • 각 systemd 단위의 초기화 시간에 대한 정보는 다음을 사용합니다.
$ systemd-analyze blame

출력에는 마지막 부팅이 성공하는 동안 초기화하는 데 걸리는 시간에 따라 내림차순으로 유닛이 나열됩니다.

위험 단위 식별

절차

  • 마지막으로 성공한 부팅 시 초기화하는 데 가장 많은 시간이 소요된 유닛을 식별하려면 다음을 사용합니다.
$ systemd-analyze critical-chain

출력은 빨간색 색상으로 부팅 속도를 크게 저하시키는 유닛을 강조 표시합니다.

그림 18.1. systemd-analyze critical-chain 명령의 출력

systemd 분석 심각도

18.2. 안전하게 비활성화할 수 있는 서비스 선택 가이드

시스템의 부팅 시간이 길어지면 기본적으로 부팅 시 활성화된 일부 서비스를 비활성화하여 시스템 부팅 시간을 단축할 수 있습니다.

이러한 서비스를 나열하려면 다음을 실행합니다.

$ systemctl list-unit-files --state=enabled

서비스를 비활성화하려면 다음을 실행합니다.

# systemctl disable service_name

그러나 운영 체제가 안전하고 필요한 방식으로 작동하려면 특정 서비스가 계속 활성화되어 있어야 합니다.

아래 표를 안전하게 비활성화할 수 있는 서비스를 선택하는 가이드로 사용할 수 있습니다. 테이블에는 Red Hat Enterprise Linux의 최소 설치에서 기본적으로 활성화된 모든 서비스가 나열되며, 각 서비스에 대해 이 서비스를 안전하게 비활성화할 수 있는지 여부가 표시됩니다.

또한 테이블에서는 서비스를 비활성화할 수 있는 상황 또는 서비스를 비활성화하지 않아야 하는 이유에 대한 자세한 정보를 제공합니다.

표 18.1. RHEL의 최소 설치에서 기본적으로 활성화된 서비스

서비스 이름비활성화할 수 있습니까?자세한 정보

auditd.service

제공됨

커널의 감사 메시지가 필요하지 않은 경우에만 auditd.service 를 비활성화합니다. auditd.service 를 비활성화하면 /var/log/audit/audit.log 파일이 생성되지 않습니다. 따라서 사용자 로그인, 서비스 시작 또는 암호 변경과 같이 일반적으로 검토되는 일부 작업이나 이벤트를 소급적으로 검토할 수 없습니다. 또한 auditd에는 커널 부분과 서비스 자체의 두 부분이 있습니다. systemctl disable auditd 명령을 사용하면 서비스만 비활성화하고 커널 부분은 비활성화할 수 없습니다. 전체 시스템 감사를 비활성화하려면 커널 명령줄에서 audit=0 을 설정합니다.

autovt@.service

아니요

이 서비스는 실제로 필요한 경우에만 실행되므로 비활성화할 필요가 없습니다.

crond.service

제공됨

crond.service를 비활성화하면 crontab의 항목이 실행되지 않습니다.

dbus-org.fedoraproject.FirewallD1.service

제공됨

firewalld.service에 대한 심볼릭 링크

dbus-org.freedesktop.NetworkManager.service

제공됨

NetworkManager.service에 대한 심볼릭 링크

dbus-org.freedesktop.nm-dispatcher.service

제공됨

NetworkManager-dispatcher.service에 대한 심볼릭 링크

firewalld.service

제공됨

방화벽이 필요하지 않은 경우에만 firewalld.service 를 비활성화합니다.

getty@.service

아니요

이 서비스는 실제로 필요한 경우에만 실행되므로 비활성화할 필요가 없습니다.

import-state.service

제공됨

네트워크 스토리지에서 부팅할 필요가 없는 경우에만 import-state.service 를 비활성화합니다.

irqbalance.service

제공됨

CPU가 하나만 있는 경우에만 irqbalance.service 를 비활성화합니다. 여러 CPU가 있는 시스템에서 irqbalance.service 를 비활성화하지 마십시오.

kdump.service

제공됨

커널 충돌의 보고서가 필요하지 않은 경우에만 kdump.service 를 비활성화합니다.

loadmodules.service

제공됨

/etc/rc.modules 또는 /etc/sysconfig/modules 디렉터리가 존재하지 않는 한 이 서비스는 시작되지 않습니다. 즉, 최소한의 RHEL 설치에서는 시작되지 않습니다.

lvm2-monitor.service

제공됨

LVM(Logical Volume Manager)을 사용하지 않는 경우에만 lvm2-monitor.service 를 비활성화합니다.

microcode.service

아니요

CPU에서 마이크로 코드 소프트웨어의 업데이트를 제공하므로 서비스를 비활성화하지 마십시오.

NetworkManager-dispatcher.service

제공됨

네트워크 구성 변경에 대한 알림이 필요하지 않은 경우에만 NetworkManager-dispatcher.service 를 비활성화합니다(예: 정적 네트워크).

NetworkManager-wait-online.service

제공됨

부팅 직후 사용 가능한 작업 중인 네트워크 연결이 필요하지 않은 경우에만 NetworkManager-wait-online.service 를 비활성화합니다. 서비스가 활성화되면 네트워크 연결이 작동하기 전에 시스템에서 부팅을 완료하지 않습니다. 이 작업은 부팅 시간이 훨씬 오래 걸릴 수 있습니다.

NetworkManager.service

제공됨

네트워크에 연결할 필요가 없는 경우에만 NetworkManager.service 를 비활성화합니다.

nis-domainname.service

제공됨

NIS(Network Information Service)를 사용하지 않는 경우에만 nis-domainname.service 를 비활성화합니다.

rhsmcertd.service

아니요

 

rngd.service

제공됨

Disable rngd.service 는 시스템에 많은 엔트로피가 필요하지 않거나 하드웨어 생성기가 없는 경우에만 해당됩니다. X.509 인증서 생성에 사용되는 시스템(예: FreeIPA 서버)과 같이 많은 좋은 엔트로피가 필요한 환경에서 서비스가 필요합니다.

rsyslog.service

제공됨

영구 로그가 필요하지 않은 경우에만 rsyslog.service 를 비활성화하거나 systemd-journald 를 영구 모드로 설정합니다.

selinux-autorelabel-mark.service

제공됨

SELinux를 사용하지 않는 경우에만 selinux-autorelabel-mark.service 를 비활성화합니다.

sshd.service

제공됨

OpenSSH 서버에서 원격 로그인이 필요하지 않은 경우에만 sshd.service 를 비활성화합니다.

sssd.service

제공됨

네트워크에서 시스템에 로그인한 사용자가 없는 경우에만 sssd.service 를 비활성화합니다(예: LDAP 또는 Kerberos 사용). sssd. service 를 비활성화하는 경우 모든 sssd-* 장치를 비활성화하는 것이 좋습니다.

syslog.service

제공됨

rsyslog.service의 별칭

tuned.service

제공됨

성능 튜닝을 사용해야 하는 경우에만 tuned.service 를 비활성화합니다.

lvm2-lvmpolld.socket

제공됨

LVM(Logical Volume Manager)을 사용하지 않는 경우에만 lvm2-lvmpolld.socket 을 비활성화합니다.

dnf-makecache.timer

제공됨

패키지 메타데이터를 자동으로 업데이트할 필요가 없는 경우에만 dnf-makecache.timer 을 비활성화합니다.

unbound-anchor.timer

제공됨

DNSSEC(DNS Security Extensions)에 대한 루트 신뢰 앵커의 일상적인 업데이트가 필요하지 않은 경우에만 unbound-anchor.timer 을 비활성화합니다. 이 루트 신뢰 앵커는 DNSSEC 검증을 위해 unbound resolver 및 resolver 라이브러리에서 사용합니다.

서비스에 대한 자세한 정보를 찾으려면 다음 명령 중 하나를 실행합니다.

$ systemctl cat <service_name>
$ systemctl help <service_name>

systemctl cat 명령은 /usr/lib/systemd/system/<service> 에 있는 서비스 파일의 내용과 적용 가능한 모든 재정의를 제공합니다. 적용 가능한 덮어쓰기에는 /etc/systemd/system/<service> 파일의 장치 파일 재정의 또는 해당 unit.type.d 디렉토리의 드롭인 파일이 포함됩니다.

드롭인 파일에 대한 자세한 내용은 systemd.unit 도움말 페이지를 참조하십시오.

systemctl help 명령은 특정 서비스의 도움말 페이지를 표시합니다.

18.3. 추가 리소스

  • systemctl(1) 도움말 페이지
  • Systemd (1) 도움말 페이지
  • systemd-delta(1) 도움말 페이지
  • systemd.directives(7) 도움말 페이지
  • systemd.unit(5) 도움말 페이지
  • systemd.service(5) 도움말 페이지
  • systemd.target(5) 도움말 페이지
  • systemd.kill(5) 도움말 페이지
  • 시스템 홈 페이지

19장. 사용자 및 그룹 계정 관리 소개

사용자 및 그룹의 제어는 RHEL(Red Hat Enterprise Linux) 시스템 관리의 핵심 요소입니다. 각 RHEL 사용자에게는 고유한 로그인 자격 증명이 있으며 다양한 그룹에 할당하여 시스템 권한을 사용자 지정할 수 있습니다.

19.1. 사용자 및 그룹 소개

파일을 생성하는 사용자는 해당 파일의 소유자와 해당 파일의 그룹 소유자입니다. 파일에는 소유자, 그룹 및 해당 그룹 외부에 대한 별도의 읽기, 쓰기, 실행 권한이 할당됩니다. 파일 소유자는 root 사용자만 변경할 수 있습니다. 파일에 대한 액세스 권한은 root 사용자와 파일 소유자가 모두 변경할 수 있습니다. 일반 사용자는 소유한 파일의 그룹 소유권을 멤버인 그룹으로 변경할 수 있습니다.

각 사용자는UID(사용자 ID )라는 고유한 숫자 식별 번호와 연결됩니다. 각 그룹은GID( 그룹 ID )와 연결됩니다. 그룹 내의 사용자는 동일한 권한을 공유하여 해당 그룹이 소유한 파일을 읽고, 쓰고, 실행할 수 있습니다.

19.2. 예약된 사용자 및 그룹 ID 구성

RHEL은 1000 미만의 사용자 및 그룹 ID를 시스템 사용자 및 그룹을 위해 예약합니다. 예약된 사용자 및 그룹 ID는 setup 패키지에서 찾을 수 있습니다. 예약된 사용자 및 그룹 ID를 보려면 다음을 사용합니다.

cat /usr/share/doc/setup*/uidgid

향후 예약 범위가 증가할 수 있으므로 5000부터 시작하는 새 사용자 및 그룹에 ID를 할당하는 것이 좋습니다.

새 사용자에게 할당된 ID가 기본적으로 5000에서 시작되도록 하려면 /etc/login.defs 파일에서 UID _MIN 및 GID_MIN 매개 변수를 수정합니다.

절차

새 사용자에게 할당된 ID를 수정하려면 기본적으로 5000에서 시작합니다.

  1. 선택한 편집기에서 /etc/login.defs 파일을 엽니다.
  2. 자동 UID 선택에 대한 최소 값을 정의하는 행을 찾습니다.

    # Min/max values for automatic uid selection in useradd
    #
    UID_MIN                  1000
  3. 5000에서 시작되도록 UID_MIN 값을 수정합니다.

    # Min/max values for automatic uid selection in useradd
    #
    UID_MIN                  5000
  4. 자동 GID 선택에 대한 최소 값을 정의하는 행을 찾습니다.

    # Min/max values for automatic gid selection in groupadd
    #
    GID_MIN                  1000
  5. GID_MIN 값을 수정하여 5000에서 시작합니다.

    # Min/max values for automatic gid selection in groupadd
    #
    GID_MIN                  5000

    일반 사용자에 대해 동적으로 할당된 UID 및 GID는 이제 5000에서 시작합니다.

    참고

    UID_MIN 및 GID_MIN 값을 변경하기 전에 생성된 UID 및 GID의 사용자 및 그룹은 변경되지 않습니다.

    이렇게 하면 새 사용자 그룹이 UID 및 GID와 5000+ ID를 가질 수 있습니다.

    주의

    1000 제한을 유지하는 시스템과의 충돌을 피하도록 SYS_UID_MAX 를 변경하여 1000 이상의 시스템에서 예약한 ID를 늘리지 마십시오.

19.3. 사용자 개인 그룹

RHEL은 사용자 개인 그룹 (UPG) 시스템 구성을 사용하므로 UNIX 그룹을 더 쉽게 관리할 수 있습니다. 새 사용자가 시스템에 추가될 때마다 사용자 개인 그룹이 생성됩니다. 사용자 개인 그룹에는 생성된 사용자와 이름이 동일하며 사용자는 사용자 개인 그룹의 유일한 멤버입니다.

UPG는 여러 사용자 간의 프로젝트에서의 협업을 간소화합니다. 또한 UPG 시스템 구성을 사용하면 새로 생성된 파일 또는 디렉토리에 대한 기본 권한을 안전하게 설정할 수 있으며, 이 사용자는 파일 또는 디렉터리를 수정할 수 있습니다.

모든 그룹 목록은 /etc/group 구성 파일에 저장됩니다.

20장. 웹 콘솔에서 사용자 계정 관리

RHEL 웹 콘솔은 터미널에 직접 액세스하지 않고도 다양한 관리 작업을 실행할 수 있는 그래픽 인터페이스를 제공합니다. 예를 들어 시스템 사용자 계정을 추가, 편집 또는 제거할 수 있습니다.

이 섹션을 읽은 후 다음을 알 수 있습니다.

  • 기존 계정의 출처는 다음과 같습니다.
  • 새 계정을 추가하는 방법.
  • 암호 만료 설정 방법.
  • 사용자 세션을 종료하는 방법과 시기.

사전 요구 사항

20.1. 웹 콘솔에서 관리하는 시스템 사용자 계정

RHEL 웹 콘솔에 사용자 계정을 표시하면 다음을 수행할 수 있습니다.

  • 시스템에 액세스할 때 사용자를 인증합니다.
  • 시스템에 대한 액세스 권한을 설정합니다.

RHEL 웹 콘솔에는 시스템에 있는 모든 사용자 계정이 표시됩니다. 따라서 웹 콘솔에 처음 로그인한 직후 하나 이상의 사용자 계정을 볼 수 있습니다.

RHEL 웹 콘솔에 로그인한 후 다음 작업을 수행할 수 있습니다.

  • 새 사용자 계정 생성.
  • 매개 변수 변경.
  • 계정 잠금.
  • 사용자 세션 종료.

20.2. 웹 콘솔을 사용하여 새 계정 추가

다음 단계를 사용하여 시스템에 사용자 계정을 추가하고 RHEL 웹 콘솔을 통해 계정에 관리 권한을 설정합니다.

사전 요구 사항

  • RHEL 웹 콘솔을 설치하고 액세스할 수 있어야 합니다. 자세한 내용은 웹 콘솔 설치를 참조하십시오.

절차

  1. RHEL 웹 콘솔에 로그인합니다.
  2. Accounts (계정)를 클릭합니다.
  3. Create New Account (새 계정 만들기)를 클릭합니다.
  1. Full Name (전체 이름) 필드에 사용자의 전체 이름을 입력합니다.

    RHEL 웹 콘솔은 전체 이름에서 사용자 이름을 자동으로 제안하고 User Name(사용자 이름 ) 필드에 채웁니다. 이름 및 전체 성의 첫 번째 문자로 구성된 원래 명명 규칙을 사용하지 않으려면 제안 사항을 업데이트합니다.

  2. Password/Confirm (암호/확인) 필드에 암호를 입력하고 암호가 올바른지 확인하기 위해 암호를 다시 입력합니다.

    필드에 저장된 색상 표시줄은 입력한 암호의 보안 수준을 나타내므로 암호가 취약한 사용자를 만들 수 없습니다.

  1. Create(만들기 )를 클릭하여 설정을 저장하고 대화 상자를 닫습니다.
  2. 새로 생성된 계정을 선택합니다.
  3. Roles (역할) 항목에서 Server Administrator( 서버 관리자)를 선택합니다.

    cockpit terminate session pf4

    이제 계정 설정에서 새 계정을 볼 수 있으며 자격 증명을 사용하여 시스템에 연결할 수 있습니다.

20.3. 웹 콘솔에서 암호 만료 강제 적용

기본적으로 사용자 계정은 암호가 만료되지 않도록 설정되었습니다. 정의된 기간(일) 후에 만료되도록 시스템 암호를 설정할 수 있습니다. 암호가 만료되면 다음 로그인 시도에서 암호 변경을 요청하는 메시지를 표시합니다.

절차

  1. RHEL 8 웹 콘솔에 로그인합니다.
  2. Accounts (계정)를 클릭합니다.
  3. 암호 만료를 적용할 사용자 계정을 선택합니다.
  4. 사용자 계정 설정에서 두 번째 편집 을 클릭합니다.
  5. Password Expiration(암호 만료 ) 대화 상자에서 암호를 변경해야 할 때마다 …​를 선택합니다. days 을(를) 입력하고 암호가 만료된 날 수를 나타내는 양의 정수 숫자를 입력합니다.
  6. Change(변경 )를 클릭합니다.

검증 단계

  • 암호 만료가 설정되었는지 확인하려면 계정 설정을 엽니다.

    RHEL 8 웹 콘솔에는 만료 날짜가 포함된 링크가 표시됩니다.

    cockpit password expiration date

20.4. 웹 콘솔에서 사용자 세션 종료

사용자는 시스템에 로그인할 때 사용자 세션을 생성합니다. 사용자 세션을 종료하면 시스템에서 사용자를 로그아웃합니다. 구성 변경 사항(예: 시스템 업그레이드)에 민감한 관리 작업을 수행해야 하는 경우 유용할 수 있습니다.

RHEL 8 웹 콘솔의 각 사용자 계정에서는 현재 사용 중인 웹 콘솔 세션을 제외하고 계정의 모든 세션을 종료할 수 있습니다. 이렇게 하면 시스템에 대한 액세스가 손실되지 않습니다.

절차

  1. RHEL 8 웹 콘솔에 로그인합니다.
  2. Accounts (계정)를 클릭합니다.
  3. 세션을 종료할 사용자 계정을 클릭합니다.
  4. Terminate Session (종료 세션)을 클릭합니다.

    Terminate Session(세션 종료 ) 버튼이 비활성화되면 사용자는 시스템에 로그인되지 않습니다.

    RHEL 웹 콘솔은 세션을 종료합니다.

21장. 명령줄에서 사용자 관리

CLI(명령줄 인터페이스)를 사용하여 사용자와 그룹을 관리할 수 있습니다. 이를 통해 Red Hat Enterprise Linux 환경에서 사용자와 사용자 그룹을 추가, 제거 및 수정할 수 있습니다.

21.1. 명령줄에서 새 사용자 추가

이 섹션에서는 useradd 유틸리티를 사용하여 새 사용자를 추가하는 방법에 대해 설명합니다.

사전 요구 사항

  • 루트 액세스

절차

  • 새 사용자를 추가하려면 다음을 사용합니다.

    # useradd options username

    옵션을 useradd 명령의 명령줄 옵션으로 바꾸고 username 을 사용자 이름으로 바꿉니다.

    예 21.1. 새 사용자 추가

    사용자 ID 5000 으로 사용자 sarah 를 추가하려면 다음을 사용합니다.

    +

    # useradd -u 5000 sarah

검증 단계

  • 새 사용자가 추가되었는지 확인하려면 id 유틸리티를 사용합니다.

    # id sarah

    출력은 다음을 반환합니다.

    uid=5000(sarah) gid=5000(sarah) groups=5000(sarah)

추가 리소스

  • useradd 도움말 페이지

21.2. 명령줄에서 새 그룹 추가

이 섹션에서는 groupadd 유틸리티를 사용하여 새 그룹을 추가하는 방법에 대해 설명합니다.

사전 요구 사항

  • 루트 액세스

절차

  • 새 그룹을 추가하려면 다음을 사용합니다.

    # groupadd options group-name

    옵션을 groupadd 명령의 명령줄 옵션으로 바꾸고 group-name 을 그룹 이름으로 바꿉니다.

    예 21.2. 새 그룹 추가

    그룹 ID가 5000 인 sysadmins 그룹을 추가하려면 다음을 사용합니다.

    +

    # groupadd -g 5000 sysadmins

검증 단계

  • 새 그룹이 추가되었는지 확인하려면 tail 유틸리티를 사용합니다.

    # tail /etc/group

    출력은 다음을 반환합니다.

    sysadmins:x:5000:

추가 리소스

  • groupadd man 페이지

21.3. 명령줄에서 사용자를 보조 그룹에 추가

보조 그룹에 사용자를 추가하여 권한을 관리하거나 특정 파일 또는 장치에 대한 액세스를 활성화할 수 있습니다.

사전 요구 사항

  • 루트 액세스

절차

  • 사용자의 보조 그룹에 그룹을 추가하려면 다음을 사용합니다.

    # usermod --append -G group-name username

    group-name 을 그룹의 이름으로 바꾸고 username 을 사용자 이름으로 바꿉니다.

    예 21.3. 보조 그룹에 사용자 추가

    사용자 sysadminsystem-admins 그룹에 추가하려면 다음을 사용합니다.

    # usermod --append -G system-administrators sysadmin

검증 단계

  • 새 그룹이 사용자 sysadmin 의 보조 그룹에 추가되었는지 확인하려면 다음을 사용합니다.

    # groups sysadmin

    출력이 표시됩니다.

    sysadmin : sysadmin system-administrators

21.4. 그룹 디렉토리 생성

UPG 시스템 구성에서 set-group 식별 권한 (setgid bit)을 디렉터리에 적용할 수 있습니다. setgid 비트를 사용하면 디렉터리를 공유하는 그룹 프로젝트를 더 간단하게 관리할 수 있습니다. 디렉터리에 setgid 비트를 적용하면 해당 디렉터리 내에 생성된 파일이 디렉토리를 소유한 그룹에 자동으로 할당됩니다. 이 그룹 내에서 작성하고 실행할 수 있는 권한이 있는 사용자는 이제 디렉터리에 파일을 생성, 수정 및 삭제할 수 있습니다.

다음 섹션에서는 그룹 디렉터리를 만드는 방법을 설명합니다.

사전 요구 사항

  • 루트 액세스

절차

  1. 디렉터리를 생성합니다.

    # mkdir directory-name

    directory-name 을 디렉터리 이름으로 바꿉니다.

  2. 그룹을 생성합니다.

    # groupadd group-name

    group-name 을 그룹 이름으로 바꿉니다.

  3. 그룹에 사용자를 추가합니다.

    # usermod --append -G group-name username

    group-name 을 그룹의 이름으로 바꾸고 username 을 사용자 이름으로 바꿉니다.

  4. 디렉터리의 사용자 및 그룹 소유권을 group-name 그룹과 연결합니다.

    # chown :group-name directory-name

    group-name 을 그룹의 이름으로 바꾸고, directory-name 을 디렉터리 이름으로 바꿉니다.

  5. 사용자가 파일 및 디렉터리를 생성 및 수정하고 setgid 비트를 설정하여 directory-name 디렉토리 내에서 이 권한을 적용하도록 허용하도록 쓰기 권한을 설정합니다.

    # chmod g+rwxs directory-name

    directory-name 을 디렉터리 이름으로 바꿉니다.

    이제 group-name 그룹의 모든 멤버가 directory-name 디렉터리에 파일을 만들고 편집할 수 있습니다. 새로 생성된 파일은 group-name 그룹의 그룹 소유권을 유지합니다.

검증 단계

  • 권한 설정의 정확성을 확인하려면 다음을 사용합니다.

    # ls -ld directory-name

    directory-name 을 디렉터리 이름으로 바꿉니다.

    출력은 다음을 반환합니다.

    drwxrwsr-x. 2 root group-name 6 Nov 25 08:45 directory-name

22장. 명령줄을 사용하여 사용자 그룹 편집

사용자는 파일 및 폴더에 대한 유사한 액세스 권한을 가진 사용자의 논리적 컬렉션을 허용하는 특정 그룹 세트에 속합니다. 명령줄에서 기본 및 보조 사용자 그룹을 편집하여 사용자의 권한을 변경할 수 있습니다.

22.1. 기본 및 보조 사용자 그룹

그룹은 특정 파일에 대한 액세스 권한 부여 등 공통 목적으로 여러 사용자 계정을 연결하는 엔터티입니다.

Linux에서 사용자 그룹은 기본 또는 보조 역할을 할 수 있습니다. 기본 및 보조 그룹에는 다음 속성이 있습니다.

기본 그룹
  • 모든 사용자에게는 항상 하나의 기본 그룹만 있습니다.
  • 사용자의 기본 그룹을 변경할 수 있습니다.
보조 그룹
  • 기존 사용자를 기존 보조 그룹에 추가하여 그룹 내에서 동일한 보안 및 액세스 권한으로 사용자를 관리할 수 있습니다.
  • 사용자는 0개 또는 여러 개의 보조 그룹의 구성원이 될 수 있습니다.

22.2. 사용자의 기본 및 보조 그룹 나열

사용자 그룹을 나열하여 자신이 속한 기본 및 보조 그룹을 확인할 수 있습니다.

절차

  • 사용자의 기본 그룹과 보조 그룹의 이름을 표시합니다.

    $ groups user-name

    user-name 을 사용자 이름으로 변경합니다. 사용자 이름을 제공하지 않으면 명령은 현재 사용자의 그룹 멤버십을 표시합니다. 첫 번째 그룹은 기본 그룹 다음에 선택적 보조 그룹이 옵니다.

    예 22.1. 사용자 sarah의 그룹 목록:

    $ groups sarah

    출력이 표시됩니다.

    sarah : sarah wheel developer

    User sarah 에는 기본 group sarah 가 있으며, 보조 그룹 wheeldeveloper 의 구성원입니다.

    예 22.2. 사용자 marc의 그룹 목록:

    $ groups marc

    출력이 표시됩니다.

    marc : marc

    사용자 marc 에는 기본 그룹 marc 및 보조 그룹이 없습니다.

22.3. 사용자의 기본 그룹 변경

기존 사용자의 기본 그룹을 새 그룹으로 변경할 수 있습니다.

사전 요구 사항

  1. 루트 액세스
  2. 새 그룹이 존재해야 합니다.

절차

  • 사용자의 기본 그룹을 변경합니다.

    # usermod -g group-name user-name

    group-name 을 새 기본 그룹의 이름으로 바꾸고 user-name 을 사용자 이름으로 교체합니다.

    참고

    사용자의 기본 그룹을 변경하면 명령은 사용자 홈 디렉터리에 있는 모든 파일의 그룹 소유권을 새 기본 그룹으로 자동 변경합니다. 사용자의 홈 디렉터리 외부에서 파일의 그룹 소유권을 수동으로 수정해야 합니다.

    예 22.3. 사용자의 기본 그룹을 변경하는 예:

    user sarah가 기본 group sarah1 에 속하고 사용자의 기본 그룹을 sarah2 로 변경하려면 다음을 사용합니다.

    # usermod -g sarah2 sarah

검증 단계

  • 사용자의 기본 그룹을 변경했는지 확인합니다.

    $ groups sarah

    출력이 표시됩니다.

    sarah : sarah2

22.4. 명령줄에서 사용자를 보조 그룹에 추가

보조 그룹에 사용자를 추가하여 권한을 관리하거나 특정 파일 또는 장치에 대한 액세스를 활성화할 수 있습니다.

사전 요구 사항

  • 루트 액세스

절차

  • 사용자의 보조 그룹에 그룹을 추가하려면 다음을 사용합니다.

    # usermod --append -G group-name username

    group-name 을 그룹의 이름으로 바꾸고 username 을 사용자 이름으로 바꿉니다.

    예 22.4. 보조 그룹에 사용자 추가

    사용자 sysadminsystem-admins 그룹에 추가하려면 다음을 사용합니다.

    # usermod --append -G system-administrators sysadmin

검증 단계

  • 새 그룹이 사용자 sysadmin 의 보조 그룹에 추가되었는지 확인하려면 다음을 사용합니다.

    # groups sysadmin

    출력이 표시됩니다.

    sysadmin : sysadmin system-administrators

22.5. 보조 그룹에서 사용자 제거

보조 그룹에서 기존 사용자를 제거하여 파일 및 장치에 대한 권한을 제한할 수 있습니다.

사전 요구 사항

  • 루트 액세스

절차

  • 보조 그룹에서 사용자 제거:

    # gpasswd -d user-name group-name

    user-name 을 사용자 이름으로 바꾸고 group-name 을 보조 그룹 이름으로 교체합니다.

    예 22.5. 보조 그룹에서 사용자 제거

    사용자 sarah에 기본 group sarah2 가 있고 보조 그룹 wheeldevelopers 에 속하고 그룹 개발자에서 해당 사용자를 제거하려면 다음을 사용합니다.

    # gpasswd -d sarah developers

검증 단계

  • 보조 그룹 developers에서 사용자 sarah가 제거되었는지 확인합니다.

    $ groups sarah

    출력이 표시됩니다.

    sarah : sarah2 wheel

22.6. 사용자의 모든 보조 그룹 변경

사용자가 멤버로 유지하려는 보조 그룹 목록을 덮어쓸 수 있습니다.

사전 요구 사항

  • 루트 액세스
  • 보조 그룹이 있어야 합니다.

절차

  • 사용자의 보조 그룹 목록을 덮어씁니다.

    # usermod -G group-names username

    group-names 를 하나 이상의 보조 그룹의 이름으로 바꿉니다. 사용자를 한 번에 여러 보조 그룹에 추가하려면 그룹 이름을 쉼표와 중간 공백을 사용하여 구분합니다. 예: wheel,developer.

    user-name 을 사용자 이름으로 변경합니다.

    중요

    사용자가 현재 지정하지 않는 그룹의 멤버인 경우 명령은 그룹에서 사용자를 제거합니다.

    예 22.6. 사용자의 보조 그룹 목록 변경

    user sarah 에 기본 group sarah2 가 있고 보조 그룹 wheel 에 속하고 사용자가 3개의 보조 그룹 developer,sysadminsecurity 에 속하게 하려면 다음을 사용합니다.

    # usermod -G wheel,developer,sysadmin,security sarah

검증 단계

  • 보조 그룹 목록을 올바르게 설정했는지 확인합니다.

    # groups sarah

    출력이 표시됩니다.

    sarah : sarah2 wheel developer sysadmin security

23장. sudo 액세스 관리

시스템 관리자는 루트가 아닌 사용자가 일반적으로 root 사용자에게 예약된 관리 명령을 실행할 수 있도록 sudo 액세스 권한을 부여할 수 있습니다. 결과적으로 루트가 아닌 사용자는 root 사용자 계정에 로그인하지 않고도 이러한 명령을 실행할 수 있습니다.

23.1. sudoers의 사용자 권한 부여

/etc/sudoers 파일은 어떤 사용자가 sudo 명령을 사용하여 어떤 명령을 실행할 수 있는지 지정합니다. 규칙은 개별 사용자 및 사용자 그룹에 적용할 수 있습니다. 별칭을 사용하여 호스트, 명령 및 사용자 그룹의 규칙을 간소화할 수도 있습니다. 기본 별칭은 /etc/sudoers 파일의 첫 번째 부분에서 정의됩니다.

사용자가 sudo 권한을 사용하여 /etc/sudoers 파일에서 허용되지 않는 명령을 실행하려고 하면 시스템은 저널 로그에 대한 sudoers에 대한username : user NOT이 포함된 메시지를 기록합니다.

기본 /etc/sudoers 파일은 권한 부여의 정보와 예를 제공합니다. 행 시작 부분에서 # 주석 문자를 제거하여 특정 예제 규칙을 활성화할 수 있습니다. 사용자와 관련된 authorizations 섹션은 다음 도입으로 표시됩니다.

## Next comes the main part: which users can run what software on
## which machines  (the sudoers file can be shared between multiple
## systems).

다음 형식을 사용하여 새 sudoers 권한 부여를 생성하고 기존 권한을 수정할 수 있습니다.

username hostname=path/to/command

다음과 같습니다.

  • username 은 사용자 또는 그룹의 이름입니다(예: user1 또는 %group1).
  • hostname 은 규칙이 적용되는 호스트의 이름입니다.
  • path/to/command는 명령 의 전체 절대 경로입니다. 명령 경로 뒤에 해당 옵션을 추가하여 특정 옵션 및 인수가 있는 명령만 수행하도록 사용자를 제한할 수도 있습니다. 옵션을 지정하지 않으면 사용자는 모든 옵션과 함께 명령을 사용할 수 있습니다.

이러한 변수를 ALL로 교체하여 모든 사용자, 호스트 또는 명령에 규칙을 적용할 수 있습니다.

주의

과도한 허용 규칙(예 : ALL=(ALL) ALL) 을 사용하면 모든 사용자가 모든 호스트의 모든 사용자로 모든 명령을 실행할 수 있습니다. 이로 인해 보안 위험이 발생할 수 있습니다.

! 연산자를 사용하여 인수를 음수로 지정할 수 있습니다. 예를 들어 !root 를 사용하여 root 사용자를 제외한 모든 사용자를 지정합니다. 허용 목록을 사용하여 특정 사용자, 그룹 및 명령을 허용하는 것은 블록 목록을 사용하여 특정 사용자, 그룹 및 명령을 허용하지 않는 것보다 더 안전합니다. 허용 목록을 사용하면 권한이 없는 새로운 사용자 또는 그룹을 차단할 수도 있습니다.

주의

사용자가 alias 명령을 사용하여 명령 이름을 변경하여 이러한 규칙을 극복할 수 있으므로 명령에 음수 규칙을 사용하지 마십시오.

시스템은 /etc/sudoers 파일을 처음부터 끝까지 읽습니다. 따라서 파일에 사용자의 여러 항목이 포함된 경우 항목이 순서대로 적용됩니다. 값이 충돌하는 경우 시스템은 가장 구체적인 일치 항목이 아니어도 마지막 일치 항목을 사용합니다.

sudoers 에 새 규칙을 추가하는 기본 방법은 /etc/sudoers.d / 디렉토리에 규칙을 직접 입력하지 않고 /etc/sudoers.d / 디렉토리에 새 파일을 만드는 것입니다. 이는 이 디렉터리의 내용이 시스템 업데이트 중에 보존되기 때문입니다. 또한 /etc/sudoers 파일보다 별도의 파일의 오류를 수정하는 것이 더 쉽습니다. /etc/sudoers 파일의 다음 행에 도달하면 시스템은 /etc/sudoers.d 디렉토리의 파일을 읽습니다.

#includedir /etc/sudoers.d

이 행의 시작 부분에 있는 숫자 기호 # 은 구문의 일부이며 행이 주석임을 의미하지는 않습니다. 해당 디렉터리의 파일 이름은 마침표가 포함되어서는 안 되며 틸드 ~ 로 끝나서는 됩니다.

23.2. 사용자에게 sudo 액세스 권한 부여

시스템 관리자는 루트가 아닌 사용자가 관리 명령을 실행할 수 있도록 sudo 액세스 권한을 부여할 수 있습니다. sudo 명령은 root 사용자의 암호를 사용하지 않고 사용자에게 관리 액세스 권한을 제공합니다.

사용자가 관리 명령을 수행해야 하는 경우 sudo 를 사용하여 해당 명령 앞에 를 사용할 수 있습니다. 그런 다음 명령은 루트 사용자인 것처럼 실행됩니다.

다음 제한 사항에 유의하십시오.

  • /etc/sudoers 구성 파일에 나열된 사용자만 sudo 명령을 사용할 수 있습니다.
  • 명령은 루트 쉘이 아닌 사용자의 쉘에서 실행됩니다.

사전 요구 사항

  • 루트 액세스

절차

  1. 루트로 /etc/sudoers 파일을 엽니다.

    # visudo

    /etc/sudoers 파일은 sudo 명령에서 적용하는 정책을 정의합니다.

  2. /etc/sudoers 파일에서 관리 wheel 그룹의 사용자에게 sudo 액세스 권한을 부여하는 행을 찾습니다.

    ## Allows people in group wheel to run all commands
    %wheel        ALL=(ALL)       ALL
  3. %로 시작하는 행에 # 주석 문자가 없는지 확인합니다.
  4. 변경 사항을 저장하고 편집기를 종료합니다.
  5. 에 대한 sudo 액세스 권한을 관리 wheel 그룹에 부여하려는 사용자를 추가합니다.

     # usermod --append -G wheel username

    username을 사용자 이름으로 바꿉니다.

    검증 단계

    • 사용자가 관리 wheel 그룹에 추가되었는지 확인합니다.

      # id username
      uid=5000(username) gid=5000(_username) groups=5000(username),10(wheel)

23.3. 권한이 없는 사용자가 특정 명령 실행 가능

권한이 없는 사용자가 특정 워크스테이션에서 특정 명령을 실행할 수 있도록 허용하는 정책을 구성할 수 있습니다. 이 정책을 구성하려면 sudoers.d 디렉터리에 파일을 만들고 편집해야 합니다.

사전 요구 사항

  • 루트 액세스

절차

  1. 루트로서 /etc/ 아래에 새 sudoers.d 디렉토리를 만드십시오.

    # mkdir -p /etc/sudoers.d/
  2. /etc/sudoers.d 디렉토리에 새 파일을 만듭니다.

    # visudo -f /etc/sudoers.d/file-name

    file-name 을 생성할 파일 이름으로 바꿉니다. 파일이 자동으로 열립니다.

  3. 새로 생성된 파일에 다음 행을 추가합니다.

    username hostname = /path/to/the/command

    username을 사용자 이름으로 바꿉니다. 호스트 이름을 호스트 이름으로 바꿉니다. /path/to/the/command를 명령 의 절대 경로(예: /usr/bin/yum)로 바꿉니다.

  4. 변경 사항을 저장하고 편집기를 종료합니다.

    예 23.1. 권한이 없는 사용자가 yum을 사용하여 프로그램을 설치할 수 있음

    사용자 sarahsudo 권한이 있는 yum 유틸리티를 사용하여 localhost.localdomain 워크스테이션에 프로그램을 설치할 수 있도록 하려면 다음을 사용합니다.

    1. 루트로서 /etc/ 아래에 새 sudoers.d 디렉토리를 만드십시오.

      # mkdir -p /etc/sudoers.d/
    2. /etc/sudoers.d 디렉토리에 새 파일을 만듭니다.

      # visudo -f /etc/sudoers.d/sarah

      파일이 자동으로 열립니다.

    3. /etc/sudoers.d/sarah 파일에 다음 행을 추가합니다.

      sarah localhost.localdomain = /usr/bin/yum

      두 명령 경로가 쉼표 와 공백으로 구분되어 있는지 확인합니다.

    4. 선택 사항: 사용자가 sudo 권한을 사용하려고 할 때마다 이메일 알림을 받으려면 파일에 다음 행을 추가합니다.

      Defaults    mail_always
      Defaults    mailto="email@domain.com"
    5. 사용자 sarahsudo 권한으로 yum 명령을 실행할 수 있는지 확인하려면 계정을 전환하십시오.

      # su sarah -
    6. sudo yum 명령을 입력합니다.

      $ sudo yum
      [sudo] password for sarah:

      사용자 sarah 에 대한 sudo 암호를 입력합니다.

    7. 시스템에서 yum 명령 및 옵션 목록을 표시합니다.

      ...
      usage: yum [options] COMMAND
      ...

      수신하는 경우 sarah는 sudoers 파일에 없습니다. 이 인시던트는 보고됩니다. 메시지, 구성이 올바르게 완료되지 않았습니다. 이 절차를 root 로 실행하고 철저하게 단계를 수행했는지 확인합니다.

23.4. 추가 리소스

  • sudo(8) 도움말 페이지
  • visudo(8) 도움말 페이지

24장. 루트 암호 변경 및 재설정

기존 root 암호가 더 이상 만족스럽지 않거나 잊혀진 경우 root 사용자 및 비 루트 사용자로 변경하거나 재설정할 수 있습니다.

24.1. root 사용자로 root 암호 변경

이 섹션에서는 passwd 명령을 사용하여 root 사용자로 루트 암호를 변경하는 방법에 대해 설명합니다 .

사전 요구 사항

  • 루트 액세스

절차

  • 루트 암호를 변경하려면 다음을 사용합니다.

    # passwd

    변경하기 전에 현재 암호를 입력하라는 메시지가 표시됩니다.

24.2. root가 아닌 사용자로 잊어버리는 루트 암호 변경 또는 재설정

이 섹션에서는 passwd 명령을 사용하여 잊어버리는 루트 암호를 루트가 아닌 사용자로 변경하거나 재설정하는 방법에 대해 설명합니다.

사전 요구 사항

  • 루트가 아닌 사용자로 로그인할 수 있습니다.
  • 관리 wheel 그룹의 구성원입니다.

절차

  • 루트가 아닌 사용자로 루트가 아닌 사용자로 root 암호를 변경하거나 재설정하려면 다음을 사용합니다.

    $ sudo passwd root

    루트가 아닌 암호를 변경하기 전에 현재 루트가 아닌 암호를 입력하라는 메시지가 표시됩니다 .

24.3. 부팅시 root 암호 재설정

루트가 아닌 사용자로 로그인할 수 없거나 관리 wheel 그룹에 속하지 않는 경우 특수 chroot jail 환경으로 전환하여 부팅 시 루트 암호를 재설정할 수 있습니다.

절차

  1. 시스템을 재부팅하고 GRUB 2 부팅 화면에서 e 키를 눌러 부팅 과정을 중단합니다.

    커널 부팅 매개 변수가 표시됩니다.

    load_video
    set gfx_payload=keep
    insmod gzio
    linux ($root)/vmlinuz-4.18.0-80.e18.x86_64 root=/dev/mapper/rhel-root ro crash\
    kernel=auto resume=/dev/mapper/rhel-swap rd.lvm.lv/swap rhgb quiet
    initrd ($root)/initramfs-4.18.0-80.e18.x86_64.img $tuned_initrd
  2. linux 로 시작하는 행의 끝으로 이동합니다.

    linux ($root)/vmlinuz-4.18.0-80.e18.x86_64 root=/dev/mapper/rhel-root ro crash\
    kernel=auto resume=/dev/mapper/rhel-swap rd.lvm.lv/swap rhgb quiet

    Ctrl+e 를 눌러 행 끝으로 건너뜁니다.

  3. linux 로 시작하는 행의 끝에 Add rd.break.

    linux ($root)/vmlinuz-4.18.0-80.e18.x86_64 root=/dev/mapper/rhel-root ro crash\
    kernel=auto resume=/dev/mapper/rhel-swap rd.lvm.lv/swap rhgb quiet rd.break
  4. Ctrl+x 를 눌러 변경된 매개 변수로 시스템을 시작합니다.

    switch_root 프롬프트가 나타납니다.

  5. 파일 시스템을 쓰기 가능으로 다시 마운트합니다.

    mount -o remount,rw /sysroot

    파일 시스템은 /sysroot 디렉토리에 읽기 전용으로 마운트됩니다. 파일 시스템을 쓰기 가능으로 다시 마운트하면 암호를 변경할 수 있습니다.

  6. chroot 환경을 입력합니다.

    chroot /sysroot

    sh-4.4# 프롬프트가 표시됩니다.

  7. 루트 암호를 재설정합니다.

    passwd

    명령줄에 표시된 지침에 따라 루트 암호 변경을 완료합니다.

  8. 다음 시스템 부팅 시 SELinux 레이블 변경 프로세스를 활성화합니다.

    touch /.autorelabel
  9. chroot 환경을 종료합니다.

    exit
  10. switch_root 프롬프트를 종료합니다.

    exit
  11. SELinux 레이블 변경 프로세스가 완료될 때까지 기다립니다. 큰 디스크의 레이블을 다시 지정하는 데 시간이 오래 걸릴 수 있습니다. 프로세스가 완료되면 시스템이 자동으로 재부팅됩니다.

검증 단계

  1. 루트 암호가 성공적으로 변경되었는지 확인하려면 일반 사용자로 로그인하여 터미널을 엽니다.
  2. root로 대화형 쉘을 실행합니다.

    $ su
  3. 루트 암호를 입력합니다.
  4. 현재 유효한 사용자 ID와 관련된 사용자 이름을 인쇄합니다.

    whoami

    출력은 다음을 반환합니다.

    root

25장. 파일 권한 관리

파일 권한은 파일 및 디렉터리의 내용을 보고, 수정하고, 액세스하고, 실행할 수 있는 사용자 및 그룹 계정의 기능을 제어합니다.

모든 파일 또는 디렉터리에는 세 가지 수준의 소유권이 있습니다.

  • 사용자 소유자(u).
  • 그룹 소유자(g).
  • 기타(o).

각 소유권 수준은 다음 권한을 할당할 수 있습니다.

  • 읽기(r).
  • 쓰기(w).
  • 실행(x).

파일에 대한 실행 권한을 사용하여 해당 파일을 실행할 수 있습니다. 디렉터리에 대한 실행 권한을 사용하면 디렉터리 내용에 액세스할 수 있지만 실행할 수는 없습니다.

새 파일 또는 디렉터리가 생성되면 기본 권한 집합이 자동으로 할당됩니다. 파일 또는 디렉토리에 대한 기본 권한은 다음 두 가지 요소를 기반으로 합니다.

  • 기본 권한.
  • 사용자 파일 생성 모드 마스크 (umask).

25.1. 기본 파일 권한

새 파일 또는 디렉터리가 생성될 때마다 기본 권한이 자동으로 할당됩니다. 파일 또는 디렉터리에 대한 기본 권한을 심볼릭 또는 8진수 값으로 표시할 수 있습니다.

권한

심볼릭 값

8진수 값

권한 없음

---

0

실행

--x

1

쓰기

-w-

2

쓰기 및 실행

-wx

3

읽기

r--

4

읽기 및 실행

r-x

5

읽기 및 쓰기

rw-

6

읽기, 쓰기, 실행

rwx

7

디렉터리의 기본 권한은 777 (drwxrwxrwx)으로, 모든 사용자에게 읽기, 쓰기, 실행 권한을 부여합니다. 즉, 디렉터리 소유자, 그룹 및 기타 사용자가 디렉터리의 콘텐츠를 나열하고 디렉터리 내에서 항목을 만들고 삭제하고 편집할 수 있습니다.

디렉터리 내의 개별 파일에는 무제한 디렉터리에 대한 액세스 권한이 있더라도 편집을 방해할 수 있는 자체 권한이 있을 수 있습니다.

파일의 기본 권한은 666 (-rw-rw-rw-)으로, 모든 사용자에게 읽기 및 쓰기 권한을 부여합니다. 즉, 파일 소유자, 그룹 및 기타 사용자가 파일을 읽고 편집할 수 있습니다.

예 25.1. 파일에 대한 권한

파일에 다음 권한이 있는 경우:

$ ls -l
-rwxrw----. 1 sysadmins sysadmins 2 Mar 2 08:43 file
  • - 파일이 파일임을 나타냅니다.
  • rwx 는 파일 소유자가 파일을 읽고 쓰고 실행할 수 있는 권한이 있음을 나타냅니다.
  • rw- 는 그룹에 읽기 및 쓰기 권한이 있지만 파일을 실행하지 않음을 나타냅니다.
  • --- 다른 사용자에게 파일을 읽고, 쓰거나, 실행할 수 있는 권한이 없음을 나타냅니다.
  • . 은 SELinux 보안 컨텍스트가 파일에 대해 설정되었음을 나타냅니다.

예 25.2. 디렉토리에 대한 권한

디렉터리에 다음과 같은 권한이 있는 경우:

$ ls -dl directory
drwxr-----. 1 sysadmins sysadmins 2 Mar 2 08:43 directory
  • d 는 디렉토리임을 나타냅니다.
  • rwx 는 디렉터리 소유자가 디렉터리의 내용을 읽고 쓰고 액세스할 수 있는 권한이 있음을 나타냅니다.

    디렉터리 소유자로서 디렉터리 내의 항목(파일, 하위 디렉터리)을 나열하고 해당 항목의 내용에 액세스하여 수정할 수 있습니다.

  • r-- 은 그룹에 디렉터리의 내용을 읽을 수 있지만 쓰기 또는 액세스할 수 없는 권한이 있음을 나타냅니다.

    디렉터리를 소유하는 그룹의 구성원으로 디렉터리 내의 항목을 나열할 수 있습니다. 디렉터리 내의 항목에 대한 정보에 액세스하거나 수정할 수 없습니다.

  • --- 다른 사용자에게 디렉터리 내용을 읽고, 쓰거나, 액세스할 수 있는 권한이 없음을 나타냅니다.

    사용자 소유자가 아니거나 디렉토리의 그룹 소유자로서는 디렉터리 내의 항목을 나열하거나, 해당 항목에 대한 정보에 액세스하거나, 수정할 수 없습니다.

  • . 은 SELinux 보안 컨텍스트가 디렉터리에 대해 설정되었음을 나타냅니다.
참고

파일 또는 디렉터리에 자동으로 할당되는 기본 권한은 파일 또는 디렉터리가 로 끝나는 기본 권한이 아닙니다. 파일 또는 디렉토리를 만들면 기본 권한이 umask 에 의해 변경됩니다. 기본 권한과 umask 의 조합은 파일 및 디렉터리에 대한 기본 권한을 생성합니다.

25.2. 사용자 파일 생성 모드 마스크

user file-creation mode mask(umask)는 새로 생성된 파일 및 디렉터리에 대해 파일 권한이 설정되는 방법을 제어하는 변수입니다. umask 는 기본 권한 값에서 권한을 자동으로 제거하여 Linux 시스템의 전체 보안을 강화합니다. umask심볼릭 또는 8진수 값으로 나타낼 수 있습니다.

권한

심볼릭 값

8진수 값

읽기, 쓰기 및 실행

rwx

0

읽기 및 쓰기

rw-

1

읽기 및 실행

r-x

2

읽기

r--

3

쓰기 및 실행

-wx

4

쓰기

-w-

5

실행

--x

6

권한 없음

---

7

표준 사용자의 기본 umask0002 입니다. root 사용자의 기본 umask0022 입니다.

umask 의 첫 번째 숫자는 특별 권한(고정 비트, )을 나타냅니다. umask 의 마지막 세 자리 숫자는 사용자 소유자(u), 그룹 소유자(g) 및 기타(o)에서 각각 제거된 권한을 나타냅니다.

예 25.3. 파일을 만들 때 umask 적용

다음 예제에서는 기본 권한이 640 인 파일을 생성하기 위해 8진수 값이 0137umask777 기본 권한이 있는 파일에 적용되는 방법을 보여줍니다.

사용자 그룹 Umask 예

25.3. 기본 파일 권한

기본 권한은 새로 생성된 모든 파일 및 디렉터리에 대해 자동으로 설정됩니다. 기본 권한의 값은 기본 권한에 umask 를 적용하여 결정됩니다.

예 25.4. 표준 사용자가 생성한 디렉터리에 대한 기본 권한

표준 사용자가디렉토리 를 만들면 umask002 (rwxrwxr-x)로 설정되고 디렉터리의 기본 권한이 777 (rwxrwxrwx)으로 설정됩니다. 그러면 775 (drwxrwxr-x)에 기본 권한이 부여됩니다.

 

심볼릭 값

8진수 값

기본 권한

rwxrwxrwx

777

umask

rwxrwxr-x

002

기본 권한

rwxrwxr-x

775

즉, 디렉터리 소유자와 그룹은 디렉터리의 콘텐츠를 나열하고 디렉터리 내에서 항목을 만들고 삭제하고 편집할 수 있습니다. 다른 사용자는 디렉터리의 내용만 나열할 수 있으며 디렉토리의 하위 항목만 나열할 수 있습니다.

예 25.5. 표준 사용자가 생성한 파일에 대한 기본 권한

표준 사용자가파일을 만들면 umask002 (rwxrwxr-x)로 설정되고 파일의 기본 권한이 666 (rw-rw-rw-)으로 설정됩니다. 이렇게 하면 기본 권한은 664 (-rw-rw-r--)입니다.

 

심볼릭 값

8진수 값

기본 권한

rw-rw-rw-

666

umask

rwxrwxr-x

002

기본 권한

rw-rw-r--

664

즉, 파일 소유자와 그룹은 파일을 읽고 편집할 수 있지만 다른 사용자는 파일을 읽을 수만 있습니다.

예 25.6. root 사용자가 만든 디렉토리에 대한 기본 권한

루트 사용자가디렉토리 를 만들면 umask022 (rwxr-xr-x)로 설정되고 디렉터리의 기본 권한이 777 (rwxrwxrwx)으로 설정됩니다. 이렇게 하면 기본 권한은 755 (rwxr-xr-x)입니다.

 

심볼릭 값

8진수 값

기본 권한

rwxrwxrwx

777

umask

rwxr-xr-x

022

기본 권한

rwxr-xr-x

755

즉, 디렉터리 소유자가 디렉터리의 내용을 나열하고 디렉터리 내에서 항목을 만들고 삭제하고 편집할 수 있습니다. 그룹 및 기타 그룹은 디렉터리의 내용만 나열하고 해당 디렉토리로 이동할 수 있습니다.

예 25.7. root 사용자가 생성한 파일에 대한 기본 권한

루트 사용자가파일을 만들면 umask022 (rwxr-xr-x)로 설정되고 파일의 기본 권한이 666 (rw-rw-rw-)으로 설정됩니다. 이렇게 하면 기본 권한이 644 (-rw-r-​r--).

 

심볼릭 값

8진수 값

기본 권한

rw-rw-rw-

666

umask

rwxr-xr-x

022

기본 권한

rw-r—​r--

644

즉, file 소유자는 파일을 읽고 편집할 수 있지만 그룹 및 기타 사용자는 파일을 읽을 수 있습니다.

참고

보안상의 이유로 umask000 (rwxrwxrwx)으로 설정된 경우에도 일반 파일은 기본적으로 실행 권한을 가질 수 없습니다. 그러나 실행 권한으로 디렉터리를 생성할 수 있습니다.

25.4. 심볼릭 값을 사용하여 파일 권한 변경

chmod 유틸리티를 심볼릭 값(복합 문자 및 기호)과 함께 사용하여 파일 또는 디렉토리의 파일 권한을 변경할 수 있습니다.

다음 권한을 할당할 수 있습니다.

  • 읽기 (r)
  • 쓰기 (w)
  • 실행 (x)

권한을 다음 수준의 소유권 에 할당할 수 있습니다.

  • 사용자 소유자 (u)
  • 그룹 소유자(g)
  • 기타 (o)
  • 모두 (a)

권한을 추가하거나 제거하려면 다음 기호를 사용할 수 있습니다 :

  • +: 기존 권한 위에 권한을 추가합니다.
  • - 기존 권한에서 권한을 제거하려면 -
  • = - 기존 권한을 제거하고 명시적으로 새 권한을 정의합니다.

절차

  • 파일 또는 디렉토리에 대한 권한을 변경하려면 다음을 사용합니다.

    $ chmod <level><operation><permission> file-name

    <level> 을 권한을 설정할 소유권 수준으로 바꿉니다. <operation>기호 중 하나로 바꿉니다. <permission> 을 할당하려는 권한 으로 바꿉니다. file-name 을 파일 또는 디렉터리의 이름으로 바꿉니다. 예를 들어 모든 사용자에게 읽기, 쓰기, 실행(rwx) my-script.sh 에 대한 권한을 부여하려면 chmod a=rwx my-script.sh 명령을 사용합니다.

    자세한 내용은 기본 파일 권한을 참조하십시오.

검증 단계

  • 특정 파일의 권한을 보려면 다음을 사용합니다.

    $ ls -l file-name

    file-name 을 파일 이름으로 바꿉니다.

  • 특정 디렉터리에 대한 권한을 보려면 다음을 사용합니다.

    $ ls -dl directory-name

    directory-name 을 디렉터리 이름으로 바꿉니다.

  • 특정 디렉토리 내의 모든 파일에 대한 권한을 보려면 다음을 사용합니다.

    $ ls -l directory-name

    directory-name 을 디렉터리 이름으로 바꿉니다.

예 25.8. 파일 및 디렉토리에 대한 권한 변경

  • my-file.txt 의 파일 권한을 -rw-rw-r-- 에서 -rw------ 로 변경하려면 다음을 사용합니다.

    1. my-file.txt 의 현재 권한을 표시합니다 :

      $ ls -l my-file.txt
      -rw-rw-r--. 1 username username 0 Feb 24 17:56 my-file.txt
    2. 그룹 소유자(g) 및 기타(o)에서 파일을 읽기, 쓰기, 실행(rwx)할 수 있는 권한을 제거합니다.

      $ chmod go= my-file.txt

      등호(=) 후에 지정되지 않는 모든 권한은 자동으로 금지됩니다.

    3. my-file.txt 에 대한 권한이 올바르게 설정되었는지 확인합니다.

      $ ls -l my-file.txt
      -rw-------. 1 username username 0 Feb 24 17:56 my-file.txt
  • my-directory 의 파일 권한을 drwxrwx---에서 drwx rwxr-x 로 변경하려면 다음을 사용합니다.

    1. my-directory 에 대한 현재 권한을 표시합니다.

      $ ls -dl my-directory
      drwxrwx---. 2 username username 4096 Feb 24 18:12 my-directory
    2. 모든 사용자(a)에 대해 읽기 및 실행(r-x) 액세스를 추가합니다.

      $ chmod o+rx my-directory
    3. my-directory 및 해당 콘텐츠에 대한 권한이 올바르게 설정되었는지 확인합니다.

      $ ls -dl my-directory
      drwxrwxr-x. 2 username username 4096 Feb 24 18:12 my-directory

25.5. 8진수 값을 사용하여 파일 권한 변경

chmod 유틸리티를 8진수 값(숫자)과 함께 사용하여 파일 또는 디렉터리의 파일 권한을 변경할 수 있습니다.

절차

  • 기존 파일 또는 디렉터리에 대한 파일 권한을 변경하려면 다음을 사용합니다.

    $ chmod octal_value file-name

    file-name 을 파일 또는 디렉터리의 이름으로 바꿉니다. octal_value 를 8진수 값으로 교체합니다. 자세한 내용은 기본 파일 권한을 참조하십시오.

26장. umask 관리

umask 유틸리티를 사용하여 umask 의 현재 또는 기본값을 표시, 설정 또는 변경할 수 있습니다 .

26.1. umask의 현재 값 표시

umask 유틸리티를 사용하여 현재 umask 값을 심볼릭 또는 8진수 모드로 표시할 수 있습니다.

절차

  • 현재 umask 값을 심볼릭 모드로 표시하려면 다음을 사용합니다.

    $ umask -S
  • 8진수 모드에서 현재 umask 값을 표시하려면 다음을 사용합니다.

    $ umask
    참고

    8진수 모드로 umask 를 표시할 때 4자리 숫자(0002 또는 0022)로 표시될 수 있습니다. umask 의 첫 번째 숫자는 특수 비트(고정 비트, SGID 비트 또는 SUID 비트)를 나타냅니다. 첫 번째 숫자가 0 으로 설정되면 특수 비트가 설정되지 않습니다.

26.2. 기본 bash umask 표시

사용할 수 있는 쉘에는 bash,ksh,zshtcsh 와 같이 사용할 수 있습니다. 이러한 쉘은 로그인 또는 비로그인 쉘로 작동할 수 있습니다. 네이티브 또는 GUI 터미널을 열어 로그인 쉘을 호출할 수 있습니다.

로그인 또는 비로그인 쉘에서 명령을 실행 중인지 확인하려면 echo alpha 명령을 사용합니다.

예 26.1. 로그인 또는 비로그인 bash 쉘에서 작업 중인지 확인

  • echo Zero 명령 의 출력이 bash 를 반환하면 비로그인 쉘에서 명령을 실행합니다.

    $ echo $0
    bash

    로그인이 아닌 쉘의 기본 umask/etc/bashrc 구성 파일에 설정됩니다.

  • echo Zero 명령 의 출력이 -bash 를 반환하면 로그인 쉘에서 명령을 실행합니다.

    # echo $0
    -bash

    로그인 쉘의 기본 umask/etc/profile 구성 파일에 설정되어 있습니다.

절차

  • 로그인이 아닌 쉘의 기본 bash umask 를 표시하려면 다음을 사용합니다.

    $ grep umask /etc/bashrc

    출력은 다음을 반환합니다.

    # By default, we want umask to get set. This sets it for non-login shell.
           umask 002
           umask 022
  • 로그인 쉘의 기본 bash umask 를 표시하려면 다음을 사용합니다.

    $ grep umask /etc/profile

    출력은 다음을 반환합니다.

    # By default, we want umask to get set. This sets it for login shell
           umask 002
           umask 022

26.3. 심볼릭 값을 사용하여 umask 설정

umask 유틸리티를 심볼릭 값(결합 문자 및 기호)과 함께 사용하여 현재 쉘 세션의 umask 를 설정할 수 있습니다.

다음 권한을 할당할 수 있습니다.

  • 읽기 (r)
  • 쓰기 (w)
  • 실행 (x)

권한을 다음 수준의 소유권 에 할당할 수 있습니다.

  • 사용자 소유자 (u)
  • 그룹 소유자(g)
  • 기타 (o)
  • 모두 (a)

권한을 추가하거나 제거하려면 다음 기호를 사용할 수 있습니다 :

  • +: 기존 권한 위에 권한을 추가합니다.
  • - 기존 권한에서 권한을 제거하려면 -
  • = - 기존 권한을 제거하고 명시적으로 새 권한을 정의합니다.

    참고

    등호(=) 이후에 지정되지 않은 모든 권한은 자동으로 금지됩니다.

절차

  • 현재 쉘 세션의 umask 를 설정하려면 다음을 사용합니다.

    $ umask -S <level><operation><permission>

    <level> 을 umask를 설정하려는 소유권 수준으로 바꿉니다. <operation>기호 중 하나로 바꿉니다. <permission> 을 할당하려는 권한 으로 바꿉니다. 예를 들어 umask를 umasku=rwx,g=rwx,o=rwx 로 설정하려면 umask -S a=rwx 를 사용합니다.

    자세한 내용은 사용자 파일 생성 모드를 참조하십시오.

    참고

    umask 는 현재 쉘 세션에만 유효합니다.

26.4. 8진수 값을 사용하여 umask 설정

8진수 값(숫자)과 함께 umask 유틸리티를 사용하여 현재 쉘 세션의 umask 를 설정할 수 있습니다.

절차

  • 현재 쉘 세션의 umask 를 설정하려면 다음을 사용합니다.

    $ umask octal_value

    octal_value 를 8진수 값으로 교체합니다. 자세한 내용은 User file-creation mode mask 를 참조하십시오.

    참고

    umask 는 현재 쉘 세션에만 유효합니다.

26.5. 로그인이 아닌 쉘의 기본 umask 변경

/etc/bashrc 파일을 수정하여 표준 사용자의 기본 bash umask 를 변경할 수 있습니다.

사전 요구 사항

  • 루트 액세스

절차

  1. 루트 로서 편집기에서 /etc/bashrc 파일을 엽니다.
  2. 다음 섹션을 수정하여 새로운 기본 bash umask 를 설정합니다.

        if [ $UID -gt 199 ] && [ id -gn = id -un ]; then
           umask 002
        else
           umask 022
        fi

    umask (002)의 기본 8진수 값을다른8진수 값으로 바꿉니다. 자세한 내용은 User file-creation mode mask 를 참조하십시오.

  3. 변경 사항을 저장하고 편집기를 종료합니다.

26.6. 로그인 쉘의 기본 umask 변경

/etc/profile 파일을 수정하여 root 사용자의 기본 bash umask 를 변경할 수 있습니다.

사전 요구 사항

  • 루트 액세스

절차

  1. 루트 권한으로 편집기에서 /etc/profile 파일을 엽니다.
  2. 다음 섹션을 수정하여 새로운 기본 bash umask 를 설정합니다.

    if [ $UID -gt 199 ] && [ /usr/bin/id -gn = /usr/bin/id -un ]; then
        umask 002
    else
        umask 022
    fi

    umask (022)의 기본 8진수 값을 다른 8진수 값으로 바꿉니다. 자세한 내용은 User file-creation mode mask 를 참조하십시오.

  3. 변경 사항을 저장하고 편집기를 종료합니다.

26.7. 특정 사용자의 기본 umask 변경

해당 사용자의. bashrc 를 수정하여 특정 사용자의 기본 umask 를 변경할 수 있습니다.

절차

  • umask 의 8진수 값을 특정 사용자의 .bashrc 파일에 지정하는 행을 추가합니다.

    $ echo 'umask octal_value' >> /home/username/.bashrc

    octal_value 를 8진수 값으로 바꾸고 username 을 사용자 이름으로 바꿉니다. 자세한 내용은 User file-creation mode mask 를 참조하십시오.

26.8. 새로 생성된 홈 디렉터리에 대한 기본 권한 설정

/etc/login.defs 파일을 수정하여 새로 생성된 사용자의 홈 디렉토리에 대한 권한 모드를 변경할 수 있습니다.

절차

  1. 루트 권한으로 편집기에서 /etc/login.defs 파일을 엽니다.
  2. 다음 섹션을 수정하여 새로운 기본 HOME_MODE 를 설정합니다.

    # HOME_MODE is used by useradd(8) and newusers(8) to set the mode for new
    # home directories.
    # If HOME_MODE is not set, the value of UMASK is used to create the mode.
    HOME_MODE       0700

    기본 8진수 값(0700)을 다른 8진수 값으로 교체합니다. 선택한 모드는 홈 디렉토리에 대한 권한을 생성하는 데 사용됩니다.

  3. HOME_MODE 가 설정되어 있으면 변경 사항을 저장하고 편집기를 종료합니다.
  4. HOME_MODE 가 설정되지 않은 경우 UMASK 를 수정하여 새로 생성된 홈 디렉터리의 모드를 설정합니다.

    # Default initial "umask" value used by login(1) on non-PAM enabled systems.
    # Default "umask" value for pam_umask(8) on PAM enabled systems.
    # UMASK is also used by useradd(8) and newusers(8) to set the mode for new
    # home directories if HOME_MODE is not set.
    # 022 is the default value, but 027, or even 077, could be considered
    # for increased privacy. There is no One True Answer here: each sysadmin
    # must make up their mind.
    
    UMASK           022

    기본 8진수 값(022)을 다른 8진수 값으로 바꿉니다. 자세한 내용은 User file-creation mode mask 를 참조하십시오.

  5. 변경 사항을 저장하고 편집기를 종료합니다.

27장. RHEL에서 dnstap 사용

dnstap 유틸리티는 들어오는 이름 쿼리의 세부 정보를 모니터링하고 기록하는 고급 방법을 제공합니다. 명명된 서비스에서 보낸 메시지를 기록합니다. 이 섹션에서는 dnstap 을 사용하여 DNS 쿼리를 기록하는 방법을 설명합니다.

27.1. RHEL에서 dnstap을 사용하여 DNS 쿼리 기록

네트워크 관리자는 DNS 쿼리를 기록하여 도메인 상태와 함께 웹사이트 또는 IP 주소 정보를 수집할 수 있습니다.

사전 요구 사항

  • BIND 패키지를 버전으로 업그레이드하여 -9.11.26-2 이상을 바인딩 합니다.
주의

BIND 버전이 설치되어 실행 중인 경우 새 버전의 BIND 를 추가하면 기존 버전을 덮어씁니다.

절차

다음은 DNS 쿼리를 기록하는 단계입니다.

  1. options 블록에서 /etc/named.conf 파일을 편집하여 dnstap 및 대상 파일을 활성화합니다.

    options
    {
    # …
    
    dnstap { all; }; # Configure filter
    dnstap-output file “/var/named/data/dnstap.bin”;
    
    # …
    };
    # end of options

    (all | auth | client | forwarder | resolver | update ) [ ( query | response ) ];

    dnstap 필터에는 dnstap {} 블록에 ; 으로 구분된 여러 정의가 포함되어 있습니다.

    다음은 각 규칙의 구문입니다.

    • auth - 권한 영역 응답 또는 답변.
    • 클라이언트 - 내부 클라이언트 쿼리 또는 응답.
    • forwarder - 전달된 쿼리 또는 응답.
    • 해결자 - 반복적 해결 쿼리 또는 응답.
    • 업데이트 - 동적 영역 업데이트 요청.
    • 모두 - 위의 옵션에서 모두.
    • query | response - 쿼리 또는 응답 키워드가 지정되지 않은 경우 둘 다 기록됩니다.

      다음 예제에서는 auth 응답만 요청합니다. 클라이언트 쿼리 및 동적 업데이트의 쿼리 및 응답 모두 :

    Example:
    
    dnstap {auth response; client query; update;};
  2. 활성 로그에 대해 주기적인 롤아웃을 구성합니다.

    다음 예제에서는 사용자 편집 스크립트의 콘텐츠가 cron 에 의해 하루에 한 번 실행됩니다. 번호 3은 해당 번호로 제한된 백업 로그 파일을 나타냅니다. 파일이 제거되기 때문에 .2 접미사에 도달하지 않습니다.

    Example:
    
    sudoedit /etc/cron.daily/dnstap
    
    #!/bin/sh
    rndc dnstap -roll 3
    mv /var/named/data/dnstap.bin.1 \ /var/log/named/dnstap/dnstap-$(date -I).bin
    
    # use dnstap-read to analyze saved logs
    sudo chmod a+x /etc/cron.daily/dnstap
  3. dnstap-read 유틸리티를 사용하여 사람이 읽을 수 있는 형식으로 로그를 처리하고 분석합니다.

    다음 예제에서는 자세한 dnstap 출력이 YAML 파일 형식으로 인쇄됩니다.

    Example:
    
    dnstap-read -y [file-name]

28장. 액세스 제어 목록 관리

각 파일과 디렉터리에는 한 번에 하나의 사용자 소유자와 하나의 그룹 소유자만 있을 수 있습니다. 다른 파일 및 디렉터리를 비공개로 유지하면서 다른 사용자 또는 그룹에 속하는 특정 파일 또는 디렉토리에 액세스할 수 있는 권한을 사용자에게 부여하려면 ACL(Linux Access Control Lists)을 활용할 수 있습니다.

28.1. 현재 액세스 제어 목록 표시

getfacl 유틸리티를 사용하여 현재 ACL을 표시할 수 있습니다.

절차

  • 특정 파일 또는 디렉토리에 대한 현재 ACL을 표시하려면 다음을 사용합니다.

    $ getfacl file-name

    file-name 을 파일 또는 디렉터리의 이름으로 바꿉니다.

28.2. 액세스 제어 목록 설정

setfacl 유틸리티를 사용하여 파일 또는 디렉터리에 대한 ACL을 설정할 수 있습니다.

사전 요구 사항

  • 루트 액세스.

절차

  • 파일 또는 디렉터리에 대한 ACL을 설정하려면 다음을 사용합니다.
# setfacl -m u:username:symbolic_value file-name

username 을 사용자 이름으로, symbolic_value 를 심볼릭 값으로, file-name 을 파일 또는 디렉토리 이름으로 바꿉니다. 자세한 내용은 setfacl 도움말 페이지를 참조하십시오.

예 28.1. 그룹 프로젝트에 대한 권한 수정

다음 예제에서는 이 파일이 다음과 같이 root 그룹에 속하는 root 사용자가 소유한 group -project 파일에 대한 권한을 수정하는 방법을 설명합니다.

  • 누구나 실행할 수 없습니다.
  • 사용자 andrew 에는 rw- 권한이 있습니다.
  • 사용자 susan--- 권한을 갖습니다.
  • 기타 사용자에게는 r-- 권한이 있습니다.

절차

# setfacl -m u:andrew:rw- group-project
# setfacl -m u:susan:--- group-project

검증 단계

  • 사용자 andrewrw- 권한이 있는지 확인하려면 susan 사용자에게 --- 권한이 있으며 기타 사용자에게 r-- 권한이 있는지 확인합니다.

    $ getfacl group-project

    출력은 다음을 반환합니다.

    # file: group-project
    # owner: root
    # group: root
    user:andrew:rw-
    user:susan:---
    group::r--
    mask::rw-
    other::r--

29장. Chrony 제품군을 사용하여 NTP 구성

정확한 시간 유지는 IT의 여러 가지 이유로 중요합니다. 예를 들어 네트워킹에서는 패킷 및 로그의 정확한 타임스탬프가 필요합니다. Linux 시스템에서 NTP 프로토콜은 사용자 공간에서 실행되는 데몬에 의해 구현됩니다.

사용자 공간 데몬은 커널에서 실행되는 시스템 시계를 업데이트합니다. 시스템 클록은 다양한 시계 소스를 사용하여 시간을 유지할 수 있습니다. 일반적으로TSC( Time Stamp Counter )가 사용됩니다. TSC는 마지막으로 재설정된 이후 사이클 수를 계산하는 CPU 레지스터입니다. 매우 빠르며 해상도가 높으며 중단이 없습니다.

Red Hat Enterprise Linux 8부터 NTP 프로토콜은 chronyd 데몬에서 구현되며 chrony 패키지의 리포지토리에서 사용할 수 있습니다.

다음 섹션에서는 chrony 제품군을 사용하여 NTP를 구성하는 방법을 설명합니다.

29.1. Chrony 제품군 소개

Chrony 는 NTP( Network Time Protocol) 구현 입니다. Chrony :

  • NTP 서버와 시스템 시계를 동기화하려면
  • 참조 클록과 시스템 클록을 동기화하려면 (예: GPS 수신자)
  • 수동 시간 입력과 시스템 시계를 동기화하려면
  • NTPv4(RFC 5905) 서버 또는 피어로서 네트워크의 다른 컴퓨터에 시간 서비스 제공

Chrony 는 간헐적인 네트워크 연결, 과도하게 혼잡한 네트워크, 온도 변경(일반 컴퓨터 클록은 온도에 민감함) 및 지속적으로 실행되지 않거나 가상 시스템에서 실행되지 않는 시스템을 포함하여 다양한 조건에서 원활하게 작동합니다.

인터넷을 통해 동기화된 두 머신 간의 일반적인 정확성은 몇 밀리초 이내이며, 10마이크로초 내에 LAN에 있는 머신의 경우입니다. 하드웨어 타임스탬프 또는 하드웨어 참조 클록은 두 머신 간의 정확도를 1마이크로초 단위로 동기화할 수 있습니다.

Chrony 는 사용자 공간에서 실행되는 데몬인 chronyd와 chronyd 의 성능을 모니터링하고 실행 중인 다양한 운영 매개 변수를 변경하는 데 사용할 수 있는 명령줄 프로그램인 chronyc 로 구성됩니다.

chrony 데몬인 chronyd 는 명령줄 chronyc 에서 모니터링하고 제어할 수 있습니다. 이 유틸리티는 chronyd 의 현재 상태를 쿼리하고 구성을 변경할 수 있도록 여러 명령을 입력할 수 있는 명령 프롬프트를 제공합니다. 기본적으로 chronydchronyc 의 로컬 인스턴스에서 명령만 수락하지만 원격 호스트에서도 모니터링 명령을 허용하도록 구성할 수 있습니다. 원격 액세스를 제한해야 합니다.

29.2. chronyc를 사용하여 chronyd 제어

이 섹션에서는 chronyc 명령줄 유틸리티를 사용하여 chronyd 를 제어하는 방법을 설명합니다.

절차

  1. 대화형 모드에서 utility chronyc 명령줄을 사용하여 chronyd 의 로컬 인스턴스를 변경하려면 root 로 다음 명령을 입력합니다.

    # chronyc

    일부 제한된 명령을 사용하려면 chronycroot 로 실행해야 합니다.

    chronyc 명령 프롬프트는 다음과 같이 표시됩니다.

    chronyc>
  2. 모든 명령을 나열하려면 help 를 입력합니다.
  3. 또는 다음과 같이 명령과 함께 호출되는 경우 비대화형 명령 모드에서 유틸리티를 호출할 수도 있습니다.

    chronyc command
참고

chronyc 를 사용하여 변경한 내용은 영구적이지 않으며 chronyd 재시작 후 손실됩니다. 영구 변경을 위해 /etc/chrony.conf 를 수정합니다.

29.3. Chrony로 마이그레이션

Red Hat Enterprise Linux 7에서는 사용자가 ntpchrony 중에서 선택하여 정확한 시간 유지를 보장할 수 있습니다. ntpchrony, ntpdchronyd 의 차이점은 ntpd와 chronyd 간의 차이점을 참조하십시오.

Red Hat Enterprise Linux 8부터 NTP는 이상 지원되지 않습니다. Chrony 는 기본적으로 활성화되어 있습니다. 따라서 ntp 에서 chrony 로 마이그레이션해야 할 수 있습니다.

ntp 에서 chrony 로의 마이그레이션은 대부분의 경우 간단합니다. 프로그램, 구성 파일 및 서비스의 해당 이름은 다음과 같습니다.

표 29.1. ntp에서 chrony로 마이그레이션할 때 프로그램, 구성 파일 및 서비스의 해당 이름

NTP 이름Chrony 이름

/etc/ntp.conf

/etc/chrony.conf

/etc/ntp/keys

/etc/chrony.keys

ntpd

Chronyd

ntpq

Chronyc

ntpd.service

chronyd.service

ntp-wait.service

chrony-wait.service

ntp 배포에 포함된 ntpdatesntp 유틸리티는 -q 옵션 또는 - t 옵션을 사용하여 chronyd 로 바꿀 수 있습니다. /etc/chrony.conf 를 읽지 않도록 명령줄에서 구성을 지정할 수 있습니다. 예를 들어 ntpdate ntp.example.com 을 실행하는 대신chronyd 를 다음과 같이 시작할 수 있습니다.

# chronyd -q 'server ntp.example.com iburst'
2018-05-18T12:37:43Z chronyd version 3.3 starting (+CMDMON +NTP +REFCLOCK +RTC +PRIVDROP +SCFILTER +SIGND +ASYNCDNS +SECHASH +IPV6 +DEBUG)
2018-05-18T12:37:43Z Initial frequency -2.630 ppm
2018-05-18T12:37:48Z System clock wrong by 0.003159 seconds (step)
2018-05-18T12:37:48Z chronyd exiting

이전에 ntp 패키지에 포함되었으며 ntpd만 지원되었던 ntp stat 유틸리티는 이제 ntpd chronyd 를 둘 다 지원합니다. ntpstat 패키지에서 사용할 수 있습니다.

29.3.1. 마이그레이션 스크립트

ntp2chrony.py 라는 Python 스크립트는 chrony 패키지(/usr/share/doc/chrony) 설명서에 포함되어 있습니다. 스크립트는 기존 ntp 구성을 chrony 로 자동으로 변환합니다. ntp.conf 파일에서 가장 일반적인 지시문과 옵션을 지원합니다. 변환에서 무시되는 모든 행은 검토를 위해 생성된 chrony.conf 파일에 주석으로 포함됩니다. ntp 키 파일에 지정되지만 ntp .conf에서 신뢰할 수 있는 키로 표시되지 않는 키는 생성된 chrony. keys 파일에 주석으로 포함되어 있습니다.

기본적으로 스크립트는 파일을 덮어쓰지 않습니다. /etc/chrony.conf 또는 /etc/chrony.keys 가 이미 있는 경우 -b 옵션을 사용하여 파일 이름을 백업으로 변경할 수 있습니다. 이 스크립트는 다른 옵션을 지원합니다. --help 옵션은 지원되는 모든 옵션을 인쇄합니다.

ntp 패키지에 제공된 기본 ntp.conf 를 사용하여 스크립트 호출의 예는 다음과 같습니다.

# python3 /usr/share/doc/chrony/ntp2chrony.py -b -v
Reading /etc/ntp.conf
Reading /etc/ntp/crypto/pw
Reading /etc/ntp/keys
Writing /etc/chrony.conf
Writing /etc/chrony.keys

이 경우 무시된 유일한 지시문은 noclientlog 지시문에 chrony가 동일하지만 증폭 공격을 완화하기 위해서만 기본 ntp.conf 에 포함되어 있는 disable monitor 입니다.

생성된 chrony.conf 파일에는 일반적으로 ntp.conf 의 restrict 행에 해당하는 다수의 allow 지시문이 포함되어 있습니다. chronydNTP 서버로 실행하지 않으려면 chrony.conf 에서 allow 지시문을 모두 제거합니다.

30장. Chrony 사용

다음 섹션에서는 chronyd 를 설치, 시작 및 중지하는 방법과 chrony 가 동기화되었는지 확인하는 방법을 설명합니다. 섹션에서는 시스템 클락을 수동으로 조정하는 방법도 설명합니다.

30.1. Chrony 관리

다음 절차에서는 chronyd 의 설치, 시작, 중지 및 상태를 확인하는 방법을 설명합니다.

절차

  1. chrony 제품군은 기본적으로 Red Hat Enterprise Linux에 설치됩니다. 이를 확인하려면 root 로 다음 명령을 실행하십시오.

    # yum install chrony

    chrony 데몬의 기본 위치는 /usr/sbin/chronyd 입니다. 명령행 유틸리티는 /usr/bin/chronyc 에 설치됩니다.

  2. chronyd 의 상태를 확인하려면 다음 명령을 실행합니다.

    systemctl status chronyd
    chronyd.service - NTP client/server
       Loaded: loaded (/usr/lib/systemd/system/chronyd.service; enabled)
       Active: active (running) since Wed 2013-06-12 22:23:16 CEST; 11h ago
  3. chronyd 를 시작하려면 root 로 다음 명령을 실행합니다.

    # systemctl start chronyd

    시스템 시작 시 chronyd 가 자동으로 시작되도록 하려면 root 로 다음 명령을 실행하십시오.

    # systemctl enable chronyd
  4. chronyd 를 중지하려면 root 로 다음 명령을 실행하십시오.

    # systemctl stop chronyd

    시스템 시작 시 chronyd 가 자동으로 시작되지 않도록 하려면 root 로 다음 명령을 실행하십시오.

    # systemctl disable chronyd

30.2. chrony가 동기화되었는지 확인

다음 절차에서는 chrony추적, 소스 sourcestats 명령을 사용하여 동기화되었는지 확인하는 방법을 설명합니다.

절차

  1. Chrony 추적 을 확인하려면 다음 명령을 실행합니다.

    chronyc tracking
    Reference ID    : CB00710F (foo.example.net)
    Stratum         : 3
    Ref time (UTC)  : Fri Jan 27 09:49:17 2017
    System time     :  0.000006523 seconds slow of NTP time
    Last offset     : -0.000006747 seconds
    RMS offset      : 0.000035822 seconds
    Frequency       : 3.225 ppm slow
    Residual freq   : 0.000 ppm
    Skew            : 0.129 ppm
    Root delay      : 0.013639022 seconds
    Root dispersion : 0.001100737 seconds
    Update interval : 64.2 seconds
    Leap status     : Normal
  2. source 명령은 chronyd 가 액세스 중인 현재 시간 소스에 대한 정보를 표시합니다. chrony 소스를 확인하려면 다음 명령을 실행합니다.

    $ chronyc sources
    	210 Number of sources = 3
    MS Name/IP address         Stratum Poll Reach LastRx Last sample
    ===============================================================================
    #* GPS0                          0   4   377    11   -479ns[ -621ns] /-  134ns
    ^? a.b.c                         2   6   377    23   -923us[ -924us] +/-   43ms
    ^ d.e.f                         1   6   377    21  -2629us[-2619us] +/-   86ms

    자세한 정보를 포함하여 선택적 인수 -v를 지정할 수 있습니다. 이 경우 열의 의미를 알리는 추가 캡션 행이 표시됩니다.

  3. sourcestats 명령은 chronyd 에서 현재 검사하는 각 소스에 대한 드리프트 속도 및 오프셋 추정 프로세스에 대한 정보를 표시합니다. chrony 소스 통계를 확인하려면 다음 명령을 실행합니다.

    chronyc sourcestats
    210 Number of sources = 1
    Name/IP Address            NP  NR  Span  Frequency  Freq Skew  Offset  Std Dev
    ===============================================================================
    abc.def.ghi                11   5   46m     -0.001      0.045      1us    25us

    자세한 정보를 포함하여 선택적 인수 -v 를 지정할 수 있습니다. 이 경우 열의 의미를 알리는 추가 캡션 행이 표시됩니다.

추가 리소스

  • chronyc(1) 도움말 페이지

30.3. 시스템 시계 수동 조정

다음 절차에서는 시스템 클락을 수동으로 조정하는 방법을 설명합니다.

절차

  1. 시스템 시계를 즉시 전환하려면 줄 바꿈으로 진행 중인 조정을 무시하고 root 로 다음 명령을 실행합니다.

    # chronyc makestep

rtcfile 지시문을 사용하는 경우 실시간 클록을 수동으로 조정해서는 안 됩니다. 임의 조정으로 인해실시간 클록 드리프트의 속도를 측정해야 하는 Chrony의 필요성에 방해가 됩니다.

30.4. 격리된 네트워크에서 시스템의 chrony 설정

인터넷에 연결되지 않은 네트워크의 경우 한 대의 컴퓨터가 마스터 시간 서버로 선택됩니다. 다른 컴퓨터는 마스터의 직접 클라이언트 또는 클라이언트의 클라이언트입니다. 마스터에서 시스템 클록의 평균 드리프트 속도로 드리프트 파일을 수동으로 설정해야 합니다. 마스터가 재부팅되면 주변 시스템에서 시간을 가져오고 시스템 시계를 설정하는 평균 시간을 계산합니다. 그 후 드리프트 파일을 기반으로 조정 적용을 재개합니다. settime 명령을 사용하면 드리프트 파일이 자동으로 업데이트됩니다.

다음 절차에서는 격리된 네트워크에서 asystem에 대해 chrony 를 설정하는 방법을 설명합니다.

절차

  1. 마스터가 되도록 선택한 시스템에서 텍스트 편집기를 root 로 실행하는 경우 다음과 같이 /etc/chrony.conf 를 편집합니다.

    driftfile /var/lib/chrony/drift
    commandkey 1
    keyfile /etc/chrony.keys
    initstepslew 10 client1 client3 client6
    local stratum 8
    manual
    allow 192.0.2.0

    여기서 192.0.2.0 은 클라이언트가 연결할 수 있는 네트워크 또는 서브넷 주소입니다.

  2. root 로 실행되는 텍스트 편집기를 사용하여 마스터의 직접 클라이언트가 되도록 선택한 시스템에서 다음과 같이 /etc/chrony.conf 를 편집합니다.

    server master
    driftfile /var/lib/chrony/drift
    logdir /var/log/chrony
    log measurements statistics tracking
    keyfile /etc/chrony.keys
    commandkey 24
    local stratum 10
    initstepslew 20 master
    allow 192.0.2.123

    여기서 192.0.2.123 은 마스터의 주소이며 master는 마스터 의 호스트 이름입니다. 이 구성의 클라이언트는 재시작 시 마스터를 다시 동기화합니다.

마스터의 직접 클라이언트가 아니어야 하는 클라이언트 시스템에서는 로컬allow 지시문을 생략해야 한다는 점을 제외하고 /etc/chrony.conf 파일이 동일해야 합니다.

격리된 네트워크에서 로컬 참조 모드를 활성화하는 로컬 지시문을 사용할 수도 있습니다. 이를 통해 chronydNTP 서버로 작동하면 동기화되지 않았거나 클록의 마지막 업데이트가 오래 전에 발생한 경우에도 chronyd가 실시간으로 동기화될 수 있습니다.

네트워크에 있는 여러 서버가 동일한 로컬 구성을 사용하도록 허용하고 둘 이상의 서버를 폴링하는 클라이언트를 혼동하지 않고 서로 동기화할 수 있도록 하려면 로컬 지시문의 고립 옵션을 사용하여 고립 모드를 활성화합니다. 각 서버는 로컬로 다른 모든 서버를 폴링하도록 구성해야 합니다 . 이렇게 하면 최소 참조 ID가 있는 서버만 로컬 참조가 활성 상태이며 다른 서버가 동기화됩니다. 서버가 실패하면 다른 서버가 인계됩니다.

30.5. 원격 모니터링 액세스 구성

Chronyc 는 다음 두 가지 방법으로 chronyd 에 액세스할 수 있습니다.

  • 인터넷 프로토콜, IPv4 또는 IPv6.
  • Unix 도메인 소켓 - root 또는 chrony 사용자가 로컬로 액세스할 수 있습니다.

기본적으로 chronyc 는 Unix 도메인 소켓에 연결됩니다. 기본 경로는 /var/run/chrony/chronyd.sock 입니다. 이 연결이 실패하고 예를 들어 루트가 아닌 사용자가 chronyc 를 실행 중인 경우 chronyc 는 127.0.0.1에 연결을 시도한 다음 ::1에 연결을 시도합니다.

네트워크에서 chronyd 동작에 영향을 미치지 않는 다음 모니터링 명령만 허용합니다.

  • 활동
  • 수동 목록
  • rtcdata
  • 완화 중
  • 소스
  • Sourcestats
  • 추적
  • waitsync

chronyd가 이러한 명령을 허용하는 호스트 집합은 chronyd 의 구성 파일에서 cmdallow 지시문 또는 chronyccmdallow 명령으로 구성할 수 있습니다. 기본적으로 명령은 localhost(127.0.0.1 또는 ::1)에서만 허용됩니다.

기타 모든 명령은 Unix 도메인 소켓을 통해서만 허용됩니다. 네트워크를 통해 보내면 chronyd 는 localhost에서 온 경우에도 Not authorized 오류로 응답합니다.

다음 절차에서는 chronyc 를 사용하여 원격으로 chronyd에 액세스하는 방법을 설명합니다.

절차

  1. 다음을 /etc/chrony.conf 파일에 추가하여 IPv4 및 IPv6 주소 모두에서 액세스를 허용합니다.

    bindcmdaddress 0.0.0.0

    또는

    bindcmdaddress ::
  2. cmdallow 지시문을 사용하여 원격 IP 주소, 네트워크 또는 서브넷의 명령을 허용합니다.

    /etc/chrony.conf 파일에 다음 내용을 추가합니다.

    cmdallow 192.168.1.0/24
  3. 방화벽에서 포트 323을 열어 원격 시스템에서 연결합니다.

    #  firewall-cmd --zone=public --add-port=323/udp

    선택적으로 --permanent 옵션을 사용하여 포트 323을 영구적으로 열 수 있습니다.

    #  firewall-cmd --permanent --zone=public --add-port=323/udp
  4. 323 포트를 영구적으로 여는 경우 방화벽 구성을 다시 로드합니다.

    firewall-cmd --reload

추가 리소스

  • chrony.conf(5) 도움말 페이지

30.6. RHEL 시스템 역할을 사용하여 시간 동기화 관리

time sync 역할을 사용하여 여러 대상 시스템에서 시간 동기화를 관리할 수 있습니다. timesync 역할은 PTP 도메인의 NTP 서버 또는 서브마스터와 시스템 클록을 동기화하기 위해 NTP 클라이언트 또는 PTP 슬레이브로 작동하도록 NTP 또는 PTP 구현을 설치하고 구성합니다.

또한 timesync 역할을 사용하면 ntp 또는 chrony를 사용하여 NTP 프로토콜을 구현하는지 여부에 관계없이 RHEL 6에서 시작하는 모든 Red Hat Enterprise Linux 버전에서 동일한 플레이북을 사용할 수 있기 때문에 쉽게 chrony 로 마이그레이션 할 수 있습니다.

주의

timesync 역할은 관리 호스트에서 제공된 또는 탐지된 공급자 서비스의 구성을 대체합니다. 이전 설정은 역할 변수에 지정되지 않았더라도 손실됩니다. timesync_ntp_provider 변수가 정의되지 않은 경우 유일한 보존 설정은 프로바이더 선택 사항입니다.

다음 예제에서는 하나의 서버 풀만 있는 상황에서 timesync 역할을 적용하는 방법을 보여줍니다.

예 30.1. 단일 서버 풀에 대한 timesync 역할을 적용하는 예제 플레이북

---
- hosts: timesync-test
  vars:
    timesync_ntp_servers:
      - hostname: 2.rhel.pool.ntp.org
        pool: yes
        iburst: yes
  roles:
    - rhel-system-roles.timesync

timesync 역할 변수에 대한 자세한 참조는 rhel-system-roles 패키지를 설치하고 /usr/share/doc/rhel-system-roles/timesync 디렉터리의 README.md 또는 README.html 파일을 참조하십시오.

30.7. 추가 리소스

31장. HW 타임스탬프링을 사용하는 Chrony

하드웨어 타임스탬프링은 수신 및 발신 패킷의 정확한 타임스탬프를 제공하는 일부 NIC(Network Interface Controller)에서 지원되는 기능입니다. NTP 타임스탬프는 일반적으로 시스템 클록을 사용하여 커널 및 chronyd 에 의해 생성됩니다. 그러나 HW 타임스탬프가 활성화되면 NIC는 자체 클록을 사용하여 패킷이 링크 계층 또는 물리적 계층을 입력하거나 종료할 때 타임스탬프를 생성합니다. NTP 와 함께 사용할 경우 하드웨어 타임스탬프를 사용하면 동기화의 정확성을 크게 향상시킬 수 있습니다. 최적의 정확성을 위해 NTP 서버와 NTP 클라이언트 모두 하드웨어 타임스탬프를 사용해야 합니다. 이상적인 상황에서 마이크로초 미만의 정확성이 가능할 수 있습니다.

하드웨어 타임스탬프를 사용하는 시간 동기화를 위한 또 다른 프로토콜은 PTP 입니다.

NTP 와 달리PTP 는 네트워크 스위치 및 라우터의 지원을 사용합니다. 동기화의 정확성을 극대화하려면 PTP 를 지원하는 스위치 및 라우터가 있는 네트워크에서 PTP 를 사용하고 이러한 스위치와 라우터가 없는 네트워크에서 NTP 를 선호합니다.

다음 섹션에서는 다음을 수행하는 방법을 설명합니다.

  • 하드웨어 타임스탬프 지원 확인
  • 하드웨어 타임스탬프 활성화
  • 클라이언트 폴링 간격 구성
  • 인터리브드 모드 활성화
  • 많은 수의 클라이언트를 위해 서버 구성
  • 하드웨어 타임스탬프 확인
  • PTP-NTP 브리지 구성

31.1. 하드웨어 타임스탬프 지원 확인

인터페이스에서 NTP 를 사용한 하드웨어 타임스탬프를 지원하는지 확인하려면 ethtool -T 명령을 사용합니다. ethtool 이 SOF_TIMESTAMPING_TX_ HARDWARE 및 SOF_TIMESTAMPING_TX_QUAWARE 기능과 HWTSTAMPMP_FILTER_ ALL 필터 모드를 나열하는 경우 인터페이스를 NTP 로 하드웨어 타임스탬프에 사용할 수 있습니다.

예 31.1. 특정 인터페이스에서 하드웨어 타임스탬프 지원 확인

# ethtool -T eth0

출력:

Timestamping parameters for eth0:
Capabilities:
        hardware-transmit     (SOF_TIMESTAMPING_TX_HARDWARE)
        software-transmit     (SOF_TIMESTAMPING_TX_SOFTWARE)
        hardware-receive      (SOF_TIMESTAMPING_RX_HARDWARE)
        software-receive      (SOF_TIMESTAMPING_RX_SOFTWARE)
        software-system-clock (SOF_TIMESTAMPING_SOFTWARE)
        hardware-raw-clock    (SOF_TIMESTAMPING_RAW_HARDWARE)
PTP Hardware Clock: 0
Hardware Transmit Timestamp Modes:
        off                   (HWTSTAMP_TX_OFF)
        on                    (HWTSTAMP_TX_ON)
Hardware Receive Filter Modes:
        none                  (HWTSTAMP_FILTER_NONE)
        all                   (HWTSTAMP_FILTER_ALL)
        ptpv1-l4-sync         (HWTSTAMP_FILTER_PTP_V1_L4_SYNC)
        ptpv1-l4-delay-req    (HWTSTAMP_FILTER_PTP_V1_L4_DELAY_REQ)
        ptpv2-l4-sync         (HWTSTAMP_FILTER_PTP_V2_L4_SYNC)
        ptpv2-l4-delay-req    (HWTSTAMP_FILTER_PTP_V2_L4_DELAY_REQ)
        ptpv2-l2-sync         (HWTSTAMP_FILTER_PTP_V2_L2_SYNC)
        ptpv2-l2-delay-req    (HWTSTAMP_FILTER_PTP_V2_L2_DELAY_REQ)
        ptpv2-event           (HWTSTAMP_FILTER_PTP_V2_EVENT)
        ptpv2-sync            (HWTSTAMP_FILTER_PTP_V2_SYNC)
        ptpv2-delay-req       (HWTSTAMP_FILTER_PTP_V2_DELAY_REQ)

31.2. 하드웨어 타임스탬프 활성화

하드웨어 타임스탬프를 활성화하려면 /etc/chrony.conf 파일에서 hwtimestamp 지시문을 사용합니다. 지시문은 단일 인터페이스를 지정하거나 와일드카드 문자를 사용하여 이를 지원하는 모든 인터페이스에서 하드웨어 타임스탬프를 활성화할 수 있습니다. linuxptp 패키지의 ptp4l 과 같은 다른 애플리케이션이 인터페이스에서 하드웨어 타임스탬프를 사용하는 경우 와일드카드 사양을 사용합니다. chrony 구성 파일에는 여러 hwtimestamp 지시문이 허용됩니다.

예 31.2. hwtimestamp 지시문을 사용하여 하드웨어 타임스탬프 활성화

hwtimestamp eth0
hwtimestamp eth1
hwtimestamp *

31.3. 클라이언트 폴링 간격 구성

인터넷의 서버에는 폴링 간격의 기본 범위(64-1024초)가 권장됩니다. 로컬 서버 및 하드웨어 타임스탬프의 경우 시스템 클럭의 오프셋을 최소화하기 위해 더 짧은 폴링 간격을 구성해야 합니다.

/etc/chrony.conf 의 다음 지시문은 1초 폴링 간격을 사용하여 로컬 NTP 서버를 지정합니다.

server ntp.local minpoll 0 maxpoll 0

31.4. 인터리브드 모드 활성화

하드웨어 NTP 어플라이언스가 아니라 소프트웨어 NTP 구현을 실행하는 범용 컴퓨터(예: chrony )는 패킷을 보낸 후에만 하드웨어 전송 타임스탬프를 가져옵니다. 이렇게 하면 서버가 해당 패킷의 타임스탬프를 저장하는 것을 방지할 수 있습니다. 전송 후 생성된 전송 타임스탬프를 수신하는 NTP 클라이언트를 활성화하려면 /etc/chrony.conf의 server 지시문에 xleave 옵션을 추가하여 클라이언트가 NTP 인터리브 모드를 사용하도록 구성합니다.

server ntp.local minpoll 0 maxpoll 0 xleave

31.5. 다수의 클라이언트에 대해 서버 구성

기본 서버 구성을 사용하면 대부분의 수천 개의 클라이언트가 인터리브드 모드를 동시에 사용할 수 있습니다. 다수의 클라이언트에 대해 서버를 구성하려면 /etc/chrony.conf 에서 clientloglimit 지시문을 늘립니다. 이 지시문은 서버에서 클라이언트 액세스 권한을 로깅하기 위해 할당된 최대 메모리 크기를 지정합니다.

clientloglimit 100000000

31.6. 하드웨어 타임스탬프 확인

인터페이스가 하드웨어 타임스탬프를 성공적으로 활성화했는지 확인하려면 시스템 로그를 확인합니다. 로그에는 하드웨어 타임스탬프가 성공적으로 활성화된 각 인터페이스에 대해 chronyd 의 메시지가 포함되어야 합니다.

예 31.3. 하드웨어 타임스탬프가 활성화된 인터페이스에 대한 로그 메시지

chronyd[4081]: Enabled HW timestamping on eth0
chronyd[4081]: Enabled HW timestamping on eth1

chronydNTP 클라이언트 또는 피어로 구성되면 chronyc ntpdata 명령으로 각 NTP 소스에 대해 보고된 전송 및 수신 타임스탬프 모드와 인터리브드 모드가 있을 수 있습니다.

예 31.4. 각 NTP 소스에 대해 전송 보고, 수신 타임스탬프링 및 인터리브드 모드

# chronyc ntpdata

출력:

Remote address  : 203.0.113.15 (CB00710F)
Remote port     : 123
Local address   : 203.0.113.74 (CB00714A)
Leap status     : Normal
Version         : 4
Mode            : Server
Stratum         : 1
Poll interval   : 0 (1 seconds)
Precision       : -24 (0.000000060 seconds)
Root delay      : 0.000015 seconds
Root dispersion : 0.000015 seconds
Reference ID    : 47505300 (GPS)
Reference time  : Wed May 03 13:47:45 2017
Offset          : -0.000000134 seconds
Peer delay      : 0.000005396 seconds
Peer dispersion : 0.000002329 seconds
Response time   : 0.000152073 seconds
Jitter asymmetry: +0.00
NTP tests       : 111 111 1111
Interleaved     : Yes
Authenticated   : No
TX timestamping : Hardware
RX timestamping : Hardware
Total TX        : 27
Total RX        : 27
Total valid RX  : 27

예 31.5. NTP 측정의 안정성 보고

# chronyc sourcestats

하드웨어 타임스탬프를 활성화하면 NTP 측정의 안정성이 정상 부하에서 수십 또는 수백 나노초 내에 있어야 합니다. 이 안정성은 chronyc sourcestats 명령의 출력의 Std Dev 열에 보고됩니다.

출력:

210 Number of sources = 1
Name/IP Address            NP  NR  Span  Frequency  Freq Skew  Offset  Std Dev
ntp.local                  12   7    11     +0.000      0.019     +0ns    49ns

31.7. PTP-NTP 브리지 구성

PTP(Precision Time Protocol) LVmaster가 PTP지원과 함께 스위치 또는 라우터가 없는 네트워크에서 사용 가능한 경우 컴퓨터는 PTP 슬레이브 및 stratum-1 NTP 서버로만 작동할 수 있습니다. 이러한 컴퓨터에는 두 개 이상의 네트워크 인터페이스가 있어야 하며, 마스터에 가까우거나 직접 연결되어 있어야 합니다. 이렇게 하면 네트워크에서 매우 정확한 동기화가 가능합니다.

하나의 인터페이스를 사용하여 PTP 를 사용하여 시스템 시계를 동기화하도록 linuxptp 패키지에서 ptp4lphc2sys 프로그램을 구성합니다.

다른 인터페이스를 사용하여 시스템 시간을 제공하도록 chronyd 를 구성합니다.

예 31.6. 다른 인터페이스를 사용하여 시스템 시간을 제공하도록 chronyd 구성

bindaddress 203.0.113.74
hwtimestamp eth1
local stratum 1

32장. chrony에서 NTP가 이전에 지원한 일부 설정 수행

ntp 에서 지원하는 이전 Red Hat Enterprise Linux 주 버전에 있는 일부 설정은 chrony 에서 지원되지 않습니다. 다음 섹션은 이러한 설정을 나열하고 chrony 가 있는 시스템에서 이를 수행하는 방법을 설명합니다.

32.1. ntpq 및 ntpdc로 모니터링

chrony NTP 모드 6 및 7을 지원하지 않으므로 ntp 배포의 ntpqntpdc 유틸리티로 Chronyd를 모니터링할 수 없습니다. 다른 프로토콜을 지원하며 chronyc 는 클라이언트 구현입니다. 자세한 내용은 chronyc(1) 도움말 페이지를 참조하십시오.

chronyd 에서 대칭화된 시스템 클록의 상태를 모니터링하려면 다음을 수행할 수 있습니다.

  • 추적 명령 사용
  • ntpstat 유틸리티를 사용하여 chrony 를 지원하고 ntpd와 함께 사용된 것과 유사한 출력을 제공합니다.

예 32.1. 추적 명령 사용

$ chronyc -n tracking
Reference ID    : 0A051B0A (10.5.27.10)
Stratum         : 2
Ref time (UTC)  : Thu Mar 08 15:46:20 2018
System time     : 0.000000338 seconds slow of NTP time
Last offset     : +0.000339408 seconds
RMS offset      : 0.000339408 seconds
Frequency       : 2.968 ppm slow
Residual freq   : +0.001 ppm
Skew            : 3.336 ppm
Root delay      : 0.157559142 seconds
Root dispersion : 0.001339232 seconds
Update interval : 64.5 seconds
Leap status     : Normal

예 32.2. ntpstat 유틸리티 사용

$ ntpstat
synchronised to NTP server (10.5.27.10) at stratum 2
   time correct to within 80 ms
   polling server every 64 s

32.2. 공개 키 암호화를 기반으로 인증 메커니즘 사용

Red Hat Enterprise Linux 7에서 ntp 는 공개 키 암호화를 기반으로 하는 인증 메커니즘인 Autokey 를 지원합니다.

Red Hat Enterprise Linux 8에서 chronydAutokey 대신 최신 보안 인증 메커니즘인 NTP(Network Time Security)를 지원합니다. 자세한 내용은 chrony의 NTP(Network Time Security) 개요를 참조하십시오.

32.3. 임시 대칭 연결 사용

Red Hat Enterprise Linux 7에서 ntpd 지원 임시 대칭 연관은 ntp.conf 구성 파일에 지정되지 않은 피어의 패킷에 의해 조작될 수 있습니다. Red Hat Enterprise Linux 8에서 chronyd 는 모든 피어를 chrony.conf 에 지정해야 합니다. 임시 대칭 연결은 지원되지 않습니다.

server 또는 pool 지시문에서 활성화하는 클라이언트/서버 모드를 사용하는 것은 peer 지시문에서 활성화하는 대칭 모드에 비해 더 안전합니다.

32.4. 멀티 캐스트/브로드 캐스트 클라이언트

Red Hat Enterprise Linux 7은 클라이언트 구성을 간소화하는 브로드캐스트/멀티캐스트 NTP 모드를 지원했습니다. 이 모드에서는 클라이언트가 개별 서버의 특정 이름이나 주소를 수신 대기하는 대신 멀티캐스트/브로드캐스트 주소로 전송되는 패킷만 수신 대기하도록 구성할 수 있습니다. 이러한 패킷은 시간이 지남에 따라 변경될 수 있습니다.

Red Hat Enterprise Linux 8에서 chronyd 는 브로드캐스트/멀캐스트 모드를 지원하지 않습니다. 주된 이유는 일반 클라이언트/서버 및 대칭 모드보다 덜 정확하고 안전하지 않기 때문입니다.

NTP 브로드캐스트/다중캐스트 설정에서 마이그레이션하는 몇 가지 옵션이 있습니다.

  • ntp.example.com과 같은 단일 이름을 다른 서버의 여러 주소로 변환하도록 DNS 구성

    클라이언트는 단일 pool 지시문만 사용하여 여러 서버와 동기화할 정적 구성을 가질 수 있습니다. 풀의 서버를 복원할 수 없거나 동기화에 적합하지 않은 경우 클라이언트는 자동으로 풀의 다른 서버로 교체합니다.

  • DHCP를 통해 NTP 서버 목록 배포

    NetworkManager가 DHCP 서버에서 NTP 서버 목록을 가져오면 chronyd 가 자동으로 이를 사용하도록 구성됩니다. 이 기능은 PEERNTP=no/etc/sysconfig/network 파일에 추가하여 비활성화할 수 있습니다.

  • PTP(Precision Time Protocol)사용

    이 옵션은 주로 서버가 자주 변경되거나, 지정된 서버를 사용하지 않고도 대규모 클라이언트 그룹을 서로 동기화해야 하는 환경에 적합합니다.

    PTP 는 멀티캐스트 메시징용으로 설계되었으며 NTP 브로드캐스트 모드와 유사하게 작동합니다. PTP 구현은 linuxptp 패키지에서 사용할 수 있습니다.

    PTP 는 일반적으로 네트워크 스위치의 하드웨어 타임스탬프 및 지원이 제대로 작동해야 합니다. 그러나 PTP 는 소프트웨어 타임스탬프를 사용하고 네트워크 스위치에서 지원하지 않는 브로드캐스트 모드에서 NTP 보다 더 잘 작동할 것으로 예상됩니다.

    한 통신 경로에 PTP 슬레이브 수가 매우 많은 네트워크에서 슬레이브로 생성된 네트워크 트래픽의 양을 줄이기 위해 hybrid_e2e 옵션으로 PTP 슬레이브를 구성하는 것이 좋습니다. 멀티캐스트 메시징을 사용하여 동기화된 시간을 다수의 컴퓨터에 배포하기 위해 chronydNTP 클라이언트 및 NTP 서버로 실행하는 컴퓨터를 구성할 수 있습니다.

33장. Chrony의 NTP(Network Time Security) 개요

NTP(Network Time Security)는 주요 클라이언트를 확장하도록 설계된 NTP(Network Time Protocol) 인증 메커니즘입니다. 클라이언트 시스템으로 이동하는 동안 서버 시스템에서 수신한 패킷이 변경되지 않은지 확인합니다. NTP(Network Time Security)에는 서버와 클라이언트 간에 사용되는 암호화 키를 자동으로 생성하는 NTPS-KE(Key Establishment) 프로토콜이 포함되어 있습니다.

33.1. 클라이언트 구성 파일에서 NTP(네트워크 시간 보안) 활성화

기본적으로 NTP(Network Time Security)는 활성화되어 있지 않습니다. /etc/chrony.conf 에서 NTS를 활성화할 수 있습니다. 이를 위해 다음 단계를 수행하십시오.

사전 요구 사항

  • NTS를 지원하는 서버

절차

클라이언트 구성 파일에서 다음을 수행합니다.

  1. 권장되는 iburst 옵션 외에 the nts 옵션을 사용하여 server를 지정합니다.

    For example:
    server time.example.com iburst nts
    server nts.netnod.se iburst nts
    server ptbtime1.ptb.de iburst nts
  2. 시스템 부팅 중에 NTPS-KE(Network Time Security-Key Establishment) 세션을 반복하지 않으려면 chrony.conf 에 다음 행을 추가합니다.

    ntsdumpdir /var/lib/chrony
  3. /etc/sysconfig/network 에 다음 행을 추가하여 DHCP 에서 제공하는 NTP(Network Time Protocol) 서버와의 동기화를 비활성화합니다.

    PEERNTP=no
  4. 변경 사항을 저장하십시오.
  5. chronyd 서비스를 다시 시작하십시오.

    systemctl restart chronyd

검증

  • NTS 키가 성공적으로 설정되었는지 확인합니다.

    # chronyc -N authdata
    
    Name/IP address  Mode KeyID Type KLen Last Atmp  NAK Cook CLen
    ================================================================
    time.example.com  NTS     1   15  256  33m    0    0    8  100
    nts.sth1.ntp.se   NTS     1   15  256  33m    0    0    8  100
    nts.sth2.ntp.se   NTS     1   15  256  33m    0    0    8  100

    KeyID,TypeKLen 의 값은 0이 아니어야 합니다. 값이 0이면 chronyd 에서 시스템 로그에 오류 메시지가 있는지 확인합니다.

  • 클라이언트가 NTP를 측정하고 있는지 확인합니다.

    # chronyc -N sources
    
    MS Name/IP address Stratum Poll Reach LastRx Last sample
    =========================================================
    time.example.com   3        6   377    45   +355us[ +375us] +/-   11ms
    nts.sth1.ntp.se    1        6   377    44   +237us[ +237us] +/-   23ms
    nts.sth2.ntp.se    1        6   377    44   -170us[ -170us] +/-   22ms

    Reach 열에는 0이 아닌 값이 있어야 합니다. 이상적인 377. 값이 377를 거의 얻지 못하거나 377를 얻지 못하면 네트워크에서 NTP 요청 또는 응답이 손실되고 있음을 나타냅니다.

추가 리소스

  • chrony.conf(5) 도움말 페이지

33.2. 서버에서 NTP(Network Time Security) 활성화

자체 NTP(Network Time Protocol) 서버를 실행하는 경우 서버 NTP(Network Time Security) 지원을 활성화하여 클라이언트가 안전하게 동기화하도록 할 수 있습니다.

NTP 서버가 다른 서버, 즉 Stratum 1 서버인 경우 동기화에 NTS 또는 대칭 키를 사용해야 합니다.

사전 요구 사항

  • PEM 형식의 서버 개인 키
  • 필요한 중간 인증서가 있는 서버 인증서 PEM 형식

절차

  1. chrony.conf에 개인 키와 인증서 파일을 지정합니다.

    For example:
    ntsserverkey /etc/pki/tls/private/foo.example.net.key
    ntsservercert /etc/pki/tls/certs/foo.example.net.crt
  2. 그룹 소유권을 설정하여 chrony 시스템 사용자가 키와 인증서 파일을 모두 읽을 수 있는지 확인합니다.

    For example:
    chown :chrony /etc/pki/tls/*/foo.example.net.*
  3. the ntsdumpdir /var/lib/chrony 지시문이 chrony.conf 에 있는지 확인합니다.
  4. chronyd 서비스를 다시 시작하십시오.

    systemctl restart chronyd
    중요

    서버에 방화벽이 있는 경우 NTP 및 Network Time Security-Key Establishment(NTS-KE)에 대한 UDP 123TCP 4460 포트를 모두 허용해야 합니다.

검증

  • 다음 명령을 사용하여 클라이언트 시스템에서 빠른 테스트를 수행합니다.

    $ chronyd -Q -t 3 'server
    
    foo.example.net iburst nts maxsamples 1'
    2021-09-15T13:45:26Z chronyd version 4.1 starting (+CMDMON +NTP +REFCLOCK +RTC +PRIVDROP +SCFILTER +SIGND +ASYNCDNS +NTS +SECHASH +IPV6 +DEBUG)
    2021-09-15T13:45:26Z Disabled control of system clock
    2021-09-15T13:45:28Z System clock wrong by 0.002205 seconds (ignored)
    2021-09-15T13:45:28Z chronyd exiting

    시스템 클록 잘못된 메시지는 NTP 서버가 NTS-KE 연결을 수락하고 NTS 보호 NTP 메시지로 응답하고 있음을 나타냅니다.

  • 서버에서 관찰된 NTS-KE 연결 및 인증된 NTP 패킷을 확인합니다.

    # chronyc serverstats
    
    NTP packets received       : 7
    NTP packets dropped        : 0
    Command packets received   : 22
    Command packets dropped    : 0
    Client log records dropped : 0
    NTS-KE connections accepted: 1
    NTS-KE connections dropped : 0
    Authenticated NTP packets: 7

    NTS-KE 연결 값이 0이 아닌 NTP 패킷 필드인 경우 클라이언트가 NTS-KE 포트에 연결하고 인증된 NTP 요청을 보낼 수 있었습니다.

34장. OpenSSH로 두 시스템 간의 보안 통신 사용

SSH(Secure Shell)는 클라이언트-서버 아키텍처를 사용하여 두 시스템 간에 보안 통신을 제공하고 사용자가 서버 호스트 시스템에 원격으로 로그인할 수 있는 프로토콜입니다. FTP 또는 Telnet과 같은 다른 원격 통신 프로토콜과 달리 SSH는 로그인 세션을 암호화하여 침입자가 암호화되지 않은 암호를 연결에서 수집할 수 있습니다.

Red Hat Enterprise Linux에는 일반 openssh 패키지, openssh -server 패키지, openssh- clients 패키지 등 기본 OpenSSH 패키지가 포함되어 있습니다. OpenSSH 패키지에는 OpenSSH 가 암호화된 통신을 제공할 수 있는 몇 가지 중요한 암호화 라이브러리를 설치하는 OpenSSL 패키지가 있어야 합니다.

34.1. SSH 및 OpenSSH

SSH(Secure Shell)는 원격 시스템에 로그인하고 해당 시스템에서 명령을 실행하는 프로그램입니다. SSH 프로토콜은 비보안 네트워크를 통해 신뢰할 수 없는 두 호스트 간에 안전한 암호화된 통신을 제공합니다. 보안 채널을 통해 X11 연결 및 임의의 TCP/IP 포트를 전달할 수도 있습니다.

SSH 프로토콜은 원격 쉘 로그인 또는 파일 복사에 사용할 때 두 시스템 간 통신 가로채기 및 특정 호스트의 가장과 같은 보안 위협을 완화합니다. 이는 SSH 클라이언트와 서버가 디지털 서명을 사용하여 ID를 확인하기 때문입니다. 또한 클라이언트와 서버 시스템 간의 모든 통신이 암호화됩니다.

호스트 키는 SSH 프로토콜에서 호스트를 인증합니다. 호스트 키는 OpenSSH가 처음 설치될 때 또는 호스트가 처음 부팅될 때 자동으로 생성되는 암호화 키입니다.

OpenSSH는 Linux, UNIX 및 유사한 운영 체제에서 지원하는 SSH 프로토콜 구현입니다. OpenSSH 클라이언트와 서버 모두에 필요한 핵심 파일을 포함합니다. OpenSSH 제품군은 다음 사용자 공간 도구로 구성됩니다.

  • SSH 는 원격 로그인 프로그램(SSH 클라이언트)입니다.
  • sshd 는 OpenSSH SSH 데몬입니다.
  • SCP 는 안전한 파일 복사 프로그램입니다.
  • SFTP 는 안전한 파일 전송 프로그램입니다.
  • SSH-agent 는 개인 키를 캐싱하기 위한 인증 에이전트입니다.
  • ssh-addssh-agent 에 개인 키 ID를 추가합니다.
  • SSH-keygen은 ssh 에 대한 인증 키를 생성, 관리 및 변환합니다.
  • ssh-copy-id 는 원격 SSH 서버의 authorized_keys 파일에 로컬 공개 키를 추가하는 스크립트입니다.
  • SSH-keyscan 은 SSH 공개 호스트 키를 수집합니다.

현재 SSH의 두 가지 버전인 버전 1과 최신 버전 2가 있습니다. RHEL의 OpenSSH 제품군은 SSH 버전 2만 지원합니다. 버전 1에서 알려진 악용에 취약하지 않은 향상된 key-exchange 알고리즘을 가지고 있습니다.

OpenSSH는 RHEL의 핵심 암호화 하위 시스템 중 하나로 시스템 전체 암호화 정책을 사용합니다. 이렇게 하면 기본 구성에서 약한 암호 제품군 및 암호화 알고리즘이 비활성화됩니다. 정책을 수정하려면 관리자는 update-crypto-policies 명령을 사용하여 설정을 조정하거나 시스템 전체 암호화 정책을 수동으로 비활성화해야 합니다.

OpenSSH 제품군은 클라이언트 프로그램(즉, ssh,scp, sftp)과 서버( sshd 데몬)에 대한 두 가지 구성 파일 세트를 사용합니다.

시스템 전체 SSH 구성 정보는 /etc/ssh/ 디렉토리에 저장됩니다. 사용자별 SSH 구성 정보는 사용자 홈 디렉터리의 ~/.ssh/에 저장됩니다. OpenSSH 구성 파일의 자세한 목록은 sshd(8) 도움말 페이지의 FILES 섹션을 참조하십시오.

추가 리소스

34.2. OpenSSH 서버 구성 및 시작

환경 및 OpenSSH 서버를 시작하는 데 필요할 수 있는 기본 구성에는 다음 절차를 사용합니다. 기본 RHEL 설치 후에는 sshd 데몬이 이미 시작되고 서버 호스트 키가 자동으로 생성됩니다.

사전 요구 사항

  • openssh-server 패키지가 설치되어 있습니다.

절차

  1. 현재 세션에서 sshd 데몬을 시작하고 부팅 시 자동으로 시작되도록 설정합니다.

    # systemctl start sshd
    # systemctl enable sshd
  2. 기본 0.0.0.0 (IPv4) 또는 :과 다른 주소를 지정하려면 다음을 수행합니다 . (IPv6) /etc/ssh/sshd_config 구성 파일에서 ListenAddress 지시문의 경우 느린 동적 네트워크 구성을 사용하여 network-online.target 대상 장치에 대한 종속성을 sshd.service 장치 파일에 추가합니다. 이를 위해 다음 콘텐츠를 사용하여 /etc/systemd/system/sshd.service.d/local.conf 파일을 만듭니다.

    [Unit]
    Wants=network-online.target
    After=network-online.target
  3. /etc/ssh/sshd_config 구성 파일의 OpenSSH 서버 설정이 시나리오 요구 사항을 충족하는지 검토합니다.
  4. 선택적으로 /etc/issue 파일을 편집하여 클라이언트를 인증하기 전에 OpenSSH 서버가 표시하는 시작 메시지를 변경합니다. 예를 들면 다음과 같습니다.

    Welcome to ssh-server.example.com
    Warning: By accessing this server, you agree to the referenced terms and conditions.

    Banner 옵션이 /etc/ssh/sshd_config 에서 주석 처리되지 않고 해당 값에 /etc/issue 가 포함되어 있는지 확인하십시오.

    # less /etc/ssh/sshd_config | grep Banner
    Banner /etc/issue

    로그인에 성공한 후 표시되는 메시지를 변경하려면 서버에서 /etc/motd 파일을 편집해야 합니다. 자세한 내용은 pam_motd 도움말 페이지를 참조하십시오.

  5. systemd 구성을 다시 로드하고 sshd 를 다시 시작하여 변경 사항을 적용합니다.

    # systemctl daemon-reload
    # systemctl restart sshd

검증

  1. sshd 데몬이 실행 중인지 확인합니다.

    # systemctl status sshd
    ● sshd.service - OpenSSH server daemon
       Loaded: loaded (/usr/lib/systemd/system/sshd.service; enabled; vendor preset: enabled)
       Active: active (running) since Mon 2019-11-18 14:59:58 CET; 6min ago
         Docs: man:sshd(8)
               man:sshd_config(5)
     Main PID: 1149 (sshd)
        Tasks: 1 (limit: 11491)
       Memory: 1.9M
       CGroup: /system.slice/sshd.service
               └─1149 /usr/sbin/sshd -D -oCiphers=aes128-ctr,aes256-ctr,aes128-cbc,aes256-cbc -oMACs=hmac-sha2-256,>
    
    Nov 18 14:59:58 ssh-server-example.com systemd[1]: Starting OpenSSH server daemon...
    Nov 18 14:59:58 ssh-server-example.com sshd[1149]: Server listening on 0.0.0.0 port 22.
    Nov 18 14:59:58 ssh-server-example.com sshd[1149]: Server listening on :: port 22.
    Nov 18 14:59:58 ssh-server-example.com systemd[1]: Started OpenSSH server daemon.
  2. SSH 클라이언트를 사용하여 SSH 서버에 연결합니다.

    # ssh user@ssh-server-example.com
    ECDSA key fingerprint is SHA256:dXbaS0RG/UzlTTku8GtXSz0S1++lPegSy31v3L/FAEc.
    Are you sure you want to continue connecting (yes/no/[fingerprint])? yes
    Warning: Permanently added 'ssh-server-example.com' (ECDSA) to the list of known hosts.
    
    user@ssh-server-example.com's password:

추가 리소스

  • sshd(8)sshd_config(5) 도움말 페이지.

34.3. 키 기반 인증을 위한 OpenSSH 서버 설정

시스템 보안을 강화하려면 OpenSSH 서버에서 암호 인증을 비활성화하여 키 기반 인증을 시행합니다.

사전 요구 사항

  • openssh-server 패키지가 설치되어 있습니다.
  • sshd 데몬이 서버에서 실행되고 있습니다.

절차

  1. 텍스트 편집기에서 /etc/ssh/sshd_config 구성을 엽니다. 예를 들면 다음과 같습니다.

    # vi /etc/ssh/sshd_config
  2. PasswordAuthentication 옵션을 no 로 변경합니다.

    PasswordAuthentication no

    새 기본 설치 이외의 시스템에서 PubkeyAuthentication no 가 설정되지 않았으며 ChallengeResponseAuthentication 지시문이 no 로 설정되어 있는지 확인합니다. 콘솔 또는 대역 외 액세스를 사용하지 않고 원격으로 연결하는 경우 암호 인증을 비활성화하기 전에 키 기반 로그인 프로세스를 테스트합니다.

  3. NFS로 마운트된 홈 디렉토리에서 키 기반 인증을 사용하려면 use_nfs_home_dirs SELinux 부울을 활성화합니다.

    # setsebool -P use_nfs_home_dirs 1
  4. sshd 데몬을 다시 로드하여 변경 사항을 적용합니다.

    # systemctl reload sshd

추가 리소스

  • sshd(8), sshd_config(5)setsebool(8) 도움말 페이지.

34.4. SSH 키 쌍 생성

이 절차를 사용하여 로컬 시스템에 SSH 키 쌍을 생성하고 생성된 공개 키를 OpenSSH 서버에 복사합니다. 서버가 적절하게 구성된 경우 암호를 제공하지 않고 OpenSSH 서버에 로그인할 수 있습니다.

중요

다음 단계를 root로 완료하면 root 만 키를 사용할 수 있습니다.

절차

  1. SSH 프로토콜의 버전 2에 대한 ECDSA 키 쌍을 생성하려면 다음을 수행합니다.

    $ ssh-keygen -t ecdsa
    Generating public/private ecdsa key pair.
    Enter file in which to save the key (/home/joesec/.ssh/id_ecdsa):
    Enter passphrase (empty for no passphrase):
    Enter same passphrase again:
    Your identification has been saved in /home/joesec/.ssh/id_ecdsa.
    Your public key has been saved in /home/joesec/.ssh/id_ecdsa.pub.
    The key fingerprint is:
    SHA256:Q/x+qms4j7PCQ0qFd09iZEFHA+SqwBKRNaU72oZfaCI joesec@localhost.example.com
    The key's randomart image is:
    +---[ECDSA 256]---+
    |.oo..o=++        |
    |.. o .oo .       |
    |. .. o. o        |
    |....o.+...       |
    |o.oo.o +S .      |
    |.=.+.   .o       |
    |E.*+.  .  . .    |
    |.=..+ +..  o     |
    |  .  oo*+o.      |
    +----[SHA256]-----+

    ssh-keygen -t ed25519 명령을 입력하여 ssh-keygen 명령 또는 Ed25519 키 쌍과 함께 -t rsa 옵션을 사용하여 RSA 키 쌍을 생성할 수도 있습니다.

  2. 공개 키를 원격 머신에 복사하려면 다음을 수행합니다.

    $ ssh-copy-id joesec@ssh-server-example.com
    /usr/bin/ssh-copy-id: INFO: attempting to log in with the new key(s), to filter out any that are already installed
    joesec@ssh-server-example.com's password:
    ...
    Number of key(s) added: 1
    
    Now try logging into the machine, with: "ssh 'joesec@ssh-server-example.com'" and check to make sure that only the key(s) you wanted were added.

    세션에서 ssh-agent 프로그램을 사용하지 않는 경우 이전 명령은 가장 최근에 수정된 ~/.ssh/id*.pub 공개 키를 아직 설치하지 않은 경우 복사합니다. 다른 공개 키 파일을 지정하거나 ssh-agent 로 메모리에 캐시된 키보다 파일의 키 우선 순위를 지정하려면 ssh-copy-id 명령을 -i 옵션과 함께 사용합니다.

참고

시스템을 다시 설치하고 이전에 생성된 키 쌍을 유지하려면 ~/.ssh/ 디렉터리를 백업합니다. 다시 설치한 후 홈 디렉터리로 복사합니다. root 를 포함하여 시스템의 모든 사용자에 대해 이 작업을 수행할 수 있습니다.

검증

  1. 암호를 제공하지 않고 OpenSSH 서버에 로그인합니다.

    $ ssh joesec@ssh-server-example.com
    Welcome message.
    ...
    Last login: Mon Nov 18 18:28:42 2019 from ::1

추가 리소스

  • ssh-keygen(1)ssh-copy-id(1) 도움말 페이지.

34.5. 스마트 카드에 저장된 SSH 키 사용

Red Hat Enterprise Linux를 사용하면 OpenSSH 클라이언트의 스마트 카드에 저장된 RSA 및 ECDSA 키를 사용할 수 있습니다. 다음 절차에 따라 암호 대신 스마트 카드로 인증을 활성화합니다.

사전 요구 사항

  • 클라이언트 측에서 opensc 패키지가 설치되고 pcscd 서비스가 실행 중입니다.

절차

  1. PKCS #11 URI를 포함하여 OpenSC PKCS #11 모듈에서 제공하는 모든 키를 나열하고 출력을 keys.pub 파일에 저장합니다.

    $ ssh-keygen -D pkcs11: > keys.pub
    $ ssh-keygen -D pkcs11:
    ssh-rsa AAAAB3NzaC1yc2E...KKZMzcQZzx pkcs11:id=%02;object=SIGN%20pubkey;token=SSH%20key;manufacturer=piv_II?module-path=/usr/lib64/pkcs11/opensc-pkcs11.so
    ecdsa-sha2-nistp256 AAA...J0hkYnnsM= pkcs11:id=%01;object=PIV%20AUTH%20pubkey;token=SSH%20key;manufacturer=piv_II?module-path=/usr/lib64/pkcs11/opensc-pkcs11.so
  2. 원격 서버(example.com)에서 스마트 카드를 사용하여 인증을 활성화하려면 공개 키를 원격 서버로 전송합니다. 이전 단계에서 만든 key .pub와 함께 ssh -copy-id 명령을 사용하십시오.

    $ ssh-copy-id -f -i keys.pub username@example.com
  3. 1단계에서 ssh-keygen -D 명령의 출력에서 ECDSA 키를 사용하여 example.com 에 연결하려면 다음과 같이 키를 고유하게 참조하는 URI의 하위 집합만 사용할 수 있습니다.

    $ ssh -i "pkcs11:id=%01?module-path=/usr/lib64/pkcs11/opensc-pkcs11.so" example.com
    Enter PIN for 'SSH key':
    [example.com] $
  4. ~/.ssh/config 파일에서 동일한 URI 문자열을 사용하여 구성을 영구적으로 만들 수 있습니다.

    $ cat ~/.ssh/config
    IdentityFile "pkcs11:id=%01?module-path=/usr/lib64/pkcs11/opensc-pkcs11.so"
    $ ssh example.com
    Enter PIN for 'SSH key':
    [example.com] $

    OpenSSH는 p11-kit-proxy 래퍼를 사용하고 OpenSC PKCS #11 모듈은 PKCS#11 Kit에 등록되므로 이전 명령을 간소화할 수 있습니다.

    $ ssh -i "pkcs11:id=%01" example.com
    Enter PIN for 'SSH key':
    [example.com] $

PKCS #11 URI의 id= 부분을 건너뛰면 OpenSSH는 proxy 모듈에서 사용할 수 있는 모든 키를 로드합니다. 이렇게 하면 필요한 입력 횟수가 줄어듭니다.

$ ssh -i pkcs11: example.com
Enter PIN for 'SSH key':
[example.com] $

추가 리소스

34.6. OpenSSH의 보안 강화

다음 팁은 OpenSSH를 사용할 때 보안을 강화하는 데 도움이 됩니다. /etc/ssh/sshd_config OpenSSH 구성 파일의 변경 사항을 적용하려면 sshd 데몬을 다시 로드해야 합니다.

# systemctl reload sshd
중요

대부분의 보안 강화 구성 변경으로 최신 알고리즘 또는 암호 제품군을 지원하지 않는 클라이언트와의 호환성이 줄어듭니다.

비보안 연결 프로토콜 비활성화

  • SSH를 효과적으로 사용하려면 OpenSSH 제품군으로 대체되는 안전하지 않은 연결 프로토콜을 사용하지 않도록 합니다. 그렇지 않으면 Telnet을 사용하여 로그인할 때 나중에 하나의 세션이 캡처되도록 SSH를 사용하여 사용자 암호를 보호할 수 있습니다. 이러한 이유로 telnet, rsh, rlogin 및 ftp와 같은 비보안 프로토콜을 비활성화하는 것이 좋습니다.

키 기반 인증 활성화 및 암호 기반 인증 비활성화

  • 인증에 대한 암호 비활성화 및 키 쌍만 허용하면 공격 면적이 줄어들고 사용자의 시간도 절약할 수 있습니다. 클라이언트에서 ssh-keygen 툴을 사용하여 키 쌍을 생성하고 ssh-copy-id 유틸리티를 사용하여 OpenSSH 서버의 클라이언트에서 공개 키를 복사합니다. OpenSSH 서버에서 암호 기반 인증을 비활성화하려면 /etc/ssh/sshd_config를 편집하고 PasswordAuthentication 옵션을 no로 변경합니다.

    PasswordAuthentication no

키 유형

  • ssh-keygen 명령은 기본적으로 RSA 키 쌍을 생성하지만 -t 옵션을 사용하여 ECDSA 또는 Ed25519 키를 생성하도록 지시할 수 있습니다. ECDSA(Elliptic Curve Digital Signature Algorithm)는 동등한 대칭 키 강점에서 RSA보다 더 나은 성능을 제공합니다. 짧은 키도 생성합니다. Ed25519 공개 키 알고리즘은 RSA, DSA 및 ECDSA보다 더 빠르고 안전하며 더 빠릅니다.

    OpenSSH는 RSA, ECDSA 및 Ed25519 서버 호스트 키가 누락된 경우 자동으로 생성합니다. RHEL에서 호스트 키 생성을 구성하려면 sshd-keygen@.service 인스턴스화 서비스를 사용합니다. 예를 들어, RSA 키 유형의 자동 생성을 비활성화하려면 다음을 실행합니다.

    # systemctl mask sshd-keygen@rsa.service
  • SSH 연결에 대한 특정 키 유형을 제외하려면 /etc/ssh/sshd_config 에서 관련 행을 주석 처리하고 sshd 서비스를 다시 로드합니다. 예를 들어 Ed25519 호스트 키만 허용하려면 다음을 수행합니다.

    # HostKey /etc/ssh/ssh_host_rsa_key
    # HostKey /etc/ssh/ssh_host_ecdsa_key
    HostKey /etc/ssh/ssh_host_ed25519_key

기본이 아닌 포트

  • 기본적으로 sshd 데몬은 TCP 포트 22에서 수신 대기합니다. 포트를 변경하면 자동화된 네트워크 스캔을 기반으로 하는 공격에 대한 시스템 노출이 줄어듭니다. 따라서 모호성을 통해 보안이 강화됩니다. /etc/ssh/sshd_config 구성 파일에서 Port 지시문을 사용하여 포트를 지정할 수 있습니다.

    또한 기본이 아닌 포트를 사용할 수 있도록 기본 SELinux 정책을 업데이트해야 합니다. 이렇게 하려면 policycoreutils-python-utils 패키지에서 semanage 툴을 사용합니다.

    # semanage port -a -t ssh_port_t -p tcp port_number

    또한 firewalld 구성을 업데이트합니다.

    # firewall-cmd --add-port port_number/tcp
    # firewall-cmd --runtime-to-permanent

    이전 명령에서 port_numberPort 지시문을 사용하여 지정된 새 포트 번호로 바꿉니다.

root 로그인 없음

  • 특정 사용 사례에서 root 사용자로 로그인할 가능성이 필요하지 않은 경우 PermitRootLogin configuration 지시문을 /etc/ssh/sshd_config 파일에서 no 로 설정하는 것이 좋습니다. root 사용자로 로그인할 가능성을 비활성화하여 관리자는 일반 사용자로 로그인한 후 권한이 있는 명령을 실행하는 사용자를 감사한 다음 root 권한을 얻을 수 있습니다.

    또는 prevent -password로 PermitRootLogin 을 설정합니다.

    PermitRootLogin prohibit-password

    이렇게 하면 root로 로그인하는 데 암호를 사용하는 대신 키 기반 인증을 사용하고 무차별 강제 공격을 방지하여 위험을 줄입니다.

X 보안 확장 사용

  • Red Hat Enterprise Linux 클라이언트의 X 서버는 X 보안 확장을 제공하지 않습니다. 따라서 클라이언트는 X11 전달을 사용하여 신뢰할 수 없는 SSH 서버에 연결할 때 다른 보안 계층을 요청할 수 없습니다. 대부분의 애플리케이션은 이 확장 기능을 사용하여 실행할 수 없습니다.

    기본적으로 /etc/ssh/ssh_config.d/05-redhat.conf 파일의 ForwardX11Trusted 옵션은 yes 로 설정되어 있으며 ssh -X remote_machine(신뢰할 수 없는 호스트)과 ssh -Y remote_machine (신뢰할 수 있는 호스트) 명령 사이에 차이가 없습니다.

    시나리오에 X11 전달 기능이 전혀 필요하지 않은 경우 /etc/ssh/sshd_config 구성 파일의 X11Forwarding 지시문을 no 로 설정합니다.

특정 사용자, 그룹 또는 도메인에 대한 액세스 제한

  • /etc/ssh/sshd_config 구성 파일 서버의 AllowUsers 및 AllowGroups 지시문을 사용하면 특정 사용자, 도메인 또는 그룹만 OpenSSH 서버에 연결할 수 있습니다. AllowUsers 및 Allow Groups 를 결합하여 보다 정확하게 액세스를 제한할 수 있습니다. 예를 들면 다음과 같습니다.

    AllowUsers *@192.168.1.*,*@10.0.0.*,!*@192.168.1.2
    AllowGroups example-group

    이전 구성 행은 192.168.1.2 주소가 있는 시스템을 제외하고 192.168.1.* 및 10.0.0.* 서브넷의 모든 사용자로부터의 연결을 허용합니다. 모든 사용자는 example-group 그룹에 있어야 합니다. OpenSSH 서버는 다른 모든 연결을 거부합니다.

    허용 목록(허용으로 시작하는 디렉터리)을 사용하는 것은 허용 목록(거부로 시작하는 옵션)을 사용하는 것보다 더 안전합니다. allowlists는 새로운 권한 없는 사용자 또는 그룹도 차단하기 때문입니다.

시스템 전체 암호화 정책 변경

  • OpenSSH는 RHEL 시스템 전체 암호화 정책을 사용하며 기본 시스템 전체 암호화 정책 수준은 현재 위협 모델에 대한 보안 설정을 제공합니다. 암호화 설정을 보다 엄격하게 수행하려면 현재 정책 수준을 변경합니다.

    # update-crypto-policies --set FUTURE
    Setting system policy to FUTURE
  • OpenSSH 서버에 대한 시스템 전체 암호화 정책을 옵트아웃하려면 /etc/sysconfig/sshd 파일에서 CRYPTO_POLICY= 변수로 행의 주석을 해제합니다. 이 변경 후 /etc/ssh/sshd_config 파일의 Ciphers, MACs, KexAlgoritms, GSSAPIKexAlgorithms 섹션에 지정하는 값은 재정의되지 않습니다. 이 작업에는 암호화 옵션 구성에 대한 전문 지식이 필요합니다.
  • 자세한 내용은 보안 강화 제목에서 시스템 전체 암호화 정책 사용을 참조하십시오.

추가 리소스

  • sshd_config(5), ssh-keygen(1), crypto-policies(7)update-crypto-policies(8) 도움말 페이지.

34.7. SSH 건너뛰기 호스트를 사용하여 원격 서버에 연결

jump host라고도 하는 중간 서버를 통해 로컬 시스템을 원격 서버에 연결하려면 다음 절차를 사용하십시오.

사전 요구 사항

  • 건너뛰기 호스트는 로컬 시스템의 SSH 연결을 허용합니다.
  • 원격 서버는 건너뛰기 호스트에서만 SSH 연결을 허용합니다.

절차

  1. 로컬 시스템에서 ~/.ssh/config 파일을 편집하여 건너뛰기를 정의합니다. 예를 들면 다음과 같습니다.

    Host jump-server1
      HostName jump1.example.com
    • Host 매개 변수는 ssh 명령에서 사용할 수 있는 호스트의 이름 또는 별칭을 정의합니다. 이 값은 실제 호스트 이름과 일치할 수 있지만 임의의 문자열일 수도 있습니다.
    • HostName 매개 변수는 건너뛰기 호스트의 실제 호스트 이름 또는 IP 주소를 설정합니다.
  2. ProxyJump 지시문을 사용하여 원격 서버 건너뛰기를 로컬 시스템의 ~/.ssh/config 파일에 추가합니다. 예를 들면 다음과 같습니다.

    Host remote-server
      HostName remote1.example.com
      ProxyJump jump-server1
  3. 로컬 시스템을 사용하여 이동 서버를 통해 원격 서버에 연결합니다.

    $ ssh remote-server

    이전 명령은 구성 단계 1과 2를 생략하면 ssh -J jump-server1 remote-server 명령과 동일합니다.

참고

더 많은 건너뛰기 서버를 지정할 수 있으며 전체 호스트 이름을 제공할 때 구성 파일에 호스트 정의 추가를 건너뛸 수도 있습니다. 예를 들면 다음과 같습니다.

$ ssh -J jump1.example.com,jump2.example.com,jump3.example.com remote1.example.com

건너뛰기 서버의 사용자 이름 또는 SSH 포트가 원격 서버의 이름과 포트와 다른 경우 이전 명령에서 호스트 이름 전용 표기법을 변경합니다. 예를 들면 다음과 같습니다.

$ ssh -J johndoe@jump1.example.com:75,johndoe@jump2.example.com:75,johndoe@jump3.example.com:75 joesec@remote1.example.com:220

추가 리소스

  • ssh_config(5)ssh(1) 도움말 페이지.

34.8. ssh-agent를 사용하여 SSH 키가 있는 원격 시스템에 연결

SSH 연결을 시작할 때마다 암호를 입력하지 않으려면 ssh-agent 유틸리티를 사용하여 개인 SSH 키를 캐시할 수 있습니다. 개인 키와 암호는 계속 안전합니다.

사전 요구 사항

  • 네트워크를 통해 SSH 데몬을 실행하고 연결할 수 있는 원격 호스트가 있습니다.
  • IP 주소 또는 호스트 이름 및 자격 증명을 통해 원격 호스트에 로그인합니다.
  • 암호를 사용하여 SSH 키 쌍을 생성하고 공개 키를 원격 시스템으로 전송했습니다.

자세한 내용은 SSH 키 쌍 생성 을 참조하십시오.

절차

  1. 선택 사항: 키를 사용하여 원격 호스트에 인증할 수 있는지 확인합니다.

    1. SSH를 사용하여 원격 호스트에 연결합니다.

      $ ssh example.user1@198.51.100.1 hostname
    2. 개인 키에 대한 액세스 권한을 부여할 키를 만드는 동안 설정한 암호를 입력합니다.

      $ ssh example.user1@198.51.100.1 hostname
       host.example.com
  2. ssh-agent 를 시작합니다.

    $ eval $(ssh-agent)
    Agent pid 20062
  3. ssh-agent 에 키를 추가합니다.

    $ ssh-add ~/.ssh/id_rsa
    Enter passphrase for ~/.ssh/id_rsa:
    Identity added: ~/.ssh/id_rsa (example.user0@198.51.100.12)

검증

  • 선택 사항: SSH를 사용하여 호스트 시스템에 로그인합니다.

    $ ssh example.user1@198.51.100.1
    
    Last login: Mon Sep 14 12:56:37 2020

    암호를 입력할 필요가 없습니다.

34.9. 추가 리소스

35장. 원격 로깅 솔루션 구성

환경에서 다양한 시스템의 로그가 로깅 서버에 중앙에 기록되도록 하기 위해 클라이언트 시스템에서 서버에 대한 특정 기준에 맞는 로그를 기록하도록 Rsyslog 애플리케이션을 구성할 수 있습니다.

35.1. Rsyslog 로깅 서비스

systemd-journald 서비스와 함께 Rsyslog 애플리케이션은 Red Hat Enterprise Linux에서 로컬 및 원격 로깅 지원을 제공합니다. rsyslogd 데몬은 journal에서 systemd-journald 서비스에서 수신한 syslog 메시지를 지속적으로 읽습니다. rsyslogd 는 이러한 syslog 이벤트를 필터링 및 처리하고 rsyslog 로그 파일에 기록하거나 구성에 따라 다른 서비스에 전달합니다.

rsyslogd 데몬은 또한 확장된 필터링, 메시지의 암호화 보호 릴레이, 입력 및 출력 모듈, TCP 및 UDP 프로토콜을 사용하여 운송을 지원합니다.

rsyslog의 기본 구성 파일인 /etc/rsyslog.conf 에서 메시지를 처리하는 rsyslog d 에 따라 규칙을 지정할 수 있습니다. 일반적으로 소스 및 주제(유효성) 및 긴급성(우선 순위)에 따라 메시지를 분류한 다음, 메시지가 이러한 기준에 맞는 경우 수행해야 하는 작업을 할당할 수 있습니다.

/etc/rsyslog.conf 에서 rsyslogd 가 유지 관리하는 로그 파일 목록을 볼 수도 있습니다. 대부분의 로그 파일은 /var/log/ 디렉토리에 있습니다. httpdsamba 와 같은 일부 애플리케이션은 /var/log/ 내의 하위 디렉터리에 로그 파일을 저장합니다.

추가 리소스

  • rsyslogd(8)rsyslog.conf(5) 도움말 페이지.
  • /usr/share/doc/rsyslog/html/index.html 파일의 rsyslog-doc 패키지와 함께 설치된 설명서입니다.

35.2. Rsyslog 문서 설치

Rsyslog 애플리케이션에는 https://www.rsyslog.com/doc/ 에서 제공되는 광범위한 온라인 문서가 있지만, rsyslog-doc 설명서 패키지를 로컬로 설치할 수도 있습니다.

사전 요구 사항

  • 시스템에서 AppStream 리포지토리를 활성화했습니다.
  • sudo 를 사용하여 새 패키지를 설치할 권한이 있습니다.

절차

  • rsyslog-doc 패키지를 설치합니다.

    # yum install rsyslog-doc

검증

  • 선택한 브라우저에서 /usr/share/doc/rsyslog/html/index.html 파일을 엽니다. 예를 들면 다음과 같습니다.

    $ firefox /usr/share/doc/rsyslog/html/index.html &

35.3. TCP를 통한 원격 로깅을 위한 서버 구성

Rsyslog 애플리케이션을 사용하면 로깅 서버를 실행하고 로그 파일을 로깅 서버로 보내도록 개별 시스템을 구성할 수 있습니다. TCP를 통해 원격 로깅을 사용하려면 서버와 클라이언트를 둘 다 구성합니다. 서버는 하나 이상의 클라이언트 시스템에서 전송한 로그를 수집하고 분석합니다.

Rsyslog 애플리케이션을 사용하면 로그 메시지가 네트워크를 통해 서버로 전달되는 중앙 집중식 로깅 시스템을 유지 관리할 수 있습니다. 서버를 사용할 수 없는 경우 메시지 손실을 방지하기 위해 전달 작업에 대한 작업 대기열을 구성할 수 있습니다. 이렇게 하면 전송에 실패한 메시지는 서버에 다시 연결할 때까지 로컬에 저장됩니다. 이러한 큐는 UDP 프로토콜을 사용하여 연결에 대해 구성할 수 없습니다.

omfwd 플러그인은 UDP 또는 TCP를 통해 전달을 제공합니다. 기본 프로토콜은 UDP입니다. 플러그인이 빌드되었으므로 로드할 필요가 없습니다.

기본적으로 rsyslog 는 포트 514 에서 TCP를 사용합니다.

사전 요구 사항

  • rsyslog가 서버 시스템에 설치되어 있습니다.
  • 서버에서 root 로 로그인했습니다.
  • semanage 명령을 사용하여 선택적 단계를 위해 policycoreutils-python-utils 패키지가 설치됩니다.
  • firewalld 서비스가 실행 중입니다.

절차

  1. 선택 사항: rsyslog 트래픽에 다른 포트를 사용하려면 syslogd_port_t SELinux 유형을 포트에 추가합니다. 예를 들어 포트 30514 를 활성화합니다.

    # semanage port -a -t syslogd_port_t -p tcp 30514
  2. 선택 사항: rsyslog 트래픽에 다른 포트를 사용하려면 해당 포트에서 들어오는 rsyslog 트래픽을 허용하도록 firewalld 를 구성합니다. 예를 들어 포트 30514 에서 TCP 트래픽을 허용합니다.

    # firewall-cmd --zone=<zone-name> --permanent --add-port=30514/tcp
    success
    # firewall-cmd --reload
  3. /etc/rsyslog.d/ 디렉토리(예: remotelog.conf )에 새 파일을 생성하고 다음 내용을 삽입합니다.

    # Define templates before the rules that use them
    # Per-Host templates for remote systems
    template(name="TmplAuthpriv" type="list") {
        constant(value="/var/log/remote/auth/")
        property(name="hostname")
        constant(value="/")
        property(name="programname" SecurePath="replace")
        constant(value=".log")
        }
    
    template(name="TmplMsg" type="list") {
        constant(value="/var/log/remote/msg/")
        property(name="hostname")
        constant(value="/")
        property(name="programname" SecurePath="replace")
        constant(value=".log")
        }
    
    # Provides TCP syslog reception
    module(load="imtcp")
    
    # Adding this ruleset to process remote messages
    ruleset(name="remote1"){
         authpriv.*   action(type="omfile" DynaFile="TmplAuthpriv")
          *.info;mail.none;authpriv.none;cron.none
    action(type="omfile" DynaFile="TmplMsg")
    }
    
    input(type="imtcp" port="30514" ruleset="remote1")
  4. /etc/rsyslog.d/remotelog.conf 파일에 변경 사항을 저장합니다.
  5. /etc/rsyslog.conf 파일의 구문을 테스트합니다.

    # rsyslogd -N 1
    rsyslogd: version 8.1911.0-2.el8, config validation run (level 1), master config /etc/rsyslog.conf
    rsyslogd: End of config validation run. Bye.
  6. 로깅 서버에서 rsyslog 서비스가 실행 중이고 활성화되어 있는지 확인합니다.

    # systemctl status rsyslog
  7. rsyslog 서비스를 다시 시작합니다.

    # systemctl restart rsyslog
  8. 선택 사항: rsyslog 가 활성화되지 않은 경우 재부팅 후 rsyslog 서비스가 자동으로 시작되는지 확인하십시오.

    # systemctl enable rsyslog

이제 로그 서버가 환경의 다른 시스템에서 로그 파일을 수신하고 저장하도록 구성되어 있습니다.

추가 리소스

  • rsyslogd(8), rsyslog.conf(5), semanage(8)firewall-cmd(1) 도움말 페이지.
  • /usr/share/doc/rsyslog/html/index.html 파일의 rsyslog-doc 패키지와 함께 설치된 설명서입니다.

35.4. TCP를 통해 서버에 원격 로깅 구성

다음 절차에 따라 TCP 프로토콜을 통해 로그 메시지를 서버로 전달하기 위한 시스템을 구성합니다. omfwd 플러그인은 UDP 또는 TCP를 통해 전달을 제공합니다. 기본 프로토콜은 UDP입니다. 플러그인이 빌드되었으므로 로드할 필요가 없습니다.

사전 요구 사항

  • rsyslog 패키지는 서버에 보고해야 하는 클라이언트 시스템에 설치됩니다.
  • 원격 로깅을 위해 서버를 구성했습니다.
  • 지정된 포트는 SELinux에서 허용되며 방화벽에서 열립니다.
  • 시스템에는 SELinux 구성에 비표준 포트를 추가하기 위한 semanage 명령을 제공하는 policycoreutils-python-utils 패키지가 포함되어 있습니다.

절차

  1. /etc/rsyslog.d/ 디렉토리에 라는 새 파일을 만듭니다(예: 10-remotelog.conf ).

    *.* action(type="omfwd"
          queue.type="linkedlist"
          queue.filename="example_fwd"
          action.resumeRetryCount="-1"
          queue.saveOnShutdown="on"
          target="example.com" port="30514" protocol="tcp"
         )

    다음과 같습니다.

    • queue.type="linkedlist" 는 LinkedList in-memory 큐를 활성화합니다.
    • queue.filename 은 디스크 스토리지를 정의합니다. 이전 글로벌 workDirectory 지시문으로 지정된 작업 디렉터리에 example_fwd 접두사를 사용하여 백업 파일이 생성됩니다.
    • action.resumeRetryCount -1 설정은 서버가 응답하지 않는 경우 연결을 재시도할 때 rsyslog 가 메시지를 삭제하지 않도록 합니다.
    • 활성화된 queue.saveOnShutdown="on" rsyslog 가 종료되면 메모리 내 데이터를 저장합니다.
    • 마지막 행은 수신된 모든 메시지를 로깅 서버로 전달하고 포트 사양은 선택 사항입니다.

      이 구성을 사용하면 rsyslog 에서 서버로 메시지를 전송하지만 원격 서버에 연결할 수 없는 경우 메시지를 메모리에 유지합니다. 디스크의 파일은 rsyslog 가 구성된 메모리 대기열 공간에서 부족하거나 시스템 성능을 향상시킬 수 있는 를 종료해야 하는 경우에만 생성됩니다.

    참고

    rsyslog는 사전 순서로 구성 파일 /etc/rsyslog.d/ 를 처리합니다.

  2. rsyslog 서비스를 다시 시작합니다.

    # systemctl restart rsyslog

검증

클라이언트 시스템이 서버에 메시지를 전송하는지 확인하려면 다음 단계를 따르십시오.

  1. 클라이언트 시스템에서 테스트 메시지를 전송합니다.

    # logger test
  2. 서버 시스템에서 /var/log/messages 로그를 확인합니다. 예를 들면 다음과 같습니다.

    # cat /var/log/remote/msg/hostname/root.log
    Feb 25 03:53:17 hostname root[6064]: test

    여기서 hostname 은 클라이언트 시스템의 호스트 이름입니다. 로그에는 로거 명령을 입력한 사용자의 사용자 이름이 포함됩니다(이 경우 root ).

추가 리소스

  • rsyslogd(8)rsyslog.conf(5) 도움말 페이지.
  • /usr/share/doc/rsyslog/html/index.html 파일의 rsyslog-doc 패키지와 함께 설치된 설명서입니다.

35.5. TLS 암호화 원격 로깅 구성

기본적으로 Rsyslog는 일반 텍스트 형식으로 원격 블로그 통신을 보냅니다. 시나리오에 이 통신 채널을 보호해야 하는 경우 TLS를 사용하여 암호화할 수 있습니다.

TLS를 통해 암호화된 전송을 사용하려면 서버와 클라이언트 모두를 구성합니다. 서버는 하나 이상의 클라이언트 시스템에서 전송한 로그를 수집하고 분석합니다.

ossl 네트워크 스트림 드라이버(OpenSSL) 또는 gtls 스트림 드라이버(GnuTLS)를 사용할 수 있습니다.

참고

더 높은 보안이 있는 별도의 시스템이 있는 경우(예: 네트워크에 연결되지 않거나 엄격한 권한이 있는 시스템)를 인증 기관(CA)으로 별도의 시스템을 사용하십시오.

사전 요구 사항

  • 클라이언트와 서버 시스템에 모두 root 액세스 권한이 있습니다.
  • rsyslogrsyslog-openssl 패키지가 서버 및 클라이언트 시스템에 설치됩니다.
  • gtls 네트워크 스트림 드라이버를 사용하는 경우 rsyslog-openssl 대신 rsyslog-gnutls 패키지를 설치합니다.
  • certtool 명령을 사용하여 인증서를 생성하는 경우 gnutls-utils 패키지를 설치합니다.
  • 로깅 서버에서 다음 인증서는 /etc/pki/ca-trust/source/anchors/ 디렉터리에 있으며 update-ca-trust 명령을 사용하여 시스템 구성을 업데이트합니다.

    • ca-cert.pem - 로깅 서버 및 클라이언트의 키와 인증서를 확인할 수 있는 CA 인증서입니다.
    • server-cert.pem - 로깅 서버의 공개 키입니다.
    • server-key.pem - 로깅 서버의 개인 키입니다.
  • 로깅 클라이언트에서 다음 인증서는 /etc/pki/ca-trust/source/anchors/ 디렉터리에 있으며, update-ca-trust 를 사용하여 시스템 설정을 업데이트합니다.

    • ca-cert.pem - 로깅 서버 및 클라이언트의 키와 인증서를 확인할 수 있는 CA 인증서입니다.
    • client-cert.pem - 클라이언트의 공개 키입니다.
    • client-key.pem - 클라이언트의 개인 키입니다.

절차

  1. 클라이언트 시스템에서 암호화된 로그를 수신하도록 서버를 구성합니다.

    1. /etc/journal.d/ 디렉토리에 라는 새 파일을 만듭니다(예: securelogser.conf ).
    2. 통신을 암호화하려면 구성 파일에 서버의 인증서 파일 경로, 선택한 인증 방법 및 TLS 암호화를 지원하는 스트림 드라이버가 포함되어야 합니다. /etc/octets.d/securelogser.conf 파일에 다음 행을 추가합니다.

      # Set certificate files
      global(
        DefaultNetstreamDriverCAFile="/etc/pki/ca-trust/source/anchors/ca-cert.pem"
        DefaultNetstreamDriverCertFile="/etc/pki/ca-trust/source/anchors/server-cert.pem"
        DefaultNetstreamDriverKeyFile="/etc/pki/ca-trust/source/anchors/server-key.pem"
      )
      
      # TCP listener
      module(
        load="imtcp"
        PermittedPeer=["client1.example.com", "client2.example.com"]
        StreamDriver.AuthMode="x509/name"
        StreamDriver.Mode="1"
        StreamDriver.Name="ossl"
      )
      
      # Start up listener at port 514
      input(
        type="imtcp"
        port="514"
      )
      참고

      GnuTLS 드라이버를 선호하는 경우 StreamDriver.Name="gtls" 구성 옵션을 사용합니다. x509/name 보다 엄격한 인증 모드에 대한 자세한 내용은 rsyslog-doc 패키지로 설치된 설명서를 참조하십시오.

    3. /etc/octets.d/securelogser.conf 파일에 변경 사항을 저장합니다.
    4. /etc/octets.conf 파일 구문 및 /etc/octets.d/ 디렉토리에 있는 모든 파일을 확인합니다.

      # rsyslogd -N 1
      rsyslogd: version 8.1911.0-2.el8, config validation run (level 1), master config /etc/rsyslog.conf
      rsyslogd: End of config validation run. Bye.
    5. 로깅 서버에서 rsyslog 서비스가 실행 중이고 활성화되어 있는지 확인합니다.

      # systemctl status rsyslog
    6. rsyslog 서비스를 다시 시작하십시오.

      # systemctl restart rsyslog
    7. 선택 사항: Rsyslog가 활성화되지 않은 경우 재부팅 후 rsyslog 서비스가 자동으로 시작됩니다.

      # systemctl enable rsyslog
  2. 암호화된 로그를 서버에 전송하도록 클라이언트를 구성합니다.

    1. 클라이언트 시스템에서 /etc/journal.d/ 디렉토리에 라는 새 파일을 만듭니다(예: securelogcli.conf ).
    2. /etc/octets.d/securelogcli.conf 파일에 다음 행을 추가합니다.

      # Set certificate files
      global(
        DefaultNetstreamDriverCAFile="/etc/pki/ca-trust/source/anchors/ca-cert.pem"
        DefaultNetstreamDriverCertFile="/etc/pki/ca-trust/source/anchors/client-cert.pem"
        DefaultNetstreamDriverKeyFile="/etc/pki/ca-trust/source/anchors/client-key.pem"
      )
      
      
      # Set up the action for all messages
      *.* action(
        type="omfwd"
        StreamDriver="ossl"
        StreamDriverMode="1"
        StreamDriverPermittedPeers="server.example.com"
        StreamDriverAuthMode="x509/name"
        target="server.example.com" port="514" protocol="tcp"
      )
      참고

      GnuTLS 드라이버를 선호하는 경우 StreamDriver.Name="gtls" 구성 옵션을 사용합니다.

    3. /etc/octets.d/securelogser.conf 파일에 변경 사항을 저장합니다.
    4. /etc/journal.d / 디렉토리에 있는 '/etc/journal.conf 파일 및 기타 파일의 구문을 확인합니다.

      # rsyslogd -N 1
      rsyslogd: version 8.1911.0-2.el8, config validation run (level 1), master config /etc/rsyslog.conf
      rsyslogd: End of config validation run. Bye.
    5. 로깅 서버에서 rsyslog 서비스가 실행 중이고 활성화되어 있는지 확인합니다.

      # systemctl status rsyslog
    6. rsyslog 서비스를 다시 시작하십시오.

      # systemctl restart rsyslog
    7. 선택 사항: Rsyslog가 활성화되지 않은 경우 재부팅 후 rsyslog 서비스가 자동으로 시작됩니다.

      # systemctl enable rsyslog

검증

클라이언트 시스템이 서버에 메시지를 전송하는지 확인하려면 다음 단계를 따르십시오.

  1. 클라이언트 시스템에서 테스트 메시지를 전송합니다.

    # logger test
  2. 서버 시스템에서 /var/log/messages 로그를 확인합니다. 예를 들면 다음과 같습니다.

    # cat /var/log/remote/msg/hostname/root.log
    Feb 25 03:53:17 hostname root[6064]: test

    여기서 hostname 은 클라이언트 시스템의 호스트 이름입니다. 로그에는 로거 명령을 입력한 사용자의 사용자 이름이 포함됩니다(이 경우 root ).

추가 리소스

  • certtool(1), openssl(1), update-ca-trust(8), rsyslogd(8), rsyslog.conf(5) 도움말 페이지.
  • /usr/share/doc/rsyslog/html/index.htmlrsyslog-doc 패키지와 함께 설치된 설명서입니다.
  • 로깅 시스템 역할 사용 문서.

35.6. UDP를 통해 원격 로깅 정보를 받기 위한 서버 설정

Rsyslog 애플리케이션을 사용하면 원격 시스템에서 로깅 정보를 수신하도록 시스템을 구성할 수 있습니다. UDP를 통해 원격 로깅을 사용하려면 서버와 클라이언트를 둘 다 구성합니다. 수신 서버는 하나 이상의 클라이언트 시스템에서 전송한 로그를 수집하고 분석합니다. 기본적으로 rsyslog 는 포트 514 에서 UDP를 사용하여 원격 시스템에서 로그 정보를 받습니다.

다음 절차에 따라 UDP 프로토콜을 통해 하나 이상의 클라이언트 시스템에서 전송한 로그를 수집하고 분석하기 위해 서버를 구성합니다.

사전 요구 사항

  • rsyslog가 서버 시스템에 설치되어 있습니다.
  • 서버에서 root 로 로그인했습니다.
  • semanage 명령을 사용하여 선택적 단계를 위해 policycoreutils-python-utils 패키지가 설치됩니다.
  • firewalld 서비스가 실행 중입니다.

절차

  1. 선택 사항: 기본 포트 514 가 아닌 rsyslog 트래픽에 다른 포트를 사용하려면 다음을 수행합니다.

    1. syslogd_port_t SELinux 유형을 SELinux 정책 구성에 추가하고 portnorsyslog 에서 사용할 포트 번호로 바꿉니다.

      # semanage port -a -t syslogd_port_t -p udp portno
    2. 들어오는 rsyslog 트래픽을 허용하고 portno 를 포트 번호 및 영역으로 교체하여 rsyslog 에서 사용할 영역으로 교체하도록 firewalld 를 구성합니다.

      # firewall-cmd --zone=zone --permanent --add-port=portno/udp
      success
      # firewall-cmd --reload
    3. 방화벽 규칙을 다시 로드합니다.

      # firewall-cmd --reload
  2. /etc/rsyslog .d/ 디렉토리(예: remotelogserv. conf )에 새.conf 파일을 생성하고 다음 내용을 삽입합니다.

    # Define templates before the rules that use them
    # Per-Host templates for remote systems
    template(name="TmplAuthpriv" type="list") {
        constant(value="/var/log/remote/auth/")
        property(name="hostname")
        constant(value="/")
        property(name="programname" SecurePath="replace")
        constant(value=".log")
        }
    
    template(name="TmplMsg" type="list") {
        constant(value="/var/log/remote/msg/")
        property(name="hostname")
        constant(value="/")
        property(name="programname" SecurePath="replace")
        constant(value=".log")
        }
    
    # Provides UDP syslog reception
    module(load="imudp")
    
    # This ruleset processes remote messages
    ruleset(name="remote1"){
         authpriv.*   action(type="omfile" DynaFile="TmplAuthpriv")
          *.info;mail.none;authpriv.none;cron.none
    action(type="omfile" DynaFile="TmplMsg")
    }
    
    input(type="imudp" port="514" ruleset="remote1")

    여기서 514 는 기본적으로 사용하는 포트 번호 rsyslog 입니다. 대신 다른 포트를 지정할 수 있습니다.

  3. /etc/rsyslog. d/ 디렉터리에 있는 /etc/rsyslog .conf 파일의 구문과 all. conf 파일을 확인합니다.

    # rsyslogd -N 1
    rsyslogd: version 8.1911.0-2.el8, config validation run (level 1), master config /etc/rsyslog.conf
    rsyslogd: End of config validation run. Bye.
  4. rsyslog 서비스를 다시 시작합니다.

    # systemctl restart rsyslog
  5. 선택 사항: rsyslog 가 활성화되지 않은 경우 재부팅 후 rsyslog 서비스가 자동으로 시작되는지 확인하십시오.

    # systemctl enable rsyslog

추가 리소스

  • rsyslogd(8) , rsyslog.conf(5), semanage(8)firewall-cmd(1) 도움말 페이지.
  • /usr/share/doc/rsyslog/html/index.html 파일의 rsyslog-doc 패키지와 함께 설치된 설명서입니다.

35.7. UDP를 통해 서버에 원격 로깅 구성

다음 절차에 따라 UDP 프로토콜을 통해 로그 메시지를 서버로 전달하기 위한 시스템을 구성합니다. omfwd 플러그인은 UDP 또는 TCP를 통해 전달을 제공합니다. 기본 프로토콜은 UDP입니다. 플러그인이 빌드되었으므로 로드할 필요가 없습니다.

사전 요구 사항

절차

  1. /etc/rsyslog.d/ 디렉토리에 새 .conf 파일을 만듭니다(예: 10-remotelogcli.conf ).

    *.* action(type="omfwd"
          queue.type="linkedlist"
          queue.filename="example_fwd"
          action.resumeRetryCount="-1"
          queue.saveOnShutdown="on"
          target="example.com" port="portno" protocol="udp"
         )

    다음과 같습니다.

    • queue.type="linkedlist" 를 사용하면 메모리 내 대기열에 LinkedList가 활성화됩니다.
    • queue.filename 은 디스크 스토리지를 정의합니다. 백업 파일은 이전 글로벌 workDirectory 지시문으로 지정된 작업 디렉터리에 example_fwd 접두사를 사용하여 생성됩니다.
    • action.resumeRetryCount -1 설정은 서버가 응답하지 않는 경우 연결을 재시도할 때 rsyslog 가 메시지를 삭제하지 않도록 합니다.
    • rsyslog 가 종료되면 queue.saveOnShutdown="on" 이 메모리 내 데이터를 저장합니다.
    • portnorsyslog 가 사용할 포트 번호입니다. 기본값은 514 입니다.
    • 마지막 행은 수신된 모든 메시지를 로깅 서버로 전달하고 포트 사양은 선택 사항입니다.

      이 구성을 사용하면 rsyslog 에서 서버로 메시지를 전송하지만 원격 서버에 연결할 수 없는 경우 메시지를 메모리에 유지합니다. 디스크의 파일은 rsyslog 가 구성된 메모리 대기열 공간에서 부족하거나 시스템 성능을 향상시킬 수 있는 를 종료해야 하는 경우에만 생성됩니다.

    참고

    rsyslog는 사전 순서로 구성 파일 /etc/rsyslog.d/ 를 처리합니다.

  2. rsyslog 서비스를 다시 시작합니다.

    # systemctl restart rsyslog
  3. 선택 사항: rsyslog 가 활성화되지 않은 경우 재부팅 후 rsyslog 서비스가 자동으로 시작되는지 확인하십시오.

    # systemctl enable rsyslog

검증

클라이언트 시스템이 서버에 메시지를 전송하는지 확인하려면 다음 단계를 따르십시오.

  1. 클라이언트 시스템에서 테스트 메시지를 전송합니다.

    # logger test
  2. 서버 시스템에서 /var/log/remote/msg/hostname/root.log 로그를 확인합니다. 예를 들면 다음과 같습니다.

    # cat /var/log/remote/msg/hostname/root.log
    Feb 25 03:53:17 hostname root[6064]: test

    여기서 hostname 은 클라이언트 시스템의 호스트 이름입니다. 로그에는 로거 명령을 입력한 사용자의 사용자 이름이 포함됩니다(이 경우 root ).

추가 리소스

  • rsyslogd(8)rsyslog.conf(5) 도움말 페이지.
  • /usr/share/doc/rsyslog/html/index.htmlrsyslog-doc 패키지와 함께 설치된 설명서입니다.

35.8. Rsyslog의 로드 밸런싱 도우미

RebindInterval 설정은 현재 연결이 끊어지고 다시 설정된 간격을 지정합니다. 이 설정은 TCP, UDP 및 RELP 트래픽에 적용됩니다. 로드 밸런서는 새 연결로 인식하여 메시지를 다른 물리적 대상 시스템으로 전달합니다.

RebindInterval 설정은 대상 시스템이 IP 주소를 변경한 시나리오에서 유용합니다. Rsyslog 애플리케이션은 연결이 설정될 때 IP 주소를 캐시하므로 메시지가 동일한 서버로 전송됩니다. IP 주소가 변경되면 Rsyslog 서비스가 다시 시작될 때까지 UDP 패킷이 손실됩니다. 연결을 다시 설정하면 DNS에서 IP를 다시 확인합니다.

action(type=”omfwd” protocol=”tcp” RebindInterval=”250” target=”example.com” port=”514” …)

action(type=”omfwd” protocol=”udp” RebindInterval=”250” target=”example.com” port=”514” …)

action(type=”omrelp” RebindInterval=”250” target=”example.com” port=”6514” …)

35.9. 신뢰할 수 있는 원격 로깅 구성

RELP(Reliable Event Logging Protocol)를 사용하면 메시지 손실 위험이 훨씬 감소하여 TCP를 통해 syslog 메시지를 보내고 받을 수 있습니다. RELP는 메시지 손실이 허용되지 않는 환경에서 유용하게 이벤트 메시지를 안정적으로 전송합니다. RELP를 사용하려면 서버에서 실행되고 로그를 수신하는 imrelp 입력 모듈을 구성하고 클라이언트에서 실행되고 로깅 서버에 로그를 전송하는 omrelp 출력 모듈을 구성합니다.

사전 요구 사항

  • 서버 및 클라이언트 시스템에 rsyslog,librelp 및 rsyslog-relp 패키지를 설치했습니다.
  • 지정된 포트는 SELinux에서 허용되며 방화벽에서 열립니다.

절차

  1. 안정적인 원격 로깅을 위해 클라이언트 시스템을 구성합니다.

    1. 클라이언트 시스템에서 /etc/journal.d/ 디렉토리에 새 . conf 파일을 만듭니다(예: relpclient.conf ).

      module(load="omrelp")
      *.* action(type="omrelp" target="_target_IP_" port="_target_port_")

      다음과 같습니다.

      • target_IP 는 로깅 서버의 IP 주소입니다.
      • target_port 는 로깅 서버의 포트입니다.
    2. /etc/octets.d/relpclient.conf 파일에 변경 사항을 저장합니다.
    3. rsyslog 서비스를 다시 시작합니다.

      # systemctl restart rsyslog
    4. 선택 사항: rsyslog 가 활성화되지 않은 경우 재부팅 후 rsyslog 서비스가 자동으로 시작되는지 확인하십시오.

      # systemctl enable rsyslog
  2. 안정적인 원격 로깅을 위해 서버 시스템을 구성합니다.

    1. 서버 시스템에서 /etc/rsyslog .d/ 디렉터리에 새. conf 파일을 생성합니다(예: relpserv.conf ).

      ruleset(name="relp"){
      *.* action(type="omfile" file="_log_path_")
      }
      
      
      module(load="imrelp")
      input(type="imrelp" port="_target_port_" ruleset="relp")

      다음과 같습니다.

      • log_path 는 메시지를 저장하는 경로를 지정합니다.
      • target_port 는 로깅 서버의 포트입니다. 클라이언트 구성 파일과 동일한 값을 사용합니다.
    2. /etc/rsyslog.d/relpserv.conf 파일에 변경 사항을 저장합니다.
    3. rsyslog 서비스를 다시 시작합니다.

      # systemctl restart rsyslog
    4. 선택 사항: rsyslog 가 활성화되지 않은 경우 재부팅 후 rsyslog 서비스가 자동으로 시작되는지 확인하십시오.

      # systemctl enable rsyslog

검증

클라이언트 시스템이 서버에 메시지를 전송하는지 확인하려면 다음 단계를 따르십시오.

  1. 클라이언트 시스템에서 테스트 메시지를 전송합니다.

    # logger test
  2. 서버 시스템에서 지정된 log_path 의 로그를 확인합니다. 예를 들면 다음과 같습니다.

    # cat /var/log/remote/msg/hostname/root.log
    Feb 25 03:53:17 hostname root[6064]: test

    여기서 hostname 은 클라이언트 시스템의 호스트 이름입니다. 로그에는 로거 명령을 입력한 사용자의 사용자 이름이 포함됩니다(이 경우 root ).

추가 리소스

  • rsyslogd(8)rsyslog.conf(5) 도움말 페이지.
  • /usr/share/doc/rsyslog/html/index.html 파일의 rsyslog-doc 패키지와 함께 설치된 설명서입니다.

35.10. 지원되는 Rsyslog 모듈

Rsyslog 애플리케이션의 기능을 확장하려면 특정 모듈을 사용할 수 있습니다. 모듈은 추가 입력(Input Modules), 출력(Output Modules) 및 기타 기능을 제공합니다. 모듈은 모듈을 로드한 후 사용할 수 있는 추가 구성 지시문도 제공할 수 있습니다.

다음 명령을 입력하여 시스템에 설치된 입력 및 출력 모듈을 나열할 수 있습니다.

# ls /usr/lib64/rsyslog/{i,o}m*

rsyslog -doc 패키지를 설치한 후 /usr/share/doc/rsyslog/html/configuration/modules/idx_output.html 파일에서 사용 가능한 모든 rsyslog 모듈 목록을 볼 수 있습니다.

35.11. 추가 리소스

36장. 로깅 시스템 역할 사용

시스템 관리자는 로깅 시스템 역할을 사용하여 RHEL 호스트를 로깅 서버로 구성하여 많은 클라이언트 시스템에서 로그를 수집할 수 있습니다.

36.1. 로깅 시스템 역할

로깅 시스템 역할을 사용하면 로컬 및 원격 호스트에 로깅 구성을 배포할 수 있습니다.

하나 이상의 시스템에 로깅 시스템 역할을 적용하려면 플레이북에서 로깅 구성을 정의합니다. 플레이북은 하나 이상의 플레이 목록입니다. 플레이북은 사람이 읽을 수 있으며 YAML 형식으로 작성됩니다. 플레이북에 대한 자세한 내용은 Ansible 설명서의 플레이북 작업을 참조하십시오.

플레이북에 따라 구성하려는 시스템 집합은 인벤토리 파일에 정의되어 있습니다. 인벤토리 생성 및 사용에 대한 자세한 내용은 Ansible 설명서에서 인벤토리를 빌드하는 방법을 참조하십시오.

로깅 솔루션은 여러 가지 방법으로 로그를 읽고 다양한 로깅 출력을 제공합니다.

예를 들어 로깅 시스템은 다음 입력을 수신할 수 있습니다.

  • 로컬 파일
  • systemd/journal,
  • 네트워크를 통한 다른 로깅 시스템.

또한 로깅 시스템에는 다음과 같은 출력이 있을 수 있습니다.

  • /var/log 디렉토리의 로컬 파일에 저장된 로그
  • Elasticsearch로 전송된 로그
  • 로그는 다른 로깅 시스템으로 전달됩니다.

로깅 시스템 역할을 사용하면 입력과 출력을 결합하여 시나리오에 맞게 조정할 수 있습니다. 예를 들어 로컬 파일에 저널 의 입력을 저장하는 로깅 솔루션을 구성할 수 있지만 파일에서 읽은 입력은 다른 로깅 시스템으로 전달되고 로컬 로그 파일에 저장됩니다.

36.2. 시스템 역할 매개변수 로깅

로깅 시스템 역할 플레이북에서 logging _inputs 매개변수의 입력, logging_ outputs 매개변수의 출력 및 logging_flows 매개변수의 입력과 출력 간의 관계를 정의합니다. 로깅 시스템 역할은 추가 옵션으로 이러한 변수를 처리하여 로깅 시스템을 구성합니다. 암호화를 활성화할 수도 있습니다.

참고

현재 로깅 시스템 역할에서 사용 가능한 유일한 로깅 시스템은 Rsyslog 입니다.

  • logging_inputs: 로깅 솔루션의 입력 목록입니다.

    • name: 고유한 입력 이름입니다. logging_flows: 입력 목록 및 생성된 구성 파일 이름의 일부에 사용됩니다.
    • type: 입력 요소의 유형입니다. 유형은 roles/rsyslog/{tasks,vars}/inputs/ 의 디렉터리 이름에 해당하는 작업 유형을 지정합니다.

      • 기본 사항: systemd 저널 또는 unix 소켓에서 입력을 구성하는 입력.

        • kernel_message: true 로 설정된 경우 imklog 를 로드합니다. 기본값은 false입니다.
        • use_imuxsock: imjournal 대신 imuxsock 을 사용합니다. 기본값은 false입니다.
        • ratelimit_burst: ratelimit_interval 내에 내보낼 수 있는 최대 메시지 수입니다. use_imuxsock 이 false인 경우 기본값은 20000 입니다. use_imuxsock 이 true인 경우 기본값은 200 입니다.
        • ratelimit_interval: ratelimit_burst 를 평가하는 간격입니다. use_imuxsock 이 false인 경우 기본값은 600초입니다. use_imuxsock 이 true인 경우 기본값은 0입니다. 0은 속도 제한이 꺼져 있음을 나타냅니다.
        • persist_state_interval: 저널 상태는 모든 메시지를 유지합니다. 기본값으로 10 입니다. use_imuxsock 이 false인 경우에만 유효합니다.
      • 파일: 로컬 파일에서 입력 구성 입력.
      • remote: 네트워크를 통해 다른 로깅 시스템의 입력 구성 입력.
    • state: 구성 파일 상태. present 또는 absent. 기본적으로 존재합니다.
  • logging_outputs: 로깅 솔루션의 출력 목록입니다.

    • 파일: 로컬 파일에 대한 출력을 구성하는 출력입니다.
    • 전달: 출력을 다른 로깅 시스템으로 구성하는 출력입니다.
    • remote_files: 는 다른 로깅 시스템의 출력 구성을 로컬 파일로 출력합니다.
  • logging_flows: logging _inputs 및 logging_outputs 간의 관계를 정의하는 흐름 목록입니다. logging_flows 변수에는 다음 키가 있습니다.

    • name: 흐름의 고유 이름
    • 입력: logging_inputs 이름 값 목록
    • 출력: logging_outputs 이름 값 목록입니다.

추가 리소스

  • /usr/share/ansible/ roles/rhel-system-roles.logging/README.html의 rhel -system-roles패키지로 설치된 문서

36.3. 로컬 로깅 시스템 역할 적용

다음 단계에 따라 별도의 시스템 세트에서 로깅 솔루션을 구성하는 Ansible 플레이북을 준비 및 적용합니다. 각 시스템은 로그를 로컬로 기록합니다.

사전 요구 사항

  • 로깅 시스템 역할로 구성하려는 시스템인 하나 이상의 관리형 노드에 대한 액세스 및 권한.
  • Red Hat Ansible Core가 기타 시스템을 구성하는 시스템인 제어 노드 액세스 및 사용 권한.

    제어 노드에서 다음을 수행합니다.

    • ansible-corerhel-system-roles 패키지가 설치됩니다.
중요

RHEL 8.0-8.5는 Ansible 기반 자동화를 위해 Ansible Engine 2.9가 포함된 별도의 Ansible 리포지토리에 대한 액세스를 제공했습니다. Ansible Engine에는 ansible , ansible -playbook, dockerpodman 과 같은 커넥터, 여러 플러그인 및 모듈과 같은 명령줄 유틸리티가 포함되어 있습니다. Ansible Engine을 확보하고 설치하는 방법에 대한 자세한 내용은 Red Hat Ansible Engine 지식베이스를 다운로드하고 설치하는 방법 문서를 참조하십시오.

RHEL 8.6 및 9.0에서는 Ansible 명령줄 유틸리티, 명령 및 소규모의 기본 제공 Ansible 플러그인 세트가 포함된 Ansible Core( ansible-core 패키지로 제공)를 도입했습니다. RHEL은 AppStream 리포지토리를 통해 이 패키지를 제공하며 제한된 지원 범위를 제공합니다. 자세한 내용은 RHEL 9 및 RHEL 8.6 이상 AppStream 리포지토리 지식 베이스에 포함된 Ansible Core 패키지에 대한 지원 범위를 참조하십시오.

  • 관리 노드를 나열하는 인벤토리 파일.
참고

배포 시스템 역할이 rsyslog를 설치하므로 rsyslog 패키지를 설치할 필요가 없습니다.

절차

  1. 필요한 역할을 정의하는 플레이북을 생성합니다.

    1. 새 YAML 파일을 생성하고 텍스트 편집기에서 엽니다. 예를 들면 다음과 같습니다.

      # vi logging-playbook.yml
    2. 다음 내용을 삽입합니다.

      ---
      - name: Deploying basics input and implicit files output
        hosts: all
        roles:
          - rhel-system-roles.logging
        vars:
          logging_inputs:
            - name: system_input
              type: basics
          logging_outputs:
            - name: files_output
              type: files
          logging_flows:
            - name: flow1
              inputs: [system_input]
              outputs: [files_output]
  2. 특정 인벤토리에서 플레이북을 실행합니다.

    # ansible-playbook -i inventory-file /path/to/file/logging-playbook.yml

    다음과 같습니다.

    • inventory-file 은 인벤토리 파일입니다.
    • logging-playbook.yml 은 사용하는 플레이북입니다.

검증

  1. /etc/rsyslog.conf 파일의 구문을 테스트합니다.

    # rsyslogd -N 1
    rsyslogd: version 8.1911.0-6.el8, config validation run (level 1), master config /etc/rsyslog.conf
    rsyslogd: End of config validation run. Bye.
  2. 시스템이 로그에 메시지를 전송하는지 확인합니다.

    1. 테스트 메시지를 전송합니다.

      # logger test
    2. /var/log/messages 로그를 확인합니다. 예를 들면 다음과 같습니다.

      # cat /var/log/messages
      Aug  5 13:48:31 hostname root[6778]: test

      여기서 'hostname' 은 클라이언트 시스템의 호스트 이름입니다. 로그에는 로거 명령을 입력한 사용자의 사용자 이름이 포함됩니다(이 경우 root ).

36.4. 로컬 로깅 시스템 역할의 로그 필터링

rsyslog 속성 기반 필터를 기반으로 로그를 필터링하는 로깅 솔루션을 배포할 수 있습니다.

사전 요구 사항

  • 로깅 시스템 역할로 구성하려는 시스템인 하나 이상의 관리형 노드에 대한 액세스 및 권한.
  • Red Hat Ansible Core가 기타 시스템을 구성하는 시스템인 제어 노드 액세스 및 사용 권한.

    제어 노드에서 다음을 수행합니다.

    • Red Hat Ansible Core 설치
    • rhel-system-roles 패키지가 설치되어 있습니다.
    • 관리 노드를 나열하는 인벤토리 파일.
참고

시스템 역할은 배포 시 rsyslog 를 설치하기 때문에 rsyslog 패키지를 설치할 필요가 없습니다.

절차

  1. 다음 내용으로 새 playbook.yml 파일을 생성합니다.

    ---
    - name: Deploying files input and configured files output
      hosts: all
      roles:
        - linux-system-roles.logging
      vars:
        logging_inputs:
          - name: files_input
            type: basics
        logging_outputs:
          - name: files_output0
            type: files
            property: msg
            property_op: contains
            property_value: error
            path: /var/log/errors.log
          - name: files_output1
            type: files
            property: msg
            property_op: "!contains"
            property_value: error
            path: /var/log/others.log
        logging_flows:
          - name: flow0
            inputs: [files_input]
            outputs: [files_output0, files_output1]

    이 구성을 사용하면 오류 문자열이 포함된 모든 메시지가 /var/log/errors.log 에 기록되고 기타 모든 메시지는 /var/log/others.log 에 기록됩니다.

    error 속성 값을 필터링할 문자열로 바꿀 수 있습니다.

    환경 설정에 따라 변수를 수정할 수 있습니다.

  2. 선택 사항: 플레이북 구문을 확인합니다.

    # ansible-playbook --syntax-check playbook.yml
  3. 인벤토리 파일에서 플레이북을 실행합니다.

    # ansible-playbook -i inventory_file /path/to/file/playbook.yml

검증

  1. /etc/rsyslog.conf 파일의 구문을 테스트합니다.

    # rsyslogd -N 1
    rsyslogd: version 8.1911.0-6.el8, config validation run (level 1), master config /etc/rsyslog.conf
    rsyslogd: End of config validation run. Bye.
  2. 시스템에서 오류 문자열이 포함된 메시지를 로그에 전송하는지 확인합니다.

    1. 테스트 메시지를 전송합니다.

      # logger error
    2. /var/log/errors.log 로그를 확인합니다. 예를 들면 다음과 같습니다.

      # cat /var/log/errors.log
      Aug  5 13:48:31 hostname root[6778]: error

      여기서 hostname 은 클라이언트 시스템의 호스트 이름입니다. 로그에는 로거 명령을 입력한 사용자의 사용자 이름이 포함됩니다(이 경우 root ).

추가 리소스

  • /usr/share/ansible/ roles/rhel-system-roles.logging/README.html의 rhel -system-roles패키지로 설치된 문서

36.5. 로깅 시스템 역할을 사용하여 원격 로깅 솔루션 적용

다음 단계에 따라 Red Hat Ansible Core 플레이북을 준비 및 적용하여 원격 로깅 솔루션을 구성합니다. 이 플레이북에서 하나 이상의 클라이언트는 systemd-journal 에서 로그를 가져와 원격 서버로 전달합니다. 서버는 remote _rsyslog 및 remote_ files 에서 원격 입력을 수신하고 원격 호스트 이름으로 이름이 지정된 디렉터리의 로컬 파일에 로그를 출력합니다.

사전 요구 사항

  • 로깅 시스템 역할로 구성하려는 시스템인 하나 이상의 관리형 노드에 대한 액세스 및 권한.
  • Red Hat Ansible Core가 기타 시스템을 구성하는 시스템인 제어 노드 액세스 및 사용 권한.

    제어 노드에서 다음을 수행합니다.

    • ansible-corerhel-system-roles 패키지가 설치됩니다.
    • 관리 노드를 나열하는 인벤토리 파일.
참고

시스템 역할은 배포 시 rsyslog 를 설치하기 때문에 rsyslog 패키지를 설치할 필요가 없습니다.

절차

  1. 필요한 역할을 정의하는 플레이북을 생성합니다.

    1. 새 YAML 파일을 생성하고 텍스트 편집기에서 엽니다. 예를 들면 다음과 같습니다.

      # vi logging-playbook.yml
    2. 파일에 다음 내용을 삽입합니다.

      ---
      - name: Deploying remote input and remote_files output
        hosts: server
        roles:
          - rhel-system-roles.logging
        vars:
          logging_inputs:
            - name: remote_udp_input
              type: remote
              udp_ports: [ 601 ]
            - name: remote_tcp_input
              type: remote
              tcp_ports: [ 601 ]
          logging_outputs:
            - name: remote_files_output
              type: remote_files
          logging_flows:
            - name: flow_0
              inputs: [remote_udp_input, remote_tcp_input]
              outputs: [remote_files_output]
      
      - name: Deploying basics input and forwards output
        hosts: clients
        roles:
          - rhel-system-roles.logging
        vars:
          logging_inputs:
            - name: basic_input
              type: basics
          logging_outputs:
            - name: forward_output0
              type: forwards
              severity: info
              target: _host1.example.com_
              udp_port: 601
            - name: forward_output1
              type: forwards
              facility: mail
              target: _host1.example.com_
              tcp_port: 601
          logging_flows:
            - name: flows0
              inputs: [basic_input]
              outputs: [forward_output0, forward_output1]
      
      [basic_input]
      [forward_output0, forward_output1]

      여기서 host1.example.com 은 로깅 서버입니다.

      참고

      요구 사항에 맞게 플레이북의 매개 변수를 수정할 수 있습니다.

      주의

      로깅 솔루션은 서버 또는 클라이언트 시스템의 SELinux 정책에 정의된 포트에서만 작동하며 방화벽에서 열립니다. 기본 SELinux 정책에는 포트 601, 514, 6514, 10514, 20514가 포함됩니다. 다른 포트를 사용하려면 클라이언트 및 서버 시스템에서 SELinux 정책을 수정합니다. 시스템 역할을 통한 방화벽 구성은 아직 지원되지 않습니다.

  2. 서버와 클라이언트를 나열하는 인벤토리 파일을 생성합니다.

    1. 새 파일을 생성하고 텍스트 편집기에서 엽니다. 예를 들면 다음과 같습니다.

      # vi inventory.ini
    2. 인벤토리 파일에 다음 내용을 삽입합니다.

      [servers]
      server ansible_host=host1.example.com
      [clients]
      client ansible_host=host2.example.com

      다음과 같습니다.

      • host1.example.com 은 로깅 서버입니다.
      • host2.example.com 은 로깅 클라이언트입니다.
  3. 인벤토리에서 플레이북을 실행합니다.

    # ansible-playbook -i /path/to/file/inventory.ini /path/to/file/_logging-playbook.yml

    다음과 같습니다.

    • inventory.ini 는 인벤토리 파일입니다.
    • logging-playbook.yml 은 생성한 플레이북입니다.

검증

  1. 클라이언트 및 서버 시스템 모두에서 /etc/rsyslog.conf 파일의 구문을 테스트합니다.

    # rsyslogd -N 1
    rsyslogd: version 8.1911.0-6.el8, config validation run (level 1), master config /etc/rsyslog.conf
    rsyslogd: End of config validation run. Bye.
  2. 클라이언트 시스템이 서버에 메시지를 전송하는지 확인합니다.

    1. 클라이언트 시스템에서 테스트 메시지를 전송합니다.

      # logger test
    2. 서버 시스템에서 /var/log/messages 로그를 확인합니다. 예를 들면 다음과 같습니다.

      # cat /var/log/messages
      Aug  5 13:48:31 host2.example.com root[6778]: test

      여기서 host2.example.com 은 클라이언트 시스템의 호스트 이름입니다. 로그에는 로거 명령을 입력한 사용자의 사용자 이름이 포함됩니다(이 경우 root ).

추가 리소스

36.6. TLS에서 로깅 시스템 역할 사용

TLS(Transport Layer Security)는 컴퓨터 네트워크를 통해 안전하게 통신하도록 설계된 암호화 프로토콜입니다.

관리자는 로깅 RHEL 시스템 역할을 사용하여 Red Hat Ansible Automation Platform을 사용하여 로그의 보안 전송을 구성할 수 있습니다.

36.6.1. TLS를 사용하여 클라이언트 로깅 구성

로깅 시스템 역할을 사용하여 로컬 시스템에 로그인한 RHEL 시스템에 로깅을 구성할 수 있으며 Ansible 플레이북을 실행하여 TLS를 사용하여 원격 로깅 시스템으로 로그를 전송할 수 있습니다.

이 절차에서는 Ansible 인벤토리의 clients 그룹에 있는 모든 호스트에서 TLS를 구성합니다. TLS 프로토콜은 네트워크를 통해 로그를 안전하게 전송할 수 있도록 메시지 전송을 암호화합니다.

사전 요구 사항

  • TLS를 구성할 관리 노드에서 플레이북을 실행할 권한이 있습니다.
  • 관리 노드는 제어 노드의 인벤토리 파일에 나열됩니다.
  • ansiblerhel-system-roles 패키지는 제어 노드에 설치됩니다.

절차

  1. 다음 내용으로 playbook.yml 파일을 생성합니다.

    ---
    - name: Deploying files input and forwards output with certs
      hosts: clients
      roles:
        - rhel-system-roles.logging
      vars:
        logging_pki_files:
          - ca_cert_src: /local/path/to/ca_cert.pem
            cert_src: /local/path/to/cert.pem
            private_key_src: /local/path/to/key.pem
        logging_inputs:
          - name: input_name
            type: files
            input_log_path: /var/log/containers/*.log
        logging_outputs:
          - name: output_name
            type: forwards
            target: your_target_host
            tcp_port: 514
            tls: true
            pki_authmode: x509/name
            permitted_server: 'server.example.com'
        logging_flows:
          - name: flow_name
            inputs: [input_name]
            outputs: [output_name]

    Playbook은 다음 매개 변수를 사용합니다.

    logging_pki_files
    이 매개변수를 사용하여 TLS를 구성할 수 있으며 ca_cert_src,cert_srcprivate_key_src 매개변수를 전달해야 합니다.
    ca_cert
    CA 인증서 경로를 나타냅니다. 기본 경로는 /etc/pki/tls/certs/ca.pem 이며 파일 이름은 사용자가 설정합니다.
    인증서
    인증서 경로를 나타냅니다. 기본 경로는 /etc/pki/tls/certs/server-cert.pem 이며 파일 이름은 사용자가 설정합니다.
    private_key
    개인 키의 경로를 나타냅니다. 기본 경로는 /etc/pki/tls/private/server-key.pem 이며 파일 이름은 사용자가 설정합니다.
    ca_cert_src
    대상 호스트에 복사되는 로컬 CA 인증서 파일 경로를 나타냅니다. ca_cert 를 지정하면 위치에 복사됩니다.
    cert_src
    대상 호스트에 복사되는 로컬 인증서 파일 경로를 나타냅니다. 인증서가 지정되면 위치에 복사됩니다.
    private_key_src
    대상 호스트에 복사되는 로컬 키 파일 경로를 나타냅니다. private_key 가 지정되면 위치에 복사됩니다.
    tls
    이 매개 변수를 사용하면 네트워크를 통해 로그를 안전하게 전송할 수 있습니다. 보안 래퍼를 사용하지 않으려면 tls: true 를 설정할 수 있습니다.
  2. 플레이북 구문을 확인합니다.

    # ansible-playbook --syntax-check playbook.yml
  3. 인벤토리 파일에서 플레이북을 실행합니다.

    # ansible-playbook -i inventory_file playbook.yml

36.6.2. TLS를 사용하여 서버 로깅 구성

로깅 시스템 역할을 사용하여 RHEL 시스템의 로그인을 서버로 구성할 수 있으며 Ansible Playbook을 실행하여 TLS로 원격 로깅 시스템에서 로그를 수신할 수 있습니다.

이 절차에서는 Ansible 인벤토리의 서버 그룹에 있는 모든 호스트에서 TLS를 구성합니다.

사전 요구 사항

  • TLS를 구성할 관리 노드에서 플레이북을 실행할 권한이 있습니다.
  • 관리 노드는 제어 노드의 인벤토리 파일에 나열됩니다.
  • ansiblerhel-system-roles 패키지는 제어 노드에 설치됩니다.

절차

  1. 다음 내용으로 playbook.yml 파일을 생성합니다.

    ---
    - name: Deploying remote input and remote_files output with certs
      hosts: server
      roles:
        - rhel-system-roles.logging
      vars:
        logging_pki_files:
          - ca_cert_src: /local/path/to/ca_cert.pem
            cert_src: /local/path/to/cert.pem
            private_key_src: /local/path/to/key.pem
        logging_inputs:
          - name: input_name
            type: remote
            tcp_ports: 514
            tls: true
            permitted_clients: ['clients.example.com']
        logging_outputs:
          - name: output_name
            type: remote_files
            remote_log_path: /var/log/remote/%FROMHOST%/%PROGRAMNAME:::secpath-replace%.log
            async_writing: true
            client_count: 20
            io_buffer_size: 8192
        logging_flows:
          - name: flow_name
            inputs: [input_name]
            outputs: [output_name]

    Playbook은 다음 매개 변수를 사용합니다.

    logging_pki_files
    이 매개변수를 사용하여 TLS를 구성할 수 있으며 ca_cert_src,cert_srcprivate_key_src 매개변수를 전달해야 합니다.
    ca_cert
    CA 인증서 경로를 나타냅니다. 기본 경로는 /etc/pki/tls/certs/ca.pem 이며 파일 이름은 사용자가 설정합니다.
    인증서
    인증서 경로를 나타냅니다. 기본 경로는 /etc/pki/tls/certs/server-cert.pem 이며 파일 이름은 사용자가 설정합니다.
    private_key
    개인 키의 경로를 나타냅니다. 기본 경로는 /etc/pki/tls/private/server-key.pem 이며 파일 이름은 사용자가 설정합니다.
    ca_cert_src
    대상 호스트에 복사되는 로컬 CA 인증서 파일 경로를 나타냅니다. ca_cert 를 지정하면 위치에 복사됩니다.
    cert_src
    대상 호스트에 복사되는 로컬 인증서 파일 경로를 나타냅니다. 인증서가 지정되면 위치에 복사됩니다.
    private_key_src
    대상 호스트에 복사되는 로컬 키 파일 경로를 나타냅니다. private_key 가 지정되면 위치에 복사됩니다.
    tls
    이 매개 변수를 사용하면 네트워크를 통해 로그를 안전하게 전송할 수 있습니다. 보안 래퍼를 사용하지 않으려면 tls: true 를 설정할 수 있습니다.
  2. 플레이북 구문을 확인합니다.

    # ansible-playbook --syntax-check playbook.yml
  3. 인벤토리 파일에서 플레이북을 실행합니다.

    # ansible-playbook -i inventory_file playbook.yml

36.7. RELP에서 로깅 시스템 역할 사용

RELP(Reliable Event Logging Protocol)는 TCP 네트워크를 통한 데이터 및 메시지 로깅을 위한 네트워킹 프로토콜입니다. 이 솔루션은 이벤트 메시지를 안정적으로 전송하며 메시지 손실을 허용하지 않는 환경에서 사용할 수 있습니다.

RELP 발신자는 로그 항목을 명령 형태로 전송하고 수신자는 처리되면 이를 승인합니다. 일관성을 보장하기 위해 RELP는 모든 종류의 메시지 복구를 위해 전송된 각 명령에 트랜잭션 번호를 저장합니다.

RELP Client와 RELP 서버 간에 원격 로깅 시스템을 고려할 수 있습니다. RELP Client는 로그를 원격 로깅 시스템으로 전송하고 RELP 서버는 원격 로깅 시스템에서 보낸 모든 로그를 수신합니다.

관리자는 로깅 시스템 역할을 사용하여 로그 항목을 안정적으로 전송하고 수신하도록 로깅 시스템을 구성할 수 있습니다.

36.7.1. RELP로 클라이언트 로깅 구성

로깅 시스템 역할을 사용하여 로컬 시스템에 로그인한 RHEL 시스템에 로깅을 구성하고 Ansible 플레이북을 실행하여 RELP를 사용하여 원격 로깅 시스템으로 로그를 전송할 수 있습니다.

이 절차에서는 Ansible 인벤토리의 clients 그룹에 있는 모든 호스트에서 RELP를 구성합니다. RELP 구성은 TLS(전송 계층 보안)를 사용하여 네트워크를 통해 로그를 안전하게 전송할 수 있도록 메시지 전송을 암호화합니다.

사전 요구 사항

  • RELP를 구성할 관리 노드에서 플레이북을 실행할 권한이 있습니다.
  • 관리 노드는 제어 노드의 인벤토리 파일에 나열됩니다.
  • ansiblerhel-system-roles 패키지는 제어 노드에 설치됩니다.

절차

  1. 다음 내용으로 playbook.yml 파일을 생성합니다.

    ---
    - name: Deploying basic input and relp output
      hosts: clients
      roles:
        - rhel-system-roles.logging
      vars:
        logging_inputs:
          - name: basic_input
            type: basics
        logging_outputs:
          - name: relp_client
            type: relp
            target: _logging.server.com_
            port: 20514
            tls: true
            ca_cert: _/etc/pki/tls/certs/ca.pem_
            cert: _/etc/pki/tls/certs/client-cert.pem_
            private_key: _/etc/pki/tls/private/client-key.pem_
            pki_authmode: name
            permitted_servers:
              - '*.server.example.com'
        logging_flows:
          - name: _example_flow_
            inputs: [basic_input]
            outputs: [relp_client]

    Playbook은 다음 설정을 사용합니다.

    • 대상: 이는 원격 로깅 시스템이 실행 중인 호스트 이름을 지정하는 필수 매개 변수입니다.
    • 포트: 원격 로깅 시스템이 수신 대기 중인 포트 번호입니다.
    • tls: 네트워크를 통한 로그를 안전하게 전송합니다. 보안 래퍼를 사용하지 않으려면 tls 변수를 false 로 설정할 수 있습니다. 기본적으로 tls 매개변수는 RELP로 작업하는 동안 true로 설정되며 키/인증서 및 가입 항목 {ca_cert,cert,private_key } 및/또는 {ca_cert_src,cert_src,private_key_src }가 필요합니다.

      • {ca_cert_src,cert_src,private_key_src} Triplet가 설정된 경우 기본 위치 /etc/pki/tls/certs/etc/pki/tls/private 을 관리 노드의 대상으로 사용하여 제어 노드에서 파일을 전송합니다. 이 경우 파일 이름은 Triplet에서 원래 이름과 동일합니다.
      • {ca_cert,cert,private_key} Triplet가 설정된 경우 로깅 구성 전에 파일이 기본 경로에 있어야 합니다.
      • 트리플릿이 모두 설정되면 파일은 제어 노드에서 관리 노드의 특정 경로로 전송됩니다.
    • ca_cert: CA 인증서 경로를 나타냅니다. 기본 경로는 /etc/pki/tls/certs/ca.pem 이며 파일 이름은 사용자가 설정합니다.
    • 인증서: 인증서 경로를 나타냅니다. 기본 경로는 /etc/pki/tls/certs/server-cert.pem 이며 파일 이름은 사용자가 설정합니다.
    • private_key: 개인 키의 경로를 나타냅니다. 기본 경로는 /etc/pki/tls/private/server-key.pem 이며 파일 이름은 사용자가 설정합니다.
    • ca_cert_src: 대상 호스트에 복사되는 로컬 CA 인증서 파일 경로를 나타냅니다. ca_cert를 지정하면 위치에 복사됩니다.
    • cert_src: 대상 호스트에 복사되는 로컬 인증서 파일 경로를 나타냅니다. 인증서가 지정되면 위치에 복사됩니다.
    • private_key_src: 대상 호스트에 복사되는 로컬 키 파일 경로를 나타냅니다. private_key가 지정되면 위치에 복사됩니다.
    • pki_authmode: 은 인증 모드를 이름 또는 지문 으로 허용합니다.
    • permitted_servers: 로깅 클라이언트에서 TLS를 통해 연결하고 로그를 전송하도록 허용하는 서버 목록입니다.
    • 입력: 로깅 입력 사전 목록.
    • 출력: 로깅 출력 사전 목록.
  2. 선택 사항: 플레이북 구문을 확인합니다.

    # ansible-playbook --syntax-check playbook.yml
  3. 플레이북을 실행합니다.

    # ansible-playbook -i inventory_file playbook.yml

36.7.2. RELP로 서버 로깅 구성

로깅 시스템 역할을 사용하여 RHEL 시스템의 로그인을 서버로 구성하고 Ansible Playbook을 실행하여 RELP로 원격 로깅 시스템에서 로그를 수신할 수 있습니다.

이 절차에서는 Ansible 인벤토리의 서버 그룹에 있는 모든 호스트에서 RELP를 구성합니다. RELP 구성은 TLS를 사용하여 네트워크를 통해 로그를 안전하게 전송할 수 있도록 메시지 전송을 암호화합니다.

사전 요구 사항

  • RELP를 구성할 관리 노드에서 플레이북을 실행할 권한이 있습니다.
  • 관리 노드는 제어 노드의 인벤토리 파일에 나열됩니다.
  • ansiblerhel-system-roles 패키지는 제어 노드에 설치됩니다.

절차

  1. 다음 내용으로 playbook.yml 파일을 생성합니다.

    ---
    - name: Deploying remote input and remote_files output
      hosts: server
      roles:
        - rhel-system-roles.logging
      vars:
        logging_inputs:
          - name: relp_server
            type: relp
            port: 20514
            tls: true
            ca_cert: _/etc/pki/tls/certs/ca.pem_
            cert: _/etc/pki/tls/certs/server-cert.pem_
            private_key: _/etc/pki/tls/private/server-key.pem_
            pki_authmode: name
            permitted_clients:
              - '_*example.client.com_'
        logging_outputs:
          - name: _remote_files_output_
            type: _remote_files_
        logging_flows:
          - name: _example_flow_
            inputs: _relp_server_
            outputs: _remote_files_output_

    Playbook은 다음 설정을 사용합니다.

    • 포트: 원격 로깅 시스템이 수신 대기 중인 포트 번호입니다.
    • tls: 네트워크를 통한 로그를 안전하게 전송합니다. 보안 래퍼를 사용하지 않으려면 tls 변수를 false 로 설정할 수 있습니다. 기본적으로 tls 매개변수는 RELP로 작업하는 동안 true로 설정되며 키/인증서 및 가입 항목 {ca_cert,cert,private_key } 및/또는 {ca_cert_src,cert_src,private_key_src }가 필요합니다.

      • {ca_cert_src,cert_src,private_key_src} Triplet가 설정된 경우 기본 위치 /etc/pki/tls/certs/etc/pki/tls/private 을 관리 노드의 대상으로 사용하여 제어 노드에서 파일을 전송합니다. 이 경우 파일 이름은 Triplet에서 원래 이름과 동일합니다.
      • {ca_cert,cert,private_key} Triplet가 설정된 경우 로깅 구성 전에 파일이 기본 경로에 있어야 합니다.
      • 트리플릿이 모두 설정되면 파일은 제어 노드에서 관리 노드의 특정 경로로 전송됩니다.
    • ca_cert: CA 인증서 경로를 나타냅니다. 기본 경로는 /etc/pki/tls/certs/ca.pem 이며 파일 이름은 사용자가 설정합니다.
    • 인증서: 인증서 경로를 나타냅니다. 기본 경로는 /etc/pki/tls/certs/server-cert.pem 이며 파일 이름은 사용자가 설정합니다.
    • private_key: 개인 키의 경로를 나타냅니다. 기본 경로는 /etc/pki/tls/private/server-key.pem 이며 파일 이름은 사용자가 설정합니다.
    • ca_cert_src: 대상 호스트에 복사되는 로컬 CA 인증서 파일 경로를 나타냅니다. ca_cert를 지정하면 위치에 복사됩니다.
    • cert_src: 대상 호스트에 복사되는 로컬 인증서 파일 경로를 나타냅니다. 인증서가 지정되면 위치에 복사됩니다.
    • private_key_src: 대상 호스트에 복사되는 로컬 키 파일 경로를 나타냅니다. private_key가 지정되면 위치에 복사됩니다.
    • pki_authmode: 은 인증 모드를 이름 또는 지문 으로 허용합니다.
    • permitted_clients: 로깅 서버가 TLS를 통해 연결하고 로그를 전송하도록 허용하는 클라이언트 목록입니다.
    • 입력: 로깅 입력 사전 목록.
    • 출력: 로깅 출력 사전 목록.
  2. 선택 사항: 플레이북 구문을 확인합니다.

    # ansible-playbook --syntax-check playbook.yml
  3. 플레이북을 실행합니다.

    # ansible-playbook -i inventory_file playbook.yml

36.8. 추가 리소스

37장. Python 소개

Python은 개체 지향, 명령적, 기능적, 절차적 패러다임과 같은 여러 프로그래밍 패러다임을 지원하는 고급 프로그래밍 언어입니다. Python에는 동적 의미 체계가 있으며 범용 프로그래밍에 사용할 수 있습니다.

Red Hat Enterprise Linux를 사용하면 시스템 툴, 데이터 분석 툴 또는 웹 애플리케이션을 제공하는 패키지와 같이 시스템에 설치된 많은 패키지가 Python으로 작성됩니다. 이러한 패키지를 사용하려면 python* 패키지가 설치되어 있어야 합니다.

37.1. Python 버전

호환되지 않는 Python 버전은 널리 사용되는 Python 2.x 및 Python 3.x입니다. RHEL 8에서는 다음 버전의 Python을 제공합니다.

표 37.1. RHEL 8의 Python 버전

버전설치할 패키지명령 예이후 사용 가능라이프 사이클

Python 3.6

python3

python3, pip3

RHEL 8.0

전체 RHEL 8

Python 2.7

python2

python2, pip2

RHEL 8.0

짧음

Python 3.8

python38

python3.8, pip3.8

RHEL 8.2

짧음

Python 3.9

python39

python3.9, pip3.9

RHEL 8.4

짧음

지원 기간에 대한 자세한 내용은 Red Hat Enterprise Linux 라이프 사이클Red Hat Enterprise Linux 8 Application Streams 라이프 사이클을 참조하십시오.

각 Python 버전은 별도의 모듈로 배포되며 설계에 따라 여러 모듈을 동일한 시스템에 병렬로 설치할 수 있습니다.

python38python39 모듈에는 python36 모듈에 제공된 시스템 도구(RPM, DNF, SELinux 등)에 대한 동일한 바인딩이 포함되지 않습니다. 따라서 기본 운영 체제 또는 바이너리 호환성과 가장 큰 호환성이 필요한 인스턴스에서 python36 을 사용하십시오. 시스템 바인딩이 최신 버전의 다양한 Python 모듈과 함께 필요한 고유한 경우 pip 를 통해 Python의 venv 또는 virtualenv 환경으로 설치된 타사 업스트림 Python 모듈과 함께 python36 모듈을 사용합니다.

중요

Python 버전을 설치하거나, 호출하거나, 다른 방식으로 상호 작용할 때 항상 Python 버전을 지정합니다. 예를 들어 패키지 및 명령 이름에 python 대신 python 3 을 사용합니다. 모든 Python 관련 명령에는 버전(예: pip3, pip 2, pip 3.8 또는 pip 3.9 )도 포함되어야 합니다.

버전이 없는 python 명령(/usr/bin/python)은 RHEL 8에서 기본적으로 사용할 수 없습니다. alternatives 명령을 사용하여 구성할 수 있습니다. 지침은 버전이 없는 Python 구성을 참조하십시오. alternatives 명령을 사용하여 변경한 사항을 제외하고 /usr/bin/python 을 수동으로 변경하면 업데이트 시 덮어쓸 수 있습니다.

시스템 관리자는 다음과 같은 이유로 Python 3을 사용합니다.

  • Python 3은 Python 프로젝트의 주요 개발 방향을 나타냅니다.
  • 업스트림 커뮤니티의 Python 2 지원은 2020년에 종료되었습니다.
  • 인기 있는 Python 라이브러리는 업스트림에서 Python 2 지원을 중단하고 있습니다.
  • Red Hat Enterprise Linux 8의 Python 2는 라이프사이클이 짧고 고객을 위해 Python 3 으로 원활하게 전환하는 것을 목표로 합니다.

개발자의 경우 Python 3은 Python 2에 비해 다음과 같은 이점이 있습니다.

  • Python 3를 사용하면 표현, 유지 관리 및 올바른 코드를 보다 쉽게 작성할 수 있습니다.
  • Python 3으로 작성된 코드는 더 길게 됩니다.
  • Python 3에는 asyncio, f-strings, 고급 압축 풀기, 키워드 전용 인수, 연결된 예외 등의 새로운 기능이 있습니다.

그러나 레거시 소프트웨어를 사용하려면 /usr/bin/python 을 Python 2로 구성해야 할 수 있습니다. 이러한 이유로 기본 python 패키지는 Red Hat Enterprise Linux 8과 함께 배포 되지 않으며 버전이 없는 Python 구성에 설명된 대로 Python 2와 3을 /usr/bin/python 으로 사용할 수 있습니다.

중요

Red Hat Enterprise Linux 8의 시스템 툴은 내부 platform-python 패키지에서 제공하는 Python 버전 3.6을 사용합니다. Red Hat은 고객에게 python36 패키지를 사용할 것을 권장합니다.

38장. Python 설치 및 사용

Red Hat Enterprise Linux 8에서 Python 3은 AppStream 리포지토리의 python36, python38 및 python 39 모듈에서 제공하는 버전 3.6, 3.8 및 3.9에 배포됩니다.

주의

버전이 없는 python 명령을 사용하여 Python을 설치하거나 실행하는 작업은 모호성으로 인해 기본적으로 작동하지 않습니다. 항상 Python 버전을 지정하거나 alternatives 명령을 사용하여 시스템 기본 버전을 구성합니다.

38.1. Python 3 설치

원래 python27, python36, python38 및 python 39 모듈을 포함하여 RHEL 8 모듈을 병렬로 설치할 수 있습니다. 단일 모듈 내의 여러 스트림에는 병렬 설치가 지원되지 않습니다.

mod_wsgi 모듈을 제외하고 동일한 시스템에서 Python 3.6과 병렬로 빌드된 패키지를 포함하여 Python 3.8 및 Python 3.9를 설치할 수 있습니다. Apache HTTP 서버의 제한으로 인해 python3-mod_wsgi, python38-mod_wsgi 또는 python 39-mod_wsgi 패키지 중 하나만 시스템에 설치할 수 있습니다.

절차

  • python36 모듈에서 Python 3.6을 설치하려면 다음을 사용합니다.

    # yum install python3

    python36:3.6 모듈 스트림은 자동으로 활성화됩니다.

  • python38 모듈에서 Python 3.8을 설치하려면 다음을 사용합니다.

    # yum install python38

    python38:3.8 모듈 스트림은 자동으로 활성화됩니다.

  • python39 모듈에서 Python 3.9를 설치하려면 다음을 사용합니다.

    # yum install python39

    python39:3.9 모듈 스트림은 자동으로 활성화됩니다.

검증 단계

  • 시스템에 설치된 Python 버전을 확인하려면 필수 Python 버전에 고유한 python 명령과 함께 --version 옵션을 사용합니다.

    • Python 3.6의 경우:

      $ python3 --version
    • Python 3.8의 경우:

      $ python3.8 --version
    • Python 3.9의 경우:

      $ python3.9 --version

38.2. 추가 Python 3 패키지 설치

Python 3.6용 애드온 모듈이 있는 패키지는 일반적으로 python3- 접두사를 사용하며, Python 3.8용 패키지에는 python38- 접두사가 포함되고, Python 3.9용 패키지에는 python39- 접두사가 포함되어 있습니다. 아래 예제와 같이 추가 Python 패키지를 설치할 때 접두사를 항상 포함합니다.

절차

  • Python 3.6용 Requests 모듈을 설치하려면 다음을 사용합니다.

    # yum install python3-requests
  • Cython 확장을 Python 3.8로 설치하려면 다음을 사용합니다.

    # yum install python38-Cython
  • Python 3.9에서 pip 패키지 설치 프로그램을 설치하려면 다음을 사용합니다.

    # yum install python39-pip

38.3. 개발자를 위한 추가 Python 3 툴 설치

개발자를 위한 추가 Python 툴은 해당 python3x-devel 모듈의 CodeReady Linux Builder 리포지토리를 통해 배포됩니다.

python38-devel 모듈에는 python38-pytest 패키지와 해당 종속 항목, 즉 pyparsing,atomicwrites,attrs,packaging,py,more-itertools,pluggywcwidth 패키지가 포함되어 있습니다.

python39-devel 모듈에는 python39-pytest 패키지와 그 종속성이 포함되어 있습니다. 즉, pyparsing,attrs,packaging,py, py ertools,pluggy,wcwidth,iniconfig, pybind11 패키지가 있습니다. python39-devel 모듈에는 python39-debug 및 python39- Cython 패키지도 포함되어 있습니다.

중요

CodeReady Linux Builder 리포지토리와 해당 콘텐츠는 Red Hat에서 지원되지 않습니다.

python39-devel 모듈에서 패키지를 설치하려면 다음 절차를 사용합니다.

절차

  1. CodeReady Linux Builder 리포지토리를 활성화합니다.

    # subscription-manager repos --enable codeready-builder-for-rhel-8-x86_64-rpms
  2. python39-devel 모듈을 활성화합니다.

    # yum module enable python39-devel
  3. python39-pytest 패키지를 설치합니다.

    # yum install python39-pytest

python38-devel 모듈의 패키지를 설치하려면 위의 명령에서 python39-python38-로 교체합니다.

38.4. Python 2 설치

일부 애플리케이션 및 스크립트는 아직 Python 3으로 완전히 포팅되지 않았으며 Python 2를 실행해야 합니다. Red Hat Enterprise Linux 8은 Python 3 및 Python 2의 병렬 설치를 허용합니다. Python 2 기능이 필요한 경우 AppStream 리포지토리에서 사용할 수 있는 python27 모듈을 설치합니다.

주의

Python 3은 Python 프로젝트의 주요 개발 방향입니다. Python 2에 대한 지원은 단계적으로 폐지되고 있습니다. python27 모듈은 Red Hat Enterprise Linux 8보다 지원 기간이 짧습니다.

절차

  • python27 모듈에서 Python 2.7을 설치하려면 다음을 사용합니다.

    # yum install python2

    python27:2.7 모듈 스트림이 자동으로 활성화됩니다.

Python 2용 애드온 모듈이 있는 패키지는 일반적으로 python2- 접두사를 사용합니다. 아래 예제와 같이 추가 Python 패키지를 설치할 때 접두사를 항상 포함합니다.

  • Python 2용 Requests 모듈을 설치하려면 다음을 사용합니다.

    # yum install python2-requests
  • Cython 확장을 Python 2로 설치하려면 다음을 사용합니다.

    # yum install python2-Cython

검증 단계

  • 시스템에 설치된 Python 버전을 확인하려면 다음을 사용합니다.

    $ python2 --version
참고

원래 python27, python36, python38 및 python 39 모듈을 포함하여 RHEL 8 모듈을 병렬로 설치할 수 있습니다.

38.5. Python 2에서 Python 3으로 마이그레이션

개발자는 Python 2로 작성된 이전 코드를 Python 3으로 마이그레이션할 수 있습니다.

대규모 코드 베이스를 Python 3으로 마이그레이션하는 방법에 대한 자세한 내용은 Conservative Python 3 Porting Guide를 참조하십시오.

이 마이그레이션 후 원래 Python 2 코드는 Python 3 인터프리터에서 해석할 수 있게 되며 Python 2 인터프리터에서도 해석할 수 있습니다.

38.6. Python 사용

Python 인터프리터 또는 Python 관련 명령을 실행하는 경우 항상 버전을 지정합니다.

사전 요구 사항

  • 필요한 Python 버전이 설치되어 있는지 확인합니다.

절차

  • Python 3.6 인터프리터 또는 관련 명령을 실행하려면 다음을 사용합니다.

    $ python3
    $ python3 -m cython --help
    $ pip3 install package
  • Python 3.8 인터프리터 또는 관련 명령을 실행하려면 다음을 사용합니다.

    $ python3.8
    $ python3.8 -m cython --help
    $ pip3.8 install package
  • Python 3.9 인터프리터 또는 관련 명령을 실행하려면 다음을 사용합니다.

    $ python3.9
    $ python3.9 -m pip --help
    $ pip3.9 install package
  • Python 2 인터프리터 또는 관련 명령을 실행하려면 다음을 사용합니다.

    $ python2
    $ python2 -m cython --help
    $ pip2 install package

39장. 버전이 없는 Python 구성

시스템 관리자는 alternatives 명령을 사용하여 /usr/bin/python 에 있는 버전이 없는 python 명령을 구성할 수 있습니다. 버전되지 않은 명령을 해당 버전으로 구성하기 전에 필수 패키지, python3, python38, python39 또는 python2 를 설치해야 합니다.

중요

/usr/bin/python 실행 파일은 alternatives 시스템에 의해 제어됩니다. 업데이트 시 수동 변경 사항을 덮어쓸 수 있습니다.

추가 Python 관련 명령(예: pip3)에는 구성 가능한 버전이 없는 변형이 없습니다.

39.1. 버전이 지정되지 않은 python 명령 직접 구성

선택한 버전의 Python으로 직접 버전이 지정되지 않은 python 명령을 구성할 수 있습니다.

사전 요구 사항

  • 필요한 Python 버전이 설치되어 있는지 확인합니다.

절차

  • 버전이 없는 python 명령을 Python 3.6으로 구성하려면 다음을 사용합니다.

    # alternatives --set python /usr/bin/python3
  • 버전이 없는 python 명령을 Python 3.8로 구성하려면 다음을 사용합니다.

    # alternatives --set python /usr/bin/python3.8
  • 버전이 없는 python 명령을 Python 3.9로 구성하려면 다음을 사용합니다.

    # alternatives --set python /usr/bin/python3.9
  • 버전이 없는 python 명령을 Python 2로 구성하려면 다음을 사용합니다.

    # alternatives --set python /usr/bin/python2

39.2. 필수 Python 버전으로 대화형으로 버전이 없는 python 명령 구성

필수 Python 버전에 대화식으로 버전이 없는 python 명령을 구성할 수 있습니다.

사전 요구 사항

  • 필요한 Python 버전이 설치되어 있는지 확인합니다.

절차

  1. 버전이 없는 python 명령을 대화형으로 구성하려면 다음을 사용합니다.

    # alternatives --config python
  2. 제공된 목록에서 필요한 버전을 선택합니다.
  3. 이 구성을 재설정하고 버전이 없는 python 명령을 제거하려면 다음을 사용합니다.

    # alternatives --auto python

39.3. 추가 리소스

  • alternatives(8)unversioned-python(1) 도움말 페이지

40장. Python 3 RPM 패키지

대부분의 Python 프로젝트에서는 패키징에 Setuptools를 사용하고 setup.py 파일에서 패키지 정보를 정의합니다. Setuptools 패키징에 대한 자세한 내용은 Setuptools 설명서 를 참조하십시오.

Setuptools 패키징과 비교하여 다음과 같은 이점을 제공하는 RPM 패키지로 Python 프로젝트를 패키징할 수도 있습니다.

  • 다른 RPM에 패키지의 종속성 사양 (Python이 아닌 경우)
  • 암호화 서명

    암호화 서명을 사용하면 RPM 패키지의 콘텐츠를 나머지 운영 체제와 함께 검증, 통합 및 테스트할 수 있습니다.

40.1. Python 패키지에 대한 SPEC 파일 설명

SPEC 파일에는 rpmbuild 유틸리티가 RPM을 빌드하는 데 사용하는 지침이 포함되어 있습니다. 지침은 일련의 섹션에 포함되어 있습니다. SPEC 파일에는 섹션이 정의된 두 가지 주요 부분이 있습니다.

  • preamble (본문에서 사용되는 일련의 메타데이터 항목이 포함되어 있음)
  • 본문 (명령의 주요 부분이 포함되어 있음)

Python 프로젝트용 RPM SPEC 파일은 Python이 아닌 RPM SPEC 파일과 비교하여 몇 가지 세부 사항이 있습니다. 무엇보다도 Python 라이브러리의 RPM 패키지에는 버전을 결정하는 접두사가 항상 포함되어야 합니다(예: Python 3.6의 경우 python3, Python 3.8의 경우 python38, Python 3.9의 경우 python 39).

기타 세부 사항은 python3-detox 패키지에 대한 다음 SPEC 파일 예제에 표시되어 있습니다. 이러한 세부 사항에 대한 설명은 아래 예제를 참조하십시오.

%gl