Menu Close
Settings Close

Language and Page Formatting Options

検出の使用

Red Hat Subscription Management 2022

検出の理解

概要


パート I. 検出について

製品検出ツールは、特定の Red Hat ソフトウェアの使用に関するデータをユーザーが収集できるように設計されています。検出を使用すると、Red Hat 製品の使用状況を計算して報告するのに必要な時間と作業量を減らすことができます。

詳細情報

検出の目的、利点、および特長の詳細は、以下の情報を参照してください。

検出が可能な製品および製品バージョンの詳細は、以下の情報を参照してください。

検出が正しいソリューションであるかどうかを評価するには、以下の情報を参照してください。

第1章 検出とは

検出とも呼ばれる製品検出ツールは、検査およびレポートツールです。これは、ネットワーク上の物理システムと仮想システムの数、そのシステムのオペレーティングシステム、その他の設定データなどの環境データまたは事実を検出、識別、および報告するように設計されています。さらに、ネットワーク内の IT リソースの主要な Red Hat パッケージおよび製品の一部のバージョンについて、より詳細な事実を見つけ、特定し、報告するように設計されています。

ネットワーク上で実行中のソフトウェアおよびシステムを検査する機能は、エンタイトルメントの使用状況を把握して報告する機能を強化します。最終的に、この検査およびレポートプロセスは、インベントリーを管理する大規模なシステム管理タスクの一部となります。

プロダクト検出ツールでは、IT リソースにアクセスし、検査プロセスを実行するために、2 つの基本的な構造を設定する必要があります。認証情報 は、特定のソースまたはそのソースの一部のアセットで検査プロセスを実行するための十分な権限を持つユーザーのユーザー名とパスワードまたは SSH キーなどのユーザーアクセスデータが含まれています。ソース には、検証される単一のアセットまたは複数のアセットに関するデータが含まれます。これらのアセットは、ホスト名、IP アドレス、IP 範囲、またはサブネットとして識別される物理マシン、仮想マシン、またはコンテナーです。これらのアセットは、vCenter Server や Red Hat Satellite Server などのシステム管理ソリューションです。

複数の認証情報およびソースを保存し、検査プロセスまたは スキャン の実行時にさまざまな組み合わせで検出と使用することができます。スキャンが完了したら、フォーマットされたデータ、または report のコレクションとして出力にあるこれらのファクトにアクセスし、結果を確認することができます。

デフォルトでは、検出の使用中に作成された認証情報およびソースはデータベースで暗号化されます。値は AES-256 暗号化で暗号化されます。検出サーバーは、Vault パスワードを使用してスキャンを実行してデータベースに保存されている暗号化された値にアクセスする際に復号化されます。

製品検出ツールはエージェントレス検査ツールであるため、検査されるすべてのソースにツールをインストールする必要はありません。ただし、検出がインストールされているシステムは、検出および検証されるシステムにアクセスできる必要があります。

第2章 検出対象となる製品

製品検出ツールは、以下の Red Hat 製品を見つけます。各バージョンまたはリリースについて、最も古いバージョンが一覧表示され、後続のリリースは該当と示されています。

製品の名前が最近変更されており、その製品の現在の名前をよく理解している場合は、その名前が追加情報として提供されます。また、製品の特定のバージョンも記載されない限り、新しいバージョンの製品名が含まれることはありません。

Red Hat Enterprise Linux

  • Red Hat Enterprise Linux バージョン 5 以降
  • Red Hat Enterprise Linux バージョン 6 以降
  • Red Hat Enterprise Linux バージョン 7 以降
  • Red Hat Enterprise Linux バージョン 8 以降

Red Hat ミドルウェア製品

  • Red Hat JBoss BRMS バージョン 5.0.1 以降のバージョン 6.0.0 以降 (現在の製品名は Red Hat Decision Manager)
  • JBoss Enterprise Web Server バージョン 1 以降、バージョン 2.0 以降、バージョン 2.1.0 以降、Red Hat JBoss Web Server 3.0.1 以降、バージョン 3.1 以降、バージョン 5.0.0
  • Red Hat JBoss Enterprise Application Platform バージョン 4.2 以降、バージョン 4.3 以降、バージョン 5 以降、バージョン 6 以降、バージョン 7
  • Red Hat Fuse バージョン 6.0 以降、バージョン 6.1 以降、バージョン 6.2 以降、バージョン 6.3.0

第3章 検出が適切かどうか

製品検出ツールは、複雑なネットワーク全体での未知の製品の使用状況など、Red Hat 製品のインベントリーを見つけて理解するのに役立つことを目的としています。検出によって生成されたレポートは、Red Hat Solution Architect (SA) または Technical Account Manager (TAM) とのパートナーシップを通じて、Subscription and Awareness Program (SEAP) が提供する分析およびサポートを通じて、お客様にとって最もよく理解しています。現在進行中のパイロットプログラムには、ソフトウェアインベントリーを他の新しく確立された Red Hat 管理製品と統合するのに役立つ 1 つのツールとしての検出が含まれています。

パート II. 検出ユーザーインターフェイスへのアクセス

ブラウザー接続を使用して、検出グラフィカルユーザーインターフェイスにアクセスできます。

検出ユーザーインターフェイスを使用するには、ユーザーインターフェイスを実行するシステムが、検出サーバーがインストールされているシステムと通信できる必要があります。

詳細情報

検出グラフィカルユーザーインターフェイスへのログインおよびログアウトを行う要件および手順の詳細は、以下の情報を参照してください。

第4章 検出ユーザーインターフェイスへのログイン

前提条件

検出ユーザーインターフェイスにログインするには、検出サーバーがインストールされているシステムの IP アドレス、サーバーのインストール時にデフォルトのポートが変更された場合は接続のポート番号、ログイン時に使用するユーザー名およびパスワードが必要です。この情報がない場合は、検出サーバーをインストールした管理者にお問い合わせください。

手順

  1. ブラウザーで、検出サーバーの URL を https://IPaddress:port の形式で入力します。IPaddress は検出サーバーの IP アドレスで、ポート は公開されたサーバーポートです。

    以下の例は、ログインしているシステムとデフォルトのポートを使用するかどうかに基づいて、URL を入力する 2 つの方法を示しています。

    • サーバーがインストールされ、デフォルトのポートが使用されるシステムからログインする場合はは、以下の例のようにループバックアドレス (localhost とも呼ばれる) を IP アドレスとして使用できます。

      https://127.0.0.1:9443
    • サーバーからリモートのシステムからログインすると、サーバーは IP アドレス 192.0.2.0 で実行され、インストール中にデフォルトのポートが 8443 に変更すると、以下の例のようにログインします。

      https://192.0.2.0:8443

    サーバーの URL を入力すると、検出ログインページが表示されます。

  2. ログインページでユーザー名とパスワードを入力し、Log in をクリックしてサーバーにログインします。

検証手順

検出に初めてログインすると、Welcome ページが表示されます。まず、スキャンで使用できるソースおよび認証情報を追加します。検出に以前にログインしている場合は、Welcome ページはスキップされ、以前に作成したソース、認証情報、およびスキャンと対話できます。

第5章 検出ユーザーインターフェイスからログアウト

手順

  1. アプリケーションツールバーで、人のアイコンまたはユーザー名をクリックします。
  2. Logout をクリックします。

パート III. ソースおよび認証情報の追加

スキャンを実行するために検出を準備するには、スキャンする IT インフラストラクチャーの一部を 1 つ以上のソースとして追加する必要があります。また、これらのソースへのアクセスに必要なユーザー名とパスワードや SSH キーなどの認証情報を 1 つ以上のクレデンシャルとして追加する必要があります。設定要件が異なるため、スキャンするソースのタイプに応じてソースと認証情報を追加します。

詳細情報

IT インフラストラクチャーのさまざまな部分を含むソースおよび認証情報を追加する一般的なプロセスの一部として、多数のタスクを完了する必要がある場合があります。

ネットワークソースおよび認証情報を追加して、ネットワーク上の物理マシン、仮想マシン、コンテナーなどのアセットをスキャンします。詳細は、以下の情報を参照してください。

Satellite ソースと認証情報を追加して、Red Hat Satellite Server のデプロイメントをスキャンし、管理するアセットを見つけます。詳細は、以下の情報を参照してください。

vcenter ソースおよび認証情報を追加して、vCenter Server のデプロイメントをスキャンし、管理するアセットを見つけます。詳細は、以下の情報を参照してください。

第6章 ネットワークソースおよび認証情報の追加

ネットワーク上の 1 つ以上の物理マシン、仮想マシン、またはコンテナーでスキャンを実行するには、スキャンする各アセットを識別するソースを追加する必要があります。その後、各アセットにアクセスするために認証データが含まれる認証情報を追加する必要があります。

詳細情報

ネットワークソースと認証情報を 1 つ以上追加して、ネットワーク内のアセットをスキャンするのに必要な情報を提供します。詳細は、以下の情報を参照してください。

ソースと認証情報、および検出でのそれらの使用方法の詳細については、次の情報を参照してください。

ネットワーク上のアセットで検出が認証する方法の詳細は、以下の情報を参照してください。この情報には、権限を昇格したコマンドの実行に関するガイダンスが記載されています。これは、ネットワーク認証情報の設定時に行う必要がある場合があります。

6.1. ネットワークソースの追加

最初の Welcome ページまたは Sources ビューからソースを追加できます。

手順

  1. オプションをクリックして、場所に基づいて新しい認証情報を追加します。

    • Welcome ページから Add Source をクリックします。
    • Sources ビューから Add をクリックします。

    ソースの追加ウィザードが開きます。

  2. Type ページで、Network Range をソースタイプとして選択し、Next をクリックします。
  3. Credentials ページで、以下の情報を入力します。

    1. Name フィールドに、説明的な名前を入力します。
    2. Search Addresses フィールドに、1 つ以上のネットワーク識別子をコンマで区切って入力します。ホスト名、IP アドレス、および IP 範囲を入力できます。

      • ホスト名を DNS ホスト名として入力します。
      • CIDR または Ansible 表記で IP 範囲を入力します。
    3. 必要に応じて、このソースのスキャンをデフォルトポート 22 で実行する必要がない場合は、Port フィールドに別のポートを入力します。
    4. Credentials 一覧で、このソースのネットワークリソースへのアクセスに必要な認証情報を選択します。必要な認証情報が存在しない場合は、Add a credential アイコンをクリックして Add Credential ウィザードを開きます。
    5. ネットワークリソースで、デフォルトの OpenSSH 実装ではなく、Ansible 接続メソッドが Python SSH 実装である必要がある場合は、デフォルトの OpenSSH 実装の代わりに、Connect using Paramiko instead of OpenSSH チェックボックスを選択します。
  4. Save をクリックしてソースを保存し、Close をクリックして Add Source ウィザードを閉じます。

6.2. ネットワーク認証情報の追加

Credentials ビューから認証情報を追加するか、ソースの作成時に Add Source ウィザードから認証情報を追加できます。1 つのソースに含まれるすべてのアセットに認証するために、複数の認証情報を追加する必要がある場合があります。

前提条件

  • ネットワーク認証情報に SSH 鍵認証タイプを使用する場合は、検出サーバーのインストール時に /sshkeys にマップされたディレクトリーにコピーする必要があります。このディレクトリーのデフォルトパスは ~/discovery/server/volumes/sshkeys です。

    /sshkeys ディレクトリーで使用できる SSH キーの詳細や、そのディレクトリーへのキーの追加を要求する場合は、検出サーバーを管理する管理者にお問い合わせください。

手順

  1. オプションをクリックして、場所に基づいて新しい認証情報を追加します。

    • Credentials ビューから、AddNetwork Credential をクリックします。
    • Add Source ウィザードで、Credentials フィールドの Add a credential アイコンをクリックします。

    Add Credential ウィザードが開きます。

  2. Credential Name フィールドに、説明的な名前を入力します。
  3. Authentication Type フィールドで、使用する認証のタイプを選択します。Username and Password または SSH Key のいずれかを選択できます。
  4. 認証タイプに応じて、適切なフィールドに認証データを入力します。

    • ユーザー名とパスワードの認証には、ユーザーのユーザー名とパスワードを入力します。このユーザーには、ネットワークまたはスキャンするネットワークのサブセットへの root レベルのアクセスが必要です。このユーザーは、選択した become メソッドを使用してルートレベルのアクセスを取得できるようにする必要があります。
    • SSH キー認証の場合は、ユーザー名と SSH キーファイルへのパスを入力します。キーファイルへのパスは、検出サーバーに対してローカルなパスです。たとえば、鍵ファイルがサーバーの ~/discovery/server/volumes/sshkeys パスにある場合は、SSH Key File フィールドにそのパスを入力します。パスフレーズの入力は任意です。
  5. 特権の昇格の方法を入力します。ネットワークスキャン中に一部のコマンドを実行するには、権限の昇格が必要です。become メソッドのユーザー名およびパスワードの入力は任意です。
  6. Save をクリックして認証情報を保存し、Add Credential ウィザードを閉じます。

6.3. ソースおよび認証情報について

スキャンを実行するには、ソースと認証情報の 2 つの基本的な構造のデータを設定する必要があります。スキャン中に検査するソースのタイプによって、ソースと認証情報の両方の設定に必要なデータのタイプが決まります。

ソース には、スキャン時に検査される単一のアセットまたは複数のアセットが含まれます。3 つのタイプのソースを設定できます。

  • ネットワークソース : 1 つ以上の物理マシン、仮想マシン、またはコンテナーこれらのアセットはホスト名、IP アドレス、IP 範囲、またはサブネットとして表現できます。
  • vcenter ソース : IT インフラストラクチャーのすべてまたは一部を管理する vCenter Server システム管理ソリューション。
  • Satellite ソース : IT インフラストラクチャーのすべてまたは一部を管理する Satellite システム管理ソリューション。

ネットワークソースを使用している場合は、単一のソース内でグループ化する必要がある個々のアセットの数を決定します。次のリストには、ソースを追加する際に考慮すべきいくつかの要素が含まれています。

  • アセットが開発、テスト、または本番環境の一部であるかどうか、およびコンピューティング能力の要求と同様の懸念がそれらのアセットの考慮事項であるかどうか。
  • インストールされたソフトウェアへの頻繁な変更などの内部ビジネス慣習のために、特定のエンティティーまたはエンティティーのグループをより頻繁にスキャンするかどうか。

認証情報 は、ソースに含まれるアセットのすべてまたは一部でスキャンを実行する権限を持つユーザーのユーザー名やパスワード、SSH キーなどのデータが含まれます。ソースと同様に、認証情報は network、vcenter、または satellite タイプとして設定されます。通常、ネットワークソースには、幅広い IP 範囲内の全アセットにアクセスするために多くの認証情報が必要になることが想定されるため、ネットワークの認証情報が複数必要になる場合があります。逆に、vcenter または satellite ソースは、通常、単一の vcenter または satellite 認証情報を使用して、特定のシステム管理ソリューションサーバーにアクセスします。

Sources ビューから新しいソースを追加でき、Credentials ビューから新しい認証情報を追加できます。ソースの作成中に、新しい認証情報を追加したり、既存の認証情報を選択したりすることもできます。認証情報をソースに直接関連付けるのは、ソースの作成時です。ソースと認証情報には一致するタイプが必要なため、ソースの作成時に追加する認証情報はソースと同じタイプを共有します。さらに、ソースの作成時に既存の認証情報を使用する場合は、利用可能な認証情報のリストに同じタイプの認証情報のみが含まれます。たとえば、ネットワークソースの作成時に利用できるのは、ネットワーク認証情報のみです。

6.4. ネットワーク認証

検出サーバーは、Ansible の SSH リモート接続機能を使用して、ネットワークスキャンのリモートシステムを検査します。ネットワーク認証情報を追加すると、ユーザー名とパスワードまたはユーザー名と SSH キーファイルのペアを使用して SSH 接続を設定します。リモートシステムが SSH キー認証を使用してアクセスされている場合は、パスフレーズを指定することもできます。

ネットワーク認証情報の設定時に、become メソッドを有効にすることもできます。become メソッドはスキャン中に権限の昇格に使用されます。これらの昇格された権限は、コマンドを実行し、スキャンしているシステムのデータを取得するために必要です。スキャン中に、権限の昇格を必要としないコマンドの詳細は、リモートネットワークアセットのスキャンで使用されるコマンド を参照してください。

6.4.1. リモートネットワークアセットのスキャンで使用されるコマンド

ネットワークスキャンを実行する場合、検出では、ネットワーク内のリモートシステムで特定のコマンドを実行するために提供する認証情報を使用する必要があります。これらのコマンドの一部は、昇格された権限で実行する必要があります。このアクセスは、通常、sudo コマンドまたは同様のコマンドを使用して取得されます。インストール済み製品と使用されたエンタイトルメントに関するレポートを構築する際にディスカバリーが使用するファクトのタイプを収集するには、昇格された権限が必要です。

権限を昇格せずにネットワークソースのスキャンを実行することは可能ですが、スキャンの結果が不完全になります。ネットワークスキャンの不完全な結果は、スキャンに対して生成されたレポートの質に影響します。

以下の情報には、ネットワークスキャン中にリモートホストで検出を実行するコマンドが記載されています。情報には、権限を昇格せずに実行できる基本的なコマンドと、レポートに対して最も正確で完全な情報を収集するために昇格した権限で実行する必要があるコマンドが含まれます。

注記

次のコマンドの他に、検出は Bash シェルが提供するような標準のシェル機能にも左右されます。

6.4.1.1. 権限の昇格を必要としない基本コマンド

以下のコマンドでは、スキャン中にファクトを収集するのに、昇格した権限は必要ありません。

  • cat
  • egrep
  • sort
  • uname
  • ctime
  • grep
  • rpm
  • virsh
  • date
  • id
  • test
  • whereis
  • echo
  • sed
  • tune2fs
  • xargs

6.4.1.2. 権限の昇格が必要なコマンド

以下のコマンドには、スキャン中にファクトを収集するのに昇格した権限が必要になります。各コマンドには、スキャン中に検出が試行する個々のファクトまたはファクトのカテゴリーの一覧が含まれます。これらのファクトは、そのコマンドで昇格した権限が利用できない場合にレポートに含めることはできません。

  • chkconfig

    • EAP
    • Karaf の Fuse
  • command

    • dmicode を参照してください。
    • subscription-manager を参照してください。
  • dmidecode

    • cpu_socket_count
    • dmi_bios_vendor
    • dmi_bios_version
    • dmi_system_manufacturer
    • dmi_processor_family
    • dmi_system_uuid
    • virt_type
  • find

    • BRMS
    • EAP
    • Fuse
    • Karaf の Fuse
  • ifconfig

    • IP アドレス
    • MAC アドレス
  • java

    • EAP 情報
  • locate

    • BRMS
    • EAP
    • Karaf の Fuse
  • ls

    • date_machine_id
    • EAP
    • Karaf の Fuse
    • BRMS
    • redhat_packages_certs
    • subman_consumed
  • ps

    • EAP
    • Karaf の Fuse
    • 仮想タイプ
  • subscription-manager

    • subman_consumed
  • systemctl

    • EAP
    • Karaf の Fuse
  • unzip

    • EAP の検出
  • virt-what

    • virt_what_type
  • yum

    • date_yum_history
    • yum_enabled_repolist

第7章 Satellite ソースおよび認証情報の追加

Red Hat Satellite Server デプロイメントでスキャンを実行するには、スキャンする Satellite Server サーバーを識別するソースを追加する必要があります。その後、そのサーバーにアクセスするために認証データが含まれる認証情報を追加する必要があります。

詳細情報

Satellite ソースおよび認証情報を追加して、Satellite Server のスキャンに必要な情報を提供します。詳細は、以下の情報を参照してください。

ソースと認証情報、および検出でのそれらの使用方法の詳細については、次の情報を参照してください。

Satellite Server サーバーで検出が認証する方法の詳細は、以下の情報を参照してください。この情報には、証明書の検証に関するガイダンスと、サテライト認証情報の設定中に行う必要がある SSL 通信の選択肢が含まれます。

7.1. Satellite ソースの追加

最初の Welcome ページまたは Sources ビューからソースを追加できます。

手順

  1. オプションをクリックして、場所に基づいて新しい認証情報を追加します。

    • Welcome ページから Add Source をクリックします。
    • Sources ビューから Add をクリックします。

    ソースの追加ウィザードが開きます。

  2. Type ページで、Satellite をソースタイプとして選択し、Next をクリックします。
  3. Credentials ページで、以下の情報を入力します。

    1. Name フィールドに、説明的な名前を入力します。
    2. IP Address or Hostname フィールドに、このソースの Satellite サーバーの IP アドレスまたはホスト名を入力します。このソースのスキャンをデフォルトのポート 443 で実行したくない場合は、別のポートを入力します。たとえば、Satellite サーバーの IP アドレスが 192.0.2.15 で、ポートを 80 に変更する場合は、192.0.2.15:80 を入力します。
    3. Credentials 一覧で、このソースの Satellite サーバーへのアクセスに必要な認証情報を選択します。必要な認証情報が存在しない場合は、Add a credential アイコンをクリックして Add Credential ウィザードを開きます。
    4. Connection 一覧で、このソースのスキャン中にセキュアな接続に使用される SSL プロトコルを選択します。

      注記

      Satellite Server は、SSL の無効化をサポートしません。Disable SSL オプションを選択すると、このオプションは無視されます。

    5. Satellite サーバーの SSL 検証をアップグレードして、認証局から検証された SSL 証明書を確認する必要がある場合は、Verify SSL Certificate チェックボックスを選択します。
  4. Save をクリックしてソースを保存し、Close をクリックして Add Source ウィザードを閉じます。

7.2. Satellite 認証情報の追加

Credentials ビューから認証情報を追加するか、ソースの作成時に Add Source ウィザードから認証情報を追加できます。

手順

  1. オプションをクリックして、場所に基づいて新しい認証情報を追加します。

    • Credentials ビューから、AddSatellite Credential をクリックします。
    • Add Source ウィザードで、Credentials フィールドの Add a credential アイコンをクリックします。

    Add Credential ウィザードが開きます。

  2. Credential Name フィールドに、説明的な名前を入力します。
  3. Satellite Server 管理者のユーザー名とパスワードを入力します。
  4. Save をクリックして認証情報を保存し、Add Credential ウィザードを閉じます。

7.3. ソースおよび認証情報について

スキャンを実行するには、ソースと認証情報の 2 つの基本的な構造のデータを設定する必要があります。スキャン中に検査するソースのタイプによって、ソースと認証情報の両方の設定に必要なデータのタイプが決まります。

ソース には、スキャン時に検査される単一のアセットまたは複数のアセットが含まれます。3 つのタイプのソースを設定できます。

  • ネットワークソース : 1 つ以上の物理マシン、仮想マシン、またはコンテナーこれらのアセットはホスト名、IP アドレス、IP 範囲、またはサブネットとして表現できます。
  • vcenter ソース : IT インフラストラクチャーのすべてまたは一部を管理する vCenter Server システム管理ソリューション。
  • Satellite ソース : IT インフラストラクチャーのすべてまたは一部を管理する Satellite システム管理ソリューション。

ネットワークソースを使用している場合は、単一のソース内でグループ化する必要がある個々のアセットの数を決定します。次のリストには、ソースを追加する際に考慮すべきいくつかの要素が含まれています。

  • アセットが開発、テスト、または本番環境の一部であるかどうか、およびコンピューティング能力の要求と同様の懸念がそれらのアセットの考慮事項であるかどうか。
  • インストールされたソフトウェアへの頻繁な変更などの内部ビジネス慣習のために、特定のエンティティーまたはエンティティーのグループをより頻繁にスキャンするかどうか。

認証情報 は、ソースに含まれるアセットのすべてまたは一部でスキャンを実行する権限を持つユーザーのユーザー名やパスワード、SSH キーなどのデータが含まれます。ソースと同様に、認証情報は network、vcenter、または satellite タイプとして設定されます。通常、ネットワークソースには、幅広い IP 範囲内の全アセットにアクセスするために多くの認証情報が必要になることが想定されるため、ネットワークの認証情報が複数必要になる場合があります。逆に、vcenter または satellite ソースは、通常、単一の vcenter または satellite 認証情報を使用して、特定のシステム管理ソリューションサーバーにアクセスします。

Sources ビューから新しいソースを追加でき、Credentials ビューから新しい認証情報を追加できます。ソースの作成中に、新しい認証情報を追加したり、既存の認証情報を選択したりすることもできます。認証情報をソースに直接関連付けるのは、ソースの作成時です。ソースと認証情報には一致するタイプが必要なため、ソースの作成時に追加する認証情報はソースと同じタイプを共有します。さらに、ソースの作成時に既存の認証情報を使用する場合は、利用可能な認証情報のリストに同じタイプの認証情報のみが含まれます。たとえば、ネットワークソースの作成時に利用できるのは、ネットワーク認証情報のみです。

7.4. Satellite Server の認証

Satellite のスキャンでは、Satellite Server への接続とアクセスは、HTTPS 経由で暗号化される Basic 認証 (ユーザー名とパスワード) から派生します。デフォルトでは、Satellite スキャンは SSL (Secure Sockets Layer) プロトコルを介して証明書の検証とセキュアな通信で実行されます。ソースの作成時に、証明書の検証およびセキュアな通信に使用する複数の異なる SSL プロトコルおよび TLS (Transport Layer Security) プロトコルから選択できます。

スキャン中に Satellite サーバーに適切に接続するために、証明書検証のレベルを調整する必要がある場合があります。たとえば、Satellite サーバーは、認証局から検証された SSL 証明書を使用する場合があります。ソースの作成時に、SSL 証明書の検証をアップグレードして、そのソースのスキャン中にその証明書を確認することができます。この場合、Satellite サーバーは自己署名証明書を使用する場合があります。ソースの作成時に、SSL 検証をデフォルトのままにし、そのソースのスキャンが証明書をチェックしないようにできます。このオプションは、自己署名証明書のオプションをデフォルトのままにするには、スキャンエラーを回避する可能性があります。

現在、SSL を無効にするオプションはインターフェイスで利用できますが、Satellite Server では SSL の無効化をサポートしていません。サテライトソースの作成時に Disable SSL オプションを選択すると、このオプションは無視されます。

第8章 vcenter ソースおよび認証情報の追加

vCenter Server デプロイメントでスキャンを実行するには、スキャンする vCenter Server サーバーを識別するソースを追加する必要があります。その後、そのサーバーにアクセスするために認証データが含まれる認証情報を追加する必要があります。

詳細情報

vcenter ソースおよび認証情報を追加し、vCenter Server をスキャンするために必要な情報を提供します。詳細は、以下の情報を参照してください。

ソースと認証情報、および検出でのそれらの使用方法の詳細については、次の情報を参照してください。

vCenter Server サーバーで検出が認証する方法の詳細は、以下の情報を参照してください。この情報には、証明書の検証に関するガイダンスと、vcenter の認証情報設定中に行う必要がある SSL 通信の選択肢が含まれます。

8.1. vcenter ソースの追加

最初の Welcome ページまたは Sources ビューからソースを追加できます。

手順

  1. オプションをクリックして、場所に基づいて新しい認証情報を追加します。

    • Welcome ページから Add Source をクリックします。
    • Sources ビューから Add をクリックします。

    ソースの追加ウィザードが開きます。

  2. Type ページで vCenter Server をソースタイプとして選択し、Next をクリックします。
  3. Credentials ページで、以下の情報を入力します。

    1. Name フィールドに、説明的な名前を入力します。
    2. IP Address or Hostname フィールドに、このソースの vCenter Server の IP アドレスまたはホスト名を入力します。このソースのスキャンをデフォルトのポート 443 で実行したくない場合は、別のポートを入力します。たとえば、vCenter Server の IP アドレスが 192.0.2.15 で、ポートを 80 に変更する場合は、192.0.2.15:80 を入力します。
    3. Credentials 一覧で、このソースの vCenter Server へのアクセスに必要な認証情報を選択します。必要な認証情報が存在しない場合は、Add a credential アイコンをクリックして Add Credential ウィザードを開きます。
    4. Connection 一覧で、このソースのスキャン中にセキュアな接続に使用される SSL プロトコルを選択します。Disable SSL を選択して、このソースのスキャン時にセキュアな通信を無効にします。
    5. vCenter Server の SSL 検証をアップグレードして、認証局から検証された SSL 証明書を確認する必要がある場合は、Verify SSL Certificate チェックボックスを選択します。
  4. Save をクリックしてソースを保存し、Close をクリックして Add Source ウィザードを閉じます。

8.2. vcenter 認証情報の追加

Credentials ビューから認証情報を追加するか、ソースの作成時に Add Source ウィザードから認証情報を追加できます。

手順

  1. オプションをクリックして、場所に基づいて新しい認証情報を追加します。

    • Credentials ビューで AddVCenter Credential をクリックします。
    • Add Source ウィザードで、Credentials フィールドの Add a credential アイコンをクリックします。

    Add Credential ウィザードが開きます。

  2. Credential Name フィールドに、説明的な名前を入力します。
  3. vCenter Server 管理者のユーザー名およびパスワードを入力します。
  4. Save をクリックして認証情報を保存し、Add Credential ウィザードを閉じます。

8.3. ソースおよび認証情報について

スキャンを実行するには、ソースと認証情報の 2 つの基本的な構造のデータを設定する必要があります。スキャン中に検査するソースのタイプによって、ソースと認証情報の両方の設定に必要なデータのタイプが決まります。

ソース には、スキャン時に検査される単一のアセットまたは複数のアセットが含まれます。3 つのタイプのソースを設定できます。

  • ネットワークソース : 1 つ以上の物理マシン、仮想マシン、またはコンテナーこれらのアセットはホスト名、IP アドレス、IP 範囲、またはサブネットとして表現できます。
  • vcenter ソース : IT インフラストラクチャーのすべてまたは一部を管理する vCenter Server システム管理ソリューション。
  • Satellite ソース : IT インフラストラクチャーのすべてまたは一部を管理する Satellite システム管理ソリューション。

ネットワークソースを使用している場合は、単一のソース内でグループ化する必要がある個々のアセットの数を決定します。次のリストには、ソースを追加する際に考慮すべきいくつかの要素が含まれています。

  • アセットが開発、テスト、または本番環境の一部であるかどうか、およびコンピューティング能力の要求と同様の懸念がそれらのアセットの考慮事項であるかどうか。
  • インストールされたソフトウェアへの頻繁な変更などの内部ビジネス慣習のために、特定のエンティティーまたはエンティティーのグループをより頻繁にスキャンするかどうか。

認証情報 は、ソースに含まれるアセットのすべてまたは一部でスキャンを実行する権限を持つユーザーのユーザー名やパスワード、SSH キーなどのデータが含まれます。ソースと同様に、認証情報は network、vcenter、または satellite タイプとして設定されます。通常、ネットワークソースには、幅広い IP 範囲内の全アセットにアクセスするために多くの認証情報が必要になることが想定されるため、ネットワークの認証情報が複数必要になる場合があります。逆に、vcenter または satellite ソースは、通常、単一の vcenter または satellite 認証情報を使用して、特定のシステム管理ソリューションサーバーにアクセスします。

Sources ビューから新しいソースを追加でき、Credentials ビューから新しい認証情報を追加できます。ソースの作成中に、新しい認証情報を追加したり、既存の認証情報を選択したりすることもできます。認証情報をソースに直接関連付けるのは、ソースの作成時です。ソースと認証情報には一致するタイプが必要なため、ソースの作成時に追加する認証情報はソースと同じタイプを共有します。さらに、ソースの作成時に既存の認証情報を使用する場合は、利用可能な認証情報のリストに同じタイプの認証情報のみが含まれます。たとえば、ネットワークソースの作成時に利用できるのは、ネットワーク認証情報のみです。

8.4. vCenter Server の認証

vcenter スキャンでは、vCenter Server への接続とアクセスは、HTTPS 経由で暗号化される Basic 認証 (ユーザー名とパスワード) から派生します。デフォルトでは、vcenter スキャンは、SSL (Secure Sockets Layer) プロトコルを介して証明書の検証とセキュアな通信で実行されます。ソースの作成時に、証明書の検証およびセキュアな通信に使用する複数の異なる SSL プロトコルおよび TLS (Transport Layer Security) プロトコルから選択できます。

スキャン中に vCenter サーバーに適切に接続できるように、証明書検証のレベルを調整する必要しないといけない場合があります。たとえば、vCenter サーバーは認証局から検証された SSL 証明書を使用する可能性があります。ソースの作成時に、SSL 証明書の検証をアップグレードして、そのソースのスキャン中にその証明書を確認することができます。vCenter サーバーが自己署名証明書を使用する可能性があります。ソースの作成時に、SSL 検証をデフォルトのままにし、そのソースのスキャンが証明書をチェックしないようにできます。このオプションは、自己署名証明書のオプションをデフォルトのままにするには、スキャンエラーを回避する可能性があります。

vCenter サーバーが Web アプリケーションに SSL 通信を使用するように設定されていない場合は、スキャン時に SSL をセキュア通信メソッドとして無効にする必要もあります。たとえば、HTTP をポート 80 で使用して、vCenter サーバーが Web アプリケーションと通信するように設定できます。その場合は、ソースの作成中に、そのソースのスキャンに対して SSL 通信を無効にできます。

パート IV. スキャンの実行および管理

スキャンする IT インフラストラクチャーの部分のソースおよび認証情報を追加したら、スキャンを作成および実行できます。スキャンを作成する場合は、単一のソースをスキャンするか、いずれかのタイプの複数のソースを組み合わせることができます。また、デフォルトのインストールプロセスおよび場所にインストールされる製品の標準スキャンを実行するか、または標準以外のプロセスまたは場所で製品がインストールされている場合にディープスキャンを実行することもできます。

スキャンの作成後、そのスキャンを複数回実行できます。スキャンの各インスタンスはスキャンジョブとして保存されます。

詳細情報

製品にディープスキャンを使用しない標準スキャンを実行する方法は、以下の情報を参照してください。

ディープスキャン (標準以外のプロセスまたは非標準の場所にインストールされている可能性のある製品を検出できるスキャン) の実行の詳細については、次の情報を参照してください。

第9章 標準スキャンの実行および管理

スキャンする IT インフラストラクチャーの部分のソースと認証情報を追加したら、スキャンの実行を開始できます。ほとんどの場合は、標準スキャンを実行して、Red Hat 製品に関するレポートに必要な環境および製品データを探すことができます。

詳細情報

標準スキャンを実行して、標準の場所に製品を見つけます。詳細は、以下の情報を参照してください。

スキャンの実行を開始すると、スキャンの管理に使用できるタスクがいくつかあります。これらのタスクには、新しいスキャンジョブを実行して、スキャンのデータを更新し、一時停止、再開、およびキャンセルによるアクティブなスキャンを管理することが含まれます。詳細は、以下の情報を参照してください。

スキャンとスキャンジョブの仕組み、具体的には検出によるスキャンジョブの処理方法、スキャンジョブがライフサイクル中に移動する状態などの詳細は、次の情報を参照してください。

9.1. 標準スキャンの実行

Sources ビューから新しいスキャンを実行できます。1 つのソースのスキャンを実行するか、複数のソースを選択して 1 つのスキャンに統合できます。Sources ビューを使用してスキャンを実行するたびに、新しいスキャンとして保存するように求められます。

スキャンを初めて実行した後、スキャンはスキャンビューに保存されます。その表示から、再度スキャンを実行してデータを更新できます。Scans ビューからスキャンを実行するたびに、スキャンの新しいスキャンジョブとして保存されます。

前提条件

  • スキャンを実行するには、最初にスキャンするソースと。それらのソースにアクセスするための認証情報を追加する必要があります。

手順

  1. Sources ビューで、1 つ以上のソースを選択します。異なるタイプのソースを選択して 1 つのスキャンに統合できます。
  2. 選択したソースに適した Scan ボタンをクリックします。

    • 単一ソースの場合は、そのソースの行にある Scan をクリックします。ソースのチェックボックスの選択は任意です。
    • 複数のソースを選択した場合は、ツールバーの Scan をクリックします。スキャンウィザードが開きます。
  3. Name フィールドに、スキャンの説明的な名前を入力します。
  4. 最大同時スキャンのデフォルト数を変更する場合は、Maximum concurrent scans フィールドに新しい値を設定します。この値は、スキャン中に並行してスキャンされるマシンまたは仮想マシンの最大数です。
  5. デフォルトのスキャンプロセスを使用するには、Deep scan for these products チェックボックスがデフォルトのオフのままになるようにします。
  6. スキャンプロセスを開始するには、Scan をクリックします。

検証手順

スキャンプロセスが開始されると、Sources ビューに通知が表示されます。実行中のスキャンは Scans ビューにも表示され、スキャンの進捗に関するメッセージが表示されます。

9.2. 新しいスキャンジョブの実行

スキャンに名前を付け、初めて実行した後、Scans ビューに追加されます。その後、スキャンジョブと呼ばれるスキャンの新しいインスタンスを実行して、スキャン用に収集されるデータを更新できます。

手順

  1. Scans ビューで、スキャンの詳細にある Run Scan アイコンをクリックします。

    注記

    スキャンの詳細では、最新のスキャンジョブが正常に完了しなかった場合、このアイコンには Retry Scan というラベルが付けられます。

検証手順

スキャンプロセスが開始されると、スキャンの進捗に関するメッセージと共に通知が表示されます。

  1. スキャンの詳細で Previous を展開し、以前のスキャンジョブをすべて表示します。

9.3. スキャンの一時停止、再開、およびキャンセル

スキャンの実行を開始する際に、現在実行中のスキャンジョブを停止する必要がある場合があります。これを行う必要があるさまざまなビジネス上の理由がある可能性があります。たとえば、IT ヘルスモニターリングシステムからのアラートが原因で緊急修正を行う必要がある場合や、優先度の低いスキャンが現在実行している場合により多くの CPU リソースを消費する優先度の高いスキャンを実行しないといけない場合などです。

スキャンジョブを停止するには、一時停止するか、キャンセルします。一時停止されたスキャンジョブを再開することはできますが、キャンセルされたスキャンジョブを再開することはできません。

手順

実行中のスキャンジョブを一時停止するには、以下を実行します。

  1. Scans ビューで、一時停止するスキャンジョブが含まれるスキャンを見つけます。
  2. Pause Scan をクリックします。

    注記

    複数のスキャンが同時に実行されている場合は、Pause Scan アイコンでスキャンを開始した後にしばらく時間がかかる場合があります。

一時停止されているスキャンジョブを再開するには、以下を行います。

  1. Scans ビューで、再開するスキャンジョブが含まれるスキャンを見つけます。
  2. Resume Scan をクリックします。

実行中のスキャンジョブをキャンセルするには、次を行います。

  1. Scans ビューで、キャンセルするスキャンジョブが含まれるスキャンを見つけます。
  2. Cancel Scan をクリックします。

9.4. スキャンおよびスキャンジョブについて

ソースおよび認証情報の作成後、スキャンを作成できます。scan は、ソースを複製可能な方法で検査またはスキャンできるユニットにグループ化するオブジェクトです。保存したスキャンを実行するたびに、そのインスタンスは スキャンジョブ として保存されます。スキャンジョブの出力は レポート で、そのソースに含まれるすべての IT リソースに対して収集されたファクトのコレクションです。

スキャンには、少なくとも 1 つのソースと、ソースの作成時にそのソースに関連付けられた認証情報が含まれます。スキャンジョブが実行されると、提供された認証情報を使用してソースに含まれるアセットに接続し、アセットを検査してレポートに対してこれらのアセットに関するファクトを収集します。異なるタイプのソースの組み合わせを単一のスキャンに追加するなど、複数のソースを単一のスキャンに追加できます。

9.5. ジョブ処理のスキャン

スキャンジョブは処理中に 2 つのフェーズまたはタスクを移動します。これら 2 つのタスクは接続タスクと検査タスクです。

9.5.1. ジョブ接続および検査タスクのスキャン

スキャンジョブ中に実行される最初のタスクはコネクションタスクです。接続タスク は、ソースへの接続機能を判断し、定義したソースを検査できるシステム数を見つけます。実行する 2 番目のタスクは、検査タスクです。検査タスク は、定義されたソースの到達可能な各システムからデータを収集し、スキャン結果をレポートに出力するタスクです。

スキャンで複数のソースが含まれるように設定されている場合は、スキャンジョブが実行されると、これらの 2 つのタスクがソースごとに作成されます。まず、すべてのソースの接続タスクを実行してソースへの接続を確立し、検査できるシステムを見つけます。その後、すべてのソースの検査タスクが実行され、ソースに含まれる到達可能なシステムの内容を検証します。

9.5.2. これらのタスクの処理方法

スキャンジョブがソースの接続タスクを実行すると、ネットワーク、vCenter Server のサーバー、または Satellite のサーバーへの接続を試みます。vCenter Server または Satellite への接続に失敗した場合、接続タスクは失敗します。ネットワークスキャンでは、ネットワークに到達できない場合や認証情報が無効な場合、接続タスクが正常なシステムが 0 であることを報告します。ネットワークスキャン用の一部のシステムのみが到達可能であれば、接続タスクは到達可能なシステムで成功を報告し、接続タスクが失敗しません。

Scans ビューで接続タスクのステータスに関する情報を表示できます。スキャンの行には、接続タスクの結果が、最新のスキャンジョブで成功したシステム接続の数として表示されます。以前のスキャンジョブを展開して、以前のスキャンジョブの接続タスクの結果を表示することもできます。

スキャンジョブがソースの検査タスクを実行すると、コネクションタスクの状態をチェックします。接続タスクで failed 状態が表示される場合や、ゼロ (0) 個の正常接続がある場合、スキャンジョブは failed 状態に移行します。ただし、コネクションタスクが少なくとも 1 つの接続を報告すると、検査タスクは継続されます。その後、スキャンジョブの結果は、各システムの成功データおよび失敗データを表示します。検査タスクが正常なシステムから結果を収集できない場合や、検査タスク中に別の予期しないエラーが発生した場合は、スキャンジョブを failed 状態に切り替えます。

スキャンに複数のソースが含まれている場合、各ソースには独自の接続タスクおよび検査タスクがあります。これらのタスクは、他のソースのタスクとは別に処理されます。ソースのいずれかのタスクが失敗すると、スキャンジョブは failed 状態に移行します。スキャンジョブは、すべてのソースに対してすべてのスキャンジョブタスクが正常に完了した場合にのみ完了状態に移行します。

スキャンジョブが正常に完了すると、スキャンジョブのデータがレポートとして生成されます。Scans ビューで、正常なスキャンジョブごとにレポートをダウンロードできます。

9.6. ジョブライフサイクルのスキャン

scan job、またはスキャンの個別のインスタンスは、ライフサイクル中に複数の状態を移動します。

スキャンを開始すると、スキャンジョブが作成され、スキャンジョブは created 状態になります。その後、スキャンジョブは処理のためにキューに置かれ、スキャンジョブが pending 状態に移行されます。スキャンジョブは、開始順に順次実行します。

検出サーバーがキュー内の特定のスキャンジョブに到達すると、そのスキャンジョブの処理が開始すと、そのスキャンジョブは、pending 状態から running 状態に移行します。スキャンプロセスが正常に完了すると、スキャンジョブは completed 状態に移行し、スキャンジョブはレポートで表示できる結果を生成します。スキャンプロセスで、スキャンが正常に完了しないようにエラーが発生した場合、スキャンジョブは停止し、スキャンジョブが failed 状態に移行します。失敗したスキャンの追加のステータスメッセージには、失敗の原因を特定するのに役立つ情報が含まれています。

スキャンジョブで行われるユーザーアクションの結果のスキャンジョブのその他の状態。スキャンジョブが保留中または実行中に一時停止またはキャンセルできます。paused 状態のスキャンジョブを再開できます。canceled 状態のスキャンジョブを再開できません。

第10章 ディープスキャンの実行および管理

スキャンする IT インフラストラクチャーの部分のソースと認証情報を追加したら、スキャンの実行を開始できます。一部の状況では、Red Hat 製品に関する報告に必要な環境および製品データを見つけるのに、標準スキャンの実行では不十分です。

デフォルトでは、検出は、それらの製品に関連する既知のメタデータを使用して、製品を検索およびフィンガープリントします。ただし、これらの製品を、検索およびフィンガープリントのアルゴリズムの効果を低下させるプロセスまたはインストール場所にインストールした可能性があります。この場合、これらの製品を見つけるには、ディープスキャンを使用する必要があります。

詳細情報

ディープスキャンを実行して、標準以外の場所にある製品を見つけます。詳細は、以下の情報を参照してください。

スキャンの実行を開始すると、スキャンの管理に使用できるタスクがいくつかあります。これらのタスクには、新しいスキャンジョブを実行して、スキャンのデータを更新し、一時停止、再開、およびキャンセルによるアクティブなスキャンを管理することが含まれます。詳細は、以下の情報を参照してください。

スキャンとスキャンジョブの仕組み、具体的には検出によるスキャンジョブの処理方法、スキャンジョブがライフサイクル中に移動する状態などの詳細は、次の情報を参照してください。

10.1. ディープスキャンを使用したスキャンの実行

Sources ビューから新しいスキャンを実行できます。1 つのソースのスキャンを実行するか、複数のソースを選択して 1 つのスキャンに統合できます。スキャン設定の一環として、標準以外の場所でディープスキャンプロセスを使用して製品を検索することを選択する場合があります。

詳細なスキャンプロセスでは find コマンドを使用するため、スキャンされるシステムに対しては、検索プロセスは CPU リソースを消費する可能性があります。したがって、実稼働システムなどの継続的な可用性を必要とするシステムのディープスキャンを選択する場合は、判断を使用する必要があります。

スキャンを初めて実行した後、スキャンはスキャンビューに保存されます。その表示から、スキャンを再度実行して、データを更新できます。

前提条件

  • スキャンを実行するには、最初にスキャンするソースと。それらのソースにアクセスするための認証情報を追加する必要があります。

手順

  1. Sources ビューで、1 つ以上のソースを選択します。異なるタイプのソースを選択して 1 つのスキャンに統合できます。
  2. 選択したソースに適した Scan ボタンをクリックします。

    • 単一ソースの場合は、そのソースの行にある Scan をクリックします。ソースのチェックボックスの選択は任意です。
    • 複数のソースを選択した場合は、ツールバーの Scan をクリックします。スキャンウィザードが開きます。
  3. Name フィールドに、スキャンの説明的な名前を入力します。
  4. 最大同時スキャンのデフォルト数を変更する場合は、Maximum concurrent scans フィールドに新しい値を設定します。この値は、スキャン中に並行してスキャンされるマシンまたは仮想マシンの最大数です。
  5. 1 つ以上の製品でディープスキャンプロセスを使用するには、以下の情報を指定します。

    • 該当する Deep scan for these products チェックボックスを選択します。
    • 必要に応じて、検出がスキャンするディレクトリーを入力します。ディープスキャンで使用されるデフォルトのディレクトリーは、//opt/app/home、および /usr ディレクトリーです。
  6. スキャンプロセスを開始するには、Scan をクリックします。

検証手順

スキャンプロセスが開始されると、Sources ビューに通知が表示されます。実行中のスキャンは Scans ビューにも表示され、スキャンの進捗に関するメッセージが表示されます。

10.2. 新しいスキャンジョブの実行

スキャンに名前を付け、初めて実行した後、Scans ビューに追加されます。その後、スキャンジョブと呼ばれるスキャンの新しいインスタンスを実行して、スキャン用に収集されるデータを更新できます。

手順

  1. Scans ビューで、スキャンの詳細にある Run Scan アイコンをクリックします。

    注記

    スキャンの詳細では、最新のスキャンジョブが正常に完了しなかった場合、このアイコンには Retry Scan というラベルが付けられます。

検証手順

スキャンプロセスが開始されると、スキャンの進捗に関するメッセージと共に通知が表示されます。

  1. スキャンの詳細で Previous を展開し、以前のスキャンジョブをすべて表示します。

10.3. スキャンの一時停止、再開、およびキャンセル

スキャンの実行を開始する際に、現在実行中のスキャンジョブを停止する必要がある場合があります。これを行う必要があるさまざまなビジネス上の理由がある可能性があります。たとえば、IT ヘルスモニターリングシステムからのアラートが原因で緊急修正を行う必要がある場合や、優先度の低いスキャンが現在実行している場合により多くの CPU リソースを消費する優先度の高いスキャンを実行しないといけない場合などです。

スキャンジョブを停止するには、一時停止するか、キャンセルします。一時停止されたスキャンジョブを再開することはできますが、キャンセルされたスキャンジョブを再開することはできません。

手順

実行中のスキャンジョブを一時停止するには、以下を実行します。

  1. Scans ビューで、一時停止するスキャンジョブが含まれるスキャンを見つけます。
  2. Pause Scan をクリックします。

    注記

    複数のスキャンが同時に実行されている場合は、Pause Scan アイコンでスキャンを開始した後にしばらく時間がかかる場合があります。

一時停止されているスキャンジョブを再開するには、以下を行います。

  1. Scans ビューで、再開するスキャンジョブが含まれるスキャンを見つけます。
  2. Resume Scan をクリックします。

実行中のスキャンジョブをキャンセルするには、次を行います。

  1. Scans ビューで、キャンセルするスキャンジョブが含まれるスキャンを見つけます。
  2. Cancel Scan をクリックします。

10.4. スキャンおよびスキャンジョブについて

ソースおよび認証情報の作成後、スキャンを作成できます。scan は、ソースを複製可能な方法で検査またはスキャンできるユニットにグループ化するオブジェクトです。保存したスキャンを実行するたびに、そのインスタンスは スキャンジョブ として保存されます。スキャンジョブの出力は レポート で、そのソースに含まれるすべての IT リソースに対して収集されたファクトのコレクションです。

スキャンには、少なくとも 1 つのソースと、ソースの作成時にそのソースに関連付けられた認証情報が含まれます。スキャンジョブが実行されると、提供された認証情報を使用してソースに含まれるアセットに接続し、アセットを検査してレポートに対してこれらのアセットに関するファクトを収集します。異なるタイプのソースの組み合わせを単一のスキャンに追加するなど、複数のソースを単一のスキャンに追加できます。

10.5. ジョブ処理のスキャン

スキャンジョブは処理中に 2 つのフェーズまたはタスクを移動します。これら 2 つのタスクは接続タスクと検査タスクです。

10.5.1. ジョブ接続および検査タスクのスキャン

スキャンジョブ中に実行される最初のタスクはコネクションタスクです。接続タスク は、ソースへの接続機能を判断し、定義したソースを検査できるシステム数を見つけます。実行する 2 番目のタスクは、検査タスクです。検査タスク は、定義されたソースの到達可能な各システムからデータを収集し、スキャン結果をレポートに出力するタスクです。

スキャンで複数のソースが含まれるように設定されている場合は、スキャンジョブが実行されると、これらの 2 つのタスクがソースごとに作成されます。まず、すべてのソースの接続タスクを実行してソースへの接続を確立し、検査できるシステムを見つけます。その後、すべてのソースの検査タスクが実行され、ソースに含まれる到達可能なシステムの内容を検証します。

10.5.2. これらのタスクの処理方法

スキャンジョブがソースの接続タスクを実行すると、ネットワーク、vCenter Server のサーバー、または Satellite のサーバーへの接続を試みます。vCenter Server または Satellite への接続に失敗した場合、接続タスクは失敗します。ネットワークスキャンでは、ネットワークに到達できない場合や認証情報が無効な場合、接続タスクが正常なシステムが 0 であることを報告します。ネットワークスキャン用の一部のシステムのみが到達可能であれば、接続タスクは到達可能なシステムで成功を報告し、接続タスクが失敗しません。

Scans ビューで接続タスクのステータスに関する情報を表示できます。スキャンの行には、接続タスクの結果が、最新のスキャンジョブで成功したシステム接続の数として表示されます。以前のスキャンジョブを展開して、以前のスキャンジョブの接続タスクの結果を表示することもできます。

スキャンジョブがソースの検査タスクを実行すると、コネクションタスクの状態をチェックします。接続タスクで failed 状態が表示される場合や、ゼロ (0) 個の正常接続がある場合、スキャンジョブは failed 状態に移行します。ただし、コネクションタスクが少なくとも 1 つの接続を報告すると、検査タスクは継続されます。その後、スキャンジョブの結果は、各システムの成功データおよび失敗データを表示します。検査タスクが正常なシステムから結果を収集できない場合や、検査タスク中に別の予期しないエラーが発生した場合は、スキャンジョブを failed 状態に切り替えます。

スキャンに複数のソースが含まれている場合、各ソースには独自の接続タスクおよび検査タスクがあります。これらのタスクは、他のソースのタスクとは別に処理されます。ソースのいずれかのタスクが失敗すると、スキャンジョブは failed 状態に移行します。スキャンジョブは、すべてのソースに対してすべてのスキャンジョブタスクが正常に完了した場合にのみ完了状態に移行します。

スキャンジョブが正常に完了すると、スキャンジョブのデータがレポートとして生成されます。Scans ビューで、正常なスキャンジョブごとにレポートをダウンロードできます。

10.6. ジョブライフサイクルのスキャン

scan job、またはスキャンの個別のインスタンスは、ライフサイクル中に複数の状態を移動します。

スキャンを開始すると、スキャンジョブが作成され、スキャンジョブは created 状態になります。その後、スキャンジョブは処理のためにキューに置かれ、スキャンジョブが pending 状態に移行されます。スキャンジョブは、開始順に順次実行します。

検出サーバーがキュー内の特定のスキャンジョブに到達すると、そのスキャンジョブの処理が開始すと、そのスキャンジョブは、pending 状態から running 状態に移行します。スキャンプロセスが正常に完了すると、スキャンジョブは completed 状態に移行し、スキャンジョブはレポートで表示できる結果を生成します。スキャンプロセスで、スキャンが正常に完了しないようにエラーが発生した場合、スキャンジョブは停止し、スキャンジョブが failed 状態に移行します。失敗したスキャンの追加のステータスメッセージには、失敗の原因を特定するのに役立つ情報が含まれています。

スキャンジョブで行われるユーザーアクションの結果のスキャンジョブのその他の状態。スキャンジョブが保留中または実行中に一時停止またはキャンセルできます。paused 状態のスキャンジョブを再開できます。canceled 状態のスキャンジョブを再開できません。

パート V. レポートのマージおよびダウンロード

スキャンの実行後、スキャンのレポートをダウンロードして、スキャン中に収集および処理されたデータを表示できます。

IT インフラストラクチャーのスキャンタスクをいくつかの個別のスキャンに分割する場合は、これらのスキャンの出力を 1 つのレポートにマージできます。マージされたレポートはマージ時にもダウンロードされます。

詳細情報

レポートのダウンロードに関する詳細は、以下の情報を参照してください。

2 つ以上のレポートをマージし、マージの結果をダウンロードする方法は、以下の情報を参照してください。

第11章 レポートのダウンロード

スキャンの実行後、スキャンのレポートをダウンロードして、スキャン中に収集および処理されたデータを表示できます。

スキャンのレポートは、コンマ区切り変数 (CSV) 形式と JavaScript Object Notation (JSON) 形式という 2 つの形式で利用できます。また、これらは 2 つのコンテンツタイプで利用できます。スキャンからの raw 出力は、詳細レポートと、デプロイメントレポートとして処理されたコンテンツです。

詳細情報

レポートのマージおよびダウンロードの詳細は、以下の情報を参照してください。

レポートの作成方法の詳細は、以下の情報を参照してください。この情報には、詳細レポートの未加工のファクトをフィンガープリントデータに変更し、フィンガープリントデータをデプロイメントレポートの重複排除およびマージされたデータに変更するプロセスの配列が含まれます。この情報には、検出レポートの作成に使用されるデータの種類を示す部分的なフィンガープリントの例も含まれます。

11.1. レポートのダウンロード

Scans ビューで、1 つ以上のレポートを選択し、それらをダウンロードしてレポートデータを表示できます。

前提条件

スキャンのレポートをダウンロードする場合は、スキャンの最新のスキャンジョブが正常に完了している必要があります。

手順

  1. Scans ビューで、レポートをダウンロードする必要のあるスキャンの行に移動します。
  2. このスキャンの ダウンロード をクリックします。

検証手順

ダウンロードしたレポートは、.tar.gz ファイルとしてブラウザーをダウンロードできる場所に保存されます (例 : report_id_224_20190702_173309.tar.gz)。ファイル名の形式は report_id_ID_DATE_TIME.tar.gz です。ID は、サーバーによって割り当てられる一意のレポート ID です。DATEyyyymmdd 形式の日付で、TIME は 24 時間システムに基づいた hhmmss 形式の時間です。日付および時間のデータは、クライアントをサーバー API と共に実行しているブラウザーとの対話によって決定されます。

レポートを表示するには、.tar.gz ファイルを report_id_ID ディレクトリーに展開します。展開したレポートバンドルには 4 つのレポートファイルが含まれます (CSV 形式および JSON 形式の 2 つの詳細レポートと、CSV 形式および JSON 形式の 2 つのデプロイメントレポートが含まれます。

これらのレポートの出力を独自の内部プロセスで表示および使用できますが、その形式は、お客様との契約時にの関与中や他の Red Hat 内部プロセスで Red Hat Subscription Education and Awareness Program (SEAP) で使用するため、および他の Red Hat 社内プロセス向けに設計されています。

11.2. レポートの作成方法

スキャンプロセスは、IT インフラストラクチャーでシステムを検出し、それらのシステムの性質および内容に関する情報を収集し、各システムの調査中に収集した情報からレポートを作成するために使用されます。

system は、SSH 接続、vCenter Server データ、または Satellite Server API を使用して検査タスクに質問できるエンティティーです。したがって、システムは、物理マシンや仮想マシンなどのマシンとなり、コンテナーなどの異なるタイプのエンティティーになることもできます。

11.2.1. ファクトとフィンガープリント

スキャン中、各ソースに含まれるシステムごとにファクトのコレクションが収集されます。ファクト とは、オペレーティングシステムのバージョン、CP U コアの数、Red Hat 製品の消費されたエンタイトルメントなど、システムに関する単一のデータです。

ファクトは、各システム用に要約された一連のデータ (フィンガープリントとして知られているデータ) を作成するために処理されます。フィンガープリント とは、アーキテクチャー、オペレーティングシステム、そのシステムにインストールされているさまざまな製品とそのバージョン、そのシステムで使用されるエンタイトルメントなど、一意のシステムとその特性を特定する一連のファクトです。

スキャンジョブを実行すると、フィンガープリントデータが生成されますが、データは 1 種類のレポートのみを作成するために使用されます。詳細レポートを要求すると、フィンガープリントなしのスキャンの未加工のファクトが表示されます。デプロイメントレポートを要求すると、重複排除、マージ、処理後のプロセスからの結果を含むフィンガープリントデータを受け取ります。これらのプロセスには、未加工のファクトからインストールされた製品とバージョンの特定、使用されたエンタイトルメントの検索、さまざまなソースからの製品の重複インスタンスの検索とマージ、デフォルト以外の場所にインストールされた製品の検索などが含まれます。

11.2.2. システムの重複排除とマージ

単一のシステムは、スキャン中に複数のソースを確認できます。たとえば、vCenter Server 上の仮想マシンは、Satellite にも管理される Red Hat Enterprise Linux オペレーティングシステムのインストールを実行できます。各タイプの source、vcenter、satellite、および network が含まれるスキャンを作成する場合、その 1 つのシステムはスキャン中に 3 つの全ソースによって報告されます。

この問題を解決して正確なフィンガープリントを構築するには、スキャンから未処理のシステムのファクトをフィンガーエンジンに提供します。フィンガープリントエンジンは、重複排除とマージプロセスを使用して、複数のソースにあるシステムのデータを照合し、マージします。

11.2.2.1. システムの重複排除

システムの重複排除プロセスは、システムに関する特定のファクトを使用して、重複システムを特定します。このプロセスは、これらのファクトを使用して複数のフェーズに移動し、連続して詳細なデータセットで重複したシステムを組み合わせます。

  • ネットワークソースのすべてのシステムは、1 つのネットワークシステムセットに統合されます。システムは、subscription_manager_id ファクトまたは bios_uuid ファクトに同じ値がある場合は、重複しているとみなされます。
  • vcenter ソースからのすべてのシステムは、1 つの vcenter システムセットに統合されます。vm_uuid ファクトに同じ値がある場合、システムは重複していると見なされます。
  • satellite ソースのすべてのシステムは、1 つのサテライトシステムセットに統合されます。subscription_manager_id ファクトに同じ値がある場合、システムは重複していると見なされます。
  • ネットワークシステムセットは、単一の network-satellite システムセットを形成するために設定された Satellite システムとマージされます。subscription_manager に同じ値がある場合や、mac_addresses ファクトで MAC アドレスの値と一致する場合は、システムが重複していると見なされます。
  • network-satellite システムセットは、完全なシステムセットを形成する vcenter システムとマージされます。mac_addresses ファクトで MAC アドレス値が一致する場合や、 vm_uuid ファクトの vcenter 値が、bios_uuid ファクトのネットワーク値と一致する場合は、システムが重複していると見なされます。

11.2.2.2. システムのマージ

重複排除プロセスで 2 つのシステムが重複していると判断した後、次の手順では、2 つのシステムのマージを実行します。マージされたシステムには、各ソースからのシステムファクトがまとめられています。2 つのシステムで表示されるファクトがマージされると、マージプロセスでは、以下の順序で、そのファクトを上から下にマージします。

  1. network ソースファクト
  2. satellite ソースファクト
  3. vCenter ソースファクト

システムフィンガープリントには、そのシステムに対する各ファクトの元のソースを取得する metadata ディクショナリーが含まれています。

11.2.3. システム後処理

重複排除とマージが完了したら、派生したシステムファクトを作成する処理後のフェーズがあります。派生したシステムファクト は、複数のシステムファクトの評価から生成されたファクトです。派生したシステムファクトの大半は、特定の製品とそのバージョンの存在など、製品識別データに関連します。

以下の例は、派生したシステムファクト system_creation_date の作成方法を示しています。

system_creation_date ファクトは、実際のシステム作成時間が含まれる派生システムファクトです。このファクトの値は、以下のファクトの評価によって決まります。各ファクトの値は、次の優先順位で検査されます。優先順位は、実際のシステム作成時間との一致の精度によって決まります。system_creation_date ファクトの値を判断するために、空でない最大値が使用されます。

  1. date_machine_id
  2. registration_time
  3. date_anaconda_log
  4. date_filesystem_create
  5. date_yum_history

11.2.4. レポートの作成

レポートデータの処理が完了すると、レポート作成プロセスは、JSON (JavaScript Object Notation) およびコンマ区切り変数 (CSV) の 2 つの異なる形式でレポートを作成します。各フォーマットの 詳細 レポートには、未処理で未加工なファクトが含まれ、各形式の デプロイメント レポートには、フィンガープリント、重複排除、マージ、および処理後のプロセスで未処理のファクトが渡された後の出力が含まれます。

これらのレポートの出力を独自の内部プロセスで表示および使用できますが、その形式は、お客様との契約時にの関与中や他の Red Hat 内部プロセスで Red Hat Subscription Education and Awareness Program (SEAP) で使用するため、および他の Red Hat 社内プロセス向けに設計されています。

11.2.5. フィンガープリントの例

フィンガープリントは、システム上の製品、エンタイトルメント、ソース、メタデータに加えて、1 つのシステムに関するファクトのセットで設定されています。以下の例は、フィンガープリントデータを示しています。Red Hat 製品がほとんどインストールされていない場合でも、1 台システムのフィンガープリント行は多くなる可能性があります。したがって、この例では部分的なフィンガープリントのみが使用されます。

{
    "os_release": "Red Hat Enterprise Linux Atomic Host 7.4",
    "cpu_count": 4,
    "products": [
        {
            "name": "JBoss EAP",
            "version": null,
            "presence": "absent",
            "metadata": {
                "source_id": 5,
                "source_name": "S62Source",
                "source_type": "satellite",
                "raw_fact_key": null
            }
        }
    ],
    "entitlements": [
        {
            "name": "Satellite Tools 6.3",
            "entitlement_id": 54,
            "metadata": {
                "source_id": 5,
                "source_name": "S62Source",
                "source_type": "satellite",
                "raw_fact_key": "entitlements"
            }
        }
    ],
    "metadata": {
        "os_release": {
            "source_id": 5,
            "source_name": "S62Source",
            "source_type": "satellite",
            "raw_fact_key": "os_release"
        },
        "cpu_count": {
            "source_id": 4,
            "source_name": "NetworkSource",
            "source_type": "network",
            "raw_fact_key": "os_release"
        }
    },
    "sources": [
        {
            "id": 4,
            "source_type": "network",
            "name": "NetworkSource"
        },
        {
            "id": 5,
            "source_type": "satellite",
            "name": "S62Source"
        }
    ]
}

フィンガープリントの最初の数行は、オペレーティングシステムや CPU に関するファクトを含む、システムに関するファクトを示しています。この例では、os_release ファクトで、インストールされているオペレーティングシステムとリリースが Red Hat Enterprise Linux Atomic Host 7.4 として説明されています。

次に、フィンガープリントは、products セクションにインストールされている製品を一覧表示します。製品には、name、version、presence、および metadata フィールドがあります。プレゼンスフィールドには、JBoss EAP の値として absent が表示されるため、この例のシステムには JBoss EAP がインストールされていません。

また、フィンガープリントには、entitlements セクションで、そのシステムの消費済みエンタイトルメントも表示されます。リストの各エンタイトルメントには、そのファクトの元のソースを記述する名前、ID、メタデータがあります。フィンガープリントのサンプルでは、システムに Satellite Tools 6.3 のエンタイトルメントがあります。

products セクションおよび entitlements セクションにあるメタデータフィールドに加えて、フィンガープリントには、システムファクトメタデータに使用される metadata セクションが含まれます。システムファクトごとに、フィンガープリントの metadata セクションに、そのシステムファクトの元のソースを識別する対応するエントリーがあります。この例では、Satellite Server で os_release ファクトがサテライトソースのスキャンで検出されました。

最後に、フィンガープリントは、sources セクションにこのシステムを含むソースを一覧表示します。システムは、複数のソースに含めることができます。たとえば、network ソースと satellite ソースの両方を含むスキャンの場合、1 台のシステムスキャンの両方の部分で見つかります。

第12章 レポートのマージ

IT インフラストラクチャーのスキャンタスクをいくつかの個別のスキャンに分割する場合は、これらのスキャンの出力を 1 つのレポートにマージできます。

マージされたレポートもマージ時にダウンロードされるため、そのスキャン中に収集および処理されたデータを表示できます。スキャンのレポートは、コンマ区切り変数 (CSV) 形式と JavaScript Object Notation (JSON) 形式という 2 つの形式で利用できます。また、これらは 2 つのコンテンツタイプで利用できます。スキャンからの raw 出力は、詳細レポートと、デプロイメントレポートとして処理されたコンテンツです。

詳細情報

レポートをマージし、マージされたレポートをダウンロードする方法は、以下の情報を参照してください。

レポートの作成方法の詳細は、以下の情報を参照してください。この情報には、詳細レポートの未加工のファクトをフィンガープリントデータに変更し、フィンガープリントデータをデプロイメントレポートの重複排除およびマージされたデータに変更するプロセスの配列が含まれます。この情報には、検出レポートの作成に使用されるデータの種類を示す部分的なフィンガープリントの例も含まれます。

12.1. レポートのマージ

Scans ビューで、2 つ以上のレポートを選択し、1 つのレポートにマージできます。

以下の例を含む、レポートをマージすることを選択する理由はいくつかあります。

  • 大規模な IT インフラストラクチャーにさまざまな管理者が存在し、それぞれがそのインフラストラクチャーの一部のみにアクセスしてスキャンできるとします。
  • 複数のスキャンを実行して、スキャンされるマシンの CPU リソースに対する要求を制限することができます (特に、詳細なスキャンが必要な場合)。
  • 1 つのタイプのソースでスキャンを実行し、network、satellite、および vcenter データを独自の内部目的のための個別のレポートに分離し、後でこれらのレポートをマージすることができます。

このような類似の理由から、複数のスキャンを実行して IT インフラストラクチャー全体を対象とする完全なスキャンを提供できます。レポートをマージすると、複数のスキャンのデータを 1 つのレポートに統合できます。

前提条件

レポートをマージするには、最新のスキャンジョブが正常に完了したスキャンを 2 つ以上選択する必要があります。

手順

  1. Scans ビューで、1 つ以上のスキャンのチェックボックスを選択します。
  2. Merge reports をクリックします。確認ダイアログボックスに、選択したスキャンが表示されます。
  3. Merge をクリックしてスキャンを 1 つのレポートにマージし、マージされたレポートをダウンロードします。

検証手順

マージされたレポートは、.tar.gz ファイルとしてブラウザーをダウンロードできる場所に保存されます (例 : report_id_110_20190529_095005.tar.gz)。ファイル名の形式は report_id_ID_DATE_TIME.tar.gz です。ID は、サーバーによって割り当てられる一意のレポート ID です。DATEyyyymmdd 形式の日付で、TIME は 24 時間システムに基づいた hhmmss 形式の時間です。日付および時間のデータは、クライアントをサーバー API と共に実行しているブラウザーとの対話によって決定されます。

レポートを表示するには、.tar.gz ファイルを report_id_ID ディレクトリーに展開します。展開したレポートバンドルには 4 つのレポートファイルが含まれます (CSV 形式および JSON 形式の 2 つの詳細レポートと、CSV 形式および JSON 形式の 2 つのデプロイメントレポートが含まれます。

これらのレポートの出力を独自の内部プロセスで表示および使用できますが、その形式は、お客様との契約時にの関与中や他の Red Hat 内部プロセスで Red Hat Subscription Education and Awareness Program (SEAP) で使用するため、および他の Red Hat 社内プロセス向けに設計されています。

12.2. レポートの作成方法

スキャンプロセスは、IT インフラストラクチャーでシステムを検出し、それらのシステムの性質および内容に関する情報を収集し、各システムの調査中に収集した情報からレポートを作成するために使用されます。

system は、SSH 接続、vCenter Server データ、または Satellite Server API を使用して検査タスクに質問できるエンティティーです。したがって、システムは、物理マシンや仮想マシンなどのマシンとなり、コンテナーなどの異なるタイプのエンティティーになることもできます。

12.2.1. ファクトとフィンガープリント

スキャン中、各ソースに含まれるシステムごとにファクトのコレクションが収集されます。ファクト とは、オペレーティングシステムのバージョン、CP U コアの数、Red Hat 製品の消費されたエンタイトルメントなど、システムに関する単一のデータです。

ファクトは、各システム用に要約された一連のデータ (フィンガープリントとして知られているデータ) を作成するために処理されます。フィンガープリント とは、アーキテクチャー、オペレーティングシステム、そのシステムにインストールされているさまざまな製品とそのバージョン、そのシステムで使用されるエンタイトルメントなど、一意のシステムとその特性を特定する一連のファクトです。

スキャンジョブを実行すると、フィンガープリントデータが生成されますが、データは 1 種類のレポートのみを作成するために使用されます。詳細レポートを要求すると、フィンガープリントなしのスキャンの未加工のファクトが表示されます。デプロイメントレポートを要求すると、重複排除、マージ、処理後のプロセスからの結果を含むフィンガープリントデータを受け取ります。これらのプロセスには、未加工のファクトからインストールされた製品とバージョンの特定、使用されたエンタイトルメントの検索、さまざまなソースからの製品の重複インスタンスの検索とマージ、デフォルト以外の場所にインストールされた製品の検索などが含まれます。

12.2.2. システムの重複排除とマージ

単一のシステムは、スキャン中に複数のソースを確認できます。たとえば、vCenter Server 上の仮想マシンは、Satellite にも管理される Red Hat Enterprise Linux オペレーティングシステムのインストールを実行できます。各タイプの source、vcenter、satellite、および network が含まれるスキャンを作成する場合、その 1 つのシステムはスキャン中に 3 つの全ソースによって報告されます。

この問題を解決して正確なフィンガープリントを構築するには、スキャンから未処理のシステムのファクトをフィンガーエンジンに提供します。フィンガープリントエンジンは、重複排除とマージプロセスを使用して、複数のソースにあるシステムのデータを照合し、マージします。

12.2.2.1. システムの重複排除

システムの重複排除プロセスは、システムに関する特定のファクトを使用して、重複システムを特定します。このプロセスは、これらのファクトを使用して複数のフェーズに移動し、連続して詳細なデータセットで重複したシステムを組み合わせます。

  • ネットワークソースのすべてのシステムは、1 つのネットワークシステムセットに統合されます。システムは、subscription_manager_id ファクトまたは bios_uuid ファクトに同じ値がある場合は、重複しているとみなされます。
  • vcenter ソースからのすべてのシステムは、1 つの vcenter システムセットに統合されます。vm_uuid ファクトに同じ値がある場合、システムは重複していると見なされます。
  • satellite ソースのすべてのシステムは、1 つのサテライトシステムセットに統合されます。subscription_manager_id ファクトに同じ値がある場合、システムは重複していると見なされます。
  • ネットワークシステムセットは、単一の network-satellite システムセットを形成するために設定された Satellite システムとマージされます。subscription_manager に同じ値がある場合や、mac_addresses ファクトで MAC アドレスの値と一致する場合は、システムが重複していると見なされます。
  • network-satellite システムセットは、完全なシステムセットを形成する vcenter システムとマージされます。mac_addresses ファクトで MAC アドレス値が一致する場合や、 vm_uuid ファクトの vcenter 値が、bios_uuid ファクトのネットワーク値と一致する場合は、システムが重複していると見なされます。

12.2.2.2. システムのマージ

重複排除プロセスで 2 つのシステムが重複していると判断した後、次の手順では、2 つのシステムのマージを実行します。マージされたシステムには、各ソースからのシステムファクトがまとめられています。2 つのシステムで表示されるファクトがマージされると、マージプロセスでは、以下の順序で、そのファクトを上から下にマージします。

  1. network ソースファクト
  2. satellite ソースファクト
  3. vCenter ソースファクト

システムフィンガープリントには、そのシステムに対する各ファクトの元のソースを取得する metadata ディクショナリーが含まれています。

12.2.3. システム後処理

重複排除とマージが完了したら、派生したシステムファクトを作成する処理後のフェーズがあります。派生したシステムファクト は、複数のシステムファクトの評価から生成されたファクトです。派生したシステムファクトの大半は、特定の製品とそのバージョンの存在など、製品識別データに関連します。

以下の例は、派生したシステムファクト system_creation_date の作成方法を示しています。

system_creation_date ファクトは、実際のシステム作成時間が含まれる派生システムファクトです。このファクトの値は、以下のファクトの評価によって決まります。各ファクトの値は、次の優先順位で検査されます。優先順位は、実際のシステム作成時間との一致の精度によって決まります。system_creation_date ファクトの値を判断するために、空でない最大値が使用されます。

  1. date_machine_id
  2. registration_time
  3. date_anaconda_log
  4. date_filesystem_create
  5. date_yum_history

12.2.4. レポートの作成

レポートデータの処理が完了すると、レポート作成プロセスは、JSON (JavaScript Object Notation) およびコンマ区切り変数 (CSV) の 2 つの異なる形式でレポートを作成します。各フォーマットの 詳細 レポートには、未処理で未加工なファクトが含まれ、各形式の デプロイメント レポートには、フィンガープリント、重複排除、マージ、および処理後のプロセスで未処理のファクトが渡された後の出力が含まれます。

これらのレポートの出力を独自の内部プロセスで表示および使用できますが、その形式は、お客様との契約時にの関与中や他の Red Hat 内部プロセスで Red Hat Subscription Education and Awareness Program (SEAP) で使用するため、および他の Red Hat 社内プロセス向けに設計されています。

12.2.5. フィンガープリントの例

フィンガープリントは、システム上の製品、エンタイトルメント、ソース、メタデータに加えて、1 つのシステムに関するファクトのセットで設定されています。以下の例は、フィンガープリントデータを示しています。Red Hat 製品がほとんどインストールされていない場合でも、1 台システムのフィンガープリント行は多くなる可能性があります。したがって、この例では部分的なフィンガープリントのみが使用されます。

{
    "os_release": "Red Hat Enterprise Linux Atomic Host 7.4",
    "cpu_count": 4,
    "products": [
        {
            "name": "JBoss EAP",
            "version": null,
            "presence": "absent",
            "metadata": {
                "source_id": 5,
                "source_name": "S62Source",
                "source_type": "satellite",
                "raw_fact_key": null
            }
        }
    ],
    "entitlements": [
        {
            "name": "Satellite Tools 6.3",
            "entitlement_id": 54,
            "metadata": {
                "source_id": 5,
                "source_name": "S62Source",
                "source_type": "satellite",
                "raw_fact_key": "entitlements"
            }
        }
    ],
    "metadata": {
        "os_release": {
            "source_id": 5,
            "source_name": "S62Source",
            "source_type": "satellite",
            "raw_fact_key": "os_release"
        },
        "cpu_count": {
            "source_id": 4,
            "source_name": "NetworkSource",
            "source_type": "network",
            "raw_fact_key": "os_release"
        }
    },
    "sources": [
        {
            "id": 4,
            "source_type": "network",
            "name": "NetworkSource"
        },
        {
            "id": 5,
            "source_type": "satellite",
            "name": "S62Source"
        }
    ]
}

フィンガープリントの最初の数行は、オペレーティングシステムや CPU に関するファクトを含む、システムに関するファクトを示しています。この例では、os_release ファクトで、インストールされているオペレーティングシステムとリリースが Red Hat Enterprise Linux Atomic Host 7.4 として説明されています。

次に、フィンガープリントは、products セクションにインストールされている製品を一覧表示します。製品には、name、version、presence、および metadata フィールドがあります。プレゼンスフィールドには、JBoss EAP の値として absent が表示されるため、この例のシステムには JBoss EAP がインストールされていません。

また、フィンガープリントには、entitlements セクションで、そのシステムの消費済みエンタイトルメントも表示されます。リストの各エンタイトルメントには、そのファクトの元のソースを記述する名前、ID、メタデータがあります。フィンガープリントのサンプルでは、システムに Satellite Tools 6.3 のエンタイトルメントがあります。

products セクションおよび entitlements セクションにあるメタデータフィールドに加えて、フィンガープリントには、システムファクトメタデータに使用される metadata セクションが含まれます。システムファクトごとに、フィンガープリントの metadata セクションに、そのシステムファクトの元のソースを識別する対応するエントリーがあります。この例では、Satellite Server で os_release ファクトがサテライトソースのスキャンで検出されました。

最後に、フィンガープリントは、sources セクションにこのシステムを含むソースを一覧表示します。システムは、複数のソースに含めることができます。たとえば、network ソースと satellite ソースの両方を含むスキャンの場合、1 台のシステムスキャンの両方の部分で見つかります。