11.3. サポートされるボリュームオプション

以下の表は、利用可能なボリュームオプションとその説明およびデフォルト値を一覧表示しています。
重要
デフォルト値は変更される可能性がありますが、Red Hat Gluster Storage のすべてのバージョンで同じとは限りません。

表11.1 ボリュームのオプション

オプション値の説明許可される値デフォルト値
auth.allowボリュームにアクセスできるクライアントの IP アドレスまたはホスト名。* を含むワイルドカードパターンを含む、有効なホスト名または IP アドレス。例: 192.168.1.*コンマで区切ったアドレスのリストは受け入れ可能ですが、1 つのホスト名を 256 文字を超えることはできません。* (すべて許可)
auth.reject
ボリュームへのアクセスが拒否された FUSE クライアントの IP アドレスまたはホスト名。NFS アクセス制御の場合は、代わりに nfs.rpc-auth-* オプションを使用します。
auth.reject が優先され、auth.allow を上書きします。auth.allow と auth.reject に同じ IP アドレスが含まれる場合は、auth.reject を考慮します。
* を含むワイルドカードパターンを含む、有効なホスト名または IP アドレス。例: 192.168.1.*コンマで区切ったアドレスのリストは受け入れ可能ですが、1 つのホスト名を 256 文字を超えることはできません。none (拒否なし)
changelogchangelog トランスレーターがすべてのファイル操作を記録できるようにします。on | offoff
client.event-threadsRed Hat Gluster Storage ノードにアクセスするクライアントプロセスで同時に処理されるネットワーク接続の数を指定します。1 - 322
client.strict-locksこのオプションを有効にすると、POSIX ロックが保持されていれば、再接続後に保存された fds を再度開きません。したがって、これらの fds での後続の操作は失敗します。これは、クライアントが切断されたときに、許可されたロックのブリック消去としてより厳格なロックコンプライアンスに必要です。on | offoff
重要
client.strict-locks オプションを有効にする前に、すべてのサーバーとクライアントを RHGS-3.5.5 にアップグレードします。
cluster.background-self-heal-count同時に発生する可能性がある最大の修復操作数。この数の過半数を超える要求は、cluster.heal-wait-queue-leng によって定義される長さがキューに保存されます。0–2568
cluster.brick-multiplex
Red Hat Gluster Storage 3.3 以降で利用可能です。すべてのボリュームでブリック多重化を使用するかどうかを制御します。Red Hat は、ブリックマルチプレッシングを有効または無効にすると、ボリュームを再起動することを推奨します。off (デフォルト) に設定すると、各ブリックには独自のプロセスがあり、独自のポートを使用します。on に設定すると、相互に互換性のあるブリックは同じプロセスとポートを使用します。これにより、ブリックメモリーごとの使用量とポートの消費が減ります。
ブリック互換性は、ボリュームの開始時に決定され、ブリック間で共有されるボリュームオプションにより異なります。多重化が有効な場合は、1 つのプロセスでグループ化されたブリックの互換性を維持するために、ボリューム設定が変更されるたびに再起動します。
on | offoff
cluster.consistent-metadata
on に設定すると、Automatic File Replication 機能の readdirp 関数は、ファイル/ディレクトリーの適切なコピー (修復しないコピー) を保持している限り、それぞれの読み取り子からメタデータを常にフェッチします。ただし、これにより、readdirps が関与するパフォーマンスが低下する可能性があります。
このオプションでは、ボリュームがクライアントに再マウントされる必要があります。
on | offoff
cluster.granular-entry-heal
有効にすると、レプリカのブリックがダウンされている間に、ディレクトリーから作成、または削除されたエントリーに関するより詳細な情報を保存します。これは、特に多数のエントリーを持つディレクトリーがエントリーの作成または削除によって変更される場合に、ディレクトリーの自己修復に役立ちます。disable に設定すると、ディレクトリー内のどのエントリーを修復する必要があるかについての情報なしに、ディレクトリー修復の必要性情報を保存するため、変更を特定するにはディレクトリー全体が必要になります。
enable | disableenable
重要
gluster volume set VOLNAME cluster.granular-entry-heal [enable | disable] コマンドは、ボリュームが Created 状態にある場合にのみ実行します。ボリュームが Created 以外の状態にある場合(例: StartedStopped など)、gluster volume heal VOLNAME granular-entry-heal [enable | disable] コマンドを実行して、granular-entry-heal オプションを有効または無効にします。
重要
新規デプロイメントおよび Red Hat Gluster Storage 3.5.4 にアップグレードする既存デプロイメントの場合、cluster.granular-entry-heal オプションはデフォルトで複製ボリュームに対して有効になります。
cluster.heal-wait-queue-lengcluster.background-self-heal-count と同等の修復操作がすでに進行中である heal 操作の最大要求数。このキューが満杯になると、それら修復リクエストは無視されます。0-10000128
cluster.lookup-optimize
このオプションを on に設定すると、ハッシュされたサブボリュームがルックアップの結果が返されない場合は、ハッシュのないサブボリュームを検索し、ネガティブルックアップが最適化されます。
既存のボリュームでは、アップグレード後に作成されたディレクトリーでルックアップの最適な動作が有効になります。リバランス操作は、ルックアップの最適化を使用するには、既存のすべてのディレクトリーで実行する必要があります。
新規ボリュームでは、ボリュームのルートを除き、lookup-optimize 動作がデフォルトで有効になります。ボリュームのルートの lookup-optimize を有効にするには、リバランス操作を実行します。
on|offon (Red Hat Gluster Storage 3.4 以降)
cluster.max-bricks-per-process
glusterfsd プロセスの 1 つのインスタンスで実行可能なブリックの最大数。
Red Hat Gluster Storage 3.4 Batch 2 Update の時点で、このオプションのデフォルト値が 250 に設定されます。これにより、コンテナーベースのワークロードのリソース使用状況をより適切に制御できます。以前のバージョンでは、デフォルト値は 0 で、ノード上のすべてのブリックに単一のプロセスを使用していました。
このオプションの値を更新しても、現在実行中のブリックには影響しません。ボリュームを再起動して、既存のブリックのこの設定を変更します。
0 からシステムの最大値 (1 以上の正の整数)250
cluster.min-free-disk空き領域を解放する必要があるディスク領域の割合を指定します。これは、単項以外のブリックに役立ちます。必要な最小ディスクの空き容量の割合。10%
cluster.op-versionクラスターのオペレーティングバージョンを設定できます。op-version 番号はダウングレードできず、クラスター内のすべてのボリュームに設定されます。op-version は、gluster volume info コマンドの出力の一部として一覧表示されません。30708 | 30712 | 31001 | 31101 | 31302 | 31303 | 31304 | 31305 | 31306 | 70200デフォルト値は、最初にインストールした Red Hat Gluster Storage バージョンによって異なります。Red Hat Gluster Storage 3.5 では、新しいデプロイメント用に値は 70200 に設定されます。
cluster.read-freq-threshold昇格/降格サイクルで読み取りの数を指定します。これは、昇格のために HOT をマークします。ヒット数がこの値よりも小さいファイルは COLD として考慮され、降格されます。0-200
cluster.self-heal-daemonレプリケートしたボリュームに対するプロアクティブな自己修復がアクティベートするかどうかを指定します。on | offon
cluster.server-quorum-ratio信頼できるストレージプールのクォーラムパーセンテージを設定します。0 - 100>50%
cluster.server-quorum-typeserver に設定すると、指定したボリュームがサーバー側のクォーラムに参加できるようになります。server-side quorum を設定する方法は、「サーバー側のクォーラムの設定」を参照none | servernone
cluster.quorum-count 書き込みを許可するために使用できる必要があるブリックの最小数を指定します。これはボリュームごとに設定されます。このオプションは、書き込み動作を決定するために cluster.quorum-type オプションによって使用されます。有効な値は、1 からレプリカセットのからブリックの数になります。null
cluster.quorum-typeクライアントがボリュームへの書き込みを許可されるタイミングを決定します。client-side quorum を設定する方法は、「クライアント側クォーラムの設定」を参照 none | fixed | autoauto
cluster.shd-max-threadsself-heal デーモンにより、各レプリカで並行して自己修復できるエントリーの数を指定します。1 - 641
cluster.shd-max-threadsself-heal デーモンにより、各レプリカで並行して自己修復できるエントリーの数を指定します。1 - 641
cluster.shd-wait-qlengthスレッドのいずれかが解放されるとすぐに起動するように、自己修復デーモンスレッドがキューに保持する必要のあるエントリーの数を指定します。この値は、次のエントリーセットを修復するために必要なメモリー自己修復デーモンプロセスのサイズに応じて変更する必要があります。1 - 6555361024
cluster.shd-wait-qlengthスレッドのいずれかが解放されるとすぐに起動するように、自己修復デーモンスレッドが分散サブボリュームのキューに保持する必要のあるエントリーの数を指定します。この値は、次のエントリーセットを修復するために必要なメモリー自己修復デーモンプロセスのサイズに応じて変更する必要があります。1 - 6555361024
cluster.tier-demote-frequencytier デーモンが降格するファイルを確認する頻度を指定します。1 - 172800 秒3600 秒
cluster.tier-max-files特定のサイクルの任意の方向の移行が可能なファイルの最大数を指定します。1-100000 ファイル10000
cluster.tier-max-mb特定のサイクルの任意の方向の移行が可能な最大 MB 数を指定します。1 -100000 (100 GB)4000 MB
cluster.tier-modecache モードに設定すると、ウォーターマークで指定されたとおりに、キャッシュが満杯かどうかに基づいてファイルをプロモートまたは降格します。test モードに設定すると、アクセスに基づいて定期的にファイルを降格またはプロモートします。test | cacheキャッシュ
cluster.tier-promote-frequencytier デーモンがファイルをプロモートする頻度を指定します。1- 172800 秒120 秒
cluster.use-anonymous-inode有効にすると、エントリー修復関連の問題を処理し、ディレクトリーの名前を効率的に修復します。on|offon(Red Hat Gluster Storage 3.5.4 以降)
cluster.use-compound-fops有効にすると、自動ファイルレプリケーションの一部として発生するトランザクションを書き込み、ネットワークラウンドトリップを削減し、パフォーマンスが向上します。on | offoff
cluster.watermark-hiプロモーションの上限ウォーターマーク。ホット層がこのパーセンテージを超える場合、昇格は発生せず、高い可能性で降格が発生します。1- 99 %90%
cluster.watermark-low基準の割合が低いhot layer が満杯でない場合は、昇格が発生し、降格は発生しません。これよりも大きい場合は、hot layer がどの程度完全なかに対比して昇格/降格が発生します。1- 99 %75%
cluster.write-freq-threshold昇格/降格サイクルにおいて、昇格のためにファイル HOT をマークする書き込みの数を指定します。この値よりも小さい書き込みヒットは COLD として考慮され、降格されます。0-200
config.transportボリュームが通信をサポートするトランスポートのタイプを指定します。tcp OR rdma OR tcp,rdmatcp
diagnostics.brick-log-buf-sizeタイムアウトまたはバッファーオーバーフローのいずれかがブリックで最初に発生するまで抑制できる一意のログメッセージの最大数。0 および 20 (0 と 20 を含む)5
diagnostics.brick-log-flush-timeoutログメッセージがバッファーされる期間。この期間。この間、ブリック上のロギングインフラストラクチャー (gluster または syslog ファイル) にフラッシュされます。30 - 300 秒 (30 および 300 が含まれる)120 秒
diagnostics.brick-log-formatログ形式を、メッセージ ID あり、またはブリックにメッセージなしでログを記録するように設定できます。no-msg-id | with-msg-idwith-msg-id
diagnostics.brick-log-levelブリックのログレベルを変更します。INFO | DEBUG | WARNING | ERROR | CRITICAL | NONE | TRACEinfo
diagnostics.brick-sys-log-levelこのオプションに定義された値に応じて、定義されたレベルのログメッセージが syslog と brick ログファイルで生成されます。INFO | WARNING | ERROR | CRITICALCRITICAL
diagnostics.client-log-buf-sizeタイムアウトまたはバッファーオーバーフローのいずれかがクライアントで最初に発生するまで抑制できる一意のログメッセージの最大数。0 および 20 (0 と 20 を含む)5
diagnostics.client-log-flush-timeoutログメッセージがバッファーされる期間。この期間。この間、クライアント上のロギングインフラストラクチャー (gluster または syslog ファイル) にフラッシュされます。30 - 300 秒 (30 および 300 が含まれる)120 秒
diagnostics.client-log-formatメッセージ ID またはクライアント上のメッセージなしでログに記録するようにログ形式を設定できます。no-msg-id | with-msg-idwith-msg-id
diagnostics.client-log-levelクライアントのログレベルを変更します。INFO | DEBUG | WARNING | ERROR | CRITICAL | NONE | TRACEinfo
diagnostics.client-sys-log-levelこのオプションに定義された値に応じて、定義されたレベルのログメッセージが syslog とクライアントログファイルで生成されます。INFO | WARNING | ERROR | CRITICALCRITICAL
disperse.eager-lockファイルの操作を開始する前に、ロックがファイルに配置されます。ロックは、ファイル操作が完了するまでそのまま有効になります。ファイル操作が完了したら、eager-lock がオンになっても、ロック競合が検出されるまで、または 1 秒間同じクライアントからそのファイルに別の要求があるかどうかを確認するためにロックが残ります。eager-lock がオフになっていると、ファイル操作の完了直後にロックがリリースされ、一部の操作のパフォーマンスが改善されますが、アクセス効率が低下します。on | offon
disperse.other-eager-lockこのオプションは disperse.eager-lock オプションと同じですが、通常のファイルにのみ適用されます。複数のクライアントが特定のディレクトリーにアクセスする場合は、ボリュームに disperse.other-eager-lockoption を無効にすると、通常のファイルに対する I/O のパフォーマンス低下することなく、ディレクトリーアクセスのパフォーマンスを改善できます。on | offon
disperse.other-eager-lock-timeoutエントリーの新しい操作が受信されない場合、通常のエントリーのロックが保持される最大時間 (秒単位)。0-601
disperse.shd-max-threadsself-heal デーモンによって、分散された各サブボリュームで並行して自己修復できるエントリーの数を指定します。1 - 641
disperse.shd-wait-qlengthスレッドのいずれかが解放されるとすぐに起動するように、自己修復デーモンスレッドが分散サブボリュームのキューに保持する必要のあるエントリーの数を指定します。この値は、次のエントリーセットを修復するために必要なメモリー自己修復デーモンプロセスのサイズに応じて変更する必要があります。1 - 6555361024
features.ctr_link_consistencyChange Time Recorder トランスレーターにより、ハードリンクの更新を記録するクラッシュの一貫した方法を有効にします。データ操作によってレイテンシーが高まるように、クラッシュで録画すると、より多くのレイテンシーが発生します。on | offoff
features.ctr-enabled階層化されたボリュームで Time Recorder (CTR) トランスレーターの変更を有効にします。このオプションは features.record-counters オプションと併用して、書き込みと読み取りの heat カウンターを記録します。on | offon
features.locks-notify-contentionこのオプションを有効にすると、ロック要求が現在の許可されたロックと競合すると、即座にリリースするよう、ロックの現在の所有者に upcall 通知が送信されます。yes | noはい
features.locks-notify-contention-delayこの値は、同じ inode 上の upcall 競合通知間の最小時間 (秒単位) を指定します。この期間に複数のロックリクエストを受け取ると、upcall は 1 つだけ送信されます。0-605
features.quota-deem-statfs (非推奨)
詳細は、9章ディレクトリークォータの管理 を参照してください。
このオプションを on に設定すると、ファイルシステムのサイズを見積もる間にクォータ制限が考慮されます。この制限は、ファイルシステムの実際のサイズではなく合計サイズとして処理されます。on | offon
features.read-onlyボリューム全体を、そのボリュームにアクセスするすべてのクライアントに対して読み取り専用としてマウントするかどうかを指定します。on | offoff
features.record-countersenabled に設定すると、cluster.write-freq-thresholdand cluster.read-freq-thresholdoptions は、移行をトリガーする前に必要な特定のファイルへの書き込みおよび読み取り数を定義します。on | offon
features.shardボリュームでのシャード化を有効または無効にします。ボリュームの設定後に作成されたファイルに影響します。enable | disabledisable
features.shard-block-sizeシャードが有効な場合にファイルの部分の最大サイズを指定します。ボリュームの設定後に作成されたファイルに影響します。512MB512MB
geo-replication.indexingマーカートランスレーターがボリュームの変更を追跡できるようにします。on | offoff
network.ping-timeoutクライアントがサーバーからの応答を待つ時間。タイムアウトが発生すると、クライアントの代わりにサーバーによって保持されるすべてのリソースがクリーンアップされます。接続が再確立されたら、クライアントがサーバー上で操作を再開する前に、すべてのリソースを再実行する必要があります。また、ロックを取得し、ロックテーブルが更新されます。再接続は非常にコストのかかる操作なので、回避する必要があります。42 秒42 秒
nfs.aclnfs.acl を無効にすると、NFSACL サイド帯域幅プロトコルのサポートが削除されます。これはデフォルトで有効になります。enable | disableenable
nfs.addr-namelookup受信クライアント接続の名前を検索するかどうかを指定します。一部の設定では、ネームサーバーが DNS クエリーに応答するために時間がかかりすぎる可能性があり、これによりマウント要求のタイムアウトが発生する可能性があります。このオプションを使用すると、アドレス認証中に名前の検索を無効にできます。名前検索を無効にすると、nfs.rpc-auth-*options でホスト名を使用できないことに注意してください。on | offoff
nfs.disable個々のボリュームの NFS エクスポートを無効にするかどうかを指定します。on | offoff
nfs.enable-ino32 64 ビットの inode 番号に対応していない nfs クライアントまたはアプリの場合は、このオプションを使用して、代わりに NFS が 32 ビットの inode 番号を返すようにします。デフォルトでは無効になっているため、NFS は 64 ビットの inode 番号を返します。この値はグローバルで、信頼できるストレージプール内のすべてのボリュームに適用されます。enable | disabledisable
nfs.export-volumesボリューム全体のエクスポートを有効または無効にします。このオプションが無効で、nfs.export-diroption が有効になっている場合は、サブディレクトリーをエクスポートのみとして設定できます。on | offon
nfs.mount-rmtabNFS クライアントの一覧およびマウントしたボリュームが含まれるキャッシュファイルへのパス。このファイルの場所をマウントした (すべてのストレージプールの glusterfs-fuse を使用)、ボリュームを使用するすべての NFS クライアントを、信頼済みプール全体に表示させます。このファイルのコンテンツは、showmount コマンドで取得できる情報を提供します。ディレクトリーへのパス/var/lib/glusterd/nfs/rmtab
nfs.mount-udpMOUNT サイド帯域幅プロトコルの UDP トランスポートを有効にします。デフォルトでは UDP は有効ではなく、MOUNT は TCP 上でのみ使用できます。一部の NFS クライアント (Solaris、HP-UX など) は TCP 上の MOUNT に対応しておらず、nfs.mount-udpmakes を有効にすることで、Red Hat Gluster Storage が提供する NFS エクスポートを使用できます。disable | enabledisable
nfs.nlmデフォルトでは、Network Lock Manager (NLMv4) が有効になっています。このオプションは、NLM を無効にします。Red Hat では、このオプションを無効にすることは推奨していません。on|offon
nfs.portglusterFS NFS をデフォルト以外のポートに関連付けます。1025-6099938465- 38467
nfs.ports-insecure非特権ポートからのクライアント接続を許可します。デフォルトでは、特権ポートのみが許可されます。これは、1 つのオプションを使用してすべてのエクスポートでセキュアでないポートを許可するためのグローバル設定です。on | offoff
nfs.rdirplusデフォルト値は、on です。このオプションをオフにすると、NFS は readdirp ではなく標準の readdir にフォールバックします。これを無効にすると、クライアントからルックアップおよび stat 要求が送信され、パフォーマンスに影響する可能性があります。on|offon
nfs.rpc-auth-allow IP_ADRESSESサーバーへの接続を許可する IP アドレスのコンマ区切りリスト。デフォルトでは、すべてのクライアントが許可されます。IP アドレスのコンマ区切りリストaccept all
nfs.rpc-auth-reject IP_ADRESSESサーバーへの接続が許可されていないアドレスのコンマ区切りリスト。デフォルトでは、すべての接続が許可されます。IP アドレスのコンマ区切りリストreject none
nfs.server-aux-gidsこれを有効にすると、NFS-server はボリュームにアクセスするユーザーのグループを解決します。NFSv3 は、RPC プロトコル (AUTH_UNIX/AUTH_SYS ヘッダー) によって 16 グループに制限されています。NFS- サーバーのグループを解決することで、この制限をバイパスできます。on|offoff
nfs.transport-typeブリックとの通信に GlusterFS NFS サーバーが使用するトランスポートを指定します。tcp OR rdmatcp
open-behindオープン呼び出しを受信するたびに、正常な通知をアプリケーションに送信して、アプリケーションのデータを読み取る機能が改善されます。on | offon
performance.cache-max-file-sizeio-cache トランスレーターによってキャッシュされる最大ファイルサイズを設定します。KB、MB、GB、TB、または PB の通常のサイズ記述子を使用して指定できます (例: 6 GB)。サイズ (バイト単位)、またはサイズ記述子を使用して指定します。2 ^ 64-1 バイト
performance.cache-min-file-sizeio-cache トランスレーターによってキャッシュされる最小のファイルサイズを設定します。KB、MB、GB、TB、または PB の通常のサイズ記述子を使用して指定できます (例: 6 GB)。サイズ (バイト単位)、またはサイズ記述子を使用して指定します。0
performance.cache-refresh-timeoutファイルのキャッシュされたデータを保持する秒数。このタイムアウト後、データの再検証が実行されます。0 - 61 秒1 秒
performance.cache-size読み取りキャッシュのサイズ。サイズ (バイト単位)、またはサイズ記述子を使用して指定します。32 MB
performance.client-io-threads最大 16 個のスレッドを並行して使用できるようにすることで、分散 (erasure-coded) ボリュームの単一マウントポイントからの並列 I/O のパフォーマンスを向上させます。これを有効にすると、デフォルトで 1 スレッドが使用され、最大 16 までのスレッドがクライアントのワークロードで必要なとおりに作成されます。これは、分散されて分散されるボリュームに便利です。この機能は、分散、複製または分散されたボリュームには推奨されません。これは、複製されたボリューム種別および分散レプリケーションのボリューム種別でデフォルトで無効にされます。on | offon (複製および分散されたボリュームを除く)
performance.flush-behindフラッシュファイルの操作がバックエンドファイルシステムに送信される前に、Write-behind トランスレーターがアプリケーションに成功を返して、バックグラウンドでフラッシュ操作を実行するかどうかを指定します。on | offon
performance.io-thread-countI/O スレッドトランスレーターのスレッド数。1 - 6416
performance.lazy-openこのオプションを使用するには、open-behind を有効化する必要があります。必要なファイル操作が到達した場合にのみ、バックエンドでオープンを実行します (ファイル記述子への書き込み、ファイルのリンクの切断など)。このオプションが無効になっている場合は、アンワインドオープンの直後にバックエンドを開きます。Yes/Noはい
performance.md-cache-timeoutメタデータキャッシュの更新時を制御する期間 (秒単位)。キャッシュの経過時間がこの期間を超える場合は、更新されます。キャッシュが更新されるたびに、その経過時間は 0 にリセットされます。0-600 秒1 秒
performance.nfs-strict-write-ordering書き込みが同じファイルまたは場所に関連しない場合でも、後で NFS の書き込みをオーバーラップしないようにするかどうかを指定します。on | offoff
performance.nfs.flush-behindフラッシュファイルの操作がバックエンドファイルシステムに送信される前に、(false) の成功をアプリケーションに返して、NFS の背景で write-behind トランスレーターがフラッシュ操作を実行するかどうかを指定します。on | offon
performance.nfs.strict-o-directNFS 上のファイルに対する I/O のキャッシュの影響を最小限に抑えるかどうかを指定します。このオプションが有効になり、O_DIRECT フラグを使用してファイル記述子が開かれると、そのファイル記述子に影響する書き込みでは、書き込みバックキャッシュが無効になります。このオプションが無効になっていると、O_DIRECT はキャッシュには影響しません。このオプションは、performance.write-behind が無効になっている場合は無視されます。on | offoff
performance.nfs.write-behind-trickling-writesNFS クライアントの write-behind トランスレーターの hardling-write ストラテジーを有効および無効にします。on | offon
performance.nfs.write-behind-window-size1 つのファイル、または NFS の場合は inode のサイズを指定します。512 KB - 1 GB1 MB
performance.quick-readボリュームでクイック読み取りトランスレーターを有効または無効にするには、以下を行います。on | offon
performance.rda-cache-limitこのオプションに指定された値は、readdir-ahead トランスレーターによって使用されるキャッシュの最大サイズです。この値はグローバルで、readdir-ahead によるメモリー消費の合計はこの値で制限されます (キャッシュされたディレクトリーの数/サイズに関係なく)。0-1GB10MB
performance.rda-request-sizeこのオプションに指定された値は、readdirp 応答でディレクトリーエントリーを保持するバッファーのサイズになります。4KB-128KB128KB
performance.resync-failed-syncs-after-fsyncfsync 操作が失敗する前に発行されたキャッシュ書き込みを同期した場合、このオプションで失敗した同期操作を再開するかどうかを設定します。on | offoff
performance.strict-o-directファイルに対する I/O のキャッシュの影響を最小限に抑えるかどうかを指定します。このオプションが有効になり、O_DIRECT フラグを使用してファイル記述子が開かれると、そのファイル記述子に影響する書き込みでは、書き込みバックキャッシュが無効になります。このオプションが無効になっていると、O_DIRECT はキャッシュには影響しません。このオプションは、performance.write-behind が無効になっている場合は無視されます。on | offoff
performance.strict-write-ordering書き込みが同じファイルまたは場所に関連しない場合でも、後で書き込みをオーバーラップしないようにするかどうかを指定します。on | offoff
performance.use-anonymous-fdこのオプションを使用するには、open-behind を有効化する必要があります。読み取り操作では、元のファイル記述子がオープンで、バックエンドで開かれていないときに匿名ファイル記述子を使用します。Yes | Noはい
performance.write-behindWrite-behind トランスレーターを有効または無効にします。on | offon
performance.write-behind-trickling-writesFUSE クライアントの write-behind トランスレーターの hardling-write ストラテジーを有効および無効にします。on | offon
performance.write-behind-window-size1 つのファイルまたは inode の書き込み動作バッファーのサイズを指定します。512 KB - 1 GB1 MB
rebal-throttleリバランスプロセスは、パフォーマンスを向上させるために複数のファイル移行を処理するためにマルチスレッドで実行されます。複数のファイルシステムの移行では、ストレージシステムのパフォーマンスに重大な影響を与える可能性があります。スロットリングメカニズムは、管理するために提供されます。lazy、normal、ggressivenormal
server.allow-insecure特権のないポートからの FUSE ベースのクライアント接続を許可します。デフォルトでは、ポートはセキュアでないポートからのメッセージを許可および拒否できることを意味します。無効にすると、特権ポートのみが許可されます。これは、1 つのオプションを使用してすべての FUSE ベースのエクスポートでセキュアでないポートを有効にするためのグローバル設定です。NFS アクセス制御に nfs.rpc-auth-* オプションを使用します。on | offon
server.anongidroot-squash が有効な場合に匿名ユーザーに使用される GID の値。root-squash を有効にすると、root GID (0) から受信したすべてのリクエストが匿名ユーザーの GID を持つように変更されます。0 - 429496729565534 (この UID は nfsnobody としても知られています)
server.anonuidroot-squash が有効な場合に匿名ユーザーに使用される UID の値。root-squash を有効にすると、root UID (0) から受信したすべてのリクエストが匿名ユーザーの UID になるよう変更されます。0 - 429496729565534 (この UID は nfsnobody としても知られています)
server.event-threadsRed Hat Gluster Storage ノードをホストするサーバープロセスで同時に処理されるネットワーク接続の数を指定します。1 - 321
server.gid-timeoutキャッシュグループの有効期限が切れる必要がある期間 (秒単位)。これは、指定のユーザー (UID) が属するグループ (GID) が含まれるキャッシュです。このオプションは、server.manage-gids が有効な場合にのみ使用されます。0-4294967295 秒2 秒
server.manage-gidsサーバー側のグループを解決します。このオプションを有効にすると、クライアントによる RPC 呼び出しで送信されたグループを使用するのではなく、ユーザー (UID) がサーバー上で解決されます。このオプションを使用すると、プロトコルがサポートするものよりも大きなグループ一覧に所属するユーザーにパーミッションチェックを適用できます (約 93)。on|offoff
server.root-squashroot ユーザーが root 権限を持たないようにするため、代わりに nfsnobody の特権を割り当てます。これにより、root ユーザーの権限が非表示になり、Red Hat Gluster Storage サーバー上の権限のないファイルを変更できません。このオプションは、glusterFS NFS プロトコルにのみ使用されます。on | offoff
server.statedump-pathstatedumpfiles を保存する必要のあるディレクトリーを指定します。/var/run/gluster (デフォルトインストール)ディレクトリーへのパス
ssl.crl-pathSSL 証明書失効リスト (CRL) を含むディレクトリーへのパスを指定します。このリストは、サーバーノードが、取り消された証明書のあるノードを停止し、クラスターにアクセスしないようにするのに役立ちます。CRL ファイルをホストするディレクトリーの絶対パス。null (デフォルト値なし。したがって、volume オプションを設定するまで空欄になります。)
storage.fips-mode-rchecksum有効にすると、posix_rchecksum は FIPS 準拠の SHA256 チェックサムを使用し、それ以外の場合は MD5 を使用します。on | offon
警告
Red Hat Gluster Storage 3.4 以前を使用するクライアントを使用するボリュームで、storage.fips-mode-rchecksum オプションを有効にしないでください。
storage.create-mask作成するファイルのパーミッションの最大セット (上限)。0000 - 07770777
storage. create-directory-mask作成するディレクトリーに対するパーミッションの最大セット (上限)0000 - 07770777
storage.force-create-mode作成されるファイルのパーミッションの最小セット (下限)。0000 - 07770000
storage.force-directory-mode作成されるディレクトリーのパーミッションの最小セット (下限)。0000 - 07770000
重要
マスクと一致する強制モードの両方 (create-directory-maskforce-directory-mode または create-mask force-create-mode) を同時に設定すると、計算されたファイルアクセスモードにおいて、動作は未定義になります。
storage.health-check-intervalファイルシステムのヘルスチェックの時間間隔を秒単位で設定します。このパラメーターを 0 に設定すると無効にできます。ブリック上の POSIX トランスレーターは定期的なヘルスチェックを実行します。この確認に失敗すると、brick によりエクスポートされるファイルシステムは使用できず、ブリックプロセス (glusterfsd) が警告をログに記録して終了します。0-4294967295 秒30 秒
storage.health-check-timeoutaio_write がヘルスチェックに終了するまで待機する時間を秒単位で設定します。無効にするには 0 に設定します。0-4294967295 秒20 秒
storage.owner-gidボリュームのブリック用の GID を設定します。このオプションは、一部のアプリケーションが、ブリックを正しく機能させるのに特定の GID を持たせるのに場合に必要になる場合があります。例: QEMU 統合の場合、UID/GID は qemu:qemu である必要があります。つまり、107:107 (107 は qemu の UID および GID) です。-1 以上の整数。ブリックの GID は変更されません。これは -1 で表されます。
storage.owner-uidボリュームのブリック用の UID を設定します。このオプションは、一部のアプリケーションにブリックを正しく機能させるのに特定の UID を必要とする場合に必要になる場合があります。例: QEMU 統合の場合、UID/GID は qemu:qemu である必要があります。つまり、107:107 (107 は qemu の UID および GID) です。-1 以上の整数。ブリックの UID は変更されません。これは -1 で表されます。
storage.reserve
POSIX トランスレーターには、ユーザーがブリックでディスク領域を予約できるオプションが含まれます。このオプションを使用すると、ブリックがほぼ満杯のときに、ユーザーがディスクまたはクラスターを拡張するのに十分な領域を確保できます。このオプションは、ディスクに storage.reserve の割合/サイズまたはそれより少ない空き領域がある場合に、新規ファイル作成を防ぎます。
storage.reserve は、パーセンテージまたはMB/GB 形式のいずれかの値を受け入れます。このボリュームオプションを MB/GB から MB/GB に再設定するには、同じボリュームオプションを指定します。また、最新のセット値も考慮されます。
0 に設定すると、storage.reserve が無効になります
0〜100% (パラメーターがパーセンテージの場合に適用可能)
または
nKB/MB/GB (サイズがパラメーターとして使用する場合は適用可能)、「n」は予約する必要がある正の整数です。
それぞれの例:
gluster volume set <vol-name> storage.reserve 15%
または
gluster volume set <vol-name> storage.reserve 100GB
1% (ブリックサイズの 1%)
注記
storage.reserve オプションを MB/GB に設定する際には、ブリックサイズに注意してください。たとえば、volume オプションの値が >= ブリックのサイズである場合、ブリック全体が予約されます。
このオプションは、サブボリュームレベルで機能します。
transport.listen-backlogキューに格納され、常に受け入れられるよう待機している、確立された TCP ソケット要求の最大数。0 からシステムの最大値1024