Red Hat Training

A Red Hat training course is available for Red Hat Fuse

181.2. オプション

Kafka コンポーネントは、以下にリストされている 8 個のオプションをサポートしています。

名前説明デフォルトタイプ

configuration (common)

エンドポイントが再利用する共通オプションを使用して、Kafka コンポーネントを事前設定できます。

 

KafkaConfiguration

brokers (Common)

使用する Kafka ブローカーの URL。形式は host1:port1,host2:port2 で、リストはブローカーのサブセットまたはブローカーのサブセットを指す VIP にすることができます。このオプションは、Kafka ドキュメントでは bootstrap.servers として知られています。

 

String

workerPool (advanced)

共有カスタムワーカープールを使用して、kafka サーバーが非同期のノンブロッキング処理を使用して KafkaProducer から送信されたメッセージを確認した後、Exchange のルーティングを続行します。このオプションを使用する場合は、スレッドプールのライフサイクルを処理して、不要になったときにプールをシャットダウンする必要があります。

 

ExecutorService

useGlobalSslContext Parameters (security)

グローバル SSL コンテキストパラメーターの使用を有効にします。

false

boolean

breakOnFirstError (consumer)

このオプションは、コンシューマーが交換を処理していて失敗した場合に何が起こるかを制御します。オプションが false の場合、コンシューマーは次のメッセージに進み、それを処理します。オプションが true の場合、コンシューマーは中断し、失敗の原因となったメッセージのオフセットに戻ってシークし、このメッセージの処理を再試行します。ただし、これは、たとえば有害なメッセージのように毎回失敗する場合、同じメッセージの無限の処理につながる可能性があります。したがって、Camel のエラーハンドラーを使用するなどして対処することをお勧めします。

false

boolean

allowManualCommit (consumer)

KafkaManualCommit による手動コミットを許可するかどうか。このオプションを有効にすると、KafkaManualCommit のインスタンスが Exchange メッセージヘッダーに格納されます。これにより、エンドユーザーはこの API にアクセスし、Kafka コンシューマーを介して手動でオフセットコミットを実行できます。

false

boolean

kafkaManualCommit Factory (consumer)

KafkaManualCommit インスタンスの作成に使用するファクトリー。これにより、カスタムファクトリーをプラグインしてカスタム KafkaManualCommit インスタンスを作成できます。これは、すぐに使用できるデフォルトの実装から逸脱する手動コミットを行うときに特別なロジックが必要な場合に備えています。

 

KafkaManualCommit ファクトリー

resolveProperty Placeholders (advanced)

起動時にコンポーネントがプロパティープレースホルダーを解決するかどうか。String タイプのプロパティーのみがプロパティープレースホルダーを使用できます。

true

boolean

Kafka エンドポイントは、URI 構文を使用して設定されます。

kafka:topic

パスおよびクエリーパラメーターを使用します。

181.2.1. パスパラメーター (1 個のパラメーター):

名前説明デフォルトタイプ

topic

必須 使用するトピックの名前。コンシューマーでは、コンマを使用して複数のトピックを区切ることができます。プロデューサーは、1 つのトピックにのみメッセージを送信できます。

 

文字列

181.2.2. クエリーパラメーター (93 個のパラメーター):

名前説明デフォルトタイプ

brokers (Common)

使用する Kafka ブローカーの URL。形式は host1:port1,host2:port2 で、リストはブローカーのサブセットまたはブローカーのサブセットを指す VIP にすることができます。このオプションは、Kafka ドキュメントでは bootstrap.servers として知られています。

 

String

clientId (common)

クライアント ID は、呼び出しの追跡に役立つように、各要求で送信されるユーザー指定の文字列です。要求を行っているアプリケーションを論理的に識別する必要があります。

 

String

headerFilterStrategy (common)

カスタムの HeaderFilterStrategy を使用して、Camel メッセージとの間でヘッダーをフィルタリングします。

 

HeaderFilterStrategy

reconnectBackoffMaxMs (common)

接続に繰り返し失敗したブローカーへの再接続時に待機する最大時間 (ミリ秒単位)。これが指定されている場合、ホストごとのバックオフは、連続して接続に失敗するたびに、この最大値まで指数関数的に増加します。バックオフの増加を計算した後、コネクションストームを回避するために 20% のランダムなジッターが追加されます。

1000

Integer

allowManualCommit (consumer)

KafkaManualCommit による手動コミットを許可するかどうか。このオプションを有効にすると、KafkaManualCommit のインスタンスが Exchange メッセージヘッダーに格納されます。これにより、エンドユーザーはこの API にアクセスし、Kafka コンシューマーを介して手動でオフセットコミットを実行できます。

false

boolean

autoCommitEnable (consumer)

true の場合、コンシューマーによってすでにフェッチされているメッセージのオフセットを ZooKeeper に定期的にコミットします。このコミットされたオフセットは、プロセスが失敗したときに、新しいコンシューマーが開始される位置として使用されます。

true

Boolean

autoCommitIntervalMs (consumer)

コンシューマーオフセットが Zookeeper にコミットされるミリ秒単位の頻度。

5000

Integer

autoCommitOnStop (consumer)

コンシューマーが停止したときに明示的な自動コミットを実行して、ブローカーが最後に消費されたメッセージからコミットされていることを確認するかどうか。これには、autoCommitEnable オプションをオンにする必要があります。可能な値は、sync、async、または none です。sync がデフォルト値です。

sync

String

autoOffsetReset (consumer)

ZooKeeper に初期オフセットがない場合、またはオフセットが範囲外の場合の対処方法: 最小 : オフセットを最小オフセットに自動的にリセットする 最大 : オフセットを最大オフセットに自動的にリセットする 失敗: コンシューマーに例外を出力する

latest

String

breakOnFirstError (consumer)

このオプションは、コンシューマーが交換を処理していて失敗した場合に何が起こるかを制御します。オプションが false の場合、コンシューマーは次のメッセージに進み、それを処理します。オプションが true の場合、コンシューマーは中断し、失敗の原因となったメッセージのオフセットに戻ってシークし、このメッセージの処理を再試行します。ただし、これは、たとえば有害なメッセージのように毎回失敗する場合、同じメッセージの無限の処理につながる可能性があります。したがって、Camel のエラーハンドラーを使用するなどして対処することをお勧めします。

false

boolean

bridgeErrorHandler (consumer)

コンシューマーの Camel ルーティングエラーハンドラーへのブリッジを許可します。よって、コンシューマーが受信メッセージなどの取得を試行している間に発生した例外は、メッセージとして処理され、ルーティングエラーハンドラーによって処理されます。デフォルトでは、コンシューマーは org.apache.camel.spi.ExceptionHandler を使用して例外に対応し、WARN または ERROR レベルでログに記録され、無視されます。

false

boolean

checkCrcs (consumer)

消費されたレコードの CRC32 を自動的に確認します。これにより、メッセージのネットワーク上またはディスク上の破損が発生しなくなります。このチェックはオーバーヘッドを追加するため、極端なパフォーマンスを求める場合は無効になる可能性があります。

true

Boolean

consumerRequestTimeoutMs (consumer)

この設定は、クライアントの要求の応答を待つ最大時間を制御します。タイムアウトが経過する前に応答が受信されない場合、クライアントは必要に応じてリクエストを再送信します。または、再試行が使い切られるとリクエストが失敗します。

40000

Integer

consumersCount (consumer)

kafka サーバーに接続するコンシューマーの数

1

int

consumerStreams (consumer)

コンシューマー上の同時コンシューマーの数

10

int

fetchMaxBytes (consumer)

サーバーがフェッチ要求に対して返す必要があるデータの最大量。これは絶対的な最大値ではありません。フェッチの最初の空でないパーティションの最初のメッセージがこの値よりも大きい場合でも、メッセージが返されて、コンシューマーは進歩することができます。ブローカーが受け入れる最大メッセージサイズは、message.max.bytes (ブローカー設定) または max.message.bytes (トピック設定) で定義されます。コンシューマーは複数のフェッチを並行して実行することに注意してください。

52428800

Integer

fetchMinBytes (consumer)

サーバーがフェッチ要求に対して返す必要のあるデータの最小量。利用可能なデータが不十分な場合、リクエストは、リクエストに応答する前に、十分なデータが蓄積されるのを待ちます。

1

Integer

fetchWaitMaxMs (consumer)

すぐに fetch.min.bytes を満たすのに十分なデータがない場合に、サーバーがフェッチ要求に応答する前にブロックする最大時間

500

Integer

groupId (consumer)

このコンシューマーが属するコンシューマープロセスのグループを一意に識別する文字列。同じグループ ID を設定することにより、複数のプロセスはそれらがすべて同じコンシューマーグループの一部であることを示します。このオプションは、コンシューマーに必要です。

 

String

heartbeatIntervalMs (consumer)

Kafka のグループ管理機能を使用する場合の、ハートビートからコンシューマーコーディネーター間の想定される時間。ハートビートは、コンシューマーのセッションがアクティブな状態を維持し、新しいコンシューマーがグループに参加したり離脱したりする際のリバランスを促進するために使用されます。この値は session.timeout.ms よりも低く設定する必要がありますが、通常はその値の 1/3 以下に設定する必要があります。さらに低く調整することで、通常のリバランスの予想時間を制御することもできます。

3000

Integer

kafkaHeaderDeserializer (consumer)

デシリアライゼーション用の KafkaKafkaHeaderDeserializer 値をキャメルヘッダー値に設定します。

 

KafkaHeaderDeserializer

keyDeserializer (consumer)

Deserializer インターフェイスを実装する key の Deserializer クラス。

org.apache.kafka.common.serialization.StringDeserializer

String

maxPartitionFetchBytes (consumer)

サーバーが返すパーティションごとのデータの最大量。リクエストに使用される最大合計メモリーは partitions max.partition.fetch.bytes になります。このサイズは、少なくともサーバーが許可する最大メッセージサイズと同じである必要があります。そうしないと、プロデューサーがコンシューマーがフェッチできるよりも大きなメッセージを送信する可能性があります。その場合、コンシューマーは特定のパーティションで大きなメッセージを取得しようとしてスタックする可能性があります。

1048576

Integer

maxPollIntervalMs (consumer)

コンシューマーグループ管理を使用する場合の poll() の呼び出し間の最大遅延。これにより、コンシューマーがさらにレコードをフェッチする前にアイドル状態になることができる時間に上限が設定されます。このタイムアウトの期限が切れる前に poll() が呼び出されない場合、コンシューマーは失敗とみなされ、グループはパーティションを別のメンバーに再割り当てするためにリバランスします。

 

Long

maxPollRecords (consumer)

poll() への単一の呼び出しで返される最大レコード数

500

Integer

offsetRepository (consumer)

トピックの各パーティションのオフセットをローカルに保存するために使用するオフセットリポジトリー。定義すると、自動コミットが無効になります。

 

String>

partitionAssignor (consumer)

グループ管理が使用されている場合に、クライアントがコンシューマーインスタンス間でパーティションの所有権を分散するために使用するパーティション割り当て戦略のクラス名

org.apache.kafka.clients.consumer.RangeAssignor

String

pollTimeoutMs (consumer)

KafkaConsumer をポーリングするときに使用されるタイムアウト。

5000

Long

seekTo (consumer)

KafkaConsumer が起動時に最初または最後から読み取るかどうかを設定します。begin : 最初から読み取る end : 最後から読み取るこれは、以前のプロパティー seekToBeginning を置き換えています

 

String

sessionTimeoutMs (consumer)

Kafka のグループ管理機能を使用するときに障害を検出するために使用されるタイムアウト。

10000

Integer

topicIsPattern (consumer)

トピックがパターン (正規表現) であるかどうか。これを使用して、パターンに一致する動的な数のトピックをサブスクライブできます。

false

boolean

valueDeserializer (consumer)

Deserializer インターフェイスを実装する値の Deserializer クラス。

org.apache.kafka.common.serialization.StringDeserializer

String

exceptionHandler (consumer)

コンシューマーによるカスタム ExceptionHandler の使用を許可します。bridgeErrorHandler オプションが有効な場合は、このオプションは使用されないことに注意してください。デフォルトでは、コンシューマーは例外に対応し、WARN または ERROR レベルでログに記録され、無視されます。

 

ExceptionHandler

exchangePattern (consumer)

コンシューマーがエクスチェンジを作成する際に交換パターンを設定します。

 

ExchangePattern

bridgeEndpoint (producer)

オプションが true の場合、KafkaProducer は受信メッセージの KafkaConstants.TOPIC ヘッダー設定を無視します。

false

boolean

bufferMemorySize (producer)

プロデューサーが、サーバーへの送信を待機しているレコードをバッファーリングするために使用できるメモリーの合計バイト数。レコードがサーバーに配信されるよりも速く送信された場合、プロデューサはブロックするか、block.on.buffer.full で指定された設定に基づいて例外を出力します。この設定は、プロデューサが使用する合計メモリーにほぼ対応する必要があります。ただし、プロデューサが使用するすべてのメモリーがバッファーリングに使用されるわけではないため、ハードバウンドではありません。一部の追加メモリーは、圧縮 (圧縮が有効な場合) やインフライトリクエストの維持に使用されます。

33554432

Integer

circularTopicDetection (producer)

オプションが true の場合、KafkaProducer は、メッセージが kafka コンシューマーからのオリジナルである場合、メッセージが送信元と同じトピックに送り返されようとしているかどうかを検出します。KafkaConstants.TOPIC ヘッダーが元の kafka コンシューマートピックと同じである場合、ヘッダー設定は無視され、プロデューサーエンドポイントのトピックが使用されます。つまり、これにより、同じメッセージが送信元に送り返されるのを回避できます。オプション bridgeEndpoint が true に設定されている場合、このオプションは使用されません。

true

boolean

compressionCodec (producer)

このパラメーターを使用すると、このプロデューサーによって生成されるすべてのデータの圧縮コーデックを指定できます。有効な値は none、gzip、snappy です。

none

String

connectionMaxIdleMs (producer)

この設定で指定された期間 (ミリ秒単位) の後にアイドル状態の接続を閉じます。

540000

Integer

enableIdempotence (producer)

'true' に設定すると、プロデューサーは、プロデューサーは各メッセージのコピーが 1 つだけストリームに書き込まれるようにします。false の場合、プロデューサの再試行により、再試行されたメッセージの複製がストリームに書き込まれる可能性があります。true に設定した場合、このオプションでは max.in.flight.requests.per.connection を 1 に設定する必要があり、再試行をゼロにすることはできず、さらに ack を all に設定する必要があります。

false

boolean

kafkaHeaderSerializer (producer)

シリアル化 camel ヘッダー値のカスタム KafkaHeaderDeserializer を kafka ヘッダー値に設定します。

 

KafkaHeaderSerializer

key (producer)

レコードキー (キーが指定されていない場合は null)。このオプションが設定されている場合は、ヘッダーリンク KafkaConstantsKEY よりも優先されます。

 

文字列

keySerializerClass (producer)

キーのシリアライザクラス (何も指定されていない場合、デフォルトはメッセージと同じになります)。

org.apache.kafka.common.serialization.StringSerializer

String

lingerMs (producer)

プロデューサーは、リクエストの送信の間に到着したレコードを 1 つのバッチリクエストにグループ化します。通常、これは、レコードが送信できるよりも早く到着した場合に、負荷がかかった状態でのみ発生します。ただし、状況によっては、中程度の負荷がかかっている場合でも、クライアントがリクエストの数を減らす場合があります。この設定は、少量の人為的な遅延を追加することでこれを実現します。つまり、レコードをすぐに送信するのではなく、プロデューサーは指定された遅延まで待機して他のレコードを送信できるようにし、送信をまとめてバッチ処理できるようにします。これは、TCP の Nagle アルゴリズムに類似するものと考えることができます。この設定は、バッチ処理の遅延の上限を提供します。あるパーティションで batch.size 相当のレコードを取得すると、この設定に関係なくすぐに送信されますが、このパーティションで蓄積されたバイト数がこれより少ない場合は、指定された時間の間、さらにレコードが取得されるのを待つことになります。デフォルトは 0 (つまり遅延なし) に設定されます。たとえば、linger.ms=5 を設定すると、送信されるリクエストの数が減りますが、負荷がない状態で送信されるレコードに最大 5 ミリ秒のレイテンシーが追加されます。

0

Integer

maxBlockMs (producer)

設定は、kafka への送信がブロックされる時間を制御します。これらのメソッドは、複数の理由でブロックされる可能性があります。例: バッファーがいっぱい、メタデータが利用できない。この設定では、メタデータのフェッチ、キーと値のシリアル化、send () を実行するときのバッファーメモリーの分割と割り当てに費やされる合計時間に最大制限が課されます。partitionsFor () の場合、この設定はメタデータの待機に最大時間のしきい値を課します

60000

Integer

maxInFlightRequest (producer)

ブロックする前にクライアントが 1 つの接続で送信する確認されていないリクエストの最大数。この設定が 1 より大きい値に設定されていて、送信に失敗した場合、再試行によりメッセージの順序が変更されるリスクがあることに注意してください (つまり、再試行が有効になっている場合)。

5

Integer

maxRequestSize (producer)

リクエストの最大サイズ。これは事実上、最大レコードサイズの上限でもあります。サーバーには、これとは異なる場合がある独自のレコードサイズの上限があることに注意してください。この設定により、プロデューサーが 1 回のリクエストで送信するレコードバッチの数が制限され、大量のリクエストが送信されないようになります。

1048576

Integer

metadataMaxAgeMs (producer)

新しいブローカーまたはパーティションをプロアクティブに検出するためのパーティションリーダーシップの変更がない場合でも、メタデータの更新を強制するまでの期間 (ミリ秒単位)。

300000

Integer

metricReporters (producer)

メトリクスレポーターとして使用するクラスの一覧。MetricReporter インターフェイスを実装すると、新しいメトリックの作成が通知されるクラスをプラグインできます。JmxReporter は、JMX 統計を登録するために常に含まれます。

 

String

metricsSampleWindowMs (producer)

メトリクスを計算するために保持されるサンプルの数。

30000

Integer

noOfMetricsSample (producer)

メトリクスを計算するために保持されるサンプルの数。

2

Integer

partitioner (producer)

サブトピック間でメッセージを分割するパーティショナークラス。デフォルトのパーティショナーは、キーのハッシュに基づいています。

org.apache.kafka.clients.producer.internals.DefaultPartitioner

String

partitionKey (producer)

レコードの送信先のパーティション (パーティションが指定されていない場合は null)。このオプションが設定されている場合は、ヘッダーリンク KafkaConstantsPARTITION_KEY よりも優先されます

 

Integer

producerBatchSize (producer)

複数のレコードが同じパーティションに送信されるときは常に、プロデューサーはレコードをまとめてより少ない要求にバッチ処理しようとします。これにより、クライアントとサーバーの両方でパフォーマンスが向上します。この設定では、デフォルトのバッチサイズをバイト単位で制御します。このサイズより大きいバッチレコードは試行されません。ブローカーに送信されるリクエストには、複数のバッチが含まれ、送信可能なデータを含む各パーティションに 1 つずつ含まれます。バッチサイズが小さいと、バッチ処理が一般的ではなくなり、スループット (バッチサイズゼロの場合、バッチ処理が完全に無効になります)。バッチサイズが非常に大きい場合は、追加のレコードを想定して、常に指定のバッチサイズのバッファーを割り当てるため、メモリーを多少無駄に使用する可能性があります。

16384

Integer

queueBufferingMaxMessages (producer)

プロデューサをブロックするか、データを削除する前に、非同期モードを使用するときにプロデューサのキューに入れることができる未送信メッセージの最大数。

10000

Integer

receiveBufferBytes (producer)

データの読み取り時に使用する TCP 受信バッファー (SO_RCVBUF) のサイズ。

65536

Integer

reconnectBackoffMs (producer)

特定のホストへの再接続を試行するまでの待機時間。これにより、タイトなループでホストに繰り返し接続することを回避します。このバックオフは、コンシューマーからブローカーに送信されるすべてのリクエストに適用されます。

50

Integer

recordMetadata (producer)

プロデューサが Kafka への送信から RecordMetadata の結果を保存する必要があるかどうか。結果は、RecordMetadata メタデータを含む List に保存されます。リストは、キーリンク KafkaConstantsKAFKA_RECORDMETA を持つヘッダーに格納されます。

true

boolean

requestRequiredAcks (producer)

リクエストが完了したと見なす前に、プロデューサーがリーダーに受け取ったことを要求する確認の数。これは、送信されるレコードの耐久性を制御します。次の設定が一般的です: acks=0 ゼロに設定すると、プロデューサはサーバーからの確認をまったく待ちません。レコードは直ちにソケットバッファーに追加され、送信済みと見なされます。この場合、サーバーがレコードを受信したかどうかは保証されず、retries の設定は有効になりません (クライアントは通常、失敗を知ることができないからです)。各レコードに返されるオフセットは常に -1 に設定されます。acks=1 これは、リーダーがレコードをローカルログに書き込みますが、すべてのフォロワーからの完全な承認を待たずに応答することを意味します。この場合、レコードを承認した直後にリーダーが失敗したが、フォロワーがそれを複製する前に、レコードは失われます。acks=all これは、リーダーが同期レプリカの完全なセットがレコードを承認するまで待機することを意味します。これにより、少なくとも 1 つの In-Sync レプリカが動作している限り、レコードが失われないことが保証されます。これは利用可能な最強の保証になります。

1

String

requestTimeoutMs (producer)

クライアントにエラーを返す前に、ブローカーが request.required.acks 要件を満たすために待機する時間。

305000

Integer

retries (producer)

ゼロより大きい値を設定すると、クライアントは、一時的なエラーの可能性により送信に失敗したレコードを再送信します。この再試行は、クライアントがエラーを受信したときにレコードを再送した場合と同じであることに注意してください。再試行を許可すると、レコードの順序が変更される可能性があります。これは、2 つのレコードが 1 つのパーティションに送信され、最初のレコードが失敗して再試行され、2 番目のレコードが成功した場合、2 番目のレコードが最初に表示される可能性があるためです。

0

Integer

retryBackoffMs (producer)

各再試行の前に、プロデューサーは関連するトピックのメタデータを更新して、新しいリーダーが選出されたかどうかを確認します。リーダーの選択には少し時間がかかるため、このプロパティーはプロデューサーがメタデータを更新するまで待機する時間を指定します。

100

Integer

sendBufferBytes (producer)

ソケット書き込みバッファーサイズ

131072

Integer

serializerClass (producer)

メッセージのシリアライザクラス。

org.apache.kafka.common.serialization.StringSerializer

String

workerPool (producer)

カスタムワーカープールを使用して、kafka サーバーが非同期のノンブロッキング処理を使用して KafkaProducer から送信されたメッセージを確認した後、Exchange のルーティングを続行します。

 

ExecutorService

workerPoolCoreSize (producer)

Kafka サーバーが非同期のノンブロッキング処理を使用して KafkaProducer から送信されたメッセージを確認した後、Exchange のルーティングを続行するためのワーカープールのコアスレッドの数。

10

Integer

workerPoolMaxSize (producer)

Kafka サーバーが、非同期のノンブロッキング処理を使用して KafkaProducer から送信されたメッセージを確認した後、Exchange のルーティングを続行するためのワーカープールのスレッドの最大数。

20

Integer

synchronous (advanced)

同期処理を厳密に使用するか、Camel が非同期処理を使用できるかどうかを設定します (サポートされている場合)。

false

boolean

interceptorClasses (monitoring)

プロデューサーまたはコンシューマーのインターセプターを設定します。Producer インターセプターは org.apache.kafka.clients.producer.ProducerInterceptor を実装するクラスでなければなりません Consumer インターセプターは org.apache.kafka.clients.consumer.ConsumerInterceptor を実装するクラスでなければなりません実行時のクラスキャスト例外

 

String

kerberosBeforeReloginMin Time (security)

更新試行間のログインスレッドのスリープ時間。

60000

Integer

kerberosInitCmd (security)

Kerberos kinit コマンドパス。デフォルトは/usr/bin/kinit です

/usr/bin/kinit

String

kerberosPrincipalToLocal Rules (security)

プリンシパル名から短縮名 (通常はオペレーティングシステムのユーザー名) にマッピングするためのルールの一覧です。ルールは順番に評価され、プリンシパル名と一致する最初のルールは、これを短縮名にマップするために使用されます。一覧の後続のルールは無視されます。デフォルトでは、username/hostnameREALM 形式のプリンシパル名は username にマッピングされます。形式の詳細は、security authorization および acls を参照してください。複数の値はコンマで区切ることができます

DEFAULT

String

kerberosRenewJitter (security)

更新時間に追加されたランダムなジッターの割合。

0.05

double

kerberosRenewWindowFactor (security)

ログインスレッドは、最後の更新からチケットの有効期限までの指定された時間のウィンドウファクターに達するまでスリープし、その時点でチケットの更新を試みます。

0.8

double

saslJaasConfig (security)

kafka sasl.jaas.config パラメーターを公開します。例: org.apache.kafka.common.security.plain.PlainLoginModule required username=USERNAME password=PASSWORD;

 

String

saslKerberosServiceName (security)

Kafka が実行される Kerberos プリンシパル名。これは、Kafka の JAAS 設定または Kafka の設定で定義できます。

 

String

saslMechanism (security)

使用される Simple Authentication and Security Layer(SASL) メカニズム。有効な値については、http://www.iana.org/assignments/sasl-mechanisms/sasl-mechanisms.xhtml を参照してください。

GSSAPI

String

securityProtocol (security)

ブローカーとの通信に使用されるプロトコル。現在、PLAINTEXT と SSL のみがサポートされています。

PLAINTEXT

String

sslCipherSuites (security)

暗号化スイートの一覧。これは、TLS または SSL ネットワークプロトコルを使用してネットワーク接続のセキュリティー設定をネゴシエートするために使用される、認証、暗号化、MAC、およびキー交換アルゴリズムの名前付きの組み合わせです。デフォルトでは、利用可能なすべての暗号スイートがサポートされています。

 

String

sslContextParameters (security)

Camel SSLContextParameters オブジェクトを使用した SSL 設定。設定されている場合、他の SSL エンドポイントパラメーターの前に適用されます。

 

SSLContextParameters

sslEnabledProtocols (security)

SSL 接続で有効なプロトコルの一覧。TLSv1.2、TLSv1.1、および TLSv1 はデフォルトで有効になっています。

TLSv1.2,TLSv1.1,TLSv1

String

sslEndpointAlgorithm (security)

サーバー証明書を使用してサーバーのホスト名を検証するエンドポイント識別アルゴリズム。

 

String

sslKeymanagerAlgorithm (security)

SSL 接続のキーマネージャーファクトリーによって使用されるアルゴリズム。デフォルト値は、Java 仮想マシンに設定されたキーマネージャーファクトリーアルゴリズムです。

SunX509

String

sslKeyPassword (security)

キーストアファイル内の秘密キーのパスワード。これはクライアントにとってオプションになります。

 

String

sslKeystoreLocation (security)

キーストアファイルのロケーション。これはクライアントではオプションで、クライアントの双方向認証に使用できます。

 

String

sslKeystorePassword (security)

キーストアファイルのストアパスワード。これはクライアントのオプションであり、ssl.keystore.location が設定されている場合にのみ必要です。

 

String

sslKeystoreType (security)

キーストアファイルのファイル形式。これはクライアントにとってオプションになります。デフォルト値は JKS です

JKS

String

sslProtocol (security)

SSLContext の生成に使用される SSL プロトコル。デフォルト設定は TLS で、ほとんどの場合はこれで問題ありません。最近の JVM で許可されている値は、TLS、TLSv1.1、および TLSv1.2 です。SSL、SSLv2、および SSLv3 は古い JVM でサポートされている可能性がありますが、セキュリティーの脆弱性が知られているため、それらの使用はお勧めできません。

TLS

String

sslProvider (security)

SSL 接続に使用されるセキュリティープロバイダーの名前。デフォルト値は JVM のデフォルトのセキュリティープロバイダーです。

 

String

sslTrustmanagerAlgorithm (security)

SSL 接続のトラストマネージャーファクトリーによって使用されるアルゴリズム。デフォルト値は、Java 仮想マシンに設定されたトラストマネージャーファクトリーアルゴリズムです。

PKIX

String

sslTruststoreLocation (security)

トラストストアファイルのロケーション。

 

String

sslTruststorePassword (security)

トラストストアファイルのパスワード。

 

String

sslTruststoreType (security)

トラストストアファイルのファイル形式。デフォルト値は JKS です。

JKS

文字列

Producer/Consumer 設定の詳細については、以下を参照してください。

http://kafka.apache.org/documentation.html#newconsumerconfigs http://kafka.apache.org/documentation.html#producerconfigs